JP2017069862A - Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program - Google Patents

Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program Download PDF

Info

Publication number
JP2017069862A
JP2017069862A JP2015195858A JP2015195858A JP2017069862A JP 2017069862 A JP2017069862 A JP 2017069862A JP 2015195858 A JP2015195858 A JP 2015195858A JP 2015195858 A JP2015195858 A JP 2015195858A JP 2017069862 A JP2017069862 A JP 2017069862A
Authority
JP
Japan
Prior art keywords
vector
prediction
encoding
picture
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015195858A
Other languages
Japanese (ja)
Inventor
智史 島田
Tomohito Shimada
智史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015195858A priority Critical patent/JP2017069862A/en
Publication of JP2017069862A publication Critical patent/JP2017069862A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a dynamic image encoding device capable of suppressing reduction of encoding efficiency even without sharing information about a motion vector between encoders when performing encoding while using a different encoder for each of regions obtained by dividing a picture.SOLUTION: Regarding a restriction object block that refers to a referenced block within a second region of the other picture encoded by the other encoder in the case of prediction vector generation, an encoder (11-1) which is included in the dynamic image encoding device and encodes a first region within a picture assumed that a motion vector is defined in the referenced block, uses a dummy vector in place of the motion vector in the referenced block to generate a first temporary list including candidates of a prediction vector, assumes that the motion vector is not defined in the referenced block, generates a second temporary list including candidates of the prediction vector and, if the candidates of the prediction vector at the same position between the two temporary lists become identical, enables the candidates of the prediction vector to be used.SELECTED DRAWING: Figure 19

Description

本発明は、例えば、ピクチャを複数の領域に分割して領域ごとに符号化する動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラムに関する。   The present invention relates to, for example, a moving picture coding apparatus, a moving picture coding method, and a moving picture coding computer program that divide a picture into a plurality of areas and code each area.

動画像データは、一般に非常に大きなデータ量を有する。そのため、動画像データを扱う装置は、動画像データを他の装置へ送信しようとする場合、あるいは、動画像データを記憶装置に記憶しようとする場合、動画像データを高能率符号化する。なお、「高能率符号化」とは、あるデータ列を他のデータ列に変換する符号化処理であって、そのデータ量を圧縮する処理をいう。   The moving image data generally has a very large amount of data. For this reason, a device that handles moving image data encodes moving image data with high efficiency when moving image data is to be transmitted to another device or when moving image data is to be stored in a storage device. “High-efficiency encoding” refers to an encoding process for converting a data string into another data string and compressing the data amount.

動画像データの高能率符号化方法として、ピクチャ内予測(イントラ予測)符号化方法が知られている。この符号化方法は、動画像データが空間方向に相関性が高いことを利用し、他のピクチャの符号化画像を用いない。ピクチャ内予測符号化方法で符号化されたピクチャは、そのピクチャ内の情報のみで復元できる。   As a high-efficiency encoding method for moving image data, an intra-picture prediction (intra prediction) encoding method is known. This encoding method uses the fact that moving image data is highly correlated in the spatial direction, and does not use encoded images of other pictures. A picture encoded by the intra-picture predictive encoding method can be restored only with information in the picture.

また、高能率符号化方法で採用されている他の符号化方式として、ピクチャ間予測(インター予測)符号化方法が知られている。この符号化方法は、動画像データが時間方向に相関性が高いことを利用する。動画像データでは、一般に、あるタイミングのピクチャとそのピクチャに後続するピクチャ間の類似度が高いことが多い。そのため、インター予測符号化方法は、動画像データのその性質を使用する。一般に、動画像符号化装置は、符号化対象の原ピクチャを複数の符号化ブロックに分割する。動画像符号化装置は、ブロックごとに、符号化済みピクチャを復号して得られた局部復号ピクチャのうちの参照ピクチャから、符号化ブロックと類似している領域を参照ブロックとして選択する。そして動画像符号化装置は、参照ブロックと符号化ブロック間の差分を表す予測誤差信号を計算することで、時間的な冗長性を取り除く。そして動画像符号化装置は、符号化ブロックと参照ブロック間の移動量を示す動きベクトル情報および予測誤差信号を符号化することにより、高い圧縮率が実現される。一般的に、イントラ予測符号化方法よりも、インター予測符号化方法の方が圧縮効率が高い。   Further, as another encoding method employed in the high efficiency encoding method, an inter-picture prediction (inter prediction) encoding method is known. This encoding method uses the fact that moving image data is highly correlated in the time direction. In moving image data, in general, there is often a high degree of similarity between a picture at a certain timing and a picture that follows that picture. Therefore, the inter prediction encoding method uses the property of moving image data. In general, a moving image encoding apparatus divides an original picture to be encoded into a plurality of encoded blocks. For each block, the moving image encoding apparatus selects, as a reference block, an area similar to the encoded block from the reference pictures among the locally decoded pictures obtained by decoding the encoded pictures. Then, the moving picture coding apparatus removes temporal redundancy by calculating a prediction error signal representing a difference between the reference block and the coding block. Then, the moving image encoding apparatus realizes a high compression rate by encoding the motion vector information indicating the amount of movement between the encoded block and the reference block and the prediction error signal. In general, the inter prediction encoding method has higher compression efficiency than the intra prediction encoding method.

これらの予測符号化方法を採用する代表的な動画像の符号化方式として、International Standardization Organization/International Electrotechnical Commission(ISO/IEC)で策定されたMoving Picture Experts Group phase 2(MPEG-2)、MPEG-4、あるいはH.264 MPEG-4 Advanced Video Coding(H.264 MPEG-4 AVC)が広く利用されている。これらの符号化方式では、例えば、ピクチャについて、イントラ予測符号化方法とインター予測符号化方法のいずれが選択されたかは、符号化された動画像データを含む映像ストリームに明示的に記載される。選択された予測符号化方法は符号化モードと呼ばれる。   Typical picture coding methods that employ these predictive coding methods are Moving Picture Experts Group phase 2 (MPEG-2), MPEG-, developed by the International Standardization Organization / International Electrotechnical Commission (ISO / IEC). 4 or H.264 MPEG-4 Advanced Video Coding (H.264 MPEG-4 AVC) is widely used. In these encoding schemes, for example, whether an intra prediction encoding method or an inter prediction encoding method is selected for a picture is explicitly described in a video stream including encoded moving image data. The selected predictive coding method is called a coding mode.

これらの動画像符号化方式では、Iピクチャ、Pピクチャ、Bピクチャが規定されている。Iピクチャは、ピクチャ自身の情報のみを用いて符号化されるピクチャである。符号化対象のピクチャがIピクチャであれば、動画像符号化装置は、実際に使用する予測方法としてイントラ予測符号化方法のみを選択できる。   In these moving picture coding systems, I picture, P picture, and B picture are defined. An I picture is a picture that is encoded using only the information of the picture itself. If the picture to be coded is an I picture, the moving picture coding apparatus can select only the intra prediction coding method as the prediction method to be actually used.

一方、Pピクチャは、既に符号化されている1枚のピクチャの情報を用いてインター予測符号化することが可能なピクチャである。Bピクチャは、既に符号化されている2枚のピクチャの情報を用いて双方向予測符号化することが可能なピクチャである。符号化対象のピクチャがPピクチャまたはBピクチャであれば、動画像符号化装置は、実際に使用する予測方法として、イントラ予測符号化方法だけでなく、インター予測符号化方法を選択できる。   On the other hand, a P picture is a picture that can be inter-predictively encoded using information of one already encoded picture. A B picture is a picture that can be bi-predictively encoded using information of two pictures that have already been encoded. If the picture to be coded is a P picture or a B picture, the moving picture coding apparatus can select not only an intra prediction coding method but also an inter prediction coding method as a prediction method to be actually used.

一般に、ピクチャに含まれる画素数が多くなるほど、動画像符号化処理の演算量も増加する。そこで、動画像に含まれる各ピクチャを、それぞれ、複数の領域に分割し、各領域をそれぞれ個別の符号化器で符号化することで、符号化に要する時間を短縮することが検討されている。   In general, as the number of pixels included in a picture increases, the amount of calculation of the moving image encoding process also increases. Therefore, it has been studied to reduce the time required for encoding by dividing each picture included in a moving image into a plurality of regions and encoding each region with an individual encoder. .

ピクチャを複数の領域に分割する方法として、ピクチャをスライス(Slice)単位で分割することが知られている。この場合、各符号化器は、入力されたスライスを1ピクチャと見なしてそれぞれ独立してスライスを符号化し、各符号化器から出力された符号化データが多重化されて出力される。このように、スライスごとに異なる符号化器を利用することで、符号化器としてそれぞれ処理能力の低い演算装置が利用可能であるため、例えば、全体として符号化装置の製造コストを抑制できる場合がある。   As a method for dividing a picture into a plurality of regions, it is known to divide a picture in units of slices. In this case, each encoder regards the input slice as one picture and independently encodes the slice, and the encoded data output from each encoder is multiplexed and output. In this way, by using different encoders for each slice, it is possible to use arithmetic devices with low processing capabilities as encoders. For example, the manufacturing cost of the encoders as a whole can be suppressed. is there.

また、複数の符号化器がそれぞれ異なる領域を符号化する方式では、過去に符号化されたピクチャ全体の符号化データが、各符号化器からアクセス可能な共有情報として保存される。その際、必要なハードウェアリソースを削減するために、共有情報のデータ量を抑制することで、共有情報の一時格納メモリを小さくすることが検討されている(例えば、特許文献1〜3を参照)。   Also, in a method in which a plurality of encoders encode different regions, encoded data of the entire picture encoded in the past is stored as shared information accessible from each encoder. At that time, in order to reduce the necessary hardware resources, it is considered to reduce the temporary storage memory of the shared information by suppressing the data amount of the shared information (see, for example, Patent Documents 1 to 3). ).

特開平7−135654号公報JP 7-135654 A 特開平10−276437号公報JP-A-10-276437 特開2000−165883号公報JP 2000-165883 A

最新の動画像符号化方式(High Efficiency Video Coding、HEVC)では、ピクチャは、Coding Tree Unit(CTU)単位で分割され、個々のスライスにおいて、各CTUがラスタスキャン順に符号化される。そして一つのスライスに含まれる複数のCTUは、一つのグループとして取り扱われ、あるスライスに含まれるCTUを符号化する際に、同一ピクチャの他のスライスからそのCTUを予測することは禁止される。   In the latest video coding scheme (High Efficiency Video Coding, HEVC), a picture is divided in units of Coding Tree Unit (CTU), and each CTU is encoded in the order of raster scanning in each slice. A plurality of CTUs included in one slice are handled as one group, and when encoding a CTU included in a certain slice, it is prohibited to predict the CTU from other slices of the same picture.

また、HEVCでは、ピクチャを分割する単位として、スライスとともに、タイル(Tile)が新たに導入されている。タイルは、スライスと異なり、垂直方向にもピクチャを分割するように設定可能である。例えば、タイルは、矩形形状に設定される。   In HEVC, tiles (Tile) are newly introduced together with slices as a unit for dividing a picture. Unlike a slice, a tile can be set to divide a picture in the vertical direction. For example, the tile is set to a rectangular shape.

図1は、ピクチャに設定されたタイルの一例を示す図である。この例では、ピクチャ100は、水平方向及び垂直方向のタイル境界103により、4個の矩形状のタイル101で格子状に分割される。CTU102は、矩形状のタイル101ごとにグルーピングされる。ピクチャ100内の各タイル101は、ラスタスキャン順で符号化される。また、タイル101内の各CTU102もラスタスキャン順で符号化される。   FIG. 1 is a diagram illustrating an example of tiles set in a picture. In this example, the picture 100 is divided into a lattice shape by four rectangular tiles 101 by the tile boundaries 103 in the horizontal direction and the vertical direction. The CTUs 102 are grouped for each rectangular tile 101. Each tile 101 in the picture 100 is encoded in raster scan order. Each CTU 102 in the tile 101 is also encoded in raster scan order.

あるタイルに含まれるCTUを符号化する際には、同一ピクチャのタイル間の境界を跨いだ他のタイルからそのCTUを予測することは禁止される。一方、動画像符号化装置は、あるタイルに含まれるCTUを符号化する際に、既に符号化されている他のピクチャの他のタイルからそのCTUを予測してもよい。   When a CTU included in a tile is encoded, it is prohibited to predict the CTU from another tile across the boundary between tiles of the same picture. On the other hand, when encoding a CTU included in a certain tile, the moving image encoding apparatus may predict the CTU from another tile of another already encoded picture.

一方、HEVCでは、動きベクトルを予測符号化するために、予測ベクトルが求められる。HEVCでは、予測ベクトルを設定する方法を規定するベクトルモードとして、二つのモードが規定されている。その一方は、予測ベクトルを用いて差分ベクトルを符号化するAdaptive Motion Vector Prediction(AMVP)モードであり、他方は、符号化済みPUの動きベクトルを符号化対象PUの動きベクトルとしてコピーするMergeモードである。これらのモードでは、予測ベクトルを作成する方法を規定するモードとして、以下のものが規定されている。
・符号化対象ブロックの空間的な周囲ブロックの動きベクトルを用いるSpatialモード。なお、以下では、Spatialモードにより、符号化対象ブロックの空間的な周囲ブロックの動きベクトルのなかから選択される予測ベクトルの候補を、空間予測ベクトルと呼ぶ。
・符号化対象ブロックを含む符号化対象ピクチャに対して時間的に前の符号化済みピクチャにおける、符号化対象ブロックと同一の領域の周囲ブロックの動きベクトルを用いるTemporalモード。なお、以下では、Temporalモードにより、符号化済みの他のピクチャ上のブロックの動きベクトルのなかから選択される予測ベクトルの候補を、時間予測ベクトルと呼ぶ。
・空間予測ベクトルと時間予測ベクトルの組合せのベクトルを用いるcombined bi-predictive(結合両予測)モード
・大きさがゼロ、すなわち、水平方向の移動量を表す要素の値及び垂直方向の移動量を表す要素の値がともに0であるゼロベクトルを用いるゼロモード
On the other hand, in HEVC, a prediction vector is obtained in order to predictively encode a motion vector. In HEVC, two modes are defined as vector modes that define a method for setting a prediction vector. One is Adaptive Motion Vector Prediction (AMVP) mode that encodes the difference vector using the prediction vector, and the other is Merge mode that copies the motion vector of the encoded PU as the motion vector of the encoding target PU. is there. In these modes, the following are defined as modes for defining a method for creating a prediction vector.
Spatial mode using motion vectors of spatial surrounding blocks of the encoding target block. Hereinafter, prediction vector candidates selected from the spatial motion vectors of spatial surrounding blocks of the encoding target block in the Spatial mode are referred to as spatial prediction vectors.
Temporal mode using motion vectors of surrounding blocks in the same area as the encoding target block in the previously encoded picture temporally before the encoding target picture including the encoding target block. In the following, a prediction vector candidate selected from motion vectors of blocks on another encoded picture in the Temporal mode is referred to as a temporal prediction vector.
-Combined bi-predictive mode using a combination of spatial prediction vector and temporal prediction vector-Combined bi-predictive mode-Zero, that is, the value of the element representing the horizontal movement amount and the vertical movement amount Zero mode using a zero vector whose elements are both zero

AMVPモード及びMergeモードでは、時間予測ベクトルを求める際に、タイル間の境界を跨いだ参照が行われる可能性が有る。タイルごとに異なる符号化器を用いて動画像を符号化する際、このようなタイル間の境界を跨いだ動きベクトルの参照を可能とするためには、複数の符号化器間で、動きベクトルなどの情報が共有されることがもとめられる。一方、複数の符号化器間で共有される情報を削減するために、符号化器によるタイル間の境界を跨いだ動きベクトルの参照を禁止すると、利用可能な予測ベクトルの候補の数が不十分となることがある。また、場合によっては、使用可能な予測ベクトルの候補がなく、イントラ予測符号化モードを適用せざるを得なくなることがある。その結果として、符号化効率が低下してしまうおそれがある。   In the AMVP mode and the Merge mode, when obtaining the temporal prediction vector, there is a possibility that reference across the boundary between tiles is performed. When encoding a moving image using different encoders for each tile, in order to be able to refer to the motion vector across the boundary between the tiles, a motion vector is used between a plurality of encoders. Such information is required to be shared. On the other hand, in order to reduce information shared among multiple encoders, if the encoder prohibits motion vector references across tile boundaries, the number of available prediction vector candidates is insufficient. It may become. In some cases, there are no usable prediction vector candidates, and the intra-prediction coding mode must be applied. As a result, there is a possibility that the coding efficiency is lowered.

一つの側面では、本発明は、ピクチャを分割した領域ごとに異なる符号化器で符号化する場合に、符号化器間で動きベクトルに関する情報を共有しなくても符号化効率の低下を抑制できる動画像符号化装置を提供することを目的とする。   In one aspect, the present invention can suppress a decrease in encoding efficiency without sharing information on motion vectors between encoders when encoding is performed with different encoders for each divided region of a picture. It is an object of the present invention to provide a moving image encoding apparatus.

一つの実施形態によれば、動画像に含まれるピクチャを符号化する動画像符号化装置が提供される。この動画像符号化装置は、ピクチャを複数の領域に分割する分割部と、複数の領域のうちの互いに異なる領域を符号化して符号化データを生成する複数の符号化器と、複数の符号化器のそれぞれから出力された符号化データを所定の順序で並べてピクチャの符号化データを生成する多重化部とを有する。
複数の符号化器のうちの第1の符号化器は、複数の領域のうちの第1の符号化器が符号化する第1の領域を分割した複数のブロックのうち、動きベクトルに対する予測ベクトルの生成方式を規定する所定のベクトルモードにおいて、符号化済みの他のピクチャを分割した複数の領域のうちの、複数の符号化器のうちの第2の符号化器により符号化された第2の領域に含まれる被参照ブロックを参照する制限対象ブロックを特定する制限ブロック特定部と、制限対象ブロックについて、被参照ブロックに動きベクトルが定義されていると仮定し、かつ、被参照ブロックの動きベクトルの代わりにダミーのベクトルを用いて、所定のベクトルモードに従って複数の予測ベクトルの候補を含む第1の仮リストを生成する第1の仮リスト生成部と、制限対象ブロックについて、被参照ブロックに動きベクトルが定義されていないと仮定して、所定のベクトルモードに従って複数の予測ベクトルの候補を含む第2の仮リストを生成する第2の仮リスト生成部と、第1の仮リストと第2の仮リスト間で同じ位置にある予測ベクトルの候補同士が同一となる場合にその予測ベクトルの候補を使用可能とする共通候補特定部と、制限対象ブロックをインター予測符号化モードで符号化する場合に、使用可能な予測ベクトルの候補の何れかを予測ベクトルとして用いることにより、第1の領域の予測符号化データを生成する予測符号化部と、予測符号化データをエントロピー符号化することで符号化データを生成するエントロピー符号化部とを有する。
According to one embodiment, a moving picture coding apparatus for coding a picture included in a moving picture is provided. The moving image encoding apparatus includes: a division unit that divides a picture into a plurality of regions; a plurality of encoders that encode different regions of the plurality of regions to generate encoded data; and a plurality of encodings And a multiplexing unit that generates encoded data of a picture by arranging the encoded data output from each of the units in a predetermined order.
The first encoder of the plurality of encoders is a prediction vector for a motion vector among a plurality of blocks obtained by dividing the first region encoded by the first encoder of the plurality of regions. In a predetermined vector mode that defines the generation method of the second encoded by the second encoder of the plurality of encoders of the plurality of regions obtained by dividing another encoded picture. It is assumed that a restriction block specifying unit that specifies a restriction target block that refers to a reference block included in the area of the block, a motion vector is defined in the reference block for the restriction target block, and the motion of the reference block A first temporary list generating unit that generates a first temporary list including a plurality of prediction vector candidates according to a predetermined vector mode using a dummy vector instead of a vector; Assuming that no motion vector is defined in the referenced block for the target block, a second temporary list generation unit that generates a second temporary list including a plurality of prediction vector candidates according to a predetermined vector mode; When prediction vector candidates at the same position between the first temporary list and the second temporary list are the same, a common candidate specifying unit that can use the prediction vector candidates, and inter prediction of the restriction target block When encoding in the encoding mode, a prediction encoding unit that generates prediction encoded data of the first region by using any of the usable prediction vector candidates as a prediction vector, and prediction encoded data And an entropy encoding unit that generates encoded data by entropy encoding.

ピクチャを分割した領域ごとに異なる符号化器で符号化する場合に、符号化器間で動きベクトルに関する情報を共有しなくても符号化効率の低下を抑制できる。   When encoding is performed with different encoders for each divided region of the picture, it is possible to suppress a decrease in encoding efficiency without sharing information regarding motion vectors between the encoders.

ピクチャに設定されたタイルの一例を示す図である。It is a figure which shows an example of the tile set to the picture. HEVCによる、ピクチャの分割の一例を示す図である。It is a figure which shows an example of the division | segmentation of the picture by HEVC. AMVPモードでの予測ベクトルの決定手順を示す動作フローチャートである。It is an operation | movement flowchart which shows the determination procedure of the prediction vector in AMVP mode. AMVPモードにおける、空間予測ベクトルの登録順序を示す図である。It is a figure which shows the registration order of the spatial prediction vector in AMVP mode. (a)〜(c)は、それぞれ、符号化対象ブロックとColPUの位置関係の一例を示す図である。(A)-(c) is a figure which shows an example of the positional relationship of an encoding object block and ColPU, respectively. Mergeモードでの予測ベクトルの候補リストmergeCandListの作成手順を示す動作フローチャートである。12 is an operation flowchart showing a procedure for creating a prediction vector candidate list mergeCandList in Merge mode. Mergeモードにおける、空間予測ベクトルの登録順序を示す図である。It is a figure which shows the registration order of a spatial prediction vector in Merge mode. L0方向の予測ベクトル候補及びL1方向の予測ベクトル候補と結合両予測ベクトル候補mvLXcombCandの関係を表すテーブルを示す図である。It is a figure which shows the table showing the relationship between the prediction vector candidate of L0 direction, the prediction vector candidate of L1 direction, and combined prediction vector candidate mvLXcombCand. タイルと時間予測ベクトルの関係を示す図である。It is a figure which shows the relationship between a tile and a time prediction vector. 一つの実施形態による動画像符号化装置の概略構成図である。It is a schematic block diagram of the moving image encoder by one Embodiment. タイル間の境界の位置の説明図である。It is explanatory drawing of the position of the boundary between tiles. 符号化器の概略構成図である。It is a schematic block diagram of an encoder. CTUの水平方向のインデックスの割り当て方法を示す図である。It is a figure which shows the allocation method of the index of the horizontal direction of CTU. (a)〜(d)は、CUの階層構造ごとに、一つのCTUに含まれる各CUに割り当てられるインデックスを示す図である。(A)-(d) is a figure which shows the index allocated to each CU contained in one CTU for every hierarchical structure of CU. (a)〜(d)は、それぞれ、サイズが64x64画素、32x32画素、16x16画素、8x8画素のCUについて、インター予測制限対象CUを示すマップである。(A)-(d) is a map which shows inter prediction restriction | limiting object CU about CU whose size is 64x64 pixel, 32x32 pixel, 16x16 pixel, and 8x8 pixel, respectively. (a)〜(h)は、それぞれ、一つのCUに含まれる各PUに割り当てられる、インデックスを示す図である。(A)-(h) is a figure which shows the index each allocated to each PU contained in one CU. (a)〜(h)は、それぞれ、PU分割モードPartModeが2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nである場合のインター予測制限対象PUを示すマップの一例である。(A)-(h) is an example of the map which shows inter prediction restriction | limiting object PU in case PU division mode PartMode is 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2N, respectively. (a)〜(h)は、それぞれ、PU分割モードPartModeが2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nである場合のインター予測制限対象PUを示すマップの他の一例である。(A)-(h) is another example of the map which shows inter prediction restriction | limiting object PU in case PU division mode PartMode is 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2N, respectively. 予測ベクトル候補リスト生成部の概略構成図である。It is a schematic block diagram of a prediction vector candidate list production | generation part. インター予測制限対象PUの周囲のPUの動きベクトルと、Mergeモードで生成される第1の仮リスト及び第2の仮リストの一例を示す図である。It is a figure which shows an example of the motion vector of PU around the prediction prediction object PU, and the 1st temporary list and 2nd temporary list which are produced | generated by Merge mode. インター予測制限対象PUの周囲のPUの動きベクトルと、Mergeモードで生成される第1の仮リスト及び第2の仮リストの他の一例を示す図である。It is a figure which shows another example of the motion vector of PU around the inter prediction restriction | limiting target PU, and the 1st temporary list produced | generated in Merge mode, and a 2nd temporary list. インター予測制限対象PUの周囲のPUの動きベクトルと、AMVPモードで生成される第1の仮リスト及び第2の仮リストの一例を示す図である。It is a figure which shows an example of the motion vector of PU around the inter prediction restriction target PU, and the first temporary list and the second temporary list generated in the AMVP mode. 予測ベクトル候補リスト生成処理の動作フローチャートである。It is an operation | movement flowchart of a prediction vector candidate list production | generation process. 符号化モード決定の手順の説明図である。It is explanatory drawing of the procedure of encoding mode determination. 動画像符号化処理の動作フローチャートである。It is an operation | movement flowchart of a moving image encoding process. 実施形態またはその変形例による動画像符号化装置の各部の機能を実現するコンピュータプログラムが動作することにより、動画像符号化装置として動作するコンピュータの構成図である。It is a block diagram of the computer which operate | moves as a moving image encoder by the computer program which implement | achieves the function of each part of the moving image encoder by embodiment or its modification.

以下、図を参照しつつ、一つの実施形態による、動画像符号化装置について説明する。この動画像符号化装置は、ピクチャを複数の領域に分割し、複数の符号化器のそれぞれが異なる領域を符号化する。その際、この動画像符号化装置の各符号化器は、他の符号化器が符号化する領域の動きベクトルに関する情報を参照せずに、動きベクトルを予測符号化する。そこで先ず、HEVCにおける、CTUの詳細と、動きベクトルの予測符号化方式について説明する。   Hereinafter, a moving picture coding apparatus according to an embodiment will be described with reference to the drawings. This moving image encoding apparatus divides a picture into a plurality of regions, and each of the plurality of encoders encodes a different region. At this time, each encoder of the moving image encoding apparatus predictively encodes a motion vector without referring to information on a motion vector in a region encoded by another encoder. First, the details of the CTU and the motion vector predictive coding method in HEVC will be described.

図2は、HEVCによる、ピクチャの分割の一例を示す図である。図2に示されるように、ピクチャ200は、CTU単位で分割され、各CTU201は、ラスタスキャン順に符号化される。CTU201のサイズは、64x64〜16x16画素の中から選択できる。ただし、CTU201のサイズは、シーケンス単位で一定とされる。   FIG. 2 is a diagram illustrating an example of picture division by HEVC. As shown in FIG. 2, the picture 200 is divided in units of CTUs, and each CTU 201 is encoded in the raster scan order. The size of the CTU 201 can be selected from 64 × 64 to 16 × 16 pixels. However, the size of the CTU 201 is constant for each sequence.

CTU201は、さらに、四分木構造で複数のCoding Unit(CU)202に分割される。一つのCTU201内の各CU202は、Zスキャン順に符号化される。CU202のサイズは可変であり、そのサイズは、CU分割モード8x8〜64x64画素の中から選択される。CU202は、符号化モードであるイントラ予測符号化モードとインター予測符号化モードを選択する単位となる。CU202は、Prediction Unit(PU)203単位またはTransform Unit(TU)204単位で個別に処理される。PU203は、符号化モードに応じた予測が行われる単位となる。例えば、PU203は、イントラ予測符号化モードでは、予測モードが適用される単位となり、インター予測符号化モードでは、動き補償を行う単位となる。PU203のサイズは、例えば、インター予測符号化では、PU分割モードPartMode =2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nの中から選択できる。一方、TU204は、直交変換の単位であり、TU204のサイズは、4x4画素〜32x32画素の中から選択される。TU204は、四分木構造で分割され、Zスキャン順に処理される。   The CTU 201 is further divided into a plurality of Coding Units (CU) 202 in a quadtree structure. Each CU 202 in one CTU 201 is encoded in the Z scan order. The size of the CU 202 is variable, and the size is selected from 8 × 8 to 64 × 64 pixels in the CU division mode. The CU 202 is a unit for selecting an intra prediction encoding mode and an inter prediction encoding mode that are encoding modes. The CU 202 is individually processed in units of Prediction Unit (PU) 203 or Transform Unit (TU) 204. The PU 203 is a unit for performing prediction according to the encoding mode. For example, the PU 203 is a unit to which the prediction mode is applied in the intra prediction coding mode, and is a unit for performing motion compensation in the inter prediction coding mode. The size of the PU 203 can be selected, for example, from PU partition modes PartMode = 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, and nLx2N in inter prediction coding. On the other hand, the TU 204 is a unit of orthogonal transformation, and the size of the TU 204 is selected from 4 × 4 pixels to 32 × 32 pixels. The TU 204 is divided by a quadtree structure and processed in the Z scan order.

次に、HEVCにおける、動きベクトルの予測符号化方式について説明する。最初に、AMVPモードについて説明する。   Next, a motion vector predictive coding method in HEVC will be described. First, the AMVP mode will be described.

AMVPモードでは、予測方向ごとに、予測ベクトルとして利用可能なベクトルの候補を最大で二つ含む予測ベクトル候補リストmvpListLXが作成される。   In the AMVP mode, a prediction vector candidate list mvpListLX including a maximum of two vector candidates that can be used as prediction vectors is created for each prediction direction.

図3は、AMVPモードでの予測ベクトルの決定手順を示す動作フローチャートである。
動画像符号化装置は、まず、符号化対象ブロックに隣接する、既に符号化されたブロックの動きベクトルのなかから、予測ベクトルの候補を選択する。
FIG. 3 is an operation flowchart showing a procedure for determining a prediction vector in the AMVP mode.
The video encoding apparatus first selects a prediction vector candidate from motion vectors of an already encoded block adjacent to the encoding target block.

具体的には、動画像符号化装置は、符号化対象ブロックの左側に隣接するブロックの動きベクトルを、所定の順序に従って空間予測ベクトルmvLXAとして選択する(ステップS101)。   Specifically, the video encoding apparatus selects a motion vector of a block adjacent to the left side of the encoding target block as a spatial prediction vector mvLXA according to a predetermined order (step S101).

図4を参照しつつ、空間予測ベクトルの選択についての詳細を説明する。図4は、AMVPモードにおける、空間予測ベクトルの登録順序を示す図である。動画像符号化装置は、符号化対象ブロック400について、矢印401に示されるように、左下に隣接するブロックA0、ブロックA0の上側に隣接するブロックA1の順に、各ブロックの動きベクトルを空間予測ベクトルとして登録するか否かを判定する。   Details of selection of the spatial prediction vector will be described with reference to FIG. FIG. 4 is a diagram showing the registration order of spatial prediction vectors in the AMVP mode. The moving image encoding apparatus, as indicated by the arrow 401, for the encoding target block 400, the motion vector of each block in the order of the block A0 adjacent to the lower left and the block A1 adjacent to the upper side of the block A0 are spatially predicted vectors. It is determined whether or not to register as.

動画像符号化装置は、ブロックA0が符号化済みであるか否か判定する。ブロックA0が符号化済みである場合、動画像符号化装置は、ブロックA0が符号化対象ブロック400と同じ方向についてインター予測符号化されているか否か判定する。ブロックA0が符号化対象ブロック400と同じ方向についてインター予測符号化されている場合、動画像符号化装置は、ブロックA0の参照ピクチャrefIdxLXA0が、符号化対象ブロック400の参照ピクチャrefIdxLXと一致するか否か判定する。参照ピクチャrefIdxLXA0が参照ピクチャrefIdxLXと一致する場合、動画像符号化装置は、ブロックA0の動きベクトルを1番目の空間予測ベクトルmvLXAとして選択する。   The moving picture coding apparatus determines whether or not the block A0 has been coded. When the block A0 has been encoded, the video encoding apparatus determines whether the block A0 has been subjected to inter prediction encoding in the same direction as the encoding target block 400. When the block A0 is inter-predictively encoded in the same direction as the encoding target block 400, the video encoding device determines whether or not the reference picture refIdxLXA0 of the block A0 matches the reference picture refIdxLX of the encoding target block 400 To determine. When the reference picture refIdxLXA0 matches the reference picture refIdxLX, the video encoding device selects the motion vector of the block A0 as the first spatial prediction vector mvLXA.

一方、ブロックA0が符号化されていないか、参照ピクチャrefIdxLXA0が参照ピクチャrefIdxLXと一致しない場合、動画像符号化装置は、ブロックA1について同様の判定処理を行う。そして動画像符号化装置は、ブロックA1が符号化済みであり、かつ、ブロックA1が参照する参照ピクチャrefIdxLXA1が、参照ピクチャrefIdxLXと一致する場合、ブロックA1の動きベクトルを空間予測ベクトルmvLXAとして選択する。   On the other hand, when the block A0 is not encoded or the reference picture refIdxLXA0 does not match the reference picture refIdxLX, the video encoding apparatus performs the same determination process for the block A1. Then, when the block A1 has been encoded and the reference picture refIdxLXA1 referenced by the block A1 matches the reference picture refIdxLX, the moving picture coding apparatus selects the motion vector of the block A1 as the spatial prediction vector mvLXA .

参照ピクチャrefIdxLXA0及びrefIdxLXA1の何れも参照ピクチャrefIdxLXと一致せず、かつ、ブロックA0が符号化対象ブロック400と同じ方向についてインター予測符号化されている場合、動画像符号化装置は、ブロックA0の動きベクトルを選択する。そして動画像符号化装置は、符号化対象ブロック400が含まれる符号化対象ピクチャと参照ピクチャrefIdxLXA0間の時間に対する、符号化対象ピクチャと参照ピクチャrefIdxLX間の時間の比を、ブロックA0の動きベクトルに乗じる。これにより得られたベクトルを、動画像符号化装置は、空間予測ベクトルmvLXAとする。   When neither of the reference pictures refIdxLXA0 and refIdxLXA1 matches the reference picture refIdxLX, and the block A0 is inter-predictively encoded in the same direction as the coding target block 400, the moving picture coding apparatus Select a vector. Then, the moving picture encoding apparatus sets the ratio of the time between the encoding target picture and the reference picture refIdxLX to the time between the encoding target picture including the encoding target block 400 and the reference picture refIdxLXA0 as the motion vector of the block A0. Multiply. The video encoding apparatus uses the vector obtained as a result as the spatial prediction vector mvLXA.

上記の処理によっても空間予測ベクトルmvLXAが求められず、かつ、ブロックA1が符号化対象ブロック400と同じ方向についてインター予測符号化されている場合、動画像符号化装置は、ブロックA1の動きベクトルを選択する。そして動画像符号化装置は、符号化対象ピクチャと参照ピクチャrefIdxLXA1間の時間に対する、符号化対象ピクチャと参照ピクチャrefIdxLX間の時間の比を、ブロックA1の動きベクトルに乗じる。これにより得られたベクトルを、動画像符号化装置は、空間予測ベクトルmvLXAとする。
なお、ブロックA0、A1の何れもが、符号化対象ブロック400と同じ方向についてインター予測符号化されていなければ、空間予測ベクトルmvLXAは選択されない。
When the spatial prediction vector mvLXA is not obtained even by the above processing, and the block A1 is inter-predictively encoded in the same direction as the encoding target block 400, the moving image encoding apparatus calculates the motion vector of the block A1. select. Then, the moving image encoding apparatus multiplies the motion vector of the block A1 by the ratio of the time between the encoding target picture and the reference picture refIdxLX to the time between the encoding target picture and the reference picture refIdxLXA1. The video encoding apparatus uses the vector obtained as a result as the spatial prediction vector mvLXA.
Note that the spatial prediction vector mvLXA is not selected unless both the blocks A0 and A1 are inter-predictively encoded in the same direction as the encoding target block 400.

次に、動画像符号化装置は、符号化対象ブロックの上側に隣接するブロックの動きベクトルを、所定の順序に従って空間予測ベクトルmvLXBとして選択する(ステップS102)。   Next, the moving image encoding apparatus selects a motion vector of a block adjacent to the upper side of the encoding target block as a spatial prediction vector mvLXB according to a predetermined order (step S102).

再度図4を参照すると、動画像符号化装置は、矢印402に示される順に、符号化対象ブロック400の上側に隣接するブロックB0、B1、B2に対して、ブロックA0、A1に対する選択処理と同様の処理を行う。そして動画像符号化装置は、それらのブロックの動きベクトルを空間予測ベクトルmvLXBとして選択するか否かを判定する。なお、ブロックB0は、符号化対象ブロック400の右上に隣接し、ブロックB1は、ブロックB0の左隣に隣接する。そしてブロックB2は、符号化対象ブロック400の左上に隣接する。   Referring to FIG. 4 again, the moving image encoding apparatus performs the same processing as the selection processing for blocks A0 and A1 with respect to blocks B0, B1, and B2 adjacent to the upper side of the encoding target block 400 in the order indicated by the arrow 402. Perform the process. Then, the moving image encoding apparatus determines whether or not to select the motion vector of those blocks as the spatial prediction vector mvLXB. The block B0 is adjacent to the upper right of the encoding target block 400, and the block B1 is adjacent to the left of the block B0. The block B2 is adjacent to the upper left of the encoding target block 400.

すなわち、動画像符号化装置は、ブロックB0からB2の順で、参照ピクチャと符号化対象ブロック400の参照ピクチャrefIdxLXが最初に一致するブロックの動きベクトルを空間予測ベクトルmvLXBとして選択する。一方、ブロックB0〜B2の参照ピクチャの何れもが、参照ピクチャrefIdxLXと一致しなければ、動画像符号化装置は、ブロックB0からB2の順で、動きベクトルが求められている最初のブロックを特定する。そして、特定されたブロックの動きベクトルに、特定されたブロックが参照する参照ピクチャと符号化対象ピクチャ間の時間に対する符号化対象ピクチャと参照ピクチャrefIdxLX間の時間の比を乗じて得られるベクトルが空間予測ベクトルmvLXBとなる。   That is, the moving picture coding apparatus selects, as the spatial prediction vector mvLXB, the motion vector of the block in which the reference picture and the reference picture refIdxLX of the coding target block 400 first match in the order of the blocks B0 to B2. On the other hand, if none of the reference pictures of the blocks B0 to B2 match the reference picture refIdxLX, the video encoding device specifies the first block for which the motion vector is obtained in the order of the blocks B0 to B2. To do. A vector obtained by multiplying the motion vector of the identified block by the ratio of the time between the encoding target picture and the reference picture refIdxLX to the time between the reference picture referenced by the identified block and the encoding target picture is a space. The prediction vector is mvLXB.

なお、ブロックB0〜B2の何れもが、符号化対象ブロック400と同じ方向についてインター予測符号化されていなければ、動画像符号化装置は、空間予測ベクトルmvLXBに空間予測ベクトルmvLXAを代入する。また、この場合において、空間予測ベクトルmvLXAが選択されていなければ、空間予測ベクトルmvLXBも選択されない。   Note that if none of the blocks B0 to B2 is inter-predictively encoded in the same direction as the encoding target block 400, the video encoding apparatus substitutes the spatial prediction vector mvLXA for the spatial prediction vector mvLXB. In this case, if the spatial prediction vector mvLXA is not selected, the spatial prediction vector mvLXB is not selected.

動画像符号化装置は、空間予測ベクトルmvLXA、mvLXBを、予測ベクトルの候補リストmvpListLXに登録する(ステップS103)。ただし、空間予測ベクトルmvLXAと空間予測ベクトルmvLXBが等しい場合、動画像符号化装置は、空間予測ベクトルmvLXBを候補リストmvpListLXから消去する。   The video encoding apparatus registers the spatial prediction vectors mvLXA and mvLXB in the prediction vector candidate list mvpListLX (step S103). However, when the spatial prediction vector mvLXA and the spatial prediction vector mvLXB are equal, the video encoding device deletes the spatial prediction vector mvLXB from the candidate list mvpListLX.

動画像符号化装置は、候補リストmvpListLXに登録されている予測ベクトルの候補が2以上か否か判定する(ステップS104)。候補リストmvpListLXに登録されている予測ベクトルの候補が2以上であれば(ステップS104−Yes)、動画像符号化装置は、予測ベクトルの候補リストの作成を終了する。一方、候補リストmvpListLXに登録されている空間予測ベクトルが2個未満である場合(ステップS104−No)、動画像符号化装置は、Temporalモード処理を実行する。   The moving picture coding apparatus determines whether or not there are two or more prediction vector candidates registered in the candidate list mvpListLX (step S104). If there are two or more prediction vector candidates registered in the candidate list mvpListLX (step S104—Yes), the video encoding device ends the creation of the prediction vector candidate list. On the other hand, when the number of spatial prediction vectors registered in the candidate list mvpListLX is less than 2 (No in step S104), the moving picture encoding apparatus executes Temporal mode processing.

Temporalモード処理では、動画像符号化装置は、符号化済みのピクチャ上の所定位置のブロックColPUを選択する。そして動画像符号化装置は、そのブロックColPUの動きベクトルmvColを、予測ベクトルの候補として利用か否か判定する(ステップS105)。   In the Temporal mode process, the moving image encoding apparatus selects a block ColPU at a predetermined position on an encoded picture. Then, the moving picture coding apparatus determines whether or not to use the motion vector mvCol of the block ColPU as a prediction vector candidate (step S105).

動画像符号化装置は、符号化対象ブロックが参照する可能性がある符号化済みピクチャの中から候補となるピクチャを選択する。そして動画像符号化装置は、選択したピクチャColPic上で、符号化対象ブロックと同位置のブロックに隣接するブロックColPUを特定する。   The moving image encoding apparatus selects a candidate picture from encoded pictures that may be referred to by the encoding target block. Then, the moving picture encoding device specifies a block ColPU adjacent to the block at the same position as the encoding target block on the selected picture ColPic.

ここで、シンタックスcollocatedFromL0Flagにより、ColPUが含まれるピクチャColPicは、L0方向から選択されるか、あるいは、L1方向から選択されるかが指定される。また、シンタックスcollocatedRefIdxにより、ColPicとして選択されたピクチャが示される。   Here, the syntax collocatedFromL0Flag specifies whether the picture ColPic including ColPU is selected from the L0 direction or the L1 direction. Also, the picture selected as ColPic is indicated by the syntax collocatedRefIdx.

図5(a)〜図5(c)を参照しつつ、符号化対象ブロックとColPUの位置関係について説明する。なお、図5(a)〜図5(c)では、ピクチャ内の一つのCTU500が示されている。基本的に、ColPUとして、符号化対象ブロックであるPUの右下に隣接するPUが選択される。例えば、符号化対象ブロックと右下に隣接するPUがインター予測符号化されている場合には、符号化対象ブロックの右下に隣接する画素を含む、16×16画素のグリッドの左上端の画素を含むPUがColPUとして選択される。また、符号化対象ブロックの右下に隣接する画素を含むPUが存在しない、あるいは、イントラ予測符号化されている場合には、符号化対象ブロックの右下端の画素を含むPUがColPUとして選択される。   The positional relationship between the encoding target block and the ColPU will be described with reference to FIGS. In FIGS. 5A to 5C, one CTU 500 in the picture is shown. Basically, a PU adjacent to the lower right of the PU that is the encoding target block is selected as the ColPU. For example, when the PU adjacent to the lower right of the encoding target block is inter prediction encoded, the upper left pixel of the 16 × 16 pixel grid including the pixel adjacent to the lower right of the encoding target block PU including is selected as ColPU. In addition, when there is no PU including the adjacent pixel at the lower right of the encoding target block or when intra prediction encoding is performed, the PU including the pixel at the lower right of the encoding target block is selected as the ColPU. The

例えば、図5(a)に示されるように、符号化対象ブロックであるPU510がCTU500内の左上の16×16画素よりも大きなブロックである場合、PU510の右下に隣接する画素511は、16×16画素のグリッド単位でも同じ位置にある。そのため、ColPic501において、PU510の右下に隣接するPU512がColPUの第1の候補となる。また、PU510の右下端の画素513と同じ位置の画素を含む、PU514がColPUの第2の候補となる。   For example, as shown in FIG. 5A, when the PU 510 that is the encoding target block is larger than the upper left 16 × 16 pixels in the CTU 500, the pixel 511 adjacent to the lower right of the PU 510 is 16 × 16 pixel grid unit is in the same position. Therefore, in ColPic 501, PU 512 adjacent to the lower right of PU 510 is the first ColPU candidate. The PU 514 including the pixel at the same position as the pixel 513 at the lower right corner of the PU 510 is a second ColPU candidate.

一方、図5(b)に示されるように、符号化対象ブロックであるPU520が、16×16画素のブロックを4分割したうちの左上のブロックである場合、その右下に隣接する画素521は、16×16画素のグリッド522の中心近傍に位置する。そこで、ColPic501において、グリッド522の左上端の画素523を含むPU524がColPUとなる。   On the other hand, as shown in FIG. 5B, when the PU 520 that is the encoding target block is the upper left block of the 16 × 16 pixel block divided into four, the pixel 521 adjacent to the lower right is , Located in the vicinity of the center of the grid 522 of 16 × 16 pixels. Therefore, in the ColPic 501, the PU 524 including the pixel 523 at the upper left corner of the grid 522 is the ColPU.

また、符号化対象ブロックと右下に隣接するPUの間に、水平方向のCTU境界が挟まれる場合には、符号化対象ブロックの中心の左上の画素の位置が求められ、その画素を含む、16×16画素のグリッドが特定される。そして特定されたグリッドの左上端の画素を含むColPic上のPUが、ColPUとなる。   In addition, when a horizontal CTU boundary is sandwiched between the encoding target block and the PU adjacent to the lower right, the position of the upper left pixel at the center of the encoding target block is obtained, and the pixel is included. A 16 × 16 pixel grid is specified. Then, the PU on ColPic including the pixel at the upper left corner of the identified grid is ColPU.

例えば図5(c)に示されるように、符号化対象ブロックであるPU530がCTU500の右下に位置している場合、PU530とその右下の画素531との間にCTU境界が位置する。そこでPU530内の中心の画素532が求められ、画素532を含む16×16画素のグリッド533が特定される。そしてColPic501において、グリッド533の左上端の画素534を含むPU535がColPUとなる。   For example, as illustrated in FIG. 5C, when the PU 530 that is the encoding target block is located at the lower right of the CTU 500, a CTU boundary is located between the PU 530 and the lower right pixel 531. Therefore, the central pixel 532 in the PU 530 is obtained, and a 16 × 16 pixel grid 533 including the pixel 532 is specified. In the ColPic 501, the PU 535 including the pixel 534 at the upper left end of the grid 533 is the ColPU.

ここで、ColPUがイントラ予測符号化されたブロックであれば、ColPUには動きベクトルは規定されていないので、動画像符号化装置は、予測ベクトルとしてColPUの動きベクトルを利用することはできない。また、ColPUについて、L0方向の動きベクトルが存在しない場合、動画像符号化装置は、L1方向の動きベクトルを利用する。逆に、ColPUについて、L1方向の動きベクトルが存在しない場合、動画像符号化装置は、L0方向の動きベクトルを利用する。また、ColPUについて、L0及びL1の両方向の動きベクトルが存在し、かつ、符号化対象ブロックの参照ピクチャが全て過去のピクチャまたは自ピクチャであれば、動画像符号化装置は、シンタックスcollocatedFromL0Flagで指定された方向の動きベクトルを用いる。一方、ColPUについて、L0方向及びL1方向の両方の動きベクトルが存在し、かつ、符号化対象ブロックの参照ピクチャに未来のピクチャが含まれていれば、動画像符号化装置は、シンタックスcollocatedFromL0Flagで指定された方向と逆方向の動きベクトルを用いる。   Here, if the ColPU is a block on which intra prediction encoding has been performed, since no motion vector is defined in the ColPU, the moving image encoding device cannot use the motion vector of the ColPU as a prediction vector. Also, when there is no motion vector in the L0 direction for ColPU, the video encoding apparatus uses the motion vector in the L1 direction. On the other hand, when there is no motion vector in the L1 direction for ColPU, the video encoding apparatus uses the motion vector in the L0 direction. Also, for ColPU, if motion vectors in both directions of L0 and L1 exist and the reference pictures of the current block are all past pictures or the current picture, the video encoding device specifies with the syntax collocatedFromL0Flag The motion vector in the specified direction is used. On the other hand, if there are motion vectors in both the L0 direction and the L1 direction for the ColPU, and the future picture is included in the reference picture of the current block, the video encoding device uses the syntax collocatedFromL0Flag. Use a motion vector in the direction opposite to the specified direction.

動きベクトルmvColが利用可能な場合(ステップS105−Yes)、動画像符号化装置は、その動きベクトルmvColを時間スケーリングして得られるベクトルを時間予測ベクトルmvLXBとして候補リストmvpListLXに登録する(ステップS106)。具体的には、動画像符号化装置は、Colブロックが含まれるピクチャとColブロックが参照するピクチャ間の時間に対する、符号化対象ブロックが含まれる符号化対象ピクチャと符号化対象ブロックが参照するピクチャ間の時間の比を、動きベクトルmvColに乗じる。なお、候補リストmvpListLXに登録された二つのベクトルmvLXAと時間予測ベクトルmvLXBが等しい場合、動画像符号化装置は、時間予測ベクトルmvLXBを候補リストmvpListLXから消去する。   When the motion vector mvCol is available (step S105—Yes), the moving image encoding apparatus registers the vector obtained by time-scaling the motion vector mvCol as a temporal prediction vector mvLXB in the candidate list mvpListLX (step S106). . Specifically, the moving picture encoding apparatus performs the encoding target picture including the encoding target block and the picture referred to by the encoding target block with respect to the time between the picture including the Col block and the picture referred to by the Col block. Multiply the motion vector mvCol by the time ratio between. Note that, when the two vectors mvLXA registered in the candidate list mvpListLX are equal to the temporal prediction vector mvLXB, the video encoding device deletes the temporal prediction vector mvLXB from the candidate list mvpListLX.

ステップS106の後、あるいは、ステップS105で動きベクトルmvColが利用できない場合(ステップS105−No)、候補リストmvpListLXに登録されている予測ベクトルの候補が2以上か否か判定する(ステップS107)。候補リストmvpListLXに登録されている予測ベクトルの候補が2個未満である場合(ステップS107−No)、動画像符号化装置は、予測ベクトルの候補としてゼロベクトルを候補リストmvpListLXに登録する(ステップS108)。   After step S106 or when the motion vector mvCol cannot be used in step S105 (step S105-No), it is determined whether or not there are two or more prediction vector candidates registered in the candidate list mvpListLX (step S107). When the number of prediction vector candidates registered in the candidate list mvpListLX is less than two (step S107—No), the video encoding apparatus registers a zero vector as a prediction vector candidate in the candidate list mvpListLX (step S108). ).

ステップS108の後、動画像符号化装置は、その二つの候補の中から、符号化対象ブロックの動きベクトルに対する誤差が小さい方の候補を予測ベクトルmvpLXとして選択する(ステップS109)。また、ステップS107にて候補リストmvpListLXに登録されている予測ベクトルの候補が2以上である場合(ステップS107−Yes)も、動画像符号化装置は、ステップS109の処理を実行する。そして動画像符号化装置は、予測ベクトルの決定手順を終了する。
予測ベクトルmvpLXとして選択されたベクトルは、候補リストmvpListLXにおけるその選択されたベクトルの位置を表すシンタックスmvpLxFlagで表される。そのシンタックスmvpLxFlag及び符号化対象ブロックの動きベクトルと予測ベクトル間の差分ベクトルがエントロピー符号化される。
After step S108, the moving image encoding apparatus selects a candidate having a smaller error with respect to the motion vector of the encoding target block as the prediction vector mvpLX from the two candidates (step S109). Also, when the number of prediction vector candidates registered in the candidate list mvpListLX in step S107 is two or more (step S107—Yes), the video encoding apparatus executes the process of step S109. Then, the video encoding apparatus ends the prediction vector determination procedure.
The vector selected as the prediction vector mvpLX is represented by the syntax mvpLxFlag that represents the position of the selected vector in the candidate list mvpListLX. The syntax mvpLxFlag and the difference vector between the motion vector and the prediction vector of the encoding target block are entropy encoded.

動画像符号化装置は、符号化対象ピクチャがPピクチャであれば、L0方向の動きベクトルについてのみ、上記の処理を実行する。一方、符号化対象ピクチャがBピクチャであれば、動画像符号化装置は、L0方向とL1方向の両方の動きベクトルについて上記の処理を実行する。   If the current picture to be coded is a P picture, the moving picture coding apparatus performs the above process only for the motion vector in the L0 direction. On the other hand, if the encoding target picture is a B picture, the moving image encoding apparatus performs the above-described processing on motion vectors in both the L0 direction and the L1 direction.

次に、Mergeモードについて説明する。   Next, the Merge mode will be described.

図6は、Mergeモードでの予測ベクトルの候補リストmergeCandListの作成手順を示す動作フローチャートである。Mergeモードでは、動画像符号化装置は、シンタックスMaxNumMergeCand(最大5)で示される数の利用可能なMergeベクトル候補の中から一つのベクトルをMergeベクトルmvLXNとして選択する。選択されたベクトルは、候補リストmergeCandListの位置を表すシンタックスmergeIdxで表される。   FIG. 6 is an operation flowchart showing a procedure for creating a prediction vector candidate list mergeCandList in the Merge mode. In the Merge mode, the moving image encoding apparatus selects one vector as the Merge vector mvLXN from the number of available Merge vector candidates indicated by the syntax MaxNumMergeCand (maximum 5). The selected vector is represented by a syntax mergeIdx indicating the position of the candidate list mergeCandList.

動画像符号化装置は、符号化対象ブロックの左側または上側に隣接するブロックの動きベクトルを、所定の順序に従って空間予測ベクトル候補として選択する(ステップS201)。   The moving image encoding apparatus selects a motion vector of a block adjacent to the left side or the upper side of the encoding target block as a spatial prediction vector candidate according to a predetermined order (step S201).

図7を参照しつつ、空間予測ベクトルの選択についての詳細を説明する。図7は、Mergeモードにおける、空間予測ベクトルの登録順序を示す図である。動画像符号化装置は、符号化対象ブロックであるPU700について、矢印701〜704に示されるように、ブロックA1→B1→B0→A0→B2の順に、各ブロックの動きベクトルを空間予測ベクトル候補として登録するか否かを判定する。   Details of selection of the spatial prediction vector will be described with reference to FIG. FIG. 7 is a diagram showing the registration order of spatial prediction vectors in the Merge mode. As shown by arrows 701 to 704, the moving image encoding apparatus uses the motion vectors of the blocks as spatial prediction vector candidates in the order of blocks A1 → B1 → B0 → A0 → B2, as indicated by arrows 701 to 704. Determine whether to register.

また、複数の空間予測ベクトル候補が同値であれば、それら複数の空間予測ベクトル候補のうちの一つ以外は削除される。例えば、あるブロックが分割されており、そのブロックが、他のブロックのベクトルを候補とする場合、分割する必要がないことから削除される。ブロックB2については、すでに四つの空間予測ベクトル候補が選択されていたらブロックB2の動きベクトルを、空間予測ベクトル候補から除外する。それぞれの空間予測ベクトル候補をmvLXA0, mvLXA1,mvLXB0, mvLXB1, mvLXB2とする。   Moreover, if a plurality of spatial prediction vector candidates are the same value, one other than the plurality of spatial prediction vector candidates is deleted. For example, when a certain block is divided and the block is a candidate for a vector of another block, the block is deleted because it is not necessary to be divided. For block B2, if four spatial prediction vector candidates have already been selected, the motion vector of block B2 is excluded from the spatial prediction vector candidates. The respective spatial prediction vector candidates are mvLXA0, mvLXA1, mvLXB0, mvLXB1, and mvLXB2.

次に、動画像符号化装置は、Temporalモード処理を実行して、時間予測ベクトル候補mvLXColを選択する(ステップS202)。なお、MergeモードにおけるTemporalモード処理は、AMVPモードにおけるTemporalモード処理と同一であるので、Temporalモード処理の詳細な説明は省略する。   Next, the moving picture encoding apparatus performs temporal mode processing and selects a temporal prediction vector candidate mvLXCol (step S202). Note that the Temporal mode process in the Merge mode is the same as the Temporal mode process in the AMVP mode, and thus a detailed description of the Temporal mode process is omitted.

動画像符号化装置は、選択された予測ベクトルの候補を候補リストmergeCandListに登録する(ステップS203)。そして動画像符号化装置は、候補リストmergeCandListに登録されている予測ベクトルの候補の数numOrigMergeCandを算出する(ステップS204)。   The video encoding apparatus registers the selected prediction vector candidate in the candidate list mergeCandList (step S203). Then, the moving image encoding apparatus calculates the number of prediction vector candidates numOrigMergeCand registered in the candidate list mergeCandList (step S204).

次に、動画像符号化装置は、符号化対象ブロックが含まれる符号化対象ピクチャがBピクチャであり、かつ、numOrigMergeCandが2以上かつMaxNumMergeCand未満か否か判定する(ステップS205)。ステップS205の判定条件が満たされる場合、動画像符号化装置は、候補リストmergeCandListに登録されている予測ベクトルの候補を組み合わせて、結合両予測(combined bi-predictive)ベクトルを導出する。そして動画像符号化装置は、導出したベクトルを予測ベクトルの候補として追加する(ステップS206)。動画像符号化装置は、numOrigMergeCand * (numOrigMergeCand-1)回、または予測ベクトルの候補数がMaxNumMergeCandに達するまでステップS206の処理を繰り返し実行する。算出されたベクトル候補をmvLXcombCandと表記する。   Next, the moving picture encoding apparatus determines whether the encoding target picture including the encoding target block is a B picture and numOrigMergeCand is 2 or more and less than MaxNumMergeCand (step S205). When the determination condition in step S205 is satisfied, the video encoding apparatus combines prediction vector candidates registered in the candidate list mergeCandList to derive a combined bi-predictive vector. Then, the video encoding apparatus adds the derived vector as a prediction vector candidate (step S206). The moving picture encoding apparatus repeatedly executes the process of step S206 until numOrigMergeCand * (numOrigMergeCand-1) times or the number of prediction vector candidates reaches MaxNumMergeCand. The calculated vector candidate is expressed as mvLXcombCand.

図8は、MaxNumMergeCandが4のときのL0方向の予測ベクトル候補及びL1方向の予測ベクトル候補と結合両予測ベクトル候補mvLXcombCandの関係を表すテーブルを示す。テーブル800において、l0CandIdxは、候補リストmergeCandListにおけるL0方向の予測ベクトル候補の登録順を示し、l1CandIdxは、候補リストmergeCandListにおけるL1方向の予測ベクトル候補の登録順を示す。そしてcombIdxは、L0方向の予測ベクトル候補とL1方向の予測ベクトル候補の組み合わせにより導出されるmvLXcombCandを示す。   FIG. 8 shows a table representing the relationship between the prediction vector candidate in the L0 direction and the prediction vector candidate in the L1 direction and the combined bi-prediction vector candidate mvLXcombCand when MaxNumMergeCand is 4. In the table 800, l0CandIdx indicates the registration order of prediction vector candidates in the L0 direction in the candidate list mergeCandList, and l1CandIdx indicates the registration order of prediction vector candidates in the L1 direction in the candidate list mergeCandList. CombIdx indicates mvLXcombCand derived from a combination of a prediction vector candidate in the L0 direction and a prediction vector candidate in the L1 direction.

ステップS206の後、あるいは、ステップS205の判定条件が満たされない場合、動画像符号化装置は、予測ベクトルの候補数がMaxNumMergeCand未満か否か判定する(ステップS207)。予測ベクトルの候補数numOrigMergeCandがMaxNumMergeCand未満であれば(ステップS207−Yes)、候補リストmergeCandListにまだ空きが残っている。そこで動画像符号化装置は、予測ベクトルの候補数がMaxNumMergeCandに達するまで、予測ベクトルの候補としてゼロベクトルを候補リストmergeCandListに登録する(ステップS208)。   After step S206 or when the determination condition in step S205 is not satisfied, the video encoding device determines whether the number of prediction vector candidates is less than MaxNumMergeCand (step S207). If the number of prediction vector candidates numOrigMergeCand is less than MaxNumMergeCand (step S207—Yes), there is still an empty space in the candidate list mergeCandList. Therefore, the video encoding apparatus registers the zero vector as a candidate for the prediction vector in the candidate list mergeCandList until the number of prediction vector candidates reaches MaxNumMergeCand (step S208).

ステップS208の後、動画像符号化装置は、予測ベクトルの候補のなかから符号化対象ブロックの動きベクトルとの差が最小となる候補をMergeベクトルmvLXNとして選択する(ステップS209)。また、ステップS207で予測ベクトルの候補数numOrigMergeCandがMaxNumMergeCand以上である場合(ステップS207−No)も、動画像符号化装置は、ステップS209の処理を実行する。その後、動画像符号化装置は、候補リストmergeCandListの作成を終了する。   After step S208, the video encoding apparatus selects a candidate having the smallest difference from the motion vector of the current block from among the prediction vector candidates as a merge vector mvLXN (step S209). Also, in the case where the number of prediction vector candidates numOrigMergeCand is greater than or equal to MaxNumMergeCand in Step S207 (No in Step S207), the video encoding apparatus executes the process of Step S209. Thereafter, the moving image encoding device ends the creation of the candidate list mergeCandList.

ここで、タイルごとに異なる符号化器を用いてピクチャを符号化する場合においてAMVPモードまたはMergeモードを適用することを考える。
図9は、タイルと時間予測ベクトルの関係を示す図である。図9では、簡単のために、ピクチャ900は、左側のタイル901と右側のタイル902に分割されるものとする。タイル901に含まれるCTU904、及び、タイル902に含まれるCTU905は、それぞれ、64画素x64画素のサイズを持ち、タイル間の境界903に隣接している。CTU904及び905は、動きベクトルの生成単位であるPU単位で分割される。
Here, it is considered that the AMVP mode or the Merge mode is applied when a picture is encoded using a different encoder for each tile.
FIG. 9 is a diagram illustrating the relationship between tiles and temporal prediction vectors. In FIG. 9, the picture 900 is divided into a left tile 901 and a right tile 902 for simplicity. The CTU 904 included in the tile 901 and the CTU 905 included in the tile 902 each have a size of 64 pixels × 64 pixels and are adjacent to the boundary 903 between the tiles. The CTUs 904 and 905 are divided in units of PUs, which are motion vector generation units.

動画像符号化装置は、CTU904の右上のPU906について時間予測ベクトルを求める場合、符号化済みのColPic910において、PU906の右下にあたるPU907と同一にあるColPU911の動きベクトルを参照する。このとき、ColPU911は、PU906からタイル境界903を越えた位置にあるタイル902に属している。ここで、タイル901と902が別個の符号化器で符号化される場合、PU906の時間予測ベクトルの算出に必要なデータは、タイル902を符号化する符号化器とタイル901を符号化する符号化器との間で共有される必要がある。   When obtaining a temporal prediction vector for the PU 906 on the upper right side of the CTU 904, the moving image encoding apparatus refers to the motion vector of the ColPU 911 that is the same as the PU 907 on the lower right side of the PU 906 in the encoded ColPic 910. At this time, the ColPU 911 belongs to the tile 902 at a position beyond the tile boundary 903 from the PU 906. Here, when the tiles 901 and 902 are encoded by separate encoders, the data necessary for calculating the temporal prediction vector of the PU 906 is an encoder that encodes the tile 902 and a code that encodes the tile 901. Need to be shared with the generator.

上記のように、タイル境界に隣接するPUの動きベクトルについての時間予測ベクトルを算出するためには、他の符号化器で符号化される領域の動きベクトルに関する情報が必要となる。一方、ハードウェアリソースを削減するためには、他の符号化器で符号化される領域の動きベクトルに関する情報を参照することは好ましくない。そこで、各符号化器は、ColPUがタイル境界を跨ぐPUについて、ColPUに動きベクトルが存在すると仮定した場合の予測ベクトルの候補のリストと、ColPUに動きベクトルが存在しないと仮定した場合の予測ベクトルの候補のリストとをそれぞれ作成する。そして各符号化器は、二つのリストで共通する候補を、動きベクトルの予測符号化に利用する。これにより、この動画像符号化装置は、複数の符号化器間で動きベクトルなどの情報を共有することなく、予測ベクトルの候補の数が不十分となることを抑制して、符号化効率の低下を抑制する。   As described above, in order to calculate the temporal prediction vector for the motion vector of the PU adjacent to the tile boundary, information regarding the motion vector of the region encoded by another encoder is necessary. On the other hand, in order to reduce hardware resources, it is not preferable to refer to information on a motion vector of a region encoded by another encoder. Therefore, each encoder has a list of prediction vector candidates when it is assumed that there is a motion vector in ColPU, and a prediction vector when it is assumed that there is no motion vector in ColPU. And a list of candidates for each. Each encoder uses a candidate common to the two lists for motion vector predictive encoding. Thus, the moving picture encoding apparatus suppresses the number of prediction vector candidates from becoming insufficient without sharing information such as motion vectors among a plurality of encoders, thereby improving the encoding efficiency. Suppresses the decline.

図10は、一つの実施形態による動画像符号化装置の概略構成図である。動画像符号化装置1は、分割部10と、複数の符号化器11−1〜11−n(ただし、nは2以上の整数)と、多重化部12とを有する。   FIG. 10 is a schematic configuration diagram of a moving image encoding apparatus according to an embodiment. The moving image encoding device 1 includes a dividing unit 10, a plurality of encoders 11-1 to 11-n (where n is an integer equal to or greater than 2), and a multiplexing unit 12.

動画像符号化装置1が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像符号化装置1が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像符号化装置1に実装されてもよい。さらに、動画像符号化装置1が有するこれらの各部は、動画像符号化装置1が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。   Each of these units included in the moving image encoding apparatus 1 is formed as a separate circuit. Alternatively, these units included in the video encoding device 1 may be mounted on the video encoding device 1 as one integrated circuit in which circuits corresponding to the respective units are integrated. Furthermore, each of these units included in the moving image encoding device 1 may be a functional module realized by a computer program executed on a processor included in the moving image encoding device 1.

分割部10には、動画像符号化装置1全体を制御する制御部(図示せず)により設定されたピクチャの順序に従って、各ピクチャが順次入力される。そして分割部10は、ピクチャが入力される度に、制御部により与えられたピクチャ分割情報に従って、そのピクチャをn個の領域に分割する。本実施形態では、各領域は、それぞれ、一つのタイルを含む。そして領域間の境界がタイル間の境界となるように、分割部10は、ピクチャを分割する。なお、タイル間の境界の位置は、シーケンス全体にわたって一定とする。分割部10により分割されたピクチャの各領域は、それぞれ、符号化器11−1〜11−nに入力される。   Pictures are sequentially input to the dividing unit 10 in accordance with the order of pictures set by a control unit (not shown) that controls the entire moving image encoding apparatus 1. Then, every time a picture is input, the dividing unit 10 divides the picture into n areas according to the picture division information given by the control unit. In the present embodiment, each region includes one tile. Then, the dividing unit 10 divides the picture so that the boundary between the regions becomes the boundary between the tiles. Note that the position of the boundary between tiles is constant throughout the sequence. Each region of the picture divided by the dividing unit 10 is input to the encoders 11-1 to 11-n, respectively.

図11を参照しつつ、タイル間の境界の位置について説明する。ピクチャ1100において、個々のCTUの水平方向及び垂直方向のサイズをCTUSIZE(例えば、64画素)とする。また、ピクチャ1100の垂直画素数をPictureSizeVとし、水平画素数をPictureSizeHとする。ピクチャ分割情報には、例えば、垂直方向の分割数DivNumVと水平方向の分割数DivNumHが含まれる。この例では、DivNumV=DivNumH=2である。すなわち、ピクチャ1100は、水平方向及び垂直方向に、それぞれ2分割される。   The position of the boundary between tiles will be described with reference to FIG. In the picture 1100, the horizontal and vertical sizes of individual CTUs are set to CTUSIZE (for example, 64 pixels). Further, the number of vertical pixels of the picture 1100 is set to PictureSizeV, and the number of horizontal pixels is set to PictureSizeH. The picture division information includes, for example, a vertical division number DivNumV and a horizontal division number DivNumH. In this example, DivNumV = DivNumH = 2. That is, the picture 1100 is divided into two parts in the horizontal direction and the vertical direction.

また、ピクチャ1100の垂直方向のCTU数をCTUNumV(=PictureSizeV/CTUSIZE)とし、水平方向のCTU数をPicCTUNumH(=PictureSizeH/CTUSIZE)とする。この場合、垂直方向にピクチャを等分したときの一つの領域あたりの垂直方向のCTU数TileCTUNumVは、PicCTUNumV/DivNumVとなる。ただし、PicCTUNumVがDivNumVの整数倍でない場合には、最下端のタイルが、TileCTUNumV未満の数のCTUを余分に含んでもよい。同様に、水平方向にピクチャを等分したときの一つの領域あたりの垂直方向のCTU数TileCTUNumHは、PicCTUNumH/DivNumHとなる。ただし、PicCTUNumHがDivNumHの整数倍でない場合には、最右端のタイルが、TileCTUNumH未満の数のCTUを余分に含んでもよい。ここでは、簡単化のために、PicCTUNumVはDivNumVの整数倍であり、かつ、PicCTUNumHがDivNumHの整数倍であるとする。   The number of CTUs in the vertical direction of the picture 1100 is CTUNumV (= PictureSizeV / CTUSIZE), and the number of CTUs in the horizontal direction is PicCTUNumH (= PictureSizeH / CTUSIZE). In this case, the vertical CTU number TileCTUNumV per region when the picture is equally divided in the vertical direction is PicCTUNumV / DivNumV. However, when PicCTUNumV is not an integral multiple of DivNumV, the lowest tile may include an extra number of CTUs less than TileCTUNumV. Similarly, the number of CTUs TileCTUNumH in the vertical direction per region when the picture is equally divided in the horizontal direction is PicCTUNumH / DivNumH. However, if PicCTUNumH is not an integer multiple of DivNumH, the rightmost tile may include an extra number of CTUs less than TileCTUNumH. Here, for simplification, PicCTUNumV is an integer multiple of DivNumV, and PicCTUNumH is an integer multiple of DivNumH.

この例では、ピクチャ1100は、垂直方向のタイル境界1101と水平方向のタイル境界1102によって4個のタイル1103〜1106に分割される。そして例えば、左上のタイル1103が符号化器11−1に入力され、右上のタイル1104が符号化器11−2に入力される。また、左下のタイル1105が符号化器11−3に入力され、右下のタイル1106が符号化器11−4に入力される。   In this example, the picture 1100 is divided into four tiles 1103 to 1106 by a vertical tile boundary 1101 and a horizontal tile boundary 1102. For example, the upper left tile 1103 is input to the encoder 11-1, and the upper right tile 1104 is input to the encoder 11-2. The lower left tile 1105 is input to the encoder 11-3, and the lower right tile 1106 is input to the encoder 11-4.

符号化器11−1〜11−nは、それぞれ、互いに独立して、入力された領域を符号化することで、符号化データを生成する。符号化器11−1〜11−nは、符号化データを多重化部12へ出力する。なお、符号化器11−1〜11−nの詳細については後述する。   Each of the encoders 11-1 to 11-n encodes the input region independently of each other to generate encoded data. The encoders 11-1 to 11-n output the encoded data to the multiplexing unit 12. Details of the encoders 11-1 to 11-n will be described later.

多重化部12は、符号化器11−1〜11−nから受け取った、各領域の符号化データを、ラスタスキャン順に並べるとともに、HEVCに準拠した所定のヘッダ情報を付加することで、一つのピクチャの符号化データを生成する。そして多重化部12は、ピクチャの順序に従って、各ピクチャの符号化データを出力する。   The multiplexing unit 12 arranges the encoded data of each region received from the encoders 11-1 to 11-n in the raster scan order and adds predetermined header information based on HEVC, thereby Generate encoded data of a picture. Then, the multiplexing unit 12 outputs the encoded data of each picture according to the order of the pictures.

以下、符号化器11−1〜11−nの詳細について説明する。なお、符号化器11−1〜11−nは、同一の構成及び同一の機能を有するので、以下では、符号化器11−1について説明する。   Details of the encoders 11-1 to 11-n will be described below. In addition, since the encoders 11-1 to 11-n have the same configuration and the same function, the encoder 11-1 will be described below.

符号化器11−1は、入力された領域内に含まれる複数のCTUを、ラスタスキャン順でCTUごとに符号化する。   The encoder 11-1 encodes a plurality of CTUs included in the input area for each CTU in the raster scan order.

図12は、符号化器11−1の概略構成図である。符号化器11−1は、動き探索部20と、制限ブロック特定部21と、予測ベクトル候補リスト生成部25と、符号化モード決定部26と、予測符号化部27と、エントロピー符号化部28とを有する。   FIG. 12 is a schematic configuration diagram of the encoder 11-1. The encoder 11-1 includes a motion search unit 20, a restricted block identification unit 21, a prediction vector candidate list generation unit 25, an encoding mode determination unit 26, a prediction encoding unit 27, and an entropy encoding unit 28. And have.

動き探索部20は、符号化対象のピクチャがインター予測符号化モードが適用可能なピクチャである場合、符号化器11−1が符号化対象とする領域内に含まれる各CTUについて、適用可能なPUごとに動きベクトルを算出する。   When the picture to be coded is a picture to which the inter prediction coding mode can be applied, the motion search unit 20 is applicable to each CTU included in the area to be coded by the encoder 11-1. A motion vector is calculated for each PU.

動き探索部20は、符号化対象CTUの着目するPUについて、局部復号ピクチャについての参照可能な領域に対してブロックマッチングを行って、着目するPUと最も一致する参照ブロックを特定する。そして動き探索部20は、着目するPUと参照ブロック間の移動量を表すベクトルを動きベクトルとして算出する。動き探索部20は、各PUの動きベクトルを、符号化モード決定部26へ通知する。   The motion search unit 20 performs block matching with respect to an area that can be referred to for a locally decoded picture for the PU of interest of the encoding target CTU, and identifies the reference block that most closely matches the PU of interest. Then, the motion search unit 20 calculates a vector representing the amount of movement between the focused PU and the reference block as a motion vector. The motion search unit 20 notifies the coding mode determination unit 26 of the motion vector of each PU.

制限ブロック特定部21は、PUをインター予測符号化する場合に用いられる動きベクトルの時間予測ベクトルとして、符号化済みピクチャの他の符号化器により符号化された領域に含まれるPUの動きベクトルを参照する可能性の有るPUを特定する。そのために、制限ブロック特定部21は、インター予測制限対象CTU決定部22と、インター予測制限対象CU決定部23と、インター予測制限対象PU決定部24とを有する。以下では、説明の便宜上、時間予測ベクトルとして、符号化済みピクチャの他の符号化器により符号化された領域に含まれるPUの動きベクトルを参照する可能性の有るPUを、インター予測制限対象PUと呼ぶ。   The restricted block specifying unit 21 uses the motion vector of the PU included in the region encoded by another encoder of the encoded picture as the temporal prediction vector of the motion vector used when the PU is inter-predictively encoded. Identify PUs that may be referenced. For this purpose, the restricted block specifying unit 21 includes an inter prediction restriction target CTU determination unit 22, an inter prediction restriction target CU determination unit 23, and an inter prediction restriction target PU determination unit 24. In the following, for convenience of explanation, a PU that may refer to a motion vector of a PU included in an area encoded by another encoder of a coded picture is used as a temporal prediction vector. Call it.

インター予測制限対象CTU決定部22は、互いに異なる符号化器に入力される二つの領域間の境界位置(すなわち、タイル間の境界位置)に基づいて、インター予測制限対象PUを含むCTUを決定する。なお、インター予測制限対象PUを含むCTUを、以下では、説明の便宜上、インター予測制限対象CTUと呼ぶ。   The inter prediction restriction target CTU determination unit 22 determines a CTU including an inter prediction restriction target PU based on a boundary position between two regions (that is, a boundary position between tiles) input to different encoders. . A CTU including an inter prediction restriction target PU is hereinafter referred to as an inter prediction restriction target CTU for convenience of explanation.

再度図11を参照すると、例えば、タイル1103については、タイル境界は、タイル1103の右端と下端となる。また、タイル1104については、タイル境界は、タイル1104の左端と下端となる。同様に、タイル1105については、タイル境界は、タイル1105の右端と上端となる。そしてタイル1106については、タイル境界は、タイル1106の左端と上端となる。   Referring to FIG. 11 again, for example, for the tile 1103, the tile boundary is the right end and the lower end of the tile 1103. For the tile 1104, the tile boundary is the left end and the bottom end of the tile 1104. Similarly, for the tile 1105, the tile boundary is the right end and the top end of the tile 1105. For the tile 1106, the tile boundary is the left end and the top end of the tile 1106.

ここで、Temporalモードの特徴として、インター予測符号化モードで参照される符号化済みのピクチャにおいて着目するPUの右下に隣接するPUが参照される。さらに、着目するPUから、水平方向のCTU間の境界を越えた位置にあるPUは参照されない。そこで、各符号化器が符号化処理を担当するタイルにおいて、右側にタイル境界が存在するタイルだけがインター予測制限対象CTUを含む。すなわち、この例では、タイル1103とタイル1105がインター予測制限対象CTUを含む。以下では、タイル1103を例として説明する。   Here, as a feature of the Temporal mode, a PU adjacent to the lower right of the focused PU in the encoded picture referred to in the inter prediction encoding mode is referred to. Furthermore, PUs located beyond the boundary between horizontal CTUs are not referred to by the focused PU. In view of this, in the tile for which each encoder is responsible for the encoding process, only the tile having a tile boundary on the right side includes the inter prediction restriction target CTU. That is, in this example, the tile 1103 and the tile 1105 include the inter prediction restriction target CTU. Hereinafter, the tile 1103 will be described as an example.

インター予測制限対象CTUの特定方法の理解を容易にするために、図13を参照しつつ、各CTUに割り当てられる、CTUを特定するためのインデックスについて説明する。図13において、タイル1300は複数のCTU1301に分割される。ここでは、CTUのサイズCTUSIZEは64画素とする。上述したように、ピクチャに含まれる複数のCTUは、ラスタスキャン順に符号化される。そこで、各CTUを特定するためのインデックスCTUIDXは、符号化順に設定される。また、各CTU1301内に示されている、各CTUの水平方向のインデックスCTUHIDXは、左端のCTUから順に割り当てられる。すなわち、左端のCTUについてのCTUHIDXは0であり、左端から(N+1)番目のCTUについてのCTUHIDXはNとなる。そして右端のCTUについてのCTUHIDXは(TileCTUNumH-1)となる。   In order to facilitate understanding of the method for specifying the inter prediction restriction target CTU, an index for specifying the CTU assigned to each CTU will be described with reference to FIG. In FIG. 13, the tile 1300 is divided into a plurality of CTUs 1301. Here, the CTU size CTUSIZE is 64 pixels. As described above, a plurality of CTUs included in a picture are encoded in raster scan order. Therefore, the index CTUIDX for specifying each CTU is set in the encoding order. Further, the horizontal index CTUHIDX of each CTU shown in each CTU 1301 is assigned in order from the leftmost CTU. That is, CTUHIDX for the leftmost CTU is 0, and CTUHIDX for the (N + 1) th CTU from the left end is N. The CTUHIDX for the rightmost CTU is (TileCTUNumH-1).

Temporalモードの動作定義から、上記のように、タイル間の境界を跨いで参照される可能性があるのは、右端がタイル間の垂直方向の境界に接するCTUである。そこで、インター予測制限対象CTU決定部22は、水平方向のインデックスCTUHIDXが(TileCTUNumH-1)となるCTUを、インター予測制限対象CTUに決定する。   From the operation definition of the Temporal mode, as described above, there is a possibility that the right end is a CTU that is in contact with the vertical boundary between tiles that may be referred to across the boundary between tiles. Therefore, the inter prediction restriction target CTU determination unit 22 determines a CTU whose horizontal index CTUHIDX is (TileCTUNumH-1) as the inter prediction restriction target CTU.

インター予測制限対象CU決定部23は、インター予測制限対象CTUにおいて、Temporalモードの動作定義から、符号化済みのピクチャ上で符号化対象のタイルと同一位置でないタイルに含まれる動きベクトルを参照することが可能なPUを特定する。なお、符号化対象のタイルと同一位置でないタイルに含まれる動きベクトルを参照することが可能なPUは、インター予測制限対象PUである。そしてインター予測制限対象CU決定部23は、特定したインター予測制限対象PUを含むCUを特定する。以下では、説明の便宜上、インター予測制限対象PUを含むCUを、インター予測制限対象CUと呼ぶ。   In the inter prediction restriction target CTU, the inter prediction restriction target CU determination unit 23 refers to a motion vector included in a tile that is not at the same position as the encoding target tile on the encoded picture from the operation definition of Temporal mode. Identify PUs that can Note that a PU that can refer to a motion vector included in a tile that is not at the same position as the encoding target tile is an inter prediction restriction target PU. Then, the inter prediction restriction target CU determination unit 23 specifies a CU including the specified inter prediction restriction target PU. Hereinafter, for convenience of explanation, a CU including an inter prediction restriction target PU is referred to as an inter prediction restriction target CU.

図2に示されるように、HEVCでは、選択可能なCUのサイズは、最大64x64画素から四分木構造で32x32画素、16x16画素、8x8画素である。これはCUの階層構造を表しており、符号化モード決定部26にてCUサイズを決定するために、CUの階層構造ごとにインター予測制限対象CUが決定される。   As shown in FIG. 2, in HEVC, the selectable CU sizes are 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels in a quadtree structure from a maximum of 64 × 64 pixels. This represents the hierarchical structure of the CU. In order to determine the CU size in the encoding mode determination unit 26, the inter prediction restriction target CU is determined for each hierarchical structure of the CU.

図14(a)〜図14(d)を参照しつつ、CUの階層構造ごとに、一つのCTU1400に含まれる各CUに割り当てられる、CUを識別するためのCUインデックスCUIDXについて説明する。図14(a)〜図14(d)において、各ブロック1401がそれぞれ一つのCUを表し、ブロック内に示された数値がCUインデックスCUIDXを表す。また、CTU1400の上側に示された数値は、水平方向のCUインデックスCUHIDXを表す。図14(a)は、CUサイズが64x64画素である場合のインデックスCUIDXを表す。同様に、図14(b)〜図14(d)は、それぞれ、CUサイズが32x32画素、16x16画素、8x8画素である場合のCUインデックスCUIDXを表す。   A CU index CUIDX for identifying a CU, which is assigned to each CU included in one CTU 1400 for each hierarchical structure of the CU, will be described with reference to FIGS. 14 (a) to 14 (d). 14A to 14D, each block 1401 represents one CU, and the numerical value shown in the block represents the CU index CUIDX. The numerical value shown above the CTU 1400 represents the horizontal CU index CUHIDX. FIG. 14A shows an index CUIDX when the CU size is 64 × 64 pixels. Similarly, FIGS. 14B to 14D show the CU index CUIDX when the CU size is 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels, respectively.

CUインデックスCUIDXは、符号化順、例えば、ラスタスキャン順に従って割り当てられる。また、水平方向のCUのインデックスであるCU水平インデックスCUHIDXは、本実施形態では、水平方向に左から右へ順にCUごとに割り当てられる。   The CU index CUIDX is assigned according to an encoding order, for example, a raster scan order. In the present embodiment, the CU horizontal index CUHIDX, which is the index of the CU in the horizontal direction, is assigned to each CU in order from left to right in the horizontal direction.

便宜上、インター予測制限対象CTUについて、そのCTUの左端を基準とした座標を定義する。この座標系において、タイルの右端にあるタイル境界座標(画素精度)をtbとすると、tb=(TileCTUNumH*CTUSIZE-1)となる。ただし、タイル左端の画素の座標を0とする。   For convenience, coordinates for the inter prediction restriction target CTU are defined with reference to the left end of the CTU. In this coordinate system, tb = (TileCTUNumH * CTUSIZE-1), where tb is the tile boundary coordinate (pixel accuracy) at the right end of the tile. However, the coordinate of the pixel at the left end of the tile is 0.

インター予測制限対象CU決定部23は、タイル右端のタイル境界に接するCUHIDX=tb/CUSIZEとなるCUを、インター予測制限対象CUとする。ただし、図5(c)に示されるように、符号化対象のPUとその右下のPUとの間にCTU境界が位置する符号化対象のPUに対応するCU、すなわちCUIDX={(CTUSIZE/CUSIZE)*(CTUSIZE/CUSIZE)-1}のCUでは、ColPUの位置が修正される。そのため、インター予測制限対象CU決定部23は、そのCUを、例外的にインター予測制限対象CUとしなくてもよい。   The inter prediction restriction target CU determination unit 23 sets a CU that meets CUHIDX = tb / CUSIZE in contact with the tile boundary at the right end of the tile as an inter prediction restriction target CU. However, as shown in FIG. 5C, the CU corresponding to the encoding target PU in which the CTU boundary is located between the encoding target PU and the lower right PU, that is, CUIDX = {(CTUSIZE / For CU of (CUSIZE) * (CTUSIZE / CUSIZE) -1}, the position of ColPU is modified. Therefore, the inter prediction restriction target CU determination unit 23 does not have to exceptionally set the CU as the inter prediction restriction target CU.

図15(a)〜図15(d)は、それぞれ、サイズが64x64画素、32x32画素、16x16画素、8x8画素のCUについて、インター予測制限対象CTU1500におけるインター予測制限対象CUを示すマップである。各ブロック1501は、それぞれ、一つのCUを表す。そしてCU内に示された'0'〜'2'のうち、'0'は、インター予測制限対象CUでないことを表す。また'1'は、インター予測制限対象CUであることを表す。そして'2'は、インター予測制限対象CUのうちで例外的にTemporalモードの適用が制限されないPUを含むCUであることを表す。図15(a)〜図15(d)に示されるように、インター予測制限対象CTUの右端のCUがインター予測制限対象CUとなる。ただし、インター予測制限対象CTUの右端かつ下端に位置するCUは、例外として扱われる。
なお、設定の簡略化のため、インター予測制限対象CU決定部23は、インター予測制限対象CTUに含まれるすべてのCUをインター予測制限対象CUとしてもよい。
FIGS. 15A to 15D are maps showing inter prediction restriction target CUs in the inter prediction restriction target CTU 1500 for CUs having sizes of 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels, respectively. Each block 1501 represents one CU. Of the “0” to “2” shown in the CU, “0” represents that the CU is not an inter prediction restriction target CU. Further, “1” represents an inter prediction restriction target CU. And “2” indicates that among the inter prediction restriction target CUs, the CU includes a PU that is exceptionally not restricted to use of the Temporal mode. As shown in FIGS. 15A to 15D, the rightmost CU of the inter prediction restriction target CTU is the inter prediction restriction target CU. However, CUs located at the right end and bottom end of the inter prediction restriction target CTU are treated as exceptions.
For simplification of setting, the inter prediction restriction target CU determination unit 23 may set all the CUs included in the inter prediction restriction target CTU as the inter prediction restriction target CU.

なお、インター予測制限対象CU決定部23は、選択可能なCUのサイズを制限してもよい。例えば、インター予測制限対象CU決定部23は、CU制限インデックスとして、無効を示す値を規定することで、CTU内で選択されるCUの分割を制限できる。上述したように、CUは符号化モードを決定する単位であり、動画像符号化装置1は、CUごとに、符号化モードとして、イントラ予測符号化モードとインター予測符号化モードの何れかを選択できる。詳細な説明は後述するが、Temporalモードで参照するPUが含まれるCUがイントラ予測符号化される可能性がある。イントラ予測符号化モードは一般的にインター予測符号化モードよりも圧縮効率が低いため、イントラ予測符号化モードが適用されるCUのサイズは、選択可能なCUサイズのうちの最小サイズとすることが好ましい。例えば、インター予測制限対象CU決定部23は、CUの最小サイズCUSIZE=8において、インター予測制限対象CUが選択されるようにする。そのため、インター予測制限対象CU決定部23は、CUサイズが8より大きい場合、CU制限インデックスが非0である最小サイズのCUと同一位置を含むCUのCU制限インデックスの値を、無効を表す値、例えば、'3'に設定する。   Note that the inter prediction restriction target CU determination unit 23 may restrict the selectable CU sizes. For example, the inter prediction restriction target CU determination unit 23 can restrict division of CUs selected in the CTU by defining a value indicating invalidity as a CU restriction index. As described above, the CU is a unit for determining the coding mode, and the moving image coding apparatus 1 selects either the intra prediction coding mode or the inter prediction coding mode as the coding mode for each CU. it can. Although detailed description will be given later, there is a possibility that the CU including the PU referred to in the Temporal mode may be intra prediction encoded. Since the intra prediction coding mode generally has a lower compression efficiency than the inter prediction coding mode, the size of the CU to which the intra prediction coding mode is applied may be the smallest of the selectable CU sizes. preferable. For example, the inter prediction restriction target CU determination unit 23 selects an inter prediction restriction target CU at the CU minimum size CUSIZE = 8. Therefore, when the CU size is larger than 8, the inter prediction restriction target CU determination unit 23 sets the value of the CU restriction index of the CU including the same position as the CU of the minimum size whose CU restriction index is non-zero to a value indicating invalidity. For example, set to '3'.

インター予測制限対象PU決定部24は、インター予測制限対象CUに含まれるPUのうち、他の符号化器により符号化される領域を、Temporalモードにおいて参照可能なPUをインター予測制限対象PUとする。   The inter prediction restriction target PU determination unit 24 uses, as PUs that can be referred to in the temporal mode, a region encoded by another encoder among PUs included in the inter prediction restriction target CU. .

図2に示されるように、HEVCでは、選択可能なCUのサイズは、最大64x64画素から四分木構造で32x32画素、16x16画素、8x8画素である。それぞれのサイズのCUは、図2に示したPU分割モードPartMode =2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nに従って、複数のPUに分割される。すなわち、PUも、CUについての階層構造となっている。そこで、CUの階層構造ごとにインター予測制限対象PUが決定される。   As shown in FIG. 2, in HEVC, the selectable CU sizes are 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels in a quadtree structure from a maximum of 64 × 64 pixels. Each size of CU is divided into a plurality of PUs according to the PU partition mode PartMode = 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, and nLx2N shown in FIG. That is, the PU also has a hierarchical structure with respect to the CU. Therefore, the inter prediction restriction target PU is determined for each hierarchical structure of the CU.

図16(a)〜図16(h)を参照しつつ、一つのCU1600に含まれる各PUに割り当てられる、PUを識別するためのPUインデックスPUIDXについて説明する。図16(a)〜図16(h)は、それぞれ、PU分割モードPartModeが2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nである場合のインデックスPUIDXを表す。図16(a)〜図16(h)において、各ブロック1601がそれぞれ一つのPUを表し、ブロック内に示された数値がPUインデックスPUIDXを表す。また、CU1600の上側に示された数値は、水平方向のPUインデックスPUHIDXを表す。   A PU index PUIDX for identifying a PU, which is assigned to each PU included in one CU 1600, will be described with reference to FIGS. FIGS. 16A to 16H show indexes PUIDX when the PU partitioning mode PartMode is 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, and nLx2N, respectively. In FIG. 16A to FIG. 16H, each block 1601 represents one PU, and the numerical value shown in the block represents the PU index PUIDX. The numerical value shown on the upper side of the CU 1600 represents the horizontal PU index PUHIDX.

インデックスPUIDXは、PUの符号化順に従って割り当てられる。また、水平方向のPUインデックスPUHIDXは、水平方向に左から右へPUごとに順に割り当てられる。   The index PUIDX is assigned according to the encoding order of the PU. Also, the horizontal PU index PUHIDX is assigned to each PU in order from left to right in the horizontal direction.

インター予測制限対象PU決定部24は、インター予測制限対象CUを示す、各CUの制限インデックスのマップであるCU制限マップを参照し、CU制限インデックスが'1'のCUを着目するCUとする。そしてインター予測制限対象PU決定部24は、着目するCUに含まれる各PUについて、他の符号化器により符号化される領域内のPUをTemporalモードで参照するか否かを判定する。   The inter prediction restriction target PU determination unit 24 refers to a CU restriction map that is a map of restriction indexes of each CU indicating the inter prediction restriction target CU, and sets a CU focusing on the CU with the CU restriction index “1”. Then, the inter prediction restriction target PU determination unit 24 determines, for each PU included in the focused CU, whether or not to refer to a PU in an area encoded by another encoder in the Temporal mode.

具体的には、インター予測制限対象PU決定部24は、制限インデックスが'1'のCUに含まれるPUのうち、PUHIDX=tb/PUHSIZEであるPUをインター予測制限対象PUに設定する。ここで、PUHSIZEは、PUの水平方向のサイズを表す。   Specifically, the inter prediction restriction target PU determination unit 24 sets a PU with PUHIDX = tb / PUHSIZE among PUs included in a CU having a restriction index of “1” as an inter prediction restriction target PU. Here, PUHSIZE represents the size of the PU in the horizontal direction.

図17(a)〜図17(h)は、それぞれ、PU分割モードPartModeが2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nである場合の予測制限対象PUを示すマップである。図17(a)〜図17(h)において、各ブロック1701は、それぞれ、一つのPUを表す。そしてPU内に示された数値は、そのPUについて設定されたPU制限フラグの値である。PU制限フラグの値'0'は、対応するPUがインター予測制限対象PUでないことを表す。一方、PU制限フラグの値'1'は、対応するPUがインター予測制限対象PUであることを表す。図17(a)〜図17(h)に示されるように、タイル境界、すなわち、異なる符号化器で符号化される領域間の境界の左側に隣接するPUがインター予測制限対象PUに設定される。   FIG. 17A to FIG. 17H are maps showing prediction restriction target PUs when the PU partition modes PartMode are 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, and nLx2N, respectively. In FIG. 17A to FIG. 17H, each block 1701 represents one PU. The numerical value shown in the PU is the value of the PU restriction flag set for the PU. The PU restriction flag value “0” indicates that the corresponding PU is not an inter prediction restriction target PU. On the other hand, the value “1” of the PU restriction flag indicates that the corresponding PU is an inter prediction restriction target PU. As shown in FIG. 17A to FIG. 17H, a tile boundary, that is, a PU adjacent to the left side of a boundary between regions encoded by different encoders is set as an inter prediction restriction target PU. The

また、インター予測制限対象PU決定部24は、CU制限インデックスが'2'であるCUに含まれるPUのうち、PUとその右下のPUとの間にCTU境界が位置するPUについては、例外として、インター予測制限対象PUから除外してもよい。すなわち、そのPUのPU制限フラグの値は'0'に設定される。PUとその右下のPUとの間にCTU境界が位置するPUについては、ColPUがそのPUと重なるように設定され、Temporalモードで選択される予測ベクトルの候補が他の符号化器により符号化される領域を参照しないためである。   In addition, the inter prediction restriction target PU determination unit 24 makes an exception for PUs whose CTU boundary is located between the PU and the lower right PU among the PUs included in the CU whose CU restriction index is “2”. As such, it may be excluded from the inter prediction restriction target PU. That is, the value of the PU restriction flag of the PU is set to “0”. For PUs where the CTU boundary is located between the PU and the lower right PU, ColPU is set so that it overlaps with the PU, and prediction vector candidates selected in Temporal mode are encoded by another encoder This is because the area to be used is not referred to.

この場合、PU分割モードPartModeが2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2Nである場合のインター予測制限対象PUを示すマップは、図18(a)〜図18(h)に示されるものとなる。図18(a)〜図18(h)において、各ブロック1801は、それぞれ、一つのPUを表す。そしてPU内に示された数値は、そのPUについて設定されたPU制限フラグの値である。   In this case, the maps indicating the inter prediction restriction target PUs when the PU partition mode PartMode is 2Nx2N, NxN, 2NxN, Nx2N, 2NxU, 2NxnD, nRx2N, nLx2N are shown in FIG. 18 (a) to FIG. 18 (h). It will be. In FIG. 18A to FIG. 18H, each block 1801 represents one PU. The numerical value shown in the PU is the value of the PU restriction flag set for the PU.

インター予測制限対象PU決定部24は、各PUについて、そのPUのPU制限フラグを予測ベクトル候補リスト生成部25へわたす。   The inter prediction restriction target PU determination unit 24 passes the PU restriction flag of each PU to the prediction vector candidate list generation unit 25 for each PU.

予測ベクトル候補リスト生成部25は、着目するPUの動きベクトルに対する予測ベクトルの候補リストを生成する。図19は、予測ベクトル候補リスト生成部25の概略構成図である。予測ベクトル候補リスト生成部25は、判定部30と、非制限リスト生成部31と、第1仮リスト生成部32と、第2仮リスト生成部33と、共通候補特定部34とを有する。   The prediction vector candidate list generation unit 25 generates a prediction vector candidate list for the motion vector of the target PU. FIG. 19 is a schematic configuration diagram of the prediction vector candidate list generation unit 25. The prediction vector candidate list generation unit 25 includes a determination unit 30, an unrestricted list generation unit 31, a first temporary list generation unit 32, a second temporary list generation unit 33, and a common candidate specification unit 34.

判定部30は、PU制限フラグを参照して、符号化対象のCTUについて適用可能なPUのそれぞれについて、インター予測制限対象PUか否か判定する。そして判定部30は、着目するPUがインター予測制限対象PUでなければ、そのPUを非制限リスト生成部31へ通知する。一方、判定部30は、着目するPUがインター予測制限対象PUであれば、そのPUを第1仮リスト生成部32及び第2仮リスト生成部33へ通知する。   The determination unit 30 refers to the PU restriction flag and determines whether each of the PUs applicable to the encoding target CTU is an inter prediction restriction target PU. Then, if the focused PU is not the inter prediction restriction target PU, the determination unit 30 notifies the unrestricted list generation unit 31 of the PU. On the other hand, if the focused PU is an inter prediction restriction target PU, the determination unit 30 notifies the first temporary list generation unit 32 and the second temporary list generation unit 33 of the PU.

非制限リスト生成部31は、符号化対象のCTUについて適用可能なPUのうち、インター予測制限対象PUでないPUについて、通常のAMVPモード及びMergeモードのそれぞれに従って、予測ベクトルの候補のリストを生成する。すなわち、非制限リスト生成部31は、インター予測制限対象PUでないPUについて、図3に示された動作フローチャートに従ってAMVPモードでの予測ベクトルの候補のリストを生成する。さらに、非制限リスト生成部31は、インター予測制限対象PUでないPUについて、図6に示された動作フローチャートに従ってMergeモードでの予測ベクトルの候補のリストを生成する。そして非制限リスト生成部31は、生成した予測ベクトルの候補のリストを符号化モード決定部26へ出力する。   The unrestricted list generation unit 31 generates prediction vector candidate lists according to the normal AMVP mode and the Merge mode for PUs that are not applicable to the inter prediction restriction target PU among the PUs applicable to the encoding target CTU. . That is, the non-restricted list generation unit 31 generates a list of prediction vector candidates in the AMVP mode according to the operation flowchart shown in FIG. 3 for PUs that are not inter prediction restriction target PUs. Further, the unrestricted list generation unit 31 generates a list of prediction vector candidates in the merge mode for PUs that are not inter prediction restriction target PUs according to the operation flowchart shown in FIG. Then, the non-restricted list generation unit 31 outputs the generated prediction vector candidate list to the encoding mode determination unit 26.

インター予測制限対象PUについては、ColPUの第1候補となるPUが他の符号化器により符号化されているので、その第1候補となるPUについて動きベクトルが設定されているか否かが不明である。そこで、第1仮リスト生成部32は、符号化対象のCTUについて適用可能なPUのうち、インター予測制限対象PUについて、利用可能な時間予測ベクトルが存在すると仮定する。そして第1仮リスト生成部32は、その仮定の上で、AMVPモード及びMergeモードのそれぞれに従って、予測ベクトルの候補のリストを生成する。以下では、第1仮リスト生成部32が生成する予測ベクトルの候補のリストを第1の仮リストと呼ぶ。   For the inter prediction restriction target PU, the first candidate PU of ColPU is encoded by another encoder, so it is unknown whether a motion vector is set for the first candidate PU. is there. Therefore, it is assumed that the first temporary list generation unit 32 has an available temporal prediction vector for the inter prediction restriction target PU among the PUs applicable to the encoding target CTU. Then, the first temporary list generation unit 32 generates a list of prediction vector candidates according to each of the AMVP mode and the Merge mode on the assumption. Hereinafter, the list of prediction vector candidates generated by the first temporary list generation unit 32 is referred to as a first temporary list.

インター予測制限対象PUとColPU間にCTU境界が存在する場合、第1仮リスト生成部32は、ColPUの動きベクトルを参照できない。そのため、第1仮リスト生成部32は、時間予測ベクトルとしてダミーのベクトルを用いる。このダミーのベクトルは、例えば、動きベクトルが取り得ない要素値を持つベクトル、例えば、各要素の値が16bitで表せない値となるベクトルとすることができる。あるいは、第1仮リスト生成部32は、第1の仮リストのうち、そのダミーのベクトルに由来する予測ベクトルの候補に対して、ダミーのベクトルであることを表すフラグを対応付けてもよい。   When a CTU boundary exists between the inter prediction restriction target PU and the ColPU, the first temporary list generation unit 32 cannot refer to the ColPU motion vector. Therefore, the first temporary list generation unit 32 uses a dummy vector as a temporal prediction vector. This dummy vector can be, for example, a vector having an element value that cannot be taken by a motion vector, for example, a vector in which the value of each element cannot be expressed in 16 bits. Or the 1st temporary list production | generation part 32 may match the flag showing that it is a dummy vector with the candidate of the prediction vector derived from the dummy vector among the 1st temporary lists.

すなわち、第1仮リスト生成部32は、AMVPモードに関して、図3の動作フローチャートにおけるステップS105の判定が常にYesであるとして、第1の仮リストを生成する。その際、第1仮リスト生成部32は、図3の動作フローチャートにおけるステップS106の処理において、ダミーのベクトルを第1の仮リストに登録すればよい。   That is, the first temporary list generation unit 32 generates the first temporary list regarding the AMVP mode, assuming that the determination in step S105 in the operation flowchart of FIG. 3 is always Yes. At that time, the first temporary list generation unit 32 may register a dummy vector in the first temporary list in the process of step S106 in the operation flowchart of FIG.

また、第1仮リスト生成部32は、Mergeモードに関して、図6の動作フローチャートにおけるステップS202において、ダミーのベクトルを時間予測ベクトルとすればよい。また、第1仮リスト生成部32は、ステップS206において、Combined bi-predictiveベクトルの生成の際に、時間予測ベクトルとしてダミーのベクトルを使用すればよい。そして第1仮リスト生成部32は、生成した第1の仮リストを共通候補特定部34へ出力する。   In addition, regarding the Merge mode, the first temporary list generation unit 32 may set the dummy vector as the temporal prediction vector in step S202 in the operation flowchart of FIG. Moreover, the 1st temporary list production | generation part 32 should just use a dummy vector as a time prediction vector in the case of the production | generation of a Combined bi-predictive vector in step S206. Then, the first temporary list generating unit 32 outputs the generated first temporary list to the common candidate specifying unit 34.

一方、第2仮リスト生成部33は、符号化対象のCTUについて適用可能なPUのうち、インター予測制限対象PUについて、利用可能な時間予測ベクトルが存在しないと仮定して、AMVPモード及びMergeモードのそれぞれに従って予測ベクトルの候補のリストを生成する。以下では、第2仮リスト生成部33が生成する予測ベクトルの候補のリストを第2の仮リストと呼ぶ。   On the other hand, the second temporary list generation unit 33 assumes that there is no temporal prediction vector that can be used for the inter prediction restriction target PU among the PUs applicable to the encoding target CTU, and the AMVP mode and the Merge mode. A list of prediction vector candidates is generated according to each of. Hereinafter, the list of prediction vector candidates generated by the second temporary list generation unit 33 is referred to as a second temporary list.

すなわち、第2仮リスト生成部33は、AMVPモードに関して、図3の動作フローチャートにおけるステップS105の判定が常にNoであるとして、第1の仮リストを生成する。また、第2仮リスト生成部33は、Mergeモードに関して、図6の動作フローチャートにおけるステップS202の処理をスキップするとともに、時間予測ベクトルに基づくCombined bi-predictiveベクトルを用いずに、第2の仮リストを生成する。そして第2仮リスト生成部33は、生成した第2の仮リストを共通候補特定部34へ出力する。   That is, regarding the AMVP mode, the second temporary list generation unit 33 generates the first temporary list assuming that the determination in step S105 in the operation flowchart of FIG. 3 is always No. Further, the second temporary list generation unit 33 skips the process of step S202 in the operation flowchart of FIG. 6 for the Merge mode and does not use the Combined bi-predictive vector based on the temporal prediction vector. Is generated. Then, the second temporary list generating unit 33 outputs the generated second temporary list to the common candidate specifying unit 34.

なお、符号化対象の動画像データに対してAMVPモード及びMergeモードのうちの一方のみが適用されてもよい。この場合には、非制限リスト生成部31、第1仮リスト生成部32、及び第2仮リスト生成部33は、それらのモードのうちの一方についてのみ予測ベクトルの候補のリストを生成してもよい。   Note that only one of the AMVP mode and the Merge mode may be applied to the moving image data to be encoded. In this case, the non-restricted list generation unit 31, the first temporary list generation unit 32, and the second temporary list generation unit 33 may generate a list of prediction vector candidates only for one of these modes. Good.

共通候補特定部34は、第1の仮リストと第2の仮リスト間で、同一の位置にある予測ベクトルの候補の組ごとに、共通するか否か、すなわち、その組に含まれる二つの予測ベクトルの候補が同一か否かを判定する。そして共通候補特定部34は、第1の仮リストと第2の仮リスト間で共通する予測ベクトルの候補を、予測ベクトルの候補として使用可能なベクトルとする。   The common candidate specifying unit 34 determines whether or not each set of prediction vector candidates at the same position is common between the first temporary list and the second temporary list, that is, two sets included in the set. It is determined whether the prediction vector candidates are the same. Then, the common candidate specifying unit 34 sets prediction vector candidates common to the first temporary list and the second temporary list as vectors that can be used as prediction vector candidates.

図20は、インター予測制限対象PUの周囲のPUの動きベクトルと、Mergeモードで生成される第1の仮リスト及び第2の仮リストの一例を示す図である。この例では、インター予測制限対象PU2000に対して、図7のブロックA0,A1,B1の位置にあるPU2001、2002がイントラ予測符号化されており、ブロックB0,B2の位置にあるPU2003、2004について双方向の動きベクトルが求められている。なお、L0(a,b)は、L0方向の動きベクトルを表し、L1(a,b)は、L1方向の動きベクトルを表す。   FIG. 20 is a diagram illustrating an example of motion vectors of PUs around the inter prediction restriction target PU, and the first temporary list and the second temporary list generated in the Merge mode. In this example, the PUs 2001 and 2002 at the positions of the blocks A0, A1, and B1 in FIG. There is a need for bidirectional motion vectors. L0 (a, b) represents a motion vector in the L0 direction, and L1 (a, b) represents a motion vector in the L1 direction.

この場合、第1の仮リスト2010において、0番目及び1番目の候補は、それぞれ、PU2003の動きベクトル及びPU2004の動きベクトルから求められた空間予測ベクトルとなる。また、2番目の候補は、ダミーの時間予測ベクトルである。3番目の候補は、0番目の空間予測ベクトルのL0方向のベクトルと1番目の空間予測ベクトルのL1方向のベクトルから生成されたCombined bi-predictiveベクトルである。そして4番目の候補は、0番目の空間予測ベクトルのL1方向のベクトルと1番目の空間予測ベクトルのL0方向のベクトルから生成されたCombined bi-predictiveベクトルである。一方、第2の仮リスト2011において、0番目及び1番目の候補は、それぞれ、PU2003の動きベクトル及びPU2004の動きベクトルから求められた空間予測ベクトルである。また、2番目の候補は、0番目の空間予測ベクトルのL0方向のベクトルと1番目の空間予測ベクトルのL1方向のベクトルから生成されたCombined bi-predictiveベクトルである。同様に、3番目の候補は、0番目の空間予測ベクトルのL1方向のベクトルと1番目の空間予測ベクトルのL0方向のベクトルから生成されたCombined bi-predictiveベクトルである。そして4番目の候補はゼロベクトルである。   In this case, in the first temporary list 2010, the 0th and 1st candidates are spatial prediction vectors obtained from the motion vector of the PU 2003 and the motion vector of the PU 2004, respectively. The second candidate is a dummy temporal prediction vector. The third candidate is a combined bi-predictive vector generated from the L0 direction vector of the 0th spatial prediction vector and the L1 direction vector of the first spatial prediction vector. The fourth candidate is a combined bi-predictive vector generated from the L1 direction vector of the 0th spatial prediction vector and the L0 direction vector of the first spatial prediction vector. On the other hand, in the second temporary list 2011, the 0th and 1st candidates are spatial prediction vectors obtained from the motion vector of the PU 2003 and the motion vector of the PU 2004, respectively. The second candidate is a combined bi-predictive vector generated from the L0 direction vector of the 0th spatial prediction vector and the L1 direction vector of the first spatial prediction vector. Similarly, the third candidate is a combined bi-predictive vector generated from a vector in the L1 direction of the 0th spatial prediction vector and a vector in the L0 direction of the first spatial prediction vector. And the fourth candidate is a zero vector.

したがって、第1の仮リスト及び第2の仮リストにおいて、0番目、1番目、及び4番目の候補が共通する。したがって、共通候補特定部34は、0番目、1番目、及び4番目の候補を、予測ベクトルの候補として使用可能と判断する。   Therefore, the 0th, 1st, and 4th candidates are common in the first temporary list and the second temporary list. Therefore, the common candidate specifying unit 34 determines that the 0th, 1st, and 4th candidates can be used as prediction vector candidates.

これに対して、従来技術では、予測ベクトルの候補のリストの2番目以降の候補が確定しないので、0番目及び1番目の空間予測ベクトルしか、予測ベクトルの候補として利用できない。このように、本実施形態による動画像符号化装置1は、従来技術よりも、使用可能な予測ベクトルの候補の数を増やすことができる。   On the other hand, in the prior art, since the second and subsequent candidates in the list of prediction vector candidates are not fixed, only the 0th and 1st spatial prediction vectors can be used as prediction vector candidates. As described above, the moving picture encoding apparatus 1 according to the present embodiment can increase the number of prediction vector candidates that can be used as compared with the conventional technique.

図21は、インター予測制限対象PUの周囲のPUの動きベクトルと、Mergeモードで生成される第1の仮リスト及び第2の仮リストの他の一例を示す図である。この例では、インター予測制限対象PU2100に対して、図7のブロックA1、B1の位置にあるPU2101、2102がイントラ予測符号化されており、ブロックA0、B0、B2の位置にあるPU2103〜2105について一方向の動きベクトルが求められている。なお、L0(a,b)は、L0方向の動きベクトルを表し、L1(a,b)は、L1方向の動きベクトルを表す。   FIG. 21 is a diagram illustrating another example of the motion vectors of the PUs around the inter prediction restriction target PU, and the first temporary list and the second temporary list generated in the Merge mode. In this example, for the inter prediction restriction target PU 2100, the PUs 2101 and 2102 at the positions of the blocks A1 and B1 in FIG. A unidirectional motion vector is desired. L0 (a, b) represents a motion vector in the L0 direction, and L1 (a, b) represents a motion vector in the L1 direction.

この場合、第1の仮リスト2110において、0番目〜2番目の候補は、それぞれ、PU2104、PU2103及びPU2105の動きベクトルから求められた空間予測ベクトルとなる。また、3番目の候補は、ダミーの時間予測ベクトルである。そして4番目の候補は、0番目の空間予測ベクトルのL0方向のベクトルと1番目の空間予測ベクトルのL1方向のベクトルから生成されたCombined bi-predictiveベクトルである。一方、第2の仮リスト2111においても、0番目〜2番目の候補は、それぞれ、PU2104、PU2103及びPU2105の動きベクトルから求められた空間予測ベクトルとなる。一方、3番目の候補は、0番目の空間予測ベクトルのL0方向のベクトルと1番目の空間予測ベクトルのL1方向のベクトルから生成されたCombined bi-predictiveベクトルである。同様に、4番目の候補は、0番目の空間予測ベクトルのL0方向のベクトルと2番目の空間予測ベクトルのL1方向のベクトルから生成されたCombined bi-predictiveベクトルである。   In this case, in the first temporary list 2110, the 0th to 2nd candidates are spatial prediction vectors obtained from the motion vectors of the PU 2104, the PU 2103, and the PU 2105, respectively. The third candidate is a dummy temporal prediction vector. The fourth candidate is a combined bi-predictive vector generated from the L0 direction vector of the 0th spatial prediction vector and the L1 direction vector of the first spatial prediction vector. On the other hand, in the second temporary list 2111, the 0th to 2nd candidates are spatial prediction vectors obtained from the motion vectors of the PU 2104, PU 2103, and PU 2105, respectively. On the other hand, the third candidate is a combined bi-predictive vector generated from the L0 direction vector of the 0th spatial prediction vector and the L1 direction vector of the first spatial prediction vector. Similarly, the fourth candidate is a combined bi-predictive vector generated from the L0 direction vector of the 0th spatial prediction vector and the L1 direction vector of the second spatial prediction vector.

したがって、第1の仮リスト及び第2の仮リストにおいて、0〜2番目、及び4番目の候補が共通する。したがって、共通候補特定部34は、0〜2番目、及び4番目の候補を、予測ベクトルの候補として使用可能と判断する。   Therefore, the 0-2nd and 4th candidates are common in the first temporary list and the second temporary list. Therefore, the common candidate specifying unit 34 determines that the 0th to second and fourth candidates can be used as prediction vector candidates.

これに対して、従来技術では、予測ベクトルの候補のリストの3番目以降の候補が確定しないので、0〜2番目の空間予測ベクトルしか、予測ベクトルの候補として利用できない。したがって、この例でも、本実施形態による動画像符号化装置1は、従来技術よりも、使用可能な予測ベクトルの候補の数を増やすことができる。   On the other hand, in the prior art, since the third and subsequent candidates in the list of prediction vector candidates are not fixed, only the 0th to second spatial prediction vectors can be used as prediction vector candidates. Therefore, also in this example, the moving picture encoding apparatus 1 according to the present embodiment can increase the number of usable prediction vector candidates as compared with the conventional technique.

図22は、インター予測制限対象PUの周囲のPUの動きベクトルと、AMVPモードで生成される第1の仮リスト及び第2の仮リストの一例を示す図である。この例では、インター予測制限対象PU2200に対して、空間予測ベクトルの生成の際に参照されるPU2201〜2204の全てがイントラ予測符号化されている。   FIG. 22 is a diagram illustrating an example of motion vectors of PUs around the inter prediction restriction target PU, and a first temporary list and a second temporary list generated in the AMVP mode. In this example, with respect to the inter prediction restriction target PU 2200, all of the PUs 2201 to 2204 referred to when generating the spatial prediction vector are intra prediction encoded.

この場合、第1の仮リスト2210において、0番目の候補は、ダミーの時間予測ベクトルである。そして1番目の候補は、ゼロベクトルである。一方、第2の仮リスト2211においても、0番目及び1番目の何れの候補もゼロベクトルとなる。   In this case, in the first temporary list 2210, the 0th candidate is a dummy temporal prediction vector. The first candidate is a zero vector. On the other hand, in the second temporary list 2211, both the 0th and 1st candidates are zero vectors.

したがって、第1の仮リスト及び第2の仮リストにおいて、1番目の候補が共通する。したがって、共通候補特定部34は、1番目の候補を、予測ベクトルの候補として使用可能と判断する。   Therefore, the first candidate is common to the first temporary list and the second temporary list. Therefore, the common candidate specifying unit 34 determines that the first candidate can be used as a prediction vector candidate.

これに対して、従来技術では、予測ベクトルの候補のリストの先頭の候補が確定しないので、何れの候補も、予測ベクトルの候補として利用できない。そのため、インター予測制限対象PU2200は、イントラ予測符号化されることになる。したがって、この例では、本実施形態による動画像符号化装置1は、従来技術ではインター予測符号化モードを適用できなかったインター予測制限対象PU2200に対して、インター予測符号化モードを適用できる。   On the other hand, in the prior art, since the top candidate of the list of prediction vector candidates is not fixed, any candidate cannot be used as a prediction vector candidate. Therefore, the inter prediction restriction target PU 2200 is intra prediction encoded. Therefore, in this example, the moving image encoding apparatus 1 according to the present embodiment can apply the inter prediction encoding mode to the inter prediction restriction target PU 2200 to which the inter prediction encoding mode cannot be applied in the related art.

共通候補特定部34は、第1の仮リストまたは第2の仮リストと、第1の仮リストまたは第2の仮リストに含まれるベクトルのうち、予測ベクトルの候補として使用可能なベクトルを示す共通情報を符号化モード決定部26へ通知する。   The common candidate specifying unit 34 indicates a vector that can be used as a candidate for a prediction vector among vectors included in the first temporary list or the second temporary list and the first temporary list or the second temporary list. Information is notified to the encoding mode determination unit 26.

図23は、予測ベクトル候補リスト生成処理の動作フローチャートである。予測ベクトル候補リスト生成部25は、PUごとに、下記の動作フローチャートに従って予測ベクトルの候補リストを生成する。
判定部30は、着目するPUがインター予測制限対象PUか否か判定する(ステップS301)。着目するPUがインター予測制限対象PUでなければ(ステップS301−No)、非制限リスト生成部31は、AMVPモード及びMergeモードのそれぞれに従って、予測ベクトルの候補リストを生成する(ステップS302)。
FIG. 23 is an operation flowchart of prediction vector candidate list generation processing. The prediction vector candidate list generation unit 25 generates a prediction vector candidate list according to the following operation flowchart for each PU.
The determination unit 30 determines whether or not the focused PU is an inter prediction restriction target PU (step S301). If the focused PU is not an inter prediction restriction target PU (No in step S301), the non-restricted list generation unit 31 generates a prediction vector candidate list according to each of the AMVP mode and the Merge mode (step S302).

一方、着目するPUがインター予測制限対象PUであれば(ステップS301−Yes)、第1仮リスト生成部32は、時間予測ベクトルが存在すると仮定し、かつ、時間予測ベクトルをダミーのベクトルとする。その上で、第1仮リスト生成部32は、AMVPモード及びMergeモードのそれぞれに従って、第1の仮リストを生成する(ステップS303)。また、第2仮リスト生成部33は、時間予測ベクトルが存在しないと仮定し、AMVPモード及びMergeモードのそれぞれに従って、第2の仮リストを生成する(ステップS304)。   On the other hand, if the focused PU is an inter prediction restriction target PU (step S301-Yes), the first temporary list generation unit 32 assumes that a temporal prediction vector exists and sets the temporal prediction vector as a dummy vector. . Then, the first temporary list generating unit 32 generates a first temporary list according to each of the AMVP mode and the Merge mode (step S303). In addition, the second temporary list generation unit 33 generates a second temporary list according to each of the AMVP mode and the Merge mode, assuming that there is no temporal prediction vector (step S304).

共通候補特定部34は、第1の仮リストと第2の仮リスト間で、同一の位置にある予測ベクトルの候補の組のうち、共通するものを、予測ベクトルの候補として使用可能なベクトルとする(ステップS305)。
ステップS302またはステップS305の後、予測ベクトル候補リスト生成部25は、予測ベクトル候補リスト生成処理を終了する。
The common candidate specifying unit 34 uses a vector that can be used as a candidate for a prediction vector from a set of prediction vector candidates at the same position between the first temporary list and the second temporary list. (Step S305).
After step S302 or step S305, the prediction vector candidate list generation unit 25 ends the prediction vector candidate list generation process.

なお、インター予測制限対象PUについてのColPUの第2の候補となるPUについて動きベクトルが存在する場合、そのインター予測制限対象PUにおいて、時間予測ベクトルが存在することが確定する。この場合には、インター予測制限対象PUについて、ColPUについての参照を制限せずに生成された予測ベクトルの候補リストと、第1の仮リストとでは、時間予測ベクトルに由来する予測ベクトルの候補以外は同一となる。
そこで変形例によれば、共通候補特定部34は、第1の仮リストに登録されている予測ベクトルの候補のうち、ダミーの時間予測ベクトルに由来しない候補を、使用可能な予測ベクトルの候補として追加してもよい。
When a motion vector exists for a PU that is a second ColPU candidate for an inter prediction restriction target PU, it is determined that a temporal prediction vector exists in the inter prediction restriction target PU. In this case, for the inter prediction restriction target PU, the prediction vector candidate list generated without restricting the reference to ColPU and the first temporary list other than prediction vector candidates derived from the temporal prediction vector Are the same.
Therefore, according to the modification, the common candidate specifying unit 34 selects candidates that are not derived from the dummy temporal prediction vector among the prediction vector candidates registered in the first temporary list as usable prediction vector candidates. May be added.

例えば、再度図20を参照すると、第1の仮リスト2010において、3番目のベクトルは、ダミーの時間予測ベクトルに由来していない。そこで共通候補特定部34は、第1の仮リスト2010に含まれる予測ベクトルの候補のうち、2番目の候補を除く残りの候補を、予測ベクトルの候補として使用可能とすることができる。   For example, referring to FIG. 20 again, in the first provisional list 2010, the third vector is not derived from a dummy temporal prediction vector. Therefore, the common candidate specifying unit 34 can use the remaining candidates excluding the second candidate among the prediction vector candidates included in the first temporary list 2010 as the prediction vector candidates.

この変形例によれば、インター予測制限対象PUについて使用可能な予測ベクトルの候補の数がより多くなるので、動画像符号化装置1は、インター予測制限対象PUを含むCTUについての符号化効率の低下をより抑制できる。   According to this modified example, the number of prediction vector candidates that can be used for the inter prediction restriction target PU is increased, so that the video encoding device 1 can improve the coding efficiency for the CTU that includes the inter prediction restriction target PU. The decrease can be further suppressed.

符号化モード決定部26は、符号化対象ピクチャの符号化対象CTUに適用するCU分割モード(CUサイズ)とPU分割モード(PUサイズ)の組み合わせを決定する。さらに、符号化モード決定部26は、符号化対象CTUに含まれる各CUについての符号化モードを決定する。さらに、符号化モード決定部26は、インター予測符号化モードが適用されるCUに含まれる各PUについて、そのPUの予測ベクトルの候補のリストを参照して、予測ベクトルを決定する。   The encoding mode determination unit 26 determines a combination of a CU partition mode (CU size) and a PU partition mode (PU size) to be applied to the encoding target CTU of the encoding target picture. Furthermore, the encoding mode determination unit 26 determines the encoding mode for each CU included in the encoding target CTU. Further, the encoding mode determination unit 26 determines a prediction vector for each PU included in a CU to which the inter prediction encoding mode is applied with reference to a prediction vector candidate list of the PU.

符号化モード決定部26は、CU分割モード及びPU分割モードを決定するために、CU分割モードとPU分割モードの組み合わせのそれぞれについて、符号量の推定値である符号化コストを算出し、その符号化コストが最小となる組み合わせを選択する。符号化モード決定部26は、符号化コストを算出するために、次式に従って予測誤差、すなわち画素差分絶対値和SADを算出する。
SAD=Σ|OrgPixel-PredPixel|
ここで、OrgPixelは符号化対象ピクチャの着目するブロック、例えば、着目するPUに含まれる画素の値であり、PredPixelはHEVC規格で求められる、着目するブロックに対応する予測ブロックに含まれる画素の値である。
ただし、符号化モード決定部26は、SADの代わりに、符号化対象CTUと予測ブロックとの差分画像をアダマール変換した後の各画素の絶対値和SATDなどを算出してもよい。
The encoding mode determination unit 26 calculates an encoding cost that is an estimated value of the code amount for each combination of the CU partition mode and the PU partition mode in order to determine the CU partition mode and the PU partition mode. Select the combination that minimizes the cost. The encoding mode determination unit 26 calculates a prediction error, that is, a pixel difference absolute value sum SAD according to the following equation in order to calculate the encoding cost.
SAD = Σ | OrgPixel-PredPixel |
Here, OrgPixel is the value of the pixel of interest in the picture to be encoded, for example, the value of the pixel included in the PU of interest, and PredPixel is the value of the pixel contained in the prediction block corresponding to the block of interest, as determined by the HEVC standard It is.
However, the encoding mode determination unit 26 may calculate the absolute value sum SATD of each pixel after Hadamard transform of the difference image between the encoding target CTU and the prediction block, instead of SAD.

また、AMVPモードに関して、差分ベクトルMVD=(予測ベクトル−動きベクトル)を符号化するために必要な情報量をMVDCostとすると、符号化コストCostは、次式で表される。
Cost=SAD + λ*MVDCost
ただし、λはSADとMVDCostのバランスを調整するスケーラーである。
Further, regarding the AMVP mode, when the amount of information necessary for encoding the difference vector MVD = (predicted vector−motion vector) is MVDCost, the encoding cost Cost is expressed by the following equation.
Cost = SAD + λ * MVDCost
However, λ is a scaler that adjusts the balance between SAD and MVDCost.

図24を参照しつつ、符号化モード決定部26の処理をより詳細に説明する。なお、符号化モード決定部26は、無効とされているCUについては選択されないので、そのCUを含む組み合わせの符号化コストを算出しない。ここでは簡単化のためCUSIZE=32とCUSIZE=16が有効であるとして説明する。   The processing of the encoding mode determination unit 26 will be described in more detail with reference to FIG. Note that the encoding mode determination unit 26 does not select an invalid CU, and therefore does not calculate the encoding cost of the combination including the CU. Here, for simplification, it is assumed that CUSIZE = 32 and CUSIZE = 16 are effective.

まず、符号化モード決定部26は、CTU2400において、CUSIZEを32に設定する。そして符号化モード決定部26は、符号化対象CU内のPU分割モードPartModeごとにコストPuSizeCostを求めるため、CU2401に含まれる各PU2402のコストPuCostを求める。符号化モード決定部26は、AMVPモードとMergeモードのそれぞれについてPUのコストを算出する。その際、符号化モード決定部26は、予測ベクトルとして、予測ベクトル候補リスト生成部25により選択された、使用可能な予測ベクトルを用いる。上述したように、インター予測制限対象PUについては、第1の仮リストと第2の仮リストで共通するベクトルの中から予測ベクトルが選択される。AMVPモードとMergeモードの両方で予測ベクトルが無効なPU、すなわち、使用可能な予測ベクトルの候補が無いPUであれば、符号化モード決定部26は、インター予測モードを無効とし、PUコストPuCostも無効値、すなわち、非常に大きな値とする。   First, the encoding mode determination unit 26 sets CUSIZE to 32 in the CTU 2400. The encoding mode determination unit 26 calculates the cost PuCost of each PU 2402 included in the CU 2401 in order to determine the cost PuSizeCost for each PU partition mode PartMode in the encoding target CU. The encoding mode determination unit 26 calculates the PU cost for each of the AMVP mode and the Merge mode. At that time, the encoding mode determination unit 26 uses the usable prediction vector selected by the prediction vector candidate list generation unit 25 as the prediction vector. As described above, for the inter prediction restriction target PU, a prediction vector is selected from vectors common to the first temporary list and the second temporary list. If the prediction vector is invalid in both the AMVP mode and the Merge mode, that is, if there is no usable prediction vector candidate, the encoding mode determination unit 26 invalidates the inter prediction mode and the PU cost PuCost is also set. Invalid value, that is, a very large value.

AMVPモードが無効で、かつ、Mergeモードが有効、すなわち、AMVPモードについて使用可能な予測ベクトルの候補が無く、Mergeモードについて使用可能な予測ベクトルの候補が有れば、符号化モード決定部26は、適用するベクトルモードをMergeモードとする。そして符号化モード決定部26は、PUコストPuCostを、MergeモードのコストMergeCostとする。逆に、AMVPモードが有効であり、かつ、Mergeモードが無効であれば、符号化モード決定部26は、適用するベクトルモードをAMVPモードとする。そして符号化モード決定部26は、PUコストPuCostを、AMVPモードのコストAMVPCostとする。また、AMVPモードとMergeモードの両方が有効であれば、符号化モード決定部26は、適用するベクトルモードを、AMVPモードのコストAMVPCostとMergeモードのコストMergeCostのうちの最小値に対応するモードとする。そして符号化モード決定部26は、その最小値をPUコストPuCostとする。   If the AMVP mode is invalid and the Merge mode is valid, that is, there is no prediction vector candidate usable for the AMVP mode, and there is a prediction vector candidate usable for the Merge mode, the encoding mode determination unit 26 The vector mode to be applied is the merge mode. The encoding mode determination unit 26 sets the PU cost PuCost as the merge mode cost MergeCost. Conversely, if the AMVP mode is valid and the Merge mode is invalid, the encoding mode determination unit 26 sets the applied vector mode as the AMVP mode. Then, the encoding mode determination unit 26 sets the PU cost PuCost as the AMVP mode cost AMVPCost. If both the AMVP mode and the Merge mode are valid, the encoding mode determination unit 26 determines that the vector mode to be applied is a mode corresponding to the minimum value of the AMVP mode cost AMVPCost and the Merge mode cost MergeCost. To do. The encoding mode determination unit 26 sets the minimum value as the PU cost PuCost.

CUに含まれる全てのPUについて、PUコストPuCostが算出されると、符号化モード決定部26は、PU分割モードごとに、CUに含まれる全てのPUのPUコストPuCostの総和PuSizeCost=ΣPuCostを、PU分割モードコストとして算出する。符号化モード決定部26は、設定可能な全てのPU分割モードのうち、PU分割モードコストの最小値に対応するPU分割モードを選択する。また符号化モード決定部26は、PU分割モードコストの最小値を、着目するCUサイズ(この例では、32)についてのインター予測符号化モードのコストInterCu32Costとする。   When the PU cost PuCost is calculated for all the PUs included in the CU, the encoding mode determining unit 26 calculates the sum PuSizeCost = ΣPuCost of the PU costs PuCost of all the PUs included in the CU for each PU partition mode. Calculate as PU split mode cost. The encoding mode determination unit 26 selects a PU partition mode corresponding to the minimum value of the PU partition mode cost among all the PU partition modes that can be set. Further, the encoding mode determination unit 26 sets the minimum value of the PU partition mode cost as the cost InterCu32Cost of the inter prediction encoding mode for the focused CU size (32 in this example).

さらに、符号化モード決定部26は、CUSIZE=32においてCUをイントラ予測符号化するときのイントラ予測符号化モードのコストIntraCu32Costを算出する。この場合には、符号化モード決定部26は、例えば、HEVC規格で規定されている、イントラ予測符号化モードで選択可能な予測ブロックの作成方法に従ってそれぞれ予測ブロックを生成し、予測ブロックごとに、上記のSADの算出式に従ってコストを算出する。そして符号化モード決定部26は、予測ブロックごとのコストのうちの最小値をコストIntraCu32Costとすればよい。   Furthermore, the encoding mode determination unit 26 calculates the cost IntraCu32Cost of the intra prediction encoding mode when CU is intra prediction encoded at CUSIZE = 32. In this case, for example, the encoding mode determination unit 26 generates a prediction block according to a prediction block creation method that can be selected in the intra prediction encoding mode defined in the HEVC standard, and for each prediction block, The cost is calculated according to the above SAD calculation formula. And the encoding mode determination part 26 should just make the minimum value of the cost for every prediction block the cost IntraCu32Cost.

符号化モード決定部26は、イントラ予測符号化モードのコストIntraCu32Costとインター予測符号化モードのコストInterCu32Costのうちの最小値に対応する符号化モードを、そのCUサイズについて選択される符号化モードとする。選択された符号化モードは、フラグpredModeFlag(=イントラ予測符号化モードまたはインター予測符号化モード)で表される。また符号化モード決定部26は、その最小値をCUSIZE=32のコストCu32Costとする。なお、CUに含まれるPUのうちの一つでも無効なPUがあれば、InterCu32Costが無効値となる。この場合、符号化モード決定部26は、CUSIZE=32のCUについてイントラ予測符号化モードを選択する。   The coding mode determination unit 26 sets the coding mode corresponding to the minimum value among the cost IntraCu32Cost of the intra prediction coding mode and the cost InterCu32Cost of the inter prediction coding mode as the coding mode selected for the CU size. . The selected coding mode is represented by a flag predModeFlag (= intra prediction coding mode or inter prediction coding mode). The encoding mode determination unit 26 sets the minimum value as the cost Cu32Cost of CUSIZE = 32. Note that if there is an invalid PU in one of the PUs included in the CU, InterCu32Cost becomes an invalid value. In this case, the encoding mode determination unit 26 selects an intra prediction encoding mode for a CU with CUSIZE = 32.

次に、符号化モード決定部26は、CUSIZEを16に設定し、同様の処理を行う。最後に、符号化モード決定部26は、CUSIZE=32のコストCu32CostとCUSIZE=16の四つのCUのコストの総和であるコストCu16Costのうちの最小値を求める。そして符号化モード決定部26は、その最小値に対応するCUサイズ、PU分割モード、及び符号化モードを決定する。   Next, the encoding mode determination unit 26 sets CUSIZE to 16, and performs the same processing. Finally, the encoding mode determination unit 26 obtains the minimum value of the cost Cu16Cost which is the sum of the costs of the four CUs of CUSIZE = 32 and the cost Cu32Cost of CUSIZE = 32. Then, the encoding mode determination unit 26 determines a CU size, a PU partition mode, and an encoding mode corresponding to the minimum value.

符号化モード決定部26は、CTUごとに、決定したCU分割モード、PU分割モード、及び符号化モードを予測符号化部27へ通知する。   The encoding mode determination unit 26 notifies the prediction encoding unit 27 of the determined CU partition mode, PU partition mode, and encoding mode for each CTU.

予測符号化部27は、CTUごとに、符号化モード決定部26により決定された、そのCTU内のCUに適用される符号化モードに従ってPUごとに予測ブロックを生成し、その予測ブロックとPU間の予測誤差を量子化することで、各CTUの符号化データを生成する。   The prediction encoding unit 27 generates a prediction block for each PU according to the encoding mode applied to the CU in the CTU determined by the encoding mode determination unit 26 for each CTU, and between the prediction block and the PU. By encoding the prediction error, encoded data of each CTU is generated.

予測符号化部27は、着目するCUがインター予測符号化される場合、そのCUに含まれる各PUについて、局部復号領域、または局部復号ピクチャを動きベクトルに基づいて動き補償することで予測ブロックを生成する。なお、局部復号領域は、符号化器11−1により一旦符号化され、復号することで得られた領域(本実施形態では、タイル)である。また、局部復号ピクチャは、各符号化器により得られた局部復号領域を結合することで得られる。   When the target CU is subjected to inter prediction encoding, the predictive encoding unit 27 performs motion compensation on a local decoding region or a local decoded picture based on a motion vector for each PU included in the CU. Generate. The local decoding area is an area (in this embodiment, a tile) obtained by encoding and decoding once by the encoder 11-1. A local decoded picture is obtained by combining local decoding regions obtained by the respective encoders.

また予測符号化部27は、着目するCUがイントラ予測符号化される場合、そのCUに含まれる各PUについて、そのPUに隣接するブロックから予測ブロックを生成する。その際、予測符号化部27は、例えば、HEVCに規定されている各種の予測モードのうち、符号化モード決定部26により決定された予測モードに従って予測ブロックを生成する。   Moreover, the prediction encoding part 27 produces | generates a prediction block from the block adjacent to the PU about each PU contained in the CU, when the attention CU is intra prediction encoded. At that time, the prediction encoding unit 27 generates a prediction block according to the prediction mode determined by the encoding mode determination unit 26 among various prediction modes defined in HEVC, for example.

予測符号化部27は、符号化対象PUと、予測ブロックとの差分演算を実行する。そして予測符号化部27は、その差分演算により得られたPU内の各画素に対応する差分値を、予測誤差信号とする。   The prediction encoding unit 27 performs a difference operation between the encoding target PU and the prediction block. Then, the predictive encoding unit 27 uses the difference value corresponding to each pixel in the PU obtained by the difference calculation as a prediction error signal.

予測符号化部27は、符号化対象CTUの予測誤差信号をTU単位で直交変換することにより、予測誤差信号の水平方向の周波数成分及び垂直方向の周波数成分を表す周波数信号をTUごとに求める。例えば、予測符号化部27は、直交変換処理として、離散コサイン変換(Discrete Cosine Transform、DCT)を予測誤差信号に対して実行することにより、周波数信号として、TUごとのDCT係数の組を得る。   The prediction encoding unit 27 obtains a frequency signal representing a horizontal frequency component and a vertical frequency component of the prediction error signal for each TU by orthogonally transforming the prediction error signal of the encoding target CTU in units of TUs. For example, the predictive coding unit 27 obtains a set of DCT coefficients for each TU as a frequency signal by performing a discrete cosine transform (DCT) on the prediction error signal as an orthogonal transform process.

次に、予測符号化部27は、周波数信号を量子化することにより、その周波数信号の量子化係数を算出する。この量子化処理は、一定区間に含まれる信号値を一つの信号値で表す処理である。そしてその一定区間は、量子化幅と呼ばれる。例えば、予測符号化部27は、周波数信号から、量子化幅に相当する所定数の下位ビットを切り捨てることにより、その周波数信号を量子化する。量子化幅は、量子化パラメータによって決定される。例えば、予測符号化部27は、量子化パラメータの値に対する量子化幅の値を表す関数にしたがって、使用される量子化幅を決定する。またその関数は、量子化パラメータの値に対する単調増加関数とすることができ、予め設定される。   Next, the predictive coding unit 27 quantizes the frequency signal to calculate a quantization coefficient of the frequency signal. This quantization process is a process that represents a signal value included in a certain section as one signal value. The fixed interval is called a quantization width. For example, the prediction encoding unit 27 quantizes the frequency signal by truncating a predetermined number of lower bits corresponding to the quantization width from the frequency signal. The quantization width is determined by the quantization parameter. For example, the predictive coding unit 27 determines a quantization width to be used according to a function representing a quantization width value with respect to a quantization parameter value. The function can be a monotonically increasing function with respect to the value of the quantization parameter, and is set in advance.

あるいは、水平方向及び垂直方向の周波数成分のそれぞれに対応する量子化幅を規定する量子化マトリクスが、予め複数準備され、予測符号化部27が有するメモリに記憶される。そして予測符号化部27は、量子化パラメータにしたがって、それら量子化マトリクスのうちの特定の量子化マトリクスを選択する。そして予測符号化部27は、選択された量子化マトリクスを参照して、周波数信号の各周波数成分に対する量子化幅を決定してもよい。   Alternatively, a plurality of quantization matrices that define quantization widths corresponding to the frequency components in the horizontal direction and the vertical direction are prepared in advance and stored in a memory included in the prediction encoding unit 27. Then, the predictive coding unit 27 selects a specific quantization matrix among the quantization matrices according to the quantization parameter. Then, the predictive encoding unit 27 may determine the quantization width for each frequency component of the frequency signal with reference to the selected quantization matrix.

また予測符号化部27は、HEVCなどの動画像符号化規格に対応した様々な量子化パラメータ決定方法の何れかに従って量子化パラメータを決定すればよい。予測符号化部27は、例えば、MPEG-2の標準テストモデル5に関する量子化パラメータの算出方法を用いることができる。なお、MPEG-2の標準テストモデル5に関する量子化パラメータの算出方法に関しては、例えば、http://www.mpeg.org/MPEG/MSSG/tm5/Ch10/Ch10.htmlで特定されるURLを参照されたい。
予測符号化部27は、量子化処理を実行することにより、周波数信号の各周波数成分を表すために使用されるビットの数を削減できるので、符号化対象TUに含まれる情報量を低減できる。予測符号化部27は、量子化係数を符号化データとしてエントロピー符号化部28へ出力する。
The predictive encoding unit 27 may determine the quantization parameter according to any of various quantization parameter determination methods corresponding to a moving image encoding standard such as HEVC. The predictive encoding unit 27 can use, for example, a quantization parameter calculation method for the MPEG-2 standard test model 5. For the quantization parameter calculation method for the MPEG-2 standard test model 5, refer to the URL specified at http://www.mpeg.org/MPEG/MSSG/tm5/Ch10/Ch10.html, for example. I want to be.
Since the predictive encoding unit 27 can reduce the number of bits used to represent each frequency component of the frequency signal by executing the quantization process, the amount of information included in the encoding target TU can be reduced. The prediction encoding unit 27 outputs the quantized coefficient to the entropy encoding unit 28 as encoded data.

また予測符号化部27は、符号化対象CTUの量子化係数から局部復号ブロックを生成する。そのために、予測符号化部27は、量子化係数に、量子化パラメータにより決定された量子化幅に相当する所定数を乗算することにより、量子化係数を逆量子化する。この逆量子化により、符号化対象CTUの周波数信号、例えば、TUごとのDCT係数の組が復元される。その後、予測符号化部27は、周波数信号をTUごとに逆直交変換処理する。例えば、予測符号化部27がDCTを用いて周波数信号を算出している場合、予測符号化部27は、復元された周波数信号に対して逆DCT処理を実行する。逆量子化処理及び逆直交変換処理を量子化信号に対して実行することにより、符号化前の予測誤差信号と同程度の情報を有する予測誤差信号が再生される。   Further, the predictive encoding unit 27 generates a local decoding block from the quantization coefficient of the encoding target CTU. For this purpose, the predictive coding unit 27 inversely quantizes the quantization coefficient by multiplying the quantization coefficient by a predetermined number corresponding to the quantization width determined by the quantization parameter. By this inverse quantization, the frequency signal of the encoding target CTU, for example, a set of DCT coefficients for each TU is restored. Thereafter, the predictive encoding unit 27 performs inverse orthogonal transform processing on the frequency signal for each TU. For example, when the predictive encoding unit 27 calculates a frequency signal using DCT, the predictive encoding unit 27 performs inverse DCT processing on the restored frequency signal. By performing the inverse quantization process and the inverse orthogonal transform process on the quantized signal, a prediction error signal having the same level of information as the prediction error signal before encoding is reproduced.

予測符号化部27は、予測ブロックの各画素値に、その画素に対応する再生された予測誤差信号を加算する。これらの処理を各ブロックについて実行することにより、予測符号化部27は、局部復号ブロックを生成する。
予測符号化部27は、局部復号ブロックを生成する度に、その局部復号ブロックを、予測符号化部27が有するメモリ(図示せず)に記憶する。
The prediction encoding unit 27 adds the reproduced prediction error signal corresponding to the pixel to each pixel value of the prediction block. By executing these processes for each block, the prediction encoding unit 27 generates a local decoding block.
Each time the prediction encoding unit 27 generates a local decoding block, the prediction encoding unit 27 stores the local decoding block in a memory (not shown) included in the prediction encoding unit 27.

また、予測符号化部27は、局部復号ブロックに対して、ループ内フィルタ処理を実行してもよい。   Further, the predictive coding unit 27 may perform an in-loop filter process on the local decoding block.

予測符号化部27が有するメモリは、順次生成された局部復号ブロックを一時的に記憶する。各ブロックの符号化順序にしたがって、一つの符号化器により符号化される領域に含まれる全ての局部復号ブロックを結合することで、局部復号領域が得られる。予測符号化部27が有するメモリは、符号化対象ピクチャが参照する可能性がある、予め定められた所定枚数分の局部復号領域を記憶し、局部復号領域の枚数がその所定枚数を超えると、符号化順序が古い局部復号領域から順に破棄する。   The memory included in the predictive encoding unit 27 temporarily stores locally generated local decoding blocks. A local decoding region is obtained by combining all local decoding blocks included in a region encoded by one encoder according to the encoding order of each block. The memory included in the predictive encoding unit 27 stores a predetermined number of local decoding areas that may be referred to by the encoding target picture, and when the number of local decoding areas exceeds the predetermined number, The local decoding areas with the oldest coding order are discarded in order.

なお、符号化器11−1は、他の符号化器が求めた局部復号領域を、他の符号化器から取得して、予測符号化部27が有するメモリに記憶してもよい。これにより、符号化器11−1は、局部復号領域を結合して局部復号ピクチャを求めることができるので、動き探索の際の参照範囲を広くすることができる。   Note that the encoder 11-1 may acquire a local decoding region obtained by another encoder from another encoder and store it in a memory included in the predictive encoder 27. As a result, the encoder 11-1 can obtain the locally decoded picture by combining the local decoding regions, and thus can widen the reference range in the motion search.

さらに、予測符号化部27が有するメモリは、インター予測符号化されたPUを含む局部復号ブロックのそれぞれについて、そのPUの動きベクトルを記憶する。   Further, the memory included in the predictive encoding unit 27 stores the motion vector of each PU for each local decoding block including the inter prediction encoded PU.

エントロピー符号化部28は、予測符号化部27から出力された量子化信号及び動きベクトルの予測誤差信号及びシンタックスなどをエントロピー符号化することにより得られたビットストリームを出力する。そして制御部(図示せず)は、出力されたビットストリームを所定の順序で結合し、HEVCなどの符号化規格で規定されるヘッダ情報などを付加することで、符号化された動画像データが得られる。   The entropy encoding unit 28 outputs a bit stream obtained by entropy encoding the quantized signal output from the predictive encoding unit 27, the prediction error signal of the motion vector, syntax, and the like. Then, the control unit (not shown) combines the output bit streams in a predetermined order, and adds header information defined by an encoding standard such as HEVC, so that the encoded moving image data is can get.

図25は、動画像符号化装置1による動画像符号化処理の動作フローチャートである。動画像符号化装置1はピクチャごとに、下記の動作フローチャートに従ってピクチャを符号化する。   FIG. 25 is an operation flowchart of a moving image encoding process performed by the moving image encoding device 1. The moving image encoding apparatus 1 encodes a picture according to the following operation flowchart for each picture.

分割部10は、ピクチャを複数の領域に分割する(ステップS401)。各領域は、それぞれ、少なくとも一つのタイルを含み、隣接二つの領域間の境界は、タイル間の境界となる。各領域は、符号化器11−1〜11−nの何れかに入力される。各符号化器の動き探索部20は、適用可能なPUのそれぞれについて動きベクトルを算出する(ステップS402)。各符号化器のインター予測制限対象CTU決定部22は、領域間の境界位置に基づいて、インター予測符号化モードの適用を制限するCTUを特定する(ステップS403)。   The dividing unit 10 divides the picture into a plurality of areas (step S401). Each region includes at least one tile, and a boundary between two adjacent regions is a boundary between tiles. Each region is input to one of the encoders 11-1 to 11-n. The motion search unit 20 of each encoder calculates a motion vector for each applicable PU (step S402). The inter prediction restriction target CTU determination unit 22 of each encoder identifies a CTU that restricts the application of the inter prediction encoding mode based on the boundary position between the regions (step S403).

また、各符号化器のインター予測制限対象CU決定部23は、インター予測符号化モードの適用を制限するCTU内で、インター予測符号化モードの適用を制限するCUを特定する(ステップS404)。なお、インター予測符号化モードの適用が制限されないCTUでは、そのCTU内のCU及びPUについては、インター予測符号化モードの適用は制限されない。   In addition, the inter prediction restriction target CU determination unit 23 of each encoder identifies a CU that restricts application of the inter prediction coding mode within the CTU that restricts application of the inter prediction coding mode (step S404). Note that, in a CTU where application of the inter prediction coding mode is not restricted, application of the inter prediction coding mode is not restricted for CUs and PUs in the CTU.

そして、各符号化器のインター予測制限対象PU決定部24は、インター予測符号化モードの適用を制限するCU内で、インター予測符号化モードの適用を制限するPUを特定する(ステップS405)。なお、インター予測符号化モードの適用が制限されないCUでは、そのCU内のPUについては、インター予測符号化モードの適用は制限されない。   Then, the inter prediction restriction target PU determination unit 24 of each encoder identifies a PU that restricts the application of the inter prediction coding mode within the CU that restricts the application of the inter prediction coding mode (step S405). Note that in a CU in which application of the inter prediction coding mode is not restricted, application of the inter prediction coding mode is not restricted for PUs in the CU.

各符号化器の予測ベクトル候補リスト生成部25は、インター予測符号化モードの適用を制限するPUか否かに応じて、予測ベクトルの候補のリストを生成する(ステップS406)。   The prediction vector candidate list generation unit 25 of each encoder generates a list of prediction vector candidates according to whether or not the PU restricts application of the inter prediction encoding mode (step S406).

各符号化器の符号化モード決定部26は、CTUごとに、符号化コストが最小となるCU及びPUの組み合わせ、及び適用される符号化モードを決定する(ステップS407)。   The encoding mode determination unit 26 of each encoder determines, for each CTU, the combination of CU and PU that minimizes the encoding cost and the encoding mode to be applied (step S407).

各符号化器の予測符号化部27は、各CTUを、決定された符号化モードに従って予測符号化する(ステップS408)。そして各符号化器のエントロピー符号化部28は、予測符号化により得られた符号化データをエントロピー符号化する(ステップS409)。各符号化器から出力された、エントロピー符号化された符号化データは、多重化部12に入力される。   The predictive encoding unit 27 of each encoder predictively encodes each CTU according to the determined encoding mode (step S408). Then, the entropy encoding unit 28 of each encoder performs entropy encoding on the encoded data obtained by the predictive encoding (step S409). Entropy-encoded encoded data output from each encoder is input to the multiplexing unit 12.

多重化部12は、符号化器11−1〜11−nから受け取った、各領域の符号化データを、所定の順序、例えば、ラスタスキャン順に並べ、HEVCに準拠した所定のヘッダ情報を付加することで、一つのピクチャの符号化データを生成する(ステップS410)。そして多重化部12は、ピクチャの順序に従って、各ピクチャの符号化データを出力する。
ステップS410の後、動画像符号化装置1は、動画像符号化処理を終了する。
The multiplexing unit 12 arranges the encoded data of each region received from the encoders 11-1 to 11-n in a predetermined order, for example, raster scan order, and adds predetermined header information based on HEVC. Thus, encoded data of one picture is generated (step S410). Then, the multiplexing unit 12 outputs the encoded data of each picture according to the order of the pictures.
After step S410, the moving image encoding apparatus 1 ends the moving image encoding process.

以上に説明してきたように、この動画像符号化装置は、ピクチャを、タイル間の境界が領域間の境界となるように複数の領域に分割し、領域ごとに異なる符号化器を用いて符号化する。そしてこの動画像符号化装置が有する各符号化器は、自身が符号化処理する領域に含まれるPUのうち、予測ベクトルの候補として、他の符号化器により符号化される領域内のブロックの動きベクトルを選択する可能性があるインター予測制限対象PUを特定する。この動画像符号化装置は、インター予測制限対象PUについて、時間予測ベクトルが存在すると仮定して作成した予測ベクトルの候補リストと時間予測ベクトルが存在しないと仮定して作成した予測ベクトルの候補リスト間で共通する予測ベクトルの候補を特定する。そしてこの動画像符号化装置は、特定した候補の中から予測ベクトルを決定する。そのため、この動画像符号化装置は、符号化器間で動きベクトルに関する情報を共有しなくても、使用可能な予測ベクトルの候補の数が不足することを抑制して、符号化効率の低下を抑制できる。   As described above, this moving image encoding apparatus divides a picture into a plurality of regions such that the boundary between tiles is a boundary between regions, and encodes using a different encoder for each region. Turn into. Each encoder included in the moving image encoding apparatus, among PUs included in an area to be encoded by itself, is used as a prediction vector candidate of a block in an area encoded by another encoder. Inter prediction restriction target PUs that may select a motion vector are identified. This moving image encoding apparatus, for inter prediction restriction PU, between a prediction vector candidate list created assuming that a temporal prediction vector exists and a prediction vector candidate list created assuming that no temporal prediction vector exists The candidate of the prediction vector common in is identified. The moving picture encoding apparatus determines a prediction vector from the identified candidates. For this reason, this video encoding device suppresses a shortage of usable prediction vector candidates without sharing information on motion vectors between encoders, thereby reducing the encoding efficiency. Can be suppressed.

図26は、上記の実施形態またはその変形例による動画像符号化装置の各部の機能を実現するコンピュータプログラムが動作することにより、動画像符号化装置として動作するコンピュータの構成図である。   FIG. 26 is a configuration diagram of a computer that operates as a moving image encoding apparatus when a computer program that realizes the functions of the respective units of the moving image encoding apparatus according to the above-described embodiment or its modification is operated.

コンピュータ100は、ユーザインターフェース部101と、通信インターフェース部102と、記憶部103と、記憶媒体アクセス装置104と、プロセッサ105とを有する。プロセッサ105は、ユーザインターフェース部101、通信インターフェース部102、記憶部103及び記憶媒体アクセス装置104と、例えば、バスを介して接続される。   The computer 100 includes a user interface unit 101, a communication interface unit 102, a storage unit 103, a storage medium access device 104, and a processor 105. The processor 105 is connected to the user interface unit 101, the communication interface unit 102, the storage unit 103, and the storage medium access device 104 via, for example, a bus.

ユーザインターフェース部101は、例えば、キーボードとマウスなどの入力装置と、液晶ディスプレイといった表示装置とを有する。または、ユーザインターフェース部101は、タッチパネルディスプレイといった、入力装置と表示装置とが一体化された装置を有してもよい。そしてユーザインターフェース部101は、例えば、ユーザの操作に応じて、符号化する動画像データあるいは復号する符号化動画像データを選択する操作信号をプロセッサ105へ出力する。またユーザインターフェース部101は、プロセッサ105から受け取った、復号された動画像データを表示してもよい。   The user interface unit 101 includes, for example, an input device such as a keyboard and a mouse, and a display device such as a liquid crystal display. Alternatively, the user interface unit 101 may include a device such as a touch panel display in which an input device and a display device are integrated. Then, the user interface unit 101 outputs, to the processor 105, an operation signal for selecting moving image data to be encoded or encoded moving image data to be decoded in accordance with a user operation, for example. The user interface unit 101 may display the decoded moving image data received from the processor 105.

通信インターフェース部102は、コンピュータ100を、動画像データを生成する装置、例えば、ビデオカメラと接続するための通信インターフェース及びその制御回路を有してもよい。そのような通信インターフェースは、例えば、Universal Serial Bus(ユニバーサル・シリアル・バス、USB)とすることができる。   The communication interface unit 102 may include a communication interface for connecting the computer 100 to a device that generates moving image data, for example, a video camera, and a control circuit thereof. Such a communication interface can be, for example, Universal Serial Bus (Universal Serial Bus, USB).

さらに、通信インターフェース部102は、イーサネット(登録商標)などの通信規格に従った通信ネットワークに接続するための通信インターフェース及びその制御回路を有してもよい。   Furthermore, the communication interface unit 102 may include a communication interface for connecting to a communication network according to a communication standard such as Ethernet (registered trademark) and a control circuit thereof.

この場合には、通信インターフェース部102は、通信ネットワークに接続された他の機器から、符号化する動画像データを取得し、そのデータをプロセッサ105へ渡す。また通信インターフェース部102は、プロセッサ105から受け取った、符号化動画像データを通信ネットワークを介して他の機器へ出力してもよい。   In this case, the communication interface unit 102 acquires moving image data to be encoded from another device connected to the communication network, and passes the data to the processor 105. Further, the communication interface unit 102 may output the encoded moving image data received from the processor 105 to another device via a communication network.

記憶部103は、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。そして記憶部103は、プロセッサ105上で実行される、動画像符号化処理を実行するためのコンピュータプログラム、及びこれらの処理の途中または結果として生成されるデータを記憶する。   The storage unit 103 includes, for example, a readable / writable semiconductor memory and a read-only semiconductor memory. The storage unit 103 stores a computer program for executing a moving image encoding process executed on the processor 105, and data generated during or as a result of these processes.

記憶媒体アクセス装置104は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体106にアクセスする装置である。記憶媒体アクセス装置104は、例えば、記憶媒体106に記憶されたプロセッサ105上で実行される、動画像符号化処理用のコンピュータプログラムを読み込み、プロセッサ105に渡す。   The storage medium access device 104 is a device that accesses a storage medium 106 such as a magnetic disk, a semiconductor memory card, and an optical storage medium. For example, the storage medium access device 104 reads a computer program for moving image encoding processing executed on the processor 105 stored in the storage medium 106 and passes the computer program to the processor 105.

プロセッサ105は、例えば、複数の演算回路を有し、上記の実施形態または変形例による動画像符号化処理用コンピュータプログラムを実行することにより、各演算回路がそれぞれ符号化器の機能を実現する。そしてプロセッサ105は、符号化動画像データを生成する。プロセッサ105は、生成された符号化動画像データを記憶部103に保存し、または通信インターフェース部102を介して他の機器へ出力する。   The processor 105 includes, for example, a plurality of arithmetic circuits, and each arithmetic circuit realizes the function of an encoder by executing the moving image encoding processing computer program according to the above-described embodiment or modification. Then, the processor 105 generates encoded moving image data. The processor 105 stores the generated encoded moving image data in the storage unit 103 or outputs it to other devices via the communication interface unit 102.

なお、動画像符号化装置1の各部の機能をプロセッサ上で実行可能なコンピュータプログラムは、コンピュータによって読み取り可能な媒体に記録された形で提供されてもよい。ただし、そのような記録媒体には、搬送波は含まれない。   Note that the computer program capable of executing the functions of the respective units of the moving image encoding device 1 on the processor may be provided in a form recorded on a computer-readable medium. However, such a recording medium does not include a carrier wave.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

1 動画像符号化装置
10 分割部
11−1〜11−n 符号化器
12 多重化部
13 共有メモリ
21 制限ブロック特定部
22 インター予測制限対象CTU決定部
23 インター予測制限対象CU決定部
24 インター予測制限対象PU決定部
25 予測ベクトル候補リスト生成部
26 符号化モード決定部
27 予測符号化部
28 エントロピー符号化部
30 判定部
31 非制限リスト生成部
32 第1仮リスト生成部
33 第2仮リスト生成部
34 共通候補特定部
100 コンピュータ
101 ユーザインターフェース部
102 通信インターフェース部
103 記憶部
104 記憶媒体アクセス装置
105 プロセッサ
106 記憶媒体
DESCRIPTION OF SYMBOLS 1 Moving image encoder 10 Dividing part 11-1 to 11-n Encoder 12 Multiplexing part 13 Shared memory 21 Restriction block specific | specification part 22 Inter prediction restriction | limiting target CTU determination part 23 Inter prediction restriction | limiting target CU determination part 24 Inter prediction Restriction PU determination unit 25 Prediction vector candidate list generation unit 26 Coding mode determination unit 27 Prediction encoding unit 28 Entropy encoding unit 30 Determination unit 31 Unrestricted list generation unit 32 First temporary list generation unit 33 Second temporary list generation Unit 34 common candidate specifying unit 100 computer 101 user interface unit 102 communication interface unit 103 storage unit 104 storage medium access device 105 processor 106 storage medium

Claims (4)

動画像に含まれるピクチャを符号化する動画像符号化装置であって、
前記ピクチャを複数の領域に分割する分割部と、
前記複数の領域のうちの互いに異なる領域を符号化して符号化データを生成する複数の符号化器と、
前記複数の符号化器のそれぞれから出力された前記符号化データを所定の順序で並べて前記ピクチャの符号化データを生成する多重化部と、を有し、
前記複数の符号化器のうちの第1の符号化器は、
前記複数の領域のうちの当該第1の符号化器が符号化する第1の領域を分割した複数のブロックのうち、動きベクトルに対する予測ベクトルの生成方式を規定する所定のベクトルモードにおいて、符号化済みの他のピクチャを分割した複数の領域のうちの、前記複数の符号化器のうちの第2の符号化器により符号化された第2の領域に含まれる被参照ブロックを参照する制限対象ブロックを特定する制限ブロック特定部と、
前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていると仮定し、かつ、前記被参照ブロックの動きベクトルの代わりにダミーのベクトルを用いて、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第1の仮リストを生成する第1の仮リスト生成部と、
前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていないと仮定して、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第2の仮リストを生成する第2の仮リスト生成部と、
前記第1の仮リストと前記第2の仮リスト間で同じ位置にある前記予測ベクトルの候補同士が同一となる場合に当該予測ベクトルの候補を使用可能な予測ベクトルの候補とする共通候補特定部と、
前記制限対象ブロックをインター予測符号化モードで符号化する場合に、前記使用可能な予測ベクトルの候補の何れかを前記予測ベクトルとして用いることにより、前記第1の領域の予測符号化データを生成する予測符号化部と、
前記予測符号化データをエントロピー符号化することで前記符号化データを生成するエントロピー符号化部と、
を有する動画像符号化装置。
A video encoding device that encodes a picture included in a video,
A dividing unit for dividing the picture into a plurality of regions;
A plurality of encoders that encode different regions of the plurality of regions to generate encoded data;
A multiplexing unit that generates encoded data of the picture by arranging the encoded data output from each of the plurality of encoders in a predetermined order;
A first encoder of the plurality of encoders is
Encoding in a predetermined vector mode that defines a prediction vector generation method for a motion vector among a plurality of blocks obtained by dividing the first region encoded by the first encoder of the plurality of regions. Of a plurality of regions obtained by dividing another completed picture, a restriction target that refers to a referenced block included in a second region encoded by a second encoder of the plurality of encoders A restriction block identification unit for identifying a block;
As for the restriction target block, it is assumed that a motion vector is defined in the referenced block, and a plurality of predictions are performed according to the predetermined vector mode using a dummy vector instead of the motion vector of the referenced block. A first temporary list generation unit for generating a first temporary list including vector candidates;
As for the restriction target block, a second temporary list that generates a second temporary list including a plurality of prediction vector candidates according to the predetermined vector mode on the assumption that no motion vector is defined in the referenced block. A generator,
A common candidate specifying unit that makes a prediction vector candidate usable as a prediction vector candidate when the prediction vector candidates at the same position are the same between the first temporary list and the second temporary list When,
When the restriction target block is encoded in the inter prediction encoding mode, the prediction encoded data of the first region is generated by using any of the usable prediction vector candidates as the prediction vector. A predictive coding unit;
An entropy encoding unit that generates the encoded data by entropy encoding the predictive encoded data;
A moving picture encoding apparatus having:
前記共通候補特定部は、前記他のピクチャ上で前記制限対象ブロックと重なる所定位置を含むブロックに動きベクトルが定義されている場合、前記第1の仮リストに登録されている前記予測ベクトルの候補のうち、前記ダミーのベクトルに由来しない候補を、前記使用可能な予測ベクトルの候補とする、請求項1に記載の動画像符号化装置。   The common candidate specifying unit, when a motion vector is defined in a block including a predetermined position overlapping the restriction target block on the other picture, the prediction vector candidate registered in the first temporary list The video encoding apparatus according to claim 1, wherein a candidate not derived from the dummy vector is used as a candidate for the usable prediction vector. 動画像に含まれるピクチャを複数の領域に分割し、
前記複数の領域のうちの互いに異なる領域を、それぞれ、複数の符号化器のうちの異なる符号化器により符号化して符号化データを生成し、
前記複数の領域のそれぞれの前記符号化データを所定の順序で並べて前記ピクチャの符号化データを生成する、ことを含み、
前記符号化データを生成することは、
前記複数の符号化器のうちの第1の符号化器により、前記複数の領域のうちの第1の領域を分割した複数のブロックのうち、動きベクトルに対する予測ベクトルの生成方式を規定する所定のベクトルモードにおいて、符号化済みの他のピクチャを分割した複数の領域のうちの、前記複数の符号化器のうちの第2の符号化器により符号化された第2の領域に含まれる被参照ブロックを参照する制限対象ブロックを特定し、
前記第1の符号化器により、前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていると仮定し、かつ、前記被参照ブロックの動きベクトルの代わりにダミーのベクトルを用いて、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第1の仮リストを生成し、
前記第1の符号化器により、前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていないと仮定して、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第2の仮リストを生成し、
前記第1の符号化器により、前記第1の仮リストと前記第2の仮リスト間で同じ位置にある前記予測ベクトルの候補同士が同一となる場合に当該予測ベクトルの候補を使用可能な予測ベクトルの候補とし、
前記第1の符号化器により、前記制限対象ブロックをインター予測符号化モードで符号化する場合に、前記使用可能な予測ベクトルの候補の何れかを前記予測ベクトルとして用いることにより、前記第1の領域の予測符号化データを生成し、
前記第1の符号化器により、前記予測符号化データをエントロピー符号化することで前記符号化データを生成する、
ことを含む動画像符号化方法。
Divide a picture contained in a moving image into multiple areas,
The different regions of the plurality of regions are respectively encoded by different encoders of the plurality of encoders to generate encoded data,
Arranging the encoded data of each of the plurality of regions in a predetermined order to generate encoded data of the picture,
Generating the encoded data includes:
A predetermined encoder that defines a prediction vector generation method for a motion vector among a plurality of blocks obtained by dividing a first region of the plurality of regions by a first encoder of the plurality of encoders; In the vector mode, of the plurality of regions obtained by dividing another encoded picture, the referenced reference included in the second region encoded by the second encoder of the plurality of encoders Identify restricted blocks that reference the block,
Assuming that a motion vector is defined in the referenced block for the restriction target block by the first encoder, and using a dummy vector instead of the motion vector of the referenced block, Generating a first temporary list including a plurality of prediction vector candidates according to the predetermined vector mode;
Assuming that a motion vector is not defined in the referenced block for the restriction target block by the first encoder, a second temporary vector including a plurality of prediction vector candidates according to the predetermined vector mode. Generate a list
Prediction that can be used by the first encoder when the prediction vector candidates at the same position are the same between the first temporary list and the second temporary list. A vector candidate
When the first encoder encodes the restriction target block in the inter prediction encoding mode, any one of the usable prediction vector candidates is used as the prediction vector. Generate predictive encoded data for the region,
The encoded data is generated by entropy encoding the predictive encoded data by the first encoder.
A moving picture encoding method including the above.
動画像に含まれるピクチャを複数の領域に分割し、
前記複数の領域のうちの互いに異なる領域を、それぞれ、個別に符号化して符号化データを生成し、
前記複数の領域のそれぞれの前記符号化データを所定の順序で並べて前記ピクチャの符号化データを生成することをコンピュータに実行させるための動画像符号化用コンピュータプログラムであって、
前記符号化データを生成することは、
前記複数の領域のうちの第1の領域を分割した複数のブロックのうち、動きベクトルに対する予測ベクトルの生成方式を規定する所定のベクトルモードにおいて、符号化済みの他のピクチャを分割した複数の領域のうちの前記第1の領域と異なる第2の領域に含まれる被参照ブロックを参照する制限対象ブロックを特定し、
前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていると仮定し、かつ、前記被参照ブロックの動きベクトルの代わりにダミーのベクトルを用いて、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第1の仮リストを生成し、
前記制限対象ブロックについて、前記被参照ブロックに動きベクトルが定義されていないと仮定して、前記所定のベクトルモードに従って複数の予測ベクトルの候補を含む第2の仮リストを生成し、
前記第1の仮リストと前記第2の仮リスト間で同じ位置にある前記予測ベクトルの候補同士が同一となる場合に当該予測ベクトルの候補を使用可能な予測ベクトルの候補とし、
前記制限対象ブロックをインター予測符号化モードで符号化する場合に、前記使用可能な予測ベクトルの候補の何れかを前記予測ベクトルとして用いることにより、前記第1の領域の予測符号化データを生成し、
前記予測符号化データをエントロピー符号化することで前記符号化データを生成する、
ことを含む動画像符号化用コンピュータプログラム。
Divide a picture contained in a moving image into multiple areas,
Each of the different regions of the plurality of regions is individually encoded to generate encoded data,
A moving picture encoding computer program for causing a computer to generate the encoded data of the picture by arranging the encoded data of each of the plurality of regions in a predetermined order,
Generating the encoded data includes:
Among a plurality of blocks obtained by dividing the first region of the plurality of regions, a plurality of regions obtained by dividing another encoded picture in a predetermined vector mode that defines a prediction vector generation method for a motion vector Identifying a restriction target block that refers to a referenced block included in a second area different from the first area,
As for the restriction target block, it is assumed that a motion vector is defined in the referenced block, and a plurality of predictions are performed according to the predetermined vector mode using a dummy vector instead of the motion vector of the referenced block. Generate a first temporary list containing candidate vectors,
For the restriction target block, assuming that no motion vector is defined in the referenced block, generate a second temporary list including a plurality of prediction vector candidates according to the predetermined vector mode,
When the prediction vector candidates at the same position between the first temporary list and the second temporary list are the same, the prediction vector candidates are used as possible prediction vector candidates,
When encoding the restriction target block in the inter prediction encoding mode, by using any of the usable prediction vector candidates as the prediction vector, the prediction encoded data of the first region is generated. ,
Generating the encoded data by entropy encoding the predictive encoded data;
A computer program for encoding a moving image.
JP2015195858A 2015-10-01 2015-10-01 Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program Pending JP2017069862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195858A JP2017069862A (en) 2015-10-01 2015-10-01 Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195858A JP2017069862A (en) 2015-10-01 2015-10-01 Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program

Publications (1)

Publication Number Publication Date
JP2017069862A true JP2017069862A (en) 2017-04-06

Family

ID=58495322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195858A Pending JP2017069862A (en) 2015-10-01 2015-10-01 Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program

Country Status (1)

Country Link
JP (1) JP2017069862A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110072111A (en) * 2018-01-23 2019-07-30 富士通株式会社 Device and method for encoding video pictures and video image decoding
CN112470477A (en) * 2018-12-28 2021-03-09 Jvc建伍株式会社 Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110072111A (en) * 2018-01-23 2019-07-30 富士通株式会社 Device and method for encoding video pictures and video image decoding
CN112470477A (en) * 2018-12-28 2021-03-09 Jvc建伍株式会社 Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program

Similar Documents

Publication Publication Date Title
JP2015173404A (en) Video image encoding device, video image encoding method, and video image encoding computer program
JP2015106747A (en) Dynamic image encoding device, dynamic image encoding method and dynamic image encoding computer program
JP6268989B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding computer program
KR101961889B1 (en) Method for storing motion information and method for inducing temporal motion vector predictor using same
JP5992070B2 (en) Image decoding apparatus, image decoding method, image encoding apparatus, image encoding method, and data structure of encoded data
JP7395518B2 (en) Inter prediction method and device based on merge mode
US9900594B2 (en) Image encoding and decoding method with predicted and representative motion information
KR20180028513A (en) Method and apparatus for inter prediction in a video coding system
WO2013065402A1 (en) Moving picture encoding device, moving picture decoding device, moving picture encoding method, and moving picture decoding method
CN113382234B (en) Video signal encoding/decoding method and apparatus for the same
WO2012124121A1 (en) Moving image decoding method, moving image coding method, moving image decoding device and moving image decoding program
US11259043B2 (en) Image signal encoding/decoding method, and apparatus therefor based on deriving merge candidates
CN112514380A (en) Method for encoding/decoding video signal and apparatus therefor
JP2019129371A (en) Moving picture image encoder, moving picture image encoding method, moving picture image decoding device, moving picture image decoding method, and computer program for encoding moving picture image and computer program for decoding moving picture image
JP2017069866A (en) Moving image encoder, moving image encoding method and computer program for encoding moving image
JP7156471B2 (en) Moving image decoding device, moving image decoding method, and computer program for moving image decoding
JP6503014B2 (en) Moving picture coding method and moving picture decoding method
JP2017069862A (en) Dynamic image encoding device, dynamic image encoding method, and dynamic image encoding computer program
RU2790325C2 (en) Method and device for inter-frame prediction based on the fusion mode
JP2015226263A (en) Dynamic image coding apparatus, dynamic image coding method and computer program for dynamic image coding
JP6510084B2 (en) Moving picture decoding method and electronic apparatus
JP2016106494A (en) Moving image encoding method and moving image decoding method
JP5893178B2 (en) Video encoding method and video decoding method
JP5680778B2 (en) Video encoding method and video decoding method
CN116684578A (en) Affine model optimization based on control point motion vectors