JP2015015575A - Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program - Google Patents

Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program Download PDF

Info

Publication number
JP2015015575A
JP2015015575A JP2013140613A JP2013140613A JP2015015575A JP 2015015575 A JP2015015575 A JP 2015015575A JP 2013140613 A JP2013140613 A JP 2013140613A JP 2013140613 A JP2013140613 A JP 2013140613A JP 2015015575 A JP2015015575 A JP 2015015575A
Authority
JP
Japan
Prior art keywords
vector
unit
disparity vector
image
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013140613A
Other languages
Japanese (ja)
Inventor
貴也 山本
Takaya Yamamoto
貴也 山本
知宏 猪飼
Tomohiro Igai
知宏 猪飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013140613A priority Critical patent/JP2015015575A/en
Publication of JP2015015575A publication Critical patent/JP2015015575A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a prediction vector generation device that has a merge candidate deriving method which is compatible with a parallel decoding process and uses a preliminary parallax vector.SOLUTION: There is provided a device which decodes an image in encoding tree block units of predetermined size, and a parallax vector derivation part includes means of setting an adjacent vector of a block adjoining an object block as a parallax vector of the object block when the adjacent vector is usable, and setting a preliminary parallax vector as the parallax vector when the adjacent vector is not usable, and means of setting the adjacent vector as the preliminary parallax vector when the adjacent vector is not usable. The parallax vector derivation part has a preliminary parallax vector setting part which initializes the preliminary parallax vector at the point of time off a start of decoding of a first luminance encoding tree block of an encoding tree unit line when an entropy encoding synchronism flag is "1", and sets the parallax vector as the preliminary parallax vector when the adjacent block is usable.

Description

本発明は、画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、画像復号プログラムおよび画像符号化プログラムに関する。   The present invention relates to an image decoding device, an image encoding device, an image decoding method, an image encoding method, an image decoding program, and an image encoding program.

複数の視点画像の符号化における動き補償において、隣接ブロックの視差ベクトルを用いるなどして、対象のブロックと他の視点画像における対応ブロックとの変位を視差ベクトルとして導出し、導出した視差ベクトルを用いて、対象のブロックに対応する、他の視点画像における対応ブロックを取得し、該取得した対応ブロックの動きベクトルを、対象のブロックの予測ベクトルとする符号化方法がある。非特許文献1では、上述のようにして予測ベクトルを生成したブロックをDV−MCP(Motion Compensated Prediction)ブロック(変位動き補償ブロックともいう)と呼び、DV−MCPブロックについては、予測ベクトルの生成に用いた視差ベクトルなどのパラメータをDV−MCPブロックに紐付けて記憶しておき、該ブロックに隣接するブロックの予測ベクトルを生成する際に利用する技術が記載されている。ここでは、記憶された予測ベクトルの生成に用いた視差ベクトルのことを予備視差ベクトルと呼ぶ。
それに対し、非特許文献2では、予備視差ベクトルをスライス内で1つだけ記憶する技術が記載されている。これにより、予備視差ベクトルを記憶するメモリが削減される。
In motion compensation in encoding of multiple viewpoint images, the displacement between the target block and the corresponding block in another viewpoint image is derived as a disparity vector by using the disparity vector of an adjacent block, and the derived disparity vector is used. Thus, there is an encoding method for acquiring a corresponding block in another viewpoint image corresponding to the target block, and using a motion vector of the acquired corresponding block as a prediction vector of the target block. In Non-Patent Document 1, a block in which a prediction vector is generated as described above is called a DV-MCP (Motion Compensated Prediction) block (also referred to as a displacement motion compensation block), and a DV-MCP block is used to generate a prediction vector. A technique is described in which parameters such as a used disparity vector are stored in association with a DV-MCP block and used to generate a prediction vector of a block adjacent to the block. Here, the disparity vector used to generate the stored prediction vector is referred to as a preliminary disparity vector.
On the other hand, Non-Patent Document 2 describes a technique for storing only one preliminary parallax vector in a slice. This reduces the memory for storing the preliminary parallax vector.

H.265規格(特許文献3)に、WPP(Wavefront parallel processing)という技術が記載されている。WPPとは、各符号化ツリーユニット行を並列符号化・復号するための仕組みである。WPPでは、各符号化ツリーユニット行の符号化・復号処理を、それぞれ2符号化ツリーユニット分の時間だけシフトさせて実行することで、各符号化ツリーユニット行の先頭にて、上符号化ツリーユニット行の右から2番目の符号化ツリーユニット処理後のコンテキストをコピーすることで、符号化効率の低下を抑制している。   H. The technology called WPP (Wavefront parallel processing) is described in the H.265 standard (Patent Document 3). WPP is a mechanism for parallel encoding / decoding each coding tree unit row. In WPP, the encoding / decoding process of each encoding tree unit row is executed by shifting the time by two encoding tree units, so that the upper encoding tree is located at the head of each encoding tree unit row. By copying the context after the processing of the second coding tree unit from the right of the unit row, a decrease in coding efficiency is suppressed.

また、H.265規格(特許文献3)には、並列マージという技術も記載されている。並列マージとは、並列マージフラグによって定まる範囲内のブロックのマージによる復号処理を並列に実行できるようにするための仕組みである。並列マージでは、並列マージフラグによって定まる範囲内の隣接ブロックをマージ候補導出(空間マージ候補導出)の場合に利用しないようにすることで、各ブロックのマージ候補の導出処理を独立させている。   H. The technology called parallel merging is also described in the H.265 standard (Patent Document 3). Parallel merging is a mechanism for enabling decoding processing by merging blocks within a range determined by a parallel merge flag to be executed in parallel. In parallel merging, adjacent block within the range determined by the parallel merge flag is not used for merge candidate derivation (spatial merge candidate derivation), so that the merge candidate derivation process of each block is made independent.

“3D-HEVC Test Model 4”, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, JCT3V-D1005“3D-HEVC Test Model 4”, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11, JCT3V-D1005 Qualcomm Incorporated ,“CE2.h related: Derived disparity vector for 3D-HEVC” Joint Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCT3V-D0194Qualcomm Incorporated, “CE2.h related: Derived disparity vector for 3D-HEVC” Joint Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO / IEC JTC 1 / SC 29 / WG 11, JCT3V-D0194 ITU-T , ”H.265 : High efficiency video coding”, 04/2013ITU-T, “H.265: High efficiency video coding”, 04/2013

しかしながら、非特許文献2に記載の技術を用いると、上述の非特許文献3に記載のWPPを用いて、複数の符号化ツリーユニット行を並列で処理することができないという課題があった。具体的には、ある符号化ツリーユニット行に属する符号化ツリーユニットの予備視差ベクトルを得るためには、該対象符号化の属するスライスについて、該対象ツリーユニット以前の全ての符号化ツリーユニットを順に復号して、予備視差ベクトルを導出しておく必要がある。すなわち、ある符号化ツリーユニット行を復号する前に、それ以前の全ての符号化ツリーユニット行を復号する必要があり、並列処理ができない。   However, when the technique described in Non-Patent Document 2 is used, there is a problem that a plurality of encoded tree unit rows cannot be processed in parallel using the WPP described in Non-Patent Document 3 described above. Specifically, in order to obtain a preliminary disparity vector of a coding tree unit belonging to a certain coding tree unit row, all the coding tree units before the target tree unit are sequentially assigned to the slice to which the target coding belongs. It is necessary to decode and derive a preliminary disparity vector. That is, before decoding a certain coding tree unit row, all previous coding tree unit rows need to be decoded, and parallel processing cannot be performed.

また、非特許文献2に記載の技術を用いると、上述の非特許文献3に記載の並列マージを用いて、並列マージユニット内のマージ候補を並列に導出することができないという課題があった。具体的には、並列マージユニット内のブロックにおいて、視差ベクトルが導出される(視差ベクトルが用いられるか)否かによって、予備視差ベクトルが更新されるため、並列マージフラグによって定まる範囲内のブロックの間に依存関係が生じてしまい、マージ候補導出処理を並列に実行出来ないという問題が生じる。   Further, when the technique described in Non-Patent Document 2 is used, there is a problem that the merge candidates in the parallel merge unit cannot be derived in parallel using the parallel merge described in Non-Patent Document 3 described above. Specifically, since the preliminary disparity vector is updated depending on whether or not the disparity vector is derived (whether the disparity vector is used) in the blocks in the parallel merge unit, the blocks in the range determined by the parallel merge flag are updated. There arises a problem that a dependency relationship is generated between them, and merge candidate derivation processing cannot be executed in parallel.

本発明は、このような課題に鑑みてなされたもので、その目的は、符号化・復号処理の並列化と、予備視差ベクトルを用いた予測ベクトル生成を両立することができる画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、画像復号プログラムおよび画像符号化プログラムを提供することにある。   The present invention has been made in view of such a problem, and an object of the present invention is to provide an image decoding apparatus and an image that can achieve both parallelization of encoding / decoding processing and prediction vector generation using a preliminary disparity vector. An object is to provide an encoding device, an image decoding method, an image encoding method, an image decoding program, and an image encoding program.

(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置であって、符号化データからシンタックス要素を復号するエントロピー復号部と、対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、前記エントロピー復号部は、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、前記視差ベクトル導出部は、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定する手段と、前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定する手段を備え、前記視差ベクトル導出部は、前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定する予備視差ベクトル設定部を有することを特徴とする。   (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention is an image decoding apparatus that decodes an image in units of a coding tree block of a predetermined size, An entropy decoding unit that decodes syntax elements from the data, and a disparity vector deriving unit that derives a disparity vector from an adjacent vector or a preliminary disparity vector that is a block vector adjacent to the target block, and the entropy decoding unit includes an entropy code When the encoding synchronization flag is decoded and the entropy encoding synchronization flag is 1, CABAC decoding processing is initialized at the start of decoding of the first luminance encoding tree block in the encoding tree unit row, and the disparity When the adjacent vector is available, the vector deriving unit converts the adjacent vector into the target block. A disparity vector of the image, and when the adjacent vector is not available, means for setting a spare disparity vector as a disparity vector; and when the adjacent vector is available, the adjacent vector is Means for setting as a disparity vector, and the disparity vector derivation unit, when the entropy coding synchronization flag is 1, at the start of decoding of the first luminance coding tree block of the coding tree unit row, It has a preliminary parallax vector setting unit that initializes a preliminary parallax vector and sets a parallax vector as the preliminary parallax vector when the adjacent block is available.

(2)また、本発明の他の態様は、(1)に記載の画像復号装置であって、前記予備視差ベクトル設定部は、予備視差ベクトルをゼロベクトルとして初期化することを特徴とする。   (2) Further, another aspect of the present invention is the image decoding device according to (1), wherein the preliminary parallax vector setting unit initializes the preliminary parallax vector as a zero vector.

(3)また、本発明の他の態様は、(1)に記載の画像復号装置であって、前記予備視差ベクトル設定部は、予備視差ベクトルを1つ上の符号化ツリーブロック行の、復号済み符号化ツリーブロックの予備視差ベクトルで初期化することを特徴とする。   (3) According to another aspect of the present invention, there is provided the image decoding apparatus according to (1), in which the spare disparity vector setting unit decodes a spare disparity vector one coding tree block row above. It is characterized by initializing with a preliminary disparity vector of a coded tree block.

(4)また、本発明の他の態様は、(3)に記載の画像復号装置であって、前記予備ベクトル設定部は、予備視差ベクトルを1つ上の符号化ツリーブロック行の2番目の復号済み符号化ツリーブロックの予備視差ベクトルで初期化することを特徴とする。   (4) According to another aspect of the present invention, there is provided the image decoding apparatus according to (3), wherein the spare vector setting unit includes a spare disparity vector that is the second one in the coding tree block row one level higher. Initialization is performed with a preliminary disparity vector of a decoded encoded tree block.

(5)また、本発明の他の態様は、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置であって、符号化データからシンタックス要素を復号するエントロピー復号部と、対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、前記エントロピー復号部は、並列マージレベルを復号し、前記視差ベクトル導出部は、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定する手段を備え、さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更すること特徴とする。   (5) According to another aspect of the present invention, there is provided an image decoding apparatus that decodes an image in units of a coding tree block having a predetermined size, an entropy decoding unit that decodes syntax elements from encoded data; A disparity vector deriving unit for deriving a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector, wherein the entropy decoding unit decodes a parallel merge level, and the disparity vector deriving unit includes the parallel merge level and Means for determining the availability of the vector of the adjacent block according to the coordinates of the block adjacent to the target block, and the disparity vector setting unit further comprises a preliminary disparity vector according to the value of the parallel merge level The derivation method is changed.

(6)また、本発明の他の態様は、(5)に記載の画像復号装置であって、前記視差ベクトル設定部は、前記並列マージレベルが2である場合にのみ、前記対象ブロックの視差ベクトルとして、予備視差ベクトルを用いることを特徴とする。   (6) Further, another aspect of the present invention is the image decoding device according to (5), in which the disparity vector setting unit is configured such that the disparity of the target block only when the parallel merge level is 2 As a vector, a preliminary parallax vector is used.

(7)また、本発明の他の態様は、(5)に記載の画像復号装置であって、前記視差ベクトル設定部は、前記並列マージレベルにより定まる所定のサイズの領域である並列マージ領域単位で画像を分割した場合に、並列マージ領域の先頭のブロックを復号する時点において、予備視差ベクトルを更新することを特徴とする。   (7) According to another aspect of the present invention, there is provided the image decoding apparatus according to (5), wherein the disparity vector setting unit is a parallel merge area unit that is an area of a predetermined size determined by the parallel merge level. When the image is divided by the above, the preliminary disparity vector is updated at the time of decoding the head block of the parallel merge region.

(8)また、本発明の他の態様は、(7)に記載の画像復号装置であって、前記視差ベクトル設定部は、前記並列マージレベルにより定まる所定のサイズの領域である並列マージ領域単位に画像を分割した場合に、対象ブロックの座標が、並列マージ領域の座標に一致する時点において、先行するブロックにおいて視差ベクトルとして導出された前記隣接ベクトルを予備視差ベクトルに設定することを特徴とする。   (8) According to another aspect of the present invention, there is provided the image decoding apparatus according to (7), wherein the disparity vector setting unit is a parallel merge area unit that is an area of a predetermined size determined by the parallel merge level. When the image is divided into two, the adjacent vector derived as a disparity vector in the preceding block is set as a preliminary disparity vector when the coordinates of the target block coincide with the coordinates of the parallel merge region. .

(9)また、本発明の他の態様は、(1)から(8)のいずれかに記載の視差ベクトル設定部を具備することを特徴とする画像符号化装置である。   (9) According to another aspect of the present invention, there is provided an image encoding device including the disparity vector setting unit according to any one of (1) to (8).

(10)また、本発明の他の態様は、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号方法であって、符号化データからシンタックス要素を復号する第1の過程と、対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する第2の過程を有し、前記第1の過程において、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、前記第2の過程において、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定し、前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定し、前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定することを特徴とする。   (10) According to another aspect of the present invention, there is provided an image decoding method for decoding an image in units of an encoding tree block having a predetermined size, the first step of decoding syntax elements from encoded data, A second step of deriving a disparity vector from an adjacent vector or a preliminary disparity vector that is a vector of a block adjacent to the target block. In the first step, the entropy encoding synchronization flag is decoded and entropy encoding is performed. When the synchronization flag is 1, CABAC decoding processing is initialized at the start of decoding of the first luminance coding tree block in the coding tree unit row, and the adjacent vector is used in the second step. If possible, set the adjacent vector to the disparity vector of the target block, and if the adjacent vector is not available , When a preliminary disparity vector is set as a disparity vector and the adjacent vector is available, the adjacent vector is set as the preliminary disparity vector, and when the entropy encoding synchronization flag is 1, Initializing the spare disparity vector at the start of decoding of the first luminance coding tree block in the coding tree unit row, and setting the disparity vector as the spare disparity vector when the adjacent block is available It is characterized by.

(11)また、本発明の他の態様は、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号方法であって、符号化データからシンタックス要素を復号する第1の過程と、対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する第2の過程を有し、前記第1の過程において、並列マージレベルを復号し、前記第2の過程において、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定し、さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更することを特徴とする。   (11) According to another aspect of the present invention, there is provided an image decoding method for decoding an image in units of a coding tree block having a predetermined size, the first step of decoding syntax elements from encoded data, , Having a second process of deriving a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector, decoding a parallel merge level in the first process, and decoding the parallel merge level in the second process The availability of a vector of the adjacent block is determined according to a merge level and the coordinates of a block adjacent to the target block, and the disparity vector setting unit further determines a preliminary disparity vector according to the value of the parallel merge level. The derivation method is changed.

(12)また、本発明の他の態様は、コンピュータを、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置として機能させるためのプログラムであって、前記画像復号装置は、符号化データからシンタックス要素を復号するエントロピー復号部と、対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、前記エントロピー復号部は、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、前記視差ベクトル導出部は、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定する手段と、前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定する手段を備え、前記視差ベクトル導出部は、前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定する予備視差ベクトル設定部を有することを特徴とする。   (12) According to another aspect of the present invention, there is provided a program for causing a computer to function as an image decoding device that decodes an image in units of a coding tree block having a predetermined size. The image decoding device includes: An entropy decoding unit that decodes syntax elements from the encoded data, and a disparity vector derivation unit that derives a disparity vector from an adjacent vector or a preliminary disparity vector that is a block vector adjacent to the target block, and the entropy decoding unit includes: When the entropy coding synchronization flag is decoded and the entropy coding synchronization flag is 1, initialization of the CABAC decoding process is performed at the start of decoding of the first luminance coding tree block in the coding tree unit row, The disparity vector deriving unit, when the adjacent vector is available, Means for setting a vector as a disparity vector of the target block and setting the spare disparity vector as a disparity vector when the adjacent vector is not available; and when the adjacent vector is available, the adjacent vector Is set as the preliminary disparity vector, and when the entropy coding synchronization flag is 1, the disparity vector deriving unit starts decoding the first luminance coding tree block of the coding tree unit row It is characterized by having a preliminary parallax vector setting unit that initializes the preliminary parallax vector at the time and sets the parallax vector as the preliminary parallax vector when the adjacent block is available.

(13)また、本発明の他の態様は、コンピュータを、画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置として機能させるためのプログラムであって、前記画像復号装置は、符号化データからシンタックス要素を復号するエントロピー復号部と、対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、前記エントロピー復号部は、並列マージレベルを復号し、前記視差ベクトル導出部は、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定する手段を備え、さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更することを特徴とする。   (13) According to another aspect of the present invention, there is provided a program for causing a computer to function as an image decoding device that decodes an image in units of a coding tree block having a predetermined size. An entropy decoding unit that decodes syntax elements from the encoded data, and a disparity vector derivation unit that derives a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector, and the entropy decoding unit has a parallel merge level And the disparity vector deriving unit includes means for determining availability of the vector of the adjacent block according to the parallel merge level and the coordinates of the block adjacent to the target block, and further, the disparity vector setting Change the method for deriving the preliminary disparity vector according to the value of the parallel merge level And wherein the Rukoto.

この発明によれば、符号化・復号処理の並列化と、予備視差ベクトルを用いた予測ベクトル生成を両立することができる。   According to the present invention, it is possible to achieve both encoding / decoding processing in parallel and prediction vector generation using a preliminary disparity vector.

この発明の第1の実施形態による画像伝送システム10の構成を示す概略ブロック図である。1 is a schematic block diagram illustrating a configuration of an image transmission system 10 according to a first embodiment of the present invention. 同実施形態における符号化ツリーユニットを説明する図である。It is a figure explaining the encoding tree unit in the embodiment. 同実施形態における符号化ツリーブロックの予測ユニットへの分割例を示す図である。It is a figure which shows the example of a division | segmentation into the prediction unit of the encoding tree block in the embodiment. 同実施形態における画像復号装置300の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the image decoding apparatus 300 in the embodiment. 同実施形態におけるインター予測パラメータ復号部341の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the inter prediction parameter decoding part 341 in the same embodiment. 同実施形態におけるマージ予測パラメータ導出部344の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the merge prediction parameter derivation | leading-out part 344 in the embodiment. 同実施形態における視差ベクトル導出部382および空間マージ候補導出部383が探索する隣接予測ユニットの位置を説明する図である。It is a figure explaining the position of the adjacent prediction unit which the parallax vector derivation | leading-out part 382 and the spatial merge candidate derivation | leading-out part 383 in the embodiment search. 同実施形態における時間マージ候補導出部384が探索する予測ユニットを説明する図である。It is a figure explaining the prediction unit which the time merge candidate derivation | leading-out part 384 in the embodiment searches. 同実施形態におけるインタービューマージ候補導出部381の動作を説明する概念図(その1)である。It is a conceptual diagram (the 1) explaining operation | movement of the interview merge candidate derivation | leading-out part 381 in the embodiment. 同実施形態におけるインタービューマージ候補導出部381の動作を説明する概念図(その2)である。It is a conceptual diagram (the 2) explaining operation | movement of the inter view merge candidate derivation | leading-out part 381 in the embodiment. 同実施形態におけるWPPの概念図である。It is a conceptual diagram of WPP in the same embodiment. 同実施形態におけるマージ予測パラメータ導出部344の動作を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining operation | movement of the merge prediction parameter derivation | leading-out part 344 in the embodiment. 同実施形態におけるステップSz4におけるマージ予測パラメータ導出部344の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the merge prediction parameter derivation | leading-out part 344 in step Sz4 in the same embodiment. 同実施形態におけるステップSa3における処理を説明するフローチャートである。It is a flowchart explaining the process in step Sa3 in the same embodiment. 同実施形態におけるステップSb1における処理を説明するフローチャートである。It is a flowchart explaining the process in step Sb1 in the same embodiment. 同実施形態における画像符号化装置100の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the image coding apparatus 100 in the embodiment. 同実施形態におけるマージ予測パラメータ導出部344aの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the merge prediction parameter derivation | leading-out part 344a in the same embodiment. 同実施形態におけるマージ予測パラメータ導出部344aの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the merge prediction parameter derivation | leading-out part 344a in the same embodiment. 同実施形態における並列マージの概念図である。It is a conceptual diagram of the parallel merge in the same embodiment. この発明の第3の実施形態による画像復号装置300bの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the image decoding apparatus 300b by 3rd Embodiment of this invention. 同実施形態におけるマージ予測パラメータ導出部344bの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the merge prediction parameter derivation | leading-out part 344b in the same embodiment. 同実施形態におけるマージ予測パラメータ導出部344bの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the merge prediction parameter derivation | leading-out part 344b in the same embodiment. 同実施形態におけるステップSa3´における処理を説明するフローチャートである。It is a flowchart explaining the process in step Sa3 'in the same embodiment. 同実施形態におけるステップSb1´における処理を説明するフローチャートである。It is a flowchart explaining the process in step Sb1 'in the same embodiment. 同実施形態におけるマージ予測パラメータ導出部344cの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the merge prediction parameter derivation | leading-out part 344c in the same embodiment. 同実施形態におけるステップSe1´´における処理を説明するフローチャートである。It is a flowchart explaining the process in step Se1 '' in the embodiment.

[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、本実施形態による画像伝送システム10の構成を示す概略ブロック図である。画像伝送システム10は、複数の視点画像を符号化して伝送し、伝送先において、これらを用いた画像の表示を行うシステムである。図1に示すように、画像伝送システム10は、画像符号化装置100、ネットワーク200、画像復号装置300、画像表示装置400を含んで構成される。本実施形態では、予測ベクトルを生成する際に、各符号化ツリーユニット行の先頭の符号化ツリーユニットにおいて、記憶された予備視差ベクトルをX成分、Y成分ともに0であるベクトル(ゼロベクトル)でリセットすることで、WPP(Wavefront parallel processing)を用いる場合において、予備視差ベクトルを利用しながら画像符号化装置100および画像復号装置300において各符号化ツリーユニット行の並列符号化・復号処理を実現している。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram illustrating a configuration of an image transmission system 10 according to the present embodiment. The image transmission system 10 is a system that encodes and transmits a plurality of viewpoint images, and displays an image using these at the transmission destination. As shown in FIG. 1, the image transmission system 10 includes an image encoding device 100, a network 200, an image decoding device 300, and an image display device 400. In the present embodiment, when the prediction vector is generated, in the first coding tree unit of each coding tree unit row, the stored spare disparity vector is a vector (zero vector) in which both the X component and the Y component are zero. By resetting, when using WPP (Wavefront parallel processing), parallel encoding / decoding processing of each encoding tree unit row is realized in the image encoding device 100 and the image decoding device 300 using the preliminary disparity vector. ing.

画像符号化装置100は、複数の視点画像(テクスチャ画像ともいう)T各々を符号化し、視点画像T各々の符号化ストリームTeを生成する。なお、画像符号化装置100は、複数の視点画像Tのうち、少なくとも一つを基準視点画像(ベースビュー(Base view)ともいう)として符号化し、それら以外を非基準視点画像(ノンベースビュー(Non base view)ともいう)として符号化する。なお、基準視点画像とは、符号化の際に視差予測を用いることができない視点画像であり、非基準視点画像とは、符号化の際に視差予測を用いることができる視点画像のことである。通常、基準視点画像にはレイヤID=0が用いられ、非基準視点画像には、0以外のレイヤIDが用いられる。視点画像は、特定の視点からの動画像であり、各時刻における画像であるピクチャから構成される。   The image encoding device 100 encodes each of a plurality of viewpoint images (also referred to as texture images) T, and generates an encoded stream Te of each viewpoint image T. Note that the image encoding device 100 encodes at least one of the plurality of viewpoint images T as a reference viewpoint image (also referred to as a base view), and other than the non-reference viewpoint images (non-base view (non-base view)). It is also encoded as Non base view). The reference viewpoint image is a viewpoint image that cannot use parallax prediction at the time of encoding, and the non-reference viewpoint image is a viewpoint image that can use parallax prediction at the time of encoding. . Usually, the layer ID = 0 is used for the reference viewpoint image, and a layer ID other than 0 is used for the non-reference viewpoint image. The viewpoint image is a moving image from a specific viewpoint, and is composed of pictures that are images at each time.

ネットワーク200は、これらの符号化ストリームTeを、画像復号装置300に伝送する、IP(Internet Protocol)ネットワーク、ケーブルテレビ網などのネットワークである。なお、符号化ストリームTeは、本実施形態のようにネットワークにより伝送されてもよいが、地上デジタル放送、衛星放送などの放送波により伝送されてもよいし、DVD(Digital Versatile Disc)、ブルーレイ(Blu-ray(登録商標))などの記録媒体により伝送されてもよい。   The network 200 is a network such as an IP (Internet Protocol) network or a cable television network that transmits the encoded stream Te to the image decoding device 300. The encoded stream Te may be transmitted by a network as in the present embodiment, but may be transmitted by a broadcast wave such as terrestrial digital broadcast or satellite broadcast, or a DVD (Digital Versatile Disc), Blu-ray ( It may be transmitted by a recording medium such as Blu-ray (registered trademark).

画像復号装置300は、ネットワーク200が伝送した符号化ストリームTeを復号し、復号視点画像Tdを生成する。画像表示装置400は、画像復号装置300が生成した復号視点画像Tdを用いて、画像を生成する。画像表示装置400は、画像を表示するための液晶ディスプレイや、有機EL(electroluminescence)ディスプレイなどの表示デバイスを備える。なお、画像表示装置400が表示する画像は、2次元画像であってもよいし、立体画像であってもよい。   The image decoding device 300 decodes the encoded stream Te transmitted by the network 200, and generates a decoded viewpoint image Td. The image display device 400 generates an image using the decoded viewpoint image Td generated by the image decoding device 300. The image display apparatus 400 includes a display device such as a liquid crystal display for displaying an image or an organic EL (electroluminescence) display. Note that the image displayed by the image display device 400 may be a two-dimensional image or a stereoscopic image.

図2は、符号化ツリーユニットを説明する図である。図2に示すように、画像符号化装置100は、ピクチャpicを、64画素×64画素の符号化ツリーユニット(Coding Tree Unit)CTU11、CTU12、・・・、CTUMNに分割して符号化する。また、画像復号装置300は、符号化ツリーユニットCTU11、CTU12、・・・、CTUMN各々を復号して、つなぎ合わせることで、ピクチャpicを得る。符号化処理する順と復号処理する順は、同一であり、図2の矢印arwに示すような、以下の順である。最初に処理するのは、ピクチャpicの左上端の符号化ツリーユニットCTU11である。次は、符号化ツリーユニットCTU11の右隣の符号化ツリーユニットCTU12である。続いて、右端の符号化ツリーユニットCTU1Nに到達するまで、順次、処理した符号化ツリーユニットの右隣の符号化ツリーユニットを処理する。   FIG. 2 is a diagram illustrating the coding tree unit. As shown in FIG. 2, the image encoding apparatus 100 divides and encodes a picture pic into 64 × 64 pixel coding tree units CTU11, CTU12,. The image decoding apparatus 300 obtains a picture pic by decoding and joining the coding tree units CTU11, CTU12,..., CTUMN. The order of the encoding process and the order of the decoding process are the same, as shown by the arrow arw in FIG. The encoding tree unit CTU11 at the upper left end of the picture pic is first processed. Next is a coding tree unit CTU12 on the right side of the coding tree unit CTU11. Subsequently, the encoding tree unit adjacent to the right of the processed encoding tree unit is sequentially processed until the rightmost encoding tree unit CTU1N is reached.

符号化ツリーユニットCTU11〜CTU1Nを処理したら、1段下の符号化ツリーユニットCTU21〜CTU2Nを、左端から順に処理する。同様に、符号化ツリーユニットCTU21〜CTU2Nを処理したら、1段下の符号化ツリーユニットCTU31〜CTU3Nを、左端から順に処理する。このように、ピクチャpicの最下段の符号化ツリーユニットCTUM1〜CTUMNを処理するまで、各段の符号化ツリーユニットを処理する。   When the coding tree units CTU11 to CTU1N are processed, the coding tree units CTU21 to CTU2N one level below are processed in order from the left end. Similarly, when the encoding tree units CTU21 to CTU2N are processed, the encoding tree units CTU31 to CTU3N one stage below are sequentially processed from the left end. In this way, the encoding tree units at each stage are processed until the encoding tree units CTUM1 to CUMN at the bottom stage of the picture pic are processed.

輝度、色差から構成される画像では、符号化ツリーユニットは、3つの色成分を有する符号化ツリーブロックを備える。輝度の符号化ツリーブロック、色差の符号化ツリーブロックの順に処理される。 図3は、符号化ツリーブロックの予測ユニット(Prediction Unit)への分割例を示す図である。画像符号化装置100は、各符号化ツリーユニットを、64画素×64画素、32画素×32画素、16画素×16画素、8画素×8画素のいずれかの大きさの符号化ユニット(Coding Unit)に分割する。さらに、各符号化ユニットを、予め決められた複数のパターンの中のいずれかを用いて、予測ユニットに分割する。   In an image composed of luminance and color difference, the coding tree unit includes a coding tree block having three color components. The luminance encoding tree block and the color difference encoding tree block are processed in this order. FIG. 3 is a diagram illustrating an example of dividing an encoding tree block into prediction units (Prediction Units). The image coding apparatus 100 converts each coding tree unit into a coding unit (Coding Unit) having a size of 64 pixels × 64 pixels, 32 pixels × 32 pixels, 16 pixels × 16 pixels, or 8 pixels × 8 pixels. ). Furthermore, each encoding unit is divided into prediction units using any of a plurality of predetermined patterns.

予測ユニットは、画像符号化装置100および画像復号装置300が予測画像を生成する単位である。したがって、予測ユニットは、画像符号化装置100および画像復号装置300が動きベクトルや視差ベクトル(変位ベクトル)を取得する単位でもある。図3に示す例では、符号化ツリーユニットCTU1は、予測ユニットPU1〜PU21に分割されている。予測ユニットの形状で、最も小さな横幅は、例えば、予測ユニットPU18、PU19などの4画素である。また、予測ユニットの形状で、最も小さな高さも、例えば、予測ユニットPU8、PU9、PU21などの4画素である。   The prediction unit is a unit in which the image encoding device 100 and the image decoding device 300 generate a prediction image. Therefore, the prediction unit is also a unit by which the image encoding device 100 and the image decoding device 300 acquire a motion vector and a disparity vector (displacement vector). In the example illustrated in FIG. 3, the coding tree unit CTU1 is divided into prediction units PU1 to PU21. The smallest horizontal width in the shape of the prediction unit is, for example, four pixels such as the prediction units PU18 and PU19. Further, the smallest height in the shape of the prediction unit is, for example, four pixels such as the prediction units PU8, PU9, and PU21.

本実施形態における画像符号化装置100及び画像復号装置300では、WPP(Wavefront Parallel Processing)を用いることで、符号化ツリーユニット行ごとの並列符号化・復号処理が可能である。図11は、WPPを説明するための概念図である。図11の矢印arw1〜5が示すように、画像復号装置300は、各符号化ツリーユニット行を並列に復号する。ただし、2行目以降の符号化ツリーユニット行の復号処理は1行上の符号化ツリーユニット行から2符号化ツリーユニット分遅れて開始する。これは、符号化ツリーユニット行の先頭の符号化ツリーユニットをCABACで復号するのに必要なコンテキストを、右上に隣接する符号化ツリーユニットを復号が終了した時点の値で初期化するためである。例えば、arw4に対応する符号化ツリーユニット行の先頭から2符号化ツリーユニットの符号化・復号処理をしたのち、arw5に対応する符号化ツリーユニット行の処理を開始する前に、先頭符号化ツリーユニットcurrCTUをCABACで符号化・復号するのに必要なコンテキストを、currCTUの右上に隣接する符号化ツリーユニットCTU_TRからコピーする
図4は、画像復号装置300の構成を示す概略ブロック図である。図4に示すように、画像復号装置300は、エントロピー復号部301、逆量子化・逆DCT(Discrete Cosine Transform;離散コサイン変換)変換部302、加算部303、予測パラメータ復号部304、予測画像生成部305、参照画像メモリ306を含んで構成される。また、予測パラメータ復号部304は、インター予測パラメータ復号部341(予測ベクトル生成装置)、イントラ予測パラメータ復号部342を含んで構成される。予測画像生成部305は、インター予測画像生成部351、イントラ予測画像生成部352を含んで構成される。参照画像メモリ306は、画像メモリ361、予測パラメータメモリ362を含んで構成される。
The image encoding device 100 and the image decoding device 300 according to the present embodiment can perform parallel encoding / decoding processing for each encoding tree unit row by using WPP (Wavefront Parallel Processing). FIG. 11 is a conceptual diagram for explaining WPP. As indicated by arrows arw1 to 5 in FIG. 11, the image decoding device 300 decodes each coding tree unit row in parallel. However, the decoding processing of the second and subsequent coding tree unit rows starts with a delay of two coding tree units from the coding tree unit row on the first row. This is because the context necessary for decoding the first coding tree unit in the coding tree unit row by CABAC is initialized with the value at the end of decoding the coding tree unit adjacent to the upper right. . For example, after encoding / decoding processing of two encoding tree units from the beginning of the encoding tree unit row corresponding to arw4, before starting processing of the encoding tree unit row corresponding to arw5, the first encoding tree FIG. 4 is a schematic block diagram showing the configuration of the image decoding apparatus 300. The context necessary for encoding / decoding the unit currCTU with CABAC is copied from the encoding tree unit CTU_TR adjacent to the upper right of the currCTU. As illustrated in FIG. 4, the image decoding apparatus 300 includes an entropy decoding unit 301, an inverse quantization / inverse DCT (Discrete Cosine Transform) conversion unit 302, an addition unit 303, a prediction parameter decoding unit 304, and a prediction image generation. A unit 305 and a reference image memory 306 are included. The prediction parameter decoding unit 304 includes an inter prediction parameter decoding unit 341 (prediction vector generation device) and an intra prediction parameter decoding unit 342. The predicted image generation unit 305 includes an inter predicted image generation unit 351 and an intra predicted image generation unit 352. The reference image memory 306 includes an image memory 361 and a prediction parameter memory 362.

エントロピー復号部301は、符号化ストリームTeをエントロピー復号する。エントロピー復号部301は、エントロピー復号により得られた量子化係数を、逆量子化・逆DCT変換部302に入力し、伝送予測パラメータtpを予測パラメータ復号部304に入力し、予測モードpredModeを予測画像生成部305に入力する。エントロピー復号部301は、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagを復号し、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行う。エントロピー復号部301は、また、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagをインター予測パラメータ復号部341に入力する。なお、伝送予測パラメータtpとは、符号化ストリームTeに含めて画像符号化装置100から画像復号装置300に伝送される予測パラメータである。予測パラメータとは、視点画像Tを分割した予測ユニットの予測画像を生成するためのパラメータである。また、予測モードpredModeは、伝送予測パラメータtpの一種であり、各予測ユニットの予測画像を生成するための予測モードを指定する情報である。本実施形態では、一例として、予測モードpredModeとして、インター予測と、イントラ予測とがある場合を説明するが、その他のモード、例えば、スキップモードを有していてもよい。また、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagは、各符号化ツリーユニット行の並列復号が可能であることを示すフラグ(WPP処理が可能であることを示すフラグ)である。エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真の場合は、ある符号化ツリーユニット行の復号処理を、1行上の符号化ツリーユニット行から2符号化ツリーユニット分遅れて開始することが可能である。   The entropy decoding unit 301 performs entropy decoding on the encoded stream Te. The entropy decoding unit 301 inputs the quantized coefficient obtained by entropy decoding to the inverse quantization / inverse DCT transform unit 302, inputs the transmission prediction parameter tp to the prediction parameter decoding unit 304, and sets the prediction mode predMode to the predicted image. Input to the generation unit 305. The entropy decoding unit 301 decodes the entropy coding synchronization flag entropy_coding_sync_enabled_flag, and when the entropy coding synchronization flag entropy_coding_sync_enabled_flag is 1, at the start of decoding of the first luminance coding tree block in the coding tree unit row, CABAC Initialize the decryption process. The entropy decoding unit 301 also inputs an entropy encoding synchronization flag entropy_coding_sync_enabled_flag to the inter prediction parameter decoding unit 341. The transmission prediction parameter tp is a prediction parameter that is included in the encoded stream Te and transmitted from the image encoding device 100 to the image decoding device 300. The prediction parameter is a parameter for generating a prediction image of a prediction unit obtained by dividing the viewpoint image T. The prediction mode predMode is a kind of transmission prediction parameter tp, and is information that specifies a prediction mode for generating a prediction image of each prediction unit. In the present embodiment, as an example, a case where there is inter prediction and intra prediction as the prediction mode predMode will be described, but other modes such as a skip mode may be included. The entropy encoding synchronization flag entropy_coding_sync_enabled_flag is a flag (a flag indicating that WPP processing is possible) indicating that each decoding tree unit row can be decoded in parallel. When the entropy coding synchronization flag entropy_coding_sync_enabled_flag is true, it is possible to start a decoding process for a certain coding tree unit row with a delay of two coding tree units from the coding tree unit row on the first row.

逆量子化・逆DCT変換部302は、量子化係数を逆量子化して、DCT係数を得る。逆量子化・逆DCT変換部302は、DCT係数を逆DCT変換して、差分画像を生成する。加算部303は、予測画像生成部305が生成した予測画像Pと、逆量子化・逆DCT変換部302が生成した差分画像とを加算して、復号視点画像Tdを生成する。加算部303は、生成した復号視点画像Tdの各ピクチャを参照ピクチャとして画像メモリ361に記憶させる。なお、ここで、予測画像Pと差分画像との加算とは、予測画像Pの各画素の画素値に対して、差分画像における同一の位置の画素の画素値を加算することである。   The inverse quantization / inverse DCT transform unit 302 inversely quantizes the quantization coefficient to obtain a DCT coefficient. The inverse quantization / inverse DCT transform unit 302 performs inverse DCT transform on the DCT coefficients to generate a difference image. The addition unit 303 adds the predicted image P generated by the predicted image generation unit 305 and the difference image generated by the inverse quantization / inverse DCT conversion unit 302 to generate a decoded viewpoint image Td. The adding unit 303 stores each picture of the generated decoded viewpoint image Td in the image memory 361 as a reference picture. Here, the addition of the predicted image P and the difference image is to add the pixel value of the pixel at the same position in the difference image to the pixel value of each pixel of the predicted image P.

予測パラメータ復号部304は、伝送予測パラメータtpを用いて、各予測ユニットの予測画像Pを生成するための予測パラメータを生成する。予測パラメータ復号部304は、予測モードpredModeを参照して、各予測ユニットの予測モードを判定し、インター予測である予測ユニットについては、インター予測パラメータ復号部341で予測パラメータを導出し、イントラ予測である予測ユニットについては、イントラ予測パラメータ復号部342で予測パラメータを導出する。インター予測パラメータ復号部341は、導出した予測パラメータを、予測画像生成部305に入力するとともに、予測パラメータメモリ362に記憶させる。   The prediction parameter decoding unit 304 uses the transmission prediction parameter tp to generate a prediction parameter for generating the prediction image P of each prediction unit. The prediction parameter decoding unit 304 refers to the prediction mode predMode to determine the prediction mode of each prediction unit. For a prediction unit that is inter prediction, the inter prediction parameter decoding unit 341 derives a prediction parameter, and intra prediction is performed. For a certain prediction unit, an intra prediction parameter decoding unit 342 derives a prediction parameter. The inter prediction parameter decoding unit 341 inputs the derived prediction parameter to the prediction image generation unit 305 and stores it in the prediction parameter memory 362.

予測パラメータ復号部304のインター予測パラメータ復号部341は、予測モードがインター予測の予測ユニットの予測パラメータである、参照ピクチャインデックスrefIdxLXと、ベクトルmvLXを導出する。インター予測パラメータ復号部341は、参照ピクチャインデックスrefIdxLXとベクトルmvLXを導出する際に、エントロピー復号部301から入力された伝送予測パラメータtpに加えて、エントロピー符号化同期フラグentropy_coding_sync_enabled_flag及び予測パラメータメモリ362が記憶する既に復号済の予測パラメータを用いる。なお、ベクトルmvLXの生成方法の詳細については、後述する。   The inter prediction parameter decoding unit 341 of the prediction parameter decoding unit 304 derives a reference picture index refIdxLX and a vector mvLX, which are prediction parameters of a prediction unit whose prediction mode is inter prediction. When the inter prediction parameter decoding unit 341 derives the reference picture index refIdxLX and the vector mvLX, the entropy coding synchronization flag entropy_coding_sync_enabled_flag and the prediction parameter memory 362 are stored in addition to the transmission prediction parameter tp input from the entropy decoding unit 301 The already decoded prediction parameters are used. Details of the method for generating the vector mvLX will be described later.

インター予測パラメータ復号部341は、予測モードがインター予測の予測ユニット各々について、導出した参照ピクチャインデックスrefIdxLXとベクトルmvLXとを予測画像生成部305に入力するとともに、予測パラメータメモリ362に記憶させる。   The inter prediction parameter decoding unit 341 inputs the derived reference picture index refIdxLX and the vector mvLX for each prediction unit whose prediction mode is inter prediction to the prediction image generation unit 305 and stores it in the prediction parameter memory 362.

ここで、参照ピクチャインデックスrefIdxLXとは、参照ピクチャインデックスrefIdxL0、refIdxL1のいずれかを示す。   Here, the reference picture index refIdxLX indicates either the reference picture index refIdxL0 or refIdxL1.

参照ピクチャインデックスrefIdxL0は、参照ピクチャリストL0の参照ピクチャを示すインデックスである。参照ピクチャインデックスrefIdxL1は、参照ピクチャリストL1の参照ピクチャを示すインデックスである。参照ピクチャリストは、復号対象ピクチャよりも前に復号されたピクチャのリストである。   The reference picture index refIdxL0 is an index indicating a reference picture in the reference picture list L0. The reference picture index refIdxL1 is an index indicating a reference picture in the reference picture list L1. The reference picture list is a list of pictures decoded before the decoding target picture.

ベクトルmvLXについても、同様に参照リストピクチャLXの参照ピクチャに対するベクトルであり、その他の符号についても「LX」を含む場合は、同様である。対象ユニットの予測画像を、対象ユニットが属する対象ピクチャと同じ視点のピクチャの参照ピクチャから生成する場合を、動き予測と呼び。対象ユニットの予測画像を、対象ユニットが属する対象ピクチャとは異なる視点のピクチャの参照ピクチャから生成する場合を、視差予測と呼ぶ。なお、ベクトルmvLXは、対象の予測ユニットの予測画像を動き予測により生成する場合は、すなわち、ベクトルmvLXに付随する参照ピクチャインデックスrefIdxLX、参照ピクチャリストRefPicListXで指定される参照ピクチャRefPicListX[refIdxLX]のレイヤIDnal_layer_idが、対象ピクチャのレイヤIDnal_layer_idと同じ場合は、動きベクトルであり、視差予測により生成する場合は、すなわち、ベクトルmvLXに付随する上記参照ピクチャRefPicListX[refIdxLX]のレイヤIDnal_layer_idが、対象ピクチャのレイヤIDnal_layer_idと異なる場合は、視差ベクトルである。すなわち、対象ピクチャと参照ピクチャのレイヤIDが一致する場合は動きベクトル、一致しない場合には視差ベクトルである。なお、動きベクトルと視差ベクトルとを合わせて動きベクトルと呼ぶこともある。   Similarly, the vector mvLX is a vector for the reference picture of the reference list picture LX, and the same applies to other codes including “LX”. A case where the prediction image of the target unit is generated from a reference picture of a picture at the same viewpoint as the target picture to which the target unit belongs is called motion prediction. A case where the prediction image of the target unit is generated from a reference picture of a picture with a different viewpoint from the target picture to which the target unit belongs is called parallax prediction. Note that the vector mvLX is a layer of the reference picture RefPicListX [refIdxLX] specified by the reference picture index refIdxLX and the reference picture list RefPicListX attached to the vector mvLX when the prediction image of the target prediction unit is generated by motion prediction. When IDnal_layer_id is the same as the layer IDnal_layer_id of the target picture, it is a motion vector, and when generated by disparity prediction, that is, the layer IDnal_layer_id of the reference picture RefPicListX [refIdxLX] accompanying the vector mvLX Is different from the disparity vector. That is, the motion vector is a motion vector when the layer IDs of the target picture and the reference picture match, and a disparity vector when they do not match. The motion vector and the disparity vector may be collectively referred to as a motion vector.

なお、動きベクトルと視差ベクトルの判別は、上記レイヤIDによらず、ビューインデックスやPOCを用いる方法でも良い。具体的には、対象ピクチャと参照ピクチャのビューインデックスが一致する場合を動きベクトル、一致しない場合には視差ベクトルと判定しても良い。また、対象ピクチャと参照ピクチャのPOCが一致しない場合を動きベクトル、一致する場合には視差ベクトルと判定しても良い。   It should be noted that the motion vector and the disparity vector may be discriminated by using a view index or POC regardless of the layer ID. Specifically, a case where the view index of the target picture and the reference picture match may be determined as a motion vector, and a case where they do not match may be determined as a disparity vector. In addition, a case where the POC of the target picture and the reference picture do not match may be determined as a motion vector, and a case where they match, a disparity vector may be determined.

イントラ予測パラメータ復号部342は、エントロピー復号部301から入力された符号、例えば予測モードPredModeに基づいて、予測パラメータメモリ362に記憶された予測パラメータを参照してイントラ予測パラメータを導出する。イントラ予測パラメータとは、予測ユニットをピクチャ内で予測する処理で用いる予測パラメータ、例えば、イントラ予測モードIntraPredModeである。イントラ予測パラメータ復号部342は、復号したイントラ予測パラメータをイントラ予測画像生成部352に出力し、また予測パラメータメモリ362に記憶する。   The intra prediction parameter decoding unit 342 derives an intra prediction parameter with reference to the prediction parameter stored in the prediction parameter memory 362 based on the code input from the entropy decoding unit 301, for example, the prediction mode PredMode. The intra prediction parameter is a prediction parameter used in a process of predicting a prediction unit within a picture, for example, an intra prediction mode IntraPredMode. The intra prediction parameter decoding unit 342 outputs the decoded intra prediction parameter to the intra prediction image generation unit 352 and stores it in the prediction parameter memory 362.

予測画像生成部305は、各予測ユニットの予測画像Pを生成し、加算部303に入力する。予測画像生成部305は、予測モードpredModeを参照して、各予測ユニットの予測モードを判定し、インター予測である予測ユニットについては、インター予測画像生成部351で予測画像Pを生成し、イントラ予測である予測ユニットについては、イントラ予測画像生成部352で予測画像Pを生成する。   The predicted image generation unit 305 generates a predicted image P of each prediction unit and inputs it to the adding unit 303. The prediction image generation unit 305 refers to the prediction mode predMode to determine the prediction mode of each prediction unit, and for the prediction unit that is inter prediction, the inter prediction image generation unit 351 generates the prediction image P, and performs intra prediction. For the prediction unit, the intra predicted image generation unit 352 generates the predicted image P.

インター予測画像生成部351は、インター予測である予測ユニット各々について、画像メモリ361が記憶する参照ピクチャから対応するブロックを読み出し、予測画像Pとする。インター予測画像生成部351は、上述の対応するブロックを、インター予測パラメータ復号部341から入力された参照ピクチャインデックスrefIdxLXと、ベクトルmvLXとを参照して特定する。   The inter prediction image generation unit 351 reads out a corresponding block from the reference picture stored in the image memory 361 for each prediction unit that is inter prediction, and sets it as a prediction image P. The inter prediction image generation unit 351 specifies the above-described corresponding block with reference to the reference picture index refIdxLX input from the inter prediction parameter decoding unit 341 and the vector mvLX.

イントラ予測画像生成部352は、イントラ予測である予測ユニット各々について、イントラ予測パラメータ復号部342から入力されたイントラ予測モードintraPredModeで指定されたイントラ予測を行い、予測画像Pを生成する。イントラ予測画像生成部352は、予測ユニットの予測画像Pを生成する際に、該予測ユニットに隣接する画素の画素値を、画像メモリ361から読み出し、該画素値を用いて予測画像Pを生成する。なお、イントラ予測画像生成部352による予測画像Pの生成には、公知のイントラ予測による予測画像の生成方法を用いることができる。   The intra prediction image generation unit 352 performs intra prediction specified by the intra prediction mode intraPredMode input from the intra prediction parameter decoding unit 342 for each prediction unit that is intra prediction, and generates a prediction image P. When generating the predicted image P of the prediction unit, the intra predicted image generation unit 352 reads the pixel value of the pixel adjacent to the prediction unit from the image memory 361 and generates the predicted image P using the pixel value. . In addition, the production | generation of the estimated image P by the intra estimated image generation part 352 can use the production | generation method of the predicted image by well-known intra prediction.

参照画像メモリ306の画像メモリ361は、加算部303が生成した復号視点画像Tdの各ピクチャを参照ピクチャとして記憶する。また、参照画像メモリ306の予測パラメータメモリ362は、予測パラメータ復号部304から入力された予測パラメータを記憶する。   The image memory 361 of the reference image memory 306 stores each picture of the decoded viewpoint image Td generated by the addition unit 303 as a reference picture. Further, the prediction parameter memory 362 of the reference image memory 306 stores the prediction parameter input from the prediction parameter decoding unit 304.

図5は、インター予測パラメータ復号部341の構成を示す概略ブロック図である。インター予測パラメータ復号部341は、インター予測パラメータ抽出部343、マージ予測パラメータ導出部344、AMVP(Advanced Motion Vector Prediction)予測パラメータ導出部345、加算部346を含んで構成される。AMVP予測パラメータ導出部345は、ベクトル候補導出部347、予測ベクトル選択部348を含んで構成される。   FIG. 5 is a schematic block diagram illustrating a configuration of the inter prediction parameter decoding unit 341. The inter prediction parameter decoding unit 341 includes an inter prediction parameter extraction unit 343, a merge prediction parameter derivation unit 344, an AMVP (Advanced Motion Vector Prediction) prediction parameter derivation unit 345, and an addition unit 346. The AMVP prediction parameter derivation unit 345 includes a vector candidate derivation unit 347 and a prediction vector selection unit 348.

インター予測パラメータ抽出部343は、エントロピー復号部301から入力された伝送予測パラメータtpを参照して、インター予測の予測ユニット各々について、予測パラメータの導出方法がマージ予測であるかAMVP予測であるかを判定する。インター予測パラメータ抽出部343は、マージ予測である予測ユニットについては、伝送予測パラメータtpから該予測ユニットに関するマージインデックスmerge_idxを抽出して、マージ予測パラメータ導出部344に入力する。また、インター予測パラメータ抽出部343は、AMVP予測である予測ユニットについては、伝送予測パラメータtpから、参照ピクチャインデックスrefIdxLXと差分ベクトルmvdLXと、予測ベクトルインデックスmvp_LX_idxを復号する。インター予測パラメータ抽出部343は、参照ピクチャインデックスrefIdxLXと予測ベクトルインデックスmvp_LX_idxとを、AMVP予測パラメータ導出部345に入力し、差分ベクトルmvdLXを、加算部346に入力する。   The inter prediction parameter extraction unit 343 refers to the transmission prediction parameter tp input from the entropy decoding unit 301 and determines whether the prediction parameter derivation method is merge prediction or AMVP prediction for each inter prediction unit. judge. The inter prediction parameter extraction unit 343 extracts the merge index merge_idx related to the prediction unit from the transmission prediction parameter tp for the prediction unit that is the merge prediction, and inputs the merge index merge_idx to the merge prediction parameter derivation unit 344. Moreover, the inter prediction parameter extraction part 343 decodes the reference picture index refIdxLX, the difference vector mvdLX, and the prediction vector index mvp_LX_idx from the transmission prediction parameter tp about the prediction unit which is AMVP prediction. The inter prediction parameter extraction unit 343 inputs the reference picture index refIdxLX and the prediction vector index mvp_LX_idx to the AMVP prediction parameter derivation unit 345, and inputs the difference vector mvdLX to the addition unit 346.

マージ予測パラメータ導出部344は、エントロピー復号部301から入力されたエントロピー符号化同期フラグentropy_coding_sync_enabled_flagと予測パラメータメモリ362を参照し、予測パラメータの導出方法がマージ予測である予測ユニット各々について、予め決められた規則に従い、複数の予測パラメータ候補を生成する。マージ予測パラメータ導出部344は、マージ予測である予測ユニット各々について、生成した複数の予測パラメータ候補のうち、マージインデックスmerge_idxが示す予測パラメータ候補を、ベクトルmvLX、参照ピクチャインデックスrefIdxLXに設定する。マージ予測パラメータ導出部344は、予測パラメータ候補を生成する際に、予測パラメータメモリ362が記憶するベクトルmvLX、参照ピクチャインデックスrefIdxLXを参照する。   The merge prediction parameter derivation unit 344 refers to the entropy coding synchronization flag entropy_coding_sync_enabled_flag input from the entropy decoding unit 301 and the prediction parameter memory 362, and is determined in advance for each prediction unit whose prediction parameter derivation method is merge prediction. A plurality of prediction parameter candidates are generated according to the rules. The merge prediction parameter derivation unit 344 sets the prediction parameter candidate indicated by the merge index merge_idx among the plurality of generated prediction parameter candidates for each prediction unit that is merge prediction, in the vector mvLX and the reference picture index refIdxLX. The merge prediction parameter derivation unit 344 refers to the vector mvLX and the reference picture index refIdxLX stored in the prediction parameter memory 362 when generating prediction parameter candidates.

AMVP予測パラメータ導出部345のベクトル候補導出部347は、予測パラメータメモリ362を参照し、予測パラメータの導出方法がAMVP予測である予測ユニット各々について、予め決められた規則に従い、複数のベクトル候補を生成する。このとき、ベクトル候補導出部347は、インター予測パラメータ抽出部343から入力された参照ピクチャインデックスrefIdxLXを用いて、予測パラメータの導出方法がAMVP予測である予測ユニットの各々について、動き予測により予測画像を生成する予測ユニットであるか、視差予測により予測画像を生成する予測ユニットであるかを判定する。   The vector candidate derivation unit 347 of the AMVP prediction parameter derivation unit 345 generates a plurality of vector candidates according to a predetermined rule for each prediction unit whose prediction parameter derivation method is AMVP prediction with reference to the prediction parameter memory 362. To do. At this time, the vector candidate derivation unit 347 uses the reference picture index refIdxLX input from the inter prediction parameter extraction unit 343 to generate a prediction image by motion prediction for each prediction unit whose prediction parameter derivation method is AMVP prediction. It is determined whether the prediction unit is a prediction unit to generate or a prediction unit to generate a prediction image by parallax prediction.

具体的には、参照ピクチャインデックスrefIdxLXが、当該予測ユニットが属するピクチャと同じ時刻のピクチャを示しているときは、ベクトル候補導出部347は、該予測ユニットは視差予測により予測画像を生成する予測ユニットであると判定する。また、異なる時刻のピクチャを示しているときは、ベクトル候補導出部347は、該予測ユニットは動き予測により予測画像を生成する予測ユニットであると判定する。ベクトル候補導出部347がベクトル候補を生成する際に用いる規則は、該予測ユニットは動き予測により予測画像を生成する予測ユニットであると判定したときと、視差予測により予測画像を生成する予測ユニットであると判定したときとで変更される。   Specifically, when the reference picture index refIdxLX indicates a picture at the same time as the picture to which the prediction unit belongs, the vector candidate deriving unit 347 generates a prediction image by using the prediction unit based on parallax prediction. It is determined that When a picture at a different time is indicated, the vector candidate deriving unit 347 determines that the prediction unit is a prediction unit that generates a prediction image by motion prediction. The rules used when the vector candidate deriving unit 347 generates vector candidates are the prediction unit that generates a prediction image by parallax prediction when the prediction unit determines that the prediction unit is a prediction unit that generates a prediction image by motion prediction. It is changed when it is determined that there is.

予測ベクトル選択部348は、予測パラメータの導出方法がAMVP予測である予測ユニット各々について、ベクトル候補導出部347が生成した複数のベクトル候補のうち、mvp_LX_idxが示すベクトル候補を、予測ベクトルmvpとする。加算部346は、予測ベクトル選択部348が生成した予測ベクトルmvpと、インター予測パラメータ抽出部343から入力された差分ベクトルmvdLXとを加算して、ベクトルmvLXを生成する。このベクトルmvLXは、インター予測パラメータ抽出部343が抽出した参照ピクチャインデックスrefIdxLXとともに、インター予測画像生成部351と、予測パラメータメモリ362に入力される。   For each prediction unit in which the prediction parameter derivation method is AMVP prediction, the prediction vector selection unit 348 sets the vector candidate indicated by mvp_LX_idx among the plurality of vector candidates generated by the vector candidate derivation unit 347 as the prediction vector mvp. The addition unit 346 adds the prediction vector mvp generated by the prediction vector selection unit 348 and the difference vector mvdLX input from the inter prediction parameter extraction unit 343 to generate a vector mvLX. The vector mvLX is input to the inter predicted image generation unit 351 and the prediction parameter memory 362 together with the reference picture index refIdxLX extracted by the inter prediction parameter extraction unit 343.

図6は、マージ予測パラメータ導出部344の構成を示す概略ブロック図である。マージ予測パラメータ導出部344は、マージ候補導出部371、マージ候補選択部372を含んで構成される。マージ候補導出部371は、マージ候補格納部373、マージ候補導出制御部374、拡張マージ候補導出部375、基本マージ候補導出部376を含んで構成される。拡張マージ候補導出部375は、インタービューマージ候補導出部381、視差ベクトル導出部382を含んで構成される。視差ベクトル導出部382は予備視差ベクトル設定部387、予備視差ベクトル記憶部388を含んで構成される。基本マージ候補導出部376は、空間マージ候補導出部383、時間マージ候補導出部384、結合マージ候補導出部385、ゼロマージ候補導出部386を含んで構成される。   FIG. 6 is a schematic block diagram illustrating a configuration of the merge prediction parameter deriving unit 344. The merge prediction parameter derivation unit 344 includes a merge candidate derivation unit 371 and a merge candidate selection unit 372. The merge candidate derivation unit 371 includes a merge candidate storage unit 373, a merge candidate derivation control unit 374, an extended merge candidate derivation unit 375, and a basic merge candidate derivation unit 376. The extended merge candidate derivation unit 375 includes an inter-view merge candidate derivation unit 381 and a disparity vector derivation unit 382. The disparity vector deriving unit 382 includes a spare disparity vector setting unit 387 and a spare disparity vector storage unit 388. The basic merge candidate derivation unit 376 includes a spatial merge candidate derivation unit 383, a temporal merge candidate derivation unit 384, a combined merge candidate derivation unit 385, and a zero merge candidate derivation unit 386.

視差ベクトル導出部382は、非基準視点画像を復号しているときは、処理対象の予測ユニットに対して隣接する予測ユニットを、予め決められた順番に探索して、視差ベクトルであるベクトルmvLXを有する予測ユニットを検出する。すなわち、隣接予測ユニットの参照ピクチャインデックスrefIdxLXをチェックし、参照ピクチャインデックスrefIdxLXが指し示す参照ピクチャRefPicListX[refIdxLX]のレイヤIDnal_layer_id(ビューIDview_id)が対象ブロックとは異なるレイヤIDnal_layer_id(ビューIDview_id)となる隣接予測ユニットを検出する。ただし、すでに視差ベクトルであるベクトルmvLXを有する隣接予測ユニットが検出されている場合には、以降の隣接予測ユニットでは検出処理を行わない。なお、探索する予測ユニットは処理対象の予測ユニットに対して隣接する予測ユニットに限定されない。例えば、処理対象の予測ユニットが属する符号化ユニット(CU)又は符号化ツリーユニット(CTU)に隣接する予測ユニットでもよい。   When the disparity vector deriving unit 382 is decoding the non-reference viewpoint image, the disparity vector deriving unit 382 searches for a prediction unit adjacent to the processing target prediction unit in a predetermined order, and obtains a vector mvLX that is a disparity vector. The prediction unit having is detected. That is, the reference picture index refIdxLX of the adjacent prediction unit is checked, and the adjacent prediction unit whose layer IDnal_layer_id (view IDview_id) of the reference picture RefPicListX [refIdxLX] indicated by the reference picture index refIdxLX is different from the target block is the layer IDnal_layer_id (view IDview_id) Is detected. However, when an adjacent prediction unit having the vector mvLX that is a disparity vector has already been detected, the subsequent adjacent prediction units do not perform the detection process. Note that the prediction unit to be searched is not limited to the prediction unit adjacent to the processing target prediction unit. For example, a prediction unit adjacent to a coding unit (CU) or a coding tree unit (CTU) to which the prediction unit to be processed belongs may be used.

視差ベクトル導出部382は、探索した予測ユニットに、視差ベクトルであるベクトルmvLXが存在するときは、予測ユニットのベクトルmvLXと参照ピクチャインデックスrefIdxLXを、予測パラメータメモリ362から読み出し、ベクトルmvLXを視差ベクトルmvDispとし、参照ピクチャインデックスrefIdxLXと合わせてインタービューマージ候補導出部381に入力し、視差ベクトルmvDispを予備視差ベクトルmvDDVとして予備視差ベクトル記憶部388に入力し、視差ベクトルmvDispの利用可能性(availableDV)をtrueにする。また、視差ベクトル導出部382は、視差ベクトルmvDispの利用可能性(availableDV)がfalseの場合、すなわち、探索した予測ユニットに、視差ベクトルであるベクトルmvLXを有する予測ユニットが存在しない場合には、予備視差ベクトル記憶部388から読み出した予備視差ベクトルmvDDVを視差ベクトルmvDispとし、当該予測ユニットが属するピクチャと同じ時刻の基準視点画像のピクチャを示す参照ピクチャインデックスrefIdxLXと合わせて、インタービューマージ候補導出部381に入力する。なお、基準視点画像を復号しているときは、視差ベクトル導出部382は動作しない。   The disparity vector deriving unit 382 reads the vector mvLX of the prediction unit and the reference picture index refIdxLX from the prediction parameter memory 362 when the vector mvLX that is the disparity vector exists in the searched prediction unit, and the vector mvLX is read out from the prediction parameter memory 362. And input to the inter-view merge candidate derivation unit 381 together with the reference picture index refIdxLX, input the disparity vector mvDisp as the preliminary disparity vector mvDDV to the preliminary disparity vector storage unit 388, and the availability (availableDV) of the disparity vector mvDisp Set to true. Also, the disparity vector deriving unit 382 reserves a spare when the availability (availableDV) of the disparity vector mvDisp is false, that is, when there is no prediction unit having the vector mvLX that is the disparity vector in the searched prediction unit. The preliminary disparity vector mvDDV read from the disparity vector storage unit 388 is used as the disparity vector mvDisp, and together with the reference picture index refIdxLX indicating the picture of the reference viewpoint image at the same time as the picture to which the prediction unit belongs, the inter-view merge candidate derivation unit 381 To enter. Note that the parallax vector deriving unit 382 does not operate when the reference viewpoint image is decoded.

視差ベクトル導出部382に含まれる予備視差ベクトル設定部387は、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真であり、なお且つ、処理対象の符号化ツリーユニットが符号化ツリーユニット行の先頭の輝度値の符号化ツリーブロックである場合には、次の式のように予備視差ベクトルmvDDVにゼロベクトルを設定し、予備視差ベクトル記憶部388に記憶する。   The preliminary disparity vector setting unit 387 included in the disparity vector deriving unit 382 has the entropy encoding synchronization flag entropy_coding_sync_enabled_flag true, and the encoding tree unit to be processed is the code of the first luminance value of the encoding tree unit row. In the case of a modified tree block, a zero vector is set in the preliminary parallax vector mvDDV as shown in the following equation and stored in the preliminary parallax vector storage unit 388.

mvDDV=(0,0)
上記式は、X成分、Y成分を分けて、mvDDV[0] = 0、mvDDV[1] = 0と表現も可能である。
mvDDV = (0,0)
The above equation can also be expressed as mvDDV [0] = 0 and mvDDV [1] = 0 by dividing the X component and the Y component.

また、処理対象の符号化ツリーユニットがスライス先頭の場合にも、予備視差ベクトルmvDDVにゼロベクトルを設定する。   In addition, even when the encoding tree unit to be processed is the head of the slice, a zero vector is set in the spare disparity vector mvDDV.

インタービューマージ候補導出部381は、視差ベクトル導出部382から入力された視差ベクトルmvDispと参照ピクチャインデックスrefIdxLXを用いて、参照ピクチャインデックスrefIdxLXが示すピクチャの中から、処理対象の予測ユニットに対応する対応予測ユニットを特定し、対応予測ユニットが動きベクトルであるベクトルmvLXを有していれば、該ベクトルmvLXと、該ベクトルmvLXの参照ピクチャインデックスrefIdxLXとを拡張マージ候補として、マージ候補格納部373に格納する。なお、拡張マージ候補は、予測パラメータ候補の一種である。   The inter-view merge candidate derivation unit 381 uses the disparity vector mvDisp input from the disparity vector derivation unit 382 and the reference picture index refIdxLX, and corresponds to the processing target prediction unit from the pictures indicated by the reference picture index refIdxLX. When a prediction unit is specified and the corresponding prediction unit has a vector mvLX that is a motion vector, the vector mvLX and the reference picture index refIdxLX of the vector mvLX are stored in the merge candidate storage unit 373 as extended merge candidates To do. The extended merge candidate is a kind of prediction parameter candidate.

一方、インタービューマージ候補導出部381は、対応予測ユニットが動きベクトルであるベクトルmvLXを有していないときは、視差ベクトル導出部382から入力された視差ベクトルmvDispと、参照ピクチャインデックスrefIdxLXとを拡張マージ候補として導出する。対応予測ユニットが動きベクトルであるベクトルmvLXを有していない例としては、対応予測ユニットが視差予測により予測画像を生成する予測ユニットである場合や、イントラ予測により予測画像を生成する予測ユニットである場合がある。また、インタービューマージ候補導出部381は、基準視点画像を復号しているときは動作しない。   On the other hand, the inter-view merge candidate derivation unit 381 expands the disparity vector mvDisp input from the disparity vector derivation unit 382 and the reference picture index refIdxLX when the corresponding prediction unit does not have the vector mvLX that is a motion vector. Derived as a merge candidate. Examples where the corresponding prediction unit does not have the vector mvLX that is a motion vector include a case where the corresponding prediction unit is a prediction unit that generates a prediction image by parallax prediction, or a prediction unit that generates a prediction image by intra prediction. There is a case. Further, the inter-view merge candidate derivation unit 381 does not operate when the reference viewpoint image is being decoded.

マージ候補導出制御部374は、基本マージ候補が所定の数(ここでは5つ)得られるように、空間マージ候補導出部383、時間マージ候補導出部384、結合マージ候補導出部385、ゼロマージ候補導出部386の動作を制御する。なお、基本マージ候補は、予測パラメータ候補の一種である。   The merge candidate derivation control unit 374 has a spatial merge candidate derivation unit 383, a temporal merge candidate derivation unit 384, a combined merge candidate derivation unit 385, and a zero merge candidate derivation so that a predetermined number (here, five) of basic merge candidates can be obtained. The operation of the unit 386 is controlled. The basic merge candidate is a kind of prediction parameter candidate.

空間マージ候補導出部383は、処理対象の予測ユニットに対して隣接する隣接予測ユニットを、予め決められた順番に探索して、ベクトルmvLXを有する予測ユニットを、最大4個まで検出する。空間マージ候補導出部383は、検出した予測ユニットのベクトルmvLXと、参照ピクチャインデックスrefIdxLXとを、基本マージ候補の一種である空間マージ候補として、マージ候補格納部373に格納する。   The spatial merge candidate derivation unit 383 searches for adjacent prediction units adjacent to the processing target prediction unit in a predetermined order, and detects up to four prediction units having the vector mvLX. The spatial merge candidate derivation unit 383 stores the detected prediction unit vector mvLX and the reference picture index refIdxLX in the merge candidate storage unit 373 as a spatial merge candidate that is a kind of basic merge candidate.

時間マージ候補導出部384は、参照ピクチャインデックスrefIdxLXの値が「0」であるピクチャにおいて、処理対象の予測ユニットの右下端に隣接する予測ユニット、処理対象の予測ユニットの中心を含む予測ユニットの順番に探索して、ベクトルmvLXを有する予測ユニットを、最大1個まで検出する。時間マージ候補導出部384は、検出した予測ユニットのベクトルmvLXと、参照ピクチャインデックスrefIdxLXとを、基本マージ候補の一種である時間マージ候補として、マージ候補格納部373に格納する。   The temporal merge candidate derivation unit 384 performs the order of the prediction unit including the prediction unit adjacent to the lower right end of the processing target prediction unit and the center of the processing target prediction unit in the picture whose reference picture index refIdxLX is “0”. And a maximum of one prediction unit having the vector mvLX is detected. The temporal merge candidate derivation unit 384 stores the detected prediction unit vector mvLX and the reference picture index refIdxLX in the merge candidate storage unit 373 as a temporal merge candidate which is a kind of basic merge candidate.

結合マージ候補導出部385は、空間マージ候補導出部383と時間マージ候補導出部384とがマージ候補格納部373に格納した基本マージ候補の数が5個に満たないときは、格納されている基本マージ候補を予め決められた方法で結合して、新たな基本マージ候補を生成し、マージ候補格納部373に格納する。   The merge merge candidate derivation unit 385, when the number of basic merge candidates stored in the merge candidate storage unit 373 by the spatial merge candidate derivation unit 383 and the temporal merge candidate derivation unit 384 is less than five, The merge candidates are combined by a predetermined method to generate a new basic merge candidate and stored in the merge candidate storage unit 373.

ゼロマージ候補導出部386は、空間マージ候補導出部383と時間マージ候補導出部384と結合マージ候補導出部385とがマージ候補格納部373に格納した基本マージ候補の数が5個に満たないときは、基本マージ候補が5個となるように、ゼロベクトルを基本マージ候補としてマージ候補格納部373に格納する。   When the number of basic merge candidates stored in the merge candidate storage unit 373 by the spatial merge candidate derivation unit 383, the temporal merge candidate derivation unit 384, and the merge merge candidate derivation unit 385 is less than five, The zero vectors are stored in the merge candidate storage unit 373 as basic merge candidates so that there are five basic merge candidates.

マージ候補格納部373は、基本マージ候補導出部376が生成した基本マージ候補と、拡張マージ候補導出部375が生成した拡張マージ候補とを記憶する。   The merge candidate storage unit 373 stores the basic merge candidate generated by the basic merge candidate derivation unit 376 and the extended merge candidate generated by the extended merge candidate derivation unit 375.

マージ候補選択部372は、マージ候補格納部373が記憶する基本マージ候補と拡張マージ候補との中から、インター予測パラメータ抽出部343から入力されたマージインデックスmerge_idxが指定するものを選択し、ベクトルmvLXと参照ピクチャインデックスrefIdxLXとして、インター予測画像生成部351および予測パラメータメモリ362に入力する。   The merge candidate selection unit 372 selects the one specified by the merge index merge_idx input from the inter prediction parameter extraction unit 343 from the basic merge candidates and the extended merge candidates stored in the merge candidate storage unit 373, and the vector mvLX And the reference picture index refIdxLX are input to the inter predicted image generation unit 351 and the prediction parameter memory 362.

図7は、空間マージ候補導出部383が探索する隣接予測ユニットの位置を説明する図である。図7において、予測ユニットPU1は、処理対象の予測ユニットである。予測ユニットA、A、B、B、Bは、空間マージ候補導出部383が探索する隣接予測ユニットである。図7に示すように、隣接予測ユニットAは、処理対象の予測ユニットPU1の左下に隣接する予測ユニットである。隣接予測ユニットAは、処理対象の予測ユニットPU1の左に隣接する予測ユニットのうち、最も下に位置する予測ユニットである。 FIG. 7 is a diagram for explaining the positions of adjacent prediction units searched by the spatial merge candidate derivation unit 383. In FIG. 7, the prediction unit PU1 is a prediction unit to be processed. The prediction units A 0 , A 1 , B 0 , B 1 , B 2 are adjacent prediction units searched by the spatial merge candidate derivation unit 383. As shown in FIG. 7, adjacent prediction unit A 0 is a prediction unit adjacent to the lower left of the prediction unit PU1 to be processed. Adjacent prediction unit A 1, of the prediction unit adjacent to the left of the prediction unit PU1 to be processed, a prediction unit located at the bottom.

隣接予測ユニットBは、処理対象の予測ユニットPU1の右上に隣接する予測ユニットである。隣接予測ユニットBは、処理対象の予測ユニットPU1の上に隣接する予測ユニットのうち、最も右に位置する予測ユニットである。隣接予測ユニットBは、処理対象の予測ユニットPU1の左上に隣接する予測ユニットである。本実施形態では、空間マージ候補導出部383が探索する順番は、隣接予測ユニットA、B、B、A、Bの順であるが、この他の順であってもよい。なお、処理対象の予測ユニットPU1が符号化ツリーブロックの上端にあるときは、隣接予測ユニットA、A、B、B、Bのうち、隣接予測ユニットB、B、Bが、該符号化ツリーブロックより上側にある予測ユニットである。 Adjacent prediction unit B 0 is a prediction unit adjacent to the upper right of the prediction unit PU1 to be processed. Adjacent prediction unit B 1 represents, among the prediction unit adjacent to the top of the prediction unit PU1 to be processed, a prediction unit located rightmost. Adjacent prediction unit B 2 is a prediction unit adjacent to the top left of the prediction unit PU1 to be processed. In this embodiment, the search order of the spatial merge candidate derivation unit 383 is the order of the adjacent prediction units A 1 , B 1 , B 0 , A 0 , B 2 , but other orders may be used. It should be noted that when the prediction unit PU1 to be processed is in the upper end of the coding tree block, of the adjacent prediction unit A 0, A 1, B 0, B 1, B 2, adjacent prediction unit B 0, B 1, B 2 is a prediction unit above the coding tree block.

なお、処理対象の予測ユニットPU1の左上端の画素の座標を(xP,yP)とし、幅をnPbW、高さをnPbHとしたとき、隣接予測ユニットA、A、B、B、Bは、それぞれ下記の座標を含む予測ユニットである。 When the coordinates of the upper left pixel of the prediction unit PU1 to be processed are (xP, yP), the width is nPbW, and the height is nPbH, the adjacent prediction units A 0 , A 1 , B 0 , B 1 , B 2 is a prediction unit that includes the following coordinates.

隣接予測ユニットA:(xP−1,yP+nPbH)
隣接予測ユニットA:(xP−1,yP+nPbH−1)
隣接予測ユニットB:(xP+nPbW,yP−1)
隣接予測ユニットB:(xP+nPbW−1,yP−1)
隣接予測ユニットB:(xP−1,yP−1)
なお、視差ベクトル導出部382における探索対象は、空間マージ候補導出部383と同様の隣接予測ユニットに限定されない。例えば、処理対象の予測ユニットが属する符号化ユニットCUに隣接する予測ユニットを探索してもよい。符号化ユニットに隣接する予測ユニットを探索する場合、処理対象の予測ユニットの属する符号化ユニットCUの左上端の画素の座標を(xC,yC)とし、符号化ユニットのサイズをnCSとしたとき、隣接予測ユニットA、A、B、B、Bは、それぞれ下記の座標を含む予測ユニットである。
Adjacent prediction unit A 0 : (xP-1, yP + nPbH)
Adjacent prediction unit A 1 : (xP-1, yP + nPbH-1)
Adjacent prediction unit B 0 : (xP + nPbW, yP−1)
Adjacent prediction unit B 1 : (xP + nPbW−1, yP−1)
Adjacent prediction unit B 2: (xP-1, yP-1)
Note that the search target in the disparity vector deriving unit 382 is not limited to the adjacent prediction unit similar to the spatial merge candidate deriving unit 383. For example, a prediction unit adjacent to the coding unit CU to which the processing target prediction unit belongs may be searched. When searching for a prediction unit adjacent to the encoding unit, when the coordinates of the upper left pixel of the encoding unit CU to which the prediction unit to be processed belongs is (xC, yC) and the size of the encoding unit is nCS, Adjacent prediction units A 0 , A 1 , B 0 , B 1 , B 2 are prediction units each including the following coordinates.

隣接予測ユニットA:(xC−1,yC+nCS)
隣接予測ユニットA:(xC−1,yC+nCS−1)
隣接予測ユニットB:(xC+nCS,yC−1)
隣接予測ユニットB:(xC+nCS−1,yC−1)
隣接予測ユニットB:(xC−1,yC−1)
図8は、時間マージ候補導出部384が探索する予測ユニットを説明する図である。図8において、ピクチャpic1は、参照ピクチャインデックスrefIdxLXの値が「0」であるピクチャである。ブロックPU1’は、ピクチャpic1における、処理対象の予測ユニットPU1と座標が同じ領域である。予測ユニットCenterは、ピクチャpic1における、予測ユニットPU1の中心座標を含む予測ユニットである。予測ユニットRBは、ブロックPU1’の右下端に隣接する予測ユニットである。なお、予測ユニットRBは、処理対象の予測ユニットPU1の左上端の画素の座標を(xP,yP)とし、幅をnPbW、高さをnPbHとしたとき、座標(xP+nPbW,yP+nPbH)を含む予測ユニットである。
Adjacent prediction unit A 0 : (xC-1, yC + nCS)
Adjacent prediction unit A 1 : (xC-1, yC + nCS-1)
Adjacent prediction unit B 0 : (xC + nCS, yC−1)
Adjacent prediction unit B 1 : (xC + nCS−1, yC−1)
Adjacent prediction unit B 2: (xC-1, yC-1)
FIG. 8 is a diagram for explaining the prediction unit searched by the temporal merge candidate derivation unit 384. In FIG. 8, a picture pic1 is a picture whose reference picture index refIdxLX has a value of “0”. The block PU1 ′ is an area having the same coordinates as the processing target prediction unit PU1 in the picture pic1. The prediction unit Center is a prediction unit including the center coordinates of the prediction unit PU1 in the picture pic1. The prediction unit RB is a prediction unit adjacent to the lower right end of the block PU1 ′. The prediction unit RB includes coordinates (xP + nPbW, yP + nPbH) where the coordinates of the upper left pixel of the processing target prediction unit PU1 are (xP, yP), the width is nPbW, and the height is nPbH. It is.

図9、図10は、インタービューマージ候補導出部381の動作を説明する概念図である。図9において、ピクチャpic2は、処理対象のピクチャである。予測ユニットPU1は、処理対象の予測ユニットである。点Ctは、予測ユニットPU1の中心である。予測ユニットA、A、B、B、Bは、図7‘で示した隣接予測ユニットである。視差ベクトルDvは、隣接予測ユニットBの視差ベクトルであるベクトルmvLXである。図10において、ピクチャpic3は、視差ベクトルDvが参照する参照ピクチャである。点Ct’は、点Ctと同じ座標の点である。予測ユニットPU2は、点Ctを起点としたときに、視差ベクトルDvが示す点を含む予測ユニットである。動きベクトルMvは、予測ユニットPU2の動きベクトルであるベクトルmvLXである。インタービューマージ候補導出部381は、視差ベクトル導出部382から図9に示す視差ベクトルDvを入力されると、予測ユニットPU2を対応予測ユニットとして特定し、動きベクトルMvを拡張マージ候補とする。 9 and 10 are conceptual diagrams illustrating the operation of the inter-view merge candidate derivation unit 381. In FIG. 9, a picture pic2 is a picture to be processed. The prediction unit PU1 is a processing target prediction unit. The point Ct is the center of the prediction unit PU1. Prediction units A 0 , A 1 , B 0 , B 1 , B 2 are adjacent prediction units shown in FIG. 7 ′. Disparity vector Dv is a vector mvLX a disparity vector of the neighboring prediction unit B 0. In FIG. 10, a picture pic3 is a reference picture to which the disparity vector Dv refers. The point Ct ′ is a point having the same coordinates as the point Ct. The prediction unit PU2 is a prediction unit including a point indicated by the disparity vector Dv when the point Ct is the starting point. The motion vector Mv is a vector mvLX that is a motion vector of the prediction unit PU2. When the disparity vector derivation unit 382 receives the disparity vector Dv shown in FIG. 9 from the disparity vector derivation unit 382, the inter-view merge candidate derivation unit 381 identifies the prediction unit PU2 as a corresponding prediction unit and sets the motion vector Mv as an extended merge candidate.

図12、マージ予測パラメータ導出部344の動作を説明するフローチャートである。マージ予測パラメータ導出部344は、ピクチャ内の符号化ツリーユニットCTUを、ラスタースキャン順に処理する処理の中で、各符号化ツリーユニットCTUに含まれる符号化ユニットCU内の各予測ユニットPUのマージ候補を導出する。具体的には、ステップSz1とステップSz5の間をCTUループとして、各CTUに対して、ステップSz2からステップSz4の処理を行う(Sz1、Sz5)。マージ予測パラメータ導出部344に含まれる予備視差ベクトル設定部387は、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真であり、なお且つ、処理対象の符号化ツリーユニットが符号化ツリーユニット行の先頭の輝度値の符号化ツリーブロックである場合には(Sz2−Yes)、予備視差ベクトルmvDDVにゼロベクトルを設定する(Sz3)。次に、マージ予測パラメータ導出部344は、符号化ツリーユニットCTUに含まれる各符号化ユニットCU内の各予測ユニットPU単位でマージ候補を導出する(Sz4)。導出方法の詳細な説明は後述する。   FIG. 12 is a flowchart for explaining the operation of the merge prediction parameter deriving unit 344. The merge prediction parameter deriving unit 344 merges candidates for each prediction unit PU in the coding unit CU included in each coding tree unit CTU in the process of processing the coding tree units CTU in the picture in the raster scan order. Is derived. Specifically, the process from step Sz2 to step Sz4 is performed on each CTU with the interval between step Sz1 and step Sz5 as a CTU loop (Sz1, Sz5). The spare disparity vector setting unit 387 included in the merge prediction parameter derivation unit 344 has an entropy encoding synchronization flag entropy_coding_sync_enabled_flag that is true, and the encoding tree unit to be processed has the luminance value at the head of the encoding tree unit row. If it is an encoded tree block (Sz2-Yes), a zero vector is set to the preliminary disparity vector mvDDV (Sz3). Next, the merge prediction parameter deriving unit 344 derives merge candidates for each prediction unit PU in each coding unit CU included in the coding tree unit CTU (Sz4). A detailed description of the derivation method will be described later.

図13は、図12のステップSc5を説明するフローチャートである。マージ候補選択部372は、インター予測パラメータ抽出部343が抽出したマージインデックスmerge_idxを取得する(Sa1)。マージ候補導出制御部374は、復号の対象となっている視点画像が非基準視点画像か否かを判定する(Sa2)。非基準視点画像であるときは(Sa2−Yes)、マージ候補導出制御部374は、拡張マージ候補導出部375に拡張マージ候補の導出を指示する。拡張マージ候補導出部375は、該指示を受けると、拡張マージ候補を導出し、マージ候補格納部373に格納する(Sa3)。   FIG. 13 is a flowchart for explaining step Sc5 in FIG. The merge candidate selection unit 372 acquires the merge index merge_idx extracted by the inter prediction parameter extraction unit 343 (Sa1). The merge candidate derivation control unit 374 determines whether or not the viewpoint image to be decoded is a non-reference viewpoint image (Sa2). When the image is a non-reference viewpoint image (Sa2-Yes), the merge candidate derivation control unit 374 instructs the extended merge candidate derivation unit 375 to derive the extended merge candidate. Upon receiving the instruction, the extended merge candidate derivation unit 375 derives an extended merge candidate and stores it in the merge candidate storage unit 373 (Sa3).

ステップSa2にて非基準視点画像でないと判定したとき(Sa2−No)あるいはステップSa3の処理後に、マージ候補導出制御部374は、空間マージ候補導出部383に、空間マージ候補の導出を指示する。空間マージ候補導出部383は、該指示を受けると、空間マージ候補を導出し、マージ候補格納部373に格納する(Sa4)。次に、マージ候補導出制御部374は、時間マージ候補導出部384に、時間マージ候補の導出を指示する。時間マージ候補導出部384は、該指示を受けると、時間マージ候補を導出し、マージ候補格納部373に格納する(Sa5)。   When it is determined in step Sa2 that the image is not a non-reference viewpoint image (Sa2-No) or after the processing in step Sa3, the merge candidate derivation control unit 374 instructs the spatial merge candidate derivation unit 383 to derive a spatial merge candidate. Upon receiving the instruction, the spatial merge candidate derivation unit 383 derives a spatial merge candidate and stores it in the merge candidate storage unit 373 (Sa4). Next, the merge candidate derivation control unit 374 instructs the time merge candidate derivation unit 384 to derive the time merge candidate. Upon receiving the instruction, the time merge candidate derivation unit 384 derives a time merge candidate and stores it in the merge candidate storage unit 373 (Sa5).

次に、マージ候補導出制御部374は、マージ候補格納部373に格納された予測パラメータ候補(マージ候補)を参照し、格納されているもの同士で一致しているときは、一方を削除する(Sa6)。次に、マージ候補導出制御部374は、マージ候補格納部373に格納された予測パラメータ候補の数が予め決められた閾値未満か否かを判定する(Sa7)。閾値未満であるときは(Sa7−Yes)、マージ候補導出制御部374は、結合マージ候補導出部385に、結合マージ候補の導出を指示する。結合マージ候補導出部385は、該指示を受けると、結合マージ候補を導出し、マージ候補格納部373に格納する(Sa8)。   Next, the merge candidate derivation control unit 374 refers to the prediction parameter candidates (merge candidates) stored in the merge candidate storage unit 373, and deletes one of them when the stored ones match ( Sa6). Next, the merge candidate derivation control unit 374 determines whether the number of prediction parameter candidates stored in the merge candidate storage unit 373 is less than a predetermined threshold (Sa7). When it is less than the threshold (Sa7-Yes), the merge candidate derivation control unit 374 instructs the merge merge candidate derivation unit 385 to derive merge merge candidates. Upon receiving the instruction, the merge merge candidate derivation unit 385 derives a merge merge candidate and stores it in the merge candidate storage unit 373 (Sa8).

次に、マージ候補導出制御部374は、再度、マージ候補格納部373に格納された予測パラメータ候補の数が予め決められた閾値未満か否かを判定する(Sa9)。閾値未満であるときは(Sa9−Yes)、マージ候補導出制御部374は、ゼロマージ候補導出部386に、ゼロマージ候補の導出を指示する。ゼロマージ候補導出部386は、該指示を受けると、予測パラメータ候補の数が閾値と同じになるまで、ゼロマージ候補を導出し、マージ候補格納部373に格納する(Sa10)。   Next, the merge candidate derivation control unit 374 determines again whether the number of prediction parameter candidates stored in the merge candidate storage unit 373 is less than a predetermined threshold (Sa9). When it is less than the threshold (Sa9-Yes), the merge candidate derivation control unit 374 instructs the zero merge candidate derivation unit 386 to derive the zero merge candidate. When receiving the instruction, the zero merge candidate derivation unit 386 derives zero merge candidates and stores them in the merge candidate storage unit 373 until the number of prediction parameter candidates becomes equal to the threshold value (Sa10).

ステップSa7、Sa9にて予測パラメータ候補の数が予め決められた閾値未満でないと判定したとき(Sa7−No、Sa9−No)あるいはステップSa10の処理後に、マージ候補選択部372は、マージ候補格納部373に格納されている予測パラメータ候補の中から、ステップSa1にて取得したマージインデックスmerge_idxにより指定されている予測パラメータ候補を選択する(Sa11)。次に、マージ候補選択部372は、ベクトルmvLX、参照ピクチャインデックスrefIdxLXなどの予測パラメータを出力し(Sa15)、処理を終了する。   When it is determined in steps Sa7 and Sa9 that the number of prediction parameter candidates is not less than a predetermined threshold (Sa7-No, Sa9-No) or after the processing of step Sa10, the merge candidate selection unit 372 includes a merge candidate storage unit. A prediction parameter candidate designated by the merge index merge_idx acquired in step Sa1 is selected from the prediction parameter candidates stored in 373 (Sa11). Next, the merge candidate selection unit 372 outputs prediction parameters such as the vector mvLX and the reference picture index refIdxLX (Sa15), and ends the process.

図14は、図13のステップSa3における処理を説明するフローチャートである。拡張マージ候補導出部375の視差ベクトル導出部382は、視差ベクトルmvDispを導出する(Sb1)。詳細な導出方法は後述する。インタービューマージ候補導出部381は、導出した視差ベクトルmvDispを用いて、処理対象の予測ユニットの対応予測ユニットを特定する(Sb3)。インタービューマージ候補導出部381は、対応予測ユニットに動きベクトルが在るか否かを判定する(Sb4)。動きベクトルが在るときは(Sb4−Yes)、インタービューマージ候補導出部381は、該動きベクトルを拡張マージ候補として、マージ候補格納部373に格納し(Sb5)、処理を終了する。一方、ステップSb4にて、動きベクトルがないと判定したときは(Sb4−No)、インタービューマージ候補導出部381は、ステップSb1にて取得した視差ベクトルmvDispを拡張マージ候補として、マージ候補格納部373に格納し(Sb6)、処理を終了する。   FIG. 14 is a flowchart for explaining the processing in step Sa3 in FIG. The disparity vector derivation unit 382 of the extended merge candidate derivation unit 375 derives the disparity vector mvDisp (Sb1). A detailed derivation method will be described later. The inter-view merge candidate derivation unit 381 identifies the corresponding prediction unit of the prediction unit to be processed using the derived disparity vector mvDisp (Sb3). The inter-view merge candidate derivation unit 381 determines whether or not there is a motion vector in the corresponding prediction unit (Sb4). When there is a motion vector (Sb4-Yes), the inter-view merge candidate derivation unit 381 stores the motion vector as an extended merge candidate in the merge candidate storage unit 373 (Sb5), and ends the process. On the other hand, when it is determined in step Sb4 that there is no motion vector (Sb4-No), the inter-view merge candidate derivation unit 381 uses the disparity vector mvDisp acquired in step Sb1 as an extended merge candidate, and a merge candidate storage unit The data is stored in 373 (Sb6), and the process ends.

図15は、図14のステップSb1における処理を説明するフローチャートである。視差ベクトル導出部382は、処理対象のブロック、例えば、処理対象の予測ユニットや処理対象の予測ユニットが含まれる符号化ユニット、の隣接予測ユニットA、B、B、A、Bの順に、各々について、ステップSc2からステップSc6の処理を行う(Sc1、Sc7)。ステップSc2では、視差ベクトル導出部382は、視差ベクトルmvDispが利用可能であることを示すavailableDVがfalseか否かを判定する。availableDVがtrueの場合は(ステップSc2−No)、ステップSc7に遷移し、次の隣接予測ユニットを対象に設定し、ステップSc2に戻る。一方、availableDVがfalseの場合は(ステップSc2−Yes)、ステップSc3に遷移し、視差ベクトル導出部382は、対象の隣接予測ユニットの予測パラメータを、予測パラメータメモリ362から取得する。次に、視差ベクトル導出部382は、対象の隣接予測ユニットに視差ベクトルであるベクトルmvLXが在るか否かを判定する(Sc4)。視差ベクトルであるベクトルmvLXが在るときは(Sc4−Yes)、ステップSc5に遷移し、視差ベクトル導出部382は、該ベクトルmvLXを、導出した視差ベクトルmvDispとして設定し(Sc5)、availableDVをtrueにする(ステップSc6)。一方、ステップSc3にて、視差ベクトルが無いと判定したときは(Sc4−No)、ステップSc7に遷移して、次の隣接予測ユニットを対象に設定し、ステップSc2に戻る。 FIG. 15 is a flowchart for explaining the processing in step Sb1 of FIG. The disparity vector deriving unit 382 includes adjacent prediction units A 1 , B 1 , B 0 , A 0 , B 2 of a processing target block, for example, a processing unit prediction unit or a coding unit including the processing target prediction unit. In this order, the processes from Step Sc2 to Step Sc6 are performed (Sc1, Sc7). In step Sc2, the disparity vector deriving unit 382 determines whether or not availableDV indicating that the disparity vector mvDisp is available is false. When availableDV is true (step Sc2-No), the process proceeds to step Sc7, the next adjacent prediction unit is set as a target, and the process returns to step Sc2. On the other hand, when availableDV is false (step Sc2-Yes), the process proceeds to step Sc3, and the disparity vector deriving unit 382 acquires the prediction parameter of the target adjacent prediction unit from the prediction parameter memory 362. Next, the disparity vector deriving unit 382 determines whether or not the vector mvLX that is a disparity vector exists in the target adjacent prediction unit (Sc4). When there is a vector mvLX that is a disparity vector (Sc4-Yes), the process proceeds to step Sc5, and the disparity vector deriving unit 382 sets the vector mvLX as the derived disparity vector mvDisp (Sc5), and availableDV is true. (Step Sc6). On the other hand, when it is determined in step Sc3 that there is no disparity vector (Sc4-No), the process proceeds to step Sc7, the next adjacent prediction unit is set as a target, and the process returns to step Sc2.

全ての隣接予測ユニットについて、ステップSc2からステップSc6の処理を行った後は、ステップSc8に遷移して、視差ベクトル導出部382は、availableDVがfalseか否かを判定する。availableDVがfalseの場合は(ステップSc8−Yes)、ステップSc9に遷移し、予備視差ベクトルmvDDVを、視差ベクトルmvDispとして設定し、availableDVをtrueにし(ステップSc10)、処理を終了する。一方、availableDVがtrueの場合は(ステップSc8−No)、ステップSc11に遷移し、予備視差ベクトル設定部387は、視差ベクトルmvDispを予備視差ベクトルmvDDVとして予測パラメータメモリ362に記憶させ(Sc6)、処理を終了する。   After performing the processing from step Sc2 to step Sc6 for all adjacent prediction units, the process proceeds to step Sc8, and the disparity vector deriving unit 382 determines whether availableDV is false. When availableDV is false (step Sc8-Yes), the process proceeds to step Sc9, the spare disparity vector mvDDV is set as the disparity vector mvDisp, availableDV is set to true (step Sc10), and the process ends. On the other hand, when availableDV is true (step Sc8-No), the process proceeds to step Sc11, and the spare parallax vector setting unit 387 stores the parallax vector mvDisp as the spare parallax vector mvDDV in the prediction parameter memory 362 (Sc6). Exit.

このように、本実施形態における視差ベクトル導出部382は、予備視差ベクトルmvDDVとして、符号化ツリーユニット行の先頭の輝度信号の符号化ツリーブロックにおいてゼロベクトルを設定することで、WPPによる並列復号と、予備視差ベクトルmvDDVを用いた拡張マージ候補導出処理を両立することが可能となる。   As described above, the disparity vector deriving unit 382 in the present embodiment sets the zero vector in the coding tree block of the luminance signal at the head of the coding tree unit row as the spare disparity vector mvDDV, thereby performing parallel decoding by WPP. Thus, it is possible to achieve both extended merge candidate derivation processing using the preliminary disparity vector mvDDV.

図16は、画像符号化装置100の構成を示す概略ブロック図である。画像符号化装置100は、減算部101、DCT変換・量子化部102、エントロピー符号化部103、逆量子化・逆DCT変換部302、加算部104、予測画像生成部305、参照画像メモリ306、予測パラメータ決定部105、予測パラメータ符号化部106を含んで構成される。予測パラメータ符号化部106は、インター予測パラメータ符号化部161と、イントラ予測パラメータ符号化部162とを含んで構成される。逆量子化・逆DCT変換部302、予測画像生成部305および参照画像メモリ306は、図14における逆量子化・逆DCT変換部302、予測画像生成部305および参照画像メモリ306と同様であるので、説明を省略する。   FIG. 16 is a schematic block diagram illustrating a configuration of the image encoding device 100. The image encoding device 100 includes a subtraction unit 101, a DCT transform / quantization unit 102, an entropy encoding unit 103, an inverse quantization / inverse DCT transform unit 302, an addition unit 104, a predicted image generation unit 305, a reference image memory 306, A prediction parameter determination unit 105 and a prediction parameter encoding unit 106 are included. The prediction parameter encoding unit 106 includes an inter prediction parameter encoding unit 161 and an intra prediction parameter encoding unit 162. The inverse quantization / inverse DCT transform unit 302, the predicted image generation unit 305, and the reference image memory 306 are the same as the inverse quantization / inverse DCT transform unit 302, the predicted image generation unit 305, and the reference image memory 306 in FIG. The description is omitted.

減算部101は、視点画像Tの各ピクチャと、予測画像生成部305が生成した予測画像Pとの差を算出し、残差信号として、DCT変換・量子化部102に入力する。DCT変換・量子化部102は、残差信号をDCT変換して、DCT係数を算出する。DCT変換・量子化部102は、算出したDCT係数を量子化して、量子化係数を算出し、エントロピー符号化部103と逆量子化・逆DCT変換部302とに入力する。   The subtraction unit 101 calculates a difference between each picture of the viewpoint image T and the predicted image P generated by the predicted image generation unit 305, and inputs the difference to the DCT transform / quantization unit 102 as a residual signal. The DCT transform / quantization unit 102 performs DCT transform on the residual signal and calculates DCT coefficients. The DCT transform / quantization unit 102 quantizes the calculated DCT coefficient, calculates the quantized coefficient, and inputs the quantized coefficient to the entropy coding unit 103 and the inverse quantization / inverse DCT transform unit 302.

エントロピー符号化部103は、DCT変換・量子化部102が算出した量子化係数や、予測パラメータ符号化部106が生成した伝送予測パラメータ、画像符号化装置100の外部から入力されるエントロピー符号化同期フラグentropy_coding_sync_enabled_flagなどを、エントロピー符号化して符号化ストリームTeを生成する。エントロピー符号化部103は、エントロピー符号化した符号化ストリームTeの符号量(例えば、1ピクチャ当たりのバイト数)を算出し、予測パラメータ決定部105に入力する。加算部104は、逆量子化・DCT変換部302が生成した差分画像と、予測画像生成部305が生成した予測画像Pとを加算して、参照画像を生成し、参照画像メモリ306に記憶させる。   The entropy encoding unit 103 is a quantization coefficient calculated by the DCT transform / quantization unit 102, a transmission prediction parameter generated by the prediction parameter encoding unit 106, and entropy encoding synchronization input from the outside of the image encoding device 100. A flag entropy_coding_sync_enabled_flag or the like is entropy encoded to generate an encoded stream Te. The entropy encoding unit 103 calculates the code amount (for example, the number of bytes per picture) of the encoded stream Te that has been entropy encoded, and inputs the code amount to the prediction parameter determination unit 105. The addition unit 104 adds the difference image generated by the inverse quantization / DCT conversion unit 302 and the predicted image P generated by the predicted image generation unit 305 to generate a reference image and stores it in the reference image memory 306. .

予測パラメータ決定部105は、伝送予測パラメータtpを決定し、予測パラメータ符号化部106、エントロピー符号化部103に入力する。予測パラメータ決定部105は、例えば、様々な伝送予測パラメータtpの値で試行し、エントロピー符号化部103が算出する符号化ストリームTeの符号量が最も小さくなる値を、伝送予測パラメータtpとする。   The prediction parameter determination unit 105 determines the transmission prediction parameter tp and inputs it to the prediction parameter encoding unit 106 and the entropy encoding unit 103. For example, the prediction parameter determination unit 105 tries with various values of the transmission prediction parameter tp, and sets the value with the smallest code amount of the encoded stream Te calculated by the entropy encoding unit 103 as the transmission prediction parameter tp.

インター予測パラメータ符号化部161は、図4のインター予測パラメータ復号部341と同様の構成である。イントラ予測パラメータ符号化部162は、図4のイントラ予測パラメータ復号部342と同様の構成である。   The inter prediction parameter encoding unit 161 has the same configuration as the inter prediction parameter decoding unit 341 in FIG. The intra prediction parameter encoding unit 162 has the same configuration as the intra prediction parameter decoding unit 342 of FIG.

このため、画像符号化装置100においても、処理対象の符号化ツリーユニットが符号化ツリーユニット行の先頭の輝度値の符号化ツリーブロックのであるときは、予備視差ベクトルmvDDVとしてゼロベクトルを設定するので、WPPによる並列符号化と、予備視差ベクトルmvDDVを用いた拡張マージ候補導出処理を両立することが可能となる。   For this reason, also in the image coding apparatus 100, when the coding tree unit to be processed is the coding tree block of the first luminance value in the coding tree unit row, the zero vector is set as the preliminary parallax vector mvDDV. , WPP parallel encoding and extended merge candidate derivation processing using the preliminary disparity vector mvDDV can be made compatible.

[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態について説明する。本実施形態による画像伝送システム10aは、図1の画像伝送システム10と同様の構成であるが、画像符号化装置100、画像復号装置300に変えて、画像符号化装置100a、画像復号装置300aを有している点のみが異なる。画像符号化装置100aおよび画像復号装置300aは、マージ予測パラメータ導出部344に変えて、マージ予測パラメータ導出部344aを有している点が異なる。
[Second Embodiment]
The second embodiment of the present invention will be described below with reference to the drawings. The image transmission system 10a according to the present embodiment has the same configuration as that of the image transmission system 10 in FIG. 1, but instead of the image encoding device 100 and the image decoding device 300, an image encoding device 100a and an image decoding device 300a are used. The only difference is that it has. The image encoding device 100a and the image decoding device 300a are different in that they include a merge prediction parameter deriving unit 344a instead of the merge prediction parameter deriving unit 344.

本実施形態におけるマージ予測パラメータ導出部344aは、マージ予測パラメータ導出部344に対して、予備視差ベクトルmvDDVの初期値としてゼロベクトルではなく、処理対象の符号化ツリーユニットの1行上の符号化ツリーユニット行の処理において導出された予備視差ベクトルである保持視差ベクトルmvDDVWppを用いる点が異なる。これにより、各符号化ツリーユニット行の先頭において、予備視差ベクトルmvDDVを初期化する際に、ゼロベクトルより適当な視差ベクトルが予備視差ベクトルmvDDVの初期値として設定されるため、符号化効率が向上するという効果を奏する。   The merge prediction parameter deriving unit 344a in the present embodiment is not the zero vector as the initial value of the preliminary parallax vector mvDDV, but the coding tree on one row of the coding tree unit to be processed, with respect to the merge prediction parameter deriving unit 344. The difference is that a retained disparity vector mvDDVWpp, which is a preliminary disparity vector derived in the unit row processing, is used. As a result, when the preliminary disparity vector mvDDV is initialized at the head of each coding tree unit row, a more appropriate disparity vector than the zero vector is set as the initial value of the preliminary disparity vector mvDDV, thereby improving the encoding efficiency. The effect of doing.

図17は、マージ予測パラメータ導出部344aの構成を示す概略ブロック図である。マージ予測パラメータ導出部344aは、図6のマージ予測パラメータ導出部344と、拡張マージ候補導出部375に代えて、拡張マージ候補導出部375aを有している点のみが異なる。拡張マージ候補導出部375aは、拡張マージ候補導出部375と、視差ベクトル導出部382に代えて、視差ベクトル導出部382aを有している点のみが異なる。視差ベクトル導出部382aは、視差ベクトル導出部382とは、予備視差ベクトル設定部387及び予備視差ベクトル記憶部388に代えて、予備視差ベクトル設定部387a及び予備視差ベクトル記憶部388aを有する点が異なる。   FIG. 17 is a schematic block diagram illustrating a configuration of the merge prediction parameter deriving unit 344a. The merge prediction parameter deriving unit 344a is different from the merge prediction parameter deriving unit 344 of FIG. 6 in that an extended merge candidate deriving unit 375a is provided instead of the extended merge candidate deriving unit 375. The extended merge candidate derivation unit 375a is different from the extended merge candidate derivation unit 375 only in that a disparity vector derivation unit 382a is provided instead of the disparity vector derivation unit 382. The disparity vector deriving unit 382a differs from the disparity vector deriving unit 382 in that it has a spare disparity vector setting unit 387a and a spare disparity vector storage unit 388a instead of the spare disparity vector setting unit 387 and the spare disparity vector storage unit 388. .

予備視差ベクトル設定部387aは、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真であり、なお且つ、処理対象の符号化ツリーユニットが符号化ツリーユニット行の先頭の符号化ツリーユニットの輝度値の符号化ツリーブロックである場合には、予備視差ベクトルmvDDVとして、予備視差ベクトル記憶部388aから読み出した1行上の符号化ツリーユニット行の保持視差ベクトルmvDDVWppを設定する。また、予備視差ベクトル設定部387aは、処理対象の符号化ツリーユニットが符号化ツリーユニット行の2番目の符号化ツリーユニットであり、なお且つ、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真である場合には、該符号化ツリーユニットの処理が完了した時点(符号化ツリーユニット行の3番目の符号化ツリーユニットの処理を開始する時点)の予備視差ベクトルmvDDVを保持視差ベクトルmvDDVWppとして予備視差ベクトル記憶部388aに記憶させる。なお、予備視差ベクトル設定部387aが、保持視差ベクトルmvDDVWppとして記憶させる予備視差ベクトルmvDDVは、符号化ツリーユニット行の先頭の符号化ツリーユニットの処理が完了した時点(符号化ツリーユニット行の2番目の符号化ツリーユニットの処理を開始する時点)の予備視差ベクトルmvDDVであってもよい。   The spare disparity vector setting unit 387a is such that the entropy coding synchronization flag entropy_coding_sync_enabled_flag is true, and the coding tree unit to be processed is the coding tree block of the luminance value of the first coding tree unit in the coding tree unit row. In this case, the retained disparity vector mvDDVWpp of the encoded tree unit row on the first row read from the spare disparity vector storage unit 388a is set as the spare disparity vector mvDDV. Also, the spare disparity vector setting unit 387a, when the coding tree unit to be processed is the second coding tree unit in the coding tree unit row and the entropy coding synchronization flag entropy_coding_sync_enabled_flag is true The spare disparity vector storage unit 388a sets the spare disparity vector mvDDV at the time when the processing of the coding tree unit is completed (when the processing of the third coding tree unit in the coding tree unit row is started) as the retained disparity vector mvDDVWpp. Remember me. Note that the preliminary parallax vector mvDDV that the preliminary parallax vector setting unit 387a stores as the retained parallax vector mvDDVWpp is the time when the processing of the first coding tree unit in the coding tree unit row is completed (the second in the coding tree unit row). May be the preliminary disparity vector mvDDV at the time when the processing of the coding tree unit is started.

図18は、マージ予測パラメータ導出部344aにおける処理を説明するフローチャートである。ステップSz1、ステップSz2、ステップSz4及びステップSz5は図15と同様のため説明を省略する。ステップSz3‘において、予備視差ベクトル設定部387aは、対象の符号化ツリーユニットの1行上の符号化ツリーユニット行の保持視差ベクトルmvDDVWppを予備視差ベクトル記憶部388aから読み出し、予備視差ベクトルmvDDVとして設定し、ステップSz4に遷移する。ただし、対象の符号化ツリーユニットがピクチャの上端の符号化ツリーユニット行に含まれている場合には、予備視差ベクトルmvDDVとしてゼロベクトルを設定する。予備視差ベクトル設定部387aは、処理対象の符号化ツリーユニットが符号化ツリーユニット行の2番目の符号化ツリーユニットであり、なお且つ、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真である場合には(ステップSz6−Yes)、予備視差ベクトルmvDDVを保持視差ベクトルmvDDVWppとして予備視差ベクトル記憶部388aに記憶させ(ステップSz7)、ステップSz5に遷移する。   FIG. 18 is a flowchart for describing processing in the merge prediction parameter deriving unit 344a. Steps Sz1, Sz2, Sz4, and Sz5 are the same as in FIG. In step Sz3 ′, the backup parallax vector setting unit 387a reads the stored parallax vector mvDDVWpp of the coding tree unit row on the first row of the target coding tree unit from the backup parallax vector storage unit 388a and sets it as the backup parallax vector mvDDV. Then, the process proceeds to step Sz4. However, if the target coding tree unit is included in the coding tree unit row at the top of the picture, a zero vector is set as the preliminary disparity vector mvDDV. The spare disparity vector setting unit 387a is the step when the coding tree unit to be processed is the second coding tree unit in the coding tree unit row and the entropy coding synchronization flag entropy_coding_sync_enabled_flag is true (step Sz6-Yes), the preliminary parallax vector mvDDV is stored in the preliminary parallax vector storage unit 388a as the retained parallax vector mvDDVWpp (step Sz7), and the process proceeds to step Sz5.

なお、予備視差ベクトルmvDDVを保持視差ベクトルmvDDVWppに記憶させるステップSz6からステップSz7の処理は、CTU処理を示すステップSz4の前に行っても良い。この場合には、ステップSz6の判定を、処理対象の符号化ツリーユニットが符号化ツリーユニット行の3番目の符号化ツリーユニットであり、なお且つ、エントロピー符号化同期フラグentropy_coding_sync_enabled_flagが真である場合、により行う。   Note that the processing from step Sz6 to step Sz7 for storing the preliminary parallax vector mvDDV in the retained parallax vector mvDDVWpp may be performed before step Sz4 indicating the CTU processing. In this case, the determination in step Sz6 is performed when the encoding tree unit to be processed is the third encoding tree unit in the encoding tree unit row and the entropy encoding synchronization flag entropy_coding_sync_enabled_flag is true. To do.

このように、本実施形態では、視差ベクトル導出部382が視差ベクトルmvDispを導出する際に、予備視差ベクトルmvDDVの初期化を、ゼロベクトルではなく、1行上の符号化ツリーユニット行の予備視差ベクトルである保持視差ベクトルmvDDVsaveですることにより、適当な視差ベクトルが予備視差ベクトルの初期値として設定されるため、符号化効率が向上するという効果を奏する。   As described above, in the present embodiment, when the disparity vector deriving unit 382 derives the disparity vector mvDisp, the preliminary disparity vector mvDDV is initialized with the preliminary disparity of the coding tree unit row on one row instead of the zero vector. By using the holding parallax vector mvDDVsave, which is a vector, an appropriate parallax vector is set as the initial value of the preliminary parallax vector, so that the coding efficiency is improved.

[第3の実施形態]
以下、図面を参照して、本発明の第3の実施形態について説明する。本実施形態による画像伝送システム10bは、図1の画像伝送システム10と同様の構成であるが、画像符号化装置100、画像復号装置300に変えて、画像符号化装置100b、画像復号装置300bを有している点のみが異なる。
[Third Embodiment]
The third embodiment of the present invention will be described below with reference to the drawings. The image transmission system 10b according to the present embodiment has the same configuration as that of the image transmission system 10 in FIG. 1, but instead of the image encoding device 100 and the image decoding device 300, an image encoding device 100b and an image decoding device 300b are used. The only difference is that it has.

本実施形態による画像復号装置300bでは、特定領域内のマージで符号化されたブロック(予測ユニット、符号化ユニット)のマージ候補を並列に導出する並列マージという処理を実行することが可能である。図19は、並列マージを説明するための概念図である。図19において、ブロック1block1〜ブロック4block4は並列マージ領域MERに含まれるブロックを示している。並列マージ領域MERは、1辺のサイズが並列マージレベルLog2ParMrgLevelによって指定される、正確には、1辺のサイズが2の並列マージレベルLog2ParMrgLevel乗となる正方形の領域である。並列マージレベルLog2ParMrgLevelは2以上、6以下の値をとるため、並列マージ領域MERのサイズは、4×4、8×8、16×16、32×32及び64×64となる。並列マージ領域MERのサイズが64×64の場合、並列マージ領域MERの座標は符号化ツリーユニットと同一となる。   In the image decoding apparatus 300b according to the present embodiment, it is possible to execute a process called parallel merging that derives in parallel merge candidates of blocks (prediction units and coding units) encoded by merging within a specific region. FIG. 19 is a conceptual diagram for explaining parallel merging. In FIG. 19, block 1 block 1 to block 4 block 4 indicate blocks included in the parallel merge area MER. The parallel merge area MER is a square area in which the size of one side is specified by the parallel merge level Log2ParMrgLevel. To be precise, the size of one side is a square of the parallel merge level Log2ParMrgLevel having a size of 2. Since the parallel merge level Log2ParMrgLevel takes a value of 2 or more and 6 or less, the size of the parallel merge area MER is 4 × 4, 8 × 8, 16 × 16, 32 × 32, and 64 × 64. When the size of the parallel merge area MER is 64 × 64, the coordinates of the parallel merge area MER are the same as those of the coding tree unit.

並列マージ領域MERに含まれるブロックのマージ候補の導出処理を並列に処理すること(並列マージ)を可能にするために、並列マージ領域MERに含まれるブロックの空間マージ候補を導出する際には、同じ並列マージ領域MER内の予測パラメータを参照してはならないという制約がある。例えば、ブロック4block4の空間マージ候補を導出する際に、同じ並列マージ領域MER内に存在するブロック1block1〜ブロック3block3の予測パラメータを参照することは出来ない。処理対象のブロックの座標を(xPb,yPb)、空間マージ候補導出時に参照しようとしている隣接ブロックの座標を(xNb,yNb)とした場合、両ブロックが同じ並列マージ領域MER内に存在しているか否かは以下の(式―A1)で判定する。   In order to perform parallel processing of parallel block merge candidate derivation processing included in the parallel merge region MER (parallel merge), when deriving spatial merge candidates of blocks included in the parallel merge region MER, There is a restriction that prediction parameters in the same parallel merge region MER must not be referred to. For example, when deriving a spatial merge candidate of block 4 block 4, prediction parameters of block 1 block 1 to block 3 block 3 existing in the same parallel merge region MER cannot be referred to. If the coordinates of the block to be processed are (xPb, yPb) and the coordinates of the adjacent block to be referred to when the spatial merge candidate is derived are (xNb, yNb), are both blocks within the same parallel merge area MER? Whether or not it is determined by the following (formula-A1).

(xPb >> Log2ParMrgLevel) == (xNb >> Log2ParMrgLevel) && (yPb >> Log2ParMrgLevel) == (yNb >> Log2ParMrgLevel) (式―A1)
上記の判定式が真の場合、すなわち、両ブロックが同じ並列マージ領域MER内に存在している場合には、隣接ブロックの予測パラメータを参照しない。
(xPb >> Log2ParMrgLevel) == (xNb >> Log2ParMrgLevel) && (yPb >> Log2ParMrgLevel) == (yNb >> Log2ParMrgLevel) (Formula-A1)
When the above determination formula is true, that is, when both blocks exist in the same parallel merge region MER, the prediction parameter of the adjacent block is not referred to.

図20に示す画像復号装置300bは、図4の画像復号装置300と同様の構成であるが、予測パラメータ復号部304に代えて、予測パラメータ復号部304bを、エントロピー復号部301に代えて、エントロピー復号部301bを有している点が異なる。画像符号化装置100bは、図16の画像符号化装置100と同様の構成であるが、予測パラメータ符号化部106に代えて、予測パラメータ符号化部106bを、エントロピー符号化部103に代えて、エントロピー符号化部103bを有している点が異なる。エントロピー符号化部103bは、画像符号化装置100bの外部から入力される並列マージレベルLog2ParMrgLevelもエントロピー符号化の対象とする。   An image decoding device 300b illustrated in FIG. 20 has the same configuration as that of the image decoding device 300 in FIG. 4, except that the prediction parameter decoding unit 304b is replaced with the entropy decoding unit 301 instead of the prediction parameter decoding unit 304, and the entropy. The difference is that the decoding unit 301b is provided. The image encoding device 100b has the same configuration as that of the image encoding device 100 in FIG. 16, but instead of the prediction parameter encoding unit 106, the prediction parameter encoding unit 106b is replaced with the entropy encoding unit 103. The difference is that an entropy encoding unit 103b is provided. The entropy encoding unit 103b also sets the parallel merge level Log2ParMrgLevel input from the outside of the image encoding device 100b as a target of entropy encoding.

予測パラメータ復号部304bは、図4の予測パラメータ復号部304と同様の構成であるが、インター予測パラメータ復号部341に代えて、インター予測パラメータ復号部341bを有している点が異なる。予測パラメータ復号部304bは、図4の予測パラメータ復号部304と同様の構成であるが、インター予測パラメータ復号部341に代えて、インター予測パラメータ復号部341bを有している点が異なる。インター予測パラメータ復号部341bは、インター予測パラメータ復号部341bと同様の構成である。インター予測パラメータ復号部341bは、図5のインター予測パラメータ復号部341と同様の構成であるが、マージ予測パラメータ導出部344に代えて、マージ予測パラメータ導出部344bを有している点が異なる。   The prediction parameter decoding unit 304b has the same configuration as the prediction parameter decoding unit 304 in FIG. 4 except that an inter prediction parameter decoding unit 341b is provided instead of the inter prediction parameter decoding unit 341. The prediction parameter decoding unit 304b has the same configuration as the prediction parameter decoding unit 304 in FIG. 4 except that an inter prediction parameter decoding unit 341b is provided instead of the inter prediction parameter decoding unit 341. The inter prediction parameter decoding unit 341b has the same configuration as the inter prediction parameter decoding unit 341b. The inter prediction parameter decoding unit 341b has the same configuration as the inter prediction parameter decoding unit 341 in FIG. 5 except that a merge prediction parameter derivation unit 344b is provided instead of the merge prediction parameter derivation unit 344.

本実施形態におけるマージ予測パラメータ導出部344bは、マージ予測パラメータ導出部344に対して、並列マージレベルLog2ParMrgLevelが2より大きい場合に、すなわち、並列マージが実行可能な場合に、予備視差ベクトルmvDDVを使用しない点が異なる。これにより、ブロックの復号ごとに更新される予備視差ベクトルmvDDVを用いることにより発生していた、並列マージ領域内のブロック間の依存性が解消され、拡張マージ候補導出処理を並列マージと併用することが可能となるという効果を奏する。   The merge prediction parameter derivation unit 344b according to the present embodiment uses the spare disparity vector mvDDV when the parallel merge level Log2ParMrgLevel is larger than 2, that is, when the parallel merge can be executed, with respect to the merge prediction parameter derivation unit 344. The difference is not. As a result, the dependency between blocks in the parallel merge region, which has occurred by using the preliminary disparity vector mvDDV updated every time the block is decoded, is eliminated, and the extended merge candidate derivation process is used in combination with the parallel merge. There is an effect that becomes possible.

図20に戻り、エントロピー復号部301bは、エントロピー復号部301とは、符号化ストリームTeをエントロピー復号し、エントロピー復号により得られた並列マージ領域のサイズを示す並列マージレベルLog2ParMrgLevelをインター予測パラメータ復号部341bに入力する点が異なる。   Returning to FIG. 20, the entropy decoding unit 301b and the entropy decoding unit 301 entropy-decode the encoded stream Te, and use the parallel merge level Log2ParMrgLevel indicating the size of the parallel merge region obtained by entropy decoding as the inter prediction parameter decoding unit. The difference is that it is input to 341b.

図21は、マージ予測パラメータ導出部344bの構成を示す概略ブロック図である。マージ予測パラメータ導出部344bは、視差ベクトル導出部382に代えて視差ベクトル導出部382bを、空間マージ候補導出部383に代えて空間マージ候補導出部383bを有する点が異なる。   FIG. 21 is a schematic block diagram illustrating a configuration of the merge prediction parameter deriving unit 344b. The merge prediction parameter deriving unit 344b is different in that it includes a disparity vector deriving unit 382b instead of the disparity vector deriving unit 382 and a spatial merge candidate deriving unit 383b instead of the spatial merge candidate deriving unit 383.

空間マージ候補導出部383bは、隣接ブロックが処理対象ブロックと同じ並列マージ領域に含まれる場合には、隣接ブロックの予測パラメータを参照しない。   The spatial merge candidate derivation unit 383b does not refer to the prediction parameter of the adjacent block when the adjacent block is included in the same parallel merge area as the processing target block.

視差ベクトル導出部382bは、並列マージレベルLog2ParMrgLevelが2の場合、すなわち並列マージ領域のサイズが4×4で、並列マージが実行出来ないときにのみ、予備視差ベクトルmvDDVを用いる。   The disparity vector derivation unit 382b uses the preliminary disparity vector mvDDV only when the parallel merge level Log2ParMrgLevel is 2, that is, when the size of the parallel merge area is 4 × 4 and the parallel merge cannot be executed.

図22は、マージ予測パラメータ導出部344bにおける処理を説明するフローチャートである。ステップSa1、ステップSa2、ステップSa5からステップSa15は図15と同様のため説明を省略する。   FIG. 22 is a flowchart for explaining processing in the merge prediction parameter deriving unit 344b. Step Sa1, Step Sa2, and Step Sa5 to Step Sa15 are the same as those in FIG.

ステップSa4´では、空間マージ候補導出部383bは、空間マージ候補導出部383と同様の方法で空間マージ候補を導出する。ただし、対象ブロックと同じ並列マージ領域に含まれる隣接PUは参照しない。すなわち、対象ブロックの座標が(xPb,yPb)、隣接ブロックの座標を(xNb, yNb)とすると、対象ブロックの座標と隣接ブロックの座標を各々、Log2ParMrgLevelだけ右シフトした場合の座標が一致することを示す(式―A1)の式が成り立つ場合には、隣接ブロックの利用可能性(availableN)をfalseに設定して参照しない。   In step Sa4 ′, the spatial merge candidate derivation unit 383b derives a spatial merge candidate by the same method as the spatial merge candidate derivation unit 383. However, adjacent PUs included in the same parallel merge area as the target block are not referred to. In other words, if the coordinates of the target block are (xPb, yPb) and the coordinates of the adjacent block are (xNb, yNb), the coordinates when the coordinates of the target block and the coordinates of the adjacent block are right-shifted by Log2ParMrgLevel must match. (Expression-A1) is established, the availability of adjacent blocks (availableN) is set to false and is not referred to.

図23は、図22のステップSa3´における処理を説明するフローチャートである。ステップSb3からステップSb6は図14と同様のため説明を省略する。   FIG. 23 is a flowchart for explaining the processing in step Sa3 ′ of FIG. Steps Sb3 to Sb6 are the same as in FIG.

図24は、図23のステップSe1´における処理を説明するフローチャートである。ステップSc1からステップSc3及びステップSc5からステップSc11は図15と同様のため説明を省略する。ステップSc4´において、視差ベクトル導出部382は、隣接予測ユニットが処理対象のブロックと異なる並列マージ領域に属していて、なお且つ、隣接予測ユニットに視差ベクトルであるベクトルmvLXが在るか否かを判定し、条件を満たしている場合は(Sc3´−Yes)、ステップSc5に遷移し、条件を満たしていない場合は(Sc3´−No)、ステップSc7に遷移する。ステップSc12において、視差ベクトル導出部382は、並列マージレベルLog2ParMrgLevelが2であるか否かを判定する。並列マージレベルLog2ParMrgLevelが2であった場合には(ステップSc12−Yes)、ステップSc8に遷移し、並列マージレベルLog2ParMrgLevelが2でなかった場合は、(ステップSc12−No)、処理を終了する。   FIG. 24 is a flowchart illustrating the process in step Se1 ′ of FIG. Steps Sc1 to Sc3 and Steps Sc5 to Sc11 are the same as in FIG. In step Sc4 ′, the disparity vector deriving unit 382 determines whether or not the adjacent prediction unit belongs to a parallel merge region different from the processing target block and the adjacent prediction unit includes the vector mvLX that is a disparity vector. If the condition is satisfied and the condition is satisfied (Sc3′-Yes), the process proceeds to Step Sc5. If the condition is not satisfied (Sc3′-No), the process proceeds to Step Sc7. In step Sc12, the disparity vector deriving unit 382 determines whether or not the parallel merge level Log2ParMrgLevel is 2. If the parallel merge level Log2ParMrgLevel is 2 (step Sc12-Yes), the process proceeds to step Sc8. If the parallel merge level Log2ParMrgLevel is not 2 (step Sc12-No), the process is terminated.

このように、本実施形態における視差ベクトル導出部382bは、並列マージレベルLog2ParMrgLevelが2より大きい場合に、視差ベクトルmvDispとして予備視差ベクトルmvDDVを用いないことによって、拡張マージ候補導出処理を並列で処理することが可能(並列マージが可能)となる効果を奏する。   As described above, the disparity vector deriving unit 382b in the present embodiment processes the extended merge candidate derivation process in parallel by not using the preliminary disparity vector mvDDV as the disparity vector mvDisp when the parallel merge level Log2ParMrgLevel is greater than 2. It is possible to achieve the effect (parallel merging is possible).

[第4の実施形態]
以下、図面を参照して、本発明の第4の実施形態について説明する。本実施形態による画像伝送システム10cは、図1の画像伝送システム10と同様の構成であるが、画像符号化装置100、画像復号装置300に代えて、画像符号化装置100c、画像復号装置300cを有している点のみが異なる。
[Fourth Embodiment]
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings. The image transmission system 10c according to the present embodiment has the same configuration as that of the image transmission system 10 in FIG. 1 except that the image encoding device 100c and the image decoding device 300c are replaced with the image encoding device 100 and the image decoding device 300. The only difference is that it has.

画像復号装置300cは、図20の画像復号装置300bと同様の構成であるが、予測パラメータ復号部304bに代えて、予測パラメータ復号部304cを有している点が異なる。画像復号装置300cでは、画像復号装置300bと同様、特定領域内のマージで符号化されたブロックのマージ候補を並列に導出する並列マージを行うことが可能である。画像符号化装置100cは、画像符号化装置100bと同様の構成であるが、予測パラメータ符号化部106bに代えて、予測パラメータ符号化部106cを有している点が異なる。   The image decoding device 300c has the same configuration as that of the image decoding device 300b in FIG. 20, except that a prediction parameter decoding unit 304c is provided instead of the prediction parameter decoding unit 304b. Similar to the image decoding device 300b, the image decoding device 300c can perform parallel merging in which merge candidates of blocks encoded by merging in a specific region are derived in parallel. The image encoding device 100c has the same configuration as that of the image encoding device 100b, except that a prediction parameter encoding unit 106c is provided instead of the prediction parameter encoding unit 106b.

予測パラメータ復号部304cは、図20の予測パラメータ復号部304bと同様の構成であるが、インター予測パラメータ復号部341bに代えて、インター予測パラメータ復号部341cを有している点が異なる。予測パラメータ復号部304cは、予測パラメータ復号部304bと同様の構成であるが、インター予測パラメータ復号部341bに代えて、インター予測パラメータ復号部341cを有している点が異なる。インター予測パラメータ復号部341cは、インター予測パラメータ復号部341cと同様の構成である。インター予測パラメータ復号部341cは、インター予測パラメータ復号部341bと同様の構成であるが、マージ予測パラメータ導出部344bに代えて、マージ予測パラメータ導出部344cを有している点が異なる。   The prediction parameter decoding unit 304c has the same configuration as the prediction parameter decoding unit 304b of FIG. 20, except that an inter prediction parameter decoding unit 341c is provided instead of the inter prediction parameter decoding unit 341b. The prediction parameter decoding unit 304c has the same configuration as the prediction parameter decoding unit 304b, except that an inter prediction parameter decoding unit 341c is provided instead of the inter prediction parameter decoding unit 341b. The inter prediction parameter decoding unit 341c has the same configuration as the inter prediction parameter decoding unit 341c. The inter prediction parameter decoding unit 341c has the same configuration as the inter prediction parameter decoding unit 341b, but differs in that it includes a merge prediction parameter derivation unit 344c instead of the merge prediction parameter derivation unit 344b.

本実施形態におけるマージ予測パラメータ導出部344cは、マージ予測パラメータ導出部344に対して、予備視差ベクトルmvDDVの更新を、並列マージレベルLog2ParMrgLevelで指定される並列マージ領域内で最初のブロックの復号処理開始時点で行っている点が異なる。これにより、並列マージ領域内では予備視差ベクトルmvDDVが変化しなくなり、並列マージ領域内のブロック間の予備視差ベクトルmvDDVに関する依存性が無くなるため、予備視差ベクトルmvDDVを用いた拡張マージ候補導出処理を並列マージ中に実行することが可能となり、符号化効率が向上するという効果を奏する。   The merge prediction parameter derivation unit 344c in the present embodiment starts the decoding process of the first block in the parallel merge region specified by the parallel merge level Log2ParMrgLevel, with respect to the merge prediction parameter derivation unit 344, to update the preliminary disparity vector mvDDV. The point that is done at the time is different. As a result, the spare disparity vector mvDDV does not change in the parallel merge region, and there is no dependency on the spare disparity vector mvDDV between the blocks in the parallel merge region. This can be executed during merging, and the encoding efficiency is improved.

マージ予測パラメータ導出部344cは、図21のマージ予測パラメータ導出部344bと同様の構成であるが、視差ベクトル導出部382bに代えて視差ベクトル導出部382cを有する点が異なる。視差ベクトル導出部382cは、図21の視差ベクトル導出部382bと同様の構成であるが、視差ベクトル設定部387bに代えて視差ベクトル設定部387cを、視差ベクトル記憶部388bに代えて視差ベクトル記憶部388cを有する点が異なる。   The merge prediction parameter deriving unit 344c has the same configuration as the merge prediction parameter deriving unit 344b of FIG. 21, except that a disparity vector deriving unit 382c is provided instead of the disparity vector deriving unit 382b. The disparity vector deriving unit 382c has the same configuration as the disparity vector deriving unit 382b of FIG. 21, but the disparity vector setting unit 387c is replaced with the disparity vector setting unit 387b, and the disparity vector storage unit 388b is replaced with the disparity vector storage unit 388b. The difference is that it has 388c.

視差ベクトル設定部387cは、対象ブロックが、並列マージレベルLog2ParMrgLevelで指定される並列マージ領域内の最初のブロックである場合、すなわち、対象ブロックの座標と並列マージ領域の座標が一致する場合には、予備視差ベクトル記憶部388cから保持視差ベクトルmvDDVsaveを読み出し、予備視差ベクトルmvDDVとして設定する。対象ブロックの座標を(xPb,yPb)とした場合、視差ベクトル設定部387cは、対象ブロックが並列マージ領域内で最初のブロックであるか否かを以下の(式−B1)で判定する。   The disparity vector setting unit 387c, when the target block is the first block in the parallel merge area specified by the parallel merge level Log2ParMrgLevel, that is, when the coordinates of the target block coincide with the coordinates of the parallel merge area, The stored parallax vector mvDDVsave is read from the preliminary parallax vector storage unit 388c and set as the preliminary parallax vector mvDDV. When the coordinates of the target block are (xPb, yPb), the disparity vector setting unit 387c determines whether or not the target block is the first block in the parallel merge region using (Equation -B1) below.

(xPb % (2<<Log2ParMrgLevel)) == 0 && (yPb % (2<<Log2ParMrgLevel)) == 0 (式−B1)
上記の判定式が真の場合、すなわち、対象ブロックが並列マージ領域内で最初のブロックである場合には、予備視差ベクトル記憶部388cから保持視差ベクトルmvDDVsaveを読み出し、予備視差ベクトルmvDDVとして設定する。
(xPb% (2 << Log2ParMrgLevel)) == 0 && (yPb% (2 << Log2ParMrgLevel)) == 0 (Formula -B1)
When the above determination formula is true, that is, when the target block is the first block in the parallel merge region, the retained parallax vector mvDDVsave is read from the spare parallax vector storage unit 388c and set as the spare parallax vector mvDDV.

また、視差ベクトル設定部387cは、導出した視差ベクトルmvDispを、保持視差ベクトルmvDDVsaveとして視差ベクトル記憶部388cに出力する。   Further, the disparity vector setting unit 387c outputs the derived disparity vector mvDisp to the disparity vector storage unit 388c as the retained disparity vector mvDDVsave.

図25は、マージ予測パラメータ導出部344cにおける処理を説明するフローチャートである。マージ予測パラメータ導出部344cは、ステップSz1´、ステップSz5´の間を並列マージ領域ループとして、各並列マージ領域に対してステップSz2´からSz4´の処理を行う(ステップSz1´、ステップSz5´)。視差ベクトル導出部382cは、対象ブロックが、並列マージレベルLog2ParMrgLevelで指定される並列マージ領域内で最初のブロックである場合には(Sz2´−Yes)、予備視差ベクトル記憶部から保持視差ベクトルmvDDVsaveを読み出し、予備視差ベクトルmvDispとして設定する(Sz3´)。   FIG. 25 is a flowchart for describing processing in the merge prediction parameter deriving unit 344c. The merge prediction parameter deriving unit 344c performs the processing from step Sz2 ′ to Sz4 ′ on each parallel merge region with the step Sz1 ′ and step Sz5 ′ as a parallel merge region loop (step Sz1 ′, step Sz5 ′). . If the target block is the first block in the parallel merge area specified by the parallel merge level Log2ParMrgLevel (Sz2′-Yes), the disparity vector deriving unit 382c obtains the retained disparity vector mvDDVsave from the spare disparity vector storage unit. Read and set as a preliminary parallax vector mvDisp (Sz3 ′).

次に、マージ予測パラメータ導出部344cは、並列マージ領域に含まれる各符号化ユニットCU内の各予測ユニットPU単位でマージ候補を導出する(ステップSz4´)。導出方法は、図22のフローと、ステップSa3´がステップSa3´´に代わった点を除き、同様であるため、詳細な説明は省略する。   Next, the merge prediction parameter deriving unit 344c derives merge candidates for each prediction unit PU in each coding unit CU included in the parallel merge region (step Sz4 ′). Since the derivation method is the same as the flow in FIG. 22 except that step Sa3 ′ is replaced by step Sa3 ″, detailed description is omitted.

ステップSa3´´の処理は、図23のフローと、ステップSe1´がステップSe1´´に代わった点を除き、同様であるため、詳細な説明は省略する。   The processing of step Sa3 ″ is the same as the flow of FIG. 23 except that step Se1 ′ is replaced by step Se1 ″, and detailed description thereof is omitted.

なお、保持視差ベクトルmvDDVsaveを予備視差ベクトルmvDDVとして設定させるステップSz2´からステップSz3の処理は、CU処理を示すステップSz4の後に行っても良い。この場合には、ステップSz2´の判定を、対象ブロックが、並列マージレベルLog2ParMrgLevelで指定される並列マージ領域内で最後のブロックである場合、により行う。対象ブロックの座標を(xPb,yPb)、横幅をnPbW、高さをnPbHとした場合、視差ベクトル設定部387cは、対象ブロックが並列マージ領域内で最後のブロックであるか否かを以下の(式−B2)で判定する。   Note that the processing from step Sz2 ′ to step Sz3 for setting the retained parallax vector mvDDVsave as the preliminary parallax vector mvDDV may be performed after step Sz4 indicating the CU processing. In this case, the determination in step Sz2 ′ is performed when the target block is the last block in the parallel merge area specified by the parallel merge level Log2ParMrgLevel. When the coordinate of the target block is (xPb, yPb), the horizontal width is nPbW, and the height is nPbH, the disparity vector setting unit 387c determines whether the target block is the last block in the parallel merge region ( The determination is made using equation -B2).

((xPb + nPbW) % (2<<Log2ParMrgLevel)) == 0 && ((yPb + nPbH) % (2<<Log2ParMrgLevel)) == 0 (式−B2)
上記の判定式が真の場合、すなわち、対象ブロックが並列マージ領域内で最後のブロックである場合には、予備視差ベクトル記憶部388cから保持視差ベクトルmvDDVsaveを読み出し、予備視差ベクトルmvDDVとして設定する。
((xPb + nPbW)% (2 << Log2ParMrgLevel)) == 0 && ((yPb + nPbH)% (2 << Log2ParMrgLevel)) == 0 (Formula -B2)
When the above determination formula is true, that is, when the target block is the last block in the parallel merge area, the retained parallax vector mvDDVsave is read from the spare parallax vector storage unit 388c and set as the spare parallax vector mvDDV.

図26は、ステップSe1´´の動作を説明するフローチャートである。図26の各ステップのうち、ステップSc11´以外は、図24と同様のため説明は省略する。ステップSc11´において、視差ベクトル設定部387cは、視差ベクトルmvDispを、視差ベクトル記憶部388cに出力し、保持視差ベクトルmvDDVsaveとして保存し、処理を終了する。   FIG. 26 is a flowchart for explaining the operation of step Se1 ″. Of the steps in FIG. 26, steps other than step Sc11 ′ are the same as in FIG. In step Sc11 ′, the disparity vector setting unit 387c outputs the disparity vector mvDisp to the disparity vector storage unit 388c, stores it as the retained disparity vector mvDDVsave, and ends the process.

このように、本実施形態における視差ベクトル導出部382cは、予備視差ベクトルmvDDVの更新を、並列マージレベルLog2ParMrgLevelで指定される並列マージ領域内で最初のブロックの復号処理開始時点で行っている。これにより、並列マージ領域内では予備視差ベクトルmvDDVが変化しなくなり、並列マージ領域内のブロック間の依存性が無くなるため、予備視差ベクトルmvDDVを用いた拡張マージ候補導出処理を並列マージ中に実行することが可能となる。   As described above, the disparity vector deriving unit 382c in the present embodiment performs the update of the preliminary disparity vector mvDDV at the start of the decoding process of the first block in the parallel merge area specified by the parallel merge level Log2ParMrgLevel. As a result, the preliminary disparity vector mvDDV does not change in the parallel merge region, and there is no dependency between blocks in the parallel merge region, so the extended merge candidate derivation process using the preliminary disparity vector mvDDV is executed during the parallel merge. It becomes possible.

また、上述した各実施形態における画像符号化装置100、100a、100b、100c、画像復号装置300、300a、300b、300c各々の機能もしくは各々の一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各装置を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, a computer-readable program for realizing the functions of each of the image encoding devices 100, 100a, 100b, and 100c, and the image decoding devices 300, 300a, 300b, and 300c in each of the above-described embodiments, or a part of each function. Each apparatus may be realized by recording on a recording medium, causing the computer system to read and execute a program recorded on the recording medium. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した各実施形態における画像符号化装置100、100a、100b、100c、画像復号装置300、300a、300b、300c各々の一部、または全部を典型的には集積回路であるLSIとして実現してもよい。画像符号化装置100、100a、100b、100c、画像復号装置300、300a、300b、300cの各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。   In addition, part or all of the image encoding devices 100, 100a, 100b, and 100c and the image decoding devices 300, 300a, 300b, and 300c in the above-described embodiments are typically realized as an LSI that is an integrated circuit. May be. Each functional block of the image encoding devices 100, 100a, 100b, 100c and the image decoding devices 300, 300a, 300b, 300c may be individually chipped, or a part or all of them may be integrated into a chip. . Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology can be used.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within a scope not departing from the gist of the present invention are included. .

10…画像伝送システム
100、100a、100b、100c…画像符号化装置
101…減算部
102…DCT変換・量子化部
103…エントロピー符号化部
104…加算部
105…予測パラメータ決定部
106…予測パラメータ符号化部
200…ネットワーク
300、300a、300b、300c…画像復号装置
301、301b…エントロピー復号部
302…逆量子化・逆DCT変換部
303…加算部
304、304b、304c…予測パラメータ復号部
305…予測画像生成部
306…参照画像メモリ
341、341b、341c…インター予測パラメータ復号部
342…イントラ予測パラメータ復号部
343…インター予測パラメータ抽出部
344、344a、344b、344c…マージ予測パラメータ導出部
345…AMVP予測パラメータ導出部
346…加算部
347…ベクトル候補導出部
348…予測ベクトル選択部
351…インター予測画像生成部
352…イントラ予測画像生成部
361…画像メモリ
362、362a…予測パラメータメモリ
371…マージ候補導出部
372…マージ候補選択部
373…マージ候補格納部
374…マージ候補導出制御部
375、375b…拡張マージ候補導出部
376…基本マージ候補導出部
381…インタービューマージ候補導出部
382、382a、382b、382c…視差ベクトル導出部
383、383b…空間マージ候補導出部
384…時間マージ候補導出部
385…結合マージ候補導出部
386…ゼロマージ候補導出部
387、387a、387b、387c…予備視差ベクトル設定部
388、388a、388b、388c…予備視差ベクトル記憶部
400…画像表示装置
DESCRIPTION OF SYMBOLS 10 ... Image transmission system 100, 100a, 100b, 100c ... Image coding apparatus 101 ... Subtraction part 102 ... DCT conversion / quantization part 103 ... Entropy coding part 104 ... Addition part 105 ... Prediction parameter determination part 106 ... Prediction parameter code 200: network 300, 300a, 300b, 300c ... image decoding device 301, 301b ... entropy decoding unit 302 ... inverse quantization / inverse DCT transform unit 303 ... addition unit 304, 304b, 304c ... prediction parameter decoding unit 305 ... prediction Image generation unit 306 ... Reference image memory 341, 341b, 341c ... Inter prediction parameter decoding unit 342 ... Intra prediction parameter decoding unit 343 ... Inter prediction parameter extraction unit 344, 344a, 344b, 344c ... Merge prediction parameter derivation unit 45 ... AMVP prediction parameter derivation unit 346 ... addition unit 347 ... vector candidate derivation unit 348 ... prediction vector selection unit 351 ... inter prediction image generation unit 352 ... intra prediction image generation unit 361 ... image memory 362, 362a ... prediction parameter memory 371 ... Merge candidate derivation unit 372 ... Merge candidate selection unit 373 ... Merge candidate storage unit 374 ... Merge candidate derivation control unit 375, 375b ... Extended merge candidate derivation unit 376 ... Basic merge candidate derivation unit 381 ... Interview merge candidate derivation unit 382, 382a , 382b, 382c ... disparity vector deriving unit 383, 383b ... spatial merge candidate deriving unit 384 ... temporal merge candidate deriving unit 385 ... combined merge candidate deriving unit 386 ... zero merge candidate deriving unit 387, 387a, 387b, 387c ... preliminary disparity vector Tough 388,388a, 388b, 388c ... preliminary disparity vector storage unit 400 ... image display device

Claims (13)

画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置であって、
符号化データからシンタックス要素を復号するエントロピー復号部と、
対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、
前記エントロピー復号部は、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、
前記視差ベクトル導出部は、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定する手段と、
前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定する手段を備え、
前記視差ベクトル導出部は、前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定する予備視差ベクトル設定部を有することを特徴とする画像復号装置。
An image decoding device that decodes an image in units of a coding tree block of a predetermined size,
An entropy decoding unit that decodes syntax elements from the encoded data;
A disparity vector deriving unit for deriving a disparity vector from an adjacent vector or a preliminary disparity vector that is a vector of a block adjacent to the target block;
The entropy decoding unit decodes the entropy encoding synchronization flag. When the entropy encoding synchronization flag is 1, CABAC decoding processing is performed at the start of decoding of the first luminance encoding tree block in the encoding tree unit row. Initialize the
The disparity vector deriving unit sets the adjacent vector as the disparity vector of the target block when the adjacent vector is available, and sets the preliminary disparity vector as the disparity vector when the adjacent vector is not available. Means to set as
Means for setting the neighboring vector as the preliminary disparity vector when the neighboring vector is available;
When the entropy coding synchronization flag is 1, the disparity vector derivation unit initializes the preliminary disparity vector at the start of decoding of the first luminance coding tree block in the coding tree unit row, and An image decoding apparatus comprising: a preliminary parallax vector setting unit that sets a parallax vector as the preliminary parallax vector when a block is available.
前記予備視差ベクトル設定部は、予備視差ベクトルをゼロベクトルとして初期化することを特徴とする請求項1に記載の画像復号装置。   2. The image decoding device according to claim 1, wherein the preliminary parallax vector setting unit initializes the preliminary parallax vector as a zero vector. 前記予備視差ベクトル設定部は、予備視差ベクトルを1つ上の符号化ツリーブロック行の、復号済み符号化ツリーブロックの予備視差ベクトルで初期化することを特徴とする請求項1に記載の画像復号装置。   2. The image decoding according to claim 1, wherein the spare disparity vector setting unit initializes the spare disparity vector with a spare disparity vector of a decoded coding tree block in a coding tree block row one level higher. apparatus. 前記予備ベクトル設定部は、予備視差ベクトルを1つ上の符号化ツリーブロック行の2番目の復号済み符号化ツリーブロックの予備視差ベクトルで初期化することを特徴とする請求項3に記載の画像復号装置。   The image according to claim 3, wherein the spare vector setting unit initializes the spare disparity vector with the spare disparity vector of the second decoded encoded tree block in the next higher encoded tree block row. Decoding device. 画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置であって、
符号化データからシンタックス要素を復号するエントロピー復号部と、
対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、
前記エントロピー復号部は、並列マージレベルを復号し、
前記視差ベクトル導出部は、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定する手段を備え、
さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更すること特徴とする画像復号装置。
An image decoding device that decodes an image in units of a coding tree block of a predetermined size,
An entropy decoding unit that decodes syntax elements from the encoded data;
A disparity vector deriving unit for deriving a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector;
The entropy decoding unit decodes a parallel merge level;
The disparity vector derivation unit includes means for determining availability of the vector of the adjacent block according to the parallel merge level and the coordinates of the block adjacent to the target block,
Further, the disparity vector setting unit changes a method for deriving a preliminary disparity vector according to the value of the parallel merge level.
前記視差ベクトル設定部は、前記並列マージレベルが2である場合にのみ、前記対象ブロックの視差ベクトルとして、予備視差ベクトルを用いることを特徴とする請求項5に記載の画像復号装置。   The image decoding apparatus according to claim 5, wherein the disparity vector setting unit uses a preliminary disparity vector as a disparity vector of the target block only when the parallel merge level is 2. 前記視差ベクトル設定部は、前記並列マージレベルにより定まる所定のサイズの領域である並列マージ領域単位で画像を分割した場合に、並列マージ領域の先頭のブロックを復号する時点において、予備視差ベクトルを更新することを特徴とする請求項5に記載の画像復号装置。   The disparity vector setting unit updates the spare disparity vector at the time of decoding the first block of the parallel merge region when the image is divided in parallel merge region units that are regions of a predetermined size determined by the parallel merge level. The image decoding device according to claim 5, wherein: 前記視差ベクトル設定部は、前記並列マージレベルにより定まる所定のサイズの領域である並列マージ領域単位に画像を分割した場合に、対象ブロックの座標が、並列マージ領域の座標に一致する時点において、先行するブロックにおいて視差ベクトルとして導出された前記隣接ベクトルを予備視差ベクトルに設定することを特徴とする請求項7に記載の画像復号装置。   When the disparity vector setting unit divides the image into parallel merge region units that are regions of a predetermined size determined by the parallel merge level, the disparity vector setting unit is preceded by the time when the coordinates of the target block coincide with the coordinates of the parallel merge region. The image decoding apparatus according to claim 7, wherein the adjacent vector derived as a disparity vector in a block to be set is set as a preliminary disparity vector. 請求項1から請求項8のいずれかの項に記載の視差ベクトル設定部を具備することを特徴とする画像符号化装置。   An image coding apparatus comprising the disparity vector setting unit according to any one of claims 1 to 8. 画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号方法であって、
符号化データからシンタックス要素を復号する第1の過程と、
対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する第2の過程を有し、
前記第1の過程において、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、
前記第2の過程において、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定し、
前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定し、
前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定することを特徴とする画像復号方法。
An image decoding method for decoding an image in units of a coding tree block of a predetermined size,
A first step of decoding syntax elements from the encoded data;
A second step of deriving a disparity vector from an adjacent vector or a preliminary disparity vector that is a vector of a block adjacent to the target block;
In the first step, the entropy coding synchronization flag is decoded. When the entropy coding synchronization flag is 1, CABAC decoding is performed at the decoding start time of the first luminance coding tree block in the coding tree unit row. Initialize the process,
In the second step, when the adjacent vector is available, the adjacent vector is set as the disparity vector of the target block, and when the adjacent vector is not available, the preliminary disparity vector is set as the disparity vector. Set as
If the neighboring vector is available, set the neighboring vector as the preliminary disparity vector;
When the entropy coding synchronization flag is 1, the preliminary disparity vector is initialized at the start of decoding of the first luminance coding tree block in the coding tree unit row, and the adjacent block is available Is a method for decoding an image, wherein a disparity vector is set as the preliminary disparity vector.
画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号方法であって、
符号化データからシンタックス要素を復号する第1の過程と、
対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する第2の過程を有し、
前記第1の過程において、並列マージレベルを復号し、
前記第2の過程において、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定し、
さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更することを特徴とする画像復号装置。
An image decoding method for decoding an image in units of a coding tree block of a predetermined size,
A first step of decoding syntax elements from the encoded data;
A second step of deriving a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector;
Decoding the parallel merge level in the first step;
In the second step, the availability of the vector of the adjacent block is determined according to the parallel merge level and the coordinates of the block adjacent to the target block,
Further, the disparity vector setting unit changes a method for deriving a preliminary disparity vector according to the value of the parallel merge level.
コンピュータを、
画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置として機能させるためのプログラムであって、
前記画像復号装置は、
符号化データからシンタックス要素を復号するエントロピー復号部と、
対象ブロックに隣接するブロックのベクトルである隣接ベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、
前記エントロピー復号部は、エントロピー符号化同期フラグを復号し、エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、CABAC復号処理の初期化を行い、
前記視差ベクトル導出部は、前記隣接ベクトルが利用可能である場合には、該隣接ベクトルを前記対象ブロックの視差ベクトルに設定し、該隣接ベクトルが利用可能でない場合には、予備視差ベクトルを視差ベクトルとして設定する手段と、
前記隣接ベクトルが利用可能である場合には、前記隣接ベクトルを、前記予備視差ベクトルとして設定する手段を備え、
前記視差ベクトル導出部は、前記エントロピー符号化同期フラグが1である場合には、符号化ツリーユニット行の最初の輝度符号化ツリーブロックの復号開始時点において、前記予備視差ベクトルを初期化し、前記隣接ブロックが利用可能な場合には、視差ベクトルを、前記予備視差ベクトルとして設定する予備視差ベクトル設定部を有することを特徴とするプログラム。
Computer
A program for functioning as an image decoding device that decodes an image in units of a coding tree block of a predetermined size,
The image decoding device includes:
An entropy decoding unit that decodes syntax elements from the encoded data;
A disparity vector deriving unit for deriving a disparity vector from an adjacent vector or a preliminary disparity vector that is a vector of a block adjacent to the target block;
The entropy decoding unit decodes the entropy encoding synchronization flag. When the entropy encoding synchronization flag is 1, CABAC decoding processing is performed at the start of decoding of the first luminance encoding tree block in the encoding tree unit row. Initialize the
The disparity vector deriving unit sets the adjacent vector as the disparity vector of the target block when the adjacent vector is available, and sets the preliminary disparity vector as the disparity vector when the adjacent vector is not available. Means to set as
Means for setting the neighboring vector as the preliminary disparity vector when the neighboring vector is available;
When the entropy coding synchronization flag is 1, the disparity vector derivation unit initializes the preliminary disparity vector at the start of decoding of the first luminance coding tree block in the coding tree unit row, and A program comprising: a preliminary parallax vector setting unit that sets a parallax vector as the preliminary parallax vector when a block is available.
コンピュータを、
画像を所定の大きさの符号化ツリーブロック単位で復号する画像復号装置として機能させるためのプログラムであって、
前記画像復号装置は、
符号化データからシンタックス要素を復号するエントロピー復号部と、
対象ブロックに隣接するブロックのベクトルもしくは予備視差ベクトルから視差ベクトルを導出する視差ベクトル導出部を備え、
前記エントロピー復号部は、並列マージレベルを復号し、
前記視差ベクトル導出部は、前記並列マージレベルと前記対象ブロックに隣接するブロックの座標に応じて、前記隣接ブロックのベクトルの利用可能性を判定する手段を備え、
さらに、前記視差ベクトル設定部は、前記並列マージレベルの値に応じて予備視差ベクトルの導出方法を変更することを特徴とするプログラム。
Computer
A program for functioning as an image decoding device that decodes an image in units of a coding tree block of a predetermined size,
The image decoding device includes:
An entropy decoding unit that decodes syntax elements from the encoded data;
A disparity vector deriving unit for deriving a disparity vector from a vector of a block adjacent to the target block or a preliminary disparity vector;
The entropy decoding unit decodes a parallel merge level;
The disparity vector derivation unit includes means for determining availability of the vector of the adjacent block according to the parallel merge level and the coordinates of the block adjacent to the target block,
Furthermore, the disparity vector setting unit changes a method for deriving a preliminary disparity vector according to the value of the parallel merge level.
JP2013140613A 2013-07-04 2013-07-04 Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program Pending JP2015015575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013140613A JP2015015575A (en) 2013-07-04 2013-07-04 Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140613A JP2015015575A (en) 2013-07-04 2013-07-04 Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program

Publications (1)

Publication Number Publication Date
JP2015015575A true JP2015015575A (en) 2015-01-22

Family

ID=52437024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140613A Pending JP2015015575A (en) 2013-07-04 2013-07-04 Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program

Country Status (1)

Country Link
JP (1) JP2015015575A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112997487A (en) * 2018-11-15 2021-06-18 北京字节跳动网络技术有限公司 Coordination between affine mode and other inter-frame coding tools
JP7454681B2 (en) 2020-01-12 2024-03-22 北京字節跳動網絡技術有限公司 Video coding and decoding constraints
US11956432B2 (en) 2019-10-18 2024-04-09 Beijing Bytedance Network Technology Co., Ltd Interplay between subpictures and in-loop filtering

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112997487A (en) * 2018-11-15 2021-06-18 北京字节跳动网络技术有限公司 Coordination between affine mode and other inter-frame coding tools
US11956432B2 (en) 2019-10-18 2024-04-09 Beijing Bytedance Network Technology Co., Ltd Interplay between subpictures and in-loop filtering
US11962771B2 (en) 2019-10-18 2024-04-16 Beijing Bytedance Network Technology Co., Ltd Syntax constraints in parameter set signaling of subpictures
JP7454681B2 (en) 2020-01-12 2024-03-22 北京字節跳動網絡技術有限公司 Video coding and decoding constraints

Similar Documents

Publication Publication Date Title
JP6151442B2 (en) Joint bi-predictive merging candidate for 3D video coding
JP5770277B2 (en) Method and apparatus for deriving motion vector / motion vector predictor candidates for inter mode, skip mode and merge mode
US11722690B2 (en) Motion vector generation device, a prediction image generation device, a video decoding device and a video coding device
CN107105286B (en) Method and apparatus for deriving motion vector predictor
US20160309186A1 (en) Method of constrain disparity vector derivation in 3d video coding
US10110915B2 (en) Method and apparatus for inter-component motion prediction in three-dimensional video coding
US20160073132A1 (en) Method of Simplified View Synthesis Prediction in 3D Video Coding
US11917133B2 (en) Device for deriving affine merge candidate
US20230091579A1 (en) Moving image encoding device, moving image encoding method, moving image encoding program, moving image decoding device, moving image decoding method, and moving image decoding program
US11856190B2 (en) Dynamic image decoding device, dynamic image decoding method, dynamic image decoding program, dynamic image encoding device, dynamic image encoding method, and dynamic image encoding program
US11979562B2 (en) Picture coding device, picture coding method, and picture coding program, picture decoding device, picture decoding method, and picture decoding program
US11979597B2 (en) Picture coding device, picture coding method, and picture coding program, picture decoding device, picture decoding method, and picture decoding program
JP6258212B2 (en) Image decoding device
JP2015015575A (en) Image decoder, image encoder, image decoding method, image encoding method, image decoding program, and image encoding program
CN113678455A (en) Video or image coding for deriving weight index information for bi-prediction
JP2015173304A (en) Prediction vector generation device, image encoder, and image decoder

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150423