JP2016072941A - Dmm prediction device, image decoding device and image encoding device - Google Patents

Dmm prediction device, image decoding device and image encoding device Download PDF

Info

Publication number
JP2016072941A
JP2016072941A JP2014203824A JP2014203824A JP2016072941A JP 2016072941 A JP2016072941 A JP 2016072941A JP 2014203824 A JP2014203824 A JP 2014203824A JP 2014203824 A JP2014203824 A JP 2014203824A JP 2016072941 A JP2016072941 A JP 2016072941A
Authority
JP
Japan
Prior art keywords
prediction
value
target
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014203824A
Other languages
Japanese (ja)
Inventor
健史 筑波
Kenji Tsukuba
健史 筑波
知宏 猪飼
Tomohiro Igai
知宏 猪飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014203824A priority Critical patent/JP2016072941A/en
Publication of JP2016072941A publication Critical patent/JP2016072941A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that, when deriving a DC prediction value in each of regions of an object block in DMM prediction, since the DC prediction value is derived by selecting a reference pixel to be utilized for each of the regions on the basis of a vertical edge flag and a horizontal edge flag which are derived from a wedgelet pattern and a pixel differential between the reference pixels, there are many conditional branches and processing is complicated.SOLUTION: In DC prediction value derivation processing in each region Ri (i=0, 1) of the object block in the DMM prediction, the reference pixel corresponding to the vertical edge flag and the horizontal edge flag derived from the wedgelet pattern is selected without calculating a pixel strength between the reference pixels, and the DC prediction value in each region Ri (i=0, 1) is derived.SELECTED DRAWING: Figure 1

Description

本発明は、画像を表す符号化データを復号する画像復号装置、および画像を符号化することによって符号化データを生成する画像符号化装置に関する。   The present invention relates to an image decoding apparatus that decodes encoded data representing an image, and an image encoding apparatus that generates encoded data by encoding an image.

複数視点の画像符号化技術には、複数の視点の画像を符号化する際に画像間の視差を予測することによって情報量を低減する視差予測符号化や、その符号化方法に対応した復号方法が提案されている。視点画像間の視差を表すベクトルを変位ベクトルと呼ぶ。変位ベクトルは、水平方向の要素(x成分)と垂直方向の要素(y成分)を有する2次元のベクトルであり、1つの画像を分割した領域であるブロック毎に算出される。また、複数視点の画像を取得するには、それぞれの視点に配置されたカメラを用いることが一般的である。複数視点の符号化では、各視点画像は、複数のレイヤにおいてそれぞれ異なるレイヤとして符号化される。複数のレイヤから構成される動画像の符号化方法は、一般に、スケーラブル符号化又は階層符号化と呼ばれる。スケーラブル符号化では、レイヤ間で予測を行うことで、高い符号化効率を実現する。レイヤ間で予測を行わずに基準となるレイヤは、ベースレイヤ、それ以外のレイヤは拡張レイヤと呼ばれる。レイヤが視点画像から構成される場合のスケーラブル符号化を、ビュースケーラブル符号化と呼ぶ。このとき、ベースレイヤはベースビュー、拡張レイヤは非ベースビューとも呼ばれる。さらに、ビュースケーラブルに加え、テクスチャ(画像)からなるテクスチャレイヤ(画像レイヤ)と、デプスマップ(距離画像)からなるデプスレイヤ(距離画像レイヤ)から構成される場合のスケーラブル符号化は、3次元スケーラブル符号化と呼ばれる。   The multi-view image encoding technique includes a parallax predictive encoding that reduces the amount of information by predicting a parallax between images when encoding images of a plurality of viewpoints, and a decoding method corresponding to the encoding method. Has been proposed. A vector representing the parallax between viewpoint images is called a displacement vector. The displacement vector is a two-dimensional vector having a horizontal element (x component) and a vertical element (y component), and is calculated for each block which is an area obtained by dividing one image. In order to acquire images from a plurality of viewpoints, it is common to use cameras arranged at the respective viewpoints. In multi-viewpoint encoding, each viewpoint image is encoded as a different layer in each of a plurality of layers. A method for encoding a moving image composed of a plurality of layers is generally referred to as scalable encoding or hierarchical encoding. In scalable coding, high coding efficiency is realized by performing prediction between layers. A reference layer without performing prediction between layers is called a base layer, and other layers are called enhancement layers. Scalable encoding in the case where a layer is composed of viewpoint images is referred to as view scalable encoding. At this time, the base layer is also called a base view, and the enhancement layer is also called a non-base view. Furthermore, in addition to view scalable, scalable coding in the case of a texture layer (image layer) composed of texture (image) and a depth layer (distance image layer) composed of depth map (distance image) is a three-dimensional scalable code. It is called “Kake”.

例えば、非特許文献1のHEVCベースの3次元スケーラブル符号化技術がある。非特許文献1では、効率良くデプスマップを符号化するために、DMM予測(Depth Modeling Mode;デプスイントラ予測もという)というデプス符号化ツールがある。   For example, there is a HEVC-based three-dimensional scalable coding technique of Non-Patent Document 1. In Non-Patent Document 1, there is a depth encoding tool called DMM prediction (also called depth intra prediction) in order to efficiently encode a depth map.

DMM予測は、基本的に、デプスマップ上の対象ブロック(デプスブロックとも称する)は、2つの非矩形の平坦領域から構成され、各平坦領域のデプス値は固定値で表現されるというデプスモデルに基づいている。また、デプスモデルは、各画素が属する領域を表わすパーティション情報(ウェッジレットパターンともいう)、及び各領域のデプス値情報(DCオフセット情報ともいう)から構成される。また、各領域のデプス予測値(DC予測値)は、対象ブロックに隣接する復号済画素(参照画素)から予測される。   DMM prediction basically uses a depth model in which a target block (also referred to as a depth block) on a depth map is composed of two non-rectangular flat regions, and the depth value of each flat region is expressed by a fixed value. Is based. The depth model is composed of partition information (also referred to as a wedgelet pattern) representing an area to which each pixel belongs, and depth value information (also referred to as DC offset information) of each area. Also, the depth prediction value (DC prediction value) of each region is predicted from decoded pixels (reference pixels) adjacent to the target block.

「3D-HEVC Draft Text 5 (JCT3V-I1001v3)」, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 9th Meeting: Sapporo, JP, 3 - 9 July, 2014(2014年8月13日公開)`` 3D-HEVC Draft Text 5 (JCT3V-I1001v3) '', Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11 9th Meeting: Sapporo, JP, 3-9 July, 2014 (released on August 13, 2014)

しかしながら、従来技術では、対象ブロックの各領域のDC予測値を導出する際に、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、水平エッジフラグhorEdgeFlag、及び参照画素間の画素差分(画素強度) horAbsDiff、vertAbsDiffに基づいて、図20(a)〜(e)に示すように、対象ブロックの分割パターンを、下記5つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出ていた。   However, in the conventional technology, when the DC prediction value of each area of the target block is derived, the vertical edge flag vertEdgeFlag, the horizontal edge flag horEdgeFlag, and the pixel difference (pixel intensity) between the reference pixels derived from the wedgelet pattern horAbsDiff Based on vertAbsDiff, as shown in FIGS. 20A to 20E, the division pattern of the target block is divided into the following five cases, and each region Ri (i = 0,1 ) To select a reference pixel to be used, and to derive a DC prediction value.

(a)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff>vertAbsDiff,
(b)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff<=vertAbsDiff,
(c)(vertEdgeFlag,horEdgeFlag) == (1,1),
(d)(vertEdgeFlag,horEdgeFlag) == (0,1),
(e)(vertEdgeFlag,horEdgeFlag) == (1,0),
ここで、horAbsDiff=Abs( p[0][-1] - p[nS-1][-1] ), vertAbsDiff = Abs( p[-1][0] - p[-1][nS-1] )である。特に、水平エッジフラグと垂直フラグが共に0の場合を、さらに分類するために、参照画素から水平方向の画素差分horAbsDiff、垂直方向の画素差分vertAbsDiffを導出する必要があり、条件分岐が多く、処理が複雑であるという課題があった。
(a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff,
(b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff,
(c) (vertEdgeFlag, horEdgeFlag) == (1,1),
(d) (vertEdgeFlag, horEdgeFlag) == (0,1),
(e) (vertEdgeFlag, horEdgeFlag) == (1,0),
Where horAbsDiff = Abs (p [0] [-1]-p [nS-1] [-1]), vertAbsDiff = Abs (p [-1] [0]-p [-1] [nS-1 ]). In particular, it is necessary to derive the horizontal pixel difference horAbsDiff and the vertical pixel difference vertAbsDiff from the reference pixel in order to further classify the case where both the horizontal edge flag and the vertical flag are 0. There was a problem that is complicated.

本発明は、上記の問題に鑑みてなされたものであり、その目的は、DMM予測において、対象ブロックの各領域Ri(i=0,1)のDC予測値導出処理において、参照画素間の画素強度を算出することなく、ウェッジレットパターンから導出される垂直エッジフラグ及び水平エッジフラグに応じた、参照画素を選択し、各領域Ri(i=0,1)のDC予測値を導出することで、符号化効率を維持しつつ、予測画像生成に係る処理量を削減可能な画像復号装置等を実現することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a pixel between reference pixels in the DC prediction value derivation process of each region Ri (i = 0,1) of the target block in DMM prediction. Without calculating the intensity, select the reference pixel according to the vertical edge flag and horizontal edge flag derived from the wedgelet pattern, and derive the DC prediction value of each region Ri (i = 0, 1) An object of the present invention is to realize an image decoding device or the like that can reduce the processing amount related to predictive image generation while maintaining encoding efficiency.

上記の課題を解決するために、本発明の態様1に係るDMM予測部は、対象PUを第1の領域と第2の領域へ分割することを示すウェッジレットパターンを導出するウェッジレットパターン導出手段と、前記ウェッジレットパターンから垂直エッジフラグ、及び水平エッジフラグを導出するエッジフラグ導出手段と、対象PUの参照画素から各領域のDC予測値を導出するDC予測値導出手段と、前記ウェッジレットパターン、前記各領域のDC予測値、及び各領域のDCオフセット情報に基づいて、対象PUの予測画像を導出する予測画像導出手段を備えるDMM予測装置であって、前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合と、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合と、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合それぞれにおいて、各領域のDC予測値の導出に利用する参照画素が互いに異なることを特徴とする。   In order to solve the above problem, the DMM prediction unit according to aspect 1 of the present invention provides a wedgelet pattern deriving unit that derives a wedgelet pattern indicating that the target PU is divided into the first region and the second region. Edge flag deriving means for deriving a vertical edge flag and a horizontal edge flag from the wedgelet pattern, DC predicted value deriving means for deriving a DC predicted value of each region from reference pixels of the target PU, and the wedgelet pattern , A DMM prediction device comprising a predicted image derivation unit for deriving a predicted image of the target PU based on the DC predicted value of each region and the DC offset information of each region, wherein the DC predicted value derivation unit includes: When the vertical edge flag is equal to the horizontal edge flag, when the vertical edge flag is 0 and the horizontal edge flag is 1, When the edge flag is 1 and the horizontal edge flag is 0, the reference pixels used for deriving the DC predicted value of each region are different from each other.

上記の課題を解決するために、本発明の態様2に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合、前記対象PUの最左上画素を基準にして、x方向へ−1、y方向へ0の位置にある参照画素と、x方向へ0、y方向へ−1の位置にある参照画素との平均値を、第1の領域に対するDC予測値とし、前記対象PUの最左上画素を基準にして、x方向へ−1、x方向へ2*nS−1の位置にある参照画素と、x方向へ2*nS−1、y方向へ−1の位置にある参照画素との平均値を、第2の領域に対するDC予測値として導出することを特徴とする。   In order to solve the above problem, in the DMM prediction apparatus according to aspect 2 of the present invention, in the aspect 1, the DC prediction value deriving means further includes the case where the vertical edge flag and the horizontal edge flag are equal, Based on the upper left pixel of the target PU, an average value of a reference pixel at a position of −1 in the x direction and a position of 0 in the y direction and a reference pixel at a position of 0 in the x direction and −1 in the y direction , A DC prediction value for the first region, and a reference pixel at a position of 2 * nS-1 in the x direction and 2 * nS-1 in the x direction and 2 * in the x direction with respect to the upper left pixel of the target PU. An average value of the reference pixel at a position of −1 in the nS−1 and y direction is derived as a DC predicted value for the second region.

上記の課題を解決するために、本発明の態様3に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合、前記対象PUの上辺の中央画素の上に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最左下画素の左下に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする。   In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 3 of the present invention, in the aspect 1, the DC prediction value deriving unit further includes the vertical edge flag being 0 and the horizontal edge flag being 1. In this case, the reference pixel adjacent to the center pixel on the upper side of the target PU is set as a DC prediction value for the first region, and the reference pixel adjacent to the lower left of the lower leftmost pixel of the target PU is set to DC for the second region. It is derived as a predicted value.

上記の課題を解決するために、本発明の態様4に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合、前記対象PUの左辺の中央画素の左に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最右上画素の右上に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする。   In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 4 of the present invention, in the aspect 1, the DC prediction value deriving unit further includes the vertical edge flag being 1 and the horizontal edge flag being 0. In this case, the reference pixel adjacent to the left of the central pixel on the left side of the target PU is set as the DC prediction value for the first region, and the reference pixel adjacent to the upper right of the upper right pixel of the target PU is set to DC for the second region. It is derived as a predicted value.

上記の課題を解決するために、本発明の態様5に係るDMM予測装置は、上記態様1から態様4において、さらに、前記第1の領域は、前記対象PUの最左上画素と、前記最左上画素のウェッジレットパターンの値と等しいウェッジレットパターンの値を有する画素からなる領域であることを特徴とする。   In order to solve the above-described problem, the DMM prediction apparatus according to aspect 5 of the present invention is the aspect 1 to aspect 4, in which the first region further includes: an uppermost left pixel of the target PU; The region is composed of pixels having a wedgelet pattern value equal to the value of the pixel wedgelet pattern.

上記の課題を解決するために、本発明の態様6に係るDMM予測装置は、上記態様5において、さらに、前記第2の領域は、前記対象PUの最左上画素のウェッジレットパターンの値と異なるウェッジレットパターンの値の画素からなる領域であることを特徴とする。   In order to solve the above problem, in the DMM prediction apparatus according to aspect 6 of the present invention, in the aspect 5, the second region is different from the value of the wedgelet pattern of the upper left pixel of the target PU. It is an area composed of pixels having a value of a wedgelet pattern.

上記の課題を解決するために、本発明の態様7に係るDMM予測装置は、上記態様6において、さらに、前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最右上画素のウェッジレットパターンの値が異なる場合には、1を垂直エッジフラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を垂直エッジフラグに設定することを特徴とする。   In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 7 of the present invention, in the aspect 6, the edge flag deriving unit further includes a wedge pattern value of the upper left pixel of the target PU and the target When the value of the wedgelet pattern of the upper rightmost pixel of the PU is different, 1 is set as the vertical edge flag, and the value of the wedge pattern of the uppermost right pixel is equal to the value of the wedgelet pattern of the uppermost right pixel. Is characterized in that 0 is set in the vertical edge flag.

上記の課題を解決するために、本発明の態様8に係るDMM予測装置は、上記態様7において、さらに、前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最左下画素のウェッジレットパターンの値が異なる場合には、1を水平フラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を水平エッジフラグに設定することを特徴とする。   In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 8 of the present invention, in the aspect 7, the edge flag deriving unit further includes a wedge pattern value of the upper left pixel of the target PU and the target When the value of the wedgelet pattern of the lower leftmost pixel of the PU is different, 1 is set in the horizontal flag, and when the value of the wedge pattern of the uppermost left pixel is equal to the value of the wedgelet pattern of the uppermost right pixel , 0 is set as the horizontal edge flag.

上記の課題を解決するために、本発明の態様9に係る画像復号装置は、上記態様1から態様8の何れか一つに記載のDMM予測装置と、DMM予測に関するDMM予測モード情報を復号するDMM予測モード情報復号手段を備える画像復号装置であって、上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする。   In order to solve the above problem, an image decoding apparatus according to aspect 9 of the present invention decodes the DMM prediction apparatus according to any one of aspects 1 to 8, and DMM prediction mode information related to DMM prediction. An image decoding apparatus including DMM prediction mode information decoding means, wherein the DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.

上記の課題を解決するために、本発明の態様10に係る画像符号化装置は、上記態様1から態様8の何れか一つに記載のDMM予測装置と、DMM予測に関するDMM予測モード情報を符号化するDMM予測モード情報符号化手段を備える画像符号化装置であって、上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする。   In order to solve the above problem, an image coding apparatus according to aspect 10 of the present invention encodes the DMM prediction apparatus according to any one of aspects 1 to 8, and DMM prediction mode information related to DMM prediction. The DMM prediction mode information encoding means includes an encoding means for encoding DMM prediction mode, wherein the DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.

本発明の一態様によれば、DMM予測において、対象PUに関するウェッジレットパターンから導出される垂直エッジフラグ、及び水平エッジフラグに基づいて、参照画素を選択し、各領域Ri(i=0,1)のDC予測値を導出することで、符号化効率を維持しつつ、予測画像生成に係る処理量を削減する効果を奏する。   According to an aspect of the present invention, in DMM prediction, a reference pixel is selected based on a vertical edge flag and a horizontal edge flag derived from a wedgelet pattern related to a target PU, and each region Ri (i = 0, 1 Deriving the DC prediction value of) has the effect of reducing the amount of processing for predictive image generation while maintaining the encoding efficiency.

本実施例に係るDC予測画像導出部の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the DC estimated image derivation | leading-out part which concerns on a present Example. 本発明の実施形態に係る画像伝送システムの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of an image transmission system according to an embodiment of the present invention. 本実施例に係る動画像復号装置の概略的構成について示した機能ブロック図である。It is the functional block diagram shown about the schematic structure of the moving image decoding apparatus which concerns on a present Example. 本発明の一実施形態に係る動画像符号化装置によって生成され、上記動画像復号装置によって復号される符号化データのデータ構成を示す図であって、(a)は、シーケンスSEQを既定するシーケンスレイヤ、(b)は、ピクチャPICTを規定するピクチャレイヤ、(c)は、スライスSを規定するスライスレイヤ、(d)は、スライスデータに含まれるツリーブロックを規定するツリーブロックレイヤ、(e)は、符号化ツリーに含まれる符号化単位(Coding Unit; CU)を規定するCUレイヤ(符号化ユニットレイヤ)を示す図である。It is a figure which shows the data structure of the encoding data produced | generated by the moving image encoder which concerns on one Embodiment of this invention, and is decoded by the said moving image decoder, Comprising: (a) is a sequence which predetermines sequence SEQ (B) is a picture layer that defines a picture PICT, (c) is a slice layer that defines a slice S, (d) is a tree block layer that defines a tree block included in slice data, (e) These are figures which show the CU layer (coding unit layer) which prescribes | regulates the coding unit (Coding Unit; CU) contained in a coding tree. CUレイヤに含まれるシンタックスの例を示す図である。(a)は、イントラCUに係るシンタックステーブルの一例を示し、(b)は、イントラ予測モード拡張に係るシンタックステーブルの一例である。It is a figure which shows the example of the syntax contained in a CU layer. (A) shows an example of a syntax table related to an intra CU, and (b) is an example of a syntax table related to intra prediction mode extension. CUレイヤに含まれるDCオフセット情報に係るシンタックスの一例である。It is an example of the syntax which concerns on the DC offset information contained in a CU layer. 上記動画像復号装置で利用されるイントラ予測方式の分類と対応する予測モード番号の例を示す図である。It is a figure which shows the example of the prediction mode number corresponding to the classification | category of the intra prediction method utilized with the said moving image decoding apparatus. 方向予測に属する33種類の予測モードについて、予測モードの識別子に対応する予測方向を示す図である。It is a figure which shows the prediction direction corresponding to the identifier of a prediction mode about 33 types of prediction modes which belong to direction prediction. 上記動画像復号装置が備える予測画像生成部の構成例について示す機能ブロック図である。It is a functional block diagram shown about the structural example of the estimated image generation part with which the said moving image decoding apparatus is provided. 上記予測画像生成部におけるCU単位の予測画像生成処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the prediction image generation process of the CU unit in the said prediction image generation part. 本実施例に係るDMM予測部の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the DMM prediction part which concerns on a present Example. 垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagの状態が示す分割パターンの例を説明するための図である。(a)は、(vertEdgeFlag,horEdgeFlag)=(0,0)が示す分割パターンの一例を示し、(b)は(vertEdgeFlag,horEdgeFlag)=(1,0)が示す分割パターンの一例を示し、(c)は(vertEdgeFlag,horEdgeFlag)=(1,0)が示す分割パターンの一例を示す。It is a figure for demonstrating the example of the division | segmentation pattern which the state of the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag shows. (A) shows an example of the division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (0,0), (b) shows an example of the division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1,0), c) shows an example of the division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1,0). 本実施例に係る領域毎のDC予測値導出時に利用する参照画素を説明するための図である。(a)は、(vertEdgeFlag,horEdgeFlag)=(0,0)、又は(vertEdgeFlag,horEdgeFlag)=(1,1)の時に利用する参照画素を示し、(b)は(vertEdgeFlag,horEdgeFlag)=(0,1)の時に利用する参照画素を示し、(c)は(vertEdgeFlag,horEdgeFlag)=(1,0)の時に利用する参照画素の一例である。It is a figure for demonstrating the reference pixel utilized at the time of DC prediction value derivation | leading-out for every area | region which concerns on a present Example. (A) shows reference pixels used when (vertEdgeFlag, horEdgeFlag) = (0, 0) or (vertEdgeFlag, horEdgeFlag) = (1, 1), and (b) shows (vertEdgeFlag, horEdgeFlag) = (0 , 1) shows the reference pixels used, and (c) is an example of the reference pixels used when (vertEdgeFlag, horEdgeFlag) = (1,0). DMM予測の概略について説明する図である。(a)はブロック上のオブジェクトのエッジ境界を示す例であり、(b)は該ブロックを、オブジェクトのエッジ境界に沿って2つ領域(R0、R1)へ分割することを示す分割パターン(wedgePattern)の一例を示し、(c)上記各分割された領域へ予測値を割り当てた一例である。It is a figure explaining the outline of DMM prediction. (A) is an example showing an edge boundary of an object on a block, and (b) is a division pattern (wedgePattern) indicating that the block is divided into two regions (R0, R1) along the edge boundary of the object. (C) is an example in which a predicted value is assigned to each of the divided areas. DMM予測において、ウェッジレット分割(DMM1)に基づくウェッジレットパターンの生成方法を説明する図である。(a)はブロック上の始点S、及び終点Eの一例であり、(b)は、始点Sと終点Eを結ぶ線分の一例を示し、(c)線分の右下側上の上記動画像復号装置が備える可変長復号部の構成例について示す機能ブロック図である。It is a figure explaining the production | generation method of the wedgelet pattern based on wedgelet division | segmentation (DMM1) in DMM prediction. (A) is an example of the start point S and the end point E on the block, (b) shows an example of a line segment connecting the start point S and the end point E, and (c) the moving image on the lower right side of the line segment. It is a functional block diagram shown about the structural example of the variable length decoding part with which an image decoding apparatus is provided. DMM1予測において、ウェッジレットパターンリスト生成部において生成されるウェッジ方向wedgeOri(wedgeOri=0..5)別のウェッジレットパターンの一例を説明するための図である。(a)は、wedgeOri=0のウェッジレットパターンの例を示し、(b)は、wedgeOri=1のウェッジレットパターンの例を示し、(c)は、wedgeOri=2のウェッジレットパターンをの例を示し、(d)は、wedgeOri=3のウェッジレットパターンの例を示し、(e)は、wedgeOri=4のウェッジレットパターンの例を示し、(f)はwedgeOri=5のウェッジレットパターンの例である。It is a figure for demonstrating an example of the wedgelet pattern according to wedge direction wedgeOri (wedgeOri = 0..5) produced | generated in a wedgelet pattern list production | generation part in DMM1 prediction. (A) shows an example of a wedgelet pattern with wedgeOri = 0, (b) shows an example of a wedgelet pattern with wedgeOri = 1, and (c) shows an example of a wedgelet pattern with wedgeOri = 2. (D) shows an example of a wedgelet pattern with wedgeOri = 3, (e) shows an example of a wedgelet pattern with wedgeOri = 4, and (f) shows an example of a wedgelet pattern with wedgeOri = 5. is there. 本発明の一実施形態に係る動画像符号化装置の構成について示す機能ブロック図である。It is a functional block diagram shown about the structure of the moving image encoder which concerns on one Embodiment of this invention. 上記動画像符号化装置を搭載した送信装置、および、上記動画像復号装置を搭載した受信装置の構成について示した図である。(a)は、動画像符号化装置を搭載した送信装置を示しており、(b)は、動画像復号装置を搭載した受信装置を示している。It is the figure shown about the structure of the transmitter which mounts the said moving image encoder, and the receiver which mounts the said moving image decoder. (A) shows a transmitting apparatus equipped with a moving picture coding apparatus, and (b) shows a receiving apparatus equipped with a moving picture decoding apparatus. 上記動画像符号化装置を搭載した記録装置、および、上記動画像復号装置を搭載した再生装置の構成について示した図である。(a)は、動画像符号化装置を搭載した記録装置を示しており、(b)は、動画像復号装置を搭載した再生装置を示している。It is the figure shown about the structure of the recording device which mounts the said moving image encoder, and the reproducing | regenerating apparatus which mounts the said moving image decoder. (A) shows a recording apparatus equipped with a moving picture coding apparatus, and (b) shows a reproduction apparatus equipped with a moving picture decoding apparatus. 従来技術に係る領域毎のDC予測値導出時に利用する参照画素を説明するための図である。(a)は、(vertEdgeFlag,horEdgeFlag)=(0,0)、かつ、horAbsDiff>vertAbsDiffの時に利用する参照画素を示し、(b)は(vertEdgeFlag,horEdgeFlag)=(0,0)、かつ、horAbsDiff ≦ vertAbsDiff時に利用する参照画素を示し、(c)は(vertEdgeFlag,horEdgeFlag)=(1,1)時に利用する参照画素を示し、(d)は(vertEdgeFlag,horEdgeFlag)=(0,1)時に利用する参照画素を示し、(e)は(vertEdgeFlag,horEdgeFlag)=(1,0)時に利用する参照画素を示す。It is a figure for demonstrating the reference pixel utilized at the time of DC prediction value deriving for every area | region which concerns on a prior art. (A) shows reference pixels used when (vertEdgeFlag, horEdgeFlag) = (0, 0) and horAbsDiff> vertAbsDiff, (b) shows (vertEdgeFlag, horEdgeFlag) = (0, 0), and horAbsDiff ≦ Indicates the reference pixel used when vertAbsDiff, (c) indicates the reference pixel used when (vertEdgeFlag, horEdgeFlag) = (1,1), and (d) shows the reference pixel used when (vertEdgeFlag, horEdgeFlag) = (0,1) (E) shows the reference pixel used when (vertEdgeFlag, horEdgeFlag) = (1,0).

〔概要〕
以下、図面を参照しながら本発明の実施形態について説明する。
〔Overview〕
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本実施形態に係る画像伝送システム5の構成を示す概略図である。   FIG. 2 is a schematic diagram showing the configuration of the image transmission system 5 according to the present embodiment.

画像伝送システム5は、複数のレイヤ画像を符号化した符号を伝送し、伝送された符号を復号した画像を表示するシステムである。画像伝送システム5は、画像符号化装置2、ネットワーク3、画像復号装置2及び画像表示装置4を含んで構成される。   The image transmission system 5 is a system that transmits a code obtained by encoding a plurality of layer images and displays an image obtained by decoding the transmitted code. The image transmission system 5 includes an image encoding device 2, a network 3, an image decoding device 2, and an image display device 4.

画像符号化装置2には、複数のレイヤ画像(テクスチャ画像ともいう)を示す信号Tが入力される。レイヤ画像とは、ある解像度及びある視点で視認もしくは撮影される画像である。複数のレイヤ画像を用いて3次元画像を符号化するビュースケーラブル符号化を行う場合、複数のレイヤ画像のそれぞれは、視点画像と呼ばれる。ここで、視点は撮影装置の位置又は観測点に相当する。例えば、複数の視点画像は、被写体に向かって左右の撮影装置のそれぞれが撮影した画像である。画像符号化装置2は、この信号のそれぞれを符号化して符号化データ#1を生成する。符号化データ#1の詳細については、後述する。視点画像とは、ある視点において観測される2次元画像(平面画像)である。視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。   The image encoding device 2 receives a signal T indicating a plurality of layer images (also referred to as texture images). A layer image is an image that is viewed or photographed at a certain resolution and a certain viewpoint. When performing view scalable coding in which a three-dimensional image is coded using a plurality of layer images, each of the plurality of layer images is referred to as a viewpoint image. Here, the viewpoint corresponds to the position or observation point of the photographing apparatus. For example, the plurality of viewpoint images are images taken by the left and right photographing devices toward the subject. The image encoding device 2 encodes each of these signals to generate encoded data # 1. Details of the encoded data # 1 will be described later. A viewpoint image is a two-dimensional image (planar image) observed at a certain viewpoint. The viewpoint image is indicated by, for example, a luminance value or a color signal value for each pixel arranged in a two-dimensional plane.

以下では、1枚の視点画像又は、その視点画像を示す信号をピクチャ(picture)と呼ぶ。本実施形態では、複数のレイヤ画像として、少なくともベースレイヤ画像と、ベースレイヤ画像以外の画像(拡張レイヤ画像)を含む画像の符号化および復号を扱う。複数のレイヤのうち、画像もしくは符号化パラメータにおいて参照関係(依存関係)にある2つのレイヤについて、参照される側の画像を、第1レイヤ画像、参照する側の画像を第2レイヤ画像と呼ぶ。例えば、ベースレイヤを参照して符号化される(ベースレイヤ以外の)エンハンスレイヤ画像がある場合、ベースレイヤ画像を第1レイヤ画像、エンハンスレイヤ画像を第2レイヤ画像として扱う。なお、エンハンスレイヤ画像の例としては、ベースビュー以外の視点の画像やデプス画像などがある。   Hereinafter, one viewpoint image or a signal indicating the viewpoint image is referred to as a picture. In the present embodiment, encoding and decoding of an image including at least a base layer image and an image other than the base layer image (enhancement layer image) is handled as the plurality of layer images. Of the multiple layers, for two layers that have a reference relationship (dependency relationship) in the image or encoding parameter, the image on the reference side is referred to as a first layer image, and the image on the reference side is referred to as a second layer image. . For example, when there is an enhancement layer image (other than the base layer) that is encoded with reference to the base layer, the base layer image is treated as a first layer image and the enhancement layer image is treated as a second layer image. Note that examples of the enhancement layer image include an image of a viewpoint other than the base view and a depth image.

視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。また、デプスマップ(depth map、「デプス画像」、「深度画像」、「距離画像」とも言う)とは、被写空間に含まれる被写体や背景の、視点(撮影装置等)からの距離に対応する信号値(「デプス値」、「深度値」、「デプス」等と呼ぶ)であって、二次元平面に配置された画素毎の信号値(画素値)からなる画像信号である。デプスマップを構成する画素は、視点画像を構成する画素と対応する。従って、デプスマップは、被写空間を二次元平面に射影した基準となる画像信号である視点画像を用いて、三次元の被写空間を表すための手がかりとなる。   The viewpoint image is indicated by, for example, a luminance value or a color signal value for each pixel arranged in a two-dimensional plane. Also, the depth map (also called depth map, “depth image”, “depth image”, “distance image”) corresponds to the distance from the viewpoint (photographing device, etc.) of the subject or background included in the subject space. Signal values (referred to as “depth value”, “depth value”, “depth”, etc.), and are image signals composed of signal values (pixel values) for each pixel arranged on a two-dimensional plane. The pixels constituting the depth map correspond to the pixels constituting the viewpoint image. Therefore, the depth map is a clue for representing the three-dimensional object space by using the viewpoint image which is a reference image signal obtained by projecting the object space onto the two-dimensional plane.

ネットワーク3は、画像符号化装置2が生成した符号化データ#1を画像復号装置1に伝送する。ネットワーク3は、インターネット(internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)又はこれらの組み合わせである。ネットワーク3は、必ずしも双方向の通信網に限らず、地上波ディジタル放送、衛星放送等の放送波を伝送する一方向又は双方向の通信網であっても良い。また、ネットワーク3は、DVD(Digital Versatile Disc)、BD(Blu-ray Disc(登録商標))等の符号化データ#1を記録した記憶媒体で代替されても良い。   The network 3 transmits the encoded data # 1 generated by the image encoding device 2 to the image decoding device 1. The network 3 is the Internet, a wide area network (WAN), a small network (LAN), or a combination thereof. The network 3 is not necessarily limited to a bidirectional communication network, and may be a unidirectional or bidirectional communication network that transmits broadcast waves such as terrestrial digital broadcasting and satellite broadcasting. The network 3 may be replaced with a storage medium that records encoded data # 1 such as a DVD (Digital Versatile Disc) or a BD (Blu-ray Disc (registered trademark)).

画像復号装置1は、ネットワーク3が伝送した符号化データ#1のそれぞれを復号し、それぞれ復号した複数の復号レイヤ画像Td(復号視点画像TexturePic、及び復号デプスマップDepthPic)を生成して出力する。   The image decoding device 1 decodes each of the encoded data # 1 transmitted by the network 3, and generates and outputs a plurality of decoded layer images Td (decoded viewpoint image TexturePic and decoded depth map DepthPic) respectively decoded.

画像表示装置4は、画像復号装置1が生成した複数の復号レイヤ画像Tdの全部又は一部を表示する。例えば、ビュースケーラブル符号化においては、全部の場合、3次元画像(立体画像)や自由視点画像が表示され、一部の場合、2次元画像が表示される。画像表示装置4は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。また、空間スケーラブル符号化、SNRスケーラブル符号化では、画像復号装置1、画像表示装置4が高い処理能力を有する場合には、画質の高い拡張レイヤ画像を表示し、より低い処理能力しか有しない場合には、拡張レイヤほど高い処理能力、表示能力を必要としないベースレイヤ画像を表示する。   The image display device 4 displays all or part of the plurality of decoded layer images Td generated by the image decoding device 1. For example, in view scalable coding, a 3D image (stereoscopic image) and a free viewpoint image are displayed in all cases, and a 2D image is displayed in some cases. The image display device 4 includes a display device such as a liquid crystal display or an organic EL (Electro-luminescence) display. In addition, in spatial scalable coding and SNR scalable coding, when the image decoding device 1 and the image display device 4 have a high processing capability, an enhancement layer image with high image quality is displayed and only a lower processing capability is provided. Displays a base layer image that does not require higher processing capability and display capability as an extension layer.

視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。また、デプスマップ(depth map、「デプス画像」、「深度画像」、「距離画像」とも言う)とは、被写空間に含まれる被写体や背景の、視点(撮影装置等)からの距離に対応する信号値(「デプス値」、「深度値」、「デプス」等と呼ぶ)であって、二次元平面に配置された画素毎の信号値(画素値)からなる画像信号である。デプスマップを構成する画素は、視点画像を構成する画素と対応する。従って、デプスマップは、被写空間を二次元平面に射影した基準となる画像信号である視点画像を用いて、三次元の被写空間を表すための手がかりとなる。   The viewpoint image is indicated by, for example, a luminance value or a color signal value for each pixel arranged in a two-dimensional plane. Also, the depth map (also called depth map, “depth image”, “depth image”, “distance image”) corresponds to the distance from the viewpoint (photographing device, etc.) of the subject or background included in the subject space. Signal values (referred to as “depth value”, “depth value”, “depth”, etc.), and are image signals composed of signal values (pixel values) for each pixel arranged on a two-dimensional plane. The pixels constituting the depth map correspond to the pixels constituting the viewpoint image. Therefore, the depth map is a clue for representing the three-dimensional object space by using the viewpoint image which is a reference image signal obtained by projecting the object space onto the two-dimensional plane.

以下では、図1〜図20を参照しながら、本発明の一実施形態に係る画像復号装置1および画像符号化装置2について説明する。図3は、画像復号装置1の概略的構成を示す機能ブロック図である。   Below, the image decoding apparatus 1 and the image coding apparatus 2 which concern on one Embodiment of this invention are demonstrated, referring FIGS. FIG. 3 is a functional block diagram illustrating a schematic configuration of the image decoding device 1.

動画像復号装置1には、動画像符号化装置2がレイヤ画像(1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPic)を符号化した符号化データ#1が入力される。動画像復号装置1は、入力された符号化データ#1を復号して、レイヤ画像#2(1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPic)を外部に出力する。動画像復号装置1の詳細な説明に先立ち、符号化データ#1の構成を以下に説明する。
〔符号化データの構成〕
図4を用いて、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成例について説明する。符号化データ#1は、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。
The moving image decoding apparatus 1 includes encoded data # 1 in which the moving image encoding apparatus 2 encodes a layer image (one or a plurality of viewpoint images TexturePic and a depth map DepthPic corresponding to the viewpoint image TexturePic). Entered. The moving image decoding apparatus 1 decodes the input encoded data # 1 and externally outputs the layer image # 2 (one or more viewpoint images TexturePic and a depth map DepthPic corresponding to the viewpoint image TexturePic). Output. Prior to detailed description of the moving picture decoding apparatus 1, the configuration of the encoded data # 1 will be described below.
[Configuration of encoded data]
A configuration example of encoded data # 1 that is generated by the video encoding device 2 and decoded by the video decoding device 1 will be described with reference to FIG. The encoded data # 1 exemplarily includes a sequence and a plurality of pictures constituting the sequence.

符号化データ#1におけるシーケンスレイヤ以下の階層の構造を図4に示す。図4の(a)〜(e)は、それぞれ、シーケンスSEQを規定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、スライスデータを規定するスライスデータレイヤ、符号化ツリーに含まれる符号化単位(Coding Unit; CU)を規定する符号化ユニットレイヤを示す図である。   FIG. 4 shows a hierarchical structure below the sequence layer in the encoded data # 1. 4A to 4E respectively show a sequence layer that defines a sequence SEQ, a picture layer that defines a picture PICT, a slice layer that defines a slice S, a slice data layer that defines slice data, and a coding tree. It is a figure which shows the encoding unit layer which prescribes | regulates the encoding unit (Coding Unit; CU) contained in.

(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。シーケンスSEQは、図4の(a)に示すように、ビデオパラメータセット(Video Parameter Set)シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤIDを示す。図4では、#0と#1、すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれによらない。
(Sequence layer)
In the sequence layer, a set of data referred to by the video decoding device 1 for decoding a sequence SEQ to be processed (hereinafter also referred to as a target sequence) is defined. As shown in FIG. 4A, the sequence SEQ includes a video parameter set (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, and an additional extension. Information SEI (Supplemental Enhancement Information) is included. Here, the value indicated after # indicates the layer ID. FIG. 4 shows an example in which encoded data of # 0 and # 1, that is, layer 0 and layer 1, exists, but the type of layer and the number of layers are not dependent on this.

ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。   The video parameter set VPS is a set of encoding parameters common to a plurality of moving images, a plurality of layers included in the moving image, and encoding parameters related to individual layers in a moving image composed of a plurality of layers. A set is defined.

シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。   In the sequence parameter set SPS, a set of encoding parameters referred to by the video decoding device 1 in order to decode the target sequence is defined. For example, the width and height of the picture are defined.

ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。   In the picture parameter set PPS, a set of encoding parameters referred to by the video decoding device 1 for decoding each picture in the target sequence is defined. For example, a quantization width reference value (pic_init_qp_minus26) used for picture decoding and a flag (weighted_pred_flag) indicating application of weighted prediction are included. A plurality of PPS may exist. In that case, one of a plurality of PPSs is selected from each picture in the target sequence.

(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。ピクチャPICTは、図4の(b)に示すように、スライスS1〜SNSを含んでいる(NSはピクチャPICTに含まれるスライスの総数)。
(Picture layer)
In the picture layer, a set of data referred to by the video decoding device 1 for decoding a picture PICT to be processed (hereinafter also referred to as a target picture) is defined. As illustrated in FIG. 4B, the picture PICT includes slices S 1 to S NS (NS is the total number of slices included in the picture PICT).

なお、以下、スライスS1〜SNSのそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化データ#1に含まれるデータであって、添え字を付している他のデータについても同様である。 Note that, hereinafter, when it is not necessary to distinguish each of the slices S 1 to S NS , the reference numerals may be omitted. The same applies to other data with subscripts included in encoded data # 1 described below.

(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する、スライスセグメント)を復号するために動画像復号装置1が参照するデータの集合が規定されている。スライスSは、図4の(c)に示すように、スライスヘッダSH、及び、スライスデータSDATAを含んでいる。
(Slice layer)
In the slice layer, a set of data referred to by the video decoding device 1 for decoding a slice S to be processed (a slice segment, also referred to as a target slice) is defined. As shown in FIG. 4C, the slice S includes a slice header SH and slice data SDATA.

スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。   The slice header SH includes an encoding parameter group that is referred to by the video decoding device 1 in order to determine a decoding method of the target slice. Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.

スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。   As slice types that can be specified by the slice type specification information, (1) I slice that uses only intra prediction at the time of encoding, (2) P slice that uses unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.

スライスデータSDATAには、1又は複数のツリーブロックTBLK〜TBLKNC(NCは、スライスデータSDATAに含まれるツリーブロックの総数)が含まれる。 The slice data SDATA includes one or a plurality of tree blocks TBLK 1 to TBLK NC (NC is the total number of tree blocks included in the slice data SDATA).

(ツリーブロックレイヤ)
ツリーブロックレイヤでは、処理対象のツリーブロックTBLK(以下、対象ツリーブロックとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。
(Tree block layer)
In the tree block layer, a set of data referred to by the video decoding device 1 for decoding a processing target tree block TBLK (hereinafter also referred to as a target tree block) is defined.

ツリーブロックTBLKは、ツリーブロックヘッダTBLKHと、符号化単位情報CU〜CUNL(NLはツリーブロックTBLKに含まれる符号化単位情報の総数)とを含む。ここで、まず、ツリーブロックTBLKと、符号化単位情報CUとの関係について説明すると次のとおりである。 The tree block TBLK includes a tree block header TBLKH and coding unit information CU 1 to CU NL (NL is the total number of coding unit information included in the tree block TBLK). Here, first, a relationship between the tree block TBLK and the coding unit information CU will be described as follows.

ツリーブロックTBLKは、イントラ予測またはインター予測、および、変換の各処理ためのブロックサイズを特定するためのユニットに分割される。   Tree block TBLK is divided into units for specifying a block size for each process of intra prediction or inter prediction and transformation.

ツリーブロックTBLKの上記ユニットは、再帰的な4分木分割により分割されている。この再帰的な4分木分割により得られる木構造のことを以下、符号化ツリー(coding tree)と称する。   The unit of the tree block TBLK is divided by recursive quadtree division. The tree structure obtained by this recursive quadtree partitioning is hereinafter referred to as a coding tree.

以下、符号化ツリーの末端のノードであるリーフ(leaf)に対応するユニットを、符号化ノード(coding node)として参照する。また、符号化ノードは、符号化処理の基本的な単位となるため、以下、符号化ノードのことを、符号化単位(CU)とも称する。   Hereinafter, a unit corresponding to a leaf which is a node at the end of the coding tree is referred to as a coding node. In addition, since the encoding node is a basic unit of the encoding process, hereinafter, the encoding node is also referred to as an encoding unit (CU).

つまり、符号化単位情報(以下、CU情報と称する)CU〜CUNLは、ツリーブロックTBLKを再帰的に4分木分割して得られる各符号化ノード(符号化単位)に対応する情報である。 That is, coding unit information (hereinafter referred to as CU information) CU 1 to CU NL is information corresponding to each coding node (coding unit) obtained by recursively dividing the tree block TBLK into quadtrees. is there.

また、符号化ツリーのルート(root)は、ツリーブロックTBLKに対応付けられる。換言すれば、ツリーブロックTBLKは、複数の符号化ノードを再帰的に含む4分木分割の木構造の最上位ノードに対応付けられる。   Also, the root of the coding tree is associated with the tree block TBLK. In other words, the tree block TBLK is associated with the highest node of the tree structure of the quadtree partition that recursively includes a plurality of encoding nodes.

なお、各符号化ノードのサイズは、当該符号化ノードが直接に属する符号化ノード(すなわち、当該符号化ノードの1階層上位のノードのユニット)のサイズの縦横とも半分である。   Note that the size of each coding node is half of the size of the coding node to which the coding node directly belongs (that is, the unit of the node one level higher than the coding node).

(ツリーブロックヘッダ)
ツリーブロックヘッダTBLKHには、対象ツリーブロックの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図4の(d)に示すように、対象ツリーブロックの各CUへの分割パターンを指定するツリーブロック分割情報SP_TBLK、および、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(qp_delta)が含まれる。
(Tree block header)
The tree block header TBLKH includes an encoding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target tree block. Specifically, as shown in FIG. 4 (d), tree block division information SP_TBLK that specifies a division pattern of the target tree block into each CU, and a quantization parameter difference that specifies the size of the quantization step Δqp (qp_delta) is included.

ツリーブロック分割情報SP_TBLKは、ツリーブロックを分割するための符号化ツリーを表す情報であり、具体的には、対象ツリーブロックに含まれる各CUの形状、サイズ、および、対象ツリーブロック内での位置を指定する情報である。   The tree block division information SP_TBLK is information representing a coding tree for dividing the tree block. Specifically, the shape and size of each CU included in the target tree block, and the position in the target tree block Is information to specify.

また、量子化パラメータ差分Δqpは、対象ツリーブロックにおける量子化パラメータqpと、当該対象ツリーブロックの直前に符号化されたツリーブロックにおける量子化パラメータqp’との差分qp−qp’である。   The quantization parameter difference Δqp is a difference qp−qp ′ between the quantization parameter qp in the target tree block and the quantization parameter qp ′ in the tree block encoded immediately before the target tree block.

(CUレイヤ)
CUレイヤでは、処理対象のCU(以下、対象CUとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。
(CU layer)
In the CU layer, a set of data referred to by the video decoding device 1 for decoding a CU to be processed (hereinafter also referred to as a target CU) is defined.

ここで、CU情報CUに含まれるデータの具体的な内容の説明をする前に、CUに含まれるデータの木構造について説明する。符号化ノードは、予測ツリー(prediction tree;PT)および変換ツリー(transform tree;TT)のルートのノードとなる。予測ツリーおよび変換ツリーについて説明すると次のとおりである。   Here, before describing specific contents of data included in the CU information CU, a tree structure of data included in the CU will be described. The encoding node is a node at the root of a prediction tree (PT) and a transform tree (TT). The prediction tree and the conversion tree are described as follows.

予測ツリーにおいては、符号化ノードが1または複数の予測ブロックに分割され、各予測ブロックの位置とサイズとが規定される。   In the prediction tree, the encoding node is divided into one or a plurality of prediction blocks, and the position and size of each prediction block are defined.

予測処理は、この予測ブロックごとに行われる。以下、予測の単位である予測ブロックのことを、予測単位(prediction unit;PU)とも称する。   Prediction processing is performed for each prediction block. Hereinafter, a prediction block that is a unit of prediction is also referred to as a prediction unit (PU).

予測ツリーにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。   Broadly speaking, there are two types of division in the prediction tree: intra prediction and inter prediction.

イントラ予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)と、N×Nとがある。   In the case of intra prediction, there are 2N × 2N (the same size as the encoding node) and N × N division methods.

また、インター予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)、2N×N、N×2N、および、N×Nなどがある。   In the case of inter prediction, there are 2N × 2N (the same size as the encoding node), 2N × N, N × 2N, N × N, and the like.

また、変換ツリーにおいては、符号化ノードが1または複数の変換ブロックに分割され、各変換ブロックの位置とサイズとが規定される。   In the transform tree, the encoding node is divided into one or a plurality of transform blocks, and the position and size of each transform block are defined.

変換処理は、この変換ブロックごとに行われる。以下、変換の単位である変換ブロックのことを、変換単位(transform unit;TU)とも称する。   The conversion process is performed for each conversion block. Hereinafter, a transform block that is a unit of transform is also referred to as a transform unit (TU).

(CU情報のデータ構造)
続いて、図4の(e)を参照しながらCU情報CUに含まれるデータの具体的な内容について説明する。図4の(e)に示すように、CU情報CUは、具体的には、スキップフラグSKIP、PT情報PTI、および、TT情報TTIを含む。
(Data structure of CU information)
Next, specific contents of data included in the CU information CU will be described with reference to FIG. As shown in FIG. 4E, the CU information CU specifically includes a skip flag SKIP, PT information PTI, and TT information TTI.

スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象CUにスキップモードが適用されている場合、そのCU情報CUにおけるPT情報PTI、および、TT情報TTIは省略される。   The skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU. When the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target CU, PT information PTI and TT information TTI in the CU information CU are omitted.

PT情報PTIは、CUに含まれるPTに関する情報である。言い換えれば、PT情報PTIは、PTに含まれる1または複数のPUそれぞれに関する情報の集合であり、動画像復号装置1により予測画像を生成する際に参照される。PT情報PTIは、図4の(d)に示すように、予測タイプ情報PType、および、予測情報PInfoを含んでいる。   The PT information PTI is information related to the PT included in the CU. In other words, the PT information PTI is a set of information related to each of one or more PUs included in the PT, and is referred to when the moving image decoding apparatus 1 generates a predicted image. As shown in FIG. 4D, the PT information PTI includes prediction type information PType and prediction information PInfo.

予測タイプ情報PType(又は、CuPredMode)は、CUに含まれる1又は複数のPUについての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。例えば、イントラ予測を用いる場合には、予測タイプ情報CuPredModeは、イントラ予測を示すMODE_INTRAに設定され、インター予測を用いる場合には、インター予測を示すMODE_INTERに設定される。イントラ予測を適用するCUをイントラCUと呼び、インターCUを適用するCUをインターCUとも呼ぶ。   The prediction type information PType (or CuPredMode) is information that specifies whether intra prediction or inter prediction is used as a prediction image generation method for one or a plurality of PUs included in a CU. For example, when using intra prediction, the prediction type information CuPredMode is set to MODE_INTRA indicating intra prediction, and when using inter prediction, it is set to MODE_INTER indicating inter prediction. A CU to which intra prediction is applied is called an intra CU, and a CU to which an inter CU is applied is also called an inter CU.

予測情報PInfoは、予測タイプ情報PTypeが何れの予測方法を指定するのかに応じて、イントラ予測情報、または、インター予測情報より構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。   The prediction information PInfo is configured from intra prediction information or inter prediction information depending on which prediction method is specified by the prediction type information PType. Hereinafter, a PU to which intra prediction is applied is also referred to as an intra PU, and a PU to which inter prediction is applied is also referred to as an inter PU.

また、予測情報PInfoは、対象PUの形状、サイズ、および、位置を指定する情報が含まれる。上述のとおり予測画像の生成は、PUを単位として行われる。予測情報PInfoの詳細については後述する。   Further, the prediction information PInfo includes information specifying the shape, size, and position of the target PU. As described above, the generation of the predicted image is performed in units of PU. Details of the prediction information PInfo will be described later.

TT情報TTIは、CUに含まれるTTに関する情報である。言い換えれば、TT情報TTIは、TTに含まれる1または複数のTUそれぞれに関する情報の集合であり、動画像復号装置1により残差データを復号する際に参照される。なお、以下、TUのことを変換ブロックと称することもある。   The TT information TTI is information regarding the TT included in the CU. In other words, the TT information TTI is a set of information regarding each of one or a plurality of TUs included in the TT, and is referred to when the moving image decoding apparatus 1 decodes residual data. Hereinafter, a TU may be referred to as a conversion block.

TT情報TTIは、図4の(d)に示すように、対象CUの各変換ブロックへの分割パターンを指定するTT分割情報SP_TU、および、TU情報TUI1〜TUINT(NTは、対象CUに含まれる変換ブロックの総数)を含んでいる。 As shown in FIG. 4 (d), the TT information TTI includes TT division information SP_TU that designates a division pattern of the target CU into each conversion block, and TU information TUI 1 to TUI NT (NT is the target CU). The total number of transform blocks included).

TT分割情報SP_TUは、具体的には、対象CUに含まれる各TUの形状、サイズ、および、対象CU内での位置を決定するための情報である。例えば、TT分割情報SP_TUは、対象となるノードの分割を行うのか否かを示す情報(split_transform_unit_flag)と、その分割の深度を示す情報(trafoDepth)とから実現することができる。   Specifically, the TT division information SP_TU is information for determining the shape and size of each TU included in the target CU and the position within the target CU. For example, the TT division information SP_TU can be realized from information (split_transform_unit_flag) indicating whether or not the target node is divided and information (trafoDepth) indicating the depth of the division.

また、TU分割情報SP_TUには、各TUに非ゼロの変換係数が存在するか否かの情報が含まれる。例えば、個々のTUに対する非ゼロ係数の存否情報(CBF;Coded Block Flag)がり、色空間毎に、輝度lumaに関するCBFをcbf_luma、色差Cbに関するCBFをcbf_cb、色差Crに関するCBFをcbf_crと称する。また、複数のTUに対する非ゼロ係数の存否情報(rqt_root_flag, 又はno_residual_data_flagとも称する)がTU分割情報SP_TUに含まれる。また、各TUに対する非ゼロの変換係数を符号化する代わりに、TUにおいて、1又は複数の領域毎に、予測残差の平均(DC)値を表わす予測残差DC情報(DCオフセット情報)を符号化する(領域別DC符号化を行う)か否かを示すSDCフラグsdc_flagが含まれる。なお、領域別DC符号化は、Segment-wise DC Coding (SDC)とも呼ばれる。特に、イントラ予測における領域別DC符号化を、イントラSDCと呼び、インター予測における領域別DC符号化をインターSDCと呼ぶ。なお、領域別DC符号化が適用される場合、CUサイズ、PUサイズ、及びTUサイズは等しくてもよい。   The TU partition information SP_TU includes information on whether or not a non-zero transform coefficient exists in each TU. For example, there is non-zero coefficient existence information (CBF; Coded Block Flag) for each TU, and for each color space, CBF for luminance luma is called cbf_luma, CBF for color difference Cb is called cbf_cb, and CBF for color difference Cr is called cbf_cr. In addition, non-zero coefficient existence information (also referred to as rqt_root_flag or no_residual_data_flag) for a plurality of TUs is included in the TU partition information SP_TU. Also, instead of encoding non-zero transform coefficients for each TU, prediction residual DC information (DC offset information) representing an average (DC) value of the prediction residual is obtained for each region or regions in the TU. An SDC flag sdc_flag indicating whether or not to perform encoding (perform region-specific DC encoding) is included. The regional DC coding is also called segment-wise DC coding (SDC). In particular, DC coding by region in intra prediction is called intra SDC, and DC coding by region in inter prediction is called inter SDC. When region-specific DC coding is applied, the CU size, PU size, and TU size may be equal.

TU情報TUI1〜TUINTは、TTに含まれる1または複数のTUそれぞれに関する個別の情報である。例えば、TU情報TUIは、量子化予測残差を含んでいる。 The TU information TUI 1 to TUI NT are individual information regarding each of one or more TUs included in the TT. For example, the TU information TUI includes a quantized prediction residual.

各量子化予測残差は、動画像符号化装置2が以下の処理A、又は処理Bを、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。   Each quantized prediction residual is encoded data generated by the video encoding device 2 performing the following process A or process B on a target block that is a processing target block.

(処理A:周波数変換・量子化を実施する場合)
処理A−1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する;
処理A−2:処理A−1にて得られた変換係数を量子化する;
処理A−3:処理A−2にて量子化された変換係数を可変長符号化する;
なお、上述した量子化パラメータqpは、動画像符号化装置2が変換係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。
(Process A: When frequency conversion / quantization is performed)
Process A-1: DCT transform (Discrete Cosine Transform) of the prediction residual obtained by subtracting the prediction image from the encoding target image;
Process A-2: Quantize the transform coefficient obtained in Process A-1;
Process A-3: Variable-length encoding the transform coefficient quantized in Process A-2;
The quantization parameter qp described above represents the magnitude of the quantization step QP used when the moving image coding apparatus 2 quantizes the transform coefficient (QP = 2 qp / 6 ).

(処理B:領域別DC符号化の場合(SDC; Segment-wise DC Coding))
処理B−1:符号化対象画像から予測画像を減算した予測残差の平均値(DC値)を算出する。
(Process B: Segment-wise DC Coding (SDC))
Process B-1: An average value (DC value) of prediction residuals obtained by subtracting the prediction image from the encoding target image is calculated.

処理B−2:処理B−1にて得られたDC値を可変長符号化する。   Process B-2: Variable length coding is performed on the DC value obtained in Process B-1.

特に、領域別にDC値を符号化することを、領域別DC符号化(SDC; Segment-Wise DC Coding)と呼び、平坦な領域の予測残差の符号化に有効である。例えば、デプスマップの符号化において、各デプスブロックにおいて、1又は複数に分割された領域の予測残差の符号化に利用される。   In particular, encoding a DC value for each region is called segment-wise DC coding (SDC) and is effective for encoding a prediction residual in a flat region. For example, in depth map encoding, each depth block is used for encoding a prediction residual of a region divided into one or a plurality of regions.

(予測情報PInfo)
上述のとおり、予測情報PInfoには、インター予測情報およびイントラ予測情報の2種類がある。
(Prediction information PInfo)
As described above, there are two types of prediction information PInfo: inter prediction information and intra prediction information.

インター予測情報には、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。より具体的には、インター予測情報には、対象CUの各インターPUへの分割パターンを指定するインターPU分割情報、および、各インターPUについてのインター予測パラメータが含まれる。   The inter prediction information includes a coding parameter that is referred to when the video decoding device 1 generates an inter prediction image by inter prediction. More specifically, the inter prediction information includes inter PU division information that specifies a division pattern of the target CU into each inter PU, and inter prediction parameters for each inter PU.

インター予測パラメータには、参照画像インデックスと、推定動きベクトルインデックスと、動きベクトル残差とが含まれる。   The inter prediction parameters include a reference image index, an estimated motion vector index, and a motion vector residual.

一方、イントラ予測情報には、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。より具体的には、イントラ予測情報には、対象CUの各イントラPUへの分割パターンを指定するイントラPU分割情報、および、各イントラPUについてのイントラ予測パラメータが含まれる。イントラ予測パラメータは、各イントラPUについてのイントラ予測(予測モード)を復元するためのパラメータである。   On the other hand, the intra prediction information includes an encoding parameter that is referred to when the video decoding device 1 generates an intra predicted image by intra prediction. More specifically, the intra prediction information includes intra PU division information that specifies a division pattern of the target CU into each intra PU, and intra prediction parameters for each intra PU. The intra prediction parameter is a parameter for restoring intra prediction (prediction mode) for each intra PU.

デプスマップDepthPic、及びテクスチャTexturePicの符号化で共通に利用されるイントラ予測(DC予測、Planar予測、Angular予測)に関するパラメータ(イントラ予測パラメータ)には、MPM(Most Probable Mode、以下同様)に関するフラグであるmpm_flag、MPMを選択するためのインデックスであるmpm_idx、および、MPM以外の予測モードを指定するためのインデックス(残余予測モードインデックス)であるrem_idxが含まれる。また、以下において、単に“予測モード”と表記する場合、輝度予測モードのことを指す。色差予測モードについては、“色差予測モード”と表記し、輝度予測モードと区別する。また、予測モードを復元するパラメータには、色差予測モードを指定するためのパラメータであるchroma_modeが含まれる。なお、mpm_flagおよびrem_idxは、それぞれ、非特許文献1における“prev_intra_luma_pred_flag”(図5(a)のSYN02)および“rem_intra_luma_pred_mode”(図5(a)のSYN03)に対応している。また、chroma_modeは、“intra_chroma_pred_mode”(不図示)に対応している。   Parameters related to intra prediction (DC prediction, Planar prediction, Angular prediction) (intra prediction parameters) commonly used in coding of depth map DepthPic and texture TexturePic are flags related to MPM (Most Probable Mode, the same applies hereinafter). A certain mpm_flag, mpm_idx that is an index for selecting an MPM, and rem_idx that is an index (residual prediction mode index) for specifying a prediction mode other than the MPM are included. Further, in the following, when simply described as “prediction mode”, it indicates the luminance prediction mode. The color difference prediction mode is described as “color difference prediction mode” and is distinguished from the luminance prediction mode. The parameter for restoring the prediction mode includes chroma_mode that is a parameter for designating the color difference prediction mode. Note that mpm_flag and rem_idx correspond to “prev_intra_luma_pred_flag” (SYN02 in FIG. 5 (a)) and “rem_intra_luma_pred_mode” (SYN03 in FIG. 5 (a)) in Non-Patent Document 1, respectively. Further, chroma_mode corresponds to “intra_chroma_pred_mode” (not shown).

デプスマップの符号化に利用されるデプスイントラ予測(DMM予測)に関する予測モード(イントラ拡張モード(図5(a)のSYN01))を復元するためのパラメータ(デプスイントラ予測パラメータ, DMM予測モード情報)には、デプスイントラ予測の有無を示すフラグ(デプスイントラ予測有無フラグ)dim_not_present_flag(図5(b)のSYN01A)、デプスイントラ予測の方式(ウェッジレット分割に基づくDMM1予測(INTRA_DMM_WFULL)と輪郭分割に基づくDMM4予測(INTRA_DMM_CREDTEX))を選択するフラグ(デプスイントラモードフラグ)depth_intra_mode_flag(図5(b)のSYN01B)、及びDMM1予測において、PU内の分割パターンを表わすウェッジレットパターンを指定するインデックス(ウェッジレットパターンインデックス)wedge_full_tab_idex(図5(b)のSYN01C)がある。   Parameters (depth intra prediction parameters, DMM prediction mode information) for restoring the prediction mode (intra extended mode (SYN01 in Fig. 5 (a))) for depth intra prediction (DMM prediction) used for depth map encoding Includes a flag indicating the presence / absence of depth intra prediction (depth intra prediction presence / absence flag) dim_not_present_flag (SYN01A in FIG. 5 (b)), a depth intra prediction method (DMM1 prediction based on wedgelet division (INTRA_DMM_WFULL) and contour division) DMM4 prediction (INTRA_DMM_CREDTEX)) flag (depth intra mode flag) depth_intra_mode_flag (SYN01B in FIG. 5 (b)) and an index (wedgelet pattern) that specifies a wedgelet pattern representing a partition pattern in the PU in DMM1 prediction Index) wedge_full_tab_idex (SYN01C in FIG. 5B).

また、イントラSDCや、インターSDC、及びデプスイントラ予測に関する予測パラメータには、さらに、PU内の分割された1又は2つの領域のデプス予測値を補正するためのDCオフセット情報、すなわち、DCオフセット有無フラグdepth_dc_flag(図6のSYND1)、DCオフセット値の絶対値を示すdepth_dc_abs(図6のSYND02)、及びDCオフセット値の符号を示すdepth_dc_sign_flag(図6のSYND03)がある。   Further, the prediction parameters related to intra SDC, inter SDC, and depth intra prediction further include DC offset information for correcting the depth prediction value of one or two divided areas in the PU, that is, whether or not there is a DC offset. There is a flag depth_dc_flag (SYND1 in FIG. 6), depth_dc_abs (SYND02 in FIG. 6) indicating the absolute value of the DC offset value, and depth_dc_sign_flag (SYND03 in FIG. 6) indicating the sign of the DC offset value.

〔動画像復号装置〕
以下では、本実施形態に係る動画像復号装置1の構成について、図1〜図16を参照して説明する。
[Video decoding device]
Below, the structure of the moving image decoding apparatus 1 which concerns on this embodiment is demonstrated with reference to FIGS.

(動画像復号装置の概要)
動画像復号装置1は、PU毎に予測画像を生成し、生成された予測画像と、符号化データ#1から復号された予測残差とを加算することによって復号画像#2を生成し、生成された復号画像#2を外部に出力する。
(Outline of video decoding device)
The video decoding device 1 generates a predicted image for each PU, generates a decoded image # 2 by adding the generated predicted image and a prediction residual decoded from the encoded data # 1, and generates The decoded image # 2 is output to the outside.

ここで、予測画像の生成は、符号化データ#1を復号することによって得られる符号化パラメータを参照して行われる。符号化パラメータとは、予測画像を生成するために参照されるパラメータのことである。符号化パラメータには、インター予測において参照される動きベクトルやイントラ予測において参照される予測モードなどの予測パラメータに加えて、PUのサイズや形状、ブロックのサイズや形状、および、原画像と予測画像との残差データなどが含まれる。以下では、符号化パラメータに含まれる情報のうち、上記残差データを除く全ての情報の集合を、サイド情報と呼ぶ。   Here, the generation of the predicted image is performed with reference to an encoding parameter obtained by decoding the encoded data # 1. An encoding parameter is a parameter referred in order to generate a prediction image. In addition to prediction parameters such as a motion vector referred to in inter prediction and a prediction mode referred to in intra prediction, the encoding parameters include PU size and shape, block size and shape, and original image and predicted image. And residual data. Hereinafter, a set of all information excluding the residual data among the information included in the encoding parameter is referred to as side information.

また、以下では、復号の対象となるピクチャ(フレーム)、スライス、ツリーブロック、CU、ブロック、および、PUをそれぞれ、対象ピクチャ、対象スライス、対象ツリーブロック、対象CU、対象ブロック、および、対象PUと呼ぶことにする。   Also, in the following, a picture (frame), a slice, a tree block, a CU, a block, and a PU to be decoded are a target picture, a target slice, a target tree block, a target CU, a target block, and a target PU, respectively. I will call it.

なお、ツリーブロックのサイズは、例えば64×64画素であり、CUのサイズは、例えば、64×64画素、32×32画素、16×16画素、8×8画素であり、PUのサイズは、例えば、64×64画素、32×32画素、16×16画素、8×8画素や4×4画素などである。しかしながら、これらのサイズは、単なる例示であり、ツリーブロック、CU、および、PUのサイズは以上に示したサイズ以外のサイズであってもよい。   The size of the tree block is, for example, 64 × 64 pixels, the size of the CU is, for example, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels, and the size of the PU is For example, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, 4 × 4 pixels, and the like. However, these sizes are merely examples, and the sizes of the tree block, CU, and PU may be other than the sizes shown above.

(動画像復号装置の構成)
再び、図3を参照して、動画像復号装置1の概略的構成について説明すると次のとおりである。図3は、動画像復号装置1の概略的構成について示した機能ブロック図である。
(Configuration of video decoding device)
Referring to FIG. 3 again, the schematic configuration of the video decoding device 1 will be described as follows. FIG. 3 is a functional block diagram illustrating a schematic configuration of the video decoding device 1.

図3に示すように動画像復号装置1は、可変長復号部11、逆量子化・逆変換部13、予測画像生成部14、加算器15およびフレームメモリ16を備えている。   As shown in FIG. 3, the video decoding device 1 includes a variable length decoding unit 11, an inverse quantization / inverse conversion unit 13, a predicted image generation unit 14, an adder 15, and a frame memory 16.

[可変長復号部]
可変長復号部11は、動画像復号装置1から入力された符号化データ#1に含まれる各種のパラメータを復号する。以下の説明では、可変長復号部11が、CABAC等のエントロピー符号化方式により符号化されているパラメータの復号を適宜行うものとする。可変長復号部11は、具体的には、以下の手順により、1フレーム分の符号化データ#1を復号する。
[Variable length decoding unit]
The variable length decoding unit 11 decodes various parameters included in the encoded data # 1 input from the video decoding device 1. In the following description, it is assumed that the variable length decoding unit 11 appropriately decodes a parameter encoded by an entropy encoding method such as CABAC. Specifically, the variable length decoding unit 11 decodes encoded data # 1 for one frame according to the following procedure.

まず、可変長復号部11は、1フレーム分の符号化データ#1を、逆多重化することで、図4に示した階層構造に含まれる各種情報に分離する。例えば、可変長復号部11は、各種ヘッダに含まれる情報を参照して、符号化データ#1を、スライス、ツリーブロックに順次分離する。   First, the variable length decoding unit 11 demultiplexes the encoded data # 1 for one frame into various information included in the hierarchical structure shown in FIG. For example, the variable length decoding unit 11 refers to information included in various headers and sequentially separates the encoded data # 1 into slices and tree blocks.

ここで、各種ヘッダには、(1)対象ピクチャのスライスへの分割方法についての情報、および(2)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報が含まれる。   Here, the various headers include (1) information about the method of dividing the target picture into slices, and (2) information about the size, shape, and position of the tree block belonging to the target slice. .

そして、可変長復号部11は、ツリーブロックヘッダTBLKHに含まれるツリーブロック分割情報SP_TBLKを参照して、対象ツリーブロックを、CUに分割する。また、可変長復号部11は、対象CUについて得られる変換ツリーに関するTT情報TTI、および、対象CUについて得られる予測ツリーに関するPT情報PTIを復号する。   Then, the variable length decoding unit 11 divides the target tree block into CUs with reference to the tree block division information SP_TBLK included in the tree block header TBLKH. Further, the variable length decoding unit 11 decodes the TT information TTI related to the conversion tree obtained for the target CU and the PT information PTI related to the prediction tree obtained for the target CU.

可変長復号部11は、対象CUについて得られたTT情報TTIをTU情報復号部12に供給する。また、可変長復号部11は、対象CUについて得られたPT情報PTIを予測画像生成部14に供給する。なお、TT情報TTIには、上述のとおり、変換ツリーに含まれるTUに対応するTU情報TUIが含まれる。また、PT情報PTIには、上述のとおり、対象予測ツリーに含まれる各PUに対応するPU情報PUI(各PUの予測情報Pinfo)が含まれる。   The variable length decoding unit 11 supplies the TT information TTI obtained for the target CU to the TU information decoding unit 12. Further, the variable length decoding unit 11 supplies the PT information PTI obtained for the target CU to the predicted image generation unit 14. The TT information TTI includes the TU information TUI corresponding to the TU included in the conversion tree as described above. Further, as described above, the PT information PTI includes PU information PUI (prediction information Info of each PU) corresponding to each PU included in the target prediction tree.

以下では、本発明に関連の深いイントラPUの予測情報Pinfoに含まれるイントラ予測パラメータ、及び領域別DC符号化(イントラSDC、インターSDC)やデプスイントラ予測に利用されるDCオフセット情報の復号処理の概略について説明する。   In the following, decoding processing of intra prediction parameters included in intra PU prediction information Pinfo, which is deeply related to the present invention, and DC offset information used for regional DC coding (intra SDC, inter SDC) and depth intra prediction An outline will be described.

(イントラ予測パラメータ)
可変長復号部11は、図5のSYN01に示すイントラ予測モード拡張intra_mode_ext()のシンタックステーブルに従って、符号化データ#1より各シンタックスを復号する。なお、復号対象レイヤにおいて、デプス符号化ツールにおいてDMM1予測の可否を示すフラグ(DMM1予測モード可否フラグ)intra_sdc_dmm_wfull_flagが1、又は、復号対象レイヤにおいて、DMM4予測の可否を示すフラグ(DMM4予測モード可否フラグdmm_cpredtex_flagが1の場合、イントラ予測モード拡張intra_mode_ext()は復号される。なお、DMM1予測モード可否フラグintra_sdc_dmm_wfull_flagは、1の場合、デプス符号化ツールであるDMM1予測モードが復号対象レイヤにおいて適用されうることを示し、0の場合は、適用されないことを示す。また、DMM4予測モード可否フラグdmm_cpredtex_flagは、1の場合、デプス符号化ツールであるDMM4予測モードが復号対象レイヤにおいて適用されうることを示し、0の場合は、適用されないことを示す。また、DMM1予測モード可否フラグ、及びDMM4予測モード可否フラグは、パラメータセット(ビデオパラメータセットVPS、シーケンスパラメータセットSPS、ピクチャパラメータセットPPS、スライスヘッダSH)等から復号される。
(Intra prediction parameters)
The variable length decoding unit 11 decodes each syntax from the encoded data # 1 according to the syntax table of the intra prediction mode extension intra_mode_ext () shown in SYN01 of FIG. In the decoding target layer, a flag indicating whether or not DMM1 prediction is possible in the depth encoding tool (DMM1 prediction mode availability flag) intra_sdc_dmm_wfull_flag is 1, or a flag indicating whether or not DMM4 prediction is possible in the decoding target layer (DMM4 prediction mode availability flag) Intra prediction mode extension intra_mode_ext () is decoded when dmm_cpredtex_flag is 1. When DMM1 prediction mode enable / disable flag intra_sdc_dmm_wfull_flag is 1, DMM1 prediction mode that is a depth encoding tool can be applied in the decoding target layer. The DMM4 prediction mode availability flag dmm_cpredtex_flag indicates that the DMM4 prediction mode, which is a depth coding tool, can be applied in the decoding target layer, and is 0. In the case of DMM1 prediction mode. Availability flag, and DMM4 prediction mode permission flag parameter set (video parameter set VPS, sequence parameter set SPS, a picture parameter set PPS, slice header SH) is decoded from the like.

まず、可変長復号部11は、対象PUサイズが32×32以下の場合(logPbSize<6)、デプスイントラ予測有無フラグdim_not_present_flag(図5(b)のSYN01A)を復号する。対象PUサイズが32×32より大きい場合には、該フラグの値を1と推定する。該フラグは、デプスイントラ予測の有無を示すフラグであり、該フラグの値が1の場合、対象PUに関するデプスイントラ予測モードフラグdepth_intra_mode_flagが符号化データ中になく、イントラ予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測)のいずれかのイントラ予測方式が対象PUに利用されることを示す。また、該フラグが0の場合は、デプスイントラ予測モードdepth_intra_mode_flagが符号化データ中にあることを示す。   First, when the target PU size is 32 × 32 or less (logPbSize <6), the variable length decoding unit 11 decodes the depth intra prediction presence / absence flag dim_not_present_flag (SYN01A in FIG. 5B). When the target PU size is larger than 32 × 32, the value of the flag is estimated as 1. This flag is a flag indicating the presence / absence of depth intra prediction. When the value of the flag is 1, the depth intra prediction mode flag depth_intra_mode_flag related to the target PU is not included in the encoded data, and the intra prediction mode numbers' 0 'to' This indicates that any intra prediction method of 34 ′ (DC prediction, Planar prediction, Angular prediction) is used for the target PU. Moreover, when the flag is 0, it indicates that the depth intra prediction mode depth_intra_mode_flag is in the encoded data.

また、可変長復号部11は、復号したデプスイントラ予測有無フラグdim_not_present_flagに基づいて、対象PUのDMMフラグDmmFlagを下記式により導出する。   The variable length decoding unit 11 derives the DMM flag DmmFlag of the target PU based on the decoded depth intra prediction presence / absence flag dim_not_present_flag by the following equation.

DmmFlag = !dim_not_present_flag
すなわち、DMMフラグには、デプスイントラ予測有無フラグの論理否定の値が設定される。DMMフラグは1の場合、デプスイントラ予測が利用されることを示し、DMMフラグが0の場合、デプスイントラ予測が利用されないことを示す。
DmmFlag =! Dim_not_present_flag
That is, the logical negation value of the depth intra prediction presence / absence flag is set in the DMM flag. When the DMM flag is 1, it indicates that depth intra prediction is used, and when the DMM flag is 0, it indicates that depth intra prediction is not used.

(デプスイントラ予測有無フラグが1の場合)
可変長復号部11は、デプスイントラ予測有無フラグdim_not_present_flagが1の場合、さらに、デプスイントラモードフラグdepth_intra_mode_flagを復号する。該フラグは、デプスイントラ予測方式の選択に係るフラグである。該フラグが0の場合、デプスイントラ予測は、DMM1予測であることを示す。該フラグが1の場合、デプスイントラ予測は、DMM4予測であることを示す。
(When the depth intra prediction presence / absence flag is 1)
When the depth intra prediction presence / absence flag dim_not_present_flag is 1, the variable length decoding unit 11 further decodes the depth intra mode flag depth_intra_mode_flag. The flag is a flag related to selection of a depth intra prediction method. When the flag is 0, it indicates that the depth intra prediction is DMM1 prediction. When the flag is 1, it indicates that the depth intra prediction is DMM4 prediction.

可変長復号部11は、デプスイントラモードフラグdepth_intra_mode_flagが0の場合、すなわち、デプスイントラ予測がDMM1予測である場合、予測モードpredModeIntraへ、DMM1予測を示す予測モード番号を設定する。さらに、PU内の分割パターンを示すウェッジレットパターンを指定するウェッジレットパターンインデックスwedge_full_tab_idxを復号する。   When the depth intra mode flag depth_intra_mode_flag is 0, that is, when the depth intra prediction is DMM1 prediction, the variable length decoding unit 11 sets a prediction mode number indicating DMM1 prediction to the prediction mode predModeIntra. Further, the wedgelet pattern index wedge_full_tab_idx that specifies the wedgelet pattern indicating the division pattern in the PU is decoded.

可変長復号部11は、デプスイントラモードフラグdepth_intra_mode_flagが1の場合、すなわち、デプスイントラ予測がDMM4予測である場合、予測モードpredModeIntraへ、DMM4予測を示す予測モード番号を設定する。   When the depth intra mode flag depth_intra_mode_flag is 1, that is, when the depth intra prediction is DMM4 prediction, the variable length decoding unit 11 sets a prediction mode number indicating DMM4 prediction to the prediction mode predModeIntra.

(デプスイントラ予測有無フラグが0の場合)
可変長復号部11は、デプスイントラ予測有無フラグdim_not_present_flagが0場合、対象PUのイントラ予測モードが推定予測モードMPMと一致するか否かを示すMPMフラグmpm_flagを復号する。該フラグが1の場合、対象PUのイントラ予測モードが推定予測モードMPMと一致することを示し、該フラグが0の場合、予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測のいずれか)の中で、推定予測モードMPMを除くいずれかの予測モードであることを示す。
(If the depth intra prediction flag is 0)
When the depth intra prediction presence / absence flag dim_not_present_flag is 0, the variable length decoding unit 11 decodes the MPM flag mpm_flag indicating whether or not the intra prediction mode of the target PU matches the estimated prediction mode MPM. When the flag is 1, it indicates that the intra prediction mode of the target PU matches the estimated prediction mode MPM. When the flag is 0, the prediction mode numbers “0” to “34” (DC prediction, Planar prediction, Angular Among any prediction), this indicates any prediction mode except the estimated prediction mode MPM.

可変長復号部11は、MPMフラグが1の場合、さらに、推定予測モードMPMを指定するMPMインデックスmpm_idxを復号して、該mpm_idxが示す推定予測モードを、予測モードpredModeIntraへ設定する。   When the MPM flag is 1, the variable length decoding unit 11 further decodes the MPM index mpm_idx designating the estimated prediction mode MPM, and sets the estimated prediction mode indicated by the mpm_idx to the prediction mode predModeIntra.

可変長復号部11は、MPMフラグが0の場合、さらに、MPM以外の予測モードを指定するためのインデックスrem_idxを復号して、該rem_idxから特定される、推定予測モードMPMを除く予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測のいずれか)の中でいずれかの予測モード番号を、予測モードpredModeIntraへ設定する。   When the MPM flag is 0, the variable length decoding unit 11 further decodes an index rem_idx for designating a prediction mode other than the MPM, and is a prediction mode number excluding the estimated prediction mode MPM identified from the rem_idx. Any prediction mode number among 0 'to' 34 '(DC prediction, Planar prediction, Angular prediction) is set to the prediction mode predModeIntra.

(DCオフセット情報)
可変長復号部11は、さらに、図示しないDCオフセット情報復号部111を備え、該DCオフセット情報復号部111によって、対象CU内に含まれるDCオフセット情報の復号を行う。
(DC offset information)
The variable length decoding unit 11 further includes a DC offset information decoding unit 111 (not shown), and the DC offset information decoding unit 111 decodes the DC offset information included in the target CU.

より具体的には、DCオフセット情報復号部111は、対象CU内にDCオフセット情報の有無を示すCU内DCオフセット情報有無フラグcuDepthDcPresentFlagを下記式により導出する。   More specifically, the DC offset information decoding unit 111 derives a CU DC offset information presence / absence flag cuDepthDcPresentFlag indicating the presence / absence of DC offset information in the target CU by the following equation.

cuDepthDcPresentFlag = ( sdc_flag || (CuPredMode == MODE_INTRA ) )
すなわち、SDCフラグsdc_flagが1、又は、予測タイプ情報CuPredModeがイントラ予測である場合に、該CU内DCオフセット情報有無フラグは1(真)に設定され、それ以外の場合(SDCフラグが0(偽)、かつ、インター予測の場合)は、0(偽)に設定される。該CU内DCオフセット情報有無フラグが1の場合、対象CU内にDCオフセット情報が存在しうることを示し、該フラグが0の場合、対象CU内にDCオフセット情報が存在しないことを示す。
cuDepthDcPresentFlag = (sdc_flag || (CuPredMode == MODE_INTRA))
That is, when the SDC flag sdc_flag is 1 or when the prediction type information CuPredMode is intra prediction, the intra-CU DC offset information presence / absence flag is set to 1 (true), and in other cases (SDC flag is 0 (false) ) And inter prediction) is set to 0 (false). When the intra-CU DC offset information presence / absence flag is 1, it indicates that DC offset information can exist in the target CU. When the flag is 0, it indicates that no DC offset information exists in the target CU.

続いて、DCオフセット情報復号部111は、CU内DCオフセット情報有無フラグが1の場合、対象CU内の各PU毎に、該PU内の1又は複数に分割された領域のデプス予測値を補正するためのDCオフセット情報を復号する。   Subsequently, when the intra-CU DC offset information presence / absence flag is 1, the DC offset information decoding unit 111 corrects the depth prediction value of the region divided into one or more in the PU for each PU in the target CU. DC offset information for decoding is decoded.

より具体的には、まず、DCオフセット情報復号部111は、対象PUに関するDCオフセット情報が存在しうるか否かを示すPU内DCオフセット情報有無フラグpuDepthDcPresentFlagを下記式により導出する。   More specifically, first, the DC offset information decoding unit 111 derives an intra-PU DC offset information presence / absence flag puDepthDcPresentFlag indicating whether or not DC offset information related to the target PU can exist.

puDepthDcPresentFlag = ( DmmFlag || sdc_flag )
すなわち、対象PUのDMMフラグが1、又はSDCフラグが1の場合、該PU内DCオフセット情報有無フラグが1(真)に設定され、それ以外の場合(DmmFlag==0 && sdc_flag==0)は、0(偽)に設定される。該PU内DCオフセット情報フラグが1の場合、対象PU内にDCオフセット情報が存在しうることを示し、該フラグが0の場合、対象PU内にDCオフセット情報が存在しないことを示す。
puDepthDcPresentFlag = (DmmFlag || sdc_flag)
That is, when the DMM flag of the target PU is 1 or the SDC flag is 1, the intra-PU DC offset information presence / absence flag is set to 1 (true), otherwise (DmmFlag == 0 && sdc_flag == 0) Is set to 0 (false). When the DC offset information flag in PU is 1, it indicates that DC offset information can exist in the target PU, and when the flag is 0, it indicates that DC offset information does not exist in the target PU.

(PU内DCオフセット情報有無フラグが1の場合)
DCオフセット情報復号部111は、対象PUの分割領域数dcNumSegを、対象PUのDMMフラグに基づいて、下記式により導出する。
(When the DC offset information presence flag in PU is 1)
The DC offset information decoding unit 111 derives the number of divided areas dcNumSeg of the target PU based on the DMM flag of the target PU by the following formula.

dcNumSeg = DmmFlag ? 2 : 1
すなわち、DMMフラグが1の場合には、対象PUの分割領域数dcNumSegを2に設定し、該DMMフラグが0の場合には、dcNumSegを1に設定する。
dcNumSeg = DmmFlag? 2: 1
That is, when the DMM flag is 1, the number of divided areas dcNumSeg of the target PU is set to 2, and when the DMM flag is 0, dcNumSeg is set to 1.

続いて、DCオフセット情報復号部111は、対象PUがイントラSDCを適用される場合(CuPredMode==MODE_INTRA && sdc_flag==1)、対象PU内に分割領域数dcNumSeg分のDCオフセット情報の有無を示すDCオフセット情報有無フラグdepth_dc_flagを符号化データより復号する。それ以外の場合には、該DCオフセット情報有無フラグdepth_dc_flagを1と推定する。なお、該DCオフセット情報有無フラグが1の場合、対象PU内に分割領域数dcNumSeg分のDCオフセット情報(depth_dc_abs[i], depth_dc_sing_flag[i] (i=0..dcNumSeg-1))が符号化データ中にあることを示し、該DCオフセット情報フラグが0の場合、DCオフセット情報が符号化データ中にないことを示す。   Subsequently, when the target PU is applied with intra SDC (CuPredMode == MODE_INTRA && sdc_flag == 1), the DC offset information decoding unit 111 indicates the presence / absence of DC offset information corresponding to the number of divided regions dcNumSeg in the target PU. The DC offset information presence / absence flag depth_dc_flag is decoded from the encoded data. In other cases, the DC offset information presence / absence flag depth_dc_flag is estimated as 1. When the DC offset information presence / absence flag is 1, DC offset information (depth_dc_abs [i], depth_dc_sing_flag [i] (i = 0..dcNumSeg-1)) corresponding to the number of divided regions dcNumSeg is encoded in the target PU. When the DC offset information flag is 0, it indicates that there is no DC offset information in the encoded data.

続いて、DCオフセット情報復号部111は、DCオフセット有無フラグdepth_dc_flagが1の場合、さらに、各PUの分割領域Ri (i=0..dcNumSeg-1)毎に、DCオフセット値の絶対値(DCオフセット絶対値)を示すdepth_dc_abs[i]、及びDCオフセット値の正負の符号を示すdepth_dc_sign_flag[i]を復号する。なお、DCオフセット情報復号部111は、DCオフセット絶対値(depth_dc_abs[i] + dcNumSeg - 2 )が0より大きい場合(以上)に、DCオフセット値の正負の符号化を示すdepth_dc_sign_flag[i]を符号化データより復号し、DCオフセット絶対値(depth_dc_abs[i] + dcNumSeg - 2)が0以下(未満)の場合には、depth_dc_sign_flagを0と推定する。   Subsequently, when the DC offset presence / absence flag depth_dc_flag is 1, the DC offset information decoding unit 111 further determines the absolute value (DC) of the DC offset value for each divided region Ri (i = 0..dcNumSeg-1) of each PU. Depth_dc_abs [i] indicating the offset absolute value) and depth_dc_sign_flag [i] indicating the positive / negative sign of the DC offset value are decoded. Note that the DC offset information decoding unit 111 encodes depth_dc_sign_flag [i] indicating positive / negative coding of the DC offset value when the DC offset absolute value (depth_dc_abs [i] + dcNumSeg−2) is greater than 0 (or more). When the DC offset absolute value (depth_dc_abs [i] + dcNumSeg-2) is 0 or less (less than), the depth_dc_sign_flag is estimated to be 0.

続いて、DCオフセット情報復号部111は、DCオフセット情報(DCオフセット情報有無フラグdepth_dc_flag, DCオフセット絶対値depth_dc_abs[i]、DCオフセット符号depth_dc_sign_flag[i])、及び分割領域数dcNumSegに基づいて、各PU内の分割領域Ri(i=0..dcNumSeg-1)に対応するDCオフセット値DcOffset[i]を下記式により導出する。   Subsequently, the DC offset information decoding unit 111 performs each based on the DC offset information (DC offset information presence / absence flag depth_dc_flag, DC offset absolute value depth_dc_abs [i], DC offset code depth_dc_sign_flag [i]), and the number of divided regions dcNumSeg. A DC offset value DcOffset [i] corresponding to the divided region Ri (i = 0..dcNumSeg-1) in the PU is derived by the following equation.

DcOffset[i] = !depth_dc_offset_flag ? 0 :
( 1 -2*depth_dc_sign_flag[i] ) * ( depth_dc_abs[i] + dcNumSeg - 2 )
すなわち、DCオフセット情報有無フラグが0の場合、分割領域RiのDCオフセット値DcOffset[i]を0へ設定し、DCオフセット情報有無フラグが1の場合には、depth_dc_sign_flag[i]、depth_dc_abs[i]、分割領域数dcNumSegに基づいて、分割領域RiのDCオフセット値DcOffset[i]を設定する。上記導出式のメリットは、DCオフセット情報有無フラグが0の場合には、depth_dc_sign_flag[i]、depth_dc_abs[i]、及び分割領域数dcNumSegに基づく、DCオフセット値の導出処理を省略することができる点である。
DcOffset [i] =! Depth_dc_offset_flag? 0:
(1 -2 * depth_dc_sign_flag [i]) * (depth_dc_abs [i] + dcNumSeg-2)
That is, when the DC offset information presence / absence flag is 0, the DC offset value DcOffset [i] of the divided region Ri is set to 0, and when the DC offset information presence / absence flag is 1, depth_dc_sign_flag [i], depth_dc_abs [i] Based on the number of divided areas dcNumSeg, the DC offset value DcOffset [i] of the divided area Ri is set. The advantage of the above derivation formula is that when the DC offset information presence / absence flag is 0, the DC offset value derivation process based on depth_dc_sign_flag [i], depth_dc_abs [i], and the number of divided regions dcNumSeg can be omitted. It is.

なお、DCオフセット値の導出式は、上記に限定されず、実施可能な範囲で変更可能である。例えば、DCオフセット値は、下記式によって導出してもよい。   Note that the derivation formula of the DC offset value is not limited to the above, and can be changed within a practicable range. For example, the DC offset value may be derived from the following equation.

DcOffset[i] =
( 1 - 2*depth_dc_sign_flag[i] ) * ( depth_dc_abs[i] + dcNumSeg - 2 )
DcOffset [i] =
(1-2 * depth_dc_sign_flag [i]) * (depth_dc_abs [i] + dcNumSeg-2)

[逆量子化・逆変換部]
逆量子化・逆変換部13は、対象CUに含まれる各ブロックについて、TT情報TTIに基づいて逆量子化・逆変換処理を実行する。具体的には、逆量子化・逆変換部13は、各対象TUについて、対象TUに対応するTU情報TUIに含まれる量子化予測残差を逆量子化および逆直交変換することによって、対象TUに対応する画素毎の予測残差D(又はresSamples[x][y])を復元する。なお、ここで直交変換とは、画素領域から周波数領域への直交変換のことを指す。したがって、逆直交変換は、周波数領域から画素領域への変換である。また、逆直交変換の例としては、逆DCT変換(Inverse Discrete Cosine Transform)、および逆DST変換(Inverse Discrete Sine Transform)等が挙げられる。逆量子化・逆変換部13は、復元した予測残差Dを加算器15に供給する。なお、逆量子化・逆変換部13は、SDCフラグが1の場合、逆量子化・逆変換処理を省略し、対象TUの画素毎の予測残差D(又はresSamples[x][y])を0へ設定し、加算器15に供給する。
[Inverse quantization / inverse transform unit]
The inverse quantization / inverse transform unit 13 performs an inverse quantization / inverse transform process on each block included in the target CU based on the TT information TTI. Specifically, for each target TU, the inverse quantization / inverse transform unit 13 performs inverse quantization and inverse orthogonal transform on the quantized prediction residual included in the TU information TUI corresponding to the target TU, thereby performing the target TU. The prediction residual D (or resSamples [x] [y]) for each pixel corresponding to is restored. Here, the orthogonal transform refers to an orthogonal transform from the pixel region to the frequency region. Therefore, the inverse orthogonal transform is a transform from the frequency domain to the pixel domain. Examples of inverse orthogonal transform include inverse DCT transform (Inverse Discrete Cosine Transform), inverse DST transform (Inverse Discrete Sine Transform), and the like. The inverse quantization / inverse transform unit 13 supplies the restored prediction residual D to the adder 15. Note that, when the SDC flag is 1, the inverse quantization / inverse transformation unit 13 omits the inverse quantization / inverse transformation process, and the prediction residual D (or resSamples [x] [y]) for each pixel of the target TU. Is set to 0 and supplied to the adder 15.

[予測画像生成部]
予測画像生成部14は、対象CUに含まれる各PUについて、PT情報PTIに基づいて予測画像を生成する。具体的には、予測画像生成部14は、各対象PUについて、対象PUに対応するPU情報PUI(予測情報Pinfo)に含まれるパラメータに従ってイントラ予測またはインター予測を行うことにより、復号済み画像である局所復号画像P’から予測画像Predを生成する。予測画像生成部14は、生成した予測画像Predを加算器15に供給する。なお、予測画像生成部14の構成については、後ほど、より詳しく説明する。
[Predicted image generator]
The predicted image generation unit 14 generates a predicted image based on the PT information PTI for each PU included in the target CU. Specifically, the predicted image generation unit 14 is a decoded image by performing intra prediction or inter prediction for each target PU according to the parameters included in the PU information PUI (prediction information Info) corresponding to the target PU. A predicted image Pred is generated from the locally decoded image P ′. The predicted image generation unit 14 supplies the generated predicted image Pred to the adder 15. The configuration of the predicted image generation unit 14 will be described in more detail later.

[加算器]
加算器15は、予測画像生成部14より供給される予測画像Predと、逆量子化・逆変換部13より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。
[Adder]
The adder 15 adds the predicted image Pred supplied from the predicted image generation unit 14 and the prediction residual D supplied from the inverse quantization / inverse transform unit 13, thereby obtaining the decoded image P for the target CU. Generate.

[フレームメモリ]
フレームメモリ16には、復号された復号画像Pが順次記録される。フレームメモリ16には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が記録されている。
[Frame memory]
The decoded image P that has been decoded is sequentially recorded in the frame memory 16. In the frame memory 16, at the time of decoding the target tree block, decoded images corresponding to all tree blocks decoded before the target tree block (for example, all tree blocks preceding in the raster scan order) are stored. It is recorded.

また、対象CUを復号する時点において、当該対象CUよりも先に復号された全てのCUに対応する復号画像が記録されている。   Also, at the time of decoding the target CU, decoded images corresponding to all the CUs decoded before the target CU are recorded.

なお、動画像復号装置1において、画像内の全てのツリーブロックに対して、ツリーブロック単位の復号画像生成処理が終わった時点で、動画像復号装置1に入力された1フレーム分の符号化データ#1に対応する復号画像#2が外部に出力される。   In the video decoding device 1, the encoded data for one frame input to the video decoding device 1 at the time when the decoded image generation processing for each tree block is completed for all tree blocks in the image. Decoded image # 2 corresponding to # 1 is output to the outside.

(予測モードの定義)
前述の通り、予測画像生成部14は、PT情報PTIに基づいて予測画像を生成して出力する。対象CUがインターCUの場合、予測画像生成部14に入力されるPU情報PTIは、例えば、動きベクトルmvLX(X=0,1)、及びフレームメモリ16に格納された復号済画像を参照画像として指定するための、参照画像インデックスrefIdxLX(X=0,1)、単予測(L0予測、L1予測)又は、双方向予測等のインター予測方式を指定するインター予測識別子inter_pred_idxを含む。
(Definition of prediction mode)
As described above, the predicted image generation unit 14 generates and outputs a predicted image based on the PT information PTI. When the target CU is an inter CU, the PU information PTI input to the predicted image generation unit 14 is, for example, a motion vector mvLX (X = 0, 1) and a decoded image stored in the frame memory 16 as a reference image. It includes an inter prediction identifier inter_pred_idx that specifies an inter prediction method such as a reference image index refIdxLX (X = 0, 1), single prediction (L0 prediction, L1 prediction), or bi-directional prediction.

対象CUがイントラCUの場合、予測画像生成部14に入力されるPU情報PTIは、予測モード(IntraPredMode)と、色差予測モード(IntraPredModeC)を含む。以下、予測モード(輝度・色差)の定義について、図7〜図8を参照して説明する。   When the target CU is an intra CU, the PU information PTI input to the predicted image generation unit 14 includes a prediction mode (IntraPredMode) and a color difference prediction mode (IntraPredModeC). Hereinafter, the definition of the prediction mode (luminance / color difference) will be described with reference to FIGS.

(概要)
図7は、動画像復号装置1で利用されるイントラ予測方式の分類と対応する予測モード番号の例を示している。Planar予測(INTRA_PLANAR)に‘0’、DC予測(INTRA_DC)に‘1’、Angular予測(INTRA_ANGULAR)に‘2’〜 ‘34’、DMM1予測(INTRA_DMM_WFULL)に‘35’、DMM4予測(INTRA_DMM_CREDTEX)に‘36’の予測モード番号がそれぞれ割り当てられている。また、DMM1予測、及びDMM4予測を総称して、デプスイントラ予測とも呼ぶ。デプスイントラ予測とは、デプスマップ上の対象ブロック(デプスブロックとも称する)は、2つの非矩形の平坦領域から構成され、各平坦領域のデプス値は固定値で表現されるというデプスモデルに基づいている。また、デプスモデルは、各画素が属する領域を表わすパーティション情報、及び各領域のデプス値情報から構成される。DMM予測において、デプスブロックの分割方法として、DMM1と呼ばれるウェッジレット分割 (Wedgelet Partition)、及びDMM4と呼ばれる輪郭分割(Contour Partition)がある。デプスイントラ予測の詳細については後述する。
(Overview)
FIG. 7 shows an example of prediction mode numbers corresponding to the classification of intra prediction schemes used in the video decoding device 1. Planar prediction (INTRA_PLANAR) is '0', DC prediction (INTRA_DC) is '1', Angular prediction (INTRA_ANGULAR) is '2' to '34', DMM1 prediction (INTRA_DMM_WFULL) is '35', DMM4 prediction (INTRA_DMM_CREDTEX) A prediction mode number of “36” is assigned. Further, the DMM1 prediction and the DMM4 prediction are collectively referred to as depth intra prediction. Depth intra prediction is based on a depth model in which a target block (also referred to as a depth block) on a depth map is composed of two non-rectangular flat regions, and the depth value of each flat region is expressed by a fixed value. Yes. The depth model is composed of partition information indicating the region to which each pixel belongs, and depth value information of each region. In the DMM prediction, depth block division methods include wedgelet partition called DMM1 and contour partition called DMM4. Details of the depth intra prediction will be described later.

次に、図8を用いて、方向予測に含まれる各予測モードの識別子を説明する。図8には方向予測に属する33種類の予測モードについて、予測モードの識別子と対応する予測方向が図示されている。   Next, the identifier of each prediction mode included in the direction prediction will be described with reference to FIG. FIG. 8 shows prediction directions corresponding to the prediction mode identifiers for 33 types of prediction modes belonging to the direction prediction.

(予測画像生成部の詳細)
次に、図9を用いて予測画像生成部14の構成についてさらに詳しく説明する。図9は予測画像生成部14の構成例について示す機能ブロック図である。なお、本構成例は、予測画像生成部14の機能のうち、イントラCUの予測画像生成に係る機能ブロックを図示している。
(Details of predicted image generator)
Next, the configuration of the predicted image generation unit 14 will be described in more detail with reference to FIG. FIG. 9 is a functional block diagram illustrating a configuration example of the predicted image generation unit 14. In addition, this structural example has illustrated the functional block which concerns on the prediction image production | generation of intra CU among the functions of the prediction image production | generation part 14. FIG.

図9に示すように、予測画像生成部14は、予測単位設定部141、参照画素設定部142、スイッチ143、参照画素フィルタ部144、および予測画像導出部145を備える。   As illustrated in FIG. 9, the predicted image generation unit 14 includes a prediction unit setting unit 141, a reference pixel setting unit 142, a switch 143, a reference pixel filter unit 144, and a predicted image derivation unit 145.

予測単位設定部141は、対象CUに含まれるPUを規定の設定順序で対象PUに設定し、対象PUに関する情報(対象PU情報)を出力する。対象PU情報には、対象PUのサイズnS、対象PUのCU内の位置、対象PUの輝度または色差プレーンを示すインデックス(輝度色差インデックスcIdx)が少なくとも含まれる。   The prediction unit setting unit 141 sets PUs included in the target CU as target PUs in a prescribed setting order, and outputs information related to the target PU (target PU information). The target PU information includes at least the size nS of the target PU, the position of the target PU in the CU, and the index (luminance color difference index cIdx) indicating the luminance or color difference plane of the target PU.

参照画素設定部142は、入力される対象PU情報に基づいて、フレームメモリに記録されている対象PU周辺の復号画像の画素値(復号画素値)を読出し、予測画像生成時に参照される参照画素を設定する。参照画素値p[x][y]は復号画素値r[x][y]を利用して次式により設定される。   The reference pixel setting unit 142 reads a pixel value (decoded pixel value) of a decoded image around the target PU recorded in the frame memory based on the input target PU information, and is a reference pixel referred to when a predicted image is generated Set. The reference pixel value p [x] [y] is set by the following equation using the decoded pixel value r [x] [y].

p[x][y]=r[xB+x][yB+y] x=-1, y=-1 .. (nS*2-1)、および、x=0..(nS*2-1),y=-1
ここで、(xB,yB)は対象PU内左上画素の位置、nSは対象PUのサイズを表し、対象PUの幅または高さのうち大きい方の値を示す。上式では、基本的には、対象PUの上辺に隣接する復号画素のラインおよび対象PUの左辺に隣接する復号画素のコラムに含まれる復号画素値を対応する参照画素値にコピーしている。なお、特定の参照画素位置に対応する復号画素値が存在しない、または、参照できない場合には、既定の値、例えば、1<<(BitDepth-1)を利用してもよい。ここで、BitDepthは、画素のビット深度である。また、既定の値の代わりに、対応する復号画素値の近傍に存在する参照可能な復号画素値を利用してもよい。
p [x] [y] = r [xB + x] [yB + y] x = -1, y = -1 .. (nS * 2-1) and x = 0 .. (nS * 2- 1), y = -1
Here, (xB, yB) represents the position of the upper left pixel in the target PU, nS represents the size of the target PU, and indicates the larger value of the width or height of the target PU. In the above equation, basically, the decoded pixel value included in the decoded pixel line adjacent to the upper side of the target PU and the decoded pixel column adjacent to the left side of the target PU is copied to the corresponding reference pixel value. Note that if there is no decoded pixel value corresponding to a specific reference pixel position or reference cannot be made, a predetermined value, for example, 1 << (BitDepth-1) may be used. Here, BitDepth is the bit depth of the pixel. In addition, instead of the predetermined value, a referable decoded pixel value existing in the vicinity of the corresponding decoded pixel value may be used.

スイッチ143は、入力される対象PU情報のうち、輝度色差インデックスcIdx、および予測モードpredModeIntraとに基づいて、参照画素を対応する出力先へ出力する。より具体的には、輝度色差インデックスcIdxが0であり(処理対象の画素が輝度である)、かつ、予測モードpredModeIntraが、0〜34である(予測モードが、Planar予測、又は、DC予測、又は、Angular予測である(predModeIntra<35))とき、スイッチ143は、入力される参照画素を、参照画素フィルタ部144へ出力する。それ以外の場合、すなわち、輝度色差インデックスcIdxが1である(処理対象の画素が色差である)、又は、予測モードpredModeIntraが、予測モード番号‘35’〜‘36’に割り当てられたデプスイントラ予測(DMM1予測、又はDMM4予測)である(predModeIntra>=35)とき、スイッチ143は、入力される参照画素を、予測画像導出部145へ出力する。   The switch 143 outputs the reference pixel to the corresponding output destination based on the luminance color difference index cIdx and the prediction mode predModeIntra among the input target PU information. More specifically, the luminance color difference index cIdx is 0 (the pixel to be processed is luminance), and the prediction mode predModeIntra is 0 to 34 (the prediction mode is Planar prediction or DC prediction, Alternatively, when Angular prediction is performed (predModeIntra <35), the switch 143 outputs the input reference pixel to the reference pixel filter unit 144. In other cases, that is, the luminance color difference index cIdx is 1 (the pixel to be processed is a color difference) or the prediction mode predModeIntra is assigned to the prediction mode numbers '35' to '36'. When (predModeIntra> = 35) (DMM1 prediction or DMM4 prediction), the switch 143 outputs the input reference pixel to the predicted image deriving unit 145.

参照画素フィルタ部144は、入力される参照画素値にフィルタを適用して、フィルタ適用後の参照画素値を出力する。具体的には、参照画素フィルタ部144は、フィルタの適用有無を、対象PUサイズと予測モードpredModeIntraとに応じて決定する。   The reference pixel filter unit 144 applies a filter to the input reference pixel value, and outputs the reference pixel value after the filter application. Specifically, the reference pixel filter unit 144 determines whether to apply the filter according to the target PU size and the prediction mode predModeIntra.

予測画像導出部145は、入力されるPU情報(予測モードpredModeIntra、輝度色差インデックスcIdx、PUサイズnS)と参照画素p[x][y]に基づいて対象PUの予測画像predSamplesを生成して出力する。予測画像導出部145の詳細な説明は後述する。   The predicted image deriving unit 145 generates and outputs a predicted image predSamples of the target PU based on the input PU information (prediction mode predModeIntra, luminance color difference index cIdx, PU size nS) and the reference pixel p [x] [y]. To do. Detailed description of the predicted image deriving unit 145 will be described later.

(予測画像生成処理の流れ)
次に、予測画像生成部14におけるCU単位の予測画像生成処理の概略を図10のフローチャートを用いて説明する。CU単位の予測画像生成処理が始まると、まず、予測単位設定部141がCU内に含まれるPUの一つを既定の順序に従って対象PUに設定して対象PU情報を参照画素設定部142およびスイッチ143に出力する(S11)。次に、参照画素設定部142は対象PUの参照画素を、外部のフレームメモリから読み出した復号画素値を用いて設定する(S12)。次に、スイッチ143が、入力された対象PU情報に基づいて対象PUが輝度か色差か、又は予測モードpredModeIntraがDMM予測であるか否かを判定し、当該判定結果に応じて出力を切り替える(S13)。
(Flow of predicted image generation processing)
Next, an outline of the predicted image generation processing for each CU in the predicted image generation unit 14 will be described with reference to the flowchart of FIG. When the predicted image generation processing for each CU starts, first, the prediction unit setting unit 141 sets one of the PUs included in the CU as the target PU according to a predetermined order, and sets the target PU information as the reference pixel setting unit 142 and the switch. It outputs to 143 (S11). Next, the reference pixel setting unit 142 sets the reference pixel of the target PU using the decoded pixel value read from the external frame memory (S12). Next, the switch 143 determines whether the target PU is luminance or color difference based on the input target PU information, or whether the prediction mode predModeIntra is DMM prediction, and switches the output according to the determination result ( S13).

対象PUが輝度であり、かつ、予測モードpredModeIntraがデプスイントラ予測でない場合(cIdx==0 && predModeIntra<35)(S13でYES)、スイッチ143の出力は参照画素フィルタ部144に接続される。続いて、参照画素フィルタ部144に対し参照画素が入力され、別途入力された予測モードに応じて参照画素フィルタが適用され、フィルタ適用後の参照画素が予測画像導出部145に出力される(S14)。   When the target PU is luminance and the prediction mode predModeIntra is not depth intra prediction (cIdx == 0 && predModeIntra <35) (YES in S13), the output of the switch 143 is connected to the reference pixel filter unit 144. Subsequently, the reference pixel is input to the reference pixel filter unit 144, the reference pixel filter is applied according to the prediction mode separately input, and the reference pixel after the filter application is output to the predicted image derivation unit 145 (S14). ).

一方、対象PUが色差である、又は、予測モードpredModeIntraがデプスイントラ予測である場合(cIdx==1 || predModeIntra>=35)(S13でNO)、スイッチ143の出力は予測画像導出部145に接続される。   On the other hand, when the target PU is a color difference or the prediction mode predModeIntra is depth intra prediction (cIdx == 1 || predModeIntra> = 35) (NO in S13), the output of the switch 143 is sent to the prediction image deriving unit 145. Connected.

次に、予測画像導出部145は、入力されるPU情報(予測モードpredModeIntra、輝度色差インデックスcIdx、PUサイズnS)と参照画素p[x][y]に基づいて対象PUにおける予測画像predSamplesを生成して出力する(S15)。   Next, the predicted image derivation unit 145 generates predicted images predSamples in the target PU based on the input PU information (prediction mode predModeIntra, luminance color difference index cIdx, PU size nS) and the reference pixel p [x] [y]. And output (S15).

対象PUの輝度または色差の予測画像の生成が終わると、予測単位設定部141が、対象CU内の全てのPUの予測画像が生成されたかを判定する(S16)。対象CU内の一部のPUの予測画像が生成されていない場合(S16でNO)、上記S1に戻り、対象CU内の次のPUの予測画像生成処理を実行する。対象CU内の全てのPUの予測画像が生成されている場合(S16でYES)、対象CU内の各PUの輝度および色差の予測画像を合わせて対象CUの予測画像として出力し、処理を終了する。   When the generation of the prediction image of the luminance or color difference of the target PU is completed, the prediction unit setting unit 141 determines whether the prediction images of all the PUs in the target CU have been generated (S16). When the prediction image of some PUs in the target CU has not been generated (NO in S16), the process returns to S1, and the prediction image generation process for the next PU in the target CU is executed. If predicted images of all PUs in the target CU have been generated (YES in S16), the predicted images of the luminance and color difference of each PU in the target CU are combined and output as a predicted image of the target CU, and the process ends. To do.

(予測画像導出部145の詳細)
続いて、予測画像導出部145の詳細について説明する。図9に示すように、予測画像導出部145は、さらに、DC予測部145D、Planar予測部145P、Angular予測部145A、及びDMM予測部145Tを備える。
(Details of predicted image deriving unit 145)
Next, details of the predicted image deriving unit 145 will be described. As illustrated in FIG. 9, the predicted image derivation unit 145 further includes a DC prediction unit 145D, a Planar prediction unit 145P, an Angular prediction unit 145A, and a DMM prediction unit 145T.

予測画像導出部145は、入力される予測モードpredModeIntraに基づいて予測画像生成に用いる予測方式を選択する。予測方式の選択は、前述の図7の定義に基づいて、入力される予測モードpredModeIntraの予測モード番号に対応する予測方式を選択することで実現される。   The predicted image deriving unit 145 selects a prediction method used for generating a predicted image based on the input prediction mode predModeIntra. The selection of the prediction method is realized by selecting a prediction method corresponding to the prediction mode number of the input prediction mode predModeIntra based on the definition of FIG.

さらに、予測画像導出部145は、予測方式の選択結果に応じた予測画像を導出する。より具体的には、予測画像導出部145は、予測方式が、Planar予測、DC予測、Angular予測、及びDMM予測の場合、それぞれ、Planar予測部145P、DC予測部145D、Angular予測部145A、及びDMM予測部145Tにより予測画像を導出する。   Further, the predicted image deriving unit 145 derives a predicted image corresponding to the prediction method selection result. More specifically, the prediction image deriving unit 145, when the prediction method is Planar prediction, DC prediction, Angular prediction, and DMM prediction, respectively, Planar prediction unit 145P, DC prediction unit 145D, Angular prediction unit 145A, and A predicted image is derived by the DMM prediction unit 145T.

DC予測部145Dは、入力される参照画素の画素値の平均値に相当するDC予測値を導出し、導出されたDC予測値を画素値とする予測画像を出力する。   The DC prediction unit 145D derives a DC prediction value corresponding to the average value of the pixel values of the input reference pixels, and outputs a prediction image using the derived DC prediction value as a pixel value.

Planar予測部145Pは、予測対象画素との距離に応じて複数の参照画素を線形加算することで導出した画素値により予測画像を生成して出力する。   The Planar prediction unit 145P generates and outputs a prediction image based on pixel values derived by linearly adding a plurality of reference pixels according to the distance to the prediction target pixel.

[Angular予測部145A]
Angular予測部145Aは、入力される予測モードpredModeIntraに対応する予測方向(参照方向)の参照画素を用いて対象PU内に対応する予測画像を生成して出力する。Angular予測による予測画像の生成処理では、予測モードpredModeIntraの値に応じて主参照画素を設定し、予測画像をPU内のラインまたはコラムの単位で主参照画素を参照して生成する。
[Angular prediction unit 145A]
The Angular prediction unit 145A generates and outputs a prediction image corresponding to the target PU using reference pixels in a prediction direction (reference direction) corresponding to the input prediction mode predModeIntra. In the process of generating a predicted image by Angular prediction, main reference pixels are set according to the value of the prediction mode predModeIntra, and the predicted image is generated with reference to the main reference pixels in units of lines or columns in the PU.

[DMM予測部145T]
DMM予測部145Tは、入力される予測モードpredModeIntraに対応するDMM予測(Depth Modeling Mode,デプスイントラ予測ともいう)に基づいて、対象PU内に対応する予測画像を生成して出力する。
[DMM prediction unit 145T]
The DMM prediction unit 145T generates and outputs a prediction image corresponding to the target PU based on DMM prediction (also referred to as depth modeling mode or depth intra prediction) corresponding to the input prediction mode predModeIntra.

DMM予測部145Tの詳細な説明に先だって、図14を参照しながら、DMM予測の概略について説明する。図14は、DMM予測部145Tにおいて実行されるDMM予測の概念図である。デプスマップは、主に、図14(a)に示すように、オブジェクト境界を表わすエッジ領域、及びオブジェクトエリアを表わす平坦領域(ほぼデプス値が一定)を有するという特徴がある。まず、DMM予測では、基本的に、デプスマップの画像的特徴を利用し、対象ブロックを、オブジェクトのエッジに沿った2つの領域R0、R1に分割し、図14(b)に示すように、各画素が属する領域を表わすパターン情報であるウェッジレットパターンWedgePattern[x][y]を導出する。   Prior to detailed description of the DMM prediction unit 145T, an outline of DMM prediction will be described with reference to FIG. FIG. 14 is a conceptual diagram of DMM prediction executed in the DMM prediction unit 145T. As shown in FIG. 14A, the depth map mainly has an edge region representing an object boundary and a flat region (substantially constant depth value) representing an object area. First, in the DMM prediction, basically, using the image feature of the depth map, the target block is divided into two regions R0 and R1 along the edge of the object, and as shown in FIG. A wedgelet pattern WedgePattern [x] [y], which is pattern information indicating a region to which each pixel belongs, is derived.

ウェッジレットパターンWedgePattern[x][y]は、対象ブロック(対象PU)の幅×高さ分の大きさがあるマトリックスであり、要素(x,y)毎に0、又は1が設定され、対象ブロックの各画素が2つの領域R0、R1のどちらに属するかを示す。図14(b)の例では、要素の値が0であれば、領域R0に属し、1であれば、領域R1に属すこととなる。次に、図14(c)に示すように、各領域R0、及びR1を各々のデプス予測値を埋めることによって予測画像を生成する。   Wedgelet pattern WedgePattern [x] [y] is a matrix with the size of the target block (target PU) width x height, and 0 or 1 is set for each element (x, y), and the target It indicates which of the two regions R0 and R1 each pixel of the block belongs to. In the example of FIG. 14B, if the element value is 0, it belongs to the region R0, and if it is 1, it belongs to the region R1. Next, as shown in FIG. 14C, a prediction image is generated by filling each of the regions R0 and R1 with depth prediction values.

以下では、図11を参照しがら、DMM予測部145Tの構成について説明する。図11は、DMM予測部145Tの構成例のついて示す機能ブロック図である。   Hereinafter, the configuration of the DMM prediction unit 145T will be described with reference to FIG. FIG. 11 is a functional block diagram showing a configuration example of the DMM prediction unit 145T.

図11に示すように、DC予測画像導出部145T1、DMM1ウェッジレットパターン生成部145T2、及びDMM4ウェッジレットパターン生成部145T3を備える。   As shown in FIG. 11, a DC predicted image derivation unit 145T1, a DMM1 wedgelet pattern generation unit 145T2, and a DMM4 wedgelet pattern generation unit 145T3 are provided.

DMM予測部145Tは、入力される予測モードpredModeIntraに対応するウェッジレットパターン生成手段(DMM1ウェッジレットパターン生成部、DMM4ウェッジレットパターン生成部)を起動させ、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を生成する。より具体的には、予測モードpredModeIntraが、予測モード番号‘35’である場合、すなわち、INTRA_DMM_WEDGEFULLモードでは、DMM1ウェッジレットパターン生成部145T2を起動する。一方、予測モードpredModeIntraが、予測モード番号‘36’である場合、すなわち、INTRA_DMM_CPCREDTEXモードでは、DMM4ウェッジレットパターン生成部145T3を起動する。その後、DMM予測部145Tは、DC予測画像導出部145T1を起動して、対象PUの予測画像を取得する。   The DMM prediction unit 145T activates the wedgelet pattern generation means (DMM1 wedgelet pattern generation unit, DMM4 wedgelet pattern generation unit) corresponding to the input prediction mode predModeIntra, and the wedgelet pattern wedgePattern indicating the division pattern of the target PU Generate [x] [y]. More specifically, when the prediction mode predModeIntra is the prediction mode number “35”, that is, in the INTRA_DMM_WEDGEFULL mode, the DMM1 wedgelet pattern generation unit 145T2 is activated. On the other hand, when the prediction mode predModeIntra is the prediction mode number “36”, that is, in the INTRA_DMM_CPCREDTEX mode, the DMM4 wedgelet pattern generation unit 145T3 is activated. Thereafter, the DMM prediction unit 145T activates the DC prediction image derivation unit 145T1 to acquire a prediction image of the target PU.

(実施例1)
[DC予測画像導出部145T1]
DC予測画像導出部145T1は、概略的には、対象PUのウェッジレットパターンwedgePattern[x][y]に基づいて、対象PUを2つの領域に分割し(例えば、図14 (c)に示す領域R0、R1)、入力されたPT情報、及び参照画素p[x][y]に基づいて領域R0に関する予測値、及び領域R1に関する予測値を導出し、各領域に導出した予測値を予測画像predSamples[x][y]に設定して導出する。
Example 1
[DC predicted image deriving unit 145T1]
The DC predicted image derivation unit 145T1 roughly divides the target PU into two regions based on the wedgelet pattern wedgePattern [x] [y] of the target PU (for example, the region shown in FIG. 14C) R0, R1), the input PT information, and the reference pixel p [x] [y] based on the prediction value for the region R0 and the prediction value for the region R1, and the prediction value derived for each region is predicted image Derived by setting predSamples [x] [y].

以下では、図1を参照しながら、DC予測画像導出部145T1の構成について説明する。図1に示すように、DC予測画像導出部145T1は、さらに、エッジフラグ導出部146、DC予測値導出部147、及び予測画像導出部148を備える。   Hereinafter, the configuration of the DC predicted image deriving unit 145T1 will be described with reference to FIG. As illustrated in FIG. 1, the DC predicted image deriving unit 145T1 further includes an edge flag deriving unit 146, a DC predicted value deriving unit 147, and a predicted image deriving unit 148.

[エッジフラグ導出部146]
エッジフラグ導出部146は、入力されたウェッジレットパターンwedgePattern[x][y](x=0..nS-1, y=0..nS-1)の分割方向を判定するために、該ウェッジレットパターンの最左上要素wedgePattern[0][0](対象PUの最左上画素に対応)、最右上要素wedgePattern[nS-1][0](対象PUの最右上画素に対応)、最左下要素wedgePattern[0][nS-1](対象PUの最左下画素に対応)を参照して、それぞれ垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagを下記式(eq.1)、及び(eq.2)により導出する。導出された垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagは、DC予測値導出部147へ供給される。
[Edge flag deriving unit 146]
The edge flag deriving unit 146 determines the division direction of the input wedgelet pattern wedgePattern [x] [y] (x = 0..nS-1, y = 0..nS-1). The left uppermost element wedgePattern [0] [0] of the let pattern (corresponding to the upper leftmost pixel of the target PU), the upper rightmost element wedgePattern [nS-1] [0] (corresponding to the upper rightmost pixel of the target PU), the lower leftmost element With reference to wedgePattern [0] [nS-1] (corresponding to the lower leftmost pixel of the target PU), the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag are respectively expressed by the following equations (eq.1) and (eq.2) Derived by The derived vertical edge flag vertEdgeFlag and horizontal edge flag horEdgeFlag are supplied to the DC prediction value deriving unit 147.

vertEdgeFlag = ( wedgePattern[0][0] != wedgePattern[nS-1][0] ) (eq.1)
horEdgeFlag = ( wedgePattern[0][0] != wedgePattern[0][nS-1] ) (eq.2)
すなわち、ウェッジレットパターンの最左上要素wedgePattern[0][0]と最右上要素wedgePattern[nS-1][0]の値が等しい場合、垂直エッジフラグvertEdgeFlagに0を設定し、等しくない場合、1を設定する。垂直エッジフラグvertEdgeFlagが1の場合、対象PUの上辺上に分割境界(垂直方向の境界)があることを意味し、0であれば、対象PUの上辺上に分割境界がないことを意味する。
vertEdgeFlag = (wedgePattern [0] [0]! = wedgePattern [nS-1] [0]) (eq.1)
horEdgeFlag = (wedgePattern [0] [0]! = wedgePattern [0] [nS-1]) (eq.2)
That is, when the values of the upper leftmost element wedgePattern [0] [0] and the uppermost rightmost element wedgePattern [nS-1] [0] of the wedgelet pattern are equal, the vertical edge flag vertEdgeFlag is set to 0. Set. When the vertical edge flag vertEdgeFlag is 1, it means that there is a division boundary (perpendicular boundary) on the upper side of the target PU, and when it is 0, it means that there is no division boundary on the upper side of the target PU.

同様にして、ウェッジレットパターンの最左上要素wedgePattern[0][0]と最左下要素wedgePattern[0][nS-1]の値が等しい場合、水平エッジフラグhorEdgeFlagに0を設定し、等しくない場合、1を設定する。水平エッジフラグhorEdgeFlagが1の場合、対象PUの左辺上に分割境界(水平方向の境界)があることを意味し、0であれば、対象PU(ブロック)の左辺上に分割境界がないことを意味する。ここで、対象PUのX辺上(X=上、右、左、下)に分割境界があるとは、X辺上にあるウェッジレットパターンwedgePattern[x][y]の値(パターン値)が0から1、又は1から0へ変化する境界を指す。   Similarly, when the values of the wedget pattern upper left element wedgePattern [0] [0] and lower left element wedgePattern [0] [nS-1] are equal, the horizontal edge flag horEdgeFlag is set to 0 and they are not equal 1 is set. When the horizontal edge flag horEdgeFlag is 1, it means that there is a division boundary (horizontal boundary) on the left side of the target PU, and when it is 0, there is no division boundary on the left side of the target PU (block). means. Here, if there is a division boundary on the X side (X = up, right, left, bottom) of the target PU, the value (pattern value) of the wedgelet pattern wedgePattern [x] [y] on the X side is It refers to a boundary that changes from 0 to 1 or from 1 to 0.

これら垂直エッジフラグvertEdgeFlag、水平エッジフラグhorEdgeFlagの状態によって、対象PUの分割パターンを把握することが可能である。   Based on the state of the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag, it is possible to grasp the division pattern of the target PU.

図12を参照して、垂直エッジフラグvertEdgeFlag, 水平エッジフラグhorEdgeFlagの状態が示す分割パターン例を示す。なお、図12(a)〜(d)において、ブロック上で領域R0は、最左上要素wedgePattern[0][0]と同じパターン値を有する要素の集合であり、領域R1は、最左上要素wedgePattern[0][0]と異なるパターン値をもつ要素の集合である。   With reference to FIG. 12, an example of a division pattern indicated by the state of the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag is shown. 12A to 12D, the region R0 on the block is a set of elements having the same pattern value as the upper left element wedgePattern [0] [0], and the region R1 is the upper left element wedgePattern. [0] A set of elements having pattern values different from [0].

図12(a)は、(vertEdgeFlag,horEdgeFlag)=(0,0)が示す分割パターンであり、分割境界は、ブロックPA1のように右辺及び下辺上にある。   FIG. 12A shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (0, 0), and the division boundaries are on the right side and the lower side as in the block PA1.

図12(b)は、(vertEdgeFlag,horEdgeFlag)=(1,0)が示す分割パターンであり、分割境界は、ブロックPB1のように上辺及び下辺上、あるいはブロックPB2のように上辺及び右辺上にある。   FIG. 12B is a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1,0), and the division boundary is on the upper side and the lower side as in the block PB1, or on the upper side and the right side as in the block PB2. is there.

図12(c)は、(vertEdgeFlag,horEdgeFlag)=(0,1)が示す分割パターンであり、分割境界は、ブロックPC1のように左辺及び右辺上、あるいはブロックPC2のように左辺及び下辺上にある。   FIG. 12C shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (0, 1), and the division boundary is on the left side and the right side as in the block PC1, or on the left side and the bottom side as in the block PC2. is there.

図12(d)は、(vertEdgeFlag,horEdgeFlag)=(1,1)が示す分割パターンであり、分割境界は、ブロックPD1のように上辺及び左辺上にある。   FIG. 12D shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1, 1), and the division boundaries are on the upper side and the left side as in the block PD1.

[DC予測値導出部147]
DC予測値導出部147は、入力された垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに応じて、参照画素p[x][y]から分割された2領域に割り当てるDC予測値dcValLT、及びdcValBRを導出する。便宜上、ウェッジレットパターンの最左上要素wedgePattern[0][0]と同じ値を有する要素からなる領域を領域R0(第1の領域)、最左上要素wedgePattern[0][0]と異なる値を有する要素からなる領域を領域R1(第2の領域)とし、領域R0に関するDC予測値はdcValLT、領域R1に関するDC予測値はdcValBRであるとする。
[DC predicted value deriving unit 147]
The DC prediction value derivation unit 147 assigns the DC prediction values dcValLT and dcValBR to be assigned to the two regions divided from the reference pixel p [x] [y] according to the input vertical edge flag vertEdgeFlag and horizontal edge flag horEdgeFlag. To derive. For convenience, a region composed of elements having the same value as the upper leftmost element wedgePattern [0] [0] of the wedgelet pattern has a value different from the region R0 (first region) and the uppermost left element wedgePattern [0] [0]. It is assumed that a region composed of elements is a region R1 (second region), a DC predicted value related to the region R0 is dcValLT, and a DC predicted value related to the region R1 is dcValBR.

(1)垂直エッジフラグvertEdgeFlagと水平エッジフラグhorEdgeFlagが等しい場合(vertEdgeFlag==horEdgeFlag, 図12上の(a)、及び(d)の分割パターン)、以下の手順で、各DC予測値を導出する。   (1) When the vertical edge flag vertEdgeFlag is equal to the horizontal edge flag horEdgeFlag (vertEdgeFlag == horEdgeFlag, division patterns (a) and (d) in FIG. 12), each DC prediction value is derived by the following procedure. .

DC予測値導出部147は、図13(a)に示すように、下記式(eq.3)により、対象PUの最左上画素((x,y)=(0,0))の左、及び上に隣接する参照画素p[-1][0]と参照画素p[0][-1]の平均値をdcValLTへ設定する。   As shown in FIG. 13A, the DC predicted value deriving unit 147 uses the following equation (eq.3) to calculate the left uppermost pixel ((x, y) = (0,0)) of the target PU, and The average value of the reference pixel p [-1] [0] and the reference pixel p [0] [-1] adjacent on the upper side is set to dcValLT.

dcValLT = (p[-1][0] + p[0][-1]) >> 1 (eq.3)
同様にして、下記式(eq.4)により、対象PUの最左上画素を基準にしてx方向へ-1、y方向へ(2*nS-1)にある参照画素p[-1][2*nS-1]と、対象PUの最左上画素を基準にしてx方向へ(2*nS-1)、y方向へ-1にある参照画素p[2*nS-1][-1]の平均値をdcValBRへ設定する。
dcValLT = (p [-1] [0] + p [0] [-1]) >> 1 (eq.3)
Similarly, the reference pixel p [-1] [2] in the x direction -1 and the y direction (2 * nS-1) with the upper left pixel of the target PU as a reference by the following equation (eq.4) * nS-1] and the reference pixel p [2 * nS-1] [-1] in the x direction (2 * nS-1) and the y direction -1 based on the upper left pixel of the target PU Set the average value to dcValBR.

dcValBR = (p[-1][2*nS-1] + p[2*nS-1][-1]) >> 1 (eq.4)
ここで、図12(a)又は(d)に示す分割パターンの場合、領域R0と領域R1を分割する境界(例えば、図13(a)の線L)を考えると、多くの場合において、領域R1に属する可能性が高い参照画素は、領域R0から最も離れた参照画素であると考えられる。従って、領域R1の参照画素としては、対象PUの上辺上の参照画素のうち領域R0から離れた点p[2*nS-1][-1]と、対象PUの左辺上の参照画素のうち領域R0から離れた点p[-1][2*nS-1]を用い、ノイズを減らすために平均値をとることが好適である。
dcValBR = (p [-1] [2 * nS-1] + p [2 * nS-1] [-1]) >> 1 (eq.4)
Here, in the case of the division pattern shown in FIG. 12 (a) or (d), considering the boundary dividing the region R0 and the region R1 (for example, the line L in FIG. 13 (a)), in many cases, the region A reference pixel that is likely to belong to R1 is considered to be a reference pixel that is farthest from the region R0. Therefore, as the reference pixel of the region R1, among the reference pixels on the upper side of the target PU, the point p [2 * nS-1] [-1] away from the region R0 and the reference pixels on the left side of the target PU It is preferable to use a point p [-1] [2 * nS-1] away from the region R0 and take an average value to reduce noise.

従来技術では、図12(a)と図12(d)に示す分割パターンにおいて、領域R0のDC予測値の導出に利用する参照画素は同じであるが、領域R1のDC予測値の導出に利用する参照画素は異なるため、領域R1のDC予測値の導出処理を、2つの分割パターンで共通化することが出来なかった。一方、本実施例では、領域R0、及びR1毎に、同じ参照画素を利用することで、DC予測値のの導出処理を共通化することが可能である。すなわち、図12(a)と図12(d)を区別する必要がない。また、参照画素間の画素強度(画素差分)を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素を選択し、各領域のDC予測値dcValLT、及びdcValBRを導出することが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジレットパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。   In the prior art, the reference pixels used for derivation of the DC prediction value of the region R0 are the same in the division patterns shown in FIGS. 12A and 12D, but are used for derivation of the DC prediction value of the region R1. Since different reference pixels are used, the DC prediction value derivation process for the region R1 cannot be shared by the two division patterns. On the other hand, in the present embodiment, it is possible to share the DC prediction value derivation process by using the same reference pixel for each of the regions R0 and R1. That is, it is not necessary to distinguish FIG. 12 (a) and FIG. 12 (d). Also, without calculating the pixel intensity (pixel difference) between the reference pixels, the reference pixel is selected based on only the horizontal edge flag and the vertical edge flag, and the DC predicted values dcValLT and dcValBR of each region are derived. It is possible. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedgelet pattern without accessing a depth image that is a reference pixel.

なお、実施例では、領域R1のDC予測値dcValBRを導出する際に利用する参照画素として、対象PUの上辺上の座標(x,y) = (2*nS-1,-1)の参照画素p[2*nS-1][-1]と、対象PUの左辺上の座標(x,y) = (-1, 2*nS-1)の参照画素p[-1][2*nS-1]としたが、これに限定されない。例えば、対象PUの上辺上の別の座標(xL,-1)の参照画素p[xL][-1]、対象PUの左辺上の別の座標(-1, yT)の参照画素p[-1][yT]とすれば、それぞれ、xL = nS .. 2*nS-1, yT = nS .. 2*nS-1、の範囲で設定してもよい。   In the embodiment, as a reference pixel used when deriving the DC predicted value dcValBR of the region R1, a reference pixel having coordinates (x, y) = (2 * nS-1, -1) on the upper side of the target PU p [2 * nS-1] [-1] and the reference pixel p [-1] [2 * nS- of the coordinates (x, y) = (-1, 2 * nS-1) on the left side of the target PU 1], but is not limited to this. For example, the reference pixel p [xL] [-1] at another coordinate (xL, -1) on the upper side of the target PU, and the reference pixel p [-at another coordinate (-1, yT) on the left side of the target PU 1] [yT], xL = nS.. 2 * nS-1, yT = nS .. 2 * nS-1 may be set.

(2)垂直エッジフラグvertEdgeFlagと水平ヘッジフラグhorEdgeFlagが異なる場合(vertEdgeFlag!=horEdgeFlag、図12上の(b)、及び(c)の分割パターン)、DC予測値導出部147は、下記式(eq.5)〜(eq.6)により、各DC予測値を導出する。   (2) When the vertical edge flag vertEdgeFlag and the horizontal hedge flag horEdgeFlag are different (vertEdgeFlag! = HorEdgeFlag, division patterns (b) and (c) in FIG. 12), the DC predicted value derivation unit 147 uses the following equation (eq .5) to (eq.6) are used to derive each DC prediction value.

dcValLT = horEdgeFlag ? p[(nS-1)>>1][-1] : p[-1][(nS-1)>>1] (eq.5)
dcValBR = horEdgeFlag ? p[-1][nS] : p[nS][-1] (eq.6)
すなわち、水平エッジフラグhorEdgeFlagが1の場合(垂直エッジフラグvertEdgeFlagが0)には、DC予測値導出部147は、図13(b)に示すように、対象PUの上辺の中央画素の上に隣接する参照画素p[(nS-1)>>1][-1]を領域R0のDC予測値dcValLTとし、対象PUの最左下画素の左下に隣接する参照画素p[-1][nS]を領域R1のDC予測値dcValBRとする。
dcValLT = horEdgeFlag? p [(nS-1) >> 1] [-1]: p [-1] [(nS-1) >> 1] (eq.5)
dcValBR = horEdgeFlag? p [-1] [nS]: p [nS] [-1] (eq.6)
That is, when the horizontal edge flag horEdgeFlag is 1 (vertical edge flag vertEdgeFlag is 0), the DC prediction value deriving unit 147 is adjacent to the center pixel on the upper side of the target PU as shown in FIG. The reference pixel p [(nS-1) >> 1] [-1] to be used is the DC predicted value dcValLT of the region R0, and the reference pixel p [-1] [nS] adjacent to the lower left of the lower leftmost pixel of the target PU is The DC predicted value dcValBR in the region R1 is used.

水平エッジフラグhorEdgeFlagが0の場合(垂直エッジフラグvertEdgeFlagが1)には、DC予測値導出部147は、図13(c)に示すように、対象PUの左辺の中央画素の左に隣接する参照画素p[-1][(nS-1)>>1]を領域R0のDC予測値dcValLTとし、対象PUの最右上画素の右上に隣接する参照画素p[-1][nS]を領域R1のDC予測値dcValBRとする。   When the horizontal edge flag horEdgeFlag is 0 (vertical edge flag vertEdgeFlag is 1), the DC prediction value deriving unit 147 is adjacent to the left of the central pixel on the left side of the target PU, as shown in FIG. The pixel p [-1] [(nS-1) >> 1] is the DC predicted value dcValLT of the region R0, and the reference pixel p [-1] [nS] adjacent to the upper right of the upper right pixel of the target PU is the region R1. DC predicted value of dcValBR.

水平エッジフラグが1、かつ垂直エッジフラグが0の場合、従来技術では、領域R1のDC予測値dcValBRとして、対象PUの最左下画素の左に隣接する参照画素p[-1][nS-1]を利用するが、実施例では、対象PUの最左下画素の左下に隣接する参照画素p[-1][nS]を利用する点が特徴である。図13(b)に示す分割パターンの場合(水平エッジフラグが1、垂直エッジフラグが0)の場合、領域R0と領域R1を分割する境界(例えば、図13(b)の線L)を考えると、分割境界線上に位置する参照画素は、エッジ境界上にあるため画素変化を伴う場合が多く、分割境界からより内側に位置する参照画素の方が、DC予測に利用する参照画素として適切であると考えられる。従って、対象PUの最左下画素の左に位置する参照画素p[-1][nS-1]よりも、対象PUの最左下画素の左下に位置する参照画素p[-1][nS]の方が、領域R1のDC予測値に利用する画素として好適である。従って、従来技術と比較して、領域R1のDC予測値dcValBRの精度が向上し、符号化効率が向上する効果を奏する。   When the horizontal edge flag is 1 and the vertical edge flag is 0, in the related art, as the DC predicted value dcValBR of the region R1, the reference pixel p [-1] [nS-1 adjacent to the left of the lower leftmost pixel of the target PU ] Is used, but the embodiment is characterized in that the reference pixel p [-1] [nS] adjacent to the lower left of the lower leftmost pixel of the target PU is used. In the case of the division pattern shown in FIG. 13B (the horizontal edge flag is 1 and the vertical edge flag is 0), a boundary (for example, a line L in FIG. 13B) that divides the region R0 and the region R1 is considered. In many cases, the reference pixel located on the dividing boundary line is accompanied by a pixel change because it is on the edge boundary, and the reference pixel located further inside from the dividing boundary is more suitable as a reference pixel used for DC prediction. It is believed that there is. Therefore, the reference pixel p [-1] [nS] located at the lower left of the lower left pixel of the target PU is more than the reference pixel p [-1] [nS-1] located at the left of the lower left pixel of the target PU. This is more suitable as a pixel used for the DC prediction value in the region R1. Therefore, compared with the prior art, the accuracy of the DC predicted value dcValBR in the region R1 is improved, and the encoding efficiency is improved.

同様にして、水平エッジフラグが0、かつ垂直エッジフラグが1の場合、従来技術では、領域R1のDC予測値dcValBRとして、対象PUの最右上画素の上に隣接する参照画素p[nS-1][-1]を利用するが、実施例では、対象PUの最右上画素の右上に隣接する参照画素p[nS][-1]を利用する点が特徴である。図13(c)に示す分割パターンの場合(水平エッジフラグが0、垂直エッジフラグが1)の場合、領域R0と領域R1を分割する境界(例えば、図13(b)の線L)を考えると、分割境界線上に位置する参照画素は、エッジ境界上にあるため画素変化を伴う場合が多く、分割境界からより内側に位置する参照画素の方が、DC予測に利用する参照画素として適切であると考えられる。従って、対象PUの最右上画素の上に位置する参照画素p[nS-1][-1]よりも、対象PUの最右上画素の右上に位置する参照画素p[nS][-1]の方が、領域R1のDC予測値に利用する画素として好適である。従って、従来技術と比較して、領域R1のDC予測値dcValBRの精度が向上し、符号化効率が向上する効果を奏する。   Similarly, when the horizontal edge flag is 0 and the vertical edge flag is 1, in the conventional technique, the reference pixel p [nS-1 adjacent to the upper right pixel of the target PU is used as the DC predicted value dcValBR of the region R1. ] [-1] is used, but the embodiment is characterized in that the reference pixel p [nS] [-1] adjacent to the upper right of the upper right pixel of the target PU is used. In the case of the division pattern shown in FIG. 13C (the horizontal edge flag is 0 and the vertical edge flag is 1), consider a boundary (for example, a line L in FIG. 13B) that divides the region R0 and the region R1. In many cases, the reference pixel located on the dividing boundary line is accompanied by a pixel change because it is on the edge boundary, and the reference pixel located further inside from the dividing boundary is more suitable as a reference pixel used for DC prediction. It is believed that there is. Therefore, the reference pixel p [nS] [-1] located at the upper right of the upper right pixel of the target PU is more than the reference pixel p [nS-1] [-1] located above the upper right pixel of the target PU. This is more suitable as a pixel used for the DC prediction value in the region R1. Therefore, the accuracy of the DC prediction value dcValBR in the region R1 is improved and the coding efficiency is improved as compared with the conventional technique.

[従来技術との比較]
従来技術では、垂直エッジフラグ、水平エッジフラグ、及び参照画素間の画素強度horAbsDiff、vertAbsDiffに基づいて、図20(a)〜(e)に示すように、対象PUの分割パターンを、下記5つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出ていた。
[Comparison with conventional technology]
In the prior art, based on the vertical edge flag, the horizontal edge flag, and the pixel intensities horAbsDiff and vertAbsDiff between the reference pixels, as shown in FIGS. In each case, a reference pixel used for each region Ri (i = 0, 1) is selected for each case division, and a DC predicted value is derived.

(a)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff>vertAbsDiff,
(b)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff<=vertAbsDiff,
(c)(vertEdgeFlag,horEdgeFlag) == (1,1),
(d)(vertEdgeFlag,horEdgeFlag) == (0,1),
(e)(vertEdgeFlag,horEdgeFlag) == (1,0),
ここで、horAbsDiff=Abs( p[0][-1] - p[nS-1][-1] ), vertAbsDiff = Abs( p[-1][0] - p[-1][nS-1] )である。特に、水平エッジフラグと垂直フラグが共に0の場合、参照画素から水平方向の画素強度horAbsDiff、垂直方向の画素強度vertAbsDiffを導出する必要があり、条件分岐が多く、処理が複雑であるという課題がある。
(a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff,
(b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff,
(c) (vertEdgeFlag, horEdgeFlag) == (1,1),
(d) (vertEdgeFlag, horEdgeFlag) == (0,1),
(e) (vertEdgeFlag, horEdgeFlag) == (1,0),
Where horAbsDiff = Abs (p [0] [-1]-p [nS-1] [-1]), vertAbsDiff = Abs (p [-1] [0]-p [-1] [nS-1 ]). In particular, when both the horizontal edge flag and the vertical flag are 0, it is necessary to derive the pixel intensity horAbsDiff in the horizontal direction and the pixel intensity vertAbsDiff in the vertical direction from the reference pixel, and there is a problem that there are many conditional branches and the processing is complicated. is there.

一方、実施例に係るDC予測値導出部147は、垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。   On the other hand, the DC prediction value deriving unit 147 according to the embodiment divides the division pattern of the target PU into the following three cases based on the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag. A reference pixel to be used for the region Ri (i = 0, 1) is selected, and a DC prediction value is derived.

(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減する。また、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。さらに、従来技術と比較して、本実施例は、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジレットパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域Ri(i=0,1)のDC予測値の導出処理を共通化する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case division of the division pattern related to the selection of the reference pixel is reduced from 5 to 3. Also, the condition (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff, (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == (1,1) division pattern is integrated as condition (A) vertEdgeFlag == horEdgeFlag, and the derivation of the DC prediction value of each region Ri (i = 0,1) is made common . Furthermore, in comparison with the prior art, this embodiment does not calculate the pixel intensity between the reference pixels, and the division of the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag. Can be done. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedgelet pattern without accessing a depth image that is a reference pixel. Further, as compared with the conventional technique, when the vertical edge flag and the horizontal edge flag are equal, there is an effect of sharing the process of deriving the DC predicted value of each region Ri (i = 0, 1). Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.

[予測画像導出部148]
予測画像導出部148は、ウェッジレットパターンと、導出された各領域のDC予測値dcValBR、dcValLTと、DCオフセット情報復号部111より供給される対象PUの各領域のDCオフセット値DcOffset[i](i=0..dcNumSeg-1)に基づいて、対象PUの予測画像predSamples[x][y]を導出する。
[Predicted image deriving unit 148]
The predicted image deriving unit 148 includes the wedgelet pattern, the derived DC predicted values dcValBR and dcValLT of each region, and the DC offset value DcOffset [i] () of each region of the target PU supplied from the DC offset information decoding unit 111. Based on i = 0..dcNumSeg-1), the prediction image predSamples [x] [y] of the target PU is derived.

まず、ウェッジレットパターンwedgePattern[x][y]を参照して、対象PU内画素位置(x,y)が領域R0に属する場合(wedgePattern[x][y] == wedgePattern[0][0])、対象画素DC予測値predDcValを、dcValLTへ設定し、対象画素が領域R1に属する場合(wedgePattern[x][y] != wedgePattern[0][0])、対象画素DC予測値predDCValを、dcValBRへ設定する。   First, referring to the wedgelet pattern wedgePattern [x] [y], when the pixel position (x, y) in the target PU belongs to the region R0 (wedgePattern [x] [y] == wedgePattern [0] [0] ), When the target pixel DC predicted value predDcVal is set to dcValLT and the target pixel belongs to the region R1 (wedgePattern [x] [y]! = WedgePattern [0] [0]), the target pixel DC predicted value predDCVal is Set to dcValBR.

predDcVal = (wedgePattern[x][y] == wedgePattern[0][0]) ?
dcValLT : dcValBR (eq.7)
次に、DCオフセット値DcOffset[i](i=0..dcNumSeg-1)を参照して、対象画素DCオフセット値dcOffsetを設定する。
predDcVal = (wedgePattern [x] [y] == wedgePattern [0] [0])?
dcValLT: dcValBR (eq.7)
Next, the target pixel DC offset value dcOffset is set with reference to the DC offset value DcOffset [i] (i = 0..dcNumSeg-1).

dcOffset = DcOffset[wedgePattern[x][y]] (eq.8)
すなわち、ウェッジレットパターンwedgePattern[x][y]の値に対応するDCオフセット値dcOffset[wedgePattern[x][y]]を、対象画素のDCオフセット値dcOffsetへ設定する。
dcOffset = DcOffset [wedgePattern [x] [y]] (eq.8)
That is, the DC offset value dcOffset [wedgePattern [x] [y]] corresponding to the value of the wedgelet pattern wedgePattern [x] [y] is set to the DC offset value dcOffset of the target pixel.

導出した対象画素DC予測値predDcValと対象画素DCオフセット値dcOffsetの和を、対象画素の予測値とする。   The sum of the derived target pixel DC predicted value predDcVal and the target pixel DC offset value dcOffset is set as the predicted value of the target pixel.

predSamples[x][y] = predDcVal + dcOffset, with x=0..nS-1, y=0..nS-1
以上のようにして、予測画像導出部148は、対象PUの予測画像predSamples[x][y]を導出することができる。
predSamples [x] [y] = predDcVal + dcOffset, with x = 0..nS-1, y = 0..nS-1
As described above, the predicted image deriving unit 148 can derive the predicted image predSamples [x] [y] of the target PU.

(作用・効果)
実施例に係るDC値導出部145T3は、ウェッジレットパターンwedgePattern[][]から導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
The DC value deriving unit 145T3 according to the embodiment divides the division pattern of the target PU into the following three cases based on the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag derived from the wedgelet pattern wedgePattern [] []. For each case classification, a reference pixel to be used for each region Ri (i = 0, 1) is selected, and a DC predicted value is derived.

(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減する。また、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。さらに、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、領域RiのDC予測値の導出処理を共通化し、DMM予測の予測画像生成に係る処理量の低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case division of the division pattern related to the selection of the reference pixel is reduced from 5 to 3. Also, the condition (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff, (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == (1,1) division pattern is integrated as condition (A) vertEdgeFlag == horEdgeFlag, and the derivation of the DC prediction value of each region Ri (i = 0,1) is made common . Furthermore, compared to the prior art, it is possible to classify divided patterns related to selection of reference pixels based on only the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedge pattern without accessing a depth image that is a reference pixel. Also, compared to the conventional technique, when the vertical edge flag and the horizontal edge flag are equal, the derivation process of the DC prediction value of the region Ri is shared, and the effect of reducing the processing amount related to the prediction image generation of the DMM prediction is achieved. . Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.

[DMM1ウェッジレットパターン生成部145T2]
DMM1ウェッジレットパターン生成部145T2は、さらに、DMM1ウェッジレットパターン導出部145T6、バッファ145T5、及びウェッジレットパターンリスト生成部145T4を備える。概略的には、DMM1ウェッジレットパターン生成部145T2は、初回起動時のみ、ウェッジレットパターンリスト生成部145T4を起動させ、ブロックサイズ毎のウェッジレットパターンリストWedgePatternTableを生成する。次に、生成したウェッジレットパターンリストをバッファ145T5に格納する。続いて、DMM1ウェッジレットパターン導出部145T6は、入力される対象PUサイズnS、ウェッジレットパターンインデックスwedge_full_tab_idxに基づいて、バッファ145T5に格納されたウェッジレットパターンリストWedgePatternTableからウェッジレットパターンwedgePattern[x][y]を導出して、DC予測画像導出部145T1へ出力する。
[DMM1 wedgelet pattern generator 145T2]
The DMM1 wedgelet pattern generation unit 145T2 further includes a DMM1 wedgelet pattern derivation unit 145T6, a buffer 145T5, and a wedgelet pattern list generation unit 145T4. Schematically, the DMM1 wedgelet pattern generation unit 145T2 activates the wedgelet pattern list generation unit 145T4 only at the first activation, and generates a wedgelet pattern list WedgePatternTable for each block size. Next, the generated wedgelet pattern list is stored in the buffer 145T5. Subsequently, the DMM1 wedgelet pattern deriving unit 145T6 determines the wedgelet pattern wedgePattern [x] [y] from the wedgelet pattern list WedgePatternTable stored in the buffer 145T5 based on the input target PU size nS and wedgelet pattern index wedge_full_tab_idx. ] Is derived and output to the DC predicted image deriving unit 145T1.

[バッファ145T5]
バッファ145T5は、ウェッジレットパターンリスト生成部145T4より供給されるブロックサイズ別のウェッジレットパターンリストWedgePatternTableを記録する。
[Buffer 145T5]
The buffer 145T5 records the wedgelet pattern list WedgePatternTable for each block size supplied from the wedgelet pattern list generation unit 145T4.

[DMM1ウェッジレットパターン導出部145T6]
DMM1ウェッジレットパターン導出部145T6は、入力される対象PUサイズnS、ウェッジレットパターンインデックスwedge_full_tab_idxに基づいて、バッファ145T5に格納されたウェッジレットパターンリストWedgePatternTableから、対象PUへ適用するウェッジレットパターンwedgePattern[x][y]を導出し、DC予測画像導出部145T1へ出力する。
[DMM1 wedgelet pattern deriving unit 145T6]
The DMM1 wedgelet pattern deriving unit 145T6, based on the input target PU size nS and the wedgelet pattern index wedge_full_tab_idx, from the wedgelet pattern list WedgePatternTable stored in the buffer 145T5, the wedgelet pattern wedgePattern [x ] [y] is derived and output to the DC predicted image deriving unit 145T1.

wedgePattern[x][y] = WedgePatternTable[log2(nS)][wedge_full_tab_idx][x][y],
with x = 0..nS-1, y = 0..nS-1
ここで、log2(nS)は、対象PUサイズの2を底とする対数値である。
wedgePattern [x] [y] = WedgePatternTable [log2 (nS)] [wedge_full_tab_idx] [x] [y],
with x = 0..nS-1, y = 0..nS-1
Here, log2 (nS) is a logarithmic value with 2 as the target PU size.

[ウェッジレットパターンリスト生成部145T6]
ウェッジレットパターンリスト生成部145T6におけるウェッジレットパターンリストの生成方法を、図15を参照して説明する。まず、全要素が0のウェッジレットパターンを生成する。次に、ウェッジレットパターン内に、始点S(xs,ys)と終点E(xe,ye)を設定する。図15の(a)の例では、始点S(xs,ys)=(3,blocksize-1)、終点E(xe,ye)=(blocksize-1,2)である。次に、始点Sと終点Eの間をBresenhamのアルゴリズムを用いて線分を引く(図15(b)の斜線の要素)。図15(c)の例では、続いて、図15(d)に示すように、例えば、その線分上及び線分より左側の座標に対応する要素を1に設定することで、ウェッジレットパターンwedgePattern[x][y]が生成される。ここで、blocksizeは、ウェッジレットパターンを生成するブロックのサイズ(縦幅、横幅)である。
[Wedgelet pattern list generator 145T6]
A method for generating a wedgelet pattern list in the wedgelet pattern list generation unit 145T6 will be described with reference to FIG. First, a wedgelet pattern in which all elements are 0 is generated. Next, a start point S (xs, ys) and an end point E (xe, ye) are set in the wedgelet pattern. In the example of FIG. 15A, the start point S (xs, ys) = (3, blocksize-1) and the end point E (xe, ye) = (blocksize-1,2). Next, a line segment is drawn between the start point S and the end point E using Bresenham's algorithm (shaded elements in FIG. 15B). In the example of FIG. 15C, subsequently, as shown in FIG. 15D, for example, by setting the element corresponding to the coordinates on the line segment and on the left side of the line segment to 1, the wedgelet pattern wedgePattern [x] [y] is generated. Here, blocksize is the size (vertical width, horizontal width) of the block for generating the wedgelet pattern.

ウェッジレットパターンリスト生成部145T6は、上述したウェッジレットパターンリストの生成方法に基づいて、図16に示すように、主に、6種類のウェッジ方向wedgeOri(wedgeOri=0..5)毎の各始点S(xs,ys), 終点E(xe,ye)に対応するウェッジレットパターンをブロックサイズ別に生成し、ウェッジレットパターンリストWedgePatternTableへ追加する。   As shown in FIG. 16, the wedgelet pattern list generation unit 145T6 mainly uses each of the six start points for each wedge direction wedgeOri (wedgeOri = 0..5) based on the above-described wedgelet pattern list generation method. A wedgelet pattern corresponding to S (xs, ys) and end point E (xe, ye) is generated for each block size and added to the wedgelet pattern list WedgePatternTable.

以上、ウェッジレットパターンリスト生成部145T6は、log2BlkSizeを変数として、log2BlkSize=log2(nMinS)..log2(nMaxS)までの範囲で、ブロックサイズ毎に、(1<<log2BlkSize)×(1<<log2BlkSize)のウェッジレットパターンリストWedgePatternTableを生成することができる。   As described above, the wedgelet pattern list generation unit 145T6 sets (1 << log2BlkSize) × (1 << log2BlkSize) for each block size in the range up to log2BlkSize = log2 (nMinS) .. log2 (nMaxS) using log2BlkSize as a variable. ) Wedgelet pattern list WedgePatternTable.

[DMM4ウェッジレットパターン生成部145T3]
DMM4ウェッジレットパターン生成部145T3は、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を、デプスマップDepthPic上の対象PUに対応する視点画像TexturePic上の輝度の復号画素値recTexPicに基づいて導出し、DC予測画像導出部145T1へ出力する。概略的には、DMM4ウェッジレットパターン生成部は、デプスマップ上の対象PUの2つの領域R0、R1を、対応する視点画像TexturePic上の対象ブロックの輝度の平均値によって、対象ブロックを二値化することで導出する。
[DMM4 wedgelet pattern generator 145T3]
The DMM4 wedgelet pattern generation unit 145T3 converts the wedgelet pattern wedgePattern [x] [y] indicating the division pattern of the target PU into the decoded pixel value recTexPic of the luminance on the viewpoint image TexturePic corresponding to the target PU on the depth map DepthPic. Based on this, it outputs to the DC prediction image deriving unit 145T1. Schematically, the DMM4 wedgelet pattern generation unit binarizes the two blocks R0 and R1 of the target PU on the depth map by the average value of the luminance of the target block on the corresponding viewpoint image TexturePic. To derive.

まず、DMM4ウェッジレットパターン生成部145T3は、外部のフレームメモリ16より、対象PUに対応する視点画像TexturePic上の対応ブロックの輝度復号画素値recTextPicを外部のフレームメモリ16より読み出し、参照画素refSamples[x][y]へ下記式によって設定する。   First, the DMM4 wedgelet pattern generation unit 145T3 reads, from the external frame memory 16, the luminance decoded pixel value recTextPic of the corresponding block on the viewpoint image TexturePic corresponding to the target PU from the external frame memory 16, and the reference pixel refSamples [x ] Set to [y] by the following formula.

refSamples[x][y] = recTexPic[xB + x][yB + y], with x=0..nS-1, y=0..nS-1
参照画素refSamples[x][y]に基づいて、対応ブロックの画素値の総和sumRefValsを下記式で導出する。
refSamples [x] [y] = recTexPic [xB + x] [yB + y], with x = 0..nS-1, y = 0..nS-1
Based on the reference pixel refSamples [x] [y], the sum SumVals of the pixel values of the corresponding block is derived by the following equation.

sumRefVals = ΣrefSamples[x][y], with x=0..nS-1, y=0..nS-1
次に、総和sumRefValsと対象PUサイズnSに基づいて、閾値threshValsを下記式で導出する。すなわち、対応ブロックの平均画素値を導出する。
sumRefVals = ΣrefSamples [x] [y], with x = 0..nS-1, y = 0..nS-1
Next, the threshold value threshVals is derived by the following equation based on the sum sumRefVals and the target PU size nS. That is, the average pixel value of the corresponding block is derived.

threshVal = (sumRefVals >> (2 * log2(nS))
ここで、上記式の代わり、総和sumRefValsを対象PUサイズnSの二乗数nS*nSで除算した値を閾値threshValとしてもよい。
threshVal = (sumRefVals >> (2 * log2 (nS))
Here, instead of the above formula, a value obtained by dividing the sum sumRefVals by the square number nS * nS of the target PU size nS may be used as the threshold threshVal.

続いて、DMM4ウェッジレットパターン生成部145T3は、導出した閾値threshVal、及び参照画素refSamples[x][y]を参照して、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を下記式により導出して出力する。   Subsequently, the DMM4 wedgelet pattern generation unit 145T3 refers to the derived threshold value threshVal and the reference pixel refSamples [x] [y], and determines the wedgelet pattern wedgePattern [x] [y] indicating the division pattern of the target PU. Derived by the following formula and output.

wedgePattern[x][y] = (refSamples[x][y]>threshVal)
すなわち、参照画素refSamples[x][y]が、閾値threshValより大きい場合には、ウェッジパターンの要素(x,y)に1を設定する。参照画素refSamples[x][y]が、閾値threshVal以下の場合には、ウェッジレットパターンの要素(x,y)に0を設定する。
wedgePattern [x] [y] = (refSamples [x] [y]> threshVal)
That is, when the reference pixel refSamples [x] [y] is larger than the threshold value threshVal, 1 is set to the element (x, y) of the wedge pattern. When the reference pixel refSamples [x] [y] is equal to or less than the threshold value threshVal, 0 is set to the element (x, y) of the wedgelet pattern.

(作用・効果)
以上説明した本実施形態に係る動画像復号装置1の備える予測画像生成部は、DMM予測が実行される場合、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
When the DMM prediction is executed, the predicted image generation unit included in the video decoding device 1 according to the present embodiment described above, based on the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag derived from the wedgelet pattern, The division pattern of the target PU is divided into the following three cases, and for each case division, a reference pixel used for each region Ri (i = 0, 1) is selected, and a DC prediction value is derived.

(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減すると共に、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。従って、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。また、条件分岐を5から3へ削減し、分岐処理を低減する効果を奏する。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域RiのDC予測値の導出処理を共通化することで、符号化効率を維持しつつ、予測画像生成に係る処理量を低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case of the division pattern related to the selection of the reference pixel is reduced from 5 to 3, and the condition in the prior art (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff , (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == The division pattern of (1,1) is the condition (A) vertEdgeFlag == horEdgeFlag And derivation of the DC prediction value of each region Ri (i = 0, 1) is made common. Therefore, compared with the conventional technique, it is possible to classify the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. In addition, the conditional branch is reduced from 5 to 3, and the branch processing is reduced. Compared to the prior art, when the vertical edge flag and the horizontal edge flag are the same, the derivation process of the DC prediction value of each region Ri is made common, so that the prediction image can be generated while maintaining the coding efficiency. There exists an effect which reduces the processing amount which concerns. Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.

〔動画像符号化装置〕
以下において、本実施形態に係る動画像符号化装置2について、図17を参照して説明する。
[Moving picture encoding device]
Hereinafter, the moving picture encoding apparatus 2 according to the present embodiment will be described with reference to FIG.

(動画像符号化装置の概要)
動画像符号化装置2は、概略的に言えば、入力画像#10を符号化することによって符号化データ#1を生成し、出力する装置である。ここで、入力画像#10は、1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPicからなるレイヤ画像である。
(Outline of video encoding device)
Generally speaking, the moving image encoding device 2 is a device that generates and outputs encoded data # 1 by encoding the input image # 10. Here, the input image # 10 is a layer image including one or a plurality of viewpoint images TexturePic and a depth map DepthPic at the same time corresponding to the viewpoint image TexturePic.

(動画像符号化装置の構成)
まず、図17を用いて、動画像符号化装置2の構成例について説明する。図17は、動画像符号化装置2の構成について示す機能ブロック図である。図17に示すように、動画像符号化装置2は、符号化設定部21、逆量子化・逆変換部22、予測画像生成部23、加算器24、フレームメモリ25、減算器26、変換・量子化部27、および符号化データ生成部29を備えている。
(Configuration of video encoding device)
First, a configuration example of the video encoding device 2 will be described with reference to FIG. FIG. 17 is a functional block diagram showing the configuration of the moving image encoding device 2. As illustrated in FIG. 17, the moving image encoding apparatus 2 includes an encoding setting unit 21, an inverse quantization / inverse conversion unit 22, a predicted image generation unit 23, an adder 24, a frame memory 25, a subtractor 26, a conversion / A quantization unit 27 and an encoded data generation unit 29 are provided.

符号化設定部21は、入力画像#10に基づいて、符号化に関する画像データおよび各種の設定情報を生成する。   The encoding setting unit 21 generates image data related to encoding and various setting information based on the input image # 10.

具体的には、符号化設定部21は、次の画像データおよび設定情報を生成する。   Specifically, the encoding setting unit 21 generates the next image data and setting information.

まず、符号化設定部21は、入力画像#10を、スライス単位、ツリーブロック単位、CU単位に順次分割することにより、対象CUについてのCU画像#100を生成する。   First, the encoding setting unit 21 generates the CU image # 100 for the target CU by sequentially dividing the input image # 10 into slice units, tree block units, and CU units.

また、符号化設定部21は、分割処理の結果に基づいて、ヘッダ情報H’を生成する。ヘッダ情報H’は、(1)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報、並びに、(2)各ツリーブロックに属するCUのサイズ、形状および対象ツリーブロック内での位置についてのCU情報CU’を含んでいる。   Also, the encoding setting unit 21 generates header information H ′ based on the result of the division process. The header information H ′ includes (1) information on the size and shape of the tree block belonging to the target slice and the position in the target slice, and (2) the size, shape and shape of the CU belonging to each tree block. CU information CU ′ for the position at

さらに、符号化設定部21は、CU画像#100、および、CU情報CU’を参照して、PT設定情報PTI’を生成する。PT設定情報PTI’には、(1)対象CUの各PUへの可能な分割パターン、および、(2)各PUに割り付ける可能な予測モード、の全ての組み合わせに関する情報が含まれる。   Further, the encoding setting unit 21 refers to the CU image # 100 and the CU information CU 'to generate PT setting information PTI'. The PT setting information PTI 'includes information on all combinations of (1) possible division patterns of the target CU for each PU and (2) prediction modes that can be assigned to each PU.

符号化設定部21は、CU画像#100を減算器26に供給する。また、符号化設定部21は、ヘッダ情報H’を符号化データ生成部29に供給する。また、符号化設定部21は、PT設定情報PTI’を予測画像生成部23に供給する。   The encoding setting unit 21 supplies the CU image # 100 to the subtractor 26. In addition, the encoding setting unit 21 supplies the header information H ′ to the encoded data generation unit 29. Also, the encoding setting unit 21 supplies the PT setting information PTI ′ to the predicted image generation unit 23.

逆量子化・逆変換部22は、変換・量子化部27より供給される、ブロック毎の量子化予測残差を、逆量子化、および、逆直交変換することによって、ブロック毎の予測残差を復元する。逆直交変換については、図3に示す逆量子化・逆変換部13について、既に説明したとおりであるので、ここではその説明を省略する。   The inverse quantization / inverse transform unit 22 performs inverse quantization and inverse orthogonal transform on the quantized prediction residual for each block supplied from the transform / quantization unit 27, thereby predicting the prediction residual for each block. To restore. The inverse orthogonal transform has already been described with respect to the inverse quantization / inverse transform unit 13 shown in FIG. 3, and thus the description thereof is omitted here.

また、逆量子化・逆変換部22は、ブロック毎の予測残差を、TT分割情報(後述)により指定される分割パターンに従って統合し、対象CUについての予測残差Dを生成する。逆量子化・逆変換部22は、生成した対象CUについての予測残差Dを、加算器24に供給する。   Further, the inverse quantization / inverse transform unit 22 integrates the prediction residual for each block according to the division pattern specified by the TT division information (described later), and generates a prediction residual D for the target CU. The inverse quantization / inverse transform unit 22 supplies the prediction residual D for the generated target CU to the adder 24.

予測画像生成部23は、フレームメモリ25に記録されている局所復号画像P’、および、PT設定情報PTI’を参照して、対象CUについての予測画像Predを生成する。予測画像生成部23は、予測画像生成処理により得られた予測パラメータを、PT設定情報PTI’に設定し、設定後のPT設定情報PTI’を符号化データ生成部29に転送する。なお、予測画像生成部23による予測画像生成処理は、動画像復号装置1の備える予測画像生成部14と同様であるので、ここでは説明を省略する。   The predicted image generation unit 23 refers to the locally decoded image P ′ and the PT setting information PTI ′ recorded in the frame memory 25 to generate a predicted image Pred for the target CU. The predicted image generation unit 23 sets the prediction parameter obtained by the predicted image generation process in the PT setting information PTI ′, and transfers the set PT setting information PTI ′ to the encoded data generation unit 29. Note that the predicted image generation process performed by the predicted image generation unit 23 is the same as that performed by the predicted image generation unit 14 included in the video decoding device 1, and thus description thereof is omitted here.

加算器24は、予測画像生成部23より供給される予測画像Predと、逆量子化・逆変換部22より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。   The adder 24 adds the predicted image Pred supplied from the predicted image generation unit 23 and the prediction residual D supplied from the inverse quantization / inverse transform unit 22 to thereby obtain the decoded image P for the target CU. Generate.

フレームメモリ25には、復号された復号画像Pが順次記録される。フレームメモリ25には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が記録されている。   Decoded decoded images P are sequentially recorded in the frame memory 25. In the frame memory 25, decoded images corresponding to all tree blocks decoded prior to the target tree block (for example, all tree blocks preceding in the raster scan order) at the time of decoding the target tree block. It is recorded.

減算器26は、CU画像#100から予測画像Predを減算することによって、対象CUについての予測残差Dを生成する。減算器26は、生成した予測残差Dを、変換・量子化部27に供給する。   The subtractor 26 generates a prediction residual D for the target CU by subtracting the prediction image Pred from the CU image # 100. The subtractor 26 supplies the generated prediction residual D to the transform / quantization unit 27.

変換・量子化部27は、予測残差Dに対して、直交変換および量子化を行うことで量子化予測残差を生成する。なお、ここで直交変換とは、画素領域から周波数領域への変換のことをさす。また、逆直交変換の例としては、DCT変換(Discrete Cosine Transform)、およびDST変換(Discrete Sine Transform)等が挙げられる。   The transform / quantization unit 27 generates a quantized prediction residual by performing orthogonal transform and quantization on the prediction residual D. Here, the orthogonal transformation refers to transformation from the pixel region to the frequency region. Examples of inverse orthogonal transform include DCT transform (Discrete Cosine Transform), DST transform (Discrete Sine Transform), and the like.

具体的には、変換・量子化部27は、CU画像#100、および、CU情報CU’を参照し、対象CUの1または複数のブロックへの分割パターンを決定する。また、決定された分割パターンに従って、予測残差Dを、各ブロックについての予測残差に分割する。   Specifically, the transform / quantization unit 27 refers to the CU image # 100 and the CU information CU ', and determines a division pattern of the target CU into one or a plurality of blocks. Further, according to the determined division pattern, the prediction residual D is divided into prediction residuals for each block.

また、変換・量子化部27は、各ブロックについての予測残差を直交変換することによって周波数領域における予測残差を生成した後、当該周波数領域における予測残差を量子化することによってブロック毎の量子化予測残差を生成する。なお、変換部・量子化部27は、SDCフラグが1の場合、周波数変換・量子化を省略し、対象TUの画素毎の予測残差D(又はresSamples[x][y])を0とする。   The transform / quantization unit 27 generates a prediction residual in the frequency domain by orthogonally transforming the prediction residual for each block, and then quantizes the prediction residual in the frequency domain to Generate quantized prediction residuals. Note that when the SDC flag is 1, the transform unit / quantization unit 27 omits frequency transform / quantization, and sets the prediction residual D (or resSamples [x] [y]) for each pixel of the target TU to 0. To do.

また、変換・量子化部27は、生成したブロック毎の量子化予測残差と、対象CUの分割パターンを指定するTT分割情報と、対象CUの各ブロックへの可能な全分割パターンに関する情報とを含むTT設定情報TTI’を生成する。変換・量子化部27は、生成したTT設定情報TTI’を逆量子化・逆変換部22および符号化データ生成部29に供給する。   In addition, the transform / quantization unit 27 generates the quantization prediction residual for each block, TT division information that specifies the division pattern of the target CU, information about all possible division patterns for each block of the target CU, and TT setting information TTI ′ including is generated. The transform / quantization unit 27 supplies the generated TT setting information TTI ′ to the inverse quantization / inverse transform unit 22 and the encoded data generation unit 29.

符号化データ生成部29は、ヘッダ情報H’、TT設定情報TTI’、およびPT設定情報PTI’を符号化し、符号化したヘッダ情報H、TT設定情報TTI、およびPT設定情報PTIを多重化して符号化データ#1を生成し、出力する。   The encoded data generation unit 29 encodes header information H ′, TT setting information TTI ′, and PT setting information PTI ′, and multiplexes the encoded header information H, TT setting information TTI, and PT setting information PTI. Coded data # 1 is generated and output.

(作用・効果)
以上説明した本実施形態に係る動画像符号化装置2の備える予測画像生成部は、DMM予測が実行される場合、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
When the DMM prediction is executed, the predicted image generation unit included in the video encoding device 2 according to the present embodiment described above is based on the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag that are derived from the wedgelet pattern. The division pattern of the target PU is divided into the following three cases, and for each case division, a reference pixel used for each region Ri (i = 0, 1) is selected, and a DC prediction value is derived.

(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減すると共に、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。従って、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。また、条件分岐を5から3へ削減し、分岐処理を低減する効果を奏する。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域RiのDC予測値の導出処理を共通化することで、符号化効率を維持しつつ、予測画像生成に係る処理量を低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case of the division pattern related to the selection of the reference pixel is reduced from 5 to 3, and the condition in the prior art (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff , (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == The division pattern of (1,1) is the condition (A) vertEdgeFlag == horEdgeFlag And derivation of the DC prediction value of each region Ri (i = 0, 1) is made common. Therefore, compared with the conventional technique, it is possible to classify the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. In addition, the conditional branch is reduced from 5 to 3, and the branch processing is reduced. Compared to the prior art, when the vertical edge flag and the horizontal edge flag are the same, the derivation process of the DC prediction value of each region Ri is made common, so that the prediction image can be generated while maintaining the coding efficiency. There exists an effect which reduces the processing amount which concerns. Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.

〔応用例〕
上述した動画像符号化装置2及び動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
[Application example]
The above-described moving image encoding device 2 and moving image decoding device 1 can be used by being mounted on various devices that perform transmission, reception, recording, and reproduction of moving images. The moving image may be a natural moving image captured by a camera or the like, or may be an artificial moving image (including CG and GUI) generated by a computer or the like.

まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図18を参照して説明する。   First, it will be described with reference to FIG. 18 that the above-described moving image encoding device 2 and moving image decoding device 1 can be used for transmission and reception of moving images.

図18の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図18の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。   FIG. 18A is a block diagram illustrating a configuration of a transmission device PROD_A in which the moving image encoding device 2 is mounted. As illustrated in (a) of FIG. 18, the transmission device PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image and the encoded data obtained by the encoding unit PROD_A1. Thus, a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided. The moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.

送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、及び、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図18の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。   The transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, and an input terminal PROD_A6 for inputting the moving image from the outside as a supply source of the moving image input to the encoding unit PROD_A1. And an image processing unit A7 for generating or processing an image. FIG. 18A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but a part of the configuration may be omitted.

なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。   The recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.

図18の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図18の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。   FIG. 18B is a block diagram illustrating a configuration of the receiving device PROD_B in which the video decoding device 1 is mounted. As illustrated in FIG. 18B, the reception device PROD_B includes a reception unit PROD_B1 that receives a modulation signal, a demodulation unit PROD_B2 that obtains encoded data by demodulating the modulation signal received by the reception unit PROD_B1, and a demodulation A decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2. The moving picture decoding apparatus 1 described above is used as the decoding unit PROD_B3.

受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図18の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。   The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. FIG. 18B illustrates a configuration in which the reception apparatus PROD_B includes all of these, but a part may be omitted.

なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。   The recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.

なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。   Note that the transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.

例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。   For example, a terrestrial digital broadcast broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting. Further, a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.

また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。   Also, a server (workstation or the like) / client (television receiver, personal computer, smartphone, etc.) such as a VOD (Video On Demand) service or a video sharing service using the Internet transmits and receives a modulated signal by communication. This is an example of PROD_A / reception device PROD_B (usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multi-function mobile phone terminal.

なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。   Note that the client of the video sharing service has a function of encoding a moving image captured by a camera and uploading it to the server in addition to a function of decoding the encoded data downloaded from the server and displaying it on the display. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.

次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図19を参照して説明する。   Next, it will be described with reference to FIG. 19 that the above-described moving image encoding device 2 and moving image decoding device 1 can be used for recording and reproduction of moving images.

図19の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図19の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。   FIG. 19A is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving picture encoding apparatus 2 is mounted. As shown in FIG. 19A, the recording apparatus PROD_C has an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M. A writing unit PROD_C2 for writing. The moving image encoding apparatus 2 described above is used as the encoding unit PROD_C1.

なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc(登録商標))などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   The recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc (registered) Or a drive device (not shown) built in the recording device PROD_C.

また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、及び、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図19の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。   The recording device PROD_C receives a moving image as a supply source of a moving image to be input to the encoding unit PROD_C1, a camera PROD_C3 that captures a moving image, an input terminal PROD_C4 for inputting a moving image from the outside, and a moving image. May include a receiving unit PROD_C5 and an image processing unit C6 that generates or processes an image. FIG. 19A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but a part of the configuration may be omitted.

なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。   The receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.

このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HD(Hard Disk)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。   Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HD (Hard Disk) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images). In addition, a camcorder (in this case, the camera PROD_C3 is a main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 is a main source of moving images), a smartphone (in this case, the camera PROD_C3 or The receiving unit PROD_C5 or the image processing unit C6 is a main supply source of moving images) is also an example of such a recording apparatus PROD_C.

図19の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図19の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。   FIG. 19B is a block diagram illustrating a configuration of a playback device PROD_D in which the above-described video decoding device 1 is mounted. As shown in (b) of FIG. 19, the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M and a coded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained. The moving picture decoding apparatus 1 described above is used as the decoding unit PROD_D2.

なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   Note that the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.

また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図19の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。   In addition, the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2. PROD_D5 may be further provided. FIG. 19B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but some of the configurations may be omitted.

なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。   The transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.

このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。   Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). . In addition, a television receiver (in this case, the display PROD_D3 is a main supply destination of moving images), a digital signage (also referred to as an electronic signboard or an electronic bulletin board), and the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images. Desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is the main video image supply destination), laptop or tablet PC (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a moving image) A smartphone (which is a main image supply destination), a smartphone (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a main moving image supply destination), and the like are also examples of such a playback device PROD_D.

(ハードウェア的実現およびソフトウェア的実現)
また、上述した動画像復号装置1および動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Hardware implementation and software implementation)
Each block of the moving picture decoding apparatus 1 and the moving picture encoding apparatus 2 described above may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be a CPU (Central Processing). Unit) may be implemented in software.

後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read-Only Memory)/MOディスク(Magneto-Optical disc)/MD(Mini Disc)/DVD(Digital Versatile Disc)/CD−R(CD Recordable)/ブルーレイディスク(Blu-ray Disc(登録商標))等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-Only Memory)/EEPROM(Electrically Erasable and Programmable Read-Only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tape and cassette tape, magnetic disks such as floppy (registered trademark) disks / hard disks, CD-ROM (Compact Disc Read-Only Memory) / MO disks (Magneto-Optical discs), and the like. ) / MD (Mini Disc) / DVD (Digital Versatile Disc) / CD-R (CD Recordable) / Blu-ray Disc (Blu-ray Disc (registered trademark)) and other optical disks, IC cards (including memory cards) ) / Cards such as optical cards, mask ROM / EPROM (Erasable Programmable Read-Only Memory) / EEPROM (Electrically Erasable and Programmable Read-Only Memory) / semiconductor memories such as flash ROM, or PLD (Programmable Logic Device) Logic circuits such as an FPGA (Field Programmable Gate Array) can be used.

また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna television/Cable Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, Internet, Intranet, Extranet, LAN (Local Area Network), ISDN (Integrated Services Digital Network), VAN (Value-Added Network), CATV (Community Antenna television / Cable Television) communication network, Virtual Private Network (Virtual Private Network) Network), telephone line network, mobile communication network, satellite communication network, and the like. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, infra-red such as IrDA (Infrared Data Association) or remote control even with wired such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc. , Bluetooth (registered trademark), IEEE 802.11 wireless, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network, etc. Is possible. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、画像データが符号化された符号化データを復号する画像復号装置、および、画像データが符号化された符号化データを生成する画像符号化装置に好適に適用することができる。また、画像符号化装置によって生成され、画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。   The present invention can be suitably applied to an image decoding apparatus that decodes encoded data obtained by encoding image data and an image encoding apparatus that generates encoded data obtained by encoding image data. Further, the present invention can be suitably applied to the data structure of encoded data generated by an image encoding device and referenced by the image decoding device.

1 動画像復号装置(画像復号装置)
11 可変長復号部(DMM予測モード情報復号手段)
111 DCオフセット情報復号部(DCオフセット情報復号手段)
13 逆量子化・逆変換部
14 予測画像生成部
141 予測単位設定部
142 参照画素設定部
143 スイッチ
144 参照画素フィルタ部
145 予測画像導出部
145D DC予測部
145P Planar予測部
145A Angular予測部
145T DMM予測部(DMM予測装置)
145T1 DC予測画像導出部
145T2 DMM1ウェッジレットパターン生成部
145T3 DMM4ウェッジレットパターン生成部
145T5 ウェッジレットパターンリスト生成部
145T5 バッファ
145T6 DMM1ウェッジレットパターン導出部
146 エッジフラグ導出部
147 DC予測値導出部
148 予測画像導出部
15 加算器
16 フレームメモリ
2 動画像符号化装置
21 符号化設定部
22 逆量子化・逆変換部
23 予測画像生成部
24 加算器
25 フレームメモリ
26 減算器
27 変換・量子化部
29 符号化データ生成部(DMM予測モード情報符号化手段)
1 video decoding device (image decoding device)
11 Variable length decoding unit (DMM prediction mode information decoding means)
111 DC offset information decoding unit (DC offset information decoding means)
13 Inverse quantization / inverse transform unit 14 Predicted image generation unit 141 Prediction unit setting unit 142 Reference pixel setting unit 143 Switch 144 Reference pixel filter unit 145 Predicted image derivation unit 145D DC prediction unit 145P Planar prediction unit 145A Angular prediction unit 145T DMM prediction (DMM prediction device)
145T1 DC predicted image derivation unit 145T2 DMM1 wedgelet pattern generation unit 145T3 DMM4 wedgelet pattern generation unit 145T5 wedgelet pattern list generation unit 145T5 buffer 145T6 DMM1 wedgelet pattern derivation unit 146 edge flag derivation unit 147 DC prediction value derivation unit 148 prediction image Deriving unit 15 Adder 16 Frame memory 2 Video encoding device 21 Encoding setting unit 22 Inverse quantization / inverse conversion unit 23 Predictive image generation unit 24 Adder 25 Frame memory 26 Subtractor 27 Conversion / quantization unit 29 Encoding Data generation unit (DMM prediction mode information encoding means)

Claims (10)

対象PUを第1の領域と第2の領域へ分割することを示すウェッジレットパターンを導出するウェッジレットパターン導出手段と、
前記ウェッジレットパターンから垂直エッジフラグ、及び水平エッジフラグを導出するエッジフラグ導出手段と、
対象PUの参照画素から各領域のDC予測値を導出するDC予測値導出手段と、
前記ウェッジレットパターン、前記各領域のDC予測値、及び各領域のDCオフセット情報に基づいて、対象PUの予測画像を導出する予測画像導出手段を備えるDMM予測装置であって、
前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合と、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合と、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合それぞれにおいて、各領域のDC予測値の導出に利用する参照画素が互いに異なることを特徴とするDMM予測装置。
Wedgelet pattern deriving means for deriving a wedgelet pattern indicating that the target PU is divided into the first region and the second region;
Edge flag deriving means for deriving a vertical edge flag and a horizontal edge flag from the wedgelet pattern;
DC predicted value derivation means for deriving the DC predicted value of each region from the reference pixel of the target PU;
A DMM prediction apparatus comprising prediction image derivation means for deriving a prediction image of a target PU based on the wedgelet pattern, a DC prediction value of each region, and DC offset information of each region,
The DC prediction value deriving means includes the case where the vertical edge flag is equal to the horizontal edge flag, the case where the vertical edge flag is 0 and the horizontal edge flag is 1, and the case where the vertical edge flag is 1 and the horizontal edge flag. A DMM prediction apparatus, wherein reference pixels used for derivation of a DC prediction value of each region are different from each other in the case where is 0.
前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合、前記対象PUの最左上画素を基準にして、x方向へ−1、y方向へ0の位置にある参照画素と、x方向へ0、y方向へ−1の位置にある参照画素との平均値を、第1の領域に対するDC予測値とし、
前記対象PUの最左上画素を基準にして、x方向へ−1、x方向へ2*nS−1の位置にある参照画素と、x方向へ2*nS−1、y方向へ−1の位置にある参照画素との平均値を、第2の領域に対するDC予測値として導出することを特徴とする請求項1に記載のDMM予測装置。
When the vertical edge flag and the horizontal edge flag are the same, the DC prediction value deriving means uses a reference pixel at a position of −1 in the x direction and 0 in the y direction on the basis of the upper left pixel of the target PU. , The average value of the reference pixel at the position of 0 in the x direction and −1 in the y direction is the DC predicted value for the first region,
A reference pixel at a position of 2 * nS-1 in the x direction and 2 * nS-1 in the x direction and a position of -1 in the y direction with respect to the upper left pixel of the target PU 2. The DMM prediction apparatus according to claim 1, wherein an average value with reference pixels in the second region is derived as a DC prediction value for the second region.
前記DC予測値導出手段は、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合、前記対象PUの上辺の中央画素の上に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最左下画素の左下に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする請求項1に記載のDMM予測装置。   When the vertical edge flag is 0 and the horizontal edge flag is 1, the DC prediction value deriving unit sets a reference pixel adjacent to the center pixel on the upper side of the target PU as a DC prediction value for the first region. The DMM prediction apparatus according to claim 1, wherein a reference pixel adjacent to the lower left of the lower left pixel of the target PU is derived as a DC prediction value for the second region. 前記DC予測値導出手段は、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合、前記対象PUの左辺の中央画素の左に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最右上画素の右上に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする請求項1に記載のDMM予測装置。   When the vertical edge flag is 1 and the horizontal edge flag is 0, the DC prediction value deriving unit sets a reference pixel adjacent to the left of the central pixel on the left side of the target PU as a DC prediction value for the first region. The DMM prediction apparatus according to claim 1, wherein a reference pixel adjacent to the upper right of the upper right pixel of the target PU is derived as a DC prediction value for the second region. 前記第1の領域は、前記対象PUの最左上画素と、前記最左上画素のウェッジレットパターンの値と等しいウェッジレットパターンの値を有する画素からなる領域であることを特徴とする請求項1から4に記載のDMM予測装置。   The first area is an area composed of a pixel having a value of a wedgelet pattern equal to a value of a wedgelet pattern of the uppermost left pixel of the target PU and the uppermost left pixel. 4. The DMM prediction apparatus according to 4. 前記第2の領域は、前記対象PUの最左上画素のウェッジレットパターンの値と異なるウェッジレットパターンの値の画素からなる領域であることを特徴とする請求項5に記載のDMM予測装置。   6. The DMM prediction apparatus according to claim 5, wherein the second region is a region including pixels having a wedgelet pattern value different from a wedgelet pattern value of an upper left pixel of the target PU. 前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最右上画素のウェッジレットパターンの値が異なる場合には、1を垂直エッジフラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を垂直エッジフラグに設定することを特徴とする請求項6に記載のDMM予測装置。   The edge flag deriving means sets 1 as the vertical edge flag when the value of the wedge pattern of the upper leftmost pixel of the target PU and the value of the wedgelet pattern of the uppermost right pixel of the target PU are different from each other. 7. The DMM prediction apparatus according to claim 6, wherein when the value of the wedge pattern of the upper left pixel is equal to the value of the wedge let pattern of the upper right pixel, 0 is set in the vertical edge flag. 前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最左下画素のウェッジレットパターンの値が異なる場合には、1を水平フラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を水平エッジフラグに設定することを特徴とする請求項7に記載のDMM予測装置。   The edge flag deriving means sets the horizontal flag to 1 when the value of the wedge pattern of the upper left pixel of the target PU is different from the value of the wedge let pattern of the lower left pixel of the target PU, and sets the upper left 8. The DMM prediction apparatus according to claim 7, wherein when the value of the wedge pattern of the pixel is equal to the value of the wedgelet pattern of the upper rightmost pixel, 0 is set in the horizontal edge flag. 上記請求項1から請求項8の何れか一項に記載のDMM予測装置と、
DMM予測に関するDMM予測モード情報を復号するDMM予測モード情報復号手段を備える画像復号装置であって、
上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする画像復号装置。
The DMM prediction apparatus according to any one of claims 1 to 8,
An image decoding apparatus comprising DMM prediction mode information decoding means for decoding DMM prediction mode information related to DMM prediction,
The DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.
上記請求項1から請求項8の何れか一項に記載のDMM予測装置と、
DMM予測に関するDMM予測モード情報を符号化するDMM予測モード情報符号化手段を備える画像符号化装置であって、
上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする画像符号化装置。
The DMM prediction apparatus according to any one of claims 1 to 8,
An image encoding device including DMM prediction mode information encoding means for encoding DMM prediction mode information related to DMM prediction,
The DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.
JP2014203824A 2014-10-02 2014-10-02 Dmm prediction device, image decoding device and image encoding device Pending JP2016072941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014203824A JP2016072941A (en) 2014-10-02 2014-10-02 Dmm prediction device, image decoding device and image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014203824A JP2016072941A (en) 2014-10-02 2014-10-02 Dmm prediction device, image decoding device and image encoding device

Publications (1)

Publication Number Publication Date
JP2016072941A true JP2016072941A (en) 2016-05-09

Family

ID=55865108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014203824A Pending JP2016072941A (en) 2014-10-02 2014-10-02 Dmm prediction device, image decoding device and image encoding device

Country Status (1)

Country Link
JP (1) JP2016072941A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107592538A (en) * 2017-09-06 2018-01-16 华中科技大学 A kind of method for reducing stereoscopic video depth map encoder complexity

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107592538A (en) * 2017-09-06 2018-01-16 华中科技大学 A kind of method for reducing stereoscopic video depth map encoder complexity
CN107592538B (en) * 2017-09-06 2019-07-23 华中科技大学 A method of reducing stereoscopic video depth map encoder complexity

Similar Documents

Publication Publication Date Title
US10142653B2 (en) Image decoding apparatus, image coding apparatus, and coded data transformation apparatus
JP6441418B2 (en) Image decoding apparatus, image decoding method, image coding apparatus, and image coding method
US10136161B2 (en) DMM prediction section, image decoding device, and image coding device
US20190075323A1 (en) Image decoding device, image encoding device, and image decoding method
US10225567B2 (en) Image decoder, image encoder, and encoded data converter
US10841600B2 (en) Image decoding device, an image encoding device and a decoding method
US20160249056A1 (en) Image decoding device, image coding device, and coded data
WO2014115283A1 (en) Image decoding device and image encoding device
CA3100316A1 (en) Image encoding device, encoded stream extraction device, and image decoding device
JP5995448B2 (en) Image decoding apparatus and image encoding apparatus
WO2014007131A1 (en) Image decoding device and image encoding device
JPWO2014104242A1 (en) Image decoding apparatus and image encoding apparatus
JP2015073213A (en) Image decoder, image encoder, encoded data converter, and interest area display system
JP2016072941A (en) Dmm prediction device, image decoding device and image encoding device
JP6162289B2 (en) Image decoding apparatus and image decoding method
WO2013161689A1 (en) Motion video decoding device and motion video coding device
JP2016076904A (en) Dc offset information decoder, image decoder and dc offset information encoder
JP2016143962A (en) Region splitting image generating apparatus, image decoder, and encoder
WO2014050554A1 (en) Image decoding device and image coding device
JP2016066981A (en) Dmm prediction section, image decoder, and image encoder
JP2023142460A (en) 3D data encoding device and 3D data decoding device
JP2015177318A (en) Image decoder and image encoder
JP2013251827A (en) Image filter device, image decoding device, image encoding device, and data structure
JP2014013976A (en) Image decoding device and image coding device
JP2015076807A (en) Image decoder, image encoder, and data structure of coded data

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161104