JP2016072941A - Dmm prediction device, image decoding device and image encoding device - Google Patents
Dmm prediction device, image decoding device and image encoding device Download PDFInfo
- Publication number
- JP2016072941A JP2016072941A JP2014203824A JP2014203824A JP2016072941A JP 2016072941 A JP2016072941 A JP 2016072941A JP 2014203824 A JP2014203824 A JP 2014203824A JP 2014203824 A JP2014203824 A JP 2014203824A JP 2016072941 A JP2016072941 A JP 2016072941A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- value
- target
- pixel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像を表す符号化データを復号する画像復号装置、および画像を符号化することによって符号化データを生成する画像符号化装置に関する。 The present invention relates to an image decoding apparatus that decodes encoded data representing an image, and an image encoding apparatus that generates encoded data by encoding an image.
複数視点の画像符号化技術には、複数の視点の画像を符号化する際に画像間の視差を予測することによって情報量を低減する視差予測符号化や、その符号化方法に対応した復号方法が提案されている。視点画像間の視差を表すベクトルを変位ベクトルと呼ぶ。変位ベクトルは、水平方向の要素(x成分)と垂直方向の要素(y成分)を有する2次元のベクトルであり、1つの画像を分割した領域であるブロック毎に算出される。また、複数視点の画像を取得するには、それぞれの視点に配置されたカメラを用いることが一般的である。複数視点の符号化では、各視点画像は、複数のレイヤにおいてそれぞれ異なるレイヤとして符号化される。複数のレイヤから構成される動画像の符号化方法は、一般に、スケーラブル符号化又は階層符号化と呼ばれる。スケーラブル符号化では、レイヤ間で予測を行うことで、高い符号化効率を実現する。レイヤ間で予測を行わずに基準となるレイヤは、ベースレイヤ、それ以外のレイヤは拡張レイヤと呼ばれる。レイヤが視点画像から構成される場合のスケーラブル符号化を、ビュースケーラブル符号化と呼ぶ。このとき、ベースレイヤはベースビュー、拡張レイヤは非ベースビューとも呼ばれる。さらに、ビュースケーラブルに加え、テクスチャ(画像)からなるテクスチャレイヤ(画像レイヤ)と、デプスマップ(距離画像)からなるデプスレイヤ(距離画像レイヤ)から構成される場合のスケーラブル符号化は、3次元スケーラブル符号化と呼ばれる。 The multi-view image encoding technique includes a parallax predictive encoding that reduces the amount of information by predicting a parallax between images when encoding images of a plurality of viewpoints, and a decoding method corresponding to the encoding method. Has been proposed. A vector representing the parallax between viewpoint images is called a displacement vector. The displacement vector is a two-dimensional vector having a horizontal element (x component) and a vertical element (y component), and is calculated for each block which is an area obtained by dividing one image. In order to acquire images from a plurality of viewpoints, it is common to use cameras arranged at the respective viewpoints. In multi-viewpoint encoding, each viewpoint image is encoded as a different layer in each of a plurality of layers. A method for encoding a moving image composed of a plurality of layers is generally referred to as scalable encoding or hierarchical encoding. In scalable coding, high coding efficiency is realized by performing prediction between layers. A reference layer without performing prediction between layers is called a base layer, and other layers are called enhancement layers. Scalable encoding in the case where a layer is composed of viewpoint images is referred to as view scalable encoding. At this time, the base layer is also called a base view, and the enhancement layer is also called a non-base view. Furthermore, in addition to view scalable, scalable coding in the case of a texture layer (image layer) composed of texture (image) and a depth layer (distance image layer) composed of depth map (distance image) is a three-dimensional scalable code. It is called “Kake”.
例えば、非特許文献1のHEVCベースの3次元スケーラブル符号化技術がある。非特許文献1では、効率良くデプスマップを符号化するために、DMM予測(Depth Modeling Mode;デプスイントラ予測もという)というデプス符号化ツールがある。
For example, there is a HEVC-based three-dimensional scalable coding technique of Non-Patent
DMM予測は、基本的に、デプスマップ上の対象ブロック(デプスブロックとも称する)は、2つの非矩形の平坦領域から構成され、各平坦領域のデプス値は固定値で表現されるというデプスモデルに基づいている。また、デプスモデルは、各画素が属する領域を表わすパーティション情報(ウェッジレットパターンともいう)、及び各領域のデプス値情報(DCオフセット情報ともいう)から構成される。また、各領域のデプス予測値(DC予測値)は、対象ブロックに隣接する復号済画素(参照画素)から予測される。 DMM prediction basically uses a depth model in which a target block (also referred to as a depth block) on a depth map is composed of two non-rectangular flat regions, and the depth value of each flat region is expressed by a fixed value. Is based. The depth model is composed of partition information (also referred to as a wedgelet pattern) representing an area to which each pixel belongs, and depth value information (also referred to as DC offset information) of each area. Also, the depth prediction value (DC prediction value) of each region is predicted from decoded pixels (reference pixels) adjacent to the target block.
しかしながら、従来技術では、対象ブロックの各領域のDC予測値を導出する際に、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、水平エッジフラグhorEdgeFlag、及び参照画素間の画素差分(画素強度) horAbsDiff、vertAbsDiffに基づいて、図20(a)〜(e)に示すように、対象ブロックの分割パターンを、下記5つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出ていた。 However, in the conventional technology, when the DC prediction value of each area of the target block is derived, the vertical edge flag vertEdgeFlag, the horizontal edge flag horEdgeFlag, and the pixel difference (pixel intensity) between the reference pixels derived from the wedgelet pattern horAbsDiff Based on vertAbsDiff, as shown in FIGS. 20A to 20E, the division pattern of the target block is divided into the following five cases, and each region Ri (i = 0,1 ) To select a reference pixel to be used, and to derive a DC prediction value.
(a)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff>vertAbsDiff,
(b)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff<=vertAbsDiff,
(c)(vertEdgeFlag,horEdgeFlag) == (1,1),
(d)(vertEdgeFlag,horEdgeFlag) == (0,1),
(e)(vertEdgeFlag,horEdgeFlag) == (1,0),
ここで、horAbsDiff=Abs( p[0][-1] - p[nS-1][-1] ), vertAbsDiff = Abs( p[-1][0] - p[-1][nS-1] )である。特に、水平エッジフラグと垂直フラグが共に0の場合を、さらに分類するために、参照画素から水平方向の画素差分horAbsDiff、垂直方向の画素差分vertAbsDiffを導出する必要があり、条件分岐が多く、処理が複雑であるという課題があった。
(a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff,
(b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff,
(c) (vertEdgeFlag, horEdgeFlag) == (1,1),
(d) (vertEdgeFlag, horEdgeFlag) == (0,1),
(e) (vertEdgeFlag, horEdgeFlag) == (1,0),
Where horAbsDiff = Abs (p [0] [-1]-p [nS-1] [-1]), vertAbsDiff = Abs (p [-1] [0]-p [-1] [nS-1 ]). In particular, it is necessary to derive the horizontal pixel difference horAbsDiff and the vertical pixel difference vertAbsDiff from the reference pixel in order to further classify the case where both the horizontal edge flag and the vertical flag are 0. There was a problem that is complicated.
本発明は、上記の問題に鑑みてなされたものであり、その目的は、DMM予測において、対象ブロックの各領域Ri(i=0,1)のDC予測値導出処理において、参照画素間の画素強度を算出することなく、ウェッジレットパターンから導出される垂直エッジフラグ及び水平エッジフラグに応じた、参照画素を選択し、各領域Ri(i=0,1)のDC予測値を導出することで、符号化効率を維持しつつ、予測画像生成に係る処理量を削減可能な画像復号装置等を実現することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a pixel between reference pixels in the DC prediction value derivation process of each region Ri (i = 0,1) of the target block in DMM prediction. Without calculating the intensity, select the reference pixel according to the vertical edge flag and horizontal edge flag derived from the wedgelet pattern, and derive the DC prediction value of each region Ri (i = 0, 1) An object of the present invention is to realize an image decoding device or the like that can reduce the processing amount related to predictive image generation while maintaining encoding efficiency.
上記の課題を解決するために、本発明の態様1に係るDMM予測部は、対象PUを第1の領域と第2の領域へ分割することを示すウェッジレットパターンを導出するウェッジレットパターン導出手段と、前記ウェッジレットパターンから垂直エッジフラグ、及び水平エッジフラグを導出するエッジフラグ導出手段と、対象PUの参照画素から各領域のDC予測値を導出するDC予測値導出手段と、前記ウェッジレットパターン、前記各領域のDC予測値、及び各領域のDCオフセット情報に基づいて、対象PUの予測画像を導出する予測画像導出手段を備えるDMM予測装置であって、前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合と、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合と、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合それぞれにおいて、各領域のDC予測値の導出に利用する参照画素が互いに異なることを特徴とする。
In order to solve the above problem, the DMM prediction unit according to
上記の課題を解決するために、本発明の態様2に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合、前記対象PUの最左上画素を基準にして、x方向へ−1、y方向へ0の位置にある参照画素と、x方向へ0、y方向へ−1の位置にある参照画素との平均値を、第1の領域に対するDC予測値とし、前記対象PUの最左上画素を基準にして、x方向へ−1、x方向へ2*nS−1の位置にある参照画素と、x方向へ2*nS−1、y方向へ−1の位置にある参照画素との平均値を、第2の領域に対するDC予測値として導出することを特徴とする。
In order to solve the above problem, in the DMM prediction apparatus according to
上記の課題を解決するために、本発明の態様3に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合、前記対象PUの上辺の中央画素の上に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最左下画素の左下に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする。
In order to solve the above-described problem, in the DMM prediction apparatus according to
上記の課題を解決するために、本発明の態様4に係るDMM予測装置は、上記態様1において、さらに、前記DC予測値導出手段は、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合、前記対象PUの左辺の中央画素の左に隣接する参照画素を、第1の領域に対するDC予測値とし、対象PUの最右上画素の右上に隣接する参照画素を、第2の領域に対するDC予測値として導出することを特徴とする。
In order to solve the above-described problem, in the DMM prediction apparatus according to
上記の課題を解決するために、本発明の態様5に係るDMM予測装置は、上記態様1から態様4において、さらに、前記第1の領域は、前記対象PUの最左上画素と、前記最左上画素のウェッジレットパターンの値と等しいウェッジレットパターンの値を有する画素からなる領域であることを特徴とする。
In order to solve the above-described problem, the DMM prediction apparatus according to
上記の課題を解決するために、本発明の態様6に係るDMM予測装置は、上記態様5において、さらに、前記第2の領域は、前記対象PUの最左上画素のウェッジレットパターンの値と異なるウェッジレットパターンの値の画素からなる領域であることを特徴とする。
In order to solve the above problem, in the DMM prediction apparatus according to
上記の課題を解決するために、本発明の態様7に係るDMM予測装置は、上記態様6において、さらに、前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最右上画素のウェッジレットパターンの値が異なる場合には、1を垂直エッジフラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を垂直エッジフラグに設定することを特徴とする。
In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 7 of the present invention, in the
上記の課題を解決するために、本発明の態様8に係るDMM予測装置は、上記態様7において、さらに、前記エッジフラグ導出手段は、前記対象PUの最左上画素のウェッジパターンの値と前記対象PUの最左下画素のウェッジレットパターンの値が異なる場合には、1を水平フラグに設定し、前記最左上画素のウェッジパターンの値と前記最右上画素のウェッジレットパターンの値が等しい場合には、0を水平エッジフラグに設定することを特徴とする。 In order to solve the above-described problem, in the DMM prediction apparatus according to aspect 8 of the present invention, in the aspect 7, the edge flag deriving unit further includes a wedge pattern value of the upper left pixel of the target PU and the target When the value of the wedgelet pattern of the lower leftmost pixel of the PU is different, 1 is set in the horizontal flag, and when the value of the wedge pattern of the uppermost left pixel is equal to the value of the wedgelet pattern of the uppermost right pixel , 0 is set as the horizontal edge flag.
上記の課題を解決するために、本発明の態様9に係る画像復号装置は、上記態様1から態様8の何れか一つに記載のDMM予測装置と、DMM予測に関するDMM予測モード情報を復号するDMM予測モード情報復号手段を備える画像復号装置であって、上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする。
In order to solve the above problem, an image decoding apparatus according to
上記の課題を解決するために、本発明の態様10に係る画像符号化装置は、上記態様1から態様8の何れか一つに記載のDMM予測装置と、DMM予測に関するDMM予測モード情報を符号化するDMM予測モード情報符号化手段を備える画像符号化装置であって、上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする。
In order to solve the above problem, an image coding apparatus according to
本発明の一態様によれば、DMM予測において、対象PUに関するウェッジレットパターンから導出される垂直エッジフラグ、及び水平エッジフラグに基づいて、参照画素を選択し、各領域Ri(i=0,1)のDC予測値を導出することで、符号化効率を維持しつつ、予測画像生成に係る処理量を削減する効果を奏する。 According to an aspect of the present invention, in DMM prediction, a reference pixel is selected based on a vertical edge flag and a horizontal edge flag derived from a wedgelet pattern related to a target PU, and each region Ri (i = 0, 1 Deriving the DC prediction value of) has the effect of reducing the amount of processing for predictive image generation while maintaining the encoding efficiency.
〔概要〕
以下、図面を参照しながら本発明の実施形態について説明する。
〔Overview〕
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2は、本実施形態に係る画像伝送システム5の構成を示す概略図である。
FIG. 2 is a schematic diagram showing the configuration of the
画像伝送システム5は、複数のレイヤ画像を符号化した符号を伝送し、伝送された符号を復号した画像を表示するシステムである。画像伝送システム5は、画像符号化装置2、ネットワーク3、画像復号装置2及び画像表示装置4を含んで構成される。
The
画像符号化装置2には、複数のレイヤ画像(テクスチャ画像ともいう)を示す信号Tが入力される。レイヤ画像とは、ある解像度及びある視点で視認もしくは撮影される画像である。複数のレイヤ画像を用いて3次元画像を符号化するビュースケーラブル符号化を行う場合、複数のレイヤ画像のそれぞれは、視点画像と呼ばれる。ここで、視点は撮影装置の位置又は観測点に相当する。例えば、複数の視点画像は、被写体に向かって左右の撮影装置のそれぞれが撮影した画像である。画像符号化装置2は、この信号のそれぞれを符号化して符号化データ#1を生成する。符号化データ#1の詳細については、後述する。視点画像とは、ある視点において観測される2次元画像(平面画像)である。視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。
The
以下では、1枚の視点画像又は、その視点画像を示す信号をピクチャ(picture)と呼ぶ。本実施形態では、複数のレイヤ画像として、少なくともベースレイヤ画像と、ベースレイヤ画像以外の画像(拡張レイヤ画像)を含む画像の符号化および復号を扱う。複数のレイヤのうち、画像もしくは符号化パラメータにおいて参照関係(依存関係)にある2つのレイヤについて、参照される側の画像を、第1レイヤ画像、参照する側の画像を第2レイヤ画像と呼ぶ。例えば、ベースレイヤを参照して符号化される(ベースレイヤ以外の)エンハンスレイヤ画像がある場合、ベースレイヤ画像を第1レイヤ画像、エンハンスレイヤ画像を第2レイヤ画像として扱う。なお、エンハンスレイヤ画像の例としては、ベースビュー以外の視点の画像やデプス画像などがある。 Hereinafter, one viewpoint image or a signal indicating the viewpoint image is referred to as a picture. In the present embodiment, encoding and decoding of an image including at least a base layer image and an image other than the base layer image (enhancement layer image) is handled as the plurality of layer images. Of the multiple layers, for two layers that have a reference relationship (dependency relationship) in the image or encoding parameter, the image on the reference side is referred to as a first layer image, and the image on the reference side is referred to as a second layer image. . For example, when there is an enhancement layer image (other than the base layer) that is encoded with reference to the base layer, the base layer image is treated as a first layer image and the enhancement layer image is treated as a second layer image. Note that examples of the enhancement layer image include an image of a viewpoint other than the base view and a depth image.
視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。また、デプスマップ(depth map、「デプス画像」、「深度画像」、「距離画像」とも言う)とは、被写空間に含まれる被写体や背景の、視点(撮影装置等)からの距離に対応する信号値(「デプス値」、「深度値」、「デプス」等と呼ぶ)であって、二次元平面に配置された画素毎の信号値(画素値)からなる画像信号である。デプスマップを構成する画素は、視点画像を構成する画素と対応する。従って、デプスマップは、被写空間を二次元平面に射影した基準となる画像信号である視点画像を用いて、三次元の被写空間を表すための手がかりとなる。 The viewpoint image is indicated by, for example, a luminance value or a color signal value for each pixel arranged in a two-dimensional plane. Also, the depth map (also called depth map, “depth image”, “depth image”, “distance image”) corresponds to the distance from the viewpoint (photographing device, etc.) of the subject or background included in the subject space. Signal values (referred to as “depth value”, “depth value”, “depth”, etc.), and are image signals composed of signal values (pixel values) for each pixel arranged on a two-dimensional plane. The pixels constituting the depth map correspond to the pixels constituting the viewpoint image. Therefore, the depth map is a clue for representing the three-dimensional object space by using the viewpoint image which is a reference image signal obtained by projecting the object space onto the two-dimensional plane.
ネットワーク3は、画像符号化装置2が生成した符号化データ#1を画像復号装置1に伝送する。ネットワーク3は、インターネット(internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)又はこれらの組み合わせである。ネットワーク3は、必ずしも双方向の通信網に限らず、地上波ディジタル放送、衛星放送等の放送波を伝送する一方向又は双方向の通信網であっても良い。また、ネットワーク3は、DVD(Digital Versatile Disc)、BD(Blu-ray Disc(登録商標))等の符号化データ#1を記録した記憶媒体で代替されても良い。
The
画像復号装置1は、ネットワーク3が伝送した符号化データ#1のそれぞれを復号し、それぞれ復号した複数の復号レイヤ画像Td(復号視点画像TexturePic、及び復号デプスマップDepthPic)を生成して出力する。
The
画像表示装置4は、画像復号装置1が生成した複数の復号レイヤ画像Tdの全部又は一部を表示する。例えば、ビュースケーラブル符号化においては、全部の場合、3次元画像(立体画像)や自由視点画像が表示され、一部の場合、2次元画像が表示される。画像表示装置4は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。また、空間スケーラブル符号化、SNRスケーラブル符号化では、画像復号装置1、画像表示装置4が高い処理能力を有する場合には、画質の高い拡張レイヤ画像を表示し、より低い処理能力しか有しない場合には、拡張レイヤほど高い処理能力、表示能力を必要としないベースレイヤ画像を表示する。
The
視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。また、デプスマップ(depth map、「デプス画像」、「深度画像」、「距離画像」とも言う)とは、被写空間に含まれる被写体や背景の、視点(撮影装置等)からの距離に対応する信号値(「デプス値」、「深度値」、「デプス」等と呼ぶ)であって、二次元平面に配置された画素毎の信号値(画素値)からなる画像信号である。デプスマップを構成する画素は、視点画像を構成する画素と対応する。従って、デプスマップは、被写空間を二次元平面に射影した基準となる画像信号である視点画像を用いて、三次元の被写空間を表すための手がかりとなる。 The viewpoint image is indicated by, for example, a luminance value or a color signal value for each pixel arranged in a two-dimensional plane. Also, the depth map (also called depth map, “depth image”, “depth image”, “distance image”) corresponds to the distance from the viewpoint (photographing device, etc.) of the subject or background included in the subject space. Signal values (referred to as “depth value”, “depth value”, “depth”, etc.), and are image signals composed of signal values (pixel values) for each pixel arranged on a two-dimensional plane. The pixels constituting the depth map correspond to the pixels constituting the viewpoint image. Therefore, the depth map is a clue for representing the three-dimensional object space by using the viewpoint image which is a reference image signal obtained by projecting the object space onto the two-dimensional plane.
以下では、図1〜図20を参照しながら、本発明の一実施形態に係る画像復号装置1および画像符号化装置2について説明する。図3は、画像復号装置1の概略的構成を示す機能ブロック図である。
Below, the
動画像復号装置1には、動画像符号化装置2がレイヤ画像(1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPic)を符号化した符号化データ#1が入力される。動画像復号装置1は、入力された符号化データ#1を復号して、レイヤ画像#2(1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPic)を外部に出力する。動画像復号装置1の詳細な説明に先立ち、符号化データ#1の構成を以下に説明する。
〔符号化データの構成〕
図4を用いて、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成例について説明する。符号化データ#1は、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。
The moving
[Configuration of encoded data]
A configuration example of encoded
符号化データ#1におけるシーケンスレイヤ以下の階層の構造を図4に示す。図4の(a)〜(e)は、それぞれ、シーケンスSEQを規定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、スライスデータを規定するスライスデータレイヤ、符号化ツリーに含まれる符号化単位(Coding Unit; CU)を規定する符号化ユニットレイヤを示す図である。
FIG. 4 shows a hierarchical structure below the sequence layer in the encoded
(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。シーケンスSEQは、図4の(a)に示すように、ビデオパラメータセット(Video Parameter Set)シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤIDを示す。図4では、#0と#1、すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれによらない。
(Sequence layer)
In the sequence layer, a set of data referred to by the
ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。 The video parameter set VPS is a set of encoding parameters common to a plurality of moving images, a plurality of layers included in the moving image, and encoding parameters related to individual layers in a moving image composed of a plurality of layers. A set is defined.
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。
In the sequence parameter set SPS, a set of encoding parameters referred to by the
ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。
In the picture parameter set PPS, a set of encoding parameters referred to by the
(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。ピクチャPICTは、図4の(b)に示すように、スライスS1〜SNSを含んでいる(NSはピクチャPICTに含まれるスライスの総数)。
(Picture layer)
In the picture layer, a set of data referred to by the
なお、以下、スライスS1〜SNSのそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化データ#1に含まれるデータであって、添え字を付している他のデータについても同様である。
Note that, hereinafter, when it is not necessary to distinguish each of the slices S 1 to S NS , the reference numerals may be omitted. The same applies to other data with subscripts included in encoded
(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する、スライスセグメント)を復号するために動画像復号装置1が参照するデータの集合が規定されている。スライスSは、図4の(c)に示すように、スライスヘッダSH、及び、スライスデータSDATAを含んでいる。
(Slice layer)
In the slice layer, a set of data referred to by the
スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。
The slice header SH includes an encoding parameter group that is referred to by the
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。 As slice types that can be specified by the slice type specification information, (1) I slice that uses only intra prediction at the time of encoding, (2) P slice that uses unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.
スライスデータSDATAには、1又は複数のツリーブロックTBLK1〜TBLKNC(NCは、スライスデータSDATAに含まれるツリーブロックの総数)が含まれる。 The slice data SDATA includes one or a plurality of tree blocks TBLK 1 to TBLK NC (NC is the total number of tree blocks included in the slice data SDATA).
(ツリーブロックレイヤ)
ツリーブロックレイヤでは、処理対象のツリーブロックTBLK(以下、対象ツリーブロックとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。
(Tree block layer)
In the tree block layer, a set of data referred to by the
ツリーブロックTBLKは、ツリーブロックヘッダTBLKHと、符号化単位情報CU1〜CUNL(NLはツリーブロックTBLKに含まれる符号化単位情報の総数)とを含む。ここで、まず、ツリーブロックTBLKと、符号化単位情報CUとの関係について説明すると次のとおりである。 The tree block TBLK includes a tree block header TBLKH and coding unit information CU 1 to CU NL (NL is the total number of coding unit information included in the tree block TBLK). Here, first, a relationship between the tree block TBLK and the coding unit information CU will be described as follows.
ツリーブロックTBLKは、イントラ予測またはインター予測、および、変換の各処理ためのブロックサイズを特定するためのユニットに分割される。 Tree block TBLK is divided into units for specifying a block size for each process of intra prediction or inter prediction and transformation.
ツリーブロックTBLKの上記ユニットは、再帰的な4分木分割により分割されている。この再帰的な4分木分割により得られる木構造のことを以下、符号化ツリー(coding tree)と称する。 The unit of the tree block TBLK is divided by recursive quadtree division. The tree structure obtained by this recursive quadtree partitioning is hereinafter referred to as a coding tree.
以下、符号化ツリーの末端のノードであるリーフ(leaf)に対応するユニットを、符号化ノード(coding node)として参照する。また、符号化ノードは、符号化処理の基本的な単位となるため、以下、符号化ノードのことを、符号化単位(CU)とも称する。 Hereinafter, a unit corresponding to a leaf which is a node at the end of the coding tree is referred to as a coding node. In addition, since the encoding node is a basic unit of the encoding process, hereinafter, the encoding node is also referred to as an encoding unit (CU).
つまり、符号化単位情報(以下、CU情報と称する)CU1〜CUNLは、ツリーブロックTBLKを再帰的に4分木分割して得られる各符号化ノード(符号化単位)に対応する情報である。 That is, coding unit information (hereinafter referred to as CU information) CU 1 to CU NL is information corresponding to each coding node (coding unit) obtained by recursively dividing the tree block TBLK into quadtrees. is there.
また、符号化ツリーのルート(root)は、ツリーブロックTBLKに対応付けられる。換言すれば、ツリーブロックTBLKは、複数の符号化ノードを再帰的に含む4分木分割の木構造の最上位ノードに対応付けられる。 Also, the root of the coding tree is associated with the tree block TBLK. In other words, the tree block TBLK is associated with the highest node of the tree structure of the quadtree partition that recursively includes a plurality of encoding nodes.
なお、各符号化ノードのサイズは、当該符号化ノードが直接に属する符号化ノード(すなわち、当該符号化ノードの1階層上位のノードのユニット)のサイズの縦横とも半分である。 Note that the size of each coding node is half of the size of the coding node to which the coding node directly belongs (that is, the unit of the node one level higher than the coding node).
(ツリーブロックヘッダ)
ツリーブロックヘッダTBLKHには、対象ツリーブロックの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図4の(d)に示すように、対象ツリーブロックの各CUへの分割パターンを指定するツリーブロック分割情報SP_TBLK、および、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(qp_delta)が含まれる。
(Tree block header)
The tree block header TBLKH includes an encoding parameter referred to by the
ツリーブロック分割情報SP_TBLKは、ツリーブロックを分割するための符号化ツリーを表す情報であり、具体的には、対象ツリーブロックに含まれる各CUの形状、サイズ、および、対象ツリーブロック内での位置を指定する情報である。 The tree block division information SP_TBLK is information representing a coding tree for dividing the tree block. Specifically, the shape and size of each CU included in the target tree block, and the position in the target tree block Is information to specify.
また、量子化パラメータ差分Δqpは、対象ツリーブロックにおける量子化パラメータqpと、当該対象ツリーブロックの直前に符号化されたツリーブロックにおける量子化パラメータqp’との差分qp−qp’である。 The quantization parameter difference Δqp is a difference qp−qp ′ between the quantization parameter qp in the target tree block and the quantization parameter qp ′ in the tree block encoded immediately before the target tree block.
(CUレイヤ)
CUレイヤでは、処理対象のCU(以下、対象CUとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。
(CU layer)
In the CU layer, a set of data referred to by the
ここで、CU情報CUに含まれるデータの具体的な内容の説明をする前に、CUに含まれるデータの木構造について説明する。符号化ノードは、予測ツリー(prediction tree;PT)および変換ツリー(transform tree;TT)のルートのノードとなる。予測ツリーおよび変換ツリーについて説明すると次のとおりである。 Here, before describing specific contents of data included in the CU information CU, a tree structure of data included in the CU will be described. The encoding node is a node at the root of a prediction tree (PT) and a transform tree (TT). The prediction tree and the conversion tree are described as follows.
予測ツリーにおいては、符号化ノードが1または複数の予測ブロックに分割され、各予測ブロックの位置とサイズとが規定される。 In the prediction tree, the encoding node is divided into one or a plurality of prediction blocks, and the position and size of each prediction block are defined.
予測処理は、この予測ブロックごとに行われる。以下、予測の単位である予測ブロックのことを、予測単位(prediction unit;PU)とも称する。 Prediction processing is performed for each prediction block. Hereinafter, a prediction block that is a unit of prediction is also referred to as a prediction unit (PU).
予測ツリーにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。 Broadly speaking, there are two types of division in the prediction tree: intra prediction and inter prediction.
イントラ予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)と、N×Nとがある。 In the case of intra prediction, there are 2N × 2N (the same size as the encoding node) and N × N division methods.
また、インター予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)、2N×N、N×2N、および、N×Nなどがある。 In the case of inter prediction, there are 2N × 2N (the same size as the encoding node), 2N × N, N × 2N, N × N, and the like.
また、変換ツリーにおいては、符号化ノードが1または複数の変換ブロックに分割され、各変換ブロックの位置とサイズとが規定される。 In the transform tree, the encoding node is divided into one or a plurality of transform blocks, and the position and size of each transform block are defined.
変換処理は、この変換ブロックごとに行われる。以下、変換の単位である変換ブロックのことを、変換単位(transform unit;TU)とも称する。 The conversion process is performed for each conversion block. Hereinafter, a transform block that is a unit of transform is also referred to as a transform unit (TU).
(CU情報のデータ構造)
続いて、図4の(e)を参照しながらCU情報CUに含まれるデータの具体的な内容について説明する。図4の(e)に示すように、CU情報CUは、具体的には、スキップフラグSKIP、PT情報PTI、および、TT情報TTIを含む。
(Data structure of CU information)
Next, specific contents of data included in the CU information CU will be described with reference to FIG. As shown in FIG. 4E, the CU information CU specifically includes a skip flag SKIP, PT information PTI, and TT information TTI.
スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象CUにスキップモードが適用されている場合、そのCU情報CUにおけるPT情報PTI、および、TT情報TTIは省略される。 The skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU. When the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target CU, PT information PTI and TT information TTI in the CU information CU are omitted.
PT情報PTIは、CUに含まれるPTに関する情報である。言い換えれば、PT情報PTIは、PTに含まれる1または複数のPUそれぞれに関する情報の集合であり、動画像復号装置1により予測画像を生成する際に参照される。PT情報PTIは、図4の(d)に示すように、予測タイプ情報PType、および、予測情報PInfoを含んでいる。
The PT information PTI is information related to the PT included in the CU. In other words, the PT information PTI is a set of information related to each of one or more PUs included in the PT, and is referred to when the moving
予測タイプ情報PType(又は、CuPredMode)は、CUに含まれる1又は複数のPUについての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。例えば、イントラ予測を用いる場合には、予測タイプ情報CuPredModeは、イントラ予測を示すMODE_INTRAに設定され、インター予測を用いる場合には、インター予測を示すMODE_INTERに設定される。イントラ予測を適用するCUをイントラCUと呼び、インターCUを適用するCUをインターCUとも呼ぶ。 The prediction type information PType (or CuPredMode) is information that specifies whether intra prediction or inter prediction is used as a prediction image generation method for one or a plurality of PUs included in a CU. For example, when using intra prediction, the prediction type information CuPredMode is set to MODE_INTRA indicating intra prediction, and when using inter prediction, it is set to MODE_INTER indicating inter prediction. A CU to which intra prediction is applied is called an intra CU, and a CU to which an inter CU is applied is also called an inter CU.
予測情報PInfoは、予測タイプ情報PTypeが何れの予測方法を指定するのかに応じて、イントラ予測情報、または、インター予測情報より構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。 The prediction information PInfo is configured from intra prediction information or inter prediction information depending on which prediction method is specified by the prediction type information PType. Hereinafter, a PU to which intra prediction is applied is also referred to as an intra PU, and a PU to which inter prediction is applied is also referred to as an inter PU.
また、予測情報PInfoは、対象PUの形状、サイズ、および、位置を指定する情報が含まれる。上述のとおり予測画像の生成は、PUを単位として行われる。予測情報PInfoの詳細については後述する。 Further, the prediction information PInfo includes information specifying the shape, size, and position of the target PU. As described above, the generation of the predicted image is performed in units of PU. Details of the prediction information PInfo will be described later.
TT情報TTIは、CUに含まれるTTに関する情報である。言い換えれば、TT情報TTIは、TTに含まれる1または複数のTUそれぞれに関する情報の集合であり、動画像復号装置1により残差データを復号する際に参照される。なお、以下、TUのことを変換ブロックと称することもある。
The TT information TTI is information regarding the TT included in the CU. In other words, the TT information TTI is a set of information regarding each of one or a plurality of TUs included in the TT, and is referred to when the moving
TT情報TTIは、図4の(d)に示すように、対象CUの各変換ブロックへの分割パターンを指定するTT分割情報SP_TU、および、TU情報TUI1〜TUINT(NTは、対象CUに含まれる変換ブロックの総数)を含んでいる。 As shown in FIG. 4 (d), the TT information TTI includes TT division information SP_TU that designates a division pattern of the target CU into each conversion block, and TU information TUI 1 to TUI NT (NT is the target CU). The total number of transform blocks included).
TT分割情報SP_TUは、具体的には、対象CUに含まれる各TUの形状、サイズ、および、対象CU内での位置を決定するための情報である。例えば、TT分割情報SP_TUは、対象となるノードの分割を行うのか否かを示す情報(split_transform_unit_flag)と、その分割の深度を示す情報(trafoDepth)とから実現することができる。 Specifically, the TT division information SP_TU is information for determining the shape and size of each TU included in the target CU and the position within the target CU. For example, the TT division information SP_TU can be realized from information (split_transform_unit_flag) indicating whether or not the target node is divided and information (trafoDepth) indicating the depth of the division.
また、TU分割情報SP_TUには、各TUに非ゼロの変換係数が存在するか否かの情報が含まれる。例えば、個々のTUに対する非ゼロ係数の存否情報(CBF;Coded Block Flag)がり、色空間毎に、輝度lumaに関するCBFをcbf_luma、色差Cbに関するCBFをcbf_cb、色差Crに関するCBFをcbf_crと称する。また、複数のTUに対する非ゼロ係数の存否情報(rqt_root_flag, 又はno_residual_data_flagとも称する)がTU分割情報SP_TUに含まれる。また、各TUに対する非ゼロの変換係数を符号化する代わりに、TUにおいて、1又は複数の領域毎に、予測残差の平均(DC)値を表わす予測残差DC情報(DCオフセット情報)を符号化する(領域別DC符号化を行う)か否かを示すSDCフラグsdc_flagが含まれる。なお、領域別DC符号化は、Segment-wise DC Coding (SDC)とも呼ばれる。特に、イントラ予測における領域別DC符号化を、イントラSDCと呼び、インター予測における領域別DC符号化をインターSDCと呼ぶ。なお、領域別DC符号化が適用される場合、CUサイズ、PUサイズ、及びTUサイズは等しくてもよい。 The TU partition information SP_TU includes information on whether or not a non-zero transform coefficient exists in each TU. For example, there is non-zero coefficient existence information (CBF; Coded Block Flag) for each TU, and for each color space, CBF for luminance luma is called cbf_luma, CBF for color difference Cb is called cbf_cb, and CBF for color difference Cr is called cbf_cr. In addition, non-zero coefficient existence information (also referred to as rqt_root_flag or no_residual_data_flag) for a plurality of TUs is included in the TU partition information SP_TU. Also, instead of encoding non-zero transform coefficients for each TU, prediction residual DC information (DC offset information) representing an average (DC) value of the prediction residual is obtained for each region or regions in the TU. An SDC flag sdc_flag indicating whether or not to perform encoding (perform region-specific DC encoding) is included. The regional DC coding is also called segment-wise DC coding (SDC). In particular, DC coding by region in intra prediction is called intra SDC, and DC coding by region in inter prediction is called inter SDC. When region-specific DC coding is applied, the CU size, PU size, and TU size may be equal.
TU情報TUI1〜TUINTは、TTに含まれる1または複数のTUそれぞれに関する個別の情報である。例えば、TU情報TUIは、量子化予測残差を含んでいる。 The TU information TUI 1 to TUI NT are individual information regarding each of one or more TUs included in the TT. For example, the TU information TUI includes a quantized prediction residual.
各量子化予測残差は、動画像符号化装置2が以下の処理A、又は処理Bを、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。
Each quantized prediction residual is encoded data generated by the
(処理A:周波数変換・量子化を実施する場合)
処理A−1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する;
処理A−2:処理A−1にて得られた変換係数を量子化する;
処理A−3:処理A−2にて量子化された変換係数を可変長符号化する;
なお、上述した量子化パラメータqpは、動画像符号化装置2が変換係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。
(Process A: When frequency conversion / quantization is performed)
Process A-1: DCT transform (Discrete Cosine Transform) of the prediction residual obtained by subtracting the prediction image from the encoding target image;
Process A-2: Quantize the transform coefficient obtained in Process A-1;
Process A-3: Variable-length encoding the transform coefficient quantized in Process A-2;
The quantization parameter qp described above represents the magnitude of the quantization step QP used when the moving
(処理B:領域別DC符号化の場合(SDC; Segment-wise DC Coding))
処理B−1:符号化対象画像から予測画像を減算した予測残差の平均値(DC値)を算出する。
(Process B: Segment-wise DC Coding (SDC))
Process B-1: An average value (DC value) of prediction residuals obtained by subtracting the prediction image from the encoding target image is calculated.
処理B−2:処理B−1にて得られたDC値を可変長符号化する。 Process B-2: Variable length coding is performed on the DC value obtained in Process B-1.
特に、領域別にDC値を符号化することを、領域別DC符号化(SDC; Segment-Wise DC Coding)と呼び、平坦な領域の予測残差の符号化に有効である。例えば、デプスマップの符号化において、各デプスブロックにおいて、1又は複数に分割された領域の予測残差の符号化に利用される。 In particular, encoding a DC value for each region is called segment-wise DC coding (SDC) and is effective for encoding a prediction residual in a flat region. For example, in depth map encoding, each depth block is used for encoding a prediction residual of a region divided into one or a plurality of regions.
(予測情報PInfo)
上述のとおり、予測情報PInfoには、インター予測情報およびイントラ予測情報の2種類がある。
(Prediction information PInfo)
As described above, there are two types of prediction information PInfo: inter prediction information and intra prediction information.
インター予測情報には、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。より具体的には、インター予測情報には、対象CUの各インターPUへの分割パターンを指定するインターPU分割情報、および、各インターPUについてのインター予測パラメータが含まれる。
The inter prediction information includes a coding parameter that is referred to when the
インター予測パラメータには、参照画像インデックスと、推定動きベクトルインデックスと、動きベクトル残差とが含まれる。 The inter prediction parameters include a reference image index, an estimated motion vector index, and a motion vector residual.
一方、イントラ予測情報には、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。より具体的には、イントラ予測情報には、対象CUの各イントラPUへの分割パターンを指定するイントラPU分割情報、および、各イントラPUについてのイントラ予測パラメータが含まれる。イントラ予測パラメータは、各イントラPUについてのイントラ予測(予測モード)を復元するためのパラメータである。
On the other hand, the intra prediction information includes an encoding parameter that is referred to when the
デプスマップDepthPic、及びテクスチャTexturePicの符号化で共通に利用されるイントラ予測(DC予測、Planar予測、Angular予測)に関するパラメータ(イントラ予測パラメータ)には、MPM(Most Probable Mode、以下同様)に関するフラグであるmpm_flag、MPMを選択するためのインデックスであるmpm_idx、および、MPM以外の予測モードを指定するためのインデックス(残余予測モードインデックス)であるrem_idxが含まれる。また、以下において、単に“予測モード”と表記する場合、輝度予測モードのことを指す。色差予測モードについては、“色差予測モード”と表記し、輝度予測モードと区別する。また、予測モードを復元するパラメータには、色差予測モードを指定するためのパラメータであるchroma_modeが含まれる。なお、mpm_flagおよびrem_idxは、それぞれ、非特許文献1における“prev_intra_luma_pred_flag”(図5(a)のSYN02)および“rem_intra_luma_pred_mode”(図5(a)のSYN03)に対応している。また、chroma_modeは、“intra_chroma_pred_mode”(不図示)に対応している。
Parameters related to intra prediction (DC prediction, Planar prediction, Angular prediction) (intra prediction parameters) commonly used in coding of depth map DepthPic and texture TexturePic are flags related to MPM (Most Probable Mode, the same applies hereinafter). A certain mpm_flag, mpm_idx that is an index for selecting an MPM, and rem_idx that is an index (residual prediction mode index) for specifying a prediction mode other than the MPM are included. Further, in the following, when simply described as “prediction mode”, it indicates the luminance prediction mode. The color difference prediction mode is described as “color difference prediction mode” and is distinguished from the luminance prediction mode. The parameter for restoring the prediction mode includes chroma_mode that is a parameter for designating the color difference prediction mode. Note that mpm_flag and rem_idx correspond to “prev_intra_luma_pred_flag” (SYN02 in FIG. 5 (a)) and “rem_intra_luma_pred_mode” (SYN03 in FIG. 5 (a)) in
デプスマップの符号化に利用されるデプスイントラ予測(DMM予測)に関する予測モード(イントラ拡張モード(図5(a)のSYN01))を復元するためのパラメータ(デプスイントラ予測パラメータ, DMM予測モード情報)には、デプスイントラ予測の有無を示すフラグ(デプスイントラ予測有無フラグ)dim_not_present_flag(図5(b)のSYN01A)、デプスイントラ予測の方式(ウェッジレット分割に基づくDMM1予測(INTRA_DMM_WFULL)と輪郭分割に基づくDMM4予測(INTRA_DMM_CREDTEX))を選択するフラグ(デプスイントラモードフラグ)depth_intra_mode_flag(図5(b)のSYN01B)、及びDMM1予測において、PU内の分割パターンを表わすウェッジレットパターンを指定するインデックス(ウェッジレットパターンインデックス)wedge_full_tab_idex(図5(b)のSYN01C)がある。 Parameters (depth intra prediction parameters, DMM prediction mode information) for restoring the prediction mode (intra extended mode (SYN01 in Fig. 5 (a))) for depth intra prediction (DMM prediction) used for depth map encoding Includes a flag indicating the presence / absence of depth intra prediction (depth intra prediction presence / absence flag) dim_not_present_flag (SYN01A in FIG. 5 (b)), a depth intra prediction method (DMM1 prediction based on wedgelet division (INTRA_DMM_WFULL) and contour division) DMM4 prediction (INTRA_DMM_CREDTEX)) flag (depth intra mode flag) depth_intra_mode_flag (SYN01B in FIG. 5 (b)) and an index (wedgelet pattern) that specifies a wedgelet pattern representing a partition pattern in the PU in DMM1 prediction Index) wedge_full_tab_idex (SYN01C in FIG. 5B).
また、イントラSDCや、インターSDC、及びデプスイントラ予測に関する予測パラメータには、さらに、PU内の分割された1又は2つの領域のデプス予測値を補正するためのDCオフセット情報、すなわち、DCオフセット有無フラグdepth_dc_flag(図6のSYND1)、DCオフセット値の絶対値を示すdepth_dc_abs(図6のSYND02)、及びDCオフセット値の符号を示すdepth_dc_sign_flag(図6のSYND03)がある。 Further, the prediction parameters related to intra SDC, inter SDC, and depth intra prediction further include DC offset information for correcting the depth prediction value of one or two divided areas in the PU, that is, whether or not there is a DC offset. There is a flag depth_dc_flag (SYND1 in FIG. 6), depth_dc_abs (SYND02 in FIG. 6) indicating the absolute value of the DC offset value, and depth_dc_sign_flag (SYND03 in FIG. 6) indicating the sign of the DC offset value.
〔動画像復号装置〕
以下では、本実施形態に係る動画像復号装置1の構成について、図1〜図16を参照して説明する。
[Video decoding device]
Below, the structure of the moving
(動画像復号装置の概要)
動画像復号装置1は、PU毎に予測画像を生成し、生成された予測画像と、符号化データ#1から復号された予測残差とを加算することによって復号画像#2を生成し、生成された復号画像#2を外部に出力する。
(Outline of video decoding device)
The
ここで、予測画像の生成は、符号化データ#1を復号することによって得られる符号化パラメータを参照して行われる。符号化パラメータとは、予測画像を生成するために参照されるパラメータのことである。符号化パラメータには、インター予測において参照される動きベクトルやイントラ予測において参照される予測モードなどの予測パラメータに加えて、PUのサイズや形状、ブロックのサイズや形状、および、原画像と予測画像との残差データなどが含まれる。以下では、符号化パラメータに含まれる情報のうち、上記残差データを除く全ての情報の集合を、サイド情報と呼ぶ。
Here, the generation of the predicted image is performed with reference to an encoding parameter obtained by decoding the encoded
また、以下では、復号の対象となるピクチャ(フレーム)、スライス、ツリーブロック、CU、ブロック、および、PUをそれぞれ、対象ピクチャ、対象スライス、対象ツリーブロック、対象CU、対象ブロック、および、対象PUと呼ぶことにする。 Also, in the following, a picture (frame), a slice, a tree block, a CU, a block, and a PU to be decoded are a target picture, a target slice, a target tree block, a target CU, a target block, and a target PU, respectively. I will call it.
なお、ツリーブロックのサイズは、例えば64×64画素であり、CUのサイズは、例えば、64×64画素、32×32画素、16×16画素、8×8画素であり、PUのサイズは、例えば、64×64画素、32×32画素、16×16画素、8×8画素や4×4画素などである。しかしながら、これらのサイズは、単なる例示であり、ツリーブロック、CU、および、PUのサイズは以上に示したサイズ以外のサイズであってもよい。 The size of the tree block is, for example, 64 × 64 pixels, the size of the CU is, for example, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels, and the size of the PU is For example, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, 4 × 4 pixels, and the like. However, these sizes are merely examples, and the sizes of the tree block, CU, and PU may be other than the sizes shown above.
(動画像復号装置の構成)
再び、図3を参照して、動画像復号装置1の概略的構成について説明すると次のとおりである。図3は、動画像復号装置1の概略的構成について示した機能ブロック図である。
(Configuration of video decoding device)
Referring to FIG. 3 again, the schematic configuration of the
図3に示すように動画像復号装置1は、可変長復号部11、逆量子化・逆変換部13、予測画像生成部14、加算器15およびフレームメモリ16を備えている。
As shown in FIG. 3, the
[可変長復号部]
可変長復号部11は、動画像復号装置1から入力された符号化データ#1に含まれる各種のパラメータを復号する。以下の説明では、可変長復号部11が、CABAC等のエントロピー符号化方式により符号化されているパラメータの復号を適宜行うものとする。可変長復号部11は、具体的には、以下の手順により、1フレーム分の符号化データ#1を復号する。
[Variable length decoding unit]
The variable
まず、可変長復号部11は、1フレーム分の符号化データ#1を、逆多重化することで、図4に示した階層構造に含まれる各種情報に分離する。例えば、可変長復号部11は、各種ヘッダに含まれる情報を参照して、符号化データ#1を、スライス、ツリーブロックに順次分離する。
First, the variable
ここで、各種ヘッダには、(1)対象ピクチャのスライスへの分割方法についての情報、および(2)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報が含まれる。 Here, the various headers include (1) information about the method of dividing the target picture into slices, and (2) information about the size, shape, and position of the tree block belonging to the target slice. .
そして、可変長復号部11は、ツリーブロックヘッダTBLKHに含まれるツリーブロック分割情報SP_TBLKを参照して、対象ツリーブロックを、CUに分割する。また、可変長復号部11は、対象CUについて得られる変換ツリーに関するTT情報TTI、および、対象CUについて得られる予測ツリーに関するPT情報PTIを復号する。
Then, the variable
可変長復号部11は、対象CUについて得られたTT情報TTIをTU情報復号部12に供給する。また、可変長復号部11は、対象CUについて得られたPT情報PTIを予測画像生成部14に供給する。なお、TT情報TTIには、上述のとおり、変換ツリーに含まれるTUに対応するTU情報TUIが含まれる。また、PT情報PTIには、上述のとおり、対象予測ツリーに含まれる各PUに対応するPU情報PUI(各PUの予測情報Pinfo)が含まれる。
The variable
以下では、本発明に関連の深いイントラPUの予測情報Pinfoに含まれるイントラ予測パラメータ、及び領域別DC符号化(イントラSDC、インターSDC)やデプスイントラ予測に利用されるDCオフセット情報の復号処理の概略について説明する。 In the following, decoding processing of intra prediction parameters included in intra PU prediction information Pinfo, which is deeply related to the present invention, and DC offset information used for regional DC coding (intra SDC, inter SDC) and depth intra prediction An outline will be described.
(イントラ予測パラメータ)
可変長復号部11は、図5のSYN01に示すイントラ予測モード拡張intra_mode_ext()のシンタックステーブルに従って、符号化データ#1より各シンタックスを復号する。なお、復号対象レイヤにおいて、デプス符号化ツールにおいてDMM1予測の可否を示すフラグ(DMM1予測モード可否フラグ)intra_sdc_dmm_wfull_flagが1、又は、復号対象レイヤにおいて、DMM4予測の可否を示すフラグ(DMM4予測モード可否フラグdmm_cpredtex_flagが1の場合、イントラ予測モード拡張intra_mode_ext()は復号される。なお、DMM1予測モード可否フラグintra_sdc_dmm_wfull_flagは、1の場合、デプス符号化ツールであるDMM1予測モードが復号対象レイヤにおいて適用されうることを示し、0の場合は、適用されないことを示す。また、DMM4予測モード可否フラグdmm_cpredtex_flagは、1の場合、デプス符号化ツールであるDMM4予測モードが復号対象レイヤにおいて適用されうることを示し、0の場合は、適用されないことを示す。また、DMM1予測モード可否フラグ、及びDMM4予測モード可否フラグは、パラメータセット(ビデオパラメータセットVPS、シーケンスパラメータセットSPS、ピクチャパラメータセットPPS、スライスヘッダSH)等から復号される。
(Intra prediction parameters)
The variable
まず、可変長復号部11は、対象PUサイズが32×32以下の場合(logPbSize<6)、デプスイントラ予測有無フラグdim_not_present_flag(図5(b)のSYN01A)を復号する。対象PUサイズが32×32より大きい場合には、該フラグの値を1と推定する。該フラグは、デプスイントラ予測の有無を示すフラグであり、該フラグの値が1の場合、対象PUに関するデプスイントラ予測モードフラグdepth_intra_mode_flagが符号化データ中になく、イントラ予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測)のいずれかのイントラ予測方式が対象PUに利用されることを示す。また、該フラグが0の場合は、デプスイントラ予測モードdepth_intra_mode_flagが符号化データ中にあることを示す。
First, when the target PU size is 32 × 32 or less (logPbSize <6), the variable
また、可変長復号部11は、復号したデプスイントラ予測有無フラグdim_not_present_flagに基づいて、対象PUのDMMフラグDmmFlagを下記式により導出する。
The variable
DmmFlag = !dim_not_present_flag
すなわち、DMMフラグには、デプスイントラ予測有無フラグの論理否定の値が設定される。DMMフラグは1の場合、デプスイントラ予測が利用されることを示し、DMMフラグが0の場合、デプスイントラ予測が利用されないことを示す。
DmmFlag =! Dim_not_present_flag
That is, the logical negation value of the depth intra prediction presence / absence flag is set in the DMM flag. When the DMM flag is 1, it indicates that depth intra prediction is used, and when the DMM flag is 0, it indicates that depth intra prediction is not used.
(デプスイントラ予測有無フラグが1の場合)
可変長復号部11は、デプスイントラ予測有無フラグdim_not_present_flagが1の場合、さらに、デプスイントラモードフラグdepth_intra_mode_flagを復号する。該フラグは、デプスイントラ予測方式の選択に係るフラグである。該フラグが0の場合、デプスイントラ予測は、DMM1予測であることを示す。該フラグが1の場合、デプスイントラ予測は、DMM4予測であることを示す。
(When the depth intra prediction presence / absence flag is 1)
When the depth intra prediction presence / absence flag dim_not_present_flag is 1, the variable
可変長復号部11は、デプスイントラモードフラグdepth_intra_mode_flagが0の場合、すなわち、デプスイントラ予測がDMM1予測である場合、予測モードpredModeIntraへ、DMM1予測を示す予測モード番号を設定する。さらに、PU内の分割パターンを示すウェッジレットパターンを指定するウェッジレットパターンインデックスwedge_full_tab_idxを復号する。
When the depth intra mode flag depth_intra_mode_flag is 0, that is, when the depth intra prediction is DMM1 prediction, the variable
可変長復号部11は、デプスイントラモードフラグdepth_intra_mode_flagが1の場合、すなわち、デプスイントラ予測がDMM4予測である場合、予測モードpredModeIntraへ、DMM4予測を示す予測モード番号を設定する。
When the depth intra mode flag depth_intra_mode_flag is 1, that is, when the depth intra prediction is DMM4 prediction, the variable
(デプスイントラ予測有無フラグが0の場合)
可変長復号部11は、デプスイントラ予測有無フラグdim_not_present_flagが0場合、対象PUのイントラ予測モードが推定予測モードMPMと一致するか否かを示すMPMフラグmpm_flagを復号する。該フラグが1の場合、対象PUのイントラ予測モードが推定予測モードMPMと一致することを示し、該フラグが0の場合、予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測のいずれか)の中で、推定予測モードMPMを除くいずれかの予測モードであることを示す。
(If the depth intra prediction flag is 0)
When the depth intra prediction presence / absence flag dim_not_present_flag is 0, the variable
可変長復号部11は、MPMフラグが1の場合、さらに、推定予測モードMPMを指定するMPMインデックスmpm_idxを復号して、該mpm_idxが示す推定予測モードを、予測モードpredModeIntraへ設定する。
When the MPM flag is 1, the variable
可変長復号部11は、MPMフラグが0の場合、さらに、MPM以外の予測モードを指定するためのインデックスrem_idxを復号して、該rem_idxから特定される、推定予測モードMPMを除く予測モード番号‘0’〜‘34’(DC予測、Planar予測、Angular予測のいずれか)の中でいずれかの予測モード番号を、予測モードpredModeIntraへ設定する。
When the MPM flag is 0, the variable
(DCオフセット情報)
可変長復号部11は、さらに、図示しないDCオフセット情報復号部111を備え、該DCオフセット情報復号部111によって、対象CU内に含まれるDCオフセット情報の復号を行う。
(DC offset information)
The variable
より具体的には、DCオフセット情報復号部111は、対象CU内にDCオフセット情報の有無を示すCU内DCオフセット情報有無フラグcuDepthDcPresentFlagを下記式により導出する。 More specifically, the DC offset information decoding unit 111 derives a CU DC offset information presence / absence flag cuDepthDcPresentFlag indicating the presence / absence of DC offset information in the target CU by the following equation.
cuDepthDcPresentFlag = ( sdc_flag || (CuPredMode == MODE_INTRA ) )
すなわち、SDCフラグsdc_flagが1、又は、予測タイプ情報CuPredModeがイントラ予測である場合に、該CU内DCオフセット情報有無フラグは1(真)に設定され、それ以外の場合(SDCフラグが0(偽)、かつ、インター予測の場合)は、0(偽)に設定される。該CU内DCオフセット情報有無フラグが1の場合、対象CU内にDCオフセット情報が存在しうることを示し、該フラグが0の場合、対象CU内にDCオフセット情報が存在しないことを示す。
cuDepthDcPresentFlag = (sdc_flag || (CuPredMode == MODE_INTRA))
That is, when the SDC flag sdc_flag is 1 or when the prediction type information CuPredMode is intra prediction, the intra-CU DC offset information presence / absence flag is set to 1 (true), and in other cases (SDC flag is 0 (false) ) And inter prediction) is set to 0 (false). When the intra-CU DC offset information presence / absence flag is 1, it indicates that DC offset information can exist in the target CU. When the flag is 0, it indicates that no DC offset information exists in the target CU.
続いて、DCオフセット情報復号部111は、CU内DCオフセット情報有無フラグが1の場合、対象CU内の各PU毎に、該PU内の1又は複数に分割された領域のデプス予測値を補正するためのDCオフセット情報を復号する。 Subsequently, when the intra-CU DC offset information presence / absence flag is 1, the DC offset information decoding unit 111 corrects the depth prediction value of the region divided into one or more in the PU for each PU in the target CU. DC offset information for decoding is decoded.
より具体的には、まず、DCオフセット情報復号部111は、対象PUに関するDCオフセット情報が存在しうるか否かを示すPU内DCオフセット情報有無フラグpuDepthDcPresentFlagを下記式により導出する。 More specifically, first, the DC offset information decoding unit 111 derives an intra-PU DC offset information presence / absence flag puDepthDcPresentFlag indicating whether or not DC offset information related to the target PU can exist.
puDepthDcPresentFlag = ( DmmFlag || sdc_flag )
すなわち、対象PUのDMMフラグが1、又はSDCフラグが1の場合、該PU内DCオフセット情報有無フラグが1(真)に設定され、それ以外の場合(DmmFlag==0 && sdc_flag==0)は、0(偽)に設定される。該PU内DCオフセット情報フラグが1の場合、対象PU内にDCオフセット情報が存在しうることを示し、該フラグが0の場合、対象PU内にDCオフセット情報が存在しないことを示す。
puDepthDcPresentFlag = (DmmFlag || sdc_flag)
That is, when the DMM flag of the target PU is 1 or the SDC flag is 1, the intra-PU DC offset information presence / absence flag is set to 1 (true), otherwise (DmmFlag == 0 && sdc_flag == 0) Is set to 0 (false). When the DC offset information flag in PU is 1, it indicates that DC offset information can exist in the target PU, and when the flag is 0, it indicates that DC offset information does not exist in the target PU.
(PU内DCオフセット情報有無フラグが1の場合)
DCオフセット情報復号部111は、対象PUの分割領域数dcNumSegを、対象PUのDMMフラグに基づいて、下記式により導出する。
(When the DC offset information presence flag in PU is 1)
The DC offset information decoding unit 111 derives the number of divided areas dcNumSeg of the target PU based on the DMM flag of the target PU by the following formula.
dcNumSeg = DmmFlag ? 2 : 1
すなわち、DMMフラグが1の場合には、対象PUの分割領域数dcNumSegを2に設定し、該DMMフラグが0の場合には、dcNumSegを1に設定する。
dcNumSeg = DmmFlag? 2: 1
That is, when the DMM flag is 1, the number of divided areas dcNumSeg of the target PU is set to 2, and when the DMM flag is 0, dcNumSeg is set to 1.
続いて、DCオフセット情報復号部111は、対象PUがイントラSDCを適用される場合(CuPredMode==MODE_INTRA && sdc_flag==1)、対象PU内に分割領域数dcNumSeg分のDCオフセット情報の有無を示すDCオフセット情報有無フラグdepth_dc_flagを符号化データより復号する。それ以外の場合には、該DCオフセット情報有無フラグdepth_dc_flagを1と推定する。なお、該DCオフセット情報有無フラグが1の場合、対象PU内に分割領域数dcNumSeg分のDCオフセット情報(depth_dc_abs[i], depth_dc_sing_flag[i] (i=0..dcNumSeg-1))が符号化データ中にあることを示し、該DCオフセット情報フラグが0の場合、DCオフセット情報が符号化データ中にないことを示す。 Subsequently, when the target PU is applied with intra SDC (CuPredMode == MODE_INTRA && sdc_flag == 1), the DC offset information decoding unit 111 indicates the presence / absence of DC offset information corresponding to the number of divided regions dcNumSeg in the target PU. The DC offset information presence / absence flag depth_dc_flag is decoded from the encoded data. In other cases, the DC offset information presence / absence flag depth_dc_flag is estimated as 1. When the DC offset information presence / absence flag is 1, DC offset information (depth_dc_abs [i], depth_dc_sing_flag [i] (i = 0..dcNumSeg-1)) corresponding to the number of divided regions dcNumSeg is encoded in the target PU. When the DC offset information flag is 0, it indicates that there is no DC offset information in the encoded data.
続いて、DCオフセット情報復号部111は、DCオフセット有無フラグdepth_dc_flagが1の場合、さらに、各PUの分割領域Ri (i=0..dcNumSeg-1)毎に、DCオフセット値の絶対値(DCオフセット絶対値)を示すdepth_dc_abs[i]、及びDCオフセット値の正負の符号を示すdepth_dc_sign_flag[i]を復号する。なお、DCオフセット情報復号部111は、DCオフセット絶対値(depth_dc_abs[i] + dcNumSeg - 2 )が0より大きい場合(以上)に、DCオフセット値の正負の符号化を示すdepth_dc_sign_flag[i]を符号化データより復号し、DCオフセット絶対値(depth_dc_abs[i] + dcNumSeg - 2)が0以下(未満)の場合には、depth_dc_sign_flagを0と推定する。 Subsequently, when the DC offset presence / absence flag depth_dc_flag is 1, the DC offset information decoding unit 111 further determines the absolute value (DC) of the DC offset value for each divided region Ri (i = 0..dcNumSeg-1) of each PU. Depth_dc_abs [i] indicating the offset absolute value) and depth_dc_sign_flag [i] indicating the positive / negative sign of the DC offset value are decoded. Note that the DC offset information decoding unit 111 encodes depth_dc_sign_flag [i] indicating positive / negative coding of the DC offset value when the DC offset absolute value (depth_dc_abs [i] + dcNumSeg−2) is greater than 0 (or more). When the DC offset absolute value (depth_dc_abs [i] + dcNumSeg-2) is 0 or less (less than), the depth_dc_sign_flag is estimated to be 0.
続いて、DCオフセット情報復号部111は、DCオフセット情報(DCオフセット情報有無フラグdepth_dc_flag, DCオフセット絶対値depth_dc_abs[i]、DCオフセット符号depth_dc_sign_flag[i])、及び分割領域数dcNumSegに基づいて、各PU内の分割領域Ri(i=0..dcNumSeg-1)に対応するDCオフセット値DcOffset[i]を下記式により導出する。 Subsequently, the DC offset information decoding unit 111 performs each based on the DC offset information (DC offset information presence / absence flag depth_dc_flag, DC offset absolute value depth_dc_abs [i], DC offset code depth_dc_sign_flag [i]), and the number of divided regions dcNumSeg. A DC offset value DcOffset [i] corresponding to the divided region Ri (i = 0..dcNumSeg-1) in the PU is derived by the following equation.
DcOffset[i] = !depth_dc_offset_flag ? 0 :
( 1 -2*depth_dc_sign_flag[i] ) * ( depth_dc_abs[i] + dcNumSeg - 2 )
すなわち、DCオフセット情報有無フラグが0の場合、分割領域RiのDCオフセット値DcOffset[i]を0へ設定し、DCオフセット情報有無フラグが1の場合には、depth_dc_sign_flag[i]、depth_dc_abs[i]、分割領域数dcNumSegに基づいて、分割領域RiのDCオフセット値DcOffset[i]を設定する。上記導出式のメリットは、DCオフセット情報有無フラグが0の場合には、depth_dc_sign_flag[i]、depth_dc_abs[i]、及び分割領域数dcNumSegに基づく、DCオフセット値の導出処理を省略することができる点である。
DcOffset [i] =! Depth_dc_offset_flag? 0:
(1 -2 * depth_dc_sign_flag [i]) * (depth_dc_abs [i] + dcNumSeg-2)
That is, when the DC offset information presence / absence flag is 0, the DC offset value DcOffset [i] of the divided region Ri is set to 0, and when the DC offset information presence / absence flag is 1, depth_dc_sign_flag [i], depth_dc_abs [i] Based on the number of divided areas dcNumSeg, the DC offset value DcOffset [i] of the divided area Ri is set. The advantage of the above derivation formula is that when the DC offset information presence / absence flag is 0, the DC offset value derivation process based on depth_dc_sign_flag [i], depth_dc_abs [i], and the number of divided regions dcNumSeg can be omitted. It is.
なお、DCオフセット値の導出式は、上記に限定されず、実施可能な範囲で変更可能である。例えば、DCオフセット値は、下記式によって導出してもよい。 Note that the derivation formula of the DC offset value is not limited to the above, and can be changed within a practicable range. For example, the DC offset value may be derived from the following equation.
DcOffset[i] =
( 1 - 2*depth_dc_sign_flag[i] ) * ( depth_dc_abs[i] + dcNumSeg - 2 )
DcOffset [i] =
(1-2 * depth_dc_sign_flag [i]) * (depth_dc_abs [i] + dcNumSeg-2)
[逆量子化・逆変換部]
逆量子化・逆変換部13は、対象CUに含まれる各ブロックについて、TT情報TTIに基づいて逆量子化・逆変換処理を実行する。具体的には、逆量子化・逆変換部13は、各対象TUについて、対象TUに対応するTU情報TUIに含まれる量子化予測残差を逆量子化および逆直交変換することによって、対象TUに対応する画素毎の予測残差D(又はresSamples[x][y])を復元する。なお、ここで直交変換とは、画素領域から周波数領域への直交変換のことを指す。したがって、逆直交変換は、周波数領域から画素領域への変換である。また、逆直交変換の例としては、逆DCT変換(Inverse Discrete Cosine Transform)、および逆DST変換(Inverse Discrete Sine Transform)等が挙げられる。逆量子化・逆変換部13は、復元した予測残差Dを加算器15に供給する。なお、逆量子化・逆変換部13は、SDCフラグが1の場合、逆量子化・逆変換処理を省略し、対象TUの画素毎の予測残差D(又はresSamples[x][y])を0へ設定し、加算器15に供給する。
[Inverse quantization / inverse transform unit]
The inverse quantization /
[予測画像生成部]
予測画像生成部14は、対象CUに含まれる各PUについて、PT情報PTIに基づいて予測画像を生成する。具体的には、予測画像生成部14は、各対象PUについて、対象PUに対応するPU情報PUI(予測情報Pinfo)に含まれるパラメータに従ってイントラ予測またはインター予測を行うことにより、復号済み画像である局所復号画像P’から予測画像Predを生成する。予測画像生成部14は、生成した予測画像Predを加算器15に供給する。なお、予測画像生成部14の構成については、後ほど、より詳しく説明する。
[Predicted image generator]
The predicted
[加算器]
加算器15は、予測画像生成部14より供給される予測画像Predと、逆量子化・逆変換部13より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。
[Adder]
The adder 15 adds the predicted image Pred supplied from the predicted
[フレームメモリ]
フレームメモリ16には、復号された復号画像Pが順次記録される。フレームメモリ16には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が記録されている。
[Frame memory]
The decoded image P that has been decoded is sequentially recorded in the
また、対象CUを復号する時点において、当該対象CUよりも先に復号された全てのCUに対応する復号画像が記録されている。 Also, at the time of decoding the target CU, decoded images corresponding to all the CUs decoded before the target CU are recorded.
なお、動画像復号装置1において、画像内の全てのツリーブロックに対して、ツリーブロック単位の復号画像生成処理が終わった時点で、動画像復号装置1に入力された1フレーム分の符号化データ#1に対応する復号画像#2が外部に出力される。
In the
(予測モードの定義)
前述の通り、予測画像生成部14は、PT情報PTIに基づいて予測画像を生成して出力する。対象CUがインターCUの場合、予測画像生成部14に入力されるPU情報PTIは、例えば、動きベクトルmvLX(X=0,1)、及びフレームメモリ16に格納された復号済画像を参照画像として指定するための、参照画像インデックスrefIdxLX(X=0,1)、単予測(L0予測、L1予測)又は、双方向予測等のインター予測方式を指定するインター予測識別子inter_pred_idxを含む。
(Definition of prediction mode)
As described above, the predicted
対象CUがイントラCUの場合、予測画像生成部14に入力されるPU情報PTIは、予測モード(IntraPredMode)と、色差予測モード(IntraPredModeC)を含む。以下、予測モード(輝度・色差)の定義について、図7〜図8を参照して説明する。
When the target CU is an intra CU, the PU information PTI input to the predicted
(概要)
図7は、動画像復号装置1で利用されるイントラ予測方式の分類と対応する予測モード番号の例を示している。Planar予測(INTRA_PLANAR)に‘0’、DC予測(INTRA_DC)に‘1’、Angular予測(INTRA_ANGULAR)に‘2’〜 ‘34’、DMM1予測(INTRA_DMM_WFULL)に‘35’、DMM4予測(INTRA_DMM_CREDTEX)に‘36’の予測モード番号がそれぞれ割り当てられている。また、DMM1予測、及びDMM4予測を総称して、デプスイントラ予測とも呼ぶ。デプスイントラ予測とは、デプスマップ上の対象ブロック(デプスブロックとも称する)は、2つの非矩形の平坦領域から構成され、各平坦領域のデプス値は固定値で表現されるというデプスモデルに基づいている。また、デプスモデルは、各画素が属する領域を表わすパーティション情報、及び各領域のデプス値情報から構成される。DMM予測において、デプスブロックの分割方法として、DMM1と呼ばれるウェッジレット分割 (Wedgelet Partition)、及びDMM4と呼ばれる輪郭分割(Contour Partition)がある。デプスイントラ予測の詳細については後述する。
(Overview)
FIG. 7 shows an example of prediction mode numbers corresponding to the classification of intra prediction schemes used in the
次に、図8を用いて、方向予測に含まれる各予測モードの識別子を説明する。図8には方向予測に属する33種類の予測モードについて、予測モードの識別子と対応する予測方向が図示されている。 Next, the identifier of each prediction mode included in the direction prediction will be described with reference to FIG. FIG. 8 shows prediction directions corresponding to the prediction mode identifiers for 33 types of prediction modes belonging to the direction prediction.
(予測画像生成部の詳細)
次に、図9を用いて予測画像生成部14の構成についてさらに詳しく説明する。図9は予測画像生成部14の構成例について示す機能ブロック図である。なお、本構成例は、予測画像生成部14の機能のうち、イントラCUの予測画像生成に係る機能ブロックを図示している。
(Details of predicted image generator)
Next, the configuration of the predicted
図9に示すように、予測画像生成部14は、予測単位設定部141、参照画素設定部142、スイッチ143、参照画素フィルタ部144、および予測画像導出部145を備える。
As illustrated in FIG. 9, the predicted
予測単位設定部141は、対象CUに含まれるPUを規定の設定順序で対象PUに設定し、対象PUに関する情報(対象PU情報)を出力する。対象PU情報には、対象PUのサイズnS、対象PUのCU内の位置、対象PUの輝度または色差プレーンを示すインデックス(輝度色差インデックスcIdx)が少なくとも含まれる。
The prediction
参照画素設定部142は、入力される対象PU情報に基づいて、フレームメモリに記録されている対象PU周辺の復号画像の画素値(復号画素値)を読出し、予測画像生成時に参照される参照画素を設定する。参照画素値p[x][y]は復号画素値r[x][y]を利用して次式により設定される。
The reference
p[x][y]=r[xB+x][yB+y] x=-1, y=-1 .. (nS*2-1)、および、x=0..(nS*2-1),y=-1
ここで、(xB,yB)は対象PU内左上画素の位置、nSは対象PUのサイズを表し、対象PUの幅または高さのうち大きい方の値を示す。上式では、基本的には、対象PUの上辺に隣接する復号画素のラインおよび対象PUの左辺に隣接する復号画素のコラムに含まれる復号画素値を対応する参照画素値にコピーしている。なお、特定の参照画素位置に対応する復号画素値が存在しない、または、参照できない場合には、既定の値、例えば、1<<(BitDepth-1)を利用してもよい。ここで、BitDepthは、画素のビット深度である。また、既定の値の代わりに、対応する復号画素値の近傍に存在する参照可能な復号画素値を利用してもよい。
p [x] [y] = r [xB + x] [yB + y] x = -1, y = -1 .. (nS * 2-1) and x = 0 .. (nS * 2- 1), y = -1
Here, (xB, yB) represents the position of the upper left pixel in the target PU, nS represents the size of the target PU, and indicates the larger value of the width or height of the target PU. In the above equation, basically, the decoded pixel value included in the decoded pixel line adjacent to the upper side of the target PU and the decoded pixel column adjacent to the left side of the target PU is copied to the corresponding reference pixel value. Note that if there is no decoded pixel value corresponding to a specific reference pixel position or reference cannot be made, a predetermined value, for example, 1 << (BitDepth-1) may be used. Here, BitDepth is the bit depth of the pixel. In addition, instead of the predetermined value, a referable decoded pixel value existing in the vicinity of the corresponding decoded pixel value may be used.
スイッチ143は、入力される対象PU情報のうち、輝度色差インデックスcIdx、および予測モードpredModeIntraとに基づいて、参照画素を対応する出力先へ出力する。より具体的には、輝度色差インデックスcIdxが0であり(処理対象の画素が輝度である)、かつ、予測モードpredModeIntraが、0〜34である(予測モードが、Planar予測、又は、DC予測、又は、Angular予測である(predModeIntra<35))とき、スイッチ143は、入力される参照画素を、参照画素フィルタ部144へ出力する。それ以外の場合、すなわち、輝度色差インデックスcIdxが1である(処理対象の画素が色差である)、又は、予測モードpredModeIntraが、予測モード番号‘35’〜‘36’に割り当てられたデプスイントラ予測(DMM1予測、又はDMM4予測)である(predModeIntra>=35)とき、スイッチ143は、入力される参照画素を、予測画像導出部145へ出力する。
The
参照画素フィルタ部144は、入力される参照画素値にフィルタを適用して、フィルタ適用後の参照画素値を出力する。具体的には、参照画素フィルタ部144は、フィルタの適用有無を、対象PUサイズと予測モードpredModeIntraとに応じて決定する。 The reference pixel filter unit 144 applies a filter to the input reference pixel value, and outputs the reference pixel value after the filter application. Specifically, the reference pixel filter unit 144 determines whether to apply the filter according to the target PU size and the prediction mode predModeIntra.
予測画像導出部145は、入力されるPU情報(予測モードpredModeIntra、輝度色差インデックスcIdx、PUサイズnS)と参照画素p[x][y]に基づいて対象PUの予測画像predSamplesを生成して出力する。予測画像導出部145の詳細な説明は後述する。
The predicted
(予測画像生成処理の流れ)
次に、予測画像生成部14におけるCU単位の予測画像生成処理の概略を図10のフローチャートを用いて説明する。CU単位の予測画像生成処理が始まると、まず、予測単位設定部141がCU内に含まれるPUの一つを既定の順序に従って対象PUに設定して対象PU情報を参照画素設定部142およびスイッチ143に出力する(S11)。次に、参照画素設定部142は対象PUの参照画素を、外部のフレームメモリから読み出した復号画素値を用いて設定する(S12)。次に、スイッチ143が、入力された対象PU情報に基づいて対象PUが輝度か色差か、又は予測モードpredModeIntraがDMM予測であるか否かを判定し、当該判定結果に応じて出力を切り替える(S13)。
(Flow of predicted image generation processing)
Next, an outline of the predicted image generation processing for each CU in the predicted
対象PUが輝度であり、かつ、予測モードpredModeIntraがデプスイントラ予測でない場合(cIdx==0 && predModeIntra<35)(S13でYES)、スイッチ143の出力は参照画素フィルタ部144に接続される。続いて、参照画素フィルタ部144に対し参照画素が入力され、別途入力された予測モードに応じて参照画素フィルタが適用され、フィルタ適用後の参照画素が予測画像導出部145に出力される(S14)。
When the target PU is luminance and the prediction mode predModeIntra is not depth intra prediction (cIdx == 0 && predModeIntra <35) (YES in S13), the output of the
一方、対象PUが色差である、又は、予測モードpredModeIntraがデプスイントラ予測である場合(cIdx==1 || predModeIntra>=35)(S13でNO)、スイッチ143の出力は予測画像導出部145に接続される。
On the other hand, when the target PU is a color difference or the prediction mode predModeIntra is depth intra prediction (cIdx == 1 || predModeIntra> = 35) (NO in S13), the output of the
次に、予測画像導出部145は、入力されるPU情報(予測モードpredModeIntra、輝度色差インデックスcIdx、PUサイズnS)と参照画素p[x][y]に基づいて対象PUにおける予測画像predSamplesを生成して出力する(S15)。
Next, the predicted
対象PUの輝度または色差の予測画像の生成が終わると、予測単位設定部141が、対象CU内の全てのPUの予測画像が生成されたかを判定する(S16)。対象CU内の一部のPUの予測画像が生成されていない場合(S16でNO)、上記S1に戻り、対象CU内の次のPUの予測画像生成処理を実行する。対象CU内の全てのPUの予測画像が生成されている場合(S16でYES)、対象CU内の各PUの輝度および色差の予測画像を合わせて対象CUの予測画像として出力し、処理を終了する。
When the generation of the prediction image of the luminance or color difference of the target PU is completed, the prediction
(予測画像導出部145の詳細)
続いて、予測画像導出部145の詳細について説明する。図9に示すように、予測画像導出部145は、さらに、DC予測部145D、Planar予測部145P、Angular予測部145A、及びDMM予測部145Tを備える。
(Details of predicted image deriving unit 145)
Next, details of the predicted
予測画像導出部145は、入力される予測モードpredModeIntraに基づいて予測画像生成に用いる予測方式を選択する。予測方式の選択は、前述の図7の定義に基づいて、入力される予測モードpredModeIntraの予測モード番号に対応する予測方式を選択することで実現される。
The predicted
さらに、予測画像導出部145は、予測方式の選択結果に応じた予測画像を導出する。より具体的には、予測画像導出部145は、予測方式が、Planar予測、DC予測、Angular予測、及びDMM予測の場合、それぞれ、Planar予測部145P、DC予測部145D、Angular予測部145A、及びDMM予測部145Tにより予測画像を導出する。
Further, the predicted
DC予測部145Dは、入力される参照画素の画素値の平均値に相当するDC予測値を導出し、導出されたDC予測値を画素値とする予測画像を出力する。 The DC prediction unit 145D derives a DC prediction value corresponding to the average value of the pixel values of the input reference pixels, and outputs a prediction image using the derived DC prediction value as a pixel value.
Planar予測部145Pは、予測対象画素との距離に応じて複数の参照画素を線形加算することで導出した画素値により予測画像を生成して出力する。
The
[Angular予測部145A]
Angular予測部145Aは、入力される予測モードpredModeIntraに対応する予測方向(参照方向)の参照画素を用いて対象PU内に対応する予測画像を生成して出力する。Angular予測による予測画像の生成処理では、予測モードpredModeIntraの値に応じて主参照画素を設定し、予測画像をPU内のラインまたはコラムの単位で主参照画素を参照して生成する。
[
The
[DMM予測部145T]
DMM予測部145Tは、入力される予測モードpredModeIntraに対応するDMM予測(Depth Modeling Mode,デプスイントラ予測ともいう)に基づいて、対象PU内に対応する予測画像を生成して出力する。
[
The
DMM予測部145Tの詳細な説明に先だって、図14を参照しながら、DMM予測の概略について説明する。図14は、DMM予測部145Tにおいて実行されるDMM予測の概念図である。デプスマップは、主に、図14(a)に示すように、オブジェクト境界を表わすエッジ領域、及びオブジェクトエリアを表わす平坦領域(ほぼデプス値が一定)を有するという特徴がある。まず、DMM予測では、基本的に、デプスマップの画像的特徴を利用し、対象ブロックを、オブジェクトのエッジに沿った2つの領域R0、R1に分割し、図14(b)に示すように、各画素が属する領域を表わすパターン情報であるウェッジレットパターンWedgePattern[x][y]を導出する。
Prior to detailed description of the
ウェッジレットパターンWedgePattern[x][y]は、対象ブロック(対象PU)の幅×高さ分の大きさがあるマトリックスであり、要素(x,y)毎に0、又は1が設定され、対象ブロックの各画素が2つの領域R0、R1のどちらに属するかを示す。図14(b)の例では、要素の値が0であれば、領域R0に属し、1であれば、領域R1に属すこととなる。次に、図14(c)に示すように、各領域R0、及びR1を各々のデプス予測値を埋めることによって予測画像を生成する。 Wedgelet pattern WedgePattern [x] [y] is a matrix with the size of the target block (target PU) width x height, and 0 or 1 is set for each element (x, y), and the target It indicates which of the two regions R0 and R1 each pixel of the block belongs to. In the example of FIG. 14B, if the element value is 0, it belongs to the region R0, and if it is 1, it belongs to the region R1. Next, as shown in FIG. 14C, a prediction image is generated by filling each of the regions R0 and R1 with depth prediction values.
以下では、図11を参照しがら、DMM予測部145Tの構成について説明する。図11は、DMM予測部145Tの構成例のついて示す機能ブロック図である。
Hereinafter, the configuration of the
図11に示すように、DC予測画像導出部145T1、DMM1ウェッジレットパターン生成部145T2、及びDMM4ウェッジレットパターン生成部145T3を備える。 As shown in FIG. 11, a DC predicted image derivation unit 145T1, a DMM1 wedgelet pattern generation unit 145T2, and a DMM4 wedgelet pattern generation unit 145T3 are provided.
DMM予測部145Tは、入力される予測モードpredModeIntraに対応するウェッジレットパターン生成手段(DMM1ウェッジレットパターン生成部、DMM4ウェッジレットパターン生成部)を起動させ、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を生成する。より具体的には、予測モードpredModeIntraが、予測モード番号‘35’である場合、すなわち、INTRA_DMM_WEDGEFULLモードでは、DMM1ウェッジレットパターン生成部145T2を起動する。一方、予測モードpredModeIntraが、予測モード番号‘36’である場合、すなわち、INTRA_DMM_CPCREDTEXモードでは、DMM4ウェッジレットパターン生成部145T3を起動する。その後、DMM予測部145Tは、DC予測画像導出部145T1を起動して、対象PUの予測画像を取得する。
The
(実施例1)
[DC予測画像導出部145T1]
DC予測画像導出部145T1は、概略的には、対象PUのウェッジレットパターンwedgePattern[x][y]に基づいて、対象PUを2つの領域に分割し(例えば、図14 (c)に示す領域R0、R1)、入力されたPT情報、及び参照画素p[x][y]に基づいて領域R0に関する予測値、及び領域R1に関する予測値を導出し、各領域に導出した予測値を予測画像predSamples[x][y]に設定して導出する。
Example 1
[DC predicted image deriving unit 145T1]
The DC predicted image derivation unit 145T1 roughly divides the target PU into two regions based on the wedgelet pattern wedgePattern [x] [y] of the target PU (for example, the region shown in FIG. 14C) R0, R1), the input PT information, and the reference pixel p [x] [y] based on the prediction value for the region R0 and the prediction value for the region R1, and the prediction value derived for each region is predicted image Derived by setting predSamples [x] [y].
以下では、図1を参照しながら、DC予測画像導出部145T1の構成について説明する。図1に示すように、DC予測画像導出部145T1は、さらに、エッジフラグ導出部146、DC予測値導出部147、及び予測画像導出部148を備える。
Hereinafter, the configuration of the DC predicted image deriving unit 145T1 will be described with reference to FIG. As illustrated in FIG. 1, the DC predicted image deriving unit 145T1 further includes an edge
[エッジフラグ導出部146]
エッジフラグ導出部146は、入力されたウェッジレットパターンwedgePattern[x][y](x=0..nS-1, y=0..nS-1)の分割方向を判定するために、該ウェッジレットパターンの最左上要素wedgePattern[0][0](対象PUの最左上画素に対応)、最右上要素wedgePattern[nS-1][0](対象PUの最右上画素に対応)、最左下要素wedgePattern[0][nS-1](対象PUの最左下画素に対応)を参照して、それぞれ垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagを下記式(eq.1)、及び(eq.2)により導出する。導出された垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagは、DC予測値導出部147へ供給される。
[Edge flag deriving unit 146]
The edge
vertEdgeFlag = ( wedgePattern[0][0] != wedgePattern[nS-1][0] ) (eq.1)
horEdgeFlag = ( wedgePattern[0][0] != wedgePattern[0][nS-1] ) (eq.2)
すなわち、ウェッジレットパターンの最左上要素wedgePattern[0][0]と最右上要素wedgePattern[nS-1][0]の値が等しい場合、垂直エッジフラグvertEdgeFlagに0を設定し、等しくない場合、1を設定する。垂直エッジフラグvertEdgeFlagが1の場合、対象PUの上辺上に分割境界(垂直方向の境界)があることを意味し、0であれば、対象PUの上辺上に分割境界がないことを意味する。
vertEdgeFlag = (wedgePattern [0] [0]! = wedgePattern [nS-1] [0]) (eq.1)
horEdgeFlag = (wedgePattern [0] [0]! = wedgePattern [0] [nS-1]) (eq.2)
That is, when the values of the upper leftmost element wedgePattern [0] [0] and the uppermost rightmost element wedgePattern [nS-1] [0] of the wedgelet pattern are equal, the vertical edge flag vertEdgeFlag is set to 0. Set. When the vertical edge flag vertEdgeFlag is 1, it means that there is a division boundary (perpendicular boundary) on the upper side of the target PU, and when it is 0, it means that there is no division boundary on the upper side of the target PU.
同様にして、ウェッジレットパターンの最左上要素wedgePattern[0][0]と最左下要素wedgePattern[0][nS-1]の値が等しい場合、水平エッジフラグhorEdgeFlagに0を設定し、等しくない場合、1を設定する。水平エッジフラグhorEdgeFlagが1の場合、対象PUの左辺上に分割境界(水平方向の境界)があることを意味し、0であれば、対象PU(ブロック)の左辺上に分割境界がないことを意味する。ここで、対象PUのX辺上(X=上、右、左、下)に分割境界があるとは、X辺上にあるウェッジレットパターンwedgePattern[x][y]の値(パターン値)が0から1、又は1から0へ変化する境界を指す。 Similarly, when the values of the wedget pattern upper left element wedgePattern [0] [0] and lower left element wedgePattern [0] [nS-1] are equal, the horizontal edge flag horEdgeFlag is set to 0 and they are not equal 1 is set. When the horizontal edge flag horEdgeFlag is 1, it means that there is a division boundary (horizontal boundary) on the left side of the target PU, and when it is 0, there is no division boundary on the left side of the target PU (block). means. Here, if there is a division boundary on the X side (X = up, right, left, bottom) of the target PU, the value (pattern value) of the wedgelet pattern wedgePattern [x] [y] on the X side is It refers to a boundary that changes from 0 to 1 or from 1 to 0.
これら垂直エッジフラグvertEdgeFlag、水平エッジフラグhorEdgeFlagの状態によって、対象PUの分割パターンを把握することが可能である。 Based on the state of the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag, it is possible to grasp the division pattern of the target PU.
図12を参照して、垂直エッジフラグvertEdgeFlag, 水平エッジフラグhorEdgeFlagの状態が示す分割パターン例を示す。なお、図12(a)〜(d)において、ブロック上で領域R0は、最左上要素wedgePattern[0][0]と同じパターン値を有する要素の集合であり、領域R1は、最左上要素wedgePattern[0][0]と異なるパターン値をもつ要素の集合である。 With reference to FIG. 12, an example of a division pattern indicated by the state of the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag is shown. 12A to 12D, the region R0 on the block is a set of elements having the same pattern value as the upper left element wedgePattern [0] [0], and the region R1 is the upper left element wedgePattern. [0] A set of elements having pattern values different from [0].
図12(a)は、(vertEdgeFlag,horEdgeFlag)=(0,0)が示す分割パターンであり、分割境界は、ブロックPA1のように右辺及び下辺上にある。 FIG. 12A shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (0, 0), and the division boundaries are on the right side and the lower side as in the block PA1.
図12(b)は、(vertEdgeFlag,horEdgeFlag)=(1,0)が示す分割パターンであり、分割境界は、ブロックPB1のように上辺及び下辺上、あるいはブロックPB2のように上辺及び右辺上にある。 FIG. 12B is a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1,0), and the division boundary is on the upper side and the lower side as in the block PB1, or on the upper side and the right side as in the block PB2. is there.
図12(c)は、(vertEdgeFlag,horEdgeFlag)=(0,1)が示す分割パターンであり、分割境界は、ブロックPC1のように左辺及び右辺上、あるいはブロックPC2のように左辺及び下辺上にある。 FIG. 12C shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (0, 1), and the division boundary is on the left side and the right side as in the block PC1, or on the left side and the bottom side as in the block PC2. is there.
図12(d)は、(vertEdgeFlag,horEdgeFlag)=(1,1)が示す分割パターンであり、分割境界は、ブロックPD1のように上辺及び左辺上にある。 FIG. 12D shows a division pattern indicated by (vertEdgeFlag, horEdgeFlag) = (1, 1), and the division boundaries are on the upper side and the left side as in the block PD1.
[DC予測値導出部147]
DC予測値導出部147は、入力された垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに応じて、参照画素p[x][y]から分割された2領域に割り当てるDC予測値dcValLT、及びdcValBRを導出する。便宜上、ウェッジレットパターンの最左上要素wedgePattern[0][0]と同じ値を有する要素からなる領域を領域R0(第1の領域)、最左上要素wedgePattern[0][0]と異なる値を有する要素からなる領域を領域R1(第2の領域)とし、領域R0に関するDC予測値はdcValLT、領域R1に関するDC予測値はdcValBRであるとする。
[DC predicted value deriving unit 147]
The DC prediction
(1)垂直エッジフラグvertEdgeFlagと水平エッジフラグhorEdgeFlagが等しい場合(vertEdgeFlag==horEdgeFlag, 図12上の(a)、及び(d)の分割パターン)、以下の手順で、各DC予測値を導出する。 (1) When the vertical edge flag vertEdgeFlag is equal to the horizontal edge flag horEdgeFlag (vertEdgeFlag == horEdgeFlag, division patterns (a) and (d) in FIG. 12), each DC prediction value is derived by the following procedure. .
DC予測値導出部147は、図13(a)に示すように、下記式(eq.3)により、対象PUの最左上画素((x,y)=(0,0))の左、及び上に隣接する参照画素p[-1][0]と参照画素p[0][-1]の平均値をdcValLTへ設定する。
As shown in FIG. 13A, the DC predicted
dcValLT = (p[-1][0] + p[0][-1]) >> 1 (eq.3)
同様にして、下記式(eq.4)により、対象PUの最左上画素を基準にしてx方向へ-1、y方向へ(2*nS-1)にある参照画素p[-1][2*nS-1]と、対象PUの最左上画素を基準にしてx方向へ(2*nS-1)、y方向へ-1にある参照画素p[2*nS-1][-1]の平均値をdcValBRへ設定する。
dcValLT = (p [-1] [0] + p [0] [-1]) >> 1 (eq.3)
Similarly, the reference pixel p [-1] [2] in the x direction -1 and the y direction (2 * nS-1) with the upper left pixel of the target PU as a reference by the following equation (eq.4) * nS-1] and the reference pixel p [2 * nS-1] [-1] in the x direction (2 * nS-1) and the y direction -1 based on the upper left pixel of the target PU Set the average value to dcValBR.
dcValBR = (p[-1][2*nS-1] + p[2*nS-1][-1]) >> 1 (eq.4)
ここで、図12(a)又は(d)に示す分割パターンの場合、領域R0と領域R1を分割する境界(例えば、図13(a)の線L)を考えると、多くの場合において、領域R1に属する可能性が高い参照画素は、領域R0から最も離れた参照画素であると考えられる。従って、領域R1の参照画素としては、対象PUの上辺上の参照画素のうち領域R0から離れた点p[2*nS-1][-1]と、対象PUの左辺上の参照画素のうち領域R0から離れた点p[-1][2*nS-1]を用い、ノイズを減らすために平均値をとることが好適である。
dcValBR = (p [-1] [2 * nS-1] + p [2 * nS-1] [-1]) >> 1 (eq.4)
Here, in the case of the division pattern shown in FIG. 12 (a) or (d), considering the boundary dividing the region R0 and the region R1 (for example, the line L in FIG. 13 (a)), in many cases, the region A reference pixel that is likely to belong to R1 is considered to be a reference pixel that is farthest from the region R0. Therefore, as the reference pixel of the region R1, among the reference pixels on the upper side of the target PU, the point p [2 * nS-1] [-1] away from the region R0 and the reference pixels on the left side of the target PU It is preferable to use a point p [-1] [2 * nS-1] away from the region R0 and take an average value to reduce noise.
従来技術では、図12(a)と図12(d)に示す分割パターンにおいて、領域R0のDC予測値の導出に利用する参照画素は同じであるが、領域R1のDC予測値の導出に利用する参照画素は異なるため、領域R1のDC予測値の導出処理を、2つの分割パターンで共通化することが出来なかった。一方、本実施例では、領域R0、及びR1毎に、同じ参照画素を利用することで、DC予測値のの導出処理を共通化することが可能である。すなわち、図12(a)と図12(d)を区別する必要がない。また、参照画素間の画素強度(画素差分)を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素を選択し、各領域のDC予測値dcValLT、及びdcValBRを導出することが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジレットパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。 In the prior art, the reference pixels used for derivation of the DC prediction value of the region R0 are the same in the division patterns shown in FIGS. 12A and 12D, but are used for derivation of the DC prediction value of the region R1. Since different reference pixels are used, the DC prediction value derivation process for the region R1 cannot be shared by the two division patterns. On the other hand, in the present embodiment, it is possible to share the DC prediction value derivation process by using the same reference pixel for each of the regions R0 and R1. That is, it is not necessary to distinguish FIG. 12 (a) and FIG. 12 (d). Also, without calculating the pixel intensity (pixel difference) between the reference pixels, the reference pixel is selected based on only the horizontal edge flag and the vertical edge flag, and the DC predicted values dcValLT and dcValBR of each region are derived. It is possible. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedgelet pattern without accessing a depth image that is a reference pixel.
なお、実施例では、領域R1のDC予測値dcValBRを導出する際に利用する参照画素として、対象PUの上辺上の座標(x,y) = (2*nS-1,-1)の参照画素p[2*nS-1][-1]と、対象PUの左辺上の座標(x,y) = (-1, 2*nS-1)の参照画素p[-1][2*nS-1]としたが、これに限定されない。例えば、対象PUの上辺上の別の座標(xL,-1)の参照画素p[xL][-1]、対象PUの左辺上の別の座標(-1, yT)の参照画素p[-1][yT]とすれば、それぞれ、xL = nS .. 2*nS-1, yT = nS .. 2*nS-1、の範囲で設定してもよい。 In the embodiment, as a reference pixel used when deriving the DC predicted value dcValBR of the region R1, a reference pixel having coordinates (x, y) = (2 * nS-1, -1) on the upper side of the target PU p [2 * nS-1] [-1] and the reference pixel p [-1] [2 * nS- of the coordinates (x, y) = (-1, 2 * nS-1) on the left side of the target PU 1], but is not limited to this. For example, the reference pixel p [xL] [-1] at another coordinate (xL, -1) on the upper side of the target PU, and the reference pixel p [-at another coordinate (-1, yT) on the left side of the target PU 1] [yT], xL = nS.. 2 * nS-1, yT = nS .. 2 * nS-1 may be set.
(2)垂直エッジフラグvertEdgeFlagと水平ヘッジフラグhorEdgeFlagが異なる場合(vertEdgeFlag!=horEdgeFlag、図12上の(b)、及び(c)の分割パターン)、DC予測値導出部147は、下記式(eq.5)〜(eq.6)により、各DC予測値を導出する。
(2) When the vertical edge flag vertEdgeFlag and the horizontal hedge flag horEdgeFlag are different (vertEdgeFlag! = HorEdgeFlag, division patterns (b) and (c) in FIG. 12), the DC predicted
dcValLT = horEdgeFlag ? p[(nS-1)>>1][-1] : p[-1][(nS-1)>>1] (eq.5)
dcValBR = horEdgeFlag ? p[-1][nS] : p[nS][-1] (eq.6)
すなわち、水平エッジフラグhorEdgeFlagが1の場合(垂直エッジフラグvertEdgeFlagが0)には、DC予測値導出部147は、図13(b)に示すように、対象PUの上辺の中央画素の上に隣接する参照画素p[(nS-1)>>1][-1]を領域R0のDC予測値dcValLTとし、対象PUの最左下画素の左下に隣接する参照画素p[-1][nS]を領域R1のDC予測値dcValBRとする。
dcValLT = horEdgeFlag? p [(nS-1) >> 1] [-1]: p [-1] [(nS-1) >> 1] (eq.5)
dcValBR = horEdgeFlag? p [-1] [nS]: p [nS] [-1] (eq.6)
That is, when the horizontal edge flag horEdgeFlag is 1 (vertical edge flag vertEdgeFlag is 0), the DC prediction
水平エッジフラグhorEdgeFlagが0の場合(垂直エッジフラグvertEdgeFlagが1)には、DC予測値導出部147は、図13(c)に示すように、対象PUの左辺の中央画素の左に隣接する参照画素p[-1][(nS-1)>>1]を領域R0のDC予測値dcValLTとし、対象PUの最右上画素の右上に隣接する参照画素p[-1][nS]を領域R1のDC予測値dcValBRとする。
When the horizontal edge flag horEdgeFlag is 0 (vertical edge flag vertEdgeFlag is 1), the DC prediction
水平エッジフラグが1、かつ垂直エッジフラグが0の場合、従来技術では、領域R1のDC予測値dcValBRとして、対象PUの最左下画素の左に隣接する参照画素p[-1][nS-1]を利用するが、実施例では、対象PUの最左下画素の左下に隣接する参照画素p[-1][nS]を利用する点が特徴である。図13(b)に示す分割パターンの場合(水平エッジフラグが1、垂直エッジフラグが0)の場合、領域R0と領域R1を分割する境界(例えば、図13(b)の線L)を考えると、分割境界線上に位置する参照画素は、エッジ境界上にあるため画素変化を伴う場合が多く、分割境界からより内側に位置する参照画素の方が、DC予測に利用する参照画素として適切であると考えられる。従って、対象PUの最左下画素の左に位置する参照画素p[-1][nS-1]よりも、対象PUの最左下画素の左下に位置する参照画素p[-1][nS]の方が、領域R1のDC予測値に利用する画素として好適である。従って、従来技術と比較して、領域R1のDC予測値dcValBRの精度が向上し、符号化効率が向上する効果を奏する。 When the horizontal edge flag is 1 and the vertical edge flag is 0, in the related art, as the DC predicted value dcValBR of the region R1, the reference pixel p [-1] [nS-1 adjacent to the left of the lower leftmost pixel of the target PU ] Is used, but the embodiment is characterized in that the reference pixel p [-1] [nS] adjacent to the lower left of the lower leftmost pixel of the target PU is used. In the case of the division pattern shown in FIG. 13B (the horizontal edge flag is 1 and the vertical edge flag is 0), a boundary (for example, a line L in FIG. 13B) that divides the region R0 and the region R1 is considered. In many cases, the reference pixel located on the dividing boundary line is accompanied by a pixel change because it is on the edge boundary, and the reference pixel located further inside from the dividing boundary is more suitable as a reference pixel used for DC prediction. It is believed that there is. Therefore, the reference pixel p [-1] [nS] located at the lower left of the lower left pixel of the target PU is more than the reference pixel p [-1] [nS-1] located at the left of the lower left pixel of the target PU. This is more suitable as a pixel used for the DC prediction value in the region R1. Therefore, compared with the prior art, the accuracy of the DC predicted value dcValBR in the region R1 is improved, and the encoding efficiency is improved.
同様にして、水平エッジフラグが0、かつ垂直エッジフラグが1の場合、従来技術では、領域R1のDC予測値dcValBRとして、対象PUの最右上画素の上に隣接する参照画素p[nS-1][-1]を利用するが、実施例では、対象PUの最右上画素の右上に隣接する参照画素p[nS][-1]を利用する点が特徴である。図13(c)に示す分割パターンの場合(水平エッジフラグが0、垂直エッジフラグが1)の場合、領域R0と領域R1を分割する境界(例えば、図13(b)の線L)を考えると、分割境界線上に位置する参照画素は、エッジ境界上にあるため画素変化を伴う場合が多く、分割境界からより内側に位置する参照画素の方が、DC予測に利用する参照画素として適切であると考えられる。従って、対象PUの最右上画素の上に位置する参照画素p[nS-1][-1]よりも、対象PUの最右上画素の右上に位置する参照画素p[nS][-1]の方が、領域R1のDC予測値に利用する画素として好適である。従って、従来技術と比較して、領域R1のDC予測値dcValBRの精度が向上し、符号化効率が向上する効果を奏する。 Similarly, when the horizontal edge flag is 0 and the vertical edge flag is 1, in the conventional technique, the reference pixel p [nS-1 adjacent to the upper right pixel of the target PU is used as the DC predicted value dcValBR of the region R1. ] [-1] is used, but the embodiment is characterized in that the reference pixel p [nS] [-1] adjacent to the upper right of the upper right pixel of the target PU is used. In the case of the division pattern shown in FIG. 13C (the horizontal edge flag is 0 and the vertical edge flag is 1), consider a boundary (for example, a line L in FIG. 13B) that divides the region R0 and the region R1. In many cases, the reference pixel located on the dividing boundary line is accompanied by a pixel change because it is on the edge boundary, and the reference pixel located further inside from the dividing boundary is more suitable as a reference pixel used for DC prediction. It is believed that there is. Therefore, the reference pixel p [nS] [-1] located at the upper right of the upper right pixel of the target PU is more than the reference pixel p [nS-1] [-1] located above the upper right pixel of the target PU. This is more suitable as a pixel used for the DC prediction value in the region R1. Therefore, the accuracy of the DC prediction value dcValBR in the region R1 is improved and the coding efficiency is improved as compared with the conventional technique.
[従来技術との比較]
従来技術では、垂直エッジフラグ、水平エッジフラグ、及び参照画素間の画素強度horAbsDiff、vertAbsDiffに基づいて、図20(a)〜(e)に示すように、対象PUの分割パターンを、下記5つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出ていた。
[Comparison with conventional technology]
In the prior art, based on the vertical edge flag, the horizontal edge flag, and the pixel intensities horAbsDiff and vertAbsDiff between the reference pixels, as shown in FIGS. In each case, a reference pixel used for each region Ri (i = 0, 1) is selected for each case division, and a DC predicted value is derived.
(a)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff>vertAbsDiff,
(b)(vertEdgeFlag,horEdgeFlag) == (0,0) && horAbsDiff<=vertAbsDiff,
(c)(vertEdgeFlag,horEdgeFlag) == (1,1),
(d)(vertEdgeFlag,horEdgeFlag) == (0,1),
(e)(vertEdgeFlag,horEdgeFlag) == (1,0),
ここで、horAbsDiff=Abs( p[0][-1] - p[nS-1][-1] ), vertAbsDiff = Abs( p[-1][0] - p[-1][nS-1] )である。特に、水平エッジフラグと垂直フラグが共に0の場合、参照画素から水平方向の画素強度horAbsDiff、垂直方向の画素強度vertAbsDiffを導出する必要があり、条件分岐が多く、処理が複雑であるという課題がある。
(a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff,
(b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff,
(c) (vertEdgeFlag, horEdgeFlag) == (1,1),
(d) (vertEdgeFlag, horEdgeFlag) == (0,1),
(e) (vertEdgeFlag, horEdgeFlag) == (1,0),
Where horAbsDiff = Abs (p [0] [-1]-p [nS-1] [-1]), vertAbsDiff = Abs (p [-1] [0]-p [-1] [nS-1 ]). In particular, when both the horizontal edge flag and the vertical flag are 0, it is necessary to derive the pixel intensity horAbsDiff in the horizontal direction and the pixel intensity vertAbsDiff in the vertical direction from the reference pixel, and there is a problem that there are many conditional branches and the processing is complicated. is there.
一方、実施例に係るDC予測値導出部147は、垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
On the other hand, the DC prediction
(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減する。また、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。さらに、従来技術と比較して、本実施例は、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジレットパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域Ri(i=0,1)のDC予測値の導出処理を共通化する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case division of the division pattern related to the selection of the reference pixel is reduced from 5 to 3. Also, the condition (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff, (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == (1,1) division pattern is integrated as condition (A) vertEdgeFlag == horEdgeFlag, and the derivation of the DC prediction value of each region Ri (i = 0,1) is made common . Furthermore, in comparison with the prior art, this embodiment does not calculate the pixel intensity between the reference pixels, and the division of the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag. Can be done. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedgelet pattern without accessing a depth image that is a reference pixel. Further, as compared with the conventional technique, when the vertical edge flag and the horizontal edge flag are equal, there is an effect of sharing the process of deriving the DC predicted value of each region Ri (i = 0, 1). Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.
[予測画像導出部148]
予測画像導出部148は、ウェッジレットパターンと、導出された各領域のDC予測値dcValBR、dcValLTと、DCオフセット情報復号部111より供給される対象PUの各領域のDCオフセット値DcOffset[i](i=0..dcNumSeg-1)に基づいて、対象PUの予測画像predSamples[x][y]を導出する。
[Predicted image deriving unit 148]
The predicted
まず、ウェッジレットパターンwedgePattern[x][y]を参照して、対象PU内画素位置(x,y)が領域R0に属する場合(wedgePattern[x][y] == wedgePattern[0][0])、対象画素DC予測値predDcValを、dcValLTへ設定し、対象画素が領域R1に属する場合(wedgePattern[x][y] != wedgePattern[0][0])、対象画素DC予測値predDCValを、dcValBRへ設定する。 First, referring to the wedgelet pattern wedgePattern [x] [y], when the pixel position (x, y) in the target PU belongs to the region R0 (wedgePattern [x] [y] == wedgePattern [0] [0] ), When the target pixel DC predicted value predDcVal is set to dcValLT and the target pixel belongs to the region R1 (wedgePattern [x] [y]! = WedgePattern [0] [0]), the target pixel DC predicted value predDCVal is Set to dcValBR.
predDcVal = (wedgePattern[x][y] == wedgePattern[0][0]) ?
dcValLT : dcValBR (eq.7)
次に、DCオフセット値DcOffset[i](i=0..dcNumSeg-1)を参照して、対象画素DCオフセット値dcOffsetを設定する。
predDcVal = (wedgePattern [x] [y] == wedgePattern [0] [0])?
dcValLT: dcValBR (eq.7)
Next, the target pixel DC offset value dcOffset is set with reference to the DC offset value DcOffset [i] (i = 0..dcNumSeg-1).
dcOffset = DcOffset[wedgePattern[x][y]] (eq.8)
すなわち、ウェッジレットパターンwedgePattern[x][y]の値に対応するDCオフセット値dcOffset[wedgePattern[x][y]]を、対象画素のDCオフセット値dcOffsetへ設定する。
dcOffset = DcOffset [wedgePattern [x] [y]] (eq.8)
That is, the DC offset value dcOffset [wedgePattern [x] [y]] corresponding to the value of the wedgelet pattern wedgePattern [x] [y] is set to the DC offset value dcOffset of the target pixel.
導出した対象画素DC予測値predDcValと対象画素DCオフセット値dcOffsetの和を、対象画素の予測値とする。 The sum of the derived target pixel DC predicted value predDcVal and the target pixel DC offset value dcOffset is set as the predicted value of the target pixel.
predSamples[x][y] = predDcVal + dcOffset, with x=0..nS-1, y=0..nS-1
以上のようにして、予測画像導出部148は、対象PUの予測画像predSamples[x][y]を導出することができる。
predSamples [x] [y] = predDcVal + dcOffset, with x = 0..nS-1, y = 0..nS-1
As described above, the predicted
(作用・効果)
実施例に係るDC値導出部145T3は、ウェッジレットパターンwedgePattern[][]から導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
The DC value deriving unit 145T3 according to the embodiment divides the division pattern of the target PU into the following three cases based on the vertical edge flag vertEdgeFlag and the horizontal edge flag horEdgeFlag derived from the wedgelet pattern wedgePattern [] []. For each case classification, a reference pixel to be used for each region Ri (i = 0, 1) is selected, and a DC predicted value is derived.
(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減する。また、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。さらに、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。すなわち、参照画素であるデプス画像にアクセスすることなく、ウェッジパターンにアクセスするだけで、DC予測値算出に必要なブロックの分割パターンのクラスタリングを行うことができる。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、領域RiのDC予測値の導出処理を共通化し、DMM予測の予測画像生成に係る処理量の低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case division of the division pattern related to the selection of the reference pixel is reduced from 5 to 3. Also, the condition (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff, (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == (1,1) division pattern is integrated as condition (A) vertEdgeFlag == horEdgeFlag, and the derivation of the DC prediction value of each region Ri (i = 0,1) is made common . Furthermore, compared to the prior art, it is possible to classify divided patterns related to selection of reference pixels based on only the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. That is, it is possible to perform clustering of block division patterns necessary for DC predicted value calculation only by accessing a wedge pattern without accessing a depth image that is a reference pixel. Also, compared to the conventional technique, when the vertical edge flag and the horizontal edge flag are equal, the derivation process of the DC prediction value of the region Ri is shared, and the effect of reducing the processing amount related to the prediction image generation of the DMM prediction is achieved. . Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.
[DMM1ウェッジレットパターン生成部145T2]
DMM1ウェッジレットパターン生成部145T2は、さらに、DMM1ウェッジレットパターン導出部145T6、バッファ145T5、及びウェッジレットパターンリスト生成部145T4を備える。概略的には、DMM1ウェッジレットパターン生成部145T2は、初回起動時のみ、ウェッジレットパターンリスト生成部145T4を起動させ、ブロックサイズ毎のウェッジレットパターンリストWedgePatternTableを生成する。次に、生成したウェッジレットパターンリストをバッファ145T5に格納する。続いて、DMM1ウェッジレットパターン導出部145T6は、入力される対象PUサイズnS、ウェッジレットパターンインデックスwedge_full_tab_idxに基づいて、バッファ145T5に格納されたウェッジレットパターンリストWedgePatternTableからウェッジレットパターンwedgePattern[x][y]を導出して、DC予測画像導出部145T1へ出力する。
[DMM1 wedgelet pattern generator 145T2]
The DMM1 wedgelet pattern generation unit 145T2 further includes a DMM1 wedgelet pattern derivation unit 145T6, a buffer 145T5, and a wedgelet pattern list generation unit 145T4. Schematically, the DMM1 wedgelet pattern generation unit 145T2 activates the wedgelet pattern list generation unit 145T4 only at the first activation, and generates a wedgelet pattern list WedgePatternTable for each block size. Next, the generated wedgelet pattern list is stored in the buffer 145T5. Subsequently, the DMM1 wedgelet pattern deriving unit 145T6 determines the wedgelet pattern wedgePattern [x] [y] from the wedgelet pattern list WedgePatternTable stored in the buffer 145T5 based on the input target PU size nS and wedgelet pattern index wedge_full_tab_idx. ] Is derived and output to the DC predicted image deriving unit 145T1.
[バッファ145T5]
バッファ145T5は、ウェッジレットパターンリスト生成部145T4より供給されるブロックサイズ別のウェッジレットパターンリストWedgePatternTableを記録する。
[Buffer 145T5]
The buffer 145T5 records the wedgelet pattern list WedgePatternTable for each block size supplied from the wedgelet pattern list generation unit 145T4.
[DMM1ウェッジレットパターン導出部145T6]
DMM1ウェッジレットパターン導出部145T6は、入力される対象PUサイズnS、ウェッジレットパターンインデックスwedge_full_tab_idxに基づいて、バッファ145T5に格納されたウェッジレットパターンリストWedgePatternTableから、対象PUへ適用するウェッジレットパターンwedgePattern[x][y]を導出し、DC予測画像導出部145T1へ出力する。
[DMM1 wedgelet pattern deriving unit 145T6]
The DMM1 wedgelet pattern deriving unit 145T6, based on the input target PU size nS and the wedgelet pattern index wedge_full_tab_idx, from the wedgelet pattern list WedgePatternTable stored in the buffer 145T5, the wedgelet pattern wedgePattern [x ] [y] is derived and output to the DC predicted image deriving unit 145T1.
wedgePattern[x][y] = WedgePatternTable[log2(nS)][wedge_full_tab_idx][x][y],
with x = 0..nS-1, y = 0..nS-1
ここで、log2(nS)は、対象PUサイズの2を底とする対数値である。
wedgePattern [x] [y] = WedgePatternTable [log2 (nS)] [wedge_full_tab_idx] [x] [y],
with x = 0..nS-1, y = 0..nS-1
Here, log2 (nS) is a logarithmic value with 2 as the target PU size.
[ウェッジレットパターンリスト生成部145T6]
ウェッジレットパターンリスト生成部145T6におけるウェッジレットパターンリストの生成方法を、図15を参照して説明する。まず、全要素が0のウェッジレットパターンを生成する。次に、ウェッジレットパターン内に、始点S(xs,ys)と終点E(xe,ye)を設定する。図15の(a)の例では、始点S(xs,ys)=(3,blocksize-1)、終点E(xe,ye)=(blocksize-1,2)である。次に、始点Sと終点Eの間をBresenhamのアルゴリズムを用いて線分を引く(図15(b)の斜線の要素)。図15(c)の例では、続いて、図15(d)に示すように、例えば、その線分上及び線分より左側の座標に対応する要素を1に設定することで、ウェッジレットパターンwedgePattern[x][y]が生成される。ここで、blocksizeは、ウェッジレットパターンを生成するブロックのサイズ(縦幅、横幅)である。
[Wedgelet pattern list generator 145T6]
A method for generating a wedgelet pattern list in the wedgelet pattern list generation unit 145T6 will be described with reference to FIG. First, a wedgelet pattern in which all elements are 0 is generated. Next, a start point S (xs, ys) and an end point E (xe, ye) are set in the wedgelet pattern. In the example of FIG. 15A, the start point S (xs, ys) = (3, blocksize-1) and the end point E (xe, ye) = (blocksize-1,2). Next, a line segment is drawn between the start point S and the end point E using Bresenham's algorithm (shaded elements in FIG. 15B). In the example of FIG. 15C, subsequently, as shown in FIG. 15D, for example, by setting the element corresponding to the coordinates on the line segment and on the left side of the line segment to 1, the wedgelet pattern wedgePattern [x] [y] is generated. Here, blocksize is the size (vertical width, horizontal width) of the block for generating the wedgelet pattern.
ウェッジレットパターンリスト生成部145T6は、上述したウェッジレットパターンリストの生成方法に基づいて、図16に示すように、主に、6種類のウェッジ方向wedgeOri(wedgeOri=0..5)毎の各始点S(xs,ys), 終点E(xe,ye)に対応するウェッジレットパターンをブロックサイズ別に生成し、ウェッジレットパターンリストWedgePatternTableへ追加する。 As shown in FIG. 16, the wedgelet pattern list generation unit 145T6 mainly uses each of the six start points for each wedge direction wedgeOri (wedgeOri = 0..5) based on the above-described wedgelet pattern list generation method. A wedgelet pattern corresponding to S (xs, ys) and end point E (xe, ye) is generated for each block size and added to the wedgelet pattern list WedgePatternTable.
以上、ウェッジレットパターンリスト生成部145T6は、log2BlkSizeを変数として、log2BlkSize=log2(nMinS)..log2(nMaxS)までの範囲で、ブロックサイズ毎に、(1<<log2BlkSize)×(1<<log2BlkSize)のウェッジレットパターンリストWedgePatternTableを生成することができる。 As described above, the wedgelet pattern list generation unit 145T6 sets (1 << log2BlkSize) × (1 << log2BlkSize) for each block size in the range up to log2BlkSize = log2 (nMinS) .. log2 (nMaxS) using log2BlkSize as a variable. ) Wedgelet pattern list WedgePatternTable.
[DMM4ウェッジレットパターン生成部145T3]
DMM4ウェッジレットパターン生成部145T3は、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を、デプスマップDepthPic上の対象PUに対応する視点画像TexturePic上の輝度の復号画素値recTexPicに基づいて導出し、DC予測画像導出部145T1へ出力する。概略的には、DMM4ウェッジレットパターン生成部は、デプスマップ上の対象PUの2つの領域R0、R1を、対応する視点画像TexturePic上の対象ブロックの輝度の平均値によって、対象ブロックを二値化することで導出する。
[DMM4 wedgelet pattern generator 145T3]
The DMM4 wedgelet pattern generation unit 145T3 converts the wedgelet pattern wedgePattern [x] [y] indicating the division pattern of the target PU into the decoded pixel value recTexPic of the luminance on the viewpoint image TexturePic corresponding to the target PU on the depth map DepthPic. Based on this, it outputs to the DC prediction image deriving unit 145T1. Schematically, the DMM4 wedgelet pattern generation unit binarizes the two blocks R0 and R1 of the target PU on the depth map by the average value of the luminance of the target block on the corresponding viewpoint image TexturePic. To derive.
まず、DMM4ウェッジレットパターン生成部145T3は、外部のフレームメモリ16より、対象PUに対応する視点画像TexturePic上の対応ブロックの輝度復号画素値recTextPicを外部のフレームメモリ16より読み出し、参照画素refSamples[x][y]へ下記式によって設定する。
First, the DMM4 wedgelet pattern generation unit 145T3 reads, from the
refSamples[x][y] = recTexPic[xB + x][yB + y], with x=0..nS-1, y=0..nS-1
参照画素refSamples[x][y]に基づいて、対応ブロックの画素値の総和sumRefValsを下記式で導出する。
refSamples [x] [y] = recTexPic [xB + x] [yB + y], with x = 0..nS-1, y = 0..nS-1
Based on the reference pixel refSamples [x] [y], the sum SumVals of the pixel values of the corresponding block is derived by the following equation.
sumRefVals = ΣrefSamples[x][y], with x=0..nS-1, y=0..nS-1
次に、総和sumRefValsと対象PUサイズnSに基づいて、閾値threshValsを下記式で導出する。すなわち、対応ブロックの平均画素値を導出する。
sumRefVals = ΣrefSamples [x] [y], with x = 0..nS-1, y = 0..nS-1
Next, the threshold value threshVals is derived by the following equation based on the sum sumRefVals and the target PU size nS. That is, the average pixel value of the corresponding block is derived.
threshVal = (sumRefVals >> (2 * log2(nS))
ここで、上記式の代わり、総和sumRefValsを対象PUサイズnSの二乗数nS*nSで除算した値を閾値threshValとしてもよい。
threshVal = (sumRefVals >> (2 * log2 (nS))
Here, instead of the above formula, a value obtained by dividing the sum sumRefVals by the square number nS * nS of the target PU size nS may be used as the threshold threshVal.
続いて、DMM4ウェッジレットパターン生成部145T3は、導出した閾値threshVal、及び参照画素refSamples[x][y]を参照して、対象PUの分割パターンを示すウェッジレットパターンwedgePattern[x][y]を下記式により導出して出力する。 Subsequently, the DMM4 wedgelet pattern generation unit 145T3 refers to the derived threshold value threshVal and the reference pixel refSamples [x] [y], and determines the wedgelet pattern wedgePattern [x] [y] indicating the division pattern of the target PU. Derived by the following formula and output.
wedgePattern[x][y] = (refSamples[x][y]>threshVal)
すなわち、参照画素refSamples[x][y]が、閾値threshValより大きい場合には、ウェッジパターンの要素(x,y)に1を設定する。参照画素refSamples[x][y]が、閾値threshVal以下の場合には、ウェッジレットパターンの要素(x,y)に0を設定する。
wedgePattern [x] [y] = (refSamples [x] [y]> threshVal)
That is, when the reference pixel refSamples [x] [y] is larger than the threshold value threshVal, 1 is set to the element (x, y) of the wedge pattern. When the reference pixel refSamples [x] [y] is equal to or less than the threshold value threshVal, 0 is set to the element (x, y) of the wedgelet pattern.
(作用・効果)
以上説明した本実施形態に係る動画像復号装置1の備える予測画像生成部は、DMM予測が実行される場合、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
When the DMM prediction is executed, the predicted image generation unit included in the
(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減すると共に、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。従って、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。また、条件分岐を5から3へ削減し、分岐処理を低減する効果を奏する。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域RiのDC予測値の導出処理を共通化することで、符号化効率を維持しつつ、予測画像生成に係る処理量を低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case of the division pattern related to the selection of the reference pixel is reduced from 5 to 3, and the condition in the prior art (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff , (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == The division pattern of (1,1) is the condition (A) vertEdgeFlag == horEdgeFlag And derivation of the DC prediction value of each region Ri (i = 0, 1) is made common. Therefore, compared with the conventional technique, it is possible to classify the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. In addition, the conditional branch is reduced from 5 to 3, and the branch processing is reduced. Compared to the prior art, when the vertical edge flag and the horizontal edge flag are the same, the derivation process of the DC prediction value of each region Ri is made common, so that the prediction image can be generated while maintaining the coding efficiency. There exists an effect which reduces the processing amount which concerns. Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.
〔動画像符号化装置〕
以下において、本実施形態に係る動画像符号化装置2について、図17を参照して説明する。
[Moving picture encoding device]
Hereinafter, the moving
(動画像符号化装置の概要)
動画像符号化装置2は、概略的に言えば、入力画像#10を符号化することによって符号化データ#1を生成し、出力する装置である。ここで、入力画像#10は、1又は複数の視点画像TexturePic、及び視点画像TexturePicに対応する同時刻のデプスマップDepthPicからなるレイヤ画像である。
(Outline of video encoding device)
Generally speaking, the moving
(動画像符号化装置の構成)
まず、図17を用いて、動画像符号化装置2の構成例について説明する。図17は、動画像符号化装置2の構成について示す機能ブロック図である。図17に示すように、動画像符号化装置2は、符号化設定部21、逆量子化・逆変換部22、予測画像生成部23、加算器24、フレームメモリ25、減算器26、変換・量子化部27、および符号化データ生成部29を備えている。
(Configuration of video encoding device)
First, a configuration example of the
符号化設定部21は、入力画像#10に基づいて、符号化に関する画像データおよび各種の設定情報を生成する。
The
具体的には、符号化設定部21は、次の画像データおよび設定情報を生成する。
Specifically, the
まず、符号化設定部21は、入力画像#10を、スライス単位、ツリーブロック単位、CU単位に順次分割することにより、対象CUについてのCU画像#100を生成する。
First, the
また、符号化設定部21は、分割処理の結果に基づいて、ヘッダ情報H’を生成する。ヘッダ情報H’は、(1)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報、並びに、(2)各ツリーブロックに属するCUのサイズ、形状および対象ツリーブロック内での位置についてのCU情報CU’を含んでいる。
Also, the
さらに、符号化設定部21は、CU画像#100、および、CU情報CU’を参照して、PT設定情報PTI’を生成する。PT設定情報PTI’には、(1)対象CUの各PUへの可能な分割パターン、および、(2)各PUに割り付ける可能な予測モード、の全ての組み合わせに関する情報が含まれる。
Further, the
符号化設定部21は、CU画像#100を減算器26に供給する。また、符号化設定部21は、ヘッダ情報H’を符号化データ生成部29に供給する。また、符号化設定部21は、PT設定情報PTI’を予測画像生成部23に供給する。
The
逆量子化・逆変換部22は、変換・量子化部27より供給される、ブロック毎の量子化予測残差を、逆量子化、および、逆直交変換することによって、ブロック毎の予測残差を復元する。逆直交変換については、図3に示す逆量子化・逆変換部13について、既に説明したとおりであるので、ここではその説明を省略する。
The inverse quantization /
また、逆量子化・逆変換部22は、ブロック毎の予測残差を、TT分割情報(後述)により指定される分割パターンに従って統合し、対象CUについての予測残差Dを生成する。逆量子化・逆変換部22は、生成した対象CUについての予測残差Dを、加算器24に供給する。
Further, the inverse quantization /
予測画像生成部23は、フレームメモリ25に記録されている局所復号画像P’、および、PT設定情報PTI’を参照して、対象CUについての予測画像Predを生成する。予測画像生成部23は、予測画像生成処理により得られた予測パラメータを、PT設定情報PTI’に設定し、設定後のPT設定情報PTI’を符号化データ生成部29に転送する。なお、予測画像生成部23による予測画像生成処理は、動画像復号装置1の備える予測画像生成部14と同様であるので、ここでは説明を省略する。
The predicted
加算器24は、予測画像生成部23より供給される予測画像Predと、逆量子化・逆変換部22より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。
The
フレームメモリ25には、復号された復号画像Pが順次記録される。フレームメモリ25には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が記録されている。
Decoded decoded images P are sequentially recorded in the
減算器26は、CU画像#100から予測画像Predを減算することによって、対象CUについての予測残差Dを生成する。減算器26は、生成した予測残差Dを、変換・量子化部27に供給する。
The
変換・量子化部27は、予測残差Dに対して、直交変換および量子化を行うことで量子化予測残差を生成する。なお、ここで直交変換とは、画素領域から周波数領域への変換のことをさす。また、逆直交変換の例としては、DCT変換(Discrete Cosine Transform)、およびDST変換(Discrete Sine Transform)等が挙げられる。
The transform /
具体的には、変換・量子化部27は、CU画像#100、および、CU情報CU’を参照し、対象CUの1または複数のブロックへの分割パターンを決定する。また、決定された分割パターンに従って、予測残差Dを、各ブロックについての予測残差に分割する。
Specifically, the transform /
また、変換・量子化部27は、各ブロックについての予測残差を直交変換することによって周波数領域における予測残差を生成した後、当該周波数領域における予測残差を量子化することによってブロック毎の量子化予測残差を生成する。なお、変換部・量子化部27は、SDCフラグが1の場合、周波数変換・量子化を省略し、対象TUの画素毎の予測残差D(又はresSamples[x][y])を0とする。
The transform /
また、変換・量子化部27は、生成したブロック毎の量子化予測残差と、対象CUの分割パターンを指定するTT分割情報と、対象CUの各ブロックへの可能な全分割パターンに関する情報とを含むTT設定情報TTI’を生成する。変換・量子化部27は、生成したTT設定情報TTI’を逆量子化・逆変換部22および符号化データ生成部29に供給する。
In addition, the transform /
符号化データ生成部29は、ヘッダ情報H’、TT設定情報TTI’、およびPT設定情報PTI’を符号化し、符号化したヘッダ情報H、TT設定情報TTI、およびPT設定情報PTIを多重化して符号化データ#1を生成し、出力する。
The encoded
(作用・効果)
以上説明した本実施形態に係る動画像符号化装置2の備える予測画像生成部は、DMM予測が実行される場合、ウェッジレットパターンから導出される垂直エッジフラグvertEdgeFlag、及び水平エッジフラグhorEdgeFlagに基づいて、対象PUの分割パターンを、下記3つの場合に分けて、各場合分け毎に、各領域Ri(i=0,1)に利用する参照画素を選択し、DC予測値を導出する。
(Action / Effect)
When the DMM prediction is executed, the predicted image generation unit included in the
(A)vertEdgeFlag==horEdgeFlag,
(B)(vertEdgeFlag,horEdgeFlag) == (0,1),
(C)(vertEdgeFlag,horEdgeFlag) == (1,0),
従来技術と比較して、参照画素の選択に係る分割パターンの場合分けを5から3へ削減すると共に、従来技術における条件(a)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff>vertAbsDiff,(b)(vertEdgeFlag,horEdgeFlag)==(0,0) && horAbsDiff<=vertAbsDiff, (c)(vertEdgeFlag,horEdgeFlag)==(1,1)の分割パターンを、条件(A)vertEdgeFlag==horEdgeFlagとして統合し、各領域Ri(i=0,1)のDC予測値の導出を共通化している。従って、従来技術と比較して、参照画素間の画素強度を算出することなく、水平エッジフラグ、及び垂直エッジフラグのみに基づいて、参照画素の選択に係る分割パターンの場合分けを行うことが可能である。また、条件分岐を5から3へ削減し、分岐処理を低減する効果を奏する。また、従来技術と比較して、垂直エッジフラグと水平エッジフラグが等しい場合において、各領域RiのDC予測値の導出処理を共通化することで、符号化効率を維持しつつ、予測画像生成に係る処理量を低減する効果を奏する。また、本実施例では、各領域Ri(i=0,1)のDC予測値の導出に利用する参照画素を、各分割パターンの場合分け(A)〜(C)毎に互いに異なる参照画素とし、さらに、各分割パターン毎、領域毎に好適な位置の参照画素を利用する。これによって、各分割パターン毎に重複した参照画素を利用せずに、各分割パターン毎に、好適な各領域のDC予測値を導出することができる。
(A) vertEdgeFlag == horEdgeFlag,
(B) (vertEdgeFlag, horEdgeFlag) == (0,1),
(C) (vertEdgeFlag, horEdgeFlag) == (1,0),
Compared with the prior art, the case of the division pattern related to the selection of the reference pixel is reduced from 5 to 3, and the condition in the prior art (a) (vertEdgeFlag, horEdgeFlag) == (0,0) &&horAbsDiff> vertAbsDiff , (b) (vertEdgeFlag, horEdgeFlag) == (0,0) && horAbsDiff <= vertAbsDiff, (c) (vertEdgeFlag, horEdgeFlag) == The division pattern of (1,1) is the condition (A) vertEdgeFlag == horEdgeFlag And derivation of the DC prediction value of each region Ri (i = 0, 1) is made common. Therefore, compared with the conventional technique, it is possible to classify the divided pattern related to the selection of the reference pixel based only on the horizontal edge flag and the vertical edge flag without calculating the pixel intensity between the reference pixels. It is. In addition, the conditional branch is reduced from 5 to 3, and the branch processing is reduced. Compared to the prior art, when the vertical edge flag and the horizontal edge flag are the same, the derivation process of the DC prediction value of each region Ri is made common, so that the prediction image can be generated while maintaining the coding efficiency. There exists an effect which reduces the processing amount which concerns. Further, in this embodiment, the reference pixels used for the derivation of the DC prediction value of each region Ri (i = 0, 1) are different reference pixels for each case division (A) to (C) of each division pattern. Furthermore, reference pixels at suitable positions are used for each divided pattern and each region. Accordingly, it is possible to derive a suitable DC prediction value for each region for each division pattern without using a reference pixel that is duplicated for each division pattern.
〔応用例〕
上述した動画像符号化装置2及び動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
[Application example]
The above-described moving
まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図18を参照して説明する。
First, it will be described with reference to FIG. 18 that the above-described moving
図18の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図18の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。
FIG. 18A is a block diagram illustrating a configuration of a transmission device PROD_A in which the moving
送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、及び、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図18の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。 The transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, and an input terminal PROD_A6 for inputting the moving image from the outside as a supply source of the moving image input to the encoding unit PROD_A1. And an image processing unit A7 for generating or processing an image. FIG. 18A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but a part of the configuration may be omitted.
なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。 The recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
図18の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図18の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。
FIG. 18B is a block diagram illustrating a configuration of the receiving device PROD_B in which the
受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図18の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。 The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. FIG. 18B illustrates a configuration in which the reception apparatus PROD_B includes all of these, but a part may be omitted.
なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。 The recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。 Note that the transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。 For example, a terrestrial digital broadcast broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting. Further, a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。 Also, a server (workstation or the like) / client (television receiver, personal computer, smartphone, etc.) such as a VOD (Video On Demand) service or a video sharing service using the Internet transmits and receives a modulated signal by communication. This is an example of PROD_A / reception device PROD_B (usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multi-function mobile phone terminal.
なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。 Note that the client of the video sharing service has a function of encoding a moving image captured by a camera and uploading it to the server in addition to a function of decoding the encoded data downloaded from the server and displaying it on the display. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図19を参照して説明する。
Next, it will be described with reference to FIG. 19 that the above-described moving
図19の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図19の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。
FIG. 19A is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving
なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc(登録商標))などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 The recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc (registered) Or a drive device (not shown) built in the recording device PROD_C.
また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、及び、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図19の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。 The recording device PROD_C receives a moving image as a supply source of a moving image to be input to the encoding unit PROD_C1, a camera PROD_C3 that captures a moving image, an input terminal PROD_C4 for inputting a moving image from the outside, and a moving image. May include a receiving unit PROD_C5 and an image processing unit C6 that generates or processes an image. FIG. 19A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but a part of the configuration may be omitted.
なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。 The receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HD(Hard Disk)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。 Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HD (Hard Disk) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images). In addition, a camcorder (in this case, the camera PROD_C3 is a main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 is a main source of moving images), a smartphone (in this case, the camera PROD_C3 or The receiving unit PROD_C5 or the image processing unit C6 is a main supply source of moving images) is also an example of such a recording apparatus PROD_C.
図19の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図19の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。
FIG. 19B is a block diagram illustrating a configuration of a playback device PROD_D in which the above-described
なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 Note that the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図19の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。 In addition, the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2. PROD_D5 may be further provided. FIG. 19B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but some of the configurations may be omitted.
なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。 The transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。 Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). . In addition, a television receiver (in this case, the display PROD_D3 is a main supply destination of moving images), a digital signage (also referred to as an electronic signboard or an electronic bulletin board), and the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images. Desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is the main video image supply destination), laptop or tablet PC (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a moving image) A smartphone (which is a main image supply destination), a smartphone (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a main moving image supply destination), and the like are also examples of such a playback device PROD_D.
(ハードウェア的実現およびソフトウェア的実現)
また、上述した動画像復号装置1および動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Hardware implementation and software implementation)
Each block of the moving
後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 In the latter case, each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read-Only Memory)/MOディスク(Magneto-Optical disc)/MD(Mini Disc)/DVD(Digital Versatile Disc)/CD−R(CD Recordable)/ブルーレイディスク(Blu-ray Disc(登録商標))等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-Only Memory)/EEPROM(Electrically Erasable and Programmable Read-Only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。 Examples of the recording medium include tapes such as magnetic tape and cassette tape, magnetic disks such as floppy (registered trademark) disks / hard disks, CD-ROM (Compact Disc Read-Only Memory) / MO disks (Magneto-Optical discs), and the like. ) / MD (Mini Disc) / DVD (Digital Versatile Disc) / CD-R (CD Recordable) / Blu-ray Disc (Blu-ray Disc (registered trademark)) and other optical disks, IC cards (including memory cards) ) / Cards such as optical cards, mask ROM / EPROM (Erasable Programmable Read-Only Memory) / EEPROM (Electrically Erasable and Programmable Read-Only Memory) / semiconductor memories such as flash ROM, or PLD (Programmable Logic Device) Logic circuits such as an FPGA (Field Programmable Gate Array) can be used.
また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna television/Cable Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 Further, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, Internet, Intranet, Extranet, LAN (Local Area Network), ISDN (Integrated Services Digital Network), VAN (Value-Added Network), CATV (Community Antenna television / Cable Television) communication network, Virtual Private Network (Virtual Private Network) Network), telephone line network, mobile communication network, satellite communication network, and the like. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, infra-red such as IrDA (Infrared Data Association) or remote control even with wired such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc. , Bluetooth (registered trademark), IEEE 802.11 wireless, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network, etc. Is possible. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
本発明は、画像データが符号化された符号化データを復号する画像復号装置、および、画像データが符号化された符号化データを生成する画像符号化装置に好適に適用することができる。また、画像符号化装置によって生成され、画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 The present invention can be suitably applied to an image decoding apparatus that decodes encoded data obtained by encoding image data and an image encoding apparatus that generates encoded data obtained by encoding image data. Further, the present invention can be suitably applied to the data structure of encoded data generated by an image encoding device and referenced by the image decoding device.
1 動画像復号装置(画像復号装置)
11 可変長復号部(DMM予測モード情報復号手段)
111 DCオフセット情報復号部(DCオフセット情報復号手段)
13 逆量子化・逆変換部
14 予測画像生成部
141 予測単位設定部
142 参照画素設定部
143 スイッチ
144 参照画素フィルタ部
145 予測画像導出部
145D DC予測部
145P Planar予測部
145A Angular予測部
145T DMM予測部(DMM予測装置)
145T1 DC予測画像導出部
145T2 DMM1ウェッジレットパターン生成部
145T3 DMM4ウェッジレットパターン生成部
145T5 ウェッジレットパターンリスト生成部
145T5 バッファ
145T6 DMM1ウェッジレットパターン導出部
146 エッジフラグ導出部
147 DC予測値導出部
148 予測画像導出部
15 加算器
16 フレームメモリ
2 動画像符号化装置
21 符号化設定部
22 逆量子化・逆変換部
23 予測画像生成部
24 加算器
25 フレームメモリ
26 減算器
27 変換・量子化部
29 符号化データ生成部(DMM予測モード情報符号化手段)
1 video decoding device (image decoding device)
11 Variable length decoding unit (DMM prediction mode information decoding means)
111 DC offset information decoding unit (DC offset information decoding means)
13 Inverse quantization /
145T1 DC predicted image derivation unit 145T2 DMM1 wedgelet pattern generation unit 145T3 DMM4 wedgelet pattern generation unit 145T5 wedgelet pattern list generation unit 145T5 buffer 145T6 DMM1 wedgelet
Claims (10)
前記ウェッジレットパターンから垂直エッジフラグ、及び水平エッジフラグを導出するエッジフラグ導出手段と、
対象PUの参照画素から各領域のDC予測値を導出するDC予測値導出手段と、
前記ウェッジレットパターン、前記各領域のDC予測値、及び各領域のDCオフセット情報に基づいて、対象PUの予測画像を導出する予測画像導出手段を備えるDMM予測装置であって、
前記DC予測値導出手段は、前記垂直エッジフラグと前記水平エッジフラグが等しい場合と、前記垂直エッジフラグが0かつ前記水平エッジフラグが1の場合と、前記垂直エッジフラグが1かつ前記水平エッジフラグが0の場合それぞれにおいて、各領域のDC予測値の導出に利用する参照画素が互いに異なることを特徴とするDMM予測装置。 Wedgelet pattern deriving means for deriving a wedgelet pattern indicating that the target PU is divided into the first region and the second region;
Edge flag deriving means for deriving a vertical edge flag and a horizontal edge flag from the wedgelet pattern;
DC predicted value derivation means for deriving the DC predicted value of each region from the reference pixel of the target PU;
A DMM prediction apparatus comprising prediction image derivation means for deriving a prediction image of a target PU based on the wedgelet pattern, a DC prediction value of each region, and DC offset information of each region,
The DC prediction value deriving means includes the case where the vertical edge flag is equal to the horizontal edge flag, the case where the vertical edge flag is 0 and the horizontal edge flag is 1, and the case where the vertical edge flag is 1 and the horizontal edge flag. A DMM prediction apparatus, wherein reference pixels used for derivation of a DC prediction value of each region are different from each other in the case where is 0.
前記対象PUの最左上画素を基準にして、x方向へ−1、x方向へ2*nS−1の位置にある参照画素と、x方向へ2*nS−1、y方向へ−1の位置にある参照画素との平均値を、第2の領域に対するDC予測値として導出することを特徴とする請求項1に記載のDMM予測装置。 When the vertical edge flag and the horizontal edge flag are the same, the DC prediction value deriving means uses a reference pixel at a position of −1 in the x direction and 0 in the y direction on the basis of the upper left pixel of the target PU. , The average value of the reference pixel at the position of 0 in the x direction and −1 in the y direction is the DC predicted value for the first region,
A reference pixel at a position of 2 * nS-1 in the x direction and 2 * nS-1 in the x direction and a position of -1 in the y direction with respect to the upper left pixel of the target PU 2. The DMM prediction apparatus according to claim 1, wherein an average value with reference pixels in the second region is derived as a DC prediction value for the second region.
DMM予測に関するDMM予測モード情報を復号するDMM予測モード情報復号手段を備える画像復号装置であって、
上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする画像復号装置。 The DMM prediction apparatus according to any one of claims 1 to 8,
An image decoding apparatus comprising DMM prediction mode information decoding means for decoding DMM prediction mode information related to DMM prediction,
The DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.
DMM予測に関するDMM予測モード情報を符号化するDMM予測モード情報符号化手段を備える画像符号化装置であって、
上記DMM予測装置は、前記DMM予測モード情報が、DMM予測を示す場合に、DMM予測を行うことを特徴とする画像符号化装置。 The DMM prediction apparatus according to any one of claims 1 to 8,
An image encoding device including DMM prediction mode information encoding means for encoding DMM prediction mode information related to DMM prediction,
The DMM prediction apparatus performs DMM prediction when the DMM prediction mode information indicates DMM prediction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014203824A JP2016072941A (en) | 2014-10-02 | 2014-10-02 | Dmm prediction device, image decoding device and image encoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014203824A JP2016072941A (en) | 2014-10-02 | 2014-10-02 | Dmm prediction device, image decoding device and image encoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016072941A true JP2016072941A (en) | 2016-05-09 |
Family
ID=55865108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014203824A Pending JP2016072941A (en) | 2014-10-02 | 2014-10-02 | Dmm prediction device, image decoding device and image encoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016072941A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107592538A (en) * | 2017-09-06 | 2018-01-16 | 华中科技大学 | A kind of method for reducing stereoscopic video depth map encoder complexity |
-
2014
- 2014-10-02 JP JP2014203824A patent/JP2016072941A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107592538A (en) * | 2017-09-06 | 2018-01-16 | 华中科技大学 | A kind of method for reducing stereoscopic video depth map encoder complexity |
CN107592538B (en) * | 2017-09-06 | 2019-07-23 | 华中科技大学 | A method of reducing stereoscopic video depth map encoder complexity |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10142653B2 (en) | Image decoding apparatus, image coding apparatus, and coded data transformation apparatus | |
JP6441418B2 (en) | Image decoding apparatus, image decoding method, image coding apparatus, and image coding method | |
US10136161B2 (en) | DMM prediction section, image decoding device, and image coding device | |
US20190075323A1 (en) | Image decoding device, image encoding device, and image decoding method | |
US10225567B2 (en) | Image decoder, image encoder, and encoded data converter | |
US10841600B2 (en) | Image decoding device, an image encoding device and a decoding method | |
US20160249056A1 (en) | Image decoding device, image coding device, and coded data | |
WO2014115283A1 (en) | Image decoding device and image encoding device | |
CA3100316A1 (en) | Image encoding device, encoded stream extraction device, and image decoding device | |
JP5995448B2 (en) | Image decoding apparatus and image encoding apparatus | |
WO2014007131A1 (en) | Image decoding device and image encoding device | |
JPWO2014104242A1 (en) | Image decoding apparatus and image encoding apparatus | |
JP2015073213A (en) | Image decoder, image encoder, encoded data converter, and interest area display system | |
JP2016072941A (en) | Dmm prediction device, image decoding device and image encoding device | |
JP6162289B2 (en) | Image decoding apparatus and image decoding method | |
WO2013161689A1 (en) | Motion video decoding device and motion video coding device | |
JP2016076904A (en) | Dc offset information decoder, image decoder and dc offset information encoder | |
JP2016143962A (en) | Region splitting image generating apparatus, image decoder, and encoder | |
WO2014050554A1 (en) | Image decoding device and image coding device | |
JP2016066981A (en) | Dmm prediction section, image decoder, and image encoder | |
JP2023142460A (en) | 3D data encoding device and 3D data decoding device | |
JP2015177318A (en) | Image decoder and image encoder | |
JP2013251827A (en) | Image filter device, image decoding device, image encoding device, and data structure | |
JP2014013976A (en) | Image decoding device and image coding device | |
JP2015076807A (en) | Image decoder, image encoder, and data structure of coded data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20161104 |