JP6441236B2 - 画像復号装置及び画像符号化装置 - Google Patents
画像復号装置及び画像符号化装置 Download PDFInfo
- Publication number
- JP6441236B2 JP6441236B2 JP2015553536A JP2015553536A JP6441236B2 JP 6441236 B2 JP6441236 B2 JP 6441236B2 JP 2015553536 A JP2015553536 A JP 2015553536A JP 2015553536 A JP2015553536 A JP 2015553536A JP 6441236 B2 JP6441236 B2 JP 6441236B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- unit
- merge candidate
- image
- merge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000009795 derivation Methods 0.000 claims description 149
- 238000006073 displacement reaction Methods 0.000 claims description 141
- 230000033001 locomotion Effects 0.000 claims description 83
- 239000013598 vector Substances 0.000 description 224
- 239000010410 layer Substances 0.000 description 144
- 238000000034 method Methods 0.000 description 43
- 238000013139 quantization Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 32
- 230000015572 biosynthetic process Effects 0.000 description 27
- 238000003786 synthesis reaction Methods 0.000 description 27
- 238000005286 illumination Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000005192 partition Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 239000011229 interlayer Substances 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 230000006854 communication Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920000069 polyphenylene sulfide Polymers 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
以下、図面を参照しながら本発明の実施形態について説明する。
本実施形態に係る画像符号化装置11および画像復号装置31の詳細な説明に先立って、画像符号化装置11によって生成され、画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。シーケンスSEQは、図2の(a)に示すように、ビデオパラメータセット(Video Parameter Set)シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤID(nuh_layer_id)を示す。図2では、#0と#1すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれによらない。レイヤID(nuh_layer_id)が0のレイヤをベースレイヤ、レイヤID(nuh_layer_id)が0以外のレイヤがエンハンスメントレイヤに対応する。
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図2の(b)に示すように、スライスS0〜SNS−1を含んでいる(NSはピクチャPICTに含まれるスライスの総数)。
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。スライスSは、図2の(c)に示すように、スライスヘッダSH、および、スライスデータSDATAを含んでいる。
スライスデータレイヤでは、処理対象のスライスデータSDATAを復号するために画像復号装置31が参照するデータの集合が規定されている。スライスデータSDATAは、図2の(d)に示すように、符号化ツリーブロック(CTB:Coded Tree Block)を含んでいる。CTBは、スライスを構成する固定サイズ(例えば64×64)のブロックであり、最大符号化単位(LCU:Largest Cording Unit)と呼ぶこともある。
符号化ツリーレイヤは、図2の(e)に示すように、処理対象の符号化ツリーブロックを復号するために画像復号装置31が参照するデータの集合が規定されている。符号化ツリーユニットは、再帰的な4分木分割により分割される。再帰的な4分木分割により得られる木構造のノードのことを符号化ツリー(coding tree)と称する。4分木の中間ノードは、符号化ツリーユニット(CTU:Coded Tree Unit)であり、符号化ツリーブロック自身も最上位のCTUとして規定される。CTUは、分割フラグ(split_flag)を含み、split_flagが1の場合には、4つの符号化ツリーユニットCTUに分割される。split_flagが0の場合には、符号化ツリーユニットCTUは4つの符号化ユニット(CU:Coded Unit)に分割される。符号化ユニットCUは符号化ツリーレイヤの末端ノードであり、このレイヤではこれ以上分割されない。符号化ユニットCUは、符号化処理の基本的な単位となる。
符号化ユニットレイヤは、図2の(f)に示すように、処理対象の符号化ユニットを復号するために画像復号装置31が参照するデータの集合が規定されている。具体的には、符号化ユニットは、CUヘッダCUH、予測ツリー、変換ツリー、CUヘッダCUFから構成される。CUヘッダCUHでは、符号化ユニットが、イントラ予測を用いるユニットであるか、インター予測を用いるユニットであるかなどが規定される。また、CUヘッダCUHには、符号化ユニットが、残差予測に用いる重み(もしくは残差予測を行うか否か)を示す残差予測重みインデックスiv_res_pred_weight_idxや、照度補償予測を用いるか否かを示す照度補償フラグic_flagを含む。符号化ユニットは、予測ツリー(prediction tree;PT)および変換ツリー(transform tree;TT)のルートとなる。CUヘッダCUFは、予測ツリーと変換ツリーの間、もしくは、変換ツリーの後に含まれる。
予測ユニットの予測画像は、予測ユニットに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測の予測パラメータもしくはインター予測の予測パラメータがある。以下、インター予測の予測パラメータ(インター予測パラメータ)について説明する。インター予測パラメータは、予測リスト利用フラグpredFlagL0、predFlagL1と、参照ピクチャインデックスrefIdxL0、refIdxL1と、ベクトルmvL0、mvL1から構成される。予測リスト利用フラグpredFlagL0、predFlagL1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストが用いられるか否かを示すフラグであり、値が1の場合に対応する参照ピクチャリストが用いられる。なお、本明細書中「XXであるか否かを示すフラグ」と記す場合、1をXXである場合、0をXXではない場合とし、論理否定、論理積などでは1を真、0を偽と扱う(以下同様)。但し、実際の装置や方法では真値、偽値として他の値を用いることもできる。2つの参照ピクチャリストが用いられる場合、つまり、(predFlagL0,predFlagL1) = (1, 1)の場合が、双予測に対応し、1つの参照ピクチャリストを用いる場合、すなわち(predFlagL0, predFlagL1) = (1, 0)もしくは(predFlagL0, predFlagL1) = (0, 1)の場合が単予測に対応する。なお、予測リスト利用フラグの情報は、後述のインター予測フラグinter_pred_idcで表現することもできる。通常、後述の予測画像生成部、予測パラメータメモリでは、予測リスト利用フラグが用いれ、符号化データから、どの参照ピクチャリストが用いられるか否かの情報を復号する場合にはインター予測フラグinter_pred_idcが用いられる。
次に、参照ピクチャリストの一例について説明する。参照ピクチャリストとは、参照ピクチャメモリ306(図5)に記憶された参照ピクチャからなる列である。図3は、参照ピクチャリストRefPicListXの一例を示す概念図である。参照ピクチャリストRefPicListXにおいて、左右に一列に配列された5個の長方形は、それぞれ参照ピクチャを示す。左端から右へ順に示されている符号、P1、P2、Q0、P3、P4は、それぞれの参照ピクチャを示す符号である。P1等のPとは、視点Pを示し、そしてQ0のQとは、視点Pとは異なる視点Qを示す。P及びQの添字は、ピクチャ順序番号POCを示す。refIdxLXの真下の下向きの矢印は、参照ピクチャインデックスrefIdxLXが、参照ピクチャメモリ306において参照ピクチャQ0を参照するインデックスであることを示す。
次に、ベクトルを導出する際に用いる参照ピクチャの例について説明する。図4は、参照ピクチャの例を示す概念図である。図4において、横軸は表示時刻を示し、縦軸は視点を示す。図4に示されている、縦2行、横3列(計6個)の長方形は、それぞれピクチャを示す。6個の長方形のうち、下行の左から2列目の長方形は復号対象のピクチャ(対象ピクチャ)を示し、残りの5個の長方形がそれぞれ参照ピクチャを示す。対象ピクチャから上向きの矢印で示される参照ピクチャQ0は対象ピクチャと同表示時刻であって視点(ビューID)が異なるピクチャである。対象ピクチャを基準とする変位予測においては、参照ピクチャQ0が用いられる。対象ピクチャから左向きの矢印で示される参照ピクチャP1は、対象ピクチャと同じ視点であって、過去のピクチャである。対象ピクチャから右向きの矢印で示される参照ピクチャP2は、対象ピクチャと同じ視点であって、未来のピクチャである。対象ピクチャを基準とする動き予測においては、参照ピクチャP1又はP2が用いられる。
インター予測フラグinter_pred_idcと、予測リスト利用フラグpredFlagL0、predFlagL1の関係は
inter_pred_idc = (predFlagL1<<1) + predFlagL0
predFlagL0 =inter_pred_idc & 1
predFlagL1 =inter_pred_idc >> 1
の式を用いて相互に変換可能である。ここで、>>は右シフト、<<は左シフトである。そのため、インター予測パラメータとしては、予測リスト利用フラグpredFlagL0、predFlagL1を用いても良いし、インター予測フラグinter_pred_idcを用いてもよい。また、以下、予測リスト利用フラグpredFlagL0、predFlagL1を用いた判定は、インター予測フラグinter_pred_idcに置き替えても可能である。逆に、インター予測フラグinter_pred_idcを用いた判定は、予測リスト利用フラグpredFlagL0、predFlagL1に置き替えても可能である。
予測パラメータの復号(符号化)方法には、マージ(merge)モードとAMVP(Adaptive Motion Vector Prediction、適応動きベクトル予測)モードがある、マージフラグmerge_flagは、これらを識別するためのフラグである。マージモードでも、AMVPモードでも、既に処理済みのブロックの予測パラメータを用いて、対象PUの予測パラメータが導出される。マージモードは、予測リスト利用フラグpredFlagLX(インター予測フラグinter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めずに、既に導出した予測パラメータをそのまま用いるモードであり、AMVPモードは、インター予測フラグinter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めるモードである。なおベクトルmvLXは、予測ベクトルを示す予測ベクトルフラグmvp_LX_flagと差分ベクトル(mvdLX)として符号化される。
ベクトルmvLXには、動きベクトルと変位ベクトル(disparity vector、視差ベクトル)がある。動きベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、異なる表示時刻(例えば、隣接する離散時刻)における同一のレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。変位ベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、同一の表示時刻における異なるレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。異なるレイヤのピクチャとしては、異なる視点のピクチャである場合、もしくは、異なる解像度のピクチャである場合などがある。特に、異なる視点のピクチャに対応する変位ベクトルを視差ベクトルと呼ぶ。以下の説明では、動きベクトルと変位ベクトルを区別しない場合には、単にベクトルmvLXと呼ぶ。ベクトルmvLXに関する予測ベクトル、差分ベクトルを、それぞれ予測ベクトルmvpLX、差分ベクトルmvdLXと呼ぶ。ベクトルmvLXおよび差分ベクトルmvdLXが、動きベクトルであるか、変位ベクトルであるかは、ベクトルに付随する参照ピクチャインデックスrefIdxLXを用いて行われる。
次に、本実施形態に係る画像復号装置31の構成について説明する。図5は、本実施形態に係る画像復号装置31の構成を示す概略図である。画像復号装置31は、エントロピー復号部301、予測パラメータ復号部302、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)306、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)307、予測画像生成部308、逆量子化・逆DCT部311、加算部312、及び図示されないデプスDV導出部351を含んで構成される。画像復号装置31は、複数の視点画像およびデプス画像から構成され、ベースレイヤおよびエンハンスメントレイヤから構成される符号化データを復号する画像復号手段である。
log2Div = BitDepthY - 1 + cp_precision
offset = ( cp_off << BitDepthY ) + ( ( 1 << log2Div ) >> 1 )
scale = cp_scale
DepthToDisparityB[ d ] = ( scale * d + offset ) >> log2Div
の式によって求めることができる。パラメータcp_scale、cp_off、cp_precisionは参照する視点毎に符号化データ中のパラメータセットから復号する。なお、BitDepthYは輝度信号に対応する画素値のビット深度を示しており、例えば、値として8をとる。
次に、インター予測パラメータ復号部303の構成について説明する。図6は、本実施形態に係るインター予測パラメータ復号部303の構成を示す概略図である。インター予測パラメータ復号部303は、インター予測パラメータ復号制御部3031、AMVP予測パラメータ導出部3032、加算部3035及びマージモードパラメータ導出部3036、変位導出部30363を含んで構成される。
A1:( xPb - 1, yPb + nPbH - 1 )
B0:( xPb + nPbW, yPb - 1 )
B1:( xPb + nPbW - 1, yPb - 1 )
B2:( xPb - 1, yPb - 1 )
拡張マージ候補導出部303612は、変位ベクトル導出部レイヤ間マージ候補導出部3036121、変位マージ候補導出部3036123、VSPマージ候補導出部3036124を含んで構成される。拡張マージ候補は、後述の基本マージ候補とは異なるマージ候補であり、少なくとも、テクスチャマージ候補(T)、インタービュ−マージ候補(IvMC)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)の何れかを含む。
レイヤ間マージ候補導出部3036121は、テクスチャマージ候補(T)とインタービューマージ候補(IvMC)、動きシフトマージ候補(IvMCShift)を導出する。これらマージ候補は、対象ピクチャと同一POCを持つ別レイヤ(例えばベースレイヤ、ベースビュー)の参照ピクチャから、予測ユニットに対応するブロックを選択し、該ブロックが有する動きベクトルである予測パラメータを予測パラメータメモリ307から読み出すことで導出される。
参照ブロックの座標(xRef, yRef)は、予測ユニットの左上座標をxPb、yPb、予測ユニットの幅と高さをnPbW、nPbHとする場合、以下の式から導出される。
yRefFull = yPb + ( ( nPbH - 1 ) >> 1 )
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1,( yRefFull >> 3 ) << 3 )
なお、PicWidthInSamplesLとPicHeightInSamplesL は、それぞれ画像の幅と高さを表し、関数Clip3(x,y,z)は、zをx以上、y以下に制限(クリップ)し、その制限した結果を返す関数である。
mvLXT[ 1 ] = ( textMvLX[ xRef ][ yRef ][ 1 ] + 2 ) >> 2
なお、テクスチャマージ候補では、予測ユニットをさらに分割したサブブロック単位で予測パラメータを割り当てても構わない。
インタービューマージ候補は、レイヤ間マージ候補導出部3036121において、変位ベクトル導出部30363が特定した対象ピクチャと同一POCを有し、異なるビューIDを有するピクチャの参照ブロックから動きベクトルなどの予測パラメータを読み出すことで導出される。参照ブロックの座標(xRef, yRef)は、予測ユニットの左上座標を(xPb、yPb)、予測ユニットの幅と高さをnPbW、nPbH、変位ベクトル導出部30363から導出される変位ベクトルを(mvDisp[0], mvDisp[1])とする場合、以下の式から導出される。
yRefFull = yPb + ( nPbH >> 1 ) + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1, ( yRefFull >> 3 ) << 3 )
なお、インタービューマージ候補では、予測ユニットをさらに分割したサブブロック単位で予測パラメータを割り当てても構わない。例えば、予測ユニットの幅と高さがnPbW、nPbH、サブブロックの最小サイズがSubPbSizeの場合には、サブブロックの幅nSbWと高さnSbHを以下の式により導出する。
SbH = nPbH / SubPbSize <= 1 ? nPbH : SubPbSize
続いて、サブブロックに対応するベクトルspMvLX、参照ピクチャインデックスspRefIdxLX、予測リスト利用フラグspPredFlagLXから、インタービューマージ候補のベクトルmvLXInterView、参照ピクチャインデックスrefIdxLXInterView、予測リスト利用フラグavailableFlagLXInterViewを以下の式により導出する。
refIdxLXInterView = spRefIdxLX[ xBlk ][ yBlk ]
availableFlagLXInterView = spPredFlagLX[ xBlk ][ yBlk ]
なお、xBlk、yBlkはサブブロックアドレスであり、各々0から( nPbW / nSbW - 1 )、0から( nPbH / nSbH - 1 )の値をとる。
動きシフトマージ候補も、レイヤ間マージ候補導出部3036121において、変位ベクトル導出部30363が特定した対象ピクチャと同一POCを有し、異なるビューIDを有するピクチャの参照ブロックから動きベクトルなどの予測パラメータを読み出すことで導出される。参照ブロックの座標(xRef, yRef)、予測ユニットの左上座標をxPb、yPb、予測ユニットの幅と高さをnPbW、nPbH、変位ベクトル導出部30363から導出される変位ベクトルが、mvDisp[0], mvDisp[1]とする場合、以下の式から導出される。
)
yRefFull = yPb + ( nPbH >> 1 ) + ( ( mvDisp[ 1 ] + nPbH * 2 + 4 + 2 ) >> 2
)
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1, ( yRefFull >> 3 ) << 3 )
変位マージ候補導出部3036123は、変位ベクトル導出部30363から入力される変位ベクトルから、変位マージ候補(IvDC)、シフト変位マージ候補(IvDcShift)を導出する。変位マージ候補導出部3036123は、変位マージ候補(IvDC)として水平成分が入力された変位ベクトル(mvDisp[0], mvDisp[1])の水平成分mvDisp[0]であり、垂直成分が0であるベクトルを以下の式により生成する。
mvL0IvDC[ 1 ] = 0
ここで、DepthFlagは、デプスの場合に1となる変数である。
mvLXIvDCShift[ 1 ] = mvL0IvDC[ 1 ]
VSPマージ候補導出部3036124は、VSP(視点合成予測:View Synthesis Prediction)マージ候補を導出する。VSPマージ候補は、視点合成予測部3094で行われる視点合成予測による予測画像生成処理に用いられるマージ候補である。VSPマージ候補導出部3036124は、変位ベクトル導出部30363から入力された変位ベクトルmvDispをベクトルmvLXに、変位ベクトル導出部30363が特定した参照ピクチャの参照ピクチャインデックス、ビューIDを参照ピクチャインデックスrefIdxLX、ビューIDRefViewIdxに、VSPモードフラグVspModeFlagに1を設定することで予測パラメータを導出しVSPマージ候補を導出する。VSPマージ候補導出部3036124は、導出したVSPマージ候補をマージ候補格納部303611に出力する。
図22は、本実施形態のマージ候補導出部30361の個別の動作を示す図である。本実施形態のマージ候補導出部30361は上述の通り、テクスチャマージ候補(T)、インタービュ−マージ候補(IvMC)、空間マージ候補(A1)、空間マージ候補(B1)、空間マージ候補(B0)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、空間マージ候補(A0)、空間マージ候補(B2)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)、時間マージ候補(Col)を導出し、マージ候補リストとして、マージ候補格納部303611に格納する。図22は、マージ候補導出部30361において、各マージ候補Nの利用可能性availableFlagN(Nは、T,A1,B1,IvDC,VSP,B1,B0,IvDC,VSP,A0,B2,IvMCShift,IvDCShift,Colの何れか)に応じて、マージ候補リストextMergeCandList[]に追加する処理を示す図である。本実施形態のマージ候補導出部30361では、
(S3101)予測ブロックサイズが所定のサイズ以下の場合(ここではnPbW+nPbH==12の場合)には、拡張マージ候補をマージ候補リストに格納せず、
(S3102)予測ブロックサイズが所定のサイズよりも大きい場合に、拡張マージ候補をマージ候補リストに格納する。ここで拡張マージ候補とは、エンハンスメントレイヤで追加で導出されるマージ候補であり、テクスチャマージ候補(T)、インタービュ−マージ候補(IvMC)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)のいずれかもしくは全てであるとする。
103)。
つまり、予測ブロックの幅と高さの和が12以下の場合には、拡張マージ候補の利用可能性フラグavailableFlagNに利用可能性を利用しないとして導出する。なお、予測ブロックの最小サイズが4×8、8×4の場合には、これは、予測ユニット幅と高さが共に8以上の場合に、予測ブロックの幅と高さの和が12の場合に、拡張マージ候補の利用可能性フラグavailableFlagNに利用可能性を利用しないとして導出しても良い。また、予測ユニット幅と高さが共に8以上場合ではない場合(予測ユニットの幅と高さの少なくとも一方が8未満の場合)、拡張マージ候補の利用可能性フラグavailableFlagNに利用可能性を利用しないとして導出しても良い。
103)。
以下、マージ候補導出部30361の別の変形例としてマージ候補導出部30361Cを説明する。マージ候補導出部30361の別の変形例では、予測ユニットが所定のサイズ以下の場合に、基本マージ候補導出部303613で導出される(拡張マージ候補を含まない)基本マージ候補から構成されるマージ候補リストbaseMergeCandListを用いて、マージ候補リストextMergeCandListを導出する。
以下、マージモードパラメータ導出部3036の別の変形例としてマージモードパラメータ導出部3036Dを説明する。マージモードパラメータ導出部3036は、既に説明した、マージ候補導出部30361、マージ候補導出部30361B、マージ候補導出部30361Cの何れかを備え、予測ユニットが所定のサイズ以下の場合には拡張マージ候補をマージ候補リストに格納しない。
図11は、本実施形態に係るVSPマージ候補導出部3036124の構成を示す概略図である。インター予測画像生成部309は、動き変位補償部3091、残差予測部3092、照度補償部3093、視点合成予測部3094を含んで構成される。
動き変位補償部3091は、予測リスト利用フラグpredFlagLX、参照ピクチャインデックスrefIdxLX、ベクトルmvLX(動きベクトル、又は変位ベクトル)に基づいて、動き予測画像(予測画像)を生成する。動き変位補償部3091は、参照ピクチャメモリ306から、参照ピクチャインデックスrefIdxLXで指定された参照ピクチャの予測ユニットの位置を起点として、ベクトルmvLXだけずれた位置にあるブロックを読み出し補間することによって予測画像を生成する。ここで、ベクトルmvLXが整数ベクトルでない場合には、動き補償フィルタ(もしくは変位補償フィルタ)と呼ばれる小数位置の画素を生成するためのフィルタを施して、予測画像を生成する。一般に、ベクトルmvLXが動きベクトルの場合、上記処理を動き補償と呼び、変位ベクトルの場合は変位補償と呼ぶ。ここでは総称して動き変位補償と表現する。以下、L0予測の予測画像をpredSamplesL0、L1予測の予測画像をpredSamplesL1と呼ぶ。両者を区別しない場合predSamplesLXと呼ぶ。以下、動き変位補償部3091で得られた予測画像predSamplesLXに、さらに残差予測および照度補償が行われる例を説明するが、これらの出力画像もまた、予測画像predSamplesLXと呼ぶ。なお、以下の残差予測および照度補償において、入力画像と出力画像を区別する場合には、入力画像をpredSamplesLX、出力画像をpredSamplesLX´と表現する。
残差予測部3092は、残差予測実施フラグresPredFlagが1の場合に、残差予測を行う。残差予測部3092は、残差予測実施フラグresPredFlagが0の場合には、入力された予測画像predSamplesLXをそのまま出力する。refResSamples残差予測は、動き予測もしくは変位予測により生成される動き補償画像predSampleLXの残差を推定し、対象レイヤの予測画像predSamplesLXに加えることにより行われる。具体的には、予測ユニットが動き予測の場合には、参照レイヤと同様の残差が対象レイヤにも生じると仮定して、既に導出された参照レイヤの残差を対象レイヤの残差の推定値として用いる。予測ユニットが変位予測の場合には、対象ピクチャとは異なる時刻(POC)の参照レイヤのピクチャと対象レイヤのピクチャの残差を、残差の推定値として用いる。
mvC[1] = mvDisp[1]
参照レイヤ上の対応ブロックに対応する参照ブロックrefIvSamplesLXは、参照レイヤ上の参照画像の対応ブロックの位置を起点として、予測ユニットの動きベクトルmvLXだけずれた位置になるブロックに位置する。よって、参照ブロックrefIvSamplesLXのベクトルmvRは、変位ベクトルmvDispにより下記の式で導出される。
mvR[1] = mvLX[1] + mvDisp[1]
mvC[1] = mvT[1]
図16に示すように、参照ブロックrefIvSamplesLXは、対象ピクチャとは異なる時刻に位置する参照レイヤ上の参照画像上のブロックである。変位ベクトルをmvDisp、動きベクトルをmvTとすると、参照ブロックrefIvSamplesLXは、予測ユニットの位置を起点として、参照レイヤと対象レイヤの位置関係を示すベクトルであるベクトルmvRef - mvLXだけずれた位置になるブロックに位置する。よって、参照ブロックrefIvSamplesLXのベクトルmvRは、変位ベクトルmvDispにより下記の式で導出される。
mvR[1] = mvT[1] + mvDisp[1]
なお動きベクトルmvTは、対象ピクチャと同じ時刻の参照レイヤ上のピクチャ(図ではpredSamplesLXに対応するブロックP)のベクトルを用いる。例えば、ブロックの左上座標を(xP, yP)、変位ベクトルがmvLX[]の場合、対応する位置(xRef, yRef)の動きベクトルを参照する。
yRef = Clip3( 0, PicHeightInSamplesL - 1, yP + ( nPSH >> 1 ) + ( ( mvLX[ 1 ]
+ 2 ) >> 2 ) )
xInt = xPb + ( mvLX[ 0 ] >> 2 )
yInt = yPb + ( mvLX[ 1 ] >> 2 )
xFrac = mvLX[ 0 ] & 3
yFrac = mvLX[ 1 ] & 3
の式により導出する。ここで、X & 3は、Xの下位2ビットのみを取り出す数式である。
xA = Clip3( 0, picWidthInSamples - 1, xInt )
xB = Clip3( 0, picWidthInSamples - 1, xInt + 1 )
xC = Clip3( 0, picWidthInSamples - 1, xInt )
xD = Clip3( 0, picWidthInSamples - 1, xInt + 1 )
yA = Clip3( 0, picHeightInSamples - 1, yInt )
yB = Clip3( 0, picHeightInSamples - 1, yInt )
yC = Clip3( 0, picHeightInSamples - 1, yInt + 1 )
yD = Clip3( 0, picHeightInSamples - 1, yInt + 1 )
の式により導出する。ここで、整数画素Aは画素R0に対応した画素であり、整数画素B,C,Dはそれぞれ整数画素Aの右、下、右下に隣接する整数精度の画素である。参照画像補間部30922は、各整数画素A、B、C、及びDに対応する参照画素refPicLX[ xA][ yA ]、refPicLX[ xB ][ yB ]、refPicLX[ xC ][ yC ]、及びrefPicLX[ xD ][ yD ]を参照ピクチャメモリ306から読み出す。
predPartLX[ x ][ y ] = (refPicLX[ xA ][ yA ] * ( 8 - xFrac ) * ( 8 - yFrac ) + refPicLX[ xB ][ yB ] * ( 8 - yFrac ) * xFrac
+ refPicLX[ xC ][ yC ] * ( 8 - xFrac ) * yFrac
+ refPicLX[ xD ][ yD ] * xFrac * yFrac ) >> 6
の式により導出する。
predSamplesLX´[x][y] = predSamplesLX[x][y] +
((currIvSamplesLX[x][y] - refIvSamplesLX[x][y]) >> (iv_res_pred_weight_idx - 1))の式を用いて求める。xは0から予測ブロックの幅-1、yは0から予測ブロックの高さ-1である。残差合成部30923は、残差予測実施フラグresPredFlagが0の場合には、以下の式のように予測画像predSamplesLXをそのまま出力する。
照度補償部3093は、照度補償フラグic_flagが1の場合に、入力された予測画像predSamplesLXに対して、照度補償を行う。照度補償フラグic_flagが0の場合には、入力された予測画像predSamplesLXをそのまま出力する。
視点合成予測部3094は、VSPモードフラグVspModeFlagが1の場合に視点合成予測により予測画像predSampleLXを導出する。視点合成予測は、予測ユニットをサブブロックに分割し、サブブロック単位で、参照ピクチャメモリ306から、視差配列disparitySampleArray分だけずれた位置のブロックを読み出し補間することによって予測画像predSamplesを生成する処理である。
xTL = xP + ( ( mvDisp[ 0 ] + 2 ) >> 2 )
yTL = yP + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
の式より導出する。なお、mvDisp[ 0 ]、mvDisp[ 1 ]は、それぞれ変位ベクトルMvDispのX成分とY成分である。導出する座標(xTL, yTL)は、デプス画像refDepPels上の予測ユニットに対応するブロックの座標を示すものである。
minSubBlkSizeFlag = ( nPSW % 8 != 0) | | ( nPSH % 8 != 0 )
視差配列導出部30941は、フラグminSubBlkSizeFlagが1の場合、以下の式により、予測ユニットの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、それ以外の場合には、0を設定する。
すなわち、予測ユニットの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、予測ユニットの幅が8の倍数以外の場合(nPSW % 8が真の場合)には、horSplitFlagに0が設定される。
horSplitFlag=( refDepPelsP0 > refDepPelsP3 ) == ( refDepPelsP1 > refDepPelsP2 )
の条件式(horSplitFlag)が成立するかを判定する。
なお、horSplitFlagの導出には、符号を変更した以下の式を用いても良い。
次に、視差配列導出部30941は、
nSubBlkW = horSplitFlag ? 8 : 4
nSubBlkH = horSplitFlag ? 4 : 8
の式を用いてサブブロックの幅nSubBlkWと高さnSubBlkHを設定する。
nSubBlkW = 8
nSubBlkH = 4
の式のように、サブブロックの幅nSubBlkWに8、サブブロックの幅nSubBlkHに4を設定する。
nSubBlkW = 4
nSubBlkH = 8
の式のように、サブブロックの幅nSubBlkWに4、サブブロックの幅nSubBlkHに8を設定する。
デプスDV導出部351は、デプスDV変換テーブルDepthToDisparityBと、サブブロックの幅nSubBlkWと高さnSubBlkHと、分割フラグsplitFlagと、デプス画像refDepPelsと、デプス画像refDepPels上の対応ブロックの座標(xTL, yTL)と、、ビューIDrefViewIdxを入力として、以下の処理により、デプス由来の変位ベクトルの水平成分である視差配列disparitySamplesを導出する。
xP0 = Clip3( 0, pic_width_in_luma_samples - 1, xTL + xSubB )
yP0 = Clip3( 0, pic_height_in_luma_samples - 1, yTL + ySubB )
xP1 = Clip3( 0, pic_width_in_luma_samples - 1, xTL + xSubB + nSubBlkW - 1 )
yP1 = Clip3( 0, pic_height_in_luma_samples - 1, yTL + ySubB + nSubBlkH - 1 )の式を用いて設定する。なお、pic_width_in_luma_samplesとpic_height_in_luma_samplesは、それぞれ画像の幅と高さを表す。
maxDep = 0
maxDep = Max( maxDep, refDepPels[ xP0 ][ yP0 ] )
maxDep = Max( maxDep, refDepPels[ xP0 ][ yP1 ] )
maxDep = Max( maxDep, refDepPels[ xP1 ][ yP0 ] )
maxDep = Max( maxDep, refDepPels[ xP1 ][ yP1 ] )
の式より導出する。また、関数Max(x,y)は、第1引数xが第2引数y以上であればxを、そうでなければyを返す関数である。
disparitySamples[x][y] = DepthToDisparityB[refViewIdx][maxDep]・・(式A)
により導出する。
xIntL = xP + xL+ disparitySamples[ xL ][ yL ]
yIntL = yP + yL
xFracL = disparitySamples[ xL ][ yL ] & 3
xFracL = 0
の式より導出する。
次に、本実施形態に係る画像符号化装置11の構成について説明する。図20は、本実施形態に係る画像符号化装置11の構成を示すブロック図である。画像符号化装置11は、予測画像生成部101、減算部102、DCT・量子化部103、エントロピー符号化部104、逆量子化・逆DCT部105、加算部106、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、予測パラメータ符号化部111、を含んで構成される。予測パラメータ符号化部111は、インター予測パラメータ符号化部112及びイントラ予測パラメータ符号化部113を含んで構成される。画像符号化装置11は、複数の視点画像およびデプス画像から構成され、ベースレイヤおよびエンハンスメントレイヤから構成される符号化データを符号化する画像符号化装置である。
次に、インター予測パラメータ符号化部112の構成について説明する。インター予測パラメータ符号化部112は、インター予測パラメータ復号部303に対応する手段である。図21は、本実施形態に係るインター予測パラメータ符号化部112の構成を示す概略図である。インター予測パラメータ符号化部112は、マージモードパラメータ導出部1121、AMVP予測パラメータ導出部1122、減算部1123、及びインター予測パラメータ符号化制御部1126を含んで構成される。
11…画像符号化装置
101…予測画像生成部
102…減算部
103…DCT・量子化部
10311…追加予測フラグ符号化部
10312…マージインデックス符号化部
10313…ベクトル候補インデックス符号化部
104…エントロピー符号化部
105…逆量子化・逆DCT部
106…加算部
108…予測パラメータメモリ(フレームメモリ)
109…参照ピクチャメモリ(フレームメモリ)
110…符号化パラメータ決定部
111…予測パラメータ符号化部
112…インター予測パラメータ符号化部
1121…マージモードパラメータ導出部
1122…AMVP予測パラメータ導出部
1123…減算部
1126…インター予測パラメータ符号化制御部
113…イントラ予測パラメータ符号化部
21…ネットワーク
31…画像復号装置
301…エントロピー復号部
302…予測パラメータ復号部
303…インター予測パラメータ復号部
3031…インター予測パラメータ復号制御部
30311…残差予測重みインデックス復号部
3032…AMVP予測パラメータ導出部
3035…加算部
3036…マージモードパラメータ導出部
3036D…マージモードパラメータ導出部
30361…マージ候補導出部(マージ候補導出装置)
30361B…マージ候補導出部(マージ候補導出装置)
30361C…マージ候補導出部(マージ候補導出装置)
303611…マージ候補格納部
303612…拡張マージ候補導出部
3036121…レイヤ間マージ候補導出部
3036123…変位マージ候補導出部
3036124…VSPマージ候補導出部
303613…基本マージ候補導出部
3036131…空間マージ候補導出部
3036131D…空間マージ候補導出部
3036132…時間マージ候補導出部
3036133…結合マージ候補導出部
3036134…ゼロマージ候補導出部
30362…マージ候補選択部
30363…変位ベクトル導出部
304…イントラ予測パラメータ復号部
306…参照ピクチャメモリ(フレームメモリ)
307…予測パラメータメモリ(フレームメモリ)
308…予測画像生成部
309…インター予測画像生成部
3091…動き変位補償部
3092…残差予測部
30922…参照画像補間部
30923…残差合成部
3093…照度補償部
3094…視点合成予測部
30941…視差配列導出部
30942…参照画像補間部
310…イントラ予測画像生成部
311…逆量子化・逆DCT部
312…加算部
351…デプスDV導出部
41…画像表示装置
Claims (2)
- 複数レイヤから構成される符号化データを復号する画像復号装置であって、
基本マージ候補リストと、少なくともインタービューマージ候補、変位マージ候補、シフト動きマージ候補およびシフト変位マージ候補のいずれか一つを含む拡張マージ候補を含む拡張マージ候補リストと、を導出するマージ候補導出部と、
予測ブロックのサイズが所定のサイズの場合には、前記基本マージ候補リストを用いて予測パラメータを導出し、該予測ブロックのサイズが所定のサイズではない場合には、前記拡張マージ候補リストを用いて予測パラメータを導出するパラメータ導出部と、を備え、
前記所定のサイズは、前記予測ブロックの幅と高さの和が12であることを特徴とする画像復号装置。 - 複数レイヤから構成される符号化データを符号化する画像符号化装置であって、
基本マージ候補リストと、少なくともインタービューマージ候補、変位マージ候補、シフト動きマージ候補およびシフト変位マージ候補のいずれか一つを含む拡張マージ候補リストと、を導出するマージ候補導出部と、
予測ブロックのサイズが所定のサイズの場合には、前記基本マージ候補リストを用いて予測パラメータを導出し、該予測ブロックのサイズが所定のサイズではない場合には、前記拡張マージ候補リストを用いて予測パラメータを導出するパラメータ導出部と、を備え、
前記所定のサイズは、前記予測ブロックの幅と高さの和が12であることを特徴とする画像符号化装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262817 | 2013-12-19 | ||
JP2013262817 | 2013-12-19 | ||
PCT/JP2014/083169 WO2015093449A1 (ja) | 2013-12-19 | 2014-12-15 | マージ候補導出装置、画像復号装置及び画像符号化装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015093449A1 JPWO2015093449A1 (ja) | 2017-03-16 |
JP6441236B2 true JP6441236B2 (ja) | 2018-12-19 |
Family
ID=53402795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015553536A Expired - Fee Related JP6441236B2 (ja) | 2013-12-19 | 2014-12-15 | 画像復号装置及び画像符号化装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10200712B2 (ja) |
JP (1) | JP6441236B2 (ja) |
CN (1) | CN105723713A (ja) |
WO (1) | WO2015093449A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10187657B2 (en) * | 2014-03-14 | 2019-01-22 | Samsung Electronics Co., Ltd. | Method and device for configuring merge candidate list for decoding and encoding of interlayer video |
US10142613B2 (en) * | 2015-09-03 | 2018-11-27 | Kabushiki Kaisha Toshiba | Image processing apparatus, image processing system, and image processing method |
US10812822B2 (en) * | 2015-10-02 | 2020-10-20 | Qualcomm Incorporated | Intra block copy merge mode and padding of unavailable IBC reference region |
EP3298783B1 (en) * | 2016-04-15 | 2020-11-18 | Magic Pony Technology Limited | Motion compensation using temporal picture interpolation |
KR102531386B1 (ko) * | 2016-10-04 | 2023-05-12 | 주식회사 비원영상기술연구소 | 영상 데이터 부호화/복호화 방법 및 장치 |
US10484703B2 (en) | 2017-02-07 | 2019-11-19 | Mediatek Inc. | Adapting merge candidate positions and numbers according to size and/or shape of prediction block |
CN110870319B (zh) | 2017-05-31 | 2022-12-06 | 交互数字麦迪逊专利控股公司 | 画面编码和解码的方法和设备 |
CN107301046B (zh) * | 2017-06-15 | 2023-07-04 | 腾讯科技(深圳)有限公司 | 图标的处理方法和装置、计算机设备和存储介质 |
CN116866571A (zh) * | 2017-10-20 | 2023-10-10 | 株式会社Kt | 视频信号处理方法及装置 |
KR20210016581A (ko) | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
KR102701593B1 (ko) | 2018-06-21 | 2024-08-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
CN110662072B (zh) * | 2018-06-29 | 2022-04-26 | 杭州海康威视数字技术股份有限公司 | 运动信息候选者列表构建方法、装置及可读存储介质 |
WO2020057504A1 (en) * | 2018-09-17 | 2020-03-26 | Mediatek Inc. | Methods and apparatuses of combining multiple predictors for block prediction in video coding systems |
CN117768651A (zh) | 2018-09-24 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 处理视频数据的方法、装置、介质、以及比特流存储方法 |
EP3861723A4 (en) * | 2018-11-10 | 2022-04-20 | Beijing Bytedance Network Technology Co., Ltd. | ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS |
JP2022068379A (ja) * | 2019-03-08 | 2022-05-10 | シャープ株式会社 | 画像復号装置 |
JP2023011955A (ja) * | 2019-12-03 | 2023-01-25 | シャープ株式会社 | 動画像符号化装置、動画像復号装置 |
JP7448349B2 (ja) * | 2019-12-17 | 2024-03-12 | シャープ株式会社 | 動画像復号装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5320525B1 (ja) * | 2011-10-27 | 2013-10-23 | パナソニック株式会社 | 予測動きベクトル導出方法および予測動きベクトル導出装置 |
US8964845B2 (en) * | 2011-12-28 | 2015-02-24 | Microsoft Corporation | Merge mode for motion information prediction |
US20130188715A1 (en) * | 2012-01-09 | 2013-07-25 | Qualcomm Incorporated | Device and methods for merge list reordering in video coding |
CN104255031B (zh) * | 2012-02-29 | 2017-12-22 | Lg 电子株式会社 | 层间预测方法和使用层间预测方法的装置 |
JP2013207755A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 画像処理装置および方法 |
SG11201405038RA (en) * | 2012-04-24 | 2014-09-26 | Mediatek Inc | Method and apparatus of motion vector derivation for 3d video coding |
US20160173904A1 (en) * | 2013-07-24 | 2016-06-16 | Samsung Electronics Co., Ltd. | Method for determining motion vector and apparatus therefor |
EP3062518A4 (en) * | 2013-10-24 | 2017-05-31 | Electronics and Telecommunications Research Institute | Video encoding/decoding method and apparatus |
-
2014
- 2014-12-15 JP JP2015553536A patent/JP6441236B2/ja not_active Expired - Fee Related
- 2014-12-15 CN CN201480062609.XA patent/CN105723713A/zh active Pending
- 2014-12-15 US US15/104,420 patent/US10200712B2/en not_active Expired - Fee Related
- 2014-12-15 WO PCT/JP2014/083169 patent/WO2015093449A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US10200712B2 (en) | 2019-02-05 |
CN105723713A (zh) | 2016-06-29 |
WO2015093449A1 (ja) | 2015-06-25 |
JPWO2015093449A1 (ja) | 2017-03-16 |
US20160316221A1 (en) | 2016-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6441236B2 (ja) | 画像復号装置及び画像符号化装置 | |
JP6469588B2 (ja) | 残差予測装置、画像復号装置、画像符号化装置、残差予測方法、画像復号方法、および画像符号化方法 | |
WO2016125685A1 (ja) | 画像復号装置、画像符号化装置および予測ベクトル導出装置 | |
WO2015056719A1 (ja) | 画像復号装置、画像符号化装置 | |
WO2015194669A1 (ja) | 画像復号装置、画像符号化装置および予測画像生成装置 | |
JP6360053B2 (ja) | 照度補償装置、画像復号装置、画像符号化装置 | |
WO2014050948A1 (ja) | 画像復号装置及び画像符号化装置 | |
JP6473078B2 (ja) | 画像復号装置 | |
WO2015056620A1 (ja) | 画像復号装置、画像符号化装置 | |
WO2015141696A1 (ja) | 画像復号装置、画像符号化装置および予測装置 | |
JP6118199B2 (ja) | 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法及びコンピュータ読み取り可能な記録媒体。 | |
WO2014103600A1 (ja) | 符号化データ構造、および画像復号装置 | |
JP2016066864A (ja) | 画像復号装置、画像符号化装置およびマージモードパラメータ導出装置 | |
JP2017135432A (ja) | 視点合成予測装置、画像復号装置及び画像符号化装置 | |
WO2015190510A1 (ja) | 視点合成予測装置、画像復号装置及び画像符号化装置 | |
WO2016056587A1 (ja) | 変位配列導出装置、変位ベクトル導出装置、デフォルト参照ビューインデックス導出装置及びデプスルックアップテーブル導出装置 | |
JP6401707B2 (ja) | 画像復号装置、画像復号方法、および記録媒体 | |
JP2015080053A (ja) | 画像復号装置、及び画像符号化装置 | |
JP2014204327A (ja) | 画像復号装置および画像符号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6441236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |