JP2017505025A - 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング - Google Patents
3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング Download PDFInfo
- Publication number
- JP2017505025A JP2017505025A JP2016538769A JP2016538769A JP2017505025A JP 2017505025 A JP2017505025 A JP 2017505025A JP 2016538769 A JP2016538769 A JP 2016538769A JP 2016538769 A JP2016538769 A JP 2016538769A JP 2017505025 A JP2017505025 A JP 2017505025A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- sdc
- video
- predicted
- syntax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011664 signaling Effects 0.000 title abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 240
- 238000012545 processing Methods 0.000 claims abstract description 91
- 230000008569 process Effects 0.000 claims abstract description 86
- 238000005192 partition Methods 0.000 claims description 185
- 238000003860 storage Methods 0.000 claims description 24
- 230000003044 adaptive effect Effects 0.000 claims description 20
- 241000023320 Luma <angiosperm> Species 0.000 description 56
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 56
- 239000000523 sample Substances 0.000 description 55
- 238000013139 quantization Methods 0.000 description 36
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 29
- 238000010586 diagram Methods 0.000 description 21
- 239000013598 vector Substances 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 13
- 238000000638 solvent extraction Methods 0.000 description 13
- 230000011218 segmentation Effects 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000007792 addition Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 102100026234 Cytokine receptor common subunit gamma Human genes 0.000 description 4
- 101001055227 Homo sapiens Cytokine receptor common subunit gamma Proteins 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
http://phenix.it−sudparis.eu/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC−L1003−v34.zip
http://phenix.it−sudparis.eu/jct2/doc_end_user/documents/6_Geneva/wg11/JCT3V−F1001−v1.zip
[3D−HTM version 8.2−dev0]: https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/branches/HTM−8.2−dev0/
参照ソフトウェアの新しいバージョン、3D−HTM 9.0は、3D−HTMバージョン8.2の上位にあり、まもなく利用可能になる。
最新のワーキングドラフト(文書番号:F1001)は、以下から入手可能である。
http://phenix.it−sudparis.eu/jct2/doc_end_user/documents/6_Geneva/wg11/JCT3V−F1001−v1.zip
<italic<bT>>=(<italic<bPattern>>[0][0]!=<italic<bPattern>>[N−1][0])?1:0 に設定する
<italic<bL>>=(<italic<bPattern>>[0][0]!=<italic<bPattern>>[0][N−1])?1:0 に設定する
<italic<bT>>が<italic<bL>>に等しい場合、
1. 初期化
ブーリアンベクトル<italic<B(d)>>=すべての深度値<italic<d>>に対して<italic<FALSE>>
インデックスカウンタ<italic<i>>=0
2. 複数の時間インスタンス<italic<t>>に対して<italic<Dt>>の中の各ピクセル位置<italic<p>>を処理する:
有効な深度値に印を付けるために<italic<B>>(<italic<Dt>>(<italic<p>>))=<italic<TRUE>>に設定する
3. <italic<B(d)>>→<italic<dvalid>>までの<italic<TRUE>>値の数を数える
4. <italic<B(d)>>==<italic<TRUE>>である各<italic<d>>に対して、
<italic<Idx2Depth(i)>>=<italic<d>>に設定する
<italic<M(d)>>=<italic<d>>に設定する
<italic<Depth2Idx(d)>>=<italic<i>>に設定する
<italic<d’>>=<italic<arg min>>|<italic<d−d’>>|および<italic<B(d’)>>==<italic<TRUE>>である<italic<d’>>を見つける
<italic<M(d)=d’>>に設定する
<italic<Depth2Idx(d)>>=<italic<Depth2Idx(d’)>>に設定する
1. 以下のものを含む、現在の深度ブロックの区分タイプ:
a.DMMモード1(2つの区分)
b.平面(1つの区分)
2. 各区分に対して、残差値(ピクセル領域中の)がビットストリームにおいてシグナリングされる。
それぞれ平面およびDMMモード1の区分タイプに対応するSDCモード1とSDCモード2とを含む、2つのサブモードがSDCにおいて定義される。
1. 現在のPU中の現在の区分のDC値(すなわち、Averによって示される平均値)から、隣接サンプルによって生成されるPredにより示される予測子を差し引くことによって計算される、各区分のDC残差値を直接コーディングする。
2. DLTが送信されるとき、DC残差値をコーディングする代わりに、インデックス参照テーブルからマッピングされるAverおよびPredのインデックスの差分がコーディングされる。インデックス差分は、AverのインデックスからPredのインデックスを差し引くことによって計算される。デコーダ側において、復号されたインデックス差分とPredのインデックスとの合計が、DLTに基づいて深度値にマッピングし返される。
H.7.3.2.1.2 ビデオパラメータセット拡張2シンタックス
1に等しい<bold<vps_inter_sdc_flag>>[layerId](以下で、原文が太字になっている箇所には、<bold<…>>で印を付けます。)は、インターSDCコーディングがlayerIdに等しいnuh_layer_idを伴うレイヤのために使用されることを指定する。0に等しいvps_inter_sdc_flag[layerId]は、インターSDCコーディングがlayerIdに等しいnuh_layer_idを伴うレイヤのために使用されないことを指定する。存在しないとき、vps_inter_sdc_flag[layerId]の値は0に等しいと推測される。
1に等しい<bold<inter_sdc_flag>>は、残差ブロックの簡易深度コーディングが現在のコーディングユニットのために使用されることを指定する。0に等しいinter_sdc_flagは、残差ブロックの簡易深度コーディングが現在のコーディングユニットのために使用されないことを指定する。存在しないとき、inter_sdc_flagは0に等しいと推測される。
<bold<inter_sdc_resi_abs_minus1>>[x0][y0][i]、<bold<inter_sdc_resi_sign_flag>>[x0][y0][i]は、次のようにInterSdcResi[x0][y0][i]を導出するために使用される。
変数Log2MaxDmmCbSizeは、5に等しく設定される。
変数depthIntraModeSetは、下で規定されているように導出される。
− log2CbSizeが6に等しい場合、depthIntraModeSetは0に等しく設定される。
− そうではなく、log2CbSizeが3に等しくPartMode[xC][yC]がPART_NxNに等しい場合、depthIntraModeSetは1に等しく設定される。
− それ以外の場合、depthIntraModeSetは2に等しく設定される。
<bold<depth_intra_mode>>[x0][y0]は、現在の予測ユニットの深度イントラモードを指定する。表H−2は、depthIntraModeSetに応じた変数depthIntraModeMaxLenの値と、変数DepthIntraModeの値と、depth_intra_modeおよびdepthIntraModeSetに応じた関連する名前とを指定する。
変数SdcFlag[x0][y0]は、下で規定されているように導出される。
1に等しい<bold<depth_dc_flag>>[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在することを指定する。0に等しいdepth_dc_flag[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在しないことを指定する。
<bold<depth_dc_abs>>[x0][y0][i]、<bold<depth_dc_sign_flag>>[x0][y0][i]は、次のようにDcOffset[x0][y0][i]を導出するために使用される。
1. 深度コーディングのいくつかの例では、イントラモードとインターモードのいずれかのためにSDCを使用することを示すために、1つだけのシンタックス要素(たとえば、sdc_flag)が使用されることが、本開示において提案される。
a. 現在のインターCUがSDCを利用することを示すinter_sdc_flagは除去される。
b. イントラモードのためのSDCモードの指示も除去される。
c. 現在のコーディングユニットがイントラ予測またはインター予測によってコーディングされるかどうかにかかわらず、新たなフラグ、すなわちsdc_flagが導入される。このフラグが1であるとき、SDCは有効にされる。
2. 深度コーディングのいくつかの例では、現在のCUが各区分に対してSDCとしてコーディングされるとき、インターコーディングされたCUまたはイントラコーディングされたCUに対するDC残差値は、1つのシンタックス構造によって存在するように統一され、このシンタックス構造は、DC残差値の絶対値とその符号とを含むことが、本開示において提案される。
a. 代替的に、または加えて、CUがイントラによってコーディングされる場合、現在のCUがその区分のいずれかに0ではないDC残差値を含むかどうかを示すフラグ(1に等しい)がさらにシグナリングされ得る。このフラグが0である場合、DC残差値はシグナリングされず、各区分に対して0に等しいと推測される。
b. 代替的に、上のフラグは、イントラモードとインターモードの両方に適用される。
c. 代替的に、上のフラグは、イントラモードとインターモードのいずれかには使用されない。
3. さらに、いくつかの例では、インターモードおよびイントラモードのDC残差値のために使用されるシンタックス構造は、同じシンタックス要素を共有するので、関連するシンタックス要素に対するコンテキストモデルおよびバイナリ化処理が統一され、すなわち同じコンテキストモデルであることが、本開示において提案される。
a. 代替的に、いくつかの例では、イントラSDCモードおよびインターSDCモードがDC残差値に対して同じシンタックス構造を使用できるとしても、それらはシンタックス構造の異なる事例を使用するので、DC残差値に関する要素に対するコンテキストは、イントラSDCモードおよびインターSDCモードに対して分離されたままである。
4. いくつかの例では、デコーダ側における制約が適用され得ること、すなわち、sdc_flagが1に等しいときpcm_flagが1に等しくてはならないことが、本開示において提案される。
5. 加えて、いくつかの例では、デコーダ側におけるSDCに対する制約が適用され得ること、すなわち、イントラSDCモードとインターSDCモードの両方が2Nx2Nの区分サイズだけのために使用されることが、本開示において提案される。
a. 代替的に、2Nx2NとNxNとを含むすべての区分サイズに対して、イントラSDCモードが使用される。
6. 加えて、いくつかの例では、コーディングされたビデオシーケンス全体に対して、復号処理においてイントラSDCモードとインターSDCモードの両方を復号処理において有効/無効にするために1つのシンタックス要素が使用されることが、本開示において提案される。SDCがあるシーケンスに対して有効にされることを1つのシンタックス要素が示す場合、たとえば、上の項目1における統一されたsdc_flag要素の使用を参照して説明されたように、エンコーダは、SDCがCUレベルで使用されることを示すために別のシンタックス要素をシグナリングする。
a. いくつかの例では、このシンタックス要素は、ビデオパラメータセット拡張、シーケンスパラメータセット、ピクチャパラメータセット、またはスライスセグメントヘッダなどにおいて設定され得る。
b. 代替的に、いくつかの例では、イントラモードのためのSDCがコーディングされたビデオシーケンス全体に対して有効にされるかどうかを示すために1つのフラグが使用され、これが真である場合、加えて、インターモードのためのSDCがコーディングされたビデオシーケンス全体に対して有効にされるかどうかを示すために別のフラグが使用される。
H.7.3.8.5 コーディングユニットシンタックス
H.7.4.9.5 コーディングユニットセマンティクス
<bold<変数SdcEnableFlagは、次のように導出される。>>
<italic<1に等しいhevc_intra_flag[x0][y0]は、0から34までの範囲のintraPredModeを伴うイントラモードが現在の予測ユニットのために使用されることを指定する。0に等しいhevc_intra_flag[x0][y0]は、別のイントラモードが現在の予測ユニットのために使用されることを指定する。存在しないとき、hevc_intra_flag[x0][y0]は1に等しいと推測される。
変数DmmFlag[x0][y0]は、下で規定されているように導出される。>>
<strike-through/bold<変数SdcFlag[x0][y0]は、下で規定されているように導出される。>>
inter_sdc_resi_abs_minus1[x0][y0][i]、inter_sdc_resi_sign_flag[x0][y0][i]は、次のようにInterSdcResi[x0][y0][i]を導出するために使用される。>>
H.7.4.9.5.1 深度DC残差セマンティクス
1に等しいdepth_dc_flag[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在することを指定する。0に等しいdepth_dc_flag[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在しないことを指定する。<bold<存在しないとき、depth_dc_flag[x0][y0]は1に等しいと推測される。>>
depth_dc_abs[x0][y0][i]、depth_dc_sign_flag[x0][y0][i]は、次のようにDcOffset[x0][y0][i]を導出するために使用される。
このプロセスへの入力は、現在のピクチャの左上ルーマサンプルに対する現在のルーマ予測ブロックの左上サンプルを指定するルーマ位置(xPb,yPb)である。
この処理では、ルーマイントラ予測モードIntraPredModeY[xPb][yPb]が導出される。
表H−3は、イントラ予測モードの値と関連する名前とを指定する。
<strike-through/italic<DepthIntraMode[xPb][yPb]がINTRA_DEP_SDC_PLANARに等しい場合、IntraPredModeY[xPb][yPb]はINTRA_PLANARに等しく設定される。
それ以外の場合、DepthIntraMode[xPb][yPb]がINTRA_DEP_SDC_DMM_WFULLに等しい場合、IntraPredModeY[xPb][yPb]はINTRA_DMM_WFULLに等しく設定される。
それ以外の場合、>>DepthIntraMode[xPb][yPb]がINTRA_DEP_DMM_WFULLに等しい場合、IntraPredModeY[xPb][yPb]はINTRA_DMM_WFULLに等しく設定される。
それ以外の場合、DepthIntraMode[xPb][yPb]がINTRA_DEP_DMM_CPREDTEXに等しい場合、IntraPredModeY[xPb][yPb]はINTRA_DMM_CPREDTEXに等しく設定される。
それ以外の場合(DepthIntraMode[xPb][yPb]がINTRA_DEP_NONEに等しい場合)、IntraPredModeY[xPb][yPb]は次の順序付けられたステップとして導出される。
...
H8.4.4.2.1 一般的なイントラサンプル予測
この処理への入力は以下の通りである。
− 現在のピクチャの左上サンプルに対する現在の変換ブロックの左上サンプルを指定するサンプル位置(xTbCmp,yTbCmp)
− イントラ予測モードを指定する変数predModeIntra
− 変換ブロックサイズを指定する変数nTbS
− 現在のブロックの色成分を規定する変数cIdx
この処理の出力は、x,y=0...nTbS−1である予測されたサンプルpredSamples[x][y]である。
<italic<変数bSamplePredFlagを1に設定する。>>
...
− そうではなく、predModeIntraがINTRA_DEP_DMM_CPREDTEXに等しい場合、H8.4.4.2.8項において規定される対応するイントラ予測モードが、位置(xTbY,yTbY)について、サンプルアレイp、変換ブロックサイズnTbS、<italic<およびbSamplePredFlag>を入力として実施され、出力は予測サンプルアレイpredSamplesである。
<bold<H.8.4.4.2.8 イントラ予測モードINTRA_DMM_CPREDTEXの指定>>
この処理への入力は以下の通りである。
− 現在のピクチャの左上サンプルに対する現在のブロックの左上サンプルを指定するサンプル位置(xTb,yTb)
− x=−1、y=−1..nTbS×2−1、およびx=0..nTbS×2−1、y=−1である、隣接サンプルp[x][y]
− 変換ブロックサイズを指定する変数nTbS
− <italic<予測サンプルを生成するかどうかを指定する変数bSamplePredFlag>
このプロセスの出力は以下の通りである。
− x,y=0..nTbS−1である、予測サンプルpredSamples[x][y]
− <italic<x,y=0..nT−1である、wedgeletパターンwedgePattern[x][y]>>
x,y=0..nTbS−1である予測サンプルpredSamples[x][y]の値は、次の順序のステップによって指定されるように導出される。
1. 変数recTextPicは、TexturePic..の再構築されたルーマピクチャサンプルのアレイに等しく設定される。
2. recTextPicのセグメント化のための閾値を指定する変数textThreshが、以下で規定されるように導出される。
− 変数sumTextPicValsが0に等しく設定される。
− x=0..nTbS−1として、次のことが当てはまる。
− y=0..nTbS−1として、次のことが当てはまる。
3. バイナリの区分パターンを指定する、x,y=0..nTbS−1である変数wedgeletPattern[x][y]が、以下で規定されるように導出される。
− x=0..nTbS−1として、次のことが当てはまる。
− y=0..nTbS−1として、次のことが当てはまる。
<bold<H.8.4.4.3 深度値再構築処理>>
この処理への入力は以下の通りである。
− 現在のピクチャの左上ルーマサンプルに対する現在のブロックの左上ルーマサンプルを指定するルーマ位置(xTb,yTb)
− 変換ブロックサイズを指定する変数nTbS
− x,y=0..nTbS−1である、予測サンプルpredSamples[x][y]
− イントラ予測モードpredModeIntra
このプロセスの出力は以下の通りである。
− x,y=0..nTbS−1である、再構築された深度値サンプルresSamples[x][y]
<italic<変数bSamplePredFlagを0に設定する。>>
predModeIntraに応じて、2進セグメント化パターンを指定する、x,y=0..nTbs−1である、アレイwedgePattern[x][y]は、次のように導出される。
− predModeIntraがINTRA_DMM_WFULLに等しい場合、次のことが当てはまる。
− それ以外の場合(predModeIntraがINTRA_DMM_WFULLに等しくなく、<italic<predModeIntraがINTRA_DMM_CPREDTEXに等しくない>>場合)、次のことが当てはまる。
− x,y=0..nTbS−1として、wedgePattern[x][y]が0に等しく設定される。
dlt_flag[nuh_layer_id]に応じて、再構築された深度値サンプルresSamples[x][y]が、以下で指定されるように導出される。
− dlt_flag[nuh_layer_id]が0に等しい場合、次のことが当てはまる。
− x,y=0..nTbS−1として、再構築された深度値サンプルresSamples[x][y]が、以下で規定されるように導出される。
− 変数dcPred[0]およびdcPred[1]が、以下で規定されるように導出される。
<strike-through/italic<− predModeIntraがINTRA_DCに等しい場合、次のことが当てはまる。>>
...
− <strike-through/bold<inter_sdc_flag>><bold<sdc_flag>>が0に等しい場合、次のことが当てはまり、rqt_root_cbfの値に応じて、次のことが当てはまる。
− rqt_root_cbfが0に等しい場合、またはskip_flag[xCb][yCb]が1に等しい場合、(nCbSL)x(nCbSL)のアレイresSamplesLのすべてのサンプル、および2つの(nCbSC)x(nCbSC)のアレイresSamplesCbおよびresSamplesCrのすべてのサンプルが0に等しく設定される。
− そうではない場合(rqt_root_cbfが1に等しい場合)、次の順序付けられたステップが適用される。
下のH8.5.4.2項において規定されるようなルーマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、nCbSLに等しく設定される変数nCbS、および(nCbSL)x(nCbSL)のアレイresSamplesLを入力として実施され、出力は(nCbSL)x(nCbSL)のアレイresSamplesLの修正されたバージョンである。
下のH8.5.4.3項において規定されるようなクロマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、1に等しく設定される変数cIdx、nCbSCCに等しく設定される変数nCbS、および(nCbSC)x(nCbSC)のアレイresSamplesCbを入力として実施され、出力は(nCbSC)x(nCbSC)のアレイresSamplesCbの修正されたバージョンである。
下のH8.5.4.3項において規定されるようなクロマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、2に等しく設定される変数cIdx、nCbSCCに等しく設定される変数nCbS、および(nCbSC)x(nCbSC)のアレイresSamplesCrを入力として実施され、出力は(nCbSC)x(nCbSC)のアレイresSamplesCrの修正されたバージョンである。
− それ以外の場合(<strike-through/bold<inter_sdc_flag>><bold<sdc_flag>>が1に等しい場合)、下のH8.5.4.4項において規定されるような簡易深度コーディングされた残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、nCbSLに等しく設定される変数nCbS、および(nCbSL)x(nCbSL)のアレイresSamplesLを入力として実施され、出力は(nCbSL)x(nCbSL)のアレイresSamplesLの修正されたバージョンである。
...
<bold<H8.5.4.4 簡易深度コーディングされた残差ブロックのための復号処理>>
...
0からnCbSの範囲のxに対して、次のことが当てはまる。
− 0からnCbSの範囲のyに対して、次のことが当てはまる。
− 変数iは、下で規定されているように導出される。
− xがxOff未満であり、yがyOff未満である場合、iは0に等しく設定される。
− そうではなく、xがxOff以上であり、yがyOff未満である場合、iは1に等しく設定される。
− そうではなく、xがxOff未満であり、yがyOff以上である場合、iは2に等しく設定される。
− それ以外の場合(xがxOff以上であり、yがyOff以上である場合)、iは3に等しく設定される。
− resSamples[x][y]の値は、<bold<DcOffset>><strike-through/bold<InterSdcResi>>[xCb][yCb][interSdcResiIdx[i]]に等しく設定される。
H.7.3.8.5 一般的なコーディングユニットシンタックス
<bold<H.7.4.9.5 コーディングユニットセマンティクス>>
<strike-through/bold<1に等しいinter_depth_sdc_flagは、残差ブロックの簡易深度コーディングが現在のコーディングユニットのために使用されることを指定する。0に等しいinter_sdc_flagは、残差ブロックの簡易深度コーディングが現在のコーディングユニットのために使用されないことを指定する。存在しないとき、inter_sdc_flagは0に等しいと推測される。
inter_depth_sdc_resi_abs_minus1[x0][y0][i]、inter_depth_sdc_resi_sign_flag[x0][y0][i]は、次のようにInterSdcResi[x0][y0][i]を導出するために使用される。>>
H.7.4.9.5.1 深度モードパラメータセマンティクス>>
変数Log2MaxDmmCbSizeは、5に等しく設定される。
変数depthIntraModeSetは、下で規定されているように導出される。
− log2CbSizeが6に等しい場合、depthIntraModeSetは0に等しく設定される。
− そうではなく、log2CbSizeが3に等しくPartMode[xC][yC]がPART_NxNに等しい場合、depthIntraModeSetは1に等しく設定される。
− それ以外の場合、depthIntraModeSetは2に等しく設定される。
<bold<depth_intra_mode>>[x0][y0]は、現在の予測ユニットの深度イントラモードを指定する。表H−2は、depthIntraModeSetに応じた変数depthIntraModeMaxLenの値と、変数DepthIntraModeの値と、depth_intra_modeおよびdepthIntraModeSetに応じた関連する名前とを指定する。
<strike-through/bold<変数SdcFlag[x0][y0]は、下で規定されているように導出される。>>
1に等しい<bold<depth_dc_flag>>[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在することを指定する。0に等しいdepth_dc_flag[x0][y0]は、depth_dc_abs[x0][y0][i]およびdepth_dc_sign_flag[x0][y0][i]が存在しないことを指定する。<bold<存在しないとき、depth_dc_flag[x0][y0]は1に等しいと推測される。>
<bold<depth_dc_abs>>[x0][y0][i]、<bold<depth_dc_sign_flag>>[x0][y0][i]は、次のようにDcOffset[x0][y0][i]を導出するために使用される。
...
− <strike-through/bold<inter_sdc_flag>><bold<sdc_flag>>が0に等しい場合、次のことが当てはまり、rqt_root_cbfの値に応じて、次のことが当てはまる。
− rqt_root_cbfが0に等しい場合、またはskip_flag[xCb][yCb]が1に等しい場合、(nCbSL)x(nCbSL)のアレイresSamplesLのすべてのサンプル、および2つの(nCbSC)x(nCbSC)のアレイresSamplesCbおよびresSamplesCrのすべてのサンプルが0に等しく設定される。
− そうではない場合(rqt_root_cbfが1に等しい場合)、次の順序付けられたステップが適用される。
下のH8.5.4.2項において規定されるようなルーマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、nCbSLに等しく設定される変数nCbS、および(nCbSL)x(nCbSL)のアレイresSamplesLを入力として実施され、出力は(nCbSL)x(nCbSL)のアレイresSamplesLの修正されたバージョンである。
下のH8.5.4.3項において規定されるようなクロマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、1に等しく設定される変数cIdx、nCbSCCに等しく設定される変数nCbS、および(nCbSC)x(nCbSC)のアレイresSamplesCbを入力として実施され、出力は(nCbSC)x(nCbSC)のアレイresSamplesCbの修正されたバージョンである。
下のH8.5.4.3項において規定されるようなクロマ残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、2に等しく設定される変数cIdx、nCbSCに等しく設定される変数nCbS、および(nCbSC)x(nCbSC)のアレイresSamplesCrを入力として実施され、出力は(nCbSC)x(nCbSC)のアレイresSamplesCrの修正されたバージョンである。
− それ以外の場合(<strike-through/bold<inter_sdc_flag>><bold<sdc_flag>>が1に等しい場合)、下のH8.5.4.4項において規定されるような簡易深度コーディングされた残差ブロックの復号処理が、ルーマ位置(xCb,yCb)、(0,0)に等しく設定されるルーマ位置(xB0,yB0)、log2CbSizeに等しく設定される変数log2TrafoSize、0に等しく設定される変数trafoDepth、nCbSLに等しく設定される変数nCbS、および(nCbSL)x(nCbSL)のアレイresSamplesLを入力として実施され、出力は(nCbSL)x(nCbSL)のアレイresSamplesLの修正されたバージョンである。
...
<bold<H8.5.4.4 簡易深度コーディングされた残差ブロックのための復号処理>>
...
0からnCbSの範囲のxに対して、次のことが当てはまる。
− 0からnCbSの範囲のyに対して、次のことが当てはまる。
− 変数iは、下で規定されているように導出される。
− xがxOff未満であり、yがyOff未満である場合、iは0に等しく設定される。
− そうではなく、xがxOff以上であり、yがyOff未満である場合、iは1に等しく設定される。
− そうではなく、xがxOff未満であり、yがyOff以上である場合、iは2に等しく設定される。
− それ以外の場合(xがxOff以上であり、yがyOff以上である場合)、iは3に等しく設定される。
− resSamples[x][y]の値は、<bold<DcOffset>><strike-through/bold<InterSdcResi>>[xCb][yCb][interSdcResiIdx[i]]に等しく設定される。
Claims (87)
- ビデオデータを復号する方法であって、
簡易深度コーディング(SDC)モードが前記ビデオデータの深度コーディングユニット(CU)のイントラ予測とインター予測の両方のために使用されるかどうかを示す、シンタックス要素を受信することと、
前記深度CUがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記深度CUの予測ユニット(PU)の各区分に対して、前記深度CUに対する少なくとも1つのDC残差値を表す情報を受信することと、ここにおいて、前記少なくとも1つのDC残差値は、前記深度CUの前記PUの前記区分と前記予測された深度CUの対応する区分との間のピクセル差分を表す、
前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して、前記深度CUを再構築することとを備える、方法。 - 前記シンタックス要素が、前記SDCモードが前記深度CUのイントラ予測とインター予測の両方のために使用されることを示す第1の値と、前記SDCモードが前記深度CUのイントラ予測とインター予測のいずれかのために使用されないことを示す第2の値とを有する、1ビットのフラグを備える、請求項1に記載の方法。
- 前記シンタックス要素が第1のシンタックス要素であり、前記SDCモードが使用されることを前記第1のシンタックス要素が示すとき、前記ビデオデコーダにおいて、前記深度CUの前記PUの1つの区分に対する前記少なくとも1つのDC残差値を表す前記情報を示す1つまたは複数の第2のシンタックス要素を備えるシンタックス構造を取得することを備え、前記シンタックス構造の前記第2のシンタックス要素が、前記深度CUの前記イントラ予測および前記インター予測に対して同じである、請求項1に記載の方法。
- 前記シンタックス構造を取得することが、前記イントラ予測および前記インター予測のための単一のシンタックス構造を取得することを備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す前記情報を示す前記第2のシンタックス要素を備える、請求項3に記載の方法。
- 前記シンタックス構造を取得することが、前記イントラ予測および前記インター予測に対して前記同じシンタックス構造の異なる実体をそれぞれ取得することを備え、前記シンタックス構造の前記異なる実体の各々が前記同じ第2のシンタックス要素を含む、請求項3に記載の方法。
- 前記シンタックス構造を取得することが、コンテキスト適応型エントロピー復号処理を使用してシンタックス構造の前記異なる実体をエントロピー復号することを備え、前記コンテキスト適応型エントロピー復号処理のために使用される前記コンテキストモデルとバイナリ化処理の少なくとも1つが、前記シンタックス構造の前記異なる実体において前記同じシンタックス要素に対して同じである、請求項5に記載の方法。
- 前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記ビデオデコーダにおいて、少なくとも1つまたは前記イントラ予測または前記インター予測に対する前記深度CUの任意の区分に対して0ではないDC残差値があるかどうかを示すフラグを受信することをさらに備え、前記深度CUの任意の区分に対する0ではないDC残差値がないことを前記フラグが示すとき、前記深度CUに対する前記少なくとも1つのDC残差値を表す前記情報を受信しないことと、前記少なくとも1つのDC残差値を0であると推測することとをさらに備える、請求項1に記載の方法。
- 前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記深度CUに対する前記ビデオデコーダによるパルス符号変調(PCM)復号の前記使用を無効にすることをさらに備える、請求項1に記載の方法。
- 2Nx2Nの区分サイズを有する深度CUへの前記SDCモードの前記使用を制約することをさらに備える、請求項1に記載の方法。
- 前記SDCモードの前記使用を、インター予測された深度CUは2Nx2Nの区分サイズを有すると、2Nx2NまたはNxNの区分サイズを有するイントラ予測された深度CUとに制約することをさらに備える、請求項1に記載の方法。
- 前記SDCモードが使用されることを前記シンタックス要素が示すとき、コーディングされたビデオシーケンス全体において、複数の深度CUの各々の再構築のために前記SDCモードを使用することをさらに備える、請求項1に記載の方法。
- 前記シンタックス要素を取得することが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記シンタックス要素を取得することを備える、請求項11に記載の方法。
- 前記シンタックス要素を取得することが、前記深度CUと関連付けられるスライスセグメントヘッダにおいて前記シンタックス要素を取得することを備える、請求項1に記載の方法。
- 前記深度CUが現在の深度CUであり、前記シンタックス要素が、前記SDCモードが前記現在の深度CUのために使用されるかどうかを示し、前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記現在の深度CUの前記再構築のために前記SDCモードを使用することをさらに備える、請求項1に記載の方法。
- 前記深度CUが現在のイントラコーディングされた深度CUであり、前記シンタックス要素が、前記SDCモードが前記現在の深度CUのために使用されるかどうかを示し、前記予測される深度CUを生成するために前記イントラ予測を実行するとき、前記深度CUの深度成分に対応するテクスチャ成分からのサンプルを使用することをさらに備える、請求項1に記載の方法。
- ビデオデータを符号化する方法であって、
深度CUがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の各区分に対して、前記深度CUに対する少なくとも1つのDC残差値を表す情報を生成することと、ここにおいて、前記少なくとも1つのDC残差値は、前記深度CUの前記PUの前記区分と前記予測された深度CUの対応する区分との間のピクセル差分を表す、
前記SDCモードが使用されるとき、前記ビデオデータの深度コーディングユニット(CU)のイントラ予測とインター予測の両方のために前記SDCモードが使用されることを示すシンタックス要素を生成することと、
前記ビデオエンコーダにおいて、前記少なくとも1つのDC残差値と前記シンタックス要素とを表す前記情報に基づいて、前記深度CUを符号化することとを備える、方法。 - 前記シンタックス要素が、前記SDCモードが前記深度CUのイントラ予測とインター予測の両方のために使用されることを示す第1の値と、前記SDCモードが前記深度CUのイントラ予測とインター予測のいずれかのために使用されないことを示す第2の値とを有する、1ビットのフラグを備える、請求項16に記載の方法。
- 前記シンタックス要素が第1のシンタックス要素であり、前記SDCモードが使用されるとき、
前記ビデオエンコーダにおいて、前記深度CUに対する前記少なくとも1つのDC残差値を表す情報を示す1つまたは複数の第2のシンタックス要素を備えるシンタックス構造を生成することと、ここにおいて、前記シンタックス構造の前記第2のシンタックス要素は前記深度CUの前記イントラ予測および前記インター予測に対して同じである、
前記深度CUのための前記シンタックス構造を符号化することとをさらに備える、請求項16に記載の方法。 - 前記シンタックス構造を生成することが、前記イントラ予測および前記インター予測のための単一のシンタックス構造を生成することを備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す情報を示す前記第2のシンタックス要素を備える、請求項18に記載の方法。
- 前記シンタックス構造を生成することが、前記イントラ予測および前記インター予測に対して前記シンタックス構造の異なる実体をそれぞれ取得することを備え、前記シンタックス構造の前記異なる実体の各々が前記同じ第2のシンタックス要素を含む、請求項18に記載の方法。
- 前記シンタックス構造を生成することが、コンテキスト適応型エントロピー符号化処理を使用して前記シンタックス構造の前記異なる実体をエントロピー復号することを備え、前記コンテキスト適応型エントロピー符号化処理のために使用されるコンテキストモデルが、前記シンタックス構造の前記異なる実体に対して同じである、請求項20に記載の方法。
- 前記SDCモードが使用されるとき、少なくとも1つまたは前記イントラ予測または前記インター予測に対する前記深度CUの任意の区分に対して0ではないDC残差値があるかどうかを示すフラグを生成することをさらに備え、前記深度CUの任意の区分に対する0ではないDC残差値がないことを前記フラグが示すとき、前記深度CUに対する前記少なくとも1つのDC残差値を表す前記情報を生成しないことをさらに備える、請求項16に記載の方法。
- 2Nx2Nの区分サイズを有する深度CUへの前記SDCモードの前記使用を制約することをさらに備える、請求項16に記載の方法。
- 前記SDCモードの前記使用を、インター予測された深度CUは2Nx2N区分サイズを有すると、2Nx2NまたはNxNの区分サイズを有するイントラ予測された深度CUとに制約することをさらに備える、請求項16に記載の方法。
- コーディングされたビデオシーケンス全体において、複数の深度CUの各々に対する前記SDCモードの前記使用を示すために、前記シンタックス要素を符号化することをさらに備える、請求項16に記載の方法。
- 前記シンタックス要素を符号化することが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記シンタックス要素を符号化することを備える、請求項25に記載の方法。
- 前記シンタックス要素を符号化することが、前記深度CUと関連付けられるスライスセグメントヘッダにおいて前記シンタックス要素を符号化することを備える、請求項16に記載の方法。
- 前記深度CUが現在の深度CUであり、前記シンタックス要素が、前記SDCモードが前記現在の深度CUのために使用されるかどうかを示し、前記現在の深度CUに対する前記シンタックス要素を符号化することをさらに備える、請求項16に記載の方法。
- 前記深度CUが現在のイントラコーディングされた深度CUであり、前記シンタックス要素が、前記SDCモードが前記現在の深度CUのために使用されるかどうかを示し、前記予測される深度CUを生成するために前記イントラ予測を実行するとき、前記深度CUの深度成分に対応するテクスチャ成分からのサンプルを使用することをさらに備える、請求項1に記載の方法。
- ビデオデータを記憶するメモリと、
1つまたは複数のプロセッサとを備えるビデオコーダであって、前記1つまたは複数のプロセッサが、
簡易深度コーディング(SDC)モードが前記ビデオデータの深度コーディングユニット(CU)のイントラ予測とインター予測の両方のために使用されるかどうかを示す、シンタックス要素をコーディングし、
前記深度CUがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行し、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行し、
前記SDCモードが使用されるとき、前記深度CUの予測ユニット(PU)の各区分に対して、前記深度CUに対する少なくとも1つのDC残差値を表す情報をコーディングするように構成され、前記少なくとも1つのDC残差値が、前記深度CUの前記PUの前記区分と前記予測された深度CUの対応する区分との間のピクセル差分を表す、ビデオコーダ。 - 前記ビデオコーダがビデオデコーダを備え、前記1つまたは複数のプロセッサが、前記シンタックス要素を復号し、前記少なくとも1つのDC残差値を表す情報を復号し、前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して前記深度CUを再構築するように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダが、ビデオエンコーダを備え、前記1つまたは複数のプロセッサが、前記少なくとも1つのDC残差値と前記シンタックス要素とを表す前記情報を符号化するように構成される、請求項30に記載のビデオコーダ。
- 前記シンタックス要素が、前記SDCモードが前記深度CUのイントラ予測とインター予測の両方のために使用されることを示す第1の値と、前記SDCモードが前記深度CUのイントラ予測とインター予測のいずれかのために使用されないことを示す第2の値とを有する、フラグを備える、請求項30に記載のビデオコーダ。
- 前記シンタックス要素が第1のシンタックス要素であり、前記1つまたは複数のプロセッサが、前記SDCモードが使用されることを前記第1のシンタックス要素が示すとき、前記深度CUに対する前記少なくとも1つのDC残差値を表す前記情報を示す1つまたは複数の第2のシンタックス要素を備えるシンタックス構造をコーディングするように構成され、前記シンタックス構造の前記第2のシンタックス要素が、前記深度CUの前記イントラ予測および前記インター予測に対して同じである、請求項30に記載のビデオコーダ。
- 前記シンタックス構造が、前記イントラ予測および前記インター予測のための単一のシンタックス構造を備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す前記情報を示す前記第2のシンタックス要素を備える、請求項34に記載のビデオコーダ。
- 前記シンタックス構造が、前記イントラ予測および前記インター予測に対して前記シンタックス構造の異なる実体を備え、前記シンタックス構造の前記異なる実体の各々が前記同じ第2のシンタックス要素を含む、請求項34に記載のビデオコーダ。
- 1つまたは複数のプロセッサが、コンテキスト適応型エントロピー復号処理を使用して前記シンタックス構造の前記異なる実体をエントロピーコーディングするように構成され、前記コンテキスト適応型エントロピー復号処理のために使用されるコンテキストモデルが、前記シンタックス構造の前記異なる実体に対して同じである、請求項36に記載のビデオコーダ。
- 前記1つまたは複数のプロセッサが、前記SDCモードが使用されるとき、前記深度CUの任意の区分に対して0ではないDC残差値があるかどうかを示すフラグをコーディングし、前記深度CUの任意の区分に対する0ではないDC残差値がないことを前記フラグが示すとき、前記深度CUに対する前記少なくとも1つのDC残差値を表す前記情報をコーディングしないように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダがビデオデコーダを備え、前記1つまたは複数のプロセッサが、前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記深度CUに対する前記ビデオデコーダによるパルス符号変調(PCM)復号の前記使用を無効にするように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダが、ビデオデコーダを備え、前記1つまたは複数のプロセッサが、2Nx2Nの区分サイズを有する深度CUへと前記SDCモードの前記使用を制約するように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダが、ビデオデコーダを備え、前記1つまたは複数のプロセッサが、インター予測された深度CUが2Nx2Nの区分サイズを有する、および2Nx2NまたはNxNの区分サイズを有するイントラ予測された深度CUへと前記SDCモードの前記使用を制約するように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダがビデオデコーダを備え、前記1つまたは複数のプロセッサが、前記SDCモードが使用されることを前記シンタックス要素が示すとき、コーディングされたビデオシーケンス全体の中の複数の深度CUの各々の再構築のために前記SDCモードを使用するように構成される、請求項30に記載のビデオコーダ。
- 前記1つまたは複数のプロセッサが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記シンタックス要素をコーディングするように構成される、請求項30に記載のビデオコーダ。
- 前記1つまたは複数のプロセッサが、前記深度CUと関連付けられるスライスセグメントヘッダにおいて前記シンタックス要素をコーディングするように構成される、請求項30に記載のビデオコーダ。
- 前記ビデオコーダが、ビデオデコーダを備え、前記深度CUが現在の深度CUであり、前記シンタックス要素が、前記SDCモードが前記現在の深度CUのために使用されるかどうかを示し、前記1つまたは複数のプロセッサが、前記SDCモードが使用されることを前記シンタックス要素が示すとき、前記現在の深度CUの前記再構築のために前記SDCモードを使用するように構成される、請求項30に記載のビデオコーダ。
- 簡易深度コーディング(SDC)モードが前記ビデオデータの深度コーディングユニット(CU)のイントラ予測とインター予測の両方のために使用されるかどうかを示す、シンタックス要素をコーディングするための手段と、
前記深度CUがイントラ予測されるとき、予測された深度CUを生成するためにパフォームイントラ予測を実行するための手段と、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行するための手段と、
前記SDCモードが使用されるとき、前記深度CUの予測ユニット(PU)の各区分に対して、前記深度CUに対する少なくとも1つのDC残差値を表す情報をコーディングするための手段とを備え、前記少なくとも1つのDC残差値が、前記深度CUの前記PUの前記区分と前記予測された深度CUの対応する区分との間のピクセル差分を表す、ビデオコーダ。 - 前記ビデオコーダが、ビデオデコーダを備え、前記シンタックス要素をコーディングするための前記手段が前記シンタックス要素を復号するための手段を備え、前記コーダがさらに、前記ビデオデコーダにおいて、前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して前記深度CUを再構築するための手段とを備える、請求項46に記載のビデオコーダ。
- 実行されると、ビデオコーダの1つまたは複数のプロセッサに、
簡易深度コーディング(SDC)モードが前記ビデオデータの深度コーディングユニット(CU)のイントラ予測とインター予測の両方のために使用されるかどうかを示す、シンタックス要素をコーディングさせ、
前記深度CUがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行させ、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行させ、
前記SDCモードが使用されるとき、前記深度CUの予測ユニット(PU)の各区分に対して、前記深度CUに対する少なくとも1つのDC残差値を表す情報をコーディングさせる命令を記憶しており、前記少なくとも1つのDC残差値が、前記深度CUの前記PUの前記区分と前記予測された深度CUの対応する区分との間のピクセル差分を表す、非一時的コンピュータ可読記憶媒体。 - 前記ビデオコーダが、ビデオデコーダを備え、前記1つまたは複数のプロセッサに前記シンタックス要素をコーディングさせる前記命令が、前記1つまたは複数のプロセッサに前記シンタックス要素を復号させる命令を備え、前記コンピュータ可読記憶媒体がさらに、前記1つまたは複数のプロセッサに、前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して前記深度CUを再構築させる命令を備える、請求項48に記載のコンピュータ可読媒体。
- ビデオデータを復号する方法であって、
前記ビデオデータの深度コーディングユニット(CU)がイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の区分に対する少なくとも1つのDC残差値を表す情報を示す1つまたは複数のシンタックス要素を備えるシンタックス構造を取得することと、ここにおいて、前記シンタックス構造の前記シンタックス要素は前記イントラ予測および前記インター予測に対して同じである、
前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して、前記深度CUを再構築することとを備える、方法。 - 前記シンタックス構造を取得することが、前記イントラ予測および前記インター予測のための単一のシンタックス構造を取得することを備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す情報を示す前記シンタックス要素を備える、請求項50に記載の方法。
- 前記シンタックス構造を取得することが、前記イントラ予測および前記インター予測に対して前記同じシンタックス構造の異なる実体を取得することを備え、前記同じシンタックス構造の前記異なる実体の各々が前記同じシンタックス要素を含む、請求項50に記載の方法。
- 前記同じシンタックス構造の前記異なる実体を取得することが、コンテキスト適応型エントロピー復号処理を使用して前記シンタックス構造の前記異なる実体をエントロピー復号することを備え、前記コンテキスト適応型エントロピー復号処理のために使用されるコンテキストモデルが、前記シンタックス構造の前記異なる実体に対して同じである、請求項52に記載の方法。
- 前記シンタックス要素によって示される前記情報が、前記深度CUの前記DC残差値の絶対値と前記DC残差値の符号とを表す、請求項50に記載の方法。
- ビデオデータを符号化する方法であって、
前記ビデオデータの深度コーディングユニット(CU)がイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の区分に対する少なくとも1つのDC残差値を表す情報を示す1つまたは複数のシンタックス要素を備えるシンタックス構造をコーディングすることと、ここにおいて、前記シンタックス構造の前記シンタックス要素は前記イントラ予測および前記インター予測に対して同じである、
前記少なくとも1つのDC残差値を表す前記情報に基づいて、前記深度CUを符号化することとを備える、方法。 - 前記シンタックス構造を符号化することが、前記イントラ予測および前記インター予測のための単一のシンタックス構造を符号化することを備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す情報を示す前記シンタックス要素を備える、請求項55に記載の方法。
- 前記シンタックス構造を符号化することが、前記イントラ予測および前記インター予測に対して前記同じシンタックス構造の異なる実体を符号化することを備え、前記同じシンタックス構造の前記異なる実体の各々が前記同じシンタックス要素を含む、請求項55に記載の方法。
- 前記同じシンタックス構造の前記異なる実体を符号化することが、コンテキスト適応型エントロピー復号処理を使用して前記シンタックス構造の前記異なる実体をエントロピー符号化することを備え、前記コンテキスト適応型エントロピー符号化処理のために使用されるコンテキストモデルが、前記シンタックス構造の前記異なる実体に対して同じである、請求項57に記載の方法。
- 前記シンタックス要素によって示される前記情報が、前記深度CUの前記DC残差値の絶対値と前記DC残差値の符号とを表す、請求項50に記載の方法。
- ビデオデータを記憶するメモリと、
1つまたは複数のプロセッサとを備えるビデオコーダであって、前記1つまたは複数のプロセッサが、
前記ビデオデータの深度コーディングユニット(CU)がイントラ予測されるとき、前記ビデオデータの予測された深度CUを生成するためにイントラ予測を実行し、
前記深度CUがインター予測されるとき、前記ビデオデータの前記予測された深度CUを生成するためにインター予測を実行し、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の区分に対する少なくとも1つのDC残差値を表す情報を示す1つまたは複数のシンタックス要素を備えるシンタックス構造をコーディングするように構成され、前記シンタックス構造の前記シンタックス要素が前記イントラ予測モードおよび前記インター予測モードに対して同じである、ビデオコーダ。 - 前記ビデオコーダがビデオデコーダを備え、前記1つまたは複数のプロセッサが、前記少なくとも1つのDC残差値を表す前記情報を取得するために前記シンタックス構造中の前記シンタックス要素を復号し、前記少なくとも1つのDC残差値と前記予測された深度CUとを使用して前記深度CUを再構築するように構成される、請求項60に記載のビデオコーダ。
- 前記ビデオコーダが、ビデオエンコーダを備え、前記1つまたは複数のプロセッサが、前記少なくとも1つのDC残差値と前記シンタックス要素とを表す前記情報を示すために前記シンタックス構造中の前記シンタックス要素を符号化するように構成される、請求項60に記載のビデオコーダ。
- 前記シンタックス構造が、前記イントラ予測および前記インター予測のための単一のシンタックス構造を備え、前記単一のシンタックス構造が、前記深度CUの前記イントラ予測と前記インター予測の1つに対する前記少なくとも1つのDC残差値を表す情報を示す前記シンタックス要素を備える、請求項60に記載のビデオコーダ。
- 前記シンタックス構造が、前記イントラ予測および前記インター予測に対して前記同じシンタックス構造の異なる実体を備え、前記同じシンタックス構造の前記異なる実体の各々が前記同じシンタックス要素を含む、請求項60に記載のビデオコーダ。
- 前記1つまたは複数のプロセッサが、コンテキスト適応型エントロピーコーディング処理を使用して前記シンタックス構造の前記異なる実体をエントロピーコーディングするように構成され、前記コンテキスト適応型エントロピーコーディングのために使用されるコンテキストモデルが、前記シンタックス構造の前記異なる実体に対して同じである、請求項64に記載の方法。
- 前記シンタックス要素によって示される前記情報が、前記深度CUの前記DC残差値の絶対値と前記DC残差値の符号とを表す、請求項60に記載の方法。
- 前記ビデオデータの深度コーディングユニット(CU)がイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行するための手段と、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行するための手段と、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の区分に対する少なくとも1つのDC残差値を表す情報を示す1つまたは複数のシンタックス要素を備えるシンタックス構造をコーディングするための手段とを備え、前記シンタックス構造の前記シンタックス要素が前記イントラ予測モードおよび前記インター予測モードに対して同じである、ビデオコーダ。 - 前記ビデオコーダが、前記少なくとも1つのDC残差値と前記予測される深度CUとを使用して前記深度CUを再構築するための手段を備えるビデオデコーダである、請求項67に記載のビデオコーダ。
- 実行されると、ビデオコーダの1つまたは複数のプロセッサに、
前記ビデオデータの深度コーディングユニット(CU)がイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行させ、
前記深度CUがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行させ、
簡易深度コーディング(SDC)モードが使用されるとき、前記深度CUの予測ユニット(PU)の区分に対する少なくとも1つのDC残差値を表す情報を示す1つまたは複数のシンタックス要素を備えるシンタックス構造をミーンズフォアコーディングさせる命令を記憶しており、前記シンタックス構造の前記シンタックス要素が前記イントラ予測モードおよび前記インター予測モードに対して同じである、非一時的コンピュータ可読記憶媒体。 - 前記ビデオコーダがビデオデコーダであり、前記ビデオコーダが前記少なくとも1つのDC残差値と前記予測される深度CUとを使用して前記深度CUを再構築するための手段を備える、請求項69に記載のビデオコーダ。
- ビデオデータを復号する方法であって、
簡易深度コーディング(SDC)モードがコーディングされたビデオデータのシーケンス全体の深度コーディングユニット(CU)に対して有効にされるかどうかを示す、第1のシンタックス要素を受信することと、
前記SDCモードが前記シーケンスの前記深度CUの1つのイントラ予測とインター予測の両方のために使用されるかどうかを示す、第2のシンタックス要素を受信することと、
前記シーケンスの前記深度CUの前記1つがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記シーケンスの前記深度CUの前記1つがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
前記SDCモードが使用されることを前記第2のシンタックス要素が示すとき、前記シーケンスの前記深度CUの前記1つに対する予測ユニット(PU)の区分の少なくとも1つのDC残差値を表す情報を取得することと、
前記少なくとも1つのDC残差値と前記それぞれの予測される深度CUとを使用して、前記シーケンスの前記深度CUの前記1つの前記PUの前記区分を再構築することとを備える、方法。 - 前記第1のシンタックス要素を受信することが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記第1のシンタックス要素を受信することを備える、請求項71に記載の方法。
- 前記DC残差値が、前記シーケンスの前記CUの1つの前記PUの前記区分の中のピクセルの平均深度値と、予測される深度区分の中のピクセルの平均深度値との間の差分を示す、請求項71に記載の方法。
- 前記第1のシンタックス要素が、前記SDCモードが有効にされることを示す第1の値と前記SDCモードが有効にされないことを示す第2の値とを有する1ビットのフラグを備える、請求項71に記載の方法。
- ビデオデータを符号化する方法であって、
簡易深度コーディング(SDC)モードがコーディングされたビデオデータのシーケンス全体の深度コーディングユニット(CU)に対して有効にされるかどうかを示す、シンタックス要素を符号化することと、
前記SDCモードが前記シーケンスの前記深度CUの1つのイントラ予測とインター予測の両方のために使用されるかどうかを示す、第2のシンタックス要素を符号化することと、
前記シーケンスの前記深度CUの1つがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行することと、
前記シーケンスの前記深度CUの1つがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行することと、
前記SDCモードが使用されることを前記第2のシンタックス要素が示すとき、前記シーケンスの前記深度CUの前記1つに対する予測ユニット(PU)の区分の少なくとも1つのDC残差値を表す情報を符号化することとを備える、方法。 - 前記第1のシンタックス要素を符号化することが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記シンタックス要素を符号化することを備える、請求項75に記載の方法。
- 前記DC残差値が、前記シーケンスの前記CUの1つの前記PUの前記区分の中のピクセルの平均深度値と、予測される深度区分の中のピクセルの平均深度値との間の差分を示す、請求項75に記載の方法。
- 前記第1のシンタックス要素が、前記SDCモードが有効にされることを示す第1の値と前記SDCモードが有効にされないことを示す第2の値とを有する1ビットのフラグを備える、請求項75に記載の方法。
- ビデオデータを記憶するメモリと、
1つまたは複数のプロセッサとを備えるビデオコーダであって、前記1つまたは複数のプロセッサが、
簡易深度コーディング(SDC)モードが前記ビデオデータのコードシーケンス全体の深度コーディングユニット(CU)に対して有効にされるかどうかを示す、シンタックス要素をコーディングし、
前記SDCモードが前記シーケンスの前記深度CUの1つのイントラ予測とインター予測の両方のために使用されるかどうかを示す、第2のシンタックス要素をコーディングし、
前記シーケンスの前記深度CUの1つがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行し、
前記シーケンスの前記深度CUの1つがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行し、
前記SDCモードが使用されることを前記第2のシンタックス要素が示すとき、前記シーケンスの前記深度CUの前記1つに対する予測ユニット(PU)の区分の少なくとも1つのDC残差値を表す情報をコーディングするように構成される、ビデオコーダ。 - 前記ビデオコーダがビデオデコーダであり、前記1つまたは複数のプロセッサが、前記少なくとも1つのDC残差値と前記それぞれの予測される深度CUとを使用して、前記シーケンスの前記深度CUの前記1つの前記PUの前記区分を再構築するように構成される、請求項79に記載のビデオコーダ。
- 前記1つまたは複数のプロセッサが、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記シンタックス要素をコーディングするように構成される、請求項79に記載のビデオコーダ。
- 前記DC残差値が、前記CUの予測ユニットの区分の中のピクセルの平均深度値と、予測される深度区分の中のピクセルの平均深度値との間の差分を示す、請求項79に記載のビデオコーダ。
- 前記第1のシンタックス要素が、前記少なくとも1つのDC残差値と前記それぞれの予測される深度CUとを使用して、前記シーケンスの前記深度CUの前記1つの前記PUの前記区分を前記ビデオデコーダにおいて再構築する1ビットのフラグを備える、請求項79に記載のビデオコーダ。
- 簡易深度コーディング(SDC)モードがコーディングされたビデオデータのシーケンス全体の深度コーディングユニット(CU)に対して有効にされるかどうかを示す、シンタックス要素をコーディングするための手段と、
前記SDCモードが前記シーケンスの前記深度CUの1つのイントラ予測とインター予測の両方のために使用されるかどうかを示す、第2のシンタックス要素をコーディングするための手段と、
前記シーケンスの前記深度CUの1つがイントラ予測されるとき、前記ビデオエンコーダにおいて、予測された深度CUを生成するためにイントラ予測を実行するための手段と、
前記シーケンスの前記深度CUの1つがインター予測されるとき、前記ビデオエンコーダにおいて、前記予測された深度CUを生成するためにインター予測を実行するための手段と、
前記SDCモードが使用されることを前記第2のシンタックス要素が示すとき、前記シーケンスの前記深度CUの前記1つに対する予測ユニット(PU)の区分の少なくとも1つのDC残差値を表す情報をコーディングするための手段とを備える、ビデオコーダ。 - ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記第1のシンタックス要素をコーディングするための手段をさらに備える、請求項84に記載のビデオコーダ。
- 命令を記憶した非一時的コンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオコーダの1つまたは複数のプロセッサに、
簡易深度コーディング(SDC)モードがコーディングされたビデオデータのシーケンス全体の深度コーディングユニット(CU)に対して有効にされるかどうかを示す、シンタックス要素をコーディングさせ、
前記SDCモードが前記シーケンスの前記深度CUの1つのイントラ予測とインター予測の両方のために使用されるかどうかを示す、第2のシンタックス要素をコーディングさせ、
前記シーケンスの前記深度CUの1つがイントラ予測されるとき、予測された深度CUを生成するためにイントラ予測を実行させ、
前記シーケンスの前記深度CUの1つがインター予測されるとき、前記予測された深度CUを生成するためにインター予測を実行させ、
前記SDCモードが使用されることを前記第2のシンタックス要素が示すとき、前記シーケンスの前記深度CUの前記1つに対する予測ユニット(PU)の区分の少なくとも1つのDC残差値を表す情報をコーディングさせる、非一時的コンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサに、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)の1つにおいて、前記第1のシンタックス要素をコーディングさせる命令をさらに備える、請求項86に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2013/001562 WO2015085449A1 (en) | 2013-12-13 | 2013-12-13 | Signaling of simplified depth coding (sdc) for depth intra-and inter – prediction modes in 3d video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017505025A true JP2017505025A (ja) | 2017-02-09 |
JP6462693B2 JP6462693B2 (ja) | 2019-01-30 |
Family
ID=53370425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016538769A Active JP6462693B2 (ja) | 2013-12-13 | 2013-12-13 | 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング |
Country Status (7)
Country | Link |
---|---|
US (2) | US10110895B2 (ja) |
EP (1) | EP3080987B1 (ja) |
JP (1) | JP6462693B2 (ja) |
KR (1) | KR102057369B1 (ja) |
CN (1) | CN105934948B (ja) |
HK (1) | HK1224117A1 (ja) |
WO (1) | WO2015085449A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023504291A (ja) * | 2020-10-02 | 2023-02-02 | テンセント・アメリカ・エルエルシー | ビデオ符号化のための方法および装置 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10110895B2 (en) | 2013-12-13 | 2018-10-23 | Qualcomm Incorporated | Signaling of simplified depth coding (SDC) for depth intra- and inter-prediction modes in 3D video coding |
JP2017505037A (ja) * | 2013-12-26 | 2017-02-09 | サムスン エレクトロニクス カンパニー リミテッド | デプス符号化方法及びその装置、デプス復号化方法及びその装置 |
JP6308449B2 (ja) * | 2014-06-26 | 2018-04-11 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 高効率ビデオ符号化における演算負荷を低減するための方法および装置 |
US20170134732A1 (en) * | 2015-11-05 | 2017-05-11 | Broadcom Corporation | Systems and methods for digital media communication using syntax planes in hierarchical trees |
US10944963B2 (en) * | 2016-05-25 | 2021-03-09 | Arris Enterprises Llc | Coding weighted angular prediction for intra coding |
ES2699748B2 (es) * | 2016-07-05 | 2021-05-13 | Kt Corp | Metodo y aparato para procesar senal de video |
US10771781B2 (en) * | 2018-03-12 | 2020-09-08 | Electronics And Telecommunications Research Institute | Method and apparatus for deriving intra prediction mode |
US11611757B2 (en) * | 2018-04-02 | 2023-03-21 | Qualcomm Incorproated | Position dependent intra prediction combination extended with angular modes |
JP7355829B2 (ja) * | 2018-09-18 | 2023-10-03 | 華為技術有限公司 | ビデオエンコーダ、ビデオデコーダ、及び対応する方法 |
WO2020057530A1 (en) | 2018-09-18 | 2020-03-26 | Huawei Technologies Co., Ltd. | Coding method, device, system |
CN118158431A (zh) * | 2018-10-12 | 2024-06-07 | 韦勒斯标准与技术协会公司 | 使用多假设预测的视频信号处理方法和装置 |
EP3871419A1 (en) * | 2018-10-25 | 2021-09-01 | InterDigital VC Holdings, Inc. | Method and apparatus for video encoding and decoding with signaling of coding type or coding tree type |
US10848763B2 (en) | 2018-11-14 | 2020-11-24 | Tencent America LLC | Method and apparatus for improved context design for prediction mode and coded block flag (CBF) |
AU2019419454A1 (en) * | 2018-12-31 | 2021-07-15 | Interdigital Vc Holdings, Inc. | Combined inter and intra prediction |
US11889085B2 (en) * | 2019-03-08 | 2024-01-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods providing encoding/decoding of dependent/independent partitions and related devices |
JP7079377B2 (ja) * | 2019-03-25 | 2022-06-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
WO2020215338A1 (zh) * | 2019-04-26 | 2020-10-29 | 深圳市大疆创新科技有限公司 | 视频编解码的方法和装置 |
US11284093B2 (en) * | 2019-05-09 | 2022-03-22 | Qualcomm Incorporated | Affine linear weighted intra prediction in video coding |
KR102684993B1 (ko) | 2019-06-28 | 2024-07-16 | 바이트댄스 아이엔씨 | 화면 콘텐츠 코딩에서의 크로마 인트라 모드 도출 |
US11375243B2 (en) * | 2019-07-17 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
CN114208205A (zh) | 2019-07-25 | 2022-03-18 | 韦勒斯标准与技术协会公司 | 视频信号处理方法和设备 |
BR112022001411A2 (pt) | 2019-08-01 | 2022-03-22 | Huawei Tech Co Ltd | Codificador, decodificador e métodos correspondentes de derivação de modo intra de croma |
WO2021037277A1 (en) | 2019-09-01 | 2021-03-04 | Beijing Bytedance Network Technology Co., Ltd. | Rules for video coding using geometric partitioning mode |
WO2021068920A1 (en) * | 2019-10-10 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Use of non-rectangular partitions in video coding |
CN117156133B (zh) * | 2023-10-27 | 2024-02-09 | 淘宝(中国)软件有限公司 | 一种视频编码的帧间预测模式选择方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130002816A1 (en) * | 2010-12-29 | 2013-01-03 | Nokia Corporation | Depth Map Coding |
US20130022113A1 (en) * | 2011-07-22 | 2013-01-24 | Qualcomm Incorporated | Slice header prediction for depth maps in three-dimensional video codecs |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100319155B1 (ko) | 1999-02-01 | 2001-12-29 | 구자홍 | 신뢰도를 이용한 대표칼라 지정방법 |
EP2237557A1 (en) | 2009-04-03 | 2010-10-06 | Panasonic Corporation | Coding for filter coefficients |
KR101791078B1 (ko) * | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | 영상 부호화/복호화 장치 및 방법 |
KR101379188B1 (ko) * | 2010-05-17 | 2014-04-18 | 에스케이 텔레콤주식회사 | 인트라 블록 및 인터 블록이 혼합된 코딩블록을 이용하는 영상 부호화/복호화 장치 및 그 방법 |
KR20120052739A (ko) * | 2010-11-16 | 2012-05-24 | 삼성전자주식회사 | 디스플레이 구동 장치 및 그것의 영상 데이터 압축 및 복원 방법 |
US9497472B2 (en) * | 2010-11-16 | 2016-11-15 | Qualcomm Incorporated | Parallel context calculation in video coding |
US20120189052A1 (en) * | 2011-01-24 | 2012-07-26 | Qualcomm Incorporated | Signaling quantization parameter changes for coded units in high efficiency video coding (hevc) |
US9485517B2 (en) * | 2011-04-20 | 2016-11-01 | Qualcomm Incorporated | Motion vector prediction with motion vectors from multiple views in multi-view video coding |
US8929455B2 (en) | 2011-07-01 | 2015-01-06 | Mitsubishi Electric Research Laboratories, Inc. | Method for selecting transform types from mapping table for prediction modes |
US9800870B2 (en) | 2011-09-16 | 2017-10-24 | Qualcomm Incorporated | Line buffer reduction for short distance intra-prediction |
EP2579592A1 (en) * | 2011-10-04 | 2013-04-10 | Thomson Licensing | Method and device for inter-view-predictive encoding of data of a view, device for decoding and computer-readable storage medium carrying encoded data of a view |
US10091515B2 (en) * | 2012-03-21 | 2018-10-02 | Mediatek Singapore Pte. Ltd | Method and apparatus for intra mode derivation and coding in scalable video coding |
CN103533324B (zh) * | 2012-07-03 | 2017-04-05 | 乐金电子(中国)研究开发中心有限公司 | 一种深度图像帧内编码方法、装置及编码器 |
CN103200405B (zh) * | 2013-04-03 | 2016-06-01 | 清华大学 | 一种3dv视频编码方法及编码器 |
CN104104964B (zh) * | 2013-04-09 | 2019-03-12 | 乐金电子(中国)研究开发中心有限公司 | 一种深度图像帧间编码、解码方法、编码器及解码器 |
US9497485B2 (en) * | 2013-04-12 | 2016-11-15 | Intel Corporation | Coding unit size dependent simplified depth coding for 3D video coding |
CN103237216B (zh) * | 2013-04-12 | 2017-09-12 | 华为技术有限公司 | 深度图像的编解码方法和编解码装置 |
US9571809B2 (en) * | 2013-04-12 | 2017-02-14 | Intel Corporation | Simplified depth coding with modified intra-coding for 3D video coding |
CN103327336B (zh) * | 2013-06-28 | 2016-08-31 | 华为技术有限公司 | 一种三维编码的方法及设备 |
JP6866157B2 (ja) | 2013-09-27 | 2021-04-28 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 深度イントラ予測モードのための残差コーディング |
WO2015056953A1 (ko) * | 2013-10-14 | 2015-04-23 | 삼성전자 주식회사 | 뎁스 인터 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US10110895B2 (en) | 2013-12-13 | 2018-10-23 | Qualcomm Incorporated | Signaling of simplified depth coding (SDC) for depth intra- and inter-prediction modes in 3D video coding |
-
2013
- 2013-12-13 US US15/103,798 patent/US10110895B2/en active Active
- 2013-12-13 EP EP13899341.5A patent/EP3080987B1/en active Active
- 2013-12-13 KR KR1020167016424A patent/KR102057369B1/ko active IP Right Grant
- 2013-12-13 JP JP2016538769A patent/JP6462693B2/ja active Active
- 2013-12-13 WO PCT/CN2013/001562 patent/WO2015085449A1/en active Application Filing
- 2013-12-13 CN CN201380081514.8A patent/CN105934948B/zh active Active
-
2016
- 2016-10-20 HK HK16112138.0A patent/HK1224117A1/zh unknown
-
2018
- 2018-02-13 US US15/895,815 patent/US11039129B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130002816A1 (en) * | 2010-12-29 | 2013-01-03 | Nokia Corporation | Depth Map Coding |
US20130022113A1 (en) * | 2011-07-22 | 2013-01-24 | Qualcomm Incorporated | Slice header prediction for depth maps in three-dimensional video codecs |
Non-Patent Citations (9)
Title |
---|
BENJAMIN BROSS ET AL.: "High efficiency video coding (HEVC) text specification draft 7", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 9TH M, vol. JCTVC-I1003_d9, JPN6017037939, 14 July 2012 (2012-07-14), pages 45、84−85頁 * |
BENJAMIN BROSS ET AL.: "High efficiency video coding (HEVC) text specification draft 7", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 9TH M, vol. JCTVC-I1003_d9, JPN6018009705, 14 July 2012 (2012-07-14) * |
FABIAN JAGER ET AL.: "3D-CE6.h: Simplified Depth Coding with an optional Depth Lookup Table", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-B0036, JPN6017037940, 17 October 2012 (2012-10-17), SW * |
GERHARD TECH ET AL.: "3D-HEVC Draft Text 1", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-E1001-v3, JPN6017037941, 2 August 2013 (2013-08-02), pages 17−19、27頁 * |
GERHARD TECH FRAUNHOFER ET AL.: "3D-HEVC Test Model 2", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT 2ND MEETING: SHANGHAI, vol. JCT3V-B1005_d0, JPN6018009702, 21 January 2013 (2013-01-21) * |
GERHARD TECH, ET AL.: "3D-HEVC Draft Text 2", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT 6TH MEETING: GENEVA, vol. JCT3V-F1001-v2, JPN6018009713, 5 December 2013 (2013-12-05), pages 18−24頁 * |
HONGBIN LIU ET AL.: "CE5 related: Generic SDC for all intra modes in 3D-HEVC", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-F0126, JPN6017037938, 1 November 2013 (2013-11-01), SW * |
HONGBIN LIU, ET AL.: "CE6.h: Results on Simplified Inter Mode Coding of Depth", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT 5TH MEETING: VIENNA, vol. JCT3V-E0156_r2, JCT3V-E0156-spec.docx, JPN6018009703, 19 July 2013 (2013-07-19) * |
ZHIPIN DENG ET AL.: "3D-CE6-related: SDC without per-pixel prediction", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS 4TH MEETING: INCHEON, JPN6018009708, 26 April 2013 (2013-04-26) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023504291A (ja) * | 2020-10-02 | 2023-02-02 | テンセント・アメリカ・エルエルシー | ビデオ符号化のための方法および装置 |
JP7423132B2 (ja) | 2020-10-02 | 2024-01-29 | テンセント・アメリカ・エルエルシー | ビデオ符号化のための方法および装置 |
US12047593B2 (en) | 2020-10-02 | 2024-07-23 | Tencent America LLC | Method and apparatus for video coding |
Also Published As
Publication number | Publication date |
---|---|
US11039129B2 (en) | 2021-06-15 |
WO2015085449A1 (en) | 2015-06-18 |
CN105934948A (zh) | 2016-09-07 |
HK1224117A1 (zh) | 2017-08-11 |
US20160316200A1 (en) | 2016-10-27 |
EP3080987B1 (en) | 2021-04-07 |
JP6462693B2 (ja) | 2019-01-30 |
KR102057369B1 (ko) | 2020-01-22 |
CN105934948B (zh) | 2019-04-02 |
EP3080987A1 (en) | 2016-10-19 |
US10110895B2 (en) | 2018-10-23 |
EP3080987A4 (en) | 2017-05-03 |
US20180241992A1 (en) | 2018-08-23 |
BR112016013489A2 (pt) | 2017-08-08 |
KR20160096624A (ko) | 2016-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6462693B2 (ja) | 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング | |
JP6312854B2 (ja) | 3dビデオコーディングにおけるデルタdc残差コーディングの簡易化 | |
US10687079B2 (en) | Constrained depth intra mode coding for 3D video coding | |
JP6866157B2 (ja) | 深度イントラ予測モードのための残差コーディング | |
JP6396493B2 (ja) | 3dビデオコーディングにおける大型予測ブロックのセグメントごとのdcコーディングの簡易化 | |
JP6698351B2 (ja) | ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング | |
US20150172717A1 (en) | Large blocks and depth modeling modes (dmm's) in 3d video coding | |
JP2016524408A (ja) | 隣接ベースの視差ベクトル導出を用いた3dビデオコーディングのための、並列に導出された視差ベクトル | |
KR20140120900A (ko) | 심도를 갖는 3d 비디오 코딩에서의 멀티-가설 디스패리티 벡터 구성 | |
WO2015131388A1 (en) | Simplification of depth intra mode coding in 3d video coding | |
US20150063464A1 (en) | Lookup table coding | |
WO2015042751A1 (en) | Residual coding for depth intra prediction modes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6462693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |