JP2016514431A - 深度マップイントラコード化のための予測子 - Google Patents
深度マップイントラコード化のための予測子 Download PDFInfo
- Publication number
- JP2016514431A JP2016514431A JP2015561876A JP2015561876A JP2016514431A JP 2016514431 A JP2016514431 A JP 2016514431A JP 2015561876 A JP2015561876 A JP 2015561876A JP 2015561876 A JP2015561876 A JP 2015561876A JP 2016514431 A JP2016514431 A JP 2016514431A
- Authority
- JP
- Japan
- Prior art keywords
- partition
- block
- samples
- predicted value
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005192 partition Methods 0.000 claims abstract description 630
- 238000000034 method Methods 0.000 claims abstract description 121
- 239000000523 sample Substances 0.000 claims description 220
- 239000013074 reference sample Substances 0.000 claims description 77
- 238000012545 processing Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 abstract description 34
- 238000000638 solvent extraction Methods 0.000 abstract description 28
- 238000010586 diagram Methods 0.000 description 34
- 239000013598 vector Substances 0.000 description 31
- 230000007704 transition Effects 0.000 description 30
- 238000013139 quantization Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 20
- 238000012935 Averaging Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 13
- 241000023320 Luma <angiosperm> Species 0.000 description 11
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 11
- 230000011218 segmentation Effects 0.000 description 11
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 10
- 238000007792 addition Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000005022 packaging material Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Abstract
Description
1. DC0及びDC1を2B-1として設定し、変数S0、S1、N0及びN1を0に等しく設定する。
2. i=0..N−1である場合、以下が適用される。
i. bPatterni,0が0に等しい場合、S0をS0+pi,-1として設定し、N0をN0+1として設定し、
ii. そうでない場合、S1をS1+pi,-1として設定し、N1をN1+1として設定する。
3. i=0..N−1である場合、以下が適用される。
i. bPattern0,iが0に等しい場合、S0をS0+p-1,iとして設定し、N0をN0+1として設定し、
ii. そうでない場合、S1をS1+p-1,iとして設定し、N1をN1+1として設定する。
1. 変数bL及びbTを偽に設定し、変数V0及びV1を0に設定する。
2. x=0..N−2である場合、bTは、bPatternx,0がbPatternx+1,0に等しくないとき、真として設定され、bLは、bPattern0,xがbPattern0,x+1に等しくないとき、真として設定される。
この例では、ビデオコーダは、0の2進区分値から1の2進区分値へ(又はその逆)の遷移を識別するために、最上行及び左列の各サンプルを検査することによって、ブロックの最上行に沿った及びブロックの左列に沿った区分境界を識別する。この情報を用いて、ビデオコーダは、上記の図11A〜図11Hに示された例示的な区分パターンのうちの1つなど、区分パターンを決定する。
2. bPattern0,0がbPatternN-1,0に等しくないとき、bTを真に設定し、bPattern0,0がbPattern0,N-1に等しくないとき、bLを真に設定する。
この例では、ビデオコーダは、上記で説明したように、深度ブロックの最外サンプルに基づいて区分パターンを決定する。
3. bL及びbTについて、
i. bLがbTに等しい場合、
a. V1を(p-1,0+p0,-1)>>1として設定する。
b. bLが真である場合、V0を(p-1,N-1+pN-1,-1)>>1として設定し、そうでない場合、V0を1<<(B−1)として設定する。
ii. そうでない場合、
a. bLが真である場合、V0をp-1,N-1として設定し、V1をp(N-1)>>1,-1として設定する。
b. そうでない場合、V0をpN-1,-1として設定し、V1をp-1,(N-1)>>1として設定する。
4. bPattern0,0が1に等しい場合、DC0をV0として設定し、DC1をV1として設定する。そうでない場合、DC0をV1として設定し、DC1をV0として設定する。
この例では、ブロックの左上コーナーサンプルが第2の区分(区分1)に属する場合、ビデオコーダは、第1のDC予測値DC0を変数V0として設定し、第2のDC予測値DC1を変数V1として設定する。ブロックの左上コーナーサンプルが第1の区分(区分0)に属する場合、ビデオコーダは、第1のDC予測値DC0を変数V1として設定し、第2のDC予測値DC1を変数V0として設定する。
このプロセスへの入力は以下の通りである。
− x,y=−1..2*nT−1である、近隣サンプルp[x][y]、
− 区分0及び区分1中の予測ブロックの区分を指定する、x,y=0..nT−1である、2進アレイpartitionPattern[x][y]。
− 変換サイズを指定する変数nT、
− DCオフセット値が利用可能であるかどうかを指定するフラグdcOffsetAvailFlag
− ブロック区分のためのDCオフセットを指定する変数quantDcOffsetP0及びquantCcOffsetP1
このプロセスの出力は以下の通りである。
− x,y=0..nT−1によって、予測サンプルpredSamples[x][y]。
− partitionPattern[x][0]がXpartitionPattern[x+1][0]に等しくないとき、以下が適用される。
1. 逆量子化されたDCオフセットを指定する変数deQuantDcOffsetは以下のように導出される。
− dcOffsetAvailFlagが1に等しい場合、以下が適用される。
2. 予測サンプル値predSamplesは、x=0..nT−1である場合、及びy=0..nT−1である場合、以下のように導出される。
− partitionPattern[x][y]がXに等しいとき、以下が適用される。
このプロセスへの入力は以下の通りである。
− x,y=−1..2*nT−1によって、近隣サンプルp[x][y]、
− 区分0及び区分1中の予測ブロックの区分を指定する、x,y=0..nT−1によって、2進アレイpartitionPattern[x][y]。
− 変換サイズを指定する変数nT、
− DCオフセット値が利用可能であるかどうかを指定するフラグdcOffsetAvailFlag
− ブロック区分のためのDCオフセットを指定する変数quantDcOffsetP0及びquantCcOffsetP1
このプロセスの出力は以下の通りである。
− x,y=0..nT−1である、予測サンプルpredSamples[x][y]。
− dcOffsetAvailFlagが1に等しい場合、以下が適用される。
2. 予測サンプル値predSamplesは、x=0..nT−1である場合、及びy=0..nT−1である場合、以下のように導出される。
Claims (48)
- ビデオデータを処理する方法であって、前記方法が、
深度値のブロックの1つ以上のサンプルを第1の区分に割り当てることと、前記ブロックの1つ以上の他のサンプルを第2の区分に割り当てることとを備える、前記ブロックのための区分パターンを決定することと、
決定された区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための予測値を決定することと、
前記予測値に基づいて、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化することと
を備える、方法。 - 前記第1の区分のための前記予測値を決定することが、前記第1の区分に近隣する丁度1つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度1つの参照サンプルの値に設定することを更に備える、請求項1に記載の方法。
- 前記第1の区分のための前記予測値を決定することが、前記第1の区分に近隣する丁度2つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度2つの参照サンプルの平均値に設定することを更に備える、請求項1に記載の方法。
- 前記第1の区分のための前記予測値を決定することが、前記第1の区分に近隣する参照サンプルを識別し、前記第1の区分のための前記予測値を前記参照サンプルの値に設定することを更に備え、
前記第2の区分のための前記予測値を決定することが、デフォルト値を決定し、前記第2の区分のための前記予測値を前記デフォルト値に設定することを更に備える、請求項1に記載の方法。 - 決定された前記区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための前記予測値を決定することは、
第1の区分境界が前記ブロックの最上行中に含まれるかどうかを決定するために、前記ブロックの前記最上行のサンプルを比較することと、
第2の区分境界が前記ブロックの左列中に含まれるかどうかを決定するために、前記ブロックの前記左列のサンプルを比較することと、
前記第1の区分境界が前記最上行中に含まれるかどうかと、前記第2の区分境界が前記ブロックの前記左列中に含まれるかどうかとに基づいて、前記第1の予測値と前記第2の予測値とを決定することと
を備える、請求項1に記載の方法。 - 前記ブロックの前記最上行のサンプルを比較することが、前記ブロックの前記最上行の全てのサンプルを比較することを備え、
前記ブロックの前記左列のサンプルを比較することが、前記ブロックの前記左列の全てのサンプルを比較することを備える、請求項5に記載の方法。 - 前記ブロックの前記最上行のサンプルを比較することが、前記ブロックの前記最上行の第1のサンプルを前記ブロックの前記最上行のN−1番目のサンプルと比較することを備え、ここで、前記最上行がN個のサンプルを有し、
前記ブロックの前記左列のサンプルを比較することが、前記ブロックの前記左列の第1のサンプルを前記ブロックの前記左列のN−1番目のサンプルと比較することを備え、ここで、前記左列がN個のサンプルを有する、請求項5に記載の方法。 - ブロックが前記第1の区分境界と前記第2の区分境界の両方を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定することが、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルと前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと、ここで、前記最上行及び前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を備える、請求項5に記載の方法。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定することが、
前記第1の予測値を所定のデフォルト値に設定することと、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を備える、請求項5に記載の方法。 - 前記ブロックが前記第1の区分境界を含み、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定することが、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
前記第2の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
を備える、請求項5に記載の方法。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定することが、
前記第1の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
を備える、請求項5に記載の方法。 - 前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化することが、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つを復号することを備え、ここにおいて、復号することが、
符号化されたビットストリームからの1つ以上の残差値を構文解析することと、
前記ブロックの深度値を再構成するために、前記1つ以上の残差値を、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための決定された前記予測値と組み合わせることと
を備える、請求項1に記載の方法。 - 前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化することが、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つを符号化することを備え、ここにおいて、符号化することが、
前記ブロックの深度値と、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための決定された前記予測値との間の差分に基づいて、1つ以上の残差値を決定することと、
符号化されたビットストリームを形成するために、前記1つ以上の残差値を表すデータを符号化することと
を備える、請求項1に記載の方法。 - ビデオデータを処理するための装置であって、前記装置が、
深度値のブロックの1つ以上のサンプルを第1の区分に割り当てることと、前記ブロックの1つ以上の他のサンプルを第2の区分に割り当てることとを備える、前記ブロックのための区分パターンを決定することと、
決定された区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための予測値を決定することと、
前記予測値に基づいて、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化することと
を行うように構成された1つ以上のプロセッサを備える、装置。 - 前記第1の区分のための前記予測値を決定するために、前記1つ以上のプロセッサが、前記第1の区分に近隣する丁度1つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度1つの参照サンプルの値に設定することを行うように更に構成された、請求項14に記載の装置。
- 前記第1の区分のための前記予測値を決定するために、前記1つ以上のプロセッサが、前記第1の区分に近隣する丁度2つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度2つの参照サンプルの平均値に設定することを行うように更に構成された、請求項14に記載の装置。
- 前記第1の区分のための前記予測値を決定するために、前記1つ以上のプロセッサが、前記第1の区分に近隣する参照サンプルを識別し、前記第1の区分のための前記予測値を前記参照サンプルの値に設定することを行うように更に構成され、
前記第2の区分のための前記予測値を決定するために、前記1つ以上のプロセッサが、デフォルト値を決定し、前記第2の区分のための前記予測値を前記デフォルト値に設定することを行うように更に構成された、請求項14に記載の装置。 - 前記決定された区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための前記予測値を決定するために、前記1つ以上のプロセッサは、
第1の区分境界が前記ブロックの最上行中に含まれるかどうかを決定するために、前記ブロックの前記最上行のサンプルを比較することと、
第2の区分境界が前記ブロックの左列中に含まれるかどうかを決定するために、前記ブロックの前記左列のサンプルを比較することと、
前記第1の区分境界が前記最上行中に含まれるかどうかと、前記第2の区分境界が前記ブロックの前記左列中に含まれるかどうかとに基づいて、前記第1の予測値と前記第2の予測値とを決定することと
を行うように更に構成された、請求項14に記載の装置。 - 前記ブロックの前記最上行のサンプルを比較するために、前記1つ以上のプロセッサが、前記ブロックの前記最上行の全てのサンプルを比較するように構成され、
前記ブロックの前記左列のサンプルを比較するために、前記1つ以上のプロセッサが、前記ブロックの前記左列の全てのサンプルを比較するように構成された、請求項18に記載の装置。 - 前記ブロックの前記最上行のサンプルを比較するために、前記1つ以上のプロセッサが、前記ブロックの前記最上行の第1のサンプルを前記ブロックの前記最上行のN−1番目のサンプルと比較するように構成され、ここで、前記最上行がN個のサンプルを有し、
前記ブロックの前記左列のサンプルを比較するために、前記1つ以上のプロセッサが、前記ブロックの前記左列の第1のサンプルを前記ブロックの前記左列のN−1番目のサンプルと比較するように構成され、ここで、前記左列がN個のサンプルを有する、請求項18に記載の装置。 - ブロックが前記第1の区分境界と前記第2の区分境界の両方を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記1つ以上のプロセッサが、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルと前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと、ここで、前記最上行及び前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を行うように構成された、請求項18に記載の装置。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記1つ以上のプロセッサが、
前記第1の予測値を所定のデフォルト値に設定することと、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を行うように構成された、請求項18に記載の装置。 - 前記ブロックが前記第1の区分境界を含み、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記1つ以上のプロセッサが、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
前記第2の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
を行うように構成された、請求項18に記載の装置。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記1つ以上のプロセッサが、
前記第1の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
を行うように構成された、請求項18に記載の装置。 - 前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化するために、前記1つ以上のプロセッサが、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つを復号するように構成され、ここにおいて、復号するために、前記1つ以上のプロセッサが、
符号化されたビットストリームからの1つ以上の残差値を構文解析することと、
前記ブロックの深度値を再構成するために、前記1つ以上の残差値を、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための決定された前記予測値と組み合わせることと
を行うように構成された、請求項14に記載の装置。 - 前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化するために、前記1つ以上のプロセッサが、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つを符号化するように構成され、ここにおいて、符号化するために、前記1つ以上のプロセッサが、
前記ブロックの深度値と、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための決定された前記予測値との間の差分に基づいて、1つ以上の残差値を決定することと、
符号化されたビットストリームを形成するために、前記1つ以上の残差値を表すデータを符号化することと
を行うように構成された、請求項14に記載の装置。 - ビデオデータを処理するための装置であって、前記装置が、
深度値のブロックの1つ以上のサンプルを第1の区分に割り当てることと、前記ブロックの1つ以上の他のサンプルを第2の区分に割り当てることとを備える、前記ブロックのための区分パターンを決定するための手段と、
決定された区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための予測値を決定するための手段と、
前記予測値に基づいて、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化するための手段と
を備える、装置。 - 前記第1の区分のための前記予測値を決定するための前記手段が、前記第1の区分に近隣する丁度1つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度1つの参照サンプルの値に設定するための手段を更に備える、請求項27に記載の装置。
- 前記第1の区分のための前記予測値を決定するための前記手段が、前記第1の区分に近隣する丁度2つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度2つの参照サンプルの平均値に設定するための手段を更に備える、請求項27に記載の装置。
- 前記第1の区分のための前記予測値を決定するための前記手段が、前記第1の区分に近隣する参照サンプルを識別し、前記第1の区分のための前記予測値を前記参照サンプルの値に設定するための手段を更に備え、
前記第2の区分のための前記予測値を決定するための前記手段が、デフォルト値を決定し、前記第2の区分のための前記予測値を前記デフォルト値に設定するための手段を更に備える、請求項27に記載の装置。 - 決定された前記区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための前記予測値を決定するための前記手段は、
第1の区分境界が前記ブロックの最上行中に含まれるかどうかを決定するために、前記ブロックの前記最上行のサンプルを比較するための手段と、
第2の区分境界が前記ブロックの左列中に含まれるかどうかを決定するために、前記ブロックの前記左列のサンプルを比較するための手段と、
前記第1の区分境界が前記最上行中に含まれるかどうかと、前記第2の区分境界が前記ブロックの前記左列中に含まれるかどうかとに基づいて、前記第1の予測値と前記第2の予測値とを決定するための手段と
を備える、請求項27に記載の装置。 - 前記ブロックの前記最上行のサンプルを比較するための前記手段が、前記ブロックの前記最上行の全てのサンプルを比較するための手段を備え、
前記ブロックの前記左列のサンプルを比較するための前記手段が、前記ブロックの前記左列の全てのサンプルを比較するための手段を備える、請求項31に記載の装置。 - 前記ブロックの前記最上行のサンプルを比較するための前記手段が、前記ブロックの前記最上行の第1のサンプルを前記ブロックの前記最上行のN−1番目のサンプルと比較するための手段を備え、ここで、前記最上行がN個のサンプルを有し、
前記ブロックの前記左列のサンプルを比較するための前記手段が、前記ブロックの前記左列の第1のサンプルを前記ブロックの前記左列のN−1番目のサンプルと比較するための手段を備え、ここで、前記左列がN個のサンプルを有する、請求項31に記載の装置。 - ブロックが前記第1の区分境界と前記第2の区分境界の両方を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するための前記手段が、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルと前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルとの組合せに設定するための手段と、ここで、前記最上行及び前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定するための手段と
を備える、請求項31に記載の装置。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するための前記手段が、
前記第1の予測値を所定のデフォルト値に設定するための手段と、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定するための手段と
を備える、請求項31に記載の装置。 - 前記ブロックが前記第1の区分境界を含み、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するための前記手段が、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定するための手段と、ここで、前記最上行がN個のサンプルを有する、
前記第2の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定するための手段と、ここで、前記左列がN個のサンプルを有する、
を備える、請求項31に記載の装置。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するための前記手段が、
前記第1の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定するための手段と、ここで、前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定するための手段と、ここで、前記最上行がN個のサンプルを有する、請求項31に記載の装置。 - 記憶された命令を備える非一時的コンピュータ可読媒体であって、前記命令が、実行されたとき、1つ以上のプロセッサに、
深度値のブロックの1つ以上のサンプルを第1の区分に割り当てることと、前記ブロックの1つ以上の他のサンプルを第2の区分に割り当てることとを備える、前記ブロックのための区分パターンを決定することと、
決定された区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための予測値を決定することと、
前記予測値に基づいて、前記第1の区分及び前記第2の区分のうちの前記少なくとも1つをコード化することと
を行わせる、非一時的コンピュータ可読媒体。 - 前記第1の区分のための前記予測値を決定するために、前記命令が、前記1つ以上のプロセッサに、前記第1の区分に近隣する丁度1つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度1つの参照サンプルの値に設定することを行わせる、請求項38に記載のコンピュータ可読媒体。
- 前記第1の区分のための前記予測値を決定するために、前記命令が、前記1つ以上のプロセッサに、前記第1の区分に近隣する丁度2つの参照サンプルを識別し、前記第1の区分のための前記予測値を前記丁度2つの参照サンプルの平均値に設定することを行わせる、請求項38に記載のコンピュータ可読媒体。
- 前記第1の区分のための前記予測値を決定するために、前記命令が、前記1つ以上のプロセッサに、前記第1の区分に近隣する参照サンプルを識別し、前記第1の区分のための前記予測値を前記参照サンプルの値に設定することを行わせ、
前記第2の区分のための前記予測値を決定するために、前記命令が、前記1つ以上のプロセッサに、デフォルト値を決定し、前記第2の区分のための前記予測値を前記デフォルト値に設定することを行わせる、請求項38に記載のコンピュータ可読媒体。 - 決定された前記区分パターンに基づいて、前記第1の区分及び前記第2の区分のうちの少なくとも1つのための前記予測値を決定するために、前記命令は、前記1つ以上のプロセッサに、
第1の区分境界が前記ブロックの最上行中に含まれるかどうかを決定するために、前記ブロックの前記最上行のサンプルを比較することと、
第2の区分境界が前記ブロックの左列中に含まれるかどうかを決定するために、前記ブロックの前記左列のサンプルを比較することと、
前記第1の区分境界が前記最上行中に含まれるかどうかと、前記第2の区分境界が前記ブロックの前記左列中に含まれるかどうかとに基づいて、前記第1の予測値と前記第2の予測値とを決定することと
を行わせる、請求項38に記載のコンピュータ可読媒体。 - 前記ブロックの前記最上行のサンプルを比較するために、前記命令が、前記1つ以上のプロセッサに、前記ブロックの前記最上行の全てのサンプルを比較させ、
前記ブロックの前記左列のサンプルを比較するために、前記命令が、前記1つ以上のプロセッサに、前記ブロックの前記左列の全てのサンプルを比較させる、請求項18に記載のコンピュータ可読媒体。 - 前記ブロックの前記最上行のサンプルを比較するために、前記命令が、前記1つ以上のプロセッサに、前記ブロックの前記最上行の第1のサンプルを前記ブロックの前記最上行のN−1番目のサンプルと比較させ、ここで、前記最上行がN個のサンプルを有し、
前記ブロックの前記左列のサンプルを比較するために、前記命令が、前記1つ以上のプロセッサに、前記ブロックの前記左列の第1のサンプルを前記ブロックの前記左列のN−1番目のサンプルと比較させ、ここで、前記左列がN個のサンプルを有する、請求項18に記載のコンピュータ可読媒体。 - ブロックが前記第1の区分境界と前記第2の区分境界の両方を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記命令が、前記1つ以上のプロセッサに、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルと前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと、ここで、前記最上行及び前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を行わせる、請求項18に記載のコンピュータ可読媒体。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記命令が、前記1つ以上のプロセッサに、
前記第1の予測値を所定のデフォルト値に設定することと、
前記第2の予測値を、前記最上行の第1のサンプルの上に位置する近隣参照サンプルと前記左列の第1のサンプルの左に位置する近隣参照サンプルとの組合せに設定することと
を行わせる、請求項18に記載のコンピュータ可読媒体。 - 前記ブロックが前記第1の区分境界を含み、前記第2の区分境界を含まず、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記命令が、前記1つ以上のプロセッサに、
前記第1の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
前記第2の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
を行わせる、請求項18に記載のコンピュータ可読媒体。 - 前記ブロックが前記第1の区分境界を含まず、前記第2の区分境界を含み、前記ブロックの前記左上コーナーのサンプルが前記第1の区分に割り当てられるとき、前記第1の予測値と前記第2の予測値とを決定するために、前記命令が、前記1つ以上のプロセッサに、
前記第1の予測値を、前記左列のN−1番目のサンプルの左に位置する近隣参照サンプルに設定することと、ここで、前記左列がN個のサンプルを有する、
前記第2の予測値を、前記最上行のN−1番目のサンプルの上に位置する近隣参照サンプルに設定することと、ここで、前記最上行がN個のサンプルを有する、
を行わせる、請求項18に記載のコンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2013/000287 WO2014139049A1 (en) | 2013-03-15 | 2013-03-15 | Predictor for depth map intra coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016514431A true JP2016514431A (ja) | 2016-05-19 |
JP6262260B2 JP6262260B2 (ja) | 2018-01-17 |
Family
ID=51535759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015561876A Active JP6262260B2 (ja) | 2013-03-15 | 2013-03-15 | 深度マップイントラコード化のための予測子 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10375411B2 (ja) |
EP (1) | EP2974316B1 (ja) |
JP (1) | JP6262260B2 (ja) |
KR (1) | KR102136913B1 (ja) |
CN (1) | CN105308956B (ja) |
ES (1) | ES2698515T3 (ja) |
HU (1) | HUE040137T2 (ja) |
WO (1) | WO2014139049A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016537844A (ja) * | 2013-09-27 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 深度イントラ予測モードのための残差コーディング |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104079941B (zh) * | 2013-03-27 | 2017-08-25 | 中兴通讯股份有限公司 | 一种深度信息编解码方法、装置及视频处理播放设备 |
WO2014166116A1 (en) * | 2013-04-12 | 2014-10-16 | Mediatek Inc. | Direct simplified depth coding |
CN105594214B (zh) * | 2013-04-12 | 2019-11-26 | 联发科技股份有限公司 | 在三维编码系统中深度区块的帧内编码方法及装置 |
WO2015000168A1 (en) * | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
US10129542B2 (en) * | 2013-10-17 | 2018-11-13 | Futurewei Technologies, Inc. | Reference pixel selection and filtering for intra coding of depth map |
AU2015327521B2 (en) * | 2014-09-30 | 2018-07-26 | Hfi Innovation Inc. | Method of lookup table size reduction for depth modelling mode in depth coding |
WO2016072757A1 (ko) * | 2014-11-05 | 2016-05-12 | 삼성전자 주식회사 | 블록과 관련하여 결정된 적어도 하나의 샘플값 및 적어도 하나의 패턴에 기초한 인트라 예측을 수행하는 영상 부호화 방법 및 장치 또는 영상 복호화 방법 및 장치 |
RU2718164C1 (ru) * | 2016-05-28 | 2020-03-30 | МедиаТек Инк. | Способы и устройства для обработки видео данных с условным направлением сигнала информации параметра квантования |
CN106791768B (zh) * | 2016-12-16 | 2019-01-04 | 浙江大学 | 一种基于图割优化的深度图帧率提升方法 |
CN111034197B (zh) * | 2017-08-22 | 2022-07-12 | 松下电器(美国)知识产权公司 | 图像编码器、图像解码器、图像编码方法和图像解码方法 |
WO2019059107A1 (ja) * | 2017-09-20 | 2019-03-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2019229683A1 (en) | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
CN113225564B (zh) | 2018-07-12 | 2022-11-11 | 华为技术有限公司 | 视频译码中的边界块分割 |
TWI820197B (zh) | 2018-08-28 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 與擴展四叉樹相關的分割的二值化 |
US11039139B2 (en) | 2018-09-14 | 2021-06-15 | Tencent America LLC | Method and apparatus for identity transform in multiple transform selection |
WO2020140948A1 (en) | 2019-01-02 | 2020-07-09 | Beijing Bytedance Network Technology Co., Ltd. | Motion vector derivation between dividing patterns |
WO2020183849A1 (ja) * | 2019-03-08 | 2020-09-17 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013022297A2 (ko) * | 2011-08-09 | 2013-02-14 | 삼성전자 주식회사 | 다시점 비디오 데이터의 깊이맵 부호화 방법 및 장치, 복호화 방법 및 장치 |
WO2013032423A1 (en) * | 2011-08-26 | 2013-03-07 | Thomson Licensing | Depth coding |
JP2013509022A (ja) * | 2009-10-14 | 2013-03-07 | トムソン ライセンシング | フィルタ処理およびエッジ符号化 |
JP2013074304A (ja) * | 2011-09-26 | 2013-04-22 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム |
WO2013068567A1 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Effective prediction using partition coding |
WO2014008951A1 (en) * | 2012-07-13 | 2014-01-16 | Huawei Technologies Co., Ltd. | Apparatus for coding a bit stream representing a three-dimensional video |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9571856B2 (en) | 2008-08-25 | 2017-02-14 | Microsoft Technology Licensing, Llc | Conversion operations in scalable video encoding and decoding |
KR101495724B1 (ko) * | 2010-02-02 | 2015-02-25 | 삼성전자주식회사 | 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치 |
US20110249734A1 (en) * | 2010-04-09 | 2011-10-13 | Segall Christopher A | Methods and Systems for Intra Prediction |
US20120147961A1 (en) | 2010-12-09 | 2012-06-14 | Qualcomm Incorporated | Use of motion vectors in evaluating geometric partitioning modes |
WO2013102293A1 (en) * | 2012-01-04 | 2013-07-11 | Mediatek Singapore Pte. Ltd. | Improvements of luma-based chroma intra prediction |
-
2013
- 2013-03-15 JP JP2015561876A patent/JP6262260B2/ja active Active
- 2013-03-15 WO PCT/CN2013/000287 patent/WO2014139049A1/en active Application Filing
- 2013-03-15 US US14/773,161 patent/US10375411B2/en active Active
- 2013-03-15 EP EP13877735.4A patent/EP2974316B1/en active Active
- 2013-03-15 HU HUE13877735A patent/HUE040137T2/hu unknown
- 2013-03-15 CN CN201380074372.2A patent/CN105308956B/zh active Active
- 2013-03-15 ES ES13877735T patent/ES2698515T3/es active Active
- 2013-03-15 KR KR1020157028609A patent/KR102136913B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013509022A (ja) * | 2009-10-14 | 2013-03-07 | トムソン ライセンシング | フィルタ処理およびエッジ符号化 |
WO2013022297A2 (ko) * | 2011-08-09 | 2013-02-14 | 삼성전자 주식회사 | 다시점 비디오 데이터의 깊이맵 부호화 방법 및 장치, 복호화 방법 및 장치 |
WO2013032423A1 (en) * | 2011-08-26 | 2013-03-07 | Thomson Licensing | Depth coding |
JP2013074304A (ja) * | 2011-09-26 | 2013-04-22 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム |
WO2013068567A1 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Effective prediction using partition coding |
WO2014008951A1 (en) * | 2012-07-13 | 2014-01-16 | Huawei Technologies Co., Ltd. | Apparatus for coding a bit stream representing a three-dimensional video |
Non-Patent Citations (3)
Title |
---|
CHRISTIAN BARTNIK ET AL.: "HEVC Extension for Multiview Video Coding and Multiview Video plus Depth Coding", ITU - TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP, vol. VCEG-AR13, JPN6016001523, February 2012 (2012-02-01), pages 1 - 42, ISSN: 0003605459 * |
GERHARD TECH ET AL.: "3D-HEVC Test Model 2", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-B1005_d0, JPN6017000064, December 2012 (2012-12-01), pages 1 - 11, ISSN: 0003605460 * |
XIN ZHAO ET AL.: "CE6.h related: Simplified DC predictor for depth intra modes", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D0183, JPN6017000066, April 2013 (2013-04-01), pages 1 - 5, ISSN: 0003605461 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016537844A (ja) * | 2013-09-27 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 深度イントラ予測モードのための残差コーディング |
Also Published As
Publication number | Publication date |
---|---|
KR20150132308A (ko) | 2015-11-25 |
US10375411B2 (en) | 2019-08-06 |
CN105308956B (zh) | 2019-04-16 |
EP2974316A4 (en) | 2016-11-16 |
EP2974316A1 (en) | 2016-01-20 |
HUE040137T2 (hu) | 2019-02-28 |
WO2014139049A1 (en) | 2014-09-18 |
US20160029038A1 (en) | 2016-01-28 |
EP2974316B1 (en) | 2018-08-22 |
CN105308956A (zh) | 2016-02-03 |
KR102136913B1 (ko) | 2020-07-22 |
JP6262260B2 (ja) | 2018-01-17 |
ES2698515T3 (es) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6262260B2 (ja) | 深度マップイントラコード化のための予測子 | |
JP6046246B2 (ja) | 3dビデオコーディングのための深度マップのイントラコーディング | |
JP6246919B2 (ja) | 深度イントラコーディングのためのウェッジレットパターン拡張 | |
JP6158420B2 (ja) | 3d−hevcのための深度データの深度コーディングモードシグナリング | |
US10687079B2 (en) | Constrained depth intra mode coding for 3D video coding | |
JP6133489B2 (ja) | 3d−hevcのための深度データの深度コーディングモードシグナリング | |
JP5805849B2 (ja) | ビデオコード化における動きベクトル予測 | |
US10271034B2 (en) | Simplified depth coding | |
US20160050419A1 (en) | Depth modeling modes for depth map intra coding | |
US10306265B2 (en) | Simplification of segment-wise DC coding of large prediction blocks in 3D video coding | |
JP2016537844A (ja) | 深度イントラ予測モードのための残差コーディング | |
US9762914B2 (en) | Method and apparatus of derivation for a binary partition pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6262260 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |