JP6258288B2 - 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 - Google Patents
高効率ビデオコーディングのためのハイレベルシンタックスの拡張 Download PDFInfo
- Publication number
- JP6258288B2 JP6258288B2 JP2015500629A JP2015500629A JP6258288B2 JP 6258288 B2 JP6258288 B2 JP 6258288B2 JP 2015500629 A JP2015500629 A JP 2015500629A JP 2015500629 A JP2015500629 A JP 2015500629A JP 6258288 B2 JP6258288 B2 JP 6258288B2
- Authority
- JP
- Japan
- Prior art keywords
- picture
- motion vector
- view
- block
- reference picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 706
- 239000013598 vector Substances 0.000 claims description 637
- 238000000034 method Methods 0.000 claims description 247
- 230000007774 longterm Effects 0.000 claims description 182
- 230000002123 temporal effect Effects 0.000 claims description 97
- 238000003860 storage Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 15
- 230000003068 static effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 104
- 241000023320 Luma <angiosperm> Species 0.000 description 89
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 89
- 239000010410 layer Substances 0.000 description 45
- 230000006870 function Effects 0.000 description 31
- 241001134453 Lista Species 0.000 description 26
- 238000005192 partition Methods 0.000 description 26
- 238000013139 quantization Methods 0.000 description 25
- 230000008859 change Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 15
- 238000009795 derivation Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000000638 solvent extraction Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011229 interlayer Substances 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- FMYKJLXRRQTBOR-UBFHEZILSA-N (2s)-2-acetamido-4-methyl-n-[4-methyl-1-oxo-1-[[(2s)-1-oxohexan-2-yl]amino]pentan-2-yl]pentanamide Chemical group CCCC[C@@H](C=O)NC(=O)C(CC(C)C)NC(=O)[C@H](CC(C)C)NC(C)=O FMYKJLXRRQTBOR-UBFHEZILSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
[0061]第5の例では、HEVC拡張において、ピクチャは、POC値および第2次元ピクチャ識別情報、たとえばview_idという2つの特性によって識別され得る。HEVCベース仕様において、次のフックの1つまたは複数が(単独でまたは任意の組合せで)追加され得る。一例(例5.1と呼ばれる)では、AMVPおよびマージモードの間に参照ピクチャを識別するとき、第2次元ピクチャ識別情報、たとえば、ビュー順序インデックスが、POCと一緒に使用され得る。HEVCベース仕様における二次元2Dビデオ復号のコンテキストでは、第2次元ピクチャ識別情報は常に0に等しく設定され得る。
DistScaleFactor=Clip3(−4096,4095,(tb * tx+32)>>6) (8-127)
mvLXA=Clip3(−8192,8191.75,Sign(DistScaleFactor * mvLXA)*
((Abs(DistScaleFactor * mvLXA)+127)>>8)) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt(RefPicListA[refIdxA])) (8-129)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-130)
[0080]一例では、ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップで導出するように構成されてよく、下線が引かれたテキストはHEVC WD7に対する変更を表す。
2. yP−1が((yC>>Log2CtbSize)<<Log2CtbSize)より小さい場合、次のことが適用する。
xB1 = (xB1>>3)<<3)+((xB1>>3)&1)*7 (8-132)
xB2 = (xB2>>3)<<3)+((xB2>>3)&1)*7 (8-133)
3. 利用可能性フラグavailableFlagLXBが最初に0に等しく設定されるようにして、mvLXBの両方の成分が0に等しく設定される。
DistScaleFactor=Clip3(−4096,4095,(tb * tx + 32) >>6) (8-135)
mvLXB=Clip3(−8192,8191.75,Sign(DistScaleFactor * mvLXA)*
((Abs(DistScaleFactor * mvLXA) + 127)>>8)) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt(RefPicListB[refIdxB])) (8-137)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-138)
[0081]ビデオエンコーダ20およびビデオデコーダ30はまた、輝度ブロックの動きベクトルをコーディングするための時間的動きベクトル予測(TMVP)のための、修正された導出プロセスを実行するように構成され得る。一例では、このプロセスへの入力は、現在のピクチャの一番左上のサンプルに対する現在の予測ユニットの一番左上のルーマサンプルを規定するルーマ位置(xP、yP)と、ルーマ、nPSW、およびnPSHに対する予測ユニットの幅と高さとを規定する変数と、現在の予測ユニットの区分の参照インデックスrefIdxLX(Xは0または1である)とを含む。このプロセスの出力は、動きベクトル予測mvLXColと利用可能性フラグavailableFlagLXColとを含み得る。
= PicOrderCnt(RefPicListX[ refIdx ] of the picture picX) (8 141)
[0083]slice_type、collocated_from_l0_flag、およびcollocated_ref_idxの値に応じて、コロケート区分を含むピクチャを規定する変数colPicは、次のように導出され得る。
−(yP>>Log2CtbSize)が(yPRb>>Log2CtbSize)に等しい場合、現在の予測ユニットの一番右下のルーマ位置の水平成分は
xPRb=xP+nPSH (8-140)
によって定義され、変数colPuはcolPicの内側の、((xPRb>>4)<<4,(yPRb>>4)<<4)によって与えられる修正された位置をカバーする予測ユニットとして設定される。
xPCtr=(xP+(nPSW>>1) (8-141)
yPCtr=(yP+(nPSW>>1) (8-142)
によって定義される。
−RefPicListX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は0に等しい。
−RefPicListX[refIdxLX]は短期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しい。
−そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
mvLXCol = mvCol (8-143)
である。
DistScaleFactor=Clip3(−4096, 4095, (tb * tx+ 32 )>> 6) (8-145)
mvLXCol = Clip3(−8192, 8191.75, Sign(DistScaleFactor * mvCol)*
((Abs(DistScaleFactor * mvCol)+127)>>8)) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
RefPicOrderCnt(colPic, refIdxCol, listCol)) (8-147)
tb=Clip3(−128, 127, PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-148)
[0087]上の例では、TMVPの間に使用されるコロケート(co-located)ブロックの利用可能性は、コロケートブロックについての参照ピクチャのピクチャタイプ(たとえば、ピクチャが短期参照ピクチャか長期参照ピクチャか)にも依存し得る。すなわち、(subcaluseにおけるステップ1の後で)TMVPについての一番右下のブロックが利用可能である場合であっても、一番右下のブロックはさらに、ブロック中の動きベクトルが、ターゲット参照ピクチャとは異なるピクチャタイプ(短期または長期)を指す場合、利用不可能となるように設定され得る。同様に、中心ブロックがTMVPのためにさらに使用され得る。
−現在のピクチャの一番左上のサンプルに対する現在の予測ユニットの一番左上のルーマサンプルを規定するルーマ位置(xP,yP)と、
−ルーマのための予測ユニットの幅と高さとを規定する変数、nPSWおよびnPSHと、
−現在の予測ユニットの区分refIdxLX(Xは0または1である)の参照インデックスと、を含み得る。
−動きベクトル予測mvLXColと、
−利用可能性フラグavailableFlagLXColと、を含み得る。
PicOrderCnt(ピクチャpicXのRefPicListX[refIdx])
(8-141)
[0091]slice_type、collocated_from_l0_flag、およびcollocated_ref_idxの値に応じて、コロケート(collocated)区分を含むピクチャを規定する変数colPicは、次のように導出され得る。
−(yP>>Log2CtbSize)が(yPRb>>Log2CtbSize)に等しい場合、現在の予測ユニットの一番右下のルーマ位置の水平成分は
xPRb = xP + nPSW (8-140)
によって定義され得、変数colPuはcolPicの内側の、((xPRb>>4)<<4,(yPRb>>4)<<4)によって与えられる修正された位置をカバーする予測ユニットとして設定され得る。
xPCtr = ( xP + ( nPSW >> 1 ) (8-141)
yPCtr = ( yP + ( nPSH >> 1 ) (8-142)
によって定義される。
yPCtr = ( yP + ( nPSH >> 1 )
−colPuがcolPicの内側の((xPCtr>>4)<<4,(yPCtr>>4)<<4)によって与えられる位置をカバーする場合、numTestBlockは1に設定される。
−次の条件の1つまたは複数が真である場合、mvLXColの両方の成分は0に等しく設定され、availableFlagLXColは0に等しく設定される。
mvLXCol = mvCol (8-143)
−そうではない場合、mvLXColは、以下で規定されるような動きベクトルmvColのスケーリングされたバージョンとして導出される。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-145)
mvLXCol = Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvCol ) *
( (Abs( DistScaleFactor * mvCol ) + 127 ) >> 8 ) ) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
RefPicOrderCnt( colPic, refIdxCol, listCol ) )
(8-147)
tb = Clip3( −128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX [ refIdxLX ] ) )
(8-148)
[0095]代替的な例では、長期動きベクトルは、参照ピクチャのPOC値が同じではない場合、別の長期動きベクトルからは決して予測されない。ビデオエンコーダ20およびビデオデコーダ30は、動きベクトル予測子の候補を導出するための次のプロセスに従って構成されてよく、下線が引かれたテキストはHEVC WD7に対する変更を表す。
2. ・・・
3. ・・・
4. ・・・
5. yA1=yA0−MinPuSizeである、(xA0,yA0)から(xA1,yA1)までの(xAk,yAk)に対して、availableFlagLXAが0に等しい場合、次のことが、availableFlagLXAが1に等しくなるまで繰り返し適用する。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-127)
mvLXA = Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
( (Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 )) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListA[ refIdxA ] ))
(8-129)
tb = Clip3(−128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX[ refIdxLX ] ))
(8-130)
[0097]ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップを使用して導出することができ、省略部分はやはり、HEVC WD7と同じテキストを表す。
2. ・・・
3. ・・・
4. ・・・
5. ・・・
6. B0=xP+nPSW、xB1=xB0-MinPuSize、およびxB2=xP-MinPuSizeである、(xB0,yB0)から(xB2,yB2)までの(xBk,yBk)に対して、availableFlagLXBが0に等しく設定され、isScaledFlagLXが0に等しい場合、次のことが、availableFlagLXBが1に等しくなるまで繰り返し適用する。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-135)
mvLXB =Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
( (Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 )) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListB[ refIdxB ] ))
(8-137)
tb = Clip3( −128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX[ refIdxLX ] ) )
(8-138)
[0098]ビデオエンコーダ20およびビデオデコーダ30は、次のプロセスに従って時間的ルーマ動きベクトル予測子を導出するように構成されてよく、下線が引かれたテキストはHEVC WD7に対する変更を表す。変数mvLXColおよびavailableFlagLXColは、次のように導出され得る。
−RefPicListX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は0に等しい。
−RefPicListX[refIdxLX]は短期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しい。
−RefPicListX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しく、RefPicOrderCnt(colPic,refIdxCol,listCol)はPicOrderCnt(RefPicListX[refIdxLX])に等しくない。
−そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
mvLXCol = mvCol (8-143)
−そうではない場合、mvLXColは、以下で規定されるような動きベクトルmvColのスケーリングされたバージョンとして導出される。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-145)
mvLXCol = Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvCol ) *
( (Abs( DistScaleFactor * mvCol ) + 127 ) >> 8 ) ) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
refIdxCol, listCol ) ) (8-147)
tb = Clip3( −128, 127, PicOrderCntVal − PicOrderCnt( RefPicListX [ refIdxLX ] ) )
(8-148)
[0099]さらに別の例として、ビュー間参照ピクチャは、「参照に使用されない」としてマークされ得る。簡単にするために、そのようなピクチャは、HEVCベース仕様では非参照ピクチャと呼ばれることがあり、「長期参照に使用される」と「短期参照に使用される」のいずれかとしてマークされたピクチャは、HEVCベース仕様では参照ピクチャと呼ばれ得る。「参照ピクチャ」および「非参照ピクチャ」という用語は、「「参照に使用される」とマークされたピクチャ」および「「参照に使用されない」とマークされたピクチャ」によって置き換えられ得る。
2. ・・・
3. ・・・
4. ・・・
5. yA1=yA0−MinPuSizeである、(xA0,yA0)から(xA1,yA1)までの(xAk,yAk)に対して、availableFlagLXAが0に等しい場合、次のことが、availableFlagLXAが1に等しくなるまで繰り返し適用する。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-127)
mvLXA = Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
( (Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 ) ) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListA[ refIdxA ] ) ) (8-129)
tb = Clip3( −128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX[ refIdxLX ] ) ) (8-130)
[0102]ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップを使用して導出するように構成されてよく、下線が引かれたテキストはHEVC WD7に対する変更を表す。
2. ・・・
3. ・・・
4. ・・・
5. ・・・
6. B0=xP+nPSW、xB1=xB0-MinPuSize、およびxB2=xP-MinPuSizeである、(xB0,yB0)から(xB2,yB2)までの(xBk,yBk)に対して、isScaledFlagLXが0に等しく、availableFlagLXBが0に等しく設定される場合、次のことが、availableFlagLXBが1に等しくなるまで繰り返し適用する。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-135)
mvLXB =Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
( (Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 ) ) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListB[ refIdxB ] ) ) (8-137)
tb = Clip3( −128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX[ refIdxLX ] ) ) (8-138)
[0103]ビデオエンコーダ20およびビデオデコーダ30は、次のように時間的ルーマ動きベクトル予測子を導出するように構成されてよく、下線が引かれたテキストはHEVC WD7に対する変更を表す。
− RefPicListX[refIdxLX]は非参照ピクチャであり、UnusedRefPic(colPic,refIdxCol,listCol)は0に等しい。
− RefPicListX[refIdxLX]は参照ピクチャであり、UnusedRefPic(colPic,refIdxCol,listCol)は1に等しい。
− そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
mvLXCol = mvCol (8-143)
である。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 )
(8-145)
mvLXCol = Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvCol ) *
( (Abs( DistScaleFactor * mvCol ) + 127 ) >> 8 )) (8-146)
ここで、tdおよびtbは、次のように導出される。
− RefPicOrderCnt( colPic, refIdxCol, listCol )) (8-147)
tb = Clip3( −128, 127, PicOrderCntVal
− PicOrderCnt( RefPicListX [refIdxLX])) (8-148)
[0104]「第5の例」として上で呼ばれる例に関して、ビデオエンコーダ20およびビデオデコーダ30は、次の技法のいずれかまたはすべてに従って実行するように構成され得る。この例では、異なる長期参照ピクチャを指す動きベクトルの間の予測はディセーブルにされてよく、異なるビュー間参照ピクチャを指す動きベクトルの間の予測はディセーブルにされてよく、ビュー間参照ピクチャを指す動きベクトルと長期参照ピクチャを指す動きベクトルとの間の予測はディセーブルにされてよい。
−RefPicListX[refIdxLX]とListA[refIdxA]のうちの1つのみが長期参照ピクチャである。
−RefPicListX[refIdxLX]とListA[refIdxA]の両方が長期参照ピクチャであり、PicOrderCnt(ListA[refIdxA])がPicOrderCnt(RefPicListX[refIdxLX])に等しくない。
5. availableFlagLXAが0に等しいとき、yA1=yA0−MinPuSizeである、(xA0,yA0)から(xA1,yA1)までの(xAk,yAk)に対して、availableFlagLXAが0に等しい場合、次のことが適用する。
− RefPicListX[refIdxLX]とListA[refIdxA]のうちの1つのみが長期参照ピクチャである。
− RefPicListX[refIdxLX]とListA[refIdxA]の両方が長期参照ピクチャであり、PicOrderCnt(ListA[refIdxA])がPicOrderCnt(RefPicListX[refIdxLX])に等しくない。
− availableFlagLXAが1に等しく、RefPicListA[refIdxA]とRefPicListX[refIdxLX]の両方が短期参照ピクチャである場合、mvLXAは以下で規定されるように導出される。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-127)
mvLXA= Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
( (Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 )) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListA[ refIdxA ] ) ) (8-129)
tb = Clip3( −128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX [ refIdxLX ] ) ) (8-130)
[0108]ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップを使用して導出するように構成され得、下線が引かれたテキストはHEVC WD7に対する変更を表す。
2. yP−1が((yC>>Log2CtbSize)<<Log2CtbSize)より小さい場合、次のことが適用する。
xB1 = (xB1>>3)<<3) + ((xB1>>3)&1)*7 (8-132)
xB2 = (xB2>>3)<<3) + ((xB2>>3)&1)*7 (8-133)
3. 利用可能性フラグavailableFlagLXBが最初に0に等しく設定されるようにして、mvLXBの両方の成分が0に等しく設定される。
−RefPicListX[refIdxLX]とListB[refIdxB]のうちの1つのみが長期参照ピクチャである。
−AddPicId(RefPicListX[refIdxLX])がAddPicId(ListB[refIdxB])に等しくない。
−RefPicListX[refIdxLX]とListB[refIdxB]の両方が長期参照ピクチャであり、PicOrderCnt(ListB[refIdxB])がPicOrderCnt(RefPicListX[refIdxLX])に等しくない。
5. isScaledFlagLXが0に等しく、availableFlagLXBが1に等しい場合、mvLXAはmvLXBに等しく設定され、refIdxAはrefIdxBに等しく設定され、availableFlagLXAは1に等しく設定される。
−RefPicListX[refIdxLX]とListB[refIdxB]のうちの1つのみが長期参照ピクチャである。
−RefPicListX[refIdxLX]とListB[refIdxB]の両方が長期参照ピクチャであり、PicOrderCnt(ListB[refIdxB])がPicOrderCnt(RefPicListX[refIdxLX])に等しくない。
−availableFlagLXBが1に等しく、PicOrderCnt(RefPicListB[refIdxB])がPicOrderCnt(RefPicListX[refIdxLX])に等しくなく、RefPicListB[refIdxB]とRefPicListX[refIdxLX]の両方が短期参照ピクチャである場合、mvLXBは以下で規定されるように導出される。
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-135)
mvLXB =Clip3( −8192, 8191.75, Sign( DistScaleFactor * mvLXA ) *
((Abs( DistScaleFactor * mvLXA ) + 127 ) >> 8 )) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListB[refIdxB])) (8-137)
tb =Clip3(−128,127,PicOrderCntVal −
PicOrderCnt(RefPicListX[refIdxLX])) (8-138)
[0109]ビデオエンコーダ20およびビデオデコーダ30は、次のように時間的ルーマ動きベクトル予測子を導出するように構成され得る。このプロセスへの入力は、現在のピクチャの一番左上のサンプルに対する現在の予測ユニットの一番左上のルーマサンプルを規定するルーマ位置(xP、yP)と、ルーマ、nPSW、およびnPSHに対する予測ユニットの幅と高さとを規定する変数と、現在の予測ユニットの区分の参照インデックスrefIdxLX(Xは0または1である)とを含み得る。このプロセスの出力は、動きベクトル予測mvLXColと利用可能性フラグavailableFlagLXColとを含み得る。
PicOrderCnt(ピクチャpicX のRefPicListX[ refIdx ]) (8 141)
[0111]slice_type、collocated_from_l0_flag、およびcollocated_ref_idxの値に応じて、ビデオエンコーダ20およびビデオデコーダ30は、コロケート区分を含むピクチャを規定する変数colPicを、次のように導出し得る。
−(yP>>Log2CtbSize)が(yPRb>>Log2CtbSize)に等しい場合、現在の予測ユニットの一番右下のルーマ位置の水平成分は
yPRb = yP + nPSH (8-139)
によって定義され、変数colPuはcolPicの内の((xPRb>>4)<<4,(yPRb>>4)<<4)によって与えられる修正された位置をカバーする予測ユニットとして設定される。
xPCtr = ( xP + ( nPSW >> 1 ) (8-141)
yPCtr = ( yP + ( nPSH >> 1 ) (8-142)
と定義される。
変数mvLXColおよびavailableFlagLXColは、次のように導出される。
−AddPicId(RefPicListX[refIdxLX])がAddPicId(colPic,refIdxCol,listCol)に等しくない。
−RefPicListX[refIdxLX]は短期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しい。
−RefPicListX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は0に等しい。
−RefPicListLX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しく、RefPicOrderCnt(colPic,refIdxCol,listCol)はPicOrderCnt(RefPicListLX[refIdxLX])に等しくない。
−そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
mvLXCol = mvCol (8-143)
−そうではない場合、mvLXColは、以下で規定されるような動きベクトルmvColのスケーリングされたバージョンとして導出される。
−
DistScaleFactor = Clip3( −4096, 4095, ( tb * tx + 32 ) >> 6 ) (8-145)
mvLXCol = Clip3(−8192, 8191.75, Sign( DistScaleFactor * mvCol ) *
((Abs( DistScaleFactor * mvCol ) + 127 ) >> 8 )) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
− RefPicOrderCnt( colPic,refIdxCol,listCol)) (8-147)
Tb = Clip3( −128, 127, PicOrderCntVal − PicOrderCnt(RefPicListX
[refIdxLX] )) (8-148)
[0113]ビデオエンコーダ20およびビデオデコーダ30は、組み合わされた双方向予測マージ候補についての次の導出プロセスを実行するように構成され得る。このプロセスの入力は、マージ候補リストmergeCandListと、mergeCandListの中にある各々の候補Nの参照インデックスrefIdxL0NおよびrefIdxL1Nと、mergeCandListの中にある各々の候補Nの予測リスト利用フラグpredFlagL0NおよびpredFlagL1Nと、mergeCandListの中にある各々の候補Nの動きベクトルmvL0NおよびmvL1Nと、mergeCandList内の要素の数numMergeCandと、空間的および時間的なマージ候補導出プロセスの後の、mergeCandList内の要素の数numOrigMergeCandとを含み得る。このプロセスの出力は、マージ候補リストmergeCandListと、mergeCandList内の要素の数numMergeCandと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの参照インデックスrefIdxL0combCandkおよびrefIdxL1combCandkと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの予測リスト利用フラグpredFlagL0combCandkおよびpredFlagL1combCandkと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの動きベクトルmvL0combCandkおよびmvL1combCandkとを含み得る。
- predFlagL0l0Cand == 1
- predFlagL1l1Cand == 1
- AddPicId(RefPicListL0[refIdxL0l0Cand])!=
AddPicId(RefPicListL1[refIdxL1l1Cand])||PicOrderCnt(RefPicList0[refIdxL0l0Cand])
!= icOrderCnt(RefPicList1 [refIdxL1l1Cand] ) || mvL0l0Cand != mvL1l1Cand
次のことが適用する。
4. ・・・
5. ・・・
[0115]ある代替形態として、2つの長期参照ピクチャの間の予測は、スケーリングを伴わずにイネーブルされ、2つのビュー間参照ピクチャの間の予測は、スケーリングを伴わずにイネーブルされ得る。ビデオエンコーダ20およびビデオデコーダ30は、次のように動きベクトル予測子の候補に対する導出プロセスを実行するように構成され得、下線が引かれたテキストはHEVC WD7に対する変更を表し、省略部分はHEVC WD7と同じテキストを表す。
2. ・・・
3. ・・・
4. ・・・
5. yA1=yA0−MinPuSizeである、(xA0,yA0)から(xA1,yA1)までの(xAk,yAk)に対して、availableFlagLXAが0に等しい場合、次のことが、availableFlagLXAが1に等しくなるまで繰り返し適用する。
DistScaleFactor=Clip3(−4096,4095,(tb * tx + 32 ) >> 6 ) (8-127)
mvLXA=Clip3(−8192,8191.75, Sign( DistScaleFactor * mvLXA ) *
((Abs( DistScaleFactor * mvLXA)+127)>>8)) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt(RefPicListA[refIdxA])) (8-129)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-130)
[0116]ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップを使用して導出し得、下線が引かれたテキストはHEVC WD7に対する変更を表し、省略部分はHEVC WD7と同じテキストを表す。
2. ・・・
3. ・・・
4. ・・・
5. ・・・
6. xB0=xP+nPSW、xB1=xB0-MinPuSize、およびxB2=xP-MinPuSizeである、(xB0,yB0)から(xB2,yB2)までの(xBk,yBk)に対して、availableFlagLXBが0に等しく設定され、isScaledFlagLXが0に等しい場合、次のことが、availableFlagLXBが1に等しくなるまで繰り返し適用する。
DistScaleFactor = Clip3(−4096, 4095,(tb * tx + 32 )>>6) (8-135)
mvLXB=Clip3(−8192, 8191.75, Sign(DistScaleFactor*mvLXA)*
((Abs(DistScaleFactor * mvLXA ) + 127 ) >> 8)) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt( RefPicListB[refIdxB])) (8-137)
tb=Clip3(−128, 127, PicOrderCntVal −
PicOrderCnt( RefPicListX[refIdxLX])) (8-138)
[0117]ビデオエンコーダ20およびビデオデコーダ30は、次のように、時間的ルーマ動きベクトル予測の導出プロセスを実行するように構成され得る。
−そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
−そうではない場合、mvLXColは、以下で規定されるような動きベクトルmvColのスケーリングされたバージョンとして導出される。
DistScaleFactor=Clip3(−4096,4095,(tb*tx+32)>>6) (8-145)
mvLXCol=Clip3(−8192,8191.75,Sign(DistScaleFactor*mvCol)*
((Abs(DistScaleFactor*mvCol)+127)>>8)) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
RefPicOrderCnt( colPic, refIdxCol, listCol)) (8-147)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt( RefPicListX [refIdxLX])) (8-148)
この例では、HEVC WD7のセクション8.5.2.1.3は同じままであり得る。
−RefPicListX[refIdxLX]とListA[refIdxA]のうちの1つのみが長期参照ピクチャである。
5. availableFlagLXAが0に等しいとき、yA1=yA0−MinPuSizeである、(xA0,yA0)から(xA1,yA1)までの(xAk,yAk)に対して、availableFlagLXAが0に等しい場合、次のことが適用する。
−RefPicListX[refIdxLX]とListA[refIdxA]のうちの1つのみが長期参照ピクチャである。
−availableFlagLXAが1に等しく、RefPicListA[refIdxA]とRefPicListX[refIdxLX]の両方が短期参照ピクチャである場合、mvLXAは以下で規定されるように導出される。
DistScaleFactor=Clip3(−4096,4095,(tb*tx+32)>>6) (8-127)
mvLXA=Clip3(−8192,8191.75,Sign(DistScaleFactor*mvLXA)*
((Abs(DistScaleFactor*mvLXA)+127)>>8)) (8-128)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt(RefPicListA[refIdxA])) (8-129)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt( RefPicListX [refIdxLX])) (8-130)
[0120]ビデオエンコーダ20およびビデオデコーダ30は、動きベクトルmvLXBと利用可能性フラグavailableFlagLXBとを次の順序付けられたステップを使用して導出するように構成され得、下線が引かれたテキストはHEVC WD7に対する変更を表す。
2. yP−1が((yC>>Log2CtbSize)<<Log2CtbSize)より小さい場合、次のことが適用する。
xB1 = (xB1>>3)<<3)+((xB1>>3)&1)*7 (8-132)
xB2 = (xB2>>3)<<3)+((xB2>>3)&1)*7 (8-133)
3. 利用可能性フラグavailableFlagLXBが最初に0に等しく設定されるようにして、mvLXBの両方の成分が0に等しく設定される。
−RefPicListX[refIdxLX]とListB[refIdxB]のうちの1つのみが長期参照ピクチャである。
5. isScaledFlagLXが0に等しく、availableFlagLXBが1に等しい場合、mvLXAはmvLXBに等しく設定され、refIdxAはrefIdxBに等しく設定され、availableFlagLXAは1に等しく設定される。
−RefPicListX[refIdxLX]とListB[refIdxB]のうちの1つのみが長期参照ピクチャである。
−availableFlagLXBが1に等しく、PicOrderCnt(RefPicListB[refIdxB])がPicOrderCnt(RefPicListX[refIdxLX])に等しくなく、RefPicListB[refIdxB]とRefPicListX[refIdxLX]の両方が短期参照ピクチャである場合、mvLXBは以下で規定されるように導出される。
DistScaleFactor=Clip3(−4096,4095,(tb*tx+32)>>6) (8-135)
mvLXB=Clip3(−8192,8191.75,Sign(DistScaleFactor*mvLXA)*
((Abs(DistScaleFactor*mvLXA)+127)>>8)) (8-136)
ここで、tdおよびtbは、次のように導出され得る。
PicOrderCnt(RefPicListB[refIdxB])) (8-137)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-138)
[0121]ビデオエンコーダ20およびビデオデコーダ30は、以下で論じられるように、時間的ルーマ動きベクトル予測の導出プロセスを実施するように構成され得る。このプロセスへの入力は、現在のピクチャの一番左上のサンプルに対する現在の予測ユニットの一番左上のルーマサンプルを規定するルーマ位置(xP、yP)と、ルーマ、nPSW、およびnPSHに対する予測ユニットの幅と高さとを規定する変数と、現在の予測ユニットの区分の参照インデックスrefIdxLX(Xは0または1である)とを含み得る。このプロセスの出力は、動きベクトル予測mvLXColと利用可能性フラグavailableFlagLXColとを含み得る。
PicOrderCnt(ピクチャpicXのRefPicListX[ refIdx ]) (8-141)
[0123]slice_type、collocated_from_l0_flag、およびcollocated_ref_idxの値に応じて、ビデオエンコーダ20およびビデオデコーダ30は、コロケート区分を含むピクチャを規定する変数colPicを、次のように導出し得る。
−(yP>>Log2CtbSize)が(yPRb>>Log2CtbSize)に等しい場合、現在の予測ユニットの一番右下のルーマ位置の水平成分は
xPRb=xP+nPSW (8-140)
によって定義され、変数colPuはcolPic内の、((xPRb>>4)<<4,(yPRb>>4)<<4)によって与えられる修正された位置をカバーする予測ユニットとして設定される。
xPCtr=(xP+(nPSW>>1) (8-141)
yPCtr=(yP+(nPSH>>1) (8-142)
によって定義される。
−AddPicId(RefPicListX[refIdxLX])がAddPicId(colPic,refIdxCol,listCol)に等しくない。
−RefPicListX[refIdxLX]は短期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は1に等しい。
−RefPicListX[refIdxLX]は長期参照ピクチャであり、LongTermRefPic(colPic,refIdxCol,listCol)は0に等しい。
−そうではない場合、変数availableFlagLXColは1に等しく設定され、次のことが適用する。
mvLXCol=mvCol (8-143)
−そうではない場合、mvLXColは、以下で規定されるような動きベクトルmvColのスケーリングされたバージョンとして導出される。
DistScaleFactor=Clip3(−4096,4095,(tb*tx+32)>>6) (8-145)
mvLXCol= Clip3(−8192,8191.75,Sign(DistScaleFactor*mvCol)*
((Abs(DistScaleFactor*mvCol)+127)>>8)) (8-146)
ここで、tdおよびtbは、次のように導出され得る。
RefPicOrderCnt(colPic,refIdxCol, listCol)) (8-147)
tb=Clip3(−128,127,PicOrderCntVal−
PicOrderCnt(RefPicListX[refIdxLX])) (8-148)
[0128]ビデオエンコーダ20およびビデオデコーダ30は、組み合わされた双方向予測マージ候補の導出プロセスを実行するように構成され得る。このプロセスの入力は、マージ候補mergeCandListと、mergeCandListの中にある各々の候補Nの参照インデックスrefIdxL0NおよびrefIdxL1Nと、mergeCandListの中にある各々の候補Nの予測リスト利用フラグpredFlagL0NおよびpredFlagL1Nと、mergeCandListの中にある各々の候補Nの動きベクトルmvL0NおよびmvL1Nと、mergeCandList内の要素の数numMergeCandと、空間的および時間的なマージ候補導出プロセスの後の、mergeCandList内の要素の数numOrigMergeCandとを含み得る。このプロセスの出力は、マージ候補リストmergeCandListと、mergeCandList内の要素の数numMergeCandと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの参照インデックスrefIdxL0combCandkおよびrefIdxL1combCandkと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの予測リスト利用フラグpredFlagL0combCandkおよびpredFlagL1combCandkと、このプロセスの呼出しの間にmergeCandListに追加されている各々の新たな候補combCandkの動きベクトルmvL0combCandkおよびmvL1combCandkとを含み得る。
- predFlagL0l0Cand==1
- predFlagL1l1Cand==1
- AddPicId(RefPicListL0[refIdxL0l0Cand]) != AddPicId(RefPicListL1[refIdxL1l1Cand]) || PicOrderCnt( RefPicList0 [refIdxL0l0Cand] ) != PicOrderCnt( RefPicList1 [refIdxL1l1Cand])|| mvL0l0Cand !=mvL1l1Cand
次のことが適用する。
5. ・・・
[0130]いくつかの例では、2つの異なる長期参照ピクチャを指す2つの動きベクトルの間の予測がディセーブルにされ得る。他の例では、2つの異なるビュー間参照ピクチャを指す2つの動きベクトルの間の予測がディセーブルにされ得る。
・短期ではないものとしてビュー間(のみ)参照ピクチャを見なす:空間ダイレクトに関する
・暗黙的加重予測をディセーブルにする
[0182]「HLSオンリー」という要件を満たすために、拡張におけるそのような修正は、ハイレベルシンタックスのみにおいて行われなければならない。したがって、スライスヘッダのもとにあるシンタックス要素に対しては修正はあるべきではなく、拡張仕様に対するCUレベルの復号プロセスの変更はない。たとえば、HEVC拡張仕様の動きベクトル予測は、HEVCベース仕様における動きベクトル予測と厳密に同じであるべきである。HLSの変更は、拡張仕様の規範的なデコーダの変更であるが、ベース仕様の観点からは、そのような変更は、必ずしも既知である必要はなく、義務的ではなくてよい。
第2のピクチャの第1のブロックの第1の動きベクトルと(ここで前記第1の動きベクトルは短期参照ピクチャを参照し)、第2のピクチャの第2のブロックの第2の動きベクトル(ここで第2の動きベクトルは長期参照ピクチャを参照し)との間の動きベクトル予測をディセーブルにすることを含み得る。加えて、または代替的に、方法は、第2のピクチャの第1のブロックの第1の動きベクトル(ここで前記第1の動きベクトルはビュー間参照ピクチャを参照し)と、第2のピクチャの第2のブロックの第2の動きベクトル(ここで前記第2の動きベクトルは時間的参照ピクチャを参照し)との間の動きベクトル予測をディセーブルにすることを含み得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオデータを復号する方法であって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を復号することと、
前記第1のピクチャについて第2次元ピクチャ識別子を復号することと、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第2のピクチャを復号することと、
を備える方法。
[2] 前記第2のピクチャの第1のブロックの第1の動きベクトルと、ここで前記第1の動きベクトルは短期参照ピクチャを参照し、
前記第2のピクチャの第2のブロックの第2の動きベクトルと、ここで前記第2の動きベクトルは長期参照ピクチャを参照し、
の間の動きベクトル予測をディセーブルにすることをさらに備える、[1]に記載の方法。
[3] 前記第2のピクチャをコーディングすることは、
前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別することと、
前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を復号することと、
を備える、[1]に記載の方法。
[4] 前記第1のピクチャを識別することは、前記第2のピクチャのブロックについての動きベクトルの復号の間に前記第1のピクチャを識別することを備え、前記動きベクトルのコーディングは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルをコーディングすることを備える、[3]に記載の方法。
[5] 前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにすることと、
前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングすることと、
をさらに備える、[1]に記載の方法。
[6] 前記ビュー成分がビュー間予測に使用されるかどうかに少なくとも一部基づいて、前記ビデオデータのビュー成分が長期参照ピクチャを備えるかどうかを示す値を復号することをさらに備える、[1]に記載の方法。
[7] 前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第3のピクチャを復号することをさらに備える、[1]に記載の方法。
[8] 前記第3のピクチャを復号する前に、前記第1のピクチャを含むすべてのビュー間参照ピクチャを、長期参照ピクチャとしてマークすることをさらに備える、[7]に記載の方法。
[9] 前記第3のピクチャについて前記ビュー間参照ピクチャの各々についての状態を、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前に記憶することと、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、前記ビュー間参照ピクチャは前記第1のピクチャを含み、
前記第2のピクチャをコーディングした後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々の新たな状態を設定することと、
をさらに備える、[8]に記載の方法。
[10] 前記ベースビデオコーディング仕様は高効率ビデオコーディング(HEVC)ベース仕様を備え、前記ベースビデオコーディング仕様への前記拡張は、前記HEVCベース仕様に対するスケーラブルビデオコーディング(SVC)拡張と、前記HEVCベース仕様に対するマルチビュービデオコーディング(MVC)拡張とのうちの1つを備える、[7]に記載の方法。
[11] 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、[7]に記載の方法。
[12] 前記第3のピクチャを復号した後、各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークすることをさらに備える、[7]に記載の方法。
[13] ビュー間参照ピクチャを長期参照ピクチャとしてマークした後で、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャに割り当てることと、
前記第2のピクチャを復号した後、前記ビュー間参照ピクチャについての元のPOC値をリストアすることと、
をさらに備える、[12]に記載の方法。
[14] 前記元のPOC値は、前記第1のピクチャの前記POC値を備える、[13]に記載の方法。
[15] ビデオデータを符号化する方法であって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を符号化することと、
前記第1のピクチャについて第2次元ピクチャ識別子を符号化することと、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第2のピクチャを符号化することと、
を備える方法。
[16] 前記第2のピクチャの第1のブロックの第1の動きベクトルと、ここで前記第1の動きベクトルは短期参照ピクチャを参照し、
前記第2のピクチャの第2のブロックの第2の動きベクトルと、ここで前記第2の動きベクトルは長期参照ピクチャを参照し、
の間の動きベクトル予測をディセーブルにすることをさらに備える、[15]に記載の方法。
[17] 前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別することと、
前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分をコーディングすることと、
をさらに備える、[15]に記載の方法。
[18] 前記第1のピクチャを識別することは、前記第2のピクチャのブロックについての動きベクトルのコーディングの間に前記第1のピクチャを識別することを備え、前記動きベクトルのコーディングは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルをコーディングすることを備える、[17]に記載の方法。
[19] 前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにすることと、
前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングすることと、
をさらに備える、[15]に記載の方法。
[20] 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、[15]に記載の方法。
[21] 前記ビュー成分がビュー間予測に使用されるかどうかに少なくとも一部基づいて、前記ビデオデータのビュー成分が長期参照ピクチャを備えるかどうかを示す値をコーディングすることをさらに備える、[15]に記載の方法。
[22] 前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第3のピクチャを符号化することをさらに備える、[15]に記載の方法。
[23] 前記第3のピクチャを符号化する前に、すべてのビュー間参照ピクチャを、長期参照ピクチャとしてマークすることをさらに備える、[22]に記載の方法。
[24] 前記ビュー間参照ピクチャの各々の状態を、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前に記憶することと、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、
前記第2のピクチャをコーディングした後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々の新たな状態を設定することと、
をさらに備える、[23]に記載の方法。
[25] 前記ベースビデオコーディング仕様は高効率ビデオコーディング(HEVC)ベース仕様を備え、前記ベースビデオコーディング仕様への前記拡張は、前記HEVCベース仕様に対するスケーラブルビデオコーディング(SVC)拡張と、前記HEVCベース仕様に対するマルチビュービデオコーディング(MVC)拡張との1つを備える、[22]に記載の方法。
[26] 前記第3のピクチャをコーディングした後、各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークすることをさらに備える、[15]に記載の方法。
[27] ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャに割り当てることと、
前記第2のピクチャをコーディングした後、前記ビュー間参照ピクチャについての元のPOC値をリストアすることと、
をさらに備える、[26]に記載の方法。
[28] 前記元のPOC値は、前記第2のピクチャの前記POC値を備える、[27]に記載の方法。
[29] ビデオデータを復号するためのデバイスであって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を復号し、前記第1のピクチャについて第2次元ピクチャ識別子を復号し、ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値および前記第2次元ピクチャ識別子に少なくとも一部基づいて、第2のピクチャを復号するように構成されるビデオデコーダを備える、デバイス。
[30] 前記ビデオデコーダは、
前記第2のピクチャの第1のブロックの第1の動きベクトルと、ここで前記第1の動きベクトルは短期参照ピクチャを参照し、
前記第2のピクチャの第2のブロックの第2の動きベクトルと、ここで前記第2の動きベクトルは長期参照ピクチャを参照し、
の間の動きベクトル予測をディセーブルにするように構成される、[29]に記載のデバイス。
[31] 前記ビデオデコーダは、前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別し、前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を復号するように構成される、[29]に記載のデバイス。
[32] 前記ビデオデコーダは、前記第2のピクチャのブロックについての動きベクトルのコーディングの間に前記第1のピクチャを識別するように構成され、前記ビデオデコーダは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを復号するように構成される、[31]に記載のデバイス。
[33] 前記ビデオデコーダは、前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにし、前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングするように構成される、[29]に記載のデバイス。
[34] 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子の少なくとも1つを備える、[29]に記載のデバイス。
[35] 前記ビデオデコーダは、前記ビュー成分がビュー間予測に使用されるかどうかに少なくとも一部基づいて、前記ビデオデータのビュー成分が長期参照ピクチャを備えるかどうかを示す値を復号するように構成される、[29]に記載のデバイス。
[36] 前記ビデオデコーダはさらに、前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第3のピクチャを復号するように構成される、[29]に記載のデバイス。
[37] 前記ビデオデコーダは、
前記第3のピクチャを復号する前に、前記第1のピクチャを含む前記第3のピクチャについてのすべてのビュー間参照ピクチャを長期参照ピクチャとしてマークし、
前記ビュー間参照ピクチャの各々の状態を記憶し、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前は参照に使用されない、のうちの1つを備え、
前記第3のピクチャを復号した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々についての新たな状態を設定するように構成される、[36]に記載のデバイス。
[38] 前記ビデオデコーダはさらに、
前記第1のピクチャを含む前記第3のピクチャについての各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および前記第3のピクチャを復号した後は参照に使用されない、のうちの1つとしてマークし、
ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を、前記ビュー間参照ピクチャの各々に割り当て、
前記第2のピクチャをコーディングした後、前記ビュー間参照ピクチャについての元のPOC値をリストアするように構成される、[36]に記載のデバイス。
[39] 集積回路と、
マイクロプロセッサと、
前記ビデオデコーダを含むワイヤレス通信デバイスと、
のうちの少なくとも1つを備える、[29]に記載のデバイス。
[40] ビデオデータを符号化するためのデバイスであって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を符号化し、前記第1のピクチャについて第2次元ピクチャ識別子を符号化し、ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値および前記第2次元ピクチャ識別子とに少なくとも一部基づいて、第2のピクチャを符号化するように構成されるビデオエンコーダを備える、デバイス。
[41] 前記ビデオエンコーダは、
前記第2のピクチャの第1のブロックの第1の動きベクトルと、ここで前記第1の動きベクトルは短期参照ピクチャを参照し、
前記第2のピクチャの第2のブロックの第2の動きベクトルと、ここで前記第2の動きベクトルは長期参照ピクチャを参照し、
の間の動きベクトル予測をディセーブルにするように構成される、[40]に記載のデバイス。
[42] 前記ビデオエンコーダは、前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別し、前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を符号化するように構成される、[40]に記載のデバイス。
[43] 前記ビデオエンコーダは、前記第2のピクチャのブロックについての動きベクトルのコーディングの間に前記第1のピクチャを識別するように構成され、前記ビデオエンコーダは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを符号化するように構成される、[42]に記載のデバイス。
[44] 前記ビデオエンコーダは、前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにし、前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングするように構成される、[40]に記載のデバイス。
[45] 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、[40]に記載のデバイス。
[46] 前記ビデオエンコーダは、前記ビュー成分がビュー間予測に使用されるかどうかに少なくとも一部基づいて、前記ビデオデータのビュー成分が長期参照ピクチャを備えるかどうかを示す値を符号化するように構成される、[40]に記載のデバイス。
[47] 前記ビデオエンコーダは、さらに、前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第3のピクチャを符号化するように構成される、[40]に記載のデバイス。
[48] 前記ビデオエンコーダは、
前記第3のピクチャを符号化する前に、前記第1のピクチャを含む前記第3のピクチャについてのすべてのビュー間参照ピクチャを長期参照ピクチャとしてマークし、
前記ビュー間参照ピクチャの各々の状態を記憶し、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前は参照に使用されない、のうちの1つを備え、
前記第3のピクチャを符号化した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々について新たな状態を設定するように構成される、[47]に記載のデバイス。
[49] 前記ビデオエンコーダは、さらに、
前記第1のピクチャを含む前記第3のピクチャについての各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および前記第3のピクチャを符号化した後は参照に使用されない、のうちの1つとしてマークし、
ビュー間参照ピクチャを長期参照ピクチャとして標識した後、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャの各々に割り当て、
前記第2のピクチャをコーディングした後、前記ビュー間参照ピクチャについての元のPOC値をリストアするように構成される、[47]に記載のデバイス。
[50] ビデオデータを符号化するためのデバイスであって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を符号化する手段と、
前記第1のピクチャについて第2次元ピクチャ識別子を符号化する手段と、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第2のピクチャを符号化する手段と、
を備えるデバイス。
[51] 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されると、プロセッサに、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を復号させ、
前記第1のピクチャについて第2次元ピクチャ識別子を復号させ、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて第2のピクチャを復号させる、
コンピュータ可読記憶媒体。
Claims (47)
- ビデオデータを復号する方法であって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを復号することと、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを復号することと、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを復号することと、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定することと、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定することと、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることと、
を備え、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的に隣接するブロックであり、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることは、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを復号することと、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを復号することと、を備える、
方法。 - 前記第2のピクチャを復号することは、
前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別することと、
前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を復号することと、
を備える、請求項1に記載の方法。 - 前記第1のピクチャを識別することは、前記第2のピクチャのブロックについての動きベクトルの復号の間に前記第1のピクチャを識別することを備え、前記動きベクトルの復号は、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを復号することを備える、請求項2に記載の方法。
- 前記ビデオデータの前記第1のピクチャが長期参照ピクチャを備えるかどうかを示す値を復号することをさらに備え、前記第1のピクチャが前記長期参照ピクチャを備えるかどうかを示す前記値がさらに、前記第1のピクチャがビュー間予測に使用されるかどうかを示す、請求項1に記載の方法。
- 前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを復号することをさらに備える、請求項1に記載の方法。
- 前記第2のピクチャを復号する前に、前記第1のピクチャを含む、すべてのビュー間参照ピクチャを、長期参照ピクチャとしてマークすることをさらに備える、請求項5に記載の方法。
- 前記第2のピクチャについて前記ビュー間参照ピクチャの各々の状態を、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前に記憶することと、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、前記ビュー間参照ピクチャは、前記第1のピクチャを含み、
前記第2のピクチャを復号した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々の新たな状態を設定することと、
をさらに備える、請求項6に記載の方法。 - 前記ベースビデオコーディング仕様は高効率ビデオコーディング(HEVC)ベース仕様を備え、前記ベースビデオコーディング仕様への前記拡張は、前記HEVCベース仕様に対するスケーラブルビデオコーディング(SVC)拡張と、前記HEVCベース仕様に対するマルチビュービデオコーディング(MVC)拡張とのうちの1つを備える、請求項5に記載の方法。
- 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、請求項5に記載の方法。
- 前記第2のピクチャを復号した後、各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークすることをさらに備える、請求項5に記載の方法。
- ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャに割り当てることと、
前記第2のピクチャを復号した後、前記ビュー間参照ピクチャについての元のPOC値をリストアすることと、
をさらに備える、請求項10に記載の方法。 - 前記元のPOC値は、前記第1のピクチャの前記POC値を備える、請求項11に記載の方法。
- ビデオデータを符号化する方法であって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを符号化することと、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを符号化することと、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを符号化することと、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定することと、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定することと、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることと、
を備え、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的に隣接するブロックであり、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることは、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを符号化することと、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを符号化することと、を備える、
方法。 - 前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別することと、
前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分をコーディングすることと、
をさらに備える、請求項13に記載の方法。 - 前記第1のピクチャを識別することは、前記第2のピクチャのブロックについての前記動きベクトルの符号化の間に前記第1のピクチャを識別することを備え、前記動きベクトルの符号化は、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを符号化することを備える、請求項14に記載の方法。
- 前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにすることと、
前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングすることと、
をさらに備える、請求項13に記載の方法。 - 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、請求項13に記載の方法。
- 前記ビデオデータの前記第1のピクチャが長期参照ピクチャを備えるかどうかを示す値を符号化することをさらに備え、前記第1のピクチャが前記長期参照ピクチャを備えるかどうかを示す前記値がさらに、前記第1のピクチャがビュー間予測に使用されるかどうかを示す、請求項13に記載の方法。
- 前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて、前記第2のピクチャを符号化することをさらに備える、請求項13に記載の方法。
- 前記第2のピクチャを符号化する前に、すべてのビュー間参照ピクチャを、長期参照ピクチャとしてマークすることをさらに備える、請求項19に記載の方法。
- 前記ビュー間参照ピクチャの各々の状態を、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前に記憶することと、ここで前記状態は、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、
前記第2のピクチャを符号化した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々の新たな状態を設定することと、
をさらに備える、請求項20に記載の方法。 - 前記ベースビデオコーディング仕様は高効率ビデオコーディング(HEVC)ベース仕様を備え、前記ベースビデオコーディング仕様への前記拡張は、前記HEVCベース仕様に対するスケーラブルビデオコーディング(SVC)拡張と、前記HEVCベース仕様に対するマルチビュービデオコーディング(MVC)拡張とのうちの1つを備える、請求項19に記載の方法。
- 前記第2のピクチャを符号化した後、各ビュー間参照ピクチャを、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークすることをさらに備える、請求項19に記載の方法。
- ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャに割り当てることと、
前記第2のピクチャを符号化した後、前記ビュー間参照ピクチャについての元のPOC値をリストアすることと、
をさらに備える、請求項23に記載の方法。 - 前記元のPOC値は、前記第2のピクチャの前記POC値を備える、請求項24に記載の方法。
- ビデオデータを復号するためのデバイスであって、
ビデオデータを記憶するように構成されたメモリと、
前記ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを復号し、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを復号し、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを復号し、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定し、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定し、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにする
ように構成されたビデオデコーダと、
を備え、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的に隣接するブロックであり、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにするために、前記ビデオデコーダは、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを復号し、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを復号するように構成される、
デバイス。 - 前記ビデオデコーダは、前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別し、前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を復号するように構成される、請求項26に記載のデバイス。
- 前記ビデオデコーダは、前記第2のピクチャのブロックについての動きベクトルの復号の間に前記第1のピクチャを識別するように構成され、前記ビデオデコーダは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを復号するように構成される、請求項27に記載のデバイス。
- 前記ビデオデコーダは、前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにし、前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングするように構成される、請求項26に記載のデバイス。
- 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、請求項26に記載のデバイス。
- 前記ビデオデコーダは、前記ビデオデータの前記第1のピクチャが長期参照ピクチャを備えるかどうかを示す値を復号するように構成され、前記第1のピクチャが前記長期参照ピクチャを備えるかどうかを示す前記値がさらに、前記第1のピクチャがビュー間予測に使用されるかどうかを示す、請求項26に記載のデバイス。
- 前記ビデオデコーダは、前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて、前記第2のピクチャを復号するようにさらに構成される、請求項26に記載のデバイス。
- 前記ビデオデコーダは、
前記第1のピクチャを含む、前記第2のピクチャについてのすべてのビュー間参照ピクチャを、前記第2のピクチャを復号する前に、長期参照ピクチャとしてマークし、
前記ビュー間参照ピクチャの各々の状態を記憶し、ここで前記状態は、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前の、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、
前記第2のピクチャを復号した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々の新たな状態を設定する、
ように構成される、請求項32に記載のデバイス。 - 前記ビデオデコーダは、
前記第1のピクチャを含む、前記第2のピクチャについての各ビュー間参照ピクチャを、前記第2のピクチャを復号した後に、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークし、
ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を、前記ビュー間参照ピクチャの各々に割り当て、
前記第2のピクチャを復号した後、前記ビュー間参照ピクチャについての元のPOC値をリストアするようにさらに構成される、請求項32に記載のデバイス。 - 集積回路と、
マイクロプロセッサと、
前記ビデオデコーダを含むワイヤレス通信デバイスと、
のうちの少なくとも1つを備える、請求項26に記載のデバイス。 - ビデオデータを符号化するためのデバイスであって、
ビデオデータを記憶するように構成されたメモリと、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを符号化し、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを符号化し、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを符号化し、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定し、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定し、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにする
ように構成されたビデオエンコーダと、
を備え、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的に隣接するブロックであり、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにするために、前記ビデオエンコーダは、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを符号化し、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを符号化するように構成される、
デバイス。 - 前記ビデオエンコーダは、前記POC値と前記第2次元ピクチャ識別子とを使用して前記第1のピクチャを識別し、前記第1のピクチャに対して前記第2のピクチャの少なくとも一部分を符号化するように構成される、請求項36に記載のデバイス。
- 前記ビデオエンコーダは、前記第2のピクチャのブロックについての動きベクトルの符号化の間に前記第1のピクチャを識別するように構成され、前記ビデオエンコーダは、発展型動きベクトル予測(AMVP)、時間的動きベクトル予測(TMVP)、およびマージモードのうちの少なくとも1つに従って前記動きベクトルを符号化するように構成される、請求項37に記載のデバイス。
- 前記ビデオエンコーダは、前記第2のピクチャの第1の短期動きベクトルと前記第2のピクチャの第2の短期動きベクトルとの間の予測をイネーブルにし、前記第1の短期動きベクトルによって参照される第1の短期参照ピクチャについてのPOC値と、前記第2の短期動きベクトルによって参照される第2の短期参照ピクチャについてのPOC値とに基づいて、前記第1の短期動きベクトルと前記第2の短期動きベクトルとのうちの少なくとも1つをスケーリングするように構成される、請求項36に記載のデバイス。
- 前記第2次元ピクチャ識別子は、前記第1のピクチャを含むビューのビュー識別子、前記第1のピクチャを含む前記ビューのビュー順序インデックス、前記ビュー順序インデックスと深度フラグとの組合せ、前記第1のピクチャを含むスケーラブルビデオコーディング(SVC)レイヤのレイヤ識別子、および一般的なレイヤ識別子のうちの少なくとも1つを備える、請求項36に記載のデバイス。
- 前記ビデオエンコーダは、前記ビデオデータの前記第1のピクチャが長期参照ピクチャを備えるかどうかを示す値を符号化するように構成され、ここで、前記第1のピクチャが前記長期参照ピクチャを備えるかどうかを示す前記値がさらに、前記第1のピクチャがビュー間予測に使用されるかどうかを示す、請求項36に記載のデバイス。
- 前記ビデオエンコーダはさらに、前記ベースビデオコーディング仕様への拡張に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて、第2のピクチャを符号化するように構成される、請求項36に記載のデバイス。
- 前記ビデオエンコーダは、
前記第2のピクチャを符号化する前に、前記第1のピクチャを含む前記第2のピクチャについてのすべてのビュー間参照ピクチャを長期参照ピクチャとしてマークし、
前記ビュー間参照ピクチャの各々の状態を記憶し、ここで前記状態は、前記ビュー間参照ピクチャを長期参照ピクチャとしてマークする前の、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つを備え、
前記第2のピクチャを符号化した後、前記記憶された状態に基づいて、前記ビュー間参照ピクチャの各々について新たな状態を設定するように構成される、請求項42に記載のデバイス。 - 前記ビデオエンコーダはさらに、
前記第1のピクチャを含む前記第2のピクチャについての各ビュー間参照ピクチャを、前記第2のピクチャを符号化した後に、長期参照ピクチャ、短期参照ピクチャ、および参照に使用されない、のうちの1つとしてマークし、
ビュー間参照ピクチャを長期参照ピクチャとしてマークした後、現在使用されていない新たなPOC値を前記ビュー間参照ピクチャの各々に割り当て、
前記第2のピクチャを符号化した後、前記ビュー間参照ピクチャについての元のPOC値をリストアするように構成される、請求項42に記載のデバイス。 - ビデオデータを符号化するためのデバイスであって、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを符号化する手段と、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを符号化する手段と、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを符号化する手段と、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定する手段と、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定する手段と、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにする手段と、
を備え、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的に隣接するブロックであり、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにする前記手段は、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを符号化する手段と、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを符号化する手と、を備える、
デバイス。 - 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されると、プロセッサに、
ビデオデータの第1のピクチャについてピクチャ順序カウント(POC)値を参照する第2のピクチャのデータを復号することと、
前記第1のピクチャについて第2次元ピクチャ識別子を参照する前記第2のピクチャのデータを復号することと、
ベースビデオコーディング仕様に従って、前記第1のピクチャの前記POC値と前記第2次元ピクチャ識別子とに少なくとも一部基づいて前記第2のピクチャを復号することと、
前記第2のピクチャの第1のブロックの第1の動きベクトルが短期参照ピクチャを参照すると決定することと、
前記第2のピクチャの第2のブロックの第2の動きベクトルが長期参照ピクチャを参照すると決定することと、
前記第1の動きベクトルが前記短期参照ピクチャを参照するとの前記決定と、前記第2の動きベクトルが前記長期参照ピクチャを参照するとの前記決定とに基づいて、前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルと前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることと、
を行わせ、ここで、前記第1のブロックおよび前記第2のブロックは、前記第2のピクチャにおいて空間的な隣接するブロックであり、
前記プロセッサに、前記第1の動きベクトルと前記第2の動きベクトルとの間の動きベクトル予測をディセーブルにすることを行わせる前記命令は、前記プロセッサに、前記第1の動きベクトルを予測するために前記第2の動きベクトルを使用することなしに前記第1の動きベクトルを復号することと、前記第2の動きベクトルを予測するために前記第1の動きベクトルを使用することなしに前記第2の動きベクトルを復号することとを行わせる命令を備える、
コンピュータ可読記憶媒体。 - 前記第2のピクチャの前記第1のブロックの前記第1の動きベクトルが前記短期参照ピクチャを参照すると決定することは、前記第1の動きベクトルが、短期参照に使用されるとマークされた第1の参照ピクチャを参照すると決定することを備え、
前記第2のピクチャの前記第2のブロックの前記第2の動きベクトルが前記長期参照ピクチャを参照すると決定することは、前記第2の動きベクトルが、長期参照に使用されるとマークされた第2の参照ピクチャを参照すると決定することを備える、
請求項1に記載の方法。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261611959P | 2012-03-16 | 2012-03-16 | |
US61/611,959 | 2012-03-16 | ||
US201261624990P | 2012-04-16 | 2012-04-16 | |
US61/624,990 | 2012-04-16 | ||
US201261658344P | 2012-06-11 | 2012-06-11 | |
US61/658,344 | 2012-06-11 | ||
US201261663484P | 2012-06-22 | 2012-06-22 | |
US61/663,484 | 2012-06-22 | ||
US201261746476P | 2012-12-27 | 2012-12-27 | |
US61/746,476 | 2012-12-27 | ||
US13/801,731 | 2013-03-13 | ||
US13/801,731 US10200709B2 (en) | 2012-03-16 | 2013-03-13 | High-level syntax extensions for high efficiency video coding |
PCT/US2013/031573 WO2013138639A1 (en) | 2012-03-16 | 2013-03-14 | High-level syntax extensions for high efficiency video coding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015511090A JP2015511090A (ja) | 2015-04-13 |
JP2015511090A5 JP2015511090A5 (ja) | 2016-04-07 |
JP6258288B2 true JP6258288B2 (ja) | 2018-01-17 |
Family
ID=49157622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015500629A Active JP6258288B2 (ja) | 2012-03-16 | 2013-03-14 | 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 |
Country Status (17)
Country | Link |
---|---|
US (1) | US10200709B2 (ja) |
EP (1) | EP2826248B1 (ja) |
JP (1) | JP6258288B2 (ja) |
KR (1) | KR102156947B1 (ja) |
CN (1) | CN104322070B (ja) |
AU (1) | AU2013231961B2 (ja) |
CA (1) | CA2865949C (ja) |
DK (1) | DK2826248T3 (ja) |
ES (1) | ES2900751T3 (ja) |
HK (1) | HK1202745A1 (ja) |
HU (1) | HUE056925T2 (ja) |
IL (1) | IL234160B (ja) |
PH (1) | PH12014502012B1 (ja) |
RU (1) | RU2636692C2 (ja) |
SG (2) | SG11201405073QA (ja) |
WO (1) | WO2013138639A1 (ja) |
ZA (1) | ZA201407492B (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
JP5747559B2 (ja) * | 2011-03-01 | 2015-07-15 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
GB2559226B (en) * | 2011-09-09 | 2018-11-28 | Kt Corp | Method for deriving a temporal predictive motion vector |
MX353235B (es) * | 2011-09-29 | 2018-01-08 | Sharp Kk Star | Dispositivo de decodificación de imágenes, método de decodificación de imágenes y dispositivo de codificación de imágenes. |
CN107835414B (zh) | 2011-10-18 | 2020-11-06 | 株式会社Kt | 视频信号解码方法 |
RU2566973C2 (ru) * | 2011-11-08 | 2015-10-27 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для определения вектора движения в кодировании или декодировании видео |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10200709B2 (en) | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
CN104521236B (zh) * | 2012-07-27 | 2017-10-20 | 寰发股份有限公司 | 三维视频编码或解码方法 |
US9860558B2 (en) * | 2012-09-28 | 2018-01-02 | Intel Corporation | Inter-layer intra mode prediction |
CN102883163B (zh) * | 2012-10-08 | 2014-05-28 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
KR20140087971A (ko) | 2012-12-26 | 2014-07-09 | 한국전자통신연구원 | 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치 |
US10194146B2 (en) | 2013-03-26 | 2019-01-29 | Qualcomm Incorporated | Device and method for scalable coding of video information |
KR102177831B1 (ko) * | 2013-04-05 | 2020-11-11 | 삼성전자주식회사 | 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치 |
KR20140122835A (ko) * | 2013-04-11 | 2014-10-21 | 삼성전자주식회사 | 프로세스 병렬 처리 장치 및 방법 |
JP5789004B2 (ja) * | 2013-08-09 | 2015-10-07 | ソニー株式会社 | 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法 |
FR3011429A1 (fr) * | 2013-09-27 | 2015-04-03 | Orange | Codage et decodage video par heritage d'un champ de vecteurs de mouvement |
US9716884B2 (en) * | 2014-03-20 | 2017-07-25 | Hfi Innovation Inc. | Method of signaling for mode selection in 3D and multi-view video coding |
CN104935921B (zh) * | 2014-03-20 | 2018-02-23 | 寰发股份有限公司 | 发送从模式组中选择的一个或多个编码模式的方法和设备 |
US10158867B2 (en) | 2014-06-20 | 2018-12-18 | Qualcomm Incorporated | Picture order count reset for multi-layer codecs |
KR102658290B1 (ko) * | 2015-06-08 | 2024-04-16 | 브이아이디 스케일, 인크. | 스크린 콘텐츠 코딩을 위한 인트라 블록 카피 모드 |
WO2017069505A1 (ko) * | 2015-10-19 | 2017-04-27 | 엘지전자(주) | 영상의 부호화/복호화 방법 및 이를 위한 장치 |
US11595652B2 (en) | 2019-01-28 | 2023-02-28 | Op Solutions, Llc | Explicit signaling of extended long term reference picture retention |
US9984314B2 (en) * | 2016-05-06 | 2018-05-29 | Microsoft Technology Licensing, Llc | Dynamic classifier selection based on class skew |
CN109089119B (zh) | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
US20190141320A1 (en) * | 2017-11-07 | 2019-05-09 | Qualcomm Incorporated | Enhanced reference picture management in video coding |
US11991394B2 (en) | 2018-06-07 | 2024-05-21 | Interdigital Vc Holdings, Inc. | Syntax elements for video encoding or decoding |
TWI719525B (zh) * | 2018-06-29 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | Lut與amvp之間的交互 |
EP3794825A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Update of look up table: fifo, constrained fifo |
WO2020003282A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Managing motion vector predictors for video coding |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
CN114900694A (zh) | 2018-06-29 | 2022-08-12 | 抖音视界(北京)有限公司 | 哪个查找表需要更新或不更新 |
EP4322533A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
BR112020024142A2 (pt) | 2018-06-29 | 2021-03-02 | Beijing Bytedance Network Technology Co., Ltd. | método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório |
TWI748202B (zh) | 2018-07-02 | 2021-12-01 | 大陸商北京字節跳動網絡技術有限公司 | Lamvr中取整和修剪的順序 |
CN111064961B (zh) | 2018-09-12 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置 |
CN111010571B (zh) | 2018-10-08 | 2023-05-16 | 北京字节跳动网络技术有限公司 | 组合仿射Merge候选的生成和使用 |
US11128866B2 (en) * | 2018-10-18 | 2021-09-21 | Qualcomm Incorporated | Scans and last coefficient position coding for zero-out transforms |
WO2020093999A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Inter prediction with refinement in video processing |
GB2580084B (en) | 2018-12-20 | 2022-12-28 | Canon Kk | Video coding and decoding |
CN113196771B (zh) | 2018-12-21 | 2023-12-22 | 北京字节跳动网络技术有限公司 | 基于运动矢量精度的运动矢量范围 |
WO2020138958A1 (ko) * | 2018-12-27 | 2020-07-02 | 에스케이텔레콤 주식회사 | 양방향 예측 방법 및 영상 복호화 장치 |
WO2020143741A1 (en) | 2019-01-10 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Invoke of lut updating |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
CN113302937A (zh) | 2019-01-16 | 2021-08-24 | 北京字节跳动网络技术有限公司 | 运动候选推导 |
EP3918801A4 (en) * | 2019-01-28 | 2022-06-15 | OP Solutions, LLC | ONLINE AND OFFLINE CHOICE OF EXTENDED LONG-TERM REFERENCE IMAGE STORAGE |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
KR102662616B1 (ko) | 2019-05-21 | 2024-04-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 어파인 모드를 위한 적응적 모션 벡터 차이 해상도 |
KR20240005165A (ko) | 2019-06-14 | 2024-01-11 | 엘지전자 주식회사 | 움직임 벡터 차분들을 이용한 영상 코딩 방법 및 장치 |
WO2021018031A1 (en) * | 2019-07-27 | 2021-02-04 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions of usage of tools according to reference picture types |
CN113596456B (zh) * | 2019-09-23 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 编解码方法、装置及设备 |
WO2021073630A1 (en) | 2019-10-18 | 2021-04-22 | Beijing Bytedance Network Technology Co., Ltd. | Syntax constraints in parameter set signaling of subpictures |
EP4115605A4 (en) * | 2020-03-30 | 2023-11-15 | ByteDance Inc. | CONSTRAINTS ON COLLOCATED IMAGES IN VIDEO CODING |
CN115668924A (zh) * | 2020-05-21 | 2023-01-31 | 字节跳动有限公司 | 参考图片信息的约束 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1411729B1 (en) | 2002-04-19 | 2016-03-23 | Panasonic Intellectual Property Corporation of America | Motion vector calculating method |
JP2004023458A (ja) | 2002-06-17 | 2004-01-22 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
US7023921B2 (en) | 2002-08-06 | 2006-04-04 | Motorola, Inc. | Method and apparatus for determining block match quality |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US8064520B2 (en) | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
KR100584603B1 (ko) | 2004-08-03 | 2006-05-30 | 학교법인 대양학원 | 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치 |
US20070014346A1 (en) | 2005-07-13 | 2007-01-18 | Nokia Corporation | Coding dependency indication in scalable video coding |
WO2007011147A1 (en) | 2005-07-18 | 2007-01-25 | Electronics And Telecommunications Research Institute | Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same |
KR101227601B1 (ko) | 2005-09-22 | 2013-01-29 | 삼성전자주식회사 | 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치 |
US8644386B2 (en) | 2005-09-22 | 2014-02-04 | Samsung Electronics Co., Ltd. | Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method |
KR101276720B1 (ko) | 2005-09-29 | 2013-06-19 | 삼성전자주식회사 | 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체 |
WO2007037645A1 (en) | 2005-09-29 | 2007-04-05 | Samsung Electronics Co., Ltd. | Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method |
ZA200805337B (en) | 2006-01-09 | 2009-11-25 | Thomson Licensing | Method and apparatus for providing reduced resolution update mode for multiview video coding |
EP1982517A4 (en) | 2006-01-12 | 2010-06-16 | Lg Electronics Inc | MULTIVATE VIDEO PROCESSING |
KR100966567B1 (ko) | 2006-03-30 | 2010-06-29 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
ZA200900102B (en) | 2006-07-06 | 2010-05-26 | Thomson Licensing | Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding |
MX339121B (es) | 2006-07-06 | 2016-05-12 | Thomson Licensing | Metodo y aparato para desacoplar el numero de cuadro y/o la cuenta del orden de imagen (poc) para la codificación y decodificación de video de múltiples vistas. |
KR101370919B1 (ko) | 2006-07-12 | 2014-03-11 | 엘지전자 주식회사 | 신호처리방법 및 장치 |
US8179969B2 (en) | 2006-08-18 | 2012-05-15 | Gwangju Institute Of Science And Technology | Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity |
CN102780883B (zh) * | 2006-10-13 | 2015-03-04 | 汤姆逊许可公司 | 用于包含多视点视频编码的参考图像管理的方法 |
ES2492923T3 (es) | 2006-10-16 | 2014-09-10 | Nokia Corporation | Sistema y procedimiento para implementar una administración eficiente de memoria intermedia decodificada en codificación de video de vistas múltiples |
KR20090085581A (ko) | 2006-10-24 | 2009-08-07 | 톰슨 라이센싱 | 다중-뷰 비디오 코딩을 위한 화상 관리 |
BRPI0717639A2 (pt) | 2006-10-30 | 2013-11-12 | Nippon Telegraph & Telephone | Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas |
JP5023739B2 (ja) | 2007-02-28 | 2012-09-12 | ソニー株式会社 | 画像情報符号化装置及び符号化方法 |
JP2010520697A (ja) | 2007-03-02 | 2010-06-10 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のデコーディング/エンコーディング方法及び装置 |
US20080240242A1 (en) | 2007-03-27 | 2008-10-02 | Nokia Corporation | Method and system for motion vector predictions |
KR101946376B1 (ko) | 2007-10-16 | 2019-02-11 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR101385884B1 (ko) | 2008-01-30 | 2014-04-16 | 고려대학교 산학협력단 | 다시점 동영상의 부호화 및 복호화 방법 및 장치 |
ES2812473T3 (es) | 2008-03-19 | 2021-03-17 | Nokia Technologies Oy | Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo |
EP2338281A4 (en) | 2008-10-17 | 2012-08-15 | Nokia Corp | SHARING THE MOTION VECTOR IN 3D VIDEO CODING |
KR101590511B1 (ko) | 2009-01-23 | 2016-02-02 | 에스케이텔레콤 주식회사 | 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법 |
WO2010086500A1 (en) | 2009-01-28 | 2010-08-05 | Nokia Corporation | Method and apparatus for video coding and decoding |
US20100246683A1 (en) | 2009-03-27 | 2010-09-30 | Jennifer Lois Harmon Webb | Error Resilience in Video Decoding |
KR20110139304A (ko) | 2009-04-22 | 2011-12-28 | 엘지전자 주식회사 | 다시점 영상의 참조 픽쳐 리스트 변경 방법 |
US9060176B2 (en) | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
KR101768207B1 (ko) | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
US20120189060A1 (en) | 2011-01-20 | 2012-07-26 | Industry-Academic Cooperation Foundation, Yonsei University | Apparatus and method for encoding and decoding motion information and disparity information |
US9749657B2 (en) | 2011-01-21 | 2017-08-29 | Sharp Kabushiki Kaisha | Buffer compression for motion vector competition |
KR20120095610A (ko) | 2011-02-21 | 2012-08-29 | 삼성전자주식회사 | 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
JP5664762B2 (ja) | 2011-03-17 | 2015-02-04 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム |
KR20120118780A (ko) | 2011-04-19 | 2012-10-29 | 삼성전자주식회사 | 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP2013034171A (ja) | 2011-06-30 | 2013-02-14 | Sony Corp | 画像処理装置および方法 |
US10567786B2 (en) | 2011-08-19 | 2020-02-18 | Telefonaktiebolaget Lm Ericsson (Publ) | Motion vector processing |
US20130229485A1 (en) | 2011-08-30 | 2013-09-05 | Nokia Corporation | Apparatus, a Method and a Computer Program for Video Coding and Decoding |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10200709B2 (en) | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
-
2013
- 2013-03-13 US US13/801,731 patent/US10200709B2/en active Active
- 2013-03-14 SG SG11201405073QA patent/SG11201405073QA/en unknown
- 2013-03-14 DK DK13713300.5T patent/DK2826248T3/da active
- 2013-03-14 KR KR1020147028446A patent/KR102156947B1/ko active IP Right Grant
- 2013-03-14 SG SG10201607529SA patent/SG10201607529SA/en unknown
- 2013-03-14 JP JP2015500629A patent/JP6258288B2/ja active Active
- 2013-03-14 WO PCT/US2013/031573 patent/WO2013138639A1/en active Application Filing
- 2013-03-14 ES ES13713300T patent/ES2900751T3/es active Active
- 2013-03-14 EP EP13713300.5A patent/EP2826248B1/en active Active
- 2013-03-14 CA CA2865949A patent/CA2865949C/en active Active
- 2013-03-14 CN CN201380014479.8A patent/CN104322070B/zh active Active
- 2013-03-14 HU HUE13713300A patent/HUE056925T2/hu unknown
- 2013-03-14 RU RU2014141644A patent/RU2636692C2/ru active
- 2013-03-14 AU AU2013231961A patent/AU2013231961B2/en active Active
-
2014
- 2014-08-17 IL IL234160A patent/IL234160B/en active IP Right Grant
- 2014-09-09 PH PH12014502012A patent/PH12014502012B1/en unknown
- 2014-10-15 ZA ZA2014/07492A patent/ZA201407492B/en unknown
-
2015
- 2015-04-01 HK HK15103297.7A patent/HK1202745A1/xx unknown
Also Published As
Publication number | Publication date |
---|---|
EP2826248B1 (en) | 2021-11-24 |
ES2900751T3 (es) | 2022-03-18 |
CA2865949A1 (en) | 2013-09-19 |
RU2636692C2 (ru) | 2017-11-27 |
PH12014502012A1 (en) | 2014-11-24 |
SG10201607529SA (en) | 2016-10-28 |
US20130243081A1 (en) | 2013-09-19 |
PH12014502012B1 (en) | 2014-11-24 |
JP2015511090A (ja) | 2015-04-13 |
AU2013231961A1 (en) | 2014-09-25 |
CA2865949C (en) | 2020-03-24 |
US10200709B2 (en) | 2019-02-05 |
SG11201405073QA (en) | 2014-10-30 |
AU2013231961B2 (en) | 2017-07-13 |
KR20140140073A (ko) | 2014-12-08 |
WO2013138639A1 (en) | 2013-09-19 |
DK2826248T3 (da) | 2021-12-20 |
HUE056925T2 (hu) | 2022-03-28 |
CN104322070B (zh) | 2017-12-08 |
CN104322070A (zh) | 2015-01-28 |
IL234160B (en) | 2019-09-26 |
KR102156947B1 (ko) | 2020-09-16 |
EP2826248A1 (en) | 2015-01-21 |
HK1202745A1 (en) | 2015-10-02 |
RU2014141644A (ru) | 2016-05-10 |
ZA201407492B (en) | 2020-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6258288B2 (ja) | 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 | |
JP6585200B2 (ja) | ビデオコード化における視差ベクトル予測 | |
CN110431845B (zh) | 约束通过解码器侧运动向量推导导出的运动向量信息 | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
CN109891890B (zh) | 用于解码视频数据的方法、编码视频数据的方法及相关设备 | |
CN110741639B (zh) | 视频译码中的运动信息传播 | |
US9420286B2 (en) | Temporal motion vector prediction in HEVC and its extensions | |
KR102264104B1 (ko) | 백워드 뷰 합성 예측 | |
US9674542B2 (en) | Motion vector prediction for video coding | |
US9948950B2 (en) | Disparity vector and/or advanced residual prediction for video coding | |
US9438926B2 (en) | Constraints on neighboring block based disparity vector (NBDV) techniques for 3D video | |
JP2016529791A (ja) | ビデオコーディングのための照明補償を処理すること | |
JP2016530848A (ja) | 非対称動き分割を使用するビデオコーディング技法 | |
JP2016536817A (ja) | 3dビデオコーディング用の結合双予測マージング候補 | |
JP2015515227A (ja) | ビデオコーディングのためのビュー間予測のための視差ベクトル生成 | |
JP2016525319A (ja) | ビデオコード化における視差ベクトルを使用するブロック識別 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6258288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |