JP7319365B2 - サブブロックに基づくインター予測のための調整方法 - Google Patents
サブブロックに基づくインター予測のための調整方法 Download PDFInfo
- Publication number
- JP7319365B2 JP7319365B2 JP2021526695A JP2021526695A JP7319365B2 JP 7319365 B2 JP7319365 B2 JP 7319365B2 JP 2021526695 A JP2021526695 A JP 2021526695A JP 2021526695 A JP2021526695 A JP 2021526695A JP 7319365 B2 JP7319365 B2 JP 7319365B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- sub
- candidates
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 361
- 230000033001 locomotion Effects 0.000 claims description 546
- 239000013598 vector Substances 0.000 claims description 380
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 156
- 230000002123 temporal effect Effects 0.000 claims description 131
- 238000012545 processing Methods 0.000 claims description 87
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 230000001131 transforming effect Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 12
- 239000000523 sample Substances 0.000 description 148
- 230000008569 process Effects 0.000 description 84
- 241000023320 Luma <angiosperm> Species 0.000 description 64
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 58
- 238000009795 derivation Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 36
- 238000003672 processing method Methods 0.000 description 34
- 230000006835 compression Effects 0.000 description 26
- 238000007906 compression Methods 0.000 description 26
- 238000005516 engineering process Methods 0.000 description 19
- 238000004590 computer program Methods 0.000 description 16
- 239000013074 reference sample Substances 0.000 description 15
- 230000009466 transformation Effects 0.000 description 12
- 238000013461 design Methods 0.000 description 11
- 238000005192 partition Methods 0.000 description 9
- 230000011664 signaling Effects 0.000 description 9
- 241000723655 Cowpea mosaic virus Species 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000013138 pruning Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 101100328886 Caenorhabditis elegans col-2 gene Proteins 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000013256 coordination polymer Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101000928335 Homo sapiens Ankyrin repeat and KH domain-containing protein 1 Proteins 0.000 description 1
- 101000701393 Homo sapiens Serine/threonine-protein kinase 26 Proteins 0.000 description 1
- 102100030617 Serine/threonine-protein kinase 26 Human genes 0.000 description 1
- 101100494729 Syncephalastrum racemosum SPSR gene Proteins 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本願は、国際特許出願(国際出願番号:PCT/CN2019/120301)の国内段階である。パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2018年11月22日出願の国際特許出願PCT/CN2018/116889号、2018年12月29日出願の国際特許出願PCT/CN2018/125420号、2019年8月13日出願の国際特許出願PCT/CN2019/100396号、および2019年9月22日出願の国際特許出願PCT/CN2019/107159号の優先権および利益を適時に主張することを目的とする。法に基づくすべての目的のために、上記出願の開示全体は、本明細書の開示の一部として参照により組み込まれる。
o ステップ1.1:空間的候補導出
o ステップ1.2:空間的候補の冗長性チェック
o ステップ1.3:時間的候補導出
・ ステップ2:追加候補挿入
o ステップ2.1:双予測候補の作成
o ステップ2.2:動きゼロ候補の挿入
1. Pスライスの場合、変数numRefを、リスト0に関連付けられた参照ピクチャの数またはBスライスの場合、2つのリストにおける参照ピクチャの最小数のいずれかに設定する。
2. 非反復動きゼロ候補を加える。
変数iが0~numRef-1の場合、MVを(0,0)に設定し、参照ピクチャインデックスをiに設定したデフォルトの動き候補を、リスト0(Pスライスの場合)に追加し、両方のリスト(Bスライスの場合)に加える。
3. MVを(0,0)に設定し、リスト0の参照ピクチャインデックスを0(Pスライスの場合)に設定し、両方のリストの参照ピクチャインデックスを0(Bスライスの場合)に設定した繰り返し動きゼロ候補を加える。
- (1)同じ参照ピクチャリスト、および同じ参照ピクチャインデックス(同じPOC)
- (2)異なる参照ピクチャリストであるが、同じ参照ピクチャ(同じPOC)
・ 空間的スケーリング
- (3)同じ参照ピクチャリストであるが、異なる参照ピクチャ(異なるPOC)
- (4)異なる参照ピクチャリスト、および異なる参照ピクチャ(異なるPOC)
フルプルーニングを適用する。
フルプルーニングを適用する。
フルプルーニングを適用する。
- List0参照ピクチャスライスQPがList1参照ピクチャスライスQPよりも小さい場合、List1の動き情報をまずList0参照ピクチャにスケーリングし、2つのMVの平均(一方はオリジナルList0からのもので、他方はList1からのスケーリングされたMV)をTPMマージリストに加える。このような候補を、List0動き候補からの平均単一予測と呼び、numCurrMergeCandを1だけ増加させる。
- そうでない場合、List0の動き情報をまずList1参照ピクチャにスケーリングし、2つのMVの平均(一方はオリジナルList1からのものであり、他方はList0からのスケーリングされたMV)をTPMマージリストに加える。このようなTPM候補を、List1動き候補からの平均単一予測と呼ばれ、numCurrMergeCandを1だけ増加させる。
フルプルーニングを適用する。
・ 第1の重み係数群は、{7/8,6/8,4/8,2/8,1/8}および{7/8,4/8,1/8}をそれぞれ輝度および色差サンプルに用いる。
・ 第2の重み係数群は、{7/8、6/8、5/8、4/8、3/8、2/8、1/8}および{6/8、4/8、2/8}をそれぞれ輝度および色差サンプルに使用する。
Ctx index=((left block L available && L is coded with TPM?)1:0)
+((Above block A available && A is coded with TPM?)1:0);
{0,1,0},{1,0,1},{1,0,2},{0,0,1},{0,2,0},
{1,0,3},{1,0,4},{1,1,0},{0,3,0},{0,4,0},
{0,0,2},{0,1,2},{1,1,2},{0,0,4},{0,0,3},
{0,1,3},{0,1,4},{1,1,4},{1,1,3},{1,2,1},
{1,2,0},{0,2,1},{0,4,3},{1,3,0},{1,3,2},
{1,3,4},{1,4,0},{1,3,1},{1,2,3},{1,4,1},
{0,4,1},{0,2,3},{1,4,2},{0,3,2},{1,4,3},
{0,3,1},{0,2,4},{1,2,4},{0,4,2},{0,3,4}};
Merge index of candidate A=g_TriangleCombination[signaled indication][1];
Merge index of candidate B=g_TriangleCombination[signaled indication][2];
1. 前述のorder-0 exp-Golombコードを使用して[x/2k]を符号化する。次に、
2. x mod 2kをバイナリで符号化する。
1) 利用可能な場合は、すべてのCPMVをm ̄v2 ̄に等しく設定して、アフィン動き予測子を導出する。
2) 利用可能な場合は、すべてのCPMVをm ̄v1 ̄に等しく設定して、アフィン動き予測子を導出する。
3) 利用可能な場合は、すべてのCPMVをm ̄v0 ̄に設定して、アフィン動き予測子を導出する。
4) 利用可能な場合は、すべてのCPMVをHEVCTMVPに等しく設定することで、アフィン動き予測子を導出する。
5) すべてのCPMVをゼロMVに設定することによって、アフィン動き予測子を導出する。
mv1=m ̄v1 ̄+mvd1+mvd0
mv2=m ̄v2 ̄+mvd2+mvd0
CP1、CP2、CP3、CP4の座標は、それぞれ、(0、0)、(W、0)、(H、0)、(W、H)であり、W、Hは、現在のブロックの幅および高さである。
- CP1の場合、チェックの優先順位はB2->B3->A2である。利用可能であれば、B2を使用する。そうではなく、B2が利用可能である場合、B3が使用される。B2とB3の両方が利用不可能である場合、A2が使用される。3つの候補のすべてが利用不可能である場合、CP1の動き情報を取得することができない。
- CP2の場合、チェックの優先順位はB1->B0である。
- CP3の場合、チェックの優先順位はA1->A0である。
- CP4にはTを用いる。
I. 6パラメータアフィン候補を構築するためには、3つの制御点の動き情報が必要である。3つの制御点は、以下の4つの組み合わせ({CP1、CP2、CP4}、{CP1、CP2、CP3}、{CP2、CP3、CP4}、{CP1、CP3、CP4})のうち1つを選択することができる。{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4}の組み合わせを、左上、右上、左下の制御点で表される6パラメータ動きモデルに変換する。
II. 4パラメータアフィン候補を構築するためには、2つの制御点の動き情報が必要である。2つの制御点は、2つの組み合わせ({CP1,CP2}、{CP1,CP3})の1つから選択されてもよい。この2つの組み合わせを、左上および右上の制御点で表される4パラメータ動きモデルに変換する。
III. 構築されたアフィン候補の組み合わせを以下の順に候補リストに挿入する。
{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3}
i. 各組み合わせについて、各CPに対するリストXの参照インデックスをチェックし、それらがすべて同じである場合、このコンビネーションはリストXに対して有効なCPMVを有する。このコンビネーションがリスト0およびリスト1の両方に対して有効なCPMVを有していない場合、このコンビネーションは無効としてマークされる。そうでない場合、それは有効であり、CPMVはサブブロックマージリストに入れられる。
- それは通常のインターモードとして扱われる。そのため、IBCモードにおいても、マージモードおよびスキップモードが利用可能である。IBCモードまたはHEVCインターモードで符号化された近傍の位置からのマージ候補を含むマージ候補リスト構築を統一する。選択されたマージインデックスに基づいて、マージまたはスキップモード下の現在のブロックは、IBCモードで符号化された近傍にマージされるか、または異なるピクチャを参照ピクチャとして有する通常のインターモードで符号化される。
- IBCモードのためのブロックベクトル予測および符号化方式は、HEVCインターモード(AMVPおよびMVD符号化)における動きベクトル予測および符号化に使用される方式を再利用する。
- IBCモードのための動きベクトルは、ブロックベクトルとも呼ばれるが、整数画素精度で符号化されるが、補間およびデブロッキング段において1/4画素精度が必要とされるので、復号化の後、1/16画素精度でメモリに記憶される。IBCモードのための動きベクトル予測に使用される場合、記憶されたベクトル予測子は、4だけ右シフトされる。
- 検索範囲:現在のCTU内に制限される。
- アフィンモード/三角モード/GBI/重み付け予測が有効にされる場合、CPRは許可されない。
単一予測TPMマージリストサイズ5に固定される。
b. ATMVP候補(利用可能でも、または利用不可能でもよい)
c. 継承されたアフィン候補
d. 構築されたアフィン候補
e. ゼロMV4パラメータアフィンモデルとしてのパディング
1) ATMVP使用フラグ(例えば、フラグに「sps_sbTMVp_enabled_flag」という名前を付けてもよい)がオン(1に等しい)であるが、アフィン使用フラグ(例えば、フラグに「sps_affine_enabled_flag」という名前を付けることができる)がオフ(0に等しい)の場合、次に、MLは1に設定される。
2) ATMVP使用フラグがオフ(0に等しい)であり、かつアフィン使用フラグがオフ(0に等しい)である場合、MLは0に等しく設定される。この場合、サブブロックマージ候補リストは用いられない。
3) そうでない場合(アフィン使用フラグがオン(1に等しい)、ATMVP使用フラグがオンまたはオフ)、エンコーダからデコーダにMLが信号通知される。有効なMLは0<=ML<=5である。
1) ATMVP使用フラグがOFFになっている。
2) TMVP使用フラグ(例えば、スライスレベルで信号通知された場合、フラグは「slice_temporal_mvp_enabled_flag」と名付けられる場合がある)はオフである。
3) 参照リスト0における参照インデックス0を有する参照ピクチャは、現在のピクチャと同じである(CPRである)。
a. 図22に示すように、近傍のブロックA1、B1、B0、A0をチェックして、ブロックXとして示される、インターコードされているがCPRコードされていない第1のブロックを見出す。
b. TMV=(0,0)を初期化する。ブロックXに1つのMV(MV’と表記される)がある場合、(スライスヘッダに信号通知されたら)コロケーションされた参照ピクチャを参照し、TMVをMV’に等しく設定する。
c. 現在のブロックの中心点を(x0,y0)とし、次に、コロケーションされたピクチャにおける(x0,y0)の対応する位置をM=(x0+MV’x,y0+MV’y)として配置する。Mを含むブロックZを見つける。
i. Zがイントラ符号化されている場合、ATMVPは利用できない。
ii. Zがインター符号化されている場合、ブロックZの2つのリストのMVZ_0とMVZ_1は、MVdefault0、MVdefault1として(Reflist0 index0)と(Reflist1 index0)にスケーリングされ、記憶される。
d. 各8×8サブブロックに対して、その中心点が(x0S,y0S)であると仮定し、次に、コロケーションされたピクチャにおける(x0S,y0S)の対応する位置をMS=(x0S+MV’x,y0S+MV’y)として位置指定する。MSを含むブロックZSを見つける。
i. ZSがイントラ符号化されている場合、MVdefault0、MVdefault1がサブブロックに割り当てられる。
ii. ZSがインター符号化されている場合、ブロックZSの2つのリストのMVZS_0とMVZS_1は、(Reflist0 index0)と(Reflist1 index0)にスケーリングされ、サブブロックに割り当てられる。
- 現在の符号化サブブロックの幅を規定する変数sbWidth、
- 現在の符号化サブブロックの高さを規定する変数sbHeight、
- 動きベクトルオフセットmvOffset、
- 微調整された動きベクトルrefMvLX、
- 選択された参照ピクチャサンプル配列refPicLX、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 双方向オプティカルフローフラグbdofFlag、
- 現在のブロックの色成分インデックスを規定する変数cIdx。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)配列predSamplesLX。
brdExtSize=(bdofFlag||(inter_affine_flag[xSb][ySb] && sps_affine_prof_enabled_flag))?2:0 (8-752)
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタおよびその固定小数点表現は、以下のように定義される。
hori_scale_fp=((fRefWidth<<14)+(PicOutputWidthL>>1))/PicOutputWidthL (8-753)
vert_scale_fp=((fRefHeight<<14)+(PicOutputHeightL>>1))/PicOutputHeightL (8-754)
- (xIntL,yIntL)をフルサンプルユニットで与えられた輝度位置とし、(xFracL,yFracL)を1/16サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の端数サンプル位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntL,ySbIntL)の左上座標を、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しく設定する。
- 予測輝度サンプル配列predSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)について、対応する予測輝度サンプル値predSamplesLX[xL][yL]は下記のように導出する。
- (refxSbL,refySbL)および(refxL,refyL)を、1/16サンプル単位で与えられる動きベクトル(refMvLX[0],refMvLX[1])が指す輝度位置とする。変数refxSbL、refxL、refySbL、refyLは、以下のように導出する。
refxSbL=((xSb<<4)+refMvLX[0])*hori_scale_fp (8-755)
refxL=((Sign(refxSb)*((Abs(refxSb)+128)>>8)+xL*((hori_scale_fp+8)>>4))+32)>>6 (8-756)
refySbL=((ySb<<4)+refMvLX[1])*vert_scale_fp (8-757)
refyL=((Sign(refySb)*((Abs(refySb)+128)>>8)+yL*((vert_scale_fp+8)>>4))+32)>>6 (8-758)
- 変数xIntL、yIntL、xFracL、およびyFracLは、以下のように導出する。
xIntL=refxL>>4 (8-759)
yIntL=refyL>>4 (8-760)
xFracL=refxL&15 (8-761)
yFracL=refyL&15 (8-762)
- bdofFlagがTRUEに等しいか(sps_affine_prof_enabled_flagがTRUEに等しく、inter_affine_flag[xSb][ySb]がTRUEに等しい)、次の条件の1つ以上が真である場合、予測輝度サンプル値predSamplesLX[xL][yL]は、8.5.6.3.3項で規定されているように、入力として(xIntL+(xFracL>>3)-1),yIntL+(yFracL>>3)-1)およびrefPicLXを使用して輝度整数サンプル取り出し処理を呼び出すことによって導出する。
1. xLは0に等しい。
2. xLは、sbWidth+1に等しい。
3. yLは0に等しい。
4. yLは、sbHeight+1に等しい。
- そうでない場合、8.5.6.3.2項で規定されるように、(xIntL-(brdExtSize>0?で輝度サンプル8タップ補間フィルタリング処理を呼び出すことによって、予測輝度サンプル値predSamplesLX[xL][yL]を導出する。1:0),yIntL-(brdExtSize>0?1:0))、入力として、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)。
- そうでない場合(cIdxが0に等しくない)、以下が適用される。
- (xIntC,yIntC)をフルサンプルユニットで与えられたクロマ位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の一般的な端数サンプルの位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntC,ySbIntC)の左上座標は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しく設定される。
- 予測クロマサンプル配列predSamplesLX内の各クロマサンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)について、対応する予測クロマサンプル値predSamplesLX[xC][yC]は、以下のように導出する。
- (refxSbC,refySbC)および(refxC,refyC)を、1/32サンプル単位で与えられる動きベクトル(mvLX[0],mvLX[1])が指すクロマ位置とする。変数refxSbC、refySbC、refxC、refyCは、以下のように導出する。
refxSbC=((xSb/SubWidthC<<5)+mvLX[0])*hori_scale_fp (8-763)
refxC=((Sign(refxSbC)*((Abs(refxSbC)+256)>>9)+xC*((hori_scale_fp+8)>>4))+16)>>5 (8-764)
refySbC=((ySb/SubHeightC<<5)+mvLX[1])*vert_scale_fp (8-765)
refyC=((Sign(refySbC)*((Abs(refySbC)+256)>>9)+yC*((vert_scale_fp+8)>>4))+16)>>5 (8-766)
- 変数xIntC、yIntC、xFracC、yFracCは、以下のように導出する。
xIntC=refxC>>5 (8-767)
yIntC=refyC>>5 (8-768)
xFracC=refyC&31 (8-769)
yFracC=refyC&31 (8-770)
- 予測サンプル値predSamplesLX[xC][yC]は、(xIntC,yIntC),(xFracC,yFracC),(xSbIntC,ySbIntC),sbWidth,sbHeight、およびrefPicLXを入力として、8.5.6.3.4項で指定した処理を呼び出すことによって導出される。
- フルサンプルユニット(xIntL,yIntL)における輝度位置、
- 端数サンプル単位での輝度位置(xFracL,yFracL)、
- 参照ピクチャの左上の輝度サンプルに対する参照サンプルのパディングのための境界ブロックの左上のサンプルを規定する、フルサンプルユニット(xSbIntL,ySbIntL)における輝度位置、
- 輝度参照サンプル配列refPicLXL、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 現在のサブブロックの幅を規定する変数sbWidth、
- 現在のサブブロックの高さを規定する変数sbHeight、
- 現在のピクチャの左上の輝度サンプルに対する現在のサブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 変数shift1をMin(4,BitDepthY_8)に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthY)に等しく設定する。
- 変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
- MotionModelIdc[xSb][ySb]が0より大きく、sbWidthおよびsbHeightがともに4に等しい場合、輝度補間フィルタ係数fL[p]を表5で指定する。
- そうでない場合、hpelIfIdxに基づいて輝度補間フィルタ係数fL[p]を表4で指定する。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos,SubPicRightBoundaryPos,xIntL+i-3) (8-771)
yInti=Clip3(SubPicTopBoundaryPos,SubPicBotBoundaryPos,yIntL+i-3) (8-772)
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag?
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL+i-3): (8-773)
xIntL+i-3)
yInti=Clip3(0,picH-1,yIntL+i-3) (8-774)
xInti=Clip3(xSbIntL-3,xSbIntL+sbWidth+4,xInti) (8-775)
yInti=Clip3(ySbIntL-3,ySbIntL+sbHeight+4,yInti) (8-776)
- 両方のxFracLおよびyFracLが0に等しい場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=refPicLXL[xInt3][yInt3]<<shift3 (8-777)
- そうではなく、xFracLが0に等しくなく、yFracLが0に等しい場合は、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yInt3])>>shift1 (8-778)
- そうではなく、xFracLが0に等しく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*refPicLXL[xInt3][yInti])>>shift1 (8-779)
- そうではなく、xFracLが0に等しくなく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
- n=0..7のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yIntn])>>shift1 (8-780)
- 予測輝度サンプル値predSampleLXLは、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*temp[i])>>shift2 (8-781)
- フルサンプルユニット(xIntL,yIntL)における輝度位置、
- 輝度参照サンプル配列refPicLXL、
この変数shiftは、Max(2,14-BitDepthY)に等しく設定される。
変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
xInt=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag? (8-782)
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL):xIntL)
yInt=Clip3(0,picH-1,yIntL) (8-783)
predSampleLXL=refPicLXL[xInt][yInt]<<shift3 (8-784)
- フルサンプルユニット(xIntC,yIntC)におけるクロマ位置、
- 1/32の端数サンプル単位でのクロマ位置(xFracC,yFracC)、
- 参照ピクチャの左上のクロマサンプルに対する参照サンプルパディングのための境界ブロックの左上のサンプルを規定する、フルサンプルユニット(xSbIntC,ySbIntC)におけるクロマ位置、
- 現在のサブブロックの幅を規定する変数sbWidth、
- 現在のサブブロックの高さを規定する変数sbHeight、
- クロマ参照サンプル配列refPicLXC。
- 変数shift1をMin(4,BitDepthC-8に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthC)に等しく設定する。
- 変数picWCはpic_width_in_luma_samples/SubWidthCに等しく設定され、変数picHCはpic_height_in_luma_samples/SubHeightCに等しく設定される。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos/SubWidthC,SubPicRightBoundaryPos/SubWidthC,xIntL+i) (8-785)
yInti=Clip3(SubPicTopBoundaryPos/SubHeightC,SubPicBotBoundaryPos/SubHeightC,yIntL+i) (8-786)
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picWC-1,sps_ref_wraparound_enabled_flag?ClipH(xOffset,picWC,xIntC+i-1): (8-787)
xIntC+i-1)
yInti=Clip3(0,picHC-1,yIntC+i-1) (8-788)
xInti=Clip3(xSbIntC-1,xSbIntC+sbWidth+2,xInti) (8-789)
yInti=Clip3(ySbIntC-1,ySbIntC+sbHeight+2,yInti) (8-790)
- xFracCおよびyFracCの両方が0に等しい場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=refPicLXC[xInt1][yInt1]<<shift3 (8-791)
- そうではなく、xFracCが0に等しくなく、yFracCが0に等しい場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=(Σ3 i=0fC[xFracC][i]*refPicLXC[xInti][yInt1])>>shift1 (8-792)
- そうではなく、xFracCが0に等しく、yFracCが0に等しくない場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=(Σ3 i=0fC[yFracC][i]*refPicLXC[xInt1][yInti])>>shift1 (8-793)
- そうではなく、xFracCが0に等しくなく、yFracCが0に等しくない場合、predSampleLXCの値は、以下のように導出する。
- n=0..3のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ3 i=0fC[xFracC][i]*refPicLXC[xInti][yIntn])>>shift1 (8-794)
- 予測クロマサンプル値predSampleLXCは、以下のように導出する。
predSampleLXC=(fC[yFracC][0]*temp[0]+fC[yFracC][1]*temp[1]+fC[yFracC][2]*temp[2]+ (8-795)
fC[yFracC][3]*temp[3])>>shift2
注2-ビットストリームがサブビットストリーム抽出処理の結果であり、サブビットストリーム抽出処理への入力ビットストリームのサブピクチャのサブセットのみが含まれている場合、SPSのRBSPでsubpics_present_flagの値を1に設定する必要がある場合がある。
NumSubPicGridCols=(pic_width_max_in_luma_samples+subpic_grid_col_width_minus1*4+3)/
(subpic_grid_col_width_minus1*4+4) (7-5)
NumSubPicGridRows=(pic_height_max_in_luma_samples+subpic_grid_row_height_minus1*4+3)/
(subpic_grid_row_height_minus1*4+4) (7-6)
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
if(i==NumSubPicGridRows-1)
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]+1 if(j==NumSubPicGridRows-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
}
}
1) ATMVPを適用するかどうかが、スライスレベルとCUレベルで不整合である。
2) スライスヘッダにおいて、TMVPが無効にされてもATMVPは有効としてもよい。一方、TMVPフラグの前にATMVPフラグを信号通知する。
3) マスキングは、MVが圧縮されているかどうかを考慮せずに、常に行われる。
4) 有効な対応する領域が大き過ぎてもよい。
5) TMVの導出は非常に複雑である。
6) ATMVPが利用できなくてもよい、より優れたデフォルトMVが望ましい。
7) ATMVPにおけるMVスケーリング方法は、効率的でなくてもよい。
8) ATMVPはCPR症例を考慮すべきである。
9) アフィン予測が無効にされても、デフォルトの0アフィンマージ候補をリストに含めてもよい。
10) 現在のピクチャは長期参照ピクチャとして扱われ、他のピクチャは短期参照ピクチャとして扱われる。ATMVP候補およびTMVP候補の両方について、コロケーションされたピクチャにおける時間的ブロックからの動き情報は、固定された参照インデックスを有する参照ピクチャにスケーリングされる(即ち、現在の設計における各参照ピクチャリストに対して0)。しかしながら、CPRモードが有効にされると、現在のピクチャはまた参照ピクチャとして扱われ、現在のピクチャは、0に等しいインデックスを有する参照ピクチャリスト0(RefPicList0)に追加してもよい。
a. TMVPにおいて、時間的ブロックがCPRモードで符号化され、RefPicList0の参照ピクチャが短い参照ピクチャである場合、TMVP候補は利用不可能に設定される。
b. インデックスが0のRefPicList0の参照ピクチャが現在のピクチャであり、現在のピクチャがイントラランダムアクセスポイント(IRAP)ピクチャである場合、ATMVP候補は利用不可能に設定される。
c. 1つのブロック内のATMVPサブブロックの場合、1つの時間的ブロックからサブブロックの動き情報を導出する時に、この時間的ブロックがCPRモードで符号化されている場合、このサブブロックの動き情報を埋めるために、デフォルトのATMVP候補(開始TMVと現在のブロックの中心位置とによって特定される1つの時間的ブロックから導出する)が使用される。
11) MVは整数精度に右シフトされるが、VVCにおける丸め規則に従わない。
12) ATMVPにおいて、異なるピクチャにおける対応するブロックの位置を規定するために用いられるMV(MVx,MVy)(例えば、TMVが0)は、コロケーションされたピクチャを指すため、そのまま用いられる。これは、すべてのピクチャが同じ解像度であるという仮定に基づく。しかしながら、RPRが有効にされる場合、異なるピクチャ解像度を利用してもよい。サブブロック動き情報を導出するために、コロケーションされたピクチャにおける対応するブロックを識別することに関しても、同様の問題が存在する。
13) 1つのブロックの幅または高さが32より大きく、CIIP符号化ブロックに対して最大変換ブロックのサイズが32である場合、CUサイズでイントラ予測信号を生成し、一方、インター予測信号は、TUサイズで生成する(現在のブロックを複数の32×32ブロックに再帰的に分割する)。CUを使用してイントラ予測信号を導出することは、より低い効率をもたらす。
a) 一例において、ATMVPは、サブブロックマージ候補リストにおける候補の最大数の判定または構文解析において、ATMVP使用フラグがオフ(0に等しい)であるか、またはTMVPが無効にされている場合、適用不可能であると推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが無効にされている場合、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが無効にされており、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが有効とされ、アフィン使用フラグがオフ(0に等しい)である場合、MLが1に等しく設定される。
b) 一例において、ATMVPは、ATMVP使用フラグがオフ(0に等しい)であるか、または現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャ自体である場合、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものである場合、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものであり、アフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものでなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
c) 一例において、ATMVP使用フラグがオフ(0に等しい)であるか、または参照リスト0における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものである場合、ATMVPは、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有するコロケーションされた参照ピクチャは、現在のピクチャそのものであり、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものであり、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有する参照ピクチャは、現在のピクチャそのものではなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
d) 一例において、ATMVP使用フラグがオフ(0に等しい)であるか、または参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものである場合、ATMVPは、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有するコロケーションされた参照ピクチャは、現在のピクチャそのものであり、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものであり、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものでなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
a) 一例において、ATMVPフラグは、スライスヘッダ/タイルヘッダ/PPSにおけるTMVPフラグの後に信号通知される。
b) 一例において、ATMVPまたは/およびTMVPフラグは、スライスヘッダ/タイルヘッダ/PPSにおいて信号通知されなくてもよく、SPSヘッダにおいてのみ信号通知される。
a) 一例において、MVを圧縮する必要がない場合(例えば、SPSで信号通知されるsps_disable_motioncompressionが1の場合)、(xN,yN)はマスクされない。それ以外の場合、(MVは圧縮する必要がある)(xN,yN)はxN=xN&MASK,yN=yN&MASKとしてマスクされる。ここで、MASKは~(2M-1)に等しく、Mは3または4などのような整数である。
b) 各2K×2KブロックにおけるMV記憶結果のMV圧縮方法は、同じ動き情報を共有し、ATMVP処理におけるマスクを~(2M-1)と定義する。KはMに等しくなくてもよく、例えば、M=K+1であるとされている。
c) ATMVPおよびTMVPに用いられるMASKは、同じであってもよいし、異なっていてもよい。
a) 一例において、MV圧縮方法は非圧縮、8×8圧縮(Bullet3.aにおけるM=3),または16×16圧縮(Bullet3.aにおけるM=4)の間で選択することができる。
b) 一例において、MV圧縮方法は、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダにおいて信号通知されてもよい。
c) 一例において、MV圧縮方法は、異なる標準プロファイル/レベル/層において異なるように設定してもよい。
a) 例えば、有効な対応する領域は、現在のブロックの幅および高さに依存してもよい。
b) 例えば、有効な対応領域はMV圧縮方法に依存してもよい。
i. 一例において、MV圧縮方法が使用されない場合、有効な対応領域はより小さく、MV圧縮方法が使用される場合、有効な対応領域はより大きい。
a) 一例において、W<=MおよびH<=Nであり、現在のブロックが1つの基本領域の内側にあることを意味する場合、ATMVPにおける有効な対応する領域は、コロケーションされた基本領域およびコロケーションされたピクチャにおける拡張である。図27は、一例を示す。
i. 例えば、配置された基本領域の左上の位置が(xBR,yBR)であるとすると、(xN,yN)における対応する位置は、有効領域xBR<=xN<xBR+M+4;yBR<=yN<yBR+Nにクリッピングされる。
b) 一例において、W>Mであり、H>Nである場合、現在のブロックが1つの基本領域内にないことを意味し、現在のブロックを複数の部分に分ける。各部分は、ATMVP内に個々の有効な対応する領域を有する。現在のブロックにおける位置Aについて、コロケーションされたブロックにおけるその対応する位置Bは、位置Aが位置する部分の有効な対応する領域内にあるべきである。
i. 例えば、現在のブロックを非重複基本領域に分ける。1つの基本領域に対応する有効領域は、そのコロケーション基本領域およびコロケーションされたピクチャにおける拡張である。図28は、一例を示す。
1. 例えば、現在のブロックの位置Aが1つの基本領域Rにあるとする。コロケーションされたピクチャにおけるRのコロケーション基本領域をCRとする。コロケーションされたブロックにおけるAの対応する位置は、位置Bであり、CRの左上の位置は(xCR,yCR)であり、次に、位置Bの(xN,yN)が、有効領域xCR<=xN<xCR+M+4;yCR<=yN<yCR+Nにクリッピングされる。
a) 一例において、TMVは、常に、(0,0)等のデフォルトMVに等しく設定される。
i. 一例において、デフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知される。
b) 一例において、TMVは、以下の方法で、HMVPテーブルに記憶される1つのMVに設定される。
i. HMVPリストが空である場合、TMVは、デフォルトMV、例えば(0,0)に等しく設定される。
ii. そうでない(HMVPリストが空でない)場合、
1. TMVは、HMVPテーブルに記憶された第1の要素と等しく設定してもよい。
2. あるいは、TMVは、HMVPテーブルに記憶された最後の要素に等しく設定してもよい。
3. あるいは、TMVは、HMVPテーブルに記憶された特定のMVに等しく設定してもよい。
a. 一例において、特定のMVは、参照リスト0を参照する。
b. 一例において、特定のMVは、参照リスト1を参照する。
c. 一例において、特定のMVは、参照リスト0における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
d. 一例において、特定のMVは、参照リスト1における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
e. 一例において、特定のMVは、コロケーションされたピクチャを参照する。
4. あるいは、HMVPテーブルに記憶された特定のMV(例えば、bullet3.に記載)が見つからない場合、TMVをデフォルトMVに等しく設定してもよい。
a. 一例において、HMVPテーブルに記憶された第1の要素のみを検索し、特定のMVを見出す。
b. 一例において、HMVPテーブルに記憶された最後の要素のみを検索し、特定のMVを見出す。
c. 一例において、HMVPテーブルに記憶された一部または全部の要素を検索し、特定のMVを見出す。
5. あるいは、さらに、HMVPから取得したTMVは、現在のピクチャそのものを参照することができない。
6. あるいは、さらに、HMVPテーブルから取得したTMVは、参照していない場合、コロケーションされたピクチャに合わせてスケーリングされてもよい。
c) 一例において、TMVは、1つの特定の近傍のブロックの1つのMVに設定される。他の近傍のブロックは含まれない。
i. 特定の近傍のブロックは、図22のブロックA0、A1、B0、B1、B2であってもよい。
ii. TMVは、以下の場合、デフォルトMVに等しく設定してもよい。
1. 特定の近傍のブロックが存在しない。
2. 特定の近傍のブロックは、インター符号化されない。
iii. TMVは、特定の近傍のブロックに記憶された特定のMVに等しく設定してもよい。
1. 一例において、特定のMVは、参照リスト0を参照する。
2. 一例において、特定のMVは、参照リスト1を参照する。
3. 一例において、特定のMVは、参照リスト0における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
4. 一例において、特定のMVは、参照リスト1における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
5. 一例において、特定のMVは、コロケーションされたピクチャを参照する。
6. 特定の近傍のブロックに記憶された特定のMVが見つからない場合、TMVをデフォルトMVに等しく設定してもよい。
iv. 特定の近傍のブロックから得られたTMVは、それが参照しない場合、コロケーションされたピクチャに合わせてスケーリングされてもよい。
v. 特定の近傍のブロックから得られたTMVは、現在のピクチャそのものを参照することができない。
a) 一例において、MVdefault0およびMVdefault1は、(0,0)に等しく設定される。
b) 一例において、MVdefaultX(X=0または1)は、HMVPから導出する。
i. HMVPリストが空である場合、MVdefaultXは、(0,0)等の予め定義されたデフォルトMVに等しく設定される。
1. 予め定義されたデフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知されてもよい。
ii. そうでない(HMVPリストが空でない)場合、
1. MVdefaultXは、HMVPテーブルに記憶された第1の要素と等しく設定してもよい。
2. MVdefaultXは、HMVPテーブルに記憶された最後の要素に等しく設定してもよい。
3. MVdefaultXは、HMVPテーブルに記憶された特定のMVにのみ等しく設定してもよい。
a. 一例において、特定のMVは、参照リストXを参照する。
b. 一例において、特定のMVは、参照リストXにおける特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
4. HMVPテーブルに記憶された特定のMVが見つからない場合、MVdefaultXを予め定義されたデフォルトMVに等しく設定してもよい。
a. 一例において、HMVPテーブルに記憶された第1の要素のみを検索する。
b. 一例において、HMVPテーブルに記憶された最後の要素のみを検索する。
c. 一例において、HMVPテーブルに記憶された要素の一部または全部を検索する。
5. HMVPテーブルから取得したMVdefaultXは、参照していない場合、コロケーションされたピクチャ(collocated picture)に合わせてスケーリングされてもよい。
6. HMVPから取得したMVdefaultXは、現在のピクチャそのものを参照することができない。
c) 一例において、MVdefaultX(X=0または1)は、近傍のブロックから導出する。
i. 近傍のブロックは、図22のブロックA0、A1、B0、B1、B2を含んでもよい。
1. 例えば、これらのブロックの1つのみを使用してMVdefaultXを導出する。
2. あるいは、これらのブロックの一部または全部を使用してMVdefaultXを導出する。
a. これらのブロックは、有効なMVdefaultXが見つかるまで、順にチェックされる。
3. 選択された1つ以上の近傍のブロックから有効なMVdefaultXが見つからない場合、それは、(0,0)等の予め定義されたデフォルトMVに等しく設定される。
a. 予め定義されたデフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知されてもよい。
ii. 次の場合、特定の近傍のブロックから有効なMVdefaultXが見つからない。
1. 特定の近傍のブロックが存在しない。
2. 特定の近傍のブロックは、インター符号化されない。
iii. MVdefaultXは、特定の近傍のブロックに記憶された特定のMVにのみ等しく設定してもよい。
1. 一例において、特定のMVは、参照リストXを参照する。
2. 一例において、特定のMVは、参照リストXにおける特定の参照ピクチャを参照し、例えば、インデックス0を有する参照ピクチャが挙げられる。
iv. 特定の近傍のブロックから取得したMVdefaultXを、特定の参照ピクチャ、例えば参照リストXにおけるインデックス0を有する参照ピクチャにスケーリングしてもよい。
v. 特定の近傍のブロックから取得したMVdefaultXは、現在のピクチャそのものを参照することができない。
a) 一例において、デフォルト動き候補は、現在のブロックの中心位置に関連付けられた動き候補として定義されてもよい(例えば、2.3.5.1.2に開示されるように、ATMVPにおいて用いられるMVdefault0および/またはMVdefault1)。
b) 一例において、デフォルト動き候補は、利用可能である場合、両方の参照ピクチャリストに対して、(0,0)動きベクトルおよび0に等しい参照ピクチャインデックスとして定義されてもよい。
a) 一例において、現在のブロックの中心位置を用いる代わりに、現在のブロックにおけるサブブロック(例えば、中心サブブロック)の中心位置を利用してもよい。
b) 既存のおよび提案された実装形態の例を図29Aおよび29Bにそれぞれ示す。
a) 現在のブロックの中心点を(x0,y0)とすると、コロケーションされたピクチャにおける(x0,y0)の対応する位置をM=(x0+MV’x,y0+MV’y)とする。Mを含むブロックZを見つける。Zがイントラ符号化されている場合、項目6に提案される何らかの方法によってMVdefault0、MVdefault1を導出する。
b) あるいは、ブロックZは、動き情報を取得するために配置されず、項目8に提案されるいくつかの方法は、MVdefault0およびMVdefault1を取得するために直接適用される。
c) あるいは、ATMVP処理で使用されるデフォルトの動き候補は、常に利用可能である。現在の設計に基づいて、それが利用不可能に設定されている(例えば、時間的ブロックがイントラ符号化されている)場合、デフォルト動き候補の代わりに他の動きベクトルを利用してもよい。
i. 一例において、参照により本明細書に組み込まれる国際出願PCT/CN2018/124639号の解決案が適用されてもよい。
d) あるいは、さらに、ATMVP候補が常に利用可能であるかどうかは、他の高レベル構文情報に依存する。
i. 一例において、スライス/タイル/ピクチャヘッダまたは他の映像ユニットにおけるATMVPイネーブルフラグが真であると推測される場合にのみ、ATMVP候補は常に利用可能であると設定してもよい。
ii. 一例において、上記方法は、スライスヘッダ/ピクチャヘッダまたは他の映像ユニットにおけるATMVPイネーブルフラグが真に設定され、且つ現在のピクチャがIRAPピクチャでなく、且つ現在のピクチャが0に等しい参照インデックスでRefPicList0に挿入されていない場合にのみ適用可能であってもよい。
e) ATMVP候補には、固定インデックスまたは固定グループのインデックスが割り当てられる。ATMVP候補が常に利用可能でない場合、固定インデックス/群インデックスは、他の種類の動き候補(例えば、アフィン候補)に推論してもよい。
a) 例えば、アフィン使用フラグがオフの場合(sps_affine_enabled_flagが0に等しい場合)、動きゼロアフィンマージ候補はサブブロックマージ候補リストに入れられない。
b) あるいは、さらに、代わりに、非アフィン候補であるデフォルトの動きベクトル候補を加える。
a) サブブロックマージ候補リストが満たされていない場合、動きゼロ非アフィンパディング候補を追加してもよい。
b) このようなパディング候補を選択する場合は、現在のブロックのaffine_flagを0に設定する必要がある。
c) あるいは、サブブロックマージ候補リストが満たされず、かつ、アフィン使用フラグがオフである場合、ゼロ動き非アフィンパディング候補をサブブロックマージ候補リストに含める。
a) MV0、コロケーションされたピクチャが参照リスト1にある場合。
b) MV1、コロケーションされたピクチャが参照リスト0にある場合。
a) あるいは、上記方法は、現在のピクチャがイントラランダムアクセスポイント(IRAP)ピクチャである場合にのみ適用可能である。
b) 一例において、PicRefListXにおける現在のピクチャをインデックスがM(例えば、0)に設定された参照ピクチャとして扱う場合、および/または、PicRefListYにおけるインデックスがN(例えば、0)に設定された参照ピクチャとして扱う場合、ATMVPおよび/またはTMVP許可/禁止フラグが偽であると推測してもよい。変数MおよびNは、TMVPまたはATMVP処理で使用されるオブジェクト参照ピクチャインデックスを表す。
c) ATMVP処理の場合、確認ビットストリームは、現在のブロックの動き情報が導出されるコロケーションされたピクチャが現在のピクチャではないという規則に従うよう、制限されている。
d) あるいは、上記の条件が真である場合、ATMVPまたはTMVP処理は呼び出されない。
a) 一例において、すべてのサブブロックの動き情報は、現在のピクチャを指す。
b) 一例において、時間的ブロックからサブブロックの動き情報を取得する場合、時間的ブロックは、時間的ブロックの現在のピクチャを指す少なくとも1つの参照ピクチャで符号化される。
c) 一例において、時間的ブロックからサブブロックの動き情報を取得する場合、スケーリング演算は適用されない。
a) 一例において、第1のL個のビンに対して、それらはコンテキスト符号化される。残りのビンについては、バイパス符号化される。一例において、Lは1に設定される。
b) あるいは、すべてのビンに対して、それらはコンテキスト符号化される。
a) あるいは、ATMVPにおいて異なるピクチャ内の対応するブロックを突き止めるために使用されるMV(例えば、TMVが0)を、MV平均化処理と同じ丸め方法で、整数精度に右シフトしてもよい。
b) あるいは、ATMVPにおいて異なるピクチャ内の対応するブロックを突き止めるために使用されるMV(例えば、TMVが0)は、適応MV解像度(AMVR)処理と同じ丸め方法で、整数精度に右シフトしてもよい。
a) 例えば、MVx’=(MVx+((1<<N)>>1)-(MVx>=0?1:0))>>N;Nは、MVの解像度、例えばN=4を表す整数である。
i. 例えば、MVx’=(MVx+(MVx>=0?7:8))>>4.
b) 例えば、MVy’=(MVy+((1<<N)>>1)-(MVy>=0?1:0))>>N;Nは、MVの解像度、例えばN=4を表す整数である。
i. 例えば、MVy’=(MVy+(MVy>=0?7:8))>>4.
a) 一例において、MV(MVx,MVy)は、ATMVP処理中に、現在のブロックにおけるサブブロックの動き情報を導出するために、例えば、サブブロックの中心位置およびシフトされたMVを使用して、対応するブロックの位置を規定するために用いられる。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが、現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、MVをスケーリングしてもよい。
b) コロケーションされたピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW1およびH1として示す。現在のピクチャ(のコンフォーマンスウィンドウ)の幅および高さをそれぞれW2およびH2とする。そして、MV(MVx,MVy)は、MVx’=MVx*W1/W2およびMVy’=MVy*H1/H2としてスケーリングされてもよい。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、中心点をさらに修正してもよい。
b) コロケーションされたピクチャにおけるコンフォーマンスウィンドウの左上の位置をX1およびY1とする。現在のピクチャに定義されたコンフォーマンスウィンドウの左上の位置をX2およびY2とする。コロケーションされたピクチャ(のコンフォーマンスウィンドウ)の幅および高さは、それぞれW1およびH1として示される。現在のピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW2およびH2とする。その場合、(x0,y0)は、x0’=(x0-X2)*W1/W2+X1、y0’=(y0-Y2)*H1/H2+Y1として修正してもよい。
i. あるいは、x0’=x0*W1/W2、y0’=y0*H1/H2である。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、対応する位置をさらに修正してもよい。
b) コロケーションされたピクチャにおけるコンフォーマンスウィンドウの左上の位置をX1およびY1とする。現在のピクチャに定義されたコンフォーマンスウィンドウの左上の位置をX2およびY2とする。コロケーションされたピクチャ(のコンフォーマンスウィンドウ)の幅および高さは、それぞれW1およびH1として示される。現在のピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW2およびH2とする。その場合、M(x,y)は、x’=(x-X2)*W1/W2+X1およびy’=(y-Y2)*H1/H2+Y1として修正してもよい。
i. あるいは、x’=x*W1/W2、y’=y*H1/H2である。
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j-1]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
if(i==NumSubPicGridRows-1)
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]+1 if(j==NumSubPicGridRows-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
}
}
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
if(i==NumSubPicGridRows-1)
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i][j]]+1 if(j==NumSubPicGridRows-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
if(i==NumSubPicGridRows-1)
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]+1 if(j==NumSubPicGridColumns-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
a) 既存の実装形態例に基づく実施形態を以下に強調する。
subpic_grid_col_width_minus1 plus1は、サブピクチャ識別子グリッドの各要素の幅をCtbSizeYの単位で規定する。構文要素の長さはCeil(Log2(pic_width_max_in_luma_samples/CtbSizeY))ビットである。
変数NumSubPicGridColsは、以下のように導出する。
NumSubPicGridCols=(pic_width_max_in_luma_samples+subpic_grid_col_width_minus1*CtbSizeY+CtbSizeY-1)/
(subpic_grid_col_width_minus1*CtbSizeY+CtbSizeY) (7-5)
subpic_grid_row_height_minus1 plus1は、サブピクチャ識別子グリッドの各要素の高さを4サンプル単位で指定する。構文要素の長さはCeil(Log2(pic_height_max_in_luma_samples/CtbSizeY))ビットである。
変数NumSubPicGridRowsは、以下のように導出する。
NumSubPicGridRows=(pic_height_max_in_luma_samples+subpic_grid_row_height_minus1*CtbSizeY+CtbSizeY-1)/
(subpic_grid_row_height_minus1*CtbSizeY+CtbSizeY) (7-6)
a) 既存の実装に基づく実施形態例を以下に強調する。
次の条件が両方とも満たされる場合、subpic_grid_idx[i][j]はidxと等しくなければならない。
i>=SubPicTop[idx]and i<SubPicTop[idx]+SubPicHeight[idx].
j>=SubPicLeft[idx]and j<SubPicLeft[idx]+SubPicWidth[idx].
次の条件が両方とも満たされない場合、subpic_grid_idx[i][j]はidxとは異なっていなければならない。
i>=SubPicTop[idx]and i<SubPicTop[idx]+SubPicHeight[idx].
j>=SubPicLeft[idx]and j<SubPicLeft[idx]+SubPicWidth[idx].
a) 一例において、RPRが使用されないように通知される場合(例えば、RPR_flagが0の場合)、PPSで通知されるすべての幅/高さは、SPSで信号通知される最大幅/最大高さと同じである必要がある。
b) 一例において、RPRが使用されないように通知された場合(例えば、RPR_flagが0の場合)、PPSのすべての幅/高さは通知されず、SPSで信号通知された最大幅/最大高さであると推測される。
c) 一例において、RPRが使用されないように信号通知される場合(例えば、RPR_flagが0である場合)、コンフォーマンスウィンドウ情報は、復号化処理で使用されない。そうでない場合(RPRを使用するように信号通知される)、コンフォーマンスウィンドウ情報を復号化処理において使用してもよい。
a. 一例において、条件Aが満たされ、条件Aが現在のピクチャおよび/または参照ピクチャの寸法に依存する場合、よりタップが少ない補間フィルタを適用してもよい。
i. 一例において、条件Aは、参照ピクチャの解像度が現在のピクチャと異なることである。
ii. 一例において、条件Aは、参照ピクチャの幅および/または高さが現在のピクチャのそれよりも大きいことである。
iii. 一例において、条件Aは、W1>a*W2および/またはH1>b*H2であり、ここで、(W1、H1)は参照ピクチャの幅および高さを表し、(W2、H2)は現在のピクチャの幅および高さを表し、aおよびbは2つの因子、例えば、a=b=1.5である。
iv. 一例において、条件Aは、双予測が使用されるかどうかに依存してもよい。
1) 現在のブロックに対して双予測を用いる場合にのみ、条件Aを満たす。
v. 一例において、条件Aは、MおよびNに依存してもよく、ここで、MおよびNは、現在のブロックの幅および高さを表す。
1) 例えば、条件Aは、M*N<=Tの場合にのみ満たされ、ここで、Tは、64などの整数である。
2) 例えば、条件Aは、M<=T1またはN<=T2の場合にのみ満たされ、ここで、T1およびT2は整数、例えばT1=T2=4である。
3) 例えば、条件Aは、M<=T1およびN<=T2の場合にのみ満たされ、ここで、T1およびT2は整数、例えば、T1=T2=4である。
4) 例えば、条件Aは、M*N=T、またはM=T1またはN=T2の場合にのみ満たされ、ここで、T、T1、T2は整数、例えばT=64、T1=T2=4である。
5) 一例において、上記sub-bulletにおける小さい方の条件は、大きい方に置き換えられてもよい。
vi. 一例において、1タップフィルタが適用される。すなわち、フィルタリングされていない整数画素を補間結果として出力する。
vii. 一例において、参照ピクチャの解像度が現在のピクチャと異なる場合、バイリニアフィルタが適用される。
viii. 一例において、参照ピクチャの解像度が現在のピクチャと異なる場合、または参照ピクチャの幅および/または高さが現在のピクチャの解像度よりも大きい場合、4タップフィルタまたは6タップフィルタが適用される。
1) 6タップフィルタは、アフィン動き補償に使用されてもよい。
2) 4タップフィルタは、クロマサンプルの補間に使用されてもよい。
b. bullet31に開示された方法を適用するかどうか、および/またはどのように適用するかは、色成分に依存してもよい。
i. 例えば、これらの方法は、輝度成分にのみ適用される。
c. bullet31に開示された方法を適用するかどうか、および/またはどのように適用するかは、補間フィルタリング方向に依存してもよい。
i. 例えば、この方法は水平フィルタリングにのみ適用される。
ii. 例えば、この方法は垂直フィルタリングにのみ適用される。
a) 一例において、CUの幅または高さのいずれかが最大変換ブロックサイズよりも大きい場合、CUは複数のTUに分割してもよく、例えば、TUの外側の参照サンプルを使用して、TUごとにイントラ/インター予測が生成されてもよい。
b) 一例において、最大変換サイズKが64よりも小さい(例えば、K=32)場合、CIIPにおいて使用されるイントラ予測は、通常のイントラコードブロックにおけるように再帰的な方法で実行される。
c) 例えば、MおよびNが整数であるKM×KN CIIP符号化ブロックを、K×K個のブロックのMN個に分割することで、各K×K個のブロックごとにイントラ予測を行う。後に符号化/復号されたK×Kブロックのイントラ予測は、前述の符号化/復号化されたK×Kブロックの再構成サンプルに依存してもよい。
5.1 実施形態#1:SPS/PPS/スライスヘッダ/タイルグループヘッダにおける構文設計の例
構文の変更は、既存の実装形態に基づいている。
…
- ColPic内部のコロケーションされたサブブロックの位置(xColSb,yColSb)は、以下のように導出する。
1. 以下が適用される。
yColSb=Clip3(yCtb,Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1), ySb+((tempMv[1]+8-(tempMv[1]>=0))>>4))
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColSb=Clip3(xCtb,Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xSb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xColSb=Clip3(xCtb,Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xSb+(tempMv[0]+8+(tempMV[0]>=0))>>4))
…
…
ColPic内部のコロケーションされたブロックの位置(xColCb,yColCb)は、以下のように導出する。
- 以下が適用される。
yColCb=Clip3(yCtb,Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1), yColCtrCb+((tempMv[1]+8-(tempMv[1]>=0))>>4))
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
- それ以外の場合(subpic_treatment_as_pic_flag[SubPicIdx]が0に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
構文の変更は、既存の実装形態に基づいている。
…
1. 以下が適用される。
yColSb=Clip3(yCtb,Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1), ySb+((tempMv[1]+8-(tempMv[1]>=0))>>4))
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColSb=Clip3(xCtb,Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xSb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xColSb=Clip3(xCtb,Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xSb+(tempMv[0]+8+(tempMV[0]>=0))>>4))
…
…
- 以下が適用される。
yColCb=Clip3(yCtb,Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1), yColCtrCb+((tempMv[1]+8-(tempMv[1]>=0))>>4))
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
- それ以外の場合(subpic_treatment_as_pic_flag[SubPicIdx]が0に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8+(tempMV[0]>=0))>>4))
- 現在のピクチャの左上の輝度サンプルに対する現在の輝度符号化ブロックの左上のサンプルの輝度位置(xCb、yCb)、
- 輝度サンプルにおける現在の符号化ブロックの幅を規定する変数cbWidth、
- 輝度サンプルにおける現在の符号化ブロックの高さを規定する変数cbHeight。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1であってXは0または1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1であってXは0または1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトルであってXが0または1である。
- 可用性フラグavailableFlagSbCol、
- 水平方向numSbXおよび垂直方向numSbYにおける輝度符号化サブブロックの数、
- 参照インデックスrefIdxL0SbColおよびrefIdxL1SbCol、
- 1/16端数サンプル精度mvL0SbCol[xSbIdx][ySbIdx]およびmvL1SbCol[xSbIdx][ySbIdx]における輝度動きベクトル、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1、
- 予測リスト利用フラグpredFlagL0SbCol[xSbIdx][ySbIdx]およびpredFlagL1SbCol[xSbIdx][ySbIdx]、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1。
- 以下の条件の1つ以上が真である場合、availableFlagSbColに0が設定される。
- slice_temporal_mvp_enabled_flagは0に等しい。
- sps_sbtmvp_enabled_flagは0に等しい。
- cbWidthが8未満である。
- cbHeightが8未満である。
- そうでない場合、以下の順序付けられたステップが適用される。
xCtb=(xCb>>CtuLog2Size)<<CtuLog2Size (8-542)
yCtb=(yCb>>CtuLog2Size)<<CtuLog2Size (8-543)
xCtr=xCb+(cbWidth/2) (8-544)
yCtr=yCb+(cbHeight/2) (8-545)
- ctrPredFlagL0およびctrPredFlagL1の両方が0に等しい場合、availableFlagSbColは0に等しく設定される。
- そうでない場合、availableFlagSbColは1に等しく設定される。
- 変数numSbX、numSbY,sbWidth、sbHeight、refIdxLXSbColは、以下のように導出する。
numSbX=cbWidth>>3 (8-546)
numSbY=cbHeight>>3 (8-547)
sbWidth=cbWidth/numSbX (8-548)
sbHeight=cbHeight/numSbY (8-549)
refIdxLXSbCol=0 (8-550)
- xSbIdx=0..numSbX-1およびySbIdx=0...numSbY-1の場合、動きベクトルmvLXSbCol[xSbIdx][ySbIdx]および予測リスト利用フラグpredFlags LXSbCol[xSbIdx]は、以下のように導出する。
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)は、以下のように導出する。
xSb=xCb+xSbIdx*sbWidth+sbWidth/2 (8-551)
ySb=yCb+ySbIdx*sbHeight+sbHeight/2 (8-552)
- ColPic内部のコロケーションされたサブブロックの位置(xColSb,yColSb)は、以下のように導出する。
1. 以下が適用される。
yColSb=Clip3(yCtb,
Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1), ySb+((tempMv[1]+8-(tempMv[1]>=0?1:0))>>4)) (8-553)
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColSb=Clip3(xCtb,
Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3), xSb+((tempMv[0]+8-(tempMv[0]>=0?1:0))>>4)) (8-554)
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xColSb=Clip3(xCtb,
Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xSb+((tempMv[0]+8-(tempMv[0]>=0?1:0))>>4)) (8-555)
- 変数currCbは、現在のピクチャ内の現在の符号化サブブロックを含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColSb>>3)<<3,(yColSb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0と等しく設定されたrefIdxL0、1と等しく設定されたsbFlagを入力として呼び出され、出力は、サブブロックmvL0SbCol[xSbIdx][ySbIdx]およびavailableFlagL0SbColの動きベクトルに割り当てられる。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL1、1と等しく設定されたsbFlagを入力として呼び出され、出力はサブブロックMVL1SbCol[xSbIdx][ySbIdx]およびavailableFlagL1SbColの動きベクトルに割り当てられる。
- availableFlagL0SbColおよびavailableFlagL1SbColが両方とも0に等しい場合、Xが0および1である場合、以下が適用される。
mvLXSbCol[xSbIdx][ySbIdx]=ctrMvLX (8-556)
predFlagLXSbCol[xSbIdx][ySbIdx]=ctrPredFlagLX (8-557)
- 現在の符号化ブロックを含む輝度符号化ツリーブロックの左上のサンプルの位置(xCtb,yCtb)、
- 右下中心サンプルを含む、同じ場所に位置する輝度符号化ブロックの左上サンプルの位置(xColCtrCb,yColCtrCb)。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトル。
- 動きベクトルctrMvL0およびctrMvL1、
- 予測リスト利用フラグctrPredFlagL0、ctrPredFlagL1、
- 時間的動きベクトルtempMv。
tempMv[0]=0 (8-558)
tempMv[1]=0 (8-559)
- 以下のすべての条件が真である場合、tempMvはmvL0A1に等しく設定される。
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい、
- そうでない場合、以下のすべての条件が真である場合、tempMvはmvL1A1:に等しく設定される。
- スライスタイプはBと同じである、
- predFlagL1A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A1])は0に等しい。
- 以下が適用される。
yColCb=Clip3(yCtb,
Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1),yColCtrCb+((tempMv[1]+8-(tempMv[1]>=0?1:0))>>4)) (8-560)
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,
Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8-(tempMv[0]>=0?1:0))>>4)) (8-561)
- それ以外の場合(subpic_treatment_as_pic_flag[SubPicIdx]が0に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,
Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+8-(tempMv[0]>=0?1:0))>>4)) (8-562)
- colPredMode[xColCb][yColCb]がMODE_INTERと等しい場合、以下が適用される。
- 変数currCbは、現在のピクチャ内で(xCtrCb,yCtrCb)を含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColCb>>3)<<3,(yColCb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb、colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL0、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL0およびctrPredFlagL0に割り当てることにより呼び出される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0に等しく設定されたrefIdxL1、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL1およびctrPredFlagL1に割り当てることにより呼び出される。
- そうでない場合、以下が適用される。
ctrPredFlagL0=0 (8-563)
ctrPredFlagL1=0 (8-564)
- 現在のピクチャの左上の輝度サンプルに対する現在の輝度符号化ブロックの左上のサンプルの輝度位置(xCb、yCb)、
- 輝度サンプルにおける現在の符号化ブロックの幅を規定する変数cbWidth、
- 輝度サンプルにおける現在の符号化ブロックの高さを規定する変数cbHeight。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1であってXは0または1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1であってXは0または1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトルであってXが0または1である。
- 可用性フラグavailableFlagSbCol,
- 水平方向numSbXおよび垂直方向numSbYにおける輝度符号化サブブロックの数、
- 参照インデックスrefIdxL0SbColおよびrefIdxL1SbCol、
- 1/16端数サンプル精度mvL0SbCol[xSbIdx][ySbIdx]およびmvL1SbCol[xSbIdx][ySbIdx]における輝度動きベクトル、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1、
- 予測リスト利用フラグpredFlagL0SbCol[xSbIdx][ySbIdx]およびpredFlagL1SbCol[xSbIdx][ySbIdx]、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1。
- 以下の条件の1つ以上が真である場合、availableFlagSbColに0が設定される。
- slice_temporal_mvp_enabled_flagは0に等しい。
- sps_sbtmvp_enabled_flagは0に等しい。
- cbWidthが8未満である。
- cbHeightが8未満である。
- そうでない場合、以下の順序付けられたステップが適用される。
xCtb=(xCb>>CtuLog2Size)<<CtuLog2Size (8-542)
yCtb=(yCb>>CtuLog2Size)<<CtuLog2Size (8-543)
xCtr=xCb+(cbWidth/2) (8-544)
yCtr=yCb+(cbHeight/2) (8-545)
- ctrPredFlagL0およびctrPredFlagL1の両方が0に等しい場合、availableFlagSbColは0に等しく設定される。
- そうでない場合、availableFlagSbColは1に等しく設定される。
- 変数numSbX、numSbY,sbWidth、sbHeight、refIdxLXSbColは、以下のように導出する。
numSbX=cbWidth>>3 (8-546)
numSbY=cbHeight>>3 (8-547)
sbWidth=cbWidth/numSbX (8-548)
sbHeight=cbHeight/numSbY (8-549)
refIdxLXSbCol=0 (8-550)
- xSbIdx=0..numSbX-1およびySbIdx=0...numSbY-1の場合、動きベクトルmvLXSbCol[xSbIdx][ySbIdx]および予測リスト利用フラグpredFlags LXSbCol[xSbIdx]は、以下のように導出する。
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)は、以下のように導出する。
xSb=xCb+xSbIdx*sbWidth+sbWidth/2 (8-551)
ySb=yCb+ySbIdx*sbHeight+sbHeight/2 (8-552)
- ColPic内部のコロケーションされたサブブロックの位置(xColSb,yColSb)は、以下のように導出する。
1. 以下が適用される。
yColSb=Clip3(yCtb,
Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1),
ySb+((tempMv[1]+(tempMv[1]>=0?7:8))>>4)) (8-553)
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColSb=Clip3(xCtb,
Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),
xSb+((tempMv[0]+(tempMv[0]>=0?7:8))>>4)) (8-554)
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xColSb=Clip3(xCtb,
Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xSb+((tempMv[0]+(tempMv[0]>=0?7:8))>>4)) (8-555)
- 変数currCbは、現在のピクチャ内の現在の符号化サブブロックを含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColSb>>3)<<3,(yColSb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0と等しく設定されたrefIdxL0、1と等しく設定されたsbFlagを入力として呼び出され、出力は、サブブロックmvL0SbCol[xSbIdx][ySbIdx]およびavailableFlagL0SbColの動きベクトルに割り当てられる。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL1、1と等しく設定されたsbFlagを入力として呼び出され、出力はサブブロックMVL1SbCol[xSbIdx][ySbIdx]およびavailableFlagL1SbColの動きベクトルに割り当てられる。
- availableFlagL0SbColおよびavailableFlagL1SbColが両方とも0に等しい場合、Xが0および1である場合、以下が適用される。
mvLXSbCol[xSbIdx][ySbIdx]=ctrMvLX (8-556)
predFlagLXSbCol[xSbIdx][ySbIdx]=ctrPredFlagLX (8-557)
- 現在の符号化ブロックを含む輝度符号化ツリーブロックの左上のサンプルの位置(xCtb,yCtb)、
- 右下中心サンプルを含む、同じ場所に位置する輝度符号化ブロックの左上サンプルの位置(xColCtrCb,yColCtrCb)。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトル。
- 動きベクトルctrMvL0およびctrMvL1、
- 予測リスト利用フラグctrPredFlagL0、ctrPredFlagL1、
- 時間的動きベクトルtempMv。
tempMv[0]=0 (8-558)
tempMv[1]=0 (8-559)
- 以下のすべての条件が真である場合、tempMvはmvL0A1に等しく設定される。
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい、
- そうでない場合、以下のすべての条件が真である場合、tempMvはmvL1A1:に等しく設定される。
- スライスタイプはBと同じである、
- predFlagL1A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A1])は0に等しい。
- 以下が適用される。
yColCb=Clip3(yCtb,
Min(CurPicHeightInSamplesY-1,yCtb+(1<<CtbLog2SizeY)-1),yColCtrCb+((tempMv[1]+(tempMv[1]>=0?7:8))>>4)) (8-560)
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,
Min(SubPicRightBoundaryPos,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+(tempMv[0]>=0?7:8))>>4)) (8-561)
- それ以外の場合(subpic_treatment_as_pic_flag[SubPicIdx]が0に等しい場合、以下が適用される。
xColCb=Clip3(xCtb,
Min(CurPicWidthInSamplesY-1,xCtb+(1<<CtbLog2SizeY)+3),xColCtrCb+((tempMv[0]+(tempMv[0]>=0?7:8))>>4)) (8-562)
- colPredMode[xColCb][yColCb]がMODE_INTERと等しい場合、以下が適用される。
- 変数currCbは、現在のピクチャ内で(xCtrCb,yCtrCb)を含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColCb>>3)<<3,(yColCb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb、colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL0、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL0およびctrPredFlagL0に割り当てることにより呼び出される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0に等しく設定されたrefIdxL1、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL1およびctrPredFlagL1に割り当てることにより呼び出される。
- そうでない場合、以下が適用される。
ctrPredFlagL0=0 (8-563)
ctrPredFlagL1=0 (8-564)
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 現在の符号化サブブロックの幅を規定する変数sbWidth、
- 現在の符号化サブブロックの高さを規定する変数sbHeight、
- 動きベクトルオフセットmvOffset、
- 微調整された動きベクトルrefMvLX、
- 選択された参照ピクチャサンプル配列refPicLX、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 双方向オプティカルフローフラグbdofFlag、
- 現在のブロックの色成分インデックスを規定する変数cIdx。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)配列predSamplesLX。
brdExtSize=(bdofFlag||(inter_affine_flag[xSb][ySb] && sps_affine_prof_enabled_flag))?2:0 (8-752)
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタおよびその固定小数点表現は、以下のように定義される。
hori_scale_fp=((fRefWidth<<14)+(PicOutputWidthL>>1))/PicOutputWidthL (8-753)
vert_scale_fp=((fRefHeight<<14)+(PicOutputHeightL>>1))/PicOutputHeightL (8-754)
- (xIntL,yIntL)をフルサンプルユニットで与えられた輝度位置とし、(xFracL,yFracL)を1/16サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の端数サンプル位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntL,ySbIntL)の左上座標を、(xSbIntL,ySbIntL) is set equal to(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しく設定する。
- 予測輝度サンプル配列predSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)について、対応する予測輝度サンプル値predSamplesLX[xL][yL]は下記のように導出する。
- (refxSbL,refySbL)および(refxL,refyL)を、1/16サンプル単位で与えられる動きベクトル(refMvLX[0],refMvLX[1])が指す輝度位置とする。変数refxSbL、refxL、refySbL、refyLは、以下のように導出する。
refxSbL=((xSb<<4)+refMvLX[0])*hori_scale_fp (8-755)
refxL=((Sign(refxSb)*((Abs(refxSb)+128)>>8)
+xL*((hori_scale_fp+8)>>4))+32)>>6 (8-756)
refySbL=((ySb<<4)+refMvLX[1])*vert_scale_fp (8-757)
refyL=((Sign(refySb)*((Abs(refySb)+128)>>8)+yL*
((vert_scale_fp+8)>>4))+32)>>6 (8-758)
- 変数xIntL、yIntL、xFracL、およびyFracLは、以下のように導出する。
xIntL=refxL>>4 (8-759)
yIntL=refyL>>4 (8-760)
xFracL=refxL&15 (8-761)
yFracL=refyL&15 (8-762)
- 以下のすべての条件を満たす場合、6TapFlagを使用して、1に設定される。
- cbWidth[0][xSb][ySb]<=4||cbHeight[0][xSb][ySb]<=4||cbWidth[0][xSb][ySb]*cbHeight[0][xSb][ySb]<=64.
- PredFlagL0[xSb][ySb]==1 && PredFlagL1[xSb][ySb]==1.
- bdofFlagがTRUEに等しいか(sps_affine_prof_enabled_flagがTRUEに等しく、inter_affine_flag[xSb][ySb]がTRUEに等しい)、次の条件の1つ以上が真である場合、予測輝度サンプル値predSamplesLX[xL][yL]は、8.5.6.3.3で規定されているように、入力として(xIntL+(xFracL>>3)-1),yIntL+(yFracL>>3)-1)およびrefPicLXを使用して輝度整数サンプル取り出し処理を呼び出すことによって導出する。
1. xLは0に等しい。
2. xLは、sbWidth+1に等しい。
3. yLは0に等しい。
4. yLは、sbHeight+1に等しい。
- そうでない場合、8.5.6.3.2で規定されるように、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0)),(xFracL,yFracL),(xSbIntL,ySbIntL),refPicLX,hpelIfIdx,sbWidth,sbHeight および(xSb,ySb)6TapFlagの使用を入力として、輝度サンプル8タップ補間フィルタリング処理を呼び出すことによって、予測輝度サンプル値predSamplesLX[xL][yL]を導出する。
- そうでない場合(cIdxが0に等しくない)、以下が適用される。
- (xIntC,yIntC)をフルサンプルユニットで与えられたクロマ位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の一般的な端数サンプルの位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntC,ySbIntC)の左上座標は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しく設定される。
- 予測クロマサンプル配列predSamplesLX内の各クロマサンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)について、対応する予測クロマサンプル値predSamplesLX[xC][yC]は、以下のように導出する。
- (refxSbC,refySbC)および(refxC,refyC)を、1/32サンプル単位で与えられる動きベクトル(mvLX[0],mvLX[1])が指すクロマ位置とする。変数refxSbC、refySbC、refxC、refyCは、以下のように導出する。
refxSbC=((xSb/SubWidthC<<5)+mvLX[0])*hori_scale_fp (8-763)
refxC=((Sign(refxSbC)*((Abs(refxSbC)+256)>>9)
+xC*((hori_scale_fp+8)>>4))+16)>>5 (8-764)
refySbC=((ySb/SubHeightC<<5)+mvLX[1])*vert_scale_fp (8-765)
refyC=((Sign(refySbC)*((Abs(refySbC)+256)>>9)
+yC*((vert_scale_fp+8)>>4))+16)>>5 (8-766)
- 変数xIntC、yIntC、xFracC、yFracCは、以下のように導出する。
xIntC=refxC>>5 (8-767)
yIntC=refyC>>5 (8-768)
xFracC=refyC&31 (8-769)
yFracC=refyC&31 (8-770)
- 予測サンプル値predSamplesLX[xC][yC]は、(xIntC,yIntC),(xFracC,yFracC),(xSbIntC,ySbIntC),sbWidth,sbHeight、およびrefPicLXを入力として、8.5.6.3.4で指定した処理を呼び出すことによって導出される。
- フルサンプルユニット(xIntL,yIntL)における輝度位置、
- 端数サンプル単位での輝度位置(xFracL,yFracL)、
- 参照ピクチャの左上の輝度サンプルに対する参照サンプルのパディングのための境界ブロックの左上のサンプルを規定する、フルサンプルユニット(xSbIntL,ySbIntL)における輝度位置、
- 輝度参照サンプル配列refPicLXL、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 現在のサブブロックの幅を規定する変数sbWidth、
- 現在のサブブロックの高さを規定する変数sbHeight、
- 現在のピクチャの左上の輝度サンプルに対する現在のサブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 6タップ補間フィルタを使用したかどうかを示すフラグ6TapFlagの使用。
- 変数shift1をMin(4,BitDepthY_8)に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthY)に等しく設定する。
- 変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
- 以下の条件のうち少なくとも1つを満たす場合、輝度補間フィルタ係数fL[p]を表12に示す。
- MotionModelIdc[xSb][ySb]は0より大きく、sbWidthとsbHeightはいずれも4に等しい。
- 6TapFlagを使用すると、1になる。
- そうでない場合、hpelIfIdxに基づいて輝度補間フィルタ係数fL[p]を表11で指定する。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos,SubPicRightBoundaryPos,xIntL+i-3) (8-771)
yInti=Clip3(SubPicTopBoundaryPos,SubPicBotBoundaryPos,yIntL+i-3) (8-772)
- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag?
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL+i-3): (8-773)
xIntL+i-3)
yInti=Clip3(0,picH-1,yIntL+i-3) (8-774)
xInti=Clip3(xSbIntL-3,xSbIntL+sbWidth+4,xInti) (8-775)
yInti=Clip3(ySbIntL-3,ySbIntL+sbHeight+4,yInti) (8-776)
- xFracLおよびyFracLの両方が0に等しい場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=refPicLXL[xInt3][yInt3]<<shift3 (8-777)
- そうではなく、xFracLが0に等しくなく、yFracLが0に等しい場合は、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yInt3])>>shift1 (8-778)
- そうではなく、xFracLが0に等しく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*refPicLXL[xInt3][yInti])>>shift1 (8-779)
- そうではなく、xFracLが0に等しくなく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
- n=0..7のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yIntn])>>shift1 (8-780)
- 予測輝度サンプル値predSampleLXLは、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*temp[i])>>shift2 (8-781)
Claims (11)
- 映像データを処理する方法であって、
映像の現在のブロックと前記映像のビットストリームとの間での変換のために、時間的動きベクトル予測ツール、または、サブブロックに基づく時間的動きベクトル予測ツールの少なくとも1つが有効であるかどうかに基づいて、サブブロックに基づくマージ候補リストにおける候補の情報を判定することと、
前記判定に基づいて前記変換を行うことと、
を含み、
前記情報は、前記サブブロックに基づくマージ候補リストにおける候補の最大数(ML)を含み、
前記MLを判定することは、アフィンコーディングモードが有効にされているかどうかに基づいており、
前記MLを判定することは、前記時間的動きベクトル予測ツールが無効にされ、前記サブブロックに基づく時間的動きベクトル予測ツールが有効にされ、かつ前記アフィンコーディングモードが無効にされた場合に、前記MLをゼロに設定することを含む、
方法。 - 前記情報は、1つ以上のサブブロックに基づく時間的動きベクトル予測候補を、前記サブブロックに基づくマージ候補リストに加えるかどうかを含む、
請求項1に記載の方法。 - 前記情報を判定するステップは、前記時間的動きベクトル予測ツールが無効になった、または、前記サブブロックに基づく時間的動きベクトル予測ツールが無効になった場合に、前記サブブロックに基づく時間的動きベクトル予測候補を追加することを無効にすることを含む、
請求項2に記載の方法。 - 前記MLを判定することは、前記サブブロックに基づく時間的動きベクトル予測ツールが有効にされ、前記時間的動きベクトル予測ツールが有効にされ、前記アフィンコーディングモードが無効にされる場合、前記MLを1に設定することを含む、
請求項1に記載の方法。 - 前記アフィンコーディングモードが有効にされている場合に、前記MLがオンザフライで設定され、前記ビットストリームに含まれる、
請求項1に記載の方法。 - 前記変換は、前記ビットストリームから前記現在のブロックを復号化することを含む、
請求項1~5のいずれか1項に記載の方法。 - 前記変換は、前記ビットストリームへ前記現在のブロックを符号化することを含む、
請求項1~5のいずれか1項に記載の方法。 - 前記変換は、現在のブロックから前記ビットストリームを生成することを含み、
前記方法は、前記ビットストリームを非一時的なコンピュータ可読記録媒体に記憶することをさらに含む、
請求項1~5のいずれか1項に記載の方法。 - 処理装置と、命令が記憶された非一時的メモリとを備える、映像データを処理する装置であって、
前記命令が前記処理装置によって実行されると、前記処理装置に、
映像の現在のブロックと前記映像のビットストリームとの間での変換のために、時間的動きベクトル予測ツール、または、サブブロックに基づく時間的動きベクトル予測ツールの少なくとも1つが有効であるかどうかに基づいて、サブブロックに基づくマージ候補リストにおける候補の情報を判定させ、
前記判定に基づいて前記変換を行わせ、
前記情報は、前記サブブロックに基づくマージ候補リストにおける候補の最大数(ML)を含み、
前記MLを判定することは、アフィンコーディングモードが有効にされているかどうかに基づいており、
前記MLを判定することは、前記時間的動きベクトル予測ツールが無効にされ、前記サブブロックに基づく時間的動きベクトル予測ツールが有効にされ、かつ前記アフィンコーディングモードが無効にされた場合に、前記MLをゼロに設定することを含む、
装置。 - 命令を記憶する非一時的なコンピュータ可読記憶媒体であって、
前記命令は、処理装置に、
映像の現在のブロックと前記映像のビットストリームとの間での変換のために、時間的動きベクトル予測ツール、または、サブブロックに基づく時間的動きベクトル予測ツールの少なくとも1つが有効であるかどうかに基づいて、サブブロックに基づくマージ候補リストにおける候補の情報を判定させ、
前記判定に基づいて前記変換を行わせ、
前記情報は、前記サブブロックに基づくマージ候補リストにおける候補の最大数(ML)を含み、
前記MLを判定することは、アフィンコーディングモードが有効にされているかどうかに基づいており、
前記MLを判定することは、前記時間的動きベクトル予測ツールが無効にされ、前記サブブロックに基づく時間的動きベクトル予測ツールが有効にされ、かつ前記アフィンコーディングモードが無効にされた場合に、前記MLをゼロに設定することを含む、
非一時的なコンピュータ可読記憶媒体。 - 映像のビットストリームを記憶する方法であって、
時間的動きベクトル予測ツール、または、サブブロックに基づく時間的動きベクトル予測ツールの少なくとも1つが有効であるかどうかに基づいて、サブブロックに基づくマージ候補リストにおける候補の情報を判定することと、
前記判定することに基づいて前記ビットストリームを生成することと、
非一時的なコンピュータ可読記録媒体に前記ビットストリームを記憶することと、を含み、
前記情報は、前記サブブロックに基づくマージ候補リストにおける候補の最大数(ML)を含み、
前記MLを判定することは、アフィンコーディングモードが有効にされているかどうかに基づいており、
前記MLを判定することは、前記時間的動きベクトル予測ツールが無効にされ、前記サブブロックに基づく時間的動きベクトル予測ツールが有効にされ、かつ前記アフィンコーディングモードが無効にされた場合に、前記MLをゼロに設定することを含む、
方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023117792A JP2023156316A (ja) | 2018-11-22 | 2023-07-19 | サブブロックの時間的動きベクトル予測モードでコロケーションされたブロックの使用 |
JP2023217004A JP2024038053A (ja) | 2018-11-22 | 2023-12-22 | サブブロックに基づくインター予測のための調整方法 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2018/116889 | 2018-11-22 | ||
CN2018116889 | 2018-11-22 | ||
CNPCT/CN2018/125420 | 2018-12-29 | ||
CN2018125420 | 2018-12-29 | ||
CNPCT/CN2019/100396 | 2019-08-13 | ||
CN2019100396 | 2019-08-13 | ||
CNPCT/CN2019/107159 | 2019-09-22 | ||
CN2019107159 | 2019-09-22 | ||
PCT/CN2019/120301 WO2020103940A1 (en) | 2018-11-22 | 2019-11-22 | Coordination method for sub-block based inter prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117792A Division JP2023156316A (ja) | 2018-11-22 | 2023-07-19 | サブブロックの時間的動きベクトル予測モードでコロケーションされたブロックの使用 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022507590A JP2022507590A (ja) | 2022-01-18 |
JP7319365B2 true JP7319365B2 (ja) | 2023-08-01 |
Family
ID=70773491
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021526695A Active JP7319365B2 (ja) | 2018-11-22 | 2019-11-22 | サブブロックに基づくインター予測のための調整方法 |
JP2023117792A Pending JP2023156316A (ja) | 2018-11-22 | 2023-07-19 | サブブロックの時間的動きベクトル予測モードでコロケーションされたブロックの使用 |
JP2023217004A Pending JP2024038053A (ja) | 2018-11-22 | 2023-12-22 | サブブロックに基づくインター予測のための調整方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117792A Pending JP2023156316A (ja) | 2018-11-22 | 2023-07-19 | サブブロックの時間的動きベクトル予測モードでコロケーションされたブロックの使用 |
JP2023217004A Pending JP2024038053A (ja) | 2018-11-22 | 2023-12-22 | サブブロックに基づくインター予測のための調整方法 |
Country Status (6)
Country | Link |
---|---|
US (6) | US11140386B2 (ja) |
EP (2) | EP4325849A3 (ja) |
JP (3) | JP7319365B2 (ja) |
KR (2) | KR20240024335A (ja) |
CN (5) | CN113056916A (ja) |
WO (4) | WO2020103943A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117956139A (zh) * | 2018-08-17 | 2024-04-30 | 寰发股份有限公司 | 视频编解码的帧间预测方法及装置 |
US11558622B2 (en) | 2018-10-09 | 2023-01-17 | Samsung Electronics Co., Ltd. | Video decoding method and apparatus, and video encoding method and apparatus involving sub-block merge index context and bypass model |
WO2020103943A1 (en) | 2018-11-22 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Using collocated blocks in sub-block temporal motion vector prediction mode |
JP7124228B2 (ja) * | 2018-12-31 | 2022-08-23 | ベイジン ダジア インターネット インフォメーション テクノロジー カンパニー リミテッド | 映像符号化における動きマージモードのシグナリングのためのシステム、方法および非一時的コンピュータ可読記憶媒体 |
AU2020206246B2 (en) * | 2019-01-09 | 2024-01-04 | Huawei Technologies Co., Ltd. | Sub-picture layout signaling in video coding |
KR20210126126A (ko) * | 2019-02-22 | 2021-10-19 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 크로마 서브블록의 아핀 기반 인터 예측을 위한 방법 및 장치 |
MX2021011016A (es) * | 2019-03-11 | 2021-11-12 | Huawei Tech Co Ltd | Un codificador, un decodificador y métodos correspondientes. |
JP7384929B2 (ja) * | 2019-05-15 | 2023-11-21 | 華為技術有限公司 | 映像コーディングにおける参照ピクチャリサンプリングに対する双方向オプティカルフロー(bio)コーディングツールの取扱い |
KR102630798B1 (ko) * | 2019-06-13 | 2024-01-29 | 엘지전자 주식회사 | Sbtmvp 기반 영상 또는 비디오 코딩 |
EP4376415A2 (en) | 2019-06-19 | 2024-05-29 | LG Electronics Inc. | Coding of information about transform kernel set |
EP3977746A4 (en) * | 2019-07-05 | 2022-08-03 | Huawei Technologies Co., Ltd. | BITSTREAM EXTRACTION FOR VIDEO CODING WITH SIGNALING IDENTIFIERS |
BR112022002154A2 (pt) * | 2019-08-06 | 2022-04-19 | Op Solutions Llc | Sinalização implícita de gerenciamento de resolução adaptativa com base no tipo de quadro |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
CN114762330A (zh) | 2019-09-22 | 2022-07-15 | 北京字节跳动网络技术有限公司 | 视频的子图片编码和解码 |
US11317093B2 (en) * | 2019-09-24 | 2022-04-26 | Tencent America LLC | Method for reference picture resampling with offset in video bitstream |
CN112788345B (zh) * | 2019-11-11 | 2023-10-24 | 腾讯美国有限责任公司 | 视频数据解码方法、装置、计算机设备和存储介质 |
US11632540B2 (en) * | 2019-12-20 | 2023-04-18 | Qualcomm Incorporated | Reference picture scaling ratios for reference picture resampling in video coding |
CN111698502A (zh) * | 2020-06-19 | 2020-09-22 | 中南大学 | 基于vvc编码的仿射运动估计加速方法、设备及存储介质 |
WO2023109899A1 (en) * | 2021-12-15 | 2023-06-22 | FG Innovation Company Limited | Device and method for coding video data |
WO2024083203A1 (en) * | 2022-10-20 | 2024-04-25 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020088324A1 (zh) | 2018-10-29 | 2020-05-07 | 华为技术有限公司 | 一种视频图像预测方法及装置 |
Family Cites Families (153)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
JP2007503775A (ja) | 2003-08-26 | 2007-02-22 | トムソン ライセンシング | ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置 |
GB0500174D0 (en) | 2005-01-06 | 2005-02-16 | Kokaram Anil | Method for estimating motion and occlusion |
JP4178480B2 (ja) | 2006-06-14 | 2008-11-12 | ソニー株式会社 | 画像処理装置、画像処理方法、撮像装置および撮像方法 |
US8675738B2 (en) | 2008-08-06 | 2014-03-18 | Mediatek Inc. | Video decoding method without using additional buffers for storing scaled frames and system thereof |
TWI387317B (zh) | 2008-12-11 | 2013-02-21 | Novatek Microelectronics Corp | 產生重新取樣參考畫面之裝置及其方法與影像解碼系統 |
CN101877785A (zh) | 2009-04-29 | 2010-11-03 | 祝志怡 | 一种基于混合预测的视频编码方法 |
US9654792B2 (en) * | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
CN102223526B (zh) | 2010-04-15 | 2013-09-11 | 华为技术有限公司 | 图像编解码方法及相关装置 |
US9172968B2 (en) | 2010-07-09 | 2015-10-27 | Qualcomm Incorporated | Video coding using directional transforms |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
US8780973B2 (en) | 2010-08-13 | 2014-07-15 | Texas Instruments Incorporated | Limiting the maximum size of an encoded video picture using sub-picture based rate control |
JP2013545372A (ja) * | 2010-10-28 | 2013-12-19 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 映像情報符号化方法及び復号化方法 |
WO2012097749A1 (en) | 2011-01-19 | 2012-07-26 | Mediatek Inc. | Method and apparatus for parsing error robustness of temporal motion vector prediction |
KR101961889B1 (ko) | 2011-02-09 | 2019-03-25 | 엘지전자 주식회사 | 움직임 정보 저장 방법 및 이를 이용한 시간적 움직임 벡터 예측자 유도 방법 |
GB2501836B (en) * | 2011-03-09 | 2014-08-06 | Canon Kk | Video encoding |
US9143795B2 (en) * | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
US10123053B2 (en) * | 2011-05-23 | 2018-11-06 | Texas Instruments Incorporated | Acceleration of bypass binary symbol processing in video coding |
US10063876B2 (en) * | 2011-06-24 | 2018-08-28 | Hfi Innovation Inc. | Method and apparatus for removing redundancy in motion vector predictors |
US9736472B2 (en) * | 2011-08-19 | 2017-08-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Motion vector processing |
US9451252B2 (en) * | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US9420286B2 (en) * | 2012-06-15 | 2016-08-16 | Qualcomm Incorporated | Temporal motion vector prediction in HEVC and its extensions |
US20140003504A1 (en) | 2012-07-02 | 2014-01-02 | Nokia Corporation | Apparatus, a Method and a Computer Program for Video Coding and Decoding |
CN104704850A (zh) | 2012-10-09 | 2015-06-10 | 思科技术公司 | 对位流中的图像格式转换的在先解码的图像的输出管理 |
WO2014107853A1 (en) * | 2013-01-09 | 2014-07-17 | Mediatek Singapore Pte. Ltd. | Methods for disparity vector derivation |
US9596448B2 (en) | 2013-03-18 | 2017-03-14 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
US9491460B2 (en) | 2013-03-29 | 2016-11-08 | Qualcomm Incorporated | Bandwidth reduction for video coding prediction |
US10057594B2 (en) | 2013-04-02 | 2018-08-21 | Vid Scale, Inc. | Enhanced temporal motion vector prediction for scalable video coding |
GB2512829B (en) | 2013-04-05 | 2015-05-27 | Canon Kk | Method and apparatus for encoding or decoding an image with inter layer motion information prediction according to motion information compression scheme |
WO2014166109A1 (en) * | 2013-04-12 | 2014-10-16 | Mediatek Singapore Pte. Ltd. | Methods for disparity vector derivation |
US9813723B2 (en) | 2013-05-03 | 2017-11-07 | Qualcomm Incorporated | Conditionally invoking a resampling process in SHVC |
US9432667B2 (en) | 2013-06-11 | 2016-08-30 | Qualcomm Incorporated | Processing bitstream constraints relating to inter-layer prediction types in multi-layer video coding |
WO2015003383A1 (en) | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
US9628795B2 (en) | 2013-07-17 | 2017-04-18 | Qualcomm Incorporated | Block identification using disparity vector in video coding |
US10244253B2 (en) | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
US9906813B2 (en) | 2013-10-08 | 2018-02-27 | Hfi Innovation Inc. | Method of view synthesis prediction in 3D video coding |
WO2015082763A1 (en) * | 2013-12-02 | 2015-06-11 | Nokia Technologies Oy | Video encoding and decoding |
WO2015085575A1 (en) | 2013-12-13 | 2015-06-18 | Mediatek Singapore Pte. Ltd. | Methods for background residual prediction |
CN104768015B (zh) * | 2014-01-02 | 2018-10-26 | 寰发股份有限公司 | 视频编码方法及装置 |
WO2015109598A1 (en) | 2014-01-27 | 2015-07-30 | Mediatek Singapore Pte. Ltd. | Methods for motion parameter hole filling |
CN106105191B (zh) * | 2014-03-19 | 2018-08-10 | 株式会社Kt | 用于处理多视图视频信号的方法和装置 |
US10432928B2 (en) | 2014-03-21 | 2019-10-01 | Qualcomm Incorporated | Using a current picture as a reference for video coding |
US10785486B2 (en) * | 2014-06-19 | 2020-09-22 | Microsoft Technology Licensing, Llc | Unified intra block copy and inter prediction modes |
US20150373343A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Representation format update in multi-layer codecs |
WO2016008157A1 (en) * | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
US10412387B2 (en) | 2014-08-22 | 2019-09-10 | Qualcomm Incorporated | Unified intra-block copy and inter-prediction |
CN107079157B (zh) * | 2014-09-12 | 2020-12-22 | Vid拓展公司 | 用于视频编码的分量间去相关 |
US10455231B2 (en) | 2014-09-30 | 2019-10-22 | Hfi Innovation Inc. | Method of adaptive motion vector resolution for video coding |
WO2016119104A1 (en) | 2015-01-26 | 2016-08-04 | Mediatek Inc. | Motion vector regularization |
US9918105B2 (en) * | 2014-10-07 | 2018-03-13 | Qualcomm Incorporated | Intra BC and inter unification |
JP2017212477A (ja) * | 2014-10-09 | 2017-11-30 | シャープ株式会社 | 画像復号装置、画像符号化装置、変位配列導出装置、変位ベクトル導出装置、デフォルト参照ビューインデックス導出装置及びデプスルックアップテーブル導出装置 |
US9854237B2 (en) * | 2014-10-14 | 2017-12-26 | Qualcomm Incorporated | AMVP and merge candidate list derivation for intra BC and inter prediction unification |
US10666940B2 (en) | 2014-11-06 | 2020-05-26 | Samsung Electronics Co., Ltd. | Video encoding method and apparatus, and video decoding method and apparatus |
CA3074097C (en) | 2014-11-20 | 2021-10-26 | Hfi Innovation Inc. | Method of motion vector and block vector resolution control |
WO2016108188A1 (en) | 2014-12-31 | 2016-07-07 | Nokia Technologies Oy | Inter-layer prediction for scalable video coding and decoding |
US11477477B2 (en) * | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10070130B2 (en) * | 2015-01-30 | 2018-09-04 | Qualcomm Incorporated | Flexible partitioning of prediction units |
US10057574B2 (en) * | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
US11330284B2 (en) | 2015-03-27 | 2022-05-10 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
WO2016165069A1 (en) * | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
KR102583501B1 (ko) | 2015-04-27 | 2023-09-27 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 이를 위한 장치 |
CN107852506A (zh) * | 2015-05-12 | 2018-03-27 | 三星电子株式会社 | 用于执行帧内预测的图像解码方法及其装置以及用于执行帧内预测的图像编码方法及其装置 |
US10271064B2 (en) | 2015-06-11 | 2019-04-23 | Qualcomm Incorporated | Sub-prediction unit motion vector prediction using spatial and/or temporal motion information |
WO2017008263A1 (en) | 2015-07-15 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Conditional binary tree block partitioning structure |
WO2017057953A1 (ko) * | 2015-09-30 | 2017-04-06 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치 |
US10412407B2 (en) * | 2015-11-05 | 2019-09-10 | Mediatek Inc. | Method and apparatus of inter prediction using average motion vector for video coding |
WO2017082670A1 (ko) | 2015-11-12 | 2017-05-18 | 엘지전자 주식회사 | 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치 |
KR20170058838A (ko) * | 2015-11-19 | 2017-05-29 | 한국전자통신연구원 | 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치 |
WO2017118409A1 (en) * | 2016-01-07 | 2017-07-13 | Mediatek Inc. | Method and apparatus for affine merge mode prediction for video coding system |
US9955186B2 (en) | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
US10469841B2 (en) * | 2016-01-29 | 2019-11-05 | Google Llc | Motion vector prediction using prior frame residual |
US10368083B2 (en) * | 2016-02-15 | 2019-07-30 | Qualcomm Incorporated | Picture order count based motion vector pruning |
WO2017143467A1 (en) | 2016-02-22 | 2017-08-31 | Mediatek Singapore Pte. Ltd. | Localized luma mode prediction inheritance for chroma coding |
WO2017147765A1 (en) * | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Methods for affine motion compensation |
US10623774B2 (en) * | 2016-03-22 | 2020-04-14 | Qualcomm Incorporated | Constrained block-level optimization and signaling for video coding tools |
KR20230143623A (ko) * | 2016-03-28 | 2023-10-12 | 로즈데일 다이나믹스 엘엘씨 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US10834419B2 (en) | 2016-04-13 | 2020-11-10 | Qualcomm Incorporated | Conformance constraint for collocated reference index in video coding |
CN105976395B (zh) * | 2016-04-27 | 2018-11-09 | 宁波大学 | 一种基于稀疏表示的视频目标跟踪方法 |
WO2017195608A1 (ja) * | 2016-05-13 | 2017-11-16 | シャープ株式会社 | 動画像復号装置 |
US10560718B2 (en) * | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
US20190191171A1 (en) | 2016-05-13 | 2019-06-20 | Sharp Kabushiki Kaisha | Prediction image generation device, video decoding device, and video coding device |
US10560712B2 (en) | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
WO2017209328A1 (ko) | 2016-06-03 | 2017-12-07 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측 방법 및 장치 |
JP6938612B2 (ja) * | 2016-07-12 | 2021-09-22 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 画像復号方法、画像符号化方法、及び非一時的なコンピュータ可読の記録媒体 |
CN116506596A (zh) * | 2016-08-03 | 2023-07-28 | 株式会社Kt | 视频解码方法、视频编码方法和视频数据的传送方法 |
US11638027B2 (en) * | 2016-08-08 | 2023-04-25 | Hfi Innovation, Inc. | Pattern-based motion vector derivation for video coding |
CN116582668A (zh) * | 2016-08-11 | 2023-08-11 | Lx 半导体科技有限公司 | 图像编码/解码方法以及图像数据的发送方法 |
US10609423B2 (en) | 2016-09-07 | 2020-03-31 | Qualcomm Incorporated | Tree-type coding for video coding |
US10812791B2 (en) | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
US10778999B2 (en) * | 2016-09-30 | 2020-09-15 | Qualcomm Incorporated | Frame rate up-conversion coding mode with affine motion model |
CA3222158A1 (en) | 2016-10-04 | 2018-04-12 | Kt Corporation | Method and apparatus for processing video signal |
CN109804626B (zh) * | 2016-10-04 | 2023-10-10 | 英迪股份有限公司 | 用于对图像进行编码和解码的方法和设备以及用于存储比特流的记录介质 |
EP3525460A4 (en) | 2016-10-06 | 2020-06-17 | LG Electronics Inc. -1- | METHOD FOR PROCESSING A VIDEO BASED ON AN INTRAPREDICATION MODE AND DEVICE THEREFOR |
CN117528107A (zh) * | 2016-11-28 | 2024-02-06 | 英迪股份有限公司 | 图像编码方法、图像解码方法及用于传送比特流的方法 |
CN109983773A (zh) * | 2016-11-29 | 2019-07-05 | 联发科技股份有限公司 | 用于合并模式推导的视频编解码方法和装置 |
US10681370B2 (en) * | 2016-12-29 | 2020-06-09 | Qualcomm Incorporated | Motion vector generation for affine motion model for video coding |
US11394976B2 (en) | 2017-01-03 | 2022-07-19 | Lg Electronics Inc. | Inter-prediction method and apparatus in image coding system |
US10931969B2 (en) | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
US10542280B2 (en) * | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) * | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US20180242024A1 (en) * | 2017-02-21 | 2018-08-23 | Mediatek Inc. | Methods and Apparatuses of Candidate Set Determination for Quad-tree Plus Binary-tree Splitting Blocks |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
US11277635B2 (en) | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
US10708591B2 (en) | 2017-03-20 | 2020-07-07 | Qualcomm Incorporated | Enhanced deblocking filtering design in video coding |
US10582209B2 (en) * | 2017-03-30 | 2020-03-03 | Mediatek Inc. | Sub-prediction unit temporal motion vector prediction (sub-PU TMVP) for video coding |
US20180310017A1 (en) * | 2017-04-21 | 2018-10-25 | Mediatek Inc. | Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding |
US10742975B2 (en) * | 2017-05-09 | 2020-08-11 | Futurewei Technologies, Inc. | Intra-prediction with multiple reference lines |
US10523934B2 (en) | 2017-05-31 | 2019-12-31 | Mediatek Inc. | Split based motion vector operation reduction |
CN110771169A (zh) | 2017-06-09 | 2020-02-07 | 韩国电子通信研究院 | 视频编码/解码方法和装置以及存储比特流的记录介质 |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
GB2563943B (en) | 2017-06-30 | 2021-02-24 | Canon Kk | Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory accesses |
CN117478884A (zh) | 2017-07-03 | 2024-01-30 | Vid拓展公司 | 用于视频编解码的设备、方法 |
KR102595689B1 (ko) | 2017-09-29 | 2023-10-30 | 인텔렉추얼디스커버리 주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN118042121A (zh) | 2017-09-29 | 2024-05-14 | Lx 半导体科技有限公司 | 图像编码/解码设备以及传输图像数据的设备 |
CN111543060B (zh) | 2017-10-09 | 2024-03-08 | 诺基亚技术有限公司 | 用于视频编码和解码的装置、方法和计算机程序 |
CN116916042A (zh) * | 2017-10-20 | 2023-10-20 | 株式会社Kt | 视频信号处理方法以及存储介质 |
WO2019089933A1 (en) | 2017-11-01 | 2019-05-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
US10931963B2 (en) | 2017-12-07 | 2021-02-23 | Tencent America LLC | Method and apparatus for video coding |
EP3738310A4 (en) | 2018-01-11 | 2021-08-11 | Qualcomm Incorporated | VIDEO ENCODING USING LOCAL LIGHTING COMPENSATION |
US11172229B2 (en) | 2018-01-12 | 2021-11-09 | Qualcomm Incorporated | Affine motion compensation with low bandwidth |
WO2019143602A1 (en) | 2018-01-16 | 2019-07-25 | Vid Scale, Inc. | Motion compensated bi-prediction based on local illumination compensation |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
WO2019204234A1 (en) | 2018-04-15 | 2019-10-24 | Arris Enterprises Llc | Unequal weight planar motion vector derivation |
WO2019210857A1 (en) | 2018-04-30 | 2019-11-07 | Mediatek Inc. | Method and apparatus of syntax interleaving for separate coding tree in video coding |
WO2019229683A1 (en) | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
WO2019234613A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partition tree with partition into 3 sub-blocks by horizontal and vertical splits |
WO2019234674A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Integer motion compensation |
WO2019244115A2 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Automatic partition for cross blocks |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
CN113115046A (zh) | 2018-06-21 | 2021-07-13 | 北京字节跳动网络技术有限公司 | 分量相关的子块分割 |
AU2019296308B9 (en) | 2018-06-28 | 2023-08-03 | Huawei Technologies Co., Ltd. | Memory access window and padding for motion vector refinement and motion compensation |
US10863193B2 (en) | 2018-06-29 | 2020-12-08 | Qualcomm Incorporated | Buffer restriction during motion vector prediction for video coding |
EP3791587A1 (en) * | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Resetting of look up table per slice/tile/lcu row |
WO2020005046A1 (ko) | 2018-06-30 | 2020-01-02 | 김기백 | 영상 부호화/복호화 방법 및 장치 |
CN110677675B (zh) | 2018-07-01 | 2022-02-08 | 北京字节跳动网络技术有限公司 | 高效的仿射Merge运动矢量推导的方法、装置及存储介质 |
CN110719481B (zh) | 2018-07-15 | 2023-04-14 | 北京字节跳动网络技术有限公司 | 跨分量编码信息导出 |
US10897617B2 (en) | 2018-07-24 | 2021-01-19 | Qualcomm Incorporated | Rounding of motion vectors for adaptive motion vector difference resolution and increased motion vector storage precision in video coding |
US10958934B2 (en) | 2018-07-27 | 2021-03-23 | Tencent America LLC | History-based affine merge and motion vector prediction |
PT3700216T (pt) | 2018-09-10 | 2022-09-01 | Lg Electronics Inc | Codificação de imagem com base em previsão de movimento afim utilizando lista de candidatos mvp afins |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
SG11202103601RA (en) * | 2018-10-10 | 2021-05-28 | Interdigital Vc Holdings Inc | Affine mode signaling in video encoding and decoding |
CN111093073B (zh) | 2018-10-24 | 2024-04-19 | 北京字节跳动网络技术有限公司 | 用于子块运动矢量预测的基于搜索的运动候选推导 |
CN112956202A (zh) | 2018-11-06 | 2021-06-11 | 北京字节跳动网络技术有限公司 | 利用几何分割的帧间预测的扩展 |
WO2020103943A1 (en) | 2018-11-22 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Using collocated blocks in sub-block temporal motion vector prediction mode |
US11032574B2 (en) | 2018-12-31 | 2021-06-08 | Tencent America LLC | Method and apparatus for video coding |
US10742972B1 (en) | 2019-03-08 | 2020-08-11 | Tencent America LLC | Merge list construction in triangular prediction |
US11233988B2 (en) | 2019-05-17 | 2022-01-25 | Qualcomm Incorporated | Reference picture resampling and inter-coding tools for video coding |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
US11140402B2 (en) | 2019-09-20 | 2021-10-05 | Tencent America LLC | Signaling of reference picture resampling with constant window size indication in video bitstream |
CN114762330A (zh) | 2019-09-22 | 2022-07-15 | 北京字节跳动网络技术有限公司 | 视频的子图片编码和解码 |
US11477471B2 (en) | 2020-05-20 | 2022-10-18 | Tencent America LLC | Techniques for signaling combination of reference picture resampling and spatial scalability |
-
2019
- 2019-11-22 WO PCT/CN2019/120311 patent/WO2020103943A1/en active Application Filing
- 2019-11-22 WO PCT/CN2019/120301 patent/WO2020103940A1/en unknown
- 2019-11-22 CN CN201980076060.2A patent/CN113056916A/zh active Pending
- 2019-11-22 KR KR1020247004622A patent/KR20240024335A/ko active Application Filing
- 2019-11-22 EP EP23220523.7A patent/EP4325849A3/en active Pending
- 2019-11-22 CN CN201980076058.5A patent/CN113170198B/zh active Active
- 2019-11-22 KR KR1020217013777A patent/KR102660160B1/ko active IP Right Grant
- 2019-11-22 EP EP19888228.4A patent/EP3857896A4/en active Pending
- 2019-11-22 WO PCT/CN2019/120306 patent/WO2020103942A1/en active Application Filing
- 2019-11-22 WO PCT/CN2019/120314 patent/WO2020103944A1/en active Application Filing
- 2019-11-22 CN CN201980076059.XA patent/CN113056920B/zh active Active
- 2019-11-22 CN CN201980076019.5A patent/CN113056915B/zh active Active
- 2019-11-22 CN CN202311821092.5A patent/CN117692634A/zh active Pending
- 2019-11-22 JP JP2021526695A patent/JP7319365B2/ja active Active
-
2021
- 2021-01-28 US US17/161,106 patent/US11140386B2/en active Active
- 2021-01-28 US US17/161,316 patent/US11632541B2/en active Active
- 2021-01-28 US US17/161,198 patent/US11431964B2/en active Active
- 2021-05-17 US US17/321,802 patent/US20210274188A1/en active Granted
- 2021-08-16 US US17/403,670 patent/US11671587B2/en active Active
-
2023
- 2023-07-19 JP JP2023117792A patent/JP2023156316A/ja active Pending
- 2023-11-30 US US18/525,099 patent/US20240107007A1/en active Pending
- 2023-12-22 JP JP2023217004A patent/JP2024038053A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020088324A1 (zh) | 2018-10-29 | 2020-05-07 | 华为技术有限公司 | 一种视频图像预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
Benjamin Bross et al.,Versatile Video Coding (Draft 3),Joint Video Experts Team (JVET),2018年11月08日,pp.33-34,87-90,[JVET-L1001-v2] (version 2) |
Also Published As
Publication number | Publication date |
---|---|
JP2022507590A (ja) | 2022-01-18 |
EP3857896A4 (en) | 2021-12-01 |
EP4325849A3 (en) | 2024-04-17 |
JP2023156316A (ja) | 2023-10-24 |
EP4325849A2 (en) | 2024-02-21 |
CN113170198B (zh) | 2022-12-09 |
KR20240024335A (ko) | 2024-02-23 |
WO2020103943A1 (en) | 2020-05-28 |
US20210377521A1 (en) | 2021-12-02 |
US20210160531A1 (en) | 2021-05-27 |
CN117692634A (zh) | 2024-03-12 |
CN113056915A (zh) | 2021-06-29 |
EP3857896A1 (en) | 2021-08-04 |
US20210274188A1 (en) | 2021-09-02 |
US11632541B2 (en) | 2023-04-18 |
CN113170198A (zh) | 2021-07-23 |
KR20210090176A (ko) | 2021-07-19 |
CN113056916A (zh) | 2021-06-29 |
WO2020103940A1 (en) | 2020-05-28 |
CN113056915B (zh) | 2024-03-26 |
US20210185346A1 (en) | 2021-06-17 |
JP2024038053A (ja) | 2024-03-19 |
US20210152816A1 (en) | 2021-05-20 |
US11671587B2 (en) | 2023-06-06 |
KR102660160B1 (ko) | 2024-04-24 |
WO2020103942A1 (en) | 2020-05-28 |
US11140386B2 (en) | 2021-10-05 |
WO2020103944A1 (en) | 2020-05-28 |
CN113056920B (zh) | 2024-05-24 |
US20240107007A1 (en) | 2024-03-28 |
CN113056920A (zh) | 2021-06-29 |
US11431964B2 (en) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7319365B2 (ja) | サブブロックに基づくインター予測のための調整方法 | |
CN114467308B (zh) | 视频处理中的参考图片重采样 | |
US11871025B2 (en) | Motion precision in sub-block based inter prediction | |
CN113261292B (zh) | 基于子块的帧间预测中默认运动候选的构造方法 | |
WO2021027862A1 (en) | Motion precision in sub-block based inter prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7319365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |