JP7322277B2 - 参照ピクチャタイプに従ったツールの使用制限 - Google Patents
参照ピクチャタイプに従ったツールの使用制限 Download PDFInfo
- Publication number
- JP7322277B2 JP7322277B2 JP2022503412A JP2022503412A JP7322277B2 JP 7322277 B2 JP7322277 B2 JP 7322277B2 JP 2022503412 A JP2022503412 A JP 2022503412A JP 2022503412 A JP2022503412 A JP 2022503412A JP 7322277 B2 JP7322277 B2 JP 7322277B2
- Authority
- JP
- Japan
- Prior art keywords
- picture
- video
- reference picture
- coding tool
- video block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 211
- 230000033001 locomotion Effects 0.000 claims description 135
- 239000013598 vector Substances 0.000 claims description 81
- 238000012545 processing Methods 0.000 claims description 48
- 230000003287 optical effect Effects 0.000 claims description 34
- 230000009466 transformation Effects 0.000 claims description 24
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 22
- 230000003044 adaptive effect Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 description 33
- 230000002457 bidirectional effect Effects 0.000 description 25
- 230000007774 longterm Effects 0.000 description 24
- 239000000523 sample Substances 0.000 description 18
- 241000023320 Luma <angiosperm> Species 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 17
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 17
- 230000002123 temporal effect Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 238000009795 derivation Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 239000013074 reference sample Substances 0.000 description 5
- 230000001131 transforming effect Effects 0.000 description 4
- 239000000872 buffer Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 2
- 101150095908 apex1 gene Proteins 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100025317 Candida albicans (strain SC5314 / ATCC MYA-2876) MVD gene Proteins 0.000 description 1
- 101150079299 MVD1 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/557—Motion estimation characterised by stopping computation or iteration based on certain criteria, e.g. error magnitude being too large or early exit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本出願は、2019年7月27日に出願された国際特許出願第PCT/CN2019/098068号の優先権および利益を主張する、2020年7月24日に出願された国際特許出願第PCT/CN2020/104087号に基づくものである。上記の特許出願の全体は、参照により、ここにおいて組み込まれている。
パターン整合動きベクトル導出(Pattern matched motion vector deviation、PMMVD)モードは、フレームレートアップコンバージョン(Frame‐Rate Up Conversion、FRUC)技法に基づく特別なマージモードである。このモードでは、ブロックの動き情報は、信号化されないが、デコーダ側で導出される。
CUレベルで設定されるMV候補は、以下から構成される。
(i)現在CUがAMVPモードの場合、オリジナルのAMVP候補
(ii)全てのマージ候補
(iii)補間されたMVフィールドにおける複数のMV
(iv)上隣接するベクトルおよび左隣接するベクトル
サブCUレベルで設定されるMV候補は、以下から構成される。
(i)CUレベルの検索から決定されたMV
(ii)上、左、左上、および右上の隣接MV
(iii)参照ピクチャの共配置された(collocated)MVのスケール化バージョン
(iv)最大個のATMVP候補
(v)最大4個のSTMVP候補
フレームをコード化する前に、補間された動きフィールド(motion field)が、単方向MEに基づいて全体の画像に対して生成される。その後、動きフィールドは、後にCUレベルまたはサブCUレベルMV候補として使用され得る。
動きベクトルが分数(fractional)サンプル位置を指す場合、動き補償補間が必要とされる。複雑さを減らすために、通常の8タップHEVC補間の代わりに双線形(bi-linear)補間が、双方向マッチングとテンプレートマッチングの両方に使用される。
MV精緻化(refinement)は、双方向マッチングコストまたはテンプレートマッチングコストの基準(criterion)を用いたパターンベースのMV探索である。JEMでは、2個の探索パターンがサポートされる。-無制限中心バイアスダイヤモンド探索(unrestricted center-based diamond search、UCBDS)、および、CUレベルとサブCUレベルで、それぞれに、MV精緻化のための適応クロス探索である。CUレベルとサブCUレベルのMV精緻化の両方について、MVは1/4ルマサンプルMV精度で直接検索され、そして、続いて1/8ルマサンプルMV精緻化が行われる。CUおよびサブCUステップのMV精緻化の検索範囲は、8ルマサンプルに等しく設定される。
双方向マッチングマージモードでは、CUの動き情報が、2個の異なる参照ピクチャにおける現在CUの動き軌跡に沿った2個のブロック間の最も近い一致(match)に基づいて導出されるので、双予測が常に適用される。テンプレートマッチングマージモードには、こうした制限は存在しない。テンプレートマッチングマージモードにおいて、エンコーダは、list0からの単予測(uni-prediction)、list1からの単予測、または、CUに対する双予測(bi-prediction)の中から選択することができる。選択は、以下のようにテンプレートマッチングのコストに基づいて行わる。
costBi<=factor*min
(cost0,cost1)の場合、
双予測が使用される;
そうでなければ、cost0<=cost1の場合、
list0からの双予測が使用される;
そうでなければ、
list1からの単予測が使用される;
JVET‐L0100では、多重仮説(multi-hypothesis)予測が提案されており、ここで、ハイブリッド・イントラ予測およびインター予測は、多重仮説を生成するための一つの方法である。
まず、動き補償を行い、現在ブロックの最初の予測(各予測方向)を生成する。第1の予測は、ブロック内の各サブブロック/ピクセルの空間勾配、時間勾配、およびオプティカルフローを導出するために使用され、次いで、第2の予測、すなわち、サブブロック/ピクセルの最終予測を生成するために使用される。詳細は、以下のとおりである。
τ0=POC(current)-POC(Ref0)、τ1=POC(Ref1)-POC(current)
両方の予測が同じ時間の方向から出てくる場合には(両方が過去から、または、両方が将来から)、その符号は異なっている(すなわち、τ0・τ1≦0)。この場合には、BIOが、予測が同じの時間モーメントからではない場合(すなわち、τ0≠τ1)にのみ適用され、両方の参照領域(referenced region)は非ゼロ動きを有し(MVx0,MVy0,MVx1,MVx1≠0)、そして、ブロック動きベクトルは時間的距離に比例する(MVx0/MVx1=MVy0/MVy1=-τ0/τ1)。
表1:BIOにおける勾配計算のためのフィルタ
VTM5において、BDOFは、以下のモードと特徴でコード化されたCUに適用することができる。
・sps_bdof_enabled_flagが1に等しい
・predFlagL0[0][0]およびpredFlagL1[0][0]の両方が1に等しい
・DiffPicOrderCnt(currentPic,RefPicList[0][refIdxL0])*DiffPicOrderCnt(currentPic,RefPicList[1][refIdxL1])が0未満である
・MotionModelIdc[xCb][yCb]が0に等しい
・merge_subblock_flag[xCb][yCb]が0に等しい
・sym_mvd_flag[xCb][yCb]が0に等しい
・BcwIdx[xCb][yCb]が0に等しい
・luma_weight_l0_flag[refIdxL0]とluma_weight_l1_flag[refIdxL1]の両方が0に等しい
・cbHeightが8以上である
・現在ブロックの色成分(colour component)インデックスが0に等しい
CUの幅及び/又は高さが16ルマサンプルより大きい場合は、16ルマサンプルに等しい幅及び/又は高さを持つサブブロックへと分割され、そして、サブブロック境界はBDOFプロセスでCU境界として扱われる。BDOF処理の最大単位サイズは16×16に制限されている。
双予測演算では、1ブロック領域の予測のために、それぞれlist0の動きベクトル(MV)とlist1のMVを用いて形成された2個の予測ブロックを組み合わせて単一予測信号を形成する。JVET‐K0217における、デコーダ側の動きベクトル精緻化(DMVR)法は、双予測の2個の動きベクトルを、双方向マッチングプロセスによってさらに精緻化する。
(POC-POC0)*(POC-POC1)<0
MV0'=MV0+MVdiff
MV1'=MV1-MVdiff
参照サンプルパディング(reference sample padding)は、初期動きベクトルによって指し示される参照サンプルブロックを拡張するために適用される。コード化ブロックのサイズが「w」と「h」で与えられる場合、サイズw+7およびh+7のブロックが参照ピクチャバッファから取り出されものと仮定される。次いで、取り出されるバッファは、最も近いサンプルを使用する反復的なサンプルパディングによって、各方向に2個のサンプルによって拡張される。その後、拡張された参照サンプルブロックを使用して、精緻化された動きベクトルが得られた後の最終予測を生成する(これは、各方向において初期動きベクトルの2個のサンプルから逸脱する可能性がある)。
提案によれば、DMVR探索プロセス中に双線形補間が適用され、これは、MRSAD計算で使用される予測は双線形補間を用いて生成されることを意味する。最終的に精緻化された動きベクトルが得られると、最終的な予測を生成するために、通常の8タップDCTIF補間フィルタが適用される。
MV精緻化プロセスを閉じ込める(confine)ために、DMVRに追加的な条件が課される。これにより、以下の条件が満たされると、DMVRは条件付きでディセーブルになる。
・選択したマージ候補と同じマージリスト内の以前の候補のいずれかとのMV差は、事前定義された閾値より小さい(すなわち、64ピクセル未満、256ピクセル未満、および、少なくとも256ピクセルを伴うCUについて、それぞれに、1/4、1/2、および1ピクセル幅の間隔)。
現在CUの初期動きベクトルを用いた2個の予測信号(L0およびL1予測)間の絶対差(SAD)の和が計算される。SADが事前定義された閾値以下である場合、すなわち、サンプル毎に2(BDepth-9)、DMVRがスキップされる。そうでなければ、DMVRは、現在ブロックの2個の動きベクトルを精緻化するために、依然として適用される。
MRSADコストは、ブロックの奇数の行(row)に対してのみ計算され、偶数のサンプル行は考慮されない。従って、MRSAD算出のための操作回数は半分になる。
JVET‐K0041では、非常に最小な計算複雑性で1/16pel(1/16th-pel)精度のサブピクセルオフセットを決定するために、整数距離位置評価コスト(integer distance position evaluated costs)を用いて適合させたパラメトリック誤差表面が提案された。
1. 整数MVDの最小マッチングコストが0に等しくなく、かつ、ゼロMVDのマッチングコストが閾値より大きい場合にのみ、パラメトリック誤差表面適合が計算される。
2. 最良の整数位置は、中心位置としてとられ、中心位置のコスト、および、中心位置に対する(-1,0)、(0,-1)、(1,0)、および(0,1)(整数ピクセルの単位で)位置のコストが、以下の形式の2-D放物面誤差面方程式に適合するように使用される。
E(x,y)=A(x-x0)2+B(y-y0)2+C
ここで、(x0,y0)は最小コストのポジションに対応し、そして、Cは最小コストの値に対応している。5個の未知数の5個の方程式を解くことによって、(x0,y0)は次のように計算される。
x0=(E(-1,0)-E(1,0)/(2(E(-1,0)+E(1,0)-2E(0,0)))
y0=(E(0,-1)-E(0,1)/(2(E(0,-1)+E(0,1)-2E(0,0)))
分割が実行される精度(すなわち、商の何ビットが計算されるか)を調整することによって、(x0,y0)は任意の必要なサブピクセル精度まで計算することができる。1/16pel(1/16th-pel)精度では、商の絶対値の4ビットだけが計算される必要があり、これは、CU毎に必要とされる2分割の高速シフト減算ベースの実装に役立つ。
3. 計算された(x0,y0)が整数距離精緻化MVに加算されて、サブピクセル精緻化デルタMVを得る。
VTM5において、DMVRは、以下のモードと特徴でコード化されたCUに適用することができる。
・sps_dmvr_enabled_flagが1に等しい
・双予測MVを用いたCUレベルのマージモード
・現在ピクチャに対して、一方の参照ピクチャは過去のものであり、そして、他方の参照ピクチャは将来のものである
・両方の参照ピクチャから現在ピクチャまでの距離(つまり、POC差)が同じである
・CUには64以上のルマサンプルがある
・CUの高さとCU幅の両方が8ルマのサンプルより大きいか等しい
・BCW重み付け係数が等しい重み付けを示している
・現在ブロックに対してWPがイネーブルされていない
・現在ブロックについてMMVDモードが使用されていない
CUの幅及び/又は高さが16ルマのサンプルより大きい場合は、16ルマのサンプルに等しい幅及び/又は高さを持つサブブロックへとさらに分割される。DMVR検索処理の最大単位サイズは16×16に制限されている。
暗黙的に派生した動き情報を現在CUの予測サンプル生成に直接的に使用するマージモードに加えて、動きベクトル差によるマージモード(merge mode with motion vector differences、MMVD)がVVCに導入される。MMVDフラグは、MMVDモードがCUに使用されるか否かを指定するために、スキップフラグとマージフラグを送信した後で信号化される。
表3:距離インデックスと事前定義されたオフセットの関係
表4:方向インデックスで指定されたMVオフセットのサイン
動き補償のより細かい粒度を達成するために、この貢献は、オプティカルフローによるサブブロックベースのアフィン動き補償予測を精緻化する方法を提案する。サブブロックベースのアフィン動き補償が実行された後で、ルマ予測サンプルは、オプティカルフロー方程式によって導出された差を加えることによって精緻化される。提案されるPROFは、以下の4つのステップで記述される。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
ΔI(i,j)=gx(i,j)*Δνx(i,j)+gy(i,j)*Δνy(i,j)
I'(i,j)=I(i,j)+ΔI(i,j)
VTM5では、通常の単方向予測と双方向予測モードMVDシグナリングに加えて、双方向予測MVDシグナリングのための対称MVDモードが適用される。対称MVDモードでは、list-0とlist-1の両方の参照ピクチャインデックスを含む動き情報とlist-1のMVDが、信号化されないが、導出される。
1. スライスレベルにおいて、変数BiDirPredFlag、RefIdxSymL0、およびRefIdxSymL1が次のように導出される。
- mvd_l1_zero_flagが1の場合、BiDirPredFlagは0に等しく設定される。
- そうでなければ、list-0の最も近い参照ピクチャとlist-1の最も近い参照ピクチャが、参照ピクチャの前方と後方のペアまたは参照ピクチャの後方と前方のペアを形成する場合、BiDirPredFlagは1に設定される。それ以外の場合、BiDirPredFlagは0に設定される。
2. CUレベルにおいて、CUが双予測コード化され、そして、BiDirPredFlagが1に等しい場合、対称モードが使用されるか否かを示している対称モードフラグが明示的に信号化される。
参照ピクチャタイプは、「短期参照ピクチャ(short-term reference pictures、STRP)」または「長期参照ピクチャ(long-term reference pictures、LTRP)」として決定される。STRPとLTRPの両方は現在ブロックの参照ピクチャとして使用できる。図12は、SMVDスキームにおける混合された(mixed)STRPおよびLTRPの使用例を示している。L1_MVDとしてミラー化された(mirrored)L0_MVDを使用することは、L0とL1の参照ピクチャタイプが異なるとき、不正確になる可能性がある。なぜなら、距離差(参照ピクチャ0と現在ピクチャ1との距離および現在ピクチャ1との距離)が大きくなり、各方向の動きベクトルの相関が低くなるためである。図12は、混合されたSTRPとLTRPの使用例を示している。
表5:現在のSMVDスキームと提案スキーム
提案スキームIにおいて、SMVDプロセスは、現在ピクチャが混合された(mixed)参照ピクチャタイプを有する場合に制限される。
提案スキームIIにおいては、長期参照ピクチャが参照ピクチャチェックプロセスで除外されるので、従って、SMVDについて短期参照ピクチャのみを考慮することができる。
DMVR/BDOF/MMVD/PROFの現在の設計は、参照ピクチャタイプが考慮されておらず、有効性が影響を受ける可能性がある。
以下の説明は、いくつかの概念を説明するための例示として考慮されるべきである。これらの説明は狭義に解釈されるべきではない。さらに、これらの技術は、任意の方法で組み合わせることができる。
1.コーディングツールをイネーブルするかディセーブルするか否か、あるいは、ブロックについてコーディングツールを適用する方法は、ブロックの参照ピクチャのタイプ(例えば、長期または短期)、及び/又は参照ピクチャの解像度、及び/又は現在ピクチャの解像度に依存する。
a.一つの例において、ブロックによって使用される少なくとも2個の参照ピクチャ(例えば、双予測のための2個の参照ピクチャ)が、異なる参照ピクチャタイプと関連付けられている場合、コーディングツールは、ブロックに対してディセーブルにされる。 i.代替的に、これらの全てが長期参照ピクチャである場合、現在ピクチャに対する参照ピクチャの各々のPOC距離のチェックは省略される。すなわち、一つの例において、コーディングツールは、POC距離に関係なく使用可能であり得る。
b.一つの例において、ブロックによって使用される少なくとも2個の参照ピクチャ(例えば、双予測のための2個の参照ピクチャ)が、同じ参照ピクチャタイプと関連付けられている場合、コーディングツールは、ブロックに対してイネーブルされてよい。
i.一つの例において、同じ参照ピクチャタイプは、現在ピクチャに対する各参照ピクチャの長期または短期の参照ピクチャタイプ、または、同じ絶対POC距離である。 c.一つの例では、ブロックによって使用されるいくつか又は全ての参照ピクチャ(例えば、双予測のための2個の参照ピクチャ)が、タイプXに等しい同一の参照ピクチャタイプと関連付けられている場合、コーディングツールは、ブロックに対してイネーブルされてよい。
i.一つの例では、タイプXは、短期参照ピクチャタイプである。
ii.代替的に、タイプXに関連付けられていない場合は、コーディングツールをディセーブルにしてよい。
iii.代替的に、タイプY(Xと等しくない)に関連するものがある場合、コーディングツールをディセーブルにしてよい。
iv.一つの例では、タイプXは適応解像度ピクチャ(Adaptive Resolution Picture、ARP)でなくてよい。例えば、タイプXの参照ピクチャの解像度は、現在ピクチャの解像度と同じである。
v.一つの例では、タイプXは、現在ピクチャに対する参照ピクチャの各々の絶対POC距離が同じであってよい。
d.代替的に、ブロックによって使用される参照ピクチャの1つ又は全ての参照ピクチャが、タイプXに等しい同じ参照ピクチャタイプに関連付けられている場合、コーディングツールは、ブロックに対してディセーブルにされる。
i.一つの例では、タイプXは、長期参照ピクチャタイプである。
ii.一つの例では、タイプXは、適応解像度ピクチャ(ARP)であってよい。例えば、タイプXの参照ピクチャの解像度は、現在ピクチャの解像度とは異なる。
e.代替的に、コーディングツールは、典型的な参照ピクチャタイプXの参照ピクチャにのみ適用され得る。
i.一つの例では、タイプXは、短期参照ピクチャタイプである。
ii.一つの例では、タイプXは、適応解像度ピクチャ(ARP)でなくてよい。例えば、タイプXの参照ピクチャの解像度は、現在ピクチャの解像度と同じである。
iii.一つの例では、タイプXは、現在ピクチャに対する参照ピクチャの各々の絶対POC距離が同じであってもよい。
f.一つの例では、コーディングツールは、BDOFコーディングツールである。
g.一つの例では、コーディングツールは、DMVRコーディングツールである。
h.一つの例では、コーディングツールは、MMVDコーディングツールである。
i.一つの例では、コーディングツールは、PROFコーディングツールである。
j.一つの例では、コーディングツールは、アフィン(Affine)コーディングツールである。
k.一つの例では、コーディングツールは、結合イントラ予測ツールである。
l.一つの例では、コーディングツールは、適応動きベクトル解像度(Adaptive Motion Vector Resolution、AMVR)コーディングツールである。
m.一つの例では、コーディングツールは、三角パーティションモード(Triangle Partition Mode、TPM)コーディングツールである。
n.一つの例では、コーディングツールは、SMVDコーディングツールである。
o.一つの例において、コーディングツールは、切り替え可能(switchable)補間フィルタリングコーディングツールである。
p.一つの例では、コーディングツールは、BCW(すなわち、CUレベルの重み付けによる双予測)コーディングツールである。
q.一つの例では、コーディングツールは、DMVDといった、コード化された情報に基づいてブロックの動き情報を精緻化するコーディングツールである(例えば、時間的マッチングに基づく方法)。
r.一つの例では、コーディングツールは、コード化された情報に基づいてブロックの予測信号を精緻化するコーディングツールである(例えば、オプティカルフローによる符号化方法)。
2.BDOFの有効化/無効化は、参照ピクチャタイプに依存してよい。
a.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプである場合、BDOFがイネーブルされてよい。つまり、2つのタイプが異なる場合、BDOFがディセーブルされ得る。
i.一つの例において、BDOFは、過去の参照ピクチャ(例えば、現在ピクチャと比較してPOC値が小さい)および将来の参照ピクチャ(例えば、現在ピクチャと比較してPOC値が大きい)の両方が、現在ピクチャと比較して各参照ピクチャの長期または短期の参照ピクチャであり、または、同じ絶対POC距離である場合に、イネーブルされ得る。
b.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプXである場合、BDOFがイネーブルされてよい。
i.一つの例では、過去の参照ピクチャおよび将来の参照ピクチャの両方が短期の参照ピクチャである場合に、BDOFをイネーブルすることができる。
ii.一つの例では、タイプXは、短期参照ピクチャタイプである。
iii.一つの例では、タイプXは、適応解像度ピクチャ(ARP)でなくてよい。例えば、タイプXの参照ピクチャの解像度は、現在ピクチャの解像度と同じである。
iv.代替的に、参照ピクチャの少なくとも1つはタイプXではなく、BDOFがディセーブルにされてよい。
v.一つの例では、タイプXは、現在ピクチャに対する参照ピクチャの各々の絶対POC距離が同じであってよい。
3.DMVRの有効化/無効化は、参照ピクチャタイプに依存してよい。
a.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプである場合、DMVRがイネーブルされてよい。つまり、2つのタイプが異なる場合、DMVRがディセーブルされてよい。
i.一つの例では、DMVRは、過去の参照ピクチャ(例えば、現在ピクチャと比較してPOC値が小さい)および将来の参照ピクチャ(例えば、現在ピクチャと比較してPOC値が大きい)の両方が、現在ピクチャと比較して、参照ピクチャのそれぞれの長期または短期の参照ピクチャであり、または、同じ絶対POC距離である場合に、イネーブルされてよい。
b.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプXである場合、DMVRがイネーブルされてよい。
i.一つの例では、過去の参照ピクチャと将来の参照ピクチャの両方が短期の参照ピクチャである場合に、DMVRがイネーブルされてよい。
ii.一つの例では、タイプXは、短期参照ピクチャタイプである。
iii.一つの例では、タイプXは、適応解像度ピクチャ(ARP)でなくてよい。例えば、タイプXの参照ピクチャの解像度は、現在ピクチャの解像度と同じである。
iv.代替的に、参照ピクチャの少なくとも1つはタイプXではなく、DMVRはディセーブルにされてよい。
v.一つの例では、タイプXは、現在ピクチャに対する参照ピクチャの各々の絶対POC距離が同じであってよい。
c.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプYである場合、現在ピクチャに対する参照ピクチャの各々のPOC距離のチェックは省略される。すなわち、DMVRは、POC距離に関係なくイネーブルされてよい。
i.一つの例では、タイプYは、長期参照ピクチャタイプである。
4.MMVD/BCW/PROF/TPM/SMVD/Affineがイネーブルされているか否か、または、MMVD/BCW/PROF/TPM/SMVD/Affineの適用方法は、参照ピクチャタイプに依存してよい。
a.一つの例では、全ての参照ピクチャが同じ参照ピクチャタイプを持つ場合、MMVD/BCW/PROF/TPM/SMVD/Affineがイネーブルされ、そうでない場合、MMVD/BCW/PROF/TPM/SMVD/Affineがディセーブルされ得る。
b.一つの例では、全ての参照ピクチャが参照ピクチャタイプXである場合、MMVD/BCW/PROF/TPM/SMVD/Affineがイネーブルされてよい。
i.一つの例では、タイプXは、短期参照ピクチャタイプである。
ii.一つの例では、タイプXは、現在ピクチャに対する参照ピクチャの各々の絶対POC距離が同じであってもよい。
c.一つの例では、このような制限は、双方向予測ブロックに適用され得る。
d.一つの例では、このような制限は、単方向予測ブロックに適用され得る。
e.一つの例では、このような制限は、双方向予測ブロックおよび単方向予測ブロックの両方に適用され得る。
f.一つの例では、MMVD/BCW/TPM/SMVD/Affineがディセーブルされている場合、MMVD/BCW/TPM/SMVD/Affineが適用されているか否かの表示は、信号化されなくてよい。
i.代替的に、そのような表示は、依然として信号化される。しかしながら、適合性ビットストリームに対して、指示は常に偽である。すなわち、MMVD/BCW/TPM/SMVD/Affineはディセーブルされる。
5.本文書において開示される参照ピクチャの「参照タイプ」は、判断すること(judging)によって決定され得る。
a.参照ピクチャは、長期または短期である。
b.参照ピクチャの元の解像度は、現在ピクチャと同じか、または、そうでない。
参照ピクチャと現在ピクチャのPOC距離は、一定の範囲内にある。
c.参照ピクチャの時間層は、所定の範囲内にある。
d.所定のコーディングツールが参照ピクチャに適用されているか否か。
MMVDのためのMVD導出の簡素化
6.MMVDについて、MVDスケール化(scaling)が除去されてよい。MMVDモードで選択したMVベース(または、ベースマージ候補)が双方向MVである場合、予測方向X(X=0または1)のMVDは、信号化されたMVDに直接的に等しく設定され、そして、予測方向Y(Y=1-X)のMVDは、信号化されたMVD、または、信号化されたMVDの反対値に等しく設定されてよい。
a.一つの例では、MVベース(MV basis)によって識別される両方の参照ピクチャが、現在ピクチャよりも大きい又は小さいPOCを有する場合、予測方向YのMVDは、信号化されたMVDと等しく設定され得る。
b.一つの例では、MVベースによって識別される一方の参照ピクチャが現在ピクチャよりも大きなPOCを有し、かつ、MVベースによって識別される他方の参照ピクチャが現在ピクチャよりも小さなPOCを有する場合、予測方向YのMVDは、信号化されたMVDの反対の値に等しく設定され得る。
7.MMVDにおいて、MVDは、予測方向X(X=0または1)について常に信号化され、そして、必要に応じて(例えば、MVベースが双方向MVである場合)予測方向Y(Y=1-X)に対して導出され得る。
a.一つの例において、MVベースが単方向MVである場合、Xは、MVベースの予測方向に等しく設定され得る。
b.一つの例において、MVベースが双方向MVである場合、Xは、0または1に等しく設定され得る。
c.一つの例において、参照ピクチャリストYのMVDは、MVベースによって識別される2個の参照ピクチャの参照ピクチャタイプ(例えば、長期参照ピクチャまたは短期参照ピクチャ)に依存して導出され得る。
i.一つの例では、両方の参照ピクチャが短期の参照ピクチャである場合、予測方向YのMVDは、2個の参照ピクチャと現在ピクチャとの間のPOC距離に従って、信号化されたMVDをスケーリングすることによって導出され得る。
ii.一つの例では、2個の参照ピクチャが両方とも現在ピクチャより大きい又は小さいPOCを有する場合、予測方向YのMVDは、信号化されたMVDと等しく設定され得る。
(i)代替的に、さらに、そのような導出方法は、参照ピクチャの少なくとも1つが短期参照ピクチャでない場合にのみ適用することができる。
iii.一つの例において、一方の参照ピクチャが現在ピクチャよりも大きなPOCを有し、他方の参照ピクチャが現在ピクチャよりも小さなPOCを有する場合、予測方向YのMVDは、信号化されたMVDの反対の値に等しく設定され得る。
(i)代替的に、さらに、そのような導出方法は、参照ピクチャの少なくとも1つが短期参照ピクチャでない場合にのみ適用することができる。
削除された部分は二重括弧でマークされ([[a]]は文字「a」の削除を示す)、そして、新しく追加された部分はイタリック体と太字体で強調表示されている。
装置。
Claims (16)
- ビデオデータを処理する方法であって、
ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換について、前記第1変換のために使用される第1参照ピクチャのタイプに基づいて、第1コーディングツールの前記第1ビデオブロックへの適用性を決定するステップであり、
前記第1コーディングツールは、前記第1ビデオブロックの参照ブロック内のサンプルに対応する少なくとも1つの勾配値に基づいて、動きベクトルを精緻化するため、または、信号化された動きベクトルに対してオフセットを有する少なくとも1つの動きベクトルに基づいて、前記信号化された動きベクトルを精緻化するために使用され、かつ、前記第1参照ピクチャのタイプは、少なくとも、前記第1参照ピクチャが短期参照ピクチャであるか否かに基づいている、
ステップと、
前記決定に基づいて、前記第1変換を実行するステップと、
前記ビデオの第2ピクチャのアフィンブロックである第2ビデオブロックと、前記ビデオの前記ビットストリームとの間の第2変換について、前記第2変換のために使用される少なくとも1つの第2参照ピクチャが適応解像度ピクチャであるか否かに基づいて、第2コーディングツールの前記第2ビデオブロックへの適用性を決定するステップと、
前記決定に基づいて、前記第2変換を実行するステップと、を含み、
前記第2コーディングツールは、
前記第2ビデオブロックのサブブロックの初期予測サンプルを生成すること、および、
予測精緻化を得ることによって、前記サブブロックについて最終的な予測サンプルを生成するように、オプティカルフロー操作を適用すること、
を含む、
方法。 - 前記第1参照ピクチャのタイプは、さらに、前記第1参照ピクチャの解像度が前記第1ピクチャの解像度と異なるか否かに基づいている、
請求項1に記載の方法。 - 前記第1参照ピクチャのタイプは、さらに、前記第1ピクチャに対する前記第1参照ピクチャのピクチャオーダカウント距離に基づいている、
請求項1または2に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
前記第1参照ピクチャのうち少なくとも2つが異なるタイプのものであるせいで、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがディセーブルされることを決定するステップ、
を含む、請求項1乃至3いずれか一項に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
前記第1参照ピクチャの1つ又は全てが短期参照ピクチャでない場合に、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがディセーブルされることを決定するステップ、
を含む、請求項1乃至4いずれか一項に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
前記第1参照ピクチャの1つ又は全てが適応解像度ピクチャであり、前記第1参照ピクチャの1つ又は全てが前記第1ピクチャの解像度と異なる解像度を有する場合に、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがディセーブルされることを決定するステップ、
を含む、請求項1乃至5いずれか一項に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
短期参照ピクチャである前記第1参照ピクチャそれぞれに基づいて、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがイネーブルされることを決定するステップ、
を含む、請求項1乃至6いずれか一項に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
前記第1参照ピクチャのいずれもが適応解像度ピクチャではないことに基づいて、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがイネーブルされることを決定するステップ、を含み、
前記第1参照ピクチャそれぞれは、前記第1ピクチャの解像度と同じ解像度を有する、
請求項1乃至7いずれか一項に記載の方法。 - 前記第1コーディングツールの適用性を決定するステップは、
前記第1参照ピクチャが前記第1ピクチャに対して同じ絶対ピクチャオーダカウント(POC)距離を有していることに基づいて、前記第1ビデオブロックを伴う使用について前記第1コーディングツールがイネーブルされることを決定するステップ、
を含む、請求項1乃至8いずれか一項に記載の方法。 - 第2コーディングツールの適用性を決定するステップは、
前記少なくとも1つの第2参照ピクチャのうち1つ又は全てが適応解像度ピクチャ(ARP)である場合に、前記第2ビデオブロックを伴う使用について前記第2コーディングツールがディセーブルされることを決定するステップを含み、
前記少なくとも1つの第2参照ピクチャのうち1つ又は全てが前記第2ピクチャの解像度と異なる解像度を有する、
請求項1に記載の方法。 - 第2コーディングツールの適用性を決定するステップは、
前記少なくとも1つの第2参照ピクチャのいずれもが適応解像度ピクチャ(ARP)ではないことに基づいて、前記第2ビデオブロックを伴う使用について前記第2コーディングツールがイネーブルされることを決定するステップを含み、かつ、
前記少なくとも1つの第2参照ピクチャそれぞれは、前記第2ピクチャの解像度と同じ解像度を有する、
請求項1に記載の方法。 - 前記第1変換は、前記第1ビデオブロックを前記ビットストリームへとエンコーディングすること、を含む、
請求項1乃至11いずれか一項に記載の方法。 - 前記第1変換は、前記ビットストリームから前記第1ビデオブロックをデコーディングすること、を含む、
請求項1乃至11いずれか一項に記載の方法。 - ビデオデータを処理するための装置であって、プロセッサと、命令を有する非一時メモリとを備え、前記プロセッサによって実行されると、前記命令は、前記プロセッサに、
ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換について、前記第1変換のために使用される第1参照ピクチャのタイプに基づいて、第1コーディングツールの前記第1ビデオブロックへの適用性を決定し、
前記第1コーディングツールは、前記第1ビデオブロックの参照ブロック内のサンプルに対応する少なくとも1つの勾配値に基づいて、動きベクトルを精緻化するため、または、信号化された動きベクトルに対してオフセットを有する少なくとも1つの動きベクトルに基づいて、前記信号化された動きベクトルを精緻化するために使用され、かつ、前記第1参照ピクチャのタイプは、少なくとも、前記第1参照ピクチャが短期参照ピクチャであるか否かに基づいており、
前記決定に基づいて、前記第1変換を実行し、
前記ビデオの第2ピクチャのアフィンブロックである第2ビデオブロックと、前記ビデオの前記ビットストリームとの間の第2変換について、前記第2変換のために使用される少なくとも1つの第2参照ピクチャが適応解像度ピクチャであるか否かに基づいて、第2コーディングツールの前記第2ビデオブロックへの適用性を決定し、
前記決定に基づいて、前記第2変換を実行する、
ようにさせ、
前記第2コーディングツールは、
前記第2ビデオブロックのサブブロックの初期予測サンプルを生成すること、および、
予測精緻化を得ることによって、前記サブブロックについて最終的な予測サンプルを生成するように、オプティカルフロー操作を適用すること、
を含む、
装置。 - 命令を保管している非一時的コンピュータ読取り可能記憶媒体であって、前記命令は、プロセッサに、
ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換について、前記第1変換のために使用される第1参照ピクチャのタイプに基づいて、第1コーディングツールの前記第1ビデオブロックへの適用性を決定し、
前記第1コーディングツールは、前記第1ビデオブロックの参照ブロック内のサンプルに対応する少なくとも1つの勾配値に基づいて、動きベクトルを精緻化するため、または、信号化された動きベクトルに対してオフセットを有する少なくとも1つの動きベクトルに基づいて、前記信号化された動きベクトルを精緻化するために使用され、かつ、前記第1参照ピクチャのタイプは、少なくとも、前記第1参照ピクチャが短期参照ピクチャであるか否かに基づいており、
前記決定に基づいて、前記第1変換を実行し、
前記ビデオの第2ピクチャのアフィンブロックである第2ビデオブロックと、前記ビデオの前記ビットストリームとの間の第2変換について、前記第2変換のために使用される少なくとも1つの第2参照ピクチャが適応解像度ピクチャであるか否かに基づいて、第2コーディングツールの前記第2ビデオブロックへの適用性を決定し、
前記決定に基づいて、前記第2変換を実行する、
ようにさせ、
前記第2コーディングツールは、
前記第2ビデオブロックのサブブロックの初期予測サンプルを生成すること、および、
予測精緻化を得ることによって、前記サブブロックについて最終的な予測サンプルを生成するように、オプティカルフロー操作を適用すること、
を含む、
非一時的コンピュータ読取り可能記憶媒体。 - ビデオのビットストリームを保管するための方法であって、
前記方法は、
ビデオの第1ピクチャの第1ビデオブロックについて、前記第1ビデオブロックに使用される第1参照ピクチャのタイプに基づいて、第1コーディングツールの前記第1ビデオブロックへの適用性を決定するステップであり、
前記第1コーディングツールは、前記第1ビデオブロックの参照ブロック内のサンプルに対応する少なくとも1つの勾配値に基づいて、動きベクトルを精密化するため、または、信号化された動きベクトルに対してオフセットを有する少なくとも1つの動きベクトルに基づいて、前記信号化された動きベクトルを精密化するために使用され、かつ、前記第1参照ピクチャのタイプは、少なくとも、前記第1参照ピクチャが短期参照ピクチャであるか否かに基づいている、
ステップと、
前記決定に基づいて、前記ビットストリームを生成するステップと、
前記ビデオの第2ピクチャのアフィンブロックである第2ビデオブロックと、前記ビデオの前記ビットストリームとの間の第2変換について、前記第2変換のために使用される少なくとも1つの第2参照ピクチャが適応解像度ピクチャであるか否かに基づいて、第2コーディングツールの前記第2ビデオブロックへの適用性を決定するステップと、
前記決定に基づいて、前記第2変換を実行するステップと、を含み、
前記第2コーディングツールは、
前記第2ビデオブロックのサブブロックの初期予測サンプルを生成すること、および、
予測精緻化を得ることによって、前記サブブロックについて最終的な予測サンプルを生成するように、オプティカルフロー操作を適用すること、
を含む、
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023121183A JP2023153885A (ja) | 2019-07-27 | 2023-07-26 | 参照ピクチャタイプに従ったツールの使用制限 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019098068 | 2019-07-27 | ||
CNPCT/CN2019/098068 | 2019-07-27 | ||
PCT/CN2020/104087 WO2021018031A1 (en) | 2019-07-27 | 2020-07-24 | Restrictions of usage of tools according to reference picture types |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023121183A Division JP2023153885A (ja) | 2019-07-27 | 2023-07-26 | 参照ピクチャタイプに従ったツールの使用制限 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540942A JP2022540942A (ja) | 2022-09-20 |
JP7322277B2 true JP7322277B2 (ja) | 2023-08-07 |
Family
ID=74229466
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503412A Active JP7322277B2 (ja) | 2019-07-27 | 2020-07-24 | 参照ピクチャタイプに従ったツールの使用制限 |
JP2023121183A Pending JP2023153885A (ja) | 2019-07-27 | 2023-07-26 | 参照ピクチャタイプに従ったツールの使用制限 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023121183A Pending JP2023153885A (ja) | 2019-07-27 | 2023-07-26 | 参照ピクチャタイプに従ったツールの使用制限 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11323698B2 (ja) |
EP (1) | EP3984227A4 (ja) |
JP (2) | JP7322277B2 (ja) |
KR (1) | KR20220038060A (ja) |
CN (2) | CN117560490A (ja) |
WO (1) | WO2021018031A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220038060A (ko) | 2019-07-27 | 2022-03-25 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 참조 픽처 유형들에 따른 툴들의 사용의 제한들 |
WO2023191404A1 (ko) * | 2022-03-27 | 2023-10-05 | 엘지전자 주식회사 | 적응적 mts에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 |
JP2024002460A (ja) * | 2022-06-24 | 2024-01-11 | シャープ株式会社 | 動画像復号装置および動画像符号化装置 |
WO2024086568A1 (en) * | 2022-10-17 | 2024-04-25 | Bytedance Inc. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175720A1 (en) | 2017-03-22 | 2018-09-27 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9008181B2 (en) * | 2011-01-24 | 2015-04-14 | Qualcomm Incorporated | Single reference picture list utilization for interprediction video coding |
US20130070855A1 (en) | 2011-09-17 | 2013-03-21 | Qualcomm Incorporated | Hybrid motion vector coding modes for video coding |
US9525861B2 (en) | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
US10200709B2 (en) * | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US9479776B2 (en) * | 2012-07-02 | 2016-10-25 | Qualcomm Incorporated | Signaling of long-term reference pictures for video coding |
US9674542B2 (en) * | 2013-01-02 | 2017-06-06 | Qualcomm Incorporated | Motion vector prediction for video coding |
WO2014166119A1 (en) | 2013-04-12 | 2014-10-16 | Mediatek Inc. | Stereo compatibility high level syntax |
WO2015006967A1 (en) | 2013-07-19 | 2015-01-22 | Mediatek Singapore Pte. Ltd. | Simplified view synthesis prediction for 3d video coding |
EP3025498B1 (en) | 2013-08-13 | 2019-01-16 | HFI Innovation Inc. | Method of deriving default disparity vector in 3d and multiview video coding |
WO2015057124A1 (en) * | 2013-10-14 | 2015-04-23 | Telefonaktiebolaget L M Ericsson (Publ) | Picture order count alignment in scalble video |
US20150160390A1 (en) | 2013-12-10 | 2015-06-11 | Apple Inc. | Display Having Polarizer with Unpolarized Strip |
WO2015100710A1 (en) | 2014-01-02 | 2015-07-09 | Mediatek Singapore Pte. Ltd. | Existence of inter-view reference picture and availability of 3dvc coding tools |
US10158884B2 (en) | 2014-03-19 | 2018-12-18 | Qualcomm Incorporated | Simplified merge list construction process for 3D-HEVC |
EP3544298A1 (en) | 2014-09-12 | 2019-09-25 | Vid Scale, Inc. | Inter-component de-correlation for video coding |
US10924743B2 (en) | 2015-02-06 | 2021-02-16 | Microsoft Technology Licensing, Llc | Skipping evaluation stages during media encoding |
US10958927B2 (en) * | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
CN108293131B (zh) | 2015-11-20 | 2021-08-31 | 联发科技股份有限公司 | 基于优先级运动矢量预测子推导的方法及装置 |
US11638027B2 (en) * | 2016-08-08 | 2023-04-25 | Hfi Innovation, Inc. | Pattern-based motion vector derivation for video coding |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
US10491917B2 (en) * | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US11265551B2 (en) | 2018-01-18 | 2022-03-01 | Qualcomm Incorporated | Decoder-side motion vector derivation |
EP3780608A4 (en) * | 2018-04-02 | 2021-12-01 | SZ DJI Technology Co., Ltd. | IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE |
WO2019234578A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Asymmetric weighted bi-predictive merges |
CN116647697A (zh) | 2018-09-23 | 2023-08-25 | 北京字节跳动网络技术有限公司 | 具有自适应运动矢量分辨率的运动矢量精度指示的信令通知 |
TW202029755A (zh) | 2018-09-26 | 2020-08-01 | 美商Vid衡器股份有限公司 | 視訊編碼雙預測 |
WO2020084461A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on coding information |
WO2020084462A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on block size |
WO2020084502A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Video processing using local illumination compensation |
CN117241017A (zh) | 2018-11-05 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 数字视频编解码的方法、设备和系统 |
JP7354241B2 (ja) | 2018-11-07 | 2023-10-02 | 華為技術有限公司 | ビデオエンコーダ、ビデオデコーダ、及び対応する方法 |
CN113170192B (zh) | 2018-11-15 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 仿射的merge与mvd |
WO2020098810A1 (en) | 2018-11-17 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Merge with motion vector difference in video processing |
CN117915083A (zh) | 2018-11-29 | 2024-04-19 | 北京字节跳动网络技术有限公司 | 块内拷贝模式和帧间预测工具之间的交互 |
CN116915983B (zh) * | 2019-02-20 | 2024-04-16 | 北京达佳互联信息技术有限公司 | 用于视频解码的方法、计算设备、存储介质和程序产品 |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
WO2020228671A1 (en) | 2019-05-10 | 2020-11-19 | Beijing Bytedance Network Technology Co., Ltd. | Multiple secondary transform matrices for video processing |
KR20220038060A (ko) | 2019-07-27 | 2022-03-25 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 참조 픽처 유형들에 따른 툴들의 사용의 제한들 |
US20210092404A1 (en) * | 2019-09-20 | 2021-03-25 | Qualcomm Incorporated | Reference picture constraint for decoder side motion refinement and bi-directional optical flow |
-
2020
- 2020-07-24 KR KR1020227001906A patent/KR20220038060A/ko not_active Application Discontinuation
- 2020-07-24 EP EP20848261.2A patent/EP3984227A4/en active Pending
- 2020-07-24 WO PCT/CN2020/104087 patent/WO2021018031A1/en unknown
- 2020-07-24 JP JP2022503412A patent/JP7322277B2/ja active Active
- 2020-07-24 CN CN202311524871.9A patent/CN117560490A/zh active Pending
- 2020-07-24 CN CN202080054662.0A patent/CN114175655B/zh active Active
-
2021
- 2021-12-09 US US17/546,717 patent/US11323698B2/en active Active
-
2022
- 2022-03-24 US US17/703,725 patent/US11589039B2/en active Active
-
2023
- 2023-02-21 US US18/172,034 patent/US20230239465A1/en active Pending
- 2023-07-26 JP JP2023121183A patent/JP2023153885A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175720A1 (en) | 2017-03-22 | 2018-09-27 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
Non-Patent Citations (4)
Title |
---|
Hongbin Liu, et al.,CE9-related: Disabling DMVR and BDOF when underlying assumptions are false,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0440_r1,14th Meeting: Geneva, CH,2019年03月,pp.1-4 |
Jiancong (Daniel) Luo, and Yuwen He,CE2-related: Prediction refinement with optical flow for affine mode,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0236-r1,14th Meeting: Geneva, CH,2019年03月,pp.1-7 |
Tsui-Shan Chang, et al.,AHG8: Support for reference picture resampling - handling of resampling, TMVP, DMVR, and BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0134-v2,15th Meeting: Gothernburg, SE,2019年06月,pp.1-4 |
Weiran Li, and Xiaozhen Zheng,CE11: Results on composite reference picture (test 11.1.1, 11.1.2, 11.1.3, 11.1.4, 11.2.1 and 11.2.2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0156-v2,11th Meeting: Ljubljana, SI,2018年07月,pp.1-10 |
Also Published As
Publication number | Publication date |
---|---|
WO2021018031A1 (en) | 2021-02-04 |
JP2022540942A (ja) | 2022-09-20 |
EP3984227A4 (en) | 2022-08-17 |
CN114175655A (zh) | 2022-03-11 |
KR20220038060A (ko) | 2022-03-25 |
CN117560490A (zh) | 2024-02-13 |
US20220109827A1 (en) | 2022-04-07 |
JP2023153885A (ja) | 2023-10-18 |
US11589039B2 (en) | 2023-02-21 |
US20220217334A1 (en) | 2022-07-07 |
US11323698B2 (en) | 2022-05-03 |
EP3984227A1 (en) | 2022-04-20 |
CN114175655B (zh) | 2024-01-02 |
US20230239465A1 (en) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632566B2 (en) | Inter prediction with refinement in video processing | |
JP7307192B2 (ja) | デコーダ側の動きベクトルの導出 | |
US11876932B2 (en) | Size selective application of decoder side refining tools | |
WO2020187199A1 (en) | Calculation of prediction refinement based on optical flow | |
JP7322277B2 (ja) | 参照ピクチャタイプに従ったツールの使用制限 | |
WO2020211755A1 (en) | Motion vector and prediction sample refinement | |
WO2020224613A1 (en) | Unified calculation method for inter prediction with refinement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |