JP2021530154A - 効率的なアフィンマージ動きベクトル導出 - Google Patents
効率的なアフィンマージ動きベクトル導出 Download PDFInfo
- Publication number
- JP2021530154A JP2021530154A JP2020573104A JP2020573104A JP2021530154A JP 2021530154 A JP2021530154 A JP 2021530154A JP 2020573104 A JP2020573104 A JP 2020573104A JP 2020573104 A JP2020573104 A JP 2020573104A JP 2021530154 A JP2021530154 A JP 2021530154A
- Authority
- JP
- Japan
- Prior art keywords
- block
- adjacent
- motion vector
- current block
- affine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 208
- 239000013598 vector Substances 0.000 title claims abstract description 145
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 title claims abstract description 134
- 238000009795 derivation Methods 0.000 title claims abstract description 21
- 238000003672 processing method Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 154
- 230000009466 transformation Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000009941 weaving Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 19
- 230000002146 bilateral effect Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 241000023320 Luma <angiosperm> Species 0.000 description 6
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 6
- 230000000717 retained effect Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000001788 irregular Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 101150095908 apex1 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本特許文献は、ビデオ/イメージ符号化技術に関係がある。具体的に、それは、ビデオ/イメージ符号化におけるサブブロックに基づく予測に関係がある。それは、HEVCのような既存のビデオ符号化規格、又は最終決定されるべき規格(バーサタイルビデオ符号化)に適用されてよい。それはまた、将来のビデオ/イメージ符号化規格又はビデオ/イメージコーデックにも適用可能である。
サブブロックに基づく予測は、HEVC Annex I(3D−HEVC)によってビデオ符号化規格に最初に導入される。サブブロックに基づく予測により、符号化ユニット(Coding Unit,CU)又は予測ユニット(Prediction Unit,PU)などのブロックは、いくつかの重なり合わないサブブロックに分けられる。異なるサブブロックは、参照インデックス又は動きベクトル(Motion Vector,MV)などの異なる動き情報を割り当てられてよく、動き補償(Motion Compensation,MC)は、サブブロックごとに個別に実行される。図1は、サブブロックに基づく予測の概念を表す。
HEVCでは、平行移動モデルが動き補償予測(Motion Compensation Prediction,MCP)のために適用される。現実世界では、多くの種類の動き、例えば、ズームイン/アウト、回転、視点動作(perspective motions)及び他の不規則な動きがある。JEMでは、簡単化されたアフィン変換動き補償予測が適用される。図2に示されるように、ブロックのアフィン動き場は、2つの制御点動きベクトルによって記述される。
選択的時間動きベクトル予測(ATMVP)法では、動きベクトルの時間動きベクトル予測(TMVP)は、現在のCUよりも小さいブロックから複数組の動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって変更される。図6に示されるように、サブCUは、正方形のN×Nブロックである(Nは、デフォルトで4にセットされる)。
この方法では、サブCUの動きベクトルは、ラスタスキャン順序に従って、再帰的に導出される。図7は、この概念を表す。4つの4×4サブCU A、B、C及びDを含む8×8CUを考える。現在のフレームにおける隣接する4×4ブロックは、a、b、c及びdと表記される。
双方向オプティカルフロー(BIO)は、双予測(bi-prediction)のためにブロックワイズの動き補償に加えて実行されるサンプルワイズの動き精緻化である。サンプルレベルの動き精緻化は、シグナリングを使用しない。
r=500・4d−8 (10)
m=700・4d−8 (11)
FRUCフラグは、CUについて、そのマージフラグが真である場合に伝送される。FRUCフラグが偽である場合に、マージインデックスが伝送され、通常のマージモードが使用される。FRUCフラグが真である場合には、どの方法(バイラテラルマッチング又はテンプレートマッチング)がブロックの動き情報を導出するために使用されるべきかを示すために、追加的なFRUCモードフラグが伝送される。
CUレベルでのMV候補セットは:
(i)現在のCUがAMVPモードにある場合に、原AMVP候補、
(ii)全てのマージ候補、
(iii)補間されたMV場におけるいくつかのMV(後述される)、
(iv)上及び左隣の動きベクトル
から成る。
サブCUレベルでのMV候補セットは:
(i)CUレベル探索から決定されたMV、
(ii)上、左、左上及び右上の隣接するMV、
(iii)参照ピクチャからの同一位置MVのスケーリングされたバージョン、
(iv)最大4個のATMVP候補、
(v)最大4個のSTMVP候補
から成る。
フレームを符号化する前に、補間された動き場が、ユニラテラルMEに基づいてピクチャ全体について生成される。次いで、動き場は、CUレベル又はサブCUレベルのMV候補として後に使用されてよい。
動きベクトルが分数サンプル位置を指す場合に、動き補償された補間が必要とされる。複雑さを軽減するよう、通常の8タップHEVC補間の代わりに、双線形補間が、バイラテラルマッチング及びテンプレートマッチングの両方のために使用される。
MV精緻化は、バイラテラルマッチング又はテンプレートマッチングの基準によるパターンに基づくMV探索である。JEMでは、2つの探索パターンがサポートされる。夫々CUレベル及びサブCUレベルでのMV精緻化のための制約なし中心バイアス化ダイヤモンド探索アルゴリズム(unrestricted center-biased diamond search,UCBDS)及び適応横断探索(adaptive cross search)である。CUレベル及びサブCUレベルの両方の精緻化のために、MVは、4分の1ルーマサンプルMV精度で直接探索され、この後に、8分の1ルーマサンプルMV精緻化が続く。CU及びサブCUステップのためのMV精緻化の探索範囲は、8個のルーマサンプルに等しくセットされる。
バイラテラルマッチングマージモードでは、CUの動き情報が、2つの異なる参照ピクチャにおける現在のCUの動き軌跡に沿った2つのブロック間の最も近い一致に基づき導出されるので、双予測が常に適用される。テンプレートマッチングマージモード場合には、そのような制限はない。テンプレートマッチングマージモードでは、エンコーダは、CUのためにリスト0からの片予測(uni-prediction)、リスト1からの片予測、又は双予測から選択することができる。選択は、次のように、テンプレートマッチングコストに基づく:
costBi≦factor×min(cost0,cost1)の場合、
双予測が使用される;
そうではなく、cost0≦cost1の場合、
リスト0からの片予測が使用される;
上記以外の場合、
リスト1からの片予測が使用される。
織り込み予測(interweaved prediction)によれば、ブロックは、1つよりも多い分割パターンによりサブブロックに分けられる。分割パターンは、サブブロックのサイズ及びサブブロックの位置を含む、ブロックをサブブロックに分ける方法として定義される。分割パターンごとに、対応する予測ブロックは、分割パターンに基づいて各サブブロックの動き情報を導出することによって生成され得る。従って、1つの予測方向についてさえ、複数の予測ブロックが、多数の分割パターンによって生成され得る。代替的に、予測方向ごとに、ただ1つの分割パターンしか適用されなくてもよい。
図5に示されるようにアフィンマージMV導出プロセスには2つの潜在的な欠点がある。
織り込み予測及びアフィンマージMV導出プロセスを含むサブブロックに基づく予測を更に改善するいくつかの方法を提案する。
1.一実施形態で、サブブロックのMVは、そのサブブロックの中心について導出される。
a.代替的に、サブブロックのMVは、そのサブブロック内の如何なる位置についても導出され、その位置は、サブブロックの中心になくてもよい。
b.代替的に、MVが導出される位置は、サブブロックごとに異なってよい。(位置は、各サブブロックに関連する。)
c.MVが導出される位置は、サブブロックの配置に依存してよい。図14は例を示す。
d.M×Nによってサブブロックを表す。このとき、中心位置は((M>>1)+a)×((N>>1)+b)と表すことができ、a、bは0又は−1である。
2.一実施形態で、制御点でのMV(例えば、左上の点でのmv0及び右上の点でのmv1)は、アフィンマージMV導出プロセスにおいて、隣接する近傍ブロックの情報によってのみ導出される。一例において、隣接するCUのサイズ及び左上の点の座標、並びに現在のCUに隣接しない4×4ブロックのMVは、アフィンマージモードにより現在のCUのMVを導出するために必要とされない。
a.一実施形態で、アフィンパラメータ(例えば、式(1)中の4パラメータアフィンモードのためのa、b、c及びd)は、アフィンモード(アフィンインターモード及びアフィンマージモードを含む)で符号化された各ブロックにおいて保持される。
i.ブロックがアフィンマージモードで符号化される場合に、それは、アフィンモードで符号化された隣接ブロックからの4つのパラメータを引き継ぐ。
ii.一例において、4つのパラメータは、リスト0及びリスト1について異なっている。
iii.一例において、両方の参照ピクチャリストのパラメータが保持されてよい。代替的に、ひと組のアフィンパラメータしか、双予測のためでさえ保持されなくてもよい。代替的に、多重仮説(multiple hypothesis)の場合に、2組のアフィンパラメータが保持され、各1つが、双予測のための1つの参照ピクチャリストに対応する。
b.一実施形態で、ひと組のアフィンパラメータの一部(例えば、4パラメータアフィンのための式(1)中の2つのパラメータ(a及びb))のみが、アフィンモード(アフィンインターモード及びアフィンマージモードを含む)で符号化された各ブロックにおいて保持される。ブロックがアフィンマージモードで符号化される場合に、それは、アフィンモードで符号化された隣接ブロックから、保持されている一部のパラメータを引き継ぐ。
i.一例において、異なる参照ピクチャ又は異なる参照ピクチャリストは、全ての関連する一部のアフィンパラメータを保持してよい。
ii.2つのパラメータは、リスト0及びリスト1について異なっている。
c.一実施形態で、式(1)中のv0x及びv0y(c及びdとも表される)は、現在のブロックの左上角に隣接するブロックから導出される。次の例では、現在のブロックは、アフィンモードで符号化された隣接ブロックGにマージされることが考えられる。
i.一例において、図15に示される3つの隣接ブロックR、S及びTは、(v0x,v0y)を導出するために使用される。3つのブロックにおけるMVは、MV(R)、MV(S)及びMV(T)と表記される。
(a)一例において、(v0x,v0y)は、Xがインター符号化される場合に、MV(X)に等しくセットされる(XはR、S又はTであることができる)。
(b)一例において、(v0x,v0y)は、R、S及びTがインター符号化される場合に、MV(R)、MV(S)及びMV(T)の平均に等しくセットされる。
(c)一例において、(v0x,v0y)は、X及びYがインター符号化される場合に、MV(X)及びMV(Y)の平均に等しくセットされる(X及びYはR、S又はTであることができる)。
(d)一例において、(v0x,v0y)は、MV(X)に等しくセットされ、MV(X)は、ブロックGの同じリファレンスを参照する。
ii.一例において、(v0x,v0y)は、時間的隣接ブロックのMVから導出される。
iii.一例において、(v0x,v0y)は、ブロックGのリファレンスに合わせて調整される。
d.一実施形態で、アフィンマージモードで符号化されたブロックのMVは、アフィンモードで符号化されたS(4パラメータアフィンモードの場合にS=2、6パラメータアフィンモードの場合にS=3)個の左隣のブロックから導出される。図16Aは、例を示す。L0及びL1は、アフィンモードで符号化された2つの左隣のブロックである。Δは、2つの左隣のブロック間の距離である。2つのブロックの動きベクトルは、夫々(mvL0 x,mvL0 y)及び(mvL1 x,mvL1 y)である。(mv0 x、mv0 y)は、式(1)中の現在のブロックの左上制御点でのMV(別名、(v0x,v0y))である。2つのブロックの1つ(例えば、L0)と左上制御点との間のy距離は、Φと表記される。留意されるべきは、距離は、ブロックの上、真ん中、又は下から測定され得る点である。図16Aでは、それは下から測定されている。
i.一例において、式(1)中のa及びbは、a=(mvL1 y−mvL0 y)/Δ、b=(mvL1 x−mvL0 x)/Δとして導出され得る。
ii.Δは固定数であることができる。
(a)それは、1、4、8、16などの2Nの形をとることができる。この場合に、上記のa及びbを計算するための除算演算は、シフト演算として実施され得る。
iii.Δは、ブロックの高さに応じた数であることができる。
iv.Δは、L0とL1との間の全ての左隣のブロック(L0及びL1の両方を含む)がアフィンモードで符号化され、同じ参照ピクチャを共有することを満足する最大長さとして導出され得る。
v.(mv0 x、mv0 y)は、mv0 x=mvL0 x+bΦ、mv0 y=mvL0 y−aΦとして導出され得る。
vi.ΦがL1と左上制御点との間のy距離である場合に、(mv0 x、mv0 y)は、mv0 x=mvL1 x+bΦ、mv0 y=mvL1 y−aΦとして導出され得る。
e.一実施形態で、アフィンマージモードで符号化されたブロックのMVは、アフィンモードで符号化されたS(4パラメータアフィンモードの場合にS=2、6パラメータアフィンモードの場合にS=3)個の上隣のブロックから導出される。図16Bは、例を示す。T0及びT1は、アフィンモードで符号化された2つの上隣のブロックである。Δは、2つの上隣のブロック間の距離である。2つのブロックの動きベクトルは、夫々(mvT0 x,mvT0 y)及び(mvT1 x,mvT1 y)である。(mv0 x、mv0 y)は、式(1)中の現在のブロックの左上制御点でのMV(別名、(v0x,v0y))である。2つのブロックの1つ(例えば、T0)と左上制御点との間のx距離は、Φと表記される。留意されるべきは、距離は、ブロックの左、真ん中、又は右から測定され得る点である。図16Bでは、それは右から測定されている。
i.一例において、式(1)中のa及びbは、a=(mvT1 y−mvT0 y)/Δ、b=(mvT1 x−mvT0 x)/Δとして導出され得る。
ii.Δは固定数であることができる。
(a)それは、1、4、8、16などの2Nの形をとることができる。この場合に、上記のa及びbを計算するための除算演算は、シフト演算として実施され得る。
iii.Δは、ブロックの高さに応じた数であることができる。
iv.Δは、T0とT1との間の全ての上隣のブロック(T0及びT1の両方を含む)がアフィンモードで符号化され、同じ参照ピクチャを共有することを満足する最大長さとして導出され得る。
v.(mv0 x、mv0 y)は、mv0 x=mvT0 x−aΦ、mv0 y=mvT0 y−bΦとして導出され得る。
vi.ΦがT1と左上制御点との間のx距離である場合に、(mv0 x、mv0 y)は、mv0 x=mvT1 x−aΦ、mv0 y=mvT1 y−bΦとして導出され得る。
f.アフィンマージモードで符号化されたブロックのMVは、アフィンモードで符号化された非隣接ブロックから導出されてよい。
g.アフィンマージモードで符号化されたブロックのMVを導出するためにどの隣接ブロックが使用されるかは、ブロック形状に依存し得る。
i.サイズがM×N(M>N)であるブロックの場合に、アフィンマージモードで符号化されたブロックのMVは、アフィンモードで符号化された上隣のブロックから導出される。
ii.サイズがM×N(M<N)であるブロックの場合に、アフィンマージモードで符号化されたブロックのMVは、アフィンモードで符号化された左隣のブロックから導出される。
iii.サイズがM×N(M=N)であるブロックの場合に、アフィンマージモードで符号化されたブロックのMVは、現在のブロックの左上角に隣接するブロックから導出される。
3.一実施形態で、隣接ブロックからのアフィンマージ候補が妥当なアフィンマージ候補であるかどうかは、隣接ブロックの配置に依存する。
a.一例において、隣接ブロックからのアフィンマージ候補は、隣接ブロックが現在のCTU(Coding Tree Unit)とは異なるCTU(例えば、最大CU(LCU))に属する場合に、妥当でないとして扱われる(マージ候補リストに入れられない)。
b.代替的に、隣接ブロックからのアフィンマージ候補は、隣接ブロックが、図17に示されるように、現在のCTUラインとは異なるCUTラインに属する場合に、妥当でないとして扱われる(マージ候補リストに入れられない)。
c.代替的に、隣接ブロックからのアフィンマージ候補は、隣接ブロックがスライスとは異なるスライスに属する場合に、妥当でないとして扱われる(マージ候補リストに入れられない)。
d.代替的に、隣接ブロックからのアフィンマージ候補は、隣接ブロックがタイルとは異なるタイルに属する場合に、妥当でないとして扱われる(マージ候補リストに入れられない)。
図18は、開示される技術に従って、2つの分割パターンによる織り込み予測の例を示す。現在のブロック1300は、複数のパターンに分割され得る。例えば、図18に示されるように、現在のブロックは、パターン0(1301)及びパターン1(1302)の両方に分割される。2つの予測ブロックP0(1303)及びP1(1304)が生成される。現在のブロック1300の最終的な予測ブロックP(1305)は、P0(1303)及びP1(1304)の加重和を計算することによって生成され得る。
現在のブロックをサブブロックに分けることと、
サブブロックごとに動きベクトルを導出することとであり、各サブブロックの前記動きベクトルは、ポジション規則に従ってそのサブブロックの位置と関連付けられる、ことと、
前記サブブロックの動きベクトルを用いて前記現在のブロックのビットストリーム表現を処理することと
を有する方法。
1項に記載の方法。
項2に記載の方法。
項1に記載の方法。
項1に記載の方法。
アフィンモードを使用する、現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、ポジション規則に基づいて前記現在のブロックの制御点での動きベクトルを導出することと、
前記動きベクトルを使用して、前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有し、
前記ポジション規則は、前記導出のための非隣接近傍ブロックの使用を除くことを定める、
方法。
項6に記載の方法。
項7に記載の方法。
項8に記載の方法。
項8に記載の方法。
項8に記載の方法。
項8乃至11のいずれかに記載の方法。
項6に記載の方法。
Xがインター符号化される場合に、前記動きベクトル(v0x,v0y)はMV(X)に等しくセットされ、XはR、S又はTである、
項13に記載の方法。
R、S及びTがインター符号化される場合に、前記動きベクトル(v0x,v0y)はMV(R)、MV(S)及びMV(T)の平均に等しくセットされる、
項13に記載の方法。
X及びYがインター符号化される場合に、前記動きベクトル(v0x,v0y)は、MV(X)及びMV(Y)の平均に等しくセットされ、X及びYはR、S又はTである、
項13に記載の方法。
項13に記載の方法。
項13に記載の方法。
項6に記載の方法。
項6に記載の方法。
項20に記載の方法。
項20に記載の方法。
項20に記載の方法。
項20に記載の方法。
項6に記載の方法。
項6に記載の方法。
項6に記載の方法。
現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、1つ以上の隣接ブロックの位置に基づいて妥当性基準を満足する前記1つ以上の隣接ブロックからのマージ候補を含めることによって前記変換のためのアフィンマージ候補のリストを決定することと、
動きベクトルを用いて前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有する方法。
項28に記載の方法。
項28に記載の方法。
項28に記載の方法。
項28に記載の方法。
アフィンモードを使用する、現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、1つ以上の隣接する近傍ブロックに基づいて前記現在のブロックの制御点での動きベクトルを導出することと、
前記動きベクトルを用いて前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有する方法。
項33に記載の方法。
項33に記載の方法。
項35に記載の方法。
項36に記載の方法。
上記の項のいずれかに記載の方法。
上記の項のいずれかに記載の方法。
適用される特許法及びパリ条約に従う規則の下で、本願は、2018年7月1日付けで出願された国際特許出願第PCT/CN2018/093943号、及び2018年7月13日付けで出願された国際特許出願第PCT/CN2018/095568号の優先権及び利益を適時に主張してなされるものである。米国法の下での全ての目的のために、国際特許出願第PCT/CN2018/093943号及び国際特許出願第PCT/CN2018/095568号の全開示は、本願の開示の部分として参照により援用される。
本願は、2018年7月1日付けで出願された国際特許出願第PCT/CN2018/093943号、及び2018年7月13日付けで出願された国際特許出願第PCT/CN2018/095568号の優先権及び利益を適時に主張してなされるものである。国際特許出願第PCT/CN2018/093943号及び国際特許出願第PCT/CN2018/095568号の全開示は、本願の開示の部分として参照により援用される。
Claims (42)
- ビデオ処理の方法であって、
現在のブロックをサブブロックに分けることと、
サブブロックごとに動きベクトルを導出することとであり、各サブブロックの前記動きベクトルは、ポジション規則に従ってそのサブブロックの位置と関連付けられる、ことと、
前記サブブロックの動きベクトルを用いて前記現在のブロックのビットストリーム表現を処理することと
を有する方法。 - 前記ポジション規則は、前記位置が対応するサブブロックの中心であることを定める、
請求項1に記載の方法。 - 前記対応するサブブロックは、サイズM×Nを有し、前記中心は、((M>>1)+a)×((N>>1)+b)として定義され、M及びNは自然数であり、a、bは0又は−1である、
請求項2に記載の方法。 - 前記ポジション規則は、前記位置が対応するサブブロックの非中心位置であることを定める、
請求項1に記載の方法。 - 前記ポジション規則によって指定される位置は、動きベクトルが異なるサブブロックでは異なる位置で導出されることをもたらす、
請求項1に記載の方法。 - ビデオ処理方法であって、
アフィンモードを使用する、現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、ポジション規則に基づいて前記現在のブロックの制御点での動きベクトルを導出することと、
前記動きベクトルを使用して、前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有し、
前記ポジション規則は、前記導出のための非隣接近傍ブロックの使用を除くことを定める、
方法。 - 動きベクトルは、前記現在のブロックの少なくとも1つの非隣接4×4ブロックを含む隣接符号化ユニットの情報を使用せずに導出される、
請求項6に記載の方法。 - 前に変換された隣接ブロックの少なくともいくつかのアフィンパラメータを保持及び再利用することを更に含む、
請求項7に記載の方法。 - 前記現在のブロックは、アフィンモードで符号化された隣接ブロックから前記少なくともいくつかのアフィンパラメータを引き継ぐ、
請求項8に記載の方法。 - 前記少なくともいくつかのアフィンパラメータは、リスト0及びリスト1参照フレームについて異なる、
請求項8に記載の方法。 - 前記少なくともいくつかのアフィンパラメータは、2つの組を有し、各組は、多重仮説参照ピクチャリストの1つのためである、
請求項8に記載の方法。 - 前記少なくともいくつかのアフィンパラメータは、4つのアフィンパラメータのうちの2つを有する、
請求項8乃至11のうちいずれか一項に記載の方法。 - 前記現在のブロックの左上角の動きベクトル(v0x,v0y)は、前記現在のブロックの前記左上角に隣接するブロックから導出され、前記現在のブロックは、前記アフィンモードで符号化された隣接ブロックにマージされる、
請求項6に記載の方法。 - 前記動きベクトル(v0x,v0y)を導出するために、対応する動きベクトルMV(R)、MV(S)及びMV(T)を夫々有している3つの隣接ブロックR、S及びTを使用することを更に含み、
Xがインター符号化される場合に、前記動きベクトル(v0x,v0y)はMV(X)に等しくセットされ、XはR、S又はTである、
請求項13に記載の方法。 - 前記動きベクトル(v0x,v0y)を導出するために、対応する動きベクトルMV(R)、MV(S)及びMV(T)を夫々有している3つの隣接ブロックR、S及びTを使用することを更に含み、
R、S及びTがインター符号化される場合に、前記動きベクトル(v0x,v0y)はMV(R)、MV(S)及びMV(T)の平均に等しくセットされる、
請求項13に記載の方法。 - 前記動きベクトル(v0x,v0y)を導出するために、対応する動きベクトルMV(R)、MV(S)及びMV(T)を夫々有している3つ隣接ブロックR、S及びTを使用することを更に含み、
X及びYがインター符号化される場合に、前記動きベクトル(v0x,v0y)は、MV(X)及びMV(Y)の平均に等しくセットされ、X及びYはR、S又はTである、
請求項13に記載の方法。 - 前記動きベクトル(v0x,v0y)は、時間的隣接ブロックの動きベクトルから導出される、
請求項13に記載の方法。 - 前記動きベクトル(v0x,v0y)は、前記隣接ブロックのリファレンスにスケーリングされる、
請求項13に記載の方法。 - 前記動きベクトルは、前記アフィンモードで符号化された左隣のブロックから導出される、
請求項6に記載の方法。 - 前記アフィンモードで符号化されたブロックの動きベクトルは、前記アフィンモードで符号化されたS個の上隣のブロックから導出され、Sは、4パラメータアフィンモードの場合に2に等しい、
請求項6に記載の方法。 - 2個の上隣のブロックの間の距離は、2Nの形で固定値であり、Nは整数である、
請求項20に記載の方法。 - 前記上隣のブロックの間の距離は、前記アフィンモードで符号化されたブロックの高さに依存する、
請求項20に記載の方法。 - 前記上隣のブロックの間の距離は、全ての上隣のブロックが前記アフィンモードで符号化され、同じ参照ピクチャを共有することを満足する最大長さとして導出される、
請求項20に記載の方法。 - 前記現在のブロックの左上制御点での動きベクトル(mv0 x,mv0 y)は、i)mv0 x=mvT0 x−aΦ及びmv0 y=mvT0 y−bΦ又はii)mv0 x=mvT1 x−aΦ及びmv0 y=mvT1 y−bΦとして導出され、Φは、前記左上制御点と前記アフィンモードで符号化された2つの上隣のブロックT0及びT1のうちの1つとの間の距離である、
請求項20に記載の方法。 - 前記現在のブロックは、M×Nピクセルのサイズを有し、M及びNは整数であり、前記動きベクトルは、M<Nの場合に左側隣接ブロックから導出される、
請求項6に記載の方法。 - 前記現在のブロックは、M×Nピクセルのサイズを有し、M及びNは整数であり、前記動きベクトルは、M>Nの場合に上側隣接ブロックから導出される、
請求項6に記載の方法。 - 前記現在のブロックは、M×Nピクセルのサイズを有し、M及びNは整数であり、前記動きベクトルは、M=Nの場合に左上角に隣接するブロックから導出される、
請求項6に記載の方法。 - ビデオ処理の方法であって、
現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、1つ以上の隣接ブロックの位置に基づいて妥当性基準を満足する前記1つ以上の隣接ブロックからのマージ候補を含めることによって前記変換のためのアフィンマージ候補のリストを決定することと、
動きベクトルを用いて前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有する方法。 - 隣接ブロックは、現在のCTUとは異なるCTUからであり、前記隣接ブロックからのアフィンマージモード候補は妥当でない、
請求項28に記載の方法。 - 現在のCTUは現在のCTUラインに属し、前記隣接ブロックは、前記現在のCTUラインとは異なるCTUラインに属し、前記隣接ブロックからのアフィンマージモード候補は妥当でない、
請求項28に記載の方法。 - 前記現在のブロックは現在のスライスに属し、前記隣接ブロックは、前記現在のスライスとは異なるスライスに属し、前記隣接ブロックからのアフィンマージモード候補は妥当でない、
請求項28に記載の方法。 - 前記現在のブロックは現在のタイルに属し、前記隣接ブロックは、前記現在のタイルとは異なるタイルに属し、前記隣接ブロックからのアフィンマージモード候補は妥当でない、
請求項28に記載の方法。 - ビデオ処理の方法であって、
アフィンモードを使用する、現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、1つ以上の隣接する近傍ブロックに基づいて前記現在のブロックの制御点での動きベクトルを導出することと、
前記動きベクトルを用いて前記現在のブロックと前記ビットストリーム表現との間の前記変換を実行することと
を有する方法。 - アフィンモードを使用する前記現在のブロックの制御点での前記動きベクトルは、上にある前記1つ以上の隣接する近傍ブロックから引き継がれる、
請求項33に記載の方法。 - 前記隣接する近傍ブロックはまた、アフィンモードによって符号化される、
請求項33に記載の方法。 - 前記隣接する近傍ブロックは、4パラメータアフィンモードによって符号化される、
請求項35に記載の方法。 - アフィンモードを使用する前記現在のブロックの制御点での前記動きベクトルは、前記1つ以上の隣接する近傍ブロックの左下及び右下制御点動きベクトルから引き継がれる、
請求項36に記載の方法。 - 前記変換は、前記現在のブロックから前記ビットストリーム表現を生成することを含む、
請求項1乃至37のうちいずれか一項に記載の方法。 - 前記変換は、前記ビットストリーム表現から前記現在のブロックを生成することを含む、
請求項1乃至37のうちいずれか一項に記載の方法。 - 請求項1乃至39のうちいずれか一項に記載の方法を実装するよう構成されるプロセッサを有するビデオ復号化装置。
- 請求項1乃至39のうちいずれか一項に記載の方法を実装するよう構成されるプロセッサを有するビデオ符号化装置。
- プロセッサによって実行される場合に、該プロセッサに、請求項1乃至39のうちいずれか一項に記載の方法を実施させる命令を有するコードが記憶されているコンピュータ可読プログラム媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023187705A JP2023181441A (ja) | 2018-07-01 | 2023-11-01 | 効率的なアフィンマージ動きベクトル導出 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018093943 | 2018-07-01 | ||
CNPCT/CN2018/093943 | 2018-07-01 | ||
CN2018095568 | 2018-07-13 | ||
CNPCT/CN2018/095568 | 2018-07-13 | ||
PCT/IB2019/055592 WO2020008334A1 (en) | 2018-07-01 | 2019-07-01 | Efficient affine merge motion vector derivation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187705A Division JP2023181441A (ja) | 2018-07-01 | 2023-11-01 | 効率的なアフィンマージ動きベクトル導出 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021530154A true JP2021530154A (ja) | 2021-11-04 |
Family
ID=67297216
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573104A Pending JP2021530154A (ja) | 2018-07-01 | 2019-07-01 | 効率的なアフィンマージ動きベクトル導出 |
JP2023187705A Pending JP2023181441A (ja) | 2018-07-01 | 2023-11-01 | 効率的なアフィンマージ動きベクトル導出 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187705A Pending JP2023181441A (ja) | 2018-07-01 | 2023-11-01 | 効率的なアフィンマージ動きベクトル導出 |
Country Status (7)
Country | Link |
---|---|
US (3) | US20210058637A1 (ja) |
EP (1) | EP3804327A1 (ja) |
JP (2) | JP2021530154A (ja) |
KR (1) | KR20210024487A (ja) |
CN (2) | CN110677675B (ja) |
TW (1) | TWI731363B (ja) |
WO (1) | WO2020008334A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2577318B (en) * | 2018-09-21 | 2021-03-10 | Canon Kk | Video coding and decoding |
CN111010571B (zh) | 2018-10-08 | 2023-05-16 | 北京字节跳动网络技术有限公司 | 组合仿射Merge候选的生成和使用 |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
EP3878172A4 (en) * | 2018-11-12 | 2022-08-24 | HFI Innovation Inc. | METHOD AND DEVICE FOR MULTIPLE HYPOTHESIS IN VIDEO CODING |
EP3857879A4 (en) | 2018-11-12 | 2022-03-16 | Beijing Bytedance Network Technology Co., Ltd. | SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION |
WO2020103877A1 (en) | 2018-11-20 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Coding and decoding of video coding modes |
KR20210091161A (ko) | 2018-11-20 | 2021-07-21 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 부분적 위치에 기반한 차분 계산 |
KR20240024335A (ko) | 2018-11-22 | 2024-02-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
CN113170113A (zh) * | 2018-11-30 | 2021-07-23 | 交互数字Vc控股公司 | 用于视频编码和解码的三角形和多重假设组合 |
CN117880495A (zh) | 2018-12-03 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 候选的最大数量的指示方法 |
KR102635518B1 (ko) | 2019-03-06 | 2024-02-07 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 변환된 단예측 후보의 사용 |
JP7026064B2 (ja) * | 2019-03-11 | 2022-02-25 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
KR20230169434A (ko) | 2019-04-02 | 2023-12-15 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 디코더 측 움직임 벡터 유도 |
WO2021027774A1 (en) | 2019-08-10 | 2021-02-18 | Beijing Bytedance Network Technology Co., Ltd. | Subpicture dependent signaling in video bitstreams |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
WO2021052507A1 (en) | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Sub-picture coding and decoding of video |
WO2021063420A1 (en) | 2019-10-02 | 2021-04-08 | Beijing Bytedance Network Technology Co., Ltd. | Slice level signaling in video bitstreams that include sub-pictures |
CN114631317B (zh) | 2019-10-18 | 2024-03-15 | 北京字节跳动网络技术有限公司 | 子图片的参数集信令中的语法约束 |
CN114071147B (zh) * | 2020-07-29 | 2023-04-11 | 四川大学 | 一种基于双线性模型的vvc运动补偿方法 |
WO2023034640A1 (en) * | 2021-09-06 | 2023-03-09 | Beijing Dajia Internet Information Technology Co., Ltd. | Candidate derivation for affine merge mode in video coding |
KR20240066273A (ko) * | 2021-09-24 | 2024-05-14 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 비디오 코딩에서 어파인 병합 모드에 대한 후보 도출 |
WO2023137234A1 (en) * | 2022-01-17 | 2023-07-20 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for candidate derivation for affine merge mode in video coding |
WO2023185933A1 (en) * | 2022-03-30 | 2023-10-05 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
WO2016008157A1 (en) * | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
SG11201703551VA (en) * | 2014-12-09 | 2017-05-30 | Mediatek Inc | Method of motion vector predictor or merge candidate derivation in video coding |
CN109005407B (zh) * | 2015-05-15 | 2023-09-01 | 华为技术有限公司 | 视频图像编码和解码的方法、编码设备和解码设备 |
CN104935938B (zh) * | 2015-07-15 | 2018-03-30 | 哈尔滨工业大学 | 一种混合视频编码标准中帧间预测方法 |
CN109274974B (zh) * | 2015-09-29 | 2022-02-11 | 华为技术有限公司 | 图像预测的方法及装置 |
GB2561507B (en) * | 2016-01-07 | 2021-12-22 | Mediatek Inc | Method and apparatus for affine merge mode prediction for video coding system |
WO2017147765A1 (en) * | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Methods for affine motion compensation |
US10602180B2 (en) * | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
-
2019
- 2019-07-01 TW TW108123187A patent/TWI731363B/zh active
- 2019-07-01 WO PCT/IB2019/055592 patent/WO2020008334A1/en unknown
- 2019-07-01 CN CN201910586584.8A patent/CN110677675B/zh active Active
- 2019-07-01 EP EP19740074.0A patent/EP3804327A1/en active Pending
- 2019-07-01 CN CN202210066664.2A patent/CN114374850A/zh active Pending
- 2019-07-01 KR KR1020207037240A patent/KR20210024487A/ko active Search and Examination
- 2019-07-01 JP JP2020573104A patent/JP2021530154A/ja active Pending
-
2020
- 2020-11-05 US US17/090,122 patent/US20210058637A1/en not_active Abandoned
-
2021
- 2021-09-30 US US17/490,220 patent/US20220046267A1/en active Pending
-
2023
- 2023-11-01 JP JP2023187705A patent/JP2023181441A/ja active Pending
- 2023-11-07 US US18/503,360 patent/US20240098295A1/en active Pending
Non-Patent Citations (1)
Title |
---|
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 4", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D1001 (version 3), JPN6022011765, 19 November 2016 (2016-11-19), ISSN: 0004910551 * |
Also Published As
Publication number | Publication date |
---|---|
CN110677675A (zh) | 2020-01-10 |
US20220046267A1 (en) | 2022-02-10 |
JP2023181441A (ja) | 2023-12-21 |
EP3804327A1 (en) | 2021-04-14 |
US20210058637A1 (en) | 2021-02-25 |
US20240098295A1 (en) | 2024-03-21 |
TW202021356A (zh) | 2020-06-01 |
WO2020008334A1 (en) | 2020-01-09 |
TWI731363B (zh) | 2021-06-21 |
CN114374850A (zh) | 2022-04-19 |
KR20210024487A (ko) | 2021-03-05 |
CN110677675B (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021530154A (ja) | 効率的なアフィンマージ動きベクトル導出 | |
CN110581999B (zh) | 色度解码器侧运动矢量细化 | |
CN110620928B (zh) | 不同精度的多个候选 | |
JP7324841B2 (ja) | ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 | |
TWI670970B (zh) | 在視訊編解碼中預測子細化的候選跳過的方法和裝置 | |
TWI729402B (zh) | 加權交織預測 | |
US11070834B2 (en) | Low-complexity method for generating synthetic reference frames in video coding | |
CN113545081B (zh) | 视频编解码系统中的处理视频数据的方法以及装置 | |
JP7431253B2 (ja) | 動き情報精緻化のサブ領域に基づいた決定 | |
CN113302918A (zh) | 视频编解码中的加权预测 | |
CN112868239A (zh) | 并置的局部照明补偿和帧内块复制编解码 | |
JP2023145563A (ja) | 異なる動きベクトル微調整における勾配計算 | |
CN110677674B (zh) | 视频处理的方法、设备和非暂时性计算机可读介质 | |
CN110740321B (zh) | 基于更新的运动矢量的运动预测 | |
CN113841396B (zh) | 简化的局部照明补偿 | |
TW202002650A (zh) | 擴展Merge模式 | |
CN110662077A (zh) | 用于视频编码的对称性双向预测模式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230704 |