JP7507166B2 - デコーダ側動きベクトル改良に対する制約 - Google Patents
デコーダ側動きベクトル改良に対する制約 Download PDFInfo
- Publication number
- JP7507166B2 JP7507166B2 JP2021549850A JP2021549850A JP7507166B2 JP 7507166 B2 JP7507166 B2 JP 7507166B2 JP 2021549850 A JP2021549850 A JP 2021549850A JP 2021549850 A JP2021549850 A JP 2021549850A JP 7507166 B2 JP7507166 B2 JP 7507166B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- block
- prediction
- predicted
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims description 406
- 238000000034 method Methods 0.000 claims description 288
- 230000008569 process Effects 0.000 claims description 151
- 230000015654 memory Effects 0.000 claims description 57
- 230000002457 bidirectional effect Effects 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 20
- 238000009795 derivation Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 38
- 238000013139 quantization Methods 0.000 description 30
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 238000000638 solvent extraction Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 19
- 238000005192 partition Methods 0.000 description 16
- 241000023320 Luma <angiosperm> Species 0.000 description 14
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 10
- 230000011664 signaling Effects 0.000 description 8
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000013138 pruning Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000000872 buffer Substances 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001364 causal effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
[0120]HEVCでは、スライスの中の最大のコーディングユニットは、コーディングツリーブロック(CTB)またはコーディングツリーユニット(CTU)と呼ばれる。CTBは4分木を含んでおり、そのノードはコーディングユニットである。
[0124]HEVC規格では、予測ユニット(PU)に対して、それぞれ、マージモード(スキップは残差のないマージの特別な事例と見なされる)および高度動きベクトル予測(AMVP)モードと称する、2つのインター予測モードがある。AMVPモードまたはマージモードのいずれでも、ビデオエンコーダ200およびビデオデコーダ300は、複数の動きベクトル予測子の動きベクトル(MV)候補リストを構築して維持し得る。ビデオエンコーダ200およびビデオデコーダ300は、MV候補リストから1つの候補の動き情報を取ることによって、現在のPUの(1つまたは複数の)動きベクトル、ならびに、マージモードでの参照インデックスを生成し得る。
[0128]HEVCでは、ビデオエンコーダ200およびビデオデコーダ300は、特定のPU(PU0)について、図4Aおよび図4Bに示されるように、隣接ブロックから空間MV候補を導出し得るが、ブロックから候補を生成する技法はマージモードとAMVPモードで異なる。
[0132]HEVCにおける時間動きベクトル予測がここで論じられる。ビデオエンコーダ200およびビデオデコーダ300は、時間動きベクトル予測子(TMVP)候補が有効であり利用可能である場合、それを空間動きベクトル候補の後にMV候補リストへと追加するように構成され得る。TMVP候補に対する動きベクトル導出のプロセスは、マージモードとAMVPモードの両方に対して同じである。しかしながら、HEVCでは、マージモードにおけるTMVP候補に対するターゲット参照インデックスは0に設定される。
[0136]S.Jeong他、「CE4 Ultimate Motion Vector Expression (Test 4.5.4)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第12回会合、マカオ、中国、2018年10月3~12日、JVET-L0054、マージ動きベクトル改良(MMVR、究極動きベクトル表現(UMVE:Ultimate Motion Vector Expression)としても知られている)は、シグナリングされた動きベクトル差分に基づいて、マージ候補の動きベクトルを改良するための技法を提示した。UMVEは、開始点と、動きの大きさと、動き方向とを含む、簡略化されたシグナリングを用いる、代替の動きベクトル表現を提供する。マージ動きは、未改良のマージ動きベクトルによって指し示される位置を中心とする十字形パターン(cross-shaped pattern)上で、図6Aおよび図6Bにおける図示されたオフセットのうちの1つを使用して改良され得る。加えて、リストL0の中で参照ピクチャを指し示すMVオフセット(たとえば、改良されたMV-元の(original)MV)は、リストL1の中の参照ピクチャにスケーリングされる。
[0140]X.Chen他、「CE 4: Merge Offset Extension (Test 4.4.8)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第12回会合、マカオ、中国、2018年10月3~12日、JVET-L0176は、マージ候補リストの第1の候補にのみ基づいて新しい拡張されたMVオフセット候補が構築される技法を説明する。新しい拡張されたMVオフセット候補は、第1の候補の現在のMVに対するMVオフセットのみを含む。他の予測情報は第1の候補と同じである。新たに追加される候補は、時間候補の後にマージ候補リストへ挿入される。サポートされる動きベクトルオフセットが図7に図示され、現在のサンプル800に対する相対的なオフセット(0または±1、0または±1)を伴う点802と、現在のサンプル800に対する相対的なオフセット(0または±2、0または±2)を伴う点804とを含む。
[0143]履歴ベースの動きベクトル予測(HMVP:History-based motion vector prediction)(たとえば、L. Zhang他、「CE4-related: History-based Motion Vector Prediction」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第11回会合、リュブリャナ、スロベニア、2018年7月10~18日[JVET-K0104]に記載されるような)は、すぐ隣の因果的隣接動きフィールドにおけるMVに加えて、過去から復号されたMVのリストから、各ブロックがそのMV予測子を見つけることを可能にする、履歴ベースの技法である。符号化/復号プロセスの間、複数のHMVP候補を有するテーブルが維持される。新たなスライスに遭遇すると、テーブルは空にされる。インターコーディングされたブロックがあるときはいつでも、関連する動き情報は、新たなHMVP候補として先入れ先出し(FIFO)方式でテーブルに挿入される。次いで、制約FIFO規則が適用され得る。テーブルにHMVPを挿入するとき、テーブルの中に同一のHMVPがあるかどうかを見つけるために、最初に冗長性チェックが適用される。同一のHMVPが発見された場合、その特定のHMVPはテーブルから除去され、以後、すべてのHMVP候補が移動される。
[0147]マージモードおよびAMVPモードのいくつかの態様には、次のように言及する価値がある。
[0155]図8は、双方向テンプレート照合を示す概念図である。双方向照合は、テンプレートベースの改良プロセスを回避するための、デコーダ側動きベクトル改良(DMVR)技法の変形である。現在のブロック900のための双方向テンプレート照合は、初期双予測MV(たとえば、図8の中のv0およびv1)によって指し示される単予測参照ブロック902および904(I0(x+v0)およびI1(x+v1)と表記され、xは、現在のブロック900内のピクセルの座標である)の間で双方向照合コストを直接計算することを含む。
[0159]S.Sethurman他、「Decoder Side MV Refinement/Derivation with CTB-level concurrency and other normative complexity reduction techniques」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第11回会合、リュブリャナ、スロベニア、2018年7月10~18日、JVET-K4001では、各々の可能な分数ペルMVに対する予測誤差曲面を形成するために、2次パラメトリック関数(a quadratic parametric function)が使用される。基本的に、2次パラメトリック関数は、推定量としての予測誤差の値を補間する補間関数である。整数探索からの厳密な(exact)予測誤差値に基づいて、2次パラメトリック関数のパラメータが導出され、したがって、この誤差探索における最良の動きサンプリング位置が発見され得る。次いで、実際にサブペル動きベクトル推定を実行するのではなく、元のMVがこの厳密な動きサンプリング位置に調整される。このパラメトリック関数は、参照として、5つの点からコスト値を取って、誤差表面(error surface)を形成し、この表面上で最小コスト値を有する最良の位置を見つける。5つの点は十字形を形成し、隣り合う2つの各点の間のギャップは2ピクセルであり、ここで、中心/左/右/上/下の点は、(0,0)/(-1,0)/(1,0)/(0,-1)/(0,1)に調整される(coordinated)。このパラメトリック誤差曲面関数は、2D放物線誤差曲面方程式(2-D parabolic error surface equation)、すなわち、
[0161]動きオーバーヘッドを低減する際にデコーダ側動きベクトル導出(DMVD)は効率的であるが、(DMVRなどの)既存のDMVD設計は、空間隣接CUのコーディングの間の相互依存性に起因する復号レイテンシ問題に遭遇することがある。CUのMVが、DMVRを使用してコーディングされたその空間隣接物から予測される場合、復号プロセスは、隣接CUの改良されたMVが利用可能になるまで待たなければならない。汎用ビデオコーディング規格の開発において、いくつかのデコーダ側MV導出(DMVD)手法のための低レイテンシ設計を達成し得る、いくつかの技法が研究されている。これらの技法のいくつかが、以下で詳述される。
[0163]DMVD技法を使用してコーディングされるブロックに対して、復号プロセスは3つのステップで解釈され得る。
1.初期動きフィールドの再構築および参照ブロックのプリフェッチ、
2.最終MVを得るためのブロック動きの改良プロセス、および
3.最終MVを用いた動き補償。
[0167]改良されたMVを使用する代わりに、この技法は、空間MV予測子を導出するために、各DMVR CUの元のMVを使用する。時間MV予測の場合、コロケートピクチャが完全に再構築されているので、改良されたMVは復号レイテンシ問題を伴わずに使用され得る。したがって、空間的な隣接CUの間のコーディング依存性がもはや存在しないので、DMVRの復号レイテンシ問題は完全に解決され得る。しかしながら、コーディング性能の低下が予想され得る。
[0169]この技法は、空間MV予測を実行するために、直接隣接するブロックからの参照として、現在のブロックと一緒にこれらの隣接ブロックがすべて同じCTU行にある場合に、未改良のMVを用いる。(いくつかの他の技法が、そのような隣接ブロックからのMV予測子を、利用不可能であるものとしてマークすることがあることに留意されたい。)一方、改良されたMVは、それらの関連するブロックが、すぐ上のCTUおよび左上のCTUに位置する隣接する因果的CTU内にあるときにのみ、空間MV予測に利用可能である。したがって、この技法は、CTU行の内部で、MV改良と空間MV予測との間の相互依存性を壊す(breaks)。
[0171]双方向オプティカルフロー(BIO)は、双予測のケースにおいてブロック単位の動き補償に加えて(on top of)実行される、ピクセル単位の動き改良である。BIOがブロックの内部の細かい動きを補償するので、BIOを有効にする(enabling)ことは、動き補償に対するブロックサイズの拡大をもたらす。サンプルレベル動き改良は、各サンプルに対して精密な動きベクトルを与える明示的な式があるので、徹底的な(exhaustive)探索またはシグナリングを必要としない。図10は、オプティカルフロー軌跡1100を示す概念図である。
[0185]GBiは、C. Chen、「Generalized bi-prediction for inter coding」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SG 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第3回会合、ジュネーブ、スイス、2016年5月26日~6月1日、JVET-C0047において提案された。Y.Su他、「CE4.4.1: Generalized bi-prediction for inter coding」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のジョイントビデオエキスパートチーム(JVET)、第11回会合、リュブリャナ、スロベニア、2018年7月10~18日、JVET-K0248において、提案が、GBiに対する利得と複雑さのトレードオフを改善し、VVCのベンチマークセット2.1(BMS2.1)へと採用された。BMS2.1 GBiは、双予測モードにおけるL0およびL1からの予測子に不均等な重みを適用する。インター予測モードでは、均等な重みペア(1/2,1/2)を含む複数の重みペアが、レートひずみ最適化(RDO:rate-distortion optimization)に基づいて評価され、選択された重みペアのGBiインデックスが、ビデオデコーダ300にシグナリングされる。マージモードでは、GBiインデックスは隣接CUから継承される。BMS2.1 GBiにおいて、双予測モードでの予測子生成が以下に示される。
[0189]本開示は、双予測される予測に対する2つの重みが等しくない場合、デコーダ側動き改良を無効にする(ディセーブルにする)ことを提案する。すなわち、2つの動きベクトルを使用してコーディングされるビデオデータの双予測されるブロックに対して、ビデオエンコーダ200およびビデオデコーダ300は、双予測される予測のために使用される重みが等しいかどうかを決定するように構成され得る。ビデオエンコーダ200およびビデオデコーダ300は、双予測される予測のために使用されるべき重みを決定し得る。重みが等しくない場合、ビデオエンコーダ200およびビデオデコーダ300は、双予測される予測のために使用される動きベクトルに動きベクトル改良プロセス(たとえば、双方向テンプレート照合)を適用しない(たとえば、無効にする)ことがある。すなわち、ビデオエンコーダ200およびビデオデコーダ300は、動きベクトル改良なしで、双予測される予測を使用してビデオデータのブロックをコーディングし得る。重みが等しい場合、ビデオエンコーダ200およびビデオデコーダ300は、双予測される予測のために使用される動きベクトルに動きベクトル改良プロセス(たとえば、双方向テンプレート照合)を適用する(たとえば、有効にする)ことがある。すなわち、ビデオエンコーダ200およびビデオデコーダ300は、動きベクトル改良ありで、双予測される予測を使用してビデオデータのブロックをコーディングし得る。
[0193]セクション1.2の技法は、セクション1.1の技法と一緒に適用されてもよく、または独立に適用されてもよい。現在のブロックの双予測される予測のために使用される2つの動きベクトル(たとえば、リスト0およびリスト1からの)は、1つまたは複数の参照ピクチャの中の2つの異なるブロックを指す。本開示の別の例では、2つの元の動きベクトル(すなわち、あらゆる動きベクトル改良の前の)を使用する2つの予測されるブロック間の差分が閾値未満である場合、ビデオエンコーダ200およびビデオデコーダ300は、現在のコーディングブロックに対して動きベクトル改良プロセス(たとえば、DMVR)を適用しない(たとえば、無効にする)ことがある。
[0202]双方向テンプレート照合において、上で説明されたように、ビデオエンコーダ200およびビデオデコーダ300は、2つの予測されるブロックを取得する。非整数動きベクトルの場合、ビデオエンコーダ200およびビデオデコーダ300は、補間によって予測されるブロックを取得する。HEVCなどのように、補間が必要とされるいくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は、まず水平補間を実行し、続いて垂直補間を実行することによって、予測されるブロックを取得する。水平補間の出力は、垂直補間のための入力である。ビデオエンコーダ200およびビデオデコーダ300は、ある数のサンプルを加重平均すること、すなわち、対応するサンプルと補間係数を乗じ、次いで重みの合計を除算して正規化することによって、補間を実行し得る。
[0205]本開示の第1の技法では、双方向テンプレート照合における予測されたブロックのビット深度は固定されており、ビデオをコーディングするための内部ビット深度と必ずしも同じではない。次いで、ビデオエンコーダ200およびビデオデコーダ300は、予測されるブロックの固定されたビット深度によってセクション1.2において説明される「閾値」を決定し得る。たとえば、ビット深度は10であり、閾値は(1<<2)*W*H/2、すなわち4*W*H/2である。したがって、閾値は、ビデオをコーディングするための内部ビット深度とは無関係である。ビデオエンコーダ200およびビデオデコーダ300は、内部ビット深度bitDepthIの代わりに内部補間ビット深度bitDepthIFを達成するために、垂直補間の結果をシフトし得る。
[0212]第2の技法では、予測されるブロックのビット深度は、ビデオをコーディングするための内部ビット深度と同じなるように設定される。したがって、予測されるブロックのビット深度は、ビデオをコーディングするための内部ビット深度に依存する。セクション1.2において説明される「閾値」は、ビデオをコーディングするための内部ビット深度によって決定される。一例では、双方向テンプレート照合のprecIFおよびbitDepthIFは、通常の動き補償のそれらとは異なり得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータを復号する方法であって、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定することと、
前記現在のブロックの前記双予測される予測のために使用される重みに基づいて、前記動きベクトルに対して動きベクトル改良プロセスを使用すると決定することと、
前記動きベクトル改良プロセスを使用するという前記決定に基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを適用することと、
を備える、方法。
[C2]
前記現在のブロックの前記双予測される予測のために使用される前記重みは等しくなく、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定することは、
前記動きベクトル改良プロセスを無効にすると決定することを備える、
C1に記載の方法。
[C3]
前記双予測予測は重み付け双予測である、C1に記載の方法。
[C4]
前記双予測予測は一般化された双予測である、C1に記載の方法。
[C5]
ピクチャレベルにおいて、前記現在のブロックの前記双予測される予測のために使用される前記重みを決定することをさらに備える、C1に記載の方法。
[C6]
ブロックレベルにおいて、前記現在のブロックの前記双予測される予測のために使用される前記重みを決定することをさらに備える、C1に記載の方法。
[C7]
前記動きベクトル改良プロセスは、双方向テンプレート照合である、C1に記載の方法。
[C8]
前記動きベクトルによって特定される予測されるブロック間の差分を決定することをさらに備え、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定することは、
前記現在のブロックの前記双予測される予測のために使用される前記重みと、前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分とに基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定することを備える、
C1に記載の方法。
[C9]
前記現在のブロックの前記双予測される予測のために使用される重みと、前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分とに基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定することは、
前記動きベクトルによって特定される前記予測されるブロック間の前記差分が閾値未満である場合、前記動きベクトル改良プロセスを無効にすると決定することを備える、
C8に記載の方法。
[C10]
前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定することは、
前記予測されるブロック間の絶対差分和または前記予測されるブロック間の2乗誤差和を使用して、前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定することを備える、
C8に記載の方法。
[C11]
前記予測されるブロックの中のサンプルの数および前記予測されるブロックの中の前記サンプルのビット深度に基づいて、前記閾値を決定することをさらに備える、C10に記載の方法。
[C12]
前記動きベクトル改良プロセスは双方向テンプレート照合であり、前記現在のブロックの前記双予測される予測のために使用される前記重みは等しく、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定することは、
前記動きベクトル改良プロセスを有効にすると決定することを備える、
C1に記載の方法。
[C13]
前記動きベクトルに対して前記双方向テンプレート照合を適用することは、
双方向テンプレート照合を使用して前記現在のブロックのための2つの予測されるブロックを決定することを備え、前記2つの予測されるブロックのうちの第1の予測されるブロックは前記現在のブロックのための前記動きベクトルに基づいて決定され、
前記動きベクトルは非整数動きベクトルを含み、前記第1の予測されるブロックを決定することは、
前記非整数動きベクトルに基づいて水平補間を実行することと、
内部ビット深度より高いビット深度において前記水平補間の出力を記憶することと、
垂直補間を実行するために、前記より高いビット深度で記憶されている前記水平補間の前記出力を使用することと、
を備える、C12に記載の方法。
[C14]
ビデオデータを復号するように構成される装置であって、
ビデオデータの現在のブロックを記憶するように構成されるメモリと、
回路において実装され、前記メモリと通信している1つまたは複数のプロセッサと、を備え、前記1つまたは複数のプロセッサは、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定し、
前記現在のブロックの前記双予測される予測のために使用される重みに基づいて、前記動きベクトルに対して動きベクトル改良プロセスを使用すると決定し、
前記動きベクトル改良プロセスを使用するという前記決定に基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを適用する、
ように構成される、装置。
[C15]
前記現在のブロックの前記双予測される予測のために使用される前記重みは等しくなく、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定するために、前記1つまたは複数のプロセッサはさらに、
前記動きベクトル改良プロセスを無効にすると決定するように構成される、C14に記載の装置。
[C16]
前記双予測予測は重み付け双予測である、C14に記載の装置。
[C17]
前記双予測予測は一般化された双予測である、C14に記載の装置。
[C18]
前記1つまたは複数のプロセッサはさらに、
ピクチャレベルにおいて、前記現在のブロックの前記双予測される予測のために使用される前記重みを決定するように構成される、C14に記載の装置。
[C19]
前記1つまたは複数のプロセッサはさらに、
ブロックレベルにおいて、前記現在のブロックの前記双予測される予測のために使用される前記重みを決定するように構成される、C14に記載の装置。
[C20]
前記動きベクトル改良プロセスは、双方向テンプレート照合である、C14に記載の装置。
[C21]
前記1つまたは複数のプロセッサは、さらに、
前記動きベクトルによって特定される予測されるブロック間の差分を決定するように構成され、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定するために、前記1つまたは複数のプロセッサは、さらに、
前記現在のブロックの前記双予測される予測のために使用される前記重みおよび前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分に基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定するように構成される、C14に記載の装置。
[C22]
前記現在のブロックの前記双予測される予測のために使用される重みと、前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分とに基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定するために、前記1つまたは複数のプロセッサは、さらに、
前記動きベクトルによって特定される前記予測されるブロック間の前記差分が閾値未満である場合、前記動きベクトル改良プロセスを無効にすると決定するように構成される、
C21に記載の装置。
[C23]
前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定するために、前記1つまたは複数のプロセッサは、さらに、
前記予測されるブロック間の絶対差分和または前記予測されるブロック間の2乗誤差和を使用して、前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定するように構成される、
C21に記載の装置。
[C24]
前記1つまたは複数のプロセッサは、さらに、
前記予測されたブロックの中のサンプルの数および前記予測されたブロックの中の前記サンプルのビット深度に基づいて、前記閾値を決定するように構成される、C23に記載の装置。
[C25]
前記動きベクトル改良プロセスは双方向テンプレート照合であり、前記現在のブロックの前記双予測される予測のために使用される前記重みは等しく、
前記現在のブロックの前記双予測される予測のために使用される前記重みに基づいて前記動きベクトルに対して前記動きベクトル改良プロセスを使用すると決定するために、前記1つまたは複数のプロセッサは、さらに、
前記動きベクトル改良プロセスを有効にすると決定するように構成される、
C14に記載の装置。
[C26]
前記動きベクトルに対して前記双方向テンプレート照合を適用するために、前記1つまたは複数のプロセッサは、さらに、
双方向テンプレート照合を使用して前記現在のブロックのための2つの予測されるブロックを決定するように構成され、前記2つの予測されるブロックのうちの第1の予測されるブロックは前記現在のブロックのための前記動きベクトルに基づいて決定され、
前記動きベクトルが非整数動きベクトルを含み、前記第1の予測されるブロックを決定するために、前記1つまたは複数のプロセッサは、さらに、
前記非整数動きベクトルに基づいて水平補間を実行し、
内部ビット深度より高いビット深度において前記水平補間の出力を記憶し、
垂直補間を実行するために、前記より高いビット深度で記憶されている前記水平補間の前記出力を使用する、
ように構成される、C25に記載の装置。
[C27]
前記装置がワイヤレス通信デバイスである、C14に記載の装置。
[C28]
実行されると、ビデオデータを復号するように構成された1つまたは複数のプロセッサに、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定することと、
前記現在のブロックの前記双予測される予測のために使用される重みに基づいて、前記動きベクトルに対して動きベクトル改良プロセスを使用すると決定することと、
前記動きベクトル改良プロセスを使用するという前記決定に基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを適用することと、
を行わせる命令を記憶した非一時的コンピュータ可読記憶媒体。
Claims (15)
- ビデオデータを復号する方法であって、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定することと、
前記現在のブロックの前記双予測される予測のための2つの参照ピクチャリストからの予測子のために使用される重みが等しくないと決定することと、
前記現在のブロックの前記双予測される予測のための前記2つの参照ピクチャリストからの前記予測子のために使用される前記重みが等しくないと決定することに基づいて、前記動きベクトルのための動きベクトル改良プロセスを無効にすると決定することと、前記動きベクトル改良プロセスは、マージ動きベクトル改良、マージオフセット拡張、双方向テンプレート照合、およびパラメトリックサブペル動きベクトル導出のうちの1つであり、
前記動きベクトル改良プロセスなしで、前記双予測される予測を使用してビデオデータの前記現在のブロックを復号することと、
を備える、方法。 - 前記双予測される予測は、重み付け双予測であるか、または一般化された双予測である、請求項1に記載の方法。
- ピクチャレベルにおいてまたはブロックレベルにおいて、前記現在のブロックの前記双予測される予測のための2つの参照ピクチャリストからの予測子のために使用される前記重みを決定することをさらに備える、請求項1に記載の方法。
- 前記動きベクトル改良プロセスは、双方向テンプレート照合である、請求項1に記載の方法。
- 双予測される予測を使用して符号化されたビデオデータの第2のブロックのための動きベクトルを決定することと、
前記第2のブロックの前記双予測される予測のための2つの参照ピクチャリストからの予測子のために使用される重みが等しいと決定することと、
前記第2のブロックのための前記動きベクトルによって特定される予測されるブロック間の差分を決定することと、
前記第2のブロックの前記双予測される予測のための前記2つの参照ピクチャリストからの前記予測子のために使用される前記重みと、前記第2のブロックのための前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分とに基づいて、前記第2のブロックのための前記動きベクトルに対して前記動きベクトル改良プロセスを適用すると決定することと、
をさらに備える、請求項1に記載の方法。 - 前記動きベクトルによって特定される予測されるブロック間の差分を決定することさらに備え、
前記現在のブロックの前記双予測される予測のための前記2つの参照ピクチャリストからの前記予測子のために使用される前記重みに基づいて、前記動きベクトルに対して前記動きベクトル改良プロセスを無効にすると決定することは、前記動きベクトルによって特定される前記予測されるブロック間の前記決定された差分にさらに基づき、
前記動きベクトルによって特定される前記予測されるブロック間の前記差分が閾値未満である場合、前記動きベクトル改良プロセスを無効にすると決定することをさらに備える、
請求項1に記載の方法。 - 前記予測されるブロックの中のサンプルの数および前記予測されるブロックの中の前記サンプルのビット深度に基づいて、前記閾値を決定することをさらに備える、請求項6に記載の方法。
- 前記第2のブロックのための前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定することは、
前記予測されるブロック間の絶対差分和または前記予測されるブロック間の2乗誤差和を使用して、前記第2のブロックのための前記動きベクトルによって特定される前記予測されるブロック間の前記差分を決定することを備える、
請求項5に記載の方法。 - 前記動きベクトル改良プロセスは双方向テンプレート照合である、請求項5に記載の方法。
- 前記第2のブロックのための前記動きベクトルに対して前記双方向テンプレート照合を適用することは、
前記双方向テンプレート照合を使用して前記第2のブロックのための2つの予測されるブロックを決定することを備え、前記2つの予測されるブロックのうちの第1の予測されるブロックは前記第2のブロックのための前記動きベクトルに基づいて決定され、前記第2のブロックのための前記動きベクトルは非整数動きベクトルを含み、前記第1の予測されるブロックを決定することは、
前記非整数動きベクトルに基づいて水平補間を実行することと、
内部ビット深度より高いビット深度において前記水平補間の出力を記憶することと、
垂直補間を実行するために、前記より高いビット深度で記憶されている前記水平補間の前記出力を使用することと、
を備える、請求項9に記載の方法。 - ビデオデータを復号するように構成される装置であって、
ビデオデータの現在のブロックを記憶するように構成されるメモリと、
回路において実装され、前記メモリと通信している1つまたは複数のプロセッサと、を備え、前記1つまたは複数のプロセッサは、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定し、
前記現在のブロックの前記双予測される予測のための2つの参照ピクチャリストからの予測子のために使用される重みが等しくないと決定し、
前記現在のブロックの前記双予測される予測のための前記2つの参照ピクチャリストからの前記予測子のために使用される前記重みが等しくないという前記決定に基づいて、前記動きベクトルのための動きベクトル改良プロセスを無効にすると決定し、前記動きベクトル改良プロセスは、マージ動きベクトル改良、マージオフセット拡張、双方向テンプレート照合、およびパラメトリックサブペル動きベクトル導出のうちの1つであり、
前記動きベクトル改良プロセスなしで、前記双予測される予測を使用してビデオデータの前記現在のブロックを復号する、
ように構成される、装置。 - 前記1つまたは複数のプロセッサは、請求項2~10のいずれか一項に記載の方法を実行するようにさらに構成される、請求項11に記載の装置。
- 前記装置がワイヤレス通信デバイスである、請求項11に記載の装置。
- 実行されると、ビデオデータを復号するように構成された1つまたは複数のプロセッサに、
双予測される予測を使用して符号化されたビデオデータの現在のブロックのための動きベクトルを決定することと、
前記現在のブロックの前記双予測される予測のための2つの参照ピクチャリストからの予測子のために使用される重みが等しくないと決定することと、
前記現在のブロックの前記双予測される予測のための前記2つの参照ピクチャリストからの前記予測子のために使用される前記重みが等しくないという前記決定に基づいて、前記動きベクトルのための動きベクトル改良プロセスを無効にすると決定することと、前記動きベクトル改良プロセスは、マージ動きベクトル改良、マージオフセット拡張、双方向テンプレート照合、およびパラメトリックサブペル動きベクトル導出のうちの1つであり、
前記動きベクトル改良プロセスなしで、前記双予測される予測を使用してビデオデータの前記現在のブロックを復号することと、
を行わせる命令を記憶した非一時的コンピュータ可読記憶媒体。 - 実行されると、1つまたは複数のプロセッサに、請求項2~10のいずれか一項に記載の方法を実行させる命令をさらに記憶した請求項14に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962812828P | 2019-03-01 | 2019-03-01 | |
US62/812,828 | 2019-03-01 | ||
US16/803,520 | 2020-02-27 | ||
US16/803,520 US11190797B2 (en) | 2019-03-01 | 2020-02-27 | Constraints on decoder-side motion vector refinement based on weights for bi-predicted prediction |
PCT/US2020/020392 WO2020180685A1 (en) | 2019-03-01 | 2020-02-28 | Constraints on decoder-side motion vector refinement |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022521979A JP2022521979A (ja) | 2022-04-13 |
JPWO2020180685A5 JPWO2020180685A5 (ja) | 2023-02-09 |
JP7507166B2 true JP7507166B2 (ja) | 2024-06-27 |
Family
ID=72236396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021549850A Active JP7507166B2 (ja) | 2019-03-01 | 2020-02-28 | デコーダ側動きベクトル改良に対する制約 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11190797B2 (ja) |
EP (1) | EP3932068A1 (ja) |
JP (1) | JP7507166B2 (ja) |
KR (1) | KR102662462B1 (ja) |
CN (1) | CN113678452A (ja) |
BR (1) | BR112021015658A2 (ja) |
SG (1) | SG11202108316QA (ja) |
TW (1) | TW202041002A (ja) |
WO (1) | WO2020180685A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113545076A (zh) * | 2019-03-03 | 2021-10-22 | 北京字节跳动网络技术有限公司 | 基于图片头中的信息启用bio |
CA3143538A1 (en) * | 2019-06-14 | 2020-12-17 | Lg Electronics Inc. | Image decoding method and device for deriving weight index information for generation of prediction sample |
WO2020256405A1 (ko) * | 2019-06-17 | 2020-12-24 | 한국전자통신연구원 | 화면 내 블록 복사 기반 부호화/복호화 방법, 장치 및 비트스트림 저장매체 |
US11399188B2 (en) * | 2020-01-01 | 2022-07-26 | Tencent America LLC | Method for mixed NAL unit type support in a coded picture |
US11671616B2 (en) | 2021-03-12 | 2023-06-06 | Lemon Inc. | Motion candidate derivation |
US11936899B2 (en) * | 2021-03-12 | 2024-03-19 | Lemon Inc. | Methods and systems for motion candidate derivation |
US20230007238A1 (en) * | 2021-06-30 | 2023-01-05 | Qualcomm Incorporated | Using unrefined motion vectors for performing decoder-side motion vector derivation |
US20230135378A1 (en) * | 2021-11-01 | 2023-05-04 | Tencent America LLC | Index reordering of bi-prediction with cu-level weight (bcw) by using template-matching |
WO2023131248A1 (en) * | 2022-01-05 | 2023-07-13 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
WO2023132723A1 (ko) * | 2022-01-09 | 2023-07-13 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
WO2023136655A1 (ko) * | 2022-01-13 | 2023-07-20 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
WO2023171912A1 (ko) * | 2022-03-07 | 2023-09-14 | 현대자동차주식회사 | 비디오 프레임 경계에서의 예측블록 생성 |
WO2023186040A1 (en) * | 2022-03-31 | 2023-10-05 | Mediatek Inc. | Bilateral template with multipass decoder side motion vector refinement |
WO2024083197A1 (en) * | 2022-10-20 | 2024-04-25 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020069076A1 (en) | 2018-09-26 | 2020-04-02 | Vid Scale, Inc. | Bi-prediction for video coding |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102480191B1 (ko) * | 2016-05-13 | 2022-12-21 | 브이아이디 스케일, 인크. | 비디오 코딩을 위한 일반화된 다중-가설 예측 시스템 및 방법 |
US10750203B2 (en) * | 2016-12-22 | 2020-08-18 | Mediatek Inc. | Method and apparatus of adaptive bi-prediction for video coding |
US20180192071A1 (en) * | 2017-01-05 | 2018-07-05 | Mediatek Inc. | Decoder-side motion vector restoration for video coding |
US10701391B2 (en) * | 2017-03-23 | 2020-06-30 | Qualcomm Incorporated | Motion vector difference (MVD) prediction |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
WO2019234672A1 (en) * | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partial cost calculation |
TWI719519B (zh) * | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 對於dmvr的塊尺寸限制 |
WO2020084462A1 (en) * | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on block size |
US11153590B2 (en) * | 2019-01-11 | 2021-10-19 | Tencent America LLC | Method and apparatus for video coding |
US11140409B2 (en) * | 2019-03-22 | 2021-10-05 | Lg Electronics Inc. | DMVR and BDOF based inter prediction method and apparatus thereof |
US11039150B2 (en) * | 2019-04-19 | 2021-06-15 | Tencent America LLC | Method and apparatus for video coding |
-
2020
- 2020-02-27 US US16/803,520 patent/US11190797B2/en active Active
- 2020-02-28 EP EP20714428.8A patent/EP3932068A1/en active Pending
- 2020-02-28 BR BR112021015658-5A patent/BR112021015658A2/pt unknown
- 2020-02-28 SG SG11202108316QA patent/SG11202108316QA/en unknown
- 2020-02-28 WO PCT/US2020/020392 patent/WO2020180685A1/en active Application Filing
- 2020-02-28 KR KR1020217027205A patent/KR102662462B1/ko active IP Right Grant
- 2020-02-28 JP JP2021549850A patent/JP7507166B2/ja active Active
- 2020-02-28 CN CN202080016719.8A patent/CN113678452A/zh active Pending
- 2020-03-02 TW TW109106792A patent/TW202041002A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020069076A1 (en) | 2018-09-26 | 2020-04-02 | Vid Scale, Inc. | Bi-prediction for video coding |
JP2022502924A (ja) | 2018-09-26 | 2022-01-11 | ヴィド スケール インコーポレイテッド | ビデオコーディングのための双予測 |
Also Published As
Publication number | Publication date |
---|---|
TW202041002A (zh) | 2020-11-01 |
JP2022521979A (ja) | 2022-04-13 |
BR112021015658A2 (pt) | 2021-10-05 |
EP3932068A1 (en) | 2022-01-05 |
SG11202108316QA (en) | 2021-09-29 |
CN113678452A (zh) | 2021-11-19 |
WO2020180685A1 (en) | 2020-09-10 |
US11190797B2 (en) | 2021-11-30 |
KR102662462B1 (ko) | 2024-04-30 |
US20200280736A1 (en) | 2020-09-03 |
KR20210130154A (ko) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7507166B2 (ja) | デコーダ側動きベクトル改良に対する制約 | |
JP7446297B2 (ja) | デコーダ側動きベクトル改良 | |
CN112703740B (zh) | 用于仿射模式的基于历史的运动矢量预测 | |
KR102579523B1 (ko) | 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성 | |
CN110121883B (zh) | 在图像编码系统中对图像进行解码的方法和装置 | |
JP7504925B2 (ja) | ビデオコーディングのための組み合わされたインターおよびイントラ予測モード | |
EP3649785A1 (en) | Partial reconstruction based template matching for motion vector derivation | |
JP7463399B2 (ja) | ビデオコーディングのための勾配ベースの予測改良 | |
JP2018513611A (ja) | ビデオコーディングにおける動きベクトル導出 | |
US10958928B2 (en) | Decoder-side motion vector derivation for video coding | |
US11122288B2 (en) | Spatio-temporal motion vector prediction patterns for video coding | |
CN114073079A (zh) | 带有运动信息采集缓冲器的运动矢量预测 | |
TWI704799B (zh) | 取決於形狀的插值順序 | |
JP2024508216A (ja) | ビデオコーディングのためのモデルベースの動きベクトル差分導出およびテンプレート照合予測 | |
TW202243475A (zh) | 視頻譯碼中的雙向光流 | |
TW202107894A (zh) | 以歷史為基礎之運動向量預測之簡化 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220201 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240617 |