JP2023089253A - オプティカルフローによる予測洗練化における方法および装置 - Google Patents
オプティカルフローによる予測洗練化における方法および装置 Download PDFInfo
- Publication number
- JP2023089253A JP2023089253A JP2023069637A JP2023069637A JP2023089253A JP 2023089253 A JP2023089253 A JP 2023089253A JP 2023069637 A JP2023069637 A JP 2023069637A JP 2023069637 A JP2023069637 A JP 2023069637A JP 2023089253 A JP2023089253 A JP 2023089253A
- Authority
- JP
- Japan
- Prior art keywords
- flag
- prof
- bdof
- decoder
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 143
- 230000003287 optical effect Effects 0.000 title claims description 34
- 230000033001 locomotion Effects 0.000 claims abstract description 173
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 107
- 239000000523 sample Substances 0.000 claims description 140
- 239000013598 vector Substances 0.000 claims description 25
- 230000002457 bidirectional effect Effects 0.000 claims description 12
- 230000011664 signaling Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 239000013074 reference sample Substances 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims 1
- 238000013461 design Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 28
- 238000009795 derivation Methods 0.000 description 25
- 230000002123 temporal effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000013139 quantization Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000005192 partition Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000723655 Cowpea mosaic virus Species 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101000905241 Mus musculus Heart- and neural crest derivatives-expressed protein 1 Proteins 0.000 description 1
- 101001031591 Mus musculus Heart- and neural crest derivatives-expressed protein 2 Proteins 0.000 description 1
- 102100029471 WD repeat and FYVE domain-containing protein 2 Human genes 0.000 description 1
- 101710175677 WD repeat and FYVE domain-containing protein 2 Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本出願は、2019年7月10日に出願された仮出願第62/872,700号、および2019年7月12日に出願された仮出願第62/873,837号に基づき、これらの仮出願の優先権を主張するものであり、これらの仮出願の両方の全体は、全ての目的のために参照により本明細書に組み込まれる。
VVCでは、BDOFは、双予測された符号化ブロックの予測サンプルを洗練するために適用される。具体的には、図4に示されるように、BDOFは、双予測が使用されるときにブロックベースの動き補償予測の上で実施されるサンプル単位の動き洗練化である。
として導出され、ここで、
はフロア関数であり、clip3(min,max,x)は[min,max]の範囲の内部の所与の値xをクリップする関数であり、記号≫はビット単位の右シフト演算を表し、記号≪はビット単位の左シフト演算を表し、thBDOFは不規則な局所動きによる伝搬誤差を防止するための動き洗練化しきい値であり、動き洗練化しきい値は1≪max(5,bit-depth-7).に等しく、ここで、bit-depthは内部ビット深度である。(1)において、
、
である。
として計算され、ここで、
であり、ここで、I(k)(i,j)は、中間の高精度(すなわち、16ビット)において生成されるk=0,1であるリストk内の予測信号の座標(i,j)におけるサンプル値であり、
および
は、その2つの隣接サンプルの間の差分を直接計算することによって取得されたサンプルの水平勾配および垂直勾配であり、すなわち、
である。
によって示されるように、オプティカルフローモデルに基づいて動き軌道に沿ってL0/L1予測サンプルを補間することによって計算され、ここで、shiftおよびooffsetは、それぞれ15-bit-depthおよび1≪(14-bit-depth)+2・(1≪13)に等しい、双予測のためのL0予測信号およびL1予測信号を組み合わせるために適用される右シフト値およびオフセット値である。上記のビット深度制御方法に基づいて、BDOFプロセス全体の中間パラメータの最大ビット深度が32ビットを超えず、乗算への最も大きい入力が15ビット以内である、すなわち、1つの15ビット乗算器がBDOF実装には十分であることが保証される。
HEVCでは、動き補償予測に対して並進動きモデルのみが適用される。一方、現実の世界では、多くの種類の動き、例えば、ズームイン/アウト、回転、透視動き(perspective motion)、および他の不規則な動きがある。VVCでは、アフィン動き補償予測は、インター予測に対して並進動きモデルが適用されるかまたはアフィン動きモデルが適用されるかを示すためにインター符号化ブロックごとに1つのフラグをシグナリングすることによって適用される。現在のVVC設計では、4パラメータアフィンモードおよび6パラメータアフィンモードを含む2つのアフィンモードは、1つのアフィン符号化ブロックに対してサポートされている。
として導出される。
アフィン動き補償精度を改善するために、オプティカルフローモデルに基づいてサブブロックベースのアフィン動き補償を洗練するPROFは、現在のVVCにおいて現在研究されている。具体的には、サブブロックベースのアフィン動き補償を実施した後、1つのアフィンブロックのルーマ予測サンプルが、オプティカルフロー方程式に基づいて導出された1つのサンプル洗練化値によって修正される。詳細には、PROFの動作は以下の4つのこととして要約され得る。
によって計算され、ここで、Δv(i,j)は、サンプルロケーション(i,j)について算出され、v(i,j)によって示されるピクセルMVと、ピクセル(i,j)があるサブブロックのサブブロックMVとの間の差分である。加えて、現在のPROF設計では、予測洗練化を元の予測サンプルに加算した後、洗練された予測サンプルの値を15ビット以内になるようにクリップするために1つのクリッピング動作が実施され、すなわち、
であり、ここで、I(i,j)およびIr(i,j)は、それぞれ、ロケーション(i,j)における元の予測サンプルおよび洗練された予測サンプルである。
として導出され得る。
であり、ここで、(v0x,v0y)、(v1x,v1y)、(v2x,v2y)は現在の符号化ブロックの左上、右上、および左下の制御点MVであり、wおよびhはブロックの幅および高さである。既存のPROF設計では、MV差分ΔvxおよびΔvyは常に1/32ペルの精度で導出される。
局所照明補償(LIC:local illumination compensation)は、時間隣接ピクチャの間に存在する局所照明変化の問題に対処するために使用される符号化ツールである。重みパラメータとオフセットパラメータのペアは、1つの現在のブロックの予測サンプルを取得するために参照サンプルに適用される。一般的な数学モデルは、
として与えられ、ここで、Pr[x+v]は動きベクトルvによって示される参照ブロックであり、[α,β]は参照ブロックに対する重みパラメータとオフセットパラメータの対応するペアであり、P[x]は最終的な予測ブロックである。重みパラメータとオフセットパラメータのペアは、現在のブロックのテンプレート(すなわち、隣接する再構成されたサンプル)とテンプレートの参照ブロック(現在のブロックの動きベクトルを使用して導出される)とに基づいて最小線形平均二乗誤差(LLMSE:least linear mean square error)アルゴリズムを使用して推定される。テンプレートサンプルとテンプレートの参照サンプルとの間の平均二乗差を最小限に抑えることによって、αおよびβの数学表現は、次のように導出され得る。
ここで、Iはテンプレート内のサンプルの数を表す。Pc[xi]は現在のブロックのテンプレートのi番目のサンプルであり、Pr[xi]は動きベクトルvに基づくi番目のテンプレートサンプルの参照サンプルである。
PROFはアフィンモードの符号化効率を高めることができるが、その設計は依然としてさらに改善される可能性がある。特に、PROFとBDOFの両方がオプティカルフローの概念に基づいて構築されるという事実を考慮すると、PROFがハードウェア実装を容易にするためにBDOFの既存の論理を最大限に活用することができるように、PROFおよびBDOFの設計をできるだけ調和させることが非常に望ましい。そのような考慮に基づいて、現在のPROF設計とBDOF設計との間の相互作用に関する以下の非効率性が本開示において識別される。
本開示では、ハードウェアコーデック実装を容易にするために既存のPROF設計を改善および簡略化するための方法が提供される。特に、既存のBDOF論理をPROFと最大限に共有するために、BDOFおよびPROFの設計を調和させることに特別な注意が払われる。一般に、本開示における提案される技術の主要な態様は、次のように要約される。
「問題の陳述」のセクションにおいて分析されたように、現在のPROFにおけるMV差分およびサンプル勾配の表現ビット深度は、正確な予測洗練化を導出するように整合されていない。さらに、サンプル勾配およびMV差分の表現ビット深度はBDOFとPROFとの間で一貫性がなく、このことはハードウェアにとって好ましくない。このセクションでは、BDOFのビット深度表現方法をPROFに拡張することによって、1つの改善されたビット深度表現方法が提案される。具体的には、提案される方法では、各サンプル位置における水平勾配および垂直勾配は、
として計算される。
として導出され、ここで、dMvBitsはBDOFプロセスによって使用される勾配値のビット深度であり、すなわち、dMvBits=max(5,(bit-depth-7))+1である。方程式(13)および(14)では、c、d、e、およびfはアフィン制御点MVに基づいて導出されたアフィンパラメータである。具体的には、4パラメータアフィンモデルの場合、
である。
であり、ここで、(v0x,v0y)、(v1x,v1y)、(v2x,v2y)は、1/16ペル精度で表される、現在の符号化ブロックの左上、右上、および左下の制御点MVであり、wおよびhはブロックの幅および高さである。
と仮定すると、サンプル位置における対応するPROF MV差分Δv(x,y)は、
として計算されるはずであり、ここで、ΔxおよびΔyは、1つのサンプルロケーションからサンプルが属するサブブロックの中心への、1/4ペル精度で表される水平オフセットおよび垂直オフセットであり、c、d、e、およびfは、1/16ペルのアフィン制御点MVに基づいて導出されたアフィンパラメータである。最終的に、サンプルの最終的なPROF洗練化は、
として計算される。
として計算されるはずである。
ここで、limitは
に等しいしきい値であり、clip3(min,max,x)は[min,max]の範囲の内部の所与の値xをクリップする関数である。1つの例では、nbの値は2max(5,bit-depth-7)となるように設定される。最終的に、サンプルのPROF洗練化は、
として計算される。
前に論じられたように、1つのアフィン符号化ブロックが双予測されるとき、現在のPROFが一方的に適用される。より具体的には、PROFサンプル洗練化が別々に導出され、リストL0およびL1内の予測サンプルに適用される。その後、それぞれリストL0およびL1からの洗練された予測信号は、ブロックの最終的な双予測信号を生成するために平均される。これは、サンプル洗練化が導出され、双予測信号に適用されるBDOF設計とは対照的である。BDOFおよびPROFの双予測ワークフローの間のそのような差は、実際のコーデック・パイプライン設計にとって好ましくないことがある。
として計算され、ここで、shiftおよびooffsetは、双予測のためのL0予測信号およびL1予測信号を組み合わせるために適用される右シフト値およびオフセット値であり、それぞれ、(15-bit-depth)および1≪(14-bit-depth)+(2≪13)に等しい。さらに、(18)に示されるように、既存のPROF設計における((9)に示されるような)クリッピング動作は、提案される方法から削除される。
前に説明されたように、BDOFとPROFの両方は現在の符号化ブロック内部の各サンプルの勾配を計算し、このことはブロックの各側の予測サンプルの1つの追加の行/列にアクセスする。追加の補間複雑性を回避するために、ブロック境界の周りの拡張領域内の必要とされる予測サンプルは、整数参照サンプルから直接コピーされる。しかしながら、「問題の陳述」のセクションにおいて指摘されたように、異なるロケーションにおける整数サンプルは、BDOFおよびPROFの勾配値を計算するために使用される。
既存のBDOF設計およびPROF設計では、2つの符号化ツールの有効化/無効化を別々に制御するために、SPSにおいて2つの異なるフラグがシグナリングされる。しかしながら、BDOFとPROFとの間の類似性により、1つの同じ制御フラグによって高レベルからBDOFおよびPROFを有効化および/または無効化することがより望ましい。そのような考慮に基づいて、テーブル1に示されるように、sps_bdof_prof_enabled_flagと呼ばれる1つの新しいフラグがSPSに導入される。テーブル1に示されるように、BDOFの有効化および無効化はsps_bdof_prof_enabled_flagのみに依存する。フラグが1に等しいとき、シーケンス内のビデオ・コンテンツを符号化するためにBDOFが有効化される。さもなければ、sps_bdof_prof_enabled_flagが0に等しいとき、BDOFは適用されない。一方、sps_bdof_prof_enabled_flagに加えて、SPSレベル・アフィン制御フラグ、すなわち、sps_affine_enabled_flagも、PROFを条件付きで有効化および無効化するために使用される。フラグsps_bdof_prof_enabled_flagとsps_affine_enabled_flagの両方が1に等しいとき、アフィンモードで符号化される全ての符号化ブロックに対してPROFが有効化される。フラグsps_bdof_prof_enabled_flagが1に等しく、sps_affine_enabled_flagが0に等しいとき、PROFが無効化される。
現在のPROF設計によれば、PROFは、1つの符号化ブロックがアフィンモードによって予測されるときに常に呼び出される。しかしながら、方程式(6)および(7)に示されるように、1つのアフィンブロックのサブブロックMVは制御点MVから導出される。したがって、制御点MVの間の差分が比較的小さいとき、各サンプル位置におけるMVは一貫性があるはずである。そのような場合、PROFを適用する利益は非常に限定され得る。したがって、PROFの平均的な算出複雑性をさらに低減するために、1つの4×4サブブロック内のサンプル単位のMVとサブブロック単位のMVとの間の最大MV差分に基づいてPROFベースのサンプル洗練化を適応的にスキップすることが提案される。1つの4×4サブブロック内部のサンプルのPROF MV差分の値はサブブロック中心に対して対称であるので、最大の水平および垂直PROF MV差分は方程式(10)に基づいて
として計算され得る。
現在のブロックの隣接する再構成されたサンプル(すなわち、テンプレート)は線形モデルパラメータを導出するためにLICによって使用されるので、1つのLIC符号化ブロックの復号は、その隣接サンプルの完全な再構成に依存する。そのような相互依存性により、実際のハードウェア実装の場合、LICは、隣接する再構成されたサンプルがLICパラメータ導出のために利用可能になる再構成ステージにおいて実施される必要がある。ブロック再構成は逐次的に(すなわち、1つずつ)実施されなければならないので、スループット(すなわち、並行して行われ得る単位時間当たりの作業の量)は、他の符号化方法をLIC符号化ブロックに一緒に適用するときに考慮すべき1つの重要な問題である。このセクションでは、アフィンモードに対してPROFとLICの両方が有効化されるときの相互作用を処理するための2つの方法が提案される。
として例示されるように、ブロックの最終的な予測サンプルを取得するために(テンプレートおよびその参照サンプルから導出された)重みおよびオフセットのペアをPROF調整された予測サンプルに適用することによって実施され、ここで、Pr[x+v]は動きベクトルvによって示される現在のブロックの参照ブロックであり、αおよびβはLIC重みおよびオフセットであり、P[x]は最終的な予測ブロックであり、ΔI[x]は(17)において導出されたPROF洗練化である。
Claims (26)
- ビデオ信号を復号するための双方向オプティカルフロー(BDOF)およびオプティカルフローによる予測洗練化(PROF)の統合方法であって、
デコーダにおいて、ビデオブロックを複数の重複しないビデオサブブロックに分割することであって、前記複数の重複しないビデオサブブロックのうちの少なくとも1つが、2つの動きベクトルに関連付けられることと、
前記デコーダにおいて、前記複数の重複しないビデオサブブロックのうちの前記少なくとも1つの前記2つの動きベクトルに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであって、表示順序において、前記第1の参照ピクチャI(0)が現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が前記現在のピクチャの後にあることと、
前記デコーダにおいて、前記第1の参照ピクチャI(0)内の参照ブロックから前記ビデオサブブロックの第1の予測サンプルI(0)(i,j)’sを取得することであって、iおよびjが前記現在のピクチャを有する1つのサンプルの座標を表す、ことと、
前記デコーダにおいて、前記第2の参照ピクチャI(1)内の参照ブロックから前記ビデオサブブロックの第2の予測サンプルI(1)(i,j)’sを取得することと、
前記デコーダにおいて、前記第1の予測サンプルI(0)(i,j)’sおよび第2の予測サンプルI(1)(i,j)’sの水平および垂直勾配値を取得することと、
前記デコーダにおいて、前記ビデオブロックがアフィンモードで符号化されないとき、前記BDOFに基づいて前記ビデオサブブロック内のサンプルのための動き洗練化を取得することと、
前記デコーダにおいて、前記ビデオブロックがアフィンモードで符号化されるとき、前記PROFに基づいて前記ビデオサブブロック内のサンプルのための動き洗練化を取得することと、
前記デコーダにおいて、前記動き洗練化に基づいて前記ビデオブロックの予測サンプルを取得することと、
を含む方法。 - 前記第1の予測サンプルI(0)(i,j)’sおよび第2の予測サンプルI(1)(i,j)’sの前記水平および垂直勾配値を取得することが、
前記デコーダにおいて、対応する整数サンプル位置をコピーすることによって、前記ビデオサブブロックの第1の予測ブロックおよび第2の予測ブロックの上の境界、下の境界、左の境界、および右の境界に沿って拡張サンプルをパディングすること、を含む、請求項1に記載の統合方法。 - 拡張サンプルをパディングすることが、
前記デコーダにおいて、左の整数参照サンプルから分数サンプル位置にコピーすることによって、前記左の境界および右の境界に沿って拡張サンプルをパディングすることと、
前記デコーダにおいて、上の整数参照サンプルから分数サンプル位置にコピーすることによって、前記上の境界および下の境界に沿って拡張サンプルをパディングすることと、を含む、請求項2に記載の統合方法。 - 拡張サンプルをパディングすることが、
前記デコーダにおいて、水平方向で分数サンプル位置に最も近い整数参照サンプルからコピーすることによって、前記左の境界および右の境界に沿って拡張サンプルをパディングすることと、
前記デコーダにおいて、垂直方向で分数サンプル位置に最も近い前記整数参照サンプルからコピーすることによって、前記上の境界および下の境界に沿って拡張サンプルをパディングすることと、を含む、請求項2に記載の統合方法。 - 各重複しないビデオサブブロックが、幅で4つのサンプルおよび高さで4つのサンプルを含む、請求項1に記載の統合方法。
- ビデオ信号を復号するための双方向オプティカルフロー(BDOF)およびオプティカルフローによる予測洗練化(PROF)の方法であって、
デコーダにおいて、ビデオブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであって、表示順序において、前記第1の参照ピクチャI(0)が現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が前記現在のピクチャの後にあることと、
前記デコーダにおいて、前記第1の参照ピクチャI(0)内の参照ブロックから前記ビデオブロックの第1の予測サンプルI(0)(i,j)を取得することであって、iおよびjが前記現在のピクチャを有する1つのサンプルの座標を表すことと、
前記デコーダにおいて、前記第2の参照ピクチャI(1)内の参照ブロックから前記ビデオブロックの第2の予測サンプルI(1)(i,j)を取得することと、
前記デコーダによって、少なくとも1つのフラグを受信することであって、前記少なくとも1つのフラグがシーケンスパラメータセット(SPS)においてエンコーダによってシグナリングされ、現在のビデオブロックに対して前記BDOFおよび前記PROFが有効化されるかどうかをシグナリングすることと、
前記デコーダにおいて、前記少なくとも1つのフラグが有効化されるとき、前記ビデオブロックがアフィンモードで符号化されないときに前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオブロックの動き洗練化を導出するためにBDOFを適用することと、
前記デコーダにおいて、前記少なくとも1つのフラグが有効化されるとき、前記ビデオブロックがアフィンモードで符号化されるときに前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオブロックの前記動き洗練化を導出するためにPROFを適用することと、
前記デコーダにおいて、前記動き洗練化に基づいて前記ビデオブロックの予測サンプルを取得することと、
を含む方法。 - 前記デコーダによって、前記少なくとも1つのフラグを受信することが、
前記デコーダによって、sps_bdof_prof_enabled_flagフラグを受信することであって、前記sps_bdof_prof_enabled_flagフラグが、前記現在のビデオブロックに対して前記BDOFおよびPROFが有効化されるかどうかをシグナリングすること、を含む、請求項6に記載の方法。 - 前記sps_bdof_prof_enabled_flagフラグが1に等しく、前記BDOFが有効化される、請求項7に記載の方法。
- 前記デコーダによって、前記少なくとも1つのフラグを受信することが、
前記デコーダによって、sps_affine_enabled_flagフラグを受信することであって、前記sps_affine_enabled_flagフラグが、前記現在のビデオブロックに対してアフィンが有効化されるかどうかをシグナリングすること、を含む、請求項7に記載の方法。 - 前記デコーダにおいて、前記sps_affine_enabled_flagフラグおよび前記sps_bdof_prof_enabled_flagフラグが1に等しいとき、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいてPROFを前記ビデオブロックに適用することをさらに含む、請求項9に記載の方法。
- 前記sps_bdof_prof_enabled_flagフラグが1に等しく、前記sps_affine_enabled_flagフラグが0に等しいと決定したことに応答して、前記PROFを無効化することをさらに含む、請求項9に記載の方法。
- 前記sps_bdof_prof_enabled_flagフラグが0に等しいと決定したことに応答して、前記BDOFおよび前記PROFを無効化することをさらに含む、請求項9に記載の方法。
- 前記デコーダによって、前記少なくとも1つのフラグを受信することが、
前記デコーダによって、前記sps_bdof_prof_enabled_flagフラグまたはsps_dmvr_enabled_flagが1に等しいとき、sps_bdof_prof_dmvr_slice_present_flagフラグを受信することと、
前記デコーダによって、前記sps_bdof_prof_dmvr_slice_present_flagフラグが1に等しいとき、前記現在のビデオブロックに対して前記BDOF、PROF、およびデコーダ側の動きベクトル洗練化(DMVR)を無効化するslice_disable_bdof_prof_dmvr_flagフラグを受信することと、を含む、請求項9に記載の方法。 - コンピューティングデバイスであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体と、を含み、
前記1つまたは複数のプロセッサが、
ビデオブロックを複数の重複しないビデオサブブロックに分割することであって、前記複数の重複しないビデオサブブロックのうちの少なくとも1つが、2つの動きベクトルに関連付けられることと、
前記複数の重複しないビデオサブブロックのうちの前記少なくとも1つの前記2つの動きベクトルに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであって、表示順序において、前記第1の参照ピクチャI(0)が現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が前記現在のピクチャの後にあることと、
前記第1の参照ピクチャI(0)内の参照ブロックから前記ビデオサブブロックの第1の予測サンプルI(0)(i,j)’sを取得することであって、iおよびjが前記現在のピクチャを有する1つのサンプルの座標を表すことと、
前記第2の参照ピクチャI(1)内の参照ブロックから前記ビデオサブブロックの第2の予測サンプルI(1)(i,j)’sを取得することと、
前記第1の予測サンプルI(0)(i,j)’sおよび第2の予測サンプルI(1)(i,j)’sの水平および垂直勾配値を取得することと、
前記ビデオブロックがアフィンモードで符号化されないとき、双方向オプティカルフロー(BDOF)に基づいて前記ビデオサブブロック内のサンプルのための動き洗練化を取得することと、
前記ビデオブロックがアフィンモードで符号化されるとき、オプティカルフローによる予測洗練化(PROF)に基づいて前記ビデオサブブロック内のサンプルのための動き洗練化を取得することと、
前記動き洗練化に基づいて前記ビデオブロックの予測サンプルを取得すること、を行うように構成される、コンピューティングデバイス。 - 前記第1の予測サンプルI(0)(i,j)’sおよび第2の予測サンプルI(1)(i,j)’sの前記水平および垂直勾配値を取得するように構成された前記1つまたは複数のプロセッサが、
対応する整数サンプル位置をコピーすることによって、前記ビデオサブブロックの第1の予測ブロックおよび第2の予測ブロックの上の境界、下の境界、左の境界、および右の境界に沿って拡張サンプルをパディングするようにさらに構成される、請求項14に記載のコンピューティングデバイス。 - 拡張サンプルをパディングするように構成された前記1つまたは複数のプロセッサが、
左の整数参照サンプルから分数サンプル位置にコピーすることによって、前記左の境界および右の境界に沿って拡張サンプルをパディングすることと、
上の整数参照サンプルから分数サンプル位置にコピーすることによって、前記上の境界および下の境界に沿って拡張サンプルをパディングすること、を行うようにさらに構成される、請求項15に記載のコンピューティングデバイス。 - 拡張サンプルをパディングするように構成された前記1つまたは複数のプロセッサが、
最も近い整数参照サンプルから分数サンプル位置に水平方向でコピーすることによって、前記左の境界および右の境界に沿って拡張サンプルをパディングすることと、
前記最も近い整数参照サンプルから分数サンプル位置に垂直方向でコピーすることによって、前記上の境界および下の境界に沿って拡張サンプルをパディングすること、を行うようにさらに構成される、請求項15に記載のコンピューティングデバイス。 - 各重複しないビデオサブブロックが、幅で4つのサンプルおよび高さで4つのサンプルを含む、請求項14に記載のコンピューティングデバイス。
- 1つまたは複数のプロセッサを有するコンピューティングデバイスによって実行するための複数のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記複数のプログラムが、前記1つまたは複数のプロセッサによって実行されるとき、前記コンピューティングデバイスに、
デコーダにおいて、ビデオブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであって、表示順序において、前記第1の参照ピクチャI(0)が現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が前記現在のピクチャの後にあることと、
前記デコーダにおいて、前記第1の参照ピクチャI(0)内の参照ブロックから前記ビデオブロックの第1の予測サンプルI(0)(i,j)を取得することであって、iおよびjが前記現在のピクチャを有する1つのサンプルの座標を表すことと、
前記デコーダにおいて、前記第2の参照ピクチャI(1)内の参照ブロックから前記ビデオブロックの第2の予測サンプルI(1)(i,j)を取得することと、
前記デコーダによって、少なくとも1つのフラグを受信することであって、前記少なくとも1つのフラグがシーケンスパラメータセット(SPS)においてエンコーダによってシグナリングされ、現在のビデオブロックに対して双方向オプティカルフロー(BDOF)およびオプティカルフローによる予測洗練化(PROF)が有効化されるかどうかをシグナリングすることと、
前記デコーダにおいて、前記少なくとも1つのフラグが有効化されるとき、前記ビデオブロックがアフィンモードで符号化されないときに前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオブロックの動き洗練化を導出するためにBDOFを適用することと、
前記デコーダにおいて、前記少なくとも1つのフラグが有効化されるとき、前記ビデオブロックがアフィンモードで符号化されるときに前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオブロックの前記動き洗練化を導出するためにPROFを適用することと、
前記デコーダにおいて、前記動き洗練化に基づいて前記ビデオブロックの予測サンプルを取得すること、を含む行為を実施させる、非一時的コンピュータ可読記憶媒体。 - 前記複数のプログラムが、前記コンピューティングデバイスに、
前記デコーダによって、sps_bdof_prof_enabled_flagフラグを受信することであって、前記sps_bdof_prof_enabled_flagフラグが、前記現在のビデオブロックに対して前記BDOFおよびPROFが有効化されるかどうかをシグナリングすること、をさらに実施させる、請求項19に記載の非一時的コンピュータ可読記憶媒体。 - 前記sps_bdof_prof_enabled_flagフラグが1に等しく、前記BDOFが有効化される、請求項20に記載の非一時的コンピュータ可読記憶媒体。
- 前記複数のプログラムが、前記コンピューティングデバイスに、
前記デコーダによって、sps_affine_enabled_flagフラグを受信することであって、前記sps_affine_enabled_flagフラグが、前記現在のビデオブロックに対してアフィンが有効化されるかどうかをシグナリングすること、をさらに実施させる、請求項20に記載の非一時的コンピュータ可読記憶媒体。 - 前記複数のプログラムが、前記コンピューティングデバイスに、
前記デコーダにおいて、前記sps_affine_enabled_flagフラグおよび前記sps_bdof_prof_enabled_flagフラグが1に等しいとき、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいてPROFを前記ビデオブロックに適用すること、をさらに実施させる、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記複数のプログラムが、前記コンピューティングデバイスに、
前記sps_bdof_prof_enabled_flagフラグが1に等しく、前記sps_affine_enabled_flagフラグが0に等しいと決定したことに応答して、前記PROFを無効化すること、をさらに実施させる、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記複数のプログラムが、前記コンピューティングデバイスに、
前記sps_bdof_prof_enabled_flagフラグが0に等しいと決定したことに応答して、前記BDOFおよび前記PROFを無効化すること、をさらに実施させる、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記複数のプログラムが、前記コンピューティングデバイスに、
前記デコーダによって、前記sps_bdof_prof_enabled_flagフラグまたはsps_dmvr_enabled_flagが1に等しいとき、sps_bdof_prof_dmvr_slice_present_flagフラグを受信することと、
前記デコーダによって、前記sps_bdof_prof_dmvr_slice_present_flagフラグが1に等しいとき、前記現在のビデオブロックに対して前記BDOF、PROF、およびデコーダ側の動きベクトル洗練化(DMVR)を無効化するslice_disable_bdof_prof_dmvr_flagフラグを受信すること、をさらに実施させる、請求項22に記載の非一時的コンピュータ可読記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023134199A JP2023159292A (ja) | 2019-07-10 | 2023-08-21 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023144689A JP2023164968A (ja) | 2019-07-10 | 2023-09-06 | オプティカルフローによる予測洗練化における方法および装置 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962872700P | 2019-07-10 | 2019-07-10 | |
US62/872,700 | 2019-07-10 | ||
US201962873837P | 2019-07-12 | 2019-07-12 | |
US62/873,837 | 2019-07-12 | ||
JP2022501055A JP7313533B2 (ja) | 2019-07-10 | 2020-07-10 | オプティカルフローによる予測洗練化における方法および装置 |
PCT/US2020/041701 WO2021007557A1 (en) | 2019-07-10 | 2020-07-10 | Methods and apparatus on prediction refinement with optical flow |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501055A Division JP7313533B2 (ja) | 2019-07-10 | 2020-07-10 | オプティカルフローによる予測洗練化における方法および装置 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023134199A Division JP2023159292A (ja) | 2019-07-10 | 2023-08-21 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023144689A Division JP2023164968A (ja) | 2019-07-10 | 2023-09-06 | オプティカルフローによる予測洗練化における方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023089253A true JP2023089253A (ja) | 2023-06-27 |
JP2023089253A5 JP2023089253A5 (ja) | 2023-07-07 |
Family
ID=74115339
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501055A Active JP7313533B2 (ja) | 2019-07-10 | 2020-07-10 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023069637A Pending JP2023089253A (ja) | 2019-07-10 | 2023-04-20 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023134199A Pending JP2023159292A (ja) | 2019-07-10 | 2023-08-21 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023144689A Pending JP2023164968A (ja) | 2019-07-10 | 2023-09-06 | オプティカルフローによる予測洗練化における方法および装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501055A Active JP7313533B2 (ja) | 2019-07-10 | 2020-07-10 | オプティカルフローによる予測洗練化における方法および装置 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023134199A Pending JP2023159292A (ja) | 2019-07-10 | 2023-08-21 | オプティカルフローによる予測洗練化における方法および装置 |
JP2023144689A Pending JP2023164968A (ja) | 2019-07-10 | 2023-09-06 | オプティカルフローによる予測洗練化における方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US12132910B2 (ja) |
EP (1) | EP3991431A4 (ja) |
JP (4) | JP7313533B2 (ja) |
KR (2) | KR20220140047A (ja) |
CN (2) | CN115002454A (ja) |
MX (1) | MX2022000395A (ja) |
WO (1) | WO2021007557A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021052225A (ja) | 2019-09-20 | 2021-04-01 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
CN114450943A (zh) * | 2019-09-24 | 2022-05-06 | Lg电子株式会社 | 用于基于子画面的图像编码/解码的方法和装置及发送比特流的方法 |
JP2021052389A (ja) * | 2020-08-21 | 2021-04-01 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
US11949863B2 (en) * | 2021-08-02 | 2024-04-02 | Tencent America LLC | Geometric partition mode with intra block copy |
WO2023182781A1 (ko) * | 2022-03-21 | 2023-09-28 | 주식회사 윌러스표준기술연구소 | 템플릿 매칭에 기초한 비디오 신호 처리 방법 및 이를 위한 장치 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106664416B (zh) * | 2014-07-06 | 2019-11-05 | Lg电子株式会社 | 处理视频信号的方法及其装置 |
CN107925775A (zh) * | 2015-09-02 | 2018-04-17 | 联发科技股份有限公司 | 基于双向预测光流技术的视频编解码的运动补偿方法及装置 |
EP3432578A4 (en) * | 2016-03-24 | 2019-11-20 | LG Electronics Inc. | METHOD AND APPARATUS FOR INTER-PREDICTION IN A VIDEO CODING SYSTEM |
WO2017188566A1 (ko) * | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
WO2018048265A1 (ko) * | 2016-09-11 | 2018-03-15 | 엘지전자 주식회사 | 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치 |
US10523964B2 (en) | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
KR102653715B1 (ko) * | 2017-07-03 | 2024-04-01 | 브이아이디 스케일, 인크. | 양방향 광학 흐름에 기반한 모션 보상 예측 |
CN118264800A (zh) * | 2017-12-14 | 2024-06-28 | Lg电子株式会社 | 解码和编码设备及发送用于图像的数据的设备 |
US11303898B2 (en) * | 2019-04-03 | 2022-04-12 | Mediatek Inc. | Coding transform coefficients with throughput constraints |
US11985330B2 (en) * | 2019-04-12 | 2024-05-14 | Hfi Innovation Inc. | Method and apparatus of simplified affine subblock process for video coding system |
CN114073090A (zh) * | 2019-07-01 | 2022-02-18 | 交互数字Vc控股法国公司 | 仿射运动补偿的双向光流细化 |
-
2020
- 2020-07-10 WO PCT/US2020/041701 patent/WO2021007557A1/en unknown
- 2020-07-10 MX MX2022000395A patent/MX2022000395A/es unknown
- 2020-07-10 EP EP20837212.8A patent/EP3991431A4/en active Pending
- 2020-07-10 KR KR1020227034882A patent/KR20220140047A/ko active Application Filing
- 2020-07-10 CN CN202210578295.5A patent/CN115002454A/zh active Pending
- 2020-07-10 KR KR1020227004521A patent/KR102453806B1/ko active IP Right Grant
- 2020-07-10 JP JP2022501055A patent/JP7313533B2/ja active Active
- 2020-07-10 CN CN202080059396.0A patent/CN114342378A/zh active Pending
-
2022
- 2022-01-07 US US17/571,434 patent/US12132910B2/en active Active
-
2023
- 2023-04-20 JP JP2023069637A patent/JP2023089253A/ja active Pending
- 2023-08-21 JP JP2023134199A patent/JP2023159292A/ja active Pending
- 2023-09-06 JP JP2023144689A patent/JP2023164968A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3991431A4 (en) | 2022-09-28 |
MX2022000395A (es) | 2022-04-06 |
WO2021007557A1 (en) | 2021-01-14 |
KR20220025205A (ko) | 2022-03-03 |
CN114342378A (zh) | 2022-04-12 |
JP2023159292A (ja) | 2023-10-31 |
JP2022531629A (ja) | 2022-07-07 |
JP7313533B2 (ja) | 2023-07-24 |
US20220132138A1 (en) | 2022-04-28 |
KR20220140047A (ko) | 2022-10-17 |
EP3991431A1 (en) | 2022-05-04 |
KR102453806B1 (ko) | 2022-10-11 |
JP2023164968A (ja) | 2023-11-14 |
CN115002454A (zh) | 2022-09-02 |
US12132910B2 (en) | 2024-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7372433B2 (ja) | オプティカルフローを用いた予測リファインメントに関する方法および装置 | |
JP7313533B2 (ja) | オプティカルフローによる予測洗練化における方法および装置 | |
KR102502614B1 (ko) | 광학 흐름을 사용한 예측 미세조정을 위한 방법 및 장치 | |
JP7559136B2 (ja) | オプティカルフローによる予測洗練化、双方向オプティカルフローおよびデコーダ側の動きベクトル洗練化のための方法および装置 | |
WO2020220048A1 (en) | Methods and apparatuses for prediction refinement with optical flow | |
EP3963887A1 (en) | Methods and apparatus of prediction refinement with optical flow | |
JP2024153906A (ja) | Profの方法、コンピューティングデバイス、非一時的コンピュータ可読記憶媒体、ビットストリーム送信方法、及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241029 |