JP7260562B2 - 複雑性の低いフレームレートアップ変換 - Google Patents
複雑性の低いフレームレートアップ変換 Download PDFInfo
- Publication number
- JP7260562B2 JP7260562B2 JP2020562084A JP2020562084A JP7260562B2 JP 7260562 B2 JP7260562 B2 JP 7260562B2 JP 2020562084 A JP2020562084 A JP 2020562084A JP 2020562084 A JP2020562084 A JP 2020562084A JP 7260562 B2 JP7260562 B2 JP 7260562B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- motion
- search
- sub
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/57—Motion estimation characterised by a search window with variable size or shape
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Description
本出願は、参照により本明細書にその全体が組み込まれる、2018年1月29日に出願された「FRAME-RATE UP CONVERSION WITH LOW COMPLEXITY」と題する米国特許仮出願第62/623,143号明細書の非仮特許出願であり、その米国特許法第119条(e)下における利益を主張するものである。
HEVCテストモデル(HM)および共同調査モデル(JEM)ソフトウェアは共に、ブロックベースのハイブリッドビデオ符号化フレームワークに基づいて構築される。図1は、ブロックベースのハイブリッドビデオ符号化システムのブロック図である。入力ビデオ信号102は、ブロックごとに処理される。HEVCでは、拡張されたブロックサイズ(符号化ユニット(CU)と呼ばれる)が、高解像度(1080p以上)ビデオ信号を効率的に圧縮するために使用される。HEVCでは、CUは、最高で64×64画素とすることができる。CUは、予測ユニット(PU)へとさらに区分することができ、それに対して別々の予測方法が適用される。各入力ビデオブロック(MBまたはCU)に対して、空間予測(160)、および/または時間予測(162)を実施することができる。空間予測(または「イントラ予測」)は、同じビデオピクチャ/スライスにおけるすでに符号化された近傍ブロックのサンプル(参照サンプルと呼ばれる)からの画素を使用して、現在のビデオブロックを予測する。空間予測は、ビデオ信号に固有の空間冗長性を低減する。時間予測(「インター予測」または「動き補償予測」とも呼ばれる)は、すでに符号化されたビデオピクチャから再構成された画素を使用して、現在のビデオブロックを予測する。時間予測は、ビデオ信号において固有の時間的な冗長性を低減する。所与のビデオブロックに対する時間予測信号は、通常、現在のブロックとその参照ブロックの間の動きの量および方向を示す1つまたは複数の動きベクトル(MV)によって信号送りされる。さらに、複数の参照ピクチャがサポートされる場合(H.264/AVCまたはHEVCなどの最近のビデオ符号化規格の場合そうであるが)、各ビデオブロックに対して、その参照ピクチャインデックスがさらに送られ、参照インデックスは、参照ピクチャ記憶装置(164)におけるどの参照ピクチャから時間予測信号が来たかを識別するために使用される。空間および/または時間予測の後、エンコーダにおけるモード決定ブロック(180)は、例えば、レート-歪み最適化法に基づいて、最適な予測モードを選択する。予測ブロックは、次いで、現在のビデオブロックから減算され(116)、予測残差は、変換(104)および量子化(106)を用いて非相関にされる。量子化された残差係数は、逆量子化(110)および逆変換(112)されて、再構成された残差を形成し、それは次いで、予測ブロックへと戻して加えられ(126)て、再構成されたビデオブロックを形成する。デブロッキングフィルタおよび適応型ループフィルタなどのさらなるループ内フィルタリングが、再構成されたビデオブロックに対して、それが参照ピクチャ記憶装置(164)に入る前に適用され(166)、将来のビデオブロックを符号化するために使用され得る。出力されるビデオビットストリーム120を形成するために、符号化モード(インターまたはイントラ)、予測モード情報、動き情報、および量子化された残差係数はすべて、エントロピー符号化ユニット(108)へと送られ、ビットストリームを形成するようにさらに圧縮され、パックされる。
CUレベルの動き探索
CUレベルの動き探索においては、現在のCUの初期MVを導出するために、候補ベースの探索方法が適用される。それは、テンプレートマッチングまたは双方向マッチングのコスト測定(現在のCUに適用されるFRUCモードに応じて)が計算される一意のMV候補のセットを選択することにより行われる。コストを最小化するMV候補が、CU全体の初期MVとして選択される。具体的には、以下で論じられるMV候補が、CUレベルの動き探索で評価される。
2)5個の空間候補A1、B1、B0、A0、およびB2(図5で示される)と、時間的な動きベクトル予測(TMVP)により時間的に隣接するピクチャにおいて同一位置に配置(collocated)されたブロックのMVから導出された時間的な候補とを含む通常のマージ候補のMV、
3)セクション「ピクチャレベルのMVフィールド補間」において述べられるピクチャレベルのMVフィールド補間プロセスにより生成された位置(0、0)、(W/2、0)、(0、H/2)、および(W/2、H/2)における4個の補間されたMV、式中、WおよびFは、現在のCUの幅および高さである、また
4)現在のCUの上および左隣りのMV。
CUレベルの動き探索においては、対応するMVは、CUレベルで導出される(導出されたMVは、CU全体の動きを表すために使用される)。しかし、このような粒度は、現在のCUが、別々の動きに関連付けられた異なるオブジェクトに対応するエリアをカバーできると仮定すると、十分良好であるとはいえない可能性がある。したがって、導出されるMVの精度を向上させるために、FRUCモード(テンプレートマッチングまたは双方向マッチングのいずれか)により符号化された各CUは、M×MサブCUへとさらに分割され、各サブCUに対する個々のMVは、別個に導出される。Mの値は、式2で計算され、式中、DはJEMにおいては3に設定される事前定義の分割深さ制約である。
1)CUレベルの動き探索で決定されたMV、
2)上、左、上部左、および上部右の空間で隣接するCUからのMV、
3)時間的な参照ピクチャから照合されたMVのスケーリングされたバージョン、
4)高度時間動きベクトル予測(ATMVP)により導出された候補から取得された最高4MV、および
5)空間-時間動きベクトル予測(STMVP)により導出された候補から取得された最高4MV
を含む。
FRUCが使用可能である場合、各インターピクチャが符号化される前に、一方向MV投影(projection)に基づいて、ピクチャ内のすべての4×4ブロックに対して、補間された動きフィールドが生成される。次いで、補間されたMVは、CUレベル動き探索において、最適なMVを探索するために使用されることになる。図6は、現在のピクチャにおいて、補間されたMVを生成するプロセスを示す。具体的には、現在のピクチャ(curPic)の両方の参照ピクチャリストにおいて、各参照ピクチャ(curRefPic)の動きフィールドが、4×4ブロックレベルにおいて調べられる。参照ピクチャにおける各4×4ブロックに対して、そのMVが現在のブロックにおける4×4ブロックを通過し、かつ4×4ブロックが補間されたMVに割り当てられていない場合、4×4参照ブロックのMVは、現在のピクチャと参照ピクチャの間の時間的距離(TD0)と、参照ピクチャとそれ自体の参照ピクチャの間の時間的距離(TD1)との間の比に従って、現在のピクチャに対してスケーリングされる。またスケーリングされたMVは、現在のピクチャの4×4ブロックに割り当てられることになる。4×4ブロックに割り当てられるスケーリングされたMVが存在しない場合、そのブロックに対する動きは、補間された動きフィールドにおいて利用可能ではないとマーク付けされる。
探索候補の限定された数に起因して、CUレベル動き探索およびサブCUレベル動き探索から導出されたMVは、常に、現在のCUの真の動きを表すのに十分正確ではない可能性があり、したがって、動き補償予測の効率を損なうおそれがある。導出されたMVの精度をさらに向上させるために、CUレベル動き探索およびサブCUレベル動き探索の後、MV精緻化プロセスがさらに適用される。MV精緻化は、テンプレートマッチングまたは双方向マッチングのコスト測定を最小化することによるパターンベースの局所的なMV探索プロセスである。具体的には、2つの探索パターンが、現在のJEMにおいてサポートされる、すなわち、それぞれ、CUレベル動き精緻化におけるダイヤモンド探索パターンと、サブCUレベル動き精緻化における横断探索パターンとである。CUレベル動き精緻化とサブCUレベル動き精緻化の両方に対して、MV探索は、まず4分の1のサンプル精度で、その後に、8分の1のサンプル精度でさらなる局所的な動き精緻化(最適な4分の1サンプルMV付近で)行われる。さらにMVが、小部分のサンプル位置を指す場合、HEVCにおける8タップの補間フィルタを用いるのではなく、符号化/復号化の複雑さを低減させるために、テンプレートマッチングと双方向マッチングモードの両方に対して、双一次補間フィルタが使用される。さらに、CUレベル動き精緻化とサブCUレベル動き精緻化の両方において、探索中心が事前定義の探索範囲(現在のJEMにおいて8整数ルマサンプルに等しく設定される)において更新されなくなるまで精緻化探索が繰り返されるという意味で、探索プロセスは制限されないことも述べられるべきである。
上記で述べたように、既存のFRUCにおけるCUレベルの動き探索とサブCUレベルの動き探索の両方において、一意のMV候補のセットから最適なMVが選択される。例えば、CUレベルの動き探索およびサブCUレベルの動き探索のそれぞれで調べられる必要のある最高で15および17MV候補が存在する。これは、各MV候補に対して、予測信号を生成するために、動き補償予測が複数回実施されるので、エンコーダとデコーダの両方において、大幅な複雑さの増加を生ずる。さらに、コスト測定を計算するために、時間的な参照ピクチャから参照サンプルを取り込むことに起因して、このような候補ベースの探索プロセスは、ハードウェア実装に対してメモリ帯域幅を大幅に増加させる。このようなメモリ帯域幅問題は、MV候補が、異なる参照ピクチャから得られる可能性のあるCUレベル動き探索に対して、より重大なものになる可能性がある。したがって、エンコーダ/デコーダは、高い頻度で、メモリアクセスを、異なる参照ピクチャに切り換えることになる。こうすることは、キャッシュ読取りミスの可能性を増加させるおそれがあり、したがって、外部のメモリアクセスを大幅に増加させることになる。
複数の参照ピクチャへのメモリアクセスの頻繁な切換えを回避するために、MVクラスタリングベースの動き探索においては、CUレベルおよびサブCUレベルの動き探索において、所与の参照ピクチャリストに対して、単一の参照ピクチャが選択される。参照ピクチャを選択するために、候補リストにおけるMV候補によって最も高い頻度で使用されている所与の参照ピクチャリストに対する参照ピクチャインデックスを選択するために、多数決原理が適用される。より具体的には、参照ピクチャリストLX(X=0、1)において、K個のMV候補とM個の参照ピクチャが存在すると仮定する。さらに、K個のMV候補は、LXにおけるインデックスr0、r1、・・・、rK-1を有する参照ピクチャの集合体に関連付けられ、式中、ri∈[0、M-1]であり、選択された参照ピクチャインデックスは、
参照ピクチャインデックスが決定された後、MV候補リストは、初期のMV候補を、選択された参照ピクチャインデックスにより示されたものと同じ参照ピクチャへとスケーリングすることによって更新される。一般性を失うことなく、参照ピクチャリストL0は、MVスケーリングプロセスを示すための例として使用される。例えば、i番目のMV候補MViが与えられたとき、その元のL0参照ピクチャインデックス(すなわち、
初期の動き探索の複雑さをさらに低減するために、CUレベル動き探索とサブCUレベル動き探索の両方においてコスト測定が計算されるMV候補の全体数を低減するように、MVクラスタリング法が使用される。概して、MVクラスタリング法は、同じグループに含まれるすべてのMV候補の平均距離が最小化され得るように、候補リストにおるMVをL個のグループに分割することを目的とし、ここで、Lは、最終的な候補リストにおけるMV要素の数である。参照ピクチャ選択およびMVスケーリング/プル-ニングの後、MV候補リストにおけるMVを{MV0’、MV1’、・・・、MVN-1’}と表す、ここで、Nは、MV候補リストにおける要素の合計数である。提案されるMVクラスタリング法の目標は、クラスタ内距離を最小化するために、N個のMVをL個(L≦N)のグループS={S0、S1、・・・、SL-1}へと区分することであり、
上記で述べられたように、クラスタリングベースの動き探索は、初期のMV候補をいくつかのセットへとグループ化し、各MVグループに対して1つの主MV(例えば、MV重心)を決定するだけである。このように、コスト測定に対してテストされるMV候補の合計数を低減させることができる。MVクラスタリング法は、FRUC動き導出(CUレベルとサブCUレベルの両方で)の複雑さを効率的に低減することができるが、既存のFRUC設計におけるいくつかの側面が、まだ実際のエンコーダ/デコーダのハードウェアにおいて実施されるのを困難にしている。具体的には、現在のFRUCにおける以下の複雑性問題が、本開示において識別される。
上記で指摘したように、例えば、MVクラスタリングの後の主MV候補、および初期サブCUレベル動き探索の後の各サブCUの初期MVなど、複数の初期MV候補が、様々なFRUC動き探索プロセスで生成され得る。これらの初期MVは、大きな距離だけ離れている可能性があり、現在のCU/サブCUに対する最適なMVを導出するためには、対応する参照ピクチャに対する複数の外部メモリアクセスが必要になり得る。これは、ハードウェアのコーデック実装を行うために、大幅なメモリ帯域幅増加を生ずるおそれがある。このようなメモリ帯域幅問題に対処するために、以下では、所与のFRUC動き探索に必要なすべての参照サンプルが、外部メモリへの1回のアクセスにより取得され得るように、様々なFRUC動き探索段階において、制約された探索範囲が提案される。
いくつかの実施形態では、制約された探索範囲は、MVクラスタリングの後に生成された主MV候補のメモリ帯域幅使用量を低減するためにCU/サブCUレベルの初期動き探索に対して使用される。図9は、提案される制約された探索範囲が、CU/サブCUレベルの初期動き探索プロセスに適用された後の修正されたFRUC動き探索プロセスを示す。
上記で述べたように、現在のCUの内部の各サブCUが、互いに遠く離れて存在し得るそれ自体の初期MVを導出できることを考えると、サブCUレベル動き探索の探索範囲は、一般に制限されない。このような設計はまた、実際のハードウェア実装に対して大幅なメモリ帯域幅使用量を要求する可能性がある。このような問題に対処するために、いくつかの実施形態では、CUレベル動き精緻化、サブCUレベル初期動き探索、およびサブCUレベル動き精緻化を含む、CUレベル動き探索後のすべてのFRUCに関連する動き探索プロセスに対して探索範囲制約を加えることが提案される。
上記で述べられた制約された動き探索法は、他のFRUC法と比較して、大幅なメモリ帯域幅低減を提供できるが、いくつかのこのような実施形態はまだ、参照ピクチャの外部バッファへの少なくとも2つの別々のメモリアクセスを使用しており、1つは、CUレベル初期MVを生成するためのCUレベル初期動き探索に使用され、他のものは、現在のCUの内部のサブCUのMVを生成するための他のFRUC動き探索プロセスに使用される。FRUCメモリ帯域幅をさらに低減するために、外部の参照ピクチャへのただ1回の単一メモリアクセスが、FRUCプロセス全体に使用されるように、統一された探索範囲が、すべてのFRUC関連の動き探索プロセスに対して提案される。図13は、統一された探索範囲が、FRUC動き探索プロセス全体に適用された後の、修正されたFRUC動き導出を示す。より具体的には、MVクラスタリング(1308)の後、探索中心が、式8および式9に基づいて、主MV候補から決定され、かつ探索ウィンドウが決定され(1310)、その中心は、選択された探索中心に設定され、幅は、選択された範囲に設定される。
上記で述べられた制約されたFRUC動き探索法のいくつかの実施形態では、同じ探索範囲が、1つのビデオシーケンスにおけるすべてのピクチャに適用される。しかし、代替的実施形態では、探索範囲は、例えば、シーケンスレベル、ピクチャレベル、およびブロックレベルなど、異なるレベルにおいて適応的に調整することができ、また各適応レベルは、異なる性能/複雑さのトレードオフを提供することができる。加えて、適応型探索範囲が適用される場合、最適な探索範囲を決定するために、異なる方法が適用され得る。例えば、探索範囲が、現在のピクチャとその参照ピクチャの間の相関性に応じて、ピクチャレベルで適応される場合、いくつかのピクチャにおけるビデオブロックは、安定した動き示すことができる(例えば、ランダムアクセス構成の上位時間レイヤにおけるピクチャ)が、例えば、ランダムアクセス構成の下位時間レイヤにおけるピクチャなど、いくつかのピクチャにおけるビデオブロックの動きは、比較的不安定である。このような場合、符号化性能を維持しながら大きなメモリアクセス低減を達成するために、不安定な動きを有するピクチャに使用されるものよりも、安定した動きを有するピクチャに対して小さな探索範囲を使用することがより有益であり得る。別の例では、探索範囲が、ブロックレベルで適用される場合、ブロックの最適な探索範囲は、現在のブロックの空間的な近傍のMVの相関性に基づいて決定することができる。動きの相関性を測定するための一方法は、現在のブロックの近傍のMVの分散を計算することである。動き分散が、事前定義の閾値よりも小さい場合、現在のブロックの動きは、その近傍のものと高い相関があり、小さな探索範囲を安全に適用できると考えるのが適切であり、そうではない場合、現在のブロックの動きは、その近傍との相関性が少ないものと見なされ、現在のブロックの最適なMVが、探索ウィンドウ内で確実に識別され得るように、大きな探索範囲を適用すべきである。別の方法では、ブロックサイズに基づいて探索範囲を適応的に調整することが提案される。この方法の背後にある考えは、現在のブロックのサイズが大きい場合、現在のブロックがより多くの複雑な内容(例えば、豊富なテクスチャおよび/または指向性のエッジ)を含む可能性がより高く、したがって、大きな探索範囲を適用することができ、それは、現在のブロックが参照ピクチャから良好な一致を見出すのに役立つ。そうではなく、現在のブロックは比較的小さなサイズを有する場合、現在のブロックは、少ないテクスチャ情報を含む可能性があり、したがって、この場合、小さな探索ウィンドウで十分よいと考えるのが適切である。本開示の別の実施形態では、現在のピクチャとその参照ピクチャの間のPOC距離に基づいて、探索範囲を適応的に調整することが提案される。具体的には、本方法によれば、現在のピクチャと、その最も近い参照ピクチャとの間のPOC距離が、事前定義の閾値よりも小さい場合、現在のピクチャにおけるブロックは、安定した動きを示すことができ、より小さな探索範囲を適用することができ、そうではない場合(現在のピクチャと、その最も近い参照ピクチャとの間のPOC距離が、事前定義の閾値以上である場合)、現在のピクチャ内のブロックの動きは、不安定である可能性があり、大きな探索範囲を適用すべきである。
FRUC動き精緻化のための探索反復数に対する制限
知られたFRUC設計において、CUレベル動き精緻化とサブCUレベル動き精緻化の両方は、探索中心が、2つの連続する探索ループの間で更新されない限り、精緻化探索が続くという意味において、計算に関して制限されない。FRUCブロックの符号化/復号化の複雑さは無制限であるため、このような設計は、実際のエンコーダ/デコーダのハードウェア実装のパイプライン設計にとって実際的ではない。したがって、FRUC設計を、ハードウェア実装にとってより扱いやすいものにするために、CU/サブCUレベル動き精緻化段階において実施される探索反復の最大数に対して制限を設けることが提案される。上記で述べたCUレベル初期動き探索に対する制約された探索範囲と同様に、シーケンスレベル、ピクチャレベル、およびブロックレベルなど、様々な符号化レベルにおいて、探索反復の最大数が適用される、または信号送りされ得る。さらに、同じ最大の探索反復数が、CUレベル動き精緻化、およびサブCUレベル動き精緻化に適用することができる。しかし、サブCUレベル動き候補は、通常、CUレベル動き候補よりも強い相関性を示すので、少なくともいくつかの実施形態では、最大探索反復の値を、サブCUレベル動き精緻化に対するものよりも、CUレベル動き精緻化に対して大きくなるように設定することも提案される。
上記で述べたものなど、MVクラスタリング法は、初期MV導出(CUレベルとサブCUレベルの両方で)の平均的な計算の複雑さを大幅に低減することができるが、それは、テストする必要のあるMV候補の最大値を必ずしも変更しない。例えば、最悪の場合、CUレベル動き探索とサブCUレベル動き探索において、それぞれ、最高で15個および17個の調査すべきMV候補がまだ存在する可能性がある。実務において、最悪の場合のシナリオは、実際のエンコーダ/デコーダ実装に対して重大な考慮事項であり、それは、ハードウェア設計により満たされるべき処理機能/条件を直接決定する。したがって、いくつかの実施形態では、MVクラスタリングから生成された主MVの数に対して制約を加えて、試験されるMV候補の平均と最大値の両方を低減することが提案される。主MVの最大数(例えば、L)が与えられると、どの主MVをFRUC動き探索に選択すべきかを決定するために、異なる基準を利用することができる。
いくつかの実施形態では、現在のピクチャを含む複数のピクチャを備えるビデオを符号化する方法が提供される。方法は、現在のピクチャにおける少なくとも1つの現在のブロックに対して、ブロックのフレームレートアップ変換(FRUC)予測のための動きベクトル候補の第1のセットを識別するステップと、動きベクトル候補の第1のセットに基づいて探索中心を画定(define)するステップと、選択された幅を有し、探索中心に中心が置かれる探索ウィンドウを決定するステップと、探索ウィンドウ内に含まれるように、探索ウィンドウの外側にある第1のセット中のいずれの動きベクトルもクリップすることによって、動きベクトル候補の第1のセットを処理するステップと、動きベクトル候補の処理された第1のセットの中から、選択される動きベクトルを求める探索を実施するステップとを含む。探索中心は、例えば、動きベクトル候補の第1のセットの平均とすることができる。
いくつかの実施形態では、現在のピクチャを含む複数のピクチャを備えるビデオを符号化する方法が提供される。方法は、現在のピクチャにおける少なくとも1つの現在の符号化ユニット(CU)に対して、符号化ユニットのフレームレートアップ変換(FRUC)予測のための動きベクトル候補の第1のセットを識別するステップと、動きベクトル候補の第1のセットの中から、選択されるCUレベル動きベクトルを求める探索を実施するステップと、選択された幅を有し、選択されたCUレベル動きベクトルに中心のある探索ウィンドウを決定するステップと、探索ウィンドウ内で動き精緻化探索を実施して、精緻化されたCUレベル動きベクトルを生成するステップとを含む。符号化ユニットは、精緻化されたCUレベル動きベクトルを用いて予測することができる。
いくつかの実施形態では、現在のピクチャを含む複数のピクチャを備えるビデオを符号化する方法が提供される。方法は、現在のピクチャにおける少なくとも1つの符号化ユニット(CU)に対して、符号化ユニットのフレームレートアップ変換(FRUC)予測のためのCUレベル動きベクトル候補の第1のセット識別するステップと、CUレベル動きベクトル候補の第1のセットに基づき(例えば、CUレベル動きベクトル候補の第1のセットの平均として)探索中心を画定(define)するステップと、選択された幅を有し、探索中心に中心のある探索ウィンドウを決定するステップと、探索ウィンドウ内に含まれるように、探索ウィンドウの外側にある第1のセットにおけるいずれかの動きベクトルもクリップすることによって、CUレベル動きベクトル候補の第1のセットを処理するステップと、動きベクトル候補の処理された第1のセットの中から選択されたCUレベル動きベクトルを求める探索を実施するステップと、探索ウィンドウ内で動き精緻化探索を実施して、精緻化されたCUレベル動きベクトルを生成するステップと、サブCU初期動きベクトルのセットを識別するステップと、符号化ユニット内の各サブCUに対して、探索ウィンドウ内に含まれるように、探索ウィンドウの外側にある、セットにおけるいずれかの動きベクトルをクリップすることによって、サブCU初期動きベクトルのセットを処理するステップと、サブCU初期動きベクトルの処理されたセットの中から選択されたサブCU動きベクトルを求める探索を実施するステップと、探索ウィンドウ内で動き精緻化探索を実施して、精緻化されたサブCU動きベクトルを生成するステップとを含む。
いくつかの実施形態では、現在のピクチャを含む複数のピクチャを備えるビデオを符号化する方法が提供される。方法は、現在のピクチャにおける少なくとも1つのブロックに対して、ブロックのフレームレートアップ変換(FRUC)予測のための動きベクトル候補の第1のセットを識別するステップと、動きベクトル候補の第1のセットの中から、選択される動きベクトルを求める探索を実施するステップと、選択された動きベクトル候補に基づき動き精緻化探索を実施して、精緻化された動きベクトルを生成するステップであって、動き精緻化探索は、選択された最大反復数に制限されるステップとを含む。ブロックは、符号化ユニットまたはサブ符号化ユニットブロックとすることができる。
いくつかの実施形態では、現在のピクチャを含む複数のピクチャを備えるビデオを符号化する方法が提供される。方法は、現在のピクチャにおける少なくとも1つのブロック(例えば、符号化ユニットまたはサブ符号化ユニットブロック)に対して、動きベクトル候補の初期セットを複数のクラスタにクラスタ化するステップと、各クラスタに対して、それぞれのクラスタの重心を計算し、それぞれのクラスタの重心を表す重心動きベクトルを主動きベクトルのセットに付与するステップと、主動きベクトルのセットから動きベクトルの選択された最大数未満のものを選択して、動きベクトルの制約されたセットを生成するステップと、動きベクトル候補の制約されたセットの中から選択される動きベクトルを求める探索を実施するステップとを含む。
図14は、符号化されたビットストリーム構造の例を示す図である。符号化されたビットストリーム1300は、いくつかのNAL(ネットワーク抽象化レイヤ)ユニット1301からなる。NALユニットは、符号化されたスライス1306などの符号化されたサンプルデータ、またはパラメータセットデータ、スライスヘッダデータ1305、もしくは補助的な拡張情報データ1307(SEIメッセージと呼ぶことができる)などの高水準のシンタックスメタデータを含むことができる。パラメータセットは、複数のビットストリームレイヤ(例えば、ビデオパラメータセット1302(VPS))に適用できる、または1つのレイヤ内の符号化されたビデオシーケンスに適用できる(例えば、シーケンスパラメータセット1303(SPS))、または1つの符号化されたビデオシーケンス内のいくつかの符号化されたピクチャに適用できる(例えば、ピクチャパラメータセット1304(PPS))基本的なシンタックス要素を含む高レベルのシンタックス構造である。パラメータセットは、ビデオビットストリームの符号化されたピクチャと共に送られる、または他の手段(信頼性のあるチャネルを用いた帯域外送信、ハードコーディングなどを含む)により送ることができる。スライスヘッダ1305はまた、比較的小さい、またはいくつかのスライスもしくはピクチャタイプに対してだけに関連する何らかのピクチャ関連情報を含むことのできる高水準シンタックス構造である。SEIメッセージ1307は、復号化プロセスでは必要ではない可能性があるが、ピクチャ出力タイミングまたは表示、ならびに損失検出およびコンシールメントなど様々な他の目的に使用することのできる情報を搬送する。
図15は、通信システムの例を示す図である。通信システム1400は、エンコーダ1402、通信ネットワーク1404、およびデコーダ1406を備えることができる。エンコーダ1402は、有線接続または無線接続とすることのできる接続1408を介してネットワーク1404と通信することができる。エンコーダ1402は、図1のブロックベースのビデオエンコーダと同様のものとすることができる。エンコーダ1402は、シングルレイヤコーデック(例えば、図1)、またはマルチレイヤコーデックを含むことができる。デコーダ1406は、有線接続または無線接続とすることのできる接続1410を介して、ネットワーク1404と通信することができる。デコーダ1406は、図2のブロックベースのビデオデコーダと同様であり得る。デコーダ1406は、シングルレイヤコーデック(例えば、図2)、またはマルチレイヤコーデックを含むことができる。
Claims (21)
- ビデオにおける現在のブロックのフレームレートアップ変換(FRUC)予測のための動きベクトル候補の第1のセットを識別するステップと、
動きベクトル候補の第1のセットに基づいて探索中心を画定するステップであって、前記探索中心は、動きベクトル候補の前記第1のセットにおける1つまたは複数の動きベクトルの平均である、ステップと、
選択された幅を有し、前記探索中心に中心が置かれる探索ウィンドウを決定するステップと、
前記探索ウィンドウ内に含まれるように、前記探索ウィンドウの外側にある前記第1のセットにおけるいずれの動きベクトルもクリップすることによって、動きベクトル候補の前記第1のセットを処理するステップと、
動きベクトル候補の前記処理された第1のセットの中から、選択される動きベクトルを求める探索を実施するステップと
を備える方法。 - 前記選択された動きベクトル候補に基づいて動き精緻化探索を実施して、精緻化された動きベクトルを生成するステップと、
前記精緻化された動きベクトルを使用し、フレームレートアップ変換を用いて前記ブロックを予測するステップと
をさらに備える請求項1に記載の方法。 - 動きベクトル候補の前記第1のセットを識別するステップは、
動きベクトル候補の初期セットを複数のクラスタへとクラスタ化することと、
各クラスタに対して、それぞれのクラスタの重心を計算し、前記それぞれのクラスタの前記重心を表す重心動きベクトルを、動きベクトル候補の前記第1のセットに付与することと
を含む方法により実施される請求項1または2に記載の方法。 - 動きベクトル候補の前記第1のセットを識別するステップは、動きベクトル候補の前記第1のセットを、動きベクトルの選択された最大数に制限することを含む請求項3に記載の方法。
- 前記探索中心は、動きベクトル候補の前記第1のセットにおける前記動きベクトルのうちの1つである請求項1乃至4のいずれかに記載の方法。
- 前記探索中心は、動きベクトル候補の前記第1のセットの平均である請求項1乃至4のいずれかに記載の方法。
- 前記探索中心は、大部分の動きベクトル候補を有する前記クラスタの中心である請求項3に記載の方法。
- 動きベクトル候補の前記処理された第1のセットの中から、選択される動きベクトルを求める探索を実施するステップは、動きベクトル候補の前記処理された第1のセットの中から、最も低いマッチングコストを達成する動きベクトルを選択することを含む請求項1乃至7のいずれかに記載の方法。
- 前記現在のブロックは符号化ユニット(CU)であり、
前記選択された動きベクトル候補に基づき動き精緻化探索を実施して、精緻化されたCUレベル動きベクトルを生成するステップと、
前記符号化ユニットにおける各サブCUに対して、
選択されるサブCUレベル動きベクトルを求めるサブCUレベル動きベクトル探索において、動きベクトル候補として前記精緻化されたCUレベル動きベクトルを使用するステップと、
前記サブCUレベル動きベクトルを精緻化するステップと、
前記精緻化されたサブCUレベル動きベクトルを用いて前記サブCUを予測するステップと
をさらに備える請求項1乃至8のいずれかに記載の方法。 - 前記現在のブロックは符号化ユニット(CU)であり、
前記選択された動きベクトル候補に基づいて動き精緻化探索を実施し、精緻化されたCUレベル動きベクトルを生成するステップと、
前記符号化ユニット内の各サブCUレベルブロックに対して、
前記精緻化されたCUレベル動きベクトルを含むサブCU初期動きベクトルのセットを識別するステップと、
前記サブCU初期動きベクトルを、関連付けられた重心動きベクトルをそれぞれが有する複数のクラスタへとクラスタ化するステップと、
サブCU探索ウィンドウ内に含まれるように、前記サブCU探索ウィンドウの外側にある前記セットのいずれの重心動きベクトルもクリップすることにより、前記重心動きベクトルを処理するステップと、
重心動きベクトルの前記処理されたセットの中から、選択されるサブCU動きベクトルを求める探索を実施するステップと、
前記探索ウィンドウ内で動き精緻化探索を実施して、精緻化されたサブCU動きベクトルを生成するステップと、
前記精緻化されたサブCU動きベクトルを使用して、フレームレートアップ変換(FRUC)を用いて前記サブCUレベルブロックを予測するステップと
をさらに備える請求項1乃至8のいずれかに記載の方法。 - 前記サブCU探索ウィンドウは、前記CUレベル動きベクトルを決定するのに使用された前記探索ウィンドウと同じである請求項10に記載の方法。
- 前記ブロックのフレームレートアップ変換(FRUC)予測に対して少なくとも1つの参照ピクチャを選択するステップをさらに備え、前記現在のピクチャに対して選択される幅は、前記現在のピクチャと前記少なくとも1つの参照ピクチャの間のPOC距離に少なくとも部分的に基づいて決定される請求項1乃至11のいずれかに記載の方法。
- 前記選択された動きベクトル候補に基づいて動き精緻化探索を実施して、精緻化された動きベクトルを生成するステップをさらに備え、前記動き精緻化探索は、選択された最大反復数に制限される請求項1乃至12のいずれかに記載の方法。
- 前記方法は、デコーダによって実施される請求項1乃至13のいずれかに記載の方法。
- 少なくとも、
ビデオにおける現在のブロックのフレームレートアップ変換(FRUC)予測のための動きベクトル候補の第1のセットを識別することと、
動きベクトル候補の第1のセットに基づいて探索中心を画定することであって、前記探索中心は、動きベクトル候補の前記第1のセットにおける1つまたは複数の動きベクトルの平均である、画定することと、
選択された幅を有し、前記探索中心に中心が置かれる探索ウィンドウを決定することと、
前記探索ウィンドウ内に含まれるように、前記探索ウィンドウの外側にある前記第1のセットのいずれの動きベクトルもクリップすることによって、動きベクトル候補の前記第1のセットを処理することと、
動きベクトル候補の前記処理された第1のセットの中から選択される動きベクトルを求める探索を実施することと
を実施するよう構成されたプロセッサ
を備えた装置。 - 前記選択された動きベクトル候補に基づいて動き精緻化探索を実施して、精緻化された動きベクトルを生成することと、
前記精緻化された動きベクトルを使用し、フレームレートアップ変換を用いて前記ブロックを予測することと
を実施するようさらに構成された請求項15に記載の装置。 - 動きベクトル候補の前記第1のセットを識別することは、
動きベクトル候補の初期セットを複数のクラスタへとクラスタ化することと、
各クラスタに対して、それぞれのクラスタの重心を計算し、前記それぞれのクラスタの前記重心を表す重心動きベクトルを、動きベクトル候補の前記第1のセットに付与することと
を含む方法により実施される請求項15に記載の装置。 - 動きベクトル候補の前記処理された第1のセットの中から、選択される動きベクトルを求める探索を実施することは、動きベクトル候補の前記処理された第1のセットの中から、最も低いマッチングコストを達成する動きベクトルを選択することを含む請求項15に記載の装置。
- 前記現在のブロックは符号化ユニット(CU)であり、前記プロセッサは、
前記選択された動きベクトル候補に基づき動き精緻化探索を実施して、精緻化されたCUレベル動きベクトルを生成することと、
前記符号化ユニットにおける各サブCUに対して、
選択されるサブCUレベル動きベクトルを求めるサブCUレベル動きベクトル探索において、動きベクトル候補として前記精緻化されたCUレベル動きベクトルを使用することと、
前記サブCUレベル動きベクトルを精緻化することと、
前記精緻化されたサブCUレベル動きベクトルを用いて前記サブCUを予測することと
を実施するようさらに構成された請求項15に記載の装置。 - 前記現在のブロックは符号化ユニット(CU)であり、前記プロセッサは、
前記選択された動きベクトル候補に基づいて動き精緻化探索を実施し、精緻化されたCUレベル動きベクトルを生成することと、
前記符号化ユニット内の各サブCUレベルブロックに対して、
前記精緻化されたCUレベル動きベクトルを含むサブCU初期動きベクトルのセットを識別することと、
前記サブCU初期動きベクトルを、関連付けられた重心動きベクトルをそれぞれが有する複数のクラスタへとクラスタ化することと、
サブCU探索ウィンドウ内に含まれるように、前記サブCU探索ウィンドウの外側にある前記セットのいずれの重心動きベクトルもクリップすることにより、前記重心動きベクトルを処理することと、
重心動きベクトルの前記処理されたセットの中から、選択されるサブCU動きベクトルを求める探索を実施することと、
前記探索ウィンドウ内で動き精緻化探索を実施して、精緻化されたサブCU動きベクトルを生成することと、
前記精緻化されたサブCU動きベクトルを使用して、フレームレートアップ変換(FRUC)を用いて前記サブCUレベルブロックを予測することと
を実施するようさらに構成された請求項15に記載の装置。 - 1つ以上のプロセッサに、請求項1乃至14のいずれかの方法を実施させる命令を含むコンピュータ読取り可能媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023062310A JP2023098965A (ja) | 2018-01-29 | 2023-04-06 | 複雑性の低いフレームレートアップ変換 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862623143P | 2018-01-29 | 2018-01-29 | |
US62/623,143 | 2018-01-29 | ||
PCT/US2019/015449 WO2019148117A1 (en) | 2018-01-29 | 2019-01-28 | Frame-rate up conversion with low complexity |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023062310A Division JP2023098965A (ja) | 2018-01-29 | 2023-04-06 | 複雑性の低いフレームレートアップ変換 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021512568A JP2021512568A (ja) | 2021-05-13 |
JPWO2019148117A5 JPWO2019148117A5 (ja) | 2022-02-07 |
JP7260562B2 true JP7260562B2 (ja) | 2023-04-18 |
Family
ID=65409567
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562084A Active JP7260562B2 (ja) | 2018-01-29 | 2019-01-28 | 複雑性の低いフレームレートアップ変換 |
JP2023062310A Pending JP2023098965A (ja) | 2018-01-29 | 2023-04-06 | 複雑性の低いフレームレートアップ変換 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023062310A Pending JP2023098965A (ja) | 2018-01-29 | 2023-04-06 | 複雑性の低いフレームレートアップ変換 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11470344B2 (ja) |
EP (1) | EP3747194A1 (ja) |
JP (2) | JP7260562B2 (ja) |
KR (1) | KR102656965B1 (ja) |
CN (1) | CN111656788A (ja) |
AU (1) | AU2019212951B2 (ja) |
MX (1) | MX2020007969A (ja) |
TW (1) | TWI815854B (ja) |
WO (1) | WO2019148117A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7102663B2 (ja) * | 2018-03-26 | 2022-07-20 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | ビデオコーディングのためのインター予測装置及び方法 |
US20210136398A1 (en) * | 2018-05-28 | 2021-05-06 | Interdigital Vc Holdings. Inc. | Data dependency in coding/decoding |
CN112040243B (zh) * | 2018-06-04 | 2021-06-29 | 华为技术有限公司 | 获取运动矢量的方法和装置 |
WO2021163862A1 (zh) * | 2020-02-18 | 2021-08-26 | 深圳市大疆创新科技有限公司 | 视频编码的方法与装置 |
CN113038142B (zh) * | 2021-03-25 | 2022-11-01 | 北京金山云网络技术有限公司 | 视频数据的筛选方法、装置及电子设备 |
CN113804470B (zh) * | 2021-04-14 | 2023-12-01 | 山东省计算中心(国家超级计算济南中心) | 一种穴盘育苗流水线的故障检测反馈方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299040A (ja) | 2002-04-03 | 2003-10-17 | Sony Corp | 動きベクトル検出装置及び方法 |
WO2018190207A1 (ja) | 2017-04-13 | 2018-10-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2914448B2 (ja) * | 1997-06-25 | 1999-06-28 | 日本電信電話株式会社 | 動きベクトル予測符号化方法および動きベクトル復号方法、予測符号化装置および復号装置、並びに、動きベクトルの予測符号化プログラムおよび復号プログラムを記録した記録媒体 |
US9532069B2 (en) * | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US8902971B2 (en) * | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US8879857B2 (en) * | 2005-09-27 | 2014-11-04 | Qualcomm Incorporated | Redundant data encoding methods and device |
US8634469B2 (en) | 2006-02-06 | 2014-01-21 | Thomson Licensing | Method and apparatus for reusing available motion information as a motion estimation predictor for video encoding |
US20090167775A1 (en) | 2007-12-30 | 2009-07-02 | Ning Lu | Motion estimation compatible with multiple standards |
US8462852B2 (en) * | 2009-10-20 | 2013-06-11 | Intel Corporation | Methods and apparatus for adaptively choosing a search range for motion estimation |
US8976873B2 (en) * | 2010-11-24 | 2015-03-10 | Stmicroelectronics S.R.L. | Apparatus and method for performing error concealment of inter-coded video frames |
US9571833B2 (en) | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
JP6148146B2 (ja) * | 2013-10-09 | 2017-06-14 | 日本電信電話株式会社 | 映像符号化装置、映像符号化方法及び映像符号化プログラム |
CN106537918B (zh) | 2014-08-12 | 2019-09-20 | 英特尔公司 | 用于视频编码的运动估计的系统和方法 |
WO2018072823A1 (en) * | 2016-10-19 | 2018-04-26 | Huawei Technologies Co., Ltd. | Apparatuses and methods for encoding and decoding a video coding block of a video signal |
CN110832858B (zh) | 2017-07-03 | 2023-10-13 | Vid拓展公司 | 用于视频编解码的设备、方法 |
WO2019032765A1 (en) | 2017-08-09 | 2019-02-14 | Vid Scale, Inc. | CONVERSION-ELEVATION OF FRAME FREQUENCY WITH REDUCED COMPLEXITY |
EP3682635A1 (en) * | 2017-10-09 | 2020-07-22 | Huawei Technologies Co., Ltd. | Memory access window for sub prediction block motion vector derivation |
US20190164296A1 (en) * | 2017-11-27 | 2019-05-30 | Qualcomm Incorporated | Systems and methods for determining a confidence measure for a motion vector |
US10798399B1 (en) * | 2017-12-11 | 2020-10-06 | Amazon Technologies, Inc. | Adaptive video compression |
-
2019
- 2019-01-28 KR KR1020207023235A patent/KR102656965B1/ko active IP Right Grant
- 2019-01-28 CN CN201980010858.7A patent/CN111656788A/zh active Pending
- 2019-01-28 WO PCT/US2019/015449 patent/WO2019148117A1/en unknown
- 2019-01-28 AU AU2019212951A patent/AU2019212951B2/en active Active
- 2019-01-28 JP JP2020562084A patent/JP7260562B2/ja active Active
- 2019-01-28 EP EP19704993.5A patent/EP3747194A1/en active Pending
- 2019-01-28 MX MX2020007969A patent/MX2020007969A/es unknown
- 2019-01-28 US US16/965,571 patent/US11470344B2/en active Active
- 2019-01-29 TW TW108103219A patent/TWI815854B/zh active
-
2023
- 2023-04-06 JP JP2023062310A patent/JP2023098965A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299040A (ja) | 2002-04-03 | 2003-10-17 | Sony Corp | 動きベクトル検出装置及び方法 |
WO2018190207A1 (ja) | 2017-04-13 | 2018-10-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
Non-Patent Citations (1)
Title |
---|
Sixin Lin et al.,CE1: Huawei report on DMVD in HM2.0,Joint Collaborative Team on Video Coding (JCT-VC),2011年03月16日,[JCTVC-E294] (version 2) |
Also Published As
Publication number | Publication date |
---|---|
TW201943277A (zh) | 2019-11-01 |
JP2023098965A (ja) | 2023-07-11 |
MX2020007969A (es) | 2020-10-28 |
US11470344B2 (en) | 2022-10-11 |
US20210051340A1 (en) | 2021-02-18 |
KR20200127992A (ko) | 2020-11-11 |
WO2019148117A1 (en) | 2019-08-01 |
AU2019212951A1 (en) | 2020-08-20 |
JP2021512568A (ja) | 2021-05-13 |
KR102656965B1 (ko) | 2024-04-11 |
CN111656788A (zh) | 2020-09-11 |
EP3747194A1 (en) | 2020-12-09 |
AU2019212951B2 (en) | 2023-01-19 |
TWI815854B (zh) | 2023-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7469439B2 (ja) | ビデオ符号化のための一般化された多重仮説予測(Generalized Multi-Hypothesis Prediction)のためのシステムおよび方法 | |
US20230319289A1 (en) | Method and system for decoder-side intra mode derivation for block-based video coding | |
JP7260562B2 (ja) | 複雑性の低いフレームレートアップ変換 | |
CN109417625B (zh) | 编码或解码视频的装置及方法 | |
CN109121465B (zh) | 用于运动补偿残差预测的系统和方法 | |
US11882300B2 (en) | Low complexity affine merge mode for versatile video coding | |
TW201931854A (zh) | 統一合併候選列表運用 | |
US11212532B2 (en) | Method and apparatus for encoding and decoding motion information | |
TW202015412A (zh) | 降低解碼器側運動精化的寫碼潛時的方法及裝置 | |
KR20210058856A (ko) | 저장된 파라미터들을 사용하는 비디오 인코딩 및 디코딩을 위한 로컬 조명 보상 | |
KR20210142610A (ko) | Affine 모션 모델 유도 방법 | |
WO2023094216A1 (en) | Method and device for picture encoding and decoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200819 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220128 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230228 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7260562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |