JP2020522200A - 映像コーディングにおける動き補償予測のオプティカルフロー推定 - Google Patents
映像コーディングにおける動き補償予測のオプティカルフロー推定 Download PDFInfo
- Publication number
- JP2020522200A JP2020522200A JP2019566280A JP2019566280A JP2020522200A JP 2020522200 A JP2020522200 A JP 2020522200A JP 2019566280 A JP2019566280 A JP 2019566280A JP 2019566280 A JP2019566280 A JP 2019566280A JP 2020522200 A JP2020522200 A JP 2020522200A
- Authority
- JP
- Japan
- Prior art keywords
- reference frame
- frame portion
- frame
- optical flow
- warped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/19—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
図11は、オプティカルフロー参照フレーム部分を生成する方法またはプロセス1100のフローチャート図である。この例では、オプティカルフロー参照フレーム部分は、参照フレーム全体である。プロセス1100は、プロセス1000のステップ1006を実施することができる。プロセス1100は、例えば、送信局102または受信局106などのコンピューティングデバイスによって実行されるソフトウェアプログラムとして実施することができる。例えば、ソフトウェアプログラムは、メモリ204または第2の記憶装置214などのメモリに格納され、CPU202のようなプロセッサによる実行時に、コンピューティングデバイスにプロセス1100を実行させる機械可読命令を含むことができる。プロセス1100は、特殊なハードウェアまたはファームウェアを使用して具体化され得る。上述したように、複数のプロセッサ、複数のメモリ、またはその両方が使用され得る。
復号化器において、1008でオプティカルフロー参照フレーム部分を使用して予測プロセスを実行することは、オプティカルフロー参照フレームが現在のフレームを復号化するために利用可能であるという判定に起因する。いくつかの実施形態では、現在のフレームの少なくとも1つのブロックがオプティカルフロー参照フレーム部分を使用して符号化されたことを示すフラグを検査することによって判定が行われる。復号化器で1008において予測プロセスを実行することは、予測ブロックを生成することを含み得る。予測ブロックを生成することは、ブロックヘッダーなど、符号化されたビットストリームから復号化されたインター予測モードを使用することを含み得る。フラグまたはインジケータは、インター予測モードを決定するために復号化され得る。インター予測モードがオプティカルフロー参照フレームモードである(すなわち、ブロックが、オプティカルフロー参照フレーム部分を用いてインター予測された)場合、復号化されるべき現在のブロックの予測ブロックは、オプティカルフロー参照フレーム部分の複数の画素と、動きベクトルモードおよび/または動きベクトルを用いて生成される。
例1:方法であって、ビデオシーケンス内にある予測されるべき第1のフレームを決定すること、前記第1のフレームの前方インター予測のために前記ビデオシーケンスから第1の参照フレームを決定すること、前記第1のフレームの後方インター予測のために前記ビデオシーケンスから第2の参照フレームを決定すること、前記第1の参照フレームおよび前記第2の参照フレームを用いてオプティカルフロー推定を実行することによって、前記第1のフレームのインター予測のためのオプティカルフロー参照フレームを生成すること、前記オプティカルフロー参照フレームを使用して、前記第1のフレームに対して予測プロセスを実行すること、を備える方法。
複数の動きフィールドを使用して第1の参照フレームを前記第1のフレームにワーピングして第1のワーピングされた参照フレームを形成すること、前記複数の動きフィールドを使用して第2の参照フレームを前記第1のフレームにワーピングして第2のワーピングされた参照フレームを形成すること、前記第1のワーピングされた参照フレームおよび前記第2のワーピングされた参照フレームをブレンディングして、前記第1のフレームのブロックのインター予測のためにオプティカルフロー参照フレームを形成することを、含む、装置。
例12:前記第1のフレームの複数のブロックの単一参照インター予測にのみ前記オプティカルフロー参照フレームを用いることをさらに備える例10または11に記載の装置。
例17:前記複数のレベルの各レベルについて、前記ラグランジュ関数のラグランジュパラメータを、第1の参照フレームのワーピング、第2の参照フレームのワーピング、複数の動きフィールドの推定、および動きフィールドの更新の第1の反復に対して最大値に初期化すること、前記第1の参照フレームのワーピング、前記第2の参照フレームのワーピング、前記複数の動きフィールドの推定、前記ラグランジュパラメータの1組の可能な値の順次小さくなる値を用いた複数の動きフィールドの推定の追加の反復を実行すること、をさらに備える例16に記載の装置。
例20:前記プロセッサおよび前記一時的記憶媒体は復号化器を形成する、例15〜19のいずれか一つに記載の装置。
Claims (21)
- 方法であって、
ビデオシーケンス内にある予測されるべき第1のフレームの第1のフレーム部分を決定すること、
前記第1のフレームの前方インター予測のために前記ビデオシーケンスから第1の参照フレームを決定すること、
前記第1のフレームの後方インター予測のために前記ビデオシーケンスから第2の参照フレームを決定すること、
前記第1の参照フレームおよび前記第2の参照フレームを用いてオプティカルフロー推定を実行することによって、前記第1のフレーム部分のインター予測のためにオプティカルフロー参照フレーム部分を生成すること、
前記オプティカルフロー参照フレーム部分を使用して、前記第1のフレーム部分に対して予測プロセスを実行すること、を備える方法。 - 前記オプティカルフロー参照フレーム部分を生成することは、
前記第1のフレーム部分の各画素についてラグランジュ関数を最小化することによってオプティカルフロー推定を実行すること、を含む、請求項1に記載の方法。 - 前記オプティカルフロー推定によって、前記第1のフレーム部分の複数の画素の対応する動きフィールドが生成され、
前記オプティカルフロー参照フレーム部分を生成することは、
前記複数の動きフィールドを使用して前記第1のフレーム部分と並置された前記第1の参照フレームの複数の画素を前記第1のフレーム部分にワーピングして、第1のワーピングされた参照フレーム部分を形成すること、
前記複数の動きフィールドを使用して前記第1のフレーム部分と並置された前記第2の参照フレームの複数の画素を前記第1のフレーム部分にワーピングして、第2のワーピングされた参照フレーム部分を形成すること、
前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分をブレンディングして、前記オプティカルフロー参照フレーム部分を形成すること、を含む、請求項1または2に記載の方法。 - 前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分をブレンディングすることは、
前記第1の参照フレームと前記第2の参照フレームとの間の距離、並びに前記現在のフレームと前記第1の参照フレームおよび前記第2の参照フレームの各々との間の距離を使用して、並置された複数の画素の値をスケーリングすることによって、前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分の並置された複数の画素の値を組み合わせることを含む、請求項3に記載の方法。 - 前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分をブレンディングすることは、
前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分の並置された複数の画素の値を組み合わせること、並びに前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分のうちの1つの単一画素の値を使用することの一方によって、前記オプティカルフロー参照フレーム部分の複数の画素の位置に提供すること、を含む、請求項3または4に記載の方法。 - 前記第1のフレーム部分は、前記第1のフレームまたは前記第1のフレームの現在のブロックのうちの1つを含み、
前記オプティカルフロー参照フレーム部分は、前記第1のフレーム部分が前記現在のブロックを含む場合にブロックであり、前記第1のフレーム部分が前記第1のフレームを含む場合にフレーム全体である、請求項1〜5のいずれか1項に記載の方法。 - 前記第1の参照フレームは、前記第1のフレームの前方インター予測に利用可能な前記第1のフレームに対する前記ビデオシーケンスの表示順序において最も近い再構成フレームであり、前記第2の参照フレームは、前記第1のフレームの後方インター予測に利用可能な前記第1のフレームに対する前記表示順序において最も近い再構成フレームである、請求項1〜6のいずれか1項に記載の方法。
- 前記第1のフレーム部分は、復号化されるべき現在のブロックであり、
前記予測プロセスを実行することは、
前記現在のブロックを符号化するために使用される動きベクトルを使用して、参照ブロックの位置を特定すること、
サブ画素補間フィルタの長さによって前記参照ブロックの複数の境界を調整すること、
前記参照ブロックの調整された複数の境界内の複数の画素を含む複数のブロックを特定すること、
前記第1のフレームの残りのブロックについてオプティカルフロー推定を行うことなく、特定された複数のブロックと並置された第1フレームの複数のブロックについて前記オプティカルフロー推定を行うことを含む前記オプティカルフロー参照フレーム部分を生成すること、を含む、請求項1〜7のいずれか1項に記載の方法。 - 前記第1のフレーム部分は、符号化されるべき現在のブロックであり、
前記オプティカルフロー参照フレーム部分を生成することは、
前記現在のブロックとしての前記第1のフレームの各ブロックに対してオプティカルフロー推定を実行してオプティカルフロー参照フレームの対応する並置参照ブロックを生成することを含み、
前記予測プロセスを実行することは、
複数の並置参照ブロックを自身の各画素の位置において組み合わせることによって、前記オプティカルフロー参照フレームを形成すること、
前記オプティカルフロー参照フレームを参照フレームバッファに格納すること、
前記現在のブロックの動き検索のために前記オプティカルフロー参照フレームを用いること、を含む、請求項1〜8のいずれか1項に記載の方法。 - 装置であって、
プロセッサと、
前記プロセッサが実行して方法を実行可能な命令を含む非一時的な記憶媒体と、を備え、
前記方法は、
ビデオシーケンス内の予測されるべき第1のフレームを決定すること、
前記第1のフレームの前方インター予測のための第1の参照フレームおよび前記第1のフレームの後方インター予測のための第2の参照フレームが利用できるかどうかを判定すること、
前記第1の参照フレームおよび前記第2の参照フレームの両方が利用できると判定したことに応答して、
オプティカルフロー推定プロセスへの入力として、前記第1の参照フレームおよび前記第2の参照フレームを使用して、第1のフレーム部分の複数の画素の対応する動きフィールドを生成すること、
複数の動きフィールドを使用して第1の参照フレーム部分を前記第1のフレーム部分にワーピングして第1のワーピングされた参照フレーム部分を形成することであって、前記第1の参照フレーム部分は、前記第1のフレーム部分の複数の画素と並置された前記第1の参照フレームの複数の画素を含む、前記形成すること、
前記複数の動きフィールドを使用して第2の参照フレーム部分を前記第1のフレーム部分にワーピングして第2のワーピングされた参照フレーム部分を形成することであって、前記第2の参照フレーム部分は、前記第1のフレーム部分の複数の画素と並置された前記第2の参照フレームの複数の画素を含む、前記形成すること、
前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分をブレンディングして、前記第1のフレームのブロックのインター予測のためにオプティカルフロー参照フレーム部分を形成することを、含む、装置。 - 前記オプティカルフロー参照フレーム部分を使用して、前記第1のフレームの前記ブロックに対して予測プロセスを実行すること、をさらに備える請求項10に記載の装置。
- 前記第1のフレームの複数のブロックの単一参照インター予測にのみ前記オプティカルフロー参照フレーム部分を用いることをさらに備える請求項10または11に記載の装置。
- 対応する動きフィールドを生成することは、
前記第1の参照フレーム部分および前記第2の参照フレーム部分を使用して、前記第1のフレーム部分の各画素についてラグランジュ関数の出力を計算することを含む、請求項10〜12に記載のいずれか一項に記載の装置。 - 前記ラグランジュ関数の出力を計算することは、
ラグランジュパラメータの第1の値を使用して、前記第1のフレーム部分の複数の画素の第1の組の動きフィールドを計算すること、
前記ラグランジュパラメータの第2の値を使用する前記ラグランジュ関数への入力として前記第1の組の動きフィールドを使用して、前記第1のフレーム部分の複数の画素の再調整された1組の動きフィールドを計算すること、を含み、
前記ラグランジュパラメータの第2の値は、前記ラグランジュパラメータの第1の値よりも小さく、前記第1のワーピングされた参照フレームおよび前記第2のワーピングされた参照フレームは、前記再調整された1組の動きフィールドを用いてワーピングされる、請求項13に記載の装置。 - 装置であって、
プロセッサと、
前記プロセッサが実行して方法を実行可能な命令を含む非一時的な記憶媒体と、を備え、
前記方法は、
ビデオシーケンスからの第1の参照フレームおよび前記ビデオシーケンスからの第2の参照フレームを使用して、前記ビデオシーケンスの第1のフレームのブロックのインター予測のためにオプティカルフロー参照フレーム部分を生成すること、
オプティカルフロー推定の第1の処理レベルで第1のフレーム部分の複数の画素の動きフィールドを初期化することであって、前記第1の処理レベルは、前記第1のフレーム部分内のダウンスケーリングされた動きを示し、複数レベルのうちの特定のレベルを含む、前記初期化すること、
前記複数レベルの各レベルに対して、
前記複数の動きフィールドを使用して第1の参照フレーム部分を前記第1のフレーム部分にワーピングして、第1のワーピングされた参照フレーム部分を形成すること、
前記複数の動きフィールドを使用して第2の参照フレーム部分を前記第1のフレーム部分にワーピングして、第2のワーピングされた参照フレーム部分を形成すること、
前記オプティカルフロー推定を使用して、前記第1のワーピングされた参照フレーム部分と前記第2のワーピングされた参照フレーム部分との間の複数の動きフィールドを推定すること、
前記第1のワーピングされた参照フレーム部分と前記第2のワーピングされた参照フレーム部分との間の複数の動きフィールドを使用して、前記第1のフレーム部分の複数の画素の複数の動きフィールドを更新すること、
前記複数レベルのうちの最後のレベルに対して、
更新された複数の動きフィールドを使用して前記第1の参照フレーム部分を前記第1のフレーム部分にワーピングして、最後の第1のワーピングされた参照フレーム部分を形成すること、
前記更新された複数の動きフィールドを使用して前記第2の参照フレーム部分を前記第1のフレーム部分にワーピングして、最後の第2のワーピングされた参照フレーム部分を形成すること、
前記最後の第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分をブレンディングして、前記オプティカルフロー参照フレーム部分を形成すること、を備える、装置。 - 前記オプティカルフロー推定では、前記第1のフレーム部分の各画素に対するラグランジュ関数が用いられる、請求項15に記載の装置。
- 前記複数のレベルの各レベルについて、
前記ラグランジュ関数のラグランジュパラメータを、第1の参照フレーム部分のワーピング、第2の参照フレーム部分のワーピング、複数の動きフィールドの推定、および動きフィールドの更新の第1の反復に対して最大値に初期化すること、
前記第1の参照フレーム部分のワーピング、前記第2の参照フレーム部分のワーピング、前記複数の動きフィールドの推定、前記ラグランジュパラメータの1組の可能な値の順次小さくなる値を用いた複数の動きフィールドの推定の追加の反復を実行すること、をさらに備える請求項16に記載の装置。 - 前記複数の動きフィールドを推定することは、
水平軸、垂直軸、および時刻に関して、前記第1のワーピングされた参照フレーム部分および前記第2のワーピングされた参照フレーム部分の複数の画素の複数の微分係数を計算すること、
前記最後のレベルとは異なるレベルに応じて前記複数の微分係数をダウンスケーリングすること、
前記複数の微分係数を使用して前記ラグランジュ関数を表す線形方程式を解くこと、を含む、請求項16または17に記載の装置。 - 前記オプティカルフロー参照フレーム部分を使用して、前記第1のフレームの現在のブロックをインター予測すること、をさらに備える請求項15〜18のいずれか1項に記載の装置。
- 前記プロセッサおよび前記一時的記憶媒体は復号化器を形成する、請求項15〜19のいずれか一項に記載の装置。
- 装置であって、
プロセッサと、
前記プロセッサが実行して方法を実行可能な命令を含む非一時的な記憶媒体と、を備え、
前記方法は、
ビデオシーケンス内にある予測されるべき第1のフレームの第1のフレーム部分を決定すること、
前記第1のフレームの前方インター予測のために前記ビデオシーケンスから第1の参照フレームを決定すること、
前記第1のフレームの後方インター予測のために前記ビデオシーケンスから第2の参照フレームを決定すること、
前記第1の参照フレームおよび前記第2の参照フレームを用いてオプティカルフロー推定を実行することによって、前記第1のフレーム部分のインター予測のためにオプティカルフロー参照フレーム部分を生成すること、
前記オプティカルフロー参照フレーム部分を使用して、前記第1のフレーム部分に対して予測プロセスを実行すること、を備える方法。
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/683,684 US11284107B2 (en) | 2017-08-22 | 2017-08-22 | Co-located reference frame interpolation using optical flow estimation |
| US15/683,684 | 2017-08-22 | ||
| US15/817,369 US10659788B2 (en) | 2017-11-20 | 2017-11-20 | Block-based optical flow estimation for motion compensated prediction in video coding |
| US15/817,369 | 2017-11-20 | ||
| PCT/US2018/032054 WO2019040134A1 (en) | 2017-08-22 | 2018-05-10 | OPTICAL FLOW ESTIMATING FOR MOTION COMPENSATION PREDICTION IN VIDEO CODING |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020522200A true JP2020522200A (ja) | 2020-07-27 |
| JP6905093B2 JP6905093B2 (ja) | 2021-07-21 |
Family
ID=62567747
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019566280A Active JP6905093B2 (ja) | 2017-08-22 | 2018-05-10 | 映像コーディングにおける動き補償予測のオプティカルフロー推定 |
Country Status (5)
| Country | Link |
|---|---|
| EP (1) | EP3673655A1 (ja) |
| JP (1) | JP6905093B2 (ja) |
| KR (2) | KR102295520B1 (ja) |
| CN (2) | CN118055253A (ja) |
| WO (1) | WO2019040134A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024509881A (ja) * | 2021-03-11 | 2024-03-05 | クアルコム,インコーポレイテッド | Pフレームコーディングシステムを使用する学習型bフレームコーディング |
| US12100169B2 (en) * | 2020-09-30 | 2024-09-24 | Qualcomm Incorporated | Sparse optical flow estimation |
| JP2025535463A (ja) * | 2023-02-01 | 2025-10-24 | テンセント・アメリカ・エルエルシー | 複合インター予測モードのためのシグナリングのための方法、装置及びコンピュータプログラム |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111886864A (zh) * | 2019-03-01 | 2020-11-03 | 阿里巴巴集团控股有限公司 | 分辨率自适应视频编码 |
| WO2021060834A1 (ko) * | 2019-09-24 | 2021-04-01 | 엘지전자 주식회사 | 서브픽처 기반 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
| CN110572677B (zh) * | 2019-09-27 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 视频编解码方法和装置、存储介质及电子装置 |
| CN113473145B (zh) * | 2020-03-31 | 2024-05-31 | 武汉Tcl集团工业研究院有限公司 | 一种视频压缩方法、视频解压方法、智能终端及存储介质 |
| CN111526370B (zh) * | 2020-04-17 | 2023-06-02 | Oppo广东移动通信有限公司 | 视频编码、解码方法及装置和电子设备 |
| CN111935425B (zh) * | 2020-08-14 | 2023-03-24 | 字节跳动有限公司 | 视频降噪方法、装置、电子设备及计算机可读介质 |
| CN112533026A (zh) * | 2020-11-27 | 2021-03-19 | 西安蓝极医疗电子科技有限公司 | 基于卷积神经网络的视频插帧方法 |
| US11494881B2 (en) * | 2020-12-29 | 2022-11-08 | Hb Innovations, Inc. | Global movement image stabilization systems and methods |
| US12192673B2 (en) | 2021-03-16 | 2025-01-07 | Samsung Electronics Co., Ltd. | Accurate optical flow interpolation optimizing bi-directional consistency and temporal smoothness |
| US11638025B2 (en) * | 2021-03-19 | 2023-04-25 | Qualcomm Incorporated | Multi-scale optical flow for learned video compression |
| CN113613003B (zh) * | 2021-08-30 | 2024-03-22 | 北京市商汤科技开发有限公司 | 视频压缩、解压缩方法及装置、电子设备和存储介质 |
| KR20230142375A (ko) * | 2022-04-01 | 2023-10-11 | 주식회사 케이티 | 비디오 신호 부호화/복호화 방법, 그리고 비트스트림을 저장한 기록 매체 |
| WO2023200249A1 (ko) * | 2022-04-12 | 2023-10-19 | 한국전자통신연구원 | 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체 |
| WO2024254037A1 (en) * | 2023-06-05 | 2024-12-12 | Google Llc | Limiting signaled motion vector syntax for temporally interpolated picture video coding |
| CN121264037A (zh) * | 2023-06-06 | 2026-01-02 | 谷歌有限责任公司 | 使用帧级别运动向量的经时间插值的图片预测 |
| WO2026007010A1 (en) * | 2024-07-02 | 2026-01-08 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for unified reference picture synthesis |
| CN119854521B (zh) * | 2024-12-30 | 2025-10-28 | 上海富瀚微电子股份有限公司 | 运动矢量估计方法、系统及可读存储介质 |
| CN121284252B (zh) * | 2025-12-10 | 2026-02-24 | 瀚博半导体(上海)股份有限公司 | 一种解码图像的方法、装置和介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014511054A (ja) * | 2011-02-18 | 2014-05-01 | シーメンス アクチエンゲゼルシヤフト | 画像シーケンスを圧縮するためのコーディング方法及び画像コーディング装置 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8144778B2 (en) * | 2007-02-22 | 2012-03-27 | Sigma Designs, Inc. | Motion compensated frame rate conversion system and method |
| WO2012012582A1 (en) * | 2010-07-21 | 2012-01-26 | Dolby Laboratories Licensing Corporation | Reference processing using advanced motion models for video coding |
| US9230303B2 (en) * | 2013-04-16 | 2016-01-05 | The United States Of America, As Represented By The Secretary Of The Navy | Multi-frame super-resolution of image sequence with arbitrary motion patterns |
| CN103327327B (zh) * | 2013-06-03 | 2016-03-30 | 电子科技大学 | 用于高性能视频编码hevc的帧间预测编码单元选择方法 |
| CN107925775A (zh) * | 2015-09-02 | 2018-04-17 | 联发科技股份有限公司 | 基于双向预测光流技术的视频编解码的运动补偿方法及装置 |
| US10375413B2 (en) * | 2015-09-28 | 2019-08-06 | Qualcomm Incorporated | Bi-directional optical flow for video coding |
| US10469841B2 (en) * | 2016-01-29 | 2019-11-05 | Google Llc | Motion vector prediction using prior frame residual |
| WO2017133661A1 (en) * | 2016-02-05 | 2017-08-10 | Mediatek Inc. | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
-
2018
- 2018-05-10 CN CN202410264512.2A patent/CN118055253A/zh active Pending
- 2018-05-10 CN CN201880036783.5A patent/CN110741640B/zh active Active
- 2018-05-10 EP EP18730489.4A patent/EP3673655A1/en active Pending
- 2018-05-10 JP JP2019566280A patent/JP6905093B2/ja active Active
- 2018-05-10 WO PCT/US2018/032054 patent/WO2019040134A1/en not_active Ceased
- 2018-05-10 KR KR1020197035698A patent/KR102295520B1/ko active Active
- 2018-05-10 KR KR1020217026758A patent/KR102400078B1/ko active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014511054A (ja) * | 2011-02-18 | 2014-05-01 | シーメンス アクチエンゲゼルシヤフト | 画像シーケンスを圧縮するためのコーディング方法及び画像コーディング装置 |
Non-Patent Citations (1)
| Title |
|---|
| JIANLE CHEN ET AL., ALGORITHM DESCRIPTION OF JOINT EXPLORATION TEST MODEL 7 (JEM 7), JPN6021000984, 19 August 2017 (2017-08-19), pages 23 - 27, ISSN: 0004426514 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12100169B2 (en) * | 2020-09-30 | 2024-09-24 | Qualcomm Incorporated | Sparse optical flow estimation |
| JP2024509881A (ja) * | 2021-03-11 | 2024-03-05 | クアルコム,インコーポレイテッド | Pフレームコーディングシステムを使用する学習型bフレームコーディング |
| JP2025535463A (ja) * | 2023-02-01 | 2025-10-24 | テンセント・アメリカ・エルエルシー | 複合インター予測モードのためのシグナリングのための方法、装置及びコンピュータプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200002036A (ko) | 2020-01-07 |
| WO2019040134A1 (en) | 2019-02-28 |
| EP3673655A1 (en) | 2020-07-01 |
| KR102295520B1 (ko) | 2021-08-27 |
| JP6905093B2 (ja) | 2021-07-21 |
| CN118055253A (zh) | 2024-05-17 |
| KR102400078B1 (ko) | 2022-05-18 |
| CN110741640B (zh) | 2024-03-29 |
| CN110741640A (zh) | 2020-01-31 |
| KR20210109049A (ko) | 2021-09-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6905093B2 (ja) | 映像コーディングにおける動き補償予測のオプティカルフロー推定 | |
| US12244818B2 (en) | Selective reference block generation without full reference frame generation | |
| JP7558352B2 (ja) | 画像予測方法および関連装置 | |
| JP7313816B2 (ja) | 画像予測方法および関連装置 | |
| US11284107B2 (en) | Co-located reference frame interpolation using optical flow estimation | |
| US9241160B2 (en) | Reference processing using advanced motion models for video coding | |
| CN110741641B (zh) | 用于视频压缩的方法和装置 | |
| EP3714601B1 (en) | Motion field-based reference frame rendering for motion compensated prediction in video coding | |
| US8170110B2 (en) | Method and apparatus for zoom motion estimation | |
| US12206842B2 (en) | Motion field estimation based on motion trajectory derivation | |
| WO2025073280A1 (en) | Subblock-based temporal motion vector prediction | |
| US20240422309A1 (en) | Selection of projected motion vectors | |
| US20250287032A1 (en) | Motion Refinement For A Co-Located Reference Frame | |
| CN118975230A (zh) | 共位参考帧的运动细化 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191129 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200115 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200121 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210118 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210419 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210531 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6905093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |