JP2022527852A - 異なる動きベクトル微調整における勾配計算 - Google Patents
異なる動きベクトル微調整における勾配計算 Download PDFInfo
- Publication number
- JP2022527852A JP2022527852A JP2021560232A JP2021560232A JP2022527852A JP 2022527852 A JP2022527852 A JP 2022527852A JP 2021560232 A JP2021560232 A JP 2021560232A JP 2021560232 A JP2021560232 A JP 2021560232A JP 2022527852 A JP2022527852 A JP 2022527852A
- Authority
- JP
- Japan
- Prior art keywords
- block
- sample
- prof
- optical flow
- predsample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2019年4月19日出願の国際特許出願PCT/CN2019/083434号、2019年6月25日出願の国際特許出願PCT/CN2019/092762号の優先権および利益を適時に主張することを目的とする。上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
映像符号化規格は、長年にわたって大幅に改善され、現在、部分的には、高いコーディング効率を実現し、より高い解像度をサポートする。HEVCおよびH.265などの最近の規格は、時間予測プラス変換符号化が利用されるハイブリッド映像符号化構造に基づく。
各インター予測されたPU(予測ユニット)は、1つまたは2つの参照ピクチャリストのための動きパラメータを有する。いくつかの実施形態において、動きパラメータは、動きベクトルおよび参照ピクチャインデックスを含む。他の実施例において、2つの参照ピクチャリストのうちの1つの参照ピクチャリストの使用は、inter_pred_idcを用いて通知されてもよい。さらに他の実施形態において、動きベクトルは、予測子に対するデルタとして明確にコーディングされてもよい。
マージモードを使用してPUを予測する場合、ビットストリームからマージ候補リストにおけるエントリを指すインデックスを構文解析し、これを使用して動き情報を検索する。このリストの構成は、以下のステップのシーケンスに基づいてまとめることができる。
空間的マージ候補の導出において、図2に示す位置にある候補の中から、最大4つのマージ候補を選択する。導出の順序はA1、B1、B0、A0、B2である。位置A1、B1、B0、A0のいずれかのPUが利用可能でない場合(例えば、別のスライスまたはタイルに属しているため)、またはイントラ符号化された場合にのみ、位置B2が考慮される。位置A1の候補を加えた後、残りの候補を加えると、冗長性チェックを受け、それにより、同じ動き情報を有する候補を確実にリストから排除でき、符号化効率を向上させることができる。
このステップにおいて、1つの候補のみがリストに追加される。具体的には、この時間的マージ候補の導出において、所与の参照ピクチャリストにおける現在のピクチャとの間に最小のPOC差を有するピクチャに属する同一位置PUに基づいて、スケーリングされた動きベクトルを導出する。スライスヘッダにおいて、同一位置のPU(co-located PU)の導出に用いられる参照ピクチャリストが明確に信号通知される。
空間的-時間的マージ候補の他に、2つの追加のタイプのマージ候補、すなわち、結合双方向予測マージ候補およびゼロマージ候補がある。空間的-時間的マージ候補を利用して、結合双方向予測マージ候補を生成する。結合双方向予測マージ候補は、Bスライスのみに使用される。最初の候補の第1の参照ピクチャリスト動きパラメータと別の候補の第2の参照ピクチャリスト動きパラメータとを組み合わせることで、結合双方向予測候補を生成する。これら2つのタプルが異なる動き仮説を提供する場合、これらのタプルは、新しい双方向予測候補を形成する。
符号化処理を高速化するために、動き推定を並列に行うことができ、それによって、所与の領域内のすべての予測ユニットの動きベクトルを同時に導出する。1つの予測ユニットは、その関連する動き推定が完了するまで、隣接するPUから動きパラメータを導出することができないので、空間的近傍からのマージ候補の導出は、並列処理に干渉する可能性がある。符号化効率と処理待ち時間との間のトレードオフを緩和するために、動き推定領域(MER)を規定することができる。「log2_parallel_merge_level_minus2」構文要素を使用して、ピクチャパラメータ集合(PPS)においてMERのサイズを信号通知してもよい。1つのMERを規定するとき、同じ領域にあるマージ候補は利用不可能であるとしてマークされ、それゆえにリスト構築においては考慮されない。
AMVPは、動きベクトルと近傍のPUとの間の空間的-時間的相関を利用し、これを動きパラメータの明確な伝送に用いる。まず、左側、上側の時間的に近傍のPU位置の可用性をチェックし、冗長な候補を取り除き、ゼロベクトルを加えることで、候補リストの長さを一定にすることで、動きベクトル候補リストを構築する。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。マージインデックスの信号通知と同様に、最良の動きベクトル候補のインデックスは、短縮された単項を使用してエンコードされる。この場合に符号化される最大値は2である(図8参照)。以下の章では、動きベクトル予測候補の導出処理の詳細を説明する。
図8は、動きベクトル予測候補の導出処理をまとめたものであり、refidxを入力として、各参照ピクチャリストに対して実装されてもよい。
空間的動きベクトル候補の導出において、先に図2に示したような位置にあるPUから導出された5つの潜在的な候補のうち、動きマージと同じ位置にあるものを最大2つの候補を考慮する。現在のPUの左側のための導出の順序は、A0、A1、スケーリングされたA0、スケーリングされたA1として規定される。現在のPUの上側のための導出の順序は、B0、B1、B2、スケーリングされたB0、スケーリングされたB1、スケーリングされたB2として規定される。そのため、辺ごとに、動きベクトル候補として使用できる場合が4つ、すなわち空間的スケーリングを使用する必要がない2つの場合と、空間的スケーリングを使用する2つの場合とがある。4つの異なる場合をまとめると、以下のようになる。
参照ピクチャインデックスを導出すること以外は、時間的マージ候補を導出するためのすべての処理は、空間的動きベクトル候補を導出するための処理と同じである(図6の例に示す)。いくつかの実施形態において、参照ピクチャインデックスはデコーダに信号通知される。
いくつかの実施形態において、将来の映像符号化技術は、共同探索モデル(JEM)として知られる参照ソフトウェアを使用して探索される。JEMでは、サブブロックベースの予測は、アフィン予測、代替時間的動きベクトル予測(ATMVP)、空間的-時間的動きベクトル予測(STMVP)、双方向オプティカルフロー(BIO)、フレームレートアップ変換(FRUC)、ローカル適応動きベクトル解像度(LAMVR)、オーバーラップブロック動き補償(OBMC)、ローカル照明補償(LIC)、デコーダ側動きベクトル改良(DMVR)などの、いくつかの符号化ツールで適用されている。
4分木に2分木を加えたJEM(QTBT)において、各CUは、各予測方向に対して最大1つの動きパラメータのセットを有することができる。いくつかの実施形態において、エンコーダにおいて、ラージCUをサブCUに分割し、ラージCUのすべてのサブCUの動き情報を導出することにより、2つのサブCUレベルの動きベクトル予測方法を考慮する。代替的な時間的動きベクトル予測(ATMVP)方法により、各CUが、配列された参照ピクチャにおける現在のCUよりも小さい複数のブロックから複数の動き情報のセットを取り出すことが可能となる。STMVP(Spatial-Temporal Motion Vector Prediction)法において、時間的動きベクトル予測因子および空間的近傍動きベクトルを使用して、サブCUの動きベクトルを再帰的に導出する。いくつかの実施形態において、サブCU動き予測のためにより正確な動きフィールドを維持するために、参照フレームの動き圧縮は無効にされてもよい。
ATMVP法において、時間的動きベクトル予測(TMVP)法は、現在のCUより小さいブロックから複数セットの動き情報(動きベクトルおよび参照インデックスを含む)を取り出すことで修正される。
STMVP法において、サブCUの動きベクトルは、ラスタスキャンの順に沿って再帰的に導出される。図11は、4つのサブブロックおよび近傍のブロックを有する1つのCUの例を示す。4つの4×4個のサブCU、A(1101)、B(1102)、C(1103)、およびD(1104)を含む8×8個のCU1100を考える。現在のフレームにおける近傍の4×4ブロックを、a(1111)、b(1112)、c(1113)、d(1114)とラベルする。
いくつかの実施形態において、サブCUモードは追加のマージ候補として有効とされ、モードを信号通知するために追加の構文要素は必要とされない。ATMVPモード及びSTMVPモードを表すように、各CUのマージ候補リストに2つの追加のマージ候補を加える。他の実施形態において、シーケンスパラメータセットがATMVPおよびSTMVPが有効であることを示す場合、7個までのマージ候補を使用してもよい。追加のマージ候補のエンコーディングロジックは、HMにおけるマージ候補の場合と同じであり、つまり、P又はBスライスにおける各CUについて、2つの追加のマージ候補に対して2回以上のRDチェックが必要となるかもしれない。いくつかの実施形態において、例えばJEMのように、マージインデックスのすべての2値(bin)はコンテキストベースの適応型バイナリ算術コーディング(CABAC:Context-based Adaptive Binary Arithmetic Coding)によりコンテキスト符号化される。他の実施形態、例えばHEVCにおいては、第1の2値のみがコンテキストコーディングされ、残りの2値はコンテキストバイパスコーディングされる。
本発明の実施例中において、use_integer_mv_flagがスライスヘッダにおいて0であるとき、4分の1輝度サンプルの単位で動きベクトルの差(MVD)(動きベクトルとPUの予測動きベクトルとの差)を信号通知される。JEMにおいて、ローカル適応型動きベクトル解像度(LAMVR)が導入される。JEMにおいて、MVDは、1/4輝度サンプル、整数輝度サンプル又は4つの輝度サンプルの単位で符号化できる。MVD分解能は符号化ユニット(CU)レベルで制御され、MVD解像度フラグは、少なくとも1つのノンゼロMVDモジュールを有する各CUに対して条件付きで信号通知される。
HEVCにおいて、動きベクトルの精度は、1/4画素(4:2:0映像の場合、1/4輝度サンプルおよび1/8彩度サンプル)である。JEMにおいて、内部の動きベクトルの記憶およびマージ候補の精度は、1/16画素にまで向上する。スキップ/マージモードで符号化されたCUの動き補償インター予測には、より高い動きベクトル精度(1/16画素)が用いられる。通常のAMVPモードで符号化されたCUの場合、整数画素または1/4画素の動きのいずれかが使用される。
JEMにおいて、OBMCは、CUレベルの構文を使用してオン/オフを切り替えることができる。JEMにおいてOBMCを使用する場合、OBMCは、CUの右下の境界を除くすべての動き補償(MC)ブロック境界に対して行われる。また、輝度及び彩度成分の両方に適用される。JEMにおいて、MCブロックは符号化ブロックに対応する。CUがサブCUモードで符号化された(サブCUマージ、アフィン、及びFRUCモードを含む)場合、CUの各サブブロックは1つのMCブロックである。均一にCU境界を処理するために、OBMCは、すべてのMCブロック境界に対してサブブロックレベルで実行され、ここで、サブブロックサイズは、図12A、12Bに示すように、4×4に等しく設定される。
LICは、倍率aおよびオフセットbを用いて、照明変化の線形モデルに基づく。そして、各インターモード符号化ユニット(CU)に対して適応的に有効又は無効とされる。
HEVCにおいて、動き補償予測(MCP)のために並進運動モデルのみが適用される。しかしながら、カメラおよび対象物は、様々な種類の動き、例えば、ズームイン/ズームアウト、回転、透視運動、及び/又は他の不規則な動きを有してもよい。一方、JEMは、簡易アフィン変換動き補償予測を適用する。図14は、2つの制御点の動きベクトルV0、V1によって記述されるブロック1400のアフィンモーションフィールドの例を示す図である。ブロック1400の動きベクトルフィールド(MVF)は、以下の式で表すことができる。
JEMにおいて、AF_INTERモードおよびAF_MERGEモードの2つのアフィン動きモードがある。幅と高さの両方が8より大きいCUの場合、AF_INTERモードを適用することができる。AF_INTERモードが使用されるかどうかを示すために、ビットストリームにおいてCUレベルのアフィンフラグが信号通知される。AF_INTERモードにおいて、近傍のブロックを使用して動きベクトル対
AF_MERGEモードにおいてCUを適用する場合、CUは、有効な近傍の再構築ブロックから、アフィンモードで符号化された第1のブロックを得る。図17Aは、現在のCU1700のための候補ブロックの選択順序の例を示す。図17Aに示すように、選択順序は、現在のCU1700の左(1701)、上(1702)、右上(1703)、左下(1704)から左上(1705)までとすることができる。図17Bは、AF_MERGEモードにおける現在のCU1700のための候補者ブロックの別の例を示す。近傍の左下ブロック1801をアフィンモードで符号化する場合、図17Bに示すように、サブブロック1701を含むCUの左上隅、右上隅、左下隅の動きベクトルv2、v3、v4を導出する。v2、v3、v4に基づいて、現在のCU1700における左上隅の動きベクトルv0を算出する。従って、現在のCUの右上の動きベクトルv1を算出することができる。
PMMVDモードは、フレームレートアップ変換(FRUC)法に基づく特殊マージモードである。このモードでは、ブロックの動き情報は信号通知されず、デコーダ側で導出される。
JVET-L0646に提案された一般化双方向予測微調整(GBi)をVTM-3.0に採用している。GBiは、双方向予測モードにおいて、L0およびL1からの予測子に不等な重みを適用する。インター予測モードにおいて、ひずみ率最適化(RDO)に基づいて、同等な重み対(1/2,1/2)を含む複数の重み対を評価し、選択された重み対のGBiインデックスをデコーダに信号通知する。マージモードにおいて、GBiインデックスは近傍のCUから継承される。予測子生成式を式(5)に示す。
GBi符号化時間を短縮するために、現在のエンコーダ設計では、エンコーダは、GBi重みが4/8であることから推定された1つの予測動きベクトルを記憶し、それらを他のGBi重みの単一予測探索に再利用する。この高速符号化方法は、並進動きモデルおよびアフィン動きモデルの両方に適用される。VTM2.0において、6パラメータアフィンモデルを4パラメータアフィンモデルとともに採用した。BMS2.1エンコーダは、GBi重みが4/8である場合、単一予測アフィンMVを記憶するとき、4パラメータアフィンモデルと6パラメータアフィンモデルを差別化しない。その結果、GBi重み4/8で符号化した後、4パラメータアフィンMVに6パラメータアフィンMVを上書きしてもよい。記憶された6パラメータアフィンMVは、他のGBi重みのための4パラメータアフィンMEに使用されてもよく、または記憶された4パラメータアフィンMVは、6パラメータアフィンMEに使用してもよい。提案されたGBiエンコーダバグ修正は、4パラメータアフィンMV記憶域と6パラメータアフィンMV記憶域とを分離することである。エンコーダは、GBi重みが4/8である場合、アフィンモデルタイプに基づいてこれらのアフィンMVを記憶し、他のGBi重みである場合、このアフィンモデルタイプに基づいて対応するアフィンMVを再利用する。
本既存の実装形態において、GBiが有効化される場合、符号化時間を短縮するために、5つのエンコーダ高速化方法が提案される。
この方法では、小さなCUの場合、GBiを無効にする。インター予測モードにおいて、双方向予測が使用され、CU領域が128個の輝度サンプルより小さい場合、GBiは、いかなる信号通知もせずに無効にされる。
BIOにおいて、まず、動き補償を行い、現在のブロックの(各予測方向における)第1の予測を生成する。第1の予測は、ブロック内の各サブブロックまたはピクセルの空間的勾配、時間的勾配、及びオプティカルフローを導出するために用いられ、これらを用いて第2の予測、例えば、サブブロックまたはピクセルの最終予測を生成する。以下、その詳細を説明する。
ステップ1: BIOが適用可能かどうかを判断する(W/Hは現在のブロックの幅/高さ)。
ビット深度に応じてBDOFで計算した結果を丸めることを提案するJVET-M0063をVTM-4.0に採用した。
一般
この処理への入力は以下の通りである。
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 現在の符号化サブブロックの幅を規定する変数sbWidth、
- 現在の符号化サブブロックの高さを規定する変数sbHeight、
- 動きベクトルオフセットmvOffset、
- 微調整動きベクトルrefMvLX、
- 選択した参照ピクチャサンプル配列refPicLX、
- 双方向オプティカルフローフラグbdofFlag、
- 現在のブロックの色成分インデックスを規定する変数cIdx。
この処理の出力は以下の通りである。
- 予測サンプル値の(sbWidth+bdofOffset)×(sbHeight+bdofOffset)配列predSamplesLX。
双方向オプティカルフロー境界オフセットbdofOffsetは、以下のように導出される。
bdofOffset=bdofFlag ? 2:0 (8-811)
- cIdxが0に等しい場合、以下が適用される。
- (xIntL,yIntL)をフルサンプルユニットで与えられた輝度位置とし、(xFracL,yFracL)を1/16サンプルユニットで求めたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の端数サンプル位置を規定するために使用される。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+bdofOffset,yL=0..sbHeight-1+bdofOffset)について、対応する予測輝度サンプル値predSamplesLX[xL][yL]は以下のように導出される。
- 変数xIntL、yIntL、xFracL、yFracLは、以下のように導出される。
xIntL=xSb+(refMvLX[0]>>4)+xL (8-812)
yIntL=ySb+(refMvLX[1]>>4)+yL (8-813)
xFracL=refMvLX[0]&15 (8-814)
yFracL=refMvLX[1]&15 (8-815)
- bdofFlagがTRUEであり、且つ以下の条件のうちの1つ以上が真である場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL,yIntL)、(xFracL,yFracL)およびrefPicLXを入力として、8.5.7.3.3.項で規定されているような輝度整数サンプルフェッチ処理を呼び出すことによって導出される。
- bdofFlagがTRUEである。
- xLが0に等しい
- xLがsbWidth+1に等しい
- yLが0に等しい
- yLがsbHeight+1に等しい
そうでない場合、以下が適用される。:
- 動きベクトルmvLXは、(refMvLX-mvOffset)に等しく設定される。
(xIntL,yIntL)、(xFracL,yFracL)、refPicLX、およびpadValを入力として、8.5.7.3.2項で規定されるような輝度サンプル8タップ補間フィルタリング処理を呼び出すことによって、予測輝度サンプル値predSamplesLX[xL][yL]が導出される。
・・・
輝度整数サンプルフェッチ処理
この処理への入力は以下の通りである。
- フルサンプルユニット(xIntL,yIntL)における輝度位置。
- 輝度参照サンプルアレイrefPicLXL。
この処理の出力は、予測輝度サンプル値predSampleLXLである。
この変数shiftは、Max(2,14-BitDepthY)に等しく設定される。
変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
フルサンプルユニット(xInt,yInt)における輝度位置は、以下のように導出される。
xInt=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag ? (8-838)
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL):xIntL)
yInt=Clip3(0,picH-1,yIntL) (8-839)
予測輝度サンプル値predSampleLXLは、以下のように導出される。
predSampleLXL=refPicLXL[xInt][yInt]<<shift3 (8-840)
双方向オプティカルフロー予測処理
この処理への入力は以下の通りである。
- 現在の符号化ブロックの幅および高さを規定する2つの変数nCbWおよびnCbH
- 2つの(nCbW+2)×(nCbH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1。
- 予測リスト利用フラグpredFlagL0およびpredFlagL1。
- 参照インデックスrefIdxL0およびrefIdxL1。
- xIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1の場合の双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]。
この処理の出力は、輝度予測サンプル値の(nCbW)×(nCbH)配列pbSamplesである。
変数bitDepth、shift1、shift2、shift3、shift4、offset4、およびmvRefineThresは、以下のように導出される。
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4は、Max(3,15-bitDepth)に等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresはMax(2,1<<(13-bitDepth))に等しく設定される。
xIdx=0..(nCbW>>2)-1、yIdx=0..(nCbH>>2)-1の場合、以下が適用される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx] がFALSEである場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下の方に導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1(8-852),(predSamplesL0[x+1][y+1]+offset2+
predSamplesL1[x+1][y+1])>>shift2)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEである)、現在のサブブロックの予測サンプル値は、以下のように導出される。
- x=xSb-1..xSb+4,y=ySb-1..ySb+4の場合、以下の順序付けられたステップが適用される。
1. 予測サンプルアレイ内の対応するサンプル位置(x,y)の各々の位置(hx,vy)は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
2. 変数gradientHL0[x][y]、gradientVL0[x][y]、gradientHL1[x][y]、gradientVL1[x][y]は、以下のように導出される。
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
3. 変数temp[x][y]、temppH[x][y]、tempV[x][y]は、以下のように導出される。
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
- 変数sGx2、sGy2、sGxGy、sGxdI、sGydIは、以下のように導出される。
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
- 現在のサブブロックの水平および垂直方向の動きオフセットは、以下のように導出される。
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres, (8-867)
-(sGxdI<<3)>>Floor(Log2(sGx2))):0
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)- (8-868)
((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0
- x=xSb-1..xSb+2、y=ySb-1..ySb+2の場合、現在のサブブロックの予測サンプル値は、以下のように導出される。
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1) (8-869)
+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1)
[フロート入力に対してEd.(JC):Round()動作を定義する。入力が整数値であるので、ここではRound()動作は冗長であるように見える。推薦者が確認すること。]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1(8-870),(predSamplesL0[x+1][y+1]+offset4+
predSamplesL1[x+1][y+1]+bdofOffset)>>shift4)
双方向予測操作において、1つのブロック領域を予測するために、list0の動きベクトル(MV)およびlist1のMVをそれぞれ使用して構成される2つの予測ブロックを組み合わせ、1つの予測信号を形成する。デコーダ側動きベクトル微調整(DMVR)方法において、バイラテラルテンプレートマッチング処理によって、双方向予測の2つの動きベクトルをさらに微調整する。追加の動き情報を送信することなく微調整されたMVを得るために、デコーダにおいてバイラテラルテンプレートマッチングを適用し、バイラテラルテンプレートと参照ピクチャにおける再構成サンプルとの間の歪みに基づく検索を行う。
本寄稿では、オプティカルフローを用いたサブブロックに基づくアフィン動き補償予測を微調整する方法を提案している。サブブロックに基づくアフィン動き補償を行った後、オプティカルフロー方程式で導出された差を加算することで、予測サンプルを微調整し、これをオプティカルフロー付き予測微調整(PROF)と呼ぶ。提案した方法は、メモリアクセス帯域幅を増大させることなく、画素レベルの粒度におけるインター予測を実現することができる。
ステップ1)サブブロックに基づくアフィン動き補償を行い、サブブロック予測I(i,j)を生成する。
ステップ2)3タップフィルタ[-1,0,1]を使用して、個々のサンプル位置において、サブブロック予測の空間的勾配gx(i,j)及びgy(i,j)を算出する。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
サブブロック予測は、勾配計算のために各側で1つの画素だけ拡張される。メモリの帯域幅および複雑性を低減するために、拡大された境界上の画素は、参照ピクチャにおける最も近い整数画素位置からコピーされる。従って、パディング領域のための追加の補間が回避される。
ステップ3)オプティカルフロー方程式によって輝度予測の微調整(ΔIとする)を計算する。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gx(i,j)*Δvx(i,j)
ここで、デルタMV(Δv(i,j)で示す)は、図25に示すように、v(i,j)によって表される、サンプル位置(i,j)について算出された画素MVと、画素(i,j)が属するサブブロックMVのサブブロックMVとの差分である。
サブブロック中心に対するアフィンモデルパラメータ及び画素位置は、サブブロックからサブブロックに変化しないので、第1のサブブロックについてΔv(i,j)を計算し、同じCUにおける他のサブブロックに再利用することができる。画素位置からサブブロックの中心までの水平及び垂直オフセットをx、yとすると、Δv(x,y)は、以下の式で導出することができる。
ステップ4)最後に、輝度予測の微調整がサブブロック予測I(i,j)に加えられる。最終予測I’は、次の方程式のように生成される。
I’(i,j)=I(i,j)-ΔI(i,j)
JVET-N0236の詳細
a) PROFの勾配の導出方法
JVET-N0263において、各参照リストにおける各サブブロック(VTM-4.0における4×4サブブロック)の勾配を計算する。サブブロックごとに、参照ブロックの最も近い整数サンプルを取り出し、サンプルの4つの側部外線を埋める(図23中の黒い丸)。
現在のサブブロックのMVを(MVx,MVy)とする。そして、その端数部分を、(FracX,FracY)=(MVx&15,MVy&15)として算出する。整数部分は、(IntX,IntY)=(MVx>>4,MVy>>>4)として計算される。オフセット(OffsetX,OffsetY)は、以下のように導出される。
OffsetX=FracX>7 ?1:0;
OffsetY=FracY>7 ?1:0;
現在のサブブロックの左上座標を(xCur,yCur)とし、現在のサブブロックの寸法をW×Hとする。
次に、(xCor0,yCor0)、(xCor1,yCor1)、(xCor2,yCor2)、(xCor3,yCor3)を以下のように計算する。
(xCor0,yCor0)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY-1);
(xCor1,yCor1)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY+H);
(xCor2,yCor2)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY);
(xCor3,yCor3)=(xCur+IntX+OffsetX+W,yCur+IntY+OffsetY);
x=0..W-1,y=0..H-1であるPredSample[x][y]が、サブブロックのための予測サンプルを記憶すると仮定する。次に、パディングサンプルを以下のように導出する。
PredSample[x][-1]=(Ref(xCor0+x,yCor0)<<Shift0)-Rounding,for x=-1..W;
PredSample[x][H]=(Ref(xCor1+x,yCor1)<<Shift0)-Rounding,for x=-1..W;
PredSample[-1][y]=(Ref(xCor2,yCor2+y)<<Shift0)-Rounding,for y=0..H-1;
PredSample[W][y]=(Ref(xCor3,yCor3+y)<<Shift0)-Rounding,for y=0..H-1;
ここで、Recは参照ピクチャを表す。丸めは整数であり、例示のPROF実装形態において213である。Shift0=Max(2,(14-BitDepth));
PROFは、勾配が入力輝度サンプルと同じ精度で出力されるVTM-4.0におけるBIOとは異なり、勾配の精度を向上させることを試みる。
PROFにおける勾配は、以下のように計算される。
Shift1=Shift0-4.
gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift1
gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1
なお、predSamples[x][y]は、補間後の精度を維持する。
b) PROFのΔvの導出方法
Δvの導出(dMvH[posX][posY]およびdMvV[posX][posY]として表され、posX=0..W-1,posY=0..H-1である)は以下のように説明できる。
現在のブロックの寸法をcbWidth×cbHeightとし、制御点動きベクトルの数をnumCpMvとし、制御点動きベクトルをcpMvLX[cpIdx]とし、cpIdx=0..numCpMv-1であり、Xが2つの参照リストを表し、0または1であるとする。
変数log2CbWおよびlog2CbHは、以下のように導出される。
log2CbW=Log2(cbWidth)
log2CbH=Log2(cbHeight)
変数mvScaleHor、mvScaleVer、dHorX、dVerXは、以下のように導出される。
mvScaleHor=cpMvLX[0][0]<<7
mvScaleVer=cpMvLX[0][1]<<7
dHorX=(cpMvLX[1][0]-cpMvLX[0][0])<<(7-log2CbW)
dVerX=(cpMvLX[1][1]-cpMvLX[0][1])<<(7-log2CbW)
変数dHorYおよびdVerYは、以下のように導出される。
- numCpMvが3に等しい場合、以下が適用される。
dHorY=(cpMvLX[2][0]-cpMvLX[0][0])<<(7-log2CbH)
dVerY=(cpMvLX[2][1]-cpMvLX[0][1])<<(7-log2CbH)
- そうでない場合(numCpMvが2に等しい)、以下が適用される。
dHorY=-dVerX
dVerY=dHorX
変数qHorX、qVerX、qHorY、qVerYは、以下のように導出される。
qHorX=dHorX<<2;
qVerX=dVerX<<2;
qHorY=dHorY<<2;
qVerY=dVerY<<2;
dMvH[0][0]、dMvV[0][0]は、以下のように計算される。
dMvH[0][0]=((dHorX+dHorY)<<1)-((qHorX+qHorY)<<1);
dMvV[0][0]=((dVerX+dVerY)<<1)-((qVerX+qVerY)<<1);
1~W-1のxPosの場合、dMvH[xPos][0]、dMvV[xPos][0]は、以下のように導出される。
dMvH[xPos][0]=dMvH[xPos-1][0]+qHorX;
dMvV[xPos][0]=dMvV[xPos-1][0]+qVerX;
1~H-1のyPosについて、以下が適用される。
dMvH[xPos][yPos]=dMvH[xPos][yPos-1]+qHorY with xPos=0..W-1
dMvV[xPos][yPos]=dMvV[xPos][yPos-1]+qVerY with xPos=0..W-1
最後に、posX=0..W-1、posY=0..H-1のdMvH[xPos][yPos]およびdMvV[xPos][yPos]を、以下のように右シフトする。
dMvH[xPos][yPos]=SatShift(dMvH[xPos][yPos],7+2-1);
dMvV[xPos][yPos]=SatShift(dMvV[xPos][yPos],7+2-1);
ここで、SatShift(x,n)およびShift(x,n)は、以下のように定義される。
一例において、offset0および/またはoffset1は、(1<<<n)>>1に設定される。
c) PROFのΔIの導出方法
サブブロック内の位置(posX,posY)の場合、その対応するΔv(i,j)は、(dMvH[posX][posY],dMvV[posX][posY])として表される。その対応する勾配を(gradientH[posX][posY],gradientV[posX][posY])と表す。
そして、ΔI(posX,posY)を以下のように導出する。
(dMvH[posX][posY],dMvV[posX][posY])は、以下のようにクリッピングされる。
dMvH[posX][posY]=Clip3(-32768,32767,dMvH[posX][posY]);
dMvV[posX][posY]=Clip3(-32768,32767,dMvV[posX][posY]);
ΔI(posX,posY)=dMvH[posX][posY]×gradientH[posX][posY]+dMvV[posX][posY]×gradientV[posX][posY];
ΔI(posX,posY)=Shift(ΔI(posX,posY),1+1+4);
ΔI(posX,posY)=Clip3(-(213-1),213-1,ΔI(posX,posY));
d) PROFのためにI’をどのように導出するか
現在のブロックが双方向予測または重み付け予測として符号化されていない場合、
I’(posX,posY)=Shift((I(posX,posY)+ΔI(posX,posY)),Shift0),
I’(posX,posY)=ClipSample(I’(posX,posY)),
ここで、ClipSampleは、サンプル値を有効な出力サンプル値にクリッピングする。
そして、I’(posX,posY)をインター予測値として出力する。
そうでない場合(現在のブロックは、双方向予測または重み付け予測として符号化される)。
I’(posX,posY)が記憶され、他の予測値および/または重み値に従ってインター予測値を生成するために使用される。
JVET-N0510には、位相可変アフィンサブブロック動き補償(MC)が提案される。従来の2段階の水平-垂直補間を適用する。しかしながら、すべてのサンプル行に対して同じ水平フィルタを使用し、すべてのサンプル列に対して同じ垂直フィルタを使用する位相不変ブロックに基づくMCとは異なり、フィルタの異なる位相を、アフィンサブブロックにおける異なるサンプル行および異なるサンプル列に適用することができる。
既存の実装形態の中には、以下の欠点を有するものがある。
本開示の技術の実施形態は、既存の実装の欠点を克服し、それにより、より高い符号化効率を有する映像符号化を提供する。開示される技術に基づいたオプティカルフロー付き予測微調整の方法は、既存のおよび将来の映像符号化規格の両方を向上させることができ、様々な実装形態のために以下の例で解明される。以下に提供される開示される技術の例は、一般的な概念を説明するものであり、限定するものと解釈されるべきではない。一例において、明確に示されていない限り、逆に示されていない限り、これらの例に記載されている様々な特徴を組み合わせることができる。
1. PROFにおける勾配計算は、アフィンモードにおける動き補償に使用されるサブブロックサイズとは異なるM×Nの領域レベルで実行されてもよいことが提案される。
a. 一例において、PROFにおける勾配計算は、1つのサブブロックよりも大きいM×N個の領域に対して行われてもよい。
b. 一例において、MおよびNは、ある予め定義された数であってもよく、例えば、である。M=N=8またはM=N=16である。
c. 一例において、MおよびNは、サブブロックのサイズの幅/高さに基づいて定義される、Wmcを、動き補償に使用されるサブブロックサイズの幅/高さとすると、例えば、M=N=2*Wmcなど、何らかの数であってもよい。
d. PROFにおける勾配を導出するために使用されるパディング処理は、M×N領域レベルで行われる。
e. 上記のすべての例において、MおよびNの定義は、以下の通りである。
i. 一例において、M=min(K0、ブロック幅)であり、K0は整数値である。
ii. 一例において、N=min(K1、ブロックの高さ)であり、K0は整数値である。
iii. 上記の例では、K0=K1=16である。
iv. 一例において、K0およびK1は、BDOFに使用されるものと位置合わせされる。
f.第1のサブブロックにおける第1のサンプルの勾配は、第2のサブブロックにおける第2のサンプルによって導出されてもよい。
i. 一例において、第2のサブブロックは、第1のサブブロックに隣接する。
ii. 一例において、第2のサンプルは、第1のサブブロックまたは第2のサブブロックにある場合と同様に、第1のサンプルの勾配を導出するために使用される。
iii. 上記方法は、M×Nがサブブロックよりも大きい場合に適用されてもよい。
g. 各M×N領域のパディング処理のために、1つ又は複数のMVを導出してもよい。
i. 一例において、1つの特定のMVは、M×N領域のためのパディング処理のために導出される。整数参照サンプルは、特定のMVで位置判定され、次いで、M×N領域外のサンプルをパディングするために使用してもよい。
(i) 一例において、特定のMVは、M×N領域における1つのサブブロックの1つのMVであってもよく、例えば、M×N領域における左上隅のサブブロックまたは中央のサブブロックである。図31に例を示す。特定のMVとして、サブブロックA、B、C、D、EのMVを選択してもよい。
(ii) 一例において、特定のMVは、アフィンモデルからM×N領域の特定の位置(例えば、中心)に向かって導出されてもよい。
(iii)一例において、特定のMVは、M×N領域におけるサブブロックのMVから導出されてもよい。
a. 例えば、特定のMVは、M×N領域におけるすべてのサブブロックのMVの平均として導出されてもよい。
b. 例えば、特定のMVは、中央サブブロックの複数のMVの平均として導出されてもよい。
i. 例えば、特定のMVは、図31におけるB、C、D、Eの複数のMVの平均値として導出されてもよい。
ii. 例えば、特定のMVは、図31におけるBおよびEの複数のMVの平均値として導出されてもよい。
iii. 例えば、特定のMVは、図31におけるCおよびDの複数のMVの平均値として導出されてもよい。
c. 例えば、特定のMVは、複数のMV(例えば、CPMVまたはサブブロックのMV)の関数として導出されてもよい。
ii. 一例において、M×N領域に対するパディング処理のために、複数のMVが導出される。整数参照サンプルは、複数のMVのうちの1つのMVに配置され、次いで、M×N領域外のサンプルをパディングするために使用してもよい。
(i)一例において、第1のサンプルをM×N領域の第1のサブブロックにパディングする場合、第1のサブブロックの第1のMVを使用して、第1のサンプルをパディングするための整数参照サンプルを位置決めしてもよい。
iii. 上述の方法は、M×Nが1つのサブブロックよりも大きい場合に適用され、PROFにおける勾配を導出するために使用されるパディング処理は、各M×N領域に対して行われる。
2. PROF/BIOにおける勾配計算は、M×N個の領域レベルで実行されてもよく、M/Nは適応的に変更されてもよい。
a. 一例において、MおよびNは、現在のブロックの寸法W×Hに依存してもよい。
i. 例えば、この領域は現在のブロック全体、すなわち、M=W、N=Hであってもよい。
ii. 例えば、M=W/T1、N=H/T2であり、ここで、T1、T2は整数であり、例えば、T1=T2=2である。
iii. 一例において、Mおよび/またはNは、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CUなどにおいて、エンコーダからデコーダに信号通知されてもよい。
(i) 代替的に、Mおよび/またはNは、映像符号化規格のプロファイル/レベル/層において指定されてもよい。
iv. 一例において、M=Min(W,T1)およびN=Min(H,T2)である。例えば、T1=T2=16である。
(i)一例において、T1および/またはT2は、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CUにおけるように、エンコーダからデコーダに信号通知されてもよい。
(ii) 代替的に、T1および/またはT2は、映像符号化規格のプロファイル/レベル/層において指定されてもよい。
3. 上記方法に対して、以下をさらに適用してもよい。
a. 一例において、Mは、少なくともMminに等しく、Nは、少なくともNminに等しく、例えば、Mmin=Nmin=8である。
b. 一例において、パディング処理は、各M×N領域に対して1回行われ、パディングされた(M+dM)×(N+dN)領域を取得し、例えば、dM=dN=2である。
i. 一例において、領域内のサンプル(例えば、図23における白丸)は、補間フィルタリングによる動き補償から導出されてもよい。
(i) 一例において、この領域内のサンプルは、この領域における複数のサブブロックの動き補償から導出されてもよい。
ii. 一例において、サンプルの4つの側部外側ライン(例えば、図23における黒丸)は、パディングされてもよい。
(i) 一例において、パディングされるサンプルは、参照ブロックにおける最も近い整数サンプルの強度をコピーしてもよい。
(ii) 一例において、パディングされるサンプルは、パディングされていない領域における最も近いサンプルの強度をコピーしてもよい。
4. PROF/BIOにおける勾配計算が適用される各領域に対して、各サンプルごとに勾配値を計算する代わりに、サンプルの一部に基づいて勾配を計算することが提案される。
a. 一例において、PROF/BIOにおいて、所与の座標におけるサンプルに関連付けられた勾配を使用してもよく、例えば、(2x,y)または(x,2y)または(2x+1,2y+1)または(2x,2y)において、(m,n)は、現在のブロックにおける左上のサンプルに対する座標である。
b. 一例において、サンプルは、まず修正され(例えば、ダウンサンプリングされ)、修正されたサンプルは、勾配を導出するために使用してもよい。
5. BDOFおよびPROFにおいて計算される勾配値の精度は同じであってもよいことが提案される。
a. 一例において、サンプル差は同じ値でシフトされてもよい。
i. 一例において、水平および/または垂直方向勾配(それぞれ、gradientH、gradientVで表される)は、以下のようにして計算されてもよい。
gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift0
gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1
あるいは、
gradientH[x][y]=Shift((predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=Shift((predSample[x][y+1]-predSample[x][y-1]),Shift1)
あるいは、
gradientH[x][y]=SatShift((predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=SatShift((predSample[x][y+1]-predSample[x][y-1]),Shift1)
ii. 一例において、水平および/または垂直方向勾配(それぞれ、gradientH、gradientVで表される)は、以下のようにして計算されてもよい。
gradientH[x][y]=(predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y])>>Shift0
gradientV[x][y]=(predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1])>>Shift1
あるいは、
gradientH[x][y]=Shift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=Shift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1)
あるいは、
gradientH[x][y]=SatShift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=SatShift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1)
iii. 一例において、Shift0および/またはShift1は、Max(2,(14-BitDepth))に設定されてもよく、ここで、BitDepthは、再構成されたサンプル/入力サンプルのビット深度である。
6. PROF、BIO、またはPROFとBIOの両方に、サンプルの外線をパディングするための以下の方法(図23において黒丸など、パディングサンプルと呼ばれる)を適用してもよい。
a. パディングサンプルは、PROFおよび/またはBIOと同じ方法でパディングされてもよい。「同じ方法」は、以下に開示される任意のパディング方法であってもよい。
b. 一例において、パディングサンプルは、PROFおよび/またはBIOのための参照ピクチャにおける整数サンプルから導出されてもよい(例えば、コピーされてもよい)。
i. 一例において、パディングサンプルの導出に使用される整数サンプルは、パディングサンプルの位置によってMVを加算して配置され、加算演算で整数MVに丸められてもよい。
(i) 一例において、MV(MvX,MvY)は、床整数MV(IntX,IntY)に丸められてもよい。例えば、PをMV精度とした場合、IntX=MvX>>P、IntY=MvY>>Pである。
(ii) 一例において、MV(MvX,MvY)は、最も近い整数MV(IntX,IntY)に丸められてもよい。例えば、PをMVの精度とした場合、FracX=MvX&((1<<P)-1),FracY=MvY & ((1<<P)-1),OffX=(FracX>=(1<<(P-1))) ?1:0,OffY=(FracY>=(1<<(P-1))) ?1:0に設定すると、IntX=(MvX>>P)+OffX,IntY=(MvY>>P)+OffYとなる。HalfFracは、1<<(P-1)に等しくてもよく、他の例において、(1<<(P-1))-1または(1<<(P-1))+1に等しくてもよい。
(iii) 一例において、PをMV精度とすると、MV(MvX,MvY)は、IntX=SatShift(MvX,P)、IntY=SatShift(MvY,P)として、整数MV(IntX,IntY)に丸められてもよい。
(iv) 上記黒丸において、MV精度Pは、カラーフォーマットおよび/または色成分に依存してもよい。
a. 例えば、Cb/Cr成分のMV精度は、輝度成分のMV精度に4:2:0カラーフォーマットのKを加えたものに等しくてもよい。例えば、Kは1に等しくてもよい。
(v) パディングを行う方法は、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CUなどにおいて、エンコーダからデコーダに信号通知されてもよい。
a. 代替的に、パディングを行う方法は、映像符号化規格のプロファイル/レベル/層で指定されてもよい。
(vi) パディングを行う方法は、ブロック寸法に依存してもよい。
7. PROFを適用する場合、符号化ツールXを適用できないことが提案される。
a. 代替的に、符号化ツールXを適用する場合、PROFを適用することができない。
b. 一例において、符号化ツールXが適用され得ない場合、符号化ツールXを示すための構文要素は、信号通知されなくてもよい。
c. 一例において、符号化ツールXは、一般化Bi予測(GBI)であってもよい。
i. 例えば、GbiIdxが0に等しくない場合、PROFは適用されない。
ii. 代替的に、PROFが適用される場合、GbiIdxは0でなければならない。
iii. 代替的に、PROFが適用される場合、GbiIdxは信号通知されず、0であると推測される。
iv. 代替的に、PROFが適用される場合、GbiIdxが0であってもなくても、GBIは適用されない。
d. 一例において、符号化ツールXは、局所照明補償であってもよい。
e. 一例において、符号化ツールXは、多重変換セット(Multiple Transform Set:MTS)であってもよい。
i. 例えば、PROFを適用する場合、デフォルト変換のみを適用することができる。
(i) 例えば、PROFが適用される場合、MTSに関連する構文要素は適用されない。
f. 一例において、符号化ツールXは、重み付け予測であってもよい。
i. 例えば、1つのブロックに対して重み予測による不等な重みおよび/または不等なオフセットを適用する場合、PROFは適用されない。
8. PROFの適用方法は、カラーフォーマットおよび/または別個のプレーン符号化の使用に依存してもよいことが提案される。
a. 一例において、カラーフォーマットが4:0:0である場合、PROFを彩度成分に適用することができない。
b. 一例において、カラーフォーマットが4:4:4である場合、PROFは彩度成分に適用されてもよい。
c. 一例において、PROFは、カラーフォーマットが4:0:0に等しくない場合、彩度成分に適用されてもよい。
d. 一例において、デルタMV(例えば、2.11章におけるΔv)の導出方法は、カラーフォーマットに依存してもよい。
9. PROFの適用方法は、色成分に依存してもよいことが提案される。
a. 一例において、勾配は、各色成分ごとに独立して計算されてもよい。
i. 代替的に、第1の色成分に対して算出された勾配を第2の色成分に使用してもよい。
ii. 代替的に、勾配は、2回、輝度/主色成分に対して1回、および2つの彩度/依存色成分に対して1回、計算してもよい。
b. 一例において、デルタMV(例えば、2.11章におけるΔv)は、各色成分ごとに独立して算出されてもよい。
i. 代替的に、第1の色成分のために算出されたデルタMVを第2の色成分に使用してもよい。
c. 一例において、各色成分ごとに独立して予測微調整(例えば、2.11章におけるΔI)を算出してもよい。
i. 代替的に、第1の色成分のために計算された予測微調整(例えば、2.11章におけるΔI)は、第2の色成分によって使用してもよい。
d. 一例において、PROFにおける勾配の精度は、色成分に依存してもよい。
e. 一例において、PROFにおけるデルタMV(例えば、2.11章におけるΔv)の精度は、色成分に依存してもよい。
f. 一例において、PROFにおけるクリッピング演算の有無および方法は、色成分に依存してもよい。
g. 一例において、PROFにおけるシフト動作の有無および方法は、色成分に依存してもよい。
h. 一例において、PROFは、輝度成分のみに適用されてもよい。
i. 一例において、PROFは、異なるサブブロックサイズの異なる色成分に適用されてもよい。
i. 代替的に、PROFは、同じサブブロックサイズの異なる色成分に適用されてもよい。
j. 一例において、PROFは、M*N個のサブブロックサイズの彩度成分に適用されてもよい。
i. 例えば、MおよびNを4に等しく設定する。
k. 上記方法(黒丸 h-j)は、カラーフォーマット(例えば、4:2:0または4:4:4)にさらに依存してもよい。
10. デルタMV(例えば、2.11章におけるΔv)の導出は、サブブロックの幅および/または高さに依存してもよいことが提案される。
a. 一例において、dMvH[0][0]およびdMvV[0][0]は、以下のように計算される。
qHorX=dHorX*P0;
qVerX=dVerX*P0;
qHorY=dHorY*P0;
qVerY=dVerY*P0;
dMvH[0][0]=((iDMvHorX+iDMvVerX)*P1)-(quadHorX*(blockWidth>>1)+quadVerX*(blockHeight*P1));
dMvV[0][0]=((iDMvHorY+iDMvVerY)*P1)-(quadHorY*(blockWidth>>1)+quadVerY*(blockHeight*P1));
ここで、blockWidthおよびblockHeightは、それぞれサブブロックの幅および高さを表す。P0およびP1は、精度を制御する2つの数である。
i. 例えば、P0=4であり、P1=2である場合、dMvH[0][0]およびdMvV[0][0]は、以下のように計算される。
qHorX=dHorX<<2;
qVerX=dVerX<<2;
qHorY=dHorY<<2;
qVerY=dVerY<<2;
dMvH[0][0]=((iDMvHorX+iDMvVerX)<<1)-(quadHorX*(blockWidth>>1)+quadVerX*(blockHeight>>1));
dMvV[0][0]=((iDMvHorY+iDMvVerY)<<1)-(quadHorY*(blockWidth>>1)+quadVerY*(blockHeight>>1));
11. なお、アフィン符号化されたブロックに対して、PROFは、常に適用される代わりに、条件付きで行われてもよいことが提案される。
a. 一例において、PROFの実行の有無およびその方法は、現在のブロックの寸法W×Hに依存してもよい。
i. 例えば、PROFは、W<=T1および/またはH<=T2の場合、適用されなくてもよく、例えば、T1=T2=16である。
ii. 例えば、PROFは、W<T1および/またはH<T2の場合、適用されなくてもよく、例えば、T1=T2=16である。
iii. 例えば、PROFは、W>=T1および/またはH>=T2、例えばT1=T2=64の場合、PROFを適用しなくてもよい。
iv. 例えば、PROFは、W>T1および/またはH>T2、例えば、T1=T2=64の場合、適用されなくてもよい。
v. 例えば、W*H>T1、例えば、T1=64*64である場合、PROFは適用されなくてもよい。
vi. 例えば、W*H>=T1、例えば、T1=64*64の場合、PROFは適用されなくてもよい。
vii. 例えば、W*H<T1、例えば、T1=16*16である場合、PROFは適用されなくてもよい。
viii. 例えば、W*H<=T1、例えば、T1=16*16である場合、PROFは適用されなくてもよい。
ix. 例えば、min(W,H)>=T1、例えば、T1=64の場合、PROFを適用しなくてもよい。
x. 例えば、min(W,H)>T1、例えばT1=64である場合、PROFを適用しなくてもよい。
xi. 例えば、max(W,H)<=T1、例えば、T1=16の場合、PROFは、適用されなくてもよい。
xii. 例えば、max(W,H)<T1、例えば、T1=16の場合、PROFは、適用されなくてもよい。
b. 一例において、PROFの実行の有無、および/またはその方法は、制御点動きベクトルに依存してもよい。
c. 一例において、PROFを行うかどうか、および/またはどのように行うかは、アフィンパラメータおよび/またはアフィンパラメータの数に依存してもよい。
i. 4パラメータアフィンモデルの場合、
ii. 4パラメータアフィンモデルの場合、
iii. 一例において、最大アフィンパラメータが閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべての(例えば、4つまたは6つの)アフィンパラメータが閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、少なくとも1つのアフィンパラメータが閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
iv. 一例において、アフィンパラメータの絶対値の最大値が閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべてのアフィンパラメータの絶対値が閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、PROFは、すべてのアフィンパラメータの絶対値のうちの少なくとも1つが閾値よりも大きい(または小さくない)場合にのみ適用されてもよい。
v. 一例において、最小アフィンパラメータが閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべての(例えば、4つまたは6つの)アフィンパラメータが閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、少なくとも1つのアフィンパラメータが閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
vi. 一例において、アフィンパラメータの絶対値の最小値が閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべてのアフィンパラメータの絶対値が閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、PROFは、アフィンパラメータの絶対値のうちの少なくとも1つが閾値より小さい(または大きくない)場合にのみ適用されてもよい。
vii. 一例において、JVET-N0236に開示されるようなデルタMVの「絶対値」の最大値が閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべてのデルタMVの「絶対値」が閾値より小さい(または大きくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、PROFは、デルタMVの「絶対値」のうちの少なくとも1つが閾値よりも大きい(または小さくない)場合にのみ適用されてもよい。
viii. 一例において、デルタMVの「絶対値」の最小値が閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(i) 代替的に、すべてのデルタMVの「絶対値」が閾値よりも大きい(または小さくない)場合、PROFを適用しなくてもよい。
(ii) 代替的に、PROFは、デルタMVの「絶対値」のうちの少なくとも1つが閾値よりも大きい(または小さくない)場合にのみ適用されてもよい。
ix. 一例において、PROFは特定の位置に適用されてもよい。
(i) 例えば、PROFは、その対応するデルタMVの「絶対値」が閾値より小さい(または大きくない)場合、位置に適用されてもよい。
(ii) 例えば、PROFは、その対応するデルタMVの「絶対値」が閾値よりも大きい(または小さくない)場合、位置に適用されてもよい。
x. 一例において、アフィンパラメータは、JVET-M1001に記載されているように、特定の精度で、整数dHorX、dVerX、dHorY、dVerYと表現されてもよい。
xi. 一例において、閾値はビット深度に依存してもよい。
(i) 一例において、閾値は、1<<BitDepthとして導出されてもよい。
(ii)さらに、代替的に、この閾値は、双方向予測が適用されるかまたは単一予測が適用されるかに依存してもよい。
a. 例えば、閾値は、(1<<BitDepth)+(Bi-prediction?1:0)として導出されてもよい。
xii. 一例において、黒丸11に開示された方法の適用の有無、および/またはその方法は、参照ピクチャの構造に依存してもよい。
(i) 例えば、現在のピクチャのすべての参照ピクチャが現在のピクチャの表示順に前置されている場合、すなわち、すべての参照ピクチャのPOCが現在のピクチャのPOCより小さい場合、本明細書に開示される方法の1つまたは複数は適用されなくてもよい。
(ii) 代替的に、黒丸11に開示された方法の提供の有無、および/またはその方法は、スライス/ピクチャのタイプ(例えば、IスライスまたはBスライス)に依存してもよい。
(iii) 代替的に、黒丸11に開示された方法の提供の有無、および/またはその方法は、時間層に依存してもよい。
xiii. 黒丸11において、符号化方法「PROF」の代わりに、JVET-N0216に開示されるような織り交ぜ予測または位相可変アフィンサブブロック動き補償など、アフィン予測符号化を向上させるための他の符号化方法を使用してもよい。
12. JVET-N0510に提案されているような位相可変アフィンサブブロック動き補償をまず適用して予測値を得て、次にPROFを用いてもよいことが提案される。
13. 任意の有効なxおよびyに対してdMvH[x][y]および/またはdMvV[x][y]を導出するために使用される任意の変数のビット幅は、特定の数、例えば32を超えることができないことが提案される。
a. 一例において、dMvH[x][y]および/またはdMvV[x][y]は、他のdMvH[t][z]および/またはdMvV[t][z]を導出するために使用される前にクリッピングされる。ここで、(t,z)は、(x,y)に等しくない。
b. 一例において、dMvH[x][y]および/またはdMvV[x][y]は、他のdMvH[t][z]および/またはdMvV[t][z]を導出するために使用される前に右へシフトされる。ここで、(t,z)は、(x,y)に等しくない。
14. dMvHおよび/またはdMvVは、記憶された動きベクトルと同じ精度を有してもよいことが提案される。
a. 例えば、
dMvH[xPos][yPos]=SatShift(dMvH[xPos][yPos],7+M);
dMvV[xPos][yPos]=SatShift(dMvV[xPos][yPos],7+M);
ここで、Mは、dMvHおよび/またはhMvV、例えばM=2を導出するための追加の精度である。
15. 予測微調整ΔIを導出するために使用される前のdMvHおよび/またはdMvVにおけるクリッピングは、dMvHおよび/またはdMvVの精度に依存してもよいことが提案される。
a. 例えば、
dMvH[posX][posY]=Clip3(-2K-1,2K-1-1,dMvH[posX][posY]);
dMvV[posX][posY]=Clip3(-2K-1,2K-1-1,dMvV[posX][posY]);
ここで、Kは、dMvHおよび/またはdMvVの精度に依存する。
b. 代替的に、dMvH[x][y]および/またはdMvV[x][y]は、予測微調整を導出するために使用される前にクリッピングされない。
16. 予測微調整ΔI(posX,posY)の右シフトは、ΔI(posX,posY)の符号に依存してもよいことが提案される。
a. 例えば、ΔI(posX,posY)=SatShift(ΔI(posX,posY),N)、ここで、Nは整数である。
17. 予測微調整ΔI(posX,posY)におけるクリッピングは、サンプルビット深度に依存してもよいことが提案される。
a. 例えば、ΔI(posX,posY)=Clip3(-(23+BitDepth-1),23+BitDpeth-1,ΔI(posX,posY));
18. アフィンモードブロック内のサブブロック境界(例えば、内側サブブロック境界)に対して非ブロック化の実行の有無および/またはその方法は、JVET-N0216に開示されるような織り交ぜ予測、および/またはPROF、および/または位相可変アフィンサブブロック動き補償をブロックに適用するかどうかに依存してもよい。
a. 一例において、織り交ぜ予測または/およびPROFまたは/および位相可変アフィンサブブロック動き補償がブロックに適用される場合、非ブロック化は無効にされてもよい。
i. 代替的に、非ブロック化フィルタは、ブロックに織り交ぜ予測または/およびPROFまたは/および位相可変アフィンサブブロック動き補償が適用されるサブブロック境界において、より弱くてもよい。例えば、このような境界において、境界強度を小さく設定してもよい。
b. 一例において、織り交ぜ予測または/およびPROFまたは/および位相可変アフィンサブブロック動き補償がブロックに適用されない場合、非ブロック化は有効にされてもよい。
本願は、2019年4月19日出願の国際特許出願PCT/CN2019/083434号および2019年6月25日出願の国際特許出願PCT/CN2019/092762号の優先権および利益を主張する、2020年4月20日出願の国際特許出願PCT/CN2020/085662号の国内段階である。上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
Claims (26)
- 映像の現在の映像ブロックに対して、精度規則に従って、初期予測サンプルの勾配に基づいて、オプティカルフロー計算を使用して、前記現在の映像ブロックに対する1つ以上の初期予測を微調整することによって、前記現在の映像ブロックに対する最終予測ブロックを判定することと、
前記最終予測ブロックを使用して、前記現在の映像ブロックと符号化表現との間で変換を行うこととを含み、
前記オプティカルフロー計算は、PROF(Prediction Refinement with Optical Flow)手順またはBDOF(Bi-Directional Optical Flow)手順を含み、
前記精度規則は、前記PROF手順および前記BDOF手順の両方に対して前記勾配を表現するために同じ精度を使用するように規定する、
映像処理方法。 - 前記PROF手順において、前記1つ以上の初期予測は、アフィン動き補償予測中にサブブロックレベルで算出され、前記オプティカルフロー計算を使用して微調整される、
請求項1に記載の方法。 - 前記BDOF手順において、前記1つ以上の初期予測は、前記オプティカルフロー計算中に取得された少なくとも1つの勾配値を使用して微調整される、
請求項1に記載の方法。 - それぞれgradientHおよびgradientVで表される水平方向勾配および垂直方向勾配を、以下の1つで計算し:
i)gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift0,
gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1,
ii)gradientH[x][y]=Shift((predSamples[x+1][y]-predSample[x-1][y]),Shift0),
gradientV[x][y]=Shift((predSample[x][y+1]-predSample[x][y-1]),Shift1),
iii)gradientH[x][y]=SatShift((predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=SatShift((predSample[x][y+1]-predSample[x][y-1]),Shift1),or
iv)gradientH[x][y]=Shift(predSamples[x+1][y],Shift0)-Shift(predSample[x-1][y],Shift0),gradientV[x][y]=Shift(predSample[x][y+1],Shift0)-predSample[x][y-1],Shift1),and
Shift(x,n)は、Shift(x,n)=(x+offset0)>>nで定義され、Satshift(x,n)は、
請求項1に記載の方法。 - それぞれgradientHおよびgradientVで表される水平方向勾配および垂直方向勾配を、以下の1つで計算し:
i)gradientH[x][y]=(predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y])>>Shift0,gradientV[x][y]=(predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1])>>Shift1,
ii)gradientH[x][y]=Shift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=Shift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1),or
iii)gradientH[x][y]=SatShift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=SatShift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1),and
Shift(x,n)は、Shift(x,n)=(x+offset0)>>nで定義され、Satshift(x,n)は、
請求項1に記載の方法。 - Shift0および/またはShift1がMax(2、(14-BitDepth))に設定され、BitDepthが再構成されたサンプルまたは入力サンプルのビット深度を表す、
請求項4または5に記載の方法。 - PROFおよびBDOFに使用されるShift0および/またはShift1が同じである、
請求項1~6のいずれか1項に記載の方法。 - 前記変換を行うことは、前記現在の映像ブロックから前記符号化表現を生成することを含む、
請求項1~7のいずれか1項に記載の方法。 - 前記変換を行うことは、前記符号化表現から前記現在の映像ブロックを生成することを含む、
請求項1~7のいずれか1項に記載の方法。 - 映像の現在の映像ブロックと前記映像の符号化表現との間での変換のために、オプティカルフロー計算を使用して、前記現在の映像ブロックに対する1つ以上の初期予測を微調整することによって、前記現在の映像ブロックに対する最終予測ブロックを判定することと、
前記最終予測ブロックを使用して前記変換を行うことと、を含み、
前記オプティカルフロー計算は、PROF(Prediction Refinement with Optical Flow)手順またはBDOF(Bi-Directional Optical Flow)手順を含み、
前記オプティカルフロー計算は、パディングサンプルを導出すべく、規則に従って、前記PROF手順または前記BDOF手順の少なくとも一方に適用可能なパディング演算をさらに含む、
映像処理方法。 - 前記PROF手順において、前記1つ以上の初期予測は、アフィン動き補償予測中にサブブロックレベルで算出され、前記オプティカルフロー計算を使用して微調整される、
請求項10に記載の方法。 - 前記BDOF手順において、前記1つ以上の初期予測は、前記オプティカルフロー計算中に取得された少なくとも1つの勾配値を使用して微調整される、
請求項10に記載の方法。 - 前記規則は、前記PROF手順および前記BDOF手順に対して同じパディング演算を使用することを規定する、
請求項10に記載の方法。 - 前記規則は、前記現在の映像ブロックの参照ピクチャにおいて整数位置にある整数サンプルから前記パディングサンプルを導出することを規定する、
請求項10に記載の方法。 - 整数サンプルは、整数MVに丸めたMV(Mvx,Mvy)の差を有するパディングサンプルの周囲に位置する、
請求項14に記載の方法。 - MV(Mvx,MvY)を床整数(IntX,IntY)に丸める、
請求項14に記載の方法。 - MV(Mvx,MvY)を最も近い整数MV(IntX,IntY)に丸める、
請求項14に記載の方法。 - 前記現在の映像ブロックのカラーフォーマットおよび/または色成分に依存するMVの精度に基づいて、MVを丸める、
請求項15~18のいずれか1項に記載の方法。 - 前記パディング演算を行う方法の情報が、映像パラメータセット(VPS)、復号化パラメータセット(DPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、スライスヘッダ、タイルグループヘッダ、タイル、符号化ツリーユニット、または符号化ユニットにおいて、信号化される、
請求項10に記載の方法。 - 前記パディング演算を行う方法についての情報は、前記規則のプロファイル、レベル、または層にある、
請求項10に記載の方法。 - 前記パディング演算を行う方法についての情報は、前記現在の映像ブロックの寸法に依存する、
請求項10に記載の方法。 - 前記変換を行うことは、前記現在の映像ブロックから前記符号化表現を生成することを含む、
請求項10~22のいずれか1項に記載の方法。 - 前記変換を行うことは、前記符号化表現から前記現在の映像ブロックを生成することを含む、
請求項10~22のいずれか1項に記載の方法。 - 処理装置と命令を含む非一時的メモリとを備える映像システムの装置であって、
前記処理装置による実行時の前記命令は、前記処理装置に請求項10~24のいずれか1項に記載の方法を実行させる、
装置。 - 非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、
請求項10~24のいずれか1項に記載の方法を実行するためのプログラムコードを含む、
コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023117759A JP2023145563A (ja) | 2019-04-19 | 2023-07-19 | 異なる動きベクトル微調整における勾配計算 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019083434 | 2019-04-19 | ||
CNPCT/CN2019/083434 | 2019-04-19 | ||
CN2019092762 | 2019-06-25 | ||
CNPCT/CN2019/092762 | 2019-06-25 | ||
PCT/CN2020/085662 WO2020211865A1 (en) | 2019-04-19 | 2020-04-20 | Gradient calculation in different motion vector refinements |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117759A Division JP2023145563A (ja) | 2019-04-19 | 2023-07-19 | 異なる動きベクトル微調整における勾配計算 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022527852A true JP2022527852A (ja) | 2022-06-06 |
JPWO2020211865A5 JPWO2020211865A5 (ja) | 2022-06-20 |
JP7319386B2 JP7319386B2 (ja) | 2023-08-01 |
Family
ID=72837050
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021560232A Active JP7319386B2 (ja) | 2019-04-19 | 2020-04-20 | 異なる動きベクトル微調整における勾配計算 |
JP2023117759A Pending JP2023145563A (ja) | 2019-04-19 | 2023-07-19 | 異なる動きベクトル微調整における勾配計算 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117759A Pending JP2023145563A (ja) | 2019-04-19 | 2023-07-19 | 異なる動きベクトル微調整における勾配計算 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11356697B2 (ja) |
EP (2) | EP4304178A3 (ja) |
JP (2) | JP7319386B2 (ja) |
CN (2) | CN113728626B (ja) |
WO (2) | WO2020211865A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7239732B2 (ja) * | 2019-04-02 | 2023-03-14 | 北京字節跳動網絡技術有限公司 | 双方向オプティカルフローに基づく映像符号化及び復号化 |
EP4304178A3 (en) | 2019-04-19 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Gradient calculation in different motion vector refinements |
WO2020211866A1 (en) | 2019-04-19 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Applicability of prediction refinement with optical flow process |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
KR102662616B1 (ko) | 2019-05-21 | 2024-04-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 어파인 모드를 위한 적응적 모션 벡터 차이 해상도 |
WO2020257484A1 (en) * | 2019-06-21 | 2020-12-24 | Vid Scale, Inc. | Precision refinement for motion compensation with optical flow |
CN114365490A (zh) | 2019-09-09 | 2022-04-15 | 北京字节跳动网络技术有限公司 | 高精度图像和视频编解码的系数缩放 |
EP4032300A4 (en) * | 2019-09-20 | 2022-11-09 | Telefonaktiebolaget Lm Ericsson (Publ) | BIDIRECTIONAL OPTICAL FLOW SIMPLIFIED VIDEO CODING AND/OR DECODING METHODS ON SHIFT OPERATIONS AND APPARATUS THEREOF |
JP7323712B2 (ja) | 2019-09-21 | 2023-08-08 | 北京字節跳動網絡技術有限公司 | 画像およびビデオコーディングのための高精度変換および量子化 |
CN114556918A (zh) | 2019-10-12 | 2022-05-27 | 北京字节跳动网络技术有限公司 | 细化视频编解码工具的使用和信令 |
WO2021073630A1 (en) | 2019-10-18 | 2021-04-22 | Beijing Bytedance Network Technology Co., Ltd. | Syntax constraints in parameter set signaling of subpictures |
US20230021722A1 (en) * | 2021-07-20 | 2023-01-26 | Mediatek Inc. | Apparatus and method for performing motion vector refinement to get more precise motion vectors |
US20230291908A1 (en) * | 2022-02-04 | 2023-09-14 | Tencent America LLC | Affine estimation in pre-analysis of encoder |
EP4258666A1 (en) * | 2022-04-07 | 2023-10-11 | Beijing Xiaomi Mobile Software Co., Ltd. | Encoding/decoding video picture data |
US20240022758A1 (en) * | 2022-07-12 | 2024-01-18 | Tencent America LLC | Full-pixel based and group-based motion compensated picture boundary padding |
WO2024012052A1 (en) * | 2022-07-15 | 2024-01-18 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Family Cites Families (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102204254B (zh) | 2008-09-04 | 2015-03-18 | 汤姆森特许公司 | 使用隐式运动预测进行预测精细化的方法及装置 |
JP2011142585A (ja) * | 2010-01-08 | 2011-07-21 | Sony Corp | 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム |
KR101529992B1 (ko) | 2010-04-05 | 2015-06-18 | 삼성전자주식회사 | 픽셀 그룹별 픽셀값 보상을 위한 비디오 부호화 방법과 그 장치, 및 픽셀 그룹별 픽셀값 보상을 위한 비디오 복호화 방법과 그 장치 |
JP5768662B2 (ja) | 2011-10-31 | 2015-08-26 | 富士通株式会社 | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10390041B2 (en) | 2012-03-30 | 2019-08-20 | Sun Patent Trust | Predictive image coding and decoding using two reference pictures |
TWI651963B (zh) | 2012-10-12 | 2019-02-21 | 韓國電子通信研究院 | 視訊編碼及解碼方法及使用該方法之裝置 |
US10412419B2 (en) | 2013-07-12 | 2019-09-10 | Qualcomm Incorporated | Adaptive filtering in video coding |
EP3047639B1 (en) | 2013-09-20 | 2018-07-18 | VID SCALE, Inc. | Video encoder and methods providing 3d look-up table coding for color gamut scalability |
KR102298599B1 (ko) | 2014-04-29 | 2021-09-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 샘플 적응 오프셋 필터링에 대한 인코더측 결정 |
AU2014202921B2 (en) | 2014-05-29 | 2017-02-02 | Canon Kabushiki Kaisha | Method, apparatus and system for de-blocking a block of video samples |
US10200717B2 (en) | 2014-06-19 | 2019-02-05 | Sharp Kabushiki Kaisha | Image decoding device, image coding device, and predicted image generation device |
CN107005713A (zh) | 2014-11-04 | 2017-08-01 | 三星电子株式会社 | 施加边缘类型偏移的视频编码方法和设备以及视频解码方法和设备 |
WO2016078511A1 (en) | 2014-11-18 | 2016-05-26 | Mediatek Inc. | Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate |
US10158836B2 (en) | 2015-01-30 | 2018-12-18 | Qualcomm Incorporated | Clipping for cross-component prediction and adaptive color transform for video coding |
US10057574B2 (en) | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
EP3310055A4 (en) | 2015-06-09 | 2018-06-20 | Huawei Technologies Co. Ltd. | Image encoding/decoding method and apparatus |
CN113473120A (zh) | 2015-06-11 | 2021-10-01 | 英迪股份有限公司 | 使用自适应去块滤波编码和解码图像的方法及其装置 |
CN107710762A (zh) | 2015-06-19 | 2018-02-16 | 诺基亚技术有限公司 | 用于视频编码和解码的装置、方法、以及计算机程序 |
CN107925772B (zh) | 2015-09-25 | 2020-04-14 | 华为技术有限公司 | 利用可选插值滤波器进行视频运动补偿的装置和方法 |
US20180332292A1 (en) | 2015-11-18 | 2018-11-15 | Mediatek Inc. | Method and apparatus for intra prediction mode using intra prediction filter in video and image compression |
US10432947B2 (en) | 2015-11-24 | 2019-10-01 | Samsung Electronics Co., Ltd. | Method and apparatus for decoding video, and method and apparatus for coding video |
US20190028731A1 (en) | 2016-01-07 | 2019-01-24 | Mediatek Inc. | Method and apparatus for affine inter prediction for video coding system |
WO2017134957A1 (ja) * | 2016-02-03 | 2017-08-10 | シャープ株式会社 | 動画像復号装置、動画像符号化装置、および予測画像生成装置 |
MY201069A (en) | 2016-02-05 | 2024-02-01 | Hfi Innovation Inc | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
US11563938B2 (en) | 2016-02-15 | 2023-01-24 | Qualcomm Incorporated | Geometric transforms for filters for video coding |
US11095898B2 (en) | 2016-03-28 | 2021-08-17 | Lg Electronics Inc. | Inter-prediction mode based image processing method, and apparatus therefor |
US10750172B2 (en) | 2016-04-22 | 2020-08-18 | Vid Scale, Inc. | Prediction systems and methods for video coding based on filtering nearest neighboring pixels |
KR20190015216A (ko) | 2016-05-05 | 2019-02-13 | 브이아이디 스케일, 인크. | 인트라 코딩을 위한 제어 포인트 기반의 인트라 방향 표현 |
BR112018073434A2 (pt) | 2016-05-13 | 2019-03-26 | Interdigital Vc Holdings, Inc. | método e aparelho para codificação de vídeo com corte adaptativo |
JP2019519148A (ja) | 2016-05-13 | 2019-07-04 | ヴィド スケール インコーポレイテッド | ビデオ符号化のための一般化された多重仮説予測(Generalized Multi−Hypothesis Prediction)のためのシステムおよび方法 |
US10560712B2 (en) | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
US11095922B2 (en) | 2016-08-02 | 2021-08-17 | Qualcomm Incorporated | Geometry transformation-based adaptive loop filtering |
WO2018048265A1 (ko) * | 2016-09-11 | 2018-03-15 | 엘지전자 주식회사 | 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치 |
WO2018061563A1 (ja) | 2016-09-27 | 2018-04-05 | シャープ株式会社 | アフィン動きベクトル導出装置、予測画像生成装置、動画像復号装置、および動画像符号化装置 |
US10631002B2 (en) | 2016-09-30 | 2020-04-21 | Qualcomm Incorporated | Frame rate up-conversion coding mode |
US10341659B2 (en) | 2016-10-05 | 2019-07-02 | Qualcomm Incorporated | Systems and methods of switching interpolation filters |
US10448010B2 (en) | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
WO2018105579A1 (ja) | 2016-12-09 | 2018-06-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
KR102581456B1 (ko) | 2017-01-04 | 2023-09-21 | 삼성전자주식회사 | 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치 |
US20180199057A1 (en) * | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701366B2 (en) * | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10701390B2 (en) | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
EP3586513A4 (en) * | 2017-03-16 | 2020-12-09 | MediaTek Inc | METHOD AND APPARATUS FOR REFINING MOTION BASED ON A BIDIRECTIONAL OPTICAL FLOW FOR VIDEO CODING |
US10491917B2 (en) | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
CN116708831A (zh) * | 2017-04-24 | 2023-09-05 | Sk电信有限公司 | 编解码视频数据的方法、发送编码视频数据比特流的方法 |
US10805630B2 (en) * | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
JP6765520B2 (ja) | 2017-05-19 | 2020-10-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 符号化装置、復号装置、符号化方法及び復号方法 |
CN107277316B (zh) | 2017-06-12 | 2020-05-12 | 京东方科技集团股份有限公司 | 显示装置及其制造方法 |
US10904565B2 (en) | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
US10477237B2 (en) | 2017-06-28 | 2019-11-12 | Futurewei Technologies, Inc. | Decoder side motion vector refinement in video coding |
EP3649780A1 (en) | 2017-07-03 | 2020-05-13 | Vid Scale, Inc. | Motion-compensation prediction based on bi-directional optical flow |
US10757442B2 (en) | 2017-07-05 | 2020-08-25 | Qualcomm Incorporated | Partial reconstruction based template matching for motion vector derivation |
WO2019040075A1 (en) | 2017-08-24 | 2019-02-28 | Ford Global Technologies, Llc | ENHANCED FUEL SUPPLYING OF VEHICLE |
US10609384B2 (en) | 2017-09-21 | 2020-03-31 | Futurewei Technologies, Inc. | Restriction on sub-block size derivation for affine inter prediction |
MX2020003656A (es) | 2017-10-02 | 2020-10-12 | Arris Entpr Llc | Sistema y método para reducir artefactos de bloque y proporcionar eficiencia de codificación mejorada. |
US10757417B2 (en) | 2018-01-20 | 2020-08-25 | Qualcomm Incorporated | Affine motion compensation in video coding |
JP7104186B2 (ja) | 2018-06-05 | 2022-07-20 | 北京字節跳動網絡技術有限公司 | Ibcとatmvpとの間でのインタラクション |
US11303923B2 (en) | 2018-06-15 | 2022-04-12 | Intel Corporation | Affine motion compensation for current picture referencing |
WO2019244051A1 (en) | 2018-06-19 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Selected mvd precision without mvp truncation |
TWI752341B (zh) | 2018-08-04 | 2022-01-11 | 大陸商北京字節跳動網絡技術有限公司 | 不同解碼器側運動矢量推導模式之間的交互 |
EP4325859A3 (en) | 2018-09-19 | 2024-05-15 | Beijing Bytedance Network Technology Co., Ltd. | Syntax reuse for affine mode with adaptive motion vector resolution |
TWI815974B (zh) | 2018-09-23 | 2023-09-21 | 大陸商北京字節跳動網絡技術有限公司 | 具有自適應運動矢量分辨率的運動矢量的修改 |
CN111010569B (zh) | 2018-10-06 | 2023-02-28 | 北京字节跳动网络技术有限公司 | Bio中的时间梯度计算的改善 |
WO2020084512A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Affine motion information derivation from neighboring block |
WO2020093999A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Inter prediction with refinement in video processing |
WO2020103872A1 (en) | 2018-11-20 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Prediction refinement for combined inter intra prediction mode |
KR20240011246A (ko) | 2018-11-26 | 2024-01-25 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 타일 독립성 제약을 이용하는 인터 예측 개념 |
GB2580173B (en) | 2018-12-21 | 2022-07-27 | Canon Kk | A filter |
CN113491114A (zh) | 2019-02-20 | 2021-10-08 | 北京达佳互联信息技术有限公司 | 用于帧间预测的运动向量舍入、截取和存储的方法和装置 |
US20200296405A1 (en) | 2019-03-14 | 2020-09-17 | Qualcomm Incorporated | Affine motion compensation refinement using optical flow |
KR20220112864A (ko) | 2019-03-15 | 2022-08-11 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 양방향 광 흐름을 위한 비트-폭 제어를 위한 방법 및 디바이스 |
AU2020240048B2 (en) | 2019-03-18 | 2022-12-22 | Tencent America LLC | Method and apparatus for video coding |
US11343525B2 (en) | 2019-03-19 | 2022-05-24 | Tencent America LLC | Method and apparatus for video coding by constraining sub-block motion vectors and determining adjustment values based on constrained sub-block motion vectors |
US11962796B2 (en) | 2019-04-01 | 2024-04-16 | Qualcomm Incorporated | Gradient-based prediction refinement for video coding |
JP7239732B2 (ja) | 2019-04-02 | 2023-03-14 | 北京字節跳動網絡技術有限公司 | 双方向オプティカルフローに基づく映像符号化及び復号化 |
EP4304178A3 (en) | 2019-04-19 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Gradient calculation in different motion vector refinements |
WO2020211866A1 (en) | 2019-04-19 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Applicability of prediction refinement with optical flow process |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
US20210092390A1 (en) | 2019-09-23 | 2021-03-25 | Alibaba Group Holding Limited | Methods and apparatuses for prediction refinement with optical flow in reference picture resampling |
-
2020
- 2020-04-20 EP EP23211999.0A patent/EP4304178A3/en active Pending
- 2020-04-20 EP EP20790449.1A patent/EP3922015A4/en active Pending
- 2020-04-20 CN CN202080029809.0A patent/CN113728626B/zh active Active
- 2020-04-20 WO PCT/CN2020/085662 patent/WO2020211865A1/en unknown
- 2020-04-20 JP JP2021560232A patent/JP7319386B2/ja active Active
- 2020-04-20 WO PCT/CN2020/085658 patent/WO2020211864A1/en active Application Filing
- 2020-04-20 CN CN202080029821.1A patent/CN113728630B/zh active Active
-
2021
- 2021-08-03 US US17/392,719 patent/US11356697B2/en active Active
- 2021-11-10 US US17/523,232 patent/US11924463B2/en active Active
-
2023
- 2023-07-19 JP JP2023117759A patent/JP2023145563A/ja active Pending
Non-Patent Citations (3)
Title |
---|
CHUN-CHI CHEN AND YUWEN HE: "BoG Report on CE2-related Contributions", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0776, JPN6022048715, 21 March 2019 (2019-03-21), ISSN: 0004926675 * |
JIANCONG (DANIEL) LUO AND YUWEN HE: "CE2-related: Prediction refinement with optical flow for affine mode", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0236-r5, JPN6022048713, 26 March 2019 (2019-03-26), ISSN: 0004926674 * |
XIAOYU XIU, ET AL.: "CE9-related: Improvements on bi-directional optical flow (BDOF)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0325_r2, JPN6022048714, 26 March 2019 (2019-03-26), ISSN: 0004926673 * |
Also Published As
Publication number | Publication date |
---|---|
EP4304178A2 (en) | 2024-01-10 |
US11356697B2 (en) | 2022-06-07 |
US11924463B2 (en) | 2024-03-05 |
WO2020211864A1 (en) | 2020-10-22 |
CN113728626B (zh) | 2023-05-30 |
CN113728626A (zh) | 2021-11-30 |
EP4304178A3 (en) | 2024-03-06 |
US20220070490A1 (en) | 2022-03-03 |
EP3922015A4 (en) | 2022-07-20 |
EP3922015A1 (en) | 2021-12-15 |
KR20210152470A (ko) | 2021-12-15 |
JP7319386B2 (ja) | 2023-08-01 |
CN113728630B (zh) | 2023-11-17 |
US20210368203A1 (en) | 2021-11-25 |
WO2020211865A1 (en) | 2020-10-22 |
CN113728630A (zh) | 2021-11-30 |
JP2023145563A (ja) | 2023-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7319386B2 (ja) | 異なる動きベクトル微調整における勾配計算 | |
WO2020211867A1 (en) | Delta motion vector in prediction refinement with optical flow process | |
CN113711608B (zh) | 利用光流的预测细化过程的适用性 | |
WO2020108650A1 (en) | Flag indication method in intra block copy mode | |
JP2022500909A (ja) | 適応動きベクトル解像度によるアフィンモードへの構文の使用 | |
WO2020031059A1 (en) | Constraints for usage of updated motion information | |
WO2020156516A1 (en) | Context for coding affine mode adaptive motion vector resolution | |
CN110662041B (zh) | 视频比特流处理的方法和装置,存储视频比特流的方法和非暂时性计算机可读记录介质 | |
CN110740321B (zh) | 基于更新的运动矢量的运动预测 | |
WO2020156517A1 (en) | Fast algorithms for symmetric motion vector difference coding mode | |
CN110662077B (zh) | 用于视频编解码的对称性双向预测模式 | |
CN114503596B (zh) | 运动矢量细化和其他编解码工具之间的相互作用 | |
WO2020156525A1 (en) | Multiple syntax elements for adaptive motion vector resolution | |
WO2020192747A1 (en) | Motion information precision alignment in affine advanced motion vector prediction | |
CN111010570B (zh) | 基于仿射运动信息的尺寸限制 | |
WO2020049512A1 (en) | Two-step inter prediction | |
KR102662024B1 (ko) | 상이한 모션 벡터 정제의 그레디언트 계산 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7319386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |