JP2021523604A - ビデオ符号化及び復号化の動き補償 - Google Patents
ビデオ符号化及び復号化の動き補償 Download PDFInfo
- Publication number
- JP2021523604A JP2021523604A JP2020561924A JP2020561924A JP2021523604A JP 2021523604 A JP2021523604 A JP 2021523604A JP 2020561924 A JP2020561924 A JP 2020561924A JP 2020561924 A JP2020561924 A JP 2020561924A JP 2021523604 A JP2021523604 A JP 2021523604A
- Authority
- JP
- Japan
- Prior art keywords
- model
- motion
- subblock
- video information
- compensation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 774
- 238000005286 illumination Methods 0.000 claims abstract description 214
- 238000000034 method Methods 0.000 claims abstract description 163
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 129
- 239000013598 vector Substances 0.000 claims description 424
- 230000008859 change Effects 0.000 claims description 75
- 238000012545 processing Methods 0.000 claims description 72
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 55
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 12
- 230000002123 temporal effect Effects 0.000 description 12
- 230000010354 integration Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000009795 derivation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000013139 quantization Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011430 maximum method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000723655 Cowpea mosaic virus Species 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
[1] 本開示はビデオ符号化及び復号化を含む。
[2] 高圧縮効率を達成するために、HEVC(高効率ビデオ符号化)規格により定義される等の画像及びビデオ符号化方式は通常、予測及び変換符号化を採用して、ビデオコンテンツにおける空間的及び時間的冗長性を利用する。一般に、フレーム内又はフレーム間相関の利用にイントラ予測又はインター予測が使用され、予測誤差又は予測残差と記される元のブロックと予測ブロックとの間の差分は多くの場合、変換、量子化、及びエントロピー符号化される。ビデオを再構築するために、圧縮されたデータは、予測、変換、量子化、及びエントロピー符号化に対応する反転プロセスにより復号化される。ビデオ圧縮技術への近年の追加は、ジョイントビデオ探索チーム(JVET:Joint Video Exploration Team)により開発されているジョイント探索モデル(JEM:Joint Exploration Model)のリファレンスソフトウェア及び/又はドキュメンテーションの種々のバージョンを含む。JEM等の努力目的は、HEVC等の既存の規格に対して更なる改善を行うことである。
[3] 一般に、方法又は例えば、1つ又は複数のプロセッサを含む装置の実施形態の例は、アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、局所照明補償モデルを取得することと、動き補償情報及び局所照明補償モデルに基づいてビデオ情報を符号化することとを含むことができ、局所照明補償モデルを取得することは、動き補償情報に含まれる複数の動きベクトルに基づいて、ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、複数の動きベクトルは、サブブロックの第1行目に含まれる各サブブロック及びサブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、少なくとも1つのモデルパラメータを決定することは、動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、1組の再構築されたサンプルに基づいて局所歪みを評価することとを含む。
第1の動きベクトルには、符号化単位の左上隅に配置された複数のサブブロックのうちの第1のサブブロックが関連付けられ、少なくとも1つのモデルパラメータを決定することは、第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、1組の再構築されたサンプルに基づいて局所歪みを評価することとを含む。
[17] 本開示は、添付図と共に以下の詳細な説明を考慮することにより、よりよく理解し得る。
[47] ジョイントビデオ探索チーム(JVET)により開発されているジョイント探索モデル(JEM)に関連付けられる等のビデオ圧縮技術を進化させる近年の努力は、高度な特徴及びツールを提供する。例えば、そのような開発努力は、時間的予測を改善する追加の動きモデルへのサポート提供を含む。そのような1つの動きモデルは、より詳細に後述するアフィン動きモデルである。ブロックベースの局所照明補償(LIC)等のツールへのサポートも提供される。LICツールは、LICモデルを適用して、動き補償予測に使用される予測ブロックと対応する基準ブロックとの間で生じ得る照明の変動を予測することを含む。本明細書に記載される種々の態様及び実施形態は、例えば、アフィン動きモデル及びLICツール等の動きモデル及びツールを含む。
−アフィンAMVP(AF_AMVP)
8×8よりも大きいサイズのAMVPモードにおけるCUは、アフィンAMVPモードで予測することができる。これは、ビットストリーム内のフラグを通してシグナリングされる。そのインターCUのアフィン動き場の生成は、制御ポイント動きベクトル(CPMV)を決定することを含み、CPMVは、動きベクトル差分と制御ポイント動きベクトル予測(CPMVP)との合算を通してデコーダにより得られる。CPMVPは、アフィンAMVP CUの動きベクトル予測プロセスの例を示す図7に示されるように、リスト(A,B,C)及び(D,E)からそれぞれとられた一対の動きベクトル候補である。
−アフィン統合
アフィン統合モードでは、CUレベルフラグが、統合CUがアフィン動き補償を利用するか否かを示す。利用する場合、アフィン統合モードにおける動きベクトル予測候補を示す図8に示されるように、アフィンモードで符号化された最初の利用可能な近傍CUが、候補位置(A,B,C,D,E)の順序付き集合の中から選択される。
・アフィン動き予測を使用してインターモード符号化されたCUのLICフラグを決定することを含む。アフィンAMVPの場合、LICツールにわたる反復ループを適用して、LICフラグを決定することができ、LICフラグはビットストリームにシグナリングされる。他の場合、アフィン統合では、LICフラグは近傍ブロックに基づいて取得することができ、例えば、統合モードにおける動き情報コピーと同様にして、近傍ブロックに関連付けられたアフィン制御ポイントから導出することができる。[エンコーダ/デコーダ]
・LICフラグが真であるとの判断に基づいて、対応するLICパラメータの導出を提供することを含む。1つ又は複数の特徴が関わることができる。例えば、最初のサブブロック若しくは任意の他のサブブロック(例えば、中央サブブロック)の1つの動きベクトルを使用し、又は第1行目/第1列目におけるサブブロックの複数の動きベクトル、例えば、第1行目/第1列目のサブブロックに関連付けられた全ての動きベクトル又は第1行目及び/又は第1列目の全ての動きベクトルのサブセットに関連付けられた動きベクトルを考慮に入れる。別の例として、CU全体に一意の対のLICパラメータを生成する。別の例として、複数の対のLICパラメータを導出する。[エンコーダ/デコーダ]
を行うように構成され、符号化単位に含まれる複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、動き補償情報は、サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、局所照明補償モデルを取得するために、1つ又は複数のプロセッサは、第1の組の動きベクトルの第1のサブセット又は第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、少なくとも1つのモデルパラメータを決定するために、1つ又は複数のプロセッサは、第1の組の動きベクトルの第1のサブセット又は第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、1組の再構築されたサンプルに基づいて局所歪みを評価することと、を行うように更に構成される。
を行うように構成され、局所照明補償モデルを取得するために、1つ又は複数のプロセッサは、動き補償情報に含まれる第1の動きベクトルに基づいて、ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、第1の動きベクトルには、符号化単位の中心が関連付けられ、少なくとも1つのモデルパラメータを決定するために、1つ又は複数のプロセッサは、第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、1組の再構築されたサンプルに基づいて局所歪みを評価することと、を行うように更に構成される。
を含むことができ、ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、動き補償情報は、サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、局所照明補償モデルを取得することは、第1の組の動きベクトルの第1のサブセット又は第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、少なくとも1つのモデルパラメータを決定することは、第1の組の動きベクトルの第1のサブセット又は第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、1組の再構築されたサンプルに基づいて局所歪みを評価することとを含む。
・アフィン動き予測を使用してインターモード符号化CUのLICフラグを決定することであって、アフィンAMVPの場合、LICツールにわたる反復ループを提供して、LICフラグを決定することができ、LICフラグはビットストリームにシグナリングすることができ、他の場合、アフィン統合では、統合モードでの動き情報コピーと同様にして、LICフラグは近傍ブロックからコピーすることができ、例えば、近傍ブロックに関連付けられた少なくとも1つのアフィン制御ポイントに基づいてLICフラグを決定する、決定すること
を含む。[エンコーダ/デコーダ]
・LICフラグが真であるとの判断に基づいて、対応するLICパラメータを導出するルールを作成し、通常、幾つかの態様、例えば、第1のサブブロックの1つの動きベクトルの使用又は第1行目/列中のサブブロックの複数の動きベクトルの考慮が含まれ、別の例として、CU全体にLICパラメータの一意の対が生成され、別の例として、LICパラメータの複数の対が導出される、作成すること
を含む。[エンコーダ/デコーダ]
Claims (43)
- 方法であって、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる複数の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得することは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記ビデオ情報は、複数のサブブロックを有する符号化単位を含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記複数の動きベクトルの少なくとも1つに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得することは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには、前記符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記動き補償情報に含まれる複数の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記ビデオ情報は、複数のサブブロックを有する符号化単位を含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、前記第1の動きベクトルには符号化単位の中心が関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記複数の動きベクトルの少なくとも1つに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいてビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記ビデオ情報を符号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記第1の動きベクトルには、前記符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 方法であって、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる複数の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得することは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記ビデオ情報は、複数のサブブロックを有する符号化単位を含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには前記符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記複数の動きベクトルの少なくとも1つに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得することは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 方法であって、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を含み、
前記局所照明補償モデルを取得することは、前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定することを含み、
前記第1の動きベクトルには、前記符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定することは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を含む方法。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記動き補償情報に含まれる複数の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、
前記ビデオ情報は、サブブロックの第1行目及びサブブロックの第1列目を含む複数のサブブロックを有する符号化単位を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記ビデオ情報は、複数のサブブロックを有する符号化単位を含み、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
アフィン動きモデルに基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、前記第1の動きベクトルには符号化単位の中心が関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記複数の動きベクトルの少なくとも1つに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記複数の動きベクトルは、前記サブブロックの第1行目に含まれる各サブブロック及び前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた動きベクトルの群を含み、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記動きベクトルの群に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、
前記符号化単位に含まれる前記複数のサブブロックは、サブブロックの第1行目及びサブブロックの第1列目を含み、
前記動き補償情報は、前記サブブロックの第1行目に含まれる各サブブロックのそれぞれ1つに関連付けられた第1の組の動きベクトルと、前記サブブロックの第1列目に含まれる各サブブロックのそれぞれ1つに関連付けられた第2の組の動きベクトルとを含み、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、前記第1の組の動きベクトルの第1のサブセット又は前記第2の組の動きベクトルの第2のサブセットの1つ又は複数に基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の組の動きベクトルの前記第1のサブセット又は前記第2の組の動きベクトルの前記第2のサブセットの前記1つ又は複数に基づいて疑似L字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、
前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記第1の動きベクトルには、前記符号化単位の左上隅に配置された前記複数のサブブロックのうちの第1のサブブロックが関連付けられ、前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 装置であって、
1つ又は複数のプロセッサ
を備え、前記1つ又は複数のプロセッサは、
複数のサブブロックを含む符号化単位に基づいて符号化ビデオ情報を処理して、前記複数のサブブロックのそれぞれ1つに関連付けられた複数の動きベクトルを含む動き補償情報を生成することと、
局所照明補償モデルを取得することと、
前記動き補償情報及び前記局所照明補償モデルに基づいて前記符号化ビデオ情報を復号化することと、
を行うように構成され、前記局所照明補償モデルを取得するために、前記1つ又は複数のプロセッサは、
前記動き補償情報に含まれる第1の動きベクトルに基づいて、前記ビデオ情報における照明変化の線形モデルの少なくとも1つのモデルパラメータを決定するように更に構成され、
前記第1の動きベクトルには、前記符号化単位の中心が関連付けられ、
前記少なくとも1つのモデルパラメータを決定するために、前記1つ又は複数のプロセッサは、
前記第1の動きベクトルに基づいてL字形を形成する1組の再構築されたサンプルを取得することと、
前記1組の再構築されたサンプルに基づいて局所歪みを評価することと、
を行うように更に構成される装置。 - 請求項2、6、18、及び22の何れか1項に記載の方法、又は請求項10、14、26、及び30の何れか1項に記載の装置であって、前記動きベクトルの第1のサブセットは、前記サブブロックの第1行目の中間位置に配置された前記複数のサブブロックのうちの第1のサブブロックに対応する第1の動きベクトルを含み、前記動きベクトルの第2のサブセットは、前記サブブロックの第1列目の中間位置に配置された前記複数のサブブロックのうちの第2のサブブロックに対応する第2の動きベクトルを含む方法又は装置。
- 請求項1〜8若しくは17〜24の何れか1項に記載の方法、又は請求項9〜16若しくは25〜32の何れか1項に記載の装置であって、現在の符号化単位の前記複数のサブブロックは、サブブロックの複数の群に分割され、前記少なくとも1つのモデルパラメータは、前記サブブロックの複数の群のそれぞれで決定され、前記局所照明補償モデルに基づいて符号化又は復号化することは、各群に決定された前記少なくとも1つのモデルパラメータのそれぞれを使用してサブブロックの各群に関連付けられたビデオ情報を処理することを含む方法又は装置。
- 請求項34に記載の方法又は装置であって、サブブロックの各群におけるサブブロックの第1の数及び符号化単位のために形成される群の第2の数の少なくとも一方は、前記符号化単位のサイズに基づいて選択される方法又は装置。
- 請求項1〜16の何れか1項に記載のビデオ情報を符号化する方法又は装置であって、
前記局所照明補償モデルの適用に関連付けられたレート歪みメトリックを特定することと、
前記レート歪みメトリックに基づく値を有する前記符号化ビデオ情報内のシンタックス要素を提供することと、
を更に含む方法又は装置。 - 請求項1〜4、9〜12、17〜20、又は25〜28の何れか1項に記載のビデオ情報を符号化する方法又は装置であって、前記アフィン動きモデルは、近傍ブロックに関連付けられた少なくとも1つのアフィン制御ポイントに基づいて局所照明補償フラグを特定することを含むアフィン統合動きモデルを含む方法又は装置。
- 請求項1〜37の何れか1項に記載の方法又は装置であって、前記線形モデルの前記少なくとも1つのモデルパラメータは、スケーリング係数及びオフセットに対応する一対の第1及び第2のモデルパラメータを含む方法及び装置。
- 1つ又は複数のプロセッサにより実行されると、請求項1〜8、17〜24、及び33〜38の何れか1項に記載の方法を実行する計算命令を含むコンピュータプログラム製品。
- 請求項1〜8、17〜24、及び33〜38の何れか1項に記載の方法を実行する命令をコンピュータに実行させる実行可能プログラム命令を記憶した非一時的コンピュータ可読媒体。
- 請求項1〜8、17〜24、及び33〜38の何れか1項に記載の方法により生成された符号化ビデオ情報を含むようにフォーマットされたビットストリーム。
- 請求項41に記載のビットストリームであって、前記符号化ビデオ情報は、
前記局所照明補償モデル及びアフィン動きモデルに基づいて前記ビデオ情報の符号化を示すインジケータと、
前記局所照明補償モデル及び前記アフィン動きモデルに基づいて符号化されたピクチャ情報と、
を含むビットストリーム。 - デバイスであって、
請求項9〜16及び25〜32の何れか1項に記載の装置と、
(i)信号を受信するように構成されたアンテナであって、前記信号はビデオ情報を表すデータを含む、アンテナ、(ii)前記ビデオ情報を表す前記データを含む周波数帯域に前記受信信号を制限するように構成された帯域リミッタ、及び(iii)前記ビデオ情報からの画像を表示するように構成されたディスプレイの少なくとも1つと、
を備えるデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305568 | 2018-05-09 | ||
EP18305568.0 | 2018-05-09 | ||
PCT/US2019/031068 WO2019217383A1 (en) | 2018-05-09 | 2019-05-07 | Motion compensation for video encoding and decoding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021523604A true JP2021523604A (ja) | 2021-09-02 |
JPWO2019217383A5 JPWO2019217383A5 (ja) | 2022-05-13 |
Family
ID=66589929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561924A Pending JP2021523604A (ja) | 2018-05-09 | 2019-05-07 | ビデオ符号化及び復号化の動き補償 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11902560B2 (ja) |
EP (1) | EP3791578A1 (ja) |
JP (1) | JP2021523604A (ja) |
CN (1) | CN112385211A (ja) |
MX (1) | MX2020011906A (ja) |
WO (1) | WO2019217383A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020084509A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Harmonized local illumination compensation and modified inter coding tools |
WO2020084507A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Harmonized local illumination compensation and modified inter prediction coding |
US11563975B2 (en) * | 2018-12-26 | 2023-01-24 | Interdigital Madison Patent Holdings, Sas | Motion compensation boundary filtering |
CN113302918A (zh) | 2019-01-15 | 2021-08-24 | 北京字节跳动网络技术有限公司 | 视频编解码中的加权预测 |
CN113302919A (zh) | 2019-01-17 | 2021-08-24 | 北京字节跳动网络技术有限公司 | 在视频处理中使用虚拟候选预测和加权预测 |
US11632563B2 (en) * | 2019-02-22 | 2023-04-18 | Qualcomm Incorporated | Motion vector derivation in video coding |
CN111698515B (zh) * | 2019-03-14 | 2023-02-14 | 华为技术有限公司 | 帧间预测的方法及相关装置 |
CN111031319B (zh) * | 2019-12-13 | 2022-04-19 | 浙江大华技术股份有限公司 | 一种局部光照补偿预测方法、终端设备及计算机存储介质 |
WO2023055151A1 (ko) * | 2021-09-29 | 2023-04-06 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3629581A1 (en) | 2015-10-13 | 2020-04-01 | Samsung Electronics Co., Ltd. | Method and device for encoding or decoding image |
WO2017147765A1 (en) * | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Methods for affine motion compensation |
US10631002B2 (en) | 2016-09-30 | 2020-04-21 | Qualcomm Incorporated | Frame rate up-conversion coding mode |
US10798404B2 (en) * | 2016-10-05 | 2020-10-06 | Qualcomm Incorporated | Systems and methods of performing improved local illumination compensation |
CN109804630A (zh) * | 2016-10-10 | 2019-05-24 | 夏普株式会社 | 对视频数据编码执行运动补偿的系统以及方法 |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
CN107147911B (zh) | 2017-07-05 | 2019-07-26 | 中南大学 | 基于局部亮度补偿lic的快速帧间编码模式选择方法及装置 |
EP3709640A4 (en) * | 2017-11-09 | 2021-08-25 | Samsung Electronics Co., Ltd. | DEVICE AND METHOD FOR ENCODING IMAGES ON THE BASIS OF MOTION VECTOR RESOLUTION, AND DECODING DEVICE AND METHOD |
US11388398B2 (en) * | 2018-01-11 | 2022-07-12 | Qualcomm Incorporated | Video coding using local illumination compensation |
-
2019
- 2019-05-07 CN CN201980043676.XA patent/CN112385211A/zh active Pending
- 2019-05-07 US US17/051,825 patent/US11902560B2/en active Active
- 2019-05-07 EP EP19725017.8A patent/EP3791578A1/en active Pending
- 2019-05-07 MX MX2020011906A patent/MX2020011906A/es unknown
- 2019-05-07 JP JP2020561924A patent/JP2021523604A/ja active Pending
- 2019-05-07 WO PCT/US2019/031068 patent/WO2019217383A1/en unknown
-
2023
- 2023-12-13 US US18/538,846 patent/US20240121423A1/en active Pending
Non-Patent Citations (3)
Title |
---|
CHEN, HUANBANG ET AL.: "CE1-related: Combination of LIC and affine", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 14TH MEETING: GENE, vol. JVET-N0171 (version 1), JPN6023024181, 13 March 2019 (2019-03-13), ISSN: 0005081013 * |
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001 (version 1), JPN6023024182, 19 August 2017 (2017-08-19), ISSN: 0005081011 * |
TOMA, TADAMASA ET AL.: "Description of SDR video coding technology proposal by Panasonic", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 10TH MEETING: SAN, vol. JVET-J0020 (version 1), JPN6023024180, 2 April 2018 (2018-04-02), ISSN: 0005081012 * |
Also Published As
Publication number | Publication date |
---|---|
US11902560B2 (en) | 2024-02-13 |
US20240121423A1 (en) | 2024-04-11 |
WO2019217383A1 (en) | 2019-11-14 |
CN112385211A (zh) | 2021-02-19 |
EP3791578A1 (en) | 2021-03-17 |
US20210243465A1 (en) | 2021-08-05 |
MX2020011906A (es) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2770185C2 (ru) | Множество кандидатов предсказателя для компенсации движения | |
JP2021523604A (ja) | ビデオ符号化及び復号化の動き補償 | |
TWI688262B (zh) | 用於視訊寫碼之重疊運動補償 | |
JP7259009B2 (ja) | インター予測方法および装置 | |
JP2019519998A (ja) | 自動的な動き情報の精緻化を伴うビデオコード化のための方法及び機器 | |
US20220159277A1 (en) | Method and apparatus for video encoding and decoding with subblock based local illumination compensation | |
CN111418209A (zh) | 用于视频编码和视频解码的方法和装置 | |
WO2019114721A1 (zh) | 视频数据的帧间预测方法和装置 | |
US20220038711A1 (en) | Local illumination compensation for video encoding and decoding using stored parameters | |
CN111194553A (zh) | 用于视频编码和解码中的自适应照明补偿的方法和装置 | |
CN113170210A (zh) | 视频编码和解码中的仿射模式信令 | |
JP7448558B2 (ja) | 画像エンコーディングおよびデコーディングのための方法およびデバイス | |
JP2022521893A (ja) | ビデオの符号化および復号における動きベクトルの導出 | |
JP2024505900A (ja) | 空間局所照明補償 | |
CN112806011A (zh) | 改进的虚拟时间仿射候选 | |
AU2019276881B2 (en) | Data dependency in coding/decoding | |
CN114128271A (zh) | 用于视频编码和解码的照明补偿 | |
US20230283787A1 (en) | Local illumination compensation for video encoding and decoding using stored parameters | |
US20230300341A1 (en) | Predictive video coding employing virtual reference frames generated by direct mv projection (dmvp) | |
CN110677645B (zh) | 一种图像预测方法及装置 | |
JP2024510433A (ja) | ビデオ圧縮のための時間的構造ベースの条件付き畳み込みニューラルネットワーク | |
WO2020260110A1 (en) | Hmvc for affine and sbtmvp motion vector prediciton modes | |
KR20220052991A (ko) | 스위칭가능한 보간 필터들 | |
CN118020302A (zh) | 视频编解码中针对仿射合并模式的候选导出 | |
CN111480340A (zh) | 用于运动补偿的改进的预测器候选 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240308 |