JP2022522398A - ビデオ復号化の方法並びにその、装置及びコンピュータプログラム - Google Patents
ビデオ復号化の方法並びにその、装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022522398A JP2022522398A JP2021540493A JP2021540493A JP2022522398A JP 2022522398 A JP2022522398 A JP 2022522398A JP 2021540493 A JP2021540493 A JP 2021540493A JP 2021540493 A JP2021540493 A JP 2021540493A JP 2022522398 A JP2022522398 A JP 2022522398A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- prediction
- block
- subblock
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 123
- 238000004590 computer program Methods 0.000 title claims 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 111
- 238000012545 processing Methods 0.000 abstract description 27
- 230000033001 locomotion Effects 0.000 description 170
- 239000000523 sample Substances 0.000 description 118
- 239000013598 vector Substances 0.000 description 88
- 230000008569 process Effects 0.000 description 63
- 230000006835 compression Effects 0.000 description 25
- 238000007906 compression Methods 0.000 description 25
- 230000002123 temporal effect Effects 0.000 description 24
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000005192 partition Methods 0.000 description 19
- 239000000872 buffer Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 241000723655 Cowpea mosaic virus Species 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 238000002156 mixing Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013403 standard screening design Methods 0.000 description 2
- 241000342334 Human metapneumovirus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
図2は、本開示の一実施形態による通信システム(200)の簡略化されたブロック図を示す。通信システム(200)は、例えば、ネットワーク(250)を介して互いに通信することができる複数の端末装置を含む。例えば、通信システム(200)は、ネットワーク(250)を介して相互接続された第1の対の端末装置(210)、(220)を含む。図2の例では、第1の対の端末装置(210)、(220)は、データの単方向送信を実行する。例えば、端末装置(210)は、ネットワーク(250)を介して他の端末装置(220)に送信するために、ビデオデータ(例えば、端末装置(210)によって取り込まれたビデオピクチャのストリーム)を符号化してよい。符号化されたビデオデータは、一つ以上の符号化されたビデオビットストリームの形で送信してよい。端末装置(220)は、ネットワーク(250)から符号化されたビデオデータを受信し、符号化されたビデオデータを復号化してビデオピクチャを復元し、復元されたビデオデータに基づいてビデオピクチャを表示してよい。単方向データ送信は、メディアサービングアプリケーションなどにおいて一般的であってよい。
様々な実施形態において、インター予測されたCUの場合、動きベクトル、参照ピクチャインデックス、参照ピクチャリスト使用インデックス、及び、場合によっては、他の追加情報を含む動きパラメータは、インター予測されたサンプルの生成に使用され得る。動きパラメータは、明示的又は暗黙的な方式でシグナリングされ得る。CUがスキップモードで符号化された場合、CUは、1つのPUに関連付けられており、有意な残差係数、符号化された動きベクトルデルタ、又はCUに関連付けられた参照ピクチャインデックスを有しない。
―拡張されたマージ予測
―動きベクトル差のあるマージモード(MMVD)
―アフィン動き補償予測
―サブブロックベースの時間的動きベクトル予測(SbTMVP)
―三角パーティション予測
―インター予測とイントラ予測の組み合わせ(CIIP)
1.拡張されたマージ予測
いくつかの実施形態において、マージ候補リストは、順番に次の5種類の候補を含むことによって構築されている。
2)併置されたCUからの時間的動きベクトル予測器(TMVP)、
3)先入れ先出し(FIFO)テーブルからの履歴ベースの動きベクトル予測器(HMVP)、
4)ペアワイズ平均動きベクトル予測器(MVP)、
5)ゼロMV。
空間マージ候補を導出するプロセスにおいて、最大4つのマージ候補は、図8におけるカレントブロック(810)に隣接した位置A1、B1、B0、A0、及びB2における候補の中から選択される。導出の順序は、A1、B1、B0、A0、及びB2である。(例えば、別のスライス又はタイルに属しているため)位置A1、B1、B0、A0における任意のCUは利用できないか、又は、イントラ符号化された場合、位置B2は考慮される。位置A1における候補が追加された後、残りの候補の追加は、同じ動き情報を持つ候補がリストから除外されることを確保する冗長検査の対象となる。その結果、符号化効率が向上する。計算の複雑さを軽減するために、前述の冗長検査において、すべての可能な候補ペアが考慮されるわけではない。代わりに、図9の矢印でリンクされたペアが考慮される。冗長検査に使用される対応した候補が同じ動き情報を有しない場合、候補がリストに追加される。
一実施形態においては、一つの時間的候補がリストに追加される。特に、カレントピクチャ(1001)におけるカレントブロック(1011)のための時間マージ候補の導出において、スケーリングされた動きベクトル(1031)は、図10に示すように、併置された参照ピクチャ(1002)に属する同一位置のCU(1012)に基づいて導出される。同一位置におけるCUの導出に使用される参照ピクチャリストは、スライスヘッダで明示的にシグナリングされる。時間マージ候補のスケーリングされた動きベクトル(1031)は、ピクチャオーダカウント(POC)距離Tb及びTdで、同一位置のCU(1012)の動きベクトル(1032)からスケーリングされる。Tbは、カレントピクチャ(1001)の現在の参照ピクチャ(1003)とカレントピクチャ(1001)とのPOC差として定義される。Tdは、同一位置のピクチャ(1002)の同一位置の参照ピクチャ(1004)と同一位置のピクチャ(1002)とのPOC差として定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しいように設定される。
いくつかの実施形態において、履歴ベースのMVP(HMVP)マージ候補は、SMVP及びTMVPの後にマージリストに追加される。この方法では、前に符号化されたブロックの動き情報が、テーブルに記憶され、現在のCUのMVPとして使用される。複数のHMVP候補を有したテーブルは、符号化/復号化の過程で維持される。新しいCTU行が検出されると、テーブルはリセット(空)される。非サブブロック間で符号化されたCUがあるたびに、関連した動き情報が、新しいHMVP候補としてテーブルの最後のエントリに追加される。
いくつかの実施形態において、ペアワイズ平均候補が、既存のマージ候補リスト内の予め定められた候補の対を平均化することによって生成される。例えば、予め定められたペアは、{(0、1)、(0、2)、(1、2)、(0、3)、(1、3)、(2、3)}と規定さる。ここで、これらの数字は、マージ候補リストへのマージインデックスを示す。平均化された動きベクトルは、参照リストごとに個別に計算される。両方の動きベクトルが1つのリストで使用できる場合、これらの2つの動きベクトルは、異なる参照ピクチャを指している場合でも平均化される。利用可能な動きベクトルが1つしかない場合は、その動きベクトルを直接使用する。利用可能な動きベクトルがない場合は、このリストを無効にする。
マージモードに加えて、暗黙的に導出された動き情報が直接、現在のCUの予測サンプル生成に使用される場合、MMVDが、いくつかの実施形態に使用される。MMVDフラグは、スキップフラグとマージフラグを送信した直後にシグナリングされて、MMVDモードがCUに使用されているか否かを判定する。
いくつかの例では、並進動きモデルが動き補償予測(MCP)に適用される。しかし、並進動きモデルは、他のタイプの動き(例えば、ズームイン/ズームアウト、回転、遠近法動き、及びその他の不規則な動き)のモデリングに適さない場合がある。いくつかの実施形態においては、ブロックベースのアフィン変換動き補償予測が適用される。図13Aにおいて、ブロックのアフィン動きフィールドは、4パラメータアフィンモデルが使用される場合、2つの制御点(CP)CP0およびCP1の2つの制御点動きベクトル(CPMV)であるCPMV0およびCPMV1によって記述される。図13Bにおいて、ブロックのアフィン動きフィールドは、6パラメータアフィンモデルが使用される場合、3つのCP(CP0、CP1、及びCP2)の3つのCPMV(CPMV0、CPMV1、及びCPMV2)によって記述される。
と、
が決定される。カレントブロック(1410)から分割された各4×4(サンプル)輝度サブブロック(1402)の動きベクトルを導出するために、各サブブロック(1402)の中心サンプルの動きベクトル(1401)は、上記の式(2.1)により算出され、1/16分数精度に丸められる。次に、動き補償補間フィルタが適用されて、導出された動きベクトル(1401)で各サブブロック(1402)の予測を生成する。彩度コンポーネントのサブブロックサイズは、4×4と設定される。4×4彩度サブブロックのMVは、4つの対応した4×4輝度サブブロックのMVの平均値として算出される。
いくつかの実施形態において、アフィンマージモードは、幅と高さの両方が8以上であるCUに適用され得る。現在のCUのアフィンマージ候補は、空間隣接のCUの動き情報に基づいて生成される。最大5つのアフィンマージ候補が存在することができ、インデックスがシグナリングされて現在のCUに使用されるものを示す。例えば、次の3種類のアフィンマージ候補は、アフィンマージ候補リストを形成するために使用される。
(ii)隣接CUの並進MVで導出される構築されたアフィンマージ候補、及び
(iii)ゼロMV。
が得られる。ブロックAが4パラメータアフィンモデルで符号化される場合、現在のCU(1510)の2つのCPMV
は、
と
いくつかの実施形態において、アフィンAMVPモードは、幅と高さの両方が16以上であるCUに適用され得る。CUレベルのアフィンフラグは、ビットストリームにおいてシグナリングされて、アフィンAMVPモードが使用されているか否かを示し、そして、もう1つのフラグは、シグナリングされて、4パラメータアフィン又は6パラメータアフィンが使用されているか否かを示す。現在のCUのCPMVとそれらの予測器の差は、ビットストリームにおいてシグナリングされる。アフィンAMVP候補リストサイズは2であり、且つ、順に以下の4種類のCPVMを使用することで生成され得る。
(ii)隣接のCUの並進MVで導出される構築されたアフィンAMVP候補、
(iii)隣接のCUからの並進MV、及び
(iv)ゼロMV。
4.サブブロックベースの時間的動きベクトル予測(SbTMVP)
図17Aは、一実施形態による、サブブロックベースの時間的MV予測(SbTMVP)法でカレントブロック(1711)の予測動き情報を決定するために用いられる空間隣接ブロックの模式図である。図17Aは、カレントブロック(1711)、及び、A0、A1、B0、及びB1で示されたその空間隣接ブロック(それぞれ1712、1713、1714、及び1715)を示す。いくつかの例では、空間隣接ブロックA0、A1、B0、及びB1とカレントブロック(1711)は同じピクチャに属している。
いくつかの実施形態において、三角予測モード(TPM)は、インター予測のために使用され得る。一実施形態において、TPMは、サイズが8×8サンプル以上であり、且つ、スキップモード又はマージモードで符号化されているCUに適用される。一実施形態において、これらの条件を満たす(サイズが8×8サンプル以上であり、且つ、スキップモード又はマージモードで符号化されている)CUの場合、CUレベルフラグをシグナリングして、TPMが適用されるか否かを示す。
いくつかの実施形態において、TPMで処理された符号化ブロックの2つの三角予測ユニットを予測するためのマージ候補リストは、符号化ブロックの空間及び時間隣接ブロックのセットに基づいて構築され得る。このようなマージ候補リストは、TPM候補が記入されているTPM候補リストと称され得る。一実施形態において、マージ候補リストは、ユニ予測候補リストである。一実施形態において、ユニ予測候補リストは、5つのユニ予測動きベクトル候補を含む。例えば、5つのユニ予測動きベクトル候補は、(図19の1~5でラベル付けされた)5つの空間隣接ブロック、および、(図19の6~7でラベル付けされた)2つの時間の同一位置のブロックとを含む7つの隣接のブロックから導出される。
一実施形態において、CUは、三角パーティションモードで符号化され、上述の三角パーティションモードは、5つのTPM候補を含むTPM(又はマージ)候補リストを有する。従って、5つのマージ候補が三角PUごとに使用される場合、CU予測の可能な方法は、40通りある。言い換えると、分割方向とマージ(又は、TPM)インデックスとの様々な組み合わせは、次式で算出される40通り存在し得る:2(可能な分割方向)×(5(第1の三角予測ユニットの可能なマージインデックス)×5(第2の三角予測ユニットの可能なマージインデックス)-5(第1の予測ユニットと第2の予測ユニットとのペアが同じマージインデックスを共有する場合の多くの可能性))。例えば、2つの三角予測ユニットに対して同じマージインデックスが決定された場合、三角予測モードの代わりに、通常のマージモードを使用してCUを処理することができる。
一実施形態において、それぞれの動き情報を使用して各三角予測ユニットを予測した後、ブレンディングプロセスは、2つの三角予測ユニットの2つの予測信号に適用されて、対角線又は反対角線エッジの周りにサンプルを導出する。ブレンディングプロセスは、2つの三角予測ユニット間の動きベクトル差によって、重み付き係数の2つのグループから適応的に選択する。一実施形態において、重み付き係数の2つのグループは次のとおりである:
(1)重み付き係数の第1のグループ:輝度コンポーネントのサンプルの場合は{7/8、6/8、4/8、2/8、1/8}、彩度コンポーネントのサンプルの場合は{7/8、4/8、1/8};及び
(2)重み付き係数の第2のグループ:輝度コンポーネントのサンプルの場合は{7/8、6/8、5/8、4/8、3/8、2/8、1/8}、彩度コンポーネントのサンプルの場合は{6/8、4/8、2/8}。
重み付き係数の第2のグループには、より多くの輝度重み付き係数があり、分割エッジに沿ってより多くの輝度サンプルをブレンドする。
ブレンディングされたサンプル値=2/8 × P1 + 6/8 × P2
ここで、P1とP2は、それぞれに、各画素におけるサンプル値を表すが、第1の三角予測ユニットと第2の三角予測ユニットの予測に属している。
いくつかの実施形態において、CUは、マージモードで符号化され、且つ、少なくとも64個の輝度サンプルを含む場合(つまり、CUの幅にCUの高さを乗ずると、64以上になる)、追加のフラグがシグナリングされて、インター/イントラ予測の組み合わせ(CIIP)モードが現在のCUに適用されるか否かを示す。
一実施形態において、最大限、dc、平面、水平、及び垂直を含む4つのイントラ予測モードを使用して、CIIPモードで輝度コンポーネントを予測することができる。CUの形状が非常に広い(つまり、幅が高さの2倍を超える)場合、水平モードは許可されない。CUの形状が非常に狭い(つまり、高さが幅の2倍を超える)場合、垂直モードは許可されない。これらの場合、3つのイントラ予測モードのみが許可される。
(i)左と上の隣接のブロックは、それぞれAとBに設定される;
(ii)それぞれintraModeAとintraModeBとして示されたブロックAとブロックBのイントラ予測モードは、次のように導出される。
b.次の場合、intraModeXはDCに設定される:1)ブロックXは利用できない;又は2)ブロックXはCIIPモード又はイントラモードで予測されていない;又は3)ブロックXは現在のCTUの外部にある;及び
c.他では、intraModeXは次のように設定される:1)ブロックXのイントラ予測モードがdc又は平面であると、dc又は平面と設定される;又は2)ブロックXのイントラ予測モードが「垂直に近い」角度モード(34超)であると、垂直と設定される;又は3)ブロックXのイントラ予測モードが「水平に近い」角度モード(34以下)であると、水平と設定される;
(iii)intraModeAとintraModeBは同じである場合:
a.intraModeAが平面又はdcであると、3つのMPMは{平面、dc、垂直}に、その順で設定される;
b.そうでなければ、3つのMPMは{intraModeA、平面、dc}に、その順で設定される;
(iv)他の場合(intraModeAとintraModeBは異なっている):
a.最初の2つのMPMは、{intraModeA、intraModeB}に、その順で設定される。
一実施形態において、CIIPモードのインター予測信号P_interは、通常のマージモードに適用される同じインター予測プロセスを使用することで導出され、イントラ予測信号P_intraは、通常のイントラ予測プロセスに基づいてCIIPイントラ予測モードを使用することで導出される。次に、加重平均化でイントラ予測信号とインター予測信号を結合する。ここで、重み値は、イントラ予測モードに依存し、サンプルは、次のように符号化ブロック内に位置する。
P_“CIIP”=((8-wt)*P_inter+wt*P_intra+4)≫3 (式2.3)
III.インターリーブしたアフィン予測
いくつかの実施形態において、インターリーブしたアフィン予測が使用される。例えば、図22に示すように、16×16サンプルのサイズを有するカレントブロック(2210)は、2つの異なった分裂パターン(パターン0(2220)およびパターン1(2230))でサブブロックに分裂される。パターン0(2220)の場合、カレントブロック(2210)は、同じサイズの4×4のサブブロック(2221)に分裂される。対照的に、パターン1(2230)は、パターン0(2220)に対して2×2オフセットだけ、カレントブロック(2210)の右下隅に向かってシフトする。パターン1(2230)の場合、カレントブロック(2210)は、それぞれ4×4のサイズを有する完全サブブロック(2231)と、それぞれ4×4よりも小さいサイズを有する部分サブブロック(2232)とに分割される。図22では、部分サブブロック(2232)は、完全サブブロック(2231)で形成された非網掛け領域を囲む網掛け領域を形成する。
いくつかの実施形態において、双予測ブロックおよびユニ予測ブロックのための加重サンプル予測が採用されている。
-現在の符号化ブロックの幅と高さを指定する2つの変数(nCbWとnCbH)
-それぞれ中間予測サンプル値を含む2つの(nCbW)×(nCbH)アレイpredSamplesL0とpredSamplesL1
-予測リスト使用率フラグpredFlagL0とpredFlagL1
-参照インデックスrefIdxL0とrefIdxL1
-双予測重みインデックスgbiIdx
-サンプルビット深度bitDepth
-変数shift1はMax(2,14-bitDepth)に等しいように設定され、変数shift2はMax(3,15-bitDepth)に等しいように設定される。
-変数offset1は1<<(shift1―1)に等しいように設定される。
-変数offset2は1<<(shift2―1)に等しいように設定される。
-変数offset3は1<<(shift2+2)に等しいように設定される。
(1)predFlagL0が1に等しく、predFlagL1が0に等しい場合、予測サンプル値は、次のように導出される。
pbSamples[x][y]=Clip3(0,(1<<bitDepth)―1,(predSamplesL0[x][y]+offset1)>>shift1) (式4.1)
(2)それ以外の場合、predFlagL0が0に等しく、predFlagL1が1に等しいと、予測サンプル値は、次のように導出される。
pbSamples[x][y]=Clip3(0,(1<<bitDepth)―1,(predSamplesL1[x][y]+offset1)>>shift1) (式4.2)
(3)それ以外の場合(predFlagL0が1に等しく、predFlagL1が1に等しい)、以下が適用される。
(i)gbiIdxが0に等しい場合、予測サンプル値は次のように導出される。
pbSamples[x][y]=Clip3(0,(1<<bitDepth)―1,(predSamplesL0[x][y]+predSamplesL1[x][y]+offset2)>>shift2) (式4.3)
(ii)それ以外の場合(gbiIdxが0に等しくない)、以下が適用される。
変数w1は、gbiWLut[k]={4,5,3,10,-2}であるgbiWLut[gbiIdX]に等しいように設定される。変数w0は、(8―w1)に等しいように設定される。予測サンプル値は、次のように導出される。
pbSamples[x][y]=Clip3(0,(1<<bitDepth)―1,(w0*predSamplesL0[x][y]+w1*predSamplesL1[x][y]+offset3)>>(shift2+3)) (式4.4)
1.低精度のインターリーブしたアフィン予測
図22の例では、2つの分裂パターン(2220)および(2230)に対応する2つの予測(2240)および(2250)を生成するために、アフィン動き補償(AMP)プロセスを実行する。例えば、アフィンモデルに基づいて、16個のサブブロック(2221)および9個のサブブロック(2231)に対応するMVを決定する。それらのMVは、サブ画素精度(例えば、1/2画素、1/4画素、1/8画素、又は1/16精度)を有することができる。従って、MVのサブ画素精度に対応して、補間プロセスを実行して、参照ピクチャ内に補間されたサンプルを生成する。補間されたサンプルを有する補間された参照ピクチャにわたり、サブブロック(2221)および(2231)のサブブロック予測を検索できる。
Pred=((Interp(P0)>>shift1)*w0)+(Interp(P1)>>shift1 * w1)+offset1)/(w0+w1) (式5.1)
ここで、Predは最終予測(2270)のサンプルの値を表し、Interp(P0)およびInter(P1)は、それぞれ、パターン(2220)又は(2230)に対応する高精度の補間されたサンプルの値を表し、w0およびw1は、それぞれの補間されたサンプルに関連付けられた重みを表し、offset1は、丸めオフセットを表す。
図24は、本開示の一実施形態による、インターリーブしたアフィン予測プロセス2400を示す。プロセス2400は、図22の例におけるプロセスと同様であるが、より高い精度の最終予測(2470)を生成できる。
Pred={((Interp(P0)*w0)+(Interp(P1)*w1)+offset2)/(w0+w1)}>>shift (式5.2)
この式の変形は次のとおりである。
Pred= ((Interp(P0)*w0)+(Interp(P1) w1)+offset3)/{(w0+w1)<<shift} (式5.3)
Clip(0,(1<<bitDepth)―1,Pred) (式5.4)
ここで、clip()は、クリッピング演算を表す。
一実施形態においては、インターリーブしたアフィン予測で符号化されたブロックに対して、デブロック化を無効にする。例えば、ブロック内のサンプルに対して、デブロック化は実行されない。一般に、アフィン符号化されたブロックに対して、デブロック化操作を実行して、サブブロックのエッジにおける不連続性を低減することができる。しかし、インターリーブしたアフィン予測は、加重平均演算のためにスムージング効果を有する。従って、デブロック化を無効にして、処理コストを節約することができる。
図26は、本開示の一実施形態による、プロセス(2600)の概要のフローチャートを示す。プロセス(2600)をインターリーブしたアフィン予測モードで符号化されたブロックの再構築に使用して、再構築中のブロックの予測ブロックを生成することができる。様々な実施形態において、プロセス(2600)は、処理回路(例えば、端末装置(210)、(220)、(230)、及び(240)内の処理回路、ビデオエンコーダ(303)の機能を実行する処理回路、ビデオデコーダ(310)の機能を実行する処理回路、ビデオデコーダ(410)の機能を実行する処理回路、ビデオエンコーダ(503)の機能を実行する処理回路、など)によって実行される。いくつかの実施形態において、プロセス(2600)は、ソフトウェア命令で実行されるため、処理回路がソフトウェア命令を実行する場合、処理回路はプロセス(2600)を実行する。プロセスは、ステップS2601で始まり、ステップS2610に進む。
上述した技術は、コンピュータソフトウェアとして実行でき、上記コンピュータソフトウェアは、コンピュータ可読命令を使用し、且つ、物理的に一つ以上のコンピュータ可読媒体に記憶される。例えば、図27は、開示された主題の特定の実施形態を実施するのに適したコンピュータシステム(2700)を示す。
ASIC:特定用途向け集積回路
BMS:ベンチマークセット
CANBuS:コントローラーエリアネットワークバス
CD:コンパクトディスク
CPU:中央処理装置
CRT:ブラウン管
CTB:ツリーブロックの符号化
CTU:ツリーユニットの符号化
CU:符号化ユニット
DVD:デジタルビデオディスク
FPGA:フィールドプログラマブルゲートアレイ
GOP:ピクチャのグループ
GPU:グラフィックスプロセッシングユニット
GSM:モバイル通信用のグローバルシステム
HEVC:高効率ビデオ符号化
HMVP:履歴ベースのMVP
HRD:仮想参照デコーダ
IC:集積回路
JEM:共同探索モデル
LAN:ローカルエリアネットワーク
LCD:液晶ディスプレイ
LTE:長期的な進化
MMVD:MVDとのマージ
MV:動きベクトル
MVD:動きベクトル差分
MVP:動きベクトル予測器
OLED:有機発光ダイオード
PB:予測ブロック
PCI:ペリフェラルコンポーネントインターコネクト
PLD:プログラマブルロジック装置
PU:予測ユニット
RAM:ランダムアクセスメモリ
ROM:読み取り専用メモリ
SEI:補足強化情報
SNR:信号雑音比
SSD:ソリッドステートドライブ
SbTMVP:サブブロックベースのTMVP
TU:変換ユニット
TMVP:時間的MVP
USB:ユニバーサルシリアルバス
VTM:バーサタイルテストモデル
VUI:ビデオユーザビリティ情報
VVC:バーサタイルビデオ符号化
Claims (20)
- ビデオデコーダが実行するビデオ復号化の方法であって、
インターリーブしたアフィンモードで符号化されたカレントブロックに対してアフィンモデルを決定するステップと、
前記アフィンモデルに基づいて、前記カレントブロックを第1のサブブロックに分割するための第1のパターンに対応する第1の予測ブロックと、前記カレントブロックを第2のサブブロックに分割するための第2のパターンに対応する第2の予測ブロックとを生成するステップであり、
前記第1及び第2の予測ブロックは、前記カレントブロックの入力ビット深度よりも大きい中間ビット深度を有する補間されたサンプルを含む、
ステップと、
前記第1及び第2の予測ブロックに基づいて第3の予測ブロックを生成するステップであり、
それぞれ前記中間ビット深度に対応する精度を有する、前記第1の予測ブロックにおける第1のサンプルおよび前記第2の予測ブロックにおける対応した第2のサンプルは、平均化されたサンプルを取得するように、加重平均演算を実行することによって結合され、前記平均化されたサンプルは前記入力ビット深度に丸められて、前記第3の予測ブロックにおける対応した第3のサンプルを取得する、ステップと、
を含む、方法。 - 前記加重平均演算は、前記第1のサンプル及び前記対応した第2のサンプルの加重和に丸めオフセットを追加すること、を含む、
請求項1に記載の方法。 - 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、完全サブブロックおよび部分サブブロックを含み、
前記第1及び第2のサンプルが、前記第2の予測ブロックの前記部分サブブロックに対応する領域内に位置する場合、前記加重平均演算において、前記第2のサンプルにゼロの重みが与えられる、
請求項1に記載の方法。 - 前記第1及び第2のサンプルが、前記第2の予測ブロックの前記完全サブブロックに対応する領域内に位置する場合、前記加重平均演算において、前記第1及び第2のサンプルに同等の重みが与えられる、
請求項3に記載の方法。 - 前記第3のサンプルは、0から前記入力ビット深度に対応する可能な最大値までの範囲内にあるように制約される、
請求項1に記載の方法。 - 前記カレントブロックに対してデブロック化を無効にする、
請求項1に記載の方法。 - 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、完全サブブロックと部分サブブロックとを含み、
デブロック化は、前記第2の予測ブロックの前記完全サブブロックに対応する領域内で無効化され、且つ、前記第2の予測ブロックの前記部分サブブロックに対応する領域に適用されるか、もしくは、適用されない、
請求項1に記載の方法。 - 回路を含むビデオ復号化の装置であって、
前記回路は、
インターリーブしたアフィンモードで符号化されたカレントブロックに対してアフィンモデルを決定し、
前記アフィンモデルに基づいて、前記カレントブロックを第1のサブブロックに分割するための第1のパターンに対応する第1の予測ブロック、および、前記カレントブロックを第2のサブブロックに分割するための第2のパターンに対応する第2の予測ブロックを生成し、前記第1及び第2の予測ブロックは、前記カレントブロックの入力ビット深度よりも大きい中間ビット深度を有する補間されたサンプルを含み、
前記第1及び第2の予測ブロックに基づいて、第3の予測ブロックを生成し、それぞれ前記中間ビット深度に対応する精度を有する、前記第1の予測ブロックにおける第1のサンプルおよび前記第2の予測ブロックにおける対応する第2のサンプルは、平均化されたサンプルを取得するように、加重平均演算を実行することによって結合され、前記平均化されたサンプルは、前記入力ビット深度に丸められて、前記第3の予測ブロックにおける対応した第3のサンプルを取得する、
ように構成されている、装置。 - 前記加重平均演算は、前記第1のサンプル及び前記対応した第2のサンプルの加重和に丸めオフセットを追加することを含む、請求項8に記載の装置。
- 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、完全サブブロックおよび部分サブブロックを含み、
前記第1及び第2のサンプルが、前記第2の予測ブロックの前記部分サブブロックに対応する領域内に位置する場合、前記加重平均演算において前記第2のサンプルにゼロの重みが与えられる、
請求項8に記載の装置。 - 前記第1及び第2のサンプルが、前記第2の予測ブロックの前記完全サブブロックに対応する領域内に位置する場合、前記加重平均演算において前記第1及び第2のサンプルに同等の重みが与えられる、
請求項10に記載の装置。 - 前記第3のサンプルは、0から前記入力ビット深度に対応する可能な最大値までの範囲内にあるように制約される、
請求項8に記載の装置。 - 前記カレントブロックに対してデブロック化を無効にする、
請求項8に記載の装置。 - 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、完全サブブロックおよび部分サブブロックを含み、
デブロック化は、前記第2の予測ブロックの前記完全サブブロックに対応する領域内で無効化され、且つ、前記第2の予測ブロックの前記部分サブブロックに対応する領域に適用されるか、もしくは、適用されない、
請求項8に記載の装置。 - 複数のコンピュータ命令を含むコンピュータプログラムであって、実行されると、前記コンピュータに請求項1~7のいずれか一項に記載の方法を実現させる、コンピュータプログラム。
- 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、全サブブロックおよび部分サブブロックを含み、
前記第1及び第2のサンプルが、前記第2の予測ブロックの前記部分サブブロックに対応する領域内に位置する場合、前記加重平均演算において前記第2のサンプルにゼロの重みが与えられる、
請求項15に記載のコンピュータプログラム。 - 前記第1及び第2のサンプルが、第1のサイズを有する前記第2の予測ブロックに対応する領域内に位置する場合、前記加重平均演算において前記第1及び第2のサンプルに同等の重みが与えられる、
請求項16に記載のコンピュータプログラム。 - 前記第3のサンプルは、0から前記入力ビット深度に対応する可能な最大値までの範囲内にあるように制約される、
請求項15に記載のコンピュータプログラム。 - 前記カレントブロックに対して非ブロック化を無効にする、
請求項15に記載のコンピュータプログラム。 - 前記第2のパターンは、前記第1のパターンに対してシフトされ、且つ、全サブブロックおよび部分サブブロックを含み、
非ブロック化は、前記第2の予測ブロックの前記全サブブロックに対応する領域内で無効化され、且つ、前記第2の予測ブロックの前記部分サブブロックに対応する領域に適用されるか、もしくは、適用されない、
請求項15に記載のコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962816049P | 2019-03-08 | 2019-03-08 | |
US62/816,049 | 2019-03-08 | ||
US16/809,189 US11323731B2 (en) | 2019-03-08 | 2020-03-04 | Method and apparatus for video coding |
US16/809,189 | 2020-03-04 | ||
PCT/US2020/021381 WO2020185555A1 (en) | 2019-03-08 | 2020-03-06 | Method and apparatus for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522398A true JP2022522398A (ja) | 2022-04-19 |
JP7250143B2 JP7250143B2 (ja) | 2023-03-31 |
Family
ID=72335601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540493A Active JP7250143B2 (ja) | 2019-03-08 | 2020-03-06 | ビデオ復号化の方法並びにその、装置及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11323731B2 (ja) |
EP (1) | EP3857892A4 (ja) |
JP (1) | JP7250143B2 (ja) |
CN (1) | CN113519159B (ja) |
WO (1) | WO2020185555A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022536532A (ja) * | 2019-06-14 | 2022-08-17 | エルジー エレクトロニクス インコーポレイティド | 予測サンプルを生成するための加重値インデックス情報を導出する映像デコーディング方法、及びその装置 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102463478B1 (ko) * | 2018-01-26 | 2022-11-04 | 에이치에프아이 이노베이션 인크. | 비디오 코딩 시스템을 위한 아핀 인터 예측 방법 및 장치 |
US11394993B2 (en) * | 2019-03-13 | 2022-07-19 | Tencent America LLC | Method and apparatus for affine inter prediction with small subblocks |
KR102627936B1 (ko) * | 2019-06-14 | 2024-01-23 | 엘지전자 주식회사 | 쌍 예측이 적용되는 경우 가중 평균을 위한 가중치 인덱스 정보를 도출하는 영상 디코딩 방법 및 그 장치 |
WO2020251259A1 (ko) * | 2019-06-14 | 2020-12-17 | 엘지전자 주식회사 | 쌍 예측(bi-prediction)을 위한 가중치 인덱스 정보를 도출하는 영상 디코딩 방법 및 그 장치 |
EP4062638A4 (en) * | 2019-12-27 | 2023-01-11 | Zhejiang Dahua Technology Co., Ltd | AFFINE PREDICTION PROCESS AND ASSOCIATED DEVICES |
WO2024054029A1 (ko) * | 2022-09-06 | 2024-03-14 | 주식회사 케이티 | 영상 부호화/복호화 방법 및 비트스트림을 저장하는 기록 매체 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020526964A (ja) * | 2017-07-03 | 2020-08-31 | ヴィド スケール インコーポレイテッド | 双方向オプティカルフローに基づいた動き補償予測 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4081875B2 (ja) * | 1998-09-08 | 2008-04-30 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びに提供媒体 |
KR100679031B1 (ko) * | 2004-12-03 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치 |
CN104780384B (zh) * | 2009-01-29 | 2018-01-16 | 杜比实验室特许公司 | 解码视频帧的序列的方法、编码多视图帧的序列的方法 |
KR101733735B1 (ko) * | 2009-12-07 | 2017-05-08 | 에스케이 텔레콤주식회사 | 쌍예측을 이용한 멀티 플레인 영상의 부호화/복호화 장치와 방법 및 이를 위한 기록매체 |
WO2014053517A1 (en) * | 2012-10-01 | 2014-04-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding using derivation of subblock subdivision for prediction from base layer |
GB2516424A (en) * | 2013-07-15 | 2015-01-28 | Nokia Corp | A method, an apparatus and a computer program product for video coding and decoding |
US10694179B2 (en) * | 2016-01-12 | 2020-06-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Video coding using hybrid intra prediction |
US10560712B2 (en) * | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
US10701400B2 (en) * | 2017-03-21 | 2020-06-30 | Qualcomm Incorporated | Signalling of summarizing video supplemental information |
WO2019229683A1 (en) * | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
-
2020
- 2020-03-04 US US16/809,189 patent/US11323731B2/en active Active
- 2020-03-06 WO PCT/US2020/021381 patent/WO2020185555A1/en unknown
- 2020-03-06 EP EP20771112.8A patent/EP3857892A4/en active Pending
- 2020-03-06 JP JP2021540493A patent/JP7250143B2/ja active Active
- 2020-03-06 CN CN202080018325.6A patent/CN113519159B/zh active Active
-
2022
- 2022-03-21 US US17/699,663 patent/US11930200B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020526964A (ja) * | 2017-07-03 | 2020-08-31 | ヴィド スケール インコーポレイテッド | 双方向オプティカルフローに基づいた動き補償予測 |
Non-Patent Citations (4)
Title |
---|
JIANLE CHEN, ET AL.: ""Algorithm description for Versatile Video Coding and Test Model 3 (VTM 3)"", DOCUMENT: JVET-L1002-V1, [ONLINE], vol. JVET-L1002 (version 2), JPN6023006998, 24 December 2018 (2018-12-24), pages 1 - 2, ISSN: 0004996335 * |
KAI ZHANG, ET AL.: ""CE4-related: Interweaved Prediction for Affine Motion Compensation"", DOCUMENT: JVET-K0102-V2, [ONLINE], vol. JVET-K0102 (version 2), JPN6023006997, 11 July 2018 (2018-07-11), pages 1 - 4, ISSN: 0004996336 * |
KAI ZHANG, ET AL.: ""Non-CE2: Interweaved Prediction for Affine Motion Compensation"", DOCUMENT: JVET-M0268-V3, [ONLINE], vol. JVET-M0268 (version 3), JPN6023006999, 15 January 2019 (2019-01-15), pages 1 - 4, ISSN: 0004996334 * |
高村 誠之: "「次世代映像符号化標準・次々世代映像符号化技術の動向」", 電子情報通信学会誌, vol. 94, no. 9, JPN6023006996, 1 September 2011 (2011-09-01), JP, pages 807 - 812, ISSN: 0004996337 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022536532A (ja) * | 2019-06-14 | 2022-08-17 | エルジー エレクトロニクス インコーポレイティド | 予測サンプルを生成するための加重値インデックス情報を導出する映像デコーディング方法、及びその装置 |
JP7249441B2 (ja) | 2019-06-14 | 2023-03-30 | エルジー エレクトロニクス インコーポレイティド | 予測サンプルを生成するための加重値インデックス情報を導出する映像デコーディング方法、及びその装置 |
US11843771B2 (en) | 2019-06-14 | 2023-12-12 | Lg Electronics Inc. | Image decoding method and device for deriving weight index information for generation of prediction sample |
JP7432035B2 (ja) | 2019-06-14 | 2024-02-15 | エルジー エレクトロニクス インコーポレイティド | 予測サンプルを生成するための加重値インデックス情報を導出する映像デコーディング方法、及びその装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113519159B (zh) | 2023-09-12 |
JP7250143B2 (ja) | 2023-03-31 |
CN113519159A (zh) | 2021-10-19 |
EP3857892A4 (en) | 2021-12-01 |
WO2020185555A1 (en) | 2020-09-17 |
EP3857892A1 (en) | 2021-08-04 |
US11930200B2 (en) | 2024-03-12 |
US20220210456A1 (en) | 2022-06-30 |
US20200288157A1 (en) | 2020-09-10 |
US11323731B2 (en) | 2022-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096951B2 (ja) | ビデオエンコーディング及びデコーディングのための方法、装置及びプログラム | |
JP7171925B2 (ja) | ビデオデコードおよびエンコード方法、プログラム、および装置 | |
KR102585131B1 (ko) | 비디오 디코딩을 위한 방법 및 비디오 디코더 | |
KR102590368B1 (ko) | 비디오 코딩을 위한 방법 및 장치 | |
JP2022523795A (ja) | ビデオ・コーディングのための方法及び装置 | |
JP7413401B2 (ja) | ビデオコーディングのための方法及び装置 | |
CN113261298A (zh) | 用于视频编码的方法和装置 | |
JP7242118B2 (ja) | アフィンモデルの動きベクトルに対する制約 | |
JP7250143B2 (ja) | ビデオ復号化の方法並びにその、装置及びコンピュータプログラム | |
JP2021520172A (ja) | 動画の符号化及び復号の方法、装置及びコンピュータプログラム | |
CN113302932A (zh) | 视频编解码的方法和装置 | |
JP2022515031A (ja) | ビデオコーディングのための方法、機器及びコンピュータ・プログラム | |
CN110971902B (zh) | 视频解码的方法和装置、计算机设备 | |
JP7130882B2 (ja) | 映像コーディングのための方法、装置、及びコンピュータプログラム | |
EP3769532A1 (en) | Method and apparatus for video coding | |
CN113196745B (zh) | 视频编解码的方法和装置 | |
KR20230129574A (ko) | 비디오 코딩을 위한 방법 및 장치 | |
CN113491118A (zh) | 视频编解码方法及装置 | |
JP7222095B2 (ja) | 小サブブロックを用いたアフィンインター予測のための方法および装置並びにコンピュータプログラム | |
JP2023158110A (ja) | ビデオ復号方法、ビデオ復号装置、コンピュータプログラム、およびビデオ符号化方法 | |
JP7419506B2 (ja) | 映像コーディングのための方法及び装置 | |
JP7125563B2 (ja) | 映像復号のための方法、装置、及びコンピュータプログラム | |
KR20220100980A (ko) | 비디오 코딩을 위한 방법 및 장치 | |
KR102667357B1 (ko) | 비디오 코딩을 위한 방법 및 장치 | |
KR20240074906A (ko) | 비디오 코딩을 위한 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7250143 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |