JP2022544260A - サブブロックに基づくインター予測における動き精度 - Google Patents
サブブロックに基づくインター予測における動き精度 Download PDFInfo
- Publication number
- JP2022544260A JP2022544260A JP2022508597A JP2022508597A JP2022544260A JP 2022544260 A JP2022544260 A JP 2022544260A JP 2022508597 A JP2022508597 A JP 2022508597A JP 2022508597 A JP2022508597 A JP 2022508597A JP 2022544260 A JP2022544260 A JP 2022544260A
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- sub
- video
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 542
- 238000000034 method Methods 0.000 claims abstract description 411
- 239000013598 vector Substances 0.000 claims abstract description 372
- 230000002123 temporal effect Effects 0.000 claims abstract description 116
- 238000012545 processing Methods 0.000 claims abstract description 101
- 230000008569 process Effects 0.000 claims description 82
- 238000003672 processing method Methods 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 19
- 230000001131 transforming effect Effects 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 13
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 138
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 132
- 241000023320 Luma <angiosperm> Species 0.000 description 54
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 48
- 238000009795 derivation Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 36
- 230000006835 compression Effects 0.000 description 26
- 238000007906 compression Methods 0.000 description 26
- 238000005516 engineering process Methods 0.000 description 22
- 239000013074 reference sample Substances 0.000 description 13
- 238000013461 design Methods 0.000 description 11
- 230000011664 signaling Effects 0.000 description 9
- 241000723655 Cowpea mosaic virus Species 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100328886 Caenorhabditis elegans col-2 gene Proteins 0.000 description 1
- 101000928335 Homo sapiens Ankyrin repeat and KH domain-containing protein 1 Proteins 0.000 description 1
- 101000701393 Homo sapiens Serine/threonine-protein kinase 26 Proteins 0.000 description 1
- 102100030617 Serine/threonine-protein kinase 26 Human genes 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F5/00—Methods or arrangements for data conversion without changing the order or content of the data handled
- G06F5/01—Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/499—Denomination or exception handling, e.g. rounding or overflow
- G06F7/49942—Significance control
- G06F7/49947—Rounding
- G06F7/49978—Rounding towards zero
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【選択図】図30
Description
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2019年8月13日出願の国際特許出願PCT/CN2019/100396号、および2019年9月22日出願の国際特許出願PCT/CN2019/107159号の優先権および利益を適時に主張することを目的とする。法に基づくすべての目的のために、上記出願の開示全体は、本明細書の開示の一部として参照により組み込まれる。
サブブロックに基づくマージ候補リストに加えるかどうかを判定することと、この判定に基づいて変換を行うことを含む。
MおよびXが整数である場合にサブブロックに基づく時間的動きベクトル予測(SbTMVP)ツールの適用が有効にされることを判定することと、この判定に基づいて、現在のブロックと映像のビットストリーム表現との間での変換を行うこととを含む。
2015年には、VCEGとMPEGが共同で共同映像探索チーム(Joint Video Exploration Team:JVET)を設立した。それ以来、多くの新しい方法がJVETによって採用され、共同探索モデル(JEM)と呼ばれる参照ソフトウェアに組み込まれてきた。2018年4月、VCEG(Q6/16)とISO/IEC
JTC_1 SC29/WG11(MPEG)の間に共同映像探索チーム(JVET)が作られ、HEVCと比較してビットレートを50%低減することを目標としたVVC規格に取り組むことになった。
o ステップ1.1:空間的候補導出
o ステップ1.2:空間的候補の冗長性チェック
o ステップ1.3:時間的候補導出
・ ステップ2:追加候補挿入
o ステップ2.1:双予測候補の作成
o ステップ2.2:動きゼロ候補の挿入
5つの異なる位置にある候補の中から最大4つのマージ候補を選択する。時間的マージ候補導出のために、2つの候補の中から最大1つのマージ候補を選択する。デコーダ側ではPUごとに一定数の候補を想定しているので、ステップ1で得られた候補の数が、スライスヘッダにおいて信号通知されるマージ候補の最大数(MaxNumMergeCand)に達しない場合、追加の候補を生成する。候補の数は一定であるので、短縮された単項2値化(TU)を使用して最良マージ候補のインデックスを符号化する。CUのサイズが8に等しい場合、現在のCUのすべてのPUは、2N×2N予測ユニットのマージ候補リストと同じ1つのマージ候補リストを共有する。
それぞれN×2Nおよび2N×Nの場合の第2のPUを示す。現在のPUをN×2Nに分割する場合、リスト構築に位置A1の候補は考慮されない。実際、この候補を加えることにより、双予測ユニットが同じ動き情報を有するようになり、1つの符号化ユニットに1つのPUのみを有することは冗長である。同様に、現在のPUを2N×Nに分割する場合、位置B1は考慮されない。
1. Pスライスの場合、変数numRefを、リスト0に関連付けられた参照ピクチャの数またはBスライスの場合、2つのリストにおける参照ピクチャの最小数のいずれかに設定する。
2. 非反復動きゼロ候補を加える。
変数iが0~numRef-1の場合、MVを(0,0)に設定し、参照ピクチャインデックスをiに設定したデフォルトの動き候補を、リスト0(Pスライスの場合)に追加し、両方のリスト(Bスライスの場合)に加える。
3. MVを(0,0)に設定し、リスト0の参照ピクチャインデックスを0(Pスライスの場合)に設定し、両方のリストの参照ピクチャインデックスを0(Bスライスの場合)に設定した繰り返し動きゼロ候補を加える。
- (1)同じ参照ピクチャリスト、および同じ参照ピクチャインデックス(同じPOC)- (2)異なる参照ピクチャリストであるが、同じ参照ピクチャ(同じPOC)・ 空間的スケーリング- (3)同じ参照ピクチャリストであるが、異なる参照ピクチャ(異なるPOC)- (4)異なる参照ピクチャリスト、および異なる参照ピクチャ(異なるPOC)
参照ピクチャインデックスはデコーダに信号通知される。
(動きベクトルおよび参照インデックスを含む)を取り出すことで修正される。いくつかの実装形態において、サブCUは、N×N個の正方形ブロックである(Nは、デフォルトで4に設定される)。
サブCU Aの左側のブロックである(ブロックb)。ブロックbが利用可能でないか、
またはイントラ符号化されている場合、サブCU Aの左側の他のブロックをチェックする(ブロックbを中心に、上から下へ)。各リストの近傍のブロックから得られた動き情報を、所与のリストの第1の参照フレームにスケーリングする。次に、HEVCで規定されているTMVP導出と同じ手順に従って、サブブロックAの時間的動きベクトル予測子
(TMVP)を導出する。位置Dの同一位置のブロックの動き情報を取り出し、それに応じてスケーリングする。最後に、動き情報を検索し、スケーリングした後、参照リストごとにすべての利用可能な動きベクトル(3まで)を別個に平均する。この平均化された動きベクトルを現在のサブCUの動きベクトルとする。
4画素)の単位で符号化することができる。MVD分解能は符号化ユニット(CU)レベルで制御され、MVD解像度フラグは、少なくとも1つのノンゼロMVDモジュールを有する各CUに対して条件付きで信号通知される。
RDCost0と表し、次に、整数MVをテストし、RDコストをRDCost1と表す。RDCost1<th*RDCost0(ただし、thは正の値である)である場合、
4画素MVをテストし、そうでない場合、4画素MVをスキップする。基本的に、整数または4画素MVをチェックするときには、1/4画素MVに対して動き情報およびRDコスト等が既知であり、これを再利用して整数または4画素MVの符号化処理を高速化することができる。
・ 第1の重み係数群は、{7/8,6/8,4/8,2/8,1/8}および{7/8,4/8,1/8}をそれぞれ輝度および色差サンプルに用いる。
・ 第2の重み係数群は、{7/8、6/8、5/8、4/8、3/8、2/8、1/8}および{6/8、4/8、2/8}をそれぞれ輝度および色差サンプルに使用する。
第2の重み係数群は、2つの三角形予測ユニットの参照ピクチャが異なる場合、またはその動きベクトルの差が16画素よりも大きい場合に使用される。そうでない場合、第1の重み係数群を使用する。
<64の場合、三角形予測モードは無効になる。
(AおよびL)の例を示す。
既存の実装形態において、2つの分割が同じ参照インデックスを使用できなかったことが制限される。そのため、2つの(分割パターン)*N(マージ候補の最大数)*(N-1)個の可能性があり、Nが5に設定される。1つの表示はコード化され、分割パターン、
2つのマージインデックス、コード化された指示の間のマッピングは、以下に定義された配列から導出される。
K-th orderEG
次のようにする。
1. 前述のorder-0 exp-Golombコードを使用して[x/2k]を符号化する。次に、
2. x mod 2kをバイナリで符号化する。
e、fとして定義する)を使用して、それぞれ、以下の式で表される。
アフィンモードで導入される。
各候補は、現在のブロックの推定CPMVを含む。エンコーダ側で見つかった最良のCPMVの差(図20のmv0mv1mv2など)および推定されたCPMVが信号通知される。さらに、推定されたCPMVを導出するアフィンAMVP候補のインデックスが信号通知される。
(x0、y0))、右上(座標(x1、y1))の位置の推定CPMVとして使用される。
m ̄v1 ̄、およびm ̄v2 ̄がすべて確立されている場合、つまりm ̄v0 ̄、m ̄v1 ̄、およびm ̄v2 ̄がすべて、現在のブロックの位置の左上(座標(x0、y0))、右上(座標(x1、y1))、および右下(座標(x2、y2))の推定CPMVとして使用される場合にのみ、構築されたアフィン動き予測子が候補リストに挿入される。
1) 利用可能な場合は、すべてのCPMVをm ̄v2 ̄に等しく設定して、アフィン動き予測子を導出する。
2) 利用可能な場合は、すべてのCPMVをm ̄v1 ̄に等しく設定して、アフィン動き予測子を導出する。
3) 利用可能な場合は、すべてのCPMVをm ̄v0 ̄に設定して、アフィン動き予測子を導出する。
4) 利用可能な場合は、すべてのCPMVをHEVCTMVPに等しく設定することで、アフィン動き予測子を導出する。
5) すべてのCPMVをゼロMVに設定することによって、アフィン動き予測子を導出する。
mv1=m ̄v1 ̄+mvd1+mvd0
mv2=m ̄v2 ̄+mvd2+mvd0
mv0 N、mv1 Nおよびmv2 Nに基づいて、現在のCU/PUにおける左上/右上/左下の動きベクトルmv0 C、mv1 Cおよびmv2 C(6パラメータアフィンモデルにのみ用いられる)を算出する。なお、VTM-2.0において、左上隅に位置するサブブロック(例えば、VTMにおける4×4ブロック)は、MV0を記憶し、右上隅に位置するサブブロックは、現在のブロックがアフィン符号化されている場合、mv1を記憶する。現在のブロックが6パラメータアフィンモデルで符号化されている場合、左下隅に位置するサブブロックはmv2を記憶し、そうでない場合(4パラメータアフィンモデルで)、LBはmv2’を記憶する。他のサブブロックは、MCに用いられるMVを記憶する。
CP1、CP2、CP3、CP4の座標は、それぞれ、(0、0)、(W、0)、(H、
0)、(W、H)であり、W、Hは、現在のブロックの幅および高さである。
- CP1の場合、チェックの優先順位はB2->B3->A2である。利用可能であれば、B2を使用する。そうではなく、B2が利用可能である場合、B3が使用される。B2とB3の両方が利用不可能である場合、A2が使用される。3つの候補のすべてが利用不可能である場合、CP1の動き情報を取得することができない。
- CP2の場合、チェックの優先順位はB1->B0である。
- CP3の場合、チェックの優先順位はA1->A0である。
- CP4にはTを用いる。
I. 6パラメータアフィン候補を構築するためには、3つの制御点の動き情報が必要である。3つの制御点は、以下の4つの組み合わせ({CP1、CP2、CP4}、{CP1、CP2、CP3}、{CP2、CP3、CP4}、{CP1、CP3、CP4})のうち1つを選択することができる。{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4}の組み合わせを、左上、右上、左下の制御点で表される6パラメータ動きモデルに変換する。
II. 4パラメータアフィン候補を構築するためには、2つの制御点の動き情報が必要である。2つの制御点は、2つの組み合わせ({CP1,CP2}、{CP1,CP3})の1つから選択されてもよい。この2つの組み合わせを、左上および右上の制御点で表される4パラメータ動きモデルに変換する。
III. 構築されたアフィン候補の組み合わせを以下の順に候補リストに挿入する。
{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3}i. 各組み合わせについて、各CPに対するリストXの参照インデックスをチェックし、それらがすべて同じである場合、このコンビネーションはリストXに対して有効なCPMVを有する。このコンビネーションがリスト0およびリスト1の両方に対して有効なCPMVを有していない場合、このコンビネーションは無効としてマークされる。そうでない場合、それは有効であり、CPMVはサブブロックマージリストに入れられる。
予測方向がリスト0(Pスライスの場合)から単一予測に設定される4パラメータマージ候補と、双予測(Bスライスの場合)とを行う。
サブブロックマージ候補リストは、以下の順に候補を満たす。
b. ATMVP候補(利用可能でも、または利用不可能でもよい)
c. 継承されたアフィン候補
d. 構築されたアフィン候補
e. ゼロMV4パラメータアフィンモデルとしてのパディング
a. 図22に示すように、近傍のブロックA1、B1、B0、A0をチェックして、ブロックXとして示される、インターコードされているがCPRコードされていない第1のブロックを見出す。
b. TMV=(0,0)を初期化する。ブロックXに1つのMV(MV’と表記される)がある場合、(スライスヘッダに信号通知されたら)コロケーションされた参照ピクチャを参照し、TMVをMV’に等しく設定する。
c. 現在のブロックの中心点を(x0,y0)とし、次に、コロケーションされたピクチャにおける(x0,y0)の対応する位置をM=(x0+MV’x,y0+MV’y)として配置する。Mを含むブロックZを見つける。
i. Zがイントラ符号化されている場合、ATMVPは利用できない。
ii. Zがインター符号化されている場合、ブロックZの2つのリストのMVZ_0とMVZ_1は、MVdefault0、MVdefault1として(Reflist0 index0)と(Reflist1 index0)にスケーリングされ、記憶される。
d. 各8×8サブブロックに対して、その中心点が(x0S,y0S)であると仮定し、次に、コロケーションされたピクチャにおける(x0S,y0S)の対応する位置をMS=(x0S+MV’x,y0S+MV’y)として位置指定する。MSを含むブロックZSを見つける。
i. ZSがイントラ符号化されている場合、MVdefault0、MVdefault1がサブブロックに割り当てられる。
ii. ZSがインター符号化されている場合、ブロックZSの2つのリストのMVZS_0とMVZS_1は、(Reflist0 index0)と(Reflist1 index0)にスケーリングされ、サブブロックに割り当てられる。
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 現在の符号化サブブロックの幅を規定する変数sbWidth、
- 現在の符号化サブブロックの高さを規定する変数sbHeight、
- 動きベクトルオフセットmvOffset、
- 微調整された動きベクトルrefMvLX、
- 選択された参照ピクチャサンプル配列refPicLX、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 双方向オプティカルフローフラグbdofFlag、
- 現在のブロックの色成分インデックスを規定する変数cIdx。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)配列predSamplesLX。
brdExtSize=(bdofFlag||(inter_affine_flag
[xSb][ySb] && sps_affine_prof_enabled_flag))?2:0 (8-752)
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタおよびその固定小数点表現は、以下のように定義される。
hori_scale_fp=((fRefWidth<<14)+(PicOutputWidthL>>1))/PicOutputWidthL (8-753)
vert_scale_fp=((fRefHeight<<14)+(PicOutputHeightL>>1))/PicOutputHeightL (8-754)
- (xIntL,yIntL)をフルサンプルユニットで与えられた輝度位置とし、
(xFracL,yFracL)を1/16サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の端数サンプル位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntL,ySbIntL)の左上座標を、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しく設定する。
- 予測輝度サンプル配列predSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)について、対応する予測輝度サンプル値predSamplesLX[xL][yL]は下記のように導出する。
- (refxSbL,refySbL)および(refxL,refyL)を、1/16サンプル単位で与えられる動きベクトル(refMvLX[0],refMvLX[1])が指す輝度位置とする。変数refxSbL、refxL、refySbL、refyLは、以下のように導出する。
refxSbL=((xSb<<4)+refMvLX[0])*hori_scale_fp (8-755)
refxL=((Sign(refxSb)*((Abs(refxSb)+128)>>8)+xL*((hori_scale_fp+8)>>4))+32)>>6
(8-756)
refySbL=((ySb<<4)+refMvLX[1])*vert_scale_fp (8-757)
refyL=((Sign(refySb)*((Abs(refySb)+128)>>8)+yL*((vert_scale_fp+8)>>4))+32)>>6
(8-758)
- 変数xIntL、yIntL、xFracL、およびyFracLは、以下のように導出する。
xIntL=refxL>>4 (8-759)
yIntL=refyL>>4 (8-760)
xFracL=refxL&15 (8-761)
yFracL=refyL&15 (8-762)
- bdofFlagがTRUEに等しいか(sps_affine_prof_enabled_flagがTRUEに等しく、inter_affine_flag[xSb][ySb]がTRUEに等しい)、次の条件の1つ以上が真である場合、予測輝度サンプル値predSamplesLX[xL][yL]は、8.5.6.3.3項で規定されているように、入力として(xIntL+(xFracL>>3)-1),yIntL+(yFracL>>3)-1)およびrefPicLXを使用して輝度整数サンプル取り出し処理を呼び出すことによって導出する。
1. xLは0に等しい。
2. xLは、sbWidth+1に等しい。
3. yLは0に等しい。
4. yLは、sbHeight+1に等しい。
- そうでない場合、8.5.6.3.2項で規定されるように、(xIntL-(brdExtSize>0?で輝度サンプル8タップ補間フィルタリング処理を呼び出すことによって、予測輝度サンプル値predSamplesLX[xL][yL]を導出する。1:0),yIntL-(brdExtSize>0?1:0))、入力として、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)。
- そうでない場合(cIdxが0に等しくない)、以下が適用される。
- (xIntC,yIntC)をフルサンプルユニットで与えられたクロマ位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の一般的な端数サンプルの位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntC,ySbIntC)の左上座標は、((xSb/SubWidthC)+(mvLX[0]>>5),
(ySb/SubHeightC)+(mvLX[1]>>5))に等しく設定される。
- 予測クロマサンプル配列predSamplesLX内の各クロマサンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)について、対応する予測クロマサンプル値predSamplesLX[xC][yC]は、以下のように導出する。
- (refxSbC,refySbC)および(refxC,refyC)を、1/32サンプル単位で与えられる動きベクトル(mvLX[0],mvLX[1])が指すクロマ位置とする。変数refxSbC、refySbC、refxC、refyCは、以下のように導出する。
refxSbC=((xSb/SubWidthC<<5)+mvLX[0])*hori_scale_fp (8-763)
refxC=((Sign(refxSbC)*((Abs(refxSbC)+256)>>9)+xC*((hori_scale_fp+8)>>4))+16)>>5 (8-764)
refySbC=((ySb/SubHeightC<<5)+mvLX[1])*vert_scale_fp (8-765)
refyC=((Sign(refySbC)*((Abs(refySbC)+256)>>9)+yC*((vert_scale_fp+8)>>4))+16)>>5 (8-766)
- 変数xIntC、yIntC、xFracC、yFracCは、以下のように導出する。
xIntC=refxC>>5 (8-767)
yIntC=refyC>>5 (8-768)
xFracC=refyC&31 (8-769)
yFracC=refyC&31 (8-770)
- 予測サンプル値predSamplesLX[xC][yC]は、(xIntC,yIntC),(xFracC,yFracC),(xSbIntC,ySbIntC),sbWidth,sbHeight、およびrefPicLXを入力として、8.5.6.3.4項で指定した処理を呼び出すことによって導出される。
- フルサンプルユニット(xIntL,yIntL)における輝度位置、
- 端数サンプル単位での輝度位置(xFracL,yFracL)、
- 参照ピクチャの左上の輝度サンプルに対する参照サンプルのパディングのための境界ブロックの左上のサンプルを規定する、フルサンプルユニット(xSbIntL,ySbIntL)における輝度位置、
- 輝度参照サンプル配列refPicLXL、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 現在のサブブロックの幅を規定する変数sbWidth、
- 現在のサブブロックの高さを規定する変数sbHeight、
- 現在のピクチャの左上の輝度サンプルに対する現在のサブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 変数shift1をMin(4,BitDepthY_8)に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthY)に等しく設定する。
- 変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
- MotionModelIdc[xSb][ySb]が0より大きく、sbWidthおよびsbHeightがともに4に等しい場合、輝度補間フィルタ係数fL[p]を表8-12で指定する。
- そうでない場合、hpelIfIdxに基づいて輝度補間フィルタ係数fL[p]を表8-11で指定する。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos,SubPicRightBoundaryPos,xIntL+i-3) (8-771)
yInti=Clip3(SubPicTopBoundaryPos,SubPicBotBoundaryPos,yIntL+i-3) (8-772)- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag?
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL+i-3): (8-773)
xIntL+i-3)
yInti=Clip3(0,picH-1,yIntL+i-3) (8-774)
xInti=Clip3(xSbIntL-3,xSbIntL+sbWidth+4,xInti) (8-775)
yInti=Clip3(ySbIntL-3,ySbIntL+sbHeight+4,yInti) (8-776)
- 両方のxFracLおよびyFracLが0に等しい場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=refPicLXL[xInt3][yInt3]<<shift3 (8-777)- そうではなく、xFracLが0に等しくなく、yFracLが0に等しい場合は、
predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yInt3])>>shift1 (8-778)- そうではなく、xFracLが0に等しく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*refPicLXL[xInt3][yInti])>>shift1 (8-779)- そうではなく、xFracLが0に等しくなく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
- n=0..7のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yIntn])>>shift1 (8-780)- 予測輝度サンプル値predSampleLXLは、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*temp[i])>>shift2 (8-781)
- フルサンプルユニット(xIntL,yIntL)における輝度位置、
- 輝度参照サンプル配列refPicLXL、
この変数shiftは、Max(2,14-BitDepthY)に等しく設定される。
変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
xInt=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag? (8-782)
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL):xIntL)
yInt=Clip3(0,picH-1,yIntL) (8-783)
predSampleLXL=refPicLXL[xInt][yInt]<<shift3 (8-784)
- フルサンプルユニット(xIntC,yIntC)におけるクロマ位置、
- 1/32の端数サンプル単位でのクロマ位置(xFracC,yFracC)、
- 参照ピクチャの左上のクロマサンプルに対する参照サンプルパディングのための境界ブロックの左上のサンプルを規定する、フルサンプルユニット(xSbIntC,ySbIntC)におけるクロマ位置、
- 現在のサブブロックの幅を規定する変数sbWidth、
- 現在のサブブロックの高さを規定する変数sbHeight、
- クロマ参照サンプル配列refPicLXC。
- 変数shift1をMin(4,BitDepthC-8に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthC)に等しく設定する。
- 変数picWCはpic_width_in_luma_samples/SubWidthCに等しく設定され、変数picHCはpic_height_in_luma_samples/SubHeightCに等しく設定される。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos/SubWidthC,SubPicRightBoundaryPos/SubWidthC,xIntL+i) (8-785)
yInti=Clip3(SubPicTopBoundaryPos/SubHeightC,SubPicBotBoundaryPos/SubHeightC,yIntL+i) (8-786)- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picWC-1,sps_ref_wraparound_enabled_flag?ClipH(xOffset,picWC,xIntC+i-1): (8-787)
xIntC+i-1)
yInti=Clip3(0,picHC-1,yIntC+i-1) (8-788)
xInti=Clip3(xSbIntC-1,xSbIntC+sbWidth+2,xInti) (8-789)
yInti=Clip3(ySbIntC-1,ySbIntC+sbHeight+2,yInti) (8-790)
- xFracCおよびyFracCの両方が0に等しい場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=refPicLXC[xInt1][yInt1]
<<shift3 (8-791)
- そうではなく、xFracCが0に等しくなく、yFracCが0に等しい場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=(Σ3 i=0fC[xFracC][i]*refPicLXC[xInti][yInt1])>>shift1 (8-792)- そうではなく、xFracCが0に等しく、yFracCが0に等しくない場合、predSampleLXCの値は、以下のように導出する。
predSampleLXC=(Σ3 i=0fC[yFracC][i]*refPicLXC[xInt1][yInti])>>shift1 (8-793)- そうではなく、xFracCが0に等しくなく、yFracCが0に等しくない場合、predSampleLXCの値は、以下のように導出する。
- n=0..3のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ3 i=0fC[xFracC][i]*refPicLXC[xInti][yIntn])>>shift1 (8-794)
- 予測クロマサンプル値predSampleLXCは、以下のように導出する。
predSampleLXC=(fC[yFracC][0]*temp[0]+fC[yFracC][1]*temp[1]+fC[yFracC][2]*temp[2]+ (8-795)
fC[yFracC][3]*temp[3])>>shift2
NumSubPicGridCols=(pic_width_max_in_luma_samples+subpic_grid_col_width_minus1*4+3)/
(subpic_grid_col_width_minus1*4+4) (7-5)
NumSubPicGridRows=(pic_height_max_in_luma_samples+subpic_grid_row_height_minus1*4+3)/
(subpic_grid_row_height_minus1*4+4) (7-6)
[subpic_grid_idx[i][j]]、SubPicHeight[subpic_grid_idx[i][j]]、およびNumSubPicsは次のように導出する。
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
if(i==NumSubPicGridRows-1)
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]+1 if(j==NumSubPicGridRows-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
}
}
1) ATMVPを適用するかどうかが、スライスレベルとCUレベルで不整合である。
2) スライスヘッダにおいて、TMVPが無効にされてもATMVPは有効としてもよい。一方、TMVPフラグの前にATMVPフラグを信号通知する。
3) マスキングは、MVが圧縮されているかどうかを考慮せずに、常に行われる。
4) 有効な対応する領域が大き過ぎてもよい。
5) TMVの導出は非常に複雑である。
6) ATMVPが利用できなくてもよい、より優れたデフォルトMVが望ましい。
7) ATMVPにおけるMVスケーリング方法は、効率的でなくてもよい。
8) ATMVPはCPR症例を考慮すべきである。
9) アフィン予測が無効にされても、デフォルトの0アフィンマージ候補をリストに含めてもよい。
10) 現在のピクチャは長期参照ピクチャとして扱われ、他のピクチャは短期参照ピクチャとして扱われる。ATMVP候補およびTMVP候補の両方について、コロケーションされたピクチャにおける時間的ブロックからの動き情報は、固定された参照インデックスを有する参照ピクチャにスケーリングされる(即ち、現在の設計における各参照ピクチャリストに対して0)。しかしながら、CPRモードが有効にされると、現在のピクチャはまた参照ピクチャとして扱われ、現在のピクチャは、0に等しいインデックスを有する参照ピクチャリスト0(RefPicList0)に追加してもよい。
a. TMVPにおいて、時間的ブロックがCPRモードで符号化され、RefPicList0の参照ピクチャが短い参照ピクチャである場合、TMVP候補は利用不可能に設定される。
b. インデックスが0のRefPicList0の参照ピクチャが現在のピクチャであり、現在のピクチャがイントラランダムアクセスポイント(IRAP)ピクチャである場合、ATMVP候補は利用不可能に設定される。
c. 1つのブロック内のATMVPサブブロックの場合、1つの時間的ブロックからサブブロックの動き情報を導出する時に、この時間的ブロックがCPRモードで符号化されている場合、このサブブロックの動き情報を埋めるために、デフォルトのATMVP候補(開始TMVと現在のブロックの中心位置とによって特定される1つの時間的ブロックから導出する)が使用される。
11) MVは整数精度に右シフトされるが、VVCにおける丸め規則に従わない。
12) ATMVPにおいて、異なるピクチャにおける対応するブロックの位置を規定するために用いられるMV(MVx,MVy)(例えば、TMVが0)は、コロケーションされたピクチャを指すため、そのまま用いられる。これは、すべてのピクチャが同じ解像度であるという仮定に基づく。しかしながら、RPRが有効にされる場合、異なるピクチャ解像度を利用してもよい。サブブロック動き情報を導出するために、コロケーションされたピクチャにおける対応するブロックを識別することに関しても、同様の問題が存在する。
13) 1つのブロックの幅または高さが32より大きく、CIIP符号化ブロックに対して最大変換ブロックのサイズが32である場合、CUサイズでイントラ予測信号を生成し、一方、インター予測信号は、TUサイズで生成する(現在のブロックを複数の32×32ブロックに再帰的に分割する)。CUを使用してイントラ予測信号を導出することは、より低い効率をもたらす。
サブブロックマージ候補リストにおける候補の最大数を判定/構文解析するため、および/またはATMVP候補を候補リストに加えるべきかどうかを判定するために考慮されるべきである。サブブロックマージ候補リストにおける最大数をMLとする。
a) 一例において、ATMVPは、サブブロックマージ候補リストにおける候補の最大数の判定または構文解析において、ATMVP使用フラグがオフ(0に等しい)であるか、またはTMVPが無効にされている場合、適用不可能であると推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが無効にされている場合、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが無効にされており、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、TMVPが有効とされ、アフィン使用フラグがオフ(0に等しい)である場合、MLが1に等しく設定される。
b) 一例において、ATMVPは、ATMVP使用フラグがオフ(0に等しい)であるか、または現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャ自体である場合、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものである場合、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものであり、アフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、現在のピクチャのコロケーションされた参照ピクチャが現在のピクチャそのものでなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
c) 一例において、ATMVP使用フラグがオフ(0に等しい)であるか、または参照リスト0における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものである場合、ATMVPは、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有するコロケーションされた参照ピクチャは、現在のピクチャそのものであり、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものであり、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト0における参照ピクチャインデックス0を有する参照ピクチャは、現在のピクチャそのものではなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
d) 一例において、ATMVP使用フラグがオフ(0に等しい)であるか、または参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものである場合、ATMVPは、サブブロックマージ候補リストにおける候補の最大数を判定または構文解析する時に、適用可能でないと推測される。
i. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有するコロケーションされた参照ピクチャは、現在のピクチャそのものであり、ATMVP候補は、サブブロックマージ候補リストまたはATMVP候補リストに追加されない。
ii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものであり、且つアフィン使用フラグがオフ(0に等しい)である場合、MLが0に等しく設定され、これは、サブブロックマージが適用可能でないことを意味する。
iii. 一例において、ATMVP使用フラグがオン(1に等しい)であり、参照リスト1における参照ピクチャインデックス0を有する参照ピクチャが現在のピクチャそのものでなく、アフィン使用フラグがオフ(0に等しい)である場合、MLは1に等しく設定される。
a) 一例において、ATMVPフラグは、スライスヘッダ/タイルヘッダ/PPSにおけるTMVPフラグの後に信号通知される。
b) 一例において、ATMVPまたは/およびTMVPフラグは、スライスヘッダ/タイルヘッダ/PPSにおいて信号通知されなくてもよく、SPSヘッダにおいてのみ信号通知される。
a) 一例において、MVを圧縮する必要がない場合(例えば、SPSで信号通知されるsps_disable_motioncompressionが1の場合)、(xN,yN)はマスクされない。それ以外の場合、(MVは圧縮する必要がある)(xN,yN)はxN=xN&MASK,yN=yN&MASKとしてマスクされる。ここで、MASKは~(2M-1)に等しく、Mは3または4などのような整数である。
b) 各2K×2KブロックにおけるMV記憶結果のMV圧縮方法は、同じ動き情報を共有し、ATMVP処理におけるマスクを~(2M-1)と定義する。KはMに等しくなくてもよく、例えば、M=K+1であるとされている。
c) ATMVPおよびTMVPに用いられるMASKは、同じであってもよいし、異なっていてもよい。
a) 一例において、MV圧縮方法は非圧縮、8×8圧縮(Bullet3.aにおけるM=3),または16×16圧縮(Bullet3.aにおけるM=4)の間で選択することができる。
b) 一例において、MV圧縮方法は、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダにおいて信号通知されてもよい。
c) 一例において、MV圧縮方法は、異なる標準プロファイル/レベル/層において異なるように設定してもよい。
a) 例えば、有効な対応する領域は、現在のブロックの幅および高さに依存してもよい。
b) 例えば、有効な対応領域はMV圧縮方法に依存してもよい。
i. 一例において、MV圧縮方法が使用されない場合、有効な対応領域はより小さく、MV圧縮方法が使用される場合、有効な対応領域はより大きい。
a) 一例において、W<=MおよびH<=Nであり、現在のブロックが1つの基本領域の内側にあることを意味する場合、ATMVPにおける有効な対応する領域は、コロケーションされた基本領域およびコロケーションされたピクチャにおける拡張である。図27は、一例を示す。
i. 例えば、配置された基本領域の左上の位置が(xBR,yBR)であるとすると、(xN,yN)における対応する位置は、有効領域xBR<=xN<xBR+M+4;yBR<=yN<yBR+Nにクリッピングされる。
b) 一例において、W>Mであり、H>Nである場合、現在のブロックが1つの基本領域内にないことを意味し、現在のブロックを複数の部分に分ける。各部分は、ATMVP内に個々の有効な対応する領域を有する。現在のブロックにおける位置Aについて、コロケーションされたブロックにおけるその対応する位置Bは、位置Aが位置する部分の有効な対応する領域内にあるべきである。
i. 例えば、現在のブロックを非重複基本領域に分ける。1つの基本領域に対応する有効領域は、そのコロケーション基本領域およびコロケーションされたピクチャにおける拡張である。図28は、一例を示す。
1. 例えば、現在のブロックの位置Aが1つの基本領域Rにあるとする。コロケーションされたピクチャにおけるRのコロケーション基本領域をCRとする。コロケーションされたブロックにおけるAの対応する位置は、位置Bであり、CRの左上の位置は(xCR,yCR)であり、次に、位置Bの(xN,yN)が、有効領域xCR<=xN<xCR+M+4;yCR<=yN<yCR+Nにクリッピングされる。
a) 一例において、TMVは、常に、(0,0)等のデフォルトMVに等しく設定される。
i. 一例において、デフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知される。
b) 一例において、TMVは、以下の方法で、HMVPテーブルに記憶される1つのMVに設定される。
i. HMVPリストが空である場合、TMVは、デフォルトMV、例えば(0,0)に等しく設定される。
ii. そうでない(HMVPリストが空でない)場合、
1. TMVは、HMVPテーブルに記憶された第1の要素と等しく設定してもよい。
2. あるいは、TMVは、HMVPテーブルに記憶された最後の要素に等しく設定してもよい。
3. あるいは、TMVは、HMVPテーブルに記憶された特定のMVに等しく設定してもよい。
a. 一例において、特定のMVは、参照リスト0を参照する。
b. 一例において、特定のMVは、参照リスト1を参照する。
c. 一例において、特定のMVは、参照リスト0における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
d. 一例において、特定のMVは、参照リスト1における特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
e. 一例において、特定のMVは、コロケーションされたピクチャを参照する。
4. あるいは、HMVPテーブルに記憶された特定のMV(例えば、bullet3.に記載)が見つからない場合、TMVをデフォルトMVに等しく設定してもよい。
a. 一例において、HMVPテーブルに記憶された第1の要素のみを検索し、
特定のMVを見出す。
b. 一例において、HMVPテーブルに記憶された最後の要素のみを検索し、
特定のMVを見出す。
c. 一例において、HMVPテーブルに記憶された一部または全部の要素を検索し、特定のMVを見出す。
5. あるいは、さらに、HMVPから取得したTMVは、現在のピクチャそのものを参照することができない。
6. あるいは、さらに、HMVPテーブルから取得したTMVは、参照していない場合、コロケーションされたピクチャに合わせてスケーリングされてもよい。
c) 一例において、TMVは、1つの特定の近傍のブロックの1つのMVに設定される。他の近傍のブロックは含まれない。
i. 特定の近傍のブロックは、図22のブロックA0、A1、B0、B1、B2であってもよい。
ii. TMVは、以下の場合、デフォルトMVに等しく設定してもよい。
1. 特定の近傍のブロックが存在しない。
2. 特定の近傍のブロックは、インター符号化されない。
iii. TMVは、特定の近傍のブロックに記憶された特定のMVに等しく設定してもよい。
1. 一例において、特定のMVは、参照リスト0を参照する。
2. 一例において、特定のMVは、参照リスト1を参照する。
3. 一例において、特定のMVは、参照リスト0における特定の参照ピクチャ、
例えばインデックス0を有する参照ピクチャを参照する。
4. 一例において、特定のMVは、参照リスト1における特定の参照ピクチャ、
例えばインデックス0を有する参照ピクチャを参照する。
5. 一例において、特定のMVは、コロケーションされたピクチャを参照する。
6. 特定の近傍のブロックに記憶された特定のMVが見つからない場合、TMVをデフォルトMVに等しく設定してもよい。
iv. 特定の近傍のブロックから得られたTMVは、それが参照しない場合、コロケーションされたピクチャに合わせてスケーリングされてもよい。
v. 特定の近傍のブロックから得られたTMVは、現在のピクチャそのものを参照することができない。
a) 一例において、MVdefault0およびMVdefault1は、(0,0)に等しく設定される。
b) 一例において、MVdefaultX(X=0または1)は、HMVPから導出する。
i. HMVPリストが空である場合、MVdefaultXは、(0,0)等の予め定義されたデフォルトMVに等しく設定される。
1. 予め定義されたデフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知されてもよい。
ii. そうでない(HMVPリストが空でない)場合、
1. MVdefaultXは、HMVPテーブルに記憶された第1の要素と等しく設定してもよい。
2. MVdefaultXは、HMVPテーブルに記憶された最後の要素に等しく設定してもよい。
3. MVdefaultXは、HMVPテーブルに記憶された特定のMVにのみ等しく設定してもよい。
a. 一例において、特定のMVは、参照リストXを参照する。
b. 一例において、特定のMVは、参照リストXにおける特定の参照ピクチャ、例えばインデックス0を有する参照ピクチャを参照する。
4. HMVPテーブルに記憶された特定のMVが見つからない場合、MVdefaultXを予め定義されたデフォルトMVに等しく設定してもよい。
a. 一例において、HMVPテーブルに記憶された第1の要素のみを検索する。
b. 一例において、HMVPテーブルに記憶された最後の要素のみを検索する。
c. 一例において、HMVPテーブルに記憶された要素の一部または全部を検索する。
5. HMVPテーブルから取得したMVdefaultXは、参照していない場合、コロケーションされたピクチャ(collocated picture)に合わせてスケーリングされてもよい。
6. HMVPから取得したMVdefaultXは、現在のピクチャそのものを参照することができない。
c) 一例において、MVdefaultX(X=0または1)は、近傍のブロックから導出する。
i. 近傍のブロックは、図22のブロックA0、A1、B0、B1、B2を含んでもよい。
1. 例えば、これらのブロックの1つのみを使用してMVdefaultXを導出する。
2. あるいは、これらのブロックの一部または全部を使用してMVdefaultXを導出する。
a. これらのブロックは、有効なMVdefaultXが見つかるまで、順にチェックされる。
3. 選択された1つ以上の近傍のブロックから有効なMVdefaultXが見つからない場合、それは、(0,0)等の予め定義されたデフォルトMVに等しく設定される。
a. 予め定義されたデフォルトMVは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/CTU/CUにおいて信号通知されてもよい。
ii. 次の場合、特定の近傍のブロックから有効なMVdefaultXが見つからない。
1. 特定の近傍のブロックが存在しない。
2. 特定の近傍のブロックは、インター符号化されない。
iii. MVdefaultXは、特定の近傍のブロックに記憶された特定のMVにのみ等しく設定してもよい。
1. 一例において、特定のMVは、参照リストXを参照する。
2. 一例において、特定のMVは、参照リストXにおける特定の参照ピクチャを参照し、例えば、インデックス0を有する参照ピクチャが挙げられる。
iv. 特定の近傍のブロックから取得したMVdefaultXを、特定の参照ピクチャ、例えば参照リストXにおけるインデックス0を有する参照ピクチャにスケーリングしてもよい。
v. 特定の近傍のブロックから取得したMVdefaultXは、現在のピクチャそのものを参照することができない。
a) 一例において、デフォルト動き候補は、現在のブロックの中心位置に関連付けられた動き候補として定義されてもよい(例えば、2.3.5.1.2に開示されるように、ATMVPにおいて用いられるMVdefault0および/またはMVdefault1)。
b) 一例において、デフォルト動き候補は、利用可能である場合、両方の参照ピクチャリストに対して、(0,0)動きベクトルおよび0に等しい参照ピクチャインデックスとして定義されてもよい。
a) 一例において、現在のブロックの中心位置を用いる代わりに、現在のブロックにおけるサブブロック(例えば、中心サブブロック)の中心位置を利用してもよい。
b) 既存のおよび提案された実装形態の例を図29Aおよび29Bにそれぞれ示す。
a) 現在のブロックの中心点を(x0,y0)とすると、コロケーションされたピクチャにおける(x0,y0)の対応する位置をM=(x0+MV’x,y0+MV’y)とする。Mを含むブロックZを見つける。Zがイントラ符号化されている場合、項目6に提案される何らかの方法によってMVdefault0、MVdefault1を導出する。
b) あるいは、ブロックZは、動き情報を取得するために配置されず、項目8に提案されるいくつかの方法は、MVdefault0およびMVdefault1を取得するために直接適用される。
c) あるいは、ATMVP処理で使用されるデフォルトの動き候補は、常に利用可能である。現在の設計に基づいて、それが利用不可能に設定されている(例えば、時間的ブロックがイントラ符号化されている)場合、デフォルト動き候補の代わりに他の動きベクトルを利用してもよい。
i. 一例において、参照により本明細書に組み込まれる国際出願PCT/CN2018/124639号の解決案が適用されてもよい。
d) あるいは、さらに、ATMVP候補が常に利用可能であるかどうかは、他の高レベル構文情報に依存する。
i. 一例において、スライス/タイル/ピクチャヘッダまたは他の映像ユニットにおけるATMVPイネーブルフラグが真であると推測される場合にのみ、ATMVP候補は常に利用可能であると設定してもよい。
ii. 一例において、上記方法は、スライスヘッダ/ピクチャヘッダまたは他の映像ユニットにおけるATMVPイネーブルフラグが真に設定され、且つ現在のピクチャがIRAPピクチャでなく、且つ現在のピクチャが0に等しい参照インデックスでRefPicList0に挿入されていない場合にのみ適用可能であってもよい。
e) ATMVP候補には、固定インデックスまたは固定グループのインデックスが割り当てられる。ATMVP候補が常に利用可能でない場合、固定インデックス/群インデックスは、他の種類の動き候補(例えば、アフィン候補)に推論してもよい。
a) サブブロックマージ候補リストが満たされていない場合、動きゼロ非アフィンパディング候補を追加してもよい。
b) このようなパディング候補を選択する場合は、現在のブロックのaffine_flagを0に設定する必要がある。
c) あるいは、サブブロックマージ候補リストが満たされず、かつ、アフィン使用フラグがオフである場合、ゼロ動き非アフィンパディング候補をサブブロックマージ候補リストに含める。
a) MV0、コロケーションされたピクチャが参照リスト1にある場合。
b) MV1、コロケーションされたピクチャが参照リスト0にある場合。
現在のピクチャをインデックスがM(例えば、0)に設定された参照ピクチャとして扱う場合、ATMVPおよび/またはTMVP許可/禁止フラグは、スライス/タイルまたは他の種類の映像ユニットに対して偽であると推測されてもよい。ここで、Mは、ATMVP/TMVP処理において時間的ブロックの動き情報をPicRefListXに対してスケーリングするオブジェクト参照ピクチャインデックスに等しくてもよい。
a) あるいは、上記方法は、現在のピクチャがイントラランダムアクセスポイント(IRAP)ピクチャである場合にのみ適用可能である。
b) 一例において、PicRefListXにおける現在のピクチャをインデックスがM(例えば、0)に設定された参照ピクチャとして扱う場合、および/または、PicRefListYにおけるインデックスがN(例えば、0)に設定された参照ピクチャとして扱う場合、ATMVPおよび/またはTMVP許可/禁止フラグが偽であると推測してもよい。変数MおよびNは、TMVPまたはATMVP処理で使用されるオブジェクト参照ピクチャインデックスを表す。
c) ATMVP処理の場合、確認ビットストリームは、現在のブロックの動き情報が導出されるコロケーションされたピクチャが現在のピクチャではないという規則に従うよう、制限されている。
d) あるいは、上記の条件が真である場合、ATMVPまたはTMVP処理は呼び出されない。
a) 一例において、すべてのサブブロックの動き情報は、現在のピクチャを指す。
b) 一例において、時間的ブロックからサブブロックの動き情報を取得する場合、時間的ブロックは、時間的ブロックの現在のピクチャを指す少なくとも1つの参照ピクチャで符号化される。
c) 一例において、時間的ブロックからサブブロックの動き情報を取得する場合、スケーリング演算は適用されない。
a) 一例において、第1のL個のビンに対して、それらはコンテキスト符号化される。残りのビンについては、バイパス符号化される。一例において、Lは1に設定される。
b) あるいは、すべてのビンに対して、それらはコンテキスト符号化される。
a) あるいは、ATMVPにおいて異なるピクチャ内の対応するブロックを突き止めるために使用されるMV(例えば、TMVが0)を、MV平均化処理と同じ丸め方法で、
整数精度に右シフトしてもよい。
b) あるいは、ATMVPにおいて異なるピクチャ内の対応するブロックを突き止めるために使用されるMV(例えば、TMVが0)は、適応MV解像度(AMVR)処理と同じ丸め方法で、整数精度に右シフトしてもよい。
a) 例えば、MVx’=(MVx+((1<<N)>>1)-(MVx>=0?1:0))>>N;Nは、MVの解像度、例えばN=4を表す整数である。
i. 例えば、MVx’=(MVx+(MVx>=0?7:8))>>4.
b) 例えば、MVy’=(MVy+((1<<N)>>1)-(MVy>=0?1:0))>>N;Nは、MVの解像度、例えばN=4を表す整数である。
i. 例えば、MVy’=(MVy+(MVy>=0?7:8))>>4.
サブブロックの中心位置およびシフトされたMVを使用して、または現在のブロックの左上の位置およびシフトされたMVを使用して、対応するブロックの位置を規定するために用いられる。
a) 一例において、MV(MVx,MVy)は、ATMVP処理中に、現在のブロックにおけるサブブロックの動き情報を導出するために、例えば、サブブロックの中心位置およびシフトされたMVを使用して、対応するブロックの位置を規定するために用いられる。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが、現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、MVをスケーリングしてもよい。
b) コロケーションされたピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW1およびH1として示す。現在のピクチャ(のコンフォーマンスウィンドウ)の幅および高さをそれぞれW2およびH2とする。そして、MV(MVx,MVy)は、MVx’=MVx*W1/W2およびMVy’=MVy*H1/H2としてスケーリングされてもよい。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、中心点をさらに修正してもよい。
b) コロケーションされたピクチャにおけるコンフォーマンスウィンドウの左上の位置をX1およびY1とする。現在のピクチャに定義されたコンフォーマンスウィンドウの左上の位置をX2およびY2とする。コロケーションされたピクチャ(のコンフォーマンスウィンドウ)の幅および高さは、それぞれW1およびH1として示される。現在のピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW2およびH2とする。その場合、(x0,y0)は、x0’=(x0-X2)*W1/W2+X1、y0’=(y0-Y2)*H1/H2+Y1として修正してもよい。
i. あるいは、x0’=x0*W1/W2、y0’=y0*H1/H2である。
a) 一例において、コロケーションされたピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さが現在のピクチャ(またはその中のコンフォーマンスウィンドウ)の幅および/または高さと異なる場合、対応する位置をさらに修正してもよい。
b) コロケーションされたピクチャにおけるコンフォーマンスウィンドウの左上の位置をX1およびY1とする。現在のピクチャに定義されたコンフォーマンスウィンドウの左上の位置をX2およびY2とする。コロケーションされたピクチャ(のコンフォーマンスウィンドウ)の幅および高さは、それぞれW1およびH1として示される。現在のピクチャの(コンフォーマンスウィンドウの)幅および高さを、それぞれW2およびH2とする。その場合、M(x,y)は、x’=(x-X2)*W1/W2+X1およびy’=(y-Y2)*H1/H2+Y1として修正してもよい。
i. あるいは、x’=x*W1/W2、y’=y*H1/H2である。
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
SubPicHeight[subpic_grid_idx[i][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]+1 if(j==NumSubPicGridRows-1)
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]+1
if(subpic_grid_idx[i][j]>NumSubPics)
NumSubPics=subpic_grid_idx[i][j]
}
}
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
NumSubPics=subpic_grid_idx[i][j]
a) 既存の実装形態例に基づく実施形態を以下に強調する。
NumSubPics=0
for(i=0;i.<NumSubPicGridRows;i++){
for(j=0;j<NumSubPicGridCols;j++){
if(i==0)
SubPicTop[subpic_grid_idx[i][j]]=0
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i-1][j]){
SubPicTop[subpic_grid_idx[i][j]]=i
SubPicHeight[subpic_grid_idx[i-1][j]]=i-SubPicTop[subpic_grid_idx[i-1][j]]
}
if(j==0)
SubPicLeft[subpic_grid_idx[i][j]]=0 (7-7)
else if(subpic_grid_idx[i][j]!=subpic_grid_idx[i][j-1]){
SubPicLeft[subpic_grid_idx[i][j]]=j
SubPicWidth[subpic_grid_idx[i][j]]=j-SubPicLeft[subpic_grid_idx[i][j-1]]
}
NumSubPics=subpic_grid_idx[i][j]
a) 一例において、RPRが使用されないように通知される場合(例えば、RPR_flagが0の場合)、PPSで通知されるすべての幅/高さは、SPSで信号通知される最大幅/最大高さと同じである必要がある。
b) 一例において、RPRが使用されないように通知された場合(例えば、RPR_flagが0の場合)、PPSのすべての幅/高さは通知されず、SPSで信号通知された最大幅/最大高さであると推測される。
c) 一例において、RPRが使用されないように信号通知される場合(例えば、RPR_flagが0である場合)、コンフォーマンスウィンドウ情報は、復号化処理で使用されない。そうでない場合(RPRを使用するように信号通知される)、コンフォーマンスウィンドウ情報を復号化処理において使用してもよい。
a. 一例において、条件Aが満たされ、条件Aが現在のピクチャおよび/または参照ピクチャの寸法に依存する場合、よりタップが少ない補間フィルタを適用してもよい。
i. 一例において、条件Aは、参照ピクチャの解像度が現在のピクチャと異なることである。
ii. 一例において、条件Aは、参照ピクチャの幅および/または高さが現在のピクチャのそれよりも大きいことである。
iii. 一例において、条件Aは、W1>a*W2および/またはH1>b*H2であり、ここで、(W1、H1)は参照ピクチャの幅および高さを表し、(W2、H2)は現在のピクチャの幅および高さを表し、aおよびbは2つの因子、例えば、a=b=1.5である。
iv. 一例において、条件Aは、双予測が使用されるかどうかに依存してもよい。
1) 現在のブロックに対して双予測を用いる場合にのみ、条件Aを満たす。
v. 一例において、条件Aは、MおよびNに依存してもよく、ここで、MおよびNは、現在のブロックの幅および高さを表す。
1) 例えば、条件Aは、M*N<=Tの場合にのみ満たされ、ここで、Tは、64などの整数である。
2) 例えば、条件Aは、M<=T1またはN<=T2の場合にのみ満たされ、ここで、T1およびT2は整数、例えばT1=T2=4である。
3) 例えば、条件Aは、M<=T1およびN<=T2の場合にのみ満たされ、ここで、T1およびT2は整数、例えば、T1=T2=4である。
4) 例えば、条件Aは、M*N=T、またはM=T1またはN=T2の場合にのみ満たされ、ここで、T、T1、T2は整数、例えばT=64、T1=T2=4である。
5) 一例において、上記sub-bulletにおける小さい方の条件は、大きい方に置き換えられてもよい。
vi. 一例において、1タップフィルタが適用される。すなわち、フィルタリングされていない整数画素を補間結果として出力する。
vii. 一例において、参照ピクチャの解像度が現在のピクチャと異なる場合、バイリニアフィルタが適用される。
viii. 一例において、参照ピクチャの解像度が現在のピクチャと異なる場合、
または参照ピクチャの幅および/または高さが現在のピクチャの解像度よりも大きい場合、4タップフィルタまたは6タップフィルタが適用される。
1) 6タップフィルタは、アフィン動き補償に使用されてもよい。
2) 4タップフィルタは、クロマサンプルの補間に使用されてもよい。
b. bullet31に開示された方法を適用するかどうか、および/またはどのように適用するかは、色成分に依存してもよい。
i. 例えば、これらの方法は、輝度成分にのみ適用される。
c. bullet31に開示された方法を適用するかどうか、および/またはどのように適用するかは、補間フィルタリング方向に依存してもよい。
i. 例えば、この方法は水平フィルタリングにのみ適用される。
ii. 例えば、この方法は垂直フィルタリングにのみ適用される。
a) 一例において、CUの幅または高さのいずれかが最大変換ブロックサイズよりも大きい場合、CUは複数のTUに分割してもよく、例えば、TUの外側の参照サンプルを使用して、TUごとにイントラ/インター予測が生成されてもよい。
b) 一例において、最大変換サイズKが64よりも小さい(例えば、K=32)場合、CIIPにおいて使用されるイントラ予測は、通常のイントラコードブロックにおけるように再帰的な方法で実行される。
c) 例えば、MおよびNが整数であるKM×KN CIIP符号化ブロックを、K×K個のブロックのMN個に分割することで、各K×K個のブロックごとにイントラ予測を行う。後に符号化/復号されたK×Kブロックのイントラ予測は、前述の符号化/復号化されたK×Kブロックの再構成サンプルに依存してもよい。
5.1 実施形態#1:SPS/PPS/スライスヘッダ/タイルグループヘッダにおける構文設計の例
輝度符号化ブロック幅cbWidth、輝度符号化ブロック高さcbHeight、輝度符号化ブロック幅を入力として呼び出され、出力は、可用性フラグavailableFlagA0、availableFlagA1、availableFlagB0、availableFlagB1およびavailableFlagB2、参照インデックスrefIdxLXA0、refIdxLXA1,refIdxLXB0、refIdxLXB1およびrefIdxLXB2、および予測リスト利用フラグpredFlagLXA0、predFlagLXA1、predFlagLXB0,predFlagLXB1およびpredFlagLXB2、および動きベクトルmvLXA0、mvLXA1、mvLXB0、mvLXB1およびmvLXB2である。
availableFlagB1、参照インデックスrefIdxLXA0、refIdxLXA1、refIdxLXB0、efIdxLXB1、予測リスト利用フラグpredFlagLXA0、predFlagLXA1、predFlagLXB0、predFlagLXB1、動きベクトルmvLXA0,mvLXA1,mvLXB0,mvLXB1を入力として呼び出され、出力は、可用性フラグavailableFlagSbCol、水平方向numSbXおよび垂直方向numSbYにおける輝度符号化サブブロックの数、参照インデックスrefIdxLXSbCol、輝度動きベクトルmvLXSbCol[xSbIdx][ySbIdx]および予測リスト利用フラグpredFlagLXSbCol[xSbIdx][ySbIdx]である。
(xNbA0,yNbA0)、(xNbA1,yNbA1)、(xNbA2,yNbA2)、(xNbB0,yNbB0)、(xNbB1,yNbB1)、(xNbB2,yNbB2)、(xNbB3,yNbB3)、および変数numSbXおよびnumSbYは次のように導出する。
構文の変更は、既存の実装形態に基づいている。
…
…
構文の変更は、既存の実装形態に基づいている。
…
…
- 現在のピクチャの左上の輝度サンプルに対する現在の輝度符号化ブロックの左上のサンプルの輝度位置(xCb、yCb)、
- 輝度サンプルにおける現在の符号化ブロックの幅を規定する変数cbWidth、
- 輝度サンプルにおける現在の符号化ブロックの高さを規定する変数cbHeight。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1であってXは0または1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1であってXは0または1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトルであってXが0または1である。
- 可用性フラグavailableFlagSbCol、
- 水平方向numSbXおよび垂直方向numSbYにおける輝度符号化サブブロックの数、
- 参照インデックスrefIdxL0SbColおよびrefIdxL1SbCol、
- 1/16端数サンプル精度mvL0SbCol[xSbIdx][ySbIdx]およびmvL1SbCol[xSbIdx][ySbIdx]における輝度動きベクトル、
但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1、
- 予測リスト利用フラグpredFlagL0SbCol[xSbIdx][ySbIdx]およびpredFlagL1SbCol[xSbIdx][ySbIdx]、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1。
- 以下の条件の1つ以上が真である場合、availableFlagSbColに0が設定される。
- slice_temporal_mvp_enabled_flagは0に等しい。
- sps_sbtmvp_enabled_flagは0に等しい。
- cbWidthが8未満である。
- cbHeightが8未満である。
- そうでない場合、以下の順序付けられたステップが適用される。
xCtb=(xCb>>CtuLog2Size)<<CtuLog2Size (8-542)
yCtb=(yCb>>CtuLog2Size)<<CtuLog2Size (8-543)
xCtr=xCb+(cbWidth/2) (8-544)
yCtr=yCb+(cbHeight/2) (8-545)
- ctrPredFlagL0およびctrPredFlagL1の両方が0に等しい場合、availableFlagSbColは0に等しく設定される。
- そうでない場合、availableFlagSbColは1に等しく設定される。
- 変数numSbX、numSbY,sbWidth、sbHeight、refIdxLXSbColは、以下のように導出する。
numSbX=cbWidth>>3 (8-546)
numSbY=cbHeight>>3 (8-547)
sbWidth=cbWidth/numSbX (8-548)
sbHeight=cbHeight/numSbY (8-549)
refIdxLXSbCol=0 (8-550)
xSb=xCb+xSbIdx*sbWidth+sbWidth/2 (8-551)
ySb=yCb+ySbIdx*sbHeight+sbHeight/2 (8-552)
- 変数colCbは、ColPicの内部において、((xColSb>>3)<<3,(yColSb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0と等しく設定されたrefIdxL0、1と等しく設定されたsbFlagを入力として呼び出され、出力は、サブブロックmvL0SbCol[xSbIdx][ySbIdx]およびavailableFlagL0SbColの動きベクトルに割り当てられる。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL1、1と等しく設定されたsbFlagを入力として呼び出され、出力はサブブロックMVL1SbCol[xSbIdx][ySbIdx]およびavailableFlagL1SbColの動きベクトルに割り当てられる。
- availableFlagL0SbColおよびavailableFlagL1SbColが両方とも0に等しい場合、Xが0および1である場合、以下が適用される。
mvLXSbCol[xSbIdx][ySbIdx]=ctrMvLX (8-556)
predFlagLXSbCol[xSbIdx][ySbIdx]=ctrPredFlagLX (8-557)
- 現在の符号化ブロックを含む輝度符号化ツリーブロックの左上のサンプルの位置(xCtb,yCtb)、
- 右下中心サンプルを含む、同じ場所に位置する輝度符号化ブロックの左上サンプルの位置(xColCtrCb,yColCtrCb)。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトル。
- 動きベクトルctrMvL0およびctrMvL1、
- 予測リスト利用フラグctrPredFlagL0、ctrPredFlagL1、
- 時間的動きベクトルtempMv。
tempMv[0]=0 (8-558)
tempMv[1]=0 (8-559)
- 以下のすべての条件が真である場合、tempMvはmvL0A1に等しく設定される。
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい、
- そうでない場合、以下のすべての条件が真である場合、tempMvはmvL1A1:に等しく設定される。
- スライスタイプはBと同じである、
- predFlagL1A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A1])は0に等しい。
- colPredMode[xColCb][yColCb]がMODE_INTERと等しい場合、以下が適用される。
- 変数currCbは、現在のピクチャ内で(xCtrCb,yCtrCb)を含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColCb>>3)<<3,(yColCb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb、colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL0、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL0およびctrPredFlagL0に割り当てることにより呼び出される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0に等しく設定されたrefIdxL1、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL1およびctrPredFlagL1に割り当てることにより呼び出される。
- そうでない場合、以下が適用される。
ctrPredFlagL0=0 (8-563)
ctrPredFlagL1=0 (8-564)
- 現在のピクチャの左上の輝度サンプルに対する現在の輝度符号化ブロックの左上のサンプルの輝度位置(xCb、yCb)、
- 輝度サンプルにおける現在の符号化ブロックの幅を規定する変数cbWidth、
- 輝度サンプルにおける現在の符号化ブロックの高さを規定する変数cbHeight。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1であってXは0または1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1であってXは0または1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトルであってXが0または1である。
- 可用性フラグavailableFlagSbCol,
- 水平方向numSbXおよび垂直方向numSbYにおける輝度符号化サブブロックの数、
- 参照インデックスrefIdxL0SbColおよびrefIdxL1SbCol、
- 1/16端数サンプル精度mvL0SbCol[xSbIdx][ySbIdx]およびmvL1SbCol[xSbIdx][ySbIdx]における輝度動きベクトル、
但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1、
- 予測リスト利用フラグpredFlagL0SbCol[xSbIdx][ySbIdx]およびpredFlagL1SbCol[xSbIdx][ySbIdx]、但しxSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1。
- 以下の条件の1つ以上が真である場合、availableFlagSbColに0が設定される。
- slice_temporal_mvp_enabled_flagは0に等しい。
- sps_sbtmvp_enabled_flagは0に等しい。
- cbWidthが8未満である。
- cbHeightが8未満である。
- そうでない場合、以下の順序付けられたステップが適用される。
xCtb=(xCb>>CtuLog2Size)<<CtuLog2Size (8-542)
yCtb=(yCb>>CtuLog2Size)<<CtuLog2Size (8-543)
xCtr=xCb+(cbWidth/2) (8-544)
yCtr=yCb+(cbHeight/2) (8-545)
- ctrPredFlagL0およびctrPredFlagL1の両方が0に等しい場合、availableFlagSbColは0に等しく設定される。
- そうでない場合、availableFlagSbColは1に等しく設定される。
numSbX=cbWidth>>3 (8-546)
numSbY=cbHeight>>3 (8-547)
sbWidth=cbWidth/numSbX (8-548)
sbHeight=cbHeight/numSbY (8-549)
refIdxLXSbCol=0 (8-550)
xSb=xCb+xSbIdx*sbWidth+sbWidth/2 (8-551)
ySb=yCb+ySbIdx*sbHeight+sbHeight/2 (8-552)
- 変数colCbは、ColPicの内部において、((xColSb>>3)<<3,(yColSb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0と等しく設定されたrefIdxL0、1と等しく設定されたsbFlagを入力として呼び出され、出力は、サブブロックmvL0SbCol[xSbIdx][ySbIdx]およびavailableFlagL0SbColの動きベクトルに割り当てられる。
- 8.5.2.12項で規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL1、1と等しく設定されたsbFlagを入力として呼び出され、出力はサブブロックMVL1SbCol[xSbIdx][ySbIdx]およびavailableFlagL1SbColの動きベクトルに割り当てられる。
- availableFlagL0SbColおよびavailableFlagL1SbColが両方とも0に等しい場合、Xが0および1である場合、以下が適用される。
mvLXSbCol[xSbIdx][ySbIdx]=ctrMvLX (8-556)
predFlagLXSbCol[xSbIdx][ySbIdx]=ctrPredFlagLX (8-557)
- 現在の符号化ブロックを含む輝度符号化ツリーブロックの左上のサンプルの位置(xCtb,yCtb)、
- 右下中心サンプルを含む、同じ場所に位置する輝度符号化ブロックの左上サンプルの位置(xColCtrCb,yColCtrCb)。
- 近傍の符号化ユニットの可用性フラグavailableFlagA1、
- 近傍の符号化ユニットの参照インデックスrefIdxLXA1、
- 近傍の符号化ユニットの予測リスト利用フラグpredFlagLXA1、
- 近傍の符号化ユニットの1/16端数サンプル精度mvLXA1における動きベクトル。
- 動きベクトルctrMvL0およびctrMvL1、
- 予測リスト利用フラグctrPredFlagL0、ctrPredFlagL1、
- 時間的動きベクトルtempMv。
tempMv[0]=0 (8-558)
tempMv[1]=0 (8-559)
- 以下のすべての条件が真である場合、tempMvはmvL0A1に等しく設定される。
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい、
- そうでない場合、以下のすべての条件が真である場合、tempMvはmvL1A1:に等しく設定される。
- スライスタイプはBと同じである、
- predFlagL1A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A1])は0に等しい。
- colPredMode[xColCb][yColCb]がMODE_INTERと等しい場合、以下が適用される。
- 変数currCbは、現在のピクチャ内で(xCtrCb,yCtrCb)を含む輝度符号化ブロックを規定する。
- 変数colCbは、ColPicの内部において、((xColCb>>3)<<3,(yColCb>>3)<<3)で与えられる修正位置を含む輝度符号化ブロックを規定する。
- 輝度位置(xColCb,yColCb)は、ColPicによって指定されたコロケーションされたピクチャの左上輝度サンプルに対して、colCbによって指定された同一位置輝度符号化ブロックの左上サンプルに等しく設定される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb、colCb,(xColCb,yColCb)、0と等しく設定されたrefIdxL0、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL0およびctrPredFlagL0に割り当てることにより呼び出される。
- 8.5.2.12項に規定されている同一位置動きベクトルの導出処理は、currCb,colCb,(xColCb,yColCb),0に等しく設定されたrefIdxL1、および1に等しく設定されたsbFlagを入力とし、出力をctrMvL1およびctrPredFlagL1に割り当てることにより呼び出される。
- そうでない場合、以下が適用される。
ctrPredFlagL0=0 (8-563)
ctrPredFlagL1=0 (8-564)
- 現在のピクチャの左上の輝度サンプルに対する現在の符号化サブブロックの左上のサンプルを規定する輝度位置(xSb,ySb)、
- 現在の符号化サブブロックの幅を規定する変数sbWidth、
- 現在の符号化サブブロックの高さを規定する変数sbHeight、
- 動きベクトルオフセットmvOffset、
- 微調整された動きベクトルrefMvLX、
- 選択された参照ピクチャサンプル配列refPicLX、
- 1/2サンプル補間フィルタインデックスhpelIfIdx、
- 双方向オプティカルフローフラグbdofFlag、
- 現在のブロックの色成分インデックスを規定する変数cIdx。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)配列predSamplesLX。
brdExtSize=(bdofFlag||(inter_affine_flag[xSb][ySb] && sps_affine_prof_enabled_flag))?2:0 (8-752)
hori_scale_fp=((fRefWidth<<14)+(PicOutputWidthL>>1))/PicOutputWidthL (8-753)
vert_scale_fp=((fRefHeight<<14)+(PicOutputHeightL>>1))/PicOutputHeightL (8-754)
(xFracL,yFracL)を1/16サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の端数サンプル位置を規定するために使用される。
to(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しく設定する。
- (refxSbL,refySbL)および(refxL,refyL)を、1/16サンプル単位で与えられる動きベクトル(refMvLX[0],refMvLX
[1])が指す輝度位置とする。変数refxSbL、refxL、refySbL、refyLは、以下のように導出する。
refxSbL=((xSb<<4)+refMvLX[0])*hori_scale_fp (8-755)
refxL=((Sign(refxSb)*((Abs(refxSb)+128)>>8)
+xL*((hori_scale_fp+8)>>4))+32)>>6 (8-756)
refySbL=((ySb<<4)+refMvLX[1])*vert_scale_fp (8-757)
refyL=((Sign(refySb)*((Abs(refySb)+128)>>8)+yL*
((vert_scale_fp+8)>>4))+32)>>6 (8-758)
- 変数xIntL、yIntL、xFracL、およびyFracLは、以下のように導出する。
xIntL=refxL>>4 (8-759)
yIntL=refyL>>4 (8-760)
xFracL=refxL&15 (8-761)
yFracL=refyL&15 (8-762)
1. xLは0に等しい。
2. xLは、sbWidth+1に等しい。
3. yLは0に等しい。
4. yLは、sbHeight+1に等しい。
- (xIntC,yIntC)をフルサンプルユニットで与えられたクロマ位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられたオフセットとする。これらの変数は、本項でのみ、参照サンプル配列refPicLX内の一般的な端数サンプルの位置を規定するために使用される。
- 参照サンプルパディング用バウンディングブロック(xSbIntC,ySbIntC)の左上座標は、((xSb/SubWidthC)+(mvLX[0]>>5),
(ySb/SubHeightC)+(mvLX[1]>>5))に等しく設定される。
- 予測クロマサンプル配列predSamplesLX内の各クロマサンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)について、対応する予測クロマサンプル値predSamplesLX[xC][yC]は、以下のように導出する。
- (refxSbC,refySbC)および(refxC,refyC)を、1/32サンプル単位で与えられる動きベクトル(mvLX[0],mvLX[1])が指すクロマ位置とする。変数refxSbC、refySbC、refxC、refyCは、以下のように導出する。
refxSbC=((xSb/SubWidthC<<5)+mvLX[0])*hori_scale_fp (8-763)
refxC=((Sign(refxSbC)*((Abs(refxSbC)+256)>>9)
+xC*((hori_scale_fp+8)>>4))+16)>>5 (8-764)
refySbC=((ySb/SubHeightC<<5)+mvLX[1])*vert_scale_fp (8-765)
refyC=((Sign(refySbC)*((Abs(refySbC)+256)>>9)
+yC*((vert_scale_fp+8)>>4))+16)>>5 (8-766)
- 変数xIntC、yIntC、xFracC、yFracCは、以下のように導出する。
xIntC=refxC>>5 (8-767)
yIntC=refyC>>5 (8-768)
xFracC=refyC&31 (8-769)
yFracC=refyC&31 (8-770)
- 予測サンプル値predSamplesLX[xC][yC]は、(xIntC,yIntC),(xFracC,yFracC),(xSbIntC,ySbIntC),sbWidth,sbHeight、およびrefPicLXを入力として、8.5.6.3.4で指定した処理を呼び出すことによって導出される。
- 変数shift1をMin(4,BitDepthY_8)に等しく設定し、変数shift2を6に等しく設定し、変数shift3をMax(2,14-BitDepthY)に等しく設定する。
- 変数picWはpic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
xInti=Clip3(SubPicLeftBoundaryPos,SubPicRightBoundaryPos,xIntL+i-3) (8-771)
yInti=Clip3(SubPicTopBoundaryPos,SubPicBotBoundaryPos,yIntL+i-3) (8-772)- それ以外の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される。
xInti=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag?
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL+i-3): (8-773)
xIntL+i-3)
yInti=Clip3(0,picH-1,yIntL+i-3) (8-774)
xInti=Clip3(xSbIntL-3,xSbIntL+sbWidth+4,xInti) (8-775)
yInti=Clip3(ySbIntL-3,ySbIntL+sbHeight+4,yInti) (8-776)
- xFracLおよびyFracLの両方が0に等しい場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=refPicLXL[xInt3][yInt3]<
<shift3 (8-777)
- そうではなく、xFracLが0に等しくなく、yFracLが0に等しい場合は、
predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yInt3])>>shift1 (8-778)- そうではなく、xFracLが0に等しく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*refPicLXL[xInt3][yInti])>>shift1 (8-779)- そうではなく、xFracLが0に等しくなく、yFracLが0に等しくない場合、predSampleLXLの値は、以下のように導出する。
- n=0..7のサンプル配列temp[n]は、以下のように導出する。
temp[n]=(Σ7 i=0fL[xFracL][i]*refPicLXL[xInti][yIntn])>>shift1 (8-780)
- 予測輝度サンプル値predSampleLXLは、以下のように導出する。
predSampleLXL=(Σ7 i=0fL[yFracL][i]*temp
[i])>>shift2 (8-781)
サブブロックに基づくマージ候補リストに加えるかどうかを判定すること、を含む。
ビットストリーム表現は、SbTMVPモードの表示が含まれているか否か、および/またはマージ候補リストにおけるTMVPモードの表示に対するSbTMVPモードの表示の位置を規定するフォーマットに準拠する。
ハードウェアプラットフォームに実装される装置を使用して実施されてもよい。
ビットストリームを処理する。
パッシブ光ネットワーク(PON)等の有線インターフェース、およびWi-Fi(登録商標)またはセルラーインターフェース等の無線インターフェースが挙げられる。
入力ユニット4702からの映像の平均ビットレートを符号化モジュール4704の出力に低減し、映像の符号化表現を生成してもよい。従って、この符号化技術は、映像圧縮または映像コード変換技術と呼ばれることがある。符号化モジュール4704の出力は、モジュール4706によって表されるように、記憶されてもよいし、接続された通信を介して送信されてもよい。入力ユニット4702において受信された、記憶されたまたは通信された映像のビットストリーム(または符号化)表現は、モジュール4708によって使用されて、表示インターフェースユニット4710に送信される画素値または表示可能な映像を生成してもよい。ビットストリーム表現からユーザが見ることができる映像を生成する処理は、映像展開と呼ばれることがある。さらに、特定の映像処理動作を「符号化」動作またはツールと呼ぶが、符号化ツールまたは動作は、エンコーダおよびそれに対応する、復号化の結果を逆にする復号化ツールまたは動作が、デコーダによって行われることが理解されよう。
IDEインターフェース等を含む。本明細書に記載される技術は、携帯電話、ノートパソコン、スマートフォン、またはデジタルデータ処理および/または映像表示を実施可能な他のデバイス等の様々な電子デバイスに実施されてもよい。
解決案A1に記載の方法。
またはピクチャである、解決案A26に記載の方法。
この変換を行うことは、サブブロックに基づく時間的動きベクトル予測(SbTMVP)ツールが有効または無効であると判定されることに基づいて、複数のビン(N)を使用してサブブロックマージインデックスを統一方法で符号化することを含む、映像処理方法。
解決案C5に記載の方法。
解決案C1に記載の方法。
現在のブロックの変換に対してアフィン予測が有効にされているかどうかに基づいて、動きゼロアフィンマージ候補をサブブロックマージ候補リストに挿入するかどうかを判定することと、この判定に基づいて、この変換を行うことを含む、映像処理方法。
動きベクトルが、コロケーションされたピクチャにおける対応する位置を含むブロックの1つ以上の動きベクトルから導出されたものであると判定する規則を使用して、動きベクトルを判定し、この動きベクトルに基づいて、この変換を行うことを含む、映像処理方法。
解決案D7に記載の方法。
および機能操作は、本明細書に開示された構造およびその構造的等価物を含め、デジタル電子回路、またはコンピュータソフトウェア、ファームウェア、若しくはハードウェアで実施されてもよく、またはそれらの1つ以上の組み合わせで実装されてもよい。開示された、そして他の実施形態は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置によって実装されるため、またはデータ処理装置の操作を制御するために、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実装することができる。このコンピュータ可読媒体は、機械可読記憶デバイス、機械可読記憶基板、メモリデバイス、機械可読伝播信号をもたらす物質の組成物、またはこれらの1つ以上の組み合わせであってもよい。「データ処理装置」という用語は、例えば、プログラマブル処理装置、コンピュータ、または複数の処理装置若しくはコンピュータを含め、データを処理するためのすべての装置、デバイス、および機械を含む。この装置は、ハードウェアの他に、当該コンピュータプログラムの実行環境を作るコード、例えば、処理装置ファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはこれらの1つ以上の組み合わせを構成するコードを含むことができる。伝播信号は、人工的に生成した信号、例えば、機械で生成した電気、光、または電磁信号であり、適切な受信装置に送信するための情報を符号化するように生成される。
特別目的のロジック回路として実装することができる。
本願は、2020年8月13日に出願された国際特許出願PCT/CN2020/108805の国内段階であり、2019年8月13日出願の国際特許出願PCT/CN2019/100396号の優先権および利益を主張する。上記出願の開示全体は、本明細書の開示の一部として参照により組み込まれる。
Claims (17)
- 映像処理方法であって、
サブブロックに基づく時間的動きベクトル予測(sbTMVP)ツールを用いて符号化された映像の現在のブロックと前記映像のビットストリーム表現との変換のために、前記現在のブロックの前記現在のピクチャとは異なるピクチャ内の対応するブロックの位置を突き止めるために使用される修正された動きベクトルを決定することであって、前記修正された動きベクトルは、前記sbTMVPツールで予測に使用される動きベクトルを整数精度で右シフトすることによって生成される、決定することと、
前記決定することに基づいて前記変換を行うことと、を含む、
方法。 - 前記右シフトすることは、動きベクトルスケーリング処理に使用されるものと同じ丸め演算を使用する、
請求項1に記載の方法。 - 前記右シフトすることは、動きベクトル平均化処理に使用されるものと同じ丸め演算を使用する、
請求項1に記載の方法。 - 前記右シフトすることは、適応動きベクトル解像度(AMVR)処理で使用されるものと同じ丸め演算を使用する、
請求項1に記載の方法。 - 前記右シフトすることは、ゼロに向かう丸め演算を使用し、
前記動きベクトルは、MV=(MVx,MVy)と表され、
右シフトされた動きベクトルは、MV’=(MVx’,MVy’)と表される、
請求項1に記載の方法。 - 前記右シフトされた動きベクトルは、MVx’=(MVx+((1<<N)>>1)-(MVx≧0 ? 1:0))>>N、およびMVy’=(MVy+((1<<N)>>1)-(MVy≧0 ? 1:0))>>Nとして算出され、Nは、動きベクトルの解像度を表す整数である、
請求項5に記載の方法。 - N=4である、請求項6に記載の方法。
- 前記右シフトされた動きベクトルは、MVx’=(MVx+(MVx≧0 ? 7:8))>>4、およびMVy’=(MVy+(MVy≧0 ? 7:8))>>4として算出される、
請求項5に記載の方法。 - 前記修正された動きベクトルは、前記sbTMVPツールで使用されるデフォルト動き情報を導出する別の対応するブロックの位置を突き止めるためにさらに使用される、
請求項1~8のいずれかに記載の方法。 - 前記デフォルト動き情報を導出することは、前記現在のブロックの中心位置および前記修正された動きベクトルにさらに基づく、
請求項9に記載の方法。 - 前記現在のブロックのサブブロックのための前記デフォルト動き情報を導出することは、前記サブブロックの中心位置および前記修正された動きベクトルにさらに基づく、
請求項9に記載の方法。 - 前記変換は、前記異なるピクチャまたは前記現在のピクチャにおける参照ブロックの位置を突き止めるために、前記修正された動きベクトルを使用する、sbTMVPツールとは異なる別の符号化ツールを使用する、
請求項1~11のいずれかに記載の方法。 - 前記変換は、前記ビットストリーム表現から前記現在のブロックを生成する、
請求項1~12のいずれかに記載の方法。 - 前記変換は、前記現在のブロックから前記ビットストリーム表現を生成する、
請求項1~12のいずれかに記載の方法。 - 前記変換を行うことは、1つ以上の復号化規則に基づいて前記ビットストリーム表現を構文解析することを含む、
請求項1~12のいずれかに記載の方法。 - 処理装置と、命令を含む非一時的メモリと、を備えた映像システムの装置であって、
前記処理装置による実行時の前記命令は、前記処理装置に、請求項1~15のいずれか1項に記載の方法を実行させる、
装置。 - 非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、
請求項1~15のいずれか1項に記載の方法を実行するためのプログラムコードを含む、
コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023214836A JP2024037992A (ja) | 2019-08-13 | 2023-12-20 | サブブロックに基づくインター予測における動き精度 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019100396 | 2019-08-13 | ||
CNPCT/CN2019/100396 | 2019-08-13 | ||
PCT/CN2020/108805 WO2021027862A1 (en) | 2019-08-13 | 2020-08-13 | Motion precision in sub-block based inter prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023214836A Division JP2024037992A (ja) | 2019-08-13 | 2023-12-20 | サブブロックに基づくインター予測における動き精度 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022544260A true JP2022544260A (ja) | 2022-10-17 |
JP7481430B2 JP7481430B2 (ja) | 2024-05-10 |
Family
ID=80645893
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508597A Active JP7481430B2 (ja) | 2019-08-13 | 2020-08-13 | サブブロックに基づくインター予測における動き精度 |
JP2023214836A Pending JP2024037992A (ja) | 2019-08-13 | 2023-12-20 | サブブロックに基づくインター予測における動き精度 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023214836A Pending JP2024037992A (ja) | 2019-08-13 | 2023-12-20 | サブブロックに基づくインター予測における動き精度 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11871025B2 (ja) |
EP (1) | EP3997877A4 (ja) |
JP (2) | JP7481430B2 (ja) |
KR (1) | KR20220043109A (ja) |
CN (1) | CN114208184A (ja) |
BR (1) | BR112022002687A2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102660160B1 (ko) | 2018-11-22 | 2024-04-24 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
CN114762330A (zh) | 2019-09-22 | 2022-07-15 | 北京字节跳动网络技术有限公司 | 视频的子图片编码和解码 |
US11317093B2 (en) * | 2019-09-24 | 2022-04-26 | Tencent America LLC | Method for reference picture resampling with offset in video bitstream |
EP4124042A4 (en) * | 2020-03-19 | 2023-12-06 | Panasonic Intellectual Property Corporation of America | ENCODING DEVICE, DECODING DEVICE, IMAGE PROCESSING DEVICE, ENCODING METHOD, DECODING METHOD, IMAGE PROCESSING METHOD, BIT STREAM TRANSMISSION DEVICE, AND NON-TEMPORARY STORAGE MEDIUM |
US20230362403A1 (en) * | 2022-05-04 | 2023-11-09 | Mediatek Inc. | Methods and Apparatuses of Sharing Preload Region for Affine Prediction or Motion Compensation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160100189A1 (en) * | 2014-10-07 | 2016-04-07 | Qualcomm Incorporated | Intra bc and inter unification |
US20160337662A1 (en) * | 2015-05-11 | 2016-11-17 | Qualcomm Incorporated | Storage and signaling resolutions of motion vectors |
JP2017528984A (ja) * | 2014-08-22 | 2017-09-28 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 統合されたイントラブロックコピーおよびインター予測 |
Family Cites Families (146)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
BRPI0413988A (pt) | 2003-08-26 | 2006-11-07 | Thomson Licensing | método e aparelho para decodificar blocos intra-inter codificador hìbridos |
GB0500174D0 (en) * | 2005-01-06 | 2005-02-16 | Kokaram Anil | Method for estimating motion and occlusion |
JP4178480B2 (ja) | 2006-06-14 | 2008-11-12 | ソニー株式会社 | 画像処理装置、画像処理方法、撮像装置および撮像方法 |
US8675738B2 (en) | 2008-08-06 | 2014-03-18 | Mediatek Inc. | Video decoding method without using additional buffers for storing scaled frames and system thereof |
TWI387317B (zh) | 2008-12-11 | 2013-02-21 | Novatek Microelectronics Corp | 產生重新取樣參考畫面之裝置及其方法與影像解碼系統 |
CN101877785A (zh) | 2009-04-29 | 2010-11-03 | 祝志怡 | 一种基于混合预测的视频编码方法 |
US9654792B2 (en) | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
KR20150013776A (ko) | 2010-04-09 | 2015-02-05 | 미쓰비시덴키 가부시키가이샤 | 동화상 부호화 장치 및 동화상 복호 장치 |
CN103281527B (zh) | 2010-04-15 | 2015-12-23 | 华为技术有限公司 | 图像编解码方法及相关装置 |
US9215470B2 (en) | 2010-07-09 | 2015-12-15 | Qualcomm Incorporated | Signaling selected directional transform for video coding |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
US8780973B2 (en) | 2010-08-13 | 2014-07-15 | Texas Instruments Incorporated | Limiting the maximum size of an encoded video picture using sub-picture based rate control |
CN106937122B (zh) | 2010-10-28 | 2020-03-27 | 韩国电子通信研究院 | 视频解码方法 |
CN103299630B (zh) | 2011-01-19 | 2016-10-19 | 寰发股份有限公司 | 获取运动矢量预测子的方法和装置 |
US9148666B2 (en) | 2011-02-09 | 2015-09-29 | Lg Electronics Inc. | Method for storing motion information and method for inducing temporal motion vector predictor using same |
GB2488815C (en) | 2011-03-09 | 2018-03-28 | Canon Kk | Video decoding |
US9143795B2 (en) | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
US10123053B2 (en) | 2011-05-23 | 2018-11-06 | Texas Instruments Incorporated | Acceleration of bypass binary symbol processing in video coding |
WO2012174990A1 (en) | 2011-06-24 | 2012-12-27 | Mediatek Inc. | Method and apparatus for removing redundancy in motion vector predictors |
JP2014524706A (ja) | 2011-08-19 | 2014-09-22 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 動きベクトル処理 |
US9451252B2 (en) | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US9420286B2 (en) | 2012-06-15 | 2016-08-16 | Qualcomm Incorporated | Temporal motion vector prediction in HEVC and its extensions |
US20140003504A1 (en) | 2012-07-02 | 2014-01-02 | Nokia Corporation | Apparatus, a Method and a Computer Program for Video Coding and Decoding |
WO2014059049A1 (en) | 2012-10-09 | 2014-04-17 | Rodriguez Arturo A | Output management of prior decoded pictures at picture format transitions in bitstreams |
WO2014107853A1 (en) | 2013-01-09 | 2014-07-17 | Mediatek Singapore Pte. Ltd. | Methods for disparity vector derivation |
US9596448B2 (en) | 2013-03-18 | 2017-03-14 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
US9491460B2 (en) | 2013-03-29 | 2016-11-08 | Qualcomm Incorporated | Bandwidth reduction for video coding prediction |
US10057594B2 (en) | 2013-04-02 | 2018-08-21 | Vid Scale, Inc. | Enhanced temporal motion vector prediction for scalable video coding |
GB2512829B (en) | 2013-04-05 | 2015-05-27 | Canon Kk | Method and apparatus for encoding or decoding an image with inter layer motion information prediction according to motion information compression scheme |
WO2014166109A1 (en) | 2013-04-12 | 2014-10-16 | Mediatek Singapore Pte. Ltd. | Methods for disparity vector derivation |
US9813723B2 (en) | 2013-05-03 | 2017-11-07 | Qualcomm Incorporated | Conditionally invoking a resampling process in SHVC |
US9432667B2 (en) | 2013-06-11 | 2016-08-30 | Qualcomm Incorporated | Processing bitstream constraints relating to inter-layer prediction types in multi-layer video coding |
WO2015003383A1 (en) | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
US9628795B2 (en) | 2013-07-17 | 2017-04-18 | Qualcomm Incorporated | Block identification using disparity vector in video coding |
US10244253B2 (en) | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
US9906813B2 (en) | 2013-10-08 | 2018-02-27 | Hfi Innovation Inc. | Method of view synthesis prediction in 3D video coding |
EP3078195A4 (en) | 2013-12-02 | 2017-08-09 | Nokia Technologies OY | Video encoding and decoding |
WO2015085575A1 (en) | 2013-12-13 | 2015-06-18 | Mediatek Singapore Pte. Ltd. | Methods for background residual prediction |
CN104768015B (zh) | 2014-01-02 | 2018-10-26 | 寰发股份有限公司 | 视频编码方法及装置 |
WO2015109598A1 (en) | 2014-01-27 | 2015-07-30 | Mediatek Singapore Pte. Ltd. | Methods for motion parameter hole filling |
US10432928B2 (en) | 2014-03-21 | 2019-10-01 | Qualcomm Incorporated | Using a current picture as a reference for video coding |
WO2015192353A1 (en) | 2014-06-19 | 2015-12-23 | Microsoft Technology Licensing, Llc | Unified intra block copy and inter prediction modes |
US20150373350A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Temporal motion vector prediction (tmvp) indication in multi-layer codecs |
WO2016008157A1 (en) | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
CN107079164B (zh) * | 2014-09-30 | 2020-07-10 | 寰发股份有限公司 | 用于视频编码的自适应运动向量分辨率的方法 |
WO2016119104A1 (en) | 2015-01-26 | 2016-08-04 | Mediatek Inc. | Motion vector regularization |
US9854237B2 (en) | 2014-10-14 | 2017-12-26 | Qualcomm Incorporated | AMVP and merge candidate list derivation for intra BC and inter prediction unification |
CN107113425A (zh) | 2014-11-06 | 2017-08-29 | 三星电子株式会社 | 视频编码方法和设备以及视频解码方法和设备 |
KR102128216B1 (ko) * | 2014-11-20 | 2020-06-30 | 에이치에프아이 이노베이션 인크. | 모션 벡터 및 블록 벡터 해상도 제어의 방법 |
KR20170101983A (ko) | 2014-12-31 | 2017-09-06 | 노키아 테크놀로지스 오와이 | 스케일러블 비디오 코딩 및 디코딩을 위한 계층 간 예측 |
US11477477B2 (en) | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10070130B2 (en) | 2015-01-30 | 2018-09-04 | Qualcomm Incorporated | Flexible partitioning of prediction units |
US10057574B2 (en) | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
US10200711B2 (en) | 2015-03-27 | 2019-02-05 | Qualcomm Incorporated | Motion vector derivation in video coding |
WO2016165069A1 (en) | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
WO2016175550A1 (ko) * | 2015-04-27 | 2016-11-03 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 이를 위한 장치 |
CN107852506A (zh) | 2015-05-12 | 2018-03-27 | 三星电子株式会社 | 用于执行帧内预测的图像解码方法及其装置以及用于执行帧内预测的图像编码方法及其装置 |
US10271064B2 (en) | 2015-06-11 | 2019-04-23 | Qualcomm Incorporated | Sub-prediction unit motion vector prediction using spatial and/or temporal motion information |
WO2017008263A1 (en) | 2015-07-15 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Conditional binary tree block partitioning structure |
WO2017057953A1 (ko) | 2015-09-30 | 2017-04-06 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치 |
EP3376764A4 (en) | 2015-11-12 | 2019-12-04 | LG Electronics Inc. | METHOD AND DEVICE FOR COEFFICIENT-INDUCED INTRAPREDICATION IN A BILDCODING SYSTEM |
US20190158870A1 (en) | 2016-01-07 | 2019-05-23 | Mediatek Inc. | Method and apparatus for affine merge mode prediction for video coding system |
US9955186B2 (en) | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
US10469841B2 (en) | 2016-01-29 | 2019-11-05 | Google Llc | Motion vector prediction using prior frame residual |
US10368083B2 (en) | 2016-02-15 | 2019-07-30 | Qualcomm Incorporated | Picture order count based motion vector pruning |
WO2017143467A1 (en) | 2016-02-22 | 2017-08-31 | Mediatek Singapore Pte. Ltd. | Localized luma mode prediction inheritance for chroma coding |
WO2017147765A1 (en) | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Methods for affine motion compensation |
US10623774B2 (en) | 2016-03-22 | 2020-04-14 | Qualcomm Incorporated | Constrained block-level optimization and signaling for video coding tools |
US10834419B2 (en) | 2016-04-13 | 2020-11-10 | Qualcomm Incorporated | Conformance constraint for collocated reference index in video coding |
CN105976395B (zh) | 2016-04-27 | 2018-11-09 | 宁波大学 | 一种基于稀疏表示的视频目标跟踪方法 |
WO2017195554A1 (ja) | 2016-05-13 | 2017-11-16 | シャープ株式会社 | 予測画像生成装置、動画像復号装置、および動画像符号化装置。 |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
US10560712B2 (en) | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
KR20180136555A (ko) | 2016-06-03 | 2018-12-24 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측 방법 및 장치 |
JP6938612B2 (ja) | 2016-07-12 | 2021-09-22 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 画像復号方法、画像符号化方法、及び非一時的なコンピュータ可読の記録媒体 |
US11503305B2 (en) | 2016-08-03 | 2022-11-15 | Kt Corporation | Method and apparatus for processing video signal |
US11638027B2 (en) | 2016-08-08 | 2023-04-25 | Hfi Innovation, Inc. | Pattern-based motion vector derivation for video coding |
CN116567212A (zh) | 2016-08-11 | 2023-08-08 | Lx 半导体科技有限公司 | 编码/解码设备以及发送图像数据的设备 |
US10609423B2 (en) | 2016-09-07 | 2020-03-31 | Qualcomm Incorporated | Tree-type coding for video coding |
US10812791B2 (en) | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
US10631002B2 (en) | 2016-09-30 | 2020-04-21 | Qualcomm Incorporated | Frame rate up-conversion coding mode |
CN116866564A (zh) | 2016-10-04 | 2023-10-10 | 株式会社Kt | 用于处理视频信号的方法和装置 |
CN117221575A (zh) | 2016-10-04 | 2023-12-12 | 英迪股份有限公司 | 图像解码方法、图像编码方法以及发送比特流的方法 |
KR20190053238A (ko) | 2016-10-06 | 2019-05-17 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN117528108A (zh) | 2016-11-28 | 2024-02-06 | 英迪股份有限公司 | 图像编码方法、图像解码方法及用于传送比特流的方法 |
CN109983773A (zh) | 2016-11-29 | 2019-07-05 | 联发科技股份有限公司 | 用于合并模式推导的视频编解码方法和装置 |
US10681370B2 (en) | 2016-12-29 | 2020-06-09 | Qualcomm Incorporated | Motion vector generation for affine motion model for video coding |
US11394976B2 (en) | 2017-01-03 | 2022-07-19 | Lg Electronics Inc. | Inter-prediction method and apparatus in image coding system |
US10931969B2 (en) | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701390B2 (en) | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
US11277635B2 (en) | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
US10708591B2 (en) | 2017-03-20 | 2020-07-07 | Qualcomm Incorporated | Enhanced deblocking filtering design in video coding |
US10582209B2 (en) | 2017-03-30 | 2020-03-03 | Mediatek Inc. | Sub-prediction unit temporal motion vector prediction (sub-PU TMVP) for video coding |
US20180310017A1 (en) | 2017-04-21 | 2018-10-25 | Mediatek Inc. | Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding |
US10742975B2 (en) | 2017-05-09 | 2020-08-11 | Futurewei Technologies, Inc. | Intra-prediction with multiple reference lines |
US10523934B2 (en) | 2017-05-31 | 2019-12-31 | Mediatek Inc. | Split based motion vector operation reduction |
KR102438181B1 (ko) | 2017-06-09 | 2022-08-30 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
GB2563943B (en) | 2017-06-30 | 2021-02-24 | Canon Kk | Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory accesses |
CN117478884A (zh) | 2017-07-03 | 2024-01-30 | Vid拓展公司 | 用于视频编解码的设备、方法 |
KR102595689B1 (ko) * | 2017-09-29 | 2023-10-30 | 인텔렉추얼디스커버리 주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN118075455A (zh) | 2017-09-29 | 2024-05-24 | Lx 半导体科技有限公司 | 图像编码/解码方法、存储介质及图像数据的发送方法 |
RU2741507C1 (ru) | 2017-10-09 | 2021-01-26 | Нокиа Текнолоджиз Ой | Устройство и способ для кодирования и декодирования видео |
WO2019078664A1 (ko) | 2017-10-20 | 2019-04-25 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
KR20200095463A (ko) * | 2017-11-01 | 2020-08-10 | 브이아이디 스케일, 인크. | 병합 모드를 위한 서브-블록 모션 도출 및 디코더측 모션 벡터 정교화 |
US10931963B2 (en) | 2017-12-07 | 2021-02-23 | Tencent America LLC | Method and apparatus for video coding |
US11388398B2 (en) | 2018-01-11 | 2022-07-12 | Qualcomm Incorporated | Video coding using local illumination compensation |
US11172229B2 (en) | 2018-01-12 | 2021-11-09 | Qualcomm Incorporated | Affine motion compensation with low bandwidth |
CN111630855B (zh) | 2018-01-16 | 2024-06-21 | Vid拓展公司 | 基于局部照明补偿的运动补偿双向预测 |
CN108347616B (zh) | 2018-03-09 | 2020-02-14 | 中南大学 | 一种基于可选时域运动矢量预测的深度预测方法及装置 |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
WO2019204234A1 (en) * | 2018-04-15 | 2019-10-24 | Arris Enterprises Llc | Unequal weight planar motion vector derivation |
US11115660B2 (en) * | 2018-04-30 | 2021-09-07 | Mediatek Inc. | Method and apparatus of syntax interleaving for separate coding tree in video coding |
WO2019229683A1 (en) | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
WO2019234613A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partition tree with partition into 3 sub-blocks by horizontal and vertical splits |
WO2019234674A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Integer motion compensation |
CN113115046A (zh) | 2018-06-21 | 2021-07-13 | 北京字节跳动网络技术有限公司 | 分量相关的子块分割 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
WO2019244116A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Border partition in video coding |
JP7171770B2 (ja) * | 2018-06-28 | 2022-11-15 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 動きベクトル精密化および動き補償のためのメモリアクセスウィンドウおよびパディング |
US10863193B2 (en) * | 2018-06-29 | 2020-12-08 | Qualcomm Incorporated | Buffer restriction during motion vector prediction for video coding |
CN110662063B (zh) | 2018-06-29 | 2020-12-15 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置和计算机可读存储介质 |
KR20210016054A (ko) * | 2018-06-30 | 2021-02-10 | 김기백 | 영상 부호화/복호화 방법 및 장치 |
KR20210024487A (ko) | 2018-07-01 | 2021-03-05 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 효율적인 아핀 병합 모션 벡터 유도 |
TW202007164A (zh) | 2018-07-15 | 2020-02-01 | 大陸商北京字節跳動網絡技術有限公司 | 跨分量運動資訊匯出 |
US10897617B2 (en) * | 2018-07-24 | 2021-01-19 | Qualcomm Incorporated | Rounding of motion vectors for adaptive motion vector difference resolution and increased motion vector storage precision in video coding |
US10958934B2 (en) | 2018-07-27 | 2021-03-23 | Tencent America LLC | History-based affine merge and motion vector prediction |
BR122021009784A2 (pt) | 2018-09-10 | 2021-07-13 | Lg Electronics Inc. | Método e aparelho de decodificação de imagens com base em predição de movimento afim usando lista de candidatos a mvp afim no sistema de codificação de imagens |
GB201815443D0 (en) | 2018-09-21 | 2018-11-07 | Canon Kk | Video coding and decoding |
GB2579763B (en) | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
US11997279B2 (en) | 2018-10-10 | 2024-05-28 | Interdigital Vc Holdings, Inc. | Affine mode signaling in video encoding and decoding |
WO2020084552A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on spatial neighboring block in sub-block motion vector prediction |
CN111107354A (zh) | 2018-10-29 | 2020-05-05 | 华为技术有限公司 | 一种视频图像预测方法及装置 |
CN113056917B (zh) | 2018-11-06 | 2024-02-06 | 北京字节跳动网络技术有限公司 | 为视频处理使用具有几何分割的帧间预测 |
KR102660160B1 (ko) | 2018-11-22 | 2024-04-24 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
US11032574B2 (en) * | 2018-12-31 | 2021-06-08 | Tencent America LLC | Method and apparatus for video coding |
US10742972B1 (en) * | 2019-03-08 | 2020-08-11 | Tencent America LLC | Merge list construction in triangular prediction |
US11233988B2 (en) | 2019-05-17 | 2022-01-25 | Qualcomm Incorporated | Reference picture resampling and inter-coding tools for video coding |
US11140402B2 (en) | 2019-09-20 | 2021-10-05 | Tencent America LLC | Signaling of reference picture resampling with constant window size indication in video bitstream |
CN114762330A (zh) | 2019-09-22 | 2022-07-15 | 北京字节跳动网络技术有限公司 | 视频的子图片编码和解码 |
US11477471B2 (en) | 2020-05-20 | 2022-10-18 | Tencent America LLC | Techniques for signaling combination of reference picture resampling and spatial scalability |
-
2020
- 2020-08-13 EP EP20852949.5A patent/EP3997877A4/en active Pending
- 2020-08-13 CN CN202080056882.7A patent/CN114208184A/zh active Pending
- 2020-08-13 JP JP2022508597A patent/JP7481430B2/ja active Active
- 2020-08-13 KR KR1020227001812A patent/KR20220043109A/ko not_active Application Discontinuation
- 2020-08-13 BR BR112022002687A patent/BR112022002687A2/pt unknown
-
2021
- 2021-12-17 US US17/554,294 patent/US11871025B2/en active Active
-
2023
- 2023-12-20 JP JP2023214836A patent/JP2024037992A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017528984A (ja) * | 2014-08-22 | 2017-09-28 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 統合されたイントラブロックコピーおよびインター予測 |
US20160100189A1 (en) * | 2014-10-07 | 2016-04-07 | Qualcomm Incorporated | Intra bc and inter unification |
US20160337662A1 (en) * | 2015-05-11 | 2016-11-17 | Qualcomm Incorporated | Storage and signaling resolutions of motion vectors |
Non-Patent Citations (2)
Title |
---|
RAJAN JOSHI, ET AL.: ""Screen content coding test model 7 (SCM 7)"", DOCUMENT: JCTVC-W1014, [ONLINE], vol. JCTVC-W1014 (version 1), JPN6023007009, 23 May 2016 (2016-05-23), pages 1 - 14, ISSN: 0004996769 * |
XIAOZHONG XU, ET AL.: ""On stored decoded motion vector resolution"", DOCUMENT: JCTVC-U0107, [ONLINE], vol. JCTVC-U0107 (version 2), JPN6023007008, 19 June 2015 (2015-06-19), pages 1 - 7, ISSN: 0004996770 * |
Also Published As
Publication number | Publication date |
---|---|
US20220109868A1 (en) | 2022-04-07 |
EP3997877A1 (en) | 2022-05-18 |
JP2024037992A (ja) | 2024-03-19 |
BR112022002687A2 (pt) | 2022-09-27 |
CN114208184A (zh) | 2022-03-18 |
EP3997877A4 (en) | 2023-05-24 |
KR20220043109A (ko) | 2022-04-05 |
JP7481430B2 (ja) | 2024-05-10 |
US11871025B2 (en) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7319365B2 (ja) | サブブロックに基づくインター予測のための調整方法 | |
CN114467308B (zh) | 视频处理中的参考图片重采样 | |
JP7481430B2 (ja) | サブブロックに基づくインター予測における動き精度 | |
CN113906738A (zh) | 仿射模式的自适应运动矢量差分辨率 | |
CN113261292B (zh) | 基于子块的帧间预测中默认运动候选的构造方法 | |
WO2021027862A1 (en) | Motion precision in sub-block based inter prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240105 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7481430 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |