JP2022548935A - 適応ループフィルタリングにおけるパディングプロセス - Google Patents
適応ループフィルタリングにおけるパディングプロセス Download PDFInfo
- Publication number
- JP2022548935A JP2022548935A JP2022517725A JP2022517725A JP2022548935A JP 2022548935 A JP2022548935 A JP 2022548935A JP 2022517725 A JP2022517725 A JP 2022517725A JP 2022517725 A JP2022517725 A JP 2022517725A JP 2022548935 A JP2022548935 A JP 2022548935A
- Authority
- JP
- Japan
- Prior art keywords
- samples
- video
- block
- current block
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 391
- 230000008569 process Effects 0.000 title claims abstract description 119
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 25
- 238000001914 filtration Methods 0.000 title claims description 156
- 238000012545 processing Methods 0.000 claims abstract description 71
- 238000006243 chemical reaction Methods 0.000 claims abstract description 40
- 230000002123 temporal effect Effects 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 205
- 239000011449 brick Substances 0.000 description 76
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 47
- 241000023320 Luma <angiosperm> Species 0.000 description 44
- 239000000872 buffer Substances 0.000 description 28
- 230000009466 transformation Effects 0.000 description 19
- 239000013598 vector Substances 0.000 description 18
- 239000010432 diamond Substances 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 229910003460 diamond Inorganic materials 0.000 description 10
- 238000003672 processing method Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 239000013074 reference sample Substances 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 238000010187 selection method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 101150114515 CTBS gene Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本明細書は、ビデオコーディング技術に関係がある。具体的に、それは、特に非線形適応ループフィルタのためのピクチャ/スライス/タイル/ブリック境界及び仮想境界コーディングに関係がある。それは、HEVCのような既存のビデオコーディング標準規格、又はまとめられるべき標準規格(Versatile Video Coding)に適用されてもよい。それはまた、将来のビデオコーディング標準規格又はビデオコーデックにも適用可能であり得る。
ビデオコーディング標準規格は、よく知られているITU-T及びISO/IEC標準規格の開発を通じて主に発展してきた。ITU-TはH.261及びH.263を作り出し、ISO/IECはMPEG-1及びMPEG-4 Visualを作り出し、2つの組織は共同でH.262/MPEG-2 Video及びH264/MPEG-4 Advanced Video Coding(AVC)及びH.265/HEVC標準規格を作り出した。H.262以降、ビデオコーディング標準規格は、時間予測に変換コーディングをプラスしたものが利用されるハイブリッド型ビデオコーディング構造に基づいている。HEVCを超える将来のビデオコーディング技術を探求するために、Joint Video Exploration Team(JVET)が2015年にVCEG及びMPEGによって共同で設立された。それ以降、多くの新しい手法は、JVETによって採用され、Joint Exploration Model(JEM)と呼ばれる参照ソフトウェアに置かれてきた。2018年4月に、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間で、JVETが、HEVCと比較して50%のビットレート低減を目標とするVVC標準規格を検討するために作られた。
カラーモデル(又はカラーシステム)としても知られている色空間は、数字の順序組(tuples)として、通常は、3又は4つの値又は色成分(例えば、RGB)として、色の範囲を簡単に記述する抽象数学モデルである。基本的には、色空間は、座標系及び部分空間の精緻化(elaboration)である。
3つのY’CbCt成分の夫々が同じサンプルレートを有しているので、クロマサブサンプリングは存在しない。このスキームは、ハイエンドのフィルムスキャナ及び映画のポストプロダクションで時々使用される。
2つのクロマ成分はルーマのサンプルレートの半分でサンプリングされ、水平クロマ解像度は半分になる。これは、圧縮されていないビデオ信号のバンド幅を3分の1に低減するが、視覚的な違いはほとんど全くない。
4:2:0では、水平サンプリングは4:1:1と比べて2倍になるが、Cb及びCrチャネルがこのスキームでは夫々交互のラインでしかサンプリングされないということで、垂直解像度は半分になる。よって、データレートは同じである。Cb及びCrは、水平方向及び垂直方向の両方で夫々2倍でサブサンプリングされる。4:2:0スキームには3つのバリエーションがあり、水平方向及び垂直方向の配置が異なる。
ピクチャは、1つ以上のタイル行及び1つ以上のタイル列に分けられる。タイルは、ピクチャの長方形領域をカバーするCTUの連続である。
M×N(通常は、HEVC/VVCで定義されるように、MはNに等しい。)によって示されるCTB/LCUサイズを仮定して、ピクチャ(あるいは、タイル若しくはスライス又は他の種類のタイプ)の境界(ピクチャ境界が例とされる。)に位置しているCTBについて、K×Lのサンプルがピクチャ境界内にあり、このとき、K<M又はL<Nのどちらかである。図4A~4Cに表されているようなCTBについて、CTBサイズは依然としてM×Nに等しいが、CTBの下境界/右境界はピクチャの外にある。
図5は、3つのインループフィルタリングブロック、つまり、デブロッキングフィルタ(Deblocking Filter,DF)、サンプル適応オフセット(Sample Adaptive Offset,SAO)、及びALFを含む、VVCのエンコーダブロック図の例を示す。予め定義されたフィルタを使用するDFとは異なり、SAO及びALFは、オフセット及びフィルタ係数を通知するコード化されたサイド情報を用いて、夫々、オフセットを加えることによって、及び有限インパルス応答(Finite Impulse Response,FIR)フィルタを適用することによって、現在のピクチャの元のサンプルと再構成されたサンプルとの間の平均二乗誤差を低減するように、現在のピクチャの元のサンプルを利用する。ALFは、各ピクチャの最後の処理段に位置し、前の段で生じたアーチファクトを捕捉及び修正しようと試みるツールと見なせる。
DBの入力は、インループフィルタ前の再構成されたサンプルである。
フィルタリングは8×8ブロック境界に適用される。更に、それは、変換ブロック境界又はコーディングサブブロック境界であるべきである(例えば、アフィン動き予測、ATMVPの利用による。)。そのような境界ではないものについては、フィルタは無効にされる。
変換ブロック境界/コーディングサブブロック境界については、それが8×8グリッドに位置している場合に、フィルタリングされてもよく、このエッジに対するbS[xDi][yDj](ここで、[xDi][yDj]は座標を表す。)の設定は、表1及び表2で夫々定義される。
このサブセクションでは、デブロッキング決定プロセスが記載される。
bSidePisLargeBlk=((エッジタイプが垂直であり、p0が幅>=32であるCUに属する)||(エッジタイプが水平であり、p0が高さ>=32であるCUに属する))?TRUE:FALSE
bSideQisLargeBlk=((エッジタイプが垂直であり、q0が幅>=32であるCUに属する)||(エッジタイプが水平であり、q0が高さ>=32であるCUに属する))?TRUE:FALSE
条件1=(bSidePisLargeBlk||bSideQisLargeBlk)?TRUE:FALSE
- dp0、dp3、dq0、dq3が、HEVCで見られるように、最初に導出される
- if(pサイドが32以上である)
dp0=(dp0+Abs(p50-2×p40+p30)+1)>>1
dp3=(dp3+Abs(p53-2×p43+p33)+1)>>1
- if(qサイドが32以上である)
dq0=(dq0+Abs(q50-2×q40+q30)+1)>>1
dq3=(dq3+Abs(q53-2×q43+q33)+1)>>1
条件2=(d<β)?TRUE:FALSE
このとき、d=dp0+dq0+dp3+dq3である。
dpqが、HEVCで見られるように、導出される。
HEVCで見られるように導出されたsp3=Abs(p3-p0)
if(pサイドが32以上である)
if(Sp==5)
sp3=(sp3+Abs(p5-p3)+1)>>1
else
sp3=(sp3+Abs(p7-p3)+1)>>1
HEVCで見られるように導出されたsq3=Abs(q0-q3)
if(qサイドが32以上である)
if(Sp==5)
sq3=(sq3+Abs(q5-q3)+1)>>1
else
sq3=(sq3+Abs(q7-q3)+1)>>1
境界のどちらか一方の側のサンプルが大きいブロックに属する場合に、双線形フィルタが使用される。大きいブロックに属するサンプルは、垂直エッジについては、幅>=32である場合、及び水平エッジについては、高さ>=32である場合として定義される。
pi’=(fi*Middles,t+(64-fi)*PS+32)>>6),pi±tcPDiにクリップされる
qj’=(gj*Middles,t+(64-gj)*QS+32)>>6),qj±tcPDjにクリップされる
ここで、tcPDi及びtcPDjの項は、セクション2.4.7で記載される位置依存のクリッピングであり、gj、fi、Middles,t、PS、及びQSは、以下で与えられる。
クロマ強フィルタは、ブロック境界の両側で使用される。ここで、クロマフィルタは、クロマエッジの両側が8(クロマ位置)以上であり、3つの条件による次の決定が満足される場合に、選択される。第1の条件は、境界強さ及び大きいブロックの決定に関する。提案されているフィルタは、ブロックエッジを直角に横断するブロック幅又は高さがクロマサンプル領域で8以上である場合に、適用され得る。第2及び第3の条件は、基本的に、HEVCルーマデブロッキング決定の場合と同じであり、夫々、オン/オフ決定及び強フィルタ決定である。
次いで、dが、HEVCルーマデブロッキングで見られるように導出される。
dpqが、HEVCで見られるように、導出される。
HEVCで見られるように導出されたsp3=Abs(p3-p0)
HEVCで見られるように導出されたsq3=Abs(q0-q3)
クロマのための次の強デブロッキングフィルタが定義される:
p2’=(3×p3+2×p2+p1+p0+q0+4)>>3
p1’=(2×p3+p2+2×p1+p0+q0+q1+4)>>3
p0’=(p3+p2+p1+2×p0+q0+q1+q2+4)>>3
位置依存のクリッピングtcPDは、境界にある7、5、及び3つのサンプルを変更するものである強くかつ長いフィルタを用いるルーマフィルタリングプロセスの出力サンプルに適用される。量子化誤差分布を仮定して、サンプルのクリッピング値を増加させることが提案される。これは、より高い量子化ノイズを有することが予想されるので、真のサンプル値からの再構成されたサンプル値のより高い偏差を有することが予想される。
Tc7={6,5,4,3,2,1,1};Tc3={6,4,2};
tcPD=(Sp==3)?Tc3:Tc7;
tcQD=(Sq==3)?Tc3:Tc7;
Tc3={3,2,1};
p”i=Clip3(p’i+tcPi,p’i-tcPi,p’i);
q”j=Clip3(q’j+tcQj,q’j-tcQj,q’j);
ここで、p’i及びq’jは、フィルタリングされたサンプル値であり、p”i及びq”jは、クリッピング後の出力サンプル値であり、tcPi及びtcQjは、VVCのtcパラメータ並びにtcPD及びtcQDから導出されるクリッピング閾値である。関数Clip3は、VVCで定められているクリッピング関数である。
長いフィルタ及びサブブロックデブロッキングの両方を使用して並列フレンドリデブロッキングを可能にするために、長いフィルタは、長いフィルタについてルーマ制御で示されるように、サブブロックデブロッキング(AFFINE又はATMVP又はDMVR)を使用する側で多くても5つのサンプルしか変更しないよう制限される。更に、サブブロックデブロッキングは、CU又は暗黙的なTU境界に近い8×8グリッド上のサブブロック境界が夫々の側で多くても2つのサンプルしか変更しないよう制限されるように、調整される。
SAOの入力は、DB後の再構成されたサンプルである。SAOの概念は、最初に領域サンプルを、選択された分類子を用いて複数のカテゴリに分類し、カテゴリごとにオフセットを取得し、それからそのオフセットをカテゴリの各サンプルに加えることによって、領域の平均サンプル歪みを低減することであり、このとき、領域の分類子インデックス及びオフセットはビットストリームでコード化される。HEVC及びVVCでは、領域(SAOパラメータ通知のためのユニット)は、CTUであるよう定義される。
DBの入力は、DB及びSAOの後の再構成されたサンプルである。サンプル分類及びフィルタリングプロセスは、DB及びSAOの後の再構成されたサンプルに基づく。
いくつかの実施形態において、最大3つのダイヤモンドフィルタ形状(図9に図示。)がルーマ成分のために選択され得る。インデックスは、ルーマ成分に使用されるフィルタ形状を示すようピクチャレベルで通知される。各正方形はサンプルを表し、Ci(iは0~6(左)、0~12(中央)、0~20(右)である。)は、サンプルに適用される係数を表す。ピクチャのクロマ成分については、5×5ダイヤモンド形状が常に使用される。
図10は、5×5ダイヤモンドフィルタサポートのための相対座標を示す(左:対角、中央:垂直フリップ、右:回転)。
いくつかの実施形態において、GALFフィルタパラメータは、最初のCTUについて、例えば、スライスヘッダの後かつ最初のCTUのSAOパラメータの前に、通知される。最大25組のルーマフィルタ係数が通知され得る。ビットオーバヘッドを低減するために、異なる分類のフィルタ係数がマージされ得る。また、参照ピクチャのGALF係数は記憶されて、現在のピクチャのGALF係数として再利用することを可能にされる。現在のピクチャは、参照ピクチャについて記憶されたGALF係数を使用することを選択し、GALF係数の通知をバイパスしてもよい。この場合に、参照ピクチャの1つへのインデックスのみが通知され、指示された参照ピクチャの記憶されているGALF係数が現在のピクチャに受け継がれる。
デコーダ側で、GALFがブロックに対して有効にされる場合に、そのブロック内の各サンプルR(i,j)はフィルタリングされ、以下で示されるサンプル値R’(i,j)が得られる。ここで、Lは、フィルタ長さを表し、fm,nは、フィルタ係数を表し、f(k、l)は、復号されたフィルタ係数を表す。
[2.7.1 例となるGALF]
いくつかの実施形態において、適応ループフィルタのフィルタリングプロセスは、次のように実行される:
(1)適応フィルタ形状は削除される。7×7フィルタ形状のみがルーマ成分に認められ、5×5フィルタがクロマ成分に認められる。
(2)スライス/ピクチャレベルからCTUレベルに移動されたALFパラメータの通知。
(3)クラスインデックスの計算は2×2ではなく4×4レベルで実行される。加えて、いくつかの実施形態において、ALF分類のためのサブサンプリングされたラプラシアン計算法が利用される。より具体的には、1つのブロック内の各サンプルについて水平/垂直/45°対角/135°対角の各傾きを計算することは不要である。代わりに、1:2サブサンプリングが利用される。
[2.8.1 フィルタリングの再定式化]
式(11)は、次の式で、コーディング効率に影響を及ぼさずに、再定式化され得る:
ハードウェア及び組み込みソフトウェアで、ピクチャベースの処理は、その高いピクチャバッファ要件のために、実際には受け入れられない。オンチップのピクチャバッファの使用は、非常に高価であり、オフチップのピクチャバッファの使用は、外部メモリアクセス、電力消費量、及びデータアクセスレイテンシを大幅に増大させる。従って、DF、SAO、及びALFは、実際の製品ではピクチャベースからLCUベースの復号化に変更されることになる。LCUベースの処理がDF、SAO、及びALFに使用される場合に、復号化プロセス全体が、複数のLCUの並列処理のためにLCUパイプライン方式によりラスタスキャンでLCUごとに行われ得る。この場合に、1つのLCU行の処理に上部LCU行からのピクセルが必要とされるので、DF、SAO、及びALFのためにラインバッファが必要とされる。オフチップのラインバッファ(例えば、DRAM)が使用される場合には、外部メモリバンド幅及び電力消費量が増える。オンチップのラインバッファ(例えば、SRAM)が使用される場合には、チップ面積が増える。従って、ラインバッファはピクチャバッファよりも既にずっと小さいが、依然として、ラインバッファを低減することが望まれている。
- ラインK~N(水平DFピクセル):4ライン
- ラインD~J(SAOフィルタリングされたピクセル):7ライン
- ラインJとラインKとの間のSAOエッジオフセット分類子の値:0.25ライン。
図15A~15Bは、仮想境界がCTU境界より4ライン上にある(N=4)場合の変更されたブロック分類を表す。図15Aに表されているように、4×4ブロックがラインGから始まる場合に、ブロック分類はラインEからJまでのみを使用する。しかし、ラインJに属するサンプルのラプラシアン傾き計算は、もう1つ下のライン(ラインK)を必要とする。従って、ラインKはラインJを用いてパディングされる。
図16A~16Cに表されているように、フィルタの切り捨てられたバージョン(truncated version)は、仮想境界に近いラインに属するルーマサンプルのフィルタリングのために使用される。図16Aを例とすると、図13に表されているラインMをフィルタリングするときに、例えば、7×7ダイヤモンドの中央のサンプルがラインMにあり、VB(太線で表される。)の上にある1つのラインにアクセスする必要がある。この場合に、VBの上のサンプルは、VBの直ぐ下のサンプルからコピーされる。例えば、実線のP0サンプルが、上の破線の位置にコピーされる。対称的に、実線のP3サンプルも、破線の位置のサンプルが利用可能であっても、その破線の位置の直ぐ下にコピーされる。コピーされたサンプルは、ルーマフィルタリングプロセスでのみ使用される。
非線形ALFがCTBについて無効にされる場合に、例えば、式(14)のクリッピングパラメータk(i,j)は(1<<Bitdepth)に等しく、パディングプロセスは、フィルタ係数を変更することによって置換され得る(別名、変更された係数に基づいたALF(Modified-coeff based ALF,MALF))。例えば、ラインL/Iのサンプルをフィルタリングするとき、フィルタ係数c5はc5’に変更され、この場合に、ルーマサンプルを実線P0Aから破線P0Aへ及び実線P3Bから破線P3Bへコピーすることは不要である(図18A)。この場合に、両側パディング及びMALFは、フィルタリングされるべき現在のサンプルが(x,y)に位置していると仮定すると、同じ結果をもたらすことになる。
現在のVVC設計に従って、1つのCTBの下境界がスライス/ブリックの下境界である場合に、ALF仮想境界処理方法は無効にされる。例えば、1つのピクチャは、図19に表されているように、複数のCTU及び2つのスライスに分割される。
- CTBの下境界がピクチャの下境界である(例えば、CTU-D)場合に、それは、上のCTU行からの4ライン及び現在のCTU内の全ラインを含む(M+4)×Mブロックを処理する。
- そうでない場合に、CTBの下境界がスライス(又はブリック)の下境界であり(例えば、CTU-C)、loop_filter_across_slice_enabled_flag(又はloop_filter_across_bricks_enabled_flag)が0に等しいならば、それは、上のCTU行からの4ライン及び現在のCTU内の全ラインを含む(M+4)×Mブロックを処理する。
- そうでない場合に、CTU/CTBがスライス/ブリック/タイル内の最初のCTU行内にある(例えば、CTU-A)ならば、それは、最後の4ラインを除くM×(M-4)ブロックを処理する。
- そうでない場合に、CTU/CTBがスライス/ブリック/タイルの最初のCTU行内になく(例えば、CTU-B)、スライス/ブリック/タイルの最後のCTU行内にないならば、それは、上のCTU行からの4ラインを含み、現在のCTU内の最後の4ラインを除くM×Mブロックを処理する。
VTM-5.0における水平ラップアラウンド(wrap around)動き補償は、正距円筒図法(Equi-Rectangular,ERP)投影フォーマットでの再構成された360度ビデオの視覚品質を改善するよう設計された360固有コーディングツールである。従来の動き補償では、動きベクトルが参照ピクチャのピクチャ境界を越えるサンプルを参照する場合に、繰り返しパディングを適用して、対応するピクチャ境界上の最近傍からコピーすることにより、範囲外のサンプルの値を導き出す。360度ビデオについては、繰り返しパディングのこの方法は適切ではなく、再構成されたビューポートビデオにおいて、「シームアーチファクト」(seam artifacts)と呼ばれる視覚アーチファクトを引き起こす可能性がある。360度ビデオは球体で捕捉され、本質的に「境界」がないため、投影領域において参照ピクチャの境界の外にある参照サンプルは、球形の領域内の隣接するサンプルから常に取得され得る。一般的な投影フォーマットについては、2Dから3D及び3Dから2Dの座標変換、並びに分数サンプル位置のサンプル補間が必要であるから、球形の領域で対応する隣接サンプルを導出するのは難しい場合がある。この問題は、ERP投影フォーマットの左右の境界についてははるかに単純である。これは、左側のピクチャ境界の外側の球形の隣接物が右側のピクチャ境界の内側のサンプルから取得可能であり、その逆も同様であるからである。
いくつかの実施形態において、次の特徴が含まれる:
1)ピクチャはサブピクチャに分割され得る。
2)サブピクチャの存在の指示は、サブピクチャの他のシーケンスレベル情報とともに、SPSで示される。
3)サブピクチャが復号化プロセス(インループフィルタリング動作を除く。)でピクチャとして扱われるかどうかは、ビットストリームによって制御可能である。
4)サブピクチャ境界にわたるインループフィルタリングが無効にされるかどうかは、サブピクチャごとにビットストリームによって制御可能である。DBF、SAO、及びALFプロセスは、サブピクチャ境界にわたるインループフィルタリング動作の制御のために更新される。
5)簡単のために、開始点として、サブピクチャの幅、高さ、水平オフセット、及び垂直オフセットが、SPSでルーマサンプルの単位で通知される。サブピクチャ境界は、スライス境界であるよう制約される。
6)復号化プロセス(インループフィルタリング動作を除く。)でピクチャとしてサブピクチャを扱うことは、coding_tree_unit( )シンタックスをわずかに更新することによって指定され、次の復号化プロセスに更新する:
○(高度(advanced))時間ルーマ動きベクトル予測のための導出プロセス
○ルーマサンプル双線形補間プロセス
○ルーマサンプル8-タップ補間フィルタリングプロセス
○クロマサンプル補間プロセス
7)サブピクチャIDはSPSで明示的に指定され、タイルグループヘッダに含まれて、VCL NALユニットを変更する必要なしにサブピクチャシーケンスの抽出を可能にする。
現在のVVC設計には、次の問題がある。
a.デコーダがスライス/ブリック/タイル境界を前もって知らない(低遅延アプリケーションなど)場合に、ALFラインバッファはリストアされる必要がある。ラインバッファ内の内容がALFフィルタリングに使用されるか否かは、現在のCTUがスライス/ブリック/タイル境界CTUでもあるかどうかに依存する。しかし、この情報は、次のスライス/ブリック/タイルが復号されるまで未知である。
b.デコーダがスライス/ブリック/タイル境界を前もって知っている場合に、デコーダは、パイプラインバブルを甘受するか(ほとんどない。)、あるいは、ALFラインバッファの使用を回避するために、64×64VDPUごとに68ラインの速度で常にALFを実行するか(オーバープロビジョン)、のどちらかが必要である。
a.一例で、ブロックの下境界が360度仮想境界であり、ALF仮想境界もこのブロックに適用されるならば、この場合に、360度仮想境界のためのパディング方法が最初に、360度仮想境界より下に仮想サンプルを生成するために適用され得る。その後に、360度仮想境界より下に位置しているこれらの仮想サンプルは、利用可能であるとして扱われる。また、ALF両側パディング方法が、図16A~Cに従って、更に適用されてもよい。例は、図25に表されている。
以下の列挙は、一般概念を説明するための例と見なされるべきである。挙げられている技術は、狭い意味で解釈されるべきではない。更に、これらの技術はどのように組み合わされてもよい。
a.代替的に、更に、この場合に、ALF仮想境界処理方法は無効にされてもよい。
a.一例で、applyVirtualBoundaryは、所与のCTU/CTBサイズについて、例えば、K×L(例えば、K=L=4)に等しいCTU/CTBサイズについて、常に偽にセットされる。
b.一例で、applyVirtualBoundaryは、K×L(例えば、K=L=8)以下又はそれよりも小さいCTU/CTBサイズについて、常に偽にセットされる。
c.代替的に、ALFは、4×4、8×8などの特定のCTU/CTBサイズについて、無効にされる。
a.一例で、ALF仮想境界処理方法は、CTBの下境界がビデオユニットの境界又は仮想境界である場合に、コーディングツリーブロック(CTB)について有効にされ得る(例えば、applyVirtualBoundaryは真にセットされる)。
i.代替的に、更に、下境界が下側ピクチャ境界でない場合に、又は下境界がピクチャの外にある場合に、上記の方法は有効にされる。
b.現在のコーディングツリーブロックの下境界がピクチャの下側仮想境界の1つであり、pps_loop_filter_across_virtual_boundaries_disabled_flagが1に等しい場合に、ALF仮想境界処理方法は依然として有効にされ得る(例えば、applyVirtualBoundaryは真にセットされる)。
c.一例で、CTBに対してALF仮想境界処理方法(applyVirtualBoundaryの値)を有効にすべきかどうかは、CTBの下境界とピクチャの下境界との間の関係にのみ依存し得る。
i.一例で、applyVirtualBoundaryは、CTBの下境界が、CTBを含むピクチャの下境界である場合又は下境界がピクチャの外にある場合にのみ、偽にセットされる。
ii.一例で、applyVirtualBoundaryは、CTBの下境界が、CTBを含むピクチャの下境界ではない場合に、真にセットされる。
d.一例で、図18A~18CのCTU-Cを復号するときに、M×M個のサンプルは、仮想境界の下にあるK個のラインを除いて、上のCTUからのK個のラインを用いて、フィルタリングされ得る。
a.代替的に、更に、通知されたloop_filter_across_bricks_enabled_flag/loop_filter_across_slices_enabled_flagは、ALFを除いた、デブロッキングフィルタ及びSAOのフィルタリングプロセスのみを制御し得る。
b.一例で、仮想サンプルは、他のサンプルに対してALFを行うよう、対応する位置にある再構成されたサンプルの代わりに使用されてもよい。
a.代替的に、更に、仮想境界の方法(例えば、両側パディング方法)は、インループフィルタリングのための境界にあるサンプルを処理するためにブロックに適用され得る。
b.代替的に、更に、上記の方法は、ブロックがビデオユニットの下境界に位置しているサンプルを含む場合に適用され得る。
c.一例で、1つのブロックのK個のラインを復号する場合に、K個のラインがブロックの仮想境界の下にあり(例えば、図17A~17BのCTU-Bでの最後のK個のライン)、ブロックの下境界がビデオユニットの下境界であるならば、仮想サンプルは、これらK個のラインの外にある他のサンプルの利用を回避するためにALF分類/フィルタリングプロセスで生成され得る。例えば、両側パディング方法が適用され得る。
i.代替的に、ALFは、それらの最後のK個のラインについて無効にされてもよい。
d.一例で、1つのブロックが複数の境界にある場合に、ALF分類に使用されるピクセル/サンプルは、これら複数の境界のいずれも横断しないように制限され得る。
i.一例で、あるサンプルについて、その特定の隣接サンプルが「利用不可能」である(複数の境界のいずれかを横切る)場合に、1つ又は全ての種類の傾き/方向性がそのサンプルに対して計算され得ない。
1.一例で、サンプルの傾きはゼロとして扱われ得る。
2.一例で、サンプルの傾きは「利用不可能」であるとして扱われてよく、ALF分類プロセスで導出された活動(例えば、セクション2.6.1.1の式(8)で定義される。)に加えられなくてもよい。
ii.一例で、ALF分類プロセスで導出された活動/方向性は、ALF分類プロセスで使用される部分的なサンプルのみが「利用可能」である(例えば、それらの境界のいずれも横切らない)場合に、係数によってスケーリングされ得る。
iii.一例で、境界ブロックについては、傾き/方向性がALF分類プロセスでN個のサンプルに対して計算される必要があり、かつ、傾きがM個のサンプルに対してのみ計算され得る、と仮定して(例えば、サンプルの特定の隣接サンプルが「利用可能」でない場合に、傾きはそれについては計算されなくてもよい。)、活動はN/Mを乗じられ得る。
1.代替的に、それは、N/Mに依存した係数を乗じられてもよい。例えば、数は、MN(Nは整数である。)であってもよく、例えば、M=2である。
e.一例で、M×N(例えば、現在の設計ではM=N=8,M列N行)ウィンドウ内の一部のサンプルの傾きが分類のために使用され得る。
i.例えば、現在のN1×N2(現在の設計ではN1=N2=4)ブロックについては、M×Nは、N1×N2ブロックの中心にある。
ii.一例で、いずれかの境界にわたるサンプルにアクセスする必要がないサンプルの傾きが使用され得る。
1.代替的に、更に、1つ又は複数の境界に位置しているサンプルの傾きを計算する場合に、現在のサンプルのいくつかの隣接サンプルが「利用不可能」であるならば、パディング(例えば、片側パディング)が実行され得る。
2.代替的に、更に、上にあるK(例えば、K=1,2)個の利用不可能なラインは、現在のサンプルがビデオユニット(例えば、スライス/ブリック/タイル/360度ビデオ仮想境界又はALF仮想境界)の上境界に位置している場合に、パディングされ得る。
3.代替的に、更に、左にあるK(例えば、K=1,2)個の利用不可能な列は、現在のサンプルがビデオユニットの左境界に位置している場合に、パディングされ得る。
4.代替的に、更に、右にあるK(例えば、K=1,2)個の利用不可能な列は、現在のサンプルがビデオユニットの右境界に位置している場合に、パディングされ得る。
5.代替的に、更に、下にあるK(例えば、K=1,2)個の利用不可能なラインは、現在のサンプルがビデオユニットの下境界に位置している場合に、パディングされ得る。
6.代替的に、更に、現在のサンプルがビデオユニットの上境界及び左境界に位置している場合に、上にあるK1(例えば、K1=1,2)個の利用不可能なラインが、最初に、M×(N+K1)ウィンドウを生成するようパディングされ得、次いで、左にあるK2(例えば、K2=1,2)個の利用不可能な列が、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
a.代替的に、左にあるK2(例えば、K2=1,2)個の利用不可能な列が、最初に、(M+K2)×Nウィンドウを生成するようパディングされ得、次いで、上にあるK1(例えば、K1=1,2)個の利用不可能なラインが、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
7.代替的に、更に、現在のサンプルがビデオユニットの上境界及び右境界に位置している場合に、上にあるK1(例えば、K1=1,2)個の利用不可能なラインが、最初に、M×(N+K1)ウィンドウを生成するようパディングされ得、次いで、右にあるK2(例えば、K2=1,2)個の利用不可能な列が、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
a.代替的に、右にあるK2(例えば、K2=1,2)個の利用不可能な列が、最初に、(M+K2)×Nウィンドウを生成するようパディングされ得、次いで、上にあるK1(例えば、K1=1,2)個の利用不可能なラインが、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
8.代替的に、更に、現在のサンプルがビデオユニットの下境界及び右境界に位置している場合に、下にあるK1(例えば、K1=1,2)個の利用不可能なラインが、最初に、M×(N+K1)ウィンドウを生成するようパディングされ得、次いで、右にあるK2(例えば、K2=1,2)個の利用不可能な列が、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
a.代替的に、右にあるK2(例えば、K2=1,2)個の利用不可能な列が、最初に、(M+K2)×Nウィンドウを生成するようパディングされ得、次いで、下にあるK1(例えば、K1=1,2)個の利用不可能なラインが、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
9.代替的に、更に、現在のサンプルがビデオユニットの下境界及び左境界に位置している場合に、下にあるK1(例えば、K1=1,2)個の利用不可能なラインが、最初に、M×(N+K1)ウィンドウを生成するようパディングされ得、次いで、左にあるK2(例えば、K2=1,2)個の利用不可能な列が、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
a.代替的に、左にあるK2(例えば、K2=1,2)個の利用不可能な列が、最初に、(M+K2)×Nウィンドウを生成するようパディングされ得、次いで、下にあるK1(例えば、K1=1,2)個の利用不可能なラインが、(M+K2)×(N+K1)ウィンドウを生成するようパディングされ得る。
10.代替的に、更に、パディングされたサンプルは、傾きを計算するために使用されてもよい。
iii.一例で、ビデオユニット(例えば、スライス/ブリック/タイル/360度ビデオ仮想境界又はALF仮想境界)の上/下境界にあるブロックについては、M×(N-C1)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上/下にあるC1個のラインの傾きは、分類において使用されない。
iv.一例で、ビデオユニットの左/右境界にあるブロックについては、(M-C1)×Nウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの左/右にあるC1個の列の傾きは、分類において使用されない。
v.一例で、ビデオユニットの上境界及び下境界にあるブロックについては、M×(N-C1-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上にあるC1個のライン及び下にあるC2個のラインの傾きは、分類において使用されない。
vi.一例で、ビデオユニットの上境界及び左境界にあるブロックについては、(M-C1)×(N-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上にあるC1個のライン及び左にあるC2個の列の傾きは、分類において使用されない。
vii.一例で、ビデオユニットの上境界及び右境界にあるブロックについては、(M-C1)×(N-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上にあるC1個のライン及び右にあるC2個の列の傾きは、分類において使用されない。
viii.一例で、ビデオユニットの下境界及び左境界にあるブロックについては、(M-C1)×(N-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの下にあるC1個のライン及び左にあるC2個の列の傾きは、分類において使用されない。
ix.一例で、ビデオユニットの下境界及び右境界にあるブロックについては、(M-C1)×(N-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの下にあるC1個のライン及び右にあるC2個の列の傾きは、分類において使用されない。
x.一例で、ビデオユニットの左境界及び右境界にあるブロックについては、(M-C1-C2)×Nウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの左にあるC1個の列及び右にあるC2個の列の傾きは、分類において使用されない。
xi.一例で、ビデオユニットの上境界、下境界及び左境界にあるブロックについては、(M-C3)×(N-C1-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上にあるC1個のライン、下にあるC2個のライン及び左にあるC3個の列の傾きは、分類において使用されない。
xii.一例で、ビデオユニットの上境界、下境界及び右境界にあるブロックについては、(M-C3)×(N-C1-C2)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの上にあるC1個のライン、下にあるC2個のライン及び右にあるC3個の列の傾きは、分類において使用されない。
xiii.一例で、ビデオユニットの左境界、右境界及び上境界にあるブロックについては、(M-C1-C2)×(N-C3)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの左にあるC1個の列、右にあるC2個の列、及び上にあるC3個のラインの傾きは、分類において使用されない。
xiv.一例で、ビデオユニットの左境界、右境界及び下境界にあるブロックについては、(M-C1-C2)×(N-C3)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの左にあるC1個の列、右にあるC2個の列、及び下にあるC3個のラインの傾きは、分類において使用されない。
xv.一例で、ビデオユニットの左境界、右境界、上境界及び下境界にあるブロックについては、(M-C1-C2)×(N-C3-C4)ウィンドウ内のサンプルの傾きが、ブロックの分類のために使用されてもよい。
1.代替的に、更に、M×Nウィンドウの左にあるC1個の列、右にあるC2個の列、上にあるC3個のライン、及び下にあるC4個のラインの傾きは、分類において使用されない。
xvi.一例で、C1、C2、C3及びC4は2に等しい。
xvii.一例で、傾き計算で必要とされる如何なる「利用不可能」な隣接サンプルを有さないサンプルの傾きが、使用され得る。
f.一例で、1つのラインが複数の境界にある(例えば、ラインと境界との間の距離が閾値に満たない)場合に、パディングプロセスは、それがいくつの境界に属し得るかにかかわらず一度しか実行されない。
i.代替的に、更に、いくつの隣接ラインがパディングされるべきであるかは、全ての境界に対する現在のラインの位置に依存し得る。
ii.例えば、いくつの隣接ラインがパディングされるべきであるかは、例えば、現在のラインが2つの境界内にあり、その2つの境界が上及び下である場合に、現在のラインと2つの境界との間の距離によって決定され得る。
iii.例えば、いくつの隣接ラインがパディングされるべきであるかは、例えば、現在のラインが2つの境界内にあり、その2つの境界が上及び下である場合に、現在のラインと最も近い境界との間の距離によって決定され得る。
iv.例えば、いくつの隣接ラインがパディングされるべきであるかは、境界ごとに独立して計算されてもよく、最大である1つが、最終的にパディングされたライン数として選択される。
v.一例で、いくつの隣接ラインがパディングされるべきであるかは、ラインの各側(例えば、上側及び下側)について決定され得る。
vi.一例で、両側パディング方法については、いくつの隣接ラインがパディングされるべきであるかは、両側に対してまとめて決定され得る。
vii.代替的に、更に、ALFによって使用される両側パディング方法が適用される。
g.一例で、1つのラインが複数の境界にあり、ラインの各側(例えば、上側及び下側)に少なくとも1つの境界がある場合に、ALFはそれに対して無効にされ得る。
h.一例で、現在のラインによって必要とされるパディングされたラインの数が閾値よりも多い場合に、ALFは現在のラインに対して無効にされ得る。
i.一例で、いずれかの側でのパディングされたラインの数が閾値よりも多い場合に、ALFは現在のラインに対して無効にされ得る。
ii.一例で、両側でのパディングされたラインの総数が閾値よりも多い場合に、ALFは現在のラインに対して無効にされ得る。
i.代替的に、更に、上記の方法は、ブロックがビデオユニットの下境界に位置しているサンプルを含み、ALFなどのインループフィルタリングがそのブロックに対して有効にされる場合に、適用され得る。
k.代替的に、更に、上記の方法は、特定の条件の下で、例えば、ブロックがビデオユニットの下境界に位置しているサンプルを含み、境界にわたるフィルタリングが認められない(例えば、pps_loop_filter_across_virtual_boundaries_disabled_flag/loop_filter_across_slices_enabled_flag/loop_filter_across_bricks_enabled_flagが真である)場合に、適用され得る。
j.提案されている方法は、垂直境界に位置しているサンプル/ブロックにも適用可能である。
a.一例で、サイドごとのパディングのためのラインの数は(M-min(D0,D1))にセットされる。
b.一例で、サイドごとのパディングのためのラインの数は(M-max(D0,D1))にセットされる。
c.上記の例について、D0、D1は、現在のラインと上側/下側境界との間の距離を表す。
d.上記の例について、Mは、ALF仮想境界が1つのCTUの下部からであるラインの数を表す。
a.一例で、種々の方法の選択は、フィルタリングされるサンプルの位置に依存し得る。
b.一例で、ビデオユニット(例えば、CTB)の下境界にあるサンプルは、それが他のサンプルに対してALFで使用される場合に、第1の方法により選択され得る。さもなれば(それが境界にない場合には)、第2の方法が選択される。
a.一例で、ALF分類プロセスによって必要とされるサンプルがVPDU境界の外に、又は仮想境界より下にある場合に、それは仮想サンプルで置換され得るか、あるいは、そのサンプルの分類結果は、利用可能なサンプルからのパディングなど、他のサンプルに関連付けられているものからコピーされ得る。
b.一例で、フィルタリングプロセスによって必要とされるサンプルがVPDU境界の外に、又は仮想境界より下にある場合に、それは、利用可能なサンプルからのパディングなど、仮想サンプルで置換され得る。
c.一例で、ALF仮想境界処理方法は、ブロックがVPDUの境界に位置しているサンプルを含む場合に、そのブロックに対して有効にされる(例えば、applyVirtualBoundaryは真にセットされる。)。
d.代替的に、水平VPDU境界を横断するサンプルの利用は、フィルタリングプロセスで無効にされ得る。
i.一例で、フィルタリングプロセスによって必要とされるサンプルが水平VPDU境界より下に、又は仮想境界より下にある場合に、それは、利用可能なサンプルからのパディングなど、仮想サンプルで置換され得る。
e.代替的に、垂直VPDU境界を横断するサンプルの利用は、フィルタリングプロセスで無効にされ得る。
i.一例で、フィルタリングプロセスによって必要とされるサンプルが垂直VPDU境界の外に、又は仮想境界より下にある場合に、それは、利用可能なサンプルからのパディングなど、仮想サンプルで置換され得る。
a.代替的に、更に、両側パディングの概念は、全てのインループフィルタの前の再構成されたサンプルからのサンプルをパディングすることにより、適用される。
i.一例で、フィルタサポートにおけるサンプルが全てのインループフィルタの前の再構成されたサンプルからである場合に、フィルタサポートにおける対称(例えば、原点、例えば、現在のサンプルに関して対称)なサンプルも、全てのインループフィルタの前の再構成されたサンプルを使用すべきである。
1.フィルタリングされるべき現在のサンプルの座標が(0,0)であり、(i,j)に位置しているサンプルが全てのインループフィルタの前の再構成されたサンプルであると仮定して、その場合に、(-i,-j)に位置しているサンプルが、全てのインループフィルタの前の再構成されたサンプルである。
2.フィルタリングされるべき現在のサンプルの座標が(x,y)であり、(x+i,y+j)に位置しているサンプルが全てのインループフィルタの前の再構成されたサンプルであると仮定して、その場合に、(x-i,y-j)に位置しているサンプルが、全てのインループフィルタの前の再構成されたサンプルである。
b.代替的に、更に、インループ再成形(別名、LMCS)が有効にされる場合に、全てのインループフィルタの前の再構成されたサンプルは、再成形された領域から変換された元の領域内のサンプルである。
a.一例で、サンプルが上記の方法でパディングされる必要があると仮定して、パディングを実行する代わりに、そのサンプルに関連したフィルタ係数は、ゼロであるようセットされる。
i.この場合に、フィルタサポートは、パディングされる必要があるサンプルを除くことによって、変更される。
ii.代替的に、更に、現在のサンプルを除く他のサンプルに適用されるフィルタ係数は変更されないままであるが、現在のサンプルに適用されるフィルタ係数は、((1<<C_BD)-パディングされる必要がないサンプルに適用される全てのフィルタ係数の和)のように、変更され得る。ここで、C_BDは、はフィルタ係数のビットデプスを示す。
1.図18A~図18Bを例とすると、ラインL及びIをフィルタリングする場合に、現在のサンプルに適用されるフィルタ係数c12は、((1<<C_BD)-2×(c4+c5+c6+c7+c8+c9+c10+c11))であるよう変更される。
b.一例で、サンプル(x1,y1)が上記の方法で(x2,y2)からパディングされると仮定して、パディングを実行する代わりに、非線形フィルタが有効又は無効にされるかどうかにかかわらず、(x1,x2)に関連したフィルタ係数が位置(x2,y2)のそれに加えられる。
i.代替的に、更に、(x2,y2)のクリッピングパラメータは、オン・ザ・フライで導出され得る。
1.一例で、それは、(x2,y2)についての復号されたクリッピングパラメータに等しくセットされ得る。
2.代替的に、それは、より大きい値又はより小さい値といった、(x1,y1)及び(x2,y2)についての復号されたクリッピングパラメータを入力とする関数の戻り値にセットされ得る。
a.一例で、異なるクリッピングパラメータ/フィルタ係数/フィルタサポートが、同じクラスインデックスを有しているサンプルに利用され得るが、それらのうちのいくつかについては、パディングされたサンプルにアクセスすることを必要とし、他はそうではない。
b.一例で、パディングされたサンプルにアクセスする必要があるサンプルのフィルタリングのためのクリッピングパラメータ/フィルタ係数/フィルタサポートは、CTU/領域/スライス/タイルレベルで通知され得る。
c.一例で、パディングされたサンプルにアクセスする必要があるサンプルのフィルタリングのためのクリッピングパラメータ/フィルタ係数/フィルタサポートは、パディングされたサンプルにアクセスする必要がないサンプルのフィルタリングのために使用されたものから導出され得る。
i.一例で、ビュレット9a又は9bが適用されてもよい。
a.例えば、「境界にある」との定義は、異なる色成分ごとに異なってもよい。一例で、ルーマサンプルは、それと下境界との間の距離がT1に満たない場合に、下境界にあり、クロマサンプルは、それと下境界との間の距離がT2に満たない場合に、下境界にある。T1及びT2は異なってもよい。
i.一例で、T1及びT2は、色フォーマットが4:4:4でない場合に異なってもよい。
a.一例で、第1のステップにおいて、スライス/タイル/ブリックのパディング方法(例えば、片側パディング)が最初に適用される。その後に、ALF仮想境界を扱うためのパディング方法(例えば、両側パディング方法)が、第2のステップの間に更に適用される。この場合に、第1のステップ後のパディングされたサンプルは、利用可能としてマークされ、ALF仮想境界プロセスでいくつのラインがパディングされるべきかを決定するために使用され得る。それらの境界に位置していないCTUを扱うための同じ規則(例えば、図16A~C)が利用される。
a.提案されている方法を適用する境界は水平境界であってよい。
b.提案されている方法を適用する境界は垂直境界であってよい。
a.一例で、「360仮想境界」がCTU境界と一致する場合に、提案されている方法は適用され得る。例えば、両側パディングのみが、「360仮想境界」にあるサンプルに対してALFで適用され得る。
b.一例で、「360仮想境界」がCTU境界と一致しない場合に、提案されている方法は適用され得ない。例えば、片側パディングのみが、「360仮想境界」にあるサンプルに対してALFで適用され得る。
c.一例で、「360仮想境界」の位置にかかわらず、「360仮想境界」にあるサンプルに対して、同じパディング方法がALFで適用され得る。
i.例えば、片側パディングが、「360仮想境界」にあるサンプルに対してALFで適用されてよい。
ii.例えば。両側パディングが、「360仮想境界」にあるサンプルに対してALFで適用されてよい。
d.一例で、複数の境界にあるサンプルについて、少なくとも1つの境界が「360仮想境界」であり、「360仮想境界」のうちの少なくとも1つがCTU境界と一致しない場合に、提案されている方法は適用されなくてもよい。
i.例えば、それらの複数の境界のうちのいずれかを横断するサンプルは、片側パディングによってパディングされ得る。
1.代替的に、更に、「仮想境界」がある場合に、両側パディングは、片側パディング後にALFで適用され得る。
e.一例で、2種類の境界の間に位置しているサンプルについては、それらのうちの1つが「360仮想境界」であり、他がそうではない場合に、パディングは、ALFプロセスで一度だけ呼び出される。
i.一例で、ALF仮想境界を扱うパディング方法(例えば、両側パディング方法)が呼び出され得る。
1.代替的に、ピクチャ(又はスライス/タイル/ブリック/サブピクチャ)境界を扱うパディング方法(例えば、片側パディング)が呼び出され得る。
ii.代替的に、2つ又は複数のパディングプロセスが順番に適用され得る。
1.一例で、ピクチャ(又はスライス/タイル/ブリック/サブピクチャ)境界を扱うパディング方法(例えば、片側パディング)が最初に適用されてよく、その後に、ALF仮想境界を扱うパディング方法(例えば、両側パディング方法)が更に呼び出されてもよい。
a.代替的に、更に、最初のパディング後のパディングされたサンプルは、第2のパディングプロセスで利用可能である。
iii.一例で、2種類以上の境界(例えば、スライス境界/タイル境界/ブリック境界/「360仮想境界」/「ALF仮想境界」/サブピクチャ境界)の間に位置しているサンプルについては、境界のうちのただ1つのみが「360仮想境界」であり(図24に示されるように、例えば、第1の境界が「360仮想境界」であり、第2の境界が「ALF仮想境界」又はスライス/ブリック/タイル境界/サブピクチャ境界であり、あるいは、その逆である)場合に、提案されている方法が適用され得る。例えば、両側パディングのみが、それらのサンプルに対してALFで適用され得る。
1.代替的に、これらの複数の種類の境界が「360仮想境界」又はピクチャ境界のどちらかである場合に、提案されている方法は適用されなくてもよい。例えば、片側パディングのみが、それらのサンプルに対してALFで適用され得る。
f.一例で、2種類以上の境界の間に位置しているサンプルについて、境界のうちの少なくとも1つが「360仮想境界」であり、それがCTU境界と一致しない場合に、提案されている方法は適用されなくてもよい。
i.この場合に、それは、「360仮想境界」でのみ、サンプルを扱う従来技術として扱われ得るが、他の種類の境界ではそうではない。
ii.一例で、片側パディングのみが、それらのサンプルに対してALFで適用され得る。
g.一例で、2種類以上の境界の間に位置しているサンプルについて、境界のうちの少なくとも1つが「360仮想境界」である場合に、提案されている方法は適用されなくてもよい。
i.この場合に、それは、「360仮想境界」でのみ、サンプルを扱う従来技術として扱われ得るが、他の種類の境界ではそうではない。
ii.一例で、片側パディングのみが、それらのサンプルに対してALFで適用され得る。
a.一例で、「利用不可能」な参照サンプルは、その最も近い「利用可能」な水平位置に最初にクリップされてよく、それから、「利用不可能」な参照サンプルは、必要に応じて、その最も近い「利用可能」な垂直位置にクリップされる。
b.一例で、「利用不可能」な参照サンプルは、その最も近い「利用可能」な垂直位置に最初にクリップされてよく、それから、「利用不可能」な参照サンプルは、必要に応じて、その最も近い「利用可能」な水平位置にクリップされる。
c.一例で、「利用不可能」な参照サンプルの座標は、水平方向においてその最も近い「利用可能」なサンプル(例えば、最も小さい距離)の座標にクリップされる。
i.一例で、座標(x1,y1)及び(x2,y2)の2つのサンプルについては、それらの間の水平距離がAbs(x1-x2)と計算され得る。
d.一例で、「利用不可能」な参照サンプルの座標は、垂直方向においてその最も近い「利用可能」なサンプル(例えば、最も小さい距離)の座標にクリップされる。
i.一例で、座標(x1,y1)及び(x2,y2)の2つのサンプルについては、それらの間の垂直距離がAbs(y1-y2)と計算され得る。
e.一例で、「利用不可能」なサンプルは、その最も近い「利用可能」なサンプル(例えば、最小距離)にクリップされる。
i.一例で、座標(x1,y1)及び(x2,y2)の2つのサンプルについては、それらの間の距離が(x1-x2)×(x1-x2)+(y1-y2)×(y1-y2)と計算され得る。
ii.代替的に、2つのピクセル間の距離は、Abs(x1-x2)+Abs(y1-y2)と計算され得る。
f.一例で、「利用不可能」なサンプルは、「利用可能」なサンプルが見つけられるまで、予め定義された順序でパディングされてよい。例は図31に示されており、Curは現在のブロック/CU/PU/CTUである。
i.例えば、垂直方向の「利用可能」なサンプルが最初にチェックされ得、それから、水平方向の「利用可能」なサンプルがチェックされ得る。
ii.例えば、水平方向の「利用可能」なサンプルが最初にチェックされ得、それから、垂直方向の「利用可能」なサンプルがチェックされ得る。
iii.例えば、「利用不可能」な左上隣接サンプル(例えば、領域「1」内にある。)について、最初に、現在のブロック/CU/PU/CTUの左隣接サンプル(例えば、領域「4」内にある。)がチェックされ、「利用可能」なサンプルがない場合には、次いで、上隣接サンプル(例えば、領域「2」内にある。)がチェックされる。左隣接サンプルにも上隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの左上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
1.代替的に、「利用不可能」な左上隣接サンプルについて、最初に、現在のブロック/CU/PU/CTUの上隣接サンプルがチェックされ、「利用可能」なサンプルがない場合には、次いで、左隣接サンプルがチェックされる。上隣接サンプルにも左隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの左上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
iv.例えば、「利用不可能」な右上隣接サンプル(例えば、領域「3」内にある。)について、最初に、現在のブロック/CU/PU/CTUの右隣接サンプル(例えば、領域「5」内にある。)がチェックされ、「利用可能」なサンプルがない場合には、次いで、上隣接サンプル(例えば、領域「2」内にある。)がチェックされる。右隣接サンプルにも上隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの右上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
1.代替的に、「利用不可能」な右上隣接サンプルについて、最初に、現在のブロック/CU/PU/CTUの上隣接サンプルがチェックされ、「利用可能」なサンプルがない場合には、次いで、右隣接サンプルがチェックされる。上隣接サンプルにも右隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの右上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
v.例えば、「利用不可能」な左下隣接サンプル(例えば、領域「6」内にある。)について、最初に、現在のブロック/CU/PU/CTUの左隣接サンプル(例えば、領域「4」内にある。)がチェックされ、「利用可能」なサンプルがない場合には、次いで、下隣接サンプル(例えば、領域「7」内にある。)がチェックされる。左隣接サンプルにも下隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの左下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
1.代替的に、「利用不可能」な左下隣接サンプルについて、最初に、現在のブロック/CU/PU/CTUの下隣接サンプルがチェックされ、「利用可能」なサンプルがない場合には、次いで、左隣接サンプルがチェックされる。下隣接サンプルにも左隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの左下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
vi.例えば、「利用不可能」な右下隣接サンプルについて、最初に、現在のブロック/CU/PU/CTUの右隣接サンプル(例えば、領域「5」内にある。)がチェックされ、「利用可能」なサンプルがない場合には、次いで、下隣接サンプル(例えば、領域「7」内にある。)がチェックされる。右隣接サンプルにも下隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの右下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
1.代替的に、「利用不可能」な右下隣接サンプルについて、最初に、現在のブロック/CU/PU/CTUの下隣接サンプルがチェックされ、「利用可能」なサンプルがない場合には、次いで、右隣接サンプルがチェックされる。下隣接サンプルにも右隣接サンプルにも「利用可能」なサンプルがない場合には、現在のブロック/CU/PU/CTUの右下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
vii.一例で、各隣接領域について、1つ又は複数のサンプルが順番にチェックされてよい。代替的に、1つしかチェックされなくてもよい。
viii.代替的に、更に、どのチェックも利用可能なサンプルを見つけられなかった場合には、フィルタリングされるべき現在のサンプルの値が代わりに使用されてもよい。
ix.一例で、「利用不可能」な左上/右上/左下/右下隣接サンプルについて、それは常に、現在のブロック/CU/PU/CTU内のサンプルによってパディングされてよい。
1.一例で、「利用不可能」な左上隣接サンプル(例えば、図31の「領域1」内にある。)について、現在のブロック/CU/PU/CTUの左上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
2.一例で、「利用不可能」な右上隣接サンプル(例えば、図31の「領域3」内にある。)について、現在のブロック/CU/PU/CTUの右上サンプルが、「利用不可能」なサンプルをパディングするために使用される。
3.一例で、「利用不可能」な左下隣接サンプル(例えば、図31の「領域1」内にある。)について、現在のブロック/CU/PU/CTUの左下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
4.一例で、「利用不可能」な右下隣接サンプル(例えば、図31の「領域1」内にある。)について、現在のブロック/CU/PU/CTUの右下サンプルが、「利用不可能」なサンプルをパディングするために使用される。
g.代替的に、フィルタリングプロセスは、現在のサンプルについて無効にされる。
h.代替的に、ALFでの分類プロセス(例えば、現在のサンプルについての傾き計算)は、利用不可能な参照サンプルを使用することを認められない。
a.一例で、現在のCTUが如何なる種類の境界とも一致しないが、現在のサンプルに対するフィルタリングプロセス(例えば、ALF分類/ALFフィルタリングプロセス)が、異なるビデオユニット(例えば、スライス)内の参照サンプルにアクセスする必要がある場合に、ビュレット16で記載されている方法が適用され得る。
i.代替的に、更に、現在のCTUが如何なる種類の境界とも一致しないが、現在のサンプルに対するフィルタリングプロセス(例えば、ALF分類/ALFフィルタリングプロセス)が、異なるビデオユニット(例えば、スライス)内の参照サンプルにアクセスする必要があり、スライス境界を横断するフィルタリングが許されない場合に、ビュレット16で記載されている方法が適用され得る。
ii.代替的に、更に、現在のCTUが如何なる種類の境界とも一致しないが、現在のサンプルに対するフィルタリングプロセス(例えば、ALF分類/ALFフィルタリングプロセス)が、異なるビデオユニット(例えば、スライス)内の参照サンプル及び同じビデオユニット内の参照サンプルにアクセスする必要があり、スライス境界を横断するフィルタリングが許されない場合に、ビュレット16で記載されている方法が適用され得る。
b.一例で、現在のCTUが少なくとも1種類の境界と一致する場合に、統一されたパディング方法が適用され得る(例えば、両側又は片側パディング)。
i.代替的に、現在のCTUが複数の種類の境界と一致し、それらの境界を横断するフィルタリングが許されない場合に、統一されたパディング方法が適用され得る(例えば、両側又は片側パディング)。
c.一例で、両側パディング又は/及び片側パディングによってパディングされ得ない「利用不可能」なサンプルのみが、ビュレット16で記載されている方法を用いてパディングされ得る。
a.代替的に、1つのシンタックス要素は、スライスについて、フィルタリングプロセスがそのスライスのスライス境界をまたぐことができるかどうかを示すようPPC/スライスヘッダで通知され得る。
b.代替的に、1つのシンタックス要素は、ブリック/タイルについて、フィルタリングプロセスがそのブリック/タイルのブリック/タイル境界をまたぐことができるかどうかを示すようPPCで通知され得る。
c.一例で、シンタックス要素は、フィルタリングプロセスがビデオ/ピクチャのブリック境界又は/及びタイル境界又は/及びスライス境界又は/及び「360度仮想境界」をまたぐことができるかどうかを示すようSPS/PPSで通知され得る。
i.一例で、別個のシンタックス要素が、異なる種類の境界ごとに通知されてもよい。
ii.一例で、1つのシンタックス要素が、全ての種類の境界について通知されてもよい。
iii.一例で、1つのシンタックス要素が、いくつかの種類の境界について通知されてもよい。
1.例えば、1つのシンタックス要素が、ブリック境界及びタイル境界の両方について通知され得る。
d.一例で、シンタックス要素は、フィルタリングプロセスに関するPPC/スライスレベル指示があるかどうかを示すようSPSで通知され得る。
i.一例で、別個のシンタックス要素が、異なる種類の境界ごとに通知されてもよい。
ii.一例で、1つのシンタックス要素が、全ての種類の境界について通知されてもよい。
iii.一例で、1つのシンタックス要素が、いくつかの種類の境界について通知されてもよい。
1.例えば、1つのシンタックス要素が、ブリック境界及びタイル境界の両方について通知され得る。
iv.フィルタリングプロセスがスライス/ブリック/タイル/サブピクチャ境界をまたぐことができるかどうかに関する指示は、SPS内の対応するシンタックス要素が特定の値に等しい場合にのみ、PPS/スライスヘッダで通知され得る。
1.代替的に、フィルタリングプロセスがスライス/ブリック/タイル/サブピクチャ境界をまたぐことができるかどうかに関する指示は、SPS内の対応するシンタックス要素が特定の値に等しい場合に、PPS/スライスヘッダで通知されなくてもよい。
a.この場合に、フィルタリングプロセスは、SPS内の指示が特定の値に等しい場合に、スライス/ブリック/タイル/サブピクチャ境界をまたぐことを許されない。
b.この場合に、フィルタリングプロセスは、SPS内の指示が特定の値に等しい場合に、スライス/ブリック/タイル/サブピクチャ境界をまたいでもよい。
a.一例で、左上領域に位置している代表サンプル、例えば、(x0-offsetX0,y0-offsetY0)がチェックされ得る。
i.一例で、(offsetX0,offsetY0)は(1,1)、(2,1)又は(1,2)に等しくてもよい。
b.一例で、右上領域に位置している代表サンプル、例えば、(x0+offsetX1,y0-offsetY1)がチェックされ得る。
i.一例で、(offsetX1,offsetY1)は(ctbXSize,1)、(ctbXSize+1,1)又は(ctbXSize,2)に等しくてもよい。
c.一例で、左下領域に位置している代表サンプル、例えば、(x0-offsetX2,y0+offsetY2)がチェックされ得る。
i.一例で、(offsetX2,offsetY2)は(1,ctbYSize)、(2,ctbYSize)又は(1,ctbYSize+1)に等しくてもよい。
d.一例で、右下領域に位置している代表サンプル、例えば、(x0+offsetX3,y0+offsetY3)がチェックされ得る。
i.一例で、(offsetX3,offsetY3)は(ctbXSize,ctbYSize)、(ctbXSize+1,ctbYSize)又は(ctbXSize,ctbYSize+1)に等しくてもよい。
e.一例で、ある領域内の代表サンプルが異なるビデオユニットにあり、異なるビデオユニットを横断するフィルタリングが許されない場合に、その領域内でアクセスされるサンプルは、利用不可能とマークされる。
i.一例で、ある領域内の代表サンプルが異なるビデオユニットにあり、loop_filter_across_slices_enabled_flagが0に等しい場合に、その領域内でアクセスされるサンプルは、利用不可能とマークされる。
ii.一例で、ある領域内の代表サンプルが異なるビデオユニットにあり、loop_filter_across_bricks_enabled_flagが0に等しい場合に、その領域内でアクセスされるサンプルは、利用不可能とマークされる。
iii.一例で、ある領域内の代表サンプルが異なるビデオユニットにあり、loop_filter_across_subpic_enabled_flag[SubPicIdx]が0に等しい場合に、その領域内でアクセスされるサンプルは、利用不可能とマークされる。一例で、SubPicIdxは、現在のブロックを含む現在のサブピクチャのインデックスである。
f.上記の例で、offsetXi/offsetYi(iは0,・・・,3である。)は整数である。
i.代替的に、更に、offsetXi/offsetYi(iは0,・・・,3である。)は、CTUの幅/高さに等しくセットされてもよい。
a.代替的に、上記の提案されている方法は、現在のブロックの外にあるサンプルにアクセスする必要がある他のコーディングツール(非フィルタリング方法)に適用されてもよい。
a.DPS/SPS/VPS/PPS/APS/ピクチャヘッダ/スライスヘッダ/タイルグループヘッダ/最大コーディングユニット(LCU)/コーディングユニット(CU)/LCU行/LCUのグループ/TU/PUブロック/ビデオコーディングユニットで通知されたメッセージ
b.CU/PU/TU/ブロック/ビデオコーディングユニットの位置
c.現在のブロック及び/又はその隣接ブロックのブロック寸法
d.現在のブロック及び/又はその隣接ブロックのブロック寸法のブロック形状
e.現在のブロック及び/又はその隣接ブロックのコーディングされた情報
f.色フォーマット(例えば、4:2:0、4:4:4)の指示
g.コーディングツリー構造
h.スライス/タイルグループタイプ及び/又はピクチャタイプ
i.色成分(例えば、クロマ成分又はルーマ成分に対してのみ適用されてもよい。)
j.時間レイヤID
k.標準規格のプロファイル/レベル/ティア
以下のセクションでは、開示されている技術のいくつかの実施形態に適合するようにVVC標準規格の現在のバージョンがどのように変更されているかのいくつかの例が、記載されている。新たに加えられた部分は、太字イタリック体の下線付きテキストで示されている。削除された部分は。二重括弧[[]]を用いて示されている。
図21は、ピクチャ内のCTUの処理を示す。図19と比較した相違点は、破線で強調表示されている。
複数の種類の境界(例えば、スライス/ブリック境界、360度仮想境界)に位置するサンプルについては、パディングプロセスは一度しか呼び出されない。また、サイドごとにいくつのラインがパディングされるべきかは、境界に対する現在のサンプルの位置に依存する。
CTUについては、それが如何なる境界(例えば、ピクチャ/スライス/タイル/ブリック/サブピクチャ境界)とも一致しない可能性がある。しかし、それは現在のユニット(例えば、ピクチャ/スライス/タイル/ブリック/サブピクチャ)の外のサンプルにアクセスする必要があり得る。スライス境界を横断するフィルタリングが無効にされる(例えば、loop_filter_across_slices_enabled_flagが偽である)場合には、現在のユニットの外のサンプルをパディングする必要がある。
この実施形態では、次の主な考えが適用される。
ピクチャ内の最後のCUT行に位置していないCTUについて(例えば、CTUの下境界はピクチャの下境界でなく、ピクチャの下境界を越えない。)、ALF仮想境界は有効にされる。つまり、1つのCTUは2つ以上の部分に分割されてよく、1つの部分にあるサンプルは、他の部分にあるサンプルを使用することを許されない。
1つ(又は複数種類)の境界にあるサンプルについて、その境界にわたる隣接サンプルが使用されることを許されない場合には、片側パディングが、そのような隣接サンプルをパディングするために実行される。
CTU境界と一致するスライス/タイル/ブリック/サブピクチャ境界又は「360仮想境界」である1つ(又は複数種類)の境界にあるサンプルについて、その境界にわたる隣接サンプルが使用されることを許されない場合には、両側パディングが、そのような隣接サンプルをパディングするために実行される。
この実施形態では、次の主な考えが適用される。
ピクチャ内の最後のCUT行に位置していないCTUについて(例えば、CTUの下境界はピクチャの下境界でなく、ピクチャの下境界を越えない。)、ALF仮想境界は有効にされる。つまり、1つのCTUは2つ以上の部分に分割されてよく、1つの部分にあるサンプルは、他の部分にあるサンプルを使用することを許されない。
1つ(又は複数種類)の境界にあるサンプルについて、その境界にわたる隣接サンプルが使用されることを許されない場合には、片側パディングが、そのような隣接サンプルをパディングするために実行される。
CTU境界と一致するスライス/タイル/ブリック/サブピクチャ境界又は「360仮想境界」である1つ(又は複数種類)の境界にあるサンプルについて、その境界にわたる隣接サンプルが使用されることを許されない場合には、両側パディングが、そのような隣接サンプルをパディングするために実行される。
ビデオピクチャのビデオブロックとそのビットストリーム表現との間の変換を実行するステップを有し、
前記ビデオブロックは、コーディングツリーブロックの論理的グルーピングを用いて処理され、前記コーディングツリーブロックは、下端コーディングツリーブロックの下境界がビデオピクチャの下境界の外にあるかどうかに基づき処理される、
方法。
前記コーディングツリーブロックを処理することは、前記コーディングツリーブロック内のサンプルを使用することによって前記コーディングツリーブロックのサンプル値の適応ループフィルタリングを実行することを含む、
方法。
前記コーディングツリーブロックを処理することは、仮想境界に従って前記コーディングツリーブロックを2つの部分に分けることを無効化することによって、前記コーディングツリーブロックのサンプル値の適応ループフィルタリングを実行することを含む、
方法。
現在のビデオブロックのコーディングツリーブロックの条件に基づいて、インループフィルタリング中に仮想サンプルの使用状態を決定するステップと、
前記仮想サンプルの使用状態に従って前記ビデオブロックと該ビデオブロックのビットストリーム表現との間の変換を実行するステップと
を含む方法。
前記使用状態の論理的な真値は、前記現在のビデオブロックが仮想境界によって少なくとも2つの部分に分けられ、1つの部分内のサンプルをフィルタリングすることは、他の部分からの情報を利用することを許されない、ことを示す、
方法。
前記使用状態の論理的な真値は、前記インループフィルタリング中に使用され、
前記インループフィルタリングは、前記現在のビデオブロックの再構成されたサンプルの変更された値を用いて実行される、
方法。
前記使用状態の論理的な偽値は、前記ブロック内のサンプルをフィルタリングすることが同じブロック内の情報を利用することを許される、ことを示す、
方法。
前記使用状態の論理的な真値は、前記インループフィルタリングが、前記現在のビデオブロックの再構成されたサンプルに対して、該再構成されたサンプルを更に変更せずに実行される、ことを示す、
方法。
前記条件は、前記コーディングツリーブロックが特定のサイズを有していることにより、前記使用状態を論理的な偽値にセットすることを指定する、
方法。
前記条件は、前記コーディングツリーブロックが特定のサイズよりも大きいサイズを有していることにより、前記使用状態を論理的な偽値にセットすることを指定する、
方法。
前記コーディングツリーブロックは特定のサイズよりも小さいサイズを有している、
方法。
前記条件は、前記現在のビデオブロックの下境界が、ビデオピクチャよりも小さいビデオユニットの下境界であるか、あるいは、前記現在のビデオブロックの下境界が仮想境界であるか、に依存する、
方法。
前記条件は、前記現在のビデオブロックの下境界がスライス又はタイル又はブリック境界の下境界であるかどうか、に依存する、
方法。
前記条件は、前記現在のビデオブロックの下境界がスライス又はタイル又はブリック境界の下境界である場合に、前記使用状態を論理的な真値にセットすることを指定する、
方法。
前記条件は、前記現在のビデオブロックの下境界がピクチャ境界の下境界であるか、あるいは、ピクチャ境界の下境界の外側である場合に、前記使用状態を論理的な偽値にセットすることを指定する、
方法。
1つ以上のビデオスライス又はビデオブリックに論理的にグループ分けされるビデオピクチャと、該ビデオピクチャのビットストリーム表現との間の変換中に、適応ループフィルタプロセスにおける他のスライス又はブリック内のサンプルの使用を無効にすると決定するステップと、
前記決定に従って前記変換を実行するステップと
を含む方法。
ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に、前記現在のビデオブロックが前記ビデオピクチャのビデオユニットの境界に位置しているサンプルを含むことを決定するステップと、
前記決定に基づいて前記変換を実行するステップと
を含み、
前記変換を実行するステップは、前記ビデオピクチャ内の全ての境界タイプについて同じである統一手法を用いてインループフィルタリングのための仮想サンプルを生成することを含む、
方法。
前記ビデオユニットは、スライス又はタイル又は360度ビデオである、
方法。
前記インループフィルタリングは適応ループフィルタリングを含む、
方法。
前記統一手法は両側パディング方法である、
方法。
前記統一手法では、第1のラインより下のサンプルにアクセスすることが許されず、パディングが前記第1のラインより下のサンプルのための仮想サンプルを生成するために利用される場合に、第2のラインより上のサンプルにアクセスすることも、許されないとセットされ、パディングは、前記第2のラインの上のサンプルのための仮想サンプルを生成するために利用される、
方法。
前記統一手法では、第1のラインの上のサンプルにアクセスすることが許されず、パディングが前記第1のラインの上のサンプルのための仮想サンプルを生成するために利用される場合に、第2のラインより下のサンプルにアクセスすることも、許されないとセットされ、パディングは、前記第2のラインより下のサンプルのための仮想サンプルを生成するために利用される、
方法。
前記第1ラインと、フィルタリングされるべき現在のサンプルが位置している現在のラインとの間の距離、及び前記第2のラインと前記第1のラインとの間の距離は、等しい、
方法。
ビデオピクチャの現在のビデオブロックとそのビットストリーム表現との間の変換中に、該変換中に前記ビデオピクチャに対して利用可能な複数の適応ループフィルタ(ALF)サンプル選択方法のうちの1つを適用すると決定するステップと、
前記複数のALFサンプル選択方法のうちの1つを適用することによって前記変換を実行するステップと
を含む方法。
前記複数のALFサンプル選択方法は、前記変換中に前記現在のビデオブロックにインループフィルタが適用される前にサンプルが選択される第1の方法と、前記変換中に前記現在のビデオブロックにインループフィルタが適用された後にサンプルが選択される第2の方法とを含む、
方法
境界ルールに基づいて、ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に前記現在のビデオブロックのサンプルに対してインループフィルタリング動作を実行するステップであって、前記境界ルールは、前記ビデオピクチャの仮想パイプラインデータユニット(VPDU)を横断するサンプルを使用することを無効にする、ステップと、
前記インループフィルタリング動作の結果を用いて前記変換を実行するステップと
を含む方法。
前記VPDUは、固定サイズを有している前記ビデオピクチャの領域に対応する、
方法。
前記境界ルールは、無効にされたサンプルの代わりに前記インループフィルタリングのために仮想サンプルを使用することを更に定める、
方法。
前記仮想サンプルは、パディングによって生成される、
方法。
境界ルールに基づいて、ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に前記現在のビデオブロックのサンプルに対してインループフィルタリング動作を実行するステップであって、前記境界ルールは、ビデオユニット境界にわたる前記現在のビデオブロックの位置について、パディングを使用せずに生成されるサンプルを使用することを定める、ステップと、
前記インループフィルタリング動作の結果を用いて前記変換を実行するステップと
を含む方法。
前記サンプルは、両側パディング方法を用いて生成される、
方法。
前記インループフィルタリング動作は、前記インループフィルタリング動作中に、対称に位置しているサンプルについて同じ仮想サンプル生成技術を使用することを有する、
方法。
前記現在のビデオブロックのサンプルに対する前記インループフィルタリング動作は、前記インループフィルタリングを適用する前に、前記現在のビデオブロックの前記サンプルの再成形を実行することを含む、
方法。
境界ルールに基づいて、ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に前記現在のビデオブロックのサンプルに対してインループフィルタリング動作を実行するステップであって、前記境界ルールは、前記インループフィルタリング動作のために、前記インループフィルタリング動作中に使用される現在のビデオブロックのサンプルが前記ビデオピクチャのビデオユニットの境界を横断しないような大きさを有しているフィルタを選択することを定める、ステップと、
前記インループフィルタリング動作の結果を用いて前記変換を実行するステップと
を含む方法。
境界ルールに基づいて、ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に前記現在のビデオブロックのサンプルに対してインループフィルタリング動作を実行するステップであり、前記境界ルールは、前記インループフィルタリング動作のために、パディングされたサンプルが前記インループフィルタリング動作に必要とされるか否かに基づいてクリッピングパラメータ又はフィルタ係数を選択することを定める、ステップと、
前記インループフィルタリング動作の結果を用いて前記変換を実行するステップと
を含む方法。
前記クリッピングパラメータ又はフィルタ係数は、前記ビットストリーム表現に含まれる、
方法。
境界ルールに基づいて、ビデオピクチャの現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に前記現在のビデオブロックのサンプルに対してインループフィルタリング動作を実行するステップであり、前記境界ルールは、前記現在のビデオブロックの色成分識別に依存する、ステップと、
前記インループフィルタリング動作の結果を用いて前記変換を実行することと
を含む方法。
前記境界ルールは、ルーマ及び/又は異なる色成分について異なる、
方法。
前記変換は、前記現在のビデオブロックを前記ビットストリーム表現に符号化することを含む、
方法。
前記変換は、前記ビットストリーム表現を復号して前記現在のビデオブロックのサンプル値を生成することを含む、
方法。
前記コードは、プロセッサによる実行時に、該プロセッサに、解決法1乃至38のうちいずれか1つに記載される方法を実装させる、
コンピュータ可読媒体。
ビデオ領域は、スライス、ブリック、タイル、又はサブピクチャを有する。いくつかの実施形態において、サンプルは、(1)そのサンプル及び現在のブロックの現在のサンプルが異なるビデオ領域にあり、(2)ビデオの異なるビデオ領域にわたってサンプルにアクセスすることがコーディングツールに対して無効にされる場合に、コーディングツールに対して利用不可能であると見なされる。いくつかの実施形態において、ビデオの異なるビデオ領域にわたってサンプルにアクセスすることが無効にされるかどうかを示すために、コーディングされた表現において、シンタックス要素が通知される。いくつかの実施形態において、方法は、コーディングツールのためにサンプルがパディングサンプルを導出するよう利用不可能であることに応答して、パディングプロセスを適用することを含む。
適用可能な特許法及び/又はパリ条約に従う規則の下で、本願は、2019年9月22日付けで出願された国際特許出願第PCT/CN2019/107160号に対する優先権及びその利益を適宜請求するようになされたものである。法律の下での全ての目的のために、上記の出願の全開示は、本願の開示の部分として参照により援用される。
本願は、2019年9月22日付けで出願された国際特許出願第PCT/CN2019/107160号に対する優先権及びその利益を請求して2020年9月22日付けで出願された国際特許出願第PCT/CN2020/116707号に基づく。上記の全ての特許出願は、参照により本願に援用される。
Claims (38)
- ビデオ処理の方法であって、
ビデオの現在のブロックと前記ビデオのビットストリーム表現との間の変換のために、前記現在のブロックの外にある前記ビデオの1つ以上のサンプルが前記変換のコーディングプロセスに利用不可能であることを決定するステップであり、前記コーディングプロセスは適応ループフィルタ(ALF)コーディングプロセスを含む、前記決定するステップと、
前記決定に基づき、前記ビデオの前記1つ以上のサンプルに対してパディングサンプルを使用することによって前記変換を実行するステップと
を有し、
前記パディングサンプルは、順番にサンプルの利用可能性をチェックすることによって生成される、
方法。 - 前記現在のブロックは、コーディングユニット、ピクチャユニット、又はコーディングツリーユニットを有する、
請求項1に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの左上に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの上にある第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの左に位置している第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの左上サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの右下に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの下にある第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの右に位置している第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの右下サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの右上に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの上にある第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの右に位置している第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの右上サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの左下に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの下にある第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの左に位置している第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの左下サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの左上に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの左に位置している第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの上にある第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの左上サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの右上に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの右に位置している第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの上にある第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの右上サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの左下に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの左に位置している第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの下にある第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの左下サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 利用不可能である、前記現在のブロックの外にある前記1つ以上のサンプルは、前記現在のブロックの右下に位置している第1隣接ブロック内にあるサンプルを有し、前記順番は、
(1)前記現在のブロックの右に位置している第2隣接ブロック内のサンプルが最初にチェックされ、
(2)前記第2隣接ブロック内のサンプルが利用不可能である場合に、前記現在のブロックの下にある第3隣接ブロック内のサンプルが次にチェックされ、
(3)前記第3隣接ブロック内のサンプルも利用不可能である場合に、前記現在のブロックの右下サンプルが、パディングサンプルを生成するために使用される
ことを定める、
請求項1又は2に記載の方法。 - 前記順番は、
(1)垂直方向の利用可能なサンプルが最初にチェックされ、
(2)水平方向の利用可能なサンプルが任意で次にチェックされる、
ことを定める、
請求項1又は2に記載の方法。 - 前記順番は、
(1)水平方向の利用可能なサンプルが最初にチェックされ、
(2)垂直方向の利用可能なサンプルが任意で次にチェックされる、
ことを定める、
請求項1又は2に記載の方法。 - 前記現在のブロックの各隣接ブロック内のサンプルは、順番にチェックされる、
請求項1又は2に記載の方法。 - ただ1つのサンプルが、前記現在のブロックの各隣接ブロックにおいてチェックされる、
請求項1又は2に記載の方法。 - 利用可能なサンプルがパディングサンプルを生成するために見つからない場合に、前記現在のブロック内の現在のサンプルが前記ALFコーディングプロセスで使用される、
請求項1乃至14のうちいずれかに記載の方法。 - (1)前記現在のブロックの左上、(2)前記現在のブロックの右上、(3)前記現在のブロックの右下、又は(4)前記現在のブロックの左下に位置している隣接ブロック内の利用不可能なサンプルについて、当該サンプルは、前記現在のブロック内の1つ以上のサンプルを用いてパディングされる、
請求項1乃至15のうちいずれかに記載の方法。 - 前記現在のブロックの左上サンプルは、前記現在のブロックの左上に位置している隣接ブロック内のサンプルをパディングするために使用される、
請求項16に記載の方法。 - 前記現在のブロックの右上サンプルは、前記現在のブロックの右上に位置している隣接ブロック内のサンプルをパディングするために使用される、
請求項16に記載の方法。 - 前記現在のブロックの左下サンプルは、前記現在のブロックの左下に位置している隣接ブロック内のサンプルをパディングするために使用される、
請求項16に記載の方法。 - 前記現在のブロックの右下サンプルは、前記現在のブロックの右下に位置している隣接ブロック内のサンプルをパディングするために使用される、
請求項16に記載の方法。 - 前記コーディングプロセスは、前記現在のブロックの外にある前記1つ以上のサンプルにアクセスする他のフィルタリングコーディングプロセスを更に有する、
請求項1乃至20のうちいずれかに記載の方法。 - 前記現在のブロックに対する当該方法の適用可能性は、前記ビデオの特性に基づき決定される、
請求項1乃至21のうちいずれかに記載の方法。 - 前記ビデオの前記特性は、コーディングされた表現においてデコーダパラメータセット、スライスパラメータセット、ビデオパラメータセット、ピクチャパラメータセット、適応パラメータセット、ピクチャヘッダ、スライスヘッダ、タイルグループヘッダ、最大コーディングユニット(LCU)、コーディングユニット、LCU行、LCUのグループ、変換ユニット、ピクチャユニット、又はビデオコーディングユニットで通知された情報を含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、前記ビデオ内のコーディングユニット、ピクチャユニット、変換ユニット、ブロック、又はビデオコーディングユニットの位置を有する、
請求項22に記載の方法。 - 前記ビデオの前記特性は、現在のブロック又は該現在のブロックの隣接ブロックの特性を有する、
請求項22に記載の方法。 - 現在のブロック又は該現在のブロックの隣接ブロックの前記特性は、前記現在のブロックの大きさ又は前記現在のブロックの前記隣接ブロックの大きさを含む、
請求項25に記載の方法。 - 現在のブロック又は該現在のブロックの隣接ブロックの前記特性は、前記現在のブロックの形状又は前記現在のブロックの前記隣接ブロックの形状を含む、
請求項25に記載の方法。 - 前記ビデオの前記特性は、前記ビデオの色フォーマットの指示を含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、前記ビデオに適用されるコーディングツリー構造を含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、前記ビデオのスライスタイプ、タイルグループタイプ、又はピクチャタイプを含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、前記ビデオの色成分を含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、前記ビデオの時間レイヤ識別子を含む、
請求項22に記載の方法。 - 前記ビデオの前記特性は、ビデオ標準のプロファイル、レベル、又はティアを含む、
請求項22に記載の方法。 - 前記変換は、前記ビデオを前記ビットストリーム表現に符号化することを含む、
請求項1乃至33のうちいずれかに記載の方法。 - 前記変換は、前記ビットストリーム表現を前記ビデオに復号することを含む、
請求項1乃至33のうちいずれかに記載の方法。 - 請求項1乃至35のうちいずれかに記載の方法を実装するよう構成されたプロセッサを有するビデオ処理装置。
- コードを記憶しているコンピュータ可読媒体であって、
前記コードは、プロセッサによる実行時に、前記プロセッサに、請求項1乃至35のうちいずれかに記載の方法を実装させる、
コンピュータ可読媒体。 - 請求項1乃至35のうちいずれかに記載の方法に従って生成されたコーディングされた表現を記憶するコンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023117435A JP2023139106A (ja) | 2019-09-22 | 2023-07-19 | 適応ループフィルタリングにおけるパディングプロセス |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019107160 | 2019-09-22 | ||
CNPCT/CN2019/107160 | 2019-09-22 | ||
PCT/CN2020/116707 WO2021052508A1 (en) | 2019-09-22 | 2020-09-22 | Padding process in adaptive loop filtering |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117435A Division JP2023139106A (ja) | 2019-09-22 | 2023-07-19 | 適応ループフィルタリングにおけるパディングプロセス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022548935A true JP2022548935A (ja) | 2022-11-22 |
JP7318120B2 JP7318120B2 (ja) | 2023-07-31 |
Family
ID=74883940
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022517725A Active JP7318120B2 (ja) | 2019-09-22 | 2020-09-22 | 適応ループフィルタリングにおけるパディングプロセス |
JP2023117435A Pending JP2023139106A (ja) | 2019-09-22 | 2023-07-19 | 適応ループフィルタリングにおけるパディングプロセス |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117435A Pending JP2023139106A (ja) | 2019-09-22 | 2023-07-19 | 適応ループフィルタリングにおけるパディングプロセス |
Country Status (6)
Country | Link |
---|---|
US (3) | US11652998B2 (ja) |
EP (1) | EP4018652A4 (ja) |
JP (2) | JP7318120B2 (ja) |
KR (1) | KR20220061980A (ja) |
CN (3) | CN114503594B (ja) |
WO (2) | WO2021052508A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113475072B (zh) * | 2019-03-04 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 视频处理中滤波信息的信令 |
WO2021201617A1 (ko) * | 2020-03-31 | 2021-10-07 | 엘지전자 주식회사 | 레이어간 정렬된 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 |
US20220394309A1 (en) * | 2021-05-20 | 2022-12-08 | Lemon Inc. | On Padding Methods For Neural Network-Based In-Loop Filter |
US20230179763A1 (en) * | 2021-12-06 | 2023-06-08 | Tencent America LLC | Interpolation Filters for Adaptive Motion Vector Difference Resolution |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130128986A1 (en) * | 2011-11-23 | 2013-05-23 | Mediatek Inc. | Method and Apparatus of Slice Boundary Padding for Loop Filtering |
US20130343447A1 (en) * | 2012-06-25 | 2013-12-26 | Broadcom Corporation | Adaptive loop filter (ALF) padding in accordance with video coding |
Family Cites Families (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7558320B2 (en) | 2003-06-13 | 2009-07-07 | Microsoft Corporation | Quality control in frame interpolation with motion analysis |
CN101207812B (zh) | 2007-12-10 | 2010-04-07 | 海信集团有限公司 | 一种视频环路滤波方法 |
CN102349107B (zh) | 2009-02-10 | 2015-02-18 | 晶像股份有限公司 | 块噪声检测和滤波 |
US9094658B2 (en) | 2010-05-10 | 2015-07-28 | Mediatek Inc. | Method and apparatus of adaptive loop filtering |
CN102972028B (zh) * | 2010-05-17 | 2015-08-12 | Lg电子株式会社 | 新的帧内预测模式 |
MX2013003696A (es) | 2010-09-30 | 2013-05-20 | Mitsubishi Electric Corp | Dispositivo de codificacion de imagen en movimiento, dispositivo de decodificacion de imagen en movimiento, metodo de codificacion de imagen en movimiento y metodo de decodificacion de imagen en movimiento. |
US8861617B2 (en) * | 2010-10-05 | 2014-10-14 | Mediatek Inc | Method and apparatus of region-based adaptive loop filtering |
CA2805722C (en) | 2010-10-05 | 2016-03-29 | Ching-Yeh Chen | Method and apparatus of region-based adaptive loop filtering |
US9525884B2 (en) | 2010-11-02 | 2016-12-20 | Hfi Innovation Inc. | Method and apparatus of slice boundary filtering for high efficiency video coding |
KR101567467B1 (ko) | 2011-05-10 | 2015-11-09 | 미디어텍 인크. | 루프내 필터 버퍼의 감소를 위한 방법 및 장치 |
KR101956284B1 (ko) | 2011-06-30 | 2019-03-08 | 엘지전자 주식회사 | 보간 방법 및 이를 이용한 예측 방법 |
US9641866B2 (en) | 2011-08-18 | 2017-05-02 | Qualcomm Incorporated | Applying partition-based filters |
US9357235B2 (en) * | 2011-10-13 | 2016-05-31 | Qualcomm Incorporated | Sample adaptive offset merged with adaptive loop filter in video coding |
WO2013060250A1 (en) * | 2011-10-24 | 2013-05-02 | Mediatek Inc. | Method and apparatus for non-cross-tile loop filtering |
US9247258B2 (en) | 2011-10-26 | 2016-01-26 | Qualcomm Incorporated | Unified design for picture partitioning schemes |
US20130107973A1 (en) * | 2011-10-28 | 2013-05-02 | Qualcomm Incorporated | Loop filtering control over tile boundaries |
US9077998B2 (en) | 2011-11-04 | 2015-07-07 | Qualcomm Incorporated | Padding of segments in coded slice NAL units |
US9538200B2 (en) * | 2012-01-19 | 2017-01-03 | Qualcomm Incorporated | Signaling of deblocking filter parameters in video coding |
US9591331B2 (en) * | 2012-03-28 | 2017-03-07 | Qualcomm Incorporated | Merge signaling and loop filter on/off signaling |
US8983218B2 (en) | 2012-04-11 | 2015-03-17 | Texas Instruments Incorporated | Virtual boundary processing simplification for adaptive loop filtering (ALF) in video coding |
KR102070622B1 (ko) | 2012-11-23 | 2020-01-29 | 삼성전자주식회사 | 동영상을 위한 양자화 테이블 추정 방법 및 장치 |
US9596461B2 (en) | 2012-11-26 | 2017-03-14 | Qualcomm Incorporated | Loop filtering across constrained intra block boundaries in video coding |
WO2014107709A2 (en) | 2013-01-07 | 2014-07-10 | Vid Scale, Inc. | Enhanced deblocking filters for video coding |
US9294776B2 (en) | 2013-03-05 | 2016-03-22 | Qualcomm Incorporated | Parallel processing for video coding |
US9648335B2 (en) | 2013-07-12 | 2017-05-09 | Qualcomm Incorporated | Bitstream restrictions on picture partitions across layers |
US9628792B2 (en) | 2013-07-15 | 2017-04-18 | Qualcomm Incorporated | Cross-layer parallel processing and offset delay parameters for video coding |
WO2015043501A1 (en) | 2013-09-27 | 2015-04-02 | Qualcomm Incorporated | Residual coding for depth intra prediction modes |
EP3761641A1 (en) | 2013-11-15 | 2021-01-06 | MediaTek Inc. | Method of block-based adaptive loop filtering |
US9807406B2 (en) | 2014-03-17 | 2017-10-31 | Qualcomm Incorporated | Picture flushing and decoded picture buffer parameter inference for multi-layer bitstreams |
WO2015165030A1 (en) * | 2014-04-29 | 2015-11-05 | Microsoft Technology Licensing, Llc | Encoder-side decisions for sample adaptive offset filtering |
US9591325B2 (en) | 2015-01-27 | 2017-03-07 | Microsoft Technology Licensing, Llc | Special case handling for merged chroma blocks in intra block copy prediction mode |
US20160227222A1 (en) | 2015-02-02 | 2016-08-04 | Mediatek Inc. | Multi-Standard Video Decoder with Novel Intra Prediction Decoding |
US10057574B2 (en) * | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
US20160241881A1 (en) | 2015-02-13 | 2016-08-18 | Mediatek Inc. | Method and Apparatus of Loop Filters for Efficient Hardware Implementation |
KR102390073B1 (ko) * | 2015-06-08 | 2022-04-25 | 브이아이디 스케일, 인크. | 스크린 콘텐츠 코딩을 위한 인트라 블록 카피 모드 |
WO2017045101A1 (en) | 2015-09-14 | 2017-03-23 | Mediatek Singapore Pte. Ltd. | Advanced deblocking filter in video coding |
KR102432085B1 (ko) | 2015-09-23 | 2022-08-11 | 노키아 테크놀로지스 오와이 | 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품 |
US10531111B2 (en) | 2015-11-06 | 2020-01-07 | Microsoft Technology Licensing, Llc | Flexible reference picture management for video encoding and decoding |
KR102345475B1 (ko) * | 2016-01-05 | 2022-01-03 | 한국전자통신연구원 | 잔차 신호에 대한 예측 방법 및 장치 |
WO2017133660A1 (en) | 2016-02-04 | 2017-08-10 | Mediatek Inc. | Method and apparatus of non-local adaptive in-loop filters in video coding |
US11405611B2 (en) | 2016-02-15 | 2022-08-02 | Qualcomm Incorporated | Predicting filter coefficients from fixed filters for video coding |
US10419755B2 (en) * | 2016-05-16 | 2019-09-17 | Qualcomm Incorporated | Confusion of multiple filters in adaptive loop filtering in video coding |
US10264282B2 (en) | 2016-06-27 | 2019-04-16 | Mediatek Inc. | Method and apparatus of inter coding for VR video using virtual reference frames |
JP6983862B2 (ja) | 2016-07-08 | 2021-12-17 | ヴィド スケール インコーポレイテッド | ジオメトリ投影を使用する360度ビデオ符号化 |
US10841581B2 (en) | 2016-07-14 | 2020-11-17 | Arris Enterprises Llc | Region specific encoding and SAO-sensitive-slice-width-adaptation for improved-quality HEVC encoding |
US20180041778A1 (en) | 2016-08-02 | 2018-02-08 | Qualcomm Incorporated | Geometry transformation-based adaptive loop filtering |
CN116634139A (zh) | 2016-08-03 | 2023-08-22 | 株式会社Kt | 用于对视频进行编码和解码的方法和装置 |
US20180048907A1 (en) * | 2016-08-11 | 2018-02-15 | Qualcomm Incorporated | Video coding tools for in-loop sample processing |
US20180054613A1 (en) | 2016-08-22 | 2018-02-22 | Mediatek Inc. | Video encoding method and apparatus with in-loop filtering process not applied to reconstructed blocks located at image content discontinuity edge and associated video decoding method and apparatus |
US10419757B2 (en) | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
US10623737B2 (en) * | 2016-10-04 | 2020-04-14 | Qualcomm Incorporated | Peak sample adaptive offset |
KR20180057566A (ko) | 2016-11-22 | 2018-05-30 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN108111851B (zh) | 2016-11-25 | 2020-12-22 | 华为技术有限公司 | 一种去块滤波方法及终端 |
US10555006B2 (en) | 2016-12-22 | 2020-02-04 | Qualcomm Incorporated | Deriving bilateral filter information based on a prediction mode in video coding |
US20180184127A1 (en) | 2016-12-22 | 2018-06-28 | Qualcomm Incorporated | Determining neighboring samples for bilateral filtering in video coding |
US20180192074A1 (en) * | 2017-01-03 | 2018-07-05 | Mediatek Inc. | Video processing method for processing projection-based frame with 360-degree content represented by projection faces packed in 360-degree virtual reality projection layout |
US10506230B2 (en) | 2017-01-04 | 2019-12-10 | Qualcomm Incorporated | Modified adaptive loop filter temporal prediction for temporal scalability support |
US11277635B2 (en) | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
EP3606077A4 (en) | 2017-03-22 | 2021-01-06 | Industry - University Cooperation Foundation Hanyang University | LOOP FILTERING PROCESS ACCORDING TO AN ADAPTIVE PIXEL CLASSIFICATION STANDARD |
US11212497B2 (en) | 2017-03-30 | 2021-12-28 | Samsung Electronics Co., Ltd. | Method and apparatus for producing 360 degree image content on rectangular projection by selectively applying in-loop filter |
SG11201909450WA (en) | 2017-04-11 | 2019-11-28 | Vid Scale Inc | 360-degree video coding using face continuities |
US10778974B2 (en) | 2017-07-05 | 2020-09-15 | Qualcomm Incorporated | Adaptive loop filter with enhanced classification methods |
US10728573B2 (en) * | 2017-09-08 | 2020-07-28 | Qualcomm Incorporated | Motion compensated boundary pixel padding |
EP3454556A1 (en) | 2017-09-08 | 2019-03-13 | Thomson Licensing | Method and apparatus for video encoding and decoding using pattern-based block filtering |
KR20200064989A (ko) | 2017-09-20 | 2020-06-08 | 브이아이디 스케일, 인크. | 360도 비디오 코딩에서의 면 불연속 처리 |
CN111213378B (zh) | 2017-10-09 | 2022-05-03 | 佳能株式会社 | 用于对像素块进行去块滤波的方法和装置 |
US10965941B2 (en) | 2017-10-09 | 2021-03-30 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
JP2021016016A (ja) | 2017-10-20 | 2021-02-12 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
EP3704857A1 (en) | 2017-11-01 | 2020-09-09 | VID SCALE, Inc. | Overlapped block motion compensation |
US11641488B2 (en) | 2017-11-01 | 2023-05-02 | Vid Scale, Inc. | Methods for simplifying adaptive loop filter in video coding |
US10728549B2 (en) | 2017-11-06 | 2020-07-28 | Dolby Laboratories Licensing Corporation | Adaptive loop filtering for high-dynamic range video |
CN107801024B (zh) | 2017-11-09 | 2019-07-12 | 北京大学深圳研究生院 | 一种用于帧内预测的边界滤波方法 |
US10721469B2 (en) | 2017-11-28 | 2020-07-21 | Qualcomm Incorporated | Line buffer reduction for adaptive loop filtering in video coding |
CN111615828B (zh) | 2017-11-29 | 2023-01-10 | 韩国电子通信研究院 | 采用环内滤波的图像编码/解码方法和装置 |
CN111713111B (zh) | 2017-12-19 | 2024-04-09 | Vid拓展公司 | 用于360度视频译码的面不连续性滤波 |
WO2019131400A1 (ja) | 2017-12-26 | 2019-07-04 | シャープ株式会社 | 画像フィルタ装置、画像復号装置、および画像符号化装置 |
WO2019131651A1 (en) | 2017-12-29 | 2019-07-04 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks at a boundary of a picture for video coding |
CN109996069B (zh) | 2018-01-03 | 2021-12-10 | 华为技术有限公司 | 视频图像编解码方法及设备 |
US10972729B2 (en) | 2018-01-20 | 2021-04-06 | Qualcomm Incorporated | Deblocking filter selection and application in video coding |
US20190238845A1 (en) * | 2018-01-26 | 2019-08-01 | Qualcomm Incorporated | Adaptive loop filtering on deblocking filter results in video coding |
US11212438B2 (en) | 2018-02-14 | 2021-12-28 | Qualcomm Incorporated | Loop filter padding for 360-degree video coding |
CN110337811A (zh) | 2018-02-14 | 2019-10-15 | 北京大学 | 运动补偿的方法、装置和计算机系统 |
US20190281273A1 (en) | 2018-03-08 | 2019-09-12 | Mediatek Inc. | Adaptive loop filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection |
US11470359B2 (en) | 2018-03-30 | 2022-10-11 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks at a boundary of a picture for video coding |
US10708592B2 (en) | 2018-04-02 | 2020-07-07 | Qualcomm Incorporated | Deblocking filter for video coding and processing |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
WO2019208372A1 (ja) | 2018-04-25 | 2019-10-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10904576B2 (en) | 2018-04-27 | 2021-01-26 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder, encoding method, and decoding method for generating a prediction image using a plurality of pixels generated outside of a boundary of a reference picture on which smoothing has been performed |
EP3804315A4 (en) | 2018-05-31 | 2022-03-09 | Sharp Kabushiki Kaisha | SYSTEMS AND METHODS FOR PARTITIONING VIDEO BLOCKS INTO A SLOT FOR INTERPRETING VIDEO DATA |
CN112272950A (zh) | 2018-06-18 | 2021-01-26 | 交互数字Vc控股公司 | 帧内预测中的平面和dc模式的边界滤波 |
CN111819847B (zh) | 2018-06-21 | 2022-08-09 | 瑞典爱立信有限公司 | 视频图片边界的编码、解码方法、编解码器及存储介质 |
KR20200002011A (ko) | 2018-06-28 | 2020-01-07 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
US11818340B2 (en) | 2018-07-06 | 2023-11-14 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium in which bitstream is stored |
US11094088B2 (en) | 2018-08-31 | 2021-08-17 | Mediatek Inc. | Method and apparatus of in-loop filtering for virtual boundaries in video coding |
CN116781935A (zh) | 2018-09-14 | 2023-09-19 | 华为技术有限公司 | 视频译码中的分块指示 |
WO2020083108A1 (en) | 2018-10-23 | 2020-04-30 | Mediatek Inc. | Method and apparatus for reduction of in-loop filter buffer |
CN112913247B (zh) | 2018-10-23 | 2023-04-28 | 北京字节跳动网络技术有限公司 | 使用局部照明补偿的视频处理 |
CN109600611B (zh) * | 2018-11-09 | 2021-07-13 | 北京达佳互联信息技术有限公司 | 环路滤波方法、环路滤波装置、电子设备和可读介质 |
CN109660797A (zh) | 2018-11-09 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 自适应滤波方法、装置、电子设备及计算机可读介质 |
US11044473B2 (en) | 2018-12-21 | 2021-06-22 | Qualcomm Incorporated | Adaptive loop filtering classification in video coding |
KR20210100737A (ko) | 2018-12-23 | 2021-08-17 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인코더, 디코더 및 적응 루프 필터를 사용한 대응 방법들 |
HRP20230682T1 (hr) | 2019-01-09 | 2023-10-13 | Huawei Technologies Co., Ltd. | Ograničenja položaja podslike kod kodiranja videa |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020176636A1 (en) | 2019-02-27 | 2020-09-03 | Futurewei Technologies, Inc. | Luma mapping with chroma scaling adaptation parameter set in video coding |
JP7288071B2 (ja) | 2019-03-02 | 2023-06-06 | 北京字節跳動網絡技術有限公司 | ビデオ処理方法、装置及び記憶媒体 |
US11910024B2 (en) | 2019-03-11 | 2024-02-20 | Qualcomm Incorporated | Boundary handling for adaptive loop filtering |
MX2021011023A (es) | 2019-03-11 | 2021-11-12 | Huawei Tech Co Ltd | Un codificador, un decodificador y métodos correspondientes. |
CN117499644A (zh) | 2019-03-14 | 2024-02-02 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
SG11202110102YA (en) | 2019-03-24 | 2021-10-28 | Beijing Bytedance Network Technology Co Ltd | Nonlinear adaptive loop filtering in video processing |
TWI739386B (zh) | 2019-04-11 | 2021-09-11 | 聯發科技股份有限公司 | 具有適應性參數集之適應性迴路濾波器 |
CN113678464B (zh) | 2019-04-15 | 2022-12-02 | 北京字节跳动网络技术有限公司 | 非线性自适应环路滤波器中的参数的时域预测 |
CN117499679A (zh) | 2019-04-16 | 2024-02-02 | 北京字节跳动网络技术有限公司 | 用于视频编解码的自适应环路滤波 |
CN113994671B (zh) | 2019-06-14 | 2024-05-10 | 北京字节跳动网络技术有限公司 | 基于颜色格式处理视频单元边界和虚拟边界 |
CN114097225B (zh) * | 2019-07-09 | 2024-04-19 | 北京字节跳动网络技术有限公司 | 用于自适应环路滤波的样点确定 |
AU2020309443A1 (en) | 2019-07-11 | 2022-02-10 | Samsung Electronics Co., Ltd. | Video decoding method and apparatus, and video encoding method and apparatus |
JP7291845B2 (ja) * | 2019-07-11 | 2023-06-15 | 北京字節跳動網絡技術有限公司 | 適応ループフィルタリングにおけるサンプルパディング |
US20220303587A1 (en) | 2019-09-05 | 2022-09-22 | Hfi Innovation Inc. | Method and Apparatus for Adaptive Loop Filtering at Picture and Sub-Picture Boundary in Video Coding |
US11303890B2 (en) | 2019-09-05 | 2022-04-12 | Qualcomm Incorporated | Reusing adaptive loop filter (ALF) sub-picture boundary processing for raster-scan slice boundaries |
-
2020
- 2020-09-22 EP EP20865073.9A patent/EP4018652A4/en active Pending
- 2020-09-22 CN CN202080067550.9A patent/CN114503594B/zh active Active
- 2020-09-22 CN CN202080066485.8A patent/CN114430902B/zh active Active
- 2020-09-22 CN CN202311227623.8A patent/CN117278747A/zh active Pending
- 2020-09-22 WO PCT/CN2020/116707 patent/WO2021052508A1/en unknown
- 2020-09-22 WO PCT/CN2020/116708 patent/WO2021052509A1/en active Application Filing
- 2020-09-22 JP JP2022517725A patent/JP7318120B2/ja active Active
- 2020-09-22 KR KR1020227008192A patent/KR20220061980A/ko not_active Application Discontinuation
-
2022
- 2022-03-22 US US17/701,224 patent/US11652998B2/en active Active
- 2022-03-22 US US17/701,303 patent/US11671594B2/en active Active
-
2023
- 2023-02-21 US US18/172,028 patent/US20230199190A1/en active Pending
- 2023-07-19 JP JP2023117435A patent/JP2023139106A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130128986A1 (en) * | 2011-11-23 | 2013-05-23 | Mediatek Inc. | Method and Apparatus of Slice Boundary Padding for Loop Filtering |
US20130343447A1 (en) * | 2012-06-25 | 2013-12-26 | Broadcom Corporation | Adaptive loop filter (ALF) padding in accordance with video coding |
Non-Patent Citations (4)
Title |
---|
HONGBIN LIU, ET AL.: "Non-CE5: Fixes of ALF sample padding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-P0492, JPN6023007491, September 2019 (2019-09-01), pages 1 - 2, ISSN: 0005001718 * |
HONGBIN LIU, ET AL.: "Non-CE5: Padding method for samples at variant boundaries in ALF", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-O0625, JPN6023007487, June 2019 (2019-06-01), pages 1 - 4, ISSN: 0005001715 * |
JIANLE CHEN, AND HENDRY: "On padding process of adaptive loop filter", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-P0121-v1, JPN6023007489, September 2019 (2019-09-01), pages 1 - 4, ISSN: 0005001717 * |
MINHUA ZHOU: "AHG16/HLS: A clean-up for the ALF sample padding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-P0053-v1, JPN6023007488, September 2019 (2019-09-01), pages 1 - 3, ISSN: 0005001716 * |
Also Published As
Publication number | Publication date |
---|---|
EP4018652A4 (en) | 2022-11-02 |
CN114503594A (zh) | 2022-05-13 |
JP2023139106A (ja) | 2023-10-03 |
WO2021052508A1 (en) | 2021-03-25 |
US11652998B2 (en) | 2023-05-16 |
KR20220061980A (ko) | 2022-05-13 |
US20230081202A1 (en) | 2023-03-16 |
US20230199190A1 (en) | 2023-06-22 |
CN117278747A (zh) | 2023-12-22 |
JP7318120B2 (ja) | 2023-07-31 |
US11671594B2 (en) | 2023-06-06 |
CN114430902A (zh) | 2022-05-03 |
US20230080321A1 (en) | 2023-03-16 |
CN114503594B (zh) | 2024-04-05 |
WO2021052509A1 (en) | 2021-03-25 |
EP4018652A1 (en) | 2022-06-29 |
CN114430902B (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7291845B2 (ja) | 適応ループフィルタリングにおけるサンプルパディング | |
JP7291846B2 (ja) | 適応ループフィルタリングのためのサンプル決定 | |
CN113994671B (zh) | 基于颜色格式处理视频单元边界和虚拟边界 | |
JP7318120B2 (ja) | 適応ループフィルタリングにおけるパディングプロセス | |
JP7326600B2 (ja) | 異なるビデオユニット間の適応ループフィルタリング | |
JP7433346B2 (ja) | ビデオ単位境界および仮想境界の処理 | |
JP7454042B2 (ja) | 適応ループ・フィルタリングにおける利用可能でないサンプル位置でのパディング・プロセス | |
WO2021008546A1 (en) | Accessing samples across video unit boundaries in adaptive loop filtering | |
KR102669852B1 (ko) | 적응적 루프 필터링을 위한 샘플 결정 | |
CN114128296A (zh) | 自适应环路滤波中跨视频单元边界访问样点 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220324 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7318120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |