JP2024026154A - クロス成分適応ループフィルタリングのためのサンプルパディング - Google Patents

クロス成分適応ループフィルタリングのためのサンプルパディング Download PDF

Info

Publication number
JP2024026154A
JP2024026154A JP2023198422A JP2023198422A JP2024026154A JP 2024026154 A JP2024026154 A JP 2024026154A JP 2023198422 A JP2023198422 A JP 2023198422A JP 2023198422 A JP2023198422 A JP 2023198422A JP 2024026154 A JP2024026154 A JP 2024026154A
Authority
JP
Japan
Prior art keywords
row
sample
samples
luminance
unavailable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023198422A
Other languages
English (en)
Inventor
ヤン ワン
Yan Wang
リー ジャン
Li Zhang
ホンビン リウ
Hongbin Liu
カイ ジャン
Kai Zhang
ジピン ドン
Zhipin Deng
ユエ ワン
Yue Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2024026154A publication Critical patent/JP2024026154A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)
  • Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】映像エンコーダおよびデコーダで使用されるクロス成分適応ループフィルタリングを行う映像処理方法を提供する。【解決手段】映像処理方法は、映像の映像ユニットと映像のビットストリーム表現との変換のために、映像ユニットにクロス成分適応ループフィルタを適用している間に利用不可の輝度サンプルをパディングするためのミラーパディング処理を有効化するかどうかを決定することと、決定に基づいて変換を行うことと、を含む。【選択図】図34

Description

関連出願の相互参照
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2019
年12月11日出願の国際特許出願第PCT/CN2019/124481号の優先権お
よび利益を適時に主張することを目的とする。法に基づくすべての目的のために、上記出
願の開示全体は、本明細書の開示の一部として参照により援用される。
この特許明細書は、画像および映像の符号化および復号に関する。
デジタル映像は、インターネット及び他のデジタル通信ネットワークにおいて最大の帯域
幅の使用量を占めている。映像を受信及び表示することが可能である接続されたユーザ機
器の数が増加するにつれ、デジタル映像の使用に対する帯域幅需要は増大し続けることが
予測される。
本明細書は、映像符号化または復号中にクロス成分適応ループフィルタリングを行うた
めに、映像エンコーダおよびデコーダによって使用され得る技術を開示する。
1つの例示的な態様において、映像処理の方法が開示される。この方法は、映像の映像
ユニットと映像のビットストリーム表現との変換のために、映像ユニットにループフィル
タリングツールを適用している間に利用不可の輝度サンプルをパディングするためのミラ
ーパディング処理を有効化するかどうかを決定することと、前記決定に基づいて前記変換
を行うことと、を含む。
別の例示的な態様において、映像処理の方法が開示される。この方法は、映像の映像ユ
ニットと映像のビットストリーム表現との変換のために、映像ユニットのコーディング情
報に基づいて、仮想境界に位置するサンプルをパディングするために、反復パディング処
理および/またはミラーパディング処理を適用するかどうかを決定することと、前記決定
に基づいて前記変換を行うことと、を含む。
さらに別の例示的な態様において、映像エンコーダ装置が開示される。この映像エンコ
ーダは、上述した方法を実装するように構成された処理装置を備える。
さらに別の例示的な態様において、映像デコーダ装置が開示される。この映像デコーダは
、上述した方法を実装するように構成されたプロセッサを備える。
さらに別の例示的な態様では、コードが記憶されたコンピュータ可読媒体が開示される
。このコードは、本明細書に記載の方法の1つをプロセッサが実行可能なコードの形式で
実施する。
これらの及び他の特徴は、本文書全体にわたって説明される。
図1は、ピクチャにおける4:2:2の輝度およびクロマサンプルの名目上の垂直および水平の位置を示す。 図2は、エンコーダブロック図の例を示す。 図3は、12個のタイルと3つのラスタスキャンスライスに分割された、18×12個の輝度CTUを有する画像を示す。 図4は、24個のタイルと9個の矩形スライスに分割された、18×12個の輝度CTUを有する画像を示す。 図5は、4つのタイルと4つの矩形スライスに区分された画像を示す。 図6は、15個のタイル、24個のスライス、及び24個のサブピクチャに分割されたピクチャを示す。 図7Aは、CTBが下側のピクチャの境界と交差していることを示す。 図7Bは、CTBが右側のピクチャの境界と交差していることを示す。 図7Cは、CTBが右下のピクチャの境界と交差していることを示す。 図8は、ピクチャサンプルと、8×8のグリッド上の水平および垂直のブロック境界と、8×8のサンプルの重複していないブロックとを示し、これらは並列に非ブロック化され得る。 図9は、フィルタのオン/オフ決定および強/弱フィルタの選択に関与する画素を示す。 図10は、EOサンプルの分類のための4つの1次元方向パターンである、水平(EOクラス=0)、垂直(EOクラス=1)、斜め135°(EOクラス=2)、斜め45°(EOクラス=3)を示す。 図11は、ALFフィルタの形状の例を示す(彩度:5×5菱形、輝度:7×7菱形)。 図12Aは、垂直方向勾配用のサブサンプリング位置を示す。 図12Bは、水平方向勾配用のサブサンプリング位置を示す。 図12Cは、対角勾配用のサブサンプリング位置を示す。 図12Dは、対角勾配用のサブサンプリング位置を示す。 図13は、輝度成分用VTM-4.0中のループフィルタラインバッファ要件の例を示す。 図14は、クロマ成分用VTM-4.0中のループフィルタラインバッファ要件を図示する。 図15は、仮想境界における修正された区分の例を示す。 図16は、仮想境界における輝度成分のための修正されたALFフィルタリングの例を示す。 図17Aは、VBの上/下にある(辺ごとに)パディングされるべき1つの必要なラインを示す。 図17Bは、VBの上/下にある(辺ごとに)パディングされるべき2つの必要なラインを示す。 図17Cは、VBの上/下にある(辺ごとに)パディングされるべき3つの必要なラインを示す。 図18は、ピクチャ/サブピクチャ/スライス/タイルの境界における輝度ALFフィルタリングのための反復パディングの例を示す。 図19は、VVCにおける水平ラップアラウンドの動き補償の例を示す。 図20は、3×2レイアウトのHEC画像を示す。 図21Aは、他のループフィルタに対するCC-ALFの配置を示す。 図21Bは、菱形フィルタを示す。 図22は、JVET-P0080におけるCC-ALFのためのALF仮想境界における反復パディングの例を示す。 図23は、8つの固有の係数を有する3×4菱形フィルタを示す。 図24は、JVET-P1008におけるCC-ALFのためのALF仮想境界における反復パディングの例である。 図25は、JVET-P0106における8つの係数のCC-ALFフィルタ形状を示す。 図26は、JVET-P0173における6つの係数のCC-ALFフィルタ形状を示す。 図27は、JVET-P0251における6つの係数のCC-ALFフィルタ形状を示す。 図28は、JC-CCALFワークフローの例を示す。 図29は、8タップ4×3フィルタ形状を有するCC-ALFフィルタリング法においてパディング対象のサンプルの例示的な位置を示す。 図30は、ミラーパディング方法1の例を示す。 図31は、ミラーパディング方法2の例を示す。 図32は、開示された技術を実装することができる例示的な映像処理システムを示すブロック図である。 図33は、映像処理方法に使用されるハードウェアプラットフォームの例を示すブロック図である。 図34は、映像処理方法の一例を示すフローチャートである。 図35は、本開示のいくつかの実施形態による映像コーディングシステムを示すブロック図である。 図36は、本発明のいくつかの実施形態によるエンコーダを示すブロック図である。 図37は、本発明のいくつかの実施形態によるデコーダを示すブロック図である。 図38Aは、開示される技術のいくつかの実装形態に基づく、映像処理の例示的な方法のフローチャートである。 図38Bは、開示される技術のいくつかの実装形態に基づく、映像処理の例示的な方法のフローチャートである。
本明細書では、理解を容易にするために章の見出しを使用しており、その技術および各
章に記載された実施形態の適用可能性をその章のみに限定するものではない。さらに、H
.266という用語は、ある説明において、理解を容易にするためだけに用いられ、開示
される技術の範囲を限定するために用いられたものではない。このように、本明細書で説
明される技術は、他の映像コーデックプロトコル及び設計にも適用可能である。
1.発明の概要
本明細書は、映像コーディング技術に関する。具体的には、本発明は、ピクチャ/サブ
ピクチャ/スライス/タイル境界、360度映像仮想境界およびALF仮想境界コーディ
ングに関し、特に、画像/映像コーディングにおけるクロス成分適応ループフィルタ(C
C-ALF)および他のコーディングツールに関する。HEVCのような既存の映像コー
ディング規格に適用してもよいし、規格(Versatile Video Codin
g)を確定させるために適用してもよい。本発明は、将来の映像コーディング規格または
映像コーデックにも適用可能である。
2. 映像コーディングの導入
映像コーディング規格は、主に周知のITU-TおよびISO/IEC規格の開発によ
って発展してきた。ITU-TはH.261とH.263を作り、ISO/IECはMP
EG-1とMPEG-4 Visualを作り、両団体はH.262/MPEG-2 V
ideoとH.264/MPEG-4 AVC(Advanced Video Cod
ing)とH.265/HEVC規格を共同で作った。H.262以来、映像コーディン
グ規格は、時間予測と変換コーディングが利用されるハイブリッド映像コーディング構造
に基づく。HEVCを超えた将来の映像コーディング技術を探索するため、2015年に
は、VCEGとMPEGが共同でJVET(Joint Video Explorat
ion Team)を設立した。それ以来、多くの新しい方法がJVETによって採用さ
れ、JEM(Joint Exploration Mode)と呼ばれる参照ソフトウ
ェアに組み込まれてきた。2018年4月には、VCEG(Q6/16)とISO/IE
C JTC1 SC29/WG11(MPEG)の間にJoint Video Exp
ert Team(JVET)が発足し、HEVCと比較して50%のビットレート削減
を目標にVVC規格の策定に取り組んでいる。
2.1. 色空間及びクロマサブサンプリング
色空間は、カラーモデル(又はカラーシステム)としても知られ、色の範囲を数字のタ
プル(tuple)として簡単に記述する抽象的な数学モデルであり、典型的には3又は
4つの値又は色成分(例えばRGB)である。基本的には、色空間は座標系とサブ空間と
を精緻化したものである。
映像圧縮の場合、最も頻繁に使用される色空間は、YCbCr及びRGBである。
YCbCr,Y’CbCr,またはY Pb/Cb Pr/Crは、YCBCRまたはY’CBCRとも記述され、カラー画像のパイプライン映像およびデジタル写真システムの一部として使用される色空間のファミリーである。Y’は輝度成分であり、CBとCRは青色差及び赤色差のクロマ成分である。Y’(プライム付き)は、輝度であるYと区別され、ガンマ補正されたRGBプライマリーに基づいて光強度が非線形に符号化されることを意味する。
クロマサブサンプリングは、人間の視覚システムが、輝度よりも色差の方が知覚が低い
ことを利用して、輝度情報よりもクロマ情報の方が解像度が低くなるように実装して画像
を符号化する方法である。
2.1.1. 4:4:4
3つのY’CbCr成分のそれぞれは、同じサンプルレートを有し、従って、クロマサ
ブサンプリングはない。この方式は、ハイエンドフィルムスキャナ及びシネマティックポ
ストプロダクションに用いられることがある。
2.1.2. 4:4:4
2つのクロマ成分は、輝度のサンプルレートの半分でサンプリングされ、水平クロマ解
像度は半分にされ、垂直クロマ解像度は変化しない。これにより、視覚的にほとんどまた
は全く差がなく、非圧縮の映像信号の帯域幅を1/3に低減することができる。4:2:
2カラーフォーマットの名目上の垂直および水平の位置の例が、例えば、VVC作業草案
の図1に示されている。
2.1.3. 4:2:0
4:2:0では、水平サンプリングは4:1:1に比べて2倍になるが、この方式では
CbとCrチャンネルを各交互のラインでのみサンプリングするため、垂直解像度が半分
になる。従って、データレートは同じである。Cb及びCrはそれぞれ水平及び垂直方向
の両方に2倍ずつサブサンプリングされる。異なる水平及び垂直位置を有する4:2:0
スキームの3つの変形がある。
MPEG-2において、Cb及びCrは水平方向に共座している。CbおよびCrは垂
直方向の画素間に位置する(格子間に位置する)。
JPEG/JFIF、H.261、及びMPEG-1において、Cb及びCrは、交互
の輝度サンプルの中間に間欠的に位置する。
4:2:0DVにおいて、Cb及びCrは、水平方向に共座している。垂直方向には、
それらは交互に共座している。
Figure 2024026154000002
2.2. 典型的な映像コーデックのコーディングフロー
図2は、3つのインループフィルタリングブロック、すなわちデブロッキングフィルタ
(DF)、サンプル適応オフセット(SAO)およびALFを含むVVCのエンコーダブ
ロック図の例を示す。DF(予め定義されたフィルタを使用する)とは異なり、SAOお
よびALFは、現在のピクチャのオリジナルサンプルを利用し、オフセットおよびフィル
タ係数を信号通知するコーディングサイド情報を用いて、オフセットを追加し、有限イン
パルス応答(FIR)フィルタを適用することをそれぞれ行うことにより、元のサンプル
と再構成サンプルとの間の平均二乗誤差を低減する。ALFは、各ピクチャの最後の処理
段階に位置し、前の段階で生成されたアーチファクトを捕捉および修正しようとするツー
ルと見なすことができる。
2.3.映像ユニットの定義例
1つのピクチャは、1つ以上のタイル行および1つ以上のタイル列に分割される。1つ
のタイルは、1つの画像の1つの矩形領域を覆う1つのCTUのシーケンスである。1つ
のタイルにおけるCTUは、そのタイル内でラスタスキャン順にスキャンされる。
1つのスライスは、1つのピクチャのタイル内において、整数個の完全なタイルまたは
整数個の連続した完全なCTU行からなる。
2つのモードのスライス、即ちラスタスキャンスライスモードおよび矩形スライスモー
ドがサポートされる。ラスタスキャンスライスモードにおいて、1つのスライスは、1つ
のピクチャのタイルラスタスキャンにおける1つの完全なタイルのシーケンスを含む。矩
形スライスモードにおいて、1つのスライスは、ピクチャの矩形領域を集合的に形成する
複数の完全なタイル、またはピクチャの矩形領域を集合的に形成する1つのタイルの複数
の連続した完全なCTU行のいずれかを含む。矩形スライス内のタイルを、そのスライス
に対応する矩形領域内で、タイルラスタスキャンの順にスキャンする。
1つのサブピクチャは、1つのピクチャの矩形領域を集合的に覆う1つ以上のスライス
を含む。
図3は、ピクチャのラスタスキャンスライス区分の例を示し、ピクチャは、12個のタ
イルおよび3個のラスタスキャンスライスに分割する。
VVCの仕様における図4は、ピクチャの矩形スライス分割の例を示し、ピクチャは、
24個のタイル(6個のタイル列および4個のタイル行)と9個の矩形スライスとに分割
される。
図4は、24個のタイルと9個の矩形スライスに分割された、18×12個の輝度CT
Uを有する画像である。
図5は、タイルおよび矩形のスライスに分割されたピクチャの例を示し、このピクチャ
は、4つのタイル(2つのタイルの列および2つのタイルの行)と4つの矩形スライスと
に分割される。
図6は、ピクチャをサブピクチャで分割する例を示し、ピクチャは、4×4個のCTU
、24個のスライス、および24個の異なる寸法のサブピクチャを含む15個のタイルに
分割される。
2.3.1.CTU/CTB サイズ
VVCにおいて、構文要素log2_ctu_size_minus2によりSPSに
信号通知されるCTUのサイズは、4×4と小さなものであってもよい。
Figure 2024026154000003
Figure 2024026154000004
log2_ctu_size_minus2+2は、各CTUの輝度コーディングツリ
ーブロックのサイズを規定する。
log2_min_luma_coding_block_size_minus2+
2は、最小輝度コーディングブロックサイズを規定する。
変数CtbLog2SizeY,CtbSizeY,MinCbLog2SizeY,
MinCbSizeY,MinTbLog2SizeY,MaxTbLog2SizeY
,MinTbSizeY,MaxTbSizeY,PicWidthInCtbsY,P
icHeightInCtbsY,PicSizeInCtbsY,PicWidthI
nMinCbsY,PicHeightInMinCbsY,PicSizeInMin
CbsY,PicSizeInSamplesY,PicWidthInSamples
CおよびPicHeightInSamplesCは、以下のように導出される。
CtbLog2SizeY=log2_ctu_size_minus2+2 (7
-9)
CtbSizeY=1<<CtbLog2SizeY (7-10)
MinCbLog2SizeY=log2_min_luma_coding_blo
ck_size_minus2+2 (7-11)
MinCbSizeY=1<<MinCbLog2SizeY (7-12)
MinTbLog2SizeY=2 (7-13)
MaxTbLog2SizeY=6 (7-14)
MinTbSizeY=1<<MinTbLog2SizeY (7-15)
MaxTbSizeY=1<<MaxTbLog2SizeY (7-16)
PicWidthInCtbsY=Ceil(pic_width_in_luma_
samples÷CtbSizeY) (7-17)
PicHeightInCtbsY=Ceil(pic_height_in_lum
a_samples÷CtbSizeY) (7-18)
PicSizeInCtbsY=PicWidthInCtbsY*PicHeigh
tInCtbsY (7-19)
PicWidthInMinCbsY=pic_width_in_luma_sam
ples/MinCbSizeY (7-20)
PicHeightInMinCbsY=pic_height_in_luma_s
amples/MinCbSizeY (7-21)
PicSizeInMinCbsY=PicWidthInMinCbsY*PicH
eightInMinCbsY (7-22)
PicSizeInSamplesY=pic_width_in_luma_sam
ples*pic_height_in_luma_samples (7-23)
PicWidthInSamplesC=pic_width_in_luma_sa
mples/SubWidthC (7-24)
PicHeightInSamplesC=pic_height_in_luma_
samples/SubHeightC (7-25)
2.3.2.ピクチャにおけるCTU
M×N(一般的に、HEVC/VVCに定義されるように、MはNに等しい)によって
示されるCTB/LCUサイズを想定し、ピクチャ(またはタイル、またはスライス、ま
たは他の種のタイプがあるが、ピクチャの境界を例として取り上げる)境界に位置するC
TBの場合、K×L個のサンプルは、K<MまたはL<Nの場合、ピクチャの境界内にあ
る。図7A~図7Cに示されるCTBの場合、CTBのサイズは依然としてM×Nに等し
いが、CTBの下側境界/右側境界はピクチャの外側にある。
図7は、ピクチャの境界と交差するCTBの例を示しており、(a)K=M,L<N;
(b)K<M,L=N;(c)K<M,L<Nである。また、(a)CTBが下側のピク
チャの境界と交差していることを示し、(b)CTBが右側のピクチャの境界と交差して
いることを示し、(c)はCTBが右下のピクチャの境界と交差していることを示す。
2.4.デブロッキングフィルタ(DB)
DBの入力は、インループフィルタの前に再構成されたサンプルである。
まずピクチャの垂直エッジを選別する。そして、垂直エッジフィルタリング処理で修正
されたサンプルを入力として、ピクチャの水平エッジをフィルタリングする。各CTUの
CTBにおける垂直および水平エッジは、コーディングユニットごとに別個に処理される
。コーディングユニットにおけるコーディングブロックの垂直エッジは、コーディングブ
ロックの左側のエッジから始まり、コーディングブロックの右側に向かってそれらの幾何
学的な順序でエッジを通って進むようにフィルタリングされる。コーディングユニットに
おけるコーディングブロックの水平エッジは、コーディングブロックの上側のエッジから
始まり、コーディングブロックの下側に向かってそれらの幾何学的な順序でエッジを通っ
て進むようにフィルタリングされる。
図8は、ピクチャサンプルと、8×8のグリッド上の水平および垂直のブロック境界と
、8×8のサンプルの重複していないブロックとを示し、これらは並列にデブロッキング
され得る。
2.4.1. 境界の決定
8×8のブロック境界にフィルタリングを適用する。さらに、それは、(例えば、アフ
ィン動き予測、ATMVPを使用しているため)変換ブロックの境界またはコーディング
サブブロックの境界でなければならない。そのような境界でない場合、フィルタは無効に
される。
2.4.2. 境界強度計算
変換ブロックの境界/コーディングサブブロックの境界に対して、それが8×8グリッ
ドに位置する場合、それをフィルタリングしてもよく、このエッジに対するbS[xDi
][yDj]([xDi][yDj]は座標を表す)の設定は、それぞれ、表2-2およ
び表2-3で定義している。
Figure 2024026154000005
Figure 2024026154000006
2.4.3. 輝度成分のデブロッキング決定
デブロッキング決定処理は、このサブセクションで説明する。
より広く、強い輝度フィルタは、条件1、条件2、および条件3の全てがTRUEであ
る場合にのみ使用されるフィルタである。
条件1は、「ラージブロック条件」である。この条件は、P側およびQ側のサンプルが
、それぞれ変数bSidePisLargeBlkおよびbSideQisLargeB
lkによって表現されるラージブロックに属するかどうかを検出する。bSidePis
LargeBlkおよびbSideQisLargeBlkは、以下のように定義される

bSidePisLargeBlk=((edge type is vertica
l および p belongs to CU with width>=32)||
(edge type is horizontal および p belongs
to CU with height>=32))?TRUE:FALSE
bSideQisLargeBlk=((edge type is vertical
および q belongs to CU with width>=32)||(
edge type is horizontal および q belongs t
o CU with height>=32))?TRUE:FALSE
bSidePisLargeBlkおよびbSideQisLargeBlkに基づい
て、条件1を以下のように定義する。
Condition1=(bSidePisLargeBlk || bSidePi
sLargeBlk)?TRUE:FALSE
次に、条件1が真である場合、さらに条件2をチェックする。まず、以下の変数を導出
する。
-dp0,dp3,dq0,dq3をまずHEVCとして導出する
-if(pサイドは32以上である)
dp0=(dp0+Abs(p5-2*p4+p3)+1)>>1
dp3=(dp3+Abs(p5-2*p4+p3)+1)>>1
-if(qサイドは32以上である)
dq0=(dq0+Abs(q5-2*q4+q3)+1)>>1
dq3=(dq3+Abs(q5-2*q4+q3)+1)>>1
Condition2=(d<β)?TRUE:FALSE
where d=dp0+dq0+dp3+dq3.
条件1および条件2が有効である場合、いずれかのブロックがサブブロックを使用する
かどうかをさらにチェックする。
If(bSidePisLargeBlk)

If(mode block P==SUBBLOCKMODE)
Sp=5
else
Sp=7

else
Sp=3

If(bSideQisLargeBlk)

If(mode block Q==SUBBLOCKMODE)
Sq=5
else
Sq=7

else
Sq=3
最後に、条件1および条件2の両方が有効である場合、提案されたデブロッキング方法
は、以下のように定義される条件3(ラージブロックの強いフィルタ条件)をチェックす
る。
条件3のStrongFilterConditionにおいて、以下の変数を導出す
る。
dpqはHEVCと同様に導出される。
sp=Abs(p-p)、HEVCと同様に導出される
if(p側が32以上)
if(Sp==5)
sp=(sp+Abs(p-p)+1)>>1
else
sp=(sp+Abs(p-p)+1)>>1
sq=Abs(q-q)は、HEVCと同様に導出される
if(q側が32以上)
If(Sq==5)
sq=(sq+Abs(q-q)+1)>>1
else
sq=(sq+Abs(q-q)+1)>>1
HEVCと同様に、StrongFilterCondition=(dpqは(β>
>2)未満、sp+sqは(3*β>>5)未満、およびAbs(p-q)は(
5*t+1)>>1)?TRUE:FALSE.
2.4.4.輝度のためのより強いデブロッキングフィルタ(よりラージのブロックの
ために設計される)
バイリニアフィルタは、境界の両側のサンプルが1つのラージブロックに属する場合に
用いられる。1つのラージブロックに属する1つのサンプルは、垂直エッジの場合、幅≧
32であり、水平エッジの場合、高さ≧32であるときとして定義される。
バイリニアフィルタを以下に示す。
次に、上述のHEVCデブロッキングにおいて、i=0~Sp-1では、ブロックの境
界サンプルp、j=0~Sq-1ではq(pi、qiは、垂直エッジをフィルタリン
グする行内のi番目のサンプル、または水平エッジをフィルタリングする列内のi番目の
サンプル)を、以下のように線形補間によって置き換える。
Figure 2024026154000007
tcPDおよびtcPD項は、章2.4.7に記載の位置依存クリッピングであり
、g,f,Middles,t,PおよびQは、以下に示される。
2.4.5.クロマのデブロッキング制御
クロマの強いフィルタは、ブロックの境界の両側に用いられる。ここで、クロマフィル
タは、クロマエッジの両側が8(クロマ位置)以上である場合に選択され、次の3つの条
件を満たす決定が行われる。第1は、ラージブロックと同様に境界強度の決定である。提
案されたフィルタは、クロマサンプルドメインにおいて、ブロックのエッジに直交するブ
ロックの幅または高さが8以上である場合に適用できる。第2および第3は、基本的には
HEVC輝度のデブロッキングの決定と同じであり、それぞれオン/オフの決定、および
、強いフィルタの決定である。
第1の決定において、クロマフィルタリングのために境界強度(bS)が修正され、条
件が順次チェックされる。条件が満たされている場合、残りの優先順位の低い条件はスキ
ップされる。
ラージブロックの境界が検出された場合、bSが2に等しいか、またはbSが1に等し
いとき、クロマデブロッキングが行われる。
第2および第3の条件は、基本的には、以下のように、HEVC輝度の強いフィルタの
決定と同様である。
第2の条件において、
その後、HEVC輝度デブロッキングと同様にdを導出する。
第2の条件は、dがβより小さい場合、TRUEとなる。
第3の条件において、StrongFilterConditionは、以下のように
導出される。
dpqはHEVCと同様に導出される。
sp=Abs(p-p)、HEVCと同様に導出される
sq=Abs(q-q)はHEVCと同様に導出される
HEVC設計におけるように、StrongFilterCondition=(dp
qが(β>>2)未満であり、sp+sqが(β>>3)未満であり、Abs(p
-q)が(5*t+1)>>1未満である。)
2.4.6.クロマ用の強いデブロッキングフィルタ
以下のようなクロマ用の強いデブロッキングフィルタが定義される。
’=(3*p+2*p+p+p+q+4)>>3
’=(2*p+p+2*p+p+q+q+4)>>3
’=(p+p+p+2*p+q+q+q+4)>>3
提案されたクロマフィルタは、4×4クロマサンプルグリッドに対してデブロッキング
を行う。
2.4.7. 位置依存クリッピング
位置依存クリッピングtcPDは、境界で7個、5個、および3個のサンプルを修正す
る強く長いフィルタを含む輝度フィルタリング処理の出力サンプルに適用される。量子化
誤差分布を仮定して、より高い量子化ノイズを有すると予想されるサンプルに対して、ク
リッピング値を増加させることが提案され、よって、再構成されたサンプル値の真のサン
プル値からのより高い偏差を有することが予想される。
非対称フィルタでフィルタリングされた各PまたはQ境界について、章2.4.2にお
ける意思決定処理の結果に基づいて、位置依存閾値テーブルが、サイド情報としてデコー
ダに提供される2つのテーブル(即ち、Tc7およびTc3を以下にまとめる)から選択
される。
Tc7={6,5,4,3,2,1,1};Tc3={6,4,2};
tcPD=(Sp==3)?Tc3:Tc7;
tcQD=(Sq==3)?Tc3:Tc7;
短い対称フィルタでフィルタリングされるPまたはQ境界に対しては、より小さい位置
依存閾値が適用される。
Tc3={3,2,1};
閾値を定義した後、tcPおよびtcQクリッピング値に従って、フィルタリングされ
たp’およびq’サンプル値をクリッピングする。
p’’=Clip3(p’+tcP,p’-tcP,p’);
q’’=Clip3(q’+tcQ,q’-tcQ,q’);
ここで、p’、q’はフィルタリングされたサンプル値であり、p”、q”
クリッピング後の出力サンプル値であり、tcP tcPはVVC tcパラメータ
、tcPD、tcQDから導出されるクリッピング閾値である。関数Clip3は、VV
Cに規定されているような、クリッピング関数である。
2.4.8.サブブロックのデブロッキング調整
両方のロングフィルタを使用する並列フレンドリなデブロッキングおよびサブブロック
デブロッキングを可能にするために、ロングフィルタは、ロングフィルタのための輝度制
御に示すように、サブブロックデブロッキング(AFFINE、ATMVP、またはDM
VR)を使用する側でのサンプルの修正が、最大で5つまでに制限される。さらに、サブ
ブロックのデブロッキングは、CUまたは暗黙のTU境界に近い8×8グリッド上のサブ
ブロック境界の修正が、各側において最大2つまでのサンプルに制限されるように調整さ
れる。
以下は、CU境界と整列されていないサブブロック境界に適用される。
If(mode block Q==SUBBLOCKMODE && edge !
=0){
if(!(implicitTU && (edge==(64/4))))
if(edge==2 || edge==(orthogonalLength
-2) || edge==(56/4) || edge==(72/4))
Sp=Sq=2;
else
Sp=Sq=3;
else
Sp=Sq=bSideQisLargeBlk?5:3
この場合、0に等しいエッジはCU境界に対応し、2に等しいかまたはorthogo
nalLength-2に等しいエッジは、CU境界からのサブブロックの境界8サンプ
ルに対応する。ここで、TUの暗黙的分割が使用される場合、暗黙的TUは真である。
2.5. サンプル適応オフセット(Sample Adaptive Offset
:SAO)
SAOの入力は、DBの後に再構成されたサンプルである。SAOの概念は、まず、選
択された分類子を使用して領域サンプルを複数のカテゴリに分類し、各カテゴリにオフセ
ットを取得し、次いで、カテゴリの各サンプルにそのオフセットを加えることによって、
領域の平均のサンプル歪みを低減することであり、そこで、分類子のインデックスと領域
のオフセットとがビットストリームにおいてコーディングされる。HEVCおよびVVC
において、この領域(SAOパラメータ信号通知の単位)は、CTUとして定義される。
HEVCには、低複雑性の要件を満たすことができる2つのSAOタイプが採用されて
いる。これらの2つのタイプは、エッジオフセット(EO)およびバンドオフセット(B
O)であり、これらについては以下でさらに詳細に説明する。SAOタイプのインデック
スがコーディングされる(これは、[0,2]の範囲内にある)。EOの場合、サンプル
分類は、水平、垂直、135°の対角線、および45°の対角線方向などの1次元方向パ
ターンに従って、現在のサンプルと近傍のサンプルとを比較することに基づく。
図10A~図10Dは、EOサンプルの分類のための4つの1次元方向パターンである
、水平(EOクラス=0)、垂直(EOクラス=1)、斜め135°(EOクラス=2)
、斜め45°(EOクラス=3)を示す。
所与のEOクラスに対して、CTB内の各サンプルを5つのカテゴリの1つに分類され
る。「c」とラベル付けされた現在のサンプル値を、選択された1次元パターンに沿った
(「a」および「b」とラベル付けされた)その2つの近傍部分と比較する。各サンプル
の分類規則を表2-4にまとめる。カテゴリ1および4は、それぞれ、選択された1次元
パターンに沿った局所的な谷および局所的なピークに関連付けられる。カテゴリ2および
3は、それぞれ、選択された1次元パターンに沿った凹面および凸面の角に関連付けられ
る。現在のサンプルがEOカテゴリ1~4に属さない場合、それはカテゴリ0であり、S
AOは適用されない。
Figure 2024026154000008
2.6. 適応ループフィルタ(ALF)
VVCにおいて、ブロックに基づくフィルタ適応を伴う適応ループフィルタ(ALF)
が適用される。輝度成分は、局所勾配の方向および働きに基づいて、4×4ブロックごと
に25個のフィルタのうち1つを選択する。
2.6.1. フィルタ形状
2つの菱形フィルタ形状(図11に示す)が使用される。輝度成分には7×7菱形を適
用し、クロマ成分には5×5菱形を適用する。
図11はALFフィルタの形状を示す(彩度:5×5菱形、輝度:7×7菱形)。
2.6.2. ブロック区分
輝度成分の場合、各4×4ブロックを25個のクラスのうちの1つに分類する。分類イ
ンデックスCは、その方向性DおよびアクティビティA^の量子化値に基づいて、以下の
ように導出される。
Figure 2024026154000009
DおよびA^を計算するために、まず、1-Dラプラシアンを使用して、水平、垂直お
よび2つの対角線方向の勾配を計算する。
Figure 2024026154000010
ここで、インデックスiおよびjは、4×4ブロック内の左上のサンプルの座標を表し
、R(i,j)は、座標R(i,j)における再構成されたサンプルを示す。
ブロック区分の複雑性を低減するために、サブサンプリングされた1-Dラプラシアン
計算が適用される。図12はサブサンプリングされたラプラシアン計算を示す。図12A
は垂直方向勾配用のサブサンプリング位置を示し、図12Bは水平方向勾配用のサブサン
プリング位置を示し、図12Cは対角勾配用のサブサンプリング位置を示し、図12Dは
対角勾配用のサブサンプリング位置を示す。
そして、水平方向および垂直方向の勾配のD最大値およびD最小値を以下のように設定
する。
Figure 2024026154000011
2つの対角線方向の勾配の最大値および最小値は、以下のように設定される。
Figure 2024026154000012
指向性Dの値を導出するために、これらの値を互いに且つ2つの閾値tおよびt
比較する。
Figure 2024026154000013
アクティビティ値Aは、以下のように計算される。
Figure 2024026154000014
Aをさらに0~4の範囲に量子化し、量子化された値をA^とする。
ピクチャにおけるクロマ成分に対して、分類方法は適用されず、即ち、単一のALF係
数のセットが各クロマ成分に対して適用される。
2.6.3. フィルタ係数およびクリッピング値の幾何学的変換
各4×4輝度ブロックをフィルタリングする前に、そのブロックに対して計算された勾
配値に基づいて、フィルタ係数f(k,l)および対応するフィルタクリッピング値c(
k,l)に対して、回転または対角線および垂直方向の反転等の幾何学的変換を施す。こ
れは、これらの変換をフィルタサポート領域内のサンプルに適用することに等しい。その
考えは、ALFが適用される異なるブロックを、それらの方向性を揃えることによって、
より類似させることである。
対角線、垂直方向の反転および回転を含む3つの幾何学的変換を紹介する。
Figure 2024026154000015
ここで、Kはフィルタのサイズであり、0≦k,l≦K-1が係数座標であり、位置(
0,0)は左上隅にあり、位置(K-1,K-1)は右下隅にある。この変換は、そのブ
ロックに対して計算された勾配値に基づいて、フィルタ係数f(k,l)およびクリッピ
ング値c(k,l)に適用される。変換と4方向の4つの勾配との関係を以下の表にまと
める。
Figure 2024026154000016
2.6.4.フィルタパラメータ信号通知
ALFフィルタパラメータは、適応パラメータセット(APS)において信号通知され
る。1つのAPSにおいて、最大25組の輝度フィルタ係数およびクリッピング値インデ
ックス、並びに最大8組のクロマフィルタ係数およびクリッピング値インデックスを信号
通知することができる。ビットオーバーヘッドを低減するために、輝度成分の異なる分類
のフィルタ係数をマージすることができる。スライスヘッダにおいて、現在のスライスに
使用されるAPSのインデックスが信号通知される。
APSから復号されたクリッピング値インデックスは、輝度およびクロマ成分両方に対
するクリッピング値のテーブルを使用してクリッピング値を判定することを可能にする。
これらのクリッピング値は、内部ビット深度に依存する。より正確には、クリッピング値
は、以下の式によって求められる。
Figure 2024026154000017
ここで、Bは内部ビット深度に等しく、αは予め定義された定数2.35に等しく、N
はVVCにおいて許容されるクリッピング値の数である4に等しい。
スライスヘッダにおいて、現在のスライスに使用される輝度フィルタ集合を規定するよ
うに、最大7つのAPSインデックスを信号通知することができる。フィルタリング処理
はCTBレベルでさらに制御されてもよい。ALFが輝度CTBに適用されるかどうかを
示すために、常に1つのフラグが信号通知される。1つの輝度CTBは、16個の固定フ
ィルタセットと複数のAPSからのフィルタセットから、1つのフィルタセットを選択す
ることができる。どのフィルタセットが適用されるかを示すように、輝度CTBのために
フィルタセットインデックスが信号通知される。エンコーダおよびデコーダの両方におい
て、16個の固定フィルタセットを予め規定し、ハードコードする。
クロマ成分の場合、現在のスライスに使用されているクロマフィルタセットを示すよう
に、スライスヘッダにAPSインデックスを信号通知する。CTBレベルにおいて、AP
Sにおいて複数のクロマフィルタセットが存在する場合、各クロマCTBごとにフィルタ
インデックスを信号通知する。
フィルタ係数は、128に等しいノルムで量子化される。乗算の複雑性を抑えるために
、非中心位置の係数値が-2~2-1の範囲内に含まれるように、ビットストリーム
適合性が適用される。中心位置係数はビットストリームにおいて信号通知されず、128
に等しいと見なされる。
2.6.5.フィルタリング処理
デコーダ側において、CTBのためにALFが有効化されると、CU内の各サンプルR
(i,j)がフィルタリングされ、その結果、以下に示すように、サンプル値R’(i,
j)が得られる。
Figure 2024026154000018
この場合、f(k,l)は復号されたフィルタ係数を表し、K(x,y)はクリッピン
グ関数であり、c(k,l)は復号されたクリッピングパラメータを表す。変数kおよび
lは、-L/2とL/2との間で変化し、ここで、Lはフィルタ長を表す。機能
Clip3(-y,y,x)に対応するクリッピング関数K(x,y)=min(y,m
ax(-y,x))。
2.6.6. 行バッファ削減のための仮想境界フィルタリング処理
ハードウェアおよび組み込みソフトウェアにおいて、ピクチャに基づく処理は、その高
いピクチャバッファ要件のために、実際には受け入れられない。オンチップピクチャバッ
ファの使用は非常に高価であり、オフチップピクチャバッファの使用は、外部メモリアク
セス、電力消費、およびデータアクセス待ち時間を大幅に増加させる。そのため、実際の
製品において、DF、SAO、ALFを画像に基づく復号からLCUに基づく復号に変更
することになる。DF、SAO、ALFにLCUに基づく処理を使用する場合、複数のL
CUを並列処理するために、LCUパイプライン方式を用いたラスタスキャンでLCUご
とに全体の復号処理を行うことができる。この場合、1つのLCU行を処理するには上側
LCU行からのピクセルが必要であるので、DF、SAO、およびALFのためにライン
バッファが必要である。オフチップラインバッファ(例えば、DRAM)を使用する場合
、外部メモリの帯域幅および消費電力が増大し、オンチップラインバッファ(例えば、S
RAM)を使用する場合、チップ面積が増大する。従って、ラインバッファは既にピクチ
ャバッファよりも遥かに小さいが、ラインバッファを低減することが依然として望ましい
VTM-4.0において、図13に示すように、輝度成分に必要なラインバッファの総
数は11.25ラインである。ラインバッファ要件の説明は以下のとおりである。CTU
エッジと重複する水平エッジのデブロッキングは、決定およびフィルタリングには、第1
のCTUからのラインK,L,M,M、および最下CTUからのラインO,Pを必要とす
るので、行うことができない。そのため、CTU境界と重なる水平エッジのデブロッキン
グは、下側CTUが来るまで延期される。従って、ラインK,L,M,Nに対して、再構
成された輝度サンプルをラインバッファ(4ライン)に記憶しなければならない。次に、
ラインA~Jに対してSAOフィルタリングを行うことができる。ラインJはSAOフィ
ルタリングすることができ、これは、デブロッキングによってラインKにおけるサンプル
が変化しないためである。ラインKのSAOフィルタリングの場合、エッジオフセット分
類決定はラインバッファにのみ記憶される(これは0.25輝度ラインである)。ALF
フィルタリングは、ラインA~Fに対してのみ行い得る。図13に示すように、4×4ブ
ロックごとにALF分類を行う。各4×4ブロック分類は、8×8のサイズのアクティビ
ティ窓を必要とし、このアクティビティ窓は、1dラプラシアンを計算して勾配を決定す
るために9×9の窓を必要とする。
従って、ラインG、H、I、Jと重なる4×4ブロックのブロック分類のために、Jは
、仮想境界より下のSAOフィルタリングされたサンプルを必要とする。さらに、ALF
分類のために、ラインD、E、FのSAOフィルタリングされたサンプルが必要である。
さらに、ラインGのALFフィルタリングは、上側ラインから3つのSAOフィルタリン
グされたラインD、E、Fを必要とする。従って、総ラインバッファ要件は、以下のとお
りである。
-ラインK-N(水平DFピクセル):4ライン
-ラインD-J(SAOフィルタリングされたピクセル):7ライン
-ラインJとラインKとの間のSAOエッジオフセット分類子値:0.25ライン
従って、必要とされる輝度ラインの総数は、7+4+0.25=11.25である。
同様に、クロマ成分のラインバッファ要件は図14に例示されている。クロマ成分のた
めのラインバッファ要件は、6.25ラインであると評価される。
図13は、輝度成分用VTM-4.0中のループフィルタラインバッファ要件を示す。
図14は、クロマ成分用のVTM-4.0中のループフィルタラインバッファ要件を示
す。
SAOおよびALFのラインバッファ要件を排除するために、最近のVVCにおいて、
仮想境界(VB)の概念が導入されてALFのラインバッファ要件を低減する。水平CT
U境界付近のサンプルに対して修正されたブロック区分およびフィルタリングが用いられ
る。図13に示すように、VBは、水平LCU境界においてN個のピクセルだけ上向きに
シフトされている。LCUごとに、SAOおよびALFは、下側LCUが来る前に、VB
より上のピクセルを処理することができるが、下側LCUが来るまで、VBより下のピク
セルを処理することはできず、これは、DFによってもたらされる。ハードウェアの実施
費用を勘案し、提案したVBと水平LCU境界との間の空間を、輝度成分が4ピクセル(
即ち、図13または図15におけるN=4)、クロマ成分が2ピクセル(即ち、N=2)
として設定する。
図15は、仮想境界における修正された区分を示す。
図16に示すように、輝度成分に対して修正されたブロック区分を適用する。仮想境界
より上の4×4ブロックの1Dラプラシアン勾配計算のために、仮想境界より上のサンプ
ルのみを使用する。同様に、仮想境界より下の4×4ブロックの1Dラプラシアン勾配計
算のために、仮想境界より下のサンプルのみを使用する。従って、1Dラプラシアン勾配
計算に使用されるサンプルの低減された数を考慮に入れることで、アクティビティ値Aの
量子化を拡大縮小する。
フィルタリング処理のために、仮想境界におけるミラーリングされた(対称)パディン
グ演算が、輝度成分およびクロマ成分の両方に使用される。図16に示すように、フィル
タリングされるサンプルが仮想境界の下に位置する場合、仮想境界の上に位置する近傍の
サンプルにパディングを行う。一方、他方の側の対応するサンプルもまた、対称的にパデ
ィングされる。
図16は、仮想境界における輝度成分のための修正されたALFフィルタリングを示す
他の例として、(i,j)に位置する1つのサンプル(例えば、図17Bに点線を有す
るP0A)をパディングする場合、図17A~17Cに示すように、同じフィルタ係数を
共有する(m,n)に位置する対応するサンプル(例えば、図17Bに点線を有するP3
B)もまた、サンプルが利用可能でもパディングを行う。
図17Aは、VBの上/下に1つの必要な線を(一辺ごとに)パディングする必要があ
ることを示している。
図17Bは、VBの上/下に2つの必要な線を(一辺ごとに)パディングする必要があ
ることを示している。
図17Cは、VBの上/下に3つの必要な線を(一辺ごとに)パディングする必要があ
ることを示している。
図27は、仮想境界における修正輝度ALFフィルタリングの例を示す。
水平CTU境界で使用されるミラー(対称)パディング方法とは異なり、境界を横切る
フィルタリングが無効にされる場合、スライス、タイル、およびサブピクチャの境界に対
して反復(片側)パディング処理が適用される。ピクチャの境界においても、反復(片側
)パディング処理が適用される。パディングされたサンプルは、分類およびフィルタリン
グ処理の両方に使用される。図18は、ピクチャ/サブピクチャ/スライス/タイル境界
における輝度ALFフィルタリングのための反復パディング法の例を示す。
図18は、ピクチャ/サブピクチャ/スライス/タイルの境界における輝度ALFフィ
ルタリングのための反復パディングの例を示す。
2.7. 360度映像符号化
VTM5における水平ラップアラウンドの動き補償は、等長方形(ERP)投影フォー
マットにおける再構成された360度映像の視覚品質を改善するように設計された360
度固有のコーディングツールである。従来の動き補償において、動きベクトルが参照ピク
チャにおけるピクチャの境界を超えるサンプルを指す場合、反復パディングを適用し、対
応するピクチャの境界における最も近い近傍のものからコピーすることによって、境界外
サンプルの値を導出する。360度映像の場合、この反復パディング方法は適しておらず
、再構成されたビューポート映像において、「シームアーチファクト」と呼ばれる視覚的
アーチファクトを引き起こす可能性がある。360度の映像は球面上で撮影され、本質的
に「境界」を有していないため、投影されたドメインにおいて参照ピクチャの境界外の参
照サンプルは、常に球面ドメインにおける近傍のサンプルから得ることができる。一般的
な投影フォーマットの場合、2Dから3Dおよび3Dから2Dへの座標変換、並びに端数
のサンプルの位置のためのサンプル補間を含むので、球面ドメインにおける対応する近傍
のサンプルを導出することは困難となり得る。この問題は、ERP投影フォーマットの左
右の境界の場合ははるかに簡単である。何故なら、左側のピクチャの境界外の球面の近傍
部分は、右側のピクチャの境界の内側のサンプルから得ることができ、逆もまた同様であ
るからである。図19は、VVCにおける水平ラップアラウンドの動き補償の例を示す。
水平ラップアラウンドの動き補償処理は、図19に示すように行われる。参照ブロック
の一部が、投影されたドメインにおいて参照ピクチャの左(または右)境界外にある場合
、反復パディングの代わりに、「境界外」の部分が、参照ピクチャ内に位置する対応する
球面の近傍部分から、投影されたドメインにおける右(または左)境界に向かって行われ
る。反復パディングは、上側ピクチャの境界および下側ピクチャの境界に対してのみ使用
される図19に示すように、水平ラップアラウンドの動き補償は、360度の映像コーデ
ィングによく使用される非標準的なパディング法と組み合わせることができる。VVCに
おいて、これは、ラップアラウンドオフセットを示すためにハイレベルな構文要素を信号
通知することによって達成され、このことは、パディングの前にERPピクチャ幅に設定
されるべきである。つまり、この構文は、水平ラップアラウンドの位置を適宜調整するた
めに使用される。この構文は、左右のピクチャの境界における特定のパディング量の影響
を受けないので、当然ながら、ERPピクチャの非対称パディング、すなわち左右のパデ
ィングが異なる場合でも対応する。水平ラップアラウンドの動き補償は、参照サンプルが
参照ピクチャの左右の境界の外側にある場合、動き補償のためのより有意義な情報を提供
する。
複数の面からなる投影フォーマットの場合、どの種のコンパクトなフレームパッキング
配列を使用しても、フレームパッキングされたピクチャにおいて、2つ以上の隣り合う面
間に不連続部分が現れる。例えば、図20に示された3×2フレームパッキング構成を考
えてみると、上半分の3つの面は、3D形状において連続しており、下半分の3つの面は
、3D形状において連続しているが、フレームパッキングされたピクチャの上半分および
下半分は、3D形状において不連続である。この不連続部分にわたってインループフィル
タリング動作を行うと、再構成された映像において面のシームアーチファクトが見えるよ
うになることがある。
面のシームアーチファクトを軽減するには、フレームパックキングされたピクチャにお
ける不連続部分にわたりインループフィルタリング動作を無効化すればよい。インループ
フィルタリング動作が無効化される垂直方向および/または水平方向の仮想境界を信号通
知するための構文が提案されている。2つのタイル(連続した面の各集合に対して1つず
つ)を使用し、タイル間のインループフィルタリング動作を無効化することと比較して、
提案される信号通知方法は、面のサイズがCTUのサイズの倍数である必要がないので、
より柔軟である。
図20は、3×2レイアウトにおけるHECの画像を示す。
2.8. JVET-P0080:CE5-2.1,CE5-2.2:クロス成分適応
ループフィルタ
図21Aは、他のループフィルタに対するCC-ALF[1]の配置を示す。CC-ALFは
、クロマ成分ごとに輝度チャネルに線形菱形フィルタ図21Bを適用することによって動
作し、以下のように表される。
Figure 2024026154000019
ここで
(x,y)は、微調整されたクロマ成分iの位置である。
(x,y)は、(x,y)に基づく輝度位置である。
は、クロマ成分iのための輝度におけるフィルタサポートである。
(x,y)は、フィルタ係数を表す。(2-14)
図21Aは他のループフィルタに対するCC-ALFの配置を示す。図21Bは菱形フ
ィルタを示す。
輝度平面とクロマ平面との間の空間倍率に基づいて、サポート領域の中心となる輝度位
置(x,y)を計算する。すべてのフィルタ係数はAPSで送信され、8ビットのダ
イナミックレンジを有する。スライスヘッダにおいて、APSが参照されてもよい。スラ
イスのクロマ成分ごとに使用されるCC-ALF係数も、時間的サブレイヤに対応するバ
ッファに記憶される。これらの時間的サブレイヤフィルタ係数セットの再利用は、スライ
スレベルフラグを使用して容易になる。CC-ALFフィルタの適用は、可変ブロックサ
イズ(即ち、16×16、32×32、64×64、128×128)で制御され、サン
プルのブロックごとに受信されたコンテキスト符号化フラグによって信号通知される。ブ
ロックサイズは、CC-ALF有効化フラグと共に、クロマ成分ごとにスライスレベルで
受信される。水平方向の仮想境界のための境界パディングは、繰り返しを利用する。残り
の境界については、通常のALFと同じタイプのパディングを使用する。
2.8.1. JVET-P0080におけるCC-ALFの仕様
x.x.x.x クロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対するクロマサンプルの現在のブロックの左上の
サンプルを規定する位置(xC,yC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..13であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサンプ
ルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出され
る。
xCtb=(((xC*SubWidthC)>>CtbLog2SizeY)<<C
tbLog2SizeY (8-1229)
yCtb=(((yC*SubHeightC)>>CtbLog2SizeY)<<
CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xC+x][y
C+y]を導出するために、サンプルalfPicture[xC+x][yC+y]
(但し、x=0..ccAlfWidth-1,y=0..ccAlfHeight-1
)の現在のクロマブロック内部の各々の再構成されたクロマサンプルは、以下のようにフ
ィルタリングされる。
-クロマ位置(xC+x,yC+y)における現在のクロマサンプルに対応する輝度位
置(xL,yL)は、((xC+x)*SubWidthC,(yC+y)*SubHe
ightC)に等しく設定される。
-i=-2..2,j=-2..3の場合、配列recPicture内の輝度位置
(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0,pic_width_in_luma_samples-
1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0, pic_height_in_luma_sample
s-1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-垂直方向のサンプルの位置yL、clipLeftPos、およびclipRigh
tPosに応じた垂直方向の輝度サンプルの位置のオフセットyM2、yM1、yP1、
yP2、yP3を表2-6で規定する。
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平サンプル位置オフセットxM1,xM2,xP1、xP2を表
2-7で規定する。
変数currは、以下のように導出される。
curr=alfPicture[xC+x,yC+y] (8-1286)
-クロス成分フィルタ係数f[j]のアレイは、j=0..13として以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
変数sumは、以下のように導出される。
sum=f[0]*recPicture[h,vy+yM2]+
f[1]*recPicture[hx+xM1,vy+yM1]+
f[2]*recPicture[h,vy+yM1]+
f[3]*recPicture[hx+xP1,vy+yM1]+
f[4]*recPicture[hx+xM2,v]+
f[5]*recPicture[hx+xM1,v]+
f[6]*recPicture[h,v]+
f[7]*recPicture[hx+xP1,v]+
f[4]*recPicture[hx+xP2,v]+ (8-1289)
f[4]*recPicture[hx+xM2,vy+yP1]+
f[8]*recPicture[hx+xM1,vy+yP1]+
f[9]*recPicture[h,vy+yP1]+
f[10]*recPicture[hx+xP1,vy+yP1]+
f[4]*recPicture[hx+xP2,vy+yP1]+
f[11]*recPicture[hx+xM1,vy+yP2]+
f[12]*recPicture[h,vy+yP2]+
f[13]*recPicture[hx+xP1,vy+yP2]+
f[0]*recPicture[h,vy+yP3
sum=curr+(sum+64)>>7) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xC+x][yC+y]は、以下のように導出される。
ccAlfPicture[xC+x][yC+y]=Clip3(0,(1<<Bi
tDepth)-1,sum) (8-1291)
Figure 2024026154000020
Figure 2024026154000021
2.8.2. JVET-P0080における仮想境界におけるパディング方法
輝度ALF/クロマALFと同様に、JVET-P0080におけるCC-ALFの場
合、ALF仮想境界において反復パディングが利用される。図22に示すように、ALF
仮想境界より上または下の輝度サンプルが利用不可である場合、最も近いサンプル線をパ
ディングに利用する。詳細なパディング方法を表2-6に示す。
2.9. JVET-P1008:CE5-関連:CC-ALFの設計について
JVET-O0636[1]およびCE5-2.1[2]において、クロス成分適応ル
ープフィルタ(CC-ALF)を導入し、検討した。このフィルタは、線形フィルタを使
用して輝度サンプル値をフィルタリングし、並置されフィルタリングされた出力からクロ
マチャネルのための残差補正を生成する。このフィルタは、既存の輝度ALFと並列に動
作するように設計されている。
簡素化され、且つ、既存のALFとより整合性があると断定されるCC-ALF設計が
提案される。この設計は、8つの独自の係数を有する3×4菱形を使用する。これにより
、CE5-2.1で検討された5×6設計に比較して、乗数が43%削減される。CTU
のクロマ成分に対して、クロマALFまたはCC-ALFのいずれかを有効化する制限を
設ける場合、ピクセル当たりの乗数カウントを16に制限する(現在のALFは15であ
る)。フィルタ係数のダイナミックレンジは、6ビットの符号付きに限定される。提案さ
れた解決策およびCE5-2.1解決策の両方のためのフィルタの説明を図23に示す。
既存のALF設計により整合させるために、APSにおいてフィルタ係数を信号通知す
る。4つまでのフィルタがサポートされ、CTUレベルでのフィルタ選択が示される。A
LFとさらに調和させるために、仮想境界で対称線選択を使用する。最後に、補正出力に
必要な記憶容量を制限するために、CC-ALF残差出力を-2BitDepthC-1
から2BitDepthC-1-1にクリップする。
JVET-P1008におけるCC-ALFの仕様
x.x.x.x クロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対する現在のクロマコーディングツリーブロック
の左上のサンプルを規定するクロマ位置(xCtbC,yCtbC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..7であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサン
プルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出さ
れる。
xCtb=(((xCtbC*SubWidthC)>>CtbLog2SizeY)
<<CtbLog2SizeY (8-1229)
yCtb=(((yCtbC*SubHeightC)>>CtbLog2SizeY
)<<CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xCtbC+
x][yCtbC+y]を導出するために、サンプルalfPicture[xCtb
C+x][yCtbC+y](但し、x=0..ccAlfWidth-1,y=0..
ccAlfHeight-1)の現在のクロマブロック内部の各々の再構成されたクロマ
サンプルは、以下のようにフィルタリングされる。
-クロマ位置(xCtbC+x,yCtbC+y)における現在のクロマサンプルに対
応する輝度位置(xL,yL)は、((xCtbC+x)*SubWidthC,(yC
tbC+y)*SubHeightC)に等しく設定される。
配列recPicture内の、-i=-1..1,j=-1..2の場合の輝度位
置(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0, pic_width_in_luma_samples
-1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0, pic_height_in_luma_sample
s-1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-垂直方向のサンプルの位置yL、clipLeftPos、およびclipRigh
tPosに応じた垂直方向の輝度サンプルの位置のオフセットyM1、yP1、yP2を
表2-8で規定する。
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平サンプル位置オフセットxM1およびxP1を表2-9で規定
する。
変数currは、以下のように導出される。
curr=alfPicture[xCtbC+x,yCtbC+y] (8-1
286)
-クロス成分フィルタ係数f[j]のアレイは、j=0..7の場合、以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
変数sumは、以下のように導出される。
sum=f[0]*recPicture[h,vy+yM1]+
f[1]*recPicture[hx+xM1,v]+
f[2]*recPicture[h,v]+
f[3]*recPicture[hx+xP1,v]+ (8-1289)
f[4]*recPicture[hx+xM1,vy+yP1]+
f[5]*recPicture[h,vy+yP1]+
f[6]*recPicture[hx+xP1,vy+yP1]+
f[7]*recPicture[h,vy+yP2
sum=Clip3(-(1<<(BitDepth-1)),(1<<(BitDe
pth-1))-1,sum) (8-1290)
sum=curr+(sum+64)>>(7+(BitDepth-BitDept
)) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xCtbC+x][yCtbC+y]は、以下のように導出される。
ccAlfPicture[xCtbC+x][yCtbC+y]=Clip3(0,(
1<<BitDepth)-1,sum) (8-1291)
Figure 2024026154000022
Figure 2024026154000023
2.9.1. JVET-P1008における仮想境界におけるパディング方法
JVET-P1008のCC-ALFに対しては、ALF仮想境界でミラー(対称)パ
ディングが使用される。図24に示すように、ALF仮想境界より上または下の輝度サン
プルが利用不可である場合、最も近いサンプル線をパディングに利用し、対応するサンプ
ルもパディングする必要がある。詳細なパディング方法は表2-9にも示されている。
2.10.JVET-P2025におけるCC-ALFの簡単な方法
2.10.1代替のフィルタ形状
CC-ALFフィルタ形状は、以下の図に示すように、8個または6個の係数を有する
ように修正される。
図25は、JVET-P0106における8つの係数のCC-ALFフィルタ形状を示
す。
図26は、JVET-P0173における6つの係数のCC-ALFフィルタ形状を示
す。
図27は、JVET-P0251における6つの係数のCC-ALFフィルタ形状を示
す。
2.10.2. ジョイントクロマクロス成分適応フィルタリング
ジョイントクロマクロス成分適応ループフィルタ(JC-CCALF)は、エンコーダ
でトレーニングされた1つのCCALFフィルタ係数のみを使用して、1つのフィルタリ
ングされた出力を微調整信号として生成し、これをCb成分に直接追加し、適切に重み付
けた後Cr成分に追加する。フィルタはCTUレベルで示されるか、またはブロックサイ
ズで示されて、1つのスライスごとに信号通知される。
サポートされるこのようなクロマブロックサイズは、最小クロマCTUサイズから現在
のクロマCTUサイズまでの範囲にわたる。最小クロマCTUサイズは、クロマCTUの
可能な最小の幅と高さとの間の最小値、すなわち、Min(32/SubWidthC,
32/SubHeightC)であり、現在のクロマCTUのサイズは、現在のクロマC
TUの幅と高さの間の最小値、すなわちMin(CtbWidthC,CtbHeigh
tC)である。例えば、CTUサイズを最大128×128に設定すると、1つのスライ
スのJC-CCALFクロマブロックサイズは、4:4:4映像の場合、32×32、6
4×64、128×128のいずれか1つ、または4:2:0、4:2:2映像の場合、
16×16、32×32、64×64のいずれか1つとなる。
図28は、JC-CCALFの作業の流れを示している。
3. 本明細書に開示される技術的解決策によって解決される技術的課題
CC-ALFのための境界パディングの現在の設計は、以下の問題を有する。
1.CC-ALFにおけるALF仮想境界でのパディング方法は、あまり効率的でない
可能性があるパディングされたサンプルが利用されるので、準最適となる場合がある。
2.ALF仮想境界および映像ユニットの境界(例えば、ピクチャ/サブピクチャ/ス
ライス/タイルの境界)並びに360度の仮想境界を処理するための異なる方法、即ち、
異なるパディング方法が存在する。
3.ALFにおいて、ミラーパディングが適用され、現在のサンプルまでの距離が計算
され、どの対応するサンプルをパディングする必要があるかが決定される。しかしながら
、CC-ALFにおいて、特に4:2:0の場合、1つのクロマサンプルをフィルタリン
グするために、複数の輝度サンプルが関与する。どの対応するサンプルをパディングする
必要があるかを決定する方法は不明である。
4. 技術および実施形態の例示一覧
以下に列記されるものは、一般的な概念を説明するための例であると考えられるべきで
ある。これら項目は狭い意味で解釈されるべきではない。さらに、これらの項目は、任意
の方法で組み合わせることができる。
本開示で説明されるいくつかの実施形態において、「CC-ALF」という用語は、第2
の色成分(例えば、Y)または複数の色成分(例えば、YおよびCrの両方)におけるサ
ンプル値を利用して、第1の色成分(例えば、Cb)におけるサンプルを精緻化するコー
ディングツールを表す。本発明は、[1]~[4]に記載されるCC-ALF技術に限定
されない。「対応するフィルタリングサンプルのセット」は、フィルタサポートに含まれ
るサンプルを表すために使用してもよく、例えば、CC-ALFの場合、「対応するフィ
ルタリングサンプルのセット」は、クロマサンプルの微調整/オフセットを導出するため
に使用されるクロマサンプルの並置された輝度サンプルおよび並置されたクロマサンプル
の近傍の輝度サンプルを表すために使用されてもよい。
ALF仮想境界に使用されるパディング方法は、「ミラーパディング」と表してもよく
、(i,j)に位置する第1の利用不可のサンプルに対してパディングを行い、たとえ第
2のサンプルが利用可能であっても、ALFのフィルタサポートにおける「第1のサンプ
ルの対応するサンプル」によって定義される第2のサンプル(例えば、現在の輝度サンプ
ルから同じ距離を共有する(m,n)に位置する対応するサンプル)にもパディングを行
う。
一例において、垂直方向のパディングが利用されて、例えば、(x,y1)に位置する
パディング対象のサンプルは、(x,y2)に位置するサンプルに等しく設定され、その
ために、y1は、サンプルまたは対応するサンプルのy座標を表し、y2は、パディング
に利用されるサンプルのy座標を表す。
一例において、水平方向のパディングが利用され、例えば、(x1,y)に位置するパ
ディング対象のサンプルは、(x2,y)に位置するサンプルに等しく設定され、そこで
、x1は、サンプルまたは対応するサンプルのx座標を表し、x2は、パディングに利用
されるサンプルのx座標を表す。
ピクチャ/サブピクチャ/スライス/タイルの境界/360度の映像の仮想境界、通常
の境界(例えば、最上および最下の境界)に使用されるパディング方法は、「反復パディ
ング」と呼ばれることもあり、使用される1つのサンプルが境界の外側にある場合、その
サンプルは、ピクチャの内側の利用可能なサンプルからコピーされる。
本開示において、近傍の(隣接または非隣接)サンプルは、異なる映像処理ユニット(
例えば、現在のピクチャ、または現在のサブピクチャ、または現在のタイル、または現在
のスライス、または現在のブリック、または現在のCTU、または現在の処理ユニット(
例えば、ALF処理ユニットまたは狭いALF処理ユニット)の外にあるか、または任意
の他の現在の映像ユニットである)に位置する場合、または再構成されていない、または
クロスフィルタリング映像処理ユニットが許可されない場合には、「利用不可」である。
CC-ALFのALF仮想境界の処理
1.ALF仮想境界において利用不可の輝度サンプルをパディングするために、ミラー
パディングを利用して、利用不可の輝度サンプルと、利用不可の輝度サンプルの1つまた
は複数の対応する輝度サンプルとを導出し、CC-ALFにおいてフィルタリングするこ
とができる。すなわち、利用不可のサンプルの少なくとも1つの対応する輝度サンプルは
、それが利用可能であっても同様にパディングすることが必要である。
a.一例において、ミラーパディング方法を使用して、利用不可の輝度サンプルの対
応するサンプルとして決定された輝度サンプルをパディングしてもよい。
b.一例において、(対応するフィルタリングサンプルのセットにおける)輝度サン
プルが、利用不可のサンプルの対応するサンプルとして決定されるかどうかは、代表的な
輝度サンプルに対するサンプルの距離、または/および代表的な輝度サンプルに対する利
用不可のサンプルの距離に依存することもある。ここで、代表的な輝度サンプルが位置し
ている中央の行をCで示す。K行におけるサンプルとL列のサンプルとを利用するK×L
フィルタ形状をCC-ALFにおいて使用するとする。
i.一例において、代表的な輝度サンプルは、フィルタリング対象の現在のクロマ
サンプルの並置された輝度サンプルとして定義される。
1)一例において、現在のクロマサンプルの並置された輝度サンプルの位置は、
カラーフォーマットに依存することもある。
a)一例において、(x,y)に位置するクロマサンプルの並置された輝度サ
ンプルは、4:2:0のクロマフォーマットにおける(2x,2y)に位置するものとし
て定義される。
b)一例において、(x,y)に位置するクロマサンプルの並置された輝度サ
ンプルは、4:2:2のクロマフォーマットにおける(2x,y)に位置するものとして
定義される。
c)一例において、(x,y)に位置するクロマサンプルの並置された輝度サ
ンプルは、4:4:4のクロマフォーマットにおける(x,y)に位置するものとして定
義される。
ii.一例において、この距離は、輝度サンプルを含む行と代表的な輝度サンプル
を含む行との垂直距離を指してもよい。例えば、この距離は、輝度サンプルと代表的な輝
度サンプルとの絶対y座標差として計算されてもよい。
1)図29に示すように、代表的な輝度サンプルが位置する中央の行、利用不可
のサンプルの行、対応するサンプルの行をそれぞれC、M、Nと表しており、MとNは等
しくない。d(x,y)をxとyの絶対y座標差として表しており、これは、行xと行y
との距離を意味する。
iii.一例において、ミラーパディングにおいてパディング対象の対応するサン
プルの決定は、フィルタ形状によって利用されるサンプルの行数に依存することもある。
iv.一例において、利用不可のサンプルが行Mに位置している場合(例えば、M
<C<NまたはM>C>N)は、d(C,M)=d(N,C)のとき、行Nに位置してい
るサンプルは、パディング対象の対応するサンプルであると決定される。
1)一例において、値K(例えば、K×L CC-ALFフィルタ形状)が奇数
である場合、ALFのためのミラーパディング方法(例えば、図16)をCC-ALFに
利用することができ、そこで、中央の輝度サンプルが代表的な輝度サンプルとして選択さ
れる。
a)一例において、K=5とし、表4-5に示す5つのサンプル行のy座標を
それぞれyM2=-2、yM1=-1、yL=0、yP1=1、yP2=2として表す。
ALF仮想境界はCtbSizeY-4に等しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-3に等しく、行yM2が利
用不可である場合、行yM2におけるサンプル(x,yM2)は、行yM1におけるサン
プル(x,yM1)を使用してパディングしてもよい。一方、対応する行yP2のサンプ
ル(x,yP2)は、行yP1のサンプル(x,yP1)を使用してパディングしてもよ
い。
2.一例において、yLがCtbSizeY-4に等しく、行yM2およ
びyM1が利用不可である場合、行yM2およびyM1におけるサンプル(x,yM2)
および(x,yM1)は、行yLにおけるサンプル(x,yL)を使用してパディングし
てもよい。一方、対応する行yP2およびyP1におけるサンプル(x,yP2)および
(x,yP1)は、行yLにおけるサンプル(x,yL)を使用してパディングしてもよ
い。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-6に等しく、行yP2が利
用不可である場合、行yP2におけるサンプル(x,yP2)は、行yP1におけるサン
プル(x,yP1)を使用してパディングしてもよい。一方、対応する行yM2における
サンプル(x,yM2)は、行yM1におけるサンプル(x,yM1)を使用してパディ
ングしてもよい。
2.一例において、yLがCtbSizeY-5に等しく、行yP2およ
びyP1が利用不可である場合、行yP2およびyP1におけるサンプル(x,yP2)
および(x,yP1)は、行yLにおけるサンプル(x,yL)を使用してパディングし
てもよい。一方、対応する行yM2およびyM1におけるサンプル(x,yM2)および
(x,yM1)は、行yLにおけるサンプル(x,yL)を使用してパディングしてもよ
い。
2)一例において、値K(例えば、K×L CC-ALFフィルタ形状)が偶数
である場合、図30に定義されたミラーパディング方法を利用してもよい。利用不可のサ
ンプルがALF仮想境界の上(下)の行M(N)に位置している場合は、ALF仮想境界
の下(上)の最も近いサンプル行からパディングされる。ALF仮想境界の下(上)の行
N(M)に位置する対応するサンプルは、行N(M)の上(下)の最も近いサンプル行か
らパディングしてもよいことが提案される。
a)一例において、K=2とし、表4-1に示す2つのサンプル行のy座標を
それぞれyL=0、yP1=1として表す。ALF仮想境界はCtbSizeY-4に等
しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-4に等しく、yLより上の
行が利用不可である場合、対応する行yP1におけるサンプル(x,yP1)は、行yL
におけるサンプル(x,yL)を使用してパディングしてもよい。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-5に等しく、行yP1が利
用不可である場合、行yP1におけるサンプル(x,yP1)は、行yLにおけるサンプ
ル(x,yL)を使用してパディングしてもよい。
a)一例において、K=4とし、表4-3に示す4つのサンプル行のy座標を
それぞれyM1=-1、yM1=-1、yL=0、yP1=1、yP2=2として表す。
ALF仮想境界はCtbSizeY-4に等しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-3に等しく、yM1の上の
行が利用不可である場合、対応する行yP2におけるサンプル(x,yP2)は、行yP
1におけるサンプル(x,yP1)を使用してパディングしてもよい。
2.一例において、yLがCtbSizeY-4に等しく、yM1および
yM1の上の行が利用不可である場合、行yM1におけるサンプル(x,yM1)は、行
yLにおけるサンプル(x,yL)を使用してパディングしてもよい。一方、対応する行
yP2およびyP1におけるサンプル(x,yP2)および(x,yP1)は、行yLに
おけるサンプル(x,yL)を使用してパディングしてもよい。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-6に等しく、行yP2が利
用不可である場合、行yP2におけるサンプル(x,yP2)は、行yP1におけるサン
プル(x,yP1)を使用してパディングしてもよい。
2.一例において、yLがCtbSizeY-5に等しく、行yP2およ
びyP1が利用不可である場合、行yP2およびyP1におけるサンプル(x,yP2)
および(x,yP1)は、行yLにおけるサンプル(x,yL)を使用してパディングし
てもよい。一方、対応する行yM1のサンプル(x,yM1)は、行yLのサンプル(x
,yL)を使用してパディングしてもよい。
c)一例において、K=6であり、yM2=-2、yM1=-1、yL=0、
yP1=1、yP2=2、yP3=3をそれぞれ表4-6に示す6つのサンプル行のy座
標として表す。ALF仮想境界はCtbSizeY-4に等しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-2に等しく、yM2の上の
行が利用不可である場合、対応する行yP3におけるサンプル(x,yP3)は、行yP
2におけるサンプル(x,yP2)を使用してパディングしてもよい。
2.一例において、yLがCtbSizeY-3に等しく、yM2および
yM2の上の行が利用不可である場合、行yM2におけるサンプル(x,yM2)は、行
yM1におけるサンプル(x,yM1)を使用してパディングしてもよい。一方、対応す
る行yP3およびyP2におけるサンプル(x,yP3)および(x,yP2)は、行y
P1におけるサンプル(x,yP1)を使用してパディングしてもよい。
3.一例において、yLがCtbSizeY-4に等しく、yM2の上の
行、yM2、およびyM1が利用不可である場合、行yM2およびyM1におけるサンプ
ル(x、yM2)および(x、yM1)は、行yLにおけるサンプル(x、yL)を使用
してパディングしてもよい。一方、対応する行yP3、yP2、yP1におけるサンプル
(x、yP3)、(x、yP2)、および(x、yP1)は、行yLにおけるサンプル(
x、yL)を使用してパディングしてもよい。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-7に等しく、行yP3が利
用不可である場合、行yP3におけるサンプル(x,yP3)は、行yP2におけるサン
プル(x,yP2)を使用してパディングしてもよい。
2.一例において、yLがCtbSizeY-6に等しく、行yP3およ
びyP2が利用不可である場合、行yP3およびyP2におけるサンプル(x,yP3)
および(x,yP2)は、その行におけるサンプル(x,yP1)を使用してパディング
してもよい。一方、対応する行yM2におけるサンプル(x,yM2)は、行yM1にお
けるサンプル(x,yM1)を使用してパディングしてもよい。
3.一例において、yLがCtbSizeY-5に等しく、行yP3、y
P2、yP1が利用不可である場合、行yP3、yP2、yP1におけるサンプル(x、
yP3)、(x、yP2)、(x、yP1)は、行yLにおけるサンプル(x、yL)を
使用してパディングしてもよい。一方、対応する行yM2およびyM1におけるサンプル
(x,yM2)および(x,yM1)は、その行におけるサンプル(x,yL)を使用し
てパディングしてもよい。
v.一例において、利用不可のサンプルが行Mに位置している場合(例えば、M<
C)は、d(C,M)=d(N,C)-offset(offsetは整数値、例えば、
1)またはd(C,M)<d(N,C)のとき、行Nに位置しているサンプルは、パディ
ング対象の対応するサンプルであると決定される。
1)一例において、利用不可のサンプルが行Mに位置している場合(例えば、M
<C)は、d(C,M)=d(N,C)-offset(offsetは整数値、例えば
、1)またはd(C,M)<d(N,C)のとき、行Nに位置しているサンプルは、パデ
ィング対象の対応するサンプルとして取り扱われる。
2)一例において、図31に定義されたミラーパディング方法を利用することが
できる。利用不可のサンプルがALF仮想境界の上(下)の行M(N)に位置している場
合は、ALF仮想境界の下(上)の最も近いサンプル行からパディングされる。ALF仮
想境界の下(上)の行N(M)に位置する対応するサンプルは、行N(M)の上(下)の
最も近いサンプル行からパディングしてもよいことが提案される。
a)一例において、K=2とし、表4-2に示す2つのサンプル行のy座標を
それぞれyL=0、yP1=1として表す。ALF仮想境界はCtbSizeY-4に等
しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも下である
場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-5に等しく、行yP1が利
用不可である場合、行yP1におけるサンプル(x,yP1)は、行yLにおけるサンプ
ル(x,yL)を使用してパディングしてもよい。
b)一例において、K=4とし、表4-4に示す4つのサンプル行のy座標を
それぞれyM1=-1、yL=0、yP1=1、yP2=2として表す。ALF仮想境界
はCtbSizeY-4に等しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-4に等しく、yM1および
yM1の上の行が利用不可である場合、行yM1におけるサンプル(x,yM1)は、行
yLにおけるサンプル(x,yL)を使用してパディングしてもよい。一方、対応する行
yP2のサンプル(x,yP2)は、行yP1のサンプル(x,yP1)を使用してパデ
ィングしてもよい。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-6に等しく、行yP2が利
用不可である場合、行yP2におけるサンプル(x,yP2)は、行yP1におけるサン
プル(x,yP1)を使用してパディングしてもよい。
2.一例において、yLがCtbSizeY-5に等しく、行yP2およ
びyP1が利用不可である場合、行yP2およびyP1におけるサンプル(x,yP2)
および(x,yP1)は、行yLにおけるサンプル(x,yL)を使用してパディングし
てもよい。一方、対応する行yM1のサンプル(x,yM1)は、行yLのサンプル(x
,yL)を使用してパディングしてもよい。
c)一例において、K=6であり、yM2=-2、yM1=-1、yL=0、
yP1=1、yP2=2、yP3=3をそれぞれ表4-7に示す6つのサンプル行のy座
標として表す。ALF仮想境界はCtbSizeY-4に等しい。
i.一例において、ALF仮想境界が代表的な輝度サンプルよりも上である
場合、ALF仮想境界よりも下の最も近い行を使用して、利用不可のサンプルをパディン
グしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の上の最も近
い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-3に等しく、yM2および
yM2の上の行が利用不可である場合、行yM2におけるサンプル(x,yM2)は、行
yM1におけるサンプル(x,yM1)を使用してパディングしてもよい。一方、対応す
る行yP3のサンプル(x,yP3)は、行yP2のサンプル(x,yP2)を使用して
パディングしてもよい。
2.一例において、yLがCtbSizeY-4に等しく、yM2の上の
行、yM2、およびyM1が利用不可である場合、行yM2およびyM1におけるサンプ
ル(x、yM2)および(x、yM1)は、行yLにおけるサンプル(x、yL)を使用
してパディングしてもよい。一方、対応する行yP3およびyP2におけるサンプル(x
,yP3)および(x,yP2)は、行yP1におけるサンプル(x,yP1)を使用し
てパディングしてもよい。
ii.一例において、ALF仮想境界が代表的な輝度サンプルよりも下であ
る場合、ALF仮想境界よりも上の最も近い行を使用して、利用不可のサンプルをパディ
ングしてもよい。一方、対応するサンプルは、対応するサンプルが位置する行の下の最も
近い行を使用してパディングしてもよい。
1.一例において、yLがCtbSizeY-7に等しく、行yP3が利
用不可である場合、行yP3におけるサンプル(x,yP3)は、行yP2におけるサン
プル(x,yP2)を使用してパディングしてもよい。一方、対応する行yM2における
サンプル(x,yM2)は、行yM1におけるサンプル(x,yM1)を使用してパディ
ングしてもよい。
2.一例において、yLがCtbSizeY-6に等しく、行yP3およ
びyP2が利用不可である場合、行yP3およびyP2におけるサンプル(x,yP3)
および(x,yP2)は、行yP1におけるサンプル(x,yP1)を使用してパディン
グしてもよい。一方、対応する行yM2およびyM1におけるサンプル(x,yM2)お
よび(x,yM1)は、行yLにおけるサンプル(x,yL)を使用してパディングして
もよい。
3.一例において、yLがCtbSizeY-5に等しく、行yP3、y
P2、yP1が利用不可である場合、行yP3、yP2、yP1におけるサンプル(x、
yP3)、(x、yP2)、(x、yP1)は、yLにおけるサンプル(x、yL)を使
用してパディングしてもよい。一方、対応する行yM2およびyM1におけるサンプル(
x,yM2)および(x,yM1)は、行yLにおけるサンプル(x,yL)を使用して
パディングしてもよい。
c.図29は、(X,Y)に位置する現在のクロマサンプルをフィルタリング
するときの、(ALF仮想境界の上、C0で表される)利用不可のサンプルの位置および
その対応するサンプル(C7で表される)の例を示す。
d.一例において、CC-ALF/クロマALF/輝度ALF/他の種類のフィル
タリング方法のために、ALF仮想境界における鏡面パディングを有効化するかまたは無
効化するかは、例えば、シーケンスヘッダ/ピクチャヘッダ/SPS/VPS/DPS/
PPS/APS/スライスヘッダ/タイルグループヘッダのようなシーケンスレベル/ピ
クチャレベル/スライスレベル/タイルグループレベルで信号通知してもよい。
e.一例において、ALF仮想境界における反復パディングおよび/またはミラー
パディングを有効化または無効化するかどうかは、コーディング情報に依存することもあ
る。
i.一例において、コーディング情報は、CTU/CTBサイズ等のブロックサ
イズを指すこともある。
1)一例において、CTU/CTBのサイズがTよりも大きいまたはTに等し
い場合、例えばT=32/64/128である場合、ALF仮想境界においてミラーパデ
ィングを利用してもよい。
2)一例において、CTU/CTBのサイズがT以下である場合、例えばT=
4/8/16である場合、ALF仮想境界において反復パディングを利用してもよい。
2.上記黒丸において、垂直方向のパディングは水平方向のパディングに置き換えら
れてもよい。
a.さらに代替的に、どのパディング方向(垂直または水平)を使用するかどうか
は、境界が水平境界であるか垂直境界であるかに依存してもよい。
b.さらに代替的に、垂直距離を水平距離に置き換えてもよい。
3.黒丸1におけるミラーパディング方法は、ピクチャ/サブピクチャ/スライス/
タイル境界および/または360度の境界に利用されてもよい。
一般的な解決策
4.上記開示された方法を適用するかどうかおよび/またはどのように適用するかは
、例えば、シーケンスヘッダ/ピクチャヘッダ/SPS/VPS/DPS/PPS/AP
S/スライスヘッダ/タイルグループヘッダにおいて、シーケンスレベル/ピクチャレベ
ル/スライスレベル/タイルグループレベルで信号通知してもよい。
5.上述した開示された方法を適用するかどうか、および/またはどのように適用す
るかは、カラーフォーマット、シングル/デュアルツリー分割、サンプルの位置(例えば
、CU/CTUに対して)等のコーディング情報に依存してもよい。
Figure 2024026154000024
Figure 2024026154000025
Figure 2024026154000026
Figure 2024026154000027
Figure 2024026154000028
Figure 2024026154000029
Figure 2024026154000030
5.実施形態
変更は削除と追加を示すことで強調される。
5.1.実施形態#1
JVET-P0080で規定される作業草案は、次のように変更することができる。
x.x.x.x クロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対するクロマサンプルの現在のブロックの左上の
サンプルを規定する位置(xC,yC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..13であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサン
プルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出さ
れる。
xCtb=(((xC*SubWidthC)>>CtbLog2SizeY)<<C
tbLog2SizeY (8-1229)
yCtb=(((yC*SubHeightC)>>CtbLog2SizeY)<<
CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xC+x][
yC+y]を導出するために、サンプルalfPicture[xC+x][yC+y
](但し、x=0..ccAlfWidth-1,y=0..ccAlfHeight-
1)の現在のクロマブロック内部の各々の再構成されたクロマサンプルは、以下のように
フィルタリングされる。
-クロマ位置(xC+x,yC+y)における現在のクロマサンプルに対応する輝度位
置(xL,yL)は、((xC+x)*SubWidthC,(yC+y)*SubHe
ightC)に等しく設定される。
-i=-2..2,j=-2..3の場合、配列recPicture内の輝度位置
(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0,pic_width_in_luma_samples-
1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0,pic_height_in_luma_samples
-1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-表4-1に、垂直方向のサンプルの位置のオフセットyM2、yM1、yP1、yP
2、yP3を規定している。垂直方向の輝度サンプルの位置yLおよびapplyAlf
LineBundaryに応じたyP1の規定
Figure 2024026154000031
Figure 2024026154000032
-垂直方向の輝度サンプルの位置yL,clipLeftPos,clipRight
Posに応じる
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平方向のサンプルの位置のオフセットxM1、xM2、xP1、
およびxP2が、表y-yyyyで規定される。
-変数currは、以下のように導出される。
curr=alfPicture[xC+x,yC+y] (8-1286)
-クロス成分フィルタ係数f[j]のアレイは、j=0..13として以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
-変数sumは、以下のように導出される。
sum=f[0]*recPicture[h,vy+yM2]+
f[1]*recPicture[hx+xM1,vy+yM1]+
f[2]*recPicture[h,vy+yM1]+
f[3]*recPicture[hx+xP1,vy+yM1]+
f[4]*recPicture[hx+xM2,v]+
f[5]*recPicture[hx+xM1,v]+
f[6]*recPicture[h,v]+
f[7]*recPicture[hx+xP1,v]+
f[4]*recPicture[hx+xP2,v]+ (8-1289)
f[4]*recPicture[hx+xM2,vy+yP1]+
f[8]*recPicture[hx+xM1,vy+yP1]+
f[9]*recPicture[h,vy+yP1]+
f[10]*recPicture[hx+xP1,vy+yP1]+
f[4]*recPicture[hx+xP2,vy+yP1]+
f[11]*recPicture[hx+xM1,vy+yP2]+
f[12]*recPicture[h,vy+yP2]+
f[13]*recPicture[hx+xP1,vy+yP2]+
f[0]*recPicture[h,vy+yP3]+
sum=curr+(sum+64)>>7) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xC+x][yC+y]は、以下のように導出される。
ccAlfPicture[xC+x][yC+y]=Clip3(0,(1<<Bit
Depth)-1,sum) (8-1291)
表x-xx -垂直方向の輝度サンプルの位置yL、clipTopPos、clipB
ottomPosに応じたyM1、yM2、yP1、yP2、yP3の規定
Figure 2024026154000033
Figure 2024026154000034
Figure 2024026154000035
5.2.実施形態♯2
JVET-P0080で規定される作業草案は、次のように変更することができる。
x.x.x.x クロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対するクロマサンプルの現在のブロックの左上の
サンプルを規定する位置(xC,yC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..13であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサン
プルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出さ
れる。
xCtb=(((xC*SubWidthC)>>CtbLog2SizeY)<<C
tbLog2SizeY (8-1229)
yCtb=(((yC*SubHeightC)>>CtbLog2SizeY)<<
CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xC+x][
yC+y]を導出するために、サンプルalfPicture[xC+x][yC+y
](但し、x=0..ccAlfWidth-1,y=0..ccAlfHeight-
1)の現在のクロマブロック内部の各々の再構成されたクロマサンプルは、以下のように
フィルタリングされる。
-クロマ位置(xC+x,yC+y)における現在のクロマサンプルに対応する輝度位
置(xL,yL)は、((xC+x)*SubWidthC,(yC+y)*SubHe
ightC)に等しく設定される。
-i=-2..2,j=-2..3の場合、配列recPicture内の輝度位置
(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0,pic_width_in_luma_samples-
1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0,pic_height_in_luma_samples
-1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-表4-1に、垂直方向のサンプルの位置のオフセットyM2、yM1、yP1、yP
2、yP3を規定している。垂直方向の輝度サンプルの位置yLおよびapplyAlf
LineBundaryに応じたyP1の規定
Figure 2024026154000036
Figure 2024026154000037
-垂直方向の輝度サンプルの位置yL,clipLeftPos,clipRight
Posに応じる
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平方向のサンプルの位置のオフセットxM1、xM2、xP1、
およびxP2が、表y-yyyyで規定される。
変数currは、以下のように導出される。
curr=alfPicture[xC+x,yC+y] (8-1286)
-クロス成分フィルタ係数f[j]のアレイは、j=0..13として以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
変数sumは、以下のように導出される。
sum=f[0]*recPicture[h,vy+yM2]+
f[1]*recPicture[hx+xM1,vy+yM1]+
f[2]*recPicture[h,vy+yM1]+
f[3]*recPicture[hx+xP1,vy+yM1]+
f[4]*recPicture[hx+xM2,v]+
f[5]*recPicture[hx+xM1,v]+
f[6]*recPicture[h,v]+
f[7]*recPicture[hx+xP1,v]+
f[4]*recPicture[hx+xP2,v]+ (8-1289)
f[4]*recPicture[hx+xM2,vy+yP1]+
f[8]*recPicture[hx+xM1,vy+yP1]+
f[9]*recPicture[h,vy+yP1]+
f[10]*recPicture[hx+xP1,vy+yP1]+
f[4]*recPicture[hx+xP2,vy+yP1]+
f[11]*recPicture[hx+xM1,vy+yP2]+
f[12]*recPicture[h,vy+yP2]+
f[13]*recPicture[hx+xP1,vy+yP2]+
f[0]*recPicture[h,vy+yP3]+
sum=curr+(sum+64)>>7) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xC+x][yC+y]は、以下のように導出される。
ccAlfPicture[xC+x][yC+y]=Clip3(0,(1<<Bi
tDepth)-1,sum) (8-1291)
表x-xx-垂直方向の輝度サンプルの位置yL、clipTopPos、clipB
ottomPosに応じたyM1、yM2、yP1、yP2、yP3の規定
Figure 2024026154000038
Figure 2024026154000039
Figure 2024026154000040
5.3. 実施形態#3
JVET-P1008で規定される作業草案は、次のように変更することができる。
x.x.x.xクロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対する現在のクロマコーディングツリーブロック
の左上のサンプルを規定するクロマ位置(xCtbC,yCtbC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..7であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサン
プルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出さ
れる。
xCtb=(((xCtbC*SubWidthC)>>CtbLog2SizeY)
<<CtbLog2SizeY (8-1229)
yCtb=(((yCtbC*SubHeightC)>>CtbLog2SizeY
)<<CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xCtbC+
x][yCtbC+y]を導出するために、サンプルalfPicture[xCtb
C+x][yCtbC+y](但し、x=0..ccAlfWidth-1,y=0..
ccAlfHeight-1)の現在のクロマブロック内部の各々の再構成されたクロマ
サンプルは、以下のようにフィルタリングされる。
-クロマ位置(xCtbC+x,yCtbC+y)における現在のクロマサンプルに対
応する輝度位置(xL,yL)は、((xCtbC+x)*SubWidthC,(yC
tbC+y)*SubHeightC)に等しく設定される。
配列recPicture内の、-i=-1..1,j=-1..2の場合の輝度位
置(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0,pic_width_in_luma_samples-
1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0,pic_height_in_luma_samples-
1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-表4-1に、垂直方向のサンプルの位置のオフセットyM1、yP1、yP2を規定
している。垂直方向の輝度サンプルの位置yLおよびapplyAlfLineBund
aryに応じたyP1の規定
Figure 2024026154000041
Figure 2024026154000042
-垂直方向の輝度サンプルの位置yL,clipLeftPos,clipRight
Posに応じる
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平サンプル位置オフセットxM1およびxP1を表y-yyyy
で規定する。
-変数currは、以下のように導出される。
curr=alfPicture[xCtbC+x,yCtbC+y] (8-12
86)
-クロス成分フィルタ係数f[j]のアレイは、j=0..7の場合、以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
-変数sumは、以下のように導出される。
sum=f[0]*recPicture[h,vy+yM1]+
f[1]*recPicture[hx+xM1,v]+
f[2]*recPicture[h,v]+
f[3]*recPicture[hx+xP1,v]+ (8-1289)
f[4]*recPicture[hx+xM1,vy+yP1]+
f[5]*recPicture[h,vy+yP1]+
f[6]*recPicture[hx+xP1,vy+yP1]+
f[7]*recPicture[h,vy+yP2
sum=Clip3(-(1<<(BitDepth-1)),(1<<(BitD
epth-1))-1,sum) (8-1290)
sum=curr+(sum+64)>>(7+(BitDepth-BitDep
th)) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xCtbC+x][yCtbC+y]は、以下のように導出される。
ccAlfPicture[xCtbC+x][yCtbC+y]=Clip3(0,
(1<<BitDepth)-1,sum) (8-1291)
表x-xx -垂直方向の輝度サンプルの位置yL、clipTopPos、clipB
ottomPosに応じたyM1、yP1、yP2の規定
Figure 2024026154000043
Figure 2024026154000044
Figure 2024026154000045
5.4.実施形態#4
JVET-P1008で規定される作業草案は、次のように変更することができる。
x.x.x.x クロマサンプルのブロックのためのクロス成分フィルタリング処理
この処理の入力は以下の通りである。
-輝度適応ループフィルタリング処理の前に再構成された輝度ピクチャサンプルアレイ
recPicture
-フィルタリングされた再構成クロマピクチャサンプルアレイalfPicture
-現在のピクチャの左上のサンプルに対する現在のクロマコーディングツリーブロック
の左上のサンプルを規定するクロマ位置(xCtbC,yCtbC)
-クロマサンプルのブロックの幅ccAlfWidth
-クロマサンプルのブロックの高さccAlfheight
-j=0..7であるクロス成分フィルタ係数CcAlfCoeff[j]
この処理の出力は、修正され、フィルタリングされ、再構成されたクロマピクチャサン
プルアレイccAlfPictureである。
コーディングツリーブロック輝度位置(xCtb,yCtb)は、以下のように導出さ
れる。
xCtb=(((xCtbC*SubWidthC)>>CtbLog2SizeY)
<<CtbLog2SizeY (8-1229)
yCtb=(((yCtbC*SubHeightC)>>CtbLog2SizeY
)<<CtbLog2SizeY (8-1229)
フィルタリングされた再構成クロマサンプルccAlfPicture[xCtbC+
x][yCtbC+y]を導出するために、サンプルalfPicture[xCtb
C+x][yCtbC+y](但し、x=0..ccAlfWidth-1,y=0..
ccAlfHeight-1)の現在のクロマブロック内部の各々の再構成されたクロマ
サンプルは、以下のようにフィルタリングされる。
-クロマ位置(xCtbC+x,yCtbC+y)における現在のクロマサンプルに対
応する輝度位置(xL,yL)は、((xCtbC+x)*SubWidthC,(yC
tbC+y)*SubHeightC)に等しく設定される。
-配列recPicture内の、-i=-1..1,j=-1..2の場合の輝度
位置(hxL+i,vyL+j)は、以下のように導出される。
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosX[n]%CtbSizeYが0に等しくなく、且つ、n=0..pps
_num_ver_virtual_boundaries-1においてxL-PpsV
irtualBoundariesPosX[n]が0以上3未満である場合、以下が適
用される。
xL+i=Clip3(PpsVirtualBoundariesPosX[n],
pic_width_in_luma_samples-1,xL+i) (8-122
9)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosX[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_ver_virtual_boundaries-1においてPps
VirtualBoundariesPosX[n]が0より大きく4未満である場合、
以下が適用される。
x+i=Clip3(0,PpsVirtualBoundariesPosX[n
]-1,xL+i) (8-1230)
-そうでない場合、以下が適用される。
x+i=Clip3(0,pic_width_in_luma_samples-
1,xL+i) (8-1231)
-pps_loop_filter_across_virtual_boundar
ies_disabled_flagが1に等しく、PpsVirtualBounda
riesPosY[n]%CtbSizeYが0に等しくなく、且つn=0..pps_
num_hor_virtual_boundaries-1においてyL-PpsVi
rtualBoundariesPosY[n]が0以上3未満である場合、以下が適用
される。
y+j=Clip3(PpsVirtualBoundariesPosY[n],p
ic_height_in_luma_samples-1,yL+j) (8-123
2)
-あるいは、pps_loop_filter_across_virtual_bo
undaries_disabled_flagが1に等しく、PpsVirtualB
oundariesPosY[n]%CtbSizeYが0に等しくなく、且つn=0.
.pps_num_hor_virtual_boundaries-1においてPps
VirtualBoundariesPosY[n]-yLが0より大きく4未満である
場合、以下が適用される。
y+j=Clip3(0,PpsVirtualBoundariesPosY[n
]-1,yL+j) (8-1233)
-そうでない場合、以下が適用される。
y+j=Clip3(0,pic_height_in_luma_samples
-1,yL+j) (8-1234)
-変数clipLeftPos、clipRightPos、clipTopPos、
およびclipBottomPosは、(xCtb,yCtb)および(xL-xCtb
,yL-yCtb)を入力として、8.8.5.5項で規定されるように、ALF境界位
置導出処理を呼び出すことによって導出される。
-表4-1に、垂直方向のサンプルの位置のオフセットyM1、yP1、yP2を規定
している。垂直方向の輝度サンプルの位置yLおよびapplyAlfLineBund
aryに応じたyP1の規定
Figure 2024026154000046
Figure 2024026154000047
-垂直方向の輝度サンプルの位置yL,clipLeftPos,clipRight
Posに応じる
-水平方向の輝度サンプルの位置xL、clipLeftPos、およびclipRi
ghtPosに応じた水平サンプル位置オフセットxM1およびxP1を表y-yyyy
で規定する。
-変数currは、以下のように導出される。
curr=alfPicture[xCtbC+x,yCtbC+y] (8-1
286)
-クロス成分フィルタ係数f[j]のアレイは、j=0..7の場合、以下のように導
出される。
f[j]=CcAlfCoeff[j] (8-1287)
-変数sumは、以下のように導出される。
sum= f[0]*recPicture[h,vy+yM1]+
f[1]*recPicture[hx+xM1,v]+
f[2]*recPicture[h,v]+
f[3]*recPicture[hx+xP1,v]+ (8-1289)
f[4]*recPicture[hx+xM1,vy+yP1]+
f[5]*recPicture[h,vy+yP1]+
f[6]*recPicture[hx+xP1,vy+yP1]+
f[7]*recPicture[h,vy+yP2
sum=Clip3(-(1<<(BitDepth-1)),(1<<(BitD
epth-1))-1,sum) (8-1290)
sum=curr+(sum+64)>>(7+(BitDepth-BitDep
th)) (8-1290)
-修正されフィルタリングされた再構成クロマピクチャサンプルアレイccAlfPi
cture[xCtbC+x][yCtbC+y]は、以下のように導出される。
ccAlfPicture[xCtbC+x][yCtbC+y]=Clip3(0,(
1<<BitDepth)-1,sum) (8-1291)
表x-xx -垂直方向の輝度サンプルの位置yL、clipTopPos、clip
BottomPosに応じたyM1、yP1、yP2の規定
Figure 2024026154000048
Figure 2024026154000049
Figure 2024026154000050
図32は、本明細書で開示される様々な技術が実装され得る例示的な映像処理システム
1900を示すブロック図である。様々な実装形態は、システム1900のコンポーネン
トの一部又は全部を含んでもよい。システム1900は、映像コンテンツを受信するため
の入力ユニット1902を含んでもよい。映像コンテンツは、未加工又は非圧縮フォーマ
ット、例えば、8又は10ビットのマルチコンポーネント画素値で受信されてもよく、又
は圧縮又は符号化フォーマットで受信されてもよい。入力ユニット1902は、ネットワ
ークインターフェース、周辺バスインターフェース、又は記憶インターフェースを表して
もよい。ネットワークインターフェースの例は、イーサネット(登録商標)、パッシブ光
ネットワーク(PON)等の有線インターフェース、およびWi-Fi(登録商標)また
はセルラーインターフェース等の無線インターフェースを含む。
システム1900は、本明細書に記載される様々なコーディング又は符号化方法を実装
することができるコーディングコンポーネント1904を含んでもよい。コーディングコ
ンポーネント1904は、入力ユニット1902からの映像の平均ビットレートをコーデ
ィングコンポーネント1904の出力に低減し、映像の符号化表現を生成してもよい。従
って、このコーディング技術は、映像圧縮または映像トランスコーディング技術と呼ばれ
ることがある。コーディングコンポーネント1904の出力は、コンポーネント1906
によって表されるように、記憶されてもよいし、接続された通信を介して送信されてもよ
い。入力ユニット1902において受信された、記憶された又は通信された映像のビット
ストリーム(又は符号化)表現は、コンポーネント1908によって使用されて、表示イ
ンターフェース1910に送信される画素値又は表示可能な映像を生成してもよい。ビッ
トストリーム表現からユーザが見ることができる映像を生成する処理は、映像伸張(映像
展開)と呼ばれることがある。さらに、特定の映像処理操作を「コーディング」操作又は
ツールと呼ぶが、符号化ツール又は操作は、エンコーダで使用され、符号化の結果を逆に
する、それに対応する復号ツール又は操作は、デコーダによって行われることが理解され
よう。
周辺バスインターフェースまたは表示インターフェースの例は、ユニバーサルシリアル
バス(USB)または高精細マルチメディアインターフェース(HDMI(登録商標))
またはディスプレイポート等を含んでもよい。ストレージインターフェースの例は、シリ
アルアドバンスドテクノロジーアタッチメント(SATA)、PCI、IDEインターフ
ェース等を含む。本明細書に記載される技術は、携帯電話、ノートパソコン、スマートフ
ォン、又はデジタルデータ処理及び/又は映像表示を実施可能な他のデバイス等の様々な
電子デバイスに実施されてもよい。
図33は、映像処理装置3600のブロック図である。装置3600は、本明細書に記
載の方法の1つ以上を実装するために使用してもよい。装置3600は、スマートフォン
、タブレット、コンピュータ、モノのインターネット(IoT)受信機等に実施されても
よい。装置3600は、1つ以上のプロセッサ3602と、1つ以上のメモリ3604と
、映像処理ハードウェア3606と、を含んでもよい。1つまたは複数のプロセッサ36
02は、本明細書に記載される1つ以上の方法を実装するように構成されてもよい。メモ
リ(複数可)3604は、本明細書で説明される方法および技術を実装するために使用さ
れるデータおよびコードを記憶するために使用してもよい。映像処理ハードウェア360
6は、本明細書に記載される技術をハードウェア回路にて実装するために使用してもよい
図35は、本開示の技法を利用し得る例示的な映像コーディングシステム100を示す
ブロック図である。
図35に示すように、映像コーディングシステム100は、送信元デバイス110と、
送信先デバイス120と、を備えてもよい。送信元デバイス110は、映像符号化デバイ
スとも称され得る符号化映像データを生成する。送信先デバイス120は、映像復号デバ
イスと称され得る送信元デバイス110によって生成された符号化映像データを復号し得
る。
送信元デバイス110は、映像ソース112と、映像エンコーダ114と、入出力(I
/O)インターフェース116と、を備えてもよい。
映像ソース112は、映像キャプチャデバイスなどのソース、映像コンテンツプロバイ
ダからの映像データを受信するためのインターフェース、および/または映像データを生
成するためのコンピュータグラフィックスシステム、またはこれらのソースの組み合わせ
を含んでもよい。映像データは、1つ以上のピクチャを含んでもよい。映像エンコーダ1
14は、映像ソース112からの映像データを符号化し、ビットストリームを生成する。
ビットストリームは、映像データの符号化表現を形成するビットシーケンスを含んでもよ
い。ビットストリームは、符号化ピクチャおよび関連付けられたデータを含んでもよい。
符号化ピクチャは、ピクチャの符号化表現である。関連付けられたデータは、シーケンス
パラメータセット、ピクチャパラメータセット、および他の構文構造を含んでもよい。I
/Oインターフェース116は、変復調器(モデム)および/または送信機を含んでもよ
い。符号化された映像データは、ネットワーク130aを介して、I/Oインターフェー
ス116を介して直接送信先デバイス120に送信されることができる。符号化された映
像データは、送信先デバイス120がアクセスするために、記憶媒体/サーバ130bに
記憶してもよい。
送信先デバイス120は、I/Oインターフェース126、映像デコーダ124、およ
び表示デバイス122を含んでもよい。
I/Oインターフェース126は、受信機および/またはモデムを含んでもよい。I/
Oインターフェース126は、送信元デバイス110または記憶媒体/サーバ130bか
ら符号化映像データを取得してもよい。映像デコーダ124は、符号化された映像データ
を復号してもよい。表示デバイス122は、復号した映像データをユーザに表示してもよ
い。表示デバイス122は、送信先デバイス120と一体化されてもよく、または外部表
示デバイスとインターフェースで接続するように構成される送信先デバイス120の外部
にあってもよい。
映像エンコーダ114および映像デコーダ124は、高効率映像コード化(HEVC)
規格、汎用映像コーディング(VVVM)規格、および他の現在のおよび/またはさらな
る規格等の映像圧縮規格に従って動作してもよい。
図36は、映像エンコーダ114の一例を示すブロック図であり、この映像エンコーダ
114は、図36に示されるシステム100における映像エンコーダ114であってもよ
い。
映像エンコーダ200は、本開示の技術のいずれか又は全部を実行するように構成され
てもよい。図36の実施例において、映像エンコーダ200は、複数の機能コンポーネン
トを備える。本開示で説明される技法は、映像エンコーダ200の様々なコンポーネント
間で共有されてもよい。いくつかの例では、プロセッサは、本開示で説明される技術のい
ずれかまたはすべてを行うように構成してもよい。
映像エンコーダ200の機能コンポーネントは、分割ユニット201と、モード選択ユ
ニット203、動き推定ユニット204、動き補償ユニット205及びイントラ予測ユニ
ット206を含んでもよい予測ユニット202と、残差生成ユニット207と、変換ユニ
ット208と、量子化ユニット209と、逆量子化ユニット210と、逆変換ユニット2
11と、再構成ユニット212と、バッファ213と、エントロピー符号化ユニット21
4とを含んでもよい。
他の例において、映像エンコーダ200は、より多くの、より少ない、又は異なる機能
コンポーネントを含んでもよい。一例において、予測ユニット202は、イントラブロッ
クコピー(IBC)ユニットを含んでもよい。IBCユニットは、少なくとも1つの参照
ピクチャが現在の映像ブロックが位置するピクチャであるIBCモードにおいて予測を行
うことができる。
さらに、動き推定ユニット204及び動き補償ユニット205などのいくつかのコンポ
ーネントは、高度に統合されてもよいが、説明のために、図36の例においては別々に表
されている。
分割ユニット201は、1つのピクチャを1つ以上の映像ブロックに分割することがで
きる。映像エンコーダ200及び映像デコーダ300は、様々な映像ブロックサイズをサ
ポートしてもよい。
モード選択ユニット203は、例えば、エラー結果に基づいて、イントラ又はインター
のいずれかのコーディングモードの1つを選択し、得られたイントラ又はインターコーデ
ィングブロックを、残差生成ユニット207に供給して残差ブロックデータを生成し、ま
た再構成ユニット212に供給して参照ピクチャとして使用するために符号化ブロックを
再構成してもよい。本発明の実施例において、モード選択ユニット203は、インター予
測信号およびイントラ予測信号に基づいて予測を行うイントラおよびインター予測(CI
IP)モードの組み合わせを選択してもよい。また、モード選択ユニット203は、イン
ター予測の場合、ブロックのために動きベクトルの解像度(例えば、サブピクセル又は整
数ピクセル精度)を選択してもよい。
現在の映像ブロックに対してインター予測を実行するために、動き推定ユニット204
は、バッファ213からの1つ以上の参照フレームと現在の映像ブロックとを比較するこ
とで、現在の映像ブロックのために動き情報を生成してもよい。動き補償ユニット205
は、現在の映像ブロックに関連付けられたピクチャ以外のバッファ213からのピクチャ
の動き情報及び復号化サンプルに基づいて、現在の映像ブロックのために予測映像ブロッ
クを判定してもよい。
動き推定ユニット204及び動き補償ユニット205は、例えば、現在の映像ブロック
がIスライスであるか、Pスライスであるか、又はBスライスであるかに基づいて、現在
の映像ブロックに対して異なる演算を実行してもよい。
いくつかの例において、動き推定ユニット204は、現在の映像ブロックに対して単方
向予測を実行し、動き推定ユニット204は、現在の映像ブロックに対して、リスト0又
はリスト1の参照ピクチャを検索して、参照映像ブロックを求めてもよい。そして、動き
推定ユニット204は、参照映像ブロックと、現在の映像ブロックと参照映像ブロックと
の間の空間的変位を示す動きベクトルとを含む、リスト0またはリスト1における参照ピ
クチャを示す参照インデックスを生成してもよい。動き推定ユニット204は、参照イン
デックス、予測方向インジケータ、および動きベクトルを、現在の映像ブロックの動き情
報として出力してもよい。動き補償ユニット205は、現在の映像ブロックの動き情報が
示す参照映像ブロックに基づいて、現在のブロックの予測映像ブロックを生成してもよい
他の例において、動き推定ユニット204は、現在の映像ブロックを双方向予測しても
よく、動き推定ユニット204は、リスト0における参照ピクチャの中から現在の映像ブ
ロックために参照映像ブロックを検索してもよく、また、リスト1における参照ピクチャ
の中から現在の映像ブロックのために別の参照映像ブロックを検索してもよい。そして、
動き推定ユニット204は、参照映像ブロックを含むリスト0およびリスト1における参
照ピクチャを示す参照インデックスと、参照映像ブロックと現在の映像ブロックとの間の
空間的変位を示す動きベクトルとを生成してもよい。動き推定ユニット204は、現在の
映像ブロックの参照インデックスおよび動きベクトルを、現在の映像ブロックの動き情報
として出力してもよい。動き補償ユニット205は、現在の映像ブロックの動き情報が示
す参照映像ブロックに基づいて、現在の映像ブロックの予測映像ブロックを生成してもよ
い。
いくつかの例において、動き推定ユニット204は、デコーダの復号処理のために、動
き情報のフルセットを出力してもよい。
いくつかの例では、動き推定ユニット204は、現在の映像のために動き情報のフルセ
ットを出力しなくてもよい。むしろ、動き推定ユニット204は、別の映像ブロックの動
き情報を参照して、現在の映像ブロックの動き情報を信号通知してもよい。例えば、動き
推定ユニット204は、現在の映像ブロックの動き情報が近傍の映像ブロックの動き情報
に十分に類似していると判定してもよい。
一例において、動き推定ユニット204は、現在の映像ブロックに関連付けられた構文
構造において、現在の映像ブロックが別の映像ブロックと同じ動き情報を有することを映
像デコーダ300に示す値を示してもよい。
別の例において、動き推定ユニット204は、現在の映像ブロックに関連付けられた構
文構造において、別の映像ブロックと、動きベクトル差(MVD)とを識別してもよい。
動きベクトルの差分は、現在の映像ブロックの動きベクトルと、示された映像ブロックの
動きベクトルとの差分を示す。映像デコーダ300は、指示された映像ブロックの動きベ
クトルと、動きベクトルの差分を用いて、現在の映像ブロックの動きベクトルを判定して
もよい。
上述したように、映像エンコーダ200は、動きベクトルを予測的に信号通知してもよ
い。映像エンコーダ200によって実装され得る予測信号通知技法の2つの例は、高度動
きベクトル予測(AMVP)およびマージモード信号通知を含む。
イントラ予測ユニット206は、現在の映像ブロックに対してイントラ予測を行っても
よい。イントラ予測ユニット206が現在の映像ブロックをイントラ予測する場合、イン
トラ予測ユニット206は、同じピクチャにおける他の映像ブロックの復号されたサンプ
ルに基づいて、現在の映像ブロックのための予測データを生成してもよい。現在の映像ブ
ロックのための予測データは、予測された映像ブロック及び様々な構文要素を含んでもよ
い。
残差生成ユニット207は、現在の映像ブロックから現在の映像ブロックの予測された
映像ブロックを減算することによって(例えば、マイナス符号によって示されている)、
現在の映像ブロックのために残差データを生成してもよい。現在の映像ブロックの残差デ
ータは、現在の映像ブロックにおけるサンプルの異なるサンプル成分に対応する残差映像
ブロックを含んでもよい。
他の例において、例えば、スキップモードにおいて、現在の映像ブロックのための残差
データがなくてもよく、残差生成ユニット207は、減算演算を実行しなくてもよい。
変換処理ユニット208は、現在の映像ブロックに関連付けられた残差映像ブロックに
1つ以上の変換を適用することによって、現在の映像ブロックのために1つ以上の変換係
数映像ブロックを生成してもよい。
変換処理ユニット208が現在の映像ブロックに関連付けられた変換係数映像ブロック
を生成した後、量子化ユニット209は、現在の映像ブロックに関連付けられた1つ以上
の量子化パラメータ(QP)値に基づいて、現在の映像ブロックに関連付けられた変換係
数映像ブロックを量子化してもよい。
逆量子化ユニット210および逆変換ユニット211は、変換係数映像ブロックに逆量
子化および逆変換をそれぞれ適用し、変換係数映像ブロックから残差映像ブロックを再構
成してもよい。再構成ユニット212は、予測ユニット202が生成した1つ以上の予測
映像ブロックから対応するサンプルに再構成された残差映像ブロックを加え、現在のブロ
ックに関連付けられた再構成映像ブロックを生成し、バッファ213に記憶することがで
きる。
再構成ユニット212が映像ブロックを再構成した後、映像ブロックにおける映像ブロ
ッキングアーチファクトを縮小するために、ループフィルタリング動作を行ってもよい。
エントロピー符号化ユニット214は、映像エンコーダ200の他の機能コンポーネン
トからデータを受信してもよい。エントロピー符号化ユニット214は、データを受信す
ると、1つ以上のエントロピー符号化演算を行い、エントロピー符号化データを生成し、
エントロピー符号化データを含むビットストリームを出力してもよい。
図37は、映像デコーダ300の一例を示すブロック図であり、この映像デコーダ30
0は、図35に示されるシステム100における映像デコーダ114であってもよい。
映像デコーダ300は、本開示の技術のいずれか又は全部を実行するように構成されて
もよい。図37の実施例において、映像デコーダ300は、複数の機能コンポーネントを
備える。本開示で説明される技法は、映像デコーダ300の様々なコンポーネント間で共
有されてもよい。いくつかの例では、プロセッサは、本開示で説明される技術のいずれか
またはすべてを行うように構成してもよい。
図37の実施例において、映像デコーダ300は、エントロピー復号ユニット301、
動き補償ユニット302、イントラ予測ユニット303、逆量子化ユニット304、逆変
換ユニット305、及び再構成ユニット306、並びにバッファ307を備える。映像デ
コーダ300は、いくつかの例では、映像エンコーダ200(図36)に関して説明した
符号化パスとほぼ逆の復号パスを行ってもよい。
エントロピー復号ユニット301は、符号化ビットストリームを取り出す。符号化ビッ
トストリームは、エントロピー符号化された映像データ(例えば、映像データの符号化ブ
ロック)を含んでもよい。エントロピー復号ユニット301は、エントロピー符号化され
た映像データを復号し、エントロピー復号された映像データから、動き補償ユニット30
2は、動きベクトル、動きベクトル精度、参照ピクチャリストインデックス、および他の
動き情報を含む動き情報を決定してもよい。動き補償ユニット302は、例えば、AMV
P及びマージモードを実行することで、このような情報を判定してもよい。
動き補償ユニット302は、動き補償されたブロックを生成してもよく、場合によって
は、補間フィルタに基づいて補間を実行する。構文要素には、サブピクセルの精度で使用
される補間フィルタのための識別子が含まれてもよい。
動き補償ユニット302は、映像ブロックの符号化中に映像エンコーダ20によって使
用されるような補間フィルタを使用して、参照ブロックのサブ整数ピクセルのための補間
値を計算してもよい。動き補償ユニット302は、受信した構文情報に基づいて、映像エ
ンコーダ200が使用する補間フィルタを決定し、この補間フィルタを使用して予測ブロ
ックを生成してもよい。
動き補償ユニット302は、構文情報の一部を用いて、符号化された映像シーケンスの
フレーム(複数可)および/またはスライス(複数可)を符号化するために使用されるブ
ロックのサイズ、符号化された映像シーケンスのピクチャの各マクロブロックがどのよう
に分割されるかを記述する分割情報、各分割がどのように符号化されるかを示すモード、
インター符号化ブロック間の各1つ以上の参照フレーム(および参照フレームリスト)、
および符号化された映像シーケンスを復号するための他の情報を決定してもよい。
イントラ予測ユニット303は、例えば、ビットストリームにおいて受信したイントラ
予測モードを使用して、空間的に隣接するブロックから予測ブロックを形成してもよい。
逆量子化ユニット303は、ビットストリームに提供され、エントロピー復号ユニット3
01によって復号された量子化された映像ブロック係数を逆量子化(すなわち、逆量子化
)する。逆変換ユニット303は、逆変換を適用する。
再構成ユニット306は、残差ブロックと、動き補償ユニット202又はイントラ予測
ユニット303によって生成された対応する予測ブロックとを合計し、復号されたブロッ
クを形成してもよい。所望であれば、ブロックアーチファクトを除去するために、復号さ
れたブロックをフィルタリングするためにデブロッキングフィルタを適用してもよい。復
号された映像ブロックは、バッファ307に記憶され、バッファ307は、後続の動き補
償/イントラ予測のために参照ブロックを提供し、且つ表示デバイスに表示するために復
号された映像を生成する。
いくつかの実施形態を、以下の項に基づくフォーマットを使用して説明することができ
る。第1の項目セットは、前章(例えば、例示的な実施形態の項目1)に記載された技術
の例示的な実施形態を示す。
1.映像の映像ユニットと映像の符号化表現との変換のために、判定基準に基づき、ク
ロス成分適応ループフィルタ動作を使用することを決定すること(3402)であって、
前記クロス成分適応ループフィルタは、利用不可の輝度サンプルに対してミラーパディン
グ技術を使用する、決定することと、前記決定に基づいて変換を行うこと(3404)と
、を含む、映像処理方法(例えば図34の方法3400)。本明細書は、クロス成分適応
ループフィルタの様々な実施形態、その動作およびミラーパディング技術、並びに仮想バ
ッファ境界との関係を開示する。
2.前記ミラーパディング技術をさらに使用して、前記利用不可の輝度サンプルのうち
の1つ以上の対応する輝度サンプルを導出する、項目1に記載の方法。
3.前記1つ以上の対応する輝度サンプルは、代表的な輝度サンプルからの前記1つ以
上の対応する輝度サンプルの距離または前記代表的な輝度サンプルからの前記利用不可の
サンプルの距離に基づいて決定される、項目2に記載の方法。
4.前記代表的な輝度サンプルは、クロス成分適応ループフィルタリング技術が使用さ
れるクロマサンプルの位置に対応する、項目3に記載の方法。
5.前記代表的な輝度サンプルの位置は、前記映像のカラーフォーマットに依存する、
項目3に記載の方法。
6.前記距離は、1つ以上の輝度サンプルを含む第2の方向に沿ったピクセルラインと
前記代表的なサンプルを含む行との第1の方向における距離に対応する、項目3~4のい
ずれかに記載の方法。
7.Cは、代表的な輝度サンプルが位置する第2の方向に沿った中心線を表し、Mは、
利用不可のサンプルが位置する第2の方向に沿った線を表し、Nは、1つ以上の輝度サン
プルが位置する第2の方向に沿った線を表し、そこで、C、M、Nは正の整数であり、M
は、Nに等しくなく、次いで、クロス成分適応ループフィルタのサイズおよび形状に基づ
いて、ミラーパディング技術を適用する、項目6に記載の方法。
8.前記クロス成分適応ループフィルタは、Kは偶数であり、Lは正の整数のとき、K
xLフィルタ形状を有し、ミラーパディング技術は、前記クロス成分適応ループフィルタ
の仮想境界から離れた第2の方向MまたはNに沿った1本の線に位置する利用不可のサン
プルを、前記仮想境界の近くの最も近いサンプル線からパディングすることを含む、項目
1に記載の方法。
9.前記クロス成分適応ループフィルタの仮想境界が前記第2の方向において前記代表
的な輝度サンプルの下にある場合、前記仮想境界の上の第2の方向における最も近い線を
使用して、前記利用不可のサンプルをパディングする、項目3に記載の方法。
10.利用不可のサンプルが行Mに位置し、MがC未満の整数であり、Cが代表的な輝
度サンプルの第2の方向に沿った中心線を示す整数である場合、d(C,M)=d(N,
C)-offset(offsetは整数値)のとき、またはd(C,M)<d(N,C
)(d()は距離関数)であるとき、第2の方向の線Nに位置するサンプルが対応するサ
ンプルであると判定する、項目3に記載の方法。
以下の項目は、前章(例えば、項目2)に記載された技術の例示的な実施形態を示す。
11.前記第1の方向が垂直方向であり、前記第2の方向が水平方向である、項目1~
10のいずれかに記載の方法。
12.前記第1の方向が水平方向であり、前記第2の方向が垂直方向である、項目1~
10のいずれかに記載の方法。
13.前記第1の方向および前記第2の方向の方位は、前記仮想バッファの境界の方位
に依存する、項目11~12のいずれかに記載の方法。
以下の項目は、前章(例えば、項目3)に記載された技術の例示的な実施形態を示す。
14.前記映像ユニットは、映像ピクチャ、映像サブピクチャ、映像スライス、映像タ
イル、または映像の360度の境界を含む、項目1~13のいずれかに記載の方法。
15.前記変換を行うことは、前記映像を符号化して前記符号化表現を生成することを
含む、項目1~14のいずれかに記載の方法。
16.前記変換を行うことは、前記符号化表現を構文解析し、復号して前記映像を生成
することを含む、項目1~14のいずれかに記載の方法。
上述した項目において、方位は水平または垂直であってよく、それに対応して、第1の
方向および第2の方向は、ピクセル列およびピクセル行と呼ばれる垂直または水平方向で
あってもよい。
17.項目1~16の1項目以上に記載の方法を実装するように構成されたプロセッサ
を備える、映像復号装置。
18.項目1~16の1項目以上に記載の方法を実装するように構成されたプロセッサ
を備える映像符号化装置。
19.コンピュータコードが記憶されたコンピュータプログラム製品であって、前記コ
ードは、プロセッサにより実行されると、前記プロセッサに、請求項1~16のいずれか
に記載の方法を実装させるコンピュータプログラム製品。
20.本明細書に記載の方法、装置またはシステム。
第2の項目セットは、前章(例えば、例示的な実施形態の項目1~3)に記載された技
術の例示的な実施形態を示す。
1.映像の映像ユニットと映像のビットストリーム表現との変換のために、映像ユニッ
トにループフィルタリングツールを適用している間に利用不可の輝度サンプルをパディン
グするためのミラーパディング処理を有効化するかどうかを決定すること(3812)と
、前記決定に基づいて前記変換を行うこと(3814)と、を含む、映像処理方法(例え
ば図38Aの方法3810)。
2.前記ループフィルタリングツールは、クロス成分適応ループフィルタ(CC-AL
F)ツールを含む、項目1に記載の方法。
3.前記ループフィルタリングツールは、適応ループフィルタリング(ALF)ツール
を含む、項目1に記載の方法。
4.前記ミラーパディング処理は、前記ループフィルタリングツールにおいてフィルタ
サポート領域内の第1のサンプルの対応するサンプルである第2のサンプルが利用可能で
あっても、前記第2のサンプルをパディングすることを含み、前記第1のサンプルは利用
不可でパディング対象である、項目1に記載の方法。
5.ミラーパディング処理をさらに使用して、利用不可の輝度サンプルを導出し、前記
利用不可の輝度サンプルの1つ以上の輝度サンプルを導出する、項目1に記載の方法。
6.代表的な輝度サンプルからの対応する輝度サンプルの距離および/または前記代表
的な輝度サンプルからの利用不可のサンプルの距離に基づいて、対応する輝度サンプルを
決定する、項目5に記載の方法。
7.前記代表的な輝度サンプルは、フィルタリング対象のクロマサンプルの並置された
輝度サンプルとして定義される、項目6に記載の方法。
8.前記クロマサンプルの前記並置された輝度サンプルの位置は、前記映像のカラーフ
ォーマットに依存する、項目7に記載の方法。
9.(x,y)に位置するクロマサンプルの前記並置された輝度サンプルは、4:2:
0である前記カラーフォーマットにおいて、(2x,2y)に位置するものとして定義さ
れる、項目8に記載の方法。
10.(x,y)に位置するクロマサンプルの並置された輝度サンプルは、4:2:2
であるカラーフォーマットにおいて、(2x,y)に位置するものとして定義される、第
8項に記載の方法。
11.(x,y)に位置するクロマサンプルの並置された輝度サンプルは、4:4:4
であるカラーフォーマットにおいて、(x,y)に位置するものとして定義される、第8
項に記載の方法。
12.前記距離は、前記対応する輝度サンプルを含む第1の行と、前記代表的な輝度サ
ンプルを含む第2の行との、第1の方向に沿った距離を指す、項目6に記載の方法。
13.前記距離は、対応する輝度サンプルを含む第2の方向に沿うピクセルラインと、
代表的な輝度サンプルを含む行との、第1の方向に沿う差として算出される、項目6に記
載の方法。
14.Cは、代表的な輝度サンプルが位置する第2の方向に沿った中心線を表し、Mは
、利用不可のサンプルが位置する第2の方向に沿った線を表し、Nは、対応する輝度サン
プルが位置する第2の方向に沿った線を表し、ここで、C、M、Nは正の整数であり、M
は、Nに等しくない、項目13に記載の方法。
15.前記ミラーパディング処理においてパディング対象の1つ以上の対応する輝度サ
ンプルは、CC-ALFツールによって使用されるフィルタ形状によって利用されるサン
プルの行数に基づく、項目5に記載の方法。
16.利用不可の輝度サンプルが行Mに位置し、行Nに位置するサンプルが、パディン
グ対象の1つ以上の対応する輝度サンプルとして決定され、d(C,M)=d(N,C)
であり、式中、d(x,y)は、行xと行yとの距離を表し、M,C,Nは正の整数であ
る、項目5に記載の方法。
17.ミラーパディング処理は、1)中央の輝度サンプルを代表的な輝度サンプルとし
て選択し、2)CC-ALFツールがK×Lのフィルタ形状を有し、そのために、Kが奇
数であり、Lが正の整数である場合、適応ループフィルタリング(ALF)ツールの適用
中に使用される処理に対応する、項目6に記載の方法。
18.CC-ALFツールがK×Lのフィルタ形状を有し、利用不可の輝度サンプルが
仮想境界より上の行Mまたはそれより下の行Nに位置する場合、前記ミラーパディング処
理は、行NまたはMに位置する前記1つ以上の対応する輝度サンプルを、行Nより上また
は行Mより下の最も近いサンプル行から前記仮想境界から離れてパディングすることを含
み、そのために、Kは奇数であり、L、M、Nは正の整数である、項目6に記載の方法。
19.前記仮想境界が前記代表的な輝度サンプルの上にある場合、前記利用不可の輝度
サンプルを、前記仮想境界の下の最も近い行を使用してパディングし、前記仮想境界が前
記代表的な輝度サンプルの上にある場合、前記1つ以上の対応する輝度サンプルを、前記
1つ以上の対応する輝度サンプルを含む行の上の最も近い行を使用してパディングする、
項目18に記載の方法。
20.前記仮想境界が前記代表的な輝度サンプルの下にある場合、前記利用不可の輝度
サンプルを、前記仮想境界の上の最も近い行を使用してパディングし、前記仮想境界が前
記代表的な輝度サンプルの下にある場合、前記1つ以上の対応する輝度サンプルを、前記
1つ以上の対応する輝度サンプルを含む行の下の最も近い行を使用してパディングする、
項目18に記載の方法。
21.K=2、yL=0、yP1=1であり、前記仮想境界がCtbSizeY-4に
等しく、そのために、yLおよびyP1は、2つのサンプル行のy座標であり、CtbS
izeYが、コーディングツリーユニット(CTU)のサイズを表す、項目19または2
0に記載の方法。
22.yLがCtbSizeY-4に等しく、yLより上の行が利用不可である場合、
yP1の行におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)
を使用してパディングする、項目21に記載の方法。
23.K=4、yM1=-1、yL=0、yP1=1、yP2=2であり、前記仮想境
界がCtbSizeY-4に等しく、そのために、yM1、yL、yP1、yP2は、4
つのサンプル行のy座標であり、CtbSizeYは、コーディングツリーユニット(C
TU)のサイズを表す、項目19または20に記載の方法。
24.yLがCtbSizeY-3に等しく、yM1より上の行が利用不可である場合
、yP2の行におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,y
P1)を使用してパディングする、項目23に記載の方法。
25.yLがCtbSizeY-4に等しく、yM1より上の行が利用不可である場合
、yM1の行におけるサンプル(x,yM1)を、yLの行におけるサンプル(x,yL
)を使用してパディングし、yP2およびyP1の行におけるサンプル(x,yP2)お
よび(x,yP1)を、yLの前記行におけるサンプル(x,yL)を使用してパディン
グする、項目23に記載の方法。
26.K=6、yM2=-2、yM1=-1、yL=0、yP1=1、yP2=2、y
P3=3であり、前記仮想境界がCtbSizeY-4に等しく、そのために、yM2、
yM1、yL、yP1、yP2、yP3は、6つのサンプル行のy座標であり、CtbS
izeYは、コーディングツリーユニット(CTU)のサイズを表す、項目19または2
0に記載の方法。
27.yLがCtbSizeY-2に等しく、yM2より上の行が利用不可である場合
、yP3の行におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,y
P2)を使用してパディングする、項目26に記載の方法。
28.yLがCtbSizeY-3に等しく、yM2およびyM2より上の行が利用不
可である場合、yM2の行におけるサンプル(x,yM2)を、yM1の行におけるサン
プル(x,yM1)を使用してパディングし、yP3およびyP2の行におけるサンプル
(x,yP3)および(x,yP2)を、yP1の前記行におけるサンプル(x,yP1
)を使用してパディングする、項目26に記載の方法。
29.yLがCtbSizeY-4に等しく、yM2より上の行、yM2の行およびy
M1の行が利用不可である場合、yM2およびyM1の行におけるサンプル(x,yM2
)および(x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディン
グし、yP3、yP2、およびyP1の行におけるサンプル(x,yP3)、(x,yP
2)、および(x,yP1)を、yLの前記行におけるサンプル(x,yL)を使用して
パディングする、項目26に記載の方法。
30.yLがCtbSizeY-5に等しく、yP1の行が利用不可である場合、yP
1の行におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)を使
用してパディングする、項目21に記載の方法。
31.yLがCtbSizeY-6に等しく、yP2の行が利用不可である場合、yP
2の行におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)
を使用してパディングする、項目23に記載の方法。
32.yLがCtbSizeY-5に等しく、yP2およびyP1の行が利用不可であ
る場合、yP1の行におけるサンプル(x,yP1)およびyP2の行におけるサンプル
(x,yP2)を、yLの行におけるサンプル(x,yL)を使用してパディングし、y
M1の行におけるサンプル(x,yM1)を、yLの行におけるサンプル(x,yL)を
使用してパディングする、項目23に記載の方法。
33.yLがCtbSizeY-7に等しく、yP3の行が利用不可である場合、yP
3の行におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,yP2)
を使用してパディングする、項目26に記載の方法。
34.yLがCtbSizeY-6に等しく、yP3の行およびyP2の行が利用不可
である場合、yP3の行におけるサンプル(x,yP3)およびyP2の行におけるサン
プル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を使用してパディン
グし、サンプル(x,yM2)を、yM1の行におけるサンプル(x,yM1)を使用し
てパディングする、項目26に記載の方法。
35.yLがCtbSizeY-5に等しく、yP3、yP2、およびyP1の行が利
用不可である場合、yP3の行におけるサンプル(x、yP3)、yP2の行におけるサ
ンプル(x、yP2)、およびyP1の行におけるサンプル(x、yP1)を、yLの行
におけるサンプル(x、yL)、yM2の行におけるサンプル(x、yM2)、yM1の
行におけるサンプル(x、yM1)を使用してパディングする、項目26に記載の方法。
36.利用不可の輝度サンプルが行Mに位置し、行Nに位置するサンプルが、パディン
グ対象の1つ以上の対応する輝度サンプルとして決定され、d(C,M)=d(N,C)
-offsetまたはd(C,M)<d(N,C)であり、そのために、d(x,y)は
、行xと行yとの距離を表し、offsetは整数であり、M,C,Nは正の整数である
、項目5に記載の方法。
37.利用不可の輝度サンプルが行Mに位置し、行Nに位置するサンプルが、パディン
グ対象の1つ以上の対応する輝度サンプルとして決定され、d(M,C)=d(C,N)
-offsetまたはd(C,M)<d(N,C)であり、そのために、d(x,y)は
、行xと行yとの距離を表し、offsetは整数であり、M,C,Nは正の整数である
、項目5に記載の方法。
38.前記オフセットが1に等しい、項目36または37に記載の方法。
39.利用不可の輝度サンプルが仮想境界より上の行Mまたはそれより下の行Nに位置
する場合、前記ミラーパディング処理は、前記仮想境界より下の行N、あるいは、行Nよ
り上または行Mより下の最も近いサンプル行から仮想境界より上の行Mに位置する前記1
つ以上の対応する輝度サンプルをパディングすることを含み、そのために、M、Nは正の
整数である、項目36に記載の方法。
40.前記仮想境界が前記代表的な輝度サンプルの下にある場合、前記利用不可の輝度
サンプルを、前記仮想境界の上の最も近い行を使用してパディングし、前記1つ以上の対
応する輝度サンプルを、前記1つ以上の対応する輝度サンプルを含む行の下の最も近い行
を使用してパディングする、項目39に記載の方法。
41.前記仮想境界が前記代表的な輝度サンプルの上にある場合、前記利用不可の輝度
サンプルを、前記仮想境界の下の最も近い行を使用してパディングし、前記1つ以上の対
応するサンプルを、前記1つ以上の対応する輝度サンプルを含む行の上の最も近い行を使
用してパディングする、項目39に記載の方法。
42.K=2、yL=0、yP1=1であり、前記仮想境界がCtbSizeY-4に
等しく、そのために、yLおよびyP1は、2つのサンプル行のy座標であり、CtbS
izeYが、コーディングツリーユニット(CTU)のサイズを表す、項目40または4
1に記載の方法。
43.yLがCtbSizeY-5に等しく、yP1の行が利用不可である場合、yP
1の行におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)を使
用してパディングする、項目42に記載の方法。
44.K=4、yM1=-1、yL=0、yP1=1、yP2=2であり、前記仮想境
界がCtbSizeY-4に等しく、そのために、yM1、yL、yP1、yP2は、4
つのサンプル行のy座標であり、CtbSizeYは、コーディングツリーユニット(C
TU)のサイズを表す、項目40または41に記載の方法。
45.yLがCtbSizeY-4に等しく、yM1の上の行およびyM1の上の行が
利用不可である場合、yM1の行におけるサンプル(x,yM1)を、yLの行における
サンプル(x,yL)を使用してパディングし、yP2の行におけるサンプル(x,yP
2)を、yP1の行におけるサンプル(x,yP1)を使用してパディングする、項目4
4に記載の方法。
46.yLがCtbSizeY-6に等しく、yP2の行が利用不可である場合、yP
2の前記行におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,yP
1)を使用してパディングする、項目44に記載の方法。
47.yLがCtbSizeY-5に等しく、yP2およびyP1の行が利用不可であ
る場合、yP2の行におけるサンプル(x,yP2)を、yLの行におけるサンプル(x
,yL)を使用してパディングし、yM1の行におけるサンプル(x,yM1)をyLの
行におけるサンプル(x,yL)を使用してパディングする、項目44に記載の方法。
48.K=6、yM2=-2、yM1=-1、yL=0、yP1=1、yP2=2、y
P3=3であり、前記仮想境界がCtbSizeY-4に等しく、そのために、yM2、
yM1、yL、yP1、yP2、yP3は、6つのサンプル行のy座標であり、CtbS
izeYは、コーディングツリーユニット(CTU)のサイズを表す、項目40または4
1に記載の方法。
49.yLがCtbSizeY-3に等しく、yM2の上の行およびyM2の上の行が
利用不可である場合、yM2の行におけるサンプル(x,yM2)を、yM1の行におけ
るサンプル(x,yM1)を使用してパディングし、yP3の行におけるサンプル(x,
yP3)を、yP2の行におけるサンプル(x,yP2)を使用してパディングする、項
目48に記載の方法。
50.yLがCtbSizeY-4に等しく、yM2の上の行、yM2の行、およびy
M1の行が利用不可である場合、yM2およびyM1の行におけるサンプル(x,yM2
)および(x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディン
グし、yP3およびyP2の行におけるサンプル(x,yP3)および(x,yP2)を
、yP1の行におけるサンプル(x,yP1)を使用してパディングする、項目48に記
載の方法。
51.yLがCtbSizeY-7に等しく、yP3の行が利用不可である場合、yP
3の行におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,yP2)
を使用してパディングし、yM2の行におけるサンプル(x,yM2)を、yM1の行に
おけるサンプル(x,yM1)を使用してパディングする、項目48に記載の方法。
52.yLがCtbSizeY-6に等しく、yP3の行およびyP2の行が利用不可
である場合、yP3の行におけるサンプル(x,yP3)およびyP2の行におけるサン
プル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を使用してパディン
グし、yM2の行におけるサンプル(x,yM2)およびyM1の行におけるサンプル(
x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディングする、項
目48に記載の方法。
53.yLがCtbSizeY-5に等しく、yP3、yP2、およびyP1の行が利
用不可である場合、yP3の行におけるサンプル(x、yP3)、yP2の行におけるサ
ンプル(x、yP2)、およびyP1の行におけるサンプル(x、yP1)を、yLの行
におけるサンプル(x、yL)、yM2の行におけるサンプル(x、yM2)、yM1の
行におけるサンプル(x、yM1)を使用してパディングする、項目48に記載の方法。
54.前記決定の結果は、シーケンスレベル、ピクチャレベル、スライスレベル、また
はタイルグループレベルのビットストリーム表現に含まれる、項目1に記載の方法。
55.第1の方向は垂直方向であり、第2の方向は水平方向である、先行する項目のい
ずれかに記載の方法。
56.第1の方向は水平方向であり、第2の方向は垂直方向である、先行する項目のい
ずれかに記載の方法。
57.第1の方向および第2の方向の方位は、仮想バッファの境界の方位に依存する、
項目55または56に記載の方法。
58.映像の映像ユニットと前記映像のビットストリーム表現との変換のために、前記
映像ユニットのコーディング情報に基づいて、仮想境界に位置するサンプルをパディング
するために、反復パディング処理および/またはミラーパディング処理を適用するかどう
かを決定すること(3822)と、前記決定に基づいて前記変換を行うこと(3824)
と、を含む、映像処理方法(例えば図38Bに示す方法3820)。
59.前記コーディング情報は、コーディングツリーユニット(CTU)またはコーデ
ィングツリーブロック(CTB)である前記映像ユニットのサイズを含む、項目58に記
載の方法。
60.前記CTUまたはCTBのサイズがT以上であり、そのために、Tが正の整数で
ある場合、ミラーパディング処理が適用される、項目59に記載の方法。
61.前記CTUまたはCTBのサイズがT以下であり、そのために、Tが正の整数で
ある場合、反復パディング処理が適用される、項目59に記載の方法。
62.前記映像ユニットは、前記映像のピクチャ、サブピクチャ、スライス、タイルま
たは360度の境界を含む、先行する項目のいずれかに記載の方法。
63.CC-ALFツールにおいて、映像コンポーネントの前記映像ユニットのサンプ
ル値は、別の映像コンポーネントの前記映像ユニットのサンプル値から予測される、先行
する項目のいずれかに記載の方法。
64.前記変換は、前記映像を前記ビットストリーム表現に符号化することを含む、項
目1~63のいずれかに記載の方法。
65.変換は、ビットストリーム表現から映像を復号することを含む、項目1~63の
いずれかに記載の方法。
66.項目1~65のずれか1項目以上に記載の方法を実装するように構成されたプロ
セッサを備える映像処理装置。
67.実行されると、項目1~65のいずれか1つ以上に記載の方法をプロセッサに実
装させるプログラムコードを記憶するコンピュータ可読媒体。
68.上述した方法のいずれかに従って生成された符号化表現またはビットストリーム
表現を記憶する、コンピュータ可読媒体。
本明細書では、「映像処理」という用語は、映像符号化、映像復号、映像圧縮、または
映像展開を指すことができる。例えば、映像圧縮アルゴリズムは、映像の画素表現から対
応するビットストリーム表現への変換、またはその逆の変換中に適用されてもよい。現在
の映像ブロックのビットストリーム表現は、例えば、構文によって規定されるように、ビ
ットストリーム内の同じ場所または異なる場所に拡散されるビットに対応していてもよい
。例えば、1つのマクロブロックは、変換および符号化された誤り残差値の観点から、且
つビットストリームにおけるヘッダおよび他のフィールドにおけるビットを使用して符号
化されてもよい。
本明細書に記載された開示された、およびその他の解決策、実施例、実施形態、モジュ
ール、および機能動作の実装形態は、本明細書に開示された構造およびその構造的等価物
を含め、デジタル電子回路、またはコンピュータソフトウェア、ファームウェア、若しく
はハードウェアで実施されてもよく、またはそれらの1つ以上の組み合わせで実施しても
よい。開示された、およびその他の実施形態は、1つ以上のコンピュータプログラム製品
、すなわち、データ処理装置によって実装されるため、またはデータ処理装置の動作を制
御するために、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1
つ以上のモジュールとして実施することができる。このコンピュータ可読媒体は、機械可
読記憶デバイス、機械可読記憶基板、メモリデバイス、機械可読伝播信号をもたらす物質
の組成物、またはこれらの1つ以上の組み合わせであってもよい。「データ処理装置」と
いう用語は、例えば、プログラマブル処理装置、コンピュータ、または複数の処理装置、
若しくはコンピュータを含む、データを処理するためのすべての装置、デバイス、および
機械を含む。この装置は、ハードウェアの他に、当該コンピュータプログラムの実行環境
を作るコード、例えば、処理装置ファームウェア、プロトコルスタック、データベース管
理システム、オペレーティングシステム、またはこれらの1つ以上の組み合わせを構成す
るコードを含むことができる。伝播信号は、人工的に生成した信号、例えば、機械で生成
した電気、光、または電磁信号であり、適切な受信装置に送信するための情報を符号化す
るために生成される。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション
、スクリプト、またはコードとも呼ばれる)は、コンパイルされた言語または解釈された
言語を含む任意の形式のプログラミング言語で記述することができ、また、それは、スタ
ンドアロンプログラムとして、またはコンピューティング環境で使用するのに適したモジ
ュール、コンポーネント、サブルーチン、または他のユニットとして含む任意の形式で展
開することができる。コンピュータプログラムは、必ずしもファイルシステムにおけるフ
ァイルに対応するとは限らない。プログラムは、他のプログラムまたはデータを保持する
ファイルの一部(例えば、マークアップ言語文書に格納された1つ以上のスクリプト)に
記録されていてもよいし、当該プログラム専用の単一のファイルに記憶されていてもよい
し、複数の調整ファイル(例えば、1つ以上のモジュール、サブプログラム、またはコー
ドの一部を格納するファイル)に記憶されていてもよい。1つのコンピュータプログラム
を、1つのサイトに位置する1つのコンピュータ、または複数のサイトに分散され通信ネ
ットワークによって相互接続される複数のコンピュータで実行させるように展開すること
も可能である。
本明細書に記載された処理およびロジックフローは、入力データ上で動作し、出力を生
成することによって機能を実行するための1つ以上のコンピュータプログラムを実行する
1つ以上のプログラマブルプロセッサによって行うことができる。処理およびロジックフ
ローはまた、特定用途のロジック回路、例えば、FPGA(フィールドプログラマブルゲ
ートアレイ)またはASIC(特定用途向け集積回路)によって行うことができ、装置は
また、特別目的のロジック回路として実装することができる。
コンピュータプログラムの実行に適したプロセッサは、例えば、汎用および専用マイク
ロプロセッサの両方、並びに任意の種類のデジタルコンピュータの任意の1つ以上のプロ
セッサを含む。一般的に、プロセッサは、リードオンリーメモリまたはランダムアクセス
メモリまたはその両方から命令およびデータを受信する。コンピュータの本質的な要素は
、命令を実行するためのプロセッサと、命令およびデータを記憶するための1つ以上のメ
モリデバイスとである。一般的に、コンピュータは、データを記憶するための1つ以上の
大容量記憶デバイス、例えば、磁気、光磁気ディスク、または光ディスクを含んでもよく
、またはこれらの大容量記憶デバイスからデータを受信するか、またはこれらにデータを
転送するように動作可能に結合されてもよい。しかしながら、コンピュータは、このよう
なデバイスを有する必要はない。コンピュータプログラム命令およびデータを記憶するの
に適したコンピュータ可読媒体は、あらゆる形式の不揮発性メモリ、媒体、およびメモリ
デバイスを含み、例えば、EPROM、EEPROM、フラッシュ記憶装置、磁気ディス
ク、例えば内部ハードディスクまたはリムーバブルディスク、光磁気ディスク、およびC
D-ROMおよびDVD-ROMディスク等の半導体記憶装置を含む。プロセッサおよび
メモリは、特定用途のロジック回路によって補完されてもよく、または特定用途のロジッ
ク回路に組み込まれてもよい。
本特許明細書は多くの詳細を含むが、これらは、任意の主題の範囲または特許請求の範
囲を限定するものと解釈されるべきではなく、むしろ、特定の技術の特定の実施形態に特
有であり得る特徴の説明と解釈されるべきである。本特許文献において別個の実施形態の
コンテキストで説明されている特定の特徴は、1つの例において組み合わせて実装しても
よい。逆に、1つの例のコンテキストで説明された様々な特徴は、複数の実施形態におい
て別個にまたは任意の適切なサブコンビネーションで実装してもよい。さらに、特徴は、
特定の組み合わせで作用するものとして上記に記載され、最初にそのように主張されてい
てもよいが、主張された組み合わせからの1つ以上の特徴は、場合によっては、組み合わ
せから抜粋されることができ、主張された組み合わせは、サブコンビネーションまたはサ
ブコンビネーションのバリエーションに向けられてもよい。
同様に、動作は図面において特定の順番で示されているが、これは、所望の結果を達成
するために、このような動作が示された特定の順番でまたは連続した順番で行われること
、または示された全ての動作が行われることを必要とするものと理解されるべきではない
。また、本特許明細書に記載されている例における様々なシステムの構成要素の分離は、
全ての実施形態においてこのような分離を必要とするものと理解されるべきではない。
いくつかの実装形態および例のみが記載されており、この特許文献に記載され図示され
ているコンテンツに基づいて、他の実施形態、拡張および変形が可能である。
関連出願の相互参照
本願は、2020年12月10日出願の国際特許出願第PCT/CN2020/135134号に基づく日本国特許出願第2022-535772号の分割出願であり、2019年12月11日出願の国際特許出願第PCT/CN2019/124481号の優先権および利益を主張する。前述の特許出願はすべて、参照によりその全体が本明細書に組み込まれる。

Claims (68)

  1. 映像の映像ユニットと前記映像のビットストリーム表現との変換のために、前記映像ユ
    ニットにループフィルタリングツールを適用している間に利用不可の輝度サンプルをパデ
    ィングするためのミラーパディング処理を有効化するかどうかを決定することと、この決
    定することに基づいて前記変換を行うことと、を含む映像処理方法。
  2. 前記ループフィルタリングツールは、クロス成分適応ループフィルタ(CC-ALF)
    ツールを含む、請求項1に記載の方法。
  3. 前記ループフィルタリングツールは、適応ループフィルタリング(ALF)ツールを含
    む、請求項1に記載の方法。
  4. 前記ミラーパディング処理は、前記ループフィルタリングツールにおいてフィルタサポ
    ート領域内の第1のサンプルの対応するサンプルである第2のサンプルが利用可能であっ
    ても、前記第2のサンプルをパディングすることを含み、前記第1のサンプルは利用不可
    でパディング対象である、請求項1に記載の方法。
  5. 前記ミラーパディング処理をさらに使用して、前記利用不可の輝度サンプルを導出し、
    前記利用不可の輝度サンプルの1つ以上の対応する輝度サンプルを導出する、請求項1に
    記載の方法。
  6. 代表的な輝度サンプルからの対応する輝度サンプルの距離および/または前記代表的な
    輝度サンプルからの前記利用不可のサンプルの距離に基づいて、対応する輝度サンプルを
    決定する、請求項5に記載の方法。
  7. 前記代表的な輝度サンプルは、フィルタリング対象のクロマサンプルの並置された輝度
    サンプルとして定義される、請求項6に記載の方法。
  8. 前記クロマサンプルの前記並置された輝度サンプルの位置は、前記映像のカラーフォー
    マットに依存する、請求項7に記載の方法。
  9. (x,y)に位置する前記クロマサンプルの前記並置された輝度サンプルは、4:2:0
    である前記カラーフォーマットにおいて、(2x,2y)に位置するものとして定義され
    る、請求項8に記載の方法。
  10. (x,y)に位置する前記クロマサンプルの前記並置された輝度サンプルは、4:2:2
    である前記カラーフォーマットにおいて、(2x,y)に位置するものとして定義される
    、請求項8に記載の方法。
  11. (x,y)に位置する前記クロマサンプルの前記並置された輝度サンプルは、4:4:4
    である前記カラーフォーマットにおいて、(x,y)に位置するものとして定義される、
    請求項8に記載の方法。
  12. 前記距離は、前記対応する輝度サンプルを含む第1の行と、前記代表的な輝度サンプルを
    含む第2の行との、第1の方向に沿った距離を指す、請求項6に記載の方法。
  13. 前記距離は、前記対応する輝度サンプルを含む第2の方向に沿ったピクセルラインと、
    前記代表的な輝度サンプルを含む行との、第1の方向に沿った差として算出される、請求
    項6に記載の方法。
  14. Cは、前記代表的な輝度サンプルが位置する前記第2の方向に沿った中心線を表し、M
    は、前記利用不可のサンプルが位置する前記第2の方向に沿った線を表し、Nは、前記対
    応する輝度サンプルが位置する前記第2の方向に沿った線を表し、C、M、Nは正の整数
    であり、Mは、Nに等しくない、請求項13に記載の方法。
  15. 前記ミラーパディング処理においてパディング対象の前記1つ以上の対応する輝度サン
    プルは、CC-ALFツールによって使用されるフィルタ形状によって利用されるサンプ
    ルの行数に基づく、請求項5に記載の方法。
  16. 前記利用不可の輝度サンプルは行Mに位置し、行Nに位置するサンプルはパディング対
    象の前記1つ以上の対応する輝度サンプルとして決定され、d(C,M)=d(N,C)
    であり、式中、d(x,y)は、行xと行yとの距離を表し、M,C,Nは正の整数であ
    る、請求項5に記載の方法。
  17. 前記ミラーパディング処理は、1)中央の輝度サンプルを前記代表的な輝度サンプルと
    して選択し、2)前記CC-ALFツールはK×Lのフィルタ形状を有し、そのために、
    Kは奇数であり、Lは正の整数である場合、適応ループフィルタリング(ALF)ツール
    の適用中に使用される処理に対応する、請求項6に記載の方法。
  18. 前記CC-ALFツールがK×Lのフィルタ形状を有し、前記利用不可の輝度サンプル
    が仮想境界より上の行Mまたは仮想境界より下の行Nに位置する場合、前記ミラーパディ
    ング処理は、行Nまたは行Mに位置する前記1つ以上の対応する輝度サンプルを、前記行
    Nより上または前記行Mより下の最も近いサンプル行から前記仮想境界から離れてパディ
    ングすることを含み、そのために、Kは奇数であり、L、M、Nは正の整数である、請求
    項6に記載の方法。
  19. 前記仮想境界が前記代表的な輝度サンプルの上にある場合、前記利用不可の輝度サンプ
    ルを、前記仮想境界の下の最も近い行を使用してパディングし、前記仮想境界が前記代表
    的な輝度サンプルの上にある場合、前記1つ以上の対応する輝度サンプルを、前記1つ以
    上の対応する輝度サンプルを含む行の上の最も近い行を使用してパディングする、請求項
    18に記載の方法。
  20. 前記仮想境界が前記代表的な輝度サンプルの下にある場合、前記利用不可の輝度サンプ
    ルを、前記仮想境界の上の最も近い行を使用してパディングし、前記仮想境界が前記代表
    的な輝度サンプルの下にある場合、前記1つ以上の対応する輝度サンプルを、前記1つ以
    上の対応する輝度サンプルを含む行の下の最も近い行を使用してパディングする、請求項
    18に記載の方法。
  21. K=2、yL=0、yP1=1であり、前記仮想境界がCtbSizeY-4に等しく
    、そのために、yLおよびyP1は、2つのサンプル行のy座標であり、CtbSize
    Yは、コーディングツリーユニット(CTU)のサイズを表す、請求項19または20に
    記載の方法。
  22. yLがCtbSizeY-4に等しく、yLより上の行が利用不可である場合、yP1
    の行におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)を使用
    してパディングする、請求項21に記載の方法。
  23. K=4、yM1=-1、yL=0、yP1=1、yP2=2であり、前記仮想境界がC
    tbSizeY-4に等しく、そのために、yM1、yL、yP1、yP2は、4つのサ
    ンプル行のy座標であり、CtbSizeYは、コーディングツリーユニット(CTU)
    のサイズを表す、請求項19または20に記載の方法。
  24. yLがCtbSizeY-3に等しく、yM1より上の行が利用不可である場合、yP
    2の行におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)
    を使用してパディングする、請求項23に記載の方法。
  25. yLがCtbSizeY-4に等しく、yM1より上の行が利用不可である場合、yM
    1の行におけるサンプル(x,yM1)を、yLの行におけるサンプル(x,yL)を使
    用してパディングし、yP2およびyP1の行におけるサンプル(x,yP2)および(
    x,yP1)を、yLの前記行におけるサンプル(x,yL)を使用してパディングする
    、請求項23に記載の方法。
  26. K=6、yM2=-2、yM1=-1、yL=0、yP1=1、yP2=2、yP3=
    3であり、前記仮想境界がCtbSizeY-4に等しく、そのために、yM2、yM1
    、yL、yP1、yP2、yP3は、6つのサンプル行のy座標であり、CtbSize
    Yは、コーディングツリーユニット(CTU)のサイズを表す、請求項19または20に
    記載の方法。
  27. yLがCtbSizeY-2に等しく、yM2より上の行が利用不可である場合、yP
    3の行におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,yP2)
    を使用してパディングする、請求項26に記載の方法。
  28. yLがCtbSizeY-3に等しく、yM2およびyM2より上の行が利用不可であ
    る場合、yM2の行におけるサンプル(x,yM2)を、yM1の行におけるサンプル(
    x,yM1)を使用してパディングし、yP3およびyP2の行におけるサンプル(x,
    yP3)および(x,yP2)を、yP1の前記行におけるサンプル(x,yP1)を使
    用してパディングする、請求項26に記載の方法。
  29. yLがCtbSizeY-4に等しく、yM2より上の行、yM2の行およびyM1の
    行が利用不可である場合、yM2およびyM1の行におけるサンプル(x,yM2)およ
    び(x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディングし、
    yP3、yP2、およびyP1の行におけるサンプル(x,yP3)、(x,yP2)、
    および(x,yP1)を、yLの前記行におけるサンプル(x,yL)を使用してパディ
    ングする、請求項26に記載の方法。
  30. yLがCtbSizeY-5に等しく、yP1の行が利用不可である場合、yP1の行
    におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)を使用して
    パディングする、請求項21に記載の方法。
  31. yLがCtbSizeY-6に等しく、yP2の行が利用不可である場合、yP2の行
    におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を使用
    してパディングする、請求項23に記載の方法。
  32. yLがCtbSizeY-5に等しく、yP2およびyP1の行が利用不可である場合
    、yP1の行におけるサンプル(x,yP1)およびyP2の行におけるサンプル(x,
    yP2)を、yLの行におけるサンプル(x,yL)を使用してパディングし、yM1の
    行におけるサンプル(x,yM1)を、yLの行におけるサンプル(x,yL)を使用し
    てパディングする、請求項23に記載の方法。
  33. yLがCtbSizeY-7に等しく、yP3の行が利用不可である場合、yP3の前
    記行におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,yP2)を
    使用してパディングする、請求項26に記載の方法。
  34. yLがCtbSizeY-6に等しく、yP3の行およびyP2の行が利用不可である
    場合、yP3の前記行におけるサンプル(x,yP3)およびyP2の前記行におけるサ
    ンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を使用してパディ
    ングし、サンプル(x(yM2)を、yM1の行におけるサンプル(x,yM1)を使用
    してパディングする、請求項26に記載の方法。
  35. yLがCtbSizeY-5に等しく、yP3、yP2、およびyP1の行が利用不可
    である場合、yP3の行におけるサンプル(x、yP3)、yP2の行におけるサンプル
    (x、yP2)、およびyP1の行におけるサンプル(x、yP1)を、yLの行におけ
    るサンプル(x、yL)を使用してパディングし、yM2の行におけるサンプル(x,y
    M2)およびyM1の行におけるサンプル(x,yM1)を、yLの前記行におけるサン
    プル(x、yL)を使用してパディングする、請求項26に記載の方法。
  36. 前記利用不可の輝度サンプルが行Mに位置し、行Nに位置するサンプルが、パディング
    対象の前記1つ以上の対応する輝度サンプルとして決定され、d(C,M)=d(N,C
    )-offsetまたはd(C,M)<d(N,C)であり、そのために、d(x,y)
    は、行xと行yとの距離を表し、offsetは整数であり、M,C,Nは正の整数であ
    る、請求項5に記載の方法。
  37. 前記利用不可の輝度サンプルが行Mに位置し、行Nに位置するサンプルが、パディング
    対象の前記1つ以上の対応する輝度サンプルとして決定され、d(M,C)=d(C,N
    )-offsetまたはd(C,M)<d(N,C)であり、そのために、d(x,y)
    は、行xと行yとの距離を表し、offsetは整数であり、M,C,Nは正の整数であ
    る、請求項5に記載の方法。
  38. オフセットが1に等しい、請求項36または37に記載の方法。
  39. 前記利用不可の輝度サンプルが仮想境界より上の行Mまたは仮想境界より下の行Nに位
    置する場合、前記ミラーパディング処理は、前記仮想境界より下の行N、あるいは、前記
    行Nより上または前記行Mより下の最も近いサンプル行から前記仮想境界より上の行Mに
    位置する前記1つ以上の対応する輝度サンプルをパディングすることを含み、そのために
    、M、Nは正の整数である、請求項36に記載の方法。
  40. 前記仮想境界が代表的な輝度サンプルの下にある場合、前記利用不可の輝度サンプルを
    、前記仮想境界の上の最も近い行を使用してパディングし、前記1つ以上の対応する輝度
    サンプルを、前記1つ以上の対応する輝度サンプルを含む行の下の最も近い行を使用して
    パディングする、請求項39に記載の方法。
  41. 前記仮想境界が代表的な輝度サンプルの上にある場合、前記利用不可の輝度サンプルを
    、前記仮想境界の下の最も近い行を使用してパディングし、前記1つ以上の対応するサン
    プルを、前記1つ以上の対応する輝度サンプルを含む行の上の最も近い行を使用してパデ
    ィングする、請求項39に記載の方法。
  42. K=2、yL=0、yP1=1であり、前記仮想境界がCtbSizeY-4に等しく
    、そのために、yLおよびyP1は、2つのサンプル行のy座標であり、CtbSize
    Yは、コーディングツリーユニット(CTU)のサイズを表す、請求項40または41に
    記載の方法。
  43. yLがCtbSizeY-5に等しく、yP1の行が利用不可である場合、yP1の行
    におけるサンプル(x,yP1)を、yLの行におけるサンプル(x,yL)を使用して
    パディングする、請求項42に記載の方法。
  44. K=4、yM1=-1、yL=0、yP1=1、yP2=2であり、前記仮想境界がC
    tbSizeY-4に等しく、そのために、yM1、yL、yP1、yP2は、4つのサ
    ンプル行のy座標であり、CtbSizeYは、コーディングツリーユニット(CTU)
    のサイズを表す、請求項40または41に記載の方法。
  45. yLがCtbSizeY-4に等しく、yM1の上の行およびyM1の上の行が利用不
    可である場合、yM1の行におけるサンプル(x,yM1)を、yLの行におけるサンプ
    ル(x,yL)を使用してパディングし、yP2の行におけるサンプル(x,yP2)を
    、yP1の行におけるサンプル(x,yP1)を使用してパディングする、請求項44に
    記載の方法。
  46. yLがCtbSizeY-6に等しく、yP2の行が利用不可である場合、yP2の前
    記行におけるサンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を
    使用してパディングする、請求項44に記載の方法。
  47. yLがCtbSizeY-5に等しく、yP2およびyP1の行が利用不可である場合
    、yP2の行におけるサンプル(x,yP2)を、yLの行におけるサンプル(x,yL
    )を使用してパディングし、yM1の行におけるサンプル(x,yM1)をyLの前記行
    におけるサンプル(x,yL)を使用してパディングする、請求項44に記載の方法。
  48. K=6、yM2=-2、yM1=-1、yL=0、yP1=1、yP2=2、yP3=
    3であり、前記仮想境界がCtbSizeY-4に等しく、そのために、yM2、yM1
    、yL、yP1、yP2、yP3は、6つのサンプル行のy座標であり、CtbSize
    Yは、コーディングツリーユニット(CTU)のサイズを表す、請求項40または41に
    記載の方法。
  49. yLがCtbSizeY-3に等しく、yM2の上の行およびyM2の上の行が利用不
    可である場合、yM2の行におけるサンプル(x,yM2)を、yM1の行におけるサン
    プル(x,yM1)を使用してパディングし、yP3の行におけるサンプル(x,yP3
    )を、yP2の行におけるサンプル(x,yP2)を使用してパディングする、請求項4
    8に記載の方法。
  50. yLがCtbSizeY-4に等しく、yM2の上の行、yM2の行、およびyM1の
    行が利用不可である場合、yM2およびyM1の行におけるサンプル(x,yM2)およ
    び(x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディングし、
    yP3およびyP2の行におけるサンプル(x,yP3)および(x,yP2)を、yP
    1の行におけるサンプル(x,yP1)を使用してパディングする、請求項48に記載の
    方法。
  51. yLがCtbSizeY-7に等しく、yP3の行が利用不可である場合、yP3の行
    におけるサンプル(x,yP3)を、yP2の行におけるサンプル(x,yP2)を使用
    してパディングし、yM2の行におけるサンプル(x,yM2)を、yM1の行における
    サンプル(x,yM1)を使用してパディングする、請求項48に記載の方法。
  52. yLがCtbSizeY-6に等しく、yP3の行およびyP2の行が利用不可である
    場合、yP3の前記行におけるサンプル(x,yP3)およびyP2の前記行におけるサ
    ンプル(x,yP2)を、yP1の行におけるサンプル(x,yP1)を使用してパディ
    ングし、yM2の行におけるサンプル(x,yM2)およびyM1の行におけるサンプル
    (x,yM1)を、yLの行におけるサンプル(x,yL)を使用してパディングする、
    請求項48に記載の方法。
  53. yLがCtbSizeY-5に等しく、yP3、yP2、およびyP1の行が利用不可
    である場合、yP3の行におけるサンプル(x、yP3)、yP2の行におけるサンプル
    (x、yP2)、およびyP1の行におけるサンプル(x、yP1)を、yLの行におけ
    るサンプル(x、yL)を使用してパディングし、yM2の行におけるサンプル(x、y
    M2)およびyM1の行におけるサンプル(x、yM1)を、yP1の前記行におけるサ
    ンプル(x,yL)を使用してパディングする、請求項48に記載の方法。
  54. 前記決定することの結果は、シーケンスレベル、ピクチャレベル、スライスレベル、ま
    たはタイルグループレベルのビットストリーム表現に含まれる、請求項1に記載の方法。
  55. 第1の方向は垂直方向であり、第2の方向は水平方向である、請求項1~54のいずれ
    かに記載の方法。
  56. 第1の方向は水平方向であり、第2の方向は垂直方向である、請求項1~54のいずれ
    かに記載の方法。
  57. 前記第1の方向および前記第2の方向の方位が、仮想バッファの境界の方位に依存する
    、請求項55または56に記載の方法。
  58. 映像の映像ユニットと前記映像のビットストリーム表現との変換のために、前記映像ユ
    ニットのコーディング情報に基づいて、仮想境界に位置するサンプルをパディングするた
    めに、反復パディング処理および/またはミラーパディング処理を適用するかどうかを決
    定することと、前記決定することに基づいて前記変換を行うことと、を含む映像処理方法
  59. 前記コーディング情報は、コーディングツリーユニット(CTU)またはコーディング
    ツリーブロック(CTB)である前記映像ユニットのサイズを含む、請求項58に記載の
    方法。
  60. CTUまたはCTBのサイズがT以上であり、Tが正の整数である場合、前記ミラーパ
    ディング処理が適用される、請求項59に記載の方法。
  61. CTUまたはCTBのサイズがT以下であり、そのために、Tが正の整数である場合、
    前記反復パディング処理が適用される、請求項59に記載の方法。
  62. 前記映像ユニットは、前記映像のピクチャ、サブピクチャ、スライス、タイルまたは3
    60度の境界を含む、先行する請求項のいずれかに記載の方法。
  63. 前記CC-ALFツールにおいて、映像コンポーネントの前記映像ユニットのサンプル
    値が、別の映像コンポーネントの前記映像ユニットのサンプル値から予測される、先行す
    る請求項のいずれかに記載の方法。
  64. 前記変換は、前記映像をビットストリーム表現に符号化することを含む、請求項1~6
    3のいずれかに記載の方法。
  65. 前記変換は、ビットストリーム表現から前記映像を復号することを含む、請求項1~6
    3のいずれかに記載の方法。
  66. 請求項1~65のいずれか1項以上に記載の方法を実装するように構成されたプロセッ
    サを備える映像処理装置。
  67. 実行されると、プロセッサに、請求項1から65のいずれか1つ以上に記載の方法を実
    装させる、プログラムコードを格納するコンピュータ可読媒体。
  68. 上述した方法のいずれかに従って生成された符号化表現またはビットストリーム表現を
    記憶する、コンピュータ可読媒体。
JP2023198422A 2019-12-11 2023-11-22 クロス成分適応ループフィルタリングのためのサンプルパディング Pending JP2024026154A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2019124481 2019-12-11
CNPCT/CN2019/124481 2019-12-11
PCT/CN2020/135134 WO2021115362A1 (en) 2019-12-11 2020-12-10 Sample padding for cross-component adaptive loop filtering
JP2022535772A JP7393550B2 (ja) 2019-12-11 2020-12-10 クロス成分適応ループフィルタリングのためのサンプルパディング

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022535772A Division JP7393550B2 (ja) 2019-12-11 2020-12-10 クロス成分適応ループフィルタリングのためのサンプルパディング

Publications (1)

Publication Number Publication Date
JP2024026154A true JP2024026154A (ja) 2024-02-28

Family

ID=76328854

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022535772A Active JP7393550B2 (ja) 2019-12-11 2020-12-10 クロス成分適応ループフィルタリングのためのサンプルパディング
JP2023198422A Pending JP2024026154A (ja) 2019-12-11 2023-11-22 クロス成分適応ループフィルタリングのためのサンプルパディング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022535772A Active JP7393550B2 (ja) 2019-12-11 2020-12-10 クロス成分適応ループフィルタリングのためのサンプルパディング

Country Status (8)

Country Link
US (2) US11539946B2 (ja)
EP (1) EP4070544A4 (ja)
JP (2) JP7393550B2 (ja)
KR (2) KR102619404B1 (ja)
CN (1) CN115104302A (ja)
BR (1) BR112022011466A2 (ja)
MX (1) MX2022006734A (ja)
WO (1) WO2021115362A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220394309A1 (en) * 2021-05-20 2022-12-08 Lemon Inc. On Padding Methods For Neural Network-Based In-Loop Filter
JP2024006995A (ja) * 2022-07-05 2024-01-18 シャープ株式会社 動画像復号装置および動画像符号化装置

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991236B2 (en) 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
MX353107B (es) 2010-04-09 2017-12-19 Mitsubishi Electric Corp Dispositivo codificador de imagen en movimiento y dispositivo decodificador de imagen en movimiento.
US9094658B2 (en) 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
US9462298B2 (en) * 2011-10-21 2016-10-04 Qualcomm Incorporated Loop filtering around slice boundaries or tile boundaries in video coding
US9247258B2 (en) 2011-10-26 2016-01-26 Qualcomm Incorporated Unified design for picture partitioning schemes
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
EP2941871A2 (en) 2013-01-07 2015-11-11 VID SCALE, Inc. Enhanced deblocking filters for video coding
US9578339B2 (en) 2013-03-05 2017-02-21 Qualcomm Incorporated Parallel processing for video coding
US9578328B2 (en) 2013-07-15 2017-02-21 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
KR102135997B1 (ko) 2013-09-27 2020-07-20 퀄컴 인코포레이티드 심도 인트라 예측 모드들에 대한 잔차 코딩
US9807406B2 (en) 2014-03-17 2017-10-31 Qualcomm Incorporated Picture flushing and decoded picture buffer parameter inference for multi-layer bitstreams
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
CN107079157B (zh) 2014-09-12 2020-12-22 Vid拓展公司 用于视频编码的分量间去相关
CN107079166A (zh) 2014-10-28 2017-08-18 联发科技(新加坡)私人有限公司 用于视频编码的引导交叉分量预测的方法
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
WO2016123792A1 (en) 2015-02-06 2016-08-11 Microsoft Technology Licensing, Llc Skipping evaluation stages during media encoding
US10057574B2 (en) 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
US20160241881A1 (en) 2015-02-13 2016-08-18 Mediatek Inc. Method and Apparatus of Loop Filters for Efficient Hardware Implementation
US10306246B2 (en) 2015-02-13 2019-05-28 Mediatek Inc. Method and apparatus of loop filters for efficient hardware implementation
WO2016204531A1 (ko) 2015-06-16 2016-12-22 엘지전자(주) 블록 경계에 따라 적응적으로 필터링을 수행하는 방법 및 장치
CN107750459B (zh) 2015-06-18 2020-09-15 Lg电子株式会社 图像编码系统中的基于图像特性的自适应滤波方法和装置
WO2017045101A1 (en) 2015-09-14 2017-03-23 Mediatek Singapore Pte. Ltd. Advanced deblocking filter in video coding
WO2017075804A1 (en) 2015-11-06 2017-05-11 Microsoft Technology Licensing, Llc Flexible reference picture management for video encoding and decoding
US11064195B2 (en) 2016-02-15 2021-07-13 Qualcomm Incorporated Merging filters for multiple classes of blocks for video coding
CN109076241B (zh) 2016-05-04 2023-06-23 微软技术许可有限责任公司 利用样本值的非相邻参考线进行帧内图片预测
KR20230051319A (ko) 2016-07-08 2023-04-17 브이아이디 스케일, 인크. 지오메트리 투영을 이용한 360도 비디오 코딩
US11095922B2 (en) 2016-08-02 2021-08-17 Qualcomm Incorporated Geometry transformation-based adaptive loop filtering
US20180054613A1 (en) 2016-08-22 2018-02-22 Mediatek Inc. Video encoding method and apparatus with in-loop filtering process not applied to reconstructed blocks located at image content discontinuity edge and associated video decoding method and apparatus
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US20180184127A1 (en) 2016-12-22 2018-06-28 Qualcomm Incorporated Determining neighboring samples for bilateral filtering in video coding
US10506230B2 (en) 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
KR20230079466A (ko) 2017-04-11 2023-06-07 브이아이디 스케일, 인크. 면 연속성을 사용하는 360 도 비디오 코딩
US10778974B2 (en) 2017-07-05 2020-09-15 Qualcomm Incorporated Adaptive loop filter with enhanced classification methods
US10728573B2 (en) 2017-09-08 2020-07-28 Qualcomm Incorporated Motion compensated boundary pixel padding
WO2019060443A1 (en) 2017-09-20 2019-03-28 Vid Scale, Inc. HANDLING FACIAL DISCONTINUITIES IN 360-DEGREE VIDEO CODING
US10965941B2 (en) 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
WO2019089864A1 (en) 2017-11-01 2019-05-09 Vid Scale, Inc. Overlapped block motion compensation
EP3704858A1 (en) 2017-11-01 2020-09-09 Vid Scale, Inc. Methods for simplifying adaptive loop filter in video coding
CN107801024B (zh) 2017-11-09 2019-07-12 北京大学深圳研究生院 一种用于帧内预测的边界滤波方法
US10721469B2 (en) 2017-11-28 2020-07-21 Qualcomm Incorporated Line buffer reduction for adaptive loop filtering in video coding
EP3729812A1 (en) 2017-12-19 2020-10-28 VID SCALE, Inc. Face discontinuity filtering for 360-degree video coding
US11259021B2 (en) 2017-12-29 2022-02-22 Sharp Kabushiki Kaisha Systems and methods for partitioning video blocks at a boundary of a picture for video coding
US10972729B2 (en) 2018-01-20 2021-04-06 Qualcomm Incorporated Deblocking filter selection and application in video coding
US20190238845A1 (en) 2018-01-26 2019-08-01 Qualcomm Incorporated Adaptive loop filtering on deblocking filter results in video coding
CN110337811A (zh) 2018-02-14 2019-10-15 北京大学 运动补偿的方法、装置和计算机系统
US20190306502A1 (en) 2018-04-02 2019-10-03 Qualcomm Incorporated System and method for improved adaptive loop filtering
US10708592B2 (en) 2018-04-02 2020-07-07 Qualcomm Incorporated Deblocking filter for video coding and processing
CN116347109A (zh) 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
CN117478883A (zh) 2018-09-12 2024-01-30 北京字节跳动网络技术有限公司 交叉分量线性模型中的尺寸相关的下采样
CN112703742B (zh) 2018-09-14 2023-03-31 华为技术有限公司 视频译码中的分块指示
TWI822863B (zh) 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
CN116939198A (zh) 2018-10-23 2023-10-24 北京字节跳动网络技术有限公司 并置的局部照明补偿和修改的帧间预测编解码
CN112997492B (zh) 2018-11-06 2024-02-20 北京字节跳动网络技术有限公司 帧内预测的简化参数推导
CN109600611B (zh) * 2018-11-09 2021-07-13 北京达佳互联信息技术有限公司 环路滤波方法、环路滤波装置、电子设备和可读介质
CN112997500B (zh) 2018-11-09 2023-04-18 北京字节跳动网络技术有限公司 对基于区域的自适应环路滤波器的改进
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
WO2020114445A1 (en) 2018-12-07 2020-06-11 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
CN113287311B (zh) 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式的指示
AU2020206246B2 (en) 2019-01-09 2024-01-04 Huawei Technologies Co., Ltd. Sub-picture layout signaling in video coding
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
US11089335B2 (en) 2019-01-14 2021-08-10 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
CN113439437B (zh) 2019-02-22 2023-11-24 北京字节跳动网络技术有限公司 用于帧内预测的邻近样点选择
KR102472756B1 (ko) 2019-02-24 2022-12-01 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측을 위한 파라미터 유도
EP3931746A4 (en) 2019-02-27 2022-05-11 Huawei Technologies Co., Ltd. CHANNEL ILLUSTRATION WITH COLOR SCALING ADJUSTMENT PARAMETERS IN VIDEO ENCODING
CN113545036B (zh) 2019-03-02 2023-11-28 北京字节跳动网络技术有限公司 对环路内滤波的限制
MX2021011016A (es) 2019-03-11 2021-11-12 Huawei Tech Co Ltd Un codificador, un decodificador y métodos correspondientes.
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
JP7234406B2 (ja) 2019-03-24 2023-03-07 北京字節跳動網絡技術有限公司 ビデオ処理における非線形適応ループフィルタリング
CN117880494A (zh) 2019-03-24 2024-04-12 北京字节跳动网络技术有限公司 用于帧内预测的参数推导的条件
JP7405865B2 (ja) 2019-04-15 2023-12-26 北京字節跳動網絡技術有限公司 非線形適応ループフィルタにおけるパラメータの時間的予測
WO2020211809A1 (en) 2019-04-16 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. On adaptive loop filtering for video coding
WO2020256467A1 (ko) 2019-06-19 2020-12-24 한국전자통신연구원 비디오 영상 부/복호화를 위한 가상 경계 시그널링 방법 및 장치
AU2020309130B2 (en) 2019-07-11 2023-06-08 Beijing Bytedance Network Technology Co., Ltd. Sample padding in adaptive loop filtering
JP7305873B2 (ja) 2019-08-23 2023-07-10 北京字節跳動網絡技術有限公司 ビデオ処理方法、ビデオ・データ処理装置、記憶媒体及び記憶方法
WO2021088835A1 (en) * 2019-11-04 2021-05-14 Beijing Bytedance Network Technology Co., Ltd. Cross-component adaptive loop filter
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
EP4085639A4 (en) 2020-01-24 2023-03-22 Huawei Technologies Co., Ltd. ENCODER, DECODER AND CORRESPONDING METHOD FOR ADAPTIVE LOOP FILTERING

Also Published As

Publication number Publication date
KR20240006699A (ko) 2024-01-15
US11539946B2 (en) 2022-12-27
US11979567B2 (en) 2024-05-07
KR102619404B1 (ko) 2023-12-28
BR112022011466A2 (pt) 2022-08-23
US20230164313A1 (en) 2023-05-25
JP7393550B2 (ja) 2023-12-06
EP4070544A4 (en) 2023-03-01
US20220312008A1 (en) 2022-09-29
WO2021115362A1 (en) 2021-06-17
MX2022006734A (es) 2022-06-09
CN115104302A (zh) 2022-09-23
JP2023506009A (ja) 2023-02-14
EP4070544A1 (en) 2022-10-12
KR20220107201A (ko) 2022-08-02

Similar Documents

Publication Publication Date Title
US20240098260A1 (en) Sample Determination For Adaptive Loop Filtering
WO2021004542A1 (en) Sample padding in adaptive loop filtering
CN113994671B (zh) 基于颜色格式处理视频单元边界和虚拟边界
US11671594B2 (en) Selective application of sample padding in adaptive loop filtering
US20240107014A1 (en) Handling Video Unit Boundaries And Virtual Boundaries
JP2024026154A (ja) クロス成分適応ループフィルタリングのためのサンプルパディング
US11683488B2 (en) Adaptive loop filtering between different video units
US11706462B2 (en) Padding process at unavailable sample locations in adaptive loop filtering
JP2024020420A (ja) 適応ループフィルタリングのための境界位置
US11700368B2 (en) Classification in adaptive loop filtering
WO2024002168A1 (en) Padding methods for adaptive loop filter in video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231218