JP2024501465A - Adaptive loop filter with fixed filter - Google Patents

Adaptive loop filter with fixed filter Download PDF

Info

Publication number
JP2024501465A
JP2024501465A JP2023535712A JP2023535712A JP2024501465A JP 2024501465 A JP2024501465 A JP 2024501465A JP 2023535712 A JP2023535712 A JP 2023535712A JP 2023535712 A JP2023535712 A JP 2023535712A JP 2024501465 A JP2024501465 A JP 2024501465A
Authority
JP
Japan
Prior art keywords
sample
filter
reconstructed
value
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023535712A
Other languages
Japanese (ja)
Other versions
JPWO2022140567A5 (en
Inventor
カルチェビチ、マルタ
フー、ナン
セレジン、バディム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/557,706 external-priority patent/US11778177B2/en
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2024501465A publication Critical patent/JP2024501465A/en
Publication of JPWO2022140567A5 publication Critical patent/JPWO2022140567A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Figure 2024501465000001

ビデオデコータは、再構築サンプルについての第1のクラスインデックスを決定し、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択し、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することによって、再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、再構築サンプルについての第2のクラスインデックスを決定し、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択し、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用し、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することによって、再構築サンプルに、第2の段階のALFを適用することと、再構築サンプルと、第1および第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行うように構成され得る。

Figure 2024501465000001

The video decoder determines a first class index for the reconstructed samples, selects a filter from the first set of filters based on the first class index, and determines a first intermediate sample value. applying a first stage adaptive loop filter (ALF) to the reconstructed sample by applying a filter from the first set of filters to the reconstructed sample; determine a class index, select a second filter from a second set of filters based on the second class index, and add a second filter to the reconstructed sample to determine a first sample modification value. applying a second stage ALF to the reconstructed sample by applying a filter and determining a second sample change value based on the first intermediate sample value; and determining a filtered reconstructed sample based on the first and second sample modification values.

Description

[0001] 本出願は、各々の内容全体が参照によって本明細書に組み込まれる、2021年12月21日に出願された米国特許出願第17/557,706号、2021年2月11日に出願された米国仮特許出願第63/148,538号、および2020年12月23日に出願された米国仮特許出願第63/130,275号に基づく優先権を主張する。2021年12月21日に出願された米国特許出願第17/557,706号は、2021年2月11日に出願された米国仮特許出願第63/148,538号、および2020年12月23日に出願された米国仮特許出願第63/130,275号に基づく利益を主張する。 [0001] This application is filed in U.S. Patent Application No. 17/557,706, filed December 21, 2021, filed February 11, 2021, each of which is incorporated herein by reference in its entirety. Claims priority to U.S. Provisional Patent Application No. 63/148,538, filed December 23, 2020, and U.S. Provisional Patent Application No. 63/130,275, filed December 23, 2020. U.S. Patent Application No. 17/557,706, filed on December 21, 2021, and U.S. Provisional Patent Application No. 63/148,538, filed on February 11, 2021, and December 23, 2020 claims the benefit of U.S. Provisional Patent Application Ser.

[0002] 本開示は、ビデオ符号化(video encoding)およびビデオ復号(video decoding)に関する。 [0002] The present disclosure relates to video encoding and video decoding.

[0003] デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲーミングデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4、Part10,アドバンストビデオコーディング(AVC)、ITU-T H.265/高効率ビデオコーディング(HEVC)によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法など、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。 [0003] Digital video capabilities include digital television, digital direct broadcast systems, wireless broadcast systems, personal digital assistants (PDAs), laptop or desktop computers, tablet computers, e-book readers, digital cameras, digital recording devices, and digital media. It can be incorporated into a wide range of devices, including players, video gaming devices, video game consoles, cellular or satellite radio telephones, so-called "smartphones," video teleconferencing devices, video streaming devices, and the like. Digital video devices include MPEG-2, MPEG-4, ITU-T H. 263, ITU-T H. H.264/MPEG-4, Part 10, Advanced Video Coding (AVC), ITU-T H.264/MPEG-4, Part 10, Advanced Video Coding (AVC), ITU-T H. Implement video coding techniques, such as those described in the standards defined by H.265/High Efficiency Video Coding (HEVC), and extensions of such standards. By implementing such video coding techniques, video devices may more efficiently transmit, receive, encode, decode, and/or store digital video information.

[0004] ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間(ピクチャ内)予測および/または時間(ピクチャ間)予測を含む。ブロックベースのビデオコーディングでは、ビデオスライス(たとえば、ビデオピクチャまたはビデオピクチャの一部分)が、コーディングツリーユニット(CTU)、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある、ビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測、または他の参照ピクチャ中の参照サンプルに対する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。 [0004] Video coding techniques include spatial (intra-picture) and/or temporal (inter-picture) prediction to reduce or eliminate redundancy inherent in video sequences. In block-based video coding, a video slice (e.g., a video picture or a portion of a video picture) is partitioned into video blocks, sometimes referred to as coding tree units (CTUs), coding units (CUs), and/or coding nodes. obtain. Video blocks in an intra-coded (I) slice of a picture are encoded using spatial prediction on reference samples in adjacent blocks in the same picture. Video blocks in an inter-coded (P or B) slice of a picture may use spatial prediction with respect to reference samples in adjacent blocks in the same picture, or temporal prediction with respect to reference samples in other reference pictures. A picture is sometimes called a frame, and a reference picture is sometimes called a reference frame.

[0005] 本開示の技法によれば、ビデオデコーダ(video decoder)は、2段階の適応ループフィルタリングを実行するように構成され得る。ALFの第1の段階については、ビデオデコーダは、フィルタリングされる再構築サンプル(reconstructed sample)についての、アクティビティ値(activity value)と、方向値(direction value)とを決定するように構成され得る。アクティビティ値は、一般に、フィルタリングされるサンプルの周囲のサンプルの近傍における、サンプル値の分散を示し得る。方向値は、一般に、サンプル値が、水平方向に増加しているか、垂直方向に増加しているか、45度方向に増加しているか、135度方向に増加しているか、それともまったく増加していないかなど、サンプル値が変化している方向(direction)を示し得る。アクティビティ値と、方向値とに基づいて、ビデオデコーダは、フィルタリングされるサンプルについてのクラスインデックス(class index)を決定し得る。クラスインデックスは、フィルタ(filter)の第1のセットからのフィルタと関連付けられ得、各フィルタは、形状(shape)と、係数値(coefficient value)のセットとによって、定義される。ビデオデコーダは、ビットストリーム内に含まれるシンタックス(syntax)に基づいて、フィルタの第1のセットと、どの分類器がどのフィルタに対応するかとを決定し得る。ビデオデコーダは、第1の中間サンプル値(first intermediate sample value)を決定するために、再構築サンプルに、フィルタを適用し得る。 [0005] According to the techniques of this disclosure, a video decoder may be configured to perform two-stage adaptive loop filtering. For the first stage of ALF, the video decoder may be configured to determine an activity value and a direction value for the reconstructed sample to be filtered. Activity values may generally indicate the distribution of sample values in a neighborhood of samples around the sample being filtered. Direction values generally determine whether the sample value is increasing horizontally, vertically, increasing 45 degrees, increasing 135 degrees, or not increasing at all. It may indicate the direction in which the sample value is changing, such as whether the sample value is changing or not. Based on the activity value and the direction value, the video decoder may determine a class index for the sample to be filtered. A class index may be associated with a filter from a first set of filters, each filter being defined by a shape and a set of coefficient values. A video decoder may determine a first set of filters and which classifiers correspond to which filters based on syntax contained within the bitstream. A video decoder may apply a filter to the reconstructed samples to determine a first intermediate sample value.

[0006] ALFの第2の段階については、ビデオデコーダは、再構築サンプルに、第2のフィルタ(second filter)を適用することによって、第1のサンプル変更値(first sample modification value)を決定し、第1の中間サンプル値に基づいて、第2のサンプル変更値(second sample modification value)を決定する。次いで、ビデオデコーダは、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプル(filtered reconstructed sample)を決定する。本明細書において説明されるように、再構築ブロック(reconstructed block)の再構築サンプルに、第1の段階のALFを適用し、再構築サンプルに、第2の段階のALF(second stage ALF)を適用することによって、本開示の技法は、ビデオデータ(video data)の局所的特徴を考慮することによって、1段階のALFによって行われ得るよりも良好に、復号ビデオデータ(decoded video data)の全体的品質を改善し得る。 [0006] For the second stage of ALF, the video decoder determines a first sample modification value by applying a second filter to the reconstructed samples. , determining a second sample modification value based on the first intermediate sample value. The video decoder then determines a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value. As described herein, a first stage ALF is applied to the reconstructed samples of the reconstructed block, and a second stage ALF is applied to the reconstructed samples. By applying the techniques of this disclosure, the techniques of this disclosure can better estimate the entire decoded video data by considering local features of the video data than can be done by a one-stage ALF. can improve the quality of the material.

[0007] 一例によれば、ビデオデータを復号する方法は、再構築ブロックの再構築サンプルに、第1の段階の(first stage)適応ループフィルタ(ALF:adaptive loop filter)を適用することと、ここにおいて、第1の段階のALFを適用することは、再構築サンプルについての第1のクラスインデックス(first class index)を決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを備え、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用することは、再構築サンプルについての第2のクラスインデックス(second class index)を決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを備え、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを含む。 [0007] According to one example, a method of decoding video data includes applying a first stage adaptive loop filter (ALF) to reconstructed samples of a reconstructed block; Here, applying the first stage ALF includes determining a first class index for the reconstructed samples and determining a first class index of the filter based on the first class index. selecting a filter from the set; and applying a filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; applying a second stage ALF, where applying the second stage ALF includes determining a second class index for the reconstructed sample; selecting a second filter from the second set of filters based on the index; and applying the second filter to the reconstructed sample to determine a first sample modification value; determining a second sample modification value based on the intermediate sample value of the reconstructed sample, the first sample modification value, and the second sample modification value; and determining a construction sample.

[0008] 一例によれば、ビデオデータを復号するためのデバイスは、ビデオデータを記憶するように構成されたメモリと、回路で実施され、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサ(processor)が、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行うように構成された、1つまたは複数のプロセッサとを含む。 [0008] According to one example, a device for decoding video data is implemented with a memory configured to store video data and a circuit, wherein the reconstructed samples of the reconstructed block are applying an adaptive loop filter (ALF); and in order to apply the first stage ALF, one or more processors determine a first class index for the reconstructed samples. selecting a filter from the first set of filters based on a first class index; and selecting a filter from the first set of filters on the reconstructed sample to determine a first intermediate sample value. and applying a second stage ALF to the reconstructed sample; or determining a second class index for the reconstructed sample; and selecting a second filter from the second set of filters based on the second class index; further comprising: applying a second filter to the reconstructed sample to determine a sample modification value of; and determining a second sample modification value based on the first intermediate sample value. one or more configured and configured to: determine a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value; processor.

[0009] 一例によれば、コンピュータ可読記憶媒体(computer-readable storage medium)は、1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築ブロックについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行わせる、命令を記憶する。 [0009] According to one example, a computer-readable storage medium is configured to store a reconstructed sample of a reconstructed block in one or more processors when executed by one or more processors. applying a first stage adaptive loop filter (ALF); determining a filter from a first set of filters based on a first class index; and applying a second stage ALF to the reconstructed sample; the one or more processors determining a second class index for the reconstructed sample and selecting a second filter from the second set of filters based on the second class index; applying a second filter to the reconstructed sample to determine a first sample modification value; and determining a second sample modification value based on the first intermediate sample value. further configured to store instructions for determining a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value.

[0010] 1つまたは複数の例の詳細が添付の図面および以下の説明に記載される。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになろう。 [0010] The details of one or more examples are set forth in the accompanying drawings and the description below. Other features, objects, and advantages will be apparent from the description, drawings, and claims.

[0011] 本開示の技法を実施し得る例示的なビデオ符号化および復号システムを示すブロック図。[0011] FIG. 1 is a block diagram illustrating an example video encoding and decoding system that may implement techniques of this disclosure. [0012] 本開示の技法に従って使用され得る、例示的な適応ループフィルタ形状を示す概念図。[0012] FIG. 2 is a conceptual diagram illustrating an example adaptive loop filter shape that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、例示的な適応ループフィルタ形状を示す概念図。FIG. 2 is a conceptual diagram illustrating an example adaptive loop filter shape that may be used in accordance with the techniques of this disclosure. [0013] 本開示の技法に従って使用され得る、4×4サブブロック適応ループフィルタ分類についての例示的なサブサンプリングされたラプラシアン値を示す概念図。[0013] FIG. 2 is a conceptual diagram illustrating example subsampled Laplacian values for 4×4 subblock adaptive loop filter classification that may be used in accordance with the techniques of this disclosure. [0014] 本開示の技法に従って使用され得る、ルーマサンプルについての例示的なラプラシアン値を示す概念図。[0014] FIG. 2 is a conceptual diagram illustrating example Laplacian values for luma samples that may be used in accordance with the techniques of this disclosure. [0015] 本開示の技法に従って使用され得る、適応ループフィルタクラスマージングの例を示す概念図。[0015] FIG. 2 is a conceptual diagram illustrating an example of adaptive loop filter class merging that may be used in accordance with the techniques of this disclosure. [0016] 本開示の技法に従って使用され得る、7×7ダイヤモンドフィルタ形状の例示的な幾何学的変換を示す概念図。[0016] FIG. 2 is a conceptual diagram illustrating an example geometric transformation of a 7x7 diamond filter shape that may be used in accordance with the techniques of this disclosure. [0017] 本開示の技法に従って使用され得る、ALFにおける対称サンプルパディングの例を示す図。[0017] FIG. 7 illustrates an example of symmetric sample padding in an ALF that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、ALFにおける対称サンプルパディングの例を示す図。FIG. 3 is a diagram illustrating an example of symmetric sample padding in an ALF that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、ALFにおける対称サンプルパディングの例を示す図。FIG. 3 is a diagram illustrating an example of symmetric sample padding in an ALF that may be used in accordance with the techniques of this disclosure. [0018] 本開示の技法に従って使用され得る、ALF 4×4サブブロック分類の例を示す図。[0018] FIG. 4 is a diagram illustrating an example of ALF 4x4 subblock classification that may be used in accordance with the techniques of this disclosure. [0019] 本開示の技法に従った、複数の固定されたフィルタセットと、複数のシグナリングされたフィルタセットとを使用して、ビデオデータの再構築サンプルをフィルタリングするための、例示的なフレームワークを示す図。[0019] An example framework for filtering reconstructed samples of video data using a plurality of fixed filter sets and a plurality of signaled filter sets in accordance with the techniques of this disclosure. Diagram showing. [0020] 本開示の技法に従って使用され得る、5×5フィルタの例を示す図。[0020] FIG. 4 illustrates an example of a 5×5 filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、7×7フィルタの例を示す図。FIG. 7 is a diagram illustrating an example of a 7×7 filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、9×9フィルタの例を示す図。FIG. 7 is a diagram illustrating an example of a 9×9 filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、11×11フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of an 11×11 filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、13×13フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of a 13×13 filter that may be used in accordance with the techniques of this disclosure. [0021] 本開示の技法に従った、1つのシグナリングされたフィルタ(signaled filter)を伴った、複数の固定されたフィルタ(fixed filter)を実施するための例を示す図。[0021] FIG. 4 illustrates an example for implementing multiple fixed filters with one signaled filter in accordance with the techniques of this disclosure. [0022] 本開示の技法に従って使用され得る、2部分フィルタの例を示す図。[0022] FIG. 4 illustrates an example of a two-part filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、2部分フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of a two-part filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、2部分フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of a two-part filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、2部分フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of a two-part filter that may be used in accordance with the techniques of this disclosure. 本開示の技法に従って使用され得る、2部分フィルタの例を示す図。FIG. 3 is a diagram illustrating an example of a two-part filter that may be used in accordance with the techniques of this disclosure. [0023] 本開示の技法に従った、例示的なALFフレームワークを示す概念図。[0023] FIG. 2 is a conceptual diagram illustrating an example ALF framework in accordance with the techniques of this disclosure. 本開示の技法に従った、例示的なALFフレームワークを示す概念図。1 is a conceptual diagram illustrating an example ALF framework in accordance with the techniques of this disclosure. [0024] 本開示の技法を実施し得る例示的なビデオエンコーダを示すブロック図。[0024] FIG. 2 is a block diagram illustrating an example video encoder that may implement the techniques of this disclosure. [0025] 本開示の技法を実施し得る例示的なビデオデコーダを示すブロック図。[0025] FIG. 2 is a block diagram illustrating an example video decoder that may implement techniques of this disclosure. [0026] 本開示の技法を実行するための例示的なフィルタユニットを示すブロック図。[0026] FIG. 2 is a block diagram illustrating an example filter unit for implementing the techniques of this disclosure. [0027] 本開示の技法に従った、現在ブロックを符号化するための例示的なプロセスを示すフローチャート。[0027] FIG. 7 is a flowchart illustrating an example process for encoding a current block in accordance with the techniques of this disclosure. [0028] 本開示の技法に従った、現在ブロックを復号するための例示的なプロセスを示すフローチャート。[0028] FIG. 7 is a flowchart illustrating an example process for decoding a current block in accordance with the techniques of this disclosure. [0029] 本開示の技法に従った、現在ブロックを復号するための例示的なプロセスを示すフローチャート。[0029] A flowchart illustrating an example process for decoding a current block in accordance with the techniques of this disclosure.

[0030] ビデオコーディング(たとえば、ビデオ符号化および/またはビデオ復号)は、一般に、同じピクチャ中のビデオデータのすでにコーディングされたブロックからビデオデータのブロックを予測すること(すなわち、イントラ予測)または異なるピクチャ中のビデオデータのすでにコーディングされたブロックからビデオデータのブロックを予測すること(すなわち、インター予測)のいずれかを伴う。いくつかの事例では、ビデオエンコーダはまた、予測的ブロックを元のブロックと比較することによって残差データ(residual data)を計算する。したがって、残差データは、予測的ブロックと元のブロックとの間の差分を表す。ビデオエンコーダは、残差データを変換および量子化し、変換および量子化された残差データを符号化ビットストリーム中でシグナリングする。ビデオデコーダは、予測的ブロック単独でよりもぴったり元のビデオブロックに一致する再構築ビデオブロックを生成するために、残差データを予測的ブロックに加算する。復号ビデオの品質をさらに改善するために、ビデオデコーダは、再構築ビデオブロックに対して1つまたは複数のフィルタ処理演算を実施することができる。これらのフィルタ処理演算の例は、デブロックフィルタ処理(deblock filtering)と、サンプル適応オフセット(SAO:sample adaptive offset)フィルタ処理と、適応ループフィルタ処理(ALF:adaptive loop filtering)とを含む。これらのフィルタ処理演算のためのパラメータは、ビデオエンコーダによって決定され、符号化ビデオビットストリーム中で明示的にシグナリングされるか、またはパラメータが符号化ビデオビットストリーム中で明示的にシグナリングされる必要なしにビデオデコーダによって暗黙的に決定されるかのいずれかであり得る。 [0030] Video coding (e.g., video encoding and/or video decoding) generally involves predicting blocks of video data from already coded blocks of video data in the same picture (i.e., intra prediction) or different It either involves predicting blocks of video data from already coded blocks of video data in a picture (i.e., inter prediction). In some cases, the video encoder also calculates residual data by comparing the predictive block to the original block. Therefore, the residual data represents the difference between the predictive block and the original block. A video encoder transforms and quantizes the residual data and signals the transformed and quantized residual data in the encoded bitstream. A video decoder adds residual data to the predictive block to generate a reconstructed video block that more closely matches the original video block than the predictive block alone. To further improve the quality of the decoded video, the video decoder may perform one or more filtering operations on the reconstructed video blocks. Examples of these filtering operations include deblock filtering, sample adaptive offset (SAO) filtering, and adaptive loop filtering (ALF). The parameters for these filtering operations are either determined by the video encoder and explicitly signaled in the encoded video bitstream, or the parameters do not need to be explicitly signaled in the encoded video bitstream. may be either implicitly determined by the video decoder.

[0031] 本開示は、ビデオ符号化および/またはビデオ復号プロセスにおける、再構築ビデオデータをフィルタリングすることと関連付けられた技法について説明し、より詳細には、本開示は、ALFに関連する技法について説明する。しかしながら、説明される技法は、潜在的に、他のフィルタリングスキームにも適用され得る。 [0031] This disclosure describes techniques associated with filtering reconstructed video data in a video encoding and/or video decoding process, and more particularly, this disclosure describes techniques associated with ALF. explain. However, the techniques described can potentially be applied to other filtering schemes as well.

[0032] 本開示の技法によれば、ビデオデコーダは、2段階の適応ループフィルタリングを実行するように構成され得る。ALFの第1の段階については、ビデオデコーダは、フィルタリングされる再構築サンプルについての、アクティビティ値と、方向値とを決定するように構成され得る。アクティビティ値は、一般に、フィルタリングされるサンプルの周囲のサンプルの近傍における、サンプル値の分散を示し得る。方向値は、一般に、サンプル値が、水平方向に増加しているか、垂直方向に増加しているか、45度方向に増加しているか、135度方向に増加しているか、それともまったく増加していないかなど、サンプル値が変化している方向を示し得る。アクティビティ値と、方向値とに基づいて、ビデオデコーダは、フィルタリングされるサンプルについてのクラスインデックスを決定し得る。クラスインデックスは、フィルタの第1のセットからのフィルタと関連付けられ得、各フィルタは、形状と、係数値のセットとによって、定義される。ビデオデコーダは、ビットストリーム内に含まれるシンタックスに基づいて、フィルタの第1のセットと、どの分類器がどのフィルタに対応するかとを決定し得る。ビデオデコーダは、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタを適用し得る。 [0032] According to the techniques of this disclosure, a video decoder may be configured to perform two-stage adaptive loop filtering. For the first stage of ALF, the video decoder may be configured to determine activity values and direction values for the reconstructed samples to be filtered. Activity values may generally indicate the distribution of sample values in a neighborhood of samples around the sample being filtered. Direction values generally determine whether the sample value is increasing horizontally, vertically, increasing 45 degrees, increasing 135 degrees, or not increasing at all. It can indicate the direction in which the sample value is changing, such as whether the sample value is changing or not. Based on the activity value and the direction value, the video decoder may determine a class index for the sample to be filtered. The class index may be associated with filters from a first set of filters, each filter being defined by a shape and a set of coefficient values. The video decoder may determine the first set of filters and which classifier corresponds to which filter based on syntax contained within the bitstream. A video decoder may apply a filter to the reconstructed samples to determine a first intermediate sample value.

[0033] ALFの第2の段階については、ビデオデコーダは、再構築サンプルに、第2のフィルタを適用することによって、第1のサンプル変更値を決定し、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定する。次いで、ビデオデコーダは、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定する。本明細書において説明されるように、再構築ブロックの再構築サンプルに、第1の段階のALFを適用し、再構築サンプルに、第2の段階のALFを適用することによって、本開示の技法は、ビデオデータの局所的特徴を考慮することによって、1段階のALFによって行われ得るよりも良好に、復号ビデオデータの全体的品質を改善し得る。 [0033] For the second stage of ALF, the video decoder determines a first sample modification value by applying a second filter to the reconstructed samples, and determines a first sample modification value based on the first intermediate sample value. , determining a second sample modification value. The video decoder then determines filtered reconstructed samples based on the reconstructed samples, the first sample modification value, and the second sample modification value. By applying the first stage ALF to the reconstructed samples of the reconstructed block and the second stage ALF to the reconstructed samples, as described herein, the techniques of the present disclosure may improve the overall quality of decoded video data better than can be done by a one-stage ALF by considering local features of the video data.

[0034] 図1は、本開示の技法を実施し得る例示的なビデオ符号化および復号システム100を示すブロック図である。本開示の技法は、概して、ビデオデータをコーディング(符号化および/または復号)することを対象とする。概して、ビデオデータは、ビデオを処理するための何らかのデータを含む。したがって、ビデオデータは、生の符号化されていないビデオ、符号化されたビデオ、復号された(たとえば、再構築された)ビデオ、およびシグナリングデータなどのビデオメタデータを含み得る。 [0034] FIG. 1 is a block diagram illustrating an example video encoding and decoding system 100 that may implement the techniques of this disclosure. The techniques of this disclosure are generally directed to coding (encoding and/or decoding) video data. Generally, video data includes some data for processing the video. Accordingly, video data may include raw unencoded video, encoded video, decoded (eg, reconstructed) video, and video metadata such as signaling data.

[0035] 図1に示されているように、システム100は、この例では、宛先デバイス116によって復号および表示されるべき符号化ビデオデータ(encoded video data)を提供するソースデバイス102を含む。特に、ソースデバイス102は、コンピュータ可読媒体110を介して宛先デバイス116にビデオデータを提供する。ソースデバイス102と宛先デバイス116とは、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、モバイルデバイス、タブレットコンピュータ、セットトップボックス、スマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス、ブロードキャスト受信機デバイスなどを含む、広範囲のデバイスのいずれかを備え得る。いくつかの場合には、ソースデバイス102と宛先デバイス116とは、ワイヤレス通信のために装備され得、したがって、ワイヤレス通信デバイスと呼ばれることがある。 [0035] As shown in FIG. 1, system 100 includes, in this example, a source device 102 that provides encoded video data to be decoded and displayed by a destination device 116. In particular, source device 102 provides video data to destination device 116 via computer-readable medium 110. Source device 102 and destination device 116 may include desktop computers, notebook (i.e., laptop) computers, mobile devices, tablet computers, set-top boxes, telephone handsets such as smartphones, televisions, cameras, display devices, digital media players, etc. , video gaming consoles, video streaming devices, broadcast receiver devices, and the like. In some cases, source device 102 and destination device 116 may be equipped for wireless communication and may therefore be referred to as wireless communication devices.

[0036] 図1の例では、ソースデバイス102は、ビデオソース104と、メモリ106と、ビデオエンコーダ200と、出力インターフェース108とを含む。宛先デバイス116は、入力インターフェース122と、ビデオデコーダ300と、メモリ120と、ディスプレイデバイス118とを含む。本開示によれば、ソースデバイス102のビデオエンコーダ200と、宛先デバイス116のビデオデコーダ300は、本明細書において説明される方式で、第1および第2の段階を使用する適応ループフィルタリングのための技法を適用するように構成され得る。したがって、ソースデバイス102はビデオ符号化デバイス(video encoding device)の一例を表し、宛先デバイス116はビデオ復号デバイスの一例を表す。他の例では、ソースデバイスと宛先デバイスとは、他の構成要素または配置を含み得る。たとえば、ソースデバイス102は、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイス116は、一体型ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。 [0036] In the example of FIG. 1, source device 102 includes a video source 104, a memory 106, a video encoder 200, and an output interface 108. Destination device 116 includes an input interface 122, a video decoder 300, memory 120, and display device 118. According to this disclosure, a video encoder 200 of source device 102 and a video decoder 300 of destination device 116 are configured for adaptive loop filtering using first and second stages in a manner described herein. may be configured to apply techniques. Accordingly, source device 102 represents an example of a video encoding device, and destination device 116 represents an example of a video decoding device. In other examples, the source device and destination device may include other components or arrangements. For example, source device 102 may receive video data from an external video source, such as an external camera. Similarly, destination device 116 may interface with an external display device rather than including an integrated display device.

[0037] 図1に示されているシステム100は一例にすぎない。一般に、いずれのデジタルビデオ符号化および/または復号デバイスも、本明細書において説明される適応ループフィルタリングのための技法を実行し得る。ソースデバイス102と宛先デバイス116とは、ソースデバイス102が宛先デバイス116への送信のためにコード化ビデオデータを生成するようなコーディングデバイスの例にすぎない。本開示では、データのコーディング(符号化および/または復号)を実施するデバイスとして「コーディング」デバイスに言及する。したがって、ビデオエンコーダ200とビデオデコーダ300とは、コーディングデバイス、特に、それぞれビデオエンコーダとビデオデコーダとの例を表す。いくつかの例では、ソースデバイス102および宛先デバイス116は、ソースデバイス102および宛先デバイス116の各々がビデオ符号化構成要素およびビデオ復号構成要素を含むように、実質的に対称的に動作し得る。したがって、システム100は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオテレフォニーのための、ソースデバイス102と宛先デバイス116との間の一方向または双方向ビデオ送信をサポートし得る。 [0037] The system 100 shown in FIG. 1 is only one example. Generally, any digital video encoding and/or decoding device may implement the techniques for adaptive loop filtering described herein. Source device 102 and destination device 116 are only examples of coding devices such that source device 102 generates coded video data for transmission to destination device 116. This disclosure refers to a "coding" device as a device that performs coding (encoding and/or decoding) of data. Accordingly, video encoder 200 and video decoder 300 represent examples of coding devices, particularly video encoders and video decoders, respectively. In some examples, source device 102 and destination device 116 may operate substantially symmetrically, such that each of source device 102 and destination device 116 includes a video encoding component and a video decoding component. Thus, system 100 may support one-way or two-way video transmission between source device 102 and destination device 116, for example, for video streaming, video playback, video broadcasting, or video telephony.

[0038] 概して、ビデオソース104は、ビデオデータ(すなわち、生の符号化されていないビデオデータ)のソースを表し、ビデオデータの連続的な一連のピクチャ(「フレーム」とも呼ばれる)をビデオエンコーダ200に提供し、ビデオエンコーダ200は、ピクチャのためにデータを符号化する。ソースデバイス102のビデオソース104は、ビデオカメラ、前にキャプチャされた生のビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースなど、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース104は、ソースビデオとして、コンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成されたビデオとの組合せを生成し得る。各場合において、ビデオエンコーダ200は、キャプチャされたビデオデータ、プリキャプチャされたビデオデータ、またはコンピュータ生成されたビデオデータを符号化する。ビデオエンコーダ200は、ピクチャを、(「表示順序」と呼ばれることがある)受信順序から、コーディングのためのコーディング順序に並べ替え得る。ビデオエンコーダ200は、符号化ビデオデータを含むビットストリームを生成し得る。ソースデバイス102は、次いで、たとえば、宛先デバイス116の入力インターフェース122による受信および/または取出しのために、出力インターフェース108を介して符号化ビデオデータをコンピュータ可読媒体110上に出力し得る。 [0038] In general, video source 104 represents a source of video data (i.e., raw, unencoded video data) that transmits a continuous series of pictures (also referred to as "frames") of video data to video encoder 200. A video encoder 200 encodes data for a picture. Video source 104 of source device 102 includes a video capture device, such as a video camera, a video archive containing previously captured raw video, and/or a video feed interface for receiving video from a video content provider. obtain. As a further alternative, video source 104 may produce computer graphics-based data or a combination of live, archived, and computer-generated video as the source video. In each case, video encoder 200 encodes captured, pre-captured, or computer-generated video data. Video encoder 200 may reorder pictures from a reception order (sometimes referred to as a "display order") to a coding order for coding. Video encoder 200 may generate a bitstream that includes encoded video data. Source device 102 may then output the encoded video data onto computer-readable medium 110 via output interface 108, for example, for reception and/or retrieval by input interface 122 of destination device 116.

[0039] ソースデバイス102のメモリ106と、宛先デバイス116のメモリ120とは、汎用メモリを表す。いくつかの例では、メモリ106、120は、生のビデオデータ、たとえば、ビデオソース104からの生のビデオ、およびビデオデコーダ300からの生の復号ビデオデータを記憶し得る。追加または代替として、メモリ106、120は、たとえば、それぞれ、ビデオエンコーダ200とビデオデコーダ300とによって実行可能なソフトウェア命令を記憶し得る。メモリ106およびメモリ120は、この例ではビデオエンコーダ200およびビデオデコーダ300とは別個に示されているが、ビデオエンコーダ200およびビデオデコーダ300は、機能的に同様のまたは等価な目的で内部メモリをも含み得ることを理解されたい。さらに、メモリ106、120は、符号化ビデオデータ、たとえば、ビデオエンコーダ200からの出力、およびビデオデコーダ300への入力を記憶し得る。いくつかの例では、メモリ106、120の部分は、たとえば、生の復号および/または符号化ビデオデータを記憶するために、1つまたは複数のビデオバッファとして割り振られ得る。 [0039] Memory 106 of source device 102 and memory 120 of destination device 116 represent general purpose memory. In some examples, memories 106, 120 may store raw video data, eg, raw video from video source 104 and raw decoded video data from video decoder 300. Additionally or alternatively, memories 106, 120 may store software instructions executable by video encoder 200 and video decoder 300, respectively, for example. Although memory 106 and memory 120 are shown separately from video encoder 200 and video decoder 300 in this example, video encoder 200 and video decoder 300 may also have internal memory for functionally similar or equivalent purposes. It should be understood that this may include Additionally, memories 106, 120 may store encoded video data, eg, output from video encoder 200 and input to video decoder 300. In some examples, portions of memory 106, 120 may be allocated as one or more video buffers, eg, to store raw decoded and/or encoded video data.

[0040] コンピュータ可読媒体110は、ソースデバイス102から宛先デバイス116に符号化ビデオデータを移送することが可能な任意のタイプの媒体またはデバイスを表し得る。一例では、コンピュータ可読媒体110は、ソースデバイス102が、たとえば、無線周波数ネットワークまたはコンピュータベースのネットワークを介して、符号化ビデオデータを宛先デバイス116にリアルタイムで直接送信することを可能にするための通信媒体を表す。ワイヤレス通信プロトコルなどの通信規格に従って、出力インターフェース108は、符号化ビデオデータを含む送信信号を変調し得、入力インターフェース122は、受信された送信信号を復調し得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス102から宛先デバイス116への通信を容易にするために有用であり得る任意の他の機器を含み得る。 [0040] Computer-readable medium 110 may represent any type of medium or device that is capable of transporting encoded video data from source device 102 to destination device 116. In one example, computer-readable medium 110 communicates to enable source device 102 to transmit encoded video data directly to destination device 116 in real time, e.g., over a radio frequency network or a computer-based network. Represents a medium. In accordance with a communication standard, such as a wireless communication protocol, output interface 108 may modulate a transmitted signal containing encoded video data, and input interface 122 may demodulate a received transmitted signal. A communication medium may comprise any wireless or wired communication medium, such as the radio frequency (RF) spectrum or one or more physical transmission lines. The communication medium may form part of a packet-based network, such as a local area network, wide area network, or global network such as the Internet. Communication media may include routers, switches, base stations, or any other equipment that may be useful for facilitating communication from source device 102 to destination device 116.

[0041] いくつかの例では、ソースデバイス102は、出力インターフェース108から記憶デバイス112に符号化データを出力し得る。同様に、宛先デバイス116は、入力インターフェース122を介して記憶デバイス112から符号化データにアクセスし得る。記憶デバイス112は、ハードドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。 [0041] In some examples, source device 102 may output encoded data from output interface 108 to storage device 112. Similarly, destination device 116 may access encoded data from storage device 112 via input interface 122. Storage device 112 can be a hard drive, Blu-ray disc, DVD, CD-ROM, flash memory, volatile or non-volatile memory, or any other suitable digital device for storing encoded video data. may include any of a variety of distributed or locally accessed data storage media, such as storage media.

[0042] いくつかの例では、ソースデバイス102は、ソースデバイス102によって生成された符号化ビデオデータを記憶し得るファイルサーバ114または別の中間記憶デバイスに符号化ビデオデータを出力し得る。宛先デバイス116は、ストリーミングまたはダウンロードを介して、ファイルサーバ114から、記憶されたビデオデータにアクセスし得る。 [0042] In some examples, source device 102 may output encoded video data to file server 114 or another intermediate storage device that may store encoded video data generated by source device 102. Destination device 116 may access stored video data from file server 114 via streaming or downloading.

[0043] ファイルサーバ114は、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス116に送信することが可能な任意のタイプのサーバデバイスであり得る。ファイルサーバ114は、(たとえば、ウェブサイトのための)ウェブサーバ、(ファイル転送プロトコル(FTP)または単方向トランスポート上ファイル配信(FLUTE:File Delivery over Unidirectional Transport)プロトコルなどの)ファイル転送プロトコルサービスを提供するように構成されたサーバ、コンテンツ配信ネットワーク(CDN)デバイス、ハイパーテキスト転送プロトコル(HTTP)サーバ、マルチメディアブロードキャストマルチキャストサービス(MBMS)または拡張MBMS(eMBMS)サーバ、および/あるいはネットワーク接続ストレージ(NAS)デバイスを表し得る。ファイルサーバ114は、追加または代替として、動的適応ストリーミングオーバーHTTP(DASH)、HTTPライブストリーミング(HLS)、リアルタイムストリーミングプロトコル(RTSP)、HTTP動的ストリーミングなど、1つまたは複数のHTTPストリーミングプロトコルを実装し得る。 [0043] File server 114 may be any type of server device capable of storing encoded video data and transmitting the encoded video data to destination device 116. File server 114 may be a web server (e.g., for a website), a file transfer protocol service (such as File Transfer Protocol (FTP) or File Delivery over Unidirectional Transport (FLUTE) protocol). a server configured to provide content delivery network (CDN) devices, hypertext transfer protocol (HTTP) servers, multimedia broadcast multicast services (MBMS) or enhanced MBMS (eMBMS) servers, and/or network attached storage (NAS); ) may represent a device. File server 114 may additionally or alternatively implement one or more HTTP streaming protocols, such as Dynamic Adaptive Streaming over HTTP (DASH), HTTP Live Streaming (HLS), Real Time Streaming Protocol (RTSP), HTTP Dynamic Streaming, etc. It is possible.

[0044] 宛先デバイス116は、インターネット接続を含む任意の標準的なデータ接続を通してファイルサーバ114から符号化ビデオデータにアクセスし得る。これは、ファイルサーバ114に記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi-Fi(登録商標)接続)、ワイヤード接続(たとえば、デジタル加入者回線(DSL)、ケーブルモデムなど)、またはその両方の組合せを含み得る。入力インターフェース122は、ファイルサーバ114からメディアデータを取り出すまたは受信するための上記で説明された様々なプロトコル、あるいはメディアデータを取り出すための他のそのようなプロトコルのうちのいずれか1つまたは複数に従って動作するように構成され得る。 [0044] Destination device 116 may access encoded video data from file server 114 through any standard data connection, including an Internet connection. This includes wireless channels (e.g., Wi-Fi connections), wired connections (e.g., digital subscriber line (DSL), (such as a cable modem), or a combination of both. Input interface 122 may be configured in accordance with any one or more of the various protocols described above for retrieving or receiving media data from file server 114 or other such protocols for retrieving media data. may be configured to operate.

[0045] 出力インターフェース108と入力インターフェース122とは、ワイヤレス送信機/受信機、モデム、ワイヤードネットワーキング構成要素(たとえば、イーサネット(登録商標)カード)、様々なIEEE802.11規格のいずれかに従って動作するワイヤレス通信構成要素、または他の物理的構成要素を表し得る。出力インターフェース108と入力インターフェース122とがワイヤレス構成要素を備える例では、出力インターフェース108と入力インターフェース122とは、4G、4G-LTE(登録商標)(ロングタームエボリューション)、LTEアドバンスト、5Gなど、セルラー通信規格に従って、符号化ビデオデータなどのデータを転送するように構成され得る。出力インターフェース108がワイヤレス送信機を備えるいくつかの例では、出力インターフェース108と入力インターフェース122とは、IEEE802.11仕様、IEEE802.15仕様(たとえば、ZigBee(登録商標))、Bluetooth(登録商標)規格など、他のワイヤレス規格に従って、符号化ビデオデータなどのデータを転送するように構成され得る。いくつかの例では、ソースデバイス102および/または宛先デバイス116は、それぞれのシステムオンチップ(SoC)デバイスを含み得る。たとえば、ソースデバイス102は、ビデオエンコーダ200および/または出力インターフェース108に帰属する機能を実施するためのSoCデバイスを含み得、宛先デバイス116は、ビデオデコーダ300および/または入力インターフェース122に帰属する機能を実施するためのSoCデバイスを含み得る。 [0045] Output interface 108 and input interface 122 are wireless transmitters/receivers, modems, wired networking components (e.g., Ethernet cards), wireless devices that operate in accordance with any of the various IEEE 802.11 standards. May represent a communications component or other physical component. In examples where the output interface 108 and the input interface 122 include wireless components, the output interface 108 and the input interface 122 may be connected to cellular communications, such as 4G, 4G-LTE (Long Term Evolution), LTE Advanced, 5G, etc. It may be configured to transfer data, such as encoded video data, in accordance with a standard. In some examples, the output interface 108 comprises a wireless transmitter, the output interface 108 and the input interface 122 are compatible with the IEEE 802.11 specification, the IEEE 802.15 specification (e.g., ZigBee®), the Bluetooth® standard. may be configured to transfer data, such as encoded video data, in accordance with other wireless standards, such as, for example. In some examples, source device 102 and/or destination device 116 may include respective system-on-chip (SoC) devices. For example, source device 102 may include an SoC device for implementing functionality attributable to video encoder 200 and/or output interface 108, and destination device 116 may include an SoC device for implementing functionality attributable to video decoder 300 and/or input interface 122. may include an SoC device for implementing the implementation.

[0046] 本開示の技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。 [0046] The techniques of this disclosure can be applied to over-the-air television broadcasts, cable television transmissions, satellite television transmissions, Internet streaming video transmissions such as Dynamic Adaptive Streaming over HTTP (DASH), encoded onto a data storage medium, etc. The present invention may be applied to video coding to support any of a variety of multimedia applications, such as digital video stored on a data storage medium, decoding of digital video stored on a data storage medium, or other applications.

[0047] 宛先デバイス116の入力インターフェース122は、コンピュータ可読媒体110(たとえば、通信媒体、記憶デバイス112、ファイルサーバ114など)から符号化ビデオビットストリームを受信する。符号化ビデオビットストリームは、ビデオブロックまたは他のコード化ユニット(たとえば、スライス、ピクチャ、ピクチャのグループ、シーケンスなど)の特性および/または処理を記述する値を有するシンタックス要素など、ビデオデコーダ300によっても使用される、ビデオエンコーダ200によって定義されるシグナリング情報を含み得る。ディスプレイデバイス118は、復号ビデオデータの復号ピクチャ(decoded picture)をユーザに表示する。ディスプレイデバイス118は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを表し得る。 [0047] Input interface 122 of destination device 116 receives an encoded video bitstream from computer-readable medium 110 (eg, a communication medium, storage device 112, file server 114, etc.). The encoded video bitstream is encoded by video decoder 300, such as syntax elements having values that describe the characteristics and/or processing of video blocks or other coded units (e.g., slices, pictures, groups of pictures, sequences, etc.). may also include signaling information defined by video encoder 200 that is also used. Display device 118 displays a decoded picture of the decoded video data to the user. Display device 118 may represent any of a variety of display devices, such as a liquid crystal display (LCD), a plasma display, an organic light emitting diode (OLED) display, or another type of display device.

[0048] 図1には示されていないが、いくつかの例では、ビデオエンコーダ200とビデオデコーダ300とは各々、オーディオエンコーダおよび/またはオーディオデコーダと統合され得、共通のデータストリーム中にオーディオとビデオの両方を含む多重化ストリームをハンドリングするために、適切なMUX-DEMUXユニット、あるいは他のハードウェアおよび/またはソフトウェアを含み得る。適用可能な場合、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。 [0048] Although not shown in FIG. 1, in some examples, video encoder 200 and video decoder 300 may each be integrated with an audio encoder and/or audio decoder to output audio in a common data stream. A suitable MUX-DEMUX unit or other hardware and/or software may be included to handle multiplexed streams containing both video and video. Where applicable, the MUX-DEMUX unit shall comply with the ITU H. 223 multiplexer protocol, or other protocols such as User Datagram Protocol (UDP).

[0049] ビデオエンコーダ200とビデオデコーダ300とは各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダおよび/またはデコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、本開示の技法を実施するために1つまたは複数のプロセッサを使用してその命令をハードウェアで実行し得る。ビデオエンコーダ200とビデオデコーダ300との各々は、1つまたは複数のエンコーダまたはデコーダに含まれ得、それらのいずれかが、それぞれのデバイス中の複合エンコーダ/デコーダ(CODEC)の一部として統合され得る。ビデオエンコーダ200および/またはビデオデコーダ300を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話機などのワイヤレス通信デバイスを備え得る。 [0049] Video encoder 200 and video decoder 300 each include one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), discrete logic, software , hardware, firmware, etc., or any combination thereof. When the present techniques are partially implemented in software, the device stores instructions for the software on a suitable non-transitory computer-readable medium and executes one or more processors to implement the techniques of the present disclosure. can be used to execute the instructions in hardware. Each of video encoder 200 and video decoder 300 may be included in one or more encoders or decoders, either of which may be integrated as part of a combined encoder/decoder (CODEC) in the respective device. . Devices including video encoder 200 and/or video decoder 300 may include integrated circuits, microprocessors, and/or wireless communication devices such as cellular telephones.

[0050] ビデオエンコーダ200とビデオデコーダ300とは、高効率ビデオコーディング(HEVC)とも呼ばれるITU-T H.265、あるいはマルチビューおよび/またはスケーラブルビデオコーディング拡張などのそれらの拡張など、ビデオコーディング規格に従って動作し得る。代替的に、ビデオエンコーダ200とビデオデコーダ300とは、汎用ビデオコーディング(VVC)とも呼ばれるITU-T H.266など、他のプロプライエタリまたは業界規格に従って動作し得る。VVC規格のドラフトは、Brossら、「Versatile Video Coding (Draft 10)」、ITU-T SG16 WP3およびISO/IEC JTC 1/SC29/WG11のジョイントビデオエキスパートチーム(JVET)、第18回会合、テレビ会議による、2020年6月22日~7月1日、JVET-S2001-v17(以下本明細書においては、「VVCドラフト10」)において説明されている。しかしながら、本開示の技法は、いずれか特定のコーディング規格に限定されず、さらに、本明細書において説明される技法は、VVCの後継規格と併せて使用され得ることが、明示的に企図されている。 [0050] Video encoder 200 and video decoder 300 are based on ITU-T H.V., also called High Efficiency Video Coding (HEVC). The video coding standard may operate in accordance with a video coding standard, such as H.265 or extensions thereof, such as multi-view and/or scalable video coding extensions. Alternatively, video encoder 200 and video decoder 300 may be configured using ITU-T H.280, also referred to as Versatile Video Coding (VVC). It may operate according to other proprietary or industry standards, such as H.266. The draft VVC standard was published by Bross et al., “Versatile Video Coding (Draft 10),” ITU-T SG16 WP3 and ISO/IEC JTC 1/SC29/WG11 Joint Video Expert Team (JVET), 18th Meeting, Video Conference. , June 22, 2020 to July 1, 2020, JVET-S2001-v17 (hereinafter referred to as "VVC Draft 10"). However, the techniques of this disclosure are not limited to any particular coding standard, and further, it is expressly contemplated that the techniques described herein may be used in conjunction with successor standards to VVC. There is.

[0051] 概して、ビデオエンコーダ200とビデオデコーダ300とは、ピクチャのブロックベースのコーディングを実施し得る。「ブロック」という用語は、概して、処理されるべき(たとえば、符号化されるべき、復号されるべき、あるいは符号化および/または復号プロセスにおいて他の方法で使用されるべき)データを含む構造を指す。たとえば、ブロックは、ルミナンスおよび/またはクロミナンスデータのサンプルの2次元行列を含み得る。概して、ビデオエンコーダ200とビデオデコーダ300とは、YUV(たとえば、Y、Cb、Cr)フォーマットで表されるビデオデータをコーディングし得る。すなわち、ピクチャのサンプルのために赤色、緑色、および青色(RGB)データをコーディングするのではなく、ビデオエンコーダ200とビデオデコーダ300とは、ルミナンス成分とクロミナンス成分とをコーディングし得、ここで、クロミナンス成分は、赤色相と青色相の両方のクロミナンス成分を含み得る。いくつかの例では、ビデオエンコーダ200は、符号化より前に、受信されたRGBフォーマットのデータをYUV表現にコンバートし、ビデオデコーダ300は、YUV表現をRGBフォーマットにコンバートする。代替的に、前処理および後処理ユニット(図示せず)が、これらのコンバージョンを実施し得る。 [0051] Generally, video encoder 200 and video decoder 300 may perform block-based coding of pictures. The term "block" generally refers to a structure containing data to be processed (e.g., to be encoded, decoded, or otherwise used in an encoding and/or decoding process). Point. For example, a block may include a two-dimensional matrix of samples of luminance and/or chrominance data. Generally, video encoder 200 and video decoder 300 may code video data represented in YUV (eg, Y, Cb, Cr) format. That is, rather than coding red, green, and blue (RGB) data for samples of a picture, video encoder 200 and video decoder 300 may code luminance and chrominance components, where chrominance The components may include both red and blue hue chrominance components. In some examples, video encoder 200 converts received RGB formatted data to a YUV representation prior to encoding, and video decoder 300 converts the YUV representation to RGB format. Alternatively, pre- and post-processing units (not shown) may perform these conversions.

[0052] 本開示は、概して、ピクチャのデータを符号化または復号するプロセスを含むように、ピクチャのコーディング(たとえば、符号化および復号)に言及することがある。同様に、本開示は、ブロックについてのデータを符号化または復号するプロセス、たとえば、予測および/または残差コーディングを含むように、ピクチャのブロックのコーディングに言及することがある。符号化ビデオビットストリームは、概して、コーディング決定(たとえば、コーディングモード)とブロックへのピクチャの区分とを表すシンタックス要素についての一連の値を含む。したがって、ピクチャまたはブロックをコーディングすることへの言及は、概して、ピクチャまたはブロックを形成するシンタックス要素についての値をコーディングすることとして理解されるべきである。 [0052] This disclosure may generally refer to coding (eg, encoding and decoding) pictures to include the process of encoding or decoding data for a picture. Similarly, this disclosure may refer to coding blocks of pictures to include processes of encoding or decoding data for the blocks, such as predictive and/or residual coding. An encoded video bitstream generally includes a series of values for syntax elements that represent coding decisions (eg, coding modes) and partitioning of pictures into blocks. Accordingly, references to coding a picture or block should generally be understood as coding values for the syntax elements forming the picture or block.

[0053] HEVCは、コーディングユニット(CU)、予測ユニット(PU)、および変換ユニット(TU)を含む、様々なブロックを定義する。HEVCに従って、(ビデオエンコーダ200などの)ビデオコーダは、クワッドツリー構造に従ってコーディングツリーユニット(CTU)をCUに区分する。すなわち、ビデオコーダは、CTUとCUとを4つの等しい重複しない正方形に区分し、クワッドツリーの各ノードは、0個または4つのいずれかの子ノードを有する。子ノードのないノードは、「リーフノード」と呼ばれることがあり、そのようなリーフノードのCUは、1つまたは複数のPUおよび/または1つまたは複数のTUを含み得る。ビデオコーダは、PUとTUとをさらに区分し得る。たとえば、HEVCでは、残差クワッドツリー(RQT)は、TUの区分を表す。HEVCでは、PUはインター予測データを表すが、TUは残差データを表す。イントラ予測されるCUは、イントラモード指示などのイントラ予測情報を含む。 [0053] HEVC defines various blocks, including coding units (CUs), prediction units (PUs), and transform units (TUs). According to HEVC, a video coder (such as video encoder 200) partitions coding tree units (CTUs) into CUs according to a quadtree structure. That is, the video coder partitions the CTU and CU into four equal non-overlapping squares, where each node of the quadtree has either zero or four child nodes. A node without child nodes may be referred to as a "leaf node," and the CU of such a leaf node may include one or more PUs and/or one or more TUs. A video coder may further differentiate between PUs and TUs. For example, in HEVC, a residual quadtree (RQT) represents a partition of a TU. In HEVC, PU represents inter-prediction data, while TU represents residual data. A CU that is intra-predicted includes intra-prediction information such as an intra-mode indication.

[0054] 別の例として、ビデオエンコーダ200とビデオデコーダ300とは、VVCに従って動作するように構成され得る。VVCに従って、(ビデオエンコーダ200などの)ビデオコーダは、ピクチャを複数のコーディングツリーユニット(CTU)に区分する。ビデオエンコーダ200は、クワッドツリーバイナリツリー(QTBT)構造またはマルチタイプツリー(MTT)構造など、ツリー構造に従ってCTUを区分し得る。QTBT構造は、HEVCのCUとPUとTUとの間の分離など、複数の区分タイプの概念を除去する。QTBT構造は、2つのレベル、すなわち、クワッドツリー区分に従って区分される第1のレベルと、バイナリツリー区分に従って区分される第2のレベルとを含む。QTBT構造のルートノードは、CTUに対応する。バイナリツリーのリーフノードは、コーディングユニット(CU)に対応する。 [0054] As another example, video encoder 200 and video decoder 300 may be configured to operate according to VVC. According to VVC, a video coder (such as video encoder 200) partitions a picture into multiple coding tree units (CTUs). Video encoder 200 may partition CTUs according to a tree structure, such as a quad tree binary tree (QTBT) structure or a multi-type tree (MTT) structure. The QTBT structure eliminates the concept of multiple partition types, such as the separation between CU, PU, and TU in HEVC. The QTBT structure includes two levels: a first level partitioned according to quadtree partitioning and a second level partitioned according to binary tree partitioning. The root node of the QTBT structure corresponds to the CTU. Leaf nodes of the binary tree correspond to coding units (CUs).

[0055] MTT区分構造では、ブロックは、クワッドツリー(QT)区分と、バイナリツリー(BT)区分と、1つまたは複数のタイプのトリプルツリー(TT)(ターナリツリー(TT)とも呼ばれる)区分とを使用して区分され得る。トリプルツリーまたはターナリツリー区分は、ブロックが3つのサブブロックにスプリットされる区分である。いくつかの例では、トリプルツリーまたはターナリツリー区分は、中心を通して元のブロックを分割することなしにブロックを3つのサブブロックに分割する。MTTにおける区分タイプ(たとえば、QT、BT、およびTT)は、対称的または非対称的であり得る。 [0055] In an MTT partition structure, a block includes a quad tree (QT) partition, a binary tree (BT) partition, and one or more types of triple tree (TT) (also called ternary tree (TT)) partitions. It can be classified using A triple tree or ternary tree partition is a partition in which a block is split into three subblocks. In some examples, triple tree or ternary tree partitioning divides a block into three subblocks without splitting the original block through the center. Partition types in MTT (eg, QT, BT, and TT) can be symmetric or asymmetric.

[0056] いくつかの例では、ビデオエンコーダ200とビデオデコーダ300とは、ルミナンス成分とクロミナンス成分との各々を表すために単一のQTBTまたはMTT構造を使用し得、他の例では、ビデオエンコーダ200とビデオデコーダ300とは、ルミナンス成分のための1つのQTBT/MTT構造、および両方のクロミナンス成分のための別のQTBT/MTT構造(またはそれぞれのクロミナンス成分のための2つのQTBT/MTT構造)など、2つまたはそれ以上のQTBTまたはMTT構造を使用し得る。 [0056] In some examples, video encoder 200 and video decoder 300 may use a single QTBT or MTT structure to represent each of the luminance and chrominance components; in other examples, the video encoder 200 and video decoder 300 include one QTBT/MTT structure for the luminance component and another QTBT/MTT structure for both chrominance components (or two QTBT/MTT structures for each chrominance component). Two or more QTBT or MTT structures may be used, such as.

[0057] ビデオエンコーダ200とビデオデコーダ300とは、HEVCに従うクワッドツリー区分、QTBT区分、MTT区分、または他の区分構造を使用するように構成され得る。説明の目的で、本開示の技法の説明はQTBT区分に関して提示される。しかしながら、本開示の技法は、クワッドツリー区分、または同様に他のタイプの区分を使用するように構成されたビデオコーダにも適用され得ることを理解されたい。 [0057] Video encoder 200 and video decoder 300 may be configured to use quadtree partitioning, QTBT partitioning, MTT partitioning, or other partitioning structures according to HEVC. For purposes of explanation, the description of the techniques of this disclosure is presented with respect to the QTBT partition. However, it should be understood that the techniques of this disclosure may also be applied to video coders configured to use quadtree partitioning, or other types of partitioning as well.

[0058] いくつかの例では、CTUは、ルーマサンプルのコーディングツリーブロック(CTB)、3つのサンプルアレイを有するピクチャのクロマサンプルの2つの対応するCTB、あるいはモノクロームピクチャ、またはサンプルをコーディングするために使用される3つの別個の色平面とシンタックス構造とを使用してコーディングされるピクチャのサンプルのCTBを含む。CTBは、CTBへの成分の分割が区分になるような何らかの値のNについて、サンプルのN×Nブロックであり得る。成分は、ピクチャを4:2:0、4:2:2、または4:4:4色フォーマットに構成する3つのアレイ(ルーマおよび2つのクロマ)のうちの1つからのアレイまたは単一のサンプル、あるいはピクチャをモノクロームフォーマットに構成するアレイまたはアレイの単一のサンプルである。いくつかの例では、コーディングブロックは、コーディングブロックへのCTBの分割が区分になるような何らかの値のMとNとについて、サンプルのM×Nブロックである。 [0058] In some examples, a CTU is a coding tree block (CTB) of luma samples, two corresponding CTBs of chroma samples of a picture with three sample arrays, or a monochrome picture, or for coding samples. Contains the CTB of a sample of a picture coded using three separate color planes and syntax structures used. The CTB may be an N×N block of samples for some value of N such that the division of components into the CTB is piecewise. The components can be arrays from one of the three arrays (luma and two chromas) that organize the picture into a 4:2:0, 4:2:2, or 4:4:4 color format or a single A sample, or an array or a single sample of an array, that composes a picture in monochrome format. In some examples, the coding block is an M×N block of samples, for some value of M and N such that the division of the CTB into coding blocks is partitioned.

[0059] ブロック(たとえば、CTUまたはCU)は、ピクチャ中で様々な方法でグループ化され得る。一例として、ブリックは、ピクチャ中の特定のタイル内のCTU行の矩形領域を指し得る。タイルは、ピクチャ中の特定のタイル列および特定のタイル行内のCTUの矩形領域であり得る。タイル列は、ピクチャの高さに等しい高さと、(たとえば、ピクチャパラメータセット中などの)シンタックス要素によって指定された幅とを有するCTUの矩形領域を指す。タイル行は、(たとえば、ピクチャパラメータセット中などの)シンタックス要素によって指定された高さと、ピクチャの幅に等しい幅とを有するCTUの矩形領域を指す。 [0059] Blocks (eg, CTUs or CUs) may be grouped in various ways in a picture. As an example, a brick may refer to a rectangular area of a CTU row within a particular tile in a picture. A tile may be a rectangular region of CTUs within a particular tile column and a particular tile row in a picture. A tile column refers to a rectangular region of a CTU with a height equal to the height of a picture and a width specified by a syntax element (eg, in a picture parameter set). A tile row refers to a rectangular region of the CTU with a height specified by a syntax element (eg, in a picture parameter set) and a width equal to the width of the picture.

[0060] いくつかの例では、タイルは複数のブリックに区分され得、それらの各々は、タイル内に1つまたは複数のCTU行を含み得る。複数のブリックに区分されないタイルもブリックと呼ばれることがある。しかしながら、タイルの真のサブセットであるブリックは、タイルと呼ばれないことがある。 [0060] In some examples, a tile may be partitioned into multiple bricks, each of which may include one or more CTU rows within the tile. Tiles that are not divided into multiple bricks may also be called bricks. However, bricks that are a true subset of tiles may not be called tiles.

[0061] ピクチャ中のブリックはまた、スライス中に配置され得る。スライスは、もっぱら単一のネットワークアブストラクションレイヤ(NAL)ユニット中に含まれていることがあるピクチャの整数個のブリックであり得る。いくつかの例では、スライスは、いくつかの完全なタイル、または1つのタイルの完全なブリックの連続シーケンスのみのいずれかを含む。 [0061] Bricks in a picture may also be arranged in slices. A slice may be an integral number of bricks of pictures that may be contained exclusively in a single network abstraction layer (NAL) unit. In some examples, a slice includes either a number of complete tiles or only a contiguous sequence of complete bricks of one tile.

[0062] 本開示は、垂直寸法と水平寸法とに関して(CUまたは他のビデオブロックなどの)ブロックのサンプル寸法を指すために、「N×N(NxN)」および「N×N(N by N)」、たとえば、16×16サンプル(16x16 samples)または16×16サンプル(16 by 16 samples)を互換的に使用し得る。概して、16×16のCUは、垂直方向に16個のサンプルを有し(y=16)、水平方向に16個のサンプルを有する(x=16)。同様に、N×NのCUは、概して、垂直方向にN個のサンプルを有し、水平方向にN個のサンプルを有し、ここで、Nは非負整数値を表す。CU中のサンプルは、行と列とに配置され得る。その上、CUは、必ずしも、水平方向において垂直方向と同じ数のサンプルを有する必要があるとは限らない。たとえば、CUはN×Mサンプルを備え得、ここで、Mは必ずしもNに等しいとは限らない。 [0062] This disclosure uses "NxN" and "N by N )'', for example, 16x16 samples or 16 by 16 samples may be used interchangeably. Generally, a 16x16 CU has 16 samples in the vertical direction (y=16) and 16 samples in the horizontal direction (x=16). Similarly, an N×N CU generally has N samples in the vertical direction and N samples in the horizontal direction, where N represents a non-negative integer value. Samples in a CU may be arranged in rows and columns. Moreover, a CU does not necessarily need to have the same number of samples in the horizontal direction as in the vertical direction. For example, a CU may comprise N×M samples, where M is not necessarily equal to N.

[0063] ビデオエンコーダ200は、予測および/または残差情報、ならびに他の情報を表すCUのためにビデオデータを符号化する。予測情報は、CUについて予測ブロックを形成するためにCUがどのように予測されるべきかを示す。残差情報は、概して、符号化より前のCUのサンプルと予測ブロックとの間のサンプルごとの差分を表す。 [0063] Video encoder 200 encodes video data for CUs representing prediction and/or residual information, as well as other information. Prediction information indicates how a CU should be predicted to form a prediction block for the CU. The residual information generally represents the sample-by-sample difference between the samples of the CU and the predictive block prior to encoding.

[0064] CUを予測するために、ビデオエンコーダ200は、概して、インター予測またはイントラ予測を通してCUについて予測ブロックを形成し得る。インター予測は、概して、前にコーディングされたピクチャのデータからCUを予測することを指すが、イントラ予測は、概して、同じピクチャの前にコーディングされたデータからCUを予測することを指す。インター予測を実施するために、ビデオエンコーダ200は、1つまたは複数の動きベクトルを使用して予測ブロックを生成し得る。ビデオエンコーダ200は、概して、たとえば、CUと参照ブロックとの間の差分に関して、CUにぴったり一致する参照ブロックを識別するために動き探索を実施し得る。ビデオエンコーダ200は、参照ブロックが現在CUにぴったり一致するかどうかを決定するために、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)、または他のそのような差分計算を使用して差分メトリックを計算し得る。いくつかの例では、ビデオエンコーダ200は、単方向予測または双方向予測を使用して現在CUを予測し得る。 [0064] To predict a CU, video encoder 200 may generally form a prediction block for the CU through inter-prediction or intra-prediction. Inter prediction generally refers to predicting a CU from data of a previously coded picture, whereas intra prediction generally refers to predicting a CU from previously coded data of the same picture. To perform inter prediction, video encoder 200 may use one or more motion vectors to generate a predictive block. Video encoder 200 may generally perform a motion search to identify a reference block that closely matches a CU, eg, with respect to the difference between the CU and the reference block. Video encoder 200 uses sum of absolute differences (SAD), sum of squared differences (SSD), mean absolute difference (MAD), mean squared difference (MSD) to determine whether a reference block exactly matches the current CU. ), or other such difference calculations may be used to calculate the difference metric. In some examples, video encoder 200 may predict the current CU using unidirectional prediction or bidirectional prediction.

[0065] VVCのいくつかの例はまた、インター予測モードと見なされ得るアフィン動き補償モードを提供する。アフィン動き補償モードでは、ビデオエンコーダ200は、ズームインまたはアウト、回転、パースペクティブの動き、あるいは他の変則の動きタイプなど、非並進の動きを表す2つまたはそれ以上の動きベクトルを決定し得る。 [0065] Some examples of VVC also provide an affine motion compensation mode, which can be considered an inter-prediction mode. In affine motion compensation mode, video encoder 200 may determine two or more motion vectors representing non-translational motion, such as zooming in or out, rotation, perspective motion, or other anomalous motion types.

[0066] イントラ予測を実施するために、ビデオエンコーダ200は、予測ブロックを生成するようにイントラ予測モードを選択し得る。VVCのいくつかの例は、様々な方向性モード、ならびに平面モードおよびDCモードを含む、67個のイントラ予測モードを提供する。概して、ビデオエンコーダ200は、現在ブロック(たとえば、CUのブロック)のサンプルをそれから予測すべき、現在ブロックに対する隣接サンプルを記述するイントラ予測モードを選択する。そのようなサンプルは、ビデオエンコーダ200がラスタ走査順序で(左から右に、上から下に)CTUとCUとをコーディングすると仮定すると、概して、現在ブロックと同じピクチャ中の現在ブロックの上、左上、または左にあり得る。 [0066] To perform intra prediction, video encoder 200 may select an intra prediction mode to generate predictive blocks. Some examples of VVC provide 67 intra-prediction modes, including various directional modes as well as planar and DC modes. Generally, video encoder 200 selects an intra prediction mode that describes neighboring samples to a current block from which samples of the current block (eg, a block of a CU) are to be predicted. Such samples are typically located at the top, top left corner of the current block in the same picture as the current block, assuming that video encoder 200 codes CTUs and CUs in raster scan order (left to right, top to bottom). , or can be on the left.

[0067] ビデオエンコーダ200は、現在ブロックについて予測モードを表すデータを符号化する。たとえば、インター予測モードでは、ビデオエンコーダ200は、様々な利用可能なインター予測モードのうちのどれが使用されるか、ならびに対応するモードのための動き情報を表すデータを符号化し得る。たとえば、単方向または双方向インター予測では、ビデオエンコーダ200は、高度動きベクトル予測(AMVP)またはマージモードを使用して動きベクトルを符号化し得る。ビデオエンコーダ200は、アフィン動き補償モードのための動きベクトルを符号化するために、同様のモードを使用し得る。 [0067] Video encoder 200 encodes data representing the prediction mode for the current block. For example, in inter-prediction mode, video encoder 200 may encode data representative of which of the various available inter-prediction modes will be used, as well as motion information for the corresponding mode. For example, for unidirectional or bidirectional inter-prediction, video encoder 200 may encode motion vectors using advanced motion vector prediction (AMVP) or merge mode. Video encoder 200 may use a similar mode to encode motion vectors for affine motion compensation mode.

[0068] ブロックのイントラ予測またはインター予測などの予測に続いて、ビデオエンコーダ200は、ブロックについて残差データを計算し得る。残差ブロックなどの残差データは、ブロックと、対応する予測モードを使用して形成された、ブロックについての予測ブロックとの間の、サンプルごとの差分を表す。ビデオエンコーダ200は、サンプル領域ではなく変換領域中に変換データを生成するために、残差ブロックに1つまたは複数の変換を適用し得る。たとえば、ビデオエンコーダ200は、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換を残差ビデオデータに適用し得る。さらに、ビデオエンコーダ200は、第1の変換に続いて、モード依存非分離可能2次変換(MDNSST:mode-dependent non-separable secondary transform)、信号依存変換、カルーネンレーベ変換(KLT)などの2次変換を適用し得る。ビデオエンコーダ200は、1つまたは複数の変換の適用に続いて変換係数を生成する。 [0068] Following prediction, such as intra-prediction or inter-prediction, of a block, video encoder 200 may calculate residual data for the block. Residual data, such as a residual block, represents the sample-by-sample difference between a block and a predicted block for the block formed using a corresponding prediction mode. Video encoder 200 may apply one or more transforms to the residual block to generate transform data in a transform domain rather than a sample domain. For example, video encoder 200 may apply a discrete cosine transform (DCT), an integer transform, a wavelet transform, or a conceptually similar transform to the residual video data. Additionally, video encoder 200 may perform a second transform, such as a mode-dependent non-separable secondary transform (MDNSST), a signal-dependent transform, or a Karhunen-Loeve transform (KLT), following the first transform. The following transformation may be applied: Video encoder 200 generates transform coefficients following application of one or more transforms.

[0069] 上述のように、変換係数を生成するための任意の変換に続いて、ビデオエンコーダ200は、変換係数の量子化を実施し得る。量子化は、概して、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。量子化プロセスを実施することによって、ビデオエンコーダ200は、変換係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、ビデオエンコーダ200は、量子化中にnビット値をmビット値に丸めることがあり、ここで、nはmよりも大きい。いくつかの例では、量子化を実施するために、ビデオエンコーダ200は、量子化されるべき値のビット単位右シフトを実施し得る。 [0069] As discussed above, following any transformation to generate transform coefficients, video encoder 200 may perform quantization of the transform coefficients. Quantization generally refers to a process in which transform coefficients are quantized to reduce as much as possible the amount of data used to represent the transform coefficients, providing further compression. By performing a quantization process, video encoder 200 may reduce the bit depth associated with some or all of the transform coefficients. For example, video encoder 200 may round an n-bit value to an m-bit value during quantization, where n is greater than m. In some examples, to perform quantization, video encoder 200 may perform a bitwise right shift of the value to be quantized.

[0070] 量子化に続いて、ビデオエンコーダ200は、変換係数を走査して、量子化された変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(したがって、より低い頻度)の変換係数をベクトルの前方に配置し、より低いエネルギー(したがって、より高い頻度)の変換係数をベクトルの後方に配置するように設計され得る。いくつかの例では、ビデオエンコーダ200は、あらかじめ定義された走査順序を利用して、量子化された変換係数を走査してシリアル化ベクトルを生成し、次いで、ベクトルの量子化された変換係数をエントロピー符号化し得る。他の例では、ビデオエンコーダ200は適応型走査を実施し得る。量子化された変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ200は、たとえば、コンテキスト適応型バイナリ算術コーディング(CABAC)に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ200はまた、ビデオデータを復号する際のビデオデコーダ300による使用のために、符号化ビデオデータに関連付けられたメタデータを記述するシンタックス要素についての値をエントロピー符号化し得る。 [0070] Following quantization, video encoder 200 may scan the transform coefficients to generate a one-dimensional vector from the two-dimensional matrix containing the quantized transform coefficients. The scan may be designed to place higher energy (and therefore lower frequency) transform coefficients at the front of the vector and lower energy (and therefore higher frequency) transform coefficients at the rear of the vector. In some examples, video encoder 200 utilizes a predefined scan order to scan the quantized transform coefficients to generate a serialized vector, and then serializes the quantized transform coefficients of the vector. Can be entropy encoded. In other examples, video encoder 200 may implement adaptive scanning. After scanning the quantized transform coefficients to form a one-dimensional vector, video encoder 200 may entropy encode the one-dimensional vector, for example, according to context adaptive binary arithmetic coding (CABAC). Video encoder 200 may also entropy encode values for syntax elements that describe metadata associated with encoded video data for use by video decoder 300 in decoding the video data.

[0071] CABACを実施するために、ビデオエンコーダ200は、コンテキストモデル内のコンテキストを、送信されるべきシンボルに割り当て得る。コンテキストは、たとえば、シンボルの隣接値が0値であるか否かに関係し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。 [0071] To implement CABAC, video encoder 200 may assign context in a context model to symbols to be transmitted. The context may relate, for example, to whether a symbol's neighboring values are zero values. The probability determination may be based on the context assigned to the symbol.

[0072] ビデオエンコーダ200は、さらに、ブロックベースのシンタックスデータ、ピクチャベースのシンタックスデータ、およびシーケンスベースのシンタックスデータなどのシンタックスデータを、たとえば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、あるいはシーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはビデオパラメータセット(VPS)などの他のシンタックスデータ中で、ビデオデコーダ300に対して生成し得る。ビデオデコーダ300は、対応するビデオデータをどのように復号すべきかを決定するために、そのようなシンタックスデータを同様に復号し得る。 [0072] Video encoder 200 further converts syntax data such as block-based syntax data, picture-based syntax data, and sequence-based syntax data into, for example, a picture header, a block header, a slice header, or It may be generated for video decoder 300 in other syntax data such as a sequence parameter set (SPS), picture parameter set (PPS), or video parameter set (VPS). Video decoder 300 may similarly decode such syntax data to determine how to decode the corresponding video data.

[0073] このようにして、ビデオエンコーダ200は、符号化ビデオデータ、たとえば、ブロック(たとえば、CU)へのピクチャの区分ならびにブロックのための予測および/または残差情報を記述するシンタックス要素を含むビットストリームを生成し得る。最終的に、ビデオデコーダ300は、ビットストリームを受信し、符号化ビデオデータを復号し得る。 [0073] In this manner, video encoder 200 generates encoded video data, eg, syntax elements that describe the partitioning of pictures into blocks (eg, CUs) and prediction and/or residual information for the blocks. A bitstream may be generated that includes: Ultimately, video decoder 300 may receive the bitstream and decode the encoded video data.

[0074] 概して、ビデオデコーダ300は、ビットストリームの符号化ビデオデータを復号するために、ビデオエンコーダ200によって実施されたものの逆プロセスを実施する。たとえば、ビデオデコーダ300は、ビデオエンコーダ200のCABAC符号化プロセスと逆ではあるが、それと実質的に同様の様式でCABACを使用してビットストリームのシンタックス要素についての値を復号し得る。シンタックス要素は、CTUのCUを定義するために、ピクチャをCTUに区分するための区分情報と、QTBT構造などの対応する区分構造に従う、各CTUの区分とを定義し得る。シンタックス要素は、ビデオデータのブロック(たとえば、CU)についての予測および残差情報をさらに定義し得る。 [0074] Generally, video decoder 300 performs the inverse process of that performed by video encoder 200 to decode encoded video data of a bitstream. For example, video decoder 300 may decode values for syntax elements of a bitstream using CABAC in a manner substantially similar to, but opposite to, the CABAC encoding process of video encoder 200. The syntax element may define partitioning information for partitioning a picture into CTUs and partitioning of each CTU according to a corresponding partitioning structure, such as a QTBT structure, to define a CU of a CTU. The syntax elements may further define prediction and residual information for a block (eg, CU) of video data.

[0075] 残差情報は、たとえば、量子化された変換係数によって表され得る。ビデオデコーダ300は、ブロックのための残差ブロックを再生するために、ブロックの量子化された変換係数を逆量子化し、逆変換し得る。ビデオデコーダ300は、ブロックのための予測ブロックを形成するために、シグナリングされた予測モード(イントラまたはインター予測)と、関連する予測情報(たとえば、インター予測のための動き情報)とを使用する。ビデオデコーダ300は、次いで、元のブロックを再生するために(サンプルごとに)予測ブロックと残差ブロックとを組み合わせ得る。ビデオデコーダ300は、ブロックの境界に沿って視覚的アーティファクトを低減するためにデブロッキングプロセスを実施することなど、追加の処理を実施し得る。 [0075] The residual information may be represented by, for example, quantized transform coefficients. Video decoder 300 may dequantize and inverse transform the quantized transform coefficients of the block to recover a residual block for the block. Video decoder 300 uses the signaled prediction mode (intra or inter prediction) and associated prediction information (eg, motion information for inter prediction) to form a prediction block for the block. Video decoder 300 may then combine the predictive block and the residual block (sample by sample) to reconstruct the original block. Video decoder 300 may perform additional processing, such as performing a deblocking process to reduce visual artifacts along block boundaries.

[0076] 本開示は、概して、シンタックス要素など、ある情報を「シグナリング」することに言及することがある。「シグナリング」という用語は、概して、符号化ビデオデータを復号するために使用されるシンタックス要素および/または他のデータについての値の通信を指し得る。すなわち、ビデオエンコーダ200は、ビットストリームにおいてシンタックス要素についての値をシグナリングし得る。概して、シグナリングは、ビットストリームにおいて値を生成することを指す。上述のように、ソースデバイス102は、実質的にリアルタイムでビットストリームを宛先デバイス116に移送するか、または、宛先デバイス116による後の取出しのためにシンタックス要素を記憶デバイス112に記憶するときに行われ得るように、非リアルタイムでビットストリームを宛先デバイス116に移送し得る。 [0076] This disclosure may generally refer to "signaling" certain information, such as syntax elements. The term "signaling" may generally refer to the communication of values for syntax elements and/or other data used to decode encoded video data. That is, video encoder 200 may signal values for syntax elements in the bitstream. Generally speaking, signaling refers to producing values in a bitstream. As described above, the source device 102 may transport the bitstream to the destination device 116 in substantially real time or store syntax elements in the storage device 112 for later retrieval by the destination device 116. As may be done, the bitstream may be transported to the destination device 116 in non-real time.

[0077] H.266/VVC規格などのビデオコーディングにおいては、フィルタリングされたサンプルと元のサンプルとの間の平均2乗誤差を最小化するために、ALFが、適用される。ALFに対する入力サンプルは、たとえば、SAOの出力サンプルであり得る。ALFの出力サンプルは、復号ピクチャバッファ(DPB)内に記憶され、または視認可能なピクチャとして出力され得る。共同調査モデル(JEM)ソフトウェアにおいて採用された、ALFについてのフィルタ形状は、5×5、7×7、および9×9のダイヤモンド形状であった。JEMにおいては、フィルタ形状は、ピクチャレベルで選択され、シグナリングされ得る。コーディング効率とフィルタの複雑さとの間のより良いトレードオフを得るために、VVCにおいては、それぞれ、ルーマ成分およびクロマ成分に対して、7×7のダイヤモンド形状および5×5のダイヤモンド形状のみが、サポートされる。 [0077]H. In video coding such as the H.266/VVC standard, ALF is applied to minimize the mean squared error between the filtered samples and the original samples. The input samples to the ALF may be, for example, the output samples of the SAO. The output samples of the ALF may be stored in a decoded picture buffer (DPB) or output as a visible picture. The filter shapes for ALF employed in the Joint Investigation Model (JEM) software were 5×5, 7×7, and 9×9 diamond shapes. In JEM, filter shapes can be selected and signaled at the picture level. To obtain a better trade-off between coding efficiency and filter complexity, in VVC, only 7x7 diamond shape and 5x5 diamond shape are used for luma and chroma components, respectively. Supported.

[0078] 図2Aは、7×7のダイヤモンド形状フィルタである、例示的なフィルタ140を示している。図2Bは、5×5のダイヤモンド形状フィルタである、例示的なフィルタ142を示している。フィルタ140および142の各々において、整数係数ciは、7ビットの分数精度で表される。ciの絶対値は、0次の指数ゴロムコードを使用することによって、コーディングされ、非ゼロ係数のための符号ビットによって後続される。図2Aおよび2Bにおいては、各四角形は、ルーマサンプルまたはクロマサンプルに対応し、中央の四角形が、現在フィルタリングされるサンプルに対応する。係数を送信するオーバーヘッドと、乗算の数とを減らすために、図2Aおよび図2Bにおけるフィルタ形状は、点対称である。加えて、式(1)に示されるように、すべてのフィルタ係数の和は、7ビットの分数精度で、1.0の固定小数点表現である、128に等しく設定される。 [0078] FIG. 2A shows an exemplary filter 140 that is a 7x7 diamond shaped filter. FIG. 2B shows an exemplary filter 142 that is a 5×5 diamond shaped filter. In each of filters 140 and 142, the integer coefficients ci are represented with 7 bits of fractional precision. The absolute value of c i is coded by using a zeroth order exponential Golomb code, followed by a sign bit for non-zero coefficients. In FIGS. 2A and 2B, each square corresponds to a luma or chroma sample, with the center square corresponding to the sample currently being filtered. To reduce the overhead of transmitting coefficients and the number of multiplications, the filter shapes in FIGS. 2A and 2B are point symmetric. Additionally, as shown in equation (1), the sum of all filter coefficients is set equal to 128, which is a fixed point representation of 1.0 with 7 bits of fractional precision.

Figure 2024501465000002
Figure 2024501465000002

[0079] 式(1)においては、Nは、係数の数であり、Nは、それぞれ、7×7および5×5のフィルタ形状に対して、13および7に等しい。 [0079] In equation (1), N is the number of coefficients, and N is equal to 13 and 7 for 7x7 and 5x5 filter shapes, respectively.

[0080] VVCにおいては、非線形性が、ALFに導入される。隣接サンプル値と現在フィルタリングされるサンプル値との間の差(difference)が、大きすぎるとき、隣接サンプル値の影響を減らすために、単純なクリッピング関数が、適用される。サンプルをフィルタリングするために、ALFは、 [0080] In VVC, nonlinearity is introduced into the ALF. When the difference between neighboring sample values and the currently filtered sample value is too large, a simple clipping function is applied to reduce the influence of neighboring sample values. To filter the samples, the ALF:

Figure 2024501465000003
Figure 2024501465000003

として実行され得、ここで、R(x,y)は、SAO後のサンプル値である。 where R(x,y) is the sample value after SAO.

[0081] 非線形関数が、クリッピング関数を用いて、 [0081] The nonlinear function uses a clipping function to

Figure 2024501465000004
Figure 2024501465000004

として定義され、ここで、jは、0または1に等しく、(xi,j,yi,j)は、第iの係数ciのフィルタタップ位置オフセットである。 where j is equal to 0 or 1 and (x i,j , y i,j ) is the filter tap position offset of the i-th coefficient c i .

[0082] VVCバージョン1においては、式(4)に示されるように、係数ciについてのクリッピングパラメータbiは、クリッピングインデックスdiによって決定される。BDは、内部ビット深度である。 [0082] In VVC version 1, the clipping parameter b i for the coefficient c i is determined by the clipping index d i as shown in equation (4). BD is the internal bit depth.

Figure 2024501465000005
Figure 2024501465000005

[0083] フィルタについては、シグナリングされる係数の数と、シグナリングされるクリッピングインデックスの数は、両方とも、N-1である。各係数は、7ビットの分数精度で、[-1.0,1.0]に等価である、[-128,127]の範囲に制限される。各クリッピングインデックスdiは、0、1、2、または3であることができ、2ビットの固定長コードを使用することによって、シグナリングされる。式(4)におけるように、クリッピング演算を単純化するために、クリッピングパラメータbiの値は、2の累乗のみに制限され得る。したがって、クリッピング演算として、ビット単位の論理演算が、適用され得る。 [0083] For the filter, the number of signaled coefficients and the number of signaled clipping indices are both N-1. Each coefficient is limited to the range [-128, 127], which is equivalent to [-1.0, 1.0], with 7 bits of fractional precision. Each clipping index di can be 0, 1, 2, or 3 and is signaled by using a 2-bit fixed length code. As in equation (4), to simplify the clipping operation, the value of the clipping parameter b i may be restricted to powers of two only. Therefore, a bitwise logical operation may be applied as a clipping operation.

[0084] ビデオエンコーダ200およびビデオデコーダ300は、サブブロックレベルフィルタ適応を実行するように構成され得る。VVCバージョン1においては、ALFは、JEM-7.0におけるALFと同じルーマ分類フレームワークに従う。コーディング効率と計算の複雑さとの間のより良いトレードオフを獲得するために、分類のためのブロックサイズは、2×2サンプルから4×4サンプルに増やされ得る。4×4ブロックのクラスインデックスを決定するために、8×8のルーマサンプルを含む囲み窓が、方向と、アクティビティ情報とを導出するために、利用される。この8×8ルーマサンプル窓においては、図3に示されるように、あらゆる第2のサンプルの4つの勾配値が、最初に計算される。図3は、ALF分類のための4×4サブブロック150についてのサブサンプリングされたラプラシアン値を示している。ドットを用いてマークされたサンプルの勾配値が、計算される。他のサンプルの勾配値は、0に設定される。 [0084] Video encoder 200 and video decoder 300 may be configured to perform sub-block level filter adaptation. In VVC version 1, ALF follows the same luma classification framework as ALF in JEM-7.0. To obtain a better trade-off between coding efficiency and computational complexity, the block size for classification can be increased from 2x2 samples to 4x4 samples. To determine the class index of a 4x4 block, a boxed window containing 8x8 luma samples is utilized to derive orientation and activity information. In this 8×8 luma sample window, the four slope values of every second sample are first calculated, as shown in FIG. FIG. 3 shows subsampled Laplacian values for a 4×4 subblock 150 for ALF classification. The slope values of the samples marked with dots are calculated. The slope values of other samples are set to zero.

[0085] 図4は、各サンプルについての4つの勾配値を、座標(k,l)を用いて示している。ドットは、勾配が計算されているサンプルを表す。ブロック160は、水平勾配(H)を示し、ブロック162は、垂直勾配(V)を示す。ブロック164は、135度勾配(D1)を示し、ブロック166は、45度勾配(D2)を示す。H、V、D1、およびD2は、次のように導出される。 [0085] FIG. 4 shows the four slope values for each sample using coordinates (k,l). Dots represent samples for which gradients are being calculated. Block 160 shows the horizontal gradient (H) and block 162 shows the vertical gradient (V). Block 164 shows a 135 degree slope (D1) and block 166 shows a 45 degree slope (D2). H, V, D1, and D2 are derived as follows.

Figure 2024501465000006
Figure 2024501465000006

[0086] 変数iおよびjは、4×4ブロックにおける左上サンプルの座標を示すことができる。計算された水平勾配の合計gH、計算された垂直勾配の合計gV、計算された135度勾配の合計gD1、および計算された45度勾配の合計gD2は、次のように計算される。 [0086] Variables i and j may indicate the coordinates of the top left sample in the 4x4 block. The sum of the calculated horizontal slopes g H , the sum of the calculated vertical slopes g V , the sum of the calculated 135-degree slopes g D1 , and the sum of the calculated 45-degree slopes g D2 are calculated as follows: Ru.

Figure 2024501465000007
Figure 2024501465000007

[0087] RH,Vによって表される水平勾配と垂直勾配の最大値と、水平勾配と垂直勾配の最小値との比、およびRD1,D2によって表される2つの対角線勾配の最大値と、2つの対角線勾配の最小値との比は、式(7)に示されるように計算される。 [0087] The ratio of the maximum value of the horizontal slope and vertical slope represented by R H,V to the minimum value of the horizontal slope and vertical slope, and the maximum value of the two diagonal slopes represented by R D1,D2. , and the minimum value of the two diagonal slopes is calculated as shown in equation (7).

Figure 2024501465000008
Figure 2024501465000008

[0088] 次いで、方向性Dを導出するために、RH,VとRD1,D2が、2つのしきい値t1=2およびt2=4.5を用いて、互いに比較される。 [0088] To derive the directionality D, R H,V and R D1,D2 are then compared to each other using two thresholds t 1 =2 and t 2 =4.5.

ステップ1:RH,V≦t1と、RD1,D2≦t1の両方である場合、Dは、0(テクスチャ)に設定され、それ以外の場合、ステップ2を続行する。 Step 1: If both R H,V ≦t 1 and R D1,D2 ≦t 1 then D is set to 0 (texture), otherwise continue with step 2.

ステップ2:RD1,D2>RH,Vの場合、ステップ3を続行し、それ以外の場合、ステップ4を続行する。 Step 2: If R D1,D2 >R H,V , continue with step 3, otherwise continue with step 4.

ステップ3:RD1,D2≦t2の場合、Dは、1(弱い対角線)に設定され、それ以外の場合、Dは、2(強い対角線)に設定される。 Step 3: If R D1,D2 ≦t 2 then D is set to 1 (weak diagonal), otherwise D is set to 2 (strong diagonal).

ステップ4:RH,V≦t2の場合、Dは、3(弱い水平/垂直)に設定され、
それ以外の場合、Dは、4(強い水平/垂直)に設定される。
Step 4: If R H,V ≦t 2 , D is set to 3 (weak horizontal/vertical);
Otherwise, D is set to 4 (strong horizontal/vertical).

[0089] アクティビティ値Aは、次のように計算される: [0089] Activity value A is calculated as follows:

Figure 2024501465000009
Figure 2024501465000009

[0090] 図5は、25個のルーマクラスを7個のマージされたクラス(0から6)にマージする例を示しており、ここで、各四角形は、Dおよび [0090] Figure 5 shows an example of merging 25 luma classes into 7 merged classes (0 to 6), where each rectangle has D and

Figure 2024501465000010
Figure 2024501465000010

の値に基づいた、クラスを表す。5×5グリッド170は、25個のクラスを表し、5×5グリッド170の各ボックス内の数字は、0から6までのマージされたクラスを表す。各クラス、すなわち5×5グリッド170の各四角形は、0以上24以下のインデックスを有することができる。Aは、0以上4以下の範囲にマッピングされ、量子化された値は、 Represents a class based on the value of . The 5x5 grid 170 represents 25 classes, and the numbers in each box of the 5x5 grid 170 represent merged classes from 0 to 6. Each class, ie, each square of the 5×5 grid 170, can have an index greater than or equal to 0 and less than or equal to 24. A is mapped to a range of 0 to 4, and the quantized value is

Figure 2024501465000011
Figure 2024501465000011

として表される。したがって、各4x4ブロックは、次のように、25個のクラスのうちの1つにカテゴライズされる。 It is expressed as Therefore, each 4x4 block is categorized into one of 25 classes as follows.

Figure 2024501465000012
Figure 2024501465000012

[0091] ルーマフィルタセットは、25個のフィルタを含む。しかしながら、コーディング効率を維持しながら、フィルタ係数を表すために必要とされるビット数を減らすために、異なるクラスは、マージされ得、マージされたクラスは、同じフィルタを使用する。マージングテーブルが、シグナリングされる。マージングテーブルにおいては、各クラスについてのフィルタインデックスが、たとえば、固定長コードを使用して、シグナリングされる。図5についての例示的なフィルタセットにおいては、7個のルーマフィルタが、シグナリングされる。クラスごとに、フィルタインデックス(この例においては0から6)が、ALF_APSで通知される。 [0091] The luma filter set includes 25 filters. However, to reduce the number of bits needed to represent filter coefficients while maintaining coding efficiency, different classes may be merged, and the merged classes use the same filter. A merging table is signaled. In the merging table, the filter index for each class is signaled using, for example, a fixed length code. In the exemplary filter set for FIG. 5, seven luma filters are signaled. For each class, the filter index (0 to 6 in this example) is signaled in ALF_APS.

[0092] 4×4ブロックのクラスインデックスCと、マージングテーブルとに基づいて、ルーマフィルタセットからフィルタを決定した後、4×4ブロックのサンプルをフィルタリングする前に、表1に示されるように、4x4ブロックについて計算された勾配値に応じて、幾何学的変換が、フィルタに適用され得る。 [0092] After determining the filter from the luma filter set based on the class index C of the 4×4 block and the merging table, and before filtering the samples of the 4×4 block, as shown in Table 1, Depending on the gradient values calculated for the 4x4 block, a geometric transformation may be applied to the filter.

Figure 2024501465000013
Figure 2024501465000013

[0093] 図6は、図2Aにおけるフィルタ140の幾何学的変換の例を示している。図6に見られ得るように、フィルタ180は、フィルタ140の対角線反転に対応する。フィルタ182は、フィルタ140の垂直反転に対応し、フィルタ184は、フィルタ140の右回転に対応する。 [0093] FIG. 6 shows an example of a geometric transformation of filter 140 in FIG. 2A. As can be seen in FIG. 6, filter 180 corresponds to the diagonal inversion of filter 140. Filter 182 corresponds to a vertical inversion of filter 140 and filter 184 corresponds to a clockwise rotation of filter 140.

[0094] ビデオエンコーダ200およびビデオデコーダ300は、コーディングツリーブロックレベル適応を実行するように構成され得る。JEM-7.0においては、ただ1つのルーマフィルタセットが、スライスのすべてのルーマCTBに適用され、ただ1つのクロマフィルタが、スライスのすべてのクロマCTBに適用される。しかしながら、2つの潜在的な不都合が、存在する。第1に、CTB間の統計情報が、ある程度異なるとき、色成分のすべてのCTBのために同じフィルタまたはフィルタセットを使用することは、特に、高解像度シーケンス、および混合コンテンツのビデオシーケンスについて、ALFのコーディング効率を制限することがある。第2に、スライスのためのフィルタを導出するとき、スライス全体の統計情報が、収集されるまで、フィルタは、計算され得ない。このマルチプルパスコーディングは、低遅延アプリケーションには向いていない。この問題に対処するためには、以前にコーディングされたスライスからの統計を使用することが、1つのソリューションになる。しかしながら、これは、いくらかのパフォーマンス低下をもたらし得る。 [0094] Video encoder 200 and video decoder 300 may be configured to perform coding tree block-level adaptation. In JEM-7.0, only one luma filter set is applied to all luma CTBs of a slice, and only one chroma filter set is applied to all chroma CTBs of a slice. However, there are two potential disadvantages. First, when the statistics between CTBs differ to some extent, using the same filter or set of filters for all CTBs of color components is difficult, especially for high-resolution sequences, and mixed-content video sequences. may limit coding efficiency. Second, when deriving a filter for a slice, the filter cannot be computed until statistics for the entire slice have been collected. This multiple pass coding is not suitable for low-latency applications. To address this problem, one solution is to use statistics from previously coded slices. However, this may result in some performance degradation.

[0095] ルーマ4×4ブロックレベルフィルタ適応に加えて、VVCは、CTBレベルフィルタ適応をサポートする。スライスにおいては、異なるルーマCTBは、異なるルーマフィルタセットを使用することが許容され、異なるクロマCTBは、異なるクロマフィルタを使用することができる。同様の統計を有するCTBは、同じフィルタを使用し得る。このCTBレベルフィルタ適応は、特に、低遅延アプリケーションについて、コーディング効率を改善する。加えて、VVCバージョン1は、以前にコーディングされたピクチャからのフィルタが、CTBのために使用されることを許容する。この一時的なフィルタ再利用メカニズムは、フィルタ係数シグナリングのオーバーヘッドを減すことができる。VVCバージョン1においては、最大で7つのシグナリングされたルーマフィルタセットと、8つのシグナリングされたクロマフィルタが、スライスに適用され得る。いかなるシグナリングされたフィルタも、存在しないとき、16個の固定されたフィルタセットのうちの1つが、ルーマCTBに適用され得る。ALFが、有効であるとき、固定されたフィルタセットまたはシグナリングされたルーマフィルタセットのいずれかのフィルタセットインデックスが、ルーマCTBのためにシグナリングされる。シグナリングされたクロマフィルタのフィルタインデックスが、クロマCTBのためにシグナリングされる。以前にコーディングされたピクチャからシグナリングされたフィルタと、固定されたフィルタとを使用することによって、低遅延アプリケーションにおいて、現在CTUを符号化するとき、現在CTUの統計情報のみを使用することによって、3つのCTUレベルオン/オフフラグと、フィルタ/フィルタセットインデックスが、決定され得る。したがって、各CTUの符号化されたビットストリームは、オンザフライで、ピクチャ全体の統計が利用可能になるのを待たずに、生成され得る。 [0095] In addition to luma 4x4 block-level filter adaptation, VVC supports CTB-level filter adaptation. In a slice, different luma CTBs are allowed to use different luma filter sets, and different chroma CTBs can use different chroma filters. CTBs with similar statistics may use the same filter. This CTB level filter adaptation improves coding efficiency, especially for low delay applications. In addition, VVC version 1 allows filters from previously coded pictures to be used for CTB. This temporary filter reuse mechanism can reduce filter coefficient signaling overhead. In VVC version 1, up to seven signaled luma filter sets and eight signaled chroma filter sets may be applied to a slice. When no signaled filter is present, one of 16 fixed filter sets may be applied to the luma CTB. When ALF is enabled, a filter set index of either a fixed filter set or a signaled luma filter set is signaled for the luma CTB. The filter index of the signaled chroma filter is signaled for the chroma CTB. By using only the statistics of the current CTU when encoding the current CTU, in low-latency applications, by using filters signaled from previously coded pictures and fixed filters. A CTU level on/off flag and a filter/filter set index may be determined. Thus, the encoded bitstream for each CTU can be generated on the fly, without waiting for the whole picture statistics to become available.

[0096] ビデオエンコーダ200およびビデオデコーダ300は、ラインバッファ削減のための技法を実行するように構成され得る。図2Aおよび図2Bに示されるように、垂直方向において、フィルタ形状は、それぞれ、ルーマ成分およびクロマ成分について、7タップおよび5タップを有する。結果として、VVCテストモデル2.0(VTM-2.0)においては、CTUの行を復号するとき、デブロッキングフィルタ(deblocking filter)およびSAOフィルタの遅延のせいで、上側CTU行の7つのルーマラインと4つのクロマラインが、ALFのためのラインバッファ内に記憶されなければならない。しかしながら、追加のラインバッファは、特に、高解像度(HD)および超高解像度(UHD)ビデオシーケンスについて、大きなチップ領域を必要とする。 [0096] Video encoder 200 and video decoder 300 may be configured to perform techniques for line buffer reduction. As shown in FIGS. 2A and 2B, in the vertical direction, the filter shape has 7 taps and 5 taps for the luma and chroma components, respectively. As a result, in VVC Test Model 2.0 (VTM-2.0), when decoding a CTU row, seven lumens in the upper CTU row are line and four chroma lines must be stored in the line buffer for the ALF. However, additional line buffers require large chip area, especially for high definition (HD) and ultra high definition (UHD) video sequences.

[0097] (たとえば、ラインバッファ要件を低減することによって)ALFをハードウェアフレンドリにするために、仮想境界(VB)の概念が、ALFについてのすべてのラインバッファオーバーヘッドを除去するために、適用され得る。VVCバージョン1におけるデブロッキングフィルタおよびSAOフィルタを考慮すると、VBの位置は、水平CTU境界の上方4ルーマサンプルおよび2クロマサンプルである。VBの一方の側上の1つのサンプルが、フィルタリングされるとき、VBの他方の側上のサンプルは、利用され得ず、対称サンプルパディングを用いる変更されたフィルタリングが、適用され得る。 [0097] To make ALF hardware friendly (e.g., by reducing line buffer requirements), the concept of virtual boundaries (VB) is applied to remove all line buffer overhead for ALF. obtain. Considering the deblocking filter and SAO filter in VVC version 1, the location of VB is 4 luma samples and 2 chroma samples above the horizontal CTU boundary. When one sample on one side of the VB is filtered, samples on the other side of the VB may not be utilized and a modified filtering with symmetric sample padding may be applied.

[0098] 図7A~図7Cは、ALF VBにおけるルーマALFフィルタリングについての対称サンプルパディングの例を示している。図7A~図7Cの例においては、フィルタ190の中央の四角形は、現在のフィルタリングされるサンプルの位置であり、太線は、VB(VB192)の位置である。図7A~図7Cにおいては、破線を有するフィルタタップ位置が、パディングされる。図7Aは、フィルタ190の1つのフィルタタップ位置が、VB192の上または下にある、例を示している。この例においては、1つのフィルタタップ位置が、パディングされる。図7Bは、フィルタ190の4つのフィルタタップ位置が、VB192の上または下にある、例を示している。この例においては、4つのフィルタタップ位置が、パディングされる。 [0098] FIGS. 7A-7C illustrate examples of symmetric sample padding for luma ALF filtering in ALF VB. In the example of FIGS. 7A-7C, the square in the center of filter 190 is the location of the current filtered sample, and the bold line is the location of VB (VB 192). In FIGS. 7A-7C, filter tap locations with dashed lines are padded. FIG. 7A shows an example where one filter tap position of filter 190 is above or below VB 192. In this example, one filter tap position is padded. FIG. 7B shows an example where the four filter tap positions of filter 190 are above or below VB 192. In this example, four filter tap positions are padded.

[0099] しかしながら、図7Cに示されるように、サンプルが、VB192の各側における最も近い行上にある場合、2Dフィルタは、水平フィルタと等価である。これは、視覚的なアーティファクトを導入し得る。この問題に対処するために、式(10)に示されるように、現在のフィルタリングされるサンプルが、VBの各側における最も近い行上に配置されるとき、フィルタ強度が、補償され得る。式(10)を式(2)と比較すると、さらに3ビットが、右にシフトされていることが見られ得る。 [0099] However, if the samples are on the nearest row on each side of the VB 192, as shown in FIG. 7C, the 2D filter is equivalent to a horizontal filter. This may introduce visual artifacts. To address this issue, the filter strength may be compensated when the current filtered sample is placed on the nearest row on each side of the VB, as shown in equation (10). Comparing equation (10) with equation (2), it can be seen that three more bits have been shifted to the right.

Figure 2024501465000014
Figure 2024501465000014

[0100] VB処理が、適用されるとき、4×4ブロックの分類も、変更され得る。VBの一方の側における4×4ブロックのクラスインデックスを計算するとき、VBの他方の側における勾配およびサンプルは、図8に示されるように、使用され得ない。 [0100] When VB processing is applied, the classification of 4x4 blocks may also be changed. When calculating the class index of a 4x4 block on one side of the VB, the gradients and samples on the other side of the VB cannot be used, as shown in FIG. 8.

[0101] 図8は、ALF VBにおけるALF 4×4サブブロック分類の例を示している。VBに隣接するサンプルの勾配値を計算するとき、VBの他方の側におけるサンプルは、利用され得ない。したがって、現在の側の境界サンプルが、図8に示されるように、繰り返し拡張される。すなわち、VBの現在の側における境界サンプルが、VBの他方の側にミラーされる。利用可能な勾配値の数が、減らされるので、式(8)におけるアクティビティ導出は、 [0101] FIG. 8 shows an example of ALF 4×4 subblock classification in ALF VB. When calculating slope values for samples adjacent to VB, samples on the other side of VB cannot be utilized. Therefore, the boundary samples on the current side are expanded iteratively, as shown in FIG. That is, the boundary samples on the current side of the VB are mirrored on the other side of the VB. Since the number of available slope values is reduced, the activity derivation in equation (8) becomes

Figure 2024501465000015
Figure 2024501465000015

にリスケールされる。 will be rescaled to

[0102] ビデオエンコーダ200およびビデオデコーダ300は、フィルタ係数シグナリングを実行するように構成され得る。VVCバージョン1においては、ALF係数は、ALF適応パラメータセット(APS)でシグナリングされる。1つのAPSは、最大25個のフィルタを有するルーマフィルタの1つのセットと、最大8個のクロマフィルタと、最大8個のクロス成分ALF(CC-ALF)フィルタとを含み得る。ルーマフィルタの各セットは、ルーマの25個のクラスにALFを適用することをサポートする。VVCバージョン1においては、最大8つのALF_APSが、サポートされる。 [0102] Video encoder 200 and video decoder 300 may be configured to perform filter coefficient signaling. In VVC version 1, ALF coefficients are signaled in the ALF Adaptive Parameter Set (APS). One APS may include one set of luma filters with up to 25 filters, up to 8 chroma filters, and up to 8 cross-component ALF (CC-ALF) filters. Each set of luma filters supports applying ALF to 25 classes of luma. In VVC version 1, up to 8 ALF_APS are supported.

[0103] 以下の表2は、本開示の技法に従ってフィルタ係数をシグナリングするための例示的なシンタックスシグナルテーブルを示している。 [0103] Table 2 below shows an example syntax signal table for signaling filter coefficients in accordance with the techniques of this disclosure.

Figure 2024501465000016
Figure 2024501465000016

[0104] 本開示は、ALFの性能をさらに改善し得る技法について説明する。たとえば、VVCにおいては、サンプルをフィルタリングするとき、ただ1つの分類器および1つのフィルタが、適用され得る。しかしながら、本開示は、より多くの局所的特徴を捕捉するために、複数の分類器およびフィルタを適用するための技法について説明した。本開示は、サンプルをフィルタリングするために、複数のフィルタおよび分類器を使用するフレームワークのための技法について説明する。 [0104] This disclosure describes techniques that may further improve the performance of ALF. For example, in VVC, only one classifier and one filter may be applied when filtering samples. However, this disclosure has described techniques for applying multiple classifiers and filters to capture more local features. This disclosure describes techniques for a framework that uses multiple filters and classifiers to filter samples.

[0105] 図9は、ビデオデータの再構築サンプルをフィルタリングするために、複数の固定されたフィルタセットと、複数のシグナリングされたフィルタセットとを使用するための、例示的なフレームワークを示している。ビデオエンコーダ200およびビデオデコーダ300は、図9の技法に従って、複数の固定されたフィルタセットと、複数のシグナリングされたフィルタセットとを実施するように構成され得る。図10~図15の技法は、ビデオデコーダ300に関して説明されるが、ビデオエンコーダ200によっても実行され得る。 [0105] FIG. 9 illustrates an example framework for using multiple fixed filter sets and multiple signaled filter sets to filter reconstructed samples of video data. There is. Video encoder 200 and video decoder 300 may be configured to implement fixed filter sets and signaled filter sets according to the techniques of FIG. Although the techniques of FIGS. 10-15 are described with respect to video decoder 300, they may also be performed by video encoder 200.

[0106] 図9の例においては、ビデオデコーダ300は、中間フィルタリング信号R’を決定するために、再構築サンプルR(x,y)に、第1の段階のALF400を適用する。次いで、ビデオデコーダ300は、フィルタリングされたサンプル430についての値を決定するために、R’に第2の段階のALF410を適用する。 [0106] In the example of FIG. 9, video decoder 300 applies a first stage ALF 400 to reconstructed samples R(x,y) to determine intermediate filtered signal R'. Video decoder 300 then applies a second stage ALF 410 to R' to determine a value for filtered samples 430.

[0107] 第1の段階のALF400の態様が、今から、より詳細に説明される。
・ NsおよびNfは、サンプルに適用され得る、シグナリングされたフィルタセットおよび固定(事前定義)されたフィルタセットの数を表す。Rsは、ALFへの入力サンプルである。
・ F(f,i)、i=0...Nf-1は、第iの固定されたフィルタセットを表す。
・ C(f,i)、i=0...Nf-1は、第iの固定されたフィルタセットのための分類器を表す。C(f,i)を通して、サンプルごとに、フィルタインデックスが、計算される。フィルタインデックスに基づいて、固定されたフィルタセットF(f,i)からのフィルタが、そのサンプルをフィルタリングするために、選択される。加えて、C(f,i)は、係数に幾何学的変換をどのように適用するかを決定する。
・ F(s,i)、i=0...Ns-1は、第iのシグナリングされたフィルタセットを表す。
・ C(s,i)、i=0...Ns-1は、第iのシグナリングされたフィルタセットと一緒の分類器を表す。C(s,i)を通して、サンプルごとに、フィルタインデックスが、計算される。フィルタインデックスに基づいて、固定されたフィルタセットF(s,i)からのフィルタが、そのサンプルをフィルタリングするために、選択される。加えて、C(s,i)は、係数に幾何学的変換をどのように適用するかを決定する。
[0107] Aspects of the first stage ALF 400 will now be described in more detail.
- N s and N f represent the number of signaled filter sets and fixed (predefined) filter sets that can be applied to the samples. Rs is the input sample to the ALF.
・F(f,i), i=0. .. .. N f −1 represents the i-th fixed filter set.
・C(f,i), i=0. .. .. N f -1 represents the classifier for the i-th fixed filter set. A filter index is calculated for each sample through C(f,i). Based on the filter index, a filter from the fixed filter set F(f,i) is selected to filter the sample. In addition, C(f,i) determines how to apply geometric transformations to the coefficients.
・F(s,i), i=0. .. .. N s −1 represents the i-th signaled filter set.
・C(s,i), i=0. .. .. N s -1 represents the classifier with the i-th signaled filter set. A filter index is calculated for each sample through C(s,i). Based on the filter index, a filter from the fixed filter set F(s,i) is selected to filter the sample. In addition, C(s,i) determines how to apply geometric transformations to the coefficients.

[0108] 再構築サンプルR(x,y)については、再構築サンプル自体と、隣接サンプルとを使用することによって、ビデオデコーダ300は、複数のフィルタセットを適用し得る。(固定されたフィルタセットまたはシグナリングされたフィルタセットであり得る)フィルタセットを与えられると、分類器が、適用され得る。分類器は、フィルタセットからのどのフィルタが適用され得るか、およびフィルタ係数をどのように転置するかを決定する。第1の段階の後、各フィルタセットおよび対応する分類器について、中間的にフィルタリングされた信号R’が、たとえば、 [0108] For the reconstructed sample R(x,y), by using the reconstructed sample itself and neighboring samples, video decoder 300 may apply multiple filter sets. Given a filter set (which may be a fixed filter set or a signaled filter set), a classifier may be applied. The classifier determines which filters from the filter set may be applied and how to transpose the filter coefficients. After the first stage, for each filter set and corresponding classifier, the intermediate filtered signal R' is, e.g.

Figure 2024501465000017
Figure 2024501465000017

ように計算され得る。 It can be calculated as follows.

[0109] 第iのフィルタ、i=0...Nf+Ns-1について、ci,jは、第iのフィルタセットからの選択されたフィルタの第jの係数であり、Niは、係数の数であり、fi,j,k、k=0または1は、1つの隣接サンプルと現在サンプルとの関数であり、たとえば、fi,j,kは、VVCにおけるように、クリッピング関数として実施され得る。 [0109] i-th filter, i=0. .. .. For N f +N s −1, c i,j is the j-th coefficient of the selected filter from the i-th filter set, Ni is the number of coefficients, and f i,j,k , k =0 or 1 is a function of one neighboring sample and the current sample, for example f i,j,k can be implemented as a clipping function, as in VVC.

Figure 2024501465000018
Figure 2024501465000018

(xi,j,k,yi,j,k)は、現在サンプルに対する、隣接サンプルの座標オフセットである。 (x i,j,k , y i,j,k ) are the coordinate offsets of adjacent samples with respect to the current sample.

[0110] いくつかの例においては、固定されたフィルタまたはシグナリングされたフィルタのフィルタ形状は、5×5、7×7、9×9、11×11、および13×13であり得る。図10Aは、5×5のダイヤモンドフィルタ形状である、フィルタ510の例を示しており、図10Bは、7×7のダイヤモンドフィルタ形状である、フィルタ520の例を示している。図10Cは、9×9のダイヤモンド形状フィルタ形状である、フィルタ530の例を示しており、図10Dは、11×11のダイヤモンドフィルタ形状である、フィルタ540の例を示している。図10Eは、13×13のダイヤモンドフィルタ形状である、フィルタ550の例を示している。 [0110] In some examples, the filter shapes of fixed filters or signaled filters may be 5x5, 7x7, 9x9, 11x11, and 13x13. FIG. 10A shows an example filter 510 that is a 5×5 diamond filter shape, and FIG. 10B shows an example filter 520 that is a 7×7 diamond filter shape. FIG. 10C shows an example filter 530 that is a 9×9 diamond filter shape, and FIG. 10D shows an example filter 540 that is an 11×11 diamond filter shape. FIG. 10E shows an example filter 550 that is a 13×13 diamond filter shape.

[0111] 一例においては、ビデオデコーダ300は、2-Dラプラシアン/勾配値に基づいて、分類器C(f/s,i)と、アクティビティ値および方向値とを決定するように構成され得る。分類器は、各サンプルまたはブロックに適用され得る。分類器が、ブロックに適用されるとき、ブロック内のすべてのサンプルは、同じクラスインデックスと、同じ転置型とを有する。たとえば、wiは、ブロックの幅を表すことができ、hiは、ブロックの高さを表すことができ、(x,y)は、ブロックの左上サンプルの座標を表すことができる。 [0111] In one example, video decoder 300 may be configured to determine classifier C(f/s,i) and activity and direction values based on 2-D Laplacian/gradient values. A classifier may be applied to each sample or block. When a classifier is applied to a block, all samples within the block have the same class index and the same transpose type. For example, w i can represent the width of the block, h i can represent the height of the block, and (x,y) can represent the coordinates of the top left sample of the block.

[0112] 座標(k,l)を有するサンプルについて、4つのラプラシアン(勾配)値、すなわち、水平勾配H、垂直勾配V、135度勾配D1、および45度勾配D2が、 [0112] For a sample with coordinates (k, l), four Laplacian (slope) values are: horizontal slope H, vertical slope V, 135 degree slope D1, and 45 degree slope D2:

Figure 2024501465000019
Figure 2024501465000019

として導出され得る。
(14)
[0113] ビデオデコーダ300は、
can be derived as
(14)
[0113] Video decoder 300 includes:

Figure 2024501465000020
Figure 2024501465000020

のように、垂直および水平勾配を使用することによって、アクティビティ値Aiを導出するように構成され得、ここで、aiおよびbiは、それぞれ、分類器C(f/s,i)についての水平方向および垂直方向における窓サイズである。 may be configured to derive the activity value A i by using the vertical and horizontal gradients as, where a i and b i are respectively for the classifier C(f/s,i) is the window size in the horizontal and vertical directions.

[0114] ビデオデコーダ300は、Aiを0以上MA,i-1以下の範囲に量子化するように構成され得る。量子化された値は、 [0114] Video decoder 300 may be configured to quantize A i to a range of 0 to M A,i -1. The quantized value is

Figure 2024501465000021
Figure 2024501465000021

と表される。 It is expressed as

[0115] ビデオデコーダ300は、水平勾配Hと、垂直勾配Vと、135度勾配D1と、45度勾配D2とを使用して、方向を決定するように構成され得る。 [0115] Video decoder 300 may be configured to determine direction using horizontal gradient H, vertical gradient V, 135 degree gradient D1, and 45 degree gradient D2.

[0116] ビデオデコーダ300は、次のように、水平勾配gi,Hと、垂直勾配gi,Vと、2つの対角線勾配gi,D1およびgi,D2との値を最初に計算するように構成され得る。 [0116] Video decoder 300 first calculates the values of a horizontal gradient g i,H , a vertical gradient g i,V , and two diagonal gradients g i,D1 and g i,D2 as follows. It can be configured as follows.

Figure 2024501465000022
Figure 2024501465000022

[0117] 方向性Diを割り当てるために、ビデオエンコーダ200およびビデオデコーダ300は、次のように、水平勾配と垂直勾配の最大値および最小値と、2つの対角線勾配の最大値および最小値とを導出するように構成され得る。 [0117] To allocate the directionality D i , video encoder 200 and video decoder 300 calculate the maximum and minimum values of the horizontal gradient and vertical gradient, the maximum and minimum values of the two diagonal gradients, and may be configured to derive.

Figure 2024501465000023
Figure 2024501465000023

次いで、VVCと同じように、方向Diが、導出され得、方向の数MD,i=5である。
ステップ1.
Then, similar to VVC, the directions D i can be derived, with the number of directions M D,i =5.
Step 1.

Figure 2024501465000024
Figure 2024501465000024

および and

Figure 2024501465000025
Figure 2024501465000025

の両方である場合、Diは、0に設定される(ブロックは、「テクスチャ」にカテゴライズされる)。
ステップ2.
If both, D i is set to 0 (the block is categorized as "texture").
Step 2.

Figure 2024501465000026
Figure 2024501465000026

である場合、ステップ3から続行し、それ以外の場合、ステップ4から続行する。
ステップ3.
If so, continue from step 3, otherwise continue from step 4.
Step 3.

Figure 2024501465000027
Figure 2024501465000027

である場合、Diは、2に設定され(ブロックは、「強い水平/垂直」としてカテゴライズされ)、それ以外の場合、Diは、1に設定される(ブロックは、「弱い水平/垂直」としてカテゴライズされる)。
ステップ4.
, then D i is set to 2 (the block is categorized as “strong horizontal/vertical”); otherwise, D i is set to 1 (the block is categorized as “weak horizontal/vertical”). ).
Step 4.

Figure 2024501465000028
Figure 2024501465000028

である場合、Diは、4に設定され(ブロックは、「強い対角線」としてカテゴライズされ)、それ以外の場合、Diは、3に設定される(ブロックは、「弱い対角線」としてカテゴライズされる)。 , then D i is set to 4 (the block is categorized as a "strong diagonal"); otherwise, D i is set to 3 (the block is categorized as a "weak diagonal"). ).

[0118] いくつかの例においては、より多くの方向が、サポートされ得る。 [0118] In some examples, more directions may be supported.

[0119] ビデオデコーダ300は、比率 [0119] Video decoder 300 has a ratio

Figure 2024501465000029
Figure 2024501465000029

を閾値の配列(Th)と比較することによって、水平/垂直方向のエッジ強度(ESi,HV)を計算するように構成され得る。しきい値の配列のサイズは、Sによって表され、しきい値は、昇順にソートされる。方角の数は、MD,i=(S+1)×(S+2)である。 The horizontal/vertical edge strength (ES i,HV ) may be configured to be calculated by comparing the horizontal/vertical edge strength (ES i,HV ) with an array of threshold values (Th). The size of the array of thresholds is represented by S, and the thresholds are sorted in ascending order. The number of directions is M D,i = (S+1) x (S+2).

ステップ1.m=0、ESi,HV=0と初期化する。 Step 1. Initialize m=0 and ES i,HV =0.

ステップ2.mが、Sに等しい場合、停止し、それ以外の場合、ステップ3に進む。 Step 2. If m is equal to S, stop, otherwise go to step 3.

ステップ3. Step 3.

Figure 2024501465000030
Figure 2024501465000030

である場合、m=m+1、ESi,HV=ESi,HV+1として、ステップ2に進み、それ以外の場合、停止する。 If so, set m=m+1, ES i,HV =ES i,HV +1, and proceed to step 2; otherwise, stop.

[0120] ビデオデコーダ300は、次のように、対角線方向方向(Ei,D)を計算するように構成され得る。 [0120] Video decoder 300 may be configured to calculate the diagonal direction (E i,D ) as follows.

ステップ1.m=0、Ei,D=0と初期化する。 Step 1. Initialize m=0 and E i,D =0.

ステップ2.mが、Sに等しい場合、停止し、それ以外の場合、ステップ3に進む。 Step 2. If m is equal to S, stop, otherwise go to step 3.

ステップ3. Step 3.

Figure 2024501465000031
Figure 2024501465000031

である場合、m=m+1、Ei,D=Ei,D+1として、ステップ2に進み、それ以外の場合、停止する。 If so, proceed to step 2 with m=m+1 and E i,D =E i,D +1; otherwise, stop.

[0121] 閾値の配列の例は、Th=[1.25,1.5,2,3,4.5,8]であり、S=6である。 [0121] An example of the arrangement of threshold values is Th=[1.25, 1.5, 2, 3, 4.5, 8] and S=6.

[0122] ビデオデコーダ300は、次のように、主エッジ強度(ESM)と、2次エッジ強度(ESS)とを決定するように構成され得る。 [0122] Video decoder 300 may be configured to determine a primary edge strength (ES M ) and a secondary edge strength (ES S ) as follows.

Figure 2024501465000032
Figure 2024501465000032

である場合、ESMは、ESHVとして設定され、ESSは、ESDとして設定され、それ以外の場合、ESMは、ESDとして設定され、ESSは、ESHVとして設定される。 , then ES M is set as ES HV and ES S is set as ES D ; otherwise, ES M is set as ES D and ES S is set as ES HV .

ESSが、ESMよりも大きい場合、Diは、0に設定される。それ以外の場合で、 If ES S is greater than ES M , D i is set to zero. In other cases,

Figure 2024501465000033
Figure 2024501465000033

である場合、Di=ESM×(ESM+1)/2+ESSであり、さもなければ、Di=ESM×(ESM+1)/2+ESS+MD,i/2である。 , then D i =ES M ×(ES M +1)/2+ES S , otherwise D i =ES M ×(ES M +1)/2+ES S +M D,i /2.

[0123] ビデオデコーダ300は、クラスインデックスCiを、 [0123] Video decoder 300 sets class index C i to

Figure 2024501465000034
Figure 2024501465000034

として導出するように構成され得る。 can be configured to derive as follows.

[0124] Ciに基づいて、ビデオエンコーダ200およびビデオデコーダ300は、フィルタセットF(f/s,i)からフィルタを選択するように構成され得る。 [0124] Based on C i , video encoder 200 and video decoder 300 may be configured to select a filter from filter set F(f/s,i).

[0125] 第2の段階のALF410の態様が、今から、より詳細に説明される。第2の段階のALF410においては、F’は、フィルタセットであり、C’は、対応する分類器である。中間フィルタリング結果が、現在サンプルと、それの隣接サンプルとを用いて、さらにフィルタリングされ得る。C’は、F’内のどのフィルタが適用されるか、および係数をどのように転置するかを決定するために、使用され得る。一例においては、F’は、シグナリングされたフィルタセット、または固定(事前定義)されたフィルタセットであり得る。一例においては、第1の段階と同じ方法で、アクティビティと、方向とを計算することによって、フィルタセットF’についてのフィルタインデックスを決定するために、C’は、Rsおよび/またはR’sを使用し得る。F’を適用するとき、転置が、適用され得る。 [0125] Aspects of the second stage ALF 410 will now be described in more detail. In the second stage ALF 410, F' is the filter set and C' is the corresponding classifier. The intermediate filtering result may be further filtered using the current sample and its neighboring samples. C' may be used to determine which filters in F' are applied and how to transpose the coefficients. In one example, F' may be a signaled filter set or a fixed (predefined) filter set. In one example, C' calculates Rs and/or R's to determine the filter index for filter set F' by calculating the activity and direction in the same way as in the first stage. Can be used. When applying F', a transposition may be applied.

[0126] 固定されたフィルタセットF(f,i)と、対応する分類器C(f,i)が、1つまたは複数の候補となる固定されたフィルタセットから選択され得る。一例においては、iを与えられると、固定されたフィルタセットF(f,i)および分類器C(f,i)について、いくつかの候補となる固定されたフィルタセットが、存在し得る。また、固定されたフィルタセットF(f,i)と、分類器C(f,i)は、ピクチャ/CTU/CU/PU/TUサイズ、量子化パラメータ(QP)、非ゼロ量子化係数の数、動きベクトル、および窓サイズ(ai,bi)などの、コーディング情報に基づいて、選択され得る。いくつかの例においては、F(f、i)ごとに、第iの固定されたフィルタセットについての候補となる固定されたフィルタセットから、どの固定されたフィルタセットが使用されるかを示すために、シンタックス要素が、シグナリングされ得る。シンタックス要素は、SPS、PPS、VPS、APS、ピクチャヘッダ(PH)、スライスヘッダ(SH)、サブピクチャ、CTU、またはブロックの一部として、シグナリングされ得る。いくつかの例においては、これらすべてのシンタックス要素が、同じ値を有することがあり、ただ1つのシンタックス要素が、シグナリングされる必要がある。いくつかの例においては、F(f,i)のために、1つの候補となる固定されたフィルタセットのみが、利用可能であることがあり、そのため、シンタックス要素は、シグナリングされる必要がない。 [0126] A fixed filter set F(f,i) and a corresponding classifier C(f,i) may be selected from one or more candidate fixed filter sets. In one example, given i, for fixed filter set F(f,i) and classifier C(f,i), there may be several candidate fixed filter sets. In addition, the fixed filter set F (f, i) and the classifier C (f, i) are based on the picture/CTU/CU/PU/TU size, the quantization parameter (QP), and the number of non-zero quantization coefficients. , motion vector, and window size (a i , b i ). In some examples, for each F(f, i), to indicate which fixed filter set is used from among the candidate fixed filter sets for the i-th fixed filter set. , a syntax element may be signaled. Syntax elements may be signaled as part of an SPS, PPS, VPS, APS, picture header (PH), slice header (SH), subpicture, CTU, or block. In some examples, all these syntax elements may have the same value and only one syntax element needs to be signaled. In some examples, only one candidate fixed filter set may be available for F(f,i), so the syntax element needs to be signaled. do not have.

[0127] 一例においては、NsおよびNfは、SPS、VPS、APS、PH、SH、CTU、またはサブブロックレベルなどの、高レベルにおいては、暗黙的に決定され、または明示的にシグナリングされ得る。 [0127] In one example, N s and N f are implicitly determined or explicitly signaled at a high level, such as the SPS, VPS, APS, PH, SH, CTU, or sub-block level. obtain.

[0128] ビデオデコーダ300は、複数の固定されたフィルタと、1つのシグナリングされたフィルタとを実施するように構成され得る。別の例においては、適応性を維持しながら、ビットストリームシグナリングオーバーヘッドを減らすために、ビデオエンコーダ200およびビデオデコーダ300は、図11に示されるように、複数の固定されたフィルタとともに、ただ1つのシグナリングされたフィルタを使用して、現在サンプルをフィルタリングするように構成され得る。 [0128] Video decoder 300 may be configured to implement multiple fixed filters and one signaled filter. In another example, to reduce bitstream signaling overhead while maintaining adaptability, video encoder 200 and video decoder 300 may be configured using only one filter, along with multiple fixed filters, as shown in FIG. The signaled filter may be configured to filter the current sample.

[0129] 図11は、本開示の技法に従った、1つのシグナリングされたフィルタを伴った、複数の固定されたフィルタを実施するための、例示的なフレームワークを示している。図11の例においては、ビデオエンコーダ200およびビデオデコーダ300は、再構築ブロックの再構築サンプルR(x,y)に第1の段階のALF540を適用する。第1の段階のALF540を適用するために、ビデオエンコーダ200およびビデオデコーダ300は、再構築サンプルについての第1のクラスインデックスを決定するために、分類器(C)を適用し、第1のクラスインデックスに基づいて、フィルタの第1のセット(F)からフィルタ(f)を選択する。ビデオエンコーダ200およびビデオデコーダ300は、第1の中間サンプル値(R’)を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用する。図11に示されるように、第1の段階540において、ビデオエンコーダ200およびビデオデコーダ300は、複数の中間サンプル値を決定するために、複数の分類器と、複数のフィルタとを使用し得る。 [0129] FIG. 11 illustrates an example framework for implementing multiple fixed filters with one signaled filter in accordance with the techniques of this disclosure. In the example of FIG. 11, video encoder 200 and video decoder 300 apply a first stage ALF 540 to reconstructed samples R(x,y) of the reconstructed block. To apply the first stage ALF 540, video encoder 200 and video decoder 300 apply a classifier (C) to determine a first class index for the reconstructed samples, and Select a filter (f) from the first set of filters (F) based on the index. Video encoder 200 and video decoder 300 apply filters from the first set of filters to the reconstructed samples to determine a first intermediate sample value (R'). As shown in FIG. 11, in a first stage 540, video encoder 200 and video decoder 300 may use classifiers and filters to determine intermediate sample values.

[0130] ビデオエンコーダ200およびビデオデコーダ300は、再構築サンプルに、第2の段階のALF542を適用する。以下の式(28)は、ビデオエンコーダ200およびビデオデコーダ300が、第2の段階のALFをどのように適用し得るかの例を示す。 [0130] Video encoder 200 and video decoder 300 apply second stage ALF 542 to the reconstructed samples. Equation (28) below shows an example of how video encoder 200 and video decoder 300 may apply the second stage ALF.

[0131] Nfは、サンプルに適用され得る、固定(事前定義)されたフィルタセットの数を表す。Rsは、ALFへの入力である。F(f,i)、i=0...Nf-1は、第iの固定されたフィルタセットを表す。C(f,i)、i=0...Nf-1は、第iの固定されたフィルタセットと一緒の分類器を表す。C(f,i)を通して、サンプルごとに、フィルタインデックスが、計算される。フィルタインデックスに基づいて、固定されたフィルタセットF(f,i)からのフィルタが、そのサンプルをフィルタリングするために、選択される。加えて、C(f,i)は、係数に幾何学的変換をどのように適用するかを決定する。 [0131] N f represents the number of fixed (predefined) filter sets that may be applied to the samples. Rs is the input to ALF. F(f,i), i=0. .. .. N f −1 represents the i-th fixed filter set. C(f,i), i=0. .. .. N f -1 represents the classifier with the i-th fixed filter set. A filter index is calculated for each sample through C(f,i). Based on the filter index, a filter from the fixed filter set F(f,i) is selected to filter the sample. In addition, C(f,i) determines how to apply geometric transformations to the coefficients.

[0132] 第1の段階が、今から、説明される。第1の段階においては、再構築サンプルR(x,y)について、再構築サンプル自体と、隣接サンプルとを使用することによって、ビデオエンコーダ200およびビデオデコーダ300は、複数の固定されたフィルタセットを適用するように構成され得る。固定されたフィルタセットF(f,i)を与えられると、ビデオエンコーダ200およびビデオデコーダ300は、分類器C(f,i)を適用し得る。導出されたクラスインデックスに基づいて、ビデオエンコーダ200およびビデオデコーダ300は、フィルタセットF(f,i)からのフィルタを適用し得る。加えて、幾何学的変換が、C(f,i)において決定され、幾何学的変換が、選択されたフィルタの係数に適用され得る。第1の段階の後、各フィルタセットおよび対応する分類器について、ビデオエンコーダ200およびビデオデコーダ300は、たとえば、次のように、中間フィルタリング信号R’を計算し得る。 [0132] The first stage will now be described. In the first stage, for the reconstructed sample R(x,y), the video encoder 200 and the video decoder 300 construct a plurality of fixed filter sets by using the reconstructed sample itself and adjacent samples. may be configured to apply. Given a fixed filter set F(f,i), video encoder 200 and video decoder 300 may apply a classifier C(f,i). Based on the derived class index, video encoder 200 and video decoder 300 may apply filters from filter set F(f,i). Additionally, a geometric transformation may be determined in C(f,i) and the geometric transformation may be applied to the coefficients of the selected filter. After the first stage, for each filter set and corresponding classifier, video encoder 200 and video decoder 300 may calculate an intermediate filtered signal R', for example, as follows.

Figure 2024501465000035
Figure 2024501465000035

[0133] 第iのフィルタ、i=0...Nf-1について、ci,jは、第iのフィルタセットF(f,i)から選択されたフィルタの第jの係数であり、Niは、係数の数であり、fi,j,k、k=0または1は、1つの隣接サンプルと現在サンプルとの関数であり、たとえば、fi,j,kは、VVCにおけるように、クリッピング関数として実施され得る。 [0133] i-th filter, i=0. .. .. For N f −1, c i,j is the j-th coefficient of the filter selected from the i-th filter set F(f,i), N i is the number of coefficients, and f i,j ,k , k=0 or 1 is a function of one neighboring sample and the current sample, for example f i,j,k can be implemented as a clipping function, as in VVC.

Figure 2024501465000036
Figure 2024501465000036

(xi,j,k,yi,j,k)は、現在サンプルに対する、隣接サンプルの座標オフセットであり、bi,jは、第iのフィルタセットから選択されたフィルタの第jのクリッピングパラメータである。 (x i,j,k , y i,j,k ) is the coordinate offset of the adjacent sample with respect to the current sample, and b i,j is the jth clipping of the selected filter from the i-th filter set. It is a parameter.

[0134] いくつかの例においては、固定されたフィルタまたはシグナリングされたフィルタのフィルタ形状は、図9に示されるように、5×5、7×7、9×9、11×11、および13×13であり得る。 [0134] In some examples, the filter shapes of the fixed or signaled filters are 5x5, 7x7, 9x9, 11x11, and 13 as shown in FIG. It can be ×13.

[0135] 一例においては、ビデオエンコーダ200およびビデオデコーダ300は、分類器C(f,i)において、2-Dラプラシアン値に基づいて、アクティビティ値と、方向値とを決定し得る。分類器は、各サンプルまたはブロックに適用され得る。分類器が、ブロックに適用されるとき、ブロック内のすべてのサンプルは、同じクラスインデックスと、同じ転置型とを有する。たとえば、wiは、ブロックの幅を表すことができ、hiは、ブロックの高さを表すことができ、(x,y)は、ブロックの左上サンプルの座標を表すことができる。 [0135] In one example, video encoder 200 and video decoder 300 may determine activity values and direction values based on 2-D Laplacian values in classifier C(f,i). A classifier may be applied to each sample or block. When a classifier is applied to a block, all samples within the block have the same class index and the same transpose type. For example, w i can represent the width of the block, h i can represent the height of the block, and (x,y) can represent the coordinates of the top left sample of the block.

[0136] 座標(k,l)を有するサンプルについて、ビデオエンコーダ200およびビデオデコーダ300は、次のように、4つのラプラシアン(勾配)値、すなわち、水平勾配H、垂直勾配V、135度勾配D1、および45度勾配D2を導出するように構成され得る。 [0136] For a sample with coordinates (k,l), video encoder 200 and video decoder 300 calculate four Laplacian (gradient) values: horizontal gradient H, vertical gradient V, 135 degree gradient D1, as follows: , and a 45 degree slope D2.

Figure 2024501465000037
Figure 2024501465000037

[0137] ビデオエンコーダ200およびビデオデコーダ300は、次のように、垂直勾配および水平勾配を使用することによって、アクティビティ値Aiを導出し得る。 [0137] Video encoder 200 and video decoder 300 may derive activity values A i by using vertical and horizontal gradients as follows.

Figure 2024501465000038
Figure 2024501465000038

ここで、aiおよびbiは、それぞれ、分類器C(f,i)についての水平方向および垂直方向における窓サイズである。 Here, a i and b i are the window sizes in the horizontal and vertical directions for the classifier C(f,i), respectively.

[0138] ビデオエンコーダ200およびビデオデコーダ300は、Aiを0以上MA,i-1以下の範囲に量子化するように構成され得、量子化された値は、 [0138] Video encoder 200 and video decoder 300 may be configured to quantize A i to a range of 0 to M A,i -1, and the quantized value is

Figure 2024501465000039
Figure 2024501465000039

と表される。 It is expressed as

[0139] 一例においては、 [0139] In one example,

Figure 2024501465000040
Figure 2024501465000040

bitdepthは、R(x,y)のビット深度であり、multiは、窓サイズ(ai,bi)に依存し得、multiは、以下の値と等しくなり得る。 bitdepth is the bit depth of R(x,y), mult i may depend on the window size (a i , b i ), and mult i may be equal to the following values:

Figure 2024501465000041
Figure 2024501465000041

[0140] ビデオエンコーダ200およびビデオデコーダ300は、水平勾配Hと、垂直勾配Vと、135度勾配D1と、45度勾配D2とを使用することによって、方向を決定するように構成され得る。 [0140] Video encoder 200 and video decoder 300 may be configured to determine direction by using horizontal gradient H, vertical gradient V, 135 degree gradient D1, and 45 degree gradient D2.

[0141] ビデオエンコーダ200およびビデオデコーダ300は、次のように、水平勾配gi,Hと、垂直勾配gi,Vと、2つの対角線勾配gi,D1およびgi,D2との値を最初に計算するように構成され得る。 [0141] Video encoder 200 and video decoder 300 calculate the values of horizontal gradient g i,H , vertical gradient g i,V , and two diagonal gradients g i,D1 and g i,D2 as follows. It may be configured to calculate first.

Figure 2024501465000042
Figure 2024501465000042

[0142] 方向性Diを割り当てるために、ビデオエンコーダ200およびビデオデコーダ300は、次のように、水平勾配と垂直勾配の最大値および最小値と、2つの対角線勾配の最大値および最小値とを導出するように構成され得る。 [0142] To allocate the directionality D i , video encoder 200 and video decoder 300 calculate the maximum and minimum values of the horizontal gradient and vertical gradient, the maximum and minimum values of the two diagonal gradients, and may be configured to derive.

Figure 2024501465000043
Figure 2024501465000043

[0143] 次いで、ビデオエンコーダ200およびビデオデコーダ300は、次のように、方向Diを導出するように構成され得、方向の数MD,i=5である。
ステップ1.
[0143] Video encoder 200 and video decoder 300 may then be configured to derive directions D i as follows, where the number of directions M D,i =5.
Step 1.

Figure 2024501465000044
Figure 2024501465000044

および and

Figure 2024501465000045
Figure 2024501465000045

の両方である場合、Diは、0に設定される(ブロックは、「テクスチャ」にカテゴライズされる)。
ステップ2.
If both, D i is set to 0 (the block is categorized as "texture").
Step 2.

Figure 2024501465000046
Figure 2024501465000046

である場合、ステップ3から続行し、それ以外の場合、ステップ4から続行する。
ステップ3.
If so, continue from step 3, otherwise continue from step 4.
Step 3.

Figure 2024501465000047
Figure 2024501465000047

である場合、Diは、2に設定され(ブロックは、「強い水平/垂直」としてカテゴライズされ)、それ以外の場合、Diは、1に設定され(ブロックは、「弱い水平/垂直」としてカテゴライズされる)。
ステップ4.
, then D i is set to 2 (the block is categorized as "strong horizontal/vertical"), otherwise D i is set to 1 (the block is categorized as "weak horizontal/vertical") ).
Step 4.

Figure 2024501465000048
Figure 2024501465000048

である場合、Diは、4に設定され(ブロックは、「強い対角線」としてカテゴライズされ)、それ以外の場合、Diは、3に設定される。(ブロックは、「弱い対角線」としてカテゴライズされる)。 , then D i is set to 4 (the block is categorized as a “strong diagonal”); otherwise, D i is set to 3. (The block is categorized as a "weak diagonal").

[0144] いくつかの例においては、より多くの方向が、サポートされ得る。 [0144] In some examples, more directions may be supported.

[0145] ビデオエンコーダ200およびビデオデコーダ300は、比率 [0145] Video encoder 200 and video decoder 300 have a ratio

Figure 2024501465000049
Figure 2024501465000049

を閾値の配列(Th)と比較することによって、水平/垂直方向のエッジ強度(ESi,HV)を計算するように構成され得る。しきい値の配列のサイズは、Sであることができ、しきい値は、昇順にソートされ得る。方角の数は、MD,i=(S+1)×(S+2)である。 The horizontal/vertical edge strength (ES i,HV ) may be configured to be calculated by comparing the horizontal/vertical edge strength (ES i,HV ) with an array of threshold values (Th). The size of the array of thresholds may be S, and the thresholds may be sorted in ascending order. The number of directions is M D,i = (S+1) x (S+2).

ステップ1.m=0、ESi,HV=0と初期化する。 Step 1. Initialize m=0 and ES i,HV =0.

ステップ2.mが、Sに等しい場合、停止し、それ以外の場合、ステップ3に進む。 Step 2. If m is equal to S, stop, otherwise go to step 3.

ステップ3. Step 3.

Figure 2024501465000050
Figure 2024501465000050

である場合、m=m+1、ESi,HV=ESi,HV+1として、ステップ2に進み、それ以外の場合、停止する。 If so, set m=m+1, ES i,HV =ES i,HV +1, and proceed to step 2; otherwise, stop.

[0146] ビデオエンコーダ200およびビデオデコーダ300は、次のように、対角線方向(Ei,D)を計算するように構成され得る。 [0146] Video encoder 200 and video decoder 300 may be configured to calculate the diagonal direction (E i,D ) as follows.

ステップ1.m=0、Ei,D=0と初期化する。 Step 1. Initialize m=0 and E i,D =0.

ステップ2.mが、Sに等しい場合、停止し、それ以外の場合、ステップ3に進む。 Step 2. If m is equal to S, stop, otherwise go to step 3.

ステップ3. Step 3.

Figure 2024501465000051
Figure 2024501465000051

である場合、m=m+1、Ei,D=Ei,D+1として、ステップ2に進み、それ以外の場合、停止する。 If so, proceed to step 2 with m=m+1 and E i,D =E i,D +1; otherwise, stop.

[0147] 閾値の配列の例は、Th=[1.25,1.5,2,3,4.5,8]であり、S=6である。 [0147] An example of the arrangement of threshold values is Th=[1.25, 1.5, 2, 3, 4.5, 8] and S=6.

[0148] ビデオエンコーダ200およびビデオデコーダ300は、次のように、主エッジ強度(ESM)と、2次エッジ強度(ESS)とを決定するように構成され得る。 [0148] Video encoder 200 and video decoder 300 may be configured to determine a primary edge strength (ES M ) and a secondary edge strength (ES S ) as follows.

Figure 2024501465000052
Figure 2024501465000052

である場合、ESMは、ESHVとして設定され、ESSは、ESDとして設定され、それ以外の場合、ESMは、ESDとして設定され、ESSは、ESHVとして設定される。 , then ES M is set as ES HV and ES S is set as ES D ; otherwise, ES M is set as ES D and ES S is set as ES HV .

ESSが、ESMよりも大きい場合、Diは、0に設定される。それ以外の場合で、 If ES S is greater than ES M , D i is set to zero. In other cases,

Figure 2024501465000053
Figure 2024501465000053

である場合、Di=ESM×(ESM+1)/2+ESSであり、さもなければ、Di=ESM×(ESM+1)/2+ESS+MD,i/2である。 , then D i =ES M ×(ES M +1)/2+ES S , otherwise D i =ES M ×(ES M +1)/2+ES S +M D,i /2.

クラスインデックスCiは、 The class index C i is

Figure 2024501465000054
Figure 2024501465000054

として導出され得る。 can be derived as

iに基づいて、C(f,i)からのフィルタが、選択される。 Based on C i , filters from C(f,i) are selected.

[0149] ビデオエンコーダ200およびビデオデコーダ300は、1つまたは複数の候補となる固定されたフィルタセットから、固定されたフィルタセットF(f,i)と、対応する分類器C(f,i)とを選択し得る。一例においては、iを与えられると、固定されたフィルタセットF(f,i)および分類器C(f,i)について、いくつかの候補となる固定されたフィルタセットが、存在し得る。また、固定されたフィルタセットF(f,i)と、分類器C(f,i)は、ピクチャ/CTU/CU/PU/TUサイズ、QP、非ゼロ量子化係数の数、動きベクトル、および窓サイズ(ai,bi)などの、コーディング情報に基づいて、選択され得る。いくつかの例においては、F(f、i)ごとに、第iの固定されたフィルタセットについての候補となる固定されたフィルタセットから、どの固定されたフィルタセットが使用されるかを示すために、シンタックス要素が、シグナリングされ得る。シンタックス要素は、SPS、PPS、VPS、APS、PH、SH、サブピクチャ、CTU、またはブロックレベルで、シグナリングされ得る。いくつかの例においては、これらすべてのシンタックス要素が、同じ値を有することがあり、ただ1つのシンタックス要素が、シグナリングされる必要がある。いくつかの例においては、候補となる固定されたフィルタセットは、1つの固定されたフィルタセットのみを有することがあり、そのため、シンタックス要素は、シグナリングされる必要がない。 [0149] Video encoder 200 and video decoder 300 select a fixed filter set F(f,i) and a corresponding classifier C(f,i) from one or more candidate fixed filter sets. and can be selected. In one example, given i, for fixed filter set F(f,i) and classifier C(f,i), there may be several candidate fixed filter sets. In addition, the fixed filter set F(f,i) and the classifier C(f,i) are based on the picture/CTU/CU/PU/TU size, QP, the number of non-zero quantization coefficients, the motion vector, and The selection may be based on coding information, such as window size (a i , b i ). In some examples, for each F(f, i), to indicate which fixed filter set is used from among the candidate fixed filter sets for the i-th fixed filter set. , a syntax element may be signaled. Syntax elements may be signaled at the SPS, PPS, VPS, APS, PH, SH, subpicture, CTU, or block level. In some examples, all these syntax elements may have the same value and only one syntax element needs to be signaled. In some examples, the candidate fixed filter set may have only one fixed filter set, so no syntax element needs to be signaled.

[0150] 一例においては、窓サイズ(ai,bi)を与えられると、すべての利用可能な固定されたフィルタの数は、Tである。たとえば、QPは、現在サンプルの量子化パラメータを表すことができ、QP_MIN、QP_MAX、およびQP_OFFSETは、事前定義された値である。2つの候補となる固定されたフィルタセットのインデックスは、 [0150] In one example, given the window size (a i , b i ), the number of all available fixed filters is T. For example, QP may represent the quantization parameter of the current sample, and QP_MIN, QP_MAX, and QP_OFFSET are predefined values. The indices of the two candidate fixed filter sets are:

Figure 2024501465000055
Figure 2024501465000055

として決定され得る。F(f,i)のために、第l0の候補となる固定されたフィルタセットが使用されるか、それとも第l1の候補となる固定されたフィルタセットが使用されるかを示すために、シンタックス要素が、シグナリングされ得る。いくつかの例においては、すべての固定されたフィルタセットは、同じシンタックス要素を共有し得る。 can be determined as To indicate whether for F(f,i), the l0th candidate fixed filter set or the l1th candidate fixed filter set is used. , syntax elements may be signaled. In some examples, all fixed filter sets may share the same syntax elements.

[0151] 第2の段階の態様が、今から、説明される。第2の段階においては、F’は、シグナリングされたフィルタまたは事前定義されたフィルタセットであり、C’は、対応する分類器である。中間フィルタリング結果は、現在サンプルおよび/またはそれの隣接サンプルを用いて、さらにフィルタリングされ得る。C’は、F’内のどのフィルタが適用されるか、および係数をどのように転置するかを決定するために、使用され得る。第1の段階のように、アクティビティと、方向とを計算することによって、フィルタセットF’についてのフィルタインデックスを決定するために、C’は、Rsおよび/またはR’sを使用し得る。F’を適用するとき、転置が、適用され得る。 [0151] Aspects of the second stage will now be described. In the second stage, F' is the signaled filter or predefined filter set and C' is the corresponding classifier. The intermediate filtering result may be further filtered using the current sample and/or its neighboring samples. C' may be used to determine which filters in F' are applied and how to transpose the coefficients. As in the first stage, C' may use Rs and/or R's to determine the filter index for filter set F' by calculating the activity and direction. When applying F', a transposition may be applied.

[0152] 一例においては、座標(k,l)を有するサンプルについて、4つのラプラシアン(勾配)値、すなわち、水平勾配H、垂直勾配V、135度勾配D1、および45度勾配D2が、 [0152] In one example, for a sample with coordinates (k, l), four Laplacian (slope) values: horizontal slope H, vertical slope V, 135 degree slope D1, and 45 degree slope D2 are:

Figure 2024501465000056
Figure 2024501465000056

として導出され得る。 can be derived as

[0153] ビデオエンコーダ200およびビデオデコーダ300は、次のように、垂直および水平勾配を使用することによって、アクティビティ値Aを導出するように構成され得、 [0153] Video encoder 200 and video decoder 300 may be configured to derive an activity value A by using vertical and horizontal gradients as follows:

Figure 2024501465000057
Figure 2024501465000057

ここで、aおよびbは、それぞれ、分類器C’についての水平方向および垂直方向における窓サイズであり、wおよびhは、すべてのサンプルが、同じ分類インデックスと、同じ転置インデックスとを有するブロックの幅および高さである。 Here, a and b are the window sizes in the horizontal and vertical directions, respectively, for the classifier C', and w and h are the block sizes in which all samples have the same classification index and the same transposed index. width and height.

[0154] ビデオエンコーダ200およびビデオデコーダ300は、Aを0以上MA-1以下の範囲に量子化するように構成され得、量子化された値は、 [0154] Video encoder 200 and video decoder 300 may be configured to quantize A to a range of 0 to M A -1, and the quantized value is

Figure 2024501465000058
Figure 2024501465000058

と表される。たとえば、 It is expressed as for example,

Figure 2024501465000059
Figure 2024501465000059

bitdepthは、R(x,y)のビット深度であり、multは、窓サイズa×bに依存し得、multは、以下の値と等しくなり得る。 bitdepth is the bit depth of R(x,y), mult may depend on the window size a×b, and mult may be equal to the following value:

Figure 2024501465000060
Figure 2024501465000060

[0155] 方向と、転置をどのように実行するかは、それらのすべてが参照によって本明細書に組み込まれる、米国特許公開第2017/0238020A1号、米国特許公開第2017/0237981A1号、または米国特許公開第2017/0237982A1号において説明されている方式で計算され得る。 [0155] Directions and how to perform the transposition can be found in U.S. Patent Publication No. 2017/0238020A1, U.S. Patent Publication No. 2017/0237981A1, or U.S. Pat. It may be calculated in the manner described in Publication No. 2017/0237982A1.

[0156] フィルタリングのさらなる態様が、今から、説明される。C’からサンプルのクラスインデックスを取得した後、ビデオエンコーダ200およびビデオデコーダ300は、クラスインデックスに基づいて、フィルタセットF’からフィルタを選択するように構成され得る。ビデオエンコーダ200およびビデオデコーダ300は、 [0156] Further aspects of filtering will now be described. After obtaining the class index of the sample from C', video encoder 200 and video decoder 300 may be configured to select a filter from filter set F' based on the class index. Video encoder 200 and video decoder 300 are

Figure 2024501465000061
Figure 2024501465000061

のように、フィルタを適用するように構成され得る。 may be configured to apply a filter, such as.

(28)においては、フィルタリングは、2つの部分に分けられている。
・フィルタ部分1:
In (28), the filtering is divided into two parts.
・Filter part 1:

Figure 2024501465000062
Figure 2024501465000062

:隣接サンプルを使用することによって、フィルタリングし、幾何学的変換が、適用され得、N0は、適用されるフィルタ形状の係数の数である。フィルタは、図9に示されるような、5×5、7×7、9×9、11×11、または13×13のダイヤモンドフィルタであり得る。
・フィルタ部分2:
: By using neighboring samples filtering, a geometric transformation can be applied, where N 0 is the number of coefficients of the applied filter shape. The filter may be a 5×5, 7×7, 9×9, 11×11, or 13×13 diamond filter, as shown in FIG.
・Filter part 2:

Figure 2024501465000063
Figure 2024501465000063

:中間的にフィルタリングされたサンプルを使用することによって、フィルタリングし、幾何学的変換が、適用され得る。N0およびN1は、潜在的に一意的な係数の数を表す。 : By using intermediate filtered samples, filtering and geometric transformations can be applied. N 0 and N 1 represent the number of potentially unique coefficients.

関数fi,j、j=0または1は、 The function f i,j , j=0 or 1 is

Figure 2024501465000064
Figure 2024501465000064

のように、クリッピング関数を用いて定義され得る。 can be defined using a clipping function, such as

関数giは、 The function g i is

Figure 2024501465000065
Figure 2024501465000065

のように、クリッピング関数を用いて定義され得る。 can be defined using a clipping function, such as

iは、係数ciに対応する、クリッピングパラメータである。 b i is a clipping parameter corresponding to coefficient c i .

[0157] 図12A~図12Eは、2部分フィルタの例を示している。図12Aは、フィルタ部分1(フィルタ560)が、5×5 N1=7であり、フィルタ部分2(フィルタ562)については、N1=2である、例を示している。図12Bは、フィルタ部分1(フィルタ564)が、7×7 N0=13であり、フィルタ部分2(フィルタ566)については、N1=2である、例を示している。図12Cは、フィルタ部分1(フィルタ568)が、9×9 N1=21であり、フィルタ部分2(フィルタ570)については、N1=2である、例を示している。図12Dは、フィルタ部分1(フィルタ572)が、11×11 N1=31であり、フィルタ部分2(フィルタ574)については、N1=2である、例を示している。図12Eは、フィルタ部分1(フィルタ576)が13×13 N1=43であり、フィルタ部分2(フィルタ578)については、N1=2である、例を示している。 [0157] Figures 12A-12E illustrate examples of two-part filters. FIG. 12A shows an example where filter portion 1 (filter 560) is 5×5 N 1 =7 and for filter portion 2 (filter 562) N 1 =2. FIG. 12B shows an example where filter portion 1 (filter 564) is 7×7 N 0 =13 and for filter portion 2 (filter 566) N 1 =2. FIG. 12C shows an example where filter portion 1 (filter 568) is 9×9 N 1 =21 and for filter portion 2 (filter 570) N 1 =2. FIG. 12D shows an example where filter portion 1 (filter 572) is 11×11 N 1 =31 and for filter portion 2 (filter 574) N 1 =2. FIG. 12E shows an example where filter portion 1 (filter 576) is 13×13 N 1 =43 and for filter portion 2 (filter 578) N 1 =2.

[0158] いくつかの例においては、N0および/またはN1の値は、明示的にシグナリングされ、またはSPS、VPS、PPS、APS、PH、SH、サブピクチャヘッダ、もしくはブロックレベルで、暗黙的に決定され得る。 [0158] In some examples, the values of N 0 and/or N 1 are explicitly signaled or implicitly signaled at the SPS, VPS, PPS, APS, PH, SH, subpicture header, or block level. can be determined.

[0159] いくつかの例においては、フラグは、明示的にシグナリングされ、またはこのフラグが、1つの値に等しいとき、すべての係数ci、i=0...N0-1と、クリッピングパラメータbi、i=0...N0-1が、シグナリング/使用されるとは限らず、0であると推論されるように、SPS、VPS、PPS、APS、PH、SH、サブピクチャヘッダ、ブロックレベル、もしくはフィルタレベルで、暗黙的に決定され得る。 [0159] In some examples, a flag is explicitly signaled, or when this flag is equal to one value, all coefficients c i , i=0 . .. .. N 0 −1 and clipping parameter b i , i=0. .. .. At the SPS, VPS, PPS, APS, PH, SH, sub-picture header, block level, or filter level, N 0 -1 is not necessarily signaled/used and is inferred to be 0. May be determined implicitly.

[0160] いくつかの例においては、フラグは、明示的にシグナリングされ、またはこのフラグが、1つの値に等しいとき、すべての係数ci、i=N0...N0+N1-1と、クリッピングパラメータbi、i=N0...N0+N1-1が、シグナリング/使用されるとは限らず、0であると推論されるように、SPS、VPS、PPS、APS、PH、SH、サブピクチャヘッダ、ブロックレベル、もしくはフィルタレベルで、暗黙的に決定され得る。 [0160] In some examples, a flag is explicitly signaled or when this flag is equal to one value, all coefficients c i , i=N 0 . .. .. N 0 +N 1 -1 and clipping parameter b i , i=N 0 . .. .. SPS, VPS, PPS, APS, PH, SH, sub-picture header, block level or filter level so that N 0 +N 1 -1 is not necessarily signaled/used and is inferred to be 0. can be determined implicitly.

[0161] 1つのフィルタセットにおいて、N0の値は、フィルタごとに異なり得る。1つのフィルタセットにおいては、N1の値は、フィルタごとに異なり得る。 [0161] In one filter set, the value of N 0 may be different from filter to filter. In one filter set, the value of N 1 may be different from filter to filter.

[0162] 本開示は、ALF性能が、JVET-U0100、および米国仮特許出願第63/130,275号において説明されている技法よりも改善され得ることを認識している。第1の段階からのフィルタリングされたサンプルのみが、好まれ、第2の段階におけるフィルタリングが、必要とされないとき、F’のフィルタ係数ci、i=0...N0-2は、依然として、シグナリングされ、それらは、すべてゼロである。しかしながら、これらすべてのゼロ係数をシグナリングすることが、必要であるとは限らない。したがって、コーディング効率を改善するために、代替的なシグナリングプロセスが、適用され得る。 [0162] This disclosure recognizes that ALF performance may be improved over the techniques described in JVET-U0100 and US Provisional Patent Application No. 63/130,275. When only filtered samples from the first stage are preferred and no filtering in the second stage is required, the filter coefficients c i of F', i=0. .. .. N 0 -2 are still signaled and they are all zeros. However, it may not be necessary to signal all these zero coefficients. Therefore, alternative signaling processes may be applied to improve coding efficiency.

[0163] いくつかの例においては、ビデオエンコーダ200およびビデオデコーダ300は、固定されたフィルタのみを使用するのではなく、ビットストリーム内に1つまたは複数のフィルタF(f,i)を表すデータをコーディングするように構成され得る。加えて、または代替として、ビデオエンコーダ200およびビデオデコーダ300は、上で論じられたようなフィルタリングの第2の段階を実行するかどうかを決定するように構成され得る。第2の段階が、実行されないとき、ビデオエンコーダ200およびビデオデコーダ300は、第2の段階中に適用される1つまたは複数のフィルタについての係数をコーディング(符号化および/または復号)することを回避し得、それが、ビットストリームにおけるシグナリングオーバーヘッドと、ビデオエンコーダ200とビデオデコーダ300の両方によって実行される処理とを減らし得る。 [0163] In some examples, video encoder 200 and video decoder 300 include data representing one or more filters F(f,i) in the bitstream, rather than using only fixed filters. may be configured to code. Additionally or alternatively, video encoder 200 and video decoder 300 may be configured to determine whether to perform a second stage of filtering as discussed above. When the second stage is not performed, video encoder 200 and video decoder 300 are configured to code coefficients for one or more filters applied during the second stage. This may reduce signaling overhead in the bitstream and processing performed by both video encoder 200 and video decoder 300.

[0164] 図13は、本開示の技法に従った、例示的なALFフレームワークを示す概念図である。ビデオデコーダ300は、図3に関して説明された技法を実行するように構成され得る。図13に示されるように、例示的なALFフレームワークは、第1の段階580と第2の段階582の両方を含む。本開示の技法によれば、ビデオエンコーダ200およびビデオデコーダ300は、第2の段階が実行されるべきかどうかを決定するために、フィルタ使用情報を使用し得る。第2の段階が、実行されるべきでないとき、ビデオエンコーダ200およびビデオデコーダ300は、図13に示されるように、第2の段階におけるフィルタリング(C’、F’)をバイパスし得る。したがって、ビデオエンコーダ200およびビデオデコーダ300は、フィルタリングされたサンプルを計算するために、第1の段階からの中間フィルタリングサンプル(R’(x,y,0)...R’(x,y,Nf-1))のみを使用し得る。 [0164] FIG. 13 is a conceptual diagram illustrating an example ALF framework in accordance with the techniques of this disclosure. Video decoder 300 may be configured to perform the techniques described with respect to FIG. As shown in FIG. 13, the example ALF framework includes both a first stage 580 and a second stage 582. According to the techniques of this disclosure, video encoder 200 and video decoder 300 may use filter usage information to determine whether the second stage should be performed. When the second stage is not to be performed, video encoder 200 and video decoder 300 may bypass filtering (C', F') in the second stage, as shown in FIG. 13. Therefore, video encoder 200 and video decoder 300 calculate intermediate filtered samples (R'(x,y,0)...R'(x,y, Only N f −1)) can be used.

[0165] さらに、ビデオデコーダ300は、たとえば、 [0165] Further, video decoder 300, for example,

Figure 2024501465000066
Figure 2024501465000066

に従って、様々なフィルタからの中間フィルタリングサンプルの加重和を計算し得、ここで、wiは、R’(x,y,i)の重みである。 Accordingly, a weighted sum of intermediate filtered samples from various filters may be calculated, where w i are the weights of R'(x,y,i).

[0166] いくつかの例においては、フィルタ使用情報は、シーケンス、ピクチャ、スライス、サブピクチャ、CTU、CTB、またはサブブロックレベルで、シグナリングされ得る。たとえば、ビデオエンコーダ200およびビデオデコーダ300は、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、スライスヘッダ、サブピクチャヘッダ、コーディングツリーユニット(CTU)ヘッダ、コーディングツリーブロック(CTB)ヘッダ、またはサブブロックヘッダのうちの1つまたは複数内に、フィルタ使用情報をコーディングし得る。 [0166] In some examples, filter usage information may be signaled at the sequence, picture, slice, subpicture, CTU, CTB, or subblock level. For example, video encoder 200 and video decoder 300 may use sequence parameter sets (SPS), picture parameter sets (PPS), slice headers, subpicture headers, coding tree unit (CTU) headers, coding tree block (CTB) headers, or Filter usage information may be coded within one or more of the block headers.

[0167] 別の例においては、フィルタ使用情報は、シグナリングされないことがある。代わりに、ビデオデコーダ300は、量子化パラメータ(QP)、ブロックサイズ、インター/イントラモード、または他のそのようなデータなどの、コーディング情報に基づいて、フィルタ使用情報を適応的に導出し得る。 [0167] In another example, filter usage information may not be signaled. Instead, video decoder 300 may adaptively derive filter usage information based on coding information, such as quantization parameter (QP), block size, inter/intra mode, or other such data.

[0168] 重みwi、i=0...Nf-1は、フィルタ使用情報の値を与えられると、固定され得、またはビデオエンコーダ200およびビデオデコーダ300は、シーケンス、ピクチャ、スライス、サブピクチャ、CTU、CTB、サブブロックレベルで、ビットストリーム内に、重みについての値をコーディングし得る。重みwiのいくつかの組合せが、使用され得、現在サンプルのために、重みのどの組合せが使用されるかを決定するために、フィルタ使用情報が、使用され得る。 [0168] Weight w i , i=0. .. .. N f −1 may be fixed given the value of the filter usage information, or the video encoder 200 and video decoder 300 may determine the bitstream at the sequence, picture, slice, subpicture, CTU, CTB, subblock level. A value for the weight can be coded within. Several combinations of weights w i may be used, and filter usage information may be used to determine which combination of weights is used for the current sample.

[0169] 一例においては、第1のフラグが、シグナリングされ得る。この第1のフラグが、1に等しいとき、ビデオエンコーダ200およびビデオデコーダ300は、値(C’、F’)をバイパスし得る。次いで、第2のフラグが、シグナリングされ得る。ビデオエンコーダ200およびビデオデコーダ300は、第2のフラグの値を、重みwi、i=0...Nf-1の組合せと関連付け得る。たとえば、第2のフラグが、iに等しく、iが、0...Nf-1であることができるとき、R’(x,y,i)が、フィルタリングされたサンプルとして、使用され得る。 [0169] In one example, a first flag may be signaled. When this first flag is equal to 1, video encoder 200 and video decoder 300 may bypass the value (C', F'). A second flag may then be signaled. Video encoder 200 and video decoder 300 set the value of the second flag to weight w i , i=0. .. .. It can be associated with N f −1 combinations. For example, if the second flag is equal to i and i is 0. .. .. When N f -1, R'(x,y,i) can be used as the filtered sample.

[0170] 図14は、本開示の技法に従った、別の例示的なALFフレームワークを示す概念図である。ビデオエンコーダ200およびビデオデコーダ300は、図14に関して説明された技法に従って、構成され得る。特に、図14においては、フィルタリングされたサンプルを取得するために、スケーリングが、フィルタリング結果に適用され得る。 [0170] FIG. 14 is a conceptual diagram illustrating another example ALF framework in accordance with the techniques of this disclosure. Video encoder 200 and video decoder 300 may be configured according to the techniques described with respect to FIG. In particular, in FIG. 14, scaling may be applied to the filtering results to obtain filtered samples.

[0171] 図14は、ビデオデータの再構築サンプルをフィルタリングするために、複数の固定されたフィルタセットと、複数のシグナリングされたフィルタセットとを使用するための、例示的なフレームワークを示している。ビデオデコーダ300は、図14の技法に従って、複数の固定されたフィルタと、複数のシグナリングされたフィルタとを実施するように構成され得る。図14の例においては、ビデオデコーダ300は、中間フィルタリング信号R’を決定するために、再構築サンプルR(x,y)に、第1の段階のALF584を適用する。次いで、ビデオデコーダ300は、フィルタリングされたサンプル588についての値を決定するために、R’に、第2のALF段階586を適用する。 [0171] FIG. 14 illustrates an example framework for using multiple fixed filter sets and multiple signaled filter sets to filter reconstructed samples of video data. There is. Video decoder 300 may be configured to implement fixed filters and signaled filters according to the techniques of FIG. 14. In the example of FIG. 14, video decoder 300 applies a first stage ALF 584 to the reconstructed samples R(x,y) to determine an intermediate filtered signal R'. Video decoder 300 then applies a second ALF stage 586 to R' to determine a value for filtered samples 588.

[0172] 図15は、本開示の技法を実行し得る、例示的なビデオエンコーダ200を示すブロック図である。図15は、説明の目的で提供されており、本開示において広く例示および説明されるような技法を限定するものと見なされるべきではない。説明の目的で、本開示は、VVC(ITU-T H.266、開発中)およびHEVC(ITU-T H.265)の技法に従った、ビデオエンコーダ200について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に合わせて構成された、ビデオ符号化デバイスによって実行され得る。 [0172] FIG. 15 is a block diagram illustrating an example video encoder 200 that may implement the techniques of this disclosure. FIG. 15 is provided for illustrative purposes and should not be considered limiting of the techniques as broadly illustrated and described in this disclosure. For purposes of explanation, this disclosure describes a video encoder 200 that follows the techniques of VVC (ITU-T H.266, under development) and HEVC (ITU-T H.265). However, the techniques of this disclosure may be performed by video encoding devices configured for other video coding standards.

[0173] 図15の例では、ビデオエンコーダ200は、ビデオデータメモリ230と、モード選択ユニット202と、残差生成ユニット204と、変換処理ユニット206と、量子化ユニット208と、逆量子化ユニット210と、逆変換処理ユニット212と、再構築ユニット214と、フィルタユニット216と、DPB218と、エントロピー符号化ユニット220とを含む。ビデオデータメモリ230と、モード選択ユニット202と、残差生成ユニット204と、変換処理ユニット206と、量子化ユニット208と、逆量子化ユニット210と、逆変換処理ユニット212と、再構築ユニット214と、フィルタユニット216と、DPB218と、エントロピー符号化ユニット220とのいずれかまたはすべては、1つまたは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオエンコーダ200のユニットは、1つまたは複数の回路または論理要素として、ハードウェア回路の一部として、あるいはプロセッサ、ASIC、またはFPGAの一部として実装され得る。その上、ビデオエンコーダ200は、これらおよび他の機能を実施するための追加または代替のプロセッサまたは処理回路を含み得る。 [0173] In the example of FIG. 15, video encoder 200 includes video data memory 230, mode selection unit 202, residual generation unit 204, transform processing unit 206, quantization unit 208, and inverse quantization unit 210. , an inverse transform processing unit 212 , a reconstruction unit 214 , a filter unit 216 , a DPB 218 , and an entropy encoding unit 220 . A video data memory 230, a mode selection unit 202, a residual generation unit 204, a transform processing unit 206, a quantization unit 208, an inverse quantization unit 210, an inverse transform processing unit 212, and a reconstruction unit 214. , filter unit 216, DPB 218, and entropy encoding unit 220 may be implemented in one or more processors or in processing circuitry. For example, a unit of video encoder 200 may be implemented as one or more circuits or logic elements, as part of a hardware circuit, or as part of a processor, ASIC, or FPGA. Moreover, video encoder 200 may include additional or alternative processors or processing circuits to perform these and other functions.

[0174] ビデオデータメモリ230は、ビデオエンコーダ200の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオエンコーダ200は、たとえば、ビデオソース104(図1)から、ビデオデータメモリ230に記憶されるビデオデータを受信し得る。DPB218は、ビデオエンコーダ200による後続のビデオデータの予測において使用するための参照ビデオデータを記憶する参照ピクチャメモリとして働き得る。ビデオデータメモリ230とDPB218とは、同期ダイナミックランダムアクセスメモリ(DRAM)(SDRAM)を含むDRAM、磁気抵抗RAM(MRAM)、抵抗性RAM(RRAM(登録商標))、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ230とDPB218とは、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ230は、図示のように、ビデオエンコーダ200の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。 [0174] Video data memory 230 may store video data to be encoded by components of video encoder 200. Video encoder 200 may receive video data stored in video data memory 230, for example, from video source 104 (FIG. 1). DPB 218 may act as a reference picture memory that stores reference video data for use in predicting subsequent video data by video encoder 200. Video data memory 230 and DPB 218 may include DRAM, including synchronous dynamic random access memory (DRAM) (SDRAM), magnetoresistive RAM (MRAM), resistive RAM (RRAM), or other types of memory devices. , may be formed by any of a variety of memory devices. Video data memory 230 and DPB 218 may be provided by the same memory device or separate memory devices. In various examples, video data memory 230 may be on-chip with other components of video encoder 200, as shown, or off-chip with respect to those components.

[0175] 本開示では、ビデオデータメモリ230への言及は、特にそのように説明されない限り、ビデオエンコーダ200の内部のメモリに限定されるものとして解釈されるべきではなく、または特にそのように説明されない限り、ビデオエンコーダ200の外部のメモリに限定されるものとして解釈されるべきではない。そうではなく、ビデオデータメモリ230への言及は、ビデオエンコーダ200が符号化のために受信するビデオデータ(たとえば、符号化されるべきである現在ブロックのためのビデオデータ)を記憶する参照メモリとして理解されるべきである。図1のメモリ106はまた、ビデオエンコーダ200の様々なユニットからの出力の一時的記憶を提供し得る。 [0175] In this disclosure, references to video data memory 230 should not be construed as limited to memory internal to video encoder 200 unless or specifically described as such. It should not be construed as limited to memory external to video encoder 200 unless otherwise specified. Rather, references to video data memory 230 refer to it as a reference memory for storing video data that video encoder 200 receives for encoding (e.g., video data for the current block to be encoded). should be understood. Memory 106 of FIG. 1 may also provide temporary storage of output from various units of video encoder 200.

[0176] 図15の様々なユニットは、ビデオエンコーダ200によって実施される動作を理解するのを支援するために示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。固定機能回路は、特定の機能を提供する回路を指し、実施され得る動作に関してプリセットされる。プログラマブル回路は、様々なタスクを実施するように、および実施され得る動作においてフレキシブルな機能を提供するようにプログラムされ得る回路を指す。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義される様式でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は、(たとえば、パラメータを受信するかまたはパラメータを出力するために)ソフトウェア命令を実行し得るが、固定機能回路が実施する動作のタイプは、概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は、別個の回路ブロック(固定機能またはプログラマブル)であり得、いくつかの例では、ユニットのうちの1つまたは複数は、集積回路であり得る。 [0176] The various units in FIG. 15 are shown to assist in understanding the operations performed by video encoder 200. A unit may be implemented as a fixed function circuit, a programmable circuit, or a combination thereof. Fixed function circuit refers to a circuit that provides a specific function and is preset with respect to the operations that may be performed. Programmable circuit refers to a circuit that can be programmed to perform a variety of tasks and to provide flexible functionality in the operations that may be performed. For example, a programmable circuit may execute software or firmware that causes the programmable circuit to operate in a manner defined by the software or firmware instructions. Although fixed function circuits may execute software instructions (eg, to receive parameters or output parameters), the types of operations that fixed function circuits perform generally remain unchanged. In some examples, one or more of the units can be discrete circuit blocks (fixed function or programmable), and in some examples, one or more of the units can be integrated circuits. obtain.

[0177] ビデオエンコーダ200は、算術論理ユニット(ALU)、基本機能ユニット(EFU)、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されるプログラマブルコアを含み得る。ビデオエンコーダ200の動作が、プログラマブル回路によって実行されるソフトウェアを使用して実施される例では、メモリ106(図1)は、ビデオエンコーダ200が受信し、実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得るか、またはビデオエンコーダ200内の別のメモリ(図示せず)が、そのような命令を記憶し得る。 [0177] Video encoder 200 may include a programmable core formed from an arithmetic logic unit (ALU), an elementary functional unit (EFU), digital circuitry, analog circuitry, and/or programmable circuitry. In examples where the operations of video encoder 200 are implemented using software executed by programmable circuitry, memory 106 (FIG. 1) stores software instructions (e.g., object code) that video encoder 200 receives and executes. , or another memory (not shown) within video encoder 200 may store such instructions.

[0178] ビデオデータメモリ230は、受信されたビデオデータを記憶するように構成される。ビデオエンコーダ200は、ビデオデータメモリ230からビデオデータのピクチャを取り出し、ビデオデータを残差生成ユニット204とモード選択ユニット202とに提供し得る。ビデオデータメモリ230中のビデオデータは、符号化されるべきである生のビデオデータであり得る。 [0178] Video data memory 230 is configured to store received video data. Video encoder 200 may retrieve pictures of video data from video data memory 230 and provide video data to residual generation unit 204 and mode selection unit 202. The video data in video data memory 230 may be raw video data that is to be encoded.

[0179] モード選択ユニット202は、動き推定ユニット222と、動き補償ユニット224と、イントラ予測ユニット226とを含む。モード選択ユニット202は、他の予測モードに従ってビデオ予測を実施するための追加の機能ユニットを含み得る。例として、モード選択ユニット202は、パレットユニット、(動き推定ユニット222および/または動き補償ユニット224の一部であり得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。 [0179] Mode selection unit 202 includes a motion estimation unit 222, a motion compensation unit 224, and an intra prediction unit 226. Mode selection unit 202 may include additional functional units for performing video prediction according to other prediction modes. By way of example, mode selection unit 202 may include a palette unit, an intra block copy unit (which may be part of motion estimation unit 222 and/or motion compensation unit 224), an affine unit, a linear model (LM) unit, etc.

[0180] モード選択ユニット202は、概して、符号化パラメータの組合せと、そのような組合せについての得られたレートひずみ値とをテストするために、複数の符号化パスを協調させる。符号化パラメータは、CUへのCTUの区分、CUのための予測モード、CUの残差データのための変換タイプ、CUの残差データのための量子化パラメータなどを含み得る。モード選択ユニット202は、他のテストされた組合せよりも良好であるレートひずみ値を有する符号化パラメータの組合せを最終的に選択し得る。 [0180] Mode selection unit 202 generally coordinates multiple encoding passes to test combinations of encoding parameters and resulting rate-distortion values for such combinations. The encoding parameters may include partitioning of the CTU into CUs, a prediction mode for the CU, a transform type for the residual data of the CU, a quantization parameter for the residual data of the CU, and so on. Mode selection unit 202 may ultimately select a combination of encoding parameters that has a rate-distortion value that is better than other tested combinations.

[0181] ビデオエンコーダ200は、ビデオデータメモリ230から取り出されたピクチャを一連のCTUに区分し、スライス内の1つまたは複数のCTUをカプセル化し得る。モード選択ユニット202は、上記で説明されたHEVCのQTBT構造またはクワッドツリー構造など、ツリー構造に従ってピクチャのCTUを区分し得る。上記で説明されたように、ビデオエンコーダ200は、ツリー構造に従ってCTUを区分することから1つまたは複数のCUを形成し得る。そのようなCUは、概して「ビデオブロック」または「ブロック」と呼ばれることもある。 [0181] Video encoder 200 may partition a picture retrieved from video data memory 230 into a series of CTUs and encapsulate one or more CTUs within a slice. Mode selection unit 202 may partition the CTUs of a picture according to a tree structure, such as the QTBT structure or quadtree structure of HEVC described above. As explained above, video encoder 200 may form one or more CUs from partitioning the CTUs according to a tree structure. Such a CU may also be generally referred to as a "video block" or "block."

[0182] 概して、モード選択ユニット202はまた、現在ブロック(たとえば、現在CU、またはHEVCでは、PUとTUとの重複する部分)のための予測ブロックを生成するように、それの構成要素(たとえば、動き推定ユニット222、動き補償ユニット224、およびイントラ予測ユニット226)を制御する。現在ブロックのインター予測のために、動き推定ユニット222は、1つまたは複数の参照ピクチャ(たとえば、DPB218に記憶された1つまたは複数の前にコーディングされたピクチャ)中で1つまたは複数のぴったり一致する参照ブロックを識別するために動き探索を実施し得る。特に、動き推定ユニット222は、たとえば、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)などに従って、現在ブロックに対して潜在的参照ブロックがどのくらい類似しているかを表す値を計算し得る。動き推定ユニット222は、概して、現在ブロックと考慮されている参照ブロックとの間のサンプルごとの差分を使用してこれらの計算を実施し得る。動き推定ユニット222は、現在ブロックに最もぴったり一致する参照ブロックを示す、これらの計算から得られた最も低い値を有する参照ブロックを識別し得る。 [0182] Generally, the mode selection unit 202 also selects a component thereof (e.g., the current CU, or in HEVC, the overlapping portion of the PU and TU) to generate a predictive block for the current block (e.g., the current CU, or in HEVC, the overlapping portion of the PU and TU). , a motion estimation unit 222, a motion compensation unit 224, and an intra prediction unit 226). For inter-prediction of the current block, motion estimation unit 222 uses one or more exact predictions in one or more reference pictures (e.g., one or more previously coded pictures stored in DPB 218). Motion searching may be performed to identify matching reference blocks. In particular, motion estimation unit 222 determines the potential references to the current block according to, e.g., sum of absolute differences (SAD), sum of squared differences (SSD), mean absolute difference (MAD), mean squared difference (MSD), etc. A value representing how similar the blocks are can be calculated. Motion estimation unit 222 may generally perform these calculations using sample-by-sample differences between the current block and the considered reference block. Motion estimation unit 222 may identify the reference block with the lowest value obtained from these calculations, indicating the reference block that most closely matches the current block.

[0183] 動き推定ユニット222は、現在ピクチャ中の現在ブロックの位置に対して参照ピクチャ中の参照ブロックの位置を定義する1つまたは複数の動きベクトル(MV)を形成し得る。動き推定ユニット222は、次いで、動きベクトルを動き補償ユニット224に提供し得る。たとえば、単方向インター予測では、動き推定ユニット222は、単一の動きベクトルを提供し得るが、双方向インター予測では、動き推定ユニット222は、2つの動きベクトルを提供し得る。動き補償ユニット224は、次いで、動きベクトルを使用して予測ブロックを生成し得る。たとえば、動き補償ユニット224は、動きベクトルを使用して参照ブロックのデータを取り出し得る。別の例として、動きベクトルが部分サンプル精度を有する場合、動き補償ユニット224は、1つまたは複数の補間フィルタに従って予測ブロックについての値を補間し得る。その上、双方向インター予測では、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックについてデータを取り出し、たとえば、サンプルごとの平均化または重み付き平均化を通して、取り出されたデータを組み合わせ得る。 [0183] Motion estimation unit 222 may form one or more motion vectors (MVs) that define the position of a reference block in a reference picture relative to the position of a current block in a current picture. Motion estimation unit 222 may then provide the motion vector to motion compensation unit 224. For example, for unidirectional inter-prediction, motion estimation unit 222 may provide a single motion vector, whereas for bidirectional inter-prediction, motion estimation unit 222 may provide two motion vectors. Motion compensation unit 224 may then generate a predictive block using the motion vector. For example, motion compensation unit 224 may use motion vectors to retrieve data for reference blocks. As another example, if the motion vector has partial sample accuracy, motion compensation unit 224 may interpolate the values for the predictive block according to one or more interpolation filters. Moreover, in bidirectional inter-prediction, the motion compensation unit 224 retrieves data for the two reference blocks identified by their respective motion vectors and, e.g., through sample-by-sample averaging or weighted averaging, the retrieved data can be combined.

[0184] 別の例として、イントラ予測、またはイントラ予測コーディングのために、イントラ予測ユニット226は、現在ブロックに隣接しているサンプルから予測ブロックを生成し得る。たとえば、方向性モードでは、イントラ予測ユニット226は、概して、予測ブロックを生成するために、隣接サンプルの値を数学的に組み合わせ、現在ブロックにわたって定義された方向にこれらの計算された値をポピュレートし得る。別の例として、DCモードでは、イントラ予測ユニット226は、現在ブロックに対する隣接サンプルの平均を計算し、予測ブロックの各サンプルについてこの得られた平均を含むように予測ブロックを生成し得る。 [0184] As another example, for intra prediction, or intra predictive coding, intra prediction unit 226 may generate a predictive block from samples that are adjacent to the current block. For example, in directional mode, intra prediction unit 226 generally mathematically combines the values of adjacent samples and populates these calculated values in a defined direction across the current block to generate a predicted block. obtain. As another example, in DC mode, intra prediction unit 226 may calculate the average of neighboring samples for the current block and generate a predictive block to include this resulting average for each sample of the predictive block.

[0185] モード選択ユニット202は、予測ブロックを残差生成ユニット204に提供する。残差生成ユニット204は、ビデオデータメモリ230から現在ブロックの生の符号化されていないバージョンを受信し、モード選択ユニット202から予測ブロックを受信する。残差生成ユニット204は、現在ブロックと予測ブロックとの間のサンプルごとの差分を計算する。得られたサンプルごとの差分は、現在ブロックのための残差ブロックを定義する。いくつかの例では、残差生成ユニット204はまた、残差差分パルスコード変調(RDPCM)を使用して残差ブロックを生成するために、残差ブロック中のサンプル値間の差分を決定し得る。いくつかの例では、残差生成ユニット204は、バイナリ減算を実施する1つまたは複数の減算器回路を使用して形成され得る。 [0185] Mode selection unit 202 provides the prediction block to residual generation unit 204. Residual generation unit 204 receives the raw, uncoded version of the current block from video data memory 230 and receives the predictive block from mode selection unit 202 . Residual generation unit 204 calculates the sample-by-sample difference between the current block and the predicted block. The resulting sample-by-sample differences define a residual block for the current block. In some examples, residual generation unit 204 may also determine differences between sample values in the residual block to generate the residual block using residual differential pulse code modulation (RDPCM). . In some examples, residual generation unit 204 may be formed using one or more subtractor circuits that perform binary subtraction.

[0186] モード選択ユニット202がCUをPUに区分する例では、各PUは、ルーマ予測ユニットと、対応するクロマ予測ユニットとに関連付けられ得る。ビデオエンコーダ200とビデオデコーダ300とは、様々なサイズを有するPUをサポートし得る。上記で示されたように、CUのサイズは、CUのルーマコーディングブロックのサイズを指し得、PUのサイズは、PUのルーマ予測ユニットのサイズを指し得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ200は、イントラ予測のための2N×2NまたはN×NのPUサイズと、インター予測のための2N×2N、2N×N、N×2N、N×N、または同様のものの対称PUサイズとをサポートし得る。ビデオエンコーダ200とビデオデコーダ300とはまた、インター予測のための2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズの非対称区分をサポートし得る。 [0186] In an example where mode selection unit 202 partitions CUs into PUs, each PU may be associated with a luma prediction unit and a corresponding chroma prediction unit. Video encoder 200 and video decoder 300 may support PUs with various sizes. As indicated above, the size of a CU may refer to the size of a luma coding block of a CU, and the size of a PU may refer to a size of a luma prediction unit of a PU. Assuming that the size of a particular CU is 2N×2N, video encoder 200 uses a PU size of 2N×2N or N×N for intra prediction and 2N×2N, 2N×N, Symmetric PU sizes of N×2N, N×N, or the like may be supported. Video encoder 200 and video decoder 300 may also support asymmetric partitioning of PU sizes of 2N×nU, 2N×nD, nL×2N, and nR×2N for inter prediction.

[0187] モード選択ユニット202がCUをPUにさらに区分しない例では、各CUは、ルーマコーディングブロックと、対応するクロマコーディングブロックとに関連付けられ得る。上記のように、CUのサイズは、CUのルーマコーディングブロックのサイズを指し得る。ビデオエンコーダ200とビデオデコーダ300とは、2N×2N、2N×N、またはN×2NのCUサイズをサポートし得る。 [0187] In examples where mode selection unit 202 does not further partition the CUs into PUs, each CU may be associated with a luma coding block and a corresponding chroma coding block. As mentioned above, the size of a CU may refer to the size of the luma coding block of the CU. Video encoder 200 and video decoder 300 may support CU sizes of 2N×2N, 2N×N, or N×2N.

[0188] いくつかの例として、イントラブロックコピーモードコーディング、アフィンモードコーディング、および線形モデル(LM)モードコーディングなどの他のビデオコーディング技法では、モード選択ユニット202は、コーディング技法に関連付けられたそれぞれのユニットを介して、符号化されている現在ブロックのための予測ブロックを生成する。パレットモードコーディングなど、いくつかの例では、モード選択ユニット202は、予測ブロックを生成せず、代わりに、選択されたパレットに基づいてブロックを再構築すべき様式を示すシンタックス要素を生成し得る。そのようなモードでは、モード選択ユニット202は、符号化されるべきこれらのシンタックス要素をエントロピー符号化ユニット220に提供し得る。 [0188] For other video coding techniques, such as intra block copy mode coding, affine mode coding, and linear model (LM) mode coding, as some examples, mode selection unit 202 selects each The unit generates a predictive block for the current block being encoded. In some examples, such as palette mode coding, mode selection unit 202 may not generate predictive blocks, but instead generate syntax elements indicating how the blocks should be reconstructed based on the selected palette. . In such a mode, mode selection unit 202 may provide these syntax elements to be encoded to entropy encoding unit 220.

[0189] 上記で説明されたように、残差生成ユニット204は、現在ブロックのためのビデオデータと、対応する予測ブロックとを受信する。残差生成ユニット204は、次いで、現在ブロックのための残差ブロックを生成する。残差ブロックを生成するために、残差生成ユニット204は、予測ブロックと現在ブロックとの間のサンプルごとの差分を計算する。 [0189] As explained above, residual generation unit 204 receives video data for the current block and a corresponding predictive block. Residual generation unit 204 then generates a residual block for the current block. To generate a residual block, residual generation unit 204 calculates the sample-by-sample difference between the predicted block and the current block.

[0190] 変換処理ユニット206は、(本明細書では「変換係数ブロック」と呼ばれる)変換係数のブロックを生成するために、残差ブロックに1つまたは複数の変換を適用する。変換処理ユニット206は、変換係数ブロックを形成するために、残差ブロックに様々な変換を適用し得る。たとえば、変換処理ユニット206は、離散コサイン変換(DCT)、方向性変換、カルーネンレーベ変換(KLT)、または概念的に同様の変換を残差ブロックに適用し得る。いくつかの例では、変換処理ユニット206は、残差ブロックに複数の変換、たとえば、回転変換などの1次変換および2次変換を実施し得る。いくつかの例では、変換処理ユニット206は、残差ブロックに変換を適用しない。 [0190] Transform processing unit 206 applies one or more transforms to the residual block to generate a block of transform coefficients (referred to herein as a "transform coefficient block"). Transform processing unit 206 may apply various transforms to the residual block to form a transform coefficient block. For example, transform processing unit 206 may apply a discrete cosine transform (DCT), a directional transform, a Karhunen-Loeve transform (KLT), or a conceptually similar transform to the residual block. In some examples, transform processing unit 206 may perform multiple transforms on the residual block, e.g., linear transforms and quadratic transforms, such as rotation transforms. In some examples, transform processing unit 206 does not apply a transform to the residual block.

[0191] 量子化ユニット208は、量子化された変換係数ブロックを生成するために、変換係数ブロック中の変換係数を量子化し得る。量子化ユニット208は、現在ブロックに関連付けられた量子化パラメータ(QP)値に従って変換係数ブロックの変換係数を量子化し得る。ビデオエンコーダ200は(たとえば、モード選択ユニット202を介して)、CUに関連付けられたQP値を調整することによって、現在ブロックに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。量子化は、情報の損失をもたらし得、したがって、量子化された変換係数は、変換処理ユニット206によって生成された元の変換係数よりも低い精度を有し得る。 [0191] Quantization unit 208 may quantize the transform coefficients in the transform coefficient block to generate a quantized transform coefficient block. Quantization unit 208 may quantize the transform coefficients of the transform coefficient block according to a quantization parameter (QP) value associated with the current block. Video encoder 200 (e.g., via mode selection unit 202) may adjust the degree of quantization applied to the transform coefficient block associated with the current block by adjusting the QP value associated with the CU. . Quantization may result in a loss of information, and thus the quantized transform coefficients may have lower accuracy than the original transform coefficients produced by transform processing unit 206.

[0192] 逆量子化ユニット210および逆変換処理ユニット212は、変換係数ブロックから残差ブロックを再構築するために、それぞれ、量子化された変換係数ブロックに逆量子化および逆変換を適用し得る。再構築ユニット214は、再構築された残差ブロックと、モード選択ユニット202によって生成された予測ブロックとに基づいて、(潜在的にある程度のひずみを伴うが)現在ブロックに対応する再構築されたブロックを生成し得る。たとえば、再構築ユニット214は、再構築されたブロックを生成するために、モード選択ユニット202によって生成された予測ブロックからの対応するサンプルに、再構築された残差ブロックのサンプルを加算し得る。 [0192] Inverse quantization unit 210 and inverse transform processing unit 212 may apply inverse quantization and inverse transform, respectively, to the quantized transform coefficient block to reconstruct a residual block from the transform coefficient block. . Reconstruction unit 214 generates a reconstructed block corresponding to the current block (potentially with some distortion) based on the reconstructed residual block and the prediction block generated by mode selection unit 202. Can generate blocks. For example, reconstruction unit 214 may add samples of the reconstructed residual block to corresponding samples from the predictive block generated by mode selection unit 202 to generate a reconstructed block.

[0193] フィルタユニット216は、再構築されたブロックに対して1つまたは複数のフィルタ演算を実施し得る。たとえば、フィルタユニット216は、CUのエッジに沿ってブロッキネスアーティファクトを低減するためのデブロッキング動作を実施し得る。フィルタユニット216の動作は、いくつかの例では、スキップされ得る。 [0193] Filter unit 216 may perform one or more filter operations on the reconstructed block. For example, filter unit 216 may perform a deblocking operation to reduce blockiness artifacts along the edges of the CU. Operation of filter unit 216 may be skipped in some examples.

[0194] ビデオエンコーダ200は、再構築されたブロックをDPB218に記憶する。たとえば、フィルタユニット216の動作が実施されない例では、再構築ユニット214は、再構築されたブロックをDPB218に記憶し得る。フィルタユニット216の動作が実施される例では、フィルタユニット216は、フィルタ処理された再構築されたブロックをDPB218に記憶し得る。動き推定ユニット222と動き補償ユニット224とは、後で符号化されるピクチャのブロックをインター予測するために、再構築(および潜在的にフィルタ処理)されたブロックから形成された参照ピクチャをDPB218から取り出し得る。さらに、イントラ予測ユニット226は、現在ピクチャ中の他のブロックをイントラ予測するために、現在ピクチャのDPB218中の再構築されたブロックを使用し得る。 [0194] Video encoder 200 stores the reconstructed blocks in DPB 218. For example, in instances where the operations of filter unit 216 are not performed, reconstruction unit 214 may store reconstructed blocks in DPB 218. In examples where the operations of filter unit 216 are implemented, filter unit 216 may store the filtered reconstructed blocks in DPB 218 . Motion estimation unit 222 and motion compensation unit 224 extract reference pictures formed from the reconstructed (and potentially filtered) blocks from DPB 218 in order to inter-predict blocks of pictures that are subsequently coded. It can be taken out. Additionally, intra prediction unit 226 may use the reconstructed blocks in DPB 218 of the current picture to intra predict other blocks in the current picture.

[0195] 概して、エントロピー符号化ユニット220は、ビデオエンコーダ200の他の機能構成要素から受信されたシンタックス要素をエントロピー符号化し得る。たとえば、エントロピー符号化ユニット220は、量子化ユニット208からの量子化された変換係数ブロックをエントロピー符号化し得る。別の例として、エントロピー符号化ユニット220は、モード選択ユニット202からの予測シンタックス要素(たとえば、インター予測のための動き情報、またはイントラ予測のためのイントラモード情報)をエントロピー符号化し得る。エントロピー符号化ユニット220は、エントロピー符号化データを生成するために、ビデオデータの別の例であるシンタックス要素に対して1つまたは複数のエントロピー符号化動作を実施し得る。たとえば、エントロピー符号化ユニット220は、コンテキスト適応型可変長コーディング(CAVLC)動作、CABAC動作、可変対可変(V2V)長コーディング動作、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)動作、確率間隔区分エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作、または別のタイプのエントロピー符号化動作をデータに対して実施し得る。いくつかの例では、エントロピー符号化ユニット220は、シンタックス要素がエントロピー符号化されないバイパスモードで動作し得る。 [0195] Generally, entropy encoding unit 220 may entropy encode syntax elements received from other functional components of video encoder 200. For example, entropy encoding unit 220 may entropy encode the quantized transform coefficient block from quantization unit 208. As another example, entropy encoding unit 220 may entropy encode prediction syntax elements (eg, motion information for inter prediction or intra mode information for intra prediction) from mode selection unit 202. Entropy encoding unit 220 may perform one or more entropy encoding operations on syntax elements, another example of video data, to generate entropy encoded data. For example, entropy encoding unit 220 may perform a context adaptive variable length coding (CAVLC) operation, a CABAC operation, a variable-to-variable (V2V) length coding operation, a syntax-based context adaptive binary arithmetic coding (SBAC) operation, a probability interval partitioning An entropy (PIPE) coding operation, an exponential Golomb coding operation, or another type of entropy coding operation may be performed on the data. In some examples, entropy encoding unit 220 may operate in a bypass mode in which syntax elements are not entropy encoded.

[0196] ビデオエンコーダ200は、スライスまたはピクチャのブロックを再構築するために必要とされるエントロピー符号化シンタックス要素を含むビットストリームを出力し得る。特に、エントロピー符号化ユニット220がビットストリームを出力し得る。 [0196] Video encoder 200 may output a bitstream that includes entropy encoding syntax elements needed to reconstruct a slice or block of a picture. In particular, entropy encoding unit 220 may output a bitstream.

[0197] 上記で説明された動作は、ブロックに関して説明される。そのような説明は、ルーマコーディングブロックおよび/またはクロマコーディングブロックのための動作であるものとして理解されるべきである。上記で説明されたように、いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、CUのルーマ成分およびクロマ成分である。いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、PUのルーマ成分およびクロマ成分である。 [0197] The operations described above are described in terms of blocks. Such descriptions should be understood as being operations for luma coding blocks and/or chroma coding blocks. As explained above, in some examples, the luma and chroma coding blocks are the luma and chroma components of the CU. In some examples, the luma coding block and chroma coding block are the luma and chroma components of the PU.

[0198] いくつかの例では、ルーマコーディングブロックに関して実施される動作は、クロマコーディングブロックのために繰り返される必要はない。一例として、ルーマコーディングブロックのための動きベクトル(MV)と参照ピクチャとを識別するための動作は、クロマブロックのためのMVと参照ピクチャとを識別するために繰り返される必要はない。むしろ、ルーマコーディングブロックのためのMVは、クロマブロックのためのMVを決定するためにスケーリングされ得、参照ピクチャは同じであり得る。別の例として、イントラ予測プロセスは、ルーマコーディングブロックおよびクロマコーディングブロックについて同じであり得る。 [0198] In some examples, the operations performed for luma coding blocks need not be repeated for chroma coding blocks. As an example, the operations for identifying motion vectors (MVs) and reference pictures for luma coding blocks do not need to be repeated to identify MVs and reference pictures for chroma blocks. Rather, the MV for the luma coding block may be scaled to determine the MV for the chroma block, and the reference picture may be the same. As another example, the intra prediction process may be the same for luma coding blocks and chroma coding blocks.

[0199] 図16は、本開示の技法を実施し得る例示的なビデオデコーダ300を示すブロック図である。図16は、説明の目的で提供されており、本開示において広く例示され、説明される技法を限定するものではない。説明の目的で、本開示は、VVC(ITU-T H.266、開発中)およびHEVC(ITU-T H.265)の技法に従った、ビデオデコーダ300について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に構成されたビデオコーディングデバイスによって実施され得る。 [0199] FIG. 16 is a block diagram illustrating an example video decoder 300 that may implement the techniques of this disclosure. FIG. 16 is provided for illustrative purposes and is not limiting of the techniques broadly illustrated and described in this disclosure. For purposes of explanation, this disclosure describes a video decoder 300 that follows the techniques of VVC (ITU-T H.266, under development) and HEVC (ITU-T H.265). However, the techniques of this disclosure may be implemented by video coding devices configured to other video coding standards.

[0200] 図16の例では、ビデオデコーダ300は、コード化ピクチャバッファ(CPB)メモリ320と、エントロピー復号ユニット302と、予測処理ユニット304と、逆量子化ユニット306と、逆変換処理ユニット308と、再構築ユニット310と、フィルタユニット312と、DPB314とを含む。CPBメモリ320と、エントロピー復号ユニット302と、予測処理ユニット304と、逆量子化ユニット306と、逆変換処理ユニット308と、再構築ユニット310と、フィルタユニット312と、DPB314とのいずれかまたはすべては、1つまたは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオデコーダ300のユニットは、1つまたは複数の回路または論理要素として、ハードウェア回路の一部として、あるいはプロセッサ、ASIC、またはFPGAの一部として実装され得る。その上、ビデオデコーダ300は、これらおよび他の機能を実施するための追加または代替のプロセッサまたは処理回路を含み得る。 [0200] In the example of FIG. 16, video decoder 300 includes a coded picture buffer (CPB) memory 320, an entropy decoding unit 302, a prediction processing unit 304, an inverse quantization unit 306, and an inverse transform processing unit 308. , a reconstruction unit 310, a filter unit 312, and a DPB 314. Any or all of the CPB memory 320, the entropy decoding unit 302, the prediction processing unit 304, the inverse quantization unit 306, the inverse transform processing unit 308, the reconstruction unit 310, the filter unit 312, and the DPB 314 , may be implemented in one or more processors or in processing circuitry. For example, a unit of video decoder 300 may be implemented as one or more circuits or logic elements, as part of a hardware circuit, or as part of a processor, ASIC, or FPGA. Moreover, video decoder 300 may include additional or alternative processors or processing circuits to perform these and other functions.

[0201] 予測処理ユニット304は、動き補償ユニット316と、イントラ予測ユニット318とを含む。予測処理ユニット304は、他の予測モードに従って予測を実施するための追加のユニットを含み得る。例として、予測処理ユニット304は、パレットユニット、(動き補償ユニット316の一部を形成し得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。他の例では、ビデオデコーダ300は、より多数の、より少数の、または異なる機能構成要素を含み得る。 [0201] Prediction processing unit 304 includes a motion compensation unit 316 and an intra prediction unit 318. Prediction processing unit 304 may include additional units for performing predictions according to other prediction modes. By way of example, prediction processing unit 304 may include a palette unit, an intra block copy unit (which may form part of motion compensation unit 316), an affine unit, a linear model (LM) unit, etc. In other examples, video decoder 300 may include more, fewer, or different functional components.

[0202] CPBメモリ320は、ビデオデコーダ300の構成要素によって復号されるべき、符号化ビデオビットストリームなどのビデオデータを記憶し得る。CPBメモリ320に記憶されるビデオデータは、たとえば、コンピュータ可読媒体110(図1)から取得され得る。CPBメモリ320は、符号化ビデオビットストリームからの符号化ビデオデータ(たとえば、シンタックス要素)を記憶するCPBを含み得る。また、CPBメモリ320は、ビデオデコーダ300の様々なユニットからの出力を表す一時データなど、コード化ピクチャのシンタックス要素以外のビデオデータを記憶し得る。DPB314は、概して、ビデオデコーダ300が符号化ビデオビットストリームの後続のデータまたはピクチャを復号するときに出力しおよび/または参照ビデオデータとして使用し得る復号ピクチャを記憶する。CPBメモリ320とDPB314とは、SDRAMを含むDRAM、MRAM、RRAM、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。CPBメモリ320とDPB314とは、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、CPBメモリ320は、ビデオデコーダ300の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。 [0202] CPB memory 320 may store video data, such as an encoded video bitstream, to be decoded by components of video decoder 300. Video data stored in CPB memory 320 may be obtained from computer-readable medium 110 (FIG. 1), for example. CPB memory 320 may include a CPB that stores encoded video data (eg, syntax elements) from an encoded video bitstream. CPB memory 320 may also store video data other than syntactic elements of coded pictures, such as temporary data representing output from various units of video decoder 300. DPB 314 generally stores decoded pictures that video decoder 300 may output and/or use as reference video data when decoding subsequent data or pictures of the encoded video bitstream. CPB memory 320 and DPB 314 may be formed by any of a variety of memory devices, such as DRAM, including SDRAM, MRAM, RRAM, or other types of memory devices. CPB memory 320 and DPB 314 may be provided by the same memory device or separate memory devices. In various examples, CPB memory 320 may be on-chip with other components of video decoder 300 or off-chip with respect to those components.

[0203] 追加または代替として、いくつかの例では、ビデオデコーダ300は、メモリ120(図1)からコード化ビデオデータを取り出し得る。すなわち、メモリ120は、CPBメモリ320とともに上記で説明されたようにデータを記憶し得る。同様に、メモリ120は、ビデオデコーダ300の機能の一部または全部が、ビデオデコーダ300の処理回路によって実行されるべきソフトウェアにおいて実装されたとき、ビデオデコーダ300によって実行されるべき命令を記憶し得る。 [0203] Additionally or alternatively, in some examples, video decoder 300 may retrieve coded video data from memory 120 (FIG. 1). That is, memory 120 may store data as described above in conjunction with CPB memory 320. Similarly, memory 120 may store instructions to be executed by video decoder 300 when some or all of the functionality of video decoder 300 is implemented in software to be executed by processing circuitry of video decoder 300. .

[0204] 図16に示されている様々なユニットは、ビデオデコーダ300によって実施される動作を理解するのを支援するために示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。図15と同様に、固定機能回路は、特定の機能を提供する回路を指し、実施され得る動作に関してプリセットされる。プログラマブル回路は、様々なタスクを実施するように、および実施され得る動作においてフレキシブルな機能を提供するようにプログラムされ得る回路を指す。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義される様式でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は、(たとえば、パラメータを受信するかまたはパラメータを出力するために)ソフトウェア命令を実行し得るが、固定機能回路が実施する動作のタイプは、概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は、別個の回路ブロック(固定機能またはプログラマブル)であり得、いくつかの例では、ユニットのうちの1つまたは複数は、集積回路であり得る。 [0204] The various units shown in FIG. 16 are shown to assist in understanding the operations performed by video decoder 300. A unit may be implemented as a fixed function circuit, a programmable circuit, or a combination thereof. Similar to FIG. 15, fixed function circuits refer to circuits that provide a specific function and are preset with respect to the operations that can be performed. Programmable circuit refers to a circuit that can be programmed to perform a variety of tasks and to provide flexible functionality in the operations that may be performed. For example, a programmable circuit may execute software or firmware that causes the programmable circuit to operate in a manner defined by the software or firmware instructions. Although fixed function circuits may execute software instructions (eg, to receive parameters or output parameters), the types of operations that fixed function circuits perform generally remain unchanged. In some examples, one or more of the units can be discrete circuit blocks (fixed function or programmable), and in some examples, one or more of the units can be integrated circuits. obtain.

[0205] ビデオデコーダ300は、ALU、EFU、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されるプログラマブルコアを含み得る。ビデオデコーダ300の動作が、プログラマブル回路上で実行するソフトウェアによって実施される例では、オンチップまたはオフチップメモリは、ビデオデコーダ300が受信し、実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得る。 [0205] Video decoder 300 may include a programmable core formed from an ALU, an EFU, digital circuits, analog circuits, and/or programmable circuits. In examples where the operations of video decoder 300 are implemented by software executing on programmable circuitry, on-chip or off-chip memory stores software instructions (e.g., object code) that video decoder 300 receives and executes. obtain.

[0206] エントロピー復号ユニット302は、CPBから符号化ビデオデータを受信し、シンタックス要素を再生するためにビデオデータをエントロピー復号し得る。予測処理ユニット304と、逆量子化ユニット306と、逆変換処理ユニット308と、再構築ユニット310と、フィルタユニット312とは、ビットストリームから抽出されたシンタックス要素に基づいて復号ビデオデータを生成し得る。 [0206] Entropy decoding unit 302 may receive encoded video data from the CPB and entropy decode the video data to reproduce syntax elements. The prediction processing unit 304, the inverse quantization unit 306, the inverse transform processing unit 308, the reconstruction unit 310, and the filter unit 312 generate decoded video data based on syntax elements extracted from the bitstream. obtain.

[0207] 概して、ビデオデコーダ300は、ブロックごとにピクチャを再構築する。ビデオデコーダ300は、各ブロックに対して個々に再構築動作を実施し得る(ここで、現在再構築されているブロック、すなわち、現在復号されているブロックは、「現在ブロック」と呼ばれることがある)。 [0207] Generally, video decoder 300 reconstructs pictures block by block. Video decoder 300 may perform a reconstruction operation on each block individually (where the block currently being reconstructed, i.e., the block currently being decoded, may be referred to as the "current block"). ).

[0208] エントロピー復号ユニット302は、量子化された変換係数ブロックの量子化された変換係数を定義するシンタックス要素、ならびに量子化パラメータ(QP)および/または(1つまたは複数の)変換モード指示などの変換情報をエントロピー復号し得る。逆量子化ユニット306は、量子化の程度と、同様に、逆量子化ユニット306が適用すべき逆量子化の程度とを決定するために、量子化された変換係数ブロックに関連付けられたQPを使用し得る。逆量子化ユニット306は、量子化された変換係数を逆量子化するために、たとえば、ビット単位の左シフト演算を実施し得る。逆量子化ユニット306は、それにより、変換係数を含む変換係数ブロックを形成し得る。 [0208] Entropy decoding unit 302 includes syntax elements that define quantized transform coefficients of a quantized transform coefficient block, as well as quantization parameters (QP) and/or transform mode indication(s). It is possible to entropy decode the transformation information such as . Dequantization unit 306 determines the degree of quantization and, similarly, the QP associated with the quantized transform coefficient block to determine the degree of dequantization that dequantization unit 306 should apply. Can be used. Dequantization unit 306 may perform, for example, a bitwise left shift operation to dequantize the quantized transform coefficients. Inverse quantization unit 306 may thereby form a transform coefficient block that includes transform coefficients.

[0209] 逆量子化ユニット306が変換係数ブロックを形成した後に、逆変換処理ユニット308は、現在ブロックに関連付けられた残差ブロックを生成するために、変換係数ブロックに1つまたは複数の逆変換を適用し得る。たとえば、逆変換処理ユニット308は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT)、逆回転変換、逆方向変換、または別の逆変換を変換係数ブロックに適用し得る。 [0209] After inverse quantization unit 306 forms the transform coefficient block, inverse transform processing unit 308 applies one or more inverse transforms to the transform coefficient block to generate a residual block associated with the current block. can be applied. For example, inverse transform processing unit 308 may apply an inverse DCT, an inverse integer transform, an inverse Karhunen-Loeve transform (KLT), an inverse rotation transform, an inverse transform, or another inverse transform to the block of transform coefficients.

[0210] さらに、予測処理ユニット304は、エントロピー復号ユニット302によってエントロピー復号された予測情報シンタックス要素に従って予測ブロックを生成する。たとえば、予測情報シンタックス要素が、現在ブロックがインター予測されることを示す場合、動き補償ユニット316は、予測ブロックを生成し得る。この場合、予測情報シンタックス要素は、参照ブロックをそれから取り出すべきDPB314中の参照ピクチャ、ならびに現在ピクチャ中の現在ブロックのロケーションに対する参照ピクチャ中の参照ブロックのロケーションを識別する動きベクトルを示し得る。動き補償ユニット316は、概して、動き補償ユニット224(図15)に関して説明されたものと実質的に同様である様式で、インター予測プロセスを実施し得る。 [0210] Further, prediction processing unit 304 generates a prediction block according to the prediction information syntax element entropy decoded by entropy decoding unit 302. For example, motion compensation unit 316 may generate a predictive block if the prediction information syntax element indicates that the current block is inter-predicted. In this case, the prediction information syntax element may indicate the reference picture in DPB 314 from which the reference block is to be retrieved, as well as a motion vector that identifies the location of the reference block in the reference picture relative to the location of the current block in the current picture. Motion compensation unit 316 may generally perform the inter-prediction process in a manner substantially similar to that described with respect to motion compensation unit 224 (FIG. 15).

[0211] 別の例として、予測情報シンタックス要素が、現在ブロックがイントラ予測されることを示す場合、イントラ予測ユニット318は、予測情報シンタックス要素によって示されるイントラ予測モードに従って予測ブロックを生成し得る。この場合も、イントラ予測ユニット318は、概して、イントラ予測ユニット226(図15)に関して説明されたものと実質的に同様である様式で、イントラ予測プロセスを実施し得る。イントラ予測ユニット318は、DPB314から、現在ブロックに対する隣接サンプルのデータを取り出し得る。 [0211] As another example, if the prediction information syntax element indicates that the current block is intra-predicted, intra prediction unit 318 generates the prediction block according to the intra prediction mode indicated by the prediction information syntax element. obtain. Again, intra prediction unit 318 may generally perform the intra prediction process in a manner substantially similar to that described with respect to intra prediction unit 226 (FIG. 15). Intra prediction unit 318 may retrieve data for adjacent samples for the current block from DPB 314 .

[0212] 再構築ユニット310は、予測ブロックと残差ブロックとを使用して現在ブロックを再構築し得る。たとえば、再構築ユニット310は、現在ブロックを再構築するために、予測ブロックの対応するサンプルに残差ブロックのサンプルを加算し得る。 [0212] Reconstruction unit 310 may reconstruct the current block using the predictive block and the residual block. For example, reconstruction unit 310 may add samples of the residual block to corresponding samples of the predictive block to reconstruct the current block.

[0213] フィルタユニット312は、再構築されたブロックに対して1つまたは複数のフィルタ演算を実施し得る。たとえば、フィルタユニット312は、再構築されたブロックのエッジに沿ってブロッキネスアーティファクトを低減するためのデブロッキング動作を実施し得る。フィルタユニット312の動作は、必ずしもすべての例において実施されるとは限らない。 [0213] Filter unit 312 may perform one or more filter operations on the reconstructed block. For example, filter unit 312 may perform a deblocking operation to reduce blockiness artifacts along the edges of the reconstructed block. The operation of filter unit 312 is not necessarily implemented in all examples.

[0214] ビデオデコーダ300は、再構築されたブロックをDPB314に記憶し得る。たとえば、フィルタユニット312の動作が実施されない例では、再構築ユニット310は、再構築されたブロックをDPB314に記憶し得る。フィルタユニット312の動作が実施される例では、フィルタユニット312は、フィルタ処理された再構築されたブロックをDPB314に記憶し得る。上記で説明されたように、DPB314は、イントラ予測のための現在ピクチャのサンプル、および後続の動き補償のための前に復号されたピクチャなど、参照情報を、予測処理ユニット304に提供し得る。その上、ビデオデコーダ300は、DPB314からの復号ピクチャ(たとえば、復号ビデオ)を、図1のディスプレイデバイス118などのディスプレイデバイス上での後続の提示のために、出力し得る。 [0214] Video decoder 300 may store the reconstructed blocks in DPB 314. For example, in instances where the operations of filter unit 312 are not performed, reconstruction unit 310 may store reconstructed blocks in DPB 314. In examples where the operations of filter unit 312 are implemented, filter unit 312 may store filtered reconstructed blocks in DPB 314 . As explained above, DPB 314 may provide reference information to prediction processing unit 304, such as samples of the current picture for intra prediction and previously decoded pictures for subsequent motion compensation. Additionally, video decoder 300 may output decoded pictures (eg, decoded video) from DPB 314 for subsequent presentation on a display device, such as display device 118 of FIG. 1.

[0215] 図17は、図16におけるフィルタユニット312の例示的な実施を示している。図15におけるフィルタユニット216は、同じ方式で実施され得る。フィルタユニット216、312は、場合によっては、ビデオエンコーダ200またはビデオデコーダ300の他の構成要素と併せて、本開示の技法を実行し得る。図16においては、フィルタユニット312は、デブロックフィルタ342と、SAOフィルタ344と、ALFユニット346とを含む。SAOフィルタ344は、たとえば、本開示において説明される方式で、ブロックのサンプルについてのオフセット値を決定するように構成され得る。ALFユニット346は、同様に、本開示において説明される方式で、ビデオデータのブロックをフィルタリングし得る。たとえば、ALFユニット346は、第1のサンプル変更値を決定するために、再構築ブロックの再構築サンプルに、第1の段階のALFを適用し、第2のサンプル変更値を決定するために、再構築サンプルに、第2の段階のALFを適用し、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定するように構成され得る。 [0215] FIG. 17 shows an example implementation of filter unit 312 in FIG. 16. Filter unit 216 in FIG. 15 may be implemented in the same manner. Filter units 216, 312 may perform the techniques of this disclosure, possibly in conjunction with other components of video encoder 200 or video decoder 300. In FIG. 16, filter unit 312 includes a deblock filter 342, an SAO filter 344, and an ALF unit 346. SAO filter 344 may be configured to determine offset values for the samples of the block, for example, in the manner described in this disclosure. ALF unit 346 may similarly filter blocks of video data in the manner described in this disclosure. For example, ALF unit 346 applies a first stage ALF to the reconstructed samples of the reconstruction block to determine a first sample modification value, and to determine a second sample modification value. applying a second stage ALF to the reconstructed sample and determining filtered reconstructed samples based on the reconstructed sample, the first sample modification value, and the second sample modification value; can be configured.

[0216] フィルタユニット312は、より少ないフィルタを含み得、および/または追加のフィルタを含み得る。加えて、図17に示される特定のフィルタは、異なる順序で実施され得る。ピクセル遷移を滑らかにするために、または他の方法でビデオ品質を改善するために、(コーディングループ内またはコーディングループ後のいずれかにおける)他のループフィルタが、使用され得る。フィルタユニット312によって出力された、フィルタリングされた再構築ビデオブロックは、その後の動き補償のために使用される参照ピクチャを記憶する、DPB314内に記憶され得る。DPB314は、図1のディスプレイデバイス118などのディスプレイデバイス上における後の提示のために、復号ビデオを記憶する、追加のメモリの一部であり得、または追加のメモリとは別個であり得る。 [0216] Filter unit 312 may include fewer filters and/or may include additional filters. Additionally, the particular filters shown in FIG. 17 may be implemented in a different order. Other loop filters (either within or after the coding loop) may be used to smooth pixel transitions or otherwise improve video quality. The filtered reconstructed video blocks output by filter unit 312 may be stored within DPB 314, which stores reference pictures used for subsequent motion compensation. DPB 314 may be part of, or separate from, additional memory that stores the decoded video for later presentation on a display device, such as display device 118 of FIG. 1.

[0217] 図18は、本開示の技法に従った、現在ブロックを符号化するための例示的なプロセスを示すフローチャートである。現在ブロックは現在CUを備え得る。ビデオエンコーダ200(図1および図14)に関して説明されるが、他のデバイスが図18のプロセスと同様のプロセスを実施するように構成され得ることを理解されたい。 [0217] FIG. 18 is a flowchart illustrating an example process for encoding a current block in accordance with the techniques of this disclosure. The current block may comprise the current CU. Although described with respect to video encoder 200 (FIGS. 1 and 14), it should be understood that other devices may be configured to implement a process similar to that of FIG. 18.

[0218] この例では、ビデオエンコーダ200は、最初に、現在ブロックを予測する(650)。たとえば、ビデオエンコーダ200は、現在ブロックのための予測ブロックを形成し得る。ビデオエンコーダ200は、次いで、現在ブロックのための残差ブロックを計算し得る(652)。残差ブロックを計算するために、ビデオエンコーダ200は、元の符号化されていないブロックと、現在ブロックのための予測ブロックとの間の差分を計算し得る。ビデオエンコーダ200は、次いで、残差ブロックを変換し、残差ブロックの変換係数を量子化し得る(654)。次に、ビデオエンコーダ200は、残差ブロックの量子化された変換係数を走査し得る(656)。走査中に、または走査に続いて、ビデオエンコーダ200は、変換係数をエントロピー符号化し得る(658)。たとえば、ビデオエンコーダ200は、CAVLCまたはCABACを使用して変換係数を符号化し得る。ビデオエンコーダ200は、次いで、ブロックのエントロピー符号化データを出力し得る(660)。 [0218] In this example, video encoder 200 first predicts the current block (650). For example, video encoder 200 may form a predictive block for a current block. Video encoder 200 may then calculate a residual block for the current block (652). To compute the residual block, video encoder 200 may compute the difference between the original unencoded block and the predictive block for the current block. Video encoder 200 may then transform the residual block and quantize the transform coefficients of the residual block (654). Video encoder 200 may then scan the quantized transform coefficients of the residual block (656). During or following scanning, video encoder 200 may entropy encode the transform coefficients (658). For example, video encoder 200 may encode transform coefficients using CAVLC or CABAC. Video encoder 200 may then output entropy encoded data for the block (660).

[0219] 図19は、本開示の技法に従った、ビデオデータの現在ブロックを復号するための例示的なプロセスを示すフローチャートである。現在ブロックは現在CUを備え得る。ビデオデコーダ300(図1および図15)に関して説明されるが、他のデバイスが図19のプロセスと同様のプロセスを実施するように構成され得ることを理解されたい。 [0219] FIG. 19 is a flowchart illustrating an example process for decoding a current block of video data in accordance with the techniques of this disclosure. The current block may comprise the current CU. Although described with respect to video decoder 300 (FIGS. 1 and 15), it should be understood that other devices may be configured to perform a process similar to that of FIG. 19.

[0220] ビデオデコーダ300は、エントロピー符号化予測情報、および現在ブロックに対応する残差ブロックの変換係数についてのエントロピー符号化データなど、現在ブロックについてのエントロピー符号化データを受信し得る(670)。ビデオデコーダ300は、現在ブロックのための予測情報を決定するために、および残差ブロックの変換係数を再生するために、エントロピー符号化データをエントロピー復号し得る(672)。ビデオデコーダ300は、現在ブロックのための予測ブロックを計算するために、たとえば、現在ブロックのための予測情報によって示されるイントラ予測またはインター予測モードを使用して、現在ブロックを予測し得る(674)。ビデオデコーダ300は、次いで、量子化された変換係数のブロックを作成するために、再生された変換係数を逆走査し得る(676)。ビデオデコーダ300は、次いで、残差ブロックを生成するために、変換係数を逆量子化し、変換係数に逆変換を適用し得る(678)。ビデオデコーダ300は、予測ブロックと残差ブロックとを組み合わせることによって、最終的に現在ブロックを復号し得る(680)。 [0220] Video decoder 300 may receive entropy encoded data for the current block, such as entropy encoded prediction information and entropy encoded data for transform coefficients of a residual block corresponding to the current block (670). Video decoder 300 may entropy decode the entropy encoded data to determine prediction information for the current block and to recover transform coefficients of the residual block (672). Video decoder 300 may predict the current block using, for example, an intra-prediction or inter-prediction mode indicated by the prediction information for the current block to calculate a prediction block for the current block (674). . Video decoder 300 may then backscan the reconstructed transform coefficients to create a block of quantized transform coefficients (676). Video decoder 300 may then inverse quantize the transform coefficients and apply an inverse transform to the transform coefficients to generate a residual block (678). Video decoder 300 may finally decode the current block by combining the predictive block and the residual block (680).

[0221] 図20は、本開示の技法に従った、ビデオデータの現在ブロックを復号するための例示的なプロセスを示すフローチャートである。ビデオデコーダ300(図1および図15)に関して説明されているが、他のデバイスが、図20のそれと類似のプロセスを実行するように構成され得ることが理解されるべきである。たとえば、フィルタユニット216を含む、ビデオエンコーダ200のビデオ復号ループは、図20の技法を実行し得る。 [0221] FIG. 20 is a flowchart illustrating an example process for decoding a current block of video data in accordance with the techniques of this disclosure. Although described with respect to video decoder 300 (FIGS. 1 and 15), it should be understood that other devices may be configured to perform a process similar to that of FIG. 20. For example, the video decoding loop of video encoder 200, including filter unit 216, may perform the technique of FIG. 20.

[0222] ビデオデコーダ300は、再構築ブロックの再構築サンプルに、第1の段階のALFを適用し、ここにおいて、第1の段階のALFを適用することは、(710)を備える。この文脈においては、再構築サンプルは、デブロックフィルタリング前の再構築サンプル、またはデブロックフィルタリング後の再構築サンプルのいずれかであり得る。第1の段階のALFを適用するために、ビデオデコーダ300は、再構築サンプルについての第1のクラスインデックスを決定し(712)、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択し(714)、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用する(716)。上で説明されたように、ビデオデコーダ300は、再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの第1のセットを選択し得る。フィルタの第1のセットは、たとえば、固定されたフィルタであり得る。すなわち、フィルタの第1のセットは、ビデオデータでシグナリングされるのではなく、ビデオコーデック内に記憶された、フィルタのセットであり得る。フィルタの第1のセットは、たとえば、少なくとも1つの9×9のダイヤモンド形状フィルタ(9x9 diamond-shaped filter)、または上で説明された任意のサイズもしくは形状のフィルタを含み得る。図9および図11に示されるように、ビデオデコーダは、複数の中間サンプル値を決定し得る。 [0222] Video decoder 300 applies a first stage ALF to the reconstructed samples of the reconstruction block, where applying the first stage ALF comprises (710). In this context, the reconstructed samples can be either reconstructed samples before deblock filtering or reconstructed samples after deblock filtering. To apply the first stage ALF, video decoder 300 determines a first class index for the reconstructed samples (712) and, based on the first class index, selects a filter from a first set of filters. A filter is selected (714) and a filter from the first set of filters is applied (716) to the reconstructed sample to determine a first intermediate sample value. As explained above, video decoder 300 may select a first set of filters from multiple sets of fixed filters based on a quantization parameter for the reconstruction block. The first set of filters may be, for example, fixed filters. That is, the first set of filters may be a set of filters stored within the video codec rather than signaled with the video data. The first set of filters may include, for example, at least one 9x9 diamond-shaped filter, or any size or shape filter described above. As shown in FIGS. 9 and 11, a video decoder may determine multiple intermediate sample values.

[0223] 第1のクラスインデックスを決定するために、ビデオデコーダ300は、再構築サンプルについてのアクティビティ値を決定し、再構築サンプルについての方向を決定し、アクティビティ値と、方向とに基づいて、分類器を決定し得る。上で説明されたように、方向の数は、MD,i=(S+1)×(S+2)であり得、これは、6に等しいSを用いると、56個の方向があることを意味する。 [0223] To determine the first class index, video decoder 300 determines an activity value for the reconstructed sample, determines a direction for the reconstructed sample, and based on the activity value and the direction: A classifier may be determined. As explained above, the number of directions can be M D,i = (S+1) x (S+2), which means with S equal to 6, there are 56 directions. .

[0224] ビデオデコーダ300は、再構築サンプルに、第2の段階のALFを適用する(720)。第2の段階のALFを適用するために、ビデオデコーダ300は、再構築サンプルについての第2のクラスインデックスを決定し(722)、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択し(724)、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用し(726)、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定する。フィルタの第2のセットは、たとえば、シグナリングされたフィルタであり得、これは、第2のセット内のフィルタが、少なくとも部分的に、ビデオデータ内においてシグナリングされることを意味する。 [0224] Video decoder 300 applies a second stage ALF to the reconstructed samples (720). To apply the second stage ALF, video decoder 300 determines a second class index for the reconstructed samples (722) and, based on the second class index, filters from the second set of filters. selecting (724) a second filter and applying (726) the second filter to the reconstructed sample to determine a first sample modification value; Determine the sample change value of 2. The second set of filters may, for example, be signaled filters, meaning that the filters in the second set are signaled, at least in part, within the video data.

[0225] ビデオデコーダ300は、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定する(730)。再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定するために、ビデオデコーダ300は、たとえば、再構築サンプルに、第1のサンプル変更値と、第2のサンプル変更値とを加算し得る。上記の式(28)は、ビデオデコーダ300が、フィルタリングされた再構築サンプルについての値をどのように決定し得るかの一例を表す。 [0225] Video decoder 300 determines filtered reconstructed samples based on the reconstructed samples, the first sample modification value, and the second sample modification value (730). To determine filtered reconstructed samples based on the reconstructed samples, the first sample modification value, and the second sample modification value, video decoder 300 may, for example, assign the first sample modification value to the reconstructed sample. and the second sample modification value may be added. Equation (28) above represents one example of how video decoder 300 may determine a value for the filtered reconstructed samples.

[0226] 第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、ビデオデコーダ300は、クリッピングされたサンプル変更値を決定するために、第2のサンプル変更値をクリッピングし、再構築サンプルに、第1のサンプル変更値と、クリッピングされたサンプル変更値とを加算し得る。ビデオデコーダ300は、ビデオデータ内において、クリッピングされたサンプル変更値を受信し得る。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、ビデオデコーダ300は、再構築サンプルと第1の中間サンプル値との間の差(difference)を決定することによっても、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定し得る。上記の式(28)および式(30)は、ビデオデコーダ300が、第2のサンプル変更値をどのように決定し得るかの例を表す。 [0226] To determine a second sample modification value based on the first intermediate sample value, video decoder 300 clips the second sample modification value to determine a clipped sample modification value. The first sample modification value and the clipped sample modification value may then be added to the reconstructed sample. Video decoder 300 may receive clipped sample modifications within video data. To determine a second sample modification value based on the first intermediate sample value, video decoder 300 operates by determining a difference between the reconstructed sample and the first intermediate sample value. The second sample modification value may also be determined based on the first intermediate sample value. Equations (28) and (30) above represent examples of how video decoder 300 may determine the second sample modification value.

[0227] ビデオデコーダ300は、フィルタリングされた再構築サンプルを含む、ビデオデータの復号ピクチャを出力し得る。いくつかのコーディングシナリオにおいては、ビデオデコーダ300は、出力前に、フィルタリングされた再構築サンプルに対して、1つまたは複数の追加のフィルタリング操作を実行し得る。ビデオデコーダ300は、後続のピクチャを復号する際に使用するために、復号ピクチャバッファ内にピクチャを記憶すること、後の表示のために、記憶媒体に復号ピクチャを記憶することによって、またはリアルタイムもしくはほぼリアルタイムの表示のために、ディスプレイデバイスに復号ピクチャを出力することによって、復号ピクチャを出力し得る。図20の技法が、ビデオエンコーダによって実行される、例においては、ビデオエンコーダは、たとえば、後続のピクチャを符号化する際に使用するために、復号ピクチャバッファ内にピクチャを記憶することによって、復号ピクチャを出力し得る。 [0227] Video decoder 300 may output decoded pictures of video data that include filtered reconstructed samples. In some coding scenarios, video decoder 300 may perform one or more additional filtering operations on the filtered reconstructed samples before output. Video decoder 300 may be configured to operate by storing pictures in a decoded picture buffer for use in decoding subsequent pictures, by storing decoded pictures on a storage medium for later display, or by storing decoded pictures in a storage medium for later display, or in real-time or The decoded pictures may be output by outputting the decoded pictures to a display device for near real-time display. In an example where the technique of FIG. 20 is performed by a video encoder, the video encoder may decode the picture by storing the picture in a decoded picture buffer, for example, for use in encoding subsequent pictures. Pictures can be output.

[0228] 以下の番号付きの条項は、本開示において説明されるデバイスおよび技法の1つまたは複数の態様を示す。 [0228] The numbered sections below indicate one or more aspects of the devices and techniques described in this disclosure.

[0229] 条項1A。ビデオデータを復号する方法であって、方法は、ビデオデータの再構築ブロックを決定することと、フィルタリングされた再構築ブロックを生成するために、ビデオデータの再構築ブロックのサンプルに、フィルタを適用することとを備える。 [0229] Clause 1A. A method of decoding video data, the method comprising: determining a reconstructed block of video data; and applying a filter to a sample of the reconstructed block of video data to generate a filtered reconstructed block. Prepare for things to do.

[0230] 条項2A。サンプルにフィルタを適用することが、サンプルについてのアクティビティ値とサンプルについての方向の一方または両方を決定することと、決定されたアクティビティ値および/または方向に基づいて、フィルタのセットからフィルタを選択することとを備える、条項1Aに記載の方法。 [0230] Clause 2A. Applying the filter to the sample includes determining an activity value for the sample and/or a direction for the sample, and selecting a filter from the set of filters based on the determined activity value and/or direction. The method described in Clause 1A, comprising:

[0231] 条項3A。フィルタのセットが、固定されたフィルタのセットを備える、条項2Aに記載の方法。 [0231] Clause 3A. The method according to clause 2A, wherein the set of filters comprises a fixed set of filters.

[0232] 条項4A。フィルタのセットが、シグナリングされたフィルタのセットを備える、条項2Aに記載の方法。 [0232] Clause 4A. 2A. The method of clause 2A, wherein the set of filters comprises a signaled set of filters.

[0233] 条項5A。サンプルにフィルタを適用することが、中間フィルタリングサンプルを決定するために、サンプルに、第1のフィルタを適用することと、サンプリングされた最終的フィルタを決定するために、中間フィルタリングサンプルに、第2のフィルタを適用することとを備える、条項1A~4Aのいずれかに記載の方法。 [0233] Clause 5A. Applying the filter to the sample includes applying a first filter to the sample to determine an intermediate filtered sample and applying a second filter to the intermediate filtered sample to determine a sampled final filter. The method according to any of clauses 1A to 4A, comprising applying a filter of.

[0234] 条項6A。復号の方法が、ビデオコーディングプロセスの一部として実行される、条項1A~5Aのいずれかに記載の方法。 [0234] Clause 6A. A method according to any of clauses 1A to 5A, wherein the method of decoding is performed as part of a video coding process.

[0235] 条項7A。ビデオデータをコーディングするためのデバイスであって、デバイスが、条項1A~6Aのいずれかに記載の方法を実行するための1つまたは複数の手段を備える。 [0235] Clause 7A. A device for coding video data, the device comprising one or more means for performing the method according to any of clauses 1A to 6A.

[0236] 条項8A。1つまたは複数の手段が、回路で実施された1つまたは複数のプロセッサを備える、条項7Aに記載のデバイス。 [0236] Clause 8A. 7A. The device according to clause 7A, wherein the one or more means comprises one or more processors implemented in circuitry.

[0237] 条項9A。ビデオデータを記憶するためのメモリをさらに備える、条項7Aおよび8Aのいずれかに記載のデバイス。 [0237] Clause 9A. The device according to any of clauses 7A and 8A, further comprising a memory for storing video data.

[0238] 条項10A。復号ビデオデータを表示するように構成されたディスプレイ(display)をさらに備える、条項7A~9Aのいずれかに記載のデバイス。 [0238] Clause 10A. 9A. The device according to any of clauses 7A-9A, further comprising a display configured to display decoded video data.

[0239] 条項11A。デバイスが、カメラ、コンピュータ、モバイルデバイス、放送受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項7A~10Aのいずれかに記載のデバイス。 [0239] Clause 11A. A device according to any of clauses 7A to 10A, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box.

[0240] 条項12A。デバイスが、ビデオデコーダを備える、条項7A~11Aのいずれかに記載のデバイス。 [0240] Clause 12A. The device according to any of clauses 7A-11A, wherein the device comprises a video decoder.

[0241] 条項13A。デバイスが、ビデオエンコーダを備える、条項7A~12Aのいずれかに記載のデバイス。 [0241] Clause 13A. The device according to any of clauses 7A-12A, wherein the device comprises a video encoder.

[0242] 条項14A。実行されたときに、1つまたは複数のプロセッサに、条項1A~6Aのいずれかに記載の方法を実行させる命令をその上に記憶した、コンピュータ可読記憶媒体。 [0242] Clause 14A. A computer-readable storage medium having instructions stored thereon that, when executed, cause one or more processors to perform the method according to any of clauses 1A-6A.

[0243] 条項1B。ビデオデータを復号する方法であって、方法は、ビデオデータのピクチャの少なくとも一部を復号することと、ピクチャの少なくとも一部についてのフィルタリングされたサンプルを生成するために、ALFの第1の段階中に、ピクチャの少なくとも一部に、1つまたは複数の適応ループフィルタ(ALF)を適用することと、ピクチャの少なくとも一部に対してALFの第2の段階を実行するかどうかを決定することと、決定がALFの第2の段階を実行しないであるとき、ALFの第2の段階についての1つまたは複数のALFのためのフィルタ係数の復号を回避し、ピクチャの少なくとも一部に対してALFの第2の段階を実行することを回避することと、ピクチャの少なくとも一部についての最終的サンプルを生成するために、フィルタリングされたサンプルを使用することとを備える。 [0243] Clause 1B. A method of decoding video data, the method comprising: decoding at least some of the pictures of the video data; and generating filtered samples for at least some of the pictures. applying one or more adaptive loop filters (ALF) to at least a portion of the pictures; and determining whether to perform a second stage of the ALF on at least a portion of the pictures. and when the decision is not to perform the second stage of ALF, avoid decoding the filter coefficients for one or more ALFs for the second stage of ALF, and for at least a portion of the pictures. The method comprises avoiding performing a second stage of ALF and using the filtered samples to generate final samples for at least a portion of the picture.

[0244] 条項2B。最終的サンプルを生成するために、フィルタリングされたサンプルを使用することが、 [0244] Clause 2B. Using the filtered samples to generate the final samples

Figure 2024501465000067
Figure 2024501465000067

に従って、最終的サンプルを計算することを備え、ここにおいて、 and calculating the final sample according to, where:

Figure 2024501465000068
Figure 2024501465000068

は、位置(x、y)における最終的サンプルのうちの1つを表し、wiは、1つまたは複数のALFのうちの第iのALFについての重み値を備え、R’(x,y,i)は、位置(x,y)において第iのALFによって生成された、フィルタリングされたサンプルの1つを備える、条項1Bに記載の方法。 represents one of the final samples at position (x, y), w i comprises the weight value for the i-th ALF of the ALF or ALFs, and R'(x, y , i) comprises one of the filtered samples generated by the i-th ALF at position (x,y).

[0245] 条項3B。固定された構成データから重み値wiを決定することをさらに備える、条項2Bに記載の方法。 [0245] Clause 3B. The method of clause 2B, further comprising determining the weight values w i from fixed configuration data.

[0246] 条項4B。復号されたフィルタ使用情報から重み値wiを決定することをさらに備える、条項2Bに記載の方法。 [0246] Clause 4B. 2B. The method of clause 2B, further comprising determining a weight value w i from the decoded filter usage information.

[0247] 条項5B。重み値wiを復号することをさらに備える、条項2Bに記載の方法。 [0247] Clause 5B. The method of clause 2B, further comprising decoding the weight values w i .

[0248] 条項6B。重み値wiを復号することが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、スライスヘッダ、サブピクチャヘッダ、コーディングツリーユニット(CTU)ヘッダ、コーディングツリーブロック(CTB)ヘッダ、またはサブブロックヘッダのうちの1つまたは複数から重み値wiを復号することを備える、条項5Bに記載の方法。 [0248] Clause 6B. Decoding the weight values w i may be a sequence parameter set (SPS), a picture parameter set (PPS), a slice header, a subpicture header, a coding tree unit (CTU) header, a coding tree block (CTB) header, or a subblock. 5B. The method according to clause 5B, comprising decoding the weight values w i from one or more of the headers.

[0249] 条項7B。最終的サンプルのうちの1つまたは複数のために使用される重み値wiの組合せを表すシンタックス要素についてのデータを復号することをさらに備える、条項2B~6Bのいずれかに記載の方法。 [0249] Clause 7B. The method according to any of clauses 2B-6B, further comprising decoding data for syntax elements representing combinations of weight values w i used for one or more of the final samples.

[0250] 条項8B。ALFの第2の段階を実行するかどうかを決定することが、ALFの第2の段階を実行するかどうかを表すデータを復号することを備える、条項1B~7Bのいずれかに記載の方法。 [0250] Clause 8B. 7B. The method of any of clauses 1B-7B, wherein determining whether to perform the second stage of ALF comprises decoding data representative of whether to perform the second stage of ALF.

[0251] 条項9B。ALFの第2の段階を実行するかどうかを表すデータを復号することが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、スライスヘッダ、サブピクチャヘッダ、コーディングツリーユニット(CTU)ヘッダ、コーディングツリーブロック(CTB)ヘッダ、またはサブブロックヘッダのうちの1つまたは複数のデータを復号することを備える、条項8Bに記載の方法。 [0251] Clause 9B. Decoding data representing whether to perform the second stage of ALF includes sequence parameter set (SPS), picture parameter set (PPS), slice header, sub-picture header, coding tree unit (CTU) header, coding 8B. The method of clause 8B, comprising decoding data of one or more of a tree block (CTB) header or a sub-block header.

[0252] 条項10B。ALFの第2の段階を実行するかどうかを表すデータを復号することが、シンタックス要素についての値を復号することを備え、値が、ALFの第2の段階がバイパスされるべきであることを示す、条項8Bおよび9Bのいずれかに記載の方法。 [0252] Clause 10B. decoding data representing whether to perform the second stage of ALF comprises decoding a value for the syntax element, the value indicating whether the second stage of ALF is to be bypassed; The method according to any of clauses 8B and 9B, wherein the method is:

[0253] 条項11B。ALFの第2の段階を実行するかどうかを決定することが、以前に復号されたコーディング情報に従って、ALFの第2の段階を実行するかどうかを適応的に導出することを備える、条項1B~7Bのいずれかに記載の方法。 [0253] Clause 11B. Clause 1B~, wherein determining whether to perform the second stage of ALF comprises adaptively deriving whether to perform the second stage of ALF according to previously decoded coding information. 7B.

[0254] 条項12B。以前に復号されたコーディング情報が、ピクチャの少なくとも一部におけるブロックについての量子化パラメータ(QP)、ブロックのサイズ、またはブロックがイントラ予測を使用して予測されるか、それともインター予測を使用して予測されるかのうちの1つまたは複数を備える、条項11Bに記載の方法。 [0254] Clause 12B. Previously decoded coding information may include the quantization parameter (QP) for a block in at least a portion of a picture, the size of the block, or whether the block is predicted using intra prediction or inter prediction. The method of clause 11B, comprising one or more of:

[0255] 条項13B。最終的サンプルを生成するために、フィルタリングされたサンプルを使用することが、最終的サンプルを生成するために、フィルタリングされたサンプルをスケーリングすることを備える、条項1B~12Bのいずれかに記載の方法。 [0255] Clause 13B. The method according to any of clauses 1B-12B, wherein using the filtered samples to generate the final samples comprises scaling the filtered samples to generate the final samples. .

[0256] 条項14B。ピクチャの少なくとも一部を復号する前に、ピクチャの少なくとも一部を符号化することをさらに備える、条項1B~13Bのいずれかに記載の方法。 [0256] Clause 14B. The method according to any of clauses 1B-13B, further comprising encoding at least a portion of the picture before decoding at least a portion of the picture.

[0257] 条項15B。ビデオデータを復号するためのデバイスであって、デバイスは、条項1B~14Bのいずれかに記載の方法を実行するための1つまたは複数の手段を備える。 [0257] Clause 15B. A device for decoding video data, the device comprising one or more means for performing the method according to any of clauses 1B to 14B.

[0258] 条項16B。1つまたは複数の手段が、回路で実施された1つまたは複数のプロセッサを備える、条項15Bに記載のデバイス。 [0258] Clause 16B. 15B. The device according to clause 15B, wherein the one or more means comprises one or more processors implemented in circuitry.

[0259] 条項17B。復号ビデオデータを表示するように構成されたディスプレイをさらに備える、条項15Bおよび16Bのいずれかに記載のデバイス。 [0259] Clause 17B. 15. The device of any of clauses 15B and 16B, further comprising a display configured to display decoded video data.

[0260] 条項18B。デバイスが、カメラ、コンピュータ、モバイルデバイス、放送受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項15B~17Bのいずれかに記載のデバイス。 [0260] Clause 18B. The device according to any of clauses 15B-17B, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box.

[0261] 条項19B。ビデオデータを記憶するように構成されたメモリをさらに備える、条項15B~18Bに記載のデバイス。 [0261] Clause 19B. The device according to clauses 15B-18B, further comprising a memory configured to store video data.

[0262] 条項20B。実行されたときに、ビデオデータを復号するためのデバイスのプロセッサに、条項1B~14Bのいずれかに記載の方法を実行させる命令をその上に記憶した、コンピュータ可読記憶媒体。 [0262] Clause 20B. A computer-readable storage medium having instructions stored thereon that, when executed, cause a processor of a device for decoding video data to perform the method according to any of clauses 1B to 14B.

[0263] 条項21B。ビデオデータを復号するためのデバイスであって、デバイスは、ビデオデータのピクチャの少なくとも一部を復号するための手段と、ピクチャの少なくとも一部についてのフィルタリングされたサンプルを生成するために、ALFの第1の段階中に、ピクチャの少なくとも一部に、1つまたは複数の適応ループフィルタ(ALF)を適用するための手段と、ピクチャの少なくとも一部に対してALFの第2の段階を実行するかどうかを決定するための手段と、決定がALFの第2の段階を実行しないであるとき、ALFの第2の段階についての1つまたは複数のALFのためのフィルタ係数の復号を回避するための手段と、決定がALFの第2の段階を実行しないであるとき、ピクチャの少なくとも一部に対してALFの第2の段階を実行することを回避するための手段と、ピクチャの少なくとも一部についての最終的サンプルを生成するために、フィルタリングされたサンプルを使用するための手段とを備える。 [0263] Clause 21B. A device for decoding video data, the device comprising means for decoding at least a portion of a picture of the video data and an ALF for generating filtered samples for at least a portion of the picture. means for applying one or more adaptive loop filters (ALF) to at least a portion of the picture during the first stage; and performing a second stage of the ALF on at least a portion of the picture. means for determining whether and to avoid decoding filter coefficients for one or more ALFs for the second stage of the ALF when the decision is not to perform the second stage of the ALF; means for avoiding performing the second stage of ALF on at least a portion of the picture when the decision is not to perform the second stage of ALF; and at least a portion of the picture. and means for using the filtered samples to generate final samples for.

[0264] 条項1C。ビデオデータを復号する方法であって、方法は、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用することが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを備え、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用することが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを備え、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを備える。 [0264] Clause 1C. A method of decoding video data, the method comprising: applying a first stage adaptive loop filter (ALF) to reconstructed samples of a reconstruction block; determining a first class index for the reconstructed sample; selecting a filter from a first set of filters based on the first class index; and determining a first intermediate sample value. applying a filter from the first set of filters to the reconstructed sample to determine, applying a second stage ALF to the reconstructed sample; Applying the stage ALF includes determining a second class index for the reconstructed sample and selecting a second filter from the second set of filters based on the second class index. , applying a second filter to the reconstructed sample to determine a first sample modification value, and determining a second sample modification value based on the first intermediate sample value. and determining filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values.

[0265] 条項2C。フィルタの第1のセットが、固定されたフィルタを備える、条項1Cに記載の方法。 [0265] Clause 2C. The method of clause 1C, wherein the first set of filters comprises fixed filters.

[0266] 条項3C。フィルタの第2のセットが、ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、条項1C~2Cのいずれかに記載の方法。 [0266] Clause 3C. A method according to any of clauses 1C-2C, wherein the second set of filters comprises signaled filters determined based on syntax signaled in the video data.

[0267] 条項4C。第1のクラスインデックスを決定することが、再構築サンプルについてのアクティビティ値を決定することと、再構築サンプルについての方向を決定することと、アクティビティ値と、方向とに基づいて、第1のクラスインデックスを決定することとを備える、条項1C~3Cのいずれかに記載の方法。 [0267] Clause 4C. Determining a first class index includes determining an activity value for the reconstructed sample, determining a direction for the reconstructed sample, and determining a first class index based on the activity value and the direction. and determining the index.

[0268] 条項5C。方向を決定することが、方向に56個の値のうちの1つを割り当てることを備える、条項4Cに記載の方法。 [0268] Clause 5C. 4C. The method of clause 4C, wherein determining the direction comprises assigning one of 56 values to the direction.

[0269] 条項6C。フィルタの第1のセットが、9×9のダイヤモンド形状フィルタを含む、条項1C~5Cのいずれかに記載の方法。 [0269] Clause 6C. The method of any of clauses 1C-5C, wherein the first set of filters comprises 9x9 diamond shaped filters.

[0270] 条項7C。再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することが、再構築サンプルに、第1のサンプル変更値と、第2のサンプル変更値とを加算することを備える、条項1C~6Cのいずれかに記載の方法。 [0270] Clause 7C. determining a filtered reconstruction sample based on the reconstructed sample, the first sample modification value, and the second sample modification value; 6C.

[0271] 条項8C。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することが、クリッピングされたサンプル変更値を決定するために、第2のサンプル変更値をクリッピングすることと、再構築サンプルに、第1のサンプル変更値と、クリッピングされたサンプル変更値とを加算することとを備える、条項1C~7Cのいずれかに記載の方法。 [0271] Clause 8C. Determining a second sample modification value based on the first intermediate sample value includes: clipping the second sample modification value to determine a clipped sample modification value; , the first sample modification value and the clipped sample modification value.

[0272] 条項9C。ビデオデータ内において、クリッピングされたサンプル変更値を受信することをさらに備える、条項8Cに記載の方法。 [0272] Clause 9C. 8C. The method of clause 8C, further comprising receiving a clipped sample modification value within the video data.

[0273] 条項10C。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することが、再構築サンプルと第1の中間サンプル値との間の差を決定することを備える、条項1C~9Cのいずれかに記載の方法。 [0273] Clause 10C. Any of clauses 1C-9C, wherein determining the second sample modification value based on the first intermediate sample value comprises determining a difference between the reconstructed sample and the first intermediate sample value. Method described in Crab.

[0274] 条項11C。再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの第1のセットを選択することをさらに備える、条項1C~10Cのいずれかに記載の方法。 [0274] Clause 11C. 10C. The method of any of clauses 1C-10C, further comprising selecting the first set of filters from the plurality of fixed sets of filters based on a quantization parameter for the reconstruction block.

[0275] 条項12C。第1の段階のALFを適用することが、再構築サンプルについての第3のクラスインデックス(third class index)を決定することと、第3のクラスインデックスに基づいて、フィルタの第2のセットから第3のフィルタ(third filter)を選択することと、第2の中間サンプル値(second intermediate sample value)を決定するために、再構築サンプルに、フィルタの第2のセットからの第3のフィルタを適用することとをさらに備え、再構築サンプルに、第2の段階のALFを適用することが、第1の中間サンプル値と、第2の中間サンプル値とに基づいて、第2のサンプル変更値を決定することをさらに備える、条項1C~11Cのいずれかに記載の方法。 [0275] Clause 12C. Applying the first stage ALF includes determining a third class index for the reconstructed samples and determining a third class index from the second set of filters based on the third class index. selecting a third filter from the second set of filters and applying a third filter from the second set of filters to the reconstructed sample to determine a second intermediate sample value; and applying the second stage ALF to the reconstructed sample determines a second sample modification value based on the first intermediate sample value and the second intermediate sample value. The method according to any of clauses 1C to 11C, further comprising determining.

[0276] 条項13C。再構築サンプルを決定するために、残差サンプル値(residual sample value)に、予測サンプル値(predicted sample value)を加算することをさらに備える、条項1C~12Cのいずれかに記載の方法。 [0276] Clause 13C. 12C. The method of any of clauses 1C-12C, further comprising adding a predicted sample value to the residual sample value to determine the reconstructed sample.

[0277] 条項14C。再構築サンプルを決定するために、予測サンプル値と残差サンプル値との和(sum)に、デブロッキングフィルタを適用することをさらに備える、条項13Cのいずれかに記載の方法。 [0277] Clause 14C. 13. The method of any of clause 13C, further comprising applying a deblocking filter to a sum of predicted and residual sample values to determine the reconstructed samples.

[0278] 条項15C。ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えることをさらに備える、条項1C~14Cのいずれかに記載の方法。 [0278] Clause 15C. 14. The method according to any of clauses 1C to 14C, further comprising outputting a decoded picture of video data, the decoded picture comprising filtered reconstructed samples.

[0279] 条項16C。復号(decoding)の方法が、ビデオ符号化プロセス(video encoding process)の一部として実行される、条項1C~14Cのいずれかに記載の方法。 [0279] Clause 16C. A method according to any of clauses 1C to 14C, wherein the method of decoding is performed as part of a video encoding process.

[0280] 条項17C。ビデオデータを復号するためのデバイスであって、デバイスは、ビデオデータを記憶するように構成されたメモリと、回路で実施され、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行うように構成された、1つまたは複数のプロセッサとを備える。 [0280] Clause 17C. A device for decoding video data, the device comprising: a memory configured to store video data; and a circuit implemented with a first stage adaptive loop filter on the reconstructed samples of the reconstruction block. (ALF), wherein to apply the first stage ALF, the one or more processors determine a first class index for the reconstructed sample; selecting a filter from the first set of filters based on a class index of the filter and applying the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; and applying a second stage ALF to the reconstructed sample, the one or more processors further configured to: apply a second stage ALF to the reconstructed sample; determining a second class index for the reconstructed sample; selecting a second filter from the second set of filters based on the second class index; and determining a first sample modification value. and further configured to apply a second filter to the reconstructed sample and determine a second sample change value based on the first intermediate sample value to perform the reconstruction. one or more processors configured to: determine a filtered reconstructed sample based on the sample, the first sample modification value, and the second sample modification value; .

[0281] 条項18C。フィルタの第1のセットが、固定されたフィルタを備える、条項17Cに記載の装置。 [0281] Clause 18C. 17C. The apparatus according to clause 17C, wherein the first set of filters comprises fixed filters.

[0282] 条項19C。フィルタの第2のセットが、ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、条項17C~18Cのいずれかに記載のデバイス。 [0282] Clause 19C. 18C. The device according to any of clauses 17C-18C, wherein the second set of filters comprises signaled filters determined based on syntax signaled in the video data.

[0283] 条項20C。第1のクラスインデックスを決定するために、1つまたは複数のプロセッサが、再構築サンプルについてのアクティビティ値を決定することと、再構築サンプルについての方向を決定することと、アクティビティ値と、方向とに基づいて、第1のクラスインデックスを決定することとを行うようにさらに構成される、条項17C~19Cのいずれかに記載のデバイス。 [0283] Clause 20C. To determine the first class index, the one or more processors determine an activity value for the reconstructed sample, a direction for the reconstructed sample, an activity value, and a direction. 19C. The device according to any of clauses 17C-19C, further configured to: determine a first class index based on.

[0284] 条項21C。方向を決定するために、1つまたは複数のプロセッサが、方向に56個の値のうちの1つを割り当てるようにさらに構成される、条項20Cに記載のデバイス。 [0284] Clause 21C. 20C. The device of clause 20C, wherein the one or more processors are further configured to assign one of 56 values to the direction to determine the direction.

[0285] 条項22C。フィルタの第1のセットが、9×9のダイヤモンド形状フィルタを含む、条項17C~21Cのいずれかに記載の装置。 [0285] Clause 22C. Apparatus according to any of clauses 17C-21C, wherein the first set of filters comprises 9x9 diamond-shaped filters.

[0286] 条項23C。再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定するために、1つまたは複数のプロセッサが、再構築サンプルに、第1のサンプル変更値と、第2のサンプル変更値とを加算するようにさらに構成される、条項17C~22Cのいずれかに記載のデバイス。 [0286] Clause 23C. The one or more processors apply a first filter to the reconstructed sample to determine a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value. 22. The device according to any of clauses 17C-22C, further configured to add one sample change value and a second sample change value.

[0287] 条項24C。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、1つまたは複数のプロセッサが、クリッピングされたサンプル変更値を決定するために、第2のサンプル変更値をクリッピングすることと、再構築サンプルに、第1のサンプル変更値と、クリッピングされたサンプル変更値とを加算することとを行うようにさらに構成される、条項17C~23Cのいずれかに記載のデバイス。 [0287] Clause 24C. one or more processors to determine a second sample modification value based on the first intermediate sample value; clipping the second sample modification value to determine a clipped sample modification value; 23. The device of any of clauses 17C-23C, further configured to: and add the first sample modification value and the clipped sample modification value to the reconstructed sample.

[0288] 条項25C。1つまたは複数のプロセッサが、ビデオデータ内において、クリッピングされたサンプル変更値を受信するようにさらに構成される、条項24Cに記載のデバイス。 [0288] Clause 25C. 24C. The device of clause 24C, wherein the one or more processors are further configured to receive clipped sample modifications within the video data.

[0289] 条項26C。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、1つまたは複数のプロセッサが、再構築サンプルと第1の中間サンプル値との間の差を決定するようにさらに構成される、条項17C~25Cのいずれかに記載のデバイス。 [0289] Clause 26C. one or more processors for determining a difference between the reconstructed sample and the first intermediate sample value to determine a second sample modification value based on the first intermediate sample value; A device according to any of clauses 17C to 25C, further comprising:

[0290] 条項27C。1つまたは複数のプロセッサが、再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの第1のセットを選択するようにさらに構成される、条項17~26Cのいずれかに記載のデバイス。 [0290] Clause 27C. of clauses 17-26C, wherein the one or more processors are further configured to select the first set of filters from the plurality of fixed filter sets based on a quantization parameter for the reconstruction block. Any device listed.

[0291] 条項28C。第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第3のクラスインデックスを決定することと、第3のクラスインデックスに基づいて、フィルタの第2のセットから第3のフィルタを選択することと、第2の中間サンプル値を決定するために、再構築サンプルに、フィルタの第2のセットからの第3のフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、第1の中間サンプル値と、第2の中間サンプル値とに基づいて、第2のサンプル変更値を決定するようにさらに構成される、条項17C~27Cのいずれかに記載のデバイス。 [0291] Clause 28C. To apply the first stage ALF, one or more processors determine a third class index for the reconstructed samples and a second class index of the filter based on the third class index. selecting a third filter from the set; and applying a third filter from the second set of filters to the reconstructed sample to determine a second intermediate sample value. the one or more processors are further configured to apply a second stage ALF to the reconstructed samples; The device according to any of clauses 17C-27C, further configured to determine a sample change value of .

[0292] 条項29C。1つまたは複数のプロセッサが、再構築サンプルを決定するために、残差サンプル値に、予測サンプル値を加算するようにさらに構成される、条項17C~28Cのいずれかに記載のデバイス。 [0292] Clause 29C. 28. The device of any of clauses 17C-28C, wherein the one or more processors are further configured to add predicted sample values to residual sample values to determine reconstructed samples.

[0293] 条項30C。1つまたは複数のプロセッサが、再構築サンプルを決定するために、予測サンプル値と残差サンプル値との和に、デブロッキングフィルタを適用するようにさらに構成される、条項28Cに記載のデバイス。 [0293] Clause 30C. 28C. The device of clause 28C, wherein the one or more processors are further configured to apply a deblocking filter to the sum of the predicted sample value and the residual sample value to determine the reconstructed sample.

[0294] 条項31C。1つまたは複数のプロセッサが、ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えるようにさらに構成される、条項17C~30Cのいずれかに記載のデバイス。 [0294] Clause 31C. The device according to any of clauses 17C to 30C, wherein the one or more processors are further configured to output decoded pictures of video data, the decoded pictures comprising filtered reconstructed samples. .

[0295] 条項32C。デバイスが、ビデオ符号化デバイスを備える、条項17C~31Cのいずれかに記載のデバイス。 [0295] Clause 32C. A device according to any of clauses 17C to 31C, wherein the device comprises a video encoding device.

[0296] 条項33C。1つまたは複数のプロセッサが、ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えるようにさらに構成される、条項17C~32Cのいずれかに記載のデバイス。 [0296] Clause 33C. The device according to any of clauses 17C to 32C, wherein the one or more processors are further configured to output decoded pictures of video data, the decoded pictures comprising filtered reconstructed samples. .

[0297] 条項34C。デバイスが、符号化ビデオデータ(encoded video data)を受信するように構成された受信機をさらに備える、ワイヤレス通信デバイスを備える、条項33Cに記載のデバイス。 [0297] Clause 34C. 33. The device of clause 33C, wherein the device comprises a wireless communication device, further comprising a receiver configured to receive encoded video data.

[0298] 条項35C。ワイヤレス通信デバイスが、電話ハンドセットを備え、ここにおいて、受信機が、符号化ビデオデータを備える信号を、ワイヤレス通信規格(wireless communication standard)に従って、復調するように構成される、条項34Cに記載のデバイス。 [0298] Clause 35C. The device according to clause 34C, wherein the wireless communication device comprises a telephone handset, wherein the receiver is configured to demodulate the signal comprising encoded video data in accordance with a wireless communication standard. .

[0299] 条項36C。復号ビデオデータを表示するように構成されたディスプレイをさらに備える、条項17C~35Cのいずれかに記載のデバイス。 [0299] Clause 36C. A device according to any of clauses 17C to 35C, further comprising a display configured to display decoded video data.

[0300] 条項37C。デバイスが、カメラ、コンピュータ、モバイルデバイス、放送受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項17C~36Cのいずれかに記載のデバイス。 [0300] Clause 37C. A device according to any of clauses 17C to 36C, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box.

[0301] 条項38C。デバイスが、ビデオ符号化デバイスを備える、条項17C~37Cのいずれかに記載のデバイス。 [0301] Clause 38C. A device according to any of clauses 17C to 37C, wherein the device comprises a video encoding device.

[0302] 条項39C。1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行わせる命令を記憶した、コンピュータ可読記憶媒体。 [0302] Clause 39C. when executed by the one or more processors, applying a first stage adaptive loop filter (ALF) to the reconstructed samples of the reconstruction block; To apply the first stage ALF, one or more processors determine a first class index for the reconstructed samples and, based on the first class index, a first class index of the filter. further configured to select a filter from the set and apply the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; applying a second stage ALF to the sample; and wherein the one or more processors determine a second class index for the reconstructed sample to apply the second stage ALF. selecting a second filter from a second set of filters based on a second class index; and applying a second filter to the reconstructed sample to determine a first sample modification value. further configured to apply a filter and determine a second sample modification value based on the first intermediate sample value; and determining a filtered reconstructed sample based on a sample modification value of 2.

[0303] 条項1D。ビデオデータを復号する方法であって、方法は、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用することが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを備え、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用することが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを備え、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを備える。 [0303] Clause 1D. A method of decoding video data, the method comprising: applying a first stage adaptive loop filter (ALF) to reconstructed samples of a reconstruction block; determining a first class index for the reconstructed sample; selecting a filter from a first set of filters based on the first class index; and determining a first intermediate sample value. applying a filter from the first set of filters to the reconstructed sample to determine, applying a second stage ALF to the reconstructed sample; Applying the stage ALF includes determining a second class index for the reconstructed sample and selecting a second filter from the second set of filters based on the second class index. , applying a second filter to the reconstructed sample to determine a first sample modification value, and determining a second sample modification value based on the first intermediate sample value. and determining filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values.

[0304] 条項2D。フィルタの第1のセットが、固定されたフィルタを備える、条項1Dに記載の方法。 [0304] Clause 2D. The method of clause ID, wherein the first set of filters comprises fixed filters.

[0305] 条項3D。フィルタの第2のセットが、ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、条項1Dに記載の方法。 [0305] Clause 3D. The method of clause ID, wherein the second set of filters comprises signaled filters determined based on syntax signaled within the video data.

[0306] 条項4D。第1のクラスインデックスを決定することが、再構築サンプルについてのアクティビティ値を決定することと、再構築サンプルについての方向を決定することと、アクティビティ値と、方向とに基づいて、第1のクラスインデックスを決定することとを備える、条項1Dに記載の方法。 [0306] Clause 4D. Determining a first class index includes determining an activity value for the reconstructed sample, determining a direction for the reconstructed sample, and determining a first class index based on the activity value and the direction. and determining an index.

[0307] 条項5D。方向を決定することが、方向に56個の値のうちの1つを割り当てることを備える、条項4Dに記載の方法。 [0307] Clause 5D. 4D. The method of clause 4D, wherein determining the direction comprises assigning one of 56 values to the direction.

[0308] 条項6D。フィルタの第1のセットが、9×9のダイヤモンド形状フィルタを含む、条項1Dに記載の方法。 [0308] Clause 6D. The method of clause ID, wherein the first set of filters includes 9x9 diamond shaped filters.

[0309] 条項7D。再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することが、再構築サンプルに、第1のサンプル変更値と、第2のサンプル変更値とを加算することを備える、条項1Dに記載の方法。 [0309] Clause 7D. determining a filtered reconstruction sample based on the reconstructed sample, the first sample modification value, and the second sample modification value; 2. The method according to clause 1D, comprising summing the sample change values of two samples.

[0310] 条項8D。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することが、クリッピングされたサンプル変更値を決定するために、第2のサンプル変更値をクリッピングすることと、再構築サンプルに、第1のサンプル変更値と、クリッピングされたサンプル変更値とを加算することとを備える、条項1Dに記載の方法。 [0310] Clause 8D. Determining a second sample modification value based on the first intermediate sample value includes: clipping the second sample modification value to determine a clipped sample modification value; , the first sample modification value and the clipped sample modification value.

[0311] 条項9D。ビデオデータ内において、クリッピングされたサンプル変更値を受信することをさらに備える、条項8Dに記載の方法。 [0311] Clause 9D. 8D. The method of clause 8D, further comprising receiving clipped sample modification values within the video data.

[0312] 条項10D。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することが、再構築サンプルと第1の中間サンプル値との間の差を決定することを備える、条項1Dに記載の方法。 [0312] Clause 10D. The method of clause 1D, wherein determining the second sample modification value based on the first intermediate sample value comprises determining a difference between the reconstructed sample and the first intermediate sample value. .

[0313] 条項11D。再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの第1のセットを選択することをさらに備える、条項1Dに記載の方法。 [0313] Clause 11D. The method of clause ID, further comprising selecting the first set of filters from the plurality of fixed sets of filters based on a quantization parameter for the reconstruction block.

[0314] 条項12D。第1の段階のALFを適用することが、再構築サンプルについての第3のクラスインデックスを決定することと、第3のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第2の中間サンプル値を決定するために、再構築サンプルに、フィルタの第2のセットからの第2のフィルタを適用することとをさらに備え、再構築サンプルに、第2の段階のALFを適用することが、第1の中間サンプル値と、第2の中間サンプル値とに基づいて、第2のサンプル変更値を決定することをさらに備える、条項1Dに記載の方法。 [0314] Clause 12D. applying the first stage ALF includes determining a third class index for the reconstructed sample; and selecting a second filter from the second set of filters based on the third class index. and applying a second filter from the second set of filters to the reconstructed sample to determine a second intermediate sample value; The method of clause ID, wherein applying the stage ALF further comprises determining a second sample change value based on the first intermediate sample value and the second intermediate sample value.

[0315] 条項13D。再構築サンプルを決定するために、残差サンプル値に、予測サンプル値を加算することをさらに備える、条項1Dに記載の方法。 [0315] Clause 13D. The method of clause ID further comprising adding predicted sample values to residual sample values to determine reconstructed samples.

[0316] 条項14D。再構築サンプルを決定するために、予測サンプル値と残差サンプル値との和に、デブロッキングフィルタを適用することをさらに備える、条項13Dに記載の方法。 [0316] Clause 14D. 13. The method of clause 13D, further comprising applying a deblocking filter to the sum of the predicted sample values and the residual sample values to determine the reconstructed samples.

[0317] 条項15D。ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えることをさらに備える、条項1Dに記載の方法。 [0317] Clause 15D. The method of clause ID, further comprising outputting a decoded picture of video data, wherein the decoded picture comprises filtered reconstructed samples.

[0318] 条項16D。復号の方法が、ビデオ符号化プロセスの一部として実行される、条項1Dに記載の方法。 [0318] Clause 16D. The method according to clause ID, wherein the method of decoding is performed as part of a video encoding process.

[0319] 条項17D。ビデオデータを復号するためのデバイスであって、デバイスは、ビデオデータを記憶するように構成されたメモリと、回路で実施され、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行うように構成された、1つまたは複数のプロセッサとを備える。 [0319] Clause 17D. A device for decoding video data, the device comprising: a memory configured to store video data; and a circuit implemented with a first stage adaptive loop filter on the reconstructed samples of the reconstruction block. (ALF), wherein to apply the first stage ALF, the one or more processors determine a first class index for the reconstructed sample; selecting a filter from the first set of filters based on a class index of the filter and applying the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; and applying a second stage ALF to the reconstructed sample, the one or more processors further configured to: apply a second stage ALF to the reconstructed sample; determining a second class index for the reconstructed sample; selecting a second filter from the second set of filters based on the second class index; and determining a first sample modification value. and further configured to apply a second filter to the reconstructed sample and determine a second sample change value based on the first intermediate sample value to perform the reconstruction. one or more processors configured to: determine a filtered reconstructed sample based on the sample, the first sample modification value, and the second sample modification value; .

[0320] 条項18D。フィルタの第1のセットが、固定されたフィルタを備える、条項17Dに記載の装置。 [0320] Clause 18D. 17D. The apparatus according to clause 17D, wherein the first set of filters comprises fixed filters.

[0321] 条項19D。フィルタの第2のセットが、ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、条項17Dに記載のデバイス。 [0321] Clause 19D. 17D. The device of clause 17D, wherein the second set of filters comprises signaled filters determined based on syntax signaled within the video data.

[0322] 条項20D。第1のクラスインデックスを決定するために、1つまたは複数のプロセッサが、再構築サンプルについてのアクティビティ値を決定することと、再構築サンプルについての方向を決定することと、アクティビティ値と、方向とに基づいて、第1のクラスインデックスを決定することとを行うようにさらに構成される、条項17Dに記載のデバイス。 [0322] Clause 20D. To determine the first class index, the one or more processors determine an activity value for the reconstructed sample, a direction for the reconstructed sample, an activity value, and a direction. The device of clause 17D, further configured to: determine the first class index based on the first class index.

[0323] 条項21D。方向を決定するために、1つまたは複数のプロセッサが、方向に56個の値のうちの1つを割り当てるようにさらに構成される、条項20Dに記載のデバイス。 [0323] Clause 21D. 20D. The device of clause 20D, wherein the one or more processors are further configured to assign one of 56 values to the direction to determine the direction.

[0324] 条項22D。フィルタの第1のセットが、9×9のダイヤモンド形状フィルタを含む、条項17Dに記載のデバイス。 [0324] Clause 22D. The device of clause 17D, wherein the first set of filters includes 9x9 diamond shaped filters.

[0325] 条項23D。再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定するために、1つまたは複数のプロセッサが、再構築サンプルに、第1のサンプル変更値と、第2のサンプル変更値とを加算するようにさらに構成される、条項17Dに記載のデバイス。 [0325] Clause 23D. The one or more processors apply a first filter to the reconstructed sample to determine a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value. 17D. The device of clause 17D, further configured to add one sample modification value and a second sample modification value.

[0326] 条項24D。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、1つまたは複数のプロセッサが、クリッピングされたサンプル変更値を決定するために、第2のサンプル変更値をクリッピングすることと、再構築サンプルに、第1のサンプル変更値と、クリッピングされたサンプル変更値とを加算することとを行うようにさらに構成される、条項17Dに記載のデバイス。 [0326] Clause 24D. one or more processors to determine a second sample modification value based on the first intermediate sample value; clipping the second sample modification value to determine a clipped sample modification value; and adding the first sample modification value and the clipped sample modification value to the reconstructed sample.

[0327] 条項25D。1つまたは複数のプロセッサが、ビデオデータ内において、クリッピングされたサンプル変更値を受信するようにさらに構成される、条項24Dに記載のデバイス。 [0327] Clause 25D. 24D. The device of clause 24D, wherein the one or more processors are further configured to receive clipped sample modifications within the video data.

[0328] 条項26D。第1の中間サンプル値に基づいて、第2のサンプル変更値を決定するために、1つまたは複数のプロセッサが、再構築サンプルと第1の中間サンプル値との間の差を決定するようにさらに構成される、条項17Dに記載のデバイス。 [0328] Clause 26D. one or more processors for determining a difference between the reconstructed sample and the first intermediate sample value to determine a second sample modification value based on the first intermediate sample value; 17D, further comprising:

[0329] 条項27D。1つまたは複数のプロセッサが、再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの第1のセットを選択するようにさらに構成される、条項17Dに記載のデバイス。 [0329] Clause 27D. 17D, wherein the one or more processors are further configured to select the first set of filters from the plurality of fixed filter sets based on a quantization parameter for the reconstruction block. device.

[0330] 条項28D。第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第3のクラスインデックスを決定することと、第3のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第2の中間サンプル値を決定するために、再構築サンプルに、フィルタの第2のセットからの第2のフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、第1の中間サンプル値と、第2の中間サンプル値とに基づいて、第2のサンプル変更値を決定するようにさらに構成される、条項17Dに記載のデバイス。 [0330] Clause 28D. To apply the first stage ALF, one or more processors determine a third class index for the reconstructed samples and a second class index of the filter based on the third class index. selecting a second filter from the set; and applying a second filter from the second set of filters to the reconstructed sample to determine a second intermediate sample value. the one or more processors are further configured to apply a second stage ALF to the reconstructed samples; The device of clause 17D, further configured to determine a sample change value of .

[0331] 条項29D。1つまたは複数のプロセッサが、再構築サンプルを決定するために、残差サンプル値に、予測サンプル値を加算するようにさらに構成される、条項17Dに記載のデバイス。 [0331] Clause 29D. 17D. The device of clause 17D, wherein the one or more processors are further configured to add predicted sample values to residual sample values to determine reconstructed samples.

[0332] 条項30D。1つまたは複数のプロセッサが、再構築サンプルを決定するために、予測サンプル値と残差サンプル値との和に、デブロッキングフィルタを適用するようにさらに構成される、条項28Dに記載のデバイス。 [0332] Clause 30D. 28D. The device of clause 28D, wherein the one or more processors are further configured to apply a deblocking filter to the sum of the predicted sample value and the residual sample value to determine the reconstructed sample.

[0333] 条項31D。1つまたは複数のプロセッサが、ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えるようにさらに構成される、条項17Dに記載のデバイス。 [0333] Clause 31D. 17D. The device of clause 17D, wherein the one or more processors are further configured to output decoded pictures of video data, where the decoded pictures comprise filtered reconstructed samples.

[0334] 条項32D。デバイスが、ビデオ符号化デバイスを備える、条項17Dに記載のデバイス。 [0334] Clause 32D. The device according to clause 17D, wherein the device comprises a video encoding device.

[0335] 条項33D。1つまたは複数のプロセッサが、ビデオデータの復号ピクチャを出力し、ここにおいて、復号ピクチャが、フィルタリングされた再構築サンプルを備えるようにさらに構成される、条項17Dに記載のデバイス。 [0335] Clause 33D. 17D. The device of clause 17D, wherein the one or more processors are further configured to output decoded pictures of video data, where the decoded pictures comprise filtered reconstructed samples.

[0336] 条項34D。デバイスが、符号化ビデオデータを受信するように構成された受信機をさらに備える、ワイヤレス通信デバイスを備える、条項33Dに記載のデバイス。 [0336] Clause 34D. 33. The device of clause 33D, wherein the device comprises a wireless communication device further comprising a receiver configured to receive encoded video data.

[0337] 条項35D。ワイヤレス通信デバイスが、電話ハンドセットを備え、ここにおいて、受信機が、符号化ビデオデータを備える信号を、ワイヤレス通信規格に従って、復調するように構成される、条項34Dに記載のデバイス。 [0337] Clause 35D. 34. The device of clause 34D, wherein the wireless communication device comprises a telephone handset, wherein the receiver is configured to demodulate the signal comprising encoded video data in accordance with a wireless communication standard.

[0338] 条項36D。復号ビデオデータを表示するように構成されたディスプレイをさらに備える、条項17Dに記載のデバイス。 [0338] Clause 36D. 17D. The device of clause 17D, further comprising a display configured to display decoded video data.

[0339] 条項37D。デバイスが、カメラ、コンピュータ、モバイルデバイス、放送受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項17Dに記載のデバイス。 [0339] Clause 37D. The device according to clause 17D, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box.

[0340] 条項38D。デバイスが、ビデオ符号化デバイスを備える、条項17Dに記載のデバイス。 [0340] Clause 38D. The device according to clause 17D, wherein the device comprises a video encoding device.

[0341] 条項39D。1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに、再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、第1の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第1のクラスインデックスを決定することと、第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、第1の中間サンプル値を決定するために、再構築サンプルに、フィルタの第1のセットからのフィルタを適用することとを行うようにさらに構成され、再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、第2の段階のALFを適用するために、1つまたは複数のプロセッサが、再構築サンプルについての第2のクラスインデックスを決定することと、第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、第1のサンプル変更値を決定するために、再構築サンプルに、第2のフィルタを適用することと、第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することとを行うようにさらに構成され、再構築サンプルと、第1のサンプル変更値と、第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することとを行わせる命令を記憶した、コンピュータ可読記憶媒体。 [0341] Clause 39D. when executed by the one or more processors, applying a first stage adaptive loop filter (ALF) to the reconstructed samples of the reconstruction block; To apply the first stage ALF, one or more processors determine a first class index for the reconstructed samples and, based on the first class index, a first class index of the filter. further configured to select a filter from the set and apply the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; applying a second stage ALF to the sample; and wherein the one or more processors determine a second class index for the reconstructed sample to apply the second stage ALF. selecting a second filter from a second set of filters based on a second class index; and applying a second filter to the reconstructed sample to determine a first sample modification value. further configured to apply a filter and determine a second sample modification value based on the first intermediate sample value; and determining a filtered reconstructed sample based on a sample modification value of 2.

[0342] 上記例に応じて、本明細書で説明された技法のいずれかのいくつかの行為またはイベントは、異なるシーケンスで実施され得、追加、マージ、または完全に除外され得る(たとえば、すべての説明された行為またはイベントが本技法の実践のために必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して同時に実施され得る。 [0342] Depending on the example above, some acts or events of any of the techniques described herein may be performed in different sequences, added, merged, or removed entirely (e.g., all It is recognized that the acts or events described may not be necessary for the practice of the present techniques). Moreover, in some examples, actions or events may be performed concurrently rather than sequentially, eg, through multi-threaded processing, interrupt processing, or multiple processors.

[0343] 1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実装のための命令、コードおよび/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。 [0343] In one or more examples, the described functionality may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on or transmitted over as one or more instructions or code on a computer-readable medium and executed by a hardware-based processing unit. . Computer-readable media refers to a computer-readable storage medium that corresponds to a tangible medium, such as a data storage medium or a communication protocol, including any medium that facilitates transfer of a computer program from one place to another, e.g., according to a communication protocol. may include a medium. In this manner, computer-readable media generally may correspond to (1) tangible computer-readable storage media that is non-transitory, or (2) a communication medium such as a signal or carrier wave. The data storage medium can be any data storage medium that can be accessed by one or more computers or one or more processors to retrieve instructions, code and/or data structures for implementation of the techniques described in this disclosure. It can be any available media. A computer program product may include a computer readable medium.

[0344] 限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは、命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu-rayディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。 [0344] By way of example and not limitation, such computer readable storage media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, flash memory, etc. , or may comprise any other medium that can be used to store desired program code in the form of instructions or data structures and that can be accessed by a computer. Also, any connection is properly termed a computer-readable medium. For example, instructions may be transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave. where coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio, and microwave are included in the definition of medium. It should be understood, however, that computer-readable storage media and data storage media do not include connections, carrier waves, signals or other transitory media, but instead refer to non-transitory tangible storage media. Disk and disc as used herein refer to compact disc (CD), laserdisc (disc), optical disc (disc), digital versatile disc (disc) ( (DVD), floppy disk (disk), and Blu-ray disk (disc), where a disk (disk) typically reproduces data magnetically, and a disk (disc) (disc) Regenerate optically using a laser. Combinations of the above should also be included within the scope of computer-readable media.

[0345] 命令は、1つまたは複数のDSP、汎用マイクロプロセッサ、ASIC、FPGA、あるいは他の等価な集積またはディスクリート論理回路など、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」および「処理回路」という用語は、上記の構造、または本明細書で説明された技法の実装に好適な任意の他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内に提供されるか、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素において十分に実装され得る。 [0345] The instructions may be executed by one or more processors, such as one or more DSPs, general purpose microprocessors, ASICs, FPGAs, or other equivalent integrated or discrete logic circuits. Accordingly, the terms "processor" and "processing circuitry" as used herein may refer to any of the structures described above, or any other structure suitable for implementing the techniques described herein. . Additionally, in some aspects, the functionality described herein may be provided in dedicated hardware and/or software modules configured for encoding and decoding, or incorporated into a composite codec. . Additionally, the techniques may be fully implemented in one or more circuits or logic elements.

[0346] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示される技法を実施するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットが説明されたが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明されたように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明された1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作可能なハードウェアユニットの集合によって提供され得る。 [0346] The techniques of this disclosure may be implemented in a wide variety of devices or apparatuses, including wireless handsets, integrated circuits (ICs) or sets of ICs (eg, chipsets). Although various components, modules, or units have been described in this disclosure to highlight functional aspects of devices configured to implement the disclosed techniques, those components, modules, or Units do not necessarily require implementation by different hardware units. Rather, as described above, the various units may be combined or interacted with in a codec hardware unit, including one or more processors as described above, along with suitable software and/or firmware. It may be provided by a collection of operable hardware units.

[0347] 様々な例が説明された。これらおよび他の例は以下の特許請求の範囲内に入る。 [0347] Various examples have been described. These and other examples are within the scope of the following claims.

Claims (38)

ビデオデータを復号する方法であって、前記方法が、
再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、前記第1の段階のALFを適用することが、
前記再構築サンプルについての第1のクラスインデックスを決定することと、
前記第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、
第1の中間サンプル値を決定するために、前記再構築サンプルに、フィルタの前記第1のセットからの前記フィルタを適用することと
を備え、
前記再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、前記第2の段階のALFを適用することが、
前記再構築サンプルについての第2のクラスインデックスを決定することと、
前記第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、
第1のサンプル変更値を決定するために、前記再構築サンプルに、前記第2のフィルタを適用することと、
前記第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することと
を備え、
前記再構築サンプルと、前記第1のサンプル変更値と、前記第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することと
を備える、方法。
A method of decoding video data, the method comprising:
applying a first stage adaptive loop filter (ALF) to the reconstructed samples of the reconstructed block;
determining a first class index for the reconstructed sample;
selecting a filter from a first set of filters based on the first class index;
applying the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value;
applying a second stage ALF to the reconstructed sample;
determining a second class index for the reconstructed sample;
selecting a second filter from a second set of filters based on the second class index;
applying the second filter to the reconstructed sample to determine a first sample modification value;
determining a second sample change value based on the first intermediate sample value;
determining filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values.
フィルタの前記第1のセットが、固定されたフィルタを備える、請求項1に記載の方法。 2. The method of claim 1, wherein the first set of filters comprises fixed filters. フィルタの前記第2のセットが、前記ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、請求項1に記載の方法。 2. The method of claim 1, wherein the second set of filters comprises signaled filters determined based on syntax signaled within the video data. 前記第1のクラスインデックスを決定することが、
前記再構築サンプルについてのアクティビティ値を決定することと、
前記再構築サンプルについての方向を決定することと、
前記アクティビティ値と、前記方向とに基づいて、前記第1のクラスインデックスを決定することと
を備える、請求項1に記載の方法。
Determining the first class index comprises:
determining an activity value for the reconstructed sample;
determining an orientation for the reconstructed sample;
2. The method of claim 1, comprising: determining the first class index based on the activity value and the direction.
前記方向を決定することが、前記方向に56個の値のうちの1つを割り当てることを備える、請求項4に記載の方法。 5. The method of claim 4, wherein determining the direction comprises assigning one of 56 values to the direction. フィルタの前記第1のセットが、9×9のダイヤモンド形状フィルタを含む、請求項1に記載の方法。 2. The method of claim 1, wherein the first set of filters includes 9x9 diamond shaped filters. 前記再構築サンプルと、前記第1のサンプル変更値と、前記第2のサンプル変更値とに基づいて、前記フィルタリングされた再構築サンプルを決定することが、前記再構築サンプルに、前記第1のサンプル変更値と、前記第2のサンプル変更値とを加算することを備える、請求項1に記載の方法。 determining the filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values; 2. The method of claim 1, comprising adding a sample modification value and the second sample modification value. 前記第1の中間サンプル値に基づいて、前記第2のサンプル変更値を決定することが、クリッピングされたサンプル変更値を決定するために、前記第2のサンプル変更値をクリッピングすることと、前記再構築サンプルに、前記第1のサンプル変更値と、前記クリッピングされたサンプル変更値とを加算することとを備える、請求項1に記載の方法。 determining the second sample modification value based on the first intermediate sample value, clipping the second sample modification value to determine a clipped sample modification value; 2. The method of claim 1, comprising adding the first sample modification value and the clipped sample modification value to a reconstructed sample. 前記ビデオデータ内において、前記クリッピングされたサンプル変更値を受信すること
をさらに備える、請求項8に記載の方法。
9. The method of claim 8, further comprising: receiving the clipped sample modification value within the video data.
前記第1の中間サンプル値に基づいて、前記第2のサンプル変更値を決定することが、前記再構築サンプルと前記第1の中間サンプル値との間の差を決定することを備える、請求項1に記載の方法。 12. Determining the second sample modification value based on the first intermediate sample value comprises determining a difference between the reconstructed sample and the first intermediate sample value. The method described in 1. 前記再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの前記第1のセットを選択すること
をさらに備える、請求項1に記載の方法。
2. The method of claim 1, further comprising: selecting the first set of filters from a plurality of fixed sets of filters based on a quantization parameter for the reconstruction block.
前記第1の段階のALFを適用することが、前記再構築サンプルについての第3のクラスインデックスを決定することと、前記第3のクラスインデックスに基づいて、フィルタの第2のセットから第3のフィルタを選択することと、第2の中間サンプル値を決定するために、前記再構築サンプルに、フィルタの前記第2のセットからの前記第3のフィルタを適用することとをさらに備え、
前記再構築サンプルに、前記第2の段階のALFを適用することが、前記第1の中間サンプル値と、前記第2の中間サンプル値とに基づいて、前記第2のサンプル変更値を決定することをさらに備える、
請求項1に記載の方法。
Applying the first stage ALF includes determining a third class index for the reconstructed sample and extracting a third class index from a second set of filters based on the third class index. further comprising selecting a filter and applying the third filter from the second set of filters to the reconstructed sample to determine a second intermediate sample value;
Applying the second stage ALF to the reconstructed samples determines the second sample modification value based on the first intermediate sample value and the second intermediate sample value. further prepare for
The method according to claim 1.
前記再構築サンプルを決定するために、残差サンプル値に、予測サンプル値を加算すること
をさらに備える、請求項1に記載の方法。
The method of claim 1, further comprising: adding predicted sample values to residual sample values to determine the reconstructed samples.
前記再構築サンプルを決定するために、前記予測サンプル値と前記残差サンプル値との和に、デブロッキングフィルタを適用すること
をさらに備える、請求項13に記載の方法。
14. The method of claim 13, further comprising: applying a deblocking filter to the sum of the predicted sample values and the residual sample values to determine the reconstructed samples.
前記ビデオデータの復号ピクチャを出力し、ここにおいて、前記復号ピクチャが、前記フィルタリングされた再構築サンプルを備えることをさらに備える、
請求項1に記載の方法。
outputting a decoded picture of the video data, further comprising: the decoded picture comprising the filtered reconstructed samples;
The method according to claim 1.
復号の前記方法が、ビデオ符号化プロセスの一部として実行される、請求項1に記載の方法。 The method of claim 1, wherein the method of decoding is performed as part of a video encoding process. ビデオデータを復号するためのデバイスであって、前記デバイスが、
ビデオデータを記憶するように構成されたメモリと、
回路で実施され、
再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、前記第1の段階のALFを適用するために、1つまたは複数のプロセッサが、
前記再構築サンプルについての第1のクラスインデックスを決定することと、
前記第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、
第1の中間サンプル値を決定するために、前記再構築サンプルに、フィルタの前記第1のセットからの前記フィルタを適用することと
を行うようにさらに構成され、
前記再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、前記第2の段階のALFを適用するために、前記1つまたは複数のプロセッサが、
前記再構築サンプルについての第2のクラスインデックスを決定することと、
前記第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、
第1のサンプル変更値を決定するために、前記再構築サンプルに、前記第2のフィルタを適用することと、
前記第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することと
を行うようにさらに構成され、
前記再構築サンプルと、前記第1のサンプル変更値と、前記第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することと
を行うように構成された、1つまたは複数のプロセッサと
を備える、デバイス。
A device for decoding video data, the device comprising:
a memory configured to store video data;
carried out in the circuit,
applying a first stage adaptive loop filter (ALF) to the reconstructed samples of the reconstruction block;
determining a first class index for the reconstructed sample;
selecting a filter from a first set of filters based on the first class index;
applying the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; and
applying a second stage ALF to the reconstructed samples;
determining a second class index for the reconstructed sample;
selecting a second filter from a second set of filters based on the second class index;
applying the second filter to the reconstructed sample to determine a first sample modification value;
further configured to: determine a second sample modification value based on the first intermediate sample value;
one or more configured to: determine filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values; A device comprising: a processor;
フィルタの前記第1のセットが、固定されたフィルタを備える、請求項17に記載のデバイス。 18. The device of claim 17, wherein the first set of filters comprises fixed filters. フィルタの前記第2のセットが、前記ビデオデータ内においてシグナリングされたシンタックスに基づいて決定された、シグナリングされたフィルタを備える、請求項17に記載のデバイス。 18. The device of claim 17, wherein the second set of filters comprises signaled filters determined based on syntax signaled within the video data. 前記第1のクラスインデックスを決定するために、前記1つまたは複数のプロセッサが、
前記再構築サンプルについてのアクティビティ値を決定することと、
前記再構築サンプルについての方向を決定することと、
前記アクティビティ値と、前記方向とに基づいて、前記第1のクラスインデックスを決定することと
を行うようにさらに構成される、請求項17に記載のデバイス。
In order to determine the first class index, the one or more processors:
determining an activity value for the reconstructed sample;
determining an orientation for the reconstructed sample;
18. The device of claim 17, further configured to: determine the first class index based on the activity value and the direction.
前記方向を決定するために、前記1つまたは複数のプロセッサが、前記方向に56個の値のうちの1つを割り当てるようにさらに構成される、請求項20に記載のデバイス。 21. The device of claim 20, wherein to determine the direction, the one or more processors are further configured to assign one of 56 values to the direction. フィルタの前記第1のセットが、9×9のダイヤモンド形状フィルタを含む、請求項17に記載のデバイス。 18. The device of claim 17, wherein the first set of filters includes 9x9 diamond shaped filters. 前記再構築サンプルと、前記第1のサンプル変更値と、前記第2のサンプル変更値とに基づいて、前記フィルタリングされた再構築サンプルを決定するために、前記1つまたは複数のプロセッサが、前記再構築サンプルに、前記第1のサンプル変更値と、前記第2のサンプル変更値とを加算するようにさらに構成される、請求項17に記載のデバイス。 the one or more processors to determine the filtered reconstructed samples based on the reconstructed samples, the first sample modification values, and the second sample modification values; 18. The device of claim 17, further configured to add the first sample modification value and the second sample modification value to reconstructed samples. 前記第1の中間サンプル値に基づいて、前記第2のサンプル変更値を決定するために、前記1つまたは複数のプロセッサが、クリッピングされたサンプル変更値を決定するために、前記第2のサンプル変更値をクリッピングすることと、前記再構築サンプルに、前記第1のサンプル変更値と、前記クリッピングされたサンプル変更値とを加算することとを行うようにさらに構成される、請求項17に記載のデバイス。 the one or more processors to determine a clipped sample modification value based on the first intermediate sample value; 18. The method of claim 17, further configured to clip a modified value and add the first sample modified value and the clipped sample modified value to the reconstructed sample. device. 前記1つまたは複数のプロセッサが、
前記ビデオデータ内において、前記クリッピングされたサンプル変更値を受信する
ようにさらに構成される、請求項24に記載のデバイス。
the one or more processors,
25. The device of claim 24, further configured to receive the clipped sample modification value within the video data.
前記第1の中間サンプル値に基づいて、前記第2のサンプル変更値を決定するために、前記1つまたは複数のプロセッサが、前記再構築サンプルと前記第1の中間サンプル値との間の差を決定するようにさらに構成される、請求項17に記載のデバイス。 to determine the second sample modification value based on the first intermediate sample value, the one or more processors determine the difference between the reconstructed sample and the first intermediate sample value; 18. The device of claim 17, further configured to determine. 前記1つまたは複数のプロセッサが、
前記再構築ブロックについての量子化パラメータに基づいて、固定されたフィルタの複数のセットからフィルタの前記第1のセットを選択する
ようにさらに構成される、請求項17に記載のデバイス。
the one or more processors,
18. The device of claim 17, further configured to: select the first set of filters from a plurality of fixed sets of filters based on a quantization parameter for the reconstruction block.
前記第1の段階のALFを適用するために、前記1つまたは複数のプロセッサが、前記再構築サンプルについての第3のクラスインデックスを決定することと、前記第3のクラスインデックスに基づいて、フィルタの第2のセットから第3のフィルタを選択することと、第2の中間サンプル値を決定するために、前記再構築サンプルに、フィルタの前記第2のセットからの前記第3のフィルタを適用することとを行うようにさらに構成され、
前記再構築サンプルに、前記第2の段階のALFを適用するために、前記1つまたは複数のプロセッサが、前記第1の中間サンプル値と、前記第2の中間サンプル値とに基づいて、前記第2のサンプル変更値を決定するようにさらに構成される、
請求項17に記載のデバイス。
In order to apply the first stage ALF, the one or more processors may determine a third class index for the reconstructed samples and apply a filter based on the third class index. selecting a third filter from the second set of filters and applying the third filter from the second set of filters to the reconstructed samples to determine a second intermediate sample value; further configured to do and to do;
In order to apply the second stage ALF to the reconstructed samples, the one or more processors may perform the process based on the first intermediate sample values and the second intermediate sample values. further configured to determine a second sample change value;
18. A device according to claim 17.
前記1つまたは複数のプロセッサが、
前記再構築サンプルを決定するために、残差サンプル値に、予測サンプル値を加算する
ようにさらに構成される、請求項17に記載のデバイス。
the one or more processors,
18. The device of claim 17, further configured to add predicted sample values to residual sample values to determine the reconstructed samples.
前記1つまたは複数のプロセッサが、
前記再構築サンプルを決定するために、前記予測サンプル値と前記残差サンプル値との和に、デブロッキングフィルタを適用する
ようにさらに構成される、請求項29に記載のデバイス。
the one or more processors,
30. The device of claim 29, further configured to apply a deblocking filter to the sum of the predicted sample value and the residual sample value to determine the reconstructed sample.
前記1つまたは複数のプロセッサが、
前記ビデオデータの復号ピクチャを出力し、ここにおいて、前記復号ピクチャが、前記フィルタリングされた再構築サンプルを備える
ようにさらに構成される、請求項17に記載のデバイス。
the one or more processors,
18. The device of claim 17, further configured to output a decoded picture of the video data, wherein the decoded picture comprises the filtered reconstructed samples.
前記デバイスが、ビデオ符号化デバイスを備える、請求項17に記載のデバイス。 18. The device of claim 17, wherein the device comprises a video encoding device. 前記デバイスが、符号化ビデオデータを受信するように構成された受信機をさらに備える、ワイヤレス通信デバイスを備える、請求項32に記載のデバイス。 33. The device of claim 32, wherein the device comprises a wireless communication device further comprising a receiver configured to receive encoded video data. 前記ワイヤレス通信デバイスが、電話ハンドセットを備え、ここにおいて、前記受信機が、前記符号化ビデオデータを備える信号を、ワイヤレス通信規格に従って、復調するように構成される、請求項33に記載のデバイス。 34. The device of claim 33, wherein the wireless communication device comprises a telephone handset, wherein the receiver is configured to demodulate the signal comprising the encoded video data in accordance with a wireless communication standard. 復号ビデオデータを表示するように構成されたディスプレイ
をさらに備える、請求項17に記載のデバイス。
18. The device of claim 17, further comprising a display configured to display decoded video data.
前記デバイスが、カメラ、コンピュータ、モバイルデバイス、放送受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、請求項17に記載のデバイス。 18. The device of claim 17, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box. 前記デバイスが、ビデオ符号化デバイスを備える、請求項17に記載のデバイス。 18. The device of claim 17, wherein the device comprises a video encoding device. 1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
再構築ブロックの再構築サンプルに、第1の段階の適応ループフィルタ(ALF)を適用することと、ここにおいて、前記第1の段階のALFを適用するために、前記1つまたは複数のプロセッサが、
前記再構築サンプルについての第1のクラスインデックスを決定することと、
前記第1のクラスインデックスに基づいて、フィルタの第1のセットからフィルタを選択することと、
第1の中間サンプル値を決定するために、前記再構築サンプルに、フィルタの前記第1のセットからの前記フィルタを適用することと
を行うようにさらに構成され、
前記再構築サンプルに、第2の段階のALFを適用することと、ここにおいて、前記第2の段階のALFを適用するために、前記1つまたは複数のプロセッサが、
前記再構築サンプルについての第2のクラスインデックスを決定することと、
前記第2のクラスインデックスに基づいて、フィルタの第2のセットから第2のフィルタを選択することと、
第1のサンプル変更値を決定するために、前記再構築サンプルに、前記第2のフィルタを適用することと、
前記第1の中間サンプル値に基づいて、第2のサンプル変更値を決定することと
を行うようにさらに構成され、
前記再構築サンプルと、前記第1のサンプル変更値と、前記第2のサンプル変更値とに基づいて、フィルタリングされた再構築サンプルを決定することと
を行わせる命令を記憶した、コンピュータ可読記憶媒体。
when executed by one or more processors, the one or more processors:
applying a first stage adaptive loop filter (ALF) to the reconstructed samples of the reconstruction block; ,
determining a first class index for the reconstructed sample;
selecting a filter from a first set of filters based on the first class index;
applying the filter from the first set of filters to the reconstructed sample to determine a first intermediate sample value; and
applying a second stage ALF to the reconstructed samples;
determining a second class index for the reconstructed sample;
selecting a second filter from a second set of filters based on the second class index;
applying the second filter to the reconstructed sample to determine a first sample modification value;
further configured to: determine a second sample modification value based on the first intermediate sample value;
a computer-readable storage medium storing instructions for: determining a filtered reconstructed sample based on the reconstructed sample, the first sample modification value, and the second sample modification value; .
JP2023535712A 2020-12-23 2021-12-22 Adaptive loop filter with fixed filter Pending JP2024501465A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063130275P 2020-12-23 2020-12-23
US63/130,275 2020-12-23
US202163148538P 2021-02-11 2021-02-11
US63/148,538 2021-02-11
US17/557,706 2021-12-21
US17/557,706 US11778177B2 (en) 2020-12-23 2021-12-21 Adaptive loop filter with fixed filters
PCT/US2021/064898 WO2022140567A1 (en) 2020-12-23 2021-12-22 Adaptive loop filter with fixed filters

Publications (2)

Publication Number Publication Date
JP2024501465A true JP2024501465A (en) 2024-01-12
JPWO2022140567A5 JPWO2022140567A5 (en) 2024-12-04

Family

ID=80001446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023535712A Pending JP2024501465A (en) 2020-12-23 2021-12-22 Adaptive loop filter with fixed filter

Country Status (5)

Country Link
EP (1) EP4268458A1 (en)
JP (1) JP2024501465A (en)
KR (1) KR20230123947A (en)
TW (1) TW202234886A (en)
WO (1) WO2022140567A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024164022A1 (en) * 2023-02-05 2024-08-08 Beijing Dajia Internet Information Technology Co., Ltd Methods and devices for adaptive loop filter and cross-component adaptive loop filter

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11405611B2 (en) 2016-02-15 2022-08-02 Qualcomm Incorporated Predicting filter coefficients from fixed filters for video coding
WO2019182159A1 (en) * 2018-03-23 2019-09-26 シャープ株式会社 Image filtering device, image decoding device, and image encoding device

Also Published As

Publication number Publication date
WO2022140567A1 (en) 2022-06-30
KR20230123947A (en) 2023-08-24
TW202234886A (en) 2022-09-01
EP4268458A1 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
US11778177B2 (en) Adaptive loop filter with fixed filters
JP2023544705A (en) Joint component neural network-based filtering during video coding.
CN114080805B (en) Nonlinear expansion of adaptive loop filtering for video coding
CN113853784A (en) Multiple sets of adaptive loop filters for video coding
US12075034B2 (en) Multiple adaptive loop filter sets
US12200207B2 (en) Signaled adaptive loop filter with multiple classifiers in video coding
US11778213B2 (en) Activation function design in neural network-based filtering process for video coding
CN114223202A (en) Low frequency inseparable transform (LFNST) signaling
US20220215593A1 (en) Multiple neural network models for filtering during video coding
JP2024500663A (en) Decoder side intra mode derivation for most probable mode list construction in video coding
US20230300328A1 (en) Adaptive loop filter with samples before deblocking filter and samples before sample adaptive offsets
JP2024501465A (en) Adaptive loop filter with fixed filter
TW202029747A (en) Restrictions for the worst-case bandwidth reduction in video coding
US20240414333A1 (en) Mapping table derivation for fixed filter sets in video coding
US12058381B2 (en) Joint clipping operating for filters for video coding
US20240015337A1 (en) Filtering in parallel with deblocking filtering in video coding
US20240297989A1 (en) Preprocessing of input data for adaptive loop filter in video coding
US20240015312A1 (en) Neural network based filtering process for multiple color components in video coding
CN116636207A (en) Adaptive loop filter with fixed filter
WO2024011113A1 (en) Filtering in parallel with deblocking filtering in video coding
WO2024182602A1 (en) Preprocessing of input data for adaptive loop filter in video coding
CN118830244A (en) Adaptive loop filter with samples before deblocking filter and samples before sample adaptive offset
TW202431835A (en) Adaptive loop filter classifiers
TW202504306A (en) Filtering applied to prediction in video coding
TW202433933A (en) Intra-block copy for natural video content

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241125