JP7498297B2 - ビデオフィルタリングのための方法および装置 - Google Patents

ビデオフィルタリングのための方法および装置 Download PDF

Info

Publication number
JP7498297B2
JP7498297B2 JP2022563467A JP2022563467A JP7498297B2 JP 7498297 B2 JP7498297 B2 JP 7498297B2 JP 2022563467 A JP2022563467 A JP 2022563467A JP 2022563467 A JP2022563467 A JP 2022563467A JP 7498297 B2 JP7498297 B2 JP 7498297B2
Authority
JP
Japan
Prior art keywords
filter
sample
samples
node
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022563467A
Other languages
English (en)
Other versions
JP2023522703A (ja
Inventor
イシン・ドゥ
シン・ジャオ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2023522703A publication Critical patent/JP2023522703A/ja
Priority to JP2024087091A priority Critical patent/JP2024107033A/ja
Application granted granted Critical
Publication of JP7498297B2 publication Critical patent/JP7498297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

関連出願の相互参照
本出願は、2021年9月28日に出願された米国特許出願第17/449,126号「METHOD AND APPARATUS FOR VIDEO FILTERING」の優先権の利益を主張し、上記特許出願は、2021年3月22日に出願された米国仮出願第63/164,478号「FLEXIBLE FILTER LOCATION FOR SAMPLE OFFSET」の優先権の利益を主張する。先行出願の開示全体は、参照によりその全体が本明細書に組み込まれる。
本開示は、一般に、ビデオコーディングに関係する実施形態を記載する。
本明細書において提供される背景技術の説明は、本開示の文脈を大まかに提示することを目的としている。ここに記名された発明者の仕事は、その仕事がこの背景技術セクションに記載されている程度まで、ならびにさもなければ出願時に従来技術として適格ではない可能性がある説明の態様は、本開示に対する従来技術として、明示的にも黙示的にも認められていない。
ビデオのコーディングおよび復号は、動き補償を伴うインターピクチャ予測を使用して実行することができる。非圧縮デジタルビデオは一連のピクチャを含むことができ、各ピクチャは、例えば、1920×1080の輝度サンプルおよび関連する彩度サンプルの空間次元を有する。一連のピクチャは、例えば、毎秒60ピクチャまたは60Hzの固定または可変の(非公式にはフレームレートとしても知られる)ピクチャレートを有することができる。非圧縮ビデオは特有のビットレート要件を有する。例えば、サンプルあたり8ビットでの1080p60 4:2:0ビデオ(60Hzフレームレートで1920×1080の輝度サンプル解像度)は、1.5Gbit/sに近い帯域幅を必要とする。そのようなビデオの1時間は、600Gバイトを超える記憶空間を必要とする。
ビデオのコーディングおよび復号の1つの目的は、圧縮を介して入力ビデオ信号内の冗長度を低減することであり得る。圧縮は、前述の帯域幅および/または記憶空間の要件を、場合によっては、2桁以上削減するのに役立つことができる。可逆圧縮と非可逆圧縮の両方、ならびにそれらの組合せを採用することができる。可逆圧縮は、圧縮された元の信号から元の信号の正確なコピーを復元することができる技法を指す。非可逆圧縮を使用すると、復元された信号は元の信号と同一ではない可能性があるが、元の信号と復元された信号との間の歪みは、復元された信号を目的の用途に有用なものにするほど十分小さい。ビデオの場合、非可逆圧縮が広く採用されている。許容される歪みの量はアプリケーションに依存し、例えば、特定の消費者向けストリーミングアプリケーションのユーザは、テレビ配信アプリケーションのユーザよりも高い歪みを許容することができる。実現可能な圧縮比は、許容/耐容歪みが大きいほど、圧縮比が高くなり得ることを反映することができる。
ビデオエンコーダおよびデコーダは、例えば、動き補償、変換、量子化、およびエントロピーコーディングを含む、いくつかの広範なカテゴリからの技法を利用することができる。
ビデオコーデック技術は、イントラコーディングとして知られる技法を含むことができる。イントラコーディングでは、サンプル値は、以前に復元された参照ピクチャからのサンプルまたは他のデータを参照することなく表される。一部のビデオコーデックでは、ピクチャは空間的にサンプルのブロックに細分化される。サンプルのすべてのブロックがイントラモードでコーディングされるとき、そのピクチャはイントラピクチャであり得る。イントラピクチャ、および独立デコーダリフレッシュピクチャなどのそれらの派生物は、デコーダ状態をリセットするために使用することができるので、コーディングされたビデオビットストリームおよびビデオセッション内の最初のピクチャとして、または静止画像として使用することができる。イントラブロックのサンプルは、変換にさらされる可能性があり、変換係数は、エントロピーコーディングの前に量子化することができる。イントラ予測は、変換前領域内のサンプル値を最小化する技法であり得る。場合によっては、変換後のDC値が小さいほど、かつAC係数が小さいほど、エントロピーコーディング後のブロックを表すために所与の量子化ステップのサイズにおいて必要とされるビットは少なくなる。
例えばMPEG-2生成コーディング技術から知られているような従来のイントラコーディングは、イントラ予測を使用しない。しかしながら、いくつかのより新しいビデオ圧縮技術は、例えば、空間的に隣接し、復号順序で先行するデータのブロックの符号化/復号の間に取得される周囲のサンプルデータおよび/またはメタデータから試行する技法を含む。そのような技法は、以後「イントラ予測」技法と呼ばれる。少なくともいくつかの場合では、イントラ予測は復元中の現在ピクチャからの参照データのみを使用し、参照ピクチャからは使用しないことに留意されたい。
イントラ予測には多くの異なる形式があり得る。そのような技法のうちの2つ以上が所与のビデオコーディング技術において使用され得るとき、使用中の技法はイントラ予測モードでコーディングすることができる。いくつかの例では、モードは下位モードおよび/またはパラメータを有することができ、それらは個別にコーディングされ得るか、またはモードコードワードに含まれ得る。所与のモード/下位モード/パラメータの組合せにどのコードワードを使用するかは、イントラ予測によるコーディング効率の向上に影響を及ぼすことができるので、コードワードをビットストリームに変換するために使用されるエントロピーコーディング技術に影響を及ぼすことができる。
イントラ予測の特定のモードは、H.264で導入され、H.265において改良され、共同探索モデル(JEM)、多用途ビデオコーディング(VVC)、およびベンチマークセット(BMS)などのより新しいコーディング技術においてさらに改良された。予測器ブロックは、すでに利用可能なサンプルに属する隣接サンプル値を使用して形成することができる。隣接サンプルのサンプル値は、方向に従って予測器ブロックにコピーされる。使用中の方向への参照は、ビットストリーム内でコーディングされ得るか、またはそれ自体が予測されてもよい。
図1Aを参照すると、右下に描写されているのは、H.265の(35個のイントラモードのうちの33個の角度モードに対応する)33個の可能な予測器方向から知られる9つの予測器方向のサブセットである。矢印が収束する点(101)は、予測されているサンプルを表す。矢印は、そこからサンプルが予測されている方向を表す。例えば、矢印(102)は、サンプル(101)が水平から45度の角度で右上にある1つまたは複数のサンプルから予測されることを示す。同様に、矢印(103)は、サンプル(101)が水平から22.5度の角度でサンプル(101)の左下にある1つまたは複数のサンプルから予測されることを示す。
さらに図1Aを参照すると、左上には、(太い破線によって示された)4×4サンプルの正方形ブロック(104)が描写されている。正方形ブロック(104)は16個のサンプルを含み、各々、「S」、Y次元のその位置(例えば、行インデックス)、およびX次元のその位置(例えば、列インデックス)でラベル付けされている。例えば、サンプルS21は、Y次元の(上から)2番目のサンプルであり、X次元の(左から)1番目のサンプルである。同様に、サンプルS44は、ブロック(104)内のY次元およびX次元の両方の4番目のサンプルである。ブロックはサイズが4×4サンプルなので、S44は右下にある。同様の番号付け方式に従う参照サンプルがさらに示されている。参照サンプルは、ブロック(104)に対してR、そのY位置(例えば、行インデックス)、およびX位置(列インデックス)でラベル付けされている。H.264およびH.265の両方において、予測サンプルは復元中のブロックに隣接するので、負の値が使用される必要はない。
イントラピクチャ予測は、シグナリングされた予測方向によって割り当てられるように、隣接サンプルからの参照サンプル値をコピーすることによって機能することができる。例えば、コーディングされたビデオビットストリームが、このブロックに関して、矢印(102)と一致する予測方向を示すシグナリングを含む、すなわち、サンプルが水平から45度の角度で右上にある1つまたは複数の予測サンプルから予測されると仮定する。その場合、同じ参照サンプルR05からサンプルS41、S32、S23、およびS14が予測される。次いで、参照サンプルR08からサンプルS44が予測される。
特定の場合には、参照サンプルを計算するために、特に方向が45度によって均等に割り切れないときは、複数の参照サンプルの値は、例えば補間によって組み合わされてもよい。
可能な方向の数は、ビデオコーディング技術が発展するにつれて増加している。H.264(2003年)では、9つの異なる方向を表すことができた。それがH.265(2013年)では33に増加し、本開示の時点では、JEM/VVC/BMSは最大65個の方向をサポートすることができる。最も可能性が高い方向を識別するために実験が行われており、エントロピーコーディングの特定の技術は、それらの可能性が高い方向を少数のビットで表すために使用され、可能性が低い方向に関しては一定のペナルティを受け入れている。さらに、方向自体は、時々、隣接するすでに復号されたブロックにおいて使用された隣接方向から予測することができる。
図1Bは、経時的に増加する数の予測方向を示すために、JEMによる65個のイントラ予測方向を描写する概略図(180)を示す。
方向を表す、コーディングされたビデオビットストリーム内のイントラ予測方向ビットのマッピングは、ビデオコーディング技術ごとに異なってもよく、例えば、予測方向のイントラ予測モードへの単純な直接マッピングから、コードワード、最も可能性が高いモードを含む複雑な適応方式、および同様の技術まで及ぶことができる。しかしながら、すべての場合において、ビデオコンテンツ内で特定の他の方向よりも統計的に発生する可能性が低い特定の方向が存在することができる。ビデオ圧縮の目的は冗長性の低減であるので、それらの可能性が低い方向は、うまく機能するビデオコーディング技術では、可能性が高い方向よりも多いビット数によって表される。
動き補償は非可逆圧縮技法であり得、以前に復元されたピクチャまたはその一部(参照ピクチャ)からのサンプルデータのブロックが、動きベクトル(以降、MV)によって示された方向に空間的にシフトされた後に、新しく復元されるピクチャまたはピクチャの一部の予測に使用される技法に関することができる。場合によっては、参照ピクチャは現在復元中のピクチャと同じであり得る。MVは、2つの次元XおよびY、または3つの次元を有することができ、3番目の次元は、使用中の参照ピクチャの指示である(後者は、間接的に時間次元であり得る)。
いくつかのビデオ圧縮技法では、サンプルデータの特定の領域に適用可能なMVは、他のMVから、例えば、復元中の領域に空間的に隣接し、復号順序でそのMVに先行するサンプルデータの別の領域に関連するMVから予測することができる。そうすることにより、MVのコーディングに必要なデータ量を大幅に削減することができ、それによって冗長性が排除され、圧縮率が増加する。例えば、(ナチュラルビデオとして知られている)カメラから導出された入力ビデオ信号をコーディングするとき、単一のMVが適用可能な領域よりも大きい領域が同様の方向に移動する統計的な可能性が存在するので、MV予測は効果的に機能することができ、したがって、場合によっては、隣接する領域のMVから導出された同様の動きベクトルを使用して予測することができる。その結果、所与の領域について検出されたMVは、周囲のMVから予測されたMVと同様または同じであり、エントロピーコーディング後、直接MVをコーディングする場合に使用されるビット数より少ないビット数で表すことができる。場合によっては、MV予測は、元の信号(すなわち、サンプルストリーム)から導出された信号(すなわち、MV)の可逆圧縮の一例であり得る。他の場合、MV予測自体は、例えば、いくつかの周囲のMVから予測子を計算するときの丸め誤差のために、非可逆であり得る。
様々なMV予測メカニズムが、H.265/HEVC(ITU-T Rec.H.265、「High Efficiency Video Coding」、2016年12月)に記載されている。H.265が提供する多くのMV予測メカニズムのうち、本明細書に記載されるのは、以降「空間マージ」と呼ばれる技法である。
図2を参照すると、現在ブロック(201)は、動き検索プロセス中にエンコーダにより、空間的にシフトされた同じサイズの以前のブロックから予測可能であることが見出されたサンプルを含む。直接そのMVをコーディングする代わりに、MVは、A0、A1、およびB0、B1、B2(それぞれ、202~206)と表記された5つの周囲サンプルのいずれか1つに関連付けられたMVを使用して、1つまたは複数の参照ピクチャに関連付けられたメタデータから、例えば、(復号順序で)最新の参照ピクチャから導出することができる。H.265では、MV予測は、隣接するブロックが使用している同じ参照ピクチャからの予測子を使用することができる。
本開示の態様は、ビデオ符号化/復号におけるフィルタリングのための方法および装置を提供する。いくつかの例では、ビデオフィルタリングのための装置は処理回路を含む。処理回路は、ループフィルタチェーン内の第1のノードにある第1の復元サンプルに基づいて、非線形マッピングベースフィルタを適用するための第1のオフセット値を決定する。次いで、処理回路は、第2の復元サンプルを生成するために、ループフィルタチェーンに沿った第2のノードにある中間復元サンプルに第1のオフセット値を加える。
いくつかの例では、非線形マッピングベースフィルタは、成分間サンプルオフセット(CCSO)フィルタであり、中間復元サンプルおよび第1の復元サンプルは、異なる色成分のサンプルである。
いくつかの例では、非線形マッピングベースフィルタは、局所サンプルオフセット(LSO)フィルタであり、中間復元サンプルおよび第1の復元サンプルは、同じ色成分のサンプルである。
いくつかの実施形態では、第1のノードおよび第2のノードは、ループフィルタチェーンの入力ノード、ループフィルタチェーンの出力ノード、またはループフィルタチェーンの中間ノードなどの同じノードのものである。一例では、第1の復元サンプルは、デブロッキングフィルタより前に処理モジュールによって生成される。別の例では、第1の復元サンプルは、デブロッキングフィルタによって生成される。別の例では、第1の復元サンプルは、制約付き指向性拡張フィルタによって生成される。別の例では、第1の復元サンプルは、ループ復元フィルタによって生成される。
いくつかの例では、第1のノードおよび第2のノードは異なるノードのものである。一例では、第1の復元サンプルは、デブロッキングフィルタより前に処理モジュールによって生成され、中間復元サンプルは、デブロッキングフィルタ、制約付き指向性拡張フィルタ、またはループ復元フィルタのうちの少なくとも1つによって生成される。
いくつかの例では、第1の復元サンプルは、デブロッキングフィルタによって生成され、中間復元サンプルは、制約付き指向性拡張フィルタまたはループ復元フィルタのうちの少なくとも1つによって生成される。
いくつかの例では、第1の復元サンプルは、制約付き指向性拡張フィルタによって生成され、中間復元サンプルは、ループ復元フィルタによって生成される。
本開示の態様はまた、コンピュータによって実行されると、ビデオ符号化/復号のための方法のいずれかをコンピュータに実行させる命令を記憶する非一時的コンピュータ可読媒体を提供する。
開示された主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかになるであろう。
イントラ予測モードの例示的なサブセットの概略図である。 例示的なイントラ予測方向の図である。 一例における現在ブロックおよびその周囲の空間マージ候補の概略図である。 一実施形態による、通信システム(300)の簡略化されたブロック図の概略図である。 一実施形態による、通信システム(400)の簡略化されたブロック図の概略図である。 一実施形態による、デコーダの簡略化されたブロック図の概略図である。 一実施形態による、エンコーダの簡略化されたブロック図の概略図である。 別の実施形態による、エンコーダのブロック図である。 別の実施形態による、デコーダのブロック図である。 本開示の実施形態による、フィルタ形状の例を示す図である。 本開示の実施形態による、勾配を計算するために使用されるサブサンプリングされた位置の例を示す図である。 本開示の実施形態による、勾配を計算するために使用されるサブサンプリングされた位置の例を示す図である。 本開示の実施形態による、勾配を計算するために使用されるサブサンプリングされた位置の例を示す図である。 本開示の実施形態による、勾配を計算するために使用されるサブサンプリングされた位置の例を示す図である。 本開示の実施形態による、仮想境界フィルタリングプロセスの例を示す図である。 本開示の実施形態による、仮想境界フィルタリングプロセスの例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示の実施形態による、仮想境界における対称パディング動作の例を示す図である。 本開示のいくつかの実施形態による、ピクチャのパーティション例を示す図である。 いくつかの例におけるピクチャ用の四分木分割パターンを示す図である。 本開示の一実施形態による、成分間フィルタを示す図である。 本開示の一実施形態による、フィルタ形状の一例を示す図である。 本開示のいくつかの実施形態による、成分間フィルタ用の構文例を示す図である。 本開示の実施形態による、輝度サンプルに対する彩度サンプルの例示的な位置を示す図である。 本開示の実施形態による、輝度サンプルに対する彩度サンプルの例示的な位置を示す図である。 本開示の一実施形態による、方向検索の一例を示す図である。 いくつかの例における部分空間投影を示す一例を示す図である。 本開示の一実施形態による、複数のサンプル適応オフセット(SAO)タイプの表である。 いくつかの例におけるエッジオフセットにおけるピクセル分類のためのパターンの例を示す図である。 いくつかの例におけるエッジオフセット向けのピクセル分類規則のための表である。 シグナリングされ得る構文の一例を示す図である。 本開示のいくつかの実施形態による、フィルタ支持エリアの一例を示す図である。 本開示のいくつかの実施形態による、別のフィルタ支持エリアの一例を示す図である。 本開示の一実施形態による、81個の組合せを有する表である。 本開示の一実施形態による、81個の組合せを有する表である。 本開示の一実施形態による、81個の組合せを有する表である。 一例における3つのフィルタタップの7つのフィルタ形状構成を示す図である。 いくつかの例におけるループフィルタチェーンのブロック図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 ループフィルタチェーンの異なる位置に非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す図である。 いくつかの例における非線形マッピングベースフィルタを含むループフィルタチェーンの別の例を示す図である。 いくつかの例における複数の非線形マッピングベースフィルタを含むループフィルタチェーンの一例を示す図である。 いくつかの例における複数の非線形マッピングベースフィルタを含むループフィルタチェーンの別の例を示す図である。 本開示の一実施形態による、プロセスの概要を示すフローチャートである。 一実施形態による、コンピュータシステムの概略図である。
図3は、本開示の一実施形態による、通信システム(300)の簡略化されたブロック図を示す。通信システム(300)は、例えば、ネットワーク(350)を介して互いに通信することができる複数の端末デバイスを含む。例えば、通信システム(300)は、ネットワーク(350)を介して相互接続された端末デバイス(310)および(320)の第1のペアを含む。図3の例では、端末デバイス(310)および(320)の第1のペアは、データの単方向送信を実行する。例えば、端末デバイス(310)は、ネットワーク(350)を介して他の端末デバイス(320)に送信するためのビデオデータ(例えば、端末デバイス(310)によって取り込まれたビデオピクチャのストリーム)をコード化することができる。符号化ビデオデータは、1つまたは複数のコード化ビデオビットストリームの形式で送信することができる。端末デバイス(320)は、ネットワーク(350)からコード化ビデオデータを受信し、コード化ビデオデータを復号してビデオピクチャを復元し、復元されたビデオデータに従ってビデオピクチャを表示することができる。単方向データ送信は、メディアサービングアプリケーションなどで一般的であり得る。
別の例では、通信システム(300)は、例えばビデオ会議中に発生する可能性があるコード化ビデオデータの双方向送信を実行する端末デバイス(330)および(340)の第2のペアを含む。データの双方向送信の場合、一例では、端末デバイス(330)および(340)の各端末デバイスは、ネットワーク(350)を介して端末デバイス(330)および(340)の他方の端末デバイスに送信するためのビデオデータ(例えば、端末デバイスによって取り込まれたビデオピクチャのストリーム)をコード化することができる。端末デバイス(330)および(340)の各端末デバイスはまた、端末デバイス(330)および(340)の他方の端末デバイスによって送信されたコード化ビデオデータを受信することができ、コード化ビデオデータを復号してビデオピクチャを復元することができ、復元されたビデオデータに従ってアクセス可能な表示デバイスにビデオピクチャを表示することができる。
図3の例では、端末デバイス(310)、(320)、(330)、および(340)は、サーバ、パーソナルコンピュータ、およびスマートフォンとして示される場合があるが、本開示の原理はそのように限定されなくてもよい。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、および/または専用ビデオ会議機器を用いるアプリケーションを見出す。ネットワーク(350)は、例えば、電線(有線)および/またはワイヤレスの通信ネットワークを含む、端末デバイス(310)、(320)、(330)、および(340)の間でコード化ビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク(350)は、回線交換チャネルおよび/またはパケット交換チャネルでデータを交換することができる。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはインターネットが含まれる。本説明の目的のために、ネットワーク(350)のアーキテクチャおよびトポロジーは、本明細書で以下に説明されない限り、本開示の動作にとって重要でない可能性がある。
図4は、開示された主題についてのアプリケーション用の一例として、ストリーミング環境におけるビデオエンコーダおよびビデオデコーダの配置を示す。開示された主題は、例えば、ビデオ会議、デジタルテレビ、CD、DVD、メモリスティックなどを含むデジタル媒体への圧縮ビデオの保存などを含む、他のビデオ対応アプリケーションに等しく適用可能であり得る。
ストリーミングシステムは、例えば、圧縮されていないビデオピクチャのストリーム(402)を作成するビデオソース(401)、例えば、デジタルカメラを含むことができるキャプチャサブシステム(413)を含んでもよい。一例では、ビデオピクチャのストリーム(402)は、デジタルカメラによって撮影されたサンプルを含む。符号化ビデオデータ(404)(またはコード化ビデオビットストリーム)と比較したときに多いデータ量を強調するために太い線として描写されたビデオピクチャのストリーム(402)は、ビデオソース(401)に結合されたビデオエンコーダ(403)を含む電子デバイス(420)によって処理することができる。ビデオエンコーダ(403)は、以下でより詳細に記載されるように、開示された主題の態様を可能にするかまたは実装するために、ハードウェア、ソフトウェア、またはそれらの組合せを含むことができる。ビデオピクチャのストリーム(402)と比較したときに少ないデータ量を強調するために細い線として描写された符号化ビデオデータ(404)(または符号化ビデオビットストリーム(404))は、将来の使用のためにストリーミングサーバ(405)に格納することができる。図4のクライアントサブシステム(406)および(408)などの1つまたは複数のストリーミングクライアントサブシステムは、ストリーミングサーバ(405)にアクセスして、符号化ビデオデータ(404)のコピー(407)および(409)を検索することができる。クライアントサブシステム(406)は、例えば、電子デバイス(430)内のビデオデコーダ(410)を含むことができる。ビデオデコーダ(410)は、符号化ビデオデータの入力コピー(407)を復号し、ディスプレイ(412)(例えば、ディスプレイ画面)または他のレンダリングデバイス(描写せず)上でレンダリングすることができるビデオピクチャの出力ストリーム(411)を作成する。いくつかのストリーミングシステムでは、符号化ビデオデータ(404)、(407)、および(409)(例えば、ビデオビットストリーム)は、特定のビデオコーディング/圧縮規格に従って符号化することができる。それらの規格の例には、ITU-T勧告H.265が含まれる。一例では、開発中のビデオコーディング規格は、非公式に多用途ビデオコーディング
(VVC)として知られている。開示された主題は、VVCの文脈で使用されてもよい。
電子デバイス(420)および(430)は、他の構成要素(図示せず)を含むことができることに留意されたい。例えば、電子デバイス(420)はビデオデコーダ(図示せず)を含むことができ、電子デバイス(430)もビデオエンコーダ(図示せず)を含むことができる。
図5は、本開示の一実施形態による、ビデオデコーダ(510)のブロック図を示す。ビデオデコーダ(510)は、電子デバイス(530)に含まれ得る。電子デバイス(530)は、受信機(531)(例えば、受信回路)を含むことができる。ビデオデコーダ(510)は、図4の例のビデオデコーダ(410)の代わりに使用することができる。
受信機(531)は、ビデオデコーダ(510)によって復号される1つまたは複数のコード化ビデオシーケンス、同じかまたは別の実施形態では、一度に1つのコード化ビデオシーケンスを受信することができ、各コード化ビデオシーケンスの復号は、他のコード化ビデオシーケンスから独立している。コード化ビデオシーケンスは、チャネル(501)から受信されてもよく、チャネル(501)は、符号化ビデオデータを格納するストレージデバイスへのハードウェア/ソフトウェアリンクであってもよい。受信機(531)は、それらのそれぞれの使用エンティティ(描写せず)に転送され得る他のデータ、例えば、コード化オーディオデータおよび/または補助データストリームとともに符号化ビデオデータを受信することができる。受信機(531)は、コード化ビデオシーケンスを他のデータから分離することができる。ネットワークジッタに対抗するために、バッファメモリ(515)は、受信機(531)とエントロピーデコーダ/パーサー(520)(以下、「パーサー(520)」)との間に結合されてもよい。特定のアプリケーションでは、バッファメモリ(515)はビデオデコーダ(510)の一部である。他のアプリケーションでは、それはビデオデコーダ(510)の外側にあり得る(描写せず)。さらに他のアプリケーションでは、例えば、ネットワークジッタに対抗するために、ビデオデコーダ(510)の外側にバッファメモリ(描写せず)が存在することができ、加えて、例えば、プレイアウトタイミングを処理するために、ビデオデコーダ(510)の内側に別のバッファメモリ(515)が存在することができる 受信機(531)が十分な帯域幅および制御可能性のストア/フォワードデバイスから、または等同期ネットワークからデータを受信しているとき、バッファメモリ(515)は必要とされなくてもよいか、または小さい可能性がある。インターネットなどのベストエフォートパケットネットワークで使用するために、バッファメモリ(515)は、必要とされる場合があり、比較的大きい可能性があり、有利なことに適応サイズであり得、オペレーティングシステムまたはビデオデコーダ(510)の外側の同様の要素(描写せず)に少なくとも部分的に実装されてもよい。
ビデオデコーダ(510)は、コード化ビデオシーケンスからシンボル(521)を復元するためにパーサー(520)を含んでもよい。これらのシンボルのカテゴリには、ビデオデコーダ(510)の動作を管理するために使用される情報、および潜在的に、電子デバイス(530)の不可欠な部分ではないが、図5に示されたように、電子デバイス(530)に結合することができるレンダリングデバイス(512)(例えば、ディスプレイ画面)などのレンダリングデバイスを制御するための情報が含まれる。レンダリングデバイスのための制御情報は、補足拡張情報(SEIメッセージ)またはビデオユーザビリティ情報(VUI)のパラメータセットフラグメント(描写せず)の形式であってもよい。パーサー(520)は、受け取ったコード化ビデオシーケンスを構文解析/エントロピー復号することができる。コード化ビデオシーケンスのコーディングは、ビデオコーディング技術または規格に従うことができ、文脈感度の有無にかかわらず、可変長コーディング、ハフマンコーディング、算術コーディングなどを含む様々な原理に従うことができる。パーサー(520)は、グループに対応する少なくとも1つのパラメータに基づいて、コード化ビデオシーケンスから、ビデオデコーダ内のピクセルのサブグループのうちの少なくとも1つのためのサブグループパラメータのセットを抽出することができる。サブグループは、ピクチャグループ(GOP)、ピクチャ、タイル、スライス、マクロブロック、コーディングユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含むことができる。パーサー(520)はまた、コード化ビデオシーケンスから、変換係数、量子化器パラメータ値、動きベクトルなどの情報を抽出することができる。
パーサー(520)は、シンボル(521)を作成するために、バッファメモリ(515)から受け取ったビデオシーケンスに対してエントロピー復号/構文解析動作を実行することができる。
シンボル(521)の復元は、(ピクチャ間およびピクチャ内、ブロック間およびブロック内などの)コード化ビデオピクチャまたはその一部のタイプ、ならびに他の要因に応じて、複数の異なるユニットを含むことができる。どのユニットがどのように関与しているかは、パーサー(520)によってコード化ビデオシーケンスから構文解析されたサブグループ制御情報によって制御することができる。パーサー(520)と以下の複数のユニットとの間のそのようなサブグループ制御情報の流れは、分かりやすくするために描写されていない。
すでに述べられた機能ブロック以外に、ビデオデコーダ(510)は、以下に記載されるように、概念的にいくつかの機能ユニットに細分化することができる。商業的制約の下で動作する実際の実装形態では、これらのユニットの多くは、互いに密接に相互作用し、少なくとも部分的には互いに統合することができる。しかしながら、開示された主題を記載するために、以下の機能ユニットへの概念的な細分化が適切である。
第1のユニットはスケーラ/逆変換ユニット(551)である。スケーラ/逆変換ユニット(551)は、量子化変換係数、ならびにどの変換を使用するか、ブロックサイズ、量子化係数、量子化スケーリング行列などを含む制御情報を、パーサー(520)からシンボル(521)として受け取る。スケーラ/逆変換ユニット(551)は、アグリゲータ(555)に入力することができるサンプル値を含むブロックを出力することができる。
場合によっては、スケーラ/逆変換(551)の出力サンプルは、イントラコード化ブロック、すなわち、以前に復元されたピクチャからの予測情報を使用していないが、現在ピクチャの以前に復元された部分からの予測情報を使用することができるブロックに関連する可能性がある。そのような予測情報は、イントラピクチャ予測ユニット(552)によって提供することができる。場合によっては、イントラピクチャ予測ユニット(552)は、現在ピクチャバッファ(558)からフェッチされた周囲のすでに復元された情報を使用して、復元中のブロックと同じサイズおよび形状のブロックを生成する。現在ピクチャバッファ(558)は、例えば、部分的に復元された現在ピクチャおよび/または完全に復元された現在ピクチャをバッファリングする。アグリゲータ(555)は、場合によっては、サンプルごとに、イントラ予測ユニット(552)が生成した予測情報を、スケーラ/逆変換ユニット(551)によって提供される出力サンプル情報に追加する。
他の場合には、スケーラ/逆変換ユニット(551)の出力サンプルは、インターコード化され、潜在的に動き補償されたブロックに関連する可能性がある。そのような場合、動き補償予測ユニット(553)は、参照ピクチャメモリ(557)にアクセスして、予測に使用されるサンプルをフェッチすることができる。ブロックに関連するシンボル(521)に従ってフェッチされたサンプルを動き補償した後、これらのサンプルは、出力サンプル情報を生成するために、アグリゲータ(555)によってスケーラ/逆変換ユニット(551)の出力に追加することができる(この場合、残差サンプルまたは残差信号と呼ばれる)。動き補償予測ユニット(553)が予測サンプルをフェッチする参照ピクチャメモリ(557)内のアドレスは、例えば、X、Y、および参照ピクチャ成分を有することができるシンボル(521)の形式で動き補償予測ユニット(553)に利用可能な動きベクトルによって制御することができる。動き補償はまた、サブサンプルの正確な動きベクトルが使用されているときに参照ピクチャメモリ(557)からフェッチされたサンプル値の補間、動きベクトル予測メカニズムなどを含むことができる。
アグリゲータ(555)の出力サンプルは、ループフィルタユニット(556)において様々なループフィルタリング技法を受けることができる。ビデオ圧縮技術は、(コード化ビデオビットストリームとも呼ばれる)コード化ビデオシーケンスに含まれるパラメータによって制御され、パーサー(520)からのシンボル(521)としてループフィルタユニット(556)に利用可能にされるインループフィルタ技術を含むことができるが、コード化ピクチャまたはコード化ビデオシーケンスの(復号順序で)前の部分の復号中に取得されたメタ情報に応答するだけでなく、以前に復元およびループフィルタリングされたサンプル値に応答することもできる。
ループフィルタユニット(556)の出力は、レンダリングデバイス(512)に出力されるだけでなく、将来のインターピクチャ予測で使用するために参照ピクチャメモリ(557)に格納することができるサンプルストリームであり得る。
特定のコード化ピクチャは、完全に復元されると、将来の予測のために参照ピクチャとして使用することができる。例えば、現在ピクチャに対応するコード化ピクチャが完全に復元され、コード化ピクチャが参照ピクチャとして(例えば、パーサー(520)によって)識別されると、現在ピクチャバッファ(558)は、参照ピクチャメモリ(557)の一部になることができ、未使用の現在ピクチャバッファは、次のコード化ピクチャの復元を開始する前に再割当てすることができる。
ビデオデコーダ(510)は、ITU-T Rec.H.265などの規格における所定のビデオ圧縮技術に従って復号動作を実行することができる。コード化ビデオシーケンスがビデオ圧縮技術または規格の構文とビデオ圧縮技術において文書化されたプロファイルの両方を順守するという意味で、コード化ビデオシーケンスは、使用されているビデオ圧縮技術または規格によって指定された構文に準拠することができる。具体的には、プロファイルは、ビデオ圧縮技術または規格で使用可能なすべてのツールから、そのプロファイル下で使用するために利用可能な唯一のツールとしていくつかのツールを選択することができる。また、準拠するために必要なことは、コード化ビデオシーケンスの複雑さが、ビデオ圧縮技術または規格のレベルによって定義された範囲内にあることであり得る。場合によっては、レベルにより、最大ピクチャサイズ、最大フレームレート、(例えば、1秒あたりのメガサンプル単位で測定された)最大復元サンプルレート、最大参照ピクチャサイズなどが制限される。レベルによって設定される制限は、場合によっては、仮想参照デコーダ(HRD)の仕様、およびコード化ビデオシーケンス内でシグナリングされるHRDバッファ管理用のメタデータによってさらに制限され得る。
一実施形態では、受信機(531)は、符号化ビデオとともに追加の(冗長な)データを受信することができる。追加のデータは、コード化ビデオシーケンスの一部として含まれてもよい。追加のデータは、データを適切に復号するために、かつ/または元のビデオデータをより正確に復元するために、ビデオデコーダ(510)によって使用されてもよい。追加のデータは、例えば、時間、空間、または信号ノイズ比(SNR)の拡張層、冗長スライス、冗長ピクチャ、順方向誤り訂正コードなどの形式であり得る。
図6は、本開示の一実施形態による、ビデオエンコーダ(603)のブロック図を示す。ビデオエンコーダ(603)は電子デバイス(620)に含まれる。電子デバイス(620)は送信機(640)(例えば、送信回路)を含む。ビデオエンコーダ(603)は、図4の例のビデオエンコーダ(403)の代わりに使用することができる。
ビデオエンコーダ(603)は、ビデオエンコーダ(603)によってコード化されるビデオ画像を取り込むことができる(図6の例では電子デバイス(620)の一部ではない)ビデオソース(601)からビデオサンプルを受信することができる。別の例では、ビデオソース(601)は電子デバイス(620)の一部である。
ビデオソース(601)は、任意の適切なビット深度(例えば、8ビット、10ビット、12ビット、…)、任意の色空間(例えば、BT.601 Y CrCB、RGB、…)、および任意の適切なサンプリング構造(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)であり得るデジタルビデオサンプルストリームの形式で、ビデオエンコーダ(603)によってコード化されるソースビデオシーケンスを提供することができる。メディアサービングシステムでは、ビデオソース(601)は、以前に準備されたビデオを格納するストレージデバイスであってもよい。ビデオ会議システムでは、ビデオソース(601)は、ビデオシーケンスとしてローカル画像情報を取り込むカメラであってもよい。ビデオデータは、順番に見たときに動きを伝える複数の個別のピクチャとして提供されてもよい。ピクチャ自体は、ピクセルの空間配列として編成されてよく、各ピクセルは、使用中のサンプリング構造、色空間などに応じて、1つまたは複数のサンプルを含むことができる。当業者は、ピクセルとサンプルとの間の関係を容易に理解することができる。以下の説明はサンプルに焦点を当てる。
一実施形態によれば、ビデオエンコーダ(603)は、リアルタイムで、またはアプリケーションによって必要とされる任意の他の時間制約の下で、ソースビデオシーケンスのピクチャをコード化ビデオシーケンス(643)にコード化し圧縮することができる。適切なコーディング速度を強制することは、コントローラ(650)の1つの機能である。いくつかの実施形態では、コントローラ(650)は、以下に記載される他の機能ユニットを制御し、他の機能ユニットに機能的に結合されている。分かりやすくするために、結合は描写されていない。コントローラ(650)によって設定されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技法のラムダ値、…)、ピクチャサイズ、ピクチャグループ(GOP)のレイアウト、最大動きベクトル検索範囲などを含むことができる。コントローラ(650)は、特定のシステム設計のために最適化されたビデオエンコーダ(603)に関連する他の適切な機能を有するように構成することができる。
いくつかの実施形態では、ビデオエンコーダ(603)は、コーディングループで動作するように構成される。単純化し過ぎた説明として、一例では、コーディングループは、(例えば、コード化される入力ピクチャ、および参照ピクチャに基づいて、シンボルストリームなどのシンボルを作成することに関与する)ソースコーダ(630)、ならびにビデオエンコーダ(603)に組み込まれた(ローカル)デコーダ(633)を含むことができる。デコーダ(633)は、(シンボルとコード化ビデオビットストリームとの間のいかなる圧縮も、開示された主題で考慮されるビデオ圧縮技術において可逆であるため)(リモート)デコーダも作成するのと同様の方式で、シンボルを復元してサンプルデータを作成する。復元されたサンプルストリーム(サンプルデータ)は、参照ピクチャメモリ(634)に入力される。シンボルストリームの復号は、デコーダの場所(ローカルまたはリモート)に関係なくビット正確な結果につながるので、参照ピクチャメモリ(634)内のコンテンツも、ローカルエンコーダとリモートエンコーダとの間でビット正確である。言い換えれば、エンコーダの予測部分は、復号中に予測を使用するときにデコーダが「見る」のと全く同じサンプル値を参照ピクチャサンプルとして「見る」。参照ピクチャの同期性(および、例えば、チャネルエラーのために同期性が維持できない場合に結果として生じるドリフト)のこの基本原理は、いくつかの関連技術でも使用される。
「ローカル」デコーダ(633)の動作は、図5とともに上記で詳細にすでに記載されている、ビデオデコーダ(510)などの「リモート」デコーダの動作と同じであり得る。しかしながら、また図5を簡単に参照すると、シンボルが利用可能であり、エントロピーコーダ(645)およびパーサー(520)によるコード化ビデオシーケンスへのシンボルの符号化/復号は可逆であり得るので、バッファメモリ(515)を含むビデオデコーダ(510)のエントロピー復号部分、およびパーサー(520)は、ローカルデコーダ(633)に完全に実装されていない可能性がある。
この時点で行うことができる観察は、デコーダに存在する構文解析/エントロピー復号以外の任意のデコーダ技術も、対応するエンコーダ内に実質的に同一の関数形式で必ず存在する必要があるということである。このため、開示される主題はデコーダの動作に焦点を当てる。エンコーダ技術の説明は、包括的に記載されたデコーダ技術の逆であるため、省略することができる。特定の領域においてのみ、より詳細な説明が必要であり、以下に提供される。
動作中、いくつかの例では、ソースコーダ(630)は、「参照ピクチャ」として指定されたビデオシーケンスからの1つまたは複数の以前にコード化されたピクチャを参照して入力ピクチャを予測的にコード化する、動き補償予測コーディングを実行することができる。このようにして、コーディングエンジン(632)は、入力ピクチャのピクセルブロックと、入力ピクチャへの予測参照として選択され得る参照ピクチャのピクセルブロックとの間の差をコード化する。
ローカルビデオデコーダ(633)は、ソースコーダ(630)によって作成されたシンボルに基づいて、参照ピクチャとして指定され得るピクチャのコード化ビデオデータを復号することができる。コーディングエンジン(632)の動作は、有利なことに、非可逆プロセスであってもよい。コード化ビデオデータが(図6には示されていない)ビデオデコーダで復号され得るとき、復元されたビデオシーケンスは、通常、いくつかの誤差を伴うソースビデオシーケンスのレプリカであり得る。ローカルビデオデコーダ(633)は、参照ピクチャに対してビデオデコーダによって実行され得る復号プロセスを複製し、復元された参照ピクチャが参照ピクチャキャッシュ(634)に格納されるようにすることができる。このようにして、ビデオエンコーダ(603)は、(送信エラーがない)遠端ビデオデコーダによって取得される復元された参照ピクチャとして共通のコンテンツを有する、復元された参照ピクチャのコピーをローカルに格納することができる。
予測器(635)は、コーディングエンジン(632)のための予測検索を実行することができる。すなわち、コード化される新しいピクチャの場合、予測器(635)は、新しいピクチャのための適切な予測参照として役立つことができる、(候補参照ピクセルブロックとしての)サンプルデータまたは参照ピクチャ動きベクトル、ブロック形状などの特定のメタデータを求めて、参照ピクチャメモリ(634)を検索することができる。予測器(635)は、適切な予測参照を見つけるために、ピクセルブロックごとにサンプルブロックに対して動作することができる。場合によっては、予測器(635)によって取得された検索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(634)に格納された複数の参照ピクチャから引き出された予測参照を有することができる。
コントローラ(650)は、例えば、ビデオデータを符号化するために使用されるパラメータおよびサブグループパラメータの設定を含む、ソースコーダ(630)のコーディング動作を管理することができる。
すべての前述の機能ユニットの出力は、エントロピーコーダ(645)内でエントロピーコーディングを受けることができる。エントロピーコーダ(645)は、ハフマンコーディング、可変長コーディング、算術コーディングなどの技術に従ってシンボルを可逆圧縮することにより、様々な機能ユニットによって生成されたシンボルをコード化ビデオシーケンスに変換する。
送信機(640)は、エントロピーコーダ(645)によって作成されたコード化ビデオシーケンスをバッファリングして、通信チャネル(660)を介した送信の準備をすることができ、通信チャネル(660)は、符号化ビデオデータを格納するストレージデバイスへのハードウェア/ソフトウェアリンクであってもよい。送信機(640)は、ビデオコーダ(603)からのコード化ビデオデータを、送信される他のデータ、例えば、コード化オーディオデータおよび/または補助データストリーム(ソースは図示されていない)とマージすることができる。
コントローラ(650)は、ビデオエンコーダ(603)の動作を管理することができる。コーディング中に、コントローラ(650)は、各コード化ピクチャに特定のコード化ピクチャタイプを割り当てることができ、それは、それぞれのピクチャに適用され得るコーディング技法に影響を及ぼす場合がある。例えば、ピクチャは、しばしば、以下のピクチャタイプのうちの1つとして割り当てられてもよい。
イントラピクチャ(Iピクチャ)は、予測のソースとしてシーケンス内のいかなる他のピクチャも使用せずにコード化および復号され得るピクチャであり得る。いくつかのビデオコーデックは、例えば、独立デコーダリフレッシュ(「IDR」)ピクチャを含む、様々なタイプのイントラピクチャを可能にする。当業者は、Iピクチャのそれらの変形形態、ならびにそれらのそれぞれの用途および特徴を知っている。
予測ピクチャ(Pピクチャ)は、各ブロックのサンプル値を予測するために、多くとも1つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して、コード化および復号され得るピクチャであり得る。
双方向予測ピクチャ(Bピクチャ)は、各ブロックのサンプル値を予測するために、多くとも2つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して、コード化および復号され得るピクチャであり得る。同様に、複数の予測ピクチャは、単一ブロックの復元のために3つ以上の参照ピクチャおよび関連するメタデータを使用することができる。
ソースピクチャは、通常、複数のサンプルブロック(例えば、各々4×4、8×8、4×8、または16×16サンプルのブロック)に空間的に細分化され、ブロックごとにコード化される。ブロックは、ブロックのそれぞれのピクチャに適用されるコーディング割当てによって決定されるように、他の(すでにコード化された)ブロックを参照して予測的にコード化されてもよい。例えば、Iピクチャのブロックは、非予測的にコード化されてもよいか、またはそれらは、同じピクチャのすでにコード化されたブロックを参照して予測的にコード化されてもよい(空間予測もしくはイントラ予測)。Pピクチャのピクセルブロックは、1つの以前にコード化された参照ピクチャを参照して、空間予測を介してまたは時間予測を介して予測的にコード化されてもよい。Bピクチャのブロックは、1つまたは2つの以前にコード化された参照ピクチャを参照して、空間予測を介してまたは時間予測を介して予測的にコード化されてもよい。
ビデオエンコーダ(603)は、ITU-T Rec.H.265などの所定のビデオコーディング技術または規格に従ってコーディング動作を実行することができる。その動作において、ビデオエンコーダ(603)は、入力ビデオシーケンスにおける時間および空間の冗長性を利用する予測コーディング動作を含む、様々な圧縮動作を実行することができる。したがって、コード化されたビデオデータは、使用されているビデオコーディング技術または規格によって指定された構文に準拠することができる。
一実施形態では、送信機(640)は、符号化されたビデオとともに追加のデータを送信することができる。ソースコーダ(630)は、コード化ビデオシーケンスの一部としてそのようなデータを含んでもよい。追加のデータは、時間/空間/SNR拡張層、冗長なピクチャおよびスライスなどの他の形式の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを含んでもよい。
ビデオは、時系列で複数のソースピクチャ(ビデオピクチャ)として取り込まれてもよい。(しばしば、イントラ予測と省略される)イントラピクチャ予測は、所与のピクチャ内の空間の相関関係を利用し、インターピクチャ予測は、ピクチャ間の(時間または他の)相関関係を利用する。一例では、現在ピクチャと呼ばれる、符号化/復号中の特定のピクチャがブロックに分割される。現在ピクチャ内のブロックが、以前にコード化され、ビデオ内にまだバッファリングされている参照ピクチャ内の参照ブロックに類似しているとき、現在ピクチャ内のブロックは、動きベクトルと呼ばれるベクトルによってコード化することができる。動きベクトルは、参照ピクチャ内の参照ブロックを指し、複数の参照ピクチャが使用されている場合、参照ピクチャを識別する第3の次元を有することができる。
いくつかの実施形態では、インターピクチャ予測において双予測技法を使用することができる。双予測技法によれば、両方ともビデオ内の現在ピクチャよりも復号順序で前にある(が、それぞれ、表示順序で過去および将来であり得る)第1の参照ピクチャおよび第2の参照ピクチャなどの2つの参照ピクチャが使用される。現在ピクチャ内のブロックは、第1の参照ピクチャ内の第1の参照ブロックを指す第1の動きベクトル、および第2の参照ピクチャ内の第2の参照ブロックを指す第2の動きベクトルによってコード化することができる。ブロックは、第1の参照ブロックと第2の参照ブロックの組合せによって予測することができる。
さらに、コーディング効率を改善するために、インターピクチャ予測においてマージモード技法を使用することができる。
本開示のいくつかの実施形態によれば、インターピクチャ予測およびイントラピクチャ予測などの予測は、ブロックの単位で実行される。例えば、HEVC規格によれば、ビデオピクチャのシーケンス内のピクチャは、圧縮のためにコーディングツリーユニット(CTU)に分割され、ピクチャ内のCTUは、64×64ピクセル、32×32ピクセル、または16×16ピクセルなどの同じサイズを有する。一般に、CTUは3つのコーディングツリーブロック(CTB)を含み、それらは1つの輝度CTBおよび2つの彩度CTBである。各CTUは、1つまたは複数のコーディングユニット(CU)に再帰的に四分木分割することができる。例えば、64×64ピクセルのCTUは、1つの64×64ピクセルのCU、または4つの32×32ピクセルのCU、または16個の16×16ピクセルのCUに分割することができる。一例では、インター予測タイプまたはイントラ予測タイプなどのCUの予測タイプを決定するために、各CUが分析される。CUは、時間および/または空間の予測可能性に応じて、1つまたは複数の予測ユニット(PU)に分割される。一般に、各PUは、1つの輝度予測ブロック(PB)および2つの彩度PBを含む。一実施形態では、コーディング(符号化/復号)における予測動作は、予測ブロックの単位で実行される。予測ブロックの一例として輝度予測ブロックを使用すると、予測ブロックは、8×8ピクセル、16×16ピクセル、8×16ピクセル、16×8ピクセルなどのピクセルの値(例えば、輝度値)の行列を含む。
図7は、本開示の別の実施形態による、ビデオエンコーダ(703)の図を示す。ビデオエンコーダ(703)は、ビデオピクチャのシーケンス内の現在ビデオピクチャ内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックをコード化ビデオシーケンスの一部であるコード化ピクチャに符号化するように構成される。一例では、ビデオエンコーダ(703)は、図4の例のビデオエンコーダ(403)の代わりに使用される。
HEVCの例では、ビデオエンコーダ(703)は、8×8サンプルの予測ブロックなどの処理ブロック用のサンプル値の行列を受信する。ビデオエンコーダ(703)は、処理ブロックが、例えば、レート歪み最適化を使用して、イントラモード、インターモード、または双予測モードを使用して最良にコード化されるかどうかを判定する。処理ブロックがイントラモードでコード化されるとき、ビデオエンコーダ(703)は、イントラ予測技法を使用して、処理ブロックをコード化ピクチャに符号化することができ、処理ブロックがインターモードまたは双予測モードでコード化されるとき、ビデオエンコーダ(703)は、それぞれ、インター予測技法または双予測技法を使用して、処理ブロックをコード化ピクチャに符号化することができる。特定のビデオコーディング技術では、マージモードは、予測器の外側のコード化された動きベクトル成分の利点がない、動きベクトルが1つまたは複数の動きベクトル予測器から導出されるインターピクチャ予測サブモードであり得る。特定の他のビデオコーディング技術では、対象ブロックに適用可能な動きベクトル成分が存在してもよい。一例では、ビデオエンコーダ(703)は、処理ブロックのモードを決定するためにモード決定モジュール(図示せず)などの他の構成要素を含む。
図7の例では、ビデオエンコーダ(703)は、図7に示されたように一緒に結合されたインターエンコーダ(730)、イントラエンコーダ(722)、残差計算器(723)、スイッチ(726)、残差エンコーダ(724)、汎用コントローラ(721)、およびエントロピーエンコーダ(725)を含む。
インターエンコーダ(730)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、ブロックを参照ピクチャ内の1つまたは複数の参照ブロック(例えば、前のピクチャおよび後のピクチャ内のブロック)と比較し、インター予測情報(例えば、インター符号化技法による冗長情報、動きベクトル、マージモード情報の記述)を生成し、任意の適切な技法を使用して、インター予測情報に基づいてインター予測結果(例えば、予測ブロック)を計算するように構成される。いくつかの例では、参照ピクチャは、符号化されたビデオ情報に基づいて復号された復号参照ピクチャである。
イントラエンコーダ(722)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、場合によっては、ブロックを同じピクチャ内のすでにコード化されたブロックと比較し、変換後に量子化係数を生成し、場合によっては、イントラ予測情報(例えば、1つまたは複数のイントラ符号化技法によるイントラ予測方向情報)も生成するように構成される。一例では、イントラエンコーダ(722)はまた、同じピクチャ内のイントラ予測情報および参照ブロックに基づいて、イントラ予測結果(例えば、予測ブロック)を計算する。
汎用コントローラ(721)は、汎用制御データを決定し、汎用制御データに基づいてビデオエンコーダ(703)の他の構成要素を制御するように構成される。一例では、汎用コントローラ(721)は、ブロックのモードを決定し、モードに基づいてスイッチ(726)に制御信号を提供する。例えば、モードがイントラモードであるとき、汎用コントローラ(721)は、スイッチ(726)を制御して残差計算器(723)が使用するためのイントラモード結果を選択し、エントロピーエンコーダ(725)を制御してイントラ予測情報を選択し、ビットストリームにイントラ予測情報を含め、モードがインターモードであるとき、汎用コントローラ(721)は、スイッチ(726)を制御して残差計算器(723)が使用するためのインター予測結果を選択し、エントロピーエンコーダ(725)を制御してインター予測情報を選択し、ビットストリームにインター予測情報を含める。
残差計算器(723)は、受信ブロックと、イントラエンコーダ(722)またはインターエンコーダ(730)から選択された予測結果との間の差(残差データ)を計算するように構成される。残差エンコーダ(724)は、残差データを符号化して変換係数を生成するために、残差データに基づいて動作するように構成される。一例では、残差エンコーダ(724)は、残差データを空間領域から周波数領域に変換し、変換係数を生成するように構成される。次いで、変換係数は、量子化変換係数を取得するために量子化処理を受ける。様々な実施形態では、ビデオエンコーダ(703)は残差デコーダ(728)も含む。残差デコーダ(728)は、逆変換を実行し、復号された残差データを生成するように構成される。復号された残差データは、イントラエンコーダ(722)およびインターエンコーダ(730)によって適切に使用することができる。例えば、インターエンコーダ(730)は、復号された残差データおよびインター予測情報に基づいて復号されたブロックを生成することができ、イントラエンコーダ(722)は、復号された残差データおよびイントラ予測情報に基づいて復号されたブロックを生成することができる。復号されたブロックは、復号されたピクチャを生成するために適切に処理され、復号されたピクチャは、メモリ回路(図示せず)にバッファリングされ、いくつかの例では参照ピクチャとして使用することができる。
エントロピーエンコーダ(725)は、符号化されたブロックを含めるようにビットストリームをフォーマットするように構成される。エントロピーエンコーダ(725)は、HEVC規格などの適切な規格に従って様々な情報を含むように構成される。一例では、エントロピーエンコーダ(725)は、汎用制御データ、選択された予測情報(例えば、イントラ予測情報またはインター予測情報)、残差情報、およびビットストリーム内の他の適切な情報を含むように構成される。開示された主題によれば、インターモードまたは双予測モードのいずれかのマージサブモードでブロックをコーディングするときに残差情報が存在しないことに留意されたい。
図8は、本開示の別の実施形態による、ビデオデコーダ(810)の図を示す。ビデオデコーダ(810)は、コード化ビデオシーケンスの一部であるコード化ピクチャを受信し、コード化ピクチャを復号して復元されたピクチャを生成するように構成される。一例では、ビデオデコーダ(810)は、図4の例のビデオデコーダ(410)の代わりに使用される。
図8の例では、ビデオデコーダ(810)は、図8に示されたように一緒に結合されたエントロピーデコーダ(871)、インターデコーダ(880)、残差デコーダ(873)、復元モジュール(874)、およびイントラデコーダ(872)を含む。
エントロピーデコーダ(871)は、コード化ピクチャから、コード化ピクチャが構成される構文要素を表す特定のシンボルを復元するように構成することができる。そのようなシンボルは、例えば、(例えば、イントラモード、インターモード、双予測モード、マージサブモードまたは別のサブモードの中の後者2つなどの)ブロックがコード化されるモード、それぞれ、イントラデコーダ(872)またはインターデコーダ(880)による予測に使用される特定のサンプルまたはメタデータを識別することができる(例えば、イントラ予測情報またはインター予測情報などの)予測情報、例えば、量子化変換係数の形態の残差情報などを含むことができる。一例では、予測モードがインターモードまたは双予測モードであるとき、インター予測情報はインターデコーダ(880)に提供され、予測タイプがイントラ予測タイプであるとき、イントラ予測情報はイントラデコーダ(872)に提供される。残差情報は逆量子化を受けることができ、残差デコーダ(873)に提供される。
インターデコーダ(880)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成される。
イントラデコーダ(872)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成される。
残差デコーダ(873)は、逆量子化を実行して逆量子化変換係数を抽出し、逆量子化変換係数を処理して、残差を周波数領域から空間領域に変換するように構成される。残差デコーダ(873)はまた、(量子化器パラメータ(QP)を含めるために)特定の制御情報を必要とする場合があり、その情報は、エントロピーデコーダ(871)によって提供される場合がある(これは、少量の制御情報のみである可能性があるので、データパスは描写されていない)。
復元モジュール(874)は、空間領域において、残差デコーダ(873)によって出力された残差と(場合によってはインター予測モジュールまたはイントラ予測モジュールによって出力された)予測結果を組み合わせて、復元されたピクチャの一部であり得る復元されたブロックを形成し、同様に、復元されたピクチャは復元されたビデオの一部であり得る。見栄えを改善するために、デブロッキング動作などの他の適切な動作が実行できることに留意されたい。
ビデオエンコーダ(403)、(603)、および(703)、ならびにビデオデコーダ(410)、(510)、および(810)は、任意の適切な技法を使用して実装され得ることに留意されたい。一実施形態では、ビデオエンコーダ(403)、(603)、および(703)、ならびにビデオデコーダ(410)、(510)、および(810)は、1つまたは複数の集積回路を使用して実装することができる。別の実施形態では、ビデオエンコーダ(403)、(603)、および(703)、ならびにビデオデコーダ(410)、(510)、および(810)は、ソフトウェア命令を実行する1つまたは複数のプロセッサを使用して実装することができる。
本開示の態様は、ビデオコーディング/復号のためのフィルタリング技法を提供する。
ブロックベースフィルタ適応を伴う適応ループフィルタ(ALF)は、アーチファクトを低減するためにエンコーダ/デコーダによって適用することができる。輝度成分の場合、例えば、局所的な勾配の方向および活動に基づいて、4×4の輝度ブロックに対して複数のフィルタ(例えば、25個のフィルタ)のうちの1つを選択することができる。
ALFは、任意の適切な形状およびサイズを有することができる。図9を参照すると、ALF(910)~(911)は、ALF(910)の5×5の菱形形状およびALF(911)の7×7の菱形形状などの菱形形状を有する。ALF(910)では、要素(920)~(932)は菱形形状を形成し、フィルタリングプロセスにおいて使用することができる。要素(920)~(932)には、7つの値(例えば、C0~C6)を使用することができる。ALF(911)では、要素(940)~(964)は菱形形状を形成し、フィルタリングプロセスにおいて使用することができる。要素(940)~(964)には、13個の値(例えば、C0~C12)を使用することができる。
図9を参照すると、いくつかの例では、菱形フィルタ形状を有する2つのALF(910)~(911)が使用される。5×5の菱形形状フィルタ(910)は、彩度成分(例えば、彩度ブロック、彩度CB)に適用することができ、7×7の菱形形状フィルタ(911)は、輝度成分(例えば、輝度ブロック、輝度CB)に適用することができる。ALFにおいて他の適切な形状およびサイズを使用することができる。例えば、9×9の菱形形状フィルタを使用することができる。
値(例えば、(910)のC0~C6または(920)のC0~C12)によって示された位置にあるフィルタ係数は、非ゼロであり得る。さらに、ALFがクリッピング関数を含む場合、それらの位置にあるクリッピング値は非ゼロであり得る。
輝度成分のブロック分類の場合、4×4のブロック(または輝度ブロック、輝度CB)は、複数(例えば、25個)のクラスのうちの1つとしてカテゴライズまたは分類することができる。分類インデックスCは、式(1)を使用して、方向性パラメータDおよび活性値Aの量子化値
Figure 0007498297000001
に基づいて導出することができる。
Figure 0007498297000002
方向性パラメータDおよび量子化値
Figure 0007498297000003
を計算するために、垂直方向、水平方向、ならびに2つの対角方向(例えば、d1およびd2)の勾配gv、gh、gd1、およびgd2は、それぞれ、以下のように1-Dラプラシアンを使用して計算することができる。
Figure 0007498297000004
ここで、添え字iおよびjは、4×4ブロック内の左上サンプルの座標を指し、R(k,l)は、座標(k,l)にある復元サンプルを示す。方向(例えば、d1およびd2)は、2つの対角方向を指すことができる。
上述されたブロック分類の複雑さを低減するために、サブサンプリングされた1-Dラプラシアン計算を適用することができる。図10A~図10Dは、それぞれ、垂直方向(図10A)、水平方向(図10B)、ならびに2つの対角方向d1(図10C)およびd2(図10D)の勾配gv、gh、gd1、およびgd2を計算するために使用されるサブサンプリングされた位置の例を示す。同じサブサンプリングされた位置は、異なる方向の勾配計算に使用することができる。図10Aでは、ラベル「V」は、垂直勾配gvを計算するためのサブサンプリングされた位置を示す。図10Bでは、ラベル「H」は、水平勾配ghを計算するためのサブサンプリングされた位置を示す。図10Cでは、ラベル「D1」は、d1の対角勾配gd1を計算するためのサブサンプルされた位置を示す。図10Dでは、ラベル「D2」は、d2の対角勾配gd2を計算するためのサブサンプリングされた位置を示す。
水平方向の勾配ghおよび垂直方向の勾配gvの最大値
Figure 0007498297000005
および最小値
Figure 0007498297000006
は、以下のように設定することができる。
Figure 0007498297000007
2つの対角方向の勾配gd1およびgd2の最大値
Figure 0007498297000008
および最小値
Figure 0007498297000009
は、以下のように設定することができる。
Figure 0007498297000010
方向性パラメータDは、上記の値、ならびに以下のような2つのしきい値t1およびt2に基づいて導出することができる。
ステップ1.(1)
Figure 0007498297000011
および(2)
Figure 0007498297000012
が真である場合、Dは0に設定される。
ステップ2.
Figure 0007498297000013
の場合、ステップ3に進み、そうでない場合、ステップ4に進む。
ステップ3.
Figure 0007498297000014
の場合、Dは2に設定され、そうでない場合、Dは1に設定される。
ステップ4.
Figure 0007498297000015
の場合、Dは4に設定され、そうでない場合、Dは3に設定される。
活性値Aは、
Figure 0007498297000016
のように計算することができる。
Aはさらに、両端を含む0~4の範囲に量子化することができ、量子化値は
Figure 0007498297000017
として表記される。
ピクチャ内の彩度成分の場合、ブロック分類は適用されず、したがって、彩度成分ごとに単一のセットのALF係数を適用することができる。
幾何学的変換は、フィルタ係数および対応する(クリッピング値とも呼ばれる)フィルタクリッピング値に適用することができる。ブロック(例えば、4×4の輝度ブロック)をフィルタリングする前に、例えば、ブロックに対して計算された勾配値(例えば、gv、gh、gd1、および/またはgd2)に応じて、回転または対角反転および垂直反転などの幾何学的変換をフィルタ係数f(k,l)および対応するフィルタクリッピング値c(k,l)に適用することができる。フィルタ係数f(k,l)および対応するフィルタクリッピング値c(k,l)に適用される幾何学的変換は、フィルタによってサポートされる領域内のサンプルに幾何学的変換を適用することと等価であり得る。幾何学的変換は、それぞれの方向性を整列させることによって、ALFが適用される異なるブロックをより類似させることができる。
それぞれ、式(9)~(11)によって記載されるように、対角反転、垂直反転、および回転を含む3つの幾何学的変換を実行することができる。
fD(k,l)=f(l,k)、cD(k,l)=c(l,k) 式(9)
fV(k,l)=f(k,K-l-1)、cV(k,l)=c(k,K-l-1) 式(10)
fR(k,l)=f(K-l-1,k)、cR(k,l)=c(K-l-1,k) 式(11)
ここで、KはALFまたはフィルタのサイズであり、0≦k、l≦K-1は係数の座標である。例えば、フィルタfまたはクリッピング値行列(もしくはクリッピング行列)cの左上隅に位置(0,0)があり、右下隅に位置(K-1,K-1)がある。変換は、ブロックに対して計算された勾配値に応じて、フィルタ係数f(k,l)およびクリッピング値c(k,l)に適用することができる。変換と4つの勾配との間の関係の一例が表1に要約されている。
Figure 0007498297000018
いくつかの実施形態では、ALFフィルタパラメータは、ピクチャ用の適応パラメータセット(APS)内でシグナリングされる。APSでは、輝度フィルタ係数およびクリッピング値インデックスの1つまたは複数のセット(例えば、最大25セット)をシグナリングすることができる。一例では、1つまたは複数のセットのうちのセットは、輝度フィルタ係数および1つまたは複数のクリッピング値インデックスを含むことができる。彩度フィルタ係数およびクリッピング値インデックスの1つまたは複数のセット(例えば、最大8セット)をシグナリングすることができる。シグナリングオーバーヘッドを低減するために、輝度成分についての(例えば、異なる分類インデックスを有する)異なる分類のフィルタ係数をマージすることができる。スライスヘッダでは、現在のスライスに使用されるAPSのインデックスをシグナリングすることができる。
一実施形態では、(クリッピングインデックスとも呼ばれる)クリッピング値インデックスをAPSから復号することができる。クリッピング値インデックスは、例えば、クリッピング値インデックスと対応するクリッピング値との間の関係に基づいて、対応するクリッピング値を決定するために使用することができる。関係は事前定義され、デコーダに格納することができる。一例では、関係は、クリッピング値インデックスおよび対応するクリッピング値の(例えば、輝度CBに使用される)輝度テーブル、クリッピング値インデックスおよび対応するクリッピング値の(例えば、彩度CBに使用される)彩度テーブルなどのテーブルによって記述される。クリッピング値はビット深度Bに依存する可能性がある。ビット深度Bは、内部ビット深度、フィルタリングされるCB内の復元サンプルのビット深度などを指すことができる。いくつかの例では、表(例えば、輝度テーブル、彩度テーブル)は、式(12)を使用して取得される。
Figure 0007498297000019
ここで、AlfClipはクリッピング値であり、Bはビット深度(例えば、bitDepth)であり、N(例えば、N=4)は許容されるクリッピング値の数であり、(n-1)は(クリッピングインデックスまたはclipIdxとも呼ばれる)クリッピング値インデックスである。表2は、N=4で式(12)を使用して取得された表の一例を示す。クリッピングインデックス(n-1)は、表2の0、1、2、および3であり得、nは、それぞれ、1、2、3、および4であり得る。表2は、輝度ブロックまたは彩度ブロックに使用することができる。
Figure 0007498297000020
現在スライス用のスライスヘッダでは、現在スライスに使用することができる輝度フィルタセットを指定するために、1つまたは複数のAPSインデックス(例えば、最大7個のAPSインデックス)をシグナリングすることができる。フィルタリングプロセスは、ピクチャレベル、スライスレベル、CTBレベルなどの1つまたは複数の適切なレベルで制御することができる。一実施形態では、フィルタリングプロセスは、CTBレベルでさらに制御することができる。ALFが輝度CTBに適用されるかどうかを示すためにフラグをシグナリングすることができる。輝度CTBは、APS内でシグナリングされる複数の固定フィルタセット(例えば、16個の固定フィルタセット)および(シグナリングされたフィルタセットとも呼ばれる)フィルタセットの中からフィルタセットを選択することができる。適用されるフィルタセット(例えば、複数の固定フィルタセットおよびシグナリングされたフィルタセットの中のフィルタセット)を示すために、輝度CTBに対してフィルタセットインデックスをシグナリングすることができる。複数の固定フィルタセットは、エンコーダおよびデコーダにおいて事前定義およびハードコーディングすることができ、事前定義フィルタセットと呼ぶことができる。
彩度成分の場合、現在スライスに使用される彩度フィルタセットを示すために、スライスヘッダ内でAPSインデックスをシグナリングすることができる。CTBレベルにおいて、APS内に2つ以上の彩度フィルタセットが存在する場合、彩度CTBごとにフィルタセットインデックスをシグナリングすることができる。
フィルタ係数は、128に等しいノルムで量子化することができる。乗算の複雑さを減少させるために、非中心位置の係数値が両端を含む-27~27-1の範囲内であり得るように、ビットストリーム適合性を適用することができる。一例では、中心位置係数はビットストリーム内でシグナリングされず、128に等しいと見なすことができる。
いくつかの実施形態では、クリッピングインデックスおよびクリッピング値の構文およびセマンティクスは以下のように定義される。
alf_luma_clip_idx[sfIdx][j]は、sfIdxによって示されるシグナリングされた輝度フィルタのj番目の係数を乗算する前に使用するクリッピング値のクリッピングインデックスを指定するために使用することができる。ビットストリーム適合性の要件は、sfIdx=0~alf_luma_num_filters_signalled_minus1およびj=0~11であるalf_luma_clip_idx[sfIdx][j]の値が、両端を含む0~3の範囲内にあるべきことを含むことができる。
filtIdx=0~NumAlfFilters-1およびj=0~11である、要素AlfClipL[adaptation_parameter_set_id][filtIdx][j]を有する輝度フィルタクリッピング値AlfClipL[adaptation_parameter_set_id]は、BitDepthYに等しいbitDepthセットおよびalf_luma_clip_idx[alf_luma_coeff_delta_idx[filtIdx]][j]に等しいclipIdxセットに応じて、表2に指定されたように導出することができる。
alf_chroma_clip_idx[altIdx][j]は、インデックスaltIdxを有する代替彩度フィルタのj番目の係数を乗算する前に使用するクリッピング値のクリッピングインデックスを指定するために使用することができる。ビットストリーム適合性の要件は、altIdx=0~alf_chroma_num_alt_filters_minus1、j=0~5であるalf_chroma_clip_idx[altIdx][j]の値が、両端を含む0~3の範囲にあるべきことを含むことができる。
altIdx=0~alf_chroma_num_alt_filters_minus1、j=0~5である、要素AlfClipC[adaptation_parameter_set_id][altIdx][j]を有する彩度フィルタクリッピング値AlfClipC[adaptation_parameter_set_id][altIdx]は、BitDepthCに等しいbitDepthセットおよびalf_chroma_clip_idx[altIdx][j]に等しいclipIdxセットに応じて、表2に指定されたように導出することができる。
一実施形態では、フィルタリングプロセスは以下のように記載することができる。デコーダ側において、ALFがCTBに対して有効にされると、CU(またはCB)内のサンプルR(i,j)をフィルタリングすることができ、式(13)を使用して以下に示されるようにフィルタリングされたサンプル値R’(i,j)が得られる。一例では、CU内の各サンプルがフィルタリングされる。
Figure 0007498297000021
ここで、f(k,l)は復号されたフィルタ係数を表記し、K(x、y)はクリッピング関数であり、c(k,l)は復号されたクリッピングパラメータ(またはクリッピング値)を表記する。変数kおよびlは、-L/2とL/2との間で変化することができ、Lはフィルタ長を表記する。クリッピング関数K(x、y)=min(y,max(-y,x))は、クリッピング関数Clip3(-y,y,x)に対応する。クリッピング関数K(x、y)を組み込むことにより、ループフィルタリング法(例えば、ALF)は非線形プロセスになり、非線形ALFと呼ぶことができる。
非線形ALFでは、クリッピング値の複数のセットを表3に提供することができる。一例では、輝度セットは4つのクリッピング値{1024,181,32,6}を含み、彩度セットは4つのクリッピング値{1024,161,25,4}を含む。輝度セット内の4つのクリッピング値は、輝度ブロック用の(10ビットでコード化された)サンプル値の全範囲(例えば、1024)を、対数領域内でほぼ等しく分割することによって選択することができる。範囲は、彩度セットに対して4から1024までであり得る。
Figure 0007498297000022
選択されたクリッピング値は、以下のように「alf_data」構文要素内でコード化することができる:表3に示されたような選択されたクリッピング値に対応するクリッピングインデックスを符号化するために、適切な符号化方式(例えば、ゴロム符号化方式)を使用することができる。符号化方式は、フィルタセットインデックスを符号化するために使用されるのと同じ符号化方式であってもよい。
一実施形態では、ALFのラインバッファ要件を低減するために、仮想境界フィルタリングプロセスを使用することができる。したがって、CTU境界(例えば、水平CTU境界)付近のサンプルに対して、修正されたブロック分類およびフィルタリングを採用することができる。仮想境界(1130)は、図11Aに示されたように、水平CTU境界(1120)を「Nsamples」サンプルだけシフトすることによって線として定義することができ、Nsamplesは正の整数であり得る。一例では、Nsamplesは輝度成分の場合は4に等しく、Nsamplesは彩度成分の場合は2に等しい。
図11Aを参照すると、修正されたブロック分類を輝度成分に適用することができる。一例では、仮想境界(1130)の上の4×4ブロック(1110)の1Dラプラシアン勾配計算では、仮想境界(1130)の上のサンプルのみが使用される。同様に、図11Bを参照すると、CTU境界(1121)からシフトされた仮想境界(1131)の下の4×4ブロック(1111)の1Dラプラシアン勾配計算では、仮想境界(1131)の下のサンプルのみが使用される。活性値Aの量子化は、それに応じて、1Dラプラシアン勾配計算において使用されるサンプル数の減少を考慮することによってスケーリングすることができる。
フィルタリングプロセスのために、仮想境界における対称パディング演算は、輝度成分および彩度成分の両方に使用することができる。図12A~図12Fは、仮想境界にある輝度成分に対するそのような修正されたALFフィルタリングの例を示す。フィルタリングされているサンプルが仮想境界の下に位置するとき、仮想境界の上に位置する隣接サンプルをパディングすることができる。フィルタリングされているサンプルが仮想境界の上に位置するとき、仮想境界の下に位置する隣接サンプルをパディングすることができる。図12Aを参照すると、隣接サンプルC0は、仮想境界(1210)の下に位置するサンプルC2でパディングすることができる。図12Bを参照すると、隣接サンプルC0は、仮想境界(1220)の上に位置するサンプルC2でパディングすることができる。図12Cを参照すると、隣接サンプルC1~C3は、それぞれ、仮想境界(1230)の下に位置するサンプルC5~C7でパディングすることができる。図12Dを参照すると、隣接サンプルC1~C3は、それぞれ、仮想境界(1240)の上に位置するサンプルC5~C7でパディングすることができる。図12Eを参照すると、隣接サンプルC4~C8は、それぞれ、仮想境界(1250)の下に位置するサンプルC10、C11、C12、C11、およびC10でパディングすることができる。図12Fを参照すると、隣接サンプルC4~C8は、それぞれ、仮想境界(1260)の上に位置するサンプルC10、C11、C12、C11、およびC10でパディングすることができる。
いくつかの例では、サンプルおよび隣接サンプルが仮想境界の左(または右)および右(または左)に位置するとき、上記の説明を適切に適合させることができる。
本開示の態様によれば、コーディング効率を改善するために、フィルタリングプロセスに基づいてピクチャを区分することができる。いくつかの例では、CTUは最大コーディングユニット(LCU)とも呼ばれる。一例では、CTUまたはLCUは、64×64ピクセルのサイズを有することができる。いくつかの実施形態では、LCU整列ピクチャ四分木分割は、フィルタリングベースのパーティションに使用することができる。いくつかの例では、コーディングユニット同期ピクチャ四分木ベースの適応ループフィルタを使用することができる。例えば、輝度ピクチャはいくつかのマルチレベル四分木パーティションに分割することができ、各パーティションの境界はLCUの境界に整列される。各パーティションは、それ自体のフィルタリングプロセスを有し、したがって、フィルタユニット(FU)と呼ばれる場合がある。
いくつかの例では、2パス符号化フローを使用することができる。2パス符号化フローの第1のパスにおいて、ピクチャの四分木分割パターンおよび各FUの最良フィルタを決定することができる。いくつかの実施形態では、ピクチャの四分木分割パターンの決定およびFU用の最良フィルタの決定は、フィルタリング歪みに基づく。フィルタリング歪みは、決定プロセス中に高速フィルタリング歪み推定(FFDE)技法によって推定することができる。ピクチャは、四分木パーティションを使用して区分される。決定された四分木分割パターンおよびすべてのFUの選択されたフィルタに従って、復元ピクチャをフィルタリングすることができる。
2パス符号化フローの第2のパスにおいて、CU同期ALFのオン/オフ制御が実行される。ALFのオン/オフ結果に従って、最初にフィルタリングされたピクチャが復元ピクチャによって部分的に回復される。
具体的には、いくつかの例では、レート歪み基準を使用して画像をマルチレベル四分木パーティションに分割するために、トップダウン分割手順が採用される。各パーティションはフィルタユニット(FU)と呼ばれる。分割プロセスは、四分木パーティションをLCUの境界に整列させる。FUの符号化順序は、z走査順序に従う。
図13は、本開示のいくつかの実施形態によるパーティション例を示す。図13の例では、ピクチャ(1300)が10個のFUに分割され、符号化順序は、FU0、FU1、FU2、FU3、FU4、FU5、FU6、FU7、FU8、およびFU9である。
図14は、ピクチャ(1300)用の四分木分割パターン(1400)を示す。図14の例では、ピクチャのパーティションパターンを示すために分割フラグが使用される。例えば、「1」はブロックに対して四分木区分が実行されることを示し、「0」はそれ以上区分されないことを示す。いくつかの例では、最小サイズのFUはLCUサイズを有し、最小サイズのFUには分割フラグは必要でない。分割フラグは、図14に示されたようにz順序で符号化され送信される。
いくつかの例では、各FUのフィルタは、レート歪み基準に基づいて2つのフィルタセットから選択される。第1のセットは、現在のFUに対して導出された1/2対称の正方形および菱形のフィルタを有する。第2のセットは、時間遅延フィルタバッファに由来し、時間遅延フィルタバッファは、前のピクチャのFUに対して以前に導出されたフィルタを格納する。これらの2つのセットの最小のレート歪みコストを有するフィルタを、現在のFUに対して選択することができる。同様に、現在のFUが最小のFUではなく、4つの子FUにさらに分割することができる場合、4つの子FUのレート歪みコストが計算される。分割および分割なしの場合のレート歪みコストを再帰的に比較することにより、ピクチャ四分木分割パターンを決定することができる。
いくつかの例では、FUの最大数を制限するために最大四分木分割レベルが使用されてもよい。一例では、最大四分木分割レベルが2であるとき、FUの最大数は16である。さらに、四分木分割決定中、最下位の四分木レベルにある16個のFU(最小FU)のウィーナー係数を導出するための相関値を再利用することができる。残りのFUは、最下位の四分木レベルにある16個のFUの相関から、それらのウィーナーフィルタを導出することができる。したがって、その例では、すべてのFUのフィルタ係数を導出するために、ただ1つのフレームバッファアクセスが実行される。
四分木分割パターンが決定された後、フィルタリング歪みをさらに低減するために、CU同期ALFのオン/オフ制御を実行することができる。各リーフCUにおいてフィルタリング歪みと非フィルタリング歪みを比較することにより、リーフCUはその局所領域においてALFのオン/オフを明示的に切り替えることができる。いくつかの例では、ALFのオン/オフ結果に従ってフィルタ係数を再設計することにより、コーディング効率をさらに改善することができる。
成分間フィルタリングプロセスは、成分間適応ループフィルタ(CC-ALF)などの成分間フィルタを適用することができる。成分間フィルタは、輝度成分(例えば、輝度CB)の輝度サンプル値を使用して、彩度成分(例えば、輝度CBに対応する彩度CB)を改良することができる。一例では、輝度CBおよび彩度CBはCUに含まれる。
図15は、本開示の一実施形態による、彩度成分を生成するために使用される成分間フィルタ(例えば、CC-ALF)を示す。いくつかの例では、図15は、第1の彩度成分(例えば、第1の彩度CB)、第2の彩度成分(例えば、第2の彩度CB)、および輝度成分(例えば、輝度CB)向けのフィルタリングプロセスを示す。輝度成分は、SAOフィルタリングされた輝度成分(1541)を生成するために、サンプル適応オフセット(SAO)フィルタ(1510)によってフィルタリングすることができる。SAOフィルタリングされた輝度成分(1541)は、フィルタリングされた輝度CB(1561)(例えば、「Y」)になるために、ALF輝度フィルタ(1516)によってさらにフィルタリングすることができる。
第1の彩度成分は、第1の中間成分(1552)を生成するために、SAOフィルタ(1512)およびALF彩度フィルタ(1518)によってフィルタリングすることができる。さらに、SAOフィルタリングされた輝度成分(1541)は、第2の中間成分(1542)を生成するために、第1の彩度成分用の成分間フィルタ(例えば、CC-ALF)(1521)によってフィルタリングすることができる。その後、第2の中間成分(1542)および第1の中間成分(1552)のうちの少なくとも1つに基づいて、フィルタリングされた第1の彩度成分(1562)(例えば、「Cb」)を生成することができる。一例では、フィルタリングされた第1の彩度成分(1562)(例えば、「Cb」)は、第2の中間成分(1542)および第1の中間成分(1552)を加算器(1522)と組み合わせることによって生成することができる。第1の彩度成分用の成分間適応ループフィルタリングプロセスは、CC-ALF(1521)によって実行されるステップと、例えば加算器(1522)によって実行されるステップとを含むことができる。
上記の説明は、第2の彩度成分に適合させることができる。第2の彩度成分は、第3の中間成分(1553)を生成するために、SAOフィルタ(1514)およびALF彩度フィルタ(1518)によってフィルタリングすることができる。さらに、SAOフィルタリングされた輝度成分(1541)は、第4の中間成分(1543)を生成するために、第2の彩度成分用の成分間フィルタ(例えば、CC-ALF)(1531)によってフィルタリングすることができる。その後、第4の中間成分(1543)および第3の中間成分(1553)のうちの少なくとも1つに基づいて、フィルタリングされた第2の彩度成分(1563)(例えば、「Cr」)を生成することができる。一例では、フィルタリングされた第2の彩度成分(1563)(例えば、「Cr」)は、第4の中間成分(1543)および第3の中間成分(1553)を加算器(1532)と組み合わせることによって生成することができる。一例では、第2の彩度成分用の成分間適応ループフィルタリングプロセスは、CC-ALF(1531)によって実行されるステップと、例えば加算器(1532)によって実行されるステップとを含むことができる。
成分間フィルタ(例えば、CC-ALF(1521)、CC-ALF(1531))は、各彩度成分(例えば、第1の彩度成分、第2の彩度成分)を改良するために、任意の適切なフィルタ形状を有する線形フィルタを輝度成分(または輝度チャネル)に適用することによって動作することができる。
図16は、本開示の一実施形態によるフィルタ(1600)の一例を示す。フィルタ(1600)は、非ゼロフィルタ係数およびゼロフィルタ係数を含むことができる。フィルタ(1600)は、(黒塗りの円で示された)フィルタ係数(1610)によって形成された菱形形状(1620)を有する。一例では、フィルタ(1600)内の非ゼロフィルタ係数はフィルタ係数(1610)に含まれ、フィルタ係数(1610)に含まれないフィルタ係数はゼロである。したがって、フィルタ(1600)内の非ゼロフィルタ係数は菱形形状(1620)に含まれ、菱形形状(1620)に含まれないフィルタ係数はゼロである。一例では、フィルタ(1600)のフィルタ係数の数は、フィルタ係数(1610)の数に等しく、それは図16に示された例では18である。
CC-ALFは、任意の適切な(CC-ALFフィルタ係数とも呼ばれる)フィルタ係数を含むことができる。図15に戻って参照すると、CC-ALF(1521)およびCC-ALF(1531)は、図16に示された菱形形状(1620)などの同じフィルタ形状、および同じ数のフィルタ係数を有することができる。一例では、CC-ALF(1521)内のフィルタ係数の値は、CC-ALF(1531)内のフィルタ係数の値とは異なる。
一般に、CC-ALF内のフィルタ係数(例えば、非ゼロフィルタ係数)は、例えば、APS内で送信することができる。一例では、フィルタ係数は、倍数(例えば、210)によってスケーリングすることができ、固定小数点表現のために丸めることができる。CC-ALFの適用は、可変ブロックサイズに対して制御され、サンプルのブロックごとに受信されたコンテキストコード化フラグ(例えば、CC-ALF有効化フラグ)によってシグナリングすることができる。CC-ALF有効化フラグなどのコンテキストコード化フラグは、ブロックレベルなどの任意の適切なレベルでシグナリングすることができる。CC-ALF有効化フラグとともにブロックサイズは、彩度成分ごとにスライスレベルで受信することができる。いくつかの例では、(彩度サンプル内の)ブロックサイズ16×16、32×32、および64×64をサポートすることができる。
図17は、本開示のいくつかの実施形態による、CC-ALF用の構文例を示す。図17の例では、alf_ctb_cross_component_cb_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]は、成分間Cbフィルタが使用されるかどうかを示すインデックスであり、使用される場合成分間Cbフィルタのインデックスである。例えば、alf_ctb_cross_component_cb_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]が0に等しいとき、成分間Cbフィルタは、輝度位置(xCtb,yCtb)にあるCb色成分サンプルのブロックに適用されず、alf_ctb_cross_component_cb_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]が0に等しくないとき、alf_ctb_cross_component_cb_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]は、適用されるフィルタ用のインデックスである。例えば、alf_ctb_cross_component_cb_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]番目の成分間Cbフィルタは、輝度位置(xCtb,yCtb)にあるCb色成分サンプルのブロックに適用される。
さらに、図17の例では、alf_ctb_cross_component_cr_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]は、成分間Crフィルタが使用されるかどうかを示すために使用され、使用される場合成分間Crフィルタのインデックスである。例えば、alf_ctb_cross_component_cr_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]が0に等しいとき、成分間Crフィルタは、輝度位置(xCtb,yCtb)にあるCr色成分サンプルのブロックに適用されず、alf_ctb_cross_component_cr_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]が0に等しくないとき、alf_ctb_cross_component_cr_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]は、成分間Crフィルタのインデックスである。例えば、alf_ctb_cross_component_cr_idc[xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY]番目の成分間Crフィルタは、輝度位置(xCtb,yCtb)にあるCr色成分サンプルのブロックに適用することができる。
いくつかの例では、彩度サブサンプリング技法が使用され、したがって、彩度ブロックの各々のサンプル数は、輝度ブロック内のサンプル数より少なくすることができる。(彩度サブサンプリングフォーマットとも呼ばれ、例えば、chroma_format_idcによって指定される)彩度サブサンプリングフォーマットは、彩度ブロックの各々と対応する輝度ブロックとの間の彩度水平サブサンプリング係数(例えば、SubWidthC)および彩度垂直サブサンプリング係数(例えば、SubHeightC)を示すことができる。一例では、彩度サブサンプリングフォーマットは4:2:0であり、したがって、図18A~図18Bに示されるように、彩度水平サブサンプリング係数(例えば、SubWidthC)および彩度垂直サブサンプリング係数(例えば、SubHeightC)は2である。一例では、彩度サブサンプリングフォーマットは4:2:2であり、したがって、彩度水平サブサンプリング係数(例えば、SubWidthC)は2であり、彩度垂直サブサンプリング係数(例えば、SubHeightC)は1である。一例では、彩度サブサンプリングフォーマットは4:4:4であり、したがって、彩度水平サブサンプリング係数(例えば、SubWidthC)および彩度垂直サブサンプリング係数(例えば、SubHeightC)は1である。(彩度サンプルポジションとも呼ばれる)彩度サンプルタイプは、輝度ブロック内の少なくとも1つの対応する輝度サンプルに対する彩度ブロック内の彩度サンプルの相対位置を示すことができる。
図18A~図18Bは、本開示の実施形態による、輝度サンプルに対する彩度サンプルの例示的な位置を示す。図18Aを参照すると、輝度サンプル(1801)は行(1811)~(1818)に位置する。図18Aに示された輝度サンプル(1801)は、ピクチャの一部分を表すことができる。一例では、輝度ブロック(例えば、輝度CB)は輝度サンプル(1801)を含む。輝度ブロックは、4:2:0の彩度サブサンプリングフォーマットを有する2つの彩度ブロックに対応することができる。一例では、各彩度ブロックは彩度サンプル(1803)を含む。各彩度サンプル(例えば、彩度サンプル(1803(1))は、4つの輝度サンプル(例えば、輝度サンプル(1801(1))~(1801(4)))に対応する。一例では、4つの輝度サンプルは、左上サンプル(1801(1))、右上サンプル(1801(2))、左下サンプル(1801(3))、および右下サンプル(1801(4))である。彩度サンプル(例えば、(1803(1)))は、左上サンプル(1801(1))と左下サンプル(1801(3))との間の左中心位置に位置し、彩度サンプル(1803)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ0と呼ぶことができる。彩度サンプルタイプ0は、左上サンプル(1801(1))と左下サンプル(1801(3))の中間の左中心位置に対応する相対位置0を示す。4つの輝度サンプル(例えば、(1801(1))~(1801(4)))は、彩度サンプル(1803)(1)の隣接輝度サンプルと呼ぶことができる。
一例では、各彩度ブロックは彩度サンプル(1804)を含む。彩度サンプル(1803)を参照する上記の説明は、彩度サンプル(1804)に適合させることができ、したがって、簡潔にするために詳細な説明は省略することができる。彩度サンプル(1804)の各々は、4つの対応する輝度サンプルの中心位置に位置することができ、彩度サンプル(1804)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ1と呼ぶことができる。彩度サンプルタイプ1は、4つの輝度サンプル(例えば、(1801(1))~(1801(4)))の中心位置に対応する相対位置1を示す。例えば、彩度サンプル(1804)のうちの1つは、輝度サンプル(1801(1))~(1801(4))の中央部分に位置することができる。
一例では、各彩度ブロックは彩度サンプル(1805)を含む。彩度サンプル(1805)の各々は、4つの対応する輝度サンプル(1801)の左上サンプルと同じ位置にある左上位置に位置することができ、彩度サンプル(1805)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ2と呼ぶことができる。したがって、彩度サンプル(1805)の各々は、それぞれの彩度サンプルに対応する4つの輝度サンプル(1801)の左上サンプルと同じ位置にある。彩度サンプルタイプ2は、4つの輝度サンプル(1801)の左上位置に対応する相対位置2を示す。例えば、彩度サンプル(1805)のうちの1つは、輝度サンプル(1801(1))~(1801(4))の左上位置に位置することができる。
一例では、各彩度ブロックは彩度サンプル(1806)を含む。彩度サンプル(1806)の各々は、対応する左上サンプルと対応する右上サンプルとの間の上部中心位置に位置することができ、彩度サンプル(1806)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ3と呼ぶことができる。彩度サンプルタイプ3は、左上サンプルと右上サンプルとの間の上部中心位置に対応する相対位置3を示す。例えば、彩度サンプル(1806)のうちの1つは、輝度サンプル(1801(1))~(1801(4))の上部中心位置に位置することができる。
一例では、各彩度ブロックは彩度サンプル(1807)を含む。彩度サンプル(1807)の各々は、4つの対応する輝度サンプル(1801)の左下サンプルと同じ位置にある左下位置に位置することができ、彩度サンプル(1807)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ4と呼ぶことができる。したがって、彩度サンプル(1807)の各々は、それぞれの彩度サンプルに対応する4つの輝度サンプル(1801)の左下サンプルと同じ位置にある。彩度サンプルタイプ4は、4つの輝度サンプル(1801)の左下位置に対応する相対位置4を示す。例えば、彩度サンプル(1807)のうちの1つは、輝度サンプル(1801(1))~(1801(4))の左下位置に位置することができる。
一例では、各彩度ブロックは彩度サンプル(1808)を含む。彩度サンプル(1808)の各々は、左下サンプルと右下サンプルとの間の下部中心位置に位置し、彩度サンプル(1808)を有する彩度ブロックの彩度サンプルタイプは、彩度サンプルタイプ5と呼ぶことができる。彩度サンプルタイプ5は、4つの輝度サンプル(1801)の左下サンプルと右下サンプルとの間の下部中心位置に対応する相対位置5を示す。例えば、彩度サンプル(1808)のうちの1つは、輝度サンプル(1801(1))~(1801(4))の左下サンプルと右下サンプルとの間に位置することができる。
一般に、任意の適切な彩度サンプルタイプは、彩度サブサンプリングフォーマットに使用することができる。彩度サンプルタイプ0~5は、彩度サブサンプリングフォーマット4:2:0で記述される例示的な彩度サンプルタイプである。追加の彩度サンプルタイプは、彩度サブサンプリングフォーマット4:2:0に使用することができる。さらに、他の彩度サンプルタイプおよび/または彩度サンプルタイプ0~5の変形形態は、4:2:2、4:4:4などの他の彩度サブサンプリングフォーマットに使用することができる。一例では、彩度サンプル(1805)と(1807)を組み合わせる彩度サンプルタイプは、彩度サブサンプリングフォーマット4:2:2に使用される。
一例では、輝度ブロックは、それぞれ、4つの輝度サンプル(例えば、(1801(1))~(1801(4)))のうちの上位2つのサンプル(例えば、(1801(1))~(1801(2)))、および4つの輝度サンプル(例えば、(1801(1)~(1801(4)))のうちの下位2つのサンプル(例えば、(1801(3))~(1801(4)))を含む行(1811)~(1812)などの交互の行を有すると見なされる。したがって、行(1811)、(1813)、(1815)、および(1817)は、(トップフィールドとも呼ばれる)現在の行と呼ぶことができ、行(1812)、(1814)、(1816)、および(1818)は、(ボトムフィールドとも呼ばれる)次の行と呼ぶことができる。4つの輝度サンプル(例えば、(1801(1))~(1801(4)))は、現在の行(例えば、(1811))および次の行(例えば、(1812))に位置する。相対位置2~3は現在の行に位置し、相対位置0~1は各現在の行とそれぞれの次の行との間に位置し、相対位置4~5は次の行に位置する。
彩度サンプル(1803)、(1804)、(1805)、(1806)、(1807)、または(1808)は、各彩度ブロック内の行(1851)~(1854)に位置する。行(1851)~(1854)の特定の位置は、彩度サンプルの彩度サンプルタイプに依存することができる。例えば、それぞれの彩度サンプルタイプ0~1を有する彩度サンプル(1803)~(1804)の場合、行(1851)は行(1811)~(1812)の間に位置する。それぞれの彩度サンプルタイプ2~3を有する彩度サンプル(1805)~(1806)の場合、行(1851)は現在の行(1811)と同じ位置にある。それぞれの彩度サンプルタイプ4~5を有する彩度サンプル(1807)~(1808)の場合、行(1851)は次の行(1812)と同じ位置にある。上記の説明は、行(1852)~(1854)に適切に適合させることができ、簡潔にするために詳細な説明は省略される。
図18Aに上述された輝度ブロックおよび対応する彩度ブロックを表示、格納、および/または送信するために、任意の適切な走査方法を使用することができる。一例では、順次走査が使用される。
図18Bに示されたように、飛び越し走査を使用することができる。上述されたように、彩度サブサンプリングフォーマットは4:2:0である(例えば、chroma_format_idcは1に等しい)。一例では、可変彩度ロケーションタイプ(例えば、ChromaLocType)は、(例えば、ChromaLocTypeがchroma_sample_loc_type_top_fieldである)現在の行、または(例えば、ChromaLocTypeがchroma_sample_loc_type_bottom_fieldである)次の行を示す。現在の行(1811)、(1813)、(1815)、および(1817)、ならびに次の行(1812)、(1814)、(1816)、および(1818)は別々に走査することができ、例えば、現在の行(1811)、(1813)、(1815)、および(1817)を最初に走査することができ、続いて次の行(1812)、(1814)、(1816)、および(1818)が走査される。現在の行は輝度サンプル(1801)を含むことができ、次の行は輝度サンプル(1802)を含むことができる。
同様に、対応する彩度ブロックを飛び越し走査することができる。塗りつぶしがない彩度サンプル(1803)、(1804)、(1805)、(1806)、(1807)、または(1808)を含む行(1851)および(1853)は、現在の行(または現在の彩度行)と呼ぶことができ、グレー塗りつぶしがある彩度サンプル(1803)、(1804)、(1805)、(1806)、(1807)、または(1808)を含む行(1852)および(1854)は、次の行(または次の彩度行)と呼ぶことができる。一例では、飛び越し走査中に、行(1851)および(1853)が最初に走査され、続いて行(1852)および(1854)が走査される。
いくつかの例では、制約付き指向性拡張フィルタリング技法を使用することができる。インループ制約付き指向性拡張フィルタ(CDEF)の使用は、画像の細部を保持しながらコーディングアーチファクトを除去することができる。一例(例えば、HEVC)では、サンプル適応オフセット(SAO)アルゴリズムは、異なるクラスのピクセル用の信号オフセットを定義することによって同様の目的を達成することができる。SAOとは異なり、CDEFは非線形空間フィルタである。いくつかの例では、CDEFは、容易にベクトル化可能であるように制約することができる(すなわち、単一命令複数データ(SIMD)演算で実装可能である)。メディアンフィルタ、バイラテラルフィルタなどの他の非線形フィルタは、同様に扱うことができないことに留意されたい。
場合によっては、コード化画像内のリンギングアーチファクトの量は、量子化ステップサイズにほぼ比例する傾向がある。細部の量は入力画像の特性であるが、量子化画像内に保持される最小の細部も量子化ステップサイズに比例する傾向がある。所与の量子化ステップサイズでは、リンギングの振幅は、一般に、細部の振幅よりも小さい。
CDEFは、各ブロックの方向を識別し、次いで識別された方向に沿って適応的にフィルタリングし、識別された方向から45度回転した方向に沿ってより少ない程度にフィルタリングするために使用することができる。いくつかの例では、エンコーダはフィルタ強度を検索することができ、フィルタ強度は明示的にシグナリングすることができ、それによりぼかしの高度な制御が可能になる。
具体的に、いくつかの例では、方向検索は、復元ピクセルに対してデブロッキングフィルタの直後に実行される。それらのピクセルはデコーダに利用可能なので、デコーダによって方向を検索することができ、したがって、一例では方向はシグナリングを必要としない。いくつかの例では、方向検索は8×8ブロックなどの特定のブロックサイズで動作することができ、これは、非直線エッジを適切に処理するのに十分小さいが、量子化画像に適用されたときに確実に方向を推定するのに十分大きい。また、8×8領域上に一定の方向性を有することは、フィルタのベクトル化を容易にする。いくつかの例では、各ブロック(例えば、8×8)は、差を決定するために完全指向性ブロックと比較することができる。完全指向性ブロックは、ある方向の線に沿ったすべてのピクセルが同じ値を有するブロックである。一例では、二乗差の和(SSD)、二乗平均平方根(RMS)誤差などの、ブロックおよび完全指向性ブロックの各々の差分尺度を計算することができる。次いで、最小差(例えば、最小SSD、最小RMSなど)を有する完全指向性ブロックを決定することができ、決定された完全指向性ブロックの方向は、ブロック内のパターンに最もよく一致する方向であり得る。
図19は、本開示の一実施形態による方向検索の一例を示す。一例では、ブロック(1910)は、復元され、デブロッキングフィルタから出力された8×8のブロックである。図19の例では、方向探索は、ブロック(1910)に対して(1920)によって示された8方向から方向を決定することができる。8つの完全指向性ブロック(1930)は、8つの方向(1920)にそれぞれ対応して形成される。方向に対応する完全指向性ブロックは、その方向の線に沿ったピクセルが同じ値を有するブロックである。さらに、ブロック(1910)および完全指向性ブロック(1930)の各々のSSD、RMS誤差などの差分尺度を計算することができる。図19の例では、RMS誤差は(1940)によって示されている。(1943)によって示されたように、ブロック(1910)および完全指向性ブロック(1933)のRMS誤差は最も小さく、したがって方向(1923)はブロック(1910)内のパターンに最もよく一致する方向である。
ブロックの方向が識別された後に、非線形ローパス指向性フィルタを決定することができる。例えば、非線形ローパス指向性フィルタのフィルタタップは、指向性エッジまたは指向性パターンを維持しながらリンギングを低減するために、識別された方向に沿って整列させることができる。しかしながら、いくつかの例では、指向性フィルタリングだけでは、リンギングを十分に低減することができないことがある。一例では、識別された方向に沿っていないピクセルにも追加のフィルタタップが使用される。ぼかしのリスクを低減するために、余分なフィルタタップはより控えめに扱われる。このため、CDEFは1次フィルタタップおよび2次フィルタタップを含む。一例では、完全な2-D CDEFフィルタは、式(14):
Figure 0007498297000023
のように表すことができ、ここで、Dは減衰パラメータを表記し、S(p)は一次フィルタタップの強度を表記し、S(s)は二次フィルタタップの強度を表記し、round(・)は0から離れるようにタイを丸める演算を表記し、wはフィルタ重みを表記し、f(d,S,D)はフィルタリングされたピクセルと隣接するピクセルの各々との間の差に対して演算する制約関数である。一例では、小さい差の場合、関数f(d,S,D)はDに等しく、フィルタを線形フィルタのように動作させることができ、差が大きいとき、関数f(d,S,D)は0に等しく、フィルタタップを効果的に無視することができる。
いくつかの例では、デブロッキング動作以外に、一般にノイズを除去しエッジの品質を表記し向上させるために、デブロッキング後のビデオコーディングにおいてインループ復元方式が使用される。一例では、インループ復元方式は、適切なサイズのタイルごとにフレーム内で切り替え可能である。インループ復元方式は、分離可能な対称ウィーナーフィルタ、部分空間投影による二重自己誘導式フィルタ、および領域変換再帰フィルタに基づいている。コンテンツ統計はフレーム内で大幅に変化する可能性があるので、インループ復元方式は、フレームの異なる領域内で異なる方式をトリガすることができる切り替え可能なフレームワーク内に統合されている。
分離可能な対称ウィーナーフィルタは、インループ復元方式の1つであり得る。いくつかの例では、劣化したフレーム内のすべてのピクセルは、その周りのw×wウィンドウ内のピクセルの非因果フィルタリングバージョンとして復元することができ、ここで、w=2r+1は整数rに対して奇数である。2Dフィルタタップが列ベクトル化形式のw2×1要素ベクトルFによって表記される場合、直接的なLMMSE最適化は、F=H-1Mによって与えられるフィルタパラメータにつながり、ここで、H=E[XXT]は、xの自己共分散であり、ピクセルの周りのw×wウィンドウ内のw2個のサンプルの列ベクトル化バージョンであり、M=E[YXT]は、推定されるべき、xとスカラーソースサンプルyの相互相関である。一例では、エンコーダは、デブロッキングされたフレームおよびソース内の実現値からHおよびMを推定し、得られたフィルタFをデコーダに送信することができる。しかしながら、そうすると、w2個のタップを送信する際にかなりのビットレートコストを招くだけでなく、分離不可能なフィルタリングよって復号が法外に複雑になる。いくつかの実施形態では、Fの性質にいくつかの追加の制約が課される。一番目の制約では、Fは分離可能であるように制約され、その結果、フィルタリングは分離可能な水平方向および垂直方向のwタップ畳み込みとして実施することができる。二番目の制約では、水平フィルタおよび垂直フィルタの各々は対称になるように制約される。三番目の制約では、水平フィルタ係数と垂直フィルタ係数の両方の和が合計1になると仮定する。
部分空間投影を用いた二重自己誘導式フィルタリングは、インループ復元方式の1つであり得る。誘導式フィルタリングは、式(15)によって示された局所線形モデルがフィルタリングされていないサンプルxからフィルタリングされた出力yを計算するために使用される、画像フィルタリング技法であり、
y=Fx+G 式(15)
ここで、FおよびGは、劣化した画像およびフィルタリングされたピクセルの近傍のガイダンス画像の統計に基づいて決定される。ガイド画像が劣化した画像と同じである場合、得られたいわゆる自己誘導式フィルタリングは、エッジ維持平滑化の効果を有する。一例では、特定の形式の自己誘導式フィルタリングを使用することができる。自己誘導式フィルタリングの具体的な形式は、2つのパラメータ:半径rおよびノイズパラメータeに依存し、以下のステップのように列挙される。
1.すべてのピクセルの周りの(2r+1)×(2r+1)ウィンドウ内のピクセルの平均μおよび分散σ2を取得する。このステップは、インテグラルイメージングに基づくボックスフィルタリングで効率的に実施することができる。
2.すべてのピクセルについてf=σ2/(σ2+e)、g=(1-f)μを計算する。
3.すべてのピクセルのFおよびGを、使用するピクセルの周りの3×3ウィンドウ内のfおよびgの値の平均として計算する。
自己誘導式フィルタリングの具体的な形式はrおよびeによって制御され、rが大きいほど空間分散が大きくなり、eが大きいほど範囲分散が大きくなる。
図20は、いくつかの例における部分空間投影を示す一例を示す。図20に示されたように、復元X1、X2のいずれもソースYに近接していない場合でも、適切な乗算器{α,β}は、それらがいくらか正しい方向に移動している限り、それらをソースにかなり近接させることができる。
いくつかの例(例えば、HEVC)では、サンプル適応オフセット(SAO)と呼ばれるフィルタリング技法を使用することができる。いくつかの例では、SAOは、デブロッキングフィルタの後の復元信号に適用される。SAOは、スライスヘッダ内で与えられたオフセット値を使用することができる。いくつかの例では、輝度サンプルの場合、エンコーダは、スライスにSAOを適用する(有効化する)かどうかを判断することができる。SAOが有効化されると、現在ピクチャは、コーディングユニットの4つのサブ領域への再帰的分割を可能にし、各サブ領域は、サブ領域内の特徴に基づいて複数のSAOタイプからSAOタイプを選択することができる。
図21は、本開示の一実施形態による、複数のSAOタイプの表(2100)を示す。表(2100)には、SAOタイプ0~6が示されている。SAOタイプ0は、SAOが適用されないことを示すために使用されることに留意されたい。さらに、SAOタイプ1~SAOタイプ6の各SAOタイプは、複数のカテゴリを含む。SAOは、サブ領域の復元されたピクセルをカテゴリに分類し、サブ領域内の各カテゴリのピクセルにオフセットを加えることによって歪みを低減することができる。いくつかの例では、エッジ特性はSAOタイプ1~4におけるピクセル分類に使用することができ、ピクセル強度はSAOタイプ5~6におけるピクセル分類に使用することができる。
具体的には、SAOタイプ5~6などの一実施形態では、サブ領域のすべてのピクセルを複数の帯域に分類するために、バンドオフセット(BO)を使用することができる。複数の帯域の各帯域は、同じ強度間隔内のピクセルを含む。いくつかの例では、強度範囲は、0から最大強度値(例えば、8ビットピクセルの場合255)までの32個の間隔などの複数の間隔に等しく分割され、各間隔はオフセットに関連付けられる。さらに、一例では、32個の帯域は、第1のグループおよび第2のグループなどの2つのグループに分割される。第1のグループは、中央の16個の帯域(例えば、強度範囲の中央にある16個の間隔)を含み、第2のグループは、残りの16個の帯域(例えば、強度範囲の低い側にある8つの間隔、および強度範囲の高い側にある8つの間隔)を含む。一例では、2つのグループのうちの1つのオフセットのみが送信される。いくつかの実施形態では、BOにおけるピクセル分類演算が使用されるとき、各ピクセルの5つの最上位ビットを帯域インデックスとして直接使用することができる。
さらに、SAOタイプ1~4などの一実施形態では、ピクセル分類およびオフセットの決定にエッジオフセット(EO)を使用することができる。例えば、ピクセル分類は、エッジ指向性情報を考慮して1次元3ピクセルパターンに基づいて決定することができる。
図22は、いくつかの例におけるエッジオフセットにおけるピクセル分類のための3ピクセルパターンの例を示す。図22の例では、(3つのグレーピクセルによって示された)第1のパターン(2210)は、0度パターン(0度パターンには水平方向が関連付けられている)と呼ばれ、(3つのグレーピクセルによって示された)第2のパターン(2220)は、90度パターン(90度パターンには垂直方向が関連付けられている)と呼ばれ、(3つのグレーピクセルによって示された)第3のパターン(2230)は、135度パターン(135度パターンには135度対角方向が関連付けられている)と呼ばれ、(3つのグレーピクセルによって示された)第4のパターン(2240)は、45度パターン(45度パターンには45度対角方向が関連付けられている)と呼ばれる。一例では、サブ領域のエッジ指向性情報を考慮して、図22に示された4つの指向性パターンのうちの1つを選択することができる。選択は、一例ではサイド情報としてコード化ビデオビットストリーム内で送信することができる。次いで、サブ領域内のピクセルは、指向性パターンに関連付けられた方向にその2つの隣接ピクセルと各ピクセルを比較することによって、複数のカテゴリに分類することができる。
図23は、いくつかの例におけるエッジオフセット向けのピクセル分類規則のための表(2300)である。具体的には、(図22の各パターンにも示されている)ピクセルcは、(図22の各パターンにも灰色で示されている)2つの隣接ピクセルと比較され、ピクセルcは、図23に示されたピクセル分類規則による比較に基づいてカテゴリ0~4のうちの1つに分類することができる。
いくつかの実施形態では、デコーダ側のSAOは、ラインバッファを節約することができるように、最大コーディングユニット(LCU)(例えば、CTU)とは無関係に動作することができる。いくつかの例では、各LCU内の最上位および最下位の行のピクセルは、90度、135度、および45度の分類パターンが選択されたときにSAO処理されず、各LCU内の左端および右端の列のピクセルは、0度、135度、および45度のパターンが選択されたときにSAO処理されない。
図24は、パラメータが隣接するCTUからマージされない場合にCTUについてシグナリングされる必要があり得る構文の例(2400)を示す。例えば、構文要素sao_type_idx[cldx][rx][ry]は、サブ領域のSAOタイプを示すためにシグナリングすることができる。SAOタイプは、BO(バンドオフセット)またはEO(エッジオフセット)であってもよい。sao_type_idx[cldx][rx][ry]が0の値を有するとき、それはSAOがOFFであることを示し、1から4の値は、0°、90°、135°、および45°に対応する4つのEOカテゴリのうちの1つが使用されることを示し、5の値は、BOが使用されることを示す。図24の例では、BOタイプおよびEOタイプの各々は、シグナリングされる4つのSAOオフセット値(sao_offset[cIdx][rx][ry][0]~sao_offset[cIdx][rx][ry][3])を有する。
一般に、フィルタリングプロセスは、出力を生成するために入力(例えば、YもしくはCbもしくはCr、またはRもしくはGもしくはB)として第1の色成分の復元サンプルを使用することができ、フィルタリングプロセスの出力は、第1の色成分と同じ色成分であり得るか、または第1の色成分とは異なる別の色成分であり得る第2の色成分に適用される。
成分間フィルタリング(CCF)の関連する例では、いくつかの数学方程式に基づいてフィルタ係数が導出される。導出されたフィルタ係数は、エンコーダ側からデコーダ側にシグナリングされ、導出されたフィルタ係数は、線形結合を使用してオフセットを生成するために使用される。次いで、生成されたオフセットは、フィルタリングプロセスとして復元サンプルに加えられる。例えば、オフセットは、フィルタリング係数の輝度サンプルとの線形結合に基づいて生成され、生成されたオフセットは復元された彩度サンプルに加えられる。CCFの関連する例は、復元された輝度サンプル値と、元の彩度サンプルと復元された彩度サンプルとの間のデルタ値との間の線形マッピング関係の仮定に基づいている。しかしながら、復元された輝度サンプル値と、元の彩度サンプルと復元された彩度サンプルとの間のデルタ値との間のマッピングは、必ずしも線形マッピングプロセスに従わず、したがって、CCFのコーディング性能は、線形マッピング関係の仮定の下で制限される場合がある。
いくつかの例では、非線形マッピング技法は、著しいシグナリングオーバーヘッドなしに、成分間フィルタリングおよび/または同色成分フィルタリングにおいて使用することができる。一例では、非線形マッピング技法は、成分間サンプルオフセットを生成するために成分間フィルタリングにおいて使用することができる。別の例では、非線形マッピング技法は、局所サンプルオフセットを生成するために同色成分フィルタリングにおいて使用することができる。
便宜上、非線形マッピング技法を使用するフィルタリングプロセスは、非線形マッピングによるサンプルオフセット(SO-NLM)と呼ぶことができる。成分間フィルタリングプロセスにおけるSO-NLMは、成分間サンプルオフセット(CCSO)と呼ぶことができる。同色成分フィルタリングにおけるSO-NLMは、局所サンプルオフセット(LSO)と呼ぶことができる。非線形マッピング技法を使用するフィルタは、非線形マッピングベースフィルタと呼ぶことができる。非線形マッピングベースフィルタは、CCSOフィルタ、LSOフィルタなどを含むことができる。
一例では、CCSOおよびLSOは、復元サンプルの歪みを低減するためにループフィルタリングとして使用することができる。CCSOおよびLSOは、関連する例示的なCCFにおいて使用される線形マッピングの仮定に依存しない。例えば、CCSOは、輝度復元サンプル値と、元の彩度サンプルと彩度復元サンプルとの間のデルタ値との間の線形マッピング関係の仮定に依存しない。同様に、LSOは、色成分の復元サンプル値と、色成分の元のサンプルと色成分の復元サンプルとの間のデルタ値との間の線形マッピング関係の仮定に依存しない。
以下の説明では、出力を生成するために入力(例えば、YもしくはCbもしくはCr、またはRもしくはGもしくはB)として第1の色成分の復元サンプルを使用するSO-NLMフィルタリングプロセスが記載され、フィルタリングプロセスの出力は第2の色成分に適用される。第2の色成分が第1の色成分と同じ色成分であるとき、説明はLSOに適用可能であり、第2の色成分が第1の色成分と異なるとき、説明はCCSOに適用可能である。
SO-NLMでは、エンコーダ側で非線形マッピングが導出される。非線形マッピングは、フィルタ支持領域内の第1の色成分の復元サンプルと、フィルタ支持領域内の第2の色成分に加えられたオフセットとの間にある。第2の色成分が第1の色成分と同じであるとき、非線形マッピングはLSOにおいて使用され、第2の色成分が第1の色成分と異なるとき、非線形マッピングはCCSOにおいて使用される。非線形マッピングの領域は、(可能な復元サンプル値の組合せとも呼ばれる)処理された入力復元サンプルの異なる組合せによって決定される。
SO-NLMの技法は具体例を使用して例示することができる。具体例では、(「フィルタ支持領域」とも呼ばれる)フィルタ支持エリア内に位置する第1の色成分からの復元サンプルが決定される。フィルタ支持エリアはフィルタを適用することができるエリアであり、フィルタ支持エリアは任意の適切な形状を有することができる。
図25は、本開示のいくつかの実施形態による、フィルタ支持エリア(2500)の一例を示す。フィルタ支持エリア(2500)は、第1の色成分の4つの復元サンプル:P0、P1、P2、およびP3を含む。図25の例では、4つの復元サンプルは垂直方向および水平方向に十字形を形成することができ、十字形の中心位置はフィルタリングされるサンプル用の位置である。中心位置にあり、P0~P3と同じ色成分のサンプルはCによって表記される。中心位置にあり、第2の色成分のサンプルはFによって表記される。第2の色成分は、P0~P3の第1の色成分と同じであってもよく、P0~P3の第1の色成分と異なっていてもよい。
図26は、本開示のいくつかの実施形態による、別のフィルタ支持エリア(2600)の一例を示す。フィルタ支持エリア(2600)は、正方形を形成する第1の色成分の4つの復元サンプルP0、P1、P2、およびP3を含む。図26の例では、正方形の中心位置はフィルタリングされるサンプルの位置である。中心位置にあり、P0~P3と同じ色成分のサンプルはCによって表記される。中心位置にあり、第2の色成分のサンプルはFによって表記される。第2の色成分は、P0~P3の第1の色成分と同じであってもよく、P0~P3の第1の色成分と異なっていてもよい。
復元サンプルはSO-NLMフィルタに入力され、フィルタタップを形成するために適切に処理される。一例では、SO-NLMフィルタへの入力である復元サンプルの位置は、フィルタタップ位置と呼ばれる。具体例では、復元サンプルは以下の2つのステップで処理される。
第1のステップでは、P0~P3とCとの間のデルタ値がそれぞれ計算される。例えば、m0はP0からCの間のデルタ値を表記し、m1はP1からCの間のデルタ値を表記し、m2はP2からCの間のデルタ値を表記し、m3はP3からCの間のデルタ値を表記する。
第2のステップでは、デルタ値m0~m3がさらに量子化され、量子化された値はd0、d1、d2、d3として表記される。一例では、量子化値は、量子化プロセスに基づいて-1、0、1のうちの1つであり得る。例えば、mが-Nより小さいとき(Nは正の値であり、量子化ステップサイズと呼ばれる)、値mは-1に量子化することができ、mが[-N,N]の範囲内にあるとき、値mは0に量子化することができ、mがNより大きいとき、値mは1に量子化することができる。いくつかの例では、量子化ステップサイズNは、4、8、12、16などのうちの1つであり得る。
いくつかの実施形態では、量子化値d0~d3はフィルタタップであり、フィルタ領域内の1つの組合せを識別するために使用することができる。例えば、フィルタタップd0~d3は、フィルタ領域内の組合せを形成することができる。各フィルタタップは3つの量子化値を有することができ、したがって、4つのフィルタタップが使用されるとき、フィルタ領域は81(3×3×3×3)個の組合せを含む。
図27A~図27Cは、本開示の一実施形態による、81個の組合せを有する表(2700)である。表(2700)は81個の組合せに対応する81行を含む。組合せに対応する各行において、第1列は組合せのインデックスを含み、第2列は組合せのためのフィルタタップd0の値を含み、第3列は組合せのためのフィルタタップd1の値を含み、第4列は組合せのためのフィルタタップd2の値を含み、第5列は組合せのためのフィルタタップd3の値を含み、第6列は非線形マッピングのための組合せに関連付けられたオフセット値を含む。一例では、フィルタタップd0~d3が決定されると、d0~d3の組合せに関連付けられた(sによって表記された)オフセット値を表(2700)に従って決定することができる。一例では、オフセット値s0~s80は、0、1、-1、3、-3、5、-5、-7などの整数である。
いくつかの実施形態では、SO-NLMの最終フィルタリングプロセスは、式(16)に示されたように適用することができ、
f’=clip(f+s) 式(16)
ここで、fは、フィルタリングされるべき第2の色成分の復元サンプルであり、sは、表(2700)などを使用して、第1の色成分の復元サンプルの処理結果であるフィルタタップに従って決定されたオフセット値である。復元サンプルFとオフセット値sの和は、第2の色成分の最終的なフィルタリングされたサンプルf’を決定するためにビット深度に関連付けられた範囲にさらにクリップされる。
LSOの場合、上記の説明における第2の色成分は第1の色成分と同じであり、CCSOの場合、上記の説明における第2の色成分は第1の色成分とは異なり得ることに留意されたい。
上記の説明は、本開示の他の実施形態向けに調整することができることに留意されたい。
いくつかの例では、エンコーダ側で、符号化デバイスは、フィルタ支持領域内の第1の色成分の復元サンプルと、第2の色成分の復元サンプルに加えられたオフセットとの間のマッピングを導出することができる。マッピングは、任意の適切な線形マッピングまたは非線形マッピングであり得る。次いで、フィルタリングプロセスは、マッピングに基づいてエンコーダ側および/またはデコーダ側で適用することができる。例えば、マッピングは、デコーダに適切に通知され(例えば、マッピングは、エンコーダ側からデコーダ側に送信されるコード化ビデオビットストリームに含まれる)、次いで、デコーダは、マッピングに基づいてフィルタリングプロセスを実行することができる。
CCSOフィルタ、LSOフィルタなどの非線形マッピングベースフィルタの性能は、フィルタ形状構成に依存する。フィルタの(フィルタ形状とも呼ばれる)フィルタ形状構成は、フィルタタップ位置によって形成されるパターンの特性を指すことができる。パターンは、フィルタタップの数、フィルタタップ位置の幾何学的形状、パターンの中心までのフィルタタップ位置の距離などの様々なパラメータによって定義することができる。固定フィルタ形状構成を使用すると、非線形マッピングベースフィルタの性能が制限される場合がある。
図24および図25ならびに図27A~図27Cによって示されたように、いくつかの例は、非線形マッピングベースフィルタのフィルタ形状構成に5タップフィルタ設計を使用する。5タップフィルタ設計は、P0、P1、P2、P3、およびCのタップ位置を使用することができる。フィルタ形状構成向けの5タップフィルタ設計は、図27A~図27Cに示されたように、81個のエントリを有する参照テーブル(LUT)をもたらすことができる。サンプルオフセットのLUTは、エンコーダ側からデコーダ側にシグナリングされる必要があり、LUTのシグナリングは、大部分のシグナリングオーバーヘッドの一因となり、非線形マッピングベースフィルタを使用するコーディング効率に影響を及ぼす可能性がある。本開示のいくつかの態様によれば、フィルタタップの数は5とは異なってもよい。いくつかの例では、フィルタタップの数を減らすことができ、フィルタ支持エリア内の情報をさらに取り込むことができ、コーディング効率を改善することができる。
いくつかの例では、非線形マッピングベースフィルタ用のグループ内のフィルタ形状構成は、それぞれ、3つのフィルタタップを有する。
図28は、一例における3つのフィルタタップの7つのフィルタ形状構成を示す。具体的には、第1のフィルタ形状構成は、「1」および「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「1」の中心位置であり、第2のフィルタ形状構成は、「2」および位置「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「2」の中心位置であり、第3のフィルタ形状構成は、「3」および位置「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「3」の中心位置であり、第4のフィルタ形状構成は、「4」および位置「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「4」の中心位置であり、第5のフィルタ形状構成は、「5」および「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「5」の中心位置であり、第6のフィルタ形状構成は、「6」および位置「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「6」の中心位置であり、第7のフィルタ形状構成は、「7」および位置「c」とラベル付けされた位置に3つのフィルタタップを含み、位置「c」は位置「7」の中心位置である。
本開示のいくつかの態様によれば、非線形マッピングベースフィルタは、ループフィルタチェーン内の他のインループフィルタとともに使用することができる。非線形マッピングベースフィルタの位置は、非線形マッピングベースフィルタのコーディング効率に影響を及ぼす場合がある。
図29は、いくつかの例におけるループフィルタチェーン(2900)のブロック図を示す。ループフィルタチェーン(2900)は、フィルタチェーン内の直列に接続された複数のフィルタを含む。ループフィルタチェーン(2900)は、一例ではループフィルタユニット(556)として使用することができる。ループフィルタチェーン(2900)は、参照ピクチャメモリ(557)などの復号ピクチャバッファに復元ピクチャを格納する前に、符号化ループまたは復号ループにおいて使用することができる。ループフィルタチェーン(2900)は、前の処理モジュールから入力復元サンプルを受信し、復元サンプルにフィルタを適用して出力復元サンプルを生成する。
ループフィルタチェーン(2900)は、任意の適切なフィルタを含むことができる。図29の例では、ループフィルタチェーン(2900)は、チェーン内に接続された(デブロッキングとラベル付けされた)デブロッキングフィルタ、(CDEFとラベル付けされた)制約付き指向性拡張フィルタ、および(LRとラベル付けされた)インループ復元フィルタを含む。ループフィルタチェーン(2900)は、入力ノード(2901)、出力ノード(2909)、および複数の中間ノード(2902)~(2903)を有する。ループフィルタチェーン(2900)の入力ノード(2901)は、前の処理モジュールから入力復元サンプルを受信し、入力復元サンプルはデブロッキングフィルタに提供される。中間ノード(2902)は、デブロッキングフィルタから(デブロッキングフィルタによって処理された後に)復元サンプルを受信し、さらなるフィルタ処理のために復元サンプルをCDEFに提供する。中間ノード(2903)は、CDEFから(CDEFによって処理された後に)復元サンプルを受信し、さらなるフィルタ処理のために復元サンプルをLRフィルタに提供する。出力ノード(2909)は、(LRフィルタによって処理された後に)LRフィルタから出力復元サンプルを受信する。出力復元サンプルは、さらなる処理のための後処理モジュールなどの他の処理モジュールに提供することができる。
以下の説明は、ループフィルタチェーン(2900)に基づいて非線形マッピングベースフィルタを使用する技法を示すことに留意されたい。非線形マッピングベースフィルタを使用する技法は、他の適切なループフィルタチェーンにおいて使用することができる。
本開示の一態様によれば、非線形マッピングベースフィルタは、ループフィルタチェーン内で直列に他のフィルタと結合することができ、非線形マッピングベースフィルタの入力および出力は、ループフィルタチェーンの同じノードに配置することができ、他のフィルタは、非線形マッピングベースフィルタの入力と出力との間に存在しない。例えば、非線形マッピングベースフィルタは、ループフィルタチェーンのノードにおいて復元サンプルを受信し、ループフィルタチェーンのノードにある復元サンプルに基づいてサンプルオフセットを決定し、次いで、ループフィルタチェーンのノードにある復元サンプルにおいてサンプルオフセットを適用する。
図30A~図30Dは、ループフィルタチェーン内で直列に他のフィルタと結合された非線形マッピングベースフィルタを含むループフィルタチェーンの例を示す。
図30Aは、一例におけるループフィルタチェーン(3000A)の一例を示す。ループフィルタチェーン(3000A)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3000A)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが入力ノードにおいて適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3011A)における(ループフィルタチェーン(3000A)への)入力復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3012A)において中間復元サンプルと組み合わされて、第3のノード(3013A)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにデブロッキングフィルタに提供される。図30Aの例では、第1のノード(3011A)および第2のノード(3012A)は同じノードであり、中間復元サンプルは第1の復元サンプルである。
図30Bは、一例におけるループフィルタチェーン(3000B)の一例を示す。ループフィルタチェーン(3000B)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3000B)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが、ループフィルタチェーン(3000B)の中間ノードにおいて適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3011B)における(デブロッキングフィルタによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3012B)において中間復元サンプルと組み合わされて、第3のノード(3013B)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにCDEFに提供される。図30Bの例では、第1のノード(3011B)および第2のノード(3012B)は同じノードであり、中間復元サンプルは第1の復元サンプルである。
図30Cは、一例におけるループフィルタチェーン(3000C)の一例を示す。ループフィルタチェーン(3000C)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3000C)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが、ループフィルタチェーン(3000C)の中間ノードにおいて適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3011C)における(CDEFによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3012C)において中間復元サンプルと組み合わされて、第3のノード(3013C)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにLRフィルタに提供される。図30Cの例では、第1のノード(3011C)および第2のノード(3012C)は同じノードであり、中間復元サンプルは第1の復元サンプルである。
図30Dは、一例におけるループフィルタチェーン(3000D)の一例を示す。ループフィルタチェーン(3000D)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3000D)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが出力ノードにおいて適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3011D)における(LRフィルタによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3012D)において中間復元サンプルと組み合わされて、第3のノード(3013D)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はループフィルタチェーン(3000D)の出力である。図30Dの例では、第1のノード(3011D)および第2のノード(3012D)は同じノードであり、中間復元サンプルは第1の復元サンプルである。
本開示の一態様によれば、非線形マッピングベースフィルタは、ループフィルタチェーン内で並列に1つまたは複数のフィルタと結合することができ、非線形マッピングベースフィルタの入力と出力との間に少なくとも1つのフィルタが存在する。例えば、非線形マッピングベースフィルタは、ループフィルタチェーンの第1のノードにおいて復元サンプルを受信し、ループフィルタチェーンの第1のノードにある復元サンプルに基づいてサンプルオフセットを決定し、次いで、ループフィルタチェーンの第2のノードにある復元サンプルにおいてサンプルオフセットを適用する。ループフィルタチェーンの第2のノードにある復元サンプルは、ループフィルタチェーンの第1のノードにある復元サンプルに1つまたは複数のフィルタを適用することによって取得することができる。
いくつかの例では、非線形マッピングベースフィルタの入力は、デブロッキングフィルタの後でCDEFの前に位置する復元サンプルであり、非線形マッピングベースフィルタの出力は、CDEFの後でLRフィルタの前、またはLRフィルタの後の復元サンプルに適用される。
図31Aは、CDEFと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3100A)の一例を示す。ループフィルタチェーン(3100A)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3100A)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが2つの中間ノードの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3111A)における(デブロッキングフィルタによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3112A)において(CDEFによって生成された)中間復元サンプルと組み合わされて、第3のノード(3113A)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにLRフィルタに提供される。図31Aの例では、CDEFは、第1のノード(3111A)と第2のノード(3112A)との間にある。中間復元サンプルはCDEFの出力である。
図31Bは、CDEFおよびLRフィルタと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3100B)の一例を示す。ループフィルタチェーン(3100B)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3100B)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタが中間ノードと出力ノードとの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3111B)における(デブロッキングフィルタによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3112B)において(LRフィルタによって生成された)中間復元サンプルと組み合わされて、第3のノード(3113B)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はループフィルタチェーン(3100B)の出力である。図31Bの例では、CDEFおよびLRフィルタは、第1のノード(3111B)と第2のノード(3112B)との間にある。中間復元サンプルはLRフィルタの出力である。
いくつかの例では、非線形マッピングベースフィルタの入力は、デブロッキングフィルタの前に位置する復元サンプルであり、非線形マッピングベースフィルタの出力は、デブロッキングフィルタの後でCDEFの前、CDEFの後でLRフィルタの前、またはLRフィルタの後の復元サンプルに適用される。
図32Aは、デブロッキングフィルタと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3200A)の一例を示す。ループフィルタチェーン(3200A)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3200A)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタがループフィルタチェーンの入力ノードと中間ノードとの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3211A)における入力復元サンプル(ループフィルタチェーン(3200A)の入力)である。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3212A)において(デブロッキングフィルタによって生成された)中間復元サンプルと組み合わされて、第3のノード(3213A)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにCDEFに提供される。図32Aの例では、デブロッキングフィルタは、第1のノード(3211A)と第2のノード(3212A)との間にある。中間復元サンプルはデブロッキングフィルタの出力である。
図32Bは、デブロッキングフィルタおよびCDEFと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3200B)の一例を示す。ループフィルタチェーン(3200B)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3200B)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタがループフィルタチェーンの入力ノードと中間ノードとの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3211B)における入力復元サンプル(ループフィルタチェーン(3200B)の入力)である。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3212B)において(CDEFによって生成された)中間復元サンプルと組み合わされて、第3のノード(3213B)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はさらなるフィルタリングのためにLRに提供される。図32Bの例では、デブロッキングフィルタおよびCDEFは、第1のノード(3211B)と第2のノード(3212B)との間にある。中間復元サンプルはCDEFの出力である。
図32Cは、デブロッキングフィルタ、CDEF、およびLRフィルタと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3200C)の一例を示す。ループフィルタチェーン(3200C)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3200C)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタがループフィルタチェーンの入力ノードと出力ノードとの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3211C)における入力復元サンプル(ループフィルタチェーン(3200C)の入力)である。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3212C)において(LRフィルタによって生成された)中間復元サンプルと組み合わされて、第3のノード(3213C)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はループフィルタチェーン(3200C)の出力である。図32Cの例では、デブロッキングフィルタ、CDEF、およびLRフィルタは、第1のノード(3211C)と第2のノード(3212C)との間にある。中間復元サンプルはLRフィルタの出力である。
いくつかの例では、非線形マッピングベースフィルタの入力は、CDEFの後でLRフィルタの前に位置する復元サンプルであり、非線形マッピングベースフィルタの出力は、LRフィルタの後の復元サンプルに適用される。
図33は、LRフィルタと並列に結合された非線形マッピングベースフィルタを含むループフィルタチェーン(3300)の一例を示す。ループフィルタチェーン(3300)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。ループフィルタチェーン(3300)では、(SO-NLMとラベル付けされた)非線形マッピングベースフィルタがループフィルタチェーンの中間ノードと出力ノードとの間で適用される。具体的には、非線形マッピングベースフィルタの(第1の復元サンプルとも呼ばれる)入力は、第1のノード(3311)における(CDEFによって生成された)復元サンプルである。入力に基づいて、非線形マッピングベースフィルタはサンプルオフセット(SO)を生成する。サンプルオフセットは、第2のノード(3312)において(LRフィルタによって生成された)中間復元サンプルと組み合わされて、第3のノード(3313)において(第2の復元サンプルとも呼ばれる)出力を生成し、出力はループフィルタチェーン(3300)の出力である。図33の例では、LRフィルタは、第1のノード(3311)と第2のノード(3312)との間にある。中間復元サンプルはLRフィルタの出力である。
本開示の別の態様によれば、複数の非線形マッピングベースフィルタは、ループフィルタチェーン内の複数の位置において同時に適用することができる。複数の非線形マッピングベースフィルタの各々は、図30A~図30D、図31A~図31B、図32A~図32C、および図33に示された例のいずれかとして構成することができる。
図34は、SO-NLM1によって示された第1の非線形マッピングベースフィルタと、SO-NLM2によって示された第2の非線形マッピングベースフィルタとを含むループフィルタチェーン(3400)の一例を示す。ループフィルタチェーン(3400)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。第1の非線形マッピングベースフィルタは、図31Aに示された例と同様の構成でCDEFと並列に結合される。第2の非線形マッピングベースフィルタは、図30Dに示された例と同様の構成で、ループフィルタチェーン(3400)内の他のフィルタと直列に結合される。一例では、第1の非線形マッピングベースフィルタおよび第2の非線形マッピングベースフィルタは、CCSOまたはLSOなどの同じタイプのフィルタである。別の例では、第1の非線形マッピングベースフィルタおよび第2の非線形マッピングベースフィルタは、一方がCCSOであり他方がLSOであるなどの異なるタイプのフィルタである。
図35は、SO-NLM1によって示された第1の非線形マッピングベースフィルタと、SO-NLM2によって示された第2の非線形マッピングベースフィルタとを含むループフィルタチェーン(3500)の一例を示す。ループフィルタチェーン(3500)は、符号化デバイスまたは復号デバイスにおいてループフィルタチェーン(2900)の代わりに使用することができる。第1の非線形マッピングベースフィルタは、図33に示された例と同様の構成でLRフィルタと並列に結合される。第2の非線形マッピングベースフィルタは、図30Bに示された例と同様の構成で、ループフィルタチェーン(3500)内の他のフィルタと直列に結合される。一例では、第1の非線形マッピングベースフィルタおよび第2の非線形マッピングベースフィルタは、CCSOまたはLSOなどの同じタイプのフィルタである。別の例では、第1の非線形マッピングベースフィルタおよび第2の非線形マッピングベースフィルタは、一方がCCSOであり他方がLSOであるなどの異なるタイプのフィルタである。
図36は、本開示の一実施形態によるプロセス(3600)の概要を示すフローチャートを示す。プロセス(3600)は、ビデオフィルタリングに使用することができる。ブロックという用語が使用されるとき、ブロックは、予測ブロック、コーディングユニット、輝度ブロック、彩度ブロックなどとして解釈されてもよい。様々な実施形態では、プロセス(3600)は、端末デバイス(310)、(320)、(330)、および(340)内の処理回路、ビデオエンコーダ(403)の機能を実行する処理回路、ビデオデコーダ(410)の機能を実行する処理回路、ビデオデコーダ(510)の機能を実行する処理回路、ビデオエンコーダ(603)の機能を実行する処理回路などの処理回路によって実行される。いくつかの実施形態では、プロセス(3600)はソフトウェア命令に実装され、したがって、処理回路がソフトウェア命令を実行すると、処理回路はプロセス(3600)を実行する。プロセスは(S3601)において始まり、(S3610)に進む。
(S3610)において、非線形マッピングベースフィルタを適用するための第1のオフセット値は、ループフィルタチェーンに沿った第1のノードにある第1の復元サンプルに基づく。
(S3620)において、第1のオフセット値は、ループフィルタチェーンに沿った第2のノードにある中間復元サンプルに適用されて、ループフィルタチェーンに沿った第3のノードにある第2の復元サンプルを生成する。
一例では、非線形マッピングベースフィルタは、成分間サンプルオフセット(CCSO)フィルタであり、中間復元サンプルおよび第1の復元サンプルは、異なる色成分のサンプルである。
別の例では、非線形マッピングベースフィルタは、局所サンプルオフセット(LSO)フィルタであり、中間復元サンプルおよび第1の復元サンプルは、同じ色成分のサンプルである。
いくつかの実施形態では、第1のノードおよび第2のノードは、ループフィルタチェーンの入力ノード、またはループフィルタチェーンの出力ノード、またはループフィルタチェーンの中間ノードであり得る、同じノードのものである。
一例では、第1の復元サンプルは、デブロッキングフィルタより前に処理モジュールによって生成される。別の例では、第1の復元サンプルは、デブロッキングフィルタによって生成される。別の例では、第1の復元サンプルは、制約付き指向性拡張フィルタによって生成される。別の例では、第1の復元サンプルは、ループ復元フィルタによって生成される。
いくつかの実施形態では、第1のノードおよび第2のノードは異なるノードのものである。いくつか例では、第1の復元サンプルは、デブロッキングフィルタより前に処理モジュールによって生成され、中間復元サンプルは、デブロッキングフィルタ、制約付き指向性拡張フィルタ、またはループ復元フィルタのうちの少なくとも1つによって生成される。いくつかの例では、第1の復元サンプルは、デブロッキングフィルタによって生成され、中間復元サンプルは、制約付き指向性拡張フィルタまたはループ復元フィルタのうちの少なくとも1つによって生成される。いくつかの例では、第1の復元サンプルは、制約付き指向性拡張フィルタによって生成され、中間復元サンプルは、ループ復元フィルタによって生成される。
プロセス(3600)は(S3699)に進み、終了する。
いくつかの例では、非線形マッピングベースフィルタは成分間サンプルオフセット(CCSO)フィルタであり、いくつかの他の例では、非線形マッピングベースフィルタは局所サンプルオフセット(LSO)フィルタであることに留意されたい。
プロセス(3600)は適切に適合させることができる。プロセス(3600)のステップは修正および/または省略することができる。さらなるステップを追加することができる。任意の適切な実施順序を使用することができる。
本開示の実施形態は、別々に使用されてもよく、任意の順序で組み合わされてもよい。さらに、方法(または実施形態)の各々、エンコーダ、およびデコーダは、処理回路(例えば、1つもしくは複数のプロセッサまたは1つもしくは複数の集積回路)によって実施されてもよい。一例では、1つまたは複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。
上術された技法は、コンピュータ可読命令を使用するコンピュータソフトウェアとして実装され、1つまたは複数のコンピュータ可読媒体に物理的に記憶することができる。例えば、図37は、開示された主題のいくつかの実施形態を実装するのに適したコンピュータシステム(3700)を示す。
コンピュータソフトウェアは、1つまたは複数のコンピュータ中央処理装置(CPU)、グラフィックス処理装置(GPU)などによる、直接、または解釈、マイクロコード実行などを介して実行することができる命令を含むコードを作成するために、アセンブル、コンパイル、リンク、または同様のメカニズムを受けることができる任意の適切な機械語またはコンピュータ言語を使用してコード化することができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、モノのインターネットデバイスなどを含む、様々なタイプのコンピュータまたはその構成要素上で実行することができる。
コンピュータシステム(3700)に関して図37に示された構成要素は、本質的に例示的なものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用または機能の範囲に関するいかなる制限も示唆するものではない。構成要素の構成は、コンピュータシステム(3700)の例示的な実施形態に示された構成要素のいずれか1つまたは組合せに関するいかなる依存性または要件も有すると解釈されるべきでない。
コンピュータシステム(3700)は、特定のヒューマンインターフェース入力デバイスを含んでもよい。そのようなヒューマンインターフェース入力デバイスは、例えば、(キーストローク、スワイプ、データグローブの動きなどの)触覚入力、(音声、拍手などの)オーディオ入力、(ジェスチャなどの)視覚入力、(描写されていない)嗅覚入力を介して、1人または複数の人間のユーザによる入力に応答することができる。ヒューマンインターフェースデバイスは、(音声、音楽、周囲の音などの)オーディオ、(走査画像、静止画カメラから取得された写真画像などの)画像、(2次元ビデオ、立体ビデオを含む3次元ビデオなどの)ビデオなどの、人間による意識的な入力に必ずしも直接関連しない特定の媒体を取り込むために使用することもできる。
入力ヒューマンインターフェースデバイスには、キーボード(3701)、マウス(3702)、トラックパッド(3703)、タッチスクリーン(3710)、データグローブ(図示せず)、ジョイスティック(3705)、マイクロフォン(3706)、スキャナ(3707)、カメラ(3708)のうちの1つまたは複数が含まれてもよい(各々の1つのみが描写されている)。
コンピュータシステム(3700)はまた、特定のヒューマンインターフェース出力デバイスを含んでもよい。そのようなヒューマンインターフェース出力デバイスは、例えば、触覚出力、音、光、および嗅覚/味覚を介して、1人または複数の人間のユーザの感覚を刺激している場合がある。そのようなヒューマンインターフェース出力デバイスには、触覚出力デバイス(例えば、タッチスクリーン(3710)、データグローブ(図示せず)、またはジョイスティック(3705)による触覚フィードバック、しかし入力デバイスとして機能しない触覚フィードバックデバイスが存在する可能性もある)、(スピーカ(3709)、ヘッドフォン(描写せず)などの)オーディオ出力デバイス、(CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(3710)など、各々タッチスクリーン入力機能の有無にかかわらず、各々触覚フィードバック機能の有無にかかわらず、それらのうちのいくつかは、ステレオグラフィック出力、仮想現実眼鏡(描写せず)、ホログラフィックディスプレイおよびスモークタンク(描写せず)などの手段を介して2次元視覚出力または3次元以上の出力を出力することが可能な場合がある)視覚出力デバイス、ならびにプリンタ(描写せず)が含まれてもよい。
コンピュータシステム(3700)は、CD/DVDまたは同様の媒体(3721)を有するCD/DVD ROM/RW(3720)を含む光学媒体、サムドライブ(3722)、リムーバブルハードドライブまたはソリッドステートドライブ(3723)、テープおよびフロッピーディスクなどのレガシー磁気媒体(描写せず)、セキュリティドングルなどの特殊なROM/ASIC/PLDベースのデバイス(描写せず)などの、人間がアクセス可能なストレージデバイスおよびそれらに関連する媒体を含むこともできる。
当業者はまた、現在開示されている主題に関連して使用される「コンピュータ可読媒体」という用語が、伝送媒体、搬送波、または他の一時的な信号を包含しないことを理解するべきである。
コンピュータシステム(3700)は、1つまたは複数の通信ネットワーク(3755)へのインターフェース(3754)を含むこともできる。ネットワークは、例えば、ワイヤレス、有線、光であり得る。ネットワークはさらに、ローカル、広域、メトロポリタン、車両および産業用、リアルタイム、遅延耐性などであり得る。ネットワークの例には、イーサネット、ワイヤレスLANなどのローカルエリアネットワーク、GSM、3G、4G、5G、LTEなどを含むセルラーネットワーク、ケーブルTV、衛星TV、および地上波ブロードキャストTVを含むTVの有線またはワイヤレスの広域デジタルネットワーク、CANBusを含む車両および産業用などが含まれる。特定のネットワークは、通常、(例えば、コンピュータシステム(3700)のUSBポートなどの)特定の汎用データポートまたは周辺バス(3749)に取り付けられた外部ネットワークインターフェースアダプタを必要とし、他のネットワークは、通常、以下に記載されるシステムバスに取り付けることによってコンピュータシステム(3700)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェースまたはスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(3700)は他のエンティティと通信することができる。そのような通信は、単方向受信のみ(例えば、ブロードキャストTV)、単方向送信のみ(例えば、特定のCANbusデバイスへのCANbus)、または、例えば、ローカルもしくは広域のデジタルネットワークを使用する他のコンピュータシステムとの双方向であり得る。特定のプロトコルおよびプロトコルスタックは、上述されたこれらのネットワークおよびネットワークインターフェースの各々で使用することができる。
前述のヒューマンインターフェースデバイス、人間がアクセス可能なストレージデバイス、およびネットワークインターフェースは、コンピュータシステム(3700)のコア(3740)に取り付けることができる。
コア(3740)は、1つまたは複数の中央処理装置(CPU)(3741)、グラフィックス処理装置(GPU)(3742)、フィールドプログラマブルゲートエリア(FPGA)(3743)、特定のタスク用のハードウェアアクセラレータ(3744)、グラフィックスアダプタ(3750)などの形態の特殊なプログラマブル処理装置を含むことができる。これらのデバイスは、読取り専用メモリ(ROM)(3745)、ランダムアクセスメモリ(3746)、内部のユーザがアクセスできないハードドライブ、SSDなどの内部大容量ストレージ(3747)とともに、システムバス(3748)を介して接続されてもよい。いくつかのコンピュータシステムでは、システムバス(3748)は、追加のCPU、GPUなどによる拡張を可能にするために、1つまたは複数の物理プラグの形態でアクセス可能であり得る。周辺機器は、コアのシステムバス(3748)に直接取り付けることも、周辺バス(3749)を介して取り付けることもできる。一例では、ディスプレイ(3710)は、グラフィックスアダプタ(3750)に接続することができる。周辺バス用のアーキテクチャには、PCI、USBなどが含まれる。
CPU(3741)、GPU(3742)、FPGA(3743)、およびアクセラレータ(3744)は、組み合わせて、前述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードは、ROM(3745)またはRAM(3746)に記憶することができる。移行データもRAM(3746)に記憶することができるが、永続データは、例えば、内部大容量ストレージ(3747)に記憶することができる。メモリデバイスのいずれかに対する高速の記憶および検索は、1つまたは複数のCPU(3741)、GPU(3742)、大容量ストレージ(3747)、ROM(3745)、RAM(3746)などと密接に関連付けることができるキャッシュメモリを使用して可能にすることができる。
コンピュータ可読媒体は、様々なコンピュータ実装動作を実行するためのコンピュータコードをそこに有することができる。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものであり得るか、またはそれらは、コンピュータソフトウェア技術のスキルを有する人々に周知かつ利用可能な種類であり得る。
一例として、限定としてではなく、アーキテクチャを有するコンピュータシステム(3700)、具体的にはコア(3740)は、1つまたは複数の有形のコンピュータ可読媒体内に具現化されたソフトウェアを(CPU、GPU、FPGA、アクセラレータなどを含む)プロセッサが実行する結果として、機能を提供することができる。そのようなコンピュータ可読媒体は、上記で紹介されたユーザアクセス可能大容量ストレージ、ならびにコア内部大容量ストレージ(3747)またはROM(3745)などの非一時的な性質のコア(3740)の特定のストレージに関連付けられた媒体であり得る。本開示の様々な実施形態を実装するソフトウェアは、そのようなデバイスに記憶され、コア(3740)によって実行することができる。コンピュータ可読媒体は、特定のニーズに応じて、1つまたは複数のメモリデバイスまたはチップを含むことができる。ソフトウェアは、コア(3740)、および具体的にはその中の(CPU、GPU、FPGAなどを含む)プロセッサに、RAM(3746)に記憶されたデータ構造を定義すること、およびソフトウェアによって定義されたプロセスに従ってそのようなデータ構造を修正することを含む、本明細書に記載された特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。加えて、または代替として、コンピュータシステムは、本明細書に記載された特定のプロセスまたは特定のプロセスの特定の部分を実行するために、ソフトウェアの代わりに、またはソフトウェアと一緒に動作することができる、回路(例えば、アクセラレータ(3744))内に配線された、またはさもなければ具現化されたロジックの結果として、機能を提供することができる 必要に応じて、ソフトウェアへの参照はロジックを包含することができ、その逆も同様である。必要に応じて、コンピュータ可読媒体への参照は、実行のためのソフトウェアを記憶する(集積回路(IC)などの)回路、実行のためのロジックを具現化する回路、または両方を包含することができる。本開示は、ハードウェアとソフトウェアの任意の適切な組合せを包含する。
付記A:頭字語
JEM:共同探索モデル
VVC:多用途ビデオコーディング
BMS:ベンチマークセット
MV:動きベクトル
HEVC:高効率ビデオコーディング
MPM:最確モード
WAIP:広角イントラ予測
SEI:補足拡張情報
VUI:ビデオユーザビリティ情報
GOP:ピクチャグループ
TU:変換ユニット
PU:予測ユニット
CTU:コーディングツリーユニット
CTB:コーディングツリーブロック
PB:予測ブロック
HRD:仮想参照デコーダ
SDR:標準ダイナミックレンジ
SNR:信号ノイズ比
CPU:中央処理装置
GPU:グラフィックス処理装置
CRT:陰極線管
LCD:液晶ディスプレイ
OLED:有機発光ダイオード
CD:コンパクトディスク
DVD:デジタルビデオディスク
ROM:読取り専用メモリ
RAM:ランダムアクセスメモリ
ASIC:特定用途向け集積回路
PLD:プログラマブル論理デバイス
LAN:ローカルエリアネットワーク
GSM:モバイル通信用グローバルシステム
LTE:ロングタームエボリューション
CANBus:コントローラエリアネットワークバス
USB:ユニバーサルシリアルバス
PCI:周辺構成要素相互接続
FPGA:フィールドプログラマブルゲートエリア
SSD:ソリッドステートドライブ
IC:集積回路
CU:コーディングユニット
PDPC:位置依存予測結合
ISP:イントラサブパーティション
SPS:シーケンスパラメータ設定
本開示は、いくつかの例示的な実施形態を記載しているが、本開示の範囲内にある変更、置換、および様々な代替の均等物が存在する。したがって、当業者は、本明細書に明示的に図示または記載されていないが、本開示の原理を具現化し、したがって、その趣旨および範囲内にある多数のシステムおよび方法を考案できることが諒解されよう。
101 サンプル
102 矢印
103 矢印
104 正方形ブロック
180 概略図
201 現在ブロック
300 通信システム
310 端末デバイス
320 端末デバイス
330 端末デバイス
340 端末デバイス
350 通信ネットワーク
400 通信システム
401 ビデオソース
402 ビデオピクチャのストリーム
403 ビデオエンコーダ
404 符号化ビデオデータ、符号化ビデオビットストリーム
405 ストリーミングサーバ
406 クライアントサブシステム
407 符号化ビデオデータ、入力コピー
408 クライアントサブシステム
409 符号化ビデオデータ、コピー
410 ビデオデコーダ
411 ビデオピクチャの出力ストリーム
412 ディスプレイ
413 キャプチャサブシステム
420 電子デバイス
430 電子デバイス
501 チャネル
510 ビデオデコーダ
512 レンダリングデバイス
515 バッファメモリ
520 パーサー
521 シンボル
530 電子デバイス
531 受信機
551 スケーラ/逆変換ユニット
552 イントラピクチャ予測ユニット
553 動き補償予測ユニット
555 アグリゲータ
556 ループフィルタユニット
557 参照ピクチャメモリ
558 現在ピクチャバッファ
601 ビデオソース
603 ビデオエンコーダ、ビデオコーダ
620 電子デバイス
630 ソースコーダ
632 コーディングエンジン
633 ローカルビデオデコーダ
634 参照ピクチャキャッシュ、参照ピクチャメモリ
635 予測器
640 送信機
643 コード化ビデオシーケンス
645 エントロピーコーダ
650 コントローラ
660 通信チャネル
703 ビデオエンコーダ
721 汎用コントローラ
722 イントラエンコーダ
723 残差計算器
724 残差エンコーダ
725 エントロピーエンコーダ
726 スイッチ
728 残差デコーダ
730 インターエンコーダ
810 ビデオデコーダ
871 エントロピーデコーダ
872 イントラデコーダ
873 残差デコーダ
874 復元モジュール
880 インターデコーダ
910 菱形形状フィルタ
911 菱形形状フィルタ
920~932 要素
940~964 要素
1110 4×4ブロック
1111 4×4ブロック
1120 水平CTU境界
1121 CTU境界
1130 仮想境界
1131 仮想境界
1210 仮想境界
1220 仮想境界
1230 仮想境界
1240 仮想境界
1250 仮想境界
1260 仮想境界
1300 ピクチャ
1400 四分木分割パターン
1510 サンプル適応オフセット(SAO)フィルタ
1512 SAOフィルタ
1514 SAOフィルタ
1516 ALF輝度フィルタ
1518 ALF彩度フィルタ
1521 CC-ALF
1522 加算器
1531 CC-ALF
1532 加算器
1541 SAOフィルタリングされた輝度成分
1542 第2の中間成分
1543 第4の中間成分
1552 第1の中間成分
1553 第3の中間成分
1561 フィルタリングされた輝度CB
1562 フィルタリングされた第1の彩度成分
1563 フィルタリングされた第2の彩度成分
1600 フィルタ
1610 フィルタ係数
1620 菱形形状
1801 輝度サンプル
1801(1) 左上サンプル、輝度サンプル
1801(2) 右上サンプル、輝度サンプル
1801(3) 左下サンプル、輝度サンプル
1801(4) 右下サンプル、輝度サンプル
1803 彩度サンプル
1803(1) 彩度サンプル
1804 彩度サンプル
1805 彩度サンプル
1806 彩度サンプル
1807 彩度サンプル
1808 彩度サンプル
1910 ブロック
1920 方向
1923 方向
1930 完全指向性ブロック
1933 完全指向性ブロック
2100 SAOタイプの表
2210 第1のパターン
2220 第2のパターン
2230 第3のパターン
2240 第4のパターン
2300 ピクセル分類規則のための表
2400 構文の例
2500 フィルタ支持エリア
2600 フィルタ支持エリア
2700 表
2900 ループフィルタチェーン
2901 入力ノード
2902 中間ノード
2903 中間ノード
2909 出力ノード
3000A ループフィルタチェーン
3000B ループフィルタチェーン
3000C ループフィルタチェーン
3000D ループフィルタチェーン
3011A 第1のノード
3012A 第2のノード
3013A 第3のノード
3011B 第1のノード
3012B 第2のノード
3013B 第3のノード
3011C 第1のノード
3012C 第2のノード
3013C 第3のノード
3011D 第1のノード
3012D 第2のノード
3013D 第3のノード
3100A ループフィルタチェーン
3100B ループフィルタチェーン
3111A 第1のノード
3112A 第2のノード
3113A 第3のノード
3111B 第1のノード
3112B 第2のノード
3113B 第3のノード
3200A ループフィルタチェーン
3200B ループフィルタチェーン
3200C ループフィルタチェーン
3211A 第1のノード
3212A 第2のノード
3213A 第3のノード
3211B 第1のノード
3212B 第2のノード
3213B 第3のノード
3211C 第1のノード
3212C 第2のノード
3213C 第3のノード
3300 ループフィルタチェーン
3311 第1のノード
3312 第2のノード
3313 第3のノード
3400 ループフィルタチェーン
3500 ループフィルタチェーン
3600 プロセス
3700 コンピュータシステム
3701 キーボード
3702 マウス
3703 トラックパッド
3705 ジョイスティック
3706 マイクロフォン
3707 スキャナ
3708 カメラ
3709 スピーカ
3710 タッチスクリーン
3720 CD/DVD ROM/RW
3721 CD/DVDまたは同様の媒体
3722 サムドライブ
3723 リムーバブルハードドライブまたはソリッドステートドライブ
3740 コア
3741 中央処理装置(CPU)
3742 グラフィックス処理装置(GPU)
3743 フィールドプログラマブルゲートエリア(FPGA)
3744 ハードウェアアクセラレータ
3745 読取り専用メモリ(ROM)
3746 ランダムアクセスメモリ
3747 内部大容量ストレージ
3748 システムバス
3749 周辺バス
3750 グラフィックスアダプタ
3754 インターフェース
3755 通信ネットワーク

Claims (10)

  1. ビデオコーディングにおけるフィルタリングのための方法であって、
    プロセッサにより、フィルタ支持エリアに位置する第1の色成分から、複数のビデオフィルタを含むループフィルタチェーンに沿った第1のノードにある第1の復元サンプルを決定するステップであって、前記フィルタ支持エリアはフィルタが適用される範囲内のエリアである、ステップと、
    前記プロセッサにより、前記第1の復元サンプルを非線形マッピングベースフィルタへの入力として処理してフィルタタップを形成するステップと、
    前記プロセッサにより、前記第1の復元サンプルに基づいて、前記非線形マッピングベースフィルタを前記第1の復元サンプルに適用することによって、第1のオフセット値を前記フィルタタップに従って決定するステップと、
    中間フィルタのいずれかによって中間復元サンプルを生成するステップと、
    前記プロセッサにより、前記ループフィルタチェーンに沿った第2のノードにある中間復元サンプルに前記第1のオフセット値を加えることに基づいて第2の復元サンプルを生成するステップであって、前記第1の復元サンプル及び前記中間復元サンプルは色成分のサンプルである、ステップ
    含み、
    前記非線形マッピングベースフィルタが、成分間サンプルオフセット(CCSO)フィルタである場合、前記中間復元サンプルおよび前記第1の復元サンプルが、異なる色成分のサンプルであり、
    前記非線形マッピングベースフィルタは、
    前記中間フィルタのうちの少なくとも1つと並列的に配置され、または
    前記中間フィルタと直列的に配置される
    方法。
  2. 前記非線形マッピングベースフィルタが、局所サンプルオフセット(LSO)フィルタである場合、前記中間復元サンプルおよび前記第1の復元サンプルが、同じ色成分のサンプルである、請求項1に記載の方法。
  3. 前記第1のノードおよび前記第2のノードが同じノードである、請求項1に記載の方法。
  4. 前記第1のノードおよび前記第2のノードが、
    前記ループフィルタチェーンの入力ノード、
    前記ループフィルタチェーンの出力ノード、または
    前記ループフィルタチェーンの中間ノード
    のうちの1つである、請求項3に記載の方法。
  5. 前記第1の復元サンプルが、
    デブロッキングフィルタより前の処理モジュール、
    前記デブロッキングフィルタ、
    制約付き指向性拡張フィルタ、または
    ループ復元フィルタ
    のうちの少なくとも1つである前記中間フィルタによって生成される、請求項3に記載の方法。
  6. 前記第1のノードおよび前記第2のノードが異なるノードである、請求項1に記載の方法。
  7. 前記第1の復元サンプルが、デブロッキングフィルタより前に処理モジュールによって生成され、前記中間復元サンプルが、
    前記デブロッキングフィルタ、
    制約付き指向性拡張フィルタ、または
    ループ復元フィルタ
    のうちの少なくとも1つである前記中間フィルタによって生成される、請求項6に記載の方法。
  8. 前記第1の復元サンプルが、デブロッキングフィルタによって生成され、前記中間復元サンプルが、
    制約付き指向性拡張フィルタ、または
    ループ復元フィルタ
    のうちの少なくとも1つである前記中間フィルタによって生成される、請求項6に記載の方法。
  9. 前記第1の復元サンプルが、制約付き指向性拡張フィルタによって生成され、前記中間復元サンプルが、ループ復元フィルタによって生成される、請求項6に記載の方法。
  10. 請求項1~9のいずれか一項に記載の方法を行うように構成された装置。
JP2022563467A 2021-03-22 2021-09-30 ビデオフィルタリングのための方法および装置 Active JP7498297B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024087091A JP2024107033A (ja) 2021-03-22 2024-05-29 ビデオフィルタリングのための方法および装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163164478P 2021-03-22 2021-03-22
US63/164,478 2021-03-22
US17/449,126 US11750846B2 (en) 2021-03-22 2021-09-28 Method and apparatus for video filtering
US17/449,126 2021-09-28
PCT/US2021/052941 WO2022203719A1 (en) 2021-03-22 2021-09-30 Method and apparatus for video filtering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024087091A Division JP2024107033A (ja) 2021-03-22 2024-05-29 ビデオフィルタリングのための方法および装置

Publications (2)

Publication Number Publication Date
JP2023522703A JP2023522703A (ja) 2023-05-31
JP7498297B2 true JP7498297B2 (ja) 2024-06-11

Family

ID=83284298

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022563467A Active JP7498297B2 (ja) 2021-03-22 2021-09-30 ビデオフィルタリングのための方法および装置
JP2024087091A Pending JP2024107033A (ja) 2021-03-22 2024-05-29 ビデオフィルタリングのための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024087091A Pending JP2024107033A (ja) 2021-03-22 2024-05-29 ビデオフィルタリングのための方法および装置

Country Status (6)

Country Link
US (2) US11750846B2 (ja)
EP (1) EP4115613A4 (ja)
JP (2) JP7498297B2 (ja)
KR (1) KR20220166354A (ja)
CN (1) CN115398899B (ja)
WO (1) WO2022203719A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11770524B2 (en) * 2021-11-11 2023-09-26 Realtek Semiconductor Corp. Loop filter utilized in encoder and associated signal processing method
US11838557B2 (en) * 2021-11-17 2023-12-05 Mediatek Inc. Methods and apparatuses of ALF derivation in video encoding system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170230656A1 (en) 2016-02-05 2017-08-10 Apple Inc. Sample adaptive offset systems and methods
US20200296364A1 (en) 2019-03-12 2020-09-17 Qualcomm Incorporated Combined in-loop filters for video coding
US20200314452A1 (en) 2018-06-06 2020-10-01 Intel Corporation Loop restoration filtering for super resolution video coding
US20210044834A1 (en) 2019-08-08 2021-02-11 Panasonic Intellectual Property Corporation Of America System and method for video coding

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2580173B (en) * 2018-12-21 2022-07-27 Canon Kk A filter
KR20210117327A (ko) * 2019-01-25 2021-09-28 미디어텍 인크. 비디오 코딩에서 비선형 적응적 루프 필터링을 위한 방법 및 장치
US20220279176A1 (en) * 2021-02-26 2022-09-01 Alibaba Group Holding Limited Directional cross component filter for video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170230656A1 (en) 2016-02-05 2017-08-10 Apple Inc. Sample adaptive offset systems and methods
US20200314452A1 (en) 2018-06-06 2020-10-01 Intel Corporation Loop restoration filtering for super resolution video coding
US20200296364A1 (en) 2019-03-12 2020-09-17 Qualcomm Incorporated Combined in-loop filters for video coding
US20210044834A1 (en) 2019-08-08 2021-02-11 Panasonic Intellectual Property Corporation Of America System and method for video coding

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Chih-Ming Fu et al.,Sample Adaptive Offset in the HEVC Standard [online],Published in: IEEE Transactions on Circuits and Systems for Video Technology ( Volume: 22 , Issue: 12, December 2012), [2023年11月3日検索],2012年10月05日,pp.1755-1764,インターネット <URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6324411>
Jianle Chen et al.,Algorithm description for Versatile Video Coding and Test Model 11 (VTM 11) [online],JVET-T2002-v2(JVET-T2002-v2 .docx), [2023年11月1日検索],2021年01月05日,pp.1,8-13,69-79,インターネット <URL: https://jvet-experts.org/doc_end_user/documents/20_Teleconference/wg11/JVET-T2002-v5.zip>
JINGNING HAN et al.,A Technical Overview of AV1 [online],Published in: Proceedings of the IEEE ( Volume: 109 , Issue: 9, September 2021), [2023年11月1日検索],2021年02月26日,pp.1435-1462,インターネット <URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9363937>,DOI: 10.1109/JPROC.2021.3058584
Xin Zhao et al.,STUDY ON CODING TOOLS BEYOND AV1 [online],arXiv:2012.13491 [cs.MM], [2023年11月1日検索],2020年12月25日,インターネット <URL: https://arxiv.org/pdf/2012.13491.pdf>

Also Published As

Publication number Publication date
JP2023522703A (ja) 2023-05-31
KR20220166354A (ko) 2022-12-16
CN115398899A (zh) 2022-11-25
US20220303584A1 (en) 2022-09-22
EP4115613A4 (en) 2023-07-12
CN115398899B (zh) 2024-10-29
US20230353792A1 (en) 2023-11-02
US11750846B2 (en) 2023-09-05
EP4115613A1 (en) 2023-01-11
US12088853B2 (en) 2024-09-10
WO2022203719A1 (en) 2022-09-29
JP2024107033A (ja) 2024-08-08

Similar Documents

Publication Publication Date Title
JP7480303B2 (ja) ビデオ符号化のための方法並びに、その装置、及びコンピュータプログラム
JP7486595B2 (ja) ビデオフィルタリングのための方法及び装置
JP7434588B2 (ja) ビデオ・フィルタリングのための方法および装置
JP7498294B2 (ja) 所定のフィルタによるサンプルオフセット
JP7500757B2 (ja) サンプル・オフセットのための適応非線形マッピング
JP2023512898A (ja) ビデオフィルタリングにおけるオフセットの方法及び装置
JP2024107033A (ja) ビデオフィルタリングのための方法および装置
JP2024019652A (ja) ビデオフィルタリングのための方法および装置
JP2024084800A (ja) ビデオ復号の方法、機器、及びコンピュータプログラム
JP2024111192A (ja) ビデオ符号化における境界処理のための方法、装置及びプログラム
JP2024026818A (ja) ビデオコーディングのための方法および装置
JP2024510600A (ja) 一般化サンプルオフセットの適応的適用
JP7467676B2 (ja) ビデオコーディングのための方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240530

R150 Certificate of patent or registration of utility model

Ref document number: 7498297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150