JP2022526379A - ビデオ復号のための方法、装置およびコンピュータプログラム - Google Patents

ビデオ復号のための方法、装置およびコンピュータプログラム Download PDF

Info

Publication number
JP2022526379A
JP2022526379A JP2021557978A JP2021557978A JP2022526379A JP 2022526379 A JP2022526379 A JP 2022526379A JP 2021557978 A JP2021557978 A JP 2021557978A JP 2021557978 A JP2021557978 A JP 2021557978A JP 2022526379 A JP2022526379 A JP 2022526379A
Authority
JP
Japan
Prior art keywords
component
saturation
alf
flag
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021557978A
Other languages
English (en)
Inventor
リン・リ
シアン・リ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022526379A publication Critical patent/JP2022526379A/ja
Priority to JP2024002647A priority Critical patent/JP2024026725A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

本開示の態様は、ビデオ復号のための方法および処理回路を備えた装置を提供する。処理回路は、符号化ビデオビットストリームから、符号化ビデオビットストリーム内の第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化されているかどうかを示す第1の構文要素を復号する。処理回路は、第1の構文要素に基づいて、彩度関連符号化ツールのための1つまたは複数の第2の構文要素を復号するかどうかを判定する。彩度関連符号化ツールは、彩度スケーリング符号化ツールまたはクロス成分適応ループフィルタを有する輝度マッピングである。1つまたは複数の第2の構文要素は、第1の構文要素が、第1の成分が第2の成分に基づいて符号化されていることを示す場合に復号される。第1の構文要素が、第1の成分が第2の成分に基づいて符号化されていないことを示す場合、1つまたは複数の第2の構文要素は復号されない。

Description

参照による組み込み
本出願は、2020年1月8日に出願された米国仮出願第62/958,694号「SIGNALING OF CHROMA PRESENT FLAG FOR SUPPORTING VARIOUS CHROMA FORMAT」に対する優先権の利益を主張する、2020年11月12日に出願された米国特許出願第17/096,674号「METHOD AND APPARATUS FOR VIDEO CODING」に対する優先権の利益を主張する。先行出願の開示全体は、参照によりその全体が本明細書に組み込まれる。
本開示は、一般的にビデオ符号化に関連する実施形態を説明する。
本明細書で提供される背景技術の説明は、本開示の文脈を一般的に提示することを目的としている。本発明者らの研究は、この背景技術の項に記載されている限りにおいて、ならびに出願時に先行技術として認められない可能性がある説明の態様は、本開示に対する先行技術として明示的にも暗示的にも認められない。
ビデオ符号化および復号は、動作補償を伴う画像間予測を使用して実行することができる。非圧縮デジタルビデオは、一連の画像を含むことができ、各画像は、例えば1920×1080の輝度サンプルおよび関連する色差サンプルの空間次元を有する。一連の画像は、例えば毎秒60画像すなわち60 Hzの固定または可変画像レート(非公式にはフレームレートとしても知られる)を有することができる。非圧縮ビデオは、特定のビットレート要件を有する。例えば、サンプルあたり8ビットの1080 p 60 4:2:0ビデオ(60 Hzのフレームレートで1920×1080の輝度サンプル解像度)は、1.5 Gbit/sに近い帯域幅を必要とする。そのようなビデオの1時間は、600 GByteを超える記憶空間を必要とする。
ビデオの符号化および復号の目的の1つは、圧縮による入力ビデオ信号の冗長性の低減であり得る。圧縮は、前述の帯域幅および/または記憶空間要件を、場合によっては2桁またはそれ以上低減するのに役立ち得る。可逆圧縮および非可逆圧縮の両方、ならびにそれらの組み合わせを採用することができる。可逆圧縮とは、元の信号の正確なコピーを圧縮された元の信号から復元することができる技術を指す。非可逆圧縮を使用する場合、再構築された信号は元の信号と同一ではない可能性があるが、元の信号と再構築された信号との間の歪みは、再構築された信号を意図された用途に有用にするのに十分小さい。ビデオの場合、非可逆圧縮が広く採用されている。許容される歪みの量は用途に依存し、例えば、特定の消費者ストリーミングアプリケーションのユーザは、テレビ配信アプリケーションのユーザよりも高い歪みを許容することができる。達成可能な圧縮比は、より高い許容可能/受忍可能な歪みがより高い圧縮比をもたらすことができることを反映することができる。
ビデオ符号化器および復号器は、例えば、動作補償、変換、量子化、およびエントロピー符号化を含む、いくつかの広範なカテゴリからの技術を利用し得る。
ビデオ符号化技術は、イントラ符号化として知られる技術を含むことができる。イントラ符号化では、サンプルまたは以前に再構築された参照画像からの他のデータを参照せずにサンプル値が表される。いくつかのビデオ符号化では、画像は空間的にサンプルのブロックに細分される。サンプルのすべてのブロックがイントラモードで符号化される場合、その画像は、イントラ画像であり得る。イントラ画像および独立した復号器リフレッシュ画像などのそれらの派生は、復号器状態をリセットするために使用することができ、したがって、符号化ビデオビットストリームおよびビデオセッション内の第1の画像として、または静止画像として使用することができる。イントラブロックのサンプルは、変換にさらされる可能性があり、変換係数は、エントロピー符号化の前に量子化される可能性がある。イントラ予測は、変換前領域におけるサンプル値を最小化する技術であり得る。場合によっては、変換後のDC値が小さいほど、およびAC係数が小さいほど、エントロピー符号化後のブロックを表すために所与の量子化ステップサイズで必要とされるビットが少なくなる。
例えばMPEG-2生成符号化技術から知られているような従来のイントラ符号化は、イントラ予測を使用しない。しかしながら、いくつかのより新しいビデオ圧縮技術は、例えば、周囲のサンプルデータおよび/または空間的に隣接し、復号順序で先行するデータのブロックの符号化/復号中に取得されたメタデータから試行する技術を含む。そのような技法は、以後「イントラ予測」技法と呼ばれる。少なくともいくつかの場合において、イントラ予測は、再構築中の現在の画像からの参照データのみを使用し、参照画像からの参照データは使用しないことに留意されたい。
イントラ予測には多くの異なる形態があり得る。そのような技術のうちの2つ以上が所与のビデオ符号化技術において使用され得るとき、使用中の技術はイントラ予測モードで符号化され得る。ある場合には、モードはサブモードおよび/またはパラメータを有することができ、それらは個別に符号化されるかまたはモード符号語に含まれることができる。所与のモード/サブモード/パラメータの組み合わせにどの符号語を使用するかは、イントラ予測を介して符号化効率の利得に影響を与える可能性があり、そのため、符号語をビットストリームに変換するために使用されるエントロピー符号化技術も影響を与える可能性がある。
イントラ予測の特定のモードは、H.264で導入され、H.265で改良され、共同探索モデル(JEM)、汎用ビデオ符号化(VVC)、およびベンチマークセット(BMS)などの新しい符号化技術でさらに改良された。予測子ブロックは、既に利用可能なサンプルに属する隣接サンプル値を使用して形成することができる。隣接するサンプルのサンプル値は、方向に従って予測子ブロックにコピーされる。使用中の方向への参照は、ビットストリーム内で符号化され得るか、またはそれ自体が予測され得る。
図1Aを参照すると、右下に示されているのは、H.265の33個の可能な予測子方向から知られている9つの予測子方向のサブセットである(35個のイントラモードのうちの33個の角度モードに対応する)。矢印が収束する点(101)は、予測対象のサンプルを表す。矢印は、サンプルが予測されている方向を表す。例えば、矢印(102)は、サンプル(101)が水平から45度の角度で右上のサンプルから予測されることを示す。同様に、矢印(103)は、サンプル(101)が水平から22.5度の角度で、左下のサンプル(101)(単数または複数)まで予測されることを示す。
さらに図1Aを参照すると、左上には、4×4サンプル(破線の太字で示されている)の正方形ブロック(104)が示されている。正方形ブロック(104)は、各々が「S」で標識された16個のサンプルと、Y次元におけるその位置(例えば、行インデックス)と、X次元におけるその位置(例えば、列インデックス)とを含む。例えば、サンプルS21は、Y次元の第2のサンプル(上から)であり、X次元の第1のサンプル(左から)である。同様に、サンプルS44は、ブロック(104)におけるY次元およびX次元の両方の第4のサンプルである。ブロックのサイズは4×4サンプルであるため、S44は右下にある。同様の番号付けスキームに従う参照サンプルをさらに示す。参照サンプルは、ブロック(104)に対してR、そのY位置(例えば、行インデックス)およびX位置(列インデックス)でラベル付けされる。H.264およびH.265の両方において、予測サンプルは、再構築中のブロックに隣接する。したがって、負の値を使用する必要はない。
イントラ予測は、信号で通知された予測方向によって適切にされるように、隣接するサンプルから参照サンプル値をコピーすることによって機能することができる。例えば、符号化ビデオビットストリームが、このブロックについて、矢印(102)と一致する予測方向を示す信号で通知を含む、すなわち、水平から45度の角度で、予測サンプルから右上のサンプルが予測されると仮定する。その場合、同じ参照サンプルR05からサンプルS41,S32,S23,S14が予測される。次に、参照サンプルR08からサンプルS44が予測される。
場合によっては、特に、方向が45度で均等に割り切れない場合、参照サンプルを計算するために、例えば補間によって複数の参照サンプルの値を組み合わせることができる。
可能な方向の数は、ビデオ符号化技術が発展するにつれて増加している。H.264(2003年)では、9つの異なる方向を表すことができた。これは、H.265(2013年)では33に増加し、JEM/VVC/BMSは、本開示の時点で、最大65個の方向をサポートすることができる。最も可能性の高い方向を識別するために実験が行われており、エントロピー符号化における特定の技術は、それらの可能性の高い方向を少数のビットで表すために使用され、可能性の低い方向に対して特定のペナルティを受け入れる。さらに、方向自体は、隣接する既に復号されたブロックで使用される隣接する方向から予測できる場合がある。
図1Bは、経時的に増加する予測方向の数を示すためにJEMによる65個のイントラ予測方向を示す概略図(180)を示す。
方向を表す符号化ビデオビットストリーム内のイントラ予測方向ビットのマッピングは、ビデオ符号化技術ごとに異なり得る。例えば、予測方向からイントラ予測モードへの単純な直接マッピング、符号語、最も可能性の高いモードを含む複雑な適応方式、および同様の技術に及ぶことができる。しかしながら、すべての場合において、ビデオコンテンツにおいて特定の他の方向よりも統計的に発生する可能性が低い特定の方向が存在し得る。ビデオ圧縮の目的は冗長性の低減であるため、うまく機能するビデオ符号化技術では、それらの可能性の低い方向は、可能性の高い方向よりも多くのビット数で表される。
ビデオ符号化および復号は、動作補償を伴う画像間予測を使用して実行することができる。非圧縮デジタルビデオは、一連の画像を含むことができ、各画像は、例えば1920×1080の輝度サンプルおよび関連する色差サンプルの空間次元を有する。一連の画像は、例えば毎秒60画像すなわち60 Hzの固定または可変画像レート(非公式にはフレームレートとしても知られる)を有することができる。非圧縮ビデオには、重要なビットレート要件がある。例えば、サンプルあたり8ビットの1080 p 60 4:2:0ビデオ(60 Hzのフレームレートで1920×1080の輝度サンプル解像度)は、1.5 Gbit/sに近い帯域幅を必要とする。そのようなビデオの1時間は、600 GByteを超える記憶空間を必要とする。
ビデオの符号化および復号の目的の1つは、圧縮による入力ビデオ信号の冗長性の低減であり得る。圧縮は、前述の帯域幅または記憶領域の要件を、場合によっては2桁以上削減するのに役立ち得る。可逆圧縮と非可逆圧縮の両方、およびそれらの組み合わせを使用できる。可逆圧縮とは、元の信号の正確なコピーを圧縮された元の信号から復元することができる技術を指す。非可逆圧縮を使用する場合、再構築された信号は元の信号と同一ではない可能性があるが、元の信号と再構築された信号との間の歪みは、再構築された信号を意図された用途に有用にするのに十分小さい。ビデオの場合、非可逆圧縮が広く採用されている。許容される歪みの量は用途に依存し、例えば、特定の消費者ストリーミングアプリケーションのユーザは、テレビ配信アプリケーションのユーザよりも高い歪みを許容することができる。達成可能な圧縮比は、より高い許容可能/受忍可能な歪みがより高い圧縮比をもたらすことができることを反映することができる。
動作補償は非可逆圧縮技術とすることができ、以前に再構築された画像またはその一部(参照画像)からのサンプルデータのブロックが、動きベクトル(MV以降)によって示される方向に空間的にシフトされた後、新たに再構築された画像または画像部分の予測に使用される技術に関することができる。場合によっては、参照画像は、現在再構築中の画像と同じであり得る。MVは、2つの次元XおよびY、または3つの次元を有することができ、第3の次元は、使用中の参照画像(後者は、間接的に、時間次元とすることができる)の表示である。
いくつかのビデオ圧縮技術では、サンプルデータの特定の領域に適用可能なMVは、他のMVから、例えば再構築中の領域に空間的に隣接し、復号順でそのMVに先行するサンプルデータの別の領域に関連するMVから予測することができる。そうすることで、MVの符号化に必要なデータ量を大幅に削減することができ、それによって冗長性が排除され、圧縮が増加する。MV予測は、例えば、カメラ(自然映像として知られている)から導出された入力映像信号を符号化するとき、単一のMVが適用可能な領域よりも大きい領域が同様の方向に移動する統計的尤度があり、したがって、場合によっては、隣接領域のMVから導出された同様の動きベクトルを使用して予測することができるため、効果的に機能することができる。これにより、所与の領域について見つかったMVは、周囲のMVから予測されたMVと類似または同じになり、エントロピー符号化後に、MVを直接符号化する場合に使用されるよりも少ないビット数で表すことができる。場合によっては、MV予測は、元の信号(すなわち、サンプルストリーム)から導出された信号(すなわち、MV)の可逆圧縮の一例とすることができる。他の場合では、例えば、いくつかの周囲のMVから予測子を計算するときの丸め誤差のために、MV予測自体が非可逆であり得る。
H.265/HEVC(ITU-T Rec.H.265、「High Efficiency Video Coding」、2016年12月)に様々なMV予測メカニズムが記載されている。ここでは、H.265が提供する多くのMV予測機構のうち、「空間マージ」と呼ばれる技術について説明する。
図2を参照すると、現在のブロック(201)は、空間的にシフトされた同じサイズの前のブロックから予測可能であるように動き探索処理中に符号化器によって見つけられたサンプルを含む。そのMVを直接符号化する代わりに、MVは、A0、A1、およびB0、B1、B2(それぞれ202から206)で示される5つの周囲サンプルのいずれか1つに関連付けられたMVを使用して、1つまたは複数の参照画像に関連付けられたメタデータから、例えば最新の(復号順序の)参照画像から導出することができる。H.265では、MV予測は、隣接ブロックが使用しているのと同じ参照画像からの予測子を使用することができる。
本開示の態様は、ビデオ符号化/復号のための方法および装置を提供する。いくつかの例では、ビデオ復号のための装置は処理回路を含む。処理回路は、符号化ビデオビットストリームから第1の構文要素を復号することができる。第1の構文要素は、符号化ビデオビットストリーム内の第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化されているかどうかを示すことができる。処理回路は、第1の構文要素に基づいて、彩度関連符号化ツールのための1つまたは複数の第2の構文要素を復号するかどうかを判定することができる。彩度関連符号化ツールは、(i)彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツール、および(ii)クロス成分適応ループフィルタ(CC-ALF)のうちの1つである。処理回路は、第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化され、第1の成分が彩度成分であることを示す第1の構文要素に基づいて、彩度関連符号化ツールのための1つまたは複数の第2の構文要素を復号することができる。彩度関連符号化ツールのための1つまたは複数の第2の構文要素は、符号化ビデオビットストリーム内の第2の成分に基づいて第1の成分が符号化されていないことを示す第1の構文要素に基づいて復号されない。
一実施形態では、第1の構文要素は、適応パラメータセット(APS)で信号伝達される。
一実施形態では、第1の構文要素は、第1の成分が第2の成分に基づいて符号化されているかどうかをシーケンスレベルで示す。
一実施形態では、第1の成分が第2の成分に基づいて符号化されることを示す第1の構文要素に基づいて、第2の成分は、符号化ビデオビットストリーム内の第2の彩度成分および輝度成分のうちの1つである。第1の成分が第2の成分に基づいて符号化されないことを示す第1の構文要素に基づいて、(i)第1の成分は符号化ビデオビットストリーム内の唯一の成分であるか、または(ii)符号化ビデオビットストリームは少なくとも第1の成分および第2の成分を含み、第1の成分は第2の成分に基づいて符号化されない。一例では、符号化ビデオビットストリームは、4:4:4の彩度フォーマットを有する第1の彩度成分、第2の彩度成分、および輝度成分を含む。第1の成分は、第1の彩度成分である。第2の成分は、第2の彩度成分または輝度成分である。第1の彩度成分、第2の彩度成分、および輝度成分は、互いに独立して符号化される。
一実施形態では、処理回路は、符号化ビデオビットストリーム内の第2の成分に基づいて第1の成分が符号化されていないことを示す第1の構文要素に基づいて彩度関連符号化ツールを無効にすることができる。
一実施形態では、彩度関連符号化ツールはLMCS符号化ツールである。LMCS符号化ツールのための1つまたは複数の第2の構文要素は、LMCS彩度残差スケーリング(CRS)のための変数の絶対値を示す第1のLMCSパラメータを含む。処理回路は、LMCS CRSの変数の絶対値が0より大きいことに基づいて、LMCS符号化ツールのための第2のLMCSパラメータを復号することができる。1つまたは複数の第2の構文要素は、LMCS CRSの変数の符号を示す第2のLMCSパラメータを含む。LMCS符号化ツールの第2のLMCSパラメータは、0より大きくないLMCS CRSの変数の絶対値に基づいて復号されない。
一実施形態では、彩度関連符号化ツールはCC-ALFである。CC-ALFのための1つまたは複数の第2の構文要素は、第1のCC-ALFフラグおよび第2のCC-ALFフラグを含む。第1のCC-ALFフラグは、第1のCC-ALFが符号化ビデオビットストリームで信号伝達されるかどうかを示す。第2のCC-ALFフラグは、第2のCC-ALFが符号化ビデオビットストリームで信号伝達されるかどうかを示す。処理回路は、第1のCC-ALFが信号伝達されていることを示す第1のCC-ALFフラグに基づいて、第1のCC-ALFの構文要素を復号することができる。CC-ALFのための1つまたは複数の第2の構文要素は、第1のCC-ALFのための構文要素を含む。第1のCC-ALFの構文要素は、第1のCC-ALFが信号伝達されていないことを示す第1のCC-ALFフラグに基づいて復号されていない。処理回路は、第2のCC-ALFが信号伝達されていることを示す第2のCC-ALFフラグに基づいて、第2のCC-ALFの構文要素を復号することができる。CC-ALFのための1つまたは複数の第2の構文要素は、第2のCC-ALFのための構文要素を含む。第2のCC-ALFの構文要素は、第2のCC-ALFが信号伝達されていないことを示す第2のCC-ALFフラグに基づいて復号されていない。
本開示の態様はまた、ビデオ復号のためにコンピュータによって実行されると、コンピュータにビデオ復号のための方法を実行させる命令を記憶する非一時的コンピュータ可読媒体を提供する。
開示された主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかになるであろう。
イントラ予測モードの例示的なサブセットの概略図である。 例示的なイントラ予測方向の図である。 一例における現在のブロックおよびその周囲の空間マージ候補の概略図である。 一実施形態による通信システム(300)の簡略ブロック図の概略図である。 一実施形態による通信システム(400)の簡略ブロック図の概略図である。 一実施形態による復号器の簡略ブロック図の概略図である。 一実施形態による符号化器の簡略ブロック図の概略図である。 別の実施形態による符号化器のブロック図である。 別の実施形態による復号器のブロック図である。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文を示す。 本開示の一実施形態による、例示的な画像パラメータセット(PPS)RBSP構文を示す。 本開示の一実施形態による、例示的な画像パラメータセット(PPS)RBSP構文を示す。 本開示の一実施形態による、例示的な画像パラメータセット(PPS)RBSP構文を示す。 本開示の一実施形態による、例示的な画像パラメータセット(PPS)RBSP構文を示す。 本開示の一実施形態による例示的な適応ループフィルタ(ALF)データ構文を示す。 本開示の一実施形態による例示的な適応ループフィルタ(ALF)データ構文を示す。 本開示の一実施形態による例示的なSPS RBSP構文を示す。 本開示の一実施形態による例示的なSPS RBSP構文を示す。 本開示の一実施形態による例示的なPPS RBSP構文を示す。 本開示の一実施形態による例示的なAPS RBSP構文を示す。 本開示の一実施形態による例示的な適応ループフィルタ(ALF)データ構文を示す。 本開示の一実施形態による処理(1700)の概要を示すフローチャートを示す。 本開示の一実施形態による処理(1800)の概要を示すフローチャートを示す。 本開示の一実施形態による処理(1900)の概要を示すフローチャートを示す。 本開示の一実施形態による、彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツールの例示的なアーキテクチャを示す図である。 本開示の一実施形態による例示的なLMCSデータ構文を示す。 本開示の一実施形態による例示的なALFデータ構文を示す。 本開示の一実施形態による例示的なALFデータ構文を示す。 本開示の一実施形態による処理(2300)の概要を示すフローチャートを示す。 一実施形態によるコンピュータシステムの概略図である。
図3は、本開示の一実施形態による通信システム(300)の簡略ブロック図を示す。通信システム(300)は、例えばネットワーク(350)を介して互いに通信可能な複数の端末機器を含む。例えば、通信システム(300)は、ネットワーク(350)を介して相互接続された端末機器(310)および(320)の第1の対を含む。図3の例では、端末機器(310)および(320)の第1の対は、データの一方向の送信を実行する。例えば、端末機器(310)は、ネットワーク(350)を介して他の端末機器(320)に送信するためにビデオデータ(例えば、端末機器(310)によって取り込まれたビデオ画像のストリーム)を符号化することができる。符号化ビデオデータは、1つまたは複数の符号化ビデオビットストリームの形態で送信することができる。端末機器(320)は、ネットワーク(350)から符号化ビデオデータを受信し、符号化ビデオデータを復号してビデオ画像を復元し、復元されたビデオデータに従ってビデオ画像を表示することができる。単方向データ伝送は、メディアサービングアプリケーションなどにおいて一般的であり得る。
別の例では、通信システム(300)は、例えばビデオ会議中に発生する可能性がある符号化ビデオデータの双方向送信を実行する端末機器(330)および(340)の第2の対を含む。データの双方向送信のために、一例では、端末機器(330)および(340)の各端末機器は、ネットワーク(350)を介して端末機器(330)および(340)の他方の端末機器に送信するためのビデオデータ(例えば、端末機器によって取り込まれたビデオ画像のストリーム)を符号化することができる。端末機器(330)および(340)の各端末機器はまた、端末機器(330)および(340)の他方の端末機器によって送信された符号化ビデオデータを受信することができ、符号化ビデオデータを復号してビデオ画像を復元することができ、復元されたビデオデータに従ってアクセス可能な表示装置にビデオ画像を表示することができる。
図3の例では、端末機器(310)、(320)、(330)、および(340)は、サーバ、パーソナルコンピュータ、およびスマートフォンとして示され得るが、本開示の原理はそのように限定されなくてもよい。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤおよび/または専用ビデオ会議機器に適用される。ネットワーク(350)は、例えば有線(有線)および/または無線通信ネットワークを含む、端末機器(310)、(320)、(330)および(340)の間で符号化ビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク(350)は、回路交換チャネルおよび/またはパケット交換チャネルでデータを交換することができる。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワークおよび/またはインターネットが含まれる。本説明の目的のために、ネットワーク(350)のアーキテクチャおよびトポロジは、本明細書で以下に説明されない限り、本開示の動作に重要ではない場合がある。
図4は、開示された主題の用途の一例として、ストリーミング環境におけるビデオ符号化器およびビデオ復号器の配置を示す。開示された主題は、例えば、ビデオ会議、デジタルTV、CD、DVD、メモリスティックなどを含むデジタル媒体への圧縮ビデオの格納などを含む、他のビデオ対応アプリケーションにも等しく適用可能であり得る。
ストリーミングシステムは、例えば非圧縮のビデオ画像ストリーム(402)を生成する、例えばデジタルカメラなどのビデオソース(401)を含むことができるキャプチャサブシステム(413)を含むことができる。一例では、ビデオ画像ストリーム(402)は、デジタルカメラによって撮影されたサンプルを含む。符号化ビデオデータ(404)(または符号化ビデオビットストリーム)と比較して高いデータ量を強調するために太線として示されているビデオ画像ストリーム(402)は、ビデオソース(401)に結合されたビデオ符号化器(403)を含む電子機器(420)によって処理することができる。ビデオ符号化器(403)は、以下でより詳細に説明するように、開示された主題の態様を可能にするかまたは実施するために、ハードウェア、ソフトウェア、またはそれらの組み合わせを含むことができる。ビデオ画像ストリーム(402)と比較してより低いデータ量を強調するために細い線として示されている符号化ビデオデータ(404)(または符号化ビデオビットストリーム(404))は、将来の使用のためにストリーミングサーバ(405)に格納することができる。図4のクライアントサブシステム(406)および(408)などの1つまたは複数のストリーミングクライアントサブシステムは、ストリーミングサーバ(405)にアクセスして、符号化ビデオデータ(404)のコピー(407)および(409)を取得することができる。クライアントサブシステム(406)は、例えば電子機器(430)内のビデオ復号器(410)を含むことができる。ビデオ復号器(410)は、符号化ビデオデータの入力コピー(407)を復号し、ディスプレイ(412)(例えば、表示スクリーン)または他のレンダリング装置(図示せず)上にレンダリングすることができるビデオ画像の出力ストリーム(411)を作成する。いくつかのストリーミングシステムでは、符号化ビデオデータ(404)、(407)、および(409)(例えば、ビデオビットストリーム)は、特定のビデオ符号化/圧縮規格に従って符号化することができる。例えば、ITU-T勧告H.265などが挙げられる。一例では、開発中のビデオ符号化規格は、多用途ビデオ符号化(Versatile Video Coding:VVC)として非公式に知られている。開示された主題は、VVCの文脈で使用され得る。
電子機器(420)および(430)は、他の構成要素(図示せず)を含み得ることに留意されたい。例えば、電子機器(420)はビデオ復号器(図示せず)を含むことができ、電子機器(430)はビデオ符号化器(図示せず)も含むことができる。
図5は、本開示の一実施形態によるビデオ復号器(510)のブロック図を示す。ビデオ復号器(510)は、電子機器(530)に含まれ得る。電子機器(530)は、受信機(531)(例えば、受信回路)を含むことができる。ビデオ復号器(510)は、図4の例のビデオ復号器(410)の代わりに使用することができる。
受信機(531)は、ビデオ復号器(510)によって復号されるべき、1または複数の符号化されたビデオシーケンスを受信し得る。同じまたは別の実施形態では、一度に1つの符号化ビデオシーケンスであり、各符号化ビデオシーケンスの復号は他の符号化ビデオシーケンスから独立している。符号化されたビデオシーケンスは、符号化ビデオデータを記憶する記憶装置へのハードウェア/ソフトウェアリンクであり得るチャネル(501)から受信され得る。受信機(531)は、エンティティ(図示せず)を使用してそれぞれに転送され得る他のデータ、例えば、符号化された音声データおよび/または補助データストリームを有する符号化ビデオデータを受信することができる。受信機(531)は、符号化されたビデオシーケンスを他のデータから分離することができる。ネットワークジッタに対抗するために、バッファメモリ(515)が、受信機(531)とエントロピー復号器/解析器(520)(以下、「解析器(520)」)との間に結合され得る。特定の用途では、バッファメモリ(515)は、ビデオ復号器(510)の一部である。他の場合には、ビデオ復号器(510)の外部にあってもよい(図示せず)。さらに他のものでは、例えばネットワークジッタに対抗するためにビデオ復号器(510)の外部にバッファメモリ(図示せず)があり、さらに例えば再生タイミングを処理するためにビデオ復号器(510)の内部に別のバッファメモリ(515)があり得る。受信機(531)が十分な帯域幅および制御可能性のストア/フォワード装置から、または非同期ネットワークからデータを受信しているとき、バッファメモリ(515)は必要とされなくてもよく、または小さくてもよい。インターネットなどのベストエフォートパケットネットワークで使用するために、バッファメモリ(515)が必要とされてもよく、比較的大きくてもよく、有利には適応サイズであってもよく、ビデオ復号器(510)の外部のオペレーティングシステムまたは同様の要素(図示せず)に少なくとも部分的に実装されてもよい。
ビデオ復号器(510)は、符号化されたビデオシーケンスからシンボル(521)を再構築するために、解析器(520)を含み得る。これらのシンボルのカテゴリは、ビデオ復号器(510)の動作を管理するために使用される情報、および潜在的に、図5に示されたように、電子機器(530)の不可欠な部分ではないが電子機器(530)に結合することができるレンダリング装置(512)(例えば、表示スクリーン)などのレンダリング装置を制御するための情報を含む。レンダリング装置の制御情報は、追加の拡張情報(SEIメッセージ)またはビデオ使用性情報(VUI)パラメータセット断片(図示せず)の形態であってもよい。解析器(520)は、受信された符号化されたビデオシーケンスを解析/エントロピー復号することができる。符号化されたビデオシーケンスの符号化は、ビデオ符号化技術または規格に従うことができ、可変長符号化、ハフマン符号化、コンテキスト感度ありまたはなしの算術符号化などを含む様々な原理に従うことができる。解析器(520)は、グループに対応する少なくとも1つのパラメータに基づいて、符号化されたビデオシーケンスから、ビデオ復号器内の画素のサブグループのうちの少なくとも1つのサブグループパラメータのセットを抽出することができる。サブグループは、画像群(GOP)、画像、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含むことができる。解析器(520)はまた、変換係数、量子化器パラメータ値、動きベクトルなどのような符号化されたビデオシーケンス情報を抽出することができる。
解析器(520)は、シンボル(521)を作成するために、バッファメモリ(515)から受信したビデオシーケンスに対してエントロピー復号/解析動作を実行することができる。
シンボル(521)の再構築は、符号化されたビデオ画像またはその一部(例えば、インター画像およびイントラ画像、インターブロックおよびイントラブロック)の形式、およびその他の要因に依存して、複数の異なるユニットを含み得る。どのユニットがどのように関与するかは、解析器(520)によって符号化ビデオシーケンスから解析されたサブグループ制御情報によって制御することができる。解析器(520)と以下の複数のユニットとの間のそのようなサブグループ制御情報のフローは、明確にするために示されていない。
既に述べた機能ブロックを超えて、ビデオ復号器(510)は、以下に説明するように概念的にいくつかの機能ユニットに細分化することができる。商業的制約の下で動作する実際の実装では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的に互いに統合することができる。しかしながら、開示された主題を説明する目的で、以下の機能ユニットへの概念的細分化が適切である。
第1のユニットはスケーラ/逆変換ユニット(551)である。スケーラ/逆変換ユニット(551)は、量子化変換係数、ならびにどの変換を使用するか、ブロックサイズ、量子化係数、量子化スケーリング行列などをシンボル(複数可)(521)として含む制御情報を、解析器(520)から受信する。スケーラ/逆変換ユニット(551)は、アグリゲータ(555)に入力され得るサンプル値を備えるブロックを出力し得る。
場合によっては、スケーラ/逆変換(551)の出力サンプルは、イントラ符号化されたブロックに関連し得る。すなわち、以前に再構築された画像からの予測情報を使用していないが、現在の画像の以前に再構築された部分からの予測情報を使用することができるブロックである。そのような予測情報は、イントラ画像予測ユニット(552)によって提供することができる。場合によっては、イントラ画像予測ユニット(552)は、現在の画像バッファ(558)から取り出された周囲の既に再構築された情報を用いて、再構築中のブロックと同じサイズおよび形状のブロックを生成する。現在の画像バッファ(558)は、例えば、部分的に再構築された現在の画像および/または完全に再構築された現在の画像をバッファリングする。アグリゲータ(555)は、場合によっては、イントラ予測ユニット(552)が生成した予測情報を、スケーラ/逆変換ユニット(551)からの出力サンプル情報に、サンプル単位で付加する。
他の場合には、スケーラ/逆変換ユニット(551)の出力サンプルは、インター符号化された、潜在的に動作補償されたブロックに関連し得る。そのような場合、動作補償予測ユニット(553)は、予測に使用されるサンプルをフェッチするために参照画像メモリ(557)にアクセスすることができる。ブロックに関連するシンボル(521)に従ってフェッチされたサンプルを動作補償した後、これらのサンプルは、出力サンプル情報を生成するために、アグリゲータ(555)によってスケーラ/逆変換ユニット(551)の出力(この場合、残差サンプルまたは残差信号と呼ばれる)に追加され得る。動作補償予測ユニット(553)が予測サンプルをフェッチする参照画像メモリ(557)内のアドレスは、動作補償予測ユニット(553)が例えばX、Y、および参照画像成分を有することができるシンボル(521)の形態で利用可能な動きベクトルによって制御することができる。動作補償はまた、サブサンプル正確動きベクトルが使用されているときに参照画像メモリ(557)からフェッチされたサンプル値の補間、動きベクトル予測機構などを含むことができる。
アグリゲータ(555)の出力サンプルは、ループフィルタユニット(556)における様々なループフィルタ処理技術を適用することができる。ビデオ圧縮技術には、符号化ビデオシーケンス(符号化ビデオビットストリームとも称される)に含まれるパラメータによって制御され、解析器(520)からのシンボル(521)としてループフィルタユニット(556)で利用できるループ内フィルタ技術を含めることができるが、符号化画像または符号化ビデオシーケンスの以前の(復号順で)部分の復号中に取得されたメタ情報に応答したり、以前に再構築およびループフィルタされたサンプル値に応答したりすることもできる。
ループフィルタユニット(556)の出力は、レンダリング装置(512)に出力することができるとともに、将来の画像間予測に使用するために参照画像メモリ(557)に格納されることができるサンプルストリームとすることができる。
完全に再構築されると、特定の符号化画像は、将来の予測のための参照画像として使用することができる。例えば、現在の画像に対応する符号化画像が完全に再構築され、符号化画像が(例えば、解析器(520)によって)参照画像として識別されると、現在の画像バッファ(558)は参照画像メモリ(557)の一部になることができ、新しい現在の画像バッファは、後続の符号化画像の再構築を開始する前に再配置され得る。
ビデオ復号器(510)は、例えばITU-T Rec.H.265のような規格における所定のビデオ圧縮技術に従って復号動作を実行し得る。符号化されたビデオシーケンスは、符号化されたビデオシーケンスがビデオ圧縮技術または規格の構文およびビデオ圧縮技術または規格に文書化されたプロファイルの両方に準拠するという意味で、使用されているビデオ圧縮技術または規格によって指定された構文に準拠することができる。具体的には、プロファイルは、ビデオ圧縮技術または規格で利用可能なすべてのツールから、そのプロファイルの下で使用可能な唯一のツールとして特定のツールを選択することができる。また、コンプライアンスのために必要なのは、符号化されたビデオシーケンスの複雑さがビデオ圧縮技術または規格のレベルによって定義される境界内にあることであり得る。場合によっては、レベルは、最大画像サイズ、最大フレームレート、最大再構築サンプルレート(例えば毎秒メガサンプルで測定される)、最大参照画像サイズなどを制限する。レベルによって設定される制限は、場合によっては、仮想基準復号器(HRD)仕様および符号化されたビデオシーケンスにおいて信号で通知されたHRDバッファ管理のためのメタデータによってさらに制限され得る。
一実施形態では、受信機(531)は、符号化されたビデオを有する追加の(冗長な)データを受信することができる。追加のデータは、符号化されたビデオシーケンスの一部として含まれ得る。データを適切に復号するために、および/または元のビデオデータをより正確に再構築するために、ビデオ復号器(510)によって追加のデータが使用され得る。追加のデータは、例えば、時間、空間、または信号雑音比(SNR)強化層、冗長スライス、冗長画像、前方誤り訂正符号などの形態であり得る。
図6は、本開示の一実施形態によるビデオ符号化器(603)のブロック図を示す。ビデオ符号化器(603)は、電子機器(620)に含まれる。電子機器(620)は、送信機(640)(例えば、送信回路)を含む。ビデオ符号化器(603)は、図4の例のビデオ符号化器(403)の代わりに使用することができる。
ビデオ符号化器(603)は、ビデオ符号化器(603)によって符号化されるビデオ画像を取り込むことができるビデオソース(601)(図6の例では電子機器(620)の一部ではない)からビデオサンプルを受信することができる。別の例では、ビデオソース(601)は電子機器(620)の一部である。
ビデオソース(601)は、ビデオ符号化器(603)によって符号化されるソースビデオシーケンスを、任意の適切なビット深度(例えば、8ビット、10ビット、12ビット、…)であり得、任意の色空間(例えば、BT.601 YCrCb、RGB、…)および適切なサンプリング構造(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)であり得るデジタルビデオサンプルストリームの形態で提供し得る。メディアサービングシステムにおいて、ビデオソース(601)は、予め用意された映像を記憶する記憶装置であってもよい。ビデオ会議システムでは、ビデオソース(601)は、ビデオシーケンスとしてローカル画像情報を取り込むカメラであってもよい。ビデオデータは、連続して見たときに動きを与える複数の個々の画像として提供されてもよい。画像自体は、画素の空間配列として編成することができ、各画素は、使用中のサンプリング構造、色空間などに応じて1つまたは複数のサンプルを含むことができる。当業者であれば、画素とサンプルとの関係を容易に理解することができる。以下、サンプルに着目して説明する。
一実施形態によれば、ビデオ符号化器(603)は、リアルタイムで、またはアプリケーションによって要求される任意の他の時間制約下で、ソースビデオシーケンスの画像を符号化して符号化ビデオシーケンス(643)に圧縮することができる。適切な符号化速度を強制することは、コントローラ(650)の一機能である。いくつかの実施形態では、コントローラ(650)は、以下に説明するように他の機能ユニットを制御し、他の機能ユニットに機能的に結合される。カップリングは、明確にするために示されていない。コントローラ(650)によって設定されるパラメータは、レート制御関連パラメータ(画像スキップ、量子化器、レート歪み最適化技術のラムダ値、...)、画像サイズ、画像群(GOP)レイアウト、最大動きベクトル探索範囲などを含むことができる。コントローラ(650)は、特定のシステム設計に最適化されたビデオ符号化器(603)に関する他の適切な機能を有するように構成することができる。
いくつかの実施形態では、ビデオ符号化器(603)は、符号化ループで動作するように構成される。過度に簡略化された説明として、一例では、符号化ループは、ソース符号化器(630)(例えば、符号化される入力画像と、参照画像とに基づいて、シンボルストリームのようなシンボルを生成することを担当する)と、ビデオ符号化器(603)に組み込まれた(ローカル)復号器(633)とを含むことができる。復号器(633)は、(リモート)復号器も作成するのと同様の方法でサンプルデータを作成するためにシンボルを再構築する(開示された主題で考慮されるビデオ圧縮技術では、シンボルと符号化ビデオビットストリームとの間の任意の圧縮が可逆的であるため)。再構築されたサンプルストリーム(サンプルデータ)は、参照画像メモリ(634)に入力される。シンボルストリームの復号は、復号器位置(ローカルまたはリモート)とは無関係にビット正確な結果をもたらすので、参照画像メモリ(634)内のコンテンツもローカル符号化器とリモート符号化器との間でビット正確である。言い換えると、符号化器の予測部は、復号中に予測を使用するときに復号器が「見る」のとまったく同じサンプル値を参照画像サンプルとして「見る」。参照画像同期性(例えばチャネル誤差のために同期性を維持することができない場合、結果として生じるドリフト)のこの基本原理は、いくつかの関連技術においても使用される。
「ローカル」復号器(633)の動作は、図5に関連して既に詳細に説明したビデオ復号器(510)などの「リモート」復号器の動作と同じであり得る。しかしながら、図5も簡単に参照すると、シンボルが利用可能であり、エントロピー符号化器(645)および解析器(520)による符号化されたビデオシーケンスへのシンボルの符号化/復号は可逆であり得るため、バッファメモリ(515)を含むビデオ復号器(510)のエントロピー復号器、および解析器(520)は、ローカル復号器(633)に完全に実装されない場合がある。
この時点でなされ得る観測は、復号器内に存在する構文解析/エントロピー復号を除く任意の復号器技術もまた、対応する符号化器内に実質的に同一の機能形態で存在する必要があるということである。このため、開示された主題は復号器動作に焦点を合わせている。符号化器技術の説明は、それらが包括的に説明された復号器技術の逆であるので省略することができる。特定の領域においてのみ、より詳細な説明が必要とされ、以下に提供される。
動作中、いくつかの例では、ソース符号化器(630)は、「参照画像」として指定されたビデオシーケンスからの1つまたは複数の以前に符号化画像を参照して入力画像を予測的に符号化する動作補償予測符号化を実行することができる。このようにして、符号化エンジン(632)は、入力画像の画素ブロックと、入力画像に対する予測参照として選択され得る参照画像の画素ブロックとの間の差分を符号化する。
ローカルビデオ復号器(633)は、ソース符号化器(630)によって生成されたシンボルに基づいて、参照画像として指定され得る画像の符号化ビデオデータを復号し得る。符号化エンジン(632)の動作は、有利には非可逆処理であり得る。符号化ビデオデータがビデオ復号器(図6には示されていない)で復号され得るとき、再構築されたビデオシーケンスは、通常、いくつかのエラーを有するソースビデオシーケンスのレプリカであり得る。ローカルビデオ復号器(633)は、ビデオ復号器によって参照画像に対して実行され得る復号処理を複製し、再構築された参照画像を参照画像キャッシュ(634)に格納させ得る。このようにして、ビデオ符号化器(603)は、遠端ビデオ復号器によって取得されることになる再構築された参照画像として共通のコンテンツを有する再構築された参照画像のコピーをローカルに格納することができる(伝送エラーなし)。
予測器(635)は、符号化エンジン(632)の予測検索を実行することができる。すなわち、符号化されるべき新しい画像について、予測器(635)は、(候補参照画素ブロックとしての)サンプルデータ、または、新しい画像の適切な予測参照として機能し得る参照画像の動きベクトル、ブロック形状などの特定のメタデータを求めて参照画像メモリ(634)を探索することができる。予測器(635)は、適切な予測参照を見つけるために、サンプルブロックごとに動作することができる。場合によっては、予測器(635)によって取得された検索結果によって判定されるように、入力画像は、参照画像メモリ(634)に格納された複数の参照画像から描画された予測参照を有することができる。
コントローラ(650)は、例えば、ビデオデータを符号化するために使用されるパラメータおよびサブグループパラメータの設定を含む、ソース符号化器(630)の符号化動作を管理することができる。
前述のすべての機能ユニットの出力は、エントロピー符号化器(645)においてエントロピー符号化を受けることができる。エントロピー符号化器(645)は、ハフマン符号化、可変長符号化、算術符号化などの技術に従ってシンボルを可逆圧縮することによって、様々な機能ユニットによって生成されたシンボルを符号化されたビデオシーケンスに変換する。
送信機(640)は、エントロピー符号化器(645)によって生成された符号化されたビデオシーケンスをバッファリングして、符号化ビデオデータを格納する記憶装置へのハードウェア/ソフトウェアリンクであり得る通信チャネル(660)を介した送信の準備をすることができる。送信機(640)は、ビデオ符号化器(603)からの符号化ビデオデータを、送信される他のデータ、例えば、符号化された音声データおよび/または補助データストリーム(ソースは図示せず)とマージすることができる。
コントローラ(650)は、ビデオ符号化器(603)の動作を管理することができる。符号化中、コントローラ(650)は、各符号化画像に特定の符号化画像形式を割り当てることができ、これは、それぞれの画像に適用され得る符号化技術に影響を及ぼし得る。例えば、画像は、以下の画像形式のうちの1つとして割り当てられることが多い。
なお、イントラ画像(I画像)は、シーケンス内の他の画像を予測元とせずに符号化・復号可能なものであってもよい。いくつかのビデオ符号化は、例えば、独立復号器リフレッシュ(「IDR」)画像を含む異なる形式のイントラ画像を可能にする。当業者は、I画像のこれらの変形ならびにそれらのそれぞれの用途および特徴を認識している。
予測画像(P画像)は、各ブロックのサンプル値を予測するために、最大で1つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して符号化および復号され得るものであり得る。
双方向予測画像(B画像)は、各ブロックのサンプル値を予測するために、最大で2つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して符号化および復号され得るものであり得る。同様に、複数の予測画像は、単一のブロックの再構築のために3つ以上の参照画像および関連するメタデータを使用することができる。
ソース画像は、一般に、複数のサンプルブロック(例えば、各々、4×4、8×8、4×8、または16×16のサンプルのブロック)に空間的に細分化され、ブロックごとに符号化され得る。ブロックは、ブロックのそれぞれの画像に適用される符号化割当によって判定されるように、他の(既に符号化された)ブロックを参照して予測的に符号化され得る。例えば、I個の画像のブロックは、非予測的に符号化されてもよいし、同じ画像の既に符号化されたブロックを参照して予測的に符号化されてもよい(空間予測またはイントラ予測)。P個の画像の画素ブロックは、以前に符号化された1つの参照画像を参照して、空間予測を介して、または時間予測を介して予測的に符号化され得る。B画像のブロックは、1つまたは2つの以前に符号化された参照画像を参照して、空間予測を介して、または時間予測を介して予測的に符号化され得る。
ビデオ符号化器(603)は、例えばITU-T Rec.H.265のような所定のビデオ符号化技術または規格に従って符号化動作を実行し得る。その動作において、ビデオ符号化器(603)は、入力ビデオシーケンス内の時間的および空間的冗長性を利用する予測符号化動作を含む、様々な圧縮動作を実行することができる。したがって、符号化ビデオデータは、使用されているビデオ符号化技術または規格によって指定された構文に準拠することができる。
一実施形態では、送信機(640)は、符号化されたビデオと共に追加のデータを送信することができる。ソース符号化器(630)は、符号化されたビデオシーケンスの一部としてそのようなデータを含むことができる。追加のデータは、時間/空間/SNR強化層、冗長画像およびスライスなどの他の形態の冗長データ、SEIメッセージ、VUIパラメータセット断片などを含むことができる。
映像は、複数のソース画像(ビデオ画像)として時系列に撮像されてもよい。画像内予測(しばしばイントラ予測と略される)は、所与の画像における空間相関を利用し、画像間予測は、画像間の(時間的または他の)相関を利用する。一例では、現在の画像と呼ばれる、符号化/復号中の特定の画像がブロックに分割される。現在の画像内のブロックがビデオ内の以前に符号化されてまだバッファされている参照画像内の参照ブロックに類似しているとき、現在の画像内のブロックは、動きベクトルと呼ばれるベクトルによって符号化することができる。動きベクトルは、参照画像内の参照ブロックを指し、複数の参照画像が使用されている場合、参照画像を識別する第3の次元を有することができる。
いくつかの実施形態では、画像間予測に双予測技術を使用することができる。双予測技術によれば、第1の参照画像および第2の参照画像などの2つの参照画像が使用され、これらは両方ともビデオ内の現在の画像の復号順より前にある(しかし、表示順序はそれぞれ過去および未来のものであってもよい)。現在の画像内のブロックは、第1の参照画像内の第1の参照ブロックを指す第1の動きベクトル、および第2の参照画像内の第2の参照ブロックを指す第2の動きベクトルによって符号化することができる。ブロックは、第1の参照ブロックと第2の参照ブロックとの組み合わせによって予測することができる。
さらに、符号化効率を改善するために、画像間予測にマージモード技術を使用することができる。
本開示のいくつかの実施形態によれば、画像間予測および画像内予測などの予測は、ブロック単位で実行される。例えば、HEVC規格によれば、ビデオ画像のシーケンス内の画像は、圧縮のために符号化ツリーユニット(CTU)に分割され、画像内のCTUは、64×64画素、32×32画素、または16×16画素などの同じサイズを有する。一般に、CTUは、1つの輝度CTBおよび2つの彩度CTBである3つの符号化ツリーブロック(CTB)を含む。各CTUは、1つまたは複数の符号化ユニット(CU)に再帰的に四分木分割することができる。例えば、64×64画素のCTUは、64×64画素の1つのCU、または32×32画素の4つのCU、または16×16画素の16個のCUに分割することができる。一例では、各CUは、インター予測形式またはイントラ予測形式などのCUの予測形式を判定するために分析される。CUは、時間的および/または空間的な予測可能性に応じて、1つまたは複数の予測ユニット(PU)に分割される。一般に、各PUは、輝度予測ブロック(PB)と、2つの彩度PBとを含む。一実施形態では、符号化(符号化/復号)における予測演算は、予測ブロックの単位で実行される。予測ブロックの例として輝度予測ブロックを使用すると、予測ブロックは、8×8画素、16×16画素、8×16画素、16×8画素などの画素の値の行列(例えば、輝度値)を含む。
図7は、本開示の別の実施形態によるビデオ符号化器(703)の図を示す。ビデオ符号化器(703)は、ビデオ画像のシーケンス内の現在のビデオ画像内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックを、符号化ビデオシーケンスの一部である符号化画像に符号化するように構成されている。一例では、ビデオ符号化器(703)は、図4の例のビデオ符号化器(403)の代わりに使用される。
HEVCの例では、ビデオ符号化器(703)は、例えば8×8サンプルの予測ブロックのような処理ブロックのためのサンプル値の行列を受信する。ビデオ符号化器(703)は、処理ブロックが、例えばレート歪み最適化を使用して、イントラモード、インターモード、または双予測モードを使用して最良に符号化されるかどうかを判定する。処理ブロックがイントラモードで符号化される場合、ビデオ符号化器(703)は、処理ブロックを符号化画像へ符号化するために、イントラ予測技術を使用し得る。処理ブロックがインターモードまたは双予測モードで符号化されるべきであるとき、ビデオ符号化器(703)は、処理ブロックを符号化画像に符号化するために、それぞれインター予測技術または双予測技術を使用することができる。特定のビデオ符号化技術では、マージモードは、予測子の外側の符号化された動きベクトル成分の恩恵を受けずに動きベクトルが1つまたは複数の動きベクトル予測子から導出されるインター画像予測サブモードであり得る。特定の他のビデオ符号化技術では、対象ブロックに適用可能な動きベクトル成分が存在し得る。一例では、ビデオ符号化器(703)は、処理ブロックのモードを判定するためのモード判定モジュール(図示せず)などの他の構成要素を含む。
図7の例では、ビデオ符号化器(703)は、図7に示すように互いに結合されたインター符号化器(730)、イントラ符号化器(722)、残差算出部(723)、スイッチ(726)、残差符号化器(724)、汎用コントローラ(721)、およびエントロピー符号化器(725)を含む。
インター符号化器(730)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、そのブロックを参照画像(例えば、前の画像および後の画像内のブロック)内の1つまたは複数の参照ブロックと比較し、インター予測情報(例えば、インター符号化技術、動きベクトル、マージモード情報による冗長情報の記述)を生成し、任意の適切な技術を使用してインター予測情報に基づいてインター予測結果(例えば、予測ブロック)を計算するように構成される。いくつかの例では、参照画像は、符号化されたビデオ情報に基づいて復号される復号参照画像である。
イントラ符号化器(722)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、場合によっては、ブロックを同じ画像内で既に符号化されているブロックと比較し、変換後に量子化係数を生成し、場合によってはイントラ予測情報(例えば、1つまたは複数のイントラ符号化技術によるイントラ予測方向情報)も生成するように構成される。一例では、イントラ符号化器(722)はまた、イントラ予測情報と、同一画像内の参照ブロックとに基づいて、イントラ予測結果(例えば、予測ブロック)を算出する。
汎用コントローラ(721)は、汎用制御データを判定し、汎用制御データに基づいてビデオ符号化器(703)の他の構成要素を制御するように構成されている。一例では、汎用コントローラ(721)は、ブロックのモードを判定し、モードに基づいてスイッチ(726)に制御信号を提供する。例えば、汎用コントローラ(721)は、モードがイントラモードである場合、残差算出部(723)が用いるイントラモード結果を選択するようにスイッチ(726)を制御し、イントラ予測情報を選択してビットストリームに含めるようにエントロピー符号化器(725)を制御する。汎用コントローラ(721)は、モードがインターモードである場合、残差算出部(723)で用いるインター予測結果を選択するようにスイッチ(726)を制御するとともに、インター予測情報を選択してビットストリームに含めるようにエントロピー符号化器(725)を制御する。
残差算出部(723)は、受信されたブロックと、イントラ符号化器(722)またはインター符号化器(730)から選択された予測結果との差分(残差データ)を算出するように構成される。残差符号化器(724)は、変換係数を生成するために残差データを符号化するために残差データに基づいて動作するように構成される。一例では、残差符号化器(724)は、残差データを空間領域から周波数領域に変換し、変換係数を生成するように構成される。変換係数はその後、量子化された変換係数を得るために量子化処理を受ける。様々な実施形態において、ビデオ符号化器(703)はまた、残差復号器(728)を含む。残差復号器(728)は、逆変換を実行し、復号された残差データを生成するように構成される。復号された残差データは、イントラ符号化器(722)およびインター符号化器(730)において好適に用いることができる。例えば、インター符号化器(730)は、復号残差データとインター予測情報とに基づいて復号ブロックを生成し、イントラ符号化器(722)は、復号残差データとイントラ予測情報とに基づいて復号ブロックを生成することができる。いくつかの例では、復号ブロックは、復号画像を生成するために適切に処理され、復号画像は、メモリ回路(図示せず)にバッファされ、参照画像として使用され得る。
エントロピー符号化器(725)は、符号化ブロックを含むようにビットストリームをフォーマットするように構成される。エントロピー符号化器(725)は、HEVC規格などの適切な規格に従って様々な情報を含むように構成される。一例では、エントロピー符号化器(725)は、一般制御データ、選択された予測情報(例えば、イントラ予測情報またはインター予測情報)、残差情報、および他の適切な情報をビットストリームに含めるように構成される。開示された主題によれば、インターモードまたは双予測モードのいずれかのマージサブモードでブロックを符号化するとき、残差情報は存在しないことに留意されたい。
図8は、本開示の別の実施形態によるビデオ復号器(810)の図を示す。ビデオ復号器(810)は、符号化されたビデオシーケンスの一部である符号化画像を受信し、符号化画像を復号して再構築された画像を生成するように構成される。一例では、ビデオ復号器(810)は、図4の例のビデオ復号器(410)の代わりに使用される。
図8の例では、ビデオ復号器(810)は、図8に示すように互いに結合されたエントロピー復号器(871)、インター復号器(880)、残差復号器(873)、再構築モジュール(874)、およびイントラ復号器(872)を含む。
エントロピー復号器(871)は、符号化画像から、符号化画像が構成される構文要素を表す特定のシンボルを再構築するように構成され得る。そのようなシンボルは、例えば、ブロックが符号化されるモード(例えば、イントラモード、インターモード、双予測モード、後者の2つはマージサブモードまたは別のサブモードである)、イントラ復号器(872)またはインター復号器(880)によってそれぞれ予測に使用される特定のサンプルまたはメタデータを識別することができる予測情報(例えば、イントラ予測情報やインター予測情報等)、例えば量子化変換係数の形態の残差情報などを含むことができる。一例では、予測モードがインター予測モードまたは双予測モードである場合、インター予測情報はインター復号器(880)に提供される。予測形式がイントラ予測形式である場合、イントラ予測情報がイントラ復号器(872)に提供される。残差情報は逆量子化を受けることができ、残差復号器(873)に提供される。
インター復号器(880)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成される。
イントラ復号器(872)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成される。
残差復号器(873)は、逆量子化を実行して逆量子化された変換係数を抽出し、逆量子化された変換係数を処理して残差を周波数領域から空間領域に変換するように構成される。残差復号器(873)はまた、(量子化器パラメータ(QP)を含むために)特定の制御情報を必要とする場合があり、その情報はエントロピー復号器(871)によって提供される場合がある(これとして示されていないデータ経路は、低ボリューム制御情報のみであり得る)。
再構築モジュール(874)は、空間領域において、残差復号器(873)による出力としての残差と(場合によってはインターまたはイントラ予測モジュールによる出力としての)予測結果とを組み合わせて、再構築画像の一部であり得る再構築ブロックを形成するように構成され、再構築ブロックは再構築ビデオの一部であり得る。視覚的品質を改善するために、デブロッキング操作などの他の適切な操作を実行することができることに留意されたい。
ビデオ符号化器(403)、(603)、および(703)、ならびにビデオ復号器(410)、(510)、および(810)は、任意の適切な技術を使用して実装することができることに留意されたい。一実施形態では、ビデオ符号化器(403)、(603)、および(703)、ならびにビデオ復号器(410)、(510)、および(810)は、1つまたは複数の集積回路を使用して実装することができる。別の実施形態では、ビデオ符号化器(403)、(603)、および(603)、ならびにビデオ復号器(410)、(510)、および(810)は、ソフトウェア命令を実行する1つまたは複数のプロセッサを使用して実装することができる。
例えば、ビデオビットストリームによって表されるビデオソースは、符号化順序(例えば、符号化順序、復号順序)の画像のシーケンスとすることができる。ビデオソース(例えば、符号化画像、画像のシーケンス)は、(1)輝度(Y)のみ(単色)成分(または単色成分)、(2)輝度成分および2つの彩度成分(例えば、YCbCrまたはYCgCo)、(3)緑色成分、青色成分、および赤色成分(RGBとしても知られるGBR)、ならびに(4)他の不特定の単色または三刺激カラーサンプリング(例えば、XYZとしても知られるYZX)を表すアレイなどの1つまたは複数のサンプルアレイ(成分または平面とも呼ばれる)を含むことができる。
上述したように、ビデオソースは、輝度成分および2つの彩度成分(例えば、YCbCrまたはYCgCo)、3つの色成分(例えば、RGB)などの複数の成分を含むことができる。ビデオソースの成分は、輝度成分(例えば、Y)または彩度成分(例えば、Cb、Cr、R、G、またはB)を指すことができる。
ビデオソース(例えば、ビデオシーケンス)が複数の成分を含む場合、複数の成分は一緒に符号化することができ、例えば、複数の成分のうちの1つ(例えば、第1の彩度成分)の符号化は、複数の成分のうちの別の(例えば、第2の彩度成分または輝度成分)に基づくか、または依存することができる。例えば、彩度成分が複数の成分のうちの1つと一緒に、またはそれらに基づいて符号化される場合、彩度成分はビデオソース(例えば、彩度成分は、一緒に符号化された複数の成分内に存在する)に存在する。
あるいは、ビデオソース(例えば、ビデオシーケンス)が複数の成分を含む場合、複数の成分は独立して符号化することができる。例えば、複数の成分のうちの1つ(例えば、第1の彩度成分)の符号化は、複数の成分のうちの別の1つ(例えば、第2の彩度成分または輝度成分)に基づかないか、または依存しない。したがって、複数の成分のうちの1つ(例えば、第1の彩度成分)の符号化は、複数の成分のうちの別の1つ(例えば、第2の彩度成分または輝度成分)から独立している。複数の成分は、別々に符号化された複数の成分と呼ぶことができる。一例では、別々に符号化された複数の成分は、別々に符号化された複数の色平面または色成分と呼ばれる。
一例では、ビデオソースが単色成分のみを含む場合、彩度成分は存在しない。あるいは、ビデオソース内の複数の成分が独立してまたは別々に符号化される場合、彩度成分は存在しない。一例では、ビデオソース内の複数の成分が独立して符号化される場合、複数の成分の各々は、単色成分(例えば、輝度成分)として扱うことができ、したがって、彩度成分(例えば、複数の成分のうちの1つに基づいて符号化される彩度成分)はビデオソース内に存在しない。ビデオソース内の複数の成分が独立して符号化される場合、複数の成分の各々を単色成分として扱うことができるため、様々な彩度関連符号化ツールは必要とされない。
いくつかの例では、符号化される映像シーケンスは複数の色平面を含み、複数の色平面の異なる組み合わせが一緒に符号化されてもよい。一例では、色平面は、輝度成分または彩度成分を指す。いくつかの用途では、ビデオは単色であるか、ビデオの色平面は独立して符号化されるため、特定のジョイント色平面符号化ツールは適用できない。単色平面が符号化されるべきであるか、または色平面が独立して符号化されるべきであるアプリケーションをサポートするために、本開示の態様は、必要に応じてジョイント色平面符号化ツールのうちの1つまたは複数を無効にするために、例えば、多用途ビデオ符号化(VCC)を超える構文およびセマンティクスを提供することができる。
彩度フォーマットインデックス(例えば、chroma_format_idc)は、例えば、彩度ブロックと対応する輝度ブロックとの間の彩度サブサンプリングフォーマット(または彩度フォーマット)を示すことができる。一例では、彩度フォーマットインデックス(例えば、chroma_format_idc)が0である場合、彩度フォーマットは、名目上輝度アレイであると考えられる、ただ1つのサンプルアレイを有する単色サンプリングに対応する「モノクロ」とすることができる。彩度フォーマットインデックスが1である場合、彩度フォーマットは、4:2:0(例えば、2つの彩度アレイの各々は、対応する輝度アレイの半分の高さおよび半分の幅を有する)とすることができる。彩度フォーマットインデックスが2である場合、彩度フォーマットは、4:2:2(例えば、2つの彩度アレイの各々は、輝度アレイの同じ高さおよび半分の幅を有する)とすることができる。彩度フォーマットインデックスが3である場合、彩度フォーマットは、別個の色平面フラグ(例えば、separate_color_plane_flag)の値に応じて、4:4:4とすることができる。例えば、別個の色平面フラグが0に等しい場合、彩度フォーマットは4:4:4(例えば、2つの彩度アレイの各々は、輝度アレイと同じ高さおよび幅を有する)である。そうでなければ、別個の色平面フラグは1に等しく、3つの色平面は、3つの単色サンプリングされた画像として別々に処理され得る。
VVCなどのいくつかの例では、(i)単色ビデオを符号化すること、および/または(ii)4:4:4彩度フォーマットビデオの3つの色成分を別々に符号化することがサポートされる。(i)単色ビデオの符号化および/または(ii)4:4:4彩度フォーマットビデオの3つの色成分の符号化を別々にサポートするために、変数(または彩度アレイタイプ)(例えば、ChromaArrayType)を、例えば、関連する符号化ツールを有効または無効にするためにVVCにおいて定義することができる。関連する符号化ツールは、入力ビデオが単色であるかどうか、および/または入力ビデオの色成分が別々に独立して符号化される必要があるかどうかに基づいて適用可能または適用不可能であり得る。一例では、入力ビデオが単色である場合、および/または入力ビデオの色成分を別々に独立して符号化する必要がある場合、関連する符号化ツールは適用できず、したがって無効になる。そうでなければ、関連する符号化ツールを適用可能であり、したがって有効にすることができる。
VVCなどの例では、彩度アレイタイプ(例えば、ChromaArrayType)の値は、別個の色平面フラグ(例えば、separate_color_plane_flag)の値に基づいて割り当てられる。一例では、別個の色平面フラグ(例えば、separate_color_plane_flag)は、個別に符号化された色平面が使用されるかどうかを示す。別個の色平面フラグ(例えば、separate_color_plane_flag)が0に等しく、別個に符号化された色平面が使用されないことを示す場合、彩度アレイタイプ(例えば、ChromaArrayType)は、彩度フォーマット(彩度サブサンプリングフォーマットとも呼ばれ、例えば、chroma_format_idcによって指定される)に等しくなるように設定される。そうではなく、別個に符号化された色平面が使用されることを示す別個の色平面フラグ(例えば、separate_color_plane_flag)が1に等しい場合、彩度アレイタイプ(例えば、ChromaArrayType)は0に設定される。
彩度アレイタイプ(例えば、ChromaArrayType)が0である場合、入力ビデオは、単色とすることができるか、または別々に符号化された色平面を有する4:4:4の彩度フォーマット(または4:4:4の彩度フォーマット)を有することができる。いくつかの例では、単色ビデオおよび/またはビデオの各色成分があたかも各成分が単色であるかのように符号化されるビデオに適用できない特定の符号化ツールを無効にすることが望ましい。VCCなどのいくつかの例では、彩度アレイタイプ(例えば、ChromaArrayType)が0である場合、特定の符号化ツールのうちの1つまたは複数を無効にすることができない。例えば、特定の符号化ツールは、彩度残差のジョイント符号化およびPPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)をそれぞれ示すことができるジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)によって有効にされる符号化ツールを含む。PPSジョイントオフセット存在フラグは、PPSジョイントCbCr QPオフセット値およびジョイントCbCr QPオフセットリストがPPS RBSP構文構造に存在するかどうかを示すことができる。
本開示の態様は、いくつかの符号化ツールを無効にする実施形態/方法を提供し、例えば、入力ビデオが単色である場合、入力ビデオは別々に符号化される複数の成分を有する(例えば、複数の成分のうちの1つの符号化は、複数の成分のうちの他の成分から独立している)。一例では、入力ビデオは、別々に符号化された色平面を有する彩度フォーマット4:4:4を有する。
図9A~図9Gは、例えばVVCからの例示的なシーケンスパラメータセット(SPS)生バイトシーケンスペイロード(RBSP)構文の表を示す。
図10A~図10Dは、例えばVVCからの例示的な画像パラメータセット(PPS)RBSP構文の表を示す。
図11A~図11Bは、例えばVVCからの例示的な適応ループフィルタ(ALF)データ構文の表を示す。
図12は、例示的なSPS RBSP構文を示す。
図9A~図9Gおよび図12に示される表を参照すると、ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)は、彩度残差のジョイント符号化を示すことができる。ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)が0に等しいことは、彩度残差のジョイント符号化が無効にされることを指定することができる。ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)が1であることは、彩度残差のジョイント符号化が有効であることを指定することができる。ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)が存在しない場合、ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)は、0などのデフォルト値であると推測することができる。
図9Dのボックス(910)を参照すると、彩度アレイタイプ(例えば、ChromaArrayType)の値に関係なく、ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)を信号伝達することができる。図12のボックス(1201)~(1202)を参照すると、ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)を信号伝達することは、彩度アレイタイプ(例えば、ChromaArrayType)に依存する。彩度アレイタイプ(例えば、ChromaArrayType)が0に等しい場合、ジョイント符号化フラグ(例えば、sps_joint_cbcr_enabled_flag)は、例えば、図12に示されるSPSでは解析されず、0であると推測することができる。これにより、彩度残差符号化としての彩度残差(例えば、ジョイントCbおよびCr残差符号化)のジョイント符号化が無効化され、不要な復号処理が回避される。
いくつかの例では、彩度成分がビデオビットストリームに存在しない場合、彩度関連構文要素を復号しないように、PPS、適応パラメータセット(APS)などで彩度存在フラグが信号伝達される。彩度存在フラグは、PPSではPPS彩度存在フラグ(例えば、pps_chromat_present_flag)として、APSではAPS彩度存在フラグ(例えば、aps_chromat_present_flag)として、および/または同様のものとして信号伝達され、ビデオシーケンスなどのビデオビットストリーム内に彩度成分が存在するか否かを示すことができる。一例では、彩度成分が別の成分(例えば、輝度成分、別の彩度成分)と一緒に符号化される場合、彩度成分が存在する。
PPS彩度存在フラグ(例えば、pps_chromat_present_flag)は、彩度成分が存在するか否かを特定することができる。PPS彩度存在フラグ(例えば、pps_chromat_present_flag)が1に等しいとき、彩度成分が存在し、彩度関連構文がPPS内に存在することができる。PPS彩度存在フラグ(例えば、pps_chromat_present_flag)が0に等しいことは、彩度成分が存在しないことを指定することができる。ビットストリーム適合性の要件は、彩度アレイタイプ(例えば、ChromaArrayType)が0に等しいとき、PPS彩度存在フラグ(例えば、pps_chromat_present_flag)が0に等しいことであり得る。
APS彩度存在フラグ(例えば、aps_chroma_present_flag)は、彩度成分が存在するか否かを指定することができる。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が1に等しいとき、彩度成分が存在し、したがって、1つまたは複数の彩度関連構文がAPSに存在し得る。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいことは、彩度成分が存在せず、彩度関連構文が存在しないことを指定することができる。ビットストリーム適合性の要件は、彩度アレイタイプ(例えば、ChromaArrayType)が0に等しいとき、APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいことであり得る。
彩度アレイタイプ(例えば、ChromaArrayType)および関連する構文要素の信号伝達に矛盾がないことを保証するために、図9A~図9GのSPS RBSP構文、図10A~図10DのPPS RBSP構文、および図11A~図11BのALFデータ構文は、図13~図16に示すように修正することができる。変更は、削除されたテキストを示す取り消し線付きのボックスおよびテキストを使用して強調表示される。
図9E~図9Fのボックス(911)~(912)を参照すると、3に等しい彩度フォーマット(例えば、chroma_format_idc)は、別個の色平面フラグ(例えば、separate_color_plane_flag)が0または1である4:4:4の彩度フォーマットを参照することができる。したがって、彩度オンリー符号化ツールおよび/または彩度成分を使用する符号化ツールを示すSPSブロックベースのデルタパルス符号変調(BDPCM)彩度対応フラグ(例えば、sps_bdpcm_chroma_enabled_flagである)、SPSパレット対応フラグ(例えば、sps_palette_enabled_flag)、およびSPS適応色変換(ACT)対応フラグ(例えば、sps_act_enabled_flag)は、別個の色平面フラグ(例えば、separate_color_plane_flag)の値に関係なく信号伝達される。図9E~図9Fのボックス(911)~(912)および図13のボックス(1301)~(1302)をそれぞれ比較すると、図13の彩度アレイタイプ(例えば、ChromaArrayType)は、図9E~図9Fに示される表の彩度フォーマット(例えば、chroma_format_idc)を置き換えることができ、したがって、図13の構文「ChromaArrayType==3」は、図9E~図9Fに示される表の構文「chroma_format_idc==3」を置き換えることができる。上述したように、彩度アレイタイプ(例えば、ChromaArrayType)が3であることは、彩度フォーマットが4:4:4であり、別個の色平面フラグ(例えば、separate_color_plane_flag)が0であることを示すことができる。したがって、SPS BDPCM彩度有効フラグ(例えば、sps_bdpcm_chroma_enabled_flag)、SPSパレット有効フラグ(例えば、sps_palette_enabled_flag)、およびSPS ACT有効フラグ(例えば、sps_act_enabled_flag)は、彩度アレイタイプ(例えば、ChromaArrayType)の値が3(例えば、彩度成分が存在し、彩度フォーマットが4:4:4であるとき)である場合にのみ信号伝達することができる。一例では、彩度成分が存在しない場合、彩度アレイタイプ(例えば、ChromaArrayType)は0であり、したがって、SPS BDPCM彩度有効フラグ(例えば、sps_bdpcm_chroma_enabled_flag)、SPSパレット有効フラグ(例えば、sps_palette_enabled_flag)、およびSPS ACT有効フラグ(例えば、sps_act_enabled_flag)は信号伝達されない。したがって、彩度符号化ツールに関連するフラグは、彩度成分が存在しない場合に信号伝達されず、したがって、信号伝達オーバーヘッドを低減することができ、符号化効率を改善することができる。
PPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)は、彩度QP(例えば、Qp’CbおよびQp’Cr)を導出するために使用される輝度QP(例えば、Qp’Y)に対するオフセットをそれぞれ指定することができる。PPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)の値は、-12~+12の範囲内とすることができる。彩度アレイタイプ(例えば、ChromaArrayType)が0に等しい場合、PPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)は復号処理で使用されず、復号器はPPS QPオフセットの値を無視することができる。
1に等しいPPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)は、PPSジョイントCbCr QPオフセット値(例えば、pps_joint_cbcr_qp_offset_value)およびジョイントCbCr QPオフセットリスト(例えば、joint_cbcr_qp_offset_list[i])がPPS RBSP構文構造に存在することを指定することができる。PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)が0に等しいことは、PPSジョイントCbCr QPオフセット値(例えば、pps_joint_cbcr_qp_offset_value)およびジョイントCbCr QPオフセットリスト(例えば、joint_cbcr_qp_offset_list[i])がPPS RBSP構文構造に存在しないことを指定することができる。PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)が存在しない場合、PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)は0に等しいと推測することができる。
1に等しいPPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)は、スライスCb QPオフセット(例えば、slice_cb_qp_offset)構文要素およびスライスCr QPオフセット(例えば、slice_cr_qp_offset)構文要素が関連するスライスヘッダに存在することを示すことができる。0に等しいPPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)は、スライスCb QPオフセット(例えば、slice_cb_qp_offset)構文要素およびスライスCr QPオフセット(例えば、slice_cr_qp_offset)構文要素が関連するスライスヘッダに存在しないことを示すことができる。PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)が存在しない場合、PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)は0に等しいと推測することができる。
1に等しいPPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)は、PPSを参照する画像ヘッダ内にイントラスライス(例えば、pic_cu_chroma_qp_offset_subdiv_intra_slice)構文要素およびインタースライス(例えば、pic_cu_chroma_qp_offset_subdiv_inter_slice)構文要素が存在し、変換ユニット構文およびパレット符号化構文内にCUフラグ(例えば、cu_chroma_qp_offset_flag)が存在し得ることを指定することができる。PPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)が0に等しいことは、PPSを参照する画像ヘッダ内にイントラスライス(例えば、pic_cu_chroma_qp_offset_subdiv_intra_slice)構文要素およびインタースライス(例えば、pic_cu_chroma_qp_offset_subdiv_inter_slice)構文要素が存在せず、変換ユニット構文およびパレット符号化構文内にCUフラグ(例えば、cu_chroma_qp_offset_flag)が存在しないことを指定することができる。PPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)が存在しない場合、PPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)は0に等しいと推測することができる。
図10Cのボックス(1001)~(1002)を参照すると、図10A~図10Dに示すように、それぞれの彩度成分(例えば、Cb成分およびCr成分)のPPS量子化パラメータ(QP)オフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)、PPSジョイント存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)、PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)、および/またはPPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)などの、彩度関連情報を示す特定のPPS構文は、PPS RSRP構文、例えば、彩度成分が存在するか否かで信号伝達することができる。図14を参照すると、PPS彩度存在フラグ(例えば、pps_chromat_present_flag)が、彩度成分が存在することを示す1であるとき、PPS関連情報を示すPPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)、PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)、PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)、および/またはPPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)などのPPS構文を、PPS RSRP構文で信号伝達することができる。そうでない場合、PPS彩度存在フラグ(例えば、pps_chromat_present_flag)が、彩度成分が存在しないことを示す0であるとき、PPS構文は信号伝達されない。これにより、符号化効率を向上させることができる。
彩度アレイタイプ(例えば、ChromaArrayType)が0であるとき、ビデオソースは単一の成分(例えば、単色成分)を有することができ、またはビデオソースは複数の成分を有する彩度フォーマット4:4:4を有することができ、複数の成分は別々にまたは独立して符号化される。したがって、例えば別の成分に基づいて符号化された彩度成分は存在しない。したがって、彩度アレイタイプ(例えば、ChromaArrayType)が0であるとき、ビデオ成分は、あたかもビデオ成分が単色であるかのように符号化することができ、または別々に符号化された色平面を有する彩度フォーマット4:4:4を有する。
図17は、本開示の一実施形態による処理(1700)の概要を示すフローチャートを示す。例えば、彩度成分が存在しないことを示すPPS彩度存在フラグ(例えば、pps_chroma_present_flag)が0であるとき、彩度QP関連構文解析を無効にして、不要な復号処理を回避することができる。PPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)、PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)、PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)、および/またはPPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)を含む構文要素は、0であると推測することができ、したがって、復号器側のQP導出処理では適用されない。
一例では、処理(1700)は、(S1701)から開始し、(S1710)に進む。
(S1710)において、PPS彩度存在フラグが1であるかどうかを判定することができる。PPS彩度存在フラグが1ではないと判定された場合、処理(1700)は(S1720)に進む。一方、PPS彩度存在フラグが1であると判定された場合には、処理(1700)は、(S1730)に進む。
(S1720)において、彩度QP関連構文要素、例えば、PPS QPオフセット(例えば、pps_cb_qp_offsetおよびpps_cr_qp_offset)、PPSジョイントオフセット存在フラグ(例えば、pps_joint_cbcr_qp_offset_present_flag)、PPSスライスフラグ(例えば、pps_slice_chroma_qp_offset_present_flag)、およびPPS CUフラグ(例えば、pps_cu_chroma_qp_offset_list_enabled_flag)などのうちの1つは、0であると推論することができる。処理(1700)は、(S1740)に移行する。
(S1740)において、0である彩度QP関連構文要素は適用されない。処理(1700)は、(S1799)に進み、終了する。
(S1730)において、彩度QP関連構文要素を復号することができる。処理(1700)は、(S1750)に移行する。
(S1750)において、彩度QP関連構文要素が0でないかどうかを判定することができる。彩度QP関連構文要素が0であると判定された場合、処理(1700)は、(S1740)に進む。一方、彩度QP関連構文要素が0でないと判定された場合、処理(1700)は、(S1760)に進む。
(S1760)において、0ではない彩度QP関連構文要素を適用することができる。処理(1700)は、(S1799)に進み、終了する。
ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が1に等しいことは、ALF彩度フィルタが信号伝達されることを指定することができる。ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が0に等しいことは、ALF彩度フィルタが信号伝達されないことを指定することができる。ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が存在しないとき、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)は0に等しいと推測することができる。
図11Aのボックス(1101)は、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)がALFデータ構文で信号伝達されることを示す。図11Bのボックス(1102)は、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が1であるとき、対応するALF彩度フィルタのALF彩度フィルタ情報を解析することができることを示す。図15のボックス(1501)を参照すると、ALF彩度存在フラグ(例えば、alf_chroma_present_flag)は、APSで信号伝達され、彩度成分が存在するかどうかを示すことができる。図16のボックス(1601)を参照すると、ALF彩度存在フラグ(例えば、alf_chroma_present_flag)が、彩度成分が存在することを示す1であるとき、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が信号伝達される。さらに、ボックス(1602)を参照すると、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)が1であるとき、対応するALF彩度フィルタのALF彩度フィルタ情報を解析することができる。あるいは、ALF彩度存在フラグ(例えば、alf_chroma_present_flag)が、彩度成分が存在しないことを示す0であるとき、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)は、信号伝達されない。その後、対応するALF彩度フィルタのALF彩度フィルタ情報は解析されず、したがって、信号伝達オーバーヘッドが低減され、符号化効率が改善される。
図18は、本開示の実施形態による処理(1800)を概説するフローチャートを示す。例えば、APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0である場合には、不要な復号処理を回避するために、彩度フィルタとしてのALF彩度フィルタを無効にすることができる。したがって、ALF彩度フィルタ信号フラグ(例えば、alf_chroma_filter_signal_flag)は0であると推測することができる。
一例では、処理(1800)は、(S1801)から開始して(S1810)に進む。
(S1810)において、APS彩度存在フラグが1であるかどうかを判定することができる。APS彩度存在フラグが1ではなく、彩度成分が存在しないと判定された場合、処理(1800)は、(S1820)に進む。一方、APS彩度存在フラグが1であると判定された場合には、処理(1800)は、(S1830)に進む。
(S1820)において、ALF彩度フィルタ信号フラグは0であると推測することができる。処理(1800)は、(S1840)に移行する。
(S1840)において、ALF彩度フィルタは、彩度成分が存在しないので、彩度成分に適用されない。処理(1800)は、(S1899)に進み、終了する。
(S1830)において、ALF彩度フィルタ信号フラグを復号することができる。処理(1800)は、(S1850)に移行する。
(S1850)において、ALF彩度フィルタ信号フラグが1であるかどうかを判定することができる。ALF彩度フィルタ信号フラグが1ではないと判定された場合(例えば、0である)、処理(1800)は、(S1840)に進む。一方、ALF彩度フィルタ信号フラグが1であると判定された場合、処理(1800)は、(S1860)に進む。
(S1860)において、ALF彩度フィルタは、存在する彩度成分に適用することができる。処理(1800)は、(S1899)に進み、終了する。
図19は、本開示の一実施形態による処理(1900)の概要を示すフローチャートを示す。VVCなどのいくつかの例では、特定の符号化ツール(例えば、彩度、パレットモード符号化、およびACTのためのBDPCM)は、彩度フォーマットが4:4:4であり、別個の色平面がない場合にのみ適用される。特定の符号化ツールに関連する構文要素は、彩度フォーマットが別個の色平面(例えば、彩度成分は輝度成分として符号化される)を有する4:4:4である場合には解析されない。したがって、彩度アレイタイプ(例えば、ChromaArrayType)が3に等しいときのみ、構文要素を解析して不要な復号処理を回避することができる。
一例では、処理(1900)は、(S1901)から開始して(S1910)に進む。
(S1910)において、彩度アレイタイプが3であるかどうかを判定することができる。彩度アレイタイプが3であることは、別個のコード平面なしで4:4:4の彩度フォーマットを示すことができる。彩度アレイタイプが、別個のコードプレーンを持たない4:4:4の彩度フォーマットではないと判定された場合、処理(1900)は、(S1920)に進む。一方、彩度アレイタイプが、別個のコードプレーンを持たない4:4:4の彩度フォーマットであると判定された場合、処理(1900)は、(S1930)に進む。
(S1920)において、別個の色平面なしの4:4:4の彩度フォーマットに関連する、SPS BDPCM彩度無効フラグ(例えば、sps_bdpcm_chroma_enabled_flag)、SPSパレット無効フラグ(例えば、sps_palette_enabled_flag)、またはSPS ACT無効フラグ(例えば、sps_act_enabled_flag)などの構文要素は、0であると推測することができる。処理(1900)は、(S1940)に移行する。
(S1940)において、別個の色平面のない4:4:4の彩度フォーマットに関連する符号化ツール(例えば、BDPCM、パレット符号化、またはACT)は適用されない。処理(1900)は、(S1999)に進み、終了する。
(S1930)において、別個の色平面を伴わない4:4:4の彩度フォーマットに関連する構文要素が復号され得る。処理(1900)は、(S1950)に移行する。
(S1950)において、構文要素が1であるかどうかを判定することができる。構文要素が1でないと判定された場合(例えば、0に等しい)、処理(1900)は(S1940)に進む。一方、構文要素が1であると判定された場合、処理(1900)は(S1960)に進む。
(S1960)において、別個の色平面を有さない4:4:4の彩度フォーマットに関連する符号化ツールが適用されることができる。処理(1900)は、(S1999)に進み、終了する。
別々に符号化された色平面を有する単色または4:4:4などのビデオビットストリーム内に彩度成分が存在しない場合、SPS、PPS、APS、画像ヘッダなどの高レベル構文内の彩度関連構文要素を復号しないことが望ましい。
彩度アレイタイプ(例えば、ChromaArrayType)と関連する構文要素との間の信号伝達に矛盾がないことを保証するために、本開示の実施形態および/または方法は、SPS RBSP構文、PPS RBSP構文、および/またはALFデータ構文を修正することができる。
図20は、本開示の一実施形態による、彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツールの例示的なアーキテクチャ(例えば、復号器側の)を示す。VVCなどの例では、LMCS符号化ツールは、ループフィルタの前に新しい処理ブロックとして追加される。LMCS符号化ツールは、1)適応区分的線形モデルに基づく輝度成分のインループマッピング、2)彩度成分に適用される輝度依存彩度残差スケーリング(CRS)、の2つの成分を含むことができる。複数のブロック(例えば、ブロック(2011)、(2012)、および(2015))は、処理がマッピングされた領域のどこに適用されるかを示すことができ、逆量子化および逆変換ブロック(2011)、輝度イントラ予測ブロック(2015)、および輝度残差Yresと共に輝度予測Y’predを加算することができる再構築ブロック(2012)を含むことができる。輝度予測Y’predは、輝度信号Ypredの輝度イントラ予測ブロック(2015)または順方向マッピングブロック(2018)からのものとすることができる。輝度信号Ypredは、復号画像バッファ(DPB)(2014)からの入力を有することができる動き補償予測ブロック(2016)によって生成することができる。DPB(2014)は、復号画像を格納することができるバッファとすることができる。
複数のブロック(例えば、ブロック(2002)、(2003)、(2005)、(2006))は、処理が非マッピング領域で適用される場所を示すことができ、デブロッキング、ALF、およびSAOなどのループフィルタ(2003)、動き補償予測ブロック(2006)、彩度イントラ予測ブロック(2005)、彩度残差Cresと共に彩度予測Cpredを追加することができる再構築ブロック(2002)、およびDPB(2004)における参照画像としての復号画像の記憶を含むことができる。LMCS機能ブロックは、輝度信号Ypredの順方向マッピングブロック(2018)、輝度信号の逆方向マッピングブロック(2017)、および輝度依存彩度スケーリング処理ブロック(2001)を含むことができる。逆量子化および逆変換ブロック(2011)は、彩度残差スケーリングパラメータ(例えば、Cresscale)を輝度依存彩度スケーリング処理ブロック(2001)に提供することができる。輝度依存彩度スケーリング処理ブロック(2001)は、彩度残差スケーリングパラメータ(例えば、Cresscale)およびパラメータ(例えば、cScaleInv)に基づいて彩度残差を生成することができる。パラメータ(例えば、cScaleInv)は、再構築ブロック(2012)によって判定され得る(例えば、現在の仮想パイプラインデータユニット(VPDU)の上位および/または左の隣接者などの再構築された輝度隣接者に基づいて)。逆方向マッピングブロック(2017)の出力は、ループフィルタ(2013)によってフィルタリングすることができ、次いでDPB(2014)に格納することができる。LMCS符号化ツールは、SPSフラグを使用してシーケンスレベルで有効および/または無効にすることができる。
本開示の態様によれば、第1の構文要素は、符号化ビデオビットストリームから復号され得る。第1の構文要素は、符号化ビデオビットストリーム内の第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化されているかどうかを示すことができる。彩度関連符号化ツールのために1つまたは複数の第2の構文要素を復号するかどうかは、第1の構文要素に基づいて判定することができる。彩度関連符号化ツールは、彩度成分(複数可)のみに使用される符号化ツールまたは彩度成分(複数可)を使用する符号化ツールとすることができる。いくつかの例では、彩度関連符号化ツールは、(i)LMCS符号化ツールおよび(ii)クロス成分適応ループフィルタ(CC-ALF)のうちの1つである。
彩度関連符号化ツールのための1つまたは複数の第2の構文要素は、符号化ビデオビットストリーム内の第2の成分に基づいて第1の成分が符号化され、第1の成分が彩度成分であることを示す第1の構文要素に基づいて復号することができる。彩度関連符号化ツールのための1つまたは複数の第2の構文要素は、第1の成分が符号化ビデオビットストリーム内で独立して符号化されていることを示す第1の構文要素に基づいて復号されず、例えば、第1の成分は符号化ビデオビットストリーム内の第2の成分に基づいて符号化されない。
第1の構文要素は、APSで信号伝達することができる。第1の構文要素は、APS彩度存在フラグ(例えば、aps_chroma_present_flag)とすることができる。第1の構文要素は、第1の成分が第2の成分に基づいて符号化されるかどうかをシーケンスレベルで示すことができる。
第1の構文要素は、彩度成分が符号化ビデオビットストリーム内に存在するかどうかを示すことができる。
第1の構文要素が、第1の成分が第2の成分に基づいて符号化されることを示す場合、第2の成分は、符号化ビデオビットストリーム内の第2の彩度成分および輝度成分のうちの1つであり得る。したがって、彩度成分(例えば、第1の彩度成分)は、符号化ビデオビットストリーム内に存在する。
第1の構文要素が、第1の成分が独立して符号化されることを示す場合、例えば、第1の成分は、第2の成分に基づいて符号化されない、(i)第1の成分は、符号化ビデオシーケンス内の唯一の成分である、または(ii)符号化ビデオビットストリームは、少なくとも第1の成分および第2の成分を含み、第1の成分は、第2の成分から独立して符号化される。したがって、彩度成分は、符号化ビデオビットストリーム内に存在しないと判定される。例えば、符号化ビデオビットストリームは、独立して符号化された第1の成分および第2の成分を少なくとも含む。第1の成分が彩度成分である場合、第1の成分は、彩度関連符号化ツールを使用する必要なく、単色成分または輝度成分として処理することができる。したがって、符号化ビデオビットストリーム内の別の成分に基づいて符号化されるべき彩度成分は存在しない。
一例では、符号化ビデオビットストリームは、4:4:4の彩度フォーマットを有する第1の彩度成分、第2の彩度成分、および輝度成分を含む。第1の成分は、第1の彩度成分である。第2の成分は、第2の彩度成分または輝度成分である。第1の彩度成分、第2の彩度成分、および輝度成分は、互いに独立して符号化される。
彩度関連符号化ツールは、第1の成分が符号化ビデオビットストリーム内で独立して符号化されること、例えば、第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化されないことを示す第1の構文要素に基づいて無効にすることができる。
一実施形態では、彩度関連符号化ツールはLMCS符号化ツールである。第1の構文要素は、第1の彩度成分が第2の成分に基づいて符号化されることを示すことができる。LMCS符号化ツールのための1つまたは複数の第2の構文要素は、LMCS彩度残差スケーリング(CRS)のための変数(例えば、lmcsDeltaCrs)の絶対値を示す第1のLMCSパラメータを含むことができる。LMCS符号化ツールのための第2のLMCSパラメータは、LMCS CRSのための変数の絶対値が0より大きいときに復号されることが可能である。第2のLMCSパラメータは、LMCS CRSの変数の符号を示すことができる。1つまたは複数の第2の構文要素は、第2のLMCSパラメータを含むことができる。LMCS符号化ツールのための第2のLMCSパラメータは、LMCS CRSのための変数の絶対値が0以下である場合には復号されない。
LMCSは、残差スケーリングツールであり、輝度成分および1つまたは複数の彩度成分に適用することができる。ビデオビットストリームに彩度成分が存在しない場合、LMCS符号化ツールのための彩度関連構文要素(例えば、第1のLMCSパラメータ、第2のLMCSパラメータ)は、例えば、APSにおいて必要とされない。
第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)は、LMCS CRSの変数(例えば、lmcsDeltaCrs)の絶対コードワード値を指定することができる。第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)が存在しない場合、第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)は0に等しいと推測することができる。
第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)は、変数(例えば、lmcsDeltaCrs)の符号を指定することができる。第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)が存在しない場合、第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)は0に等しいと推測することができる。
本開示の態様によれば、LMCS符号化ツールのための彩度関連構文要素(例えば、第1のLMCSパラメータ、第2のLMCSパラメータ)は、信号伝達されない場合があり得る。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が1に等しいとき、彩度成分が存在し(例えば、彩度成分は、符号化ビデオビットストリーム内の別の成分に基づいて符号化されるべきである)、したがって、LMCS符号化ツールのための彩度関連構文をビデオビットストリームにおいて信号伝達することができる。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいとき、彩度成分は存在せず、LMCS符号化ツールのための彩度関連構文はビデオビットストリームにおいて信号伝達されない。したがって、彩度関連構文は、復号器によって解析または復号されない。したがって、LMCS符号化ツールのための彩度関連構文要素が必要とされず、符号化効率を改善することができるとき、LMCS符号化ツールのための彩度関連構文要素を信号伝達しないことによって信号伝達オーバーヘッドを低減することができる。
図21は、本開示の一実施形態による例示的なLMCSデータ構文を示す。ボックス(2101)を参照すると、LMCS符号化ツールのための彩度関連構文が信号伝達されるかどうかは、APS彩度存在フラグ(例えば、aps_chroma_present_flag)に基づいて判定することができる。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が1であるとき、彩度成分が存在する。一例では、第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)などのLMCS符号化ツール用の1つの彩度関連構文要素がビデオビットストリームで信号伝達される。LMCS符号化ツールについて他の彩度関連構文要素を信号伝達するかどうかは、第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)に基づいて判定することができる。一例では、第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)が0より大きい場合、LMCS符号化ツールのための彩度関連構文要素である第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)が信号伝達される。そうでない場合、第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)は信号伝達されない。
ボックス(2101)を参照すると、APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいとき、彩度成分は存在しない。第1のLMCSパラメータ(例えば、lmcs_delta_abs_crs)および第2のLMCSパラメータ(例えば、lmcs_delta_sign_crs_flag)などのLMCS符号化ツールのための彩度関連構文要素は、ビデオビットストリーム内で信号伝達されない。
一実施形態では、彩度関連符号化ツールはCC-ALFである。第1の構文要素は、第1の彩度成分が第2の成分に基づいて符号化されることを示す。CC-ALFのための1つまたは複数の第2の構文要素は、第1のCC-ALFフラグおよび第2のCC-ALFフラグを含むことができる。第1のCC-ALFフラグは、第1のCC-ALFが符号化ビデオビットストリームで信号伝達されるかどうかを示すことができ、第2のCC-ALFフラグは、第2のCC-ALFが符号化ビデオビットストリームで信号伝達されるかどうかを示すことができる。第1のCC-ALFの構文要素は、第1のCC-ALFが信号伝達されていることを示す第1のCC-ALFフラグに基づいて復号することができる。CC-ALFのための1つまたは複数の第2の構文要素は、第1のCC-ALFのための構文要素を含むことができる。第1のCC-ALFフラグが、第1のCC-ALFが信号伝達されていないことを示す場合、第1のCC-ALFの構文要素は復号されない。
第2のCC-ALFの構文要素は、第2のCC-ALFが信号伝達されていることを示す第2のCC-ALFフラグに基づいて復号することができる。CC-ALFのための1つまたは複数の第2の構文要素は、第2のCC-ALFのための構文要素を含むことができる。第2のCC-ALFフラグが、第2のCC-ALFが信号伝達されていないことを示す場合、第2のCC-ALFの構文要素は復号されない。
CC-ALFは、彩度成分に適用されるALFである。CC-ALFのための彩度関連構文要素は、第1のCC-ALFが符号化ビデオビットストリームにおいて信号伝達されるかどうかを示す第1のCC-ALFフラグ(例えば、alf_cross_component_cb_filter_signal_flag)、第2のCC-ALFが符号化ビデオビットストリームにおいて信号伝達されるかどうかを示す第2のCC-ALFフラグ(例えば、alf_cross_component_cr_filter_signal_flag)、第1のCC-ALFのための構文要素、第2のCC-ALFのための構文要素などを含むことができる。
第1のCC-ALFフラグ(例えば、alf_cross_component_cb_filter_signal_flag)が1に等しいことは、第1のCC-ALF(例えば、クロス成分Cbフィルタ)が信号伝達されることを指定することができる。第1のCC-ALFフラグ(例えば、alf_cross_component_cb_filter_signal_flag)が0に等しいことは、第1のCC-ALF(例えば、交差成分Cbフィルタ)が信号伝達されていないことを指定することができる。第1のCC-ALFフラグ(例えば、alf_cross_component_cb_filter_signal_flag)が存在しない場合、第1のCC-ALFフラグ(例えば、alf_cross_component_cb_filter_signal_flag)は0であると推測することができる。
第2のCC-ALFフラグ(例えば、alf_cross_component_cr_filter_signal_flag)が1に等しいことは、第2のCC-ALF(例えば、クロス成分Crフィルタ)が信号伝達されることを指定することができる。第2のCC-ALFフラグ(例えば、alf_cross_component_cr_filter_signal_flag)が0に等しいことは、第2のCC-ALF(例えば、クロス成分Crフィルタ)が信号伝達されていないことを指定することができる。第2のCC-ALFフラグ(例えば、alf_cross_component_cr_filter_signal_flag)が存在しない場合、第2のCC-ALFフラグ(例えば、alf_cross_component_cr_filter_signal_flag)は0であると推測することができる。
ビデオビットストリーム内に存在しない彩度成分は、ビデオビットストリーム内の各成分が単色成分または輝度成分として独立して符号化されていることを示すことができる。したがって、CC-ALFは成分に必要とされず、したがって、CC-ALFのための彩度関連構文要素は、例えばAPSにおいて必要とされない。したがって、CC-ALFの彩度関連構文要素は信号伝達されない場合がある。
APS彩度存在フラグ(例えば、aps_chroma_present_flag)が1に等しいとき、彩度成分が存在し、CC-ALFのための彩度関連構文要素の1つまたは複数(例えば、第1のCC-ALFフラグ、第2のCC-ALFフラグ)をビデオビットストリームで信号伝達することができる。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいとき、彩度成分は存在せず、したがって、彩度関連構文要素はビデオビットストリームにおいて信号伝達されない。したがって、CC-ALFのための彩度関連構文要素が必要とされない場合、彩度関連構文要素を信号伝達しないことによって信号伝達オーバーヘッドを削減することができ、符号化効率を改善することができる。
図22A~図22Bは、本開示の一実施形態による例示的なALFデータ構文を示す。ボックス(2201)を参照すると、CC-ALF用の彩度関連構文要素のうちの1つまたは複数がビデオビットストリーム内で信号伝達されるかどうかは、APS彩度存在フラグ(例えば、aps_chroma_present_flag)に基づいて判定することができる。APS彩度存在フラグ(例えば、aps_chroma_present_flag)が1に等しいとき、彩度成分が存在し、CC-ALFのための彩度関連構文要素の1つまたは複数(例えば、第1のCC-ALFフラグ、第2のCC-ALFフラグ)をビデオビットストリームで信号伝達することができる。
CC-ALF用の彩度関連構文要素の追加の構文要素が信号伝達されるかどうかは、CC-ALF用の彩度関連構文要素の1つまたは複数(例えば、第1のCC-ALFフラグ、第2のCC-ALFフラグ)に基づいて判定することができる。ボックス(2202)を参照すると、第1のCC-ALFフラグが1である場合、第1のCC-ALFの構文要素はビデオビットストリーム内で信号伝達することができ、したがって復号器によって解析または復号することができる。ボックス(2203)を参照すると、第2のCC-ALFフラグが1である場合、第2のCC-ALFの構文要素はビデオビットストリーム内で信号伝達することができ、したがって復号器によって解析または復号することができる。
ボックス(2201)~(2203)に戻って参照すると、APS彩度存在フラグ(例えば、aps_chroma_present_flag)が0に等しいとき、彩度成分は存在せず、したがって、CC-ALFの彩度関連構文要素は、ビデオビットストリームにおいて信号伝達されない。
図23は、本開示の一実施形態による処理(2300)の概要を示すフローチャートを示す。処理(2300)は、様々な彩度フォーマットおよび彩度関連符号化ツール(例えば、LMCS符号化ツール、CC-ALF)をサポートするために、彩度存在フラグ(例えば、APS彩度存在フラグ、PPS彩度存在フラグ)を信号伝達する際に使用することができる。様々な実施形態では、処理(2300)は、端末機器(310)、(320)、(330)および(340)の処理回路、ビデオ符号化器(403)の機能を実行する処理回路、ビデオ復号器(410)の機能を実行する処理回路、ビデオ復号器(510)の機能を実行する処理回路、ビデオ符号化器(603)の機能を実行する処理回路などの処理回路によって実行される。いくつかの実施形態では、処理(2300)はソフトウェア命令で実施され、したがって、処理回路がソフトウェア命令を実行すると、処理回路は処理(2300)を実行する。(S2301)から処理が開始され、(S2310)に進む。
(S2310)において、符号化ビデオビットストリームから第1の構文要素を復号することができる。第1の構文要素は、符号化ビデオビットストリーム内の第1の成分が符号化ビデオビットストリーム内の第2の成分に基づいて符号化されているかどうかを示すことができる。
(S2320)において、彩度関連符号化ツールのために1つまたは複数の第2の構文要素を復号するかどうかを、第1の構文要素に基づいて判定することができる。彩度関連符号化ツールは、(i)彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツール、および(ii)クロス成分適応ループフィルタ(CC-ALF)のうちの1つであり得る。第1の構文要素が、符号化ビデオビットストリームにおいて第1の成分が第2の成分に基づいて符号化されていることを示している場合、処理(2300)は(S2330)に進む。そうではなく、第1の構文要素が、第1の成分が符号化ビデオビットストリームにおいて独立して符号化され、例えば、第1の成分が符号化ビデオビットストリームにおいて第2の成分に基づいて符号化されないことを示す場合、処理(2300)は、彩度関連符号化ツールのための1つまたは複数の第2の構文要素を復号することなく(S2399)に進む。
(S2330)において、彩度関連符号化ツールのための1つまたは複数の第2の構文要素を復号することができる。第1の成分は、第1の彩度成分とすることができる。第1の彩度成分は、符号化ビデオビットストリーム内に存在する。処理(2300)は、(S2399)に進み、終了する。
彩度関連符号化ツールのための1つまたは複数の第2の構文要素の復号は、存在する彩度が符号化ビデオビットストリーム内に存在しない場合にはスキップすることができる。彩度関連符号化ツールは必要とされず、したがって、彩度関連符号化ツールのための彩度関連構文要素は、符号化ビデオビットストリームにおいて信号伝達されず、復号器側で復号されず、信号伝達オーバーヘッドが低減され、符号化効率が改善される。
処理(2300)は、適切に適合させることができる。処理(2300)のステップは、修正および/または省略することができる。追加のステップを追加することができる。任意の適切な実施順序を使用することができる。例えば、最大数のマージ候補が条件を満たさない場合、画像レベルパラメータは復号されない。
本開示の実施形態は、別々に使用されてもよく、任意の順序で組み合わされてもよい。さらに、方法(または実施形態)、符号器、および復号器の各々は、処理回路(例えば、1つまたは複数のプロセッサまたは1つまたは複数の集積回路)によって実施されてもよい。一例では、1つまたは複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。
上述した技術は、コンピュータ可読命令を使用し、1つまたは複数のコンピュータ可読媒体に物理的に記憶されたコンピュータソフトウェアとして実装することができる。例えば、図24は、開示された主題の特定の実施形態を実装するのに適したコンピュータシステム(2400)を示している。
コンピュータソフトウェアは、任意の適切な機械符号またはコンピュータ言語を使用して符号化でき、アセンブリ、コンパイル、リンク、または同様のメカニズムの対象となり、1つまたは複数のコンピュータ中央処理装置(CPU)、グラフィック処理装置(GPU)などによる直接、または解釈、マイクロ符号の実行などを通じて実行できる命令を含む符号を作成する。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーム装置、モノのインターネット装置などを含む様々な種類のコンピュータまたはその構成要素上で実行することができる。
コンピュータシステム(2400)について図24に示される構成要素は、本質的に例示であり、本開示の実施形態を実装するコンピュータソフトウェアの使用または機能の範囲に関していかなる制限を示唆することを意図しない。また、構成要素の構成は、コンピュータシステム(2400)の例示的な実施形態に示されている構成要素のいずれか1つまたは組み合わせに関する依存性または要件を有するものとして解釈されるべきではない。
コンピュータシステム(2400)は、特定のヒューマンインターフェース入力装置を含み得る。そのようなヒューマンインターフェース入力装置は、例えば、触覚入力(キーストローク、スワイプ、データグローブの動きなど)、音声入力(声、拍手など)、視覚入力(ジェスチャなど)、嗅覚入力(図示せず)など、1人以上のユーザによる入力に応答し得る。ヒューマンインターフェース装置を使用して、音声(スピーチ、音楽、環境音など)、画像(走査した画像、静止画像カメラから得られる写真画像など)、ビデオ(2次元ビデオ、立体ビデオを含む3次元ビデオなど)など、人間による意識的な入力に必ずしも直接関係しない特定の媒体をキャプチャすることもできる。
入力ヒューマンインターフェース装置には、キーボード(2401)、マウス(2402)、トラックパッド(2403)、タッチスクリーン(2410)、データグローブ(図示せず)、ジョイスティック(2405)、マイク(2406)、スキャナ(2407)、カメラ(2408)のうち1つまたはそれ以上(それぞれ図示のものの1つのみ)が含まれ得る。
コンピュータシステム(2400)はまた、特定のヒューマンインターフェース出力装置を含み得る。そのようなヒューマンインターフェース出力装置は、例えば、触覚出力、音、光、および嗅覚/味覚を通じて、1人または複数の人間のユーザの感覚を刺激している可能性がある。そのようなヒューマンインターフェース出力装置は、触覚出力装置(例えば、タッチスクリーン(2410)、データグローブ(図示せず)、またはジョイスティック(2405)による触覚フィードバックを含み得るが、入力装置として機能しない触覚フィードバック装置もあり得る)、音声出力装置(スピーカ(2409)、ヘッドホン(図示せず)など)、視覚的出力装置(それぞれにタッチスクリーン入力機能の有無にかかわらず、それぞれ触覚フィードバック機能の有無にかかわらず、ステレオグラフィック出力、仮想現実の眼鏡(図示せず)、ホログラフィックディスプレイおよびスモークタンク(図示せず)などの手段により、2次元の視覚的出力または3次元より大きい出力を出力できるものもある、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(2410)など)、およびプリンタ(図示せず)を含み得る。
コンピュータシステム(2400)には、人間がアクセスできる記憶装置と、CD/DVDを含むCD/DVD ROM/RW(2420)などの光学メディア(2421)、サムドライブ(2422)、リムーバブルハードドライブまたはソリッドステートドライブ(2423)、テープおよびフロッピーディスク(図示せず)などのレガシー磁気媒体、セキュリティドングル(図示せず)などの専用のROM/ASIC/PLDベースの装置などの関連媒体も含めることができる。
当業者はまた、ここで開示される主題に関連して使用される「コンピュータ可読媒体」という用語は、送信媒体、搬送波、または他の一時的な信号を包含しないことを理解するべきである。
コンピュータシステム(2400)はまた、1つまたは複数の通信ネットワーク(2455)へのインターフェース(2454)を含むことができる。ネットワークは、例えば、無線、有線、光であり得る。ネットワークはさらに、ローカル、広域、メトロポリタン、車両および産業、リアルタイム、遅延耐性などであり得る。ネットワークの例としては、イーサネット、無線LAN、GSM、3G、4G、5G、LTEなどを含むセルラーネットワークなどのローカルエリアネットワーク、ケーブルテレビ、衛星テレビ、地上波放送テレビを含むTV有線または無線広域デジタルネットワーク、CANBusなどが含まれる車両用、産業用など、がある。特定のネットワークでは、一般に、特定の汎用データポートまたは周辺バス(2449)(例えば、コンピュータシステム(2400)のUSBポートなど)に接続された外部ネットワークインターフェースアダプタが必要であり、他のものは一般に、以下に説明するようにシステムバスに接続することにより、コンピュータシステム(2400)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェースまたはスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(2400)は他のエンティティと通信できる。このような通信は、単方向、受信のみ(例えば、放送TV)、単方向送信のみ(例えば、CANbusから特定のCANbus装置)、または双方向、例えば、ローカルエリアデジタルネットワークまたはワイドエリアデジタルネットワークを使用する他のコンピュータシステムへの通信であり得る。特定のプロトコルおよびプロトコルスタックは、上述したように、それらのネットワークおよびネットワークインターフェースのそれぞれで使用することができる。
前述のヒューマンインターフェース装置、ヒューマンアクセス可能な記憶装置、およびネットワークインターフェースは、コンピュータシステム(2400)のコア(2440)に接続することができる。
コア(2440)は、1つまたは複数の中央処理装置(CPU)(2441)、グラフィック処理装置(GPU)(2442)、フィールドプログラマブルゲートエリア(FPGA)(2443)の形態の専用プログラマブル処理装置、特定のタスク用のハードウェアアクセラレータ(2444)、グラフィックスアダプタ(2450)などを含むことができる。これらの装置は、読み取り専用メモリ(ROM)(2445)、ランダムアクセスメモリ(2446)、ユーザがアクセスできない内部ハードドライブ、SSDなどの内部大容量記憶装置(2447)と共に、システムバス(2448)を介して接続され得る。いくつかのコンピュータシステムでは、システムバス(2448)に1つまたはそれ以上の物理プラグの形でアクセスして、追加のCPU、GPUなどによる拡張を可能にすることができる。周辺機器は、コアのシステムバス(2448)に直接、または周辺バス(2449)を介して接続できる。一例では、スクリーン(2410)は、グラフィックアダプタ(2450)に接続することができる。周辺バスのアーキテクチャには、PCI、USBなどが含まれる。
CPU(2441)、GPU(2442)、FPGA(2443)、およびアクセラレータ(2444)は、組み合わせて前述のコンピュータコードを構成できる特定の命令を実行できる。そのコンピュータコードは、ROM(2445)またはRAM(2446)に格納できる。移行データはRAM(2446)にも保存できるが、永続データは、例えば内部大容量記憶装置(2447)に保存できる。1つまたはそれ以上のCPU(2441)、GPU(2442)、大容量記憶装置(2447)、ROM(2445)、RAM(2446)などと密接に関連付けることができるキャッシュメモリを使用することにより、任意のメモリ装置に対する高速記憶および読み出しが可能になる。
コンピュータ可読媒体は、様々なコンピュータ実装動作を実行するためのコンピュータコードを有することができる。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものであってもよく、またはコンピュータソフトウェア技術の当業者に周知で利用可能な種類のものであってもよい。
限定ではなく例として、アーキテクチャ(2400)、特にコア(2440)を有するコンピュータシステムは、1つまたはそれ以上の有形のコンピュータ可読媒体に組み込まれたソフトウェアを実行するプロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)の結果として機能を提供できる。このようなコンピュータ可読媒体は、上で紹介したユーザがアクセス可能な大容量記憶装置、およびコア内部大容量記憶装置(2447)やROM(2445)などの非一時的な性質を持つコア(2440)の特定の記憶装置に関連付けられた媒体であり得る。本開示の様々な実施形態を実装するソフトウェアは、そのような装置に格納され、コア(2440)によって実行され得る。コンピュータ可読媒体は、特定のニーズに従って、1つまたはそれ以上のメモリ装置またはチップを含み得る。ソフトウェアは、コア(2440)、特にその中のプロセッサ(CPU、GPU、FPGAなどを含む)に、RAM(2446)に格納されているデータ構造を定義すること、およびソフトウェアで定義された処理に従ってそのようなデータ構造を変更することを含む、ここで説明する特定の処理または特定の処理の特定の部分を実行させることができる。加えて、または代替として、コンピュータシステムは、ここで説明する特定の処理または特定の処理の特定の部分を実行するためにソフトウェアの代わりに、またはソフトウェアと一緒に動作できる、回路(例:アクセラレータ(2444))に組み込まれたまたは他の方法で実装されたロジックの結果として機能を提供できる。ソフトウェアへの参照はロジックを含むことができ、その逆も適宜可能である。コンピュータ可読媒体への言及は、必要に応じて、実行のためのソフトウェアを記憶する回路(集積回路(IC)など)、実行のための論理を具現化する回路、またはその両方を包含することができる。本開示は、ハードウェアとソフトウェアとの任意の適切な組み合わせを包含する。
付録A:頭字語
JEM:joint exploration model 共同探索モデル
VVC:versatile video coding 汎用ビデオ符号化
BMS:benchmark set ベンチマークセット
MV:Motion Vector 動きベクトル
HEVC:High Efficiency Video Coding 高効率ビデオ符号化
SEI:Supplementary Enhancement Information 追加の拡張情報
VUI:Video Usability Information ビデオユーザビリティ情報
GOP:Groups of Pictures 写真群
TU:Transform Units 変換ユニット
PU:Prediction Units 予測ユニット
CTU:Coding Tree Units 符号化ツリーユニット
CTB:Coding Tree Blocks 符号化ツリーブロック
PB:Prediction Blocks 予測ブロック
HRD:Hypothetical Reference Decoder 仮想基準復号器
SNR:Signal Noise Ratio 信号ノイズ比
CPU:Central Processing Units 中央処理装置
GPU:Graphics Processing Units グラフィックス処理装置
CRT:Cathode Ray Tube 陰極線管
LCD:Liquid-Crystal Display 液晶ディスプレイ
OLED:Organic Light-Emitting Diode 有機発光ダイオード
CD:Compact Disc コンパクトディスク
DVD:Digital Video Disc デジタルビデオディスク
ROM:Read-Only Memory 読み出し専用メモリ
RAM:Random Access Memory ランダムアクセスメモリ
ASIC:Application-Specific Integrated Circuit 特定用途向け集積回路
PLD:Programmable Logic Device プログラマブルロジック装置
LAN:Local Area Network ローカルエリアネットワーク
GSM:Global System for Mobile communications 汎欧州デジタル移動通信システム
LTE:Long-Term Evolution ロングタームエボリューション
CANBus:Controller Area Network Bus コントローラエリアネットワークバス
USB:Universal Serial Bus ユニバーサルシリアルバス
PCI:Peripheral Component Interconnect 周辺構成要素相互接続
FPGA:Field Programmable Gate Areas フィールドプログラマブルゲートエリア
SSD:solid-state drive ソリッドステートドライブ
IC:Integrated Circuit 集積回路
CU:Coding Unit 符号化器
本開示はいくつかの例示的な実施形態を説明してきたが、本開示の範囲内にある変更、置換、および様々な代替均等物が存在する。したがって、当業者は、本明細書に明示的に示されていないまたは記載されていないが、本開示の原理を具体化し、したがってその趣旨および範囲内にある多数のシステムおよび方法を考案することができることが理解されよう。
101 サンプル
102、103 矢印
104 正方形ブロック
180 概略図
201 現在のブロック
202、203、204、205、206 周囲サンプル
300、400 通信システム
310、320、330、340 端末機器
350 ネットワーク
401、601 ビデオソース
402 ビデオ画像ストリーム
403、603、703 ビデオ符号化器
404、643 符号化ビデオデータ
405 ストリーミングサーバ
406、408 クライアントサブシステム
407、409 コピー
410、510、810 ビデオ復号器
411 ビデオ画像の出力ストリーム
412 ディスプレイ
413 キャプチャサブシステム
420、430、530、620 電子機器
501 チャネル
512 レンダリング装置
515 バッファメモリ
520 解析器
521 シンボル
531 受信機
551 スケーラ/逆変換ユニット
552 イントラ画像予測ユニット
553 動作補償予測ユニット
555 アグリゲータ
556 ループフィルタユニット
557 参照画像メモリ
558 画像バッファ
630 ソース符号化器
632 符号化エンジン
633 復号器
634 参照画像メモリ
635 予測器
640 送信機
645、725 エントロピー符号化器
650 コントローラ
660 通信チャネル
721 汎用コントローラ
722 イントラ符号化器
723 残差計算器
724 残差符号化器
726 スイッチ
728、873 残差復号器
730 インター符号化器
871 エントロピー復号器
872 イントラ復号器
874 再構築モジュール
880 インター復号器
910、911、912、1001、1002、1101、1102、1201、1202、1301、1302、1501、1601、1602、2101、2201、2202、2203 ボックス
1700、1800、1900、2300 処理
2001 彩度スケーリング処理ブロック
2002 再構築ブロック
2003、2013 ループフィルタ
2004、2014 DPB
2005 彩度イントラ予測ブロック
2006、2016 動き補償予測ブロック
2011 逆量子化および逆変換ブロック
2012 再構築ブロック
2015 輝度イントラ予測ブロック
2017 逆方向マッピングブロック
2018 順方向マッピングブロック
2400 コンピュータシステム
2401 キーボード
2402 マウス
2403 トラックパッド
2405 ジョイスティック
2406 マイク
2407 スキャナ
2408 カメラ
2409 スピーカ
2410 タッチスクリーン
2420 CD/DVD ROM/RW
2421 光学メディア
2422 サムドライブ
2423 ソリッドステートドライブ
2440 コア
2441 CPU
2442 GPU
2443 FPGA
2444 アクセラレータ
2445 ROM
2446 RAM
2447 内部大容量記憶装置
2448 システムバス
2449 周辺バス
2450 グラフィックアダプタ
2454 ネットワークインターフェース
2455 通信ネットワーク

Claims (20)

  1. 復号器におけるビデオ復号のための方法であって、
    符号化ビデオビットストリームから第1の構文要素を復号するステップであって、前記第1の構文要素は、前記符号化ビデオビットストリームの第1の成分が前記符号化ビデオビットストリームの第2の成分に基づいて符号化されているかどうかを示す、ステップと、
    前記第1の構文要素に基づいて、彩度関連符号化ツールの1つまたは複数の第2の構文要素を復号するかどうかを判定するステップであって、前記彩度関連符号化ツールは、(i)彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツール、および(ii)クロス成分適応ループフィルタ(CC-ALF)のうちの1つである、ステップと、
    前記第1の成分が前記符号化ビデオビットストリームの前記第2の成分に基づいて符号化され、前記第1の成分が彩度成分であることを示す前記第1の構文要素に基づいて、前記彩度関連符号化ツールの前記1つまたは複数の第2の構文要素を復号するステップと、を含み、
    前記彩度関連符号化ツールの前記1つまたは複数の第2の構文要素は、前記第1の成分が前記符号化ビデオビットストリームの前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて復号されない、方法。
  2. 前記第1の構文要素は、適応パラメータセット(APS)で信号伝達される、請求項1に記載の方法。
  3. 前記第1の構文要素は、前記第1の成分が前記第2の成分に基づいて符号化されるかどうかをシーケンスレベルで示す、請求項1に記載の方法。
  4. 前記第1の成分が前記第2の成分に基づいて符号化されていることを示す前記第1の構文要素に基づいて、前記第2の成分は、前記符号化ビデオビットストリーム内の第2の彩度成分および輝度成分のうちの1つであり、
    前記第1の成分が前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて、(i)前記第1の成分が、前記符号化ビデオビットストリームにおける唯一の成分であるか、または(ii)前記符号化ビデオビットストリームが、少なくとも前記第1の成分および前記第2の成分を含み、前記第1の成分が、前記第2の成分に基づいて符号化されない、
    請求項1に記載の方法。
  5. 前記符号化ビデオビットストリームは、4:4:4の彩度フォーマットを有する第1の彩度成分、第2の彩度成分、および輝度成分を含み、
    前記第1の成分は、前記第1の彩度成分であり、
    前記第2の成分は、前記第2の彩度成分または前記輝度成分であり、
    前記第1の彩度成分、前記第2の彩度成分、および前記輝度成分は、互いに独立して符号化される、
    請求項4に記載の方法。
  6. 前記符号化ビデオビットストリームにおいて前記第1の成分が前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて前記彩度関連符号化ツールを無効化するステップ
    をさらに含む、請求項1に記載の方法。
  7. 前記彩度関連符号化ツールは前記LMCS符号化ツールである、請求項1に記載の方法。
  8. 前記LMCS符号化ツールのための前記1つまたは複数の第2の構文要素は、LMCS彩度残差スケーリング(CRS)のための変数の絶対値を示す第1のLMCSパラメータを含み、
    前記1つまたは複数の第2の構文要素を復号する前記ステップは、前記LMCS CRSの前記変数の前記絶対値が0より大きいことに基づいて前記LMCS符号化ツールのための第2のLMCSパラメータを復号するステップをさらに含み、前記1つまたは複数の第2の構文要素は、前記LMCS CRSの前記変数の符号を示す前記第2のLMCSパラメータを含み、
    前記LMCS符号化ツールのための前記第2のLMCSパラメータは、0より大きくない前記LMCS CRSのための前記変数の前記絶対値に基づいて復号されない、
    請求項7に記載の方法。
  9. 前記彩度関連符号化ツールは前記CC-ALFである、請求項1に記載の方法。
  10. 前記CC-ALFの前記1つまたは複数の第2の構文要素は、第1のCC-ALFフラグおよび第2のCC-ALFフラグを含み、前記第1のCC-ALFフラグは、第1のCC-ALFが前記符号化ビデオビットストリームで信号伝達されるかどうかを示し、前記第2のCC-ALFフラグは、第2のCC-ALFが前記符号化ビデオビットストリームで信号伝達されるかどうかを示し、
    前記1つまたは複数の第2の構文要素を復号する前記ステップは、前記第1のCC-ALFが信号伝達されることを示す第1のCC-ALFフラグに基づいて前記第1のCC-ALFの構文要素を復号するステップをさらに含み、前記CC-ALFの前記1つまたは複数の第2の構文要素は、前記第1のCC-ALFの構文要素を含み、前記第1のCC-ALFの構文要素は、前記第1のCC-ALFが信号伝達されないことを示す前記第1のCC-ALFフラグに基づいて復号されず、
    前記1つまたは複数の第2の構文要素を復号する前記ステップは、前記第2のCC-ALFが信号伝達されることを示す前記第2のCC-ALFフラグに基づいて前記第2のCC-ALFの構文要素を復号するステップをさらに含み、前記CC-ALFの前記1つまたは複数の第2の構文要素は、前記第2のCC-ALFの構文要素を含み、前記第2のCC-ALFの構文要素は、前記第2のCC-ALFが信号伝達されないことを示す前記第2のCC-ALFフラグに基づいて復号されない、
    請求項9に記載の方法。
  11. ビデオ復号のための装置であって、
    符号化ビデオビットストリームから第1の構文要素を復号するステップであって、前記第1の構文要素は、前記符号化ビデオビットストリームの第1の成分が前記符号化ビデオビットストリームの第2の成分に基づいて符号化されているかどうかを示す、ステップと、
    前記第1の構文要素に基づいて、彩度関連符号化ツールの1つまたは複数の第2の構文要素を復号するかどうかを判定するステップであって、前記彩度関連符号化ツールは、(i)彩度スケーリングを用いた輝度マッピング(LMCS)符号化ツール、および(ii)クロス成分適応ループフィルタ(CC-ALF)のうちの1つである、ステップと、
    前記第1の成分が前記符号化ビデオビットストリームの前記第2の成分に基づいて符号化され、前記第1の成分が彩度成分であることを示す前記第1の構文要素に基づいて、前記彩度関連符号化ツールの前記1つまたは複数の第2の構文要素を復号するステップと、を実行するように構成された処理回路を備え、
    前記彩度関連符号化ツールの前記1つまたは複数の第2の構文要素は、前記第1の成分が前記符号化ビデオビットストリームの前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて復号されない、装置。
  12. 前記第1の構文要素は適応パラメータセット(APS)で信号伝達される、請求項11に記載の装置。
  13. 前記第1の構文要素は、前記第1の成分が前記第2の成分に基づいて符号化されるかどうかをシーケンスレベルで示す、請求項11に記載の装置。
  14. 前記第1の成分が前記第2の成分に基づいて符号化されていることを示す前記第1の構文要素に基づいて、前記第2の成分は、前記符号化ビデオビットストリーム内の第2の彩度成分および輝度成分のうちの1つであり、
    前記第1の成分が前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて、(i)前記第1の成分が、前記符号化ビデオビットストリームにおける唯一の成分であるか、または(ii)前記符号化ビデオビットストリームが、少なくとも前記第1の成分および前記第2の成分を含み、前記第1の成分が、前記第2の成分に基づいて符号化されない、
    請求項11に記載の装置。
  15. 前記符号化ビデオビットストリームは、4:4:4の彩度フォーマットを有する第1の彩度成分、第2の彩度成分、および輝度成分を含み、
    前記第1の成分は、前記第1の彩度成分であり、
    前記第2の成分は、前記第2の彩度成分または前記輝度成分であり、
    前記第1の彩度成分、前記第2の彩度成分、および前記輝度成分は、互いに独立して符号化される、
    請求項14に記載の装置。
  16. 前記処理回路は、前記符号化ビデオビットストリームにおいて前記第1の成分が前記第2の成分に基づいて符号化されていないことを示す前記第1の構文要素に基づいて前記彩度関連符号化ツールを無効にする
    ように構成されている、請求項11に記載の装置。
  17. 前記彩度関連符号化ツールは前記LMCS符号化ツールである、請求項11に記載の装置。
  18. 前記LMCS符号化ツールのための前記1つまたは複数の第2の構文要素は、LMCS彩度残差スケーリング(CRS)のための変数の絶対値を示す第1のLMCSパラメータを含み、
    前記処理回路は、前記LMCS CRSの前記変数の前記絶対値が0より大きいことに基づいて前記LMCS符号化ツールのための第2のLMCSパラメータを復号するように構成されており、前記1つまたは複数の第2の構文要素は、前記LMCS CRSの前記変数の符号を示す前記第2のLMCSパラメータを含み、
    前記LMCS符号化ツールのための前記第2のLMCSパラメータは、0より大きくない前記LMCS CRSのための前記変数の前記絶対値に基づいて復号されない、
    請求項17に記載の装置。
  19. 前記彩度関連符号化ツールは前記CC-ALFである、請求項11に記載の装置。
  20. 前記CC-ALFの前記1つまたは複数の第2の構文要素は、第1のCC-ALFフラグおよび第2のCC-ALFフラグを含み、前記第1のCC-ALFフラグは、第1のCC-ALFが前記符号化ビデオビットストリームで信号伝達されるかどうかを示し、前記第2のCC-ALFフラグは、第2のCC-ALFが前記符号化ビデオビットストリームで信号伝達されるかどうかを示し、
    前記処理回路は、前記第1のCC-ALFが信号伝達されることを示す前記第1のCC-ALFフラグに基づいて前記第1のCC-ALFの構文要素を復号し、前記CC-ALFの前記1つまたは複数の第2の構文要素は、前記第1のCC-ALFの構文要素を含み、前記第1のCC-ALFの構文要素は、前記第1のCC-ALFが信号伝達されないことを示す前記第1のCC-ALFフラグに基づいて復号されないようにさらに構成され、
    前記処理回路は、前記第2のCC-ALFが信号伝達されることを示す前記第2のCC-ALFフラグに基づいて前記第2のCC-ALFの構文要素を復号し、前記CC-ALFの前記1つまたは複数の第2の構文要素は、前記第2のCC-ALFの前記構文要素を含み、前記第2のCC-ALFの前記構文要素は、前記第2のCC-ALFが信号伝達されないことを示す前記第2のCC-ALFフラグに基づいて復号されないようにさらに構成されている、
    請求項19に記載の装置。
JP2021557978A 2020-01-08 2020-12-09 ビデオ復号のための方法、装置およびコンピュータプログラム Pending JP2022526379A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024002647A JP2024026725A (ja) 2020-01-08 2024-01-11 ビデオ復号のための方法、装置およびコンピュータプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062958694P 2020-01-08 2020-01-08
US62/958,694 2020-01-08
US17/096,674 2020-11-12
US17/096,674 US11303914B2 (en) 2020-01-08 2020-11-12 Method and apparatus for video coding
PCT/US2020/064055 WO2021141714A1 (en) 2020-01-08 2020-12-09 Method and apparatus for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024002647A Division JP2024026725A (ja) 2020-01-08 2024-01-11 ビデオ復号のための方法、装置およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2022526379A true JP2022526379A (ja) 2022-05-24

Family

ID=76654783

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021557978A Pending JP2022526379A (ja) 2020-01-08 2020-12-09 ビデオ復号のための方法、装置およびコンピュータプログラム
JP2024002647A Pending JP2024026725A (ja) 2020-01-08 2024-01-11 ビデオ復号のための方法、装置およびコンピュータプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024002647A Pending JP2024026725A (ja) 2020-01-08 2024-01-11 ビデオ復号のための方法、装置およびコンピュータプログラム

Country Status (9)

Country Link
US (3) US11303914B2 (ja)
EP (1) EP4088221A4 (ja)
JP (2) JP2022526379A (ja)
KR (1) KR20210134417A (ja)
CN (2) CN113692588B (ja)
AU (2) AU2020420655B2 (ja)
CA (1) CA3135416A1 (ja)
SG (1) SG11202110653RA (ja)
WO (1) WO2021141714A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020156528A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Filtering processes based on in-loop reshaping
MX2021008911A (es) 2019-02-01 2021-08-24 Beijing Bytedance Network Tech Co Ltd Se?alizacion de informacion de reformacion en bucle utilizando conjuntos de parametros.
CN113574889B (zh) * 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
CN113632469B (zh) 2019-03-23 2022-12-13 北京字节跳动网络技术有限公司 默认的环内整形参数
WO2020216176A1 (en) 2019-04-20 2020-10-29 Beijing Bytedance Network Technology Co., Ltd. Signaling of chroma syntax elements in video coding
CN115567707A (zh) 2019-05-30 2023-01-03 抖音视界有限公司 色度分量的自适应环路滤波
CN116668697A (zh) * 2019-07-05 2023-08-29 Lg电子株式会社 图像编码/解码设备和图像数据的发送设备
US11563980B2 (en) * 2020-04-02 2023-01-24 Qualcomm Incorporated General constraint information syntax in video coding
US11601657B2 (en) * 2020-04-02 2023-03-07 Qualcomm Incorporated LUMA mapping with chroma scaling (LMCS) in video coding
WO2021204251A1 (en) * 2020-04-10 2021-10-14 Beijing Bytedance Network Technology Co., Ltd. Use of header syntax elements and adaptation parameter set
US11792412B2 (en) * 2020-04-15 2023-10-17 Qualcomm Incorporated Adaptive loop filtering for color format support
CN115868159A (zh) 2020-04-17 2023-03-28 抖音视界有限公司 自适应参数集单元的存在
EP4128775A4 (en) 2020-04-26 2024-03-27 Bytedance Inc CONDITIONAL SIGNALING OF SYNTAX ELEMENTS OF A VIDEO CODING

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103535035B (zh) 2011-05-16 2017-03-15 寰发股份有限公司 用于亮度和色度分量的样本自适应偏移的方法和装置
US9277228B2 (en) * 2011-07-18 2016-03-01 Qualcomm Incorporated Adaptation parameter sets for video coding
WO2013144144A1 (en) * 2012-03-30 2013-10-03 Panasonic Corporation Syntax and semantics for adaptive loop filter and sample adaptive offset
HUE049811T2 (hu) 2012-04-15 2020-10-28 Samsung Electronics Co Ltd Videodekódoló berendezés, amely paraméter aktualizálást használ entrópiakódolt transzformáció együttható debinarizálására és kódolási eljárás, amely ugyanazt használja binarizálásra
WO2016074147A1 (en) * 2014-11-11 2016-05-19 Mediatek Singapore Pte. Ltd. Separated coding tree for luma and chroma
US20170105014A1 (en) * 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10477212B2 (en) * 2016-10-11 2019-11-12 Dolby Laboratories Licensing Corporation Adaptive chroma quantization in video coding for multiple color imaging formats
JP7368145B2 (ja) * 2019-08-28 2023-10-24 シャープ株式会社 画像符号化装置、および、画像復号装置
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
US11265558B2 (en) * 2019-11-22 2022-03-01 Qualcomm Incorporated Cross-component adaptive loop filter
US11601657B2 (en) * 2020-04-02 2023-03-07 Qualcomm Incorporated LUMA mapping with chroma scaling (LMCS) in video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS ET AL., VERSATILE VIDEO CODING (DRAFT 7), JPN6023011328, 14 November 2019 (2019-11-14), pages 19 - 38, ISSN: 0005020712 *
K. MISRA ET AL., CE5 COMMON BASE: CROSS COMPONENT ADAPTIVE LOOP FILTER, JPN6022036367, 23 December 2019 (2019-12-23), ISSN: 0005020711 *
LI, LING ET AL., AHG12: SIGNALING OF CHROMA PRESENCE IN PPS AND APS, JPN6021022645, 1 January 2020 (2020-01-01), ISSN: 0005020710 *

Also Published As

Publication number Publication date
US20210211700A1 (en) 2021-07-08
US11303914B2 (en) 2022-04-12
JP2024026725A (ja) 2024-02-28
SG11202110653RA (en) 2021-10-28
AU2020420655B2 (en) 2023-03-16
US20220182653A1 (en) 2022-06-09
CA3135416A1 (en) 2021-07-15
EP4088221A1 (en) 2022-11-16
AU2023203753A1 (en) 2023-07-13
CN117241023A (zh) 2023-12-15
AU2020420655A1 (en) 2021-10-07
WO2021141714A1 (en) 2021-07-15
US20230345026A1 (en) 2023-10-26
KR20210134417A (ko) 2021-11-09
CN113692588B (zh) 2023-11-03
US11736710B2 (en) 2023-08-22
CN113692588A (zh) 2021-11-23
EP4088221A4 (en) 2024-02-21

Similar Documents

Publication Publication Date Title
JP2022526379A (ja) ビデオ復号のための方法、装置およびコンピュータプログラム
JP2022516846A (ja) アフィン線形加重イントラ予測モードのための簡易シグナリング方法
KR20200124736A (ko) 비디오 코딩을 위한 방법 및 장치
JP2021518088A (ja) 小ブロックの予測と変換のための方法、装置、及びプログラム
EP4066491A1 (en) Signaling of video coding tools supporting various chroma formats
JP7362876B2 (ja) 簡略化された最確モードリスト生成スキーム
JP2022521516A (ja) ビデオコーディングのための方法およびコンピュータプログラム
JP2022520408A (ja) ビデオ復号のための方法、装置、およびコンピュータプログラム
JP7288078B2 (ja) スキップモードフラグを伝達するための方法、装置及びコンピュータプログラム
JP7317983B2 (ja) ビデオ符号化又は復号化の方法、装置及びコンピュータプログラム
JP2022525430A (ja) デコーダが実行するビデオ復号の方法、装置およびコンピュータプログラム
JP7236558B2 (ja) ビデオコーディングのための方法および装置
JP7395771B2 (ja) テンプレートマッチングベースのイントラ予測
JP2023165926A (ja) ビデオ符号化のための方法、装置、媒体およびコンピュータ・プログラム
JP2021516933A (ja) ビデオ符号化の方法および装置
US20230283796A1 (en) Determining applicability of intra block copy in semi-decoupled partitioning
JP7325622B2 (ja) 映像コーディングのための方法、装置、及びコンピュータプログラム
JP7377887B2 (ja) ビデオ符号化又はビデオ復号のための方法、装置及びコンピュータプログラム
JP2023549185A (ja) ビデオ復号のための方法、装置及びコンピュータプログラム
US11323732B2 (en) Method and apparatus for video coding
JP2023552415A (ja) ビデオ復号の方法、機器、及びコンピュータプログラム
KR20240069811A (ko) 비디오 코딩 방법 및 장치
KR20230169953A (ko) 루마로부터의 크로마 인트라 예측 모드에서 파라미터를 스케일링하는 개선된 시그널링 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240322