JP2024038198A - ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法 - Google Patents

ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法 Download PDF

Info

Publication number
JP2024038198A
JP2024038198A JP2023222291A JP2023222291A JP2024038198A JP 2024038198 A JP2024038198 A JP 2024038198A JP 2023222291 A JP2023222291 A JP 2023222291A JP 2023222291 A JP2023222291 A JP 2023222291A JP 2024038198 A JP2024038198 A JP 2024038198A
Authority
JP
Japan
Prior art keywords
samples
luminance
prediction
chroma
reconstructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023222291A
Other languages
English (en)
Inventor
シウ、シアオユイ
チェン、イー-ウェン
マー、ツォン-チョアン
ジュ、ホン-ジョン
チェン、ウェイ
ワン、シアンリン
ユイ、ピン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2024038198A publication Critical patent/JP2024038198A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】符号化ユニットに対して予測依存残差スケーリングを使用してビデオ符号化を実行するためのシステム及び方法を提供する。【解決手段】ブロックベースのハイブリッドビデオエンコーダ100は、符号化ユニットが位置する第2所定領域に隣接する第1所定領域から複数の再構成輝度サンプルを選択し、複数の再構成輝度サンプルの平均を算出し、クリッピングなしに、複数の再構成輝度サンプルの平均を直接用いて、彩度残差スケーリングファクタを導出し、LMCS(luma mapping with chroma scaling)関連情報をビットストリームに符号化する。【選択図】図1

Description

本開示は、概して、ビデオ符号化および圧縮に関する。より具体的には、本開示が符号化ユニットに対して予測依存残差スケーリングを使用してビデオ符号化を実行するためのシステムおよび方法に関する。
このセクションは、本開示に関連する背景情報を提供する。このセクションに含まれる情報は、必ずしも先行技術として解釈されるべきではない。
ビデオデータを圧縮するために、様々なビデオ符号化技法のいずれかが使用され得る。ビデオ符号化は、1つまたは複数のビデオ符号化規格に従って実行され得る。いくつかの例示的なビデオ符号化規格は、VVC(versatile video coding)、JEM(joint exploration test model)符号化、H.265/HEVC(high-efficiency video coding)、H.264/AVC(advanced video coding)、およびMPEG(moving picture experts group)符号化を含む。
ビデオ符号化は一般に、ビデオ画像またはシーケンスに固有の冗長性を利用する予測方法(たとえば、インター予測、イントラ予測など)を利用する。ビデオ符号化技法の1つの目標はビデオ品質の劣化を回避または最小限に抑えながら、ビデオデータをより低いビットレートを使用する形式に圧縮することである。
HEVC規格の第1バージョンは、2013年10月に完成し、従来の世代のビデオ符号化規格H.264/MPEG AVCと比較して、約50%のビットレート節約または同等の知覚品質を提供する。HEVC標準はその先行技術よりも著しい符号化の改善を提供するが、HEVCよりも追加の符号化ツールを用いて優れた符号化効率を達成することができるというエビデンスがある。これに基づき、VCEGとMPEGは、将来のビデオ符号化標準化のための新しい符号化技術の探索作業を開始した。JVET(Joint Video Exploration Team)が2015年10月にITU-T VECGとISO/IEC MPEGによって形成され、符号化効率の実質的な向上を可能にする先進技術の重要な研究を開始した。JEM(joint exploration model)と呼ばれる1つの参照ソフトウェアは、
HEVCテストモデル(HM)の上にいくつかの追加の符号化ツールを統合することによってJVETによって維持された。
2017年10月、HEVCを超える能力を有するビデオ圧縮に関する共同CfP(call for proposals)がITU-TおよびISO/IECによって発行された。2018年4月には、10回目のJVET会議で23件のCfP応答を受け、評価したところ、約40%のHEVCを超える圧縮効率の向上が実証された。このような評価結果を踏まえ、VVC(Versatile Video Coding)と名付けられた新世代ビデオ符号化規格を開発する新たなプロジェクトを立ち上げた。同じ月に、VVCテストモデル(VTM)と呼ばれる1つの参照ソフトウェアが、VVC標準の参照実装を示すために確立された。
ビデオ符号化において利用される予測方法は典型的にはビデオデータに固有の冗長性を低減または除去するために空間(イントラフレーム)予測および/または時間(インターフレーム)予測を実行することを含み、典型的には、ブロックベースのビデオ符号化に関連付けられる。HEVCと同様に、VVCは、ブロックベースのハイブリッドビデオ符号化フレームワークに基づいて構築される
ブロックベースのビデオ符号化では、入力ビデオ信号はブロックごとに処理される。ブロック(符号化ユニット(CU)としても知られる)ごとに、空間予測および/または時間予測が実行され得る。現在のVVC設計などのより新しいビデオ符号化規格では、ブロックが4分木だけでなく、2分木および/または3分木も含むマルチタイプツリー構造に基づいてさらに分割され得る。これは、様々な局所特性のより良好な調節を可能にする。
空間予測(「イントラ予測」としても知られる)は現在のブロックを予測するために、同じビデオピクチャ/スライス中のすでに符号化された隣接ブロック(参照サンプルと呼ばれる)のサンプルからのピクセルを使用する。空間予測は、ビデオ信号に固有の空間的冗長性を低減する。
復号化の過程で、ビデオビットストリームはエントロピー復号化ユニットで最初にエントロピー復号化される。符号化モードおよび予測情報は予測ブロックを形成するために、(イントラ符号化されたとき)空間予測ユニットまたは(インター符号化されたとき)時間予測ユニットのいずれかに送られる。残差変換係数は残差ブロックを再構成するために、逆量子化ユニットおよび逆変換ユニットに送られる。次いで、予測ブロックと残差ブロックとが加算される。再構成されたブロックはさらに、参照ピクチャストアに記憶される前に、インループフィルタリングを経てもよい。次いで、参照ピクチャストア内の再構成されたビデオは、ディスプレイ装置を駆動するために送出され、将来のビデオブロックを予測するために使用される。
現在のVVC設計などのより新しいビデオ符号化規格では、LMCS(luma mapping with chroma scaling)の符号化ツールがインループフィルタリングの前に適用され得る。
LMCSは符号化効率を改善するために、入力信号のダイナミックレンジを調整することを目的とする。
しかしながら、LMCSの現在の設計は、様々な復号化モジュールにおいて異なるドメインマッピングを使用するので、算出の複雑さおよびオンチップメモリの追加要求を招く。さらに、LMCSの現在の設計は輝度および彩度スケーリングファクタを導出するために異なる輝度予測サンプル値を使用し、これは、追加的な複雑さを導入する。さらに、LMCSの現在の設計は輝度予測サンプルの成功完了後まで、彩度残差サンプルの再構成の延期を必要とするので、彩度残差サンプルの再構成の待ち時間を増大させ、これはDMVR(Decoder-side Motion Vector Derivation)、BDOF(Bi-Directional Optical Flow)、およびCIIP(Combined Inter and Intra Prediction)などの複雑なインター
モード符号化ツールの順次適用の成功完了を必要とする。LMCSの現在の設計はまた、彩度残差スケーリングファクタ導出プロセス中に不要なクリッピング動作を実行し、算出複雑性およびオンチップメモリの追加要求をさらに増加させる。
このセクションは本開示の一般的な概要を提供するものであり、その全範囲またはその特徴のすべての包括的な開示ではない。
本出願の第1の態様によれば、CUが位置する第2所定領域に隣接する第1所定領域からの複数の再構成輝度サンプルがCUの復号中に選択され、複数の再構成輝度サンプルの平均が算出され、CUを復号するための彩度残差スケーリングファクタを導出する際に、クリッピングすることなく、複数の再構成輝度サンプルの平均が直接使用される。
本出願の第2の態様によれば、コンピューティング装置は、1つまたは複数のプロセッ
サと、メモリと、メモリに記憶された複数のプログラムとを含む。プログラムは1つまたは複数のプロセッサによって実行されると、コンピューティング装置に、本出願の第1の態様において上記で説明した動作を実行させる。
本出願の第3の態様によれば、非一時的コンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピューティング装置による実行のための複数のプログラムを記憶する。プログラムは1つまたは複数のプロセッサによって実行されると、コンピューティング装置に、本出願の第1の態様において上記で説明した動作を実行させる。
多くのビデオ符号化規格で使用され得る例示的なブロックベースのハイブリッドビデオエンコーダを説明するブロック図である。 多くのビデオ符号化規格で使用され得る例示的なビデオデコーダを説明するブロック図である。 多くのビデオ符号化規格で使用され得るマルチタイプツリー構造におけるブロック分割の図である。 LMCSを適用した場合の復号処理を示すフローチャートである。 BDOFプロセスの説明図である。 DMVR、BDOF及びCIIPの全てがイネーブルされた場合のLMCSにおける彩度残差スケーリングのワークフローを示すフローチャートである。 PDRS(prediction dependent residual scaling)手順のステップを示すフローチャートである。 LMCS処理においてPDRS手順が適用される場合の復号処理のワークフローを示すフローチャートである。 スケーリングファクタを導出するために予測サンプルを単に使用することによって引き起こされる残差マッピング誤差の説明図である。 彩度サンプル再構成手順のステップを示すフローチャートである。 第2の彩度サンプル再構成手順のステップを示すフローチャートである。 彩度スケーリングのための輝度予測サンプルを生成するためにDMVR、BDOF、およびCIIPが適用されない、第2の彩度サンプル再構成手順の一例におけるLMCS復号プロセスのワークフローを示すフローチャートである。 彩度スケーリングのための輝度予測サンプルを生成するために初期ユニ予測信号が適用される、第2の彩度サンプル再構成手順の第2の例におけるLMCS復号プロセスのワークフローを示すフローチャートである。 彩度残差サンプル再構成手順のステップを示すフローチャートである。 彩度残差サンプル再構成手順の1つまたは複数の実施形態におけるLMCS復号プロセスのワークフローを示すフローチャートである。 彩度残差サンプル再構成手順の1つの他の実施形態におけるLMCS復号プロセスのワークフローを示すフローチャートである。 第2の彩度残差サンプル再構成手順のステップを示すフローチャートである。 本開示の第1の態様のステップを示すフローチャートである。 本開示の第1の態様の実施形態に関与する領域の図である。
以下、添付の図面と併せて、本開示の例示的で非限定的な実施形態のセットを説明する。構造、方法、または機能の変形は、本明細書に提示される例に基づいて、当業者によって実装され得、そのような変形はすべて、本開示の範囲内に含まれる。矛盾が存在しない場合、異なる実施形態の教示は互いに組み合わせることができるが、必ずしもその必要はない。
本開示で使用される用語は、本開示を限定するためではなく、特定の例を説明するためのものである。本開示ならびに添付の特許請求の範囲において使用される単数形「1つの」などは、文脈において他の意味が明確に含まれない限り、複数形も指す。本明細書で使用される「および/または」という用語は、1つまたは複数の関連する列挙された項目の任意のまたはすべての可能な組合せを指すことを諒解されたい。
「第1」、「第2」、「第3」などの用語は様々な情報を説明するために本明細書で使用され得るが、情報はこれらの用語によって限定されるべきではないことを理解されたい。これらの用語は、あるカテゴリの情報を別のカテゴリの情報から区別するためにのみ使用される。例えば、本開示の範囲から逸脱することなく、第1情報を第2情報と呼ぶことができ、同様に、第2情報を第1情報と呼ぶこともできる。本明細書で使用される場合、用語「もし、~ならば」などは、文脈に応じて、「~するとき」、「~する際」または「~に応答して」などを意味すると理解され得る。
本明細書を通して、単数または複数の「実施形態」、「別の実施形態」などは、実施形態に関連して説明される1つまたは複数の特定の特徴、構成などが、本開示の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体を通して、単数または複数の「一実施形態において」または「ある実施形態において」、「別の実施形態において」などの表現の出現は、必ずしもすべてが同じ実施形態を指すわけではない。さらに、1つまたは複数の実施形態における特定の特徴、構造、または特性は、任意の適切な方法で組み合わせることができる。
概念的には、背景技術のセクションで前述したものを含む多くのビデオ符号化規格が、類似している。たとえば、事実上すべてのビデオ符号化規格はブロックベースの処理を使用し、ビデオ圧縮を達成するために同様のビデオ符号化ブロックダイアグラムを共有する。
図1は、多くのビデオ符号化規格で使用され得る例示的なブロックベースのハイブリッドビデオエンコーダ100のブロック図を示す。エンコーダ100において、ビデオフレームは、処理のために複数のビデオブロックに分割される。所与のビデオブロックごとに、インター予測手法またはイントラ予測手法のいずれかに基づいて予測が形成される。インター予測では、1つまたは複数の予測子が以前に再構成されたフレームからのピクセルに基づいて、動き推定および動き補償を通して形成される。イントラ予測では、現在のイントラフレームの再構成されたピクセルに基づいて予測子が形成される。モード決定を通して、最良の予測子が、現在のブロックを予測するために選択され得る。
現在のビデオブロックとその予測子との間の差分を表す予測残差は、変換回路102に送られる。変換係数は、次いで、変換回路102からエントロピー低減のための量子化回路104に送られる。次いで、量子化された係数は、エントロピー符号化回路106に供給されて、圧縮されたビデオビットストリームを生成する。図1に示すように、インター予測回路および/またはイントラ予測回路112からの予測関連情報110、例えば、ビデオブロック分割情報、動きベクトル、参照ピクチャインデックス、およびイントラ予測モードも、エントロピー符号化回路106を介して供給され、圧縮ビデオビットストリーム114に格納される。
エンコーダ100では、予測のために画素を再構成するために、デコーダ関連回路も必要とされる。まず、逆量子化回路116および逆変換回路118を介して予測残差が再構成される。この再構成予測残差は、ブロック予測子120と組み合わされて、現在のビデオブロックのためのフィルタリングされていない再構成ピクセルを生成する。
時間予測(「インター予測」または「動き補償予測」とも呼ばれる)は現在のビデオブロックを予測するために、すでに符号化されたビデオピクチャからの再構成されたピクセルを使用する。時間的予測は、ビデオ信号に固有の時間的冗長性を低減する。所与のCUのための時間予測信号は、通常、現在のCUとその時間基準との間の動きの量および方向を示す1つまたは複数の動きベクトル(MV)によってシグナリングされる。また、複数の参照ピクチャがサポートされる場合、1つの参照ピクチャインデックスが追加的に送られ、それは、時間予測信号が参照ピクチャストア内のどの参照ピクチャから来るかを識別するために使用される。
空間的および/または時間的予測が実行された後、エンコーダ100内のイントラ/インターモード決定回路121は、例えばレート歪み最適化方法に基づいて、最良の予測モードを選択する。次に、ブロック予測子120は現在のビデオブロックから差し引かれ、得られた予測残差は変換回路102および量子化回路104を用いて、相関を解除される。得られた量子化残差係数は、逆量子化回路116によって逆量子化され、逆変換回路118によって逆変換されて、再構成された残差が形成され、次いで、CUの再構成信号を形成するために予測ブロックに加算されて戻される。デブロッキングフィルタ、SAO(sample adaptive offset)、および/またはALF(adaptive in-loop filter)などの
さらなるインループフィルタ115はピクチャバッファ117の参照ピクチャストアに入れられ、将来、ビデオブロックを符号化するために使用される前に、再構成CUに適用され得る。出力ビデオビットストリーム114を形成するために、符号化モード(インターまたはイントラ)、予測モード情報、動き情報、および量子化残差係数はすべて、エントロピー符号化ユニット106に送られ、ビットストリームを形成するためにさらに圧縮され、パックされる。
例えば、デブロッキングフィルタはVVCの現在のバージョンと同様に、AVC、HEVCにおいて利用可能である。HEVCでは、符号化効率をさらに改善するために、SAO(sample adaptive offset)と呼ばれる追加のインループフィルタが定義される。現在のVVC基準では、ALF(adaptive loop filter)と呼ばれるさらに別のインループフィルタが活発に検討されており、最終基準に含まれる可能性が高い。
これらのインループフィルタ操作はオプションである。これらの動作を実行することは、符号化効率および視覚品質を改善するのに役立つ。それらはまた、算出の複雑さを節約するためにエンコーダ100によってレンダリングされる決定としてオフにされ得る。
イントラ予測は通常、フィルタリングされていない再構成ピクセルに基づいており、インター予測は、これらのフィルタオプションがエンコーダ100によってオンにされる場合、フィルタリングされた再構成ピクセルに基づいていることに留意されたい。
図2は、多くのビデオ符号化規格で使用され得る例示的なビデオデコーダ200を示すブロック図である。このデコーダ200は、図1のエンコーダ100に存在する再構成関連セクションと同様である。デコーダ200(図2)では、入力ビデオビットストリーム201が量子化された係数レベルおよび予測関連情報を導出するために、エントロピー復号化202を通して最初に復号される。量子化された係数レベルは、次いで、逆量子化204および逆変換206を通して処理されて、再構成予測残差が得られる。イントラ/インターモード選択212において実装されるブロック予測機構は、復号された予測情報に基づいて、イントラ予測208または動き補償210のいずれかを実行するように構成される。フィルタリングされていない再構成ピクセルのセットは、逆変換206からの再構成予測残差と、ブロック予測機構によって生成された予測出力とを、加算器214を使用
して合計することによって得られる。
再構成されたブロックはさらに、参照ピクチャストアとして機能するピクチャバッファ213に記憶される前に、インループフィルタ209を通過することができる。ピクチャバッファ213内の再構成されたビデオは、次いで、ディスプレイ装置を駆動するために送出され、ならびに将来のビデオブロックを予測するために使用され得る。インループフィルタ209がオンにされる状況では、最終的な再構成ビデオ出力222を導出するために、これらの再構成ピクセルに対してフィルタリング動作が実行される。
HEVCなどのビデオ符号化規格では、ブロックが4分木に基づいて分割され得る。現在のVVCのような新しいビデオ符号化標準ではより多くの分割方法が採用され、符号化ツリーユニット(CTU)は、4分木、2分木または3分木に基づいて、変化する局所特性に適応するためにCUに分割され得る。CU、予測ユニット(PU)、および変換ユニット(TU)の分離は、現在のVVCにおけるほとんどの符号化モードに存在せず、各CUはさらなる分割なしに、予測および変換の両方のための基本ユニットとして常に使用される。しかしながら、サブ分割符号化モードなどのいくつかの特定の符号化モードでは、各CUは依然として複数のTUを含み得、マルチタイプツリー構造では、1つのCTUが最初に、4分木構造によって分割される。次いで、各4分木リーフノードは、2分木構造および3分木構造によってさらに分割され得る。
図3は、現在のVVCにおいて使用される5つの分割タイプ、すなわち、4分割301、水平2分割302、垂直2分割303、水平3分割304、および垂直3分割305を示す。マルチタイプツリー構造が利用される状況では、1つのCTUが最初に4分木構造によって分割される。次いで、各4分木リーフノードは、2分木構造および3分木構造によってさらに分割され得る。
図3の例示的なブロック分割301、302、303、304、または305のうちの1つまたは複数を使用して、空間予測および/または時間予測が、図1に示される構成を使用して実行され得る。空間予測(または「イントラ予測」)は現在のビデオブロックを予測するために、同じビデオピクチャ/スライス中のすでに符号化された隣接ブロック(参照サンプルと呼ばれる)のサンプルからのピクセルを使用する。空間予測は、ビデオ信号に固有の空間的冗長性を低減する。
現在のVVCなどのより新しいビデオ符号化規格では、新しい符号化ツールで彩度スケーリングを用いたLMCS(Luma Mapping with Chroma Scaling)が追加されている。LMCSはループフィルタ(たとえば、デブロッキングフィルタ、SAO、およびALF)の前に適用される新しい符号化ツールとして追加される。
一般に、LMCSは、2つの主要モジュールを有する。第1は、適応区分線形モデルに基づく輝度成分のインループマッピングであり、第2は、輝度依存彩度残差スケーリングである。
図4は、LMCSが適用される修正された復号プロセスを示す。図4では、いくつかのブロックがマッピングされたドメインで行われる復号モジュールを表し、エントロピー復号401、逆量子化402、逆変換403、輝度イントラ予測404、および輝度サンプル再構成405を含む(すなわち、再構成輝度サンプルY’reconを生成するための輝度予測サンプルY’predと輝度残差サンプルY’resとの加算)。いくつかの他のブロックは動き補償予測409、彩度イントラ予測412、彩度サンプル再構成413(すなわち、再構成された彩度サンプルCreconを生成するために彩度予測サンプルCpredおよび彩度残差サンプルCresを加算)、およびインループフィルタ処理4
07(デブロッキング、SAO、およびALFを包含する)を含む、元の(すなわち、マッピングされていない)ドメインにおいて実行される復号モジュールを示す。ブロックのさらなるグループは、輝度サンプルの順方向マッピング410および逆方向(または逆)マッピング406と、彩度残差スケーリング411とを含む、LMCSによって導入される新しい動作モジュールを表す。また、図4に示すように、復号ピクチャバッファ(DPB)408(輝度用)及び415(彩度用)に格納されている全ての参照ピクチャは元のドメインにある。
LMCSのインループマッピングは、符号化効率を改善するために入力信号のダイナミックレンジを調整することを目的とする。既存のLMCS設計における輝度サンプルのインループマッピングは、1つの順方向マッピング関数FwdMapと1つの対応する逆方向マッピング関数InvMapとの2つのマッピング関数に基づいて構築される。順方向マッピング関数は、16個の等しいサイズの区分を有する1つの区分線形モデルを使用して、エンコーダからデコーダにシグナリングされる。逆方向マッピング関数は順方向マッピング関数から直接導出することができ、したがって、シグナリングされる必要はない。
輝度マッピングモデルのパラメータは、スライスレベルでシグナリングされる。存在フラグは最初に、現在のスライスのために輝度マッピングモデルがシグナリングされるべきかどうかを示すためにシグナリングされる。輝度マッピングモデルが現在のスライス中に存在する場合、対応する区分線形モデルパラメータがさらにシグナリングされる。区分線形モデルに基づいて、入力信号のダイナミックレンジは元のドメインにおいて等しいサイズを有する16個のセグメントに分割され、各セグメントは対応するセグメントにマッピングされる。元のドメイン内の所与のセグメントについて、マッピングされたドメイン内のその対応するセグメントは、同じまたは異なるサイズを有し得る。マッピングされたドメイン内の各セグメントのサイズはそのセグメントのコードワードの数(すなわち、マッピングされたサンプル値)によって示される。元のドメインにおける各セグメントについて、線形マッピングパラメータは、マッピングされたドメインにおける対応するセグメントにおけるコードワードの数に基づいて導出することができる。たとえば、入力が10ビット深度にあるとき、元のドメイン中の16個のセグメントの各々は64個のピクセル値を有し、マッピングされたドメイン中のセグメントの各々もまた、それに割り当てられた64個のコードワードを有する場合、それは、単純な1対1のマッピング(すなわち、各サンプル値が変更されていないマッピング)を示す。マッピングされたドメイン内の各セグメントのためのコードワードのシグナリングされた数は、スケーリングファクタを算出し、そのセグメントに応じてマッピング関数を調整するために使用される。さらに、スライスレベルでは、別のLMCS制御フラグがスライスのLMCSを有効/無効にするようにシグナリングされる。
各セグメントについて、対応する区分線形モデルは、この段落の直後のボックスに記載されるように定義される:
図4に示すように、LMCSプロセス中に2つの異なるドメインで操作する必要がある。インター予測モード(「インターCU」)を介して符号化された各CUについて、その動き補償予測が元のドメインにおいて実行される。しかしながら、輝度成分の再構成(すなわち、輝度予測サンプルおよび輝度残差サンプルの加算)がマッピングされたドメインにおいて実行されるので、動き補償された輝度予測Ypredは順方向マッピング機能410を介して、元のドメインからマッピングされたドメインにおける値Y’predにマッピングされる必要があり、すなわち、Y’pred=FwdMap(Ypred)であり、その後、Y’predが画素再構成405のために使用される。一方、イントラ予測モード(「イントラCU」)によって符号化されたCUごとに、イントラ予測404がマッピングされたドメインで(図4に示すように)実行された後、Y’predが画素再構成405に使用されるので、予測サンプルのマッピングは不要である。最後に、再構成輝度サンプルY’reconを生成した後、逆方向マッピング機能406を適用して、再構成輝度サンプルY’reconを元のドメインのYreconに変換し、その後、輝度DPB408に進み、すなわち、Yrecon=InvMap(Y’recon)に進む。インターCUに対してのみ適用される必要がある予測サンプルの順方向マッピング410とは異なり、再構成されたサンプルの逆方向マッピング406は、インターCUおよびイントラCUの両方に適用される必要がある。
要約すると、デコーダ側では、現在のLMCSのインループ輝度マッピングが、輝度予測サンプルYpredが必要に応じて、最初にマッピングされたドメインに変換されるように行われる:Y’pred=FwdMap(Ypred)。次いで、マッピングされた予測サンプルは、復号された輝度残差と加算されて、マッピングされたドメイン内の再構成輝度サンプルを形成する:Y’recon=Y’pred+Y’res。最後に、逆マッピングを適用して、再構成輝度サンプルY’reconを元のドメインに変換し戻す:Yrecon=InvMap(Y’recon)。符号化器側では輝度残差はマッピングされたドメイン内で符号化されるので、それらはマッピングされた元の輝度サンプルとマッピングされた輝度予測サンプルとの間の差として生成される:Y’res=FwdMa
p(Yorg)-FwdMap(Ypred)。
LMCSの第2のステップ、輝度依存彩度残差スケーリングはインループマッピングが輝度信号に適用されるとき、輝度信号とその対応する彩度信号との間の量子化精度の相互作用を補償するように設計される。彩度残差スケーリングが有効であるか無効であるかは、スライスヘッダにおいてもシグナリングされる。輝度マッピングが有効であり、輝度および彩度成分の2分木分割が現在のスライスに対して無効である場合、輝度依存彩度残差スケーリングが適用されるかどうかを示すために、追加のフラグがシグナリングされる。輝度マッピングが使用されないとき、または現在のスライスに対して2分木分割が有効にされているとき、輝度依存彩度残差スケーリングは常に無効にされる。さらに、彩度残差スケーリングは、4つ以下の彩度サンプルを含むCUに対して常に無効にされる。
イントラおよびインターCUの両方について、彩度残差をスケーリングするために使用されるスケーリングパラメータは、対応するマッピングされた輝度予測サンプルの平均に依存する。スケーリングパラメータは、この段落の直後のボックスに記載されるように導出される:
図4はまた、輝度依存彩度残差スケーリングのための輝度予測サンプルの平均の算出を示す。インターCUの場合、順方向マッピングされた輝度予測Y’predは再構成された彩度値Creconを導出するために、彩度予測Cpredと共に彩度再構成413に供給される彩度残差Cresを導出するために、スケーリングされた彩度残差CresScaleと共に彩度残差スケーリング411に供給される。イントラCUの場合、イントラ予測404はすでにマッピングされたドメインにあるY’predを生成し、インターCUの場合と同様に彩度残差スケーリング411に供給される。
サンプルベースで実行される輝度マッピングとは異なり、CScaleInvは、彩度
CU全体に対して固定される。CScaleInvが与えられると、彩度残差スケーリングは、この段落のすぐ後のボックスに記載されるように適用される。
現在のVVCのような新しい動画像符号化規格では新しい符号化ツールが導入され、新しい符号化ツールのいくつかの例はBDOF(Bi-Directional Optical Flow)、DMV
R(Decoder-side Motion Vector Refinement)、CIIP(Combined Inter and Intra Prediction)、アフィンモード、及びアフィンモードのためのPROF(Prediction Refinement with Optical Flow)である。
現在のVVCでは、BDOF(bi-directional optical flow)が双方向予測符号化ブ
ロックの予測サンプルをリファインするために適用される。
図5は、BDOFプロセスの説明図である。BDOFは双方向予測が使用されるとき、ブロックベースの動き補償予測で実行されるサンプルごとの動きリファインである。各4×4サブブロック501の動きリファイン(vx,vy)はBDOFがサブブロックの周りの1つの6×6ウィンドウΩ内に適用された後に、参照ピクチャリスト0(L0)および参照ピクチャリスト1(L1)の予測サンプル502と503との間の差を最小化することによって算出される。
具体的には、動きリファインの値(vx,vy)がこの段落の直後のボックスに記載されるように導出される。
直前のボックスの値S1,S2,S3,S5,S6は、この段落の直後のボックスに記
載されているようにさらに算出される。


上記の段落[0072]の直後のボックスに記載されるように導出された動きリファインに基づいて、CUの最終的なバイ予測サンプルはこの段落の直後のボックスに示されるように、オプティカルフローモデルに基づいて動き軌道に沿ってL0/L1予測サンプルを補間することによって算出される。
上述のビット深度制御方法に基づいて、BDOFプロセス全体の中間パラメータの最大ビット深度が32ビットを超えず、乗算器への最大入力が15ビット以内であり、すなわち、BDOF実施のために1つの15ビット乗算器で十分であることが保証される。
DMVRは、バイラテラルマッチング予測を使用することによってさらにリファインされ得る、2つの最初にシグナリングされたMVを有するマージブロックのために使用されるバイ予測技法である。
具体的には、DMVRではバイラテラルマッチングを使用して、2つの異なる参照ピクチャ内の現在のCUの動き軌跡に沿った2つのブロック間の最良のマッチングを見つけることによって、現在のCUの動き情報を導出するマッチング処理で使用されるコスト関数は、ローサブサンプリングされたSAD(sum of absolute difference)であるマッチング処理が行われた後、リファインされたMVは予測ステージにおいて動き補償のために使用され、後続のピクチャのための時間的動きベクトル予測、および、リファインされていないMVは、現在のCUの動きベクトルとその空間的に隣接した動きベクトルとの間の動きベクトル予測のために使用される。
連続動き軌跡の仮定の下で、2つの参照ブロックを指す動きベクトルMV0およびMV1は現在のピクチャと2つの参照ピクチャとの間の時間的距離、すなわち、TD0およびTD1に比例する。特殊な場合として、現在のピクチャが時間的に2つの参照ピクチャの間にあり、現在のピクチャから2つの参照ピクチャまでの時間的距離が同じであるとき、バイラテラルマッチングは、ミラーベースの双方向MVになる。
現在のVVCではインター予測方法およびイントラ予測方法がハイブリッドビデオ符号化方式において使用され、各PUは時間ドメインまたは空間ドメインのいずれかにおいて相関を利用するためにインター予測またはイントラ予測を選択することのみを許可されるが、両方においては決して許可されない。しかしながら、以前の文献において指摘されたように、インター予測されたブロックおよびイントラ予測されたブロックによって生成された残差信号は、互いに非常に異なる特性を提示し得る。したがって、2種類の予測を効率的に組み合わせることができれば、予測残差のエネルギーを低減し、符号化効率を向上させるために、より正確な予測をもう1つ期待することができる。加えて、本質的にビデオコンテンツでは、移動するオブジェクトの動きは複雑であり得る。たとえば、古いコンテンツ(たとえば、以前符号化されたピクチャに含まれるオブジェクト)と、出現する新しいコンテンツ(たとえば、以前符号化されたピクチャと異なるオブジェクト)との両方を含む領域が存在し得る。そのようなシナリオでは、インター予測もイントラ予測も、現在のブロックの正確な予測を提供することができない。
予測効率をさらに向上させるために、VVC基準では、マージモードで符号化された1
つのCUのインター予測とイントラ予測とを組み合わせたCIIP(combined inter and intra prediction)が採用される。具体的には、マージCUごとに、CIIPが現在のCUに対して有効であるかどうかを示すために、1つの追加のフラグがシグナリングされる。フラグが1に等しいとき、CIIPは、輝度成分および彩度成分のイントラ予測サンプルを生成するためにプラナー(planar)モードのみを適用する。さらに、等しい重み(すなわち、0.5)が、CIIP CUの最終予測サンプルとしてインター予測サンプルおよびイントラ予測サンプルを平均化するために適用される。
VVCは、動き補償予測のためのアフィンモードもサポートする。HEVCでは、動き補償予測のために、並進動きモデルのみが適用される。現実の世界では、多くの種類の動き、例えば、ズームイン/ズームアウト、回転、遠近運動、および他の不規則な動きがある。VVCでは、アフィン動き補償予測が並進動きに、またはアフィン動きモデルがインター予測に適用されるかどうかを示すために、各インター符号化ブロックに対して1つのフラグをシグナリングすることによって適用される。現在のVVC設計では、4パラメータアフィンモードおよび6パラメータアフィンモードを含む2つのアフィンモードが1つのアフィン符号化ブロックに対してサポートされる。
4パラメータアフィンモデルは、以下のパラメータを有する:それぞれ水平方向および垂直方向の並進運動のための2つのパラメータ、ズーム運動のための1つのパラメータ、および両方向の回転運動のための1つのパラメータ。水平方向のズームパラメータは垂直方向のズームパラメータと同じである。水平回転パラメータは、垂直回転パラメータに等しい。動きベクトルおよびアフィンパラメータのより良好な適応を達成するために、VVCでは、これらのアフィンパラメータが現在のブロックの左上隅および右上隅に位置する2つのMV(制御点動きベクトル(CPMV)とも呼ばれる)に変換される。ブロックのアフィン動きフィールドは、2つの制御点MV(V0、V1)によって記述される。
制御点の動きに基づいて、1つのアフィン符号化ブロックのモーションフィールド(vx、vy)が、この段落の直後のボックスに記載されるように算出される。
6パラメータアフィンモードは、水平方向及び垂直方向の並進運動のための2つのパラメータ、ズーム運動のための1つのパラメータ、及び水平方向の回転運動のための1つのパラメータ、ズーム運動のための1つのパラメータ、及び垂直方向の回転運動のための1つのパラメータを有する。6パラメータアフィン動きモデルは、3つのCPMVにおいて3つのMVで符号化される。
1つの6パラメータアフィンブロックの3つの制御点は、ブロックの左上、右上、および左下の隅に位置する。左上の制御点における動きは並進運動に関連し、右上の制御点における動きは水平方向の回転およびズーム運動に関連し、左下の制御点における動きは垂直方向の回転およびズーム運動に関連する。4パラメータアフィン運動モデルと比較して、6パラメータの水平方向の回転およびズーム運動は、垂直方向のそれらの運動と同じでなくてもよい。
(V0、V1、V2)が、現ブロックの左上、右上、および左下の隅のMVであると仮定すると、それぞれのサブブロックの動きベクトル(vx、vy)はこの段落の直後のボックスに記載されるように、制御点において3つのMVを使用して導出される。
アフィン動き補償の精度を改善するために、オプティカルフローモデルに基づいてサブブロックベースのアフィン動き補償をリファインする現VVCにおいて、PROF(Prediction Refinement with Optical Flow)を用いた予測リファインが現在検討されている
。具体的には、サブブロックベースのアフィン動き補償を実行した後、1つのアフィンブロックの輝度予測サンプルがオプティカルフロー式に基づいて導出された1つのサンプルリファイン値によって修正される。詳細には、PROFの動作を以下の4つのステップとして要約することができる。
ステップ1では、サブブロックベースのアフィン動き補償が実行されて、4パラメータアフィンモデルについて上記の段落[0084]の直後のボックスと、6パラメータアフィンモデルについて上記の段落[0087]の直後のボックスとで導出されたようなサブブロックMVを使用してサブブロック予測I(i,j)が生成される。
ステップ2において、各予測サンプルの空間勾配gx(i,j)およびgy(i,j)は、この段落の直後のボックスに記載されるように算出される。
さらにステップ2において、勾配を算出するために、予測サンプルの1つの追加の行/列が、1つのサブブロックの各サイドに生成される必要がある。メモリ帯域幅および複雑さを低減するために、追加の補間プロセスを回避するために、拡張境界上のサンプルが、参照ピクチャ内の最も近い整数ピクセル位置からコピーされる。
ステップ3では、輝度予測リファイン値がこの段落の直後のボックスに記載されるように算出される。
さらに、現在のPROF設計では、予測リファインを元の予測サンプルに追加した後、この段落のすぐ後のボックスに記載されるように、リファインされた予測サンプルの値を
15ビット以内にクリッピングするために、第4のステップとして1つのクリッピング操作が実行される。
アフィンモデルパラメータおよびサブブロック中心に対するピクセル位置は、サブブロックからサブブロックに変更されないので、Δv(i,j)は第1のサブブロックについて算出され、同じCU内の他のサブブロックについて再利用され得る。サンプル位置(i,j)からサンプルが属するサブブロックの中心までの水平および垂直オフセットをΔx,Δyとし、Δv(i,j)は、この段落の直後のボックスに記載されるように導出することができる。
上記段落[0084]および段落[0087]の直後のボックスにおけるアフィンサブブロックMV導出方程式に基づいて、MV差Δv(i,j)は、この段落の直後のボックスに記載されるように導出することができる。
現在のLMCS設計によれば、彩度残差サンプルは、それらの対応する輝度予測サンプルに基づいてスケーリングされる。より新しい符号化ツールがインターCUに対してイネーブルにされるとき、このインターCUにおけるLMCSを通して彩度残差サンプルをスケーリングするために使用される輝度予測サンプルは、これらのより新しい符号化ツールの順次適用の最後に取得される。
図6は、DMVR、BDOF及びCIIPの全てがイネーブルされた場合のLMCSにおける彩度残差スケーリングのワークフローを示すフローチャートである。輝度L0予測値601およびL1予測値602からの出力は順次DMVR603およびBDOF604に供給され、結果として得られる輝度インター予測値621は輝度イントラ予測値622とともに、輝度イントラ予測605から平均化606に供給され、平均化された輝度予測値623が生成され、彩度残差608とともに、彩度残差スケーリング607に供給され、彩度残差スケーリング607、彩度予測610、および彩度再構成609が協働して最終結果を生成することができる。
現在のLMCS設計は、ビデオ復号プロセスに3つの課題を提示する。第1に、異なるドメイン間のマッピングは、追加的な算出の複雑さおよびオンチップメモリを必要とする。第2に、輝度および彩度スケーリングファクタ導出が異なる輝度予測値を使用するという事実は、追加的な複雑さを導入する。第3に、LMCSとより新しい符号化ツールとの間の相互作用は、復号プロセスに待ち時間を導入する。
第1に、現在のLMCS設計では、元のドメイン内の再構成されたサンプルとマッピングされたドメインとの両方が様々な復号モジュールにおいて使用される。結果として、こ
れらのサンプルはしばしば、異なる復号モジュール間で1つのドメインから別のドメインに変換される必要があり、これは、より高い算出複雑性とより多くのオンチップメモリとの両方を招き得る。
具体的には、イントラモード、CIIPモード、およびIBCモードの場合、1つの現在CUの隣接する再構成ドメインからのマッピングされたドメイン参照サンプルが予測サンプルを生成するために使用される。しかし、インターモードの場合、動き補償予測は、時間参照ピクチャの元のドメイン再構成サンプルを参照として使用して実行される。DPBに記憶された再構成されたサンプルは、元のドメインにもある。
たとえば、インターCUの場合、輝度再構成動作(すなわち、予測サンプルと残差サンプルとの加算)がマッピングされたドメインにおいて実行されるので、元のドメインにおいて生成されたインター予測輝度サンプルは輝度サンプル再構成のために使用される前に、マッピングされたドメインに変換される必要がある。別の例では、イントラCUとインターCUの両方について、逆(または逆方向)マッピングはDPBにそれらを記憶する前に、再構成輝度サンプルをマッピングされたドメインから元のドメインに変換するために常に適用される。そのような設計は、追加の順方向/逆方向マッピング動作のために算出の複雑さを増加させるだけでなく、再構成されたサンプルの複数のバージョンを維持するためにより多くのオンチップメモリを必要とする。
実際のハードウェア実装では、順方向および逆方向(または逆)マッピング関数FwdMapおよびInvMapがルックアップテーブル(LUT)を使用するか、またはオンザフライで算出されるかのいずれかで実装され得る。LUTベースのソリューションが使用されるとき、関数FwdMap、InvMap、およびcScaleInvからの可能な出力要素は事前算出され、LUTとして事前に記憶され得、LUTは次いで、現在のスライス中のすべてのCUの輝度マッピングおよび彩度残差スケーリング動作のために使用され得る。入力ビデオが10ビットであるとすると、FwdMap及びInvMapのLUTのそれぞれには210=1024個の要素があり、LUTのそれぞれの要素は10ビットである。したがって、順方向および逆方向輝度マッピングのLUTのための総ストレージは、2*1024*10=20480ビット=2560バイトに等しい。一方、彩度スケーリングパラメータCScaleInvを導出するために、1つの16エントリLUTテーブルcScaleInvがエンコーダおよびデコーダにおいて維持される必要があり、各々の彩度スケーリングパラメータが32ビットで記憶される。これに対応して、LUT cScaleInvを格納するために使用されるメモリサイズは、16*32=512ビット=64バイトに等しくなる。2560と64との間の差は、順方向および逆方向(逆)マッピング動作によって必要とされる追加のオンチップメモリのスケールを示す。
さらに、現在のVVCなどのより新しいビデオ符号化規格では、イントラ予測とデブロッキングフィルタの両方が上記の隣接ブロックの再構成されたサンプルを使用する。したがって、現在のピクチャ/スライスの幅内の再構成されたサンプルの1つの追加的な行は、ビデオ符号化において「ラインバッファ」としても知られるバッファ内に維持される必要がある。ラインバッファ内の再構成されたサンプルは、少なくとも、1つのCTU内の第1の行に位置するCUのイントラ予測およびデブロッキング動作のための参照として使用される。既存のLMCS設計によれば、イントラ予測およびデブロッキングフィルタは、異なるドメインにおいて再構成されたサンプルを使用する。したがって、オリジナルおよびマッピングされたドメイン再構成サンプルの両方を記憶するために、追加のオンチップメモリが必要となり、これは、ラインバッファサイズをほぼ2倍にする。
ラインバッファサイズの倍増を回避するための1つの実装選択は、ドメインマッピング
動作をオンザフライで実行することである。しかしながら、これは、無視できない複雑算出量の増加を招く。
したがって、LMCSの現在の設計は、異なるドメイン間の必要なマッピングのため、追加的な算出の複雑さおよびオンチップメモリを必要とする。
第2に、LMCSの現在の設計における輝度スケーリングファクタ導出方法と彩度スケーリングファクタ導出方法の両方は対応するスケーリングファクタを導出するために輝度予測サンプル値を使用するが、それらの対応する動作の間に差異がある。
輝度残差スケーリングの場合、スケーリングファクタは、各輝度残差サンプルがそれ自体のスケーリングファクタを有することを可能にすることによって、サンプルごとに導出される。しかしながら、彩度残差スケーリングの場合、スケーリングファクタはCU全体に対して固定され、すなわち、CU内のすべての彩度残差サンプルは、マッピングされた輝度予測サンプルの平均に基づいて算出される同じスケーリングファクタを共有する。
また、輝度残差および彩度残差のスケーリングファクタを算出するために、2つの異なるLUTが使用される。具体的には輝度LUTへの入力が元の輝度予測サンプリング値のマッピングモデルセグメントインデックスであり、一方、彩度LUTへの入力はマッピングされた輝度予測サンプリングの平均値のマッピングモデルセグメントインデックスである。
そのような相違は符号化プロセスに追加的な複雑さをもたらし、輝度および彩度スケーリングファクタ導出への調和されたアプローチが望ましい。
第3に、LMCSの現在の設計の彩度残差スケーリングのために、DMVR、BDOF、およびCIIPの3つのモジュールのすべてなど、より新しい符号化ツールが順次呼び出されて、輝度予測サンプリングを生成することができ、輝度予測サンプリングは、次いで、彩度残差のスケーリングファクタを決定するために使用される。3つのモジュールの算出の複雑さが大きい場合、LMCSの彩度残差スケーリングを実行する前に、それらの成功完了まで待機することは、彩度サンプルの復号のための深刻な待ち時間を引き起こす可能性がある。アフィンCUの場合、彩度サンプルの復号のための待ち時間の問題を引き起こし得るLMCSが続くPROFプロセスを各アフィンCUが実行し得るので、PROFプロセスは待ち時間の問題をもち得る。
さらに、LMCSの現在の設計では、彩度残差スケーリングファクタ導出プロセス中に不要なクリッピング動作が実行され、算出複雑性およびオンチップメモリの追加要求をさらに増加させる。
本開示はLMCSの現在の設計によって提示されるこれらの課題を解決または軽減することを目的とし、より具体的には、本開示が符号化利得を維持しながらハードウェアコーデック実装のためのLMCSの複雑さを低減し得る方式を論じる。
マッピング演算を介して予測/再構成サンプルを変換する既存のLMCSフレームワークを使用する代わりに、予測依存残差スケーリング(PDRS)と呼ばれる1つの新しい方法を、サンプルマッピングなしに直接予測残差をスケーリングするために提案する。提案した方法はLMCSと同様の効果と符号化効率を達成できる、実装の複雑さははるかに小さい。
PDRS手順では、図7に示すように、輝度残差サンプルを復号するために輝度予測サ
ンプルが取得され(701)、輝度予測サンプルを使用してスケーリングファクタが導出され(702)、スケーリングファクタが輝度残差サンプルをスケーリングするために使用され(703)、輝度予測サンプルとスケーリングされた輝度残差サンプルとを加算することによって再構成輝度サンプルが算出される(704)。
予測/再構成輝度サンプルを、輝度予測残差を算出する前に、マッピングされたドメインに直接変換する既存のLMCS方法とは異なり、PDRS手順の提案された方法では、輝度予測残差サンプルがマッピング演算なしに、元のドメインにおける通常の予測プロセスと同じ方法で導出され、輝度予測残差に対するスケーリング演算が後に続く。輝度予測残差のスケーリングは、対応する輝度予測サンプル値と区分線形モデルとに依存する。結果として、現在のLMCS設計における順方向および輝度逆マッピング動作は元のサンプルドメインにおいて維持される復号プロセス中に含まれるすべての予測および再構成サンプルとともに、完全に廃棄され得る。上記の特徴に基づいて、提案した方法を予測依存残差スケーリングと名付けた。
図8は、LMCS処理においてPDRS手順が適用される場合の復号処理のワークフローを示すフローチャートである。これは、異なるドメイン間のマッピングの必要性の除去を示す。ここで、残差復号モジュール(たとえば、エントロピー復号801、逆量子化802、および逆変換803)を除いて、他のすべての復号モジュール(イントラおよびインター予測804、809、812、および816、再構成806および813、ならびにすべてのインループフィルタ807および814を含む)は、元のドメインにおいて動作している。具体的には、輝度サンプルを再構成するために、PDRS手順において提案される手法は輝度予測残差サンプルYresを元の振幅レベルに逆スケーリングし、次いで、それらを輝度予測サンプルYpredに加算するだけでよい。
PDRS手順では、既存のLMCS設計における順方向および輝度サンプル逆マッピング動作が完全に除去される。これは、算出の複雑さを節約/低減するだけでなく、LMCSパラメータを節約するため潜在的なストレージのサイズも低減する。例えば、LUTベースのソリューションが輝度マッピングを実装するために使用されるとき、提案される方法において、2つのマッピングLUT FwdMap[]およびInvMap[](約2560バイト)を格納するために以前に使用されたストレージは、もはや必要とされない。さらに、元のドメインおよびマッピングされたドメインの両方に再構成輝度サンプルを記憶する必要がある既存の輝度マッピング方法とは異なり、PDRS手順における提案された方法は元のドメインにおいてのみすべての予測および再構成サンプルを生成し、維持する。これに対応して、既存の輝度マッピングと比較して、PDRS手順における提案された方法は、イントラ予測およびデブロッキングのために再構成されたサンプルを記憶するために使用されるラインバッファサイズを効率的に半減させることができる。
PDRS手順の1つまたは複数の実施形態によれば、輝度予測サンプルおよび輝度残差サンプルは、輝度予測ブロックおよびその関連する残差ブロック中の1つの同じ位置からのものである。
PDRS手順の1つまたは複数の実施形態によれば、輝度予測サンプルを使用してスケーリングファクタを導出することは、可能な輝度予測サンプル値の全範囲を複数の輝度予測サンプルセグメントに分割することと、予め定められた区分線形モデルに基づいて複数の輝度予測サンプルセグメントの各々について1つのスケーリングファクタを算出することと、複数の輝度予測サンプルセグメントのスケーリングファクタに基づいて輝度予測サンプルのスケーリングファクタを決定することとを含む。
一例では、複数の輝度予測サンプルセグメントのスケーリングファクタに基づいて輝度
予測サンプルのスケーリングファクタを決定することは複数の輝度予測サンプルセグメントのうちの1つのセグメントに輝度予測サンプルを割り振ることと、割り振られた輝度予測サンプルセグメントのスケーリングファクタとして輝度予測サンプルのスケーリングファクタを算出することとを含む。
この例では複数の輝度予測サンプルセグメントが予め定められた16区分LUTテーブルscaleForward中の16個のセグメントを含み、複数の輝度予測サンプルセグメントの各々について1つのスケーリングファクタを算出するための予め定められた区分線形モデルは予め定められたLUTテーブルscaleForward中の16個のセグメントに対応する16個の値を含む。
同じ例で、スケーリングファクタは、この段落の直後のボックスに記載されるように、割り当てられた輝度予測サンプルセグメントに基づいて算出される。
同じ実例では輝度スケーリングファクタScaleYが与えられると、輝度残差サンプルスケーリング法はこの段落の直後のボックスに記載されるように適用することができる。
この例の背後にある動機は、現在のLMCSにおける順方向マッピングが区分線形モデルに基づくことである。元の輝度サンプルおよび輝度予測サンプルの両方が同じ区分(す
なわち、2つのピボットポイントInputPivot[i]およびInputPivot[i+1]によって定義される同じセグメント)に位置する場合、元の輝度サンプルおよび予測輝度サンプルの2つの順方向マッピング関数は、正確に同じになる。これに対応して、Y’res=FwdMap(Yorg)-FwdMap(Ypred)=FwdMap(Yorg-Ypred)==FwdMap(Yres)となる。この式の両側に逆マッピングを適用することによって、対応するデコーダ側再構成演算は、Yrecon=Ypred+InvMap(Y’res)と表すことができる。
言い換えれば、元の輝度サンプルと輝度予測サンプルとの両方が同じ区分に位置する状況では、LMCSにおける輝度マッピング方法がこの可能な実装形態で実装されるように、復号プロセスにおける1つの残差スケーリング動作を通して達成され得る。
そのような結論は元の輝度サンプルおよび輝度予測サンプルの両方が2つのピボットポイントInputPivot[i]およびInputPivot[i+1]によって定義される同じセグメント内に位置するという仮定に基づいて導出されるが、この例のこの可能な実装は元の輝度サンプルおよび輝度予測サンプルが区分線形モデルの異なるセグメント内に位置する場合であっても、VVCにおける既存の輝度マッピング動作のための単純化および/または近似として依然として使用され得る。実験結果は、このような単純化および/または近似が符号化性能にほとんど影響を与えないことを示している。
繰り返すと、この例は、元の輝度サンプル値と予測された輝度サンプル値の両方が区分線形モードの同じセグメント内に位置するという仮定に基づいている。この場合、元の輝度サンプルおよび予測された輝度サンプルに適用される順方向/逆方向マッピング関数は同じであり、したがって、単に輝度予測サンプルに依存して対応する残差スケーリングファクタを算出することは安全である。
しかしながら、CUの予測サンプルが十分に正確でない場合(たとえば、参照サンプルから遠く離れているサンプルが通常はあまり正確でないと予測されるイントラ予測CUの場合)、予測サンプルおよび元のサンプルは、区分線形モデルの異なるセグメントに位置することが多い。この場合、予測サンプル値に基づいて導出されたスケーリングファクタは元の(すなわち、マッピングされていない)ドメイン内の残差サンプルとマッピングされたドメイン内の残差サンプルとの間の元のマッピング関係を反映する際に信頼できない可能性がある。
図9は、スケーリングファクタを導出するために予測サンプルを単に使用することによって引き起こされる残差マッピング誤差の説明図である。図9において、三角形の中実の点は区分線形機能における様々なセグメントのピボット制御点を表し、円形の中実の点は元のサンプル値および予測サンプル値を表し、YorgおよびYpredは元の(すなわち、マッピングされていない)ドメインにおける元のサンプルおよび予測サンプルであり、Y’orgおよびY’predは、それぞれ、YorgおよびYpredのマッピングされたサンプルである。YresおよびY’resはVVCにおける既存のサンプルベースの輝度マッピング法が適用されるときの、元のドメインおよびマッピングされたドメインにおける対応する残差であり、Y’resScaleは、提案された輝度残差スケーリング方式に基づいて導出されるマッピングされた残差サンプルである。図9に示されるように、元のサンプルおよび予測サンプルは区分線形モデルの同じ区間にないので、予測サンプルに基づいて導出されたスケーリングファクタはマッピングされたドメイン(すなわち、Y’res)における元の残差を近似するスケーリングされた残差(すなわち、Y’resScale)を生成するのに十分に正確でないことがある。
第2の例では、元の輝度サンプル値と予測された輝度サンプル値の両方が区分線形モー
ドの同じセグメント内に位置するという仮定は必要ではない。
この第2の例では輝度予測サンプルが位置する区分線形モデルのセグメントから直接スケーリングファクタを導出する代わりに、スケーリングファクタはN(Nは正の整数)の隣接セグメントのスケーリングファクタの平均として算出される。
この第2の例では、複数の輝度予測サンプルセグメントのスケーリングファクタに基づいて輝度予測サンプルのスケーリングファクタを決定することは複数の輝度予測サンプルセグメントのうちの1つのセグメントに輝度予測サンプルを割り振ることと、割り振られた輝度予測サンプルセグメントに隣接するいくつかの輝度予測サンプルセグメントのスケーリングファクタの平均として輝度予測サンプルのスケーリングファクタを算出することとを含む。
より具体的には、この第2の例の1つの可能な実装形態ではスケーリングファクタが以下のステップで説明するように、割り振られた輝度予測サンプルセグメントに基づいて算出され得る。
1)元のドメインにおいてPredYが属する区分線形モデルが対応するセグメントインデックスIdxYを見つけるか、または取得する。
2)Y’res≧0の場合、輝度残差スケーリングファクタは以下のように算出される:


3)そうでない場合(すなわち、Y’res<0)、輝度残差スケーリングファクタは、以下のように算出される:


ここで、scaleForward[i], i=0...15は、予め定められた16区分LUTであり、以下の
ように算出される:
scaleForward[i]=(OrgCW<<SCALE_FP_PREC)/SignaledCW[i]
こで、OrgCWおよびSignaledCW[i]は元のドメインおよびマッピングされたドメインにおけるi番目のセグメントのコードワードの数であり、SCALE_FP_PRECは、スケーリングファクタの精度である。
上述した実装と他の点では同一であるこの第2の例の第2の可能な実装形態では、スケーリングファクタがこの段落の直後のボックスに記載されるように、割り当てられた輝度予測サンプルセグメントに基づいて算出され得る:
この第2の例の上記の2つの可能な実装形態は、割り当てられたセグメントに基づくN個の輝度予測サンプルドメイン値セグメントの選択においてのみ異なる。
1つの彩度サンプル再構成手順では、図10に示すように、入力位置における輝度残差サンプルおよび彩度残差サンプルの両方を復号するために輝度予測サンプル値が取得され(1001)、次いで、輝度残差サンプルに関連する輝度予測サンプルが取得され(1002)、次いで、彩度残差サンプルに関連する彩度予測サンプルが取得され(1003)、輝度予測サンプルが輝度残差サンプルのための第1のスケーリングファクタおよび彩度残差サンプルのための第2のスケーリングファクタを導出するために使用され(1004)、輝度残差サンプルをスケーリングするために第1のスケーリングファクタが使用され(1005)、彩度残差サンプルをスケーリングするために第2のスケーリングファクタが使用され(1006)、輝度予測サンプルおよびスケーリングされた輝度残差サンプルを加算することによって再構成輝度サンプルが算出され(1007)、彩度予測サンプルおよびスケーリングされた彩度残差サンプルを加算することによって再構成された彩度サンプルが算出される(1008)。
彩度サンプル再構成手順はより統一された設計を達成するために、輝度残差および彩度残差のスケーリング方法を調和させることを目的とする。
彩度サンプル再構成手順の1つまたは複数の実施形態によれば、輝度予測サンプル値は、入力位置を含む符号化ユニット(CU)内のすべての輝度予測サンプルの平均である。これらの実施形態では彩度スケーリング導出方法が輝度残差についてのスケーリングファクタを算出するために使用され、より具体的には各輝度残差サンプルについて1つのスケーリングファクタを別個に導出する代わりに、輝度予測サンプルの平均に基づいて算出される1つの共有スケーリングファクタがCU全体の輝度残差サンプルをスケーリングするために使用される。
彩度サンプル再構成手順の別の実施形態によれば、輝度予測サンプル値は、入力位置を含む符号化ユニット(CU)からサブ分割された予め定義されたサブブロック内のすべての輝度予測サンプルの平均である。この実施形態では、1つのCUが最初に、複数のM×N個のサブブロックに等しく分割され、次いで、サブブロックごとに、サブブロックの輝度残差と彩度残差との両方をスケーリングするために使用される対応するスケーリングファクタを導出するために、すべてまたは部分的な輝度予測サンプルが使用される。第1の方法と比較して、第2の方法は、サブブロックの外側にある相関の低い輝度予測サンプル
がサブブロックのスケーリングファクタを算出することから除外されるので、推定されたスケーリングファクタの空間精度を改善することができる。一方、第2の方法はまた、1つのサブブロックにおける輝度および彩度残差のスケーリングがサブブロックの輝度予測が終了した直後に、すなわち、CU全体の輝度予測サンプルの完全な生成を待つことなく開始され得ることを前提として、輝度および彩度残差再構成の待ち時間を低減することができる。
彩度サンプル再構成手順の第3の実施形態によれば、輝度予測サンプルドメイン値は、コロケートされた輝度予測サンプルを含む。この実施形態では、輝度残差スケーリング方法が彩度残差をスケーリングするように拡張され、各彩度残差サンプルについての異なるスケーリングファクタがその並置された輝度予測サンプル値に基づいて導出される。
彩度サンプル再構成手順の上記の実施形態では、彩度残差のスケーリングを行うために輝度スケーリングファクタを算出するために使用されるのと同じLUTを使用することが提案される。一例では、彩度残差のためのCUレベルスケーリングファクタScaleCを導出するために、以下のようにすることができる:
1)avgYとして表される、CU内の(元のドメインで表される)輝度予測サンプルの平均を算出する。
2)avgYが属する区分線形モデルの対応するセグメントインデックスIdxYを見つけるか、取得する。
3)ScaleCの値を以下のように算出する:
ScaleC=scaleForward[IdxY]
ここで、scaleForward[i], i=0...15は、予め定められた16区分LUTであり、以下の
ように算出される:
scaleForward[i]=(OrgCW<<SCALE_FP_PREC)/SignaledCW[i]
ここで、OrgCWおよびSignaledCW[i]は元のドメインおよびマッピングされたドメインにおけるi番目のセグメントのコードワードの数であり、SCALE_FPはスケーリングファクタの精度である。
上記の例は、彩度残差のためのスケーリングファクタが現在のCUのサブブロックごとに導出される場合に容易に拡張され得る。その場合、上記の第1のステップでは、avgYがサブブロックの元のドメイン内の輝度予測サンプルの平均として算出され、一方、ステップ2およびステップ3は同じままである。
第2の彩度サンプル再構成手順では図11に示すように、符号化ユニット(CU)のための輝度予測プロセス中に、所定の中間輝度予測ステージのいくつかをスキップすることによって、複数の輝度予測サンプルが取得され(1101)、取得された複数の輝度予測サンプルはCUにおける彩度残差サンプルのためのスケーリングファクタを導出するために使用され(1102)、スケーリングファクタはCUにおける彩度残差サンプルをスケーリングするために使用され(1103)、再構成された彩度サンプルはCUにおける彩度予測サンプルとスケーリングされた彩度残差サンプルとを加算することによって算出される(1104)。
第2の彩度サンプル再構成手順の1つまたは複数の実施形態によれば、予め定められた中間輝度予測ステージは、DMVR(Decoder-side Motion Vector Derivation)、BD
OF(Bi-Directional Optical Flow)、およびCIIP(Combined Inter and Intra Prediction)の1つまたは複数の双方向予測モジュールを含む。これらの実施形態ではDMVR、BDOF/PROF、CIIPイントラ/インター結合プロセスの前に導出されたインター予測サンプルは彩度残差のためのスケーリングファクタを導出するために使用される。
図12は、DMVR、BDOF、およびCIIPが彩度スケーリングのための輝度予測サンプルを生成するために適用されない、第2の彩度サンプル再構成手順のこの実施形態の一例におけるLMCS復号プロセスのワークフローを示すフローチャートである。ここで、DMVR1203、BDOF1204、および/またはCIIPの輝度イントラ予測部1205が完全に終了するのを待つ代わりに、初期L0およびL1輝度予測1201および1202に基づく予測サンプル1221および1222が利用可能になるとすぐに、彩度残差スケーリングプロセス1208を開始することができる。
図12では、元の平均化演算1206に加えて追加の平均化演算1211がDMVR1203、BDOF1204、および/またはCIIP1205の前に初期L0予測サンプル1221およびL1予測サンプル1222を組み合わせるために必要とされる。
複雑さを低減するために、第2の彩度サンプル再構成手順のこの実施形態の第2の例では、最初のL0予測サンプルを使用して、彩度残差のためのスケーリングファクタを導出することができる。
図13は、彩度スケーリングのための輝度予測サンプルを生成するために初期ユニ予測信号が適用される、第2の彩度サンプル再構成手順のこの実施形態の第2の例におけるLMCS復号プロセスのワークフローを示すフローチャートである。元の平均化動作1306に加えて追加の平均化演算は必要とされない。初期L0予測サンプル1321はDMVR1303、BDOF1304、および/またはCIIP1305の前に、彩度残差のためのスケーリングファクタを導出するために使用される。
第2の彩度サンプル再構成手順のこの実施形態の第3の例では、1つの初期予測信号(L0またはL1)が彩度残差スケーリングファクタを導出するために使用される輝度予測サンプルとして適応的に選択される。この例の1つの可能な実装形態では初期予測信号(L0またはL1)の間で、その参照ピクチャが現在のピクチャに対してより小さいピクチャ順序カウント(POC)距離を有するものが、彩度残差スケーリングファクタを導出するために選択される。
第2の彩度サンプル再構成手順の別の実施形態では、彩度残差スケーリングファクタを決定するために使用されるインター予測サンプルを生成するためのCIIPを有効にしながら、DMVR、BDOF/PROFのみを無効にすることが提案される。具体的には、この方法ではDMVRおよびBDOF/PROFの前に導出されたインター予測サンプルが平均化され、次いで、CIIPのイントラ予測サンプルと組み合わされ、最後に、組み合わされた予測サンプルが彩度残差スケーリングファクタを決定するための予測サンプルとして使用される。
第2の彩度サンプル再構成手順のさらに別の実施形態では、彩度残差スケーリングファクタを決定するために使用される予測サンプルを生成するためのDMVRおよびCIIPを維持しながら、BDOF/PROFのみを無効にすることが提案される。
第2の彩度サンプル再構成手順のさらに別の実施形態では、彩度残差スケーリングファクタを決定するために使用される輝度予測サンプルを導出する際にDMVRを無効にしながら、BDOF/PROFおよびCIIPを維持することが提案される。
さらに、第2の彩度サンプル再構成手順の上記の実施形態における方法は彩度予測残差スケーリングの待ち時間を低減するために設計されているように示されているが、それらの方法は輝度予測残差スケーリングの待ち時間を低減するためにも使用され得ることに言
及する価値がある。たとえば、それらの方法はすべて、「予測依存残差スケーリングに基づく輝度マッピング」で説明したPDRS方法にも適用され得る。
既存のDMVR設計によれば、算出の複雑さを低減するために、DMVR動きリファインのために使用される予測サンプルは、デフォルトの8タップ補間の代わりに2タップバイリニアフィルタを使用して生成される。リファインされた動きが決定された後、現在のCUの最終予測サンプルを生成するために、デフォルトの8タップフィルタが適用される。したがって、DMVRによって引き起こされる彩度残差復号待ち時間を低減するために、バイリニアフィルタによって生成される輝度予測サンプル(現在のCUがバイ予測される場合、L0およびL1予測サンプルの平均)を使用して、彩度残差のスケーリングファクタを決定することが提案される。
1つの彩度残差サンプル再構成手順によれば、図14に示すように、DMVR(Decoder-side Motion Vector Derivation)のバイリニアフィルタの出力から1つまたは複数の
輝度予測サンプル値が選択され(1401)、1つまたは複数の選択された輝度予測サンプル値は入力ビデオの元の符号化ビット深度と同じビット深度を有する別の複数の輝度予測サンプル値に調整され(1402)、入力ビデオの元の符号化ビット深度と同じビット深度を有する輝度予測サンプル値は1つまたは複数の彩度残差サンプルを復号するためのスケーリングファクタを導出するために使用され(1403)、スケーリングファクタは1つまたは複数の彩度残差サンプルをスケーリングするために使用され(1404)、1つまたは複数の彩度残差サンプルは1つまたは複数のスケーリングされた彩度残差サンプルとそれらの対応する彩度予測サンプルとを加算することによって再構成される(1405)。
彩度残差サンプル再構成手順の1つまたは複数の実施形態では、DMVRのバイリニアフィルタの出力から1つまたは複数の輝度予測サンプル値を選択することはDMVRのバイリニアフィルタの出力からL0およびL1輝度予測サンプルを選択することを含む。
図15は、彩度残差サンプル再構成手順の1つのそのような実施形態におけるLMCS復号プロセスのワークフローを示すフローチャートである。DMVR1503のバイリニアフィルタ1512成分の出力からのL0およびL1予測サンプル1521および1522は1つまたは複数の彩度残差サンプルを復号するために彩度残差スケーリング1507において使用されるべき彩度残差スケーリング入力1523を導出するために、平均1511に供給される。
これらの実施形態では、ビットコード深さの問題がある。DMVRによって使用される内部記憶サイズを節約するために、DMVRのバイリニアフィルタによって生成される中間L0およびL1予測サンプルは、10ビット精度である。これは、14ビットに等しい、通常のバイ予測の即時予測サンプルの表現ビット深度とは異なる。したがって、バイリニアフィルタから出力される中間予測サンプルはその異なる精度のために、彩度残差スケーリングファクタを決定するために直接適用することができない。
この問題に対処するために、最初に、DMVR中間ビット深度を、正規の動き補償補間に使用される中間バイ深度と整合させる、すなわち、ビット深度を10ビットから14ビットに増加させることが提案される。その後、通常のバイ予測信号を生成するために適用される既存の平均プロセスは、彩度残差スケーリングファクタの決定のための対応する予測サンプルを生成するために再利用され得る。
これらの実施形態の一例では1つまたは複数の選択された輝度予測サンプル値を、入力ビデオの元の符号化ビット深度と同じビット深度を有する別の複数の輝度予測サンプル値
に調整することはDMVRのバイリニアフィルタの出力から14ビットへ左シフトを通してL0およびL1輝度予測サンプルの内部ビット深度を増加させることと、14ビットのシフトされたL0およびL1輝度予測サンプル値を平均することによって14ビット平均輝度予測サンプル値を取得することと、右シフトを通して14ビット平均輝度予測サンプル値の内部ビット深度を入力ビデオの元の符号化ビット深度に変更することによって14ビット平均輝度予測サンプル値を変換することと、を含む。
より具体的には、この例では、彩度スケーリングファクタがこの段落の直後のボックスに記載されるステップによって決定される。
彩度残差サンプリング再構成手順の他の実施形態ではDMVRのバイリニアフィルタの出力から1つまたは複数の輝度予測サンプリング値を選択し、入力ビデオの元の符号化ビット深度と同じビット深度で1つまたは複数の選択された輝度予測サンプリング値を別の複数の輝度予測サンプリング値に調整することはDMVRのバイリニアフィルタの出力からL0およびL1輝度予測サンプリングから1つの輝度予測サンプリングを選択することと、シフトを通して1つの選択された輝度予測値の内部ビット深度を入力ビデオの元の符号化ビット深度に変更することによって1つの選択された輝度予測サンプリングを調整することと、入力ビデオの元の符号化ビット深度と同じビット深度で調整された輝度予測サンプリングを輝度予測サンプリングとして使用することと、を含む。
図16は、彩度残差サンプル再構成手順の1つのそのような他の実施形態におけるLMCS復号プロセスのワークフローを示すフローチャートである。DMVR1603のバイ
リニアフィルタ1612成分の出力からのL0予測サンプル1621は1つまたは複数の彩度残差サンプルを復号するために、彩度残差スケーリング1607において使用される。
彩度残差サンプル再構成手順の1つのそのような他の実施形態の一例では、彩度スケーリングファクタがバイリニアフィルタから出力された輝度サンプルを、この段落の直後のボックスに記載されるように、入力ビデオの元の符号化ビット深度にシフトすることによって決定される。
第2の彩度残差サンプル再構成手順に従って、図17に示されるように、1つ以上の輝度参照サンプル値が参照ピクチャ(1701)から選択され、1つ以上の選択された輝度参照サンプル値が輝度サンプル値(1702)に変換され、変換された輝度サンプル値がスケーリングファクタ(1703)を導出するために使用され、スケーリングファクタが1つ以上の彩度残差サンプル(1704)をスケーリングするために使用され、1つ以上のスケーリングされた彩度残差サンプルおよびそれらの対応する彩度予測サンプル(1705)を加えることによって1つ以上の彩度残差サンプルが再構成される。
第2の彩度残差サンプル再構成手順の1つまたは複数の実施形態では参照ピクチャから1つまたは複数の輝度参照サンプル値を選択し、1つまたは複数の選択された輝度参照サンプル値を輝度サンプル値に変換することはL0およびL1参照ピクチャからL0およびL1輝度参照サンプル値の両方を取得することと、変換された輝度サンプル値としてL0およびL1輝度参照サンプル値を平均化することとを含む。
第2の彩度残差サンプル再構成手順の他の実施形態では参照ピクチャから1つまたは複数の輝度参照サンプルを選択し、1つまたは複数の選択された輝度参照サンプルを輝度サンプル値に変換することはL0およびL1の参照ピクチャからL0およびL1の輝度参照サンプル値から1つの輝度参照サンプル値を選択することと、変換された輝度サンプル値として1つの選択された輝度参照サンプル値を使用することとを含む。
既存のLMCS設計によれば、現在のCUが位置する64×64領域に隣接する再構成輝度サンプルは、領域内のCUの彩度残差スケーリングファクタを算出するために使用される。さらに、1つのクリッピング動作、すなわちClip1()が、平均が算出される前に、内部ビット深度のダイナミックレンジ(すなわち、[0,(1<<bitDepth)-1]の範囲)に再構成された輝度隣接サンプルをクリッピングするために適用される。
具体的には、この方法がまず、64個の左隣接輝度サンプルと、現CUが属する対応する64×64領域の64個の上隣接輝度サンプルとをフェッチし、次いで、左隣接サンプルと上隣接サンプルの平均、すなわちavgYを算出し、LMCS区分線形モデルにおい
てavgYのセグメントインデックスYIdxを見つけ、最後に、彩度残差CScale
Inv=cScaleInv[YIdx]を導出する。
具体的には現在のVVCドラフトにおいて、対応する平均輝度を導出する方法は以下の通りである。Clip1()動作の適用が顕著なフォントフェースおよびサイズで示される。:
しかしながら、再構成プロセスでは予測サンプルを1つのCUの残差サンプルに追加した後、結果として得られたサンプル値は内部ビット深度のダイナミックレンジにすでにクリッピングされている。これは、現行の64×64領域の周りの全ての隣接する再構成輝度サンプルは、内部ビット深度の範囲内にあることが保証されることを意味する。したがって、それらの平均、すなわちavgYもまた、この範囲を超えることはできない。その結果、既存のクリッピング(すなわち、Clip1())は、対応する彩度残差スケーリ
ングファクタを算出するために不要である。LMCS設計の複雑さおよびメモリ要件をさらに低減するために、彩度残差スケーリングファクタを導出するために、隣接する再構成輝度サンプルの平均を算出するときにクリッピング演算を除去することが提案される。
本願の第1の態様によれば、図18に示すように、CUが位置する第2所定領域に隣接する第1所定領域からの複数の再構成輝度サンプルがCUの復号中に選択され(1801)、複数の再構成輝度サンプルの平均が算出され(1802)、CUを復号するための彩度残差スケーリングファクタを導出する際に、クリッピングなしに、複数の再構成輝度サンプルの平均が直接使用される(1803)。
本願の第1の態様の1つまたは複数の実施形態では、複数の再構成輝度サンプルの平均が複数の再構成輝度サンプルの算術平均である。
本願の第1の態様の1つまたは複数の実施形態では、CUを復号するための彩度残差スケーリングファクタを導出する際に、クリッピングすることなく、複数の再構成輝度サンプルの平均を直接使用することは予め定められた区分線形モデルにおいて平均のためのセグメントインデックスを識別することと、セグメントの線形モデルの勾配に基づいてCUを復号するための輝度残差スケーリングファクタを導出することとを含む。
本願の第1の態様の1つまたは複数の実施形態では、第1所定領域内の複数の再構成輝度サンプルが第1所定領域内の輝度予測サンプルおよび輝度残差サンプルを生成し、輝度残差サンプルを輝度予測サンプルに加算し、加算された輝度サンプルを符号化ビット深度のダイナミックレンジにクリッピングすることによって生成される。
本願の第1の態様の1つまたは複数の実施形態では、複数の再構成輝度サンプルが複数の順方向マッピングされたインター輝度再構成サンプルである。
本願の第1の態様の1つまたは複数の実施形態において、第2所定領域は、CUが位置する64×64領域である。
一例では図19に示すように、第1所定領域は第2所定領域1904の直ぐ上の1×64領域1902内の最上隣接サンプルを含み得る。代替または追加として、第1所定領域は、第2所定領域1904の直ぐ左にある64×1領域1903内の左隣接サンプルを含み得る。
1つまたは複数の例では、説明する機能がハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶され、またはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体はデータ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は、概して、(1)非一時的有形コンピュータ可読記憶媒体、または(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は本願で説明される実装の実行のための命令、コード、および/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
さらに、上記の方法は、ASIC(application specific integrated circuits)、D
SP(digital signal processors)、DSPD(digital signal processing devices)、PLD(programmable logic devices)、FPGA(field programmable gate arrays)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または他の電子構成要素を含む、1つまたは複数の回路を含む装置を使用して実装され得る。装置は上記の方法を実行するために、回路を他のハードウェアまたはソフトウェア構成要素と組み合わせて使用することができる。上記で開示した各モジュール、サブモジュール、ユニット、またはサブユニットは、1つまたは複数の回路を少なくとも部分的に使用して実装され得る。
本開示は、特定用途向け集積回路、プログラマブルロジックアレイ、および他のハードウェア装置などの専用ハードウェア実装形態を含み得る。ハードウェア実装形態は、本明細書で説明する方法のうちの1つまたは複数を実装するように構成され得る。様々な実装形態の装置およびシステムを含み得る例は、様々な電子およびコンピューティングシステムを広く含むことができる。本明細書で説明する1つまたは複数の例は、モジュール間で、モジュールを通して、または特定用途向け集積回路の一部として通信することができる、関連する制御信号およびデータ信号を有する2つ以上の特定の相互接続されたハードウェアモジュール、または装置を使用して、機能を実装することができる。したがって、開示される装置またはシステムは、ソフトウェア、ファームウェア、およびハードウェア実装形態を包含し得る。「モジュール」、「サブモジュール」、「回路」、「サブ回路」、「ユニット」、または「サブユニット」などという用語は、1つまたは複数のプロセッサによって実行され得るコードまたは命令を記憶するメモリ(共有、専用、またはグループ)を含み得る。モジュールは本明細書では記憶されたコードまたは命令を伴うかまたは伴わない、1つまたは複数の回路を含み得る。モジュール、または回路は、接続される1つまたは複数の構成要素を含み得る。
本開示の他の実施形態は、本明細書の考察および本明細書に開示される本開示の実施から当業者には明らかであろう。本願はその一般的な原理に従う本開示の任意の変形、使用、または適応を網羅することを意図しており、本開示からのそのような逸脱は、当技術分野において知られている、または慣例的な実践の範囲内にある。本明細書及び各実施形態は単なる例示を意図するものであり、本開示の真の範囲及び趣旨は、特許請求の範囲に記載する。
本開示は、上述され、添付の図面に示されたそのままの例に限定されず、その範囲から逸脱することなく、様々な修正および変更を行うことができることが理解されるであろう。本開示の範囲は、添付の特許請求の範囲によってのみ限定されることが意図される。
本出願は、2020年3月27日に出願された米国仮特許出願第63/001,229号の利益を主張する。前述の出願の全開示は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。

Claims (10)

  1. 符号化ユニットが位置する第2所定領域に隣接する第1所定領域から複数の再構成輝度サンプルを選択し、
    複数の前記再構成輝度サンプルの平均を算出し、
    クリッピングなしに、複数の前記再構成輝度サンプルの平均を直接用いて、彩度残差スケーリングファクタを導出し、
    LMCS(luma mapping with chroma scaling)関連情報をビットストリームに符号化する、
    ビデオ符号化方法。
  2. 複数の前記再構成輝度サンプルの平均は、複数の前記再構成輝度サンプルの算術平均である、請求項1に記載のビデオ符号化方法。
  3. クリッピングなしに、複数の前記再構成輝度サンプルの平均を直接用いて、彩度残差スケーリングファクタを導出することは、
    予め定められた区分線形モデルにおける平均のセグメントインデックスを識別し、
    前記セグメントインデックスに基づいて輝度残差スケーリングファクタを導出する、
    ことを含む、請求項1に記載のビデオ符号化方法。
  4. 複数の前記再構成輝度サンプルは、
    輝度予測サンプルおよび輝度残差サンプルを生成し、
    前記輝度予測サンプルに前記輝度残差サンプルを加算し、
    前記輝度予測サンプルを符号化ビット深度のダイナミックレンジにクリッピングする、
    ことによって生成される、
    請求項1に記載のビデオ符号化方法。
  5. 複数の前記再構成輝度サンプルは、順方向マッピングされたインター予測サンプルに基づいて導出される、請求項1に記載のビデオ符号化方法。
  6. 前記第2所定領域は、前記符号化ユニットが位置する64×64領域である、請求項1に記載のビデオ符号化方法。
  7. 前記第1所定領域は、前記第2所定領域の直ぐ上の1×64領域と、前記第2所定領域の直ぐ左の64×1領域とを含む、請求項6に記載のビデオ符号化方法。
  8. 1以上のプロセッサと、
    1以上の前記プロセッサに結合された非一時的記憶装置と、
    複数のプログラムであって、
    1以上の前記プロセッサによって実行されると、コンピューティング装置に、請求項1~請求項7のいずれか1項に記載の方法を実行させ、生成されるビットストリームを前記非一時的記憶装置に格納する、
    前記非一時的記憶装置に記憶された複数のプログラムと、
    を含むコンピューティング装置。
  9. 1以上のプロセッサと、1以上の前記プロセッサに結合された非一時的記憶装置と、を有するコンピューティング装置によって実行されると、1以上の前記プロセッサに、請求項1~請求項7のいずれか1項に記載の方法を実行させ、ビットストリームを生成し、生成される前記ビットストリームを前記非一時的記憶装置に格納する、
    プログラム。
  10. ビットストリームを格納する方法であって、
    前記ビットストリームは符号化方法によって生成され、
    前記符号化方法は、
    符号化ユニットが位置する第2所定領域に隣接する第1所定領域から複数の再構成輝度サンプルを選択し、
    複数の前記再構成輝度サンプルの平均を算出し、
    クリッピングなしに、複数の前記再構成輝度サンプルの平均を直接用いて、彩度残差スケーリングファクタを導出し、
    LMCS(luma mapping with chroma scaling)関連情報をビットストリームに符号化する、
    ことを含む、
    ビットストリームを格納する方法。
JP2023222291A 2020-03-27 2023-12-28 ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法 Pending JP2024038198A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063001229P 2020-03-27 2020-03-27
US63/001,229 2020-03-27
JP2022558379A JP7460792B2 (ja) 2020-03-27 2021-03-26 ビデオ符号化方法、およびコンピューティング装置
PCT/US2021/024493 WO2021195569A1 (en) 2020-03-27 2021-03-26 Methods and devices for prediction dependent residual scaling for video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022558379A Division JP7460792B2 (ja) 2020-03-27 2021-03-26 ビデオ符号化方法、およびコンピューティング装置

Publications (1)

Publication Number Publication Date
JP2024038198A true JP2024038198A (ja) 2024-03-19

Family

ID=77890760

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022558379A Active JP7460792B2 (ja) 2020-03-27 2021-03-26 ビデオ符号化方法、およびコンピューティング装置
JP2023222291A Pending JP2024038198A (ja) 2020-03-27 2023-12-28 ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022558379A Active JP7460792B2 (ja) 2020-03-27 2021-03-26 ビデオ符号化方法、およびコンピューティング装置

Country Status (7)

Country Link
US (1) US20230050261A1 (ja)
EP (1) EP4128770A4 (ja)
JP (2) JP7460792B2 (ja)
KR (1) KR20220141897A (ja)
CN (1) CN115315948A (ja)
MX (1) MX2022011798A (ja)
WO (1) WO2021195569A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230069089A1 (en) * 2021-08-31 2023-03-02 Mediatek Inc. Video decoder with hardware shared between different processing circuits and associated video decoding method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR122020007923B1 (pt) * 2010-04-13 2021-08-03 Ge Video Compression, Llc Predição interplano
US10652588B2 (en) * 2015-09-21 2020-05-12 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
CN116095314A (zh) * 2017-06-29 2023-05-09 杜比实验室特许公司 整合的图像整形和视频编码
KR102457485B1 (ko) * 2018-02-14 2022-10-24 돌비 레버러토리즈 라이쎈싱 코오포레이션 레이트 왜곡 최적화를 이용한 비디오 코딩에서의 이미지 재성형
CN112740688A (zh) * 2018-09-17 2021-04-30 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
KR20210135502A (ko) * 2019-03-08 2021-11-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 변형 정보의 시그널링
WO2020185888A1 (en) * 2019-03-12 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Video coding using multi-model linear model
WO2020204419A1 (ko) * 2019-04-03 2020-10-08 엘지전자 주식회사 적응적 루프 필터 기반 비디오 또는 영상 코딩
US20230145618A1 (en) * 2020-03-20 2023-05-11 Canon Kabushiki Kaisha High level syntax for video coding and decoding

Also Published As

Publication number Publication date
CN115315948A (zh) 2022-11-08
EP4128770A1 (en) 2023-02-08
JP2023510428A (ja) 2023-03-13
US20230050261A1 (en) 2023-02-16
WO2021195569A1 (en) 2021-09-30
KR20220141897A (ko) 2022-10-20
MX2022011798A (es) 2022-10-07
EP4128770A4 (en) 2024-04-10
JP7460792B2 (ja) 2024-04-02

Similar Documents

Publication Publication Date Title
US10715827B2 (en) Multi-hypotheses merge mode
US11172203B2 (en) Intra merge prediction
US11297348B2 (en) Implicit transform settings for coding a block of pixels
US11553173B2 (en) Merge candidates with multiple hypothesis
TW201946470A (zh) 用於照度補償的信令
CN113557721A (zh) 组合帧间和帧内预测模式的受约束和调节的应用
US20220116616A1 (en) Methods and devices for prediction dependent residual scaling for video coding
JP2024038198A (ja) ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法
US20240137516A1 (en) Methods and devices for prediction dependent residual scaling for video coding
JP7367237B2 (ja) ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス
WO2021222871A1 (en) Methods and devices for prediction dependent residual scaling for video coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231228