JP7369124B2 - 結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御 - Google Patents

結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御 Download PDF

Info

Publication number
JP7369124B2
JP7369124B2 JP2020533193A JP2020533193A JP7369124B2 JP 7369124 B2 JP7369124 B2 JP 7369124B2 JP 2020533193 A JP2020533193 A JP 2020533193A JP 2020533193 A JP2020533193 A JP 2020533193A JP 7369124 B2 JP7369124 B2 JP 7369124B2
Authority
JP
Japan
Prior art keywords
block
video data
hdr
video
wcg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020533193A
Other languages
English (en)
Other versions
JP2021507614A (ja
JP2021507614A5 (ja
Inventor
ルサノフスキー、ドミトロ
ラマスブラモニアン、アダルシュ・クリシュナン
カルチェビチ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2021507614A publication Critical patent/JP2021507614A/ja
Publication of JP2021507614A5 publication Critical patent/JP2021507614A5/ja
Application granted granted Critical
Publication of JP7369124B2 publication Critical patent/JP7369124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

優先権の主張
[0001] 本出願は、2017年12月19日付で出願された米国仮特許出願第62/607、887号の利益を主張する、2018年12月18日付で出願された米国特許出願第16/224,320号の優先権を主張し、上記に列挙した出願の各々の全内容が、参照により組み込まれている。
[0002] 本開示は、ビデオ符号化およびビデオ復号に関する。
[0003] デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレイヤ、ビデオゲームデバイス、ビデオゲーム機、セルラー電話機もしくは衛星無線電話機、いわゆる「スマートフォン」、ビデオ会議デバイス、ビデオストリーミングデバイスなどを含む広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4、Part10、アドバンストビデオコーディング(AVC)によって定義されている規格、近年完成した高効率ビデオコーディング(HEVC)規格、およびそのような規格の拡張に記載されたものなどの、ビデオ圧縮技法を実装する。これらのビデオデバイスは、そのようなビデオ圧縮技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶することができる。
[0004] ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的(ピクチャ内)予測および/または時間的(ピクチャ間)予測を実行する。ブロックベースのビデオコーディングでは、ビデオスライス(すなわち、ビデオフレームまたはビデオフレームの一部分)が、ツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分化され得る。ピクチャのイントラコード化(I)スライスにおけるビデオブロックは、同じピクチャ中の隣接ブロックにおける参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライスにおけるビデオブロックは、同じピクチャ中の隣接ブロックにおける参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005] 空間的予測または時間的予測によって、コード化されるべきブロックの予測ブロックが生じる。残差データは、コード化されるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルに従って符号化され、残差データは、コード化ブロックと予測ブロックとの間の差分を示す。イントラコード化ブロックは、イントラコーディングモードおよび残差データに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換され、次いで量子化され得る残差変換係数が生じ得る。量子化された変換係数は、最初に2次元アレイで構成され、変換係数の1次元ベクトルを作成するためにスキャンされ、なお一層の圧縮を達成するためにエントロピーコーディングが適用され得る。
[0006] 本開示の1つまたは複数の態様は、ハイダイナミックレンジ(HDR:high dynamic range)および広色域(WCG:wide color gamut)表現を用いてビデオ信号、例えば、ビデオデータをコーディングする分野に関する。
[0007] 一例によると、ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理する方法は、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、非量子化(dequantized)変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化すること(inverse quantizing)と、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定することと、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定することと、HDR/WCGビデオデータのブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行することと、を含む。
[0008] 別の例によると、ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理するためのデバイスは、ビデオデータを記憶するように構成されたメモリと、メモリに結合された1つまたは複数のプロセッサと、を含み、該1つまたは複数のプロセッサは、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化変換係数を逆量子化することと、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定することと、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定することと、HDR/WCGビデオデータのブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行することと、を行うように構成される。
[0009] 別の例によると、コンピュータ可読記憶媒体は、命令を記憶し、該命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化することと、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定することと、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定することと、HDR/WCGビデオデータのブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行することと、を行わせる。
[0010] 別の例によると、ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理するための装置は、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定するための手段と、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化するための手段と、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定するための手段と、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定するための手段と、HDR/WCGビデオデータのブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定するための手段と、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整するための手段と、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行するための手段と、を含む。
[0011] 本開示の1つまたは複数の例の詳細は、添付図面および以下の記述において述べられている。他の特徴、目的、および利点は、本説明、図面、および特許請求の範囲から明らかになるであろう。
[0012] 図1は、本開示で説明される技法を利用し得る、例となるビデオ符号化および復号システムを示すブロック図である。 [0013] 図2は、HDRデータの概念を示す概念図である。 [0014] 図3は、例となる色域を示す概念図である。 [0015] 図4は、HDR/WCGの表現変換の一例を示すフロー図である。 [0016] 図5は、HDR/WCGの逆変換例を示すフロー図である。 [0017] 図6は、知覚的に均一なコードレベルから線形ルミナンスへのビデオデータ変換(SDRおよびHDRを含む)のために利用される電気光学伝達関数(EOTF)の例を示す概念図である。 [0018] 図7は、PQ TF(ST2084 EOTF)の、例となる視覚化を示す。 [0019] 図8は、LCS関数(function)の一例を示す。 [0020] 図9は、DRAを有するビデオコーディングシステムの一例を示す。 [0021] 図10は、本開示で説明される技法を実装し得る、例となるビデオエンコーダを示すブロック図である。 [0022] 図11は、本開示で説明される技法を実装し得る、例となるビデオデコーダを示すブロック図である。 [0023] 図12は、本開示の技法に従ってビデオデータを復号するためのビデオデコーダの例となる動作を示すフローチャートである。
詳細な説明
[0024] 本開示は、ハイダイナミックレンジ(HDR)表現および広色域(WCG)表現を用いてビデオ信号をコーディングする分野に関する技法を説明する。より具体的には、本開示は、HDRおよびWCGビデオデータのより効率的な圧縮を可能にするために、ある特定の色空間中のビデオデータに適用されるシグナリングおよびオペレーションを含む。本開示の技法は、HDRおよびWCGビデオデータをコーディングするために利用されるハイブリッドベースのビデオコーディングシステムの圧縮効率を改善し得る。
[0025] 以下でより詳細に説明するように、HDRビデオは、一般に、標準ダイナミックレンジ(SDR)ビデオのものよりも大きい、ダイナミックレンジを有するビデオを指す。WCGは、一般に、赤みがかった赤、緑みがかった緑、青みがかった青などのようなより鮮やかな色を含み得る、より広い色域で表現されるビデオを指す。HDRおよびWCGの両方は、ビデオをより現実的に見せることができる。ビデオをより現実的に見せる一方で、HDRおよびWCGはまた、ビデオデータを符号化および復号することに関連する複雑さを増大させ得る。
本開示の技法は、HDRおよびWCGビデオデータを符号化および復号することに関連する複雑さを低減するのに役立ち得、より詳細には、変換係数を量子化するときに変換領域において実行される量子化と、ダイナミックレンジ調整(DRA)を実行するときにピクセル領域において実行されるスケーリングおよび量子化と、を調和させること(harmonizing)によって、HDRおよびWCGビデオデータを符号化および復号することに関連する複雑さを低減し得る。
[0026] 図1は、HDR/WCGビデオデータを処理し、本開示で説明するDRA技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを提供するソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に提供する。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレイヤ、ビデオゲーム機、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。いくつかのケースでは、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0027] 宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信することができる。コンピュータ可読媒体16は、符号化ビデオデータをソースデバイス12から宛先デバイス14に移動することが可能な、任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信するのを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤードまたはワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理送信線などの、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を容易にするために有用であり得る、ルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0028] 他の例では、コンピュータ可読媒体16は、ハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体などの非一時的記憶媒体を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、例えば、ネットワーク送信を介して、ソースデバイス12から符号化ビデオデータを受信し、宛先デバイス14に符号化ビデオデータを提供することができる。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化ビデオデータを受信し、その符号化ビデオデータを包含するディスクを生成することができる。従って、様々な例では、コンピュータ可読媒体16は、様々な形態の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0029] いくつかの例では、符号化データは、出力インターフェース22からストレージデバイスへ出力され得る。同様に、符号化データは、記憶デバイスから入力インターフェースによってアクセスされ得る。記憶デバイスは、ハードドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは、符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体などの、様々な分散型のまたは局所的にアクセスされるデータ記憶媒体のうちの任意のものを含み得る。さらなる例では、ストレージデバイスは、ソースデバイス12によって生成された符号化ビデオを記憶することができるファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介して、ストレージデバイスから記憶されたビデオデータにアクセスすることができる。ファイルサーバは、符号化ビデオデータを記憶でき、符号化ビデオデータを宛先デバイス14に送信できる、任意のタイプのサーバであり得る。例示的なファイルサーバは、例えば、ウェブサイト用の)ウェブサーバ、FTPサーバ、ネットワーク添付ストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準データ接続を介して、符号化ビデオデータにアクセスし得る。これは、ファイルサーバ上に記憶された符号化ビデオデータにアクセスするのに適した、ワイヤレスチャネル(例えば、Wi-Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、またはその両方の組み合せを含み得る。記憶デバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組み合わせであり得る。
[0030] 本開示の技法は、ワイヤレスアプリケーションまたはワイヤレス設定に必ずしも限定されない。本技法は、無線テレビジョンブロードキャスト、ケーブルテレビジョン送信、衛星テレビジョン送信、HTTP上の動的適応ストリーミング(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他のアプリケーションなど、様々なマルチメディアアプリケーションのいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオ電話などのアプリケーションをサポートするために一方向または両方向のビデオ送信をサポートするように構成され得る。
[0031] 図1の例では、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、および出力インターフェース22を含む。宛先デバイス14は、入力インターフェース28、前処理ユニット19、ビデオデコーダ30、およびディスプレイデバイス32を含む。本開示によれば、ソースデバイス12の前処理ユニット19は、HDRおよびWCGビデオデータのより効率的な圧縮を可能にするためにある特定の色空間におけるビデオデータに適用されるシグナリングおよび関連する動作を含む、本開示の技法を実装するように構成され得る。いくつかの例では、前処理ユニット19は、ビデオエンコーダ20とは別個であり得る。他の例では、前処理ユニット19は、ビデオエンコーダ20の一部であり得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配列を含み得る。例えば、ソースデバイス12は、外部カメラなどの外部のビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、統合されたディスプレイデバイスを含むのではなく、外部のディスプレイデバイスとインターフェースし得る。
[0032] 図1の示されたシステム10は、一例にすぎない。HDRおよびWCGビデオデータを処理およびコーディングするための技法は、任意のデジタルビデオ符号化および/またはビデオ復号デバイスによって実行され得る。さらに、本開示の技法は、ビデオプリプロセッサおよび/またはビデオポストプロセッサによっても実行され得る。ビデオプリプロセッサは、符号化の前に(例えば、HEVCまたは他の符号化の前に)ビデオデータを処理するように構成された任意のデバイスであり得る。ビデオポストプロセッサは、復号後(例えば、HEVCまたは他の復号後)にビデオデータを処理するように構成された任意のデバイスであり得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が、宛先デバイス14に送信するためのコード化ビデオデータを生成するそのようなコーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化および復号構成要素、ならびにビデオプリプロセッサおよびビデオポストプロセッサ(例えば、それぞれ前処理ユニットおよび後処理ユニット31)を含むように、実質的に対称的に動作し得る。従って、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャストまたはビデオ電話のためのビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートし得る。
[0033] ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、前にキャプチャされたビデオを包含するビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。いくつかのケースでは、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き電話またはビデオ付き電話を形成し得る。しかしながら、上記で述べたように、本開示で説明する技法は、一般にビデオコーディングおよびビデオ処理に適用可能であり得、ワイヤレスおよび/またはワイヤードアプリケーションに適用され得る。各ケースでは、キャプチャされた、事前にキャプチャされた、またはコンピュータで生成されたビデオは、ビデオエンコーダ20によって符号化され得る。次いで、符号化ビデオ情報は、出力インターフェース22によってコンピュータ可読媒体16に出力され得る。
[0034] 宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロックおよび他のコード化ユニット、例えば、ピクチャのグループ(GOP)の特性ならびに/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの様々なディスプレイデバイスのうちのいずれかを備え得る。
[0035] ビデオエンコーダ20およびビデオデコーダ30は、各々、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなどの、様々な好適なエンコーダ回路またはデコーダ回路のいずれかとして実装され得る。技法が部分的にソフトウェアで実装されるとき、デバイスは、ソフトウェアのための命令を適切な非一時的コンピュータ可読媒体に記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアでその命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれかが、それぞれのデバイスにおいて組み合わせられたエンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0036] 前処理ユニット19および後処理ユニット31は各々、1つまたは複数のマイクロプロセッサ、DSP、ASIC、FPGA、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなど、様々な適切なエンコーダ回路のいずれかとして実装され得る。技法が部分的にソフトウェアで実装されるとき、デバイスは、ソフトウェアのための命令を適切な非一時的コンピュータ可読媒体に記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアでその命令を実行し得る。
[0037] ビデオエンコーダ20およびビデオデコーダ30は、近年完成した高効率ビデオコーディング(HEVC)規格などのビデオ圧縮規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。ビデオエンコーダ20およびビデオデコーダ30は加えて、ITU-Tビデオコーディング専門家グループ(VCEG)およびISO/IECモーションピクチャ専門家グループ(MPEG)のビデオコーディングに関する共同コラボレーションチーム(JCT-VC)ならびに3Dビデオコーディング拡張開発に関する共同コラボレーションチーム(JCT-3V)によって開発されてきた、範囲拡張、マルチビュー拡張(MV-HEVC)、またはスケーラブル拡張(SHVC)のような、HEVC拡張に従って動作し得る。
[0038] ビデオエンコーダ20およびビデオデコーダ30はまた、ISO/IEC MPEG-4、Part10、アドバンストビデオコーディング(AVC)と代替的に呼ばれる、ITU-T H.264規格のような他の所有権または工業規格、あるいはスケーラブルビデオコーディング(SVC)およびマルチビュービデオコーディング(MVC)拡張のようなそのような規格の拡張に従って動作し得る。しかしながら、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオ圧縮規格の他の例は、ITU-T H.261、ISO/IEC MPEG-1 Visual、ITU-T H.262またはISO/IEC MPEG-2 Visual、ITU-T H.263、およびISO/IEC MPEG-4 Visualを含む。
[0039] ITU-T VCEG(Q6/16)およびISO/IEC MPEG(JTC 1/SC 29/WG11)は、現在のHEVC規格(スクリーンコンテンツコーディングおよび高い動的範囲のコーディングのためのその現在の拡張および近い将来の拡張を含む)のものを大幅に超える圧縮能力を有する、将来的なビデオコーディング技術の二値化のための潜在的必要性を現在研究している。グループは、提案された圧縮技術設計を評価するために、JVET(Joint Video Exploration Team)として知られる共同作業努力において、この探索活動に対して協力している。JVETは、2015年10月19~21日の間に最初に遭遇し、共同探査モデル(JEM)と呼ばれる参照ソフトウェアのいくつかの異なるバージョンを開発した。そのような参照ソフトウェアの一例は、JEM7と呼ばれ、J.Chen、E.Alshina、G.J.Sullivan、J.Ohm、J.Boyceによる、「Algorithm Description of Joint Exploration Test Model 7」、JVET-G1001, 13-21 July 2017に記載されている。
[0040] ITU-T VCEG(Q6/16)およびISO/IEC MPEG(JTC 1/SC 29/WG11)の研究に基づいて、多用途ビデオコーディング(VVC)規格と呼ばれる新しいビデオコーディング規格が、VCEGおよびMPEGのJVET(Joint Video Exploration Team)によって開発中である。VVCの初期のドラフトは、文献JVET-J1001「Versatile Video Coding (Draft 1)」で入手可能であり、そのアルゴリズム記述は、文献JVET-J1002「Algorithm description for Versatile Video Coding and Test Model 1 (VTM 1)」で入手可能である。VVCの別の初期のドラフトは、文書JVET-L1001「Versatile Video Coding (Draft 3)」で入手可能であり、そのアルゴリズム記述は、文書JVET-L1002「Algorithm description for Versatile Video Coding and Test Model 3 (VTM 3)」で入手可能である。
[0041] 本開示の技法は、説明を容易にするために、HEVC専門用語を利用し得る。しかしながら、本開示の技法がHEVCに制限されると想定されるべきではなく、実際、本開示の技法が、HEVCの後続の規格およびその拡張で実現され得ることは明確に企図される。
[0042] HEVCおよび他のビデオコーディング規格では、ビデオシーケンスは、一連のピクチャを含む。ピクチャは「フレーム」とも呼ばれ得る。ピクチャは、SL、SCb、およびSCrと表記される3つのサンプルアレイを含み得る。SLは、ルーマサンプルの2次元アレイ(すなわち、ブロック)である。SCbは、Cbクロミナンスサンプルの2次元アレイである。SCrは、Crクロミナンスサンプルの2次元アレイである。クロミナンスサンプルはまた、本明細書では「クロマ」サンプルとも呼ばれ得る。他の例では、ピクチャは、モノクロームであり得、ルーマサンプルのアレイのみを含み得る。
[0043] ビデオエンコーダ20は、コーディングツリーユニット(CTU)のセットを生成し得る。CTUの各々は、ルーマサンプルのコーディングツリーブロック、クロマサンプルの2つの対応するコーディングツリーブロック、およびこれらのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造を備え得る。白黒ピクチャ、または3つの別個の色プレーンを有するピクチャでは、CTUは、コード化ツリーブロックのサンプルをコード化するために使用されるシンタックス構造および単一のコード化ツリーブロックを備えることができる。コーディングツリーブロックは、サンプルのN×Nブロックであり得る。CTUは、「ツリーブロック」または「最大コーディングユニット」(LCU:largest coding unit)とも呼ばれ得る。HEVCのCTUは、H.264/AVCのような他のビデオコーディング規格のマクロブロックに大まかに類似し得る。しかしながら、CTUは、必ずしも特定のサイズに制限されるわけではなく、1つまたは複数のコーディングユニット(CU)を含み得る。スライスは、ラスタスキャンにおいて連続的に並べられた整数個のCTUを含み得る。
[0044] 本開示は、1つまたは複数のサンプルブロックのサンプルをコード化するために使用される1つまたは複数のサンプルブロックおよびシンタックス構造を指すために「ビデオ単位」または「ビデオブロック」という用語を使用し得る。例示的なタイプのビデオユニットは、HEVCにおけるCTU、CU、PU、変換ユニット(TU)、または他のビデオコーディング規格におけるマクロブロック、マクロブロックパーティションなどを含み得る。
[0045] コード化されたCTUを生成するために、ビデオエンコーダ20は、CTUのコーディングツリーブロックに対して四分木区分化を再帰的に実行して、コーディングツリーブロックをコーディングブロックへと分割し得、よって、「コーディングツリーユニット」と呼ばれる。コーディングブロックは、サンプルのN×Nブロックである。CUは、ルーマサンプルアレイ、Cbサンプルアレイ、およびCrサンプルアレイを有するピクチャのクロマサンプルの2つの対応するコーディングブロックと、ルーマサンプルのコーディングブロックと、これらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。白黒ピクチャ、または3つの別個の色プレーンを有するピクチャでは、CUは、単一のコーディングブロックと、当該コーディングブロックのサンプルをコード化するために使用されるシンタックス構造を備えることができる。
[0046] ビデオエンコーダ20は、CUのコーディングブロックを1つまたは複数の予測ブロックへと区分し得る。予測ブロックは、それに対して同じ予測が適用される、サンプルの矩形(すなわち、正方形または非正方形)ブロックであり得る。CUの予測ユニット(PU)は、ピクチャについての、ルーマサンプルの1つの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、これら予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。白黒ピクチャ、または3つの別個の色プレーンを有するピクチャでは、PUは、予測ブロックサンプルを予測するために使用されるシンタックス構造および単一の予測ブロックを備えることができる。ビデオエンコーダ20は、CUの各PUのルーマ、Cb、およびCr予測ブロックについての予測ルーマ、Cb、およびCrブロックを生成し得る。
[0047] ビデオエンコーダ20は、PUについての予測ブロックを生成するためにイントラ予測またはインター予測を使用し得る。ビデオエンコーダ20が、PUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ20は、PUに関連付けられたピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。
[0048] ビデオエンコーダ20が、PUの予測ブロックを生成するためにインター予測を使用する場合、ビデオエンコーダ20は、PUに関連付けられたピクチャ以外の1つまたは複数のピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。インター予測は、単方向インター予測(すなわち、単方向予測)または双方向インター予測(すなわち、双方向予測)であり得る。単予測または双予測を実行するために、ビデオエンコーダ20は、現在スライスのための第1の参照ピクチャリスト(RefPicList0)と第2の参照ピクチャリスト(RefPicList1)とを生成し得る。
[0049] 参照ピクチャリストの各々は、1つまたは複数の参照ピクチャを含み得る。単予測(uni-prediction)を使用するとき、ビデオエンコーダ20は、参照ピクチャ内の参照ロケーションを決定するために、RefPicList0とRefPicList1のいずれかまたは両方中の参照ピクチャを探索し得る。さらに、単予測を使用するとき、ビデオエンコーダ20は、参照ロケーションに対応するサンプルに少なくとも部分的に基づいて、PUのための予測サンプルブロックを生成し得る。さらに、単予測を使用するとき、ビデオエンコーダ20は、PUの予測ブロックと参照ロケーションとの間の空間変位を示す単一の動きベクトルを生成し得る。PUの予測ブロックと参照ロケーションとの間の空間変位を示すために、動きベクトルは、PUの予測ブロックと参照ロケーションとの間の水平変位を指定する水平成分を含み得、PUの予測ブロックと参照ロケーションとの間の垂直変位を指定する垂直成分を含み得る。
[0050] PUを符号化するために双予測(bi-prediction)を使用するとき、ビデオエンコーダ20は、RefPicList0中の参照ピクチャ中の第1の参照ロケーションと、RefPicList1中の参照ピクチャ中の第2の参照ロケーションとを決定し得る。ビデオエンコーダ20は、次いで、第1および第2の参照ロケーションに対応するサンプルに少なくとも部分的に基づいて、PUのための予測ブロックを生成し得る。さらに、PUを符号化するために双予測を使用するとき、ビデオエンコーダ20は、PUのサンプルブロックと第1の参照ロケーションとの間の空間変位を示す第1の動きと、PUの予測ブロックと第2の参照ロケーションとの間の空間変位を示す第2の動きとを生成し得る。
[0051] ビデオエンコーダ20が、CUの1つまたは複数のPUについての予測ルーマ、Cb、およびCrブロックを生成した後、ビデオエンコーダ20は、そのCUについてのルーマ残差ブロックを生成し得る。CUのルーマ残差ブロック中の各サンプルは、CUの予測ルーマブロックのうちの1つ中のルーマサンプルと、CUの元の(オリジナルの)ルーマコーディングブロック中の対応するサンプルとの間の差分を示す。加えて、ビデオエンコーダ20は、CUについてのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUの予測Cbブロックのうちの1つ中のCbサンプルと、CUの元のCbコーディングブロック中の対応するサンプルとの間の差分を示し得る。ビデオエンコーダ20はまた、CUについてのCr残差ブロックを生成し得る。CUのCr残差ブロック中の各サンプルは、CUの予測Crブロックのうちの1つ中のCrサンプルと、CUの元のCrコーディングブロック中の対応するサンプルとの間の差分を示し得る。
[0052] さらに、ビデオエンコーダ20は、CUのルーマ、Cb、およびCr残差ブロックを1つまたは複数のルーマ、Cb、およびCr変換ブロックへと分解するために四分木区分化を使用し得る。変換ブロックは、同じ変換が適用されるサンプルの矩形ブロックであり得る。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロック、クロマサンプルの2つの対応する変換ブロック、およびこれらの変換ブロックのサンプルを変換するために使用されるシンタックス構造を備え得る。白黒ピクチャ、または3つの別個の色プレーンを有するピクチャでは、TUは、単一の変換ブロック、および変換ブロックサンプルを変換するために使用されるシンタックス構造を備えることができる。よって、CUの各TUは、ルーマ変換ブロック、Cb変換ブロック、およびCr変換ブロックに関連付けられ得る。TUに関連付けられたルーマ変換ブロックは、CUのルーマ残差ブロックのサブブロックであり得る。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであり得る。
[0053] ビデオエンコーダ20は、TUについてのルーマ係数ブロックを生成するために、TUのルーマ変換ブロックに1つまたは複数の変換を適用し得る。係数ブロックは、変換係数の二次元アレイであり得る。変換係数は、スカラー量であり得る。ビデオエンコーダ20は、TUについてのCb係数ブロックを生成するために、TUのCb変換ブロックに1つまたは複数の変換を適用し得る。ビデオエンコーダ20は、TUについてのCr係数ブロックを生成するために、TUのCr変換ブロックに1つまたは複数の変換を適用し得る。
[0054] JEM7では、上述したHEVCの四分木区分化構造を使用するのではなく、QTBT(quadtree binary tree)区分化構造が使用され得る。QTBT構造は、複数のパーティションタイプの概念を除去する。すなわち、QTBT構造は、CU、PU、およびTU概念の分離を除去し、CU区分形状のためのより多くの柔軟性をサポートする。QTBTブロック構造では、CUは正方形または長方形のいずれかの形状を有することができる。一例では、CUは、四分木構造による第1の区分である。四分木リーフノードは、二分木構造によってさらに区分化される。
[0055] いくつかの例では、対称水平分割および対称垂直分割の2つの分割タイプがある。二分木リーフノードは、CUと呼ばれ、そのセグメント化(すなわち、CU)は、任意のさらなる区分化なしに予測および変換処理のために使用される。これは、CU、PU、およびTUが、QTBTコーディングブロック構造において同じブロックサイズを有することを意味する。JEMでは、CUは、異なる色成分のコーディングブロック(CB)からなることがある。例えば、1つのCUは、4:2:0クロマフォーマットのPスライスおよびBスライスの場合、1つのルーマCBと2つのクロマCBとを含み、ときには、単一の成分のCBからなる。例えば、1つのCUは、Iスライスの場合、1つのルーマCBのみ、または2つのクロマCBのみを含む。
[0056] 係数ブロック(例えば、ルーマ係数ブロック、Cb係数ブロック、またはCr係数ブロック)を生成した後、ビデオエンコーダ20は、これらの係数ブロックを量子化し得る。量子化は、一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために、変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。さらに、ビデオエンコーダ20は、ピクチャのCUのTUの変換ブロックを再構成するために、変換係数を逆量子化し、変換係数に逆変換を適用し得る。ビデオエンコーダ20は、CUのコーディングブロックを再構成するために、CUのTUの再構成された変換ブロックとCUのPUの予測ブロックとを使用し得る。ピクチャの各CUのコーディングブロックを再構成することによって、ビデオエンコーダ20は、ピクチャを再構成し得る。ビデオエンコーダ20は、再構成されたピクチャを復号ピクチャバッファ(DPB)に記憶し得る。ビデオエンコーダ20は、インター予測およびイントラ予測のためにDPB中の再構成されたピクチャを使用し得る。
[0057] ビデオエンコーダ20が係数ブロックを量子化した後、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素をエントロピー符号化することができる。例えば、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素に対してコンテキスト適応型バイナリ算術コーディング(CABAC:Context-Adaptive Binary Arithmetic Coding)を実行し得る。ビデオエンコーダ20は、ビットストリームにおいて、エントロピー符号化されたシンタックス要素を出力し得る。
[0058] ビデオエンコーダ20は、コード化ピクチャおよび関連付けられたデータの表現を形成するビットのシーケンスを含むビットストリームを出力することができる。ビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:network abstraction layer)ユニットを備え得る。NALユニットの各々は、NALユニットヘッダを含み、ローバイトシーケンスペイロード(RBSP:raw byte sequence payload)をカプセル化する。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含み得る。NALユニットのNALユニットヘッダによって規定されるNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内にカプセル化された整数個のバイトを包含するシンタックス構造であり得る。いくつかの事例では、RBSPは0ビットを含む。
[0059] 様々なタイプのNALユニットは、様々なタイプのRBSPをカプセル化することができる。例えば、第1のタイプのNALユニットはピクチャパラメータセット(PPS)のためのRBSPをカプセル化し得、第2のタイプのNALユニットはコード化スライスのためのRBSPをカプセル化し得、第3のタイプのNALユニットはSEI(supplemental enhancement information)のためのRBSPをカプセル化し得、以下同様である。PPSは、0以上のコード化ピクチャ全体に適用されるシンタックス要素を包含し得るシンタックス構造である。ビデオコーディングデータのためのRBSPをカプセル化するNALユニットは(パラメータセットおよびSEIメッセージのためのRBSPとは対照的に)、ビデオコーディングレイヤ(VCL)NALユニットと呼ばれる場合がある。コード化スライスをカプセル化するNALユニットは、本明細書ではコード化スライスNALユニットと呼ばれる場合がある。コード化スライスのためのRBSPは、スライスヘッダとスライスデータとを含み得る。
[0060] ビデオデコーダ30は、ビットストリームを受信することができる。加えて、ビデオデコーダ30は、ビットストリームからシンタックス要素を復号するために、ビットストリームを解析することができる。ビデオデコーダ30は、ビットストリームから復号されたシンタックス要素に少なくとも部分的に基づいて、ビデオデータのピクチャを再構成することができる。ビデオデータを再構成するための処理は、概して、ビデオエンコーダ20によって実行される処理の逆であり得る。例えば、ビデオデコーダ30は、現在のCUのPUのための予測ブロックを決定するために、PUの動きベクトルを使用することができる。ビデオデコーダ30は、PUのための予測ブロックを生成するために、PUの1つまたは複数の動きベクトルを使用することができる。
[0061] さらに、ビデオデコーダ30は、現在のCUのTUに関連付けられた係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在のCUのTUに関連付けられた変換ブロックを再構成するために、係数ブロックに対して逆変換を行い得る。ビデオデコーダ30は、現在のCUのPUについての予測サンプルブロックのサンプルを、現在のCUのTUの変換ブロックの対応するサンプルに加えることで、現在のCUのコーディングブロックを再構成し得る。ピクチャの各CUのコーディングブロックを再構成することによって、ビデオデコーダ30は、ピクチャを再構成し得る。ビデオデコーダ30は、出力のためにおよび/または他のピクチャを復号する際に使用するために、復号ピクチャを復号ピクチャバッファに記憶し得る。
[0062] 次世代ビデオアプリケーションは、HDRおよびWCGを有するキャプチャされた景色を表現するビデオデータとともにオペレートすることが予期される。利用されるダイナミックレンジおよび色域のパラメータは、ビデオコンテンツの2つの独立した属性であり、デジタルテレビおよびマルチメディアサービスを目的としたそれらの仕様は、いくつかの国際的規格によって定義されている。例えば、ITU-R Rec.709は、標準ダイナミックレンジおよび標準色域などのHDTVのためのパラメータを定義し、ITU-R Rec.2020は、ハイダイナミックレンジおよび広色域などのUHDTVパラメータを指定する。他のシステムにおいてこれらの属性を指定する他のSDO文書もあり、例えば、P3色域はSMPTE-231-2で定義され、HDRのいくつかのパラメータはSTMPTE-2084で定義される。ビデオデータについてのダイナミックレンジおよび色域の簡単な説明が以下で提供される。
[0063] ビデオエンコーダ20およびビデオデコーダ30は、それぞれ、前処理ユニット19および後処理ユニット31などの他の構成要素とともに、ダイナミックレンジコーディングを実装し得る。ダイナミックレンジは通常、ビデオ信号の最小輝度と最大輝度との間の比として定義される。ダイナミックレンジはまた、「fストップ(f-stop)」の観点で測定され得、ここで1つのfストップは、信号ダイナミックレンジの二倍に対応する。MPEGの定義では、ハイダイナミックレンジコンテンツは、16個以上のfストップを用いた輝度バリエーションを特徴とするようなコンテンツである。いくつかの観点では、10個のfストップと16個のfストップとの間のレベルは中間ダイナミックレンジと見なされるが、それは他の定義ではHDRと見なされ得る。同時に、人間の視覚系は、はるかに大きなダイナミックレンジを知覚することができ、いわゆる同時レンジを狭くするための適応機構を含む。
[0064] 現在のビデオアプリケーションおよびサービスは、Rec.709によって規制され、SDRを提供し、典型的には、約0.1~100カンデラ(cd)/m2(しばしば「nit」と呼ばれる)の範囲の輝度(またはルミナンス)をサポートし、10fストップ未満をもたらす。次世代ビデオサービスは、最大16個のfストップのダイナミックレンジを提供するように予定されており、詳細な仕様は現在開発中であるが、いくつかの初期パラメータは、SMPTE ST-2084およびITU-R BT.2020において規定されている。
[0065] 図2は、人間の視覚および表示能力の一例を示す。HDTVのSDR、UHDTVの予期されるHDR、およびHVSダイナミックレンジによって提供されるダイナミックレンジの視覚化を図2に示す。
[0066] 図3は、色域(color gamuts)の一例を示す。HDR以外のより現実的なビデオ体験についての別の態様は、色次元であり、これは従来、色域によって定義される。図3は、SDR色域(BT.709カラー 赤、緑、および青のカラープライマリに基づく三角形100)と、UHDTVのためのより広い色域(BT.2020カラー 赤、緑、および青のカラープライマリに基づく三角形102)とを示す。図3は、自然色の限界を表すいわゆるスペクトル軌跡(spectrum locus)(形状104)も示す。図3によって示されているように、BT.709からBT.2020カラープライマリに移ることは、約70%分多い色をUHDTVサービスに提供することを目的としている。D65は、所与の規格についての白色を規定している。
[0067] 色域の仕様(specification)の例を表1に示す。
[0068] ビデオエンコーダ20およびビデオデコーダ30は、HDRビデオデータの圧縮を実行し得る。HDR/WCGは通常、4:4:4クロマフォーマットおよび非常に広い色空間(例えば、XYZ)を用いて、成分毎に非常に高精細度で(浮動小数点ですら)獲得および記憶される。この表現は、高精細度を目的とし、数学上(ほぼ)ロスレス(lossless)である。しかしながら、このフォーマットは、多くの冗長性を特徴とし、圧縮目的には最適でない。HVSベースを前提としたより低い精細度フォーマットが通常、最新式の(state-of-the-art)ビデオアプリケーションに利用される。圧縮のための典型的なHDRビデオデータフォーマット変換は、図4に示すように、(1)ダイナミックレンジ圧縮(dynamic range compacting)のための非線形伝達関数(TF)、(2)よりコンパクトなまたはロバストな色空間への色変換(color conversion)、および(3)浮動少数から整数への表現変換(量子化)の3つの主要な要素からなる。
[0069] 圧縮のためのビデオデータフォーマット変換プロセスの一例は、図4に示されるように、3つの主要なプロセスを含む。図4の技法は、ソースデバイス12によって実行され得る。線形RGBデータ110は、HDR/WCGビデオデータであり得、浮動小数点表現で記憶され得る。線形RGBデータ110は、ダイナミックレンジコンパクト化のために、非線形伝達関数(TF:transfer function)112を使用してコンパクト化され得る。伝達関数112は、任意の数の非線形伝達関数、例えばSMPTE-2084で定義されているようなPQ TFを使用して線形RGBデータ110をコンパクト化し得る。いくつかの例では、色変換プロセス114は、コンパクト化されたデータを、ハイブリッドビデオエンコーダによる圧縮により適しているよりコンパクトまたはロバストな色空間(例えば、YUVまたはYCrCb色空間)に変換する。このデータは次いで、変換されたHDR’データ118を作成するために、浮動小数点から整数表現への量子化ユニット116を使用して量子化される。この例では、HDR’データ118は整数表現である。この時点でHDR’データは、ハイブリッドビデオエンコーダ(例えば、HEVC技法を適用するビデオエンコーダ20)による圧縮に関してより適したフォーマットにある。図4で描かれているプロセスの順序は、例として与えられたものであり、他のアプリケーションでは変わる可能性がある。例えば、色変換はTFプロセスに先行し得る。加えて、追加の処理、例えば空間サブサンプリングが色成分に適用され得る。
[0070] デコーダ(例えば、ビデオデコーダ30)における逆変換が図5に示されている。図5の技法は、宛先デバイス14におけるビデオデコーダ30および/または後処理ユニット31によって実行され得る。変換されたHDR’データ120は、ハイブリッドビデオデコーダ(例えば、HEVC技法を適用するビデオデコーダ30)を使用してビデオデータを復号することを通じて、宛先デバイス14で取得され得る。HDR’データ120は次いで、逆量子化ユニット122によって逆量子化され得る。次いで、逆色変換プロセス124が、逆量子化されたHDR’データに適用され得る。逆色変換プロセス124は、色変換プロセス114の逆であり得る。例えば、逆色変換プロセス124は、YCrCbフォーマットからRGBフォーマットに戻るようにHDR’データを変換し得る。次に、逆伝達関数126がデータに適用され得、線形RGBデータ128を再生成するために、伝達関数112によってコンパクト化されたダイナミックレンジを戻すように加える。
[0071] 線形および浮動小数点表現における入力RGBデータのハイダイナミックレンジは、利用される非線形伝達関数TF、例えば、SMPTE-2084において定義されるPQ TFを用いて圧縮され、その後、それは、圧縮により適したターゲット色空間、例えば、YCbCrに変換され、次いで、整数表現を達成するために量子化される。これらの要素の順序は例として与えられており、現実世界のアプリケーションでは変わる可能性があり、例えば、色変換はTFモジュールに先行し得、同様に、追加の処理、例えば空間サブサンプリングが色成分に適用され得る。これらの3つの成分をより詳細に説明する。
[0072] ビデオエンコーダ20およびビデオデコーダ30は、伝達関数(TF)を利用し得る。TFは、データのダイナミックレンジをコンパクト化するためにデータに適用され、データを限定されたビット数で表現することを可能にする。この関数は通常、Rec.709においてSDRについて規定されているようなエンドユーザのディスプレイの電気光学伝達関数(EOTF:electro-optical transfer function)の逆を反映するか、またはHDRについてSMPTE-2084において規定されているPQ TFに関する輝度変化にHVS知覚を近似するかのどちらかである、一次元(1D)の非線形関数である。OETFの逆プロセスがEOTF(電気光学伝達関数)であり、これは、符号(code)レベルをルミナンスに戻すようにマッピングする。図6は、TFのいくつかの例を示す。
[0073] ST2084の仕様は、EOTFアプリケーションを以下のように定義した。TFは、正規化された線形R、G、B値に適用され、その結果、非線形表現であるR’、G’、B’をもたらす。ST2084は、10000nit(cd/m2)のピーク輝度に関連付けられているNORM=10000による正規化を定義する。
[0074] 図7は、PQ TF(ST2084 EOTF)の例示的な視覚化を示す。範囲0..1に正規化された入力値(線形色値)とともに、正規化された出力値(非線形色値)PQ EOTFが図7に視覚化されている。この曲線から分かるように、入力信号のダイナミックレンジの1%(低照度)が出力信号のダイナミックレンジの50%に変換される。
[0075] 通常、EOTFは、浮動小数点精度を有する関数として定義され、従って、逆TF、いわゆるOETFが適用される場合、この非線形性を有する信号に誤差は導入されない。ST2084で規定する逆TF(OETF)をinversePQ関数として定義する。
[0076] 浮動小数点精度では、EOTFおよびOETFの順次適用は、誤差のない完全な再構成を提供する。しかしながら、この表現は、ストリーミングサービスまたはブロードキャストサービスには最適ではない。非線形R’G’B’データの固定ビット精度でのよりコンパクトな表現を以下のセクションで説明する。EOTFおよびOETFは、現在、非常に活発な研究の主題であり、一部のHDRビデオコーディングシステムで利用されるTFは、ST2084とは異なり得ることに留意されたい。
[0077] ビデオエンコーダ20およびビデオデコーダ30は、色変換を実施するように構成され得る。RGBデータは画像キャプチャリングセンサによって作り出されるので、RGBデータは通常入力として使用される。しかしながら、この色空間は、その成分間に高い冗長性を有し、コンパクトな表現には最適でない。よりコンパクトでよりロバストな表現を達成するために、RGB成分は、典型的には、圧縮により適したより無相関の色空間、例えばYCbCrに変換される。この色空間は、ルミナンスの形態での輝度と、異なる無相関の成分におけるイ色情報とに分離する。
[0078] 現代のビデオコーディングシステムでは、典型的に使用される色空間は、ITU-RBT.709またはITU-RBT.709において規定されるようなYCbCrである。BT.709規格におけるYCbCr色空間は、R’G’B’からY’CbCr(非定常(non-constant)ルミナンス表現)への以下の変換プロセスを規定する。
[0079] 上記もまた、CbおよびCr成分についての除算を避ける以下の近似変換を使用して実施され得る。
[0080]ITU-R BT.2020規格は、R’G’B’からY’CbCr(非定常ルミナンス表現)への以下の変換プロセスを規定する。
[0081] 上記もまた、CbおよびCr成分についての除算を避ける以下の近似変換を使用して実施され得る。
[0082] 両方の色空間は正規化されたままであり、従って、範囲0...1において正規化された入力値について、結果として生じる値は範囲0..1にマッピングされることに留意されたい。一般に、浮動小数点精度で実施される色変換は、完全な再構成を提供するので、このプロセスはロスレスである。
[0083] ビデオエンコーダ20およびビデオデコーダ30は、量子化/固定小数点変換を実装し得る。上述の処理段階は、典型的には、浮動小数点精度表現で実施され、従って、ロスレスと見なすことができる。しかしながら、この種の精度は、ほとんどの家庭用電化製品用途にとって冗長で高価であると考えられる。そのような用途では、ターゲット色空間内の入力データは、通常、ターゲットビット深度固定小数点精度に変換される。ある特定の研究は、PQ TFと組み合わせた10~12ビットの精度が、Just-Noticeable Difference未満の歪みのある16個のfストップのHDRデータを提供するのに十分であることを示している。10ビットの精度で表現されたデータはさらに、最新式のビデオコーディングソリューションのほとんどでコーディングされ得る。この変換プロセスは、信号量子化を含み、損失符号化の要素であり、変換されたデータに導入される不正確さの原因である。
[0084] ターゲット色空間、この例ではYCbCr中のコードワードに適用されるそのような量子化の一例を以下に示す。浮動小数点の精度で表現される入力値YCbCrは、Y値では固定ビット深度BitDepthY、およびクロマ値(Cb,Cr)では固定ビット深度BitDepthCの信号に変換される。
[0085] ビデオエンコーダ20およびビデオデコーダ30はDRAを実装し得る。DRAは、Dynamic Range Adjustment SEI to enable High Dynamic Range video coding with Backward-Compatible Capability, D. Rusanovskyy, A. K. Ramasubramonian, D. Bugdayci, S. Lee, J. Sole, M. Karczewicz, VCEG document COM16-C 1027-E, Sep. 2015(以下「参考文献1」)で始めに提示された。著者らは、入力値xの重複しないダイナミックレンジ区分(範囲){Ri}のグループに対して定義されるピースワイズ(piece-wise)線形関数f(x)として、DRAを実装することを提案し、ここで、iが0からN-1までの両端値を含む範囲を有する範囲のインデックスであり、Nは、DRA関数を定義するために利用される範囲{Ri}の総数である。DRAの範囲が、範囲Riに属する最小および最大x値によって定義されると仮定し、例えば[x,xi+1-1]ここで、xおよびxi+1は、それぞれ範囲RおよびRi+1の最小値を示す。ビデオのY色成分(ルーマ)に適用されると、DRA関数Syは、全てのx∈[x,xi+1-1]に適用されるスケールSy,iおよびオフセットOy,iによって定義され、従って、S={Sy,i,Oy,i}である。
[0086] これにより、任意のRi、および全てのx∈[x,xi+1-1]について、出力値Xは以下のように計算される。
[0087] デコーダにおいて行われるルーマ成分Yのための逆DRAマッピングプロセスの場合、DRA関数Syは、全てのX∈[x,xi+1-1]に適用される、スケールSy,iの逆数、およびオフセットOy,i値、によって定義される。
[0088] これを用いて、任意のRi、および全てのX∈[x,xi+1-1]に対して、再構成された値xは、以下のように計算される。
[0089] クロマ成分CbおよびCrのための順方向DRAマッピングプロセスは、以下のように定義された。例は、範囲Riに属するCb色成分のサンプルを示す項(term)「u」で与えられ、u∈[u,ui+1-1]であり、従って、S={Su,i,Ou,i}である。
ここで、Offsetは2(bitdepth-1)に等しく、バイポーラCb、Cr信号オフセットを示す。
[0090] クロマ成分CbおよびCrについてデコーダにおいて行われる逆DRAマッピングプロセスは、以下のように定義された。例は、範囲Ri、U∈[U,Ui+1-1]に属する再マッピングされたCb色成分のサンプルを示すU項で与えられる。
ここで、Offsetは2(bitdepth-1)に等しく、バイポーラCb、Cr信号オフセットを示す。
[0091] ビデオエンコーダ20およびビデオデコーダ30はまた、ルーマ駆動クロマスケーリング(LCS:luma-driven chroma scaling)を実装し得る。LCSは、JCTVC-W0101 HDR CE2: Report on CE2. a-1 LCS, A. K. Ramasubramonian, J. Sole, D. Rusanovskyy, D. Bugdayci, M. Karczewicz(以下、参考文献2)において最初に提案された。参考文献2には、処理されたクロマサンプルに関連する輝度情報を利用することによって、例えば、CbおよびCrなどのクロマ情報を調整する技術が提示されている。参考文献1のDRA手法(approach)と同様に、クロマサンプルに、CbのためのスケールファクタSおよびCrのためのSv,iを適用することが提案された。しかしながら、DRA関数を、式(3)および(4)におけるように、クロマ値uまたはvによってアクセス可能な範囲{Ri}のセットに対してピースワイズ線形関数S={Su,i,Ou,i}として定義する代わりに、LCS手法は、クロマサンプルに対するスケールファクタを導出するために、ルーマ値Yを利用することを提案した。これにより、クロマサンプルu(またはv)の順方向LCSマッピングは、以下のように行われる。
デコーダ側で行われる逆LCSプロセスは、以下のように定義される。
[0092] より詳細には、(x,y)に位置する所与のピクセルについて、クロマサンプルCb(x,y)またはCr(x,y)は、対応するルーマ値Y’(x,y)によって決定するLCS関数SCb(またはSCr)から導出されたファクタを用いてスケーリングされる。
[0093] クロマサンプルのための順方向LCSにおいて、Cb(またはCr)値および関連するルーマ値Y’は、クロマスケール関数SCb(またはSCr)への入力として取られ、CbまたはCrは、式9に示されるようにCb’およびCr’に変換される。デコーダ側では、逆LCSが適用され、再構成されたCb’またはCr’は、式(10)に示すようにCbまたはCrに変換される。
[0094] 図8は、LCS関数(functions)の一例を示し、この例におけるLCS関数を用いて、ルーマのより小さい値をもつピクセルのクロマ成分が、より小さいスケーリングファクタで乗算される。
[0095] 次に、DRAサンプルスケーリングと量子化パラメータとの間の関係を説明する。圧縮比を調整するために、ビデオエンコーダ20は、変換係数に適用されるスカラー量子化器を利用する、HEVCなどのブロック変換ベースのビデオコーディング方式を利用する。ビデオエンコーダ20は、量子化パラメータ(QP)に基づいてスカラー量子化器を制御することができ、QPとスカラー量子化器との間の関係は以下のように定義される。
[0096] 逆関数は、以下のように、HEVCにおけるスカラー量子化器とQPとの間の関係を定義する。
[0097] DRAを実装するとき、ビデオエンコーダ20およびビデオデコーダ30は、ピクセルデータを効果的にスケーリングし、変換領域において適用されるスケーラに信号の大きいクラスのためにマッピングされ得る変換特性を考慮に入れる。従って、以下の関係が定義される。
ここで、dQPは、例えば、HEVCによって、入力データにDRAを展開する(deploy)ことによって導入される近似QPオフセットである。
[0098] 現代のビデオコーディングシステムにおいて利用される非線形性(例えば、伝達関数SMPTE2084を適用する)および色表現(例えば、ITU-R BT.2020またはBT.22100)のうちのいくつかは、信号表現のダイナミックレンジおよび色成分にわたって、知覚される歪みの有意な変動、またはJND(Just-Noticeable Difference)しきい値を特徴とするビデオデータ表現をもたらし得る。これは、処理されたデータ範囲内に一定していない(unequal)信号対雑音比として知覚され得る。この問題に対処し、信号のダイナミックレンジにおけるコーディング(量子化)誤差分布を線形化するために、参考文献1のDRA法が提案された。
[0099] 参考文献1は、図9に示されるように、ハイブリッド変換ベースのビデオコーディング方式H.265/HEVCを適用する前に、ST2084/BT.2020コンテナにおいてビデオデータにおけるコードワード再分配を達成するためにDRAを適用することを提案した。
[0100] DRAによって達成される再分配は、ダイナミックレンジ内の知覚される歪み(信号対雑音比)の線形化を目標とする。デコーダ側でこの再分配を補償し、元のST2084/BT.2020表現にデータを変換するために、逆のDRAプロセスがビデオ復号後にデータに対して適用される。
[0101] そのようなDRA方式の別の例が、JCTVC-W0101 HDR CE2: Report on CE2. a-1 LCS, A. K. Ramasubramonian, J. Sole, D. Rusanovskyy, D. Bugdayci, M. Karczewicz(以下、参考文献2)中のルーマ駆動クロマスケーリング(LCS:Luma-driven chroma scaling)において提案された。
[0102] 参考文献2は、処理されたクロマサンプルに関連する輝度情報を利用することによって、クロマ情報、例えば、CbおよびCrを調整するための技法を提案した。同様に、参考文献1におけるDRA手法に、CbのためのスケールファクタSと、CrのためのSv,iをクロマサンプルに適用することが提案された。しかしながら、DRA関数を、式(3)および(4)のように、クロマ値uまたはvによってアクセス可能な範囲{Ri}のセットについてのピースワイズ線形関数S={Su,i,Ou,i}として定義する代わりに、LCS手法は、クロマサンプルに対するスケールファクタを導出するためにルーマ値Yを利用することを提案した。
[0103] サンプル当たり有限数のビット、例えば、10ビットを用いて表現されるビデオ信号に適用されるDRA技法は、ピクセルレベル量子化として分類され得る。変換領域においてブロックベースのスカラー量子化を展開するビデオ符号化(例えば、H.265/HEVC)と組み合わせられることは、画素領域および変換領域における信号の結合された量子化を有するビデオ符号化システムを生成する。
[0104] いくつかのビデオコーディング方式の設計は、コード化された信号に導入される量子化誤差の仮定/推定に基づくビデオコーディングツール、規範的な意思決定論理およびパラメータを組み込み得る。そのようなツールの例の中で、デコーダ側におけるH.265/HEVCデブロッキングフィルタ(例えば、HEVCの第8.7.2節)およびQP導出プロセス(例えば、HEVCの第8.6.1節)を挙げることができる。
[0105] ピクセルレベルでDRAを適用することは、正しく推定され得ない量子化誤差を導入し得、それは、デコーダにおいて利用される決定論理に非最適コーディング決定を行わせ得る。一例として、HEVC規格の表8-10は、エンコーダおよびデコーダの両方におけるQP導出中に利用されるクロマQPシフトを定義し、それは、現在のクロマブロックのサンプルに適用されるピクセル量子化/スケーリングを反映しない、式8-259/8-260によって導出されるQPインデックスをもたらし得る。
[0106] 本開示は、結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御のための技法について説明する。そのようなシステムの例は、変換領域における量子化を利用する従来のハイブリッドビデオ符号化と、前処理/後処理段階においてまたはビデオコーディングの符号化ループの内部において、画素領域中でスケーリング/量子化を実行するDRAとの組み合わせである。
[0107] ビデオエンコーダ20およびビデオデコーダ30は、デコーダQP処理のためにDRAスケール補償を実行し得る。3つの色成分のDRAスケールは、ビデオコーデックにおいて補償されたQPハンドリングに調整される。
[0108] 3つの色成分(例えば、Y、Cb、Cr)のためのDRAのパラメータが以下の変数によって定義されると仮定する。
[0109] ピクセル処理を行うDRAパラメータは、コード化ビットストリームを通してシグナリングされるか、またはビットストリーム中でシグナリングされるシンタックス要素からデコーダ側において導出される。これらのDRAパラメータは、変換係数の量子化を記述する情報を考慮することによってさらに調整される。
[0110] QPxは、所与のブロックのピクセルについてビデオエンコーダ20によって行われるQP調整または操作を表現し、ビットストリーム中でビデオデコーダ30にシグナリングされるか、またはサイド情報として、例えば予め表にされた情報(pre-tabulated information)としてビデオデコーダ30に提供される。このプロセスの出力は、復号されたサンプル(Ydec,Cbdec,Crdec)に適用される調整されたDRAパラメータ(DRA’,DRA’cb,DRA’cr)である。
[0111] ビデオエンコーダ20およびビデオデコーダ30は、ピクセルに適用されるDRAの影響を反映するようにQP情報を調整し得る。デコーダ側での意思決定において利用されるQP情報は、復号されたピクチャのピクセルに適用されるDRAの影響を反映するように変更される。
[0112] QPxは、現在処理されているピクセルに対するDRA処理によって実装されるスケーリングを考慮せずに、デコーダによって導出されるQPパラメータである。
[0113] このプロセスの出力は、デコーダ側での意思決定プロセスにおいて利用される調整されたQP(QP’,QP’Cb,QP’Cr)である。いくつかの例では、復号アルゴリズムにおける方法のサブセットのみが、意思決定プロセスにおいて調整されたQPを使用する。
[0114] 本開示の提案される技法の実装形態のいくつかの非限定的な例について以下で説明する。
[0115] ここで、クロマQPシフトテーブルのためのDRAスケール補償について説明する。いくつかの例では、デコーダのパラメータの導出は、復号されたビットストリームのシンタックス要素から導出されるローカルQP情報に基づき、デコーダ側で利用可能なサイド情報によってさらに変更され得る。
[0116] そのような処理の一例は、HEVC仕様書の第8.6.1節にある。
- 変数qPCbおよびqPCrは、qPiCbおよびqPiCrにそれぞれ等しいインデックスqPiに基づいて、表8-9に指定されるようなQpの値に等しく設定され、qPiCbおよびqPiCrは、以下のように導出される。
qPiCb = Clip3( -QpBdOffsetc, 57, QpY + pps_cb_qp_offset + slice_cb_qp_offset ) (8-257)
qPiCr = Clip3( -QpBdOffsetc, 57, QpY + pps_cr_qp_offset + slice_cr_qp_offset ) (8-258)
- ChromaArrayTypeが1に等しい場合、変数qPCbおよびqPCrは、qPiCbおよびqPiCrにそれぞれ等しいインデックスqPiに基づいて、表8-10に指定されるQpCの値に等しく設定される。
- そうでない場合、変数qPCbおよびqPCrは、それぞれqPiCbおよびqPiCrに等しいインデックスqPiに基づいて、Min(qPi,51)に等しく設定される。
- CbおよびCr成分のクロマ量子化パラメータQp’CbおよびQp’Crは、以下のように導出される。
Qp′Cb = qPCb + QpBdOffsetc (8-259)
Qp′Cr = qPCr + QpBdOffsetc (8-260)
[0117] そのような例では、クロマ成分のためのDRAスケールパラメータは、そのような処理によって導入されるQPシフトを反映するように変更され得る。以下の例はCb成分について与えられ、Cr成分についての導出は同様である。
[0118] ビデオデコーダ30は、表8-10を用いてCb成分のためのクロマ量子化パラメータを導出し得る。QP情報が推定される。
[0119] 変数updatedQP1は、復号プロセスにおいてさらに使用され、shiftQP1は、表8-10によって導入されたQPに対する影響についての推定値を与える。デコーダにおいてDRAおよびQP処理によって行われる画素レベル量子化を調和させる(harmonize)ために、DRAスケーリング関数は以下のように変更される。
ここで、scale2QP(DRACb)はScaleからQPへの変換を行い、同様に式18に示される。
[0120] いくつかの例では、特に成分間DRA実装(例えば、LCS)の場合、式(23)は、Y成分のDRAスケールから推定されたQPオフセット項と、Cb成分のDRAを生成するために使用される色度(chromaticity)スケール(addnDRACbScale)から推定された追加のQPオフセット項とを含む。例えば、estimateQP2 = qPcb + QpBdPffsetC + scale2QP(DRAY) + scale2QP(addnDRACbScale)である。
[0121] 変数UpdatedQP2は、DRAが変換領域スケーリングを通して行われる場合のQPの推定値を提供し、shfitQP2は、表8-10によって導入されるQPに対する影響の推定値を提供する。
[0122] いくつかの状況では、推定されたshiftQP1はshiftQP2に等しくない。この差を補償するために、DRAのスケールは、以下のように乗数で変更することができる。
ここで、関数Qp2Scaleは、式16に示されるように、QP変数を関連する量子化器スケールに変換する。
[0123] このプロセスの出力は、復号サンプルCbdecに適用される、調整されたDRAスケールである。
[0124] いくつかの例では、スケール-QP変換関数(scale to QP conversion function)scale2QP(DRACb)および結果として生じるestimateQP2の出力は、非整数値である。表8-10の要素をアドレス指定するために、表8-10への入力および出力QP値は、以下のように整数エントリ間で補間され得る。
[0125] さらに他の例では、表8-10(または同様の表にされた情報)のエントリは、分析関数を通して定義されるか、またはビットストリーム中で明示的にシグナリングされ得る。
[0126] さらに別の例では、shiftScaleは、以下のように表8-10のshiftQP1の影響を補償するように計算され得る。
shiftScale = Qp2Scale(shiftQP1)
[0127] いくつかの例では、依存関係(dependencies)の解析および処理を回避するために、式22および式23を初期化するためのQPインデックスが、ビットストリームを通してシグナリングされ得る。いくつかの例では、ビデオエンコーダ20は、本明細書で説明する提案される技法のためのパラメータを推定し、ビットストリーム(メタデータ、SEIメッセージ、VUI、またはSPS/PPSまたはスライスヘッダなど)を通してそれらのパラメータをビデオデコーダ30にシグナリングし得る。ビデオデコーダ30は、次いで、ビットストリームからパラメータを受信する。いくつかの例では、ビデオエンコーダ20は、提案される技法のパラメータを導出し得る。ビデオデコーダ30は、入力信号から、または入力信号に関連する他の利用可能なパラメータから、指定されたプロセスを実施し、同じ導出を実行し得る。いくつかの例では、ビデオエンコーダ20は、提案される技法のパラメータをビデオデコーダ30に明示的にシグナリングし得る。さらに別の例では、ビデオエンコーダ20およびビデオデコーダ30は、他の入力信号パラメータ、例えば、入力色域およびターゲット色コンテナ(カラープライマリ)のパラメータからパラメータを導出し得る。
[0128] 図10は、本開示において説明されている技法を実施し得るビデオエンコーダ20の例を示しているブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラおよびインターコーディングを行い得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間冗長性を低減または除去するために空間的予測に依存する。インターコーディングは、ビデオシーケンスの隣接するフレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依存する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのうちの任意のものを指し得る。単一方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮モードのうちの任意のものを指す場合がある。
[0129] 図10の例では、ビデオエンコーダ20は、ビデオデータメモリ33と、区分化ユニット35と、予測処理ユニット41と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。予測処理ユニット41は、動き推定ユニット(MEU:motion estimation unit)42、動き補償ユニット(MCU:motion compensation unit)44、およびイントラ予測処理ユニット46含む。ビデオブロック再構築のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換処理ユニット60と、加算器62と、フィルタユニット64と、復号ピクチャバッファ(DPB)66とを含む。
[0130] 図10に示されるように、ビデオエンコーダ20は、ビデオデータを受信し、受信したビデオデータをビデオデータメモリ33に記憶する。ビデオデータメモリ33は、ビデオエンコーダ20の構成要素によって符号化されることとなるビデオデータを記憶し得る。ビデオデータメモリ33内に記憶されたビデオデータは、例えば、ビデオソース18から取得され得る。DPB66は、例えば、イントラまたはインターコーディングモードで、ビデオエンコーダ20がビデオデータを符号化する際に使用するための参照ビデオデータを記憶する参照ピクチャメモリであり得る。ビデオデータメモリ33およびDPB66は、同期型ダイナミックランダムアクセスメモリ(SDRAM)、磁気RAM(MRAM)、抵抗性RAM(RRAM(登録商標))を含む、DRAMまたは他のタイプのメモリデバイスのなどの、様々なメモリデバイスのうちの任意のものによって形成され得る。ビデオデータメモリ33およびDPB66は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ33は、ビデオエンコーダ20の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。
[0131] 区分化ユニット35は、ビデオデータメモリ33からビデオデータを取り出し、このビデオデータをビデオブロックへと区分化する。この区分化はまた、例えば、LCUおよびCUの四分木構造に従ったビデオブロック区分化に加え、スライス、タイルまたは他のより大きなユニットへの区分化を含み得る。ビデオエンコーダ20は概して、符号化されるべきビデオスライス内のビデオブロックを符号化する構成要素を示す。スライスは、複数のビデオブロック(そして、場合によっては、タイルと呼ばれるビデオブロックのセット)へと分割され得る。予測処理ユニット41は、誤差結果(例えば、コーディングレートおよび歪みのレベル)に基づいて、現在のビデオブロックに対して、複数のイントラコーディングモードのうちの1つまたは複数のインターコーディングモードのうちの1つなどの、複数の可能なコーディングモードのうちの1つを選択し得る。予測処理ユニット41は、結果として生じるイントラまたはインターコーディングブロックを、残差ブロックデータを生成するために加算器50に、参照ピクチャとしての使用のための符号化されたブロックを再構成するために加算器62に提供し得る。
[0132] 予測処理ユニット41内のイントラ予測処理ユニット46は、空間的圧縮を提供するためにコード化されるべき現在のブロックと同じフレームまたはスライス中の1つまたは複数の近隣ブロックに対して、現在のビデオブロックのイントラ予測コーディングを実行し得る。予測処理ユニット41内の動き推定ユニット42および動き補償ユニット44は、時間的圧縮を提供するために、1つまたは複数の参照ピクチャ中の1つまたは複数の予測ブロックに対して、現在のビデオブロックのインター予測コーディングを実行する。
[0133] 動き推定ユニット42は、ビデオシーケンスについての所定のパターンに従って、ビデオスライスに対するインター予測モードを決定するように構成され得る。所定のパターンは、シーケンス内のビデオスライスをPスライスまたはBスライスと指定し得る。動き推定ユニット42および動き補償ユニット44は、高度に統合され得るが、概念的な目的のために別個に例示されている。動き推定ユニット42によって行われる動き推定は、ビデオブロックのための動きを推定する動きベクトルを生成する処理である。動きベクトルは、例えば、参照ピクチャ内の予測ブロックに対する、現在のビデオフレームまたはピクチャ内でのビデオブロックのPUの変位を示し得る。
[0134] 予測ブロックは、絶対値差分の和(SAD)、二乗差分の和(SSD)、または他の差分メトリックによって決定され得るピクセル差分の観点でコード化されるべきビデオブロックのPUと密接に一致するように発見されるブロックである。いくつかの例では、ビデオエンコーダ20は、DPB66に記憶された参照ピクチャのサブ整数画素位置についての値を算出し得る。例えば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置(fractional pixel position)の値を補間し得る。従って、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に対する動き検索を実行し、分数ピクセル精度(fractional pixel precision)を有する動きベクトルを出力し得る。
[0135] 動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのためのPUの動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらは各々、DPB66に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルを、エントロピー符号化ユニット56および動き補償ユニット44に送る。
[0136] 動き補償ユニット44によって実行される動き補償は、動き推定によって決定された動きベクトルに基づいて、予測ブロックをフェッチまたは生成することを含み、場合によっては、サブ画素精度への補間を実行し得る。現在のビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックを位置決めすることができる。ビデオエンコーダ20は、コード化される現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算することによって、残差ビデオブロックを形成し、ピクセル差分値を形成する。画素差分値は、このブロックについての残差データを形成し、ルーマおよびクロマの両方の差分成分を含み得る。加算器50は、この減算オペレーションを実行する1つまたは複数の構成要素を表現する。動き補償ユニット44はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックおよびビデオスライスに関連付けられたシンタックス要素を生成し得る。
[0137] 予測処理ユニット41が現在のビデオブロックについての予測ブロックを生成した後、イントラ予測またはインター予測のいずれかを介して、ビデオエンコーダ20は、現在のビデオブロックから予測ブロックを減算することで残差ビデオブロックを形成し得る。残差ブロック内の残差ビデオデータは、1つまたは複数のTUに含まれ、変換処理ユニット52に適用され得る。変換処理ユニット52は、離散コサイン変換(DCT:discrete cosine transform)などの変換または概念的に同様の変換を使用して、残差ビデオデータを残差変換係数へと変換する。変換処理ユニット52は、残差ビデオデータをピクセル領域から周波数領域のような変換領域に変換し得る。
[0138] 変換処理ユニット52は、結果として生じる変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために、変換係数を量子化する。量子化プロセスは、係数の一部または全てに関連付けられたビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例では、量子化ユニット54は、次いで、量子化された変換係数を含む行列のスキャンを行い得る。別の例では、エントロピー符号化ユニット56がスキャンを実行し得る。
[0139] 量子化に続いて、エントロピー符号化ユニット56は、量子化された変換係数をエントロピー符号化する。例えば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術長コーディング(CABAC)、シンタックスベースのコンテキスト適応型バイナリ算術長コーディング(SBAC)、確率区間区分エントロピー(PIPE)コーディング、または別のエントロピー符号化方法または技法を実行し得る。エントロピー符号化ユニット56によるエントロピー符号化に続いて、符号化されたビットストリームは、ビデオデコーダ30に送信されるか、ビデオデコーダ30による後の送信または検索のためにアーカイブされ得る。エントロピー符号化ユニット56はまた、コード化される現在のビデオスライスのために他のシンタックス要素および動きベクトルをエントロピー符号化し得る。
[0140] 逆量子化ユニット58および逆変換処理ユニット60は、参照ピクチャの参照ブロックとしての後の使用のために、画素ドメイン内において残差ブロックを再構成するために、それぞれ逆量子化および逆変換を適用する。動き補償ユニット44は、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つの予測ブロックに残差ブロックを加えることによって参照ブロックを算出し得る。動き補償ユニット44はまた、動き推定での使用のためにサブ整数ピクセル値を計算するために、1つまたは複数の補間フィルタを再構成された残差ブロックに適用し得る。加算器62は、再構成されたブロックを作り出すために、動き補償ユニット44によって作成された動き補償された予測ブロックに、再構成された残差ブロックを加える。
[0141] フィルタユニット64は、再構成されたブロック(例えば、加算器62の出力)をフィルタし、参照ブロックとしての使用のために、フィルタされた再構成されたブロックをDPB66に記憶する。参照ブロックは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するために、動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。フィルタユニット64は、デブロッキングフィルタ、サンプル適応オフセットフィルタ、および適応ループフィルタ、または他のタイプのフィルタのうちの1つまたは複数を表現することが意図される。デブロッキングフィルタは、例えば、再構成されたビデオからのブロッキネスアーティファクト(blockiness artifact)を除去するために、ブロック境界をフィルタリングするようにデブロッキングフィルタを適用し得る。サンプル適応オフセットフィルタは、全体的なコーディング品質を改善するために、再構成されたピクセル値にオフセットを適用し得る。追加のループフィルタ(ループ内またはポストループ)もまた使用され得る。
[0142] 本開示で説明する様々な技法は、別々にまたは互いに組み合わせて、ビデオエンコーダ20および/または前処理ユニット19によって実行され得る。例えば、ビデオエンコーダ20および/または前処理ユニット19は、HDR/WCGビデオデータを処理するように構成され得る。ビデオエンコーダ20および/または前処理ユニット19は、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化することと、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定することと、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定することと、HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行することと、を行うように構成され得る。
[0143] ビデオエンコーダ20および/または前処理ユニット19は、追加的にまたは代替的に、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、量子化された変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を量子化することと、決定された量子化パラメータに基づいてHDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、を行うように構成され得る。
[0144] 図11は、本開示で説明される技法を実施し得る、例示的なビデオデコーダ30を示すブロック図である。図11のビデオデコーダ30は、例えば、図10のビデオエンコーダ20に関して上述されたシグナリングを受信するように構成され得る。図11の例では、ビデオデコーダ30は、ビデオデータメモリ78、エントロピー復号ユニット80、予測処理ユニット81、逆量子化ユニット86、逆変換処理ユニット88、加算器90、およびDPB94を含む。予測処理ユニット81は、動き補償ユニット82と、イントラ予測ユニット84とを含む。ビデオデコーダ30は、いくつかの例では、図10のビデオエンコーダ20に関して説明された符号化パスと概して逆の復号パスを行い得る。
[0145] 復号プロセスの間、ビデオデコーダ30は、符号化ビデオスライスのビデオブロックおよび関連付けられたシンタックス要素を表現する符号化ビットストリームをビデオエンコーダ20から受信する。ビデオデコーダ30は、受信した符号化ビデオビットストリームをビデオデータメモリ78に記憶する。ビデオデータメモリ78は、ビデオデコーダ30の構成要素によって復号されるべき符号化されたビデオビットストリームなどのビデオデータを記憶し得る。ビデオデータメモリ78に記憶されたビデオデータは、例えば、リンク16を介して、記憶デバイス26から、またはカメラなどのローカルビデオソースから、または物理データ記憶媒体にアクセスすることによって取得され得る。ビデオデータメモリ78は、符号化されたビデオビットストリームからの符号化ビデオデータを記憶する、コード化されたピクチャバッファ(CPB:coded picture buffer)を形成し得る。DPB94は、例えば、イントラまたはインターコーディングモードで、ビデオデコーダ30がビデオデータを復号する際に使用するための参照ビデオデータを記憶する参照ピクチャメモリであり得る。ビデオデータメモリ78およびDPB94は、DRAM、SDRAM、MRAM、RRAM、または他のタイプのメモリデバイスなどの様々なメモリデバイスのうちの任意のものによって形成され得る。ビデオデータメモリ78およびDPB94は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ78は、ビデオデコーダ30の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。
[0146] ビデオデコーダ30のエントロピー復号ユニット80は、量子化された係数、動きベクトル、および他のシンタックス要素を生成するために、ビデオデータメモリ78に記憶されたビデオデータをエントロピー復号する。エントロピー復号ユニット80は、動きベクトルおよび他のシンタックス要素を予測処理ユニット81に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0147] ビデオスライスがイントラコード化された(I)スライスとしてコード化されるとき、予測処理ユニット81のイントラ予測ユニット84は、シグナリングされたイントラ予測モードおよびデータに基づいて現在のフレームまたはピクチャの以前に復号されたブロックから現在のビデオスライスのビデオブロックについての予測データを生成し得る。ビデオフレームがインターコード化された(例えば、BまたはP)スライスとしてコード化されるとき、予測処理ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信した動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックについての予測ブロックを作成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから作成され得る。ビデオデコーダ30は、DPB94に記憶された参照ピクチャに基づいてデフォルト構築技法を使用して、参照フレームリスト、リスト0およびリスト1を構築し得る。
[0148] 動き補償ユニット82は、動きベクトルと他のシンタックス要素とを解析することによって現在のビデオスライスのビデオブロックのための予測情報を決定し、復号されている現在のビデオブロックの予測ブロックを作成するために、その予測情報を使用する。例えば、動き補償ユニット82は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(例えば、イントラまたはインター予測)と、インター予測スライスタイプ(例えば、BスライスまたはPスライス)と、スライスのための参照ピクチャリストのうちの1つまたは複数についての構築情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコード化ビデオブロックのためのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報と、を決定するために、受信したシンタックス要素のうちのいくつかを使用する。
[0149] 動き補償ユニット82はまた、補間フィルタに基づいて補間を実行することができる。動き補償ユニット82は、参照ブロックのサブ整数ピクセルのための補間された値を計算するために、ビデオブロックの符号化中にビデオエンコーダ20によって使用される補間フィルタを使用し得る。このケースでは、動き補償ユニット82は、受信したシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、予測ブロックを作成するために補間フィルタを使用し得る。
[0150] 逆量子化ユニット86は、ビットストリーム内で提供され、エントロピー復号ユニット80によって復号された、量子化された変換係数を逆量子化(inverse quantize)、すなわち、非量子化(de-quantize)する。逆量子化プロセスは、量子化の程度、同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライスにおける各ビデオブロックについて、ビデオエンコーダ20によって計算される量子化パラメータの使用を含み得る。逆変換処理ユニット88は、ピクセル領域において残差ブロックを作成するために、逆変換、例えば、逆DCT、逆整数変換、または概念的に同様の逆変換処理を変換係数に適用する。
[0151] 予測処理ユニットが、例えば、イントラまたはインター予測を使用して現在のビデオブロックについての予測ブロックを生成した後、ビデオデコーダ30は、逆変換処理ユニット88からの残差ブロックを、動き補償ユニット82によって生成された対応する予測ブロックに加算することで、再構成されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数の構成要素を表現する。フィルタユニット92は、例えば、デブロッキングフィルタリング、SAOフィルタリング、適応フィルタリング、または他のタイプのフィルタのうちの1つまたは複数を使用して、再構成されたビデオブロックをフィルタリングする。(コーディングループ内またはコーディングループ後のいずれかの)他のループフィルタはまた、画素遷移を平滑化するためにまたは別の方法でビデオ品質を改善するために使用され得る。所与のフレームまたはピクチャ内の復号されたビデオブロックは次いで、後の動き補償のために使用される参照ピクチャを記憶するDPB94に記憶される。DPB94は、図1のディスプレイデバイス32などのディスプレイデバイス上での後の表現のために、復号されたビデオを記憶する追加のメモリの一部であるかまたはそれとは別個であり得る。
[0153] 本開示で説明する様々な技法は、別々にまたは互いに組み合わせて、ビデオデコーダ30および/または後処理ユニット31によって実行され得る。例えば、ビデオデコーダ30および/または後処理ユニット31は、HDR/WCGビデオデータを処理するように構成され得る。ビデオデコーダ30および/または後処理ユニット31は、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化することと、非量子化変換係数に基づいて、HDR/WCGビデオデータのブロックのための残差値のブロックを決定することと、残差値のブロックに基づいて、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定することと、HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータを決定することと、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整することと、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行することと、を行うように構成され得る。
[0154] 図12は、本開示の技法に従って、ビデオデータを復号するためのビデオデコーダの動作の例を示すフローチャートである。図12に関して説明したビデオデコーダは、例えば、表示可能な復号ビデオを出力するための、ビデオデコーダ30などのビデオデコーダであり得るか、または予測処理ユニット41、逆量子化ユニット58、逆変換処理ユニット60、フィルタユニット64、DPB66を含む、ビデオエンコーダ20の復号ループなどのビデオエンコーダにおいて実装されるビデオデコーダであり得る。図12の技法のいくつかは、前処理ユニット19または後処理ユニット31など、ビデオデコーダとは別個のエンティティによって実行され得るが、簡略化のために、図12の全ての技法は、ビデオデコーダによって実行されるものとして説明される。
[0155] ビデオデコーダは、HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定する(200)。ビデオデコーダは、非量子化変換係数を決定するために、決定された量子化パラメータに基づいて量子化された変換係数を逆量子化する(210)。非量子化変換係数に基づいて、ビデオデコーダは、HDR/WCGビデオデータのブロックのための残差値のブロックを決定する(220)。残差値のブロックに基づいて、ビデオデコーダは、HDR/WCGビデオデータのブロックのための再構成されたブロックを決定する(230)。ビデオデコーダは、HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータを決定する(240)。HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータを決定するために、ビデオデコーダは、HDR/WCGビデオデータ中のシンタックス要素として1つまたは複数のDRAパラメータの指示を受信し得るか、または場合によっては1つまたは複数のDRAパラメータを導出し得る。
[0156] ビデオデコーダは、1つまたは複数の調整されたDRAパラメータを決定するために、決定された量子化パラメータに基づいて1つまたは複数のDRAパラメータを調整する(250)。HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータは、HDR/WCGビデオデータのブロックのルーマ成分のためのスケーリングパラメータと、HDR/WCGビデオデータのブロックのルーマ成分のためのオフセットパラメータとを含み得、HDR/WCGビデオデータのブロックのための1つまたは複数の調整されたDRAパラメータは、HDR/WCGビデオデータのブロックのルーマ成分のための調整されたスケーリングパラメータと、HDR/WCGビデオデータのブロックのルーマ成分のための調整されたオフセットパラメータと、を含み得る。HDR/WCGビデオデータのブロックのための1つまたは複数のDRAパラメータは、HDR/WCGビデオデータのブロックのクロマ成分のためのスケーリングパラメータと、HDR/WCGビデオデータのブロックのクロマ成分のためのオフセットパラメータとを含み得、HDR/WCGビデオデータのブロックのための1つまたは複数の調整されたDRAパラメータは、HDR/WCGビデオデータのブロックのクロマ成分のための調整されたスケーリングパラメータと、HDR/WCGビデオデータのブロックのクロマ成分のための調整されたオフセットパラメータと、を含み得る。1つまたは複数の調整されたDRAパラメータは、HDR/WCGビデオデータのブロックの第1のクロマ成分のための調整されたDRAパラメータと、HDR/WCGビデオデータのブロックの第2のクロマ成分のための調整されたDRAパラメータとを含み得る。1つまたは複数の調整されたDRAパラメータは、HDR/WCGビデオデータのブロックのルーマ成分のための調整されたDRAパラメータと、HDR/WCGビデオデータのブロックの第1のクロマ成分のための調整されたDRAパラメータと、HDR/WCGビデオデータのブロックの第2のクロマ成分のための調整されたDRAパラメータとを含み得る。
[0157] ビデオデコーダは、1つまたは複数の調整されたDRAパラメータを使用して、HDR/WCGビデオデータの再構成されたブロックに対してDRAを実行する(260)。ビデオデコーダはまた、DRAを実行することから生じる調整されたビデオデータを出力し得る。ビデオデコーダは、例えば、表示のために調整されたビデオデータを出力し得るか、または調整されたビデオデータを記憶することによって調整されたビデオデータを出力し得る。ビデオデコーダは、将来的な表示のために調整されたビデオデータを記憶し得るか、またはビデオデータの将来のブロックを符号化または復号するために調整されたビデオデータを記憶し得る。
[0158] 1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらのあらゆる組み合わせで実装され得る。ソフトウェアで実装される場合、機能は1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は一般に、(1)非一時的である有形のコンピュータ可読記憶媒体または(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実装のための命令、コードおよび/またはデータ構造を検索するために、1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされることができる任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0159] 限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD-ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置、または他の磁気記憶デバイス、フラッシュメモリ、あるいはデータ構造もしくは命令の形態で所望のプログラムコードを記憶するために使用されることができ、且つコンピュータによってアクセスされることができる任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的な媒体を含むのではなく、代わりに、非一時的な有形の記憶媒体を対象とすることが理解されるべきである。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスクおよびBlu-rayディスクを含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0160] 命令は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、あるいは他の同等な集積またはディスクリートロジック回路などの、1つまたは複数のプロセッサによって実行され得る。従って、本明細書で使用される「プロセッサ」という用語は、前述の構造のいずれかまたは本明細書で説明された技法の実装に適切な任意の他の構造を指し得る。加えて、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成されるか、または複合コーデックに組み込まれる、専用のハードウェアモジュールおよび/またはソフトウェアモジュール内で提供され得る。また、本技法は、1つまたは複数の回路または論理要素で十分に実装され得る。
[0161] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む、幅広い多様なデバイスまたは装置内において実装され得る。本開示では、開示される技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットが説明されたが、それらは、必ずしも異なるハードウェアユニットによる実現を必要としない。むしろ、上述したように、様々なユニットは、コーデックハードウェアユニットへと組み合わせられるか、適切なソフトウェアおよび/またはファームウェアと連携して、上述したような1つまたは複数のプロセッサを含む、相互動作するハードウェアユニットの集合によって提供され得る。
[0162] 様々な例が説明された。これらの例および他の例は、以下の請求項の範囲内にある。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理する方法であって、前記方法は、
前記HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、
非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化することと、
前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定することと、
前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定することと、
前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、
1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整することと、
前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行することと、
を備える、方法。
[C2]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたオフセットパラメータと、を備える、C1に記載の方法。
[C3]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのクロマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたオフセットパラメータと、を備える、C1に記載の方法。
[C4]
前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータと、を備える、C1に記載の方法。
[C5]
前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータと、を備える、C1に記載の方法。
[C6]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータを決定することは、前記1つまたは複数のDRAパラメータの指示を、前記HDR/WCGビデオデータ中のシンタックス要素として受信することを備える、C1に記載の方法。
[C7]
前記HDR/WCGビデオデータの前記再構成されたブロックは、前記再構成されたブロックのフィルタリングされたバージョンを備える、C1に記載の方法。
[C8]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータを決定することは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のための量子化パラメータと前記HDR/WCGビデオデータの前記ブロックのクロマ成分のための量子化パラメータとの間の依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの少なくとも1つを導出することを備える、C1に記載の方法。
[C9]
前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出することは、QP-DRAスケール変換(QP to DRA scale conversion)を実行することによって、前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出することを備える、C8に記載の方法。
[C10]
前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出することは、DRAスケール-QP変換(DRA scale to QP conversion)を実行することによって、前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出することを備える、C8に記載の方法。
[C11]
前記ルーマ成分のための前記量子化パラメータと前記クロマ成分のための前記量子化パラメータとの間の前記依存性は、コーデックによって定義される、C8に記載の方法。
[C12]
前記方法は、
前記HDR/WCGビデオデータ中のシンタックス要素を受信することをさらに備え、前記シンタックス要素のための値は、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性を定義する、
C8に記載の方法。
[C13]
復号する前記方法は、符号化プロセスの一部として実行される、C8に記載の方法。
[C14]
ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理するためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
前記メモリに結合された1つまたは複数のプロセッサと、を備え、前記1つ又は複数のプロセッサは、
前記HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、
非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化することと、
前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定することと、
前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定することと、
前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、
1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整することと、
前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行することと、
を行うように構成された、デバイス。
[C15]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたオフセットパラメータと、を備える、C14に記載のデバイス。
[C16]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのクロマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたオフセットパラメータと、を備える、C14に記載のデバイス。
[C17]
前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータとを備える、C14に記載のデバイス。
[C18]
前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータとを備える、C14に記載のデバイス。
[C19]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータを決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数のDRAパラメータの指示を、前記HDR/WCGビデオデータ中のシンタックス要素として受信するように構成される、C14に記載のデバイス。
[C20]
前記HDR/WCGビデオデータの前記再構成されたブロックは、前記再構成されたブロックのフィルタリングされたバージョンを備える、C14に記載のデバイス。
[C21]
前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータを決定するために、前記1つまたは複数のプロセッサは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のための量子化パラメータと前記HDR/WCGビデオデータの前記ブロックのクロマ成分のための量子化パラメータとの間の依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの少なくとも1つを導出するように構成される、C14に記載のデバイス。
[C22]
前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出するために、前記1つまたは複数のプロセッサは、QP-DRAスケール変換(QP to DRA scale conversion)を実行することによって、前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出するように構成される、C21に記載のデバイス。
[C23]
前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性に基づいて、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出するために、前記1つまたは複数のプロセッサは、DRAスケール-QP変換(DRA scale to QP conversion)を実行することによって、前記1つまたは複数のDRAパラメータのうちの前記少なくとも1つを導出するように構成される、C21に記載のデバイス。
[C24]
前記ルーマ成分のための前記量子化パラメータと前記クロマ成分のための前記量子化パラメータとの間の前記依存性は、コーデックによって定義される、C21に記載のデバイス。
[C25]
前記1つまたは複数のプロセッサは、
前記HDR/WCGビデオデータ中のシンタックス要素を受信するようにさらに構成され、前記シンタックス要素のための値は、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための前記量子化パラメータと前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための前記量子化パラメータとの間の前記依存性を定義する、
C21に記載のデバイス。
[C26]
前記デバイスは、ワイヤレス通信デバイスを備え、符号化されたビデオデータを受信するように構成された受信機をさらに備える、C14に記載のデバイス。
[C27]
前記ワイヤレス通信デバイスは、電話ハンドセットを備え、前記受信機は、ワイヤレス通信規格に従って前記符号化されたビデオデータを備える信号を復調するように構成される、C26に記載のデバイス。
[C28]
前記デバイスは、ワイヤレス通信デバイスを備え、符号化されたビデオデータを送信するように構成された送信機をさらに備える、C14に記載のデバイス。
[C29]
前記ワイヤレス通信デバイスは、電話ハンドセットを備え、前記送信機は、ワイヤレス通信規格に従って、前記符号化されたビデオデータを備える信号を変調するように構成される、C28に記載のデバイス。
[C30]
命令を記憶するコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、
非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化することと、
前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定することと、
前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定することと、
前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、
1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整することと、
前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行することと
を行わせる、コンピュータ可読記憶媒体。
[C31]
ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理するための装置であって、前記デバイスは、
前記HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定するための手段と、
非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化するための手段と、
前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定するための手段と、
前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定するための手段と、
前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定するための手段と、
1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整するための手段と、
前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行するための手段と、
を備える、装置。

Claims (10)

  1. ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理する方法であって、前記方法は、
    前記HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、
    非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化することと、
    前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定することと、
    前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定することと、
    前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、
    1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整することと、
    前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行することと、
    を備え、
    前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたオフセットパラメータと、を備え、
    前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのクロマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたオフセットパラメータと、を備える、方法。
  2. 復号する前記方法は、符号化プロセスの一部として実行される、請求項に記載の方法。
  3. ハイダイナミックレンジおよび/または広色域(HDR/WCG)ビデオデータを処理するためのデバイスであって、前記デバイスは、
    ビデオデータを記憶するように構成されたメモリと、
    前記メモリに結合された1つまたは複数のプロセッサと、を備え、前記1つまたは複数のプロセッサは、
    前記HDR/WCGビデオデータのブロックの量子化された変換係数のための量子化パラメータを決定することと、
    非量子化変換係数を決定するために、前記決定された量子化パラメータに基づいて前記量子化された変換係数を逆量子化することと、
    前記非量子化変換係数に基づいて、前記HDR/WCGビデオデータの前記ブロックのための残差値のブロックを決定することと、
    前記残差値のブロックに基づいて、前記HDR/WCGビデオデータの前記ブロックのための再構成されたブロックを決定することと、
    前記HDR/WCGビデオデータの前記ブロックのための1つまたは複数のダイナミックレンジ調整(DRA)パラメータを決定することと、
    1つまたは複数の調整されたDRAパラメータを決定するために、前記決定された量子化パラメータに基づいて前記1つまたは複数のDRAパラメータを調整することと、
    前記1つまたは複数の調整されたDRAパラメータを使用して、前記HDR/WCGビデオデータの前記再構成されたブロックに対してDRAを実行することと、
    を行うように構成され、
    前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記ルーマ成分のための調整されたオフセットパラメータと、を備え、
    前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのクロマ成分のためのスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のためのオフセットパラメータとを備え、前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたスケーリングパラメータと、前記HDR/WCGビデオデータの前記ブロックの前記クロマ成分のための調整されたオフセットパラメータと、を備える、デバイス。
  4. 前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータとを備える、請求項に記載のデバイス。
  5. 前記1つまたは複数の調整されたDRAパラメータは、前記HDR/WCGビデオデータの前記ブロックのルーマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第1のクロマ成分のための調整されたDRAパラメータと、前記HDR/WCGビデオデータの前記ブロックの第2のクロマ成分のための調整されたDRAパラメータとを備える、請求項に記載のデバイス。
  6. 前記HDR/WCGビデオデータの前記ブロックのための前記1つまたは複数のDRAパラメータを決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数のDRAパラメータの指示を、前記HDR/WCGビデオデータ中のシンタックス要素として受信するように構成される、請求項に記載のデバイス。
  7. 前記HDR/WCGビデオデータの前記再構成されたブロックは、前記再構成されたブロックのフィルタリングされたバージョンを備える、請求項に記載のデバイス。
  8. 前記1つまたは複数のプロセッサは、
    前記HDR/WCGビデオデータ中のシンタックス要素を受信するようにさらに構成され、前記シンタックス要素は、前記1つまたは複数のダイナミックレンジ調整(DRA)パラメータを備える、
    請求項に記載のデバイス。
  9. 前記デバイスは、ワイヤレス通信デバイスを備え、符号化されたビデオデータを受信するように構成された受信機をさらに備え、
    前記ワイヤレス通信デバイスは、好ましくは、電話ハンドセットを備え、前記受信機は、ワイヤレス通信規格に従って前記符号化されたビデオデータを備える信号を復調するように構成され、または、
    前記デバイスは、ワイヤレス通信デバイスを備え、符号化されたビデオデータを送信するように構成された送信機をさらに備え、前記ワイヤレス通信デバイスは、好ましくは、電話ハンドセットを備え、前記送信機は、ワイヤレス通信規格に従って、前記符号化されたビデオデータを備える信号を変調するように構成される、
    請求項に記載のデバイス。
  10. 命令を記憶するコンピュータ可読媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、請求項1または2に記載の方法を行わせる、コンピュータ可読媒体。
JP2020533193A 2017-12-19 2018-12-19 結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御 Active JP7369124B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762607887P 2017-12-19 2017-12-19
US62/607,887 2017-12-19
US16/224,320 US10681358B2 (en) 2017-12-19 2018-12-18 Quantization parameter control for video coding with joined pixel/transform based quantization
US16/224,320 2018-12-18
PCT/US2018/066476 WO2019126307A1 (en) 2017-12-19 2018-12-19 Quantization parameter control for video coding with joined pixel/transform based quantization

Publications (3)

Publication Number Publication Date
JP2021507614A JP2021507614A (ja) 2021-02-22
JP2021507614A5 JP2021507614A5 (ja) 2022-01-06
JP7369124B2 true JP7369124B2 (ja) 2023-10-25

Family

ID=66816609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533193A Active JP7369124B2 (ja) 2017-12-19 2018-12-19 結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御

Country Status (9)

Country Link
US (2) US10681358B2 (ja)
EP (1) EP3729806A1 (ja)
JP (1) JP7369124B2 (ja)
KR (1) KR20200099535A (ja)
CN (1) CN111480339B (ja)
BR (1) BR112020012101A2 (ja)
SG (1) SG11202004176SA (ja)
TW (1) TWI800580B (ja)
WO (1) WO2019126307A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107211130B (zh) * 2015-01-30 2020-07-24 交互数字Vc控股公司 对彩色画面进行编码和解码的方法和装置
US10244249B2 (en) 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
US10129558B2 (en) * 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US10681358B2 (en) 2017-12-19 2020-06-09 Qualcomm Incorporated Quantization parameter control for video coding with joined pixel/transform based quantization
WO2019191218A1 (en) * 2018-03-30 2019-10-03 Interdigital Vc Holdings, Inc. Chroma quantization parameter adjustment in video encoding and decoding
EP3550837A1 (en) * 2018-04-06 2019-10-09 Comcast Cable Communications LLC Method for generating quantization matrices based on viewing conditions
CN113545064B (zh) * 2019-03-04 2024-05-10 阿里巴巴集团控股有限公司 用于处理视频内容的方法和装置及计算机可读存储介质
US20220256174A1 (en) * 2019-06-03 2022-08-11 Lg Electronics Inc. Video or image coding based on mapped luma component and scaled chroma component
CN111083475B (zh) * 2019-12-31 2022-04-01 上海富瀚微电子股份有限公司 量化变换系数管理装置及适用于hevc标准的编码器
US11558616B2 (en) 2020-03-05 2023-01-17 Qualcomm Incorporated Methods for quantization parameter control for video coding with joined pixel/transform based quantization
US11375212B2 (en) * 2020-04-18 2022-06-28 Qualcomm Incorporated Flexible chroma processing for dynamic range adjustment
CN113489983A (zh) * 2021-06-11 2021-10-08 浙江智慧视频安防创新中心有限公司 一种基于相关度比较确定分块编码参数的方法及装置
WO2023140952A1 (en) * 2022-01-20 2023-07-27 Dolby Laboratories Licensing Corporation Data structure for multimedia applications

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160309154A1 (en) 2015-04-17 2016-10-20 Qualcomm Incorporated Dynamic range adjustment for high dynamic range and wide color gamut video coding
WO2017053277A1 (en) 2015-09-21 2017-03-30 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307889A1 (en) * 2011-06-01 2012-12-06 Sharp Laboratories Of America, Inc. Video decoder with dynamic range adjustments
CN102333223A (zh) * 2011-10-25 2012-01-25 北京华兴宏视技术发展有限公司 视频数据编码方法、解码方法、编码系统和解码系统
EP3544298A1 (en) * 2014-09-12 2019-09-25 Vid Scale, Inc. Inter-component de-correlation for video coding
US10200701B2 (en) * 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
KR20180074150A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 Sao 필터링을 포함하는 비디오 데이터의 부호화를 위한 방법 및 장치
US10681358B2 (en) 2017-12-19 2020-06-09 Qualcomm Incorporated Quantization parameter control for video coding with joined pixel/transform based quantization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160309154A1 (en) 2015-04-17 2016-10-20 Qualcomm Incorporated Dynamic range adjustment for high dynamic range and wide color gamut video coding
WO2017053277A1 (en) 2015-09-21 2017-03-30 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D. Rusanovskyy, et al.,Additional information on HDR video coding technology proposal by Qualcomm and Technicolor,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018,JVET-J0067,URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0067-v1.zip,2018年04月03日,pp. 1~7,学術文献等DB

Also Published As

Publication number Publication date
US20190191172A1 (en) 2019-06-20
JP2021507614A (ja) 2021-02-22
US10681358B2 (en) 2020-06-09
EP3729806A1 (en) 2020-10-28
BR112020012101A2 (pt) 2020-11-17
KR20200099535A (ko) 2020-08-24
US11190779B2 (en) 2021-11-30
CN111480339B (zh) 2022-05-24
SG11202004176SA (en) 2020-07-29
US20200260092A1 (en) 2020-08-13
WO2019126307A1 (en) 2019-06-27
CN111480339A (zh) 2020-07-31
TW201931853A (zh) 2019-08-01
TWI800580B (zh) 2023-05-01

Similar Documents

Publication Publication Date Title
JP7369124B2 (ja) 結合されたピクセル/変換ベースの量子化を用いたビデオコーディングのための量子化パラメータ制御
CN109155848B (zh) 用于高动态范围及宽色域视频译码的环路内样本处理
US10666957B2 (en) Processing high dynamic range and wide color gamut video data for video coding
TWI773868B (zh) 用於視訊寫碼之相等範圍及其他dra參數之信號發送機制
CN110999299B (zh) 在视频译码中跨分量动态范围调整(cc-dra)的系统及方法
TWI701942B (zh) 用於視訊寫碼中可適性顏色轉換之量化參數推導及偏移
US10284863B2 (en) Adaptive constant-luminance approach for high dynamic range and wide color gamut video coding
US20160309154A1 (en) Dynamic range adjustment for high dynamic range and wide color gamut video coding
TW201924336A (zh) 利用內容適應性空間變化量化之視訊寫碼
TWI765903B (zh) 用於循環樣本處理之視訊寫碼工具

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231013

R150 Certificate of patent or registration of utility model

Ref document number: 7369124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150