JP2023543762A - ビデオコーディングのためのニューラルネットワークベースフィルタ処理プロセスにおける活性化関数設計 - Google Patents

ビデオコーディングのためのニューラルネットワークベースフィルタ処理プロセスにおける活性化関数設計 Download PDF

Info

Publication number
JP2023543762A
JP2023543762A JP2023518813A JP2023518813A JP2023543762A JP 2023543762 A JP2023543762 A JP 2023543762A JP 2023518813 A JP2023518813 A JP 2023518813A JP 2023518813 A JP2023518813 A JP 2023518813A JP 2023543762 A JP2023543762 A JP 2023543762A
Authority
JP
Japan
Prior art keywords
alpha
video
cnn
video data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023518813A
Other languages
English (en)
Inventor
ワン、ホンタオ
チェン、ジャンレー
カルチェビチ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2023543762A publication Critical patent/JP2023543762A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデータをコーディングする方法であって、本方法は、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を備える、方法。

Description

[0001] 本出願は、各々の内容全体が参照により組み込まれる、2021年9月29日に出願された米国特許出願第17/489,459号と、2020年9月30日に出願された米国仮特許出願第63/085,936号との優先権を主張する。2021年9月29日に出願された米国特許出願第17/489,459号は、2020年9月30日に出願された米国仮特許出願第63/085,936号の利益を主張する。
[0002] 本開示は、ビデオ符号化(video encoding)およびビデオ復号(video decoding)に関する。
[0003] デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲーミングデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4,Part10,アドバンストビデオコーディング(AVC)、ITU-T H.265/高効率ビデオコーディング(HEVC)によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法など、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004] ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を含む。ブロックベースビデオコーディングでは、ビデオスライス(たとえば、ビデオピクチャまたはビデオピクチャの一部分)が、コーディングツリーユニット(CTU)、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある、ビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測、または他の参照ピクチャ中の参照サンプルに対する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005] 概して、本開示は、ひずんだピクチャのためのフィルタ処理プロセスに関する技法について説明する。フィルタ処理プロセスは、ニューラルネットワーク技術に基づき得る。たとえば、フィルタ処理プロセスは、ビデオデータ(video data)の再構築されたブロック(block)に畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースフィルタを適用し得る。CNNベースフィルタ(CNN-based filter)は、漏洩正規化線形ユニット(ReLU)(Leaky Rectified Linear Unit)活性化関数(activation function)を使用し得る。LeakyReLU活性化関数の使用は、トレーニング中に、正規化線形ユニット(ReLU)活性化関数よりも良い性能につながり、パラメトリック正規化線形ユニット(PReLU)活性化関数よりも大きい安定性につながり得る。フィルタ処理プロセスは、汎用ビデオコーディング(VVC)の拡張または次世代のビデオコーディング規格、および任意の他のビデオコーデックなど、高度ビデオコーデックのコンテキストにおいて使用され得る。
[0006] 一例では、本開示は、ビデオデータをコーディングする方法であって、本方法は、ビデオデータのブロックを再構築する(reconstruct)ことと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を備える、方法について説明する。
[0007] 別の例では、ビデオデータをコーディングするためのデバイス(device)が、ビデオデータを記憶するためのメモリと、回路中に実装された1つまたは複数のプロセッサ(processor)とを備え、1つまたは複数のプロセッサは、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行うように構成される。
[0008] 別の例では、本開示は、ビデオデータをコーディングするためのデバイスであって、本デバイスは、ビデオデータのブロックを再構築するための手段と、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用するための手段と、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を備える、デバイスについて説明する。
[0009] 別の例では、本開示は、命令(instruction)を記憶したコンピュータ可読記憶媒体(computer-readable storage medium)であって、命令は、実行されたとき、1つまたは複数のプロセッサに、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行わせる、コンピュータ可読記憶媒体について説明する。
[0010] 1つまたは複数の例の詳細が添付の図面および以下の説明に記載される。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになろう。
[0011] 本開示の技法を実施し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0012] 例示的なクワッドツリーバイナリツリー(QTBT)構造を示す概念図。 対応するコーディングツリーユニット(CTU)を示す概念図。 [0013] 例示的なハイブリッドビデオコーディングフレームワークを示すブロック図。 [0014] ピクチャグループ(GOP)サイズが16に等しい例示的な階層予測構造を示す概念図。 [0015] 4つの層をもつ畳み込みニューラルネットワーク(CNN)ベースフィルタを示す概念図。 [0016] ReLU活性化関数を示す概念図。 [0017] PReLU活性化関数を示す概念図。 [0018] 本開示の1つまたは複数の技法による、14個の層と活性化関数としてのLeakyReLUとをもつ例示的なCNNベースフィルタを示す概念図。 [0019] 本開示の技法を実施し得る例示的なビデオエンコーダを示すブロック図。 [0020] 本開示の技法を実施し得る例示的なビデオデコーダを示すブロック図。 [0021] 本開示の技法による、現在ブロックを符号化する(encode)ための例示的な方法を示すフローチャート。 [0022] 本開示の技法による、現在ブロックを復号するための例示的な方法を示すフローチャート。 [0023] 本開示の1つまたは複数の技法による、ビデオコーダの例示的な動作を示すフローチャート。
[0024] ビデオエンコーダ(Video encoder)およびビデオデコーダ(video decoder)は、再構築されたピクチャの品質を改善し得るインループフィルタを実装し得る。一般的なタイプのインループフィルタは、デブロッキングフィルタと適応ループフィルタ(ALF)とを含む。最近、ニューラルネットワーク(NN:neural network)ベースフィルタが提案された。NNベースフィルタは、再構築されたピクチャのブロックを入力としてとるニューラルネットワークを含む。ニューラルネットワークは、フィルタ処理されたブロックを出力する。
[0025] ニューラルネットワークベースフィルタは、入力層(an input layer)と、1つまたは複数の隠れ層(hidden layer)と、出力層(an output layer)とを含み得る。それらの層は、入力を受信し、出力を生成するニューロン(neuron)のセットを含み得る。入力層と隠れ層の各々とは、層のニューロンの出力に適用される活性化関数に関連する。正規化線形ユニット(ReLU:Rectified Linear Unit)およびパラメトリックReLU(PReLU)は、活性化関数の例である。ニューラルネットワークにおいて使用される活性化関数は、ニューラルネットワークの性能およびトレーニング可能性に著しい影響を及ぼし得る。たとえば、PReLUは、ReLUよりも良い性能を有し得る。しかしながら、PReLUは、PReLU自体が、極端になり得るトレーニング可能変数を含むので、ニューラルネットワークのトレーニングプロセスを不安定にし得る。
[0026] 本開示は、ビデオコーディング(video coding)における前に提案されたNNベースフィルタに関するこれらの技術的問題に対処し得る技法について説明する。たとえば、ビデオコーダ(たとえば、ビデオエンコーダまたはビデオデコーダ)は、ビデオデータのブロックを再構築し得る。さらに、ビデオコーダは、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用し得る。CNNベースフィルタは、LeakyReLU活性化関数を使用する。LeakyReLU活性化関数の使用は、CNNベースフィルタが、トレーニングプロセス中に不安定性を回避しながらPReLUよりも良い性能を有することを可能にし得る。LeakyReLU活性化関数の使用は、他のタイプの活性化関数とは対照的に、再構築されたピクチャのフィルタ処理中に呈される特定の特性に基づき、性能と安定性の両方に関してビデオコーディングの予期しない著しい改善をもたらし得る。
[0027] 図1は、本開示の技法を実施し得る例示的なビデオ符号化および復号システム100を示すブロック図である。本開示の技法は、概して、ビデオデータをコーディング(符号化および/または復号)することを対象とする。概して、ビデオデータは、ビデオを処理するための何らかのデータを含む。したがって、ビデオデータは、生の符号化されていないビデオ、符号化されたビデオ、復号された(たとえば、再構築された)ビデオ、およびシグナリングデータなどのビデオメタデータを含み得る。
[0028] 図1に示されているように、システム100は、この例では、宛先デバイス116によって復号および表示されるべき符号化されたビデオデータを提供するソースデバイス102を含む。特に、ソースデバイス102は、コンピュータ可読媒体110を介して宛先デバイス116にビデオデータを提供する。ソースデバイス102と宛先デバイス116とは、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、モバイルデバイス、タブレットコンピュータ、セットトップボックス、スマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス、ブロードキャスト受信機デバイスなどを含む、広範囲のデバイスのいずれかを備え得る。いくつかの場合には、ソースデバイス102と宛先デバイス116とは、ワイヤレス通信のために装備され得、したがって、ワイヤレス通信デバイスと呼ばれることがある。
[0029] 図1の例では、ソースデバイス102は、ビデオソース104と、メモリ106と、ビデオエンコーダ200と、出力インターフェース108とを含む。宛先デバイス116は、入力インターフェース122と、ビデオデコーダ300と、メモリ120と、ディスプレイデバイス118とを含む。本開示によれば、ソースデバイス102のビデオエンコーダ200と、宛先デバイス116のビデオデコーダ300とは、ニューラルネットワークベースフィルタを使用するための技法を適用するように構成され得る。したがって、ソースデバイス102はビデオ符号化デバイスの一例を表し、宛先デバイス116はビデオ復号デバイスの一例を表す。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配置を含み得る。たとえば、ソースデバイス102は、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイス116は、一体型ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0030] 図1に示されているシステム100は一例にすぎない。概して、いかなるデジタルビデオ符号化および/または復号デバイスも、ニューラルネットワークベースフィルタを使用するための技法を実施し得る。ソースデバイス102と宛先デバイス116とは、ソースデバイス102が宛先デバイス116への送信のためにコーディングされたビデオデータを生成するようなコーディングデバイスの例にすぎない。本開示は、データのコーディング(符号化および/または復号)を実施するデバイスとして「コーディング」デバイスに言及する。したがって、ビデオエンコーダ200およびビデオデコーダ300は、コーディングデバイス、特に、それぞれビデオエンコーダおよびビデオデコーダの例を表す。いくつかの例では、ソースデバイス102および宛先デバイス116は、ソースデバイス102および宛先デバイス116の各々がビデオ符号化構成要素およびビデオ復号構成要素を含むように、実質的に対称的に動作し得る。したがって、システム100は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオテレフォニーのために、ソースデバイス102と宛先デバイス116との間の一方向または二方向ビデオ送信をサポートし得る。
[0031] 概して、ビデオソース104は、ビデオデータ(すなわち、生の符号化されていないビデオデータ)のソースを表し、ビデオデータの連続的な一連のピクチャ(「フレーム」とも呼ばれる)をビデオエンコーダ200に提供し、ビデオエンコーダ200は、ピクチャのためにデータを符号化する。ソースデバイス102のビデオソース104は、ビデオカメラ、前にキャプチャされた生のビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースなど、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース104は、ソースビデオとしてのコンピュータグラフィックスベースデータ、またはライブビデオとアーカイブされたビデオとコンピュータ生成されたビデオとの組合せを生成し得る。各場合において、ビデオエンコーダ200は、キャプチャされたビデオデータ、プリキャプチャされたビデオデータ、またはコンピュータ生成されたビデオデータを符号化する。ビデオエンコーダ200は、ピクチャを、(「表示順序」と呼ばれることがある)受信順序から、コーディングのためのコーディング順序に再配置し得る。ビデオエンコーダ200は、符号化されたビデオデータを含むビットストリーム(bitstream)を生成し得る。ソースデバイス102は、次いで、たとえば、宛先デバイス116の入力インターフェース122による受信および/または取出しのために、出力インターフェース108を介して、符号化されたビデオデータをコンピュータ可読媒体110上に出力し得る。
[0032] ソースデバイス102のメモリ106と、宛先デバイス116のメモリ120とは、汎用メモリを表す。いくつかの例では、メモリ106、120は、生のビデオデータ、たとえば、ビデオソース104からの生のビデオ、およびビデオデコーダ300からの生の復号されたビデオデータを記憶し得る。追加または代替として、メモリ106、120は、たとえば、それぞれ、ビデオエンコーダ200およびビデオデコーダ300によって実行可能なソフトウェア命令を記憶し得る。メモリ106およびメモリ120は、この例ではビデオエンコーダ200およびビデオデコーダ300とは別個に示されているが、ビデオエンコーダ200およびビデオデコーダ300は、機能的に同様のまたは等価な目的で内部メモリをも含み得ることを理解されたい。さらに、メモリ106、120は、符号化されたビデオデータ、たとえば、ビデオエンコーダ200からの出力、およびビデオデコーダ300への入力を記憶し得る。いくつかの例では、メモリ106、120の部分は、たとえば、生の復号および/または符号化されたビデオデータを記憶するために、1つまたは複数のビデオバッファとして割り振られ得る。
[0033] コンピュータ可読媒体110は、ソースデバイス102から宛先デバイス116に符号化されたビデオデータを移送することが可能な任意のタイプの媒体またはデバイスを表し得る。一例では、コンピュータ可読媒体110は、ソースデバイス102が、たとえば、無線周波数ネットワークまたはコンピュータベースネットワークを介して、符号化されたビデオデータを宛先デバイス116にリアルタイムで直接送信することを可能にするための通信媒体を表す。出力インターフェース108は、符号化されたビデオデータを含む送信信号を変調し得、入力インターフェース122は、ワイヤレス通信プロトコルなどの通信規格に従って、受信された送信信号を復調し得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス102から宛先デバイス116への通信を容易にするのに有用であり得る任意の他の機器を含み得る。
[0034] いくつかの例では、ソースデバイス102は、出力インターフェース108からストレージデバイス112に符号化されたデータを出力し得る。同様に、宛先デバイス116は、入力インターフェース122を介してストレージデバイス112からの符号化されたデータにアクセスし得る。ストレージデバイス112は、ハードドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。
[0035] いくつかの例では、ソースデバイス102は、ソースデバイス102によって生成された符号化されたビデオデータを記憶し得るファイルサーバ114または別の中間ストレージデバイスに符号化されたビデオデータを出力し得る。宛先デバイス116は、ストリーミングまたはダウンロードを介してファイルサーバ114からの記憶されたビデオデータにアクセスし得る。
[0036] ファイルサーバ114は、符号化されたビデオデータを記憶し、その符号化されたビデオデータを宛先デバイス116に送信することが可能な任意のタイプのサーバデバイスであり得る。ファイルサーバ114は、(たとえば、ウェブサイトのための)ウェブサーバ、(ファイル転送プロトコル(FTP)またはファイル配信オーバー単方向トランスポート(FLUTE:File Delivery over Unidirectional Transport)プロトコルなどの)ファイル転送プロトコルサービスを提供するように構成されたサーバ、コンテンツ配信ネットワーク(CDN)デバイス、ハイパーテキスト転送プロトコル(HTTP)サーバ、マルチメディアブロードキャストマルチキャストサービス(MBMS)または拡張MBMS(eMBMS)サーバ、および/あるいはネットワーク接続ストレージ(NAS)デバイスを表し得る。ファイルサーバ114は、追加または代替として、動的適応ストリーミングオーバーHTTP(DASH)、HTTPライブストリーミング(HLS)、リアルタイムストリーミングプロトコル(RTSP)、HTTP動的ストリーミングなど、1つまたは複数のHTTPストリーミングプロトコルを実装し得る。
[0037] 宛先デバイス116は、インターネット接続を含む任意の標準的なデータ接続を通してファイルサーバ114からの符号化されたビデオデータにアクセスし得る。これは、ファイルサーバ114に記憶された符号化されたビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi-Fi(登録商標)接続)、ワイヤード接続(たとえば、デジタル加入者回線(DSL)、ケーブルモデムなど)、またはその両方の組合せを含み得る。入力インターフェース122は、ファイルサーバ114からメディアデータを取り出すまたは受信するための上記で説明された様々なプロトコル、あるいはメディアデータを取り出すための他のそのようなプロトコルのうちのいずれか1つまたは複数に従って動作するように構成され得る。
[0038] 出力インターフェース108および入力インターフェース122は、ワイヤレス送信機/受信機、モデム、ワイヤードネットワーキング構成要素(たとえば、イーサネット(登録商標)カード)、様々なIEEE802.11規格のいずれかに従って動作するワイヤレス通信構成要素、または他の物理的構成要素を表し得る。出力インターフェース108および入力インターフェース122がワイヤレス構成要素を備える例では、出力インターフェース108および入力インターフェース122は、4G、4G-LTE(登録商標)(ロングタームエボリューション)、LTEアドバンスト、5Gなど、セルラー通信規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。出力インターフェース108がワイヤレス送信機を備えるいくつかの例では、出力インターフェース108および入力インターフェース122は、IEEE802.11仕様、IEEE802.15仕様(たとえば、ZigBee(登録商標))、Bluetooth(登録商標)規格など、他のワイヤレス規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。いくつかの例では、ソースデバイス102および/または宛先デバイス116は、それぞれのシステムオンチップ(SoC)デバイスを含み得る。たとえば、ソースデバイス102は、ビデオエンコーダ200および/または出力インターフェース108に帰属する機能を実施するためのSoCデバイスを含み得、宛先デバイス116は、ビデオデコーダ300および/または入力インターフェース122に帰属する機能を実施するためのSoCデバイスを含み得る。
[0039] 本開示の技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。
[0040] 宛先デバイス116の入力インターフェース122は、コンピュータ可読媒体110(たとえば、通信媒体、ストレージデバイス112、ファイルサーバ114など)から符号化されたビデオビットストリームを受信する。符号化されたビデオビットストリームは、ビデオブロックまたは他のコーディングされたユニット(たとえば、スライス、ピクチャ、ピクチャグループ、シーケンスなど)の特性および/または処理を記述する値を有するシンタックス要素(syntax element)など、ビデオデコーダ300によっても使用される、ビデオエンコーダ200によって定義されるシグナリング情報を含み得る。ディスプレイデバイス118は、復号されたビデオデータの復号されたピクチャをユーザに表示する。ディスプレイデバイス118は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを表し得る。
[0041] 図1には示されていないが、いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は各々、オーディオエンコーダおよび/またはオーディオデコーダと統合され得、共通のデータストリーム中にオーディオとビデオの両方を含む多重化ストリームをハンドリングするために、適切なMUX-DEMUXユニット、あるいは他のハードウェアおよび/またはソフトウェアを含み得る。適用可能な場合、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0042] ビデオエンコーダ200およびビデオデコーダ300は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダおよび/またはデコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、本開示の技法を実施するために1つまたは複数のプロセッサを使用してその命令をハードウェアで実行し得る。ビデオエンコーダ200およびビデオデコーダ300の各々は、1つまたは複数のエンコーダまたはデコーダに含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ200および/またはビデオデコーダ300を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
[0043] ビデオエンコーダ200およびビデオデコーダ300は、高効率ビデオコーディング(HEVC)とも呼ばれるITU-T H.265、あるいはマルチビューおよび/またはスケーラブルビデオコーディング拡張などのそれらの拡張など、ビデオコーディング規格に従って動作し得る。代替的に、ビデオエンコーダ200およびビデオデコーダ300は、汎用ビデオコーディング(VVC)とも呼ばれるITU-T H.266など、他のプロプライエタリ規格または業界規格に従って動作し得る。VVC仕様のバージョン1がファイナライズされており(以下でVVC FDISと呼ばれる)、http://phenix.int-evry.fr/jvet/doc_end_user/documents/19_Teleconference/wg11/JVET-S2001-v17.zipから入手可能である。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。
[0044] 概して、ビデオエンコーダ200およびビデオデコーダ300は、ピクチャのブロックベースコーディングを実施し得る。「ブロック」という用語は、概して、処理されるべき(たとえば、符号化されるべき、復号されるべき、あるいは、符号化および/または復号プロセスにおいて他の方法で使用されるべき)データを含む構造を指す。たとえば、ブロックは、ルミナンスおよび/またはクロミナンスデータのサンプルの2次元行列を含み得る。概して、ビデオエンコーダ200およびビデオデコーダ300は、YUV(たとえば、Y、Cb、Cr)フォーマットで表されるビデオデータをコーディングし得る。すなわち、ピクチャのサンプルのために赤色、緑色、および青色(RGB)データをコーディングするのではなく、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分とクロミナンス成分とをコーディングし得、ここで、クロミナンス成分は、赤色相と青色相の両方のクロミナンス成分を含み得る。いくつかの例では、ビデオエンコーダ200は、符号化より前に、受信されたRGBフォーマットのデータをYUV表現にコンバートし、ビデオデコーダ300は、YUV表現をRGBフォーマットにコンバートする。代替的に、前処理および後処理ユニット(図示せず)が、これらのコンバージョンを実施し得る。
[0045] 本開示は、概して、ピクチャのデータを符号化または復号するプロセスを含むように、ピクチャのコーディング(たとえば、符号化および復号)に言及することがある。同様に、本開示は、ブロックのためのデータを符号化または復号するプロセス、たとえば、予測および/または残差コーディングを含むように、ピクチャのブロックのコーディングに言及することがある。符号化されたビデオビットストリームは、概して、コーディング決定(たとえば、コーディングモード)とブロックへのピクチャの区分とを表すシンタックス要素についての一連の値を含む。したがって、ピクチャまたはブロックをコーディングすることへの言及は、概して、ピクチャまたはブロックを形成するシンタックス要素についての値をコーディングすることとして理解されるべきである。
[0046] HEVCは、コーディングユニット(CU)、予測ユニット(PU)、および変換ユニット(TU)を含む、様々なブロックを定義する。HEVCに従って、(ビデオエンコーダ200などの)ビデオコーダは、クワッドツリー構造に従ってコーディングツリーユニット(CTU)をCUに区分する。すなわち、ビデオコーダは、CTUとCUとを4つの等しい重複しない正方形に区分し、クワッドツリーの各ノードは、0個または4つのいずれかの子ノードを有する。子ノードなしのノードは、「リーフノード」と呼ばれることがあり、そのようなリーフノードのCUは、1つまたは複数のPUおよび/または1つまたは複数のTUを含み得る。ビデオコーダは、PUとTUとをさらに区分し得る。たとえば、HEVCでは、残差クワッドツリー(RQT)は、TUの区分を表す。HEVCでは、PUはインター予測データを表し、TUは残差データを表す。イントラ予測されるCUは、イントラモード指示などのイントラ予測情報を含む。
[0047] 別の例として、ビデオエンコーダ200およびビデオデコーダ300は、VVCに従って動作するように構成され得る。VVCに従って、(ビデオエンコーダ200などの)ビデオコーダは、ピクチャを複数のコーディングツリーユニット(CTU)に区分する。ビデオエンコーダ200は、クワッドツリーバイナリツリー(QTBT)構造またはマルチタイプツリー(MTT)構造など、ツリー構造に従ってCTUを区分し得る。QTBT構造は、HEVCのCUとPUとTUとの間の分離など、複数の区分タイプの概念を除去する。QTBT構造は、2つのレベル、すなわち、クワッドツリー区分に従って区分される第1のレベルと、バイナリツリー区分に従って区分される第2のレベルとを含む。QTBT構造のルートノードは、CTUに対応する。バイナリツリーのリーフノードは、コーディングユニット(CU)に対応する。
[0048] MTT区分構造では、ブロックは、クワッドツリー(QT)区分と、バイナリツリー(BT)区分と、1つまたは複数のタイプのトリプルツリー(TT)(ターナリツリー(TT)とも呼ばれる)区分とを使用して区分され得る。トリプルツリーまたはターナリツリー区分は、ブロックが3つのサブブロックにスプリットされる区分である。いくつかの例では、トリプルツリーまたはターナリツリー区分は、中心を通して元のブロックを分割することなしにブロックを3つのサブブロックに分割する。MTTにおける区分タイプ(たとえば、QT、BT、およびTT)は、対称または非対称であり得る。
[0049] いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分とクロミナンス成分との各々を表すために単一のQTBTまたはMTT構造を使用し得、他の例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分のための1つのQTBT/MTT構造、および両方のクロミナンス成分のための別のQTBT/MTT構造(またはそれぞれのクロミナンス成分のための2つのQTBT/MTT構造)など、2つまたはそれ以上のQTBTまたはMTT構造を使用し得る。
[0050] ビデオエンコーダ200およびビデオデコーダ300は、HEVCに従うクワッドツリー区分、QTBT区分、MTT区分、または他の区分構造を使用するように構成され得る。説明の目的で、本開示の技法の説明はQTBT区分に関して提示される。しかしながら、本開示の技法は、クワッドツリー区分、または同様に他のタイプの区分を使用するように構成されたビデオコーダにも適用され得ることを理解されたい。
[0051] いくつかの例では、CTUは、ルーマサンプルのコーディングツリーブロック(CTB)、3つのサンプルアレイを有するピクチャのクロマサンプルの2つの対応するCTB、あるいはモノクロームピクチャ、またはサンプルをコーディングするために使用される3つの別個の色プレーンとシンタックス構造とを使用してコーディングされるピクチャのサンプルのCTBを含む。CTBは、CTBへの成分の分割が区分になるような何らかの値のNについて、サンプルのN×Nブロックであり得る。成分は、ピクチャを4:2:0、4:2:2、または4:4:4色フォーマットに構成する3つのアレイ(ルーマおよび2つのクロマ)のうちの1つからのアレイまたは単一のサンプル、あるいはピクチャをモノクロームフォーマットに構成するアレイまたはアレイの単一のサンプルである。いくつかの例では、コーディングブロックは、コーディングブロックへのCTBの分割が区分になるような何らかの値のMとNとについて、サンプルのM×Nブロックである。
[0052] ブロック(たとえば、CTUまたはCU)は、ピクチャ中で様々な方法でグループ化され得る。一例として、ブリックは、ピクチャ中の特定のタイル内のCTU行の矩形領域を指し得る。タイルは、ピクチャ中の特定のタイル列および特定のタイル行内のCTUの矩形領域であり得る。タイル列は、ピクチャの高さに等しい高さと、(たとえば、ピクチャパラメータセット中などの)シンタックス要素によって指定された幅とを有するCTUの矩形領域を指す。タイル行は、(たとえば、ピクチャパラメータセット中などの)シンタックス要素によって指定された高さと、ピクチャの幅に等しい幅とを有するCTUの矩形領域を指す。
[0053] いくつかの例では、タイルは複数のブリックに区分され得、それらの各々は、タイル内に1つまたは複数のCTU行を含み得る。複数のブリックに区分されないタイルもブリックと呼ばれることがある。しかしながら、タイルの真のサブセットであるブリックは、タイルと呼ばれないことがある。
[0054] ピクチャ中のブリックはまた、スライス中に配置され得る。スライスは、もっぱら単一のネットワークアブストラクションレイヤ(NAL)ユニット中に含まれていることがあるピクチャの整数個のブリックであり得る。いくつかの例では、スライスは、いくつかの完全なタイル、または1つのタイルの完全なブリックの連続シーケンスのみのいずれかを含む。
[0055] 本開示は、垂直寸法と水平寸法とに関して(CUまたは他のビデオブロックなどの)ブロックのサンプル寸法を指すために、「N×N(NxN)」および「N×N(N by N)」、たとえば、16×16サンプル(16x16 samples)または16×16サンプル(16 by 16 samples)を互換的に使用し得る。概して、16×16のCUは、垂直方向に16個のサンプルを有し(y=16)、水平方向に16個のサンプルを有する(x=16)。同様に、N×NのCUは、概して、垂直方向にN個のサンプルを有し、水平方向にN個のサンプルを有し、ここで、Nは非負整数値を表す。CU中のサンプルは、行と列とに配置され得る。その上、CUは、必ずしも、水平方向において垂直方向と同じ数のサンプルを有する必要があるとは限らない。たとえば、CUはN×Mサンプルを備え得、ここで、Mは必ずしもNに等しいとは限らない。
[0056] ビデオエンコーダ200は、予測および/または残差情報、ならびに他の情報を表す、CUのためのビデオデータを符号化する。予測情報は、CUについて予測ブロックを形成するためにCUがどのように予測されるべきかを示す。残差情報は、概して、符号化より前のCUのサンプルと予測ブロックとの間のサンプルごとの差分を表す。
[0057] CUを予測するために、ビデオエンコーダ200は、概して、インター予測またはイントラ予測を通してCUについて予測ブロックを形成し得る。インター予測は、概して、前にコーディングされたピクチャのデータからCUを予測することを指すが、イントラ予測は、概して、同じピクチャの前にコーディングされたデータからCUを予測することを指す。インター予測を実施するために、ビデオエンコーダ200は、1つまたは複数の動きベクトルを使用して予測ブロックを生成し得る。ビデオエンコーダ200は、概して、たとえば、CUと参照ブロックとの間の差分に関して、CUにぴったり一致する参照ブロックを識別するために動き探索を実施し得る。ビデオエンコーダ200は、参照ブロックが現在CUにぴったり一致するかどうかを決定するために、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)、または他のそのような差分計算を使用して差分メトリックを計算し得る。いくつかの例では、ビデオエンコーダ200は、単方向予測または双方向予測を使用して現在CUを予測し得る。
[0058] VVCのいくつかの例はまた、インター予測モードと見なされ得るアフィン動き補償モードを提供する。アフィン動き補償モードでは、ビデオエンコーダ200は、ズームインまたはアウト、回転、パースペクティブの動き、あるいは他の変則の動きタイプなど、非並進の動きを表す2つまたはそれ以上の動きベクトルを決定し得る。
[0059] イントラ予測を実施するために、ビデオエンコーダ200は、予測ブロックを生成するようにイントラ予測モードを選択し得る。VVCのいくつかの例は、様々な方向性モード、ならびにプレーナ(planar)モードおよびDCモードを含む、67個のイントラ予測モードを提供する。概して、ビデオエンコーダ200は、現在ブロック(たとえば、CUのブロック)のサンプルをそれから予測すべき、現在ブロックに対する隣接サンプルを記述するイントラ予測モードを選択する。そのようなサンプルは、ビデオエンコーダ200がラスタ走査順序で(左から右に、上から下に)CTUとCUとをコーディングすると仮定すると、概して、現在ブロックと同じピクチャ中の現在ブロックの上、左上、または左にあり得る。
[0060] ビデオエンコーダ200は、現在ブロックについて予測モードを表すデータを符号化する。たとえば、インター予測モードでは、ビデオエンコーダ200は、様々な利用可能なインター予測モードのうちのどれが使用されるか、ならびに対応するモードのための動き情報を表すデータを符号化し得る。たとえば、単方向または双方向インター予測では、ビデオエンコーダ200は、高度動きベクトル予測(AMVP)またはマージモードを使用して動きベクトルを符号化し得る。ビデオエンコーダ200は、アフィン動き補償モードのための動きベクトルを符号化するために、同様のモードを使用し得る。
[0061] ブロックのイントラ予測またはインター予測などの予測に続いて、ビデオエンコーダ200は、ブロックについて残差データを計算し得る。残差ブロックなどの残差データは、ブロックと、対応する予測モードを使用して形成された、ブロックについての予測ブロックとの間の、サンプルごとの差分を表す。ビデオエンコーダ200は、サンプル領域ではなく変換領域中に変換されたデータを作り出すために、残差ブロックに1つまたは複数の変換を適用し得る。たとえば、ビデオエンコーダ200は、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換を残差ビデオデータに適用し得る。さらに、ビデオエンコーダ200は、第1の変換に続いて、モード依存非分離可能2次変換(MDNSST:mode-dependent non-separable secondary transform)、信号依存変換、カルーネンレーベ変換(KLT)などの2次変換を適用し得る。ビデオエンコーダ200は、1つまたは複数の変換の適用に続いて変換係数を作り出す。
[0062] 上述のように、変換係数を作り出すための任意の変換に続いて、ビデオエンコーダ200は変換係数の量子化を実施し得る。量子化は、概して、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。量子化プロセスを実施することによって、ビデオエンコーダ200は、変換係数の一部または全部に関連するビット深度を低減し得る。たとえば、ビデオエンコーダ200は、量子化中にnビット値をmビット値に丸めることがあり、ここで、nはmよりも大きい。いくつかの例では、量子化を実施するために、ビデオエンコーダ200は、量子化されるべき値のビット単位右シフトを実施し得る。
[0063] 量子化に続いて、ビデオエンコーダ200は、変換係数を走査して、量子化された変換係数を含む2次元行列から1次元ベクトルを作り出し得る。走査は、より高いエネルギー(したがって、より低い頻度)の変換係数をベクトルの前方に配置し、より低いエネルギー(したがって、より高い頻度)の変換係数をベクトルの後方に配置するように設計され得る。いくつかの例では、ビデオエンコーダ200は、シリアル化されたベクトルを作り出すために、量子化された変換係数を走査するために、あらかじめ定義された走査順序を利用し、次いで、ベクトルの量子化された変換係数をエントロピー符号化し得る。他の例では、ビデオエンコーダ200は適応型走査を実施し得る。量子化された変換係数を走査して1次元ベクトルを形成した後に、ビデオエンコーダ200は、たとえば、コンテキスト適応型バイナリ算術コーディング(CABAC)に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ200はまた、ビデオデータを復号する際のビデオデコーダ300による使用のために、符号化されたビデオデータに関連するメタデータを記述するシンタックス要素についての値をエントロピー符号化し得る。
[0064] CABACを実施するために、ビデオエンコーダ200は、コンテキストモデル内のコンテキストを、送信されるべきシンボルに割り当て得る。コンテキストは、たとえば、シンボルの隣接値が0値であるか否かに関係し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
[0065] ビデオエンコーダ200は、さらに、ブロックベースシンタックスデータ、ピクチャベースシンタックスデータ、およびシーケンスベースシンタックスデータなどのシンタックスデータを、たとえば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、あるいはシーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、またはビデオパラメータセット(VPS)などの他のシンタックスデータ中で、ビデオデコーダ300に対して生成し得る。ビデオデコーダ300は、対応するビデオデータをどのように復号すべきかを決定するために、そのようなシンタックスデータを同様に復号し得る。
[0066] このようにして、ビデオエンコーダ200は、符号化されたビデオデータ、たとえば、ブロック(たとえば、CU)へのピクチャの区分ならびにブロックについての予測および/または残差情報を記述するシンタックス要素を含むビットストリームを生成し得る。最終的に、ビデオデコーダ300は、ビットストリームを受信し、符号化されたビデオデータを復号し得る。
[0067] 概して、ビデオデコーダ300は、ビットストリームの符号化されたビデオデータを復号するために、ビデオエンコーダ200によって実施されたものの逆プロセスを実施する。たとえば、ビデオデコーダ300は、ビデオエンコーダ200のCABAC符号化プロセスと逆ではあるが、それと実質的に同様の様式でCABACを使用してビットストリームのシンタックス要素についての値を復号し得る。シンタックス要素は、CTUのCUを定義するために、ピクチャをCTUに区分するための区分情報と、QTBT構造などの対応する区分構造に従う、各CTUの区分とを定義し得る。シンタックス要素は、ビデオデータのブロック(たとえば、CU)についての予測および残差情報をさらに定義し得る。
[0068] 残差情報は、たとえば、量子化された変換係数によって表され得る。ビデオデコーダ300は、ブロックのための残差ブロックを再生するために、ブロックの量子化された変換係数を逆量子化し、逆変換し得る。ビデオデコーダ300は、ブロックのための予測ブロックを形成するために、シグナリングされた予測モード(イントラまたはインター予測)と、関連する予測情報(たとえば、インター予測のための動き情報)とを使用する。ビデオデコーダ300は、次いで、元のブロックを再生するために(サンプルごとに)予測ブロックと残差ブロックとを組み合わせ得る。ビデオデコーダ300は、ブロックの境界に沿って視覚的アーティファクトを低減するためにデブロッキングプロセスを実施することなど、追加の処理を実施し得る。
[0069] 本開示は、概して、シンタックス要素など、ある情報を「シグナリング」することに言及することがある。「シグナリング」という用語は、概して、符号化されたビデオデータを復号するために使用されるシンタックス要素および/または他のデータについての値の通信を指し得る。すなわち、ビデオエンコーダ200は、ビットストリーム中でシンタックス要素についての値をシグナリングし得る。概して、シグナリングは、ビットストリーム中で値を生成することを指す。上述のように、ソースデバイス102は、実質的にリアルタイムでビットストリームを宛先デバイス116に移送するか、または、宛先デバイス116による後の取出しのためにシンタックス要素をストレージデバイス112に記憶するときに行われ得るように、非リアルタイムでビットストリームを宛先デバイス116に移送し得る。
[0070] 図2Aおよび図2Bは、例示的なクワッドツリーバイナリツリー(QTBT)構造130と、対応するコーディングツリーユニット(CTU)132とを示す概念図である。実線はクワッドツリースプリッティングを表し、点線はバイナリツリースプリッティングを示す。バイナリツリーの各スプリット(すなわち、非リーフ)ノードでは、どのスプリッティングタイプ(すなわち、水平または垂直)が使用されるかを示すために1つのフラグがシグナリングされ、ここで、この例では、0は水平スプリッティングを示し、1は垂直スプリッティングを示す。クワッドツリースプリッティングでは、クワッドツリーノードが、ブロックを、等しいサイズをもつ4つのサブブロックに水平および垂直にスプリットするので、スプリッティングタイプを示す必要がない。したがって、QTBT構造130の領域ツリーレベル(すなわち、実線)についての(スプリッティング情報などの)シンタックス要素と、QTBT構造130の予測ツリーレベル(すなわち、破線)についての(スプリッティング情報などの)シンタックス要素とを、ビデオエンコーダ200は符号化し得、ビデオデコーダ300は復号し得る。QTBT構造130の端末リーフノードによって表されるCUについての、予測および変換データなどのビデオデータを、ビデオエンコーダ200は符号化し得、ビデオデコーダ300は復号し得る。
[0071] 概して、図2BのCTU132は、第1および第2のレベルにおいてQTBT構造130のノードに対応するブロックのサイズを定義するパラメータに関連付けられ得る。これらのパラメータは、(サンプル中のCTU132のサイズを表す)CTUサイズと、最小クワッドツリーサイズ(最小許容クワッドツリーリーフノードサイズを表すMinQTSize)と、最大バイナリツリーサイズ(最大許容バイナリツリールートノードサイズを表すMaxBTSize)と、最大バイナリツリー深度(最大許容バイナリツリー深度を表すMaxBTDepth)と、最小バイナリツリーサイズ(最小許容バイナリツリーリーフノードサイズを表すMinBTSize)とを含み得る。
[0072] CTUに対応するQTBT構造のルートノードは、QTBT構造の第1のレベルにおいて4つの子ノードを有し得、それらの各々は、クワッドツリー区分に従って区分され得る。すなわち、第1のレベルのノードは、(子ノードを有しない)リーフノードであるか、または4つの子ノードを有するかのいずれかである。QTBT構造130の例は、分岐のために実線を有する親ノードと子ノードとを含むようなノードを表す。第1のレベルのノードが最大許容バイナリツリールートノードサイズ(MaxBTSize)よりも大きくない場合、ノードは、それぞれのバイナリツリーによってさらに区分され得る。1つのノードのバイナリツリースプリッティングは、スプリットから生じるノードが最小許容バイナリツリーリーフノードサイズ(MinBTSize)または最大許容バイナリツリー深度(MaxBTDepth)に達するまで反復され得る。QTBT構造130の例は、分岐のために破線を有するようなノードを表す。バイナリツリーリーフノードはコーディングユニット(CU)と呼ばれ、CUは、さらなる区分なしに予測(たとえば、イントラピクチャまたはインターピクチャ予測)および変換のために使用される。上記で説明されたように、CUは「ビデオブロック」または「ブロック」と呼ばれることもある。
[0073] QTBT区分構造の一例では、CTUサイズは、128×128(ルーマサンプルおよび2つの対応する64×64クロマサンプル)として設定され、MinQTSizeは16×16として設定され、MaxBTSizeは64×64として設定され、(幅と高さの両方について)MinBTSizeは4として設定され、MaxBTDepthは4として設定される。クワッドツリー区分は、クワッドツリーリーフノードを生成するために、最初にCTUに適用される。クワッドツリーリーフノードは、16×16(すなわち、MinQTSize)から128×128(すなわち、CTUサイズ)までのサイズを有し得る。クワッドツリーリーフノードが128×128である場合、リーフクワッドツリーノードは、サイズがMaxBTSize(すなわち、この例では、64×64)を超えるので、バイナリツリーによってさらにスプリットされない。他の場合、クワッドツリーリーフノードは、バイナリツリーによってさらに区分される。したがって、クワッドツリーリーフノードはまた、バイナリツリーのためのルートノードであり、0としてのバイナリツリー深度を有する。バイナリツリー深度がMaxBTDepth(この例では4)に達したとき、さらなるスプリッティングは許可されない。MinBTSize(この例では、4)に等しい幅を有するバイナリツリーノードは、そのバイナリツリーノードのためにさらなる垂直スプリッティング(すなわち、幅の分割)が許可されないことを暗示する。同様に、MinBTSizeに等しい高さを有するバイナリツリーノードは、そのバイナリツリーノードのためにさらなる水平スプリッティング(すなわち、高さの分割)が許可されないことを暗示する。上述のように、バイナリツリーのリーフノードは、CUと呼ばれ、さらなる区分なしに予測および変換に従ってさらに処理される。
[0074] H.261からの大部分のビデオコーディング規格は、図3に示されている、いわゆるハイブリッドビデオコーディング原理に基づいている。ハイブリッドという用語は、ビデオ信号における冗長を低減するための2つの手段の組合せ、すなわち、予測残差の量子化との予測および変換コーディングの組合せを指す。予測および変換は無相関化によってビデオ信号における冗長を低減するが、量子化は、変換係数表現のデータを、それらの精度を低減することによって、理想的には無関係な詳細のみを除去することによって減少させる。このハイブリッドビデオコーディング設計原理は、2つの直近の規格、HEVCおよびVVCにおいても使用される。
[0075] 現代のハイブリッドビデオコーダは、図3の例に示されているように、以下のビルディングブロックから構成され得る。言い換えれば、図3は、例示的なハイブリッドビデオコーディングフレームワーク320を示すブロック図である。図3の例では、フレームワーク320は、入力ビデオデータのピクチャ322を受信し、ピクチャ322をブロックにスプリットする。ブロック区分は、予測および変換プロセスの動作のために、画像をより小さいブロックに分割するために使用される。早期ビデオコーディング規格は、固定ブロックサイズ、一般に16×16サンプルを使用した。HEVCおよびVVCなどの最近の規格は、たとえば、図2Aおよび図2Bに示されているように、フレキシブルな区分を提供するためにツリーベース区分構造を採用する。
[0076] フレームワーク320は、動き推定ユニット324と、イントラ予測ユニット326と、インター予測ユニット328とを含む。動き推定ユニット324は、ビデオデータの前に再構築されたピクチャ330に基づいて動き推定を実施し得る。インター予測ユニット328は、予測ブロックを生成するために、動き推定ユニット324によって生成された動き情報を使用し得る。動き補償予測またはインターピクチャ予測(すなわち、インター予測)は、ビデオシーケンスのピクチャ間(したがって「インター(inter)」)に存在する冗長を利用する。現代のビデオコーデックにおいて使用されるブロックベース動き補償では、1つまたは複数の前に復号されたピクチャ、すなわち(1つまたは複数の)参照ピクチャから、予測は達成される。インター予測を生成するための対応するエリアは、動きベクトルと参照ピクチャインデックスとを含む、動き情報によって示される。
[0077] イントラ予測ユニット326は、予測ブロックを生成するためにイントラ予測を使用し得る。イントラピクチャ予測は、すでにコーディングされた/復号された、空間的に隣接する(参照)サンプルから、ブロックについての予測を導出することによって、ピクチャ内(したがって「イントラ(intra)」)に存在する空間冗長性を活用する。方向性角度予測、DC予測、およびプレーンまたはプレーナ予測が、AVCとHEVCとVVCとを含む、直近のビデオコーデックにおいて使用される。フレームワーク320は、インター予測ユニット328によって生成された予測ブロックと、イントラ予測ユニット326によって生成された予測ブロックとの間で選択し得る。
[0078] フレームワーク320の残差生成ユニット332が、予測ブロックとピクチャ322の対応するブロックとに基づいて、残差データを生成し得る。変換ユニット334が、変換係数を生成するために、残差データに変換を適用し得る。ハイブリッドビデオコーディング規格は、(予測残差がインターピクチャ予測から来るのかイントラピクチャ予測から来るのかにかかわらず)予測残差にブロック変換を適用する。H.261/262/263を含む早期規格では、離散コサイン変換(DCT)が採用される。HEVCおよびVVCでは、DCTのほかのより多くの変換カーネルが、特定のビデオ信号における異なる統計値を考慮するために適用され得る。
[0079] 量子化ユニット336が、次いで、変換係数に量子化を適用し得る。量子化は、入力値または入力値のセットの精度を、それらの値を表すために必要とされるデータの量を減少させるために、低減することを目的とする。ハイブリッドビデオコーディングでは、量子化は、一般に、個々の変換された残差サンプルに、すなわち変換係数に適用され、整数係数レベルを生じる。最近のビデオコーディング規格では、量子化において使用されるステップサイズは、忠実度とビットレートとを制御する、いわゆる量子化パラメータ(QP)から導出される。より大きいステップサイズは、ビットレートを低下させるが、品質をも劣化させ、これは、ビデオピクチャが、ブロッキングアーティファクトと、ぼけた詳細とを呈することを生じ得る。
[0080] エントロピー符号化ユニット338が、変換係数を表すシンタックス要素にエントロピー符号化を適用し得る。フレームワーク320は、エントロピー符号化されたシンタックス要素をビットストリーム中に出力し得る。コンテキスト適応型バイナリ算術コーディング(CABAC)などのエントロピーコーディング技法は、それの高効率により、最近のビデオコーデック、たとえば、AVC、HEVCおよびVVCにおいて使用され得る。
[0081] さらに、図3の例では、逆量子化ユニット340が、変換係数を逆量子化し得る。逆変換ユニット342が、残差データを生成するために、逆量子化された変換係数に逆変換を適用し得る。再構築ユニット344が、予測ブロックと残差データとに基づいて、ブロックを再構築し得る。ループフィルタユニット346が、再構築されたブロックを含んでいるピクチャに、1つまたは複数のフィルタを適用し得る。
[0082] 最近のビデオコーデックでは、ピクチャグループ(GOP)内の階層予測構造が、コーディング効率を改善するために適用される。図4は、ピクチャグループ(GOP)サイズが16に等しい例示的な階層予測構造400を示す概念図である。図4の例では、ピクチャI0は、インター予測を使用して符号化されないイントラピクチャである。図4中の他のピクチャ(すなわち、ピクチャB1~B16)は、インター予測を使用して符号化され得る。詳細には、第1のピクチャから第2のピクチャを指す図4中の各矢印は、第2のピクチャが第1のピクチャを使用して符号化され得ることを示す。
[0083] ポストループ/インループフィルタ処理は、コーディングアーティファクトを低減するために、再構築されたピクチャに適用される、フィルタ処理プロセス(またはそのようなプロセスの組合せ)である。フィルタ処理プロセスの入力は、概して、(量子化誤差を含む)再構築された残差信号と予測との組合せである、再構築されたピクチャである。図3に示されているように、インループフィルタ処理の後の再構築されたピクチャ330は記憶され、後でコーディングされるピクチャのインターピクチャ予測のための参照として使用される。コーディングアーティファクトは、大部分がQPによって決定され、したがって、QP情報は、概して、フィルタ処理プロセスの設計において使用される。HEVCでは、インループフィルタは、デブロッキングフィルタ処理とサンプル適応オフセット(SAO)フィルタ処理とを含む。VVCでは、適応ループフィルタ(ALF)が、第3のフィルタとして導入された。ALFのフィルタ処理プロセスは、以下で示されているものである。
Figure 2023543762000002
式(1)では、R(i,j)はフィルタ処理プロセスの適用の前のサンプルであり、R’(i,j)はフィルタ処理プロセスの適用の後のサンプル値であり、f(k,l)はフィルタ係数を示し、K(x,y)はクリッピング関数であり、c(k,l)はクリッピングパラメータを示す。変数kおよびlは、
Figure 2023543762000003
から
Figure 2023543762000004
の間で変動し、ここで、Lはフィルタ長を示す。クリッピング関数K(x,y)=min(y,max(-y,x))であり、これは、関数Clip3(-y,y,x)に対応する。クリッピング動作は、現在サンプル値とあまりに異なる隣接サンプル値の影響を低減することによってALFをより効率的にするために、非線形性を導入する。VVCでは、フィルタ処理パラメータは、ビットストリーム中でシグナリングされ得るか、または、フィルタ処理パラメータは、あらかじめ定義されたフィルタセットから選択され得る。ALFフィルタ処理プロセスは、以下の式としても要約され得る。
Figure 2023543762000005
[0084] いくつかの研究は、ハイブリッドビデオコーディングフレームワークにニューラルネットワーク(NN)を埋め込むことが圧縮効率を改善することができることを示す。ニューラルネットワークは、予測効率を改善するために、イントラ予測およびインター予測のためのモジュールにおいて使用されている。NNベースインループフィルタも、近年、アクティブな調査トピックとなっている。いくつかの例では、フィルタ処理プロセスは、ポストフィルタとして適用される。フィルタ処理プロセスがポストフィルタとして適用される場合、フィルタ処理プロセスは、出力ピクチャにのみ適用され、フィルタ処理されていないピクチャが、参照ピクチャとして使用される。対照的に、フィルタ処理プロセスがインループフィルタとして適用されるとき、フィルタ処理プロセスは、出力のために使用されるおよび参照ピクチャとして使用される、再構築されたピクチャに適用される。
[0085] NNベースフィルタが、デブロッキングフィルタ、SAO、またはALFなど、既存のフィルタの上にさらに適用され得る。NNベースフィルタはまた、排他的に適用され得、ここで、NNベースフィルタは、すべての既存のフィルタを置き換えるように設計される。
[0086] 図5は、4つの層をもつ畳み込みニューラルネットワーク(CNN)ベースフィルタ500を示す概念図である。CNNベースフィルタ500は、畳み込み層(convolutional layer)を使用する特定のタイプのNNベースフィルタである。図5に示されているように、NNベースフィルタ処理プロセスは、再構築されたサンプルを入力としてとり得、中間出力501は、入力サンプルを改良するために入力に加算される残差サンプルである。CNNベースフィルタ500は、成分間相関(cross-component correlation)を活用するために、すべての色成分(たとえば、ルーマ、Cbクロマ、Crクロマ)を入力として使用し得る。異なる色成分は、(ネットワーク構造とモデルパラメータとを含む)同じフィルタを共有し得るか、または、各色成分が、それ自体の特定のフィルタを有し得る。
[0087] 詳細には、CNNベースフィルタ500への入力は、再構築されたピクチャの複数のサンプルブロック502を含む。サンプルブロック502の各々は、サイズN×Nを有する。サンプルブロック502は、サンプルの矩形アレイである。サンプルブロック502は、コーディングブロック、予測ブロック、変換ブロック、コーディングツリーブロック、またはコーディングプロセスにおいて使用される他のタイプのブロックに対応することも対応しないこともある。しかしながら、本開示は、正方形サンプルブロックに限定されず、概して、サイズN×Mをもつ矩形サンプルブロックに適用され得る。クロマブロックは、垂直方向においてルーマブロックの半数のサンプルを有し、水平方向においてルーマブロックの半数のサンプルを有する。したがって、各N×Nクロマブロックについて、フィルタ500への入力は、4つのN×Nルーマブロックを含み得る。図5の例では、ルーマブロックは影付きであり、クロマブロックは白色である。したがって、フィルタ500への入力として受信されるサンプルブロックは、Y×4+U+Vとして表され得、ここで、Yはルーマに対応し、Uは第1のクロマ成分に対応し、Vは第2のクロマ成分に対応する。
[0088] さらに、CNNベースフィルタ500は、入力層504と、隠れ層506A~506B(まとめて「隠れ層506」)と、出力層508とを含む。詳細には、図5の例では、CNNベースフィルタ500は、合計4つの層について2つの隠れ層を含む。入力層504、隠れ層506、および出力層508の各々は、畳み込み層510A~510D(まとめて「畳み込み層510」)のうちの1つを含む。さらに、入力層504と隠れ層506の各々とは、PReLU活性化層512A~512C(まとめて「PReLU活性化層512」)のうちの1つを含む。PReLU活性化層512の各々は、畳み込み層の出力を入力としてとり、入力にPReLU活性化関数を適用する。
[0089] 本開示全体にわたって、畳み込み層について説明するために、記法a×b×c×dが使用される。値aおよびbは、入力ロケーションの2次元アレイの幅および高さに対応し得る。入力ロケーションの各々は、c個の入力チャネルを有する。したがって、畳み込み層は、a×b×c個の入力値を受信する。値dは、畳み込み層の出力チャネルの数を示す。各出力チャネルは、畳み込み層によって適用されるトレーニング可能重みの異なるセットに対応する。出力チャネルに対応する重みのセット中の重みの数は、a×b×cに等しい。出力チャネルの値(すなわち、出力値(output value))は、入力値と、出力チャネルに対応する重みのセットとを畳み込むことによって算出され得る。たとえば、出力チャネルの値は、入力値と、出力チャネルに対応する重みのセットとのドット積として算出され得る。d個の出力チャネルがあるので、畳み込み層は、a×b×c×d個の重みに関連する。
[0090] 図5の例に関してこれを示すために、畳み込み層510Aは、3×3×6×8として説明される。したがって、畳み込み層510Aの入力は、現在クロマサンプルロケーションを中心とするクロマサンプルロケーションの3×3正方形中の各クロマサンプルロケーションに対応する6つの値のセットであり得る。各クロマサンプルロケーションは、ブロック502中のクロマサンプルのロケーションに対応する。この例では、クロマブロックは、ルーマブロックの半分の幅および半分の高さである。したがって、各クロマサンプルロケーションについて、4つのルーマサンプルロケーションがある。各クロマサンプルロケーションについて、2つのタイプのクロマサンプルがあり、各クロマサンプルロケーションについて、6つのサンプル値を生じる。畳み込み層510Aは、8つの出力チャネルを有し、したがって、8つの出力値を生成する。図5の例では、PReLU活性化層512Aが、畳み込み層510Aによって生成された8つの出力値に、PReLU活性化関数を適用する。畳み込み層510Aは、ブロック502のクロマサンプルロケーションの全部または一部を現在クロマサンプルロケーションとして、この動作を繰り返し得る。PReLU活性化層512Aによって出力された8つの値のセットは、畳み込み層510Bのための入力として使用されるロケーションの2次元アレイ中の単一のロケーションに対応する値として扱われ得る。畳み込み層510B、510C、および510Dは、同様の様式で動作する。畳み込み層510Dは、現在クロマサンプルロケーションに対応する6つのサンプル値(すなわち、4つのルーマおよび2つのクロマ)に対応する、6つの出力チャネルを有する。他の例では、畳み込み層510Aは、3、3、6、および8とは異なる、a、b、c、およびdの値を有し得る。言い換えれば、しかしながら、本開示は、3×3クロマサンプルロケーションのフィルタカーネルに限定されず、非矩形フィルタカーネルを含む、一般的なa×bフィルタカーネルに適用され得る。さらに、パディングが、ブロック境界、CTU境界、および/またはピクチャ境界において使用され得る。
[0091] CNNベースフィルタ500の出力層508が、中間出力501を生成する。中間出力501は、残差サンプルを含み得る。これらの残差サンプルは、残差生成ユニット332によって生成される残差サンプルとは異なり得る。CNNベースフィルタ500は、サンプルブロック502の対応するサンプルに中間出力501の残差サンプルを加算することによって、フィルタ処理されたブロック514を生成する。フィルタ処理されたブロック514は、サイズN×Nの2つのクロマブロックと、サイズN×Nの4つのルーマブロックとを含み得る。
[0092] 図5のフィルタ処理プロセスは、以下のように一般化され得る。
Figure 2023543762000006
[0093] 図6Aは、ReLU活性化関数600を示す概念図である。図6Aに示されているように、ReLU活性化関数600は、
Figure 2023543762000007
として定義され得る。
[0094] 図6Bは、PReLU活性化関数650を示す概念図である。図6Bに示されているように、PReLU活性化関数650は、
Figure 2023543762000008
として定義され得る。
式5では、aは、PReLU活性化関数を含むニューラルネットワークをトレーニングすることの一部としてトレーニングされる値である。
[0095] NNベースフィルタのモデル構造およびモデルパラメータは、あらかじめ定義され、ビデオエンコーダ200およびビデオデコーダ300において記憶され得る。NNベースフィルタのモデル構造およびモデルパラメータはまた、(たとえば、ビデオエンコーダ200によって)ビットストリーム中でシグナリングされ得る。たとえば、(たとえば、NNベースフィルタの)モデル構造およびモデルパラメータを示す値を有する1つまたは複数のシンタックス要素を、ビデオエンコーダ200は符号化し得、ビデオデコーダ300は復号し得る。ビデオエンコーダ200は、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ビデオパラメータセット(VPS)、スライドヘッダなど、任意の好適なシンタックス構造におけるシンタックス要素を符号化し得る。
[0096] PReLUの性能は、たいていの場合、ReLUよりも良いことがわかっている。しかしながら、PReLUは、トレーニングプロセスを不安定にすることもある。したがって、PReLU活性化関数を使用するNNベースフィルタのトレーニングは、より長くかかり得るか、または最適解から発散し得る。
[0097] 本開示では、NNベースフィルタ処理プロセスにおける活性化関数として、LeakyReLUを使用することが提案される。LeakyReLUは、以下の式(6)に示されている。
Figure 2023543762000009
式(6)では、パラメータAlphaは固定値である。言い換えれば、パラメータAlphaは、LeakyReLU活性化関数を含むニューラルネットワークのトレーニングプロセス中に変化しない。対照的に、PReLUにおけるパラメータaは、トレーニングプロセス中に変化することができるトレーニング可能変数である。
[0098] 一例として、図7の例において示されているCNNベースフィルタが提案される。図7は、本開示の1つまたは複数の技法による、14個の層と活性化関数としての漏洩ReLUとをもつ例示的なCNNベースフィルタ700を示す概念図である。図7の例では、CNNベースフィルタ700への入力は、再構築されたピクチャの複数のサンプルブロック702を含む。いくつかの例では、サンプルブロック702の各々は、サイズN×Nをもつ正方形サンプルブロックであり得る。しかしながら、本開示は、正方形サンプルブロックに限定されず、概して、サイズN×Mをもつ矩形サンプルブロックに適用され得る。図7の例では、クロマブロックは、垂直方向においてルーマブロックの半数のサンプルを有し、水平方向においてルーマブロックの半数のサンプルを有する。したがって、各N×Nクロマブロックについて、CNNベースフィルタ700への入力は、4つのN×Nルーマブロックを含み得る。図7の例では、ルーマブロックは影付きであり、クロマブロックは白色である。したがって、フィルタ700への入力として受信されるサンプルブロック702は、Y×4+U+Vとして表され得、ここで、Yはルーマに対応し、Uは第1のクロマ成分に対応し、Vは第2のクロマ成分に対応する。
[0099] さらに、CNNベースフィルタ700は、入力層704と、隠れ層706A~706N(まとめて「隠れ層706」)と、出力層708とを含む。詳細には、図7の例では、CNNベースフィルタ700は、合計14個の層について12個の隠れ層を含む。他の例では、CNNベースフィルタ700は、14よりも大きいまたは小さい層の量を有し得る。入力層704、隠れ層706、および出力層708の各々は、畳み込み層710A~710N(まとめて「畳み込み層710」)のうちの1つを含む。さらに、入力層704と隠れ層706の各々とは、LeakyReLU活性化層712A~712M(まとめて「LeakyReLU活性化層712」)のうちの1つを含む。LeakyReLU活性化層712の各々は、畳み込み層の出力を入力としてとり、入力にLeakyReLU活性化関数を適用する。
[0100] CNNベースフィルタ700の出力層708が、中間出力701を生成する。中間出力701は、残差サンプルを含み得る。これらの残差サンプルは、残差生成ユニット332によって生成される残差サンプルとは異なり得る。CNNベースフィルタ700は、サンプルブロック702の対応するサンプルに中間出力701の残差サンプルを加算することによって、フィルタ処理されたブロック714を生成する。フィルタ処理されたブロック714は、サイズN×Nの2つのクロマブロックと、サイズN×Nの4つのルーマブロックとを含み得る。
[0101] 一例では、Alphaの最適値が、PReLUのトレーニング可能値の統計値によって達成され、同じAlpha値がすべての層のために使用される。たとえば、ビデオエンコーダ200およびビデオデコーダ300は、CNNベースフィルタ700のLeakyReLU活性化層712のすべてにおいて、Alphaの同じあらかじめ決定された値を使用し得る。この例では、ビデオエンコーダ200が、ビットストリーム中でAlphaの値(a value of Alpha)をシグナリングすることは必要でないことがある。いくつかの例では、PReLUのトレーニング可能値(たとえば、a)の値の統計値に基づいてAlphaの最適値を取得するために、(たとえば、ビデオエンコーダ200、ビデオデコーダ300、あるいは別のデバイスまたはシステムによる)システムが、トレーニングが収束するまで、PReLU活性化関数を使用してネットワークをトレーニングし得る。システムは、次いで、各層のPReLU活性化関数のトレーニング可能値(たとえば、a)に関する統計値を使用し得る。たとえば、システムは、層のPReLU活性化関数のトレーニング可能値の平均として、Alphaの最適値を決定し得る。
[0102] 別の例として、Alphaの最適値が、各層についてのPReLUのトレーニング可能値の値の統計値によって達成され、各層は、それ自体の固定Alpha値を使用し得る。たとえば、LeakyReLU活性化層712の各々について、ビデオエンコーダ200およびビデオデコーダ300は、LeakyReLU活性化層において、Alphaの同じあらかじめ決定された層固有値を使用し得るが、Alphaの異なるあらかじめ決定された値が、異なるLeakyReLU活性化層712において使用され得る。この例では、ビデオエンコーダ200が、ビットストリーム中でAlphaの値をシグナリングすることは必要でないことがある。いくつかの例では、各層についてのPReLUのトレーニング可能値(たとえば、a)の値の統計値に基づいてAlphaの最適値を取得するために、(たとえば、ビデオエンコーダ200、ビデオデコーダ300、あるいは別のデバイスまたはシステムによる)システムが、トレーニングが収束するまで、PReLU活性化関数を使用してネットワークをトレーニングし得る。システムは、次いで、各層のPReLU活性化関数のトレーニング可能値(たとえば、a)に関する統計値を使用し得る。たとえば、システムは、対応する層のPReLU活性化関数のトレーニング可能値に等しいものとして、層についてのAlphaの最適値を決定し得る。別の例では、システムは、層のうちの2つまたはそれ以上のPReLU活性化関数のトレーニング可能値のうちの2つまたはそれ以上の平均に等しいものとして、層についてのAlphaの最適値を決定し得る。
[0103] 別の例として、NNベースフィルタ(たとえば、CNNベースフィルタ700)におけるAlphaの値は、ピクチャにNNベースフィルタを適用するときに指定され得るパラメータである。たとえば、ビデオコーディングを伴う1つの可能な使用事例では、エンコーダ側において、ビデオエンコーダ200は、どんなAlpha値が使用されるべきであるかに関する決定を行う。たとえば、ビデオエンコーダ200は、複数の異なるあらかじめ決定されたAlpha値を用いてNNベースフィルタを適用し、Alpha値のうちのどの1つが最良の結果を生じるかを選択し得る。ビデオエンコーダ200は、異なるAlpha値を使用して生成された再構築されたブロックまたはピクチャを(たとえば、絶対差分和などで)比較することによって、どのAlpha値が最良の結果を生じるかを決定し得る。さらに、ビデオエンコーダ200は、ビットストリーム中のシンタックス要素として、Alpha値を導出する(derive)ために必要とされる情報(information)を符号化し得る。ビデオデコーダ300は、ビデオエンコーダ200によって選択されたAlpha値を再構築し、フィルタ処理プロセスを実施する。Alpha値をシグナリングするための方法の例は、ビットストリーム中でAlpha値をシグナリングすること、またはあらかじめ定義されたセット内の選択されたAlpha値のインデックス(index)をシグナリングすることを含む。Alpha値の一般的な値は1/4であり得るが、他の値が可能であり得る。
[0104] 図8は、本開示の技法を実施し得る例示的なビデオエンコーダ200を示すブロック図である。図8は、説明の目的で提供されており、本開示において広く例示され、説明される技法を限定するものと見なされるべきではない。説明の目的で、本開示は、VVC(ITU-T H.266)およびHEVC(ITU-T H.265)の技法に従って、ビデオエンコーダ200について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に構成されたビデオ符号化デバイスによって実施され得る。
[0105] 図8の例では、ビデオエンコーダ200は、ビデオデータメモリ830と、モード選択ユニット802と、残差生成ユニット804と、変換処理ユニット806と、量子化ユニット808と、逆量子化ユニット810と、逆変換処理ユニット812と、再構築ユニット814と、フィルタユニット816と、復号ピクチャバッファ(DPB)818と、エントロピー符号化ユニット820とを含む。ビデオデータメモリ830、モード選択ユニット802、残差生成ユニット804、変換処理ユニット806、量子化ユニット808、逆量子化ユニット810、逆変換処理ユニット812、再構築ユニット814、フィルタユニット816、DPB818、およびエントロピー符号化ユニット820のうちのいずれかまたはすべては、1つまたは複数のプロセッサまたは処理回路において実装され得る。たとえば、ビデオエンコーダ200のユニットは、1つまたは複数の回路または論理要素として、ハードウェア回路の一部として、あるいはプロセッサ、ASIC、またはFPGAの一部として実装され得る。その上、ビデオエンコーダ200は、これらおよび他の機能を実施するための追加または代替のプロセッサまたは処理回路を含み得る。
[0106] ビデオデータメモリ830は、ビデオエンコーダ200の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオエンコーダ200は、たとえば、ビデオソース104(図1)から、ビデオデータメモリ830に記憶されるビデオデータを受信し得る。DPB818は、ビデオエンコーダ200による後でコーディングされるビデオデータの予測において使用するための参照ビデオデータを記憶する参照ピクチャメモリとして働き得る。ビデオデータメモリ830とDPB818とは、同期ダイナミックランダムアクセスメモリ(DRAM)(SDRAM)を含むDRAM、磁気抵抗RAM(MRAM)、抵抗性RAM(RRAM(登録商標))、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ830とDPB818とは、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ830は、図示のように、ビデオエンコーダ200の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。
[0107] 本開示では、ビデオデータメモリ830への言及は、特にそのように説明されない限り、ビデオエンコーダ200の内部のメモリに限定されるものとして解釈されるべきではなく、または特にそのように説明されない限り、ビデオエンコーダ200の外部のメモリに限定されるものとして解釈されるべきではない。そうではなく、ビデオデータメモリ830への言及は、ビデオエンコーダ200が符号化のために受信するビデオデータ(たとえば、符号化されるべきである現在ブロックのためのビデオデータ)を記憶する参照メモリとして理解されるべきである。図1のメモリ106はまた、ビデオエンコーダ200の様々なユニットからの出力の一時的記憶を提供し得る。
[0108] 図8の様々なユニットは、ビデオエンコーダ200によって実施される動作を理解するのを支援するために示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。固定機能回路は、特定の機能を提供する回路を指し、実施され得る動作に関してプリセットされる。プログラマブル回路は、様々なタスクを実施するように、および実施され得る動作においてフレキシブルな機能を提供するようにプログラムされ得る回路を指す。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された様式でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は、(たとえば、パラメータを受信するかまたはパラメータを出力するために)ソフトウェア命令を実行し得るが、固定機能回路が実施する動作のタイプは、概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は、別個の回路ブロック(固定機能またはプログラマブル)であり得、いくつかの例では、ユニットのうちの1つまたは複数は、集積回路であり得る。
[0109] ビデオエンコーダ200は、算術論理ユニット(ALU)、基本機能ユニット(EFU)、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されるプログラマブルコアを含み得る。ビデオエンコーダ200の動作が、プログラマブル回路によって実行されるソフトウェアを使用して実施される例では、メモリ106(図1)は、ビデオエンコーダ200が受信し、実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得るか、またはビデオエンコーダ200内の別のメモリ(図示せず)が、そのような命令を記憶し得る。
[0110] ビデオデータメモリ830は、受信されたビデオデータを記憶するように構成される。ビデオエンコーダ200は、ビデオデータメモリ830からビデオデータのピクチャを取り出し、ビデオデータを残差生成ユニット804とモード選択ユニット802とに提供し得る。ビデオデータメモリ830中のビデオデータは、符号化されるべきである生のビデオデータであり得る。
[0111] モード選択ユニット802は、動き推定ユニット822と、動き補償ユニット824と、イントラ予測ユニット826とを含む。モード選択ユニット802は、他の予測モードに従ってビデオ予測を実施するための追加の機能ユニットを含み得る。例として、モード選択ユニット802は、パレットユニット、(動き推定ユニット822および/または動き補償ユニット824の一部であり得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。
[0112] モード選択ユニット802は、概して、符号化パラメータの組合せと、そのような組合せについての得られたレートひずみ値とをテストするために、複数の符号化パスを協調させる。符号化パラメータは、CUへのCTUの区分、CUのための予測モード、CUの残差データのための変換タイプ、CUの残差データのための量子化パラメータなどを含み得る。モード選択ユニット802は、他のテストされた組合せよりも良好であるレートひずみ値を有する符号化パラメータの組合せを最終的に選択し得る。
[0113] ビデオエンコーダ200は、ビデオデータメモリ830から取り出されたピクチャを一連のCTUに区分し、スライス内の1つまたは複数のCTUをカプセル化し得る。モード選択ユニット802は、上記で説明されたHEVCのQTBT構造またはクワッドツリー構造など、ツリー構造に従ってピクチャのCTUを区分し得る。上記で説明されたように、ビデオエンコーダ200は、ツリー構造に従ってCTUを区分することから1つまたは複数のCUを形成し得る。そのようなCUは、概して「ビデオブロック」または「ブロック」と呼ばれることもある。
[0114] 概して、モード選択ユニット802はまた、現在ブロック(たとえば、現在CU、またはHEVCでは、PUとTUとの重複する部分)についての予測ブロックを生成するように、それの構成要素(たとえば、動き推定ユニット822、動き補償ユニット824、およびイントラ予測ユニット826)を制御する。現在ブロックのインター予測のために、動き推定ユニット822は、1つまたは複数の参照ピクチャ(たとえば、DPB818に記憶された1つまたは複数の前にコーディングされたピクチャ)中で1つまたは複数のぴったり一致する参照ブロックを識別するために動き探索を実施し得る。特に、動き推定ユニット822は、たとえば、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)などに従って、現在ブロックに対して潜在的参照ブロックがどのくらい類似しているかを表す値を計算し得る。動き推定ユニット822は、概して、現在ブロックと考慮されている参照ブロックとの間のサンプルごとの差分を使用してこれらの計算を実施し得る。動き推定ユニット822は、現在ブロックに最もぴったり一致する参照ブロックを示す、これらの計算から得られた最も低い値を有する参照ブロックを識別し得る。
[0115] 動き推定ユニット822は、現在ピクチャ中の現在ブロックの位置に対して参照ピクチャ中の参照ブロックの位置を定義する1つまたは複数の動きベクトル(MV)を形成し得る。動き推定ユニット822は、次いで、動きベクトルを動き補償ユニット824に提供し得る。たとえば、単方向インター予測では、動き推定ユニット822は、単一の動きベクトルを提供し得るが、双方向インター予測では、動き推定ユニット822は、2つの動きベクトルを提供し得る。動き補償ユニット824は、次いで、動きベクトルを使用して予測ブロックを生成し得る。たとえば、動き補償ユニット824は、動きベクトルを使用して参照ブロックのデータを取り出し得る。別の例として、動きベクトルが部分サンプル精度を有する場合、動き補償ユニット824は、1つまたは複数の補間フィルタに従って予測ブロックについての値を補間し得る。その上、双方向インター予測では、動き補償ユニット824は、それぞれの動きベクトルによって識別された2つの参照ブロックについてデータを取り出し、たとえば、サンプルごとの平均化または重み付き平均化を通して、取り出されたデータを組み合わせ得る。
[0116] 別の例として、イントラ予測、またはイントラ予測コーディングのために、イントラ予測ユニット826は、現在ブロックに隣接しているサンプルから予測ブロックを生成し得る。たとえば、方向性モードでは、イントラ予測ユニット826は、概して、予測ブロックを作り出すために、隣接サンプルの値を数学的に組み合わせ、現在ブロックにわたって定義された方向にこれらの計算された値をポピュレートし得る。別の例として、DCモードでは、イントラ予測ユニット826は、現在ブロックに対する隣接サンプルの平均を計算し、予測ブロックの各サンプルについてこの得られた平均を含むように予測ブロックを生成し得る。
[0117] モード選択ユニット802は、予測ブロックを残差生成ユニット804に提供する。残差生成ユニット804は、ビデオデータメモリ830から現在ブロックの生の符号化されていないバージョンを受信し、モード選択ユニット802から予測ブロックを受信する。残差生成ユニット804は、現在ブロックと予測ブロックとの間のサンプルごとの差分を計算する。得られたサンプルごとの差分は、現在ブロックについての残差ブロックを定義する。いくつかの例では、残差生成ユニット804はまた、残差差分パルスコード変調(RDPCM)を使用して残差ブロックを生成するために、残差ブロック中のサンプル値間の差分を決定し得る。いくつかの例では、残差生成ユニット804は、バイナリ減算を実施する1つまたは複数の減算器回路を使用して形成され得る。
[0118] モード選択ユニット802がCUをPUに区分する例では、各PUは、ルーマ予測ユニットと、対応するクロマ予測ユニットとに関連付けられ得る。ビデオエンコーダ200およびビデオデコーダ300は、様々なサイズを有するPUをサポートし得る。上記で示されたように、CUのサイズは、CUのルーマコーディングブロックのサイズを指し得、PUのサイズは、PUのルーマ予測ユニットのサイズを指し得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ200は、イントラ予測のための2N×2NまたはN×NのPUサイズと、インター予測のための2N×2N、2N×N、N×2N、N×N、または同様のものの対称PUサイズとをサポートし得る。ビデオエンコーダ200およびビデオデコーダ300はまた、インター予測のための2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズに対して非対称区分をサポートし得る。
[0119] モード選択ユニット802がCUをPUにさらに区分しない例では、各CUは、ルーマコーディングブロックと、対応するクロマコーディングブロックとに関連付けられ得る。上記のように、CUのサイズは、CUのルーマコーディングブロックのサイズを指し得る。ビデオエンコーダ200およびビデオデコーダ300は、2N×2N、2N×N、またはN×2NのCUサイズをサポートし得る。
[0120] いくつかの例として、イントラブロックコピーモードコーディング、アフィンモードコーディング、および線形モデル(LM)モードコーディングなどの他のビデオコーディング技法では、モード選択ユニット802は、コーディング技法に関連付けられたそれぞれのユニットを介して、符号化されている現在ブロックについての予測ブロックを生成する。パレットモードコーディングなど、いくつかの例では、モード選択ユニット802は、予測ブロックを生成せず、代わりに、選択されたパレットに基づいてブロックを再構築すべき様式を示すシンタックス要素を生成し得る。そのようなモードでは、モード選択ユニット802は、符号化されるべきこれらのシンタックス要素をエントロピー符号化ユニット820に提供し得る。
[0121] 上記で説明されたように、残差生成ユニット804は、現在ブロックのためのビデオデータと、対応する予測ブロックとを受信する。残差生成ユニット804は、次いで、現在ブロックについての残差ブロックを生成する。残差ブロックを生成するために、残差生成ユニット804は、予測ブロックと現在ブロックとの間のサンプルごとの差分を計算する。
[0122] 変換処理ユニット806は、(本明細書では「変換係数ブロック」と呼ばれる)変換係数のブロックを生成するために、残差ブロックに1つまたは複数の変換を適用する。変換処理ユニット806は、変換係数ブロックを形成するために、残差ブロックに様々な変換を適用し得る。たとえば、変換処理ユニット806は、離散コサイン変換(DCT)、方向性変換、カルーネンレーベ変換(KLT)、または概念的に同様の変換を残差ブロックに適用し得る。いくつかの例では、変換処理ユニット806は、残差ブロックに複数の変換、たとえば、回転変換など、1次変換および2次変換を実施し得る。いくつかの例では、変換処理ユニット806は、残差ブロックに変換を適用しない。
[0123] 量子化ユニット808は、量子化された変換係数ブロックを作り出すために、変換係数ブロック中の変換係数を量子化し得る。量子化ユニット808は、現在ブロックに関連付けられた量子化パラメータ(QP)値に従って変換係数ブロックの変換係数を量子化し得る。ビデオエンコーダ200は(たとえば、モード選択ユニット802を介して)、CUに関連付けられたQP値を調整することによって、現在ブロックに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。量子化は、情報の損失をもたらし得、したがって、量子化された変換係数は、変換処理ユニット806によって作り出された元の変換係数よりも低い精度を有し得る。
[0124] 逆量子化ユニット810および逆変換処理ユニット812は、変換係数ブロックから残差ブロックを再構築するために、それぞれ、量子化された変換係数ブロックに逆量子化および逆変換を適用し得る。再構築ユニット814は、再構築された残差ブロックと、モード選択ユニット802によって生成された予測ブロックとに基づいて、(潜在的にある程度のひずみを伴うが)現在ブロックに対応する再構築されたブロックを作り出し得る。たとえば、再構築ユニット814は、再構築されたブロックを作り出すために、モード選択ユニット802によって生成された予測ブロックからの対応するサンプルに、再構築された残差ブロックのサンプルを加算し得る。
[0125] フィルタユニット816は、再構築されたブロックに対して1つまたは複数のフィルタ動作を実施し得る。たとえば、フィルタユニット816は、CUのエッジに沿ってブロッキネスアーティファクト(blockiness artifact)を低減するためのデブロッキング動作(deblocking operation)を実施し得る。フィルタユニット816の動作は、いくつかの例では、スキップされ得る。いくつかの例では、フィルタユニット816は、CNNベースフィルタ700など、LeakyReLU活性化関数を使用するCNNベースフィルタを適用し得る。したがって、いくつかの例では、再構築ユニット814は、ピクチャのブロックを再構築し得、ここで、ブロックは、ピクチャの正方形または矩形エリアであり得、コーディングブロック、予測ブロックなどに対応することも対応しないこともある。フィルタユニット816は、ブロックにCNNベースフィルタ700を適用し得、ここで、CNNベースフィルタ700は、LeakyReLU活性化関数を使用する。
[0126] ビデオエンコーダ200は、再構築されたブロックをDPB818に記憶する。たとえば、フィルタユニット816の動作が実施されない例では、再構築ユニット814は、再構築されたブロックをDPB818に記憶し得る。フィルタユニット816の動作が実施される例では、フィルタユニット816は、フィルタ処理された再構築されたブロックをDPB818に記憶し得る。動き推定ユニット822および動き補償ユニット824は、後で符号化されるピクチャのブロックをインター予測するために、再構築(および潜在的にフィルタ処理)されたブロックから形成された参照ピクチャをDPB818から取り出し得る。さらに、イントラ予測ユニット826は、現在ピクチャ中の他のブロックをイントラ予測するために、現在ピクチャのDPB818中の再構築されたブロックを使用し得る。
[0127] 概して、エントロピー符号化ユニット820は、ビデオエンコーダ200の他の機能構成要素から受信されたシンタックス要素をエントロピー符号化し得る。たとえば、エントロピー符号化ユニット820は、量子化ユニット808からの量子化された変換係数ブロックをエントロピー符号化し得る。別の例として、エントロピー符号化ユニット820は、モード選択ユニット802からの予測シンタックス要素(たとえば、インター予測のための動き情報、またはイントラ予測のためのイントラモード情報)をエントロピー符号化し得る。エントロピー符号化ユニット820は、エントロピー符号化されたデータを生成するために、ビデオデータの別の例であるシンタックス要素に対して1つまたは複数のエントロピー符号化動作を実施し得る。たとえば、エントロピー符号化ユニット820は、コンテキスト適応型可変長コーディング(CAVLC)動作、CABAC動作、可変対可変(V2V)長コーディング動作、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)動作、確率間隔区分エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作、または別のタイプのエントロピー符号化動作をデータに対して実施し得る。いくつかの例では、エントロピー符号化ユニット820は、シンタックス要素がエントロピー符号化されないバイパスモードで動作し得る。
[0128] ビデオエンコーダ200は、スライスまたはピクチャのブロックを再構築するために必要とされるエントロピー符号化されたシンタックス要素を含むビットストリームを出力し得る。たとえば、エントロピー符号化ユニット820は、ビットストリームを出力し得る。
[0129] 上記で説明された動作は、ブロックに関して説明されている。そのような説明は、ルーマコーディングブロックおよび/またはクロマコーディングブロックのための動作であるものとして理解され得る。上記で説明されたように、いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、CUのルーマ成分およびクロマ成分である。いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、PUのルーマ成分およびクロマ成分である。
[0130] いくつかの例では、ルーマコーディングブロックに関して実施される動作は、クロマコーディングブロックのために繰り返される必要はない。一例として、ルーマコーディングブロックのための動きベクトル(MV)と参照ピクチャとを識別するための動作は、クロマブロックのためのMVと参照ピクチャとを識別するために繰り返される必要はない。むしろ、ルーマコーディングブロックのためのMVは、クロマブロックのためのMVを決定するためにスケーリングされ得、参照ピクチャは同じであり得る。別の例として、イントラ予測プロセスは、ルーマコーディングブロックとクロマコーディングブロックとについて同じであり得る。
[0131] ビデオエンコーダ200は、ビデオデータを記憶するように構成されたメモリと、回路において実装された1つまたは複数の処理ユニットとを含む、ビデオデータを符号化するように構成されたデバイスの一例を表し、1つまたは複数の処理ユニットは、ビデオデータのブロックを再構築することと、ブロックにCNNベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行うように構成される。
[0132] 図9は、本開示の技法を実施し得る例示的なビデオデコーダ300を示すブロック図である。図9は、説明の目的で提供されており、本開示において広く例示され、説明される技法を限定するものではない。説明の目的で、本開示は、VVC(開発中のITU-T H.266)、およびHEVC(ITU-T H.265)の技法に従って、ビデオデコーダ300について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に構成されたビデオコーディングデバイスによって実施され得る。
[0133] 図9の例では、ビデオデコーダ300は、コード化ピクチャバッファ(CPB)メモリ920と、エントロピー復号ユニット902と、予測処理ユニット904と、逆量子化ユニット906と、逆変換処理ユニット908と、再構築ユニット910と、フィルタユニット912と、復号ピクチャバッファ(DPB)914とを含む。CPBメモリ920と、エントロピー復号ユニット902と、予測処理ユニット904と、逆量子化ユニット906と、逆変換処理ユニット908と、再構築ユニット910と、フィルタユニット912と、DPB914とのいずれかまたはすべては、1つまたは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオデコーダ300のユニットは、1つまたは複数の回路または論理要素として、ハードウェア回路の一部として、あるいはプロセッサ、ASIC、またはFPGAの一部として実装され得る。その上、ビデオデコーダ300は、これらおよび他の機能を実施するための追加または代替のプロセッサまたは処理回路を含み得る。
[0134] 予測処理ユニット904は、動き補償ユニット916と、イントラ予測ユニット918とを含む。予測処理ユニット904は、他の予測モードに従って予測を実施するための追加のユニットを含み得る。例として、予測処理ユニット904は、パレットユニット、(動き補償ユニット916の一部を形成し得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。他の例では、ビデオデコーダ300は、より多数の、より少数の、または異なる機能構成要素を含み得る。
[0135] CPBメモリ920は、ビデオデコーダ300の構成要素によって復号されるべき、符号化されたビデオビットストリームなどのビデオデータを記憶し得る。CPBメモリ920に記憶されるビデオデータは、たとえば、コンピュータ可読媒体110(図1)から取得され得る。CPBメモリ920は、符号化されたビデオビットストリームからの符号化されたビデオデータ(たとえば、シンタックス要素)を記憶するCPBを含み得る。また、CPBメモリ920は、ビデオデコーダ300の様々なユニットからの出力を表す一時データなど、コーディングされたピクチャのシンタックス要素以外のビデオデータを記憶し得る。DPB914は、概して、符号化されたビデオビットストリームの後続のデータまたはピクチャを復号するときにビデオデコーダ300が参照ビデオデータとして出力および/または使用し得る、復号されたピクチャを記憶する。CPBメモリ920およびDPB914は、SDRAMを含むDRAM、MRAM、RRAM、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。CPBメモリ920およびDPB914は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、CPBメモリ920は、ビデオデコーダ300の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。
[0136] 追加または代替として、いくつかの例では、ビデオデコーダ300は、メモリ120(図1)からコーディングされたビデオデータを取り出し得る。すなわち、メモリ120は、CPBメモリ920とともに上記で説明されたようにデータを記憶し得る。同様に、メモリ120は、ビデオデコーダ300の機能の一部または全部が、ビデオデコーダ300の処理回路によって実行されるべきソフトウェアにおいて実装されたとき、ビデオデコーダ300によって実行されるべき命令を記憶し得る。
[0137] 図9に示されている様々なユニットは、ビデオデコーダ300によって実施される動作を理解するのを支援するために示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。図8と同様に、固定機能回路は、特定の機能を提供する回路を指し、実施され得る動作に関してプリセットされる。プログラマブル回路は、様々なタスクを実施するように、および実施され得る動作においてフレキシブルな機能を提供するようにプログラムされ得る回路を指す。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された様式でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は、(たとえば、パラメータを受信するかまたはパラメータを出力するために)ソフトウェア命令を実行し得るが、固定機能回路が実施する動作のタイプは、概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は、別個の回路ブロック(固定機能またはプログラマブル)であり得、いくつかの例では、ユニットのうちの1つまたは複数は、集積回路であり得る。
[0138] ビデオデコーダ300は、ALU、EFU、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されるプログラマブルコアを含み得る。ビデオデコーダ300の動作が、プログラマブル回路上で実行するソフトウェアによって実施される例では、オンチップまたはオフチップメモリは、ビデオデコーダ300が受信し、実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得る。
[0139] エントロピー復号ユニット902は、CPBから、符号化されたビデオデータを受信し、シンタックス要素を再生するためにビデオデータをエントロピー復号し得る。予測処理ユニット904、逆量子化ユニット906、逆変換処理ユニット908、再構築ユニット910、およびフィルタユニット912は、ビットストリームから抽出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。いくつかの例では、フィルタユニット912は、LeakyReLU活性化関数を使用するCNNベースフィルタを適用し得る。
[0140] 概して、ビデオデコーダ300は、ブロックごとにピクチャを再構築する。ビデオデコーダ300は、各ブロックに対して個々に再構築動作を実施し得る(ここで、現在再構築されている、すなわち、復号されているブロックは、「現在ブロック」と呼ばれることがある)。
[0141] エントロピー復号ユニット902は、量子化された変換係数ブロックの量子化された変換係数を定義するシンタックス要素、ならびに量子化パラメータ(QP)および/または(1つまたは複数の)変換モード指示などの変換情報をエントロピー復号し得る。逆量子化ユニット906は、量子化の程度と、同様に、逆量子化ユニット906が適用すべき逆量子化の程度とを決定するために、量子化された変換係数ブロックに関連付けられたQPを使用し得る。逆量子化ユニット906は、量子化された変換係数を逆量子化するために、たとえば、ビット単位左シフト動作を実施し得る。逆量子化ユニット906は、それにより、変換係数を含む変換係数ブロックを形成し得る。
[0142] 逆量子化ユニット906が変換係数ブロックを形成した後に、逆変換処理ユニット908は、現在ブロックに関連付けられた残差ブロックを生成するために、変換係数ブロックに1つまたは複数の逆変換を適用し得る。たとえば、逆変換処理ユニット908は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT)、逆回転変換、逆方向変換、または別の逆変換を変換係数ブロックに適用し得る。
[0143] さらに、予測処理ユニット904は、エントロピー復号ユニット902によってエントロピー復号された予測情報シンタックス要素に従って予測ブロックを生成する。たとえば、予測情報シンタックス要素が、現在ブロックがインター予測されることを示す場合、動き補償ユニット916は予測ブロックを生成し得る。この場合、予測情報シンタックス要素は、参照ブロックをそれから取り出すべきDPB914中の参照ピクチャ、ならびに現在ピクチャ中の現在ブロックのロケーションに対する参照ピクチャ中の参照ブロックのロケーションを識別する動きベクトルを示し得る。動き補償ユニット916は、概して、動き補償ユニット824(図8)に関して説明されたものと実質的に同様である様式で、インター予測プロセスを実施し得る。
[0144] 別の例として、予測情報シンタックス要素が、現在ブロックがイントラ予測されることを示す場合、イントラ予測ユニット918は、予測情報シンタックス要素によって示されるイントラ予測モードに従って予測ブロックを生成し得る。この場合も、イントラ予測ユニット918は、概して、イントラ予測ユニット826(図8)に関して説明されたものと実質的に同様である様式で、イントラ予測プロセスを実施し得る。イントラ予測ユニット918は、DPB914から、現在ブロックに対する隣接サンプルのデータを取り出し得る。
[0145] 再構築ユニット910は、予測ブロックと残差ブロックとを使用して現在ブロックを再構築し得る。たとえば、再構築ユニット910は、現在ブロックを再構築するために、予測ブロックの対応するサンプルに残差ブロックのサンプルを加算し得る。
[0146] フィルタユニット912は、再構築されたブロックに対して1つまたは複数のフィルタ動作を実施し得る。たとえば、フィルタユニット912は、再構築されたブロックのエッジに沿ってブロッキネスアーティファクト(blockiness artifact)を低減するためのデブロッキング動作(deblocking operation)を実施し得る。フィルタユニット912の動作は、必ずしもすべての例において実施されるとは限らない。いくつかの例では、フィルタユニット912は、CNNベースフィルタ700など、LeakyReLU活性化関数を使用するCNNベースフィルタを適用し得る。したがって、いくつかの例では、再構築ユニット910は、ピクチャのブロックを再構築し得、ここで、ブロックは、ピクチャの正方形または矩形エリアであり得、コーディングブロック、予測ブロックなどに対応することも対応しないこともある。フィルタユニット912は、ブロックにCNNベースフィルタ700を適用し得、ここで、CNNベースフィルタ700は、LeakyReLU活性化関数を使用する。
[0147] ビデオデコーダ300は、再構築されたブロックをDPB914に記憶し得る。たとえば、フィルタユニット912の動作が実施されない例では、再構築ユニット910は、再構築されたブロックをDPB914に記憶し得る。フィルタユニット912の動作が実施される例では、フィルタユニット912は、フィルタ処理された再構築されたブロックをDPB914に記憶し得る。上記で説明されたように、DPB914は、イントラ予測のための現在ピクチャのサンプル、および後続の動き補償のための前に復号されたピクチャなど、参照情報を、予測処理ユニット904に提供し得る。その上、ビデオデコーダ300は、DPB914からの復号されたピクチャ(たとえば、復号されたビデオ)を、図1のディスプレイデバイス118などのディスプレイデバイス上での後続の提示のために、出力し得る。
[0148] このようにして、ビデオデコーダ300は、ビデオデータを記憶するように構成されたメモリと、回路において実装された1つまたは複数の処理ユニットとを含む、ビデオ復号デバイスの一例を表し、1つまたは複数の処理ユニットは、ビデオデータのブロックを再構築することと、ブロックにCNNベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行うように構成される。
[0149] 図10は、本開示の技法による、現在ブロックを符号化するための例示的な方法を示すフローチャートである。現在ブロックは現在CUを備え得る。ビデオエンコーダ200(図1および図8)に関して説明されるが、他のデバイスが図10の方法と同様の方法を実施するように構成され得ることを理解されたい。
[0150] この例では、ビデオエンコーダ200は、最初に、現在ブロックを予測する(350)。たとえば、ビデオエンコーダ200は、現在ブロックのための予測ブロックを形成し得る。ビデオエンコーダ200は、次いで、現在ブロックのための残差ブロックを計算し得る(352)。残差ブロックを計算するために、ビデオエンコーダ200は、元の符号化されていないブロックと、現在ブロックのための予測ブロックとの間の差分を計算し得る。ビデオエンコーダ200は、次いで、残差ブロックを変換し、残差ブロックの変換係数を量子化し得る(354)。次に、ビデオエンコーダ200は、残差ブロックの量子化された変換係数を走査し得る(356)。走査中に、または走査に続いて、ビデオエンコーダ200は、変換係数をエントロピー符号化し得る(358)。たとえば、ビデオエンコーダ200は、CAVLCまたはCABACを使用して変換係数を符号化し得る。ビデオエンコーダ200は、次いで、ブロックのエントロピー符号化されたデータを出力し得る(360)。
[0151] 図11は、本開示の技法による、ビデオデータの現在ブロックを復号するための例示的な方法を示すフローチャートである。現在ブロックは現在CUを備え得る。ビデオデコーダ300(図1および図9)に関して説明されるが、他のデバイスが図11の方法と同様の方法を実施するように構成され得ることを理解されたい。
[0152] ビデオデコーダ300は、エントロピー符号化された予測情報、および現在ブロックに対応する残差ブロックの変換係数についてのエントロピー符号化されたデータなど、現在ブロックについてのエントロピー符号化されたデータを受信し得る(370)。ビデオデコーダ300は、現在ブロックのための予測情報を決定するために、および残差ブロックの変換係数を再生するために、エントロピー符号化されたデータをエントロピー復号し得る(372)。ビデオデコーダ300は、現在ブロックのための予測ブロックを計算するために、たとえば、現在ブロックのための予測情報によって示されるイントラ予測またはインター予測モードを使用して、現在ブロックを予測し得る(374)。ビデオデコーダ300は、次いで、量子化された変換係数のブロックを作成するために、再生された変換係数を逆走査し得る(376)。ビデオデコーダ300は、次いで、残差ブロックを作り出すために、変換係数を逆量子化し、変換係数に逆変換を適用し得る(378)。ビデオデコーダ300は、予測ブロックと残差ブロックとを組み合わせることによって、最終的に現在ブロックを復号し得る(380)。いくつかの例では、ビデオデコーダ300は、復号されたブロックにCNNベースフィルタをさらに適用し得、ここにおいて、CNNベースフィルタは、LeakyReLU活性化関数を使用する。
[0153] 図12は、本開示の1つまたは複数の技法による、ビデオコーダ(たとえば、ビデオエンコーダ200またはビデオデコーダ300)の例示的な動作を示すフローチャートである。図12の例では、ビデオコーダは、ビデオデータのブロックを再構築する(1200)。ビデオデータのブロックは、サンプルの矩形アレイであり得る。ブロックは、変換ブロック、予測ブロック、コーディングブロック、コーディングツリーブロック、またはコーディングプロセスにおいて使用されるタイプのブロックに対応することも対応しないこともある。たとえば、ビデオコーダ(たとえば、再構築ユニット814(図8)または再構築ユニット910(図9))は、対応する予測ブロックに残差データを加算することによって、ブロックを含むピクチャを再構築し得る。
[0154] さらに、ビデオコーダは、再構築されたブロックにCNNベースフィルタ(たとえば、CNNベースフィルタ700)を適用する(1202)。CNNベースフィルタは、LeakyReLU活性化関数を使用する。上述のように、LeakyReLU活性化関数は、
Figure 2023543762000010
として定義され、ここで、yはCNNの畳み込み層の出力値であり、Alphaは固定パラメータ(fixed parameter)である。いくつかの例では、CNNベースフィルタは複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである。いくつかの例では、CNNベースフィルタは複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる。
[0155] ビデオコーダがビデオデコーダ300であるいくつかの例では、ビデオデコーダ300は、ビデオデータの符号化された表現(encoded representation)を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定し得る。たとえば、Alphaの値は、ビットストリーム中でシグナリングされ得る。言い換えれば、シンタックス要素が、Alphaの値を直接指定し得る。別の例では、あらかじめ定義されたセット中のAlphaのインデックスが、ビットストリーム中でシグナリングされる。この例では、ビデオデコーダ300は、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定し得る。
[0156] ビデオコーダがビデオエンコーダ200であるいくつかの例では、CNNベースフィルタは、複数の畳み込み層(たとえば、畳み込み層710)を含み、ビデオエンコーダ200は、畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの単一の値を決定し得る。ビデオエンコーダ200は、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化し得る。いくつかの例では、ビデオエンコーダ200は、ビットストリーム中で、あらかじめ定義されたセット中のAlphaのインデックスをシグナリングする。この例では、ビデオエンコーダ200は、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定し得る。他の例では、ビデオエンコーダ200は、複数の畳み込み層(たとえば、畳み込み層710)のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの複数の値を決定し得る。そのような例では、ビデオエンコーダ200は、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化し得る。
[0157] 以下は、本開示の1つまたは複数の態様によるものであり得る態様の非限定的なリストである。
[0158] 態様1A. ビデオデータをコーディングする方法であって、方法は、ビデオデータのブロックを再構築することと、ブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を備える、方法。
[0159] 態様2A. LeakyReLU活性化関数が、
Figure 2023543762000011
として定義され、ここで、yがCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、態様1Aに記載の方法。
[0160] 態様3A. CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである、態様2Aに記載の方法。
[0161] 態様4A. CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる、態様2Aに記載の方法。
[0162] 態様5A. ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定することをさらに備える、態様2Aから4Aのいずれかに記載の方法。
[0163] 態様6A. Alphaの値が、ビットストリーム中でシグナリングされる、態様5Aに記載の方法。
[0164] 態様7A. あらかじめ定義されたセット内のAlphaのインデックスが、ビットストリーム中でシグナリングされる、態様5Aに記載の方法。
[0165] 態様8A. コーディングすることが復号することを備える、態様1Aから7Aのいずれかに記載の方法。
[0166] 態様9A. コーディングすることが符号化することを備える、態様1Aから7Aのいずれかに記載の方法。
[0167] 態様10A. ビデオデータをコーディングするためのデバイスであって、デバイスが、態様1Aから9Aのいずれかに記載の方法を実施するための1つまたは複数の手段を備える、デバイス。
[0168] 態様11A. 1つまたは複数の手段が、回路中に実装された1つまたは複数のプロセッサを備える、態様10Aに記載のデバイス。
[0169] 態様12A. ビデオデータを記憶するためのメモリをさらに備える、態様10Aおよび11Aのいずれかに記載のデバイス。
[0170] 態様13A. 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、態様10Aから12Aのいずれかに記載のデバイス。
[0171] 態様14A. デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、態様10Aから13Aのいずれかに記載のデバイス。
[0172] 態様15A. デバイスがビデオデコーダを備える、態様10Aから14Aのいずれかに記載のデバイス。
[0173] 態様16A. デバイスがビデオエンコーダを備える、態様10Aから15Aのいずれかに記載のデバイス。
[0174] 態様17A. 実行されたとき、1つまたは複数のプロセッサに、態様1Aから9Aのいずれかに記載の方法を実施させる命令を記憶したコンピュータ可読記憶媒体。
[0175] 態様1B: ビデオデータを符号化または復号する方法が、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を含む。
[0176] 態様2B: LeakyReLU活性化関数が、
Figure 2023543762000012
として定義され、ここで、yがCNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、態様1Bに記載の方法。
[0177] 態様3B: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである、態様2Bに記載の方法。
[0178] 態様4B: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる、態様2Bに記載の方法。
[0179] 態様5B: ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定することをさらに備える、態様2Bに記載の方法。
[0180] 態様6B: Alphaの値が、ビットストリーム中でシグナリングされる、態様5Bに記載の方法。
[0181] 態様7B: あらかじめ定義されたセット内のAlphaのインデックスが、ビットストリーム中でシグナリングされ、ここにおいて、Alphaの値を決定することは、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定することを備える、態様5Bに記載の方法。
[0182] 態様8B: CNNが複数の畳み込み層を含み、方法が、畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとをさらに備える、態様2Bに記載の方法。
[0183] 態様9B. 1つまたは複数のシンタックス要素が、Alphaの値を直接指定する(directly specify)、態様8Bに記載の方法。
[0184] 態様10B. 1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、態様8Bに記載の方法。
[0185] 態様11B: CNNが複数の畳み込み層を含み、方法が、複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとをさらに備える、態様2Bに記載の方法。
[0186] 態様12B. 1つまたは複数のシンタックス要素が、Alphaの値を直接指定する、態様11Bに記載の方法。
[0187] 態様13B. 1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、態様11Bに記載の方法。
[0188] 態様14B: 方法が、ビデオデータを復号することを備え、ビデオデータを復号することが、ビデオデータのブロックを再構築することと、再構築されたブロックにCNNベースフィルタを適用することとを含む、態様1Bに記載の方法。
[0189] 態様15B: 方法が、ビデオデータを符号化することを備え、ビデオデータを符号化することが、ビデオデータのブロックを再構築することと、再構築されたブロックにCNNベースフィルタを適用することとを含む、態様1Bに記載の方法。
[0190] 態様16B: ビデオデータを符号化または復号するためのデバイスが、ビデオデータを記憶するためのメモリと、回路中に実装された1つまたは複数のプロセッサとを含み、1つまたは複数のプロセッサは、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行うように構成される。
[0191] 態様17B: LeakyReLU活性化関数が、
Figure 2023543762000013
として定義され、ここで、yがCNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、態様16Bに記載のデバイス。
[0192] 態様18B: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである、態様17Bに記載のデバイス。
[0193] 態様19B: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる、態様17Bに記載のデバイス。
[0194] 態様20B: 1つまたは複数のプロセッサが、ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定するようにさらに構成された、態様17Bに記載のデバイス。
[0195] 態様21B: Alphaの値が、ビットストリーム中でシグナリングされる、態様20Bに記載のデバイス。
[0196] 態様22B: あらかじめ定義されたセット内のAlphaのインデックスが、ビットストリーム中でシグナリングされ、ここにおいて、Alphaの値を決定することは、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定することを備える、態様20Bに記載のデバイス。
[0197] 態様23B: CNNベースフィルタが複数の畳み込み層を含み、1つまたは複数のプロセッサが、畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとを行うようにさらに構成された、態様17Bに記載のデバイス。
[0198] 態様24B: CNNが複数の畳み込み層を含み、1つまたは複数のプロセッサが、複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとを行うようにさらに構成された、態様17Bに記載のデバイス。
[0199] 態様25B: 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、態様16Bに記載のデバイス。
[0200] 態様26B: デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、態様16Bに記載のデバイス。
[0201] 態様27B: デバイスがビデオデコーダを備える、態様16Bに記載のデバイス。
[0202] 態様28B: デバイスがビデオエンコーダを備える、態様16Bに記載のデバイス。
[0203] 態様29B: ビデオデータをコーディングするためのデバイスが、ビデオデータのブロックを再構築するための手段と、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用するための手段と、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を含む。
[0204] 態様30B: 命令を記憶したコンピュータ可読記憶媒体であって、命令は、実行されたとき、1つまたは複数のプロセッサに、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行わせる、コンピュータ可読記憶媒体。
[0205] 態様1C: ビデオデータを符号化または復号する方法が、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を含む。
[0206] 態様2C: LeakyReLU活性化関数が、
Figure 2023543762000014
として定義され、ここで、yがCNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、態様1Cに記載の方法。
[0207] 態様3C: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである、態様2Cに記載の方法。
[0208] 態様4C: CNNが複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる、態様2Cに記載の方法。
[0209] 態様5C: ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定することをさらに備える、態様2Cから4Cのいずれかに記載の方法。
[0210] 態様6C: Alphaの値が、ビットストリーム中でシグナリングされる、態様5Cに記載の方法。
[0211] 態様7C: あらかじめ定義されたセット内のAlphaのインデックスが、ビットストリーム中でシグナリングされ、ここにおいて、Alphaの値を決定することは、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定することを備える、態様5Cに記載の方法。
[0212] 態様8C: CNNが複数の畳み込み層を含み、方法が、畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとをさらに備える、態様2Cから3Cまたは5Cから7Cのいずれかに記載の方法。
[0213] 態様9C. 1つまたは複数のシンタックス要素が、Alphaの値を直接指定する、態様8Cに記載の方法。
[0214] 態様10C. 1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、態様8Cに記載の方法。
[0215] 態様11C: CNNが複数の畳み込み層を含み、方法が、複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとをさらに備える、態様2Cまたは4Cから7Cのいずれかに記載の方法。
[0216] 態様12C. 1つまたは複数のシンタックス要素が、Alphaの値を直接指定する、態様11Cに記載の方法。
[0217] 態様13C. 1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、態様11Cに記載の方法。
[0218] 態様14C: 方法が、ビデオデータを復号することを備え、ビデオデータを復号することが、ビデオデータのブロックを再構築することと、再構築されたブロックにCNNベースフィルタを適用することとを含む、態様1Cから13Cのいずれかに記載の方法。
[0219] 態様15C: 方法が、ビデオデータを符号化することを備え、ビデオデータを符号化することが、ビデオデータのブロックを再構築することと、再構築されたブロックにCNNベースフィルタを適用することとを含む、態様1Bから14Cのいずれかに記載の方法。
[0220] 態様16C: ビデオデータを符号化または復号するためのデバイスが、ビデオデータを記憶するためのメモリと、回路中に実装された1つまたは複数のプロセッサとを含み、1つまたは複数のプロセッサは、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行うように構成される。
[0221] 態様17C: LeakyReLU活性化関数が、
Figure 2023543762000015
として定義され、ここで、yがCNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、態様16Cに記載のデバイス。
[0222] 態様18C: CNNベースフィルタが複数の畳み込み層を含み、Alphaの値が、畳み込み層の各々について同じである、態様17Cに記載のデバイス。
[0223] 態様19C: CNNベースフィルタが複数の畳み込み層を含み、Alphaの値が、畳み込み層のうちの2つまたはそれ以上について異なる、態様17Cに記載のデバイス。
[0224] 態様20C: 1つまたは複数のプロセッサが、ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定するようにさらに構成された、態様17Cから19Cに記載のデバイス。
[0225] 態様21C: Alphaの値が、ビットストリーム中でシグナリングされる、態様20Cに記載のデバイス。
[0226] 態様22C: あらかじめ定義されたセット内のAlphaのインデックスが、ビットストリーム中でシグナリングされ、ここにおいて、Alphaの値を決定することは、Alphaのインデックスが対応する、あらかじめ定義されたセット中のAlphaの値を決定することを備える、態様20Cに記載のデバイス。
[0227] 態様23C: CNNベースフィルタが複数の畳み込み層を含み、1つまたは複数のプロセッサが、畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとを行うようにさらに構成された、態様17Cから18Cまたは20Cから22Cのいずれかに記載のデバイス。
[0228] 態様24C: CNNが複数の畳み込み層を含み、1つまたは複数のプロセッサが、複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用されるLeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数シンタックス要素を符号化することとを行うようにさらに構成された、態様17Cまたは18Cから22Cのいずれかに記載のデバイス。
[0229] 態様25C: 復号されたビデオデータを表示するように構成されたディスプレイ(display)をさらに備える、態様16Cから24Cのいずれかに記載のデバイス。
[0230] 態様26C: デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、態様16Cから25Cのいずれかに記載のデバイス。
[0231] 態様27C: デバイスがビデオデコーダを備える、態様16Cから26Cのいずれかに記載のデバイス。
[0232] 態様28C: デバイスがビデオエンコーダを備える、態様16Cから27Cのいずれかに記載のデバイス。
[0233] 態様29C: ビデオデータをコーディングするためのデバイスが、ビデオデータのブロックを再構築するための手段と、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用するための手段と、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を含む。
[0234] 態様29C’: 請求項1Cから11Cのいずれかに記載の方法を実施するための手段を備える、態様29Cに記載のデバイス。
[0235] 態様30C: 命令を記憶したコンピュータ可読記憶媒体であって、命令は、実行されたとき、1つまたは複数のプロセッサに、ビデオデータのブロックを再構築することと、再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、CNNベースフィルタが、LeakyReLU活性化関数を使用する、を行わせる、コンピュータ可読記憶媒体。
[0236] 態様30C’: 請求項1Cから15Cのいずれかに記載の方法を実施するための手段を備える、態様26Cに記載のコンピュータ可読記憶媒体。
[0237] 上記例に応じて、本明細書で説明された技法のいずれかのいくつかの行為またはイベントは、異なるシーケンスで実施され得、追加、マージ、または完全に除外され得る(たとえば、すべての説明された行為またはイベントが本技法の実践のために必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して同時に実施され得る。
[0238] 1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベース処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実装のための命令、コードおよび/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0239] 限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは、命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的媒体を含むのではなく、代わりに非一時的な有形の記憶媒体を対象とすることを理解されたい。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu-rayディスク(disc)を含み、ここで、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲に含まれるべきである。
[0240] 命令は、1つまたは複数のDSP、汎用マイクロプロセッサ、ASIC、FPGA、あるいは他の等価な集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」および「処理回路」という用語は、上記の構造、または本明細書で説明された技法の実装に好適な任意の他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内に提供されるか、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素において十分に実装され得る。
[0241] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示される技法を実施するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットが説明されたが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明されたように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明された1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作可能なハードウェアユニットの集合によって提供され得る。
[0242] 様々な例が説明された。これらおよび他の例は以下の特許請求の範囲内に入る。

Claims (30)

  1. ビデオデータを符号化または復号する方法であって、前記方法は、
    前記ビデオデータのブロックを再構築することと、
    前記再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、前記CNNベースフィルタが、LeakyReLU活性化関数を使用する、
    を備える、方法。
  2. 前記LeakyReLU活性化関数が、
    Figure 2023543762000016
    として定義され、ここで、yが前記CNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、請求項1に記載の方法。
  3. 前記CNNが複数の畳み込み層を含み、Alphaの値が、前記畳み込み層の各々について同じである、請求項2に記載の方法。
  4. CNNフィルタが複数の畳み込み層を含み、Alphaの値が、前記畳み込み層のうちの2つまたはそれ以上について異なる、請求項2に記載の方法。
  5. 前記ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定することをさらに備える、請求項2に記載の方法。
  6. Alphaの前記値が、前記ビットストリーム中でシグナリングされる、請求項5に記載の方法。
  7. あらかじめ定義されたセット内のAlphaのインデックスが、前記ビットストリーム中でシグナリングされ、
    ここにおいて、Alphaの前記値を決定することは、Alphaの前記インデックスが対応する、前記あらかじめ定義されたセット中のAlphaの前記値を決定することを備える、
    請求項5に記載の方法。
  8. 前記CNNが複数の畳み込み層を含み、前記方法が、
    前記畳み込み層の出力値に適用される前記LeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、
    前記ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの前記値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数のシンタックス要素を符号化することと
    をさらに備える、請求項2に記載の方法。
  9. 前記1つまたは複数のシンタックス要素が、Alphaの前記値を直接指定する、請求項8に記載の方法。
  10. 前記1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、請求項8に記載の方法。
  11. 前記CNNが複数の畳み込み層を含み、前記方法が、
    前記複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用される前記LeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、
    前記ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの前記値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数のシンタックス要素を符号化することと
    をさらに備える、請求項2に記載の方法。
  12. 前記1つまたは複数のシンタックス要素が、Alphaの前記値を直接指定する、請求項11に記載の方法。
  13. 前記1つまたは複数のシンタックス要素が、あらかじめ定義されたセット内のAlphaのインデックスを指定する、請求項11に記載の方法。
  14. 前記方法が、前記ビデオデータを復号することを備え、前記ビデオデータを復号することが、前記ビデオデータの前記ブロックを再構築することと、前記再構築されたブロックに前記CNNベースフィルタを適用することとを含む、請求項1に記載の方法。
  15. 前記方法が、前記ビデオデータを符号化することを備え、前記ビデオデータを符号化することが、前記ビデオデータの前記ブロックを再構築することと、前記再構築されたブロックに前記CNNベースフィルタを適用することとを含む、請求項1に記載の方法。
  16. ビデオデータを符号化または復号するためのデバイスであって、前記デバイスが、
    前記ビデオデータを記憶するためのメモリと、
    回路中に実装された1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサは、
    前記ビデオデータのブロックを再構築することと、
    前記再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、前記CNNベースフィルタが、LeakyReLU活性化関数を使用する、
    を行うように構成された、デバイス。
  17. 前記LeakyReLU活性化関数が、
    Figure 2023543762000017
    として定義され、ここで、yが前記CNNベースフィルタのCNNの畳み込み層の出力値であり、Alphaが固定パラメータである、請求項16に記載のデバイス。
  18. 前記CNNが複数の畳み込み層を含み、Alphaの値が、前記畳み込み層の各々について同じである、請求項17に記載のデバイス。
  19. 前記CNNが複数の畳み込み層を含み、Alphaの値が、前記畳み込み層のうちの2つまたはそれ以上について異なる、請求項17に記載のデバイス。
  20. 前記1つまたは複数のプロセッサが、前記ビデオデータの符号化された表現を備えるビットストリーム中でシグナリングされる1つまたは複数のシンタックス要素に基づいて、Alphaの値を決定するようにさらに構成された、請求項17に記載のデバイス。
  21. Alphaの前記値が、前記ビットストリーム中でシグナリングされる、請求項20に記載のデバイス。
  22. あらかじめ定義されたセット内のAlphaのインデックスが、前記ビットストリーム中でシグナリングされ、
    ここにおいて、Alphaの前記値を決定することは、Alphaの前記インデックスが対応する、前記あらかじめ定義されたセット中のAlphaの前記値を決定することを備える、
    請求項20に記載のデバイス。
  23. 前記CNNが複数の畳み込み層を含み、前記1つまたは複数のプロセッサが、
    前記畳み込み層の出力値に適用される前記LeakyReLU活性化関数において使用するためのAlphaの単一の値を決定することと、
    前記ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの前記値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数のシンタックス要素を符号化することと
    を行うようにさらに構成された、請求項17に記載のデバイス。
  24. 前記CNNが複数の畳み込み層を含み、前記1つまたは複数のプロセッサが、
    前記複数の畳み込み層のうちの2つまたはそれ以上の異なる畳み込み層の出力値に適用される前記LeakyReLU活性化関数において使用するためのAlphaの複数の値を決定することと、
    前記ビデオデータの符号化された表現を備えるビットストリーム中で、Alphaの前記値を導出するためにビデオデコーダによって必要とされる情報を提供する1つまたは複数のシンタックス要素を符号化することと
    を行うようにさらに構成された、請求項17に記載のデバイス。
  25. 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、請求項16に記載のデバイス。
  26. 前記デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、請求項16に記載のデバイス。
  27. 前記デバイスがビデオデコーダを備える、請求項16に記載のデバイス。
  28. 前記デバイスがビデオエンコーダを備える、請求項16に記載のデバイス。
  29. ビデオデータを符号化または復号するためのデバイスであって、前記デバイスは、
    前記ビデオデータのブロックを再構築するための手段と、
    前記再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用するための手段と、ここにおいて、前記CNNベースフィルタが、LeakyReLU活性化関数を使用する、
    を備える、デバイス。
  30. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されたとき、1つまたは複数のプロセッサに、
    ビデオデータのブロックを再構築することと、
    前記再構築されたブロックに畳み込みニューラルネットワーク(CNN)ベースフィルタを適用することと、ここにおいて、前記CNNベースフィルタが、LeakyReLU活性化関数を使用する、
    を行わせる、コンピュータ可読記憶媒体。
JP2023518813A 2020-09-30 2021-09-30 ビデオコーディングのためのニューラルネットワークベースフィルタ処理プロセスにおける活性化関数設計 Pending JP2023543762A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063085936P 2020-09-30 2020-09-30
US63/085,936 2020-09-30
US17/489,459 US11647212B2 (en) 2020-09-30 2021-09-29 Activation function design in neural network-based filtering process for video coding
US17/489,459 2021-09-29
PCT/US2021/052950 WO2022072684A1 (en) 2020-09-30 2021-09-30 Activation function design in neural network-based filtering process for video coding

Publications (1)

Publication Number Publication Date
JP2023543762A true JP2023543762A (ja) 2023-10-18

Family

ID=80821961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023518813A Pending JP2023543762A (ja) 2020-09-30 2021-09-30 ビデオコーディングのためのニューラルネットワークベースフィルタ処理プロセスにおける活性化関数設計

Country Status (6)

Country Link
US (2) US11647212B2 (ja)
EP (1) EP4222954A1 (ja)
JP (1) JP2023543762A (ja)
KR (1) KR20230078658A (ja)
CN (1) CN116325729A (ja)
WO (1) WO2022072684A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11647212B2 (en) 2020-09-30 2023-05-09 Qualcomm Incorporated Activation function design in neural network-based filtering process for video coding
US20220321919A1 (en) * 2021-03-23 2022-10-06 Sharp Kabushiki Kaisha Systems and methods for signaling neural network-based in-loop filter parameter information in video coding
CN116805971A (zh) * 2023-04-11 2023-09-26 腾讯科技(深圳)有限公司 图像编解码方法、装置、设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113800B2 (en) * 2017-01-18 2021-09-07 Nvidia Corporation Filtering image data using a neural network
EP3451293A1 (en) 2017-08-28 2019-03-06 Thomson Licensing Method and apparatus for filtering with multi-branch deep learning
US11025907B2 (en) * 2019-02-28 2021-06-01 Google Llc Receptive-field-conforming convolution models for video coding
US10999606B2 (en) * 2019-01-08 2021-05-04 Intel Corporation Method and system of neural network loop filtering for video coding
US20200226451A1 (en) 2019-01-11 2020-07-16 Samsung Electronics Co., Ltd. Method and apparatus with neural network layer contraction
JP7392227B2 (ja) * 2019-01-15 2023-12-06 ポートランド ステイト ユニヴァーシティ 映像フレーム補間のための特徴ピラミッドワーピング
EP3706046A1 (en) 2019-03-04 2020-09-09 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
GB2618716B (en) 2019-03-20 2024-03-13 V Nova Int Ltd Low complexity enhancement video coding
KR20200114436A (ko) 2019-03-28 2020-10-07 국방과학연구소 스케일러블 영상 부호화를 수행하는 장치 및 방법
US10909728B1 (en) * 2019-05-01 2021-02-02 Amazon Technologies, Inc. Learned lossy image compression codec
US11216917B2 (en) 2019-05-03 2022-01-04 Amazon Technologies, Inc. Video enhancement using a neural network
US10944996B2 (en) 2019-08-19 2021-03-09 Intel Corporation Visual quality optimized video compression
US11647212B2 (en) 2020-09-30 2023-05-09 Qualcomm Incorporated Activation function design in neural network-based filtering process for video coding

Also Published As

Publication number Publication date
KR20230078658A (ko) 2023-06-02
US20220103845A1 (en) 2022-03-31
CN116325729A (zh) 2023-06-23
EP4222954A1 (en) 2023-08-09
US11778213B2 (en) 2023-10-03
US20230012661A1 (en) 2023-01-19
WO2022072684A1 (en) 2022-04-07
US11647212B2 (en) 2023-05-09

Similar Documents

Publication Publication Date Title
US11539982B2 (en) Merge estimation region for multi-type-tree block structure
CN113940069A (zh) 用于视频译码中的低频不可分离变换的变换和最后有效系数位置信令
US11930215B2 (en) Multiple neural network models for filtering during video coding
US11743459B2 (en) Filtering process for video coding
US11825101B2 (en) Joint-component neural network based filtering during video coding
US11778213B2 (en) Activation function design in neural network-based filtering process for video coding
US20200288130A1 (en) Simplification of sub-block transforms in video coding
KR20230038709A (ko) 다중 적응형 루프 필터 세트들
US20220215593A1 (en) Multiple neural network models for filtering during video coding
US11729381B2 (en) Deblocking filter parameter signaling
US11706425B2 (en) Multiple transform set signaling for video coding
US20240015284A1 (en) Reduced complexity multi-mode neural network filtering of video data
US20200112728A1 (en) Wide-angle intra prediction for video coding
US20210314567A1 (en) Block partitioning for image and video coding
US11924410B2 (en) Video coding using overlapped block motion compensation, combined inter-intra prediction, and/or luma mapping and chroma scaling
US20240015312A1 (en) Neural network based filtering process for multiple color components in video coding
US20220103842A1 (en) Fixed bit depth processing for cross-component linear model (cclm) mode in video coding
US20220400257A1 (en) Motion vector candidate construction for geometric partitioning mode in video coding
US20220400292A1 (en) Joint clipping operating for filters for video coding
US20210176468A1 (en) Residual coding selection and low-level signaling based on quantization parameter
JP2024501465A (ja) 固定されたフィルタを用いる適応ループフィルタ
TW202408239A (zh) 用於視訊譯碼的訊框內預測融合
KR20230075443A (ko) 상이한 비트 심도에서 비디오 데이터의 코딩을 위한 적응적 루프 필터링의 동작 비트 심도의 제한