JP2023507502A - ニューラルネットワークのパラメータを符号化するための概念 - Google Patents

ニューラルネットワークのパラメータを符号化するための概念 Download PDF

Info

Publication number
JP2023507502A
JP2023507502A JP2022538077A JP2022538077A JP2023507502A JP 2023507502 A JP2023507502 A JP 2023507502A JP 2022538077 A JP2022538077 A JP 2022538077A JP 2022538077 A JP2022538077 A JP 2022538077A JP 2023507502 A JP2023507502 A JP 2023507502A
Authority
JP
Japan
Prior art keywords
neural network
network parameter
reconstruction
quantization
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022538077A
Other languages
English (en)
Inventor
ポール ハーセ
ハイナー キルヒホッファー
ハイコ シュヴァルツ
デトレフ マルペ
トーマス ウィーガント
Original Assignee
フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2023507502A publication Critical patent/JP2023507502A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2483Traffic characterised by specific attributes, e.g. priority or QoS involving identification of individual flows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0495Quantised networks; Sparse networks; Compressed networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Executing Machine-Instructions (AREA)

Abstract

本発明の第1の側面による実施形態は、非定数量子化器を使用するが、ニューラルネットワークパラメータの符号化中にニューラルネットワークパラメータを変化させることによって、すなわち、以前の又はそれぞれ以前に符号化されたニューラルネットワークパラメータのデータストリームから復号化された、又はそれぞれデータストリームに符号化された量子化インデックスに応じて再構成レベルセットを選択することによって、ニューラルネットワークパラメータをより効率的に圧縮することができるというアイデアに基づいている。本発明の第2の態様による実施形態は、段階的に-ニューラル層におけるニューラルネットワークの層構成と区別するために再構成層と呼ばれる-行われ、これらの段階で提供されたパラメータ化が次に、ニューラルネットワークパラメータ単位で組み合わされ、段階のいずれかと比較して改善されたニューラルネットワークパラメータ化をもたらす場合、より効率の良いニューラルネットワーク符号化が達成され得るという考え方に基づく。【選択図】図1

Description

本発明による実施形態は、ニューラルネットワークパラメータの符号化概念に関連する。
ニューラルネットワークの最も基本的な形態は、アフィン変換の連鎖と、それに続く要素ごとの非線形関数である。図1に示すように、有向非巡回グラフ(directed acyclic graph)として表現することができる。図1は、ニューラルネットワークの一例を示す模式図であり、ここでは例示的に2層フィードフォワードニューラルネットワークである。すなわち、図1は、フィードフォワードニューラルネットワークをグラフで表現したものである。具体的には、この2層構造のニューラルネットワークは、4次元の入力ベクトルを実線にマッピングする非線型関数である。このニューラルネットワークは、ニューラルネットワークの入力となるInput層における4次元の入力ベクトルに応じた4つのニューロン10cと、Hidden層における5つのニューロン10cと、ニューラルネットワークの出力を形成するOutput層における1つのニューロン10cとを含む。ニューラルネットワークは、異なる-又は後続の-層のニューロンを接続する、ニューロン相互接続11をさらに含む。ニューロン相互接続11は、重みを関連付けてもよく、重みは、互いに接続されたニューロン10cの間の関係に関連付けられる。特に、重みは、後続の層に転送されるとき、ある層のニューロンの活性化を重み付けし、順次、その後続の層の各ニューロンでインバウンドの重み付き活性化の合計が形成され-線形関数に対応する-続いて、後続の層の各ニューロン/ノードで形成される重み付け合計に非線形スカラー関数が適用され-非線形関数に対応する。したがって、各ノード、例えばニューロン10cは、特定の値を伴い、この値は、エッジ、例えばニューロン相互接続11のそれぞれの重み値との乗算によって次のノードに順方向に伝播される。その後、すべての受信値は単純に集計される。
Figure 2023507502000002
通常、ニューラルネットワークは数百万個のパラメータを持ち、その表現には数百MB(例:メガバイト)が必要とされることがある。結果として、それらの推論手順には大きな行列間の多数のドット積演算の計算が含まれるため、実行には高い計算資源が必要となる。そのため、ドット積演算の複雑さを軽減することは非常に重要である。
また、上記の問題点に加えて、ニューラルネットワークの膨大なパラメータを保存する必要があり、例えばサーバからクライアントへ送信する必要がある場合もある。さらに、例えば連合学習環境(federated learning environment)において、または特定の受信者が支払った、または推論にニューラルネットワークを使用するときに対処することができる品質の異なる段階でニューラルネットワークのパラメータ化を提供する場合に、ニューラルネットワークのパラメータ化に関する情報を徐々にエンティティに提供することができることが有利である場合もある。
したがって、例えば圧縮の観点からより効率的な、ニューラルネットワークパラメータの効率的な符号化のための概念を提供することが望まれている。さらに、または代替的に、ニューラルネットワークパラメータのためのビットストリーム、ひいては信号化コストを低減することが望まれる。
この目的は、本願の独立請求項の主題によって達成される。
本発明によるさらなる実施形態は、本願の従属請求項の主題によって定義される。
本発明の第1の側面による実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームから復号化する装置であって、現在のニューラルネットワークパラメータについて、以前のニューラルネットワークパラメータについてデータストリームから復号化された量子化インデックスに応じて複数の再構成レベルセットから再構成レベルセットを選択することによって、ニューラルネットワークパラメータを順次復号化するように構成されている、装置である。さらに、装置は、データストリームから現在のニューラルネットワークパラメータについての量子化インデックスを復号化することによって、ここで量子化インデックスは、現在のニューラルネットワークパラメータについての選択された再構成レベルセットのうちの1つの再構成レベルを示し、及び、現在のニューラルネットワークパラメータについての量子化インデックスによって示される、選択された再構成レベルセットのうちの1つの再構成レベル上に現在のニューラルネットワークパラメータを逆量子化することによって、ニューラルネットワークパラメータを順次復号化するように構成される。
本発明の第1の側面によるさらなる実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化する装置であって、現在のニューラルネットワークパラメータについて、以前に符号化されたニューラルネットワークパラメータについてデータストリームに符号化された量子化インデックスに応じて複数の再構成レベルセットの中から再構成レベルセットを選択することによって、ニューラルネットワークパラメータを順次符号化するように構成されている、装置である。さらに、装置は、選択された再構成レベルセットのうちの1つの再構成レベルに現在のニューラルネットワークパラメータを量子化することによって、及び、現在のニューラルネットワークパラメータについての量子化インデックスが量子化される1つの再構成レベルを示す現在のニューラルネットワークパラメータについての量子化インデックスをデータストリームに符号化することにより、ニューラルネットワークパラメータを順次符号化するよう構成される。
本発明の第1の側面による更なる実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームから復号化するための方法を備える。この方法は、現在のニューラルネットワークパラメータについて、以前のニューラルネットワークパラメータについてのデータストリームから復号化された量子化インデックスに応じて複数の再構成レベルセットの中から再構成レベルセットを選択することによって、ニューラルネットワークパラメータを順次復号化するステップを備える。さらに、この方法は、データストリームから現在のニューラルネットワークパラメータについての量子化インデックスを復号化することによって、ここで、量子化インデックスが、現在のニューラルネットワークパラメータについての選択された再構成レベルセットのうちの1つの再構成レベルを示し、及び、現在のニューラルネットワークパネルについての量子化インデックスが示す選択された再構成レベルセットのうちの1つの再構成レベル上に現在のニューラルネットワークパラメータを逆量子化することによって、ニューラルネットワークパラメータを順次符号化するステップを含む。
本発明の第1の側面による更なる実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための方法を備える。この方法は、現在のニューラルネットワークパラメータについて、以前に符号化されたニューラルネットワークパラメータについてデータストリームに符号化された量子化インデックスに応じて複数の再構成レベルセットの中から再構成レベルセットを選択することにより、ニューラルネットワークパラメータを順次符号化することを備える。さらに、この方法は、現在のニューラルネットワークパラメータを選択された再構成レベルのうちの1つの再構成レベルに量子化することによって、及び、現在のニューラルネットワークパラメータについての量子化インデックスが量子化される1つの再構成レベルを示す現在のニューラルネットワークパラメータについての量子化インデックスをデータストリームに符号化することによって、ニューラルネットワークパラメータを順次符号化するステップを含む。
本発明の第1の態様による実施形態は、非定数量子化器を使用するが、ニューラルネットワークパラメータの符号化したものの中に同じものを変化させることによって、すなわち、以前のまたはそれぞれ以前に符号化されたニューラルネットワークパラメータのデータストリームから復号された、またはそれぞれ符号化された量子化インデックスに応じて再構成レベルのセットを選択することによって、ニューラルネットワークパラメータをより効率的に圧縮し得るという考え方に基づくものである。したがって、ニューラルネットワークパラメータの順序付けられたセットを参照することができる再構成ベクトルは、N次元信号空間においてより密に詰め込むことができ、ここで、Nは、処理されるサンプルのセットにおけるニューラルネットワークパラメータの数を示す。このような依存量子化(dependent quantization)は、復号化するための装置による復号化及び逆量子化、又は符号化するための装置による量子化及び符号化にそれぞれ使用されることができる。
本発明の第2の態様による実施形態は、段階、-ニューラル層におけるニューラルネットワークの層構成と区別するために再構成層と呼ばれる-において行われ時に、これらの段階で提供されるパラメータ化を次に、ニューラルネットワークパラメータ単位で組み合わせて、段階のいずれかと比較して改善されたニューラルネットワークのパラメータ化をもたらす場合、より効率のよいニューラルネットワーク符号化が達成できるかもしれないという考え方に基づく。したがって、ニューラルネットワークを定義するニューラルネットワークパラメータを再構成するための装置は、第1のニューラルネットワークパラメータ、例えば、第1の再構成層について第1の再構成層のニューラルネットワークパラメータを導出して、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値を得ることができる。第1のニューラルネットワークパラメータは、例えば、連合学習プロセス中に以前に送信されている可能性がある。さらに、第1のニューラルネットワークパラメータは、第1の再構成層のニューラルネットワークパラメータ値であってもよい。さらに、装置は、第2のニューラルネットワークパラメータ、例えば第2の再構成層のニューラルネットワークパラメータを、例えば最終ニューラルネットワークパラメータと区別するために、第2の再構成層についてデータストリームから復号化し、ニューラルネットワークパラメータごとに、第2の再構成層ニューラルネットワークパラメータ値をもたらすように構成されている。第2のニューラルネットワークパラメータは、ニューラルネットワーク表現の観点から自己完結した意味を持たず、単に、第1の表現層のパラメータと組み合わせたときに、ニューラルネットワーク表現、すなわち、例えば、最終ニューラルネットワークパラメータをもたらすだけかもしれない。さらに、本装置は、各ニューラルネットワークパラメータについて、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることにより、ニューラルネットワークパラメータを再構成するように構成される。
本発明の第2の側面によるさらなる実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータを、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1の再構成層についての第1のニューラルネットワークパラメータを用いて符号化するための装置を備える。さらに、この装置は、第2の再構成層についての第2のニューラルネットワークパラメータをデータストリームに符号化するように構成され、第2の再構成層は、ニューラルネットワークパラメータごとに第2の再構成層のニューラルネットワークパラメータ値を含み、ニューラルネットワークパラメータは、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値を組み合わせることによって再構成可能である。
本発明の第2の態様によるさらなる実施形態は、ニューラルネットワークを定義するニューラルネットワークパラメータを再構成するための方法を備える。この方法は、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値をもたらすために、第1の再構成層について、例えば連合学習プロセス中に以前に送信された可能性があり、例えば第1の再構成層のニューラルネットワークパラメータと呼ばれる可能性がある第1のニューラルネットワークパラメータを導出するステップを含む。
さらに、本方法は、この方法は、例えば最終的な、例えば再構成されたニューラルネットワークパラメータと区別するために第2の再構成層のニューラルネットワークパラメータと呼ばれ得る第2のニューラルネットワークパラメータを、データストリームから第2再構成層について復号化して、ニューラルネットワークパラメータごとに、第2の再構成層のニューラルネットワークパラメータ値を生成するステップを含む。本方法は、各ニューラルネットワークパラメータについて、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって、ニューラルネットワークパラメータを再構成するステップを含む。第2のニューラルネットワークパラメータは、ニューラル表現に関して自己完結した意味を持たず、単に、第1の表現層のパラメータと組み合わせたときに、ニューラル表現、すなわち、例えば最終ニューラルネットワークパラメータを導くかもしれない。
本発明の第2の側面によるさらなる実施形態は、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1の再構成層についての第1のニューラルネットワークパラメータを用いて、ニューラルネットワークを定義するニューラルネットワークパラメータを符号化する方法を含む。この方法は、第2の再構成層についての第2のニューラルネットワークパラメータをデータストリームに符号化するステップを含み、第2の再構成層は、ニューラルネットワークパラメータごとに、第2の再構成層ニューラルネットワークパラメータ値を含み、ニューラルネットワークパラメータは、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である。
本発明の第2の態様による実施形態は、例えばニューラルネットワークパラメータによって定義されるニューラルネットワークが、再構成層、例えばベース層およびエンハンスメント層などのサブ層を用いて、例えばビットストリーム内のデータ量が少ない状態で、効率的に圧縮および/または送信され得るという考えに基づいている。再構成層は、ニューラルネットワークパラメータが、各ニューラルネットワークパラメータについて、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能であるように、定義されることができる。この分布は、ニューラルネットワークパラメータの効率的な符号化、例えば、符号化および/または復号化、および/または送信を可能にする。したがって、第2の再構成層についての第2のニューラルネットワークパラメータは、データストリームに別々に符号化および/または送信されることができる。
図面は必ずしも縮尺通りではなく、代わりに一般的に本発明の原理を説明することに重点が置かれている。以下の説明では、本発明の様々な実施形態が、以下の図面を参照して説明され、その中で、本発明の実施形態が説明される。
図1は、本発明の実施形態と共に使用され得る2層フィードフォワードニューラルネットワークの例示の概略図である。 図2は、実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームから復号化するための装置内で実行される逆量子化のための概念を示す概略図である。 図3は、実施形態による、ニューラルネットワークパラメータをデータストリームに符号化するための装置内で実行される量子化のための概念を示す概略図である。 図4は、実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータを再構成するための装置内で実行される復号化のための概念を示す概略図である。 図5は、実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータを再構成するための装置内で実行される符号化のための概念を示す概略図である。 図6は、本発明による実施形態で使用するための、ニューラルネットワークパラメータについての再構成層を使用する概念の概略図である。 図7は、本発明の実施形態による均一再構成量子化器のイラストを示す概略図である。 図8は、本発明の実施形態による2つの重みパラメータの単純なケースについて、許容される再構成ベクトルの位置の例を示す図である。 図9aは、本発明の実施形態による単一の量子化ステップサイズΔによって完全に決定される再構成レベルの2つのセットを有する依存量子化のための例を示す図である。 図9bは、本発明の実施形態による単一の量子化ステップサイズΔによって完全に決定される再構成レベルの2つのセットを有する依存量子化のための例を示す図である。 図9cは、本発明の実施形態による単一の量子化ステップサイズΔによって完全に決定される再構成レベルの2つのセットを有する依存量子化のための例を示す図である。 図10は、本発明の実施形態による、ニューラルネットワークパラメータの再構成プロセスについての好ましい例を示す疑似コードのための例を示す図である。 図11は、本発明の実施形態による再構成レベルセットを2つのサブセットに分割するための一例を示す図である。 図12は、実施形態による層についてのニューラルネットワークパラメータの再構成プロセスについての好ましい例を示す擬似コードの例である。 図13は、本発明の実施形態による状態遷移表sttab及び表setIdの好ましい例を示す図であり、これは、状態に関連する量子化セットを指定する。 図14は、本発明の実施形態による状態遷移表sttabび表setIdの好ましい例を示す図であり、これは、状態に関連する量子化セットを指定する。 図15は、本発明の実施形態による、0に等しい量子化インデックスが状態遷移および依存スカラー量子化から除外される、ニューラルネットワークパラメータレベルの代替再構成プロセスを示す擬似コードである。 図16は、本発明の実施形態による、トレリス構造としての依存スカラー量子化における状態遷移の例を示す図である。 図17は、本発明の実施形態による基本トレリスセルの一例を示す図である。 図18は、本発明の実施形態による8つのニューラルネットワークパラメータの依存スカラー量子化のためのトレリス例を示す図である。 図19は、本発明の実施形態による、コスト量(ラグランジュコスト量D+λ・Rなど、Lagrangian cost measure)を最小化する量子化インデックスのシーケンス(またはブロック)を決定するために利用することができるトレリス構造例を示す図である。 図20は、本発明の実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームから復号化する方法のブロック図である。 図21は、本発明の実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための方法のブロック図である。 図22は、本発明の実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータを再構成する方法のブロック図である。 図23は、本発明の実施形態による、ニューラルネットワークを定義する、ニューラルネットワークパラメータを符号化するための方法のブロック図である。
等しいまたは同等の機能を有する要素または要素は、異なる図で表されていても、以下の説明では、等しいまたは同等の参照数字で示される。
以下の説明では、本発明の実施形態のより詳細な説明を提供するために、複数の詳細が記載されている。しかし、本発明の実施形態は、これらの特定の詳細なしに実施され得ることは、当業者には明らかであろう。他の例では、本発明の実施形態を不明瞭にしないために、周知の構造およびデバイスを詳細ではなくブロック図の形態で示す。加えて、本明細書で後述する異なる実施形態の特徴は、特に断らない限り、互いに組み合わせることができる。
本説明は、本願のいくつかの実施形態の提示から始まる。この説明は、かなり一般的なものであるが、本願の実施形態が基づいている機能性の概要を読者に提供するものである。その後、これらの機能性のより詳細な説明が、実施形態の動機と、それらがどのように上述の効率向上を達成するかと共に提示される。詳細は、現在説明されている実施形態と、個別に、および組み合わせて、組み合わせることが可能である。
図2は、実施形態によるデータストリームからニューラルネットワークを定義するニューラルネットワークパラメータを復号化するための装置内で実行される逆量子化についての概念を示す概略図である。ニューラルネットワークは、例えば、相互接続された層のニューロン間のニューロン相互接続を有する、複数の相互接続されたニューラルネットワーク層を含むことができる。図2は、データストリーム14における、例えば符号化されたニューラルネットワークパラメータ13の量子化インデックス56を示す。ニューラルネットワークパラメータ13は、したがって、そのニューロン間の重みの観点など、ニューラルネットワークを定義またはパラメータ化することができる。
本装置は、ニューラルネットワークパラメータ13を順次復号化するように構成されている。この順次プロセスの間、量子化器(再構成レベルセット)が変化させられる。この変化は、より少ない(またはより良いより密でない)レベルを有する量子化器を使用することを可能にし、したがって、より小さい量子化インデックスを符号化することを可能にし、この量子化から得られるニューラルネットワーク表現の品質が、必要な符号化ビットレートと比較して、一定の量子化器を使用するより向上される。詳細は後述する。特に、装置は、現在のニューラルネットワークパラメータ13’について、以前のニューラルネットワークパラメータについてデータストリーム14から復号化された量子化インデックス58に応じて複数(50)の再構成レベルセット52(セット0、セット1)のうち再構成レベルセット48(選択されたセット)を選択54(再構成レベル選択)することによって、ニューラルネットワークパラメータ13を順次復号する。
さらに、本装置は、データストリーム14から現在のニューラルネットワークパラメータ13’についての量子化インデックス56を復号化することによって、ここで、量子化インデックス56が現在のニューラルネットワークパラメータについての再構成レベルの選択されたセット48のうちの1つの再構成レベルを示し、及び、現在のニューラルネットワークパラメータ13’を現在のニューラルネットワークパネルについての量子化インデックス56によって示される再構成レベルの選択されたセット48の1つの再構成レベルに逆量子化62することによって、ニューラルネットワークパネル13を連続的に復号化するよう構成される。
復号化されたニューラルネットワークパラメータ13は、一例として、行列15aで表される。行列は、デシリアライズされた20b(deserialization)ニューラルネットワークパラメータ13を含んでもよく、これは、ニューラルネットワークのニューロン相互接続の重みに関連してもよい。
任意選択的に、複数(50)の再構成レベルセット52の、本明細書で時々量子化器とも呼ばれる再構成レベルセット52の数は、図2に示すように、例えばセット0とセット1の2つであってよい。
さらに、装置は、例えば△または△kで示される所定の量子化ステップサイズ(QP)によって複数(50)の再構成レベルセット52(例えば、セット0、セット1)をパラメータ化60(parametrization)し、データストリーム14から所定の量子化ステップサイズの情報を導出するように構成されることができる。したがって、実施形態による復号化器は、可変ステップサイズ(QP)に適応することができる。
さらに、実施形態によれば、ニューラルネットワークは1つ以上のNN層を含むことができ、装置は、各NN層について、データストリーム14からそれぞれのNN層についての所定の量子化ステップサイズ(QP)の情報を導出し、それぞれのNN層に属するニューラルネットワークパラメータを逆量子化するために用いられるように、各NN層について、それぞれのNN層について導出された所定の量子化ステップサイズを用いて複数50の再構成レベルセット52をパラメータ化するよう構成され得る。NN層に関するステップサイズの適応、したがって再構成レベルセット52の適応は、符号化効率を向上させ得る。
さらなる実施形態によれば、装置は、現在のニューラルネットワークパラメータ13’について、複数50の再構成レベルセット52のうち再構成レベルセット48を、以前に復号化されたニューラルネットワークパラメータについてのデータストリーム14から復号化された量子化インデックス58を2値化したもののLSB(例えば、最下位ビット)部分または以前に復号化されたビン(例えば、2値決定)に応じて選択54するよう構成されるとよい。LSB比較は、低い計算コストで実行されることができる。特に、状態遷移が用いられることができる。選択54は、複数50の再構成レベルセット52のうちの量子化レベルセット48のうちの現在のニューラルネットワークパラメータ13’について、現在のニューラルネットワークパラメータ13’に関連する状態に応じて複数50の再構成レベルセット52のうちの再構成レベルセット48を現在のニューラルネットワークパラメータ13’について決定することによって、かつ、直前のニューラルネットワークパラメータについてのデータストリームから復号化された量子化インデックス58に応じて後続のニューラルネットワークパラメータについての状態を更新することによって、状態推移プロセスにより実行されることができる。また、例えば遷移表を使用することによる状態遷移以外の代替的なアプローチも同様に使用することができ、以下に規定される。
加えて、または代替的に、装置は、例えば、現在のニューラルネットワークパラメータ13’について、複数50の再構成レベルセット52のうち再構成レベルセット48を、以前に復号化されたニューラルネットワークパラメータについてのデータストリーム14から復号化された量子化インデックス58の2値関数の結果に応じて選択54するように構成されることができる。2値関数は、例えば、量子化インデックス58が偶数または奇数を表すかどうかを信号化する、ビット単位「and」演算を使用するパリティチェックであってよい。これは、量子化インデックス58を符号化するために使用される再構成レベルセット48に関する情報を、したがって、例えば、対応する符号化器で使用される再構成レベルセットの所定の順序のために、現在のニューラルネットワークパラメータ13’を符号化するために使用される再構成レベルのセットに対して提供し得る。パリティは、前述した状態遷移のために使用されることができる。
さらに、実施形態によれば、装置は、例えば、現在のニューラルネットワークパラメータ13’について、複数50の再構成レベルセット52のうち再構成レベルのセット48を、以前に復号化されたニューラルネットワークパラメータについてデータストリーム14から復号化された量子化インデックス58のパリティに応じて選択54するように構成されることができる。パリティチェックは、例えばビット単位「and」演算を用いて、低い計算コストで実行されることができる。
任意選択で、装置は、ニューラルネットワークパラメータ13についての量子化インデックス56を復号化し、ニューラルネットワークパラメータ13の間で共通の連続的な順序14’に沿ってニューラルネットワークパラメータ13の逆量子化を実行するように構成されることができる。言い換えれば、両方のタスクに同じ順序が使用されることができる。
図3は、実施形態による、ニューラルネットワークパラメータをデータストリームに符号化するための装置内で実行される量子化の概念を模式的に示す図である。図3は、ニューラルネットワーク層10a、10bを含むニューラルネットワーク(NN)10を示し、層はニューロン10cを含み、相互接続された層のニューロンはニューロン相互接続11を介して相互接続されている。一例として、NN層(p-1)10aおよびNN層(p)10bが示され、pはNN層のインデックスであり、1≦p≦NNの層の数である。ニューラルネットワークは、ニューラルネットワークパラメータ13によって定義またはパラメータ化され、それは任意に、ニューラルネットワーク10のニューロン相互接続11の重みに関連し得る。図1の隠れ層のニューロン10cは、図3の層p(A、B、C、...)のニューロンを表してもよく、図1の入力層のニューロンは、図3に示される層p-1(a、b、c、...)のニューロンを表すことができる。ニューラルネットワークパラメータ13は、図1のニューロン相互接続11の重みに関連づけることができる。
異なる層のニューロン10cの関係は、図1において、ニューラルネットワークパラメータ13の行列15aによって表される。例えば、ネットワークパラメータ13がニューロン相互接続11の重みに関連する場合、行列15aは、例えば、行列要素が異なる層のニューロン10c間の重み(例えば、層p-1の場合はa、b、・・・、層pの場合はA、B、・・・)を表すように構成されることができる。
この装置は、例えばシリアル20a(シリアライゼーション、直列化)において、ニューラルネットワークパラメータ13を順次符号化するように構成されている。この順次処理の間、量子化器(再構成レベルセット)は変化させられる。この変化により、より少ない(またはより良いより密でない)レベルを有する量子化器を使用することができ、したがって、より小さい量子化インデックスを符号化することができ、この量子化から得られるニューラルネットワーク表現の品質が、必要な符号化ビットレートと比較して、一定の量子化器を使用する場合よりも改善される。詳細は後述する。特に、装置は、現在のニューラルネットワークパラメータ13’について、以前に符号化されたニューラルネットワークパラメータについてデータストリーム14に符号化された量子化インデックス58に応じて複数50の再構成レベルセット52のうち再構成レベルセット48を選択54することによって、ニューラルネットワークパラメータ13を順次に符号化する。
さらに、装置は、現在のニューラルネットワークパラメータ13’を選択された再構成レベルセット48の1つの再構成レベル上に量子化64(Q)することによって、かつ、
現在のニューラルネットワークパラメータについての量子化インデックス56がデータストリーム14中に量子化される1つの再構成レベルを示す現在のニューラルネットワークパラメータ13’についての量子化インデックス56を符号化することによって、ニューラルネットワークパラメータ13を順次符号化するよう構成される。任意選択で、複数50の再構成レベルセット52のうち、本明細書で時々量子化器とも呼ばれる再構成レベルセット52の数は、例えばセット0およびセット1を用いて示されるように、2つであることができる。
実施形態によれば、図3に示すように、装置は、例えば、所定の量子化ステップサイズ(QP)によって複数50の再構成レベルセット52をパラメータ化60し、データストリーム14に所定の量子化ステップサイズに関する情報を挿入するように構成されていることができる。これにより、例えば、量子化効率を向上させるための適応的量子化が可能となり、ニューラルネットワークパラメータ13の符号化方法の変化が、所定の量子化ステップサイズに関する情報とともに復号器に伝達されることができる。所定の量子化ステップサイズ(QP)を使用することにより、情報の伝送のためのデータ量を削減することができる。
さらに、実施形態によれば、ニューラルネットワーク10は、1つ以上のNN層10a、10bを含んでいることができる。装置は、各NN層(p;p-1)について、それぞれのNN層についての所定の量子化ステップサイズ(QP)の情報をデータストリーム14に挿入し、それぞれのNN層に属するニューラルネットワークパラメータの量子化に使用するように、それぞれのNN層について導かれた所定の量子化ステップサイズを用いて複数50の再構成レベルセット52のパラメータ化を行うよう構成されることが可能である。先に説明したように、例えばNN層またはNN層の特性に応じた量子化の適応は、量子化効率を向上させることができる。
任意選択的に、装置は、現在のニューラルネットワークパラメータ13’について、複数50の再構成レベルセット52のうち再構成レベルのセット48を、以前に符号化されたニューラルネットワークパラメータについてデータストリーム14に符号化された量子化インデックス58を2値化したもののLSB部分または以前に符号化されたビンに応じて選択54するよう構成されることができる。LSB比較は、低い計算コストで実行され得る。
図2で説明した復号化のための装置と同様に、状態遷移が用いられることができる。現在のニューラルネットワークパラメータ13’について、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、複数50の再構成レベルセット52のうちの再構成レベルのセット48を決定することによって、及び、直前のニューラルネットワークパラメータについてのデータストリームに符号化された量子化インデックス58に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、状態遷移プロセスにより、複数50の再構成レベルセット52のうちの量子化レベルセット48のうち現在のニューラルネットワークパラメータ13’について選択54が実行されることができる。例えば遷移表を使用することによる状態遷移以外のアプローチも同様に使用可能であり、以下に規定される。
さらに、または代替的に、装置は、現在のニューラルネットワークパラメータ13’について、以前に符号化されたニューラルネットワークパラメータについてのデータストリーム14に符号化された量子化インデックス58の2値関数の結果に応じて、複数50の再構成レベルセット52のうち再構成レベルセット48を選択54するよう構成されることができる。2値関数は、例えば、量子化インデックス58が偶数または奇数を表すかどうかを信号化する、ビット単位「and」演算を使用したパリティチェックであってもよい。これは、量子化インデックス58を符号化するために使用される再構成レベルセット48に関する情報を提供してもよく、したがって、例えば、所定の順序のために、対応する復号化器が対応する再構成レベルセット48を選択できるように、再構成レベルの所定の順序のために、現在のニューラルネットワークのパラメータ13’についての再構成レベルのセット48を決定することができる。パリティは、前述した状態遷移のために使用されることができる。
さらに、実施形態によれば、装置は、例えば、現在のニューラルネットワークパラメータ13’について、複数50の再構成レベルセット52のうち量子化レベルセット48を、以前に符号化されたニューラルネットワークパラメータについてのデータストリーム14に符号化された量子化インデックス56のパリティに応じて、選択54するように構成されることができる。パリティチェックは、例えばビット単位「and」演算を使用して、低い計算コストで実行されることができる。
任意選択的に、装置は、ニューラルネットワークパラメータ(13)についての量子化インデックス(56)を符号化し、ニューラルネットワークパラメータ(13)の量子化を、ニューラルネットワークパラメータ(13)間の共通の連続的な順序(14’)に沿って実行するように構成されることができる。すなわち、両方のタスクで同じ順序を使用することができる。
図4は、実施形態による量子化されたニューラルネットワークのパラメータを算術復号化するための概念の概略図である。これは、図2の装置内で使用することができる。したがって、図4は、図2の可能な拡張として見ることができる。それは、現在のニューラルネットワークパラメータ13’についての量子化インデックス56が、算術符号化、例えば2値算術符号化の使用によって任意例として示すように、図4の装置によって復号化されるデータストリーム14を示す。例えばあるコンテキストによって定義される確率モデルが使用され、それは、矢印123によって示されるように、現在のニューラルネットワークパラメータ13’について選択された再構成レベルセット48に依存する。詳細は、本明細書において設定される。
図2に関して説明したように、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、現在のニューラルネットワークパラメータ13’について複数50の再構成レベルセット52のうちの再構成レベルのセット48を決定することによって、及び、直前のニューラルネットワークパラメータについてのデータストリームから復号化された量子化インデックス58に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、状態遷移プロセスにより、複数50の再構成レベルセット52のうちの量子化レベルのセット48を選択する選択54が現在のニューラルネットワークパラメータ13’について実行されることができる。したがって、状態は、現在のニューラルネットワークパラメータ13’を符号化/復号化するために使用されるべき再構成レベルセット48へのポインタに準じるものであるが、これは、しかしながら、状態が、過去のニューラルネットワークパラメータまたは過去の量子化インデックスのメモリとして疑似的に機能するように、再構成セットの数に対応する数の状態を区別するだけとして、より細かい要素で更新される。したがって、状態は、ニューラルネットワークパラメータ13を符号化/復号化するために使用される再構成レベルのセットの順序を規定する。図4によれば、例えば、現在のニューラルネットワークパラメータ(13’)についての量子化インデックス(56)は、現在のニューラルネットワークパラメータ(13’)についての状態に対応する(122)確率モデルを用いて、算術符号化を用いてデータストリーム(14)から復号化される。状態に応じて確率モデルを適応させることにより、確率モデルの推定が良好となり、符号化効率が向上する可能性がある。さらに、状態に応じて適応させることで、少ない追加データの送信で計算効率のよい適応が可能になる場合がある。
さらなる実施形態によれば、装置は、例えば、量子化インデックス56を2値化82したものの少なくとも1つのビン84についての現在のニューラルネットワークパラメータ13’についての状態に依存122する確率モデルを用いて、2値算術コーディングを使ってデータストリーム14から現在のニューラルネットワークパラメータ13’についての量子化インデックス56を復号化するよう構成されることができる。
さらに、または代替的に、装置は、確率モデルの依存性が、依存性を用いるニューラルネットワークパラメータについてのコンテキストのセットのうちコンテキスト87の選択103(導出)を含むように構成されてもよく、各コンテキストは、所定の確率モデルが関連づけられるように構成される。使用される確率推定が優れているほど、圧縮の効率は高くなる。確率モデルは、例えば、コンテキスト適応的(2値)算術符号化を用いて、更新されることができる。
任意選択で、装置は、それぞれのコンテキストを用いて算術符号化された量子化インデックスに基づいて、それぞれのコンテキストに関連する所定の確率モデルを更新するように構成されることができる。このように、コンテキストの確率モデルは、実際の統計に適応される。
さらに、装置は、例えば、量子化インデックスを2値化したものの少なくとも1つのビンについて、現在のニューラルネットワークパラメータ13’に対して選択された再構成レベルセット48に対応する確率モデルを用いて、2値算術符号化を用いてデータストリーム14から現在のニューラルネットワークパラメータ13’についての量子化インデックス56を復号化するよう構成されることができる。
任意選択で、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロに等しいか否かを示す有意性ビンを含んでいることができる。さらに、または代替的に、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロより大きいか、またはゼロより小さいかを示す符号ビンを含んでもよい。さらに、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56の絶対値がXより大きいか否かを示すgreater-than-Xビンを含んでもよく、ここでXはゼロより大きい整数である。
以下、図5では、図4を用いて説明した復号化のための概念の対極を説明することができる。したがって、すべての説明および利点は、以下の符号化のための概念の側面に適宜適用することができる。
図5は、実施形態によるニューラルネットワークパラメータを算術符号化するための概念を示す概略図である。これは、図3の装置内で使用され得る。したがって、図5は、図3の可能な拡張として見ることができる。それは、現在のニューラルネットワークパラメータ13’についての量子化インデックス56が、算術符号化、例えば任意の例として2値算術符号化の使用によって示されるように図3の装置によって符号化されるデータストリーム14を示す。例えばあるコンテキストによって定義される確率モデルが使用され、それは、矢印123によって示されるように、現在のニューラルネットワークパラメータ13’に対して選択された再構成レベルセット48に依存する。詳細は本明細書において設定される。
図3に関して説明したように、現在のニューラルネットワークパラメータ13’について選択54が実行される。選択54は、現在のニューラルネットワークパラメータ13’について、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、複数50の再構成レベルセット52のうちの量子化レベルセット48を決定することによって、及び、直前のニューラルネットワークパラメータについてのデータストリームに符号化された量子化インデックス58に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、状態遷移プロセスにより複数50の再構成レベルセット52のうちの量子化レベルセット48を選択する。
したがって、状態は、現在のニューラルネットワークパラメータ13’を符号化/復号化するために使用されるべき再構成レベルセット48へのポインタに準ずるものであるが、しかし、状態が疑似的に、過去のニューラルネットワークパラメータまたは過去の量子化インデックスのメモリとして機能するように、再構成セットの数に対応する数の状態を区別するだけとしてより細かい要素で更新されている。したがって、状態は、ニューラルネットワークパラメータ13を符号化/復号化するために使用される再構成レベルセットの順序を定義する。
さらに、現在のニューラルネットワークパラメータ13’についての量子化インデックス56は、現在のニューラルネットワークパラメータ13’についての状態122に対応する確率モデルを用いる算術符号化を用いてデータストリーム14に符号化されることができる。
例えば図3によれば、量子化インデックス56は、量子化インデックス56を2値化82したものの少なくとも1つのビン84に対する現在のニューラルネットワークパラメータ13’に対する状態122に対応する確率モデルを用いて、2値算術コーディングを用いてデータストリーム14へ符号化される。確率モデルは確率モデルの推定に適している可能性があるため、状態に応じて確率モデルを適応させると、符号化効率が向上する可能性がある。さらに、状態に応じた適応は、送信される追加データの量が少なく、計算効率のよい適応を可能にし得る。
さらに、または代替的に、本装置は、確率モデルの依存性が、依存性を用いたニューラルネットワークパラメータのコンテキストのセットのうちコンテキスト87の選択103(導出)を含み、各コンテキストは所定の確率モデルが関連づけられているように構成されることができる。
任意選択で、装置は、それぞれのコンテキストを使用して算術符号化された量子化インデックスに基づいて、それぞれのコンテキストに関連付けられた所定の確率モデルを更新するように構成されることができる。
さらに、装置は、例えば、量子化インデックスを2値化したものの少なくとも1つのビンについて、現在のニューラルネットワークパラメータ13’について選択された再構成レベルセット48に対応する確率モデルを用いることによって、2値算術符号化を用いて、データストリーム14に現在のニューラルネットワークパラメータ13’の量子化インデックス56を符号化するよう構成されることができる。2値算術符号化を使用するために、量子化インデックス56は、2値化(binarization)されることができる。
任意選択で、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロに等しいか否かを示す有意性ビンを含むことができる。さらに、または代替的に、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロより大きいか、またはゼロより小さいかを示す符号ビンを含むことができる。さらに、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56の絶対値がXより大きいか否かを示すgreater-than-Xビンを含むことができ、ここでXはゼロより大きい整数である。
次に説明する実施形態は、次のような本願の別の態様に集中している。ニューラルネットワークのパラメータ化が段階または再構成層で符号化され、NNパラメータごとに、各ステージからの1つの値は、ニューラルネットワークの改良された/強化された表現を得るために結合される必要があり、少なくとも1つがそれ自体ニューラルネットワークの妥当な表現を表すかもしれないが、低質で貢献する段階のいずれかに強化されているが、後者の可能性は本態様に必須ではないものである。
図6は、本発明による実施形態で使用するためのニューラルネットワークパラメータのための再構成層を使用する概念の概略図である。図6は、例えば第2の再構成層である再構成層i、例えば第1の再構成層である再構成層i-1、および例えば図3からの層10bであるニューラルネットワーク(NN)層pが、例えば図3からの行列15aなどのアレイまたは行列の形態で表された層であることを示している。
図6は、ニューラルネットワークを定義するニューラルネットワークパラメータ13を再構成するための装置310の概念を示している。したがって、この装置は、例えば連合学習プロセスの間に以前に送信された可能性があり、例えば、第1の再構成層、例えば再構成層i-1について、第1の再構成層のニューラルネットワークパラメータと呼ばれてもよい第1ニューラルネットワークパラメータ13aを導出し、ニューラルネットワークパラメータごと、例えば重みごとまたはニューロン間接続ごとに、第1の再構成層のニューラルネットワークパラメータ値をもたらすよう構成されている。この導出は、そうでなければ、第1のニューラルネットワークパラメータ13aを復号化すること、または受け取ることを含むことができる。さらに、装置は、ニューラルネットワークパラメータ13ごとに第2の再構成層のニューラルネットワークパラメータ値を生成するためのデータストリーム14から第2の再構成層についての例えば最終ニューラルネットワークパラメータ、例えばパラメータ13と区別するために第2の再構成層のニューラルネットワークパラメータと呼ばれ得る第2ニューラルネットワークパラメータ13bを復号化312するよう構成されている。したがって、第1および第2の再構成層の2つの寄与値が、NNパラメータごとに得られてもよく、第1および/または第2のNNパラメータ値の符号化/復号化は、図2および図3に従った依存量子化(dependent quantization)、および/または図4および図5で説明したような量子化インデックスの算術符号化/復号化を使用することができる。第2のニューラルネットワークパラメータ13bは、ニューラル表現の観点から自己完結した意味を持たず、単に、第1の表現層のパラメータと組み合わせたときに、ニューラルネットワーク表現、すなわち最終的なニューラルネットワークパラメータを導くだけかもしれない。
さらに、装置は、各ニューラルネットワークパラメータについて、第1の再構成層のニューラルネットワークパラメータ値と第2再構成層ニューラルネットワークパラメータ値とを、例えば要素単位の加算および/または乗算を用いて組み合わせる(CB)ことにより、ニューラルネットワークパラメータ13を再構成314するように構成されている。
さらに、図6は、第1の再構成層、例えば再構成層i-1のための第1のニューラルネットワークパラメータ13aを用いて、ニューラルネットワークを定義するニューラルネットワークパラメータ13を符号化するための装置320の概念を示している。第1の再構成層は、ニューラルネットワークパラメータ13ごとに、第1の再構成層のニューラルネットワークパラメータ値を含む。したがって、装置は、第2の再構成層、例えば再構成層iのための第2のニューラルネットワークパラメータ13bをデータストリームに符号化322するように構成される。第2の再構成層は、ニューラルネットワークパラメータ13ごとに、第2の再構成層のニューラルネットワークパラメータ値を含む。ニューラルネットワークパラメータ13は、それぞれのニューラルネットワークパラメータについて、例えば要素単位の加算および/または乗算を用いて、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値とを組み合わせる(CB)ことによって再構成可能である。
任意選択的に、装置310は、データストリーム14から、または別個のデータストリームから、第1の再構成層についての第1のニューラルネットワークパラメータを復号化316するように構成されることができる。
簡単に言えば、ニューラルネットワークパラメータ13の分解は、パラメータのより効率的な符号化および/または復号化および送信を可能にし得る。
以下では、特に、ニューラルネットワーク符号化概念を含む、さらなる実施形態が開示される。以下の説明では、上述した実施形態と個別に、および組み合わせて使用することができる更なる詳細を提供する。
まず、本発明の実施形態による依存スカラー量子化(Dependent Scalar Quantization)を伴うニューラルネットワークのパラメータのエントロピー符号化のための方法を提示する。
依存スカラー量子化を用いたニューラルネットワークパラメータ13(重み、重みパラメータまたはパラメータとも呼ばれる)のセットのパラメータ符号化方法について説明する。本明細書で提示されるパラメータ符号化は、パラメータ13の依存スカラ量子化(例えば、図3の文脈で説明したような)および得られた量子化インデックス56のエントロピー符号化(例えば、図5の文脈で説明したような)から構成される。復号化器側では、量子化インデックス56のエントロピー復号化(例えば、図4の文脈で説明したように)と、ニューラルネットワークパラメータ13の依存再構成(例えば、図2の文脈で説明したように)とによって、再構成されたニューラルネットワークパラメータのセットを得ることができる。独立したスカラー量子化およびエントロピー符号化を伴うパラメータ符号化とは対照的に、ニューラルネットワークパラメータ13についての許容可能な再構成レベルセットは、再構成順序において現在のニューラルネットワークパラメータ13’に先行する送信済み量子化インデックス56に依存する。以下に示す提示は、依存スカラ量子化で使用される再構成レベルを指定する量子化インデックスのエントロピー符号化のための方法を追加的に説明する。
本説明は、主にニューラルネットワーク圧縮におけるニューラルネットワークパラメータ層の非可逆符号化を対象としているが、他の分野の非可逆符号化にも適用可能である。
本装置の方法論は、以下のような異なる主要部分に分けられる。
1.量子化
2.ロスレス符号化
3.ロスレス復号化
以下に示す実施形態の主な利点を理解するために、まず、ニューラルネットワークの話題と、パラメータ符号化のための関連する方法について、簡単に紹介する。それにもかかわらず、開示されたすべての側面、特徴、および概念は、本明細書に記載される実施形態と別々にまたは組み合わせて使用することができる。
2 量子化及びエントロピー符号化のための関連する方法
マルチメディアコンテンツの説明及び分析のためのニューラルネットワークの圧縮のためのMPEG-7パート17規格のワーキングドラフト2[2]は、ニューラルネットワークパラメータ符号化に独立スカラー量子化(independent scalar quantization)及びエントロピー符号化を適用している。
2.1 スカラー量子化器
ニューラルネットワークのパラメータは、スカラ量子化器を用いて量子化される。量子化の結果、パラメータ13の許容値のセットは減少する。言い換えれば、ニューラルネットワークのパラメータは、いわゆる再構成レベルの可算集合(実際には有限集合)にマッピングされる。再構成レベルセットは、可能なニューラルネットワークパラメータ値のセット(集合)の適切なサブセット(部分集合)を表す。以下のエントロピー符号化を単純化するために、許容可能な再構成レベルは、量子化インデックス56によって表され、これはビットストリーム14の一部として伝送される。復号化器側では、量子化インデックス56は、再構成されたニューラルネットワークパラメータ13にマッピングされる。再構成されたニューラルネットワークパラメータ13の可能な値は、再構成レベルセット52に対応する。符号化器側では、スカラー量子化の結果は、1セットの(整数)量子化インデックス56である。
Figure 2023507502000003
このコンテキストでは、「独立スカラー量子化」という用語は、任意の重みパラメータ13に対する量子化インデックスq56が与えられると、関連する再構成された重みパラメータt’13’が他の重みパラメータに対するすべての量子化インデックスから独立して決定できる、という特性を指す。
2.1.1 符号化器の動作:量子化
ニューラルネットワークの圧縮に関する標準規格は、ビットストリームのシンタックスと再構成プロセスのみを規定している。与えられたオリジナルのニューラルネットワークパラメータ13のセットと与えられた量子化ステップサイズ(QP)に対するパラメータ符号化を考える場合、符号化器は多くの自由度を有する。層10a、10bの量子化インデックスqk56が与えられると、エントロピー符号化は、データをビットストリーム14に書き込む(すなわち、算術符号語(コードワード)を構築する)ための一意に定義されたアルゴリズムに従わなければならない。しかし、重みパラメータのオリジナルセット(例えば層)が与えられた量子化インデックスqk56を得るための符号化アルゴリズムは、ニューラルネットワーク圧縮の規格の範囲外である。以下の説明では、各ニューラルネットワークパラメータ13の量子化ステップサイズ(QP)が既知であると仮定する。それでも、符号化器は、各ニューラルネットワーク(重み)パラメータtk13についての量子化器インデックスqk56を選択する自由を有する。量子化インデックスの選択は、歪み(または再構成/近似品質)とビットレートの両方を決定するので、使用される量子化アルゴリズムは、生成されるビットストリーム14のレート歪み性能に実質的な影響を与える。
Figure 2023507502000004
量子化プロセスはラグランジュ関数D+λ・Rを最小化すれば、レート歪み的に良い結果が得られる。ここで、Dはニューラルネットワークパラメータセットの歪み(例えば、MSE歪み、又は、MAE歪み)、Rは量子化インデックス56を伝送するために必要なビット数、λはラグランジュ乗数である。
Figure 2023507502000005
Figure 2023507502000006
実際、近傍量子化はλ=0の些細なケースであり、マルチメディアコンテンツの説明及び分析のためのニューラルネットワークの圧縮に関するMPEG-7 part17規格のワーキングドラフト2において適用されている。
2.2 エントロピー符号化
前のステップで適用された均一量子化の結果として、重みパラメータはいわゆる再構成レベルの有限集合にマッピングされる。これらは、(整数)量子化器インデックス56(パラメータレベルまたは重みレベルとも呼ばれる)と量子化ステップサイズ(QP)によって表すことができ、例えば、全層に対して固定されている場合がある。層のすべての量子化された重みパラメータを復元するために、層のステップサイズ(QP)および次元は、復号化器によって知られてもよい。これらは、例えば、別々に送信されてもよい。
2.2.1 コンテキスト適応的2値算術符号化(CABAC、Context-adaptive binary arithmetic coding)による量子化インデックスの符号化
量子化インデックス56(整数表現)は、次にエントロピー符号化技術を使用して送信される。したがって、重みの層は、スキャンを使用して量子化された重みレベルのシーケンスにマッピングされる。例えば、行列の最上部の行から始めて、含まれる値を左から右へ符号化する、行ファーストスキャン順序(row first scan order)を使用することができる。この方法では、すべての行が上から下へ符号化される。スキャンは、ニューロン相互接続11の重みに関連し得るニューラルネットワークパラメータ13を含む行列15aについて、例えば共通の連続的な順番14’に沿って、図3に示すように実行されてもよい。行列は、重み層、例えば、図3及び図1にそれぞれ示すように、ニューロン相互接続11の層p-1 10aと層p 10bとの間の重み、又は隠れ層及び入力層との間の重みを表してもよい。なお、他の任意のスキャンを適用することができる。例えば、行列(例えば、図2又は図3の行列15a)は、行ファーストスキャンを適用する前に、転置され、又は水平及び/又は垂直に反転され、及び/又は左又は右に90/180/270度だけ回転されることができる。
図3および図5に関して説明したように、実施形態による装置は、量子化インデックス56を2値化82したものの少なくとも1つのビン84に対する現在のニューラルネットワークパラメータ13’に対する状態122に対応する確率モデルを用いて、2値算術符号化を用いてデータストリーム14へ現在のニューラルネットワークパラメータ13’についての量子化インデックス56を符号化するよう構成されることができる。確率モデルを用いた2値算術符号化は、コンテキスト適応的2値算術符号化(CABAC、Context-adaptive binary arithmetic coding)であることができる。
すなわち、実施形態によれば、レベルの符号化のために、CABACが使用される。詳細については、[3]を参照されたい。そこで、量子化された重みレベルq56は、一連の2値記号またはシンタックス要素、例えばビン(2値決定)に分解され、その後、2値算術符号化器(CABAC)に渡されることがある。最初のステップでは、量子化された重みレベルに対して2値シンタックス要素sig_flagが導出され、これは対応するレベルがゼロに等しいかどうかを指定する。言い換えれば、図4に示す量子化インデックス56を2値化82したものの少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロに等しいか否かを示す有意性ビンを含むことができる。
sig_flagが1に等しい場合、さらなる2値シンタックス要素sign_flagが導き出される。このビンは、現在の重みレベルが正(例えば、ビン=0)か負(例えば、ビン=1)かを示す。言い換えれば、図4に示す量子化インデックス56を2値化82したものの少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロより大きいかまたはゼロより小さいかを示す符号ビン86を含むことができる。
次に、ビンの単項シーケンスが符号化され、それに続いて、以下のように固定長シーケンスが次のように符号化される。
変数kは負でない整数で初期化され、Xは1<<kで初期化される。
量子化された重みレベルの絶対値がXより大きいことを示すabs_level_greater_Xという一つ以上のシンタックス要素が符号化される。abs_level_greater_Xが1に等しい場合、変数kが更新され(例えば、1だけ増加)、次に1<<kがXに加えられ、さらにabs_level_greater_Xが符号化される。この手順は、abs_level_greater_Xが0に等しくなるまで続けられる。その後、長さkの固定長コードで量子化器インデックスの符号化を完了することができる。例えば、変数rem=X-|q|は、kビットを用いて符号化され得る。あるいは、変数rem’は、rem’=(1<<k)-rem-1として定義され、これはkビットを用いて符号化され得る。また、変数remのkビットの固定長符号への他のマッピングも使用できる。
言い換えれば、図4に示す量子化インデックス56を2値化82したものの少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56の絶対値がXより大きいか否かを示すgreater-than-Xビンを含むことができ、ここでXはゼロより大きい整数である。
各abs_level_greater_Xの後にkを1ずつ増加させる場合、このアプローチは、指数ゴロム符号化(exponential Golomb coding)を適用することと同一である(sign_flagがみなされていない場合)。
また、符号化器側と復号化器側で絶対値の最大値abs_maxが分かっている場合、次に送信するabs_Level_greater_Xについて、X>=abs_maxが成り立つとき、abs_Level_greater_Xシンタックス要素の符号化を終了することができる。
Figure 2023507502000007
言い換えれば、図2および図4に関して説明したように、実施形態による装置は、量子化インデックス56を2値化82したものの少なくとも1つのビン84についての現在のニューラルネットワークパラメータ13’に対する状態122に対応する確率モデルを使用することにより、2値算術符号化を使用してデータストリーム14から現在のニューラルネットワークパラメータ13’に対する量子化インデックス56を復号化するよう構成されることができる。
図5に示す量子化インデックス56を2値化82したものの少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロに等しいか否かを示す有意性ビンを含むことができる。さらに、または代替的に、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56がゼロより大きいか、またはゼロより小さいかを示す符号ビン86を含むことができる。さらに、少なくとも1つのビンは、現在のニューラルネットワークパラメータの量子化インデックス56の絶対値がXより大きいか否かを示すgreater-than-Xビンを含むことができ、ここでXはゼロより大きい整数である。
好ましい実施形態では、kは0に初期化され、以下のように更新される。各abs_level_greater_Xが1に等しくなった後、kの必要な更新は、以下のルールに従って行われる:X>X’の場合、kは1だけ増分され、X’はアプリケーションに対応する定数である。例えば、X’は符号化器が導出し、復号化器に通知する数値(例えば、0から100の間)である。
2.2.3 コンテキスト・モデリング
CABACエントロピー符号化では、量子化された重みレベル56のほとんどのシンタックス要素は、2値確率モデリングを用いて符号化される。各2値決定(bin)はコンテキストと関連付けられている。コンテキストは、符号化されたビンのクラスに対する確率モデルを表す。2つの可能なビン値のうちの1つに対する確率は、対応するコンテキストで既に符号化されたビンの値に基づいて、各コンテキストについて推定される。アプリケーションに応じて、異なるコンテキストモデリングアプローチを適用することができる。通常、量子化された重み符号化に関連するいくつかのビンについて、符号化に使用されるコンテキストは、既に送信されたシンタックス要素に基づいて選択される。実際のアプリケーションに応じて、例えばSBMP 0、またはHEVC 0またはVTM-4.0 0のものなど、異なる確率推定器が選択され得る。この選択は、例えば、圧縮効率や複雑さに影響を与える。
言い換えれば、図5、例えばコンテキスト87に関して説明したような確率モデルは、以前に符号化されたニューラルネットワークパラメータの量子化インデックスに追加的に依存する。
それぞれ、図4、例えばコンテキスト87に関して説明したような確率モデルは、さらに、以前に復号化されたニューラルネットワークパラメータの量子化インデックスに依存する。
広範囲のニューラルネットワークに適合するコンテキストモデリング方式は、以下のように説明される。重み行列(層)の特定の位置(x,y)で量子化された重みレベルq56を復号化するために、ローカルテンプレートが現在の位置に適用される。このテンプレートは、例えば(x-1,y)、(x,y-1)、(x-1,y-1)等のような多数の他の(順序付けられた)位置を含んでいる。各位置に対して、ステータス識別子が導出される。
Figure 2023507502000008
特定のテンプレートに対して、ステータス識別子のシーケンスを導き出し、ステータス識別子の値の可能な各コンステレーション(constellation)を、使用されるコンテキストを識別するコンテキストインデックスにマッピングする。テンプレートとマッピングは、異なるシンタックス要素に対して異なる場合がある。例えば、(順序)位置(x-1,y)、(x,y-1)、(x-1,y-1)を含むテンプレートから、ステータス識別子sx-1,y、sx,y-1、sx-1,y-1の順序シーケンスが導出される。例えば、このシーケンスは、コンテキストインデックスC=sx-1,y+3*sx,y-1+9*sx-1,y-1にマッピングされることがある。例えば、コンテキストインデックスCは、sig_flagのための多数のコンテキストを識別するために使用されることができる。
好ましい実施形態(アプローチ1とする)において、位置(x,y)における量子化された重みレベルqx,yのsig_flagのため、またはsign_flagのためのローカルテンプレートは、1つの位置(x-1,y)(すなわち、左隣)からのみ構成される。関連するステータス識別子sx-1,yは、好ましい実施形態Si1に従って導出される。
sig_flagについては、sx-1,yの値に応じて3つのコンテキストのうちの1つが選択され、又はsign_flagについては、sx-1,yの値に応じて他の3つのコンテキストのうちの1つが選択される。
別の好ましい実施形態(アプローチ2とする)では、sig flagのためのローカルテンプレートは、3つの順序付けられた位置(x-1,y)、(x-2,y)、(x-3,y)を含む。ステータス識別子sx-1,y,sx-2,y,sx-3,yの関連するシーケンスは、好ましい実施形態Si2に従って導出される。
sig_flagについては、コンテキストインデックスCを以下のように導出する。
x-1,y≠0ならばC=0,それ以外ならsx-2,y≠0ならばC=1,それ以外ならsx-3,y≠0ならばC=2、そうでなければ、sx-3,y≠0ならば、C=2である。そうでなければ、C=3。
Figure 2023507502000009
同様に、コンテキストインデックスCが左側の次のゼロでない重みまでの距離に等しくなる(テンプレートサイズを超えない)ように、左側に隣接するものの数を増減してもよい。
各abs_level_greater_X flagは、例えば、2つのコンテキストの独自のセットを適用することができる。そして、2つのコンテキストのうちの1つが、sign_flagの値に応じて選択される。
好ましい実施形態では、Xが予め定義された数X’より小さいabs_level_greater_X flagについて、異なるコンテキストが、Xおよび/またはsign_flagの値に応じて区別される。
好ましい実施形態では、Xが予め定義された数X’より大きいか等しいabs_level_greater_X flagについて、異なるコンテキストは、Xに対応してのみ区別される。
別の好ましい実施形態では、予め定義された数X’より大きいか等しいXを有するabs_level_greater_X flagは、1の固定コード長を用いて(例えば、算術符号器のバイパスモードを用いて)符号化される。
さらに、シンタックス要素の一部または全部は、コンテキストを使用せずに符号化されることもある。その代わり、それらは、例えば、CABACのいわゆるバイパスビンを使用して、1ビットの固定長で符号化される。
別の好ましい実施形態では、固定長の余りremは、バイパスモードを使用して符号化される。
別の好ましい実施形態では、符号化器は、予め定義された数X’を決定し、X<X’の各シンタックス要素abs_level_greater_Xに対して、符号に応じて2つのコンテキストを区別し、X>=X’の各abs_level_greater_Xに対して、1つのコンテキストを使用する。
言い換えれば、図5に関して説明したような確率モデル、例えばコンテキスト87は、現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する以前に符号化されたニューラルネットワークパラメータの量子化インデックスに応じて確率モデルのサブセットの中から、現在のニューラルネットワークパラメータのために選択103されることができる。
この部分は、例えば、上記で説明したテンプレートであって、(順序付けられた)位置(x-1,y)、(x,y-1)、(x-1,y-1)を含むテンプレートによって定義されることができる。
それぞれ、図5に関して説明したような確率モデルは、現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する以前に復号化されたニューラルネットワークパラメータの量子化インデックスに応じて、確率モデルのサブセットの中から、現在のニューラルネットワークパラメータについて選択されることができる。
3 追加の方法
以下では、再構成された層、例えば図6からのニューラルネットワーク層pが、例えば別々に伝送されてもよい図6からの再構成層i-1および再構成層iのような異なるサブ層の構成である、ニューラルネットワーク10の圧縮/送信のための追加の、したがって任意の方法について説明する。
3.1 ベース層とエンハンスメント層の概念
この概念では、ベース層とエンハンスメント層と呼ばれる2種類のサブ層を導入している。そして、再構成プロセス(例えば、すべてのサブ層を追加する)は、サブ層からどのように再構成された層を得ることができるかを定義する。ベース層はベース値を含み、例えば、最初のステップで効率的に表現または圧縮/送信できるように選択することができる。エンハンスメント層は、エンハンスメント情報、(例えばオリジナル層に関する)歪み指標を減少させるために例えば(ベース)層の値に追加される差分値を含む。別の例では、ベース層は(小さなトレーニングセットを用いたトレーニングからの)粗い値を含み、エンハンスメント層は(完全なトレーニングセットまたはより一般的には、別のトレーニングセットに基づく)リファインメント値を含む。サブ層は別々に保存/送信されてもよい。
好ましい実施形態では、圧縮される層LR、例えばニューラルネットワークパラメータ、例えば図2及び図3の行列15aによって表され得る重みのようなニューラルネットワークの重みは、ベース層LBと1つ以上のエンハンスメント層LE,1,LE,2,・・・,LE,Nとに分解される。そして、最初のステップでベース層が圧縮/送信され、続くステップでエンハンスメント層LE,1,LE,2,...、LE,Nが(別個に)圧縮/送信される。
Figure 2023507502000010
Figure 2023507502000011
言い換えれば、本発明による実施形態は、再構成された層LRの形態で、または例えば再構成された層LRを使用して、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値のパラメータ単位の和またはパラメータ単位の積によって、ニューラルネットワークパラメータ13を再構成するように構成された、装置を含む。
それぞれ、実施形態によるニューラルネットワークパラメータ13を符号化するための装置の場合、ニューラルネットワークパラメータ13は、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値と第2の再構成層のニューラルネットワークパラメータ値のパラメータ単位の和またはパラメータ単位の積によって再構成可能である。
さらなる好ましい実施形態では、2.1および/または2.2の方法は、サブセットまたはすべてのサブ層に適用される。
特に好ましい実施形態では、コンテキストモデリングを使用するエントロピー符号化方式(例えば、2.2.3に同質または類似)が適用されるが、以下のルールのうちの1つ以上に従ってコンテキストモデルの1つ以上のセットを追加する。
a)各サブ層は、独自のコンテキストセットを適用する。言い換えれば、本発明による実施形態は、第1の再構成層についての第1のニューラルネットワークパラメータ13aをデータストリームまたは別のデータストリームから/に符号化/復号化し、第2の再構成層についての第2ニューラルネットワークパラメータ13bを第1および第2の再構成層のための別の確率コンテキストを用いたコンテキスト適応的エントロピー符号化によってデータストリームから/に符号化/復号化するように構成された、装置を含む。
b) 符号化されるエンハンスメント層のパラメータのために選択されたコンテキストセットは,符号化順序において先行する層(例えば、ベース層)の同位置のパラメータの値に依存する。コンテキストモデルの第1のセットは、同位置のパラメータがゼロに等しいときは常に選択され、そうでないときは第2のセットが選択される。言い換えれば、本発明による実施形態は、第2の再構成層のニューラルネットワークパラメータ値、例えばエンハンスメント層のパラメータを、第1の再構成層のニューラルネットワークパラメータ値、例えば符号化順序において先行する層(例えばベース層)における同位置のパラメータの値に対応する確率モデルを用いたコンテキスト適応的エントロピー符号化によってデータストリームに符号化するよう構成された、装置を備える。さらなる実施形態は、第1の再構成層のニューラルネットワークパラメータ値に応じて確率コンテキストセットの集合から確率コンテキストセットを選択することによって、及び、第1の再構成層のニューラルネットワークパラメータ値に応じて選択された確率コンテキストセットの中から使用する確率コンテキストを選択することによって、コンテキスト適応的エントロピー符号化によって第2の再構成層のニューラルネットワークパラメータ値をデータストリームに符号化するように構成される装置を含む。それぞれに、実施形態によるニューラルネットワークパラメータ13を復号化するための装置について、前記装置は、第1の再構成層のニューラルネットワークパラメータ値に対応する確率モデルを用いたコンテキスト適応的エントロピー復号化によってデータストリームから第2の再構成層のニューラルネットワークパラメータ値を復号化するよう構成されることができる。それぞれ、さらなる実施形態は、第1の再構成層のニューラルネットワークパラメータ値に対応する確率コンテキストセットの集合から確率コンテキストセットを選択することによって、及び、第1の再構成層のニューラルネットワークパラメータ値に対応する選択された確率コンテキストセットの中から使用する確率コンテキストを選択することによって、コンテキスト適応的エントロピー復号化によってデータストリームから第2の再構成層のニューラルネットワークパラメータ値を復号化するように構成された、装置を含む。
c) 符号化されるエンハンスメント層のパラメータについて選択されたコンテキストセットは、符号化順序において先行する層(例えば、ベース層)の同位置のパラメータの値に対応する。コンテキストモデルの第1のセットは、同位置のパラメータがゼロより小さい(負)場合は常に選択され、第2のセットは、同位置のパラメータがゼロより大きい(正)場合は選択され、それ以外は第3のセットが選択される。言い換えれば、本発明による実施形態は、例えば、符号化するための装置を含む。確率コンテキストセットの集合は3つの確率コンテキストセットを含む。装置は、第1の再構成層のニューラルネットワークパラメータ値が負の場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、第1の再構成層のニューラルネットワークパラメータ値が正である場合、確率コンテキストセットの集合から第2の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、確率コンテキストセットの集合から第3の確率コンテキストセットを選択された確率コンテキストセットとして選択するよう構成される。それぞれ、実施形態によるニューラルネットワークパラメータ13を復号化するための装置については、確率コンテキストセットの集合は、3つの確率コンテキストセットを含むことができ、装置は、第1の再構成層のニューラルネットワークパラメータ値が負の場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択した確率コンテキストセットとして選択するように構成されることができ、第1の再構成層のニューラルネットワークパラメータ値が正の場合、確率コンテキストセットの集合から第2の確率コンテキストセットを選択した確率コンテキストセットとして選択するように構成されることができ、第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、確率コンテキストセットの集合から第3の確率コンテキストセットを選択した確率コンテキストセットとして選択するよう構成されることができる。
d) 符号化されるエンハンスメント層のパラメータのために選択されるコンテキストセットは、符号化順序において先行する層(例えば,ベース層)の同位置のパラメータの値に対応する。コンテキストモデルの第1のセットは、同位置にあるパラメータの(絶対)値がX(Xはパラメータである)より大きいときは常に選択され、そうでないときは第2のセットが選択される。言い換えれば、本発明による実施形態は装置を含み、確率コンテキストセットの集合は、2つの確率コンテキストセットを含み、装置は、第1の再構成層のニューラルネットワークのパラメータ値、例えば、符号化順序において先行する層(例えば、ベース層)における同位置にあるパラメータの値が所定の値、例えばX、より大きい場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、第1の再構成層のニューラルネットワークパラメータ値が所定値より大きくない場合、確率コンテキストセットの集合から第2の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、あるいは、第1の再構成層のニューラルネットワークパラメータ値の絶対値が所定値より大きい場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、第1の再構成層のニューラルネットワークパラメータ値の絶対値が所定値より大きくない場合、確率コンテキストセットの集合から第2確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成される。それぞれに、実施形態によるニューラルネットワークパラメータ13を復号化するための装置について、確率コンテキストの集合は2つの確率コンテキストセットを含むことができ、装置は、第1の再構成層のニューラルネットワークパラメータ値が所定の値、例えばX、より大きい場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成されることができ、第1の再構成層のニューラルネットワークパラメータ値が所定の値より大きくない場合、確率コンテキストセットの集合から第2の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成されることができ、又は、第1の再構成層のニューラルネットワークパラメータ値の絶対値が所定値より大きい場合、確率コンテキストセットの集合から第1の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成され、第1の再構成層のニューラルネットワークパラメータ値の絶対値が所定値より大きくない場合、確率コンテキストセットの集合から第2の確率コンテキストセットを選択された確率コンテキストセットとして選択するように構成されることができる。
4 依存スカラー量子化を伴うニューラルネットワークパラメータ符号化
このセクションでは、図2~図4の文脈で説明したような、本発明による概念および実施形態に対するさらなる任意の側面および特徴が開示される。
以下では、ニューラルネットワークパラメータ符号化の修正された概念について説明する。先に説明したニューラルネットワークパラメータ符号化に対する主な変更点は、ニューラルネットワークパラメータ13が独立して量子化および再構成されないということである。その代わりに、ニューラルネットワークパラメータ13の許容される再構成レベルは、再構成順序において先行するニューラルネットワークパラメータの選択された量子化インデックス56に対応する。依存スカラー量子化の概念は、ニューラルネットワークパラメータについての確率モデル選択(または、代替的に符号語(コードワード)表選択)が許容される再構成レベルセットに依存する、修正されたエントロピー符号化と組み合わされる。しかしながら、先に説明した実施形態は、以下に説明する特徴のいずれかを別個にまたは組み合わせて使用および/または組み込みおよび/または拡張することができることに留意されたい。
4.1 関連するニューラルネットワークのパラメータ符号化との比較による優位性
ニューラルネットワークパラメータの依存量子化の利点は、許容される再構成ベクトルがN次元信号空間(ここで、Nは、処理されるサンプルのセット、例えば層10a、10bにおけるサンプルまたはニューラルネットワークパラメータ13の数を表す)において密に詰め込まれることである。ニューラルネットワークパラメータセットの再構成ベクトルは、ニューラルネットワークパラメータセットの順序付けられた再構成されたニューラルネットワークパラメータ(または、代替的に、順序付けられた再構成されたサンプル)を指す。依存スカラー量子化の効果を、2つのニューラルネットワークパラメータの最も単純なケースについて図8で説明する。図8は、2つの重みパラメータの単純な場合について、許容される再構成ベクトルの位置の一例を示す図である。図8(a)は独立スカラ量子化の例、図8(b)は依存スカラ量子化の例である。図8aは、独立スカラ量子化の場合の許容再構成ベクトル201(2次元平面上の点を表す)を示している。見て分かるように、第2のニューラルネットワークパラメータt1’13に対する許容値のセットは、第1の再構成されたニューラルネットワークパラメータt0’13に対する選択された値には依存しない。図8(b)は、依存スカラー量子化の例を示す。独立スカラー量子化とは対照的に、第2のニューラルネットワークパラメータt1’13に対して選択可能な再構成値は、第1のニューラルネットワークパラメータt0’13に対して選択された再構成レベルに依存することに注意されたい。図8bの例では、第2のニューラルネットワークパラメータt1’13に対する利用可能な再構成レベルの2つの異なるセット52が存在する(異なる色で図示されている)。第1のニューラルネットワークパラメータt0’13に対する量子化インデックス56が偶数(...,-2,0,2,...)であれば、第1のセット(青い点)の任意の再構成レベル201aを第2のニューラルネットワークパラメータt1’13に対して選択することが可能である。そして、第1のニューラルネットワークパラメータt0’に対する量子化インデックス56が奇数(...,-3,-1,1,3,...)であれば、第2のセット(赤色点)の任意の再構成レベル201bを第2のニューラルネットワークパラメータt1’13に対して選択することが可能である。この例では、第1セットと第2セットの再構成レベルは、量子化ステップサイズの半分だけシフトされる(第2セットの任意の再構成レベルは、第1セットの2つの再構成レベルの間に位置する)。
ニューラルネットワークパラメータ13の依存スカラー量子化は、N次元単位体積あたりの再構成ベクトル201の所定の平均数に対して、ニューラルネットワークパラメータ13の所定の入力ベクトルと最も近い利用可能な再構成ベクトルとの間の距離の期待値が低減されるという効果を有する。その結果、ニューラルネットワークパラメータの入力ベクトルとベクトル再構成されたニューラルネットワークパラメータとの間の平均歪みは、所与の平均ビット数に対して低減され得る。ベクトル量子化では、この効果をスペースフィリングゲイン(space-filling gain)と呼んでいる。ニューラルネットワークパラメータセット13に対して依存スカラー量子化を用いると、高次元ベクトル量子化の潜在的なスペースフィリングゲインの大部分を利用することができる。そして、ベクトル量子化とは対照的に、再構成プロセス(または復号化プロセス)の実装複雑度は、独立スカラ量子化器を用いた関連するニューラルネットワークパラメータ符号化の実装複雑度に匹敵する。
4.2 概要
主な変更点は、前述したように依存量子化である。再構成順序インデックスk>0の再構成されたニューラルネットワークパラメータtk’13は、関連する量子化インデックスqk56だけでなく、再構成順序において先行するニューラルネットワークパラメータの量子化インデックスq0,q1・・・,qk-1にも依存することになる。なお、依存量子化では、ニューラルネットワークパラメータ13の再構成順序を一意に定めなければならない。量子化インデックスqk56に関連する再構成レベルセットに関する知識もエントロピー符号化において利用される場合、ニューラルネットワーク符号化全体の性能は、典型的に改善され得る。つまり、ニューラルネットワークパラメータに適用される再構成レベルセットに基づいて、コンテキスト(確率モデル)またはコードワード表を切り替えることが典型的には好ましい。
エントロピー符号化は、通常、エントロピー復号化プロセスが与えられると一意に規定される。しかし、関連するニューラルネットワークパラメータ符号化と同様に、オリジナルのニューラルネットワークパラメータを与えられた量子化インデックスの選択には多くの自由度が存在する。
本明細書に記載された実施形態は、層単位ニューラルネットワーク符号化に限定されない。任意の有限のニューラルネットワークパラメータ13の集合のニューラルネットワークパラメータ符号化にも適用可能である。
特に、本方法は、sec.3.1で説明したようなサブ層にも適用することができる。
4.3 ニューラルネットワークパラメータの依存量子化
ニューラルネットワークパラメータ13の依存量子化とは、ニューラルネットワークパラメータ13のために利用可能な再構成レベルセットが、再構成順序において(例えば層またはサブ層のようなニューラルネットワークパラメータの同じセットの内部において)先行するニューラルネットワークパラメータに対する選ばれた量子化インデックスに依存する概念をいう。
好ましい実施形態では、再構成レベルの複数のセットが予め定義され、符号化順序において先行するニューラルネットワークパラメータの量子化インデックスに基づいて、予め定義されたセットのうちの1つが、現在のニューラルネットワークパラメータを再構成するために選択される。言い換えれば、実施形態による装置は、現在のニューラルネットワークパラメータ13に対して、以前の、例えば先行するニューラルネットワークパラメータに対する量子化インデックス(58)に応じて、複数50の再構成レベルセット52のうち再構成レベルセット48を選択するように構成されることができる。
再構成レベルのセットを定義するための好ましい実施形態は、4.3.1節で説明されている。選択された再構成レベルの識別とシグナリングは、4.3.2節に記載されている。4.3.3節では、(再構成順序において先行するニューラルネットワークパラメータの選択された量子化インデックスに基づいた)現在のニューラルネットワークパラメータについての再構成レベルの事前定義されたセットの1つを選択するための好ましい実施形態について説明する。
4.3.1 再構成レベルセット
好ましい実施形態では、現在のニューラルネットワークパラメータのための許容される再構成レベルセットは、再構成レベルの予め定義されたセット52の集合(2つ以上のセット、例えば図2および図3からのセット0およびセット1)の中から(符号化順序において先行するニューラルネットワークパラメータの量子化インデックスに基づいて)選択される。
好ましい実施形態では、パラメータが量子化ステップサイズΔ(QP)を決定し、すべての(再構成レベルのすべてのセットにおける)再構成レベルが量子化ステップサイズΔの整数倍を表す。しかし、再構成レベルの各セットが量子化ステップサイズΔ(QP)の整数倍のサブセットのみを含むことに留意されたい。このような依存量子化のための構成は、再構成レベルのすべてのセットについて可能なすべての再構成レベルが量子化ステップサイズ(QP)の整数倍を表すものであり、均一再構成量子化器(URQs)の拡張と考えることができる。その基本的な利点は、再構成されたニューラルネットワークパラメータ13が非常に低い計算複雑度を有するアルゴリズムによって計算され得ることである(より詳細に後述される)。
再構成レベルセットは完全に不連続であることができるが、1つ以上の再構成レベルが複数のセットに含まれることも可能である(ただし、セットは他の再構成レベルにおいて依然として異なる)。
好ましい実施形態では、ニューラルネットワークパラメータのための依存スカラー量子化は、再構成レベルのちょうど2つの異なるセット、例えばセット0とセット1とを使用する。そして、特に好ましい実施形態では、ニューラルネットワークパラメータtk13に対する2つのセットのすべての再構成レベルは、このニューラルネットワークパラメータ13に対する量子化ステップサイズΔk(QP)の整数倍を表している。なお、量子化ステップサイズΔk(QP)は、両セットの許容再構成値に対するスケーリングファクタを表しているに過ぎない。再構成レベルの同じ2つのセットは、すべてのニューラルネットワークパラメータ13に対して使用される。
図9では、2セットの再構成レベル(セット0とセット1)に対する3つの好ましい構成((a)~(c))が図示されている。図9は、単一の量子化ステップサイズΔ(QP)により完全に決定される再構成レベルの2つのセットを有する依存量子化の例を示す。再構成レベルの2つの利用可能なセットは、異なる色で強調されている(セット0は青、セット1は赤)。セット内の再構成レベルを示す量子化インデックスの例は、円の下の数字で示されている。中空と塗りつぶしの円は、再構成レベルセット内の2つの異なるサブセットを示し、サブセットは再構成順序において次のニューラルネットワークパラメータの再構成レベルセットを決定するために使用することができる。図には、2つの再構成レベルセットを持つ3つの好ましい構成が示されている:(a)2つのセットは不一致でゼロに関して対称である、(b)両方のセットはゼロに等しい再構成レベルを含むがそれ以外は不一致で、セットはゼロの周りで非対称である、(c)両方のセットはゼロに等しい再構成レベルを含むがそれ以外は不一致で、どちらのセットもゼロの周りで対称的である。なお、すべての再構成レベルは、量子化ステップサイズΔの整数倍(IV)で与えられるグリッド上に存在する。さらに、特定の再構成レベルは両方のセットに含まれる可能性があることに注意する必要がある。
図9(a)に描かれた2つのセットは不連続である。量子化ステップサイズΔ(QP)の各整数倍は、どちらかのセットにのみ含まれる。第1のセット(セット0)は量子化ステップサイズのすべての偶数整数倍(IV)を含むが、第2のセット(セット1)は量子化ステップサイズのすべての奇数整数倍を含む。両セットとも、隣接する2つの再構成レベル間の距離は、量子化ステップサイズの2倍である。これらの2つのセットは、通常、高レート量子化、すなわち、ニューラルネットワークパラメータの分散(variance、平方偏差)が量子化ステップサイズ(QP)よりも著しく大きい設定のものに適している。しかし、ニューラルネットワークのパラメータ符号化では、量子化器は通常、低レート領域で動作する。典型的には、多くのオリジナルのニューラルネットワークパラメータ13の絶対値は、量子化ステップサイズ(QP)の任意のゼロでない倍数よりもゼロに近い値である。その場合、ゼロが両方の量子化セット(再構成レベルセット)に含まれると、典型的には好ましい。
図9(b)に示す2つの量子化セットは、いずれもゼロを含む。セット0では、ゼロに等しい再構成レベルとゼロより大きい第1の再構成レベルとの間の距離は、量子化ステップサイズ(QP)に等しく、隣接する2つの再構成レベル間の他のすべての距離は、量子化ステップサイズの2倍に等しい。同様に、セット1では、ゼロに等しい再構成レベルとゼロより小さい第1の再構成レベルとの間の距離は、量子化ステップサイズに等しく、一方、2つの隣接する再構成レベル間の他のすべての距離は、量子化ステップサイズの2倍に等しくなる。両再構成セットは、ゼロの周りで非対称であることに注意が必要である。これは符号の確率を正確に推定することが困難になるため、非効率になる可能性がある。
再構成レベルの2つのセットに関する好ましい構成を図9(c)に示す。第1の量子化セット(図ではセット0と表示)に含まれる再構成レベルは、量子化ステップサイズの偶数整数倍を表す(このセットは、実際には図9(a)のセット0と同じであることに注意)。第2の量子化セット(図ではセット1と表示)は、量子化ステップサイズのすべての奇数整数倍を含み、さらに再構成レベルが0に等しい。なお、どちらの再構成セットもゼロについて対称である。ゼロに等しい再構成レベルは両方の再構成セットに含まれ、そうでなければ再構成セットは不連続である。両再構成セットの組み合わせは、量子化ステップサイズのすべての整数倍を含む。
言い換えれば実施形態によれば、例えばニューラルネットワークパラメータ13を符号化/復号化するための装置からなり、複数50の再構成レベルセット52の数は2(例えばセット0、セット1)であり、複数の再構成レベルセットは、ゼロおよび所定の量子化ステップサイズの偶数倍を含む第1の再構成レベルセット(セット0)、およびゼロおよび所定の量子化ステップサイズの奇数倍を含む第2の再構成レベルセット(セット1)含む。
さらに、すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズ(QP)の整数倍(IV)を表してもよく、実施形態による、例えばニューラルネットワークパラメータ13を復号化するための装置は、各ニューラルネットワークパラメータについて、中間整数値、例えば、それぞれのニューラルネットワークパラメータについて選択された再構成レベルセットおよびそれぞれのニューラルネットワークパラメータ13’についてのエントロピー復号化量子化インデックス58に応じた整数倍(IV)
を導出することによって、及び、それぞれのニューラルネットワークパラメータ13について、それぞれのニューラルネットワークパラメータの中間値をそれぞれのニューラルネットワークパラメータ13についての所定の量子化ステップサイズに乗じることによって、ニューラルネットワークパネル13を逆量子化するよう構成されることがある。
それぞれ、すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズ(QP)の整数倍(IV)を表してもよく、装置、例えば、実施形態によれば、ニューラルネットワークパラメータ13を符号化するために、各ニューラルネットワークパラメータについて、それぞれのニューラルネットワークパラメータの選択された再構成レベルセットとそれぞれのニューラルネットワークパラメータのエントロピー符号化量子化インデックスとに応じた中間整数値を導出することによって、及び、それぞれのニューラルネットワークパラメータについて、それぞれのニューラルネットワークパラメータの中間値をそれぞれのニューラルネットワークパラメータの所定の量子化ステップサイズに乗じることによって、同じものが逆量子化可能になるよう、ニューラルネットワークパネルを量子化するよう構成されることができる。
本明細書で規定する実施形態は、図9に示す構成に限定されるものではない。他の任意の2つの異なる再構成レベルセットを使用することができる。複数の再構成レベルが両方のセットに含まれてもよい。あるいは、両方の量子化セットの組み合わせが、量子化ステップサイズのすべての可能な整数倍を含んでいない可能性がある。さらに、ニューラルネットワークパラメータの依存スカラー量子化には、2つ以上の再構成レベルのセットを使用することが可能である。
4.3.2 選択された再構成レベルのシグナリング
符号化器が許容される再構成レベルの中から選択する再構成レベルは、ビットストリーム14の内部で示されなければならない。従来の独立スカラー量子化と同様に、これは、重みレベルとも呼ばれる、いわゆる量子化インデックス56を用いて実現することができる。量子化インデックス56(または重みレベル)は、量子化セット52の内部(すなわち、再構成レベルのセットの内部)で利用可能な再構成レベルを一意に識別する整数値である。量子化インデックス56は、(任意のエントロピー符号化技術を用いる)ビットストリーム14の一部として復号化器に送られる。復号化器側では、再構成されたニューラルネットワークパラメータ13は、再構成レベルの現在のセット48(これは、符号化/再構成順序において先行する量子化インデックスによって決定される)および現在のニューラルネットワークパラメータ13’に対する送信された量子化インデックス56に基づいて一意に計算することが可能である。
好ましい実施形態では、再構成レベルのセット(または量子化セット)内部の再構成レベルへの量子化インデックス56の割り当ては、次のルールに従う。説明のために、図9の再構成レベルには、関連する量子化インデックス56が付けられている(量子化インデックスは、再構成レベルを表す円の下の数字によって与えられる)。再構成レベルセットが0に等しい再構成レベルを含む場合、0に等しい量子化インデックスは0に等しい再構成レベルに割り当てられる。1に等しい量子化インデックスは、0より大きい最小の再構成レベルに割り当てられ、2に等しい量子化インデックスは、0より大きい次の再構成レベル(すなわち、0より大きい2番目に小さい再構成レベル)に割り当てられる、等々である。あるいは、言い換えれば、0より大きい再構成レベルには、その値の昇順において0より大きい整数値で(すなわち、1、2、3などで)ラベル付けされる。同様に、量子化インデックス-1は、0より小さい最大の再構成レベルに割り当てられ、量子化インデックス-2は、0より小さい次の(すなわち、2番目に大きい)再構成レベルに割り当てられる、等である。または、言い換えると、0より小さい再構成レベルには、値の降順において0より小さい整数値(つまり、-1、-2、-3など)がラベル付けされる。図9の例では、(0に等しい再構成レベルを含まない)図9(a)のセット1を除くすべての量子化セットについて、説明した量子化インデックスの割り当てを例示している。
0に等しい再構成レベルを含まない量子化セットに対して、量子化インデックス56を再構成レベルに割り当てる方法の1つは、以下の通りである。0より大きい全ての再構成レベルには(値の昇順において)0より大きい量子化インデックスを割り当て、0より小さい全ての再構成レベルには(値の降順において)0より小さい量子化インデックスを割り当てる。したがって、量子化インデックス56の割り当ては、基本的に0に等しい再構成レベルを含む量子化セットと同じ概念に従うが、0に等しい量子化インデックスが存在しない点が異なる(図9(a)の量子化セット1のラベルを参照)。量子化インデックス56のエントロピー符号化では、その点を考慮する必要がある。例えば、量子化インデックス56は、その絶対値(0からサポートされる最大値までの範囲)を符号化し、0に等しくない絶対値については、量子化インデックス56の符号を付加的に符号化することによって送信されることが多い。0に等しい量子化インデックス56がない場合、エントロピー符号化は、絶対レベルから1を引いた値が送信され(対応するシンタックス要素の値は0から最大サポート値までの範囲)、符号が常に送信されるように修正され得る。代替案として、量子化インデックス56を再構成レベルに割り当てるための割り当てルールが修正され得る。例えば、0に近い再構成レベルの1つは、0に等しい量子化インデックスでラベル付けされ得る。そして、残りの再構成レベルは、以下のルールによってラベル付けされる。0に等しい量子化インデックスを持つ再構成レベルより大きい再構成レベルには、0より大きい量子化インデックスが割り当てられる(量子化インデックスは再構成レベルの値と共に増加する)。そして、0より小さい量子化インデックスは、量子化インデックスが0に等しい再構成レベルより小さい再構成レベルに割り当てられる(量子化インデックスは、再構成レベルの値と共に減少する)。このような割り当ての一つの可能性を、図9(a)の括弧内の数字で示す(括弧内の数字が与えられていない場合は、他の数字が適用される)。
上述のように、好ましい実施形態では、再構成レベルの2つの異なるセット(これを量子化セットとも呼ぶ)が使用され、両方のセットの内部の再構成レベルは、量子化ステップサイズ(QP)の整数倍を表す。それは、量子化ステップサイズが、層ベースで(例えば、ビットストリーム14の内部に層量子化パラメータを送信することによって)、またはニューラルネットワークパラメータ13の別の有限セット(例えば、ブロック)で(例えば、ビットストリーム14の内部にブロック量子化パラメータを送信することによって)変更される、場合を含んでいる。
量子化ステップサイズ(QP)の整数倍を表す再構成レベルの使用は、復号化器側でのニューラルネットワークパラメータ13の再構成のための計算量の少ない複雑なアルゴリズムを可能にする。これを図9(c)の好ましい例に基づいて以下に説明する(他の構成、特に図9(a)および図9(b)に示す設定についても同様の単純なアルゴリズムが存在する)。図9(c)に示す構成では、第1の量子化セットは量子化ステップサイズ(QP)のすべての偶数整数倍を含み、第2の量子化セットは量子化ステップサイズのすべての奇数整数倍に0に等しい再構成レベルを加えたもの(これは両方の量子化セットに含まれる)が含まれる。ニューラルネットワークパラメータの再構成プロセスは、図10の疑似コードで規定されるアルゴリズムと同様に実装され得る。図10は、ニューラルネットワークパラメータ13の再構成プロセスに関する好ましい例を示す擬似コードである。kは現在のニューラルネットワークパラメータ13’の再構成順序を指定するインデックスを表し、現在のニューラルネットワークパラメータの量子化インデックス56はlevel[k]210で表し、現在のニューラルネットワークパラメータ13’に適用する量子化ステップサイズΔk(QP)はquant_step_size[k]で表し、trec[k]220は再構成したニューラルネットワークのパラメータtk’の値を表している。変数setId[k]240は、現在のニューラルネットワークパラメータ13’に適用される再構成レベルのセットを指定する。それは、再構成順序において先行するニューラルネットワークパラメータに基づいて決定される;setId[k]の可能な値は0及び1である。変数nは、量子化ステップサイズ(QP)の整数係数、例えば中間値IVを規定する。;それは、選択された再構成レベのセット(すなわちsetId[k]の値)及び送信された量子化インデックスレベル[k]により与えられる。
Figure 2023507502000012
そして、第2の量子化セットを使用する場合、変数nは、量子化インデックスlevel[k]の2倍から量子化インデックスの符号関数sign(level[k])を引いた値に等しくなる。この場合は、図9(c)の第2の量子化セットSet1の再構成レベルで表すことができ、Set1は量子化ステップサイズ(QP)の奇数整数倍を全て含む。
(量子化ステップサイズの整数倍を指定する)変数nが決定されると、nに量子化ステップサイズΔkを乗じることによって、再構成されたニューラルネットワークパラメータtk’が求められる。
言い換えれば、複数50の再構成レベルセット52のうち再構成レベルセット52の数は2であってもよく、本発明の実施形態による、例えばニューラルネットワークパラメータ13を復号化および/または符号化するための装置は、以下のようにしてそれぞれのニューラルネットワークパラメータの中間値を導出するように構成され得る。
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが第1のセットである場合、それぞれのニューラルネットワークパラメータに対する量子化インデックスを2倍して、それぞれのニューラルネットワークパラメータに対する中間値を求め;及び、
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが2番目のセットであり、それぞれのニューラルネットワークパラメータの量子化インデックスがゼロに等しい場合、それぞれのサンプルの中間値をゼロに設定し;及び、
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが第2のセットであり、それぞれのニューラルネットワークパラメータに対する量子化インデックスがゼロより大きい場合、それぞれのニューラルネットワークパラメータに対する量子化インデックスを2倍し、その乗算結果から1を引いてそれぞれのニューラルネットワークパラメータに対する中間値を得て、及び、
現在のニューラルネットワークパラメータについての選択された再構成レベルセットが第2のセットであり、それぞれのニューラルネットワークパラメータに対する量子化インデックスがゼロより小さい場合、それぞれのニューラルネットワークパラメータの量子化インデックスを2倍し、その乗算結果に1を加えて、それぞれのニューラルネットワークパラメータの中間値を得る。
4.3.3 ニューラルネットワークパラメータの依存的再構成
4.3.1節および4.3.2節で説明した再構成レベルのセットの選択に加えて、ニューラルネットワークパラメータ符号化における依存スカラー量子化のもう一つの重要な設計側面は、定義された量子化セット(再構成レベルのセット)間の切り替えに使用するアルゴリズムである。使用されるアルゴリズムによって、ニューラルネットワークパラメータ13のN次元空間(したがって、再構成されたサンプルのN次元空間も同様)で達成できる「パッキング密度」が決まる。パッキング密度が高ければ高いほど、最終的に符号化効率が向上する。
次のニューラルネットワークパラメータのための再構成レベルのセットを決定する好ましい方法は、図11に示されるように、量子化セットの分割に基づくものである。図11は、本発明の実施形態による再構成レベルのセットを2つのサブセットに分割するための一例を示す図である。示された2つの量子化セットは、図9(c)の好ましい例の量子化セットである。量子化セット0の2つのサブセットは、「A」及び「B」を用いてラベル付けされ、量子化セット1の2つのサブセットは、「C」及び「D」を用いてラベル付けされている。なお、図11に示す量子化セットは、図9(c)の量子化セットと同じ量子化セットである。2つ(またはそれ以上)の量子化セットのそれぞれは、2つのサブセットに分割される。図11の好ましい例では、第1の量子化セット(セット0と表示)は、2つのサブセット(AおよびBと表示される)に分割され、第2の量子化セット(セット1と表示される)も、2つのサブセット(CおよびDと表示される)に分割される。唯一の可能性ではないにしても、各量子化セットに対する分割は、好ましくは、直接隣接する再構成レベル(したがって、隣接する量子化インデックス)が異なるサブセットと関連付けられるように行われる。好ましい実施形態では、各量子化セットは、2つのサブセットに分割される。図9において、量子化セットのサブセットへの分割は、中空および充填された円によって示されている。
図11および図9(c)に示される特に好ましい実施形態では、以下の分割ルールが適用される。
- サブセットAは、量子化セット0のすべての偶数量子化インデックスから構成される。
- サブセットBは、量子化セット0のすべての奇数量子化インデックスから構成される。
- サブセットCは、量子化セット1のすべての偶数量子化インデックスから構成される。
- サブセットDは、量子化セット1のすべての奇数量子化インデックスで構成される。
使用されるサブセットは、典型的には、ビットストリーム14の内部で明示的に示されないことに留意されたい。その代わりに、使用される量子化セット(例えば、セット0またはセット1)および実際に送信された量子化インデックス56に基づいて導出することができる。図11に示す好ましい分割の場合、サブセットは、送信された量子化インデックスレベル及び1のビット単位「and」演算によって導出することができる。サブセットAは、(level&1)が0に等しいセット0のすべての量子化インデックスからなり、サブセットBは、(level&1)が1に等しいセット0のすべての量子化インデックスからなり、サブセットCは、(level&1)が0に等しいセット1のすべての量子化インデックスからなり、サブセットDは、(level&1)が1に等しいセット1のすべての量子化インデックスからなる。
好ましい実施形態では、現在のニューラルネットワークパラメータ13’を再構成するために使用される量子化セット(許容再構成レベルのセット)は、最後の2つ以上の量子化インデックス56に関連付けられるサブセットに基づいて決定される。最後の2つのサブセット(これは最後の2つの量子化インデックスによって与えられる)が使用される例を、表1に示す。この表によって指定される量子化セットの決定は、好ましい実施形態を表す。他の実施形態では、現在のニューラルネットワークパラメータ13’に対する量子化セットは、最後の3つ以上の量子化インデックス56と関連するサブセットによって決定される。層の第1のニューラルネットワークパラメータ(またはニューラルネットワークパラメータのサブセット)については、(先行するニューラルネットワークパラメータがないため)先行するニューラルネットワークパラメータのサブセットに関するデータはない。好ましい実施形態では、このような場合に予め定義された値を使用する。特に好ましい実施形態では、利用可能でない全てのニューラルネットワークパラメータについて、サブセットAを推論する。つまり、第1のニューラルネットワークパラメータを再構成する場合、先行する2つのサブセットを「AA」(又は、先行する3つのニューラルネットワークパラメータを考慮する場合は「AAA」)と推測し、したがって、表1に従って、量子化セット0を使用する。また、2番目のニューラルネットワークパラメータについては、直前の量子化インデックスのサブセットをその値によって決定するが(1番目のニューラルネットワークパラメータについてはセット0が使用されるので、サブセットはAまたはBのいずれか)、2番目の最後の量子化インデックス(これは存在しない)についてのサブセットはAに等しいと推測する。もちろん、存在しない量子化インデックスについてのデフォルト値の推測には他の任意のルールを使用することが可能である。また、存在しない量子化インデックスのデフォルトサブセットを導出するために、他のシンタックス要素を使用することも可能である。さらなる代替案として、初期化のために、ニューラルネットワークパラメータ13の先行するセットの最後の量子化インデックス56を使用することも可能である。
表1:本発明の実施形態による2つの最後の量子化インデックスに関連するサブセットに基づいて、次のニューラルネットワークパラメータに使用される量子化セット(利用可能な再構成レベルのセット)を決定するための例である。サブセットは、左の表の欄に示されており、それらは、(2つの最後の量子化インデックスについての)使用される量子化セットおよび(量子化インデックスのパリティによって決定されてよい)いわゆるパスによって一義的に決定される。量子化セットと、括弧内にはサブセットのためのパスが左から2番目の列にリストアップされている。3列目には、関連する量子化セットを指定する。最後の列には、いわゆる状態変数の値が示されており、量子化セットを決定するためのプロセスを簡略化するために使用することができる。
Figure 2023507502000013
なお、量子化インデックス56のサブセット(A、B、C又はD)は、使用する量子化セット(セット0またはセット1)と量子化セット内部の使用するサブセット(例えば、セット0ならAまたはB、セット1ならCまたはD)により決定されることに注意する必要がある。量子化セットの内部で選択されたサブセットは、(後述するように、依存量子化プロセスをトレリス構造で表現する場合に、パスを指定するため)パスとも呼ばれる。我々の慣例では、パスは0か1のどちらかに等しい。すると、サブセットAはセット0におけるパス0に対応し、サブセットBはセット0におけるパス1に対応し、サブセットCはセット1におけるパス0に対応し、サブセットDはセット1におけるパス1に対応する。したがって、次のニューラルネットワークパラメータの量子化セットも、最後の2つ(またはそれ以上)の量子化インデックスに関連付けられた量子化セット(セット0またはセット1)とパス(パス0またはパス1)によって一意に決定される。表1では、関連する量子化セットとパスが2列目に指定されている。
Figure 2023507502000014
言い換えれば、複数50の再構成レベルセット52のうちの再構成レベルセット52の数は、例えばセット0とセット1との2つであってもよく、本発明の実施形態による、例えばニューラルネットワークパラメータ13を復号化するための装置は、それぞれのニューラルネットワークパラメータについての再構成レベルの選択されたセットとそれぞれのニューラルネットワークパラメータについての量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータについてサブセットインデックスを導き、結果として4つの可能な値、例えばサブセットインデックスについてA、B、C、またはDを得ることができ、現在のニューラルネットワークパラメータ13’について、以前に復号化されたニューラルネットワークパラメータについてのサブセットインデックスに応じて、複数50の再構成レベルセット52のうち再構成レベルのセット48を選択するように構成することができる。
本発明によるさらなる実施形態は、現在のニューラルネットワークパラメータ13’について、例えば表1の1列目に示すように、直前に復号化された多数のニューラルネットワークパラメータのサブセットインデックスに対応する選択ルールを使用して、複数50の再構成レベルセット5)のうち再構成レベルセット48を選択54し、ニューラルネットワークパラメータのすべて、または一部について選択ルールを使用するように構成される装置である。
さらなる実施形態によれば、選択ルールが対応する、直前に復号化されたニューラルネットワークパラメータの数は2つであり、例えば表1に示すように、2つの最後の量子化インデックスのサブセットである。
追加の実施形態によれば、各ニューラルネットワークパラメータのサブセットインデックスは、それぞれのニューラルネットワークパラメータについての再構成レベルの選択されたセットと、それぞれのニューラルネットワークパラメータについての量子化インデックスの、例えばpath=(level[k]&1)を用いたパリティに基づいて導出される。
それぞれ、実施形態によるニューラルネットワークパラメータ13を符号化するための装置については、複数50の再構成レベルセット52の再構成レベルセット52の数は、例えばセット0とセット1との2つであってよく、装置は、それぞれのニューラルネットワークパラメータのための再構成レベルの選択されたセットとそれぞれのニューラルネットワークパラメータについての量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータのためのサブセットインデックスを導出して、サブセットインデックスについて4つの可能な値、例えば、A、B、C、Dを生じさせ、現在のニューラルネットワークパラメータ13’に対して、以前に符号化されたニューラルネットワークパラメータについてのサブセットインデックスに応じて複数50の再構成レベルセット52のうちの再構成レベルセット48を選択54するように構成することができる。
本発明によるさらなる実施形態は、現在のニューラルネットワークパラメータ13’について、例えば表1の第1列に示すように、直前に符号化された多数のニューラルネットワークパラメータのサブセットインデックスに対応する選択ルールを用いて、複数50の再構成レベルセット52のうち再構成レベルのセット48を選択54し、ニューラルネットワークパラメータのすべて、または一部について選択ルールを用いるよう構成される装置を備える。
さらなる実施形態によれば、選択ルールが対応する、直前に符号化されたニューラルネットワークパラメータの数は2であり、例えば表1に示すように、2つの最後の量子化インデックスのサブセットである。
追加の実施形態によれば、各ニューラルネットワークパラメータについてのサブセットインデックスは、それぞれのニューラルネットワークパラメータについての再構成レベルの選択されたセットと、それぞれのニューラルネットワークパラメータの量子化インデックスのパリティ、例えばpath=(level[k]&1)を使用して、導出される。
量子化セット52(セット0とセット1)の間の遷移は、状態変数によってエレガントに表現することも可能である。そのような状態変数の例を表1の最後の列に示す。この例では、状態変数は4つの可能な値(0、1、2、3)を有する。一方、状態変数は、現在のニューラルネットワークパラメータ13’に使用される量子化セットを指定する。表1の好ましい例では、状態変数が0または2に等しい場合にのみ、量子化セット0が使用され、状態変数が1または3に等しい場合にのみ、量子化セット1が使用される。一方、状態変数は、量子化セット間の可能な遷移も指定する。状態変数を用いることで、表1のルールをより小さな状態遷移表で記述することができる。一例として、表2は、表1で与えられたルールの状態遷移表を規定したものである。これは、好ましい実施形態を表している。現在の状態を指定して、現在のニューラルネットワークのパラメータ(2列目)に量子化セットを規定した。それはさらに、選択された量子化インデックス56に関連するパスに基づいて状態遷移を指定する(パスは、量子化セットが与えられた場合、使用されるサブセットA、B、C、またはDを指定する)。状態変数の概念を使用することによって、実際に選択されたサブセットを追跡する必要がないことに留意されたい。ある層のニューラルネットワークのパラメータを再構築する際には、状態変数を更新し、使用される量子化インデックスのパスを決定すれば十分である。
表2:本発明の実施形態による、4つの状態を有する構成の状態遷移表の好ましい例。
Figure 2023507502000015
つまり、実施形態によるニューラルネットワークパラメータを復号化するための装置であって、当該装置は、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、複数50の再構成レベルセット52のうちの量子化レベルのセット48を決定することによって、及び、直前のニューラルネットワークパラメータのデータストリームから復号化された量子化インデックス58に応じて後続のニューラルネットワークパラメータの状態を更新することによって、現在のニューラルネットワークパラメータ13’について、状態遷移プロセスにより複数50の再構成レベルセット52のうちの再構成レベルセット48を選択54にように構成されることができる。
それぞれ、実施形態によるニューラルネットワークパラメータ13を符号化するための装置について、前記装置は、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、複数50の再構成レベルセット52のうちの再構成レベルのセット48を決定することによって、及び、直前のニューラルネットワークパラメータのデータストリームに符号化された量子化インデックス58に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、現在のニューラルネットワークパラメータ13’について、状態遷移プロセスによって複数50の再構成レベルセット52のうちの再構成レベルのセット48を選択54するように構成されてもよい。
Figure 2023507502000016
言い換えれば、実施形態による、例えばニューラルネットワークパラメータを復号化するための装置は、直前のニューラルネットワークパラメータについてのデータストリームから復号化された量子化インデックス58の2値関数を用いて、例えば表2に従って、後続のニューラルネットワークパラメータの状態を更新するよう構成されることができる。
さらに、実施形態による装置は、直前のニューラルネットワークパラメータについてのデータストリーム14から復号化された量子化インデックス58のパリティ、例えばpath=(level[k]&1)を使用して、後続のニューラルネットワークパラメータのための状態を更新するように構成されることができる。
それぞれ、実施形態によるニューラルネットワークパラメータ13を符号化するための装置について、当該装置は、直前のニューラルネットワークパラメータについてのデータストリームに符号化された量子化インデックス58の2値関数を用いて、後続のニューラルネットワークパラメータについての状態を更新するように構成されることができる。
さらに、実施形態による例えばニューラルネットワークパラメータ13を符号化するための装置は、直前のニューラルネットワークパラメータについてのデータストリームに符号化された量子化インデックス58のパリティを用いて、後続のニューラルネットワークパラメータについての状態を、例えば表2に従って更新するように構成されることができる。
好ましい実施形態では、4つの可能な値を有する状態変数が使用される。他の実施形態では、異なる数の可能な値を有する状態変数が使用される。特に興味深いのは、状態変数の可能な値の数が2の整数乗、すなわち、4、8、16、32、64などを表す状態変数である。(表1および表2で与えられるように)好ましい構成において、4つの可能な値を有する状態変数は、現在の量子化セットが2つの最後の量子化インデックスのサブセットによって決定されるアプローチと同等であることに注意されたい。8つの可能な値を持つ状態変数は、現在の量子化セットが3つの最後の量子化インデックスのサブセットによって決定される同様のアプローチに対応する。16個の可能な値を持つ状態変数は、現在の量子化セットが最後の4つの量子化インデックスのサブセットによって決定されるアプローチに対応する。一般に、2の整数乗に等しい可能な値の数を有する状態変数を使用することが好ましいにもかかわらず、実施形態は、この設定に限定されない。
特に好ましい実施形態では、8つの可能な値(0、1、2、3、4、5、6、7)を有する状態変数が使用される。好ましい例の表3では、状態変数が0、2、4または6に等しい場合にのみ、量子化セット0が使用され、状態変数が1、3、5または7に等しい場合にのみ、量子化セット1が使用される。
実施形態による、8つの状態を有する構成の状態遷移表の好ましい例である。
Figure 2023507502000017
すなわち、本発明の実施形態によれば、状態遷移プロセスにおいて、4つ又は8つの可能な状態の間で遷移するように構成される。
さらに、実施形態による、ニューラルネットワークパラメータ13を復号化/符号化するための装置は、状態遷移プロセスにおいて、偶数の可能な状態の間で遷移し、複数50の再構成レベルセット52の数が2であるように構成されることができ、ここで、現在のニューラルネットワークパラメータ13’について、現在のニューラルネットワークパラメータ13’に関連する状態に応じて、量子化セット52のうちの量子化レベルのセット48を決定することで、状態が偶数の可能な状態の前半に属する場合、複数50の再構成レベルセット52のうちの第1の再構成レベルセットが決定され、状態が偶数の可能な状態の後半に属する場合、複数50の再構成レベルセット52のうちの第2の再構成レベルセットが決定される。
さらなる実施形態による、例えばニューラルネットワークパラメータ13を復号化するための装置は、直前のニューラルネットワークパラメータのデータストリームから復号化された量子化インデックス58の状態およびパリティの組み合わせを、後続のニューラルネットワークパラメータに関連する別の状態上にマッピングする遷移表によって、状態の更新を実行するように構成されてもよい。
それに応じて、実施形態によるニューラルネットワークパラメータ13を符号化するための装置は、直前のニューラルネットワークパラメータについてのデータストリームに符号化された量子化インデックス58の状態とパリティとの組み合わせを後続のニューラルネットワークパラメータに関連する別の状態にマッピングする遷移表によって状態の更新を行うように構成されることができる。
状態遷移の概念を用いると、現在の状態、ひいては現在の量子化セットは、(再構成順序において)以前の状態と以前の量子化インデックス56によって一意に決定される。しかし、有限集合(例えば層)の第1のニューラルネットワークパラメータ13については、以前の状態および以前の量子化インデックスが存在しない。したがって、ある層の第1のニューラルネットワークパラメータに対する状態が一意に定義されることが要求される。さまざまな可能性がある。好ましい選択肢は以下の通りである。
・層のための第1の状態は、固定された事前定義された値に常に等しく設定される。好ましい実施形態では、第1の状態は0に等しく設定される。
・第1の状態の値は、ビットストリーム14の一部として明示的に送信される。これは、可能な状態値のサブセットのみが対応するシンタックス要素によって示され得るアプローチを含む。
・第1の状態の値は、その層の他のシンタックス要素に基づいて導出される。つまり、対応するシンタックス要素(またはシンタックス要素)が復号化器への他の態様のシグナリングに使用されても、それらは、依存スカラー量子化のための第1の状態を導出するために追加的に使用されることを意味する。
依存スカラー量子化の状態遷移の概念は、復号化器におけるニューラルネットワークパラメータ13の再構成のための複雑さが少ない実装を可能にする。単層のニューラルネットワークパラメータの再構成プロセスに関する好ましい例を、C言語形式の擬似コードを用いて図12に示す。図12は、本発明の実施形態による層のニューラルネットワークパラメータ13の再構成プロセスのための好ましい例を示す擬似コードの一例である。なお、量子化インデックスの導出と、例えば量子化ステップサイズを用いた、あるいは代替的にコードブックを用いた再構成値の導出は、次々と別々のループで行われてもよい。すなわち、言い換えれば、「n」の導出と状態更新を第1のループで行い、「trec」の導出をもう1つの別の第2のループで行うようにすることができる。アレイレベル(array level)210は、その層の送信されたニューラルネットワークパラメータレベル(量子化インデックス56)を表し、アレイtrec(array trec)220は、対応する再構成されたニューラルネットワークパラメータ13を表す。現在のニューラルネットワークパラメータ13’に適用される量子化ステップサイズΔk(QP)は、quant_step_size[k]で示される。2d表sttab(2d table sttab)230は、例えば表1、表2及び/又は表3のいずれかに従って状態遷移表を指定し、表setId(table setId)240は、状態250に関連付けられる量子化セットを指定する。
図12の擬似コードにおいて、インデックスkは、ニューラルネットワークパラメータの再構成順序を指定する。最後のインデックスlayerSizeは、最後に再構成されたニューラルネットワークパラメータの再構成インデックスを指定する。変数layerSizeは、層内のニューラルネットワークパラメータの数と等しく設定されてもよい。各単一のニューラルネットワークパラメータの再構成プロセスは、図10の例と同じである。図10の例と同様に、量子化インデックスはlevel[k]210で表され、関連する再構成されたニューラルネットワークパラメータはtrec[k]220で表される。また、状態変数は状態(state)210で表される。図12の例では、状態は、層の始めに0に等しく設定されることに留意されたい。しかし、上述したように、他の初期化(例えば、いくつかのシンタックス要素の値に基づいて)も可能である。1d表setId[](1d table setId[])240は、状態変数の異なる値に関連付けられる量子化セットを指定し、2d表sttab[][](2d table sttab[][])230は、現在の状態(第1の引数)およびパス(第2の引数)を与えられた状態遷移を指定する。この例では、パスは(ビット単位と演算子&を使用する)量子化インデックスのパリティで与えられるが、他の概念も可能である。C言語スタイルのシンタックスにおいて、表の例を図13と図14に示す(これらの表は表2、表3と同一であり、言い換えれば、表2、表3の表現を提供することができる)。
図13は、本発明の実施形態による状態遷移表sttab230と、状態250に関連する量子化セットを指定する表setId240についての好ましい例を示す図である。Cスタイルのシンタックスで与えられた表は、表2に規定された表を表す。
図14は、本発明の実施形態による状態遷移表sttab230と、状態250に関連する量子化セットを指定する表setId240に関する好ましい例を示す図である。Cスタイルのシンタックスで与えられた表は、表3に規定された表を表している。
別の実施形態では、0に等しいすべての量子化インデックス56は、状態遷移および依存再構成プロセスから除外される。量子化インデックス56が0に等しいか等しくないかの情報は、ニューラルネットワークパラメータ13を0と0でないニューラルネットワークパラメータに分割するために使用されるだけである。依存スカラー量子化のための再構成プロセスは、ゼロでない量子化インデックス56の順序付けされたセットにのみ適用される。0に等しい量子化インデックスに関連するすべてのニューラルネットワークパラメータは、単に0に等しく設定される。対応する擬似コードを図15に示す。図15は、本発明の実施形態による、0に等しい量子化インデックスが状態遷移および依存スカラー量子化から除外される、ニューラルネットワークパラメータレベルの代替再構成プロセスを示す擬似コードである。
また、依存量子化における状態遷移は、図16に示されるように、トレリス構造を用いて表現することも可能である。図16は、本発明の実施形態によるトレリス構造としての依存スカラー量子化における状態遷移の例を示す図である。横軸は、再構成順序において異なるニューラルネットワークパラメータ13を表している。縦軸は、依存量子化および再構成プロセスにおける異なる可能な状態250を表す。示された接続は、異なるニューラルネットワークパラメータに対する状態間の利用可能なパスを指定する。この図に示されるトレリスは、表2に指定される状態遷移に対応する。各状態250について、現在のニューラルネットワークパラメータ13’に対する状態を、再構成順序において次のニューラルネットワークパラメータ13に対する2つの可能な状態と接続する2つのパスが存在する。パスは、パス0とパス1とでラベル付けされ、この番号は、上で紹介したパス変数に対応する(好ましい実施形態では、そのパス変数は、量子化インデックスのパリティに等しい)。各パスは、量子化インデックスに対するサブセット(A、B、C、またはD)を一意的に指定することに留意されたい。図16では、サブセットは括弧で指定されている。初期状態(例えば状態0)が与えられると、トレリスを通るパスは、送信された量子化インデックス56によって一意的に指定される。
図16の例では,状態(0,1,2,3)は次のような性質を持っている。
・状態0:前の量子化インデックスlevel[k-1]はセット0の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット0の再構成レベルを指定する。
・状態1:前の量子化インデックスlevel[k-1]はセット0の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット1の再構成レベルを指定する。
・状態2:前の量子化インデックスlevel[k-1]はセット1の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット0の再構成レベルを指定する。
・状態3:前の量子化インデックスlevel[k-1]はセット1の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット1の再構成レベルを指定する。
トレリスは、いわゆる基本トレリスセルを連結したものである。このような基本トレリスセルについての一例を図17に示す。図17は、本発明の実施形態に係る基本トレリスセルの一例を示す図である。本発明は、4つの状態250を有するトレリスに限定されないことに留意されたい。他の実施形態では、トレリスは、より多くの状態250を有することができる。特に、2の整数乗を表す任意の数の状態が好適である。特に好ましい実施形態では、状態250の数は、例えば表3と同様に8に等しい。トレリスが2以上の状態250を有する場合でも、現在のニューラルネットワークパラメータ13’のための各ノードは、典型的には、以前のニューラルネットワークパラメータ13のための2つの状態および次のニューラルネットワークパラメータ13の2つの状態と接続される。しかしながら、ノードが、以前のニューラルネットワークパラメータの2つ以上の状態、または次のニューラルネットワークパラメータの2つ以上の状態と接続されることも可能である。完全に接続されたトレリス(各状態250は、以前のニューラルネットワークパラメータ13のすべての状態250および次のニューラルネットワークパラメータ13のすべての状態250と接続されている)は、独立したスカラー量子化に対応するであろうことに留意されたい。
好ましい実施形態では、(この決定を復号化器に送信するために、何らかのサイド情報レートを必要とするため)初期状態を自由に選択することはできない。その代わりに、初期状態は、予め定義された値に設定されるか、またはその値が他のシンタックス要素に基づいて導出されるかのいずれかである。この場合、第1のニューラルネットワークパラメータに対して、すべてのパスと状態250が利用できるわけではない。4状態のトレリスの例として、図18は、初期状態が0に等しい場合のトレリス構造を示す。図18は、本発明の実施形態による8個のニューラルネットワークパラメータの依存スカラー量子化のためのトレリス例を示す図である。第1の状態(左側)は、初期状態を表し、この例では0に等しく設定されている。
4.4 エントロピー符号化
依存量子化によって得られた量子化インデックスは、エントロピー符号化方式によって符号化される。これには、任意のエントロピー符号化法が適用可能である。本発明の好ましい実施形態では、コンテキスト適応的2値算術符号化(CABAC)を用いた、第2.2節(符号化方法については第2.2.1節、復号化方法については第2.2.2節参照)によるエントロピー符号化方法が適用される。このために、例えば図5に示すように、量子化インデックスを絶対値として送信するために、まず非2値が一連の2値決定(いわゆるビン)上にマッピングされる(2値化)。
ここで説明したどの概念も、3節における方法と関連する概念(特にコンテキストモデリング(context modelling)に関するもの)と組み合わせることができることに留意する必要がある。
4.4.1 依存スカラー量子化のコンテキストモデリング
依存スカラー量子化の主な態様は、ニューラルネットワークパラメータ13のための許容される再構成レベルの異なるセット(量子化セットとも呼ばれる)が存在することである。現在のニューラルネットワークパラメータ13’に対する量子化セットは、先行するニューラルネットワークパラメータに対する量子化インデックス56の値に基づいて決定される。図11の好ましい例を考え、2つの量子化セットを比較すると、ゼロに等しい再構成レベルと隣接する再構成レベルとの間の距離は、セット0においてセット1よりも大きいことは明らかである。したがって、量子化インデックス56が0に等しい確率は、セット0が使用される場合により大きく、セット1が使用される場合により小さくなる。好ましい実施形態では、この効果は、現在の量子化インデックスに使用される量子化セット(または状態)に基づいてコードワード表または確率モデルを切り替えることによって、エントロピー符号化で利用される。
コードワード表または確率モデルの好適な切り替えのために、現在の量子化インデックス(または現在の量子化インデックスの対応する2値決定)をエントロピー復号化するときに、すべての先行する量子化インデックスのパス(使用する量子化セットのサブセットとの関連)が知られていなければならないことに注意されたい。したがって、ニューラルネットワークパラメータ13が再構成順序で符号化されることが必要である。したがって、好ましい実施形態では、ニューラルネットワークパラメータ13の符号化順序は、それらの再構成順序に等しい。その態様のほかに、量子化インデックス56の任意の符号化/再構成順序が可能であり、例えば、2.2.1節で規定した順序は、他の任意の一意的に定義された順序である。
言い換えれば、本発明による実施形態は、例えば、以前に符号化されたニューラルネットワークパラメータの量子化インデックスに追加的に依存する確率モデルを用いて、ニューラルネットワークパラメータを符号化するための装置を含む。
それぞれ、本発明による実施形態は、例えば、ニューラルネットワークパラメータを復号化するための装置であって、以前に復号化されたニューラルネットワークパラメータの量子化インデックスに追加的に依存する確率モデルを使用する装置を含む。
絶対レベルのためのビンの少なくとも一部は、典型的には、適応的な確率モデル(コンテキストとも呼ばれる)を使用して符号化される。本発明の好ましい実施形態では、1つ以上のビンの確率モデルは、対応するニューラルネットワークパラメータの量子化セット(または、より一般的には、対応する状態変数、例えば、表1~3のいずれかによる関係)に基づき選択される。選択された確率モデルは、既に送信された量子化インデックス56の複数のパラメータまたは特性に依存することができるが、パラメータの1つは、符号化される量子化インデックスに適用される量子化セットまたは状態である。
言い換えれば、実施形態による、例えばニューラルネットワークパラメータ13を符号化するための装置は、現在のニューラルネットワークパラメータ13’に対して選択された再構成レベルの状態またはセット48に応じて、複数の確率モデルのうち確率モデルのサブセットを事前に選択し、以前に符号化されたニューラルネットワークパラメータの量子化インデックスに応じて121確率モデルのサブセットのうち現在のニューラルネットワークパラメータの確率モデルを選択するように構成され得る。
実施形態による、例えばニューラルネットワークパラメータ13を復号化するための装置は、現在のニューラルネットワークパラメータ13’に対して選択された再構成レベルの状態またはセット48に応じて、複数の確率モデルのうち確率モデルのサブセットを事前選択し、以前に復号化されたニューラルネットワークパラメータの量子化インデックスに応じて121、確率モデルのサブセットのうち現在のニューラルネットワークパラメータの確率モデルを選択するように構成されてもよい。
例えば図9の文脈で説明したような発明的概念と組み合わせて、例えばニューラルネットワークパラメータ13の符号化および/または復号化のための、本発明による実施形態は、第1の状態または再構成レベルセットに対して事前選択されたサブセットが、任意の他の状態または再構成レベルセットに対して事前選択されたサブセットと非結合であるように、現在のニューラルネットワークパラメータ13’に対して選択された再構成レベルの状態またはセット48に応じて、複数の確率モデルの中から確率モデルのサブセットを事前選択するように構成される装置を含む。
特に好ましい実施形態では、層の量子化インデックスを送信するためのシンタックスは、量子化インデックスが0に等しいか、または0に等しくないかを指定するビン、例えば前述のsig_flagを含む。このビンの符号化に用いる確率モデルは、2つ以上の確率モデルのセットの中から選択される。使用される確率モデルの選択は、対応する量子化インデックス56に適用される量子化セット(即ち、再構成レベルのセット)に依存する。本発明の別の実施形態では、使用される確率モデルは、現在の状態変数に依存する(状態変数は、使用される量子化セットを意味する)。
さらなる実施形態では、層の量子化インデックスを送信するためのシンタックスは、量子化インデックスがゼロより大きいか、ゼロより小さいかを指定するbin、例えば前述のsign_flagを含む。すなわち、binは、量子化インデックスの符号を示す。使用される確率モデルの選択は、対応する量子化インデックスに適用される量子化セット(即ち、再構成レベルのセット)に依存する。別の実施形態では、使用される確率モデルは、現在の状態変数に依存する(状態変数は、使用される量子化セットを意味する)。
さらなる実施形態では、量子化インデックスを送信するためのシンタックスは、量子化インデックスの絶対値(ニューラルネットワークのパラメータレベル)がXより大きいかどうかを指定するビン、例えば前述のabs_level_greater_X(詳細はセクション0を参照)を含んでいる。このビンの符号化に用いる確率モデルは、2つ以上の確率モデルのセットの中から選択される。使用される確率モデルの選択は、対応する量子化インデックス56に適用される量子化セット(即ち、再構成レベルセット)に依存する。別の実施形態では、使用される確率モデルは、現在の状態変数に依存する(状態変数は、使用される量子化セットを意味する)。
本明細書で論じる実施形態の1つの有利な態様は、ニューラルネットワークパラメータ13の依存量子化がエントロピー符号化と組み合わされ、量子化インデックスの2値表現の1つ以上のビン(これは量子化レベルとも呼ばれる)に対する確率モデルの選択が、現在の量子化インデックスに対する量子化セット(許容再構成レベルのセット)または対応する状態変数に依存することである。量子化セット52(または状態変数)は、符号化および再構成順序における先行するニューラルネットワークパラメータの量子化インデックス56(または量子化インデックスを表すビンのサブセット)により与えられる。
好ましい実施形態において、確率モデルの記述された選択は、以下のエントロピー符号化の側面のうちの1つ以上と組み合わされる。
・量子化インデックスの絶対値は、適応型確率モデルを用いて符号化される多数のビンと、適応的に符号化されたビンが既に完全に絶対値を指定していない場合、算術符号化エンジンのバイパスモードで符号化されるサフィックス部分(全ビンに対してpmf(例えば確率質量関数)(0.5、0.5)を有する非適応型確率モデル)と、からなる2値方式を用いて送信される。好ましい実施形態では、サフィックス部分に使用される2値化は、既に送信された量子化インデックスの値に依存する。
・量子化インデックスの絶対値に対する2値化は、量子化インデックスが0に等しくないかどうかを指定する適応的に符号化されたビンを含む。このビンの符号化に用いられる確率モデル(コンテキストと呼ばれる)は、候補確率モデルのセットの中から選択される。選択された候補確率モデルは、現在の量子化インデックス56に対する量子化セット(許容再構成レベルのセット)または状態変数によって決定されるだけでなく、加えて、その層に対する既に送信された量子化インデックスによっても決定される。好ましい実施形態では、量子化セット(または状態変数)は、利用可能な確率モデルのサブセット(コンテキストセットとも呼ばれる)を決定し、既に符号化された量子化インデックスの値は、このサブセット(コンテキストセット)内において使用される確率モデルを決定する。
実施形態では、コンテキストセット内の使用される確率モデルは、現在のニューラルネットワークパラメータの局所近傍における既に符号化された量子化インデックスの値、例えば、2.2.3で説明したようなテンプレートに基づいて決定される。以下では、局所近傍の量子化インデックスの値に基づいて導出され、その後、事前に決定されたコンテキストセットの確率モデルを選択するために使用することができるいくつかの例示的な量(measure)をリストアップする。
・局所近傍で0に等しくない量子化インデックスの符号。
・局所近傍領域で0に等しくない量子化インデックスの数。この数は最大値にクリップ(短縮化)される可能性がある。
・局所近傍における量子化インデックスの絶対値の合計。この数値は最大値にクリップされる可能性がある。
・局所近傍における量子化インデックスの絶対値の合計と、局所近傍における0に等しくない量子化インデックスの数との差。この数値は最大値にクリップされる可能性がある。
言い換えれば、本発明による実施形態は、例えば、現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する以前に符号化されたニューラルネットワークパラメータの量子化インデックスの特性に応じて確率モデルのサブセットから現在のニューラルネットワークパラメータの確率モデルを選択するように構成されたニューラルネットワークパラメータの符号化のための装置を含み、特性は、以下のもののうち1つまたは複数を含む。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計値
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計と、
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
の間の差。
それぞれ、本発明による実施形態は、例えば、ニューラルネットワークパラメータの復号化のための装置である。装置は、確率モデルのサブセットのうち、現在のニューラルネットワークパラメータのための確率モデルを、現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する以前に復号化されたニューラルネットワークパラメータの量子化インデックスの特性に応じて選択するように構成されている。特性は、以下のもののうち1つまたは複数を含む。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計値。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計と、
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
の差。
・量子化インデックスの絶対値に対する2値化は、量子化インデックスの絶対値がXより大きいかどうかを指定する適応的に符号化されたビン、例えばabs_level_greater_Xを含む。これらのビンを符号化するために使用される確率モデル(コンテキストと呼ばれる)は、候補確率モデルのセットの中から選択される。選択された確率モデルは、現在の量子化インデックスに対する量子化セット(許容再構成レベルのセット)または状態変数によって決定されるだけでなく、さらに、例えば前述のようなテンプレートを用いて、層に対する既に送信された量子化インデックスによって決定される。好ましい実施形態では、量子化セット(または状態変数)は、利用可能な確率モデルのサブセット(コンテキストセットとも呼ばれる)を決定し、既に符号化された量子化インデックスのデータは、このサブセット(コンテキストセット)内部で使用される確率モデルを決定する、例えば他の言葉で言えば、決定に用いることが可能である。確率モデルの選択には、上述した方法(量子化インデックスが0に等しくないかどうかを指定するビンの場合)のいずれかを使用することができる。
さらに、本発明による装置は、以前に符号化されたニューラルネットワークパラメータ13が、現在のニューラルネットワークパラメータ13’と同じニューラルネットワーク層に関連するように、以前に符号化されたニューラルネットワークパラメータ13を位置づけるように構成されることができる。
さらに、本発明による例えばニューラルネットワークパラメータを符号化するための装置は、1つ以上の以前に符号化されたニューラルネットワークパラメータが、現在のニューラルネットワークパラメータが参照するニューロン相互接続11が関連するニューロン10cまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続、またはこれらのニューロンに向かうニューロン相互接続に関連するように、以前に符号化されたニューラルネットワークパラメータのうちの1つ以上のパラメータを位置付けるように構成されることができる。
さらなる実施形態による装置は、量子化インデックスを2値化したものの1つ以上のリーディングビン(leading bin)について以前に符号化されたニューラルネットワークパラメータに対応する確率モデルを使用することによって、及び、1つ以上のリーディンビンに続く量子化インデックスを2値化したものの等確率バイパスモードサフィックスビン(equi-probable bypass mode suffix bins)を使用することによって、2値算術符号化を使用して、データストリーム14へ現在のニューラルネットワークパラメータ13’に対する量子化インデックス56を符号化するよう構成されることができる。
量子化インデックスを2値化したもののサフィックスビンは、量子化インデックスの値を2値化するためのサフィックス2値化の2値化コードのビンを表し、その絶対値が1つ以上のリーディングビンで表現できる最大絶対値を超えている場合がある。したがって、本発明の実施形態による装置は、以前に符号化されたニューラルネットワークパラメータ13の量子化インデックス56に応じて、サフィックス2値化を選択するように構成されることができる。
それぞれ、本発明による、例えばニューラルネットワークパラメータを復号化するための装置は、以前に復号されたニューラルネットワークパラメータが、現在のニューラルネットワークパラメータ13’と同じニューラルネットワーク層に関連するように、以前に復号化されたニューラルネットワークパラメータ13を位置付けるように構成されてもよい。
さらなる実施形態によれば、例えば本発明によるニューラルネットワークパラメータを復号化するための装置は、1つ以上の以前に復号化されたニューラルネットワークパラメータが、現在のニューラルネットワークパラメータが参照するニューロン相互接続が関連するニューロン10cまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続、またはこれらのニューロンに向かうニューロン相互接続に関連するように、以前に復号化されたニューラルネットワークパラメータ13のうちの1つ以上のパラメータを位置付けるように構成されることができる。
さらなる実施形態による装置は、量子化インデックスを2値化したものの1つ以上のリーディングビンについて以前に復号化されたニューラルネットワークパラメータに対応する確率モデルを使用することによって、及び、1つ以上のリーディングビンに続く量子化インデックスを2値化したものの等確率バイパスモードサフィックスビンを使用することによって、2値算術符号化を使用してデータストリーム14から現在のニューラルネットワークパラメータ13’に対する量子化インデックス56を復号化するように構成されることができる。
量子化インデックスの2値化のサフィックスビンは、量子化インデックスの値を2値化するためのサフィックス2値化の2値化符号のビンを表し、その絶対値が1つ以上のリーディングビンで表現可能な最大絶対値を超える。したがって、実施形態に従う装置は、以前に復号化されたニューラルネットワークパラメータの量子化インデックスに応じてサフィックス2値化を選択するように構成されることができる。
Figure 2023507502000018
Figure 2023507502000019
言い換えれば、本発明による実施形態は、選択および/または量子化を実行するためにビタビアルゴリズムおよびレート歪みコスト量を使用するように構成された装置を含んでいる。
層のための適切な量子化インデックスを選択するための例示的な符号化アルゴリズムは、以下の主要なステップで構成され得る。
1.初期状態でのレート歪みコストを0に設定する。
2.符号化順序におけるすべてのニューラルネットワークのパラメータ13に対して、次のようにする。
a.各サブセットA、B、C、Dについて、与えられたオリジナルのニューラルネットワークパラメータ13に対する歪みを最小化する量子化インデックス56を決定する。
b.現在のニューラルネットワークパラメータ13’に対する全てのトレリスノード(0、1、2、3)に対して、以下を行う。
i 先行するニューラルネットワークパラメータ13の状態と現在の状態とを結ぶ2つのパスのレート歪みコストを計算する。コストは、先行する状態に対するコストと、Dk+λ・Rkの合計として与えられ、ここで、DkとRkは、考慮される接続に関連するサブセット(A、B、C、D)の量子化インデックスを選択するための歪みとレートを表す。
ii 計算されたコストの最小値を現在のノードに割り当て、最小コストのパスを表さない以前のニューラルネットワークパラメータ13の状態への接続を取り除く。
注:このステップの後、現在のニューラルネットワークパラメータ13’に対するすべてのノードは、先行するニューラルネットワークパラメータ13に対する任意のノードへの単一の接続を有する。
3.(符号化順序における最後のパラメータについての)4つの最終ノードのコストを比較し、コストが最小のノードを選択する。このノードは、トレリスを通るユニークなパスに関連していることに注意(他のすべての接続は以前のステップで取り除かれた)。
4.(最終ノードで指定される)選択したパスを逆順にたどり、トレリスノード間の接続に関連する量子化インデックス56を収集する。
ビタビアルゴリズムに基づく量子化インデックス56の決定は、独立スカラー量子化のためのレート歪み最適化量子化(RDOQ)よりも実質的に複雑ではないことに留意されたい。それにもかかわらず、依存量子化のためのより単純な符号化アルゴリズムも存在する。例えば、予め定義された初期状態(または量子化セット)から開始して、量子化インデックス56は、現在の量子化インデックスの影響のみを考慮する任意のコスト量を最小化することによって、符号化/再構成の順序で決定されることができる。現在のパラメータに対する決定された量子化インデックス(および先行するすべての量子化インデックス)が与えられると、次のニューラルネットワークパラメータ13に対する量子化セットは既知である。そして、したがって、このアルゴリズムは、符号化順序ですべてのニューラルネットワークパラメータに適用することができる。
以下の実施形態による方法は、図20、図21、図22、図23に示されている。
図20は、ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームから復号化するための方法400のブロック図である。方法400は、現在のニューラルネットワークパラメータについて、以前のニューラルネットワークパラメータについてデータストリームから復号化された量子化インデックスに応じて、複数の再構成レベルセットから再構成レベルセットを選択54するステップによって、及び、データストリームから現在のニューラルネットワークパラメータの量子化インデックス420を復号化するステップによって、ここで量子化インデックスが現在のニューラルネットワークパラメータのための再構成レベルの選択されたセットのうちの1つの再構成レベルを示し、及び、現在のニューラルネットワークパラメータのための量子化インデックスによって示される再構成レベルの選択されたセットのうちの1つの再構成レベル上に現在のニューラルネットワークパラメータを逆量子化62するステップによって、ニューラルネットワークパラメータを順次復号化することを含む。
図21は、データストリームからニューラルネットワークを定義するニューラルネットワークパラメータを符号化するための方法500のブロック図である。方法500は、現在のニューラルネットワークパラメータについて、以前に符号化されたニューラルネットワークパラメータについてデータストリームに符号化された量子化インデックスに応じて複数の再構成レベルセットの中から再構成レベルセットを選択54するステップによって、及び、現在のニューラルネットワークパラメータを、選択された再構成レベルのセットのうち1つの再構成レベルに量子化64するステップによって、及び、現在のニューラルネットワークパラメータの量子化インデックスが量子化される1つの再構成レベルを示す現在のニューラルネットワークパラメータの量子化インデックスをデータストリームに符号化530するステップによって、ニューラルネットワークパラメータを連続的に符号化することを含む。
図22は、本発明の実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータを再構築する方法のブロック図である。方法600は、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値をもたらすために、第1の再構成層についての第1のニューラルネットワークパラメータ610を導出するステップを含む。方法600はさらに、データストリームから第2の再構成層の第2のニューラルネットワークパラメータを復号化620(例えば図6の矢印312で示すように)して、ニューラルネットワークパラメータごとに、第2の再構成層のニューラルネットワークパラメータ値をもたらすステップ、及び、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値および第2の再構成層のニューラルネットワークパラメータ値を組み合わせることによって、ニューラルネットワークパラメータを再構成する630(例えば図6の矢印314で示す)ステップを含んでいる。
図23は、本発明の実施形態による、ニューラルネットワークを定義するニューラルネットワークパラメータを符号化するための方法のブロック図である。方法700は、ニューラルネットワークパラメータごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1の再構成層の第1のニューラルネットワークパラメータを使用し、第2の再構成層の第2のニューラルネットワークパラメータをデータストリームに(例えば、図中に矢印322で示すように)符号化710するステップを含み、第2の再構成層は、ニューラルネットワークパラメータごとに、第2の再構成層ニューラルネットワークパラメータ値を含み、ニューラルネットワークパラメータは、ニューラルネットワークパラメータごとに、第1の再構成層ニューラルネットワークパラメータ値と第2の再構成層ニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である。
Figure 2023507502000020
例えば1014行目に示す2次元整数アレイStateTransTab[][]は、依存スカラー量子化の状態遷移表を指定するもので、次のようになる。
Figure 2023507502000021
このプロセスへの入力は次の通りである。
・復号化されるテンソルの次元を指定する変数 tensorDims。
・復号化のためのエントリポイントが存在するかどうか、およびエントリポイントが存在する場合エントリポイントオフセットを示す変数 entryPointOffset。
・コードブックの有無と、コードブックが適用されるかどうか、及びコードブックが適用される場合はどのコードブックを使用するかを示す変数 codebookId。
このプロセスの出力は、TENSOR_FLOAT 型の変数recParamであり、次元はtensorDimsと等しい。
Figure 2023507502000022
シンタックス要素sig_flagに対して、使用するコンテキストまたは確率推定を示すctxIncの導出プロセスについて。
このプロセスへの入力は、現在のsig_flagの前に復号化されたsig_flag、状態値stateIdおよび関連するsign_flag(存在する場合)である。現在のsig_flagの前に復号化されたsig_flagがない場合、それは0と見なされる。また、以前に復号化されたsig_flagに関連するsign_flagが復号化されていない場合、それは0と見なされる。
このプロセスの出力は、変数ctxIncである。
変数ctxIncは、以下のように導出される。
・sig_flagが0であれば、ctxIncにはstateId*3が設定される。
・そうでなければ、sign_flagが0に等しい場合、ctxIncはstateId*3+1に設定される。
・そうでなければ、ctxIncはstateId*3+2に設定される。
上記の例は、ニューラルネットワークパラメータ13をデータストリーム14へ/から符号化/復号化する概念を示し、ニューラルネットワークパラメータ13は、ニューラルネットワーク10のニューロン相互接続11の重み、例えば重みテンソルの重みに関連し得る。ニューラルネットワークパラメータ13の復号化/符号化は、順次行われる。テンソルの次元ごとの重みの数の積と同数の重みでテンソルの重みを循環するfor-nextループ1000を参照されたい。重みは所定の順序TensorIndex(dimensions,i,scan_order)でスキャンされる。現在のニューラルネットワークパラメータidx13’について、2つの再構成レベルセット52のうち再構成レベルセットが、1018および1020において、以前のニューラルネットワークパラメータのデータストリームから復号化された量子化インデックス58に基づいて連続的に更新される量子化状態stateIdに応じて選択される。特に、現在のニューラルネットワークパラメータidxに対する量子化インデックスが1012でデータストリームから復号化され、量子化インデックスは、現在のニューラルネットワークパラメータ13’に対する選択された再構成レベルセットのうち1つの再構成レベルを示している。2つの再構成レベルセットは、1016での複製と、それに続く1018および1020での量子化状態インデックスに応じた1またはマイナス1の加算によって定義される。ここで、1018及び1020において、現在のニューラルネットワークパラメータ13’は、現在のニューラルネットワークパラメータ13’に対する量子化インデックスQuantParam[idx]によって示される選択された再構成レベルセットのうちの1つの再構成レベル上に実際に逆量子化される。ステップサイズstepSizeは、3001~3003で再構成レベルセットをパラメータ化するために使用される。この所定の量子化ステップサイズstepSizeに関する情報は、シンタックス要素qp_valueを介してデータストリームから導出される。後者は、それぞれテンソル全体またはNN層全体について、あるいはNN全体についてデータストリームに符号化されるかもしれない。すなわち、ニューラルネットワーク10は、1つ以上のNN層10a、10bを含むことができ、各NN層について、データストリーム14からそれぞれのNN層について所定の量子化ステップサイズ(QP)の情報を導出し、その後、それぞれのNN層について、それぞれのNN層に属するニューラルネットワークのパラメータ13を逆量子化するために用いられるように、それぞれのNN層について導出した所定の量子化ステップサイズを用いて複数の再構成レベルセットのパラメータ化を行うようにしても良い。
stateId=0に対する第1の再構成レベルセットは、ここではゼロおよび所定の量子化ステップサイズの偶数倍を含み、1018および1020で分かるように、stateId=1に対する第2の再構成レベルセットは、ゼロおよび所定の量子化ステップサイズ(QP)の奇数倍を含む。各ニューラルネットワークパラメータ13について、1015~1021で、それぞれのニューラルネットワークパラメータ13について選択された再構成レベルセットとそれぞれのニューラルネットワークパラメータについてのエントロピー復号化量子化インデックスQuantParam[idx]に応じて中間整数値QuantParam[idx](IV)を導き、次に、各ニューラルネットワークパラメータについて、それぞれのニューラルネットワークパラメータの中間値に、4001でのそれぞれのニューラルネットワークパラメータの所定の量子化ステップサイズが乗算される。
2つの再構成レベルセット(例えばセット0、セット1)のうちの再構成レベルセットの、現在のニューラルネットワークパラメータ13’に対する選択は、1014に示すように、以前に復号化されたニューラルネットワークパラメータのデータストリームから復号化された量子化インデックスのLSB部分に応じて行われ、遷移表が、statIdが既に復号化された量子化インデックス56の過去のシーケンスに依存するようにQuantParam[idx]のLSBに応じてstateIdから次の量子化状態nextStへ遷移される。したがって、状態遷移は、以前に復号化されたニューラルネットワークパラメータのデータストリームから復号化された量子化インデックス56の2値関数の結果、すなわちそのパリティに依存する。言い換えれば、現在のニューラルネットワークパラメータについて、複数の再構成レベルセットのうちの再構成レベルセットの選択は、現在のニューラルネットワークパラメータについて、1018及び1020において、現在のニューラルネットワークパラメータに関連付けられた状態statIdに応じて、複数の再構成レベルセットのうちの再構成レベルセットを決定することによって、及び、直前のニューラルネットワークパラメータ、すなわちこれまでstateIdが決定されていたパラメータについてデータストリームから復号化された量子化インデックスに応じて、次に符号化/復号化されるNNパラメータとは限らないが、次にstateIdが決定されるべき後続のニューラルネットワークパラメータについて1014でstateIdを更新することによって、状態遷移プロセスにより行われる。例えば、ここでは、現在のニューラルネットワークパラメータは、次に符号化/復号化されるべきNNパラメータのstateIdをもたらすための更新のために使用される。1014における更新は、直前の(現在の)ニューラルネットワークパラメータのデータストリームから復号化された量子化インデックスの2値関数、すなわちそのパリティを使用して行われる。状態遷移プロセスは、8つの可能な状態間を遷移するように構成されている。遷移は、表StateTransTab[][]を介して行われる。状態遷移プロセスにおいて、遷移はこれら8つの可能な状態の間で行われ、現在のニューラルネットワークパラメータについて、1018および1020における、現在のニューラルネットワークパラメータに関連する状態stateIdに応じた量子化セットのうちの再構成レベルのセットの決定することで、状態が偶数の可能な状態の前半、すなわち奇数の状態に属する場合には2つの再構成レベルセットのうちの第1の再構成レベルセットが決定され、状態が偶数の可能な状態の後半の状態、すなわち偶数の状態に属する場合には、2つの再構成レベルセットのうちの第2の再構成レベルセットが決定される。状態statIdの更新は、遷移表StateTransTab[][]により行われる。遷移表は、直前の(現在の)ニューラルネットワークパラメータのデータストリームから復号化された状態statIDと量子化インデックス(58)のパリティ、QuantParam[idx]&1の組み合わせを、後続のニューラルネットワークパラメータに関連する別の状態にマッピングする。
現在のニューラルネットワークパラメータの量子化インデックスは、現在のニューラルネットワークパラメータに対して選択された再構成レベルセット、より正確には量子化状態stateId、すなわち現在のニューラルネットワークパラメータ13’に対する状態に依存する確率モデルを用いて、算術符号化を用いてデータストリームに符号化し、及びデータストリークから復号化する。1012の関数int_paramを呼び出すときの第3のパラメータを参照されたい。特に、現在のニューラルネットワークパラメータに対する量子化インデックスは、量子化インデックスを2値化したものの少なくとも1つのビンに対する現在のニューラルネットワークパラメータについての状態に対応する確率モデルを用いて、2値算術符号化/復号化を用いてデータストリームに符号化され、データストリームから復号化されることができる。ここで、2値化のsig_flag、sign_flag(オプション)、abs_level_greater_x[j]、abs_level_greater_x2[j]、abs_remainderうちビンsig_flagは、現在のニューラルネットワークパラメータの量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンである。確率モデルの依存性は、依存性を用いたニューラルネットワークパラメータのコンテキストセットのうちコンテキストを選択することを含み、各コンテキストは、所定の確率モデルが関連づけられるように構成される。ここで、sig_flagのコンテキストは、それぞれが2値確率モデルに関連付けられているコンテキストのリストからコンテキストをインデックス化するためのインデックスのインクリメンターとしてctxIncを使用して選択される。モデルは、コンテキストに関連付けられたビンを使用して更新されることができる。すなわち、それぞれのコンテキストに関連付けられた所定の確率モデルは、それぞれのコンテキストを用いて算術符号化された量子化インデックスに基づいて更新されることができる。
(注)sig_flagの確率モデルは、さらに、以前に復号化されたニューラルネットワークパラメータの量子化インデックス、すなわち以前に復号化されたニューラルネットワークパラメータのsig_flag、およびそのsign_flag-その符号を示すもの-に依存することに注意されたい。より正確には、状態stateIdに応じて、複数の確率モデルのうち、すなわちコンテキストインクリメンター状態0...23のうち、確率モデルのサブセットが予め選択され、すなわち{0...23}のうち連続する3つのコンテキストを含むその8つ、sig_flagに対する確率モデルのサブセットのうち、現在のニューラルネットワークパラメータの確率モデルを、以前に復号されたニューラルネットワークパラメータの量子化インデックスに応じて(121)、すなわち以前のNNパラメータのsig_flagとsign_flagに基づいて選択する。stateIDの最初の値に対して事前に選択されたサブセットは、stateIDの他の値に対して事前に選択されたサブセットと不一致である。sig_flagとsgin_flagが使用される以前のNNパラメータは、現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する。
複数の実施形態が上述されてきた。実施形態の態様および特徴は、個々にまたは組み合わせて使用され得ることに留意されたい。さらに、本発明の第1および第2の側面による実施形態の態様および特徴は、組み合わせて使用されてもよい。
さらなる実施形態は、装置を構成し、ニューラルネットワークパラメータは、ニューラルネットワーク10が表される使用する再構成層のうちの1つの再構成層、例えばエンハンスメント層に関連する。装置は、ニューラルネットワークパラメータ単位で、対応する、例えば共通のニューロン相互接続に関連するもの、または率直に言って、異なる表現層におけるNN層の行列表現に併置されるもの、1つ以上の別の再構成層のニューラルネットワークパラメータと組み合わせることによって再構成可能であるように、ニューラルネットワークが構成されてもよい。
例えばこの実施形態で説明したように、本発明の第1および第2の側面の特徴および態様は、組み合わされてもよい。第2の側面による従属請求項の任意の特徴は、さらなる実施形態をもたらすために、ここにも移転可能であるものとする。
さらに、本発明の態様による装置は、現在のニューラルネットワークパラメータ13’に対する量子化インデックス56を、現在のニューラルネットワークパラメータに対応する対応するニューラルネットワークパラメータに対応する確率モデルを用いた算術符号化によりデータストリーム14の中に符号化するように構成されてもよい。
それぞれ、さらなる実施形態は、装置を構成し、ニューラルネットワークパラメータは、ニューラルネットワーク10が表現される再構成層のうちの1つの再構成層、例えばエンハンスメント層に関連するものである。装置は、ニューラルネットワークパラメータ単位で、ニューラルネットワークパラメータを、対応する例えば共通のニューロン相互接続に関連するもの、率直に言えば、異なる表現層におけるNN層の行列表現において併置されるもの、1つ以上の別の再構成層のニューラルネットワークパラメータと組み合わせることによって、ニューラルネットワークを再構成するように構成されてもよい。
例えばこの実施形態で説明したように、本発明の第1および第2の側面の特徴および態様は、組み合わされてもよい。第2の側面による従属請求項の任意の特徴は、さらなる実施形態をもたらすために、ここにも移転可能であるものとする。
さらに、本発明の態様による装置は、現在のニューラルネットワークパラメータに対応する対応するニューラルネットワークパラメータに依存する確率モデルを用いて、算術符号化を用いてデータストリーム14から現在のニューラルネットワークパラメータ13’の量子化インデックス56を復号化するように構成されていてもよい。
言い換えれば、再構成層のニューラルネットワークパラメータ、例えば説明したような第2のニューラルネットワークパラメータは、それぞれ図3および図5ならびに図2および図4に関して説明した概念に従って符号化/復号化および/または量子化/逆量子化することができる。
いくつかの態様は装置の文脈で説明されてきたが、これらの態様は、ブロックまたは装置が方法ステップまたは方法ステップの特徴に対応する、対応する方法の説明も表すことが明らかである。同様に、方法ステップの文脈で説明された側面は、対応するブロックまたは項目または対応する装置の特徴の説明も表している。
本発明データストリームは、デジタル記憶媒体に格納することができ、または、無線伝送媒体またはインターネットなどの有線伝送媒体などの伝送媒体で伝送することができる。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアで実装することも、ソフトウェアで実装することも可能である。実装は、デジタル記憶媒体、例えばフロッピー(登録商標)ディスク、DVD、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリであって、その上に格納された電子的に読み取り可能な制御信号を有し、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協力する(または協力することができる)ものを使用して実行することができる。
本発明によるいくつかの実施形態は、電子的に読み取り可能な制御信号を有するデータキャリアを備え、このデータキャリアは、本明細書に記載の方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することが可能である。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実施することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに、方法の1つを実行するために動作可能である。プログラムコードは、例えば、機械読み取り可能な担体に格納することができる。
他の実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムを、機械可読担体に格納することからなる。
言い換えれば、本発明方法の実施形態は、したがって、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載された方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムをその上に記録してなるデータキャリア(またはデジタル記憶媒体、またはコンピュータ読取可能な媒体)である。
本発明方法のさらなる実施形態は、したがって、本明細書に記載された方法の1つを実行するためのコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、例えば、データ通信接続、例えば、インターネットを介して転送されるように構成されてもよい。
さらなる実施形態は、本明細書に記載された方法の1つを実行するように構成された、または適合された処理手段、例えばコンピュータ、またはプログラマブルロジックデバイスを備える。
さらなる実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムをその上にインストールしたコンピュータを具備する。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能性の一部または全部を実行してもよい。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載される方法の1つを実行するためにマイクロプロセッサと協働してよい。一般に、本方法は、好ましくは、任意のハードウェア装置によって実行される。
上述した実施形態は、本発明の原理を単に例示するものである。本明細書に記載された配置および詳細の修正および変形は、当業者には明らかであろうことが理解される。したがって、差し迫った特許請求の範囲の範囲によってのみ限定され、本明細書における実施形態の説明および解説によって提示される特定の詳細によって限定されないことが意図される。
Figure 2023507502000023

Claims (111)

  1. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)をデータストリーム(14)から復号化するための装置であって、
    現在のニューラルネットワークパラメータ(13’)について、以前のニューラルネットワークパラメータについての前記データストリーム(14)から復号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)し、
    前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する量子化インデックス(56)を復号化し、ここで前記量子化インデックス(56)は、前記現在のニューラルネットワークパラメータについての前記選択された再構成レベルセット(48)のうちの1つの再構成レベルを示し、
    前記現在のニューラルネットワークパラメータ(13’)を、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)によって示される前記選択された再構成レベルセット(48)のうちの前記1つの再構成レベルに逆量子化(62)することにより、前記ニューラルネットワークパラメータ(13‘)を順次復号化する、装置。
  2. 前記ニューラルネットワークパラメータ(13)が、前記ニューラルネットワーク(10)のニューロン相互接続(11)の重みに関連する、請求項1に記載の装置。
  3. 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の数は2である、請求項1又は2に記載の装置。
  4. 前記複数(50)の再構成レベルセット(52)を前記所定の量子化ステップサイズ(QP)によりパラメータ化(60)し、前記データストリーム(14)から前記所定の量子化ステップサイズに関する情報を導出するように構成される、請求項1乃至3のいずれかに記載の装置。
  5. 前記ニューラルネットワークが1つ以上のNN層を含み、前記装置は、
    それぞれのNN層(p;p-1)について、前記データストリーム(14)から前記それぞれのNN層についての所定の量子化ステップサイズに関する情報を導出し、
    前記それぞれのNN層について、前記それぞれのNN層に属する前記ニューラルネットワークパラメータを逆量子化するために使用されるように、前記それぞれのNN層について導出された前記所定の量子化ステップサイズを使用して前記複数(50)の再構成レベルセット(52)をパラメータ化するように構成されている、請求項1乃至4のいずれかに記載の装置。
  6. 前記複数(50)の再構成レベルセット(52)うちの再構成レベルセット(52)の数は2であり、前記複数の再構成レベルセットは、
    ゼロと所定の量子化ステップサイズの偶数倍とを含む第1の再構成レベルセット(セット0)と、
    ゼロと所定の量子化ステップサイズの奇数倍とを含む第2の再構成レベルセット(セット1)とを備える、請求項1乃至5のいずれかに記載の装置。
  7. すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズの整数倍を表し、前記装置は、
    それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記エントロピー復号化後の量子化インデックスとに応じて中間整数値を導出し、及び、
    それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記中間値を、前記それぞれのニューラルネットワークパラメータについての前記所定の量子化ステップサイズで乗算することにより、前記ニューラルネットワークパラメータを逆量子化するように構成される、請求項1乃至6のいずれかに記載の装置。
  8. 前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の前記数は2であり、前記装置は、
    前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第1のセットである場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍して、前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
    それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロに等しい場合、前記それぞれのサンプルについての前記中間値をゼロに等しく設定し、及び、
    それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより大きい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果から1を引いて前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
    現在のニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより小さい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果に1を加えて、前記それぞれのニューラルネットワークパラメータについての前記中間値を得ることにより、それぞれのニューラルネットワークパラメータについての前記中間値を導出するように構成される、請求項7に記載の装置。
  9. 前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについての前記データストリーム(14)から復号化された前記量子化インデックス(58)を2値化したもののLSB部分又は以前に復号化されたビンに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至8のいずれかに記載の装置。
  10. 前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについての前記データストリーム(14)から復号化された前記量子化インデックス(58)の2値関数の結果に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至8のいずれかに記載の装置。
  11. 前記装置は、前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについて前記データストリーム(14)から復号化された前記量子化インデックス(58)のパリティに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項1乃至10のいずれかに記載の装置。
  12. 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の前記数は2であり、前記装置は、
    前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータについてのサブセットインデックスを導き出し、前記サブセットインデックスについての4つの可能な値を生じさせ、;及び、
    前記現在のニューラルネットワークパラメータ(13‘)について、以前に復号化されたニューラルネットワークパラメータについての前記サブセットインデックスに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至11のいずれかに記載の装置。
  13. 前記装置は、
    前記現在のニューラルネットワークパラメータ(13’)について、直前に復号化された複数のニューラルネットワークパラメータについての前記サブセットインデックスに対応する選択ルールを用いて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択し(54)、前記選択ルールを前記ニューラルネットワークパラメータのすべて、又は一部に対して使用するように構成されている、請求項12に記載の装置。
  14. 前記選択ルールが対応する、直前に復号化されたニューラルネットワークパラメータの数は2である、請求項13に記載の装置。
  15. それぞれのニューラルネットワークパラメータについての前記サブセットインデックスは、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスのパリティとに基づいて導出される、請求項12乃至14のいずれかに記載の装置。
  16. 前記装置は、
    前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
    前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
    状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項1乃至15のいずれかに記載の装置。
  17. 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)の2値関数を用いて、後続の前記ニューラルネットワークパラメータの前記状態を更新するように構成される、請求項16に記載の装置。
  18. 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)のパリティを使用して、前記後続のニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項16に記載の装置。
  19. 前記状態遷移プロセスは、4つ又は8つの可能な状態の間で遷移するように構成される、請求項16乃至18のいずれかに記載の装置。
  20. 前記状態遷移プロセスにおいて、偶数の可能な状態の間で遷移し、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数が2であるように構成され、ここで、前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する前記状態に応じて、前記量子化セット(52)のうち前記量子化レベルセット(48)を決定することで、前記状態が前記偶数の可能な状態のうちの前半に属する場合、前記複数(50)の再構成レベルセット(52)のうち第1の再構成レベルセットが決定され、前記状態が前記偶数の可能な状態のうちの後半に属している場合、前記複数(50)の再構成レベルセット(52)のうち第2の再構成レベルセットが決定される、請求項16乃至19のいずれかに記載の装置。
  21. 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記状態及び前記量子化インデックス(58)のパリティの組み合わせを、前記後続のニューラルネットワークパラメータに関連する別の状態にマッピングする遷移テーブルによって、前記状態の前記更新を実行するように構成される、請求項16乃至20のいずれかに記載の装置。
  22. 前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデル(123)を用いる算術符号化を用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を復号化するよう構成される、請求項1乃至21のいずれかに記載の装置。
  23. 前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
    前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
    状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択(54)し、及び、
    前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を、前記現在のニューラルネットワークパラメータ(13’)についての前記状態に対応する(122)確率モデルを用いる算術符号化を用いて前記データストリーム(14)から復号化するように構成される、請求項1乃至21のいずれかに記載の装置。
  24. 前記量子化インデックス(56)を2値化(82)したものの少なくとも1つのビン(84)についての前記現在のニューラルネットワークパラメータ(13’)に対する前記状態に対応する(122)前記確率モデルを用いることにより、2値算術符号化を用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を復号化するように構成される、請求項23に記載の装置。
  25. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項23に記載の装置。
  26. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビン(86)を含む、請求項23乃至25のいずれかに記載の装置。
  27. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示す、greater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項23乃至26のいずれかに記載の装置。
  28. 前記確率モデルの前記依存性が、前記依存性を用いた前記ニューラルネットワークパラメータについてのコンテキストセットのうちのコンテキスト(87)の選択(103)を含み、それぞれのコンテキストは所定の確率モデルが関連づけられているように構成される、請求項22、23、25乃至27のいずれかに記載の装置。
  29. 前記それぞれのコンテキストを用いて算術符号化された前記量子化インデックスに基づいて、前記コンテキストのそれぞれに関連付けられた前記所定の確率モデルを更新するように構成される、請求項28に記載の装置。
  30. 前記量子化インデックスを2値化したものの少なくとも1つのビンについて、前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデルを用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて復号化するよう構成される、請求項1乃至29のいずれかに記載の装置。
  31. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項30に記載の装置。
  32. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビンを含む、請求項30又は31に記載の装置。
  33. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示すgreater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項30乃至32のいずれかに記載の装置。
  34. 前記確率モデルが、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに追加的に対応する、請求項22乃至33のいずれかに記載の装置。
  35. 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、複数の確率モデルの中から確率モデルのサブセットを事前選択し、確率モデルの前記サブセットの中から前記現在のニューラルネットワークパラメータについての前記確率モデルを、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて(121)選択するように構成される、請求項34に記載の装置。
  36. 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、第1の状態又は再構成レベルセットについての事前選択されたサブセットが、任意の他の状態又は再構成レベルセットについての事前選択されたサブセットと互いに素であるように、前記複数の確率モデルの中から確率モデルの前記サブセットを事前選択するように構成される、請求項35に記載の装置。
  37. 前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記確率モデルのサブセットの中から前記現在のニューラルネットワークパラメータの前記確率モデルを選択するように構成される、請求項35又は36に記載の装置。
  38. 前記装置は、前記確率モデルのサブセットのうちの前記現在のニューラルネットワークパラメータについての前記確率モデルを、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスの特性に応じて選択するように構成され、前記特性は、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、の差と、のうち1つ以上を含む、請求項35又は36に記載の装置。
  39. 前記以前に復号化されたニューラルネットワークパラメータが前記現在のニューラルネットワークパラメータと同じニューラルネットワーク層に関連するように、前記以前に復号化されたニューラルネットワークパラメータを位置づけるように構成される、請求項37又は38に記載の装置。
  40. 1つ以上の前記以前に復号化されたニューラルネットワークパラメータが、前記現在のニューラルネットワークパラメータが参照するニューロン相互接続が関連するニューロンまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続又はこれらのニューロンに向かうニューロン相互接続に関連するように、前記以前に復号化されたニューラルネットワークパラメータのうちの1つ以上のパラメータを位置付けるように構成される、請求項37及び39のいずれかに記載の装置。
  41. 前記ニューラルネットワークパラメータ(13)についての前記量子化インデックス(56)を復号化し、前記ニューラルネットワークパラメータ(13)間の共通の連続的な順序(14’)に沿って前記ニューラルネットワークパラメータ(13)の前記逆量子化を実行するように構成される、請求項1乃至40のいずれかに記載の装置。
  42. 前記量子化インデックスを2値化したものの1つ以上のリーディングビン(leading bins)についての以前に復号化されたニューラルネットワークパラメータに対応する前記確率モデルを用いることによって、及び、前記1つ以上のリーディングビンに後続する前記量子化インデックスを前記2値化したものの等確率バイパスモードサフィックスビンを用いることによって、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて復号化するよう構成される、請求項1乃至41のいずれかに記載の装置。
  43. 前記量子化インデックスを前記2値化したもののサフィックスビンは、絶対値が前記1つ以上の前記リーディングビンによって表現可能な最大絶対値を超える前記量子化インデックスの値を2値化するためのサフィックス2値化の2値化コードのビンを表し、前記装置は、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記サフィックス2値化を選択するように構成される、請求項42に記載の装置。
  44. 前記ニューラルネットワークパラメータが、前記ニューラルネットワーク(10)が表現される再構成層のうちの1つの再構成層に関連するものであり、前記装置は、
    前記ニューラルネットワークパラメータを、ニューラルネットワークパラメータ単位で、1つ以上の別の再構成層の対応するニューラルネットワークパラメータと組み合わせることによって、前記ニューラルネットワークを再構成するように構成される、請求項1乃至43のいずれかに記載の装置。
  45. 前記現在のニューラルネットワークパラメータに対応する、対応するニューラルネットワークパラメータに対応する確率モデルを用いる算術符号化を用いて前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する前記量子化インデックス(56)を復号化するように構成される、請求項44に記載の装置。
  46. ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための装置であって、
    現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)し、
    前記現在のニューラルネットワークパラメータ(13’)を、前記選択された再構成レベルセット(48)の1つの再構成レベル上に量子化(64)し、
    前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)が量子化される前記1つの再構成レベルを示す前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を前記データストリーム(14)に符号化することにより、前記ニューラルネットワークパラメータ(13’)を順次符号化するように構成される、装置。
  47. 前記ニューラルネットワークパラメータ(13)が、前記ニューラルネットワーク(10)のニューロン相互接続(11)の重みに関連する、請求項46に記載の装置。
  48. 前記複数(50)の再構成レベルセット(52)のうち再構成レベルセット(52)の前記数は2である、請求項46又は47に記載の装置。
  49. 前記複数(50)の再構成レベルセット(52)を所定の量子化ステップサイズ(QP)によりパラメータ化(60)し、前記所定の量子化ステップサイズに関する情報を前記データストリーム(14)に挿入するように構成される、請求項46乃至48のいずれかに記載の装置。
  50. 前記ニューラルネットワークが1つ以上のNN層を含み、前記装置は、
    それぞれのNN層(p;p-1)について、前記それぞれのNN層についての所定の量子化ステップサイズに関する情報を前記データストリーム(14)に挿入し、
    前記それぞれのNN層に属する前記ニューラルネットワークパラメータを量子化するために使用されるように、前記それぞれのNN層について導出された前記所定の量子化ステップサイズを使用して、それぞれのNN層について、前記複数(50)の再構成レベルセット(52)をパラメータ化するように構成されている、請求項1乃至49のいずれかに記載の装置。
  51. 前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数は2であり、前記複数の再構成レベルセットは、
    ゼロ及び所定の量子化ステップサイズの偶数倍を含む第1の再構成レベルセット(セット0)と、
    ゼロ及び前記所定の量子化ステップサイズの奇数倍を含む第2の再構成レベルセット(セット1)とを含む、請求項46乃至50のいずれかに記載の装置。
  52. すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズの整数倍を表し、前記装置は、
    それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記エントロピー符号化後の量子化インデックスとに応じて中間整数値を導出し、及び、
    それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記中間値を、前記それぞれのニューラルネットワークパラメータについての前記所定の量子化ステップサイズで乗算することにより、前記ニューラルネットワークパラメータを逆量子化できるように構成される、請求項46乃至51のいずれかに記載の装置。
  53. 前記複数(50)の再構成レベルセット(52)うちの再構成レベルセット(52)の前記数は2であり、前記装置は、
    前記それぞれのニューラルネットワークパラメータのについての前記選択された再構成レベルセットが第1のセットである場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍して、前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
    それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロに等しい場合、前記それぞれのサンプルについての前記中間値をゼロに等しく設定し、及び、
    それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより大きい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果から1を引いて前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
    現在のニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより小さい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果に1を加えて、前記それぞれのニューラルネットワークパラメータについての前記中間値を得ることにより、それぞれのニューラルネットワークパラメータについての前記中間値を導出するように構成される、請求項52に記載の装置。
  54. 前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された前記量子化インデックス(58)を2値化したもののLSB部分又は以前に符号化されたビンに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至53のいずれかに記載の装置。
  55. 前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータの前記データストリーム(14)に符号化された前記量子化インデックス(58)の2値関数の結果に応じて、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至53のいずれかに記載の装置。
  56. 前記装置は、前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについて前記データストリーム(14)に符号化された前記量子化インデックス(56)のパリティに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項46乃至55のいずれかに記載の装置。
  57. 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の前記数は2であり、前記装置は、
    前記それぞれのニューラルネットワークパラメータのための前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータについてのサブセットインデックスを導き出し、前記サブセットインデックスについての4つの可能な値を生じさせ、;及び、
    前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記サブセットインデックスに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至56のいずれかに記載の装置。
  58. 前記装置は、
    前記現在のニューラルネットワークパラメータ(13’)について、直前に符号化された多数のニューラルネットワークパラメータについての前記サブセットインデックス対応する選択ルールを用いて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択し(54)、前記選択ルールを前記ニューラルネットワークパラメータのすべて、又は一部に対して前記選択ルールを使用するように構成される、請求項57に記載の装置。
  59. 前記選択ルールが対応する、直前に符号化されたニューラルネットワークパラメータの数が2である、請求項58に記載の装置。
  60. それぞれのニューラルネットワークパラメータについての前記サブセットインデックスは、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスのパリティとに基づいて導出される、請求項57乃至59のいずれかに記載の装置。
  61. 前記装置は、
    前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
    前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、
    状態遷移プロセスににより前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項46乃至60のいずれかに記載の装置。
  62. 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)の2値関数を使用して後続の前記ニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項61に記載の装置。
  63. 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)のパリティを使用して、前記後続のニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項61に記載の装置。
  64. 前記状態遷移プロセスは、4つ又は8つの可能な状態の間で遷移するように構成される、請求項61乃至63のいずれかに記載の装置。
  65. 前記状態遷移プロセスにおいて、偶数の可能な状態の間で遷移し、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数が2であるように構成され、ここで、前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する前記状態に応じて、前記量子化セット(52)のうち前記量子化レベルセット(48)を決定することで、前記状態が前記偶数の可能な状態のうちの前半に属する場合、前記複数(50)の再構成レベルセット(52)のうち第1の再構成レベルセットが決定され、前記状態が前記偶数の可能な状態のうちの後半に属している場合、前記複数(50)の再構成レベルセット(52)のうち第2の再構成レベルセットが決定されることである、請求項61乃至64のいずれかに記載の装置。
  66. 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記状態及び前記量子化インデックス(58)のパリティの組み合わせを、前記後続のニューラルネットワークパラメータに関連する別の状態にマッピングする遷移テーブルによって、前記状態の前記更新を実行ずるように構成される、請求項61乃至65のいずれかに記載の装置。
  67. 前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデル(123)を用いる算術符号化を用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を前記データストリーム(14)に符号化するように構成される、請求項46乃至66のいずれかに記載の装置。
  68. 前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルのセット(48)を決定することによって、及び、
    前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
    状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択(54)し、及び、
    前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を、前記現在のニューラルネットワークパラメータ(13’)についての前記状態に対応する(122)確率モデルを用いる算術符号化を用いて前記データストリーム(14)に符号化するように構成される、請求項46乃至66のいずれかに記載の装置。
  69. 前記量子化インデックス(56)を2値化(82)したものの少なくとも1つのビン(84)についての前記現在のニューラルネットワークパラメータ(13’)に対する前記状態に対応する(122)前記確率モデルを用いることにより、2値算術符号化を用いて、前記データストリーム(14)に前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を符号化するように構成される、請求項68に記載の装置。
  70. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項68に記載の装置。
  71. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビン(86)を含む、請求項68乃至70のいずれかに記載の装置。
  72. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示す、greater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項68乃至71のいずれかに記載の装置。
  73. 前記確率モデルの依存性が、前記依存性を用いた前記ニューラルネットワークパラメータについてのコンテキストセットのうちのコンテキスト(87)の選択(103)を含み、それぞれのコンテキストは所定の確率モデルが関連づけられているように構成される、請求項67、68、70乃至72のいずれかに記載の装置。
  74. 前記それぞれのコンテキストを用いて算術符号化された前記量子化インデックスに基づいて、前記コンテキストのそれぞれに関連付けられた前記所定の確率モデルを更新するように構成される、請求項73に記載の装置。
  75. 前記量子化インデックスを2値化したものの少なくとも1つのビンについて、前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデルを用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて前記データストリーム(14)に符号化するよう構成される、請求項46乃至74のいずれかに記載の装置。
  76. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項75に記載の装置。
  77. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビンを含む、請求項75又は76に記載の装置。
  78. 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示すgreater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項75乃至77のいずれかに記載の装置。
  79. 前記確率モデルが、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに追加的に対応する、請求項67乃至78のいずれかに記載の装置。
  80. 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、複数の確率モデルの中から確率モデルのサブセットを事前選択し、確率モデルの前記サブセットの中から前記現在のニューラルネットワークパラメータについての前記確率モデルを、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックス(121)に応じて選択するように構成される、請求項79に記載の装置。
  81. 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、第1の状態又は再構成レベルセットについての事前選択されたサブセットが、任意の他の状態又は再構成レベルセットについての事前選択されたサブセットと互いに素であるように、前記複数の確率モデルの中から確率モデルの前記サブセットを事前選択するように構成される、請求項80に記載の装置。
  82. 前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記確率モデルのサブセットの中から前記現在のニューラルネットワークパラメータの前記確率モデルを選択するように構成される、請求項80又は81に記載の装置。
  83. 前記装置は、前記確率モデルのサブセットのうちの前記現在のニューラルネットワークパラメータについての前記確率モデルを、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスの特性に応じて選択するように構成され、前記特性は、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、
    前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、前記現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、前記以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、の差と、のうち1つ以上を含む、請求項80又は81に記載の装置。
  84. 前記以前に符号化されたニューラルネットワークパラメータが前記現在のニューラルネットワークパラメータと同じニューラルネットワーク層に関連するように、前記以前に符号化されたニューラルネットワークパラメータを位置づけるように構成される、請求項82及び83のいずれかに記載の装置。
  85. 1つ以上の前記以前に符号化されたニューラルネットワークパラメータが、前記現在のニューラルネットワークパラメータが参照するニューロン相互接続が関連するニューロンまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続又はこれらのニューロンに向かうニューロン相互接続に関連するように、1つ以上の前記以前に符号化されたニューラルネットワークパラメータのうちの1つ以上のパラメータを位置付けるように構成される、請求項82及び84のいずれかに記載の装置。
  86. 前記ニューラルネットワークパラメータ(13)についての前記量子化インデックス(56)を符号化し、前記ニューラルネットワークパラメータ(13)間の共通の連続的な順序(14’)に沿って前記ニューラルネットワークパラメータ(13)の前記量子化を実行するように構成される、請求項46乃至75のいずれかに記載の装置。
  87. 前記量子化インデックスを2値化したものの1つ以上のリーディングビン(leading bins)についての以前に符号化されたニューラルネットワークパラメータに対応する前記確率モデルを用いることによって、及び、前記1つ以上のリーディングビンに抗オズする前記量子化インデックスを前記2値化したものの等確率バイパスモードサフィックスビンを用いることによって、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて前記データストリーム(14)に符号化するよう構成される、請求項46乃至86のいずれかに記載の装置。
  88. 前記量子化インデックスを前記2値化したもののサフィックスビンは、絶対値が前記1つ以上の前記リーディングビンによって表現可能な最大絶対値を超える前記量子化インデックスの値を2値化するためのサフィックス2値化の2値化コードのビンを表し、前記装置は、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記サフィックス2値化を選択するように構成される、請求項87に記載の装置。
  89. 前記ニューラルネットワークパラメータが、前記ニューラルネットワーク(10)が表現される再構成層のうちの1つの再構成層に関連するものであり、前記装置は、
    前記ニューラルネットワークパラメータを、ニューラルネットワークパラメータ単位で、1つ以上の別の再構成層の対応するニューラルネットワークパラメータと組み合わせることによって前記ニューラルネットワークが再構成可能であるように構成される、請求項46乃至88のいずれかに記載の装置。
  90. 前記現在のニューラルネットワークパラメータに対応する、対応するニューラルネットワークパラメータに対応する確率モデルを用いる算術符号化を用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を前記データストリーム(14)に符号化するように構成される、請求項89に記載の装置。
  91. ビタビアルゴリズム(Viterbi algorithm)及びレート歪みコスト量(rate-distortion cost measure)を使用して前記選択及び/又は前記量子化を実行するように構成される、請求項46乃至90のいずれかに記載の装置。
  92. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を再構成するための装置(310)であって、
    第1の再構成層についての第1のニューラルネットワークパラメータを導出し、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を得て、
    データストリーム(14)から第2の再構成層についての第2のニューラルネットワークパラメータ(13)を復号化(312)し、ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を得て、
    それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることにより、前記ニューラルネットワークパラメータ(13)を再構成する(314)ように構成される、装置。
  93. 前記データストリームから、又は別個のデータストリームから、前記第1の再構成層についての前記第1のニューラルネットワークパラメータ(13)を復号化し(316)、及び、
    前記第1及び第2の再構成層についての別個の確率コンテキストを用いるコンテキスト適応的エントロピー復号化によって、前記データストリームから前記第2の再構成層についての前記第2のニューラルネットワークパラメータ(13)を復号化するように構成される、請求項92に記載の装置(310)。
  94. ニューラルネットワークパラメータごとに、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とのパラメータ単位の合計又はパラメータ単位の積によって、前記ニューラルネットワークパラメータ(13)を再構成するように構成される、請求項92又は93に記載の装置(310)。
  95. 前記第1の再構成層のニューラルネットワークパラメータ値に対応する確率モデルを用いたコンテキスト適応的エントロピー復号化によって、前記データストリームから前記第2の再構成層のニューラルネットワークパラメータ値を復号化するように構成される、請求項92乃至94のいずれかに記載の装置(310)。
  96. コンテキスト適応的エントロピー復号化を行い、
    前記第1の再構成層のニューラルネットワークパラメータ値に応じて、確率コンテキストセットの集合の中から確率コンテキストセットを選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値に応じて、前記選択された確率コンテキストセットの中から使用する確率コンテキストを選択することと、
    により、前記データストリームから前記第2の再構成層のニューラルネットワークパラメータ値を復号化するように構成される、請求項92乃至95のいずれかに記載の装置(310)。
  97. 前記確率コンテキストセットの集合が3つの確率コンテキストセットを含み、前記装置は、
    前記第1の再構成層のニューラルネットワークパラメータ値が負である場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値が正である場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、前記確率コンテキストセットの集合の中から第3の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項96に記載の装置(310)。
  98. 前記確率コンテキストセットの集合が2つの確率コンテキストセットを含み、前記装置は、
    前記第1の再構成層のニューラルネットワークパラメータ値が所定値より大きい場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、又は、
    前記第1の再構成層のニューラルネットワークパラメータ値の絶対値が前記所定値より大きい場合、前記確率コンテキストセットの集合の中から前記第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値の前記絶対値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から前記第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項96に記載の装置(310)。
  99. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1の再構成層についての第1ニューラルネットワークパラメータ(13)を用いて符号化する装置(320)であって、前記装置は、
    ニューラルネットワークパラメータ(13)ごとに第2の再構成層のニューラルネットワークパラメータ値を含む、第2の再構成層についての第2のニューラルネットワークパラメータ(13)をデータストリーム(14)に符号化(322)するように構成され、
    前記ニューラルネットワークパラメータ(13)は、それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である、装置(320)。
  100. 前記第1の再構成層についての前記第1のニューラルネットワークパラメータ(13)を前記データストリーム又は別個のデータストリームに符号化し、及び、
    前記第1及び第2の再構成層についての別個の確率コンテキストを用いるコンテキスト適応的エントロピー符号化によって、前記第2の再構成層についての前記第2のニューラルネットワークパラメータ(13)を前記データストリームに符号化するように構成される、請求項99に記載の装置(320)。
  101. 前記ニューラルネットワークパラメータ(13)は、ニューラルネットワークパラメータごとに、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とのパラメータ単位の合計又はパラメータ単位の積によって再構成可能である、請求項99乃至100のいずれかに記載の装置(320)。
  102. 前記第1の再構成層のニューラルネットワークパラメータ値に対応する確率モデルを用いたコンテキスト適応的エントロピー符号化によって、前記第2の再構成層のニューラルネットワークパラメータ値を前記データストリームに符号化するように構成される、請求項99から101のいずれかに記載の装置(320)
  103. コンテキスト適応的エントロピー符号化を行い、
    前記第1の再構成層のニューラルネットワークパラメータ値に応じて、確率コンテキストセットの集合の中から確率コンテキストセットを選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値に応じて、前記選択された確率コンテキストセットの中から使用する確率コンテキストを選択することと、
    により、前記第2の再構成層のニューラルネットワークパラメータ値を前記データストリームに符号化するように構成される、請求項99乃至102のいずれかに記載の装置(320)。
  104. 前記確率コンテキストセットの集合が3つの確率コンテキストセットを含み、前記装置は、
    前記第1の再構成層のニューラルネットワークパラメータ値が負である場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値が正である場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
    前記第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、前記確率コンテキストセットの集合の中から第3の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項103記載の装置(320)。
  105. 前記確率コンテキストセットの集合が2つの確率コンテキストセットを含み、前記装置は、
    前記第1の再構成層のニューラルネットワークパラメータ値が所定値より大きい場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から第2確率コンテキストセットを前記選択された確率コンテキストセットとして選択すし、又は、
    前記第1の再構成層のニューラルネットワークパラメータ値の絶対値が前記所定値より大きい場合、前記確率コンテキストセットの集合の中から前記第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値の前記絶対値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から前記第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項103記載の装置(320)。
  106. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)をデータストリーム(14)から復号化するための方法(400)であって、
    現在のニューラルネットワークパラメータ(13’)について、以前のニューラルネットワークパラメータについて前記データストリーム(14)から復号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択する(54)ステップと、
    前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する量子化インデックス(56)を復号化する(420)ステップであって、前記量子化インデックス(56)は、前記現在のニューラルネットワークパラメータについての前記選択された再構成レベルセット(48)のうちの1つの再構成レベルを示し、
    前記現在のニューラルネットワークパラメータ(13’)を、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)によって示される前記選択された再構成レベルセット(48)のうちの前記1つの再構成レベル上に逆量子化する(62)ステップと、により、前記ニューラルネットワークパラメータ(13)を順次復号化するステップを含む、方法(400)。
  107. ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための方法(500)であって、
    現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)するステップと、
    前記現在のニューラルネットワークパラメータ(13’)を、前記選択された再構成レベルセット(48)の1つの再構成レベル上に量子化する(64)ステップと、
    前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)が量子化される前記1つの再構成レベルを示す前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を前記データストリーム(14)に符号化する(530)ステップと、により、前記ニューラルネットワークパラメータ(13)を順次符号化するステップを含む、方法(500)。
  108. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を再構成する方法(600)であって、
    第1の再構成層についての第1のニューラルネットワークパラメータを導出(610)し、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を得るステップと、
    データストリームから第2の再構成層のための第2のニューラルネットワークパラメータ(13)を復号化し、ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を得る(620)ステップと、及び、
    それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることにより、前記ニューラルネットワークパラメータ(13)を再構成する(630)ステップと、を含む、方法(600)。
  109. ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1再構成層についての第1ニューラルネットワークパラメータ(13)を用いて符号化する方法(700)であって、
    ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を含む、第2の再構成層についての第2のニューラルネットワークパラメータ(13)をデータストリームに符号化(710)し、
    前記ニューラルネットワークパラメータ(13)は、それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である、方法(700)。
  110. 請求項107及び109に記載の方法によって符号化されたデータストリーム。
  111. 前記プログラムが1つ以上のコンピュータ上で実行されるときに、請求項106、107、108又は109に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2022538077A 2019-12-20 2020-12-21 ニューラルネットワークのパラメータを符号化するための概念 Pending JP2023507502A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19218862.1 2019-12-20
EP19218862 2019-12-20
PCT/EP2020/087489 WO2021123438A1 (en) 2019-12-20 2020-12-21 Concepts for coding neural networks parameters

Publications (1)

Publication Number Publication Date
JP2023507502A true JP2023507502A (ja) 2023-02-22

Family

ID=69104239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022538077A Pending JP2023507502A (ja) 2019-12-20 2020-12-21 ニューラルネットワークのパラメータを符号化するための概念

Country Status (6)

Country Link
US (1) US20220393986A1 (ja)
EP (1) EP4078454A1 (ja)
JP (1) JP2023507502A (ja)
KR (1) KR20220127261A (ja)
CN (1) CN115087988A (ja)
WO (1) WO2021123438A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
US11909975B2 (en) * 2021-06-18 2024-02-20 Tencent America LLC Dependent scalar quantization with substitution in neural image compression
KR20240132484A (ko) * 2022-01-09 2024-09-03 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 신경 네트워크 파라미터를 인코딩 및 디코딩하는 컨셉
WO2024013109A1 (en) * 2022-07-11 2024-01-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for coding a data structure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019185769A1 (en) * 2018-03-29 2019-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dependent quantization

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019185769A1 (en) * 2018-03-29 2019-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dependent quantization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SIMON WIEDEMANN ET AL.: "DeepCABAC: A universal compression algorithm for deep neural networks", ARXIV, JPN6023051036, 27 July 2019 (2019-07-27), pages 1 - 18, XP093191127, ISSN: 0005217634, DOI: 10.48550/arxiv.1907.11900 *

Also Published As

Publication number Publication date
CN115087988A (zh) 2022-09-20
EP4078454A1 (en) 2022-10-26
KR20220127261A (ko) 2022-09-19
WO2021123438A1 (en) 2021-06-24
US20220393986A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
Wiedemann et al. DeepCABAC: A universal compression algorithm for deep neural networks
JP2023507502A (ja) ニューラルネットワークのパラメータを符号化するための概念
Kirchhoffer et al. Overview of the neural network compression and representation (NNR) standard
US5959560A (en) Data compression via alphabet partitioning and group partitioning
JP7356513B2 (ja) ニューラルネットワークのパラメータを圧縮する方法および装置
Wiedemann et al. Deepcabac: Context-adaptive binary arithmetic coding for deep neural network compression
JP2023522886A (ja) ニューラルネットワークパラメーターの表現の改良された概念
Manohar et al. An SMVQ-based reversible data hiding technique exploiting side match distortion
Bayazit et al. Variable-length constrained-storage tree-structured vector quantization
Kossentini et al. Finite-state residual vector quantization
EP1225543A2 (en) HVQ-based filtering method
Kamal Iteration free fractal image compression for color images using vector quantization, genetic algorithm and simulated annealing
US20240046100A1 (en) Apparatus, method and computer program for decoding neural network parameters and apparatus, method and computer program for encoding neural network parameters using an update model
Thakur et al. An improved symbol reduction technique based Huffman coder for efficient entropy coding in the transform coders
US20240364362A1 (en) Concepts for encoding and decoding neural network parameters
Galan-Hernandez et al. Advances in image and video compression using wavelet transforms and fovea centralis
Bhosale et al. A Modified Image Template for FELICS Algorithm for Lossless Image Compression
Kakde et al. Lossless Data Compression Using Golumb Codes
Jafarkhani et al. Channel-matched hierarchical table-lookup vector quantization
Belogolovyi Image compression based on LDPC codes
Wang Lossless Image Compression
Hashemi et al. Predictive vector quantization using neural networks
Budge et al. An adaptive-search residual vector quantizer for airborne reconnaissance
Jiang et al. Rate-distortion Optimized Trellis-Coded Quantization
Weber Adaptive search residual vector quantization with no side information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241011