JP2023507502A - ニューラルネットワークのパラメータを符号化するための概念 - Google Patents
ニューラルネットワークのパラメータを符号化するための概念 Download PDFInfo
- Publication number
- JP2023507502A JP2023507502A JP2022538077A JP2022538077A JP2023507502A JP 2023507502 A JP2023507502 A JP 2023507502A JP 2022538077 A JP2022538077 A JP 2022538077A JP 2022538077 A JP2022538077 A JP 2022538077A JP 2023507502 A JP2023507502 A JP 2023507502A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- network parameter
- reconstruction
- quantization
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 1173
- 238000013139 quantization Methods 0.000 claims abstract description 708
- 238000000034 method Methods 0.000 claims description 132
- 230000007704 transition Effects 0.000 claims description 68
- 210000002569 neuron Anatomy 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 50
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 239000006227 byproduct Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 29
- 230000001537 neural effect Effects 0.000 abstract description 8
- 239000010410 layer Substances 0.000 description 244
- 230000001419 dependent effect Effects 0.000 description 51
- 230000006870 function Effects 0.000 description 20
- 239000013598 vector Substances 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 14
- 238000013459 approach Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000009795 derivation Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 102100029768 Histone-lysine N-methyltransferase SETD1A Human genes 0.000 description 2
- 101000865038 Homo sapiens Histone-lysine N-methyltransferase SETD1A Proteins 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000035045 associative learning Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000013016 learning Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- QMQDJVIJVPEQHE-UHFFFAOYSA-N SBMP Natural products CCC(C)C1=NC=CN=C1OC QMQDJVIJVPEQHE-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/24—Traffic characterised by specific attributes, e.g. priority or QoS
- H04L47/2483—Traffic characterised by specific attributes, e.g. priority or QoS involving identification of individual flows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Neurology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Executing Machine-Instructions (AREA)
Abstract
Description
現在のニューラルネットワークパラメータについての量子化インデックス56がデータストリーム14中に量子化される1つの再構成レベルを示す現在のニューラルネットワークパラメータ13’についての量子化インデックス56を符号化することによって、ニューラルネットワークパラメータ13を順次符号化するよう構成される。任意選択で、複数50の再構成レベルセット52のうち、本明細書で時々量子化器とも呼ばれる再構成レベルセット52の数は、例えばセット0およびセット1を用いて示されるように、2つであることができる。
2.ロスレス符号化
3.ロスレス復号化
マルチメディアコンテンツの説明及び分析のためのニューラルネットワークの圧縮のためのMPEG-7パート17規格のワーキングドラフト2[2]は、ニューラルネットワークパラメータ符号化に独立スカラー量子化(independent scalar quantization)及びエントロピー符号化を適用している。
ニューラルネットワークのパラメータは、スカラ量子化器を用いて量子化される。量子化の結果、パラメータ13の許容値のセットは減少する。言い換えれば、ニューラルネットワークのパラメータは、いわゆる再構成レベルの可算集合(実際には有限集合)にマッピングされる。再構成レベルセットは、可能なニューラルネットワークパラメータ値のセット(集合)の適切なサブセット(部分集合)を表す。以下のエントロピー符号化を単純化するために、許容可能な再構成レベルは、量子化インデックス56によって表され、これはビットストリーム14の一部として伝送される。復号化器側では、量子化インデックス56は、再構成されたニューラルネットワークパラメータ13にマッピングされる。再構成されたニューラルネットワークパラメータ13の可能な値は、再構成レベルセット52に対応する。符号化器側では、スカラー量子化の結果は、1セットの(整数)量子化インデックス56である。
ニューラルネットワークの圧縮に関する標準規格は、ビットストリームのシンタックスと再構成プロセスのみを規定している。与えられたオリジナルのニューラルネットワークパラメータ13のセットと与えられた量子化ステップサイズ(QP)に対するパラメータ符号化を考える場合、符号化器は多くの自由度を有する。層10a、10bの量子化インデックスqk56が与えられると、エントロピー符号化は、データをビットストリーム14に書き込む(すなわち、算術符号語(コードワード)を構築する)ための一意に定義されたアルゴリズムに従わなければならない。しかし、重みパラメータのオリジナルセット(例えば層)が与えられた量子化インデックスqk56を得るための符号化アルゴリズムは、ニューラルネットワーク圧縮の規格の範囲外である。以下の説明では、各ニューラルネットワークパラメータ13の量子化ステップサイズ(QP)が既知であると仮定する。それでも、符号化器は、各ニューラルネットワーク(重み)パラメータtk13についての量子化器インデックスqk56を選択する自由を有する。量子化インデックスの選択は、歪み(または再構成/近似品質)とビットレートの両方を決定するので、使用される量子化アルゴリズムは、生成されるビットストリーム14のレート歪み性能に実質的な影響を与える。
前のステップで適用された均一量子化の結果として、重みパラメータはいわゆる再構成レベルの有限集合にマッピングされる。これらは、(整数)量子化器インデックス56(パラメータレベルまたは重みレベルとも呼ばれる)と量子化ステップサイズ(QP)によって表すことができ、例えば、全層に対して固定されている場合がある。層のすべての量子化された重みパラメータを復元するために、層のステップサイズ(QP)および次元は、復号化器によって知られてもよい。これらは、例えば、別々に送信されてもよい。
量子化インデックス56(整数表現)は、次にエントロピー符号化技術を使用して送信される。したがって、重みの層は、スキャンを使用して量子化された重みレベルのシーケンスにマッピングされる。例えば、行列の最上部の行から始めて、含まれる値を左から右へ符号化する、行ファーストスキャン順序(row first scan order)を使用することができる。この方法では、すべての行が上から下へ符号化される。スキャンは、ニューロン相互接続11の重みに関連し得るニューラルネットワークパラメータ13を含む行列15aについて、例えば共通の連続的な順番14’に沿って、図3に示すように実行されてもよい。行列は、重み層、例えば、図3及び図1にそれぞれ示すように、ニューロン相互接続11の層p-1 10aと層p 10bとの間の重み、又は隠れ層及び入力層との間の重みを表してもよい。なお、他の任意のスキャンを適用することができる。例えば、行列(例えば、図2又は図3の行列15a)は、行ファーストスキャンを適用する前に、転置され、又は水平及び/又は垂直に反転され、及び/又は左又は右に90/180/270度だけ回転されることができる。
CABACエントロピー符号化では、量子化された重みレベル56のほとんどのシンタックス要素は、2値確率モデリングを用いて符号化される。各2値決定(bin)はコンテキストと関連付けられている。コンテキストは、符号化されたビンのクラスに対する確率モデルを表す。2つの可能なビン値のうちの1つに対する確率は、対応するコンテキストで既に符号化されたビンの値に基づいて、各コンテキストについて推定される。アプリケーションに応じて、異なるコンテキストモデリングアプローチを適用することができる。通常、量子化された重み符号化に関連するいくつかのビンについて、符号化に使用されるコンテキストは、既に送信されたシンタックス要素に基づいて選択される。実際のアプリケーションに応じて、例えばSBMP 0、またはHEVC 0またはVTM-4.0 0のものなど、異なる確率推定器が選択され得る。この選択は、例えば、圧縮効率や複雑さに影響を与える。
以下では、再構成された層、例えば図6からのニューラルネットワーク層pが、例えば別々に伝送されてもよい図6からの再構成層i-1および再構成層iのような異なるサブ層の構成である、ニューラルネットワーク10の圧縮/送信のための追加の、したがって任意の方法について説明する。
この概念では、ベース層とエンハンスメント層と呼ばれる2種類のサブ層を導入している。そして、再構成プロセス(例えば、すべてのサブ層を追加する)は、サブ層からどのように再構成された層を得ることができるかを定義する。ベース層はベース値を含み、例えば、最初のステップで効率的に表現または圧縮/送信できるように選択することができる。エンハンスメント層は、エンハンスメント情報、(例えばオリジナル層に関する)歪み指標を減少させるために例えば(ベース)層の値に追加される差分値を含む。別の例では、ベース層は(小さなトレーニングセットを用いたトレーニングからの)粗い値を含み、エンハンスメント層は(完全なトレーニングセットまたはより一般的には、別のトレーニングセットに基づく)リファインメント値を含む。サブ層は別々に保存/送信されてもよい。
このセクションでは、図2~図4の文脈で説明したような、本発明による概念および実施形態に対するさらなる任意の側面および特徴が開示される。
ニューラルネットワークパラメータの依存量子化の利点は、許容される再構成ベクトルがN次元信号空間(ここで、Nは、処理されるサンプルのセット、例えば層10a、10bにおけるサンプルまたはニューラルネットワークパラメータ13の数を表す)において密に詰め込まれることである。ニューラルネットワークパラメータセットの再構成ベクトルは、ニューラルネットワークパラメータセットの順序付けられた再構成されたニューラルネットワークパラメータ(または、代替的に、順序付けられた再構成されたサンプル)を指す。依存スカラー量子化の効果を、2つのニューラルネットワークパラメータの最も単純なケースについて図8で説明する。図8は、2つの重みパラメータの単純な場合について、許容される再構成ベクトルの位置の一例を示す図である。図8(a)は独立スカラ量子化の例、図8(b)は依存スカラ量子化の例である。図8aは、独立スカラ量子化の場合の許容再構成ベクトル201(2次元平面上の点を表す)を示している。見て分かるように、第2のニューラルネットワークパラメータt1’13に対する許容値のセットは、第1の再構成されたニューラルネットワークパラメータt0’13に対する選択された値には依存しない。図8(b)は、依存スカラー量子化の例を示す。独立スカラー量子化とは対照的に、第2のニューラルネットワークパラメータt1’13に対して選択可能な再構成値は、第1のニューラルネットワークパラメータt0’13に対して選択された再構成レベルに依存することに注意されたい。図8bの例では、第2のニューラルネットワークパラメータt1’13に対する利用可能な再構成レベルの2つの異なるセット52が存在する(異なる色で図示されている)。第1のニューラルネットワークパラメータt0’13に対する量子化インデックス56が偶数(...,-2,0,2,...)であれば、第1のセット(青い点)の任意の再構成レベル201aを第2のニューラルネットワークパラメータt1’13に対して選択することが可能である。そして、第1のニューラルネットワークパラメータt0’に対する量子化インデックス56が奇数(...,-3,-1,1,3,...)であれば、第2のセット(赤色点)の任意の再構成レベル201bを第2のニューラルネットワークパラメータt1’13に対して選択することが可能である。この例では、第1セットと第2セットの再構成レベルは、量子化ステップサイズの半分だけシフトされる(第2セットの任意の再構成レベルは、第1セットの2つの再構成レベルの間に位置する)。
主な変更点は、前述したように依存量子化である。再構成順序インデックスk>0の再構成されたニューラルネットワークパラメータtk’13は、関連する量子化インデックスqk56だけでなく、再構成順序において先行するニューラルネットワークパラメータの量子化インデックスq0,q1・・・,qk-1にも依存することになる。なお、依存量子化では、ニューラルネットワークパラメータ13の再構成順序を一意に定めなければならない。量子化インデックスqk56に関連する再構成レベルセットに関する知識もエントロピー符号化において利用される場合、ニューラルネットワーク符号化全体の性能は、典型的に改善され得る。つまり、ニューラルネットワークパラメータに適用される再構成レベルセットに基づいて、コンテキスト(確率モデル)またはコードワード表を切り替えることが典型的には好ましい。
ニューラルネットワークパラメータ13の依存量子化とは、ニューラルネットワークパラメータ13のために利用可能な再構成レベルセットが、再構成順序において(例えば層またはサブ層のようなニューラルネットワークパラメータの同じセットの内部において)先行するニューラルネットワークパラメータに対する選ばれた量子化インデックスに依存する概念をいう。
好ましい実施形態では、現在のニューラルネットワークパラメータのための許容される再構成レベルセットは、再構成レベルの予め定義されたセット52の集合(2つ以上のセット、例えば図2および図3からのセット0およびセット1)の中から(符号化順序において先行するニューラルネットワークパラメータの量子化インデックスに基づいて)選択される。
を導出することによって、及び、それぞれのニューラルネットワークパラメータ13について、それぞれのニューラルネットワークパラメータの中間値をそれぞれのニューラルネットワークパラメータ13についての所定の量子化ステップサイズに乗じることによって、ニューラルネットワークパネル13を逆量子化するよう構成されることがある。
符号化器が許容される再構成レベルの中から選択する再構成レベルは、ビットストリーム14の内部で示されなければならない。従来の独立スカラー量子化と同様に、これは、重みレベルとも呼ばれる、いわゆる量子化インデックス56を用いて実現することができる。量子化インデックス56(または重みレベル)は、量子化セット52の内部(すなわち、再構成レベルのセットの内部)で利用可能な再構成レベルを一意に識別する整数値である。量子化インデックス56は、(任意のエントロピー符号化技術を用いる)ビットストリーム14の一部として復号化器に送られる。復号化器側では、再構成されたニューラルネットワークパラメータ13は、再構成レベルの現在のセット48(これは、符号化/再構成順序において先行する量子化インデックスによって決定される)および現在のニューラルネットワークパラメータ13’に対する送信された量子化インデックス56に基づいて一意に計算することが可能である。
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが第1のセットである場合、それぞれのニューラルネットワークパラメータに対する量子化インデックスを2倍して、それぞれのニューラルネットワークパラメータに対する中間値を求め;及び、
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが2番目のセットであり、それぞれのニューラルネットワークパラメータの量子化インデックスがゼロに等しい場合、それぞれのサンプルの中間値をゼロに設定し;及び、
それぞれのニューラルネットワークパラメータについての選択された再構成レベルセットが第2のセットであり、それぞれのニューラルネットワークパラメータに対する量子化インデックスがゼロより大きい場合、それぞれのニューラルネットワークパラメータに対する量子化インデックスを2倍し、その乗算結果から1を引いてそれぞれのニューラルネットワークパラメータに対する中間値を得て、及び、
現在のニューラルネットワークパラメータについての選択された再構成レベルセットが第2のセットであり、それぞれのニューラルネットワークパラメータに対する量子化インデックスがゼロより小さい場合、それぞれのニューラルネットワークパラメータの量子化インデックスを2倍し、その乗算結果に1を加えて、それぞれのニューラルネットワークパラメータの中間値を得る。
4.3.1節および4.3.2節で説明した再構成レベルのセットの選択に加えて、ニューラルネットワークパラメータ符号化における依存スカラー量子化のもう一つの重要な設計側面は、定義された量子化セット(再構成レベルのセット)間の切り替えに使用するアルゴリズムである。使用されるアルゴリズムによって、ニューラルネットワークパラメータ13のN次元空間(したがって、再構成されたサンプルのN次元空間も同様)で達成できる「パッキング密度」が決まる。パッキング密度が高ければ高いほど、最終的に符号化効率が向上する。
- サブセットAは、量子化セット0のすべての偶数量子化インデックスから構成される。
- サブセットBは、量子化セット0のすべての奇数量子化インデックスから構成される。
- サブセットCは、量子化セット1のすべての偶数量子化インデックスから構成される。
- サブセットDは、量子化セット1のすべての奇数量子化インデックスで構成される。
・層のための第1の状態は、固定された事前定義された値に常に等しく設定される。好ましい実施形態では、第1の状態は0に等しく設定される。
・第1の状態の値は、ビットストリーム14の一部として明示的に送信される。これは、可能な状態値のサブセットのみが対応するシンタックス要素によって示され得るアプローチを含む。
・第1の状態の値は、その層の他のシンタックス要素に基づいて導出される。つまり、対応するシンタックス要素(またはシンタックス要素)が復号化器への他の態様のシグナリングに使用されても、それらは、依存スカラー量子化のための第1の状態を導出するために追加的に使用されることを意味する。
・状態0:前の量子化インデックスlevel[k-1]はセット0の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット0の再構成レベルを指定する。
・状態1:前の量子化インデックスlevel[k-1]はセット0の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット1の再構成レベルを指定する。
・状態2:前の量子化インデックスlevel[k-1]はセット1の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット0の再構成レベルを指定する。
・状態3:前の量子化インデックスlevel[k-1]はセット1の再構成レベルを指定し、現在の量子化インデックスlevel[k]はセット1の再構成レベルを指定する。
依存量子化によって得られた量子化インデックスは、エントロピー符号化方式によって符号化される。これには、任意のエントロピー符号化法が適用可能である。本発明の好ましい実施形態では、コンテキスト適応的2値算術符号化(CABAC)を用いた、第2.2節(符号化方法については第2.2.1節、復号化方法については第2.2.2節参照)によるエントロピー符号化方法が適用される。このために、例えば図5に示すように、量子化インデックスを絶対値として送信するために、まず非2値が一連の2値決定(いわゆるビン)上にマッピングされる(2値化)。
依存スカラー量子化の主な態様は、ニューラルネットワークパラメータ13のための許容される再構成レベルの異なるセット(量子化セットとも呼ばれる)が存在することである。現在のニューラルネットワークパラメータ13’に対する量子化セットは、先行するニューラルネットワークパラメータに対する量子化インデックス56の値に基づいて決定される。図11の好ましい例を考え、2つの量子化セットを比較すると、ゼロに等しい再構成レベルと隣接する再構成レベルとの間の距離は、セット0においてセット1よりも大きいことは明らかである。したがって、量子化インデックス56が0に等しい確率は、セット0が使用される場合により大きく、セット1が使用される場合により小さくなる。好ましい実施形態では、この効果は、現在の量子化インデックスに使用される量子化セット(または状態)に基づいてコードワード表または確率モデルを切り替えることによって、エントロピー符号化で利用される。
・量子化インデックスの絶対値は、適応型確率モデルを用いて符号化される多数のビンと、適応的に符号化されたビンが既に完全に絶対値を指定していない場合、算術符号化エンジンのバイパスモードで符号化されるサフィックス部分(全ビンに対してpmf(例えば確率質量関数)(0.5、0.5)を有する非適応型確率モデル)と、からなる2値方式を用いて送信される。好ましい実施形態では、サフィックス部分に使用される2値化は、既に送信された量子化インデックスの値に依存する。
・量子化インデックスの絶対値に対する2値化は、量子化インデックスが0に等しくないかどうかを指定する適応的に符号化されたビンを含む。このビンの符号化に用いられる確率モデル(コンテキストと呼ばれる)は、候補確率モデルのセットの中から選択される。選択された候補確率モデルは、現在の量子化インデックス56に対する量子化セット(許容再構成レベルのセット)または状態変数によって決定されるだけでなく、加えて、その層に対する既に送信された量子化インデックスによっても決定される。好ましい実施形態では、量子化セット(または状態変数)は、利用可能な確率モデルのサブセット(コンテキストセットとも呼ばれる)を決定し、既に符号化された量子化インデックスの値は、このサブセット(コンテキストセット)内において使用される確率モデルを決定する。
・局所近傍で0に等しくない量子化インデックスの符号。
・局所近傍領域で0に等しくない量子化インデックスの数。この数は最大値にクリップ(短縮化)される可能性がある。
・局所近傍における量子化インデックスの絶対値の合計。この数値は最大値にクリップされる可能性がある。
・局所近傍における量子化インデックスの絶対値の合計と、局所近傍における0に等しくない量子化インデックスの数との差。この数値は最大値にクリップされる可能性がある。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計値
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計と、
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
の間の差。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計値。
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの絶対値の合計と、
現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
の差。
1.初期状態でのレート歪みコストを0に設定する。
2.符号化順序におけるすべてのニューラルネットワークのパラメータ13に対して、次のようにする。
a.各サブセットA、B、C、Dについて、与えられたオリジナルのニューラルネットワークパラメータ13に対する歪みを最小化する量子化インデックス56を決定する。
b.現在のニューラルネットワークパラメータ13’に対する全てのトレリスノード(0、1、2、3)に対して、以下を行う。
i 先行するニューラルネットワークパラメータ13の状態と現在の状態とを結ぶ2つのパスのレート歪みコストを計算する。コストは、先行する状態に対するコストと、Dk+λ・Rkの合計として与えられ、ここで、DkとRkは、考慮される接続に関連するサブセット(A、B、C、D)の量子化インデックスを選択するための歪みとレートを表す。
ii 計算されたコストの最小値を現在のノードに割り当て、最小コストのパスを表さない以前のニューラルネットワークパラメータ13の状態への接続を取り除く。
注:このステップの後、現在のニューラルネットワークパラメータ13’に対するすべてのノードは、先行するニューラルネットワークパラメータ13に対する任意のノードへの単一の接続を有する。
3.(符号化順序における最後のパラメータについての)4つの最終ノードのコストを比較し、コストが最小のノードを選択する。このノードは、トレリスを通るユニークなパスに関連していることに注意(他のすべての接続は以前のステップで取り除かれた)。
4.(最終ノードで指定される)選択したパスを逆順にたどり、トレリスノード間の接続に関連する量子化インデックス56を収集する。
・復号化されるテンソルの次元を指定する変数 tensorDims。
・復号化のためのエントリポイントが存在するかどうか、およびエントリポイントが存在する場合エントリポイントオフセットを示す変数 entryPointOffset。
・コードブックの有無と、コードブックが適用されるかどうか、及びコードブックが適用される場合はどのコードブックを使用するかを示す変数 codebookId。
このプロセスの出力は、TENSOR_FLOAT 型の変数recParamであり、次元はtensorDimsと等しい。
変数ctxIncは、以下のように導出される。
・sig_flagが0であれば、ctxIncにはstateId*3が設定される。
・そうでなければ、sign_flagが0に等しい場合、ctxIncはstateId*3+1に設定される。
・そうでなければ、ctxIncはstateId*3+2に設定される。
Claims (111)
- ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)をデータストリーム(14)から復号化するための装置であって、
現在のニューラルネットワークパラメータ(13’)について、以前のニューラルネットワークパラメータについての前記データストリーム(14)から復号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)し、
前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する量子化インデックス(56)を復号化し、ここで前記量子化インデックス(56)は、前記現在のニューラルネットワークパラメータについての前記選択された再構成レベルセット(48)のうちの1つの再構成レベルを示し、
前記現在のニューラルネットワークパラメータ(13’)を、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)によって示される前記選択された再構成レベルセット(48)のうちの前記1つの再構成レベルに逆量子化(62)することにより、前記ニューラルネットワークパラメータ(13‘)を順次復号化する、装置。 - 前記ニューラルネットワークパラメータ(13)が、前記ニューラルネットワーク(10)のニューロン相互接続(11)の重みに関連する、請求項1に記載の装置。
- 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の数は2である、請求項1又は2に記載の装置。
- 前記複数(50)の再構成レベルセット(52)を前記所定の量子化ステップサイズ(QP)によりパラメータ化(60)し、前記データストリーム(14)から前記所定の量子化ステップサイズに関する情報を導出するように構成される、請求項1乃至3のいずれかに記載の装置。
- 前記ニューラルネットワークが1つ以上のNN層を含み、前記装置は、
それぞれのNN層(p;p-1)について、前記データストリーム(14)から前記それぞれのNN層についての所定の量子化ステップサイズに関する情報を導出し、
前記それぞれのNN層について、前記それぞれのNN層に属する前記ニューラルネットワークパラメータを逆量子化するために使用されるように、前記それぞれのNN層について導出された前記所定の量子化ステップサイズを使用して前記複数(50)の再構成レベルセット(52)をパラメータ化するように構成されている、請求項1乃至4のいずれかに記載の装置。 - 前記複数(50)の再構成レベルセット(52)うちの再構成レベルセット(52)の数は2であり、前記複数の再構成レベルセットは、
ゼロと所定の量子化ステップサイズの偶数倍とを含む第1の再構成レベルセット(セット0)と、
ゼロと所定の量子化ステップサイズの奇数倍とを含む第2の再構成レベルセット(セット1)とを備える、請求項1乃至5のいずれかに記載の装置。 - すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズの整数倍を表し、前記装置は、
それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記エントロピー復号化後の量子化インデックスとに応じて中間整数値を導出し、及び、
それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記中間値を、前記それぞれのニューラルネットワークパラメータについての前記所定の量子化ステップサイズで乗算することにより、前記ニューラルネットワークパラメータを逆量子化するように構成される、請求項1乃至6のいずれかに記載の装置。 - 前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の前記数は2であり、前記装置は、
前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第1のセットである場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍して、前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロに等しい場合、前記それぞれのサンプルについての前記中間値をゼロに等しく設定し、及び、
それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより大きい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果から1を引いて前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
現在のニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより小さい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果に1を加えて、前記それぞれのニューラルネットワークパラメータについての前記中間値を得ることにより、それぞれのニューラルネットワークパラメータについての前記中間値を導出するように構成される、請求項7に記載の装置。 - 前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについての前記データストリーム(14)から復号化された前記量子化インデックス(58)を2値化したもののLSB部分又は以前に復号化されたビンに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至8のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについての前記データストリーム(14)から復号化された前記量子化インデックス(58)の2値関数の結果に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至8のいずれかに記載の装置。
- 前記装置は、前記現在のニューラルネットワークパラメータ(13’)について、以前に復号化されたニューラルネットワークパラメータについて前記データストリーム(14)から復号化された前記量子化インデックス(58)のパリティに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項1乃至10のいずれかに記載の装置。
- 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の前記数は2であり、前記装置は、
前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータについてのサブセットインデックスを導き出し、前記サブセットインデックスについての4つの可能な値を生じさせ、;及び、
前記現在のニューラルネットワークパラメータ(13‘)について、以前に復号化されたニューラルネットワークパラメータについての前記サブセットインデックスに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項1乃至11のいずれかに記載の装置。 - 前記装置は、
前記現在のニューラルネットワークパラメータ(13’)について、直前に復号化された複数のニューラルネットワークパラメータについての前記サブセットインデックスに対応する選択ルールを用いて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択し(54)、前記選択ルールを前記ニューラルネットワークパラメータのすべて、又は一部に対して使用するように構成されている、請求項12に記載の装置。 - 前記選択ルールが対応する、直前に復号化されたニューラルネットワークパラメータの数は2である、請求項13に記載の装置。
- それぞれのニューラルネットワークパラメータについての前記サブセットインデックスは、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスのパリティとに基づいて導出される、請求項12乃至14のいずれかに記載の装置。
- 前記装置は、
前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項1乃至15のいずれかに記載の装置。 - 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)の2値関数を用いて、後続の前記ニューラルネットワークパラメータの前記状態を更新するように構成される、請求項16に記載の装置。
- 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)のパリティを使用して、前記後続のニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項16に記載の装置。
- 前記状態遷移プロセスは、4つ又は8つの可能な状態の間で遷移するように構成される、請求項16乃至18のいずれかに記載の装置。
- 前記状態遷移プロセスにおいて、偶数の可能な状態の間で遷移し、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数が2であるように構成され、ここで、前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する前記状態に応じて、前記量子化セット(52)のうち前記量子化レベルセット(48)を決定することで、前記状態が前記偶数の可能な状態のうちの前半に属する場合、前記複数(50)の再構成レベルセット(52)のうち第1の再構成レベルセットが決定され、前記状態が前記偶数の可能な状態のうちの後半に属している場合、前記複数(50)の再構成レベルセット(52)のうち第2の再構成レベルセットが決定される、請求項16乃至19のいずれかに記載の装置。
- 前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記状態及び前記量子化インデックス(58)のパリティの組み合わせを、前記後続のニューラルネットワークパラメータに関連する別の状態にマッピングする遷移テーブルによって、前記状態の前記更新を実行するように構成される、請求項16乃至20のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデル(123)を用いる算術符号化を用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を復号化するよう構成される、請求項1乃至21のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
前記直前のニューラルネットワークパラメータについての前記データストリームから復号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択(54)し、及び、
前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を、前記現在のニューラルネットワークパラメータ(13’)についての前記状態に対応する(122)確率モデルを用いる算術符号化を用いて前記データストリーム(14)から復号化するように構成される、請求項1乃至21のいずれかに記載の装置。 - 前記量子化インデックス(56)を2値化(82)したものの少なくとも1つのビン(84)についての前記現在のニューラルネットワークパラメータ(13’)に対する前記状態に対応する(122)前記確率モデルを用いることにより、2値算術符号化を用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を復号化するように構成される、請求項23に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項23に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビン(86)を含む、請求項23乃至25のいずれかに記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示す、greater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項23乃至26のいずれかに記載の装置。
- 前記確率モデルの前記依存性が、前記依存性を用いた前記ニューラルネットワークパラメータについてのコンテキストセットのうちのコンテキスト(87)の選択(103)を含み、それぞれのコンテキストは所定の確率モデルが関連づけられているように構成される、請求項22、23、25乃至27のいずれかに記載の装置。
- 前記それぞれのコンテキストを用いて算術符号化された前記量子化インデックスに基づいて、前記コンテキストのそれぞれに関連付けられた前記所定の確率モデルを更新するように構成される、請求項28に記載の装置。
- 前記量子化インデックスを2値化したものの少なくとも1つのビンについて、前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデルを用いて、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて復号化するよう構成される、請求項1乃至29のいずれかに記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項30に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビンを含む、請求項30又は31に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示すgreater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項30乃至32のいずれかに記載の装置。
- 前記確率モデルが、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに追加的に対応する、請求項22乃至33のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、複数の確率モデルの中から確率モデルのサブセットを事前選択し、確率モデルの前記サブセットの中から前記現在のニューラルネットワークパラメータについての前記確率モデルを、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて(121)選択するように構成される、請求項34に記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、第1の状態又は再構成レベルセットについての事前選択されたサブセットが、任意の他の状態又は再構成レベルセットについての事前選択されたサブセットと互いに素であるように、前記複数の確率モデルの中から確率モデルの前記サブセットを事前選択するように構成される、請求項35に記載の装置。
- 前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記確率モデルのサブセットの中から前記現在のニューラルネットワークパラメータの前記確率モデルを選択するように構成される、請求項35又は36に記載の装置。
- 前記装置は、前記確率モデルのサブセットのうちの前記現在のニューラルネットワークパラメータについての前記確率モデルを、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスの特性に応じて選択するように構成され、前記特性は、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に復号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、の差と、のうち1つ以上を含む、請求項35又は36に記載の装置。 - 前記以前に復号化されたニューラルネットワークパラメータが前記現在のニューラルネットワークパラメータと同じニューラルネットワーク層に関連するように、前記以前に復号化されたニューラルネットワークパラメータを位置づけるように構成される、請求項37又は38に記載の装置。
- 1つ以上の前記以前に復号化されたニューラルネットワークパラメータが、前記現在のニューラルネットワークパラメータが参照するニューロン相互接続が関連するニューロンまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続又はこれらのニューロンに向かうニューロン相互接続に関連するように、前記以前に復号化されたニューラルネットワークパラメータのうちの1つ以上のパラメータを位置付けるように構成される、請求項37及び39のいずれかに記載の装置。
- 前記ニューラルネットワークパラメータ(13)についての前記量子化インデックス(56)を復号化し、前記ニューラルネットワークパラメータ(13)間の共通の連続的な順序(14’)に沿って前記ニューラルネットワークパラメータ(13)の前記逆量子化を実行するように構成される、請求項1乃至40のいずれかに記載の装置。
- 前記量子化インデックスを2値化したものの1つ以上のリーディングビン(leading bins)についての以前に復号化されたニューラルネットワークパラメータに対応する前記確率モデルを用いることによって、及び、前記1つ以上のリーディングビンに後続する前記量子化インデックスを前記2値化したものの等確率バイパスモードサフィックスビンを用いることによって、前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて復号化するよう構成される、請求項1乃至41のいずれかに記載の装置。
- 前記量子化インデックスを前記2値化したもののサフィックスビンは、絶対値が前記1つ以上の前記リーディングビンによって表現可能な最大絶対値を超える前記量子化インデックスの値を2値化するためのサフィックス2値化の2値化コードのビンを表し、前記装置は、以前に復号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記サフィックス2値化を選択するように構成される、請求項42に記載の装置。
- 前記ニューラルネットワークパラメータが、前記ニューラルネットワーク(10)が表現される再構成層のうちの1つの再構成層に関連するものであり、前記装置は、
前記ニューラルネットワークパラメータを、ニューラルネットワークパラメータ単位で、1つ以上の別の再構成層の対応するニューラルネットワークパラメータと組み合わせることによって、前記ニューラルネットワークを再構成するように構成される、請求項1乃至43のいずれかに記載の装置。 - 前記現在のニューラルネットワークパラメータに対応する、対応するニューラルネットワークパラメータに対応する確率モデルを用いる算術符号化を用いて前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する前記量子化インデックス(56)を復号化するように構成される、請求項44に記載の装置。
- ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための装置であって、
現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)し、
前記現在のニューラルネットワークパラメータ(13’)を、前記選択された再構成レベルセット(48)の1つの再構成レベル上に量子化(64)し、
前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)が量子化される前記1つの再構成レベルを示す前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を前記データストリーム(14)に符号化することにより、前記ニューラルネットワークパラメータ(13’)を順次符号化するように構成される、装置。 - 前記ニューラルネットワークパラメータ(13)が、前記ニューラルネットワーク(10)のニューロン相互接続(11)の重みに関連する、請求項46に記載の装置。
- 前記複数(50)の再構成レベルセット(52)のうち再構成レベルセット(52)の前記数は2である、請求項46又は47に記載の装置。
- 前記複数(50)の再構成レベルセット(52)を所定の量子化ステップサイズ(QP)によりパラメータ化(60)し、前記所定の量子化ステップサイズに関する情報を前記データストリーム(14)に挿入するように構成される、請求項46乃至48のいずれかに記載の装置。
- 前記ニューラルネットワークが1つ以上のNN層を含み、前記装置は、
それぞれのNN層(p;p-1)について、前記それぞれのNN層についての所定の量子化ステップサイズに関する情報を前記データストリーム(14)に挿入し、
前記それぞれのNN層に属する前記ニューラルネットワークパラメータを量子化するために使用されるように、前記それぞれのNN層について導出された前記所定の量子化ステップサイズを使用して、それぞれのNN層について、前記複数(50)の再構成レベルセット(52)をパラメータ化するように構成されている、請求項1乃至49のいずれかに記載の装置。 - 前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数は2であり、前記複数の再構成レベルセットは、
ゼロ及び所定の量子化ステップサイズの偶数倍を含む第1の再構成レベルセット(セット0)と、
ゼロ及び前記所定の量子化ステップサイズの奇数倍を含む第2の再構成レベルセット(セット1)とを含む、請求項46乃至50のいずれかに記載の装置。 - すべての再構成レベルセットのすべての再構成レベルは、所定の量子化ステップサイズの整数倍を表し、前記装置は、
それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記エントロピー符号化後の量子化インデックスとに応じて中間整数値を導出し、及び、
それぞれのニューラルネットワークパラメータについて、前記それぞれのニューラルネットワークパラメータについての前記中間値を、前記それぞれのニューラルネットワークパラメータについての前記所定の量子化ステップサイズで乗算することにより、前記ニューラルネットワークパラメータを逆量子化できるように構成される、請求項46乃至51のいずれかに記載の装置。 - 前記複数(50)の再構成レベルセット(52)うちの再構成レベルセット(52)の前記数は2であり、前記装置は、
前記それぞれのニューラルネットワークパラメータのについての前記選択された再構成レベルセットが第1のセットである場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍して、前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロに等しい場合、前記それぞれのサンプルについての前記中間値をゼロに等しく設定し、及び、
それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、かつ前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより大きい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果から1を引いて前記それぞれのニューラルネットワークパラメータについての前記中間値を得て、及び、
現在のニューラルネットワークパラメータについての前記選択された再構成レベルセットが第2のセットであり、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスがゼロより小さい場合、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスを2倍し、該乗算の結果に1を加えて、前記それぞれのニューラルネットワークパラメータについての前記中間値を得ることにより、それぞれのニューラルネットワークパラメータについての前記中間値を導出するように構成される、請求項52に記載の装置。 - 前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された前記量子化インデックス(58)を2値化したもののLSB部分又は以前に符号化されたビンに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至53のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータの前記データストリーム(14)に符号化された前記量子化インデックス(58)の2値関数の結果に応じて、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至53のいずれかに記載の装置。
- 前記装置は、前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについて前記データストリーム(14)に符号化された前記量子化インデックス(56)のパリティに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項46乃至55のいずれかに記載の装置。
- 前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(52)の前記数は2であり、前記装置は、
前記それぞれのニューラルネットワークパラメータのための前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスの2値関数とに基づいて、それぞれのニューラルネットワークパラメータについてのサブセットインデックスを導き出し、前記サブセットインデックスについての4つの可能な値を生じさせ、;及び、
前記現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記サブセットインデックスに応じて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択する(54)ように構成される、請求項46乃至56のいずれかに記載の装置。 - 前記装置は、
前記現在のニューラルネットワークパラメータ(13’)について、直前に符号化された多数のニューラルネットワークパラメータについての前記サブセットインデックス対応する選択ルールを用いて、前記複数(50)の再構成レベルセット(52)のうちの前記再構成レベルセット(48)を選択し(54)、前記選択ルールを前記ニューラルネットワークパラメータのすべて、又は一部に対して前記選択ルールを使用するように構成される、請求項57に記載の装置。 - 前記選択ルールが対応する、直前に符号化されたニューラルネットワークパラメータの数が2である、請求項58に記載の装置。
- それぞれのニューラルネットワークパラメータについての前記サブセットインデックスは、前記それぞれのニューラルネットワークパラメータについての前記選択された再構成レベルセットと、前記それぞれのニューラルネットワークパラメータについての前記量子化インデックスのパリティとに基づいて導出される、請求項57乃至59のいずれかに記載の装置。
- 前記装置は、
前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を決定することによって、及び、
前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての状態を更新することによって、
状態遷移プロセスににより前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択する(54)ように構成される、請求項46乃至60のいずれかに記載の装置。 - 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)の2値関数を使用して後続の前記ニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項61に記載の装置。
- 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)のパリティを使用して、前記後続のニューラルネットワークパラメータについての前記状態を更新するように構成される、請求項61に記載の装置。
- 前記状態遷移プロセスは、4つ又は8つの可能な状態の間で遷移するように構成される、請求項61乃至63のいずれかに記載の装置。
- 前記状態遷移プロセスにおいて、偶数の可能な状態の間で遷移し、前記複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(52)の数が2であるように構成され、ここで、前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する前記状態に応じて、前記量子化セット(52)のうち前記量子化レベルセット(48)を決定することで、前記状態が前記偶数の可能な状態のうちの前半に属する場合、前記複数(50)の再構成レベルセット(52)のうち第1の再構成レベルセットが決定され、前記状態が前記偶数の可能な状態のうちの後半に属している場合、前記複数(50)の再構成レベルセット(52)のうち第2の再構成レベルセットが決定されることである、請求項61乃至64のいずれかに記載の装置。
- 前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記状態及び前記量子化インデックス(58)のパリティの組み合わせを、前記後続のニューラルネットワークパラメータに関連する別の状態にマッピングする遷移テーブルによって、前記状態の前記更新を実行ずるように構成される、請求項61乃至65のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデル(123)を用いる算術符号化を用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を前記データストリーム(14)に符号化するように構成される、請求項46乃至66のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について、前記現在のニューラルネットワークパラメータ(13’)に関連する状態に応じて、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルのセット(48)を決定することによって、及び、
前記直前のニューラルネットワークパラメータについての前記データストリームに符号化された前記量子化インデックス(58)に応じて、後続のニューラルネットワークパラメータについての前記状態を更新することによって、
状態遷移プロセスにより、前記現在のニューラルネットワークパラメータ(13’)について、前記複数(50)の再構成レベルセット(52)のうちの前記量子化レベルセット(48)を選択(54)し、及び、
前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を、前記現在のニューラルネットワークパラメータ(13’)についての前記状態に対応する(122)確率モデルを用いる算術符号化を用いて前記データストリーム(14)に符号化するように構成される、請求項46乃至66のいずれかに記載の装置。 - 前記量子化インデックス(56)を2値化(82)したものの少なくとも1つのビン(84)についての前記現在のニューラルネットワークパラメータ(13’)に対する前記状態に対応する(122)前記確率モデルを用いることにより、2値算術符号化を用いて、前記データストリーム(14)に前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を符号化するように構成される、請求項68に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項68に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビン(86)を含む、請求項68乃至70のいずれかに記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示す、greater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項68乃至71のいずれかに記載の装置。
- 前記確率モデルの依存性が、前記依存性を用いた前記ニューラルネットワークパラメータについてのコンテキストセットのうちのコンテキスト(87)の選択(103)を含み、それぞれのコンテキストは所定の確率モデルが関連づけられているように構成される、請求項67、68、70乃至72のいずれかに記載の装置。
- 前記それぞれのコンテキストを用いて算術符号化された前記量子化インデックスに基づいて、前記コンテキストのそれぞれに関連付けられた前記所定の確率モデルを更新するように構成される、請求項73に記載の装置。
- 前記量子化インデックスを2値化したものの少なくとも1つのビンについて、前記現在のニューラルネットワークパラメータ(13’)について選択された前記再構成レベルセット(48)に対応する確率モデルを用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて前記データストリーム(14)に符号化するよう構成される、請求項46乃至74のいずれかに記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロに等しいか否かを示す有意性ビンを含む、請求項75に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)がゼロより大きいか又はゼロより小さいかを示す符号ビンを含む、請求項75又は76に記載の装置。
- 前記少なくとも1つのビンが、前記現在のニューラルネットワークパラメータの前記量子化インデックス(56)の絶対値がXより大きいか否かを示すgreater-than-Xビンを含み、ここでXがゼロより大きい整数である、請求項75乃至77のいずれかに記載の装置。
- 前記確率モデルが、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに追加的に対応する、請求項67乃至78のいずれかに記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、複数の確率モデルの中から確率モデルのサブセットを事前選択し、確率モデルの前記サブセットの中から前記現在のニューラルネットワークパラメータについての前記確率モデルを、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックス(121)に応じて選択するように構成される、請求項79に記載の装置。
- 前記現在のニューラルネットワークパラメータ(13’)について選択された再構成レベルの前記状態又は前記セット(48)に応じて、第1の状態又は再構成レベルセットについての事前選択されたサブセットが、任意の他の状態又は再構成レベルセットについての事前選択されたサブセットと互いに素であるように、前記複数の確率モデルの中から確率モデルの前記サブセットを事前選択するように構成される、請求項80に記載の装置。
- 前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記確率モデルのサブセットの中から前記現在のニューラルネットワークパラメータの前記確率モデルを選択するように構成される、請求項80又は81に記載の装置。
- 前記装置は、前記確率モデルのサブセットのうちの前記現在のニューラルネットワークパラメータについての前記確率モデルを、前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスの特性に応じて選択するように構成され、前記特性は、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータのゼロでない量子化インデックスの符号と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、
前記現在のニューラルネットワークパラメータが関連する部分に隣接する前記ニューラルネットワークの部分に関連する、以前に符号化されたニューラルネットワークパラメータの量子化インデックスの前記絶対値の合計値と、前記現在のニューラルネットワークパラメータが関連する部分に隣接するニューラルネットワークの部分に関連する、前記以前に符号化されたニューラルネットワークパラメータの量子化インデックスの数であって、ゼロでない数と、の差と、のうち1つ以上を含む、請求項80又は81に記載の装置。 - 前記以前に符号化されたニューラルネットワークパラメータが前記現在のニューラルネットワークパラメータと同じニューラルネットワーク層に関連するように、前記以前に符号化されたニューラルネットワークパラメータを位置づけるように構成される、請求項82及び83のいずれかに記載の装置。
- 1つ以上の前記以前に符号化されたニューラルネットワークパラメータが、前記現在のニューラルネットワークパラメータが参照するニューロン相互接続が関連するニューロンまたは該ニューロンに隣接する別のニューロンから出現するニューロン相互接続又はこれらのニューロンに向かうニューロン相互接続に関連するように、1つ以上の前記以前に符号化されたニューラルネットワークパラメータのうちの1つ以上のパラメータを位置付けるように構成される、請求項82及び84のいずれかに記載の装置。
- 前記ニューラルネットワークパラメータ(13)についての前記量子化インデックス(56)を符号化し、前記ニューラルネットワークパラメータ(13)間の共通の連続的な順序(14’)に沿って前記ニューラルネットワークパラメータ(13)の前記量子化を実行するように構成される、請求項46乃至75のいずれかに記載の装置。
- 前記量子化インデックスを2値化したものの1つ以上のリーディングビン(leading bins)についての以前に符号化されたニューラルネットワークパラメータに対応する前記確率モデルを用いることによって、及び、前記1つ以上のリーディングビンに抗オズする前記量子化インデックスを前記2値化したものの等確率バイパスモードサフィックスビンを用いることによって、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を2値算術符号化を用いて前記データストリーム(14)に符号化するよう構成される、請求項46乃至86のいずれかに記載の装置。
- 前記量子化インデックスを前記2値化したもののサフィックスビンは、絶対値が前記1つ以上の前記リーディングビンによって表現可能な最大絶対値を超える前記量子化インデックスの値を2値化するためのサフィックス2値化の2値化コードのビンを表し、前記装置は、以前に符号化されたニューラルネットワークパラメータの前記量子化インデックスに応じて、前記サフィックス2値化を選択するように構成される、請求項87に記載の装置。
- 前記ニューラルネットワークパラメータが、前記ニューラルネットワーク(10)が表現される再構成層のうちの1つの再構成層に関連するものであり、前記装置は、
前記ニューラルネットワークパラメータを、ニューラルネットワークパラメータ単位で、1つ以上の別の再構成層の対応するニューラルネットワークパラメータと組み合わせることによって前記ニューラルネットワークが再構成可能であるように構成される、請求項46乃至88のいずれかに記載の装置。 - 前記現在のニューラルネットワークパラメータに対応する、対応するニューラルネットワークパラメータに対応する確率モデルを用いる算術符号化を用いて、前記現在のニューラルネットワークパラメータ(13’)についての前記量子化インデックス(56)を前記データストリーム(14)に符号化するように構成される、請求項89に記載の装置。
- ビタビアルゴリズム(Viterbi algorithm)及びレート歪みコスト量(rate-distortion cost measure)を使用して前記選択及び/又は前記量子化を実行するように構成される、請求項46乃至90のいずれかに記載の装置。
- ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を再構成するための装置(310)であって、
第1の再構成層についての第1のニューラルネットワークパラメータを導出し、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を得て、
データストリーム(14)から第2の再構成層についての第2のニューラルネットワークパラメータ(13)を復号化(312)し、ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を得て、
それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることにより、前記ニューラルネットワークパラメータ(13)を再構成する(314)ように構成される、装置。 - 前記データストリームから、又は別個のデータストリームから、前記第1の再構成層についての前記第1のニューラルネットワークパラメータ(13)を復号化し(316)、及び、
前記第1及び第2の再構成層についての別個の確率コンテキストを用いるコンテキスト適応的エントロピー復号化によって、前記データストリームから前記第2の再構成層についての前記第2のニューラルネットワークパラメータ(13)を復号化するように構成される、請求項92に記載の装置(310)。 - ニューラルネットワークパラメータごとに、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とのパラメータ単位の合計又はパラメータ単位の積によって、前記ニューラルネットワークパラメータ(13)を再構成するように構成される、請求項92又は93に記載の装置(310)。
- 前記第1の再構成層のニューラルネットワークパラメータ値に対応する確率モデルを用いたコンテキスト適応的エントロピー復号化によって、前記データストリームから前記第2の再構成層のニューラルネットワークパラメータ値を復号化するように構成される、請求項92乃至94のいずれかに記載の装置(310)。
- コンテキスト適応的エントロピー復号化を行い、
前記第1の再構成層のニューラルネットワークパラメータ値に応じて、確率コンテキストセットの集合の中から確率コンテキストセットを選択し、
前記第1の再構成層のニューラルネットワークパラメータ値に応じて、前記選択された確率コンテキストセットの中から使用する確率コンテキストを選択することと、
により、前記データストリームから前記第2の再構成層のニューラルネットワークパラメータ値を復号化するように構成される、請求項92乃至95のいずれかに記載の装置(310)。 - 前記確率コンテキストセットの集合が3つの確率コンテキストセットを含み、前記装置は、
前記第1の再構成層のニューラルネットワークパラメータ値が負である場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
前記第1の再構成層のニューラルネットワークパラメータ値が正である場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
前記第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、前記確率コンテキストセットの集合の中から第3の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項96に記載の装置(310)。 - 前記確率コンテキストセットの集合が2つの確率コンテキストセットを含み、前記装置は、
前記第1の再構成層のニューラルネットワークパラメータ値が所定値より大きい場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、又は、
前記第1の再構成層のニューラルネットワークパラメータ値の絶対値が前記所定値より大きい場合、前記確率コンテキストセットの集合の中から前記第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値の前記絶対値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から前記第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項96に記載の装置(310)。 - ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1の再構成層についての第1ニューラルネットワークパラメータ(13)を用いて符号化する装置(320)であって、前記装置は、
ニューラルネットワークパラメータ(13)ごとに第2の再構成層のニューラルネットワークパラメータ値を含む、第2の再構成層についての第2のニューラルネットワークパラメータ(13)をデータストリーム(14)に符号化(322)するように構成され、
前記ニューラルネットワークパラメータ(13)は、それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である、装置(320)。 - 前記第1の再構成層についての前記第1のニューラルネットワークパラメータ(13)を前記データストリーム又は別個のデータストリームに符号化し、及び、
前記第1及び第2の再構成層についての別個の確率コンテキストを用いるコンテキスト適応的エントロピー符号化によって、前記第2の再構成層についての前記第2のニューラルネットワークパラメータ(13)を前記データストリームに符号化するように構成される、請求項99に記載の装置(320)。 - 前記ニューラルネットワークパラメータ(13)は、ニューラルネットワークパラメータごとに、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とのパラメータ単位の合計又はパラメータ単位の積によって再構成可能である、請求項99乃至100のいずれかに記載の装置(320)。
- 前記第1の再構成層のニューラルネットワークパラメータ値に対応する確率モデルを用いたコンテキスト適応的エントロピー符号化によって、前記第2の再構成層のニューラルネットワークパラメータ値を前記データストリームに符号化するように構成される、請求項99から101のいずれかに記載の装置(320)
- コンテキスト適応的エントロピー符号化を行い、
前記第1の再構成層のニューラルネットワークパラメータ値に応じて、確率コンテキストセットの集合の中から確率コンテキストセットを選択し、
前記第1の再構成層のニューラルネットワークパラメータ値に応じて、前記選択された確率コンテキストセットの中から使用する確率コンテキストを選択することと、
により、前記第2の再構成層のニューラルネットワークパラメータ値を前記データストリームに符号化するように構成される、請求項99乃至102のいずれかに記載の装置(320)。 - 前記確率コンテキストセットの集合が3つの確率コンテキストセットを含み、前記装置は、
前記第1の再構成層のニューラルネットワークパラメータ値が負である場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
前記第1の再構成層のニューラルネットワークパラメータ値が正である場合、前記確率コンテキストセットの集合の中から第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、
前記第1の再構成層のニューラルネットワークパラメータ値がゼロである場合、前記確率コンテキストセットの集合の中から第3の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項103記載の装置(320)。 - 前記確率コンテキストセットの集合が2つの確率コンテキストセットを含み、前記装置は、
前記第1の再構成層のニューラルネットワークパラメータ値が所定値より大きい場合、前記確率コンテキストセットの集合の中から第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から第2確率コンテキストセットを前記選択された確率コンテキストセットとして選択すし、又は、
前記第1の再構成層のニューラルネットワークパラメータ値の絶対値が前記所定値より大きい場合、前記確率コンテキストセットの集合の中から前記第1の確率コンテキストセットを前記選択された確率コンテキストセットとして選択し、前記第1の再構成層のニューラルネットワークパラメータ値の前記絶対値が前記所定値より大きくない場合、前記確率コンテキストセットの集合の中から前記第2の確率コンテキストセットを前記選択された確率コンテキストセットとして選択するように構成される、請求項103記載の装置(320)。 - ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)をデータストリーム(14)から復号化するための方法(400)であって、
現在のニューラルネットワークパラメータ(13’)について、以前のニューラルネットワークパラメータについて前記データストリーム(14)から復号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択する(54)ステップと、
前記データストリーム(14)から前記現在のニューラルネットワークパラメータ(13’)に対する量子化インデックス(56)を復号化する(420)ステップであって、前記量子化インデックス(56)は、前記現在のニューラルネットワークパラメータについての前記選択された再構成レベルセット(48)のうちの1つの再構成レベルを示し、
前記現在のニューラルネットワークパラメータ(13’)を、前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)によって示される前記選択された再構成レベルセット(48)のうちの前記1つの再構成レベル上に逆量子化する(62)ステップと、により、前記ニューラルネットワークパラメータ(13)を順次復号化するステップを含む、方法(400)。 - ニューラルネットワークを定義するニューラルネットワークパラメータをデータストリームに符号化するための方法(500)であって、
現在のニューラルネットワークパラメータ(13’)について、以前に符号化されたニューラルネットワークパラメータについての前記データストリーム(14)に符号化された量子化インデックス(58)に対応して、複数(50)の再構成レベルセット(52)のうちの再構成レベルセット(48)を選択(54)するステップと、
前記現在のニューラルネットワークパラメータ(13’)を、前記選択された再構成レベルセット(48)の1つの再構成レベル上に量子化する(64)ステップと、
前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)が量子化される前記1つの再構成レベルを示す前記現在のニューラルネットワークパラメータについての前記量子化インデックス(56)を前記データストリーム(14)に符号化する(530)ステップと、により、前記ニューラルネットワークパラメータ(13)を順次符号化するステップを含む、方法(500)。 - ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を再構成する方法(600)であって、
第1の再構成層についての第1のニューラルネットワークパラメータを導出(610)し、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を得るステップと、
データストリームから第2の再構成層のための第2のニューラルネットワークパラメータ(13)を復号化し、ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を得る(620)ステップと、及び、
それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることにより、前記ニューラルネットワークパラメータ(13)を再構成する(630)ステップと、を含む、方法(600)。 - ニューラルネットワーク(10)を定義するニューラルネットワークパラメータ(13)を、ニューラルネットワークパラメータ(13)ごとに、第1の再構成層のニューラルネットワークパラメータ値を含む第1再構成層についての第1ニューラルネットワークパラメータ(13)を用いて符号化する方法(700)であって、
ニューラルネットワークパラメータ(13)ごとに、第2の再構成層のニューラルネットワークパラメータ値を含む、第2の再構成層についての第2のニューラルネットワークパラメータ(13)をデータストリームに符号化(710)し、
前記ニューラルネットワークパラメータ(13)は、それぞれのニューラルネットワークパラメータについて、前記第1の再構成層のニューラルネットワークパラメータ値と前記第2の再構成層のニューラルネットワークパラメータ値とを組み合わせることによって再構成可能である、方法(700)。 - 請求項107及び109に記載の方法によって符号化されたデータストリーム。
- 前記プログラムが1つ以上のコンピュータ上で実行されるときに、請求項106、107、108又は109に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19218862.1 | 2019-12-20 | ||
EP19218862 | 2019-12-20 | ||
PCT/EP2020/087489 WO2021123438A1 (en) | 2019-12-20 | 2020-12-21 | Concepts for coding neural networks parameters |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023507502A true JP2023507502A (ja) | 2023-02-22 |
Family
ID=69104239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538077A Pending JP2023507502A (ja) | 2019-12-20 | 2020-12-21 | ニューラルネットワークのパラメータを符号化するための概念 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220393986A1 (ja) |
EP (1) | EP4078454A1 (ja) |
JP (1) | JP2023507502A (ja) |
KR (1) | KR20220127261A (ja) |
CN (1) | CN115087988A (ja) |
WO (1) | WO2021123438A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11909975B2 (en) * | 2021-06-18 | 2024-02-20 | Tencent America LLC | Dependent scalar quantization with substitution in neural image compression |
KR20240132484A (ko) * | 2022-01-09 | 2024-09-03 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 신경 네트워크 파라미터를 인코딩 및 디코딩하는 컨셉 |
WO2024013109A1 (en) * | 2022-07-11 | 2024-01-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder, decoder and methods for coding a data structure |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019185769A1 (en) * | 2018-03-29 | 2019-10-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dependent quantization |
-
2020
- 2020-12-21 KR KR1020227025245A patent/KR20220127261A/ko not_active Application Discontinuation
- 2020-12-21 JP JP2022538077A patent/JP2023507502A/ja active Pending
- 2020-12-21 CN CN202080094840.2A patent/CN115087988A/zh active Pending
- 2020-12-21 WO PCT/EP2020/087489 patent/WO2021123438A1/en active Application Filing
- 2020-12-21 EP EP20830246.3A patent/EP4078454A1/en active Pending
-
2022
- 2022-06-17 US US17/843,772 patent/US20220393986A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019185769A1 (en) * | 2018-03-29 | 2019-10-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dependent quantization |
Non-Patent Citations (1)
Title |
---|
SIMON WIEDEMANN ET AL.: "DeepCABAC: A universal compression algorithm for deep neural networks", ARXIV, JPN6023051036, 27 July 2019 (2019-07-27), pages 1 - 18, XP093191127, ISSN: 0005217634, DOI: 10.48550/arxiv.1907.11900 * |
Also Published As
Publication number | Publication date |
---|---|
CN115087988A (zh) | 2022-09-20 |
EP4078454A1 (en) | 2022-10-26 |
KR20220127261A (ko) | 2022-09-19 |
WO2021123438A1 (en) | 2021-06-24 |
US20220393986A1 (en) | 2022-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wiedemann et al. | DeepCABAC: A universal compression algorithm for deep neural networks | |
JP2023507502A (ja) | ニューラルネットワークのパラメータを符号化するための概念 | |
Kirchhoffer et al. | Overview of the neural network compression and representation (NNR) standard | |
US5959560A (en) | Data compression via alphabet partitioning and group partitioning | |
JP7356513B2 (ja) | ニューラルネットワークのパラメータを圧縮する方法および装置 | |
Wiedemann et al. | Deepcabac: Context-adaptive binary arithmetic coding for deep neural network compression | |
JP2023522886A (ja) | ニューラルネットワークパラメーターの表現の改良された概念 | |
Manohar et al. | An SMVQ-based reversible data hiding technique exploiting side match distortion | |
Bayazit et al. | Variable-length constrained-storage tree-structured vector quantization | |
Kossentini et al. | Finite-state residual vector quantization | |
EP1225543A2 (en) | HVQ-based filtering method | |
Kamal | Iteration free fractal image compression for color images using vector quantization, genetic algorithm and simulated annealing | |
US20240046100A1 (en) | Apparatus, method and computer program for decoding neural network parameters and apparatus, method and computer program for encoding neural network parameters using an update model | |
Thakur et al. | An improved symbol reduction technique based Huffman coder for efficient entropy coding in the transform coders | |
US20240364362A1 (en) | Concepts for encoding and decoding neural network parameters | |
Galan-Hernandez et al. | Advances in image and video compression using wavelet transforms and fovea centralis | |
Bhosale et al. | A Modified Image Template for FELICS Algorithm for Lossless Image Compression | |
Kakde et al. | Lossless Data Compression Using Golumb Codes | |
Jafarkhani et al. | Channel-matched hierarchical table-lookup vector quantization | |
Belogolovyi | Image compression based on LDPC codes | |
Wang | Lossless Image Compression | |
Hashemi et al. | Predictive vector quantization using neural networks | |
Budge et al. | An adaptive-search residual vector quantizer for airborne reconnaissance | |
Jiang et al. | Rate-distortion Optimized Trellis-Coded Quantization | |
Weber | Adaptive search residual vector quantization with no side information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241011 |