JP2023505647A - ニューラルネットワークモデルの圧縮 - Google Patents
ニューラルネットワークモデルの圧縮 Download PDFInfo
- Publication number
- JP2023505647A JP2023505647A JP2022527688A JP2022527688A JP2023505647A JP 2023505647 A JP2023505647 A JP 2023505647A JP 2022527688 A JP2022527688 A JP 2022527688A JP 2022527688 A JP2022527688 A JP 2022527688A JP 2023505647 A JP2023505647 A JP 2023505647A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- unified
- layer
- model
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003062 neural network model Methods 0.000 title abstract description 58
- 238000007906 compression Methods 0.000 title abstract description 30
- 230000006835 compression Effects 0.000 title abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 207
- 238000013528 artificial neural network Methods 0.000 claims abstract description 115
- 238000013139 quantization Methods 0.000 claims abstract description 102
- 230000001419 dependent effect Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 74
- 238000010606 normalization Methods 0.000 claims description 20
- 230000009467 reduction Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 230000006837 decompression Effects 0.000 abstract description 7
- 238000012549 training Methods 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 13
- 239000013598 vector Substances 0.000 description 9
- 238000007667 floating Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 101710092887 Integrator complex subunit 4 Proteins 0.000 description 1
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 1
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 1
- 102100037075 Proto-oncogene Wnt-3 Human genes 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/60—General implementation details not specific to a particular type of compression
- H03M7/6005—Decoder aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/3059—Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
- H03M7/3064—Segmenting
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/3082—Vector coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
ここで、kは、関連するパラメータレベル(伝送される量子化インデックス)を示す。
ここで、sgn(.)は、以下の符号関数を示す。
ここで、sttabは、表1を示す。
ここで、sは、LSAにおけるスケール因子を示し、Wは、重みテンソルを示し、Xはソースデータを示し、bはバイアスを示し、γ、σ、μ及びβは、batchnormパラメータであり、
は、取得したスケール因子を示し、且つ
は、取得したバイアスを示す。したがって、この場合、γ、σ、μ及びβを使用して、sではなく、α及びδを信号で伝送することができる。
ここで、λR≧0はデータ損失と正則化損失の寄与をバランスするハイパーパラメータである。
ここで、λU≧0は、オリジナル訓練ターゲットと重み統一の寄与をバランスするためのハイパーパラメータである。式11の£(D|Θ)を共同で最適化することで、重み係数の最適なセットを取得でき、これによって、更なる圧縮の有効性に大きく寄与する。また、式11の重み統一損失は、畳み込み演算が一般的な行列乗算(general matrix multiplication、GEMM)プロセスとして実行される基本的なプロセスを考慮に入れることで、計算を大幅に高速化することができる最適化された重み係数を生成する。なお、重み統一損失は、一般的な正則化をする場合(λR>0場合)又は有しない場合(λR=0場合)の一般的なターゲット損失に対する追加正則化項と見なされる。また、当該方法は柔軟に、任意の正則化損失£R(Θ)に適用されることができる。
ここで、LU(Wj)は、j番目の層で定義される統一損失であり、Nは、量子化損失が測定される総層数であり、Wjは、j番目の層の重み係数を示す。また、LU(Wj)は、各層に対して個別に計算されるため、本開示の他の部分において、スクリプトjは、その一般性を失うことなく、省略される。
によって、出力Bを計算する。
を生成する。グラウンドトゥルースアノテーション(ground-truth annotation)y及び推定出力
に基づき、ターゲット損失計算プロセスで、式11におけるターゲット訓練損失£T(D|Θ)を計算することができる。
付録:頭字語
DNN:深層ニューラルネットワーク
NNR:ニューラルネットワークのコーディングされた表現
CTU:コーディングツリーユニット
CTU3D:3次元コーディングツリーユニット
CU:コーディングユニット
CU3D:3次元コーディングユニット
RD:レート歪み
VVC:多用途ビデオコーディング
Claims (24)
- 復号器でニューラルネットワークを復号する方法であって、
ニューラルネットワークの圧縮表現のビットストリームから、依存量子化有効化フラグを受信するステップであって、前記依存量子化有効化フラグが、依存量子化方法を前記ニューラルネットワークのモデルパラメータに適用するかどうかを示すステップと、
前記依存量子化有効化フラグが、前記依存量子化方法を使用して前記ニューラルネットワークのモデルパラメータを符号化することを示すことに応答して、前記依存量子化方法に基づき、前記ニューラルネットワークのモデルパラメータを再構成するステップと、を含む方法。 - モデルレベル、層レベル、サブ層レベル、3次元コーディングユニット(CU3D)レベル、又は3次元コーディングツリーユニット(CTU3D)レベルで、前記依存量子化有効化フラグを信号で伝送する請求項1に記載の方法。
- 前記依存量子化有効化フラグが、均一量子化方法を使用して前記ニューラルネットワークのモデルパラメータを符号化することを示すことに応答して、前記均一量子化方法に基づき、前記ニューラルネットワークのモデルパラメータを再構成するステップをさらに含む請求項1又は2に記載の方法。
- 復号器でニューラルネットワークを復号する方法であって、
ニューラルネットワークの圧縮表現のビットストリームにおける重み係数の第2のサブ層を受信する前に、前記ビットストリームにおける係数の1つ又は複数の第1のサブ層を受信するステップであって、前記第1のサブ層と前記第2のサブ層が、前記ニューラルネットワークの層に属するステップを含む方法。 - 前記重み係数の第2のサブ層を再構成する前に、前記係数の1つ又は複数の第1のサブ層を再構成するステップをさらに含む請求項4に記載の方法。
- 前記係数の1つ又は複数の第1のサブ層は、スケール因子係数サブ層、バイアス係数サブ層、又は1つ又は複数のバッチ正規化係数サブ層を含む請求項4又は5に記載の方法。
- 前記ニューラルネットワークの層は、畳み込み層又は完全接続層である請求項4乃至6のいずれか1項に記載の方法。
- 前記1つ又は複数の第1のサブ層の係数は、量子化された値又は量子化されていない値で表される請求項4乃至7のいずれか1項に記載の方法。
- 前記ニューラルネットワークの圧縮表現のビットストリームとは別に伝送される前記ニューラルネットワークの構成情報に基づき、前記第1のサブ層及び前記第2のサブ層の復号シーケンスを決定するステップをさらに含む請求項4乃至8のいずれか1項に記載の方法。
- 前記1つ又は複数の第1のサブ層が前記ニューラルネットワークの層において使用可能かどうかを示す1つ又は複数のフラグを受信するステップをさらに含む請求項4乃至9のいずれか1項に記載の方法。
- 前記ニューラルネットワークの構成情報に基づき、1次元テンソルを、前記係数の第1のサブ層のうちの1つに対応するバイアス又はローカルスケールテンソルとして推定するステップをさらに含む請求項4乃至10のいずれか1項に記載の方法。
- 推定プロセス中に、再構成された前記係数の第1のサブ層をマージして、係数の組み合わせテンソルを生成するステップと、
前記重み係数の第2のサブ層の一部に属する再構成された重み係数を、前記重み係数の第2のサブ層の残りがまだ再構成されている間に、前記推定プロセスの入力として受信するステップと、
前記推定プロセス中に、前記係数の組み合わせテンソルと受信した再構成された重み係数に対する行列乗算を実行するステップと、を含む請求項4乃至11のいずれか1項に記載の方法。 - 復号器でニューラルネットワークを復号する方法であって、
ニューラルネットワークの圧縮表現のビットストリームにおける第1の統一有効化フラグを受信するステップであって、前記第1の統一有効化フラグが、統一パラメータリダクション方法を前記ニューラルネットワークのモデルパラメータに適用するかどうかを示すステップと、
前記第1の統一有効化フラグに基づき、前記ニューラルネットワークのモデルパラメータを再構成するステップと、を含む方法。 - 前記第1の統一有効化フラグは、モデルパラメータセット又は層パラメータセットに含まれる請求項13に記載の方法。
- 統一方法を前記ニューラルネットワークのモデルパラメータに適用すると決定したことに応答して、統一パフォーマンスマップを受信するステップをさらに含み、
前記統一パフォーマンスマップは、1つ又は複数の統一閾値と、対応する統一閾値によって圧縮されるニューラルネットワークの対応する1つ又は複数の推定精度セットとの間のマッピングを示す請求項13又は14に記載の方法。 - 前記統一パフォーマンスマップは、
前記1つ又は複数の統一閾値の数を示すシンタックス要素、
前記1つ又は複数の統一閾値のそれぞれに対応する相応的な統一閾値を示すシンタックス要素、又は、
前記1つ又は複数の統一閾値のそれぞれに対応する相応的な推定精度セットを示す1つ又は複数のシンタックス要素、のうちの1つ又は複数を含む請求項15に記載の方法。 - 前記統一パフォーマンスマップは、
モデルパラメータテンソル、前記モデルパラメータテンソルから分割されたスーパーブロック、又は、前記スーパーブロックから分割されたブロックのうちの1つ又は複数の次元を示す1つ又は複数のシンタックス要素をさらに含む請求項15に記載の方法。 - 前記第1の統一有効化フラグがモデルパラメータセットに含まれ、第2の統一有効化フラグが層パラメータセットに含まれ、前記第1の統一有効化フラグ及び前記第2の統一有効化フラグがそれぞれ、前記統一パラメータリダクション方法が有効化されたことを示す値を有することに応答して、前記ニューラルネットワークの圧縮表現のビットストリームにおいて、層パラメータセットにおける統一パフォーマンスマップのシンタックス要素の値を、前記層パラメータセットを参照する圧縮データに適用すると決定するステップをさらに含む請求項13乃至17のいずれか1項に記載の方法。
- メモリと、処理回路とを含む復号器であって、
前記処理回路は、前記メモリに記憶されたプログラムを実行することにより、請求項1乃至3のいずれか1項に記載の方法を実行する復号器。 - メモリと、処理回路とを含む復号器であって、
前記処理回路は、前記メモリに記憶されたプログラムを実行することにより、請求項4乃至12のいずれか1項に記載の方法を実行する復号器。 - メモリと、処理回路とを含む復号器であって、
前記処理回路は、前記メモリに記憶されたプログラムを実行することにより、請求項13乃至18のいずれか1項に記載の方法を実行する復号器。 - プロセッサーに、請求項1乃至3のいずれか1項に記載の方法を実行させるためのプログラム。
- プロセッサーに、請求項4乃至12のいずれか1項に記載の方法を実行させるためのプログラム。
- プロセッサーに、請求項13乃至18のいずれか1項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063011122P | 2020-04-16 | 2020-04-16 | |
US63/011,122 | 2020-04-16 | ||
US202063011908P | 2020-04-17 | 2020-04-17 | |
US63/011,908 | 2020-04-17 | ||
US202063042968P | 2020-06-23 | 2020-06-23 | |
US63/042,968 | 2020-06-23 | ||
US202063052368P | 2020-07-15 | 2020-07-15 | |
US63/052,368 | 2020-07-15 | ||
US17/225,486 | 2021-04-08 | ||
US17/225,486 US20210326710A1 (en) | 2020-04-16 | 2021-04-08 | Neural network model compression |
PCT/US2021/026995 WO2021211522A1 (en) | 2020-04-16 | 2021-04-13 | Neural network model compression |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505647A true JP2023505647A (ja) | 2023-02-10 |
JP7408799B2 JP7408799B2 (ja) | 2024-01-05 |
Family
ID=78082687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527688A Active JP7408799B2 (ja) | 2020-04-16 | 2021-04-13 | ニューラルネットワークモデルの圧縮 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210326710A1 (ja) |
EP (1) | EP4011071A4 (ja) |
JP (1) | JP7408799B2 (ja) |
KR (1) | KR20220058628A (ja) |
CN (1) | CN114402596A (ja) |
WO (1) | WO2021211522A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11948090B2 (en) * | 2020-03-06 | 2024-04-02 | Tencent America LLC | Method and apparatus for video coding |
US20220108488A1 (en) * | 2020-10-07 | 2022-04-07 | Qualcomm Incorporated | Angular mode and in-tree quantization in geometry point cloud compression |
KR102525122B1 (ko) | 2022-02-10 | 2023-04-25 | 주식회사 노타 | 신경망 모델을 압축하는 방법 및 이를 수행하는 전자 장치 |
CN114723033B (zh) * | 2022-06-10 | 2022-08-19 | 成都登临科技有限公司 | 数据处理方法、装置、ai芯片、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6287105B2 (ja) | 2013-11-22 | 2018-03-07 | ソニー株式会社 | 光通信デバイス、受信装置、送信装置及び送受信システム |
EP3342164B1 (en) * | 2015-09-03 | 2020-04-15 | MediaTek Inc. | Method and apparatus of neural network based processing in video coding |
US11107461B2 (en) * | 2016-06-01 | 2021-08-31 | Massachusetts Institute Of Technology | Low-power automatic speech recognition device |
US10643124B2 (en) * | 2016-08-12 | 2020-05-05 | Beijing Deephi Intelligent Technology Co., Ltd. | Method and device for quantizing complex artificial neural network |
US10332001B2 (en) * | 2016-12-15 | 2019-06-25 | WaveOne Inc. | Enhanced coding efficiency with progressive representation |
TWI731322B (zh) * | 2018-03-29 | 2021-06-21 | 弗勞恩霍夫爾協會 | 變換組 |
-
2021
- 2021-04-08 US US17/225,486 patent/US20210326710A1/en active Pending
- 2021-04-13 JP JP2022527688A patent/JP7408799B2/ja active Active
- 2021-04-13 WO PCT/US2021/026995 patent/WO2021211522A1/en unknown
- 2021-04-13 KR KR1020227011926A patent/KR20220058628A/ko active Search and Examination
- 2021-04-13 CN CN202180005390.XA patent/CN114402596A/zh active Pending
- 2021-04-13 EP EP21788018.6A patent/EP4011071A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210326710A1 (en) | 2021-10-21 |
KR20220058628A (ko) | 2022-05-09 |
EP4011071A1 (en) | 2022-06-15 |
JP7408799B2 (ja) | 2024-01-05 |
WO2021211522A1 (en) | 2021-10-21 |
CN114402596A (zh) | 2022-04-26 |
EP4011071A4 (en) | 2023-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7408799B2 (ja) | ニューラルネットワークモデルの圧縮 | |
CN112437930A (zh) | 以熟练的推理速度和功耗,生成神经网络的压缩表示 | |
WO2020154083A1 (en) | Neural network activation compression with non-uniform mantissas | |
US11671110B2 (en) | Method and apparatus for neural network model compression/decompression | |
US20210279594A1 (en) | Method and apparatus for video coding | |
US20230026190A1 (en) | Signaling of coding tree unit block partitioning in neural network model compression | |
US20230306239A1 (en) | Online training-based encoder tuning in neural image compression | |
US20230316048A1 (en) | Multi-rate computer vision task neural networks in compression domain | |
US20230336738A1 (en) | Multi-rate of computer vision task neural networks in compression domain | |
US20230316588A1 (en) | Online training-based encoder tuning with multi model selection in neural image compression | |
US20230334718A1 (en) | Online training computer vision task models in compression domain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7408799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |