JP2021528796A - 活性スパース化を用いたニューラルネットワーク加速・埋め込み圧縮システム及び方法 - Google Patents
活性スパース化を用いたニューラルネットワーク加速・埋め込み圧縮システム及び方法 Download PDFInfo
- Publication number
- JP2021528796A JP2021528796A JP2021520283A JP2021520283A JP2021528796A JP 2021528796 A JP2021528796 A JP 2021528796A JP 2021520283 A JP2021520283 A JP 2021520283A JP 2021520283 A JP2021520283 A JP 2021520283A JP 2021528796 A JP2021528796 A JP 2021528796A
- Authority
- JP
- Japan
- Prior art keywords
- activation
- neural network
- deep neural
- dnn
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 36
- 238000007906 compression Methods 0.000 title description 9
- 230000006835 compression Effects 0.000 title description 6
- 230000001133 acceleration Effects 0.000 title description 4
- 230000004913 activation Effects 0.000 claims abstract description 83
- 210000002569 neuron Anatomy 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 8
- 230000001419 dependent effect Effects 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 238000009966 trimming Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000002087 whitening effect Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 230000014509 gene expression Effects 0.000 abstract description 3
- 238000005457 optimization Methods 0.000 abstract description 3
- 230000015654 memory Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008555 neuronal activation Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
、音声、ビデオ、テキストなどの様々な入力データからDNNによって生成されたベクトル表現を圧縮するためのシステム、方法、及びコンピューター可読媒体を提供する。方法の実施形態は、入力としてニューラルネットワークアーキテクチャ及びタスク依存性損失関数を取り、ニューラルネットワークがトレーニングデータセットに対してどれだけうまく機能するかを測定し、スパースなニューロン活性化を伴うディープニューラルネットワークを出力する。本発明の手順は、ニューロンのスパース活性化を促進する正則化項でDNNの既存のトレーニング目的関数を拡張し、様々なアルゴリズムで最適化問題を解くことによってDNNを圧縮する。本開示はまた、算術演算の数を比例的に減らせるよう、DNNの推論中に活性化のスパース化を利用する方法、並びに、効率的な検索エンジンを構築するためにDNNによって生成されたスパース表現を使用する方法を示す。
Description
トワークの一部をトリミングすること、(iii)パラメータとニューロンの値の範囲を量子化して、値を表すビット数を減らすこととを含む、 DNNモデルのトリミングに集中している。
特定の実施形態と、下記の図面を参照として、本開示を説明する。
或いは、一般的に使用される演算、例えば「最大プーリング」、「ゼロパーディング」、「再形成」なども関数として用いられる。活性化コンプレッサ100のソフトウェアアーキテクチャでは、適用可能な関数やそれらの数値導関数は、図1に図示されているように、ネットワークモデルモジュール110で具現化される。
合とない場合のDNNのアーキテクチャ(計算グラフ)を入力する。ステップ230(「圧縮プロセス」)において、活性化コンプレッサ100は、収束するまでDNNを繰り返しスパース化する。ステップ240において、圧縮方法200は、同アーキテクチャであるがパラメータ値が異なる圧縮DNNの出力を生成する。圧縮方法200は、dnnを圧縮してスパース活性化を有するようにする。つまり、各レイヤーX(j)の非零要素(活性化ニューロン)の数は小さい。
L(X(J))項は損失関数(DNNの最後のレイヤーの出力のみに依存)を表し、R(X(j))項は、j番目のレイヤーの出力に対してかけられた活性化正則化器130を表す。次に、圧縮プロセス230は、ステップ320において、ネットワークモデルモジュール110及びデーリーダ140を介した誤差逆伝播によって目的の勾配を評価する。圧縮プロセス230は、全てのパラメータに対するF(W)の導関数を計算し、ステップ330におけるパラメータ更新は、得られた勾配とオプティマイザによって定められた更新方程式に従って、の値を変更する。ステップ340において、活性化コンプレッサ100は、目的が収束しているか否かを判定する。目的が収束していない場合、活性化コンプレッサ100は、ステップ320における勾配評価及びステップ330におけるパラメータを処理することによって、DNNを繰り返しスパース化し続ける。目的が収束すると、活性化コンプレッサ100はプロセスをステップ240に戻す。
Claims (28)
- ディープニューラルネットワーク(DNN)推論の計算コストを削減する方法であって、
(a)特定のタスクに基づき、ディープニューラルネットワークの予測性能を測定できる損失関数を決定することと、
(b)ディープニューラルネットワーク計算グラフと、関連付けられたパラメータ値とを有する、最初のディープニューラルネットワークを検索することと、
(c)スパース化率が収束するまで、ディープニューラルネットワークの活性ニューロンの数を繰り返しスパース化することと、
(d)活性スパース化ディープニューラルネットワークを生成/出力することと、を含む、方法。 - 前記スパース化ステップは、元の活性化関数をスパース化誘発活性化関数の新規セットで置き換え、目的関数を形成することによって前記損失関数を増大させることを含む、請求項1に記載の方法。
- 前記スパース化ステップは、前記損失関数を1つ以上の活性化正則化で拡張し、目的関数を形成することを含む、請求項1に記載の方法。
- 前記スパース化ステップは、拡張された活性化正則化を伴う誤差逆伝播法によって目的関数の勾配を評価することを含む、請求項3に記載の方法。
- 前記スパース化ステップは、スパース化誘発活性化関数を用いた誤差逆伝播法によって目的関数の勾配を評価することを含む、請求項3に記載の方法。
- 前記スパース化ステップは、勾配に基づいてディープニューラルネットワークに関連付けられた1つ以上のパラメータを繰り返し調整することを含む、請求項4又は5に記載の方法。
- 前記スパース化ステップは、スパース性率の変化が所定の閾値より小さくなるか否かをチェックして、ディープニューラルネットワークが収束する否かを判定することを含む、請求項6に記載の方法。
- 前記特定のタスクはトレーニングデータセットを含む、請求項1に記載の方法。
- 最後のレイヤーにおけるディープニューラルネットワークの活性ニューロンの数を減少させ、ディープニューラルネットワークにより生成されたベクトルの圧縮表現を得る、請求項1に記載の方法。
- 活性化コンプレッサであって、
複数のニューロンの活性化値を計算し、予測を計算するように構成されたネットワークモデルであって、前記ネットワークモデルは、ディープニューラルネットワーク(DNN)をパラメータ化する変数の集合を含み、前記ディープニューラルネットワークは複数のレイヤーにモジュール化され、各レイヤーは、1つ以上の前のレイヤーの出力を入力データとして受け取り、新しい出力セットを計算する、ネットワークモデルと、
前記ネットワークモデルに通信可能に連結され、予測とグラウンドトルス解答との不一致を測定する最初の罰則値を計算するように構成された損失関数モジュールと、
前記ネットワークモデルに通信可能に連結され、前記ネットワークモデルにおける活性ニューロンの数をスパース化できるニューロンを最小化することにより、前記ネットワークモデルのニューロン全ての活性化レベルを測定する第2の罰則値を計算するように構成された、活性化正則化器と、
前記ネットワークモデルに通信可能に連結され、複数のデータソースからディープニューラルネットワークの入力データを取得するパイプラインを含む、データ読み取りモジュールと、
前記損失関数モジュール及び前記活性化正則化器に通信可能に連結され、前記ネットワークモデルの変数集合の値を調整し、前記損失関数モジュールと前記活性化正則化器の目的関数を減少させるように構成されたオプティマイザと、を含む、活性化コンプレッサ。 - 前記ニューロンは、各レイヤーの1つ以上の出力を含む、請求項10に記載の活性化コンプレッサ。
- 前記予測は、前記最後のレイヤーの1つ以上の出力を含む、請求項10に記載の活性化コンプレッサ。
- 前記損失関数モジュールは、前記予測に対して罰則値の導関数を計算する、請求項10に記載の活性化コンプレッサ。
- 前記活性化正則化器は、前記ネットワークにおける活性ニューロンの数をスパース化できるニューロンを最小化することにより、前記ネットワークのニューロン全ての活性化レベルを測定する前記導関数を計算する、請求項10に記載の活性化コンプレッサ。
- 前記活性化正則化器は、前記活性化の値を直接正則化する、請求項10に記載の活性化コンプレッサ。
- 前記活性化正則化器は、各レイヤーの活性化のスパース化レベルを制御する複数のパラメータを正則化する、請求項10に記載の活性化コンプレッサ。
- 前記データ読み取りモジュールは、複数のデータソースから前記ディープニューラルネットワークの入力データを取得するためのパイプラインを含み、前記パイプラインには、少なくとも1つのトリミング、サブサンプリング、アップサンプリング、バッチ処理、ホワイトニング、正規化が含まれる、請求項18に記載の活性化コンプレッサ。
- 前記オプティマイザモジュールは、前記損失関数と前記活性化正則化器を含む目的関数を減少させるために、前記ネットワークモデル内の変数の値を調整するように構成される、請求項18に記載の活性化コンプレッサ。
- 前記入力データは、画像、音声、ビデオ、テキストのうち少なくとも1つである、請求項18に記載の活性化コンプレッサ。
- ディープニューラルネットワーク(DNN)の効率的な計算方法であって、
(a)複数のニューロンの活性化値を計算し、予測を計算するネットワークモデルであって、前記ネットワークモデルはディープニューラルネットワーク(DNN)をパラメータ化する変数の集合を含み、前記ディープニューラルネットワークは複数のレイヤーにモジュール化され、各レイヤーは、1つ以上の前の層の出力を入力データとして受け取り、新しい出力セットを計算する、ネットワークモデルを用意することと、
(b)ネットワークモデルとデータリーダを介した誤差逆伝播法による目的関数の勾配を評価することと、
(c)オプティマイザにより、前記ネットワークモデルにおける変数集合の値を調整して目的関数を減少させることで、前記勾配に基づいてDNNパラメータを更新することと、
(d)オプティマイザにより、目的の変化又は勾配の度が、所定の閾値に対して十分に小さいか否かを判定し、目的が収束したことを示すことと、を含み、
前記目的が収束していない場合は、ステップ(b)と(c)を繰り返し、
前記目的が収束すると、スパース化されたディープニューラルネットワークで出力を生成する、方法。 - 前記勾配評価ステップは、前記ネットワークモデルモジュールに前処理パイプラインによって提供された入力データを用いて、全てのレイヤー{X(j)}j=1…J(462)の活性化値を計算するように要求することを含む、請求項24に記載の方法。
- 前記DNNパラメータ更新ステップは、前記ネットワークモデルに、入力前処理パイプラインから前記ネットワークモデルに提供された入力データを用いて、予測(出力)レイヤーX(J)の値を計算し、前記損失関数モジュールに対するラベルを補正するように要求することを含む、請求項26に記載の方法。
- 前記入力データは、画像、音声、ビデオ、テキストのうち少なくとも1つである、請求項23に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862688891P | 2018-06-22 | 2018-06-22 | |
US62/688,891 | 2018-06-22 | ||
US16/446,938 | 2019-06-20 | ||
US16/446,938 US10832139B2 (en) | 2018-06-22 | 2019-06-20 | Neural network acceleration and embedding compression systems and methods with activation sparsification |
PCT/US2019/038422 WO2019246491A1 (en) | 2018-06-22 | 2019-06-21 | Neural network acceleration and embedding compression systems and methods with activation sparsification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528796A true JP2021528796A (ja) | 2021-10-21 |
JP7462623B2 JP7462623B2 (ja) | 2024-04-05 |
Family
ID=68982036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520283A Active JP7462623B2 (ja) | 2018-06-22 | 2019-06-21 | 活性スパース化を用いたニューラルネットワーク加速・埋め込み圧縮システム及び方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US10832139B2 (ja) |
EP (1) | EP3811297A4 (ja) |
JP (1) | JP7462623B2 (ja) |
KR (1) | KR20210029785A (ja) |
CN (1) | CN112585619A (ja) |
AU (1) | AU2019288674B2 (ja) |
CA (1) | CA3104646C (ja) |
IL (1) | IL279625B1 (ja) |
SG (1) | SG11202012911TA (ja) |
WO (1) | WO2019246491A1 (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543826A (zh) * | 2017-09-21 | 2019-03-29 | 杭州海康威视数字技术股份有限公司 | 一种基于深度神经网络的激活量量化方法及装置 |
WO2020072274A1 (en) * | 2018-10-01 | 2020-04-09 | Neuralmagic Inc. | Systems and methods for neural network pruning with accuracy preservation |
JP7206898B2 (ja) * | 2018-12-25 | 2023-01-18 | 富士通株式会社 | 学習装置、学習方法および学習プログラム |
US11966837B2 (en) * | 2019-03-13 | 2024-04-23 | International Business Machines Corporation | Compression of deep neural networks |
EP3748545A1 (en) * | 2019-06-07 | 2020-12-09 | Tata Consultancy Services Limited | Sparsity constraints and knowledge distillation based learning of sparser and compressed neural networks |
CN114746870A (zh) * | 2019-10-02 | 2022-07-12 | 诺基亚技术有限公司 | 用于神经网络压缩中优先级信令的高级语法 |
US11620435B2 (en) | 2019-10-10 | 2023-04-04 | International Business Machines Corporation | Domain specific model compression |
US11734569B2 (en) * | 2020-02-14 | 2023-08-22 | Wipro Limited | Method and system for improving performance of an artificial neural network (ANN) model |
CN111327472B (zh) * | 2020-02-24 | 2022-08-02 | 北京百度网讯科技有限公司 | 用于获取目标网络的方法及装置 |
CN113298223B (zh) * | 2020-02-24 | 2023-12-26 | 中科寒武纪科技股份有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN111460905A (zh) * | 2020-03-05 | 2020-07-28 | 重庆大学 | 稀疏量化神经网络编码模式识别方法与系统 |
US20220121909A1 (en) * | 2020-03-24 | 2022-04-21 | Lg Electronics Inc. | Training a neural network using stochastic whitening batch normalization |
US11113601B1 (en) * | 2020-06-30 | 2021-09-07 | Moffett Technologies Co., Limited | Method and system for balanced-weight sparse convolution processing |
CN111709493B (zh) * | 2020-07-10 | 2024-02-23 | 腾讯科技(深圳)有限公司 | 对象分类方法、训练方法、装置、设备及存储介质 |
CN112149797B (zh) * | 2020-08-18 | 2023-01-03 | Oppo(重庆)智能科技有限公司 | 神经网络结构优化方法和装置、电子设备 |
EP3965021B1 (en) * | 2020-09-07 | 2023-12-20 | Fujitsu Limited | A method of using clustering-based regularization in training a deep neural network to classify images |
JP7126534B2 (ja) * | 2020-09-29 | 2022-08-26 | 株式会社日立製作所 | 計算機システム、リソース再割当方法 |
CN112101529B (zh) * | 2020-10-14 | 2024-06-21 | 杭州海康威视数字技术股份有限公司 | 一种用于神经网络模型推理跨平台的部署方法及架构 |
US11068786B1 (en) | 2020-12-17 | 2021-07-20 | Moffett Technologies Co., Limited | System and method for domain specific neural network pruning |
CN112465141B (zh) * | 2020-12-18 | 2024-06-28 | 平安科技(深圳)有限公司 | 模型压缩方法、装置、电子设备及介质 |
CN112966810B (zh) * | 2021-02-02 | 2023-07-11 | 西北大学 | 基于改进YOLOv5s的头盔检测方法、装置、电子设备和存储介质 |
US20220300860A1 (en) * | 2021-03-18 | 2022-09-22 | The Bank Of New York Mellon | Methods and systems for generating predictions based on time series data using an ensemble modeling |
CN115222015A (zh) | 2021-04-21 | 2022-10-21 | 阿里巴巴新加坡控股有限公司 | 指令处理装置、加速单元和服务器 |
CN113313175B (zh) * | 2021-05-28 | 2024-02-27 | 北京大学 | 基于多元激活函数的稀疏正则化神经网络的图像分类方法 |
US11693692B2 (en) | 2021-06-17 | 2023-07-04 | International Business Machines Corporation | Program event recording storage alteration processing for a neural network accelerator instruction |
US11797270B2 (en) | 2021-06-17 | 2023-10-24 | International Business Machines Corporation | Single function to perform multiple operations with distinct operation parameter validation |
US11734013B2 (en) | 2021-06-17 | 2023-08-22 | International Business Machines Corporation | Exception summary for invalid values detected during instruction execution |
US11269632B1 (en) | 2021-06-17 | 2022-03-08 | International Business Machines Corporation | Data conversion to/from selected data type with implied rounding mode |
US12079658B2 (en) | 2021-06-17 | 2024-09-03 | International Business Machines Corporation | Detection of invalid machine-specific data types during data conversion |
US11669331B2 (en) | 2021-06-17 | 2023-06-06 | International Business Machines Corporation | Neural network processing assist instruction |
US11675592B2 (en) | 2021-06-17 | 2023-06-13 | International Business Machines Corporation | Instruction to query for model-dependent information |
US11429864B1 (en) * | 2021-08-16 | 2022-08-30 | Moffett International Co., Limited | System and method for bank-balanced sparse activation and joint-activation-weight-sparse training of neural networks |
US11960982B1 (en) | 2021-10-21 | 2024-04-16 | Neuralmagic, Inc. | System and method of determining and executing deep tensor columns in neural networks |
CN114611809A (zh) * | 2022-03-18 | 2022-06-10 | 北京工业大学 | 一种机器人恒力磨削优化方法、系统、设备和介质 |
US20230376725A1 (en) * | 2022-05-19 | 2023-11-23 | Microsoft Tachnology Licensing, LLC | Model customization of transformers for improved efficiency |
CN115146775B (zh) * | 2022-07-04 | 2023-05-23 | 同方威视技术股份有限公司 | 边缘设备推理加速方法、装置和数据处理系统 |
CN115935154B (zh) * | 2023-03-13 | 2023-11-24 | 南京邮电大学 | 基于稀疏表示与近端算法的射频信号特征遴选与识别方法 |
CN116882461B (zh) * | 2023-09-01 | 2023-11-21 | 北京航空航天大学 | 一种基于神经元可塑性的神经网络评估优化方法及系统 |
CN117808083B (zh) * | 2024-02-29 | 2024-05-03 | 浪潮电子信息产业股份有限公司 | 一种分布式训练通信方法、装置、系统、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10255628B2 (en) * | 2015-11-06 | 2019-04-09 | Adobe Inc. | Item recommendations via deep collaborative filtering |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
US10832123B2 (en) | 2016-08-12 | 2020-11-10 | Xilinx Technology Beijing Limited | Compression of deep neural networks with proper use of mask |
US10984308B2 (en) * | 2016-08-12 | 2021-04-20 | Xilinx Technology Beijing Limited | Compression method for deep neural networks with load balance |
CN107239825B (zh) * | 2016-08-22 | 2021-04-09 | 赛灵思电子科技(北京)有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
US12093813B2 (en) * | 2016-09-30 | 2024-09-17 | Intel Corporation | Dynamic neural network surgery |
CN107832847A (zh) * | 2017-10-26 | 2018-03-23 | 北京大学 | 一种基于稀疏化后向传播训练的神经网络模型压缩方法 |
-
2019
- 2019-06-20 US US16/446,938 patent/US10832139B2/en active Active
- 2019-06-21 KR KR1020217002240A patent/KR20210029785A/ko unknown
- 2019-06-21 SG SG11202012911TA patent/SG11202012911TA/en unknown
- 2019-06-21 CN CN201980054375.7A patent/CN112585619A/zh active Pending
- 2019-06-21 AU AU2019288674A patent/AU2019288674B2/en active Active
- 2019-06-21 EP EP19823047.6A patent/EP3811297A4/en active Pending
- 2019-06-21 IL IL279625A patent/IL279625B1/en unknown
- 2019-06-21 JP JP2021520283A patent/JP7462623B2/ja active Active
- 2019-06-21 WO PCT/US2019/038422 patent/WO2019246491A1/en unknown
- 2019-06-21 CA CA3104646A patent/CA3104646C/en active Active
Non-Patent Citations (2)
Title |
---|
SONG HAN, JEFF POOL, JOHN TRAN, WILLIAM J. DALLY: "Learning both Weights and Connections for Efficient Neural Networks", PROCEEDINGS OF THE 28TH INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS - VOLUME 1, JPN7023003161, 7 December 2015 (2015-12-07), pages 1 - 9, ISSN: 0005131897 * |
ZHUANG LIU ET AL.: "Learning Efficient Convolutional Networks through Network Slimming", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6023034228, 29 October 2017 (2017-10-29), pages 2755 - 2763, XP033283141, ISSN: 0005131896, DOI: 10.1109/ICCV.2017.298 * |
Also Published As
Publication number | Publication date |
---|---|
AU2019288674A1 (en) | 2021-02-18 |
CA3104646C (en) | 2023-07-04 |
CN112585619A (zh) | 2021-03-30 |
EP3811297A1 (en) | 2021-04-28 |
US10832139B2 (en) | 2020-11-10 |
SG11202012911TA (en) | 2021-01-28 |
AU2019288674B2 (en) | 2024-02-15 |
WO2019246491A1 (en) | 2019-12-26 |
KR20210029785A (ko) | 2021-03-16 |
CA3104646A1 (en) | 2019-12-26 |
US20190392323A1 (en) | 2019-12-26 |
EP3811297A4 (en) | 2022-03-30 |
IL279625A (en) | 2021-03-01 |
IL279625B1 (en) | 2024-09-01 |
JP7462623B2 (ja) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021528796A (ja) | 活性スパース化を用いたニューラルネットワーク加速・埋め込み圧縮システム及び方法 | |
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
US11423233B2 (en) | On-device projection neural networks for natural language understanding | |
US20220051104A1 (en) | Accelerating inference of traditional ml pipelines with neural network frameworks | |
CN113553510B (zh) | 一种文本信息推荐方法、装置及可读介质 | |
JP2022169743A (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
CN114723989A (zh) | 多任务学习方法、装置及电子设备 | |
Yuan et al. | Deep learning from a statistical perspective | |
US20240135187A1 (en) | Method for Training Large Language Models to Perform Query Intent Classification | |
US20220383069A1 (en) | Systems and Methods for Machine-Learned Models Having Convolution and Attention | |
Zantout et al. | Ensemble models for enhancement of an Arabic speech emotion recognition system | |
US20230297852A1 (en) | Multi-Stage Machine Learning Model Synthesis for Efficient Inference | |
CN116049377A (zh) | 一种基于矩阵分解和crnn的上下文感知推荐系统和方法 | |
JP2019133563A (ja) | 情報処理装置および情報処理システム | |
Soleimani et al. | Fast PMI-based word embedding with efficient use of unobserved patterns | |
US20240256865A1 (en) | Training neural networks using learned optimizers | |
US20240220867A1 (en) | Incorporation of decision trees in a neural network | |
Imani et al. | Deep neural network acceleration framework under hardware uncertainty | |
US20230124177A1 (en) | System and method for training a sparse neural network whilst maintaining sparsity | |
WO2024159132A1 (en) | Lifelong pretraining of mixture-of-experts neural networks | |
WO2024112887A1 (en) | Forward-forward training for machine learning | |
WO2024207020A1 (en) | Positional encoding for neural network attention | |
Huang | Appendix A: ChatGPT FAQ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230821 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7462623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |