JP6998968B2 - ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム - Google Patents
ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム Download PDFInfo
- Publication number
- JP6998968B2 JP6998968B2 JP2019549546A JP2019549546A JP6998968B2 JP 6998968 B2 JP6998968 B2 JP 6998968B2 JP 2019549546 A JP2019549546 A JP 2019549546A JP 2019549546 A JP2019549546 A JP 2019549546A JP 6998968 B2 JP6998968 B2 JP 6998968B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- layer
- deep neural
- neural network
- binary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- 238000013528 artificial neural network Methods 0.000 title claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 230000009467 reduction Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 9
- 230000010365 information processing Effects 0.000 description 8
- 230000004927 fusion Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000001994 activation Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 4
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Neurology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
[DNN]
まず、一般的なDNNについて説明する。
次に、本実施の形態に係る、推論時のDNNの実行方法を説明する。図1は、実施の形態に係るDNNによる実行方法を説明するためのモデル図である。理解されやすいよう、図中の(a)に従来の方法を示し、対比的に(b)に示す本実施の形態に係る方法を説明する。
次に、上記の方法を用いて実行されたディープニューラルネットワークのバックプロパゲーションによる学習方法について説明する。図2は、上記の実行方法での推論時におけるフォワードパスのモデル図である。また、図3は、上記の実行方法に対応するバックプロパゲーションにおけるバックワードパスのモデル図である。図2の推論パスは(式9)に、図3の推論パスは(式10)に対応する。
実施の形態で述べたバイナリ表現化を行うレイヤ及び量子化を行うレイヤを、ベースとなる浮動小数点ネットワークアーキテクチャとしてSqueezeNet V1.1及びMobilenet V2を用いて実行した。
本実施例では、「squeeze」レイヤの中で空間次元の最も高い方から選択した「fire2/squeeze」レイヤ及び「fire3/squeeze」レイヤを圧縮した。ネットワークへの入力の解像度は227×227であり、重みはすべて浮動小数点数であった。
「conv2_1/linear」特徴マップを圧縮した。この特徴マップは他の特徴マップより3倍以上サイズが大きいものであった。訓練に関するハイパーパラメータは上記のSqueezeNetの場合のものと共通である。イテレーション数は5万回で、学習率は比例変化させた。また、「conv2_1/linear」の後にReLUレイヤを追加して圧縮方法の現状の実装に適合させた。これにより、「conv2_1/linear」特徴マップは、当初は符号付き整数を含み、変更後には符号なし整数を含む。なお、バッチ正規化層によって訓練処理が不安定になることがあったため、正規化パラメータ及びスケーリングパラメータは固定して畳み込み層の重み及びバイアスにマージした。このようにして変更されたモデルに対し、当初のものから再学習を行った。図5は、MobileNetV2を用いたImageNetでの推論精度の評価結果の表である。各欄の項目の内容は図4の表とほぼ共通である。ただし、「量子化あり、バイナリ表現化なし」で用いたモデルの型は、上述の符号付き整数を含むもの(int9:符号付き9ビット整数等)である。
本実施例では、Pascal VOCのデータセットを利用して物体検知を実施し、その精度評価をした。より具体的には、VOC2007の4952点の画像と、VOC2007及びVOC2012を併せた16551点の画像からなる訓練データセットとを用いた。また、上記実施の形態における方法の実行には、SSD(Single Shot Detector)512モデルを用い、特徴抽出には、本来のVGG-16に変えて、ImageNetで事前訓練をしたSqueezeNetを用いた。これにより、パラメータの個数は4分の1に、全体推論時間は3分の1に減らすことができた。
図6は、本実施例における推論精度の評価結果の表を示す。各欄は左から、モデルの型、重みのデータサイズ、アクティベーションである特徴マップのデータサイズ、mAP(mean Average Precision)を示す。
図7は、上記のSSDモデルでのメモリ使用量をまとめた表である。なお、ここでは、全アクティベーションのメモリ使用量の80%以上を占める最も大きい特徴マップのみを計測の対象とした。
上記の様に、本開示におけるDNNの実行方法では、複数のレイヤの融合的演算及び量子化を含む従来のDNNの方法に、GF(2)上で推論及び学習を行う技術を加えて実行する。GF(2)のバイナリ表現を用いることで、特徴マップを、DNNに埋め込まれたオートエンコーダ的なレイヤを用いてより高次な空間で圧縮することができる。この圧縮-伸長レイヤは従来の畳み込みレイヤにビット単位の演算を加えて用いることで実装することができる。より正確には、本開示に係る方法は、有限体の濃度と引き換えにベクトル空間の次元性を得ることで、特徴をバイナリレベルで学習することを可能にするものである。本開示の推論のための圧縮の手法は、GPU(Graphics Processing Unit)、CPU(Central Processing Unit)、その他個別に設計されるアクセラレータにも適用することができる。また、バイナリを扱う既存のニューラルネットワークの適用範囲を、物体検知などの新たな応用分野に拡大して精度の高い成果を得ることが期待される。
以上、一つまたは複数の態様に係るDNNの実行方法及び学習方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものも、これらの態様のひとつとして含まれてもよい。
101 CPU
102 メインメモリ
103 ストレージ
104 通信I/F
105 GPU
Claims (7)
- ディープニューラルネットワークによる推論において、浮動小数点又は固定小数点で表現される中間特徴マップを、第一変換モジュールを用いてバイナリベクトルに変換することでバイナリ表現化したバイナリ中間特徴マップを取得し、
前記バイナリ中間特徴マップを、非線形次元削減レイヤで圧縮することで圧縮特徴マップを生成し、
前記圧縮特徴マップをメモリに書き込み、
前記メモリから読み出した前記圧縮特徴マップを、前記非線形次元削減レイヤに対応する再構築レイヤで伸長することで前記バイナリ中間特徴マップを再構築し、
再構築された前記バイナリ中間特徴マップを、第二変換モジュールを用いて浮動小数点又は固定小数点で表現される中間特徴マップに変換する
ディープニューラルネットワーク実行方法。 - 前記非線形次元削減レイヤは、1又は連続する複数の投影畳み込みレイヤであり、
前記再構築レイヤは、1又は連続する複数の再構築畳み込みレイヤである
請求項1に記載のディープニューラルネットワーク実行方法。 - 請求項1又は2に記載の方法を用いて実行されたディープニューラルネットワークのバックプロパゲーションによる学習方法であって、
前記第一変換モジュール及び前記第二変換モジュールの分析導関数を前記ディープニューラルネットワークが含むレイヤのうち後段レイヤの勾配に適用することで先段レイヤの勾配を生成し、
生成された前記先段レイヤの勾配に基づいて重みとバイアスを更新し、
恒等写像関数に基づいて前記非線形次元削減レイヤの重み及び前記再構築レイヤの重みを初期化する
ディープニューラルネットワーク学習方法。 - ディープニューラルネットワークによる推論を実行する、プロセッサを備える装置であって、
前記プロセッサは、
浮動小数点又は固定小数点で表現される中間特徴マップを、第一変換モジュールを用いてバイナリベクトルに変換することでバイナリ表現化したバイナリ中間特徴マップを取得し、
前記バイナリ中間特徴マップを、非線形次元削減レイヤで圧縮することで圧縮特徴マップを生成し、
前記圧縮特徴マップをメモリに書き込み、
前記メモリから読み出した前記圧縮特徴マップを、前記非線形次元削減レイヤに対応する再構築レイヤで伸長することで前記バイナリ中間特徴マップを再構築し、
再構築された前記バイナリ中間特徴マップを、第二変換モジュールを用いて浮動小数点又は固定小数点で表現される中間特徴マップに変換する
ディープニューラルネットワーク実行装置。 - 請求項1又は2に記載の方法を用いて実行されたディープニューラルネットワークのバックプロパゲーションによる学習を実行する、プロセッサを備える装置であって、
前記プロセッサは、
前記第一変換モジュール及び前記第二変換モジュールの分析導関数を前記ディープニューラルネットワークが含むレイヤのうち後段レイヤの勾配に適用することで先段レイヤの勾配を生成し、
生成された前記先段レイヤの勾配に基づいて重みとバイアスを更新し、
恒等写像関数に基づいて前記非線形次元削減レイヤの重み及び前記再構築レイヤの重みを初期化する
ディープニューラルネットワーク学習装置。 - 請求項1に記載のディープニューラルネットワーク実行方法をコンピュータに実行させるためのプログラム。
- 請求項3に記載のディープニューラルネットワーク学習方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762554224P | 2017-09-05 | 2017-09-05 | |
US62/554,224 | 2017-09-05 | ||
PCT/US2018/048867 WO2019050771A1 (en) | 2017-09-05 | 2018-08-30 | EXECUTION METHOD, EXECUTION DEVICE, LEARNING METHOD, LEARNING DEVICE, AND PROGRAM FOR DEEP NEURAL NETWORK |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020532777A JP2020532777A (ja) | 2020-11-12 |
JP6998968B2 true JP6998968B2 (ja) | 2022-01-18 |
Family
ID=65634935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019549546A Active JP6998968B2 (ja) | 2017-09-05 | 2018-08-30 | ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11481613B2 (ja) |
EP (1) | EP3679524A4 (ja) |
JP (1) | JP6998968B2 (ja) |
CN (1) | CN110663048B (ja) |
WO (1) | WO2019050771A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190068255A (ko) * | 2017-12-08 | 2019-06-18 | 삼성전자주식회사 | 고정 소수점 뉴럴 네트워크를 생성하는 방법 및 장치 |
CN108256644B (zh) * | 2018-01-05 | 2021-06-22 | 上海兆芯集成电路有限公司 | 微处理器电路以及执行神经网络运算的方法 |
CN110163370B (zh) * | 2019-05-24 | 2021-09-17 | 上海肇观电子科技有限公司 | 深度神经网络的压缩方法、芯片、电子设备及介质 |
CN112085181B (zh) * | 2019-06-12 | 2024-03-29 | 上海寒武纪信息科技有限公司 | 神经网络量化方法及装置以及相关产品 |
CN110738141A (zh) * | 2019-09-26 | 2020-01-31 | 五邑大学 | 一种静脉识别的方法、装置、设备及存储介质 |
CN111489739B (zh) * | 2020-04-17 | 2023-06-16 | 嘉楠明芯(北京)科技有限公司 | 音素识别方法、装置及计算机可读存储介质 |
US11829376B2 (en) * | 2020-05-06 | 2023-11-28 | Intel Corporation | Technologies for refining stochastic similarity search candidates |
US20220067529A1 (en) * | 2020-08-25 | 2022-03-03 | Microsoft Technology Licensing, Llc | Compressing and Decompressing Data for Language Models |
US20210241025A1 (en) * | 2020-10-28 | 2021-08-05 | Beijing More Health Technology Group Co. Ltd. | Object recognition method and apparatus, and storage medium |
JP2022077466A (ja) * | 2020-11-11 | 2022-05-23 | 日立Astemo株式会社 | 情報処理装置およびニューラルネットワーク縮約方法 |
CN112884123B (zh) * | 2021-02-23 | 2024-03-01 | 杭州海康威视数字技术股份有限公司 | 神经网络优化方法、装置、电子设备及可读存储介质 |
CN113593538B (zh) * | 2021-09-02 | 2024-05-03 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020638A (ja) | 2005-11-15 | 2013-01-31 | Garner Bernadette | 入力ベクトルがニューロンによって既知であるか未知であるかを決定する方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0734546B2 (ja) * | 1989-03-13 | 1995-04-12 | 彰 岩田 | データ圧縮装置 |
US5161204A (en) * | 1990-06-04 | 1992-11-03 | Neuristics, Inc. | Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices |
JPH08153081A (ja) * | 1994-11-30 | 1996-06-11 | Matsushita Electric Ind Co Ltd | 信号認識方法 |
US6832006B2 (en) * | 2001-07-23 | 2004-12-14 | Eastman Kodak Company | System and method for controlling image compression based on image emphasis |
US6608924B2 (en) * | 2001-12-05 | 2003-08-19 | New Mexico Technical Research Foundation | Neural network model for compressing/decompressing image/acoustic data files |
US20070233477A1 (en) * | 2006-03-30 | 2007-10-04 | Infima Ltd. | Lossless Data Compression Using Adaptive Context Modeling |
CN101094402A (zh) * | 2007-07-13 | 2007-12-26 | 青岛大学 | 基于神经网络与svm的图像编码方法 |
US8503539B2 (en) * | 2010-02-26 | 2013-08-06 | Bao Tran | High definition personal computer (PC) cam |
US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
CA3078075C (en) * | 2012-12-05 | 2022-02-08 | Applied Brain Research Inc. | Methods and systems for artificial cognition |
US9904889B2 (en) * | 2012-12-05 | 2018-02-27 | Applied Brain Research Inc. | Methods and systems for artificial cognition |
WO2014210368A1 (en) * | 2013-06-28 | 2014-12-31 | D-Wave Systems Inc. | Systems and methods for quantum processing of data |
JP6192010B2 (ja) * | 2013-09-05 | 2017-09-06 | 国立大学法人 東京大学 | 重み設定装置および方法 |
US20160026912A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
GB2530990A (en) * | 2014-10-06 | 2016-04-13 | Ibm | Decimal and binary floating point arithmetic calculations |
US9721190B2 (en) * | 2014-12-19 | 2017-08-01 | Google Inc. | Large-scale classification in neural networks using hashing |
US10223635B2 (en) * | 2015-01-22 | 2019-03-05 | Qualcomm Incorporated | Model compression and fine-tuning |
US10846589B2 (en) * | 2015-03-12 | 2020-11-24 | William Marsh Rice University | Automated compilation of probabilistic task description into executable neural network specification |
JP2016197389A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社デンソーアイティーラボラトリ | 学習システム、学習プログラムおよび学習方法 |
US10034005B2 (en) * | 2015-06-05 | 2018-07-24 | Sony Corporation | Banding prediction for video encoding |
US10509765B2 (en) * | 2015-10-08 | 2019-12-17 | Via Alliance Semiconductor Co., Ltd. | Neural processing unit that selectively writes back to neural memory either activation function output or accumulator value |
CN105979201A (zh) * | 2016-04-11 | 2016-09-28 | 上海大学 | 一种基于并行处理器的智能可穿戴设备 |
WO2018093796A1 (en) * | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
CN106909970B (zh) * | 2017-01-12 | 2020-04-21 | 南京风兴科技有限公司 | 一种基于近似计算的二值权重卷积神经网络硬件加速器计算装置 |
US10586344B2 (en) * | 2018-02-21 | 2020-03-10 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for feature screening in SLAM |
WO2020080827A1 (en) * | 2018-10-19 | 2020-04-23 | Samsung Electronics Co., Ltd. | Ai encoding apparatus and operation method of the same, and ai decoding apparatus and operation method of the same |
US10922573B2 (en) * | 2018-10-22 | 2021-02-16 | Future Health Works Ltd. | Computer based object detection within a video or image |
US10853670B2 (en) * | 2018-11-21 | 2020-12-01 | Ford Global Technologies, Llc | Road surface characterization using pose observations of adjacent vehicles |
-
2018
- 2018-08-30 CN CN201880034647.2A patent/CN110663048B/zh active Active
- 2018-08-30 JP JP2019549546A patent/JP6998968B2/ja active Active
- 2018-08-30 WO PCT/US2018/048867 patent/WO2019050771A1/en unknown
- 2018-08-30 EP EP18854924.0A patent/EP3679524A4/en active Pending
-
2019
- 2019-11-26 US US16/696,005 patent/US11481613B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020638A (ja) | 2005-11-15 | 2013-01-31 | Garner Bernadette | 入力ベクトルがニューロンによって既知であるか未知であるかを決定する方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110663048A (zh) | 2020-01-07 |
WO2019050771A1 (en) | 2019-03-14 |
US20200097802A1 (en) | 2020-03-26 |
EP3679524A4 (en) | 2020-10-28 |
CN110663048B (zh) | 2023-10-24 |
JP2020532777A (ja) | 2020-11-12 |
US11481613B2 (en) | 2022-10-25 |
EP3679524A1 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6998968B2 (ja) | ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム | |
JP7029321B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
JP6794593B2 (ja) | 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体 | |
JP6574503B2 (ja) | 機械学習方法および装置 | |
CN107977704B (zh) | 权重数据存储方法和基于该方法的神经网络处理器 | |
US10552944B2 (en) | Image upscaling with controllable noise reduction using a neural network | |
JP2020009444A (ja) | ニューラルネットワークにおいてパラメータを処理する方法及び装置 | |
CN109002889B (zh) | 自适应迭代式卷积神经网络模型压缩方法 | |
US20180082181A1 (en) | Neural Network Reordering, Weight Compression, and Processing | |
KR102562320B1 (ko) | 비트 연산 기반의 뉴럴 네트워크 처리 방법 및 장치 | |
CN111488986A (zh) | 一种模型压缩方法、图像处理方法以及装置 | |
CN112292816A (zh) | 处理核心数据压缩和存储系统 | |
WO2020154083A1 (en) | Neural network activation compression with non-uniform mantissas | |
CN115129386A (zh) | 用于神经网络部署和执行的有效优化 | |
JP2019028746A (ja) | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム | |
JP2020149156A (ja) | データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル | |
CN112651485A (zh) | 识别图像的方法和设备以及训练神经网络的方法和设备 | |
CN114402596A (zh) | 神经网络模型压缩 | |
KR20220042455A (ko) | 마이크로-구조화된 가중치 프루닝 및 가중치 통합을 이용한 신경 네트워크 모델 압축을 위한 방법 및 장치 | |
CN115080139A (zh) | 用于神经网络部署和执行的有效量化 | |
CN112189216A (zh) | 数据处理方法及设备 | |
CN117063183A (zh) | 激活函数的高效压缩 | |
US20220076122A1 (en) | Arithmetic apparatus and arithmetic method | |
CN115080138A (zh) | 用于神经网络部署和执行的有效存储器使用优化 | |
JP7297286B2 (ja) | 最適化方法、最適化プログラム、推論方法、および推論プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6998968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |