JP6898359B2 - ディープニューラルネットワーク用のアクセラレータ - Google Patents
ディープニューラルネットワーク用のアクセラレータ Download PDFInfo
- Publication number
- JP6898359B2 JP6898359B2 JP2018565018A JP2018565018A JP6898359B2 JP 6898359 B2 JP6898359 B2 JP 6898359B2 JP 2018565018 A JP2018565018 A JP 2018565018A JP 2018565018 A JP2018565018 A JP 2018565018A JP 6898359 B2 JP6898359 B2 JP 6898359B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- neurons
- zero
- output
- activation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 21
- 210000002569 neuron Anatomy 0.000 claims description 231
- 230000004913 activation Effects 0.000 claims description 107
- 210000000225 synapse Anatomy 0.000 claims description 64
- 210000004205 output neuron Anatomy 0.000 claims description 60
- 238000000034 method Methods 0.000 claims description 51
- 210000002364 input neuron Anatomy 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 24
- 238000001994 activation Methods 0.000 description 96
- 239000011449 brick Substances 0.000 description 96
- 239000000872 buffer Substances 0.000 description 17
- 230000000946 synaptic effect Effects 0.000 description 13
- 230000006872 improvement Effects 0.000 description 12
- 238000013461 design Methods 0.000 description 11
- 241001442055 Vipera berus Species 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013138 pruning Methods 0.000 description 6
- 238000007792 addition Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Memory System (AREA)
Description
Claims (24)
- ニューラルネットワークで演算を行うための1つまたは複数のタイルであって、各タイルが、各入力ニューロンが関連オフセットを有している入力ニューロン、オフセット、およびシナプスを受信して、出力ニューロンを生み出す、1つまたは複数のタイルと、
ニューロンを記憶するための、ディスパッチャおよび符号化器を介して前記1つまたは複数のタイルと通信する活性化メモリであって、
前記ディスパッチャが、前記活性化メモリからニューロンをそれらの関連オフセットと共に読み出し、前記ニューロンをそれらの関連オフセットと共に前記1つまたは複数のタイルに伝え、前記ディスパッチャが、メモリからシナプスを読み出して、前記シナプスを前記1つまたは複数のタイルに伝え、
前記符号化器が、前記1つまたは複数のタイルから前記出力ニューロンを受信し、それらを符号化して、前記出力ニューロンを前記活性化メモリに伝え、
前記オフセットが、ゼロでないニューロン上だけで演算を行うために、前記タイルによって処理される、
活性化メモリと
を備える、ニューラルネットワークの層を計算するためのシステム。 - 符号化器が、出力ニューロンを関連オフセットと対にされたフォーマットで符号化する、請求項1に記載のシステム。
- 前記符号化器が、出力ニューロンをゼロのないニューロンアレイフォーマットで符号化する、請求項1に記載のシステム。
- 前記符号化器が、出力ニューロンをRAWまたは符号化フォーマット(RoE)で符号化する、請求項1に記載のシステム。
- 前記符号化器が、出力ニューロンをベクトル非有効活性化識別子(VIAI)フォーマットで符号化する、請求項1に記載のシステム。
- 前記符号化器が、出力ニューロンを圧縮VIAIフォーマットで符号化する、請求項1に記載のシステム。
- 前記タイルが、シナプスを有効でないと識別する1つまたは複数のビットをさらに受信し、前記タイルが、有効な重みを備えたゼロでないニューロン上だけで演算を行うために、前記1つまたは複数のビットを処理する、請求項1に記載のシステム。
- 閾値を下回る少なくとも1つのゼロでないニューロンが、その上で演算が行われないように、ゼロに設定される、請求項1に記載のシステム。
- ニューラルネットワークの層を計算するのに使用されるアクセラレータを備える集積回路であって、
ニューラルネットワークで演算を行うための1つまたは複数のタイルであって、各タイルが、各入力ニューロンが関連オフセットを有している入力ニューロン、オフセット、およびシナプスを受信して、出力ニューロンを生み出す、1つまたは複数のタイルと、
ニューロンを記憶するための、ディスパッチャおよび符号化器を介して前記1つまたは複数のタイルと通信する活性化メモリであって、
前記ディスパッチャが、前記活性化メモリからニューロンをそれらの関連オフセットと共に読み出し、前記ニューロンをそれらの関連オフセットと共に前記1つまたは複数のタイルに伝え、前記ディスパッチャが、メモリからシナプスを読み出して、前記シナプスを前記1つまたは複数のタイルに伝え、
前記符号化器が、前記1つまたは複数のタイルから前記出力ニューロンを受信し、それらを符号化して、前記出力ニューロンを前記活性化メモリに伝え、
前記オフセットが、ゼロでないニューロン上だけで演算を行うために、前記タイルによって処理される、
活性化メモリと
を備える、集積回路。 - 符号化器が、出力ニューロンを関連オフセットと対にされたフォーマットで符号化する、請求項9に記載の集積回路。
- 前記符号化器が、出力ニューロンをゼロのないニューロンアレイフォーマットで符号化する、請求項9に記載の集積回路。
- 前記符号化器が、出力ニューロンをRAWまたは符号化フォーマット(RoE)で符号化する、請求項9に記載の集積回路。
- 前記符号化器が、出力ニューロンをベクトル非有効活性化識別子(VIAI)フォーマットで符号化する、請求項9に記載の集積回路。
- 前記符号化器が、出力ニューロンを圧縮VIAIフォーマットで符号化する、請求項9に記載の集積回路。
- 前記タイルが、シナプスを有効でないと識別する1つまたは複数のビットをさらに受信し、前記タイルが、有効な重みを備えたゼロでないニューロン上だけで演算を行うために、前記1つまたは複数のビットを処理する、請求項9に記載の集積回路。
- 閾値を下回る少なくとも1つのゼロでないニューロンが、その上で演算が行われないように、ゼロに設定される、請求項9に記載の集積回路。
- ニューラルネットワークで演算を行うことにおいて有効でないオペレーションを減らすための方法であって、
ニューロンストリームの中のゼロでないニューロンを識別して、ニューロンごとにオフセット値を作成することと、
ニューロンごとの前記オフセット値を前記ニューロンと共に、前記ニューロンを処理するタイルに伝えることと、
前記タイルが、前記オフセット値を使用して、演算を行う前記ゼロでないニューロンを識別することと、
前記タイルが、前記ゼロでないニューロン上だけで演算を行って、出力ニューロン生み出すことと、
出力ニューロンを活性化メモリに記憶することと
を含む、方法。 - 前記方法が、関連オフセット値を備えた前記出力ニューロンを符号化することをさらに含む、請求項17に記載の方法。
- 前記符号化が、ゼロのないニューロンアレイフォーマットにある、請求項18に記載の方法。
- 前記符号化が、RAWまたは符号化フォーマット(RoE)にある、請求項18に記載の方法。
- 前記符号化が、ベクトル非有効活性化識別子(VIAI)フォーマットにある、請求項18に記載の方法。
- 前記符号化が、圧縮VIAIフォーマットにある、請求項18に記載の方法。
- 前記タイルが、シナプスを有効でないと識別する1つまたは複数のビットを受信することと、有効な重みを備えたゼロでないニューロン上だけで演算を行うために、前記1つまたは複数のビットを処理することとをさらに含む、請求項17に記載の方法。
- 閾値を下回る少なくとも1つのゼロでないニューロンを、その上で演算が行われないようにゼロに設定することをさらに含む、請求項17に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021097593A JP7266065B2 (ja) | 2016-06-14 | 2021-06-10 | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662349716P | 2016-06-14 | 2016-06-14 | |
US62/349,716 | 2016-06-14 | ||
US201762490712P | 2017-04-27 | 2017-04-27 | |
US62/490,712 | 2017-04-27 | ||
PCT/CA2017/050731 WO2017214728A1 (en) | 2016-06-14 | 2017-06-14 | Accelerator for deep neural networks |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021097593A Division JP7266065B2 (ja) | 2016-06-14 | 2021-06-10 | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019522850A JP2019522850A (ja) | 2019-08-15 |
JP6898359B2 true JP6898359B2 (ja) | 2021-07-07 |
Family
ID=60662974
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018565018A Active JP6898359B2 (ja) | 2016-06-14 | 2017-06-14 | ディープニューラルネットワーク用のアクセラレータ |
JP2021097593A Active JP7266065B2 (ja) | 2016-06-14 | 2021-06-10 | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021097593A Active JP7266065B2 (ja) | 2016-06-14 | 2021-06-10 | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム |
Country Status (7)
Country | Link |
---|---|
US (2) | US11423289B2 (ja) |
EP (1) | EP3469522A4 (ja) |
JP (2) | JP6898359B2 (ja) |
KR (2) | KR102459855B1 (ja) |
CN (1) | CN109328361B (ja) |
CA (1) | CA2990712C (ja) |
WO (1) | WO2017214728A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10891538B2 (en) | 2016-08-11 | 2021-01-12 | Nvidia Corporation | Sparse convolutional neural network accelerator |
KR102415506B1 (ko) * | 2016-10-26 | 2022-07-01 | 삼성전자주식회사 | 뉴럴 네트워크 간소화 방법 및 장치 |
JP6832050B2 (ja) | 2017-02-23 | 2021-02-24 | セレブラス システムズ インク. | 加速化ディープラーニング |
EP4372620A3 (en) * | 2017-04-06 | 2024-07-17 | Shanghai Cambricon Information Technology Co., Ltd | Neural network processor and neural network computation method |
US11488004B2 (en) | 2017-04-17 | 2022-11-01 | Cerebras Systems Inc. | Neuron smearing for accelerated deep learning |
EP3607506B1 (en) | 2017-04-17 | 2021-07-14 | Cerebras Systems Inc. | Fabric vectors for deep learning acceleration |
EP3610612B1 (en) | 2017-04-17 | 2022-09-28 | Cerebras Systems Inc. | Dataflow triggered tasks for accelerated deep learning |
US11636327B2 (en) * | 2017-12-29 | 2023-04-25 | Intel Corporation | Machine learning sparse computation mechanism for arbitrary neural networks, arithmetic compute microarchitecture, and sparsity for training mechanism |
CN108256628B (zh) * | 2018-01-15 | 2020-05-22 | 合肥工业大学 | 基于多播片上网络的卷积神经网络硬件加速器及其工作方法 |
SG11202007532TA (en) * | 2018-02-16 | 2020-09-29 | Governing Council Univ Toronto | Neural network accelerator |
US20190303757A1 (en) * | 2018-03-29 | 2019-10-03 | Mediatek Inc. | Weight skipping deep learning accelerator |
US11886979B1 (en) | 2018-04-20 | 2024-01-30 | Perceive Corporation | Shifting input values within input buffer of neural network inference circuit |
US11568227B1 (en) | 2018-04-20 | 2023-01-31 | Perceive Corporation | Neural network inference circuit read controller with multiple operational modes |
US11783167B1 (en) | 2018-04-20 | 2023-10-10 | Perceive Corporation | Data transfer for non-dot product computations on neural network inference circuit |
US11210586B1 (en) | 2018-04-20 | 2021-12-28 | Perceive Corporation | Weight value decoder of neural network inference circuit |
US10977338B1 (en) | 2018-04-20 | 2021-04-13 | Perceive Corporation | Reduced-area circuit for dot product computation |
CN108647774B (zh) * | 2018-04-23 | 2020-11-20 | 瑞芯微电子股份有限公司 | 一种优化稀疏性矩阵运算的神经网络方法和电路 |
US20210125046A1 (en) * | 2018-05-08 | 2021-04-29 | The Governing Council Of The University Of Toronto | Neural network processing element |
CN109086819B (zh) * | 2018-07-26 | 2023-12-05 | 北京京东尚科信息技术有限公司 | caffemodel模型压缩方法、系统、设备及介质 |
WO2020044152A1 (en) * | 2018-08-28 | 2020-03-05 | Cerebras Systems Inc. | Scaled compute fabric for accelerated deep learning |
WO2020044238A1 (en) | 2018-08-29 | 2020-03-05 | Cerebras Systems Inc. | Processor element redundancy for accelerated deep learning |
US11321087B2 (en) | 2018-08-29 | 2022-05-03 | Cerebras Systems Inc. | ISA enhancements for accelerated deep learning |
US11586417B2 (en) | 2018-09-28 | 2023-02-21 | Qualcomm Incorporated | Exploiting activation sparsity in deep neural networks |
GB2577732B (en) | 2018-10-04 | 2022-02-23 | Advanced Risc Mach Ltd | Processing data in a convolutional neural network |
US20200117988A1 (en) * | 2018-10-11 | 2020-04-16 | International Business Machines Corporation | Networks for distributing parameters and data to neural network compute cores |
KR20200057814A (ko) * | 2018-11-13 | 2020-05-27 | 삼성전자주식회사 | 뉴럴 네트워크를 이용한 데이터 처리 방법 및 이를 지원하는 전자 장치 |
US11995533B1 (en) | 2018-12-05 | 2024-05-28 | Perceive Corporation | Executing replicated neural network layers on inference circuit |
WO2020121203A1 (en) * | 2018-12-11 | 2020-06-18 | Mipsology SAS | Realigning streams of neuron outputs in artificial neural network computations |
KR102556506B1 (ko) * | 2019-01-15 | 2023-07-19 | 한국전자통신연구원 | 뉴로모픽 연산 장치 및 그것의 동작 방법 |
US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
US10878321B2 (en) * | 2019-02-28 | 2020-12-29 | DeepCube LTD. | Partial activation of multiple pathways in neural networks |
US11379420B2 (en) * | 2019-03-08 | 2022-07-05 | Nvidia Corporation | Decompression techniques for processing compressed data suitable for artificial neural networks |
KR20200111939A (ko) * | 2019-03-20 | 2020-10-05 | 에스케이하이닉스 주식회사 | 신경망 가속 장치 및 그것의 동작 방법 |
US20200311511A1 (en) * | 2019-03-26 | 2020-10-01 | Mipsology SAS | Accelerating neuron computations in artificial neural networks by skipping bits |
US11868901B1 (en) | 2019-05-21 | 2024-01-09 | Percieve Corporation | Compiler for optimizing memory allocations within cores |
TWI737228B (zh) | 2020-03-20 | 2021-08-21 | 國立清華大學 | 基於記憶體內運算電路架構之量化方法及其系統 |
US20230273828A1 (en) * | 2020-07-21 | 2023-08-31 | The Governing Council Of The University Of Toronto | System and method for using sparsity to accelerate deep learning networks |
KR20220049294A (ko) | 2020-10-14 | 2022-04-21 | 삼성전자주식회사 | 스케줄러, 스케줄러의 동작 방법 및 이를 포함한 전자 장치 |
US20220188492A1 (en) * | 2020-12-10 | 2022-06-16 | Memryx Incorporated | Chiplet based artificial intelligence accelerators and configuration methods |
US20220197634A1 (en) * | 2020-12-21 | 2022-06-23 | Intel Corporation | Efficient divide and accumulate instruction when an operand is equal to or near a power of two |
US12118057B2 (en) | 2021-01-14 | 2024-10-15 | Microsoft Technology Licensing, Llc | Computing partial matrices at hardware accelerator |
KR102644702B1 (ko) * | 2021-02-08 | 2024-03-06 | 한양대학교 산학협력단 | 컨볼루션 신경망 가속 방법 및 장치 |
CN113128681B (zh) * | 2021-04-08 | 2023-05-12 | 天津大学 | 一种多边缘设备辅助的通用cnn推理加速系统 |
JP2022178980A (ja) | 2021-05-21 | 2022-12-02 | 富士通株式会社 | 機械学習プログラム、機械学習方法および情報処理装置 |
US20230053294A1 (en) * | 2021-08-13 | 2023-02-16 | Taiwan Semiconductor Manufacturing Co., Ltd. | Bitwise product-sum accumulations with skip logic |
US11694733B2 (en) | 2021-08-19 | 2023-07-04 | Apple Inc. | Acceleration of in-memory-compute arrays |
KR102700292B1 (ko) * | 2021-11-26 | 2024-08-29 | 건국대학교 산학협력단 | 신경망 가속기의 통신 특성을 동적으로 재구성하는 프로세서 장치, 및 그의 구동 방법 |
GB2621383A (en) * | 2022-08-11 | 2024-02-14 | Advanced Risc Mach Ltd | Mechanism for neural network processing unit skipping |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5740270A (en) * | 1988-04-08 | 1998-04-14 | Neuromedical Systems, Inc. | Automated cytological specimen classification system and method |
JPH0748207B2 (ja) * | 1989-04-14 | 1995-05-24 | シャープ株式会社 | 行列演算装置 |
FR2664072A1 (fr) * | 1990-06-29 | 1992-01-03 | Thomson Csf | Systeme de calcul neuronal. |
JPH08315141A (ja) | 1995-05-15 | 1996-11-29 | Mitsubishi Electric Corp | 画像認識装置 |
US6658554B1 (en) * | 1999-03-09 | 2003-12-02 | Wisconsin Alumni Res Found | Electronic processor providing direct data transfer between linked data consuming instructions |
JP4620943B2 (ja) * | 2003-10-16 | 2011-01-26 | キヤノン株式会社 | 積和演算回路及びその方法 |
US8442927B2 (en) | 2009-07-30 | 2013-05-14 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
US8275727B2 (en) * | 2009-11-13 | 2012-09-25 | International Business Machines Corporation | Hardware analog-digital neural networks |
US8311965B2 (en) * | 2009-11-18 | 2012-11-13 | International Business Machines Corporation | Area efficient neuromorphic circuits using field effect transistors (FET) and variable resistance material |
US8467623B2 (en) | 2010-03-26 | 2013-06-18 | Brain Corporation | Invariant pulse latency coding systems and methods systems and methods |
US8510239B2 (en) * | 2010-10-29 | 2013-08-13 | International Business Machines Corporation | Compact cognitive synaptic computing circuits with crossbar arrays spatially in a staggered pattern |
US8812414B2 (en) | 2011-05-31 | 2014-08-19 | International Business Machines Corporation | Low-power event-driven neural computing architecture in neural networks |
US9373073B2 (en) * | 2012-12-21 | 2016-06-21 | International Business Machines Corporation | Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a universal substrate of adaptation |
US9262712B2 (en) * | 2013-03-08 | 2016-02-16 | International Business Machines Corporation | Structural descriptions for neurosynaptic networks |
US9798751B2 (en) * | 2013-10-16 | 2017-10-24 | University Of Tennessee Research Foundation | Method and apparatus for constructing a neuroscience-inspired artificial neural network |
US10255547B2 (en) * | 2014-12-04 | 2019-04-09 | Nvidia Corporation | Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system |
CN104915322B (zh) * | 2015-06-09 | 2018-05-01 | 中国人民解放军国防科学技术大学 | 一种卷积神经网络硬件加速方法 |
CN105488565A (zh) * | 2015-11-17 | 2016-04-13 | 中国科学院计算技术研究所 | 加速深度神经网络算法的加速芯片的运算装置及方法 |
US20170193361A1 (en) * | 2015-12-31 | 2017-07-06 | Microsoft Technology Licensing, Llc | Neural network training performance optimization framework |
US11170294B2 (en) * | 2016-01-07 | 2021-11-09 | Intel Corporation | Hardware accelerated machine learning |
US10175980B2 (en) * | 2016-10-27 | 2019-01-08 | Google Llc | Neural network compute tile |
-
2017
- 2017-06-14 CN CN201780036696.5A patent/CN109328361B/zh active Active
- 2017-06-14 CA CA2990712A patent/CA2990712C/en active Active
- 2017-06-14 EP EP17812360.0A patent/EP3469522A4/en active Pending
- 2017-06-14 JP JP2018565018A patent/JP6898359B2/ja active Active
- 2017-06-14 KR KR1020207015811A patent/KR102459855B1/ko active IP Right Grant
- 2017-06-14 US US16/314,422 patent/US11423289B2/en active Active
- 2017-06-14 WO PCT/CA2017/050731 patent/WO2017214728A1/en unknown
- 2017-06-14 KR KR1020187036799A patent/KR102120395B1/ko active IP Right Grant
-
2021
- 2021-06-10 JP JP2021097593A patent/JP7266065B2/ja active Active
-
2022
- 2022-06-22 US US17/846,837 patent/US20220327367A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019522850A (ja) | 2019-08-15 |
US20190205740A1 (en) | 2019-07-04 |
WO2017214728A1 (en) | 2017-12-21 |
CN109328361A (zh) | 2019-02-12 |
CN109328361B (zh) | 2020-03-27 |
EP3469522A1 (en) | 2019-04-17 |
US11423289B2 (en) | 2022-08-23 |
JP7266065B2 (ja) | 2023-04-27 |
CA2990712C (en) | 2018-09-04 |
KR20190019081A (ko) | 2019-02-26 |
JP2021144750A (ja) | 2021-09-24 |
US20220327367A1 (en) | 2022-10-13 |
CA2990712A1 (en) | 2017-12-21 |
KR102120395B1 (ko) | 2020-06-08 |
KR102459855B1 (ko) | 2022-10-27 |
EP3469522A4 (en) | 2020-03-18 |
KR20200067916A (ko) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6898359B2 (ja) | ディープニューラルネットワーク用のアクセラレータ | |
Kiningham et al. | GRIP: A graph neural network accelerator architecture | |
JP6890615B2 (ja) | ディープニューラルネットワークについての加速器 | |
CN108427990B (zh) | 神经网络计算系统和方法 | |
Venkataramanaiah et al. | Automatic compiler based FPGA accelerator for CNN training | |
US11763156B2 (en) | Neural network compression based on bank-balanced sparsity | |
US9632729B2 (en) | Storage compute device with tiered memory processing | |
CN108090565A (zh) | 一种卷积神经网络并行化训练加速方法 | |
CN111178494A (zh) | 神经处理单元、神经处理系统和应用系统 | |
CN101717817A (zh) | 对基于随机上下文无关文法的rna二级结构预测进行加速的方法 | |
EP3971787A1 (en) | Spatial tiling of compute arrays with shared control | |
Sommer et al. | Efficient hardware acceleration of sparsely active convolutional spiking neural networks | |
Liu et al. | Era-bs: Boosting the efficiency of reram-based pim accelerator with fine-grained bit-level sparsity | |
CN111522776B (zh) | 一种计算架构 | |
JP2023534068A (ja) | スパース性を使用して深層学習ネットワークを加速するためのシステム及び方法 | |
Liu et al. | SoBS-X: Squeeze-out bit sparsity for ReRAM-crossbar-based neural network accelerator | |
CN115836346A (zh) | 存内计算设备及其数据处理方法 | |
CN116997910A (zh) | 张量控制器架构 | |
US12026548B2 (en) | Task manager, processing device, and method for checking task dependencies thereof | |
Sarma | Optimizing Deep Learning for Memory and Compute: A joint Algorithm-Architecture Exploration | |
CN111860797A (zh) | 运算装置 | |
CN117933325A (zh) | 一种新型计算体系结构 | |
Nag | Enabling Near Data Processing for Emerging Workloads | |
Wang et al. | Enabling High-Efficient ReRAM-based CNN Training via Exploiting Crossbar-Level Insignificant Writing Elimination | |
KR20240064469A (ko) | 태스크 매니저 및 그의 태스크 디펜던시 체크 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200525 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200525 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210212 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898359 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |