JP2022554371A - メモリスタに基づくニューラルネットワークの並列加速方法およびプロセッサ、装置 - Google Patents
メモリスタに基づくニューラルネットワークの並列加速方法およびプロセッサ、装置 Download PDFInfo
- Publication number
- JP2022554371A JP2022554371A JP2022526246A JP2022526246A JP2022554371A JP 2022554371 A JP2022554371 A JP 2022554371A JP 2022526246 A JP2022526246 A JP 2022526246A JP 2022526246 A JP2022526246 A JP 2022526246A JP 2022554371 A JP2022554371 A JP 2022554371A
- Authority
- JP
- Japan
- Prior art keywords
- functional layer
- memristor
- parallel
- neural network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 110
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 105
- 230000001133 acceleration Effects 0.000 title claims abstract description 97
- 239000002346 layers by function Substances 0.000 claims abstract description 189
- 238000003491 array Methods 0.000 claims abstract description 59
- 239000010410 layer Substances 0.000 claims description 159
- 238000012549 training Methods 0.000 claims description 43
- 238000013527 convolutional neural network Methods 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 description 38
- 230000004913 activation Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 238000013178 mathematical model Methods 0.000 description 21
- 210000002569 neuron Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 210000004027 cell Anatomy 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 230000005284 excitation Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005669 field effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30036—Instructions to perform operations on packed data, e.g. vector, tile or matrix operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/34—Addressing or accessing the instruction operand or the result ; Formation of operand address; Addressing modes
- G06F9/345—Addressing or accessing the instruction operand or the result ; Formation of operand address; Addressing modes of multiple operands or results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3877—Concurrent instruction execution, e.g. pipeline or look ahead using a slave processor, e.g. coprocessor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
- G11C13/0002—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
- G11C13/0004—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Semiconductor Memories (AREA)
Abstract
Description
重畳されたスカラー量であり、ここで、kは、入力層101を表すタグであり、i及びjは、それぞれ入力層101のユニットと隠れ層102のユニットのタグである。例えば、第1畳み込み層201は、第1組の畳み込みカーネル(図3におけるW1 ij)と第1組のバイアス(図3におけるb1 i)とを含む。第2畳み込み層202は、第2組の畳み込みカーネル(図3のW2 ij)と第2組のバイアス(図3のb2 i)とを含む。一般的には、各畳み込み層は、数十又は数百個の畳み込みカーネルを含み、畳み込みニューラルネットワークが深度畳み込みニューラルネットワークであれば、それは、少なくとも五層の畳み込み層を含むことができる。
ここで、vは、k個の要素を含むベクトルであり、fは、i行j列を有する行列である。
ここで、k=1、…、mであり、j=1、…、nであり、mは、メモリスタアレイの行数を示し、nは、メモリスタアレイの列数を示し、ijは、全ての入力データに対応するメモリスタアレイの第j列の出力電流を示し、ij,sは、全ての[s]番目の制御パルスに対応するメモリスタアレイの第j列のパルス出力電流を示し、gk,jは、メモリスタアレイのコンダクタンス行列を示す。
また、並列加速装置は、図11において単一のシステムとして示されるが、並列加速装置は、分散システムであってもよく、さらにクラウド施設(パブリックネットワーク又は、プライベートクラウドを含む)に配置されてもよい。したがって、例えば、複数の装置は、ネットワーク接続を介して通信することができかつ共同で並列加速装置により実行されると記述されるタスクを実行することができる。
(1)本開示の実施例の図面は、本開示の実施例の関する構造のみに関し、他の構造について通常の設計を参照することができる。
Claims (14)
- メモリスタに基づくニューラルネットワークの並列加速方法であって、
前記ニューラルネットワークは、順次に設定された複数の機能層を含み、前記複数の機能層は、並列された複数の第1メモリスタアレイを含む第1機能層と、前記第1機能層の後に位置する第2機能層とを含み、前記複数の第1メモリスタアレイは、前記第1機能層の操作を並列して実行し、操作結果を前記第2機能層に出力するために用いられ、
前記並列加速方法は、
前記複数の第1メモリスタアレイを用いて前記第1機能層の操作を並列して実行し、前記操作結果を前記第2機能層に出力するステップを含む、並列加速方法。 - 前記複数の第1メモリスタアレイを用いて前記第1機能層の操作を並列して実行し、前記操作結果を前記第2機能層に出力するステップは、
前記第1機能層により受信された入力データを前記複数の第1メモリスタアレイに逐一対応する複数のサブ入力データに分割するステップと、
前記複数の第1メモリスタセルアレイを用いて前記複数のサブ入力データに対して前記第1機能層の操作を並列して実行して、複数のサブ操作結果を対応して生成するステップとを含む、請求項1に記載の並列加速方法。 - 前記複数のサブ操作結果を接合し、前記第2機能層を用いて接合結果に対して前記第2機能層の操作を実行するステップをさらに含む、請求項2に記載の並列加速方法。
- 前記複数のサブ入力データのサイズは、基本的に同じである、請求項2又は3に記載の並列加速方法。
- 前記複数の第1メモリスタアレイを用いて前記第1機能層の操作を並列して実行し、前記操作結果を前記第2機能層に出力するステップは、
前記第1機能層により受信された複数の入力データをそれぞれ前記複数の第1メモリスタアレイに提供するステップと、
前記複数の第1メモリスタセルアレイの少なくとも一部を用いて、受信された前記複数の入力データに対して前記第1機能層の操作を並列して実行して、複数のサブ操作結果を対応して生成するステップとを含む、請求項1に記載の並列加速方法。 - 前記第2機能層を用いて前記複数のサブ操作結果に対してそれぞれ前記第2機能層の操作を実行するステップをさらに含む、請求項5に記載の並列加速方法。
- 前記複数の入力データは、互いに異なる、請求項5又は6に記載の並列加速方法。
- 前記ニューラルネットワークは、畳み込みニューラルネットワークである、請求項1~7のいずれか一項に記載の並列加速方法。
- 前記第1機能層は、前記ニューラルネットワークの初期畳み込み層である、請求項8に記載の並列加速方法。
- 前記複数の機能層は、第3機能層をさらに含み、前記第3機能層の出力が前記第1機能層に提供される、請求項1~9のいずれか一項に記載の並列加速方法。
- 前記ニューラルネットワークの重みパラメータは、オフチップトレーニングにより得られ、前記ニューラルネットワークの重みパラメータは、前記第1機能層の重みパラメータを含み、前記第1機能層の重みパラメータが前記複数の第1メモリスタアレイに書き込まれることで、前記複数の第1メモリスタアレイのコンダクタンスが決定される、請求項1~10のいずれか一項に記載の並列加速方法。
- 前記ニューラルネットワークの重みパラメータは、前記第1機能層以外の他の機能層の重みパラメータをさらに含み、前記他の機能層の重みパラメータが前記他の機能層に対応するメモリスタアレイに書き込まれることで、前記他の機能層に対応するメモリスタアレイのコンダクタンスが決定される、請求項11に記載の並列加速方法。
- メモリスタに基づくニューラルネットワークの並列加速プロセッサであって、
前記ニューラルネットワークは、順次に設定された複数の機能層を含み、前記複数の機能層は、第1機能層を含み、
前記並列加速プロセッサは、複数のメモリスタアレイ算出ユニットを含み、前記複数のメモリスタアレイ算出ユニットは、複数の第1メモリスタアレイ算出ユニットを含み、前記第1機能層の重みパラメータは、前記複数の第1メモリスタアレイ算出ユニットに書き込まれ、前記複数の第1メモリスタアレイ算出ユニットは、前記第1機能層の操作に対応する演算を並列して実行するように構成される、並列加速プロセッサ。 - メモリスタに基づくニューラルネットワークの並列加速装置であって、
請求項13に記載の並列加速プロセッサと、
前記並列加速プロセッサに接続された入力インタフェース及び出力インタフェースと、を含み、
前記入力インタフェースは、命令を受信して前記並列加速プロセッサの作動を制御するように構成され、前記出力インタフェースは、前記並列加速プロセッサの作動結果を出力するように構成される、並列加速装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911082236.3A CN110807519B (zh) | 2019-11-07 | 2019-11-07 | 基于忆阻器的神经网络的并行加速方法及处理器、装置 |
CN201911082236.3 | 2019-11-07 | ||
PCT/CN2020/071424 WO2021088248A1 (zh) | 2019-11-07 | 2020-01-10 | 基于忆阻器的神经网络的并行加速方法及处理器、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022554371A true JP2022554371A (ja) | 2022-12-28 |
JP7399517B2 JP7399517B2 (ja) | 2023-12-18 |
Family
ID=69501496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022526246A Active JP7399517B2 (ja) | 2019-11-07 | 2020-01-10 | メモリスタに基づくニューラルネットワークの並列加速方法およびプロセッサ、装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220335278A1 (ja) |
JP (1) | JP7399517B2 (ja) |
KR (1) | KR20220088943A (ja) |
CN (1) | CN110807519B (ja) |
WO (1) | WO2021088248A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11762990B2 (en) * | 2020-04-07 | 2023-09-19 | Microsoft Technology Licensing, Llc | Unstructured text classification |
FR3113326B1 (fr) * | 2020-08-06 | 2023-01-06 | St Microelectronics Rousset | Procédé de calcul convolutif intra-mémoire et circuit intégré correspondant |
CN112070220B (zh) * | 2020-08-06 | 2023-01-17 | 北京大学 | 一种基于非线性器件的原位自激活神经网络电路及神经网络运算方法 |
CN111949405A (zh) * | 2020-08-13 | 2020-11-17 | Oppo广东移动通信有限公司 | 资源调度方法、硬件加速器及电子设备 |
CN112215855B (zh) * | 2020-10-20 | 2024-04-12 | 清华大学 | 基于忆阻器阵列实现图像连通区域判断的方法及电子装置 |
US12003535B2 (en) | 2021-03-01 | 2024-06-04 | Microsoft Technology Licensing, Llc | Phishing URL detection using transformers |
US20220327375A1 (en) * | 2021-04-09 | 2022-10-13 | International Business Machines Corporation | Training dnn by updating an array using a chopper |
CN115481562B (zh) * | 2021-06-15 | 2023-05-16 | 中国科学院微电子研究所 | 多并行度优化方法、装置、识别方法和电子设备 |
CN113643175A (zh) * | 2021-08-16 | 2021-11-12 | 清华大学 | 数据处理方法及电子装置 |
CN113610220B (zh) * | 2021-08-27 | 2023-12-26 | 中国人民解放军国防科技大学 | 神经网络模型的训练方法、应用方法及装置 |
CN114463161B (zh) * | 2022-04-12 | 2022-09-13 | 之江实验室 | 一种基于忆阻器的神经网络处理连续图像的方法和装置 |
CN118072314A (zh) * | 2024-04-22 | 2024-05-24 | 国科大杭州高等研究院 | 一种短波红外感存算一体硬件系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02266458A (ja) * | 1989-04-06 | 1990-10-31 | Nec Corp | ニューラルネットワークシミュレーション装置 |
US20140180989A1 (en) * | 2012-12-24 | 2014-06-26 | Google Inc. | System and method for parallelizing convolutional neural networks |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
JP2018200627A (ja) * | 2017-05-29 | 2018-12-20 | 株式会社デンソー | 畳み込みニューラルネットワーク |
JP2019153254A (ja) * | 2018-03-06 | 2019-09-12 | Tdk株式会社 | ニューラルネットワーク装置、信号生成方法およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL2015114B1 (en) * | 2015-07-07 | 2017-02-01 | Univ Delft Tech | Scalable computation architecture in a memristor-based array. |
KR20180110080A (ko) * | 2016-02-08 | 2018-10-08 | 스페로 디바이시즈 인코포레이티드 | 아날로그 코-프로세서 |
GB2552014B (en) * | 2016-07-07 | 2020-05-13 | Advanced Risc Mach Ltd | Reconfigurable artificial neural networks comprising programmable non-volatile memory elements |
CN106203621B (zh) * | 2016-07-11 | 2019-04-30 | 北京深鉴智能科技有限公司 | 用于卷积神经网络计算的处理器 |
CN107704922B (zh) * | 2017-04-19 | 2020-12-08 | 赛灵思公司 | 人工神经网络处理装置 |
US20210264679A1 (en) * | 2017-07-25 | 2021-08-26 | Facebook Technologies, Llc | Smart sensor |
US20210098611A1 (en) * | 2019-10-01 | 2021-04-01 | Northwestern University | Dual-gated memtransistor crossbar array, fabricating methods and applications of same |
CN108009640B (zh) * | 2017-12-25 | 2020-04-28 | 清华大学 | 基于忆阻器的神经网络的训练装置及其训练方法 |
CN108268938B (zh) * | 2018-01-24 | 2020-04-21 | 清华大学 | 神经网络及其信息处理方法、信息处理系统 |
CN109460817B (zh) * | 2018-09-11 | 2021-08-03 | 华中科技大学 | 一种基于非易失存储器的卷积神经网络片上学习系统 |
US10726096B2 (en) * | 2018-10-12 | 2020-07-28 | Hewlett Packard Enterprise Development Lp | Sparse matrix vector multiplication with a matrix vector multiplication unit |
CN113261015A (zh) * | 2018-12-29 | 2021-08-13 | 华为技术有限公司 | 神经网络系统及数据处理技术 |
CN109800870B (zh) * | 2019-01-10 | 2020-09-18 | 华中科技大学 | 一种基于忆阻器的神经网络在线学习系统 |
US11003955B1 (en) * | 2019-05-03 | 2021-05-11 | Zoox, Inc. | Machine-learning model structural merging |
US11568200B2 (en) * | 2019-10-15 | 2023-01-31 | Sandisk Technologies Llc | Accelerating sparse matrix multiplication in storage class memory-based convolutional neural network inference |
-
2019
- 2019-11-07 CN CN201911082236.3A patent/CN110807519B/zh active Active
-
2020
- 2020-01-10 US US17/049,348 patent/US20220335278A1/en active Pending
- 2020-01-10 JP JP2022526246A patent/JP7399517B2/ja active Active
- 2020-01-10 KR KR1020227019213A patent/KR20220088943A/ko unknown
- 2020-01-10 WO PCT/CN2020/071424 patent/WO2021088248A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02266458A (ja) * | 1989-04-06 | 1990-10-31 | Nec Corp | ニューラルネットワークシミュレーション装置 |
US20140180989A1 (en) * | 2012-12-24 | 2014-06-26 | Google Inc. | System and method for parallelizing convolutional neural networks |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
JP2018200627A (ja) * | 2017-05-29 | 2018-12-20 | 株式会社デンソー | 畳み込みニューラルネットワーク |
JP2019153254A (ja) * | 2018-03-06 | 2019-09-12 | Tdk株式会社 | ニューラルネットワーク装置、信号生成方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20220088943A (ko) | 2022-06-28 |
US20220335278A1 (en) | 2022-10-20 |
JP7399517B2 (ja) | 2023-12-18 |
CN110807519B (zh) | 2023-01-17 |
WO2021088248A1 (zh) | 2021-05-14 |
CN110807519A (zh) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7399517B2 (ja) | メモリスタに基づくニューラルネットワークの並列加速方法およびプロセッサ、装置 | |
US10346347B2 (en) | Field-programmable crossbar array for reconfigurable computing | |
US10740671B2 (en) | Convolutional neural networks using resistive processing unit array | |
Shafiee et al. | ISAAC: A convolutional neural network accelerator with in-situ analog arithmetic in crossbars | |
Chen et al. | Multiply accumulate operations in memristor crossbar arrays for analog computing | |
Yakopcic et al. | Memristor crossbar deep network implementation based on a convolutional neural network | |
Cai et al. | Low bit-width convolutional neural network on RRAM | |
US11087204B2 (en) | Resistive processing unit with multiple weight readers | |
Fouda et al. | Spiking neural networks for inference and learning: A memristor-based design perspective | |
WO2021098821A1 (zh) | 神经网络系统中数据处理的方法、神经网络系统 | |
US20190138892A1 (en) | Neural network device and method | |
US20200117986A1 (en) | Efficient processing of convolutional neural network layers using analog-memory-based hardware | |
US20210319293A1 (en) | Neuromorphic device and operating method of the same | |
Qin et al. | Recent progress on memristive convolutional neural networks for edge intelligence | |
CN112836814A (zh) | 存算一体处理器、处理系统以及算法模型的部署方法 | |
Jain et al. | Neural network accelerator design with resistive crossbars: Opportunities and challenges | |
US20210383203A1 (en) | Apparatus and method with neural network | |
KR20200069901A (ko) | 뉴럴 네트워크를 분할하는 방법 및 뉴로모픽 장치 | |
CN113643175A (zh) | 数据处理方法及电子装置 | |
Sun et al. | Cascaded architecture for memristor crossbar array based larger-scale neuromorphic computing | |
Chen et al. | Emat: an efficient multi-task architecture for transfer learning using reram | |
Sun et al. | Low-consumption neuromorphic memristor architecture based on convolutional neural networks | |
WO2018137177A1 (zh) | 一种基于nor flash阵列的卷积运算方法 | |
CN108154226B (zh) | 一种使用模拟计算的神经网络芯片 | |
US11556770B2 (en) | Auto weight scaling for RPUs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220506 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220506 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7399517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |