CN105224986B - 基于忆阻器件的深度神经网络系统 - Google Patents
基于忆阻器件的深度神经网络系统 Download PDFInfo
- Publication number
- CN105224986B CN105224986B CN201510634702.XA CN201510634702A CN105224986B CN 105224986 B CN105224986 B CN 105224986B CN 201510634702 A CN201510634702 A CN 201510634702A CN 105224986 B CN105224986 B CN 105224986B
- Authority
- CN
- China
- Prior art keywords
- neural network
- memory resistor
- deep neural
- network system
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 74
- 210000000225 synapse Anatomy 0.000 claims abstract description 15
- 230000010365 information processing Effects 0.000 claims abstract description 13
- 230000007935 neutral effect Effects 0.000 claims abstract description 9
- 230000000946 synaptic effect Effects 0.000 claims abstract description 9
- 238000006243 chemical reaction Methods 0.000 claims abstract description 3
- 210000002569 neuron Anatomy 0.000 claims description 13
- 210000005036 nerve Anatomy 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000004088 simulation Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 abstract description 3
- 238000005265 energy consumption Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于忆阻器件的深度神经网络系统,包括输入层、输出层以及多个隐含层。所述输入层接收外部信息输入模式,该外部信息输入模式经过逐层计算转换,最终由输出层产生外部输出结果。所述深度神经网络的突触权重采用忆阻器件模拟,利用忆阻器件的电阻随着施加电信号进行改变的特性模拟神经网络间连接突触连接强弱的行为。本发明进一步提供一种包含基于忆阻器件的深度神经网络系统的信息处理系统。
Description
技术领域
本发明涉及一种深度神经网络系统。
背景技术
2006年,加拿大多伦多大学教授Geoffrey Hinton在《科学》上发表论文“Reducingthe Dimensionality of Data with Neural Networks”,从此掀起了以深度神经网络为主的人工神经网络研究新浪潮。深度神经网络(Deep Neural Networks,DNN)有别于传统的人工神经网络,主要借鉴生物神经网络具有多层拓扑结构的特征,人为构建具有多个隐含层的人工神经网络。由于结合了“逐层预训练”这种贪婪无监督算法和全局调整算法,这种多层神经网络相对容易收敛。与浅层神经网络模型相比,深度神经网络具有突出的特征学习能力,学习得到的特征能够对数据进行更本质的表达,从而更有利于后端分类和识别处理。因此,深度神经网络使得计算机在图像、视频、语音等信息处理应用方面的性能得到了极大地提高。虽然深度神经网络在性能上具有明显的优势,但在实际应中依然较难推广。主要原因在于现有的人工神经网络研究基本是在计算机软件中仿真实现的,其软件模型虽然是分布式和并行的,但其硬件执行依然束缚于冯·诺依曼计算范式,最终实现的硬件开销、能耗和信息处理速度不容乐观。即便是利用最先进的大体积超级计算机,也不能实现人脑规模的实时模拟与大脑计算的超低能耗。
图1为传统基于计算机软件的人工神经网络计算原理示意图。前端突触输入信号XN经过对应的突触连接权重WNi,完成相应的权重乘法操作并进入神经元节点,该神经元节点完成对前端突触输入信号XN的累加,并经过非线性变换f(·)产生输出信号Yi并发送至后端突触网络,整个计算过程等效于Yi=f(∑kXiWki+bi)。上述计算过程在传统人工神经网络中基于冯·诺依曼计算机串行范式,导致各种尺寸、能耗、时间等开销巨大,很难在嵌入式领域应用。
发明内容
有鉴于此,确有必要提供一种运算速度更快且能耗更低的深度神经网络系统。
一种基于忆阻器件的深度神经网络系统,包括:输入层、输出层以及多个隐含层;所述输入层接收外部信息输入模式,并将该输入模式送入所述多个隐含层,所述多个隐含层对来自输入层的输入模式进行逐层计算转换,并将计算结果发送至所述输出层,所述输出层接收所述隐含层的计算结果,并将其作为输出结果对外输出,相邻两层的神经元节点通过突触权重网络连接;所述深度神经网络系统的突触权重采用忆阻器件模拟,所述忆阻器件的电阻随着施加电信号进行改变。
一种信息处理系统,包括:基于忆阻器件的深度神经网络系统、计算模块、驱动电路、输出结果比对模块、输入信息接口以及输出信息接口;所述输入信息接口用于将外界信息输入模式转换为所述深度神经网络系统所需的信号;所述深度神经网络系统的输入端连接所述输入信息接口,输出端连接所述输出信息接口,所述深度神经网络系统用于进行深度神经网络运算,并将运算结果作为输出结果发送至所述输入信息接口;所述输出信息接口分别连接所述深度神经网络系统与所述输出结果比对模块,用于将所述深度神经网络系统产生的输出信号转换并发送给所述输出结果比对模块;所述输出结果比对模块分别连接所述输出信息接口与所述计算模块,所述输出结果比对模块将当前深度神经网络系统的输出结果与理想结果进行比对,并将比对结果发送之所述计算模块;所述计算模块分别连接所述输出结果比对模块与所述驱动电路,所述计算模块接受所述输出结果比对模块发送的误差信号,根据设定的神经网络训练算法计算网络连接权重调整量并发送至驱动电路;所述驱动电路接收所述计算模块发送的网络连接权重调整量,并根据该网络连接权重调整量控制所述忆阻器件的电阻值。
与现有技术相比,本发明提供的基于忆阻器件的深度神经网络系统采用忆阻器件实现深度神经网络运算,整个系统的运算速度与密度均有很大提高,运行能耗则大幅降低,有望实现对大脑规模神经网络的实时与低能耗模拟。
附图说明
图1为现有基于计算机软件的人工神经网络计算原理示意图。
图2为本发明实施例提供的基于忆阻器件的深度神经网络拓扑结构图。
图3为基于忆阻器件的深度神经网络计算原理示意图。
图4为本发明实施例中忆阻器件调制示意图。
图5为本发明实施例基于忆阻器件的深度神经网络系统。
主要元件符号说明
信息处理系统 | 100 |
深度神经网络系统 | 10 |
输入层 | 11 |
隐含层 | 12 |
输出层 | 13 |
输入模式 | 14 |
输出结果 | 15 |
神经元节点 | 16 |
突触权重网络 | 17 |
忆阻器件 | 18 |
脉冲调制电路 | 180 |
输入信息接口 | 20 |
输出信息接口 | 30 |
输出结果比对模块 | 40 |
计算模块 | 50 |
驱动电路 | 60 |
脉冲发生器 | 61 |
读写电路 | 62 |
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
下面将结合附图及具体实施例对本发明提供的基于忆阻器件的深度神经网络系统作进一步的详细说明。
请参见图2,本发明实施例提供一种基于忆阻器件的深度神经网络系统10,包括:输入层11、多个隐含层12以及输出层13。所述输入层11与所述多个隐含层12连接,所述输入层11接收外部信息输入模式14,并将该输入模式14送入所述多个隐含层12。所述多个隐含层12分别与所述输入层11、输出层13连接,所述多个隐含层12对来自输入层11的输入模式14进行逐层计算转换,并将计算结果发送至所述输出层13。所述输出层13接收所述隐含层12的计算结果,并将其作为输出结果15对外输出。
所述输入层11、多个隐含层12以及输出层13均包括多个神经元节点16,各层的神经元节点个数可以根据不同的应用情况设定。所述深度神经网络系统10信息流的逻辑层数通常大于3层,相邻两层神经元节点之间通过突触权重网络17连接。
所述深度神经网络系统10的突触权重由忆阻器件18实现。所述忆阻器件18是一种电阻值可以随着所施加的电信号进行改变的可塑物理器件,忆阻器件18的这种特性可以模拟神经网络间连接突触连接强弱的行为,即模拟神经网络自适应学习的功能。所述忆阻器件18的类型可以为两端忆阻器件、三端忆阻器件或其他常见的类型。所述忆阻器件18依靠不同的电阻值来区分不同的存储状态,其读写速度、器件密度、编程电压等各项指标都可以与当今领先的存储技术媲美,且其掉电不丢失,属于非易失性器件,能耗相当低。
请参见图3,该图为基于忆阻器件的神经网络系统计算原理示意图。本实施例中所述忆阻器件18的一端连接前端突触输入信号,另一端连接运算放大器的反向输入端。所述神经网络系统的计算过程可描述为Yi=f(∑k-XiRfGki+bi),其中,Xi为第i个神经元节点的前端突触输入信号,Gki为第i个神经元节点的第k个输入突触权重,Rf为第i个神经元节点上的运放反馈电阻,可以电导权重无量纲化,实现与人工神经网络无量纲权重的匹配(这种无量纲化的方式不仅限于本实施例提供的采用运算放大器实现这一种方法)。-RfGki等效于传统神经网络的突触权重Wki。输入信息乘以权重累加的过程,在忆阻器网络中直接映射实现,并且忆阻器具有低能耗、小尺寸和高速度的优点,提供了一种异于传统计算机神经网络的新型计算范式。
请参见图4,该图为所述深度神经网络系统10中忆阻器件的调制示意图。神经网络计算需要根据信息输入模式、当前输出结果和理想输出结果不断调整突触权重进行学习。基于忆阻器件的神经网络系统采用忆阻器件18模拟突触权重,利用所述忆阻器件18的电阻可以随着施加电信号进行改变的特性,可以根据不同的忆阻器件不同种类,设计特定的脉冲调制电路180进行调制。本实施例中所述忆阻器件18的电阻状态通过脉冲进行调制,脉冲调制方法包括:脉冲幅度调制、脉冲宽度调制、脉冲数量调制等。需要指出的是,所述忆阻器件18的调制方式并不仅限于本实施例提供的脉冲调制方式。
请参见图5,本发明进一步提供一种包含所述基于忆阻器件的深度神经网络系统10的信息处理系统100,该信息处理系统100包括:所述深度神经网络系统10、一输入信息接口20、一输出信息接口30、一输出结果比对模块40、一计算模块50以及一驱动电路60。
所述深度神经网络系统10的输入端连接所述输入信息接口20,输出端连接所述输出信息接口30。所述深度神经网络系统10进行深度神经网络运算,并将运算结果作为输出结果发送至所述输入信息接口20。
所述输入信息接口20与所述深度神经网络系统10相连,用于将外界信息输入模式转换为所述深度神经网络系统10所需的信号。
所述输出信息接口30分别连接所述深度神经网络系统10与输出结果比对模块40,用于将所述深度神经网络系统10产生的输出信号转换并发送给所述输出结果比对模块40。
所述输出结果比对模块40分别连接所述输出信息接口30与所述计算模块50,所述输出结果比对模块40将当前深度神经网络系统10的输出结果与理想结果进行比对,并将比对结果发送之所述计算模块50。
所述计算模块50分别连接所述输出结果比对模块40与所述驱动电路60,所述计算模块50接受所述输出结果比对模块40发送的误差信号,根据设定的神经网络训练算法计算网络连接权重调整量,并将该网络连接权重调整量发送至驱动电路60。
所述驱动电路60接收所述计算模块50发送的网络连接权重调整量,并根据该网络连接权重调整量控制所述忆阻器件的电阻值。所述驱动电路60进一步包括脉冲发生器61与读写电路62。所述脉冲发生器61产生用于调制所述忆阻器件的突触调制电信号,所述读写电路62完成对基于忆阻器件的神经网络连接权重的读写操作。
所述信息处理系统100的处理流程为:外界信息输入模式经由所述输入信息接口20转换为基于忆阻器件的深度神经网络10所需信号输入到所述信息处理系统100。经过所述深度神经网络系统10处理后,产生的输出信号经由所述输出信息接口30转换后发送至所述输出结果比对模块40。所述输出结果比对模块40将当前深度神经网络系统10的输出结果与理想结果进行比较后,产生误差信号发送至所述计算模块50。所述计算模块50根据设定的神经网络训练算法计算网络连接权重调整量并将该网络连接权重调整量发送至驱动电路60。所述驱动电路60接收所述网络连接权重调整量,根据该网络连接权重调整量对忆阻器件进行调制。经过将设定的训练算法在信息样本库中反复训练,基于忆阻器件的突触权重最终收敛于理想的状态。当新样本输入时,按照上述流程进行信息处理,便可输出理想的结果。
与现有技术相比,本发明提供的基于忆阻器件的深度神经网络系统首次将忆阻器件用于深度神经网络,通过采用新型的忆阻器件,使得整个系统的速度、密度和能耗都将比如今的计算机深度学习系统有很大提高,有望实现对大脑规模神经网络的实时与低能耗模拟。
另外,本领域技术人员还可在本发明精神内做其他变化,当然,这些依据本发明精神所做的变化,都应包含在本发明所要求保护的范围之内。
Claims (8)
1.一种基于忆阻器件的深度神经网络系统,包括:输入层、输出层以及多个隐含层;所述输入层接收外部信息输入模式,并将该输入模式送入所述多个隐含层,所述多个隐含层对来自输入层的输入模式进行逐层计算转换,并将计算结果发送至所述输出层,所述输出层接收所述隐含层的计算结果,并将其作为输出结果对外输出,相邻两层的神经元节点通过突触权重网络连接;其特征在于,所述深度神经网络系统的突触权重采用忆阻器件模拟,所述忆阻器件的电阻随着施加电信号进行改变,所述忆阻器件一端连接前端突触输入信号,另一端连接运算放大器的反向输入端,所述神经网络系统的计算过程为Yi=f(∑k-XiRfGki+bi),其中,Xi为第i个神经元节点的前端突触输入信号,Gki为第i个神经元节点的第k个输入突触权重,Rf为第i个神经元节点上的运放反馈电阻。
2.如权利要求1所述的基于忆阻器件的深度神经网络系统,其特征在于,所述深度神经网络为信息流的逻辑层数大于3层的神经网络。
3.如权利要求1所述的基于忆阻器件的深度神经网络系统,其特征在于,所述忆阻器件为两端忆阻器件、三端忆阻器。
4.如权利要求1所述的基于忆阻器件的深度神经网络系统,其特征在于,所述忆阻器件模拟的突触权重通过电压或电流脉冲进行调制。
5.如权利要求4所述的基于忆阻器件的深度神经网络系统,其特征在于,所述忆阻器件模拟的突触权重通过脉冲幅度调制、脉冲宽度调制或脉冲数量调制。
6.一种信息处理系统,其特征在于,包括:如权利要求1至5所述的基于忆阻器件的深度神经网络系统、计算模块、驱动电路、输出结果比对模块、输入信息接口以及输出信息接口;
所述输入信息接口用于将外界信息输入模式转换为所述深度神经网络系统所需的信号;
所述深度神经网络系统的输入端连接所述输入信息接口,输出端连接所述输出信息接口,所述深度神经网络系统用于进行深度神经网络运算,并将运算结果作为输出结果发送至所述输入信息接口;
所述输出信息接口分别连接所述深度神经网络系统与所述输出结果比对模块,用于将所述深度神经网络系统产生的输出信号转换并发送给所述输出结果比对模块;
所述输出结果比对模块分别连接所述输出信息接口与所述计算模块,所述输出结果比对模块将当前深度神经网络系统的输出结果与理想结果进行比对,并将比对结果发送之所述计算模块;
所述计算模块分别连接所述输出结果比对模块与所述驱动电路,所述计算模块接受所述输出结果比对模块发送的误差信号,根据设定的神经网络训练算法计算网络连接权重调整量并发送至驱动电路;
所述驱动电路接收所述计算模块发送的网络连接权重调整量,并根据该网络连接权重调整量控制所述忆阻器件的电阻值。
7.如权利要求6所述的信息处理系统,其特征在于,所述驱动电路进一步包括脉冲发生器与读写电路,所述脉冲发生器产生用于调制所述忆阻器件的突触调制电信号,所述读写电路完成对基于忆阻器件的神经网络连接权重的读写操作。
8.如权利要求7所述的信息处理系统,其特征在于,所述脉冲发生器控制脉冲的幅度、脉冲宽度或脉冲数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510634702.XA CN105224986B (zh) | 2015-09-29 | 2015-09-29 | 基于忆阻器件的深度神经网络系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510634702.XA CN105224986B (zh) | 2015-09-29 | 2015-09-29 | 基于忆阻器件的深度神经网络系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105224986A CN105224986A (zh) | 2016-01-06 |
CN105224986B true CN105224986B (zh) | 2018-01-23 |
Family
ID=54993943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510634702.XA Active CN105224986B (zh) | 2015-09-29 | 2015-09-29 | 基于忆阻器件的深度神经网络系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105224986B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701541A (zh) * | 2016-01-13 | 2016-06-22 | 哈尔滨工业大学深圳研究生院 | 一种基于忆阻器脉冲神经网络的电路结构 |
EP3208750A1 (en) | 2016-02-22 | 2017-08-23 | Universität Zürich | An analogue electronic deep neural network |
US11341408B2 (en) * | 2016-10-27 | 2022-05-24 | University Of Florida Research Foundation, Inc. | Memristive learning for neuromorphic circuits |
KR102578124B1 (ko) * | 2016-12-16 | 2023-09-14 | 에스케이하이닉스 주식회사 | 신경망 장치의 정규화 장치 및 방법 |
CN106847335B (zh) * | 2016-12-27 | 2019-03-19 | 北京大学 | 基于阻变存储阵列的卷积计算存储一体化设备及方法 |
CN106815636B (zh) * | 2016-12-30 | 2019-03-05 | 华中科技大学 | 一种基于忆阻器的神经元电路 |
CN108665061B (zh) * | 2017-03-28 | 2021-06-15 | 华为技术有限公司 | 数据处理装置和用于卷积计算的计算设备 |
CN107122828B (zh) * | 2017-05-09 | 2020-05-05 | 清华大学 | 电路结构及其驱动方法、神经网络 |
CN109146073B (zh) * | 2017-06-16 | 2022-05-24 | 华为技术有限公司 | 一种神经网络训练方法和装置 |
CN107424647B (zh) * | 2017-08-03 | 2020-08-04 | 电子科技大学 | 一种基于忆阻器的语音存储与分类系统 |
US11222255B2 (en) * | 2017-08-17 | 2022-01-11 | Samsung Electronics Co., Ltd. | Neuromorphic processing apparatus |
CN107679622B (zh) * | 2017-09-06 | 2020-08-14 | 清华大学 | 一种面向神经网络算法的模拟感知计算架构 |
US11348002B2 (en) * | 2017-10-24 | 2022-05-31 | International Business Machines Corporation | Training of artificial neural networks |
CN108009640B (zh) * | 2017-12-25 | 2020-04-28 | 清华大学 | 基于忆阻器的神经网络的训练装置及其训练方法 |
WO2019127363A1 (zh) * | 2017-12-29 | 2019-07-04 | 清华大学 | 神经网络权重编码方法、计算装置及硬件系统 |
CN108268938B (zh) * | 2018-01-24 | 2020-04-21 | 清华大学 | 神经网络及其信息处理方法、信息处理系统 |
CN109063826B (zh) * | 2018-03-19 | 2019-05-31 | 重庆大学 | 一种基于忆阻器的卷积神经网络实现方法 |
CN108985447B (zh) * | 2018-06-15 | 2020-10-16 | 华中科技大学 | 一种硬件脉冲神经网络系统 |
CN108962230B (zh) * | 2018-07-27 | 2019-04-23 | 重庆因普乐科技有限公司 | 基于忆阻器的语音识别方法 |
CN109086870B (zh) * | 2018-07-27 | 2019-05-31 | 重庆因普乐科技有限公司 | 一种基于忆阻器的三维卷积神经网络实现方法 |
DE102018213147A1 (de) * | 2018-08-07 | 2020-02-13 | Robert Bosch Gmbh | Auffrischen von mittels Memristoren gespeicherten Daten |
CN109359722A (zh) * | 2018-09-25 | 2019-02-19 | 北京工业大学 | 一种仿脑非常态工作状态的神经网络及电路设计方法 |
CN109558946B (zh) * | 2018-10-29 | 2022-07-12 | 南京邮电大学 | 一种基于忆阻器阵列的识别系统 |
CN110135571B (zh) * | 2019-04-11 | 2023-09-29 | 上海集成电路研发中心有限公司 | 一种基于细胞突触结构的单层线性神经网络 |
CN110458284A (zh) * | 2019-08-13 | 2019-11-15 | 深圳小墨智能科技有限公司 | 一种模拟神经网芯片的设计方法及模拟神经网芯片 |
CN110837253A (zh) * | 2019-10-31 | 2020-02-25 | 华中科技大学 | 一种基于忆阻突触的智能寻址系统 |
CN111239548B (zh) * | 2020-02-16 | 2022-01-28 | 常熟理工学院 | 一种基于分数忆阻神经网络系统的电路故障检测装置 |
CN112819141A (zh) * | 2021-02-01 | 2021-05-18 | 浪达网络科技(浙江)有限公司 | 一种基于深度神经网络的信息处理系统 |
CN114004343B (zh) * | 2021-12-31 | 2022-10-14 | 之江实验室 | 基于忆阻器脉冲耦合神经网络的最短路径获取方法及装置 |
CN115630693B (zh) * | 2022-12-21 | 2023-04-07 | 湖南师范大学 | 一种基于Elman神经网络学习算法的忆阻器自学习电路 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810497A (zh) * | 2014-01-26 | 2014-05-21 | 华中科技大学 | 一种基于忆阻器的图像识别系统及方法 |
CN103914735A (zh) * | 2014-04-17 | 2014-07-09 | 北京泰乐德信息技术有限公司 | 一种基于神经网络自学习的故障识别方法及系统 |
CN104573238A (zh) * | 2015-01-09 | 2015-04-29 | 江西理工大学 | 一种忆阻细胞神经网络的电路设计方法 |
CN104916313A (zh) * | 2015-06-16 | 2015-09-16 | 清华大学 | 基于忆阻器件的神经网络突触结构及突触权重构建方法 |
-
2015
- 2015-09-29 CN CN201510634702.XA patent/CN105224986B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810497A (zh) * | 2014-01-26 | 2014-05-21 | 华中科技大学 | 一种基于忆阻器的图像识别系统及方法 |
CN103914735A (zh) * | 2014-04-17 | 2014-07-09 | 北京泰乐德信息技术有限公司 | 一种基于神经网络自学习的故障识别方法及系统 |
CN104573238A (zh) * | 2015-01-09 | 2015-04-29 | 江西理工大学 | 一种忆阻细胞神经网络的电路设计方法 |
CN104916313A (zh) * | 2015-06-16 | 2015-09-16 | 清华大学 | 基于忆阻器件的神经网络突触结构及突触权重构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105224986A (zh) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105224986B (zh) | 基于忆阻器件的深度神经网络系统 | |
CN109460817B (zh) | 一种基于非易失存储器的卷积神经网络片上学习系统 | |
US10332004B2 (en) | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit | |
Adhikari et al. | A circuit-based learning architecture for multilayer neural networks with memristor bridge synapses | |
US9330355B2 (en) | Computed synapses for neuromorphic systems | |
CN108009640A (zh) | 基于忆阻器的神经网络的训练装置及其训练方法 | |
CN113272828A (zh) | 弹性神经网络 | |
CN108804786B (zh) | 一种联想神经网络突触权值可塑的忆阻模型电路设计方法 | |
Xiao et al. | GST-memristor-based online learning neural networks | |
US20150120626A1 (en) | Methods and apparatus for tagging classes using supervised learning | |
CN108153943B (zh) | 基于时钟循环神经网络的功率放大器的行为建模方法 | |
CN107924227A (zh) | 电阻处理单元 | |
CN105160401A (zh) | 一种基于忆阻器阵列的wta神经网络及其应用 | |
US20150212861A1 (en) | Value synchronization across neural processors | |
CN109886422A (zh) | 模型配置方法、装置、电子设备及可读取存储介质 | |
CN109074515A (zh) | 模拟电子神经网络 | |
US20150088796A1 (en) | Methods and apparatus for implementation of group tags for neural models | |
EP3129921A2 (en) | Modulating plasticity by global scalar values in a spiking neural network | |
Sun et al. | Low-consumption neuromorphic memristor architecture based on convolutional neural networks | |
Zhang et al. | The framework and memristive circuit design for multisensory mutual associative memory networks | |
CN110428049A (zh) | 一种基于多态忆阻器的电压型神经网络及其操作方法 | |
Tao et al. | Modeling and analysis of spike signal sequence for memristor crossbar array in neuromorphic chips | |
CN117151176A (zh) | 用于神经网络学习的突触阵列、运算电路及操作方法 | |
US20150213356A1 (en) | Method for converting values into spikes | |
Feng et al. | On hydrologic calculation using artificial neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |