CN109657787A - 一种二值忆阻器的神经网络芯片 - Google Patents

一种二值忆阻器的神经网络芯片 Download PDF

Info

Publication number
CN109657787A
CN109657787A CN201811552899.2A CN201811552899A CN109657787A CN 109657787 A CN109657787 A CN 109657787A CN 201811552899 A CN201811552899 A CN 201811552899A CN 109657787 A CN109657787 A CN 109657787A
Authority
CN
China
Prior art keywords
memristor
neural network
write
chip
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811552899.2A
Other languages
English (en)
Other versions
CN109657787B (zh
Inventor
帅垚
乔石珺
彭赟
吴传贵
罗文博
王韬
张万里
梁翔
潘忻强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201811552899.2A priority Critical patent/CN109657787B/zh
Publication of CN109657787A publication Critical patent/CN109657787A/zh
Application granted granted Critical
Publication of CN109657787B publication Critical patent/CN109657787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Multi Processors (AREA)
  • Logic Circuits (AREA)

Abstract

本发明涉及计算机与电子信息技术领域,具体涉及一种二值忆阻器的神经网络芯片。本发明利用忆阻器具有的开关比,即存在高低两种阻态,与二值化神经网络结合起来以在不同材料的忆阻器上完成存储和运算,并将其与中央处理器结合,以提高神经网络的计算效率和速度。除执行神经网络算法外,本发明还可利用二值化神经网络架构进行类似于FPGA的现场编程;即输入经过特殊编码处理的数据流,对照其应输出结果按照二值化神经网络的方法进行现场学习,当正确率达到100%时即停止学习,该网络即可执行对应功能。

Description

一种二值忆阻器的神经网络芯片
技术领域
本发明涉及计算机与电子信息技术领域,具体涉及一种二值忆阻器的神经网络芯片。
背景技术
目前神经网络运算基本上基于中央处理器(CPU)和图形处理器(GPU)。无论神经网络基于以上两者中哪一种硬件,其运算都是属于数字矩阵向量乘法,都需要计算硬件提供精确的突触权值表示,否则将对神经网络运算带来极其严重的偏差。
中央处理器(CPU)在进行矩阵向量乘法时受限于串行处理和数据读取的带宽限制,运算效率低下;图形处理器(GPU)在进行矩阵向量乘法时虽然并行计算效率较高,但能耗较大。利用忆阻器这种模拟器件进行神经网络运算是解决这些问题的有效方法。第一,其模拟矩阵向量乘法可以将矩阵向量乘法的算法复杂度由O(n2)降O(1),极大地提高了计算效率;第二,相比于数字矩阵向量乘法,模拟矩阵向量乘法的运算功耗极低;第三,忆阻器的非易失性使神经网络突触权值可保持很长时间,具有硬件可移植性。
目前已报道基于忆阻器运行的神经网络如单层感知机[1]、现场训练算法[2]等方法,都是基于传统数字电路可以精确运算的算法,需要将忆阻器的阻值精确映射到神经网络的权值,要求精确度很高,但目前由于对忆阻器调控机理仍没有一个普遍的认识,不同材料的制成忆阻器性能差异很大且普遍来说仍无法做到对阻值的精确调控,虽然一些报道提出了一些解决办法,如小电压逐步调控[3]、差分对[1][2]、写入后读取检查[3]等,但这些方法都不可避免面临算法适用面窄、调控复杂、耗费忆阻器单元更多、网络结构复杂等问题,离实际解决忆阻器真正大规模应用传统神经网络算法还有距离。
二值化神经网络,是指在浮点型神经网络的基础上,将其权重矩阵中权重值和各个激活函数值同时进行二值化得到的神经网络,通常将权重值和激活函数值二值化到+1和-1实现。二值化神经网络具有很好的特性,具体体现在:通过将权重矩阵二值化,一个权重值只占用一个比特,相比于单精度浮点型权重矩阵,网络模型的内存消耗理论上能减少32倍,因此二值化神经网络在模型压缩上具有很大的优势。当权重值和激活函数值同时进行二值化之后,原来32个浮点型数的乘加运算,可以通过一次异或运算和一次按位运算解决,在模型加速上具有很大的潜力。目前德国Hasso Plattner研究所已经针对二值化神经网络开发了开源的BMXNet神经网络训练集[4],提供了激活层、卷积层和全连接层,其计算结果在MNIST数据集上正确率为97%,相对浮点数全精度计算结果的99%,两者相差很小。在模型大小方面二值化神经网络占用207kB,全精度模型占用4.6MB,节省了20倍以上空间。除BMXNet外,其他二值化神经网络还有ABCNet、XNORNet等改进型二值化神经网络,这意味着二值化神经网络已经得到学界的重视,并且未来将会得到开发者长期稳定的开发和维护。其占用空间小、运算复杂度低、与传统数字电路契合也意味着其在嵌入式系统、高性能计算等领域将发挥更大的作用。
[1]Prezioso,M.,F.Merrikh-Bayat,B.D.Hoskins,et al.2015Training andOperation of an Integrated Neuromorphic Network Based on Metal-OxideMemristors.Nature 521(7550):61–64.
[2]Li,Can,Daniel Belkin,Yunning Li,et al.2018Efficient and Self-Adaptive in-Situ Learning in Multilayer Memristor Neural Networks.NatureCommunications 9(1).http://www.nature.com/articles/s41467-018-04484-2,accessed July 15,2018.
[3]Yao,Peng,Huaqiang Wu,Bin Gao,et al.2017Face Classification UsingElectronic Synapses.Nature Communications 8:15199.
[4]https://github.com/hpi-xnor
发明内容
针对上述存在问题或不足,为解决忆阻器执行神经网络的大规模应用的技术问题,本发明提供了一种二值忆阻器的神经网络芯片。
一种二值忆阻器的神经网络芯片,用于承载二值化神经网络的忆阻器系统和中央处理器(CPU)的协作,以完成神经网络的运算,包含中央处理器(CPU)1和忆阻器系统2。
其中,中央处理器负责进行高精度线性运算,忆阻器系统基于交叉阵列结构的忆阻器芯片以实现矩阵运算,两者之间进行电连接以达成信息交换。
所述忆阻器系统包含忆阻器核心5、外围控制电路6和自检纠错电路7。
忆阻器核心5包含有至少一片忆阻器芯片,单个忆阻器芯片内包含呈交叉阵列(Crossbar)结构的n个忆阻器单元,n≥2。
外部控制电路包括外部命令请求、读写控制电路、读写激励电路、功能片选信号、读出电路和数据输出模块,负责按照外部命令请求来激励和读取忆阻器芯片内各忆阻器单元的阻值状态,进而完成存储和运算的功能,并将数据结果处理后返回给中央处理器。
自检纠错电路7负责进行忆阻器状态检查与调整,检测是否有忆阻器单元失效或数据存储错误等故障,告知使用者和排除故障。
其工作流程如下:
其中外部命令输入到外部命令请求后,会同时传输到读写控制电路和功能片选信号。
读写控制电路根据外部命令选择读或写,并将读写命令传输给自检纠错电路7和读写激励电路:自检纠错电路7记录读写控制电路的命令;读写激励电路产生写入电压信号或读取电压信号传输给忆阻器核心5。
功能片选信号根据外部命令请求产生选择忆阻器芯片的命令并传输给忆阻器核心5。忆阻器核心5根据命令完成计算后,将计算结果输出到读出电路进行处理。读出电路将计算结果返回给自检纠错电路7对照读写控制电路的命令:若对照后无错误会将信息通知读出电路,由读出电路将计算结果交给数据输出模块输出给中央处理器;若有错误将告知使用者错误信息,并排除错误。
所述忆阻器芯片内忆阻器单元的阻值和二值化神经网络权值一一对应,即高阻态对应-1,低阻态对应+1。当忆阻器单元进入写入状态,需要从-1(高阻态)调到+1(低阻态)时,加上正向的波形;反之需要从+1(低阻态)调到-1(高阻态)时,加上反向波形。
所述忆阻器芯片的写入电压高于读取电压。写入采用一时多工调控方式,即同列同时写入,根据同一列不同单元的调控命令,在上电极端同时施加对应电压,下电极输出对应信号。该列写入完成后进行下一列的写入,直到完成命令执行。读取采用一时一工调控方式,逐个单元施加读取电压遍历直到完成命令执行。
所述忆阻器芯片执行矩阵运算时,输入电压使用读取电压的值,采用单次运算调控方式,即根据输入的二值数据在上电极同时输入对应该二值数据的电压,各下电极同时输出电流,然后将电流信号转化为数字信号并输出。
进一步的,该二值忆阻器的神经网络芯片还包括与中央处理器(CPU)和忆阻器系统电连接的SDRAM 3、图像信号处理(ISP)和/或数字信号处理(DSP)4。SDRAM 3用来辅助存储,ISP和DSP配合中央处理器1和忆阻器系统2利用神经网络进行智能化图像处理。
本发明利用忆阻器具有的开关比,即存在高低两种阻态,与二值化神经网络结合起来以在不同材料的忆阻器上完成存储和运算,并将其与中央处理器结合,以提高神经网络的计算效率和速度。除执行神经网络算法外,本发明还可利用二值化神经网络架构进行类似于FPGA的现场编程;即输入经过特殊编码处理的数据流,对照其应输出结果按照二值化神经网络的方法进行现场学习,当正确率达到100%时即停止学习,该网络即可执行对应功能。
综上所述,本发明首次提出将忆阻器与二值化神经网络结合运用,为忆阻器执行神经网络的大规模应用提供了一种新路径,且提高了神经网络计算效率和速度。
附图说明
图1为实施例二值化忆阻器系统和中央处理器协作的神经网络芯片的结构;
图2为实施例忆阻器系统的内部结构;
图3为实施例忆阻器核心5内部多个单片交叉阵列结构全连接结构;
图4为实施例的二值化神经网络算法流程;
图5为实施例Iris数据集在二值化神经网络芯片上仿真结果;
图6为实施例多功能逻辑门数据集;
图7为实施例多功能逻辑门数据集进行现场编程仿真结果
附图标记:1-中央处理器(CPU),2-忆阻器系统,3-其他存储器,4-其他信号处理模块,5-忆阻器核心5,6-外围控制电路6,7-自检纠错电路7,8-11忆阻器芯片。
具体实施方式
下面结合附图和实施例对本发明做进一步的详细说明。
采用一个X86架构的Intel E5-2620V4的中央处理器配合一片30*3的忆阻器交叉阵列结构进行仿真。
其中,中央处理器1的设计可使用ARM、X86或MIPS架构,根据需要分为多个高性能高功耗和低性能低功耗的单核心或多核心中央处理器,可以根据任务繁重程度选择不同中央处理器模块进行处理。这里可以给出一种范例:2个最强的ARM Cortex-A72核心,主频为2.5GHz;2个强化版的A53e核心,主频为2.0GHz;4个普通低功耗A53核心,主频为1.4GHz,共同构成中央处理器1。
如图3所示,本实施例中针对图2中忆阻器核心5中的忆阻器芯片采用2D忆阻器交叉阵列结构。对于采用两个及以上的忆阻器芯片的结构,各个忆阻器芯片之间之间进行电连接,使相互之间可以进行信息交换通信。外部请求命令根据所需功能片选忆阻器芯片,并在其中每片动态选择忆阻器单元的数量来开辟使用空间,以期达到一时多工的效果。
其中片8负责神经网络运算,具有运算与存储一体化功能;片9负责信息存储,可配合SDRAM进行芯片内数据存储;片10可进行现场编程,所需功能进行特殊编码后利用二值化神经网络架构进行现场编程后即可执行对应功能;片11等其他单片可配合其他片进行片扩展以增强功能。所有单片共用一条输出总线,可采用流水线方法输出结果。
如图4所示,本实施例使用Matthieu Courbariaux提出的二值化神经网络算法,其将二值化结合反向传播(BP)神经网络,使用Adam法学习。本实施例使用常用的Iris数据集进行验证,使用三层神经元,个数分别为24、30、3,训练样本135个测试样本15个,重复试验10次,得到的150个样本输出数据正确率测试结果如图5所示,正确率高于90%。
如图6所示,本实施例使用自行编程的多功能逻辑门数据集,数据集输入部分包括输入数据和模式选择两部分,其中输入数据即逻辑门实际输入,模式选择即逻辑门类型选择,数据集输出部分即根据逻辑门类型和对应的输入数据得到二值结果后,采用真假值进行分类,即输出1即为真值(T),0即为假值(F)。将该数据集所有数据进行反复写入学习以完成类似FPGA的现场编程。
如图7所示,经过最多不超过600次的学习过程,忆阻器承载二值化神经网络便可无差错执行复杂的多功能逻辑门的功能。
综上可见,本发明可以使忆阻器执行多种不同神经网络功能,其简单的结构和包容性为大规模应用带来了曙光,且提高了神经网络计算效率和速度。

Claims (2)

1.一种二值忆阻器的神经网络芯片,用于承载二值化神经网络的忆阻器系统和中央处理器CPU的协作,以完成神经网络的运算,包含中央处理器CPU和忆阻器系统,其特征在于:
中央处理器负责进行高精度线性运算,忆阻器系统基于交叉阵列结构的忆阻器芯片以实现矩阵运算,两者之间进行电连接以达成信息交换;
所述忆阻器系统包含忆阻器核心、外围控制电路和自检纠错电路;
忆阻器核心包含有至少一片忆阻器芯片,单个忆阻器芯片内包含呈交叉阵列结构的n个忆阻器单元,n≥2;
外部控制电路包括外部命令请求、读写控制电路、读写激励电路、功能片选信号、读出电路和数据输出模块,负责按照外部命令请求来激励和读取忆阻器芯片内各忆阻器单元的阻值状态,进而完成存储和运算的功能,并将数据结果处理后返回给中央处理器;
自检纠错电路负责进行忆阻器状态检查与调整,检测是否有忆阻器单元失效或数据存储错误等故障,告知使用者和排除故障;
其工作流程如下:
外部命令输入到外部命令请求后,会同时传输到读写控制电路和功能片选信号;
读写控制电路根据外部命令选择读或写,并将读写命令传输给自检纠错电路和读写激励电路:自检纠错电路记录读写控制电路的命令;读写激励电路产生写入电压信号或读取电压信号传输给忆阻器核心;
功能片选信号根据外部命令请求产生选择忆阻器芯片的命令并传输给忆阻器核心;忆阻器核心根据命令完成计算后,将计算结果输出到读出电路进行处理;读出电路将计算结果返回给自检纠错电路对照读写控制电路的命令:若对照后无错误会将信息通知读出电路,由读出电路将计算结果交给数据输出模块输出给中央处理器;若有错误将告知使用者错误信息,并排除错误;
所述忆阻器芯片内忆阻器单元的阻值和二值化神经网络权值一一对应,即高阻态对应-1,低阻态对应+1;当忆阻器单元进入写入状态,需要从高阻态调到低阻态时,加上正向的波形;反之需要从低阻态调到高阻态时,加上反向波形;
所述忆阻器芯片的写入电压高于读取电压,写入采用一时多工调控方式,即同列同时写入,根据同一列不同单元的调控命令,在上电极端同时施加对应电压,下电极输出对应信号;该列写入完成后进行下一列的写入,直到完成命令执行,读取采用一时一工调控方式,逐个单元施加读取电压遍历直到完成命令执行;
所述忆阻器芯片执行矩阵运算时,输入电压使用读取电压的值,采用单次运算调控方式,即根据输入的二值数据在上电极同时输入对应该二值数据的电压,各下电极同时输出电流,然后将电流信号转化为数字信号并输出。
2.如权利要求1所述二值忆阻器的神经网络芯片,其特征在于:
还包括与中央处理器CPU和忆阻器系统电连接的SDRAM、图像信号处理ISP和/或数字信号处理DSP;SDRAM用来辅助存储,ISP和DSP配合中央处理器和忆阻器系统利用神经网络进行智能化图像处理。
CN201811552899.2A 2018-12-19 2018-12-19 一种二值忆阻器的神经网络芯片 Active CN109657787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811552899.2A CN109657787B (zh) 2018-12-19 2018-12-19 一种二值忆阻器的神经网络芯片

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811552899.2A CN109657787B (zh) 2018-12-19 2018-12-19 一种二值忆阻器的神经网络芯片

Publications (2)

Publication Number Publication Date
CN109657787A true CN109657787A (zh) 2019-04-19
CN109657787B CN109657787B (zh) 2022-12-06

Family

ID=66114653

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811552899.2A Active CN109657787B (zh) 2018-12-19 2018-12-19 一种二值忆阻器的神经网络芯片

Country Status (1)

Country Link
CN (1) CN109657787B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110852A (zh) * 2019-05-15 2019-08-09 电科瑞达(成都)科技有限公司 一种深度学习网络移植到fpag平台的方法
CN110515454A (zh) * 2019-07-24 2019-11-29 电子科技大学 一种基于内存计算的神经网络架构电子皮肤
CN110619907A (zh) * 2019-08-28 2019-12-27 中国科学院上海微系统与信息技术研究所 一种突触电路、突触阵列及基于突触电路的数据处理方法
CN110929859A (zh) * 2019-10-24 2020-03-27 南京理工大学 一种忆阻器计算系统安全性增强方法
CN110956256A (zh) * 2019-12-09 2020-04-03 清华大学 利用忆阻器本征噪声实现贝叶斯神经网络的方法及装置
CN111239548A (zh) * 2020-02-16 2020-06-05 常熟理工学院 一种基于分数忆阻神经网络系统的电路故障检测装置
CN111931924A (zh) * 2020-07-31 2020-11-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN112489717A (zh) * 2020-11-06 2021-03-12 苏州大学 基于蕴含逻辑的自容错忆阻存储单元纠错方法
CN112686364A (zh) * 2019-10-18 2021-04-20 华为技术有限公司 一种神经网络计算芯片及计算方法
CN112836814A (zh) * 2021-03-02 2021-05-25 清华大学 存算一体处理器、处理系统以及算法模型的部署方法
CN113077046A (zh) * 2021-03-30 2021-07-06 西南大学 一种基于遗忘忆阻桥的并行多算子卷积运算器
WO2022240497A1 (en) * 2021-05-13 2022-11-17 Micron Technology, Inc. Binary neural network in memory

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130301335A1 (en) * 2012-05-08 2013-11-14 Adrian E. Ong Architecture, system and method for testing resistive type memory
US20170011290A1 (en) * 2015-07-06 2017-01-12 University Of Dayton On-chip training of memristor crossbar neuromorphic processing systems
US20170228345A1 (en) * 2016-02-08 2017-08-10 Spero Devices, Inc. Analog Co-Processor
KR20170108627A (ko) * 2016-03-18 2017-09-27 국민대학교산학협력단 신경모방 멤리스터 크로스바 회로
CN107346449A (zh) * 2016-05-04 2017-11-14 清华大学 可同时计算和编程的神经形态电路
CN107424647A (zh) * 2017-08-03 2017-12-01 电子科技大学 一种基于忆阻器的语音存储与分类系统
US20180018559A1 (en) * 2016-07-14 2018-01-18 University Of Dayton Analog neuromorphic circuits for dot-product operation implementing resistive memories
US20180114569A1 (en) * 2016-03-11 2018-04-26 Hewlett Packard Enterprise Development Lp Hardware accelerators for calculating node values of neural networks
CN108009640A (zh) * 2017-12-25 2018-05-08 清华大学 基于忆阻器的神经网络的训练装置及其训练方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130301335A1 (en) * 2012-05-08 2013-11-14 Adrian E. Ong Architecture, system and method for testing resistive type memory
US20170011290A1 (en) * 2015-07-06 2017-01-12 University Of Dayton On-chip training of memristor crossbar neuromorphic processing systems
US20170228345A1 (en) * 2016-02-08 2017-08-10 Spero Devices, Inc. Analog Co-Processor
US20180114569A1 (en) * 2016-03-11 2018-04-26 Hewlett Packard Enterprise Development Lp Hardware accelerators for calculating node values of neural networks
KR20170108627A (ko) * 2016-03-18 2017-09-27 국민대학교산학협력단 신경모방 멤리스터 크로스바 회로
CN107346449A (zh) * 2016-05-04 2017-11-14 清华大学 可同时计算和编程的神经形态电路
US20180018559A1 (en) * 2016-07-14 2018-01-18 University Of Dayton Analog neuromorphic circuits for dot-product operation implementing resistive memories
CN107424647A (zh) * 2017-08-03 2017-12-01 电子科技大学 一种基于忆阻器的语音存储与分类系统
CN108009640A (zh) * 2017-12-25 2018-05-08 清华大学 基于忆阻器的神经网络的训练装置及其训练方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
胡飞等: "基于忆阻器交叉阵列的卷积神经网络电路设计", 《计算机研究与发展》 *
高士咏等: "忆阻细胞神经网络及图像去噪和边缘提取中的应用", 《西南大学学报(自然科学版)》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110852A (zh) * 2019-05-15 2019-08-09 电科瑞达(成都)科技有限公司 一种深度学习网络移植到fpag平台的方法
CN110515454B (zh) * 2019-07-24 2021-07-06 电子科技大学 一种基于内存计算的神经网络架构电子皮肤
CN110515454A (zh) * 2019-07-24 2019-11-29 电子科技大学 一种基于内存计算的神经网络架构电子皮肤
CN110619907A (zh) * 2019-08-28 2019-12-27 中国科学院上海微系统与信息技术研究所 一种突触电路、突触阵列及基于突触电路的数据处理方法
CN110619907B (zh) * 2019-08-28 2021-06-04 中国科学院上海微系统与信息技术研究所 一种突触电路、突触阵列及基于突触电路的数据处理方法
WO2021073642A1 (zh) * 2019-10-18 2021-04-22 华为技术有限公司 一种神经网络计算芯片及计算方法
US11853594B2 (en) 2019-10-18 2023-12-26 Huawei Technologies Co., Ltd. Neural network computing chip and computing method
CN112686364A (zh) * 2019-10-18 2021-04-20 华为技术有限公司 一种神经网络计算芯片及计算方法
CN112686364B (zh) * 2019-10-18 2023-12-08 华为技术有限公司 一种神经网络计算芯片及计算方法
CN110929859B (zh) * 2019-10-24 2022-09-06 南京理工大学 一种忆阻器计算系统安全性增强方法
CN110929859A (zh) * 2019-10-24 2020-03-27 南京理工大学 一种忆阻器计算系统安全性增强方法
CN110956256B (zh) * 2019-12-09 2022-05-17 清华大学 利用忆阻器本征噪声实现贝叶斯神经网络的方法及装置
CN110956256A (zh) * 2019-12-09 2020-04-03 清华大学 利用忆阻器本征噪声实现贝叶斯神经网络的方法及装置
CN111239548A (zh) * 2020-02-16 2020-06-05 常熟理工学院 一种基于分数忆阻神经网络系统的电路故障检测装置
CN111239548B (zh) * 2020-02-16 2022-01-28 常熟理工学院 一种基于分数忆阻神经网络系统的电路故障检测装置
CN111931924A (zh) * 2020-07-31 2020-11-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN111931924B (zh) * 2020-07-31 2022-12-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN112489717A (zh) * 2020-11-06 2021-03-12 苏州大学 基于蕴含逻辑的自容错忆阻存储单元纠错方法
CN112489717B (zh) * 2020-11-06 2023-09-01 苏州大学 基于蕴含逻辑的自容错忆阻存储器单元纠错方法
CN112836814A (zh) * 2021-03-02 2021-05-25 清华大学 存算一体处理器、处理系统以及算法模型的部署方法
WO2022183759A1 (zh) * 2021-03-02 2022-09-09 清华大学 存算一体处理器、处理系统、处理装置以及算法模型的部署方法
CN113077046A (zh) * 2021-03-30 2021-07-06 西南大学 一种基于遗忘忆阻桥的并行多算子卷积运算器
CN113077046B (zh) * 2021-03-30 2022-12-30 西南大学 一种基于遗忘忆阻桥的并行多算子卷积运算器
WO2022240497A1 (en) * 2021-05-13 2022-11-17 Micron Technology, Inc. Binary neural network in memory

Also Published As

Publication number Publication date
CN109657787B (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
CN109657787A (zh) 一种二值忆阻器的神经网络芯片
Yang et al. Research progress on memristor: From synapses to computing systems
Zhang et al. Neuro-inspired computing chips
CN109460817B (zh) 一种基于非易失存储器的卷积神经网络片上学习系统
Sheridan et al. Sparse coding with memristor networks
US10346347B2 (en) Field-programmable crossbar array for reconfigurable computing
Wang et al. Integration and co-design of memristive devices and algorithms for artificial intelligence
Yakopcic et al. Memristor crossbar deep network implementation based on a convolutional neural network
CN110334799A (zh) 基于存算一体的神经网络推理与训练加速器及其运行方法
Yingge et al. Deep neural networks on chip-a survey
US20210342671A1 (en) Vertical mapping and computing for deep neural networks in non-volatile memory
Miyashita et al. Time-domain neural network: A 48.5 TSOp/s/W neuromorphic chip optimized for deep learning and CMOS technology
Ankit et al. Circuits and architectures for in-memory computing-based machine learning accelerators
Ji et al. Adaptive sparse coding based on memristive neural network with applications
Jain et al. Neural network accelerator design with resistive crossbars: Opportunities and challenges
Ma et al. Go unary: A novel synapse coding and mapping scheme for reliable ReRAM-based neuromorphic computing
Bennett et al. Contrasting advantages of learning with random weights and backpropagation in non-volatile memory neural networks
Wang et al. Research progress in architecture and application of RRAM with computing-in-memory
Li et al. Reduction 93.7% time and power consumption using a memristor-based imprecise gradient update algorithm
Geng et al. An on-chip layer-wise training method for RRAM based computing-in-memory chips
CN112199234A (zh) 一种基于忆阻器的神经网络容错方法
Sun et al. Quaternary synapses network for memristor-based spiking convolutional neural networks
CN107103358A (zh) 基于自旋转移力矩磁存储器的神经网络处理方法及系统
Telminov et al. Possibilities and Limitations of Memristor Crossbars for Neuromorphic Computing
Zidan et al. RRAM fabric for neuromorphic and reconfigurable compute-in-memory systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant