CN114418081B - 面向片上脉冲神经网络的神经元实现系统 - Google Patents

面向片上脉冲神经网络的神经元实现系统 Download PDF

Info

Publication number
CN114418081B
CN114418081B CN202210325009.4A CN202210325009A CN114418081B CN 114418081 B CN114418081 B CN 114418081B CN 202210325009 A CN202210325009 A CN 202210325009A CN 114418081 B CN114418081 B CN 114418081B
Authority
CN
China
Prior art keywords
neuron
pulse
instruction
neural network
pulse signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210325009.4A
Other languages
English (en)
Other versions
CN114418081A (zh
Inventor
马德
孙世春
胡有能
李一涛
金孝飞
陆启明
潘纲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Zhejiang Lab
Original Assignee
Zhejiang University ZJU
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU, Zhejiang Lab filed Critical Zhejiang University ZJU
Priority to CN202210325009.4A priority Critical patent/CN114418081B/zh
Publication of CN114418081A publication Critical patent/CN114418081A/zh
Application granted granted Critical
Publication of CN114418081B publication Critical patent/CN114418081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Power Sources (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种面向片上脉冲神经网络的神经元实现系统,包括:脉冲触发控制单元,用于监听外界脉冲信号,当脉冲信号到达时向脉冲接收处理单元发送脉冲信号驱动事件;脉冲接收单元,用于被脉冲信号驱动事件唤醒后接收脉冲信号;时间步触发控制单元,用于监听外界时间步信号,当时间步信号到达时向神经元处理单元发送时间步信号驱动事件;神经元处理单元,用于被时间步信号驱动事件唤醒后从脉冲接收单元获取累积脉冲信号,并控制神经元依据脉冲信号和编码指令进行功能计算;分时复用控制单元,用于控制神经元处理单元分时复用同一编码指令以控制神经元进行功能计算。该系统具有扩展能力,兼具高效性和通用性。

Description

面向片上脉冲神经网络的神经元实现系统
技术领域
本发明属于脉冲神经网络技术领域,具体涉及一种面向片上脉冲神经网络的神经元实现系统。
背景技术
近年来,计算架构遭遇到存储墙、功耗墙、处理墙、规模墙等天花板效应日趋严重,传统计算机所遵循的冯诺依曼体系结构正在面临巨大的挑战。因此,迫切需要一种能够应对高密度数据、高维度特征的高效能计算技术,以满足有限算力与快速增长的数据处理需求。
随着脑科学的发展,人们逐渐了解到人脑是一部极高能效的计算机,类脑计算应运而生。类脑计算的基本思路是将生物神经网络的概念应用于计算机系统设计,类脑计算是指对大脑神经系统和信息处理过程的模拟,实现高性能、低功耗的计算系统。如专利文献CN108073982A公开了一种类脑计算系统,包括一个以上神经元和一个以上MTJ突触,MTJ突触包括记忆MTJ和参考MTJ;MTJ突触的输出端连接到类脑计算系统中输入电荷的神经元,MTJ突触的输入端连接到类脑计算系统中输出电荷的神经元;MTJ突触的输出端被置于基准电位,记忆MTJ适于接收来自所述MTJ突触的输入端的第一脉冲,参考MTJ适于接收来自MTJ突触的输入端的第二脉冲,第一脉冲与第二脉冲同时发射,形状相同且符号相反;神经元之间通过MTJ突触连接起来;所有MTJ突触各自包含的参考MTJ都在同一约定的状态上;神经元包括电荷积分器、脉冲发生器以及分别与电荷积分器和脉冲发生器相连的模式控制器。这种类脑计算系统能有效缩减突触的面积,扩展类脑计算系统所集成芯片的规模,以及降低功耗。
脉冲神经网络作为第三代神经网络,其模拟神经元更加接近实际,除此之外,把时间信息的影响也考虑其中。思路是这样的,动态神经网络中的神经元不是在每一次迭代传播中都被激活,而是在它的膜电位达到某一个特定值才被激活。当一个神经元被激活,它会产生一个信号传递给其他神经元,提高或降低其膜电位。这样脉冲神经网络具有高度的生物真实性,由于在真实世界学习的任务中展现出独特优势,迅速成为类脑计算芯片研究热点。
但目前类脑芯片和生物脑之间还有很大的差距。大脑不同位置、不同类型神经元之间具有神经动力学异质性和计算功能的特异性,经典人工神经元模型一般难以表征多样性的神经元集群。复杂动力学特性神经元需要消耗大量计算资源,大规模网络运作起来能耗大。
发明内容
鉴于上述,本发明的目的是提供一种面向片上脉冲神经网络的神经元实现系统,通过对神经元进行控制,促使实现多种主流神经元模型的计算功能,并具有扩展能力,兼具高效性和通用性。
为实现上述发明目的,实施例提供的一种面向片上脉冲神经网络的神经元实现系统,包括:
脉冲触发控制单元,用于监听外界脉冲信号,当脉冲信号到达时向脉冲接收单元发送脉冲信号驱动事件;
脉冲接收单元,用于被脉冲信号驱动事件唤醒后接收脉冲信号并累积;
时间步触发控制单元,用于监听外界时间步信号,当时间步信号到达时向神经元处理单元发送时间步信号驱动事件;
神经元处理单元,用于被时间步信号驱动事件唤醒后从脉冲接收单元获取累积脉冲信号,并控制神经元依据累积脉冲信号和编码指令进行功能计算;
分时复用控制单元,用于控制神经元处理单元分时复用同一编码指令以控制神经元进行功能计算。
在一个实施例中,所述脉冲接收单元在接收脉冲信号后,处于低功耗待机状态,以等待下一个脉冲信号驱动事件。
在一个实施例中,所述神经元处理单元在控制根据累积脉冲信号进行功能计算后,处于低功耗待机状态,以等待下一个时间步信号驱动事件;
所述脉冲接收单元的脉冲信号接收和所述神经元处理单元的控制神经元功能计算异步进行。
在一个实施例中,所述神经元处理单元包括:
专用指令编码模块,用于根据多种脉冲神经网络模型的计算功能编码专用指令,以形成能够实现多种脉冲神经网络模型计算功能的专用指令;
通用指令编码模块,用于根据通用需求编码通用指令,通用指令为转用指令执行的计算功能进行补充,以拓展计算功能;
众核架构扩展接口,用于扩展组成单个神经元架构实例的神经元;
控制处理模块,用于控制每个神经元架构实例的所有神经元采用相同的编码指令并结合自身参数值进行功能计算,所述编码指令包括专用指令/或通用指令,专用指令的优先级大于通用指令的优先级。
在一个实施例中,所述专用指令编码模块中,通过将从多种脉冲神经网络模型提取的至少2个基本运算因子进行整合,形成专用指令,以实现多种脉冲神经网络模型的计算功能。
在一个实施例中,所述通用指令编码模块编码的通用指令包括单一基本运算因子,以实现对专用指令计算功能做补充计算。
在一个实施例中,所述控制处理模块为通过众核架构扩展接口扩展的不同神经元架构实例分配不同的编码指令,以实现不同的计算功能;
单个神经元架构实例中的每个神经元依据自身参数值进行功能计算,实现神经元个体之间的差异性。
在一个实施例中,每个神经元架构实例的神经元采用同一编码指令进行功能计算时,采用分时复用的方式,即分时复用控制单元控制神经元架构实例的每个神经元在各自分配的时间段运行编码指令。
在一个实施例中,所述分时复用控制单元控制的复用次数、复用状态能够与外部进行交互,即能够配置分时复用控制单元控制的复用此次,复用控制单元将复用状态反馈给外界,外界根据复用状态控制时间步信号。
在一个实施例中,所述神经元的自身参数值能够被外接配置。
与现有技术相比,本发明具有的有益效果至少包括:
实施例提供的面向片上脉冲神经网络的神经元实现系统中,脉冲接收单元和神经元处理单元基于事件驱动唤醒,异步进行脉冲信号的接收和累积脉冲信号的功能计算;神经元的功能计算采取时间步触发和分时复用的方式,能够降低计算能耗和资源以及时间,实现了时间、能耗和资源高效性。
神经元处理单元中执行功能计算的编码指令包括专用指令和通用指令,其中,专用指令通过将多种脉冲神经网络模型整合到编码指令中,实现多种脉冲网络模型的计算功能,减少指令数量;通用指令对专用指令的计算功能进行补充,提供灵活的扩展能力,具有通用性。
神经元处理单元通过众核架构扩展接口拓展不同的神经元架构实例,不同神经元架构实例采用不同编码指令进行功能计算,以实现不同类型的神经元群功能,同一个神经元架构实例的不同神经元实现相同类型神经元群功能,因为各神经元自身参数的差异性使得同类型神经元群功能还具有神经元个体差异性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是实施例提供的面向片上脉冲神经网络的神经元实现系统的结构示意图;
图2是实施例提供的编码的转用指令和通用指令示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
图1是实施例提供的面向片上脉冲神经网络的神经元实现系统的结构示意图。如图1所示,实施例提供的面向片上脉冲神经网络的神经元实现系统包括脉冲触发控制单元、脉冲接收单元、时间步触发控制单元、神经元处理单元以及分时复用控制单元。
脉冲触发控制单元用于监听外界脉冲信号,当脉冲信号到达时向脉冲接收单元发送脉冲信号驱动事件。脉冲接收单元用于被脉冲信号驱动事件唤醒后接收脉冲信号,并进行脉冲信号累积,以便下一个时间步信号到来时,交给神经元处理单元处理。脉冲接收单元在接收脉冲信号后,处于低功耗待机状态,等待下一个脉冲信号驱动事件,这样能够节省能耗,具有能耗高效性。
时间步触发控制单元用于监听外界时间步信号,当时间步信号到达时向神经元处理单元发送时间步信号驱动事件以指示工作。神经元处理单元用于被时间步信号驱动事件唤醒后从脉冲接收单元获取累积脉冲信号,并控制神经元依据累积脉冲信号和编码指令进行功能计算,并在功能计算后,处于低功耗待机状态,以等待下一个时间步信号驱动事件,这样能够节省能耗,具有能耗高效性。
实施例中,脉冲接收单元的脉冲信号接收和神经元处理单元的控制神经元功能计算异步进行,各自由相应的事件驱动唤醒,操作完成后休眠。
分时复用控制单元用于控制神经元处理单元分时复用同一编码指令以控制神经元进行功能计算。其中,编码指令包括专用指令、通用指令。
如图1所示,实施例提供的神经元处理单元包括专用指令编码模块、通用指令编码模块、众核架构扩展接口、控制处理模块。
其中,专用指令编码模块用于根据多种脉冲神经网络模型的计算功能编码专用指令,以形成能够实现多种脉冲神经网络模型计算功能的专用指令。实施例中,如图2所示,通过把从多种脉冲神经网络模型提取的至少2个基本运算因子进行整合,形成专用指令,以实现多种脉冲神经网络模型计算功能,这样多个种脉冲神经网络模型可以采用一种专用指令,减少了指令数量,且具有时间高效性。例如,专用指令OP_SA={FUNC _A,FUNC_B},即表示专用指令OP_SA由基本运算因子FUNC _A和FUNC_B整合而成。
通用指令编码模块用于根据通用需求编码通用指令,通用指令为专用指令执行的计算功能进行补充,以拓展计算功能。实施例中,如图2所示,通过把从多种脉冲神经网络模型提取一个基本运算因子进行编码,以形成通用指令,该通用指令能够实现对专用指令计算功能做补充计算,提供灵活的扩展能力,具有通用性。例如,通用指令OP_GA={FUNC _A },即表示通用指令OP_GA由基本运算因子FUNC _A编码而成。
众核架构扩展接口用于扩展组成单个神经元架构实例的神经元。即通过众核架构扩展接口扩展多个神经元以组成单个神经元架构实例,需要说明的是,单个神经元架构实例是指由多个神经元组成的单个神经元集群,可以说对应单个脉冲神经元网络模型,实现一个相似或相同的计算任务。
控制处理模块用于控制每个神经元架构实例的所有神经元采用相同的编码指令并结合自身参数值进行功能计算,其中,编码指令包括专用指令/或通用指令,专用指令的优先级大于通用指令的优先级。也就是说,当专用指令可以实现完整计算功能时,则只用专用指令,当专用指令不能实现完整计算功能时,需要利用通用指令进行补充,以实现完整计算功能。
实施例中,基于众核架构扩展接口的神经元扩展功能,控制处理模块为通过众核架构扩展接口扩展的不同神经元架构实例分配不同的编码指令,以实现不同的计算功能,且单个神经元架构实例中的所有神经元共享相同的编码指令,执行类似的功能计算,但由于每个神经元在进行功能计算时还需结合自身参数值,自身参数值的不同实现了神经元个体之间的计算差异性。需要说明的是,神经元的自身参数值可以可视化写入。
实施例中,每个神经元架构实例的所有神经元复用同一编码指令进行功能计算时,采用分时复用的方式,即分时复用控制单元控制神经元架构实例的每个神经元在各自分配的时间段运行编码指令,以减少单位神经元所占的面积,具有资源高效性。
实施例中,分时复用控制单元控制的复用次数、复用状态均可与外部进行交互,即可以配置分时复用控制单元控制的复用此次,复用控制单元将复用状态反馈给外界,外界可以根据复用状态控制时间步信号。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种面向片上脉冲神经网络的神经元实现系统,其特征在于,包括:
脉冲触发控制单元,用于监听外界脉冲信号,当脉冲信号到达时向脉冲接收单元发送脉冲信号驱动事件;
脉冲接收单元,用于被脉冲信号驱动事件唤醒后接收脉冲信号并累积;
时间步触发控制单元,用于监听外界时间步信号,当时间步信号到达时向神经元处理单元发送时间步信号驱动事件;
神经元处理单元,用于被时间步信号驱动事件唤醒后从脉冲接收单元获取累积脉冲信号,并控制神经元依据累积脉冲信号和编码指令进行功能计算;
分时复用控制单元,用于控制神经元处理单元分时复用同一编码指令以控制神经元进行功能计算;
所述神经元处理单元包括:
专用指令编码模块,用于根据多种脉冲神经网络模型的计算功能编码专用指令,以形成能够实现多种脉冲神经网络模型计算功能的专用指令,包括:通过将从多种脉冲神经网络模型提取的至少2个基本运算因子进行整合,形成专用指令,以实现多种脉冲神经网络模型的计算功能;
通用指令编码模块,用于根据通用需求编码通用指令,通用指令为转用指令执行的计算功能进行补充,以拓展计算功能,包括:编码的通用指令包括单一基本运算因子,以实现对专用指令计算功能做补充计算;
众核架构扩展接口,用于扩展组成单个神经元架构实例的神经元;
控制处理模块,用于控制每个神经元架构实例的所有神经元采用相同的编码指令并结合自身参数值进行功能计算,所述编码指令包括专用指令和通用指令,专用指令的优先级大于通用指令的优先级;
其中,所述神经元处理单元在控制根据累积脉冲信号进行功能计算后,处于低功耗待机状态,以等待下一个时间步信号驱动事件;
所述脉冲接收单元的脉冲信号接收和所述神经元处理单元的控制神经元功能计算异步进行。
2.根据权利要求1所述的面向片上脉冲神经网络的神经元实现系统,其特征在于,所述脉冲接收单元在接收脉冲信号后,处于低功耗待机状态,以等待下一个脉冲信号驱动事件。
3.根据权利要求1所述的面向片上脉冲神经网络的神经元实现系统,其特征在于,所述控制处理模块为通过众核架构扩展接口扩展的不同神经元架构实例分配不同的编码指令,以实现不同的计算功能;
单个神经元架构实例中的每个神经元依据自身参数值进行功能计算,实现神经元个体之间的差异性。
4.根据权利要求1所述的面向片上脉冲神经网络的神经元实现系统,其特征在于,每个神经元架构实例的神经元采用同一编码指令进行功能计算时,采用分时复用的方式,即分时复用控制单元控制神经元架构实例的每个神经元在各自分配的时间段运行编码指令。
5.根据权利要求1或4所述的面向片上脉冲神经网络的神经元实现系统,其特征在于,所述分时复用控制单元控制的复用次数、复用状态能够与外部进行交互,即能够配置分时复用控制单元控制的复用此次,复用控制单元将复用状态反馈给外界,外界根据复用状态控制时间步信号。
6.根据权利要求1所述的面向片上脉冲神经网络的神经元实现系统,其特征在于,所述神经元的自身参数值能够被外接配置。
CN202210325009.4A 2022-03-30 2022-03-30 面向片上脉冲神经网络的神经元实现系统 Active CN114418081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210325009.4A CN114418081B (zh) 2022-03-30 2022-03-30 面向片上脉冲神经网络的神经元实现系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210325009.4A CN114418081B (zh) 2022-03-30 2022-03-30 面向片上脉冲神经网络的神经元实现系统

Publications (2)

Publication Number Publication Date
CN114418081A CN114418081A (zh) 2022-04-29
CN114418081B true CN114418081B (zh) 2022-07-19

Family

ID=81262879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210325009.4A Active CN114418081B (zh) 2022-03-30 2022-03-30 面向片上脉冲神经网络的神经元实现系统

Country Status (1)

Country Link
CN (1) CN114418081B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117634564B (zh) * 2024-01-26 2024-05-24 之江实验室 一种基于可编程神经拟态核的脉冲延时测量方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101517A (zh) * 2020-08-04 2020-12-18 西北师范大学 基于分段线性脉冲神经元网络的fpga实现方法
CN112270407A (zh) * 2020-11-11 2021-01-26 浙江大学 支持亿级神经元的类脑计算机
CN112783261A (zh) * 2021-01-13 2021-05-11 之江实验室 一种异步通讯互连架构及具有该架构的类脑芯片
CN114139695A (zh) * 2022-01-06 2022-03-04 国网浙江省电力有限公司电力科学研究院 脉冲神经网络加速方法及脉冲神经网络的事件驱动加速器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671912B2 (en) * 2016-09-13 2020-06-02 Sap Se Spatio-temporal spiking neural networks in neuromorphic hardware systems
EP3987446B1 (en) * 2019-06-24 2024-08-28 Chengdu Synsense Technology Co., Ltd. An event-driven spiking neutral network system for detection of physiological conditions
US20210073620A1 (en) * 2019-09-10 2021-03-11 International Business Machines Corporation Neuromorphic spike integrator apparatus
CN111967586B (zh) * 2020-07-15 2023-04-07 北京大学 一种用于脉冲神经网络存内计算的芯片及计算方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101517A (zh) * 2020-08-04 2020-12-18 西北师范大学 基于分段线性脉冲神经元网络的fpga实现方法
CN112270407A (zh) * 2020-11-11 2021-01-26 浙江大学 支持亿级神经元的类脑计算机
CN112783261A (zh) * 2021-01-13 2021-05-11 之江实验室 一种异步通讯互连架构及具有该架构的类脑芯片
CN114139695A (zh) * 2022-01-06 2022-03-04 国网浙江省电力有限公司电力科学研究院 脉冲神经网络加速方法及脉冲神经网络的事件驱动加速器

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Efficient Spiking Neural Networks With Logarithmic Temporal Coding;Ming Zhang et.al;《IEEE Access》;20200514;第8卷;第98156 - 98167页 *
基于异步工作方式的数模混合神经网络芯片关键模块的设计研究;罗冲;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180615;第I135-284页 *
基于忆阻器的脉冲神经网络芯片研究;魏劲松;《中国博士学位论文全文数据库 信息科技辑》;20210915;摘要,第41-50页 *

Also Published As

Publication number Publication date
CN114418081A (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
CN112270407B (zh) 支持亿级神经元的类脑计算机
CN103019656B (zh) 可动态重构的多级并行单指令多数据阵列处理系统
WO2020134824A1 (zh) 一种类脑计算系统
CN106529670A (zh) 一种基于权重压缩的神经网络处理器、设计方法、芯片
CN109325591A (zh) 面向Winograd卷积的神经网络处理器
Liu et al. FPGA-NHAP: A general FPGA-based neuromorphic hardware acceleration platform with high speed and low power
CN111159093B (zh) 异构智能计算系统
CN110383300A (zh) 一种计算装置及方法
CN114418081B (zh) 面向片上脉冲神经网络的神经元实现系统
CN112153139B (zh) 基于传感器网络和存内计算神经网络的控制系统及方法
CN109657794B (zh) 一种基于指令队列的分布式深度神经网络性能建模方法
CN112418396A (zh) 一种基于fpga的稀疏激活感知型神经网络加速器
CN115314343A (zh) 一种源荷储资源聚合控制网关装置及负荷和出力预测方法
CN108345934A (zh) 一种用于神经网络处理器的激活装置及方法
CN114239806A (zh) 一种risc-v架构的多核神经网络处理器芯片
CN111860773A (zh) 处理装置和用于信息处理的方法
Ren et al. Numerical investigation on the swimming mode and stable spacing with two self-propelled fish arranged in tandem
Sulaiman et al. Weight quantization in spiking neural network for hardware implementation
CN110119806A (zh) 基于fpga实现人工神经网络的方法和装置
Nageswaran et al. Computing spike-based convolutions on GPUs
CN112949819B (zh) 基于忆阻器的自供能设备及其脉冲神经网络优化方法
Wang et al. The development and application of artificial intelligence chips
Chen et al. A survey of intelligent chip design research based on spiking neural networks
CN114781633A (zh) 一种融合人工神经网络与脉冲神经网络的处理器
CN107844831A (zh) 基于tta架构的神经网络处理机

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant