CN115879518A - 一种基于ai芯片的任务处理方法和装置 - Google Patents
一种基于ai芯片的任务处理方法和装置 Download PDFInfo
- Publication number
- CN115879518A CN115879518A CN202211537581.3A CN202211537581A CN115879518A CN 115879518 A CN115879518 A CN 115879518A CN 202211537581 A CN202211537581 A CN 202211537581A CN 115879518 A CN115879518 A CN 115879518A
- Authority
- CN
- China
- Prior art keywords
- neural network
- pulse
- network model
- model
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明实施例提供了一种基于AI芯片的任务处理方法和装置,所述方法包括:构建脉冲神经网络模型;采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化;接收任务请求,并确定所述任务请求的任务类型;根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。通过本发明实施例,实现了在AI芯片中调用优化后的脉冲神经网络模型进行任务处理,且通过对脉冲神经网络模型中括脉冲触发阈值和膜电位进行优化,提升了模型处理效率。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于AI芯片的任务处理方法和装置。
背景技术
随着人工智能(Artificial Inteligence,AI)的热潮席卷各行各业,作为人工智能核心的AI芯片变得炙手可热,它是所有智能设备必不可少的核心器件,专门用于处理AI相关的计算任务。然而,随着计算需求量和计算复杂度的提升,现有的AI芯片的处理效率逐渐难以适应。
发明内容
鉴于上述问题,提出了以便提供克服上述问题或者至少部分地解决上述问题的一种基于AI芯片的任务处理方法和装置,包括:
一种基于AI芯片的任务处理方法,所述方法包括:
构建脉冲神经网络模型;
采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化;
接收任务请求,并确定所述任务请求的任务类型;
根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
可选地,所述采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,包括:
采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,并采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位。
可选地,所述采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,包括:
获取所述脉冲神经网络模型的历史脉冲输入数据;
采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
可选地,所述采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位,包括:
获取所述脉冲神经网络模型中突触电位的漏电数据;
采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
可选地,还包括:
采用重置方案,对所述脉冲神经网络模型中膜电位进行重置。
可选地,所述采用重置方案,对所述脉冲神经网络模型中膜电位进行重置,包括:
将所述脉冲神经网络模型中膜电位重置为恒定值;
或者,从所述脉冲神经网络模型中膜电位中减除重置值。
可选地,所述阈值预测模型为基于贝叶斯定理构建的数据模型。
一种基于AI芯片的任务处理装置,所述装置包括:
脉冲神经网络模型构建模块,用于构建脉冲神经网络模型;
参数优化模块,用于采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化;
任务确定模块,用于接收任务请求,并确定所述任务请求的任务类型;
任务处理模块,用于根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的基于AI芯片的任务处理方法。
一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的基于AI芯片的任务处理方法。
本发明实施例具有以下优点:
在本发明实施例中,通过构建脉冲神经网络模型,采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,接收任务请求,并确定所述任务请求的任务类型,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果,实现了在AI芯片中调用优化后的脉冲神经网络模型进行任务处理,且通过对脉冲神经网络模型中括脉冲触发阈值和膜电位进行优化,提升了模型处理效率。
附图说明
为了更清楚地说明本发明的技术方案,下面将对本发明的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种基于AI芯片的任务处理方法的步骤流程图;
图2是本发明一实施例提供的一种脉冲神经网络模型的示意图;
图3是本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图;
图4是本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图;
图5是本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图;
图6是本发明一实施例提供的一种基于AI芯片的任务处理装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在生物大脑中,生物神经元以脉冲的形式将信息传递到下一个神经元层。每当神经元发出脉冲信号时,脉冲信号就会传输到所连接的神经元进行处理,这时仅有突触连接时延,信息编码极其高效。在生物大脑中,采用高度非线性地工作,在大约870亿个神经元中,每个神经元在外部和内部都与其他神经细胞有多达10000个连接,在内部承载着数十万个协调的并行过程(由数百万个蛋白质和核酸分子介导)。
与当今最先进的系统相比,模仿大脑结构的芯片具有更高的效率和更低的功耗,模拟这类大脑行为的神经网络常被称为神经形态网络,其代表则为脉冲神经网络(SNN,Spiking Neural Network)。这种被称为第三代神经网络的出现,就是为了弥合神经科学与机器学习之间的鸿沟,便用生物学上逼真的神经元模型进行信息编码和计算,以充分利用神经网络的效率。
其中,脉冲神经网络包含具有时序动力学特性的神经元节点、稳态-可塑性平衡的突触结构、功能特异性的网络环路等,高度借鉴了生物启发的局部非监督(如脉冲时序依赖可塑性、短时突触可塑性、局部稳态调节等)、全局弱监督(如多巴胺奖赏学习、基于能量的函数优化等)的生物优化方法,因此具有强大的时空信息表征、异步事件信息处理、网络自组织学习等能力。
脉冲神经网络,其模拟神经元更加接近实际,除此之外,把时间信息的影响也考虑其中。思路是这样的,动态神经网络中的神经元不是在每一次迭代传播中都被激活(而在典型的多层感知机网络中却是),而是在它的膜电位达到某一个特定值才被激活。当一个神经元被激活,它会产生一个信号传递给其他神经元,提高或降低其膜电位。
在脉冲神经网络中,神经元的当前激活水平(被建模成某种微分方程)通常被认为是当前状态,一个输入脉冲会使当前这个值升高,持续一段时间,然后逐渐衰退。出现了很多编码方式把这些输出脉冲序列解释为一个实际的数字,这些编码方式会同时考虑到脉冲频率和脉冲间隔时间。
借助于神经科学的研究,人们可以精确的建立基于脉冲产生时间神经网络模型。这种新型的神经网络采用脉冲编码(spike coding),通过获得脉冲发生的精确时间,这种新型的神经网络可以进行获得更多的信息和更强的计算能力。
但是,在脉冲神经网络中,脉冲触发阈值和漏电率情况之间缺乏预测,导致应用脉冲神经网络的AI芯片的效率变低。
基于此,在脉冲神经网络模型中,通过LIF(Leaky Integrate-and-Fire,带泄漏整合发放)技术对脉冲神经网络进行优化。同时,采用贝叶斯预测对脉冲突触与脉冲触发阈值之间的关系进行二次预测,进而精确阈值的设置,部分代替LIF中的不应期参数功能,不应期在规定时间内膜电位超过阈值神经元也不会激发。另外,由于存在漏电,在两个输入脉冲之间的膜电位会根据漏电率连续降低,则可以通过LIF优化神经元的膜电位。
参照图1,示出了本发明一实施例提供的一种基于AI芯片的任务处理方法的步骤流程图,具体可以包括如下步骤:
步骤101,构建脉冲神经网络模型。
作为一示例,脉冲神经网络可以分为三种拓扑结构,前馈型脉冲神经网络(feed-forward spiking neural network)、递归型脉冲神经网络(recurrent spiking neuralnetwork)和混合型脉冲神经网络(hybird spiking neural network)。
其中,前馈型脉冲神经网络,在多层前馈脉冲神经网络结构中,网络中的神经元是分层排列的,输入层各神经元的脉冲序列表示对具体问题输入数据的编码,并将其输入脉冲神经网络的下一层。最后一层为输出层,该层各神经元输出的脉冲序列构成网络的输出。输入层和输出层之间可以有一个或者多个隐藏层。
此外,在传统的前馈人工神经网络中,两个神经元之间仅有一个突触连接,而脉冲神经网络可采用多突触连接的网络结构,两个神经元之间可以有多个突触连接,每个突触具有不同的延时和可修改的连接权值。多突触的不同延时使得突触前神经元输入的脉冲能够在更长的时间范围对突触后神经元的脉冲发放产生影响。突触前神经元传递的多个脉冲再根据突触权值的大小产生不同的突触后电位。
其中,递归型神经网络不同于多层前馈神经网络和单层神经网络,网络结构中具有反馈回路,即网络中神经元的输出是以前时间步长上神经元输出的递归函数。递归神经网络可以模拟时间序列,用来完成控制、预测等任务,其反馈机制一方面使得它们能够表现更为复杂的时变系统;另一方面也使得有效学习算法的设计及其收敛性分析更为困难。传统递归人工神经网络的两种经典学习算法分别为实时递归学习(real-time recurrentlearning)算法和随时间演化的反向传播(backpropagation through time)算法,这两种算法都是递归地计算梯度的学习算法。
递归脉冲神经网络是指网络中具有反馈回路的脉冲神经网络,由于其信息编码及反馈机制不同于传统递归人工神经网络,由此网络的学习算法构建及动力学分析较为困难。递归脉冲神经网络可应用于诸多复杂问题的求解中,如语言建模、手写数字识别以及语音识别等。递归脉冲神经网络可分为两大类:全局递归脉冲神经网络(fully recurrentspiking neural network);另一类是局部脉冲神经网络(locally recurrent spikingneural network)。
其中,混合型脉冲神经网络即包括前馈型结构,又包含递归型结构。
在脉冲神经网络中,生物神经系统采用神经元的脉冲时序来编码信息,而不仅仅是用神经元脉冲的“发放频率”来编码信息。实际上,神经元的脉冲发放频率不能完全捕获脉冲序列中包含的信息。例如,已经发现初级听觉皮层神经元群体能在短时间内通过分组相邻脉冲来协调动作电位的相对时间,并没有改变每秒发放的脉冲数量,这样,神经元甚至可以在平均发放频率没有改变的情况下给出特定的刺激信号。
更具有生物可解释性的脉冲神经网络,采用精确定时的脉冲序列来编码神经信息。神经网络内部的信息传递是由脉冲序列完成的,脉冲序列是由离散的脉冲时间点组成的时间序列,因此,在进行脉冲神经网络的模拟与计算时,包含以下步骤:①当输入数据或神经元受到外界刺激时,经过特定的脉冲序列编码方法,可将数据或外界刺激编码成特定的脉冲序列;②脉冲序列在神经元之间传递并经过一定的处理,处理之后将输出的脉冲序列通过特定的解码方法进行解码并给出具体的响应。
对于神经信息的脉冲序列编码问题,借鉴生物神经元的信息编码机制,研究者提出了许多脉冲神经网络的脉冲序列编码方法。例如,首脉冲触发时间编码方法、延迟相位编码方法、群体编码方法等。
在具体实现中,可以构建脉冲神经网络模型,供AI芯片调用,如图2,脉冲神经网络模型可以包括脉冲神经元,脉冲神经元可以通过突触(如图2中P1至P3)与其他脉冲神经元(如图2中X1至X3)之间进行连接,并将其传递的信号进行整合后,通过阈值函数进行激发,输出信号y1。
其中,建脉冲神经网络模型可以包含脉冲输入点、突触点、激发函数、输出点和重置时间五部分。
步骤102,采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化。
为了对脉冲神经网络模型进行优化,可以预先构建阈值预测模型和带泄漏整合发放模型,然后可以采用阈值预测模型和带泄漏整合发放模型,对对脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化。
在本发明一实施例中,所述采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,可以包括:
采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,并采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位。
在具体实现中,可以采用阈值预测模型,优化脉冲神经网络模型中脉冲触发阈值,并采用带泄漏整合发放模型,优化脉冲神经网络模型中膜电位。
其在本发明一实施例中,所述采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,可以包括:
获取所述脉冲神经网络模型的历史脉冲输入数据;采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
在具体实现中,采用贝叶斯定理构建阈值预测模型,通过过历史脉冲输入数据分析对多脉冲输入突触与脉冲触发阈值之间关系进行二次预测,从而精确阈值设置。
其中,所述阈值预测模型为基于贝叶斯定理构建的数据模型。
贝叶斯定理是朴素贝叶斯分类法(Naive Bayesian Classifier)的基础,如果给定数据集里有M个分类类别,通过朴素贝叶斯分类法,可以预测给定观察值是否属于具有最高后验概率的特定类别,也就是说,朴素贝叶斯分类方法预测X属于类别C时,表示当且仅当:
P(Ci|X)>P(Cj|X)1≤j≤m,j≠i
此时如果最大化P(Ci|X),其P(Ci|X)最大的类Ci被称为最大后验假设,根据贝叶斯定理:
可知,由于P(X)对于所有的类别是均等的,因此只需要P(X|Ci)P(Ci)取最大即可。
为了预测一个未知样本X的类别,可对每个类别Ci估算相应的P(X|Ci)P(Ci)。
P(Ci|X)>P(Cj|X)1≤j≤m,j≠i
在本发明一实施例中,所述采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位,可以包括:
获取所述脉冲神经网络模型中突触电位的漏电数据;采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
一个神经元有许多输入脉冲,并在超过脉冲触发阈值时输出一个脉冲。突触电位随着时间会有一定衰减,这是考虑了电路里RC时间常数的漏电效应,因此被称为带泄漏整合发放模型。通过考虑脉冲神经网络中神经元的漏电效应,根据触电位的漏电数据,对脉冲神经网络模型中膜电位进行优化。
LIF神经元的基本参数是膜阈值电压、复位电压、不应期和漏电率。在每个时间点t、第I层的神经元j的膜电位可以描述为
式中,参数λ对应于泄漏,wi,j是突触增强。注意,可以使用包括复杂内部机制的模型来定义这些参数,而不是恒定的标量值。将给定时间步长的所有输入脉冲整合后,将电位与阈值进行比较,并通过以下方定义输出:
式中,tspike是第I层神经元j发送信号的最后时间点。
在本发明一实施例中,还可以包括:
采用重置方案,对所述脉冲神经网络模型中膜电位进行重置。
在本发明一实施例中,所述采用重置方案,对所述脉冲神经网络模型中膜电位进行重置,可以包括:
将所述脉冲神经网络模型中膜电位重置为恒定值;或者,从所述脉冲神经网络模型中膜电位中减除重置值。
在具体实现中,可以按照不同的方案执行重置,将电位重置为恒定值或从当前膜电位中减去重置值。
步骤103,接收任务请求,并确定所述任务请求的任务类型。
在具体实现中,对于上层应用,可以调用AI芯片进行任务处理,当接收到上层应用的任务请求时,可以确定任务请求的任务类型。
步骤104,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
对于部分任务请求,其是不需要采用脉冲神经网络模型进行处理的,而对于另外部分任务请求,可以采用脉冲神经网络模型来进行处理,以提升AI芯片进行任务处理的效率。
对于需要调用脉冲神经网络模型进行处理的任务请求,可以根据其任务类型,从预先建立的多个脉冲神经网络模型中,选取目标神经网络模型,进而可以调用目标脉冲神经网络模型对任务请求进行处理,得到处理结果。
在本发明实施例中,通过构建脉冲神经网络模型,采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,接收任务请求,并确定所述任务请求的任务类型,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果,实现了在AI芯片中调用优化后的脉冲神经网络模型进行任务处理,且通过对脉冲神经网络模型中括脉冲触发阈值和膜电位进行优化,提升了模型处理效率。
参照图3,示出了本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图,具体可以包括如下步骤:
步骤301,构建脉冲神经网络模型。
在具体实现中,可以构建脉冲神经网络模型,供AI芯片调用,如图2,脉冲神经网络模型可以包括脉冲神经元,脉冲神经元可以通过突触(如图2中P1至P3)与其他脉冲神经元(如图2中X1至X3)之间进行连接,并将其传递的信号进行整合后,通过阈值函数进行激发,输出信号y1。
其中,建脉冲神经网络模型可以包含脉冲输入点、突触点、激发函数、输出点和重置时间五部分。
步骤302,获取所述脉冲神经网络模型的历史脉冲输入数据。
步骤303,采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
在具体实现中,采用贝叶斯定理构建阈值预测模型,通过过历史脉冲输入数据分析对多脉冲输入突触与脉冲触发阈值之间关系进行二次预测,从而精确阈值设置。
步骤304,采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位。
步骤305,接收任务请求,并确定所述任务请求的任务类型。
在具体实现中,对于上层应用,可以调用AI芯片进行任务处理,当接收到上层应用的任务请求时,可以确定任务请求的任务类型。
步骤306,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
对于部分任务请求,其是不需要采用脉冲神经网络模型进行处理的,而对于另外部分任务请求,可以采用脉冲神经网络模型来进行处理,以提升AI芯片进行任务处理的效率。
对于需要调用脉冲神经网络模型进行处理的任务请求,可以根据其任务类型,从预先建立的多个脉冲神经网络模型中,选取目标神经网络模型,进而可以调用目标脉冲神经网络模型对任务请求进行处理,得到处理结果。
参照图4,示出了本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图,具体可以包括如下步骤:
步骤401,构建脉冲神经网络模型。
在具体实现中,可以构建脉冲神经网络模型,供AI芯片调用,如图2,脉冲神经网络模型可以包括脉冲神经元,脉冲神经元可以通过突触(如图2中P1至P3)与其他脉冲神经元(如图2中X1至X3)之间进行连接,并将其传递的信号进行整合后,通过阈值函数进行激发,输出信号y1。
其中,建脉冲神经网络模型可以包含脉冲输入点、突触点、激发函数、输出点和重置时间五部分。
步骤402,采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值。
步骤403,获取所述脉冲神经网络模型中突触电位的漏电数据。
步骤404,采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
一个神经元有许多输入脉冲,并在超过脉冲触发阈值时输出一个脉冲。突触电位随着时间会有一定衰减,这是考虑了电路里RC时间常数的漏电效应,因此被称为带泄漏整合发放模型。通过考虑脉冲神经网络中神经元的漏电效应,根据触电位的漏电数据,对脉冲神经网络模型中膜电位进行优化。
步骤405,接收任务请求,并确定所述任务请求的任务类型。
在具体实现中,对于上层应用,可以调用AI芯片进行任务处理,当接收到上层应用的任务请求时,可以确定任务请求的任务类型。
步骤406,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
对于部分任务请求,其是不需要采用脉冲神经网络模型进行处理的,而对于另外部分任务请求,可以采用脉冲神经网络模型来进行处理,以提升AI芯片进行任务处理的效率。
对于需要调用脉冲神经网络模型进行处理的任务请求,可以根据其任务类型,从预先建立的多个脉冲神经网络模型中,选取目标神经网络模型,进而可以调用目标脉冲神经网络模型对任务请求进行处理,得到处理结果。
参照图5,示出了本发明一实施例提供的另一种基于AI芯片的任务处理方法的步骤流程图,具体可以包括如下步骤:
步骤501,构建脉冲神经网络模型。
在具体实现中,可以构建脉冲神经网络模型,供AI芯片调用,如图2,脉冲神经网络模型可以包括脉冲神经元,脉冲神经元可以通过突触(如图2中P1至P3)与其他脉冲神经元(如图2中X1至X3)之间进行连接,并将其传递的信号进行整合后,通过阈值函数进行激发,输出信号y1。
其中,建脉冲神经网络模型可以包含脉冲输入点、突触点、激发函数、输出点和重置时间五部分。
步骤502,获取所述脉冲神经网络模型的历史脉冲输入数据。
步骤503,采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
在具体实现中,采用贝叶斯定理构建阈值预测模型,通过过历史脉冲输入数据分析对多脉冲输入突触与激发阈值之间关系进行二次预测,从而精确阈值设置。
步骤504,获取所述脉冲神经网络模型中突触电位的漏电数据。
步骤505,采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
一个神经元有许多输入脉冲,并在超过脉冲触发阈值时输出一个脉冲。突触电位随着时间会有一定衰减,这是考虑了电路里RC时间常数的漏电效应,因此被称为带泄漏整合发放模型。通过考虑脉冲神经网络中神经元的漏电效应,根据触电位的漏电数据,对脉冲神经网络模型中膜电位进行优化。
步骤506,接收任务请求,并确定所述任务请求的任务类型。
在具体实现中,对于上层应用,可以调用AI芯片进行任务处理,当接收到上层应用的任务请求时,可以确定任务请求的任务类型。
步骤507,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
对于部分任务请求,其是不需要采用脉冲神经网络模型进行处理的,而对于另外部分任务请求,可以采用脉冲神经网络模型来进行处理,以提升AI芯片进行任务处理的效率。
对于需要调用脉冲神经网络模型进行处理的任务请求,可以根据其任务类型,从预先建立的多个脉冲神经网络模型中,选取目标神经网络模型,进而可以调用目标脉冲神经网络模型对任务请求进行处理,得到处理结果。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图6,示出了本发明一实施例提供的一种基于AI芯片的任务处理装置的结构示意图,具体可以包括如下模块:
脉冲神经网络模型构建模块601,用于构建脉冲神经网络模型。
参数优化模块602,用于采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化。
任务确定模块603,用于接收任务请求,并确定所述任务请求的任务类型。
任务处理模块604,用于根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
在本发明一实施例中,所述参数优化模块602,包括:
区分优化子模块,用于采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,并采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位。
在本发明一实施例中,所述区分优化子模块,包括:
历史脉冲输入数据获取单元,用于获取所述脉冲神经网络模型的历史脉冲输入数据;
结合历史数据优化单元,用于采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
在本发明一实施例中,所述区分优化子模块,包括:
漏电数据获取单元,用于获取所述脉冲神经网络模型中突触电位的漏电数据;
结合漏电数据优化单元,用于采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
在本发明一实施例中,还包括:
膜电位重置模块,用于采用重置方案,对所述脉冲神经网络模型中膜电位进行重置。
在本发明一实施例中,所述膜电位重置模块,包括:
重置为恒定值子模块,用于将所述脉冲神经网络模型中膜电位重置为恒定值;
减除重置值子模块,用于从所述脉冲神经网络模型中膜电位中减除重置值。
在本发明一实施例中,所述阈值预测模型为基于贝叶斯定理构建的数据模型。
在本发明实施例中,通过构建脉冲神经网络模型,采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,接收任务请求,并确定所述任务请求的任务类型,根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果,实现了在AI芯片中调用优化后的脉冲神经网络模型进行任务处理,且通过对脉冲神经网络模型中括脉冲触发阈值和膜电位进行优化,提升了模型处理效率。
本发明一实施例还提供了一种电子设备,可以包括处理器、存储器及存储在存储器上并能够在处理器上运行的计算机程序,计算机程序被处理器执行时实现如上基于AI芯片的任务处理方法。
本发明一实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如上基于AI芯片的任务处理方法。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对所提供的一种基于AI芯片的任务处理方法和装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于AI芯片的任务处理方法,其特征在于,所述方法包括:
构建脉冲神经网络模型;
采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化;
接收任务请求,并确定所述任务请求的任务类型;
根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
2.根据权利要求1所述的方法,其特征在于,所述采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化,包括:
采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,并采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位。
3.根据权利要求2所述的方法,其特征在于,所述采用阈值预测模型,优化所述脉冲神经网络模型中脉冲触发阈值,包括:
获取所述脉冲神经网络模型的历史脉冲输入数据;
采用预置的阈值预测模型,根据所述历史脉冲输入数据,预测脉冲输入突触与脉冲触发阈值之间的关系,并基于所述脉冲输入突触与脉冲触发阈值之间的关系,对所述脉冲神经网络模型中脉冲触发阈值进行优化。
4.根据权利要求2或3所述的方法,其特征在于,所述采用带泄漏整合发放模型,优化所述脉冲神经网络模型中膜电位,包括:
获取所述脉冲神经网络模型中突触电位的漏电数据;
采用预置的带泄漏整合发放模型,根据所述漏电数据,对所述脉冲神经网络模型中膜电位进行优化。
5.根据权利要求4所述的方法,其特征在于,还包括:
采用重置方案,对所述脉冲神经网络模型中膜电位进行重置。
6.根据权利要求5所述的方法,其特征在于,所述采用重置方案,对所述脉冲神经网络模型中膜电位进行重置,包括:
将所述脉冲神经网络模型中膜电位重置为恒定值;
或者,从所述脉冲神经网络模型中膜电位中减除重置值。
7.根据权利要求1所述的方法,其特征在于,所述阈值预测模型为基于贝叶斯定理构建的数据模型。
8.一种基于AI芯片的任务处理装置,其特征在于,所述装置包括:
脉冲神经网络模型构建模块,用于构建脉冲神经网络模型;
参数优化模块,用于采用预置的阈值预测模型和带泄漏整合发放模型,对所述脉冲神经网络模型中至少包括脉冲触发阈值和膜电位在内的参数进行优化;
任务确定模块,用于接收任务请求,并确定所述任务请求的任务类型;
任务处理模块,用于根据所述任务类型,确定目标脉冲神经网络模型,并调用所述目标脉冲神经网络模型对所述任务请求进行处理,得到处理结果。
9.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的基于AI芯片的任务处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于AI芯片的任务处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211537581.3A CN115879518A (zh) | 2022-12-02 | 2022-12-02 | 一种基于ai芯片的任务处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211537581.3A CN115879518A (zh) | 2022-12-02 | 2022-12-02 | 一种基于ai芯片的任务处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115879518A true CN115879518A (zh) | 2023-03-31 |
Family
ID=85765540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211537581.3A Pending CN115879518A (zh) | 2022-12-02 | 2022-12-02 | 一种基于ai芯片的任务处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115879518A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116663631A (zh) * | 2023-07-28 | 2023-08-29 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
CN116663631B (zh) * | 2023-07-28 | 2024-05-14 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
-
2022
- 2022-12-02 CN CN202211537581.3A patent/CN115879518A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116663631A (zh) * | 2023-07-28 | 2023-08-29 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
CN116663631B (zh) * | 2023-07-28 | 2024-05-14 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107077637B (zh) | 神经网络中的差分编码 | |
US10339447B2 (en) | Configuring sparse neuronal networks | |
US9418331B2 (en) | Methods and apparatus for tagging classes using supervised learning | |
Gilson et al. | Emergence of network structure due to spike-timing-dependent plasticity in recurrent neuronal networks. I. Input selectivity–strengthening correlated input pathways | |
US9417845B2 (en) | Method and apparatus for producing programmable probability distribution function of pseudo-random numbers | |
US9558442B2 (en) | Monitoring neural networks with shadow networks | |
US20150278680A1 (en) | Training, recognition, and generation in a spiking deep belief network (dbn) | |
US9652711B2 (en) | Analog signal reconstruction and recognition via sub-threshold modulation | |
KR20170031695A (ko) | 신경망들에서의 콘볼루션 동작의 분해 | |
US20150212861A1 (en) | Value synchronization across neural processors | |
US9710749B2 (en) | Methods and apparatus for implementing a breakpoint determination unit in an artificial nervous system | |
US20150278685A1 (en) | Probabilistic representation of large sequences using spiking neural network | |
JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
US9342782B2 (en) | Stochastic delay plasticity | |
US20150213356A1 (en) | Method for converting values into spikes | |
CN115879518A (zh) | 一种基于ai芯片的任务处理方法和装置 | |
WO2014197175A2 (en) | Efficient implementation of neural population diversity in neural system | |
Bressler et al. | Evaluating the Effects of Neural Noise in the Multidigraph Learning Rule |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |