CN113065648B - 一种低硬件开销的分段线性函数的硬件实现方法 - Google Patents

一种低硬件开销的分段线性函数的硬件实现方法 Download PDF

Info

Publication number
CN113065648B
CN113065648B CN202110423171.5A CN202110423171A CN113065648B CN 113065648 B CN113065648 B CN 113065648B CN 202110423171 A CN202110423171 A CN 202110423171A CN 113065648 B CN113065648 B CN 113065648B
Authority
CN
China
Prior art keywords
function
piecewise linear
value
linear function
stdp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110423171.5A
Other languages
English (en)
Other versions
CN113065648A (zh
Inventor
张国和
罗丹
张剑
陈琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Siyuan Integrated Circuit And Intelligent Technology Research Institute Co ltd
Xian Jiaotong University
Original Assignee
Jiangsu Siyuan Integrated Circuit And Intelligent Technology Research Institute Co ltd
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Siyuan Integrated Circuit And Intelligent Technology Research Institute Co ltd, Xian Jiaotong University filed Critical Jiangsu Siyuan Integrated Circuit And Intelligent Technology Research Institute Co ltd
Priority to CN202110423171.5A priority Critical patent/CN113065648B/zh
Publication of CN113065648A publication Critical patent/CN113065648A/zh
Application granted granted Critical
Publication of CN113065648B publication Critical patent/CN113065648B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种低硬件开销的分段线性函数的硬件实现方法,该实现方法可用于对双重峰STDP规则(PSTDP),三重峰STDP规则(TSTDP),强化STDP规则(RL‑STDP)等进行硬件实现,该方法在有输入值时优先判断输入值所在分段,对处于任何分段的输入值,都可以利用信号控制完成两次移位运算和两次加法运算,得到函数计算结果,从而避免了为函数的每个分段设计运算电路,低硬件开销的实现了分段线性函数。该实现方法设计的电路包括有移位寄存器,多路选择器,加法器等结构,该方法面向神经网络硬件加速,减少了电路资源的使用,提升了计算效率,具有低面积低功耗的特点,可减少指数函数实现的硬件规模,提升网络的计算效能。

Description

一种低硬件开销的分段线性函数的硬件实现方法
技术领域
本发明涉及人工智能及集成电路技术领域,具体为一种低硬件开销的分段线性函数的硬件实现方法。
背景技术
随着人工智能的蓬勃发展,很多行业和领域都开始运用人工智能来解决实际问题,人工智能技术被广泛地应用于图像识别,语音识别,医疗卫生以及自动驾驶等各个领域。人工智能的快速发展得益于各种学习算法的研究突破,其中脉冲神经网络(SNN)是一种基于离散神经脉冲进行信息处理的神经网络,它具有更高的生物学可信度和更有效的计算能力。
传统上,SNN以软件的方式实现为主,但软件实现无法充分利用神经网络高并行性的特点,处理速度慢、且功耗高。为了充分利用脉冲神经网络的优点,工业界和学术界开始对脉冲神经网络进行硬件实现:英国帝国理工大学的D.Goodman研发了脉冲神经网络的仿真平台Brian,目前已经进行到了第二代BRINA2;德国奥地利的W.Maass对脉冲神经元模型、网络拓扑结构,和相关应用进行了研究;日本东京大学N.kubota等将SNN应用到助力机器人以及行走机器人上。目前国内也开始重视脉冲神经网络的研究,在2019年末,清华大学的团队研发出了第一款可以同时支持脉冲神经网络和人工神经网络的“天机芯”,并且实时的演示其在无人驾驶领域的强大计算力,体现出了脉冲神经网络的应用潜力。
从网络的构成上来说,神经网络的主体由单个神经元构成,大量的神经元通过突触互连形成了神经网络。突触的权重会影响神经元之间的刺激程度,进而影响神经网络的判别结果。因此神经网络的学习,就是调整突触权重的过程,STDP就是一种最常见的权重调整规则,因此它是脉冲神经网络的重要组成部分,承担着训练网络,让网络进行学习的任务。STDP规则的硬件实现具有重要意义,为此,提出一种低硬件开销的分段线性函数的硬件实现方法。
发明内容
针对现有技术的不足,本发明提供了一种低硬件开销的分段线性函数的硬件实现方法,
一种低硬件开销的分段线性函数的硬件实现方法,分段线性函数实现方法包括以下步骤:
步骤一、确定指数函数的时间窗范围,范围之外的值近似为零;
步骤二、将STDP规则中的指数函数近似为分段线性函数,即各分段的表达式均为Y=a*Δt+b的形式;
步骤三、根据各分段的表达式,给每个分段设计对应的移位信号和/>,以及截距b的值;
步骤四、有Δt输入时,判断Δt所在的分段,用分段信号S表示Δt所在的分段;
步骤五、根据分段信号S,通过多路选择器选择相应的移位信号和/>以及截距值b的值;
步骤六、将Δt右移位,保存在寄存器1中;
步骤七、将第一次移位的结果右移位,保存在寄存器2中;
步骤八、利用加法器将寄存器1和2的值相加,得到a*Δt的值;
步骤九、利用加法器将a*Δt的值与b的值相加,得到分段线性函数的值,即指数函数的近似值;
步骤十、利用加法器,移位寄存器,乘法器,完成STDP规则中与参数相关的常规运算。
优选的,步骤二中a设置为2的幂或2的幂的线性组合。
优选的,该方法在有输入值时优先判断输入值所在分段,对处于任何分段的输入值,均利用信号控制完成两次移位运算和两次加法运算,得到函数计算结果,从而避免为函数的每个分段设计运算电路,低硬件开销的实现分段线性函数。
优选的,该方法利于硬件实现的STDP规则的近似模型,其特征在于:该近似模型将STDP规则中的指数函数近似为分段线性函数,每个线性分段的斜率均设置为2的指数次幂,并将STDP规则中的相关参数近似为2的指数次幂,使得乘法可被移位再相加代替,降低实现STDP规则实现的硬件开销。
优选的,利用低硬件开销的实现方法对分段线性函数进行实现,实现的STDP系统包含移位寄存器、加法器、多路选择器结构,系统对输入值进行移位相加代替分段函数的乘法运算,用加法器进行加法运算,利用移位代替突触参数的乘法运算,低硬件开销实现STDP规则。
优选的,STDP规则中,权重的调整量与前后两个神经元激活的时间差呈函数关系,典型的STDP学习窗函数如下所示:
优选的,Δw为要计算的权重修改量,Δt为神经元发出脉冲时间与接收到脉冲时间之差, 和 />等为权重时间常数,Ap和Ad等为权重增益参数,STDP规则中包含的指数函数会导致很大硬件实现开销。
与现有技术相比,本发明具有如下有益效果:本发明为一种低硬件开销的分段线性函数的硬件实现方法,该实现方法设计的电路包括有移位寄存器,多路选择器,加法器等结构,该方法面向神经网络硬件加速,减少了电路资源的使用,提升了计算效率,具有低面积低功耗的特点,可减少指数函数实现的硬件规模,提升网络的计算效能。
附图说明
图1是本发明中设计的STDP规则实现结构具体实现步骤图。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供一种低硬件开销的分段线性函数的硬件实现方法,分段线性函数实现方法包括以下步骤:
步骤一、确定指数函数的时间窗范围,范围之外的值近似为零;
步骤二、将STDP规则中的指数函数近似为分段线性函数,即各分段的表达式均为Y=a*Δt+b的形式;
步骤三、根据各分段的表达式,给每个分段设计对应的移位信号和/>,以及截距b的值;
步骤四、有Δt输入时,判断Δt所在的分段,用分段信号S表示Δt所在的分段;
步骤五、根据分段信号S,通过多路选择器选择相应的移位信号和/>以及截距值b的值;
步骤六、将Δt右移位,保存在寄存器1中;
步骤七、将第一次移位的结果右移位,保存在寄存器2中;
步骤八、利用加法器将寄存器1和2的值相加,得到a*Δt的值;
步骤九、利用加法器将a*Δt的值与b的值相加,得到分段线性函数的值,即指数函数的近似值;
步骤十、利用加法器,移位寄存器,乘法器,完成STDP规则中与参数相关的常规运算。
步骤二中a设置为2的幂或2的幂的线性组合。
该方法在有输入值时优先判断输入值所在分段,对处于任何分段的输入值,均利用信号控制完成两次移位运算和两次加法运算,得到函数计算结果,从而避免为函数的每个分段设计运算电路,低硬件开销的实现分段线性函数。
该方法利于硬件实现的STDP规则的近似模型,其特征在于:该近似模型将STDP规则中的指数函数近似为分段线性函数,每个线性分段的斜率均设置为2的指数次幂,并将STDP规则中的相关参数近似为2的指数次幂,使得乘法可被移位再相加代替,降低实现STDP规则实现的硬件开销。
利用低硬件开销的实现方法对分段线性函数进行实现,实现的STDP系统包含移位寄存器、加法器、多路选择器结构,系统对输入值进行移位相加代替分段函数的乘法运算,用加法器进行加法运算,利用移位代替突触参数的乘法运算,低硬件开销实现STDP规则。
STDP规则中,权重的调整量与前后两个神经元激活的时间差呈函数关系,典型的STDP学习窗函数如下所示:
需要说明的是,Δw为要计算的权重修改量,Δt为神经元发出脉冲时间与接收到脉冲时间之差, 和 />等为权重时间常数,Ap和Ad等为权重增益参数,STDP规则中包含的指数函数会导致很大硬件实现开销,因此,直接实现STDP规则会导致硬件系统庞大而缓慢,这不利于工程应用所需的大规模集成。为了提高计算效率和减少硬件成本,本发明将指数函数近似为分段线性函数,并在硬件设计中提出了一种新的分段线性函数的实现结构。
同时在传统的分段线性函数结构中,首先对所有分段代入计算,然后根据输入值所处的区间选择适用的结果。但一个输入值只会位于所有分段中的一个,所以计算值中只有一个是有意义的,这种设计使得电路结构必须付出几倍的开销。本发明的结构,先判断输入值属于哪个线性段,然后根据对应线性段的表达式计算结果。本发明的设计,将用于线性近似计算的数个电路分支减少为一个,从而减少了电路面积和计算能耗。
且降低复杂性对于硬件实现至关重要,在本发明的设计中,分段线性函数中每段的斜率都设置为2的幂或2的幂的线性组合。类似的,与乘法相关联的参数,都近似为2的幂。这样的设计使得乘法可以在单个时钟周期内,被简单的位移位操作运算代替。
实施例1
图1展示了本发明中设计的分段线性函数实现结构具体实现步骤图,具体的操作步骤包括:
操作步骤1:确定指数函数的时间窗范围,范围之外的值近似为零。
操作步骤2:将STDP规则中的指数函数近似为分段线性函数,即各分段的表达式均为Y=a*Δt+b的形式。其中a设置为2的幂或2的幂的线性组合。
操作步骤3:根据各分段的表达式,给每个分段设计对应的移位信号和/>,以及截距b的值。
操作步骤4:有Δt输入时,判断Δt所在的分段,用分段信号S表示Δt所在的分段。
操作步骤5:根据分段信号S,通过多路选择器选择相应的移位信号和/>以及截距值b的值。
操作步骤6:将Δt右移位,保存在寄存器1中。
操作步骤7:将第一次移位的结果右移位,保存在寄存器2中。
操作步骤8:利用加法器将寄存器1和2的值相加,得到a*Δt的值。
操作步骤9:利用加法器将a*Δt的值与b的值相加,得到分段线性函数的值,即指数函数的近似值。
操作步骤10:利用加法器,移位寄存器,乘法器等,完成STDP规则中与参数相关的常规运算。
在传统的结构中,假如指数函数被近似为四段,需在对四个分段都进行代入运算后,用多路选择器选择其中的一个结果。本发明的结构先判断输入值对应分段,如果该分段表达式为Δt×0.75+1.02时,则产生移位信号 = 1和/> = 1。Δt将右移1位以得到Δt×0.5,Δt×0.5的结果将再右移1位得到Δt×0.25。利用加法器将两个结果相加,得到∆t×0.75。截距值b存储在寄存器中,根据控制信号S取出。两个部分相加得到Δt×0.75+1.02。同样,如果表达式为Δt×0.625,则相应产生的移位信号为/> = 1和/> = 2,根据移位可以得到Δt×0.5和Δt×0.125的值。STDP规则的主体为指数函数,计算得到分段线性函数的值,也就得到了指数函数的近似值,需要再乘上突触权重系数A(取A=0.5),本发明采用右移一位,代替该乘法运算,进一步降低功耗。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.一种低硬件开销的分段线性函数的硬件实现方法,其特征在于,分段线性函数实现方法包括以下步骤:
步骤一、确定指数函数的时间窗范围,范围之外的值近似为零;
步骤二、将STDP规则中的指数函数近似为分段线性函数,即各分段的表达式均为Y=a*Δt+b的形式;
步骤三、根据各分段的表达式,给每个分段设计对应的移位信号Sa和Sb,以及截距b的值;
步骤四、有Δt输入时,判断Δt所在的分段,用分段信号S表示Δt所在的分段;
步骤五、根据分段信号S,通过多路选择器选择相应的移位信号Sa和Sb以及截距值b的值;
步骤六、将Δt右移Sa位,保存在寄存器1中;
步骤七、将第一次移位的结果右移Sb位,保存在寄存器2中;
步骤八、利用加法器将寄存器1和2的值相加,得到a*Δt的值;
步骤九、利用加法器将a*Δt的值与b的值相加,得到分段线性函数的值,即指数函数的近似值;
步骤十、利用加法器,移位寄存器,乘法器,完成STDP规则中与参数相关的常规运算。
2.根据权利要求1所述的一种低硬件开销的分段线性函数的硬件实现方法,其特征在于:步骤二中a设置为2的幂或2的幂的线性组合。
3.根据权利要求1所述的一种低硬件开销的分段线性函数的硬件实现方法,其特征在于:该方法在有输入值时优先判断输入值所在分段,对处于任何分段的输入值,均利用信号控制完成两次移位运算和两次加法运算,得到函数计算结果,从而避免为函数的每个分段设计运算电路,低硬件开销的实现分段线性函数。
4.根据权利要求1所述的一种低硬件开销的分段线性函数的硬件实现方法,该方法利于硬件实现的STDP规则的近似模型,其特征在于:该近似模型将STDP规则中的指数函数近似为分段线性函数,每个线性分段的斜率均设置为2的指数次幂,并将STDP规则中的相关参数近似为2的指数次幂,使得乘法可被移位再相加代替,降低实现STDP规则实现的硬件开销。
5.根据权利要求4所述的一种低硬件开销的分段线性函数的硬件实现方法,其特征在于:利用低硬件开销的实现方法对分段线性函数进行实现,实现的STDP系统包含移位寄存器、加法器、多路选择器结构,系统对输入值进行移位相加代替分段函数的乘法运算,用加法器进行加法运算,利用移位代替突触参数的乘法运算,低硬件开销实现STDP规则。
6.根据权利要求4所述的一种低硬件开销的分段线性函数的硬件实现方法,其特征在于:STDP规则中,权重的调整量与前后两个神经元激活的时间差呈函数关系,典型的STDP学习窗函数如下所示:
Δw为要计算的权重修改量,Δt为神经元发出脉冲时间与接收到脉冲时间之差,τ+和τ-等为权重时间常数,Ap和Ad等为权重增益参数,STDP规则中包含的指数函数会导致很大硬件实现开销。
CN202110423171.5A 2021-04-20 2021-04-20 一种低硬件开销的分段线性函数的硬件实现方法 Active CN113065648B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110423171.5A CN113065648B (zh) 2021-04-20 2021-04-20 一种低硬件开销的分段线性函数的硬件实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110423171.5A CN113065648B (zh) 2021-04-20 2021-04-20 一种低硬件开销的分段线性函数的硬件实现方法

Publications (2)

Publication Number Publication Date
CN113065648A CN113065648A (zh) 2021-07-02
CN113065648B true CN113065648B (zh) 2024-02-09

Family

ID=76567048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110423171.5A Active CN113065648B (zh) 2021-04-20 2021-04-20 一种低硬件开销的分段线性函数的硬件实现方法

Country Status (1)

Country Link
CN (1) CN113065648B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259585A (ja) * 1993-03-10 1994-09-16 Toyota Central Res & Dev Lab Inc ニューラルネットワーク装置
CN105659262A (zh) * 2013-11-08 2016-06-08 高通股份有限公司 在尖峰神经网络中使用重放来实现突触学习
CN107092959A (zh) * 2017-04-07 2017-08-25 武汉大学 基于stdp非监督学习算法的硬件友好型脉冲神经网络模型
CN111860792A (zh) * 2020-08-31 2020-10-30 南京宁麒智能计算芯片研究院有限公司 一种激活函数的硬件实现装置和方法
CN112035796A (zh) * 2020-09-04 2020-12-04 金陵科技学院 面向集成电路的超低延时的整数次幂计算电路的优化方法
CN112101517A (zh) * 2020-08-04 2020-12-18 西北师范大学 基于分段线性脉冲神经元网络的fpga实现方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140310216A1 (en) * 2013-04-15 2014-10-16 Qualcomm Incorporated Method for generating compact representations of spike timing-dependent plasticity curves
US11775805B2 (en) * 2018-06-29 2023-10-03 Intel Coroporation Deep neural network architecture using piecewise linear approximation
TWI701612B (zh) * 2019-06-19 2020-08-11 創鑫智慧股份有限公司 用於神經網路中激勵函數的電路系統及其處理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259585A (ja) * 1993-03-10 1994-09-16 Toyota Central Res & Dev Lab Inc ニューラルネットワーク装置
CN105659262A (zh) * 2013-11-08 2016-06-08 高通股份有限公司 在尖峰神经网络中使用重放来实现突触学习
CN107092959A (zh) * 2017-04-07 2017-08-25 武汉大学 基于stdp非监督学习算法的硬件友好型脉冲神经网络模型
CN112101517A (zh) * 2020-08-04 2020-12-18 西北师范大学 基于分段线性脉冲神经元网络的fpga实现方法
CN111860792A (zh) * 2020-08-31 2020-10-30 南京宁麒智能计算芯片研究院有限公司 一种激活函数的硬件实现装置和方法
CN112035796A (zh) * 2020-09-04 2020-12-04 金陵科技学院 面向集成电路的超低延时的整数次幂计算电路的优化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘晏辰 ; 刘洋 ; .一种细粒度可重构的深度神经网络加速芯片.半导体技术.2020,(第01期),全文. *
林凯文 ; 陈志坚 ; 刘东启 ; .基于泰勒展开的低成本e指数函数电路设计.计算机应用研究.2017,(第06期),全文. *
王蕾 ; 王连明 ; .一种改进的基于STDP规则的SOM脉冲神经网络.东北师大学报(自然科学版).2017,(第03期),全文. *

Also Published As

Publication number Publication date
CN113065648A (zh) 2021-07-02

Similar Documents

Publication Publication Date Title
US6151594A (en) Artificial neuron and method of using same
CN109325591B (zh) 面向Winograd卷积的神经网络处理器
US5506797A (en) Nonlinear function generator having efficient nonlinear conversion table and format converter
US5479571A (en) Neural node network and model, and method of teaching same
CN109359730B (zh) 面向固定输出范式Winograd卷积的神经网络处理器
US5630023A (en) Signal processor
CN113935489A (zh) 基于量子神经网络的变分量子模型tfq-vqa及其两级优化方法
JPH07191950A (ja) 計算ネットワーク
CN113065648B (zh) 一种低硬件开销的分段线性函数的硬件实现方法
US5581661A (en) Artificial neuron using adder circuit and method of using same
Oh et al. A new error function at hidden layers for fast training of multilayer perceptrons
Perez-Garcia et al. Multilayer perceptron network with integrated training algorithm in FPGA
JPH04229362A (ja) 学習機械
EP4285215A1 (en) Digital circuitry for normalization functions
US20230004351A1 (en) Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision
CN113516172A (zh) 基于随机计算贝叶斯神经网络误差注入的图像分类方法
US5548685A (en) Artificial neuron using adder circuit and method of using same
EP4239531A1 (en) Method and electronic system for inferring a morphological neural network
US12003255B2 (en) Method and device for binary coding of signals in order to implement digital MAC operations with dynamic precision
Li et al. Step acceleration based training algorithm for feedforward neural networks
Behan et al. Accelerating integer neural networks on low cost DSPs
JPH05128285A (ja) ニユーロプロセツサ
Sutisna et al. Reinforcement Learning Accelerator using Q-Learning Algorithm with Optimized Bit Precision
JP2559879B2 (ja) ファジィ制御器
JPH03188584A (ja) ニューロンネットワークにおける係数の学習機能を備える電子神経回路、ならびに学習方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant