CN112200299B - 神经网络计算装置、数据处理方法及装置 - Google Patents

神经网络计算装置、数据处理方法及装置 Download PDF

Info

Publication number
CN112200299B
CN112200299B CN202010942302.6A CN202010942302A CN112200299B CN 112200299 B CN112200299 B CN 112200299B CN 202010942302 A CN202010942302 A CN 202010942302A CN 112200299 B CN112200299 B CN 112200299B
Authority
CN
China
Prior art keywords
data
lookup table
lookup
value
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010942302.6A
Other languages
English (en)
Other versions
CN112200299A (zh
Inventor
李晓峰
郑成伟
林博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xingchen Technology Co ltd
Original Assignee
Xingchen Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xingchen Technology Co ltd filed Critical Xingchen Technology Co ltd
Priority to CN202010942302.6A priority Critical patent/CN112200299B/zh
Publication of CN112200299A publication Critical patent/CN112200299A/zh
Priority to US17/391,268 priority patent/US20220076107A1/en
Application granted granted Critical
Publication of CN112200299B publication Critical patent/CN112200299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

本发明实施例提供一种神经网络计算装置,其包含第一算子及第二算子。第一算子用以对输入数据进行特定计算以产生第一输出数据。第二算子用以对该第一输出数据进行一函数计算,第二算子包含前端处理单元、查表电路、内插电路、及后端处理单元。前端处理单元用以对第一输出数据进行第一数据处理以产生处理后数据。查表电路依据处理后数据查询第一查找表以得到查表数据,第一查找表包含对应该函数计算的多个第一自变量与多个第一因变量间的映像数据。内插电路用以对查表数据进行插补计算以得到插补后数据。后端处理单元用以对插补后数据进行第二数据处理以产生第二输出数据。本发明可高效并精确地实现神经网络中非线性、计算复杂的函数计算。

Description

神经网络计算装置、数据处理方法及装置
技术领域
本发明属于电子设备技术领域,尤其涉及一种神经网络计算装置、应用于神经网络计算装置的数据处理方法及装置。
背景技术
目前,深度神经网络在计算机领域取得了巨大的成功,如图像分类、目标检测、图像分割等。然而,效果较好的深度神经网络往往有着数量较大的模型参数,不仅计算量大而且在实际部署中模型占据较大一部分空间,这在一些需要实时运算的应用场景无法正常应用。
神经网络计算装置在进行数据处理时,经常会涉及到非线性函数的数据计算。比如,常见的非线性函数有对数函数等。然而,相关技术中,由对数函数的图像可知,在对数函数的一些定义域范围内,对数函数的图像的斜率变化很大,这导致对数函数的计算量大且难以得到高精度的计算结果,现有技术无法符合需要实时运算的应用场景的需求。
发明内容
本发明实施例提供一种神经网络计算装置、应用于神经网络计算装置的数据处理方法及装置,可高效并精确地实现神经网络中非线性、计算复杂的函数计算。
第一方面,本发明实施例提供一种神经网络计算装置,其包含第一算子及第二算子。第一算子用以对输入数据进行特定计算以产生第一输出数据。第二算子用以对该第一输出数据进行一函数计算,第二算子包含前端处理单元、查表电路、内插电路、及后端处理单元。前端处理单元用以对第一输出数据进行第一数据处理以产生处理后数据。查表电路依据处理后数据查询第一查找表以得到查表数据,第一查找表包含对应该函数计算的多个第一自变量与多个第一因变量间的映像数据。内插电路用以对查表数据进行插补计算以得到插补后数据。后端处理单元用以对插补后数据进行第二数据处理以产生第二输出数据。
第二方面,本发明实施例提供一种数据处理方法,其应用于一神经网络计算装置之一算子,该算子用以进行一函数计算。该数据处理方法包括:对输入数据进行第一数据处理以产生处理后数据;依据处理后数据查询第一查找表以得到查表数据;对查表数据进行插补计算以得到插补后数据;及对插补后数据进行第二数据处理以产生输出数据。前述第一查找表包含对应该函数计算的多个第一自变量与多个第一因变量间的映像数据。
第三方面,本发明实施例提供一种数据处理装置,应用于神经网络计算装置之一算子,该算子用以进行一函数计算。该数据处理方法装置包含前端处理单元、查表电路、内插电路、及后端处理单元。前端处理单元用以对输入数据进行第一数据处理以产生处理后数据。查表电路依据处理后数据查询第一查找表以得到查表数据,第一查找表包含对应该函数计算的多个第一自变量与多个第一因变量间的映像数据。内插电路用以对查表数据进行插补计算以得到插补后数据。后端处理单元用以对插补后数据进行第二数据处理以产生输出数据。
本发明实施例中,神经网络计算装置中系利用具有查找表功能的数据处理装置来实作其内的算子,以高效并精确地实现神经网络中非线性、计算比较复杂的函数。
附图说明
下面结合附图,通过对本发明的具体实施方式详细描述,将使本发明的技术方案及其有益效果显而易见。
图1是本发明实施例提的供神经网络计算装置方块示意图。
图2是本发明实施例提供的数据处理装置的方块示意图。
图3是本发明实施例提供的数据处理方法的流程示意图。
图4是本发明实施例提供的第一查找表的示例图。
图5是本发明实施例提供的第二查找表的示例图。
图6是自然对数的函数图形。
图7是自然对数在定义域区间[0.5,1]上的函数图形。
具体实施方式
请参照图示,其中相同的组件符号代表相同的组件,本发明的原理是以实施在一适当的应用环境中来举例说明。以下的说明是基于所例示的本发明具体实施例,其不应被视为限制本发明未在此详述的其它具体实施例。
本发明提供一种可降低计算量并提高精度的神经网络计算装置,请参阅图1,图1是本发明一实施例中神经网络计算装置方块示意图。神经网络计算装置10可用于进行图像辨识、数据分析等应用场景,并可应用于诸如智能手机或安控系统的电子设备中。神经网络计算装置10包含算子101、算子102、算子103、及算子104,每个算子用以执行一特定的计算,举例来说,算子101为一卷积算子,用以进行卷积计算。算子102为一指数算子,用以进行指数函数计算。算子103为一自然对数算子,用以进行对数函数计算。算子104为一乘法算子,用以进行乘法计算。一实施例中,神经网络计算装置10中各算子间的连接关系是预先决定,而各算子的参数可以透过神经网络的训练过程进行设定。例如,算子101内的Weights(权重)和Bias(偏置)参数系透过神经网络的训练过程所进行设定。
本发明所提出的神经网络计算装置中系利用具有查找表功能的数据处理装置来实作其内的算子,以高效并精确地实现神经网络中非线性、计算比较复杂的函数,譬如指数函数、双曲正切函数及对数函数等。请参阅图2,图2是本发明实施例提供的数据处理装置的方块示意图。数据处理装置20包括前端处理单元201、查表电路202、内插电路203、及后端处理单元204。数据处理装置20可应用于神经网络计算装置10中,具体来说,数据处理装置20可用以实现算子102的指数函数计算及算子103的自然对数函数计算。
一实施例中,数据处理装置20可藉由存取闪存205中的查找表来实现自然对数函数计算。如图2所示,此实施例中闪存205储存有两个查找表(Look Up Table),这两个查找表分别记为第一查找表2051和第二查找表2052,第一查找表2051中记载有一自然对数函数的多个自变量及各自变量对应的因变量的值,亦即,第一查找表2051中记载了多个自变量与多个因变量间的映像数据。而第二查找表2052中记载有该对数函数的多个自变量及各自变量对应的因变量的值。第一查找表2051不同于第二查找表2052。一实施例中,第一查找表2051和第二查找表2052的自变量均位于一预设数值区间,而自然对数函数在此预设数值区间上曲线的曲率小于一预设阈值,其代表自然对数函数在此预设数值区间上的曲线近似于一线性图。此实施例中,数据处理装置20藉由存取闪存205中的两个查找表来实现算子103的自然对数函数计算,然而,在其它实施例中,数据处理装置20亦可藉由存取一个查找表或三个查找表来实现特定函数计算。
此实施例中,第一查找表2051中的自变量大于或等于一第一数值a且小于或等于一第二数值b,而第二查找表2052中的自变量大于或等于第一数值a且小于或等于一第三数值c,第二数值b小于该第三数值c。也就是说,第一查找表2051中的自变量位于区间[a,b],第二查找表2052中的自变量位于区间[a,c]。在此实施例中,a、b、c均位于预设数值区间内。
此外,在此实施例中,第一查找表中任意两个相邻的自变量的差值均为第一差值,第二查找表中任意两个相邻的自变量的差值均为第二差值,而第一差值小于第二差值,也就是说,第一查找表中自变量间的间隔小于第二查找表中自变量间的间隔,从而使得利用第一查找表进行函数计算的精度高于第二查找表。
请参阅图3,图3是本发明实施例提供的数据处理方法的流程示意图。数据处理方法可应用于神经网络计算装置10中,并可藉由数据处理装置20来实现。下面将藉由实现算子103的自然对数函数计算为例来说明数据处理装置20的运作机制及对应的数据处理方法。
本发明实施例提供的数据处理方法的流程可以包括如下步骤。
步骤301中,前端处理单元201对一输入数据进行一第一数据处理,以产生一处理后数据。此实施例中,前端处理单元201的输入数据I为算子102的输出数据,前端处理单元201依据数据处理装置20内部的需求对输入数据I进行第一数据处理。此第一数据处理可包括对输入数据I进行数值格式转换,例如,将输入数据I由一定点数格式转换到另一定点数格式,或将输入数据I由一定点数格式转换到浮点数格式。藉由数值格式转换,使处理后数据P的数值格式符合数据处理装置20内部操作的需求。实施上,前端处理单元201可利用包含移位电路的硬件装置来实现,亦可利用一处理器执行程序代码来实现。
本实施例中以自然对数函数Y=ln(X)为例进行说明。当然,在其他实施方式中,对数函数还可以是以其它不为1的正数为底的对数函数,如以10为底的常用对数。一具体实施例中,第一数值a为0.5,第二数值b为0.5625,第三数值c为1。即,第一查找表2051中的自变量位于数值区间[0.5,0.5625],第二查找表2052中的自变量位于数值区间[0.5,1]。
一实施例中,当输入数据I不在第一查找表2051及第二查找表2052查找范围内时,前端处理单元201对输入数据I进行的第一数据处理可包含对输入数据I进行数值等效转换,使处理后数据P包含一第一部分数值及一第二部分数值,其中第一部分数值是在第一查找表2051及/或第二查找表2052的查找范围内,查表电路202可藉由第一部分数值查找第一查找表2051或第二查找表2052。
如前述的具体实施例,若输入数据I为2.2,即需要计算ln(2.2)的值,由于2.2大于第三数值1,因此前端处理单元201可先对输入数据I进行数值等效转换以确定出第一部分数值及第二部分数值。此例中,第一部分数值和第二部分数值的乘积等于输入数据I,第一部分数值大于或等于第一数值a且小于或等于第三数值c,而第二部分数值为一预设正整数的n次方,此预设正整数不等于1。例如,预设正整数的值可以为2。当然,在其他实施方式中,预设正整数的值也可以为其它不等于1的正整数,如3或5等。因此,输入数据为2.2时,其可转换为0.55×22,即2.2=0.55×22,此时,第一部分数值为0.55,第二部分数值为22。基于此,ln(2.2)=ln(0.55×22)=ln(0.55)+ln(22)=ln(0.55)+2×ln(2)。
步骤302中,依据处理后数据查询第一查找表或第二查找表,以得到一查表数据。查表电路202依据处理后数据P选择性地查询第一查找表2051或第二查找表2052。
图4为第一查找表2051的示意图。第一查找表的自变量位于数值区间[0.5,0.5625]。第一查找表2051包含65个自变量,其按照从小到大的顺序记载,相邻的任意两个自变量的差值均为0.0009765625。当然,在其它实施方式中,第一查找表2051的自变量也可以位于数值区间[0.55,0.8]或者[0.5,0.55],本发明实施例对此不作具体限定。
图5为第二查找表2052的示意图。第二查找表2052的自变量位于数值区间[0.5,1]。第二查找表包含257个自变量,其按照从小到大的顺序记载,相邻的任意两个自变量的差值均为0.001953125。同样地,在其它实施方式中,第二查找表2052的自变量也可以位于不同的数值区间。
如前述的具体实施例,当处理后数据P内的第一部分数值为0.55时,由于第一查找表2051的精度高于第二查找表2052,因此查表电路202可查询第一查找表2051以得对应的查表数据L。由于第一查找表2051中的第52个自变量的数值为0.5498046875,且第53个自变量的数值为0.55078125,而0.5498046875<0.55<0.55078125,因此查表电路202可根据第一查找表中的第52个和第53个自变量所对应的因变量得到查表数据L。
当处理后数据P内的第一部分数值为0.8时,查表电路202可查询第二查找表2051以得对应的查表数据L。由于第二查找表2052中的第154个自变量的数值为0.798828125,第一查找表中的第155个自变量的数值为0.80078125,而0.798828125<0.8<0.80078125,因此查表电路202可根据第二查找表中的第154个和第155个自变量所对应的因变量得到查表数据L。
步骤303中,对查表数据进行插补计算,以得到一插补后数据。插补电路203针对查表数据L进行线性插补计算,以得到插补后数据M。
如前述的具体实施例,当处理后数据P内的第一部分数值为0.55时,插补电路203针对第一查找表中的第52个和第53个自变量所对应的因变量进行线性插补计算,可以得到ln(0.55)=(-0.5976)。
同样地,当处理后数据P内的第一部分数值为0.8时,插补电路203针对第二查找表中的第154个和第155个自变量所对应的因变量进行线性插补计算,可以得到ln(0.8)=(-0.2232)。
步骤304中,对插补后数据进行一第二数据处理,以产生一输出数据。详细来说,后端处理单元204可依据后端算子所需要数据格式及/或插补后数据M有进一步运算的需求,对插补后数据M进行第二数据处理,以产生输出数据O。
一实施例中,此第一数据处理可包括对插补后数据M进行数值格式转换,例如,将插补后数据M由一定点数格式转换到另一定点数格式,或将插补后数据M由一定点数格式转换到浮点数格式。藉由数值格式转换,使插补后数据M的数值格式符合数据处理装置20下级算子的需求。实施上,后端处理单元204可利用包含移位电路的硬件装置来实现,亦可利用一处理器执行程序代码来实现。
进一步地,后端处理单元204所进行的第二数据处理包含依据处理后数据P中的第二部分数值对插补后数据M进行计算处理。如前述的具体实施例,若输入数据I为2.2,其可转换为0.55×22,即2.2=0.55×22,此时,第一部分数值为0.55,第二部分数值为22。基于此,ln(2.2)=ln(0.55×22)=ln(0.55)+ln(22)=ln(0.55)+2×ln(2)。ln(2)的值可以预先计算存储得到,例如ln(2)=0.693,而针对ln(0.55)所得的插补后数据为(-0.5976),因此,ln(2.2)=ln(0.55)+2×ln(2)=(-0.5976)+2×(0.693)=0.7884,也就是说,此例中,输出数据为0.7884。
需要说明的是,如图6所示,从对数函数的曲线上来看,对数函数的值域范围非常广,特别是在定义域0附近对数函数的斜率变化非常大,不适合直接使用查找表及线性插值的方式来求对数函数的值,否则函数值的计算精度非常差。
在本发明实施例中,由于第一查找表和第二查找表的自变量位于数值区间[0.5,1],因此本发明实施例在计算对数函数时,可以将对数函数的输入自变量转换到[0.5,1]的区间内。比如,对于一个大于1的输入自变量r,r=s×2k,那么ln(r)=ln(s×2k)=ln(s)+ln(2k)=ln(s)+k×ln(2),其中,s位于数值区间[0.5,1],即s的取值在0.5和1之间。由于自然对数函数在定义域[0.5,1]之间的图像近似于直线,如图7所示,因此ln(s)可以通过第一查找表或第二查找表线性插值得到,并且计算精度较高。另外,k和ln(2)的值也都是可以精确得到的。因此,最终得到的ln(r)的值的精度较高。
以上对本发明实施例所提供的神经网络计算装置、应用于神经网络计算装置的数据处理方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种神经网络计算装置,其特征在于,包含:
一第一算子,对一输入数据进行一自然对数函数计算,以产生一第一输出数据;以及
一第二算子,对该第一输出数据进行一自然对数函数计算,其中,该第二算子包含:
一前端处理单元,对该第一输出数据进行一第一数据处理,以产生一处理后数据,该第一数据处理包含对该第一输出数据进行一数值等效转换,以得到一第一部分数值及一第二部分数值,该处理后数据包含该第一部分数值及该第二部分数值;其中,该第一部分数值和该第二部分数值的乘积等于该第一输出数据,且该第二部分数值为一预设正整数的n次方,此预设正整数不等于1;
一查表电路,依据该处理后数据查询一第一查找表以得到一查表数据,其中该第一查找表包含对应该自然对数函数计算的多个第一自变量与多个第一因变量间的映像数据;
一内插电路,对该查表数据进行插补计算,以得到一插补后数据;以及
一后端处理单元,对该插补后数据进行一第二数据处理,以产生一第二输出数据;
其中,该查表电路依据该处理后数据中的该第一部分数值查询该第一查找表,而该后端处理单元依据该处理后数据中的该第二部分数值对该插补后数据进行该第二数据处理。
2.根据权利要求1所述的神经网络计算装置,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量间的间隔小于该些第二自变量间的间隔,该查表电路依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
3.根据权利要求1所述的神经网络计算装置,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量位于一第一数值区间内,而该些第二自变量位于一第二数值区间内,该第一数值区间不同于该第二数值区间,该查表电路依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
4.根据权利要求1所述的神经网络计算装置,其中,该第一数据处理包含对该第一输出数据进行一数值格式转换。
5.根据权利要求1所述的神经网络计算装置,其中,经该数值等效转换所得到的该第一部分数值系在该第一查找表的查找范围内。
6.一种数据处理方法,其特征在于,该数据处理方法应用于一神经网络计算装置之一算子,该算子用以进行一自然对数函数计算,该数据处理方法包括:
对一输入数据进行一第一数据处理,以产生一处理后数据,该第一数据处理包含对第一输出数据进行一数值等效转换,以得到一第一部分数值及一第二部分数值,该处理后数据包含该第一部分数值及该第二部分数值;其中,该第一部分数值和该第二部分数值的乘积等于该第一输出数据,且该第二部分数值为一预设正整数的n次方,此预设正整数不等于1;
依据该处理后数据查询一第一查找表以得到一查表数据,其中该第一查找表包含对应该自然对数函数计算的多个第一自变量与多个第一因变量间的映像数据;
对该查表数据进行插补计算,以得到一插补后数据;以及
对该插补后数据进行一第二数据处理,以产生一输出数据;
其中,该查表数据是依据该处理后数据中的该第一部分数值查询该第一查找表所得到,而该输出数据是依据该处理后数据中的该第二部分数值对该插补后数据进行该第二数据处理所产生。
7.根据权利要求6所述的数据处理方法,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量间的间隔小于该些第二自变量间的间隔,该得到该查表数据的步骤中系依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
8.根据权利要求6所述的数据处理方法,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量位于一第一数值区间内,而该些第二自变量位于一第二数值区间内,该第一数值区间不同于该第二数值区间,该得到该查表数据的步骤中系依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
9.根据权利要求6所述的数据处理方法,其中,该第一数据处理包含对该输入数据进行一数值格式转换。
10.根据权利要求6所述的数据处理方法,其中,经该数值等效转换所得到的该第一部分数值系在该第一查找表的查找范围内。
11.一种数据处理装置,其特征在于,该数据处理装置应用于一神经网络计算装置之一算子,该算子用以进行一自然对数函数计算,该数据处理装置包含:
一前端处理单元,对一输入数据进行一第一数据处理,以产生一处理后数据,该第一数据处理包含对该输入数据进行一数值等效转换,以得到一第一部分数值及一第二部分数值,该处理后数据包含该第一部分数值及该第二部分数值;该第二部分数值为一预设正整数的n次方,此预设正整数不等于1;
一查表电路,依据该处理后数据查询一第一查找表以得到一查表数据,其中该第一查找表包含对应该自然对数函数计算的多个第一自变量与多个第一因变量间的映像数据;
一内插电路,对该查表数据进行插补计算,以得到一插补后数据;以及
一后端处理单元,对该插补后数据进行一第二数据处理,以产生一输出数据;
其中,该查表电路依据该处理后数据中的该第一部分数值查询该第一查找表,而该后端处理单元依据该处理后数据中的该第二部分数值对该插补后数据进行该第二数据处理。
12.根据权利要求11所述的数据处理装置,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量间的间隔小于该些第二自变量间的间隔,该查表电路依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
13.根据权利要求11所述的数据处理装置,其中,该第一查找表系储存于一闪存中,该闪存更储存一第二查找表,该第二查找表包含对应该自然对数函数计算的多个第二自变量与多个第二因变量间的映像数据,该些第一自变量位于一第一数值区间内,而该些第二自变量位于一第二数值区间内,该第一数值区间不同于该第二数值区间,该查表电路依据该处理后数据选择性地查询该第一查找表或该第二查找表,以得到该查表数据。
14.根据权利要求11所述的数据处理装置,其中,该第一数据处理包含对该输入数据进行一数值格式转换。
CN202010942302.6A 2020-09-09 2020-09-09 神经网络计算装置、数据处理方法及装置 Active CN112200299B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010942302.6A CN112200299B (zh) 2020-09-09 2020-09-09 神经网络计算装置、数据处理方法及装置
US17/391,268 US20220076107A1 (en) 2020-09-09 2021-08-02 Neural network processing device, data processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010942302.6A CN112200299B (zh) 2020-09-09 2020-09-09 神经网络计算装置、数据处理方法及装置

Publications (2)

Publication Number Publication Date
CN112200299A CN112200299A (zh) 2021-01-08
CN112200299B true CN112200299B (zh) 2024-04-12

Family

ID=74014463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010942302.6A Active CN112200299B (zh) 2020-09-09 2020-09-09 神经网络计算装置、数据处理方法及装置

Country Status (2)

Country Link
US (1) US20220076107A1 (zh)
CN (1) CN112200299B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468147B1 (en) * 2019-07-22 2022-10-11 Habana Labs Ltd. Activation function approximation in deep neural networks using rectified-linear-unit function
US20220197640A1 (en) * 2020-12-23 2022-06-23 Intel Corporation Vector processor supporting linear interpolation on multiple dimensions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1997164A (zh) * 2006-01-05 2007-07-11 恩益禧电子股份有限公司 数据转换电路和使用数据转换电路的显示设备
KR101551641B1 (ko) * 2015-04-02 2015-09-08 한석진 비선형 데이터의 평균 계산 장치
CN110084361A (zh) * 2017-10-30 2019-08-02 上海寒武纪信息科技有限公司 一种运算装置和方法
CN110784226A (zh) * 2019-10-08 2020-02-11 中国科学院微电子研究所 一种基于pcm压缩编码的数据处理方法及数据处理装置
CN110826706A (zh) * 2018-08-10 2020-02-21 北京百度网讯科技有限公司 用于神经网络的数据处理方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1997164A (zh) * 2006-01-05 2007-07-11 恩益禧电子股份有限公司 数据转换电路和使用数据转换电路的显示设备
KR101551641B1 (ko) * 2015-04-02 2015-09-08 한석진 비선형 데이터의 평균 계산 장치
CN110084361A (zh) * 2017-10-30 2019-08-02 上海寒武纪信息科技有限公司 一种运算装置和方法
CN110826706A (zh) * 2018-08-10 2020-02-21 北京百度网讯科技有限公司 用于神经网络的数据处理方法和装置
CN110784226A (zh) * 2019-10-08 2020-02-11 中国科学院微电子研究所 一种基于pcm压缩编码的数据处理方法及数据处理装置

Also Published As

Publication number Publication date
US20220076107A1 (en) 2022-03-10
CN112200299A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN113330421B (zh) 点积计算器及其操作方法
CN111126581B (zh) 数据处理方法、装置及相关产品
CN112200299B (zh) 神经网络计算装置、数据处理方法及装置
CN103959192A (zh) 用于估算超越函数的数学电路
CN113038302B (zh) 流量预测方法及装置、计算机可存储介质
CN109521994A (zh) 乘法硬件电路、片上系统及电子设备
CN110929862B (zh) 定点化的神经网络模型量化装置和方法
CN112051980B (zh) 一种基于牛顿迭代法的非线性激活函数计算装置
CN116188805B (zh) 海量图像的图像内容分析方法、装置和图像信息网络
CN110826706B (zh) 用于神经网络的数据处理方法和装置
CN110569984A (zh) 配置信息生成方法、装置、设备及存储介质
CN110337636A (zh) 数据转换方法和装置
CN111753249B (zh) 一种基于fpga芯片计算信号频谱的方法及系统
CN110210611A (zh) 一种用于卷积神经网络计算的动态自适应数据截断方法
CN112419312B (zh) 相似房源信息检测方法、装置、电子设备和可读介质
CN113296732B (zh) 数据处理方法和装置,处理器及数据搜索方法和装置
CN110309877B (zh) 一种特征图数据的量化方法、装置、电子设备及存储介质
CN111767993A (zh) 卷积神经网络int8量化方法、系统、设备及存储介质
CN113139617B (zh) 一种输电线路自主定位方法、装置及终端设备
CN115511262A (zh) 变压器质量检测方法及装置
CN111930670B (zh) 异构智能处理量化装置、量化方法、电子设备及存储介质
TWI748679B (zh) 神經網路計算裝置、資料處理方法及裝置
Li et al. Adaptive support-driven Bayesian reweighted algorithm for sparse signal recovery
CN117591784B (zh) 一种基于fpga的旋转因子计算方法及fpga芯片
CN113159177B (zh) 基于批归一化参数定点化的目标检测方法、系统、设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 361005 1501, zone a, innovation building, software park, torch hi tech Zone, Xiamen City, Fujian Province

Applicant after: Xingchen Technology Co.,Ltd.

Address before: 361005 1501, zone a, innovation building, software park, torch hi tech Zone, Xiamen City, Fujian Province

Applicant before: Xiamen Xingchen Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant