CN109669962A - 精确指数和准确softmax计算 - Google Patents
精确指数和准确softmax计算 Download PDFInfo
- Publication number
- CN109669962A CN109669962A CN201811195327.3A CN201811195327A CN109669962A CN 109669962 A CN109669962 A CN 109669962A CN 201811195327 A CN201811195327 A CN 201811195327A CN 109669962 A CN109669962 A CN 109669962A
- Authority
- CN
- China
- Prior art keywords
- value
- sec
- column
- mantissa
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 238000010606 normalization Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 238000007667 floating Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000007418 data mining Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 241000196435 Prunus domestica subsp. insititia Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/27—Regression, e.g. linear or logistic regression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/556—Logarithmic or exponential functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
一种用于关联存储器设备的方法,包括:将数字X的多比特尾数A划分为多个更小的部分尾数A_j,针对每个部分尾数A_j的每个可能值离线计算多个部分指数F(A_j),以及将多个部分指数F(A_j)存储在关联存储器设备的查找表(LUT)中。一种系统,包括:用于存储数字X的尾数A的多个部分尾数A_j的关联存储器阵列,以及用于利用部分尾数来计算e的X次幂的指数计算器。
Description
相关申请的交叉引用
本申请要求享有于2017年10月15日提交的美国专利申请15/784,152的优先权,该申请通过引用并入本文。
技术领域
本发明总体上涉及关联计算,并且具体地涉及使用关联计算的数据挖掘算法。
背景技术
数据挖掘是发现大数据集中的模式的计算过程。数据挖掘使用不同的技术来分析大数据集,其中的一种技术是分类。分类用于基于存储在数据集中的、其组成员资格已知的数据项来预测数据实例的组成员资格。softmax回归是各种多类分类方法中使用的已知数据挖掘分类方法中的一种,例如,多项逻辑回归、多类线性判别分析、朴素贝叶斯分类器、人工神经网络,以及应用于包括计算机视觉、语音识别、自然语言处理、音频识别、社交网络过滤、机器翻译、生物信息学和其他的领域的其他深度学习算法。
softmax回归将任意实数值的N维向量“压缩”到范围[0,1]中的实数值的N维向量,其加起来为1,并且在等式1中定义:
其中N是数据集的大小,并且xi和xj是浮点数,分别表示存储在数据集中位置i和j的原始值。
在分类算法中,softmax回归计算对象属于N个定义的类中的每个类的概率。
可以在存储器中使用等式2表示二进制浮点(FP)数x:
x=(-1)S*(A+1)*2B 等式2
其中S是由单个比特表示的数字的符号(负/正),A是尾数(mantissa),并且B是指数。符号比特S的值1指示负数,并且值0指示正数。
使用等式2的公式来表示x,等式1的ex可以由等式3表示:
ex的计算可以使用等式4中定义的标准泰勒级数来完成:
泰勒级数也可以表示为:
ex=y1+y2+y3+… 等式5
其中y1=1,等。
可以认识到,使用多个乘法运算和除法运算来执行泰勒级数计算。为了在该计算中具有高精确度,可能要求可能显著地减慢该过程的许多系数和乘法运算。x越大,可能需要的系数越多,并且计算可能变得越重。
可以认识到,用于计算ex的泰勒级数可以在现有设备上并行地完成。当前的关联存储器设备(例如,在美国专利申请第14/588,419号、美国专利申请第14/555,638号和美国专利第15/146,908号中描述的关联存储器设备,这些申请全部转让给本申请的共同受让人)可以通过同时计算数据集中所有项的泰勒级数来提供出色的性能和响应时间。
尽管如此,对大数据集(N>150000)使用softmax回归即使在上面提到的关联存储器设备上也很难实现,因为softmax回归不是线性的,并且最终结果可能仅在计算出数据集中的每个对象j的值exj以便计算和之后得到。这还要求大的存储器单元来存储对数据集中每个对象j的exj计算的所有中间结果。此外,计算的动态范围和数百万个数字的累加可能会影响计算的精确度,尤其是当xj很大并且可能导致溢出时(当xi很大时,exi可能超出范围)。另外,使用当前设备计算softmax回归可能无法提供如深度学习算法所要求的微-毫秒速度范围和低延迟。
发明内容
根据本发明的实施例,提供了一种用于关联存储器设备的方法。该方法包括将数字X的多比特尾数A划分为多个更小的部分尾数A_j,针对每个部分尾数A_j的每个可能值离线计算多个部分指数F(A_j),以及将多个部分指数F(A_j)存储在关联存储器设备的查找表(LUT)中。
此外,根据本发明的实施例,离线计算包括使用大量泰勒级数系数。
此外,根据本发明的实施例,该方法还包括将部分尾数A_j的每个可能值k与多个部分尾数Ai_j进行比较,一次比较一个值,每个部分尾数Ai_j存储在关联存储器设备的分区sec-A_j的列i中,并且标记存储值k的、每个分区sec-A_j的每个列i。
更进一步地,根据本发明的实施例,该方法还包括从LUT的行k读取部分指数F(A_j),并且同时将每个所读取的部分指数F(A_j)写入每个相关联的分区sec-F_j的所有标记的列。
另外,根据本发明的实施例,该方法还包括同时在每个列i上将存储在每个sec-F_j中的部分指数相乘,以及将相乘的结果存储在分区sec-ex的列i中,结果是e的X次幂的值。
另外,根据本发明的实施例,该方法还包括利用存储在所述分区sec-ex中的值来计算softmax、softplus、sigmoid或tanh中的任何一个。
此外,根据本发明的实施例,该方法还包括同时在sec-ex的每个行上对具有预定义值的比特数进行计数,以及将所述计数的结果存储在向量SUM中。
另外,根据本发明的实施例,预定义值是一。
此外,根据本发明的实施例,该方法还包括对存储在sec-ex中的值进行归一化,并且将所述归一化的值存储在sec-S中。
此外,根据本发明的实施例,归一化包括同时将所述sec-ex的每个列i除以存储在SUM中的值,从而在sec-S中提供softmax回归的结果。
根据本发明的实施例,提供了一种系统。该系统包括用于存储数字X的尾数A的多个部分尾数A_j的关联存储器阵列,以及用于利用部分尾数来计算e的X次幂的指数计算器。
此外,根据本发明的实施例,关联存储器阵列包括:多个部分尾数分区,用于在分区sec-A_j的每个列i中存储部分尾数Ai_j;多个部分指数分区,用于在分区sec-j的每个列i中存储部分指数F(A_j)的值;以及分区sec-ex,用于在每个列i中存储通过将存储在部分指数分区的列i中的部分指数的值相乘而计算的值,从而提供e的X次幂。
另外,根据本发明的实施例,指数计算器还包括:查找表(LUT),用于使用部分尾数的所有可能值来存储预先计算的e的部分指数的值;部分指数指派器,用于同时将存储在sec-A_j中的每个列i中的值与值k进行比较,以标记存储值k的所有列,并且同时向部分指数分区sec-j中的每个标记的列i写入从LUT读取的值;以及指数乘法器,用于将存储在部分指数分区的每个列i中的值相乘,并且将相乘的结果存储在分区sec-ex中。
此外,根据本发明的实施例,关联存储器阵列还包括:向量SUM,用于存储所有存储在sec-ex的列中的值的和;以及分区sec-S,用于在每个列i中存储通过将存储在sec-ex的列i中的值除以和而计算的softmax回归Si的值。
此外,根据本发明的实施例,该系统还包括:指数加法器,用于对存储在sec-ex的所有列i中的所有指数值求和;以及归一化器,用于同时将存储在sec-ex的每个列i中的每个值除以和,并且将除法的结果存储在分区sec-S的列i中,从而在sec-S中提供准确softmax的值。
附图说明
在说明书的结论部分中特别指出并清楚地要求保护被视为本发明的主题。然而,通过参考以下详细描述,当结合附图阅读时,可以最好地关于组织和操作方法以及其目的、特征和优点来理解本发明,在附图中:
图1是根据本发明的实施例构造和操作的准确softmax系统的示意图;
图2是根据本发明的实施例的图1的准确softmax系统的关联存储器阵列元件的一部分的示意图;
图3是根据本发明的实施例的存储由图1的准确softmax系统使用的部分指数的查找表(LUT)的示意图;
图4是根据本发明的实施例构造和操作的包括指数计算器的准确softmax系统的详细示意图;
图5是描述根据本发明的实施例的准确softmax系统的示例性操作流程的流程图;
图6是根据本发明的实施例的使用浮点数的5比特部分尾数计算的部分指数的示例性LUT的示意图;以及
图7是根据本发明的实施例的使用定点数的8比特部分尾数计算的部分指数的示例性LUT的示意图。
应认识到,为了说明的简单和清楚起见,附图中所示的元素不一定按比例绘制。例如,为了清楚起见,元素中的一些元素的尺寸可能相对于其他元素被夸大。此外,在认为适当的情况下,可以在附图中重复附图标记以指示对应或类似的元素。
具体实施方式
在以下详细描述中,阐述了许多具体细节以便提供对本发明的透彻理解。然而,本领域技术人员将理解,可以在没有这些具体细节的情况下实践本发明。在其他实例中,没有详细描述公知的方法、过程和组件,以免模糊本发明。
申请人已经意识到,针对整个数据集的softmax回归的高度正确的结果(本文中称为“准确softmax”),可以在关联存储器设备上(例如,在美国专利申请第14/588,419号、美国专利申请第14/555,638号和美国专利申请第15/146,908号中描述的关联存储器设备,这些申请全部转让给本发明的共同受让人)以O(1)的复杂度来实现。
现在参考的图1示意性地示出了根据本发明的优选实施例构造和操作的准确softmax系统100。准确softmax系统100包括准确softmax处理器110和关联存储器阵列120,准确softmax处理器110可以同时计算对数字的大数据集进行的softmax回归的高度正确的值,关联存储器阵列120可以存储来自要对其执行softmax回归的大数据集的每个值Xi的尾数Ai。
关联存储器阵列120包括多个分区,每个分区由多个行和列构成。尾数Ai可以存储在关联存储器阵列120的列i中。
申请人已经意识到,要针对其计算准确softmax回归的每个浮点(FP)值X(等式2)的尾数A可以表示为m个变量A_j的和,其中每个变量是由尾数A的总比特中的若干比特构成的部分尾数。可以认识到,符号A_j表示尾数A的部分尾数j。
每个部分尾数A_j的值是A_j的比特乘以由部分尾数A_j在整个尾数A内的位置确定的二的相关次幂(p1,p2...)的值,如等式6中定义的。
A=2p1*A_1+2p2*A_2+…A_m 等式6
可以认识到,在本说明书中,二的幂有时写为2p,有时写为2^p。
对于一般的10比特尾数A,一个可能的表示可以是2个变量A_1和A_2,每个变量为5比特。当A_1包括A的5个MSB比特并且A_2包括A的5个LSB比特时,A的值可以由等式7表示:
A=32*A_1+A_2 等式7
10比特尾数A的可能表示的另一示例可以是4个变量A_1、A_2、A_3和A4。A_1包括A的3个MSB比特,A_2包括接下来的3个MSB比特,A_3包括接下来的3比特,并且A4包括LSB比特和符号比特,如等式8中定义的:
A=128*A_1+16*A_2+4*A_3+A4 等式8
申请人已经意识到,当利用关联存储器阵列120起作用时,将尾数A表示为部分尾数A_j的和可能是有利的。(每个浮点值Xi的)尾数Ai的每个特定部分尾数j——标记为部分尾数Ai_j可以存储在关联存储器阵列120的单独分区sec-j的相同列i中,如现在参考的图2所示。
图2是关联存储器阵列120的一部分的示意图,其被划分成分区sec-A_1、sec-A_2、sec-A_3...sec-A_m,每个分区存储每个尾数Ai的不同比特。分区sec-A_1可以在列i中存储每个FP数Xi的部分尾数Ai_1的比特;分区sec-A_2可以在列i中存储部分尾数Ai_2的比特,并且分区sec-A_m可以在列i中存储部分尾数Ai_m的比特。关联存储器阵列120的其他分区(未在图2中具体示出)可以由softmax处理器110使用,以存储softmax回归计算的中间和最终结果,如下文详细描述的。可以认识到,准确softmax处理器110可以同时在多个分区上操作,并且可以在关联存储器阵列120的不同分区上执行不同的操作。还可以认识到,在分区的所有列上同时进行计算。
使用尾数A作为m个部分尾数A_j的和(等式6)的表示,ex可以由等式9表示:
其中p1、p2...表示应该上升的2的幂次,并且根据原始尾数A中的比特的位置来定义。例如,跨越位置5-10中的比特的部分尾数的p值是5。使用标准数学指数乘积规则(xa+b=xa*xb),ex可以表示为e的m个部分指数的乘积,其中每个这样的指数的每个部分尾数A_j仅包括原始尾数A的若干连续比特,如等式10中定义的:
为了简单起见,利用部分尾数A_j计算出的e的每个部分指数可以表示为F(A_j):
…
这产生了简化的表示,如等式11所示。
ex=F(A_1)*F(A_2)*…*F(A_m) 等式11
可以认识到,一旦部分指数F(A_1),F(A_2),...,F(A_m)的值已知,则可能要求附加的乘法F(A_1)*F(A_2)*...*F(A_m)来完成对原始指数ex的计算。
申请人已经意识到,部分指数F(A_1),F(A_2),...,F(A_m)的值不改变,并且因此可以预先对其进行计算并将其存储在查找表(LUT)300中,如现在参考的图3所示。
LUT 300包括2py个条目,部分尾数A_j的每个可能值一个条目,其中py是最大A_j中的比特数、指数B中的比特数的函数,如等式12中定义的:
py=1+最大A_j中的比特数+B中的比特数 等式12
LUT 300中的每个条目可以存储每个部分指数F(A_j)的计算的结果以及部分尾数A_j的每个有效值。在LUT 300的行0中,可以假设部分尾数A_j的值是0来计算每个F(A_j)的值。在LUT 300的行1中,可以假设部分尾数A_j的值是1来计算每个F(A_j)的值,依此类推,直到LUT300的最后一行,其中可以假设部分尾数A_j的值是2py来计算每个F(A_j)的值。
可以认识到,存储在LUT 300中的值可以以高精确度预先计算并且具有与所需要的一样多的系数。该计算可以在实际计算准确softmax之前仅执行一次。
现在参考的图4更详细地、示意性地示出了根据本发明的优选实施例构造和操作的图1的准确softmax系统100。准确softmax处理器110包括指数计算器400、指数加法器116和归一化器118。
另外,还示意性地示出了准确softmax处理器110可以在其上操作的关联存储器阵列120的不同分区。关联存储器阵列120包括:用于在每个列i中存储部分尾数Ai_j的值的分区sec-A_j,用于存储部分指数F(Ai_j)的分区sec-F_j,用于在每个列i中存储exi的值的分区sec-ex,用于存储计算softmax回归所需要的所有指数的和的向量SUM,以及用于在每个列i中存储每个Xi的计算出的softmax回归Si的分区sec-S。
指数计算器400包括(图3的)LUT 300、部分指数指派器112、指数乘法器114。部分指数指派器112可以对LUT 300的部分尾数的所有可能值k循环。对于每个k,部分指数指派器112可以同时在所有分区sec-A_j上并行地比较存储在每个列i中的所有部分尾数Ai_j的值,并且标记具有与k相同的值的、每个分区中的所有列。
并行地,部分指数指派器112可以读取LUT 300的行k的部分指数F(A_j)的值,并且可以同时地将每个值F(A_j)写入每个相关联的分区sec-F_j中的所有先前标记的列i。部分指数指派器112的操作可以采用2py个步骤,每个步骤对不同的k值进行操作。
指数乘法器114可以同时将存储在每个分区F_j的每个列i中的所有部分指数F(Ai_j)相乘,以使用等式11来计算ex。可以认识到,指数乘法器114可以在所有分区的所有列上同时执行乘法,并且可以将每个exi存储在分区sec-ex的列i中。对于每次乘法,该操作可以采用一个步骤。
指数加法器116可以计算所有exi的和。exi的每个值可以被转换为L比特的定点数,并且可以存储回分区sec-ex的列。可以认识到,每个定点数可以存储在分区sec-ex的L个行中。L可以是32、64或任何其他不会影响计算的精确度的数字。指数加法器116可以从LSB开始到MSB在分区sec-ex的行上迭代,并且对每行中具有值1的所有比特进行计数。然后,指数加法器116可以将对每行进行的计数的结果存储在关联存储器阵列120中的专用向量SUM中。
计数操作的一个可能的实施例在2017年7月13日提交的题为“FINDING K EXTREMEVALUES IN CONSTANT PROCESSING TIME(在恒定的处理时间内查找K个极值)”的美国专利申请15/648,475中进行了描述,并且该申请转让给本发明的共同受让人。计算所有exi的和可以采用L*计数个操作步骤。
一旦计算和并且将其存储在关联存储器阵列120中的向量SUM中,则归一化器118可以通过将存储在分区sec-ex中的列i中的每个exi的值除以存储在SUM中的值来同时计算每个列i中的softmax回归的最终结果Si。对所有Si值的计算可以采用大约几百个时钟的一个步骤。
现在参考的图5是描述根据本发明的优选实施例构造和操作的准确softmax系统100的操作的流程图500。在作为启动步骤的步骤510中,可以利用部分指数F(A_j)的所有值来创建LUT 300。在步骤520中,部分指数指派器112可以初始化用于传递通过LUT 300的输入值k。在步骤530中,部分指数指派器112可以同时将每个部分尾数Ai_j的值与k的值进行比较,并且可以标记所有分区中的、存储其值与k等同(Ai_j==k)的部分尾数的所有列。
在步骤540中,部分指数指派器112可以从LUT 300的相关条目(行k)得到F(A_j)的值,并且在步骤550中,部分指数指派器112可以同时将每个F(A_j)的值写入每个相关sec-F_j中的所有标记的列。例如,值F(A_2)(针对具有值k的部分尾数A_2计算的)可以被写入分区sec-F_2的所有列,因为存储在分区A_2中的部分尾数的值等于k。
在步骤560中,部分指数指派器112可以检查其在LUT 300中的位置。可以重复步骤520-560,直到扫描整个表。在扫描整个LUT 300之后,在步骤570中,指数乘法器114可以通过将所有部分指数相乘来同时计算所有指数exi,并且在步骤580中,指数加法器116可以计算并存储所有指数exi的和。在步骤590中,归一化器118可以通过将存储在sec-ex中的每个列i中的每个exi的值除以存储在SUM中的和来针对分区sec-ex的每个列i同时计算准确softmax Si,并且将准确softmax值Si存储在分区sec-S中以供进一步使用。
本领域技术人员可以认识到,流程500中示出的步骤不旨在是限制性的,并且可以利用更多或更少的步骤,或利用不同的步骤序列或其任何组合来实践该流程。
可以认识到,指数计算器400可以用于涉及ex的计算的任何计算,包括诸如本文描述的softmax之类的、神经网络中的许多激活函数,以及诸如sigmoid函数tanh函数softplus函数ln(1+ex)、softplus函数的逆ln(ex-1)等之类的其他函数。
具体示例可以是10比特尾数。使用等式2,16比特半精度浮点(FP)数x可以在存储器中表示为x=(-1)S*(A+1)*2B,其中S是符号比特,A是10比特尾数并且B是5比特指数。e的指数可以表示为10比特尾数A可以表示为两个5比特变量的和A=32*A_1+A_2,其中A_1是5个MSB比特,并且A_2是5个LSB比特;因此,x也可以表示为x=(-1)S*(A+1)*2B=(-1)S*(32*A_1+A_2+1)*2B,并且e的指数可以表示为
应用各自具有5比特的部分尾数的数学指数规则可以给出 将等式简化可以产生等式ex=F(A_1)*F(A_2),其中并且 在这种情况下,只有两个变量,只要求一次附加的乘法F(A_1)*F(A_2)来完成ex的计算。
可以认识到,该示例的查找表包含2048个条目(每个部分尾数(A_1或A_2)有5比特,指数B有5比特并且符号S有1比特,这提供11比特并且产生211=2048个可能的值)。图6示出了适用于该示例的LUT 300a。
在该示例中,计算的大部分需要搜索从0到2047的k的值并且将相关联的值从LUT300a写入关联存储器阵列120中的分区sec-F_1和sec-F_2。这可能花费总共2048个时钟,每个k值一个时钟。针对F(A_1)*F(A_2)进行一次附加的乘法,这要求花费几百个时钟。
应认识到,当使用定点指数而不是浮点指数时,16比特FP数Xi可以表示为X=Y/2B=(256*Y1+Y2)/2B,其中Y1表示8个MSB比特,Y2表示8个LSB比特,并且B可以具有0到16之间的固定值。
为了简单起见,在该示例中忽略符号比特,因为其对计算的总体性能没有影响。在这种情况下,e的指数可以表示为并且使用标准数学指数乘积规则,指数可以表示为Y1和Y2(各自具有8比特尾数)的值可以预先计算并且存储在LUT 300b中(图7中示出)。在该示例中,LUT 300b中的条目的数量是8比特变量Y1和Y2的可能值的数量,其为28=256。
LUT 300b中的每个条目可以存储256个可能值中的、Y1和Y2的部分指数的值。可以认识到,在这种情况下,包括对从0到256的每个输入值的搜索操作以及将适当值写入关联存储器阵列120中的分区sec-F_1和sec-F_2的操作的整个计算可能花费256个时钟。一次定点附加乘法可能花费大约几百个附加时钟,为整个数据集提供小于0.3微秒的总计算时间。
可以认识到,针对大数据集中所有项的softmax的总计算可能花费少于2微秒(对于FP数大约为2500个时钟,对于定点数大约为1500个时钟)。
可以认识到,在现有技术的GPGPU(使用图形处理单元的通用计算)上,softmax计算的执行花费大约8毫秒,这比本发明的执行慢4000倍。
可以认识到,每个部分指数F(A_j)的离线计算可以以几种方式完成。一种方式可以是使用等式4的泰勒级数来计算部分指数。然而,由于部分尾数小于完整尾数,例如,仅部分尾数中的5比特与完整尾数中的10比特进行比较,计算可能会快得多。
应认识到,通过离线计算每个部分指数F(A_j),本发明可以利用与所期望的一样多的泰勒级数的系数来计算F(A_j)。结果可以是所有部分指数F(A_j)的正确值。
还可以认识到,可以通过添加该过程的进一步并行化来实现性能的进一步改进。如果关联存储器阵列120足够大以存储数据集的多个副本,则可以实现这种并行性。如前面定义的,LUT一次遍历一个条目,直到扫描所有条目。对于2048个条目的LUT,部分指数指派器112的计算时间可以是2048个时钟。然而,将数据集复制到关联存储器阵列120的附加分区是可能的。在这种情况下,部分指数指派器112可以分割LUT并且关于数据集的每个副本仅使用LUT的一半。因此,部分指数指派器112可以两倍快地起作用,并且可以在仅1024个时钟中完成其计算。如果数据可以被复制Y次,则部分指数指派器112的计算可以小Y倍。
当x很大时,ex可能变得非常大并且可能产生溢出。为了避免这种情况,减小指数的大小可能是有用的。使用标准算术,将除法的分子和分母乘以任何选定的值C是可能的。将此规则应用于softmax回归可以在等式13中描述:
使用标准数学指数规则,结果可以是等式14
对于所有j=1,N,C可以被定义为存储在分区ex中的exi的最大值,c=(-1)max(exj),产生较小的指数值。在2017年8月29日提交的题为“METHOD FOR MIN-MAXCOMPUTATION IN ASSOCIATIVE MEMORY(用于在关联存储器中进行最小值-最大值计算的方法)”的美国专利申请第15/688,895号和2015年1月12日提交的题为“MEMORY DEVICE(存储器设备)”、公布号为2015/0200009的美国专利申请第14/594,434号(其中复杂度为O(1))中定义了用于以复杂度O(1)在大数据集中查找最大值的方法。
可以认识到,使用本发明可以为大数据集提供具有最高精确度的准确softmax回归,其中计算复杂度为O(1)。另外,在本发明的准确softmax系统100中计算softmax回归的平均时间可以花费少于8微秒,这比GPU(图形处理单元)中可以实现的快几个数量级。
虽然本文已经说明和描述了本发明的某些特征,但是本领域普通技术人员现在将想到许多修改、替换、改变和等同物。因此,应理解,所附权利要求旨在覆盖落入本发明的真正精神内的所有这些修改和改变。
Claims (15)
1.一种用于关联存储器设备的方法,所述方法包括:
将数字X的多比特尾数A划分为多个更小的部分尾数A_j;
针对每个所述部分尾数A_j的每个可能值离线计算多个部分指数F(A_j);以及
将所述多个部分指数F(A_j)存储在所述关联存储器设备的查找表(LUT)中。
2.根据权利要求1所述的方法,其中,所述离线计算包括使用大量泰勒级数系数。
3.根据权利要求1所述的方法,还包括将部分尾数A_j的每个可能值k与多个部分尾数Ai_j进行比较,一次比较一个值,每个部分尾数Ai_j存储在所述关联存储器设备的分区sec-A_j的列i中,并且标记存储所述值k的、每个分区sec-A_j的每个列i。
4.根据权利要求3所述的方法,还包括从所述LUT的行k读取所述部分指数F(A_j),并且同时将每个所读取的部分指数F(A_j)写入每个相关联的分区sec-F_j的所有所标记的列。
5.根据权利要求4所述的方法,还包括同时在每个列i上进行以下操作:
将存储在每个sec-F_j中的部分指数相乘;以及
将所述相乘的结果存储在分区sec-ex的列i中,所述结果是e的所述X次幂的值。
6.根据权利要求5所述的方法,还包括利用存储在所述分区sec-ex中的所述值来计算以下中的一个:softmax、softplus、sigmoid以及tanh。
7.根据权利要求5所述的方法,还包括同时在sec-ex的每个行上进行以下操作:
对具有预定义值的比特数进行计数;以及
将所述计数的结果存储在向量SUM中。
8.根据权利要求7所述的方法,其中,所述预定义值是一。
9.根据权利要求7所述的方法,还包括对存储在sec-ex中的值进行归一化,并且将所述归一化的值存储在sec-S中。
10.根据权利要求9所述的方法,其中,所述归一化包括同时将所述sec-ex的每个列i除以存储在所述SUM中的值,从而在所述sec-S中提供softmax回归的结果。
11.一种系统,包括:
用于存储数字X的尾数A的多个部分尾数A_j的关联存储器阵列,以及用于利用所述部分尾数来计算e的X次幂的指数计算器。
12.根据权利要求11所述的系统,其中,所述关联存储器阵列包括:
多个部分尾数分区,用于在分区sec-A_j的每个列i中存储部分尾数Ai_j;
多个部分指数分区,用于在分区sec-j的每个列i中存储部分指数F(A_j)的值;以及
分区sec-ex,用于在每个列i中存储通过将存储在所述部分指数分区的所述列i中的所述部分指数的值相乘而计算的值,从而提供e的X次幂的值。
13.根据权利要求12所述的系统,其中,所述指数计算器还包括:
查找表(LUT),用于使用部分尾数的所有可能值来存储预先计算的e的部分指数的值;
部分指数指派器,用于同时将存储在所述sec-A_j中的每个列i中的值与值k进行比较,以标记存储所述值k的所有列,并且同时向部分指数分区sec-j中的每个标记的列i写入从所述LUT读取的值;以及
指数乘法器,用于将存储在所述部分指数分区的每个列i中的值相乘,并且将所述相乘的结果存储在所述分区sec-ex中。
14.根据权利要求12所述的系统,其中,所述关联存储器阵列还包括:
向量SUM,用于存储所有存储在所述sec-ex的列中的所述值的和;以及
分区sec-S,用于在每个列i中存储通过将存储在所述sec-ex的列i中的值除以所述和而计算的softmax回归Si的值。
15.根据权利要求14所述的系统,还包括:
指数加法器,用于对存储在所述sec-ex的所有列i中的所有指数值求和;以及
归一化器,用于同时将存储在所述sec-ex的每个列i中的每个值除以所述和,并且将所述除法的结果存储在所述分区sec-S的列i中,从而在sec-S中提供准确softmax的值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/784,152 US10949766B2 (en) | 2017-10-15 | 2017-10-15 | Precise exponent and exact softmax computation |
US15/784,152 | 2017-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109669962A true CN109669962A (zh) | 2019-04-23 |
CN109669962B CN109669962B (zh) | 2022-07-19 |
Family
ID=66097064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811195327.3A Active CN109669962B (zh) | 2017-10-15 | 2018-10-15 | 精确指数和准确softmax计算 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10949766B2 (zh) |
KR (1) | KR102381770B1 (zh) |
CN (1) | CN109669962B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178516A (zh) * | 2019-12-11 | 2020-05-19 | 浙江大学 | 一种基于分段查找表的softmax函数计算方法及硬件系统 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11032780B2 (en) * | 2015-09-03 | 2021-06-08 | Qualcomm Incorporated | Power control in wireless networks |
KR102434728B1 (ko) * | 2017-10-20 | 2022-08-19 | 상하이 캠브리콘 인포메이션 테크놀로지 컴퍼니 리미티드 | 처리방법 및 장치 |
US10657439B2 (en) * | 2017-10-24 | 2020-05-19 | Shanghai Cambricon Information Technology Co., Ltd | Processing method and device, operation method and device |
CN111542826A (zh) * | 2017-12-29 | 2020-08-14 | 斯佩罗设备公司 | 支持模拟协处理器的数字架构 |
CN110826706B (zh) * | 2018-08-10 | 2023-10-03 | 北京百度网讯科技有限公司 | 用于神经网络的数据处理方法和装置 |
US11861452B1 (en) * | 2019-06-17 | 2024-01-02 | Cadence Design Systems, Inc. | Quantized softmax layer for neural networks |
US11327923B2 (en) * | 2019-09-04 | 2022-05-10 | SambaNova Systems, Inc. | Sigmoid function in hardware and a reconfigurable data processor including same |
US11455144B1 (en) * | 2019-11-21 | 2022-09-27 | Xilinx, Inc. | Softmax calculation and architecture using a modified coordinate rotation digital computer (CORDIC) approach |
US11836629B2 (en) | 2020-01-15 | 2023-12-05 | SambaNova Systems, Inc. | Computationally efficient softmax loss gradient backpropagation |
EP3882823A1 (en) * | 2020-03-17 | 2021-09-22 | Samsung Electronics Co., Ltd. | Method and apparatus with softmax approximation |
KR20210130470A (ko) | 2020-04-22 | 2021-11-01 | 에스케이하이닉스 주식회사 | 활성화 함수 처리 방법, 활성화 함수 처리 회로, 및 그것을 포함하는 신경망 시스템 |
CN112036561B (zh) * | 2020-09-30 | 2024-01-19 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及存储介质 |
JPWO2022168604A1 (zh) * | 2021-02-05 | 2022-08-11 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160260013A1 (en) * | 2015-03-06 | 2016-09-08 | Nokia Technologies Oy | Method and apparatus for optimization |
CN106570559A (zh) * | 2015-10-09 | 2017-04-19 | 阿里巴巴集团控股有限公司 | 一种基于神经网络的数据处理方法和装置 |
CN106990937A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 一种浮点数处理装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7539717B2 (en) * | 2005-09-09 | 2009-05-26 | Via Technologies, Inc. | Logarithm processing systems and methods |
US8037119B1 (en) * | 2006-02-21 | 2011-10-11 | Nvidia Corporation | Multipurpose functional unit with single-precision and double-precision operations |
US10832746B2 (en) | 2009-07-16 | 2020-11-10 | Gsi Technology Inc. | Non-volatile in-memory computing device |
US8301803B2 (en) * | 2009-10-23 | 2012-10-30 | Samplify Systems, Inc. | Block floating point compression of signal data |
US10089278B2 (en) * | 2011-01-21 | 2018-10-02 | Nxp Usa, Inc. | Device and method for computing a function value of a function |
US8831133B2 (en) * | 2011-10-27 | 2014-09-09 | Lsi Corporation | Recursive digital pre-distortion (DPD) |
US9606796B2 (en) * | 2013-10-30 | 2017-03-28 | Texas Instruments Incorporated | Computer and methods for solving math functions |
US9418719B2 (en) | 2013-11-28 | 2016-08-16 | Gsi Technology Israel Ltd. | In-memory computational device |
US9859005B2 (en) | 2014-01-12 | 2018-01-02 | Gsi Technology Inc. | Memory device |
US9558812B2 (en) | 2015-05-05 | 2017-01-31 | Gsi Technology Inc. | SRAM multi-cell operations |
US10509765B2 (en) * | 2015-10-08 | 2019-12-17 | Via Alliance Semiconductor Co., Ltd. | Neural processing unit that selectively writes back to neural memory either activation function output or accumulator value |
US10042606B2 (en) * | 2016-05-03 | 2018-08-07 | Altera Corporation | Fixed-point and floating-point arithmetic operator circuits in specialized processing blocks |
CN108351974A (zh) | 2016-07-17 | 2018-07-31 | Gsi 科技公司 | 在恒定的处理时间内查找k个极值 |
-
2017
- 2017-10-15 US US15/784,152 patent/US10949766B2/en active Active
-
2018
- 2018-10-15 KR KR1020180122762A patent/KR102381770B1/ko active IP Right Grant
- 2018-10-15 CN CN201811195327.3A patent/CN109669962B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160260013A1 (en) * | 2015-03-06 | 2016-09-08 | Nokia Technologies Oy | Method and apparatus for optimization |
CN106570559A (zh) * | 2015-10-09 | 2017-04-19 | 阿里巴巴集团控股有限公司 | 一种基于神经网络的数据处理方法和装置 |
CN106990937A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 一种浮点数处理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178516A (zh) * | 2019-12-11 | 2020-05-19 | 浙江大学 | 一种基于分段查找表的softmax函数计算方法及硬件系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109669962B (zh) | 2022-07-19 |
US10949766B2 (en) | 2021-03-16 |
KR20190042470A (ko) | 2019-04-24 |
KR102381770B1 (ko) | 2022-03-31 |
US20190114555A1 (en) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109669962A (zh) | 精确指数和准确softmax计算 | |
Zheng et al. | A hybrid bidirectional recurrent convolutional neural network attention-based model for text classification | |
Adel et al. | Learning the Structure of Sum-Product Networks via an SVD-based Algorithm. | |
Che et al. | A novel approach for learning label correlation with application to feature selection of multi-label data | |
KR102092263B1 (ko) | 일정한 처리 시간 내에 k개의 극값을 찾는 방법 | |
US20180341642A1 (en) | Natural language processing with knn | |
Ko et al. | Progressive Uniform Manifold Approximation and Projection. | |
CN110197252A (zh) | 基于距离的深度学习 | |
Guo et al. | RnRTD: Intelligent Approach Based on the Relationship‐Driven Neural Network and Restricted Tensor Decomposition for Multiple Accusation Judgment in Legal Cases | |
Muhammad et al. | Comparative performance of machine learning methods for text classification | |
CN106021346B (zh) | 检索处理方法及装置 | |
CN110019815B (zh) | 利用knn的自然语言处理 | |
Shareef et al. | A literature review of feature selection methods | |
CN111737469A (zh) | 数据挖掘方法、装置、终端设备和可读存储介质 | |
Iwata et al. | Probabilistic latent variable models for unsupervised many-to-many object matching | |
Wei | Dynamic model of language propagation in English translation based on differential equations | |
Nagpal et al. | Hybrid feature selection approach based on grasp for cancer microarray data | |
Mutlu et al. | Time and Memory Comparison of Parallel K-Nearest Neighbor Algorithms on GPUs | |
Jokioja et al. | Deep learning in medical document classification | |
Kumar et al. | Handwritten Word Recognition in English Language | |
Rastogi et al. | Sublinear partition estimation | |
Rezk | On Training Implicit Meta-Learning With Applications to Inductive Weighing in Consistency Regularization | |
Bulyga et al. | Clustering of scientific text documents by data mining methods | |
Kucza | Term Extraction as Sequence Labeling Task using Recurrent Neural Networks | |
Ren | High-performance and Energy-efficient Deep Learning for Resource-constrained Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |