CN109117946A - 神经网络计算处理模型 - Google Patents

神经网络计算处理模型 Download PDF

Info

Publication number
CN109117946A
CN109117946A CN201810742934.0A CN201810742934A CN109117946A CN 109117946 A CN109117946 A CN 109117946A CN 201810742934 A CN201810742934 A CN 201810742934A CN 109117946 A CN109117946 A CN 109117946A
Authority
CN
China
Prior art keywords
data
module
activation primitive
calculating
submodule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810742934.0A
Other languages
English (en)
Inventor
陈亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201810742934.0A priority Critical patent/CN109117946A/zh
Publication of CN109117946A publication Critical patent/CN109117946A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及类脑计算技术领域,具体提供了一种神经网络计算处理模型,旨在解决在不增加新网络结构的情况下,如何扩展人工神经网络可执行算法的技术问题。为此目的,本发明中的向量计算模块可以对操作数据进行多级乘累加计算,来模拟不同的神经网络结构。标量计算模块可以基于预设的数据运算方法,对操作数据进行相应计算。激活函数模块可以根据预设的激活函数计算策略、向量计算模块的计算结果和标量计算模块的计算结果,模拟相应激活函数计算,来实现相应神经网络的计算(如卷积神经网络、全连接神经网络或脉冲神经网络)。基于上述结构,本发明无需对神经网络计算处理模型进行网络拓展,即可实现不同类型神经网络的计算。

Description

神经网络计算处理模型
技术领域
本发明涉及类脑计算技术领域,具体涉及一种神经网络计算处理模型。
背景技术
人工神经网络(Artificial Neural Network,ANN)是一种由大量节点(神经元)互相联接构成的运算模型,是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。具体地,每个节点代表一种特定的激励函数,每两个节点间的连接都代表一个对于通过该连接信号的权重(相当于人工神经网络的记忆)。人工神经网络的输出取决于网络结构、权重值和激励函数。当前,全连接神经网络、卷积神经网络被广泛使用。脉冲神经网络作为脑启发型网络结构也备受关注。而往往一个神经网络仅能执行一种神经网络算法,因此需要设置多个神经网络来对某种数据分别执行不同的神经网络算法,而这势必会增加神经网络结构的复杂性,并降低神经网络运行的可靠性。
发明内容
为了解决现有技术中的上述问题,即为了解决在不增加新网络结构的情况下,如何扩展人工神经网络可执行算法的技术问题。为此目的,本发明提供了一种神经网络计算处理模型。
本发明中神经网络计算处理模型,其特征在于,包括向量计算模块、激活函数模块和存储模块;
所述向量计算模块,配置为对预先获取的第一操作数据进行乘累加计算,并将乘累加计算结果发送至所述存储模块;
所述激活函数模块,配置为基于预设的激活函数计算策略,对预先获取的第二操作数据进行非线性函数计算,并将非线性函数计算结果发送至所述存储模块;
其中,在所述神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据或前一轮计算所得的非线性函数计算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果。
进一步地,本发明提供的一个优选技术方案为:
所述向量计算模块包括数据解扩/对齐子模块、MAC阵列子模块、池化子模块和数据选择子模块;
所述数据解扩/对齐子模块,配置为对预先获取的权重矩阵数据进行数据解扩和/或数据对齐处理,得到原始权重数据,并将所述原始权重数据发送至所述MAC阵列子模块;
所述MAC阵列子模块,配置为对所述第一操作数据进行乘累加计算,并将乘累加计算结果发送至所述池化子模块或数据选择子模块;
所述池化子模块,配置为对所述MAC阵列子模块所发送的计算结果进行数据池化处理,并将数据池化处理结果发送至所述数据选择子模块;
所述数据选择子模块,配置为根据所述激活函数模块所指定的数据类型,将所述乘累加计算结果或数据池化结果中的相应数据发送至所述激活函数模块。
进一步地,本发明提供的一个优选技术方案为:
所述数据选择子模块,进一步配置为:
在通过所述神经网络计算处理模型进行卷积计算的情况下,所述数据选择子模块根据激活函数模块所指定的数据类型,将所述数据池化结果中的相应数据发送至所述激活函数模块;
在通过所述神经网络计算处理模型进行全连接神经网络计算的情况下,所述数据选择子模块根据激活函数模块所指定的数据类型,将所述乘累加计算结果发送至所述激活函数模块。
进一步地,本发明提供的一个优选技术方案为:
所述神经网络计算处理模型还包括标量计算模块;
所述标量计算模块,配置为基于预设的数据运算方法,对预先获取的第三操作数据进行相应计算,并将数据运算结果发送至所述存储模块;
在此情况下,在所述神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据和/或前一轮计算所得的非线性函数计算结果和/或前一轮计算所得的数据运算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果和/或数据运算结果。
进一步地,本发明提供的一个优选技术方案为:
所述预设的数据运算方法包括向量内积运算方法、指数运算方法、自然对数运算方法和相似度运算方法。
进一步地,本发明提供的一个优选技术方案为:
所述标量计算模块,进一步配置为基于CORDIC算法,对预先获取的第三操作数据进行相应数据运算的计算。
进一步地,本发明提供的一个优选技术方案为:
所述激活函数计算策略包括Sigmoid激活函数、Tanh激活函数、ReLU激活函数、Leaky-ReLU激活函数和Maxout激活函数。
进一步地,本发明提供的一个优选技术方案为:
所述激活函数模块,进一步配置为基于CORDIC算法,对预先获取的第二操作数据进行相应激活函数计算策略所指定的非线性函数计算。
进一步地,本发明提供的一个优选技术方案为:
所述激活函数模块,进一步配置为基于预设的乘法/加法逻辑运算方法,对预先获取的第四操作数据进行计算,来模拟脉冲神经网络计算。
与最接近的现有技术相比,上述技术方案至少具有如下有益效果:
1、本发明中向量计算模块可以对操作数据进行多级乘累加计算,来模拟不同的神经网络结构。标量计算模块可以基于预设的数据运算方法,对操作数据进行相应计算(如向量内积计算、指数计算、自然对数计算和相似度计算)。激活函数模块可以根据预设的激活函数计算策略、向量计算模块的计算结果和标量计算模块的计算结果,模拟相应激活函数计算,来实现相应神经网络的计算(如卷积神经网络、全连接神经网络或脉冲神经网络)。
2、本发明中存储模块可以存储并管理向量计算模块和激活函数模块在各自计算过程中使用和生成的数据。
3、本发明中向量计算模块可以包括数据解扩/对齐子模块、MAC阵列子模块、池化子模块和数据选择子模块。具体地,数据解扩/对齐子模块可以压缩数据转换为原始数据。MAC阵列子模块可以对操作数据进行多级乘累加计算。当利用神经网络计算处理模型进行卷积神经网络计算时,MAC阵列子模块将输出数据发送至池化子模块进行池化处理,再经数据选择子模块输出。当利用神经网络计算处理模型进行全连接神经网络计算时,MAC阵列子模块将输出数据直接发送至数据选择子模块进行输出。
附图说明
图1是本发明实施例中一种神经网络计算处理模型的主要结构示意图;
图2是本发明实施例中激活函数模块的一部分结构示意图;
图3是本发明实施例中激活函数模块的另一部分结构示意图;
图4是本发明实施例中向量计算模块的主要结构示意图;
图5是本发明实施例中另一种神经网络计算处理模型的主要结构示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
参阅附图1,图1示例性示出了本实施例中一种神经网络计算处理模型的主要结构示意图。如图1所示,本实施例中神经网络计算处理模型可以包括向量计算模块11、激活函数模块12和存储模块13。
具体地,在本实施例中向量计算模块11可以配置为对预先获取的第一操作数据进行乘累加计算,并将乘累加计算结果发送至存储模块13。激活函数模块12可以配置为基于预设的激活函数计算策略,对预先获取的第二操作数据进行非线性函数计算,并将非线性函数计算结果发送至存储模块13。其中,在神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据或前一轮计算所得的非线性函数计算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果。
本实施例中激活函数计算策略可以包括Sigmoid激活函数、Tanh激活函数、ReLU激活函数、Leaky-ReLU激活函数和Maxout激活函数。相应地,本实施例中图1所示的激活函数模块12还可以配置为基于CORDIC算法,对预先获取的第二操作数据进行相应激活函数计算策略所指定的非线性函数计算。例如,激活函数模块12基于CORDIC算法,实现对预先获取的第二操作数据的Sigmoid激活函数计算、和/或Tanh激活函数、和/或ReLU激活函数、和/或Leaky-ReLU激活函数、和/或Maxout激活函数。
进一步地,本实施例中图1所示的激活函数模块12还可以配置为执行如下操作:基于预设的乘法/加法逻辑运算方法,对预先获取的第四操作数据进行计算,来模拟脉冲神经网络计算。也就是说,激活函数模块2可以通过预设的乘法/加法逻辑运算方法,实现脉冲神经元的计算功能,进而可以实现脉冲神经网络的计算功能。
参阅附图2,图2示例性示出了本实施例中图1所示激活函数模块12的一部分结构。如图2所示,激活函数模块12可以基于CORDIC算法,利用N级加法/移位实现指定的非线性函数计算。
参阅附图3,图3示例性示出了本实施例中图1所示激活函数模块12的另一部分结构。如图3所示,激活函数模块13可以基于预设的乘法/加法逻辑运算方法,模拟特定的神经元模型,从而实现脉冲神经网络计算。
在本实施例中,当通过神经网络计算处理模型实现传统神经网络计算(如卷积神经网络计算、全连接网络计算或循环神经网络计算)时,激活函数模块12可以基于预设的激活函数计算策略,对预先获取的第二操作数据进行非线性函数计算。
可选的,当通过神经网络计算处理模型实现脉冲神经网络计算时,激活函数模块2可以基于预设的乘法/加法逻辑运算方法,对预先获取的第四操作数据进行计算,来模拟脉冲神经网络计算。
例如,激活函数模块12可以通过执行并实现预设的乘法/加法逻辑运算方法,来模拟Izhikevich神经元模型,进而根据Izhikevich神经元模型对第四操作数据进行脉冲神经网络计算。
继续参阅附图4,图4示例性示出了本实施例中图1所示的向量计算模块11的主要结构。如图4所示,本实施例中向量计算模块11可以包括数据解扩/对齐子模块111、MAC阵列子模块112、池化子模块113和数据选择子模块114。
具体地,在本实施例中数据解扩/对齐子模块111可以配置为对预先获取的权重矩阵数据进行数据解扩和/或数据对齐处理,得到原始权重数据,并将原始权重数据发送至MAC阵列子模块112。MAC阵列子模块112可以配置为对第一操作数据进行乘累加计算,并将乘累加计算结果发送至池化子模块113或数据选择子模块114。池化子模块113可以配置为对MAC阵列子模块112所发送的计算结果进行数据池化处理,并将数据池化处理结果发送至数据选择子模块114。数据选择子模块可以配置为根据激活函数模块12所指定的数据类型,将乘累加计算结果或数据池化结果中的相应数据发送至激活函数模块2。
进一步地,本实施例中图4所示的数据选择子模块114可以配置为执行如下操作:
在通过神经网络计算处理模型进行卷积计算的情况下,数据选择子模块114根据激活函数模块12所指定的数据类型,将数据池化结果中的相应数据发送至激活函数模块12。
在通过神经网络计算处理模型进行全连接神经网络计算的情况下,数据选择子模块114根据激活函数模块12所指定的数据类型,将所述乘累加计算结果发送至激活函数模块12。
在本实施例中,当通过神经网络计算处理模型实现卷积神经网络计算时,将输入数据矩阵中每两行数据为一组,将每组数据串行输入至MAC阵列子模块112,MAC阵列子模块112可以根据输入数据与卷积核,进行乘累加计算。若卷积核维度为(M2,N2),则MAC阵列子模块112将进行2×M2×N2次乘累加计算。
具体地,MAC阵列子模块112在执行乘累加计算过程中,输入数据与卷积核的部分累加和如下式(1)所示:
MAC阵列子模块112完成乘累加计算后所得的数据结果如下式(2)所示:
公式(1)和(2)中各参数含义为:
xi,j为输入数据矩阵中第i行第j列的数据,y~i,j为数据yi,j的部分累加和,yi,j为输出数据矩阵中第i行第j列的数据,为神经网络计算处理模型为实现卷积神经网络计算所使用的卷积核,为卷积核的翻转矩阵。
在本实施例中,当通过神经网络计算处理模型实现全连接神经网络计算时,数据解扩/对齐子模块111对输入数据矩阵进行数据解扩和数据对齐处理,将得到的原始输入数据串行输入至MAC阵列子模块112进行乘累加计算。MAC阵列子模块112在执行n次乘累加计算过程中,输入数据与卷积核的部分累加和如下式(3)所示:
MAC阵列子模块112完成乘累加计算后所得的数据结果如下式(4)所示:
公式(3)和(4)中各参数含义为:
xi为第i个输入数据,y~i为数据yi的部分累加和,yi为第i个的输出数据,为神经网络计算处理模型为实现全连接神经网络计算所使用的卷积核。
继续参阅附图5,图5示例性示出了本实施例中另一种神经网络计算处理模型的主要结构示意图。如图5所示,本实施例中神经网络计算处理模型可以包括向量计算模块21、激活函数模块22、存储模块23和标量计算模块24。
具体地,本实施例中的向量计算模块21、激活函数模块22、存储模块23,分别与图1所示的向量计算模块11、激活函数模块12、存储模块13的功能相同,为了描述简洁,在此不再赘述。
在本实施例中,标量计算模块24可以配置为基于预设的数据运算方法,对预先获取的第三操作数据进行相应计算,并将数据运算结果发送至存储模块23。在此情况下,在神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据和/或前一轮计算所得的非线性函数计算结果和/或前一轮计算所得的数据运算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果和/或数据运算结果。
本实施例中数据运算方法可以包括向量内积运算方法、指数运算方法、自然对数运算方法和相似度运算方法等算法。相应地,本实施例中图5所示的标量计算模块24还可以配置为基于CORDIC算法,对预先获取的第三操作数据进行相应数据运算的计算。
例如,标量计算模块24基于CORDIC算法,对预先获取的第三操作数据进行向量内积计算、和/或指数计算、和/或自然对数计算、和/或相似度计算。
需要说明的是,上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包括”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在本发明的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (9)

1.一种神经网络计算处理模型,其特征在于,包括向量计算模块、激活函数模块和存储模块;
所述向量计算模块,配置为对预先获取的第一操作数据进行乘累加计算,并将乘累加计算结果发送至所述存储模块;
所述激活函数模块,配置为基于预设的激活函数计算策略,对预先获取的第二操作数据进行非线性函数计算,并将非线性函数计算结果发送至所述存储模块;
其中,在所述神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据或前一轮计算所得的非线性函数计算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果。
2.根据权利要求1所述的神经网络计算处理模型,其特征在于,所述向量计算模块包括数据解扩/对齐子模块、MAC阵列子模块、池化子模块和数据选择子模块;
所述数据解扩/对齐子模块,配置为对预先获取的权重矩阵数据进行数据解扩和/或数据对齐处理,得到原始权重数据,并将所述原始权重数据发送至所述MAC阵列子模块;
所述MAC阵列子模块,配置为对所述第一操作数据进行乘累加计算,并将乘累加计算结果发送至所述池化子模块或数据选择子模块;
所述池化子模块,配置为对所述MAC阵列子模块所发送的计算结果进行数据池化处理,并将数据池化处理结果发送至所述数据选择子模块;
所述数据选择子模块,配置为根据所述激活函数模块所指定的数据类型,将所述乘累加计算结果或数据池化结果中的相应数据发送至所述激活函数模块。
3.根据权利要求2所述的神经网络计算处理模型,其特征在于,所述数据选择子模块,进一步配置为:
在通过所述神经网络计算处理模型进行卷积计算的情况下,所述数据选择子模块根据激活函数模块所指定的数据类型,将所述数据池化结果中的相应数据发送至所述激活函数模块;
在通过所述神经网络计算处理模型进行全连接神经网络计算的情况下,所述数据选择子模块根据激活函数模块所指定的数据类型,将所述乘累加计算结果发送至所述激活函数模块。
4.根据权利要求1所述的神经网络计算处理模型,其特征在于,所述神经网络计算处理模型还包括标量计算模块;
所述标量计算模块,配置为基于预设的数据运算方法,对预先获取的第三操作数据进行相应计算,并将数据运算结果发送至所述存储模块;
在此情况下,在所述神经网络计算处理模型的某轮计算过程中,用于乘累加计算的第一操作数据为初始操作数据和/或前一轮计算所得的非线性函数计算结果和/或前一轮计算所得的数据运算结果,用于非线性函数计算的第二操作数据为本轮计算所得的乘累加计算结果和/或数据运算结果。
5.根据权利要求4所述的神经网络计算处理模型,其特征在于,
所述预设的数据运算方法包括向量内积运算方法、指数运算方法、自然对数运算方法和相似度运算方法。
6.根据权利要求4或5所述的神经网络计算处理模型,其特征在于,
所述标量计算模块,进一步配置为基于CORDIC算法,对预先获取的第三操作数据进行相应数据运算的计算。
7.根据权利要求1-5任一项所述的神经网络计算处理模型,其特征在于,所述激活函数计算策略包括Sigmoid激活函数、Tanh激活函数、ReLU激活函数、Leaky-ReLU激活函数和Maxout激活函数。
8.根据权利要求1-5任一项所述的神经网络计算处理模型,其特征在于,
所述激活函数模块,进一步配置为基于CORDIC算法,对预先获取的第二操作数据进行相应激活函数计算策略所指定的非线性函数计算。
9.根据权利要求1-5任一项所述的神经网络计算处理模型,其特征在于,
所述激活函数模块,进一步配置为基于预设的乘法/加法逻辑运算方法,对预先获取的第四操作数据进行计算,来模拟脉冲神经网络计算。
CN201810742934.0A 2018-07-09 2018-07-09 神经网络计算处理模型 Pending CN109117946A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810742934.0A CN109117946A (zh) 2018-07-09 2018-07-09 神经网络计算处理模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810742934.0A CN109117946A (zh) 2018-07-09 2018-07-09 神经网络计算处理模型

Publications (1)

Publication Number Publication Date
CN109117946A true CN109117946A (zh) 2019-01-01

Family

ID=64862002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810742934.0A Pending CN109117946A (zh) 2018-07-09 2018-07-09 神经网络计算处理模型

Country Status (1)

Country Link
CN (1) CN109117946A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919312A (zh) * 2019-03-29 2019-06-21 北京智芯微电子科技有限公司 卷积神经网络的运算方法、装置及dpu
US20210350221A1 (en) * 2020-05-05 2021-11-11 Silicon Laboratories Inc. Neural Network Inference and Training Using A Universal Coordinate Rotation Digital Computer

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919312A (zh) * 2019-03-29 2019-06-21 北京智芯微电子科技有限公司 卷积神经网络的运算方法、装置及dpu
CN109919312B (zh) * 2019-03-29 2021-04-23 北京智芯微电子科技有限公司 卷积神经网络的运算方法、装置及dpu
US20210350221A1 (en) * 2020-05-05 2021-11-11 Silicon Laboratories Inc. Neural Network Inference and Training Using A Universal Coordinate Rotation Digital Computer

Similar Documents

Publication Publication Date Title
Jaafra et al. Reinforcement learning for neural architecture search: A review
Mousavi et al. Fractional calculus-based firefly algorithm applied to parameter estimation of chaotic systems
Chi et al. Learning of fuzzy cognitive maps with varying densities using a multiobjective evolutionary algorithm
Shang et al. Environment reconstruction with hidden confounders for reinforcement learning based recommendation
CN109003132A (zh) 广告推荐方法及相关产品
US20060224533A1 (en) Neural network development and data analysis tool
Yesil et al. Fuzzy cognitive maps learning using artificial bee colony optimization
CN107239443A (zh) 一种词向量学习模型的训练方法及服务器
CN109766995A (zh) 深度神经网络的压缩方法与装置
CN108446534A (zh) 选择神经网络超参数的方法、装置和计算机可读存储介质
CN110321473A (zh) 基于多模态注意力的多样性偏好信息推送方法、系统、介质及设备
CN108255059B (zh) 一种基于模拟器训练的机器人控制方法
Ralph et al. Is requirements engineering inherently counterproductive?
CN108364068A (zh) 基于有向图的深度学习神经网络构建方法和机器人系统
Yesil et al. Goal-oriented decision support using big bang-big crunch learning based fuzzy cognitive map: An ERP management case study
CN109117946A (zh) 神经网络计算处理模型
CN110135524A (zh) 自动化的模型训练方法、装置、设备及介质
CN106169961A (zh) 基于人工智能的神经网络的网络参数处理方法及装置
CN110222824A (zh) 智能算法模型自主生成及进化方法、系统、装置
CN108053136A (zh) 一种基于神经网络的汽车经销商业绩分析专家系统
CN108280746A (zh) 一种基于双向循环神经网络的产品设计方法
CN111820922A (zh) 一种面向幼儿计算思维的测评方法
CN109711543A (zh) 一种可重构的深度置信网络实现系统
Naredi et al. Improved extraction of quantitative rules using best M positive negative association rules algorithm
Sabathiel et al. A computational model of learning to count in a multimodal, interactive environment.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190101