CN112819143B - 一种基于图神经网络的工作记忆计算系统及方法 - Google Patents
一种基于图神经网络的工作记忆计算系统及方法 Download PDFInfo
- Publication number
- CN112819143B CN112819143B CN202110157516.7A CN202110157516A CN112819143B CN 112819143 B CN112819143 B CN 112819143B CN 202110157516 A CN202110157516 A CN 202110157516A CN 112819143 B CN112819143 B CN 112819143B
- Authority
- CN
- China
- Prior art keywords
- neural network
- calculation
- input
- working memory
- stimulus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 106
- 230000003936 working memory Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 105
- 230000000638 stimulation Effects 0.000 claims abstract description 97
- 210000002569 neuron Anatomy 0.000 claims abstract description 89
- 230000015654 memory Effects 0.000 claims abstract description 28
- 238000004088 simulation Methods 0.000 claims abstract description 21
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000005284 excitation Effects 0.000 claims abstract description 8
- 230000005764 inhibitory process Effects 0.000 claims abstract description 4
- 230000002401 inhibitory effect Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 10
- 230000009191 jumping Effects 0.000 claims description 6
- 206010001497 Agitation Diseases 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000006386 memory function Effects 0.000 claims description 5
- 230000001629 suppression Effects 0.000 claims description 3
- 230000004936 stimulating effect Effects 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 12
- 230000002964 excitative effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及人工智能和神经学领域,尤其涉及一种基于图神经网络的工作记忆计算方法,本发明的工作记忆计算系统包括输入层、图神经网络和输出层;将神经元刺激信号时间序列通过傅里叶变换转换为频谱图数据,图神经网络对图数据进行分析计算,捕获图节点之间的关系,从而把过往或未来输入刺激与当前输入刺激相关联,以模拟工作记忆的记忆特性,然后把计算处理之后的数据输送到输出层进行兴奋和抑制处理,最后通过全连接层的计算输出模仿生物神经元的工作记忆发放特性,从而实现工作记忆的软件算法模拟计算。
Description
技术领域
本发明涉及人工智能和神经学领域,尤其涉及一种基于图神经网络的工作记忆计算系统及方法。
背景技术
过去几年,卷积神经网络快速发展,并借由其强大的建模能力引起广泛关注。相比传统方法,卷积神经网络的引入给图像处理和自然语言处理等领域带来了很大的提升,如机器翻译,图像识别,语音识别等。但是,传统的卷积神经网络只能处理欧氏空间数据(如图像,文本,语音),这些领域的数据具有平移不变性。平移不变性使得我们可以在输入数据空间定义全局共享的卷积核,从而定义卷积神经网络。卷积神经网络通过学习在每个像素点共享的卷积核来建模局部连接,进而学习到意义丰富的隐层表示。尽管传统的卷积神经网络在文本和图像领域带来提升,但是它仅能处理欧氏空间数据。而同时,一种非欧空间数据:图数据,因其普遍存在性逐渐受到关注。图数据可以自然的表达实际生活中的数据结构,如交通网络,万维网,社交网络等。不同于图像和文本数据,图数据中每个节点的局部结构各异,这使得平移不变性不再满足。
近年来研究人员借鉴了卷积网络、循环网络和深度自动编码器的思想,定义和设计了专门用于处理图数据的图神经网络结构。2009年Franco等人借助不动点理论构建了图神经网络的理论基础,并定义了基于循环的图神经网络。2013年,Bruna等人基于图谱理论从卷积定理出发,在谱空间定义图卷积。这一支后来发展为图卷积领域的谱方法。最初的谱方法具有时空复杂度较高的弊端,2016年出现的ChebNet和GCN对谱方法中的卷积核进行参数化,大大降低了时空复杂度。2017Justin Gilmer等人提出基于空域(Spatial-domain)卷积的消息传递图卷积神经网络。此后图神经网络得到了不断的发展。
工作记忆是脑的高级功能,它是人类思维活动的基本环节,也是人类记忆当中最重要的组成部分之一。工作记忆是指个体在执行认知任务中,对感觉刺激或是行为决策等信息进行短暂储存和操作。在神经学领域,一般认为工作记忆是连接感知、长期记忆和行为的纽带,在语言理解、学习、推力、思维等高级认知过程中起到关键作用,是人类学习新知识、新信息所必须经过的一个过程。为了探究工作记忆的工作机理,获取生物神经元数据,人们目前只能使用MEMS探针技术、CMOS纳米电极等技术获取生物神经元内部和神经元之间的数据,并不能够根据神经元输入刺激直接通过软件算法仿真的形式模仿神经元工作记忆的发放特性,所以模拟神经元的工作记忆特性是当前亟需解决的难题。
发明内容
针对上述存在的问题或不足,为了解决工作记忆难以模拟的问题,本发明提供了一种基于图神经网络的工作记忆计算方法。
一种基于图神经网络的工作记忆计算系统,包括:
输入层,用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图;
图神经网络,用于完成工作记忆模拟计算;
输出层,用于接收图神经网络的计算结果,实现最终工作记忆发放特性的输出。
优选地,图神经网络隐藏层,上一隐藏层输出的图节点隐藏状态和图节点的原始状态共同作为下一隐藏层的输入,每一个隐藏层进行拉普拉斯矩阵乘法运算和权重矩阵乘法运算,输出更新之后的图节点隐藏状态,从而更新每个节点的隐藏状态;
进一步地,所述输出层包括:
兴奋型神经元网络,负责工作记忆兴奋性的表达,兴奋型神经元网络中的各层神经元之间联系紧密、逻辑距离相近,通过复杂计算分析出连续输入刺激中反复提及到的工作记忆区域,并对这类工作记忆进行兴奋表达,提高神经元的发放率特性;
抑制型神经元网络,负责工作记忆抑制性的表达,抑制型神经元网络中的各层神经元之间联系稀疏、逻辑距离较远,通过复杂计算分析出当前输入刺激和过往输入刺激中不同的部分,提取出过往输入刺激中兴奋的部分,假若这些兴奋的区域在当前输入中不再被表达,则对该工作记忆区域进行抑制表达,降低神经元的发放特性;
全连接层,负责将前两部分的信息进行计算处理,最终实现工作记忆发放特性的输出。
进一步地,所述输入层用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图,刺激信号频谱图中每一个节点值表示某时刻输入刺激信号的强度信息,节点之间带权边代表该时刻刺激信号与过往某时刻刺激信号或之后某时刻刺激信号之间的关联信息。
进一步地,图神经网络中每一行神经元的数量等于刺激信号频谱图节点数量,神经元行数等于神经元刺激信号总的时刻数。
一种基于图神经网络的工作记忆计算方法,包括以下步骤:
步骤1:将训练好的神经网络权重信息存储进图神经网络和输出层中;
步骤2:输入层接收神经元刺激信号时间序列,通过傅里叶变换将神经元刺激信号时域信息转换为刺激信号频谱图,然后将刺激信号频谱图数据传输至图神经网络;
步骤3:将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算得到计算结果;
步骤4:将步骤3的计算结果输入到输出层中,计算结果信号分别传入至兴奋型神经元网络和抑制型神经元网络,兴奋型神经元网络和抑制型神经元网络分别对计算结果信号数据进行计算分析,并进行工作记忆的兴奋和抑制表达,将表达的结果传输至全连接层;
步骤5:全连接层根据步骤4中的处理结果进行计算,最终得到神经元工作记忆发放特性的表达输出。
步骤6:若存在新一轮的神经元输入刺激,跳转至步骤2,否则跳转至步骤7;
步骤7:所有计算完成,计算结束,计算系统关闭。
进一步地,所述步骤3中,将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算,包括:图神经网络得到输入层的刺激信号频谱图数据后开始进行工作记忆的模拟计算,按照时刻顺序将刺激信号频谱图节点特征向量依次输入到图神经网络中每一行神经元,并与上一行神经元的输出共同作为该行的输入,由此将当前刺激信号和过往刺激信号相关联,依次得到图神经网络每一行的计算结果,模拟短时间内对于连续刺激的记忆功能,图神经网络最后一行的计算结果作为输入到输出层的计算结果。
本发明的有益效果如下:
本发明将神经元刺激信号时间序列通过傅里叶变换转换为频谱图数据,利用图神经网络善于捕获图节点之间关联信息的特性,使用图神经网络来实现工作记忆模拟计算,计算时,图神经网络对图数据进行分析计算,捕获图节点之间的关系,从而把过往或未来输入刺激与当前输入刺激相关联,以实现工作记忆的记忆特性模拟,然后将计算处理之后的数据输送到输出层进行兴奋和抑制处理,通过全连接层的计算输出模仿生物神经元的工作记忆发放特性,实现了神经元输入刺激直接通过软件算法仿真的形式模仿神经元工作记忆的发放特性的功能,有效简化神经元数据获取路径,使对工作记忆的探究路径得到突破。
附图说明
图1是本发明基于图神经网络的工作记忆计算系统结构示意图;
图2是本发明神经元刺激信号时间序列频谱图;
图3是本发明图神经网络结构示意图;
图4是本发明图神经网络计算过程示意图;
图5是本发明输出层结构示意图;
图6是本发明基于图神经网络的工作记忆计算过程流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
一种基于图神经网络的工作记忆计算系统,包括:
输入层,用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图;
图神经网络,用于完成工作记忆模拟计算;
输出层,用于接收图神经网络的计算结果,实现最终工作记忆发放特性的输出。
图神经网络包括隐藏层,上一隐藏层输出的图节点隐藏状态和图节点的原始状态共同作为下一隐藏层的输入,每一个隐藏层进行拉普拉斯矩阵乘法运算和权重矩阵乘法运算,输出更新之后的图节点隐藏状态,从而更新每个节点的隐藏状态;
其中,所述输出层包括:
兴奋型神经元网络,负责工作记忆兴奋性的表达,兴奋型神经元网络中的各层神经元之间联系紧密、逻辑距离相近,通过复杂计算分析出连续输入刺激中反复提及到的工作记忆区域,并对这类工作记忆进行兴奋表达,提高神经元的发放率特性;
抑制型神经元网络,负责工作记忆抑制性的表达,抑制型神经元网络中的各层神经元之间联系稀疏、逻辑距离较远,通过复杂计算分析出当前输入刺激和过往输入刺激中不同的部分,提取出过往输入刺激中兴奋的部分,假若这些兴奋的区域在当前输入中不再被表达,则对该工作记忆区域进行抑制表达,降低神经元的发放特性;
全连接层,负责将前两部分的信息进行计算处理,最终实现工作记忆发放特性的输出。
所述输入层用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图,刺激信号频谱图中每一个节点值表示某时刻输入刺激信号的强度信息,节点之间带权边代表该时刻刺激信号与过往某时刻刺激信号或之后某时刻刺激信号之间的关联信息。
图神经网络中每一行神经元的数量等于刺激信号频谱图节点数量,神经元行数等于神经元刺激信号总的时刻数。
图1为本发明基于图神经网络的工作记忆计算系统结构示意图,图2是本发明神经元刺激信号时间序列频谱图,该计算系统分为三大部分:输入层、图神经网络和输出层。输入层用于完成神经元刺激信号时间序列到刺激信号频谱图的计算。因为图神经网络只能处理图数据,不能直接处理神经元刺激信号,因此输入层接收神经元刺激信号的时间序列,然后通过傅里叶变换将此时域信息转换为频谱图数据,图中每一个节点值表示某时刻输入刺激信号的强度信息,节点之间带权边代表该时刻刺激信号与过往某时刻刺激信号或之后某时刻刺激信号之间的关联信息。图神经网络接收输入层计算出的图数据,然后对其进行工作记忆模拟计算。输出层用于接收图神经网络的计算结果,对其先进行兴奋和抑制处理,然后经过全连接层的计算,最终实现工作记忆发放特性的输出。
图3为本发明用于计算的图神经网络结构示意图,图神经网络包括隐藏层,上一隐藏层输出的图节点隐藏状态和图节点的原始状态共同作为下一隐藏层的输入,每一个隐藏层进行拉普拉斯矩阵乘法运算和权重矩阵乘法运算,输出更新之后的图节点隐藏状态,从而更新每个节点的隐藏状态;直至得到隐藏层最终的结算结果,也就是最终更新后的图信息,然后将该图信息输入至输出层做运算得到最终的计算结果。输出层的形式和计算结果的含义取决于具体的下游任务,在本发明中输出层会对信息做进一步的兴奋和抑制处理,然后通过全连接层实现工作记忆的发放特性。
图4为本发明计算系统中图神经网络计算过程示意图,本发明计算系统中的图神经网络用于完成工作记忆模拟计算。图神经网络中每一行神经元的数量等于图中节点数量,神经元行数等于神经元刺激信号总的时刻数。图神经网络得到输入层的数据后开始进行工作记忆的模拟计算,按照时刻顺序将图节点特征向量依次输入到图神经网络中每一行神经元,并与上一行神经元的输出共同作为该行的输入,由此将当前刺激信号和过往刺激信号相关联,依次得到图神经网络每一行的计算结果,模拟短时间内对于连续刺激的记忆功能,最后一行的计算结果输入到输出层进行后续的处理。
图5为本发明计算系统中输出层示意图。输出层用于接收图神经网络的计算结果,对其先进行兴奋和抑制处理,然后经过全连接层的计算,最终实现工作记忆发放特性的输出。该输出层分为3个部分:兴奋型神经元网络,抑制型神经元网络和全连接层。
兴奋型神经元网络负责工作记忆兴奋性的表达,该神经网络中的各层神经元之间联系紧密、逻辑距离相近,能够通过复杂计算分析出连续输入刺激中反复提及到的工作记忆区域,并对这类工作记忆进行兴奋表达,从而提高神经元的发放率特性;
抑制型神经元网络负责工作记忆抑制性的表达,该神经网络中的各层神经元之间联系稀疏、逻辑距离较远,能够通过复杂计算分析出当前输入刺激和过往输入刺激中不同的部分,提取出过往输入刺激中兴奋的部分,假若这些兴奋的区域在当前输入中不再被表达,则对该工作记忆区域进行抑制表达,从而降低神经元的发放特性;
全连接层负责将前两部分的信息进行计算处理,最终实现工作记忆发放特性的输出。
一种基于图神经网络的工作记忆计算方法,包括以下步骤:
步骤1:将训练好的神经网络权重信息存储进图神经网络和输出层中;
步骤2:输入层接收神经元刺激信号时间序列,通过傅里叶变换将神经元刺激信号时域信息转换为刺激信号频谱图,然后将刺激信号频谱图数据传输至图神经网络;
步骤3:将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算得到计算结果;
步骤4:将步骤3的计算结果输入到输出层中,计算结果信号分别传入至兴奋型神经元网络和抑制型神经元网络,兴奋型神经元网络和抑制型神经元网络分别对计算结果信号数据进行计算分析,并进行工作记忆的兴奋和抑制表达,将表达的结果传输至全连接层;
步骤5:全连接层根据步骤4中的处理结果进行计算,最终得到神经元工作记忆发放特性的表达输出。
步骤6:若存在新一轮的神经元输入刺激,跳转至步骤2,否则跳转至步骤7;
步骤7:所有计算完成,计算结束,计算系统关闭。
其中,步骤3中,将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算,包括:图神经网络得到输入层的刺激信号频谱图数据后开始进行工作记忆的模拟计算,按照时刻顺序将刺激信号频谱图节点特征向量依次输入到图神经网络中每一行神经元,并与上一行神经元的输出共同作为该行的输入,由此将当前刺激信号和过往刺激信号相关联,依次得到图神经网络每一行的计算结果,模拟短时间内对于连续刺激的记忆功能,图神经网络最后一行的计算结果作为输入到输出层的计算结果。
图6是本发明计算过程流程图,阐明了基于图神经网络的工作记忆计算流程。该计算过程分为7个部分。首先将训练好的神经网络权重信息存储进图神经网络和输出层中,然后输入层接收神经元刺激信号时间序列,通过傅里叶变换将时域信息转换为频谱图数据,之后将该图数据传输至后续图神经网络部分。图神经网络对图数据进行处理,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算。计算结果输入到输出层中,信号分别传入至兴奋型神经元网络和抑制型神经元网络,两类神经网络分别对信号数据进行计算分析,并进行工作记忆的兴奋和抑制表达,将表达的结果传输至后续的全连接层部分进行进一步的分析计算,最终得到神经元工作记忆发放特性的表达输出。此时一轮计算完毕,判断是否存在新一轮的神经元输入刺激,若存在则重复上述过程,否则所有计算完成,计算结束,计算系统关闭。
Claims (3)
1.一种基于图神经网络的工作记忆计算系统,其特征在于,包括:
输入层,用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图;
所述输入层,用于将神经元刺激信号时间序列通过傅里叶变换转换为刺激信号频谱图,刺激信号频谱图中每一个节点值表示某时刻输入刺激信号的强度信息,节点之间带权边代表该时刻刺激信号与过往某时刻刺激信号或之后某时刻刺激信号之间的关联信息;
图神经网络,用于完成工作记忆模拟计算, 对图数据进行分析计算, 捕获图节点之间的关系,从而把过往或未来输入刺激与当前输入刺激相关联;
输出层,用于接收图神经网络的计算结果, 进行兴奋和抑制处理,输出模仿生物神经元的工作记忆发放特性;
所述输出层包括:
兴奋型神经元网络,负责工作记忆兴奋性的表达,采用最小二乘法进行拟合计算分析出连续输入刺激中反复提及到的工作记忆区域,并对这类工作记忆进行兴奋表达,提高神经元的发放率特性;
抑制型神经元网络,负责工作记忆抑制性的表达,采用最小二乘法进行拟合计算分析出当前输入刺激和过往输入刺激中不同的部分,提取出过往输入刺激中兴奋的部分,假若这些兴奋的区域在当前输入中不再被表达,则对该工作记忆区域进行抑制表达,降低神经元的发放特性;
全连接层,负责将前两部分的信息进行计算处理,最终实现工作记忆发放特性的输出;
刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算,包括:图神经网络得到输入层的刺激信号频谱图数据后开始进行工作记忆的模拟计算,按照时刻顺序将刺激信号频谱图节点特征向量依次输入到图神经网络中每一行神经元,并与上一行神经元的输出共同作为该行的输入,由此将当前刺激信号和过往刺激信号相关联,依次得到图神经网络每一行的计算结果,模拟短时间内对于连续刺激的记忆功能,图神经网络最后一行的计算结果作为输入到输出层的计算结果。
2.根据权利要求1所述的一种基于图神经网络的工作记忆计算系统,其特征在于,
图神经网络中每一行神经元的数量等于刺激信号频谱图节点数量,神经元行数等于神经元刺激信号总的时刻数。
3.一种基于图神经网络的工作记忆计算方法,其特征在于,包括以下步骤:
步骤1:将训练好的神经网络权重信息存储进图神经网络和输出层中;
步骤2:输入层接收神经元刺激信号时间序列,通过傅里叶变换将神经元刺激信号时域信息转换为刺激信号频谱图,然后将刺激信号频谱图数据传输至图神经网络;
步骤3:将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算, 对图数据进行分析计算, 捕获图节点之间的关系,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算得到计算结果;
步骤4:将步骤3的计算结果输入到输出层中,计算结果信号分别传入至兴奋型神经元网络和抑制型神经元网络,兴奋型神经元网络和抑制型神经元网络分别对计算结果信号数据进行计算分析,并进行工作记忆的兴奋和抑制表达,将表达的结果传输至全连接层;
步骤5:全连接层根据步骤4中的处理结果进行计算,最终得到神经元工作记忆发放特性的表达输出;
步骤6:若存在新一轮的神经元输入刺激,跳转至步骤2,否则跳转至步骤7;
步骤7:所有计算完成,计算结束,计算系统关闭;
所述输出层包括:
兴奋型神经元网络,负责工作记忆兴奋性的表达,采用最小二乘法进行拟合计算分析出连续输入刺激中反复提及到的工作记忆区域,并对这类工作记忆进行兴奋表达,提高神经元的发放率特性;
抑制型神经元网络,负责工作记忆抑制性的表达,采用最小二乘法进行拟合计算分析出当前输入刺激和过往输入刺激中不同的部分,提取出过往输入刺激中兴奋的部分,假若这些兴奋的区域在当前输入中不再被表达,则对该工作记忆区域进行抑制表达,降低神经元的发放特性;
全连接层,负责将前两部分的信息进行计算处理,最终实现工作记忆发放特性的输出;
所述步骤3中,将步骤2中得到的刺激信号频谱图数据输入到图神经网络进行计算,将过往刺激和当前刺激进行关联处理,模拟连续刺激下的记忆特性,实现工作记忆的模拟计算,包括:图神经网络得到输入层的刺激信号频谱图数据后开始进行工作记忆的模拟计算,按照时刻顺序将刺激信号频谱图节点特征向量依次输入到图神经网络中每一行神经元,并与上一行神经元的输出共同作为该行的输入,由此将当前刺激信号和过往刺激信号相关联,依次得到图神经网络每一行的计算结果,模拟短时间内对于连续刺激的记忆功能,图神经网络最后一行的计算结果作为输入到输出层的计算结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110157516.7A CN112819143B (zh) | 2021-02-04 | 2021-02-04 | 一种基于图神经网络的工作记忆计算系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110157516.7A CN112819143B (zh) | 2021-02-04 | 2021-02-04 | 一种基于图神经网络的工作记忆计算系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112819143A CN112819143A (zh) | 2021-05-18 |
CN112819143B true CN112819143B (zh) | 2024-02-27 |
Family
ID=75861498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110157516.7A Active CN112819143B (zh) | 2021-02-04 | 2021-02-04 | 一种基于图神经网络的工作记忆计算系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819143B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114465909B (zh) * | 2022-02-09 | 2024-03-22 | 哈尔滨工业大学 | 一种智能感知边缘计算融合纳米组网装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082419B1 (en) * | 1999-02-01 | 2006-07-25 | Axeon Limited | Neural processing element for use in a neural network |
WO2019183191A1 (en) * | 2018-03-22 | 2019-09-26 | Michael Bronstein | Method of news evaluation in social media networks |
CN112308221A (zh) * | 2020-10-14 | 2021-02-02 | 成都市深思创芯科技有限公司 | 一种基于储备池计算的工作记忆硬件实现方法 |
-
2021
- 2021-02-04 CN CN202110157516.7A patent/CN112819143B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082419B1 (en) * | 1999-02-01 | 2006-07-25 | Axeon Limited | Neural processing element for use in a neural network |
WO2019183191A1 (en) * | 2018-03-22 | 2019-09-26 | Michael Bronstein | Method of news evaluation in social media networks |
CN112308221A (zh) * | 2020-10-14 | 2021-02-02 | 成都市深思创芯科技有限公司 | 一种基于储备池计算的工作记忆硬件实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112819143A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112149316B (zh) | 基于改进的cnn模型的航空发动机剩余寿命预测方法 | |
CN103793718B (zh) | 一种基于深度学习的人脸表情识别方法 | |
Soo Kim et al. | Interpretable 3d human action analysis with temporal convolutional networks | |
Cheng et al. | Facial expression recognition method based on improved VGG convolutional neural network | |
Alaloul et al. | Data processing using artificial neural networks | |
Dominguez-Morales et al. | Deep spiking neural network model for time-variant signals classification: a real-time speech recognition approach | |
CN109036465B (zh) | 语音情感识别方法 | |
CN112885372B (zh) | 电力设备故障声音智能诊断方法、系统、终端及介质 | |
CN109256118B (zh) | 基于生成式听觉模型的端到端汉语方言识别系统和方法 | |
CN110210563A (zh) | 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法 | |
CN109829541A (zh) | 基于学习自动机的深度神经网络增量式训练方法及系统 | |
CN108597539A (zh) | 基于参数迁移和语谱图的语音情感识别方法 | |
CN106017876A (zh) | 基于等权局部特征稀疏滤波网络的轮对轴承故障诊断方法 | |
CN104933722A (zh) | 一种基于Spiking-卷积网络模型的图像边缘检测方法 | |
CN106295799A (zh) | 一种深度学习多层神经网络的实现方法 | |
CN106909938A (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN105701540A (zh) | 一种自生成神经网络构建方法 | |
CN115146842A (zh) | 基于深度学习的多元时间序列趋势预测方法和系统 | |
CN112819143B (zh) | 一种基于图神经网络的工作记忆计算系统及方法 | |
CN114170657A (zh) | 融合注意力机制与高阶特征表示的面部情感识别方法 | |
Zhang et al. | Spiking neural networks with laterally-inhibited self-recurrent units | |
CN116369945A (zh) | 基于4d脉冲神经网络的脑电认知识别方法 | |
CN115984942A (zh) | 基于脉冲神经网络的人脸表情识别方法、存储介质及设备 | |
Li et al. | Multimodal information-based broad and deep learning model for emotion understanding | |
CN110363074A (zh) | 一种针对复杂抽象化事物的类人化识别交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |