CN111612125B - 一种面向在线学习的新型htm时间池方法及其系统 - Google Patents

一种面向在线学习的新型htm时间池方法及其系统 Download PDF

Info

Publication number
CN111612125B
CN111612125B CN202010286624.XA CN202010286624A CN111612125B CN 111612125 B CN111612125 B CN 111612125B CN 202010286624 A CN202010286624 A CN 202010286624A CN 111612125 B CN111612125 B CN 111612125B
Authority
CN
China
Prior art keywords
cell
learning
cells
time
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010286624.XA
Other languages
English (en)
Other versions
CN111612125A (zh
Inventor
李雷
邹婷婷
詹毕晟
蔡涛
牛德姣
梁军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202010286624.XA priority Critical patent/CN111612125B/zh
Publication of CN111612125A publication Critical patent/CN111612125A/zh
Application granted granted Critical
Publication of CN111612125B publication Critical patent/CN111612125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种面向在线学习的新型HTM时间池方法及系统,利用空间池算法,获取表达当前输入的少量激活微柱;利用当前输入的位置信息,在激活微柱上生成学习细胞集和活跃细胞集;在学习细胞上对关联相邻输入的树突分支进行调整;利用缩小范围的活跃细胞集对下一次的输入进行预测。本发明利用当前输入的位置信息,在激活微柱上生成学习细胞集和活跃细胞集方式,能够针对当前序列进行学习,提高HTM学习准确性,并在在学习重复序列过程中,降低循环预测出现的可能性,提高HTM的学习效果;在学习细胞上对关联相邻输入的树突分支修改规则的调整,能够针对在线学习的特点,使得时间池算法通过一次训练,快速形成对序列的学习成果,提高HTM的学习效率。

Description

一种面向在线学习的新型HTM时间池方法及其系统
技术领域
本发明涉及人工智能领域,尤其涉及一种面向在线学习的新型HTM时间池方法及其系统。
背景技术
类脑学习是当前人工智能和机器学习领域研究的热点。层级时序记忆HTM(Hierarchical Temporal Memory)是一种通过模拟大脑皮层细胞的组织和机构,模仿人脑对信息的处理机制的机器学习技术。HTM本质上讲是一个基于记忆的系统。HTM网络被大量具有时间性的数据训练而成,存储着大量的模式序列,通过记忆的模式序列预测下一次可能的输入或者利用上一时刻预测检测当前时刻输入是否异常。HTM可以在拥有时序数据的领域中进行预测和异常检测。
与现有的人工神经网络不同,HTM以细胞为基本单位,并使用层级方式进行管理;首先将几个细胞组成一个微柱,再由这些微柱构成HTM网络空间。空间池算法和时间池算法是训练HTM时的两个重要步骤,首先使用空间池算法,从所有微柱中选择出部分被激活微柱以对应当前的输入。再使用时间池算法从这些微柱中选择部分激活的细胞表达输入所处位置信息,通过调整这些活跃细胞上相关的树突分支,构建输入与输入之间的关联,进行学习;同时利用活跃细胞和已构建的树突分支,对下一时刻的输入进行预测。
当前的时间池算法仅使用简单的Hebbian规则,通过调整树突分支中突触的连接值,建立前后相邻的两个时刻活跃细胞之间的关联,学习序列的特性;并只有在树突分支中连通突触累积到一定阈值后,才能完成序列的学习任务。在用于对运行效率要求不高的任务时,可以通过传统多次迭代方式完成序列的学习;在线客流、交通流、股票等运行效率要求高任务时,多次迭代的方式难以满足其响应时间的要求,在线学习又使得细胞之间关联很难累积到一定的阈值,从而严重影响了HTM的学习效率和效果。此外当序列中存在多个连续的相同输入时,使用现有的时间池算法,很容易陷入相同输入的循环预测,严重影响了HTM的学习效果。因此有必要针对序列在线学习的特点,设计新型的时间池算法,提高HTM在线学习序列的效率与效果。
发明内容
本发明的目的在于提供一种面向在线学习的新型HTM时间池方法,通过对输入的学习细胞、活跃细胞生成方式以及树突分支修改规则的调整,用以解决HTM(HierarchicalTemporal Memory)在线学习时学习效率低和学习效果差的问题。
本发明所采用的技术方案如下:
一种面向在线学习的新型HTM时间池方法,包括如下步骤:
步骤1,利用空间池算法从所有微柱中选择部分微柱进行激活,并将激活微柱对应当前的输入;
步骤2,利用输入的位置信息,在被激活微柱上生成学习细胞集和临时活跃细胞集,能够让学习过程针对当前位置的序列进行,提高HTM学习准确性,并在在学习重复序列过程中,有效减少自身关联的细胞数量,降低循环预测出现的可能性,提高HTM的学习效果;
步骤3,对学习细胞上关联相邻输入的树突分支进行调整,并针对在线学习的特点,将新增树突分支中的突触值设定为连通值,使得时间池算法通过一次训练,快速形成对序列的记忆和学习,提高HTM的学习效率;
步骤4,利用调整过的活跃细胞集对下一次的输入进行预测。
进一步,生成学习细胞集的方法为:
若被激活微柱上的细胞被上一时刻的输入预测到,则该细胞被设为当前输入的学习细胞,表示为:
Figure BDA0002448761790000021
若被激活微柱上的细胞全都未被上一时刻的输入预测到,则随机选择该微柱上所有细胞中树突分支数量最少的细胞设为学习细胞,表示为:
Figure BDA0002448761790000022
将上述方法选出的学习细胞构成学习细胞集;其中,
Figure BDA0002448761790000023
表示t时刻第j个微柱上第i个细胞被选为学习细胞,;mini(the segment’s number of celli,j)是第j个微柱上包含最少树突分支的细胞编号;
进一步,生成临时活跃细胞集的方法为:
在空间池算法筛选出的被激活微柱中,使用以下规则生成活跃细胞,若被激活的微柱上有预测细胞,则该细胞被设为活跃细胞,若被激活的微柱上没有预测细胞,则微柱上所有的细胞被设为活跃细胞。
Figure BDA0002448761790000031
将上述方法选出的活跃细胞构成临时活跃细胞集;其中
Figure BDA0002448761790000032
表示t时刻第j个微柱上第i个细胞被置为活跃细胞,i为微柱上细胞的编号,j是微柱的编号,Wt为t时刻输入激活的微柱集合,/>
Figure BDA0002448761790000033
表示第j个微柱上第i个细胞为t-1时刻的预测细胞;
进一步,缩减临时活跃细胞集中活跃细胞的数量,将临时活跃细胞集中非学习细胞置为非活跃状态,用于准确表达输入的当前位置信息,主要操作如下:
Figure BDA0002448761790000034
其中,At代表t时刻输入产生的活跃细胞矩阵,
Figure BDA0002448761790000035
代表t时刻输入对应的学习细胞矩阵;
进一步,所述步骤3中调整树突分支的过程为:
若当前处理的学习细胞是被上一时刻输入预测到的细胞,则调整该细胞上活跃的树突分支,加强与上一时刻输入之间的关联,该细胞上活跃树突分支选择条件为:
Figure BDA0002448761790000036
若当前处理的学习细胞不是被上一时刻输入预测到的细胞,则在该细胞上新增树突分支,构建与上一时刻输入学习细胞之间的突触,形成与上一时刻输入之间的关联,新增树突分支表示为:
Figure BDA0002448761790000037
其中,
Figure BDA0002448761790000038
为第j个微柱中第i个细胞上所具有的第k个树突分支的连通性矩阵,activeThreshold为树突分支的活跃阈值,/>
Figure BDA0002448761790000039
是在第j个微柱中第i个细胞上新增的树突分支,CONNECTED_PERMANANCE为树突分支中突触的连通阈值;/>
Figure BDA00024487617900000310
为t-1时刻输入对应的学习细胞矩阵。
进一步,通过调整活跃细胞集进行预测的过程为:
遍历HTM网络空间中的所有细胞,若细胞上存在树突分支能够被当前活跃细胞集激活,则该细胞为当前时刻的预测细胞,计算公式如下:
Figure BDA00024487617900000311
一种面向在线学习的新型HTM时间池系统,包括空间池模块和时间池模块,所述空间池模块用于获取激活的微柱集合;所述时间池模块包括生成学习细胞集单元,所述学习细胞集单元的输入端连接空间池模块的输出端,学习细胞集单元的输出端依次连接调整树突分支单元和预测单元。
本发明的有益效果:
1、本发明在生成学习细胞时,利用HTM中微柱包含多个细胞所具有的优势,可以对输入的位置信息进行区分,重置输入的活跃细胞集为学习细胞集,预测时用于表达输入的当前位置信息,便于后续学习内容与当前位置的输入建立关联,使得HTM在线学习时,能够针对当前输入序列进行学习,提高学习效率;在学习重复序列过程中,缩减数量的活跃细胞集,也能有效减少自身关联的细胞数量,降低循环预测出现的可能,提高HTM的学习效果。
2、本发明只对关联相邻输入的树突分支进行调整,并针对在线学习的特点,将新增树突分支中的突触值设定在连通阈值以上,使得算法通过一次训练,便可形成对序列的记忆和学习,提高HTM的学习效率。
附图说明
图1为面向在线学习的HTM流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
实施例1:
如图1所示,一种利用HTM时间池算法的在线学习方法,在线学习时包括获取输入激活的微柱集合、生成学习细胞集、调整树突分支、调整活跃细胞集并进行预测四个步骤:
步骤1,获取输入激活的微柱集合可由空间池算法产生,从所有微柱中选择部分微柱进行激活,并将激活微柱对应当前的输入;
步骤2,生成学习细胞集要依赖上一时刻的预测细胞集,对于未预测激活微柱,挑选出的学习细胞能够表达输入的当前位置信息,使得学习过程更针对当前位置上的序列;具体地,
步骤2.1,生成学习细胞集的方法为:
步骤2.1.1,若被激活微柱上的细胞被上一时刻的输入预测到,则该细胞被设为当前输入的学习细胞,表示为:
Figure BDA0002448761790000051
步骤2.1.2,若被激活微柱上的细胞全都未被上一时刻的输入预测到,则随机选择该微柱上所有细胞中树突分支数量最少的细胞设为学习细胞,表示为:
Figure BDA0002448761790000052
由上述方法选出的学习细胞构成学习细胞集;其中,
Figure BDA0002448761790000053
为t时刻第j个微柱上第i个细胞被选为学习细胞,i为微柱上细胞的编号,j是微柱的编号,Wt为t时刻输入激活的微柱集合,/>
Figure BDA0002448761790000054
为t-1时刻的预测细胞矩阵;minj(the segment’s number of celli,j)为第j个微柱上包含最少树突分支的细胞编号;
步骤2.2,在空间池算法筛选出的被激活微柱中,使用以下规则生成活跃细胞,若被激活的微柱上有预测细胞,则该细胞被设为活跃细胞,若被激活的微柱上没有预测细胞,则微柱上所有的细胞被设为活跃细胞。
Figure BDA0002448761790000055
将上述方法选出的活跃细胞构成临时活跃细胞集;其中
Figure BDA0002448761790000056
表示t时刻第j个微柱上第i个细胞被置为活跃细胞,i为微柱上细胞的编号,j是微柱的编号,Wt为t时刻输入激活的微柱集合,/>
Figure BDA0002448761790000057
表示第j个微柱上第i个细胞为t-1时刻的预测细胞;
将活跃细胞集中非学习细胞置为非活跃状态,用于准确表达输入的当前位置信息,主要操作如下:
Figure BDA0002448761790000058
其中,At代表t时刻输入产生的活跃细胞矩阵,
Figure BDA0002448761790000059
代表t时刻输入对应的学习细胞矩阵;/>
步骤3,调整树突分支步骤中,需要调整的树突分支要么是活跃的,要么在学习细胞上新增树突分支,构建前后输入之间的关联,并将新增树突分支中突触值设为连通阈值及以上的数值,提高学习的效率;具体地,步骤3中调整树突分支的过程为:
步骤3.1,若当前处理的学习细胞是被上一时刻输入预测到的细胞,则调整该细胞上活跃的树突分支,加强与上一时刻输入之间的关联,该细胞上活跃树突分支选择条件为:
Figure BDA0002448761790000061
步骤3.2,若当前处理的学习细胞不是被上一时刻输入预测到的细胞,则在该细胞上新增树突分支,构建与上一时刻输入学习细胞之间的突触,形成与上一时刻输入之间的关联,新增树突分支表示为:
Figure BDA0002448761790000062
其中,
Figure BDA0002448761790000063
为第j个微柱中第i个细胞上所具有的第k个树突分支的连通性矩阵,activeThreshold为树突分支的活跃阈值,/>
Figure BDA0002448761790000064
是在第j个微柱中第i个细胞上新增的树突分支,CONNECTED_PERMANANCE为树突分支中突触的连通阈值;/>
Figure BDA0002448761790000065
为t-1时刻输入对应的学习细胞矩阵。
步骤4,调整活跃细胞集并进行预测,通过缩减范围的活跃细胞进行预测,能提高后续输入产生学习细胞对位置信息的区分能力,同时便于后续学习内容与当前位置的输入建立关联;该算法针对在线学习的特点,提高了HTM对序列的学习效果和效率。
基于上述方法,本发明还提出了一种面向在线学习的新型HTM时间池系统,包括空间池模块和时间池模块,所述空间池模块用于获取激活的微柱集合;所述时间池模块包括生成学习细胞集单元,所述学习细胞集单元的输入端连接空间池模块的输出端,学习细胞集单元的输出端依次连接调整树突分支单元和预测单元。
实施例2:
在本实施例中,以“abab”作为本发明在线学习的输入序列为例,首先通过空间池的学习,假设输入a会激活1、3号微柱,b会激活2、4号微柱,且每个微柱上有4个细胞,并设置树突的连通阈值为0.8。以下描述在线学习时的过程:
对于序列中第一个输入a,因为没有上下文环境,假设时间池产生该输入的学习细胞为:cell1,1和cell3,1,分别代表1号微柱的第一个细胞和3号微柱的第一个细胞,并且没有树突分支需要调整,同时将活跃细胞也重置为cell1,1和cell3,1
对于序列中第二个输入b,上一时刻的活跃细胞没有被预测到当前输入,所以激活的微柱上没有预测细胞,假设时间池产生该输入的学习细胞为:cell2,1和cell4,1,分别代表2号微柱的第一个细胞和4号微柱的第一个细胞,在这两个细胞上都新增树突分支,分别为[cell1,1=0.8,cell3,1=0.8],表明这两个细胞都建立突触连接到cell1,1和cell3,1,并且突触处于连通状态。同时将活跃细胞也重置为cell2,1和cell4,1
对于序列中第三个输入a,上一时刻的活跃细胞没有被预测到当前输入,所以激活的微柱上没有预测细胞,假设时间池产生该输入的学习细胞为:cell1,2和cell3,2,分别代表1号微柱的第二个细胞和3号微柱的第二个细胞,在这两个细胞上都新增树突分支,分别为[cell2,1=0.8,cell4,1=0.8],表明这两个细胞都建立突触连接到cell2,1和cell4,1,并且突触处于连通状态。同时将活跃细胞也重置为cell1,2和cell3,2
对于序列中第四个输入b,上一时刻的活跃细胞没有被预测到当前输入,所以激活的微柱上没有预测细胞,假设时间池产生该输入的学习细胞为:cell2,2和cell4,2,分别代表2号微柱的第二个细胞和4号微柱的第二个细胞,在这两个细胞上都新增树突分支,分别为[cell1,2=0.8,cell3,2=0.8],表明这两个细胞都建立突触到cell1,2和cell3,2,并且突触处于连通状态。同时将活跃细胞也重置为cell2,2和cell4,2
通过在线学习,HTM能够学习到“abab”序列的完整内容,但是现有的时间池学习算法只能学习到“aba”序列,第四步的学习只是加强了第一个输入与第二个输入之间的关联。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (3)

1.一种面向在线学习的新型HTM时间池方法,其特征在于,包括如下步骤:
步骤1,利用空间池算法从所有微柱中选择部分微柱进行激活,并将激活微柱对应当前的输入;
步骤2,利用输入的位置信息,在被激活微柱上生成学习细胞集和临时活跃细胞集,能够让学习过程针对当前位置的序列进行,提高HTM学习准确性,并在学习重复序列过程中,有效减少自身关联的细胞数量,降低循环预测出现的可能性,提高HTM的学习效果;
步骤3,对学习细胞上关联相邻输入的树突分支进行调整,并针对在线学习的特点,将新增树突分支中的突触值设定为连通值,使得时间池算法通过一次训练,快速形成对序列的记忆和学习,提高HTM的学习效率;
步骤4,利用调整过的活跃细胞集对下一次的输入进行预测;
若被激活微柱上的细胞被上一时刻的输入预测到,则该细胞被设为当前输入的学习细胞,表示为:
Figure FDA0004109766250000011
若被激活微柱上的细胞全都未被上一时刻的输入预测到,则随机选择该微柱上所有细胞中树突分支数量最少的细胞设为学习细胞,表示为:
Figure FDA0004109766250000012
将上述方法选出的学习细胞构成学习细胞集;其中,
Figure FDA0004109766250000013
表示t时刻第j个微柱上第i个细胞被选为学习细胞;mini(the segment’s number of celli,j)是第j个微柱上包含最少树突分支的细胞编号,Wt为t时刻输入激活的微柱集合,/>
Figure FDA0004109766250000014
表示第j个微柱上第i个细胞为t-1时刻的预测细胞;
生成临时活跃细胞集的方法为:在空间池算法筛选出的被激活微柱中,若被激活的微柱上有预测细胞,则该细胞被设为活跃细胞,若被激活的微柱上没有预测细胞,则微柱上所有的细胞被设为活跃细胞;
Figure FDA0004109766250000021
将上述方法选出的活跃细胞构成临时活跃细胞集;其中
Figure FDA0004109766250000022
表示t时刻第j个微柱上第i个细胞被置为活跃细胞,i为微柱上细胞的编号,j是微柱的编号,Wt为t时刻输入激活的微柱集合,/>
Figure FDA0004109766250000023
表示第j个微柱上第i个细胞为t-1时刻的预测细胞;
所述步骤3中调整树突分支的过程为:
若当前处理的学习细胞是被上一时刻输入预测到的细胞,则调整该细胞上活跃的树突分支,加强与上一时刻输入之间的关联,该细胞上活跃树突分支选择条件为:
Figure FDA0004109766250000024
若当前处理的学习细胞不是被上一时刻输入预测到的细胞,则在该细胞上新增树突分支,构建与上一时刻输入学习细胞之间的突触,形成与上一时刻输入之间的关联,新增树突分支表示为:
Figure FDA0004109766250000025
其中,
Figure FDA0004109766250000026
为第j个微柱中第i个细胞上所具有的第k个树突分支的连通性矩阵,At-1代表t-1时刻输入产生的活跃细胞矩阵,activeThreshold为树突分支的活跃阈值,/>
Figure FDA0004109766250000027
是在第j个微柱中第i个细胞上新增的树突分支,CONNECTED_PERMANANCE为树突分支中突触的连通阈值;/>
Figure FDA0004109766250000028
为t-1时刻输入对应的学习细胞矩阵;
通过调整活跃细胞集进行预测的过程为:
遍历HTM网络空间中的所有细胞,若细胞上存在树突分支能够被当前活跃细胞集激活,则该细胞为当前时刻的预测细胞,计算公式如下:
Figure FDA0004109766250000029
2.根据权利要求1所述的一种面向在线学习的新型HTM时间池方法,其特征在于,缩减临时活跃细胞集中活跃细胞的数量,将临时活跃细胞集中非学习细胞置为非活跃状态,用于准确表达输入的当前位置信息,主要操作如下:
Figure FDA00041097662500000210
其中,At代表t时刻输入产生的活跃细胞矩阵,
Figure FDA00041097662500000211
代表t时刻输入对应的学习细胞矩阵。
3.一种基于权利要求1-2中任意一项权利要求所述面向在线学习的新型HTM时间池系统,其特征在于,包括空间池模块和时间池模块,所述空间池模块用于获取激活的微柱集合;所述时间池模块包括生成学习细胞集单元,所述学习细胞集单元的输入端连接空间池模块的输出端,学习细胞集单元的输出端依次连接调整树突分支单元和预测单元。
CN202010286624.XA 2020-04-13 2020-04-13 一种面向在线学习的新型htm时间池方法及其系统 Active CN111612125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010286624.XA CN111612125B (zh) 2020-04-13 2020-04-13 一种面向在线学习的新型htm时间池方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010286624.XA CN111612125B (zh) 2020-04-13 2020-04-13 一种面向在线学习的新型htm时间池方法及其系统

Publications (2)

Publication Number Publication Date
CN111612125A CN111612125A (zh) 2020-09-01
CN111612125B true CN111612125B (zh) 2023-06-13

Family

ID=72197733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010286624.XA Active CN111612125B (zh) 2020-04-13 2020-04-13 一种面向在线学习的新型htm时间池方法及其系统

Country Status (1)

Country Link
CN (1) CN111612125B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200314A (zh) * 2020-09-30 2021-01-08 江苏大学 一种基于微柱自荐的htm空间池快速训练方法及系统
CN112330361A (zh) * 2020-11-04 2021-02-05 江苏瑞祥科技集团有限公司 面向线上购物用户消费习惯的智能大数据分析设计方法
CN112330362A (zh) * 2020-11-04 2021-02-05 江苏瑞祥科技集团有限公司 用于互联网商城用户行为习惯的快速数据智能分析方法
CN112580799B (zh) * 2020-12-10 2024-04-09 江苏大学 一种面向多核处理器的并发htm空间池设计方法
CN114386602B (zh) * 2022-01-13 2024-02-20 江苏瑞祥科技集团有限公司 一种面向多路服务器负载数据的htm预测分析方法
CN114386601A (zh) * 2022-01-13 2022-04-22 江苏瑞祥科技集团有限公司 一种面向服务器负载数据的htm高效异常检测方法
CN114387030B (zh) * 2022-01-13 2024-03-15 瑞祥全球购超市有限公司 一种面向网络购物平台的在线用户量的智能分析方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109346185B (zh) * 2018-09-19 2022-03-04 北京科技大学 一种中医辅助诊断系统
CN109657036B (zh) * 2018-11-12 2021-02-02 中国科学院自动化研究所 基于类脑语义层次时序记忆推理模型的问答方法、系统
CN110231811B (zh) * 2019-06-19 2020-07-28 华北理工大学 基于层级实时记忆算法的连铸下渣智能预报系统

Also Published As

Publication number Publication date
CN111612125A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
CN111612125B (zh) 一种面向在线学习的新型htm时间池方法及其系统
CN106355192A (zh) 一种基于混沌灰狼优化的支持向量机方法
CN110473592B (zh) 一种多视角人类协同致死基因预测方法
CN111967343A (zh) 基于简单神经网络和极端梯度提升模型融合的检测方法
CN111416797B (zh) 改进天牛群算法优化正则化极限学习机的入侵检测方法
CN105488528A (zh) 基于改进自适应遗传算法的神经网络图像分类方法
CN106875004A (zh) 复合模式神经元信息处理方法和系统
Zhu et al. Cuckoo search algorithm with onlooker bee search for modeling PEMFCs using T2FNN
CN106855957A (zh) 基于相似日和最小二乘支持向量机的工厂母线负荷预测
CN104636801A (zh) 一种基于优化bp神经网络的预测输电线路可听噪声方法
CN104636985A (zh) 一种改进bp神经网络的输电线路无线电干扰预测方法
CN114970362B (zh) 一种多能源结构下的电网负荷调度预测方法及系统
CN109284860A (zh) 一种基于正交反向樽海鞘优化算法的预测方法
CN113094822A (zh) 一种机械设备剩余寿命预测方法和系统
CN111488946A (zh) 基于信息融合的雷达伺服系统故障诊断方法
CN109299776A (zh) 一种核增量型超限学习机、差分多种群灰狼混合优化方法
CN112215279A (zh) 一种基于免疫rbf神经网络的电网故障诊断方法
Chen et al. A Survey of Learning Spiking Neural P Systems and A Novel Instance.
CN108171322A (zh) 一种基于粒子群优化的神经网络学习算法
CN112069723A (zh) 一种用于评估电力系统暂态稳定的方法及系统
CN107273971B (zh) 基于神经元显著性的前馈神经网络结构自组织方法
CN109459609B (zh) 一种基于人工神经网络的分布式电源频率检测方法
US20210042621A1 (en) Method for operation of network model and related product
CN115293249A (zh) 一种基于动态时序预测的电力系统典型场景概率预测方法
CN115130620A (zh) 一种电力设备用电模式识别模型生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant