CN112633360B - 一种基于大脑皮层学习模式的分类方法 - Google Patents
一种基于大脑皮层学习模式的分类方法 Download PDFInfo
- Publication number
- CN112633360B CN112633360B CN202011509732.5A CN202011509732A CN112633360B CN 112633360 B CN112633360 B CN 112633360B CN 202011509732 A CN202011509732 A CN 202011509732A CN 112633360 B CN112633360 B CN 112633360B
- Authority
- CN
- China
- Prior art keywords
- nmn
- classification
- model
- data
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 210000003710 cerebral cortex Anatomy 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 56
- 210000005036 nerve Anatomy 0.000 claims abstract description 26
- 230000015654 memory Effects 0.000 claims description 14
- 230000001054 cortical effect Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 abstract description 40
- 238000003066 decision tree Methods 0.000 description 9
- 238000007637 random forest analysis Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 239000003016 pheromone Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 244000166124 Eucalyptus globulus Species 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000478 neocortex Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于大脑皮层学习模式的分类方法,包括以下:首先判断训练样本集是否为连续型数据样本,如果是则对训练样本集进行数据离散化处理,然后利用训练样本集构建NMN模型,接着利用投票法训练NMN模型,为NMN模型中的神经节点之间的连线赋权值,获得NMN分类器,最后将待分类的样本数据输入NMN分类器,获得分类结果。本发明不仅简化了现有算法模型算法思想,还解决了算法模型需要大量训练集进行训练的问题,且本方法在小数据集和离散型数据集上的分类精度有很好的表现。
Description
技术领域
本发明涉及模式识别、数据分类领域,尤其涉及一种基于大脑皮层学习模式的分类方法。
背景技术
目前,模拟大脑皮层运行模式的算法主要有Numenta公司提出的HTM算法和Facebook公司提出的记忆网络(Memory Network)算法,这两种算法广泛用于各个领域。HTM设计了一个分层的记忆系统,旨在模拟新大脑皮层的工作原理,将复杂的问题转化为模式匹配与预测,它的分层结构中每一层象征真实的大脑新皮层的一个细胞层,其本质可以认为是一个记忆的储存和回放系统。记忆网络是由Facebook公司提出的一种算法模型,它将记忆网络模型抽象成一种网路模型框架。记忆网络模型框架主要分为四个组件:I(Input)、G(generalization)、O(output)、R(response)。I负责将用于将输入转化为网络里内在的向量;G负责根据输入更新记忆单元,直接写入新的记忆单元,对老的记忆单元不做修改;O负责从记忆里结合输入,把合适的记忆抽取出来,返回一个向量。每次获得一个向量,代表了一次推理过程;R则将输出转化为自然语言,把向量转化回所需的格式,比如文字等等。
但是这两种算法都有缺点,这两种算法模型复杂难以理解且需要大量的训练样本进行训练才可以使模型达到最优。当面对小数据集样本时,算法模型训练较为耗时,且分类精度无法达到最优。
发明内容
为了解决现有技术的不足,本发明依据大脑皮层运作的模式结合神经网络和蚁群算法的信息素思想,提供了一种基于大脑皮层学习模式的分类方法,不仅简化了现有算法模型算法思想,还解决了算法模型需要大量训练集进行训练的问题,且本方法在小数据集和离散型数据集上的分类精度有很好的表现。
本发明提出的一种基于大脑皮层学习模式的分类方法,具体包括以下:
S101:判断训练样本集是否为连续型数据样,若是则将训练样本集离散化处理,进入步骤S102;否则,直接进入步骤S102;
S102:利用离散化后的训练样本集构建简单记忆网络NMN模型;
S103:利用投票法训练所述NMN模型,得到训练好的NMN模型,即NMN分类器;
S104:将待分类数据输入至所述NMN分类器,获得数据分类结果。
进一步地,步骤S102具体为:
S201:将训练样本集D={r1,r2,r3,...,ri,...,rp}中任意一个训练样本ri分别用n个原始属性组成的向量表示,即ri=<t1,t2,...,tj,...,tn>,其中的每个原始属性tj从该原始属性所对应的属性值集合Xj中取值;属性值集合Xj中具有sj种取值,i∈[1,p],j∈[1,n],p为训练样本总数,n为训练样本对应的原始属性总数;任意一个训练样本ri对应分类结果集合C={C1,C2,C3,...,Cq,...,Cm}中的一个分类结果;
S202:初始化NMN模型;在NMN模型中设置n列神经节点,其中第j列神经节点从上至下依次表示n个原始属性中第j个联合属性的各个取值,为每相邻两列的神经节点之间的连线分别设m个初始值为0的权值,其中第j列第u个神经节点与第j+1列第v个神经节点之间的第q个权值用表示,并且该第q个权值与分类结果集合C中的分类结果Cq一一对应,q∈[0,m-1],u∈[1,sj],v∈[1,sj+1]。
进一步地,步骤S103具体如下:
利用投票法训练NMN模型,为NMN模型中神经节点之间的连线赋予权值:
S301:对于一个训练样本ri其分类结果为Cq;
S302:根据训练样本ri原始属性值在NMN模型中找出其原始属性值对应的路径,将路径中连线上的权值分别累加1;
S303:采用步骤S301~S302的方法遍历所述训练样本集D,直至完成所有神经节点之间的权值赋予。
步骤S104具体为:
根据样本数据的原始属性值在NMN模型中找出其原始属性值对应的路径,分别计算分类结果集合中各个分类结果所对应的权值的总和,取其中总和最大的权值所对应的分类结果,即为待分类的样本数据的分类结果。
一种存储设备,所述存储设备存储指令及数据用于实现一种基于大脑皮层学习模式的分类方法。
一种基于大脑皮层学习模式的分类设备,包括:处理器及存储设备;所述处理器加载并执行存储设备中的指令及数据用于实现一种基于大脑皮层学习模式的分类方法。
本发明提供的有益效果是:
(1)本发明提供的一种基于大脑皮层学习模式的分类方法,每个节点和节点之间都会有连接关系,故而NMN模型中每个节点都会最后的分类结果产生影响,最后的结果都划分到连接权值之中,每个属性和每个属性之间的连接对最后的分类结果都有影响;
(2)本发明提供的一种基于大脑皮层学习模式的分类方法简单高效,通过模拟大脑皮层学习模式并结合神经网络和蚁群算法“信息素”核心思想,构建出一种混合的算法模型。它改善了传统大脑皮层算法复杂度高、算法难以理解且算法模型达到最优需要大量数据集训练的问题,并在小数据集和离散数据集场景上拥有优秀的分类性能。
附图说明
图1是本发明一种基于大脑皮层学习模式的分类方法的流程图;
图2是本发明实施例中路径权值赋予示意图;
图3是本发明是实施例分类结果示意图;
图4是本发明硬件设备工作示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。
请参考图1,一种基于大脑皮层学习模式的分类方法,包括以下:
S101:判断训练样本集是否为连续型数据样,若是则将训练样本集离散化处理,进入步骤S102;否则,直接进入步骤S102;
S102:利用离散化后的训练样本集构建简单记忆网络NMN模型,具体为:
S201:将训练样本集D={r1,r2,r3,...,ri,...,rp}中任意一个训练样本ri分别用n个原始属性组成的向量表示,即ri=<t1,t2,...,tj,...,tn>,其中的每个原始属性tj从该原始属性所对应的属性值集合Xj中取值;属性值集合Xj中具有sj种取值,i∈[1,p],j∈[1,n],p为训练样本总数,n为训练样本对应的原始属性总数;任意一个训练样本ri对应分类结果集合C={C1,C2,C3,...,Cq,...,Cm}中的一个分类结果;
S202:初始化NMN模型;在NMN模型中设置n列神经节点,其中第j列神经节点从上至下依次表示n个原始属性中第j个联合属性的各个取值,为每相邻两列的神经节点之间的连线分别设m个初始值为0的权值,其中第j列第u个神经节点与第j+1列第v个神经节点之间的第q个权值用表示,并且该第q个权值与分类结果集合C中的分类结果Cq一一对应,q∈[0,m-1],u∈[1,sj],v∈[1,sj+1]。
S103:利用投票法训练所述NMN模型,得到训练好的NMN模型,即NMN分类器;
利用投票法训练NMN模型,为NMN模型中神经节点之间的连线赋予权值:
S301:对于一个训练样本ri其分类结果为Cq;
S302:根据训练样本ri原始属性值在NMN模型中找出其原始属性值对应的路径,将路径中连线上的权值分别累加1;
S303:采用步骤S301~S302的方法遍历所述训练样本集D,直至完成所有神经节点之间的权值赋予。
S104:将待分类数据输入至所述NMN分类器,获得数据分类结果。
根据样本数据的原始属性值在NMN模型中找出其原始属性值对应的路径,分别计算分类结果集合中各个分类结果所对应的权值的总和,取其中总和最大的权值所对应的分类结果,即为待分类的样本数据的分类结果。
步骤S104中,采用十字交叉验证方法对待分类的样本数据进行分类,统计各个分类概率,并对分类概率进行归一化处理,输出最终的分类结果。
下面结合具体实施例对本发明的处理过程进行说明:
给定预测是否PlayTennis的训练样本集:
表1预测是否PlayTennis的训练样本
其中Day(天数)表示每一条训练样本的序号,每一天的数据由原始属性Outlook(天气)、Temperature(温度)、Humidity(湿度)和Wind(风力)来描述,其中原始属性Outlook的属性值集合中包括以下属性值:Sunny(晴)、Overcast(阴)和Rain(雨),原始属性Temperature的属性值集合包括以下属性值:Hot(热)、Mild(温和)和Cool(冷),原始属性Humidity的属性值集合包括以下属性值:Weak(弱)和Strong(强),分类结果集合为PlayTennis(是否打球),其中Yes(是)和No(否)为分类属性。
根据该训练样本,构建的NMN模型如图2所示,其中,上方的标注代表四个原始属性的名称Outlook、Temperature、Humanity、Wind,下方的神经节点代表着每个原始属性的属性值,相邻列神经节点之间的连线代表他们之间的连接关系,而连接线上的数字代表着连接权值。如上述样本的分类属性只有Yes和No两种,所以权值取值范围为0≤q≤1,代表分类结果No,/>代表分类结果Yes。
以Sunny和Hot之间的权值w0(Sunny,Hot)和w1(Sunny,Hot)的赋值过程为例:遍历第一天数据时,分类结果为No,途径的路径Sunny到Hot之间的权值w0(Sunny,Hot)由0累加到1;遍历第二天数据时,分类结果仍为No,途径的路径Sunny到Hot之间的权值w0(Sunny,Hot)由1累加到2。遍历完毕后各个路径上的权值如图2所示,至此,则完成分类器的训练。
待分类的样本数据进入分类器后,依次从i=0开始对第i个原始属性和第i+1个原始属性分别计算分类结果。以样本数据<sunny,hot,normal,weak>为例,输入至分类器后,首先计算Outlook属性和Temperature属性的分类结果,sunny与hot之间的权值w0(Sunny,Hot)为2、w1(Sunny,Hot)为1,w0(Sunny,Hot)权值代表的是分类结果No,w1(Sunny,Hot)代表的是分类结果Yes,可以判断出W0大于W1,所以将结果分类为No。将结果存储起来,并继续计算下一个属性连接,直到全部计算完成。参照图3可知,分类结果No获得的票数更多,因此该样本数据的分类结果应为No。
下面就现有的分类方法与本发明进行比较实验,以证明本发明提供的一种基于大脑皮层学习模式的分类方法的有益效果:
贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由JudeaPear首先提出。它是一种模拟人类推理过程中因果关系的不确定性处理模型,其网络拓朴结构是一个有向无环图(DAG)。贝叶斯网络对待预测样本进行预测,过程简单速度快,对于多分类问题也同样很有效,复杂度也不会有大程度上升。对于类别类的输入特征变量,效果非常好。
朴素贝叶斯(Naive Bayes),它是基于贝叶斯概率的思想,假设属性之间相互独立,求得各特征的概率,最后取较大的一个作为预测结果。虽然这个简化方式在一定程度上降低了贝叶斯分类算法的分类效果,但是在实际的应用场景中,极大地简化了贝叶斯方法的复杂性。简而言之,朴素贝叶斯是较为简单和高效的一种分类器。
J48决策树,又称C45决策树,C45决策树算法是ID3决策树算的一个改进算法。C45继承了ID3算法的优点,同时增加了ID3算法不具备的优点。C45决策树算法引入了信息增益的概念,用它来衡量测试属性选择的先后顺序,采用分而治之的思想来构建决策树。C45算法是基于ID3算法基础上的改进,能够解决连续值属性的问题,也能适当避免偏向选择属性值较多的属性,且C45的产生的分类规则易于理解,准确率较高,是一种简单且高效的分类器模型。
随机森林(RandomForest),该算法结合了Bagging方法和随机子空间算法的思想,首先通过自助采样获取数据子集来构建多棵不剪枝且相互独立的决策树,然后组合这些决策树得到RF模型。Beriman通过实验证明了RF算法能够比较好地克服过拟合问题,且在分类和回归问题上都能取得较好的效果。
OneR算法(全名为One Rule,又称1-R),是1993出现的一种极为简单的分类算法模型,它可以产生一个单层的决策树。OneR算法的使用非常广泛,可以简单的得到一个对数据的概括性了解,有时候甚至可以直接获得结果。OneR算法是一个简单、廉价的方法,但是常常能够获得一个非常好的结果,常常用于描述数据中的结构。
为了验证本发明提出的基于大脑皮层学习模式的分类方法的有效性,实验比较了NMN、BayesNet、NaiveBayes、J48、RandomForest以及J48的分类性能。
在实验中,16个广泛使用的分类标准数据集被测试,其中连续型数据样本8个,离散型数据样本8个。
表2实验中使用的数据集
这些数据集来自不同领域并且代表不同的数据特征。表2详细描述了这16个数据集的主要特征,具体的数据可从权威数据库UCI上下载。
表3显示了各方法在每个数据集上通过10次10折交叉验证方法得到的分类精度,表的底部列出了平均分类精度和Win/Tie/Lose(W/T/L,赢/平/输)值。在所有数据集上的算术平均值提供了一个关于相对性能的整体概述,W/T/L值表示与本发明提出的基于大脑皮层学习模式的分类方法相比,现有方法赢了W个数据集,平了T个数据集,输了L个数据集。
表3NMN、BayesNet、NaiveBayes、J48、RandomForest以及OneR的分类精度比较结果
表4和表5则是按照上面的标准,分别给出算法在离散型数据集下和连续型数据集下的分类精度表现。
表4在离散型数据样本下NMN、BayesNet、NaiveBayes、J48、RandomForest以及OneR的分类精度比较结果
表5在连续型数据样本下NMN、BayesNet、NaiveBayes、J48、RandomForest以及OneR的分类精度比较结果
数据集 | NMN | BN | NB | J48 | RF | OneR |
squash-stored | 67.3077% | 61.5385% | 61.5385% | 65.3846% | 57.6923% | 46.1538% |
ILPD | 71.8696% | 67.2384% | 55.7461% | 68.7822% | 72.2127% | 65.6947% |
avila | 98.907% | 98.7344% | 22.9338% | 97.9674% | 99.2809% | 98.3221% |
eucalyptus | 58.0163% | 54.8913% | 55.5707% | 63.8587% | 53.3967% | 57.7446% |
clean | 83.4034% | 82.3529% | 75.2101% | 84.8739% | 86.1345% | 63.0252% |
AutoUnv | 21.7333% | 22.1333% | 20.4% | 19.3333% | 19.8667% | 23.7333% |
hungarian | 81.2925% | 85.034% | 83.6735% | 80.9524% | 78.2313% | 78.5714% |
labor | 87.7193% | 87.7193% | 89.4737% | 73.6842% | 87.7193% | 78.4386% |
Average | 71.2811% | 69.9553% | 58.0683% | 69.3546% | 69.3168% | 63.9605% |
W/T/L | - | 2/1/5 | 2/0/6 | 2/0/6 | 3/1/4 | 1/0/7 |
从这些实验结果可以看出,本发明提供的基于大脑皮层学习模式的分类方法(NMN)的分类精度平均值是超过其他的五种经典算法的,且NMN算法在小数据集样本和离散型数据样本下表现的更加优秀,分类性能好于其他的五种经典算法。实验结果的亮点总结如下:
(1)相比于BayesNet、NaiveBayes、J48、RandomForest、OneR,NMN在13个数据集上算法的分类精度优于它们,其中:与BayesNet相比(13赢1输),与NaiveBayes(12赢3输),与J48相比(12赢2输),与RandomForest相比(11赢4输)和与OneR相比(12赢1输)。另外,NMN的平均分类精度(79.6876%)也明显高于其他五种算法,其中它们的平均分类精度分别为:BayesNet的平均分类精度(77.2893%)、NaiveBayes的平均分类精度(71.763%)、J48的平均分类精度(77.4127%)、RandomForest的平均分类精度(77.0127%)、OneR的平均分类精度(72.0701%)。
(2)在小数据样本和离散型数据样本下,NMN的分类精度有更好的表现。实验分类对上述16个数据集中8个离散型样本和8个连续型数据样本进行分别比较。在离散型数据样本下,NMN与其他五种经典分类算法相比结果为:与BayesNet比较(7赢0输)、与NaiveBayes相比(6赢1输)、与J48相比(6赢0输)、与RandomForest相比(7赢1输)、与OneR相比(5赢0输)。在连续型样本下,NMN与其他五种经典算法相比结果为:与BayesNet比较(5赢2输)、与NaiveBayes相比(6赢2输)、与J48相比(6赢2输)、与RandomForest相比(4赢3输)、与OneR相比(7赢1输)。通过观察可知,NMN在小样本数据和离散型样本下,算法的分类精度有更好的表现。
本发明在小样本数据和离散型样本数据的分类效果上,具有较高的分类精度,具体可以应用的领域还有人脸识别、金融评估、植物鉴别等。
请参见图4,图4是本发明实施例的硬件设备工作示意图,所述硬件设备具体包括:一种基于大脑皮层学习模式的分类设备401、处理器402及存储设备403。
一种基于大脑皮层学习模式的分类设备401:所述一种基于大脑皮层学习模式的分类设备401实现所述一种A方法。
处理器402:所述处理器402加载并执行所述存储设备403中的指令及数据用于实现所述一种基于大脑皮层学习模式的分类方法。
存储设备403:所述存储设备403存储指令及数据;所述存储设备403用于实现所述一种基于大脑皮层学习模式的分类方法。
本发明提供的有益效果是:
(1)本发明提供的一种基于大脑皮层学习模式的分类方法,每个节点和节点之间都会有连接关系,故而NMN模型中每个节点都会最后的分类结果产生影响,最后的结果都划分到连接权值之中,每个属性和每个属性之间的连接对最后的分类结果都有影响;
(2)本发明提供的一种基于大脑皮层学习模式的分类方法简单高效,通过模拟大脑皮层学习模式并结合神经网络和蚁群算法“信息素”核心思想,构建出一种混合的算法模型。它改善了传统大脑皮层算法复杂度高、算法难以理解且算法模型达到最优需要大量数据集训练的问题,并在小数据集和离散数据集场景上拥有优秀的分类性能。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于大脑皮层学习模式的分类方法,其特征在于:具体包括以下步骤:
S101:判断训练样本集是否为连续型数据样,若是则将训练样本集离散化处理,进入步骤S102;否则,直接进入步骤S102;所述训练样本集为小样本数据和离散型样本数据集,具体包括:人脸识别数据集;
S102:利用离散化后的训练样本集构建简单记忆网络NMN模型;
S103:利用投票法训练所述NMN模型,得到训练好的NMN模型,即NMN分类器;
S104:将待分类数据输入至所述NMN分类器,获得数据分类结果;
步骤S102具体为:
S201:将训练样本集D={r1,r2,r3,...,ri,...,rp}中任意一个训练样本ri分别用n个原始属性组成的向量表示,即ri=<t1,t2,...,tj,...,tn>,其中的每个原始属性tj从该原始属性所对应的属性值集合Xj中取值;属性值集合Xj中具有sj种取值,i∈[1,p],j∈[1,n],p为训练样本总数,n为训练样本对应的原始属性总数;任意一个训练样本ri对应分类结果集合C={C1,C2,C3,...,Cq,...,Cm}中的一个分类结果;
S202:初始化NMN模型;在NMN模型中设置n列神经节点,其中第j列神经节点从上至下依次表示n个原始属性中第j个联合属性的各个取值,为每相邻两列的神经节点之间的连线分别设m个初始值为0的权值,其中第j列第u个神经节点与第j+1列第v个神经节点之间的第q个权值用表示,并且该第q个权值与分类结果集合C中的分类结果Cq一一对应,q∈[0,m-1],u∈[1,sj],v∈[1,sj+1];
步骤S103具体如下:
利用投票法训练NMN模型,为NMN模型中神经节点之间的连线赋予权值:
S301:对于一个训练样本ri其分类结果为Cq;
S302:根据训练样本ri原始属性值在NMN模型中找出其原始属性值对应的路径,将路径中连线上的权值分别累加1;
S303:采用步骤S301~S302的方法遍历所述训练样本集D,直至完成所有神经节点之间的权值赋予;
步骤S104具体为:
根据样本数据的原始属性值在NMN模型中找出其原始属性值对应的路径,分别计算分类结果集合中各个分类结果所对应的权值的总和,取其中总和最大的权值所对应的分类结果,即为待分类的样本数据的分类结果。
2.一种存储设备,其特征在于:所述存储设备存储指令及数据用于实现权利要求1所述的一种基于大脑皮层学习模式的分类方法。
3.一种基于大脑皮层学习模式的分类设备,其特征在于:包括:处理器及存储设备;所述处理器加载并执行存储设备中的指令及数据用于实现权利要求1所述的一种基于大脑皮层学习模式的分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011509732.5A CN112633360B (zh) | 2020-12-18 | 2020-12-18 | 一种基于大脑皮层学习模式的分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011509732.5A CN112633360B (zh) | 2020-12-18 | 2020-12-18 | 一种基于大脑皮层学习模式的分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112633360A CN112633360A (zh) | 2021-04-09 |
CN112633360B true CN112633360B (zh) | 2024-04-05 |
Family
ID=75317478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011509732.5A Active CN112633360B (zh) | 2020-12-18 | 2020-12-18 | 一种基于大脑皮层学习模式的分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633360B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122790A (zh) * | 2017-03-15 | 2017-09-01 | 华北电力大学 | 基于混合神经网络和集成学习的非侵入式负荷识别算法 |
CN107590269A (zh) * | 2017-09-25 | 2018-01-16 | 中国地质大学(武汉) | 一种数据仓库中创建立方模型的方法、设备及存储设备 |
CN107679584A (zh) * | 2017-10-27 | 2018-02-09 | 锐捷网络股份有限公司 | 基于集成资源分配网络ran的数据分类方法及系统 |
WO2018141942A1 (en) * | 2017-02-03 | 2018-08-09 | Koninklijke Philips N.V. | Classifier training |
CN109166099A (zh) * | 2018-07-19 | 2019-01-08 | 北京交通大学 | 基于视觉联想机制的钢轨缺陷测量方法 |
CN109829543A (zh) * | 2019-01-31 | 2019-05-31 | 中国科学院空间应用工程与技术中心 | 一种基于集成学习的数据流在线异常检测方法 |
CN111368076A (zh) * | 2020-02-27 | 2020-07-03 | 中国地质大学(武汉) | 一种基于随机森林的伯努利朴素贝叶斯文本分类方法 |
CN112043260A (zh) * | 2020-09-16 | 2020-12-08 | 杭州师范大学 | 基于局部模式变换的心电图分类方法 |
-
2020
- 2020-12-18 CN CN202011509732.5A patent/CN112633360B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018141942A1 (en) * | 2017-02-03 | 2018-08-09 | Koninklijke Philips N.V. | Classifier training |
CN107122790A (zh) * | 2017-03-15 | 2017-09-01 | 华北电力大学 | 基于混合神经网络和集成学习的非侵入式负荷识别算法 |
CN107590269A (zh) * | 2017-09-25 | 2018-01-16 | 中国地质大学(武汉) | 一种数据仓库中创建立方模型的方法、设备及存储设备 |
CN107679584A (zh) * | 2017-10-27 | 2018-02-09 | 锐捷网络股份有限公司 | 基于集成资源分配网络ran的数据分类方法及系统 |
CN109166099A (zh) * | 2018-07-19 | 2019-01-08 | 北京交通大学 | 基于视觉联想机制的钢轨缺陷测量方法 |
CN109829543A (zh) * | 2019-01-31 | 2019-05-31 | 中国科学院空间应用工程与技术中心 | 一种基于集成学习的数据流在线异常检测方法 |
CN111368076A (zh) * | 2020-02-27 | 2020-07-03 | 中国地质大学(武汉) | 一种基于随机森林的伯努利朴素贝叶斯文本分类方法 |
CN112043260A (zh) * | 2020-09-16 | 2020-12-08 | 杭州师范大学 | 基于局部模式变换的心电图分类方法 |
Non-Patent Citations (4)
Title |
---|
Comparative Study of Classification Algorithms for Cloud IDS using NSL-KDD Dataset in WEKA;Bin Hu 等;《IWCMC》;20200727;全文 * |
Ensemble deep learning for automated visual classification using EEG signals;Xiao Zheng 等;《Pattern Recognition》;20200226;第102卷;全文 * |
Notice of Retraction: An experimental study of messy genetic algorithm on HIFF problem;Luwei Ding 等;《2010 3rd International Conference on Computer Science and Information Technology》;20200907;全文 * |
融合句法依存树注意力的关系抽取研究;张翠 等;《广东通信技术》;20201015;第40卷(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112633360A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Marwala | Computational Intelligence for Missing Data Imputation, Estimation, and Management: Knowledge Optimization Techniques: Knowledge Optimization Techniques | |
US11645541B2 (en) | Machine learning model interpretation | |
CN108231201B (zh) | 一种疾病数据分析处理模型的构建方法、系统及应用方法 | |
CN111860982A (zh) | 一种基于vmd-fcm-gru的风电场短期风电功率预测方法 | |
CN109242223B (zh) | 城市公共建筑火灾风险的量子支持向量机评估与预测方法 | |
Karim et al. | Random satisfiability: A higher-order logical approach in discrete Hopfield Neural Network | |
Rahman et al. | Discretization of continuous attributes through low frequency numerical values and attribute interdependency | |
Ahmadi et al. | Learning fuzzy cognitive maps using imperialist competitive algorithm | |
CN113190688A (zh) | 基于逻辑推理和图卷积的复杂网络链接预测方法及系统 | |
Shan et al. | The data-driven fuzzy cognitive map model and its application to prediction of time series | |
Qiao et al. | Identification of fuzzy neural networks by forward recursive input-output clustering and accurate similarity analysis | |
Adeyemo et al. | Effects of normalization techniques on logistic regression in data science | |
de Campos Souza et al. | Method of pruning the hidden layer of the extreme learning machine based on correlation coefficient | |
Lu et al. | The linguistic forecasting of time series based on fuzzy cognitive maps | |
CN112633360B (zh) | 一种基于大脑皮层学习模式的分类方法 | |
Kocabey Çiftçi et al. | A multi-stage learning-based fuzzy cognitive maps for tobacco use | |
CN116523001A (zh) | 电网薄弱线路识别模型构建方法、装置和计算机设备 | |
Safi et al. | A neural network approach for predicting forest fires | |
Christodoulou et al. | Improving the performance of classification models with fuzzy cognitive maps | |
Tay et al. | A monotonicity index for the monotone fuzzy modeling problem | |
Gorbachev et al. | A synergistic effect in the measurement of neuro-fuzzy system | |
Li et al. | A new random forest method based on belief decision trees and its application in intention estimation | |
Pradana et al. | Comparison of Multi Layer Perceptron, Random Forest & Logistic Regression on Students Performance Test | |
Arumugam et al. | Performance evaluation of machine learning and deep learning techniques: a comparative analysis for house price prediction | |
Benala1 et al. | SEET: Software development effort estimation using ensemble techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |