CN101826166B - 一种新的神经网络模式识别方法 - Google Patents

一种新的神经网络模式识别方法 Download PDF

Info

Publication number
CN101826166B
CN101826166B CN 201010157190 CN201010157190A CN101826166B CN 101826166 B CN101826166 B CN 101826166B CN 201010157190 CN201010157190 CN 201010157190 CN 201010157190 A CN201010157190 A CN 201010157190A CN 101826166 B CN101826166 B CN 101826166B
Authority
CN
China
Prior art keywords
sample
training sample
neuron
communicated
things
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201010157190
Other languages
English (en)
Other versions
CN101826166A (zh
Inventor
杨国为
禹东川
余俊
庄晓东
杨阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University
Original Assignee
Qingdao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University filed Critical Qingdao University
Priority to CN 201010157190 priority Critical patent/CN101826166B/zh
Publication of CN101826166A publication Critical patent/CN101826166A/zh
Application granted granted Critical
Publication of CN101826166B publication Critical patent/CN101826166B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开一种新神经网络模式识别方法,包括学习步骤与识别步骤,在上述步骤中,建立训练样本集,将训练样本集中训练样本划分成若干块,建立学习前向掩蔽SLAM模型,利用模型中的RBF神经元获取各块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本子集,对训练样本子集进行优先度排序,并将学成神经元按学成先后顺序排列,建立起训练好的基于同源的同类事物连通本性的PORBF网络;将测试样本输入至PORBF网络中,检测每一个RBF神经元的输出,找出序号最小且为激活输出的神经元,将该神经元的类别作为网络的判决输出。本发明的正确识别率更高,而且适合解决大规模超多类模式识别问题。

Description

一种新的神经网络模式识别方法
技术领域
本发明属于计算机技术领域,其提供一种基于同源的同类事物连通本性的新神经网络模式识别方法。
背景技术
模式识别方法的研究已有数十年的历史,取得了许多成果。例如,Fisher提出利用已知的两类样本的概率密度分布函数来设计将两类样本分开的决策方法;Vapnik提出类“最优分类超平面”的概念,并在此基础上发展了支撑向量机(SVM)的方法。这些理论和方法都是建立在统计理论的基础来寻找能够将两类样本划分开来的决策规则,在这些理论中,模式识别实际上就是模式分类。大家知道,随着模式识别的发展很多模式分类的正确识别率越来越高,然而这些正确识别率似乎有一个极限,很难突破。一般地,解决大规模超多类模式识别问题的方法要有增量学习功能,以利于在原有学习结果基础上继续学习、在原有模型基础上不断改进模型的效能,提高模式识别模型的正确识别率和泛化推广能力。大规模超多类模式识别问题有很高的空间复杂度和时间复杂度,传统的Fisher法、线性分类法、分段线性分类法、近邻法、BP神经网络分类方法、RBF网络分类方法、SVM分类方法都不直接适用于大规模超多类模式识别器的设计。
发明内容
本发明的任务在于解决现有技术存在的上述技术缺陷,提供一种基于对同源的同类事物连通本性的认知、能够利用同源的同类事物连通本性的新神经网络模式识别方法。
其技术解决方案是:
一种新神经网络模式识别方法,包括如下步骤:
(1)学习步骤,建立有限样本集,设定在有限样本集中同类事物中任意两相互直接连通样本之间的距离小于或等于δ,而不同类两事物样本之间的距离大于2δ,0<δ≤0.1,将有限样本集中训练样本划分成若干块,建立学习前向掩蔽SLAM模型,利用模型中的RBF神经元获取各块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本子集,对训练样本子集进行优先度排序,将按照包含同类训练样本由多至少的规则按先后次序选取划分出的神经元作为神经网络的学成神经元,并将先学成的学成神经元与后学成的学成神经元按从小到大顺序排列,建立起训练好的基于同源的同类事物连通本性的PORBF网络;
(2)识别步骤,将测试样本输入至上述PORBF网络中,检测每一个RBF神经元的输出,找出序号最小且为激活输出的神经元,将该神经元的类别作为网络的判决输出。
在上述学习步骤中:
有限样本集表示为{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},其中h是训练样本总数,j,…,l是至多n个至少1个自然数的升序排列,n是样本空间的维数,设定同类事物中任意两相互直接连通样本Xi,Xj的距离小于或等于δ;在设定||Xi||=||Xi,j,…,l||≤1的前提下,确定{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}的主分量W={w1,w2,…,wn},||W||=1,把{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中点向量分别代入WX=(w1,w3,…,wn)(x1,x2,…,xn)=w1x1+w2x2+…+wnxn计算WX的h个值,并按降序排列,插入m个数,即θ1,…,θm,且θ1>θ2>…>θm;定义块为field1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1,建立上述SLAM模型,把特征空间划分为fisld1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1不同块,其中模型设置有m个神经元,神经元的运算式为sign(WX-θi),θi为神经元域值,其中类别标示就取为块标示fieldi;获取第k块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本集合,即T(field1)=({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}));及
T(fieldk)=({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}))∪({X|X到平面θk-1=WX的距离小于δ}∩T(fieldk-1)),k=2,…,m-1,以T(fieldk)作为训练样本子集,对其进行优先度排序,即:1)选取一个RBF神经元的中心cj,并标记该神经元的所属类别lj,如果中心来自于样本矢量,则类别lj就是该样本的所属类别;2)将训练样本子集中的矢量依次通过输入节点送往该神经元计算与中心cj的距离,将计算结果按升序排列,排序后将样本序列的编号记为Oi(i=0,1,…,n-1);3)从小到大找到与中心cj距离最近的异类样本,假设它在Oi中的位置为d,则计算Od和Od-1之间的某点到中心cj的距离作为当前神经元的半径rj
r j = ( 1 - α ) | | X O d - 1 - c j | | + α | | X O d - c j | |
其中,0<α≤1,记录该神经元划分出的同类样本的编号Oi(i=0,1,…,d-1)、半径rj和数量,划分出边界距离小于δ的训练样本;4)重复进行上述第1)步到第3)步不少于3次,选取划分出同类训练样本最多的那个神经元作为神经网络的学成神经元;5)检查被划分出的训练样本是否还有与其直接连通的其他训练样本在没有被划分出的训练样本子集中,以及检查被划分出的训练样本是否有到边界{X|rj=||X-cj||}的距离小于δ的其他训练样本;6)将所划分出的且与其没有直接连通的训练样本在没有被划分出的样本子集中的,或到划分曲面{X|rj=||X-cj||}距离不小于δ的训练样本从训练样本子集中删除,剩余训练样本被保留,并将被删除的训练样本建立起新训练样本子集;7)选取新训练样本子集重复上述1)-6)的划分过程,直至上述有限样本集中只剩下一类训练样本;8)再构造一个RBF神经元划分上述步骤7)的最后一类训练样本;9)将上述所有学成神经元按顺序编号,先学成的学成神经元的序号小,后学成的学成神经元序号大,同时将RBF神经元的激活函数改为硬限幅函数,建立起上述PORBF网络。
上述步骤3)中,当 | | X O d - c j | | - | | X O d - 1 - c j | | > 2 &delta; 时,α=1/2;当 &delta; < | | X O d - c j | | - | | X O d - 1 - c j | | &le; 2 &delta; 时,取α=0;当 | | X O d - c j | | - | | X O d - 1 - c j | | < &delta; 时,中心cj重选。
本发明的有益技术效果是:
随着模式识别技术的发展,很多模式分类的正确识别率越来越高,然而这些正确识别率似乎有一个极限,很难突破。本发明的发明人经总结得以发现造成这种结果的原因是因为这些传统方法没有充分利用同源的同类事物局部直接连通本性这个先验知识,大千世界万事万物都是由同类事物渐变发展而来,因此同源的同类事物的特征集有局部直接连通性(局部直接连通性:足够靠近的两个同源的同类事物样本特征的联线段上所有点也是同类事物),在现实世界中,如果两个同类样本不完全相同,则这两个同类样本差别一定是可以渐变的(非同源的情况除外,例如简体字和繁体字就不属于同源的)。本发明利用渐变的序列,从这两个同源样本中的一个变到另外一个,并且这个序列中的所有模式都属于同一类,上述是关于同源的样本间的连续性的规律,我们称之为同源连通原理。本发明利用了“同源的同类事物连通性”先验知识,降低了大规模超多类模式识别问题的空间复杂度和时间复杂度,因此使用该方法的模式识别器的正确识别率比使用传统的神经网络模式识别方法的模式识别器的正确识别率更高,而且该方法适合解决大规模超多类模式识别问题。
附图说明
下面结合附图与具体实施方式对本发明进行详细说明:
图1为本发明一种具体实施方式的神经网络拓扑结构示意图。
图2为图1方式中的优先度排序神经网络拓扑结构示意图。
图3为图1方式中的PORBF训练流程图。
具体实施方式
结合参看图1、图2及图3,一种新神经网络模式识别方法,包括如下步骤:
学习步骤,建立有限样本集,该样本集表示为{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},其中h是样本总数,j,…,l是至多n个至少1个自然数的升序排列,n是样本空间的维数,设定同类事物中任意两相互直接连通样本Xi,Xj的距离小于或等于δ,而不同类两事物样本的距离大于2δ,0<δ≤0.1,即δ可选取上述范围内的任一小数;在设定||Xi||=||Xi,j,…,l||≤1的前提下,用主分析算法确定{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}的主分量W={w1,w2,…,wn},||W||=1,把{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中点向量分别代入
WX=(w1,w2,…,wn)(x1,x2,…,xn)=w1x1+w2x2+…+wnxn计算WX的h个值,并按降序排列,
插入m个数,即θ1,…,θm,且θ1>θ2>…>θm;定义块为field1={X|θ1≤WX},
fieldi={X|θi≤WX<θi-1},i=2,…,m-1,建立学习前向掩蔽SLAM模型,把特征空间划分为field1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1不同块,其中模型设置有m个神经元,神经元的运算式为sign(WX-θi),θi为神经元域值,其中类别标示就取为块标示fieldi;获取第k块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本集合,即T(field1)=({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}));及
T(fieldk)=({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}))∪({X|X到平面θk-1=WX的距离小于δ}∩T(fieldk-1)),k=2,…,m-1,以T(fieldk)作为训练样本子集,对其进行优先度排序,即:1)选取一个RBF神经元的中心cj,并标记该神经元的所属类别lj,如果中心来自于样本矢量,则类别lj就是该样本的所属类别;2)将训练样本子集中的矢量依次通过输入节点送往该神经元计算与中心cj的距离,将计算结果按升序排列,排序后将样本序列的编号记为Oi(i=0,1,…,n-1);3)从小到大找到与中心cj距离最近的异类样本,假设它在Oi中的位置为d,则计算Od和Od-1之间的某点到中心cj的距离作为当前神经元的半径rj
r j = ( 1 - &alpha; ) | | X O d - 1 - c j | | + &alpha; | | X O d - c j | |
其中,0<α≤1,记录该神经元划分出的同类样本的编号Oi(i=0,1,…,d-1)、半径rj和数量,划分出边界距离小于δ的训练样本;4)重复进行上述第1)步到第3)步不少于3次,选取划分出同类训练样本最多的那个神经元作为神经网络的学成神经元;5)检查被划分出的训练样本是否还有与其直接连通的其他训练样本在没有被划分出的训练样本子集中,以及检查被划分出的训练样本是否有到边界{X|rj=||X-cj||}的距离小于δ的其他训练样本;6)将所划分出的且与其没有直接连通的训练样本在没有被划分出的样本子集中的,或到划分曲面{X|rj=||X-cj||}距离不小于δ的训练样本从训练样本集中删除,剩余训练样本被保留,并将被删除的训练样本建立起新训练样本子集;7)选取新训练样本子集重复上述1)-6)的划分过程,直至上述有限样本集中只剩下一类训练样本;8)再构造一个RBF神经元划分上述步骤7)的最后一类训练样本;9)将上述所有学成神经元按顺序编号,先学成的学成神经元的序号小,后学成的学成神经元序号大,同时将RBF神经元的激活函数改为硬限幅函数,建立起训练好的基于同源的同类事物连通本性的PORBF网络;
(2)识别步骤,将测试样本输入至上述PORBF网络中,检测每一个RBF神经元的输出,找出序号最小且为激活输出的神经元,将该神经元的类别作为网络的判决输出。
下面结合有关定理等知识对上述实施方式作更进一步说明:
设在特征空间中,同源的同类事物a的特征集合为CHa,则同源的同类事物的有限样本集(有限训练集或训练样本集)可表示为
Ta实际上是一种人为(人造)的抽象表示。
定理1Ta={x1,…,xn)|x1,…,xn是实数,|xi|≤M,i=1,…,n}是可数集,因而可顺序编码。
因此同源的同类事物训练集Ta按以下策略顺序采样生成,则同类事物的一部分局部直接连通(连续)路径、方向也就明确了。
1、对同类事物分m时段采样;
2、每个时段的采样保证具有局部直接连通(连续)性,也即前样本Zi与紧邻时刻后样本Zi+1相近,|Zi-Zi+1|<σ,σ是某一较小数,σ优选为0~0.1之间的任一小数,该小数可根据需要具体选定。
使得 { X | X = &beta; Z i + ( 1 - &beta; ) Z i + 1 , 0 &le; &beta; &le; 1 } &SubsetEqual; C H a ;
3、按采样时刻先后顺序编码Ta,Ta={Zj|Zj,j=1,…,l1,l1+1,…,l2,…,lm_1+1,…,lm,|Zj-Zj+1|<σ,j=li-1+1,…,li,i=1,…,m,l0=1},由于σ较小|Zj-Zj+1|<σ,j=li-1+1,…,li,i=,1,…,m,Zj∈Ta及同类事物特征集CHa是局部直接连通(连续)的,于是我们自然认为连接Zi,Zi+1的直线段在CHa中,从而CHa中有m条折线通路,局部连通(连续)方向由编码顺序决定。m=1时CHa中只有一条通路。
因此所有事物有限样本集可以表示为{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},其中h是训练样本总数。Xi=Xi,j,…,l表示样本Xi与样本Xj,…,与样本Xl都直接连通,直接连通有对称性,样本Xj,…,Xl也与Xi=Xi,j,…,l直接连通,并且Xi,Xj,…,Xl是同源同类事物,j,…,l是至多n(注:n是样本空间的维数)个至少1个自然数的升序排列。例如,X2010=X2010,3,50,68,3001,…,21000表示100维样本空间中样本X2010分别与样本X3,X50,X68,X3001,…,X21000直接连通,X68=X68,2010表示X68仅与X2010直接连通。
不妨设同类事物中任意两相互直接连通样本Xi,Xj的距离(注:Xi,Xj的连线段的长度)小于或等于δ,而不同类两事物样本的距离大于2δ,δ为0~0.1之间的任一小数,该小数可根据需要具体选定。
①对于训练样本集{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},不妨设||Xi||=||Xi,j,…,l||≤1,i=1,2,…,h,j<…<l},用主分析算法确定{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}的主分量W={w1,w2,…,wn},||W||=1;
②把{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中点向量分别代入WX=(w1,w2,…,wn)(x1,x2,…,xn)=w1x1+w2x2+…+wnxn计算WX的h个值,并按降序排列;插入m数,θ1,…,θm,要求θ1>θ2>…>θm;大约有
Figure GSB00000755313000061
个WX值大于θ1;大约有个WX值大于θi+1而小于θi,i=1,…,m-1;所有WX值大于θm+Δ,Δ是大于零的常数;θi,i=1,…,m-1是两个相邻的WX值的平均值,且这两个相邻的WX值的差较大,不小于2Δ。
③块定义:field1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1。基于训练样本集{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},建立简单的基于同源的同类事物连通本性的排序学习前向掩蔽SLAM模型,把特征空间划分为fieldl={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1不同块。其中模型中只需设置m个神经元。神经元的运算式为sign(WX-θi),θi为神经元域值。其中类别标示就取为块标示fieldi
④求第k块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本集合:T(field1)=({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中有直接连通样本});
T(fieldk)=({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中有直接连通样本})
∪({X|X到平面θk-1=WX距离小于δ}∩T(fieldk-1)),k=2,…,m-1;(注:训练样本超出了块领域,以便确保在块边界附近同源的同类事物在分类器下是局部直接连通的,且Cv类样本点为中心半径为δ球体内任何点在分类器下也分为Cv类)。
⑤以T(fieldk)作为训练样本子集,训练设计以下第k个基于同源的同类事物连通本性的优先度排序神经网络:
图2中每个模块中可以是一个神经元,也可以是一个由若干个神经元组成的子神经网络,本发明取定图中每个模块为一个RBF神经元。设定编号小的模块优先度高,编号大的优先度低,编号大的模块训练样本要用到编号小一号的模块已经训练成功的部分样本(注:这一点能够保证同源的同类事物局部直接连通,与王守觉院士提出的优先度排序神经网络PONN存在不同),各模块的输入为
Figure GSB00000755313000063
不同的模块可以具有不同的内部结构。图中Pki为模块i的优先度,
Figure GSB00000755313000064
为模块i的输出, C k ( y &RightArrow; k 1 , y &RightArrow; k 2 &CenterDot; &CenterDot; &CenterDot; , y &RightArrow; kn ; p k 1 , p k 2 &CenterDot; &CenterDot; &CenterDot; , p kv ) 称为网络的决策函数,是整个网络最终输出的判别条件和计算公式。
1)选取一个RBF神经元的中心cj,并标记该神经元的所属类别lj,如果中心来自于样本矢量,则类别lj就是该样本的所属类别;
2)将样本集中的矢量依次通过输入节点送往该神经元计算与中心cj的距离,将计算结果按升序排列,排序后将样本序列的编号记为Oi(i=0,1,…,n-1);
3)从小到大找到与中心cj距离最近的异类样本,假设它在Oi中的位置为d,则计算Od和Od-1之间的某点到中心cj的距离作为当前神经元的半径rj
r j = ( 1 - &alpha; ) | | X O d - 1 - c j | | + &alpha; | | X O d - c j | |
其中,0<α≤1。记录该神经元划分出的同类样本的编号Oi(i=0,1,…,d-1)、半径rj和数量,以及划分出的样本且到划分边界距离小于δ的样本;一般地,当 | | X O d - c j | | - | | X O d - 1 - c j | | > 2 &delta; 时,取α=1/2。当 &delta; < | | X O d - c j | | - | | X O d - 1 - c j | | &le; 2 &delta; 时,取α=0。当 | | X O d - c j | | - | | X O d - 1 - c j | | < &delta; 时,中心cj重选。
4)重复第1步到第3步g(>2)次,选取划分出同类样本最多的那个神经元作为神经网络的神经元。
5)检查被划分出的样本是否有直接连通样本在没有划分出的样本集中;检查被划分出的样本是否有到边界{X|rj=||X-cj||}的距离小于δ的(即rj-||X-cj||<δ);
6)将所划分出的且没有直接连通样本在没有划分出的样本集中的或到划分曲面{X|rj=||X-cj||}距离不小于δ的样本从样本集中删除,即保留有直接连通样本在没有划分出的样本集中的或到边界{X|rj=||X-cj||}距离小于δ的那些样本(注:保证被划分出的样本局部直接连通和被划分出的样本到划分曲面的距离不小于δ,从而确保分类(识别)器有较好的推广泛化能力和较高的正确识别率),并将被删除的训练样本建立起新训练样本子集;;
7)用新训练样本子集重复前面1)-6)的划分过程,直至样本集中只剩一类训练样本(最后一类训练样本);
8)构造一个RBF神经元划分最后一类训练样本;
9)将所有RBF神经元按顺序编号,先学成的神经元的序号小,后学成的序号大;同时将RBF神经元的激活函数改为硬限幅函数。
至此,就完成了基于同源的同类事物连通本性的PORBF网络的学习过程。可以看出,基于同源的同类事物连通本性的PORBF网络的结构,即隐层神经元的数目及其参数(cj、rj、lj、pj)是在训练中确定下来的,无需人工干预,具有自组织、自适应的特点。
识别时,将测试样本输入至训练好的基于同源的同类事物连通本性的PORBF网络中,检测每一个RBF神经元的输出,找出序号最小且为激活输出的神经元,将该神经元的类别作为网络的判决输出即可。
容易证明以下定理,即:
定理2若在训练样本集{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中,同源的同类事物局部任何直接连通两点Xi=Xi,…,j,…和Xj=Xj,…,i,…的连线段
Figure GSB00000755313000075
长小于δ,则任何同源的同类事物局部直接连通两点Xi=Xi,…,j,…和Xj=Xj,…,i,…的连线上任何点在以上基于同源的同类事物连通本性的新神经网络模式识别器下一定分到同一类中。
定理3基于同源的同类事物连通本性的新神经网络模式识别方法设计的分类器的正确识别率比RBF神经网络模式识别器或优先度排序RBF神经网络模式识别器的正确识别率都高,而且基于同源的同类事物连通本性的新神经网络模式识别方法设计的分类器的设计时间比RBF神经网络模式识别器或优先度排序RBF神经网络模式识别器的设计时间快得多。
本发明的一个试验例
双螺旋线分类识别一直是模式识别领域公认的一个相当有难度的问题,该问题因其难度而经常被用作检验模式识别算法性能的试金石。螺旋线圈数的多少代表了问题难易程度,圈数越多问题的可分性越差。
以8圈的双螺旋线为例,采集640个训练样本作为训练样本集,确定有3个神经元的SLAM神经网络分块模块,确定3不同块上的优先度排序神经网络训练集T(fieldk),k=1,2,3,基于训练集T(fieldk),k=1,2,3,按照第k个基于同源的同类事物连通本性的优先度排序RBF神经网络设计流程和算法,确定第k个基于同源的同类事物连通本性的优先度排序RBF神经网络。
随机采集640个测试样本进行测试表明,其正确识别率为100%。而用传统的SVM方法、优先度排序RBF神经网络方法设计的分类器的正确识别率分别不超过70%、95%。

Claims (1)

1.一种新神经网络模式识别方法,特征在于其包括如下步骤:
(1)学习步骤,建立有限样本集,设定在有限样本集中同类事物中任意两相互直接连通样本之间的距离小于或等于δ,而不同类两事物样本之间的距离大于2δ,0<δ≤0.1,将有限样本集中训练样本划分成若干块,建立学习前向掩蔽SLAM模型,利用模型中的RBF神经元获取各块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本子集,对训练样本子集进行优先度排序,将按照包含同类训练样本由多至少的规则按先后次序选取划分出的神经元作为神经网络的学成神经元,并将先学成的学成神经元与后学成的学成神经元按从小到大顺序排列,建立起训练好的基于同源的同类事物连通本性的PORBF网络;
(2)识别步骤,将测试样本输入至上述PORBF网络中,检测每一个RBF神经元的输出,找出序号最小且为激活输出的神经元,将该神经元的类别作为网络的判决输出;
在所述学习步骤中包括:有限样本集表示为{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l},其中h是训练样本总数,j,…,l是至多n个至少1个自然数的升序排列,n是样本空间的维数,设定同类事物中任意两相互直接连通样本Xi,Xj的距离小于或等于δ;在设定||Xi||=||Xi,j,…,l||≤1的前提下,确定{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}的主分量W={w1,w2,…,wn},||W||=1,把{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l}中点向量分别代入
WX=(w1,w2,…,wn)(x1,x2,…,xn)=w1x1+w2x2+…+wnxn计算WX的h个值,并按降序排列,插入m个数,即θ1,…,θm,且θ1>θ2>…>θm;定义块为field1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1,建立上述SLAM模型,把特征空间划分为field1={X|θ1≤WX},fieldi={X|θi≤WX<θi-1},i=2,…,m-1不同块,其中模型设置有m个神经元,神经元的运算式为sign(WX-θi),θi为神经元域值,其中类别标示就取为块标示fieldi;获取第k块上基于同源的同类事物连通本性的优先度排序神经网络的训练样本集合,即:  T(field1)=({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θ1≤WX}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})中有直接连通样本});
T(fieldk)=({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})∪({X|X在({X|θk≤WX<θk-1}∩{Xi=Xi,j,…,l|i=1,2,…,h,j<…<l})中有直接连通样本})
∪({X|X到平面θk-1=WX的距离小于δ}∩T(fieldk-1 )),k=2,…,m-1;以T(fieldk)作为训练样本子集,训练设计以下第k个基于同源的同类事物连通本性的优先度排序神经网络,即:1)选取一个RBF神经元的中心cj,并标记该神经元的所属类别lj,如果中心来自于样本矢量,则类别lj就是该样本的所属类别;2)将训练样本子集中的矢量依次通过输入节点送往该神经元计算与中心cj的距离,将计算结果按升序排列,排序后将样本序列的编号记为Oi(i=0,1,…,n-1);3)从小到大找到与中心cj距离最近的异类样本,假设它在Oi中的位置为d,则计算Od和Od-1之间的某点到中心cj的距离作为当前神经元的半径rj
r j = ( 1 - &alpha; ) | | X O d - 1 - c j | | + &alpha; | | X O d - c j | |
其中,0<α≤1,记录该神经元划分出的同类样本的编号Oi(i=0,1,…,d-1)、半径rj和数量,划分出边界距离小于δ的训练样本;4)重复进行上述第1)步到第3)步不少于3次,选取划分出同类训练样本最多的那个神经元作为神经网络的学成神经元;5)检查被划分出的训练样本是否还有与其直接连通的其他训练样本在没有被划分出的训练样本子集中,以及检查被划分出的训练样本是否有到边界{X|rj=||X-cj||}的距离小于δ的其他训练样本;6)将所划分出的且与其没有直接连通的训练样本在没有被划分出的样本子集中的,或到划分曲面{X|rj=||X-cj||}距离不小于δ的训练样本从训练样本子集中删除,剩余训练样本被保留,并将被删除的训练样本建立起新训练样本子集;7)选取新训练样本子集重复上述1)-6)的划分过程,直至上述有限样本集中只剩下一类训练样本;8)再构造一个RBF神经元划分上述步骤7)的最后一类训练样本;9)将上述所有学成神经元按顺序编号,先学成的学成神经元的序号小,后学成的学成神经元序号大,同时将RBF神经元的激活函数改为硬限幅函数,建立起上述PORBF网络;
所述步骤3)中,当时,α=1/2;当 &delta; < | | X O d - c j | | - | | X O d - 1 - c j | | &le; 2 &delta; 时,取α=0;当 | | X O d - c j | | - | | X O d - 1 - c j | | < &delta; 时,中心cj重选。
CN 201010157190 2010-04-27 2010-04-27 一种新的神经网络模式识别方法 Expired - Fee Related CN101826166B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010157190 CN101826166B (zh) 2010-04-27 2010-04-27 一种新的神经网络模式识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010157190 CN101826166B (zh) 2010-04-27 2010-04-27 一种新的神经网络模式识别方法

Publications (2)

Publication Number Publication Date
CN101826166A CN101826166A (zh) 2010-09-08
CN101826166B true CN101826166B (zh) 2013-01-16

Family

ID=42690075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010157190 Expired - Fee Related CN101826166B (zh) 2010-04-27 2010-04-27 一种新的神经网络模式识别方法

Country Status (1)

Country Link
CN (1) CN101826166B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254226A (zh) * 2011-06-15 2011-11-23 河海大学 基于bp神经网络的人类活动在智能家居环境中的辨识方法
EP2825974A4 (en) * 2012-03-15 2017-04-05 Qualcomm Technologies, Inc. Tag-based apparatus and methods for neural networks
CN108154237B (zh) * 2016-12-06 2022-04-05 华为技术有限公司 一种数据处理系统及方法
CN106919980B (zh) * 2017-01-24 2020-02-07 南京大学 一种基于神经节分化的增量式目标识别系统
CN109146071A (zh) * 2017-12-28 2019-01-04 上海智位机器人股份有限公司 基于神经网络的智能传感器装置及处理方法
CN108229692B (zh) * 2018-02-08 2020-04-07 重庆理工大学 一种基于双重对比学习的机器学习识别方法
CN108345942B (zh) * 2018-02-08 2020-04-07 重庆理工大学 一种基于嵌入编码学习的机器学习识别方法
CN108549857B (zh) * 2018-03-30 2021-04-23 国信优易数据股份有限公司 事件检测模型训练方法、装置及事件检测方法
CN109325536B (zh) * 2018-09-25 2019-09-17 南京审计大学 一种仿生模式识别方法及其装置
CN112100798A (zh) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法
CN112446486A (zh) * 2019-08-30 2021-03-05 中国科学院半导体研究所 一种高阶神经元模型的构建方法
CN111044993B (zh) * 2019-12-27 2021-11-05 歌尔股份有限公司 一种基于激光传感器的slam地图校准方法和装置
CN112131303A (zh) * 2020-09-18 2020-12-25 天津大学 基于神经网络模型的大规模数据沿袭方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201810A (zh) * 2007-07-13 2008-06-18 青岛大学 可拓模式识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201810A (zh) * 2007-07-13 2008-06-18 青岛大学 可拓模式识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
一种动态RBF神经网络在模式识别中的应用;韩敏等;《模式识别与人工智能》;20060228;第19卷(第1期);94-99 *
前馈优先排序神经网络的构造算法及分析;朱世交等;《计算机科学》;20070531;第34卷(第5期);171-174 *
朱世交等.前馈优先排序神经网络的构造算法及分析.《计算机科学》.2007,第34卷(第5期),171-174.
韩敏等.一种动态RBF神经网络在模式识别中的应用.《模式识别与人工智能》.2006,第19卷(第1期),94-99.

Also Published As

Publication number Publication date
CN101826166A (zh) 2010-09-08

Similar Documents

Publication Publication Date Title
CN101826166B (zh) 一种新的神经网络模式识别方法
Dogo et al. A comparative analysis of gradient descent-based optimization algorithms on convolutional neural networks
Gershenson Introduction to random Boolean networks
CN107229904A (zh) 一种基于深度学习的目标检测与识别方法
CN107316067B (zh) 一种基于惯性传感器的空中手写字符识别方法
CN107506712A (zh) 一种基于3d深度卷积网络的人类行为识别的方法
CN107679462A (zh) 一种基于小波的深度多特征融合分类方法
Amaravati et al. A 55-nm, 1.0–0.4 V, 1.25-pJ/MAC time-domain mixed-signal neuromorphic accelerator with stochastic synapses for reinforcement learning in autonomous mobile robots
CN110334742A (zh) 一种基于强化学习的通过添加虚假节点的图对抗样本生成方法
CN103617147A (zh) 一种矿井突水水源层识别方法
Abaimov Statistical physics of non-thermal phase transitions: from foundations to applications
CN108830295A (zh) 基于多时间尺度回声状态网络的多变量时间序列分类方法
CN110119760A (zh) 一种基于层次化多尺度循环神经网络的序列分类方法
Makin Brain simulation
Singh et al. Study of variation in TSP using genetic algorithm and its operator comparison
Du et al. Efficient network construction through structural plasticity
CN105976029B (zh) 一种布谷鸟行为rna-ga的桥式吊车神经网络建模方法
CN104537385A (zh) 一种估计dagsvm分类准确度的方法
Potvin et al. Artificial neural networks for combinatorial optimization
CN106909894B (zh) 车辆品牌型号识别方法和系统
Agarkar et al. Optimization of generalized regression neural networks using PSO and GA for non-performer particles
Chaudhari et al. Autonomous driving car using convolutional neural networks
Sung A neural network construction method for surrogate modeling of physics-based analysis
Talaśka Parallel, asynchronous, fuzzy logic systems realized in CMOS technology
CN108427867A (zh) 一种基于灰色bp神经网络蛋白互作关系预测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130116

Termination date: 20130427