发明内容
有鉴于此,本发明的目的在于提出一种基于模糊神经网络的脉象信号分类方法和装置,能够精准的分类出脉象的信号。
基于上述目的本发明提供的一种基于模糊神经网络的脉象信号分类方法,包括步骤:
确定模糊神经网络模型;
对模糊神经网络进行聚类处理;
对聚类处理后的模糊神经网络进行优化。
可选地,所述的模糊神经网络包括五层:
层1:输入层代表输入变量,这一层没有计算,每一个结点对应一个输入变量,仅直接传送输入变量到下一层,层1的连接权值是单位值;
层2:模糊化层,每一个结点对应一个语言标识到层1的一个输入变量,在层2中计算;
层3:规则前置层,这一层的结点代表了规则的前置部分;
层4:规则后继层,第四层神经元代表输出变量的模糊量化;这层结点有两个任务:综合进入的规则前继和决定他们属于输出语言表示程度;
层5:模糊综合层,第五层代表模糊输出综合的结果,输出变量可以是模糊综合的可信度结果。
进一步地,所述模糊神经网络聚类采用模糊C均值聚类算法FCM,用于对输入变量数据进行模糊论域的确定:
FCM把n个向量xi(i=1,2,…,n)分为C个模糊组,并求每组的聚类中心,使得非相似性指标的价值函数达到最小;FCM采用模糊划分,使得每个给定数据点用值在0和1间的隶属度来确定其属于各个组的程度;与引入模糊划分相适应,隶属矩阵U允许有取值在0和1间的元素,进行归一化后一个数据集的隶属度的和总等于1:
相应FCM的价值函数(或目标函数)就是上式的一般化形式:
这里uij介于0和1间;ci为模糊组i的聚类中心,dij=||ci-xj||为第i个聚类中心与第j个数据点间的欧几里德距离;m∈[1,∞)是一个加权指数;
构造如下新的目标函数,可求得使上式达到最小值的必要条件:
这里λj,j=1到n,是式的n个约束使的拉各朗日乘子。对所有输入参量求导,使式达到最小的必要条件为:
和
由上述两个必要条件,模糊C均值聚类算法是一个简单的迭代过程。
进一步地,所述FCM确定聚类中心ci和隶属矩阵U:
步骤1:用值在0和1间的随机数初始化隶属矩阵U,使其满足式中的约束条件;
步骤2:用式计算c个聚类中心ci,i=1,…,c0
步骤3:根据式计算价值函数,如果它小于某个确定的阀值,或它相对上次价值函数值的改变量小于某个阀值,则算法停止;
步骤4:计算新的U阵,返回步骤2。
进一步地,所述通过FCM确定的聚类中心和隶属矩阵,具体方法如下:
任务:设模糊变量X的论域为:[X1,X2,X3],模糊值[X1,X2,X3]分别对应[小,中,大]语义。我们需要根据模糊变量A的样本数据集,确定模糊值[X1,X2,X3]的支撑范围和理想隶属函数;
实现:根据经验初步确定模糊值[X1,X2,X3]的中心左为聚类中心,采用FCM完成聚类数目为3的聚类过程;由ci数组可知,模糊值[X1,X2,X3]的准确聚类中心对应[c1,c2,c3];由隶属矩阵U,可以确定聚类中心ci对应的数据范围:Ui>thu即在此ci对应的数据范围中的点,隶属值大于给定阀值thu。
可选地,所述模糊神经网络进行优化是对模糊识别推理规则进行加权优化。
进一步地,所述模糊神经网络进行优化包括全局反传学习算法和局部进化学习算法,所述局部进化学习基于:(1)局部元素调节(2)一个或多个规则推理,对于规则结点激活基于赢者代表所有规则(3)一次训练(4)基于实例的学习和推理(5)动态结构;
所述全局反传算法基于:(1)全局优化技术(2)互相作用的多规则模糊推理,基于所有规则的激活(3)多次重复训练,通过使用修正的梯度下降反传算法(4)混合局部的分布连接学习和推理(5)固定的结构。
进一步地,所述模糊神经网络优化还包括对全局反传学习算法和局部进化学习算法两种方法的识别结果准确性进行评价的神经网络学习算法误差分析,能够通过根平方误差和非分维误差进行评价。
另外,本发明还提供了一种基于模糊神经网络的脉象信号分类装置,根据上面所述的基于模糊神经网络的脉象信号方法得到所述的于模糊神经网络的脉象信号分类装置包括:模糊神经网络模型单元,能够确定模糊神经网络模型;聚类处理单元,与所述模糊神经网络模型单元相连,能够对模糊神经网络进行聚类处理;优化单元,与所述聚类处理单元相连,对聚类处理后的模糊神经网络进行优化。
从上面所述可以看出,本发明提供的一种基于模糊神经网络的脉象信号分类方法和装置,通过确定模糊神经网络模型;对模糊神经网络进行聚类处理;对聚类处理后的模糊神经网络进行优化。从而,本发明所述的基于模糊神经网络的脉象信号分类方法和装置能够提高脉象分类结果的可信度和精度。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
参阅图1所示,为本发明实施例一种基于模糊神经网络的脉象信号分类方法的流程示意图,所述基于模糊神经网络的脉象信号分类方法包括步骤:
步骤101,确定模糊神经网络模型。
在本发明的一个实施例中,所述的模糊神经网络包括五层结构,每一层的功能如下:
层1(输入层)输入层代表输入变量,这一层没有计算,每一个结点对应一个输入变量,仅直接传送输入变量到下一层,层1的连接权值是单位值。
层2(模糊化层)第二层结点(模糊输入神经元,或模糊输入)层代表每一模糊输入变量空间的模糊量化。每一个结点对应一个语言标识到层1的一个输入变量,即输出连接代表隶属值(指定了输入值属于模糊设定的程度)在层2中计算。一分族算法将预先决定分配给每一输入变量的初始隶属函数的数目和类型,最后的隶属函数形状将在网络学习过程中很好调节。
例如,两个模糊输入神经元可以被使用用于代表小和大模糊变量。不同的隶属函数(三角、高斯等MF)可以用于这些神经元,隶属函数的数量和类型对于动态网络可以在学习中动态修改。如果对于一个给定的输入向量,对应的变量值不属于现有任何的隶属函数,一定程度上大于隶属门限,新的神经元可以在这层产生。一个新的模糊输入神经元或一个输入神经元可以在系统处理过程中产生。模糊输入结点的任务是转化输入变量到关系函数的隶属度。
层3(规则前置层)这一层的结点代表了规则的前置部分。通常一隶属度加权积方式的T标准运算在这结点中使用,层3结点的输出代表对应模糊规则的激活权重。第三层包含规则(实例)结点,通过一个混合的有监督或无监督学习产生。规则结点代表输入-输出数据联系的原型,图形上代表从模糊输入和模糊输出空间超球面的连接。每一规则结点r由连接权重W1(r)和W2(r)定义,W2(r)权重基于输出误差通过有监督学习调整,W1(r)权重基于在一个局部输入空间区域用类似的方法通过无监督学习进行调整。
层4(规则后继层)第四层神经元代表输出变量的模糊量化。这层结点有两个任务:综合进入的规则前继和决定他们属于输出语言表示(高,中,低等)的程度。这一层的结点数目同规则的数目相同。
层5(模糊综合层)第五层代表模糊输出综合的结果,输出变量可以是模糊综合的可信度结果,也可以是进一步反模糊化的实际值。这层结点使用隶属度加权和方式的T协标准运算综合所有规则后继,并最后计算去模糊后的输出。
步骤102,对模糊神经网络进行聚类处理。
在本发明的另一个实施例中,模糊神经网络聚类采用模糊C均值聚类算法(FCM),用于对输入变量数据进行模糊论域的确定,模糊C均值聚类算法是用隶属度确定每个数据点属于某个聚类的程度的一种聚类算法。
FCM把n个向量xi(i=1,2,…,n)分为C个模糊组,并求每组的聚类中心,使得非相似性指标的价值函数达到最小。FCM采用模糊划分,使得每个给定数据点用值在0和1间的隶属度来确定其属于各个组的程度。与引入模糊划分相适应,隶属矩阵U允许有取值在0和1间的元素,进行归一化后一个数据集的隶属度的和总等于1:
相应FCM的价值函数(或目标函数)就是上式的一般化形式:
这里uij介于0和1间;ci为模糊组i的聚类中心,dij=||ci-xj||为第i个聚类中心与第j个数据点间的欧几里德距离;m∈[1,∞)是一个加权指数。
构造如下新的目标函数,可求得使上式达到最小值的必要条件:
这里λj,j=1到n,是式的n个约束使的拉各朗日乘子。对所有输入参量求导,使式达到最小的必要条件为:
和
由上述两个必要条件,模糊C均值聚类算法是一个简单的迭代过程。FCM用下列步骤确定聚类中心ci和隶属矩阵U:
步骤1:用值在0和1间的随机数初始化隶属矩阵U,使其满足式中的约束条件;
步骤2:用式计算c个聚类中心ci,i=1,…,c0
步骤3:根据式计算价值函数,如果它小于某个确定的阀值,或它相对上次价值函数值的改变量小于某个阀值,则算法停止。
步骤4:计算新的U阵,返回步骤2。
由于不能确保FCM收敛于一个最优解,算法的性能依赖于初始聚类中心。这里我们可以根据模糊推理系统已经确定的变量论域,采用变量值的中间值作为初始聚类中心。通过FCM确定的聚类中心和隶属矩阵,我们可以进一步更准确的确定变量值范围,以及能够客观化的选择隶属函数类型并计算相应隶属函数参数值。具体方法如下:
1任务:设模糊变量X的论域为:[X1,X2,X3],模糊值[X1,X2,X3]分别对应[小,中,大]语义。我们需要根据模糊变量A的样本数据集,确定模糊值[X1,X2,X3]的支撑范围和理想隶属函数。
2实现:根据经验初步确定模糊值[X1,X2,X3]的中心左为聚类中心,采用FCM完成聚类数目为3的聚类过程。由ci数组可知,模糊值[X1,X2,X3]的准确聚类中心对应[c1,c2,c3]。由隶属矩阵U,可以确定聚类中心ci对应的数据范围:
Ui>thu
即在此ci对应的数据范围中的点,隶属值大于给定阀值thu。
进一步由ci数组和隶属矩阵U,可以确定模糊值[X1,X2,X3]的理想隶属函数。通过采用不同隶属函数Ai,拟合模糊值[X1,X2,X3]支撑范围内对应的Ui,设拟合误差为Ei,则理想隶属函数A为:
A={Am|Em=min{Ei},i=1,2,3}
这里进行拟合的隶属函数Ai仅采用高斯、钟形、三角形和梯形等基本隶属函数。如对于模糊值[X1,X2,X3]分别符合以[3,6,9]为中心的正态分布,则对大量样本数据采用FCM聚合。
步骤103,对聚类处理后的模糊神经网络进行优化。
在实施例中,模糊神经网络进行优化是对模糊识别推理规则进行加权优化。举例:经对大量脉象样本分类数据进行学习后,可以提取出以下经优化的模糊推理规则,其中输入变量取值加权系数表示对隶属度的加权调节,输出变量取值加权系数表示对推理规则的加权调节。也就是是说对推理规则的输入和输出进行了加权调节,使得识别可信度更准,通过持续不断学习提升识别率。
较佳地,模糊神经网络进行优化包括全局反传学习算法和局部进化学习算法。局部进化学习相比全局反传学习算法更好,可以给于局部动态结构进行优化,在学习和推理原理之间有明显的区别。因此局部进化学习基于:(1)局部元素调节(2)一个或多个规则推理,对于规则结点激活基于赢者代表所有规则(3)一次训练(4)基于实例的学习和推理(5)动态结构。相比之下全局反传算法基于:(1)全局优化技术(2)互相作用的多规则模糊推理,基于所有规则的激活(3)多次重复训练,通过使用修正的梯度下降反传算法(4)混合局部的分布连接学习和推理(5)固定的结构。优选地,模糊神经网络优化还包括对上面两种方法的识别结果准确性进行评价的神经网络学习算法误差分析,可以通过根平方误差和非分维误差进行评价。
作为本发明的另一个实施例,所述的全局反传学习算法具体为:
对于一个自适应网络,如果每个结点输出都一致地从输入侧传到输出侧,则这种网络结构称为前向网络。自适应网络的基本学习规则是著名的最陡下降法,其中通过连续使用链式法则导出梯度向量,由于计算梯度向量的方向与各结点输出流的方向相反,因此计算梯度向量的步骤通常被称为反传算法。一旦获得了计算梯度,就可以采取多种基于导数的优化回归技术来更新参数。
假定一个以层次表示的前向自适应网络有L层,且第l(l=0,1,…,L,l=0表示输入层)层有N(l)个结点。第l层第i个结点[i=1,…,N(l)]的输出及函数可以分别表示为xl,i和fl,i。由于结点的输出取决于输入信号及结点的参数集,对结点函数fl,i,我们有如下的通用表达式:
xi,l=fl,i(xl-1,1,...,xl-1,N(l-1),α,β,γ,...)
其中α,β,γ等是此结点的参数。
设给定的训练数据集有P对数据,我们可以将第P对(1≤p≤P)训练数据的误差指标定义为误差的平方和:
其中,dk为第p个期望输出向量的第k个分量,xL,k为网络施加第P个输入向量所产生的实际输出向量的第k个分量(为了简化表示,对dk和xL,k,我们省去了下标p)。
如果Ep等于0,则网络就能精确复现第p个训练数据对中的期望输出向量。因此,这里我们的任务就是使定义为的整体误差指标最小。
为了使用最陡下降法最小化误差指标,首先我们必须获得梯度向量。网络参数变化有因果关系,参数α的很小改变将影响到包含α的结点的输出;随之将影响到最后一层的输出以及误差指标。因此,计算梯度向量的基本概念是从输出层开始,将导数形式信息向后一层层传播,直至到达输入层。
定义误差信号εl,i为考虑所有直接或间接路径,误差指标Ep对第l层第i个结点输出的导数为对(第L层)第i个输出结点的误差信号可以直接计算:
对于如式所定义的Ep,εL,i=2(di-xL,i)。对于第l层第i个位置的内部结点,误差信号可由链式法则推导而得:
其中0≤l≤L-1。即第l层内部结点得误差信号可以表示为第l+1层结点误差信号的线性组合。因此,对任意l和i[0≤l≤L,1≤i≤N(l)],通过首先运用一次式获得输出层的误差信号,再迭代地运用式直至到达所需的层l,我们可以找到
梯度向量定义为误差指标相对于各参数的导数,因此我们还需再次运用链式法则以求得梯度向量。如果x是第l层第i个结点的参数,则有
如果我们允许参数α被不同的结点共享,则式应转变为一个更一般的形式:
其中S为包含参数α的结点集合;x*和f*分别是S中一个通用结点的输出和函数。
整体误差指标E相对于α的导数为
因此,对于线性最小化的简单最陡下降法而言,通用参数α的更新公式为
其中η为学习速率,可以进一步表示为
其中k为步长,是在参数空间中沿梯度方向每移一步的长度。通常,我们可以通过变化步长以改变收敛的速度。
当一个n结点前向网络以拓扑有序表示时,我们可以将误差指标Ep设想为标号为n+1的一个附加结点的输出,这个附加结点的函数fn+1可以定义为是所有具有较小标号结点输出的函数(Ep可以直接依赖于任意结点)。再次应用链式法则,我们有如下精确计算误差信号的公式:
或
其中第一项表示通过从结点i到结点n+1的间接路径,xi对Ep的间接作用,求和号中的每个乘积项表示xi对Ep的直接作用。一旦我们为每个结点求出了误差信号,则对参数的梯度向量可以如前一样推得。
在本发明的另一个实施例中,所述的局部进化学习算法具体为:
局部进化学习和全局反传学习算法在学习和推理原理之间有明显的区别。局部进化学习[24,25]基于:(1)局部元素调节(2)一个或多个规则推理,对于规则结点激活基于赢者代表所有规则(3)一次训练(4)基于实例的学习和推理(5)动态结构。
相比之下全局反传算法基于:(1)全局优化技术(2)互相作用的多规则模糊推理,基于所有规则的激活(3)多次重复训练,通过使用修正的梯度下降反传算法(4)混合局部的分布连接学习和推理(5)固定的结构。
对于模糊神经网络结构,每一规则结点代表从模糊输入空间到模糊输出空间的超球体的联系,如图2所示。规则结点rj的连接权重W1(rj)代表模糊输入空间的超球体球心的坐标,W2(rj)代表模糊输出空间的超球体球心的坐标。输入超球体的半径定义了输入向量相对的规则结点的最小激活(1-Sthr),以使新的向量可以关联到这个规则结点,这里Sthr是敏感度门限参数。例如,如果他们落入r1输入和输出超球体,即在Xd1和Xd2的局部正规化模糊差值小于半径r,在Yd1和Yd2的局部正规化模糊差值小于误差门限Errthr,两对模糊输入-输出向量d1=(Xd1,Yd1)和d2=(Xd2,Yd2)将分派到规则结点r1。
介于两个模糊隶属向量d1f和d2f的局部正规化模糊差值,代表了相对于真实值d1和d2数据的属于预定义隶属函数的隶属度:
D(d1f,d2f)=sum(abs(d1f-d2f))/sum(d1f+d2f))
例如,如果d1f=(0,0.3,0.7,0,0,0)和d2f=(0,0.6,0.4,0,0,0),则D(d1f,d2f)=(0.3+0.3)/2=0.3。通过将新数据实例关联到一个规则结点的过程,这个结点的两个超球体中心进行调整,在模糊输入空间基于学习速率lr1,在模糊输出空间基于学习速率lr2。通过对规则结点r1的连接权重W1(r1 1)和W2(r1 1)到W1(r1 2)和W2(r1 2)的数学调整,超球体中心r1 1调整到新位置r1 2:
W2(r1 2)=W2(r1 1)+lr2Err(Yd1,Yd2)A1(r1 1)
W1(r1 2)=W1(r1 1)+lr1Ds(Xd1,Xd2)
这里Err(Yd1,Yd2)=Ds(Yd1,Yd2)=Yd1-Yd2,A1(r1 1)是规则结点r1 1对于输入向量Xd2的激活值。
进一步将局部进化的在线训练算法步骤,通过使用向量操作描述如下:。
1初始化网络连接,如插入模糊规则到结构中。如果没有初始化规则(实例)结点和没有初始化结点连接到模糊输入和模糊输出神经元,则创建第一个结点rn=1以代表第一个例子(Xd1,Yd1)和设置它的输入W1(rn)和输出W2(rn)连接权重向量如下:
<创建一个新的规则结点rn>:W1(rn)=EX;W2(rn)=TE,这里TE=Yd1f是对于当前模糊输入向量EX=Xd1f的模糊输出。
2当在输入数据流中存在实例时,输入当前实例(Xdi,Ydi),EX为它的模糊输入向量。如果新的变量出现在此实例中,它没有在先前的实例中出现,则使用其对应的隶属函数创建新的输入和输出结点。
3找到介于模糊输入向量EX和已存储的规则结点rj(rj=r1,r2,…,rn)间的正规化模糊局部距离:D(EX,rj)=sum(abs(EX-W1(rj)))/sum(W1(rj)+EX)
4找到规则结点rj(rj=r1,r2,…,rn)的激活值A1(rj),这里A1(rj)=satlin(1-D(EX,rj)),适用于分类任务。
5更新规则结点的调节参数值,即年龄、平均激活参数等。
6找到m个实例结点rj,具有最高激活值A1(rj)大于敏感门限Msthr。
7从m个实例结点中,找到一个结点r(inda1),它有最大的激活值maxa1。
8如果maxa1<Sthr,则使用自第一步的步骤<创建一个新的规则结点>,否则进行下面步骤。
9传播选定的m个规则结点的激活值到模糊输出神经元:A2=satlin(A1(rj1:rjm)W2)
10计算模糊输出误差向量:Err=A2-TE
11如果D(A2,TE)>Errthr则使用自第一步的步骤<创建一个新的规则结点>
12当有新结点产生时,更新关于m-1个规则结点(k=2:jm)的输入和输出;或者当没有新结点产生时,更新m个规则结点(k=j1::jm)的输入和输出。
(1)对于规则结点输入: 这里lr1是权重W1(rk)学习速率。
(2)对于规则结点输出:
这里lr2是权重W2(rk)的学习速率。
13剪除满足下面模糊剪除规则的规则结点rj和他们的连接到一个预定义的级别:
如果(1)一个结点rj为旧(2)平均激活值A1av(rj)为低(3)神经元附近区域密度为中高,即没有其它结点在输入-输出空间中和结点j相交,此条件仅应用于插入结点的一些策略。
则剪除结点rj的可能性高上面剪除规则是模糊的,而且需要模糊概念(“旧”、“高”等)提前定义。在某些情况,一个固定值可以使用,即认为当处理了1000个实例后结点是旧,剪除策略和方式的参数可以依赖于应用任务进行定义。
14如果需要可以使用C平均分类算法,聚合规则结点到一个较小的结点数目,C平均分类算法描述如下:
(1)对于规则结点i,保留与其输出值差值小于误差Errthr的所有规则结点。
(2)对于需要聚合的N个保留规则结点,设置初始权重C_W1和C_W2的聚合中心为0,设置平
均权重weight=1/N,对N个规则结点采用如下算法循环计算:
C_W1=C_W1+weight*W1
C_W2=C_W2+weight*W2
最后得到的权重C_W1和C_W2则为以规则结点i为中心的聚合权重。
(3)依次对所有规则结点重复(1)至(3)步骤完成所有规则聚合。
(4)对聚合后的每个规则结点,进一步进行模糊输入变量的隶属度聚合:
对于规则结点i,如果某模糊输入变量论域内的所有W1彼此间差值小于误差Errthm,则
表明此输入变量对于此结点的规则不是必须的,通过
将其对应的W1置为0,完成对规则中此输入变量的聚合排除。
15当数据处理完进行规则提取,即以规则形式描述系统经过学习获得的知识。
规则提取算法描述如下:
(1)保留输入W1(rn)和输出W2(rn)都大于聚合阀值W1Thr的规则结点rn
(2)对保留的规则结点提取从输入模糊变量值权重W1(rn)到输出变量值权重W2(rn)的推理规则。
例如,模糊输入变量input[1]的论域为[Small,Medium,Large],模糊输入变量input[2]的论域为[Small,Medium,Large],模糊输出变量output的论域为[Small,Medium,Large]。对于规则结点1,input[1]论域对应的W1权重为[0.46,0.54,0],input[2]论域对应的W1权重为[0,0,0.89];对于规则结点2,input[1]论域对应的W1权重为[0,0.527,0.473],input[2]论域对应的W1权重为[0,0,0];output论域对应的W2权重为[0.496,0.504,0.685]。则可以提取规则如下:
如上可见,通过模糊神经网络提取的模糊推理规则,不仅对每一个模糊输入变量模糊值赋予了权重,而且对模糊规则对应的模糊输出变量值赋予权重。
另外,神经网络学习的误差可以通过根平方误差和非分维误差进行评价。根平方误差可以从输入数据流的每一数据点i计算如下:
RMSE(i)=sqrt(sum{Errt}t=1,2,...,i)/i)
这里误差Errt=(dt-ot)2,dt是理想的输出值,ot是模糊神经网络对于输入向量tth的输出值。
非分维误差索引NDEI(i)计算如下:
NDEI(i)=RMSE(i)/std(D(1:i))
这里std(D(1:i))是从1到i数据点的标准偏差。
模糊推理规则输出的总误差计算如下:
这里Err是p组输入数据采用完成模糊推理规则计算,输出同理想值的误差总和。
在本发明的实施例中,模糊输入变量聚类结果:对脉象输入变量对应的脉象样本数据进行聚类(聚类个数由脉象输入变量的模糊值个数确定),可以确定脉象输入变量的取值范围:
1脉位变量Pos论域:[浮中沉深]
取值范围(mm):[{-2.0,-0.1},{0.0,0.2},{0.1,2.0},{1.5,2.5}]
聚类中心:[-1.1,0.11,1.12,2.01]
2脉宽变量Wide论域:[窄 中 宽]
取值范围(mm):[{2.0,2.6},{2.5,2.9},{2.8,3.4}]
聚类中心:[2.32,2.71,3.15]
3脉力变量Streth论域:[小 中 大]
取值范围(mm):[{0.5,2.0},{1.5,3.5},{3.0,5.0}]
聚类中心:[1.12,2.68,4.21]
4脉率变量Freq论域:[迟 缓 中 数 疾]
取值范围(times/m):[{40,59},{60,69},{70,89},{90,120},{120,160}]
聚类中心:[50,65,80,105,140]
5流利度变量Easy论域:[涩 中 滑]
取值范围:[{0,0.25},{0.2,0.35},{0.3,0.5}]
聚类中心:[0.13,0.27,0.40]
6紧张度变量Tent论域:[松 弦 弧 紧]
取值范围:[{-15,-7}{-8,-4},{-5,-2},{-3,-0.5}]
聚类中心:[-11.5,-6.2,-3.5,-2.3]
7节律变量Rthm论域:[规律 不规律]
取值范围(times/m):[{0,5.0},{3.0,100}]
聚类中心:[2.51,60.3]
8脉力均匀度变量Mean论域:[均匀 不均匀]
取值范围(mm):[{0,0.25},{0.20,3.0}]
聚类中心:[0.12,2.1]
9脉力虚实度变量Volum论域:[虚 实]
取值范围(mm):[{0.5,2.5},{1.5,4.0}]
聚类中心:[1.43,2.87]
10脉搏平稳度变量Base论域:[平稳 不平稳]
取值范围:[{0,0.15},{0.10,0.90}]
聚类中心:[0.076,0.46]
11脉长变量Lenp论域:[短 中 长]
取值范围(mm):[{2.0,2.9},{2.6,3.2},{2.9,4.8}]
聚类中心:[2.45,2.90,3.75]
12浮象变量Float论域:[圆 尖]
取值范围:[{-10,-2.5},{-3,-0.5}]
聚类中心:[-7.6,-2.3]
13充盈度变量Body论域:[空 满]
取值范围(mm):[{-3.0,0},{0,3.0}]
聚类中心:[-2.1,1.65]
参阅图3所示,为本发明实施例基于模糊神经网络的脉象信号分类装置的结构示意图,所述基于模糊神经网络的脉象信号分类装置包括模糊神经网络模型单元301,能够确定模糊神经网络模型(具体工作过程如基于模糊神经网络的脉象信号分类方法的步骤101)。聚类处理单元302,与模糊神经网络模型单元301相连,能够对模糊神经网络进行聚类处理(具体工作过程如基于模糊神经网络的脉象信号分类方法的步骤102)。优化单元303,与聚类处理单元302相连,对聚类处理后的模糊神经网络进行优化(具体工作过程如基于模糊神经网络的脉象信号分类方法的步骤103)。
由此可以看出,本发明实现的基于模糊神经网络的脉象信号分类方法和装置,创造性的提出经模糊神经网络对推理规则优化后,脉象分类识别率得到提高,可信度计算误差降低;优化前脉象分类平均正确识别率为:92.85%可信度总误差:84.27;优化后脉象分类平均正确识别率为:95.00%可信度总误差:46.88;并且,可以更准确地确定变量值范围,并能够客观化地选择隶属函数类型和计算相应隶属函数参数值;与此同时,模糊神经网络方法可以完成模糊推理规则进行权重调节,提高脉象分类结果的可信度、精度;而且,随着数据集的扩展能够推进新的模糊推理规则;最后,整个所述的基于模糊神经网络的脉象信号分类方法和装置简便、紧凑,易于实现。
所属领域的普通技术人员应当理解:以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。