CN112699961A - 基于改进证据理论在复杂场景下的植物图像分类的方法 - Google Patents

基于改进证据理论在复杂场景下的植物图像分类的方法 Download PDF

Info

Publication number
CN112699961A
CN112699961A CN202110033816.4A CN202110033816A CN112699961A CN 112699961 A CN112699961 A CN 112699961A CN 202110033816 A CN202110033816 A CN 202110033816A CN 112699961 A CN112699961 A CN 112699961A
Authority
CN
China
Prior art keywords
evidence
representing
output
neuron
evidences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110033816.4A
Other languages
English (en)
Other versions
CN112699961B (zh
Inventor
付波
方金炜
权轶
徐康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202110033816.4A priority Critical patent/CN112699961B/zh
Publication of CN112699961A publication Critical patent/CN112699961A/zh
Application granted granted Critical
Publication of CN112699961B publication Critical patent/CN112699961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/257Belief theory, e.g. Dempster-Shafer

Abstract

本发明公开了一种基于改进证据理论在复杂场景下的植物图像分类的方法,包活:利用灰度直方图特征的RST不变性、GLCM的空间相关特性和小波变换的多分辨率分析分别对植物图像进行特征提取,通过初步决策获得各自的基本概率分布(BPA)。使用改进证据理论融合信息,选择融合下的最大假设。在D‑S证据理论中提出了信任库仑力(BCF)的概念,其中信任函数的电荷量的概念是利用改进deng熵的方法解决的,信任函数之间距离的概念是利用证据之间的相关性解决的。提出的BCF旨在从电磁学的角度分析多源信息融合的过程,从而为解决证据理论问题提供新的见解。在图像分类和故障诊断的应用中证明了本方法的有效性。

Description

基于改进证据理论在复杂场景下的植物图像分类的方法
技术领域
本发明属于信号处理领域,具体涉及对图像特征信息的提取,并通过改进信息融合的方法对信息进行融合。
背景技术
目前机器视觉正广泛应用于植物分类,但是大多只是针对叶片进行识别,若对整株植物进行识别,信息的交叉和混叠造成识别效率低。故在植物分类模型中引入证据理论,可以减少分类过程中的不确定性,提高分类精度。
在DS证据理论中主要是讨论冲突管理,主要有两个方法,第一种是修改经典D-S证据理论的组合规则,以适应高冲突环境。第二种是保留D-S组合规则,在融合前对冲突证据进行预处理。目前很多学者试图将物理学有关的知识应用到相关的研究领域。在此创造性的将库仑力的概念引入D-S证据理论。
发明内容
针对上述背景技术存在的问题,本发明通过引入D-S证据理论中的库仑力对冲突数据进行预处理,提出一种基于改进证据理论在复杂场景下的植物图像分类的方法。其特征是,包括:
步骤1、采集植物图像数据,并对植物图像数据分别采用灰度直方图、灰度共生矩阵、以及sym4小波提取植物图像的特征,其中,
灰度直方图提取特征的具体方法包括:定义一个灰度级的离散函数;
Figure BDA0002893367120000011
其中ni表示图像中具有灰度级i的像素个数,i表示灰度级,N表示图像总的像素数,L表示灰度级种类数;分别提取灰度直方图的均值,方差,歪斜度,峰态,能量,熵作为特征向量;
灰度共生矩阵提取特征的具体方法包括:将图像在0°,45°,90°,135°中四个不同方向得到的统计量取均值和方差构建图像的全局纹理纹理特征;
sym4小波提取特征的具体方法包括:
步骤1.1、将彩色图像转化为灰度图像;
步骤1.2、选取Sym4小波基并进行4层小波分解获得13个子带;
步骤1.3、求分解后每个子带小波系数的均值和标准差;
步骤2、将步骤1中提取的三种特征分别经过softmax分类器进行初步决策得到三种初步决策结果;
步骤3、将信任库仑力(BCF)的概念引入至Dempster证据理论,构造一个BCF矩阵,并计算所有证据的可信度,并计算所有证据的平均权重,基于改进信息融合方法,使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果;
步骤4、将改进的证据理论方法应用到机器故障诊断中,得到了比较好的分类结果。
在上述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,步骤2中将灰度直方图提取的特征经过softmax分类器进行初步决策的具体方法是:Softmax分类器中,输入向量为步骤1中提取的特征向量,输入向量为X={x1,x2…xi…xn}T,n值是表示提取的特征向量的个数,xi表示第i特征向量作为输入层的第i个神经元的输入;隐层输出向量为Y…{y1,y2…yj…ym}T,yj表示隐层第j个神经元的输出;输出层输出向量为o={o1,o2…ok…or}T,ok表示输出层第k个神经元的输出;期望输出向量d={d1,d2…dk…dr}T,dk表示期望输出中第k个输出;输入层与隐层的权值矩阵为V={V1,V2…Vj…Vm}T;其中列向量Vj为隐层第j个神经元对应的权向量(是一个列向量),隐层到输出层之间的权值矩阵为W={W1,W2…Wk…Wr}T其中列向量Wk为输出层第k个神经元对应的权向量;
激活函数f(x)定义为:f(x)=1/(1+e-x),其中e表示一个自然数,e-x表示以e为底的指数函数;
输入层输入,隐层输出,输出层输出的关系如式1:
Figure BDA0002893367120000021
其中yj表示隐层第j个神经元的输出,xi表示输入层第i个神经元的输入,vij表示输入层第i神经元与输出层第j个神经元之间的权重;Ok表示输出层第k个神经元的输出,wik表示隐层第i个神经元与输出层第j个神经元之间的权重;分类器权值更新公式如式2:
Figure BDA0002893367120000031
其中η∈(0,1),表示学习率,其中γk=(dk-ok)ok(1-ok),vij表示更新后输入层第i神经元与输出层第j个神经元之间的权重;wik表示更新后隐层第i个神经元与输出层第j个神经元之间的权重;
最后,将bp神经网络运行结束后得出的输出进行归一化;如式3所示:
Figure BDA0002893367120000032
其中ok表示程序运行结束后输出层第k个神经元的输出,outputk表示输出层第k个神经元进行归一化后的最终输出。
在上述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,步骤3中将信任库仑力(BCF)的概念引入至Dempster证据理论,具体基于以下定义:
识别框架Θ={θ1,θ2,...,θn}表示可能发生事件的集合,θi则为识别框架的子集;Θ中的子集两两互斥,识别框架中的全部识别对象
Figure BDA0002893367120000033
Figure BDA0002893367120000034
如果A∈2Θ则称A为命题;
对于2Θ中的任何命题A,定义映射m:2Θ→[0,1]为基本概率分布,m满足(4)所示条件:
Figure BDA0002893367120000035
m(A)表示证据对A命题的支持程度,实际上是个概率值,
Figure BDA0002893367120000036
表示所有命题都不发生的事件概率
Figure BDA0002893367120000037
Figure BDA0002893367120000038
其中K表示两个证据之间的冲突系数,A1∩A2=C表示命题A1与命题A2的焦点元素的交集为命题C的焦点元素,
Figure BDA0002893367120000039
表示命题A1与命题A2的焦点元素的交集为空集;当K=1表明m1,m2之间没有冲突,K=0时表示证据之间完全矛盾;总之K越小证据之间越冲突;
首先,认为证据信息融合的本质就是,证据体之间受到某种作用力的影响,为了量化证据之间的作用力程度,提出信念库仑力理论(BCF),则定义信任库仑力(BCF),如(6)式:
Figure BDA0002893367120000041
其中设F是两个证据之间库仑力的大小,Qm1,Qm2是两个证据体的信息量,R表示证据体之间的距离,Ke是库伦常数Ke=2-ε|Θ|,0≤ε≤1;
信息熵可以度量证据体的信息量,则其中信任函数的电荷量的概念引用信息熵,目前引用较多的是Deng熵,但是Deng熵理论有一些局限性,没有考虑识别框架(FOD)的尺度和相对于FOD的焦点元素的相对尺度,故引入改进的Deng熵作为证据体的电荷量;公式如(7)所示:
Figure BDA0002893367120000042
其中Qm表示证据体的信息量,|Θ|是识别框架Θ的基数,|A|是A的基数m(A)表示命题A的概率;
两个证据体之间的冲突系数定义如(8)所示:
Figure BDA0002893367120000043
其中c(m1,m2)表示证据体之间的冲突;T表示向量的转置运算,m1,m2分别为两个证据体,是列向量;Ai,Aj是焦点元素,|Ai∩Aj|表示Ai,Aj取交集的基数,|Ai∪Aj|表示Ai,Aj取并集的基数;
定义两个基本概率分配函数的不相关系数如(9)所示:
Figure BDA0002893367120000044
其中ζ两个证据体之间的不相关系数m1(Ai)表示证据体1中命题Ai的概率值,
Figure BDA0002893367120000051
表示证据体1的所有命题的平均概率向量,m2(Bi)表示证据体2中命题Bi的概率值,
Figure BDA0002893367120000052
表示证据体2的所有命题的平均概率向量;
用冲突系数与不相关系数的组合描述证据体之间的距离:
Figure BDA0002893367120000053
不仅考虑到焦点元素和非焦点元素之间的差异,还考虑到了分配函数本身之间的差异。
在上述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,步骤3中改进信息融合方法,并应用到植物图像分类中建立分类模型的特征是:
步骤3.1、构造一个BCF矩阵(BCFM),反应两个证据体之间的相似程度假设有n个证据体BCFM公式如(10)所示:
Figure BDA0002893367120000054
其中mi,mj分别表示第i个证据体和第j个证据体,FBCF(mi,mj)代表证据mi和mj之间的库仑力;FBCF(mi,mi)=0,表示证据体mi与本身的证据距离为0;
步骤3.2、计算所有证据的可信度;证据主体的支持程度表达式为(11)所示:
Figure BDA0002893367120000055
su(mi)表示对证据体mi的支持程度;
crdi表示证据体mi的可信度,定义为(12)所示:
Figure BDA0002893367120000056
crdi表示证据体第i个证据体的可信度
步骤3.3、求所有证据的平均权重如(13)所示;
Figure BDA0002893367120000057
AVE(m)表示所有证据的平均权重;
步骤3.4、使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果。
在上述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,步骤4的具体方法包括:
步骤4.1、构造一个BCF矩阵(BCFM),反应证据体之间的相似程度;
步骤4.2、计算所有证据的可信度;
步骤4.3、求所有证据的平均权重;
步骤4.4、使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果。
和现有技术相比,本发明有一下优点:本发明首次将电磁学中库仑力的概念引用到证据理论中,相对于其他植物图像方法,有更高的抗干扰能力。而且研究的是整株植物,比单个叶片识别实用性更强。
附图说明
图1为本发明方法的流程示意图。
图2为softmax分类器分类原理图。
图3为植物图像分类的模型图。
图4仿真试验中使用不同方法对某张5号植物的识别的结果示意图。
图5仿真试验中不同方法对于测试集图片的识别率示意图。
图6仿真实验中不同方法进行故障诊断结果的示意图。
具体实施方式
下面将对本发明的一种具体实施方式进行详细说明,以使发明的特征能被本领域技术人员理解。
本发明实验部分思路如下:
第一步,提取的3个特征向量,通过softmax分类器初步决策之后获得3个概率分布函数,组成一个概率分布矩阵。一某张5号植物为例,基本概率分配函数如下表所示:
Figure BDA0002893367120000061
第二步,结合公式5,6,7,8,9构造一个BCF矩阵(BCFM),如式13所示:(注,此时Ke=2-5)
Figure BDA0002893367120000071
第三步,通过公式10,11求出每个证据体的信任度。证据体1的信任度Crd1=0.0329,证据体2的信任度Crd2=0.4853,证据体3的信任度Crd3=0.4818。
第四步,根据公式12,求出所有证据的平均权重:m(1)=0.0218m(2)=0.0507m(3)=0.0105m(4)=0.0972m(5)=0.2725m(6)=0.1211m(7)=0.2510m(8)=0.1007m(9)=0.0639m(10)=0.0106。
第五步,使用证据的平均权重进行n-1次Demoster’s组合。融合结果为:m(1)=0.0003m(2)=0.0032m(3)=0m(4)=0.0229m(5)=0.5036m(6)=0.0442m(7)=0.3939m(8)=0.0254m(9)=0.0065m(10)=0。
将改进证据理论应用在故障诊断中:
多传感器的输出如下表所示:
Figure BDA0002893367120000072
其中m1是加速度传感器,m2是速度传感器,m3是位移传感器,A1表示正常工作,A2表示不平衡,A3表示失调,A4表示底座松动,Θ表示识别框架。使用公式10,11求出三个证据体的可信度。Crd1=0.4996,Crd2=0.0007,Crd3=0.4997。根据公式12,求出所有证据的平均权重:m(A1)=0.04m(A2)=0.6295m(A3)=0.0905m(A4)=0.04m(Θ)=0.2
使用证据的平均权重进行n-1次Demoster’s组合。融合结果为:m(A1)=0.0097m(A2)=0.9396m(A3)=0.0276m(A4)=0.0097m(Θ)=0.0133。
仿真结果分析
图3所示,仿真试验中分别使用不同经典的D-S证据理论方法、Murthy、Jiang、Mi和基于库仑力(BCF)的改进D-S证据理论的方法对某张5号植物的识别的结果如图所示,只有基于库仑力(BCF)方法才能正确识别5号植物,其它方法均指向7号植物。
图4所示,仿真试验使用单特征的方法和经典D-S证据理论、基于改进
S证据理论(BCF)的方法对于测试集图片的识别率示意图。如图所示,单特征分类的精度较低,基于库伦力改进的方法精度最高达到85.51%。
图5所示,将改进方法应用于故障诊断。仿真实验分别使用不同经典的
S证据理论方法、Murthy、Deng、Jiang、Mi和基于库仑力(BCF)的改进D-S证据理论的方法进行故障诊断结果的示意图。若将识别的阈值设置为0.8,则只有Jiang、Mi和基于库仑力(BCF)的改进D-S证据理论的方法能准确识别故障。特别是基于库仑力(BCF)的改进方法的识别率超过90%。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明及附图内容所作的等效结构或直接或间接运用在其他相关技术领域,均同理包括在本发明的专利范围。

Claims (5)

1.基于改进证据理论在复杂场景下的植物图像分类的方法,其特征是,包括:
步骤1、采集植物图像数据,并对植物图像数据分别采用灰度直方图、灰度共生矩阵、以及sym4小波提取植物图像的特征,其中,
灰度直方图提取特征的具体方法包括:定义一个灰度级的离散函数;
Figure FDA0002893367110000011
其中ni表示图像中具有灰度级i的像素个数,i表示灰度级,N表示图像总的像素数,L表示灰度级种类数;分别提取灰度直方图的均值,方差,歪斜度,峰态,能量,熵作为特征向量;
灰度共生矩阵提取特征的具体方法包括:将图像在0°,45°,90°,135°中四个不同方向得到的统计量取均值和方差构建图像的全局纹理纹理特征;
sym4小波提取特征的具体方法包括:
步骤1.1、将彩色图像转化为灰度图像;
步骤1.2、选取Sym4小波基并进行4层小波分解获得13个子带;
步骤1.3、求分解后每个子带小波系数的均值和标准差;
步骤2、将步骤1中提取的三种特征分别经过softmax分类器进行初步决策得到三种初步决策结果;
步骤3、将信任库仑力(BCF)的概念引入至Dempster证据理论,构造一个BCF矩阵,计算所有证据的可信度,并计算所有证据的平均权重,基于改进信息融合方法,使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果;
步骤4、将改进的证据理论方法应用到机器故障诊断中,得到了比较好的分类结果。
2.根据权利要求1所述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,其特征在于,步骤2中将灰度直方图提取的特征经过softmax分类器进行初步决策的具体方法是:Softmax分类器中,输入向量为步骤1中提取的特征向量,输入向量为X={x1,x2…xi…xn}T,n值是表示提取的特征向量的个数,xi表示第i特征向量作为输入层的第i个神经元的输入;隐层输出向量为Y={y1,y2…yj…ym}T,yj表示隐层第j个神经元的输出;输出层输出向量为o={o1,o2…ok…or}T,ok表示输出层第k个神经元的输出;期望输出向量d={d1,d2…dk…dr}T,dk表示期望输出中第k个输出;输入层与隐层的权值矩阵为V={V1,V2…Vj…Vm}T;其中列向量Vj为隐层第j个神经元对应的权向量(是一个列向量),隐层到输出层之间的权值矩阵为W={W1,W2…Wk…Wr}T其中列向量Wk为输出层第k个神经元对应的权向量;
激活函数f(x)定义为:f(x)=1/(1+e-x),其中e表示一个自然数,e-x表示以e为底的指数函数;
输入层输入,隐层输出,输出层输出的关系如式1:
Figure FDA0002893367110000021
其中yj表示隐层第j个神经元的输出,xi表示输入层第i个神经元的输入,vij表示输入层第i神经元与输出层第j个神经元之间的权重;Ok表示输出层第k个神经元的输出,wik表示隐层第i个神经元与输出层第j个神经元之间的权重;分类器权值更新公式如式2:
Figure FDA0002893367110000022
其中η∈(0,1),表示学习率,其中γk=(dk-ok)ok(1-ok),vij表示更新后输入层第i神经元与输出层第j个神经元之间的权重;wik表示更新后隐层第i个神经元与输出层第j个神经元之间的权重;
最后,将bp神经网络运行结束后得出的输出进行归一化;如式3所示:
Figure FDA0002893367110000023
其中ok表示程序运行结束后输出层第k个神经元的输出,outputk表示输出层第k个神经元进行归一化后的最终输出。
3.根据权利要求1所述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,其特征在于,步骤3中将信任库仑力(BCF)的概念引入至Dempster证据理论,具体基于以下定义:
识别框架Θ={θ1,θ2,...,θn}表示可能发生事件的集合,θi则为识别框架的子集;Θ中的子集两两互斥,识别框架中的全部识别对象
Figure FDA0002893367110000031
Figure FDA0002893367110000032
如果A∈2Θ则称A为命题;
对于2Θ中的任何命题A,定义映射m:2Θ→[0,1]为基本概率分布,m满足(4)所示条件:
Figure FDA0002893367110000033
m(A)表示证据对A命题的支持程度,实际上是个概率值,
Figure FDA0002893367110000038
表示所有命题都不发生的事件概率
Figure FDA0002893367110000034
Figure FDA0002893367110000035
其中K表示两个证据之间的冲突系数,A1∩A2=C表示命题A1与命题A2的焦点元素的交集为命题C的焦点元素,
Figure FDA0002893367110000037
表示命题A1与命题A2的焦点元素的交集为空集;当K=1表明m1,m2之间没有冲突,K=0时表示证据之间完全矛盾;总之K越小证据之间越冲突;
首先,认为证据信息融合的本质就是,证据体之间受到某种作用力的影响,为了量化证据之间的作用力程度,提出信念库仑力理论(BCF),则定义信任库仑力(BCF),如(6)式:
Figure FDA0002893367110000036
其中设F是两个证据之间库仑力的大小,Qm1,Qm2是两个证据体的信息量,R表示证据体之间的距离,Ke是库伦常数Ke=2-ε|Θ|,0≤ε≤1;
信息熵可以度量证据体的信息量,则其中信任函数的电荷量的概念引用信息熵,目前引用较多的是Deng熵,但是Deng熵理论有一些局限性,没有考虑识别框架(FOD)的尺度和相对于FOD的焦点元素的相对尺度,故引入改进的Deng熵作为证据体的电荷量;公式如(7)所示:
Figure FDA0002893367110000041
其中Qm表示证据体的信息量,|Θ|是识别框架Θ的基数,|A|是A的基数m(A)表示命题A的概率;
两个证据体之间的冲突系数定义如(8)所示:
Figure FDA0002893367110000042
其中c(m1,m2)表示证据体之间的冲突;T表示向量的转置运算,m1,m2分别为两个证据体,是列向量;Ai,Aj是焦点元素,|Ai∩Aj|表示Ai,Aj取交集的基数,|Ai∪Aj|表示Ai,Aj取并集的基数;
定义两个基本概率分配函数的不相关系数如(9)所示:
Figure FDA0002893367110000043
其中ζ两个证据体之间的不相关系数m1(Ai)表示证据体1中命题Ai的概率值,
Figure FDA0002893367110000044
表示证据体1的所有命题的平均概率向量,m2(Bi)表示证据体2中命题Bi的概率值,
Figure FDA0002893367110000045
表示证据体2的所有命题的平均概率向量;
用冲突系数与不相关系数的组合描述证据体之间的距离:
Figure FDA0002893367110000046
不仅考虑到焦点元素和非焦点元素之间的差异,还考虑到了分配函数本身之间的差异。
4.根据权利要求1所述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,其特征在于,步骤3中改进信息融合方法,并应用到植物图像分类中建立分类模型的特征是:
步骤3.1、构造一个BCF矩阵(BCFM),反应两个证据体之间的相似程度假设有n个证据体BCFM公式如(10)所示:
Figure FDA0002893367110000051
其中mi,mj分别表示第i个证据体和第j个证据体,FBCF(mi,mj)代表证据mi和mj之间的库仑力;FBCF(mi,mi)=0,表示证据体mi与本身的证据距离为0;
步骤3.2、计算所有证据的可信度;证据主体的支持程度表达式为(11)所示:
Figure FDA0002893367110000052
su(mi)表示对证据体mi的支持程度;
crdi表示证据体mi的可信度,定义为(12)所示:
Figure FDA0002893367110000053
crdi表示证据体第i个证据体的可信度
步骤3.3、求所有证据的平均权重如(13)所示;
Figure FDA0002893367110000054
AVE(m)表示所有证据的平均权重;
步骤3.4、使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果。
5.根据权利要求1所述的一种基于基于改进证据理论在复杂场景下的植物图像分类的方法,其特征在于,步骤4的具体方法包括:
步骤4.1、构造一个BCF矩阵(BCFM),反应证据体之间的相似程度;
步骤4.2、计算所有证据的可信度;
步骤4.3、求所有证据的平均权重;
步骤4.4、使用证据的平均权重进行n-1次Demoster’s组合,得到最后的融合证据,选择信息融合下最大的假设作为识别的结果。
CN202110033816.4A 2021-01-12 2021-01-12 基于改进证据理论在复杂场景下的植物图像分类的方法 Active CN112699961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110033816.4A CN112699961B (zh) 2021-01-12 2021-01-12 基于改进证据理论在复杂场景下的植物图像分类的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110033816.4A CN112699961B (zh) 2021-01-12 2021-01-12 基于改进证据理论在复杂场景下的植物图像分类的方法

Publications (2)

Publication Number Publication Date
CN112699961A true CN112699961A (zh) 2021-04-23
CN112699961B CN112699961B (zh) 2021-08-03

Family

ID=75514038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110033816.4A Active CN112699961B (zh) 2021-01-12 2021-01-12 基于改进证据理论在复杂场景下的植物图像分类的方法

Country Status (1)

Country Link
CN (1) CN112699961B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077408A (zh) * 2012-11-13 2013-05-01 国家海洋局第二海洋研究所 基于小波神经网络的海底声纳图像转换为声学底质类别方法
CN108764312A (zh) * 2018-05-17 2018-11-06 河海大学 基于ds优化多指标大坝缺陷图像检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077408A (zh) * 2012-11-13 2013-05-01 国家海洋局第二海洋研究所 基于小波神经网络的海底声纳图像转换为声学底质类别方法
CN108764312A (zh) * 2018-05-17 2018-11-06 河海大学 基于ds优化多指标大坝缺陷图像检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
F. XIAO 等: "Divergence measure of pythagorean fuzzy sets and its application in medical diagnosis", 《APPL. SOFT COMPUT》 *
付波 等: "一种基于多源信息融合的植物识别方法", 《信息与电脑(理论版)》 *

Also Published As

Publication number Publication date
CN112699961B (zh) 2021-08-03

Similar Documents

Publication Publication Date Title
CN107066559B (zh) 一种基于深度学习的三维模型检索方法
CN111325111A (zh) 一种融合逆注意力和多尺度深度监督的行人重识别方法
CN105894047B (zh) 一种基于三维数据的人脸分类系统
CN111612017B (zh) 一种基于信息增强的目标检测方法
CN114220124A (zh) 一种近红外-可见光跨模态双流行人重识别方法及系统
CN113657425B (zh) 基于多尺度与跨模态注意力机制的多标签图像分类方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN113762138B (zh) 伪造人脸图片的识别方法、装置、计算机设备及存储介质
Chitaliya et al. Feature extraction using wavelet-pca and neural network for application of object classification & face recognition
CN112560967B (zh) 一种多源遥感图像分类方法、存储介质及计算设备
CN112861970B (zh) 一种基于特征融合的细粒度图像分类方法
Zuobin et al. Feature regrouping for cca-based feature fusion and extraction through normalized cut
CN114022726A (zh) 一种基于胶囊网络的人员车辆监控方法及系统
CN115966010A (zh) 一种基于注意力和多尺度特征融合的表情识别方法
CN114611672A (zh) 模型训练方法、人脸识别方法及装置
CN103942572A (zh) 一种基于双向压缩数据空间维度缩减的面部表情特征提取方法和装置
CN111639686B (zh) 基于维度加权和视角特征一致性的半监督分类方法
CN112001231B (zh) 加权多任务稀疏表示的三维人脸识别方法、系统及介质
Xiaoru et al. A novel vehicle feature extraction algorithm based on wavelet moment
CN111461002B (zh) 一种面向热成像行人检测的样本处理方法
CN112699961B (zh) 基于改进证据理论在复杂场景下的植物图像分类的方法
CN110287973B (zh) 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
CN114241239A (zh) 一种基于流形学习的无监督预适应图像分类方法
CN114627424A (zh) 一种基于视角转化的步态识别方法和系统
CN112307980A (zh) 一种基于不完整多视聚类的图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant