CN103093238A - 基于d-s证据理论的视觉词典构建方法 - Google Patents

基于d-s证据理论的视觉词典构建方法 Download PDF

Info

Publication number
CN103093238A
CN103093238A CN2013100149882A CN201310014988A CN103093238A CN 103093238 A CN103093238 A CN 103093238A CN 2013100149882 A CN2013100149882 A CN 2013100149882A CN 201310014988 A CN201310014988 A CN 201310014988A CN 103093238 A CN103093238 A CN 103093238A
Authority
CN
China
Prior art keywords
subclass
information entropy
classification
class
evidence theory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100149882A
Other languages
English (en)
Other versions
CN103093238B (zh
Inventor
沈项军
高海迪
朱倩
曾兰玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201310014988.2A priority Critical patent/CN103093238B/zh
Publication of CN103093238A publication Critical patent/CN103093238A/zh
Application granted granted Critical
Publication of CN103093238B publication Critical patent/CN103093238B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于D-S证据理论的视觉词典构建方法,包括:S1、提取所有训练图像的SIFT特征,应用K均值实现初步的视觉字典分类得到K个子类;S2、设定分类阈值t和熵阈值s;S3、判断当前的分类数是否小于t,若是,执行步骤S4,若否,执行步骤S7;S4、对已有分类计算每个子类的信息熵;S5、选择信息熵最大的一个子类作为当前要分解的类,判断该子类的信息熵是否大于s,若是,执行步骤S6,若否,执行步骤S7;S6、将当前信息熵最大的子类h运用D-S证据理论进一步分类;S7、计算新形成的子类的聚类中心,形成视觉词典。本发明能构造出更加更加有效的视觉词典,提高图像的分类准确率。

Description

基于D-S证据理论的视觉词典构建方法
技术领域
本发明涉及图像特征提取,视觉聚类以及图像分类技术领域,尤其涉及一种基于D-S证据理论的视觉词典构建方法。
背景技术
图像分类是计算机视觉领域内的一个重点研究的问题,它能够将不同类别的目标区分开来,在卫星遥感,航空航天,生物医学等方面具有广泛的应用。近年来,使用词袋(bag-of-words)模型表示图像并实现图像对象分类的方法,由于其实现了基于多个图像特征的图像表示模型,因此在图像分类中受到较大的关注。而在词袋模型中需要首先构建图像类的视觉词典。视觉词典构建的好坏直接影响了图像分类的效果。目前传统的视觉字典的构造方法是在提取图像特征例如颜色,纹理等的基础上,将提取的图像特征使用聚类方法,例如K均值(K-Means)聚类,来构造视觉词典。如Jayech等人将图像分成块,分别使用高斯混合模型Gaussian Mixture Model)和灰度共生矩阵Gray Level Co-occurrence Matrix)提取分块的颜色特征和纹理特征,经过K均值聚类后形成视觉词典,进而利用贝叶斯网络实现图像的分类。Willamowski等人使用朴素贝叶斯和支持向量机实现图像的分类识别则是在提取图像的SIFT(scale invariant feature transform)特征后,经过K均值聚类构建词汇表。Xu等人经过SIFT特征提取和DENCLUE聚类后获得视觉字典,然后计算点间互信息获得重要的特征,使用支持向量机实现图像分类识别。上面所提到的构建视觉字典方法一般是将提取的多个特征形成统一的特征向量,然后使用聚类方法。这种方法在视觉聚类的过程中只考虑了特征的视觉相似性而导致忽略了不同特征对构建视觉字典的影响。因此如何考察不同特征的视觉相似性,区分出对聚类影响度不同的特征,从而构造更加精确地视觉字典就显得非常重要。
D-S证据理论是由Dempster提出并有Shafer进一步发展而来的,是一种信息融合技术。这个理论是经典概率论的一种扩充形式,是对传统Bayes理论的推广。它是一种建立在置信函数和似然函数上的数学证据理论,将证据的信任函数与概率论的上下值相联系,用信任函数和似然度来解释多值映射,并在此基础上形成了处理不确定信息的证据理论。它可以结合一个事件的不同证据信息来计算这个事件发生的概率,能够处理被忽略或者丢失的信息,提供不同信息源之间信息的不精确性和冲突估计。在D-S证据理论中,基本概率赋值函数用来描述每个传感器或同一传感器的某一特征对假设命题的影响,置信函数和似然函数表示某个假设命题的可信度,各个特征的共同作用则可用组合公式来计算,而命题的最后判断则用决策规则来实现。由于D-S证据理论在处理不确定信息方面的作用,它可以应用在图像分类,对象识别等多个方面。
有鉴于此,有必要提供一种基于D-S证据理论的视觉词典构建方法以解决上述问题。
发明内容
本发明提供了一种基于D-S证据理论的视觉词典构建方法,通过使用D-S证据理论考察不同特征的视觉相似性并进行特征融合,从而对初始视觉字典进行更进一步的细分,构造出更加更加有效的视觉词典,提高图像的分类准确率。
为了实现上述目的,本发明实施例提供的技术方案如下:
一种基于D-S证据理论的视觉词典构建方法,所述方法包括:
S1、提取所有训练图像的SIFT特征,应用K均值实现初步的视觉字典分类得到K个子类;
S2、设定分类阈值t和熵阈值s,其中分类阈值t表示设定的最大聚类个数即最大视觉单词个数,阈值s表示允许应用D-S证据理论进行子类分解的信息熵阈值;
S3、判断当前的分类数是否小于t,若是,执行步骤S4,若否,执行步骤S7;
S4、对已有分类计算每个子类的信息熵;
S5、选择信息熵最大的一个子类作为当前要分解的类,判断该子类的信息熵是否大于s,若是,执行步骤S6,若否,执行步骤S7;
S6、将当前信息熵最大的子类h运用D-S证据理论进一步分类;
S7、计算新形成的子类的聚类中心,形成视觉词典。
作为本发明的进一步改进,所述步骤S4中信息熵的计算公式为:
H ( x ) = - Σ i = 1 r p ( a i ) log p ( a i ) ,
其中,r表示当前子类中属于不同图像类的实际类别个数,p(ai)表示当前类中属于第i类的区域在类中所有区域中所占的比例,且满足p(ai)>0,
Figure BDA00002740172200022
作为本发明的进一步改进,所述步骤S5中当前信息熵最大的子类为:
h = arg max j = 1 m ( H j ) ,
其中,h表示当前信息熵最大的子类,m表示当前形成的所有子类的数目,Hj表示第j个类的信息熵。
作为本发明的进一步改进,所述步骤S7中新形成的子类的聚类中心的计算公式为:
C b = 1 n Σ k = 1 n F k , b = 1,2 , . . . N ,
其中,N表示新形成的子类的数目,n表示第b个子类中图像区域的个数,Fk表示新形成的第b个子类中第k个区域的特征向量。
作为本发明的进一步改进,所述步骤S6具体为:
S61、在当前要分解的子类h中,提取每个SIFT特征点周围大小为M*M的邻域即每个区域的HSV颜色空间上的颜色特征;
S62、使用欧几里得距离表示两个区域颜色特征的相似度,选取距离最大的两个区域,将这两个区域作为D-S证据理论图像模型库;
S63、对于余下的每个SIFT区域,获取它们各自的SIFT特征和SIFT特征点周围M*M范围邻域即这个区域的HSV颜色特征;
S64、根据D-S证据理论融合规则进行融合;
S65、依据决策规则实现对每个区域的分类;
S66、对于新形成的所有的子类,执行步骤S3。
作为本发明的进一步改进,所述步骤S64中D-S证据理论融合规则具体为:
m ( A ) = m 1 ( A ) ⊕ m 2 ( A ) = Σ A j ∩ B j = A m 1 ( A i ) . m 2 ( B j ) 1 - Σ A j ∩ B j = Φ m 1 ( A i ) . m 2 ( B j ) ,
其中为归一化常数,Θ为辨识框架,在辨识框架上的基本概率赋值是一个2Θ→[0,1]的mass函数m,且满足m(Φ)=0,
Figure BDA00002740172200035
其中,使得m(A)>0的A称为焦元,同一辨识框架Θ上的两个信任函数分别为Bel1和Bel2,各自对应两个相互独立的基本赋值函数m1和m2,分配的焦元分别为A1,A2,...,Ai和B1,B2,...,Bj
作为本发明的进一步改进,所述步骤S65决策规则包括:
目标类别具有最大的基本概率赋值;
目标类别的基本概率赋值与其它类别的基本概率赋值的差值必须大于预设阈值t1;
不确定性概率mi(Θ)必须小于预设阈值t2;
目标类别的基本概率赋值必须大于不确定性概率mi(Θ)。
本发明基于D-S证据理论的视觉词典构建方法在获得K均值聚类形成的初始视觉分类后,使用D-S证据理论融合邻域上的SIFT特征和颜色特征,并运用决策规则将最初的视觉分类进一步划分,进而形成更细分的视觉字典,将所得视觉字典应用词袋算法,并使用支持向量机分类器和贝叶斯分类器作为图像识别分类的结果表明,本发明构造出更加更加有效的视觉词典,提高图像的分类准确率。
附图说明
图1为本发明一实施方式中基于D-S证据理论的视觉词典构建方法的具体流程图;
图2为本发明一实施方式中运用D-S证据理论进一步分类的具体流程图。
具体实施方式
以下将结合附图所示的各实施方式对本发明进行详细描述。但这些实施方式并不限制本发明,本领域的普通技术人员根据这些实施方式所做出的结构、方法、或功能上的变换均包含在本发明的保护范围内。
本发明的一种基于D-S证据理论的视觉词典构建方法,包括:
S1、提取所有训练图像的SIFT特征,应用K均值实现初步的视觉字典分类得到K个子类;
S2、设定分类阈值t和熵阈值s,其中分类阈值t表示设定的最大聚类个数即最大视觉单词个数,阈值s表示允许应用D-S证据理论进行子类分解的信息熵阈值;
S3、判断当前的分类数是否小于t,若是,执行步骤S4,若否,执行步骤S7;
S4、对已有分类计算每个子类的信息熵;
S5、选择信息熵最大的一个子类作为当前要分解的类,判断该子类的信息熵是否大于s,若是,执行步骤S6,若否,执行步骤S7;
S6、将当前信息熵最大的子类h运用D-S证据理论进一步分类;
S7、计算新形成的子类的聚类中心,形成视觉词典。
参图1所示,本发明一具体实施方式中选取Caltech256图像中的7类图像,随机选取每类图像中的10幅图像作为训练图像,而测试图像中则随机选取每类图像中的45幅图像(测试图像与训练图像没有重复)共315幅图像,基于D-S证据理论的视觉词典构建方法详细过程如下:
S1、提取所有训练图像的SIFT特征,应用K均值实现初步的视觉字典分类得到K个子类;本实施例中K=40。
S2、设定分类阈值t和熵阈值s,其中分类阈值t表示设定的最大聚类个数即最大视觉单词个数,阈值s表示允许应用D-S证据理论进行子类分解的信息熵阈值;本实施例中t=75,s=0.8。
S3、判断当前的分类数是否小于t,则执行步骤S4,若否,执行步骤S7;
S4、对已有分类计算每个子类的信息熵;
在每个子类中,提取的每个SIFT特征点周围一定范围内邻域作为一个区域,本实施例中设定区域大小为11*11。信息熵反映了一个系统的杂乱程度,信息熵越大,系统就越杂乱。信息熵的计算公式如下:
H ( x ) = - Σ i = 1 r p ( a i ) log p ( a i ) ,
其中,r表示当前子类中属于不同图像类的实际类别个数,p(ai)表示当前类中属于第i类的区域在类中所有区域中所占的比例,且满足p(ai)>0,
Figure BDA00002740172200052
S5、选择信息熵最大的一个子类作为当前要分解的类,判断该子类的信息熵是否大于s,若是,执行步骤S6,若否,执行步骤S7;
设h表示当前信息熵最大的子类,m表示当前形成的所有子类的数目,则有:
h = arg max j = 1 m ( H j ) ,
其中,Hj表示第j个类的信息熵。
S6、将当前信息熵最大的子类h运用D-S证据理论进一步分类;
S7、计算新形成的子类的聚类中心,形成视觉词典。
这样就形成了N个子类,每个聚类中心则被看作是一个视觉单词(visual word)。新聚类中心的计算公式如下:
C b = 1 n Σ k = 1 n F k , b = 1,2 , . . . N ,
其中,N表示新形成的子类的数目,n表示第b个子类中图像区域的个数,Fk表示新形成的第b个子类中第k个区域的特征向量。
进一步地,步骤S6具体为:
S61、在当前要分解的子类h中,提取每个SIFT特征点周围大小为M*M的邻域即每个区域的HSV颜色空间上的颜色特征;本实施例中提取每个SIFT特征点周围大小为11*11的邻域的HSV空间上256维颜色特征。
S62、使用欧几里得距离表示两个区域颜色特征的相似度,选取距离最大的两个区域,将这两个区域作为D-S证据理论图像模型库;
S63、对于余下的每个SIFT区域,获取它们各自的SIFT特征和SIFT特征点周围M*M范围邻域即这个区域的HSV颜色特征;本实施例中获取余下的每个SIFT区域各自的SIFT特征和SIFT特征点周围11*11范围内邻域即这个区域的HSV颜色特征。
S64、根据D-S证据理论融合规则进行融合;
D-S证据理论融合规则的公式如下:
假设Θ为辨识框架,在辨识框架上的基本概率赋值(简称为BPA)是一个2Θ→[0,1]的函数m,称为mass函数,并且满足:m(Φ)=0,
Figure BDA00002740172200061
其中,使得m(A)>0的A称为焦元。
设同一识别框架Θ上的两个信任函数分别为Bel1和Bel2,各自对应两个相互独立的基本赋值函数m1和m2,其分配的焦元分别为A1,A2,...,Ai和B1,B2,...,Bj,那么组合规则可表示为:
m ( A ) = m 1 ( A ) ⊕ m 2 ( A ) = Σ A i ∩ B j = A m 1 ( A i ) . m 2 ( B j ) 1 - Σ A i ∩ B j = Φ m 1 ( A i ) . m 2 ( B j ) ,
其中
Figure BDA00002740172200063
为归一化常数,反映了两个证据间的冲突大小,当k=1时表示两个证据完全矛盾,不能合并。
本发明中构造基本概率赋值函数的具体方法如下:在每个子类中,首先利用步骤S62中的方法获得图像(区域)模型库,提取模型库中每个图像(区域)的各特征fi(即SIFT特征和颜色特征);然后针对每个待分类图像,提取它的的各特征,分别与模型库中每个图像的相应特征作比较,计算相关系数pi(j),j代表模型库中的图像类别号;最后由pi(j)构造特征fi赋予图像类别j的基本概率mi(j),具体方法如下:
设αi=max(pi(j))为特征fi与目标j的最大相关系数,其中
Figure BDA00002740172200064
dis(i,j)为特征fi与目标j对应特征的欧几里得距离;
Figure BDA00002740172200071
为特征fi与各目标相关系数的分布函数;
Figure BDA00002740172200072
为特征fi的可靠系数;
为了利用DS组合规则,需由相关系数转化为基本概率函数。设特征fi赋予目标j的基本概率赋值为mi(j),则特征fi赋予目标j的基本概率赋值mi(j)为:
m i ( j ) = p i ( j ) Σ j = 1 n p i ( j ) + n ( 1 - γ i ) ( 1 - α i β i ) ,
特征fi赋予识别框架Θ的基本概率赋值,即特征的不确定性概率为:
m i ( Θ ) = n ( 1 - γ i ) ( 1 - α i β i ) Σ j = 1 n p i ( j ) + n ( 1 - γ i ) ( 1 - α i β i ) .
由以上的几个公式可计算但特征的基本概率赋值,进而计算融合特征的基本概率赋值。
在本发明中,辨识框架指在S62中得到的图像模型库。信任函数表示对某个假设的信任程度,且满足:
Bel ( A ) = Σ B ⊆ A m ( B ) .
S65、依据决策规则将子类中图像对象区域分到两个不同的子类中,而总类数也增加1个。决策规则如下:
1.目标类别具有最大的基本概率赋值;
2.目标类别的基本概率赋值与其它类别的基本概率赋值的差值必须大于预设阈值t1;本实施方式中t1=0.0001。
3.不确定性概率mi(Θ)必须小于预设阈值t2;本实施方式中t2=0.1。
4.目标类别的基本概率赋值必须大于不确定性概率mi(Θ)。
S66、对于新形成的所有的子类,执行步骤S3。
表一给出了使用本发明中的方法构造视觉词典后,分别使用支持向量机分类器(SupportVector Machine Classifier)和朴素贝叶斯分类器(
Figure BDA00002740172200076
 Bayesian Classifier)对图像的识别率,与基于K均值聚类构造视觉词典后使用支持向量机分类器与朴素贝叶斯分类器对图像的识别率的比较。从表一中可以看出本发明所提出的视觉字典构建方法能有效提高视觉词汇表的语义精确度,在Caltech256数据集上所做的基于支持向量机分类器与朴素贝叶斯分类器上实验证明,应用本发明方法所取得的分类效果得到了很大的提高。
表一:应用本发明中视觉词典构建方法和基于K均值聚类的视觉词典构建方法实现图像分类的结果比较。
Figure BDA00002740172200081
与现有技术相比,本发明基于D-S证据理论的视觉词典构建方法在获得K均值聚类形成的初始视觉分类后,使用D-S证据理论融合邻域上的SIFT特征和颜色特征,并运用决策规则将最初的视觉分类进一步划分,进而形成更细分的视觉字典,将所得视觉字典应用词袋算法,并使用支持向量机分类器和贝叶斯分类器作为图像识别分类的结果表明,本发明构造出更加更加有效的视觉词典,提高图像的分类准确率。
应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施方式中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于D-S证据理论的视觉词典构建方法,其特征在于,所述方法包括:
S1、提取所有训练图像的SIFT特征,应用K均值实现初步的视觉字典分类得到K个子类;
S2、设定分类阈值t和熵阈值s,其中分类阈值t表示设定的最大聚类个数即最大视觉单词个数,阈值s表示允许应用D-S证据理论进行子类分解的信息熵阈值;
S3、判断当前的分类数是否小于t,若是,执行步骤S4,若否,执行步骤S7;
S4、对已有分类计算每个子类的信息熵;
S5、选择信息熵最大的一个子类作为当前要分解的类,判断该子类的信息熵是否大于s,若是,执行步骤S6,若否,执行步骤S7;
S6、将当前信息熵最大的子类h运用D-S证据理论进一步分类;
S7、计算新形成的子类的聚类中心,形成视觉词典。
2.根据权利要求1所述的方法,其特征在于,所述步骤S4中信息熵的计算公式为:
H ( x ) = - Σ i = 1 r p ( a i ) log p ( a i ) ,
其中,r表示当前子类中属于不同图像类的实际类别个数,p(ai)表示当前类中属于第i类的区域在类中所有区域中所占的比例,且满足p(ai)>0,
Figure FDA00002740172100012
3.根据权利要求1所述的方法,其特征在于,所述步骤S5中当前信息熵最大的子类为:
h = arg max j = 1 m ( H j ) ,
其中,h表示当前信息熵最大的子类,m表示当前形成的所有子类的数目,Hj表示第j个类的信息熵。
4.根据权利要求1所述的方法,其特征在于,所述步骤S7中新形成的子类的聚类中心的计算公式为:
C b = 1 n Σ k = 1 n F k , b = 1,2 , . . . N ,
其中,N表示新形成的子类的数目,n表示第b个子类中图像区域的个数,Fk表示新形成的第b个子类中第k个区域的特征向量。
5.根据权利要求1所述的方法,其特征在于,所述步骤S6具体为:
S61、在当前要分解的子类h中,提取每个SIFT特征点周围大小为M*M的邻域即每个区域的HSV颜色空间上的颜色特征;
S62、使用欧几里得距离表示两个区域颜色特征的相似度,选取距离最大的两个区域,将这两个区域作为D-S证据理论图像模型库;
S63、对于余下的每个SIFT区域,获取它们各自的SIFT特征和SIFT特征点周围M*M范围邻域即这个区域的HSV颜色特征;
S64、根据D-S证据理论融合规则进行融合;
S65、依据决策规则实现对每个区域的分类;
S66、对于新形成的所有的子类,执行步骤S3。
6.根据权利要求5所述的方法,其特征在于,所述步骤S64中D-S证据理论融合规则具体为:
m ( A ) = m 1 ( A ) ⊕ m 2 ( A ) = Σ A i ∩ B j = A m 1 ( A i ) . m 2 ( B j ) 1 - Σ A i ∩ B j = Φ m 1 ( A i ) . m 2 ( B j ) ,
其中为归一化常数,Θ为辨识框架,在辨识框架上的基本概率赋值是一个2Θ→[0,1]的mass函数m,且满足m(Φ)=0,
Figure FDA00002740172100023
其中,使得m(A)>0的A称为焦元,同一辨识框架Θ上的两个信任函数分别为Bel1和Bel2,各自对应两个相互独立的基本赋值函数m1和m2,分配的焦元分别为A1,A2,...,Ai和B1,B2,...,Bj
7.根据权利要求6所述的方法,其特征在于,所述步骤S65决策规则包括:
目标类别具有最大的基本概率赋值;
目标类别的基本概率赋值与其它类别的基本概率赋值的差值必须大于预设阈值t1;
不确定性概率mi(Θ)必须小于预设阈值t2;
目标类别的基本概率赋值必须大于不确定性概率mi(Θ)。
CN201310014988.2A 2013-01-15 2013-01-15 基于d-s证据理论的视觉词典构建方法 Expired - Fee Related CN103093238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310014988.2A CN103093238B (zh) 2013-01-15 2013-01-15 基于d-s证据理论的视觉词典构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310014988.2A CN103093238B (zh) 2013-01-15 2013-01-15 基于d-s证据理论的视觉词典构建方法

Publications (2)

Publication Number Publication Date
CN103093238A true CN103093238A (zh) 2013-05-08
CN103093238B CN103093238B (zh) 2016-01-20

Family

ID=48205786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310014988.2A Expired - Fee Related CN103093238B (zh) 2013-01-15 2013-01-15 基于d-s证据理论的视觉词典构建方法

Country Status (1)

Country Link
CN (1) CN103093238B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914064A (zh) * 2014-04-01 2014-07-09 浙江大学 基于多分类器和d-s证据融合的工业过程故障诊断方法
CN104820843A (zh) * 2015-05-29 2015-08-05 常熟苏大低碳应用技术研究院有限公司 一种基于优化高斯混合模型的图像语义标注的方法
CN104966090A (zh) * 2015-07-21 2015-10-07 公安部第三研究所 实现面向图像理解的视觉单词生成和评价的系统及方法
CN106096506A (zh) * 2016-05-28 2016-11-09 重庆大学 基于子类类间判别双字典的sar目标识别方法
CN108154179A (zh) * 2017-12-25 2018-06-12 北京润科通用技术有限公司 一种数据的检错方法及系统
CN110889436A (zh) * 2019-11-06 2020-03-17 西北工业大学 一种基于可信度估计的水下多类目标分类方法
CN114758408A (zh) * 2020-12-28 2022-07-15 山东大学 基于多分类器的混淆行为冲突管理系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DAKSHINA R. KISKU,MASSIMO TISTARELLI,JAMUNA KANTA SING: "Face Recognition by Fusion of Local and Global Matching Scores using DS", 《IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
HAIDI GAO,XIANGJUN SHEN,ZHONGQIU JIANG,HEBIAO YANG,LI YAN: "Image Subcategory Classification Based on", 《INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND SERVICE SYSTEM》 *
王峰: "D-S证据理论在指纹图像分割中的应用研究", 《计算机工程与应用》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914064A (zh) * 2014-04-01 2014-07-09 浙江大学 基于多分类器和d-s证据融合的工业过程故障诊断方法
CN103914064B (zh) * 2014-04-01 2016-06-08 浙江大学 基于多分类器和d-s证据融合的工业过程故障诊断方法
CN104820843A (zh) * 2015-05-29 2015-08-05 常熟苏大低碳应用技术研究院有限公司 一种基于优化高斯混合模型的图像语义标注的方法
CN104966090A (zh) * 2015-07-21 2015-10-07 公安部第三研究所 实现面向图像理解的视觉单词生成和评价的系统及方法
CN104966090B (zh) * 2015-07-21 2018-08-14 公安部第三研究所 实现面向图像理解的视觉单词生成和评价的系统及方法
CN106096506A (zh) * 2016-05-28 2016-11-09 重庆大学 基于子类类间判别双字典的sar目标识别方法
CN106096506B (zh) * 2016-05-28 2019-04-26 重庆大学 基于子类类间判别双字典的sar目标识别方法
CN108154179A (zh) * 2017-12-25 2018-06-12 北京润科通用技术有限公司 一种数据的检错方法及系统
CN110889436A (zh) * 2019-11-06 2020-03-17 西北工业大学 一种基于可信度估计的水下多类目标分类方法
CN110889436B (zh) * 2019-11-06 2022-07-22 西北工业大学 一种基于可信度估计的水下多类目标分类方法
CN114758408A (zh) * 2020-12-28 2022-07-15 山东大学 基于多分类器的混淆行为冲突管理系统及方法
CN114758408B (zh) * 2020-12-28 2024-05-07 山东大学 基于多分类器的混淆行为冲突管理系统及方法

Also Published As

Publication number Publication date
CN103093238B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103093238B (zh) 基于d-s证据理论的视觉词典构建方法
Kim et al. An Efficient Color Space for Deep‐Learning Based Traffic Light Recognition
CN104992191B (zh) 基于深度学习的特征和最大置信路径的图像分类方法
CN103366367B (zh) 基于像素数聚类的模糊c-均值灰度图像分割方法
US20150095022A1 (en) List recognizing method and list recognizing system
CN108345850A (zh) 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法
CN103530633A (zh) 一种图像局部不变特征的语义映射方法及语义映射系统
Huang et al. Isolated Handwritten Pashto Character Recognition Using a K‐NN Classification Tool based on Zoning and HOG Feature Extraction Techniques
Guindel et al. Joint object detection and viewpoint estimation using CNN features
CN102968619B (zh) 一种汉字图片的部件识别方法
CN103186776A (zh) 基于多特征和深度信息的人体检测方法
Chen et al. Real-time traffic sign classification using combined convolutional neural networks
CN105718935A (zh) 一种适宜于视觉大数据的词频直方图计算方法
Liu et al. A novel SVM network using HOG feature for prohibition traffic sign recognition
Cholakkal et al. A classifier-guided approach for top-down salient object detection
Zhao et al. Hybrid generative/discriminative scene classification strategy based on latent Dirichlet allocation for high spatial resolution remote sensing imagery
CN103136536A (zh) 对象检测系统和方法、图像的特征提取方法
Cheng et al. Double distribution support vector machine
CN102968622A (zh) 一种台标识别方法以及台标识别装置
Schels et al. Learning an object class representation on a continuous viewsphere
CN102034102B (zh) 图像显著对象提取方法、互补显著度图学习方法及系统
Siddiqui et al. Towards efficient vehicle classification in intelligent transportation systems
Wu et al. Mixed Pattern Matching‐Based Traffic Abnormal Behavior Recognition
CN116342390A (zh) 一种荧光颜料组合物及其制备方法
Li et al. Hierarchical Latent Dirichlet Allocation models for realistic action recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160120

Termination date: 20170115