CN102024030A - 基于最大期望参数估计的多分类器集成方法 - Google Patents

基于最大期望参数估计的多分类器集成方法 Download PDF

Info

Publication number
CN102024030A
CN102024030A CN 201010566285 CN201010566285A CN102024030A CN 102024030 A CN102024030 A CN 102024030A CN 201010566285 CN201010566285 CN 201010566285 CN 201010566285 A CN201010566285 A CN 201010566285A CN 102024030 A CN102024030 A CN 102024030A
Authority
CN
China
Prior art keywords
image
sample
sorter
training sample
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN 201010566285
Other languages
English (en)
Inventor
王向阳
陈景伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Normal University
Original Assignee
Liaoning Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Normal University filed Critical Liaoning Normal University
Priority to CN 201010566285 priority Critical patent/CN102024030A/zh
Publication of CN102024030A publication Critical patent/CN102024030A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明所述的基于最大期望参数估计的多分类器集成方法,主要涉及到一种对多个单一分类器用最大期望参数估计方法进行集成的基于相关反馈的图像检索新方法,包括提取单元、检索单元、标记单元和学习单元;具体流程为:首先提取图像库中每幅图像的颜色、纹理、形状等底层视觉特征,用户随机从图像库中选取一幅图像,采用欧氏距离计算方法将该图像特征与图像库中所有图像的底层特征进行相似度比对,将相似度按大小排序并返回给用户前10幅图像。用户根据返回图像与事先选取的图像是否属于同一个语义类将其标记为正例图像和反例图像,然后将标记好的图像放到支持向量机中进行训练学习,最后将学习后的结果反馈给用户。

Description

基于最大期望参数估计的多分类器集成方法
技术领域
本发明所述的基于最大期望参数估计的多分类器集成方法,属于多媒体信息中基于相关反馈的图像检索领域,主要涉及到一种对多个单一分类器用最大期望参数估计方法进行集成的基于相关反馈的图像检索方法。
背景技术
目前随着多媒体技术的快速发展及Internet技术的日益普及,数字图像的来源越来越广泛,每天各个领域都会产生数以千兆字节的图像信息。如何从浩瀚的图像信息中快速准确的查找出用户所需要的信息成为了迫切需要解决的问题,基于内容的图像检索技术应运而生,成为信息检索领域的研究热点,得到了国际学术界广泛研究。所谓基于内容的图像检索,就是根据图像的颜色、纹理、形状等特征,按照某种相似度计算方法,从图像库中找出与用户事先想要查询的图像最相似的若干幅图像。由于图像底层视觉特征与图像高级语义之间存在代沟,因此人们提出了基于反馈的图像检索方法来解决这一问题。早期的相关反馈技术主要采用启发式方法,并可大致分为两类:查询点移动和权值调整。前者通过修改查询向量的方式移动查询点,使得移动后的查询点靠近特征空间中正样本集中的区域;后者通过调整特征分量权重的方式修改距离度量公制,以加强那些能使正样本聚拢或能把正、负样本的特征分量。启发式方法基于这样一种假设:所有正样本大致被包含在特征空间中一个超椭球区域内,但是,该假设过于理想,实际应用中很难满足。目前,学者们更倾向于将相关反馈过程看作机器学习问题,即系统根据用户反馈信息训练一个学习器,然后利用学习器来预测数据库中图像与查询图像之间的相关程度。其中,基于支持向量机(SVM)的相关反馈方法由于支持向量机具有很好的模式分类性能而被广泛应用。然而,相关反馈是一种典型的小样本学习问题,即训练样本数远远小于特征空间维数,这种情况严重限制了SVM的学习性能。因此本发明提出了一种基于最大期望参数估计的集成方法将多个学习器组合起来,皆在创建一个改进的复合学习模型。
所谓最大期望参数估计方法(EM),是一种在不完全数据情况下计算极大似然估计或者后验分布的迭代算法,是一种针对概率模型设计的迭代优化技术。它分为计算期望(E)和极大化(M)两步,这种方法主要应用于图像分割领域。由于在本发明中,我们需要训练若干个分类器,然而各个分类器的样本的分类性能不同,因此我们将最大期望参数估计方法引入到基于反馈的图像检索领域,在构造分类器时,根据每个分类器性能的不同,用改方法为其加一个权值,最后再将各个单一分类器集成。这样能有效的克服单个分类器稳定性弱,分类误差大等问题,针对上述现有技术中所存在的问题,研究设计一种新型的基于最大期望参数估计的多分类器集成方法,从而克服现有技术中所存在的问题是十分必要的。
发明内容
鉴于上述现有技术中所存在的问题,本发明的目的是研究设计一种新型的基于最大期望参数估计的多分类器集成方法,从而解决单个分类器稳定性弱,分类误差大等问题。本发明所述的基于最大期望参数估计的多分类器集成方法包括提取单元、检索单元、标记单元和学习单元;
步骤一:提取单元
该单元是提取图像库中每幅图像的底层视觉特征,然后将提取的特征放入特征库中,主要提取的底层视觉特征有颜色特征、纹理特征和形状特征;
步骤二:检索单元
该步骤属于一个人机交互的过程,用户随机从图像库中选取一幅示例图像,然后系统将特征库中每幅图像特征与该图像进行相似度比较,最后返回给用户与该示例图像最相似的N幅图像,其中N=10;
步骤三:标记单元
该步骤要对进行学习训练的样本图像进行标记;
步骤四:学习单元
该单元主要包括三个步骤,
一构造分类器asymmetric bagging SVM;
二构造分类器random subspace SVM;
三为两类分类器加权来集成为一个分类器。
本发明所述的提取单元包括如下三个步骤:
步骤一、颜色的提取,用颜色直方图作为颜色特征;首先将颜色空间由RGB转化到HSV空间,然后将HSV颜色空间量化成64份,最后统计落在每一份中像素点的个数;
步骤二、纹理的提取,用离散小波变换后的均值和方差作为纹理特征;首先对图像进行3级小波变换,然后计算每级变换后3个高频子带的均值和方差;
步骤三、形状的提取,用边缘方向直方图作为形状特征;首先用Sobel算子提取图像边缘,然后统计图像边缘点在水平、45°、垂直、135°方向像素点个数。
本发明所述的检索单元是特征向量之间相似度比较,具体步骤为:
步骤一、用户任选一幅示例图像;
步骤二、计算该示例图像的底层视觉特征xi(i=1,2,3);
步骤三、用欧式距离方法计算xi与图像库中任意图像xj的相似度Si,j
Si,j=exp(-|xi-xj|2);
步骤四、将Si,j排序并返回前10幅图像。
本发明所述的标记单元的步骤如下:
步骤一、将反馈池中图像根据它们与用户所选示例图像是否同一个语义类将其标记为正例样本和反例样本;
步骤二、从未标记图像中再选取若干幅最能提供信息的图像作为反例样本来增加训练样本数量,进而提高系统性能。总的训练样本图像的数量为300幅。
本发明所述的学习单元的策略在于构造若干个分类器,并对各个分类器加权,其具体步骤如下:
步骤一、构造asymmetric bagging SVM(AR-SVM)分类器
1)设置AR-SVM分类器个数Ta=5;
2)构造训练样本集。训练样本包括正例训练样本S+,反例训练样本S-
3)用bootstrap方法从反例样本S-随机取样,使得正例训练样本的数量和反例训练样本的数量相等,即:
Figure BDA0000035350700000051
4)将训练样本中的正例样本标记为+1,反例样本标记为-1;
5)构造asymmetric bagging SVM分类器Ci
Figure BDA0000035350700000052
步骤二、构造random subspace SVM(RS-SVM)分类器
1)设置RS-SVM分类器个数Tr=5;
2)构造底层特征集F;
3)用bootstrap方法从底层特征集F中随机取样,构造新的底层特征Fj,使得Fj的维数大大少于F;
4)构造训练样本集。训练样本包括正例训练样本
Figure BDA0000035350700000053
反例训练样本
Figure BDA0000035350700000054
5)将训练样本中的正例样本标记为+1,反例样本标记为-1;
6)构造random subspace SVM分类器Cj
Figure BDA0000035350700000055
步骤三、计算分类器权值(EM方法):
1)E阶段,计算各个分类器权值;
W i ( x ) = P ( x ∈ C i | e , p , q ) = P ( x ∈ C i | p , q ) α i P ( x ∈ C i | p , q ) α i + P ( x ∉ C i | p , q ) β i
其中:
α i = P ( e 1 ( x ) = i , . . . , e k ( x ) = i | x ∈ C i , p , q ) = ( Π k : e k ( x ) = i p k , i ) ( Π k : e k ( x ) ≠ i ( 1 - p k , i ) )
β i = P ( e 1 ( x ) ≠ i , . . . , e k ( x ) ≠ i | x ∉ C i , p , q ) = ( Π k : e k ( x ) ≠ i q k , i ) ( Π k : e k ( x ) = i ( 1 - q k , i ) )
αi和βi是独立于各个分类器的参数;
pk,i=P(ek(x)=i|x∈Ci)
Figure BDA0000035350700000059
敏感度p和特异性q是表示分类器性能的两个参数;
P ( x ∈ C i | p , q ) = P ( x ∈ C i ) = Σ k # { x | e k ( x ) = i } Σ j Σ k # { x | e k ( x ) = j }
P表示样本x属于分类器Ci的先验概率;
2)M阶段,更新性能参数p和q;
p k , i ( t + 1 ) = Σ x : e k ( x ) = i W i ( x ) Σ x W i ( x ) q k , i ( t + 1 ) = Σ x : e k ( x ) ≠ i ( 1 - W i ( x ) ) Σ x ( 1 - W i ( x ) ) .
本发明所述的基于最大期望参数估计的多分类器集成方法…基于支持向量机(SVM)的相关反馈方法越来越广泛的应用到图像检索领域,但由于被标记的正例样本数量很少,造成该种方法的性能很差。为了解决这个问题,我们发明设计了一种用最大期望参数估计参数方法来集成若干个单一的分类器的相关反馈图像检索方法,仿真实验表明,本方法可以进一步改进相关反馈性能,提高检索效果。…本发明所述的基于最大期望参数估计的多分类器集成方法…本发明的基本工作原理为:首先提取图像库中每幅图像的颜色、纹理、形状等底层视觉特征,用户随机从图像库中选取一幅图像,采用欧氏距离计算方法将该图像特征与图像库中所用图像的底层特征进行相似度比对,将相似度按大小排序并返回用户前10幅图像。用户根据返回图像与事先选取的图像是否属于同一个语义类将其标记为正例图像和反例图像,然后将标记好的图像放到支持向量机中进行训练学习,最后将学习后的结果反馈给用户,如果用户对反馈结果不满意,可以继续按照上述过程重复进行,直到用户满意为止。
本发明在传统基于支持向量机反馈方法的基础上,构造若干个分类器,然后用最大期望参数估计方法将这些分类器进行集成。该方法不仅解决了传统支持向量机由于训练样本少不稳定的问题、正例样本远远少于反例样本造成分类器最优超平面偏移的问题,而且解决了由于训练样本数量远远少于特征维数而造成的溢出问题。本发明大大改进了支持向量机存在的缺陷,显著提高了分类器的性能,对基于相关反馈的图像检索研究有很好的参考和实用价值。
附图说明
本发明共有七张附图,其中,
图1:基于最大期望参数估计的多分类器集成方法的相关反馈图像检索流程
图2:基于最大期望参数估计的多分类器集成方法的相关反馈图像检索人机交互界面
图3:反馈前检索结果
图4:一次反馈后检索结果
图5:两次反馈后检索结果
图6:三次反馈后检索结果
图7:四次反馈后检索结果
具体实施方式
本发明的具体实施例如附图所示,附图1所示基于最大期望参数估计的多分类器集成方法…本发明的基于最大期望参数估计的多分类器集成方法的具体实现流程如附图所示,包括提取单元、检索单元、标记单元和学习单元,其具体步骤如下:
1提取单元
在该环节中,我们主要是提取图像库中每幅图像的底层视觉特征,然后将提取的特征放入特征库中,本发明主要用的底层特征有颜色特征、纹理特征和形状特征。
1)颜色。本发明用颜色直方图作为颜色特征;首先将颜色空间由RGB转化到HSV空间,然后将HSV颜色空间量化成64份,最后统计落在每一份中像素点的个数。
2)纹理。本发明用离散小波变换后的均值和方差作为纹理特征;首先对图像进行3级小波变换,然后计算每级变换后3个高频子带的均值和方差。
3)形状。本发明用边缘方向直方图作为形状特征;首先用Sobel算子提取图像边缘,然后统计图像边缘点在水平、45°、垂直、135°方向像素点个数。
2检索单元
该环节属于一个人机交互的过程,用户随机从图像库中选取一幅示例图像,然后系统返回给用户与该示例图像最相似的N幅图像,其中N=10。
1)用户任选一幅示例图像。
2)计算该示例图像的底层视觉特征xi(i=1,2,3)。
3)用欧式距离方法计算xi与图像库中任意图像xj的相似度Si,j
Si,j=exp(-|xi-xj|2)。
4)将Si,j排序并返回前10幅图像。
3标记单元
在该环节中,我们要对进行学习训练的样本图像进行标记。
1)将反馈池中图像根据它们与用户所选示例图像是否同一个语义类将其标记为正例样本和反例样本。
2)从未标记图像中再选取若干幅最能提供信息的图像作为反例样本来增加训练样本数量,进而提高系统性能。总的训练样本图像的数量为300幅。
4学习单元
该环节主要包括三个步骤,一是为解决传统支持向量机由于训练样本少不稳定的问题和正例样本远远少于反例样本造成分类器最优超平面偏移的问题,构造了分类器asymmetric bagging SVM。二是为解决由于训练样本数量远远少于特征维数而造成的溢出问,构造了分类器random subspace SVM。三是根据所构造的分类器的性能不同,为每个分类器加权来集成为一个分类器。
a.构造asymmetric bagging(AB)SVM分类器
1)设置AR-SVM分类器个数Ta=5。
2)构造训练样本集。训练样本包括正例训练样本S+,反例训练样本S-
3)用bootstrap方法从反例样本S-随机取样,使得正例训练样本的数量和反例训练样本的数量相等,即:
Figure BDA0000035350700000091
4)将训练样本中的正例样本标记为+1,反例样本标记为-1。
5)构造asymmetric bagging SVM分类器Ci
b.构造random subspace(RS)SVM分类器
1)设置RS-SVM分类器个数Tr=5。
2)构造底层特征集F。
3)用bootstrap方法从底层特征集F中随机取样,构造新的底层特征Fj,使得Fj的维数大大少于F。
4)构造训练样本集。训练样本包括正例训练样本
Figure BDA0000035350700000093
反例训练样本
Figure BDA0000035350700000094
5)将训练样本中的正例样本标记为+1,反例样本标记为-1。
6)构造random subspace SVM分类器Cj
Figure BDA0000035350700000101
c.计算分类器权值(EM方法)
每个单独分类器的性能是有限的,为了改进系统整体性能,本发明用最大期望参数估计方法(EM)为每个分类器加权来集成各个独立的若分类器。EM方法是一种在不完全数据情况下计算极大似然估计或者后验分布的迭代算法,是一种针对概率模型设计的迭代优化技术。它分为计算期望(E)和极大化(M)两步。
1)E阶段,计算各个分类器权值。
W i ( x ) = P ( x ∈ C i | e , p , q ) = P ( x ∈ C i | p , q ) α i P ( x ∈ C i | p , q ) α i + P ( x ∉ C i | p , q ) β i
其中:
α i = P ( e 1 ( x ) = i , . . . , e k ( x ) = i | x ∈ C i , p , q ) = ( Π k : e k ( x ) = i p k , i ) ( Π k : e k ( x ) ≠ i ( 1 - p k , i ) )
β i = P ( e 1 ( x ) ≠ i , . . . , e k ( x ) ≠ i | x ∉ C i , p , q ) = ( Π k : e k ( x ) ≠ i q k , i ) ( Π k : e k ( x ) = i ( 1 - q k , i ) )
αi和βi是独立于各个分类器的参数。
pk,i=P(ek(x)=i|x∈Ci)
Figure BDA0000035350700000105
敏感度p和特异性q是表示分类器性能的两个参数。
P ( x ∈ C i | p , q ) = P ( x ∈ C i ) = Σ k # { x | e k ( x ) = i } Σ j Σ k # { x | e k ( x ) = j }
P表示样本x属于分类器Ci的先验概率。
2)M阶段,更新性能参数p和q。
p k , i ( t + 1 ) = Σ x : e k ( x ) = i W i ( x ) Σ x W i ( x ) q k , i ( t + 1 ) = Σ x : e k ( x ) ≠ i ( 1 - W i ( x ) ) Σ x ( 1 - W i ( x ) )
性能评价指标
为了评价本发明的工作性能,本发明计算了图像检索系统的查准率。
Figure BDA0000035350700000111
一般说来,查准率越高,相应图像检索算法越好;反之,就越差。
附表
表1各类图像反馈前后的查准率
Figure BDA0000035350700000121

Claims (5)

1.一种基于最大期望参数估计的多分类器集成方法,其特征在于包括提取单元、检索单元、标记单元和学习单元;
步骤一:提取单元
该单元是提取图像库中每幅图像的底层视觉特征,然后将提取的特征放入特征库中,主要提取的底层视觉特征有颜色特征、纹理特征和形状特征;
步骤二:检索单元
该步骤属于一个人机交互的过程,用户随机从图像库中选取一幅示例图像,然后系统将特征库中每幅图像特征与该图像进行相似度比较,最后返回给用户与该示例图像最相似的N幅图像,其中N=10;
步骤三:标记单元
该步骤要对进行学习训练的样本图像进行标记;
步骤四:学习单元
该单元主要包括三个步骤,
一构造分类器asymmetric bagging SVM;
二构造分类器random subspace SVM;
三为两类分类器加权来集成为一个分类器。
2.根据权利要求1所述的基于最大期望参数估计的多分类器集成方法,其特征在于所述的提取单元包括如下三个步骤:
步骤一、颜色的提取,用颜色直方图作为颜色特征;首先将颜色空间由RGB转化到HSV空间,然后将HSV颜色空间量化成64份,最后统计落在每一份中像素点的个数;
步骤二、纹理的提取,用离散小波变换后的均值和方差作为纹理特征;首先对图像进行3级小波变换,然后计算每级变换后3个高频子带的均值和方差;
步骤三、形状的提取,用边缘方向直方图作为形状特征;首先用Sobel算子提取图像边缘,然后统计图像边缘点在水平、45°、垂直、135°方向像素点个数。
3.根据权利要求1所述的基于最大期望参数估计的多分类器集成方法,其特征在于所述的检索单元是特征向量之间相似度比较,具体步骤为:
步骤一、用户任选一幅示例图像;
步骤二、计算该示例图像的底层视觉特征xi(i=1,2,3);
步骤三、用欧式距离方法计算xi与图像库中任意图像xj的相似度Si,j
Si,j=exp(-|xi-xj|2);
步骤四、将Si,j排序并返回前10幅图像。
4.根据权利要求1所述的基于最大期望参数估计的多分类器集成方法,其特征在于所述的标记单元的步骤如下:
步骤一、将反馈池中图像根据它们与用户所选示例图像是否同一个语义类将其标记为正例样本和反例样本;
步骤二、从未标记图像中再选取若干幅最能提供信息的图像作为反例样本来增加训练样本数量,进而提高系统性能。总的训练样本图像的数量为300幅。
5.根据权利要求1所述的基于最大期望参数估计的多分类器集成方法,其特征在于所述的学习单元的策略在于构造若干个分类器,并对各个分类器加权,其具体步骤如下:
步骤一、构造asymmetric bagging SVM(AB-SVM)分类器
1)设置AB-SVM分类器个数Ta=5;
2)构造训练样本集。训练样本包括正例训练样本S+,反例训练样本S-
3)用bootstrap方法从反例样本S-随机取样,使得正例训练样本的数量和反例训练样本的数量相等,即:
Figure FDA0000035350690000031
4)将训练样本中的正例样本标记为+1,反例样本标记为-1;
5)构造asymmetric bagging SVM分类器Ci
Figure FDA0000035350690000032
步骤二、构造random subspace SVM(RS-SVM)分类器
1)设置RS-SVM分类器个数Tr=5;
2)构造底层特征集F;
3)用bootstrap方法从底层特征集F中随机取样,构造新的底层特征Fj,使得Fj的维数大大少于F;
4)构造训练样本集。训练样本包括正例训练样本
Figure FDA0000035350690000033
反例训练样本
Figure FDA0000035350690000034
5)将训练样本中的正例样本标记为+1,反例样本标记为-1;
6)构造random subspace SVM分类器Cj
Figure FDA0000035350690000035
步骤三、计算分类器权值(EM方法):
1)E阶段,计算各个分类器权值;
W i ( x ) = P ( x ∈ C i | e , p , q ) = P ( x ∈ C i | p , q ) α i P ( x ∈ C i | p , q ) α i + P ( x ∉ C i | p , q ) β i
其中:
α i = P ( e 1 ( x ) = i , . . . , e k ( x ) = i | x ∈ C i , p , q ) = ( Π k : e k ( x ) = i p k , i ) ( Π k : e k ( x ) ≠ i ( 1 - p k , i ) )
β i = P ( e 1 ( x ) ≠ i , . . . , e k ( x ) ≠ i | x ∉ C i , p , q ) = ( Π k : e k ( x ) ≠ i q k , i ) ( Π k : e k ( x ) = i ( 1 - q k , i ) )
αi和βi是独立于各个分类器的参数;
pk,i=P(ek(x)=i|x∈Ci)
Figure FDA0000035350690000043
敏感度p和特异性q是表示分类器性能的两个参数;
P ( x ∈ C i | p , q ) = P ( x ∈ C i ) = Σ k # { x | e k ( x ) = i } Σ j Σ k # { x | e k ( x ) = j }
P表示样本x属于分类器Ci的先验概率;
2)M阶段,更新性能参数p和q;
p k , i ( t + 1 ) = Σ x : e k ( x ) = i W i ( x ) Σ x W i ( x ) q k , i ( t + 1 ) = Σ x : e k ( x ) ≠ i ( 1 - W i ( x ) ) Σ x ( 1 - W i ( x ) ) .
CN 201010566285 2010-11-30 2010-11-30 基于最大期望参数估计的多分类器集成方法 Pending CN102024030A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010566285 CN102024030A (zh) 2010-11-30 2010-11-30 基于最大期望参数估计的多分类器集成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010566285 CN102024030A (zh) 2010-11-30 2010-11-30 基于最大期望参数估计的多分类器集成方法

Publications (1)

Publication Number Publication Date
CN102024030A true CN102024030A (zh) 2011-04-20

Family

ID=43865327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010566285 Pending CN102024030A (zh) 2010-11-30 2010-11-30 基于最大期望参数估计的多分类器集成方法

Country Status (1)

Country Link
CN (1) CN102024030A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542050A (zh) * 2011-12-28 2012-07-04 辽宁师范大学 基于支持向量机的图像反馈方法及系统
CN102768732A (zh) * 2012-06-13 2012-11-07 北京工业大学 融合稀疏保持映射和多类别属性Bagging的人脸识别方法
CN103018426A (zh) * 2012-11-26 2013-04-03 天津工业大学 一种基于Bagging的浆纱过程上浆率软测量方法
CN103246893A (zh) * 2013-03-20 2013-08-14 西交利物浦大学 基于拒识的随机子空间的ecoc编码分类方法
CN103530656A (zh) * 2013-09-10 2014-01-22 浙江大学 基于隐结构学习的图像摘要生成方法
CN104685540A (zh) * 2013-09-27 2015-06-03 华为技术有限公司 图像语义分割的方法和装置
CN104834693A (zh) * 2015-04-21 2015-08-12 上海交通大学 基于深度搜索的视觉图像检索方法及系统
CN105069475A (zh) * 2015-08-06 2015-11-18 电子科技大学 基于视觉注意机制模型的图像处理方法
CN105426447A (zh) * 2015-11-09 2016-03-23 北京工业大学 一种基于超限学习机的相关反馈方法
CN106650814A (zh) * 2016-12-27 2017-05-10 大连理工大学 一种基于车载单目视觉室外道路自适应分类器生成方法
CN110009000A (zh) * 2019-03-11 2019-07-12 东北大学 基于adaboost+svm改进分类算法的粮堆目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 20060731 Dacheng Tao等 Asymmetric Bagging and Random Subspace for Support Vector Machines-Based Relevance Feedback in Image Retrieval , 2 *
《河南大学学报(自然科学版)》 20021231 孙大飞等 基于EM算法的极大似然参数估计探讨 , 2 *
《计算机工程与设计》 20090228 鲍翠梅 基于主动学习的加权支持向量机的分类 , 2 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542050A (zh) * 2011-12-28 2012-07-04 辽宁师范大学 基于支持向量机的图像反馈方法及系统
CN102542050B (zh) * 2011-12-28 2016-01-20 辽宁师范大学 基于支持向量机的图像反馈方法及系统
CN102768732A (zh) * 2012-06-13 2012-11-07 北京工业大学 融合稀疏保持映射和多类别属性Bagging的人脸识别方法
CN102768732B (zh) * 2012-06-13 2015-04-29 北京工业大学 融合稀疏保持映射和多类别属性Bagging的人脸识别方法
CN103018426A (zh) * 2012-11-26 2013-04-03 天津工业大学 一种基于Bagging的浆纱过程上浆率软测量方法
CN103246893A (zh) * 2013-03-20 2013-08-14 西交利物浦大学 基于拒识的随机子空间的ecoc编码分类方法
CN103530656A (zh) * 2013-09-10 2014-01-22 浙江大学 基于隐结构学习的图像摘要生成方法
CN103530656B (zh) * 2013-09-10 2017-01-11 浙江大学 基于隐结构学习的图像摘要生成方法
CN104685540B (zh) * 2013-09-27 2017-04-26 华为技术有限公司 图像语义分割的方法和装置
CN104685540A (zh) * 2013-09-27 2015-06-03 华为技术有限公司 图像语义分割的方法和装置
CN104834693A (zh) * 2015-04-21 2015-08-12 上海交通大学 基于深度搜索的视觉图像检索方法及系统
CN104834693B (zh) * 2015-04-21 2017-11-28 上海交通大学 基于深度搜索的视觉图像检索方法及系统
CN105069475B (zh) * 2015-08-06 2018-12-18 电子科技大学 基于视觉注意机制模型的图像处理方法
CN105069475A (zh) * 2015-08-06 2015-11-18 电子科技大学 基于视觉注意机制模型的图像处理方法
CN105426447A (zh) * 2015-11-09 2016-03-23 北京工业大学 一种基于超限学习机的相关反馈方法
CN105426447B (zh) * 2015-11-09 2019-02-01 北京工业大学 一种基于超限学习机的相关反馈方法
CN106650814A (zh) * 2016-12-27 2017-05-10 大连理工大学 一种基于车载单目视觉室外道路自适应分类器生成方法
CN106650814B (zh) * 2016-12-27 2020-07-14 大连理工大学 一种基于车载单目视觉室外道路自适应分类器生成方法
CN110009000A (zh) * 2019-03-11 2019-07-12 东北大学 基于adaboost+svm改进分类算法的粮堆目标检测方法
CN110009000B (zh) * 2019-03-11 2022-09-02 东北大学 基于adaboost+svm改进分类算法的粮堆目标检测方法

Similar Documents

Publication Publication Date Title
CN102024030A (zh) 基于最大期望参数估计的多分类器集成方法
Wu et al. Harvesting discriminative meta objects with deep CNN features for scene classification
CN100401302C (zh) 基于标注重要性次序的图像语义自动标注方法
CN101916376B (zh) 基于局部样条嵌入的正交半监督子空间图像分类方法
CN101923653B (zh) 一种基于多层次内容描述的图像分类方法
CN102542050B (zh) 基于支持向量机的图像反馈方法及系统
CN106021406B (zh) 一种数据驱动的迭代式图像在线标注方法
Li et al. Harvesting social images for bi-concept search
CN104156433B (zh) 一种基于语义映射空间构建的图像检索方法
CN101777125B (zh) 一种高分辨率遥感图像复杂类别的监督分类方法
CN103886330A (zh) 基于半监督svm集成学习的分类方法
CN110490236A (zh) 基于神经网络的自动图像标注方法、系统、装置和介质
CN101996191A (zh) 一种二维跨媒体元搜索方法和系统
CN105005794A (zh) 融合多粒度上下文信息的图像像素语义标注方法
Schinas et al. CERTH@ MediaEval 2012 Social Event Detection Task.
CN105095475B (zh) 基于两级融合的不完整属性标记行人重识别方法与系统
Feng et al. Transductive multi-instance multi-label learning algorithm with application to automatic image annotation
CN103942561B (zh) 一种基于主动学习的图像标注方法
CN104751175A (zh) 基于增量支持向量机的sar图像多类标场景分类方法
CN103473308B (zh) 基于最大间隔张量学习的高维多媒体数据分类方法
CN103761503A (zh) 用于相关反馈图像检索的自适应训练样本选取方法
Chen et al. Spatial weighting for bag-of-visual-words and its application in content-based image retrieval
CN102831161A (zh) 用于图像检索的基于流形正则化的半监督排序学习方法
CN102945372A (zh) 基于多标签约束支持向量机的分类方法
CN103049454B (zh) 一种基于多标签分类的中英文搜索结果可视化系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20110420