CN102902976A - 一种基于目标及其空间关系特性的图像场景分类方法 - Google Patents

一种基于目标及其空间关系特性的图像场景分类方法 Download PDF

Info

Publication number
CN102902976A
CN102902976A CN2011102149854A CN201110214985A CN102902976A CN 102902976 A CN102902976 A CN 102902976A CN 2011102149854 A CN2011102149854 A CN 2011102149854A CN 201110214985 A CN201110214985 A CN 201110214985A CN 102902976 A CN102902976 A CN 102902976A
Authority
CN
China
Prior art keywords
image
spatial relationship
target
scene
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011102149854A
Other languages
English (en)
Inventor
金标
胡文龙
付琨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Electronics of CAS
Original Assignee
Institute of Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Electronics of CAS filed Critical Institute of Electronics of CAS
Priority to CN2011102149854A priority Critical patent/CN102902976A/zh
Publication of CN102902976A publication Critical patent/CN102902976A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于目标及其空间关系特性的图像场景分类方法,涉及图像场景分类技术,其步骤:首先定义一种空间关系直方图,表征目标之间的空间关系,包括左、右、上、下、远、近、包含和不包含,给出计算方法;标注样本图像中的目标,赋值任意两个目标之间空间关系的隶属度,统计场景中每两类目标之间空间关系的隶属度值的数学特征,针对测试图像,用模糊K近邻分类器分类目标之间空间关系直方图,计算空间关系隶属度值;采用融合主题之间空间关系特性的概率隐含语义分析模型,建立图像模型;用支持向量机分类场景图像。本发明方法提出融合主题之间空间关系特性的概率隐含语义分析模型来建模图像,作为支持向量机的输入来分类图像场景。

Description

一种基于目标及其空间关系特性的图像场景分类方法
技术领域
本发明属于图像场景分类技术,涉及图像理解、计算机视觉、人工智能、模式识别等领域,是一种基于目标及其空间关系特性的图像场景分类方法。
背景技术
随着多媒体技术与网络技术的发展,产生了大量的图像信息,图像分类和检索越来越受到人们的关注。同时随着计算机技术的快速提高,图像理解获得了快速发展,其理论不断发展,形成了与计算机视觉、人工智能和认知学领域相互关联又相互独立的领域。图像理解就是对图像的语义解释,利用图像低层视觉特征以及高层知识信息实现目标识别、语义分析以及场景分类。图像场景分类作为图像理解的基本任务之一,是指从多幅图像中区分出具有相似或相同特征的图像,并对这些图像进行正确标记的过程。
目前场景分类方法主要包括基于图像底层特征的方法,以及通过构建中间语义层的方法。第一种方法利用图像的底层特征,如颜色、纹理、边缘等,将图像作为一个整体并直接与监督方法结合,划分如室内/外、城市/山区等场景图像,该类方法只能分类小部分场景。第二种方法通过构建中间语义层,能够实现更多场景类别的识别,如引入文本分析中的概率隐含语义分析模型(Probabilistic latent semantic analysis,pLSA),建立图像模型(文献1:A.Bosch and A.Zisserman,“Scene classificationusing a hybrid generative/discriminative approach”,IEEETransactions on Pattern Analysis and Machine Intelligence,v.30no.4,pp.712-727,2008);再如基于图像目标或区域建立贝叶斯模型实现图像场景分类(文献2:M.R.Boutell,J.Luo and C.M.Brown,“Scene parsingusing region-based generative models”,IEEE Transactions onMultimedia,v.9 no.a,pp.136-146,2007)。另外,Oliva提出使用粗糙度、宽阔度、伸展度等视觉感知属性描述场景的主要内容结构(文献3:A.Oliva and A.Torralba,“Modeling the shape of the scene:a holisticrepresentation of the spatial envelope”,International Journal ofComputer Vision,v.42 n.3,pp.145-175,2001),基于以上特征实现图像场景分类。
场景图像具有很强的认知结构,蕴含场景与目标的包含关系,以及目标之间的空间关系特性。文献1证明了加入空间位置信息可以提高分类正确率,但是该空间信息是绝对的位置特征,至今没有通过建模目标之间的空间关系(拓扑关系、方向关系以及度量关系)实现图像场景分类。
发明内容
本发明的目的是公开一种基于目标及其空间关系特性的图像场景分类方法,通过计算图像中目标之间的空间关系直方图,分类其空间关系,建立融合主题之间空间关系特性的概率隐含语义分析模型(Probabilistic latent semantic analysis fusing spatialrelationships between topics,SR-pLSA),最后采用支持向量机(Supportvector support,SVM)分类图像场景。弥补了现有图像场景分类方法忽略图像中目标间空间关系特性的缺陷,提高了分类正确率。
为了实现所述的目的,本发明的技术解决方案是:
一种基于目标及其空间关系特性的图像场景分类方法,其包括:
步骤S1,目标空间关系直方图计算:用空间关系直方图表征目标间空间关系特性,包括左和右、上和下、远和近以及包含和不包含,并给出计算方法;
步骤S2,空间关系分类:针对样本图像,标注其目标并赋值目标之间空间关系的隶属度,针对测试样本,用模糊K近邻分类器分类目标之间空间关系直方图,计算其空间关系的隶属度值;
步骤S3,SR-pLSA建模:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA,建立图像语义模型;
步骤S4,SVM分类:以步骤S3建立样本图像的语义模型,作为支持向量机(SVM)的输入,用训练好的SVM完成图像场景的分类。
所述的图像场景分类方法,其所述步骤S1中,目标空间关系直方图计算包括步骤:
步骤S11:分别求取参考对象以及目标对象区域的点集;
步骤S12:针对不同倾角θ∈[-π,π]建立水平线集,并获取两个目标落在线上的点集;
步骤S13:采用快速傅里叶变换算法(FFT)计算空间关系直方图。
所述的图像场景分类方法,其所述步骤S2中,空间关系分类包括步骤:
步骤S21:标注样本图像中的目标并赋值目标之间每种空间关系的隶属度,包括左和右、上和下、远和近以及包含和不包含,建立隶属度矩阵P(N×8),并计算目标之间的空间关系直方图;
步骤S22:计算每类场景中每两类目标的每种空间关系隶属度值的均值、方差及其权重;
步骤S23:针对测试样本图像,利用模糊K近邻分类器分类其目标之间的空间关系直方图,计算空间关系的隶属度值。
所述的图像场景分类方法,其所述步骤S3中,图像SR-pLSA建模包括步骤:
步骤S31:针对训练样本图像,提取其SIFT特征,通过聚类生成视觉词汇;
步骤S32:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA;
步骤S33:采用SR-pLSA建模文档、主题、主题之间空间关系以及字之间的关系,建立图像语义模型。
所述的图像场景分类方法,其所述步骤S4中,SVM分类包括步骤:
步骤S41:将步骤S33中所得样本图像语义模型,以及图像场景类别标识作为SVM分类器的输入,训练分类器;
步骤S42:在分类阶段,先用SR-pLSA建立图像语义模型,然后采用训练好的SVM分类图像场景。
所述的图像场景分类方法,其所述步骤S33中的文档为图像、主题为目标、字为视觉单词。
本发明的图像场景分类方法,提出SR-pLSA建立图像语义模型,采用SVM分类图像场景。该方法融合了目标之间的空间关系特性,可提高图像场景分类正确率。
附图说明
图1本发明一种基于目标及其空间关系特性的图像场景分类方法中的图像场景分类框架;
图2本发明方法中的有关参考对象R与目标对象A的空间关系视图;
图3为图2中R与A之间的空间关系直方图;
图4本发明方法融合空间关系特性的概率隐含语义分析模型SR-pLSA示意图。
具体实施方式
本发明一种基于目标及其空间关系特性的图像场景分类方法,下面结合附图详细说明本发明技术方案所涉及的各个细节问题。图1为本发明图像场景分类方法的系统框架,主要包括4个部分。
空间关系直方图计算
本发明定义空间关系直方图用来表征目标之间的空间关系,可以反映其拓扑关系、方向关系以及度量关系。
记参考对象为R,目标对象为A,本发明采用两个对象的所有点,计算对象间空间关系直方图。如附图2所示,倾角为θ的平行线lθ,θ取值范围[-π,π],所有线集合记为Lθ,则所有线集合就包含了对象的所有点。采用Bresenham算法计算
Figure BDA0000079674580000041
Figure BDA0000079674580000042
分别表示R和A在lθ上的点集,设点对(p,q),定义点对之间的标识距离LD(p,q)=(d(p,q),l(p,q)),其中d(p,q)为点对之间的欧氏距离,l(p,q)如表1。lθ上的直方图分量如下:
H l θ ( i , j ) = H l θ ( i , j ) + 1 ifd ( p , q ) ∈ D i andl ( p , q ) = j H l θ ( i , j ) otherwise - - - ( 1 )
其中1≤i≤nD,nD为欧式距离bin数目,Di为第i个距离区间。
表1l(p,q)的取值
  p是否在A内   q是否在R内   l(p,q)
  否   否   0
  否   是   1
  是   否   2
  是   是   3
则R和A在Lθ上的空间关系直方图分布如下:
H θ ( i , j ) = Σ l θ ∈ L θ H l θ ( i , j ) - - - ( 2 )
其中θ∈Θ,Θ为[-π,π]上均匀分布的角度区间集,nθ为Θ元素的个数。定义H(i,j,k)=Hθ(i,j)为目标之间的空间关系直方图,k∈[1,...,nθ]。
归一化空间关系直方图如下
h ( i , j , k ) = H ( i , j , k ) Σ i ′ = 1 n D Σ j ′ = 0 3 Σ k ′ = 1 n θ H ( i ′ , j ′ , k ′ ) - - - ( 3 )
为了提高计算的速度,本发明采用快速傅里叶变换算法(FFT)计算H(i,j,k),
Figure BDA0000079674580000053
Figure BDA0000079674580000054
以及
Figure BDA0000079674580000055
组成,L[0...m-1]表示lθ方向上的点集,定义如下两个函数:
y r 0 ( x ) = 1 ifL ( x ) ∈ RandL ( x ) ∉ A 0 otherwise - - - ( 4 )
y a 0 ( x ) = 1 ifL ( x ) ∈ AandL ( x ) ∉ R 0 otherwise - - - ( 5 )
其中x=0,1,...,m-1。则可采用如下公式计算
R 0 ( d ) = Σ x = 0 m - 1 y r 0 ( x ) y a 0 ( x + d ) = y r 0 * y a 0 - - - ( 6 )
y r 0 * y a 0 = InverseDFT ( DFT ( y r 0 ) ‾ DFT ( y a 0 ) ) - - - ( 7 )
H l θ ( i , 0 ) = H l θ ( i , 0 ) + R 0 ( d ) d=0,1,...,m-1,and if d∈Di            (8)
同理,可以采用如下函数求出
Figure BDA0000079674580000061
y r 1 ( x ) = 1 ifL ( x ) ∈ RandL ( x ) ∉ A 0 otherwise - - - ( 8 )
y a 1 ( x ) = 1 ifL ( x ) ∈ AandL ( x ) ∈ R 0 otherwise - - - ( 9 )
y r 2 ( x ) = 1 ifL ( x ) ∈ RandL ( x ) ∈ A 0 otherwise - - - ( 10 )
y a 2 ( x ) = 1 ifL ( x ) ∈ AandL ( x ) ∉ R 0 otherwise - - - ( 11 )
y r 3 ( x ) = 1 ifL ( x ) ∈ RandL ( x ) ∈ A 0 otherwise - - - ( 12 )
y a 3 ( x ) = 1 ifL ( x ) ∈ RandL ( x ) ∈ R 0 otherwise - - - ( 13 )
附图3所示为采用以上方法计算所得的有关附图2中参考对象R与目标对象A之间的空间关系直方图。
空间关系分类
设每类场景图像的每两种目标对的空间关系直方图训练样本为H={(h1,l(h1)),...,(hN,l(hN))},hi为其空间关系直方图,l(hi)为赋值hi属于每种空间关系(左、右、上、下、远、近、包含和不包含)的隶属度p(rj|hi),j=1,...,8,即l(hi)=[p(r1|hi),...,p(r8|hi)]。则对于样本集H产生一个隶属度矩阵P(N×8):
p i 1 = p ( r 1 | h i ) . . . p i 8 = p ( r 8 | h i ) - - - ( 14 )
统计每类场景图像的每种目标对的空间关系特性
Figure BDA0000079674580000069
分别计算每种空间关系隶属度的均值和方差,如式(15)所示。利用八个方差σl(l=1,…,8)计算每种空间关系的权重ωl,如式(16)所示,方差σl越小的空间关系,其重要性越大,因此其权重ωl越大。
p → i 1 = p ‾ ( r 1 | h ) ~ N ( μ 1 , σ 1 2 ) . . . p → i 8 = p ‾ ( r 8 | h ) ~ N ( μ 8 , σ 8 2 ) - - - ( 15 )
ω l = Σ i = 1 8 σ i - σ l 7 · Σ i = 1 8 σ i - - - ( 16 )
针对测试样本,本发明利用模糊K近邻分类器分类目标之间空间关系直方图h隶属空间关系rl的值如下:
p ( r l | h ) = Σ i = 1 k p ( r l | z i ) ( d ( h , z i ) ) - 2 n - 1 Σ i = 1 k ( d ( h , z i ) ) - 2 n - 1 - - - ( 17 )
z1,…,zk是h的K个最近邻样本,d是距离函数,参数n用来决定对距离加权的程度。
距离函数d的确定:
(1)、对于空间关系(左、右、上和下),定义距离函数d1(h1,h2)如下:
d 1 ( h 1 , h 2 ) = min t ∈ [ - n D , n D ] Σ i = 1 n D Σ j = 0 3 Σ k = 1 n θ | h 1 ( i , j , k ) - h 2 ( i + t , j , k ) | - - - ( 18 )
(2)、对于空间关系(远和近),定义距离函数d2(h1,h2)如下:
a ( h ) = Σ i = 1 n D i . Σ j = 0 3 Σ k = 1 n θ h ( i , j , k ) - - - ( 19 )
d2(h1,h2)=|a(h1)-a(h2)|            (20)
(3)、对于空间关系(包含和不包含),定义距离函数d3(h1,h2)如下:
d 3 ( h 1 , h 2 ) = L 1 ( S → ( h 1 ) , S → ( h 2 ) ) - - - ( 21 )
其中 S → ( h ) = [ s 1 ( h ) , s 2 ( h ) , s 3 ( h ) , s 4 ( h ) ] , si(h)是h在i象限中的部分。
SR-pLSA建模
概率隐含语义分析(pLSA)最初应用于文字检索中,用统计推理的方法建模主题(Z)、文档(D)、字(W)之间的关系。因为图像中没有文档(D)、字(W)这些概念,将pLSA引入图像应用中需要做出一些调整和映射:文档对应为图像、字符对应为视觉词汇、主题对应语义目标。
本发明融合主题之间的空间关系R,提出改进的概率隐含语义分析模型SR-pLSA,构建图像语义模型。
假设存在N个样本图像D={d1,...,dN},对应V个视觉特征词汇分布W={w1,...,wV},n(wi,dj)表示图像dj中特征单词wi的出现次数,而主题zi和zj与特征单词在特定对象中的出现概率相关联,参数R表征zi和zj的空间关系特性P(R|zi,zj)=P(R|h)。采用文献1中总结的SIFT特征建立视觉词汇(文献1:A.Bosch,A.Zisserman and X.Munoz,“Scene classificationusing a hybrid generative/discriminative approach”,IEEETransactions on Pattern Analysis and Machine Intelligence,v.30,n.4,pp.712-727,2008)。SR-pLSA对图像、特征单词、语义目标及其空间关系进行统计建模P(di,zk,zl,R,wj),如附图4所示,对应如下联合概率:
P(di,zk,zl,R,wj)=P(di)P(zk|di)P(zl|di)P(R|zk,zl)P(wj|zk)P(wj|zl)(22)
隐含其主题变量可得:
P ( d i , w j ) = Σ k = 1 M - 1 Σ l = k + 1 M P ( d i , z k , z l , R , w j ) (23)
= P ( d i ) Σ k = 1 M - 1 Σ l = k + 1 M P ( z k | d i ) P ( z l | d i ) P ( R | z k , z l ) P ( w j | z k ) P ( w j | z j )
其中M为主题个数。由贝叶斯公式知P(di,wj)=P(di)P(wj|di),则可得P(wj|di)如下:
P ( w j | d i ) = Σ k = 1 M - 1 Σ l = k + 1 M P ( z k | d i ) P ( z l | d i ) P ( R | z k , z l ) P ( w j | z k ) P ( w j | z l ) - - - ( 24 )
其中 P ( R | z k , z l ) = P ( R | h ) = Σ n = 1 8 ω n ( μ n - | μ n - P ( r n | h ) | ) .
概率隐含语义分析的目的是学习概率P(wj|zk)和P(zk|di),这些概率可以通过期望最大化算法(EM)拟合得到:
E步骤:
P ( z k , z l , R | d i , w j ) = P ( z k | d i ) P ( z l | d i ) P ( R | z k , z l ) P ( w j | z k ) P ( w j | z l ) Σ m = 1 M - 1 Σ n = m + 1 M P ( z m | d i ) P ( z n | d i ) P ( R | z m , z n ) P ( w j | z m ) P ( w j | z n ) - - - ( 25 )
M步骤:
P ( w j | z k ) ∝ Σ i Σ l n ( d i , w j ) P ( z k , z l , R | d i , w j ) P ( z k | d i ) ∝ Σ j Σ l n ( d i , w j ) P ( z k , z l , R | d i , w j ) - - - ( 26 )
E步骤和M步骤重复迭代直至满足期望约束。至此得到图像di的语义模型P(zk|di)。
SVM分类
本发明利用支持向量机(SVM)(文献3:C.Chang and C.Lin,“LIBSVM:A library for Support Vector Machines”,2001)分类图像场景。将SR-pLSA建立的图像语义模型P(zk|di)作为SVM的输入,通过训练SVM,进而分类图像场景。
本发明的一种基于目标及其空间关系特性的图像场景分类方法,归纳如下:
步骤S1,目标空间关系直方图计算:用空间关系直方图表征目标间空间关系特性,包括左和右、上和下、远和近以及包含和不包含,并给出计算方法;
步骤S2,空间关系分类:针对样本图像,标注其目标并赋值目标之间空间关系的隶属度,针对测试样本,用模糊K近邻分类器分类目标之间空间关系直方图,计算其空间关系的隶属度值;
步骤S3,SR-pLSA建模:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA,建立图像语义模型;
步骤S4,SVM分类:以步骤S3建立样本图像的语义模型,作为支持向量机SVM的输入,用训练好的SVM完成图像场景的分类。
在S1步中,目标空间关系直方图计算包括如下步骤:
步骤S11:分别求取参考对象以及目标对象区域的点集;
步骤S12:针对不同倾角θ∈[-π,π]建立水平线集,并获取两个目标落在线上的点集;
步骤S13:采用快速傅里叶变换算法FFT计算空间关系直方图。
在S2步中,空间关系分类包括如下步骤:
步骤S21:标注样本图像中的目标并赋值目标之间每种空间关系的隶属度,包括左和右、上和下、远和近、以及包含和不包含,建立隶属度矩阵P(N×8),并计算目标之间的空间关系直方图;
步骤S22:计算每类场景中每两类目标的每种空间关系隶属度值的均值、方差及其权重;
步骤S23:针对测试样本图像,利用模糊K均值分类器分类其目标之间的空间关系直方图,计算空间关系的隶属度值。
在S3步中,SR-pLSA建模包括如下步骤:
步骤S31:针对训练样本图像,提取其SIFT特征,通过聚类生成视觉词汇;
步骤S32:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA;
步骤S33:采用SR-pLSA建模文档(图像)、主题(目标)、主题之间空间关系以及字(视觉词汇)之间的关系,建立图像语义模型。
在S4步中,SVM分类包括如下步骤:
步骤S41:将步骤S33中所得样本图像语义模型,以及图像场景类别标识作为SVM分类器的输入,训练分类器;
步骤S42:在分类阶段,先用SR-pLSA建立图像语义模型,然后采用训练好的SVM分类图像场景。
图像场景分类在图像检索、基于内容的图像理解等领域有着广阔的应用价值。通过融合主题之间空间关系特性,提出SR-pLSA建立图像语义模型,采用SVM分类图像场景,本发明的图像场景分类方法提供了一个完整的图像场景分类框架。

Claims (6)

1.一种基于目标及其空间关系特性的图像场景分类方法,其特征在于:包括:
步骤S1,目标空间关系直方图计算:用空间关系直方图表征目标间空间关系特性,包括左和右、上和下、远和近以及包含和不包含,并给出计算方法;
步骤S2,空间关系分类:针对样本图像,标注其目标并赋值目标之间空间关系的隶属度,针对测试样本,用模糊K近邻分类器分类目标之间空间关系直方图,计算其空间关系的隶属度值;
步骤S3,SR-pLSA建模:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA,建立图像语义模型;
步骤S4,SVM分类:以步骤S3建立样本图像的语义模型,作为支持向量机SVM的输入,用训练好的SVM完成图像场景的分类。
2.根据权利要求1所述的图像场景分类方法,其特征在于,所述步骤S1中,目标空间关系直方图计算包括步骤:
步骤S11:分别求取参考对象以及目标对象区域的点集;
步骤S12:针对不同倾角θ∈[-π,π]建立水平线集,并获取两个目标落在线上的点集;
步骤S13:采用快速傅里叶变换算法计算空间关系直方图。
3.根据权利要求1所述的图像场景分类方法,其特征在于,所述步骤S2中,空间关系分类包括步骤:
步骤S21:标注样本图像中的目标并赋值目标之间每种空间关系的隶属度,包括左和右、上和下、远和近以及包含和不包含,建立隶属度矩阵P(N×8),并计算目标之间的空间关系直方图;
步骤S22:计算每类场景中每两类目标的每种空间关系隶属度值的均值、方差及其权重;
步骤S23:针对测试样本图像,利用模糊K近邻分类器分类其目标之间的空间关系直方图,计算空间关系的隶属度值。
4.根据权利要求1所述的图像场景分类方法,其特征在于,所述步骤S3中,图像SR-pLSA建模包括步骤:
步骤S31:针对训练样本图像,提取其SIFT特征,通过聚类生成视觉词汇;
步骤S32:提出融合主题之间空间关系特性的概率隐含语义分析模型SR-pLSA;
步骤S33:采用SR-pLSA建模文档、主题、主题之间空间关系以及字之间的关系,建立图像语义模型。
5.根据权利要求1所述的图像场景分类方法,其特征在于,所述步骤S4中,SVM分类包括步骤:
步骤S41:将步骤S33中所得样本图像语义模型,以及图像场景类别标识作为SVM分类器的输入,训练分类器;
步骤S42:在分类阶段,先用SR-pLSA建立图像语义模型,然后采用训练好的SVM分类图像场景。
6.根据权利要求4所述的图像场景分类方法,其特征在于,所述步骤S33中的文档为图像、主题为目标、字为视觉单词。
CN2011102149854A 2011-07-29 2011-07-29 一种基于目标及其空间关系特性的图像场景分类方法 Pending CN102902976A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011102149854A CN102902976A (zh) 2011-07-29 2011-07-29 一种基于目标及其空间关系特性的图像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011102149854A CN102902976A (zh) 2011-07-29 2011-07-29 一种基于目标及其空间关系特性的图像场景分类方法

Publications (1)

Publication Number Publication Date
CN102902976A true CN102902976A (zh) 2013-01-30

Family

ID=47575197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011102149854A Pending CN102902976A (zh) 2011-07-29 2011-07-29 一种基于目标及其空间关系特性的图像场景分类方法

Country Status (1)

Country Link
CN (1) CN102902976A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400144A (zh) * 2013-07-17 2013-11-20 山东师范大学 一种基于k近邻的支持向量机主动学习的方法
CN103499584A (zh) * 2013-10-16 2014-01-08 北京航空航天大学 铁路货车手制动机链条丢失故障的自动检测方法
CN104268546A (zh) * 2014-05-28 2015-01-07 苏州大学 一种基于主题模型的动态场景分类方法
CN104992191A (zh) * 2015-07-23 2015-10-21 厦门大学 基于深度学习的特征和最大置信路径的图像分类方法
CN105760365A (zh) * 2016-03-14 2016-07-13 云南大学 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型
CN107704741A (zh) * 2016-08-08 2018-02-16 株式会社东芝 基于拍摄图像进行认证的认证装置、认证方法、服务器
CN108490460A (zh) * 2018-02-28 2018-09-04 上海交通大学 基于卫星导航中频数据库的自动化测试方法
CN110288629A (zh) * 2019-06-24 2019-09-27 湖北亿咖通科技有限公司 基于移动物体检测的目标检测自动标注方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102136071A (zh) * 2011-03-09 2011-07-27 北京航空航天大学 一种基于空间相关矩阵的图像特征分析模型

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102136071A (zh) * 2011-03-09 2011-07-27 北京航空航天大学 一种基于空间相关矩阵的图像特征分析模型

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANNA BOSCH: "Scene Classification Using a Hybrid Generative/Discriminative Approach", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
MATTHEW R. BOUTELL: "Scene Parsing Using Region-Based Generative Models", 《IEEE TRANSACTIONS ON MULTMEDIA》 *
曾璞: "利用空间金字塔分块与PLSA的场景分类方法", 《小型微型计算机系统》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400144A (zh) * 2013-07-17 2013-11-20 山东师范大学 一种基于k近邻的支持向量机主动学习的方法
CN103400144B (zh) * 2013-07-17 2017-02-22 山东师范大学 一种基于k近邻的支持向量机主动学习的方法
CN103499584A (zh) * 2013-10-16 2014-01-08 北京航空航天大学 铁路货车手制动机链条丢失故障的自动检测方法
CN103499584B (zh) * 2013-10-16 2016-02-17 北京航空航天大学 铁路货车手制动机链条丢失故障的自动检测方法
CN104268546A (zh) * 2014-05-28 2015-01-07 苏州大学 一种基于主题模型的动态场景分类方法
CN104992191A (zh) * 2015-07-23 2015-10-21 厦门大学 基于深度学习的特征和最大置信路径的图像分类方法
CN105760365A (zh) * 2016-03-14 2016-07-13 云南大学 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型
CN107704741A (zh) * 2016-08-08 2018-02-16 株式会社东芝 基于拍摄图像进行认证的认证装置、认证方法、服务器
CN108490460A (zh) * 2018-02-28 2018-09-04 上海交通大学 基于卫星导航中频数据库的自动化测试方法
CN110288629A (zh) * 2019-06-24 2019-09-27 湖北亿咖通科技有限公司 基于移动物体检测的目标检测自动标注方法及装置

Similar Documents

Publication Publication Date Title
CN102902976A (zh) 一种基于目标及其空间关系特性的图像场景分类方法
CN101894275B (zh) 一种弱监督的sar图像分类方法
CN102496034B (zh) 基于直线单词的高空间分辨率遥感图像词袋分类方法
CN106339416B (zh) 基于网格快速搜寻密度峰值的教育数据聚类方法
CN108492298B (zh) 基于生成对抗网络的多光谱图像变化检测方法
CN106886601A (zh) 一种基于子空间混合超图学习的交叉模态检索算法
CN103810299A (zh) 基于多特征融合的图像检索方法
CN105760888A (zh) 一种基于属性聚类的邻域粗糙集集成学习方法
CN105389550A (zh) 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN103530633A (zh) 一种图像局部不变特征的语义映射方法及语义映射系统
CN104751166A (zh) 基于光谱角和欧氏距离的遥感影像分类方法
CN105303195A (zh) 一种词袋图像分类方法
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
CN106204651A (zh) 一种基于改进的判决与生成联合模型的目标跟踪方法
CN110210431A (zh) 一种基于点云语义标注和优化的点云分类方法
CN104281572A (zh) 一种基于互信息的目标匹配方法及其系统
CN102509119B (zh) 一种基于分类器的图像场景分层与对象遮挡处理方法
CN107273505A (zh) 基于非参数贝叶斯模型的监督跨模态哈希检索方法
CN108959379A (zh) 一种基于视觉显著区域和手绘草图的服装图像检索方法
CN103854290A (zh) 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法
CN102867192A (zh) 一种基于监督测地线传播的场景语义迁移方法
CN104751463A (zh) 一种基于草图轮廓特征的三维模型最佳视角选取方法
CN104200134A (zh) 一种基于局部线性嵌入算法的肿瘤基因表数据特征选择方法
CN106980878B (zh) 三维模型几何风格的确定方法及装置
CN103971362A (zh) 基于直方图和精英遗传聚类算法的sar图像变化检测

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130130