CN104392253B - 一种草图数据集的交互式类别标注方法 - Google Patents

一种草图数据集的交互式类别标注方法 Download PDF

Info

Publication number
CN104392253B
CN104392253B CN201410764689.5A CN201410764689A CN104392253B CN 104392253 B CN104392253 B CN 104392253B CN 201410764689 A CN201410764689 A CN 201410764689A CN 104392253 B CN104392253 B CN 104392253B
Authority
CN
China
Prior art keywords
sketch
data set
cluster
feature
marked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410764689.5A
Other languages
English (en)
Other versions
CN104392253A (zh
Inventor
王爽
孙正兴
刘凯
李博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201410764689.5A priority Critical patent/CN104392253B/zh
Publication of CN104392253A publication Critical patent/CN104392253A/zh
Application granted granted Critical
Publication of CN104392253B publication Critical patent/CN104392253B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种计算机中草图数据集的交互式类别标注方法,包括以下步骤:学习过程,对已标注草图数据集进行多特征提取,特征空间度量学习,计算距离度量函数。选择过程,如果判断草图数据集中不存在未标注草图,则结束,得到最终结果。否则,根据度量学习结果,对待标注草图数据集进行特征空间构造,层次化聚类,并选择最优样本子集。在线标注,用户对最优样本子集中的草图进行交互确认,对确认的样本进行类别标注,并更新已标注草图数据集。剩余的非同类草图,将保持未标注状态,并更新待标注草图数据集。进而不断循环上述过程,直到用户完成所有草图标注,获得最终标注结果。

Description

一种草图数据集的交互式类别标注方法
技术领域
本发明涉及一种视觉数据集的处理方法,属于计算机视觉技术领域,具体地说是一种面向计算机中草图数据集的交互式类别标注方法。
背景技术
草图作为人类最古老的交流方式之一,是人类对视觉信息进行抽象概念化的基本途径。近年来,随着智能手机、平板电脑等触摸式交互设备的普及,草图已成为最常见的人机交互方式之一,并在图像和模型检索,如文献1:M.Eitz,K.Hildebrand,T.Boubekeur andM.Alexa.Sketch-based image retrieval:Benchmark and bag-of-featuresdescriptors.IEEE Transactions on Visualization and Computer Graphics,vol.17,no.11,pp.1624–1636,2011.、文献2:M.Eitz,R.Richter,T.Boubekeur,K.Hildebrand andM.Alexa.Sketch-based shape retrieval.ACM Transactions on Graphics,vol.31,no.4,Article 31,2012.三维形状建模,如文献3:L.Olsen,F.F.Samavati,M.C.Sousa,andJ.A.Jorge.Sketch-based modeling:A survey.Computers&Graphics,vol.33,no.1,pp.85-103,2009.等领域得到广泛应用。在这些应用领域中,用户通过自由草绘各类物体的形状来表达形状设计的概念意图,如果这一过程能同时结合使用草图的几何形状与所包含的语义类别信息,则有助于计算机理解用户所要表现的设计意图,如文献4:M.Eitz,J.Haysand M.Alexa.How do human sketch objects?.ACM Transactions on Graphics,vol.31,no.4,Article 44,2012.。因此,对自由手绘各类物体的草图赋予语义类别标签已成为计算机图形与视觉领域的热点问题之一,如文献5:R.G.Schneider and T.Tuytelaars.Sketchclassification and classification-driven analysis using fisher vectors.ACMTransactions on Graphics(In SIGGRAPH ASIA),2014.。
事实上,自上世纪90年以来草图理解方面已取得大量研究,其中大部分主要集中于识别出特定领域草图中所包含的基本形状,如UML流程图,如文献6:T.Hammond andR.Davis.A geometrical sketch recognition system for UML class diagrams.InSIGGRAPH,2006.、电路图,如文献7:T.Hammond and R.Davis,Ladder.A sketchinglanguage for user interface developers.Computers&Graphics,vol.29,no.pp.518–532,2005、数学公式,如文献8:J.J.Laviola Jr,and R.C.Zeleznik.MathPad:a systemfor the creation and exploration of mathematical sketches.ACM Transactions onGraphics,vol.23,no.3,pp.432-440,2004.识别,其基本思想是根据特定领域知识将直线、圆弧、圆等基本图元进行组合以形成预定义的图符,因此,依赖于特定类别先验知识的特性也就决定着这类方法难以适应其他类型草图的识别或标注问题。近年来,草图理解领域则更为关注如何实现一般草绘物体的自动类别标注,即对非专业人士绘制的各类物体草图进行语义类别标注。为解决草绘物体的类别、结构多样性问题,Eitz等,如文献4:M.Eitz,J.Hays and M.Alexa.How do human sketch objects?.ACM Transactions on Graphics,vol.31,no.4,Article 44,2012.。借鉴图像领域中基于BOW的分类方法实现对自由草图进行自动类别标注,即利用SVM等监督学习方法建立草图训练样本特征与类别间的映射模型,并使用学习模型进行类别预测。在该方法的基础上,Li等,如文献9:Y.Li,Y.Z.Song andS.G.Gong.Sketch recognition by ensemble matching of structured features.InBMVC,2013.和Schneider等,如文献5:R.G.Schneider and T.Tuytelaars.Sketchclassification and classification-driven analysis using fisher vectors.ACMTransactions on Graphics(In SIGGRAPH ASIA),2014.分别引入结构描述子和FisherVectors等特征以提高SVM分类器的性能。尽管这种有监督的标注模式能实现草图的自动类别标注,但是存在两方面的局限:一方面标注类别依赖于训练样本中存在的对象种类,即不能对训练样本中不存在的类别进行标注;另一面标注的准确度取决于分类器的性能,在草图类别数目较多的情况下,通常需要大量标注训练样本以提高分类精度。因此,在标注类别未知或不受限(动态变化)的情况下,以较小的人工标注代价实现对草图数据集的正确标注,是自由草图标注的重要问题。
相比之下,图像标注领域中的无监督类别发现方法,如文献10:T.Tuytelaars,C.H.Lampert,M.Blaschko and W.Buntine.Unsupervised object discovery:Acomparison.International Journal of Computer Vision,vol.88,no.2,pp.284–302,2010.、文献11:Y.Lee and K.Grauman.Object-Graphs for Context-Aware VisualCategory Discovery.IEEE Transactions on Pattern Analysis and MachineIntelligence,vol.34,no.2,pp.346-358,2012.、文献12:C.Galleguillos,B.McFee,S.Belongie and G.Lanckriet.From region similarity to category discovery.InCVPR,2011.因其不需要预先标记训练数据的特点更适合标签类别未知的情形,其基本思想是先根据样本间相似度将视觉相似的模式单元进行聚类成组,然后让用户为每个聚类簇提供类别标签。大部分研究旨在寻求更有效的图像表示,如文献11:Y.Lee andK.Grauman.Object-Graphs for Context-Aware Visual Category Discovery.IEEETransactions on Pattern Analysis and Machine Intelligence,vol.34,no.2,pp.346-358,2012.或相似度计算方法,如文献12:C.Galleguillos,B.McFee,S.Belongie andG.Lanckriet.From region similarity to category discovery.In CVPR,2011.,以提高无监督学习的性能。但这种“一次性标注”模式难以有效实现数据集的合理划分,即难以保证每个聚类簇中的图像属于同一类别,也就意味着难以体现用户的真实标注意图。尽管有少量的研究采用“循环聚类”的思想进行迭代类别发现,如文献13:Y.Lee,andK.Grauman.Learning the easy things first:Self-paced visual categorydiscovery.In CVPR,2011.、文献14:C.Galleguillos,B.McFee andG.R.G.Lanckriet.Iterative category discovery via multiple kernel metriclearning.International Journal of Computer Vision,vol.108,no.1-2,pp.115–132,2014.,但它们主要是针对图像区域进行类别标注。
综上所述,在对草图数据集进行整体标注时,已有的有监督草图分类方法需要预知类别和样本训练,无法适用于标注类别未知或不确定的情况;而无监督的图像类别发现方法会存在以下三个方面的问题:1)则采用“一次标注全部”的方式,依赖于无监督学习的分类效果,难以保证标注结果的正确性;2)只使用样本底层特征间的欧式距离计算相似度,忽略了用户在标注过程中所提供的类别信息,难以完整体现用户交互意图;3)在为待标注聚类簇提供类别标签时,缺乏合理的筛选策略,以有效减少标注负担。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术存在的问题,提供一种计算机中草图数据集的交互式类别标注方法,用于支持对自由草绘物体进行类别标注,从而在减少人工标注负担的情况下来获取正确的草图标注数据集。
为了解决上述技术问题,本发明公开了一种计算机中草图数据集的交互式类别标注方法,包括以下步骤:
步骤一,学习过程:对草图数据集中的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到距离度量函数;
步骤二,选择过程:判断如果草图数据集中全是已标注草图数据集,不存在待标注草图数据集,则结束,得到最终结果,即完全标注草图数据集;否则,根据特征空间度量学习结果,对草图数据集中的待标注草图数据集进行特征空间构造,并进行层次化聚类;在聚类结果中,选取聚类纯度最高的聚类,作为最优样本子集;
步骤三,在线标注:用户对选取的最优样本子集中的草图进行交互子集确认,确认的草图是已知类别或者新类别;将用户子集确认的草图进行类别标注,并更新已标注草图数据集,对更新的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到更新的距离度量函数;对于子集确认中剩余的草图,即最优样本子集中的非同类草图,保持未标注状态,并更新待标注草图数据集,返回步骤二;若子集确认中无剩余草图,则更新待标注草图数据集后,返回步骤二。
本发明步骤一中所述的多特征提取包括以下步骤:步骤111,傅里叶描述子方法,计算边界点到形状质心的距离ri1为:i1=0,1,...,N1-1,其中,(xi1,yi1)为表示第i1个边界点坐标,边界曲线共包含N1个边界点,质心坐标(xc1,yc1)计算公式为:对距离ri1进行快速傅里叶变换得到傅里叶级数:其中,j为复数的虚单位,n1为计数参数;步骤112,Zernike矩方法:定义在单位圆上的复值函数集{Vnm(xi2,yi2)},则在单位圆内的任何平方可积函数为:Vnm(xi2,yi2)=Vnm(ρ,θ)=Rnm(ρ)exp(jmθ),其中,ρ表示从原点到第i2个点(xi2,yi2)的矢量距离向量;θ表示向量ρ跟x轴之间的逆时针方向的夹角,Rnm(ρ)表示点(xi2,yi2)的径向多项式,定义为:i3为之间的整数,Zernike矩的阶数n为正整数或0,循环数m为正整数或负整数,且满足n-|m|为偶数,则n阶且具有m重循环的Zernike矩Anm为:其中,f(xi2,yi2)=xi2+jyi2,j为复数的虚单位;步骤113,BOW方法:对每一幅草图,划分为4*4的小块,抽取每个小块的方向向量l,组合成一个列向量表示最终的局部块描述子d=[l1,...,lj1]T,j1为方向向量的数目,对每个局部块描述子进行归一化,归一化后,得到一个特征包D={di4},包括i4个局部块描述子,i4为0到N2-1之间的正整数,N2为局部特征块的数目;对于局部块描述子d,使用k1均值聚类构建视觉词典,将所有局部块描述子划分为k1个中心不相连的聚类,定义视觉词典V1为向量集合{μi5},使得最小,dj2为第j2个局部块描述子,μi5为第i5个向量,定义为:其中,Ci5为视觉词典中的第i5个聚类,i5取值范围为1~k1,k1为局部块描述子聚类数目,视觉词的频率直方图h定义为:其中,di6为第i6个局部块描述子,i6为正整数,取值范围为0~N2-1,q(di6)是一个向量值量化函数,定义为:q(di6)=[K(di61),...,K(di6k1)]T,其中,计算样本点之间的距离K为:K(d,μj3)=exp(-||d-μj3||2/2σ2),j3=1,…,k1,其中,μj3为视觉字典中的第j3个向量,参数σ设置为1。
本发明步骤一和三中所述特征空间度量学习包括以下步骤:步骤121,将步骤步骤111、步骤112、步骤113中得到的三个特征:傅里叶描述子an1、Zernike矩Anm、BOW方法中的直方图h(D),分别映射到再生核希尔伯特空间Η123,得到相对应草图x的特征映射φ1(x)、φ2(x)、φ3(x),对应草图x的三个核度量 分别定义为:其中,特征空间Φ1=φ1(x),Φ2=φ2(x),Φ3=φ3(x),步骤122,定义核心度量偏序特征:其中,t为抽取的草图特征数,分别表示草图数据集的正样本和负样本,即相同类别和不同类别的草图,为第j4幅草图的核度量,为第i7幅草图的核度量,yi7j4用于判断第i7幅草图与第j4幅草图之间的先后顺序,定义为:步骤123,根据核度量对已标注草图数据集进行排序,产生排序结果y1,y2,...,yn2,n2为草图的数目,得到n2×n2维度量矩阵Wt定义为:其中,Mt为下三角矩阵,使得C为松弛平衡因子,取值范围为C>0,并且对任意草图x和排序y,符合:其中,ξx是标准的软间隔SVM中的松弛变量,Δ(yx,y)为排序y代替yx时发生的误差,yx为草图x的排序位置。
本发明步骤二中所述的相似度计算包括以下步骤:步骤211,根据步骤111、步骤112和步骤113定义的特征抽取方法,抽取待标注草图数据集对应的特征,即傅里叶、Zernike、BOW特征;步骤212,根据特征空间度量学习得到的矩阵Wt,从而计算草图之间的马氏距离dM为:表示草图xj5和xj6之间的马氏距离,j5和j6为正整数,取值范围为0~n3-1,n3为待标注草图数据集中的草图数;步骤213,通过径向基函数RBF核距离度量方法计算草图之间的相似度Aj5j6:Aj5j6=exp(-dM(xj5,xj6)/2σ1 2),其中,σ1为带宽参数。
本发明步骤二中所述的层次化聚类包括以下步骤:步骤221,每一幅草图都属于一个聚类,计算每两个聚类之间的距离,即类别相似度;步骤222,选择两个距离最近的聚类,合成一个聚类,聚类总数减1;步骤223,重新计算步骤222中新生成的聚类和其它聚类之间的距离,即更新相似度;步骤224,重复步骤222和步骤223,直至聚类划分为用户指定的类别数k为止,k为大于0的正整数。
本发明步骤二中所述的选取聚类纯度最高的聚类,作为最优样本子集包括以下步骤:步骤231,构造草图数据集上的的随机度量树,每一个随机度量树将草图作为叶子节点来编码,临近森林连通性度量PFC是基于计算叶子节点xi8与xi9之间的加权边缘,权值定义为:函数common_leaf在树k2中找到xi8和xi9所属的叶子节点,如果叶子节点相同则返回1,否则返回0,k2为1~T1之间的正整数,T1为随机度量树的数目;步骤232,平均边缘权重从xi8∈ci8到所有xi9∈ci8,定义为:其中,ci8为第i8个聚类,i8为正整数,取值范围为1~T1;步骤233,PFC方法估计聚类纯度,是所有样本在聚类ci8的平均连通性,定义为:步骤234,聚类c的开发分数定义为:exploit(c)=pc*lc,其中,pc是聚类c的纯度,由临近森林连通性度量PFC计算得出,lc是聚类c中未标记样本的数目;步骤235,探索选择性得分是基于距离值,并定义为:其中,d是聚类c和第i8个聚类ci8之间的欧氏距离,L为聚类簇;步骤236,SG组合被定义为:SG(c)=α*exploit(c)+(1-α)*explore(c),其中,权重α,范围为[0,1];步骤237,对步骤224中的k个聚类分别计算SG值,选取SG值最小的聚类,作为聚类纯度最高的聚类,将选取的纯度最高的聚类,即最优样本子集,作为一个未知类别草图的最优样本子集提供给用户。
本发明步骤三中所述的用户对选取的最优样本子集中的草图进行交互确认包括以下步骤:步骤311,确认最优样本子集中的标注对象:在所选出的最优样本子集中,用户对草图通过选择和剔除操作进行进一步选择,先统计最优样本子集中各草图类别出现的频率并确认出现频率最高的类别,将属于该类别的草图选择保留,从而形成待标注的草图子集;步骤312,将不属于该类别的草图从最优样本子集中剔除,并加入到非同类草图子集中。
本发明步骤三中所述的类别标注包括以下步骤:用户对待标注的草图子集进行类别标注,标注的标签是新标签或者是已有标签;如果用户标注了新标签,则向标签集中添加新标签,如果用户标注了已有标签,则标签集保持不变。
步骤三中所述更新已标注草图数据集包括以下步骤:
将用户标注的草图添加到已标注草图数据集χf中。
步骤三中所述更新待标注草图数据集包括以下步骤:
将用户已标注的草图从待标注草图数据集χu中剔除,返回执行步骤二。
有益效果:本发明具有以下优点:首先,本发明提出一种基于循环聚类的交互式草图类别发现框架,实现逐个草图类别的循环标注,从而保证最终标注结果的正确性;其次,本发明利用已标注样本的信息进行多核度量学习方法,实现草图多特征距离度量的优化组合,并用组合优化的距离度量函数计算未标注样本间的相似度以提高聚类效果,从而减少标注过程的总体循环次数的目标;再次,本发明采用基于信息熵最大的选择方法选取聚类簇,从而让每次循环标注过程能实现最优标注,从而减少标注负担。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明的处理流程示意图。
图2是实施例的待标注草图数据集示意图。
图3是待标注草图数据集层次化聚类的结果示意图。
图4是用户标注的示意图。
图5是用户标记生成新类别示意图。
图6是用户标注完成所有类别后的最终结果示意图。
具体实施方式:
如图1所示,本发明公开的一种计算机中草图数据集的交互式类别标注方法,具体包括以下步骤:
步骤一,学习过程:对草图数据集中的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到距离度量函数;
步骤二,选择过程:判断如果草图数据集中全是已标注草图数据集,不存在待标注草图数据集,则结束,得到最终结果,即完全标注草图数据集;否则,根据特征空间度量学习结果,对草图数据集中的待标注草图数据集进行特征空间构造,并进行层次化聚类;在聚类结果中,选取聚类纯度最高的聚类,作为最优样本子集;
步骤三,在线标注:用户对选取的最优样本子集中的草图进行交互子集确认,确认的草图是已知类别或者新类别;将用户子集确认的草图进行类别标注,并更新已标注草图数据集,对更新的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到更新的距离度量函数;对于子集确认中剩余的草图,即最优样本子集中的非同类草图,保持未标注状态,并更新待标注草图数据集,返回步骤二;若子集确认中无剩余草图,则更新待标注草图数据集后,返回步骤二。
本发明支持对草图库中的所有草图进行标注,最终输出结果为草图库中的每个草图都对应有一个类别标签,所有待标注草图的类别都是通过用户在线标注得到的。
下面具体介绍各个步骤的主要流程:
1.学习过程
对草图数据集中的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到距离度量函数;
草图库中有n幅草图,每一幅草图xi都属于一个对象类li,i=1,…,n。所有已知类别草图组成集合χf,即已标注草图数据集。所有未知类别草图组成集合χu,即待标注草图数据集。所有草图的集合χ=χuf
1.1多特征提取
步骤1,傅里叶描述子方法,计算边界点到形状质心的距离ri1为:
其中,(xi1,yi1)为表示第i1个边界点坐标,边界曲线共包含N1个边界点,质心坐标(xc1,yc1)计算公式为:
对距离ri1进行快速傅里叶变换得到傅里叶级数:
其中,j为复数的虚单位,n1为计数参数;具体实施过程中N1的值为10。
步骤2,Zernike矩方法:定义在单位圆上的复值函数集{Vnm(xi2,yi2)},则在单位圆内的任何平方可积函数为:
Vnm(xi2,yi2)=Vnm(ρ,θ)=Rnm(ρ)exp(jmθ),
其中,ρ表示从原点到第i2个点(xi2,yi2)的矢量距离向量;θ表示向量ρ跟x轴之间的逆时针方向的夹角,Rnm(ρ)表示点(xi2,yi2)的径向多项式,定义为:
i3为之间的整数,Zernike矩的阶数n为正整数或0,循环数m为正整数或负整数,且满足n-|m|为偶数,则n阶且具有m重循环的Zernike矩Anm为:
其中,f(xi2,yi2)=xi2+jyi2,j为复数的虚单位;
步骤3,BOW方法:对每一幅草图,划分为4*4的小块,抽取每个小块的方向向量l,组合成一个列向量表示最终的局部块描述子d=[l1,...,lj1]T,j1为方向向量的数目,对每个局部块描述子进行归一化,归一化后,得到一个特征包D={di4},包括i4个局部块描述子,i4为0到N2-1之间的正整数,N2为局部特征块的数目;
对于局部块描述子d,使用k1均值聚类构建视觉词典,将所有局部块描述子划分为k1个中心不相连的聚类,定义视觉词典V1为向量集合{μi5},使得最小,dj2为第j2个局部块描述子,μi5为第i5个向量,定义为:
其中,Ci5为视觉词典中的第i5个聚类,i5取值范围为1~k1,k1为局部块描述子聚类数目,
视觉词的频率直方图h定义为:
其中,di6为第i6个局部块描述子,i6为正整数,取值范围为0~N2-1,
q(di6)是一个向量值量化函数,定义为:
q(di6)=[K(di61),...,K(di6k1)]T
其中,计算样本点之间的距离K为:
K(d,μj3)=exp(-||d-μj3||2/2σ2),j3=1,…,k1,
其中,μj3为视觉字典中的第j3个向量,参数σ设置为1。
1.2特征空间度量学习
步骤1,将步骤步骤111、步骤112、步骤113中得到的三个特征:傅里叶描述子an1、Zernike矩Anm、BOW方法中的直方图h(D),分别映射到再生核希尔伯特空间Η123,得到相对应草图x的特征映射φ1(x)、φ2(x)、φ3(x),
对应草图x的三个核度量分别定义为:
其中,特征空间Φ1=φ1(x),Φ2=φ2(x),Φ3=φ3(x),
步骤2,定义核心度量偏序特征:
其中,t为抽取的草图特征数,分别表示草图数据集的正样本和负样本,即相同类别和不同类别的草图,为第j4幅草图的核度量,为第i7幅草图的核度量,yi7j4用于判断第i7幅草图与第j4幅草图之间的先后顺序,定义为:
步骤3,根据核度量对已标注草图数据集进行排序,产生排序结果y1,y2,...,yn2,n2为草图的数目,得到n2×n2维度量矩阵Wt定义为:
其中,Mt为下三角矩阵,使得C为松弛平衡因子,取值范围为C>0,具体实施过程中设置为0.01,并且对任意草图x和排序y,符合:
其中,ξx是标准的软间隔SVM中的松弛变量,Δ(yx,y)为排序y代替yx时发生的误差,yx为草图x的排序位置。
2.选择过程
判断如果草图数据集中全是已标注草图数据集,不存在待标注草图数据集,则结束,得到最终结果,即完全标注草图数据集;否则,根据特征空间度量学习结果,对草图数据集中的待标注草图数据集进行特征空间构造,并进行层次化聚类;在聚类结果中,选取聚类纯度最高的聚类,作为最优样本子集;
2.1相似度计算
步骤1,根据步骤111、步骤112和步骤113定义的特征抽取方法,抽取待标注草图数据集对应的特征,即傅里叶、Zernike、BOW特征;
步骤2,根据特征空间度量学习得到的矩阵Wt,从而计算草图之间的马氏距离dM为:
dM(xj5,xj6)表示草图xj5和xj6之间的马氏距离,j5和j6为正整数,取值范围为0~n3-1,n3为待标注草图数据集中的草图数;
步骤3,通过径向基函数RBF核距离度量方法计算草图之间的相似度Aj5j6
Aj5j6=exp(-dM(xj5,xj6)/2σ1 2),
其中,σ1为带宽参数。
2.2层次化聚类
步骤1,每一幅草图都属于一个聚类,计算每两个聚类之间的距离,即类别相似度;
步骤2,选择两个距离最近的聚类,合成一个聚类,聚类总数减1;
步骤3,重新计算步骤222中新生成的聚类和其它聚类之间的距离,即更新相似度;
步骤4,重复步骤222和步骤223,直至聚类划分为用户指定的类别数k为止,k为大于0的正整数,具体实施过程中k设置为4。
2.3选择最优样本子集
步骤1,构造草图数据集上的的随机度量树,每一个随机度量树将草图作为叶子节点来编码,临近森林连通性度量PFC是基于计算叶子节点xi8与xi9之间的加权边缘,权值定义为:
函数common_leaf在树k2中找到xi8和xi9所属的叶子节点,如果叶子节点相同则返回1,否则返回0,k2为1~T1之间的正整数,T1为随机度量树的数目;
步骤2,平均边缘权重从xi8∈ci8到所有xi9∈ci8,定义为:
其中,ci8为第i8个聚类,i8为正整数,取值范围为1~T1;
步骤3,PFC方法估计聚类纯度,是所有样本在聚类ci8的平均连通性,定义为:
步骤4,聚类c的开发分数定义为:
exploit(c)=pc*lc
其中,pc是聚类c的纯度,由临近森林连通性度量PFC计算得出,lc是聚类c中未标记样本的数目;
步骤5,探索选择性得分是基于距离值,并定义为:
其中,d是聚类c和第i8个聚类ci8之间的欧氏距离,L为聚类簇;
步骤6,SG组合被定义为:
SG(c)=α*exploit(c)+(1-α)*explore(c),
其中,权重α,范围为[0,1],具体实施过程中设置为0.5;
步骤7,对步骤224中的k个聚类分别计算SG值,选取SG值最小的聚类,作为聚类纯度最高的聚类,将选取的纯度最高的聚类,即最优样本子集,作为一个未知类别草图的最优样本子集提供给用户。
3.在线标注
用户对选取的最优样本子集中的草图进行交互子集确认,确认的草图是已知类别或者新类别;将用户子集确认的草图进行类别标注,并更新已标注草图数据集,对更新的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到更新的距离度量函数;对于子集确认中剩余的草图,即最优样本子集中的非同类草图,保持未标注状态,并更新待标注草图数据集,返回步骤二;若子集确认中无剩余草图,则更新待标注草图数据集后,返回步骤二。
3.1子集确认
步骤1,确认最优样本子集中的标注对象:在所选出的最优样本子集中,用户对草图通过选择和剔除操作进行进一步选择,先统计最优样本子集中各草图类别出现的频率并确认出现频率最高的类别,将属于该类别的草图选择保留,从而形成待标注的草图子集;
步骤2,将不属于该类别的草图从最优样本子集中剔除,并加入到非同类草图子集中。
3.2类别标注
用户对待标注的草图子集进行类别标注,标注的标签是新标签或者是已有标签;如果用户标注了新标签,则向标签集中添加新标签,如果用户标注了已有标签,则标签集保持不变。
3.3更新已标注草图数据集
将用户标注的草图添加到已标注草图数据集χf中。
3.4更新待标注草图数据集
将用户已标注的草图从待标注草图数据集χu中剔除,返回执行步骤二。
实施例
本实施例中,如图2所示为待标注草图数据集;图3所示为待标注草图数据集进行度量学习后,层次化聚类的结果;图4所示为用户对纯度最高的聚类,即最优样本子集进行确认,用户选择部分样本进行确认,并剔除部分样本;图5所示为用户确认的样本生成一个新的类别,对其添加新的标签“飞机”;图6所示为用户标注了所有待标注样本,获得的最终标注结果。

Claims (5)

1.一种计算机中草图数据集的交互式类别标注方法,其特征在于,包括以下步骤:
步骤一,学习过程:对草图数据集中的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到距离度量函数;
步骤二,选择过程:判断如果草图数据集中全是已标注草图数据集,不存在待标注草图数据集,则结束,得到最终结果即完全标注草图数据集;否则,根据特征空间度量学习结果,对草图数据集中的待标注草图数据集进行特征空间构造,并进行层次化聚类;在聚类结果中,选取聚类纯度最高的聚类,作为最优样本子集;
步骤三,在线标注:用户对选取的最优样本子集中的草图进行交互子集确认,确认的草图是已知类别或者新类别;将用户子集确认的草图进行类别标注,并更新已标注草图数据集,对更新的已标注草图数据集进行多特征提取,对提取的草图特征进行特征空间度量学习,得到更新的距离度量函数;对于子集确认中剩余的草图,即最优样本子集中的非同类草图,保持未标注状态,并更新待标注草图数据集,返回步骤二;若子集确认中无剩余草图,则更新待标注草图数据集后,返回步骤二;
步骤一和三中所述多特征提取包括以下步骤:
步骤111,傅里叶描述子方法,计算边界点到形状质心的距离ri1为:
r i 1 = ( x i 1 - x c 1 ) 2 + ( y i 1 - y c 1 ) 2 , i 1 = 0 , 1 , ... , N 1 - 1 ,
其中,(xi1,yi1)为表示第i1个边界点坐标,边界曲线共包含N1个边界点,质心坐标(xc1,yc1)计算公式为:
x c 1 = 1 N 1 Σ i 1 = 0 N 1 - 1 ( x i 1 ) , y c 1 = 1 N 1 Σ i 1 = 0 N 1 - 1 ( y i 1 ) ,
对距离ri1进行快速傅里叶变换得到傅里叶级数:
a n 1 = 1 N 1 Σ i 1 = 0 N 1 - 1 r i 1 exp ( - j π n 1 i 1 N 1 ) , n 1 = 0 , 1 , ... , N 1 - 1 ,
其中,j为复数的虚单位,n1为计数参数;
步骤112,Zernike矩方法:定义在单位圆上的复值函数集{Vnm(xi2,yi2)},则在单位圆内的任何平方可积函数为:
Vnm(xi2,yi2)=Vnm(ρ,θ)=Rnm(ρ)exp(j·m·θ),
其中,j为复数的虚单位,m为循环数,ρ表示从原点到第i2个点(xi2,yi2)的矢量距离向量;θ表示向量ρ跟x轴之间的逆时针方向的夹角,Rnm(ρ)表示点(xi2,yi2)的径向多项式,定义为:
R n m ( ρ ) = Σ i 3 = 0 n - | m | 2 ( - 1 ) i 3 ( n - i 3 ) ! i 3 ! ( n + | m | 2 - i 3 ) ! ( n - | m | 2 - i 3 ) ! ρ n - 2 i 3 ,
i3为之间的整数,Zernike矩的阶数n为正整数或0,循环数m为正整数或负整数,且满足n-|m|为偶数,则n阶且具有m重循环的Zernike矩Anm为:
A n m = n + 1 π Σ x i 2 Σ y i 2 f ( x i 2 , y i 2 ) V n m ( ρ , θ ) ;
其中,j为复数的虚单位;
步骤113,BOW方法:对每一幅草图,划分为4*4的小块,抽取每个小块的方向向量l,组合成一个列向量表示最终的局部块描述子d=[l1,...,lj1]T,j1为方向向量的数目,对每个局部块描述子进行归一化,归一化后,得到一个特征包D={di4},包括i4个局部块描述子,i4为0到N2-1之间的正整数,N2为局部特征块的数目;
对于局部块描述子d,使用k1均值聚类构建视觉词典,将所有局部块描述子划分为k1个中心不相连的聚类,定义视觉词典V1为向量集合{μi5},使得最小,dj2为第j2个局部块描述子,μi5为第i5个向量,定义为:
其中,Ci5为视觉词典中的第i5个聚类,i5取值范围为1~k1,k1为局部块描述子聚类数目;
视觉词的频率直方图h定义为:
h ( D ) = 1 | D | Σ d i 6 ∈ D q ( d i 6 ) | | q ( d i 6 ) | | 1 ,
其中,di6为第i6个局部块描述子,i6为正整数,取值范围为0~N2-1,
q(di6)是一个向量值量化函数,定义为:
q(di6)=[K(di61),...,K(di6k1)]T
其中,计算样本点之间的距离K为:
K(d,μj3)=exp(-||d-μj3||2/2σ2),j3=1,…,k1,
其中,μj3为视觉字典中的第j3个向量,参数σ设置为1;
步骤一和三中所述特征空间度量学习包括以下步骤:
步骤121,将步骤111、步骤112、步骤113中得到的三个特征:傅里叶描述子an1、Zernike矩Anm、BOW方法中的直方图h(D),分别映射到再生核希尔伯特空间H1,H2,H3,得到相对应草图x的特征映射φ1(x)、φ2(x)、φ3(x),
对应草图x的三个核度量分别定义为:
K x 1 = Φ 1 T Φ 1 , K x 2 = Φ 2 T Φ 2 , K x 3 = Φ 3 T Φ 3 ,
其中,特征空间Φ1=φ1(x),Φ2=φ2(x),Φ3=φ3(x),
步骤122,定义核心度量偏序特征ψt K(x,y):
ψ t K ( x , y ) : = Σ i 7 ∈ χ x + y i 7 j 4 ( K x t - K j 4 t ) ( K x t - K j 4 t ) T - ( K x t - K i 7 t ) ( K x t - K i 7 t ) T | χ x + | · | χ x - | ,
其中,t为抽取的草图特征数,分别表示草图数据集的正样本和负样本,即相同类别和不同类别的草图,为第j4幅草图的核度量,为第i7幅草图的核度量,yi7j4用于判断第i7幅草图与第j4幅草图之间的先后顺序,定义为:
步骤123,根据核度量对已标注草图数据集进行排序,产生排序结果y1,y2,...,yn2,n2为草图的数目,得到n2×n2维度量矩阵Wt定义为:
W t = M t T M t ,
其中,Mt为下三角矩阵,使得C为松弛平衡因子,并且对任意草图x和排序y,符合:
&Sigma; t = 1 3 < W t , &psi; t K ( x , y ) > F &GreaterEqual; &Sigma; t = 1 3 < W t , &psi; t K ( x , y ) > F + &Delta; ( y x , y ) - &xi; x ,
其中,ψt K(x,y)表示核心度量偏序特征,ξx是标准的软间隔SVM中的松弛变量,Δ(yx,y)为排序y代替yx时发生的误差,yx为草图x的排序位置;
步骤二中包括以下步骤:
步骤211,根据步骤111、步骤112和步骤113定义的特征抽取方法,抽取待标注草图数据集对应的特征,即傅里叶、Zernike、BOW特征;
步骤212,根据特征空间度量学习得到的矩阵Wt,从而计算草图之间的马氏距离dM为:
d M ( x j 5 , x j 6 ) = | | x j 5 - x j 6 | | W 2 = ( x j 5 - x j 6 ) T W t ( x j 5 - x j 6 ) ,
dM(xj5,xj6)表示草图xj5和xj6之间的马氏距离,j5和j6为正整数,取值范围为0~n3-1,n3为待标注草图数据集中的草图数;
步骤213,通过径向基函数RBF核距离度量方法计算草图之间的相似度Aj5j6
Aj5j6=exp(-dM(xj5,xj6)/2σ1 2),
其中,σ1为带宽参数;
步骤二中所述层次化聚类包括以下步骤:
步骤221,每一幅草图都属于一个聚类,计算每两个聚类之间的距离,即类别相似度;
步骤222,选择两个距离最近的聚类,合成一个聚类,聚类总数减1;
步骤223,重新计算步骤222中新生成的聚类和其它聚类之间的距离,即更新相似度;
步骤224,重复步骤222和步骤223,直至聚类划分为用户指定的类别数k为止,k为大于0的正整数;
步骤二中选取聚类纯度最高的聚类,作为最优样本子集包括以下步骤:
步骤231,构造草图数据集上的随机度量树,每一个随机度量树将草图作为叶子节点来编码,临近森林连通性度量PFC是基于计算叶子节点xi8与xi9之间的加权边缘,权值定义为:
&omega; ( x i 8 , x i 9 ) = &Sigma; k 2 = 1 T 1 c o m m o n _ leaf k 2 ( x i 8 , x i 9 ) ,
函数common_leaf在树k2中找到xi8和xi9所属的叶子节点,如果叶子节点相同则返回1,否则返回0,k2为1~T1之间的正整数,T1为随机度量树的数目;
步骤232,平均边缘权重从xi8∈ci8到所有xi9∈ci8,定义为:
c ( x i 8 ) = 1 | c i 8 | &Sigma; &ForAll; x i 9 &Element; c i 8 &omega; ( x i 8 , x i 9 ) ,
其中,ci8为第i8个聚类,i8为正整数,取值范围为1~T1;
步骤233,PFC方法估计聚类纯度,是所有样本在聚类ci8的平均连通性,定义为:
P F C ( c i 8 ) = 1 | c i 8 | &Sigma; &ForAll; x i 8 &Element; c i 8 c ( x i 8 ) ;
步骤234,聚类c的开发分数定义为:
exploit(c)=pc*lc
其中,pc是聚类c的纯度,由临近森林连通性度量PFC计算得出,lc是聚类c中未标记样本的数目;
步骤235,探索选择性得分是基于距离值,并定义为:
exp l o r e ( c ) = m i n &ForAll; c i 8 &Element; L d ( c i 8 , c ) ,
其中,d是聚类c和第i8个聚类ci8之间的欧氏距离,L为聚类簇;
步骤236,SG组合被定义为:
SG(c)=α*exploit(c)+(1-α)*explore(c),
其中,权重α,范围为[0,1];
步骤237,对步骤224中的k个聚类分别计算SG值,选取SG值最小的聚类,作为聚类纯度最高的聚类,将选取的纯度最高的聚类,即最优样本子集,作为一个未知类别草图的最优样本子集提供给用户。
2.根据权利要求1所述的一种计算机中草图数据集的交互式类别标注方法,其特征在于,步骤三中所述用户对选取的最优样本子集中的草图进行交互确认包括以下步骤:
步骤311,确认最优样本子集中的标注对象:在所选出的最优样本子集中,用户对草图通过选择和剔除操作进行进一步选择,先统计最优样本子集中各草图类别出现的频率并确认出现频率最高的类别,将属于该类别的草图选择保留,从而形成待标注的草图子集;
步骤312,将不属于该类别的草图从最优样本子集中剔除,并加入到非同类草图子集中。
3.根据权利要求2所述的一种计算机中草图数据集的交互式类别标注方法,其特征在于,步骤三中所述类别标注包括以下步骤:
用户对待标注的草图子集进行类别标注,标注的标签是新标签或者是已有标签;如果用户标注了新标签,则向标签集中添加新标签,如果用户标注了已有标签,则标签集保持不变。
4.根据权利要求3所述的一种计算机中草图数据集的交互式类别标注方法,其特征在于,步骤三中所述更新已标注草图数据集包括以下步骤:
将用户标注的草图添加到已标注草图数据集χf中。
5.根据权利要求4所述的一种计算机中草图数据集的交互式类别标注方法,其特征在于,步骤三中所述更新待标注草图数据集包括以下步骤:
将用户已标注的草图从待标注草图数据集χu中剔除,返回执行步骤二。
CN201410764689.5A 2014-12-12 2014-12-12 一种草图数据集的交互式类别标注方法 Expired - Fee Related CN104392253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410764689.5A CN104392253B (zh) 2014-12-12 2014-12-12 一种草图数据集的交互式类别标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410764689.5A CN104392253B (zh) 2014-12-12 2014-12-12 一种草图数据集的交互式类别标注方法

Publications (2)

Publication Number Publication Date
CN104392253A CN104392253A (zh) 2015-03-04
CN104392253B true CN104392253B (zh) 2017-05-10

Family

ID=52610154

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410764689.5A Expired - Fee Related CN104392253B (zh) 2014-12-12 2014-12-12 一种草图数据集的交互式类别标注方法

Country Status (1)

Country Link
CN (1) CN104392253B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408037B (zh) * 2015-07-30 2020-02-18 阿里巴巴集团控股有限公司 图像识别方法及装置
CN106446927B (zh) * 2016-07-07 2019-05-28 浙江大学 一种自步增强图像分类方法及系统
CN108062377A (zh) * 2017-12-12 2018-05-22 百度在线网络技术(北京)有限公司 标签图片集的建立、标签的确定方法、装置、设备及介质
CN109146847B (zh) * 2018-07-18 2022-04-05 浙江大学 一种基于半监督学习的晶圆图批量分析方法
CN109242106B (zh) * 2018-09-07 2022-07-26 百度在线网络技术(北京)有限公司 样本处理方法、装置、设备和存储介质
CN110428003B (zh) * 2019-07-31 2022-04-22 清华大学 样本类别标签的修正方法、装置以及电子设备
CN111126470B (zh) * 2019-12-18 2023-05-02 创新奇智(青岛)科技有限公司 基于深度度量学习的图片数据迭代聚类分析方法
CN111159063B (zh) * 2019-12-25 2022-10-21 大连理工大学 一种面向多层Sketch网络测量的缓存分配方法
CN111582327A (zh) * 2020-04-22 2020-08-25 郑州轻工业大学 面向智能终端的动作识别训练样本自动标注方法
CN115130620B (zh) * 2022-08-31 2023-04-28 南方电网数字电网研究院有限公司 一种电力设备用电模式识别模型生成方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999615A (zh) * 2012-11-29 2013-03-27 合肥工业大学 基于径向基函数神经网络的多样化图像标注和检索方法
CN103942561A (zh) * 2014-03-20 2014-07-23 杭州禧颂科技有限公司 一种基于主动学习的图像标注方法
CN103955462A (zh) * 2014-03-21 2014-07-30 南京邮电大学 一种基于多视图和半监督学习机制的图像标注方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0106441D0 (en) * 2001-03-15 2001-05-02 Bayer Ag Method for generating a hierarchical topological tree of 2D or 3D-structural formulas of chemical compounds for property optimization of chemical compounds

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999615A (zh) * 2012-11-29 2013-03-27 合肥工业大学 基于径向基函数神经网络的多样化图像标注和检索方法
CN103942561A (zh) * 2014-03-20 2014-07-23 杭州禧颂科技有限公司 一种基于主动学习的图像标注方法
CN103955462A (zh) * 2014-03-21 2014-07-30 南京邮电大学 一种基于多视图和半监督学习机制的图像标注方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Iterative Category Discovery via Multiple Kernel Metric Learning";Galleguillos C etc,;《International Journal of Computer Vision》;20131107;第108卷;第115-132页 *

Also Published As

Publication number Publication date
CN104392253A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
CN104392253B (zh) 一种草图数据集的交互式类别标注方法
Han et al. 3D2SeqViews: Aggregating sequential views for 3D global feature learning by CNN with hierarchical attention aggregation
Han et al. SeqViews2SeqLabels: Learning 3D global features via aggregating sequential views by RNN with attention
Dizaji et al. Unsupervised deep generative adversarial hashing network
Yang et al. Self-paced balance learning for clinical skin disease recognition
CN110443281B (zh) 基于hdbscan聚类的文本分类自适应过采样方法
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
Lin et al. Discriminatively trained and-or graph models for object shape detection
Das et al. Automatic clustering using an improved differential evolution algorithm
Wang et al. A perception-driven approach to supervised dimensionality reduction for visualization
Tokuda et al. Revisiting agglomerative clustering
Alsmadi et al. A hybrid memetic algorithm with back-propagation classifier for fish classification based on robust features extraction from PLGF and shape measurements
CN102324038B (zh) 一种基于数字图像的植物种类识别方法
CN111553127A (zh) 一种多标记的文本类数据特征选择方法及装置
CN103942571B (zh) 一种基于遗传规划算法的图形图像分类方法
CN107679562A (zh) 三维模型的解析处理方法和装置
Avila et al. Scikit-learn cookbook: over 80 recipes for machine learning in Python with scikit-learn
Ding et al. Novelty detection using level set methods
CN104751463B (zh) 一种基于草图轮廓特征的三维模型最佳视角选取方法
Khoury et al. Adversarial training with voronoi constraints
Premachandran et al. Unsupervised learning using generative adversarial training and clustering
Xu et al. Deep learning neural network for unconventional images classification
Bu et al. Multimodal feature fusion for 3D shape recognition and retrieval
CN106203508A (zh) 一种基于Hadoop平台的图像分类方法
Wu et al. AAGNet: A graph neural network towards multi-task machining feature recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170510