CN113537391A - 一种交互式文本语义属性引导的鞋印图像聚类方法 - Google Patents

一种交互式文本语义属性引导的鞋印图像聚类方法 Download PDF

Info

Publication number
CN113537391A
CN113537391A CN202110902668.5A CN202110902668A CN113537391A CN 113537391 A CN113537391 A CN 113537391A CN 202110902668 A CN202110902668 A CN 202110902668A CN 113537391 A CN113537391 A CN 113537391A
Authority
CN
China
Prior art keywords
category
shoe print
attribute
image
print image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110902668.5A
Other languages
English (en)
Other versions
CN113537391B (zh
Inventor
王新年
武禹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202110902668.5A priority Critical patent/CN113537391B/zh
Publication of CN113537391A publication Critical patent/CN113537391A/zh
Application granted granted Critical
Publication of CN113537391B publication Critical patent/CN113537391B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种交互式文本语义属性引导的鞋印图像聚类方法。本发明方法主要包括基于内容的鞋印图像聚类以及基于交互式文本语义属性的鞋印图像聚类两部分。其中基于交互式文本语义属性的鞋印图像聚类主要包括:属性定义、属性分类器样本自动选择、样本语义属性的标注、属性分类器在线训练、基于属性分类的类别精细化以及样本增量选择及再聚类等步骤。本发明通过引入交互式文本语义属性进行引导,一是改善了参数对聚类结果的影响,二是通过交互式体现了用户的主观意图,可以得到更加符合人主观评价的结果。

Description

一种交互式文本语义属性引导的鞋印图像聚类方法
技术领域
本发明涉及图像处理技术领域,具体而言,尤其涉及一种交互式文本语 义属性引导的鞋印图像聚类方法。
背景技术
对于相似度较高的鞋底花纹图像,往往难于聚类。鞋印数据集具有类别 海量的特点,因此不适用于现有的半监督聚类算法。且鞋印数据集具有每类 样本少且样本分布不均衡问题,不适用于基于深度学习聚类算法。
现有的鞋印聚类算法往往是基于图像内容的,仅仅根据图像内容进行聚 类的结果在一定程度上存在语义鸿沟问题。此外,目前传统的聚类算法和基 于深度学习的聚类算法都需要设定大量参数,且参数调整复杂,不同的参数 组合对聚类结果的好坏影响很大,可能造成高纯度低召回率或高召回率低纯 度的现象。
发明内容
鉴于现有技术的不足,本申请提供一种交互式文本语义属性引导的鞋印 图像聚类方法。本发明通过引入交互式文本语义属性进行引导,改善了参数 对聚类结果的影响,同时通过交互式体现了用户的主观意图,可以得到更加 符合人主观评价的结果。
本发明采用的技术手段如下:
一种交互式文本语义属性引导的鞋印图像聚类方法,包括:
S1、由鞋印图像数据库中获取鞋印图像生成鞋印数据集,并对鞋印数据 集中的鞋印图像进行基于内容的鞋印图像聚类,进而得到基于内容的一级鞋 印图像聚类结果集合;
S2、根据鞋底花纹的视觉特征和鞋底花纹的制作工艺定义鞋印属性;
S3、计算所述一级鞋印图像聚类结果集合每个类别的密度形成集合,查 找每个类别中代表图像,代表点图像邻域点集合以及查找代表图像邻域边界 代表点,基于每个类别的密度对一级鞋印图像聚类结果集合中各类别的分布 进行非极大值抑制得到新的类别标识集合;
S4、采用不放回抽样的方式中从新的类别标识集合中随机选取不同的类 别,根据新的类别标识集合中的类别标号,从每类中选择两幅图进行语义属 性标注,根据这两幅图像的语义属性相同与否确定该类别是否要进行选择, 直到每个属性都有对应的样本被选择出来;
S5、根据上述选择的标注样本,训练每一个属性对应的分类器;
S6、基于训练后的分类器对一级鞋印图像聚类结果集合中的所有类别进 行属性判定,根据属性进行类别的划分和合并;
S7、执行步骤S3,判断是否有新的样本产生,如果有则进行S4-S7,如 果样本无增量,则聚类停止,得到最终的二级鞋印图像聚类结果集合。
进一步地,并对获取的鞋印图像进行基于内容的鞋印图像聚类,进而得 到基于内容的一级鞋印图像聚类结果,包括:
S110、对鞋印图像数据集中的鞋印图像进行特征提取;
S120、根据提取的鞋印图像特征计算鞋印图像数据集中两两鞋印图像间 的距离,生成距离矩阵;
S130、基于所述距离矩阵对鞋印图像进行聚类,得到基于内容的一级鞋 印图像聚类结果集合。
进一步地,计算所述一级鞋印图像聚类结果集合每个类别的密度形成集 合,查找每个类别中代表图像,代表点图像邻域点集合以及查找代表图像邻 域边界代表点,包括:
S311、获取一级鞋印图像聚类结果集合C={c1,c2,…,cn},其中n表示类别 数目,ci表示属于第i个类别的图像的集合,1≤i≤n;
S312、基于C={c1,c2,…,cn}求取每个类别的密度形成集合ρ={ρ12,…,ρn}, 包括:计算ci中每幅图像的密度ρi,其定义为与该幅图像距离小于预设阈值t 的图像的个数,
S313、用ci中所有图像的密度的最大值作为ci的密度,其对应的图像作为 ci的代表图像ri,形成每个类别中代表图像集合R={r1,r2,…,rn};
S314、同时查找ci中与代表图像距离小于预设阈值th的所有图像,形成 代表点图像邻域点集合
Figure BDA0003200539280000031
S315、在Gi中找到距离代表图像最远的图像作为ri邻域边界代表点bi
进一步地,基于每个类别的密度对一级鞋印图像聚类结果集合中各类别 的分布进行非极大值抑制得到新的类别标识集合,包括:
S321、根据密度由大到小对R进行排序得到集合D={d1,d2,…,dt};
S322、选择集合D中密度大于ρB的类别得到集合D1,并创建一个空集合F;
S323、取出集合D1中的第一个点记为df1,将df1对应的类别标号f1放入F 中,将df1从D1中删除,同时删除D1中所有与df1距离小于预设阈值th1的点;
S324、重复步骤S323直至D1为空,形成集合F={f1,f2,…,fm},其中m为 进行非极大值抑制后剩余的类别总数目。
进一步地,采用不放回抽样的方式中从新的类别标识集合中随机选取不 同的类别,根据新的类别标识集合中的类别标号,从每类中选择两幅图进行 语义属性标注,根据这两幅图像的语义属性相同与否确定该类别是否要进行 选择,包括:
S410、输出类别i的代表图像ri和邻域边界代表点图像bi
S420、用户对ri和bi两个样本进行交互式语义属性标注,将ri和bi各自拥 有的语义属性标注为1;
S430、判断ri和bi是否包含相同的语义属性,如果两者属性相同,将Gi中 所有图像赋予和ri相同的属性,如果两者属性不同,则不再考虑类别i;
S440、采用不放回抽样的方式从F={f1,f2,…,fm}中选择类别标号,重复 执行步骤S410到S430,直到每个属性都有对应的样本被选择出来。
进一步地,基于训练后的分类器对一级鞋印图像聚类结果集合中的所有 类别进行属性判定,根据属性进行类别的划分和合并,包括:
S610、根据训练好的属性分类器分别计算ci中每幅图像的各个属性,由 此可以得到每幅图像的属性标识,判断ci中所有图像的属性标识是否相同, 若相同,则ci不进行改变;否则用属性分类器对其进行引导,统计ci中属性标 识符的个数e,采用S4中所述方法对ci重新划分为至少e类;
S620、对每一类按照S610进行重新划分,得到集合
Figure BDA0003200539280000041
其中nnew为根据属性重新划分聚类结果C的类别数目;
S630、对于
Figure BDA0003200539280000042
计算两两类别之间的距离,对于距离 小于th2且属性相同的类别进行合并,由此得到聚类结果
Figure BDA0003200539280000043
其中nlast为根据属性重新合并Cnew聚类结果的类别数目。
较现有技术相比,本发明具有以下优点:
本发明通过引入交互式文本语义属性进行引导,一是改善了参数对聚类 结果的影响,二是通过交互式体现了用户的主观意图,可以得到更加符合人 主观评价的结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实 施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下 面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在 不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种交互式文本语义属性引导的鞋印图像聚类方法流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实 施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然, 所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于 本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获 得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第 一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后 次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本 发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外, 术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含, 例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于 清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明实施例提供了一种交互式文本语义属性引导的鞋印 聚类方法,其构建步骤包括基于内容的鞋印图像聚类和基于交互式文本语义 属性的鞋印图像聚类。
作为本发明优选的实施方式,基于内容的鞋印图像聚类,主要包括:特 征提取步骤、距离计算步骤以及鞋印图像聚类步骤。
1、特征提取
数据集X={x1,x2,…,xN}共有N幅鞋印图像,对N幅图像使用通用的特征 提取方式提取特征,如文献Wang X N,Sun H,Yu Q,et al.Automatic shoeprint retrievalalgorithm for real crime scenes[C].Asian Conference on Computer Vision,Singapore,2014:399-413.中提出的小波傅里叶变换或基于深度学习的特征。
2、距离计算
根据提取的特征,计算数据集中两两图像的距离,形成大小为N×N距离 矩阵S。其中距离计算方法可以采用余弦距离、欧几里得距离等方法,也可 以采用特定方法,如文献如文献Wang X N,Sun H,Yu Q,et al.Automatic shoeprint retrieval algorithm forreal crime scenes[C].Asian Conference on Computer Vision,Singapore,2014:399-413.中提出的方法。
3、鞋印图像聚类
根据距离矩阵S,使用通用的图像聚类算法对鞋印图像数据集进行聚类, 得到聚类结果集合C={c1,c2,…,cn},其中n表示类别数目,ci表示属于第i个 类别的图像的集合。在实施中,我们使用DBSCAN密度聚类算法对鞋印数据 集进行聚类。
作为本发明优选的实施方式,基于交互式文本语义属性的鞋印图像聚 类主要包括:属性定义、属性分类器样本自动选择、样本语义属性的标注、 属性分类器在线训练、基于属性分类的类别精细化以及样本增量选择及再 聚类等步骤。具体地:
1、属性定义
根据鞋底花纹的视觉特征和鞋底花纹的制作工艺定义鞋印属性,一幅鞋 印图像可能包含一种或多种属性。在实施中,我们根据鞋底花纹的类型定义 了8个语义属性,分别为波折、类圆、边块、图文、线条、交织、点状和未 知等,也可以新增其他属性。
2、属性分类器样本自动选择
1)计算C中每个类别的密度形成集合ρ={ρ12,…,ρn},查找每个类别中 代表图像形成R={r1,r2,…,rn},查找代表点图像邻域点集合
Figure BDA0003200539280000061
查找代表图像邻域边界代表点bi,其中i表示类别。每个类别的密度、代表点 以及代表图像邻域边界代表点的具体计算过程如下,以类别i为例。
(1)计算ci中每幅图像的密度ρi,其定义为与该幅图像距离小于预设阈 值t的图像的个数。
(2)用ci中所有图像的密度的最大值作为ci的密度,其对应的图像作为ci的代表图像ri
(3)同时查找ci中与代表图像距离小于预设阈值th的所有图像,形成集 合
Figure BDA0003200539280000062
实施中,th定义为二倍的邻域半径。
(4)在Gi中找到距离代表图像最远的图像作为ri邻域边界代表点bi
2)在特征空间中,根据每个类别的密度对C中各类别的分布进行非极大 值抑制得到新的类别标识集合F={f1,f2,…,fm}。
(1)根据密度由大到小对R进行排序得到集合D={d1,d2,…,dt}。
(2)选择集合D中密度大于ρB的类别得到集合D1,并创建一个空集合F。
(3)取出集合D1中的第一个点记为df1,将df1对应的类别标号f1放入F中, 即F=F∪f1。将df1从D1中删除,同时删除D1中所有与df1距离小于预设阈值th1的点。
重复步骤(3)直至D1为空,形成集合F={f1,f2,…,fm},其中m为进行非 极大值抑制后剩余的类别总数目。
3、样本语义属性的标注
采用不放回抽样的方式中从F中随机选取不同的类别,根据F中的类别标 号,从每类中选择两幅图进行语义属性标注,根据这两幅图像的语义属性相 同与否确定该类别是否要进行选择,以类别i为例进行如下操作:
1)输出类别i的代表图像ri和邻域边界代表点图像bi
2)用户对ri和bi两个样本进行交互式语义属性标注,将ri和bi各自拥有的 语义属性标注为1。
3)判断ri和bi是否包含相同的语义属性。如果两者属性相同,将Gi中所 有图像赋予和ri相同的属性。如果两者属性不同,则不再考虑类别i。
4)采用不放回抽样的方式从F={f1,f2,…,fm}中选择类别标号,重复执行 步骤1)到3),直到每个属性都有对应的样本被选择出来。
4、属性分类器在线训练
根据上述选择的标注样本,训练每一个属性对应的分类器。在实施中, 我们选择随机森林分类器对有语义属性标签的样本进行训练,由此可以得到 8个属性分类器{l1,l2,…,l8}。
5、基于属性分类的类别精细化
本实施例中,用8个属性分类器{l1,l2,…,l8}对一次聚类的结果 C={c1,c2,…,cn}中的所有类别进行属性判定,根据属性进行类别的划分和合并。
1)以ci为例,根据8个属性分类器分别计算ci中每幅图像的8个属性 {a1,a2,…,a8},由此可以得到一个由0和1组成的8维向量,我们可以将这个8 维向量看成一个二进制数,再转化成十进制数,得到一个0-255中的整数, 用这个整数作为每幅图像的属性标识。判断ci中所有图像的属性标识是否相 同,若相同,则ci不进行改变。否则用属性分类器对其进行引导,统计ci中属 性标识符的个数e,采用二、3中所述方法对ci重新划分为至少e类。在实施 中若采用DBSCAN,可以从初始领域半径依次减小,对ci重新进行聚类直到 划分的类别恰好超过e便可以停止。若采用K-Means则将e作为初始值对ci进 行重新划分。
2)对每一类按照步骤1)进行重新划分,得到集合
Figure BDA0003200539280000071
其中nnew为根据属性重新划分聚类结果C的类别数目。
3)对于
Figure BDA0003200539280000072
计算两两类别之间的距离,对于距离小 于th2且属性相同的类别进行合并。在实施中,两个类之间的距离采用最相近 点之间的距离,针对DBSCAN算法,预设阈值th2可设置为2倍的邻域半径。 由此得到聚类结果
Figure BDA0003200539280000081
其中nlast为根据属性重新合并Cnew聚类 结果的类别数目。
6、样本增量选择及再聚类
执行步骤2,判断是否有新的样本产生,如果有则进行步骤3-6。如果样 本无增量,则聚类停止,得到最终的聚类结果。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施 例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可 通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例 如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划 分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些 特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接 耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接, 可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作 为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方, 或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全 部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中, 也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单 元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单 元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售 或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本 发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的 全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个 存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服 务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。 而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、 随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光 盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对 其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通 技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改, 或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并 不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (6)

1.一种交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,包括:
S1、由鞋印图像数据库中获取鞋印图像生成鞋印数据集,并对鞋印数据集中的鞋印图像进行基于内容的鞋印图像聚类,进而得到基于内容的一级鞋印图像聚类结果集合;
S2、根据鞋底花纹的视觉特征和鞋底花纹的制作工艺定义鞋印属性;
S3、计算所述一级鞋印图像聚类结果集合每个类别的密度形成集合,查找每个类别中代表图像,代表点图像邻域点集合以及查找代表图像邻域边界代表点,基于每个类别的密度对一级鞋印图像聚类结果集合中各类别的分布进行非极大值抑制得到新的类别标识集合;
S4、采用不放回抽样的方式中从新的类别标识集合中随机选取不同的类别,根据新的类别标识集合中的类别标号,从每类中选择两幅图进行语义属性标注,根据这两幅图像的语义属性相同与否确定该类别是否要进行选择,直到每个属性都有对应的样本被选择出来;
S5、根据上述选择的标注样本,训练每一个属性对应的分类器;
S6、基于训练后的分类器对一级鞋印图像聚类结果集合中的所有类别进行属性判定,根据属性进行类别的划分和合并;
S7、执行步骤S3,判断是否有新的样本产生,如果有则进行S4-S7,如果样本无增量,则聚类停止,得到最终的二级鞋印图像聚类结果集合。
2.根据权利要求1所述的交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,并对获取的鞋印图像进行基于内容的鞋印图像聚类,进而得到基于内容的一级鞋印图像聚类结果,包括:
S110、对鞋印图像数据集中的鞋印图像进行特征提取;
S120、根据提取的鞋印图像特征计算鞋印图像数据集中两两鞋印图像间的距离,生成距离矩阵;
S130、基于所述距离矩阵对鞋印图像进行聚类,得到基于内容的一级鞋印图像聚类结果集合。
3.根据权利要求1所述的交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,计算所述一级鞋印图像聚类结果集合每个类别的密度形成集合,查找每个类别中代表图像,代表点图像邻域点集合以及查找代表图像邻域边界代表点,包括:
S311、获取一级鞋印图像聚类结果集合C={c1,c2,…,cn},其中n表示类别数目,ci表示属于第i个类别的图像的集合,1≤i≤n;
S312、基于C={c1,c2,…,cn}求取每个类别的密度形成集合ρ={ρ12,…,ρn},包括:计算ci中每幅图像的密度ρi,其定义为与该幅图像距离小于预设阈值t的图像的个数,
S313、用ci中所有图像的密度的最大值作为ci的密度,其对应的图像作为ci的代表图像ri,形成每个类别中代表图像集合R={r1,r2,…,rn};
S314、同时查找ci中与代表图像距离小于预设阈值th的所有图像,形成代表点图像邻域点集合
Figure FDA0003200539270000021
S315、在Gi中找到距离代表图像最远的图像作为ri邻域边界代表点bi
4.根据权利要求3所述的交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,基于每个类别的密度对一级鞋印图像聚类结果集合中各类别的分布进行非极大值抑制得到新的类别标识集合,包括:
S321、根据密度由大到小对R进行排序得到集合D={d1,d2,…,dt};
S322、选择集合D中密度大于ρB的类别得到集合D1,并创建一个空集合F;
S323、取出集合D1中的第一个点记为df1,将df1对应的类别标号f1放入F中,将df1从D1中删除,同时删除D1中所有与df1距离小于预设阈值th1的点;
S324、重复步骤S323直至D1为空,形成集合F={f1,f2,…,fm},其中m为进行非极大值抑制后剩余的类别总数目。
5.根据权利要求4所述的交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,采用不放回抽样的方式中从新的类别标识集合中随机选取不同的类别,根据新的类别标识集合中的类别标号,从每类中选择两幅图进行语义属性标注,根据这两幅图像的语义属性相同与否确定该类别是否要进行选择,包括:
S410、输出类别i的代表图像ri和邻域边界代表点图像bi
S420、用户对ri和bi两个样本进行交互式语义属性标注,将ri和bi各自拥有的语义属性标注为1;
S430、判断ri和bi是否包含相同的语义属性,如果两者属性相同,将Gi中所有图像赋予和ri相同的属性,如果两者属性不同,则不再考虑类别i;
S440、采用不放回抽样的方式从F={f1,f2,…,fm}中选择类别标号,重复执行步骤S410到S430,直到每个属性都有对应的样本被选择出来。
6.根据权利要求5所述的交互式文本语义属性引导的鞋印图像聚类方法,其特征在于,基于训练后的分类器对一级鞋印图像聚类结果集合中的所有类别进行属性判定,根据属性进行类别的划分和合并,包括:
S610、根据训练好的属性分类器分别计算ci中每幅图像的各个属性,由此可以得到每幅图像的属性标识,判断ci中所有图像的属性标识是否相同,若相同,则ci不进行改变;否则用属性分类器对其进行引导,统计ci中属性标识符的个数e,采用S4中所述方法对ci重新划分为至少e类;
S620、对每一类按照S610进行重新划分,得到集合
Figure FDA0003200539270000031
其中nnew为根据属性重新划分聚类结果C的类别数目;
S630、对于
Figure FDA0003200539270000032
计算两两类别之间的距离,对于距离小于th2且属性相同的类别进行合并,由此得到聚类结果
Figure FDA0003200539270000033
其中nlast为根据属性重新合并Cnew聚类结果的类别数目。
CN202110902668.5A 2021-08-06 2021-08-06 一种交互式文本语义属性引导的鞋印图像聚类方法 Active CN113537391B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110902668.5A CN113537391B (zh) 2021-08-06 2021-08-06 一种交互式文本语义属性引导的鞋印图像聚类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110902668.5A CN113537391B (zh) 2021-08-06 2021-08-06 一种交互式文本语义属性引导的鞋印图像聚类方法

Publications (2)

Publication Number Publication Date
CN113537391A true CN113537391A (zh) 2021-10-22
CN113537391B CN113537391B (zh) 2023-09-05

Family

ID=78122105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110902668.5A Active CN113537391B (zh) 2021-08-06 2021-08-06 一种交互式文本语义属性引导的鞋印图像聚类方法

Country Status (1)

Country Link
CN (1) CN113537391B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090313294A1 (en) * 2008-06-11 2009-12-17 Microsoft Corporation Automatic image annotation using semantic distance learning
CN106777050A (zh) * 2016-12-09 2017-05-31 大连海事大学 一种基于词袋模型且兼顾语义相关性的鞋印花纹表达方法及系统
CN107301426A (zh) * 2017-06-14 2017-10-27 大连海事大学 一种鞋底花纹图像的多标签聚类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090313294A1 (en) * 2008-06-11 2009-12-17 Microsoft Corporation Automatic image annotation using semantic distance learning
CN106777050A (zh) * 2016-12-09 2017-05-31 大连海事大学 一种基于词袋模型且兼顾语义相关性的鞋印花纹表达方法及系统
CN107301426A (zh) * 2017-06-14 2017-10-27 大连海事大学 一种鞋底花纹图像的多标签聚类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王新年;舒莹莹;: "K步稳定的鞋印花纹图像自动聚类", 中国图象图形学报, no. 05 *

Also Published As

Publication number Publication date
CN113537391B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
CN109919252B (zh) 利用少数标注图像生成分类器的方法
CN105574063A (zh) 基于视觉显著性的图像检索方法
MX2014012866A (es) Metodo para la clasificacion binaria de una imagen de consulta.
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN113205081B (zh) 一种基于显著性检测的svm模型工人疲劳精准判别方法
JP4553300B2 (ja) コンテンツ識別装置
Mehri et al. A texture-based pixel labeling approach for historical books
CN108647703B (zh) 一种基于显著性的分类图像库的类型判断方法
Mata-Montero et al. A texture and curvature bimodal leaf recognition model for identification of costa rican plant species
CN107563393A (zh) 一种甲骨文图片局部纹理特征的提取及匹配方法及系统
CN109166093B (zh) 一种图像显著区域检测方法
Nunes et al. Detection of masses in mammographic images using geometry, Simpson's Diversity Index and SVM
CN113705310A (zh) 特征学习的方法、目标物体的识别方法和对应装置
Úbeda et al. Pattern spotting in historical documents using convolutional models
CN113537391B (zh) 一种交互式文本语义属性引导的鞋印图像聚类方法
CN103793714A (zh) 多分类识别器、数据识别装置、多分类识别方法及数据识别方法
Matsui et al. Feature selection by genetic algorithm for MRI segmentation
Mehri et al. A pixel labeling approach for historical digitized books
CN113297411B (zh) 轮形图谱相似性的度量方法、装置、设备及存储介质
CN111831819A (zh) 一种文本更新方法及装置
CN112132239B (zh) 一种训练方法、装置、设备和存储介质
CN111931229B (zh) 一种数据识别方法、装置和存储介质
CN110147790B (zh) 基于自适应阈值的场景图像商标检测方法、系统、装置
CN113111882A (zh) 一种卡证识别方法、装置、电子设备及存储介质
CN110956177A (zh) 一种混合型验证码的识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant