CN105678346B - 一种基于空间聚类的目标匹配检索方法 - Google Patents

一种基于空间聚类的目标匹配检索方法 Download PDF

Info

Publication number
CN105678346B
CN105678346B CN201610202626.XA CN201610202626A CN105678346B CN 105678346 B CN105678346 B CN 105678346B CN 201610202626 A CN201610202626 A CN 201610202626A CN 105678346 B CN105678346 B CN 105678346B
Authority
CN
China
Prior art keywords
matching
target
surf
cluster centre
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610202626.XA
Other languages
English (en)
Other versions
CN105678346A (zh
Inventor
王剑邦
赵晓萌
张伟
张如高
虞正华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI BOKANG INTELLIGENT INFORMATION TECHNOLOGY Co Ltd
Original Assignee
SHANGHAI BOKANG INTELLIGENT INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI BOKANG INTELLIGENT INFORMATION TECHNOLOGY Co Ltd filed Critical SHANGHAI BOKANG INTELLIGENT INFORMATION TECHNOLOGY Co Ltd
Priority to CN201610202626.XA priority Critical patent/CN105678346B/zh
Publication of CN105678346A publication Critical patent/CN105678346A/zh
Application granted granted Critical
Publication of CN105678346B publication Critical patent/CN105678346B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23211Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with adaptive number of clusters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于空间聚类的目标匹配检索方法,在参考图目标与匹配图目标之间进行目标匹配检索,包括步骤a:获得该参考图目标的surf特征点信息和特征点空间坐标信息,以及该匹配图的surf特征点信息和特征点空间坐标信息;步骤b:获得该参考图目标和该匹配图目标的surf特征点的聚类中心的空间坐标信息;步骤c:获得该参考图目标中相对位置与夹角的集合;以及获得该匹配图中相对位置与夹角的集合;步骤d:对两个集合进行比较,获得互相匹配的聚类中心;步骤e:对聚类中心之间进行类内surf特征点匹配,得到匹配对。通过本发明方法,在保证匹配准确性的情况下,提高了surf特征匹配的速度。

Description

一种基于空间聚类的目标匹配检索方法
技术领域
本发明涉及目标检索领域,具体涉及一种基于空间聚类的目标匹配检索方法。
背景技术
在图像侦查领域,目标检索起着重要作用,目前比较成熟的图像特征是sift和surf描述子。但是,由于光照、目标姿态变化、相机拍摄角度等问题,同一目标在不同情况下能被提取的特征部位、特征数目等都不同,这样导致在实际的匹配中会存在计算的冗余,加重计算量,导致匹配检索的效率下降。
基于上述的缺点,本发明人想到首先利用空间聚类技术,对surf特征点根据空间分布和密度进行聚类,如车灯附近的特征点为一类,认为描述的是车灯的特征;然后对类别与类别之间进行空间分布的匹配;最后对互相匹配的类别之间的surf特征再进行匹配,得到最终的匹配检索结果。
发明内容
本发明针对现有技术的上述缺点,提出了一种基于空间聚类的目标匹配检索方法。
本发明的基于空间聚类的目标检索方法,在参考图目标与匹配图目标之间进行目标匹配检索,包括如下步骤:
步骤a:对所述参考图目标和匹配图分别提取surf特征,获得所述参考图目标的surf特征点信息和特征点空间坐标信息,以及所述匹配图的surf特征点信息和特征点空间坐标信息;
步骤b:对所述参考图目标和所述匹配图目标的特征点分别进行空间和密度聚类,获得所述参考图目标和所述匹配图目标的surf特征点的聚类中心的空间坐标信息;
步骤c:计算所述参考图目标的聚类中心与参考图目标中心的相对位置和夹角,获得所述参考图目标中相对位置与夹角的集合classPos Re;以及同样计算所述匹配图的聚类中心与匹配图目标中心的相对位置和夹角,获得所述匹配图中相对位置与夹角的集合classPosMc;
步骤d:对classPos Re与classPosMc进行比较,获得互相匹配的聚类中心;
步骤e:对互相匹配的聚类中心之间进行类内surf特征点匹配,得到匹配对;以及
步骤f:利用匹配对的位置关系排除不合理的surf匹配对。
优选地,步骤a中,surf特征点信息为fea={ft0,ft1,…,ftn-1},其中fea表示对当前目标的surf特征描述,ft0,ft1,…,ftn-1分别为24维的数据特征,fea特征点对应的图像空间坐标为pointMat={pt0,pt1,…,ptn-1},其中n表示当前目标的特征点个数,pti=[xi,yi]表示第i个特征点的空间坐标,则获得参考图目标objectF的surf特征点信息为fea Re,对应特征点的空间坐标信息为pMat Re;获得匹配图matchF的surf特征点信息为feaMc,对应特征点的空间坐标信息为pMatMc。
优选地,步骤b中,将分散于目标上的surf特征点利用密度和距离进行聚类,得到特征点聚类中心的空间位置:groupMat={gp0,gp1,…gpm-1},其中,m表示聚类的类别,则获得参考图目标objectF的特征点聚类中心的空间位置信息gMat Re;获得匹配图matchF的特征点聚类中心的空间位置信息gMatMc。
优选地,步骤c中,聚类中心的相对位置和夹角classPosion根据如下方式获得:
classPosion={DA1,DA2,…DAm-1},其中DAi={disi,angi},disi是归一化后的值,disi=disRi/sqrt(W*W+H*H),disRi为第i个聚类中心与目标中心center的欧式距离,W,H分别为目标的宽和高;
将聚类中心classPosion按着夹角ang的值从小到大进行排序,得到所述参考图目标中相对位置与夹角的集合classPosRe和所述匹配图中相对位置与夹角的集合classPosMc。
优选地,步骤d中,若参考图的聚类中心i的元素DAi={disi,angi}与匹配图的聚类中心j的元素DAj={disj,angj}满足以下条件:disi∈[(1-λ)disj,(1+λ)disj}且angi∈[(1-β)disj,(1+β)disj},参考值为λ=0.2,β=0.15,则认为参考图聚类中心为i的类与匹配图聚类中心为j的类在空间上是相匹配的。
优选地,步骤e中,假设参考图聚类中心为i的类包含的surf特征为fea Rei,匹配图聚类中心为j的类包含的surf特征为feaMcj,对feaRei与feaMcj之间进行特征点匹配,得到匹配对matchRe sultij={[ptR1,ptM1],...[ptRp,ptMp]},
其中,[R1,M1],...[Rp,Mp]表示参考图与匹配图的特征点的下标,p表示匹配对的个数。
优选地,步骤f中,如果所述匹配对中两个特征点间的距离和两个特征点之间的直线的倾角不满足阈值条件则删除认为该surf匹配对是不合理的surf匹配对:
其中,disLinei为所述匹配对中两个特征点间的距离,angLinei为两个特征点之间的直线的倾角,disxy和angxy分别表示参考图或匹配图的同一目标中两个匹配点x,y之间的距离和夹角,s为参考图与匹配图之间的尺度因子,参考值λ和β满足λ=0.2,β=0.15。
本发明的有益效果在于:在保证匹配准确性的情况下,提高了surf特征匹配的速度。
附图说明
图1是surf特征点空间聚类的示意图。
图2是聚类中心相对位置与相对角度。
图3是参考图与匹配图相同空间位置的surf匹配结果的结构。
图4是基于空间聚类的匹配时间与不进行空间聚类的匹配时间的比较图。
图5是本发明的基于空间聚类的目标检索匹配方法的流程图。
具体实施方式
以下结合附图对本发明进行详细说明。以下实施例并不是对本发明的限制。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中。
本发明的基于空间聚类的的目标匹配检索方法,本方法在参考图目标objectF与匹配图目标matchF之间进行目标匹配检索,如图5所示,包括如下步骤:
步骤a:对所述参考图目标和匹配图分别提取surf特征,获得所述参考图目标的surf特征点信息和特征点空间坐标信息,以及所述匹配图的surf特征点信息和特征点空间坐标信息;
提取surf特征,即提取目标的surf特征并描述:fea={ft0,ft1,…,ftn-1},其中fea表示对当前目标的surf特征描述。在本发明中将128维的surf特征点描述子利用PCA方法降维到24维特征,即ft0,ft1,…,ftn-1分别为24维的数据特征,其中n表示当前目标的特征点个数;fea特征点对应的图像空间坐标为point Mat={pt0,pt1,…,ptn-1},n同上,pti=[xi,yi]表示第i个特征点的空间坐标。
本步骤中,获得参考图目标objectF的surf特征点信息为fea Re,对应特征点的空间坐标信息为pMat Re;获得匹配图matchF的surf特征点信息为feaMc,对应特征点的空间坐标信息为pMatMc。
步骤b:对所述参考图目标和所述匹配图的特征点分别进行空间和密度聚类,获得所述参考图目标和所述匹配图的surf特征点的聚类中心的空间坐标信息。
利用R Alex于2014年在科学杂志上发表的《基于快速搜索和密度峰值的聚类算法》所述的方法,对目标的surf特征点进行空间和密度聚类,论文中提出了一种非常巧妙的聚类算法,该算法是基于假设:类簇中心被具有较低局部密度的邻居点包围,且与具有更高密度的任何点有相对较大的距离。通过上述方法,将分散于目标上的surf特征点利用密度和距离进行聚类,得到特征点聚类中心的空间位置:groupMat={gp0,gp1,…gpm-1},如图1所示的m=7类,即分布于该车辆上的surf特征点聚类为7个集(类),并有相应的聚类中心{gp0,gp1,…gp6}。如图1所示,数字1~7表示各个类别,包括车灯一类,车牌一类,车窗一类等等。
本步骤中,获得参考图目标objectF的特征点聚类中心的空间位置信息gMatRe;获得匹配图matchF的特征点聚类中心的空间位置信息gMatMc。
步骤c:计算所述参考图目标的聚类中心与目标中心的相对位置和夹角,获得所述参考图目标中相对位置与夹角的集合classPosRe;以及同样计算所述匹配图的聚类中心与目标中心的相对位置和夹角,获得所述匹配图中相对位置与夹角的集合classPosMc。
具体地,设目标中心位置为center,计算{gp0,gp1,…gp6}与center的相对位置和夹角,如图2所示,得到classPosion={DA1,DA2,…DAm-1},其中DAi={disi,angi},注意disi是归一化后的值,disi=disRi/sqrt(W*W+H*H),disRi为第i个聚类中心与center的欧式距离,W,H分别为目标的宽和高;优选地,可以将classPosion按着ang的值从小到大(0到360°)进行排序,得到新的classPos,即classPosRe和classPosMc,便于后续进行空间类匹配时,可使相同或近似角度的聚类中心组合,然后只要再计算距离是否满足条件即可判断聚类中心是否互相匹配,这样可以提高效率。当然也可以在不排序的情况下进行聚类中心匹配。
步骤d:对classPosRe和classPosMc进行比较,若其中的元素DAi={disi,angi}与DAj={disj,angj}满足以下条件:disi∈[(1-λ)disj,(1+λ)disj}且angi∈[(1-β)disj,(1+β)disj},参考值为λ=0.2,β=0.15,则认为参考图聚类中心为i的类与匹配图聚类中心为j的类在空间上是一致的,相匹配的,从而得到相互匹配的聚类类别。
步骤e:对于已经相互匹配的聚类类别再进行类内surf特征点匹配,获得匹配对。假设参考图聚类中心为i的类包含的surf特征为feaRei,匹配图聚类中心为j的类包含的surf特征为feaMcj,对feaRei与feaMcj进行特征点匹配(即类内匹配),得到匹配对matchResultij={[ptR1,ptM1],…[ptRp,ptMp]},p表示匹配对的个数。本发明中获得匹配对的方法是进行surf特征点匹配的常规方法。
步骤f:利用匹配对的位置关系排除不合理的surf匹配对,从而获得符合条件的匹配对。
图3是参考图的i类与匹配图的j类相同空间位置的surf匹配结果的结构。如图3所示,其中匹配对为1-a,2-b,3-c,4-d,5-e。计算第一组匹配对的结构:1-2,1-3,1-4,1-5与a-b,a-c,a-d,a-e八组线段的距离disLine、以及线段所在直线的倾角angLine,
其中angij∈[0,180°)。
若匹配对间的距离和角度不满足下述阈值条件,则认为两者(两个匹配点)是不匹配的:
其中,disxy和angxy分别表示同一目标(如参考图或匹配图)中两个匹配点x,y之间的距离和夹角,s为参考图与匹配图之间的尺度因子,参考值λ=0.2,β=0.15,遍历所有的匹配对。图3的匹配结果就可以得出5-e之间的匹配在距离和角度上与其他匹配对的结构不相同,不符合上述阈值条件,即该匹配对是无效的,则将其从matchResultij中删除,也就是排除不合理的surf匹配对。那么其余的匹配对就是有效的,即该匹配对中的两个匹配点之间满足上述阈值条件,是相互匹配的。
通过遍历步骤e中得到的所有空间匹配对,得到最终的matchRe sult,这样不同空间类间的surf特征点之间不再进行互相计算,大大降低了特征点遍历匹配的数量,提高了匹配速度。如图4所示为基于空间聚类的匹配时间与不进行空间聚类的匹配时间的比较图。其中,被检索图像(匹配图)为1323幅,横轴表示匹配图的数量,纵坐标表示surf特征匹配时间(单位:ms),其中箭头B指示的曲线(图中黑线下方)表示一幅图像基于空间聚类的匹配时间,基本保证在2ms左右;箭头A指示的曲线(图中黑线上方)表示不做空间聚类的匹配时间,其依赖于surf特征点个数,从图中可以看出匹配时间变化很大,有的甚至达到16ms。
显然,本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,而并非用作为对本发明的限定,只要在本发明的实质精神范围内,对以上所述实施例的变化、变型都将落在本发明的权利要求书范围内。

Claims (6)

1.一种基于空间聚类的目标匹配检索方法,其特征在于,在参考图目标与匹配图目标之间进行目标匹配检索,包括如下步骤:
步骤a:对所述参考图目标和匹配图分别提取surf特征,获得所述参考图目标的surf特征点信息和特征点空间坐标信息,以及所述匹配图的surf特征点信息和特征点空间坐标信息;
步骤b:对所述参考图目标和所述匹配图目标的特征点分别进行空间和密度聚类,获得所述参考图目标和所述匹配图目标的surf特征点的聚类中心的空间坐标信息;
步骤c:计算所述参考图目标的聚类中心与参考图目标中心的相对位置和夹角,获得所述参考图目标中相对位置与夹角的集合classPosRe;以及同样计算所述匹配图的聚类中心与匹配图目标中心的相对位置和夹角,获得所述匹配图中相对位置与夹角的集合classPosMc;
步骤d:对classPosRe与classPosMc进行比较,获得互相匹配的聚类中心;
步骤e:对互相匹配的聚类中心之间进行类内surf特征点匹配,得到匹配对;以及
步骤f:利用匹配对的位置关系排除不合理的surf匹配对,
步骤c中,聚类中心的相对位置和夹角classPosion根据如下方式获得:
classPosion={DA1,DA2,…DAm-1},其中DAi={disi,angi},disi是归一化后的值,disi=disRi/sqrt(W*W+H*H),disRi为第i个聚类中心与目标中心center的欧式距离,W,H分别为目标的宽和高,angi为第i个聚类中心与目标中心center的夹角;
将聚类中心classPosion按着夹角ang的值从小到大进行排序,得到所述参考图目标中相对位置与夹角的集合classPosRe和所述匹配图中相对位置与夹角的集合classPosMc。
2.根据权利要求1所述的方法,其特征在于,步骤a中,surf特征点信息为fea={ft0,ft1,…,ftn-1},其中fea表示对当前目标的surf特征描述,ft0,ft1,…,ftn-1分别为24维的数据特征,fea特征点对应的图像空间坐标为pointMat={pt0,pt1,…,ptn-1},其中n表示当前目标的特征点个数,pti=[xi,yi]表示第i个特征点的空间坐标,则获得参考图目标objectF的surf特征点信息为feaRe,对应特征点的空间坐标信息为pMatRe;获得匹配图matchF的surf特征点信息为feaMc,对应特征点的空间坐标信息为pMatMc。
3.根据权利要求2所述的方法,其特征在于,步骤b中,将分散于目标上的surf特征点利用密度和距离进行聚类,得到特征点聚类中心的空间位置:groupMat={gp0,gp1,…gpm-1},其中,m表示聚类的类别,则获得参考图目标objectF的特征点聚类中心的空间位置信息gMat Re;获得匹配图matchF的特征点聚类中心的空间位置信息gMatMc。
4.根据权利要求3所述的方法,其特征在于,步骤d中,若参考图的聚类中心i的元素DAi={disi,angi}与匹配图的聚类中心j的元素DAj={disj,angj}满足以下条件:disi∈[(1-λ)disj,(1+λ)disj}且angi∈[(1-β)disj,(1+β)disj},参考值为λ=0.2,β=0.15,则认为参考图聚类中心为i的类与匹配图聚类中心为j的类在空间上是相匹配的。
5.根据权利要求4所述的方法,其特征在于,步骤e中,假设参考图聚类中心为i的类包含的surf特征为fea Rei,匹配图聚类中心为j的类包含的surf特征为feaMcj,对fea Rei与feaMcj之间进行特征点匹配,得到匹配对
match Re sultij={[ptR1,ptM1],…[ptRp,ptMp]},
其中,[R1,M1],...[Rp,Mp]表示参考图与匹配图的特征点的下标,p表示匹配对的个数。
6.根据权利要求5所述的方法,其特征在于,步骤f中,如果所述匹配对中两个特征点间的距离和两个特征点之间的直线的倾角不满足阈值条件则删除认为该surf匹配对是不合理的surf匹配对:
其中,disLinei为所述匹配对中两个特征点间的距离,angLinei为两个特征点之间的直线的倾角,disxy和angxy分别表示参考图或匹配图的同一目标中两个匹配点x,y之间的距离和夹角,s为参考图与匹配图之间的尺度因子,参考值λ和β满足λ=0.2,β=0.15。
CN201610202626.XA 2016-04-01 2016-04-01 一种基于空间聚类的目标匹配检索方法 Active CN105678346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610202626.XA CN105678346B (zh) 2016-04-01 2016-04-01 一种基于空间聚类的目标匹配检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610202626.XA CN105678346B (zh) 2016-04-01 2016-04-01 一种基于空间聚类的目标匹配检索方法

Publications (2)

Publication Number Publication Date
CN105678346A CN105678346A (zh) 2016-06-15
CN105678346B true CN105678346B (zh) 2018-12-04

Family

ID=56225133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610202626.XA Active CN105678346B (zh) 2016-04-01 2016-04-01 一种基于空间聚类的目标匹配检索方法

Country Status (1)

Country Link
CN (1) CN105678346B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407989B (zh) * 2016-09-07 2019-05-28 厦门大学 基于快速自动密度聚类的可变尺度红外小目标的检测方法
CN107132500B (zh) * 2017-03-14 2019-10-15 国家电网公司 一种同步相量测量单元在线校准方法与装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN103514446A (zh) * 2013-10-16 2014-01-15 北京理工大学 一种融合传感器信息的室外场景识别方法
CN104573646A (zh) * 2014-12-29 2015-04-29 长安大学 基于激光雷达和双目相机的车前行人检测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140173623A1 (en) * 2012-12-17 2014-06-19 Mediatek Inc. Method for controlling task migration of task in heterogeneous multi-core system based on dynamic migration threshold and related computer readable medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN103514446A (zh) * 2013-10-16 2014-01-15 北京理工大学 一种融合传感器信息的室外场景识别方法
CN104573646A (zh) * 2014-12-29 2015-04-29 长安大学 基于激光雷达和双目相机的车前行人检测方法及系统

Also Published As

Publication number Publication date
CN105678346A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
Li et al. Clustering moving objects
JP5167442B2 (ja) 画像識別装置およびプログラム
CN110516586A (zh) 一种人脸图像聚类方法、系统、产品及介质
CN110059807A (zh) 图像处理方法、装置和存储介质
CN105095884B (zh) 一种基于随机森林支持向量机的行人识别系统及处理方法
CN108648256B (zh) 一种基于超维的灰度岩心三维重建方法
CN103631928A (zh) 一种基于局部敏感哈希的聚类索引方法及系统
CN111968171A (zh) 基于人工智能的飞机油量测量方法及系统
CN104036012A (zh) 字典学习、视觉词袋特征提取方法及检索系统
CN106528662A (zh) 一种基于特征几何约束的车辆图像快速检索方法与系统
Mohan et al. Environment selection and hierarchical place recognition
CN106845536B (zh) 一种基于图像缩放的并行聚类方法
CN106055573A (zh) 一种多示例学习框架下的鞋印图像检索方法及系统
Pan et al. Mining regular behaviors based on multidimensional trajectories
CN106874421A (zh) 基于自适应矩形窗口的图像检索方法
CN106228554A (zh) 基于多属性约简的模糊粗糙集煤粉尘图像分割方法
CN108154157A (zh) 一种基于集成的快速谱聚类方法
CN112766170B (zh) 基于簇类无人机图像的自适应分割检测方法及装置
CN109685122B (zh) 一种基于密度峰和引力影响的半监督游客画像数据聚类方法
CN110647645A (zh) 一种基于通用扰动的攻击图像检索方法
US8429163B1 (en) Content similarity pyramid
CN105678346B (zh) 一种基于空间聚类的目标匹配检索方法
CN110458175A (zh) 一种基于词汇树检索的无人机影像匹配对选择方法及系统
CN102902976A (zh) 一种基于目标及其空间关系特性的图像场景分类方法
CN106156281A (zh) 基于Hash‑Cube空间层次划分结构的最近邻点集快速检索方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant