CN104820718B - 基于地理位置特征与全局视觉特征的图像分类和检索方法 - Google Patents

基于地理位置特征与全局视觉特征的图像分类和检索方法 Download PDF

Info

Publication number
CN104820718B
CN104820718B CN201510267590.9A CN201510267590A CN104820718B CN 104820718 B CN104820718 B CN 104820718B CN 201510267590 A CN201510267590 A CN 201510267590A CN 104820718 B CN104820718 B CN 104820718B
Authority
CN
China
Prior art keywords
image
database
feature
gray
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510267590.9A
Other languages
English (en)
Other versions
CN104820718A (zh
Inventor
谭学治
冯冠元
马琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University Of Technology Robot Group Co Ltd
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201510267590.9A priority Critical patent/CN104820718B/zh
Publication of CN104820718A publication Critical patent/CN104820718A/zh
Application granted granted Critical
Publication of CN104820718B publication Critical patent/CN104820718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

基于地理位置特征与全局视觉特征的图像分类和检索方法,本发明涉及图像分类和检索方法。本发明的目的是为了解决现有室外图像仅依靠视觉特征进行场景分类时精度低以及随着数据库规模的不断增大,图像检索过程耗费大量的时间,影响导航定位算法的实时性,无法保证用户的位置服务需求的问题。通过以下技术方案实现的:步骤一、数据库初始化:步骤二、数据库图像预处理:步骤三、数据库图像聚类:步骤四、数据库图像类排序:步骤五、图像类内检索。本发明应用于信息技术中计算机视觉和图像处理领域。

Description

基于地理位置特征与全局视觉特征的图像分类和检索方法
技术领域
本发明涉及图像分类和检索方法。
背景技术
在室外视觉定位中,需要采集带有地理位置信息(地理坐标)的图像作为定位算法的数据库图像。在基于视觉的定位方法中,首先需要根据用户所采集图像对数据库图像进行检索,得到检索图像后,再根据这些图像的位置信息,确定用户所在的位置。在定位过程中,数据库图像的检索效率是保证定位实时性的关键。基于内容的图像检索技术作为信息检索技术重要的一部分,已成为国内外的研究热点。该技术主要利用图像的视觉特征如颜色、纹理、形状和空间关系等检索图像库中与待查询图像相似的图像。在以往的图像检索技术中,图像的视觉信息往往作为图像的主要特征。但是,在某些情况下,图像的视觉特征往往不具有良好的区分性,从而导致室外图像仅依靠视觉特征进行场景分类时精度低。
在基于视觉的定位与导航算法中,图像的快速检索是保证算法实时性的关键。在该领域的研究中,已有算法主要是通过全局遍历的搜索方法进行数据库图像检索。但是,随着数据库规模的不断增大,图像检索过程耗费大量的时间,影响导航定位算法的实时性,无法保证用户的位置服务需求。
发明内容
本发明的目的是为了解决现有室外图像仅依靠视觉特征进行场景分类时精度低以及随着数据库规模的不断增大,图像检索过程耗费大量的时间,影响到导航定位算法的实时性,无法保证用户的位置服务需求的问题,而提出了基于地理位置特征与全局视觉特征的图像分类和检索方法。
上述的发明目的是通过以下技术方案实现的:
步骤一、数据库初始化:
在室外采集带有地理位置信息的图像作为数据库数据进行存储;
步骤二、数据库图像预处理:
将数据库中图像转换成灰度图像,提取Gist特征作为全局视觉特征,并用向量G表示,然后将数据库中灰度图像的位置信息作为灰度图像的位置特征L,数据库中灰度图像的融合特征向量为Ft={αG,(1-α)L};
步骤三、数据库图像聚类:
利用K-means算法对步骤二中的融合特征向量进行聚类,并计算聚类中心,得到聚类中心后,将聚类中心的全局视觉特征向量作为数据库中灰度图像类别的视觉特征;
步骤四、数据库图像类排序:
当用户上传查询图像后,对查询图像提取全局视觉特征和SIFT特征,并计算查询图像全局视觉特征与数据库中灰度图像类别的视觉特征的欧氏距离,根据欧式距离由小到大对数据库中灰度图像的各个类别进行排序;
步骤五、图像类内检索:
查询图像按照步骤四得到的类别排序结果,逐一对各个类别进行检索,在类内检索时,首先提取类内每一幅灰度图像的全局视觉特征,然后根据查询图像的全局视觉特征与类内灰度图像的全局视觉特征的欧氏距离,由小到大进行排序,查询图像根据此排序结果进行图像特征匹配,在图像匹配过程中,提取数据库灰度图像和查询图像的SIFT特征点,并对特征点进行匹配,设定匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库灰度图像作为检索结果;否则,继续检索。
发明效果
采用本发明的基于地理位置特征与全局视觉特征的图像分类和检索方法,
(1)本发明中提出的结合视觉特征与地理位置特征的图像聚类算法,解决了室外图像仅依靠视觉特征进行场景分类时精度偏低的问题,使图像分类精度提高了18%以上。
(2)通过对数据库图像进行离线阶段分类,实现了在线阶段的定向检索,使检索效率大大提高。本算法中提出了以图像的位置特征与全局特征融合的方式进行聚类,该方法可以在离线阶段将数据库图像以场景进行分类,并提取出不同场景类别的视觉特征。在检索过程中,查询图像根据自身的视觉特征,从视觉特征最接近的类别进行检索,并按照视觉特征的相似程度对类别进行逐一检索,直到检索出满足相似性阈值的图像为止,解决了随着数据库规模的不断增大,图像检索过程将耗费大量的时间,直接影响到导航定位算法的实时性,无法保证用户的位置服务需求的问题,使图像检索过程耗费的时间减少了20%以上。
附图说明
图1为本发明流程图;
图2为数据库离线处理过程流程图;
图3为查询图像在线检索过程流程图;
图4为实施例中仿真实验图。
具体实施方式
具体实施方式一:结合图1、图2和图3说明本实施方式,基于地理位置特征与全局视觉特征的图像分类和检索方法,具体是按照以下步骤进行的:
步骤一、数据库初始化:
在室外采集带有地理位置信息的图像作为数据库数据进行存储;
步骤二、数据库图像预处理:
将数据库中图像转换成灰度图像,提取Gist特征作为全局视觉特征,并用向量G表示,然后将数据库中灰度图像的位置信息作为灰度图像的位置特征L,数据库中灰度图像的融合特征向量为Ft={αG,(1-α)L};
步骤三、数据库图像聚类:
利用K-means算法对步骤二中的融合特征向量进行聚类,并计算聚类中心,得到聚类中心后,将聚类中心的全局视觉特征向量作为数据库中灰度图像类别的视觉特征;
步骤四、数据库图像类排序:
当用户上传查询图像后,对查询图像提取全局视觉特征和SIFT特征,并计算查询图像全局视觉特征与数据库中灰度图像类别的视觉特征的欧氏距离,根据欧式距离由小到大对数据库中灰度图像的各个类别进行排序;
步骤五、图像类内检索:
查询图像按照步骤四得到的类别排序结果,逐一对各个类别进行检索,在类内检索时,首先提取类内每一幅灰度图像的全局视觉特征,然后根据查询图像的全局视觉特征与类内灰度图像的全局视觉特征的欧氏距离,由小到大进行排序,查询图像根据此排序结果进行图像特征匹配,在图像匹配过程中,提取数据库灰度图像和查询图像的SIFT特征点,并对特征点进行匹配,设定匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库灰度图像作为检索结果;否则,继续检索。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤二中数据库图像预处理:将数据库中图像转换成灰度图像,提取Gist特征作为全局视觉特征,并用向量G表示,然后将数据库中灰度图像的位置信息作为灰度图像的位置特征L,数据库中灰度图像的融合特征向量为Ft={αG,(1-α)L};具体过程为:
(1)将数据库中图像大小按比例缩放至300*300像素,并转换成灰度图像,灰度图像灰度值取值范围为0~255中的整数;
将灰度图像划分成3*3规则网格,则网格块数为9,每个网格像素为100*100像素;
将灰度值取值范围等距划分为8个尺度,尺度1的灰度值取值范围为0~31,尺度2的灰度值取值范围为32~63,尺度3的灰度值取值范围为64~95,尺度4的灰度值取值范围为96~127,尺度5的灰度值取值范围为128~159,尺度6的灰度值取值范围为160~191,尺度7的灰度值取值范围为192~223,尺度8的灰度值取值范围为224~255;
滤波方向为0,π或
(2)计算灰度图像的全局视觉特征:
对步骤(1)中9个网格块分别提取Gist特征,利用Gabor滤波器对数据库中灰度图像的网格块进行滤波,Gabor滤波器公式为:
式中,x为网格块中某一像素点的横(X轴方向)坐标,y为网格块中某一像素点的纵(Y轴方向)坐标,为X方向上的高斯因子方差,为Y方向上的高斯因子方差,f0为Gabor滤波器的中心频率,为谐波因数的相位差值,g(x,y)为Gabor滤波器的滤波结果,σx为X方向上的高斯因子标准差,σy为Y方向上的高斯因子标准差,x2为网格块中某一像素点的横坐标的平方,y2为网格块中某一像素点的纵坐标的平方;
定义不同尺度、不同方向时的滤波函数:
g=a-mg[a-m(x cosθ+y cosθ),a-m(-x sinθ+y cosθ)] (2)
式中,g为Gabor滤波器(方向取值为θ,尺度取值为m)的滤波结果;a-m为母小波膨胀的尺度因子,m为滤波器尺度,m的取值为1,2,3,4,5,6,7,8;θ为滤波器方向,取值为0,π、或
通过取不同的m和θ值,可以得到32个滤波器,分别对应不同方向和不同尺度,其中,θ分别取0,π、或表示四个方向,m分别取1,2,3,4,5,6,7,8,表示8个尺度;
利用滤波函数对灰度图像网格块进行滤波,可以得到32个滤波结果g,级联这32个滤波结果,可以得到灰度图像第i个网格块的Gist特征Gi(x,y):
式中,cat为级联运算符,f(x,y)为灰度图像,为卷积运算符,g为Gabor滤波器滤波结果,i为网格块序号,i的取值为1,2,…9;
通过计算9个网格块的Gist特征,可得G1(x,y),G2(x,y),…G9(x,y),将9个网格块的Gist特征值组合,可得灰度图像的全局视觉特征G:
G={G1(x,y),G2(x,y),…G9(x,y)} (4)
(3)将数据库中灰度图像的位置信息作为灰度图像的位置特征L,其中L=(xl,yl),xl为灰度图像采集地理位置的经度值,yl为灰度图像采集地理位置的纬度值;将灰度图像的融合特征向量表示为Ft
Ft={αG,(1-α)L} (5)
式中,α为权重系数,0<α<1。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤三中数据库图像聚类:利用K-means算法对步骤二中的融合特征向量进行聚类,并计算聚类中心,得到聚类中心后,将该向量中的全局视觉特征向量作为数据库中灰度图像类别的视觉特征;具体过程为:
步骤三一、从数据库中任意选择p幅灰度图像,并将这些灰度图像的融合特征向量作为初始聚类中心;
步骤三二、计算数据库中每一幅灰度图像的融合特征向量与每个初始聚类中心的欧式距离,如式(6)所示:
式中,f11为灰度图像的融合特征向量中的第1个元素,f21为初始聚类中心的第1个元素,f12为灰度图像的融合特征向量中的第2个元素,f22为初始聚类中心的第2个元素,f1n为灰度图像的融合特征向量中的第n元素,f2n为初始聚类中心的第n个元素;
将欧式距离最近的聚类中心划归为一个类别;可得到基于每一个聚类中心划分的p个灰度图像类别;由此得到的数据库灰度图像类别划分结果,即为聚类结果;
步骤三三、对于p个灰度图像聚类类别,计算每一个类别中所有图像的融合特征向量的平均值,如式(7)所示,并将该融合特征向量的平均值作为新的聚类中心:
式中,Zj为聚类中心,Nj为第j个图像类别中的图像数量,fm1为第j个图像类别中第m幅图像的融合特征向量的第1个元素,fm2为为第j个图像类别中第m幅图像的融合特征向量的第2个元素,fmn为第j个图像类别中第m幅图像的融合特征向量的第n个元素,m为第j个图像类别中图像的序号;
步骤三四、计算目标函数J的值,若J值收敛,则进行步骤三五;否则,转到步骤三二,
定义目标函数J为:
式中,p为灰度图像聚类类别数量,Nj为第j个灰度图像类别中的灰度图像数量,Zj为聚类中心,Ft为数据库中灰度图像的融合特征向量,t为灰度图像序号,j为灰度图像类别序号;
步骤三五、得到聚类结果和聚类中心后,将聚类中心的全局视觉特征部分G作为该灰度图像类别的视觉特征,记为Kj(j=1,2,…,p)。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一、二或三不同的是:所述步骤四中数据库图像类排序:当用户上传查询图像时,首先对查询图像提取全局视觉特征和SIFT特征,然后,根据查询图像的全局视觉特征,分别计算该图像的全局视觉特征与数据库中灰度图像类别的视觉特征的欧式距离,并根据欧式距离由小到大对数据库中的灰度图像的各个类别进行排序;具体过程为:
步骤四一、当用户上传查询图像(查询图像为灰度图像)时,需要对上传查询图像提取全局视觉特征和SIFT特征;对上传查询图像提取全局视觉特征,记为Gquery,计算方法如式(4)所示:
具体方法如步骤二中(1)至(3)所示。SIFT是一种尺度不变特征转换,全拼为Scale-Invariant Feature Transform。SIFT变换是一种数字图像处理领域中常用的特征提取方法。数字图像通过SIFT变换,可以得到图像对应的特征点。
对上传查询图像进行SIFT特征,并将特征点数记为Numquery,特征点w对应的SIFT特征向量记为其中w=1,2,…Numquery
步骤四二、分别计算查询图像全局视觉特征Gquery={G1(x,y),G2(x,y),…G9(x,y)}={g1,g2,…gn}与类别的视觉特征之间的欧氏距离。其中,j=1,2,…,p,G1(x,y),G2(x,y),…G9(x,y)分别表示查询图像中网格块1~9的Gist特征,欧氏距离计算如公式(9)所示
式(9)中,g1是查询图像全局视觉特征向量中的第1个元素,g2是查询图像全局视觉特征向量中的第2个元素,gn是查询图像全局视觉特征向量中的第n个元素,是类别j的特征向量中的第1个元素,是类别j的特征向量中的第2个元素,是类别j的特征向量中的第n个元素;
根据查询图像全局视觉特征与类别的视觉特征的欧氏距离由小到大,对数据库中灰度图的各个类别进行排序。
其它步骤及参数与具体实施方式一、二或三相同。
具体实施方式五:本实施方式与具体实施方式一、二、三或四不同的是:所述步骤五中图像类内检索:查询图像按照步骤四得到的类别排序结果,逐一对各个类别进行检索,在类内检索时,首先提取类内每一幅灰度图像的全局视觉特征,然后根据查询图像的全局视觉特征与类内灰度图像的全局视觉特征的欧氏距离,由小到大进行排序,查询图像根据此排序结果进行图像特征匹配,在图像匹配过程中,提取数据库灰度图像和查询图像的SIFT特征点,并对特征点进行匹配,设定图像匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库灰度图像作为检索结果;否则,继续检索;具体过程为:
步骤五一、在检索过程中,对数据库中的每一幅灰度图像提取SIFT特征,将特征点数记为Numdatabase,定义数据库灰度图像特征点v对应的SIFT特征向量记为 其中v=1,2,…Numdatabase;查询图像特征点w对应的SIFT特征向量并对数据库灰度图像与查询图像进行SIFT特征匹配,匹配时,计算数据库灰度图像和查询图像的特征点对应的特征向量的内积如公式(10)所示:
式中,tv1是特征点v的SIFT特征向量的第1个元素,tv2是特征点v的SIFT特征向量的第2个元素,tvn是特征点v的SIFT特征向量的第n个元素,tw1是特征点w的SIFT特征向量的第1个元素,tw2是特征点w的SIFT特征向量的第2个元素,twn是特征点w的SIFT特征向量的第n个元素;
设定特征点匹配阈值γ,
则特征点v与特征点w匹配,组成一个特征匹配对;
则特征点v与特征点w不匹配;
步骤五二、根据得到的特征匹配对数量Nummatch,设置图像匹配系数ε,定义:
Fnum=max(Numquery,Numdatabase) (12)
其中,max为取最大值运算,其定义如下:
步骤五三、设定图像匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库图像作为检索结果;若ε<kmatch,则数据库图像与查询图像不匹配,重新执行步骤五一。
其它步骤及参数与具体实施方式一、二、三或四相同。
采用以下实施例验证本发明的有益效果:
数据库图像处理阶段:数据库中存储的是带有位置信息的图像。融合数据库图像的视觉特征和地理位置特征,并进行聚类。得到的聚类结果是:每一个类别中的图像是具有相近视觉特征的,并且位置较近的图像。
查询图像检索阶段:当用户上传查询图像后,对查询图像提取全局视觉特征。并计算查询图像全局视觉特征向量与各个图像类别(指的是数据库图像类别)特征向量(可以认为是聚类中心向量的视觉特征部分)的欧氏距离。根据欧式距离由小到大对数据库图像类别进行排序,查询图像按照这个排序逐一对各个类别进行检索。在类内检索时,首先提取类内每一幅图像的全局视觉特征。然后根据查询图像的全局视觉特征与类内图像的全局视觉特征的欧氏距离,由小到大进行排序。查询图像根据此排序结果进行图像特征匹配。在图像匹配过程中,提取数据库图像和查询图像的SIFT特征点,并对特征点进行匹配。如果满足匹配条件,则认为该数据库图像是检索结果;否则,继续检索。
数据库中的图像有很多幅,是预先采集的。查询图像只有一幅,图像检索的目的就是根据这一幅查询图像,找到与查询图像类似的数据库图像。在常规的图像检索过程中,查询图像需要逐一和每一幅数据库图像进行特征匹配。但是当数据库图像数量非常大的时候,时间开销会很大。因此,在此提出了一种先对数据库图像进行分类,然后,查询图像分别与每一类的聚类中心进行相似度(特征的欧氏距离)计算,让查询图像从相似度比较大的类别开始检索,这样做更有可能快速地找到与查询图像特征近似的数据库图像,这样就避免了在数据库中盲目的逐个图像搜索。
实施例1
图像检索时间实验:
实验条件:在本实验中,选定5个场景,分别为游泳馆场景、公寓场景、食堂场景、宿舍场景和教学楼场景。在每个场景中,分别采集40幅数据库图像,并记录图像采集位置的地理坐标(经度、纬度值)。另外,在每个场景中采集10幅查询图像,供图像检索时,作为查询图像使用,如图4所示。
1.本发明方法仿真:首先对数据库中的200幅图像进行聚类。然后,对每个场景中的10幅查询图像分别进行数据库检索,并记录每个场景中10幅查询图像的平均检索时间(该检索时间不包括数据库图像的聚类时间)。
步骤一、数据库初始化:
在室外采集带有地理位置信息的图像作为数据库数据进行存储;
步骤二、数据库图像预处理:
将数据库中图像转换成灰度图像,提取Gist特征作为全局视觉特征,并用向量G表示,然后将数据库中灰度图像的位置信息作为灰度图像的位置特征L,数据库中灰度图像的融合特征向量为Ft={αG,(1-α)L};
步骤三、数据库图像聚类:
利用K-means算法对步骤二中的融合特征向量进行聚类,并计算聚类中心,得到聚类中心后,将聚类中心的全局视觉特征向量作为数据库中灰度图像类别的视觉特征;
步骤四、数据库图像类排序:
首先对查询图像提取全局视觉特征和SIFT特征,然后,根据查询图像的全局视觉特征,分别计算查询图像的全局视觉特征与数据库中灰度图像类别的视觉特征的欧式距离,并根据欧式距离由小到大对数据库中的灰度图像的各个类别进行排序;
步骤五、图像类内检索:
查询图像按照步骤四得到的类别排序结果,对各个类别进行检索,计算查询图像与数据库灰度图像类别中的每一幅图像的欧氏距离,并按照欧氏距离由小到大进行检索,在检索过程中,对数据库灰度图像提取SIFT特征,并对数据库灰度图像与查询图像进行SIFT特征匹配,设定匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库图像作为检索结果;
步骤六、重复步骤四、五,直到所有查询图像完成检索。分别对五个场景计算查询图像的平均检索时间。
2.遍历检索方法仿真:遍历检索算法是本专利所示方法的对比算法。针对5个场景中的50幅查询图像,分别对200幅数据库图像进行检索,并记录每一个场景中10幅查询图像的平均检索时间。在对数据库图像进行遍历检索时,查询图像分别与数据库图像按图像序号由小到大进行匹配,直到检索到满足图像匹配阈值的数据库图像为止。设定图像匹配阈值k,若ε≥k,则数据库图像与查询图像匹配,并将匹配的数据库图像作为检索结果;若ε<k,则数据库图像与查询图像不匹配,重新执行步骤五一(在检索过程中,对数据库中的每一幅灰度图像提取SIFT特征,将特征点数记为Numdatabase,定义数据库灰度图像特征点v对应的SIFT特征向量记为 其中v=1,2,…Numdatabase;查询图像特征点w对应的SIFT特征向量并对数据库灰度图像与查询图像进行SIFT特征匹配,匹配时,计算数据库灰度图像和查询图像的特征点对应的特征向量的内积如公式(10)所示:
式中,tv1是特征点v的SIFT特征向量的第1个元素,tv2是特征点v的SIFT特征向量的第2个元素,tvn是特征点v的SIFT特征向量的第n个元素,tw1是特征点w的SIFT特征向量的第1个元素,tw2是特征点w的SIFT特征向量的第2个元素,twn是特征点w的SIFT特征向量的第n个元素;
设定特征点匹配阈值γ,
则特征点v与特征点w匹配,组成一个特征匹配对;
则特征点v与特征点w不匹配)。
步骤一、对数据库中的200幅图像,进行随机编号;
步骤二、在50幅查询图像中选取一幅查询图像,并提取其SIFT特征;
步骤三、定义图像匹配系数ε,根据得到的特征匹配对数量Nummatch,定义:
Fnum=max(Numquery,Numdatabase) (12)
其中,max为取最大值运算,其定义如下:
首先,按数据库图像编号由小到大的顺序,逐个提取数据库图像的SIFT特征,并与查询图像进行特征匹配。然后,根据图像的特征匹配结果计算图像匹配系数ε。如果ε≥k,则数据库图像与查询图像匹配,并将匹配的数据库图像作为检索结果。否则,继续检索其他数据库图像;
步骤四、重复步骤二、三,直到所有查询图像完成检索。分别对五个场景计算查询图像的平均检索时间;
查询图像的平均检索时间如下所示。

Claims (5)

1.基于地理位置特征与全局视觉特征的图像分类和检索方法,其特征在于,基于地理位置特征与全局视觉特征的图像分类和检索方法具体是按照以下步骤进行的:
步骤一、数据库初始化:
在室外采集带有地理位置信息的图像作为数据库数据进行存储;
步骤二、数据库图像预处理:
将数据库中图像转换成灰度图像,提取Gist特征作为全局视觉特征,并用向量G表示,然后将数据库中灰度图像的位置信息作为灰度图像的位置特征L,数据库中灰度图像的融合特征向量为Ft={αG,(1-α)L};α为权重系数,0<α<1;
步骤三、数据库图像聚类:
利用K-means算法对步骤二中的融合特征向量进行聚类,并计算聚类中心,得到聚类中心后,将聚类中心的全局视觉特征向量作为数据库中灰度图像类别的视觉特征;
步骤四、数据库图像类排序:
当用户上传查询图像后,对查询图像提取全局视觉特征和SIFT特征,并计算查询图像全局视觉特征与数据库中灰度图像类别的视觉特征的欧氏距离,根据欧式距离由小到大对数据库中灰度图像的各个类别进行排序;
步骤五、图像类内检索:
查询图像按照步骤四得到的类别排序结果,逐一对各个类别进行检索,在类内检索时,首先提取类内每一幅灰度图像的全局视觉特征,然后根据查询图像的全局视觉特征与类内灰度图像的全局视觉特征的欧氏距离,由小到大进行排序,查询图像根据此排序结果进行图像特征匹配,在图像匹配过程中,提取数据库灰度图像和查询图像的SIFT特征点,并对特征点进行匹配,设定匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库灰度图像作为检索结果;否则,继续检索;ε为图像匹配系数。
2.根据权利要求1所述基于地理位置特征与全局视觉特征的图像分类和检索方法,其特征在于,所述步骤二具体过程为:
(1)将数据库中图像大小按比例缩放至300*300像素,并转换成灰度图像,灰度图像灰度值取值范围为0~255中的整数;
将灰度图像划分成3*3规则网格,则网格块数为9,每个网格像素为100*100像素;
将灰度值取值范围等距划分为8个尺度,尺度1的灰度值取值范围为0~31,尺度2的灰度值取值范围为32~63,尺度3的灰度值取值范围为64~95,尺度4的灰度值取值范围为96~127,尺度5的灰度值取值范围为128~159,尺度6的灰度值取值范围为160~191,尺度7的灰度值取值范围为192~223,尺度8的灰度值取值范围为224~255;
滤波方向为0,π或
(2)计算灰度图像的全局视觉特征:
对9个网格块分别提取Gist特征,利用Gabor滤波器对数据库中灰度图像的网格块进行滤波,Gabor滤波器公式为:
式中,x为网格块中某一像素点的横坐标,y为网格块中某一像素点的纵坐标,为X方向上的高斯因子方差,为Y方向上的高斯因子方差,f0为Gabor滤波器的中心频率,为谐波因数的相位差值,g(x,y)为Gabor滤波器的滤波结果,σx为X方向上的高斯因子标准差,σy为Y方向上的高斯因子标准差,x2为网格块中某一像素点的横坐标的平方,y2为网格块中某一像素点的纵坐标的平方;
滤波函数为:
g=a-mg[a-m(xcosθ+ycosθ),a-m(-xsinθ+ycosθ)] (2)
式中,g为Gabor滤波器的滤波结果;a-m为母小波膨胀的尺度因子,m为滤波器尺度,m的取值为1,2,3,4,5,6,7,8;θ为滤波器方向,取值为0,π、或
通过取不同的m和θ值,可以得到32个滤波器,分别对应不同方向和不同尺度,其中,θ分别取0,π、或表示四个方向,m分别取1,2,3,4,5,6,7,8,表示8个尺度;
利用滤波函数对灰度图像网格块进行滤波,可以得到32个滤波结果g,级联得到的32个滤波结果,得到灰度图像第i个网格块的Gist特征Gi(x,y):
<mrow> <msub> <mi>G</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>c</mi> <mi>a</mi> <mi>t</mi> <mrow> <mo>(</mo> <mi>f</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>&amp;CircleTimes;</mo> <msub> <mi>g</mi> <mrow> <mi>m</mi> <mi>&amp;theta;</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
式中,cat为级联运算符,f(x,y)为灰度图像,为卷积运算符,g为Gabor滤波器滤波结果,i为网格块序号,i的取值为1,2,…9;
通过计算9个网格块的Gist特征,可得G1(x,y),G2(x,y),…G9(x,y),将9个网格块的Gist特征值组合,可得灰度图像的全局视觉特征G:
G={G1(x,y),G2(x,y),…G9(x,y)} (4)
(3)将数据库中灰度图像的位置信息作为灰度图像的位置特征L,其中L=(xl,yl),xl为灰度图像采集地理位置的经度值,yl为灰度图像采集地理位置的纬度值;
将灰度图像的融合特征向量表示为Ft
Ft={αG,(1-α)L} (5)。
3.根据权利要求2所述基于地理位置特征与全局视觉特征的图像分类和检索方法,其特征在于,所述步骤三具体过程为:
步骤三一、从数据库中选择p幅灰度图像,并将这些灰度图像的融合特征向量作为初始聚类中心;
步骤三二、设对于每一幅灰度图像,计算灰度图像的融合特征向量与每个聚类中心的欧式距离,如式(6)所示;对于任意一幅数据库灰度图像,利用K-means算法将该灰度图像与欧式距离最近的聚类中心划归为一个类别;可以得到基于每一个聚类中心划分的p个灰度图像类别;由此得到的数据库灰度图像类别划分结果即为聚类结果;
<mrow> <mi>d</mi> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>F</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mn>11</mn> </msub> <mo>-</mo> <msub> <mi>f</mi> <mn>21</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mn>12</mn> </msub> <mo>-</mo> <msub> <mi>f</mi> <mn>22</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mn>...</mn> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mrow> <mn>1</mn> <mi>n</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>f</mi> <mrow> <mn>2</mn> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
式中,f11为灰度图像的融合特征向量中的第1个元素,f21为聚类中心的第1个元素,f12为灰度图像的融合特征向量中的第2个元素,f22为聚类中心的第2个元素,f1n为灰度图像的融合特征向量中的第n元素,f2n为聚类中心的第n个元素;
步骤三三、对于p个灰度图像类别,计算每一个类别中所有图像的融合特征向量的平均值,如式(7)所示,并将该融合特征向量的平均值作为新的聚类中心:
<mrow> <msub> <mi>Z</mi> <mi>j</mi> </msub> <mo>=</mo> <mo>{</mo> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>j</mi> </msub> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>j</mi> </msub> </munderover> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>j</mi> </msub> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>j</mi> </msub> </munderover> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mn>2</mn> </mrow> </msub> <mo>,</mo> <mn>...</mn> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>j</mi> </msub> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>j</mi> </msub> </munderover> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mi>n</mi> </mrow> </msub> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
式中,Zj为聚类中心,Nj为第j个图像类别中的图像数量,fm1为第j个图像类别中第m幅图像的融合特征向量的第1个元素,fm2为第j个图像类别中第m幅图像的融合特征向量的第2个元素,fmn为第j个图像类别中第m幅图像的融合特征向量的第n个元素,m为第j个图像类别中图像的序号;
步骤三四、计算目标函数J的值,若J值收敛,则执行步骤三五;否则,执行步骤三二,定义目标函数J为:
<mrow> <mi>J</mi> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>p</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>j</mi> </msub> </munderover> <mi>d</mi> <mrow> <mo>(</mo> <msub> <mi>Z</mi> <mi>j</mi> </msub> <mo>,</mo> <msub> <mi>F</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式中,p为灰度图像聚类类别数量,Nj为第j个灰度图像类别中的灰度图像数量,Zj为聚类中心,Ft为数据库中灰度图像的融合特征向量,t为灰度图像序号,j为灰度图像类别序号;
步骤三五、得到聚类结果和新的聚类中心后,将新的聚类中心的全局视觉特征向量G作为数据库中灰度图像类别的视觉特征,记为Kj,其中j=1,2,…,p。
4.根据权利要求3所述基于地理位置特征与全局视觉特征的图像分类和检索方法,其特征在于,所述步骤四具体过程为:
步骤四一、当用户上传查询图像时,需要对上传查询图像提取全局视觉特征和SIFT特征;对上传查询图像提取全局视觉特征,记为Gquery,计算方法如式(4)所示:
对上传查询图像提取SIFT特征,并将特征点数记为Numquery,特征点w对应的SIFT特征向量记为其中w=1,2,…Numquery
步骤四二、分别计算查询图像全局视觉特征Gquery={G1(x,y),G2(x,y),…G9(x,y)}={g1,g2,…gn}与数据库中灰度图像类别的视觉特征之间的欧氏距离,其中,j=1,2,…,p,p为正整数,G1(x,y),G2(x,y),…G9(x,y)分别表示查询图像中网格块1~9的Gist特征,欧氏距离计算如公式(9)所示:
<mrow> <mi>d</mi> <mrow> <mo>(</mo> <msub> <mi>G</mi> <mrow> <mi>q</mi> <mi>u</mi> <mi>e</mi> <mi>r</mi> <mi>y</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>K</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mn>1</mn> </msub> <mo>-</mo> <msubsup> <mi>k</mi> <mi>j</mi> <mn>1</mn> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mn>2</mn> </msub> <mo>-</mo> <msubsup> <mi>k</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mn>...</mn> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mi>n</mi> </msub> <mo>-</mo> <msubsup> <mi>k</mi> <mi>j</mi> <mi>n</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
式中,g1是查询图像全局视觉特征向量中的第1个元素,g2是查询图像全局视觉特征向量中的第2个元素,gn是查询图像全局视觉特征向量中的第n个元素,是类别j的特征向量中的第1个元素,是类别j的特征向量中的第2个元素,是类别j的特征向量中的第n个元素;
根据欧式距离由小到大对数据库中灰度图像的各个类别进行排序。
5.根据权利要求4所述基于地理位置特征与全局视觉特征的图像分类和检索方法,其特征在于,所述步骤五具体过程为:
步骤五一、查询图像按照步骤四得到的类别排序结果,逐一对各个类别进行检索,计算查询图像的全局视觉特征与类内灰度图像的全局视觉特征的欧氏距离,由小到大进行排序,在检索过程中,对数据库中的每一幅灰度图像提取SIFT特征,将特征点数记为Numdatabase,定义数据库灰度图像特征点v对应的SIFT特征向量记为其中v=1,2,…Numdatabase;查询图像特征点w对应的SIFT特征向量并对数据库灰度图像与查询图像进行SIFT特征匹配,匹配时,计算数据库灰度图像和查询图像的特征点对应的特征向量的内积如公式(10)所示:
<mrow> <msubsup> <mi>T</mi> <mrow> <mi>d</mi> <mi>a</mi> <mi>t</mi> <mi>a</mi> <mi>b</mi> <mi>a</mi> <mi>s</mi> <mi>e</mi> </mrow> <mi>v</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>T</mi> <mrow> <mi>q</mi> <mi>u</mi> <mi>e</mi> <mi>r</mi> <mi>y</mi> </mrow> <mi>w</mi> </msubsup> <mo>=</mo> <msub> <mi>t</mi> <mrow> <mi>v</mi> <mn>1</mn> </mrow> </msub> <msub> <mi>t</mi> <mrow> <mi>w</mi> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>t</mi> <mrow> <mi>v</mi> <mn>2</mn> </mrow> </msub> <msub> <mi>t</mi> <mrow> <mi>w</mi> <mn>2</mn> </mrow> </msub> <mo>+</mo> <mn>...</mn> <msub> <mi>t</mi> <mrow> <mi>v</mi> <mi>n</mi> </mrow> </msub> <msub> <mi>t</mi> <mrow> <mi>w</mi> <mi>n</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
式中,tv1是特征点v的SIFT特征向量的第1个元素,tv2是特征点v的SIFT特征向量的第2个元素,tvn是特征点v的SIFT特征向量的第n个元素,tw1是特征点w的SIFT特征向量的第1个元素,tw2是特征点w的SIFT特征向量的第2个元素,twn是特征点w的SIFT特征向量的第n个元素;
设定特征点匹配阈值γ,若则特征点v与特征点w匹配,组成特征匹配对;
则特征点v与特征点w不匹配,重新执行步骤四;
步骤五二、根据得到的特征匹配对数量Nummatch,设置图像匹配系数ε,定义:
<mrow> <mi>&amp;epsiv;</mi> <mo>=</mo> <mfrac> <mrow> <msub> <mi>Num</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>t</mi> <mi>c</mi> <mi>h</mi> </mrow> </msub> </mrow> <msub> <mi>F</mi> <mrow> <mi>n</mi> <mi>u</mi> <mi>m</mi> </mrow> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
Fnum=max(Numquery,Numdatabase) (12)
其中,max为取最大值运算,其定义如下:
式中,a为上传查询图像特征点数,b为数据库灰度图像特征点数;
步骤五三、设定图像匹配阈值kmatch,若ε≥kmatch,则数据库图像与查询图像匹配,并将匹配的数据库图像作为检索结果;若ε<kmatch,则数据库图像与查询图像不匹配,重新执行步骤五一。
CN201510267590.9A 2015-05-22 2015-05-22 基于地理位置特征与全局视觉特征的图像分类和检索方法 Active CN104820718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510267590.9A CN104820718B (zh) 2015-05-22 2015-05-22 基于地理位置特征与全局视觉特征的图像分类和检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510267590.9A CN104820718B (zh) 2015-05-22 2015-05-22 基于地理位置特征与全局视觉特征的图像分类和检索方法

Publications (2)

Publication Number Publication Date
CN104820718A CN104820718A (zh) 2015-08-05
CN104820718B true CN104820718B (zh) 2018-01-30

Family

ID=53731013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510267590.9A Active CN104820718B (zh) 2015-05-22 2015-05-22 基于地理位置特征与全局视觉特征的图像分类和检索方法

Country Status (1)

Country Link
CN (1) CN104820718B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225240B (zh) * 2015-09-25 2017-10-03 哈尔滨工业大学 一种基于视觉特征匹配与拍摄角度估计的室内定位方法
CN106021362B (zh) * 2016-05-10 2018-04-13 百度在线网络技术(北京)有限公司 查询式的图片特征表示的生成、图片搜索方法和装置
CN106851437A (zh) * 2017-01-17 2017-06-13 南通同洲电子有限责任公司 一种提取视频摘要的方法
CN108399413B (zh) * 2017-02-04 2020-10-27 清华大学 一种图片拍摄区域识别及地理定位方法及装置
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
CN107730357A (zh) * 2017-10-19 2018-02-23 上海斐讯数据通信技术有限公司 一种基于视觉词典库实现图像快速检索的方法及系统
CN108981698B (zh) * 2018-05-29 2020-07-14 杭州视氪科技有限公司 一种基于多模态数据的视觉定位方法
CN110619251B (zh) * 2018-06-19 2022-06-10 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN109214280B (zh) * 2018-07-27 2021-10-01 北京三快在线科技有限公司 基于街景的店铺识别方法、装置、电子设备及存储介质
CN109448287B (zh) * 2018-10-25 2021-11-02 平安科技(深圳)有限公司 一种安全监控方法、装置、可读存储介质及终端设备
CN110070107B (zh) * 2019-03-26 2020-12-25 华为技术有限公司 物体识别方法及装置
CN110069645A (zh) * 2019-04-22 2019-07-30 北京迈格威科技有限公司 图像推荐方法、装置、电子设备及计算机可读存储介质
CN111859003B (zh) * 2020-07-22 2021-12-28 浙江商汤科技开发有限公司 视觉定位方法及装置、电子设备和存储介质
CN112069981A (zh) * 2020-09-03 2020-12-11 Oppo广东移动通信有限公司 图像分类方法、装置、电子设备及存储介质
CN112949710B (zh) 2021-02-26 2023-06-13 北京百度网讯科技有限公司 一种图像的聚类方法和装置
CN112905798B (zh) * 2021-03-26 2023-03-10 深圳市阿丹能量信息技术有限公司 一种基于文字标识的室内视觉定位方法
CN113792172B (zh) * 2021-11-15 2022-02-11 西安热工研究院有限公司 基于三角不等式的图像检索方法、系统、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310180A (zh) * 2012-03-07 2013-09-18 株式会社理光 检测在目标图像中的随机对象的系统和方法
CN103324677A (zh) * 2013-05-24 2013-09-25 西安交通大学 一种可分级的快速图像gps位置估计方法
CN104484347A (zh) * 2014-11-28 2015-04-01 浙江大学 一种基于地理信息的层次化视觉特征提取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310180A (zh) * 2012-03-07 2013-09-18 株式会社理光 检测在目标图像中的随机对象的系统和方法
CN103324677A (zh) * 2013-05-24 2013-09-25 西安交通大学 一种可分级的快速图像gps位置估计方法
CN104484347A (zh) * 2014-11-28 2015-04-01 浙江大学 一种基于地理信息的层次化视觉特征提取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Building text features for object image classification;G Wang等;《IEEE》;20090818;第1-8页 *
Geo-informative discriminative image representation by semi-supervised hierarchical topic modeling;Zijian Li等;《IEEE》;20140731;第1-6页 *
基于多特征融合的Web图像聚类算法;方如娟;《科技通报》;20130831;第97-99页 *
基于视觉特征的图像分类检索技术研究;张英俊;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110515;第I138-917页 *

Also Published As

Publication number Publication date
CN104820718A (zh) 2015-08-05

Similar Documents

Publication Publication Date Title
CN104820718B (zh) 基于地理位置特征与全局视觉特征的图像分类和检索方法
CN111652934B (zh) 定位方法及地图构建方法、装置、设备、存储介质
Murillo et al. Surf features for efficient robot localization with omnidirectional images
Oliva et al. Scene-centered description from spatial envelope properties
CN107766890B (zh) 一种细粒度识别中判别性图块学习的改进方法
CN110490913B (zh) 基于角点与单线段编组的特征描述算子进行影像匹配方法
CN109034065B (zh) 一种基于点云的室内场景物体提取方法
CN103426186A (zh) 一种改进的surf快速匹配方法
CN104794219A (zh) 一种基于地理位置信息的场景检索方法
CN111028292A (zh) 一种亚像素级图像匹配导航定位方法
Krajník et al. Image features and seasons revisited
CN109086350B (zh) 一种基于WiFi的混合图像检索方法
Xie et al. RGB-D object tracking with occlusion detection
CN114332172A (zh) 一种基于协方差矩阵改进的激光点云配准方法
CN104331711B (zh) 基于多尺度模糊测度与半监督学习的sar图像识别方法
CN112150359B (zh) 基于机器学习和特征点识别的无人机图像快速拼接方法
Yoshiki et al. Scalable change detection from 3d point cloud maps: Invariant map coordinate for joint viewpoint-change localization
Raja et al. Classification of indoor/outdoor scene
Zhang et al. Hierarchical Image Retrieval Method Based on Bag-of-Visual-Word and Eight-point Algorithm with Feature Clouds for Visual Indoor Positioning
CN108763261A (zh) 一种图形检索方法
CN111626096B (zh) 一种三维点云数据兴趣点提取方法
Nazir et al. An efficient image retrieval based on fusion of low-level visual features
CN114092423A (zh) 一种遥感影像信息标签智能化提取方法
Yao et al. Semantic Segmentation of Indoor 3d Point Clouds by Joint Optimization of Geometric Features and Neural Networks
Kim et al. Natural/man-made object classification based on gabor characteristics

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190614

Address after: 150000 Heilongjiang Harbin Dalian economic and Trade Zone, the North Road and Xingkai Road intersection

Patentee after: Harbin University of Technology Robot Group Co., Ltd.

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: Harbin Institute of Technology