CN104616035A - 基于图像全局特征及SURF算法的Visual Map快速匹配方法 - Google Patents

基于图像全局特征及SURF算法的Visual Map快速匹配方法 Download PDF

Info

Publication number
CN104616035A
CN104616035A CN201510106609.1A CN201510106609A CN104616035A CN 104616035 A CN104616035 A CN 104616035A CN 201510106609 A CN201510106609 A CN 201510106609A CN 104616035 A CN104616035 A CN 104616035A
Authority
CN
China
Prior art keywords
image
gray
scale map
visual map
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510106609.1A
Other languages
English (en)
Other versions
CN104616035B (zh
Inventor
马琳
张轶丞
谭学治
何晨光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201510106609.1A priority Critical patent/CN104616035B/zh
Publication of CN104616035A publication Critical patent/CN104616035A/zh
Application granted granted Critical
Publication of CN104616035B publication Critical patent/CN104616035B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • G06V30/1988Graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于图像全局特征及SURF算法的Visual Map快速匹配方法,本发明涉及SURF算法的Visual Map快速匹配方法。本发明是为了解决现有技术中基于图像的室内定位方法中图像匹配过程运算量大及消耗时间长的问题。通过以下技术方案实现的:步骤一、在Visual Map数据库建立过程中,获取每个图像的全局特征描述子;步骤二、得到每个图像的SURF特征点;步骤三、对用户输入图像,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;步骤四、将gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,完成图像匹配。本发明应用于室内定位导航领域。

Description

基于图像全局特征及SURF算法的Visual Map快速匹配方法
技术领域
本发明涉及SURF算法的Visual Map快速匹配方法。
背景技术
随着智能手机的普及,定位及导航服务越来越受到人们的重视。现如今利用卫星定位的方法只解决了室外定位的问题,对室内环境下的定位效果则很不理想。近年来基于Wi-Fi的室内定位方法由于其实现简便而得到了比较广泛的应用,但目前的研究成果表明,其定位精度受室内人群疏密、墙壁遮挡与基础设施部署等因素的影响较大。综合定位精度与系统成本等因素考虑,视觉定位技术逐渐成为室内定位研究的另一个热点,并逐渐得到更多的关注。关于视觉定位方法的研究始于机器人定位领域,近年来,随着带有摄像头的智能手机的发展,基于图像的室内定位方法因其所需设备的简单易得而得到广泛的关注。
基于图像的室内定位方法首先建立离线端的Visual Map,之后通过将用户所在位置的图像与Visual Map进行匹配,来找到数据库中与用户输入图像相匹配的若干图像,由此可以计算出移动设备的位置从而进行定位。通常该定位系统分为两步:建立Visual Map数据库的离线阶段,以及在线的图像匹配与定位阶段。Visual Map数据库是由采集的图像、图像所对应的地理位置信息、每个图像的全局特征描述子以及由SURF算法提取的图像特征点组成。在线阶段分为获得匹配的图像与位置计算两部分,图像匹配过程是后期进行定位过程的基础。由于定位空间的尺寸可能较大,因此离线阶段建立的Visual Map中图像的数目也可能较多,而在图像匹配过程中需要对数据库中全部图像进行遍历,直接将用户输入的图像与Visual Map中全部图像的特征点进行逐个比较,由于在基于图像的室内定位方法中图像匹配速度会受到Visual Map数据库中图像的数目、尺寸因素的影响,导致基于图像的室内定位方法中图像匹配过程运算量大,及消耗时间长。
发明内容
本发明是为了解决现有技术中基于图像的室内定位方法中图像匹配过程运算量大及消耗时间长的问题,而提出了基于图像全局特征及SURF算法的Visual Map快速匹配方法。
上述的发明目的是通过以下技术方案实现的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
发明效果
本发明采用基于图像全局特征及SURF算法的Visual Map快速匹配方法,方法流程如图1所示。该方法首先是在离线阶段建立Visual Map时,采用图2中的方法来获取采集的每个图像的全局特征描述子,而后通过SURF算法提取得到每个图像的特征点。在对用户图像与Visual Map进行匹配时,先通过图像的全局特征比较图像的相似度,由此得到粗匹配的结果,之后将粗匹配获得的图像提取出来再对图像特征点进行比较,获得精确的匹配结果,使基于图像的室内定位方法中的图像匹配速度受到Visual Map数据库中图像的数目、尺寸因素的影响尽可能地小,减少了基于图像的室内定位方法中图像匹配过程的运算量,从而解决了基于图像的室内定位方法中图像匹配过程消耗时间长的问题,使基于图像的室内定位方法中图像匹配过程所消耗的时间减少了70%以上。
附图说明
图1为基于图像全局特征及SURF算法的Visual Map快速匹配方法的流程图;
图2为计算图像的全局特征描述子的算法流程示意图;
图3为利用Gabor滤波器对图像进行滤波的方法流程示意图,表示相乘运算。
具体实施方式
具体实施方式一:结合图1说明本实施方式,基于图像全局特征及SURF算法的VisualMap快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子,如图2;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一中在VisualMap数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;具体过程为:
步骤一一、当原始图像是正方形时,则执行步骤一二;
其中,所述原始图像为直接采集的图像或从拍摄的视频中截取的图像;
当原始图像不是正方形时,从原始图像长边中点向两侧截取等于图像短边像素数的部分,保留一个正方形的图像,舍弃其余部分,再执行步骤一二;
步骤一二、将图像大小按比例缩放至256*256像素,并转换成灰度图;
步骤一三、利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图的图像,如图3;
步骤一四、将滤波后的灰度图的图像按4*4的网格分为16块,每块大小为64*64像素,对像素的灰度值采用4个尺度进行划分,灰度值取值范围为0~255,4个尺度范围分别为0~63、64~127、128~191和192~255,
每个图像块中,分别沿8个不同方向统计灰度值落在4个尺度范围内的像素数目,采用一个行向量来表示统计结果,行向量即为每个图像的全局特征描述子gist;
由于,图像块数目为4*4=16,每个图像块中采用了4个尺度划分,各尺度对应方向数均为8,因此gist为一个(4*4)*(8*4)=512维的行向量。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤四中将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配;具体过程为:
步骤四一、逐一计算用户输入图像的全局特征描述子gist0与Visual Map数据库中全部N个图像中I1,…,IN的全局特征描述子gist1,…,gistn之间的汉明距离,作为图像的相似度,如下式所示,
simn=∑(gist0-gistn)2 (n=1,2,…,N)
式中,simn为第n对图像的相似度;
N为正整数;
gist0为用户输入图像中获得每个采集到的图像的全局特征描述子;
gist1为Visual Map数据库中全部N个图像中第I1个图像的全局特征描述子;
gistn为Visual Map数据库中全部N个图像中第IN个图像的全局特征描述子;
I1为Visual Map数据库中全部N个图像中第1个图像;
IN为Visual Map数据库中全部N个图像中第N个图像;
汉明距离越小,即simn的值越小,两个图像的相似度越高;
步骤四二、将步骤四一中得到的图像相似度达到75%以上的图像由小到大进行排序,将排在前M位的图像提取出来,作为基于图像全局特征进行粗匹配的图像,M取值范围为1≤M<N的任意整数;
步骤四三:从基于图像全局特征进行粗匹配的图像中通过64点的SURF算法获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一、二或三不同的是:所述步骤一三中利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图,具体过程为:
步骤一三一、对灰度图进行二维离散傅里叶变换,如下式所示,
I ( f x , f y ) = Σ x , y = 0 K - 1 i ( x , y ) h ( x , y ) e - j 2 π ( f x x + f y y )
式中,K为灰度图每条边上的像素数;
e为自然对数的底数;
j为虚数单位;
I为灰度图二维离散傅里叶变换的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
i(x,y)为灰度图在坐标(x,y)处的灰度值分布;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
h(x,y)为环形汉明窗函数;
h(x,y)是为了减少边缘效应引入的环形汉明窗函数;
步骤一三二、计算Gabor函数,如下式所示,
G ( θ i , l ) = exp ( - x θ i 2 + y θ i 2 2 σ 2 ( l - 1 ) ) exp ( 2 πj ( x θ i + y θ i ) )
式中,G(θi,l)是以θi和l为参数计算的Gabor函数的值;
j为虚数单位;
l为灰度图所在的尺度;
θl为灰度图所在尺度下的方向总数;
θi=π(k-1)/θl
k=1,2,…,θl
x θ i = π cos ( θ i ) + y sin ( θ i ) ;
y θ i = - π sin ( θ i ) + y cos ( θ i ) ;
σ2为高斯函数的方差;
步骤一三三、将灰度图的二维离散傅里叶变换结果与Gabor函数相乘后,再进行二维离散傅里叶反变换,从而得到滤波后灰度图在每一点(x,y)处的灰度值分布,即得到了滤波后的灰度图,如下式所示,
i ′ = ( x , y ) = ΣI ( f x , f y ) G ( θ i , l ) e - j 2 π ( f x x + f y y )
式中,j为虚数单位;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
G(θi,l)是以θi和l为参数计算的Gabor函数的值;
θi=π(k-1)/θl
θl为灰度图所在尺度下的方向总数;
k=1,2,…,θl
l为灰度图所在的尺度;
i′(x,y)为滤波后的灰度图在坐标(x,y)处的灰度值分布。
其它步骤及参数与具体实施方式一、二或三相同。
采用以下实施例验证本发明的有益效果:
实施例1
基于图像全局特征及SURF算法的Visual Map快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,通过直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配;
采用本发明中的方式,即基于图像全局特征及SURF算法对Visual Map进行快速匹配,与不使用图像全局特征直接对Visual Map进行匹配,比较两种匹配过程所消耗时间的差异。
本实施例进行验证时采用的条件:Visual Map中包含297张图像,图像大小为640*360像素;用户输入为一张1305*736像素的图像;采用两种匹配方式分别进行5次匹配过程,并分别取平均时间进行比较;
两种匹配过程分别消耗的时间:不使用图像全局特征直接匹配时,平均消耗的时间为65.807秒;基于图像全局特征及SURF算法对Visual Map进行快速匹配时,平均消耗的时间为16.363秒;可以计算得出,采用本发明中的方式进行Visual Map快速匹配,所消耗的平均时间缩短了75.1%。

Claims (4)

1.基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,基于图像全局特征及SURF算法的Visual Map快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
2.根据权利要求1所述基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,所述步骤一中在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;具体过程为:
步骤一一、当原始图像是正方形时,则执行步骤一二;
其中,所述原始图像为直接采集的图像或从拍摄的视频中截取的图像;
当原始图像不是正方形时,从原始图像长边中点向两侧截取等于图像短边像素数的部分,保留一个正方形的图像,舍弃其余部分,再执行步骤一二;
步骤一二、将图像大小按比例缩放至256*256像素,并转换成灰度图;
步骤一三、利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图;
步骤一四、将滤波后的灰度图的图像按4*4的网格分为16块,每块大小为64*64像素,对像素的灰度值采用4个尺度进行划分,灰度值取值范围为0~255,4个尺度范围分别为0~63、64~127、128~191和192~255,
每个图像块中,分别沿8个不同方向统计灰度值落在4个尺度范围内的像素数目,采用一个行向量来表示统计结果,行向量即为每个图像的全局特征描述子gist;
由于,图像块数目为4*4=16,每个图像块中采用了4个尺度划分,各尺度对应方向数均为8,因此gist为一个(4*4)*(8*4)=512维的行向量。
3.根据权利要求2所述基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于:所述步骤四中将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与VisualMap数据库中图像特征点一一对应的图像,从而完成图像匹配;具体过程为:
步骤四一、逐一计算用户输入图像的全局特征描述子gist0与Visual Map数据库中全部N个图像中I1,…,IN的全局特征描述子gist1,…,gistn之间的汉明距离,作为图像的相似度,如下式所示,
sim n = Σ ( gist 0 - gist n ) 2 , ( n = 1,2 , . . . , N )
式中,simn为第n对图像的相似度;
N为正整数;
gist0为用户输入图像中获得每个采集到的图像的全局特征描述子;
gist1为Visual Map数据库中全部N个图像中第I1个图像的全局特征描述子;
gistn为Visual Map数据库中全部N个图像中第IN个图像的全局特征描述子;
I1为Visual Map数据库中全部N个图像中第1个图像;
IN为Visual Map数据库中全部N个图像中第N个图像;
汉明距离越小,即simn的值越小,两个图像的相似度越高;
步骤四二、将步骤四一中得到的图像相似度达到75%以上的图像由小到大进行排序,将排在前M位的图像提取出来,作为基于图像全局特征进行粗匹配的图像,M取值范围为1≤M<N的任意整数;
步骤四三:从基于图像全局特征进行粗匹配的图像中通过64点的SURF算法获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
4.根据权利要求3所述基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,所述步骤一三中利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图,具体过程为:
步骤一三一、对灰度图进行二维离散傅里叶变换,如下式所示,
I ( f x , f y ) = Σ x , y = 0 K - 1 i ( x , y ) h ( x , y ) e - j 2 π ( f x x + f y y )
式中,K为灰度图每条边上的像素数;
e为自然对数的底数;
j为虚数单位;
I为灰度图二维离散傅里叶变换的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
i(x,y)为灰度图在坐标(x,y)处的灰度值分布;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
h(x,y)为环形汉明窗函数;
h(x,y)是为了减少边缘效应引入的环形汉明窗函数;
步骤一三二、计算Gabor函数,如下式所示,
G ( θ i , l ) = exp ( - x θ i 2 + y θ i 2 2 σ 2 ( l - 1 ) ) exp ( 2 πj ( x θ i + y θ i ) )
式中,G(θi,l)是以θi和l为参数计算的Gabor函数的值;
j为虚数单位;
l为灰度图所在的尺度;
θl为灰度图所在尺度下的方向总数;
θi=π(k-1)/θl
k=1,2,…,θl
x θ i = π cos ( θ i ) + y sin ( θ i ) ;
y θ i = - π sin ( θ i ) + y cos ( θ i ) ;
σ2为高斯函数的方差;
步骤一三三、将灰度图的二维离散傅里叶变换结果与Gabor函数相乘后,再进行二维离散傅里叶反变换,从而得到滤波后灰度图在每一点(x,y)处的灰度值分布,即得到滤波后的灰度图,如下式所示,
i ′ ( x , y ) = ΣI ( f x , f y ) G ( θ i , l ) e j 2 π ( f x x + f y y )
式中,j为虚数单位;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
G(θi,l)是以θi和l为参数计算的Gabor函数的值;
θi=π(k-1)/θl
θl为灰度图所在尺度下的方向总数;
k=1,2,…,θl
l为灰度图所在的尺度;
i′(x,y)为滤波后的灰度图在坐标(x,y)处的灰度值分布。
CN201510106609.1A 2015-03-12 2015-03-12 基于图像全局特征及SURF算法的Visual Map快速匹配方法 Active CN104616035B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510106609.1A CN104616035B (zh) 2015-03-12 2015-03-12 基于图像全局特征及SURF算法的Visual Map快速匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510106609.1A CN104616035B (zh) 2015-03-12 2015-03-12 基于图像全局特征及SURF算法的Visual Map快速匹配方法

Publications (2)

Publication Number Publication Date
CN104616035A true CN104616035A (zh) 2015-05-13
CN104616035B CN104616035B (zh) 2018-01-30

Family

ID=53150472

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510106609.1A Active CN104616035B (zh) 2015-03-12 2015-03-12 基于图像全局特征及SURF算法的Visual Map快速匹配方法

Country Status (1)

Country Link
CN (1) CN104616035B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225240A (zh) * 2015-09-25 2016-01-06 哈尔滨工业大学 一种基于视觉特征匹配与拍摄角度估计的室内定位方法
CN107145829A (zh) * 2017-04-07 2017-09-08 电子科技大学 一种融合纹理特征和尺度不变特征的掌静脉识别方法
CN107193965A (zh) * 2017-05-24 2017-09-22 哈尔滨工业大学 一种基于BoVW算法的快速室内定位方法
CN107609565A (zh) * 2017-09-21 2018-01-19 哈尔滨工业大学 一种基于图像全局特征主成分线性回归的室内视觉定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010041008A1 (en) * 1999-12-10 2001-11-15 Eiji Kasutani Image retrieval device, image retrieval method and storage medium storing similar-image retrieval program
US20110182516A1 (en) * 2010-01-27 2011-07-28 Sony Corporation Learning device, learning method, identifying device, identifying method, program, and information processing system
CN103632149A (zh) * 2013-12-17 2014-03-12 上海电机学院 一种基于图像特征分析的人脸识别方法
CN103886306A (zh) * 2014-04-08 2014-06-25 山东大学 一种基于SURF特征点匹配和RANSAC模型估计的牙齿X-ray影像匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010041008A1 (en) * 1999-12-10 2001-11-15 Eiji Kasutani Image retrieval device, image retrieval method and storage medium storing similar-image retrieval program
US20110182516A1 (en) * 2010-01-27 2011-07-28 Sony Corporation Learning device, learning method, identifying device, identifying method, program, and information processing system
CN103632149A (zh) * 2013-12-17 2014-03-12 上海电机学院 一种基于图像特征分析的人脸识别方法
CN103886306A (zh) * 2014-04-08 2014-06-25 山东大学 一种基于SURF特征点匹配和RANSAC模型估计的牙齿X-ray影像匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
隋云衡等: "融合Hu矩与BoF-SURF支持向量机的手势识别", 《计算机应用研究》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225240A (zh) * 2015-09-25 2016-01-06 哈尔滨工业大学 一种基于视觉特征匹配与拍摄角度估计的室内定位方法
CN105225240B (zh) * 2015-09-25 2017-10-03 哈尔滨工业大学 一种基于视觉特征匹配与拍摄角度估计的室内定位方法
CN107145829A (zh) * 2017-04-07 2017-09-08 电子科技大学 一种融合纹理特征和尺度不变特征的掌静脉识别方法
CN107145829B (zh) * 2017-04-07 2020-05-22 电子科技大学 一种融合纹理特征和尺度不变特征的掌静脉识别方法
CN107193965A (zh) * 2017-05-24 2017-09-22 哈尔滨工业大学 一种基于BoVW算法的快速室内定位方法
CN107193965B (zh) * 2017-05-24 2020-08-25 哈尔滨工业大学 一种基于BoVW算法的快速室内定位方法
CN107609565A (zh) * 2017-09-21 2018-01-19 哈尔滨工业大学 一种基于图像全局特征主成分线性回归的室内视觉定位方法
CN107609565B (zh) * 2017-09-21 2020-08-11 哈尔滨工业大学 一种基于图像全局特征主成分线性回归的室内视觉定位方法

Also Published As

Publication number Publication date
CN104616035B (zh) 2018-01-30

Similar Documents

Publication Publication Date Title
CN107220997B (zh) 一种立体匹配方法及系统
CN104574347B (zh) 基于多源遥感数据的在轨卫星图像几何定位精度评价方法
CN104050681B (zh) 一种基于视频图像的道路消失点检测方法
CN102708385B (zh) 用于视频监控场景的三维车型比对识别的方法和系统
CN106910242A (zh) 基于深度相机进行室内完整场景三维重建的方法及系统
CN104484868B (zh) 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
CN103455797A (zh) 航拍视频中运动小目标的检测与跟踪方法
CN103440653A (zh) 双目视觉立体匹配方法
CN103593832A (zh) 一种基于高斯二阶差分特征检测算子的图像拼接方法
CN104463871A (zh) 基于车载LiDAR点云数据的街景面片提取及优化方法
CN103632142A (zh) 基于局部坐标系特征描述的图像匹配方法
CN102169581A (zh) 一种基于特征向量的快速高精度鲁棒性匹配方法
CN104616035A (zh) 基于图像全局特征及SURF算法的Visual Map快速匹配方法
CN105913453A (zh) 一种目标跟踪方法和装置
CN103428408B (zh) 一种适用于帧间的图像稳像方法
CN103778436A (zh) 一种基于图像处理的行人姿态检测方法
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN103189715A (zh) 立体图像处理装置及立体图像处理方法
Huang et al. Correlation and local feature based cloud motion estimation
CN104851089A (zh) 一种基于三维光场的静态场景前景分割方法和装置
CN102175993A (zh) 基于卫星sar影像的雷达景象匹配特征参考图制备方法
CN104484881A (zh) 基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法
CN102261916B (zh) 一种沙质环境中基于视觉的月球车定位方法
CN103500454A (zh) 一种抖动视频运动目标提取方法
CN102708589B (zh) 一种基于特征聚类的三维目标多视点视图建模方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant