CN104616035B - 基于图像全局特征及SURF算法的Visual Map快速匹配方法 - Google Patents
基于图像全局特征及SURF算法的Visual Map快速匹配方法 Download PDFInfo
- Publication number
- CN104616035B CN104616035B CN201510106609.1A CN201510106609A CN104616035B CN 104616035 B CN104616035 B CN 104616035B CN 201510106609 A CN201510106609 A CN 201510106609A CN 104616035 B CN104616035 B CN 104616035B
- Authority
- CN
- China
- Prior art keywords
- image
- mrow
- msub
- gray
- scale map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/196—Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
- G06V30/1983—Syntactic or structural pattern recognition, e.g. symbolic string recognition
- G06V30/1988—Graph matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
基于图像全局特征及SURF算法的Visual Map快速匹配方法,本发明涉及SURF算法的Visual Map快速匹配方法。本发明是为了解决现有技术中基于图像的室内定位方法中图像匹配过程运算量大及消耗时间长的问题。通过以下技术方案实现的:步骤一、在Visual Map数据库建立过程中,获取每个图像的全局特征描述子;步骤二、得到每个图像的SURF特征点;步骤三、对用户输入图像,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;步骤四、将gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,完成图像匹配。本发明应用于室内定位导航领域。
Description
技术领域
本发明涉及SURF算法的Visual Map快速匹配方法。
背景技术
随着智能手机的普及,定位及导航服务越来越受到人们的重视。现如今利用卫星定位的方法只解决了室外定位的问题,对室内环境下的定位效果则很不理想。近年来基于Wi-Fi的室内定位方法由于其实现简便而得到了比较广泛的应用,但目前的研究成果表明,其定位精度受室内人群疏密、墙壁遮挡与基础设施部署等因素的影响较大。综合定位精度与系统成本等因素考虑,视觉定位技术逐渐成为室内定位研究的另一个热点,并逐渐得到更多的关注。关于视觉定位方法的研究始于机器人定位领域,近年来,随着带有摄像头的智能手机的发展,基于图像的室内定位方法因其所需设备的简单易得而得到广泛的关注。
基于图像的室内定位方法首先建立离线端的Visual Map,之后通过将用户所在位置的图像与Visual Map进行匹配,来找到数据库中与用户输入图像相匹配的若干图像,由此可以计算出移动设备的位置从而进行定位。通常该定位系统分为两步:建立Visual Map数据库的离线阶段,以及在线的图像匹配与定位阶段。Visual Map数据库是由采集的图像、图像所对应的地理位置信息、每个图像的全局特征描述子以及由SURF算法提取的图像特征点组成。在线阶段分为获得匹配的图像与位置计算两部分,图像匹配过程是后期进行定位过程的基础。由于定位空间的尺寸可能较大,因此离线阶段建立的Visual Map中图像的数目也可能较多,而在图像匹配过程中需要对数据库中全部图像进行遍历,直接将用户输入的图像与Visual Map中全部图像的特征点进行逐个比较,由于在基于图像的室内定位方法中图像匹配速度会受到Visual Map数据库中图像的数目、尺寸因素的影响,导致基于图像的室内定位方法中图像匹配过程运算量大,及消耗时间长。
发明内容
本发明是为了解决现有技术中基于图像的室内定位方法中图像匹配过程运算量大及消耗时间长的问题,而提出了基于图像全局特征及SURF算法的Visual Map快速匹配方法。
上述的发明目的是通过以下技术方案实现的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
发明效果
本发明采用基于图像全局特征及SURF算法的Visual Map快速匹配方法,方法流程如图1所示。该方法首先是在离线阶段建立Visual Map时,采用图2中的方法来获取采集的每个图像的全局特征描述子,而后通过SURF算法提取得到每个图像的特征点。在对用户图像与Visual Map进行匹配时,先通过图像的全局特征比较图像的相似度,由此得到粗匹配的结果,之后将粗匹配获得的图像提取出来再对图像特征点进行比较,获得精确的匹配结果,使基于图像的室内定位方法中的图像匹配速度受到Visual Map数据库中图像的数目、尺寸因素的影响尽可能地小,减少了基于图像的室内定位方法中图像匹配过程的运算量,从而解决了基于图像的室内定位方法中图像匹配过程消耗时间长的问题,使基于图像的室内定位方法中图像匹配过程所消耗的时间减少了70%以上。
附图说明
图1为基于图像全局特征及SURF算法的Visual Map快速匹配方法的流程图;
图2为计算图像的全局特征描述子的算法流程示意图;
图3为利用Gabor滤波器对图像进行滤波的方法流程示意图,表示相乘运算。
具体实施方式
具体实施方式一:结合图1说明本实施方式,基于图像全局特征及SURF算法的Visual Map快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子,如图2;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一中在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;具体过程为:
步骤一一、当原始图像是正方形时,则执行步骤一二;
其中,所述原始图像为直接采集的图像或从拍摄的视频中截取的图像;
当原始图像不是正方形时,从原始图像长边中点向两侧截取等于图像短边像素数的部分,保留一个正方形的图像,舍弃其余部分,再执行步骤一二;
步骤一二、将图像大小按比例缩放至256*256像素,并转换成灰度图;
步骤一三、利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图的图像,如图3;
步骤一四、将滤波后的灰度图的图像按4*4的网格分为16块,每块大小为64*64像素,对像素的灰度值采用4个尺度进行划分,灰度值取值范围为0~255,4个尺度范围分别为0~63、64~127、128~191和192~255,
每个图像块中,分别沿8个不同方向统计灰度值落在4个尺度范围内的像素数目,采用一个行向量来表示统计结果,行向量即为每个图像的全局特征描述子gist;
由于,图像块数目为4*4=16,每个图像块中采用了4个尺度划分,各尺度对应方向数均为8,因此gist为一个(4*4)*(8*4)=512维的行向量。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤四中将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配;具体过程为:
步骤四一、逐一计算用户输入图像的全局特征描述子gist0与Visual Map数据库中全部N个图像中I1,…,IN的全局特征描述子gist1,…,gistn之间的汉明距离,作为图像的相似度,如下式所示,
simn=∑(gist0-gistn)2 (n=1,2,…,N)
式中,simn为第n对图像的相似度;
N为正整数;
gist0为用户输入图像中获得每个采集到的图像的全局特征描述子;
gist1为Visual Map数据库中全部N个图像中第I1个图像的全局特征描述子;
gistn为Visual Map数据库中全部N个图像中第IN个图像的全局特征描述子;
I1为Visual Map数据库中全部N个图像中第1个图像;
IN为Visual Map数据库中全部N个图像中第N个图像;
汉明距离越小,即simn的值越小,两个图像的相似度越高;
步骤四二、将步骤四一中得到的图像相似度达到75%以上的图像由小到大进行排序,将排在前M位的图像提取出来,作为基于图像全局特征进行粗匹配的图像,M取值范围为1≤M<N的任意整数;
步骤四三:从基于图像全局特征进行粗匹配的图像中通过64点的SURF算法获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一、二或三不同的是:所述步骤一三中利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图,具体过程为:
步骤一三一、对灰度图进行二维离散傅里叶变换,如下式所示,
式中,K为灰度图每条边上的像素数;
e为自然对数的底数;
j为虚数单位;
I为灰度图二维离散傅里叶变换的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
i(x,y)为灰度图在坐标(x,y)处的灰度值分布;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
h(x,y)为环形汉明窗函数;
h(x,y)是为了减少边缘效应引入的环形汉明窗函数;
步骤一三二、计算Gabor函数,如下式所示,
式中,G(θi,l)是以θi和l为参数计算的Gabor函数的值;
j为虚数单位;
l为灰度图所在的尺度;
θl为灰度图所在尺度下的方向总数;
θi=π(k-1)/θl;
k=1,2,…,θl;
σ2为高斯函数的方差;
步骤一三三、将灰度图的二维离散傅里叶变换结果与Gabor函数相乘后,再进行二维离散傅里叶反变换,从而得到滤波后灰度图在每一点(x,y)处的灰度值分布,即得到了滤波后的灰度图,如下式所示,
式中,j为虚数单位;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
G(θi,l)是以θi和l为参数计算的Gabor函数的值;
θi=π(k-1)/θl;
θl为灰度图所在尺度下的方向总数;
k=1,2,…,θl;
l为灰度图所在的尺度;
i′(x,y)为滤波后的灰度图在坐标(x,y)处的灰度值分布。
其它步骤及参数与具体实施方式一、二或三相同。
采用以下实施例验证本发明的有益效果:
实施例1
基于图像全局特征及SURF算法的Visual Map快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,通过直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
SURF算法为加速鲁棒特征算法,全拼为Speeded up Robust Features;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配;
采用本发明中的方式,即基于图像全局特征及SURF算法对Visual Map进行快速匹配,与不使用图像全局特征直接对Visual Map进行匹配,比较两种匹配过程所消耗时间的差异。
本实施例进行验证时采用的条件:Visual Map中包含297张图像,图像大小为640*360像素;用户输入为一张1305*736像素的图像;采用两种匹配方式分别进行5次匹配过程,并分别取平均时间进行比较;
两种匹配过程分别消耗的时间:不使用图像全局特征直接匹配时,平均消耗的时间为65.807秒;基于图像全局特征及SURF算法对Visual Map进行快速匹配时,平均消耗的时间为16.363秒;可以计算得出,采用本发明中的方式进行Visual Map快速匹配,所消耗的平均时间缩短了75.1%。
Claims (3)
1.基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,基于图像全局特征及SURF算法的Visual Map快速匹配方法具体是按照以下步骤进行的:
步骤一、在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;
步骤二、采用64点SURF算法对步骤一所述的数据库中的每个图像进行特征点提取,得到每个图像的SURF特征点;
步骤三、对用户输入图像,采用步骤一和步骤二的方法,获取用户输入图像的全局特征描述子gist0和用户输入图像的SURF特征点;
步骤四、将获取用户输入图像的全局特征描述子gist0与Visual Map数据库建立过程中获取每个图像的全局特征描述子进行比较,将相似度达到75%以上的图像提取出来进行SURF特征点的匹配,从提取出来的图像中获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配;具体过程为:
步骤四一、逐一计算用户输入图像的全局特征描述子gist0与Visual Map数据库中全部N个图像中I1,…,IN的全局特征描述子gist1,…,gistn之间的汉明距离,作为图像的相似度,如下式所示,
simn=∑(gist0-gistn)2 (n=1,2,…,N)
式中,simn为第n对图像的相似度;
N为正整数;
gist0为用户输入图像中获得每个采集到的图像的全局特征描述子;
gist1为Visual Map数据库中全部N个图像中第I1个图像的全局特征描述子;
gistn为Visual Map数据库中全部N个图像中第IN个图像的全局特征描述子;
I1为Visual Map数据库中全部N个图像中第1个图像;
IN为Visual Map数据库中全部N个图像中第N个图像;
汉明距离越小,即simn的值越小,两个图像的相似度越高;
步骤四二、将步骤四一中得到的图像相似度达到75%以上的图像由小到大进行排序,将排在前M位的图像提取出来,作为基于图像全局特征进行粗匹配的图像,M取值范围为1≤M<N的任意整数;
步骤四三:从基于图像全局特征进行粗匹配的图像中通过64点的SURF算法获得用户输入图像特征点与Visual Map数据库中图像特征点一一对应的图像,从而完成图像匹配。
2.根据权利要求1所述基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,所述步骤一中在Visual Map数据库建立过程中,将直接采集的图像或从拍摄的视频中截取的图像作为数据库,对于数据库中的每个图像,获取每个图像的全局特征描述子;具体过程为:
步骤一一、当原始图像是正方形时,则执行步骤一二;
其中,所述原始图像为直接采集的图像或从拍摄的视频中截取的图像;
当原始图像不是正方形时,从原始图像长边中点向两侧截取等于图像短边像素数的部分,保留一个正方形的图像,舍弃其余部分,再执行步骤一二;
步骤一二、将图像大小按比例缩放至256*256像素,并转换成灰度图;
步骤一三、利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图;
步骤一四、将滤波后的灰度图的图像按4*4的网格分为16块,每块大小为64*64像素,对像素的灰度值采用4个尺度进行划分,灰度值取值范围为0~255,4个尺度范围分别为0~63、64~127、128~191和192~255,
每个图像块中,分别沿8个不同方向统计灰度值落在4个尺度范围内的像素数目,采用一个行向量来表示统计结果,行向量即为每个图像的全局特征描述子gist;
由于,图像块数目为4*4=16,每个图像块中采用了4个尺度划分,各尺度对应方向数均为8,因此gist为一个(4*4)*(8*4)=512维的行向量。
3.根据权利要求2所述基于图像全局特征及SURF算法的Visual Map快速匹配方法,其特征在于,所述步骤一三中利用Gabor滤波器对灰度图进行滤波,得到滤波后的灰度图,具体过程为:
步骤一三一、对灰度图进行二维离散傅里叶变换,如下式所示,
<mrow>
<mi>I</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>K</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mi>j</mi>
<mn>2</mn>
<mi>&pi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
式中,K为灰度图每条边上的像素数;
e为自然对数的底数;
j为虚数单位;
I为灰度图二维离散傅里叶变换的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
i(x,y)为灰度图在坐标(x,y)处的灰度值分布;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
h(x,y)为环形汉明窗函数;
h(x,y)是为了减少边缘效应引入的环形汉明窗函数;
步骤一三二、计算Gabor函数,如下式所示,
<mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>l</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<msub>
<mi>x</mi>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
</msub>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<msub>
<mi>y</mi>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
</msub>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<mi>l</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>&pi;</mi>
<mi>j</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>y</mi>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
式中,G(θi,l)是以θi和l为参数计算的Gabor函数的值;
j为虚数单位;
l为灰度图所在的尺度;
θl为灰度图所在尺度下的方向总数;
θi=π(k-1)/θl;
k=1,2,…,θl;
xθi=πcos(θi)+ysin(θi);
yθi=-πsin(θi)+ycos(θi);
σ2为高斯函数的方差;
步骤一三三、将灰度图的二维离散傅里叶变换结果与Gabor函数相乘后,再进行二维离散傅里叶反变换,从而得到滤波后灰度图在每一点(x,y)处的灰度值分布,即得到滤波后的灰度图,如下式所示,
<mrow>
<msup>
<mi>i</mi>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>&Sigma;</mi>
<mi>I</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>l</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>e</mi>
<mrow>
<mi>j</mi>
<mn>2</mn>
<mi>&pi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
式中,j为虚数单位;
I(fx,fy)是以fx和fy为参数,对灰度图进行二维离散傅里叶变换之后的结果;
fx为沿横轴方向的空间频率变量;
fy为沿纵轴方向的空间频率变量;
x为灰度图横轴方向坐标;
y为灰度图纵轴方向坐标;
G(θi,l)是以θi和l为参数计算的Gabor函数的值;
θi=π(k-1)/θl;
θl为灰度图所在尺度下的方向总数;
k=1,2,…,θl;
l为灰度图所在的尺度;
i′(x,y)为滤波后的灰度图在坐标(x,y)处的灰度值分布。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510106609.1A CN104616035B (zh) | 2015-03-12 | 2015-03-12 | 基于图像全局特征及SURF算法的Visual Map快速匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510106609.1A CN104616035B (zh) | 2015-03-12 | 2015-03-12 | 基于图像全局特征及SURF算法的Visual Map快速匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104616035A CN104616035A (zh) | 2015-05-13 |
CN104616035B true CN104616035B (zh) | 2018-01-30 |
Family
ID=53150472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510106609.1A Active CN104616035B (zh) | 2015-03-12 | 2015-03-12 | 基于图像全局特征及SURF算法的Visual Map快速匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104616035B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225240B (zh) * | 2015-09-25 | 2017-10-03 | 哈尔滨工业大学 | 一种基于视觉特征匹配与拍摄角度估计的室内定位方法 |
CN107145829B (zh) * | 2017-04-07 | 2020-05-22 | 电子科技大学 | 一种融合纹理特征和尺度不变特征的掌静脉识别方法 |
CN107193965B (zh) * | 2017-05-24 | 2020-08-25 | 哈尔滨工业大学 | 一种基于BoVW算法的快速室内定位方法 |
CN107609565B (zh) * | 2017-09-21 | 2020-08-11 | 哈尔滨工业大学 | 一种基于图像全局特征主成分线性回归的室内视觉定位方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103632149A (zh) * | 2013-12-17 | 2014-03-12 | 上海电机学院 | 一种基于图像特征分析的人脸识别方法 |
CN103886306A (zh) * | 2014-04-08 | 2014-06-25 | 山东大学 | 一种基于SURF特征点匹配和RANSAC模型估计的牙齿X-ray影像匹配方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3550681B2 (ja) * | 1999-12-10 | 2004-08-04 | 日本電気株式会社 | 画像検索装置及び方法、並びに類似画像検索プログラムを格納した記憶媒体 |
JP2011154501A (ja) * | 2010-01-27 | 2011-08-11 | Sony Corp | 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム |
-
2015
- 2015-03-12 CN CN201510106609.1A patent/CN104616035B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103632149A (zh) * | 2013-12-17 | 2014-03-12 | 上海电机学院 | 一种基于图像特征分析的人脸识别方法 |
CN103886306A (zh) * | 2014-04-08 | 2014-06-25 | 山东大学 | 一种基于SURF特征点匹配和RANSAC模型估计的牙齿X-ray影像匹配方法 |
Non-Patent Citations (1)
Title |
---|
融合Hu矩与BoF-SURF支持向量机的手势识别;隋云衡等;《计算机应用研究》;20140301;第953-960页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104616035A (zh) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6739517B2 (ja) | 車線認識のモデリング方法、装置、記憶媒体及び機器、並びに車線の認識方法、装置、記憶媒体及び機器 | |
CN102006425B (zh) | 一种基于多摄像机的视频实时拼接方法 | |
Arroyo et al. | Fast and effective visual place recognition using binary codes and disparity information | |
CN111242127B (zh) | 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法 | |
CN111862126A (zh) | 深度学习与几何算法结合的非合作目标相对位姿估计方法 | |
CN104616035B (zh) | 基于图像全局特征及SURF算法的Visual Map快速匹配方法 | |
CN110309842B (zh) | 基于卷积神经网络的物体检测方法及装置 | |
CN103632153B (zh) | 一种基于区域的图像显著图提取方法 | |
CN104457758B (zh) | 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法 | |
CN107516322A (zh) | 一种基于对数极空间的图像物体大小和旋转估计计算方法 | |
CN103208125B (zh) | 视频帧图像中颜色和运动全局对比度的视觉显著性算法 | |
CN103679740B (zh) | 一种无人机对地目标roi提取方法 | |
CN103189715A (zh) | 立体图像处理装置及立体图像处理方法 | |
CN114581794B (zh) | 地理数字孪生信息获取方法、装置、电子设备及存储介质 | |
CN104050674B (zh) | 一种显著性区域检测方法及装置 | |
CN102708589A (zh) | 一种基于特征聚类的三维目标多视点视图建模方法 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN108154522B (zh) | 目标追踪系统 | |
CN104156689A (zh) | 一种对目标对象的特征信息进行定位的方法和设备 | |
CN116188587A (zh) | 定位方法、装置及车辆 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
CN104318236A (zh) | 一种获取图像局部特征的方法及系统 | |
CN114882139A (zh) | 一种多层级地图的端到端智能生成方法及系统 | |
Zhang et al. | Hierarchical Image Retrieval Method Based on Bag-of-Visual-Word and Eight-point Algorithm with Feature Clouds for Visual Indoor Positioning | |
CN112651351A (zh) | 一种数据处理的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |