CN101794395A - 一种基于Sift算法的图像匹配定位方法 - Google Patents
一种基于Sift算法的图像匹配定位方法 Download PDFInfo
- Publication number
- CN101794395A CN101794395A CN201010123708A CN201010123708A CN101794395A CN 101794395 A CN101794395 A CN 101794395A CN 201010123708 A CN201010123708 A CN 201010123708A CN 201010123708 A CN201010123708 A CN 201010123708A CN 101794395 A CN101794395 A CN 101794395A
- Authority
- CN
- China
- Prior art keywords
- subject
- local
- coordinate
- match point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于Sift算法的图像匹配定位方法,计算被拍摄物体图的Sift特征值,取当前摄像头拍摄物体的局部图像,计算该局部图像的特征值;将被拍摄物体局部图和被拍摄物体图进行匹配,记录匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算被拍摄物体局部图中的匹配点的两点距离和计算对应被拍摄物体图中匹配点的距离,两个距离之比为被拍摄物体局部图到被拍摄物体图的缩放比例,根据比例可确定图形定位。本发明提供了一种设备使用少,使用成本低,图像匹配更简单准确的图像匹配定位方法。
Description
技术领域
本发明涉及一种图像匹配方法。
背景技术
目前在一些机械设备上,要实时检测运动点的位置,传统的一些定位主要是靠位移传感器,而大多数该类传感器只适合短距离的测量,当测量距离超过0.5米,传感器种类就开始减少,特别是超过1米,安装不方便、成本提高。如果是测量二维坐标,还要在2个方向安装传感器。计算量大,而且难以保证匹配的准确度。
发明内容
本发明针对现有技术的不足,提供了一种设备使用少,使用成本低,图像匹配更简单准确的图像匹配定位方法。
本发明是通过以下技术方案实现的:
一种基于Sift算法的图像匹配定位方法,首先计算出被拍摄物体图的Sift特征值;然后启动匹配线程,线程步骤:
(1)取当前摄像头拍摄物体的局部图像,计算该局部图像的特征值;
(2)摄像头和被拍摄物体图的距离不固定,则跳到步骤(3),否则再判断将被拍摄物体局部图和被拍摄物体图是否进行了初次匹配,是则跳到(4),否则跳到(3);
(3)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算被拍摄物体局部图中的匹配点的两点距离,并计算对应被拍摄物体图中匹配点的距离,两个距离之比为被拍摄物体局部图到被拍摄物体图的缩放比例,跳到(1);
(4)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,从被拍摄物体图的匹配点中取开始位置的两点,计算距离,再从被拍摄物体图的匹配点中取对应位置的两点计算距离,将这两个距离之比与步骤(3)中已计算的缩放比例相减,差值小于设定精度时,则以该比值两点任意一点在被拍摄物体局部图中坐标和被拍摄物体图坐标和缩放比例计算被拍摄物体局部图原点在被拍摄物体图中的坐标,否则依次取两点做同样的操作直到没有匹配点可取则跳到(1)。
一种基于Sift算法的图像匹配定位方法,所述的步骤(3)中记录所有匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算所有被拍摄物体局部图中的匹配点的两点距离,并计算对应被拍摄物体图中匹配点的距离,按从小到大记录所有距离的比,取平均值为被拍摄物体局部图到被拍摄物体图的缩放比例。
一种基于Sift算法的图像匹配定位方法,所述的步骤(4)中计算被拍摄物体局部图原点在被拍摄物体图中的坐标采用如下计算方法:
a(x,y)=b(x,y)-c(x,y)/f
a(x,y):被拍摄物体局部图原点在被拍摄物体图中坐标
b(x,y):所取匹配点在被拍摄物体图坐标
c(x,y):所取匹配点在被拍摄物体局部图坐标
f:缩放比例。
本发明有益效果包括:
1、可以直接计算出运动点的二维坐标,而不用像传统那样用2个方向位移传感器进行采集。
2、只需一个USB接口的摄像头,直接接入主机,不需要安装采集卡对传感器进行数据采集,降低了成本。
3、由于采用本专利技术,摄像头将取代传统的位移传感器设备,简化了设备安装传感器的空间,特别是对于较大传感器。
附图说明
附图为本图形匹配定位方法的流程图。
具体实施方式
参见附图所示。
1、首先要计算出被拍摄物体图的Sift特征值;
2、然后启动匹配线程,线程步骤:
(1)取当前摄像头拍摄物体的局部图像,计算该局部图像的特征值;
(2)摄像头和被拍摄物体图的距离不固定,则跳到(3),否则再判断将被拍摄物体局部图和被拍摄物体图是否进行了初次匹配,是则跳到(4),否则跳到(3);
(3)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录所有匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算所有被拍摄物体局部图中的匹配点的两点的距离,并计算对应被拍摄物体图中匹配点的距离,按从小到大记录所有两个距离的比值,取中间若干比例比值的平均值为被拍摄物体局部图到被拍摄物体图的缩放比例,跳到(1);
(4)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录所有匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,从被拍摄物体图的匹配点中取开始位置的两点,计算距离,再从被拍摄物体图的匹配点中取对应位置的两点计算距离,将这个距离比与步骤(3)中已计算的缩放比例相减,差值小于设定精度时,则以该比值两点任意一点在被拍摄物体局部图中坐标和被拍摄物体图坐标和缩放比例计算被拍摄物体局部图原点在被拍摄物体图中的坐标,跳到(1)。否则依次取两点做同样的操作直到没有匹配点可取则跳到(1)。计算被拍摄物体局部图原点在被拍摄物体图中的坐标计算公式为:
a(x,y)=b(x,y)-c(x,y)/f
a(x,y):被拍摄物体局部图原点在被拍摄物体图中坐标
b(x,y):所取匹配点在被拍摄物体图坐标
c(x,y):所取匹配点在被拍摄物体局部图坐标
f:缩放比例
被拍摄物体局部图原点在被拍摄物体图中坐标及所要测量运动点的位置信息,这里是认为摄像头和运动检测点在同一位置,在实际应用时要根据摄像头和运动检测点位置关系来校正,用计算的位置信息加或减摄像头和运动点的距离为最终的位置信息。
本发明方法的条件有以下:
1、被拍摄物体图在拍摄时是不变的;
2、在实时性要求较高时,摄像头距被拍摄物体图的距离在拍摄时是固定的。
3、在实时性要求不高时,摄像头距被拍摄物体图的距离在拍摄时可不是固定的。
4、被拍摄物体图不能是对称性图像。
5、灯光要好,要利用摄像头拍摄的环境。
Claims (3)
1.一种基于Sift算法的图像匹配定位方法,首先计算出被拍摄物体图的Sift特征值;然后启动匹配线程,线程步骤:
(1)取当前摄像头拍摄物体的局部图像,计算该局部图像的特征值;
(2)摄像头和被拍摄物体图的距离不固定,则跳到步骤(3),否则再判断将被拍摄物体局部图和被拍摄物体图是否进行了初次匹配,是则跳到(4),否则跳到(3);
(3)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算被拍摄物体局部图中的匹配点的两点距离,并计算对应被拍摄物体图中匹配点的距离,两个距离之比为被拍摄物体局部图到被拍摄物体图的缩放比例,跳到(1);
(4)将被拍摄物体局部和被拍摄物体图特征值进行sift匹配,记录匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,从被拍摄物体图的匹配点中取开始位置的两点,计算距离,再从被拍摄物体图的匹配点中取对应位置的两点计算距离,将这两个距离之比与步骤(3)中已计算的缩放比例相减,差值小于设定精度时,则以该比值两点任意一点在被拍摄物体局部图中坐标和被拍摄物体图坐标和缩放比例计算被拍摄物体局部图原点在被拍摄物体图中的坐标,否则依次取两点做同样的操作直到没有匹配点可取则跳到(1)。
2.根据权利要求1所述的一种基于Sift算法的图像匹配定位方法,其特征在于所述的步骤(3)中记录所有匹配点对应的被拍摄物体图坐标和被拍摄物体局部图坐标,计算所有被拍摄物体局部图中的匹配点的两点距离,并计算对应被拍摄物体图中匹配点的距离,按从小到大记录所有距离的比,取平均值为被拍摄物体局部图到被拍摄物体图的缩放比例。
3.根据权利要求1所述的一种基于Sift算法的图像匹配定位方法,其特征在于所述的步骤(4)中计算被拍摄物体局部图原点在被拍摄物体图中的坐标采用如下计算方法:
a(x,y)=b(x,y)-c(x,y)/f
a(x,y):被拍摄物体局部图原点在被拍摄物体图中坐标
b(x,y):所取匹配点在被拍摄物体图坐标
c(x,y):所取匹配点在被拍摄物体局部图坐标
f:缩放比例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101237088A CN101794395B (zh) | 2010-03-11 | 2010-03-11 | 一种基于Sift算法的图像匹配定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101237088A CN101794395B (zh) | 2010-03-11 | 2010-03-11 | 一种基于Sift算法的图像匹配定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101794395A true CN101794395A (zh) | 2010-08-04 |
CN101794395B CN101794395B (zh) | 2012-04-25 |
Family
ID=42587075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101237088A Active CN101794395B (zh) | 2010-03-11 | 2010-03-11 | 一种基于Sift算法的图像匹配定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101794395B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942804A (zh) * | 2014-05-05 | 2014-07-23 | 浙江大学 | 一种基于多种颜色分量系数组合的水果图像匹配方法 |
CN104281847A (zh) * | 2013-07-12 | 2015-01-14 | 步步高教育电子有限公司 | 一种点读方法、装置及设备 |
US9454710B2 (en) | 2012-07-09 | 2016-09-27 | Sisvel Technology S.R.L. | Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus |
CN106056605A (zh) * | 2016-05-26 | 2016-10-26 | 西安空间无线电技术研究所 | 一种基于图像匹配的在轨高精度图像定位方法 |
CN110517316A (zh) * | 2018-05-21 | 2019-11-29 | 福建鹿鸣教育科技有限公司 | 一种基于两点定位图像的方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04290186A (ja) * | 1991-03-19 | 1992-10-14 | Eastman Kodak Japan Kk | 画像処理方法 |
US6618501B1 (en) * | 1999-05-06 | 2003-09-09 | Canon Kabushiki Kaisha | Object similarity calculation method and apparatus |
CN1801896A (zh) * | 2006-01-17 | 2006-07-12 | 东南大学 | 摄像机标定数据的采集方法及其标定板 |
CN101339601A (zh) * | 2008-08-15 | 2009-01-07 | 张擎宇 | 一种基于sift算法的车牌汉字识别方法 |
CN101493891A (zh) * | 2009-02-27 | 2009-07-29 | 天津大学 | 基于sift的具有镜面翻转不变性的特征提取和描述方法 |
CN101556647A (zh) * | 2009-05-20 | 2009-10-14 | 哈尔滨理工大学 | 一种基于改进sift算法的移动机器人视觉定位方法 |
-
2010
- 2010-03-11 CN CN2010101237088A patent/CN101794395B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04290186A (ja) * | 1991-03-19 | 1992-10-14 | Eastman Kodak Japan Kk | 画像処理方法 |
US6618501B1 (en) * | 1999-05-06 | 2003-09-09 | Canon Kabushiki Kaisha | Object similarity calculation method and apparatus |
CN1801896A (zh) * | 2006-01-17 | 2006-07-12 | 东南大学 | 摄像机标定数据的采集方法及其标定板 |
CN101339601A (zh) * | 2008-08-15 | 2009-01-07 | 张擎宇 | 一种基于sift算法的车牌汉字识别方法 |
CN101493891A (zh) * | 2009-02-27 | 2009-07-29 | 天津大学 | 基于sift的具有镜面翻转不变性的特征提取和描述方法 |
CN101556647A (zh) * | 2009-05-20 | 2009-10-14 | 哈尔滨理工大学 | 一种基于改进sift算法的移动机器人视觉定位方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454710B2 (en) | 2012-07-09 | 2016-09-27 | Sisvel Technology S.R.L. | Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus |
US10713523B2 (en) | 2012-07-09 | 2020-07-14 | New Luck Global Limited | Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus |
CN104281847A (zh) * | 2013-07-12 | 2015-01-14 | 步步高教育电子有限公司 | 一种点读方法、装置及设备 |
CN104281847B (zh) * | 2013-07-12 | 2017-10-03 | 步步高教育电子有限公司 | 一种点读方法、装置及设备 |
CN103942804A (zh) * | 2014-05-05 | 2014-07-23 | 浙江大学 | 一种基于多种颜色分量系数组合的水果图像匹配方法 |
CN103942804B (zh) * | 2014-05-05 | 2016-09-14 | 浙江大学 | 一种基于多种颜色分量系数组合的水果图像匹配方法 |
CN106056605A (zh) * | 2016-05-26 | 2016-10-26 | 西安空间无线电技术研究所 | 一种基于图像匹配的在轨高精度图像定位方法 |
CN106056605B (zh) * | 2016-05-26 | 2018-09-18 | 西安空间无线电技术研究所 | 一种基于图像匹配的在轨高精度图像定位方法 |
CN110517316A (zh) * | 2018-05-21 | 2019-11-29 | 福建鹿鸣教育科技有限公司 | 一种基于两点定位图像的方法及系统 |
CN110517316B (zh) * | 2018-05-21 | 2023-02-28 | 福建鹿鸣教育科技有限公司 | 一种基于两点定位图像的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101794395B (zh) | 2012-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101794395B (zh) | 一种基于Sift算法的图像匹配定位方法 | |
CN109737883A (zh) | 一种基于图像识别的三维形变动态测量系统及测量方法 | |
CN103438834B (zh) | 基于结构光投影的层级式快速三维测量装置及测量方法 | |
CN110675455B (zh) | 一种基于自然场景的车身环视相机自标定方法和系统 | |
JP2004233334A5 (zh) | ||
CN103903263B (zh) | 一种基于Ladybug全景相机图像的360度全方位测距方法 | |
CN112880687A (zh) | 一种室内定位方法、装置、设备和计算机可读存储介质 | |
CN106296694A (zh) | 杆塔倾斜智能图像辨识测量方法 | |
CN110261052A (zh) | 采用力锤激励和摄影测量的结构振动模态分析系统及方法 | |
CN110579207A (zh) | 基于地磁信号结合电脑视觉的室内定位系统及方法 | |
CN104807407A (zh) | 一种基于银行卡的手机测量长度方法 | |
CN114719770B (zh) | 一种基于图像识别及空间定位技术的变形监测方法及装置 | |
CN106352800A (zh) | 输电线路弧垂智能图像辨识测量方法 | |
CN113223050A (zh) | 一种基于ArUco码的机器人运动轨迹实时采集方法 | |
CN112907506A (zh) | 一种基于水尺颜色信息的不定长水尺水位检测方法、装置及存储介质 | |
CN113392846A (zh) | 一种基于深度学习的水尺水位监测方法及系统 | |
CN104200456B (zh) | 一种用于线结构光三维测量的解码方法 | |
CN104331907A (zh) | 一种基于orb特征检测测量载体速度的方法 | |
Yang et al. | Auto-recognition Method for Pointer-type Meter Based on Binocular Vision. | |
JP5109074B2 (ja) | 車両速度判定装置および車両速度判定方法 | |
JP2011064639A (ja) | 距離計測装置及び距離計測方法 | |
CN103578118B (zh) | 基于序贯图像矢量平均的时均流场重建方法 | |
CN113536895A (zh) | 一种圆盘指针表计识别方法 | |
CN109696191A (zh) | 一种虚拟现实头戴显示设备的移动延迟测量方法 | |
JPWO2021075090A5 (zh) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |