CN107689062A - 基于三角剖分的室内视觉定位方法 - Google Patents
基于三角剖分的室内视觉定位方法 Download PDFInfo
- Publication number
- CN107689062A CN107689062A CN201710540895.1A CN201710540895A CN107689062A CN 107689062 A CN107689062 A CN 107689062A CN 201710540895 A CN201710540895 A CN 201710540895A CN 107689062 A CN107689062 A CN 107689062A
- Authority
- CN
- China
- Prior art keywords
- point
- image
- triangle
- characteristic point
- triangulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 1
- 238000006073 displacement reaction Methods 0.000 abstract description 6
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 230000005855 radiation Effects 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明是一种基于三角剖分的室内视觉定位方法,获得更精确的特征点匹配,从而得到更好的位移和方向的估计。本方法引入了图像的全局性,分为3个过程。1)序列图像进行预处理,FAST特征点提取算法采集图像特征点,并对特征点点集使用DELAUNAY三角剖分,使得特征点之间产生相对位置的关系;2)对于当前帧,使用KLT特征点跟踪代替匹配算法,确定匹配点,并使用参考帧的三角连接关系,连接当前帧对应的匹配点,检测形成的新三角形是否存在重叠区域,若存在则记录该三角形的三个顶点,作为可能误匹配的点,迭代求解最有可能误匹配的点对并去除;3)用六参数放射模型计算出图像的相对偏移量,在上位机界面上实时的画出摄像头的移动轨迹。
Description
技术领域:
本发明属图像处理领域。是一种利用计算机技术、数字图像处理技术、光学技术等实现室内视觉定位方法。该方法能实现对摄像头摄取视频的进行分析,并绘制出摄像头的移动轨迹。
背景技术:
三角剖分是拓扑学、图形领域里重要的研究方法。广泛应用于三维重建、人脸识别中。其中最著名的Delaunay三角剖分(DT,Delaunay Triangulation),按照最小内角最大化原则形成的剖分,DT是许多领域实际应用中最受关注的一类,应用十分广泛,该剖分可追溯到G.Voronoi图,是于1907年提出的,后来Delaunay在1932年提出了解决该剖分完整而实用的方法,近几十年来该算法不断得到改进,以适应不同的应用。
Delaunay三角剖分的实现主要有三种方式:分治算法、逐点插入法() 与三角网生成法。由于三角网的时间效率较低。而分治算法的空间效率较低,因而选择逐点插入法中的Bowyer-Watson作为Delaunay三角剖分的实现方式。本文提出一种在摄像头朝向地面时利用Delaunay三角剖分剔除误匹配的方法。
发明内容:
本发明根据视觉定位要求高效的实时性和精确性,采用FAST算法提取特征点,KLT跟踪特征点。根据摄像头垂直于地面,采集的图像无遮挡的特点,针对这种情况下的图像中各个区域的相互位置保持不变,提出一种Delaunay 三角剖分剔除误匹配的方法。不同于其他误匹配剔除方法以及特征点匹配只考虑图像特征点的局部性,本方法是利用三角剖分去表示特征点的相对关系,引入了图像的全局性。在剔除误匹配后,使用运动估计方法计算出序列图像中连续两幅图像的偏移量,从而计算摄像头的位移大小和方向。
本发明的技术方案参见图1、图2。是在计算机的上位机平台上运行,用摄像头采集地面的序列图像,并对图像进行预处理。跟踪前一帧图像的特征点获取匹配点,再通过本文提出的三角剖分去除误匹配方法剔除错误匹配,最后进行运动估计,计算出序列图像的偏移大小和方向,在计算机的上位机平台上,根据偏移大小和方向画出摄像头的运动轨迹,本发明的特征在于该方法还依次包括下述步骤:
1)首先提取摄像头采集地面的序列图像,对图像进行畸变矫正,再灰度化得到灰度图,之后对灰度图高斯滤波去除噪声。
2)然后用FAST算法提取预处理后的图像中的特征点。并对特征点点集做DELAUNAY三角剖分,使得特征点之间产生连接关系,并存入三角形链表。
3)根据第2)步骤中得到的特征点,使用KLT特征点跟踪代替匹配算法,确定特征点匹配对,直到特征点的数量少于阈值(这里的阈值为FAST算法提取图像特征点数量的平均值)。
4)根据第3)第二步骤得到的匹配对,由于摄像头对准地面,不存在遮挡的情况,所以特征点之间的相对位置保持不变,因此本文首次提出使用三角剖分去表示特征点之间的相对关系。将上一帧的三角连接关系,传递到当前帧,并对所对应的匹配点进行连接,形成新的三角形。由于三角剖分形成的三角形不存在重叠区域,并且无遮挡情况下的图像中的区块位置关系是保持不变的。因此,如果匹配正确,则新形成的三角形之间不存在重叠区域。若两个三角形存在重叠区域,则记录该三角形的三个顶点,作为可能误匹配的点,最后,迭代求解最有可能误匹配的特征点点对并去除。
5)根据第4)步骤中得到的正确匹配点对,采用六参数仿射模型,计算图像的偏移大小和方向。
6)根据第5)步骤中计算出的图像偏移大小和方向,在上位机上实时绘制摄像头的移动轨迹。
本方法旨在根据摄像头获取的地面序列图像,用基于三角剖分的误匹配剔除方法获得更精确的特征点匹配,从而得到更好的位移和方向的估计。并实时在上位机实时的绘制出摄像头的移动轨迹。
附图说明:
图1是该分析方法应用系统结构框图
1.机械平台,2.摄像头,3.计算机,4.显示器;
图2是该室内定位方法的主流程图;
图3是特征点提取和三角剖分的结果图。
图4是正交投影示意图;
图5是该分析方法的主程序流程图;
具体实施方式:
本发明实施中是采用图像摄取装置实现图像的采集,并将图像传输至计算机,对传入的序列图进行畸变矫正与灰度化。对于当前图像帧,使用FAST 算法提取特征点,并初始化三角连接关系。之后,使用KLT算法获得前后两幅图像特征点的粗匹配,接着使用上一帧图像的三角连接关系去除误匹配的特征点,得到正确的匹配对。根据匹配结果用六参数仿射模型估计出摄像头的位移大小和方向。实施过程见图5,具体实施中将图像传输至计算机后,在计算机中完成以下程序:
1、输入序列图像。
1)采用基于标定模板的方法求取畸变系数后,对图像进行畸变矫正。
2)对RGB图像进行灰度化,本文使用加权平均法得到灰度图,其中R为红色通道分量,G为绿色通道分量、B为蓝色部分分量。见公式1。
Gray=0.11B+0.59G+0.3R (1)
3)采用高斯滤波去除图像中的噪声影响。
2、初始化参数,对于系统启动后的第一帧图像,使用OPENCV库中的 FAST算法提取图像特征点,作为参考帧的特征点,存入特征点容器ref_point。对于第二帧图像,采用KLT算法跟踪ref_poin点集,获得匹配点点集cur_point。之后进入步骤3。
3、首先采集序列图像,再对图像作预处理(与步骤1中的图像处理过程相同)。并将ref_point点集覆盖为cur_point点集。之后进入步骤4。
4、采用KLT特征点跟踪算法子程序跟踪参考帧点集ref_point获得当前帧的匹配点集cur_point,并判断当前帧匹配点的数量是否大于给定的阈值(这里的阈值为FAST算法提取图像特征点的数量的平均值)。
1)若数量小于阈值,则认为匹配的数量不满足要求。需重新获得匹配点,即对上一帧图像提取特征点,在当前帧图像中,使用KLT算法跟踪特征点获得新的匹配cur_point点集,并跳转到步骤3。
2)若匹配点数量大于阈值,满足要求,则继续运行到步骤5。
5、对于参考帧的特征点点集ref_point做DELAUNAY三角剖分。本文选择逐点插入法中的Bowyer-Watson作为Delaunay三角剖分的实现方式,该算法始于一个外部的虚拟三角形,所有的外部点都连接着两个虚拟三角的顶点,通过检查可以确定由点集构成的外部轮廓。再逐个加入内部点,并在三角形的外接圆内搜索该点,去掉包含该点的三角剖分。利用Voronoi划分确定在何处插入Delaunay线,重新构造三角形。图3为特征点提取与三角剖分的结果。剖分结束后,将剖分后的的每个三角形的三个坐标存入容器triangleList,作为特征点之间的连接关系。之后进入步骤6。
6、该步骤分为以下3个阶段:
1)对cur_point使用三角关系(triangleList)进行连线,形成三角形。检测每个三角形区域是否存在重叠,若存在,则记录在candidate三角形容器中。之后进入下一小步骤2)。
2)对所有重叠的三角形面积进行判断,确定面积最大的三角形Tmax,并存入triangleListDelete三角形容器中,继续检测是否存在重叠面积与Tmax 相等的三角形,若存在,将所有符合要求的三角形存入triangleListDelete三角形容器中,之后从candidate中剔除上面所使用了的三角形(加入 triangleListDelete容器中的三角形)。进入下一小步骤3)。
3)判断是否使用了candidate三角形容器中所有的三角形,三角形之间有无重叠,剔除的三角形数量是否大于规定阈值(这里的阈值设为三角剖分所产生的三角形的数量的1/3。防止剔除匹配点的数量过多,导致没有足够匹配点进行精确位姿估计),以及重叠区域面积最大的三角形Tmax的面积是否小于规定阈值(这里的阈值最小设置为0,值越大剔除的条件越苛刻),若上面四个判断有一个为是,回到上一小步骤2)。否则进入下一小步骤4)。
4)将所有需要剔除的误匹配点按坐标绘制在一张二维MapDelTra图上,然后检测所有粗匹配的特征点cur_point,若匹配点的坐标在MapDelTra图上的位置的数值不为0,则剔除。最后得到剔除误匹配后的cur_point,并进入步骤7。
7、采用六参数仿射模型,得到当前帧图像相对于参考帧图像的偏移量。偏移量主要包含相对于X轴上发生的偏移量Δx与Y轴上发生的偏移量Δy。摄像机发生位移变化的六参数仿射模型表达式如下:
式中(xi-1,yi-1)和(xi,yi)为第i-1帧和第i帧图像的匹配点像素坐标, (a1,a2,a3,a4,a5,a6)为图像帧之间的变换参数,a3、a6表示图像的平移运动,a1、a2、 a4、a5表示图像的缩放、旋转运动。k为缩放运动参数,并假设摄像机在水平 X方向和垂直Y方向上的缩放系数一致;θ为相对于图像中心的旋转角度,c 为横坐标偏移量,d为纵坐标偏移量。得到偏移量后进入步骤8。
8、如果x轴和y轴的偏移改变了,则更新上位机上面的坐标,绘制轨迹,否则不更新上位机界面。之后回到步骤3。
Claims (1)
1.基于三角剖分的室内视觉定位方法,是在计算机的上位机平台上运行,用摄像头采集地面的序列图像,并对图像进行预处理;特征点提取算法使用FAST算法,特征点匹配使用KLT算法代替;在误匹配剔除阶段,通过本文提出的三角剖分去除误匹配方法剔除错误匹配;最后进行运动估计,本发明的特征在于该方法还依次包括下述步骤:
1)首先提取摄像头采集地面的序列图像,对图像进行畸变矫正后、再灰度化得到灰度图,之后进行高斯滤波对图像进行去噪声处理;采用FAST特征点检测算法检测特征点,并对特征点点集做DELAUNAY三角剖分,使得特征点之间产生连接关系,并存入三角形坐标容器中;
2)根据第1)步骤中得到的特征点,使用KLT特征点跟踪代替匹配算法,确定特征点匹配对;
3)根据第2)第二步骤得到的匹配对,将参考帧的三角连接关系,传递到当前帧,由于摄像头对准地面,不存在遮挡的情况,所以特征点之间的相对位置保持不变,因此本文提出使用三角剖分去表示特征点之间的相对关系;由于三角剖分划分的三角形没有重合区域,所以匹配点根据参考帧的连接关系而形成的新三角形同样不存在重合区域;若两个三角形存在重复区域,则记录该三角形的三个顶点,作为可能误匹配的点,最后,迭代求解最有可能误匹配的点对并去除;
4)根据第3)步骤中得到的正确匹配点对,采用六参数仿射模型,计算图像的偏移大小和方向;
5)根据第4)步骤中计算出的图像偏移大小和方向,在上位机上实时的画出摄像头的移动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710540895.1A CN107689062A (zh) | 2017-07-05 | 2017-07-05 | 基于三角剖分的室内视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710540895.1A CN107689062A (zh) | 2017-07-05 | 2017-07-05 | 基于三角剖分的室内视觉定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107689062A true CN107689062A (zh) | 2018-02-13 |
Family
ID=61152807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710540895.1A Pending CN107689062A (zh) | 2017-07-05 | 2017-07-05 | 基于三角剖分的室内视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107689062A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111375A (zh) * | 2019-03-29 | 2019-08-09 | 中国地质大学(武汉) | 一种Delaunay三角网约束下的影像匹配粗差剔除方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198491A (zh) * | 2013-01-31 | 2013-07-10 | 北京工业大学 | 室内的视觉定位方法 |
CN104023228A (zh) * | 2014-06-12 | 2014-09-03 | 北京工业大学 | 一种基于全局运动估计的自适应室内视觉定位方法 |
US20160379375A1 (en) * | 2014-03-14 | 2016-12-29 | Huawei Technologies Co., Ltd. | Camera Tracking Method and Apparatus |
-
2017
- 2017-07-05 CN CN201710540895.1A patent/CN107689062A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198491A (zh) * | 2013-01-31 | 2013-07-10 | 北京工业大学 | 室内的视觉定位方法 |
US20160379375A1 (en) * | 2014-03-14 | 2016-12-29 | Huawei Technologies Co., Ltd. | Camera Tracking Method and Apparatus |
CN104023228A (zh) * | 2014-06-12 | 2014-09-03 | 北京工业大学 | 一种基于全局运动估计的自适应室内视觉定位方法 |
Non-Patent Citations (2)
Title |
---|
王向军等: "Delaunay三角剖分和仿射约束的特征相同多物体同名点立体匹配", 《光学学报》 * |
陈智翔等: "基于FAST-SURF算法的移动增强现实跟踪技术", 《计算机与现代化》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111375A (zh) * | 2019-03-29 | 2019-08-09 | 中国地质大学(武汉) | 一种Delaunay三角网约束下的影像匹配粗差剔除方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN109903312B (zh) | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 | |
CN109059895B (zh) | 一种基于手机摄像头和传感器的多模态室内测距及定位方法 | |
CN110580723B (zh) | 一种利用深度学习和计算机视觉进行精准定位的方法 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN111563442A (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN109949340A (zh) | 基于OpenCV的目标尺度自适应跟踪方法 | |
CN108648194B (zh) | 基于cad模型三维目标识别分割和位姿测量方法及装置 | |
CN111161313B (zh) | 一种视频流中的多目标追踪方法及装置 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN112418288B (zh) | 一种基于gms和运动检测的动态视觉slam方法 | |
CN107657644B (zh) | 一种移动环境下稀疏场景流检测方法和装置 | |
CN105242568B (zh) | 基于数字图像处理的烟叶精确剔除控制方法 | |
CN110136174B (zh) | 一种目标对象跟踪方法和装置 | |
CN104408741A (zh) | 一种时序一致性约束的视频全局运动估计方法 | |
CN113393439A (zh) | 一种基于深度学习的锻件缺陷检测方法 | |
CN110738667A (zh) | 一种基于动态场景的rgb-d slam方法和系统 | |
CN111709982B (zh) | 一种动态环境三维重建方法 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN106529441A (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN111723778A (zh) | 基于MobileNet-SSD的车辆测距系统及方法 | |
CN115147344A (zh) | 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法 | |
CN112432653B (zh) | 基于点线特征的单目视觉惯性里程计方法 | |
CN104104911B (zh) | 全景图像生成过程中的时间戳消除和重置方法及系统 | |
CN109544632A (zh) | 一种基于层次主题模型的语义slam对象关联方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180213 |