CN114964206A - 一种单目视觉里程计目标位姿检测方法 - Google Patents

一种单目视觉里程计目标位姿检测方法 Download PDF

Info

Publication number
CN114964206A
CN114964206A CN202210382990.4A CN202210382990A CN114964206A CN 114964206 A CN114964206 A CN 114964206A CN 202210382990 A CN202210382990 A CN 202210382990A CN 114964206 A CN114964206 A CN 114964206A
Authority
CN
China
Prior art keywords
point
image
matching
pixel
candidate matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210382990.4A
Other languages
English (en)
Inventor
吴慧秀
郑恩辉
阙建飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202210382990.4A priority Critical patent/CN114964206A/zh
Publication of CN114964206A publication Critical patent/CN114964206A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种单目视觉里程计目标位姿检测方法。用单目相机实时采集目标图像对两帧图像进行特征点的改进提取与匹配,具体是依次用图像金字塔和灰度质心法处理,用像素级处理方法检测图像得到初始角点,用HARRIS响应值筛选后得到角点集合,邻域像素值构建角点的二进制描述子形成特征点,用快速最近邻搜索算法得到侯选特征匹配点对,用渐进一致采样方法精匹配和提纯;针对特征点的提取与匹配结果进行处理进行目标的位姿检测跟踪。本发明利用区分度更高、构建效率更高的改进角点提取算法,提高了角点检测的精度,同时采用HARRIS角点检测算法筛选优质角点,利用RANSAC算法和双向匹配法剔除误匹配对,进一步提高整体的定位精度。

Description

一种单目视觉里程计目标位姿检测方法
技术领域
本发明涉及图像处理技术领域的一种目标位姿检测方法,具体涉及一种单目视觉里程计目标位姿检测方法。
背景技术
在没有环境先验信息的情况下,利用机器人在运动过程中建立环境模型并且估计自身运动,即为同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)。随着计算机视觉的发展,以视觉传感器为主体的视觉SLAM技术逐渐进入人们的视线。
图像特征点提取与匹配在图像拼接、目标识别、视觉跟踪、三维重建等研究领域中得以广泛应用。现有的特征点类型较多,例如SIFT,SURF,等特征点。特征点提取法是目前的主流,特征点提取算法比SIFT和SUFT算法在运算速度上快了1个数量级,具有较好的实时性。但是算法的鲁棒性相对较差,特征点的提取和匹配性能较差。如何保证算法运算效率的同时,提高其特征点提取与匹配性能是目前研究的热点问题。
在没有环境先验信息的情况下,利用机器人在运动过程中建立环境模型并且估计自身运动,即为同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)。随着计算机视觉的发展,以视觉传感器为主体的视觉SLAM技术逐渐进入人们的视线。
单目视觉里程计是一种通过单目相机采集的图像序列估计物体相对运动的计算机视觉方法,在机器人和无人机的自主定位和导航中起着重要的作用。视觉里程计主要采取直接法和特征点法两种计算方式,直接法相对于特征法,执行速度较快,对图像的光度误差鲁棒性较高,但是对相机内参要求很高,当存在几何噪声时算法性能下降较快,对大基线运动的鲁棒性较差;特征法通过提取图像特征点和描述子,进行特征点匹配后通过最小化重投影误差计算机器人位姿,在光线昏暗环境以及照片模糊情况下,其特征检测困难,从而导致位姿跟丢,鲁棒性不好。如何保证算法运算效率的同时,提高其特征点提取与匹配精度是目前研究的热点问题。
发明内容
为了解决现有技术的缺点与不足,本发明提供了具有改进特征点提取与匹配的一种单目视觉里程计目标位姿检测方法。
为实现上述目的,本发明采用如下技术方案:
1)用单目相机实时采集带有目标的图像;
2)用改进的方法对前后两帧相邻图像进行特征点的提取与匹配,获得特征匹配点对;
3)针对特征点的提取与匹配结果获取与之对应的相机的外参矩阵,再根据外参矩阵实时对每一帧的图像进行处理实现目标的位姿检测跟踪。
所述2)具体为:
步骤S1:依次采用图像金字塔和灰度质心法对步骤1)获得的原始图像进行处理;
步骤S2:利用像素级处理方法检测步骤S1处理后的图像得到初始角点,针对所有初始角点计算HARRIS响应值并筛选后得到角点集合;
步骤S3:基于邻域像素值构建角点的二进制描述子BRIEF,并形成特征点;
步骤S4:采用快速最近邻搜索算法FLANN对待配准图像和参考图像处理得到侯选特征匹配点对;
步骤S5:先采用RANSAC算法对侯选特征匹配点对进行筛选,再利用双向交叉匹配的方式对筛选后的侯选特征匹配点对进行精匹配和提纯,获得特征匹配点对,使得匹配结果更为精确。
所述步骤S1中,对步骤1)采集的原始图像进行处理,先输入到图像金字塔中进行尺度归一化,再采用灰度质心法得到旋转归一化,获得处理后的图像。
所述步骤S2具体为:
步骤S21:在图像中遍历每个像素点作为参考像素点P,参考像素点P的亮度为IP,预先设置亮度变化阈值为T;
步骤S22:以参考像素点P为中心建立半径为4像素的圆,对位于圆边缘上的24个像素点沿固定的一个时针方向进行顺序标号;
步骤S23:将标号为1、5、9、13、17、21的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则,再进入步骤S14;
步骤S24:将标号为3、7、11、15、19、23的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则参考像素点P不是角点;
步骤S25:遍历位于圆边缘上的24个像素点中每组连续的18个像素点,并判断:若有连续的18个像素点的亮度均大于IP+T或小于IP-T,则参考像素点P是初始角点,否则像素点P不是初始角点;
步骤S26:重复步骤S12~S15,对每一个像素点执行相同的操作,完成每一个像素点是否为初始角点的判断。
所述步骤S3具体为:
以角点为中心框选一个N×N大小的矩形窗口,随机选取128对在该窗口内坐标位置满足高斯分布
Figure BDA0003592589010000031
的像素点对i和j(解释:相当于以角点为原点,i的坐标为(-1,-1),j的坐标为(1,1),坐标位置均值为0,),i和j,再针对其中每对像素点对处理获得比较参数:
Figure BDA0003592589010000032
其中,Ii、Ij分别表示像素点对中的两个像素点对,i、j分别表示像素点的序数,BREIFi,j表示像素点i和j之间的像素值大小比较参数;
将所有对像素点对的比较参数共同构成该角点的描述子,将每个角点及其对应的一个描述子构成一个特征点,从而将各个角点处理变成了特征点。
所述步骤S4具体为:以前一帧图像作为参考图像,以后一帧图像作为待配准图像,待配准图像和参考图像的特征点使用FLANN快速最近邻搜索算法处理获得各个候选匹配点对。
所述步骤S5中,双向交叉匹配的方式具体步骤为:
S51、以参考图像中的候选匹配特征点作为遍历对象,针对参考图像中的候选匹配特征点E1,遍历待配准图像中的各个候选匹配特征点,得到针对参考图像中的候选匹配特征点E1在待配准图像中匹配的最近邻候选匹配特征点E11和次近邻候选匹配特征点E12,最近邻候选匹配特征点E11和次近邻候选匹配特征点E12满足如下关系式:
Figure BDA0003592589010000033
其中,D(E1,E11),D(E1,E12)分别是参考图像的候选匹配特征点E1与待配准图像的最近邻候选匹配特征点E11、次近邻候选匹配特征点E12的距离相似性度量值,具体可采用汉明距离;
所述的最近邻候选匹配特征点E11是指待配准图像中的候选匹配特征点和参考图像中的候选匹配特征点E1之间的汉明距离最小,即最匹配的候选匹配特征点。次近邻候选匹配特征点E12是指待配准图像中的候选匹配特征点和参考图像中的候选匹配特征点E1之间的汉明距离次小。
如满足上述关系式,则取参考图像中的候选匹配特征点E1和待配准图像中的最近邻候选匹配特征点E11构成候选匹配对;
S52、以参考图像中的候选匹配特征点作为遍历对象,按照S51遍历参考图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第一候选匹配对集合A;
S53、以待配准图像中的候选匹配特征点作为遍历对象,按照S51遍历待配准图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第二候选匹配对集合B;
最后再将第一候选匹配对集合A和第二候选匹配对集合B进行比较,如果两个集合中各自的一个候选匹配对之间完全相同,则该候选匹配对被认为是有效的匹配对,最终筛选后以所有有效的匹配对组成作为最终的特征点匹配对集合。
所述步骤3)是具体利用最终获得的特征匹配点对根据相机的投影原理计算得到描述相机运动的旋转矩阵和平移向量,实现视觉里程计的参数设置。
本发明与现有技术相比具有以下有益效果:
本发明首先对特征点提取进行改进,将点提取算法扩大局部像素检测范围,提高角点提取的精度,同时加入预测试操作,极大加快了角点检测速度。
本发明其次采用快速最近邻搜索算法代替传统的暴力匹配,大大减少了计算量;最后将传统的RANSAC算法替换成渐进一致采样方法,排除RANSAC算法的随机性和盲目性,进一步提高匹配精度。
附图说明
图1是本发明方法的逻辑流程图;
图2是本发明角点检测范围示意图。
图3是实验的TUM数据集的详细信息图;
图4是本发明算法和ORB-SLAM2算法的实验结果对比图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
请参照图1,本发明的具体实施例及其实施过程如下:
1)用单目相机实时采集带有目标的图像;
2)用改进的方法对前后两帧相邻图像进行特征点的提取与匹配,获得特征匹配点对;
步骤S1:依次采用图像金字塔和灰度质心法对步骤1)获得的原始图像进行处理;
具体对步骤1)采集的原始图像进行处理,先输入到图像金字塔中进行尺度归一化,再采用灰度质心法得到旋转归一化,获得处理后的图像。
构建图像金字塔具体为:原始图像通过高斯滤波进行降噪,将原始图像作为图像金字塔的第0层,依次进行1/1.2缩放比例进行降采样得到共计8张图片(包括原始图像),然后分别对得到的8张图像进行角点提取,并记录角点所在金字塔的第几层,得到一帧图像的角点。
将下一帧图像按比例缩放得到八张图像,然后提取角点,能够保证该帧图像经过缩放后其中某一帧的角点大小与上一帧的角点大小相同,消除图像上近大远小的视觉误差。
步骤S2:利用像素级处理方法检测步骤S1处理后的图像得到初始角点,针对所有初始角点计算HARRIS响应值并筛选后得到角点集合;
如图2所示,步骤S2具体为:
步骤S21:在图像中遍历每个像素点作为参考像素点P,参考像素点P的亮度为IP,预先设置亮度变化阈值为T;
步骤S22:以参考像素点P为中心建立半径为4像素的圆,对位于圆边缘上的24个像素点沿固定的一个时针方向进行顺序标号;
步骤S23:将标号为1、5、9、13、17、21的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则,再进入步骤S14;
步骤S24:将标号为3、7、11、15、19、23的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则参考像素点P不是角点;
步骤S25:遍历位于圆边缘上的24个像素点中每组连续的18个像素点,并判断:若有连续的18个像素点的亮度均大于IP+T或小于IP-T,则参考像素点P是初始角点,否则像素点P不是初始角点;
步骤S26:重复步骤S12~S15,对每一个像素点执行相同的操作,完成每一个像素点是否为初始角点的判断。
亮度变化阈值T设置为参考像素点P的亮度IP的20%。
具体实施中,计算每个初始角点的HARRIS响应值,将HARRIS响应值大于预设响应阈值的初始角点保留作为角点,否则不保留作为角点。
步骤S3:基于邻域像素值构建角点的二进制描述子,并形成特征点;
步骤S3具体为:
以角点为中心框选一个N×N大小的矩形窗口,N大于32,随机选取128对在矩形窗口内坐标位置满足高斯分布
Figure BDA0003592589010000061
的像素点对i和j,各个像素点对中的像素点不重叠,再针对其中每对像素点对处理获得比较参数:
Figure BDA0003592589010000062
其中,Ii、Ij分别表示像素点对中的两个像素点对,i、j分别表示像素点的序数,BREIFi,j表示像素点i和j之间的像素值大小比较参数;
将所有对像素点对的比较参数共同构成该角点的128维二进制的描述子,将每个角点及其对应的一个描述子构成一个特征点,从而将各个角点处理变成了特征点。
步骤S4:采用快速最近邻搜索算法对待配准图像和参考图像处理得到侯选特征匹配点对;
具体以前一帧图像作为参考图像,以后一帧图像作为待配准图像,待配准图像和参考图像的特征点使用FLANN快速最近邻搜索算法处理获得各个候选匹配点对。
具体是,针对待配准图像的每个特征点作为参考特征点,找到参考特征点在参考图像中的每个特征点之间的距离,以其中最小距离设置距离阈值t=n×Min,n表示整数参数,若距离小于距离阈值t的参考图像中的各个特征点分别和参考特征点之间形成作为候选匹配点对。
具体实施中,n的数值设置为2。
步骤S5:先采用RANSAC算法对侯选特征匹配点对进行筛选,再利用双向交叉匹配的方式对筛选后的侯选特征匹配点对进行精匹配和提纯,获得特征匹配点对,使得匹配结果更为精确。
S51、以参考图像中的候选匹配特征点作为遍历对象,针对参考图像中的候选匹配特征点E1,遍历待配准图像中的各个候选匹配特征点,得到针对参考图像中的候选匹配特征点E1在待配准图像中匹配的最近邻候选匹配特征点E11和次近邻候选匹配特征点E12,最近邻候选匹配特征点E11和次近邻候选匹配特征点E12满足如下关系式:
Figure BDA0003592589010000071
其中,D(E1,E11),D(E1,E12)分别是参考图像的候选匹配特征点E1与待配准图像的最近邻候选匹配特征点E11、次近邻候选匹配特征点E12的距离相似性度量值,具体实施中Th是设定的阈值为0.6;
如满足上述关系式,则取参考图像中的候选匹配特征点E1和待配准图像中的最近邻候选匹配特征点E11构成候选匹配对;
S52、以参考图像中的候选匹配特征点作为遍历对象,按照S51遍历参考图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第一候选匹配对集合A;
S53、以待配准图像中的候选匹配特征点作为遍历对象,按照S51遍历待配准图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第二候选匹配对集合B;
最后再将第一候选匹配对集合A和第二候选匹配对集合B进行比较,如果两个集合中各自的一个候选匹配对之间完全相同,则该候选匹配对被认为是有效的匹配对,最终筛选后以所有有效的匹配对组成作为最终的特征点匹配对集合。
3)针对特征点的提取与匹配结果获取与之对应的相机的外参矩阵,再根据外参矩阵实时对每一帧的图像进行处理实现目标的位姿检测跟踪。
具体是利用最终获得的特征匹配点对根据相机的投影原理计算得到描述相机运动的旋转矩阵和平移向量,实现视觉里程计的参数设置。
为了验证本发明方法的定位精度,将本算法和ORB-SLAM2算法分别在公开的TUM数据集图像序列上进行测试。部分公开的TUM数据集的详细信息见图3。
为了量化定位的精度,本发明采用绝对轨迹误差(ATE)和相对位姿误差(RPE)评估算法的定位精度。ATE是估计位姿和真实位姿的直接差值,可以非常直观地反应算法精度和轨迹全局一致性;RPE是用于计算相同两个时间戳上的位姿变化量的差,适合于估计系统的漂移。
图4为ORB-SLAM2算法和本发明算法在不同数据集上的绝对轨迹误差和相对位姿误差。通过比较上面的数据,本发明算法的绝对轨迹误差和相对位姿误差均小于ORB-SLAM2算法,表明本发明的算法比ORB-SLAM2算法在定位精度方面更加精准。
本发明利用区分度更高、构建效率更高的改进角点提取算法,提高了角点检测的精度,同时采用HARRIS角点检测算法筛选优质角点,利用RANSAC算法和双向匹配法剔除误匹配对,进一步提高整体的定位精度。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (8)

1.一种单目视觉里程计目标位姿检测方法,其特征在于:方法包括以下步骤:
1)用单目相机实时采集带有目标的图像;
2)用改进的方法对前后两帧相邻图像进行特征点的提取与匹配,获得特征匹配点对;
3)针对特征点的提取与匹配结果获取与之对应的相机的外参矩阵,再根据外参矩阵实时对每一帧的图像进行处理实现目标的位姿检测跟踪。
2.根据权利要求1所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述2)具体为:
步骤S1:依次采用图像金字塔和灰度质心法对步骤1)获得的原始图像进行处理;
步骤S2:利用像素级处理方法检测步骤S1处理后的图像得到初始角点,针对所有初始角点计算HARRIS响应值并筛选后得到角点集合;
步骤S3:基于邻域像素值构建角点的二进制描述子,并形成特征点;
步骤S4:采用快速最近邻搜索算法对待配准图像和参考图像处理得到侯选特征匹配点对;
步骤S5:先采用RANSAC算法对侯选特征匹配点对进行筛选,再利用双向交叉匹配的方式对筛选后的侯选特征匹配点对进行精匹配和提纯,获得特征匹配点对。
3.根据权利要求2所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤S1中,对步骤1)采集的原始图像进行处理,先输入到图像金字塔中进行尺度归一化,再采用灰度质心法得到旋转归一化,获得处理后的图像。
4.根据权利要求2所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤S2具体为:
步骤S21:在图像中遍历每个像素点作为参考像素点P,参考像素点P的亮度为IP,预先设置亮度变化阈值为T;
步骤S22:以参考像素点P为中心建立半径为4像素的圆,对位于圆边缘上的24个像素点沿固定的一个时针方向进行顺序标号;
步骤S23:将标号为1、5、9、13、17、21的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则,再进入步骤S14;
步骤S24:将标号为3、7、11、15、19、23的六个像素点与参考像素点P的亮度进行比较:
若其中有五个像素点的亮度均大于IP+T或小于IP-T时,则参考像素点P可能是一个角点,进入步骤S15;否则参考像素点P不是角点;
步骤S25:遍历位于圆边缘上的24个像素点中每组连续的18个像素点,并判断:若有连续的18个像素点的亮度均大于IP+T或小于IP-T,则参考像素点P是初始角点,否则像素点P不是初始角点;
步骤S26:重复步骤S12~S15,对每一个像素点执行相同的操作,完成每一个像素点是否为初始角点的判断。
5.根据权利要求2所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤S3具体为:
以角点为中心框选一个N×N大小的矩形窗口,随机选取128对在该窗口内坐标位置满足高斯分布
Figure FDA0003592589000000021
的像素点对i和j,i和j,再针对其中每对像素点对处理获得比较参数:
Figure FDA0003592589000000022
其中,Ii、Ij分别表示像素点对中的两个像素点对,i、j分别表示像素点的序数,BREIFi,j表示像素点i和j之间的像素值大小比较参数;
将所有对像素点对的比较参数共同构成该角点的描述子,将每个角点及其对应的一个描述子构成一个特征点,从而将各个角点处理变成了特征点。
6.根据权利要求2所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤S4具体为:以前一帧图像作为参考图像,以后一帧图像作为待配准图像,待配准图像和参考图像的特征点使用FLANN快速最近邻搜索算法处理获得各个候选匹配点对。
7.根据权利要求2所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤S5中,双向交叉匹配的方式具体步骤为:
S51、以参考图像中的候选匹配特征点作为遍历对象,针对参考图像中的候选匹配特征点E1,遍历待配准图像中的各个候选匹配特征点,得到针对参考图像中的候选匹配特征点E1在待配准图像中匹配的最近邻候选匹配特征点E11和次近邻候选匹配特征点E12,最近邻候选匹配特征点E11和次近邻候选匹配特征点E12满足如下关系式:
Figure FDA0003592589000000031
其中,D(E1,E11),D(E1,E12)分别是参考图像的候选匹配特征点E1与待配准图像的最近邻候选匹配特征点E11、次近邻候选匹配特征点E12的距离相似性度量值;
如满足上述关系式,则取参考图像中的候选匹配特征点E1和待配准图像中的最近邻候选匹配特征点E11构成候选匹配对;
S52、以参考图像中的候选匹配特征点作为遍历对象,按照S51遍历参考图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第一候选匹配对集合A;
S53、以待配准图像中的候选匹配特征点作为遍历对象,按照S51遍历待配准图像中的每个候选匹配特征点,得到所有的候选匹配对,进而组成第二候选匹配对集合B;
最后再将第一候选匹配对集合A和第二候选匹配对集合B进行比较,如果两个集合中各自的一个候选匹配对之间完全相同,则该候选匹配对被认为是有效的匹配对,最终筛选后以所有有效的匹配对组成作为最终的特征点匹配对集合。
8.根据权利要求1所述的一种单目视觉里程计目标位姿检测方法,其特征在于:所述步骤3)是具体利用最终获得的特征匹配点对根据相机的投影原理计算得到描述相机运动的旋转矩阵和平移向量。
CN202210382990.4A 2022-04-12 2022-04-12 一种单目视觉里程计目标位姿检测方法 Pending CN114964206A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210382990.4A CN114964206A (zh) 2022-04-12 2022-04-12 一种单目视觉里程计目标位姿检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210382990.4A CN114964206A (zh) 2022-04-12 2022-04-12 一种单目视觉里程计目标位姿检测方法

Publications (1)

Publication Number Publication Date
CN114964206A true CN114964206A (zh) 2022-08-30

Family

ID=82977302

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210382990.4A Pending CN114964206A (zh) 2022-04-12 2022-04-12 一种单目视觉里程计目标位姿检测方法

Country Status (1)

Country Link
CN (1) CN114964206A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116358547A (zh) * 2022-12-09 2023-06-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116358547A (zh) * 2022-12-09 2023-06-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法
CN116358547B (zh) * 2022-12-09 2024-01-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法

Similar Documents

Publication Publication Date Title
CN108288088B (zh) 一种基于端到端全卷积神经网络的场景文本检测方法
CN108427924B (zh) 一种基于旋转敏感特征的文本回归检测方法
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN108122256B (zh) 一种逼近状态下旋转目标位姿测量的方法
CN103325112B (zh) 动态场景中运动目标快速检测方法
CN110246168A (zh) 一种移动巡检机器人双目图像拼接的特征匹配方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN103353941B (zh) 基于视角分类的自然标志物注册方法
CN108805915A (zh) 一种抗视角变化的近景影像区域特征匹配方法
CN116310098A (zh) 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法
CN112614167A (zh) 一种结合单偏光与正交偏光图像的岩石薄片图像对齐方法
CN114331879A (zh) 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法
CN117949942B (zh) 基于雷达数据和视频数据融合的目标跟踪方法及系统
JP7354468B1 (ja) 幾何学的特性に基づく軽量化された単結晶シリコン楕円パラメータの認識方法及びシステム
CN116429082A (zh) 一种基于st-orb特征提取的视觉slam方法
CN111429485A (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
CN106447662A (zh) 一种基于组合距离的fcm图像分割算法
CN110246165B (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN117372480A (zh) 一种利用自适应下采样与曲率增强点对特征的点云配准方法
CN117576095A (zh) 一种多尺度学习任务的金属表面缺陷检测和分类方法
CN113421210B (zh) 一种基于双目立体视觉的表面点云重建方法
CN114964206A (zh) 一种单目视觉里程计目标位姿检测方法
CN117496401A (zh) 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法
CN106934395B (zh) 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法
CN117593548A (zh) 基于加权注意力机制去除动态特征点的视觉slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination