CN105741320A - 一种高实时性机器视觉运动分析方法 - Google Patents
一种高实时性机器视觉运动分析方法 Download PDFInfo
- Publication number
- CN105741320A CN105741320A CN201610056555.7A CN201610056555A CN105741320A CN 105741320 A CN105741320 A CN 105741320A CN 201610056555 A CN201610056555 A CN 201610056555A CN 105741320 A CN105741320 A CN 105741320A
- Authority
- CN
- China
- Prior art keywords
- tracking
- point
- matching
- matching point
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种高实时性机器视觉运动分析方法,通过双目摄像机实时采集图像,采用SURF方法提取并匹配当前帧左右图像特征点,并对前后帧左图特征点进行跟踪,得到前后帧跟踪匹配点对集合;直接采用奇异值分解方法计算运动参数,利用该参数计算跟踪匹配点误差并剔除包含粗大误差的跟踪匹配点对,得到有效跟踪匹配点对集合;最后再通过奇异值分解方法得到经优化的运动参数。本发明利用前后帧跟踪匹配点对集合中仅有极少数跟踪匹配点对存在粗大误差的特点,直接对所有跟踪匹配点对计算运动参数,进而通过运动参数剔除包含粗大误差的跟踪匹配点对,显著提高了运动分析精度,而且相对于其他运动分析优化方法大大减少了计算量,更有利于机器视觉运动分析的实际应用。
Description
技术领域
本发明涉及机器视觉运动分析的技术领域,具体涉及一种高实时性机器视觉运动分析方法,通过剔除包含粗大误差的跟踪匹配点对,以此进一步提高运动分析精度,相对于其他运动分析方法减少了计算量,更有利于机器视觉运动分析的实际应用。
背景技术
随着计算机视觉技术的不断发展,同时考虑到立体视觉信息量大,适用范围广的特点,利用立体视觉模拟人类双眼处理景物的方式来获得相机自身运动的方法越来越多地运用到无人驾驶以及自主导盲系统中。在这些系统中,视觉运动分析的精度和速度直接影响该系统的安全性和实用性。然而视觉运动分析中得到匹配点的匹配精度参差不齐,其中存在匹配误差较大的匹配点,这些匹配点只能得到误差较大的三维信息,而误差较大的三维信息将大大降低运动分析的精度。为了消除这些大误差匹配点的影响,通常采用RANSAC算法,从匹配点集中找到误差较小的匹配点集合,进而只利用小误差匹配点集进行运动分析,以提高运动分析的精度。但是,由于RANSAC算法是一种随机性方法,必须经过多次迭代才能获得较为精确的参数,而且迭代次数随特征点增多而增加,因此采用RANSAC算法获得精确参数的计算量很大,难以保证整体算法的实时性。
发明内容
本发明要解决的技术问题为:针对常规视觉运动分析中RANSAC算法因计算量大导致实时性差的问题,提出一种快速剔除包含粗大误差的跟踪匹配点对的方法,相对于其他运动分析优化方法减少了计算量,显著提高算法的实时性,更有利于机器视觉运动分析的实际应用。
本发明解决上述技术问题所采用的技术方案是:一种高实时性机器视觉运动分析方法,通过双目摄像机实时采集图像,采用SURF方法提取并匹配当前帧左右图像特征点,并对前后帧左图特征点进行跟踪,得到前后帧跟踪匹配点对集合;直接采用奇异值分解方法计算运动参数,利用该参数计算跟踪匹配点误差并剔除包含粗大误差的跟踪匹配点对,得到有效跟踪匹配点对集合;最后再通过奇异值分解方法计算优化后的运动参数。具体包括以下步骤:
步骤(1)、在实时采集双目摄像机图像的基础上,采用SURF方法提取并匹配当前帧左右图像特征点,得到左右图像匹配点对集合;
步骤(2)、对前后帧左图特征点进行跟踪,得到前后帧跟踪点对集合,关联当前帧与前一帧左右图像匹配点对集合,得到前后帧跟踪匹配点对集合;
步骤(3)、在计算所有跟踪匹配点对三维坐标的基础上,采用奇异值分解方法计算运动参数,并利用该参数得到跟踪匹配点对误差,剔除包含粗大误差的跟踪匹配点对,得到有效跟踪匹配点对集合;
步骤(4)、在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。
本发明的基本原理是:基于机器视觉原理,匹配跟踪特征点得到前后帧跟踪匹配点对,利用前后帧跟踪匹配点对集合仅有极少数点对存在粗大误差的特点,直接对所有跟踪匹配点对进行奇异值分解,从而获得运动参数,并利用该参数剔除包含粗大误差的跟踪匹配点对,得到有效的跟踪匹配点对。在计算得到有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法获得经优化的运动参数。
其中,利用前后帧跟踪匹配点对集合仅有极少数点对存在粗大误差的特点,直接对所有跟踪匹配点对进行奇异值分解,从而获得运动参数,并利用该参数剔除包含粗大误差的跟踪匹配点对,得到有效的跟踪匹配点对的基本原理是:直接对所有跟踪匹配点对进行奇异值分解得到的运动参数Rc,Tc,虽然计算过程中没有剔除跟踪匹配点对集合中包含粗大误差的跟踪匹配点对,但是考虑到跟踪匹配点对集合中仅有极少数点对存在粗大误差的特点,计算得到的运动参数Rc,Tc仍能作为衡量跟踪匹配点对误差E大小的一个标准。对于跟踪匹配点对误差E的定义如下:
E=(Pc-RcPp-Tc)2
其中Pc,Pp分别代表当前帧和前一帧跟踪匹配点对的三维坐标。
对于每一个前后帧跟踪匹配点对都可以得到一个跟踪匹配点对误差{Ei|i=1,2,…,m},m为跟踪匹配点对的个数,计算跟踪匹配点对误差E的均值μ及其方差σ:
根据误差原理,我们将Ei>(μ+3σ)的跟踪匹配点对误差称为粗大误差,也正是粗大误差降低了由奇异值分解方法得到的运动参数的精度。因此需要将包含粗大误差的跟踪匹配点对剔除,进而得到有效的跟踪匹配点对。
本发明与现有技术相比的优点在于:只需要计算出所有前后帧跟踪匹配点对误差{Ei|i=1,2,…,m}就能剔除所有包含粗大误差的跟踪匹配点对,得到有效跟踪点对。在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。与多次迭代的RANSAC算法相比本发明不仅保证了运动分析参数的精度,而且大大减少了算法的计算量,更有利于机器视觉运动分析的实际应用。
附图说明
图1为本发明提出的一种高实时性机器视觉运动分析算法的总体流程图。
图2为本发明中SURF匹配流程图。
图3为本文发明中获得有效跟踪匹配点对流程图。
具体实施方式
下面结合附图以及具体实施例对本发明方法做详细说明:
步骤1:读取当前帧左右图像,用SURF方法分别提取左图像特征点集k1c和右图像特征点集k2c,计算左图像特征点描述子集d1c和右图像特征点描述子集d2c,并对当前帧左右图特征点集k1c,k2c进行SURF匹配,流程如附图2所示
步骤1-1:对于左图中每个特征点在右图中找到与其描述子向量距离最小的两个特征点,分别称之为最近邻和次近邻,并称左图特征点与右图最近邻以及次近邻的描述子向量距离为d1,d2;
步骤1-2:比例约束校验:设定比例约束阈值r,若左图某个特征点的则该特征点与最近邻匹配成功,得到从左图到右图的一组匹配;左图到右图的所有匹配点对集合m1;
步骤1-3:一致性约束校验:交换匹配顺序,重复步骤1-1和1-2,得到从右图到左图的另一组匹配;右图到左图的所有匹配点对集合m2;对比m1和m2,删除其中不一致的集合元素,得到匹配点对集合m3。
步骤1-4:极线约束校验:利用左右摄像机的内、外参数,计算左图特征点对应的右图极线;设定阈值t,检验匹配点对集合m3中对应的右图特征点到极线的距离dist,删去dist>t的匹配点对,得到最终的匹配点对集合Mc。
如果当前输入图像是第一帧,直接进入步骤5,更新前一帧左右图像特征点k1p,k2p,前一帧左右图像特征点描述子集d1p,d2p和前一帧左右图像匹配点对集合Mp。其中,前后帧左右图像匹配点对集合Mc,Mp包含了每一组匹配特征点描述子之间的向量距离以及每一组匹配特征点分别在左右图中的索引号。
步骤2:如果当前输入图像不是第一帧,由当前帧及前一帧左图像的特征点提取结果k1p,k1c,及计算得到的特征点描述子d1p,d1c跟踪前后帧左图特征点。采用步骤1-1至步骤1-3对前后帧特征点跟踪进行校验,得到前后帧左图之间的跟踪点对集合Mcp。结合当前帧匹配点对集合Mc以及前一帧匹配点对集合Mp,找到三个集合中拥有共同索引号的跟踪匹配点对。首先,找到Mc中左图特征点索引号与Mcp中当前帧特征点索引号相同的特征点,由此得到新的当前帧匹配点对集合newMc和新的前后帧跟踪点对集合newMcp,这两个集合大小相同而且其中元素一一对应;进而找到newMcp前一帧特征点索引号与Mp左图特征点索引号相同的特征点,最终能够得到关联三个集合的前后帧跟踪匹配点对集合。
步骤3:对于跟踪匹配点对误差E的定义如下:
E=(Pc-RcPp-Tc)2
其中Pc,Pp分别代表当前帧和前一帧跟踪匹配点对的三维坐标。
对于每一个前后帧跟踪匹配点对都可以得到一个跟踪匹配点对误差{Ei|i=1,2,…,m},m为跟踪匹配点对的个数,计算跟踪匹配点对误差E的均值μ及其方差σ:
根据误差原理,我们将Ei>(μ+3σ)的跟踪匹配点对误差称为粗大误差,也正是粗大误差降低了由奇异值分解方法得到的运动参数的精度。因此需要将包含粗大误差的跟踪匹配点对剔除,进而得到有效的跟踪匹配点对。算法流程如附图3所示。
步骤4:计算有效跟踪匹配点对在当前帧及前一帧摄像机坐标系下的三维坐标为Pc(Xc,Yc,Zc),Pp(Xp,Yp,Zp)。得到n对前后帧对应特征点三维坐标{Pcj,Ppj|j=1,2,…,n},其中Pcj,Ppj之间存在如下关系:
Pcj=RPpj+T
其中Pcj,Ppj分别代表当前帧和前一帧中第j个特征点对应的左摄像机坐标系下的三维坐标,矩阵R和向量T分别代表相机的旋转矩阵和平移矢量。
采用奇异值分解计算旋转矩阵R和平移矢量T的最优解,具体算法如下:
1、计算前后帧对应特征点三维坐标集Pcj(j=1,2,…,n)和Ppj(j=1,2,…,n)的质心:
2、特征点三维坐标集中每个点都减去质心这样就形成了一对新的特征点三维坐标集
3、计算其中n为匹配点对个数;
4、对Q做奇异值分解,Q=UDVT;
5、若det(U)*det(V)=1,R=VUT;若det(U)*det(V)=-1,则R=VSUT,其中S=[diag(1,1,…,-1)N];
6、最后求得
步骤5:更新前一帧左右图像特征点k1p,k2p,前一帧左右图像特征点描述子集d1p,d2p和前一帧左右图像匹配点对集合Mp。返回步骤1。
Claims (5)
1.一种高实时性机器视觉运动分析方法,其特征在于,该方法包括下列步骤:
步骤(1)、在实时采集双目摄像机图像的基础上,采用SURF方法提取并匹配当前帧左右图像特征点,得到左右图像匹配点对集合;
步骤(2)、对前后帧左图特征点进行跟踪,得到前后帧跟踪点对集合,关联当前帧与前一帧左右图像匹配点对集合,得到前后帧跟踪匹配点对集合;
步骤(3)、在计算所有跟踪匹配点对三维坐标的基础上,采用奇异值分解方法计算运动参数,并利用该参数得到跟踪匹配点对误差,剔除包含粗大误差的跟踪匹配点对,得到有效跟踪匹配点对集合;
步骤(4)、在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。
2.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(1)中采用SURF方法提取特征点并计算特征点描述子,在右图中找到与左图特征点描述子向量距离最小和次小的特征点分别称为最近邻与次近邻,以上称为初步匹配;再通过比例约束,对称性约束以及极线约束消除初步匹配中存在的误匹配,最终得到较为精确的左右图匹配点对集合。
3.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(2)中对当前帧的特征点在前一帧找到其最近邻与次近邻,再通过比例约束和对称性约束消除初步跟踪中存在的误跟踪,得到较为精确的前后帧左图跟踪点对集合,结合步骤(1)中得到的当前帧及前一帧的左右图匹配点对集合,分别在前一帧和当前帧中找到左图跟踪点对在右图的匹配点,得到一个前后帧跟踪匹配点对,通过遍历跟踪点对集合最终能够得到跟踪匹配点对集合。
4.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(3)在计算所有跟踪匹配点对三维坐标的基础上,采用奇异值分解方法计算运动参数,并利用该参数得到跟踪匹配点对误差,剔除包含粗大误差的跟踪匹配点对,得到有效跟踪匹配点对集合,其步骤包括:
步骤(31)、利用步骤(2)得到的跟踪匹配点对集合计算所有跟踪匹配点对三维坐标,在此基础上通过奇异值分解方法计算运动参数Rc,Tc,对于每一个跟踪匹配点对通过运动参数Rc,Tc都能够计算得到一个跟踪匹配点对误差E。
步骤(32)、计算跟踪匹配点对误差E的均值μ和方差σ,剔除跟踪匹配点对误差大于(μ+3σ)的前后帧跟踪匹配点对,得到有效跟踪匹配点对集合。
5.根据权利要求1所述的基于特征点筛选的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(4)中在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610056555.7A CN105741320B (zh) | 2016-01-27 | 2016-01-27 | 一种高实时性机器视觉运动分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610056555.7A CN105741320B (zh) | 2016-01-27 | 2016-01-27 | 一种高实时性机器视觉运动分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105741320A true CN105741320A (zh) | 2016-07-06 |
CN105741320B CN105741320B (zh) | 2021-01-01 |
Family
ID=56247698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610056555.7A Active CN105741320B (zh) | 2016-01-27 | 2016-01-27 | 一种高实时性机器视觉运动分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105741320B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226640A (zh) * | 2007-12-21 | 2008-07-23 | 西北工业大学 | 基于多双目立体视觉的运动捕获方法 |
CN101303732A (zh) * | 2008-04-11 | 2008-11-12 | 西安交通大学 | 基于车载单目相机的运动目标感知与告警方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2622576A4 (en) * | 2010-10-01 | 2017-11-08 | Saab AB | Method and apparatus for solving position and orientation from correlated point features in images |
CN102682448B (zh) * | 2012-03-14 | 2015-03-04 | 浙江大学 | 一种基于双三视张量的立体视觉快速导航定位方法 |
CN102722731A (zh) * | 2012-05-28 | 2012-10-10 | 南京航空航天大学 | 一种基于改进sift算法的高效图像匹配方法 |
CN104359464A (zh) * | 2014-11-02 | 2015-02-18 | 天津理工大学 | 基于立体视觉的移动机器人定位方法 |
CN105005999B (zh) * | 2015-08-12 | 2018-08-10 | 北京航空航天大学 | 一种基于计算机立体视觉面向导盲仪的障碍物探测方法 |
CN105223957B (zh) * | 2015-09-24 | 2018-10-02 | 北京零零无限科技有限公司 | 一种手势操控无人机的方法和装置 |
-
2016
- 2016-01-27 CN CN201610056555.7A patent/CN105741320B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226640A (zh) * | 2007-12-21 | 2008-07-23 | 西北工业大学 | 基于多双目立体视觉的运动捕获方法 |
CN101303732A (zh) * | 2008-04-11 | 2008-11-12 | 西安交通大学 | 基于车载单目相机的运动目标感知与告警方法 |
Non-Patent Citations (1)
Title |
---|
赵霞 等: "基于视觉的目标定位技术的研究进展", 《计算机科学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN105741320B (zh) | 2021-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN107886477A (zh) | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 | |
CN112634341B (zh) | 多视觉任务协同的深度估计模型的构建方法 | |
CN110490928A (zh) | 一种基于深度神经网络的相机姿态估计方法 | |
EP3779881A1 (en) | Method for determining depth information and related device | |
CN104167016B (zh) | 一种基于rgb彩色与深度图像的三维运动重建方法 | |
CN106503671A (zh) | 确定人脸姿态的方法和装置 | |
CN103231708A (zh) | 一种基于双目视觉的智能车辆避障方法 | |
CN103473743B (zh) | 一种获取图像深度信息的方法 | |
CN103093479A (zh) | 一种基于双目视觉的目标定位方法 | |
CN105005999A (zh) | 一种基于计算机立体视觉面向导盲仪的障碍物探测方法 | |
CN103150728A (zh) | 一种动态环境中的视觉定位方法 | |
CN111985551B (zh) | 一种基于多重注意力网络的立体匹配算法 | |
CN101894278A (zh) | 基于变结构多模型的人体运动跟踪方法 | |
CN106203429A (zh) | 基于双目立体视觉复杂背景下的遮挡目标检测方法 | |
CN101765019A (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN105761270A (zh) | 一种基于外极线距离变换的树型滤波立体匹配方法 | |
CN110135508B (zh) | 模型训练方法、装置、电子设备及计算机可读存储介质 | |
CN113989758A (zh) | 一种用于自动驾驶的锚引导3d目标检测方法及装置 | |
CN111127401A (zh) | 一种基于深度学习的机器人立体视觉机械零件检测方法 | |
KR101869266B1 (ko) | 극한 심층학습 기반 차선 검출 시스템 및 그 방법 | |
CN107452037B (zh) | 一种基于gps辅助信息加速的从运动中恢复结构方法 | |
CN107909611A (zh) | 一种利用微分几何理论提取空间曲线曲率特征的方法 | |
CN103544732B (zh) | 一种用于月球车的三维立体重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |