CN112419409A - 一种基于实时视频的位姿估计方法 - Google Patents
一种基于实时视频的位姿估计方法 Download PDFInfo
- Publication number
- CN112419409A CN112419409A CN202011295425.1A CN202011295425A CN112419409A CN 112419409 A CN112419409 A CN 112419409A CN 202011295425 A CN202011295425 A CN 202011295425A CN 112419409 A CN112419409 A CN 112419409A
- Authority
- CN
- China
- Prior art keywords
- image
- real
- pose
- pose estimation
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008569 process Effects 0.000 claims abstract description 14
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000012937 correction Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 241000282414 Homo sapiens Species 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及视频处理技术领域,具体涉及一种基于实时视频的位姿估计方法,包括以下步骤S1利用摄像机获取实时视频数据,并建立摄像机模型;S2利用摄像机模型在三维空间点和二维图像点之间建立映射;S3对于相邻图像之间的位姿变换关系,采用对极几何的方式进行度量;S4利用PnP算法求解三维空间点到二维图像点对运动;S5持续计算新的图像帧对应的位姿变换,并保证尺度一致性;S6利用BA算法对位姿估计进行优化,最终得到最佳的位姿估计结果。本发明提升位姿非线性优化过程中对外点的抵抗能力,有效提升了位姿追踪算法的精度和鲁棒性,实现了视频序列中位姿参数的精确求解,同时本发明算法的精度高于传统算法、可靠性更强、具有很强的实时性。
Description
技术领域
本发明涉及视频处理技术领域,具体涉及一种基于实时视频的位姿估计方法。
背景技术
人类能够感知的外界信息约有80%来源于视觉图像信息,视觉功能在人类感知理解中扮演着十分重要的角色。Gibson理论"认为,人类视觉包含两个主要功能:一是适应外界环境,二是控制自身运动;Marr理论P则认为人类视觉的主要功能是从图像恢复场景的可见三维表观。这两种理论尽管描述的侧重点有所不同,但是都认为人类视觉的目的是对外界环境的感知。人类能够通过视觉感知的外界环境的基本信息又可以分为:位置、形状、运动和颜色。其中,位置信息的获取便主要通过位姿估计技术。
同时运动体也开始借助视觉传感器逐步感知自己的运动,认识自身的位置,快速追踪运动轨迹,甚至进行实时的三维重建,虽然很困难,但已经有了长足的发展。
近些年,随着自主移动机器人、可穿戴设备计算、增强现实和自动汽车驾驶等技术的急速发展,计算机视觉在其中发挥着越来越大的作用。到目前为止,以大疆的无人机、Uber自动驾驶汽车、网易增强现实平台应用等为代表的新生智能体均集成了视觉传感器,并大量投入使用,以提供环境认知、位姿估算、定位导航等功能,其适用领域呈增长趋势,具有庞大的市场需求,是目前的研究热点领域。
发明内容
针对现有技术的不足,本发明公开了一种基于实时视频的位姿估计方法,用于解决现有的位姿估计适应性和鲁棒性很差,在空间环境恶劣的光照条件和非合作目标多变的运动状态下,很难确保从目标图像中提取出正确的特征信息并正确地求得目标的位姿是我问题。
本发明通过以下技术方案予以实现:
本发明公开一种基于实时视频的位姿估计方法,所述方法包括以下步骤:
S1利用摄像机获取实时视频数据,并建立摄像机模型;
S2利用摄像机模型在三维空间点和二维图像点之间建立映射;
S3对于相邻图像之间的位姿变换关系,采用对极几何的方式进行度量;
S4利用PnP算法求解三维空间点到二维图像点对运动;
S5持续计算新的图像帧对应的位姿变换,并保证尺度一致性;
S6利用BA算法对位姿估计进行优化,最终得到最佳的位姿估计结果。
更进一步的,所述摄像机模型存在四个坐标系间的转换关系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系。兙俥
更进一步的,所述S1中,获取实时视频的数据,首先对图像进行预处理,利用畸变参数结合畸变投影模型求得原图像中像素坐标在校正以后的正确坐标,通过建立原图像像素坐标与校正后图像像素坐标的一一对应关系,得到校正后的图像,消除成像过程中产生的畸变和噪声。
更进一步的,所述方法对涉及的点特征进行搜索和匹配,具体包括以下步骤:
T1对视频序列进行适当处理,提取出连续的单一帧图像;
T2利用特定的目标检测方法检测图像序列中出现的非合作目标本体,作为前景目标;
T3若视频序列中的某一帧图像中出现前景目标,则对前景目标图像利用特征点提取算子提取特征点;
T4对此幅图像之后的任意两帧相邻图像,在前景图像中搜索上一帧图像中的特征点在当前帧图像之中的最优位置,进而求得此点在当前帧中的坐标参数;
T5对以上的过程进行迭代操作,进而实现对特征点的KLT追踪。
更进一步的,所述方法中,采用Zhang标定算法,用具有精确定位信息的平面点阵模板,通过摄像机在不同方位获得两幅以上的模板图像,利用平面模板上的特征点与其对应图像点之间的单应性矩阵来求得摄像机的内部参数,对摄像机进行标定。
更进一步的,所述方法中,在实际图像上采集特征点,然后用畸变模型反算出其在虚拟的无畸变图像中的坐标,再使用反算后的坐标参与算法求解,实现图像畸变校正。
更进一步的,所述方法中,对全图像进行畸变校正时,首先在虚拟的无畸变图像平面采样,求取采样点畸变后的坐标,然后使用求得的坐标在实际图像上采集灰度信息并填入无畸变图像上的对应位置,实现全图像进行畸变校正。
本发明的有益效果为:
本发明提升位姿非线性优化过程中对外点的抵抗能力,有效提升了位姿追踪算法的精度和鲁棒性,实现了视频序列中位姿参数的精确求解,同时本发明算法的精度高于传统算法、可靠性更强、具有很强的实时性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是一种基于实时视频的位姿估计方法原理步骤图;
图2是本发明实施例校正图像对比图;
图3是本发明实施例摄像机模型图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本实施例公开如图1所示的一种基于实时视频的位姿估计方法,所述方法包括以下步骤:
S1利用摄像机获取实时视频数据,并建立摄像机模型;
S2利用摄像机模型在三维空间点和二维图像点之间建立映射;
S3对于相邻图像之间的位姿变换关系,采用对极几何的方式进行度量;
S4利用PnP算法求解三维空间点到二维图像点对运动;
S5持续计算新的图像帧对应的位姿变换,并保证尺度一致性;
S6利用BA算法对位姿估计进行优化,最终得到最佳的位姿估计结果。
摄像机模型存在四个坐标系间的转换关系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系。兙俥
获取实时视频的数据,首先对图像进行预处理,利用畸变参数结合畸变投影模型求得原图像中像素坐标在校正以后的正确坐标,通过建立原图像像素坐标与校正后图像像素坐标的一一对应关系,得到校正后的图像,消除成像过程中产生的畸变和噪声。
本实施例采用Zhang标定算法,用具有精确定位信息的平面点阵模板,通过摄像机在不同方位获得两幅以上的模板图像,利用平面模板上的特征点与其对应图像点之间的单应性矩阵来求得摄像机的内部参数,对摄像机进行标定。
在实际图像上采集特征点,然后用畸变模型反算出其在虚拟的无畸变图像中的坐标,再使用反算后的坐标参与算法求解,实现图像畸变校正。校正后的对比图如图2所示。
对全图像进行畸变校正时,首先在虚拟的无畸变图像平面采样,求取采样点畸变后的坐标,然后使用求得的坐标在实际图像上采集灰度信息并填入无畸变图像上的对应位置,实现全图像进行畸变校正。
实施例2
本实施例公开点特征进行搜索和匹配,具体包括以下步骤:
T1对视频序列进行适当处理,提取出连续的单一帧图像;
T2利用特定的目标检测方法检测图像序列中出现的非合作目标本体,作为前景目标;
T3若视频序列中的某一帧图像中出现前景目标,则对前景目标图像利用特征点提取算子提取特征点;
T4对此幅图像之后的任意两帧相邻图像,在前景图像中搜索上一帧图像中的特征点在当前帧图像之中的最优位置,进而求得此点在当前帧中的坐标参数;
T5对以上的过程进行迭代操作,进而实现对特征点的KLT追踪。
在以上的过程中,在前景图像中搜索上一帧图像中特征点在当前帧图像之中的最优位置的过程为基于光流法的目标追踪算法的核心,KLT追踪算法的搜索匹配算子在这方面表现优异,能够实现视频图像序列中特征点较为稳定的追踪,并且其计算速度能够满足实时求解的需求。
实施例3
本实施例公开摄像机的成像模型,可以表征目标物图像坐标到其三维坐标的映射关系,是对实际相机物理参数的模型化,在本文中,采用带畸变的针孔相机模型,如图3所示,以下对其作简要描述。
通过相机成像的几何模型可以定义相机的内、外参数。在随后的研究中,主要用到相机的内参数用于后续的非合作目标位姿测量和跟踪任务。内参数指的是相机的主点、焦距、畸变参数等。
本实施例中,由于高次径向畸变参数对相机成像畸变影响极小,因此忽略对相机畸变的影响。畸变参数属于相机内部参数,不随外部条件的改变而改变。
综上,本发明提升位姿非线性优化过程中对外点的抵抗能力,有效提升了位姿追踪算法的精度和鲁棒性,实现了视频序列中位姿参数的精确求解,同时本发明算法的精度高于传统算法、可靠性更强和具有很强的实时性。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种基于实时视频的位姿估计方法,其特征在于,所述方法包括以下步骤:
S1利用摄像机获取实时视频数据,并建立摄像机模型;
S2利用摄像机模型在三维空间点和二维图像点之间建立映射;
S3对于相邻图像之间的位姿变换关系,采用对极几何的方式进行度量;
S4利用PnP算法求解三维空间点到二维图像点对运动;
S5持续计算新的图像帧对应的位姿变换,并保证尺度一致性;
S6利用BA算法对位姿估计进行优化,最终得到最佳的位姿估计结果。
2.根据权利要求1所述的基于实时视频的位姿估计方法,其特征在于,所述摄像机模型存在四个坐标系间的转换关系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系。
3.根据权利要求1所述的基于实时视频的位姿估计方法,其特征在于,所述S1中,获取实时视频的数据,首先对图像进行预处理,利用畸变参数结合畸变投影模型求得原图像中像素坐标在校正以后的正确坐标,通过建立原图像像素坐标与校正后图像像素坐标的一一对应关系,得到校正后的图像,消除成像过程中产生的畸变和噪声。
4.根据权利要求1所述的基于实时视频的位姿估计方法,其特征在于,所述方法对涉及的点特征进行搜索和匹配,具体包括以下步骤:
T1对视频序列进行适当处理,提取出连续的单一帧图像;
T2利用特定的目标检测方法检测图像序列中出现的非合作目标本体,作为前景目标;
T3若视频序列中的某一帧图像中出现前景目标,则对前景目标图像利用特征点提取算子提取特征点;
T4对此幅图像之后的任意两帧相邻图像,在前景图像中搜索上一帧图像中的特征点在当前帧图像之中的最优位置,进而求得此点在当前帧中的坐标参数;
T5对以上的过程进行迭代操作,进而实现对特征点的KLT追踪。
5.根据权利要求1所述的基于实时视频的位姿估计方法,其特征在于,所述方法中,采用Zhang标定算法,用具有精确定位信息的平面点阵模板,通过摄像机在不同方位获得两幅以上的模板图像,利用平面模板上的特征点与其对应图像点之间的单应性矩阵来求得摄像机的内部参数,对摄像机进行标定。
6.根据权利要求1所述的基于实时视频的位姿估计方法,其特征在于,所述方法中,在实际图像上采集特征点,然后用畸变模型反算出其在虚拟的无畸变图像中的坐标,再使用反算后的坐标参与算法求解,实现图像畸变校正。
7.根据权利要求6所述的基于实时视频的位姿估计方法,其特征在于,所述方法中,对全图像进行畸变校正时,首先在虚拟的无畸变图像平面采样,求取采样点畸变后的坐标,然后使用求得的坐标在实际图像上采集灰度信息并填入无畸变图像上的对应位置,实现全图像进行畸变校正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011295425.1A CN112419409A (zh) | 2020-11-18 | 2020-11-18 | 一种基于实时视频的位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011295425.1A CN112419409A (zh) | 2020-11-18 | 2020-11-18 | 一种基于实时视频的位姿估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112419409A true CN112419409A (zh) | 2021-02-26 |
Family
ID=74773092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011295425.1A Pending CN112419409A (zh) | 2020-11-18 | 2020-11-18 | 一种基于实时视频的位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419409A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116339336A (zh) * | 2023-03-29 | 2023-06-27 | 北京信息科技大学 | 电动农机集群协同作业方法、装置及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物体位姿测量方法 |
CN109712172A (zh) * | 2018-12-28 | 2019-05-03 | 哈尔滨工业大学 | 一种初始位姿测量结合目标追踪的位姿测量方法 |
CN110580720A (zh) * | 2019-08-29 | 2019-12-17 | 天津大学 | 一种基于全景图的相机位姿估计方法 |
CN111899280A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
-
2020
- 2020-11-18 CN CN202011295425.1A patent/CN112419409A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物体位姿测量方法 |
CN109712172A (zh) * | 2018-12-28 | 2019-05-03 | 哈尔滨工业大学 | 一种初始位姿测量结合目标追踪的位姿测量方法 |
CN110580720A (zh) * | 2019-08-29 | 2019-12-17 | 天津大学 | 一种基于全景图的相机位姿估计方法 |
CN111899280A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
Non-Patent Citations (2)
Title |
---|
乔明起: "基于深度神经网络的视觉位姿估计方法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 * |
任宇琪: "面向空间非合作目标捕获的位姿测量方法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116339336A (zh) * | 2023-03-29 | 2023-06-27 | 北京信息科技大学 | 电动农机集群协同作业方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462135B (zh) | 基于视觉slam与二维语义分割的语义建图方法 | |
CN109059895B (zh) | 一种基于手机摄像头和传感器的多模态室内测距及定位方法 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN109270534A (zh) | 一种智能车激光传感器与相机在线标定方法 | |
CN107665505B (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN106959691A (zh) | 可移动电子设备和即时定位与地图构建方法 | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
CN112509125A (zh) | 一种基于人工标志物和立体视觉的三维重建方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
CN110348351B (zh) | 一种图像语义分割的方法、终端和可读存储介质 | |
CN110909571B (zh) | 一种高精度面部识别空间定位方法 | |
CN112419409A (zh) | 一种基于实时视频的位姿估计方法 | |
CN113284184A (zh) | 面向机器人rgbd视觉感知的6d位姿估计方法及系统 | |
CN112017259B (zh) | 一种基于深度相机与热像仪的室内定位与建图方法 | |
CN116804553A (zh) | 基于事件相机/imu/自然路标的里程计系统及方法 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN109410272B (zh) | 一种变压器螺母识别与定位装置及方法 | |
CN116067374A (zh) | 基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法 | |
WO2023283929A1 (zh) | 双目相机外参标定的方法及装置 | |
CN115482282A (zh) | 自动驾驶场景下具有多目标追踪能力的动态slam方法 | |
Kurka et al. | Automatic estimation of camera parameters from a solid calibration box | |
CN108058170A (zh) | 一种视觉机器人数据采集处理系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |