CN112435294B - 目标物体的六自由度姿态跟踪方法及终端设备 - Google Patents
目标物体的六自由度姿态跟踪方法及终端设备 Download PDFInfo
- Publication number
- CN112435294B CN112435294B CN202011203778.4A CN202011203778A CN112435294B CN 112435294 B CN112435294 B CN 112435294B CN 202011203778 A CN202011203778 A CN 202011203778A CN 112435294 B CN112435294 B CN 112435294B
- Authority
- CN
- China
- Prior art keywords
- target object
- frame image
- image
- edge
- attitude parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000009499 grossing Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 11
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 238000007476 Maximum Likelihood Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000005457 optimization Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Abstract
本申请属于目标姿态跟踪的技术领域,提供了一种目标物体的六自由度姿态跟踪方法及终端设备,该方法包括:提取视频数据中第N帧图像的边缘图像;N>2;根据所述视频数据中第N‑1帧图像对应的下一帧(N帧)图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线;在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;对所述姿态参数估计值进行数据平滑处理和预测,得到姿态参数最终估计值以及所述下一帧(N+1帧)图像的姿态参数预测值。本申请实施例解决运动目标的姿态参数估计精确性低、速度慢的问题。
Description
技术领域
本发明涉及目标姿态跟踪的技术领域,尤其涉及一种目标物体的六自由度姿态跟踪方法及终端设备。
背景技术
圆形特征是人造物体上最常见的几何特征之一,其广泛存在于大量的工业产品。相比其他几何特征,圆形特征的图像具有封闭性、闭合的数学表达式、对噪声鲁棒等优点。如果事先已知某目标上圆形特征的三维几何信息,便可从一幅圆形特征的图像中,计算出目标的六自由度姿态参数。因此,基于圆形特征的姿态估计算法一直是基于计算机视觉的姿态计算领域的热点问题,受到了广泛研究。目前,基于圆形特征的姿态估计方法已经应用于工业装配、航天器空间交会对接、无人机导航、航天器着陆等众多领域。
现有的基于圆形特征的姿态估计方法主要分为两类。第一类为基于椭圆拟合的姿态计算方法,对目标图像中圆形特征的图像边缘进行椭圆拟合,目标的姿态与位置可以直接从拟合的椭圆计算出来;但当目标的圆形特征被遮挡时,通过不完整的圆形特征拟合的椭圆与圆形特征的真实投影相差很大,这将严重影响姿态估计的精度,甚至使该方法失效。第二类为基于空间圆位置关系的姿态计算方法,利用目标上圆形特征的三维信息与其图像信息的匹配关系,实现目标的姿态估计;但是该类算法的运行效率不高,且精度容易受到误匹配的影响。
发明内容
有鉴于此,本发明实施例提供了一种目标物体的六自由度姿态跟踪方法及终端设备,以解决运动目标的姿态参数估计的精确性低和速度慢的问题。
本发明实施例的第一方面提供了一种目标物体的六自由度姿态跟踪方法,
包括:
提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>2;
根据所述视频数据中第N-1帧图像对应的下一帧(N帧)图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线;
在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;
根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;
对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧(N+1帧)图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧(N+1帧)图像的姿态参数预测值。
在一个实施示例中,在提取视频数据中第N帧图像的边缘图像之前,还包括:
获取所述视频数据的第一帧图像,采用椭圆检测算法提取出所述第一帧图像中所述目标物体的圆形特征对应的特征像素点;
根据所述特征像素点确定在所述第一帧图像中所述目标物体的圆形特征的第二投影曲线;
基于所述第一帧图像的第二投影曲线,得到所述第一帧图像中所述目标物体的姿态参数的初始估计值;
根据所述第一帧图像的姿态参数初始估计值,确定在所述第一帧图像中所述目标物体的圆形特征的第三投影曲线;
对每一条所述第三投影曲线,在所述对应的特征像素点中查找属于所述第三投影曲线的像素点,得到若干第三边缘点;
根据所述若干第三边缘点与所述第三投影曲线之间的几何残差,得到所述第一帧图像中所述目标物体的姿态参数估计值。
在一个实施示例中,当N等于2时,所述根据所述视频数据中第N-1帧图像对应的下一帧(N帧)图像的姿态参数预测值,确定在所述第N帧图像中所述目标物体的圆形特征的投影曲线,包括:
根据所述视频数据中第一帧图像对应的下一帧图像的姿态参数估计值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线。
在一个实施示例中,所述在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点,包括:
在所述投影曲线中等间距采样若干个控制点;
以各个所述控制点为中心,在所述边缘图像中查找位于各个所述控制点的法线所在的预设范围内的像素点,得到各个所述控制点对应的候选边缘点;
若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点。
在一个实施示例中,所述若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点,包括:
对于每一所述控制点对应的每一所述候选边缘点,若所述候选边缘点的法线与所述候选边缘点对应的控制点的法线之间的夹角小于预设阈值,则设定所述候选边缘点为预选边缘点;
从每一所述控制点对应的所述预选边缘点中,确定与所述控制点距离最近的一个预选边缘点为边缘点。
在一个实施示例中,所述根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值,包括:
计算所述若干边缘点与所述投影曲线之间的几何距离的平方和,得到所述第N帧图像中所述目标物体的姿态参数估计值;
采用广义期望最大化方法对所述姿态参数估计值进行优化得到姿态参数的极大似然估计值。
在一个实施示例中,所述对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧(N+1帧)图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值,包括:
根据所述姿态参数估计值得到姿态参数的协方差矩阵;
采用卡尔曼滤波算法对所述姿态参数估计值和所述协方差矩阵进行计算,得到姿态参数最终估计值以及下一帧图像的姿态参数预测值。
在一个实施示例中,所述根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线,包括:
将姿态参数预测值代入预设的空间圆投影方程,得到目标物体的外表圆形特征投影在图像中的投影曲线方程。
在一个实施示例中,在所述根据所述视频数据中第N-1帧图像对下一帧(N帧)图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线之前,还包括:
根据所述目标物体的空间坐标系与视频数据的图像坐标系之间的映射关系构建与姿态参数相关的姿态模型;
对所述姿态模型进行圆形特征参数转换得到空间圆投影方程。
本发明实施例的第三方面提供了一种终端设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面中目标物体的六自由度姿态跟踪方法。
本发明实施例提供的一种目标物体的六自由度姿态跟踪方法及终端设备,通过提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>2;根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线;结合视频数据中N-1帧图像对应的下一帧(N帧)图像的姿态参数预测值快速预测当前第N帧图像中目标物体的圆形特征的投影曲线,避免圆形特征被遮挡而导致投影方程拟合出错的问题,具备圆形特征遮挡的鲁棒性。在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;通过直接最小化圆形特征的参数化投影曲线的几何残差,获得目标物体的姿态参数估计值,保证了姿态估计的速度、精度和对噪声的鲁棒性。对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧(N+1帧)图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值,实现对当前第N帧图像的目标物体的姿态参数估计值的准确矫正和对下一帧图像中目标物体的姿态参数的精确预测。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的目标物体的六自由度姿态跟踪方法的流程示意图;
图2是本发明实施例一提供的第N帧图像中目标物体的圆形特征;
图3是本发明实施例二提供的目标物体的六自由度姿态跟踪方法的流程示意图;
图4是本发明实施例三提供的终端设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含一系列步骤或单元的过程、方法或系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。此外,术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。
实施例一
如图1所示,是本发明实施例一提供的目标物体的六自由度姿态跟踪方法的流程示意图。本实施例可适用于对目标物体进行姿态跟踪的应用场景,该方法可以由终端设备执行,该装置可为处理器、智能终端、平板或PC等;在本申请实施例中以终端设备作为执行主体进行说明,该方法具体包括如下步骤:
S110、提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>2。
圆形特征是人造物体上最常见的几何特征之一,其广泛存在于大量的工业产品。相比其他几何特征,圆形特征的图像具有封闭性、闭合的数学表达式、对噪声鲁棒等优点。如果事先已知某目标物体的外形上的圆形特征的三维几何信息,便可从一幅圆形特征的图像中,计算出姿态参数。根据得到的姿态参数就能确定目标物体的姿态。详细地,该圆形特征可为目标物体的圆形开口、圆形本体或圆形底部等圆形线条,或者是设置于目标物体外部的圆形外设的圆形线条。因此,在对运动目标物体进行姿态跟踪的应用场景,通常采用拍摄装置对外形具有圆形特征的目标物体进行实时拍摄得到视频数据,视频数据中的每帧图像均记录对应时刻目标物体的圆形特征的形状变化。可选的拍摄装置可为针孔照相机或工业相机。
由于拍摄装置对目标物体进行拍摄时具有拍摄时间间隔,可通过调节拍摄时间间隔调节目标物体的图像采样频率,使得视频数据中每帧图像均对应一个采样时刻。为获得任一帧图像中目标物体的姿态参数,可以根据目标物体的圆形特征在该帧图像中对应的投影曲线得到该帧图像中目标物体的姿态参数。具体的,为获得拍摄得到的第N帧图像中目标物体的姿态参数,需确定视频数据中第N帧图像中目标物体的圆形特征对应的投影曲线,可以通过提取视频数据中第N帧图像的边缘图像,得到第N帧图像中目标物体的所有边缘信息。如图2所示,由于目标物体的圆形特征在拍摄得到的图像中呈现边缘轮廓的形式,即图2中的白圈,因此提取到的边缘图像包含第N帧图像中目标物体的圆形特征对应的像素点;其中,N为整数且N>2。可选的,可采用Canny算子方法提取视频数据中第N帧图像的边缘图像。
S120、根据所述视频数据中第N-1帧图像对应的下一帧(N帧)图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线。
在提取视频数据中第N帧图像的边缘图像后,为确定边缘图像中目标物体的圆形特征对应的像素点(边缘点),需得到在第N帧图像中所述目标物体的圆形特征的投影曲线。具体的,可以根据视频数据中第N-1帧图像对应的姿态参数预测值,预测在第N帧图像中目标物体的圆形特征的投影曲线。由于拍摄装置对目标物体进行拍摄时每帧图像之间的间隔时间非常短,帧率通常在25fps左右,因此在与上一帧图像中的目标物体相比当前第N帧图像中的目标物体的姿态变化很小,可以将上一帧(N-1)图像对应的下一帧(N帧)图像的姿态参数预测值作为当前第N帧的目标物体的姿态参数的初始估计。由于目标物体在现实的空间坐标系与拍摄得到的图像中的图像坐标系之间存在映射关系,根据初始估计的姿态参数预测第N帧图像中目标物体的圆形特征在现实空间坐标的位置,采用映射关系对圆形特征在现实空间坐标的位置进行转换,便可得到在第N帧图像中目标物体的圆形特征的投影曲线。避免目标物体的圆形特征自遮挡而导致投影方程拟合出错的问题,具备圆形特征遮挡的鲁棒性。
在一个实施示例中,由于视频数据中每帧图像的图像坐标系与目标物体所在的空间坐标系具有映射关系,目标物体的姿态参数确定目标物体的圆形特征在空间坐标系的位置又与目标物体的姿态参数有关,则可以根据映射关系得到圆形特征对应在拍摄到的图像中的投影曲线与目标物体的姿态参数相关的表达式。在所述根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线之前,还包括:根据所述目标物体的空间坐标系与视频数据的图像坐标系之间的映射关系构建与姿态参数相关的姿态模型;对所述姿态模型进行圆形特征参数转换得到空间圆投影方程。
具体的,根据目标物体的空间坐标系与视频数据的图像坐标系之间的映射关系构建与姿态参数相关的姿态模型,使得将确定的姿态参数输入姿态模型后就能够直接转换得到目标物体上任一点位置在图像中对应的像素点。由于圆形特征为空间坐标系的空间圆,空间圆能够由圆心的三维坐标、圆平面的法向量、以及圆半径这三个参数决定。因此,将圆心的三维坐标、圆平面的法向量、以及圆半径这三个参数作为圆形特征参数,将姿态模型中的参数转换为与圆形特征参数有关的参数得到空间圆在视频数据的图像坐标系上的投影方程,即空间圆投影方程。从而实现根据映射关系得到圆形特征对应在拍摄到的图像中的投影曲线与目标物体的姿态参数相关的表达式,减少在确定在所述第N帧图像中所述目标物体的圆形特征的投影曲线过程中的计算量。
详细举例说明,设拍摄装置的焦距为f,像素纵横比为k,倾斜因子为s,相主点为u与v,因此拍摄装置的内参数矩阵定义为:在目标物体上建立目标坐标系即空间坐标系(Object Coordinate System,OCS)。目标物体上的圆形特征可通过如下圆形特征参数唯一确定圆形特征在空间坐标系的形状与位置:圆心的三维坐标co、圆平面的法向量no、圆半径r;上述三个参数也为圆形特征的形状参数。使用旋转矩阵R与平移向量t描述目标物体相对于图像坐标系即拍摄装置坐标系(Camera Coordinate System,CCS)的姿态,则根据所述目标物体的空间坐标系与视频数据的图像坐标系之间的映射关系构建与姿态参数相关的姿态模型为:/>其中,假设空间中某一点在OCS中的坐标为X,则x为X在图像中对应的图像点;/>和/>分别为x和X的齐次坐标;符号/>表示差一个比例常数意义下相等。
为了无歧义地表示目标的旋转,可以采用基于李群、李代数的旋转矩阵表示方法。设旋转向量为Ω,则旋转矩阵R可表示为:其中,I为单位向量,[Ω]x为由Ω的分量构成的反对称矩阵/>根据上述给定的旋转矩阵R能够计算得到旋转向量Ω为:
||Ω||=arccos((trace(R)-1)/2),
[Ω]x=||Ω||/(2sin||Ω||)(R-RT).
因此,目标物体的姿态参数p可通过由旋转向量Ω的三个分量Ω1,Ω2,Ω3和平移向量t的三个分量构成,其中,p=[ΩTtT]T;即目标物体的姿态参数p为六自由度姿态参数。
在图像坐标系中空间圆的圆心c为c=Rco+t,空间圆的圆平面法向量n为n=Rno。设f1和f2为垂直于n的两个正交单位向量,利用姿态模型与圆形特征参数可得到空间圆的投影方程,即空间圆上任何一点在图像坐标系中可表示如下:
其中,表示图像点x的齐次坐标;d=cTn。
在一个实施示例中,根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线的具体过程为:将姿态参数预测值代入预设的空间圆投影方程,得到目标物体的外表圆形特征投影在图像中的投影曲线方程。
具体的,将上一帧(N-1)图像对应的下一帧图像的姿态参数预测值作为当前第N帧的目标物体的姿态参数的初始估计,然后将姿态参数初始预估代入上述空间圆投影方程,从而得到目标物体的外表圆形特征投影在第N帧图像中的投影曲线方程。
S130、在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点。
得到在第N帧图像中所述目标物体的圆形特征的投影曲线后,为确定边缘图像中目标物体的圆形特征对应的像素点(边缘点),在视频数据中第N帧图像的边缘图像中查找属于第N帧图像中圆形特征的投影曲线的像素点,得到若干边缘点。
在一个实施示例中,为提高计算速率,使得姿态参数估计算法具备实时性,可以通过直接最小化圆形特征的参数化投影曲线的几何残差,减少计算量。在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点的具体过程包括步骤21至步骤23:
步骤21、在所述投影曲线中等间距采样若干个控制点;
具体的,在得到的第N帧图像中目标物体的圆形特征的投影曲线上等间距采样若干点控制点{qc}。
步骤22、以各个所述控制点为中心,在所述边缘图像中查找位于各个所述控制点的法线所在的预设范围内的像素点,得到各个所述控制点对应的候选边缘点;
以采样得到的各个控制点为中心,在第N帧图像的边缘图像中查找位于各个控制点的法线所在的预设范围内的像素点,得到各个控制点对应的候选边缘点m。
步骤23、若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点。
若任一控制点对应的任一点候选边缘点m满足预设条件,则确定该候选边缘点m为该控制点的边缘点。其中,通过预设条件寻找满足距离控制点最近的以及相对于控制点的偏离角度位于最大角度范围内的一点候选边缘点为边缘点。
在一个实施示例中,若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点,包括:
对于每一所述控制点对应的每一所述候选边缘点,若所述候选边缘点的法线与所述候选边缘点对应的控制点的法线之间的夹角小于预设阈值,则设定所述候选边缘点为预选边缘点;从每一所述控制点对应的所述预选边缘点中,确定与所述控制点距离最近的一个预选边缘点为边缘点。
具体的,为从各个控制点对应的候选边缘点m中寻找满足距离控制点最近的以及相对于控制点的偏离角度位于最大角度范围内的一点候选边缘点为边缘点,预设条件需包含两个限定条件,条件一:候选边缘点的法线与所述候选边缘点对应的控制点的法线之间的夹角小于预设阈值,可选的该预设阈值为15度;条件二:确定满足条件一的所有预选边缘点中与对应的控制点距离最近的一个预选边缘点为边缘点。
详细的,得到各个控制点对应的候选边缘点m后,对于每一控制点对应的各个候选边缘点,若任一候选边缘点的法线与该候选边缘点对应的控制点的法线之间的夹角小于预设阈值,则设定该候选边缘点为预选边缘点;从每一控制点对应的预选边缘点中,确定与该控制点距离最近的一个预选边缘点为边缘点。从而实现在视频数据中第N帧图像的边缘图像中查找属于第N帧图像中圆形特征的投影曲线的像素点,得到若干边缘点。
S140、根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值。
每一边缘点y与该边缘点对应的投影曲线之间的几何残差的计算过程实际为计算该边缘点y与在该边缘点y对应的投影曲线上距离该边缘点y最近的点之间的距离。其中,在该边缘点y对应的投影曲线上距离该边缘点y最近的点/>满足如下条件:/>点处的切线垂直于连接y与/>的直线。精确的/>需要通过矩阵分解或者解一元四次方程的方法获得,因此不具备闭合的解析表达式。然而,在三维姿态跟踪过程中/>的一阶近似已经足够精确,因此使用/>的一阶近似估计,也就是辛普森近似,来近似地计算/>其计算公式如下
其中E是空间圆投影方程中的系数矩阵,E2是E的前两行构成的矩阵。最后计算边缘点y与在该边缘点y对应的投影曲线上距离该边缘点y最近的点之间的距离得到几何距离(几何残差)。根据步骤130得到的各个边缘点与各个边缘点对应的投影曲线之间的几何残差,计算得到第N帧图像中目标物体的姿态参数估计值。
在一个实施示例中,为优化根据几何残差得到的姿态参数估计值,可以使用广义期望最大化原理降低优化问题的非线性程度,从而使算法具备实时性。根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值的具体过程包括步骤31至步骤32:
步骤31、计算所述若干边缘点与所述投影曲线之间的几何距离的平方和,得到所述第N帧图像中所述目标物体的姿态参数估计值;
第N帧图像中目标物体的姿态参数估计值可以通过最小化n个圆形特征对应的投影曲线与n个圆形特征对应的投影曲线对应的边缘点之间的几何残差平方和得到。设目标物体上有n个圆形特征,则每个圆形特征对应的投影曲线可以根据空间圆投影方程表示成姿态参数的闭合解析方程fi(x,p)=0,i=1,…,n,,姿态参数估计值的计算公式为:
其中,式中xij为与fi(x,p)匹配的边缘点;d(fi(x,p),xij)表示xij与曲线fi(x,p)之间的几何距离,该几何距离被称为几何残差。具体的,几何残差为每一边缘点与该边缘点对应的投影曲线之间的几何距离。通过计算每一边缘点xij与该边缘点对应的投影曲线fi(x,p)之间的几何距离得到d(fi(x,p),xij);将计算得到的几何距离代入上述目标物体的姿态参数估计值计算公式,计算得到第N帧图像中所述目标物体的姿态参数估计值。
步骤32、采用广义期望最大化方法对所述姿态参数估计值进行优化得到姿态参数的极大似然估计值。
为对上述姿态参数估计值的计算公式进行优化,以得到更精确的姿态参数估计值,可以采用广义期望最大化方法对所述姿态参数估计值进行优化得到姿态参数的极大似然估计值。具体的,姿态参数估计值的计算公式优化问题为最小二乘问题,首先使用M估计方法将上述姿态参数估计值的计算公式写成M估计公式:其中,dij=d(fi(x,p),xij);σ是dij的方差;ρ是一个对称、正定、最小值为零的凸函数,被称为鲁棒估计子。由于ρ的形式通常比较复杂,因此直接优化上述M估计公式是非常困难的。可使用迭代加权最小二乘算法(IRLS)解决这一问题。设在经过k-1次迭代之后,我们得到了姿态参数的估计p(k-1),从而将M估计公式优化问题转换为IRLS的第k次迭代问题。然后使用广义期望最大化方法(Generalized Expectation-Maximization GEM)解决IRLS的第k次迭代问题:
上式中dij (k-1)=d2(fi(x,p(k-1)),xij),ω是权值函数。
具体的,使用广义期望最大化方法解决IRLS的第k次迭代问题的过程为:设为在曲线fi(x,p(k-1))上距离xij最近的点,该点可通过公式/>计算。在CCS中,/>对应的三维空间点/>可通过辛普森近似得到。点/>在OCS中对应的坐标值为
因此根据空间坐标系与图像坐标系的映射关系,点可以表示为
其中K12是拍摄装置内参数矩阵K的第一、第二行构成的矩阵;是/>的第三个分量;t3是t的第三个分量。因此IRLS的第k次迭代问题可以改写成:
其中ωij (k-1)=ω(dij (k-1)/σ(k-1))为常数;L(p|{xij},{ξij})被称为似然函数。我们将{xij}看成观测数据,而将{ξij}看作缺失数据(missing data),则视频数据中第N帧图像的姿态参数估计值p(k)可通过GEM方法获得。GEM分为两个步骤,分别为E步与M步。E步计算似然函数关于缺失数据的数学期望。已知姿态的初始估计值为p(k-1),则利用公式(2)可唯一地确定缺失数据的估计值{ξij (k-1)},因此ξij的边缘概率密度函数为狄利克雷函数
h(ξij|xij,p(k-1))=δ(ξij-ξij (k-1)). (5)
所以,似然函数关于缺失数据的数学期望为
接下来,M步寻找一个新的姿态参数估计值p(k),使得Q(p(k)|{xij})≤Q(p(k-1)|{xij})。可选的,使用Levenberg-Marquardt(LM)算法寻找p(k)。M步寻找到的满足Q(p(k)|{xij})≤Q(p(k-1)|{xij})条件的姿态参数估计值为姿态参数的极大似然估计值,确保得到的姿态参数的极大似然估计值一定收敛于局部极小点且具备实时性。
S150、对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧(N+1帧)图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值。
目标物体在运动过程的自遮挡可能导致目标物体的外形信息上产生歧义,因此自遮挡可能使基于计算机视觉的姿态跟踪算法陷入局部极小点,最终丢失目标。克服这一影响的有效方法是根据第N帧图像的姿态参数估计值对目标物体在下一帧图像(下一时刻)的姿态参数进行预测,然后以该姿态参数预测值作为下一帧图像的目标物体的姿态参数的初始值。具体的,对第N帧图像的姿态参数估计值进行数据平滑处理,以进一步提高姿态参数估计值的精确度;然后根据第N帧图像的姿态参数估计值对下一帧(N+1)图像中目标物体的姿态进行预测,得到第N帧图像的姿态参数最终估计值以及下一帧(N+1)图像的姿态参数预测值。根据第N帧图像的姿态参数最终估计值就可得到在第N帧图像的采样时刻目标物体在空间坐标系的姿态。实现对当前第N帧图像的目标物体的姿态参数估计值的准确矫正和对下一帧图像中目标物体的姿态参数的精确预测。
在一个实施示例中,可利用卡尔曼滤波对目标物体在下一帧图像(下一时刻)的姿态参数进行预测,然后以该姿态参数预测值作为下一帧图像的目标物体的姿态参数的初始值。对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值,具体过程包括:
步骤41、根据所述姿态参数估计值得到姿态参数的协方差矩阵;
根据第N帧图像的姿态参数估计值能够计算得到姿态参数的协方差矩阵。姿态参数的协方差矩阵对第N帧图像的姿态参数估计值的修正和对下一帧图像(下一时刻)的姿态参数的预测至关重要。基于优化理论的K.K.T.原理和多元函数的有限增量定理,给出了姿态参数估计值协方差矩阵的一阶近似闭合表达式。因此当获得姿态参数估计值后,便可一步获得参数的协方差矩阵。
详细的,设将M估计公式优化问题转换为IRLS的第k次迭代问题进行优化后,在第k*步收敛,所得的姿态参数为p*,此时公式(1)可改写成
由于此时M估计公式的目标函数达到极值点,p*必使公式(7)达到极值点。因此在p*处,公式(7)满足K.K.T.条件,由此可得姿态参数p*的协方差矩阵的一阶近似表达式
其中,
式中fi *=fi(x,p*);由空间圆投影方程可知:
其中{□}12为矩阵□的第一行与第二行构成的矩阵。可通过空间圆投影方程公式由链式法则求得。在计算/>时,最复杂的步骤为计算/>现将计算/>的方法概述如下。令Ω=[Ω1Ω2Ω3]T,则:
根据R为正交矩阵的性质可知:
其中为矩阵/>的第i列。
步骤42、采用卡尔曼滤波算法对所述姿态参数估计值和所述协方差矩阵进行计算,得到姿态参数最终估计值以及下一帧图像的姿态参数预测值。
具体的,得到姿态参数的协方差矩阵后,采用二阶自回归模型的扩展卡尔曼滤波算法对姿态参数估计值和协方差矩阵进行计算,得到姿态参数最终估计值以及下一帧图像的姿态参数预测值。
详细的,定义状态向量如下:
st=[pt T pt-1 T]T=[Ωt T tt T Ωt-1 T tt-1 T]T, (13)
其中t为时刻索引,pt-1表示当前第N-1帧图像对应的姿态参数,N>2;pt表示第N帧图像对应的姿态参数;并且令p-1=p0。二阶自回归模型的扩展卡尔曼滤波的动态模型为
其中logSO(3)(Rt)通过以下公式计算旋转向量Ωt得到:
Γt和Ψt分别表示旋转向量与平移向量的噪声向量,其均值为零。协方差矩阵分别为a2I3 and b2I3的高斯白噪声。卡尔曼滤波的观测方程为:
pt=[I6 06]st+εt, (16)
式中pt为当前第N帧图像对应的姿态参数估计值;06为六阶全零矩阵;εt为观测噪声,其均值为零。协方差矩阵为Vt,Vt由公式(8)计算得到。公式(14)的雅克比矩阵为
其中,
式中M(Ω)通过矩阵计算得到。至此,扩展卡尔曼滤波算法可通过公式(13)到公式(18)实现,流程综述如下:
状态预测
st+1|t=f(st|t), (19)
其中f()表示公式14.
误差的协方差预测
状态估计校正
st+1|t+1=st+1|t+Kt+1[pt+1-[I6 06]st+1|t]. (21)
误差协方差估计校正
Pt+1|t+1=Pt+1|t-Kt+1[I6 06]Pt+1|t T. (22)
增益矩阵
Kt+1=Pt+1|t[I6 06]T([I6 06]Pt+1|t[I6 06]T+Vt). (23)
采用公式(19)到公式(23)对第N帧图像的姿态参数估计值和协方差矩阵进行计算,得到姿态参数最终估计值以及下一帧图像的姿态参数预测值的具体过程包括:将第N帧图像的姿态参数估计值代入公式21得到姿态参数最终估计值。将得到的姿态参数最终估计值代入公式19,计算得到下一帧(N+1)图像的姿态参数预测值。
本发明实施例提供的一种目标物体的六自由度姿态跟踪方法,通过提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>1;根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线;结合视频数据中N-1帧图像对应的下一帧图像的姿态参数预测值快速预测当前第N帧图像中目标物体的圆形特征的投影曲线,避免圆形特征被遮挡而导致投影方程拟合出错的问题,具备圆形特征遮挡的鲁棒性。在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;通过直接最小化圆形特征的参数化投影曲线的几何残差,获得目标物体的姿态参数估计值,保证了姿态估计的精度和对噪声的鲁棒性。对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值,实现对当前第N帧图像的目标物体的姿态参数估计值的准确矫正和对下一帧图像中目标物体的姿态参数的精确预测。
实施例二
如图3所示是本发明实施例二提供的目标物体的六自由度姿态跟踪方法的流程示意图。在实施例一的基础上,本发明实施例还提供了当N等于1或2时,第N帧图像中目标物体的姿态参数估计值的计算过程。
对于视频数据中的第一帧图像,为拍摄得到的目标物体的初始图像。由于第一帧图像为初始时刻拍摄得到的图像,没有上一帧图像对应的目标物体的姿态参数预测值,为得到第一帧图像中目标物体的投影曲线需要将目标物体的圆形特征与第一帧图像进行匹配。在提取视频数据中第N帧图像的边缘图像之前,还包括第一帧图像中目标物体的姿态参数计算过程,包括以下步骤:
S210、获取所述视频数据的第一帧图像,采用椭圆检测算法提取出所述第一帧图像中所述目标物体的圆形特征对应的特征像素点;
当N等于1时,为了找到目标物体的圆形特征在视频数据的第一帧图像中对应的像素,使用椭圆检测算法检测出第一帧图像中所有椭圆和每个椭圆对应的特征像素。人为指定目标物体的圆形特征与检测出的椭圆的对应关系,从而得到第一帧图像中目标物体的圆形特征对应的特征像素点。
S220、根据所述特征像素点确定在所述第一帧图像中所述目标物体的圆形特征的第二投影曲线;
根据第一帧图像中目标物体的圆形特征对应的特征像素点,基于几何残差最小化的方法拟合曲线方程,从而得到第一帧图像中目标物体的m个圆形特征的第二投影曲线。
S230、基于所述第一帧图像的第二投影曲线,得到所述第一帧图像中所述目标物体的姿态参数的初始估计值;
计算所有第二投影曲线的周长与其对应的特征像素点个数的比值,然后选择比值最大的两个第二投影曲线。设选出的两个投影曲线为e1和e2,他们对应的圆形特征C1和C2在空间坐标系的形状与位置分别为:圆心的三维坐标c1 o,c2 o、圆平面的法向量n1 o,n2 o、圆半径r1,r2。由投影几何理论可知,C1和C2的对偶二次曲面为对偶空间中的圆锥,圆锥的系数矩阵表示如下
令|W1-λW2|=I1λ4+I2λ3+I3λ3+I4λ+I5,式中|□|表示矩阵的行列式值,则C1和C2的绝对不变量为
根据计算机视觉理论可知,利用已知的照相机内参数K和半径ri,i=1,2,从每个ei可以重建出两个空间圆Ci 1,Ci 2。因此从e1和e2可以获得4对可能的空间圆:(C1 1,C2 1)、(C1 2,C2 1)、(C1 1,C2 2)、(C1 2,C2 2)。接下来,我们需要从这四对空间圆中选出与(C1,C2)对应的一对。因此,我们利用公式(1)和(2)计算每一对空间圆的绝对不变量。在四个不变量中,与V最接近的不变量对应的空间圆对即为与(C1,C2)对应的空间圆对,记为(C1 *,C2 *)。设C1 *和C2 *的位置参数分别为:圆心的三维坐标c1,c2;圆平面的法向量n1,n2,又设目标物体的旋转矩阵和平移向量分别为R1 0和t1 0,因此可以得到如下表达式
使用单位四元数表示旋转矩阵R1 0,则通过奇异值分解可从公式(3)的第三个方程中解出旋转矩阵R1 0。然后利用最小二乘法从公式(3)的前两个方程中解出平移向量t1 0。利用下述公式可将R1 0转换成旋转向量Ω1 0
因此p1 0=[Ω1 0Tt1 0T]T为目标姿态参数的初始估计。
S240、根据所述第一帧图像的姿态参数初始估计值,确定在所述第一帧图像中所述目标物体的圆形特征的第三投影曲线;
S250、对所述每一条第三投影曲线,在所述对应的特征像素点中查找属于所述第三投影曲线的像素点,得到若干第三边缘点;
为确定第一帧图像中目标物体的圆形特征的第三投影曲线对应的像素点(边缘点),在视频数据中第一帧图像的所述特征像素点中查找属于第一帧图像中圆形特征的第三投影曲线的像素点,得到若干第三边缘点。
S260、根据所述若干第三边缘点与所述第三投影曲线之间的几何残差,得到所述第一帧图像中所述目标物体的姿态参数估计值。
每一第三边缘点y与该边缘点对应的第三投影曲线之间的几何残差的计算过程实际为计算该第三边缘点y与在该第三边缘点y对应的第三投影曲线上距离该第三边缘点y最近的点之间的距离。其中,在该第三边缘点y对应的第三投影曲线上距离该第三边缘点y最近的点/>满足如下条件:/>点处的切线垂直于连接y与/>的直线。精确的/>需要通过矩阵分解或者解一元四次方程的方法获得,因此/>不具备闭合的解析表达式。然而,在三维姿态跟踪过程中/>的一阶近似已经足够精确,因此使用/>的一阶近似估计,也就是辛普森近似,来近似地计算/>其计算公式如下
其中E是空间圆投影方程中的系数矩阵,E2是E的前两行构成的矩阵。最后计算第三边缘点y与在该第三边缘点y对应的第三投影曲线上距离该第三边缘点y最近的点之间的距离得到几何距离(几何残差)。根据步骤130得到的各个第三边缘点与各个第三边缘点对应的第三投影曲线之间的几何残差,计算得到第一帧图像中目标物体的姿态参数估计值。
第一帧图像中所述目标物体的姿态参数估计值可以通过最小化m个圆形特征对应的投影曲线与m个圆形特征对应的边缘点之间的几何残差平方和得到。设目标物体上有m个圆形特征,则每个圆形特征对应的第三投影曲线可以根据空间圆投影方程表示成姿态参数的闭合解析方程fi(x,p)=0,i=1,…,n,,姿态参数估计值的计算公式为:
其中,式中xij为与fi(x,p)匹配的边缘点;d(fi(x,p),xij)表示xij与曲线fi(x,p)之间的几何距离,该几何距离被称为几何残差。具体的,几何残差为每一第三边缘点与该第三边缘点对应的第三投影曲线之间的几何距离。通过计算每一第三边缘点xij与该第三边缘点对应的第三投影曲线fi(x,p)之间的几何距离得到d(fi(x,p),xij);将计算得到的几何距离代入上述目标物体的姿态参数估计值计算公式,计算得到第一帧图像中所述目标物体的姿态参数估计值。
在一个实施示例中,由于当N等于1时,仅计算得到第一帧图像中目标物体的姿态参数估计值,因此直接将第一帧图像对应的姿态参数估计值作为下一帧图像的目标物体的姿态参数预测值。当N等于2时,所述根据所述视频数据中第N-1帧图像对应的下一帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线,包括:根据所述视频数据中第一帧图像对应的下一帧图像的姿态参数估计值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线。
实施例三
图4是本发明实施例三提供的终端设备的结构示意图。该终端设备包括:处理器41、存储器42以及存储在所述存储器42中并可在所述处理器41上运行的计算机程序43,例如用于目标物体的六自由度姿态跟踪方法的程序。所述处理器41执行所述计算机程序43时实现上述目标物体的六自由度姿态跟踪方法实施例中的步骤,例如图1所示的步骤S110至S150。
示例性的,所述计算机程序43可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器42中,并由所述处理器41执行,以完成本申请。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序43在所述终端设备中的执行过程。例如,所述计算机程序43可以被分割成边缘图像提取模块、投影曲线确定模块、边缘点确定模块、姿态参数估计值计算模块和姿态参数最终估计值和下一帧图像的姿态参数预测值确定模块,各模块具体功能如下:
边缘图像提取模块,用于提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>2;
投影曲线确定模块,用于根据所述视频数据中第N-1帧图像对应的下一帧(N帧)图像的姿态参数预测值,确定在所述第N帧图像中所述目标物体的圆形特征的投影曲线;
边缘点确定模块,用于在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;
姿态参数估计值计算模块,用于根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;
姿态参数最终估计值和下一帧图像的姿态参数预测值确定模块,用于对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧(N+1帧)图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧图像的姿态参数预测值。
所述终端设备可包括,但不仅限于,处理器41、存储器42以及存储在所述存储器42中的计算机程序43。本领域技术人员可以理解,图4仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器41可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器42可以是所述终端设备的内部存储单元,例如终端设备的硬盘或内存。所述存储器42也可以是外部存储设备,例如终端设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器42还可以既包括终端设备的内部存储单元也包括外部存储设备。所述存储器42用于存储所述计算机程序以及目标物体的六自由度姿态跟踪方法所需的其他程序和数据。所述存储器42还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种目标物体的六自由度姿态跟踪方法,其特征在于,包括:
提取视频数据中第N帧图像的边缘图像;所述视频数据为实时拍摄目标物体得到;所述目标物体的外形具有圆形特征;N>2;
根据所述视频数据中第N-1帧图像对应的下一帧即第N帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线;
在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点;
根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值;
对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧即第N+1帧图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧即第N+1帧图像的姿态参数预测值。
2.如权利要求1所述的目标物体的六自由度姿态跟踪方法,其特征在于,在提取视频数据中第N帧图像的边缘图像之前,还包括:
获取所述视频数据的第一帧图像,采用椭圆检测算法提取出所述第一帧图像中所述目标物体的圆形特征对应的特征像素点;
根据所述特征像素点确定在所述第一帧图像中所述目标物体的圆形特征的第二投影曲线;
基于所述第一帧图像的第二投影曲线,得到所述第一帧图像中所述目标物体的姿态参数的初始估计值;
根据所述第一帧图像的姿态参数初始估计值,确定在所述第一帧图像中所述目标物体的圆形特征的第三投影曲线;
对每一条所述第三投影曲线,在所述对应的特征像素点中查找属于所述第三投影曲线的像素点,得到若干第三边缘点;
根据所述若干第三边缘点与所述第三投影曲线之间的几何残差,得到所述第一帧图像中所述目标物体的姿态参数估计值。
3.如权利要求2所述的目标物体的六自由度姿态跟踪方法,其特征在于,当N等于2时,所述根据所述视频数据中第N-1帧图像对应的下一帧即第N帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线,包括:
根据所述视频数据中第一帧图像对应的下一帧图像的姿态参数估计值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线。
4.如权利要求1所述的目标物体的六自由度姿态跟踪方法,其特征在于,所述在所述边缘图像中查找属于所述投影曲线的像素点,得到若干边缘点,包括:
在所述投影曲线中等间距采样若干个控制点;
以各个所述控制点为中心,在所述边缘图像中查找位于各个所述控制点的法线所在的预设范围内的像素点,得到各个所述控制点对应的候选边缘点;
若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点。
5.如权利要求4所述的目标物体的六自由度姿态跟踪方法,其特征在于,所述若任一所述控制点对应的任一候选边缘点满足预设条件,则确定所述候选边缘点为边缘点,包括:
对于每一所述控制点对应的每一所述候选边缘点,若所述候选边缘点的法线与所述候选边缘点对应的控制点的法线之间的夹角小于预设阈值,则设定所述候选边缘点为预选边缘点;
从每一所述控制点对应的所述预选边缘点中,确定与所述控制点距离最近的一个预选边缘点为边缘点。
6.如权利要求1所述的目标物体的六自由度姿态跟踪方法,其特征在于,所述根据所述若干边缘点与所述投影曲线之间的几何残差,得到所述第N帧图像中所述目标物体的姿态参数估计值,包括:
计算所述若干边缘点与所述投影曲线之间的几何距离的平方和,得到所述第N帧图像中所述目标物体的姿态参数估计值;
采用广义期望最大化方法对所述姿态参数估计值进行优化得到姿态参数的极大似然估计值。
7.如权利要求1所述的目标物体的六自由度姿态跟踪方法,其特征在于,所述对所述姿态参数估计值进行数据平滑处理并根据所述姿态参数估计值对下一帧即第N+1帧图像中所述目标物体的姿态进行预测,得到姿态参数最终估计值以及所述下一帧即第N+1帧图像的姿态参数预测值,包括:
根据所述姿态参数估计值得到姿态参数的协方差矩阵;
采用卡尔曼滤波算法对所述姿态参数估计值和所述协方差矩阵进行计算,得到姿态参数最终估计值以及下一帧即第N+1帧图像的姿态参数预测值。
8.如权利要求1所述的目标物体的六自由度姿态跟踪方法,其特征在于,所述根据所述视频数据中第N-1帧图像对应的下一帧即第N帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线,包括:
将姿态参数预测值代入预设的空间圆投影方程,得到目标物体的外表圆形特征投影在图像中的投影曲线方程。
9.如权利要求8所述的目标物体的六自由度姿态跟踪方法,其特征在于,在所述根据所述视频数据中第N-1帧图像对应的下一帧即第N帧图像的姿态参数预测值,预测在所述第N帧图像中所述目标物体的圆形特征的投影曲线之前,还包括:
根据所述目标物体的空间坐标系与视频数据的图像坐标系之间的映射关系构建与姿态参数相关的姿态模型;
对所述姿态模型进行圆形特征参数转换得到空间圆投影方程。
10.一种终端设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至9任一项所述目标物体的六自由度姿态跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011203778.4A CN112435294B (zh) | 2020-11-02 | 2020-11-02 | 目标物体的六自由度姿态跟踪方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011203778.4A CN112435294B (zh) | 2020-11-02 | 2020-11-02 | 目标物体的六自由度姿态跟踪方法及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112435294A CN112435294A (zh) | 2021-03-02 |
CN112435294B true CN112435294B (zh) | 2023-12-08 |
Family
ID=74696600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011203778.4A Active CN112435294B (zh) | 2020-11-02 | 2020-11-02 | 目标物体的六自由度姿态跟踪方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112435294B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298870B (zh) * | 2021-05-07 | 2023-03-28 | 中国科学院深圳先进技术研究院 | 一种物体的姿态跟踪方法、装置、终端设备和存储介质 |
CN116051630B (zh) * | 2023-04-03 | 2023-06-16 | 慧医谷中医药科技(天津)股份有限公司 | 高频率6DoF姿态估计方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103994755A (zh) * | 2014-05-29 | 2014-08-20 | 清华大学深圳研究生院 | 一种基于模型的空间非合作目标位姿测量方法 |
US9934592B1 (en) * | 2016-11-15 | 2018-04-03 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 6-DOF-pose of an object in space |
CN109087323A (zh) * | 2018-07-25 | 2018-12-25 | 武汉大学 | 一种基于精细cad模型的图像车辆三维姿态估计方法 |
CN109255801A (zh) * | 2018-08-03 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 |
CN110211151A (zh) * | 2019-04-29 | 2019-09-06 | 华为技术有限公司 | 一种运动物体的追踪方法和装置 |
CN110992400A (zh) * | 2019-11-13 | 2020-04-10 | 北京影谱科技股份有限公司 | 基于边缘的动态投影映射对象跟踪方法和装置 |
CN111354042A (zh) * | 2018-12-24 | 2020-06-30 | 深圳市优必选科技有限公司 | 机器人视觉图像的特征提取方法、装置、机器人及介质 |
-
2020
- 2020-11-02 CN CN202011203778.4A patent/CN112435294B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103994755A (zh) * | 2014-05-29 | 2014-08-20 | 清华大学深圳研究生院 | 一种基于模型的空间非合作目标位姿测量方法 |
US9934592B1 (en) * | 2016-11-15 | 2018-04-03 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 6-DOF-pose of an object in space |
CN109087323A (zh) * | 2018-07-25 | 2018-12-25 | 武汉大学 | 一种基于精细cad模型的图像车辆三维姿态估计方法 |
CN109255801A (zh) * | 2018-08-03 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 |
CN111354042A (zh) * | 2018-12-24 | 2020-06-30 | 深圳市优必选科技有限公司 | 机器人视觉图像的特征提取方法、装置、机器人及介质 |
CN110211151A (zh) * | 2019-04-29 | 2019-09-06 | 华为技术有限公司 | 一种运动物体的追踪方法和装置 |
CN110992400A (zh) * | 2019-11-13 | 2020-04-10 | 北京影谱科技股份有限公司 | 基于边缘的动态投影映射对象跟踪方法和装置 |
Non-Patent Citations (2)
Title |
---|
Maneuver-Aided Active Satellite Tracking Using Six-DOF Optimal Dynamic Inversion Control;Li Yuankai et al.;《IEEE Transactions on Aerospace and Electronic Systems 》;第50卷(第1期);第704-719页 * |
增强现实中的直线边缘对象位姿跟踪;潘绍松 等;《南京航空航天大学学报》;第43卷(第6期);第744-748页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112435294A (zh) | 2021-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Lo-net: Deep real-time lidar odometry | |
Svärm et al. | City-scale localization for cameras with known vertical direction | |
Penate-Sanchez et al. | Exhaustive linearization for robust camera pose and focal length estimation | |
CN108537837B (zh) | 一种深度信息确定的方法及相关装置 | |
US10339389B2 (en) | Methods and systems for vision-based motion estimation | |
US9280832B2 (en) | Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform | |
Li et al. | A 4-point algorithm for relative pose estimation of a calibrated camera with a known relative rotation angle | |
US10438366B2 (en) | Method for fast camera pose refinement for wide area motion imagery | |
US11138742B2 (en) | Event-based feature tracking | |
US9761008B2 (en) | Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform | |
US20130080111A1 (en) | Systems and methods for evaluating plane similarity | |
US10019801B2 (en) | Image analysis system and method | |
CN112435294B (zh) | 目标物体的六自由度姿态跟踪方法及终端设备 | |
US9846974B2 (en) | Absolute rotation estimation including outlier detection via low-rank and sparse matrix decomposition | |
CN112184824A (zh) | 一种相机外参标定方法、装置 | |
US20130107039A1 (en) | Systems and methods for estimating pose | |
Barath et al. | Marginalizing sample consensus | |
Eichhardt et al. | Affine correspondences between central cameras for rapid relative pose estimation | |
Zhou et al. | An efficient planar bundle adjustment algorithm | |
Aravkin et al. | Student's t robust bundle adjustment algorithm | |
Tjahjadi et al. | Single image orientation of UAV's imagery using orthogonal projection model | |
Migita et al. | One-dimensional search for reliable epipole estimation | |
Qian | Weighted optimal linear attitude and translation estimator: Theory and application | |
US20180001821A1 (en) | Environment perception using a surrounding monitoring system | |
Courchay et al. | Exploiting loops in the graph of trifocal tensors for calibrating a network of cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |