CN112407344B - 空间非合作目标的位姿预测方法和装置 - Google Patents

空间非合作目标的位姿预测方法和装置 Download PDF

Info

Publication number
CN112407344B
CN112407344B CN202011044019.8A CN202011044019A CN112407344B CN 112407344 B CN112407344 B CN 112407344B CN 202011044019 A CN202011044019 A CN 202011044019A CN 112407344 B CN112407344 B CN 112407344B
Authority
CN
China
Prior art keywords
cooperative target
pose
binocular
cooperative
kinematic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011044019.8A
Other languages
English (en)
Other versions
CN112407344A (zh
Inventor
李志�
楚中毅
海啸
庞羽佳
黄龙飞
黄剑斌
蒙波
张志民
韩旭
李海超
王尹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Academy of Space Technology CAST
Original Assignee
China Academy of Space Technology CAST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Academy of Space Technology CAST filed Critical China Academy of Space Technology CAST
Priority to CN202011044019.8A priority Critical patent/CN112407344B/zh
Publication of CN112407344A publication Critical patent/CN112407344A/zh
Application granted granted Critical
Publication of CN112407344B publication Critical patent/CN112407344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G4/00Tools specially adapted for use in space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • B64G1/245Attitude control algorithms for spacecraft attitude control

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及空间飞行器在轨服务技术领域,提供一种空间非合作目标的位姿预测方法和装置,包括:基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果;建立非合作目标运动学观测模型,并根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息;基于所述非合作目标运动学观测模型,根据当前测量时刻的所述位姿信息对所述非合作目标的位姿状态进行预测。本发明实现了对非合作目标运动学参数辨识和未来时刻位姿预测,降低了在轨服务或在轨捕获的难度,提高了对不同目标的适应性。

Description

空间非合作目标的位姿预测方法和装置
技术领域
本发明涉及空间飞行器在轨服务技术领域,尤其涉及一种空间非合作目 标的位姿预测方法和装置。
背景技术
随着人类对太空的日益探索,太空垃圾(如废弃卫星、火箭末级等)逐 渐积累,占用了宝贵的轨道资源。这类目标大多都是无法通信、无对接设计 的非合作目标,针对这类目标的在轨服务技术不仅可以维修废弃卫星或对其 进行气液补加,同样在空间碎片或空间攻防领域有着重要的战略意义。在轨 服务任务中,服务航天器在跟踪、接近和抓捕目标时,需要实现航天器和目 标间的相对位置和姿态测量。由于非合作目标无法提供合作信息,这就给对 非合作航天器的位姿测量技术带来了极大的挑战,如何在没有合作信息的情况下对目标进行识别、位姿测量和抓捕便成为了非合作在轨服务的一项关键 技术,并引起了有关学者和研究机构的广泛关注。
非合作目标不能利用星间链路来直接传输其位置和姿态信息,故无法利 用陀螺仪、加速度计等惯性敏感器来直接获取其姿态信息。光学测量手段因 无需接触目标就能获取目标的位姿信息,是非合作目标位姿测量的主要手段。 目前的光学测量手段主要包括单目视觉、双目视觉、多目视觉以及激光雷达 等方法,其中双目视觉又因其具备绝对尺度、体机小、功耗低、响应速度快、 频率高等特性,在空间测量领域得到广泛应用。
但是,双目摄像机轴向测量精度严重受限于基线长度,由于航天器尺寸 有限,在空间应用中也难以通过增大基线的方法提高精度,因此难以实现对 远距离目标上特征点坐标的准确测量。而在运动学参数辨识过程中,由于存 在旋转矩阵等非线性项,目前大多数方法都基于扩展卡尔曼滤波及其衍生算 法,且由于仅保留一阶项或二阶项,损失了精度,而且计算量较大,难以适 用于实时辨识。
发明内容
基于此,本发明实施例提供一种空间非合作目标的位姿预测方法和装置, 以解决传统位姿预测方法计算量大,预测精准度低的问题。
根据本发明实施例的第一方面,提供一种空间非合作目标的位姿预测方 法,包括:
基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果;
建立非合作目标运动学观测模型,并根据所述非合作目标运动学观测模 型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非 合作目标的位姿信息;
基于所述非合作目标运动学观测模型,根据当前测量时刻的所述位姿信 息对所述非合作目标的位姿状态进行预测。
可选的,所述非合作目标的位姿信息包括:角速度、当前位姿状态、质 心速度和质心位置的至少一种。
可选的,所述基于双目视觉对空间非合作目标进行轴向测量,得到双目 轴向测量结果,包括:
基于双目视觉对空间非合作目标进行轴向测量;
基于切比雪夫多项式,对所述轴向测量的结果进行标定,得到双目轴向 测量结果。
可选的,所述根据所述非合作目标运动学观测模型对所述双目轴向测量 结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息, 包括:
基于所述非合作目标运动学观测模型,利用Q方法对所述双目轴向测量 结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息。
可选的,所述建立非合作目标运动学观测模型,包括:
建立接近过程的运动学模型,得到所述非合作目标的质心在惯性坐标系 中的平动运动学方程:
Figure BDA0002707429610000031
Figure BDA0002707429610000032
其中,式中μ是地球引力常数,rt为所述非合作目标在惯性坐标系中的位置矢 量,vt为所述非合作目标在惯性坐标系中的速度矢量,rt=||rt||;
得到所述非合作目标的自旋动力学方程:
Figure BDA0002707429610000033
得到观测卫星的运动学方程:
Figure BDA0002707429610000034
Figure BDA0002707429610000035
其中,rc为所述非合作目标在惯性坐标系中的位置矢量,vc为所述非合作目 标在惯性坐标系中的速度矢量,rc=||rc||,且rt≈rc
根据所述平动运动学方程、所述自旋动力学方程和所述观测卫星的运动 学方程得到质心方程:
Figure BDA0002707429610000036
其中,ρ0为世界坐标系原点指向所述非合作目标的质心的向量,在测量时刻 t所述非合作目标的特征点的向量ρi和ri的关系式为:
Figure BDA0002707429610000037
其中,
Figure BDA0002707429610000038
为在测量时刻t所述非合作目标的姿态矩阵,ρ0(t)为在测量时刻t 所述世界坐标系原点指向所述非合作目标的质心的向量,ρi为所述非合作目 标的质心指向所述非合作目标的特征点Pi的向量,ri为所述世界坐标系原点指 向所述非合作目标的特征点Pi的向量。
可选的,所述根据所述非合作目标运动学观测模型对所述双目轴向测量 结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息, 包括:
根据在测量时刻t所述非合作目标的特征点的向量ρi和ri的关系式和所述 Q方法,对所述双目轴向测量结果进行位姿参数辨识,得到在测量时刻t所 述非合作目标的角速度、位姿状态、质心速度和质心位置。
可选的,所述基于所述非合作目标运动学观测模型,根据当前测量时刻 的所述位姿信息对所述非合作目标的位姿状态进行预测,包括:
根据所述自旋动力学方程和所述质心方程得到:
v=vcon
ω=ωcon
其中,vcon为速度常数,ωcon为角速度常数,测量时刻t的未来时刻tf所述非 合作目标的质心位置和姿态矩阵为:
ρ0(tf)=ρ0(t)+v(tf-t)
Figure BDA0002707429610000041
其中,
Figure BDA0002707429610000042
是tf时刻到t时刻的姿态转换矩阵,具体为:
Figure BDA0002707429610000043
其中,θ=||ω||·(tf-t),ω为测量时刻t所述非合作目标的角速度,cθ=cosθ,sθ=sinθ,vθ=1-cosθ,K=[kx,ky,kz]T为自转轴,通过ω归一化得到,所述未 来时刻tf所述非合作目标的特征点Pi的位置为:
Figure BDA0002707429610000044
其中,
Figure BDA0002707429610000045
为在未来时刻tf所述非合作目标的姿态矩阵,ρ0(tf)为在未来时刻tf所述世界坐标系原点指向所述非合作目标的质心的向量,ri为所述世界坐标系 原点指向所述非合作目标的特征点Pi的向量。
根据本发明实施例的第二方面,提供一种空间非合作目标的位姿预测装 置,包括:
测量模块,用于基于双目视觉对空间非合作目标进行轴向测量,得到双 目轴向测量结果;
位姿参数辨识模块,用于建立非合作目标运动学观测模型,并根据所述 非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得 到当前测量时刻的所述非合作目标的位姿信息;
预测模块,用于基于所述非合作目标运动学观测模型,根据当前测量时 刻的所述位姿信息对所述非合作目标的位姿状态进行预测。
根据本发明实施例的第三方面,提供一种空间非合作目标的位姿预测装 置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行 的计算机程序,所述处理器执行所述计算机程序时实现如上述实施例的第一 方面提供的任一项所述的空间非合作目标的位姿预测方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机 可读存储介质存储计算机程序,所述计算机程序被处理器执行时实现如实施 例的第一方面提供的任一项所述的空间非合作目标的位姿预测方法的步骤。
本发明实施例的空间非合作目标的位姿预测方法和装置与现有技术相比 存在的有益效果是:
首先基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量 结果;然后建立非合作目标运动学观测模型,并根据所述非合作目标运动学 观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的 所述非合作目标的位姿信息,基于所述非合作目标运动学观测模型,根据当 前测量时刻的所述位姿信息对所述非合作目标的位姿状态进行预测,实现了 对非合作目标运动学参数辨识和未来时刻位姿预测,降低了在轨服务或在 轨捕获的难度,提高了对不同目标的适应性。
附图说明
图1是本发明实施例提供的一种空间非合作目标的位姿预测方法的实现 流程示意图;
图2是图1中步骤S101的具体流程示意图;
图3是本发明实施例提供的一种空间非合作目标与测量系统示意图;
图4是本发明实施例提供的双目视觉成像原理的示意图;
图5是本发明实施例提供的原始测量误差与基于切比雪夫多项式修正后 的误差示意图;
图6是本发明实施例提供的非合作目标的特征点的运动轨迹示意图;
图7是本发明实施例提供的基于未修正的角速度和线速度进行参数辨识 的辨识结果示意图;
图8是本发明实施例提供的基于未修正的非合作目标的特征点轨迹预测 示意图;
图9是本发明实施例提供的基于修正后的角速度和线速度进行参数辨识 的辨识结果示意图;
图10是本发明实施例提供的基于修正后的特征点预测轨迹相对误差示 意图;
图11是本发明实施例提供的一种空间非合作目标的位姿预测装置的结 构示意图;
图12是本发明实施例提供的另一种空间非合作目标的位姿预测装置的 结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技 术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员 应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
参见图1,为本实施例提供的空间非合作目标的位姿预测方法的一个实 施例实现流程示意图,详述如下:
步骤S101,基于双目视觉对空间非合作目标进行轴向测量,得到双目轴 向测量结果。
本实施例的基于双目相机的非合作目标位姿预测方法,具有高轴向测量 精度,能够在无先验信息的条件下辨识运动学参数且能够免疫各类噪声,可 用于对空间非合作目标或合作目标的运动学测量等场合,也可用于地面非接 触测量等任务。
在一个实施例中,参见图2,步骤S101的具体实现流程包括:
步骤S201,基于双目视觉对空间非合作目标进行轴向测量。
可选的,在进行双目轴向测量之前,本实施还对双目视觉测量模型进行 分析,具体如下:
将坐标系OCXCYCZC投影到oxy平面得到双目视觉测量原理,如附图4所 示,其中B为基线长度,f为相机焦距,p和p’分别是Pi在左右视图中的投影 位置。左右相机型号完全一致,因此焦距相同,像平面与光心之间距离相同, 因此左右图像投影点的y方向坐标相等,Pi坐标如下:
Figure BDA0002707429610000071
其中,X、Y、Z为左相机的物方坐标系坐标,x、y为像平面坐标,根据几 何关系有:
Figure BDA0002707429610000072
考虑到空间非合作目标测量过程中,物体保持在测量系统正前方附近, 因此可以认为:
|X|<<|Z|
进而可以推出:
|x1|<<|f|
|ΔX|<<|ΔZ|。
步骤S202,基于切比雪夫多项式,对所述轴向测量的结果进行标定,得 到双目轴向测量结果。
本实施例基于切比雪夫多项式的测量距离标定方法对所述轴向测量的结 果进行修正,在无先验信息的条件下辨识运动学参数且能够免疫各类噪声。 首先根据工作环境确定测量范围,在测量范围内设置不同距离的靶标,通过 激光测距仪或其他高精度测量装置测量出靶标距离,再通过切比雪夫多项式 对两者进行拟合,来确定标定范围的上下限。
首先定义中间变量:
Figure BDA0002707429610000073
其中,zmin、zmax分别为标定区间的下限与上限,z为双目相机测量距离。切比 雪夫多项式的各阶项定义如下:
c0(λ)=1,c1(λ)=λ,c2(λ)=2λ2-1,c3(λ)=4λ3-3λ
c4(λ)=8λ4-8λ2+1,…,cm+1(λ)=2λcm(λ)-cm-1(λ)
切比雪夫多项式形式如下:
C(λ)=a0+a1c1(λ)+a2c2(λ)+…+amcm(λ)。
在标定过程中,C(λ)为激光测距仪测量结果,记为ZL;ai为切比雪夫多 项式各阶系数;ci(λ)(i=1…m)为双目测量距离相关项。将C(λ)写成矩阵形式, 利用最小二乘法对切比雪夫多项式系数进行求解,如下:
ZL=CA
其中
Figure BDA0002707429610000081
其中,m为多项式阶数,n为设置的靶标个数。基于最小二乘原理可以得到:
A=(CTC)-1CTZL
通过上述式子得到了切比雪夫多项式各阶系数。在线使用过程中,当双 目视觉测量系统采集到了若干特征点的三维坐标,通过C(λ)表达式可得到的 C(λ),即为特征点修正后的z坐标,其中,切比雪夫多项式各阶项和各阶系 数由上述公式得到。
步骤S102,建立非合作目标运动学观测模型,并根据所述非合作目标运 动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时 刻的所述非合作目标的位姿信息。
可选的,所述非合作目标的位姿信息包括:角速度、当前位姿状态、质 心速度和质心位置的至少一种,还可以包括所述非合作目标的线速度等。
可选的,所述建立非合作目标运动学观测模型,包括:
首先建立非合作目标运动学观测模型,如附图3所示,惯性坐标系OeXeYeZe的原点Oe位于地球质心,Xe指向升交点,Ze垂直于轨道面指向北极方向,Ye可用右手定则确定;OCXCYCZC为相机坐标系,OC位于左相机中心,Xc轴沿基 线方向,Zc轴沿光轴方向,Yc轴符合右手定则;ORXRYRZR为右相机坐标系, 三轴方向与相机坐标系相同;OMXMYMZM为服务卫星质心坐标系,三轴方向与 相机坐标系相同;OTXTYTZT是目标质心坐标系,OT为非合作目标的质心所在 位置,世界坐标系原点可以位于左相机光学中心。
建立接近过程的运动学模型,所述非合作目标的质心在惯性坐标系中的 平动运动学方程:
Figure BDA0002707429610000091
Figure BDA0002707429610000092
其中,式中μ是地球引力常数,rt为所述非合作目标在惯性坐标系中的位置矢 量,vt为所述非合作目标在惯性坐标系中的速度矢量,rt=||rt||。
非合作目标的自旋动力学方程为:
Figure BDA0002707429610000093
其中,ωt为非合作目标在目标质心坐标系相对于惯性坐标系的角速度矢量,It为非合作目标的惯量矩阵,对于大多数非合作目标,经过长时间的能量耗散, 自旋方向与惯量主轴相同,因此得到所述非合作目标的自旋动力学方程:
Figure BDA0002707429610000094
观测卫星的运动学方程:
Figure BDA0002707429610000095
Figure BDA0002707429610000096
其中,rc为所述非合作目标在惯性坐标系中的位置矢量,vc为所述非合作目 标在惯性坐标系中的速度矢量,rc=||rc||,且rt≈rc
考虑到双目测量需要抵近测量,观测卫星和被观测目标间距离量级为 10m级到100m级,因此可以近似认为:
rt≈rc
然后,根据所述平动运动学方程、所述自旋动力学方程和所述观测卫星 的运动学方程得到质心方程:
Figure BDA0002707429610000097
如图3所示,ρ0为世界坐标系原点指向所述非合作目标的质心的向量,在测 量时刻t所述非合作目标的特征点的向量ρi和ri的关系式为:
Figure BDA0002707429610000098
其中,
Figure BDA0002707429610000099
为在测量时刻t所述非合作目标的姿态矩阵,ρ0(t)为在测量时刻t 所述世界坐标系原点指向所述非合作目标的质心的向量,ρi为所述非合作目 标的质心指向所述非合作目标的特征点Pi的向量,ri为所述世界坐标系原点指 向所述非合作目标的特征点Pi的向量。
可选的,步骤S102中所述的根据所述非合作目标运动学观测模型对所述 双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标 的位姿信息的具体实现流程包括:
基于所述非合作目标运动学观测模型,利用Q方法对所述双目轴向测量 结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息。
可选的,根据上述非合作目标运动学观测模型的具体建立过程,步骤S102 的具体实现流程包括:
根据在测量时刻t所述非合作目标的特征点的向量ρi和ri的关系式和所述 Q方法,对所述双目轴向测量结果进行位姿参数辨识,得到在测量时刻t所 述非合作目标的角速度、位姿状态、质心速度和质心位置。
具体的,先进行角速度与姿态辨识。在测量结果经过切比雪夫多项式修 正后得到修正后的特征点坐标,然后基于修正后坐标对非合作目标的线速度、 角速度等运动学参数进行辨识,对上述在测量时刻t所述非合作目标的特征 点的向量ρi和ri的关系式求微分可得:
Figure BDA0002707429610000101
ρi(t)为已知量,
Figure BDA0002707429610000102
可由ρi(t)差分得到,ρ0(t),
Figure BDA0002707429610000103
和ri为待求的未知量,需要注意的是
Figure BDA0002707429610000109
虽然包含九个元素,但只有三个独立变量。
航天器的特征点提取方法已较为成熟,可以选取本体角点和数传天线等 作为特征点,任意选择一个特征点P1作为参考点并定义:
δρi(t)=ρi(t)-ρ1(t)
δri=ri-r1
根据上述定义可以得到第一公式:
Figure BDA0002707429610000104
消去上述公式中的
Figure BDA0002707429610000105
可以得到:
Figure BDA0002707429610000106
其中,
Figure BDA0002707429610000107
是非合作目标的角速度,[a×]为列向量的叉乘矩阵,形式如下:
Figure BDA0002707429610000108
根据
Figure BDA0002707429610000111
由于[δρi(t)×]不满秩,因此需要选取N个特征 点(N≥3),使用最小二乘法对其辨识,得到角速度:
Figure BDA0002707429610000112
其中,J(t)可以写成如下形式:
Figure BDA0002707429610000113
在时刻t,公式
Figure BDA0002707429610000114
Figure BDA0002707429610000115
独立的方程 组数量为3N+9,但未知数数量为3N+12,因此还需要利用两个连续时刻间的 测量结果来计算一些未知变量。根据上述的第一公式,以下关系成立:
Figure BDA0002707429610000116
其中,tk=t0+kΔt,t0为起始时刻,Δt是采样间隔,k是正整数。
因为
Figure BDA0002707429610000117
是正交矩阵,消去上式中的δri可以得到:
Figure BDA0002707429610000118
并定义:
Figure BDA0002707429610000119
用于描述t0到tk时刻姿态变化,可以将第一公式改写成:
Figure BDA00027074296100001110
然后对上式利用Q方法求解,选择一组非负权重系数{ai},i=1,2…,N-1, 默认全部为1,并定义:
Figure BDA00027074296100001111
Figure BDA00027074296100001112
其中,
Figure BDA00027074296100001113
In表示n×n的单位矩阵,tr为矩阵的迹。将
Figure BDA00027074296100001114
定义为
Figure BDA00027074296100001115
的最优估计结果,其对应的四元数形式定义为 δqct(tk,0),等于L(B)最大特征值对应的特征向量。如果qct(t0)已知,任意时刻T 坐标系到C坐标系的相对姿态四元数qct(tk)都可得到,旋转矩阵
Figure BDA0002707429610000121
可以由 以下关系得到:
Figure BDA0002707429610000122
其中,
Figure BDA0002707429610000123
ξct(tk)×为 矩阵的叉乘形式,相对位姿的四元数形式如下:
Figure BDA0002707429610000124
然后,进行质心速度与位置辨识,即对非合作目标的位置和线速度进行 测量。具体的,在c(c∈N+,c≥2)个连续时刻对N个特征点进行观测,公式
Figure RE-GDA0002897476450000126
Figure RE-GDA0002897476450000127
独立方程个数为3N+12c-3,少 于未知数的个数3N+12c,因此还需要得到另外的三个方程来估计非合作目标 的线运动状态,将采样时间定义为Δt,根据运动学规律可以得到:
Figure BDA0002707429610000127
定义一组状态变量
Figure BDA0002707429610000128
满足如下关系:
X(tk)=A·X(tk-Δt)
其中,A为:
Figure BDA0002707429610000129
根据公式
Figure BDA00027074296100001210
Figure BDA00027074296100001211
观测模型可以改写成:
Y(tk)=C(tk)X(tk)
其中
Y(tk)=[Y1(tk)T … YN(tk)T]T
Figure BDA00027074296100001212
Figure BDA0002707429610000131
在上述公式中,
Figure BDA0002707429610000132
Figure BDA0002707429610000133
可以分别由公式
Figure BDA0002707429610000134
和公式
Figure BDA0002707429610000135
求得。 C(tk)的秩为3N+3,然而状态变量X(tk)的维数为3N+6,因此还要需要从连续 时刻的观测结果中得到全部的状态变量,对公式Y(tk)=C(tk)X(tk)进行改写:
X(tk-j·Δt)=A-jX(tk),k-c≤j<k
其中,j是一个正整数,1≤k≤N-c,同样,观测模型可以被改写成:
Y(tk-j·Δt)=C(tk-j·Δt)A-jX(tk),k-c≤j<k
其中A为:
Figure BDA0002707429610000136
对上式改写得到:
H·X(tk)=Y
其中H和Y分别为:
Figure BDA0002707429610000141
然后利用最小二乘法求解:
X(tk)=(HHT)-1HTY
得到非合作目标的质心实时的在相机坐标系下的位置和速度。
步骤S103,基于所述非合作目标运动学观测模型,根据当前测量时刻的 所述位姿信息对所述非合作目标的位姿状态进行预测。
上述基于双目视觉的空间非合作目标位姿预测方法,首先使用切比雪夫 多项式对双目轴向结果进行标定,可以克服双目相机轴向测量误差随距离增 加而增加的问题;使用基于Q方法进行运动学参数辨识,可以降低对先验信 息的需求,也可以抑制各类测量噪声,实现了对非合作目标运动学参数辨识 和未来时刻位姿预测,降低了在轨服务或在轨捕获的难度,提高了对不同目 标的适应性。
在一个实施例中,步骤S103的具体实现流程包括:
根据所述自旋动力学方程和所述质心方程得到:
v=vcon
ω=ωcon
其中,vcon为速度常数,ωcon为角速度常数,测量时刻t的未来时刻tf所述非 合作目标的质心位置和姿态矩阵为:
ρ0(tf)=ρ0(t)+v(tf-t)
Figure BDA0002707429610000142
其中,
Figure BDA0002707429610000143
是tf时刻到t时刻的姿态转换矩阵,由角速度和旋转轴决定, 具体为:
Figure BDA0002707429610000144
其中,θ=||ω||·(tf-t),ω为测量时刻t所述非合作目标的角速度,cθ=cosθ,sθ=sinθ,vθ=1-cosθ,K=[kx,ky,kz]T为自转轴,通过ω归一化得到。所述未 来时刻tf所述非合作目标的特征点Pi的位置为:
Figure BDA0002707429610000151
其中,
Figure BDA0002707429610000152
为在未来时刻tf所述非合作目标的姿态矩阵,ρ0(tf)为在未来时 刻tf所述世界坐标系原点指向所述非合作目标的质心的向量,ri为所述世界坐 标系原点指向所述非合作目标的特征点Pi的向量。
基于动量守恒的预测方法,可以在光照或遮挡等无法观测到非合作目标 时,通过历史数据对非合作目标当前时刻位姿状态进行预测,即实现了对非 合作目标未来时刻位姿预测,降低了在轨服务或在轨捕获的难度。
示例性的,结合具体的双目相机系统对本实施例的方法进行说明。例如, 双目相机系统的基线长60cm,焦距3mm,成像尺寸720*480。另外,使用激 光测距仪进行测量,50m范围内误差±2mm,将激光测距仪结果作为真值。 测量结果进行切比雪夫多项式修正,修正结果如图5,修正前平均误差 13.5cm,修正后平均误差3.12cm,降低了76.9%的误差。
为验证前述特征点坐标修正前后对运动学参数辨识精度的影响,现设计 半物理仿真实验。根据大多数航天器的尺寸分布,在三个方向上在[-3.5m, 3.5m]范围内随机生成若干特征点。角速度为[0,0,30]deg/s,线速度为[1,0, 0]m/s,以其中一个特征点[3.31,0.32,2.44]为例,真实轨迹为特征点根据物理 规律运行的真实轨迹,修正测量结果为基于切比雪夫多项式修正的结果,轨 迹如图6所示,深色轨迹为修正后的轨迹,浅色轨迹为修正前的轨迹。
为评估运动学参数辨识精度,定义质心线速度相对误差
Figure BDA0002707429610000153
角速度相对 误差
Figure BDA0002707429610000154
和特征点坐标相对误差eρ0如下:
Figure BDA0002707429610000155
Figure BDA0002707429610000156
Figure BDA0002707429610000157
基于未修正的原始测量轨迹的辨识结果如图7所示,图7中左面图是角 速度的辨识结果,右面图是线速度的辨识结果,基于切比雪夫多项式修正测 量轨迹的辨识结果如图9所示。在10-20s之间随机选取时刻预测,以特征点 [3.06,0.27,-1.53]为例预测结果如图8所示,浅色轨迹为未修正的预测结果, 深色轨迹为真实轨迹。基于修正前后的特征点位置预测相对误差对比如图10 所示,从图10结果对比可以看出,基于切比雪夫多项式修正后的坐标辨识的 线速度和角速度平均误差仅有2.24%和2.76%,而基于未修正坐标的误差高达 6.18%和13.92%,从轨迹预测结果也可以看出基于修正数据的预测轨迹与真 实轨迹重合度较高,即从上述结果可以看出本实施例的修正方法可以显著提 高非合作目标的运动学参数辨识精度。
上述空间非合作目标的位姿预测方法中,基于切比雪夫多项式的可以显 著降低双目相机的轴向测量误差,明显提高目标的坐标测量精度;基于Q方 法的位姿参数辨识方法,无需非合作目标的先验信息,可以抑制包括高斯噪 声的各类噪声,可同时测量线角速度、位置和姿态,计算简单,且精度高; 位姿预测算法可以在光照或遮挡等无法观测到非合作目标时,基于历史数据 对非合作目标当前时刻位姿状态进行精准预测。
本领域技术人员可以理解,上述实施例中各步骤的序号的大小并不意味 着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应 对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的空间非合作目标的位姿预测方法,本实施例提 供了一种空间非合作目标的位姿预测装置。具体参见图11,为本实施例中空 间非合作目标的位姿预测装置的结构示意图。为了便于说明,仅示出了与本 实施例相关的部分。
所述非合作目标的位姿预测装置主要包括:测量模块110、位姿参数辨 识模块120和预测模块130。
测量模块110用于基于双目视觉对空间非合作目标进行轴向测量,得到 双目轴向测量结果。
位姿参数辨识模块120用于建立非合作目标运动学观测模型,并根据所 述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识, 得到当前测量时刻的所述非合作目标的位姿信息。
预测模块130用于基于所述非合作目标运动学观测模型,根据当前测量 时刻的所述位姿信息对所述非合作目标的位姿状态进行预测。
上述空间非合作目标的位姿预测装置,实现了对非合作目标运动学参数 辨识和未来时刻位姿预测,降低了在轨服务或在轨捕获的难度,提高了对 不同目标的适应性。
本实施例还提供了一种空间非合作目标的位姿预测装置100的示意图。 如图12所示,该实施例的空间非合作目标的位姿预测装置100包括:处理器 140、存储器150以及存储在所述存储器150中并可在所述处理器140上运行 的计算机程序151,例如空间非合作目标的位姿预测方法的程序。
其中,处理器140在执行存储器150上所述计算机程序151时实现上述 空间非合作目标的位姿预测方法实施例中的步骤,例如图1所示的步骤101 至103。或者,所述处理器140执行所述计算机程序151时实现上述各装置 实施例中各模块/单元的功能,例如图11所示模块110至130的功能。
示例性的,所述计算机程序151可以被分割成一个或多个模块/单元,所 述一个或者多个模块/单元被存储在所述存储器150中,并由所述处理器140 执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的 一系列计算机程序指令段,该指令段用于描述所述计算机程序151在所述非 合作目标的位姿预测装置100中的执行过程。例如,所述计算机程序151可 以被分割成测量模块110、位姿参数辨识模块120和预测模块130,各模块具 体功能如下:
测量模块110用于基于双目视觉对空间非合作目标进行轴向测量,得到 双目轴向测量结果。
位姿参数辨识模块120用于建立非合作目标运动学观测模型,并根据所 述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识, 得到当前测量时刻的所述非合作目标的位姿信息。
预测模块130用于基于所述非合作目标运动学观测模型,根据当前测量 时刻的所述位姿信息对所述非合作目标的位姿状态进行预测。
所述非合作目标的位姿预测装置100可包括,但不仅限于处理器140、 存储器150。本领域技术人员可以理解,图12仅仅是空间非合作目标的位姿 预测装置100的示例,并不构成对空间非合作目标的位姿预测装置100的限 定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部 件,例如所述非合作目标的位姿预测装置100还可以包括输入输出设备、网 络接入设备、总线等。
所述处理器140可以是中央处理单元(Central Processing Unit,CPU),还 可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、 专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门 阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分 立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或 者该处理器也可以是任何常规的处理器等。
所述存储器150可以是所述非合作目标的位姿预测装置100的内部存储 单元,例如空间非合作目标的位姿预测装置100的硬盘或内存。所述存储器 150也可以是所述非合作目标的位姿预测装置100的外部存储设备,例如所 述非合作目标的位姿预测装置100上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card) 等。进一步地,所述存储器150还可以既包括所述非合作目标的位姿预测装 置100的内部存储单元也包括外部存储设备。所述存储器150用于存储所述 计算机程序以及所述非合作目标的位姿预测装置100所需的其他程序和数 据。所述存储器150还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以 上述各功能单元、模型的划分进行举例说明,实际应用中,可以根据需要而 将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划 分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例 中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独 物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元 既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申 请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法 实施例中的对应过程,在此不再赘述。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中, 也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单 元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单 元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产 品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理 解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程 序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储 介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步 骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以 为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录 介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM, Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、 电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可 读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的 增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包 括是电载波信号和电信信号。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前 述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其 依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术 特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离 本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (8)

1.一种空间非合作目标的位姿预测方法,其特征在于,包括:
基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果;
建立非合作目标运动学观测模型,并根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息;
基于所述非合作目标运动学观测模型,根据当前测量时刻的所述位姿信息对所述非合作目标的位姿状态进行预测;
其中,所述基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果,包括:基于双目视觉对空间非合作目标进行轴向测量;基于切比雪夫多项式,对所述轴向测量的结果进行标定,得到双目轴向测量结果;
所述根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息,包括:基于所述非合作目标运动学观测模型,利用Q方法对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息。
2.如权利要求1所述的空间非合作目标的位姿预测方法,其特征在于,所述非合作目标的位姿信息包括:角速度、当前位姿状态、质心速度或质心位置的至少一种。
3.如权利要求1所述的空间非合作目标的位姿预测方法,其特征在于,所述建立非合作目标运动学观测模型,包括:
建立接近过程的运动学模型,得到所述非合作目标的质心在惯性坐标系中的平动运动学方程:
Figure FDA0003610459940000011
Figure FDA0003610459940000012
其中,式中μ是地球引力常数,rt为所述非合作目标在惯性坐标系中的位置矢量,vt为所述非合作目标在惯性坐标系中的速度矢量,rt=||rt||;
得到所述非合作目标的自旋动力学方程:
Figure FDA0003610459940000013
得到观测卫星的运动学方程:
Figure FDA0003610459940000021
Figure FDA0003610459940000022
其中,rc为所述非合作目标在惯性坐标系中的位置矢量,vc为所述非合作目标在惯性坐标系中的速度矢量,rc=||rc||,且rt≈rc
根据所述平动运动学方程、所述自旋动力学方程和所述观测卫星的运动学方程得到质心方程:
Figure FDA0003610459940000024
其中,ρ0为世界坐标系原点指向所述非合作目标的质心的向量,在测量时刻t所述非合作目标的特征点的向量ρi和ri的关系式为:
Figure FDA0003610459940000023
其中,
Figure FDA0003610459940000025
为在测量时刻t所述非合作目标的姿态矩阵,ρ0(t)为在测量时刻t所述世界坐标系原点指向所述非合作目标的质心的向量,ρi为所述非合作目标的质心指向所述非合作目标的特征点Pi的向量,ri为所述世界坐标系原点指向所述非合作目标的特征点Pi的向量。
4.如权利要求1或3所述的空间非合作目标的位姿预测方法,其特征在于,所述根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息,包括:
根据在测量时刻t所述非合作目标的特征点的向量ρi和ri的关系式和所述Q方法,对所述双目轴向测量结果进行位姿参数辨识,得到在测量时刻t所述非合作目标的角速度、位姿状态、质心速度和质心位置。
5.如权利要求3所述的空间非合作目标的位姿预测方法,其特征在于,所述基于所述非合作目标运动学观测模型,根据当前测量时刻的所述位姿信息对所述非合作目标的位姿状态进行预测,包括:
根据所述自旋动力学方程和所述质心方程得到:
v=vcon
ω=ωcon
其中,vcon为速度常数,ωcon为角速度常数,测量时刻t的未来时刻tf所述非合作目标的质心位置和姿态矩阵为:
ρ0(tf)=ρ0(t)+v(tf-t)
Figure FDA0003610459940000031
其中,
Figure FDA0003610459940000032
是tf时刻到t时刻的姿态转换矩阵,具体为:
Figure FDA0003610459940000033
其中,θ=||ω||·(tf-t),ω为测量时刻t所述非合作目标的角速度,cθ=cosθ,sθ=sinθ,vθ=1-cosθ,K=[kx,ky,kz]T为自转轴,通过ω归一化得到,所述未来时刻tf所述非合作目标的特征点Pi的位置为:
Figure FDA0003610459940000034
其中,
Figure FDA0003610459940000035
为在未来时刻tf所述非合作目标的姿态矩阵,ρ0(tf)为在未来时刻tf所述世界坐标系原点指向所述非合作目标的质心的向量,ri为所述世界坐标系原点指向所述非合作目标的特征点Pi的向量。
6.一种空间非合作目标的位姿预测装置,其特征在于,包括:
测量模块,用于基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果;
位姿参数辨识模块,用于建立非合作目标运动学观测模型,并根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息;
预测模块,用于基于所述非合作目标运动学观测模型,根据当前测量时刻的所述位姿信息对所述非合作目标的位姿状态进行预测;
其中,所述基于双目视觉对空间非合作目标进行轴向测量,得到双目轴向测量结果,包括:基于双目视觉对空间非合作目标进行轴向测量;基于切比雪夫多项式,对所述轴向测量的结果进行标定,得到双目轴向测量结果;
所述根据所述非合作目标运动学观测模型对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息,包括:基于所述非合作目标运动学观测模型,利用Q方法对所述双目轴向测量结果进行位姿参数辨识,得到当前测量时刻的所述非合作目标的位姿信息。
7.一种空间非合作目标的位姿预测装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的空间非合作目标的位姿预测方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的空间非合作目标的位姿预测方法的步骤。
CN202011044019.8A 2020-09-28 2020-09-28 空间非合作目标的位姿预测方法和装置 Active CN112407344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011044019.8A CN112407344B (zh) 2020-09-28 2020-09-28 空间非合作目标的位姿预测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011044019.8A CN112407344B (zh) 2020-09-28 2020-09-28 空间非合作目标的位姿预测方法和装置

Publications (2)

Publication Number Publication Date
CN112407344A CN112407344A (zh) 2021-02-26
CN112407344B true CN112407344B (zh) 2022-06-28

Family

ID=74854801

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011044019.8A Active CN112407344B (zh) 2020-09-28 2020-09-28 空间非合作目标的位姿预测方法和装置

Country Status (1)

Country Link
CN (1) CN112407344B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115250331A (zh) * 2022-07-25 2022-10-28 哈尔滨工业大学 基于多目视觉的空间舱球形监测系统
CN117284499B (zh) * 2023-11-24 2024-01-19 北京航空航天大学 一种基于单目视觉-激光的空间展开机构位姿测量方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102692214B (zh) * 2012-06-11 2014-11-05 北京航空航天大学 一种狭窄空间双目视觉测量定位装置及方法
CN104236528A (zh) * 2013-06-06 2014-12-24 上海宇航系统工程研究所 一种非合作目标相对位姿测量方法
CN106892137B (zh) * 2017-02-21 2019-05-28 哈尔滨工业大学深圳研究生院 一种空间非合作翻滚目标的大容差捕获方法及系统
CN111174795A (zh) * 2020-01-31 2020-05-19 武汉大学 一种基于混合卡尔曼滤波的自由漂浮目标位姿预测方法

Also Published As

Publication number Publication date
CN112407344A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
Peng et al. Pose measurement and motion estimation of space non-cooperative targets based on laser radar and stereo-vision fusion
Bloesch et al. Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN105698764B (zh) 一种光学遥感卫星影像时变系统误差建模补偿方法及系统
CN112083725A (zh) 一种面向自动驾驶车辆的结构共用多传感器融合定位系统
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN103323026A (zh) 星敏感器和有效载荷的姿态基准偏差估计与修正方法
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
Cai et al. Mobile robot localization using gps, imu and visual odometry
CN112407344B (zh) 空间非合作目标的位姿预测方法和装置
Sujiwo et al. Monocular vision-based localization using ORB-SLAM with LIDAR-aided mapping in real-world robot challenge
CN102155955A (zh) 立体视觉里程计及测量方法
CN109724586B (zh) 一种融合深度图和点云的航天器相对位姿测量方法
Dor et al. Visual SLAM for asteroid relative navigation
Kang et al. Pose estimation of a non-cooperative spacecraft without the detection and recognition of point cloud features
Zhang et al. Global Measurement Method for Large‐Scale Components Based on a Multiple Field of View Combination
Gao et al. MGG: Monocular global geolocation for outdoor long-range targets
Nocerino et al. Experimental validation of inertia parameters and attitude estimation of uncooperative space targets using solid state LIDAR
Du et al. Autonomous measurement and semantic segmentation of non-cooperative targets with deep convolutional neural networks
Cassinis et al. Leveraging neural network uncertainty in adaptive unscented Kalman Filter for spacecraft pose estimation
Bikmaev et al. Improving the accuracy of supporting mobile objects with the use of the algorithm of complex processing of signals with a monocular camera and LiDAR
Jiang et al. 3D SLAM based on NDT matching and ground constraints for ground robots in complex environments
CN116878488A (zh) 一种建图方法、装置、存储介质及电子装置
Zhu et al. A hybrid relative navigation algorithm for a large–scale free tumbling non–cooperative target
Zhang et al. Flexible on-orbit calibration for monocular camera and laser rangefinder integrated pose measurement system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant