CN110332958B - 一种基于视觉测量的空间目标旋转轴识别方法 - Google Patents

一种基于视觉测量的空间目标旋转轴识别方法 Download PDF

Info

Publication number
CN110332958B
CN110332958B CN201910672906.0A CN201910672906A CN110332958B CN 110332958 B CN110332958 B CN 110332958B CN 201910672906 A CN201910672906 A CN 201910672906A CN 110332958 B CN110332958 B CN 110332958B
Authority
CN
China
Prior art keywords
target
coordinate system
inertia axis
spacecraft
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910672906.0A
Other languages
English (en)
Other versions
CN110332958A (zh
Inventor
袁静
袁建平
马卫华
赵迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201910672906.0A priority Critical patent/CN110332958B/zh
Publication of CN110332958A publication Critical patent/CN110332958A/zh
Application granted granted Critical
Publication of CN110332958B publication Critical patent/CN110332958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass

Abstract

本发明公开了一种基于视觉测量的空间目标旋转轴识别方法,包括:通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标旋转轴识别。通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。通过使用该方法对不同转速的空间目标进行仿真验证,识别目标旋转轴的精度达到了工程满意的水平。

Description

一种基于视觉测量的空间目标旋转轴识别方法
技术领域
本发明涉及空间目标运动状态辨识技术领域,尤其涉及一种基于视觉测量的空间目标旋转轴识别方法。
背景技术
随着空间技术的发展,以空间交会对接、碎片规避、轨道与姿态重置、在轨释放有效载荷、在轨维修等为内容的空间操作技术成为现在和未来空间活动的重要内容。对于空间操作而言,对空间目标运动状态,包括位置和速度、姿态和转速的精确识别,是任务成功的必要条件。
视觉测量系统由于其质量轻便、价格便宜,且方便对被动目标进行观察,被广泛用于空间目标的识别。对于空间合作目标的测量,通过在合作的目标上安装标志信息或者通过接收目标自身的测量信息(如GPS)等,采用卡曼滤波及其扩展方法较容易完成目标运动状态的识别。对于非合作目标,由于没有合作信息提供,运动状态的估计变得非常困难。到目前为止,大量对非合作目标识别的研究仅限于对空间静止目标的状态识别,对于非合作旋转目标的转速和姿态的识别,仅有少数文献涉及到。但目前这些文献的研究成果是基于这样的假设进行的:假定目标的惯量主轴已知,沿惯量主轴建立目标本体坐标系,从而定义目标与测量航天器的相对运动状态作为滤波状态,完成目标航天器运动状态的估值。但在现实世界中,非合作目标的惯量主轴往往难以预知。但没有现有技术针对这个问题进行研究。
发明内容
为解决现有技术中存在的问题,本发明的目的在于提供一种基于视觉测量的空间目标旋转轴识别方法,通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。
为实现上述目的,本发明采用以下技术手段:
一种基于视觉测量的空间目标旋转轴识别方法,包括:
通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标旋转轴识别。
作为本发明的进一步改进,包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,确保目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
4)选择无味变换采样点;
5)根据无味卡曼滤波框架计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据5)计算的转速、姿态和旋转轴,及7)中计算的特征点位置,求解特征点在相机成像平面投影;
9)将6)中提取的特征点位置与8)中同一特征点的估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值,则已经估计出当前的转速、姿态和旋转轴方向;否则,根据滤波增益修正航天器转速、姿态和旋转轴与本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
作为本发明的进一步改进,步骤3)中,以目标惯量轴建立惯量轴坐标系,设Z轴为最大惯量轴方向,则有:
Figure BDA0002142295040000031
使用符号ω(pc),q(pc)代表目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素,q(pb)代表主惯量轴坐标系与本体坐标系姿态四元素;
假定观测卫星自身不旋转,则目标在转轴坐标系下的转速相对于观测卫星也不变:
Figure BDA0002142295040000032
目标的旋转轴相对目标本体的方向不变:
Figure BDA0002142295040000033
姿态与转速关系如下:
Figure BDA0002142295040000034
其中,Ω定义如下:
Figure BDA0002142295040000035
其中,ω=[ω1 ω2 ω3]代表刚体转速及其在空间坐标系三个方向的分量。
作为本发明的进一步改进,步骤4)中,选择无味变换采样点具体步骤为:
根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,选择采样点方法如下:
Figure BDA0002142295040000036
Figure BDA0002142295040000037
Figure BDA0002142295040000038
其中,
Figure BDA0002142295040000041
为上一步得到的估值,Pt为上一步得到的协方差矩阵;λ取-2到+5之间的任意数。
作为本发明的进一步改进,步骤5)中,根据无味卡曼滤波框架计算状态先验均值与方差具体步骤如下:
首先,对每个采样点计算先验值;
Figure BDA0002142295040000042
f为状态方程;
然后,计算其均值和方差:
Figure BDA0002142295040000043
Figure BDA0002142295040000044
其中,W为样本点权值系数,
Figure BDA0002142295040000045
Qt为时刻t状态模型噪声矩阵。
作为本发明的进一步改进,步骤8)中,求解特征点在相机成像平面投影中,特征点在相机图像平面的投影关系如下:
Figure BDA0002142295040000046
其中,ρxiyizi为第i个特征点在目标主惯量轴坐标系下的位置分量,fx,fz为相机在投影平面横坐标和纵坐标方向的焦距。
作为本发明的进一步改进,步骤10)中,滤波增益的计算公式如下:
Figure BDA0002142295040000047
其中:
Figure BDA0002142295040000048
Figure BDA0002142295040000049
其中,Rt为时刻t的观测模型噪声矩阵,
Figure BDA0002142295040000051
分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
作为本发明的进一步改进,步骤6)中,对视觉测量图像进行特征点提取的数量为3-6个。
与现有技术相比,本发明的有益效果是:
本发明通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而完成非合作目标的惯量主轴的预知。通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。通过使用该方法对不同转速的空间目标进行仿真验证,识别目标旋转轴的精度达到了工程满意的水平。完成空间旋转目标转轴的正确识别,即可以对目标的位置、速度、姿态和转速进行准确识别,从而为后续空间操控任务提供基础。该方法适用于空间合作目标、失效航天器和航天器碎片等空间非合作目标。
附图说明
图1为本发明基于视觉测量的空间目标旋转轴识别方法框架图;
图2为本发明视觉测量原理图;
图3为本发明目标旋转轴坐标与本体坐标关系。
具体实施方式
下面结合附图对本发明的结构和工作原理作进一步详细说明。
本发明一种基于视觉测量的空间目标旋转轴识别方法,通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而完成目标旋转轴识别。该方法适用于空间合作目标以及失效航天器的旋转轴识别。如图1所示,包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
4)选择无味变换采样点;
5)计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据5)计算的转速、姿态和旋转轴,及7)中计算的特征点位置,求解特征点在相机成像平面投影;
9)将6)中提取的特征点位置与8)中同一特征点的估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值(精度),表明已经估计出当前的转速、姿态和旋转轴方向。否则,根据滤波增益修正航天器转速、姿态和旋转轴与本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
以下结合具体实施例对本发明的方法进行说明。
实施例
1)本过程实施的前提为:先完成测量航天器进行调整,使其与目标相对位置保持不变,目标保持在相机视场中。
2)滤波参数初始化
设置状态初值。
状态变量协方差矩阵:
P0|0=E[(X0-X0|0)(X0-X0|0)T]
=diag(Pw,Pqp,Pqb) (1)
其中,Pw,Pqp,Pqb为ω(pc),q(pc),q(bc)的协方差矩阵
状态模型噪声矩阵:Q=diag(Qw,Qqp,Qqb) (2)
其中,Qw,Qqp,Qqb分别为ω(pc),q(pc),q(bc)的状态模型噪声矩阵
观测模型噪声矩阵:R=diag(σwqpqb) (3)
其中,σwqpqb分别为ω(pc),q(pc),q(bc)的观测模型噪声矩阵。
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
Figure BDA0002142295040000071
其中,
Figure BDA0002142295040000072
分别为目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素初值,
Figure BDA0002142295040000073
为目标本体坐标系相对于主惯量轴坐标系姿态四元素初值。4)选择无味变换采样点:根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,从3)可知,n=11。选择采样点方法如下:
Figure BDA0002142295040000074
Figure BDA0002142295040000075
Figure BDA0002142295040000076
其中,
Figure BDA0002142295040000077
为上一步得到的估值,Pt为上一步得到的协方差矩阵。λ可以取-2到+5之间的任意数。
5)根据其中的采样点计算状态先验均值与方差;
首先,对每个采样点计算先验值。
Figure BDA0002142295040000078
f为状态方程,由公式(20)—(23)组成。
然后,计算其均值和方差:
Figure BDA0002142295040000081
Figure BDA0002142295040000082
其中,W为样本点权值系数,
Figure BDA0002142295040000083
Qt为时刻t状态模型噪声矩阵。
6)对视觉测量获得的图像进行特征点提取和识别,很多方法可以完成此项工作,特征点提取和识别方法不在本申请保护范围。
7)确定每个特征点在目标本体坐标系位置;
8)根据第5)步计算的转速、姿态和旋转轴,及6)中获得的特征点位置信息,采用公式(26)求解特征点在相机成像平面投影。
9)将6)中提取的特征点位置与8)中计算出的同一特征点的估值进行比较,计算估计偏差。
Figure BDA0002142295040000084
其中,Zt+1(i)为t+1时刻采集的第i个特征点在相机平面的投影。
Figure BDA0002142295040000085
为第7)步中求解的特征点的均值。
10)根据5)和8)中结果计算滤波增益
Figure BDA0002142295040000086
其中:
Figure BDA0002142295040000087
Figure BDA0002142295040000088
Rt为时刻t的观测模型噪声矩阵,
Figure BDA0002142295040000089
分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
11)如果滤波增益小于给定阈值(精度),表明已经估计出当前的转速、姿态和旋转轴方向。
否则,根据滤波增益修正状态估计参数(航天器转速、姿态和旋转轴与本体坐标系方向估值):
Figure BDA0002142295040000091
修改协方差矩阵:
Figure BDA0002142295040000092
其中,Kt+1
Figure BDA0002142295040000093
的计算在第10)步中已经完成。
重新开始第4)步,进行新一轮采样滤波。
本方法主要依据是欧拉原理:对于刚体在空间中的运动,如果没有受到外力矩作用,在经过一段时间无序的翻滚后,将逐渐稳定,最终保持绕最大惯量轴方向旋转,其转速的度数保持不变。假定目标在惯性坐标系下的转速为ω=[ω1ω2ω3]T,则其转轴,又称欧拉轴,方向为:
Figure BDA0002142295040000094
依据上述原理,以目标惯量轴建立惯量轴坐标系(PACS:Principal AxisCoordinate System),设Z轴为最大惯量轴方向,则有:
Figure BDA0002142295040000095
由于在视觉测量过程中难以获得目标的惯量轴,通常会以目标的对称轴或通过以获取的特征点构成向量建立坐标系,这个坐标系可以定义为本体坐标系,用(b)表示。
采用符号ω(pc),q(pc)表示目标主惯量轴坐标相对于测量航天器的转速和姿态(四元素表示),q(bp)表示目标本体坐标系相对主惯量轴坐标系姿态(四元素表示)。可定义状态参数:
Figure BDA0002142295040000096
状态方程:
根据欧拉原理,刚体的姿态与转速关系如下:
Figure BDA0002142295040000101
Figure BDA0002142295040000102
假定观测卫星自身不旋转,则目标在转轴坐标系下的转速相对于观测卫星也不变:
Figure BDA0002142295040000103
目标的旋转轴相对目标本体的方向不变:
Figure BDA0002142295040000104
观察方程:
已知特征点在本体坐标系的位置,由下式可以得到其在主轴坐标系下的位置。
Figure BDA0002142295040000105
其中Pi (b)和Pi (p)为分别为目标在本体坐标系和主轴坐标系下特征点位置,D(qbp)为本体坐标系到主轴坐标系旋转矩阵。
已知主轴坐标系与测量航天器相对姿态D(qpc)矩阵,可由下式计算特征点相对于观察卫星的位置:
ρi=ρ0+D(qpc)Pi (p)=ρ0+D(qpc)D(qbp)Pi (b)+D(qpc)B (25)
由此,可以计算特征点在相机图像平面的投影
Figure BDA0002142295040000106
其中,fx和fz分别为相机在水平和垂直方向的焦距。
加上观测噪声,观测方程可以写为:
Zik=hi(xk)+viki=1,…,N (27)
vik为观察噪声,N为特征点个数。
以下对本发明的方法进行仿真模拟,已验证本发明的有效性。
仿真模拟
取相对距离25米,目标本体坐标系相对相机坐标系姿态[5,5,5]度,旋转轴相对本体坐标系姿态[[10 25 20]度,目标物体尺寸3×3×3米,对不同转速的空间目标进行仿真验证,经过2000秒的滤波,获得了比较好的精度。目标旋转轴的精度
Figure BDA0002142295040000111
及目标本体姿态
Figure BDA0002142295040000112
和转速精度
Figure BDA0002142295040000113
如表1所示。
表1
Figure BDA0002142295040000114
完成空间旋转目标转轴的正确识别,即可以对目标的位置、速度、姿态和转速进行准确识别,从而为后续空间操控任务提供基础。该方法适用于空间合作目标、失效航天器和航天器碎片等空间非合作目标。
以上实施例仅用于说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细说明,所属领域的普通技术人员依然可以对本发明的具体实施方案进行修改或者等同替换,而这些并未脱离本发明精神和范围的任何修改或者等同替换,其均在本发明的权利要求保护范围之内。

Claims (7)

1.一种基于视觉测量的空间目标惯量轴识别方法,其特征在于,包括:
通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标惯量轴识别;
包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,确保目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和目标惯量轴与目标本体坐标系方向估计初值;
4)选择无味变换采样点;
5)根据无味卡曼滤波框架计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据3)设置的航天器转速、姿态和目标惯量轴的估计初值,及7)中计算的特征点位置,求解特征点在相机成像平面投影位置,及同一特征点的位置估值;
9)将6)中提取和识别的特征点与8)中同一特征点的位置估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值,则已经估计出当前的转速、姿态和目标惯量轴方向;否则,根据滤波增益修正航天器转速、姿态和目标惯量轴与目标本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
2.根据权利要求1所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤3)中,以目标惯量轴建立目标主惯量轴坐标系,设Z轴为最大惯量轴方向,则有:
Figure FDA0002571419320000021
使用符号ω(pc),q(pc)分别代表目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素,q(pb)代表目标主惯量轴坐标系与目标本体坐标系姿态四元素;
假定观测卫星自身不旋转,则目标在目标主惯量轴坐标系下的转速相对于观测卫星也不变:
Figure FDA0002571419320000022
目标惯量轴相对目标本体的方向不变:
Figure FDA0002571419320000023
姿态与转速关系如下:
Figure FDA0002571419320000024
其中,Ω定义如下:
Figure FDA0002571419320000025
其中,ω=[ω1 ω2 ω3]代表航天器转速及其在空间坐标系三个方向的分量。
3.根据权利要求2所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤4)中,选择无味变换采样点具体步骤为:
根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,选择采样点方法如下:
Figure FDA0002571419320000026
Figure FDA0002571419320000031
Figure FDA0002571419320000032
其中,
Figure FDA0002571419320000033
为上一步得到的估值,Pt为上一步得到的协方差矩阵;λ取-2到+5之间的任意数。
4.根据权利要求1所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤5)中,根据无味卡曼滤波框架计算状态先验均值与方差具体步骤如下:
首先,对每个采样点计算先验值;
Figure FDA0002571419320000034
f为状态方程;
然后,计算其均值和方差:
Figure FDA0002571419320000035
Figure FDA0002571419320000036
其中,W为样本点权值系数,
Figure FDA0002571419320000037
Qt为时刻t状态模型噪声矩阵。
5.根据权利要求1所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤8)中,求解特征点在相机成像平面投影中,特征点hi(x)在相机图像平面的投影关系如下:
Figure FDA0002571419320000038
其中,ρxi,ρyi,ρzi为第i个特征点在目标主惯量轴坐标系下的位置分量,fx,fz为相机在投影平面横坐标和纵坐标方向的焦距。
6.根据权利要求1所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤10)中,滤波增益的计算公式如下:
Figure FDA0002571419320000041
其中:
Figure FDA0002571419320000042
Figure FDA0002571419320000043
其中,Rt为时刻t的观测模型噪声矩阵,
Figure FDA0002571419320000044
分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
7.根据权利要求1所述的基于视觉测量的空间目标惯量轴识别方法,其特征在于,步骤6)中,对视觉测量图像进行特征点提取的数量为3-6个。
CN201910672906.0A 2019-07-24 2019-07-24 一种基于视觉测量的空间目标旋转轴识别方法 Active CN110332958B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910672906.0A CN110332958B (zh) 2019-07-24 2019-07-24 一种基于视觉测量的空间目标旋转轴识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910672906.0A CN110332958B (zh) 2019-07-24 2019-07-24 一种基于视觉测量的空间目标旋转轴识别方法

Publications (2)

Publication Number Publication Date
CN110332958A CN110332958A (zh) 2019-10-15
CN110332958B true CN110332958B (zh) 2020-10-20

Family

ID=68147417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910672906.0A Active CN110332958B (zh) 2019-07-24 2019-07-24 一种基于视觉测量的空间目标旋转轴识别方法

Country Status (1)

Country Link
CN (1) CN110332958B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113390336B (zh) * 2021-05-24 2024-03-12 武汉海微科技股份有限公司 一种基于机器视觉的可调式屏幕贴合对位装置和标定方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103438888A (zh) * 2013-07-24 2013-12-11 西北工业大学 一种对空间非合作目标自主交会的相对导航方法
CN103745458A (zh) * 2013-12-26 2014-04-23 华中科技大学 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法
CN103994755A (zh) * 2014-05-29 2014-08-20 清华大学深圳研究生院 一种基于模型的空间非合作目标位姿测量方法
CN107490356A (zh) * 2017-08-21 2017-12-19 上海航天控制技术研究所 一种非合作目标旋转轴和旋转角测量方法
CN108645416A (zh) * 2018-03-30 2018-10-12 北京空间飞行器总体设计部 用于非合作目标相对导航仿真验证的视觉测量系统及方法
CN108692729A (zh) * 2018-05-04 2018-10-23 北京空间飞行器总体设计部 一种空间非合作目标相对导航协方差自适应修正滤波方法
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312855B1 (en) * 2006-10-26 2007-12-25 United States Of America As Represented By The Secretary Of The Navy Combined coherent and incoherent imaging LADAR

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103438888A (zh) * 2013-07-24 2013-12-11 西北工业大学 一种对空间非合作目标自主交会的相对导航方法
CN103745458A (zh) * 2013-12-26 2014-04-23 华中科技大学 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法
CN103994755A (zh) * 2014-05-29 2014-08-20 清华大学深圳研究生院 一种基于模型的空间非合作目标位姿测量方法
CN107490356A (zh) * 2017-08-21 2017-12-19 上海航天控制技术研究所 一种非合作目标旋转轴和旋转角测量方法
CN108645416A (zh) * 2018-03-30 2018-10-12 北京空间飞行器总体设计部 用于非合作目标相对导航仿真验证的视觉测量系统及方法
CN108692729A (zh) * 2018-05-04 2018-10-23 北京空间飞行器总体设计部 一种空间非合作目标相对导航协方差自适应修正滤波方法
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Low-complexity Stabilization Control of Combined Spacecraft with an Unknown Captured Object;Caisheng Wei等;《Proceedings of the 36th Chinese Control Conference》;20170731;第1075-1080页 *
一种用于非合作目标惯性指向轴位置捕获的绕飞放方法;刘涛等;《宇航学报》;20180531;第39卷(第5期);第524-531页 *
基于视线测量和轨道预报高轨非合作目标相对导航方法;张杨等;《空间控制技术与应用》;20160630;第42卷(第3期);第21-26页 *
空间翻滚非合作目标相对位姿估计的视觉SLAM方法;郝刚涛等;《宇航学报》;20150630;第36卷(第6期);第706-714页 *
空间非合作目标的运动参数估计与三维重建;李喆武;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215(第2期);第I138-1928页 *

Also Published As

Publication number Publication date
CN110332958A (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
Yang et al. Deep concrete inspection using unmanned aerial vehicle towards cssc database
US10306206B2 (en) 3-D motion estimation and online temporal calibration for camera-IMU systems
Assa et al. A robust vision-based sensor fusion approach for real-time pose estimation
CN108645416B (zh) 基于视觉测量系统的非合作目标相对导航仿真验证方法
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
Kelly et al. Visual-inertial simultaneous localization, mapping and sensor-to-sensor self-calibration
CN109782810B (zh) 基于图像引导的视频卫星运动目标跟踪成像方法及其装置
CN110567461B (zh) 一种考虑无陀螺仪的非合作航天器姿态和参数估计方法
Pasqualetto Cassinis et al. Cnn-based pose estimation system for close-proximity operations around uncooperative spacecraft
CN113175929B (zh) 一种基于upf的空间非合作目标相对位姿估计方法
CN111890373A (zh) 车载机械臂的感知定位方法
Sell et al. Pose performance of LIDAR-based navigation for satellite servicing
CN110332958B (zh) 一种基于视觉测量的空间目标旋转轴识别方法
Jasiobedzki et al. Autonomous satellite rendezvous and docking using LIDAR and model based vision
CN115115674A (zh) 一种单星条件下卫星图像弹道目标射向估计方法
CN110889353B (zh) 基于主焦点大视场光电望远镜的空间目标识别方法
Irmisch et al. Simulation framework for a visual-inertial navigation system
Aghili et al. Adaptive motion estimation of a tumbling satellite using laser-vision data with unknown noise characteristics
CN110160530B (zh) 一种基于四元数的航天器姿态滤波方法
Wang et al. Pose and velocity estimation algorithm for UAV in visual landing
US20170190447A1 (en) System for locating the barycenter of at least one object orbiting in space and related process of physical and mechanical characterization of the identified object
Ammann et al. Undelayed initialization of inverse depth parameterized landmarks in UKF-SLAM with error state formulation
Mazzucato et al. Stereoscopic vision-based relative navigation for spacecraft proximity operations
Tiefenbacher et al. Off-the-shelf sensor integration for mono-SLAM on smart devices
CN114764830A (zh) 一种基于四元数ekf和未标定手眼系统的物体位姿估算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant