CN110332958A - 一种基于视觉测量的空间目标旋转轴识别方法 - Google Patents
一种基于视觉测量的空间目标旋转轴识别方法 Download PDFInfo
- Publication number
- CN110332958A CN110332958A CN201910672906.0A CN201910672906A CN110332958A CN 110332958 A CN110332958 A CN 110332958A CN 201910672906 A CN201910672906 A CN 201910672906A CN 110332958 A CN110332958 A CN 110332958A
- Authority
- CN
- China
- Prior art keywords
- target
- coordinate system
- rotating axle
- posture
- revolving speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于视觉测量的空间目标旋转轴识别方法,包括:通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标旋转轴识别。通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。通过使用该方法对不同转速的空间目标进行仿真验证,识别目标旋转轴的精度达到了工程满意的水平。
Description
技术领域
本发明涉及空间目标运动状态辨识技术领域,尤其涉及一种基于视觉测量的空间目标旋转轴识别方法。
背景技术
随着空间技术的发展,以空间交会对接、碎片规避、轨道与姿态重置、在轨释放有效载荷、在轨维修等为内容的空间操作技术成为现在和未来空间活动的重要内容。对于空间操作而言,对空间目标运动状态,包括位置和速度、姿态和转速的精确识别,是任务成功的必要条件。
视觉测量系统由于其质量轻便、价格便宜,且方便对被动目标进行观察,被广泛用于空间目标的识别。对于空间合作目标的测量,通过在合作的目标上安装标志信息或者通过接收目标自身的测量信息(如GPS)等,采用卡曼滤波及其扩展方法较容易完成目标运动状态的识别。对于非合作目标,由于没有合作信息提供,运动状态的估计变得非常困难。到目前为止,大量对非合作目标识别的研究仅限于对空间静止目标的状态识别,对于非合作旋转目标的转速和姿态的识别,仅有少数文献涉及到。但目前这些文献的研究成果是基于这样的假设进行的:假定目标的惯量主轴已知,沿惯量主轴建立目标本体坐标系,从而定义目标与测量航天器的相对运动状态作为滤波状态,完成目标航天器运动状态的估值。但在现实世界中,非合作目标的惯量主轴往往难以预知。但没有现有技术针对这个问题进行研究。
发明内容
为解决现有技术中存在的问题,本发明的目的在于提供一种基于视觉测量的空间目标旋转轴识别方法,通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。
为实现上述目的,本发明采用以下技术手段:
一种基于视觉测量的空间目标旋转轴识别方法,包括:
通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标旋转轴识别。
作为本发明的进一步改进,包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,确保目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
4)选择无味变换采样点;
5)根据无味卡曼滤波框架计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据5)计算的转速、姿态和旋转轴,及7)中计算的特征点位置,求解特征点在相机成像平面投影;
9)将6)中提取的特征点位置与8)中同一特征点的估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值,则已经估计出当前的转速、姿态和旋转轴方向;否则,根据滤波增益修正航天器转速、姿态和旋转轴与本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
作为本发明的进一步改进,步骤3)中,以目标惯量轴建立惯量轴坐标系,设Z轴为最大惯量轴方向,则有:
使用符号ω(pc),q(pc)代表目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素,q(pb)代表主惯量轴坐标系与本体坐标系姿态四元素;
假定观测卫星自身不旋转,则目标在转轴坐标系下的转速相对于观测卫星也不变:
目标的旋转轴相对目标本体的方向不变:
姿态与转速关系如下:
其中,Ω定义如下:
其中,ω=[ω1 ω2 ω3]代表刚体转速及其在空间坐标系三个方向的分量。
作为本发明的进一步改进,步骤4)中,选择无味变换采样点具体步骤为:
根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,选择采样点方法如下:
其中,为上一步得到的估值,Pt为上一步得到的协方差矩阵;λ取-2到+5之间的任意数。
作为本发明的进一步改进,步骤5)中,根据无味卡曼滤波框架计算状态先验均值与方差具体步骤如下:
首先,对每个采样点计算先验值;
f为状态方程;
然后,计算其均值和方差:
其中,W为样本点权值系数,Qt为时刻t状态模型噪声矩阵。
作为本发明的进一步改进,步骤8)中,求解特征点在相机成像平面投影中,特征点在相机图像平面的投影关系如下:
其中,ρxi,ρyi,ρzi为第i个特征点在目标主惯量轴坐标系下的位置分量,fx,fz为相机在投影平面横坐标和纵坐标方向的焦距。
作为本发明的进一步改进,步骤10)中,滤波增益的计算公式如下:
其中:
其中,Rt为时刻t的观测模型噪声矩阵,分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
作为本发明的进一步改进,步骤6)中,对视觉测量图像进行特征点提取的数量为3-6个。
与现有技术相比,本发明的有益效果是:
本发明通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而完成非合作目标的惯量主轴的预知。通过图像测量方法识别非合作目标的旋转主轴(即最大惯量轴),从而在主惯量轴坐标系下完成目标相对位置、姿态和转速的辨识。通过使用该方法对不同转速的空间目标进行仿真验证,识别目标旋转轴的精度达到了工程满意的水平。完成空间旋转目标转轴的正确识别,即可以对目标的位置、速度、姿态和转速进行准确识别,从而为后续空间操控任务提供基础。该方法适用于空间合作目标、失效航天器和航天器碎片等空间非合作目标。
附图说明
图1为本发明基于视觉测量的空间目标旋转轴识别方法框架图;
图2为本发明视觉测量原理图;
图3为本发明目标旋转轴坐标与本体坐标关系。
具体实施方式
下面结合附图对本发明的结构和工作原理作进一步详细说明。
本发明一种基于视觉测量的空间目标旋转轴识别方法,通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而完成目标旋转轴识别。该方法适用于空间合作目标以及失效航天器的旋转轴识别。如图1所示,包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
4)选择无味变换采样点;
5)计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据5)计算的转速、姿态和旋转轴,及7)中计算的特征点位置,求解特征点在相机成像平面投影;
9)将6)中提取的特征点位置与8)中同一特征点的估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值(精度),表明已经估计出当前的转速、姿态和旋转轴方向。否则,根据滤波增益修正航天器转速、姿态和旋转轴与本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
以下结合具体实施例对本发明的方法进行说明。
实施例
1)本过程实施的前提为:先完成测量航天器进行调整,使其与目标相对位置保持不变,目标保持在相机视场中。
2)滤波参数初始化
设置状态初值。
状态变量协方差矩阵:
P0|0=E[(X0-X0|0)(X0-X0|0)T]
=diag(Pw,Pqp,Pqb) (1)
其中,Pw,Pqp,Pqb为ω(pc),q(pc),q(bc)的协方差矩阵
状态模型噪声矩阵:Q=diag(Qw,Qqp,Qqb) (2)
其中,Qw,Qqp,Qqb分别为ω(pc),q(pc),q(bc)的状态模型噪声矩阵
观测模型噪声矩阵:R=diag(σw,σqp,σqb) (3)
其中,σw,σqp,σqb分别为ω(pc),q(pc),q(bc)的观测模型噪声矩阵。
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
其中,分别为目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素初值,为目标本体坐标系相对于主惯量轴坐标系姿态四元素初值。4)选择无味变换采样点:根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,从3)可知,n=11。选择采样点方法如下:
其中,为上一步得到的估值,Pt为上一步得到的协方差矩阵。λ可以取-2到+5之间的任意数。
5)根据其中的采样点计算状态先验均值与方差;
首先,对每个采样点计算先验值。
f为状态方程,由公式(20)—(23)组成。
然后,计算其均值和方差:
其中,W为样本点权值系数,Qt为时刻t状态模型噪声矩阵。
6)对视觉测量获得的图像进行特征点提取和识别,很多方法可以完成此项工作,特征点提取和识别方法不在本申请保护范围。
7)确定每个特征点在目标本体坐标系位置;
8)根据第5)步计算的转速、姿态和旋转轴,及6)中获得的特征点位置信息,采用公式(26)求解特征点在相机成像平面投影。
9)将6)中提取的特征点位置与8)中计算出的同一特征点的估值进行比较,计算估计偏差。
其中,Zt+1(i)为t+1时刻采集的第i个特征点在相机平面的投影。为第7)步中求解的特征点的均值。
10)根据5)和8)中结果计算滤波增益
其中:
Rt为时刻t的观测模型噪声矩阵,分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
11)如果滤波增益小于给定阈值(精度),表明已经估计出当前的转速、姿态和旋转轴方向。
否则,根据滤波增益修正状态估计参数(航天器转速、姿态和旋转轴与本体坐标系方向估值):
修改协方差矩阵:
其中,Kt+1、的计算在第10)步中已经完成。
重新开始第4)步,进行新一轮采样滤波。
本方法主要依据是欧拉原理:对于刚体在空间中的运动,如果没有受到外力矩作用,在经过一段时间无序的翻滚后,将逐渐稳定,最终保持绕最大惯量轴方向旋转,其转速的度数保持不变。假定目标在惯性坐标系下的转速为ω=[ω1ω2ω3]T,则其转轴,又称欧拉轴,方向为:
依据上述原理,以目标惯量轴建立惯量轴坐标系(PACS:Principal AxisCoordinate System),设Z轴为最大惯量轴方向,则有:
由于在视觉测量过程中难以获得目标的惯量轴,通常会以目标的对称轴或通过以获取的特征点构成向量建立坐标系,这个坐标系可以定义为本体坐标系,用(b)表示。
采用符号ω(pc),q(pc)表示目标主惯量轴坐标相对于测量航天器的转速和姿态(四元素表示),q(bp)表示目标本体坐标系相对主惯量轴坐标系姿态(四元素表示)。可定义状态参数:
状态方程:
根据欧拉原理,刚体的姿态与转速关系如下:
假定观测卫星自身不旋转,则目标在转轴坐标系下的转速相对于观测卫星也不变:
目标的旋转轴相对目标本体的方向不变:
观察方程:
已知特征点在本体坐标系的位置,由下式可以得到其在主轴坐标系下的位置。
其中Pi (b)和Pi (p)为分别为目标在本体坐标系和主轴坐标系下特征点位置,D(qbp)为本体坐标系到主轴坐标系旋转矩阵。
已知主轴坐标系与测量航天器相对姿态D(qpc)矩阵,可由下式计算特征点相对于观察卫星的位置:
ρi=ρ0+D(qpc)Pi (p)=ρ0+D(qpc)D(qbp)Pi (b)+D(qpc)B (25)
由此,可以计算特征点在相机图像平面的投影
其中,fx和fz分别为相机在水平和垂直方向的焦距。
加上观测噪声,观测方程可以写为:
Zik=hi(xk)+vik i=1,…,N (27)
vik为观察噪声,N为特征点个数。
以下对本发明的方法进行仿真模拟,已验证本发明的有效性。
仿真模拟
取相对距离25米,目标本体坐标系相对相机坐标系姿态[5,5,5]度,旋转轴相对本体坐标系姿态[[10 25 20]度,目标物体尺寸3×3×3米,对不同转速的空间目标进行仿真验证,经过2000秒的滤波,获得了比较好的精度。目标旋转轴的精度及目标本体姿态和转速精度如表1所示。
表1
完成空间旋转目标转轴的正确识别,即可以对目标的位置、速度、姿态和转速进行准确识别,从而为后续空间操控任务提供基础。该方法适用于空间合作目标、失效航天器和航天器碎片等空间非合作目标。
以上实施例仅用于说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细说明,所属领域的普通技术人员依然可以对本发明的具体实施方案进行修改或者等同替换,而这些并未脱离本发明精神和范围的任何修改或者等同替换,其均在本发明的权利要求保护范围之内。
Claims (8)
1.一种基于视觉测量的空间目标旋转轴识别方法,其特征在于,包括:
通过视觉系统对空间目标进行连续采样,采用无味卡曼滤波框架对目标旋转的方向和转速进行估值,从而对目标旋转轴识别。
2.根据权利要求1所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,包括以下步骤:
1)对测量航天器进行调整,使其与目标相对位置保持不变,确保目标保持在相机视场中;
2)设置滤波初值;
3)设置航天器转速、姿态和旋转轴与本体坐标系方向估计初值;
4)选择无味变换采样点;
5)根据无味卡曼滤波框架计算状态先验均值与方差;
6)对视觉测量图像进行特征点提取和识别;
7)计算特征点在目标本体坐标系位置;
8)根据5)计算的转速、姿态和旋转轴,及7)中计算的特征点位置,求解特征点在相机成像平面投影;
9)将6)中提取的特征点位置与8)中同一特征点的估值进行比较,计算偏差信息,获得滤波所需方差;
10)根据5)和8)中结果计算滤波增益;
11)如果滤波增益小于给定阈值,则已经估计出当前的转速、姿态和旋转轴方向;否则,根据滤波增益修正航天器转速、姿态和旋转轴与本体坐标系方向估值,重新开始第4)步,进行新一轮采样滤波。
3.根据权利要求2所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤3)中,以目标惯量轴建立惯量轴坐标系,设Z轴为最大惯量轴方向,则有:
使用符号ω(pc),q(pc)代表目标主惯量轴坐标系相对于相机坐标系的相对转速和姿态四元素,q(pb)代表主惯量轴坐标系与本体坐标系姿态四元素;
假定观测卫星自身不旋转,则目标在转轴坐标系下的转速相对于观测卫星也不变:
目标的旋转轴相对目标本体的方向不变:
姿态与转速关系如下:
其中,Ω定义如下:
其中,ω=[ω1 ω2 ω3]代表刚体转速及其在空间坐标系三个方向的分量。
4.根据权利要求3所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤4)中,选择无味变换采样点具体步骤为:
根据上一步得到的估值,在状态空间中均匀选择2n+1个采样点,n为状态变量个数,选择采样点方法如下:
其中,为上一步得到的估值,Pt为上一步得到的协方差矩阵;λ取-2到+5之间的任意数。
5.根据权利要求2所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤5)中,根据无味卡曼滤波框架计算状态先验均值与方差具体步骤如下:
首先,对每个采样点计算先验值;
f为状态方程;
然后,计算其均值和方差:
其中,W为样本点权值系数,Qt为时刻t状态模型噪声矩阵。
6.根据权利要求2所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤8)中,求解特征点在相机成像平面投影中,特征点在相机图像平面的投影关系如下:
其中,ρxi,ρyi,ρzi为第i个特征点在目标主惯量轴坐标系下的位置分量,fx,fz为相机在投影平面横坐标和纵坐标方向的焦距。
7.根据权利要求2所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤10)中,滤波增益的计算公式如下:
其中:
其中,Rt为时刻t的观测模型噪声矩阵,分别为t+1时刻的状态估计均值和观测估计均值,W为样本点权值系数。
8.根据权利要求2所述的基于视觉测量的空间目标旋转轴识别方法,其特征在于,步骤6)中,对视觉测量图像进行特征点提取的数量为3-6个。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672906.0A CN110332958B (zh) | 2019-07-24 | 2019-07-24 | 一种基于视觉测量的空间目标旋转轴识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672906.0A CN110332958B (zh) | 2019-07-24 | 2019-07-24 | 一种基于视觉测量的空间目标旋转轴识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110332958A true CN110332958A (zh) | 2019-10-15 |
CN110332958B CN110332958B (zh) | 2020-10-20 |
Family
ID=68147417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910672906.0A Active CN110332958B (zh) | 2019-07-24 | 2019-07-24 | 一种基于视觉测量的空间目标旋转轴识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110332958B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113390336A (zh) * | 2021-05-24 | 2021-09-14 | 武汉海微科技有限公司 | 一种基于机器视觉的可调式屏幕贴合对位装置和标定方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110037965A1 (en) * | 2006-10-26 | 2011-02-17 | United States Of America As Represented By The Secretary Of The Navy | Combined Coherent and Incoherent Imaging LADAR |
CN103438888A (zh) * | 2013-07-24 | 2013-12-11 | 西北工业大学 | 一种对空间非合作目标自主交会的相对导航方法 |
CN103745458A (zh) * | 2013-12-26 | 2014-04-23 | 华中科技大学 | 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法 |
CN103994755A (zh) * | 2014-05-29 | 2014-08-20 | 清华大学深圳研究生院 | 一种基于模型的空间非合作目标位姿测量方法 |
CN107490356A (zh) * | 2017-08-21 | 2017-12-19 | 上海航天控制技术研究所 | 一种非合作目标旋转轴和旋转角测量方法 |
CN108645416A (zh) * | 2018-03-30 | 2018-10-12 | 北京空间飞行器总体设计部 | 用于非合作目标相对导航仿真验证的视觉测量系统及方法 |
CN108692729A (zh) * | 2018-05-04 | 2018-10-23 | 北京空间飞行器总体设计部 | 一种空间非合作目标相对导航协方差自适应修正滤波方法 |
CN108734737A (zh) * | 2018-06-14 | 2018-11-02 | 哈尔滨工业大学 | 基于视觉slam估计空间旋转非合作目标转轴的方法 |
-
2019
- 2019-07-24 CN CN201910672906.0A patent/CN110332958B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110037965A1 (en) * | 2006-10-26 | 2011-02-17 | United States Of America As Represented By The Secretary Of The Navy | Combined Coherent and Incoherent Imaging LADAR |
CN103438888A (zh) * | 2013-07-24 | 2013-12-11 | 西北工业大学 | 一种对空间非合作目标自主交会的相对导航方法 |
CN103745458A (zh) * | 2013-12-26 | 2014-04-23 | 华中科技大学 | 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法 |
CN103994755A (zh) * | 2014-05-29 | 2014-08-20 | 清华大学深圳研究生院 | 一种基于模型的空间非合作目标位姿测量方法 |
CN107490356A (zh) * | 2017-08-21 | 2017-12-19 | 上海航天控制技术研究所 | 一种非合作目标旋转轴和旋转角测量方法 |
CN108645416A (zh) * | 2018-03-30 | 2018-10-12 | 北京空间飞行器总体设计部 | 用于非合作目标相对导航仿真验证的视觉测量系统及方法 |
CN108692729A (zh) * | 2018-05-04 | 2018-10-23 | 北京空间飞行器总体设计部 | 一种空间非合作目标相对导航协方差自适应修正滤波方法 |
CN108734737A (zh) * | 2018-06-14 | 2018-11-02 | 哈尔滨工业大学 | 基于视觉slam估计空间旋转非合作目标转轴的方法 |
Non-Patent Citations (5)
Title |
---|
CAISHENG WEI等: "Low-complexity Stabilization Control of Combined Spacecraft with an Unknown Captured Object", 《PROCEEDINGS OF THE 36TH CHINESE CONTROL CONFERENCE》 * |
刘涛等: "一种用于非合作目标惯性指向轴位置捕获的绕飞放方法", 《宇航学报》 * |
张杨等: "基于视线测量和轨道预报高轨非合作目标相对导航方法", 《空间控制技术与应用》 * |
李喆武: "空间非合作目标的运动参数估计与三维重建", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
郝刚涛等: "空间翻滚非合作目标相对位姿估计的视觉SLAM方法", 《宇航学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113390336A (zh) * | 2021-05-24 | 2021-09-14 | 武汉海微科技有限公司 | 一种基于机器视觉的可调式屏幕贴合对位装置和标定方法 |
CN113390336B (zh) * | 2021-05-24 | 2024-03-12 | 武汉海微科技股份有限公司 | 一种基于机器视觉的可调式屏幕贴合对位装置和标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110332958B (zh) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Johnson et al. | Precise image-based motion estimation for autonomous small body exploration | |
Petit et al. | Tracking complex targets for space rendezvous and debris removal applications | |
CN105698764B (zh) | 一种光学遥感卫星影像时变系统误差建模补偿方法及系统 | |
CN108939512A (zh) | 一种基于穿戴式传感器的游泳姿态测量方法 | |
CN108645416B (zh) | 基于视觉测量系统的非合作目标相对导航仿真验证方法 | |
CN104006803B (zh) | 自旋稳定空间飞行器转动运动参数的摄像测量方法 | |
CN109631911B (zh) | 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法 | |
CN110849331B (zh) | 基于三维点云数据库模型的单目视觉测量与地面试验方法 | |
CN109782810B (zh) | 基于图像引导的视频卫星运动目标跟踪成像方法及其装置 | |
CN105160125A (zh) | 一种星敏感器四元数的仿真分析方法 | |
CN107532907A (zh) | 姿势检测设备 | |
CN110517324A (zh) | 基于变分贝叶斯自适应算法的双目vio实现方法 | |
Petit et al. | A robust model-based tracker combining geometrical and color edge information | |
CN110675453A (zh) | 一种已知场景中运动目标的自定位方法 | |
CN109093620B (zh) | 一种双目相机辅助的空间非合作目标动力学参数辨识方法 | |
CN110332958A (zh) | 一种基于视觉测量的空间目标旋转轴识别方法 | |
CN112179373A (zh) | 一种视觉里程计的测量方法及视觉里程计 | |
CN110146092B (zh) | 基于导航信息评价的双体小行星探测轨迹优化方法 | |
Liu et al. | A new approach for the estimation of non-cooperative satellites based on circular feature extraction | |
Rathinam et al. | On-orbit relative navigation near a known target using monocular vision and convolutional neural networks for pose estimation | |
CN110567462A (zh) | 一种近似自旋非合作航天器三轴转动惯量比的辨识方法 | |
CN108534772A (zh) | 姿态角获取方法及装置 | |
Irmisch et al. | Simulation framework for a visual-inertial navigation system | |
Meng et al. | Estimate of all the inertial parameters of a free-floating object in orbit | |
CN109145387B (zh) | 基于特征频率的空间翻滚目标惯性特征的智能识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |