CN103900561A - 一种空间绳系机器人中远距离逼近位置估计方法 - Google Patents

一种空间绳系机器人中远距离逼近位置估计方法 Download PDF

Info

Publication number
CN103900561A
CN103900561A CN201410145305.1A CN201410145305A CN103900561A CN 103900561 A CN103900561 A CN 103900561A CN 201410145305 A CN201410145305 A CN 201410145305A CN 103900561 A CN103900561 A CN 103900561A
Authority
CN
China
Prior art keywords
robot
space
sigma
sheng
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410145305.1A
Other languages
English (en)
Other versions
CN103900561B (zh
Inventor
黄攀峰
王东科
蔡佳
孟中杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410145305.1A priority Critical patent/CN103900561B/zh
Publication of CN103900561A publication Critical patent/CN103900561A/zh
Application granted granted Critical
Publication of CN103900561B publication Critical patent/CN103900561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Abstract

本发明提出一种空间绳系机器人中远距离逼近位置估计方法,利用相机进行目标方位角测量,得到目标相对空间绳系机器人的方位角,结合从空间绳系机器人的空间系绳放绳机构获得的空间绳系机器人的系绳长度信息,利用无损卡尔曼滤波方法实现对空间绳系机器人的位置估计。本发明提出的空间绳系机器人中远距离逼近位置估计方法,充分利用了空间绳系机器人的系绳长度信息,结合了单目相机的视场角信息,实现对空间绳系机器人位置进行实时估计。

Description

一种空间绳系机器人中远距离逼近位置估计方法
技术领域
本发明涉及航天器导航技术领域,具体为一种空间绳系机器人中远距离逼近位置估计方法,该方法可以应用于目标逼近过程中,对空间绳系机器人的位置进行估计。
背景技术
空间绳系机器人由于其灵活、安全、燃料消耗低等特点,在空间在轨服务中有着广泛的作用,其中对失效卫星救助、太空垃圾清理等进行抓捕是其主要应用。从空间平台发射后,空间绳系机器人向目标逼近的过程中,需要对自身的位置进行实时控制,从而保证其沿着预定轨迹对目标进行逼近。该过程中,控制所需的位置信息的测量获取是十分重要的,其直接影响着空间绳系机器人逼近抓捕任务的成败,它成为空间绳系机器人领域的关键研究问题。
申请号:201210175411.5公开了一种用于交会对接的测量方法,利用两台照相机对目标飞行器上的标记灯进行成像,进而确定标记灯的位置,通过目标飞行器标记灯和对接口的相对位置关系确定追踪飞行器对接口和目标飞行器对接口的相对位置、相对姿态和相对速度。申请号:201210111347.4本发明公开了一种航天器交会对接相对位姿测量方法,该方法将双目视觉测量方法与普吕克直线方程相结合来进行航天器交会对接相对位姿的测量。以上提到的均为基于双目视觉的近距离位姿确定方法,不适用于空间绳系机器人中远距离位置估计。
发明内容
技术方案
本发明的目的在于提供一种空间绳系机器人中远距离目标逼近过程中的位置估计方法,该导航方案基于目标单目视觉方位角信息,结合空间系绳的长度信息,对空间绳系机器人逼近过程中的位置进行估计。
本发明的技术方案为:
所述一种空间绳系机器人中远距离逼近位置估计方法,其特征在于:循环进行以下步骤,对空间绳系机器人中远距离逼近位置进行实时估计:
步骤1:利用单目视觉相机获得第k时刻目标相对空间绳系机器人的方位角η1k和η2k
η 1 k = arctan ( ( u - u 0 ) d x f ) η 2 k = arctan ( ( v - v 0 ) d y f )
其中u、v分别为目标在相机的图像坐标系中位置,u0、v0分别为图像坐标系原点位置,dx、dy为相机单个像素的物理尺寸,f为相机的焦距;
步骤2:从空间绳系机器人的空间系绳放绳机构获得第k时刻空间系绳的长度Lk
步骤3:根据空间绳系机器人的状态方程和量测方程,采用无损卡尔曼滤波方法对空间绳系机器人的位置进行实时估计;其中空间绳系机器人的状态方程和量测方程为:
X k = Φ k , k - 1 X k - 1 + W k - 1 Z k = H k ( X k ) + V k
其中
Figure BDA0000489981400000023
为第k时刻空间绳系机器人的状态向量,xk、yk和zk为第k时刻空间绳系机器人在目标轨道坐标系下的位置;
Figure BDA0000489981400000024
Figure BDA0000489981400000025
为第k时刻空间绳系机器人在目标第k坐标系下的三轴速度;所述目标轨道坐标系中x轴为目标轨道切线方向,z轴沿地球半径方向指向地心,y轴垂直与x轴和z轴,并且满足右手定则;Φk,k-1为状态转移矩阵,
Φ k , k - 1 = 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 2 nT 0 - n 2 T 0 0 1 0 0 0 3 n 2 T - 2 nT 0 1
T为时间间隔,n为轨道平均角速度;Zk为观测向量,
Z k = η 1 k η 2 k L k
由步骤1和步骤2得到;Hk(Xk)为观测非线性函数,
H k ( X k ) = arctan R 21 x k + R 22 y k + R 23 z k R 11 x k + R 12 y k + R 13 z k arctan R 31 x k + R 32 y k + R 33 z k R 11 x k + R 12 y k + R 13 z k ( x p - x k ) 2 + ( y p - y k ) 2 + ( z p - z k ) 2
R11、R12、R13、R21、R22、R23、R31、R32和R33分别为目标轨道坐标系到空间绳系机器人本体坐标系转化矩阵R的9个分量,
R = I 3 - 4 ( 1 - σ 2 ) ( 1 + σ 2 ) 2 [ σ × ] + 8 ( 1 + σ 2 ) 2 [ σ × ] 2
I3为3×3单位矩阵,σ为利用修正罗德里格斯参数表示的空间绳系机器人的姿态角,通过空间绳系机器人自身的姿态测量装置获得,
[ σ × ] = 0 - σ 3 σ 2 σ 3 0 - σ 1 - σ 2 σ 1 0
σ1、σ2和σ3分别为σ的三个分量;(xp,yp,zp)T为释放空间绳系机器人的机动平台在目标轨道坐标系下的位置坐标;Wk-1为系统白噪声向量,Vk观测白噪声向量。
有益效果
本发明提出的空间绳系机器人中远距离逼近位置估计方法,充分利用了空间绳系机器人的系绳长度信息,结合了单目相机的视场角信息,实现对空间绳系机器人位置进行实时估计。
附图说明
图1:本发明的中远距离空间绳系机器人目标逼近示意图;
图2:本发明的滤波流程框图。
其中:1、目标;2、空间绳系机器人;3、机动平台;4、空间系绳。
具体实施方式
下面结合具体实施例描述本发明:
本实施例针对空间绳系机器人对目标逼近过程中的导航问题,设计“单目视觉测量+系绳长度测量”的中远距离空间绳系机器人位置估计方法,利用相机进行目标方位角测量,结合空间绳系机器人的系绳长度信息,利用UKF滤波算法实现对空间绳系机器人的位置估计。
测量装置:进行目标方位角测量的相机需要选用窄视场的相机,从而保证在距离目标中远距离时,对目标进行较为准确的方位角测量。空间绳系机器人的系绳释放机构需要具有系绳长度测量装置,能够实时提供系绳长度信息。
下面详细介绍空间绳系机器人中远距离位置估计步骤:
对于第k时刻的估计:
步骤1:利用单目视觉相机获得第k时刻目标相对空间绳系机器人的方位角η1k和η2k
η 1 k = arctan ( ( u - u 0 ) d x f ) η 2 k = arctan ( ( v - v 0 ) d y f )
其中u、v分别为目标在相机的图像坐标系中位置,u0、v0分别为图像坐标系原点位置,dx、dy为相机单个像素的物理尺寸,f为相机的焦距;
步骤2:从空间绳系机器人的空间系绳放绳机构获得第k时刻空间系绳的长度Lk;空间绳系机器人在释放过程中,采取被动放绳的方式,即需要系绳中存在一定的小拉力,从而保证系绳是在有阻尼的情况下工作的,对于百米量级的空间绳系机器人,系绳长度较短,系绳处于拉直状态。利用系绳释放机构的测量装置,可以实时得到系绳的长度Lk
步骤3:根据空间绳系机器人的状态方程和量测方程,采用无损卡尔曼滤波方法对空间绳系机器人的位置进行实时估计;
其中空间绳系机器人的状态方程和量测方程为:
X k = Φ k , k - 1 X k - 1 + W k - 1 Z k = H k ( X k ) + V k
其中
Figure BDA0000489981400000043
为第k时刻空间绳系机器人的状态向量,xk、yk和zk为第k时刻空间绳系机器人在目标轨道坐标系下的位置;
Figure BDA0000489981400000044
Figure BDA0000489981400000045
为第k时刻空间绳系机器人在目标第k坐标系下的三轴速度;所述目标轨道坐标系中x轴为目标轨道切线方向,z轴沿地球半径方向指向地心,y轴垂直与x轴和z轴,并且满足右手定则;Φk,k-1为状态转移矩阵,
Φ k , k - 1 = 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 2 nT 0 - n 2 T 0 0 1 0 0 0 3 n 2 T - 2 nT 0 1
T为时间间隔,n为轨道平均角速度;Zk为观测向量,
Z k = η 1 k η 2 k L k
由步骤1和步骤2得到;Hk(Xk)为观测非线性函数,
H k ( X k ) = arctan R 21 x k + R 22 y k + R 23 z k R 11 x k + R 12 y k + R 13 z k arctan R 31 x k + R 32 y k + R 33 z k R 11 x k + R 12 y k + R 13 z k ( x p - x k ) 2 + ( y p - y k ) 2 + ( z p - z k ) 2
R11、R12、R13、R21、R22、R23、R31、R32和R33分别为目标轨道坐标系到空间绳系机器人本体坐标系转化矩阵R的9个分量,
R = I 3 - 4 ( 1 - σ 2 ) ( 1 + σ 2 ) 2 [ σ × ] + 8 ( 1 + σ 2 ) 2 [ σ × ] 2
I3为3×3单位矩阵,σ为利用修正罗德里格斯参数表示的空间绳系机器人的姿态角,通过空间绳系机器人自身的姿态测量装置获得,
[ σ × ] = 0 - σ 3 σ 2 σ 3 0 - σ 1 - σ 2 σ 1 0
σ1、σ2和σ3分别为σ的三个分量;(xp,yp,zp)T为释放空间绳系机器人的机动平台在目标轨道坐标系下的位置坐标;Wk-1为系统白噪声向量,Vk观测白噪声向量。
无损卡尔曼滤波方法对非线性系统具有较好的估计特点,其滤波算法流程为:
(1)初始化均值和方差分别为:
X ‾ 0 = E ( X 0 ) P 0 = E { ( X 0 - X ‾ 0 ) ( X 0 - X ‾ 0 ) T }
为了保证滤波收敛,初始误差阵P0可以取为6阶单位矩阵。
产生2n+1个Sigma点组成的列向量χk(k=0,1,2…,2n),λ为调节系数。
χ k = X ‾ k = 0 X ‾ + ( ( n + λ ) P x ) k k = 1,2 · · · , n X ‾ - ( ( n + λ ) P x ) k - n k = n + 1 , n + 2 · · · , 2 n
(2)时间更新:
状态预测值:
k,k-1)i=Φk,k-1·(χk-1)i i=1,2,…,2n
状态预测值均值:
χ ^ k , k - 1 = Σ i = 0 2 n w i ( m ) ( χ k , k - 1 ) i i = 1,2 , · · · , 2 n
状态预测误差矩阵:
P k , k - 1 = Σ i = 0 2 n w i ( c ) [ χ ^ k , k - 1 - ( χ k , k - 1 ) i ] [ χ ^ k , k - 1 - ( χ k , k - 1 ) i ] T + Q k
观测量预测值:
(Zk,k-1)i=h(χk,k-1)i i=1,2,…,2n
观测量预测均值:
Z ^ k , k - 1 = Σ i = 0 2 n w i ( m ) ( Z k , k - 1 ) i i = 1,2 , · · · , 2 n
测量更新:
P zz = Σ i = 0 2 n w i ( c ) [ Z ^ k , k - 1 - ( Z k , k - 1 ) i ] [ Z ^ k , k - 1 - ( Z k , k - 1 ) i ] T + R k P xz = Σ i = 0 2 n w i ( c ) [ ( X k , k - 1 ) i - X ^ k , k - 1 ] [ ( Z k , k - 1 ) i - Z ^ k , k - 1 ] T
卡尔曼滤波增益:
K = P xz P zz - 1
滤波值:
x ^ k = x ^ k , k - 1 + K ( Z k - Z ^ k , k - 1 )
滤波误差矩阵:
Pk=Pk,k-1-KPzzKT
其中:
Figure BDA0000489981400000071
为均值权值,
Figure BDA0000489981400000072
为方差权值,取值分别为:
w 0 ( m ) = λ n + λ w 0 ( c ) = λ n + λ + ( 1 - α 2 + β ) w i ( m ) = λ 2 ( n + λ ) i = 1,2 , · · · , 2 n λ = α 2 ( n + κ ) - n
n为状态矢量维数,α为尺度参数,决定Sigma点的分布范围,κ通常取0。
Figure BDA0000489981400000074
即为第k时刻空间绳系机器人位置信息。

Claims (1)

1.一种空间绳系机器人中远距离逼近位置估计方法,其特征在于:循环进行以下步骤,对空间绳系机器人中远距离逼近位置进行实时估计:
步骤1:利用单目视觉相机获得第k时刻目标相对空间绳系机器人的方位角η1k和η2k
η 1 k = arctan ( ( u - u 0 ) d x f ) η 2 k = arctan ( ( v - v 0 ) d y f )
其中u、v分别为目标在相机的图像坐标系中位置,u0、v0分别为图像坐标系原点位置,dx、dy为相机单个像素的物理尺寸,f为相机的焦距;
步骤2:从空间绳系机器人的空间系绳放绳机构获得第k时刻空间系绳的长度Lk
步骤3:根据空间绳系机器人的状态方程和量测方程,采用无损卡尔曼滤波方法对空间绳系机器人的位置进行实时估计;其中空间绳系机器人的状态方程和量测方程为:
X k = Φ k , k - 1 X k - 1 + W k - 1 Z k = H k ( X k ) + V k
其中
Figure FDA0000489981390000012
为第k时刻空间绳系机器人的状态向量,xk、yk和zk为第k时刻空间绳系机器人在目标轨道坐标系下的位置;
Figure FDA0000489981390000013
Figure FDA0000489981390000014
为第k时刻空间绳系机器人在目标第k坐标系下的三轴速度;所述目标轨道坐标系中x轴为目标轨道切线方向,z轴沿地球半径方向指向地心,y轴垂直与x轴和z轴,并且满足右手定则;Φk,k-1为状态转移矩阵,
Φ k , k - 1 = 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 0 T 0 0 0 1 0 2 nT 0 - n 2 T 0 0 1 0 0 0 3 n 2 T - 2 nT 0 1
T为时间间隔,n为轨道平均角速度;Zk为观测向量,
Z k = η 1 k η 2 k L k
由步骤1和步骤2得到;Hk(Xk)为观测非线性函数,
H k ( X k ) = arctan R 21 x k + R 22 y k + R 23 z k R 11 x k + R 12 y k + R 13 z k arctan R 31 x k + R 32 y k + R 33 z k R 11 x k + R 12 y k + R 13 z k ( x p - x k ) 2 + ( y p - y k ) 2 + ( z p - z k ) 2
R11、R12、R13、R21、R22、R23、R31、R32和R33分别为目标轨道坐标系到空间绳系机器人本体坐标系转化矩阵R的9个分量,
R = I 3 - 4 ( 1 - σ 2 ) ( 1 + σ 2 ) 2 [ σ × ] + 8 ( 1 + σ 2 ) 2 [ σ × ] 2
I3为3×3单位矩阵,σ为利用修正罗德里格斯参数表示的空间绳系机器人的姿态角,通过空间绳系机器人自身的姿态测量装置获得,
[ σ × ] = 0 - σ 3 σ 2 σ 3 0 - σ 1 - σ 2 σ 1 0
σ1、σ2和σ3分别为σ的三个分量;(xp,yp,zp)T为释放空间绳系机器人的机动平台在目标轨道坐标系下的位置坐标;Wk-1为系统白噪声向量,Vk观测白噪声向量。
CN201410145305.1A 2014-04-11 2014-04-11 一种空间绳系机器人中远距离逼近位置估计方法 Active CN103900561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410145305.1A CN103900561B (zh) 2014-04-11 2014-04-11 一种空间绳系机器人中远距离逼近位置估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410145305.1A CN103900561B (zh) 2014-04-11 2014-04-11 一种空间绳系机器人中远距离逼近位置估计方法

Publications (2)

Publication Number Publication Date
CN103900561A true CN103900561A (zh) 2014-07-02
CN103900561B CN103900561B (zh) 2016-09-28

Family

ID=50992030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410145305.1A Active CN103900561B (zh) 2014-04-11 2014-04-11 一种空间绳系机器人中远距离逼近位置估计方法

Country Status (1)

Country Link
CN (1) CN103900561B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156481A (zh) * 2015-12-16 2016-11-23 东南大学 一种基于无损卡尔曼滤波的救援清障车姿态角估计方法
CN106863297A (zh) * 2017-01-05 2017-06-20 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN107831515A (zh) * 2017-10-10 2018-03-23 北京臻迪科技股份有限公司 水下定位方法和系统
CN109903336A (zh) * 2019-01-18 2019-06-18 浙江工业大学 基于局部特征的飞行器姿态跨视场估计方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008089966A2 (en) * 2007-01-23 2008-07-31 Valeo Schalter Und Sensoren Gmbh Method and system for video-based road characterization, lane detection and departure prevention
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法
CN103064420A (zh) * 2012-12-14 2013-04-24 西北工业大学 可移动系绳点的空间绳系机器人的逼近姿态协调控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008089966A2 (en) * 2007-01-23 2008-07-31 Valeo Schalter Und Sensoren Gmbh Method and system for video-based road characterization, lane detection and departure prevention
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法
CN103064420A (zh) * 2012-12-14 2013-04-24 西北工业大学 可移动系绳点的空间绳系机器人的逼近姿态协调控制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUANG P: "Approach trajectory planning of space robot for impact minimization", 《INFORMATION ACQUISITION, 2006 IEEE INTERNATIONAL CONFERENCE ON》, 23 August 2006 (2006-08-23) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156481A (zh) * 2015-12-16 2016-11-23 东南大学 一种基于无损卡尔曼滤波的救援清障车姿态角估计方法
CN106863297A (zh) * 2017-01-05 2017-06-20 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN106863297B (zh) * 2017-01-05 2019-02-26 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN107831515A (zh) * 2017-10-10 2018-03-23 北京臻迪科技股份有限公司 水下定位方法和系统
CN109903336A (zh) * 2019-01-18 2019-06-18 浙江工业大学 基于局部特征的飞行器姿态跨视场估计方法及装置

Also Published As

Publication number Publication date
CN103900561B (zh) 2016-09-28

Similar Documents

Publication Publication Date Title
Crassidis et al. Survey of nonlinear attitude estimation methods
CN102981507B (zh) 一种软着陆自主障碍规避常推力器控制方法
CN104316060B (zh) 空间非合作目标的交会对接方法与装置
Allotta et al. A comparison between EKF-based and UKF-based navigation algorithms for AUVs localization
CN102928858B (zh) 基于改进扩展卡尔曼滤波的gnss单点动态定位方法
CN103955218A (zh) 一种基于非线性控制理论的无人艇轨迹跟踪控制装置及方法
CN105843224A (zh) 基于神经动态模型反步法的auv水平面路径跟踪控制方法
CN103900561A (zh) 一种空间绳系机器人中远距离逼近位置估计方法
CN103268067B (zh) 一种基于拟四元数与拟四元数运动学方程的卫星指向跟踪控制方法
Petrich et al. On-board wind speed estimation for uavs
CN106767768A (zh) 一种双星编队的自主导航方法
CN102004491B (zh) 一种卫星初入轨段的初始太阳捕获方法
Mendeck et al. Post-flight EDL entry guidance performance of the 2011 Mars science laboratory mission
CN103871075A (zh) 一种大椭圆遥感卫星地球背景相对运动估计方法
CN103884340A (zh) 一种深空探测定点软着陆过程的信息融合导航方法
Oliveira et al. Moving path following for autonomous robotic vehicles
CN102736633A (zh) 一种用于空间站舱外机动监视器的导航、控制与成像系统
Nguyen et al. Lateral stability control of electric vehicle based on disturbance accommodating kalman filter using the integration of single antenna GPS receiver and yaw rate sensor
Pachter et al. Bearings-only measurements for INS aiding: The three-dimensional case
CN104236554A (zh) 一种自主交会对接相对测量敏感器远、近场切换使用方法
Zhang et al. Acoustics-based autonomous docking for a deep-sea resident ROV
Bauer et al. Aircraft trajectory tracking with large sideslip angles for sense and avoid intruder state estimation
CN106017482A (zh) 一种基于无迹递推的空间操作相对轨道控制误差计算方法
Jarrell et al. Aircraft attitude, position, and velocity determination using sensor fusion
Yu et al. Stereo vision based relative state estimation for non-cooperative spacecraft with outliers

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant