CN113916254A - 一种停靠式抓捕的航天器自主交会对接试验方法 - Google Patents
一种停靠式抓捕的航天器自主交会对接试验方法 Download PDFInfo
- Publication number
- CN113916254A CN113916254A CN202110832184.8A CN202110832184A CN113916254A CN 113916254 A CN113916254 A CN 113916254A CN 202110832184 A CN202110832184 A CN 202110832184A CN 113916254 A CN113916254 A CN 113916254A
- Authority
- CN
- China
- Prior art keywords
- spacecraft
- docking
- central point
- training
- capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003032 molecular docking Methods 0.000 title claims abstract description 69
- 238000010998 test method Methods 0.000 title claims abstract description 26
- 230000007246 mechanism Effects 0.000 claims abstract description 75
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 11
- 230000002787 reinforcement Effects 0.000 claims abstract description 8
- 230000009471 action Effects 0.000 claims description 9
- 238000013459 approach Methods 0.000 claims description 7
- 210000001503 joint Anatomy 0.000 claims description 7
- 230000006978 adaptation Effects 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 238000012360 testing method Methods 0.000 abstract description 7
- 238000012795 verification Methods 0.000 abstract description 3
- 238000004088 simulation Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Abstract
本发明公开了一种停靠式抓捕的航天器自主交会对接试验方法,所述方法包括如下步骤:建立抓捕机构的航天器自主交会对接系统;建立被捕获航天器的样本图片数据库;对标注后的样本图片数据库进行训练,输出被捕获航天器四个轮廓特征点的图像二维坐标,得到被捕获航天器相对于捕获服务航天器的位姿;获取抓捕机构中心点和适配机构中心点的相对距离、相对姿态以及相对速度的信息;根据相对距离、相对姿态以及相对速度的信息,基于强化学习实现航天器自主交会对接控制,并采用深度确定性策略梯度算法训练智能体网络进行训练。本发明能够通过模拟仿真交会对接过程,实现对交会对接控制算法的验证,从而降低了地面物理试验的风险。
Description
技术领域
本发明属于空间人工智能技术领域,尤其涉及一种停靠式抓捕的航天器自主交会对接试验方法。
背景技术
探月三期探测器系统由轨道器、着陆器、上升器、返回器组成,完成月面采样、月球轨道交会、月球样品返回地面等任务。上升器与轨道器的交会对接是探月三期月球采样返回任务的重要环节,其是否成功将直接决定着任务的成败。空间自主交会对接对航天器相对位姿和控制系统要求较高。传统方法往往采用视觉靶标测量+预定捕获程序实现航天器交会对接,只适合合作目标,适应性差,而且受制于复杂空间环境,通信信号延迟以及对接窗口时间等限制,较差的控制自主性极易造成空间对接失败。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提出了一种停靠式抓捕的航天器自主交会对接试验方法,利用双目相机识别被捕获航天器边缘特征点并计算相对位姿,而后基于深度强化学习实现停靠式抓捕航天器的自主捕获对接。
本发明目的通过以下技术方案予以实现:一种停靠式抓捕的航天器自主交会对接试验方法,所述方法包括如下步骤:步骤S1:建立抓捕机构的航天器自主交会对接系统;步骤S2:建立被捕获航天器的样本图片数据库;步骤S3:对样本图片数据库中被捕获航天器四个轮廓特征点进行标注,对标注后的样本图片数据库进行训练,输出被捕获航天器四个轮廓特征点的图像二维坐标,利用一定的算法得到被捕获航天器相对于捕获服务航天器的位姿;步骤S4:根据被捕获航天器相对于捕获服务航天器的位姿获取抓捕机构中心点和适配机构中心点的相对距离、相对姿态以及相对速度的信息;步骤S5:根据步骤S4中获取的相对距离、相对姿态以及相对速度的信息,基于强化学习实现航天器自主交会对接控制,并采用深度确定性策略梯度算法训练智能体网络进行训练。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S1中,抓捕机构的航天器自主交会对接系统包括捕获服务航天器、被捕获航天器、抓捕机构、适配机构和双目相机;其中,所述捕获服务航天器的对接面的中心设置有抓捕机构,捕获服务航天器的顶部设置有双目相机;所述被捕获航天器的对接面的中心设置有适配机构。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S2中,双目相机从多个视角对被捕获航天器拍照以获得不同角度下的图片数据,不同角度下的图片数据组成被捕获航天器的样本图片数据库。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S3中,被捕获航天器四个轮廓特征点为被捕获航天器的对接面的四个角点。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S3中,通过卷积神经网络对标注后的样本图片数据库进行训练,在预设阈值以上的置信度图中搜索局部峰值,然后使用贪婪分配算法选择峰值最大的点作为特征点,从而输出被捕获航天器四个轮廓特征点的图像二维坐标。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S3中,一定的算法为PnP算法。
上述停靠式抓捕的航天器自主交会对接试验方法中,在步骤S5中,所述训练包括接近位姿训练和抓捕交会训练。
上述停靠式抓捕的航天器自主交会对接试验方法中,接近位姿训练包括如下步骤:交会对接前,捕获服务航天器首先需要接近到相对于被捕获航天器预设的位置,此阶段,根据抓捕机构中心点A和适配机构中心点B的相对位姿差以及相对速度进行奖励反馈,令航天器三轴控制力信息为DDPG的动作集合;在训练过程中,奖励函数的设计如下:在抓捕机构中心点A和适配机构中心点B的距离未到达误差范围内使奖励值为抓捕机构中心点A和适配机构中心点B的距离二范数的相反数,如果抓捕机构中心点A到达适配机构中心点B且相对速度小于预设值时赋予奖励值10,如果服务航天器到达适配机构中心点B且与适配机构中心点B姿态偏差小于预设偏差时,则赋予奖励值10加上姿态弧度制偏差的相反数,如果捕获服务航天器连续5次达到期望目标位置和姿态后,则赋予奖励50并进入下轮训练;通过强化学习训练,获得接近位姿网络。
上述停靠式抓捕的航天器自主交会对接试验方法中,DDPG的动作集合包括抓捕机构中心点A和适配机构中心点B的三轴姿态偏差、抓捕机构中心点A和适配机构中心点B的距离、抓捕机构中心点A和适配机构中心点B的相对速度、是否到达期望位姿信息。
上述停靠式抓捕的航天器自主交会对接试验方法中,抓捕交会训练包括如下步骤:在训练过程中,如果捕获服务航天器到达抓取点则获得奖励值50奖励值10;当服务航天器到达抓取点并闭合抓取装置时,若所有抓取装置内侧都有检测到碰撞力,则获得奖励值50并进入下轮训练;当服务航天器发生非合理碰撞,则给予惩罚-50并结束此轮训练。
本发明与现有技术相比具有如下有益效果:
(1)本发明能够通过模拟仿真交会对接过程,实现对交会对接控制算法的验证,从而降低了地面物理试验的风险。
(2)本发明能够验证传感器、空间环境以及航天器故障等影响,具有比地面物理试验更大的灵活度。
(3)本发明具有模拟效果逼真、使用简便灵活、适用范围广的特点,可广泛应用于空间交会对接试验与仿真,具有良好的市场推广前景。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明方法的捕获对接机构与适配机构示意图;
图2为本发明方法的训练流程图;
图3为本发明方法的训练学习曲线图;
图4为本发明方法的训练学习曲线图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
本实施例提供了一种停靠式抓捕的航天器自主交会对接试验方法,该方法包括如下步骤:
(1)建立抓捕机构的航天器自主交会对接系统。具体的,抓捕机构的航天器自主交会对接系统包括捕获服务航天器、被捕获航天器、抓捕机构、适配机构和双目相机;其中,所述捕获服务航天器的对接面的中心设置有抓捕机构,捕获服务航天器的顶部设置有双目相机;所述被捕获航天器的对接面的中心设置有适配机构。停靠式抓捕航天器自主交会对接过程如图1所示,捕获服务航天器安装可以闭合的对接抓捕机构,被捕获航天器具有对应的适配机构,同时在捕获服务航天器上有用于测量相对位姿的双目相机,当服务航天器接近被捕获航天器至一定的位姿后,对接抓捕对适配机构进行抓捕并锁定,完成交会对接任务。星上其他载荷和机构不是本发明的重点,在此不予展示。
(2)建立被捕获航天器的样本图片数据库。具体的,利用双目相机从多个视角对被捕获航天器拍照以获得不同角度下的图片数据,样本图片数据应该尽可能多,能够反映在各种视角下航天器的外观和形状。
(3)利用标注软件对步骤(2)采集到的样本图片数据库进行标注。选择被捕获航天器四个轮廓特征点,见图1中的①②③④。之后通过卷积神经网络对标注后的样本数据进行训练,并设定一个适当的阈值,在阈值以上的置信度图中搜索局部峰值,然后使用贪婪分配算法选择峰值最大的点作为特征点。从而输出被捕获航天器四个边缘关键点的图像二维坐标。最后利用PnP算法,求解被捕获航天器的位姿。
(4)由于对接抓捕机构的对称性,因此,只需确定抓捕机构中心点A和适配机构中心点B的相对位姿即可,因此对步骤(3)的数据进行处理,获取点A和点B的相对距离、相对姿态以及相对速度等信息。
(5)根据步骤(4)中获取的抓捕机构中心点A和适配机构中心点B的相对信息,基于强化学习实现航天器自主交会对接控制,并采用深度确定性策略梯度算法(DDPG)训练智能体网络。DDPG可分为Actor和Critic两部分,Actor网络用来训练选取动作,Critic网络用来评价Actor网络选取的动作所获得的价值。DDPG算法可以解决环境中连续状态和连续动作问题,非常适用于航天器的控制。为了加速训练过程并提高训练的成功率,如图2所示,训练分为两步:a.接近位姿训练;b.抓捕交会训练。
a.接近位姿训练
交会对接前,服务航天器首先需要接近到相对于被捕获航天器合适的位置,此阶段,根据抓捕机构中心点A和适配机构中心点B的相对位姿差以及相对速度进行奖励反馈,令航天器三轴控制力信息为DDPG的动作集合。状态集合由点A和点B的三轴姿态偏差、点A和点B的距离、点A和点B的相对速度、是否到达期望位姿信息组成。在训练过程中,奖励函数的设计如下:在点A和点B的距离未到达误差范围内使奖励值为点A和点B的距离二范数的相反数,如果服务航天器(可以认为为点A)到达期望目标附近(可以认为为点B)且相对速度较小时赋予奖励值10,如果服务航天器到达期望目标附近且与期望目标姿态偏差较小,则赋予奖励值10加上姿态弧度制偏差的相反数,如果服务航天器连续5次达到期望目标位置和姿态后,则赋予奖励50并进入下轮训练。通过强化学习训练,获得接近位姿网络。
b.抓捕交会训练
在步骤a训练好的位姿网络的基础上,进行抓捕交会训练。令航天器三轴控制力、抓捕机构闭合标识信息为DDPG的动作集合。状态集合由航天器三轴控制力、抓捕机构是否抓取成功以及碰撞力信息组成。在训练过程中,如果服务航天器到达抓取点奖励值10,当服务航天器到达抓取点并闭合抓取装置时,若所有抓取装置内侧都有检测到碰撞力,则获得奖励值50并进入下轮训练,当服务航天器发生非合理碰撞,则给予惩罚-50并结束此轮训练。
航天器自主交会对接智能体网络的学习训练结果如图3和图4所示,图3显示了智能体网络每个回合任务成功所需的学习步数。随着训练时间的增加,服务航天器捕获目标航天器对象所需的步数越来越少。图4显示了智能体网络每一回合的奖励,可以看到正向奖励逐渐稳定,随着训练时间的增加,智能体网络能够实现稳定的自主交会对接任务。
本发明能够通过模拟仿真交会对接过程,实现对交会对接控制算法的验证,从而降低了地面物理试验的风险;本发明能够验证传感器、空间环境以及航天器故障等影响,具有比地面物理试验更大的灵活度;本发明具有模拟效果逼真、使用简便灵活、适用范围广的特点,可广泛应用于空间交会对接试验与仿真,具有良好的市场推广前景。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
Claims (10)
1.一种停靠式抓捕的航天器自主交会对接试验方法,其特征在于,所述方法包括如下步骤:
步骤S1:建立抓捕机构的航天器自主交会对接系统;
步骤S2:建立被捕获航天器的样本图片数据库;
步骤S3:对样本图片数据库中被捕获航天器四个轮廓特征点进行标注,对标注后的样本图片数据库进行训练,输出被捕获航天器四个轮廓特征点的图像二维坐标,利用一定的算法得到被捕获航天器相对于捕获服务航天器的位姿;
步骤S4:根据被捕获航天器相对于捕获服务航天器的位姿获取抓捕机构中心点和适配机构中心点的相对距离、相对姿态以及相对速度的信息;
步骤S5:根据步骤S4中获取的相对距离、相对姿态以及相对速度的信息,基于强化学习实现航天器自主交会对接控制,并采用深度确定性策略梯度算法训练智能体网络进行训练。
2.根据权利要求1所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S1中,抓捕机构的航天器自主交会对接系统包括捕获服务航天器、被捕获航天器、抓捕机构、适配机构和双目相机;其中,
所述捕获服务航天器的对接面的中心设置有抓捕机构,捕获服务航天器的顶部设置有双目相机;
所述被捕获航天器的对接面的中心设置有适配机构。
3.根据权利要求2所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S2中,双目相机从多个视角对被捕获航天器拍照以获得不同角度下的图片数据,不同角度下的图片数据组成被捕获航天器的样本图片数据库。
4.根据权利要求1所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S3中,被捕获航天器四个轮廓特征点为被捕获航天器的对接面的四个角点。
5.根据权利要求1所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S3中,通过卷积神经网络对标注后的样本图片数据库进行训练,在预设阈值以上的置信度图中搜索局部峰值,然后使用贪婪分配算法选择峰值最大的点作为特征点,从而输出被捕获航天器四个轮廓特征点的图像二维坐标。
6.根据权利要求1所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S3中,一定的算法为PnP算法。
7.根据权利要求1所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:在步骤S5中,所述训练包括接近位姿训练和抓捕交会训练。
8.根据权利要求7所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:接近位姿训练包括如下步骤:
交会对接前,捕获服务航天器首先需要接近到相对于被捕获航天器预设的位置,此阶段,根据抓捕机构中心点A和适配机构中心点B的相对位姿差以及相对速度进行奖励反馈,令航天器三轴控制力信息为DDPG的动作集合;
在训练过程中,奖励函数的设计如下:在抓捕机构中心点A和适配机构中心点B的距离未到达误差范围内使奖励值为抓捕机构中心点A和适配机构中心点B的距离二范数的相反数,如果抓捕机构中心点A到达适配机构中心点B且相对速度小于预设值时赋予奖励值10,如果服务航天器到达适配机构中心点B且与适配机构中心点B姿态偏差小于预设偏差时,则赋予奖励值10加上姿态弧度制偏差的相反数,如果捕获服务航天器连续5次达到期望目标位置和姿态后,则赋予奖励50并进入下轮训练;通过强化学习训练,获得接近位姿网络。
9.根据权利要求8所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:DDPG的动作集合包括抓捕机构中心点A和适配机构中心点B的三轴姿态偏差、抓捕机构中心点A和适配机构中心点B的距离、抓捕机构中心点A和适配机构中心点B的相对速度、是否到达期望位姿信息。
10.根据权利要求7所述的停靠式抓捕的航天器自主交会对接试验方法,其特征在于:抓捕交会训练包括如下步骤:
在训练过程中,如果捕获服务航天器到达抓取点则获得奖励值50奖励值10;当服务航天器到达抓取点并闭合抓取装置时,若所有抓取装置内侧都有检测到碰撞力,则获得奖励值50并进入下轮训练;当服务航天器发生非合理碰撞,则给予惩罚-50并结束此轮训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832184.8A CN113916254A (zh) | 2021-07-22 | 2021-07-22 | 一种停靠式抓捕的航天器自主交会对接试验方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832184.8A CN113916254A (zh) | 2021-07-22 | 2021-07-22 | 一种停靠式抓捕的航天器自主交会对接试验方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113916254A true CN113916254A (zh) | 2022-01-11 |
Family
ID=79232905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110832184.8A Pending CN113916254A (zh) | 2021-07-22 | 2021-07-22 | 一种停靠式抓捕的航天器自主交会对接试验方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113916254A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116476042A (zh) * | 2022-12-31 | 2023-07-25 | 中国科学院长春光学精密机械与物理研究所 | 基于深度强化学习的机械臂运动学逆解优化方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105109711A (zh) * | 2015-06-19 | 2015-12-02 | 北京控制工程研究所 | 一种航天器交会对接仿真系统 |
CN107481281A (zh) * | 2017-08-23 | 2017-12-15 | 上海微小卫星工程中心 | 相对位姿计算方法和装置及航天飞行器交会对接系统 |
CN108507543A (zh) * | 2017-09-07 | 2018-09-07 | 哈尔滨工业大学 | 航天器对接捕获过程的位姿测量装置及柔顺控制方法 |
CN109625333A (zh) * | 2019-01-03 | 2019-04-16 | 西安微电子技术研究所 | 一种基于深度增强学习的空间非合作目标捕获方法 |
CN110211180A (zh) * | 2019-05-16 | 2019-09-06 | 西安理工大学 | 一种基于深度学习的机械臂自主抓取方法 |
CN112141369A (zh) * | 2020-10-09 | 2020-12-29 | 哈尔滨理工大学 | 一种航天器平移靠拢段自主交会对接的决策与控制方法 |
CN112340063A (zh) * | 2020-09-28 | 2021-02-09 | 南京邮电大学 | 一种基于深度强化学习的卫星消旋方法 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN112651437A (zh) * | 2020-12-24 | 2021-04-13 | 北京理工大学 | 一种基于深度学习的空间非合作目标位姿估计方法 |
WO2021074910A1 (en) * | 2019-10-18 | 2021-04-22 | Thales Alenia Space Italia S.P.A. Con Unico Socio | End-to-end on-orbit servicing |
-
2021
- 2021-07-22 CN CN202110832184.8A patent/CN113916254A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105109711A (zh) * | 2015-06-19 | 2015-12-02 | 北京控制工程研究所 | 一种航天器交会对接仿真系统 |
CN107481281A (zh) * | 2017-08-23 | 2017-12-15 | 上海微小卫星工程中心 | 相对位姿计算方法和装置及航天飞行器交会对接系统 |
CN108507543A (zh) * | 2017-09-07 | 2018-09-07 | 哈尔滨工业大学 | 航天器对接捕获过程的位姿测量装置及柔顺控制方法 |
CN109625333A (zh) * | 2019-01-03 | 2019-04-16 | 西安微电子技术研究所 | 一种基于深度增强学习的空间非合作目标捕获方法 |
CN110211180A (zh) * | 2019-05-16 | 2019-09-06 | 西安理工大学 | 一种基于深度学习的机械臂自主抓取方法 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
WO2021074910A1 (en) * | 2019-10-18 | 2021-04-22 | Thales Alenia Space Italia S.P.A. Con Unico Socio | End-to-end on-orbit servicing |
CN112340063A (zh) * | 2020-09-28 | 2021-02-09 | 南京邮电大学 | 一种基于深度强化学习的卫星消旋方法 |
CN112141369A (zh) * | 2020-10-09 | 2020-12-29 | 哈尔滨理工大学 | 一种航天器平移靠拢段自主交会对接的决策与控制方法 |
CN112651437A (zh) * | 2020-12-24 | 2021-04-13 | 北京理工大学 | 一种基于深度学习的空间非合作目标位姿估计方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116476042A (zh) * | 2022-12-31 | 2023-07-25 | 中国科学院长春光学精密机械与物理研究所 | 基于深度强化学习的机械臂运动学逆解优化方法及装置 |
CN116476042B (zh) * | 2022-12-31 | 2024-01-12 | 中国科学院长春光学精密机械与物理研究所 | 基于深度强化学习的机械臂运动学逆解优化方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chakravarty et al. | CNN-based single image obstacle avoidance on a quadrotor | |
CN109960880B (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
Ludington et al. | Augmenting UAV autonomy | |
CN205453893U (zh) | 无人机 | |
CN111598951A (zh) | 一种识别空间目标的方法、装置和存储介质 | |
CN110463376B (zh) | 一种插机方法及插机设备 | |
CN112180955A (zh) | 一种自动巡检无人机的基于视觉反馈的二次复查方法和系统 | |
CN106875403B (zh) | 一种用于空中加油的仿鹰眼视觉运动目标检测方法 | |
CN113076615B (zh) | 基于对抗式深度强化学习的高鲁棒性机械臂操作方法及系统 | |
Premachandra et al. | A study on hovering control of small aerial robot by sensing existing floor features | |
CN113916254A (zh) | 一种停靠式抓捕的航天器自主交会对接试验方法 | |
CN112419403A (zh) | 一种基于二维码阵列的室内无人机定位方法 | |
Gu et al. | Cataglyphis: An autonomous sample return rover | |
Tomono et al. | Mobile robot navigation in indoor environments using object and character recognition | |
Sarwade et al. | Line following robot using image processing | |
Olivares-Mendez et al. | Autonomous landing of an unmanned aerial vehicle using image-based fuzzy control | |
CN109977884B (zh) | 目标跟随方法和装置 | |
CN109062220B (zh) | 控制终端运动的方法和装置 | |
KR102467858B1 (ko) | 영상 기반의 협력적 동시 측위 및 지도 작성 시스템 및 방법 | |
Hu et al. | A minimal dataset construction method based on similar training for capture position recognition of space robot | |
Winarno et al. | Object detection for KRSBI robot soccer using PeleeNet on omnidirectional camera | |
CN109542094A (zh) | 无期望图像的移动机器人视觉镇定控制 | |
RU2735196C1 (ru) | Способ управления посадкой малого беспилотного летательного аппарата | |
Oumer | Visual tracking and motion estimation for an on-orbit servicing of a satellite | |
Chen et al. | Application of Matlab to the vision-based navigation of UAVs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |