CN113706619A - 一种基于空间映射学习的非合作目标姿态估计方法 - Google Patents

一种基于空间映射学习的非合作目标姿态估计方法 Download PDF

Info

Publication number
CN113706619A
CN113706619A CN202111225153.2A CN202111225153A CN113706619A CN 113706619 A CN113706619 A CN 113706619A CN 202111225153 A CN202111225153 A CN 202111225153A CN 113706619 A CN113706619 A CN 113706619A
Authority
CN
China
Prior art keywords
predicted
point cloud
dimensional model
camera
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111225153.2A
Other languages
English (en)
Other versions
CN113706619B (zh
Inventor
李爽
胡茄乾
杨彬
黄旭星
刘旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202111225153.2A priority Critical patent/CN113706619B/zh
Publication of CN113706619A publication Critical patent/CN113706619A/zh
Application granted granted Critical
Publication of CN113706619B publication Critical patent/CN113706619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于空间映射学习的非合作目标姿态估计方法,步骤如下:通过Blender和Blensor建模非合作目标的仿真场景,模拟相机和激光雷达的联合成像,大量收集点云和图像融合数据;构建数据集,训练一个人工神经网络,仅从RGB图像预测物体的类别标签、实例掩膜、彩色标签;使用迭代最近点法对齐预测三维模型与点云,计算出物体的姿态。本发明通过Blender建模获得大量点云和图像信息,构建数据集训练人工神经网络,利用神经网络预测图像与坐标空间之间的映射,通过点云对齐技术实现对空间非合作目标的姿态估计。

Description

一种基于空间映射学习的非合作目标姿态估计方法
技术领域
本发明属于人工智能(智能导航制导与控制技术)领域,具体涉及一种基于空间映射学习的非合作目标姿态估计方法。
背景技术
在空间在轨服务任务中,合作目标的交会对接技术已经成熟,并在多个工程项目中得到了应用,比如:XSS-11、DART和Orbital Express等任务。相比之下,非合作目标由于没有合作标记,缺乏先验信息,其实现自主服务的难度更大,目前还依然处于理论研究阶段。各国航天局提出了多个研究计划,比如SUMO,DEOS等。为了实现自主交会任务,许多位姿测量系统被提出。轨道快车AVGS系统:该系统使用两个不同波长激光识别合作卫星上的标识点,该系统只能用于合作目标。TriDAR系统使用扫描式激光雷达感知目标卫星表面的点,然后将所获取的 3D点与一个3DCAD 模型进行迭代最近点配准(ICP)计算出相应的位置和姿态。该方法可以应用于合作目标以及非合作目标的位姿测量。ETS-VII视觉系统基于一个手眼相机使用圆形标识物进行位姿测量。对接闪光激光雷达系统工作方式与 TriDAR 系统相似,不同之处在于该系统使用激光雷达来扫描目标卫星的表面,该系统可用于对空间非合作目标的相对位姿测量。
在在轨服务中,一步很重要的工作是对提取的非合作目标的姿态。绝大部分目前已有的研究中都采用了三维重构的方法,利用三维重构的方法获得目标的三维模型,利用三维模型实现对目标的姿态估计,但是目前的三维重构算法需要序列图像,比较复杂。基于学习的方法可以实现从单张图像中重构目标的三维模型,但是目前没有开源的非合作目标点云和图像融合数据集。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于空间映射学习的非合作目标姿态估计方法,通过Blender和Blensor建模非合作目标相机和激光雷达联合成像模型,获得大量点云和图像融合数据,构建数据集训练神经网络实现从单张图像重构非合作目标三维模型,通过点云对齐技术实现对空间非合作目标的姿态估计。
为达到上述目的,本发明采用的技术方案如下:
本发明为一种基于空间映射学习的待预测物体姿态估计方法,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
进一步的,所述S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
进一步的,所述S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
进一步的,所述S3具体包括:
S31,求取所述S24中获得的点云数据P和Q之间的缩放比;
S32,利用迭代最近点法对齐预测三维模型与点云,获得待预测物体的姿态。
本发明的有益效果:
1、本发明获取了大量的图像和点云数据,为图像和点云融合的神经网络的训练提供了基础,提高了神经网络对空间非合作目标姿态估计的精度;
2、本发明利用人工神经网络实现了从单张图像中重构非合作目标的三维模型。
附图说明
图1为本发明方法的流程图;
图2为Blender获得的图像数据;
图3为Blender获得的点云数据;
图4为神经网络输出的两组点云;
图5为点云缩放的结果;
图6为点云精对准结果。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明为一种基于空间映射学习的待预测物体姿态估计方法,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
进一步的,所述步骤S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
进一步的,所述步骤S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
进一步的,所述步骤S3具体包括:
S31利用步骤S2中获得的P和Q,估计从Q到P变换的缩放变换S、旋转变换R、位移变换t,即可获得目标的尺寸和姿态。
首先假设
Figure 107187DEST_PATH_IMAGE001
Figure 204588DEST_PATH_IMAGE002
,p i 和q i 分别为点云P、Q中的第i个点,i= 1,2,3,…,n,现在需要找到一组变换S、R、t,使得:
Figure 679431DEST_PATH_IMAGE003
先定义第i对点的误差项e i
Figure 753435DEST_PATH_IMAGE004
然后,构建最小二乘问题,求使误差平方和达到极小的R,t,S,
Figure 997335DEST_PATH_IMAGE005
上式中既有R,t又有S,直接求解较为困难,下面推导求解方法。
首先,定义两组点的质心m和n:
Figure 468899DEST_PATH_IMAGE006
Figure 696618DEST_PATH_IMAGE007
两组点减去质心可得:
Figure 323382DEST_PATH_IMAGE008
Figure 687367DEST_PATH_IMAGE009
Figure 126570DEST_PATH_IMAGE010
Figure 779268DEST_PATH_IMAGE011
分别为各自的点减去对应的质心的值。
于是,误差项e i 可以重新写成:
Figure 945807DEST_PATH_IMAGE012
其中
Figure 413567DEST_PATH_IMAGE013
是误差项e i 中多余部分的组合:
Figure 272938DEST_PATH_IMAGE014
误差的和就变成了:
Figure 960403DEST_PATH_IMAGE015
展开可得:
Figure 196212DEST_PATH_IMAGE016
如上式,第一项和第三项是非零的,第二项等于零,其中第一项与
Figure 521407DEST_PATH_IMAGE017
无关,要求此项 最小可以令
Figure 754943DEST_PATH_IMAGE018
等于零。
即:
Figure 664124DEST_PATH_IMAGE019
两边同除以
Figure 172466DEST_PATH_IMAGE020
可得:
Figure 614817DEST_PATH_IMAGE021
由于旋转不会改变长度的大小:
Figure 81571DEST_PATH_IMAGE022
误差和就成了:
Figure 478048DEST_PATH_IMAGE023
可以写成下式:
Figure 790081DEST_PATH_IMAGE024
上式如果想值更小,则平方项等于零,可以求出S
Figure 40933DEST_PATH_IMAGE025
S32求出S后,便可通过迭代最近点法继续求取旋转变换R和平移变换t。
已知的点云Q和P通过缩放S后分别变为点云P1和Q1,假设
Figure 665206DEST_PATH_IMAGE026
Figure 63826DEST_PATH_IMAGE027
,其中,
Figure 930282DEST_PATH_IMAGE028
Figure 832379DEST_PATH_IMAGE029
分别为点云P1、Q1中的第i个点,i=1,2,3,…,n,。
问题为求解一个旋转变换R和平移变换t,使得:
Figure 827886DEST_PATH_IMAGE030
首先,我们先定义第i对点的误差项
Figure 448223DEST_PATH_IMAGE031
Figure 118370DEST_PATH_IMAGE032
然后,构建最小二乘问题,求使误差平方和达到极小的R和t:
Figure 874973DEST_PATH_IMAGE033
上式中既有R又有t,直接求解较为困难,下面推导求解方法。
首先,定义两组点的质心m1和n1
Figure 792114DEST_PATH_IMAGE034
Figure 151944DEST_PATH_IMAGE035
随后,在误差函数中做如下的处理:
Figure 875050DEST_PATH_IMAGE036
观察上式,可以发现交叉项中在求和之后为零,因此,优化的目标函数可以简化为:
Figure 440154DEST_PATH_IMAGE037
仔细观察上式的左右两项,可以发现左边只与R有关,而右边既有R也有t,但只和质心相关。因此在获得了R之后,令右边项为零就能得到t。
Figure 590513DEST_PATH_IMAGE038
Figure 434710DEST_PATH_IMAGE039
是点
Figure 633610DEST_PATH_IMAGE040
Figure 364806DEST_PATH_IMAGE041
分别与点云质心m1和n1的差,设:
Figure 702377DEST_PATH_IMAGE042
Figure 456707DEST_PATH_IMAGE043
根据以上算法可知,求得旋转以后,平移量是很容易得到的,下面推导旋转量的计算方法。展开关于R的误差项得:
Figure 558831DEST_PATH_IMAGE044
上式中,第一项和第二项都与R无关,因此实际上优化目标函数变为:
Figure 878954DEST_PATH_IMAGE045
接下来,需要通过SVD解出上述问题中的最优的R。为了解R,先定义矩阵:
Figure 653006DEST_PATH_IMAGE046
其中W是一个3×3的矩阵,对W进行SVD分解,得:
Figure 160211DEST_PATH_IMAGE047
其中
Figure 12498DEST_PATH_IMAGE048
为奇异值组成的对角矩阵,对角线元素从大到小排列,而U和V为对角矩阵。 当W满秩时,R为:
Figure 718286DEST_PATH_IMAGE049
这样就获得了R,根据下式可以求出t。
Figure 132081DEST_PATH_IMAGE050
以下通过具体实例说明算法的使用流程:
设定如下计算条件和技术参数:
(1)相机参数:焦距50mm,尺寸36mm×36mm;
(2)目标尺寸:长1.6m,宽1.2m,高1.4m;
采用Blender软件进行仿真验证,可以获得图2-图6的仿真结果。图2为Blender获得的图像数据;图3为Blensor获得的点云数据;图4神经网络输出的两组点云;图5为点云缩放的结果;图6点云精对准结果。从图2和图3中可以看出,利用Blender可以实现对图像数据和点云数据的获取。从图4、图5和图6中可以看出利用点云对齐技术,可以实现对两组点云之间缩放、旋转和平移的求解。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (4)

1.一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
2.根据权利要求1所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
3.根据权利要求2所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
4.根据权利要求3所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S3具体包括:
S31,求取所述S24中获得的点云数据P和Q之间的缩放比;
S32,利用迭代最近点法对齐预测三维模型与点云,获得待预测物体的姿态。
CN202111225153.2A 2021-10-21 2021-10-21 一种基于空间映射学习的非合作目标姿态估计方法 Active CN113706619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111225153.2A CN113706619B (zh) 2021-10-21 2021-10-21 一种基于空间映射学习的非合作目标姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111225153.2A CN113706619B (zh) 2021-10-21 2021-10-21 一种基于空间映射学习的非合作目标姿态估计方法

Publications (2)

Publication Number Publication Date
CN113706619A true CN113706619A (zh) 2021-11-26
CN113706619B CN113706619B (zh) 2022-04-08

Family

ID=78646908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111225153.2A Active CN113706619B (zh) 2021-10-21 2021-10-21 一种基于空间映射学习的非合作目标姿态估计方法

Country Status (1)

Country Link
CN (1) CN113706619B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210166418A1 (en) * 2019-02-23 2021-06-03 Shenzhen Sensetime Technology Co., Ltd. Object posture estimation method and apparatus
CN116580084A (zh) * 2023-02-24 2023-08-11 江苏共知自动化科技有限公司 一种基于深度学习和点云的工业零件快速位姿估计方法
CN116681733A (zh) * 2023-08-03 2023-09-01 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法
CN117541614A (zh) * 2024-01-09 2024-02-09 南京航空航天大学 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441311A (zh) * 2016-07-15 2017-02-22 上海宇航系统工程研究所 一种基于激光成像雷达的非合作航天器相对位姿测量方法
CN109801337A (zh) * 2019-01-21 2019-05-24 同济大学 一种基于实例分割网络和迭代优化的6d位姿估计方法
CN110348049A (zh) * 2019-06-03 2019-10-18 南京航空航天大学 单边约束情况下估计空间非合作目标动力学参数的方法
CN111414798A (zh) * 2019-02-03 2020-07-14 沈阳工业大学 基于rgb-d图像的头部姿态检测方法及系统
CN112652016A (zh) * 2020-12-30 2021-04-13 北京百度网讯科技有限公司 点云预测模型的生成方法、位姿估计方法及其装置
CN113050083A (zh) * 2021-03-10 2021-06-29 中国人民解放军国防科技大学 一种基于点云的超宽带雷达人体姿态重构方法
CN113096094A (zh) * 2021-04-12 2021-07-09 成都市览图科技有限公司 三维物体表面缺陷检测方法
CN113450408A (zh) * 2021-06-23 2021-09-28 中国人民解放军63653部队 一种基于深度相机的非规则物体位姿估计方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441311A (zh) * 2016-07-15 2017-02-22 上海宇航系统工程研究所 一种基于激光成像雷达的非合作航天器相对位姿测量方法
CN109801337A (zh) * 2019-01-21 2019-05-24 同济大学 一种基于实例分割网络和迭代优化的6d位姿估计方法
CN111414798A (zh) * 2019-02-03 2020-07-14 沈阳工业大学 基于rgb-d图像的头部姿态检测方法及系统
CN110348049A (zh) * 2019-06-03 2019-10-18 南京航空航天大学 单边约束情况下估计空间非合作目标动力学参数的方法
CN112652016A (zh) * 2020-12-30 2021-04-13 北京百度网讯科技有限公司 点云预测模型的生成方法、位姿估计方法及其装置
CN113050083A (zh) * 2021-03-10 2021-06-29 中国人民解放军国防科技大学 一种基于点云的超宽带雷达人体姿态重构方法
CN113096094A (zh) * 2021-04-12 2021-07-09 成都市览图科技有限公司 三维物体表面缺陷检测方法
CN113450408A (zh) * 2021-06-23 2021-09-28 中国人民解放军63653部队 一种基于深度相机的非规则物体位姿估计方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QIAOYING DING等: "The Detection of Non-Cooperative Targets in Space by Using 3D Point Cloud", 《2019 5TH INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND ROBOTICS》 *
SHUANG LI等: "Inertial parameter estimation and control of non-cooperative target with unilateral contact constraint", 《CHINESE JOURNAL OF AERONAUTICS》 *
刘智远等: "基于点云的空间非合作目标初始相对位姿获取", 《宇航学报》 *
魏亮等: "基于 ICP 算法的非合作目标特征点云配准优化", 《系统仿真学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210166418A1 (en) * 2019-02-23 2021-06-03 Shenzhen Sensetime Technology Co., Ltd. Object posture estimation method and apparatus
CN116580084A (zh) * 2023-02-24 2023-08-11 江苏共知自动化科技有限公司 一种基于深度学习和点云的工业零件快速位姿估计方法
CN116580084B (zh) * 2023-02-24 2024-01-16 江苏共知自动化科技有限公司 一种基于深度学习和点云的工业零件快速位姿估计方法
CN116681733A (zh) * 2023-08-03 2023-09-01 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法
CN116681733B (zh) * 2023-08-03 2023-11-07 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法
CN117541614A (zh) * 2024-01-09 2024-02-09 南京航空航天大学 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法
CN117541614B (zh) * 2024-01-09 2024-03-29 南京航空航天大学 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法

Also Published As

Publication number Publication date
CN113706619B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
CN113706619B (zh) 一种基于空间映射学习的非合作目标姿态估计方法
CN110296691B (zh) 融合imu标定的双目立体视觉测量方法与系统
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN112258390B (zh) 一种高精度微观虚拟学习资源生成方法
CN112902953B (zh) 一种基于slam技术的自主位姿测量方法
CN111563878B (zh) 一种空间目标定位方法
CN111679291B (zh) 基于三维激光雷达的巡检机器人目标定位配置方法
Terui et al. Motion estimation to a failed satellite on orbit using stereo vision and 3D model matching
CN107194991B (zh) 一种基于骨架点局域动态更新的三维全局可视化监控系统构建方法
CN110728715A (zh) 一种智能巡检机器人像机角度自适应调整方法
CN109579843A (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN109559355B (zh) 一种基于相机组的无公共视场的多相机全局标定装置及方法
CN110223351B (zh) 一种基于卷积神经网络的深度相机定位方法
CN106570905B (zh) 一种非合作目标点云初始姿态验证方法
CN113077519B (zh) 一种基于人体骨架提取的多相机外参自动标定方法
CN110849331B (zh) 基于三维点云数据库模型的单目视觉测量与地面试验方法
CN111079565A (zh) 视图二维姿态模板的构建方法及识别方法、定位抓取系统
CN109443200A (zh) 一种全局视觉坐标系和机械臂坐标系的映射方法及装置
CN116625258A (zh) 链条间距测量系统及链条间距测量方法
CN113012238B (zh) 一种多深度相机快速标定与数据融合的方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN114429527A (zh) 基于slam的远程操作场景三维重建方法
CN111899303B (zh) 一种新的考虑空间逆投影约束的特征匹配与相对定位方法
CN112132971B (zh) 三维人体建模方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant