CN113706619A - 一种基于空间映射学习的非合作目标姿态估计方法 - Google Patents
一种基于空间映射学习的非合作目标姿态估计方法 Download PDFInfo
- Publication number
- CN113706619A CN113706619A CN202111225153.2A CN202111225153A CN113706619A CN 113706619 A CN113706619 A CN 113706619A CN 202111225153 A CN202111225153 A CN 202111225153A CN 113706619 A CN113706619 A CN 113706619A
- Authority
- CN
- China
- Prior art keywords
- predicted
- point cloud
- dimensional model
- camera
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于空间映射学习的非合作目标姿态估计方法,步骤如下:通过Blender和Blensor建模非合作目标的仿真场景,模拟相机和激光雷达的联合成像,大量收集点云和图像融合数据;构建数据集,训练一个人工神经网络,仅从RGB图像预测物体的类别标签、实例掩膜、彩色标签;使用迭代最近点法对齐预测三维模型与点云,计算出物体的姿态。本发明通过Blender建模获得大量点云和图像信息,构建数据集训练人工神经网络,利用神经网络预测图像与坐标空间之间的映射,通过点云对齐技术实现对空间非合作目标的姿态估计。
Description
技术领域
本发明属于人工智能(智能导航制导与控制技术)领域,具体涉及一种基于空间映射学习的非合作目标姿态估计方法。
背景技术
在空间在轨服务任务中,合作目标的交会对接技术已经成熟,并在多个工程项目中得到了应用,比如:XSS-11、DART和Orbital Express等任务。相比之下,非合作目标由于没有合作标记,缺乏先验信息,其实现自主服务的难度更大,目前还依然处于理论研究阶段。各国航天局提出了多个研究计划,比如SUMO,DEOS等。为了实现自主交会任务,许多位姿测量系统被提出。轨道快车AVGS系统:该系统使用两个不同波长激光识别合作卫星上的标识点,该系统只能用于合作目标。TriDAR系统使用扫描式激光雷达感知目标卫星表面的点,然后将所获取的 3D点与一个3DCAD 模型进行迭代最近点配准(ICP)计算出相应的位置和姿态。该方法可以应用于合作目标以及非合作目标的位姿测量。ETS-VII视觉系统基于一个手眼相机使用圆形标识物进行位姿测量。对接闪光激光雷达系统工作方式与 TriDAR 系统相似,不同之处在于该系统使用激光雷达来扫描目标卫星的表面,该系统可用于对空间非合作目标的相对位姿测量。
在在轨服务中,一步很重要的工作是对提取的非合作目标的姿态。绝大部分目前已有的研究中都采用了三维重构的方法,利用三维重构的方法获得目标的三维模型,利用三维模型实现对目标的姿态估计,但是目前的三维重构算法需要序列图像,比较复杂。基于学习的方法可以实现从单张图像中重构目标的三维模型,但是目前没有开源的非合作目标点云和图像融合数据集。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于空间映射学习的非合作目标姿态估计方法,通过Blender和Blensor建模非合作目标相机和激光雷达联合成像模型,获得大量点云和图像融合数据,构建数据集训练神经网络实现从单张图像重构非合作目标三维模型,通过点云对齐技术实现对空间非合作目标的姿态估计。
为达到上述目的,本发明采用的技术方案如下:
本发明为一种基于空间映射学习的待预测物体姿态估计方法,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
进一步的,所述S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
进一步的,所述S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
进一步的,所述S3具体包括:
S31,求取所述S24中获得的点云数据P和Q之间的缩放比;
S32,利用迭代最近点法对齐预测三维模型与点云,获得待预测物体的姿态。
本发明的有益效果:
1、本发明获取了大量的图像和点云数据,为图像和点云融合的神经网络的训练提供了基础,提高了神经网络对空间非合作目标姿态估计的精度;
2、本发明利用人工神经网络实现了从单张图像中重构非合作目标的三维模型。
附图说明
图1为本发明方法的流程图;
图2为Blender获得的图像数据;
图3为Blender获得的点云数据;
图4为神经网络输出的两组点云;
图5为点云缩放的结果;
图6为点云精对准结果。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明为一种基于空间映射学习的待预测物体姿态估计方法,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
进一步的,所述步骤S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
进一步的,所述步骤S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
进一步的,所述步骤S3具体包括:
S31利用步骤S2中获得的P和Q,估计从Q到P变换的缩放变换S、旋转变换R、位移变换t,即可获得目标的尺寸和姿态。
先定义第i对点的误差项e i :
然后,构建最小二乘问题,求使误差平方和达到极小的R,t,S,
上式中既有R,t又有S,直接求解较为困难,下面推导求解方法。
首先,定义两组点的质心m和n:
两组点减去质心可得:
于是,误差项e i 可以重新写成:
误差的和就变成了:
展开可得:
即:
由于旋转不会改变长度的大小:
误差和就成了:
可以写成下式:
上式如果想值更小,则平方项等于零,可以求出S
S32求出S后,便可通过迭代最近点法继续求取旋转变换R和平移变换t。
问题为求解一个旋转变换R和平移变换t,使得:
然后,构建最小二乘问题,求使误差平方和达到极小的R和t:
上式中既有R又有t,直接求解较为困难,下面推导求解方法。
首先,定义两组点的质心m1和n1:
随后,在误差函数中做如下的处理:
观察上式,可以发现交叉项中在求和之后为零,因此,优化的目标函数可以简化为:
仔细观察上式的左右两项,可以发现左边只与R有关,而右边既有R也有t,但只和质心相关。因此在获得了R之后,令右边项为零就能得到t。
根据以上算法可知,求得旋转以后,平移量是很容易得到的,下面推导旋转量的计算方法。展开关于R的误差项得:
上式中,第一项和第二项都与R无关,因此实际上优化目标函数变为:
接下来,需要通过SVD解出上述问题中的最优的R。为了解R,先定义矩阵:
其中W是一个3×3的矩阵,对W进行SVD分解,得:
这样就获得了R,根据下式可以求出t。
以下通过具体实例说明算法的使用流程:
设定如下计算条件和技术参数:
(1)相机参数:焦距50mm,尺寸36mm×36mm;
(2)目标尺寸:长1.6m,宽1.2m,高1.4m;
采用Blender软件进行仿真验证,可以获得图2-图6的仿真结果。图2为Blender获得的图像数据;图3为Blensor获得的点云数据;图4神经网络输出的两组点云;图5为点云缩放的结果;图6点云精对准结果。从图2和图3中可以看出,利用Blender可以实现对图像数据和点云数据的获取。从图4、图5和图6中可以看出利用点云对齐技术,可以实现对两组点云之间缩放、旋转和平移的求解。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (4)
1.一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述方法包括以下步骤:
S1,通过模拟相机和激光雷达对待预测物体进行联合成像,采集对齐的点云数据和RGB图像数据;
S2,建立数据集,训练基于区域的神经网络,根据RGB图像数据得到物体的类别标签、实例掩膜、彩色标签,利用实例掩膜结合测量点云获得局部特征的测量点云,利用彩色标签重构局部特征三维点云模型;
S3,将所述点云数据进行缩放,之后使用迭代最近点法将三维模型与点云数据进行对齐,获得待预测物体的姿态。
2.根据权利要求1所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S1中点云和图像数据获取过程如下:
S11,建立模拟待预测物体的三维模型,在其机体上的相应位置设置对应的材料,然后添加光源和相机,模拟空间待预测物体的成像环境;
S12,控制相机光轴指向坐标系原点,控制相机不动、待预测物体模型中心位置保持在坐标系原点,将所述三维模型绕三轴依次旋转并制作动画,并且所述三维模型每旋转相同角度拍摄一张照片,以获取待预测物体不同姿态的RGB图像;
S13,将所述待预测物体的动画以及成像场景复制到点云仿真软件中,将相机替换为激光雷达,重复所述S12的过程,以获得待预测物体不同姿态下的点云数据,即模拟了相机和激光雷达的联合成像;
S14,控制相机在光轴上移动,重复所述步骤S11至S13,即可获得不同距离的成像结果。
3.根据权利要求2所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S2具体包括:
S21,对所述S1中获取的待预测物体的RGB图像,构建局部特征的分割标签和类别标签;
S22,制作局部特征逐一像素渐变的彩色三维模型,并根据所述S1中获取的待预测物体RGB图像对应的姿态进行成像,以获得局部特征的彩色标签;
S23,所述S21以及S22中的RGB图像和标签随机选取80%作为训练集,剩下的作为测试集,利用训练集训练基于区域的神经网络,利用测试集测试网络的泛化性能和准确性;
S24,采集待预测物体的图像,输入到所述S23中训练的神经网络,预测所述待预测物体局部类特征的类别标签、实例掩膜、彩色标签;其中彩色标签用于标识待预测物体的外形和尺寸;
S25,根据局部特征实例掩膜结合所述S1中获得的点云数据,获得所述待预测物体局部特征三维点云数据P,根据所述彩色标签得到局部特征三维模型获得点云数据Q。
4.根据权利要求3所述的一种基于空间映射学习的待预测物体姿态估计方法,其特征在于,所述S3具体包括:
S31,求取所述S24中获得的点云数据P和Q之间的缩放比;
S32,利用迭代最近点法对齐预测三维模型与点云,获得待预测物体的姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111225153.2A CN113706619B (zh) | 2021-10-21 | 2021-10-21 | 一种基于空间映射学习的非合作目标姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111225153.2A CN113706619B (zh) | 2021-10-21 | 2021-10-21 | 一种基于空间映射学习的非合作目标姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113706619A true CN113706619A (zh) | 2021-11-26 |
CN113706619B CN113706619B (zh) | 2022-04-08 |
Family
ID=78646908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111225153.2A Active CN113706619B (zh) | 2021-10-21 | 2021-10-21 | 一种基于空间映射学习的非合作目标姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113706619B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210166418A1 (en) * | 2019-02-23 | 2021-06-03 | Shenzhen Sensetime Technology Co., Ltd. | Object posture estimation method and apparatus |
CN116580084A (zh) * | 2023-02-24 | 2023-08-11 | 江苏共知自动化科技有限公司 | 一种基于深度学习和点云的工业零件快速位姿估计方法 |
CN116681733A (zh) * | 2023-08-03 | 2023-09-01 | 南京航空航天大学 | 一种空间非合作目标近距离实时位姿跟踪方法 |
CN117541614A (zh) * | 2024-01-09 | 2024-02-09 | 南京航空航天大学 | 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN110348049A (zh) * | 2019-06-03 | 2019-10-18 | 南京航空航天大学 | 单边约束情况下估计空间非合作目标动力学参数的方法 |
CN111414798A (zh) * | 2019-02-03 | 2020-07-14 | 沈阳工业大学 | 基于rgb-d图像的头部姿态检测方法及系统 |
CN112652016A (zh) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 点云预测模型的生成方法、位姿估计方法及其装置 |
CN113050083A (zh) * | 2021-03-10 | 2021-06-29 | 中国人民解放军国防科技大学 | 一种基于点云的超宽带雷达人体姿态重构方法 |
CN113096094A (zh) * | 2021-04-12 | 2021-07-09 | 成都市览图科技有限公司 | 三维物体表面缺陷检测方法 |
CN113450408A (zh) * | 2021-06-23 | 2021-09-28 | 中国人民解放军63653部队 | 一种基于深度相机的非规则物体位姿估计方法及装置 |
-
2021
- 2021-10-21 CN CN202111225153.2A patent/CN113706619B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN111414798A (zh) * | 2019-02-03 | 2020-07-14 | 沈阳工业大学 | 基于rgb-d图像的头部姿态检测方法及系统 |
CN110348049A (zh) * | 2019-06-03 | 2019-10-18 | 南京航空航天大学 | 单边约束情况下估计空间非合作目标动力学参数的方法 |
CN112652016A (zh) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 点云预测模型的生成方法、位姿估计方法及其装置 |
CN113050083A (zh) * | 2021-03-10 | 2021-06-29 | 中国人民解放军国防科技大学 | 一种基于点云的超宽带雷达人体姿态重构方法 |
CN113096094A (zh) * | 2021-04-12 | 2021-07-09 | 成都市览图科技有限公司 | 三维物体表面缺陷检测方法 |
CN113450408A (zh) * | 2021-06-23 | 2021-09-28 | 中国人民解放军63653部队 | 一种基于深度相机的非规则物体位姿估计方法及装置 |
Non-Patent Citations (4)
Title |
---|
QIAOYING DING等: "The Detection of Non-Cooperative Targets in Space by Using 3D Point Cloud", 《2019 5TH INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND ROBOTICS》 * |
SHUANG LI等: "Inertial parameter estimation and control of non-cooperative target with unilateral contact constraint", 《CHINESE JOURNAL OF AERONAUTICS》 * |
刘智远等: "基于点云的空间非合作目标初始相对位姿获取", 《宇航学报》 * |
魏亮等: "基于 ICP 算法的非合作目标特征点云配准优化", 《系统仿真学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210166418A1 (en) * | 2019-02-23 | 2021-06-03 | Shenzhen Sensetime Technology Co., Ltd. | Object posture estimation method and apparatus |
CN116580084A (zh) * | 2023-02-24 | 2023-08-11 | 江苏共知自动化科技有限公司 | 一种基于深度学习和点云的工业零件快速位姿估计方法 |
CN116580084B (zh) * | 2023-02-24 | 2024-01-16 | 江苏共知自动化科技有限公司 | 一种基于深度学习和点云的工业零件快速位姿估计方法 |
CN116681733A (zh) * | 2023-08-03 | 2023-09-01 | 南京航空航天大学 | 一种空间非合作目标近距离实时位姿跟踪方法 |
CN116681733B (zh) * | 2023-08-03 | 2023-11-07 | 南京航空航天大学 | 一种空间非合作目标近距离实时位姿跟踪方法 |
CN117541614A (zh) * | 2024-01-09 | 2024-02-09 | 南京航空航天大学 | 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法 |
CN117541614B (zh) * | 2024-01-09 | 2024-03-29 | 南京航空航天大学 | 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113706619B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113706619B (zh) | 一种基于空间映射学习的非合作目标姿态估计方法 | |
CN110296691B (zh) | 融合imu标定的双目立体视觉测量方法与系统 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN112258390B (zh) | 一种高精度微观虚拟学习资源生成方法 | |
CN112902953B (zh) | 一种基于slam技术的自主位姿测量方法 | |
CN111563878B (zh) | 一种空间目标定位方法 | |
CN111679291B (zh) | 基于三维激光雷达的巡检机器人目标定位配置方法 | |
Terui et al. | Motion estimation to a failed satellite on orbit using stereo vision and 3D model matching | |
CN107194991B (zh) | 一种基于骨架点局域动态更新的三维全局可视化监控系统构建方法 | |
CN110728715A (zh) | 一种智能巡检机器人像机角度自适应调整方法 | |
CN109579843A (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN102722697B (zh) | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 | |
CN109559355B (zh) | 一种基于相机组的无公共视场的多相机全局标定装置及方法 | |
CN110223351B (zh) | 一种基于卷积神经网络的深度相机定位方法 | |
CN106570905B (zh) | 一种非合作目标点云初始姿态验证方法 | |
CN113077519B (zh) | 一种基于人体骨架提取的多相机外参自动标定方法 | |
CN110849331B (zh) | 基于三维点云数据库模型的单目视觉测量与地面试验方法 | |
CN111079565A (zh) | 视图二维姿态模板的构建方法及识别方法、定位抓取系统 | |
CN109443200A (zh) | 一种全局视觉坐标系和机械臂坐标系的映射方法及装置 | |
CN116625258A (zh) | 链条间距测量系统及链条间距测量方法 | |
CN113012238B (zh) | 一种多深度相机快速标定与数据融合的方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN114429527A (zh) | 基于slam的远程操作场景三维重建方法 | |
CN111899303B (zh) | 一种新的考虑空间逆投影约束的特征匹配与相对定位方法 | |
CN112132971B (zh) | 三维人体建模方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |