CN112100900B - 一种空间非合作目标点云初始姿态测量方法 - Google Patents
一种空间非合作目标点云初始姿态测量方法 Download PDFInfo
- Publication number
- CN112100900B CN112100900B CN202010621497.4A CN202010621497A CN112100900B CN 112100900 B CN112100900 B CN 112100900B CN 202010621497 A CN202010621497 A CN 202010621497A CN 112100900 B CN112100900 B CN 112100900B
- Authority
- CN
- China
- Prior art keywords
- simulation model
- space
- point cloud
- target
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000691 measurement method Methods 0.000 title description 4
- 238000004088 simulation Methods 0.000 claims abstract description 96
- 238000005259 measurement Methods 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 36
- 239000013598 vector Substances 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
本发明公开了一种空间非合作目标点云初始姿态测量方法,步骤如下:(1)建立测量系统的坐标系,包括空间目标仿真模型本体坐标系和虚拟位姿敏感器测量坐标系;(2)建立空间目标的仿真模型与工况;(3)获得目标的全方位点云数据与对应的位姿标签;(4)按照规则对点云数据进行特征提取;(5)建立目标姿态与其点云数据特征间的对应关系;(6)根据目标姿态与其点云数据特征间的对应关系,进行空间非合作目标姿态测量,获得空间非合作目标的姿态初始值。本发明的算法高效、快速,适用于在轨应用,实现了在计算资源受限条件下,对空间非合作目标初始姿态的实时测量,且对目标不同质量的点云输入数据,具有较好的鲁棒性。
Description
技术领域
本发明涉及一种空间非合作目标点云初始姿态测量方法,适用于在轨条件下,对于在轨计算资源有限、姿态测量实时性要求高的约束和应用需求,给出一种高效、快速的非合作目标初始姿态测量方法。
背景技术
随着航天技术的进步和空间任务的多样化发展,对于空间非合作目标姿态的测量需求越来越迫切。应用激光获取空间非合作目标的点云,具有作用距离远、测距精度高、受外部光照环境影响小,具备全天时工作能力等特点,是空间非合作目标位姿测量的常用测量体制。利用激光的方法获取空间非合作目标点云后,需要对点云进行匹配计算处理,获得测量点云与模型点云之间的姿态关系,或者是获得当前帧测量点云与前一时刻测量点云之间的姿态关系,以此来获得空间非合作目标的相对空间姿态。
常规的目标初姿态测量算法有主成份分析的方法、基于哈希索引表的方法和基于局部几何特征的方法等。但是主成份分析的方法对于卫星目标的姿态区分度不高,测量结果过于粗糙;基于哈希索引表的方法,与算法设计密切相关,计算复杂度较高,对于在轨应用的环境,初姿态获取的实时性较差;基于局部几何特征的方法对于点云数据的精度依赖较高,在较差的点云数据输入下,容易产生初始姿态估计的粗大误差。
发明内容
本发明技术解决问题是:为克服现有技术的不足,本发明提供一种空间非合作目标点云初始姿态测量方法,该方法能够在计算资源有限的在轨条件下,满足空间非合作目标位姿测量中,对于目标初始姿态的实时、可靠、稳定的测量需求;本方法对目标的不同质量的点云输入数据,具有较好的鲁棒性,工程应用效果好;本发明解决空间非合作目标测量中的初始姿态确定问题,尤其是在空间应用中,给出一种计算资源消耗低、实时性好、稳定可靠的空间非合作目标初始姿态确定方法。
本发明的技术解决方案是:
一种空间非合作目标点云初始姿态测量方法,步骤如下:
(1)建立测量系统的坐标系,包括空间目标仿真模型本体坐标系和虚拟位姿敏感器测量坐标系;
(2)建立空间目标的仿真模型与工况,在虚拟环境中,根据空间目标的结构尺寸与表面材质,建立空间目标仿真模型,根据位姿敏感器的实际测量精度和扫描参数,构建虚拟位姿敏感器,设定空间目标仿真模型与虚拟位姿敏感器间的相对位姿关系;
(3)利用步骤(2)的空间目标仿真模型与虚拟位姿敏感器,通过虚拟位姿敏感器进行点云数据测量,获得空间目标仿真模型全方位点云数据与对应的姿态标签;
(4)对步骤(3)获得的空间目标仿真模型全方位点云数据进行特征提取,按照给定的规则,提取空间目标仿真模型全方位点云数据的特征;
(5)根据步骤(4)空间目标仿真模型全方位姿态特征与步骤(2)空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的对应关系,利用神经网络学习的方法,建立空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型;
(6)根据步骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,进行空间非合作目标初始姿态测量,获得空间非合作目标的初始姿态。
进一步的,步骤(1)中,设定空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态为零位,空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态从零位起算。
进一步的,步骤(2)中,根据实际工作工况,在相距空间目标50m±1m距离处,进行空间目标的位姿测量,设定空间目标仿真模型与虚拟位姿敏感器间的相对位姿关系。
进一步的,步骤(3)中,姿态标签为虚拟位姿敏感器计算得到的空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标,根据空间目标初始姿态测量的精度δ要求,设定空间目标仿真模型旋转运动的步长ΔR,记录空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri和与其对应的空间目标仿真模型全方位点云数据Di。
进一步的,形成空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri与对应的空间目标仿真模型全方位点云数据Di间的对应关系表:Ri=Ri-1+ΔR,(i=1…n),其中,i为空间目标仿真模型全方位点云数据每帧点云数据的序号,n为空间目标仿真模型全方位点云数据中包含的点云帧数目。
进一步的,姿态测量角度的精度δ≤1,ΔR≤δ/3。
进一步的,步骤(4)中,点云数据特征的提取公式为
其中,M代表某一帧点云数据提取的特征,Cov()代表两列点云坐标值进行协方差运算,A、B、C分别代表一帧点云数据中X轴方向的坐标值向量、Y轴方向的坐标值向量、Z轴方向的坐标值向量。
进一步的,
其中,Ai表示列向量A的第i个元素值,Bi表示列向量B的第i个元素值,μA是列向量A的均值,μB是列向量B的均值,N为一帧点云中的扫描点的数量,用空间目标仿真模型全方位点云数据的特征,代表空间目标仿真模型全方位点云数据,实现空间目标仿真模型全方位点云数据的压缩变换。
进一步的,映射关系模型具有一个六参数的输入层,至少一个中间层和一个单参数的输出层,层单元与层单元间用线性方程进行连接。
进一步的,步骤(6)中,获得空间非合作目标的初始姿态方法为:获得空间非合作目的一帧点云数据,进行该点云数据的特征提取,利用骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,计算出当前空间非合作目标的初始姿态。
本发明与现有技术相比的优点在于:
(1)本发明通过构造并提取空间目标点云特征的方法,实现了点云数据的压缩变换,有利于降低数据的运算量,降低对在轨计算资源的需求量;
(2)本发明通过建立空间目标姿态与其点云数据特征间的映射关系,实现了只包含加法和乘法的目标姿态与其点云数据特征间的映射,可有效降低计算量,提高空间目标姿态测量的实时性;
(3)本发明中提出的点云特征提取方法,综合考虑了点云数量、点云噪声对特征提取的影响,提取方法对点云数量的变化、点云噪声的干扰不敏感,实现了对目标姿态的可靠、稳定测量;
(4)本发明考虑了工程应用中计算资源、实时性、抗噪声性能、空间获取点云数据量的不稳定性等的实际情况,具有工程应用的价值。
附图说明
图1为本发明的流程图;
图2为测量系统的坐标系;
图3为本发明构建的网络学习结构。
具体实施方式
下面结合附图对本发明具体实现方式进行详细阐述。
一种空间非合作目标点云初始姿态测量方法,如图1所示,步骤如下:
(1)建立测量系统的坐标系,包括空间目标仿真模型本体坐标系、和虚拟位姿敏感器测量坐标系,设定空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态为零位,空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态从零位起算;
(2)建立空间目标的仿真模型与工况,在虚拟环境中,根据空间目标的结构尺寸与表面材质,建立空间目标仿真模型,根据位姿敏感器的实际测量精度和扫描参数,构建虚拟位姿敏感器,根据实际工作工况,在相距空间目标特定距离处,进行空间目标的位姿测量,如50m±1m,设定空间目标仿真模型与虚拟位姿敏感器间的相对位姿关系;
(3)利用步骤(2)的空间目标仿真模型与虚拟位姿敏感器,启动虚拟位姿敏感器的点云数据测量功能,获得空间目标仿真模型全方位点云数据与对应的姿态标签,姿态标签为虚拟位姿敏感器计算得到的空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标,根据空间目标初始姿态测量的精度要求,姿态测量角度的精度δ≤1°,设定空间目标仿真模型旋转运动的步长ΔR,ΔR≤δ/3,记录空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri和与其对应的空间目标仿真模型全方位点云数据Di,形成空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri与对应的空间目标仿真模型全方位点云数据Di间的对应关系表:Ri=Ri-1+ΔR,(i=1…n),其中,i为空间目标仿真模型全方位点云数据每帧点云数据的序号,n为空间目标仿真模型全方位点云数据中包含的点云帧数目;
(4)对步骤(3)获得的空间目标仿真模型全方位点云数据进行特征提取,按照给定的规则,提取空间目标仿真模型全方位点云数据的特征,点云数据特征的提取公式为其中,M代表某一帧点云数据提取的特征,Cov()代表两列点云坐标值进行协方差运算,A、B、C分别代表一帧点云数据中X轴方向的坐标值向量、Y轴方向的坐标值向量、Z轴方向的坐标值向量,对于Cov(A,B)来说,其计算公式为其中,Ai表示列向量A的第i个元素值,Bi表示列向量B的第i个元素值,μA是列向量A的均值,μB是列向量B的均值,N为一帧点云中的扫描点的数量,
用空间目标仿真模型全方位点云数据的特征,来代表空间目标仿真模型全方位点云数据,实现空间目标仿真模型全方位点云数据的压缩变换,建立空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的对应关系表:Ri=Ri-1+ΔR,(i=1…n),C(Di)表示空间目标仿真模型全方位点云数据的特征,其中,i为空间目标仿真模型全方位点云数据每帧点云数据的序号,n为空间目标仿真模型全方位点云数据中包含的点云帧数目;
(5)根据步骤(4)空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的对应关系表,利用神经网络学习的方法,建立空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,映射关系模型具有一个六参数的输入层,中间层若干,和一个单参数的输出层,层单元与层单元间用线性方程进行连接,如图3所示;
(6)根据步骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,进行空间非合作目标初始姿态测量,获得空间非合作目标的初始姿态,具体方法为获得空间非合作目的一帧点云数据,进行该点云数据的特征提取,利用骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,计算出当前空间非合作目标的初始姿态。
因此,为了适应在轨计算资源有限、姿态测量实时性要求高的约束和应用需求,高效、快速给出非合作目标的初始姿态,本发明给出了一种空间非合作目标点云初始姿态测量方法,实现在计算资源受限条件下,实时测量给出空间非合作目标的初始姿态,且对目标的不同质量的点云输入数据,具有较好的鲁棒性。
测量系统的坐标系是指:如图2所示,{A}为空间目标仿真模型本体坐标系,{S}为虚拟位姿敏感器测量坐标系。
对于空间目标的建模可用建模软件进行,如3DMax、UG等,建模中目标的尺寸、表面材质与实际目标的情况相一致,虚拟位姿敏感器的实际测量精度设定为0.07m(3σ),视场设定为30°×30°,焦距设定为1cm,设定空间目标的仿真模型与虚拟位姿敏感器的相对位姿关系为,相距25m,相对姿态的欧拉角分别为零。
用网络学习的方法,建立空间目标仿真模型全方位姿与其点云数据特征间的映射关系,具体的一种方法为如下方法:
为了实现空间目标点云协方差矩阵与对应姿态间关系的构建,建立如图3所示的神经网络结构。模型由一个输入层、两个隐藏层和一个输出层组成,输入层的输入个数为6个,分别对应点云协方差矩阵的主对角元素M(1,1)、M(2,2)、M(3,3)和非主对角元素M(1,2)、M(1,3)、M(2,3)。第一个隐藏层为全连接层,具有六个输出,激活函数设定为Sigmoid函数;第二个隐藏层有两个输出,不设定激活函数;输出层由一个神经单元组成,也不设定激活函数。输出层的输出为目标旋转的姿态角度值。神经网络的输入x与输出y间的数学关系如公式(3)-公式(7)所示。网络的权重参数共计有50个,偏置参数共计有8个。
x=[x1 x2 x3 x4 x5 x6]T (3)
接着,定义一个线性回归模型和平方损失函数,来训练预先设定的神经网络模型,给定模型对目标姿态的预测值为和对应的真实姿态标签y1,…,yn,误差损失函数定义为:
本发明通过构造并提取空间目标点云特征的方法,实现了点云数据的压缩变换,有利于降低数据的运算量,降低对在轨计算资源的需求量;
本发明通过建立空间目标姿态与其点云数据特征间的映射关系,实现了只包含加法和乘法的目标姿态与其点云数据特征间的映射,可有效降低计算量,提高空间目标姿态测量的实时性。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
Claims (10)
1.一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤如下:
(1)建立测量系统的坐标系,包括空间目标仿真模型本体坐标系和虚拟位姿敏感器测量坐标系;
(2)建立空间目标的仿真模型与工况,在虚拟环境中,根据空间目标的结构尺寸与表面材质,建立空间目标仿真模型,根据位姿敏感器的实际测量精度和扫描参数,构建虚拟位姿敏感器,设定空间目标仿真模型与虚拟位姿敏感器间的相对位姿关系;
(3)利用步骤(2)的空间目标仿真模型与虚拟位姿敏感器,通过虚拟位姿敏感器进行点云数据测量,获得空间目标仿真模型全方位点云数据与对应的姿态标签;
(4)对步骤(3)获得的空间目标仿真模型全方位点云数据进行特征提取,按照给定的规则,提取空间目标仿真模型全方位点云数据的特征;
(5)根据步骤(4)空间目标仿真模型全方位姿态特征与步骤(2)空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的对应关系,利用神经网络学习的方法,建立空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型;
(6)根据步骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,进行空间非合作目标初始姿态测量,获得空间非合作目标的初始姿态。
2.如权利要求1所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤(1)中,设定空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态为零位,空间目标仿真模型本体坐标系相对于虚拟位姿敏感器测量坐标系的姿态从零位起算。
3.如权利要求1所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤(2)中,根据实际工作工况,在相距空间目标50m±1m距离处,进行空间目标的位姿测量,设定空间目标仿真模型与虚拟位姿敏感器间的相对位姿关系。
4.如权利要求1所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤(3)中,姿态标签为虚拟位姿敏感器计算得到的空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标,根据空间目标初始姿态测量的精度δ要求,设定空间目标仿真模型旋转运动的步长ΔR,记录空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri和与其对应的空间目标仿真模型全方位点云数据Di。
5.如权利要求4所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,形成空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标Ri与对应的空间目标仿真模型全方位点云数据Di间的对应关系表:Ri=Ri-1+ΔR,i=1…n,其中,i为空间目标仿真模型全方位点云数据每帧点云数据的序号,n为空间目标仿真模型全方位点云数据中包含的点云帧数目。
6.如权利要求4所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,姿态测量角度的精度δ≤1,ΔR≤δ/3。
7.如权利要求1所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤(4)中,点云数据特征的提取公式为
其中,M代表某一帧点云数据提取的特征,Cov()代表两列点云坐标值进行协方差运算,A、B、C分别代表一帧点云数据中X轴方向的坐标值向量、Y轴方向的坐标值向量、Z轴方向的坐标值向量。
8.如权利要求7所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,
其中,Ai表示列向量A的第i个元素值,Bi表示列向量B的第i个元素值,μA是列向量A的均值,μB是列向量B的均值,N为一帧点云中的扫描点的数量,用空间目标仿真模型全方位点云数据的特征,代表空间目标仿真模型全方位点云数据,实现空间目标仿真模型全方位点云数据的压缩变换。
9.如权利要求1所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,映射关系模型具有一个六参数的输入层,至少一个中间层和一个单参数的输出层,层单元与层单元间用线性方程进行连接。
10.如权利要求5所述的一种空间非合作目标点云初始姿态测量方法,其特征在于,步骤(6)中,获得空间非合作目标的初始姿态方法为:获得空间非合作目的一帧点云数据,进行该点云数据的特征提取,利用骤(5)的空间目标仿真模型全方位姿态特征与空间目标仿真模型相对于虚拟位姿敏感器的姿态坐标间的映射关系模型,计算出当前空间非合作目标的初始姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010621497.4A CN112100900B (zh) | 2020-06-30 | 2020-06-30 | 一种空间非合作目标点云初始姿态测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010621497.4A CN112100900B (zh) | 2020-06-30 | 2020-06-30 | 一种空间非合作目标点云初始姿态测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112100900A CN112100900A (zh) | 2020-12-18 |
CN112100900B true CN112100900B (zh) | 2024-03-26 |
Family
ID=73750169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010621497.4A Active CN112100900B (zh) | 2020-06-30 | 2020-06-30 | 一种空间非合作目标点云初始姿态测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112100900B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012168904A2 (en) * | 2011-06-07 | 2012-12-13 | Creaform Inc. | Sensor positioning for 3d scanning |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护系统和防护方法 |
WO2019037484A1 (zh) * | 2017-08-23 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 激光扫描设备标定的方法、装置、设备及存储介质 |
CN109458994A (zh) * | 2018-10-24 | 2019-03-12 | 北京控制工程研究所 | 一种空间非合作目标激光点云icp位姿匹配正确性判别方法及系统 |
-
2020
- 2020-06-30 CN CN202010621497.4A patent/CN112100900B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012168904A2 (en) * | 2011-06-07 | 2012-12-13 | Creaform Inc. | Sensor positioning for 3d scanning |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
WO2019037484A1 (zh) * | 2017-08-23 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 激光扫描设备标定的方法、装置、设备及存储介质 |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护系统和防护方法 |
CN109458994A (zh) * | 2018-10-24 | 2019-03-12 | 北京控制工程研究所 | 一种空间非合作目标激光点云icp位姿匹配正确性判别方法及系统 |
Non-Patent Citations (2)
Title |
---|
一种非合作目标模型快速测量方法;孙秀清;张笃周;王立;吴奋陟;;中国空间科学技术(第01期);全文 * |
一种面向空间非合作目标位姿测量应用的三维点云滤波算法;顾营迎;王立;华宝成;刘达;吴云;徐云飞;应用光学(第002期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112100900A (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685152B (zh) | 一种基于dc-spp-yolo的图像目标检测方法 | |
CN109559338B (zh) | 一种基于加权主成分分析法及m估计的三维点云配准方法 | |
CN109272537B (zh) | 一种基于结构光的全景点云配准方法 | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
CN112017220B (zh) | 一种基于抗差约束最小二乘算法的点云精确配准方法 | |
CN109522832B (zh) | 基于点云片段匹配约束和轨迹漂移优化的回环检测方法 | |
CN111027010A (zh) | 一种钢构件圆柱体拟合算法 | |
CN109086663B (zh) | 基于卷积神经网络的尺度自适应的自然场景文本检测方法 | |
CN109459206B (zh) | 地面试验非定常气动力加载方法 | |
CN116929338A (zh) | 地图构建方法、设备及存储介质 | |
CN106097277B (zh) | 一种基于视觉测量的绳索物质点跟踪方法 | |
CN112100900B (zh) | 一种空间非合作目标点云初始姿态测量方法 | |
CN107481319B (zh) | 一种隐式曲面随机点云生成器 | |
CN111553954A (zh) | 一种基于直接法单目slam的在线光度标定方法 | |
CN113295171A (zh) | 一种基于单目视觉的旋转刚体航天器姿态估计方法 | |
CN110006462B (zh) | 基于奇异值分解的星敏感器在轨标定方法 | |
CN108304649B (zh) | 一种高层建筑形变预测方法 | |
CN114841965B (zh) | 钢结构形变检测方法、装置、计算机设备及存储介质 | |
CN112991445B (zh) | 模型训练方法、姿态预测方法、装置、设备及存储介质 | |
CN113496083B (zh) | 一种gps流动站垂向速度场优化方法及装置 | |
CN111366162B (zh) | 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法 | |
CN111504276A (zh) | 一种基于视觉投影尺度因子集的联合目标函数多推进器姿态角获取方法 | |
CN114266824A (zh) | 一种基于深度学习的非合作目标相对位姿测量方法、系统 | |
CN113592013A (zh) | 一种基于图注意力网络的三维点云分类方法 | |
CN110827323A (zh) | 一种用于水下装置定点悬停的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |