CN110361001B - 一种用于空间碎片运动测量系统及标定方法 - Google Patents

一种用于空间碎片运动测量系统及标定方法 Download PDF

Info

Publication number
CN110361001B
CN110361001B CN201910537604.2A CN201910537604A CN110361001B CN 110361001 B CN110361001 B CN 110361001B CN 201910537604 A CN201910537604 A CN 201910537604A CN 110361001 B CN110361001 B CN 110361001B
Authority
CN
China
Prior art keywords
matrix
space debris
image
inertial
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910537604.2A
Other languages
English (en)
Other versions
CN110361001A (zh
Inventor
张慧博
姚金铭
马睿
张德轩
戴士杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN201910537604.2A priority Critical patent/CN110361001B/zh
Publication of CN110361001A publication Critical patent/CN110361001A/zh
Application granted granted Critical
Publication of CN110361001B publication Critical patent/CN110361001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices

Abstract

本发明属于空间碎片运动测量技术领域,公开了一种用于空间碎片运动测量系统的标定方法,获取空间碎片的线加速度和空间碎片的质心角速度,并获得旋转矩阵R、转动周期T和位移矩阵t,进而生成视觉控制信号И;根据视觉控制信号И获取图像,提前图像有用信息并结合旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。本发明通过对MEMS惯性测量单元的数据进行滤波去噪,可以极大程度上降低源数据的干扰信号,使得视觉系统转化为静态标定的过程更为准确可靠,方便后续处理工作的可靠进行;本发明采用视觉和触觉的融合标定,鲁棒性比现有数据测量方法获得了极大的提升。

Description

一种用于空间碎片运动测量系统及标定方法
技术领域
本发明属于空间碎片运动测量技术领域,尤其涉及一种用于空间碎片运动测量系统及标定方法。
背景技术
目前,业内常用的现有技术是这样的:
随着人类空间活动越来越频繁,对空间环境的影响也越来越严重,太空中残留的火箭末级、失效卫星、航天器解体及碰撞衍生物等大量空间碎片对人类航天事业的发展已构成了巨大威胁,这使得空间碎片的主动移除技术已成为目前航天领域研究的热点之一。其中,空间碎片主动移除的关键是实施在轨捕获,但由于火箭末级和失效卫星等大型空间碎片的质量往往超过1000kg,且已失去姿态调整能力,空间碎片处于自由翻滚状态。此时,空间碎片可能存在绕最小惯量轴的自旋、绕最大惯量轴的平旋运动,以及存在章动角的翻滚运动,使其运动规律极其复杂,对其实施在轨捕获难度相当大。
针对空间碎片转动惯量较大而不易捕获的问题,现今各国多采用消旋方法,将其旋转角速度减小,以便于直接捕获及回收处理。消旋的本质是通过施加控制力矩来减小空间碎片的角动量,而控制力矩施加的前提是对于空间碎片位置姿态、速度、加速度等运动参数的精确识别,而在进行参数识别前则必须要进行传感器的标定来提高传感器精度。由于视觉静态标定不适直接应用于复杂空间运动的空间碎片标定,因此现今空间碎片测量系统大多数均采用视觉动态标定。
综上所述,现有技术存在的问题是:
(1)现今存在的视觉动态标定方法需要根据实时焦距来标定相机参数,然而由于空间碎片的转动较为复杂,实时焦距的获取极为困难,导致无法准确获取精准图像。
(2)在动态场景中,引入复杂的动态优化技术,这样又增加了整个标定算法的复杂程度,大大降低了标定的效率,使得整个算法复杂冗余、效率极低。
(3)现有技术多采用标定板进行标定,而在太空环境下的空间碎片上很难找到如标定板一样的标定物。
解决上述技术问题的难度:
(1)在太空环境下,光照条件一般为较弱光照条件或者强光照条件,因此若不存在辐射光源的话,利用相机进行标定较为困难。
(2)空间碎片在进行复杂三轴转动时,往往会较难进行相应的拍摄工作,因此影响了标定的精度。
(3)由于空间碎片多为非合作目标,即不知道其任何参数,因此在空间碎片上找到合适的标定物较为困难。
解决上述技术问题的意义:
由于太空环境的复杂、空间碎片模型的未知以及其运动的未知,导致空间碎片的标定较为困难,解决上述问题可以很好的解决空间碎片在标定时精度、标志物等问题,提高相机测量的精度,为其运动位姿检测扫清障碍,更好的为太空碎片清理工作提供帮助,营造良好的太空环境。
发明内容
针对现有技术存在的问题,本发明提供了一种用于空间碎片运动测量系统及标定方法。
本发明是这样实现的,一种用于空间碎片运动测量系统的标定方法,所述用于空间碎片运动测量系统的标定方法包括获取空间碎片的线加速度和空间碎片的质心角速度,并获得旋转矩阵R、转动周期T和位移矩阵t。生成视觉控制信号И。
根据视觉控制信号И获取图像,提取图像有用信息并结合旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。
进一步,所述用于空间碎片运动测量系统的标定方法具体包括:
步骤一,获取空间碎片中三个不同位置处的线加速度α1、α2、α3和空间碎片的质心角速度ωcm
步骤二,根据质心的三轴角速度ωx、ωy、ωz获得旋转矩阵R和转动周期T,并根据转动周期T截取周期内空间碎片的固定运动点,生成视觉控制信号И。
步骤三,根据视觉控制信号И,选用双目摄像头对空间碎片进行周期性的图像采集。
步骤四,获取空间碎片与测量机体之间的相对距离,生成机体-碎片位置转换矩阵。
步骤五,根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t。
步骤六,提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],
Figure BDA0002101659650000031
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
进一步,步骤二中,利用欧拉角进行旋转位姿参数化表示获得旋转矩阵R:对质心角速度ωcm的三轴角速度ωx、ωy、ωz求积分,得出绕三轴转动角,将空间碎片旋转分解为相对相机坐标系的绕三轴的转动角Ψ、θ、φ,进而获得旋转矩阵R,
Figure BDA0002101659650000032
进一步,步骤五中,先对线加速度α1、α2、α3求积分得出惯性单元位置转换矩阵,再由惯性单元位置转换矩阵与机体-碎片位置转换矩阵合成获得位移矩阵t:
Figure BDA0002101659650000041
其中,所述惯性单元为用于测量空间碎片角速度和线加速度的装置,并且固定在空间碎片的表面。
进一步,步骤六计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]后,还需进行:
第一步,获取三个惯性单元发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω。
第二步,利用视觉深度算法对图像进行计算处理,获得三个惯性单元之间的平移转换矩阵Q。
第三步,结合姿态变化矩阵Ω和平移转换矩阵Q,获得三个惯性单元的相对坐标变换矩阵[H],其中,R3×3为惯性单元间旋转矩阵,Q3×3为惯性单元间平移矩阵,
Figure BDA0002101659650000042
第四步,根据相对坐标变换矩阵[H]进行三个惯性单元间的惯性耦合标定,获得三个惯性单元之间的转换矩阵[K],
Figure BDA0002101659650000043
其中,ωi为角速度转换因子,αi为线加速度转换因子,Bi为场强转换因子,坐标(Xi,Yi,Zi)为惯性单元i的质心坐标。
第五步,反复获取空间碎片的线加速度α1、α2、α3和空间碎片的质心角速度ωcm,并依此获得相应的图像的像素坐标和空间的世界坐标转化关系矩阵[P]和三个惯性单元之间的转换矩阵[K]。
发明另一目的在于提供一种实施所述用于空间碎片运动测量系统的标定方法的用于空间碎片运动测量的标定系统,所述用于空间碎片运动测量的标定系统包括:
MEMS惯性测量单元,用于获取空间碎片中三个不同位置处的线加速度α1、α2、α3和角速度ω1、ω2、ω3
双目视觉测量单元,用于获取测量机体与空间碎片之间的相对距离,以及用于对空间碎片进行拍摄获取图像。
标定融合处理单元,用于根据角速度ω1、ω2、ω3获得空间碎片的质心角速度ωcm,进而计算获得旋转矩阵R、转动周期T和视觉控制信号И,以及用于根据测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,以及用于根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t,还用于提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]:
Figure BDA0002101659650000051
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
进一步,所述MEMS惯性测量包括三个测量单元、惯性数据传输模块。三个测量单元采用弹射的方式由碎片主动移除装置发射并粘附固定在空间碎片的表面。在测量单元的内部安装有三轴陀螺仪和三轴加速度计,用于进行空间碎片的原始惯性数据采集。
惯性数据传输模块用于MEMS惯性测量单元与标定融合处理单元之间的数据传输。
进一步,所述双目视觉测量单元包括双目摄像头和激光测距仪、图像数据传输模块及增强光源。所述双目摄像头由两个相机组成并固定在测量机体的前端,用于对空间碎片进行拍摄。所述激光测距仪固定在测量机体的前端,用于获取测量机体与空间碎片之间的相对距离。
所述标定融合处理单元包括视觉控制模块和图像处理模块。其中,视觉控制模块,用于接收线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心角速度ωcm、旋转矩阵R、转动周期T和视觉控制信号И。图像处理模块,用于接收所述双目视觉测量单元拍摄获取的图像并且对图像进行有用信息的提取以及处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。
图像数据传输模块用于双目视觉测量单元与标定融合处理单元之间的数据传输。
增强光源位于碎片主动移除装置的前端位置,用于为相机的拍摄过程提供光亮度。
进一步,所述标定融合处理单元包括视觉控制模块、图像处理模块、数据传输模块、滤波模块及惯性单元处理模块。
视觉控制模块,用于接收由MEMS惯性测量单元测量获得的线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心的角速度ωcm、旋转矩阵R和转动周期T,进而得到控制双目摄像头进行图像拍摄的视觉控制信号И。同时,该模块还用于接收测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,进而与线加速度α1、α2、α3结合获得位移矩阵t。
图像处理模块用于接收双目视觉测量单元拍摄获取的图像并且对图像进行有用信息的提取,进而与旋转矩阵R和位移矩阵t进行结合处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。
数据传输模块用于标定融合处理单元分别与MEMS惯性测量单元和双目视觉测量单元之间的数据传输。
滤波模块用于对MEMS惯性测量单元测量获得的原始数据进行滤波去燥处理。
惯性单元处理模块用于接收三个惯性单元被发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω。所述图像处理模块,同时对图像进行视觉深度算法获得三个惯性单元间的平移转换矩阵,并与姿态变化矩阵Ω结合处理,获得三个惯性单元的相对坐标变换矩阵[H]。所述MEMS惯性测量单元还包括惯性数据处理模块,用于接收相对坐标变换矩阵[H]并进行三个惯性单元间的耦合标定。
本发明的另一目的在于提供一种搭载所述用于空间碎片运动测量的标定系统的中央处理器、微处理器、数字信号处理器或现场可编程门阵列。
综上所述,本发明的优点及积极效果为:
本发明提供的标定方法包括获取空间碎片的线加速度和空间碎片的质心角速度,并获得旋转矩阵R、转动周期T和位移矩阵t,进而生成视觉控制信号И。根据视觉控制信号И获取图像,提前图像有用信息并结合旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。采用本发明的标定方法,解决了现有技术进行空间碎片标定时效率低、精度差以及算法复杂的问题。
通过本发明,利用对空间碎片之间进行惯性测量获得数据得到具有周期性的视觉控制信号,进而指导双目视觉系统进行图像的精准获取,再通过处理计算可以得到图像的像素坐标和空间的世界坐标转化关系矩阵,从而将现有技术中视觉系统困难的动态标定转化为简单的静态标定。
通过本发明,进一步在视觉系统由动态标定转变为静态标定,并完成标定工作后,又可以通过该静态标定得出惯性单元的相对坐标矩阵,便可由该矩阵进行多个惯性单元之间的耦合惯性标定,再重复视觉系统和惯性系统的相互标定过程,实现了机器视觉和惯性测量的空间融合标定,相比于现有的视觉系统,算法的计算量小,检测精度高,可以对空间碎片运动位姿进行更为精准的识别。
本发明中,通过对MEMS惯性测量单元的数据进行滤波去噪,可以极大程度上降低源数据的干扰信号,使得视觉系统转化为静态标定的过程更为准确可靠,方便后续处理工作的可靠进行。
通过本发明,采用视觉和触觉的融合标定,即MEMS惯性测量单元和双目视觉测量单元的互相标定,保证了后续空间碎片测量数据的可靠性,在出现大量干扰数据或系统发生危险时能够及时调整数据,鲁棒性较现有数据测量方法获得极大的提升。
如图7对比可以看出,传统空间碎片测量方法其误差随着时间的增大在不断的累积,说明其获取的数据不及时,无法保证其精度,而现有方法可以通过视觉传感器和惯性传感器获取参数来互相校正两者之间的参数,并且惯性传感器的实时性较好,可以及时获取相关参数,使得其误差保持在一个较稳定的范围内,精度较传统方法好。
附图说明
图1是本发明实施例提供的用于空间碎片运动测量系统的标定方法流程图。
图2是本发明实施例提供的实施例一中碎片主动移除装置的外形结构示意图。
图3是本发明实施例提供的实施例一中惯性单元与空间碎片的固定连接示意图。
图4是本发明实施例提供的实施例一用于空间碎片运动测量的标定系统的结构示意图。
图中:1、碎片主动移除装置。11、MEMS惯性测量单元。111、测量单元。112、惯性数据传输模块。12、双目视觉测量单元。121、相机。122、激光测距仪。123、图像数据传输模块。124、增强光源。13、标定融合处理单元。131、视觉控制模块。132、图像处理模块。133、数据传输模块133。134、滤波模块。135、惯性单元处理模块。2、空间碎片。
图5是本发明实施例提供的实施例二用于空间碎片运动测量的标定方法的流程示意图。
图6是本发明实施例提供的为本发明实施例二用于空间碎片运动测量的标定系统的结构示意图。
图7是本发明实施例提供的传统方法与本发明的方法位姿测量误差幅值随时间变化对比图。图中:(a)传统方法;(b)本发明的方法。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现今存在的视觉动态标定方法需要根据实时焦距来标定相机参数,然而由于空间碎片的转动较为复杂,实时焦距的获取极为困难,导致无法准确获取精准图像,并且在动态场景中,引入复杂的动态优化技术,这样又增加了整个标定算法的复杂程度,大大降低了标定的效率,使得整个算法复杂冗余、效率极低。
为解决上述问题,下面结合附图对本发明的技术方案作详细描述。
如图1所示,本发明实施例提供的用于空间碎片运动测量系统的标定方法包括:
步骤一,获取空间碎片中三个不同位置处的线加速度α1、α2、α3和空间碎片的质心角速度ωcm
步骤二,根据质心的三轴角速度ωx、ωy、ωz获得旋转矩阵R和转动周期T,并根据转动周期T截取周期内空间碎片的固定运动点,生成视觉控制信号И。
步骤三,根据视觉控制信号И,选用双目摄像头对空间碎片进行周期性的图像采集。
步骤四,获取空间碎片与测量机体之间的相对距离,生成机体-碎片位置转换矩阵。
步骤五,根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t。
步骤六,提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],
Figure BDA0002101659650000101
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
步骤二中,利用欧拉角进行旋转位姿参数化表示获得旋转矩阵R:对质心角速度ωcm的三轴角速度ωx、ωy、ωz求积分,得出绕三轴转动角,从而将空间碎片旋转分解为相对相机坐标系的绕三轴的转动角Ψ、θ、φ,进而获得旋转矩阵R,
Figure BDA0002101659650000102
步骤五中,先对线加速度α1、α2、α3求积分得出惯性单元位置转换矩阵,再由惯性单元位置转换矩阵与机体-碎片位置转换矩阵合成获得位移矩阵t,
Figure BDA0002101659650000103
其中,所述惯性单元为用于测量空间碎片角速度和线加速度的装置,并且固定在空间碎片的表面。
在本发明实施例中,利用三个惯性单元对空间碎片进行线加速度和角速度的测量,其中三个惯性单元通过发射的方式固定在空间碎片表面的三个不同位置处并且每一个惯性单元内均设有三轴陀螺仪和三轴加速度计。
在本发明实施例中,本发明实施例提供的用于空间碎片运动测量系统的标定方法还包括:
第一步,获取三个惯性单元发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω。
第二步,利用视觉深度算法对图像进行计算处理,获得三个惯性单元之间的平移转换矩阵Q。
第三步,结合姿态变化矩阵Ω和平移转换矩阵Q,获得三个惯性单元的相对坐标变换矩阵[H],其中,R3×3为惯性单元间旋转矩阵,Q3×3为惯性单元间平移矩阵,
Figure BDA0002101659650000111
第四步,根据相对坐标变换矩阵[H]进行三个惯性单元间的惯性耦合标定,获得三个惯性单元之间的转换矩阵[K],
Figure BDA0002101659650000112
其中,ωi为角速度转换因子,αi为线加速度转换因子,Bi为场强转换因子,坐标(Xi,Yi,Zi)为惯性单元i的质心坐标。
第五步,反复获取空间碎片的线加速度α1、α2、α3和空间碎片的质心角速度ωcm,并依此获得相应的图像的像素坐标和空间的世界坐标转化关系矩阵[P]和三个惯性单元之间的转换矩阵[K]。
在本发明实施例中,本发明提供的用于空间碎片运动测量系统包括:
MEMS惯性测量单元,用于获取空间碎片中三个不同位置处的线加速度α1、α2、α3和角速度ω1、ω2、ω3
双目视觉测量单元,用于获取测量机体与空间碎片之间的相对距离,以及用于对空间碎片进行拍摄获取图像。
标定融合处理单元,用于根据角速度ω1、ω2、ω3获得空间碎片的质心角速度ωcm,进而计算获得旋转矩阵R、转动周期T和视觉控制信号И,以及用于根据测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,以及用于根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t,还用于提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],
Figure BDA0002101659650000121
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
在本发明实施例中,所述MEMS惯性测量单元包括三个相互独立的惯性单元,并且三个惯性单元由测量机体发射并固定在空间碎片的三个不同位置处。其中,每一个惯性单元内均设有三轴陀螺仪和三轴加速度计,用于角速度和线加速度的测量。
在本发明实施例中,所述双目视觉测量单元包括双目摄像头和激光测距仪。其中,所述双目摄像头由两个相机组成并固定在测量机体的前端,用于对空间碎片进行拍摄。所述激光测距仪固定在测量机体的前端,用于获取测量机体与空间碎片之间的相对距离。
在本发明实施例中,所述标定融合处理单元包括视觉控制模块和图像处理模块。其中,视觉控制模块,用于接收线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心角速度ωcm、旋转矩阵R、转动周期T和视觉控制信号И。图像处理模块,用于接收所述双目视觉测量单元拍摄获取的图像并且对图像进行有用信息的提取以及处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。
在本发明实施例中,所述标定融合处理单元还包括惯性单元处理模块,用于接收三个惯性单元被发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω。所述图像处理模块,同时对图像进行视觉深度算法获得三个惯性单元间的平移转换矩阵,并与姿态变化矩阵Ω结合处理,获得三个惯性单元的相对坐标变换矩阵[H]。所述MEMS惯性测量单元还包括惯性数据处理模块,用于接收相对坐标变换矩阵[H]并进行三个惯性单元间的耦合标定。
下面结合具体实施例对本发明作进一步描述。
实施例一
如图1所示,本发明实施例用于空间碎片运动测量的标定方法包括如下的步骤S101至步骤S106。
S101,获取空间碎片中三个不同位置处的线加速度α1、α2、α3和空间碎片的质心的角速度ωcm。结合图2和图3所示,在本实施例中,将碎片主动移除装置1作为对空间碎片2进行测量操作的测量机体,并且由碎片主动移除装置1向空间碎片2进行测量单元111的发射,进而借助测量单元111对空间碎片进行原始数据的采集测量。其中,在测量单元111中设有三轴陀螺仪和三轴加速度计,分别用于对角速度和线加速度进行采集测量。此时,通过向空间碎片2表面的三个不同位置处分别发射固定一个测量单元111,就可以通过三个测量单元分别获得三个线加角速度α1、α2、α3以及三个角加速度ω1、ω2、ω3。由于空间碎片2在太空中处于自由状态,不受外界作用力,因此空间碎片2的质心角速度ωcm=ω1=ω2=ω3
S102,根据质心角速度ωcm的三轴角速度ωx、ωy、ωz获得旋转矩阵R和转动周期T,并根据转动周期T截取周期内空间碎片的固定运动点,生成视觉控制信号И。在本实施例中,利用欧拉角进行旋转位姿参数化表示获得旋转矩阵R。具体过程为,对质心的三轴角速度ωx、ωy、ωz求积分,得出绕三轴的转动角,从而将空间碎片旋转分解为相对相机坐标系的绕三轴的转动角Ψ、θ、φ,进而获得旋转矩阵R,
Figure BDA0002101659650000141
在本实施例中,通过对空间碎片质心的三轴角速度ωx、ωy、ωz进行计算,获得三轴转动周期T,进而根据转动周期T截取周期内空间碎片的固定运动点,生成视觉控制信号И,进而根据视觉控制信号И控制碎片主动移除装置在特定时间节点对空间碎片进行图像拍摄。在本实施例中,当获得空间碎片的三个线加速度α1、α2、α3以及三个角速度ω1、ω2、ω3后,预先对角速度和线加速度进行去燥处理,提高数据的精准度,进而保证后续计算处理的精度。例如,在本实施例中,采用卡尔曼滤波方法,对获取到的原始线加速度和角速度数据进行滤波去噪处理,并分别获得处理后的线加速度α[1]、α[2]、α[3]和角速度ω[1]、ω[2]、ω[3]以及相应的质心角速度ω[cm],此时质心角速度的三轴角速度则为ω[x]、ω[y]、ω[z]
S103,根据视觉控制信号И,选用双目摄像头对空间碎片进行周期性的图像采集。结合图2所示,在本实施例的碎片主动移除装置1的前端设有两个相机121,由此组成双目摄像头,用于对空间碎片进行图像拍摄采集。其中,在本实施例中,在进行相机安装时获取两个相机之间的位置转换矩阵[L]和初始转动矩阵[R],当后续相机进行运动后,根据相机自身携带的编码器,得出后续转动矩阵[R*],从而得出双目摄像头之间的坐标转换矩阵[N],最后结合坐标转换矩阵[N]和视觉控制信号И控制双目摄像头进行图像拍摄。此时,根据视觉控制信号И控制碎片主动移除装置在特定时间节点对空间碎片进行周期性的图像拍摄,可以使碎片主动移除装置与空间碎片之间形成并保持稳定的相对位置关系,降低对相机的变焦操作,提高对空间碎片图像的拍摄精度。
S104,获取空间碎片与测量机体之间的相对距离,生成机体-碎片位置转换矩阵。结合图2和图3所示,在本实施例的碎片主动移除装置1的前端还设有一个激光测距仪122,用于测量主动移除装置1与空间碎片2之间的相对距离。优选的,在本实施例的测量单元111上设有发光源,用于辅助激光测距仪122直接测量与测量单元111之间的距离,进而获得主动移除装置1与空间碎片2之间的相对距离。
S105,根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t。在本实施例中,先对线加速度α1、α2、α3求积分得出惯性单元位置转换矩阵,再由惯性单元位置转换矩阵和步骤S04中获得的机体-碎片位置转换矩阵合成获得位移矩阵t,
Figure BDA0002101659650000151
S106,提取步骤S103中获得图像中的有用信息,并利用该有用信息以及旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。从图像中提取获得的有用信息包括:图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
Figure BDA0002101659650000152
其中,
Figure BDA0002101659650000153
为利用张正友标定法得出的相机的内参矩阵,
Figure BDA0002101659650000154
为相机的外参矩阵,R为步骤S102中计算获得的旋转矩阵,t为步骤S105中测量计算得到的位移矩阵,αx和αy分别为像素坐标系x、y轴上的尺度因子,坐标(μ0,ν0)为图像坐标系原点坐标。此时,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],即完成了由双目摄像头组成的双目视觉系统的准静态标定过程,将视觉的动态标定转化为静态标定。利用对空间碎片进行惯性测量获得的周期信号,可以指导双目摄像头进行图像精准获取,再通过对图像的处理计算可以得到图像的像素坐标和空间的世界坐标转化关系矩阵,使得现有视觉系统困难的动态标定转化为简单的静态标定,从而大大降低标定过程的计算复杂程度,提高标定的效率和精度。
如图2至图4所示,根据实施例一,本发明实施例提供的用于空间碎片运动测量的标定系统。包括MEMS惯性测量单元11、双目视觉测量单元12和标定融合处理单元13。
MEMS惯性测量单元11,用于获取空间碎片2中三个不同位置处的原始线加速度α1、α2、α3和原始角速度ω1、ω2、ω3
在本实施例中,MEMS惯性测量单元11由三个测量单元111和惯性数据传输模块112组成。其中,三个测量单元111采用弹射的方式由碎片主动移除装置1发射并粘附固定在空间碎片2的表面。同时,在测量单元111的内部安装有三轴陀螺仪和三轴加速度计,用于进行空间碎片的原始惯性数据采集,例如角速度和线加速度。惯性数据传输模块112用于MEMS惯性测量单元11与标定融合处理单元13之间的数据传输。
双目视觉测量单元12,用于获取碎片主动移除装置1与空间碎片2之间的相对距离,以及用于对空间碎片2进行拍摄获取图像。在本实施例中,双目视觉测量单元12包括两个相机121、一个激光测距仪122和图像数据传输模块123。其中,两个相机121位于碎片主动移除装置1的前端位置,组成双目摄像头,用于对空间碎片2进行图像拍摄。激光测距仪122同样位于碎片主动移除装置1的前端位置,用于测量碎片主动移除装置1与空间碎片2之间的距离,其中在本实施例中,通过在测量单元111上设置发光源,用于激光测距仪122的测量定位,从而快速获取三个测量单元111与碎片主动移除装置1之间的距离,进而获得空间碎片2与碎片主动移除装置1之间的距离,生成机体-碎片位置转换矩阵,进一步结合线加速度α1、α2、α3获得位移矩阵t。图像数据传输模块123用于双目视觉测量单元12与标定融合处理单元13之间的数据传输。
作为本发明优选实施例,结合图2所示,在本实施例的双目视觉测量单元12中,还设有一个增强光源124。增强光源124位于碎片主动移除装置1的前端位置,用于为相机121的拍摄过程提供足够的光亮度,使得相机可以更为敏感的采集图像数据。
在本发明实施例中,标定融合处理单元13,包括视觉控制模块131、图像处理模块132和数据传输模块133。
视觉控制模块131,用于接收由MEMS惯性测量单元11测量获得的线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心的角速度ωcm、旋转矩阵R和转动周期T,进而得到控制双目摄像头进行图像拍摄的视觉控制信号И。同时,该模块还用于接收测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,进而与线加速度α1、α2、α3结合获得位移矩阵t。
图像处理模块132,用于接收双目视觉测量单元12拍摄获取的图像并且对图像进行有用信息的提取,进而与旋转矩阵R和位移矩阵t进行结合处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]。
数据传输模块133,用于标定融合处理单元13分别与MEMS惯性测量单元11和双目视觉测量单元12之间的数据传输。
作为本发明优选实施例,标定融合处理单元13中还设有一个滤波模块134,用于对MEMS惯性测量单元11测量获得的原始数据进行滤波去燥处理,提高数据的精准度,保证后续计算处理的精度。
通过本发明实施例,利用MEMS惯性测量单元直接对空间碎片进行惯性测量,直接快速获取原始惯性数据,标定融合处理单元根据惯性数据获得旋转矩阵R和转动周期T,进而获得控制双目摄像头进行图像拍摄的视觉控制信号И,双目视觉测量单元根据视觉控制信号И进行空间碎片的拍摄采集,标定融合处理单元根据图像信息以及旋转矩阵R和位移矩阵t,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],从而完成对双目视觉系统的准静态标定过程,将视觉的动态标定转化为静态标定。
实施例二
如图5所示,本发明优选实施例用于空间碎片运动测量的标定方法进一步包括如下的步骤S201至步骤S211。其中,步骤S201至步骤S206的操作流程和作用与实施一中的步骤S101至步骤S106相同。
S207,获取三个惯性单元被发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω。结合图2和图3所示,在利用碎片主动移除装置1将测量单元111弹射发送至空间碎片2的过程中,利用测量单元111中设置的三轴陀螺仪和三轴加速度计对其飞行过程中的姿态变化数据进行采集记录,并由此生成姿态变化矩阵Ω。
S208,利用视觉深度算法对图像进行计算处理,获得三个惯性单元之间的平移转换矩阵Q。
S209,结合姿态变化矩阵Ω、平移转换矩阵Q以及旋转矩阵R,获得三个惯性单元的相对坐标变换矩阵[H],
Figure BDA0002101659650000181
其中,R3×3为惯性单元间的旋转矩阵,Q3×3为惯性单元间的平移转换矩阵。
S210,根据相对坐标变换矩阵[H]进行三个惯性单元之间的惯性耦合标定,获得三个惯性单元之间的转换矩阵[K],
Figure BDA0002101659650000182
其中,ωi为角速度转换因子,αi为线加速度转换因子,Bi为场强转换因子,坐标(Xi,Yi,Zi)为惯性单元i的质心坐标。
在本实施例中,获得相对坐标变换矩阵[H]后,将其分别发送至三个惯性单元中,进行三个惯性单元之间的惯性耦合标定,即确立数据间的相互转换关系矩阵,得出三个惯性单元之间的转换矩阵[K]。此时,获得三个惯性单元之间的转换矩阵[K],即完成了三个惯性单元之间的耦合标定。
S211,在对空间碎片运动测量的整个过程中,反复获取空间碎片的线加速度α1、α2、α3和空间碎片的质心的角速度ωcm,并依此获得相应的图像的像素坐标和空间的世界坐标转化关系矩阵[P]和三个惯性单元之间的转换矩阵[K],从而不断进行惯性单元与双目视觉系统之间的互相标定过程,完成空间视触融合标定工作。
在双目视觉系统由动态标定转变为静态标定,并完成标定工作后,又通过该静态标定得出惯性单元的相对坐标矩阵,便可由该矩阵进行多惯性单元之间的耦合惯性标定,进而通过重复双目视觉系统和惯性单元之间的相互标定过程,实现碎片主动移除装置中视觉和惯性测量的空间融合标定,进一步提高标定的精度和效率,保证后续对空间碎片运动位姿识别的精准度。
如图6所示,本发明实施例二中用于空间碎片运动测量的标定系统同样包括MEMS惯性测量单元11、双目视觉测量单元12和标定融合处理单元13,可以看作是图4所示实施例的优选实施方式,其区别在于:本实施例中的惯性测量单元11中还设有惯性数据处理模块113以及标定融合处理单元13中还设有惯性单元处理模块135。
此时,在将惯性单元发射至空间碎片的过程中,对惯性单元飞行过程中的姿态变化数据进行记录采集,并且发送至惯性单元处理模块135生成姿态变化矩阵Ω。与此同时,图像处理模块132,对接收到的图像进行视觉深度算法获得三个惯性单元间的平移转换矩阵,并与姿态变化矩阵Ω进行结合处理,获得三个惯性单元的相对坐标变换矩阵[H]。最后,将相对坐标变换矩阵[H]分别发送至三个惯性单元中,由相应的惯性数据处理模块113进行接收处理,并进行三个惯性单元的惯性耦合标定,即进行数据间的相互转换关系矩阵确立,得出三个惯性单元间的转换矩阵[K],从而完成三个惯性单元之间的耦合标定。
通过本发明实施例,利用惯性单元处理模块获得姿态变化矩阵Ω,借助图像处理模块对图像的视觉深度算法获得平移转换矩阵,进而与姿态变化矩阵Ω结合获得三个惯性单元的相对坐标变换矩阵[H],最后再由惯性数据处理模块根据相对坐标变换矩阵[H],获得三个惯性单元之间的转换矩阵[K],完成三个惯性单元之间的耦合标定。
上述本发明的各模块或各步骤可以使用通用的处理计算装置来实现,例如中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA),也可以使用计算装置可执行的程序代码来实现,这样,本发明不限制于特定的硬件和软件结合。
下面结合实验对本发明作进一步描述。
如图7(图中:(a)传统方法;(b)本发明的方法。)对比可以看出,传统空间碎片测量方法其误差随着时间的增大在不断的累积,说明其获取的数据不及时,无法保证其精度,而现有方法可以通过视觉传感器和惯性传感器获取参数来互相校正两者之间的参数,并且惯性传感器的实时性较好,可以及时获取相关参数,使得其误差保持在一个较稳定的范围内,精度较传统方法好。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种用于空间碎片运动测量系统的标定方法,其特征在于,所述用于空间碎片运动测量系统的标定方法包括获取空间碎片的线加速度和空间碎片的质心角速度,并获得旋转矩阵R、转动周期T和位移矩阵t;生成视觉控制信号И;
根据视觉控制信号И获取图像,提取图像有用信息并结合旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P];
所述用于空间碎片运动测量系统的标定方法具体包括:
步骤一,获取空间碎片中三个不同位置处的线加速度a1、a2、a3和空间碎片的质心角速度ωcm;
步骤二,根据质心的三轴角速度ωx、ωy、ωz获得旋转矩阵R和转动周期T,并根据转动周期T截取周期内空间碎片的固定运动点,生成视觉控制信号И;
步骤三,根据视觉控制信号И,选用双目摄像头对空间碎片进行周期性的图像采集;
步骤四,获取空间碎片与测量机体之间的相对距离,生成机体-碎片位置转换矩阵;
步骤五,根据线加速度a1、a2、a3和机体-碎片位置转换矩阵获得位移矩阵t;
步骤六,提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P],
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s;
步骤六计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]后,还需进行:
第一步,获取三个惯性单元发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω;
第二步,利用视觉深度算法对图像进行计算处理,获得三个惯性单元之间的平移转换矩阵Q;
第三步,结合姿态变化矩阵Ω和平移转换矩阵Q,获得三个惯性单元的相对坐标变换矩阵[H],其中,R3×3为惯性单元间旋转矩阵,Q3×3为惯性单元间平移矩阵,
第四步,根据相对坐标变换矩阵[H]进行三个惯性单元间的惯性耦合标定,获得三个惯性单元之间的转换矩阵[K],
其中,ωi为角速度转换因子,αi为线加速度转换因子,Bi为场强转换因子,坐标(Xi,Yi,Zi)为惯性单元i的质心坐标;
第五步,反复获取空间碎片的线加速度a1、a2、a3和空间碎片的质心角速度ωcm,并依此获得相应的图像的像素坐标和空间的世界坐标转化关系矩阵[P]和三个惯性单元之间的转换矩阵[K]。
2.如权利要求1所述的用于空间碎片运动测量系统的标定方法,其特征在于,步骤二中,利用欧拉角进行旋转位姿参数化表示获得旋转矩阵R:对质心角速度ωcm的三轴角速度ωx、ωy、ωz求积分,得出绕三轴转动角,将空间碎片旋转分解为相对相机坐标系的绕三轴的转动角Ψ、θ、φ,进而获得旋转矩阵R,
3.如权利要求1所述的用于空间碎片运动测量系统的标定方法,其特征在于,步骤五中,先对线加速度a1、a2、a3求积分得出惯性单元位置转换矩阵,再由惯性单元位置转换矩阵与机体-碎片位置转换矩阵合成获得位移矩阵t:
其中,所述惯性单元为用于测量空间碎片角速度和线加速度的装置,并且固定在空间碎片的表面。
4.一种实施权利要求1所述用于空间碎片运动测量系统的标定方法的用于空间碎片运动测量的标定系统,其特征在于,所述用于空间碎片运动测量的标定系统包括:
MEMS惯性测量单元,用于获取空间碎片中三个不同位置处的线加速度a1、a2、a3和角速度ω1、ω2、ω3;
双目视觉测量单元,用于获取测量机体与空间碎片之间的相对距离,以及用于对空间碎片进行拍摄获取图像;
标定融合处理单元,用于根据角速度ω1、ω2、ω3获得空间碎片的质心角速度ωcm,进而计算获得旋转矩阵R、转动周期T和视觉控制信号И,以及用于根据测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,以及用于根据线加速度α1、α2、α3和机体-碎片位置转换矩阵获得位移矩阵t,还用于提取图像中的有用信息,并利用有用信息、旋转矩阵R和位移矩阵t,计算获得图像的像素坐标和空间的世界坐标转化关系矩阵[P]:
其中,有用信息包括图像坐标点的原点坐标(μ0,ν0)、像素坐标系x轴和y轴上的尺度因子αx和αy以及比例参数s。
5.如权利要求4所述的用于空间碎片运动测量的标定系统,其特征在于,所述MEMS惯性测量包括三个测量单元、惯性数据传输模块;三个测量单元采用弹射的方式由碎片主动移除装置发射并粘附固定在空间碎片的表面;在测量单元的内部安装有三轴陀螺仪和三轴加速度计,用于进行空间碎片的原始惯性数据采集;
惯性数据传输模块用于MEMS惯性测量单元与标定融合处理单元之间的数据传输。
6.如权利要求4所述的用于空间碎片运动测量的标定系统,其特征在于,所述双目视觉测量单元包括双目摄像头和激光测距仪、图像数据传输模块及增强光源;所述双目摄像头由两个相机组成并固定在测量机体的前端,用于对空间碎片进行拍摄;所述激光测距仪固定在测量机体的前端,用于获取测量机体与空间碎片之间的相对距离;
所述标定融合处理单元包括视觉控制模块和图像处理模块;其中,视觉控制模块,用于接收线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心角速度ωcm、旋转矩阵R、转动周期T和视觉控制信号И;图像处理模块,用于接收所述双目视觉测量单元拍摄获取的图像并且对图像进行有用信息的提取以及处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P];
图像数据传输模块用于双目视觉测量单元与标定融合处理单元之间的数据传输;
增强光源位于碎片主动移除装置的前端位置,用于为相机的拍摄过程提供光亮度。
7.如权利要求4所述的用于空间碎片运动测量的标定系统,其特征在于,所述标定融合处理单元包括视觉控制模块、图像处理模块、数据传输模块、滤波模块及惯性单元处理模块;
视觉控制模块,用于接收由MEMS惯性测量单元测量获得的线加速度α1、α2、α3和角速度ω1、ω2、ω3并获得质心的角速度ωcm、旋转矩阵R和转动周期T,进而得到控制双目摄像头进行图像拍摄的视觉控制信号И,同时,该模块还用于接收测量机体与空间碎片之间的相对距离生成机体-碎片位置转换矩阵,进而与线加速度α1、a2、a3结合获得位移矩阵t;
图像处理模块用于接收双目视觉测量单元拍摄获取的图像并且对图像进行有用信息的提取,进而与旋转矩阵R和位移矩阵t进行结合处理计算,获得图像的像素坐标和空间的世界坐标转化关系矩阵[P];
数据传输模块用于标定融合处理单元分别与MEMS惯性测量单元和双目视觉测量单元之间的数据传输;
滤波模块用于对MEMS惯性测量单元测量获得的原始数据进行滤波去燥处理;
惯性单元处理模块用于接收三个惯性单元被发射至空间碎片的飞行过程中的姿态变化数据,生成姿态变化矩阵Ω;所述图像处理模块,同时对图像进行视觉深度算法获得三个惯性单元间的平移转换矩阵,并与姿态变化矩阵Ω结合处理,获得三个惯性单元的相对坐标变换矩阵[H];所述MEMS惯性测量单元还包括惯性数据处理模块,用于接收相对坐标变换矩阵[H]并进行三个惯性单元间的耦合标定。
8.一种搭载权利要求4所述用于空间碎片运动测量的标定系统的中央处理器、微处理器、数字信号处理器或现场可编程门阵列。
CN201910537604.2A 2019-06-20 2019-06-20 一种用于空间碎片运动测量系统及标定方法 Active CN110361001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910537604.2A CN110361001B (zh) 2019-06-20 2019-06-20 一种用于空间碎片运动测量系统及标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910537604.2A CN110361001B (zh) 2019-06-20 2019-06-20 一种用于空间碎片运动测量系统及标定方法

Publications (2)

Publication Number Publication Date
CN110361001A CN110361001A (zh) 2019-10-22
CN110361001B true CN110361001B (zh) 2023-04-07

Family

ID=68217454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910537604.2A Active CN110361001B (zh) 2019-06-20 2019-06-20 一种用于空间碎片运动测量系统及标定方法

Country Status (1)

Country Link
CN (1) CN110361001B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640153B (zh) * 2020-05-29 2021-05-28 河北工业大学 基于视觉与惯性单元融合的空间刚体质心位置检测方法
CN113392909B (zh) * 2021-06-17 2022-12-27 深圳市睿联技术股份有限公司 数据处理方法、数据处理装置、终端及可读存储介质
CN115285381B (zh) * 2022-10-09 2023-01-20 北京开运联合信息技术集团股份有限公司 一种太空碎片的碰撞预警方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917746A (zh) * 2018-07-26 2018-11-30 中国人民解放军国防科技大学 头盔姿态测量方法、测量装置及测量系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101733749B (zh) * 2009-12-22 2014-05-14 哈尔滨工业大学 空间机器人多领域统一建模与仿真系统
CN101726296B (zh) * 2009-12-22 2013-10-09 哈尔滨工业大学 空间机器人视觉测量、路径规划、gnc一体化仿真系统
EP2615580B1 (en) * 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration
US20180016036A1 (en) * 2015-01-20 2018-01-18 Politecnico Di Torino Method and system for measuring the angular velocity of a body orbiting in space
CN109649268B (zh) * 2015-03-27 2022-06-07 宝马股份公司 用于车辆的智能语音助理系统、装置和方法
CN104951753B (zh) * 2015-06-05 2018-11-27 张巍 一种有标识物6自由度视觉跟踪系统及其实现方法
CN105698765B (zh) * 2016-02-22 2018-09-18 天津大学 双imu单目视觉组合测量非惯性系下目标物位姿方法
CN108645400B (zh) * 2018-03-29 2020-08-14 北京空间飞行器总体设计部 用于空间非合作目标相对导航的惯性参数辨识方法及系统
CN109093620B (zh) * 2018-07-24 2020-07-24 西北工业大学 一种双目相机辅助的空间非合作目标动力学参数辨识方法
CN109878763B (zh) * 2019-03-05 2021-11-26 哈尔滨工业大学 一种基于非接触电磁力的空间翻滚目标质量及惯量参数辨识方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917746A (zh) * 2018-07-26 2018-11-30 中国人民解放军国防科技大学 头盔姿态测量方法、测量装置及测量系统

Also Published As

Publication number Publication date
CN110361001A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN109887057B (zh) 生成高精度地图的方法和装置
CN110361001B (zh) 一种用于空间碎片运动测量系统及标定方法
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
CN110880189B (zh) 联合标定方法及其联合标定装置和电子设备
CN101592490B (zh) 一种自适应控阵星敏感器
US20100164807A1 (en) System and method for estimating state of carrier
US20130038717A1 (en) Image Based Position Determination
EP4155873A1 (en) Multi-sensor handle controller hybrid tracking method and device
CN109520476B (zh) 基于惯性测量单元的后方交会动态位姿测量系统及方法
CN111220126A (zh) 一种基于点特征和单目相机的空间物体位姿测量方法
CN110278371B (zh) 摄像机在空间的三轴向七变量全自由度定位与跟踪方法
US20170307380A1 (en) Optical inertial measurement apparatus and method
CN113870366B (zh) 基于位姿传感器的三维扫描系统的标定方法及其标定系统
CN113820735A (zh) 位置信息的确定方法、位置测量设备、终端及存储介质
CN113701750A (zh) 一种井下多传感器的融合定位系统
CN111025330B (zh) 一种基于深度图的目标倾斜角检测方法及设备
CN110132272A (zh) 一种用于空间碎片运动参数的测量方法及系统
CN111044039A (zh) 基于imu的单目目标区域自适应高精度测距装置和方法
CN111640153B (zh) 基于视觉与惯性单元融合的空间刚体质心位置检测方法
CN113392909B (zh) 数据处理方法、数据处理装置、终端及可读存储介质
CN115540849A (zh) 高空作业平台激光视觉与惯导融合定位与建图装置及方法
CN104567812A (zh) 空间位置测量方法及装置
CN112945270A (zh) 一种基于星对角距平均测量误差的星敏感器辐射损伤外场评估方法
Fan et al. Hardware implementation of a virtual blind cane on FPGA

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant