CN107529371B - 超近距离非合作双目测量系统及其测量方法 - Google Patents

超近距离非合作双目测量系统及其测量方法

Info

Publication number
CN107529371B
CN107529371B CN201418007454.2A CN201418007454A CN107529371B CN 107529371 B CN107529371 B CN 107529371B CN 201418007454 A CN201418007454 A CN 201418007454A CN 107529371 B CN107529371 B CN 107529371B
Authority
CN
China
Prior art keywords
mrow
target
binocular
mtd
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201418007454.2A
Other languages
English (en)
Inventor
刘宗明
卢山
徐帏
胡坤
孙玥
张宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xinyue Instrument Factory
Original Assignee
Shanghai Xinyue Instrument Factory
Filing date
Publication date
Application filed by Shanghai Xinyue Instrument Factory filed Critical Shanghai Xinyue Instrument Factory
Application granted granted Critical
Publication of CN107529371B publication Critical patent/CN107529371B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开一种超近距离空间非合作目标双目测量系统及相对位姿测量方法。本发明公开的测量系统包括:双目测量相机光学系统、双目测量相机电子学系统;所述双目测量相机光学系统包含一对远场镜头和一对近场镜头以及各自配套的安装支撑结构;所述双目测量相机电子学系统包含图像采集电路和数据处理单元电路:图像采集电路负责采集并存储光学系统获取的图像,数据处理单元电路负责将采集到的双目视觉图像信息进行融合处理,实现位姿解算。本发明能在对非合作飞行器的特征部位进行分析的基础上,计算并提取出相对位置和姿态信息,从而扩大了空间目标相对测量技术的应用范围。

Description

超近距离非合作双目测量系统及其测量方法
技术领域
本发明涉及空间飞行器相对GNC技术,具体涉及一种面向非合作飞行器的超近距离相对测量技术。
背景技术
空间非合作目标相对测量问题的提出来源于三个方面的问题,一方面,航天器长时间工作在真空、失重、高低温和强辐射的环境下容易发生故障,甚至造成整星的失效。一方面,部分航天器在达到使用寿命后,其星上设备仍然能正常工作,但因燃料耗尽不得不发射新的卫星进行代替,从而增加了整个系统任务的成本。另一方面,在空间攻防领域,我们无法获取敌方卫星的相关信息,只能通过非合作目标相对测量的方式实现对其跟踪、逼近,最终完成摧毁或抓捕。
以上三种情况下,卫星事先不会安装配合在轨服务的靶标、信标或抓捕、对接设备,也不会主动提供状态信息,因此可统称为被动非合作目标。因此针对空间非合作目标的相对测量敏感器是在轨操作任务亟需解决的关键技术,是完成在轨操作任务的核心设备,其探测能力、测量精度直接关系到任务的成败,亟需进行重点研究。
发明内容
本发明解决的技术问题是面向非合作空间飞行器的超近距离相对运动学信息的测量问题;为了解决上述问题,本发明提供一种超近距离非合作目标双目测量系统及相对位姿测量方法。
本发明提供的超近距离非合作双目测量系统包括:双目测量相机光学系统、双目测量相机电子学系统;所述双目测量相机光学系统包含一对远场镜头和一对近场镜头以及各自配套的安装支撑结构;所述远场镜头和近场镜头分别适用于对10m-100m和0.5m-15m距离范围的非合作目标成像;所述双目测量相机电子学系统包含图像采集电路和数据处理单元电路:图像采集电路负责采集并存储光学系统获取的图像,数据处理单元电路负责将采集到的双目视觉图像信息进行融合处理,实现位姿解算。
进一步,图像采集电路采用外部40MHz时间作为系统时间,采用型号为CMV4000的CMOS成像单元作为图像传感器,采用型号为XC2V250的控制器作为成像电路控制器,控制CMOS成像单元产生10Bit图像数据,再经型号为DS90CR287的芯片进行数据串行化后发送给数据处理单元电路或标准CAMLINK图像采集系统。
进一步,数据处理单元电路包括:2个以TMS320DM642GDKA720芯片为核心的DSP(数据处理器),以及由时钟、引导程序存储器(EEPROM)、程序存储器(Flash)、运行时外部数据存储器(SDRAM)以及调试接口、复位电路等组成的外部电路,用于处理远场和近场相机图像数据,并通过RS422总线接收系统工作指令和参数,并返回工程遥测参数(包括计算得到的位姿参数),实现与平台计算机的信息交换。
进一步,超近距离空间非合作目标相对位姿测量方法,包括如下步骤:
步骤一、采集图像,通过双目测量相机光学系统在COMS上成像,并将其采集的数字图像数据传输给数据处理单元电路。
步骤二、目标图像分割,采用最大类间方差法,根据像点的特征将数字图像中的目标从背景区域中分离出来;
步骤三、目标特征点提取,采用边缘检测和Hough变换算法检测出图像中目标的边缘信息,利用目标星布局特征进行目标检测与识别,计算出特征点的位置坐标;
步骤四、目标特征点双目匹配,利用极线约束关系建立初始候选匹配关系,再采用对称性测试方法进行两次匹配,将两个方向都满足约束关系的匹配作为正确的匹配坐标点;
步骤五、目标特征点位姿解算,根据步骤四中目标特征点匹配结果,已知目标特征点在目标坐标系和相机坐标系下的坐标,解算两坐标系的旋转矩阵从中可提取相对姿态参数:滚转角φ、偏航角ψ、俯仰角θ,以及平移向量t。
进一步,目标在10m~100m距离范围时,选用一对远场镜头启动图像采集;目标在0.5m~15m距离范围时,选用一对近场镜头启动图像采集;当探测器初始选用远场相机而逐渐逼近目标时,根据相对运动速度情况在10m~15m范围内选择合适时机实现远/近场镜头的切换。
进一步,超近距离空间非合作目标相对位姿测量步骤二的最大类间方差法处理流程为:将目标图像像素按照亮度直方图中设定的某一阈值处理分割成两组,当在某一阈值处被分成的两组的方差为最大时,确定该阈值为最终决定目标和背景像素的分界阈值;
进一步,超近距离空间非合作目标相对位姿测量步骤五的旋转矩阵按如下流程获得:已知双目相机镜头焦距fl,fr和目标特征点在相机坐标系、目标坐标系中的坐标,任意选取三个不共线目标特征点组成线性无关向量组,采用矩阵求逆的方法计算得到旋转矩阵并通过多次计算取平均值的手段减小测量误差。
进一步,超近距离空间非合作目标相对位姿测量方法步骤五的相对位姿解算方法为:
其中,δij为旋转矩阵第i行j列的元素;t为平移向量,ZP、ZT分别指目标特征点在摄像机坐标系下和在目标坐标系下的坐标。
与现有技术相比,本发明具有以下优点:
1、以往相对测量技术针对的是带有辅助测量标志的合作飞行器,测量系统可以根据该标志信息得到精确的相对位置和速度信息,而对非合作目标却无能为力。本双目测量系统针对不能提供测量标志的非合作目标,具有自主进行图像采集、图像匹配等预处理并直接计算输出相对位置和姿态的功能。
2、为了保证可靠性,以往的空间可见光波段的相对测量设备采用定焦且不可调焦的单组镜头,这就限制了测量的距离范围。本双目测量系统通过改进结构和设计、选用合理材料,实现了采用远、近场两组双目相机镜头的相对测量目标,从而拓宽了测量范围,实现了从相对距离0.5m到100m测量范围的全覆盖。
附图说明
以下将结合附图和具体实施方式对本发明作进一步的说明。
图1是本发明提供的超近距离空间非合作目标双目测量系统的双目测量原理框图;
图2是本发明提供的超近距离空间非合作目标双目测量系统的图像采集电路原理框图;
图3是本发明提供的超近距离空间非合作目标双目测量系统的数据处理单元电路原理框图;
图4是本发明提供的超近距离空间非合作目标相对位姿测量方法的目标特征点双目匹配流程示意图;
图5是本发明提供的超近距离空间非合作目标相对位姿测量方法的相对姿态角解算算法的流程图。
具体实施方式
下文中,结合附图和实施例对本发明做进一步阐述。
如图1所示,本发明提供的超近距离空间非合作目标双目测量系统采用基于非合作目标的双目视觉导航方式,采用双目视觉相机与数据处理单元电路相配合的工作方式,对非合作目标进行跟踪,以实现两者相对位姿信息的测量。利用本发明提供的超近距离非合作双目测量系统实现与非合作目标相对位置的测量主要分为以下几个步骤:
●相机及镜头选择
根据探测器距离非合作目标的初始距离确定双目相机及镜头的选择:10m~100m距离范围选用远场相机及其镜头启动图像采集;0.5m~15m距离范围选用近场相机及其镜头启动图像采集;当探测器初始选用远场相机而逐渐逼近目标时,根据相对运动速度情况在10m~15m范围内选择合适时机实现远/近场相机的工作切换。
●图像采集
非合作目标图像通过双目测量相机光学系统在COMS上成像。如图2所示,通过图像采集电路1的传输接口2接收数据处理单元电路3的控制信号,启动图像采集电路1进行图像采集,并将图像采集电路10的数字图像数据传输给数据处理单元电路3。所述图像采集电路10采用4台CMOS图像传感器。数据处理单元电路共享4台CMOS成像单元,主要由分别用于处理远场和近场相机图像数据的2个数据处理器DSP组成。数据处理器以TMS320DM642GDKA720为核心,由时钟、引导程序存储器(PROM,用EEPROM代替)、程序存储器(EEPROM,用Flash代替)、运行时外部数据存储器(SDRAM),以及调试接口、复位电路等组成。两个数据处理器(DSP)配置完全一致。
●目标图像分割
数字图像到达数据处理单元电路,由数据处理单元电路(工作原理如图3所示)进行目标分割和后续操作。
最大类间方差法是一种自动的非参数非监督的阈值选择法,具有很强的自适应性,采用该方法将目标区域分割出来,方法是将直方图在某一阈值处理分割成两组,当被分成的两组的方差为最大时,决定阈值。具体选取过程如下:
设一幅图像的灰度值为1-m级,灰度值为i的像素数为ni,此时我们得到:
总像素数
各值的概率
Pi=ni/N (2)
然后用k将其分成两组C0={1~k}和C1={K+1~m},各组产生的概率如下:
C0产生的概率
C1产生的概率
C0组的平均值
C1组的平均值
其中:是整体图像的平均值;是阈值为k时灰度的平均值,所以全部采样的灰度平均值为μ=ω0μ01μ1。两组间的方差用下式求出:
从1-m间改变k,求上式为最大值的k,即求maxσ2(k)的k*值,此时k*值便是自适应阈值。
●目标特征点提取
采用边缘检测和Hough变换的模式识别边缘检测算法检测出图像中目标的边缘信息。然后,利用目标星布局特征进行目标检测与识别。最后,根据先验信息,计算出目标特征点的位置坐标。所述算法为本领域技术人员根据现有技术可以实现,在此不再详述。
●目标特征点匹配
如图4所示,为了消除左相机图像和右相机图像在视觉角度上的偏差影响,首先需要通过坐标变换的方式统一两幅图像的坐标量。然后,利用极线约束关系建立初始候选匹配关系,为了达到较高的匹配精确度,再采用对称性测试的方法进行两次匹配,即同样算法应用于从左相机图像到右相机图像,也应用于从右相机图像到左相机图像。将只有一个方向或者两个方向都不满足约束关系的匹配,视为虚假匹配进行剔除。最后,将两个方向都满足约束关系的匹配作为正确的匹配坐标点,参与后续的位姿测量。
●非合作目标相对位姿解算
首先根据相机坐标系(世界坐标系)和左、右相机坐标系的变换关系确定特征点在相机坐标系下的空间三维坐标。
其次,如图5所示流程,假设有N个特征点,它们在目标坐标系下的坐标向量是Mtj=(Xtj,Ytj,Ztj),j=1,2,3…N。为避免透视造成的特征点重合,需要使任意三个特征点不共线。从特征点中任取三点,共有种组合方式,以Mt1,Mt2,Mt3为例,三点不共线,因此向量组Mt2-Mt1,Mt3-Mt1,(Mt2-Mt1)×(Mt3-Mt1)线性无关,可得
At123=[Mt2-Mt1Mt3-Mt1(Mt2-Mt1)×(Mt3-Mt1)] (8)
Ap123=[Mp2-Mp1Mp3-Mp1(Mp2-Mp1)×(Mp3-Mp1)] (9)
考虑到刚体旋转变换保持点之间的相对位置,则
从而得到
使用的均值来计算有助于减小测量误差,抑制随机噪声的作用,如下式
考虑到在计算过程中可能会丧失正交性,利用下述供述对进行正交化校正:
的元素为δij(i,j=1,2,3),则旋转矩阵滚转角φ、偏航角ψ、俯仰角θ的公式分别为:
最后,利用如下公式计算平移向量t,其中ZP、ZT分别指标志点在摄像机坐标系下和在目标坐标系下的坐标:

Claims (8)

1.一种超近距离空间非合作目标双目测量系统,其特征在于,包括:双目测量相机光学系统、双目测量相机电子学系统;所述双目测量相机光学系统包含一对远场镜头和一对近场镜头以及各自配套的安装支撑结构;所述远场镜头和近场镜头分别适用于对10m-100m和0.5m-15m距离范围的非合作目标成像;所述双目测量相机电子学系统包含图像采集电路和数据处理单元电路:图像采集电路负责采集并存储光学系统获取的图像,数据处理单元电路负责将采集到的双目视觉图像信息进行融合处理,实现位姿解算。
2.根据权利要求1所述的超近距离空间非合作目标双目测量系统,其特征在于,所述双目测量相机电子学系统的图像采集电路采用外部40MHz时间作为系统时间,采用型号为CMV4000的CMOS成像单元作为图像传感器,采用型号为XC2V250的控制器作为成像电路控制器,控制CMOS成像单元产生10Bit图像数据,再经型号为DS90CR287的芯片进行数据串行化后发送给数据处理单元电路或标准CAMLINK图像采集系统。
3.根据权利要求1所述的超近距离空间非合作目标双目测量系统,其特征在于,所述双目测量相机电子学系统的数据处理单元电路包括:2个以TMS320DM642GDKA720芯片为核心的数据处理器,以及由时钟、引导程序存储器、程序存储器、运行时外部数据存储器以及调试接口、复位电路组成的外部电路,用于处理远场和近场相机图像数据,数据处理单元电路通过RS422总线接收系统工作指令和参数,并返回工程遥测参数,实现与平台计算机的信息交换。
4.一种超近距离空间非合作目标相对位姿测量方法,其特征在于,该方法包括如下步骤:
步骤一、采集图像,通过双目测量相机光学系统在CMOS上成像,并将其采集的数字图像数据传输给数据处理单元电路;
步骤二、目标图像分割,采用最大类间方差法,根据像点的特征将数字图像中的目标从背景区域中分离出来;
步骤三、目标特征点提取,采用边缘检测和Hough变换算法检测出图像中目标的边缘信息,利用目标星布局特征进行目标检测与识别,计算出特征点的位置坐标;
步骤四、目标特征点双目匹配,利用极线约束关系建立初始候选匹配关系,再采用对称性测试方法进行两次匹配,将两个方向都满足约束关系的匹配作为正确的匹配坐标点;
步骤五、目标特征点位姿解算,根据步骤四中目标特征点匹配结果,已知目标特征点在目标坐标系和相机坐标系下的坐标,解算两坐标系的旋转矩阵从中可提取相对姿态参数:滚转角φ、偏航角ψ、俯仰角θ,以及平移向量t。
5.依据权利要求4所述的超近距离空间非合作目标相对位姿测量方法,其特征在于,目标在10m~100m距离范围时,选用一对远场镜头启动图像采集;目标在0.5m~15m距离范围时,选用一对近场镜头启动图像采集;当探测器初始选用远场镜头而逐渐逼近目标时,根据相对运动速度情况在10m~15m范围内选择合适时机实现远/近场镜头的切换。
6.依据权利要求4所述的超近距离空间非合作目标相对位姿测量方法,其特征在于,其中步骤二的最大类间方差法处理流程为:将目标图像像素按照亮度直方图中设定的某一阈值处理分割成两组,当在某一阈值处被分成的两组的方差为最大时,确定该阈值为最终决定目标和背景像素的分界阈值。
7.依据权利要求4所述的超近距离空间非合作目标相对位姿测量方法,其特征在于,其中步骤五的旋转矩阵按如下流程获得:已知双目测量相机镜头焦距fl,fr和目标特征点在相机坐标系、目标坐标系中的坐标,任意选取三个不共线目标特征点组成线性无关向量组,采用矩阵求逆的方法计算得到旋转矩阵并通过多次计算取平均值的手段减小测量误差。
8.根据权利要求4所述的超近距离空间非合作目标相对位姿测量方法,其特征在于,其中步骤五的相对位姿解算方法为:
ψ=arcsin(-δ13)
<mrow> <mi>&amp;theta;</mi> <mo>=</mo> <mi>a</mi> <mi>r</mi> <mi>c</mi> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mfrac> <msub> <mi>&amp;delta;</mi> <mn>23</mn> </msub> <mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>&amp;phi;</mi> <mo>=</mo> <mi>arcsin</mi> <mrow> <mo>(</mo> <mfrac> <msub> <mi>&amp;delta;</mi> <mn>12</mn> </msub> <mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>t</mi> <mo>=</mo> <msub> <mi>Z</mi> <mi>P</mi> </msub> <mo>-</mo> <msub> <mover> <mi>R</mi> <mo>^</mo> </mover> <mrow> <mi>t</mi> <mi>p</mi> </mrow> </msub> <msub> <mi>Z</mi> <mi>T</mi> </msub> </mrow>
<mrow> <msub> <mover> <mi>R</mi> <mo>^</mo> </mover> <mrow> <mi>t</mi> <mi>p</mi> </mrow> </msub> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;phi;</mi> <mo>)</mo> </mrow> <mi>sin</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mi>cos</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,δij为旋转矩阵第i行j列的元素;t为平移向量,ZP、ZT分别指目标特征点在相机坐标系下和在目标坐标系下的坐标。
CN201418007454.2A 2014-11-26 超近距离非合作双目测量系统及其测量方法 Active CN107529371B (zh)

Publications (1)

Publication Number Publication Date
CN107529371B true CN107529371B (zh) 2017-03-29

Family

ID=

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108089196A (zh) * 2017-12-14 2018-05-29 中国科学院光电技术研究所 一种光学主被动融合的非合作目标位姿测量装置
CN108376411A (zh) * 2018-01-16 2018-08-07 上海交通大学 一种基于双目视觉的非合作目标相对状态解算方法
CN109544940A (zh) * 2018-11-09 2019-03-29 北京恩吉威科技股份有限公司 基于三目视觉的公交车专用道占道抓拍系统及其抓拍方法
CN110726534A (zh) * 2019-09-27 2020-01-24 西安大医集团有限公司 一种视觉装置视场范围测试方法及装置
CN111829452A (zh) * 2020-06-04 2020-10-27 中国人民解放军63921部队 拖曳式立体测量单元、系统和空间目标测量方法
CN116883517A (zh) * 2023-09-07 2023-10-13 华东交通大学 基于平面镜的无重叠视场的相机参数标定方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108089196A (zh) * 2017-12-14 2018-05-29 中国科学院光电技术研究所 一种光学主被动融合的非合作目标位姿测量装置
CN108376411A (zh) * 2018-01-16 2018-08-07 上海交通大学 一种基于双目视觉的非合作目标相对状态解算方法
CN108376411B (zh) * 2018-01-16 2021-09-21 上海交通大学 一种基于双目视觉的非合作目标相对状态解算方法
CN109544940A (zh) * 2018-11-09 2019-03-29 北京恩吉威科技股份有限公司 基于三目视觉的公交车专用道占道抓拍系统及其抓拍方法
CN110726534A (zh) * 2019-09-27 2020-01-24 西安大医集团有限公司 一种视觉装置视场范围测试方法及装置
CN110726534B (zh) * 2019-09-27 2022-06-14 西安大医集团股份有限公司 一种视觉装置视场范围测试方法及装置
CN111829452A (zh) * 2020-06-04 2020-10-27 中国人民解放军63921部队 拖曳式立体测量单元、系统和空间目标测量方法
CN111829452B (zh) * 2020-06-04 2021-09-07 中国人民解放军63921部队 拖曳式立体测量单元、系统和空间目标测量方法
CN116883517A (zh) * 2023-09-07 2023-10-13 华东交通大学 基于平面镜的无重叠视场的相机参数标定方法
CN116883517B (zh) * 2023-09-07 2023-11-10 华东交通大学 基于平面镜的无重叠视场的相机参数标定方法

Similar Documents

Publication Publication Date Title
CN110411441B (zh) 用于多模态映射和定位的系统和方法
Kolomenkin et al. Geometric voting algorithm for star trackers
US8306273B1 (en) Method and apparatus for LIDAR target identification and pose estimation
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN107833249A (zh) 一种基于视觉引导的舰载机着陆过程姿态预估方法
CN105910583B (zh) 一种基于星载可见光相机的空间碎片快速检测定位方法
WO2014077272A1 (ja) 3次元物体認識装置および3次元物体認識方法
CN111210477A (zh) 一种运动目标的定位方法及系统
WO2017051480A1 (ja) 画像処理装置及び画像処理方法
CN106529587A (zh) 基于目标点识别的视觉航向识别方法
CN103075998A (zh) 一种单目空间目标测距测角方法
Pham et al. An autonomous star recognition algorithm with optimized database
CN109376208A (zh) 一种基于智能终端的定位方法、系统、存储介质及设备
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
CN115861860A (zh) 一种无人机的目标跟踪定位方法和系统
Ye et al. Autonomous space target recognition and tracking approach using star sensors based on a Kalman filter
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
CN104570147B (zh) 一种基于单目相机和主动结构光的障碍探测方法
CN110361001B (zh) 一种用于空间碎片运动测量系统及标定方法
CN108519083A (zh) 一种空间非合作多目标捕获与跟踪算法
KR20230082497A (ko) 3차원 포인트 클라우드를 이용한 구조물의 실시간 검진 자동화 방법 및 장치
Wang et al. LF-VISLAM: A SLAM framework for large field-of-view cameras with negative imaging plane on mobile agents
CN103791901B (zh) 一种星敏感器数据处理系统
CN104484647B (zh) 一种高分辨率遥感图像云高度检测方法

Legal Events

Date Code Title Description
GR03 Grant of secret patent right
DC01 Secret patent status has been lifted