CN112508999B - 一种基于协作观测图像序列的空间目标运动状态辨识方法 - Google Patents

一种基于协作观测图像序列的空间目标运动状态辨识方法 Download PDF

Info

Publication number
CN112508999B
CN112508999B CN202011312098.6A CN202011312098A CN112508999B CN 112508999 B CN112508999 B CN 112508999B CN 202011312098 A CN202011312098 A CN 202011312098A CN 112508999 B CN112508999 B CN 112508999B
Authority
CN
China
Prior art keywords
target
image
time frame
camera
point matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011312098.6A
Other languages
English (en)
Other versions
CN112508999A (zh
Inventor
孙冲
赵迪
郑子轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011312098.6A priority Critical patent/CN112508999B/zh
Publication of CN112508999A publication Critical patent/CN112508999A/zh
Application granted granted Critical
Publication of CN112508999B publication Critical patent/CN112508999B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于协作观测图像序列的空间目标运动状态辨识方法,通过多个视点对空间非合作目标进行协同观测获取图像序列组合,将图像序列组合按时序进行配准;然后,对同一时间帧不同视点获取的图像组,进行特征提取和匹配;随后,基于特征点匹配对,结合各视图间已知的相对位姿信息,恢复特征点的三维坐标信息;随后,对前后时间帧的图像对进行组合和特征匹配;最后,根据帧间特征点匹配对相应的空间坐标变换,解算目标的姿态变化矩阵和平移矩阵。以满足后续可能的目标运动学和动力学参数提取的需求。

Description

一种基于协作观测图像序列的空间目标运动状态辨识方法
技术领域
本发明属于空间非合作目标运动状态辨识技术领域,涉及一种基于多航天器协作观测图像序列的空间非合作目标运动参数辨识方法。
背景技术
对航天器间相对运动状态的估计在空间操作领域一直受到人们的高度和持续关注。尤其是近年来,随着空间碎片数量指数级增长,对空间碎片清理等针对空间非合作目标的空间操作需求也随之快速增加。其中,对空间非合作目标的运动学状态参数进行精确地估计,是对其实施空间操作的前提和必要条件,也越来越受到人们的关注。
基于视觉结合卡尔曼滤波或其扩展方法对空间目标进行状态估计,目前已有了许多相关的研究,并在地面或在轨实验中得到了验证和应用。随着对空间非合作目标状态辨识的需求增加,得益于视觉传感器的被动性质,采用基于视觉的目标状态估计方法越来越多的受到人们的关注。
目前已有的针对空间在轨目标观测的方法包括单目相机观测和多目相机立体观测,基于单目或多目相机对空间目标的识别技术,一般采用配置在单一跟踪航天器上的单目或多目相机,通过目标上已知标识点在图像上的映射关系,或者立体视觉构建得到的关于目标的三维点云信息,对目标的状态估计模型予以更新和校正,从而实现对空间目标的相对辨识。然而,一方面,由于观测航天器并非固定的,观测视点和待测量目标间存在着严重的耦合效应,因此无法测量解算出目标独立的轨道动力学或运动学参数。另一方面,当单一的航天器处于不良观测位置或姿态时,无法实现对非合作目标的有效观测。此外,单目相机无法获得空间目标的点云信息,对目标的姿态变量的解算也非常困难,因此无法适用于没有先验信息的完全非合作目标。而基于单一观测航天器配置的双目或多目相机,虽然可以快速准确地获得目标的点云信息,但受限于相机基线等因素,其有效观测距离有限,只能实现极近距离对较小目标的立体测量。
发明内容
针对现有技术存在的问题,本发明目的在于提供一种基于协作观测图像序列的空间目标运动状态辨识方法,对多航天器多视点协作观测目标获取的图像序列组合进行处理,实现对目标的姿态变化信息精准而高效的测量,以满足后续目标运动学和动力学参数提取的需求。
本发明解决其技术问题所采用的技术方案是:
一种基于协作观测图像序列的空间目标运动状态辨识方法,包括:
S1,采用位于不同视点的多个航天器分别对空间非合作目标进行协作观测,获得关于空间非合作目标的图像序列组合,对图像序列组合按时序进行配准,得到各时间帧不同视点所得图像组成的图像组;
S2,对同一时间帧不同视点所得图像组成的图像组,检测每个图像中的特征点,并在图像组间进行特征点匹配,得到特征点匹配对;
S3,基于S2获得的特征点匹配对,结合各航天器中相机间已知的相对位姿信息,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对目标三维点云重建;
S4,对前后两个时间帧的图像对组合,基于S2获得的各时间帧的特征点匹配对,进行前后时间帧的特征点匹配,得到帧间特征点匹配对;
S5,基于前后两个时间帧的图像对中的帧间特征点匹配对相应的目标三维点云坐标变换,解算空间非合作目标的姿态变化矩阵和平移矩阵。
优选的,S1中,基于通信延时的考量和时间性校准,对图像序列组合按时序进行时间同步配准。
优选的,S2中,对同一时间帧不同视点所得图像组成的图像组,利用SIFT特征算子检测每个图像中的特征点,并在图像组间进行特征点匹配。
进一步的,S2中,假设一航天器通过相机A观测,另一航天器通过相机B观测;相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小;
b)该最小距离小于第二小的距离。
优选的,S3中,利用三角测量方法计算得到特征点匹配对所对应目标点的三维坐标信息。
进一步的,假设一航天器通过相机A观测,另一航天器通过相机B观测;对空间中一目标点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,有M=[R|T];
对该方程组求解,得到特征点匹配对所对应的目标点的三维坐标信息。
优选的,S4具体为:对前后两个时间帧的图像对组合,依次选择各个航天器的相机作为主相机,基于已检测到的特征点,使用近似最近邻算法进行特征点匹配;对于帧间特征点匹配对,其在前后两个时间帧所对应的目标点集合构成了帧间变化的三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的三维点云变化序列。
优选的,S5具体为:
目标三维点云在前后两个时间帧的变化描述为RT变换的形式,即
其中,和/>分别表示特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式;RT矩阵中共计12个元素,/>待求解的未知量共计11个,当帧间特征点匹配点对数量达到4对时,构建得到一个超定方程组;利用加权最小二乘法,依据准则:
解得两个时间帧之间的姿态变化量和位置变化量/>
本发明相对于现有技术,具有如下效果:
本发明方法,通过多个观测航天器从不同视点位置对空间非合作目标进行协同观测,避免了单一观测视点和待测量目标间存在的耦合效应的影响,而且当单一观测航天器处于不良观测位置或姿态时,可以通过多个视点的协作观测,保障良好整体观测工况。相对于单目相机而言,通过对多视点获取的空间非合作目标的图像序列组合进行处理,可以十分方便的实现对目标的三维点云重建和姿态信息辨识。相对于双目或多目相机而言,协作观测航天器之间的空间距离远大于双目或多目相机基线,借助协作观测航天器易得的相对位置和姿态信息,可以大幅度的扩大了有效观测距离,提高在空间操作中的应用范围。
附图说明
图1本发明的简易计算流程框架图;
图2多航天器协作观测空间非合作目标简示图;
图3三角测量方法的基本原理简示图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
首先请参阅该算法的简易计算流程框架图1:
(1)多航天器各自的相机从各个不同观测视点对空间非合作目标进行协作观测,简示图如图2所示,针对协作观测获取的关于空间非合作目标的图像序列组合,基于通信延时的考量和时间调整,按时序进行时间同步配准,得到各时间帧不同观测视点所得图像组成的图像组。
(2)对同一时间帧不同观测视点获取的图像组,选择尺度不变特征变换算子SIFT进行特征点提取和匹配,得到特征点匹配对集合。
在图像间的特征点匹配过程中,使用近似最近邻算法(ANN)进行主匹配。相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小,以128维的SIFT特征描述符和欧氏距离为例,点(n)pj的描述符(n)Lj和点(m)pi的描述符(m)Li之间的欧氏距离为
假定在图像n中检测到了N(n)个特征点,点(n)pj的描述符和点(m)pi的描述符之间的距离最小,即
d((m)Li,(n)Lj)=min{d((m)Li,(n)Lk) |k=1:N(n)}→d1st (8)
b)该最小距离d1st要一定程度的小于第二小的距离d2nd,即要有:d1st<λd2nd,其中0<λ<1。
考虑到协作相机间的相对位姿已知,可利用极线约束进一步地减小搜索区域,去除异常值:
该公式(9)含义为,给定图像m上的一个特征点,其在另一幅图像n上的匹配视图一定在对应的极线上。其中,(m)pi(n)pj分别为图像m和n的匹配点对的正则化坐标,F为相机A和相机B之间相应的基础矩阵。
(3)基于匹配成功的特征点匹配对集合,结合已知的各视点相机的位置和姿态信息,利用三角测量方法,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对空间非合作目标的稀疏三维点云重建。该方法简示图如图3所示,可简要描述如下:
对空间中一点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,由世界坐标系和相机坐标系之间的相对旋转矩阵R和相对平移矩阵T构成,即有M=[R|T]。
对该方程组求解,得到特征点匹配对所对应的目标点的空间坐标。
(4)对前后两个时间帧的图像对组合,依次选择各个相机作为主相机,基于已检测到的特征点,使用近似最近邻算法(ANN)进行特征点匹配。匹配判定条件与(2)中匹配判定条件一致。帧间特征点匹配对i相应的目标点构成了在前后两个时间帧变化的目标三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的整体三维点云变化序列。
(5)基于前后两个时间帧的图像对的帧间特征点匹配对相应的目标三维点云坐标变换,解算目标的姿态变化矩阵和平动矩阵。
目标三维点云在前后两个时间帧的变化可描述为RT变换的形式,即
其中和/>分别表示帧间特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式。RT矩阵中共计12个元素,进一步地,考虑到/>约束,待求解的未知量共计11个。因此,当帧间特征点匹配对数量Nρ≥4时,即可构建得到一个超定方程组。利用加权最小二乘法,依据准则
解得两个时间帧之间的姿态变化量和位置变化量/>
以上内容是对本发明所作的进一步详细说明,不能认定本发明的具体实施方式仅限于此,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单的推演或替换,都应当视为属于本发明由所提交的权利要求书确定发明保护范围。

Claims (5)

1.一种基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,包括:
S1,采用位于不同视点的多个航天器分别对空间非合作目标进行协作观测,获得关于空间非合作目标的图像序列组合,对图像序列组合按时序进行配准,得到各时间帧不同视点所得图像组成的图像组;
S2,对同一时间帧不同视点所得图像组成的图像组,检测每个图像中的特征点,并在图像组间进行特征点匹配,得到特征点匹配对;
S3,基于S2获得的特征点匹配对,结合各航天器中相机间已知的相对位姿信息,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对目标三维点云重建;
S4,对前后两个时间帧的图像对组合,基于S2获得的各时间帧的特征点匹配对,进行前后时间帧的特征点匹配,得到帧间特征点匹配对;
S5,基于前后两个时间帧的图像对中的帧间特征点匹配对相应的目标三维点云坐标变换,解算空间非合作目标的姿态变化矩阵和平移矩阵;
S3中,利用三角测量方法计算得到特征点匹配对所对应目标点的三维坐标信息,假设一航天器通过相机A观测,另一航天器通过相机B观测;对空间中一目标点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,有M=[R|T];
对该方程组求解,得到特征点匹配对所对应的目标点的三维坐标信息;
S4具体为:对前后两个时间帧的图像对组合,依次选择各个航天器的相机作为主相机,基于已检测到的特征点,使用近似最近邻算法进行特征点匹配;对于帧间特征点匹配对,其在前后两个时间帧所对应的目标点集合构成了帧间变化的三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的三维点云变化序列。
2.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S1中,基于通信延时的考量和时间性校准,对图像序列组合按时序进行时间同步配准。
3.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S2中,对同一时间帧不同视点所得图像组成的图像组,利用SIFT特征算子检测每个图像中的特征点,并在图像组间进行特征点匹配。
4.根据权利要求3所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S2中,假设一航天器通过相机A观测,另一航天器通过相机B观测;相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小;
b)该最小距离小于第二小的距离。
5.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S5具体为:
目标三维点云在前后两个时间帧的变化描述为RT变换的形式,即
其中,和/>分别表示特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式;RT矩阵中共计12个元素,/>待求解的未知量共计11个,当帧间特征点匹配点对数量达到4对时,构建得到一个超定方程组;利用加权最小二乘法,依据准则:
解得两个时间帧之间的姿态变化量和位置变化量/>
CN202011312098.6A 2020-11-20 2020-11-20 一种基于协作观测图像序列的空间目标运动状态辨识方法 Active CN112508999B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011312098.6A CN112508999B (zh) 2020-11-20 2020-11-20 一种基于协作观测图像序列的空间目标运动状态辨识方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011312098.6A CN112508999B (zh) 2020-11-20 2020-11-20 一种基于协作观测图像序列的空间目标运动状态辨识方法

Publications (2)

Publication Number Publication Date
CN112508999A CN112508999A (zh) 2021-03-16
CN112508999B true CN112508999B (zh) 2024-02-13

Family

ID=74959201

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011312098.6A Active CN112508999B (zh) 2020-11-20 2020-11-20 一种基于协作观测图像序列的空间目标运动状态辨识方法

Country Status (1)

Country Link
CN (1) CN112508999B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113888695A (zh) * 2021-09-21 2022-01-04 西北工业大学 基于分支重构配准的非合作目标三维重建方法
CN114708331B (zh) * 2022-02-24 2023-03-14 合肥的卢深视科技有限公司 深度相机的校准方法、装置、电子设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609945A (zh) * 2012-02-09 2012-07-25 西北工业大学 可见光和热红外图像序列自动配准方法
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
CN103512574A (zh) * 2013-09-13 2014-01-15 北京航天飞行控制中心 一种基于小行星序列图像的深空探测器光学导航方法
CN106846358A (zh) * 2017-01-13 2017-06-13 西北工业大学深圳研究院 基于稠密轨迹投票的多目标分割与跟踪方法
CN107123156A (zh) * 2017-03-10 2017-09-01 西北工业大学 一种与双目立体视觉相结合的主动光源投影三维重构方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN110021039A (zh) * 2018-11-15 2019-07-16 山东理工大学 序列图像约束的多视角实物表面点云数据初始配准方法
CN110030979A (zh) * 2019-03-11 2019-07-19 北京空间飞行器总体设计部 一种基于序列图像的空间非合作目标相对位姿测量方法
CN111377065A (zh) * 2020-03-09 2020-07-07 西北工业大学 一种多航天器协同识别目标姿态参数的方法
AU2020101932A4 (en) * 2020-07-16 2020-10-01 Xi'an University Of Science And Technology Binocular vision–based method and system for pose measurement of cantilever tunneling equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733338B2 (en) * 2017-06-29 2020-08-04 The Boeing Company Methods and apparatus to generate a synthetic point cloud of a spacecraft

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
CN102609945A (zh) * 2012-02-09 2012-07-25 西北工业大学 可见光和热红外图像序列自动配准方法
CN103512574A (zh) * 2013-09-13 2014-01-15 北京航天飞行控制中心 一种基于小行星序列图像的深空探测器光学导航方法
CN106846358A (zh) * 2017-01-13 2017-06-13 西北工业大学深圳研究院 基于稠密轨迹投票的多目标分割与跟踪方法
CN107123156A (zh) * 2017-03-10 2017-09-01 西北工业大学 一种与双目立体视觉相结合的主动光源投影三维重构方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN110021039A (zh) * 2018-11-15 2019-07-16 山东理工大学 序列图像约束的多视角实物表面点云数据初始配准方法
CN110030979A (zh) * 2019-03-11 2019-07-19 北京空间飞行器总体设计部 一种基于序列图像的空间非合作目标相对位姿测量方法
CN111377065A (zh) * 2020-03-09 2020-07-07 西北工业大学 一种多航天器协同识别目标姿态参数的方法
AU2020101932A4 (en) * 2020-07-16 2020-10-01 Xi'an University Of Science And Technology Binocular vision–based method and system for pose measurement of cantilever tunneling equipment

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于形态变分模态分解和JRD的航天器异常状态识别;姜海旭;张科;王靖宇;吕梅柏;;西北工业大学学报(01);全文 *
基于投影矩阵的空间非合作目标三维重建;张丕辉;宁昕;杨旭海;;中国科技论文(20);全文 *
非合作目标视觉位姿测量与地面验证方法;林婷婷;江晟;李荣华;葛研军;周颖;;大连交通大学学报(03);全文 *

Also Published As

Publication number Publication date
CN112508999A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN109579843B (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
Sodhi et al. In-field segmentation and identification of plant structures using 3D imaging
CN112508999B (zh) 一种基于协作观测图像序列的空间目标运动状态辨识方法
CN108615244B (zh) 一种基于cnn和深度滤波器的图像深度估计方法及系统
CN110176032B (zh) 一种三维重建方法及装置
WO2017080102A1 (zh) 飞行装置、飞行控制系统及方法
CN106570903A (zh) 一种基于rgb‑d摄像头的视觉识别与定位方法
CN111377065B (zh) 一种多航天器协同识别目标姿态参数的方法
CN111536981B (zh) 一种嵌入式的双目非合作目标相对位姿测量方法
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN110992487B (zh) 手持式飞机油箱快速三维地图重建装置及重建方法
CN108519102A (zh) 一种基于二次投影的双目视觉里程计算方法
CN103049912A (zh) 一种基于任意三面体的雷达-相机系统外部参数标定方法
CN113532420B (zh) 一种融合点线特征的视觉惯性里程计方法
CN104240229B (zh) 一种红外双目相机自适应极线校正方法
CN112258409A (zh) 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
Zapotezny-Anderson et al. Towards active robotic vision in agriculture: a deep learning approach to visual servoing in occluded and unstructured protected cropping environments
Kostavelis et al. Visual odometry for autonomous robot navigation through efficient outlier rejection
CN114812558B (zh) 一种结合激光测距的单目视觉无人机自主定位方法
CN111047636B (zh) 基于主动红外双目视觉的避障系统和避障方法
WO2009099117A1 (ja) 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
CN110705487B (zh) 掌纹采集设备、方法及其图像采集装置
CN111291687A (zh) 一种3d人体动作标准性判识的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant