CN112508999B - 一种基于协作观测图像序列的空间目标运动状态辨识方法 - Google Patents
一种基于协作观测图像序列的空间目标运动状态辨识方法 Download PDFInfo
- Publication number
- CN112508999B CN112508999B CN202011312098.6A CN202011312098A CN112508999B CN 112508999 B CN112508999 B CN 112508999B CN 202011312098 A CN202011312098 A CN 202011312098A CN 112508999 B CN112508999 B CN 112508999B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- time frame
- camera
- point matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims abstract description 14
- 230000009466 transformation Effects 0.000 claims abstract description 8
- 238000013519 translation Methods 0.000 claims abstract description 4
- 206010034719 Personality change Diseases 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 3
- 230000036544 posture Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001808 coupling effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于协作观测图像序列的空间目标运动状态辨识方法,通过多个视点对空间非合作目标进行协同观测获取图像序列组合,将图像序列组合按时序进行配准;然后,对同一时间帧不同视点获取的图像组,进行特征提取和匹配;随后,基于特征点匹配对,结合各视图间已知的相对位姿信息,恢复特征点的三维坐标信息;随后,对前后时间帧的图像对进行组合和特征匹配;最后,根据帧间特征点匹配对相应的空间坐标变换,解算目标的姿态变化矩阵和平移矩阵。以满足后续可能的目标运动学和动力学参数提取的需求。
Description
技术领域
本发明属于空间非合作目标运动状态辨识技术领域,涉及一种基于多航天器协作观测图像序列的空间非合作目标运动参数辨识方法。
背景技术
对航天器间相对运动状态的估计在空间操作领域一直受到人们的高度和持续关注。尤其是近年来,随着空间碎片数量指数级增长,对空间碎片清理等针对空间非合作目标的空间操作需求也随之快速增加。其中,对空间非合作目标的运动学状态参数进行精确地估计,是对其实施空间操作的前提和必要条件,也越来越受到人们的关注。
基于视觉结合卡尔曼滤波或其扩展方法对空间目标进行状态估计,目前已有了许多相关的研究,并在地面或在轨实验中得到了验证和应用。随着对空间非合作目标状态辨识的需求增加,得益于视觉传感器的被动性质,采用基于视觉的目标状态估计方法越来越多的受到人们的关注。
目前已有的针对空间在轨目标观测的方法包括单目相机观测和多目相机立体观测,基于单目或多目相机对空间目标的识别技术,一般采用配置在单一跟踪航天器上的单目或多目相机,通过目标上已知标识点在图像上的映射关系,或者立体视觉构建得到的关于目标的三维点云信息,对目标的状态估计模型予以更新和校正,从而实现对空间目标的相对辨识。然而,一方面,由于观测航天器并非固定的,观测视点和待测量目标间存在着严重的耦合效应,因此无法测量解算出目标独立的轨道动力学或运动学参数。另一方面,当单一的航天器处于不良观测位置或姿态时,无法实现对非合作目标的有效观测。此外,单目相机无法获得空间目标的点云信息,对目标的姿态变量的解算也非常困难,因此无法适用于没有先验信息的完全非合作目标。而基于单一观测航天器配置的双目或多目相机,虽然可以快速准确地获得目标的点云信息,但受限于相机基线等因素,其有效观测距离有限,只能实现极近距离对较小目标的立体测量。
发明内容
针对现有技术存在的问题,本发明目的在于提供一种基于协作观测图像序列的空间目标运动状态辨识方法,对多航天器多视点协作观测目标获取的图像序列组合进行处理,实现对目标的姿态变化信息精准而高效的测量,以满足后续目标运动学和动力学参数提取的需求。
本发明解决其技术问题所采用的技术方案是:
一种基于协作观测图像序列的空间目标运动状态辨识方法,包括:
S1,采用位于不同视点的多个航天器分别对空间非合作目标进行协作观测,获得关于空间非合作目标的图像序列组合,对图像序列组合按时序进行配准,得到各时间帧不同视点所得图像组成的图像组;
S2,对同一时间帧不同视点所得图像组成的图像组,检测每个图像中的特征点,并在图像组间进行特征点匹配,得到特征点匹配对;
S3,基于S2获得的特征点匹配对,结合各航天器中相机间已知的相对位姿信息,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对目标三维点云重建;
S4,对前后两个时间帧的图像对组合,基于S2获得的各时间帧的特征点匹配对,进行前后时间帧的特征点匹配,得到帧间特征点匹配对;
S5,基于前后两个时间帧的图像对中的帧间特征点匹配对相应的目标三维点云坐标变换,解算空间非合作目标的姿态变化矩阵和平移矩阵。
优选的,S1中,基于通信延时的考量和时间性校准,对图像序列组合按时序进行时间同步配准。
优选的,S2中,对同一时间帧不同视点所得图像组成的图像组,利用SIFT特征算子检测每个图像中的特征点,并在图像组间进行特征点匹配。
进一步的,S2中,假设一航天器通过相机A观测,另一航天器通过相机B观测;相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小;
b)该最小距离小于第二小的距离。
优选的,S3中,利用三角测量方法计算得到特征点匹配对所对应目标点的三维坐标信息。
进一步的,假设一航天器通过相机A观测,另一航天器通过相机B观测;对空间中一目标点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,有M=[R|T];
对该方程组求解,得到特征点匹配对所对应的目标点的三维坐标信息。
优选的,S4具体为:对前后两个时间帧的图像对组合,依次选择各个航天器的相机作为主相机,基于已检测到的特征点,使用近似最近邻算法进行特征点匹配;对于帧间特征点匹配对,其在前后两个时间帧所对应的目标点集合构成了帧间变化的三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的三维点云变化序列。
优选的,S5具体为:
目标三维点云在前后两个时间帧的变化描述为RT变换的形式,即
其中,和/>分别表示特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式;RT矩阵中共计12个元素,/>待求解的未知量共计11个,当帧间特征点匹配点对数量达到4对时,构建得到一个超定方程组;利用加权最小二乘法,依据准则:
解得两个时间帧之间的姿态变化量和位置变化量/>
本发明相对于现有技术,具有如下效果:
本发明方法,通过多个观测航天器从不同视点位置对空间非合作目标进行协同观测,避免了单一观测视点和待测量目标间存在的耦合效应的影响,而且当单一观测航天器处于不良观测位置或姿态时,可以通过多个视点的协作观测,保障良好整体观测工况。相对于单目相机而言,通过对多视点获取的空间非合作目标的图像序列组合进行处理,可以十分方便的实现对目标的三维点云重建和姿态信息辨识。相对于双目或多目相机而言,协作观测航天器之间的空间距离远大于双目或多目相机基线,借助协作观测航天器易得的相对位置和姿态信息,可以大幅度的扩大了有效观测距离,提高在空间操作中的应用范围。
附图说明
图1本发明的简易计算流程框架图;
图2多航天器协作观测空间非合作目标简示图;
图3三角测量方法的基本原理简示图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
首先请参阅该算法的简易计算流程框架图1:
(1)多航天器各自的相机从各个不同观测视点对空间非合作目标进行协作观测,简示图如图2所示,针对协作观测获取的关于空间非合作目标的图像序列组合,基于通信延时的考量和时间调整,按时序进行时间同步配准,得到各时间帧不同观测视点所得图像组成的图像组。
(2)对同一时间帧不同观测视点获取的图像组,选择尺度不变特征变换算子SIFT进行特征点提取和匹配,得到特征点匹配对集合。
在图像间的特征点匹配过程中,使用近似最近邻算法(ANN)进行主匹配。相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小,以128维的SIFT特征描述符和欧氏距离为例,点(n)pj的描述符(n)Lj和点(m)pi的描述符(m)Li之间的欧氏距离为
假定在图像n中检测到了N(n)个特征点,点(n)pj的描述符和点(m)pi的描述符之间的距离最小,即
d((m)Li,(n)Lj)=min{d((m)Li,(n)Lk) |k=1:N(n)}→d1st (8)
b)该最小距离d1st要一定程度的小于第二小的距离d2nd,即要有:d1st<λd2nd,其中0<λ<1。
考虑到协作相机间的相对位姿已知,可利用极线约束进一步地减小搜索区域,去除异常值:
该公式(9)含义为,给定图像m上的一个特征点,其在另一幅图像n上的匹配视图一定在对应的极线上。其中,(m)pi和(n)pj分别为图像m和n的匹配点对的正则化坐标,F为相机A和相机B之间相应的基础矩阵。
(3)基于匹配成功的特征点匹配对集合,结合已知的各视点相机的位置和姿态信息,利用三角测量方法,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对空间非合作目标的稀疏三维点云重建。该方法简示图如图3所示,可简要描述如下:
对空间中一点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,由世界坐标系和相机坐标系之间的相对旋转矩阵R和相对平移矩阵T构成,即有M=[R|T]。
对该方程组求解,得到特征点匹配对所对应的目标点的空间坐标。
(4)对前后两个时间帧的图像对组合,依次选择各个相机作为主相机,基于已检测到的特征点,使用近似最近邻算法(ANN)进行特征点匹配。匹配判定条件与(2)中匹配判定条件一致。帧间特征点匹配对i相应的目标点构成了在前后两个时间帧变化的目标三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的整体三维点云变化序列。
(5)基于前后两个时间帧的图像对的帧间特征点匹配对相应的目标三维点云坐标变换,解算目标的姿态变化矩阵和平动矩阵。
目标三维点云在前后两个时间帧的变化可描述为RT变换的形式,即
其中和/>分别表示帧间特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式。RT矩阵中共计12个元素,进一步地,考虑到/>约束,待求解的未知量共计11个。因此,当帧间特征点匹配对数量Nρ≥4时,即可构建得到一个超定方程组。利用加权最小二乘法,依据准则
解得两个时间帧之间的姿态变化量和位置变化量/>
以上内容是对本发明所作的进一步详细说明,不能认定本发明的具体实施方式仅限于此,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单的推演或替换,都应当视为属于本发明由所提交的权利要求书确定发明保护范围。
Claims (5)
1.一种基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,包括:
S1,采用位于不同视点的多个航天器分别对空间非合作目标进行协作观测,获得关于空间非合作目标的图像序列组合,对图像序列组合按时序进行配准,得到各时间帧不同视点所得图像组成的图像组;
S2,对同一时间帧不同视点所得图像组成的图像组,检测每个图像中的特征点,并在图像组间进行特征点匹配,得到特征点匹配对;
S3,基于S2获得的特征点匹配对,结合各航天器中相机间已知的相对位姿信息,计算得到特征点匹配对所对应目标点的三维坐标信息,实现对目标三维点云重建;
S4,对前后两个时间帧的图像对组合,基于S2获得的各时间帧的特征点匹配对,进行前后时间帧的特征点匹配,得到帧间特征点匹配对;
S5,基于前后两个时间帧的图像对中的帧间特征点匹配对相应的目标三维点云坐标变换,解算空间非合作目标的姿态变化矩阵和平移矩阵;
S3中,利用三角测量方法计算得到特征点匹配对所对应目标点的三维坐标信息,假设一航天器通过相机A观测,另一航天器通过相机B观测;对空间中一目标点P,其三维坐标的齐次形式为P=[X,Y,Z,1]T,在相机A获得的视图πA中像素齐次坐标为pA=(xA,yA,1)T,在相机B的视图πB中像素齐次坐标为pB=(xB,yB,1)T,以此类推,基于特征点匹配对pA,pB,…,可构建相应的方程组:
其中,MA,MB,…分别为相机A,B,…的外参矩阵,表示世界坐标系在各相机坐标系下的描述,有M=[R|T];
对该方程组求解,得到特征点匹配对所对应的目标点的三维坐标信息;
S4具体为:对前后两个时间帧的图像对组合,依次选择各个航天器的相机作为主相机,基于已检测到的特征点,使用近似最近邻算法进行特征点匹配;对于帧间特征点匹配对,其在前后两个时间帧所对应的目标点集合构成了帧间变化的三维点云,整合各个相机作为主相机获得的目标三维点云变化序列并去除重复的点,获得空间非合作目标的三维点云变化序列。
2.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S1中,基于通信延时的考量和时间性校准,对图像序列组合按时序进行时间同步配准。
3.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S2中,对同一时间帧不同视点所得图像组成的图像组,利用SIFT特征算子检测每个图像中的特征点,并在图像组间进行特征点匹配。
4.根据权利要求3所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S2中,假设一航天器通过相机A观测,另一航天器通过相机B观测;相机A获取的图像m中的第i个点(m)pi和相机B获取的图像n中的第j个点(n)pj的匹配判定条件设定如下:
a)在图像n的所有特征点中,点(n)pj的描述符和点(m)pi的描述符之间的距离最小;
b)该最小距离小于第二小的距离。
5.根据权利要求1所述的基于协作观测图像序列的空间目标运动状态辨识方法,其特征在于,S5具体为:
目标三维点云在前后两个时间帧的变化描述为RT变换的形式,即
其中,和/>分别表示特征点匹配对i在t和t+Δt时刻对应的目标点坐标的齐次形式;RT矩阵中共计12个元素,/>待求解的未知量共计11个,当帧间特征点匹配点对数量达到4对时,构建得到一个超定方程组;利用加权最小二乘法,依据准则:
解得两个时间帧之间的姿态变化量和位置变化量/>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011312098.6A CN112508999B (zh) | 2020-11-20 | 2020-11-20 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011312098.6A CN112508999B (zh) | 2020-11-20 | 2020-11-20 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112508999A CN112508999A (zh) | 2021-03-16 |
CN112508999B true CN112508999B (zh) | 2024-02-13 |
Family
ID=74959201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011312098.6A Active CN112508999B (zh) | 2020-11-20 | 2020-11-20 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508999B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888695A (zh) * | 2021-09-21 | 2022-01-04 | 西北工业大学 | 基于分支重构配准的非合作目标三维重建方法 |
CN114708331B (zh) * | 2022-02-24 | 2023-03-14 | 合肥的卢深视科技有限公司 | 深度相机的校准方法、装置、电子设备和存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609945A (zh) * | 2012-02-09 | 2012-07-25 | 西北工业大学 | 可见光和热红外图像序列自动配准方法 |
WO2012141235A1 (ja) * | 2011-04-13 | 2012-10-18 | 株式会社トプコン | 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム |
CN103512574A (zh) * | 2013-09-13 | 2014-01-15 | 北京航天飞行控制中心 | 一种基于小行星序列图像的深空探测器光学导航方法 |
CN106846358A (zh) * | 2017-01-13 | 2017-06-13 | 西北工业大学深圳研究院 | 基于稠密轨迹投票的多目标分割与跟踪方法 |
CN107123156A (zh) * | 2017-03-10 | 2017-09-01 | 西北工业大学 | 一种与双目立体视觉相结合的主动光源投影三维重构方法 |
CN108734728A (zh) * | 2018-04-25 | 2018-11-02 | 西北工业大学 | 一种基于高分辨序列图像的空间目标三维重构方法 |
CN110021039A (zh) * | 2018-11-15 | 2019-07-16 | 山东理工大学 | 序列图像约束的多视角实物表面点云数据初始配准方法 |
CN110030979A (zh) * | 2019-03-11 | 2019-07-19 | 北京空间飞行器总体设计部 | 一种基于序列图像的空间非合作目标相对位姿测量方法 |
CN111377065A (zh) * | 2020-03-09 | 2020-07-07 | 西北工业大学 | 一种多航天器协同识别目标姿态参数的方法 |
AU2020101932A4 (en) * | 2020-07-16 | 2020-10-01 | Xi'an University Of Science And Technology | Binocular vision–based method and system for pose measurement of cantilever tunneling equipment |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733338B2 (en) * | 2017-06-29 | 2020-08-04 | The Boeing Company | Methods and apparatus to generate a synthetic point cloud of a spacecraft |
-
2020
- 2020-11-20 CN CN202011312098.6A patent/CN112508999B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012141235A1 (ja) * | 2011-04-13 | 2012-10-18 | 株式会社トプコン | 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム |
CN102609945A (zh) * | 2012-02-09 | 2012-07-25 | 西北工业大学 | 可见光和热红外图像序列自动配准方法 |
CN103512574A (zh) * | 2013-09-13 | 2014-01-15 | 北京航天飞行控制中心 | 一种基于小行星序列图像的深空探测器光学导航方法 |
CN106846358A (zh) * | 2017-01-13 | 2017-06-13 | 西北工业大学深圳研究院 | 基于稠密轨迹投票的多目标分割与跟踪方法 |
CN107123156A (zh) * | 2017-03-10 | 2017-09-01 | 西北工业大学 | 一种与双目立体视觉相结合的主动光源投影三维重构方法 |
CN108734728A (zh) * | 2018-04-25 | 2018-11-02 | 西北工业大学 | 一种基于高分辨序列图像的空间目标三维重构方法 |
CN110021039A (zh) * | 2018-11-15 | 2019-07-16 | 山东理工大学 | 序列图像约束的多视角实物表面点云数据初始配准方法 |
CN110030979A (zh) * | 2019-03-11 | 2019-07-19 | 北京空间飞行器总体设计部 | 一种基于序列图像的空间非合作目标相对位姿测量方法 |
CN111377065A (zh) * | 2020-03-09 | 2020-07-07 | 西北工业大学 | 一种多航天器协同识别目标姿态参数的方法 |
AU2020101932A4 (en) * | 2020-07-16 | 2020-10-01 | Xi'an University Of Science And Technology | Binocular vision–based method and system for pose measurement of cantilever tunneling equipment |
Non-Patent Citations (3)
Title |
---|
基于形态变分模态分解和JRD的航天器异常状态识别;姜海旭;张科;王靖宇;吕梅柏;;西北工业大学学报(01);全文 * |
基于投影矩阵的空间非合作目标三维重建;张丕辉;宁昕;杨旭海;;中国科技论文(20);全文 * |
非合作目标视觉位姿测量与地面验证方法;林婷婷;江晟;李荣华;葛研军;周颖;;大连交通大学学报(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112508999A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN105716539B (zh) | 一种快速高精度的三维形面测量方法 | |
CN108399643A (zh) | 一种激光雷达和相机间的外参标定系统和方法 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN112508999B (zh) | 一种基于协作观测图像序列的空间目标运动状态辨识方法 | |
CN109712172A (zh) | 一种初始位姿测量结合目标追踪的位姿测量方法 | |
CN108615244B (zh) | 一种基于cnn和深度滤波器的图像深度估计方法及系统 | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN106570903A (zh) | 一种基于rgb‑d摄像头的视觉识别与定位方法 | |
CN111377065B (zh) | 一种多航天器协同识别目标姿态参数的方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111536981B (zh) | 一种嵌入式的双目非合作目标相对位姿测量方法 | |
CN110992487B (zh) | 手持式飞机油箱快速三维地图重建装置及重建方法 | |
CN108519102A (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
CN113532420B (zh) | 一种融合点线特征的视觉惯性里程计方法 | |
CN104240229B (zh) | 一种红外双目相机自适应极线校正方法 | |
CN112258409A (zh) | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 | |
CN113744315B (zh) | 一种基于双目视觉的半直接视觉里程计 | |
CN111080685A (zh) | 一种基于多视角立体视觉的飞机钣金零件三维重建方法及系统 | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
CN114812558A (zh) | 一种结合激光测距的单目视觉无人机自主定位方法 | |
CN108399630B (zh) | 一种复杂场景下感兴趣区域内目标快速测距方法 | |
Zhao et al. | Pose estimation for multi-camera systems | |
WO2009099117A1 (ja) | 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |