CN113592953A - 一种基于特征点集的双目非合作目标位姿测量方法 - Google Patents
一种基于特征点集的双目非合作目标位姿测量方法 Download PDFInfo
- Publication number
- CN113592953A CN113592953A CN202110819766.2A CN202110819766A CN113592953A CN 113592953 A CN113592953 A CN 113592953A CN 202110819766 A CN202110819766 A CN 202110819766A CN 113592953 A CN113592953 A CN 113592953A
- Authority
- CN
- China
- Prior art keywords
- image
- binocular
- points
- cooperative target
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 57
- 238000005286 illumination Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims abstract description 11
- 230000009466 transformation Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 10
- 238000000513 principal component analysis Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G06T5/70—
-
- G06T5/80—
Abstract
本发明提供一种基于特征点集的双目非合作目标位姿测量方法,解决现有位姿测量方法难以稳定提取非合作目标表面的点特征问题。该方法包括:通过相机标定获取内参数、外参数与畸变系数;固定标定好的双目相机,拍摄目标图像;对图像预处理,减少噪声和光照对图像的影响;根据畸变模型,对图像进行畸变矫正;提取图像的FAST特征点,并根据霍夫变换提取直线特征,求取直线的交点,FAST特征点和直线交点共同构成特征点集;根据特征点集进行双目立体匹配;最后,求解出目标的三维坐标和姿态角。本发明方法提高了测量方法的速度与稳定性。
Description
技术领域
本发明涉及到计算机视觉领域,具体涉及到一种基于特征点集的双目非合作目标位姿测量方法。
背景技术
空间位姿测量是非合作航天器执行航天任务的重要组成部分,为了能够执行空间交会对接、在轨维修维护、空间垃圾清理、在轨装配与重构等一系列空间任务,必须首先获取目标航天器与服务航天器的相对空间位姿等信息。现有的位姿测量技术中,双目视觉测量具有直观性强、实时性、精确性好、成本低等特点,在空间测量中应用较为广泛。
特征提取是位姿测量方法的核心技术,也是影响测量精度的关键因素。目前提取的特征主要有点特征和线特征,点特征比线特征的精度更高。但是,由于太空环境中的光照条件较为复杂,且飞行器表面的包覆材料较为特殊,通常导致难以稳定提取非合作目标表面的点特征,若提取不到点特征,则无法进行后面的特征匹配以及位姿解算工作。因此,对点特征提取方法的研究在位姿测量中具有重要的意义。
发明内容
本发明的目的是解决现有位姿测量方法难以稳定提取非合作目标表面的点特征问题,提供一种基于特征点集的双目非合作目标位姿测量方法。
为实现上述目的,本发明采用以下技术方案:
一种基于特征点集的双目非合作目标位姿测量方法,包括以下步骤:
步骤一、对双目相机进行标定,并获取双目相机的内参数、外参数与畸变系数,同时获取真实空间的三维坐标系与相机坐标系的空间转换矩阵;
步骤二、固定标定好的双目相机,双目相机对非合作目标进行拍摄,获取双目图像,双目图像包括左图和右图;
步骤三、对步骤二获取的双目图像进行预处理,减少噪声和光照对图像的影响;
步骤四、根据畸变模型,对双目图像进行畸变矫正;
步骤五、提取特征点集;
5.1)提取双目图像的FAST特征点;
5.2)根据霍夫变换提取非合作目标上的直线特征,并求取直线的交点;
5.21)计算非合作目标上四个顶点的图像坐标,进一步得出四个顶点在图像坐标系中的横、纵坐标范围,分别记为:x1~x2,y1~y2;
5.22)通过霍夫变换提取非合作目标上的n条直线,记为:{l1,l2,l3.....ln};
5.23)计算步骤5.22)中各直线的交点,分别记为:{Qn+1,Qn+2,Qn+3.....Q2n};
5.3)判断步骤5.23)中的交点是否在非合作目标上,将直线交点的坐标与步骤5.21)中的横纵坐标范围作比较,去除超出坐标范围的交点,剩余的交点与FAST特征点共同构成特征点集:{Q1,Q2,Q3.....Qn.....};
步骤六、根据特征点集进行双目立体匹配;
6.1)根据极线约束关系获取左图特征点的坐标和右图特征点的坐标;
6.2)计算左图中特征点邻域窗与右图中特征点邻域窗内灰度值的互相关系数;
6.3)对灰度值的互相关系数进行归一化处理;
6.4)根据NCC匹配算法,选取互相关系数最大值对应的特征点作为特征点的匹配点;
步骤七、求解非合作目标的三维坐标和姿态角;
使用PCA方法对特征点的匹配点进行筛选,进一步求解出非合作目标的位姿;
已知双目相机中左右相机的焦距分别为fl、fr,左图特征点的坐标(ul,vl)和右图特征点的坐标(ur,vr),由下式求出特征点在真实空间的三维坐标:
其中,(Xw,Yw,Zw)为特征点在真实空间的三维坐标,M为空间转换矩阵,tx、tz、r1、r2、r3、r7、r8、r9为空间转换矩阵中的元素。
进一步地,步骤三中,预处理具体包括以下过程:首先,采用小波变换去除图像噪声;其次,通过直方图均衡化处理光照不平衡的问题;最后,对图像进行锐化。本发明方法先用小波阈值滤波方法去除图像中的高斯噪声和随机噪声,这种方法计算量小,去噪效果好;再利用直方图均衡化解决光照不平衡的问题,实现了亮度分布均匀化;最后,通过拉普拉斯算子,增强图像的边缘细节。与传统的图像预处理方法相比,这种“三阶段”的预处理方法不仅能够去除噪声,还能均匀图像的亮度,增强图像的边缘细节,有利于后续的图像特征提取及匹配工作。
进一步地,步骤一中,采用棋盘格对双目相机进行标定,此种标定方式准确简单。
进一步地,步骤四中,采用径向畸变模型对双目图像进行畸变矫正,该步骤中只采用径向畸变模型进行矫正,可以提高测量精度,避免测量过程中解的不稳定因素。
进一步地,由于太阳能帆板的张开面大,易于捕捉,直线特征丰富,因此本发明方法选择太阳能帆板作为研究对象。此时,步骤5.21)中,计算非合作目标上四个顶点的图像坐标具体为:计算太阳能矩形帆板的四个顶点图像坐标,进一步得出太阳能矩形帆板四个顶点在图像坐标系中的横、纵坐标范围;步骤5.22)中,通过霍夫变换提取太阳能矩形帆的n条直线。
进一步地,步骤5.1)具体包括以下过程:
5.11)计算图像中心像素点q与像素点1和像素点9的灰度值差值,取绝对值得到Δtq1和Δtq9;若Δtq1和Δtq9均大于Δt,则继续执行下一步,若不满足,则将此点舍弃;
5.12)计算中心像素点q与像素点5和像素点13的灰度值差值,取绝对值得到Δtq5和Δtq13;在Δtq1、Δtq9、Δtq5和Δtq13中,如果至少有三个值大于Δt,则q点为候选特征点;否则,将q点舍弃;
5.13)重复上面两个步骤,直至遍历完图像中所有点,选出候选特征点;
5.14)采用极大值抑制法对所有的候选特征点再次筛选,得到真实的FAST特征点。
与现有技术相比,本发明方法具有如下有益效果:
本发明方法既有较好的实时性,又有较强的鲁棒性。
1.本发明方法具有较强的鲁棒性(稳定性高)。FAST特征点提取速度快,鲁棒性较差,真实的太空环境中,容易造成特征点数目过少的现象,而利用霍夫变换求取直线交点,可以弥补FAST特征点鲁棒性差的缺陷。
2.本发明方法实时性较高。本发明提取的特征点为FAST特征点,与霍夫变换提取的直线交点共同构成特征点集,这种方法相较于传统的特征提取算法(比如sift特征点,surf特征点),提取速度较快。
3.本发明方法先用小波阈值滤波方法去除图像中的高斯噪声和随机噪声,这种方法计算量小,去噪效果好;再利用直方图均衡化解决光照不平衡的问题,实现了亮度分布均匀化;最后,通过拉普拉斯算子,增强图像的边缘细节。与传统的图像预处理方法相比,这种“三阶段”的预处理方法不仅能够去除噪声,还能均匀图像的亮度,增强图像的边缘细节,有利于后续的图像特征提取及匹配工作。
4.本发明方法使用极线约束与NCC相结合的匹配方法。将NCC与极线约束相结合,可以将匹配点的搜索范围将整个二维平面缩小至对应的极线上,从而提高了匹配算法的速度,也在一定程度上减少误匹配率。
5.本发明方法只采用径向畸变模型进行矫正,该种方式可以提高测量精度,避免测量过程中解的不稳定因素。
附图说明
图1为本发明基于特征点集的双目非合作目标位姿测量方法流程图;
图2为本发明方法中双目相机的安装示意图;
图3为本发明方法采用FAST算法提取图像的特征点的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。本领域技术人员应当理解的是,这些实施方式仅仅用来解释本发明的技术原理,目的并不是用来限制本发明的保护范围。
本发明提供一种基于特征点集的双目非合作目标位姿测量方法,该方法主要包括:通过相机标定获取内参数、外参数与畸变系数;固定标定好的双目相机,拍摄目标图像;对图像预处理,减少噪声和光照对图像的影响;根据畸变模型,对图像进行畸变矫正;提取图像的FAST特征点,并根据霍夫变换提取直线特征,求取直线的交点,FAST特征点和直线交点共同构成特征点集;根据特征点集进行双目立体匹配;最后,求解出目标的三维坐标和姿态角。
本发明方法通过霍夫变换求取直线交点,可以弥补FAST特征点鲁棒性差的缺陷,提高了测量方法的速度与稳定性。该方法利用双目视觉的原理,通过霍夫变换提取非合作目标表面的直线,直线的交点与FAST特征点共同构成特征点集;在极线约束的条件下,利用NCC(Normalized Cross correlation)匹配方法,寻找右图中的同名点集;最后,实用主成分分析法(PCA,Principal Component Analysis)处理同名点对,求解出非合作目标的三维坐标和姿态角。
如图1所示,本发明提供的基于特征点集的双目非合作目标位姿测量方法具体包括以下步骤:
步骤一、对双目相机进行标定,并获取双目相机的内参数、外参数与畸变系数;拍摄图像之前,需要对试验使用的双目相机进行离线标定,具体可使用棋盘格对双目相机进行标定,得出双目相机的内外参数及畸变系数,同时获取真实空间的三维坐标系与相机坐标系的空间转换矩阵;
步骤二、固定标定好的双目相机,拍摄目标图像;
完成标定试验后,需固定双目相机的相对位置,此时,双目相机对非合作目标进行拍摄,获取双目图像,双目图像分别为左图和右图,双目相机的安装如图2所示:
步骤三、对双目图像进行预处理,减少噪声和光照对双目图像的影响;
双目图像在拍摄和传输过程中,由于光照、所用器件和传输通道的局限性及现场其他电磁信号的干扰,常含有大量噪声,这些噪声会影响图像的显示效果及后续的图像处理,为有效滤除这些噪声,必须在提取特征之前对图像进行预处理操作;
上述预处理可采用多种方法,只要能够减少噪声和光照对图像的影响即可;在本发明方法中,优先采用以下方法:先用小波变换去除图像噪声,再通过直方图均衡化来处理光照不平衡的问题,最后对图像进行锐化,以便于后续的特征提取工作;
该步骤中,先用小波阈值滤波方法去除图像中的高斯噪声和随机噪声,这种方法计算量小,去噪效果好。再利用直方图均衡化解决光照不平衡的问题,实现了亮度分布均匀化。最后,通过拉普拉斯算子,增强图像的边缘细节。与传统的图像预处理方法相比,这种“三阶段”的预处理方法不仅能够去除噪声,还能均匀图像的亮度,增强图像的边缘细节,有利于后续的图像特征提取及匹配工作。
步骤四、根据畸变模型,对双目图像进行畸变矫正;
本发明方法采用径向畸变对双目图像进行畸变矫正。在研究过程中发现,径向畸变对相机成像的影响远大于切向畸变。在计算过程中可以适当忽略切向畸变,只考虑径向畸变。如果过多地考虑畸变参数,反而会影响测量精度,甚至会引起测量过程中解的不稳定因素。径向畸变模型如下所示:
步骤五、提取特征点集;
5.1)提取FAST特征点;
为了提高测量方法的速度,本发明采用FAST算法提取双目图像的特征点。在FAST算法中,若某个像素点与其领域内足够多像素点的灰度值不同,则将此点定义为特征点。如图3所示,在双目图像中任取一个像素点q,灰度值为I(q)。以q点为中心,形成一个半径为3的Bresenham圆形区域,则q点被圆周上的16个像素点包围。设定一个阈值Δt,来表示圆周像素点与q点灰度值的差异程度。如果圆周上有n个点的灰度值与q点的像素值之差都大于Δt,则中心点q为候选特征点;
在比较q点和圆周上像素点的灰度值时,如果要遍历圆周上所有的点,效率太低,为了提高算法的效率,对算法作出如下改进:
5.11)先计算中心像素点q与像素点1和像素点9的灰度值差值,取绝对值得到Δtq1和Δtq9;若Δtq1和Δtq9都大于Δt,则继续执行下一步,若不满足,则将此点舍弃;
5.12)再计算中心像素点q与像素点5和像素点13的灰度值差值,取绝对值得到Δtq5和Δtq13;在Δtq1、Δtq9、Δtq5和Δtq13中,如果至少有三个值大于Δt,则q点为候选特征点;否则,将q点舍弃;
5.13)重复上面两个步骤,直至遍历完图像中所有点,选出候选特征点;
5.14)经过上面三个步骤筛选出的候选特征点,在图像的边缘处会出现聚集的现象,这是因为真实特征点和其周围的点性质相似。为了去除这些相似点,需要用极大值抑制法对所有的候选特征点再次筛选,才能得到真实的特征点;
5.2)利用霍夫变换提取特征点
FAST特征点提取速度快,但是鲁棒性不高,容易受到光照条件的影响。在光照条件改变的情况下,FAST特征点容易提取不到或提取的数量过少。而非合作目标表面包含丰富的直线特征,这些直线特征通常能够稳定提取。为了提高测量方法的稳定性,本发明通过霍夫变换提取非合作目标太阳能矩形帆板的直线,获取更多的特征点;
5.21,获取非合作目标四个顶点坐标,进一步得出四个顶点在图像坐标系中的横、纵坐标范围,分别记为:x1~x2,y1~y2;
本发明方法选用太阳能帆板作为提取目标。空间飞行器一般由两个矩形太阳能帆板、一个矩形本体和一个圆形的对接环组成。由于太阳能帆板的张开面大,易于捕捉,直线特征丰富,因此本发明方法选择太阳能帆板作为研究对象,此时,该步骤具体为,计算太阳能矩形帆板的四个顶点的图像坐标,通过霍夫变换拟合出太阳能矩形帆板的矩形边框,从而确定矩形四个顶点的坐标,进一步得出太阳能矩形帆板在图像坐标系中的横、纵坐标范围,分别记为:x1~x2,y1~y2;
5.22)通过霍夫变换提取太阳能矩形帆板的n条直线,记为:{l1,l2,l3.....ln},这些直线的方程为:
其中,p1,p2…pn表示直线的斜率,q1,q2…qn表示直线的截距;
5.23)计算上述直线的交点,分别记为:{Qn+1,Qn+2,Qn+3.....Q2n};
5.3)判断上述交点是否在太阳能矩形帆板,将直线交点的坐标与步骤5.1)中的横纵坐标范围作比较,去除超出坐标范围的交点,剩余的交点与FAST特征点共同构成特征点集:{Q1,Q2,Q3.....Qn.....},特征点集的坐标记为{(ul1,vl1),(ul2,vl2)…};
步骤六、根据特征点集进行双目立体匹配;
6.1)为了提高测量方法的速度和精度,本发明使用极线约束与NCC相结合的匹配方法。将NCC与极线约束相结合,可以将匹配点的搜索范围将整个二维平面缩小至对应的极线上,从而提高了匹配算法的速度,也在一定程度上减少误匹配率。极线约束关系如下式:
pr TFpl=0
其中,pl是左图特征点,pr是右图特征点,F是基础矩阵,根据左图特征点的坐标和基础矩阵,即可求出右图特征点的坐标,记为{(ur1,vr1),(ur2,vr2)…};
6.2)灰度互相关系数匹配方法先计算左图中特征点邻域窗与右图中特征点邻域窗内灰度值的互相关系数(Cross Correlation Coefficient,cc),灰度互相关系数的定义如下式所示:
其中,w是相关窗口的大小,Il(x,y)是左图邻域窗内特征点的灰度值,Ir(x,y)是右图邻域窗内特征点的灰度值;
6.3)为了降低对光照的敏感程度,对灰度互相关系数进行归一化处理,归一化后的方程为:
6.4)根据NCC匹配算法,选取相关系数最大值对应的特征点作为特征点的匹配点;
步骤七、求解目标的三维坐标和姿态角;
由于霍夫变换获取的部分特征点,偏离其余特征点比较严重,会对测量结果造成较大的误差,需要将这部分特征点舍去。因此,本发明使用PCA方法对特征点的匹配点进行筛选,进一步求解出非合作目标的位姿。
根据PCA原理,对左图和右图中的特征点进行筛选,去除偏离程度比较大的特征点。若已知左右相机的焦距fl、fr,左图特征点的图像坐标(ul,vl),右图特征点的坐标(ur,vr),可由下式求出特征点在真实空间的三维坐标:
其中,(Xw,Yw,Zw)为特征点在真实空间的三维坐标,M为空间转换矩阵,tx、tz、r1、r2、r3、r7、r8、r9为空间转换矩阵中的元素。
Claims (6)
1.一种基于特征点集的双目非合作目标位姿测量方法,其特征在于,包括以下步骤:
步骤一、对双目相机进行标定,并获取双目相机的内参数、外参数与畸变系数,同时获取真实空间的三维坐标系与相机坐标系的空间转换矩阵;
步骤二、固定标定好的双目相机,双目相机对非合作目标进行拍摄,获取双目图像,双目图像包括左图和右图;
步骤三、对步骤二获取的双目图像进行预处理,减少噪声和光照对图像的影响;
步骤四、根据畸变模型,对双目图像进行畸变矫正;
步骤五、提取特征点集;
5.1)提取双目图像的FAST特征点;
5.2)根据霍夫变换提取非合作目标上的直线特征,并求取直线的交点;
5.21)计算非合作目标上四个顶点的图像坐标,进一步得出四个顶点在图像坐标系中的横、纵坐标范围,分别记为:x1~x2,y1~y2;
5.22)通过霍夫变换提取非合作目标上的n条直线,记为:{l1,l2,l3.....ln};
5.23)计算步骤5.22)中各直线的交点,分别记为:{Qn+1,Qn+2,Qn+3.....Q2n};
5.3)判断步骤5.23)中的交点是否在非合作目标上,将直线交点的坐标与步骤5.21)中的横纵坐标范围进行比较,去除超出坐标范围的交点,剩余的交点与FAST特征点共同构成特征点集:{Q1,Q2,Q3.....Qn.....};
步骤六、根据特征点集进行双目立体匹配;
6.1)根据极线约束关系获取左图特征点的坐标和右图特征点的坐标;
6.2)计算左图中特征点邻域窗与右图中特征点邻域窗内灰度值的互相关系数;
6.3)对灰度值的互相关系数进行归一化处理;
6.4)根据NCC匹配算法,选取互相关系数最大值对应的特征点作为特征点的匹配点;
步骤七、求解非合作目标的三维坐标和姿态角;
使用PCA方法对特征点的匹配点进行筛选,进一步求解出非合作目标的位姿;
已知双目相机中左右相机的焦距分别为fl、fr,左图特征点的坐标(ul,vl)和右图特征点的坐标(ur,vr),由下式求出特征点在真实空间的三维坐标;
其中,(Xw,Yw,Zw)为特征点在真实空间的三维坐标,M为空间转换矩阵,tx、tz、r1、r2、r3、r7、r8、r9为空间转换矩阵中的元素。
2.根据权利要求1所述的基于特征点集的双目非合作目标位姿测量方法,其特征在于:步骤三中,预处理具体包括以下过程:
首先,采用小波变换去除图像噪声;
其次,通过直方图均衡化处理光照不平衡的问题;
最后,对图像进行锐化。
3.根据权利要求2所述的基于特征点集的双目非合作目标位姿测量方法,其特征在于:步骤一中,采用棋盘格对双目相机进行标定。
4.根据权利要求1或2或3所述的基于特征点集的双目非合作目标位姿测量方法,其特征在于:步骤四中,采用径向畸变模型对双目图像进行畸变矫正。
5.根据权利要求4所述的基于特征点集的双目非合作目标位姿测量方法,其特征在于:步骤5.21)中,计算非合作目标上四个顶点的图像坐标具体为:计算太阳能矩形帆板的四个顶点图像坐标,进一步得出太阳能矩形帆板四个顶点在图像坐标系中的横、纵坐标范围;步骤5.22)中,通过霍夫变换提取太阳能矩形帆的n条直线。
6.根据权利要求5所述的基于特征点集的双目非合作目标位姿测量方法,其特征在于:步骤5.1)具体包括以下过程:
5.11)计算图像中心像素点q与像素点1和像素点9的灰度值差值,取绝对值得到Δtq1和Δtq9;若Δtq1和Δtq9均大于Δt,则继续执行下一步,若不满足,则将此点舍弃;
5.12)计算中心像素点q与像素点5和像素点13的灰度值差值,取绝对值得到Δtq5和Δtq13;在Δtq1、Δtq9、Δtq5和Δtq13中,如果至少有三个值大于Δt,则q点为候选特征点;否则,将q点舍弃;
5.13)重复步骤5.11)和步骤5.12),直至遍历完图像中所有点,选出候选特征点;
5.14)采用极大值抑制法对所有的候选特征点再次筛选,得到真实的FAST特征点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110819766.2A CN113592953B (zh) | 2021-07-20 | 2021-07-20 | 一种基于特征点集的双目非合作目标位姿测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110819766.2A CN113592953B (zh) | 2021-07-20 | 2021-07-20 | 一种基于特征点集的双目非合作目标位姿测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113592953A true CN113592953A (zh) | 2021-11-02 |
CN113592953B CN113592953B (zh) | 2023-05-02 |
Family
ID=78248431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110819766.2A Active CN113592953B (zh) | 2021-07-20 | 2021-07-20 | 一种基于特征点集的双目非合作目标位姿测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592953B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116026342A (zh) * | 2023-03-29 | 2023-04-28 | 中国科学院西安光学精密机械研究所 | 一种基于集群弹性分散的空间目标位姿测量方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033972A (zh) * | 2007-02-06 | 2007-09-12 | 华中科技大学 | 一种空间非合作物体三维信息的获取方法 |
CN105513056A (zh) * | 2015-11-30 | 2016-04-20 | 天津津航技术物理研究所 | 车载单目红外相机外参自动标定方法 |
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉系统及深度测量方法 |
CN109146963A (zh) * | 2017-06-13 | 2019-01-04 | 南京鑫和汇通电子科技有限公司 | 一种基于快速特征匹配的图像位置偏移检测方法 |
CN110068321A (zh) * | 2019-03-27 | 2019-07-30 | 清华大学 | 定点降落标志的uav相对位姿估计方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN111536981A (zh) * | 2020-04-23 | 2020-08-14 | 中国科学院上海技术物理研究所 | 一种嵌入式的双目非合作目标相对位姿测量方法 |
CN111833385A (zh) * | 2020-07-20 | 2020-10-27 | 山东科技大学 | 一种视觉技术用智能检测装置成像系统及成像方法 |
-
2021
- 2021-07-20 CN CN202110819766.2A patent/CN113592953B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033972A (zh) * | 2007-02-06 | 2007-09-12 | 华中科技大学 | 一种空间非合作物体三维信息的获取方法 |
CN105513056A (zh) * | 2015-11-30 | 2016-04-20 | 天津津航技术物理研究所 | 车载单目红外相机外参自动标定方法 |
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉系统及深度测量方法 |
CN109146963A (zh) * | 2017-06-13 | 2019-01-04 | 南京鑫和汇通电子科技有限公司 | 一种基于快速特征匹配的图像位置偏移检测方法 |
CN110068321A (zh) * | 2019-03-27 | 2019-07-30 | 清华大学 | 定点降落标志的uav相对位姿估计方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN111536981A (zh) * | 2020-04-23 | 2020-08-14 | 中国科学院上海技术物理研究所 | 一种嵌入式的双目非合作目标相对位姿测量方法 |
CN111833385A (zh) * | 2020-07-20 | 2020-10-27 | 山东科技大学 | 一种视觉技术用智能检测装置成像系统及成像方法 |
Non-Patent Citations (5)
Title |
---|
DENG, GANLU 等: "Double lane line edge detection method based on constraint conditions hough transform", 《DISTRIBUTED COMPUTING AND APPLICATIONS FOR BUSINESS ENGINEERING AND SCIENCE》 * |
FU QIANG SHAN 等: "Research on 3D Pose Measurement Algorithm Based on Binocular Vision", 《JOURNAL OF PHYSICS: CONFERENCE SERIES》 * |
吴斌等: "非合作目标姿态测量的嵌入式算法", 《光学精密工程》 * |
林婷婷等: "非合作目标视觉位姿测量与地面验证方法", 《大连交通大学学报》 * |
王珂等: "基于折光鱼眼全景相机的双目立体视觉标定", 《中国科技论文》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116026342A (zh) * | 2023-03-29 | 2023-04-28 | 中国科学院西安光学精密机械研究所 | 一种基于集群弹性分散的空间目标位姿测量方法 |
CN116026342B (zh) * | 2023-03-29 | 2023-08-18 | 中国科学院西安光学精密机械研究所 | 一种基于集群弹性分散的空间目标位姿测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113592953B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
CN104981105B (zh) | 一种快速精确获得元件中心和偏转角度的检测及纠偏方法 | |
CN106709950B (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
CN112819772B (zh) | 一种高精度快速图形检测识别方法 | |
CN109615654B (zh) | 基于双目视觉的排水管道内表面腐蚀深度及面积测量方法 | |
CN109470149B (zh) | 一种管路位姿的测量方法及装置 | |
CN112017223B (zh) | 基于改进SIFT-Delaunay的异源图像配准方法 | |
CN108647580B (zh) | 基于改进sift引导isar图像特征点提取匹配方法 | |
CN113470090A (zh) | 基于sift-shot特征的多固态激光雷达外参标定方法 | |
CN102938147A (zh) | 一种基于快速鲁棒特征的低空无人机视觉定位方法 | |
CN111667470B (zh) | 一种基于数字图像的工业管道探伤内壁检测方法 | |
CN109359604B (zh) | 面向巡检机器人的阴影干扰下仪表识别方法 | |
CN112241964B (zh) | 一种用于线结构光非接触测量的光条中心提取方法 | |
CN110807815A (zh) | 基于两组相互正交平行线对应消失点的快速水下标定方法 | |
CN113887624A (zh) | 一种基于双目视觉的改进特征立体匹配方法 | |
CN115597512A (zh) | 一种汽车间隙测量及误差矫正方法 | |
CN111145198A (zh) | 一种基于快速角点检测的非合作目标运动估计方法 | |
CN109671084B (zh) | 一种工件形状的测量方法 | |
CN113781413B (zh) | 一种基于Hough梯度法的电解电容定位方法 | |
CN111354047B (zh) | 一种基于计算机视觉的摄像模组定位方法及系统 | |
CN113587904B (zh) | 一种融合机器视觉和激光参照点信息的目标位姿测量方法 | |
CN113592953B (zh) | 一种基于特征点集的双目非合作目标位姿测量方法 | |
CN110738693A (zh) | 一种地基成像雷达多角度图像配准方法 | |
CN111524193B (zh) | 一种物体二维尺寸的测量方法及测量装置 | |
CN113223074A (zh) | 一种水下激光条纹中心提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |