CN113240749A - 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 - Google Patents

一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 Download PDF

Info

Publication number
CN113240749A
CN113240749A CN202110505028.0A CN202110505028A CN113240749A CN 113240749 A CN113240749 A CN 113240749A CN 202110505028 A CN202110505028 A CN 202110505028A CN 113240749 A CN113240749 A CN 113240749A
Authority
CN
China
Prior art keywords
camera
calibration
matrix
cameras
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110505028.0A
Other languages
English (en)
Other versions
CN113240749B (zh
Inventor
彭聪
程遥
王新华
沈冬
唐春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110505028.0A priority Critical patent/CN113240749B/zh
Publication of CN113240749A publication Critical patent/CN113240749A/zh
Application granted granted Critical
Publication of CN113240749B publication Critical patent/CN113240749B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种面向海上舰船平台无人机回收的远距离双目标定与测距方法,包括如下步骤:(1)左右相机内参标定;(2)双目系统外参标定;(3)三维坐标计算;(4)尺度因子计算。本发明提高了相机标定精度,适用于可能受到电磁等外部干扰的环境下进行目标回收任务。

Description

一种面向海上舰船平台无人机回收的远距离双目标定与测距 方法
技术领域
本发明涉及计算机视觉技术领域,尤其是一种面向海上舰船平台无人机回收的远距离双目标定与测距方法。
背景技术
目前无人机发射起飞技术相对成熟,但回收过程还面临着许多困难。在陆地上一般采用撞网回收或全地形回收方法,但这两种方式都不适合海上回收。主要原因在于目前的回收方式大多依赖雷达或卫星导航系统进行无人机位置计算与回收,在海上气候环境复杂,且这些精密仪器极易受到干扰而失效,对于舰船来说一旦回收失误,无人机很容易撞在导航系统、雷达系统等重要设施,造成严重损失和灾难性后果,因此需要一种抗干扰性强,精确度高的无人机位置计算方法进行海上舰船平台的无人机回收。
计算机视觉是一门利用相机获取目标的数据与信息,对目标进行识别、跟踪和测量的技术,已广泛应用于社会的各个领域。视觉测距作为计算机视觉的重要分支,可以有效解决传统测量方法中的诸多难题,是无人机回收、非接触式测量、视觉导航等领域的关键技术。利用相机获取目标在三维空间中的位置信息,需要基于相机成像模型构建目标表面像素点与目标在真实世界中三维坐标点的关系,因此相机参数标定至关重要,相机参数是否准确直接决定了视觉测距的精度。相机参数分为相机内参与相机外参,内参数是描述相机成像模型的相关参数,包括相机焦距、主点坐标、径向畸变系数和切向畸变系数,外参数主要描述相机的姿态和位置,包括旋转矩阵和平移矩阵。在视觉测距过程中,一般以目标表面像素点作为输入,使用基于三角测量和对极几何的位置解算方法,输出目标表面点的三维坐标。基于该原理准确测距所需要的最小相机数量为两台,因此视觉测距中常采用两台相机作为双目系统。在相机标定中,一般使用张正有标定法。该方法计算速度快,在近距离环境下标定结果较为准确。但在进行室外远距离标定时,相机镜头畸变更为明显,张正有标定法的标定误差随距离增大而增大,且在标定双目系统的外参数时,需要使用每台相机单独标定下的内外参数,单独标定的误差被二次放大,导致远距离标定结果不准确,使视觉测距精度急剧下降。因此需要一种远距离条件下,更高精度的标定方法。
发明内容
本发明所要解决的技术问题在于,提供一种面向海上舰船平台无人机回收的远距离双目标定与测距方法,提高了相机标定精度,适用于可能受到电磁等外部干扰的环境下进行目标回收任务。
为解决上述技术问题,本发明提供一种面向海上舰船平台无人机回收的远距离双目标定与测距方法,包括如下步骤:
(1)左右相机内参标定;
(2)双目系统外参标定;
(3)三维坐标计算;
(4)尺度因子计算。
优选的,步骤(1)中,左右相机内参标定具体为:以与两台相机相距100m远处为起点,手持棋盘格标定板前后走动约20m距离,与此同时控制棋盘格标定板在空间中做随机移动;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用张正有标定法初步估计每台相机的内参矩阵M1、每个对应位置处标定板的外参矩阵M2以及畸变系数;以角点的反向投影误差为优化目标优化相机内参数;棋盘格标定板的内外参标定过程表示为:
Figure BDA0003058026750000021
其中(XW,YW,ZW)是标定板上角点的世界坐标,(u,v)是角点在像素坐标系下的坐标,Zc是角点在相机坐标系下的Z轴坐标,fx,fy是相机焦距,x0,y0是相机主点坐标。
优选的,步骤(2)中,双目系统外参标定具体为:以与两台相机相距100m远处为起点,手持纹理图标定板前后走动约40m距离,与此同时控制纹理图标定板在空间中做随机移动,且拍摄的背景中尽量包含足够多的纹理;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用基于SIFT的特征点检测与匹配算法,提取左右相机拍摄图像中相互匹配的纹理特征点,通过获取大量的特征点坐标结合随机采样一致性算法,估计两台相机之间的基础矩阵F,再进一步求解双目系统外参数,即左右相机之间的旋转矩阵R和平移矩阵T;由特征点估计基础矩阵F的过程表示为:
Figure BDA0003058026750000022
其中p1=[u1 v1 1],p2=[u2 v2 1]T是一对匹配的特征点,基础矩阵F是一个三阶方阵,包含9个未知元素,此外上述公式中使用的是齐次坐标,齐次坐标在相差一个常数因子下是相等的,因此基础矩阵F只有8个未知元素,大于等于8对匹配点即可以求解基础矩阵F,且匹配点对越多,估计的基础矩阵F越接近真实值。
优选的,步骤(2)中,所拍摄背景中尽量包含足够多的纹理,背景纹理足够远且是静止的,从中提取的特征点与100m处在空间随机移动的纹理图标定板形成补充;若背景中不包含或只有极少量的纹理特征,额外使用一个1.2m*0.8m的纹理图标定板,在距离双目系统200m-400m处做空间随机移动,与第一块纹理图标定形成补充。
优选的,步骤(2)中,同一序号图像采集的时间差不大于0.01秒。
优选的,步骤(3)中,三维坐标计算具体为:利用左右相机内参及双目系统外参,计算目标在左相机坐标系下的三维坐标;计算过程如下:
Figure BDA0003058026750000031
其中Xl,Xr是目标点在左右相机像素坐标系中的坐标,x是目标点在世界坐标系中的坐标,s为尺度因子,Ml,Mr是左右相机的内参矩阵,Rl,Rr,Tl,Tr为左右相机关于选定世界坐标系的旋转和平移矩阵,一般将左相机的相机坐标系选做世界坐标系,则有:
Figure BDA0003058026750000032
其中I3×3为单位矩阵,O为零矩阵,R,T为步二中得到的右相机坐标系关于左相机坐标系的旋转和平移矩阵。
优选的,步骤(4)中,尺度因子计算具体为:以与两台相机相距100m远处为起点,手持棋盘格标定板前后走动约40m距离,与此同时控制棋盘格标定板在空间中做小范围随机移动;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用步骤(3)中方法计算棋盘格标定板各个角点的三维坐标,得到不同角点之间在世界坐标系中的距离,且已知这些角点在真实世界中的距离,由此可计算世界坐标系与真实世界位置之间的尺度因子s。
本发明的有益效果为:本发明利用双目系统拍摄在空间三个自由度随机挥舞标定板的动态过程,采集的数据包含了足够多的空间信息,提高了相机标定精度;利用非线性优化算法减小远距离环境下相机内参数计算过程所产生的误差,通过基于特征点提取和匹配计算基础矩阵F的方法计算双目系统外参数,该计算过程无需使用每个相机的外参数,避免了使用单一相机外参数计算过程中引入的误差,提高了标定精度;利用本发明进行海上无人机回收等任务时,无需任何外部设备辅助即可对目标位置进行精确估计,适用于可能受到电磁等外部干扰的环境下进行目标回收任务。
附图说明
图1为本发明的相机成像即坐标系选取模型示意图。
图2为本发明的棋盘格标定板示意图。
图3为本发明的纹理图标定板示意图。
具体实施方式
下面通过实例结合附图进一步说明本发明。
实例1:在相机标定前,打印棋盘格和纹理图标定板,如图2、图3所示,标定板采用大小为1.2m*0.8m硬质泡沫板,泡沫板必须有足够的硬度,这样在挥舞过程中标定板不会因为挥动的风阻力或是外部环境的影响而弯曲,若标定板发生弯曲会引入额外的误差,导致标定误差急剧增大,打印时应等比例放大棋盘格以确保其内部尺寸比例不变,每个黑白格仍是长宽相等的方格,且黑白格交接处的角点清晰可见。
首先架设两台相机组成的双目系统,通过调整三脚架高度确保两台相机的光心在同一水平线上,根据相机镜头和感受野大小的不同选择合适的相机间距,本例为10m,以确保两台相机视野交汇重叠的部分足够大。随后在100m处举起标定板保持静止,以此为参考调整相机参数,首先通过调整光圈控制拍摄亮度,使视野中的标定板亮度适中且无反光现象,在昏暗环境或天气下可适度调大光圈或增加曝光时间,需要注意增大曝光时间的同时会导致相机最大可拍摄帧率下降。调整好亮度后进行调焦和对焦,使视野中标定板清晰可见,锁定所有相机参数,由于相机具有一定的景深范围,因此前后移动时不会导致图像模糊不清。
具体标定过程如下:
(1)内参标定:手持棋盘格标定板,以与两台相机相距100m远处为起点,一边挥舞棋盘格标定板一边前后走动约20m距离,走动速度控制在1m/s左右,挥动棋盘格标定板时既要涵盖空间三个自由度方向的各个位置,又要保持随机挥动,应主动避免具有规律性的挥动。此外,应注意棋盘格标定板的所有角点必须始终在两台相机的视野范围内,拍下的图像中不能缺少任何一个角点;两台相机链接同步触发装置同时同帧率拍摄这一过程,拍摄帧率过高或拍摄时间太长会造成信息冗余,导致计算负担增大,拍摄帧率过低或拍摄时间太短则会因缺失位置信息而造成标定不准确,本例中拍摄帧率选取为20Hz,拍摄时长设置为40秒;随后,利用张正有标定法初步计算每台相机的内参矩阵M1、相机相对于每一帧位置处标定板的外参矩阵M2以及畸变系数,为了提高计算效率,一般不会使用拍摄的所有图像数据,而是以一定的步长对拍摄下的数据进行采样,本例中采样步长为3。棋盘格标定板的内外参标定过程表示为:
Figure BDA0003058026750000051
相机标定模型如图1所示,其中P(XW,YW,ZW)是标定板上角点的世界坐标,p(x,y)是角点在像素坐标系下的坐标,Zc是角点在相机坐标系下的Z轴坐标,fx,fy是相机焦距,x0,y0是相机主点坐标。
在远距离场景下,相机镜头畸变程度随距离而增大,利用张正有标定法计算标定结果时,由于畸变程度较大,计算得到的相机内外参数与相机的真实内外参数存在很大差异,因此需要对初步得到的相机内参进行非线性优化,该问题属于非线性最小二乘问题,可以使用Levenberg-Marquardt算法进行优化。利用畸变系数对每个位置下拍摄的图片进行畸变矫正,对畸变矫正后的图片进行角点检测得到角点像素坐标,通过初步得到的相机内外参和角点像素坐标计算角点三维坐标,并与角点真实世界坐标计算二范数得到反向投影误差作为优化目标,待优化目标如下:
Figure BDA0003058026750000052
其中X={M1,R3×3,T3×1}为待优化变量,M1为内参矩阵是相机的待优化参数,F为相机拍摄的总帧数,W为棋盘格标定板水平方向角点个数,H为棋盘格标定板垂直方向角点个数,XP为角点像素坐标投影回世界坐标系的坐标值,XW为角点的真实世界坐标,张正有标定法得到的内外参数M1,R3×3,T3×1可作为该优化过程的初始解,经过多次优化迭代后,得到优化后的左右相机内参数矩阵MlMr
(2)外参标定:以与两台相机相距100m远处为起点,手持纹理图标定板前后走动约40m距离,与此同时控制纹理图标定板在空间中做随机移动,与内参标定相比,该过程不要求标定板始终保持在两台相机视野范围内,因此挥舞的范围可以更大,随机性更强,但挥舞速度不能太快,受限于拍摄帧率的设置,标定板挥舞太快会导致拍摄下的数据存在模糊,从而降低数据的有效性。本例中选择包含足够多的纹理的背景,若实际应用场景的背景纹理较少,可以额外使用一个1.2m*0.8m的纹理图标定板,在距离双目系统200-400m处做空间三个自由度上的随机挥舞,在远距离上挥舞的纹理图标定板可以在一定程度上代替背景纹理的作用,在较远处的空间构成另一片特征点云,与第一块纹理图标定形成的特征点云互为补充,达到与纹理丰富背景相似的效果;两台相机拍摄这一过程方法同(1);利用基于SIFT的特征点检测与匹配算法,提取左右相机拍摄图像中相互匹配的纹理特征点,通过获取大量的特征点坐标结合随机采样一致性算法,估计两台相机之间的基础矩阵F,再利用基础矩阵F和两台相机内参矩阵MlMr求解双目系统外参数,即左右相机之间的旋转矩阵R和平移矩阵T。基础矩阵F的计算过程表示为:
Figure BDA0003058026750000061
其中p1=[u1 v1 1],p2=[u2 v2 1]是一对匹配的特征点,基础矩阵F是一个三阶方阵,包含9个未知元素,此外上述公式中使用的是齐次坐标,齐次坐标在相差一个常数因子下是相等的,因此基础矩阵F只有8个未知元素,大于等于8对匹配点即可以求解基础矩阵F,且匹配点对越多,估计的基础矩阵F越接近真实值。
使用RANSAC算法估计基础矩阵F,算法流程如下:每次循环随机抽取由2张图像中特征匹配得到的8个匹配点对,作为内点去估计F矩阵,然后用其估计结果,通过公式p1Fp2 T=0去校验剩余所有的匹配点对是否满足该基础矩阵F,如果该数值在设置的适应模型的阈值范围内,则这一组点对p1=[u1 v1 1],p2=[u2 v2 1]也可以算作内点,反之则为外点。具体来说,就是用其中一个像素坐标加上估计得到的F矩阵,去计算另一个像素坐标,并和匹配对的像素坐标比较,如果坐标误差在预设的误差范围内即可。反复重复以上过程,直到最后达到一定的内点率(内点占总样本的比例)跳出循环,得到基础矩阵F。
(3)尺度因子计算:以与两台相机相距100m远处为起点,手持棋盘格标定板前后走动约40m距离,与此同时控制棋盘格标定板在空间中做小范围随机移动;两台相机拍摄这一过程方法同(1);利用角点检测算法提取棋盘格角点像素坐标,并计算棋盘格标定板各个角点的三维坐标,计算过程表示为:
Figure BDA0003058026750000071
其中Xl,Xr是目标点在左右相机像素坐标系中的坐标,Ml,Mr是左右相机的内参矩阵,Rl,Rr,Tl,Tr为左右相机关于选定世界坐标系的旋转和平移矩阵,本例将左相机的相机坐标系选做世界坐标系,则有:
Figure BDA0003058026750000072
其中I3×3为单位矩阵,O为零矩阵,R,T为(2)中得到的右相机坐标系关于左相机坐标系的旋转和平移矩阵。
由此得到所有角点的三维坐标,计算不同角点在世界坐标系中的距离,并通过测量已知这些角点在真实世界中的距离,由此可计算世界坐标系与真实世界位置之间的尺度因子s,计算过程表示为:
Figure BDA0003058026750000073
其中F为相机拍摄的总帧数,N为可计算距离角点对总数,ΔdW为不同角点在真实世界中的距离,Δd为不同角点在世界坐标系中的距离。
双目系统标定完成,可对视野范围内的任意目标进行三维测距,或结合目标检测算法,对目标实时测距。
挥舞标定板过程描述:标定板在空间中做随机移动,该过程是动态过程,双目系统对该过程进行连续无间断的拍摄,以确保采集到的数据包含足够的空间信息。为减小标定误差,标定板在三维空间的运动在空间三个自由度上要有足够多的变化,且这种运动应该是无规律的,所有被检测的特征点都在标定板平面上,这种特征点分布非常集中,因此只有随机挥舞标定板,才能保证在拍摄时特征点覆盖了三维空间中足够多的位置;标定位置在相机坐标系三个轴所代表的方向中,距离原点越远,标定板在该方向的移动距离也应该越大,以确保将标定板的移动范围在相机坐标系三个轴的方向进行归一化后,还保留有足够的大小,这样将不同图像提取到的特征点建立三维点云,点云在相机坐标系中是以三维立体的方式存在,当特征点云在三维空间中覆盖了足够多的体积,由此估算出的基础矩阵F才较为准确,可以减小远距离标定带来的误差,一般而言相机标定的距离越远,特征点云所需要覆盖的空间体积越大。
外参拍摄过程背景选择说明:所述拍摄背景中要尽量包含足够多的纹理,背景纹理足够远且是静止的,从中提取的特征点可以与100m处在空间随机移动的纹理图标定板形成补充,从而更准确的估计基础矩阵F,使其可以使用的空间范围更大;若背景中不包含或只有极少量的纹理特征,可以额外使用一个1.2m*0.8m的纹理图标定板,在距离双目系统200-400m处做空间三个自由度上的随机挥舞,在远距离上挥舞的纹理图标定板可以在一定程度上代替背景纹理的作用,在较远处的空间构成另一片特征点云,与第一块纹理图标定形成的特征点云互为补充,达到与纹理丰富背景相似的效果。所述同时同帧率拍摄纹理图的移动过程,必须使用硬件触法装置或通过软件同时控制两台相机,对拍摄下的图片按照时间顺序以数字序号进行命名,确保两台相机拍摄下的同一序号的图像是在同一时间采集的,采集时间误差的大小直接影响双目系统外参矩阵的标定精度,一般而言,同一序号图像采集的时间差不大于0.01秒,若使用软件控制相机进行拍摄时间对准,则拍摄每一帧图片之前都进行一次拍摄时间对准,以确保不会产生拍摄时间误差的积累,影响图像的时序对准精度。

Claims (7)

1.一种面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,包括如下步骤:
(1)左右相机内参标定;
(2)双目系统外参标定;
(3)三维坐标计算;
(4)尺度因子计算。
2.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(1)中,左右相机内参标定具体为:以与两台相机相距100m远处为起点,手持棋盘格标定板前后走动约20m距离,与此同时控制棋盘格标定板在空间中做随机移动;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用张正有标定法初步估计每台相机的内参矩阵M1、每个对应位置处标定板的外参矩阵M2以及畸变系数;以角点的反向投影误差为优化目标优化相机内参数;棋盘格标定板的内外参标定过程表示为:
Figure FDA0003058026740000011
其中(XW,YW,ZW)是标定板上角点的世界坐标,(u,v)是角点在像素坐标系下的坐标,Zc是角点在相机坐标系下的Z轴坐标,fx,fy是相机焦距,x0,y0是相机主点坐标。
3.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(2)中,双目系统外参标定具体为:以与两台相机相距100m远处为起点,手持纹理图标定板前后走动约40m距离,与此同时控制纹理图标定板在空间中做随机移动,且拍摄的背景中尽量包含足够多的纹理;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用基于SIFT的特征点检测与匹配算法,提取左右相机拍摄图像中相互匹配的纹理特征点,通过获取大量的特征点坐标结合随机采样一致性算法,估计两台相机之间的基础矩阵F,再进一步求解双目系统外参数,即左右相机之间的旋转矩阵R和平移矩阵T;由特征点估计基础矩阵F的过程表示为:
Figure FDA0003058026740000012
其中p1=[u1 v1 1],p2=[u2 v2 1]T是一对匹配的特征点,基础矩阵F是一个三阶方阵,包含9个未知元素,此外上述公式中使用的是齐次坐标,齐次坐标在相差一个常数因子下是相等的,因此基础矩阵F只有8个未知元素,大于等于8对匹配点即求解基础矩阵F,且匹配点对越多,估计的基础矩阵F越接近真实值。
4.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(2)中,所拍摄背景中尽量包含足够多的纹理,背景纹理足够远且是静止的,从中提取的特征点与100m处在空间随机移动的纹理图标定板形成补充;若背景中不包含或只有极少量的纹理特征,额外使用一个1.2m*0.8m的纹理图标定板,在距离双目系统200m-400m处做空间随机移动,与第一块纹理图标定形成补充。
5.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(2)中,同一序号图像采集的时间差不大于0.01秒。
6.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(3)中,三维坐标计算具体为:利用左右相机内参及双目系统外参,计算目标在左相机坐标系下的三维坐标;计算过程如下:
Figure FDA0003058026740000021
其中Xl,Xr是目标点在左右相机像素坐标系中的坐标,x是目标点在世界坐标系中的坐标,s为尺度因子,Ml,Mr是左右相机的内参矩阵,Rl,Rr,Tl,Tr为左右相机关于选定世界坐标系的旋转和平移矩阵,一般将左相机的相机坐标系选做世界坐标系,则有:
Figure FDA0003058026740000022
其中I3×3为单位矩阵,O为零矩阵,R,T为步二中得到的右相机坐标系关于左相机坐标系的旋转和平移矩阵。
7.如权利要求1所述的面向海上舰船平台无人机回收的远距离双目标定与测距方法,其特征在于,步骤(4)中,尺度因子计算具体为:以与两台相机相距100m远处为起点,手持棋盘格标定板前后走动约40m距离,与此同时控制棋盘格标定板在空间中做小范围随机移动;两台相机利用同步触发装置同时同帧率拍摄这一过程;利用步骤(3)中方法计算棋盘格标定板各个角点的三维坐标,得到不同角点之间在世界坐标系中的距离,且已知这些角点在真实世界中的距离,由此计算世界坐标系与真实世界位置之间的尺度因子s。
CN202110505028.0A 2021-05-10 2021-05-10 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 Active CN113240749B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110505028.0A CN113240749B (zh) 2021-05-10 2021-05-10 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110505028.0A CN113240749B (zh) 2021-05-10 2021-05-10 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法

Publications (2)

Publication Number Publication Date
CN113240749A true CN113240749A (zh) 2021-08-10
CN113240749B CN113240749B (zh) 2024-03-29

Family

ID=77133205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110505028.0A Active CN113240749B (zh) 2021-05-10 2021-05-10 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法

Country Status (1)

Country Link
CN (1) CN113240749B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114279357A (zh) * 2021-12-23 2022-04-05 杭州电子科技大学 一种基于机器视觉的压铸件毛刺尺寸测量方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011160491A1 (zh) * 2010-06-23 2011-12-29 北京航空航天大学 一种基于摄像机坐标系位置自适应的显微视觉测量方法
CN108734744A (zh) * 2018-04-28 2018-11-02 国网山西省电力公司电力科学研究院 一种基于全站仪的远距离大视场双目标定方法
CN111044039A (zh) * 2019-12-25 2020-04-21 中航华东光电有限公司 基于imu的单目目标区域自适应高精度测距装置和方法
CN112634374A (zh) * 2020-12-18 2021-04-09 杭州海康威视数字技术股份有限公司 双目相机的立体标定方法、装置、系统及双目相机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011160491A1 (zh) * 2010-06-23 2011-12-29 北京航空航天大学 一种基于摄像机坐标系位置自适应的显微视觉测量方法
CN108734744A (zh) * 2018-04-28 2018-11-02 国网山西省电力公司电力科学研究院 一种基于全站仪的远距离大视场双目标定方法
CN111044039A (zh) * 2019-12-25 2020-04-21 中航华东光电有限公司 基于imu的单目目标区域自适应高精度测距装置和方法
CN112634374A (zh) * 2020-12-18 2021-04-09 杭州海康威视数字技术股份有限公司 双目相机的立体标定方法、装置、系统及双目相机

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
马朝阳;华云松;: "基于双目立体视觉的平面测距研究", 软件, no. 09, 15 September 2020 (2020-09-15), pages 202 - 205 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114279357A (zh) * 2021-12-23 2022-04-05 杭州电子科技大学 一种基于机器视觉的压铸件毛刺尺寸测量方法及系统
CN114279357B (zh) * 2021-12-23 2024-05-03 杭州电子科技大学 一种基于机器视觉的压铸件毛刺尺寸测量方法及系统

Also Published As

Publication number Publication date
CN113240749B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
CN106940704B (zh) 一种基于栅格地图的定位方法及装置
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN111563878B (zh) 一种空间目标定位方法
CN105976353A (zh) 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN114399554B (zh) 一种多相机系统的标定方法及系统
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、系统及应用
CN111899282B (zh) 基于双目摄像机标定的行人轨迹跟踪方法及装置
CN107560603B (zh) 一种无人机倾斜摄影测量系统及测量方法
CN108489398B (zh) 一种广角场景下激光加单目视觉测量三维坐标的方法
CN108629810B (zh) 双目相机的标定方法、装置及终端
CN105654547B (zh) 三维重建方法
CN113256698B (zh) 一种具有深度预测的单目3d重建方法
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN111768449B (zh) 一种双目视觉结合深度学习的物体抓取方法
CN108629829A (zh) 一种球幕相机与深度相机结合的三维建模方法和系统
CN112179357B (zh) 基于单目相机的平面运动目标视觉导航方法及系统
CN107038753B (zh) 立体视觉三维重建系统及方法
CN110375765B (zh) 基于直接法的视觉里程计方法、系统及存储介质
Chan et al. An improved method for fisheye camera calibration and distortion correction
CN115345942A (zh) 空间标定方法、装置、计算机设备和存储介质
CN111105467A (zh) 一种图像标定方法、装置及电子设备
CN113240749B (zh) 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法
CN111429571B (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN117197333A (zh) 基于多目视觉的空间目标重构与位姿估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant