CN103337066B - 3d获取系统的校准方法 - Google Patents
3d获取系统的校准方法 Download PDFInfo
- Publication number
- CN103337066B CN103337066B CN201310201810.9A CN201310201810A CN103337066B CN 103337066 B CN103337066 B CN 103337066B CN 201310201810 A CN201310201810 A CN 201310201810A CN 103337066 B CN103337066 B CN 103337066B
- Authority
- CN
- China
- Prior art keywords
- attitude
- sensor
- caliberator
- information
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 8
- 230000009466 transformation Effects 0.000 claims description 11
- 239000000203 mixture Substances 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000001953 sensory effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 239000002390 adhesive tape Substances 0.000 description 2
- 238000000137 annealing Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000009940 knitting Methods 0.000 description 2
- 210000002268 wool Anatomy 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- DMBHHRLKUKUOEG-UHFFFAOYSA-N diphenylamine Chemical compound C=1C=CC=CC=1NC1=CC=CC=C1 DMBHHRLKUKUOEG-UHFFFAOYSA-N 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种用于3D获取系统的校准方法,涉及系统校准领域,所述方法包括:A、沿不同路径对校准物进行多次采集,记录每次采集的深度信息、图像信息以及位置信息和姿态信息;B、通过校准校准物在本地坐标系下的三维坐标,得到校准后的深度传感器和位置姿态传感器之间的外参数,以及校准物的准确三维坐标;C、通过校准校准物的准确三维坐标在图像信息中的二维坐标和图像信息中的校准物的平面坐标,得到校准后的图像传感器和位置姿态传感器的外参数。本发明通过一次校准过程同时校准深度传感器和位置姿态传感器之间的外参数以及图像传感器和位置姿态传感器之间的外参数,达到校准所述3D获取系统的目的。
Description
技术领域
本发明涉及系统校准领域,尤其涉及一种用于3D获取系统的校准方法。
背景技术
3D获取系统能够方便、快捷、高精度的测量周围环境的三维点云信息和图像信息。通过采集得到的三维点云信息和图像信息,能够建立周围环境的3D彩色模型。得到的3D彩色模型具有广泛的应用范围,如制作普通地图、3D地图、测量测绘和城市管理等。其中大部分的应用都要求相当的精度,而所述3D获取系统主要由深度传感器、图像传感器和位置姿态传感器组成,因此也就要求所述的由深度传感器,图像传感器和位置姿态传感器组成的系统要有相当的精度。由深度传感器,图像传感器和位置姿态传感器组成的系统的精度不仅与各个传感器自身的精度有关,也与各个传感器之间的外参数的精度有关。各个传感器的精度由制造厂商控制,用户无法改变,只能选择不同规格的传感器,但是深度传感器,图像传感器和位置姿态传感器之间的外参数精度能够通过校准提高,从而提高测量的精度。
如果把深度传感器和位置姿态传感器,以及图像传感器和位置姿态传感器分开校准,不仅速度慢、效率低、不方便,而且图像传感器采集的图像信息并不能和深度传感器采集的深度信息恢复出来的点云信息很好的匹配上,因此在一次校准过程中同时校准深度传感器、图像传感器和位置姿态传感器之间的外参数是很有优势的。
在同时校准深度传感器、图像传感器和位置姿态传感器之间的外参数的过程中,由于深度传感器的分辨率有限,每次深度传感器采集恢复出的校准物的点云信息基本都不可能含有相同的点,如果直接用这些不同的点去校准,则校准精度无法保证;同时,由于深度传感器的分辨率有限,深度传感器采集恢复出的校准物的点云信息也不能很好的和图像传感器采集到的校准物的图像信息准确对应起来,因此,本发明提供了一种用于校准深度传感器、图像传感器和位置姿态传感器之间的外参数的方法,用来克服以上难题,达到快速、方便、准确的校准深度传感器、图像传感器和位置姿态传感器之间的外参数的目的。
发明内容
(一)要解决的技术问题
本发明的目的是提供一种快速、方便、准确的3D获取系统的校准方法,提高由深度传感器获取的深度信息与由图像传感器获取的图像信息之间的匹配度,同时提高3D获取系统的测量精度。
(二)技术方案
为解决上述技术问题,本发明提供了一种3D获取系统的校准方法,该方法包括以下步骤:
A、沿不同路径对校准物进行多次采集,记录每次采集的深度信息、图像信息以及位置信息和姿态信息;
B、通过校准校准物的三维坐标,得到校准后的深度传感器和位置姿态传感器之间的外参数,以及校准物的准确三维坐标(xl,yl,zl);
C、通过校准校准物的准确三维坐标(xl,yl,zl)在图像信息中的二维坐标(rlj,clj)和图像信息中的校准物的平面坐标(rcj,ccj),得到校准后的图像传感器和位置姿态传感器的外参数;
所述深度传感器和位置姿态传感器之间的外参数是指深度传感器和位置姿态传感器之间的相对位置和姿态;
所述图像传感器和位置姿态传感器之间的外参数是指图像传感器和位置姿态传感器之间的相对位置和姿态。
所述采集过程中每次采集记录一组深度传感器获取的校准物的深度信息,记录一张或者多张所述图像传感器获取的校准物的图像信息,记录一组所述位置姿态传感器输出的位置信息和姿态信息;共进行N次采集,其中N大于等于2,N次采集一共记录N组所述深度信息,M张图像信息,其中M大于等于3,以及N组位置信息和姿态信息。
所述校准后的深度传感器和位置姿态传感器之间的外参数是通过执行以下步骤得到的:
B1、设定一个深度传感器和位置姿态传感器的外参数;
B2、根据上述设定的深度传感器和位置姿态传感器之间的外参数,融合第i次采集中深度传感器采集得到的深度信息以及位置姿态传感器采集到的位置信息和姿态信息,通过三维坐标变换得到三维点云信息,从三维点云信息中找出校准物的三维坐标(xli,yli,zli),其中1≤i≤N;
B3、重复步骤B2直到把上述N次采集的数据都处理完,得到N组校准物的三维坐标点;
B4、计算多次采集得到的几组校准物的三维坐标点是否落在一个最优范围内,如果是落在一个最优范围内则执行步骤B5;否则跳至B1,并修改上述设定的深度传感器和位置姿态传感器之间的外参数;
B5、使多次采集得到的几组校准物的三维坐标点都落在一个最优范围内的深度传感器和位置姿态传感器的外参数就是校准后的深度传感器和位置姿态传感器的外参数;
B6、通过平均值法计算校准物的准确三维坐标(xl,yl,zl);
所述位置姿态传感器输出的位置信息和姿态信息分别是被检测物的经度、维度和高度,以及俯仰角、横滚角和方向角。
上述步骤B4和B5所述最优范围是一个足够小的球体范围,使上述得到的多组三维坐标点都落在这个球体范围内;或者通过上述得到的多组三维坐标点的均方差,或者方差,或者其他类似的统计指标在搜索范围内为最小值来确定。
所述校准后的图像传感器和位置姿态传感器之间的外参数是通过执行以下步骤得到的:
C1、设定一个图像传感器和位置姿态传感器的外参数;
C2、从图像传感器采集到的第j张图像信息中找到校准物的平面坐标(rcj,ccj),其中1≤j≤M;
C3、从图像传感器坐标系xyzO中取出原点O,从x坐标轴、y坐标轴、z坐标轴中选取任意两个坐标轴,分别在上述选取的两个坐标轴上任意选取一个点;
根据所述设定的图形传感器与位置姿态传感器之间的外参数,通过三维坐标旋转变换和三维坐标平移变换,能够得到点O和上述选取的两个点在位置姿态传感器坐标系下的三维坐标;
找出图像传感器采集到该张图像信息时刻的位置姿态传感器采集的位置信息和姿态信息,并通过大地坐标变换,得到点O和上述选取的两个点在本地坐标下的三维坐标,通过所述点O和上述选取的两个点,在本地坐标系下恢复出图像传感器x坐标轴,y坐标轴和z坐标轴,以及图像传感器坐标系的原点O;
利用该图像传感器的小孔成像模型把步骤B得到的校准物的准确三维坐标通过投影变换变换到该图像传感器平面,即得到该校准物的准确三维坐标(xl,yl,zl)在该图像信息中的二维坐标(rlj,clj);
最后求差值
C4:重复步骤C2-C3,直到把M张图像信息都处理,并得到M组差值,分别为
C5:计算所有采集得到的M组差值是否落在一个最优范围内:如果落在一个最优范围内,则执行C6;如果未落在一个最优范围内,则跳至C1重新设定图像传感器和位置姿态传感器的外参数;
C6:使M组差值落在一个最优范围内的图像传感器和位置姿态传感器的外参数就是校准后的图像传感器和位置姿态传感器的外参数。
上述步骤C5和C6所述最优范围是一个足够小的圆形范围,能够使上述步骤得到的M组差值都落在这一圆形范围内;或者通过上述步骤得到的M组差值的均方差在搜索范围内为最小值来确定。
上述校准物由三个平板组成,至少两个上述平板的外表面有能够被图像传感器识别的特征直线;上述三个平板的外表面构成校准物的三个特征平面,所述三个特征平面两两不共面,并且所述特征直线的交点和所述特征平面的交点在空间上重合;
所述平板的外表面是指所述平板的能够被图像传感器扫描到的一面。
所述步骤B2具体包括:
B2.1、深度传感器扫描到的某一物体的三维坐标在深度传感器坐标系下为(xo2l,yo2l,zo2l),利用所述设定的深度传感器与位置姿态传感器之间的外参数,将这一坐标映射到位置姿态传感器坐标系下,得到(xo2G,yo2G,zo2G);
将(xo2G,yo2G,zo2G)与深度传感器扫描上述这一物体同一时刻的位置姿态传感器采集的位置信息和姿态信息结合,通过大地坐标变换得到这一物体在本地坐标系下的三维坐标(x,y,z);
深度坐标器采集到的全部物体在本地坐标系下的全部三维坐标,构成三维点云信息;
B2.2、从三维点云信息中找出校准物的三个特征平面,并分别用平面方程拟合所述三个特征平面的平面方程;
B2.3、求所述三个特征平面的平面方程的交点,把该交点作为校准物的三维坐标点(xli,yli,zli)。
优选地,所述平面方程拟合的方法是最小二乘法。
所述步骤C2提取图像信息中校准物的平面坐标的方法具体包括:
C2.1:在所述图像信息中,找到所述校准物的两条特征直线;
C2.2:用直线方程拟合所述两条特征直线,得到特征直线的直线方程;
C2.3:求出所述两条特征直线的交点,作为校准物的平面坐标。
优选地,所述直线方程拟合的方法是最小二乘法。
优选地,所述深度传感器是二维激光雷达;所述图像传感器是单色或者彩色或者红外的CMOS或者CCD图像传感器;所述位置姿态传感器是全球定位系统(GlobalPositioningSystem,GPS)、差分全球定位系统(DifferentialGlobalPositioningSystem,DGPS)、北斗卫星导航系统、格洛纳斯系统(GLONASS)、伽利略定位系统(Galileo)中的一种或者多种的组合与惯性测量单元(InertialMeasurementUnit,IMU)组成的组合导航系统。
(三)有益效果
本发明提出了一种3D获取系统的校准方法,通过一次校准过程同时校准深度传感器、图像传感器和位置姿态传感器之间的外参数,提高3D获取系统的精度,方法快速、方便、准确;同时能够提高图像传感器采集的图像信息和深度传感器采集的深度信息的匹配度;同时,通过一种校准物的设计和与之对应的校准方法,能够避免因为深度传感器的分辨率不够导致的校准精度不高的问题。
结合附图阅读本发明实施方式的详细描述后,本发明的其他特点和优点将变得更加清楚。
附图说明
图1是根据本发明的校准方法的示意流程图;
图2是图1所示方法中的步骤B的一种实施方式的示意流程图;
图3是图1所示方法中的步骤C的一种实施方式的示意流程图;
图4是本发明的实施例所述的校准物的两种结构示意图。
图5是图2中步骤B2的具体方法流程图;
图6是图3中步骤C2的具体方法流程图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
在实施例1中,深度传感器是二维激光雷达;图像传感器是彩色CMOS图像传感器或者彩色CCD图像传感器;位置姿态传感器是GPS与IMU组成的组合导航系统。
步骤A:用3D获取系统沿不同路径对校准物进行N(N≥2)次采集,即用放置在移动平台上的深度传感器,图像传感器和位置姿态传感器沿不同路径对校准物进行N(N≥2)次采集;每次采集记录一组所述深度传感器获取校准物的深度信息,记录一张或者多张所述图像传感器获取校准物的图像信息,记录一组所述位置姿态传感器输出的位置信息和姿态信息;N次采集一共记录N组所述深度信息,M(M≥N)张图像信息,以及N组位置信息和姿态信息;
步骤B:分别融合N次采集得到的深度信息、位置信息和姿态信息,通过校准校准物的三维坐标(xli,yli,zli)(1≤i≤N)来校准深度传感器和位置姿态传感器的外参数,并得到校准物的准确三维坐标(xl,yl,zl)。
所述的深度传感器和位置姿态传感器之间的外参数是指深度传感器和位置姿态传感器之间的相对位置和姿态,即深度传感器和位置姿态传感器的坐标原点之间的距离和对应坐标轴之间的夹角,用三个平移量 和三个角度值 表示;其中示深度传感器的坐标原点和位置姿态传感器的坐标系的x方向的偏移量,表示深度传感器的坐标原点和位置姿态传感器的坐标系的y方向的偏移量,表示深度传感器的坐标原点和位置姿态传感器的坐标系的z方向的偏移量,表示深度传感器的坐标轴在位置姿态传感器的坐标系下的俯仰角,表示深度传感器的坐标轴在位置姿态传感器的坐标系下的横滚角,表示深度传感器的坐标轴在位置姿态传感器的坐标系下的方向角。
步骤C:把校准物的准确三维坐标(xl,yl,zl),分别与N次采集得到的M张图像信息以及位置信息和姿态信息融合,并通过校准校准物的准确三维坐标在图像信息中的二维坐标(rlj,clj)和图像信息中的校准物的平面坐标(rcj,ccj)来校准图像传感器和位置姿态传感器的外参数。
所述的图像传感器和位置姿态传感器之间的外参数是指图像传感器和位置姿态传感器之间的相对位置和姿态,即图像传感器和位置姿态传感器的坐标原点之间的距离和对应坐标轴之间的夹角,用三个平移量 和三个角度值 表示;其中表示位置姿态传感器的坐标原点和图像姿态传感器的坐标系的x方向的偏移量,表示位置姿态传感器的坐标原点和图像传感器的坐标系的y方向的偏移量,表示位置姿态传感器的坐标原点和图像传感器的坐标系的z方向的偏移量,表示位置姿态传感器的坐标轴在图像传感器的坐标系下的俯仰角,表示位置姿态传感器的坐标轴在图像传感器的坐标系下的横滚角,表示位置姿态传感器的坐标轴在图像传感器的坐标系下的方向角。
至此,得到的所述的校准后的深度传感器和位置姿态传感器之间的外参数,和所述的校准后的图像传感器和位置姿态传感器之间的外参数既是所需的深度传感器,图像传感器和位置姿态传感器之间的外参数,即完成了3D获取系统的校准。
其中所述步骤B具体包括:
步骤B1:首先设定一个深度传感器和位置姿态传感器的外参数。
步骤B2:取出N次采集中的第i次(1≤i≤N)采集得到的深度信息。
所述深度信息是指深度传感器沿自身的XoZ平面扫描,返回的空间中一物体距离深度传感器的距离do2l和对应的角度do2l,因此在深度传感器坐标系下空间中某一物体的直角坐标为(xo2l,yo2l,zo2l)=(do2lcos(θo2l),0,do2lsin(θo2l)),通过所述设定的深度传感器和位置姿态传感器之间的外参数,并通过三维旋转变换和三维平移变换,能够得到所述空间中一物体在位置姿态传感器坐标系下的三维坐标(xo2G,yo2G,zo2G),再通过找出深度传感器采集到所述空间中一物体时刻的位置姿态传感器的位置信息和姿态信息,通过大地坐标变换,能够得到所述空间中一物体在本地坐标系下的三维坐标(x,y,z)。按照此步骤能够恢复出该次采集,深度传感器采集到的全部外界物体在本地坐标系下的三维坐标,所述所有的本地坐标系下的三维坐标也称为三维点云信息。从三维点云信息中找出校准物的三维坐标(xli,yli,zli)。
所述位置姿态传感器的位置信息和姿态信息分别是位置姿态传感器采集到的经度、维度和高度,以及俯仰角、横滚角和方向角。
子步骤B3:重复步骤B2,直到把N次采集都处理,并得到N组校准物的三维坐标点,分别为(xli,yli,zli)(1≤i≤N)。
步骤B4:计算N次采集得到的N组校准物的三维坐标点(xli,yli,zli)(1≤i≤N)是否落在一个最优范围内,如果是落在一个最优范围内,则执行子步骤B5,如果不是落在一个最优范围内,则跳至B1并通过一定的方法,如退火算法,或者遍历法,重新设定深度传感器和位置姿态传感器的外参数。
所述最优范围是N组校准物的三维坐标点(xli,yli,zli)(1≤i≤N)都落在一个足够小的球体范围内;或者N组校准物的三维坐标点(xli,yli,zli)(1≤i≤N)的均方差,或者方差,或者其他类似的统计指标在搜索范围内为最小值。
步骤B5:使N次采集得到的N组校准物的三维坐标点(xli,yli,zli)(1≤i≤N)落在一个最优范围内的深度传感器和位置姿态传感器的外参数就是校准后的深度传感器和位置姿态传感器的外参数;
步骤B6:使用该N组校准物的三维坐标点(xli,yli,zli)(1≤i≤N)通过平均值法,计算得到校准物的准确三维坐标(xl,yl,zl);其中
其中所述步骤B2具体包括:
B2.1:取出N次采集中的第i(1≤i≤N)次采集得到的深度信息。
所述深度信息是指深度传感器沿自身的XoZ平面扫描,返回的空间中一物体距离深度传感器的距离do2l和对应的角度θo2l,因此在深度传感器坐标系下空间中某一物体的直角坐标为(xo2l,yo2l,zo2l)=(do2lcos(θo2l),0,do2lsin(θo2l)),通过所述设定的深度传感器和位置姿态传感器之间的外参数,并通过三维旋转变换和三维平移变换,能够得到所述空间中一物体在位置姿态传感器坐标系下的三维坐标(xo2G,yo2G,zo2G),再通过找出深度传感器采集到所述空间中一物体时刻的位置姿态传感器的位置信息和姿态信息,通过大地坐标变换,能够得到所述空间中一物体在本地坐标系下的三维坐标(x,y,z)。按照此步骤能够恢复出该次采集,深度传感器采集到的全部外界物体在本地坐标系下的三维坐标,所述所有的本地坐标系下的三维坐标也称为三维点云信息。
所述位置姿态传感器的位置信息和姿态信息分别是位置姿态传感器采集到的经度、维度和高度,以及俯仰角、横滚角和方向角。
B2.2:所述校准物的示意图如图4中的(a)或者(b)所示,图中(a)和(b)均由三个平板1、2、3构成,图(a)的三个平板在空间中两两不相交,图(b)的三个平板在空间中相交,所述三个平板的外表面构成校准物的三个特征平面4、5、6,且其中两个特征平面5、6的对角线为能够被图像传感器分辨出来的特征直线7和8,且特征直线7和8(或其延长线)的交点与三个特征平面4、5、6(或其扩展平面)的交点在空间上重合(图(a)中虚线所示)。
所述构成校准物的三个平板可以是木板,塑料板,金属板或者纸板等外表面平整的薄板,所述特征直线是油墨线,或者喷涂的直线,或者用笔画的直线,或者拉直附着在平板外表面的毛线、丝线、胶带等能够被图像传感器识别的直线。
从三维点云信息中找出校准物的三个特征平面的点云信息,并分别用平面方程拟合所述三个特征平面的平面方程;拟合的方法包括最小二乘法。
B2.3:求出所述的三个特征平面的平面方程的交点,把该交点作为校准物的三维坐标点(xli,yli,zli)。
其中所述步骤C具体包括:
步骤C1:首先设定一个图像传感器和位置姿态传感器的外参数。
步骤C2:从图像传感器采集到的M张图像信息中的第j张(1≤j≤M)图像信息中找到校准物的平面坐标(rcj,ccj)。
步骤C3:从图像传感器坐标系xyzO中取出原点O,其三维坐标为从图像传感器坐标系的x坐标轴、y坐标轴、z坐标轴中选取任意两个坐标轴,假设选取图像传感器坐标系的x坐标轴和y坐标轴,从图像传感器坐标系的x坐标轴上取一点X,其三维坐标为从图像传感器坐标系的y坐标轴上取一点Y,其三维坐标为通过所述设定的图形传感器和位置姿态传感器之间的外参数,通过三维坐标旋转变换和三维坐标平移变换,可以得到原点点和点在位置姿态传感器坐标下的三维坐标,原点O变换为点X变换为点Y变换为再找出图像传感器采集到该张图像信息时刻的位置姿态传感器的位置信息和姿态信息,并通过大地坐标变换,得到点点和点在本地坐标下的三维坐标,原点O变换为(xo,yo,zo),点X变换为(xx,yx,zx),点Y变换为(xy,yy,zy);在本地坐标系下恢复出图像传感器坐标系的x坐标轴,y坐标轴和z坐标轴,和图像传感器坐标系的原点O,其中图像传感器坐标系的原点O在本地坐标系下的坐标为(xo,yo,zo),图像传感器坐标系的x坐标轴在本地坐标系下可表示为向量 图像传感器坐标系的y坐标轴在本地坐标系下可表示为向量 其中符号图像传感器坐标系的z坐标轴在本地坐标系下可表示为向量 能够用左手坐标系法则从 求出,在此例中,其中符号×表示向量间的叉乘;通过所述在本地坐标系下恢复出图像传感器坐标系的x坐标轴,y坐标轴和z坐标轴,以及图像传感器坐标系的原点O,并该图像传感器的小孔成像模型把校准物的准确三维坐标(xl,yl,zl)通过投影变换变换到该图像传感器平面,即得到该校准物的准确三维坐标((xl,yl,zl)在该图像信息中的二维坐标(rlj,clj),最后求差值
步骤C4:重复步骤C2-C3,直到把M张图像信息都处理,并得到M组差值,分别为
步骤C5:计算所有采集得到的M组差值是否落在一个最优范围内,如果是落在一个最优范围内,则执行C6,如果不是落在一个最优范围内,则跳至C1并通过一定的方法,如退火算法,或者遍历法,重新设定图像传感器和位置姿态传感器的外参数。
所述最优范围是M组差值都落在一个足够小的圆形的范围内;或者通过M组差值的均方差,或者方差,或者其他类似的统计指标在搜索范围内为最小值来确定。
步骤C6:使M组差值落在一个最优范围内的图像传感器和位置姿态传感器的外参数就是校准后的图像传感器和位置姿态传感器的外参数。
其中所述步骤C2具体包括:
C2.1:所述校准物的示意图如图4中的(a)或者(b)所示,图中(a)和(b)均由三个平板1、2、3构成,图(a)的三个平板在空间中两两不相交,图(b)的三个平板在空间中相交,所述三个平板的外表面构成校准物的三个特征平面4、5、6,且其中两个特征平面5、6的对角线为能够被图像传感器分辨出来的特征直线7和8,且特征直线7和8(或其延长线)的交点与三个特征平面4、5、6(或其扩展平面)的交点在空间上重合(图(a)中虚线所示)。
所述构成校准物的三个平板可以是木板,塑料板,金属板或者纸板等外表面平整的薄板,所述特征直线是油墨线或者拉直附着在平板外表面的毛线、丝线、胶带等能够被图像传感器识别的直线。
从图像传感器采集到的M张图像信息中的第j张(1≤j≤M)图像信息中找到所述两条特征直线。
C2.2:用直线方程拟合所述两条特征直线,得到特征直线的直线方程;所述直线方程拟合的方法包括最小二乘法。
C2.3:求出所述两条特征直线的直线方程的交点,作为校准物的平面坐标(rcj,ccj)。
在实施例2中,图像传感器是单色的CMOS图像传感器或者单色的CCD图像传感器。所述特征直线为单色的CMOS图像传感器或者单色的CCD图像传感器能够根据亮度信息从背景中区分出来的特征直线。
在实施例3中,图像传感器是红外的CMOS图像传感器或者红外的CCD图像传感器。所述特征直线为红外的CMOS图像传感器或者红外的CCD图像传感器能够根据红外亮度信息从背景中区分出来的特征直线。
在实施例4中,位置姿态传感器是全球定位系统(GlobalPositioningSystem,GPS)、差分全球定位系统(DifferentialGlobalPositioningSystem,DGPS)、北斗卫星导航系统、格洛纳斯系统(GLONASS)、伽利略定位系统(Galileo)中的一种或者多种的组合与惯性测量单元(InertialMeasurementUnit,IMU)组成的组合导航系统。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还能够做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
Claims (9)
1.一种3D获取系统的校准方法,其特征在于,该方法包括以下步骤:
A、沿不同路径对校准物进行多次采集,记录每次采集的深度信息、图像信息以及位置信息和姿态信息;
B、通过校准校准物的三维坐标,得到校准后的深度传感器和位置姿态传感器之间的外参数,以及校准物的准确三维坐标(xl,yl,zl);
C、通过校准校准物的准确三维坐标(xl,yl,zl)在图像信息中的二维坐标(rlj,clj)和图像信息中的校准物的平面坐标(rcj,ccj),得到校准后的图像传感器和位置姿态传感器的外参数;
所述深度传感器和位置姿态传感器之间的外参数是指深度传感器和位置姿态传感器之间的相对位置和姿态;
所述图像传感器和位置姿态传感器之间的外参数是指图像传感器和位置姿态传感器之间的相对位置和姿态;
所述校准后的图像传感器和位置姿态传感器之间的外参数是通过执行以下步骤得到的:
C1、设定一个图像传感器和位置姿态传感器的外参数;
C2、从图像传感器采集到的第j张图像信息中找到校准物的平面坐标(rcj,ccj),其中1≤j≤M;
C3、从图像传感器坐标系xyzO中取出原点O,从图像传感器坐标系的x坐标轴、y坐标轴、z坐标轴中选取任意两个坐标轴,分别在上述选取的两个坐标轴上任意选取一个点;
根据所述设定的图形传感器与位置姿态传感器之间的外参数,通过三维坐标旋转变换和三维坐标平移变换,能够得到原点O和上述选取的两个点在位置姿态传感器坐标系下的三维坐标;
找出图像传感器采集到该张图像信息时刻的位置姿态传感器采集的位置信息和姿态信息,并通过大地坐标变换,得到原点O和上述选取的两个点在本地坐标下的三维坐标,通过所述原点O和上述选取的两个点,在本地坐标系下恢复出图像传感器坐标系的x坐标轴,y坐标轴和z坐标轴,以及图像传感器坐标系的原点O;
根据所述在本地坐标系下恢复出图像传感器坐标系的x坐标轴,y坐标轴和z坐标轴,以及图像传感器坐标系的原点O,并利用该图像传感器的小孔成像模型把步骤B得到的校准物的准确三维坐标通过投影变换变换到该图像传感器平面,即得到该校准物的准确三维坐标(xl,yl,zl)在该图像信息中的二维坐标(rlj,clj);
最后求差值
C4:重复步骤C2-C3,直到把M张图像信息都处理,并得到M组差值,分别为
C5:计算所有采集得到的M组差值是否落在第一最优范围内:如果落在所述第一最优范围内,则执行C6;如果未落在所述第一最优范围内,则跳至C1重新设定图像传感器和位置姿态传感器的外参数;
C6:使M组差值落在所述第一最优范围内的图像传感器和位置姿态传感器的外参数就是校准后的图像传感器和位置姿态传感器的外参数;
所述第一最优范围是一个足够小的圆形范围,能够使上述步骤得到的M组差值都落在这一圆形范围内;或者通过上述步骤得到的M组差值的均方差,或者方差在搜索范围内为最小值来确定。
2.如权利要求1所述的方法,其特征在于,所述采集过程中每次采集记录一组深度传感器获取的校准物的深度信息,记录一张或者多张所述图像传感器获取的校准物的图像信息,记录一组所述位置姿态传感器输出的位置信息和姿态信息;共进行N次采集,其中N大于等于2,N次采集一共记录N组所述深度信息,M张图像信息,其中M大于等于3,以及N组位置信息和姿态信息。
3.如权利要求2所述的方法,其特征在于,所述校准后的深度传感器和位置姿态传感器之间的外参数是通过执行以下步骤得到的:
B1、设定一个深度传感器和位置姿态传感器的外参数;
B2、根据上述设定的深度传感器和位置姿态传感器之间的外参数,融合第i次采集中深度传感器采集得到的深度信息以及位置姿态传感器采集到的位置信息和姿态信息,通过三维坐标变换得到三维点云信息,从三维点云信息中找出校准物的三维坐标(xli,yli,zli),其中1≤i≤N;
B3、重复步骤B2直到把上述N次采集的数据都处理完,得到N组校准物的三维坐标点;
B4、计算多次采集得到的几组校准物的三维坐标点是否落在第二最优范围内,如果是落在所述第二最优范围内则执行步骤B5;否则跳至B1,并修改上述设定的深度传感器和位置姿态传感器之间的外参数;
B5、使多次采集得到的几组校准物的三维坐标点都落在所述第二最优范围内的深度传感器和位置姿态传感器的外参数就是校准后的深度传感器和位置姿态传感器的外参数;
B6、通过平均值法计算校准物的准确三维坐标(xl,yl,zl);
所述位置姿态传感器输出的位置信息和姿态信息分别是被检测物的经度、维度和高度,以及俯仰角、横滚角和方向角;
所述第二最优范围是一个足够小的球体范围,使上述得到的多组三维坐标点都落在这个球体范围内;或者通过上述得到的多组三维坐标点的均方差,或者方差在搜索范围内为最小值来确定。
4.如权利要求3所述的方法,其特征在于,所述校准物由三个平板组成,至少两个上述平板的外表面有能够被图像传感器识别的特征直线;上述三个平板的外表面构成校准物的三个特征平面,所述三个特征平面两两不共面,并且所述特征直线的交点和所述特征平面的交点在空间上重合;
所述平板的外表面是指所述平板的能够被图像传感器扫描到的一面。
5.如权利要求4所述的方法,其特征在于,所述步骤B2具体包括:
B2.1、深度传感器扫描到的某一物体的三维坐标在深度传感器坐标系下为(xo2l,yo2l,zo2l),利用所述设定的深度传感器与位置姿态传感器之间的外参数,将这一坐标映射到位置姿态传感器坐标系下,得到(xo2G,yo2G,zo2G);
将(xo2G,yo2G,zo2G)与深度传感器扫描上述这一物体同一时刻的位置姿态传感器采集的位置信息和姿态信息结合,通过大地坐标变换得到这一物体在本地坐标系下的三维坐标(x,y,z);
深度坐标器采集到的全部物体在本地坐标系下的全部三维坐标,构成三维点云信息;
B2.2、从三维点云信息中找出校准物的三个特征平面,并分别用平面方程拟合所述三个特征平面的平面方程;
B2.3、求所述三个特征平面的平面方程的交点,把该交点作为校准物的三维坐标点(xli,yli,zli)。
6.如权利要求5所述的方法,其特征在于,所述平面方程拟合的方法是最小二乘法。
7.如权利要求1所述的方法,其特征在于,所述步骤C2提取图像信息中校准物的平面坐标的方法具体包括:
C2.1:在所述图像信息中,找到所述校准物的两条特征直线;
C2.2:用直线方程拟合所述两条特征直线,得到特征直线的直线方程;
C2.3:求出所述两条特征直线的交点,作为校准物的平面坐标。
8.如权利要求7所述的方法,其特征在于,所述直线方程拟合的方法是最小二乘法。
9.如权利要求1所述的方法,其特征在于,所述深度传感器是二维激光雷达;
所述图像传感器是单色或者彩色或者红外的CMOS或者CCD图像传感器;
所述位置姿态传感器是全球定位系统、差分全球定位系统、北斗卫星导航系统、格洛纳斯系统、伽利略定位系统中的一种或者多种的组合与惯性测量单元组成的组合导航系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310201810.9A CN103337066B (zh) | 2013-05-27 | 2013-05-27 | 3d获取系统的校准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310201810.9A CN103337066B (zh) | 2013-05-27 | 2013-05-27 | 3d获取系统的校准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103337066A CN103337066A (zh) | 2013-10-02 |
CN103337066B true CN103337066B (zh) | 2016-05-18 |
Family
ID=49245214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310201810.9A Active CN103337066B (zh) | 2013-05-27 | 2013-05-27 | 3d获取系统的校准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103337066B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081967A1 (en) * | 2016-11-03 | 2018-05-11 | Intel Corporation | Real-time three-dimensional camera calibration |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102357B (zh) * | 2014-07-04 | 2017-12-19 | Tcl集团股份有限公司 | 一种虚拟场景中的3d模型检测方法及装置 |
CN104634249B (zh) * | 2015-02-06 | 2017-08-29 | 南京理工大学 | 推进剂加注过程中运载火箭运动信号探测定位方法 |
US10742961B2 (en) | 2015-09-02 | 2020-08-11 | Industrial Technology Research Institute | Depth sensing apparatus with self-calibration and self-calibration method thereof |
US10551226B2 (en) * | 2015-11-19 | 2020-02-04 | Jabil Inc. | System and method for scalable cloud-based sensor calibration |
CN105678076B (zh) * | 2016-01-07 | 2018-06-22 | 福州华鹰重工机械有限公司 | 点云测量数据质量评估优化的方法及装置 |
DE112016006213T5 (de) * | 2016-01-12 | 2018-10-18 | Mitsubishi Electric Corporation | System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen |
CN106996795B (zh) * | 2016-01-22 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 一种车载激光外参标定方法和装置 |
US9799111B2 (en) * | 2016-02-11 | 2017-10-24 | Symbol Technologies, Llc | Methods and systems for highlighting box surfaces and edges in mobile box dimensioning |
EP3236286B1 (en) * | 2016-04-18 | 2023-01-25 | Otis Elevator Company | Auto commissioning system and method |
CN106056664B (zh) * | 2016-05-23 | 2018-09-21 | 武汉盈力科技有限公司 | 一种基于惯性和深度视觉的实时三维场景重构系统及方法 |
CN106510071A (zh) * | 2016-12-31 | 2017-03-22 | 上海工程技术大学 | 一种智能测体装置 |
WO2018142582A1 (ja) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム |
CN107644121B (zh) * | 2017-08-18 | 2020-07-31 | 昆明理工大学 | 一种路面材料骨架结构的逆向三维重构与实体建模方法 |
CN107608541B (zh) * | 2017-10-17 | 2021-03-05 | 宁波视睿迪光电有限公司 | 三维姿态定位方法、装置及电子设备 |
CN111254066B (zh) * | 2018-12-03 | 2023-05-05 | 长春长光华大智造测序设备有限公司 | 一种成像调节装置和高通量基因测序仪 |
TWI706841B (zh) * | 2019-03-22 | 2020-10-11 | 達明機器人股份有限公司 | 3d相機與機械手臂座標系統的校正裝置及方法 |
CN110109143B (zh) * | 2019-04-30 | 2021-10-26 | 北京云迹科技有限公司 | 多线激光雷达与imu的位姿标定方法及装置 |
CN111862203B (zh) * | 2019-04-30 | 2024-05-17 | 高新兴科技集团股份有限公司 | 基于3d地图的球机位置与姿态参数校准方法、存储介质 |
CN110567486B (zh) * | 2019-08-15 | 2021-04-13 | 深圳市瑞立视多媒体科技有限公司 | 校准3d旋转差异的数学模型构建方法、校准方法及其装置 |
CN111273312B (zh) * | 2020-01-15 | 2023-04-07 | 吉林大学 | 一种智能车辆定位与回环检测方法 |
US11635313B2 (en) | 2020-04-14 | 2023-04-25 | Plusai, Inc. | System and method for simultaneously multiple sensor calibration and transformation matrix computation |
US11673567B2 (en) * | 2020-04-14 | 2023-06-13 | Plusai, Inc. | Integrated fiducial marker for simultaneously calibrating sensors of different types |
US11366233B2 (en) | 2020-04-14 | 2022-06-21 | Plusai, Inc. | System and method for GPS based automatic initiation of sensor calibration |
CN111975781B (zh) * | 2020-08-25 | 2021-10-26 | 北京华航唯实机器人科技股份有限公司 | 机器人修正方法及装置、机器人 |
GB2605621A (en) | 2021-04-07 | 2022-10-12 | Robok Ltd | Monocular depth estimation |
CN113052777A (zh) * | 2021-04-15 | 2021-06-29 | 环旭电子股份有限公司 | 物料盘的校正方法和校正系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US8866889B2 (en) * | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
CN102314682B (zh) * | 2011-07-11 | 2014-07-02 | 深圳超多维光电子有限公司 | 一种标定摄像头的方法、装置和系统 |
-
2013
- 2013-05-27 CN CN201310201810.9A patent/CN103337066B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081967A1 (en) * | 2016-11-03 | 2018-05-11 | Intel Corporation | Real-time three-dimensional camera calibration |
Also Published As
Publication number | Publication date |
---|---|
CN103337066A (zh) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103337066B (zh) | 3d获取系统的校准方法 | |
CN103674021B (zh) | 基于捷联惯导与星敏感器的组合导航系统及方法 | |
CN101532821B (zh) | 一种激光跟踪视觉导引测量系统的全局校准方法 | |
CN101718549B (zh) | 用于大比例尺航空数码摄影两外两内的测量方法 | |
CN103323855B (zh) | 一种基线动态测量系统的精度获取方法 | |
CN102162738B (zh) | 摄像头与惯性传感器组合定位定姿系统的标定方法 | |
CN107883870A (zh) | 基于双目视觉系统和激光跟踪仪测量系统的全局标定方法 | |
CN106871859B (zh) | 一种刚体空间定轴转动角度检测方法 | |
CN101539397B (zh) | 物体三维姿态的精密光学测量方法 | |
CN102509354B (zh) | 一种与影像同步变化的投影数字高程模型制作方法 | |
KR102075028B1 (ko) | 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법 | |
CN107728182A (zh) | 基于相机辅助的柔性多基线测量方法和装置 | |
CN106248014A (zh) | 一种基于单相片的三维坐标测量方法及装置 | |
CN108413988A (zh) | 机器人末端经纬仪坐标系快速标定方法 | |
CN100386647C (zh) | 基于pos的机载干涉sar系统及方法 | |
CN106290968B (zh) | 一种大空间稳态流场三维测量系统及测量方法 | |
CN108303043A (zh) | 多传感器信息融合的植物叶面积指数检测方法及系统 | |
CN103673881B (zh) | 一种单目视觉测量中光笔的现场快速标定方法 | |
CN111486864A (zh) | 基于立体正八边结构的多源传感器联合标定方法 | |
CN107063187A (zh) | 一种全站仪与无人机影像联合的树高快速提取方法 | |
CN102636081A (zh) | 一种基于视觉运动建模的传递对准方法及装置 | |
CN108151698A (zh) | 一种基于轴线相交法的天线旋转中心标校方法 | |
Liu et al. | A high-accuracy pose measurement system for robotic automated assembly in large-scale space | |
CN105261023B (zh) | 一种大气折射修正状态下目标重建方法 | |
CN100348947C (zh) | 基于weng模型的星敏感器在轨校准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |