CN112258590A - 一种基于激光的深度相机外参标定方法、设备及其存储介质 - Google Patents
一种基于激光的深度相机外参标定方法、设备及其存储介质 Download PDFInfo
- Publication number
- CN112258590A CN112258590A CN202011421039.2A CN202011421039A CN112258590A CN 112258590 A CN112258590 A CN 112258590A CN 202011421039 A CN202011421039 A CN 202011421039A CN 112258590 A CN112258590 A CN 112258590A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- plane
- coordinate system
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种对环境依赖小、快速实现标定外参的基于激光的深度相机外参标定方法、设备及其存储介质。本发明一种基于激光的深度相机外参标定方法,应用于安装深度相机和激光雷达的可移动平台,该方法包括:获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;获取激光坐标系和可移动平台坐标系的转换关系;基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于激光的深度相机外参标定方法、设备及其存储介质。
背景技术
随着机器视觉技术的发展,应用深度相机进行物体识别、行为识别、场景建模越来越多,与普通二维相机相比,深度相机可以通过该相机能检测出拍摄空间的景深距离。
在使用深度相机之前,需要对深度相机进行精准的外参标定。由于深度相机采集物体的深度信息,但无法采集得到普通二维相机标定用棋盘格,标定时需要采用特殊立体构型的参照对象进行标定,因而使得标定过程较为复杂。或者,采用基于读取特定标识作为参照对象进行深度相机外参的标定,并且需要沿着预设轨迹运动以采集图像,基于图像中的特定标识再作出计算,方法较为繁琐,耗时长,需要采用特定参照物,对场地有所要求,对环境依赖大。
发明内容
本发明针对上述现有产品存在的问题,提供一种对环境依赖小、可快速实现标定外参的基于激光的深度相机外参标定方法、设备及其存储介质。
本发明一种基于激光的深度相机外参标定方法,应用于安装深度相机和激光雷达的可移动平台,该方法包括:
获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;
获取激光坐标系和可移动平台坐标系的转换关系;
基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
作为优选,从所述的参照对象上至少可提取第一平面,所述的第一点云数据映射至所述的第一平面后为二维的映射点云数据;所述的第二点云数据为处于第二平面的二维数据;所述的映射点云数据与所述的第二点云数据匹配计算。
作为优选,所述的第一平面与所述的第二平面平行。
作为优选,所述的基于所述的第一点云数据和第二点云数据进行匹配计算,包括如下步骤:将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
将所述的第一点云数据映射至第一平面,得到映射点云数据;基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
作为优选,所述的参照对象至少包括相交于一条线的二个平面;或者,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线。
作为优选,所述的参照对象至少包括相交于一条线的二个平面时,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:
选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面;
提取所述的第二平面和第三平面的法向量,基于所述的第二平面和第三平面的法向量,提取所述的第一平面。
作为优选,选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面,包括如下步骤:选取邻近所述的二个平面的一个平面的第一点云数据并拟合为第二拟合平面,直至选取的每个所述的第一点云数据与所述的第二拟合平面的距离小于预设第二阈值,获得所述的第二拟合平面为所述第二平面;从所述的第一点云数据选取第二个平面的数据,并拟合为第三拟合平面,直至选取的每个所述的第一点云数据与所述的第三拟合平面的距离小于预设第三阈值,获得所述的第三拟合平面为所述第三平面。
作为优选,从所述的第一点云数据选取所述的曲面的数据,并拟合为曲面,直至选取的每个所述的第一点云数据与所述的曲面方程的距离小于预设第二阈值,获得拟合曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
作为优选,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线时,所述的将所述的第一点云数据进行拟合,提取得到第一平面,包括如下步骤:选取邻近所述的曲面的第一点云数据,并拟合为曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
作为优选,所述参照对象至少包括一个平面,以及与所述的平面相交的一个曲面,所述的曲面的导线为直线且相交于所述的平面;或者,所述参照对象至少包括相交于一点的三个平面。
作为优选,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面。
作为优选,所述的选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面,包括如下步骤,选取邻近所述的一个平面的第一点云数据,并拟合为第一拟合平面,直至选取的每个所述的第一点云数据与所述的第一拟合平面的距离小于预设第一阈值,获得所述的拟合平面为所述第一平面。
作为优选,所述的基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系,包括如下步骤:
将所述的映射点云数据拟合为第一拟合线条,筛选与所述的第一拟合线条的距离小于预设第三阈值的映射点云数据;
基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,得到筛选后的第二点云数据;
利用筛选后的第二点云数据获得参照对象坐标系和激光雷达坐标系之间的转换关系。
作为优选,所述的基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,包括如下步骤:在第二点云数据中寻找筛选后的映射点云数据的最邻近点,记为第二点集;通过旋转和平移变换将筛选后的映射点云数据与第二点集统一到同一参考坐标系下,并计算筛选后的映射点云数据中的每个点与对应的第二点集中的点之间的偏差的平均值;直至当所述的平均值处于预设范围内时,所述的第二点集为筛选后的第二点云数据。
本发明涉及一种基于激光的深度相机外参标定方法的设备,包括:深度相机模组、激光雷达模组和处理器;所述的深度相机模组用于获取深度相机对参照对象采集的深度图像;所述的激光雷达模组用于获取激光雷达对参照对象采集的第二点云数据;所述处理器用于:获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;获取激光坐标系和可移动平台坐标系的转换关系;基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
作为优选,所述处理器将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
所述处理器将所述的第一点云数据映射至第一平面,得到映射点云数据;基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
所述处理器基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
本发明还涉及一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现所述的方法。
采用以上结构后,本发明与现有技术相比,具有以下优点:
本发明通过激光雷达和深度相机相互融合能够实现即时标定,与现有技术相比,无需沿着预设轨迹运动以采集图像,无需布置特定标识辅助来进行采集和计算,直接基于云到云的配准,快速精准,通过相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的关系,得到深度相机的多维度的外参。本发明以场景中常见的对象作为参照对象,对环境依赖小、快速实现标定外参。
附图说明
图1是本发明基于激光的深度相机外参标定方法的第一流程框图。
图2是本发明从参照对象上采集的第一点云数据和第二点云数据。
图3是本发明实施例一映射于第一平面的第一点云数据和第二点云数据。
图4是本发明实施例二映射于第一平面的第一点云数据和第二点云数据。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明实施例中所有方向性指示仅用于解释在某一特定姿态下各部件之间的相对位置关系,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
本发明用于对深度相机进行标定,以便获得准确的深度相机的参数。深度相机外参表示深度相机在可移动平台上安装的位置和方向,用以消除深度相机的安装误差,从数学角度而言,深度相机外参表征了深度相机坐标系与指定的可移动平台坐标系之间的坐标变换关系。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
如图1所示,本发明公开了一种基于激光的深度相机外参标定方法,应用于安装深度相机和激光雷达的可移动平台,该方法包括:
步骤S1,获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;
步骤S2,获取激光坐标系和可移动平台坐标系的转换关系;
步骤S3,基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
所述的参照对象,可以是存在于环境中的常见参照物作为参照对象,以常见参照物中的一个作为举例,在下述实施例中会以墙角作为参照对象予以说明,墙角是场景中非常常见的参照对象,并且对组合成墙角的墙面没有纹理、明暗、标记、凹凸程度的要求,对环境依赖小,最易获取,基于墙角可以实现快速标定。但并不把参照对象限定为墙角。
所述的深度相机,可用于采集深度图像,所述的深度图像中包括参照对象上的多个平面或曲面上的第一点云数据,可以根据需求设置点密度。基于所述的深度相机建立相机坐标系。
所述的激光雷达,包括发射器和接收器,发射器发出一道激光打到墙上反射然后接收器接受,其原理为,根据发射和接收的时间差计算距离值。发射器和接收器连着一个电机, 点击转一圈就会有一系列距离,通过电机旋转角度及距离可以换算为一系列点,即所述的第二点云数据。作为优选,本方案可采用水平安装的2D激光雷达,本方案默认为,激光点云所在平面是和地面平行的。激光雷达和参照对象的距离越近,水平安装引起的误差越小。当然,本方案也可以采用3D激光雷达,但只取中间的水平激光束。采用静止扫描的方式时,可以得到相交于参照对象上的一个或多个水平面的一串点云,为第二点云数据。深度相机和激光雷达需要注意相互避免遮挡。基于所述的激光雷达建立激光坐标系。
所述的可移动平台,可以是无人机、自动驾驶车辆、辅助行驶装置、智能电动车、搬运车、移动作业机器人等。所述的可移动平台上安装激光雷达和深度相机,所述的激光雷达和深度相机之间的安装固定。基于所述的可移动平台建立可移动平台坐标系。
本发明以激光雷达作为换算的桥梁,基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系,也就是深度相机的外参。
作为优选,作为优选,从所述的参照对象上至少可提取第一平面,所述的第一点云数据映射至所述的第一平面后为二维的映射点云数据;所述的第二点云数据为处于第二平面的二维数据;所述的映射点云数据与所述的第二点云数据匹配计算。
作为优选,所述的第一平面与所述的第二平面平行。
作为优选,若所述的相机坐标系与可移动平台坐标系的转换关系为五个自由度的转换关系:所述的参照对象至少包括相交于一条线的二个平面;或者,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线。可基于所述的两个平面或者一个曲面提取所述的第一平面。
作为优选,若所述的相机坐标系与可移动平台坐标系的转换关系为六个自由度的转换关系:所述参照对象至少包括一个平面,以及与所述的平面相交的一个曲面,所述的曲面的导线为直线且相交于所述的平面;或者,所述参照对象至少包括相交于一点的三个平面。可基于其中的一个平面提取所述的第一平面。
具体而言,所述的基于所述的第一点云数据和第二点云数据进行匹配计算,包括如下步骤:
步骤S101,将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
步骤S102,将所述的第一点云数据映射至第一平面,得到映射点云数据;基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
步骤S103,基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
实施例一
在本实施例中,所述的相机坐标系与可移动平台坐标系的转换关系为六个自由度的转换关系,所述参照对象至少包括相交于一点的三个平面。
如图2所示,在本实施例中,以墙角作为参照对象,包括相较于一点的三个平面。图中,第一点云数据以“+”表示,第二点云数据以“…”表示。
步骤S101中,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面。在本实施例中,获取深度相机采集的第一点云数据“+”,选取临近地面的第一点云数据。由于地面并非理想平面,存在不平整,为了提高精度,需要对选取的第一点云数据进行拟合,提取得到第一平面XOY。
更具体地,所述的选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面,包括如下步骤,选取邻近所述的一个平面的第一点云数据,并拟合为第一拟合平面,直至选取的每个所述的第一点云数据与所述的第一拟合平面的距离小于预设第一阈值,获得所述的拟合平面为所述第一平面。以此得到的第一平面更加接近于理想的第一平面,由此得到的最终深度相机外参的结果将更加精准。
再根据所述的第一平面XOY,计算第一平面的法向量,即Z轴。此时基于参照对象建立了完整的O-XYZ坐标系,即参照对象坐标系。基于深度图像建立图像坐标系,得到所述参照对象在所述深度图像坐标系和所述参照对象坐标系上的坐标,并结合深度相机的内参和畸变系数,通过位姿估计方法计算得到所述的参照对象坐标系和深度相机坐标系之间的转换关系。
步骤S102中,将所述的第一点云数据映射至第一平面,得到映射点云数据,在本实施例中,将墙面上所有的所述的第一点云数据的Z轴坐标处理为0,即映射至第一平面XOY,得到Z轴坐标为0的所述的第一点云数据,也就是映射点云数据。
步骤S102中,所述的基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系,包括如下步骤:将所述的映射点云数据拟合为第一拟合线条,筛选与所述的第一拟合线条的距离小于预设第三阈值的映射点云数据;基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,得到筛选后的第二点云数据;利用筛选后的第二点云数据获得参照对象坐标系和激光雷达坐标系之间的转换关系。
即如图2所示,将所述的映射在第一平面XOY上的第一点云数据拟合为第一拟合线条,第一拟合线条接近于X轴和Y轴,筛选与所述的第一拟合线条的距离小于预设第三阈值的映射点云数据。如图3所示,基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,得到筛选后的第二点云数据;筛选第二点云数据,有益于提高最后的精度。利用筛选后的第二点云数据获得参照对象坐标系和激光雷达坐标系之间的转换关系。
所述的基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,可以利用现有的若干种匹配算法,作为优选,采用IPC算法,方法如下:在第二点云数据中寻找筛选后的映射点云数据的最邻近点,记为第二点集;通过旋转和平移变换将筛选后的映射点云数据与第二点集统一到同一参考坐标系下,并计算筛选后的映射点云数据中的每个点与对应的第二点集中的点之间的偏差的平均值;直至当所述的平均值处于预设范围内时,所述的第二点集为筛选后的第二点云数据。
实施例二
在本实施例中,所述参照对象包括一个平面,以及与所述的平面相交的一个曲面,所述的曲面的导线为直线且相交于所述的平面。在具体实施例中,可以为地面和曲面墙。
基于邻近所述的平面的第一点云数据拟合为第一平面。此时基于第一平面建立了完整的参照对象坐标系。
如图4所示,步骤S102中,将所述的第一点云数据映射至第一平面,得到映射点云数据,在本实施例中,将曲面墙上所有的所述的第一点云数据的Z轴坐标处理为0,得到Z轴坐标为0的所述的第一点云数据,也就是映射点云数据。本实施例其余部分与实施例一的原理相同,不作赘述。
实施例三
在本实施例中,所述的相机坐标系与可移动平台坐标系的转换关系为五个自由度的转换关系,所述的参照对象至少包括相交于一条线的二个平面。
作为优选,所述的参照对象至少包括相交于一条线的二个平面时,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:
选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面;
提取所述的第二平面和第三平面的法向量,基于所述的第二平面和第三平面的法向量,提取所述的第一平面。
作为优选,选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面,包括如下步骤:选取邻近所述的二个平面的一个平面的第一点云数据并拟合为第二拟合平面,直至选取的每个所述的第一点云数据与所述的第二拟合平面的距离小于预设第二阈值,获得所述的第二拟合平面为所述第二平面;从所述的第一点云数据选取第二个平面的数据,并拟合为第三拟合平面,直至选取的每个所述的第一点云数据与所述的第三拟合平面的距离小于预设第三阈值,获得所述的第三拟合平面为所述第三平面。
本实施例其余部分与实施例一的原理相同,不作赘述。
实施例四
在本实施例中,所述的相机坐标系与可移动平台坐标系的转换关系为五个自由度的转换关系,所述的参照对象至少包括相交于一条线的二个平面。
作为优选,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线时,所述的将所述的第一点云数据进行拟合,提取得到第一平面,包括如下步骤:选取邻近所述的曲面的第一点云数据,并拟合为曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
更具体地,从所述的第一点云数据选取所述的曲面的数据,并拟合为曲面,直至选取的每个所述的第一点云数据与所述的曲面方程的距离小于预设第二阈值,获得拟合曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
本实施例其余部分与实施例一的原理相同,不作赘述。
此外,本发明涉及一种基于激光的深度相机外参标定方法的设备,包括:深度相机模组、激光雷达模组和处理器;所述的深度相机模组用于获取深度相机对参照对象采集的深度图像;所述的激光雷达模组用于获取激光雷达对参照对象采集的第二点云数据;所述处理器用于:获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;获取激光坐标系和可移动平台坐标系的转换关系;基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
作为优选,所述处理器将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
所述处理器将所述的第一点云数据映射至第一平面,得到映射点云数据;基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
所述处理器基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
本发明还涉及一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现所述的方法。
在本说明书的描述中,参考术语“一种实施方式”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一种实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,但不能理解为是对权利要求的限制。本发明不仅限于以上实施例,其具体结构允许有变化,凡在本发明独立权利要求的保护范围内所作的各种变化均在本发明的保护范围内。
Claims (17)
1.一种基于激光的深度相机外参标定方法,其特征在于,应用于安装深度相机和激光雷达的可移动平台,该方法包括:
获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;
基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;获取激光坐标系和可移动平台坐标系的转换关系;
基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
2.根据权利要求1所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的基于所述的第一点云数据和第二点云数据进行匹配计算,包括如下步骤:从所述的参照对象上至少可提取第一平面,所述的第一点云数据映射至所述的第一平面后为二维的映射点云数据;所述的第二点云数据为处于第二平面的二维数据;所述的映射点云数据与所述的第二点云数据匹配计算。
3.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的第一平面与所述的第二平面平行。
4.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的基于所述的第一点云数据和第二点云数据进行匹配计算,包括如下步骤:
将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
将所述的第一点云数据映射至第一平面,得到映射点云数据;
基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
5.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的参照对象至少包括相交于一条线的二个平面;或者,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线。
6.根据权利要求4所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的参照对象至少包括相交于一条线的二个平面时,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:
选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面;
提取所述的第二平面和第三平面的法向量,基于所述的第二平面和第三平面的法向量,提取所述的第一平面。
7.根据权利要求4所述的一种基于激光的深度相机外参标定方法,其特征在于,选取邻近所述的二个平面的一个平面的第一点云数据,并拟合为第二平面;选取邻近所述的二个平面的另一个平面的第一点云数据,并拟合为第三平面,包括如下步骤:选取邻近所述的二个平面的一个平面的第一点云数据并拟合为第二拟合平面,直至选取的每个所述的第一点云数据与所述的第二拟合平面的距离小于预设第二阈值,获得所述的第二拟合平面为所述第二平面;从所述的第一点云数据选取第二个平面的数据,并拟合为第三拟合平面,直至选取的每个所述的第一点云数据与所述的第三拟合平面的距离小于预设第三阈值,获得所述的第三拟合平面为所述第三平面。
8.根据权利要求4所述的一种基于激光的深度相机外参标定方法,其特征在于,从所述的第一点云数据选取所述的曲面的数据,并拟合为曲面,直至选取的每个所述的第一点云数据与所述的曲面方程的距离小于预设第二阈值,获得拟合曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
9.根据权利要求4所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的参照对象至少包括一个曲面,所述的曲面的母线为直线时,所述的将所述的第一点云数据进行拟合,提取得到第一平面,包括如下步骤:选取邻近所述的曲面的第一点云数据,并拟合为曲面方程;基于所述的拟合曲面方程,提取所述的母线;基于所述的母线,计算垂直于所述的母线的平面,作为所述的第一平面。
10.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述参照对象至少包括一个平面,以及与所述的平面相交的一个曲面,所述的曲面的导线为直线且相交于所述的平面;或者,所述参照对象至少包括相交于一点的三个平面。
11.根据权利要求9所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的将所述的第一点云数据选取拟合,提取得到第一平面,包括如下步骤:选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面。
12.根据权利要求4所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的选取邻近所述的一个平面的第一点云数据,并拟合为所述的第一平面,包括如下步骤,选取邻近所述的一个平面的第一点云数据,并拟合为第一拟合平面,直至选取的每个所述的第一点云数据与所述的第一拟合平面的距离小于预设第一阈值,获得所述的拟合平面为所述第一平面。
13.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系,包括如下步骤:
将所述的映射点云数据拟合为第一拟合线条,筛选与所述的第一拟合线条的距离小于预设第三阈值的映射点云数据;
基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,得到筛选后的第二点云数据;
利用筛选后的第二点云数据获得参照对象坐标系和激光雷达坐标系之间的转换关系。
14.根据权利要求2所述的一种基于激光的深度相机外参标定方法,其特征在于,所述的基于筛选后的所述的映射点云数据与所述的第二点云数据匹配,包括如下步骤:在第二点云数据中寻找筛选后的映射点云数据的最邻近点,记为第二点集;通过旋转和平移变换将筛选后的映射点云数据与第二点集统一到同一参考坐标系下,并计算筛选后的映射点云数据中的每个点与对应的第二点集中的点之间的偏差的平均值;直至当所述的平均值处于预设范围内时,所述的第二点集为筛选后的第二点云数据。
15.一种基于激光的深度相机外参标定方法的设备,其特征在于,包括:深度相机模组、激光雷达模组和处理器;所述的深度相机模组用于获取深度相机对参照对象采集的深度图像;所述的激光雷达模组用于获取激光雷达对参照对象采集的第二点云数据;所述处理器用于:获取深度相机对参照对象采集的深度图像,基于所述的深度图像处理得到第一点云数据;获取激光雷达对参照对象采集的第二点云数据;基于所述的第一点云数据和第二点云数据进行匹配计算,得到相机坐标系和激光坐标系之间的转换关系;获取激光坐标系和可移动平台坐标系的转换关系;基于相机坐标系和激光坐标系之间的转换关系,以及激光坐标系和可移动平台坐标系的转换关系,得到相机坐标系与可移动平台坐标系的转换关系。
16.根据权利要求15所述的一种基于激光的深度相机外参标定方法的设备,其特征在于,所述处理器将所述的第一点云数据选取拟合,提取得到第一平面;根据所述的第一平面以及基于所述的第一平面提取的法向量,建立参照对象坐标系;得到所述的参照对象坐标系和深度相机坐标系之间的转换关系;
所述处理器将所述的第一点云数据映射至第一平面,得到映射点云数据;基于所述的第二点云数据和所述的映射点云数据,计算得到所述的参照对象坐标系和激光雷达坐标系之间的转换关系;
所述处理器基于所述的参照对象坐标系和深度相机坐标系之间的转换关系,以及所述的参照对象坐标系和激光雷达坐标系之间的转换关系,得到相机坐标系和激光坐标系之间的转换关系。
17.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行以实现如权利要求1-14任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011421039.2A CN112258590B (zh) | 2020-12-08 | 2020-12-08 | 一种基于激光的深度相机外参标定方法、设备及其存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011421039.2A CN112258590B (zh) | 2020-12-08 | 2020-12-08 | 一种基于激光的深度相机外参标定方法、设备及其存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112258590A true CN112258590A (zh) | 2021-01-22 |
CN112258590B CN112258590B (zh) | 2021-04-27 |
Family
ID=74225034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011421039.2A Active CN112258590B (zh) | 2020-12-08 | 2020-12-08 | 一种基于激光的深度相机外参标定方法、设备及其存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112258590B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927298A (zh) * | 2021-02-25 | 2021-06-08 | 上海钛米机器人股份有限公司 | 目标对象的定位方法及装置、电子设备、存储介质 |
CN113436233A (zh) * | 2021-06-29 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆的配准方法、装置、电子设备和车辆 |
WO2022165793A1 (zh) * | 2021-02-07 | 2022-08-11 | 深圳市大疆创新科技有限公司 | 外参标定方法、装置及计算机可读存储介质 |
CN115439561A (zh) * | 2022-10-25 | 2022-12-06 | 杭州华橙软件技术有限公司 | 机器人的传感器标定方法、机器人及存储介质 |
WO2023028774A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为技术有限公司 | 一种激光雷达的标定方法、装置及存储介质 |
CN115856849A (zh) * | 2023-02-28 | 2023-03-28 | 季华实验室 | 一种深度相机与2d激光雷达标定方法及相关设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106526605A (zh) * | 2016-10-28 | 2017-03-22 | 北京康力优蓝机器人科技有限公司 | 激光雷达与深度相机的数据融合方法及系统 |
CN109242912A (zh) * | 2018-08-29 | 2019-01-18 | 杭州迦智科技有限公司 | 采集装置外参标定方法、电子设备、存储介质 |
CN110209169A (zh) * | 2019-06-12 | 2019-09-06 | 杭州迦智科技有限公司 | 一种可移动平台的控制方法、控制装置及可移动平台 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111311689A (zh) * | 2020-02-10 | 2020-06-19 | 清华大学 | 一种激光雷达与相机相对外参的标定方法及系统 |
CN111965624A (zh) * | 2020-08-06 | 2020-11-20 | 北京百度网讯科技有限公司 | 激光雷达与相机的标定方法、装置、设备和可读存储介质 |
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
-
2020
- 2020-12-08 CN CN202011421039.2A patent/CN112258590B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106526605A (zh) * | 2016-10-28 | 2017-03-22 | 北京康力优蓝机器人科技有限公司 | 激光雷达与深度相机的数据融合方法及系统 |
CN109242912A (zh) * | 2018-08-29 | 2019-01-18 | 杭州迦智科技有限公司 | 采集装置外参标定方法、电子设备、存储介质 |
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
CN110209169A (zh) * | 2019-06-12 | 2019-09-06 | 杭州迦智科技有限公司 | 一种可移动平台的控制方法、控制装置及可移动平台 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111311689A (zh) * | 2020-02-10 | 2020-06-19 | 清华大学 | 一种激光雷达与相机相对外参的标定方法及系统 |
CN111965624A (zh) * | 2020-08-06 | 2020-11-20 | 北京百度网讯科技有限公司 | 激光雷达与相机的标定方法、装置、设备和可读存储介质 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022165793A1 (zh) * | 2021-02-07 | 2022-08-11 | 深圳市大疆创新科技有限公司 | 外参标定方法、装置及计算机可读存储介质 |
CN112927298A (zh) * | 2021-02-25 | 2021-06-08 | 上海钛米机器人股份有限公司 | 目标对象的定位方法及装置、电子设备、存储介质 |
CN112927298B (zh) * | 2021-02-25 | 2024-06-11 | 上海钛米机器人股份有限公司 | 目标对象的定位方法及装置、电子设备、存储介质 |
CN113436233A (zh) * | 2021-06-29 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆的配准方法、装置、电子设备和车辆 |
WO2023028774A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为技术有限公司 | 一种激光雷达的标定方法、装置及存储介质 |
CN115439561A (zh) * | 2022-10-25 | 2022-12-06 | 杭州华橙软件技术有限公司 | 机器人的传感器标定方法、机器人及存储介质 |
CN115439561B (zh) * | 2022-10-25 | 2023-03-10 | 杭州华橙软件技术有限公司 | 机器人的传感器标定方法、机器人及存储介质 |
CN115856849A (zh) * | 2023-02-28 | 2023-03-28 | 季华实验室 | 一种深度相机与2d激光雷达标定方法及相关设备 |
CN115856849B (zh) * | 2023-02-28 | 2023-05-05 | 季华实验室 | 一种深度相机与2d激光雷达标定方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112258590B (zh) | 2021-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112258590B (zh) | 一种基于激光的深度相机外参标定方法、设备及其存储介质 | |
CN110031824B (zh) | 激光雷达联合标定方法及装置 | |
CN112396664B (zh) | 一种单目摄像机与三维激光雷达联合标定及在线优化方法 | |
Kang et al. | Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model | |
KR101643079B1 (ko) | 데이터를 위치 맞춤하는 방법 | |
CN103424112B (zh) | 一种基于激光平面辅助的运动载体视觉导航方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN113657224B (zh) | 车路协同中用于确定对象状态的方法、装置、设备 | |
Alismail et al. | Automatic calibration of a range sensor and camera system | |
Wei et al. | A non-contact measurement method of ship block using image-based 3D reconstruction technology | |
CN112927360A (zh) | 一种基于倾斜模型与激光点云数据融合的三维建模方法和系统 | |
CN108474658B (zh) | 地面形态检测方法及系统、无人机降落方法和无人机 | |
CN112464812B (zh) | 一种基于车辆的凹陷类障碍物检测方法 | |
CN111383279A (zh) | 外参标定方法、装置及电子设备 | |
CN111123242B (zh) | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 | |
CN110764110B (zh) | 路径导航方法、装置及计算机可读存储介质 | |
CN110702028B (zh) | 一种果园树干三维检测定位方法及装置 | |
CN111913169B (zh) | 激光雷达内参、点云数据的修正方法、设备及存储介质 | |
WO2021195939A1 (zh) | 一种双目拍摄装置的外参的标定方法、可移动平台及系统 | |
JP2016217941A (ja) | 3次元データ評価装置、3次元データ測定システム、および3次元計測方法 | |
US20230351625A1 (en) | A method for measuring the topography of an environment | |
CN111798507A (zh) | 一种输电线安全距离测量方法、计算机设备和存储介质 | |
CN114543787B (zh) | 基于条纹投影轮廓术的毫米级室内建图定位方法 | |
WO2021081958A1 (zh) | 地形检测方法、可移动平台、控制设备、系统及存储介质 | |
CN112525106B (zh) | 基于三相机协同激光的3d探测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |