CN113138375B - 一种联合标定方法 - Google Patents
一种联合标定方法 Download PDFInfo
- Publication number
- CN113138375B CN113138375B CN202110458188.4A CN202110458188A CN113138375B CN 113138375 B CN113138375 B CN 113138375B CN 202110458188 A CN202110458188 A CN 202110458188A CN 113138375 B CN113138375 B CN 113138375B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- pose
- calibration plate
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 230000009466 transformation Effects 0.000 claims abstract description 31
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 238000005457 optimization Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 4
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 239000000463 material Substances 0.000 abstract description 5
- 230000004927 fusion Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 7
- 230000001131 transforming effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Manufacturing & Machinery (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种联合标定方法,属于多传感器数据融合技术领域,本发明提供的一种联合标定方法,首先采用激光雷达扫描标定板得到原始激光点云数据,对原始激光点云数据进行滤波和交叉去噪处理后得到相交点云数据,然后提取相交点云数据的边缘点并根据边缘点得到位姿变换矩阵,通过位姿变换矩阵得到圆心的空间坐标,最后根据圆心的空间坐标与检测标定板图片得到的椭圆中心像素坐标得到相机的位姿;本发明通过对原始激光点云数据进行滤波和交叉去噪处理可以有效去除激光雷达因受材质、结构或噪声等影响存在部分偏离真实平面的点云数据,大大提高了位姿标定精度。
Description
技术领域
本发明属于多传感器数据融合技术领域,更具体地说,是涉及一种联合标定方法。
背景技术
激光雷达和相机被广泛用于自动驾驶、三维重建、目标检测、自主导航、遥感等领域,这些应用对周围感知的可靠性的要求很高。通过激光雷达可以快速的获取目标的三维空间信息;相机可以获取到包含目标各种表面特征、色彩、纹理等信息的高质量二维图像。所以激光雷达对光照的鲁棒性弥补了相机受光照条件严重影响的不足。相反,相机丰富的纹理和高帧率弥补了激光雷达固有的低空间分辨率缺点,因此二者具有很强的互补性。
在激光雷达-相机系统的使用过程中,需要提前获取激光雷达和相机之间的外部参数,因为这些数据必须在统一的坐标系中才能有效使用。然而,由于激光雷达点云的稀疏特性,高精度的激光雷达-摄像机外部标定仍然是一项具有挑战性的任务。稀疏特征导致从三维稀疏点云中提取关键点或关键特征的精度低,与2D密集图像关联的精度低,从而带来估计误差。
因此,如何从稀疏点云中提取更接近真实的特征,以及如何在点云和图像之间找到更准确的对应关系是解决此类问题的关键。当前最为常见的方法是将圆分割检测到的多个累积中心的聚类质心作为稀疏点云中的关键点来提高精度,并通过标定目标(具有四个圆孔的平板)来建立数据对应关系,但是现有的标定方法采用RANSAC平面分割算法来获得平面参数,因为RANSAC平面分割算法得到的平面参数精度并不高,且受噪声影响鲁棒性比较差,所以存在对激光雷达-相机系统标定精度不足,误差大的问题。
发明内容
本发明的目的在于提供一种联合标定方法、系统及标定板,旨在解决现有技术中对激光雷达-相机系统标定精度不足,误差大的问题。
为实现上述目的,本发明采用的技术方案是:一种联合标定方法,包括:
步骤1:采用激光雷达对标定板进行扫描得到两组原始激光点云数据;所述两组原始激光点云数据包括:第一原始激光点云数据和第二原始激光点云数据;所述标定板上开设有三个圆孔;
步骤2:对两组所述原始激光点云数据进行滤波处理得到两组标定板点云数据;所述两组标定板点云数据包括:第一标定板点云数据和第二标定板点云数据;
步骤3:根据所述第一标定板点云数据对所述第二标定板点云数据进行交叉去噪处理得到相交点云数据;
步骤4:提取所述相交点云数据的边缘点;
步骤5:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值得到位姿变换矩阵;
步骤6:根据所述位姿变换矩阵将所述标定板平面坐标系下的圆心平面坐标转换到激光雷达坐标系下得到圆心的空间坐标;
步骤7:采用相机对所述标定板进行拍照得到标定板图片;
步骤8:对所述标定板图片进行椭圆检测得到椭圆中心的像素坐标;
步骤9:根据所述圆心的空间坐标和所述椭圆中心的像素坐标得到所述相机的位姿。
优选的,所述步骤3:根据所述第一标定板点云数据对所述第二标定板点云数据进行交叉去噪处理得到相交点云数据,包括:
步骤3.1:对所述第一标定板点云数据进行外点剔除处理得到内点点云数据;
步骤3.2:根据所述内点点云数据利用最小二乘平面拟合算法得到拟合平面;
步骤3.3:将所述第二标定板点云数据中的每个点的射线与所述拟合平面相交得到相交点云数据。
优选的,所述步骤4:提取所述相交点云数据的边缘点,包括:
步骤4.1:获取相交点云数据上所有激光点的坐标;
步骤4.2:判断每一个激光点与相邻激光点的间距是否大于距离阈值,生成第一判断结果;
步骤4.3:若所述第一判断结果为所述激光点与所述相邻激光点的间距大于距离阈值,则将所述激光点作为所述边缘点。
优选的,所述步骤5:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值得到位姿变换矩阵,包括:
步骤5.1:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值构建位姿优化目标函数;其中,所述位姿优化目标函数为:
步骤5.2:采用位姿优化目标函数得到位姿变换矩阵。
优选的,所述步骤9:根据所述圆心的空间坐标和所述椭圆中心的像素坐标得到所述相机的位姿,包括:
步骤9.1:根据所述圆心的空间坐标和所述椭圆中心的像素坐标利用P3P 算法得到四组位姿解;
步骤9.2:根据所述四组位姿解得到相应的四个相机坐标系平面;
步骤9.3:将所述椭圆上的长短轴所对应的点变换为相机坐标系下的射线;
步骤9.4:根据所述四个相机坐标系平面与所述射线得到所述射线分别与所述四个相机坐标系平面的交点;
步骤9.5:根据所述交点与所述圆心的空间坐标建立位姿解误差模型;
步骤9.6:根据所述位姿解误差模型得到所述四组位姿解之中的真解;
步骤9.7:根据所述真解得到所述相机的位姿。
优选的,所述位姿解误差模型为:
本发明还提供了一种联合标定系统,包括:
原始激光点云数据获取模块,用于采用激光雷达对标定板进行扫描得到两组原始激光点云数据;所述两组原始激光点云数据包括:第一原始激光点云数据和第二原始激光点云数据;
滤波处理模块,用于对两组所述原始激光点云数据进行滤波处理得到两组标定板点云数据;所述两组标定板点云数据包括:第一标定板点云数据和第二标定板点云数据;
交叉去噪模块,用于根据所述第一标定板点云数据对所述第二标定板点云数据进行交叉去噪处理得到相交点云数据;
边缘点提取模块,用于提取所述相交点云数据的边缘点;
位姿变换矩阵确定模块,用于根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值得到位姿变换矩阵;
坐标转换模块,用于根据所述位姿变换矩阵将所述标定板平面坐标系下的圆心平面坐标转换到激光雷达坐标系下得到圆心的空间坐标;
标定板图片获取模块,用于采用相机对所述标定板进行拍照得到标定板图片;
椭圆检测模块,用于对所述标定板图片进行椭圆检测得到椭圆中心的像素坐标;
位姿确定模块,用于根据所述圆心的空间坐标和所述椭圆中心的像素坐标得到所述相机的位姿。
本发明还提供了一种标定板,包括:
标定板上开设有三个圆孔;所述三个圆孔的圆心呈等边三角形分布。
本发明提供的一种联合标定方法、系统及标定板的有益效果在于:与现有技术相比,本发明提供的一种联合标定方法,首先采用激光雷达扫描标定板得到原始激光点云数据,对原始激光点云数据进行滤波和交叉去噪处理后得到相交点云数据,然后提取相交点云数据的边缘点并根据边缘点得到位姿变换矩阵,通过位姿变换矩阵得到圆心的空间坐标,最后根据圆心的空间坐标与检测标定板图片得到的椭圆中心像素坐标得到相机的位姿;本发明通过对原始激光点云数据进行滤波和交叉去噪处理可以有效去除激光雷达因受材质、结构或噪声等影响存在部分偏离真实平面的点云数据,大大提高了位姿标定精度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种联合标定方法流程图;
图2为本发明实施例提供的标定板示意图;
图3为本发明实施例提供的位姿优化原理图;
图4为本发明实施例提供的椭圆检测原理图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的目的在于提供一种联合标定方法、系统及标定板,旨在解决现有技术中对激光雷达-相机系统标定精度不足,误差大的问题。
请一并参阅图1-2,为实现上述目的,本发明采用的技术方案是:一种联合标定方法,包括:
S1:采用激光雷达对标定板进行扫描得到两组原始激光点云数据;两组原始激光点云数据包括:第一原始激光点云数据和第二原始激光点云数据;标定板上开设有三个圆孔;的标定板的尺寸为0.8×0.8m,三个圆孔等直径为0.3m, 三个圆孔成等边三角形分布,三角形重心为标定板的中心,等边三角形边长为 0.4m。在2到3米的距离上,能够容纳激光雷达的三条扫描线。
在实际应用中,首先调整标定板的位置和高度,使标定板位置固定,朝向相机的面的中心,其世界坐标为(2.0,0.0,1.5),标定板表面与世界坐标系 YZ平面平行;使用激光雷达对标定板进行扫描并采用累积点云帧标定方法进行圆心检测。逐帧累积点云,同时进行标定计算,到达一定数量后,重新累积,采用的累积最大数N为70,最终得到原始激光点云数据。
S2:对两组原始激光点云数据进行滤波处理得到两组标定板点云数据;两组标定板点云数据包括:第一标定板点云数据和第二标定板点云数据;
在本发明中通过直通滤波算法对原始激光点云数据进行预处理,人工预先确定直通参数,将标定板从场景中分割出来。
S3:根据第一标定板点云数据对第二标定板点云数据进行交叉去噪处理得到相交点云数据;
S3具体包括:
S3.1:对第一标定板点云数据进行外点剔除处理得到内点点云数据;
受材质、结构、噪声等影响,激光雷达获得的点云会存在部分偏离真实平面过大的点,这些点称为外点。外点一般会出现在结构、材质变化的地方,这些地方的反射率会发生突变,造成激光回波能量的不连续,从而产生误差。因此本发明要剔除第一标定板点云数据的外点,再逐帧累积到内点点云,内点点云将其用于最小二乘拟合平面探测。
S3.2:根据内点点云数据利用最小二乘平面拟合算法得到拟合平面;
S3.3:将第二标定板点云数据中的每个点的射线与拟合平面相交得到相交点云数据
需要说明的是,本发明中对第二标定板点云数据不做外点剔除处理,直接累积,去噪后进行边缘点探测,下面对这一步骤作进一步说明。
S4:提取相交点云数据的边缘点;
S4具体包括:
S4.1:获取相交点云数据上所有激光点的坐标;
S4.2:判断每一个激光点与相邻激光点的间距是否大于距离阈值,生成第一判断结果;
S4.3:若第一判断结果为激光点与相邻激光点的间距大于距离阈值,则将激光点作为边缘点。
进一步的,比较每个点与相邻点间的距离,通过圆孔边缘点提取算法判断边缘点。利用圆孔直径已知的先验信息,将点间距离大于δ的点,判定为边缘点。
δ(距离阈值)的大小可以控制用于计算的边缘点数量,抛弃掉距离较小的边缘点,本发明中将δ设置为1cm。由于本发明使用了标定板原始累积点云的相交点云,所以不会出现虚假的不连续现象,而产生的边缘点误判。最后用欧式聚类算法对得到的边缘点进行聚类,得到聚类标签,分别标记边缘点。
S5:根据边缘点所在的激光雷达坐标系与标定板平面坐标系的位姿差值得到位姿变换矩阵;
S5具体包括:
S5.1:根据边缘点所在的激光雷达坐标系与标定板平面坐标系的位姿差值构建位姿优化目标函数;其中,位姿优化目标函数为:
S5.2:采用位姿优化目标函数得到位姿变换矩阵。
S6:根据位姿变换矩阵将标定板平面坐标系下的圆心平面坐标转换到激光雷达坐标系下得到圆心的空间坐标。
请参阅图3,下面对这一过程进行进一步的说明,本发明采用结构优化方法,利用圆心成等边三角形分布的先验信息,将单个圆心检测的问题,转换为结构位姿优化的问题。首先进行坐标系变换,由3D激光雷达空间变换到2D标定板平面空间,即将激光雷达坐标系下边缘点,变换到标定板平面上,坐标系表示为{o′x′y′}。在{oxy}坐标系下,圆心点的等边三角形重心为坐标系原心,一个圆的圆心位于x轴的正半轴上。设三角形边长为AB=BC=AC=a,那么真实圆心点坐标很容易得到:
坐标系{o′x′y′}与{oxy}间相差位姿变换矩阵T。我们利用点到圆心的半径误差最小化,建立位姿优化目标函数,来优化位姿变换矩阵:
显而易见,本发明中构建的这个优化问题是凸的,任意初始值,均会收敛到唯一解。优化得到位姿变换矩阵T后,标定板平面上的圆心点与激光雷达坐标系下圆心点的位姿关系,均已知。很容易将其变换到激光雷达坐标系下,得到圆心点的空间坐标。
S7:采用相机对标定板进行拍照得到标定板图片;
S8:对标定板图片进行椭圆检测得到椭圆中心的像素坐标;
请参阅图4,本发明中对标定板图片进行椭圆检测,可获得椭圆参数信息。其中,椭圆参数信息记录了每个椭圆的中心点,及其长短轴对应的椭圆线上点。中心点将用于位姿解算,长短轴点将用于区分真解。
S9:根据圆心的空间坐标和椭圆中心的像素坐标得到相机的位姿。
S9具体包括:
S9.1:根据圆心的空间坐标和椭圆中心的像素坐标利用P3P算法得到四组位姿解;
S9.2:根据四组位姿解得到相应的四个相机坐标系平面;
S9.3:将椭圆上的长短轴所对应的点变换为相机坐标系下的射线;
S9.4:根据四个相机坐标系平面与射线得到射线分别与四个相机坐标系平面的交点;
S9.5:根据交点与圆心的空间坐标建立位姿解误差模型;
S9.6:根据位姿解误差模型得到四组位姿解之中的真解;其中,位姿解误差模型为:
S9.7:根据真解得到相机的位姿。
本发明利用圆心的空间坐标和椭圆中心的像素坐标的空间分布特征完成 3D-2D的数据匹配。然后,使用P3P算法求得位姿的解。由于P3P问题最终转换为求四次方程组的解的问题,P3P问题最终会得到四组解,但仅有一组解为真解,用椭圆上长短轴的点来验证真解。将图像上椭圆长短轴对应点变换为相机坐标系下的射线表示。P3P的每组解都对应一个相机坐标系下的平面,可以容易得得到射线与平面的交点。计算交点与各圆心间得距离,同圆半径的误差总和,误差总和最小的即为真解(误差总和最小说明交点更像圆上的点)。
本发明还提供了一种联合标定系统,包括:
原始激光点云数据获取模块,用于采用激光雷达对标定板进行扫描得到两组原始激光点云数据;两组原始激光点云数据包括:第一原始激光点云数据和第二原始激光点云数据;
滤波处理模块,用于对两组原始激光点云数据进行滤波处理得到两组标定板点云数据;两组标定板点云数据包括:第一标定板点云数据和第二标定板点云数据;
交叉去噪模块,用于根据第一标定板点云数据对第二标定板点云数据进行交叉去噪处理得到相交点云数据;
边缘点提取模块,用于提取相交点云数据的边缘点;
位姿变换矩阵确定模块,用于根据边缘点所在的激光雷达坐标系与标定板平面坐标系的位姿差值得到位姿变换矩阵;
坐标转换模块,用于根据位姿变换矩阵将标定板平面坐标系下的圆心平面坐标转换到激光雷达坐标系下得到圆心的空间坐标;
标定板图片获取模块,用于采用相机对标定板进行拍照得到标定板图片;
椭圆检测模块,用于对标定板图片进行椭圆检测得到椭圆中心的像素坐标;
位姿确定模块,用于根据圆心的空间坐标和椭圆中心的像素坐标得到相机的位姿。
本发明还提供了一种标定板,包括:
标定板上开设有三个圆孔;三个圆孔的圆心呈等边三角形分布。
本发明提供的一种联合标定方法、系统及标定板的有益效果在于:与现有技术相比,本发明提供的一种联合标定方法,首先采用激光雷达扫描标定板得到原始激光点云数据,对原始激光点云数据进行滤波和交叉去噪处理后得到相交点云数据,然后提取相交点云数据的边缘点并根据边缘点得到位姿变换矩阵,通过位姿变换矩阵得到圆心的空间坐标,最后根据圆心的空间坐标与检测标定板图片得到的椭圆中心像素坐标得到相机的位姿;本发明通过对原始激光点云数据进行滤波和交叉去噪处理可以有效去除激光雷达因受材质、结构或噪声等影响存在部分偏离真实平面的点云数据,大大提高了位姿标定精度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种联合标定方法,其特征在于,包括:
步骤1:采用激光雷达对标定板进行扫描得到两组原始激光点云数据;所述两组原始激光点云数据包括:第一原始激光点云数据和第二原始激光点云数据;所述标定板上开设有三个圆孔;
步骤2:对两组所述原始激光点云数据进行滤波处理得到两组标定板点云数据;所述两组标定板点云数据包括:第一标定板点云数据和第二标定板点云数据;
步骤3:根据所述第一标定板点云数据对所述第二标定板点云数据进行交叉去噪处理得到相交点云数据;
步骤4:提取所述相交点云数据的边缘点;
步骤5:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值得到位姿变换矩阵;
步骤6:根据所述位姿变换矩阵将所述标定板平面坐标系下的圆心平面坐标转换到激光雷达坐标系下得到圆心的空间坐标;
步骤7:采用相机对所述标定板进行拍照得到标定板图片;
步骤8:对所述标定板图片进行椭圆检测得到椭圆中心的像素坐标;
步骤9:根据所述圆心的空间坐标和所述椭圆中心的像素坐标得到所述相机的位姿;
所述步骤3:根据所述第一标定板点云数据对所述第二标定板点云数据进行交叉去噪处理得到相交点云数据,包括:
步骤3.1:对所述第一标定板点云数据进行外点剔除处理得到内点点云数据;
步骤3.2:根据所述内点点云数据利用最小二乘平面拟合算法得到拟合平面;
步骤3.3:将所述第二标定板点云数据中的每个点的射线与所述拟合平面相交得到相交点云数据;
所述步骤4:提取所述相交点云数据的边缘点,包括:
步骤4.1:获取相交点云数据上所有激光点的坐标;
步骤4.2:判断每一个激光点与相邻激光点的间距是否大于距离阈值,生成第一判断结果;
步骤4.3:若所述第一判断结果为所述激光点与所述相邻激光点的间距大于距离阈值,则将所述激光点作为所述边缘点;
所述步骤5:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值得到位姿变换矩阵,包括:
步骤5.1:根据所述边缘点所在的激光雷达坐标系与所述标定板平面坐标系的位姿差值构建位姿优化目标函数;其中,所述位姿优化目标函数为:
步骤5.2:采用位姿优化目标函数得到位姿变换矩阵;
所述步骤9:根据所述圆心的空间坐标和所述椭圆中心的像素坐标得到所述相机的位姿,包括:
步骤9.1:根据所述圆心的空间坐标和所述椭圆中心的像素坐标利用P3P算法得到四组位姿解;
步骤9.2:根据所述四组位姿解得到相应的四个相机坐标系平面;
步骤9.3:将所述椭圆上的长短轴所对应的点变换为相机坐标系下的射线;
步骤9.4:根据所述四个相机坐标系平面与所述射线得到所述射线分别与所述四个相机坐标系平面的交点;
步骤9.5:根据所述交点与所述圆心的空间坐标建立位姿解误差模型;
步骤9.6:根据所述位姿解误差模型得到所述四组位姿解之中的真解;
步骤9.7:根据所述真解得到所述相机的位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458188.4A CN113138375B (zh) | 2021-04-27 | 2021-04-27 | 一种联合标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458188.4A CN113138375B (zh) | 2021-04-27 | 2021-04-27 | 一种联合标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113138375A CN113138375A (zh) | 2021-07-20 |
CN113138375B true CN113138375B (zh) | 2022-11-29 |
Family
ID=76812301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110458188.4A Expired - Fee Related CN113138375B (zh) | 2021-04-27 | 2021-04-27 | 一种联合标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113138375B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204043628U (zh) * | 2014-07-01 | 2014-12-24 | 厦门烟草工业有限责任公司 | 验证沟槽滤棒特征参数机器视觉检测结果准确度的标准板 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
CN110660107A (zh) * | 2019-08-23 | 2020-01-07 | 贝壳技术有限公司 | 平面标定板、标定数据采集方法及系统 |
CN111179358A (zh) * | 2019-12-30 | 2020-05-19 | 浙江商汤科技开发有限公司 | 标定方法、装置、设备及存储介质 |
CN111638499A (zh) * | 2020-05-08 | 2020-09-08 | 上海交通大学 | 基于激光雷达反射强度点特征的相机-激光雷达相对外参标定方法 |
CN111815716A (zh) * | 2020-07-13 | 2020-10-23 | 北京爱笔科技有限公司 | 一种参数标定方法及相关装置 |
US10838049B1 (en) * | 2019-12-17 | 2020-11-17 | The Boeing Company | Calibration procedure for establishing an extrinsic relationship between lidar and camera sensors |
CN111965624A (zh) * | 2020-08-06 | 2020-11-20 | 北京百度网讯科技有限公司 | 激光雷达与相机的标定方法、装置、设备和可读存储介质 |
-
2021
- 2021-04-27 CN CN202110458188.4A patent/CN113138375B/zh not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204043628U (zh) * | 2014-07-01 | 2014-12-24 | 厦门烟草工业有限责任公司 | 验证沟槽滤棒特征参数机器视觉检测结果准确度的标准板 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
CN110660107A (zh) * | 2019-08-23 | 2020-01-07 | 贝壳技术有限公司 | 平面标定板、标定数据采集方法及系统 |
US10838049B1 (en) * | 2019-12-17 | 2020-11-17 | The Boeing Company | Calibration procedure for establishing an extrinsic relationship between lidar and camera sensors |
CN111179358A (zh) * | 2019-12-30 | 2020-05-19 | 浙江商汤科技开发有限公司 | 标定方法、装置、设备及存储介质 |
CN111638499A (zh) * | 2020-05-08 | 2020-09-08 | 上海交通大学 | 基于激光雷达反射强度点特征的相机-激光雷达相对外参标定方法 |
CN111815716A (zh) * | 2020-07-13 | 2020-10-23 | 北京爱笔科技有限公司 | 一种参数标定方法及相关装置 |
CN111965624A (zh) * | 2020-08-06 | 2020-11-20 | 北京百度网讯科技有限公司 | 激光雷达与相机的标定方法、装置、设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113138375A (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106651752B (zh) | 三维点云数据配准方法及拼接方法 | |
Daftry et al. | Building with drones: Accurate 3D facade reconstruction using MAVs | |
CN103411553B (zh) | 多线结构光视觉传感器的快速标定方法 | |
CN110118528B (zh) | 一种基于棋盘靶标的线结构光标定方法 | |
CN101916437B (zh) | 一种基于多视觉信息的目标定位方法和系统 | |
CN111598770A (zh) | 一种基于三维数据和二维图像的物体检测方法和装置 | |
CN106683137B (zh) | 基于人工标志的单目多目标识别与定位方法 | |
CN111046776A (zh) | 基于深度相机的移动机器人行进路径障碍物检测的方法 | |
CN107392929B (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN105608671A (zh) | 一种基于surf算法的图像拼接方法 | |
CN111524168B (zh) | 点云数据的配准方法、系统、装置及计算机存储介质 | |
KR101759798B1 (ko) | 실내 2d 평면도의 생성 방법, 장치 및 시스템 | |
CN111028271B (zh) | 基于人体骨架检测的多摄像机人员三维定位跟踪系统 | |
CN104034269A (zh) | 一种单目视觉测量方法与装置 | |
CN106097430B (zh) | 一种多高斯信号拟合的激光条纹中心线提取方法 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN113138375B (zh) | 一种联合标定方法 | |
CN112508885A (zh) | 一种弯管的三维中轴线检测方法及系统 | |
CN116778266A (zh) | 多尺度邻域扩散的遥感点云投影图像处理方法 | |
CN111445510A (zh) | 一种图像中直线的检测方法 | |
CN111340884A (zh) | 一种双目异构相机与rfid的双重目标定位与身份辨识方法 | |
CN111080712A (zh) | 一种基于人体骨架检测的多相机人员定位跟踪显示方法 | |
Neverova et al. | 2 1/2 D scene reconstruction of indoor scenes from single RGB-D images | |
CN110660113A (zh) | 特征地图的建立方法、装置、采集设备和存储介质 | |
CN111260727A (zh) | 一种基于图像处理的网格定位方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221129 |
|
CF01 | Termination of patent right due to non-payment of annual fee |