CN112614189A - 一种基于摄像头和3d激光雷达的联合标定方法 - Google Patents

一种基于摄像头和3d激光雷达的联合标定方法 Download PDF

Info

Publication number
CN112614189A
CN112614189A CN202011447659.3A CN202011447659A CN112614189A CN 112614189 A CN112614189 A CN 112614189A CN 202011447659 A CN202011447659 A CN 202011447659A CN 112614189 A CN112614189 A CN 112614189A
Authority
CN
China
Prior art keywords
cloud data
point cloud
point
camera
laser radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011447659.3A
Other languages
English (en)
Other versions
CN112614189B (zh
Inventor
靳璐
吴越
康晓
靳保
海丹
苏波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China North Vehicle Research Institute
Original Assignee
China North Vehicle Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China North Vehicle Research Institute filed Critical China North Vehicle Research Institute
Priority to CN202011447659.3A priority Critical patent/CN112614189B/zh
Publication of CN112614189A publication Critical patent/CN112614189A/zh
Application granted granted Critical
Publication of CN112614189B publication Critical patent/CN112614189B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及一种基于摄像头和3D激光雷达的联合标定方法,属于机器人或无人车技术领域。本发明首先对3D激光雷达的点云数据进行聚类分析,然后,通过3D‑2D投影方法,将点云数据聚类分析结果投影至摄像头采集的图像序列中,最后,通过调整动态配置中的旋转欧拉角,并利用ros环境下的可视化工具rviz,使目标物体的聚类点云数据投影结果和图像序列中的目标物体相互一致对应,实现3D激光雷达和摄像头间的空间旋转矩阵。该方法通过基于摄像头和3D激光雷达的联合标定,能够简单、快速地确定摄像头和3D激光雷达坐标系之间的空间变换关系。

Description

一种基于摄像头和3D激光雷达的联合标定方法
技术领域
本发明属于机器人或无人车技术领域,具体涉及一种基于摄像头和3D激光雷达的联合标定方法。
背景技术
移动机器人主要通过安装各种传感器感知周围的环境信息,其中,摄像头和3D激光雷达是目前环境感知获取环境信息中最重要的两种不同类型的传感器。摄像头是一种在视场内可以获得目标物体二维图像信息的传感器,而3D激光雷达是一种能够获取目标物体的三维轮廓信息的传感器。因此,融合这两种信息互补的传感器观测信息可以提升目标物体信息的完整性,而在融合两类传感器信息前,必须对两类传感器进行联合标定。
联合标定主要是指确定摄像头坐标系和3D激光雷达坐标系间的空间变换关系,而空间变换关系主要由空间旋转矩阵和空间平移向量组成,空间平移向量可以根据移动机器人中两传感器自身的安装位置确定,所以,联合标定主要是确定空间旋转矩阵的过程。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何设计一种基于摄像头和3D激光雷达的联合标定方法,以简单、快速地确定摄像头坐标系和3D激光雷达坐标系间的空间旋转关系。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于摄像头和3D激光雷达的联合标定方法,包括以下步骤:
步骤1:根据3D激光雷达得到的点云数据,进行点云数据聚类分析;
步骤2:通过3D-2D投影,将聚类分析结果投影到摄像头得到的图像序列;
步骤3:基于步骤2,动态调整欧拉角,并判断可视化的标定结果是否满意,如果满意,保存标定结果;否则继续调整欧拉角,直至满意。
优选地,步骤1中,点云数据聚类分析是将3D激光雷达扫描得到的点云数据中的点集根据一定的判断准则进行类别划分,每个类别分别对应不同的目标物体。
优选地,步骤1中,点云数据聚类分析具体采用的方法如下:
(1)创建Kd-tree数据结构描述点云数据集P;
(2)设置一个空聚类列表C以及一个含检测点的队列Q;
(3)对于集合P中的每一个点Pi,作如下操作:
(3.1)添加点Pi至当前队列Q;
(3.2)对于集合P中的每一个点Pj,j!=i,作如下操作:
(3.2.1)计算点Pi和点Pj之间的欧式距离r,为式(1),如果满足r<距离阈值dth,则将点Pj添加至其邻域列表N;
Figure BDA0002825298810000021
(3.2.2)对N中的每一个领域ni,检查该点Pj是否已经被处理过,如果没有,添加该点至队列Q;否则,针对集合P中的下一个点返回步骤3.2.1继续处理;
(3.2.3)添加队列Q至聚类列表C;
(3.3)重置Q为空队列,直至集合P中所有的点被处理完毕。
优选地,步骤2中,3D-2D投影的方法如下:
(1)计算点云数据聚类分析结果中点云数据相对于摄像头图像垂直方向的差分航向角,具体公式为式(2):
yaw_diff=|arctan(Py,Px)-yaw-90| (2)
其中,Px,Py分别为点云数据在3D激光雷达坐标系X,Y轴上坐标值,yaw是摄像头的原始偏航角;
(2)设定差分航向角阈值th1,统计满足yaw_diff<预设阈值th1的点云数据个数pt_c;
(3)根据点云数据聚类分析结果中点云数据的大小,设定pt_c的阈值th2,如果pt_c≥th2,则将点云数据投影到图像中。
优选地,步骤3中,根据动态配置文件,生成欧拉角配置窗口,同时,在ros环境下通过可视化工具rviz,生成可视化图像窗口,并将点云数据聚类分析结果投影至该可视化窗口,然后,对3D激光雷达坐标系到摄像头坐标系所对应的旋转欧拉角进行动态调整,直至步骤2得到的目标物体的聚类点云数据投影结果和图像序列中的目标物体相互一致对应,最后,保存标定结果。
优选地,步骤3中,在保存标定结果的同时,还根据欧拉角和空间旋转矩阵的转换关系计算3D激光雷达坐标系到摄像头坐标系的空间旋转矩阵。
优选地,步骤3中,在保存标定结果的同时,还根据由式(3)表示的欧拉角和空间旋转矩阵的转换关系计算3D激光雷达坐标系到摄像头坐标系的空间旋转矩阵;
Figure BDA0002825298810000041
其中,rl、ph、yw分别为绕3D激光雷达坐标系X、Y、Z轴旋转的偏航角、俯仰角和横滚角。
本发明还提供了一种所述的方法在机器人技术领域中的应用。
本发明还提供了一种所述的方法在无人车技术领域中的应用。
(三)有益效果
本发明首先对3D激光雷达的点云数据进行聚类分析,然后,通过3D-2D投影方法,将点云数据聚类分析结果投影至摄像头采集的图像序列中,最后,通过调整动态配置中的旋转欧拉角,并利用ros环境下的可视化工具rviz,使目标物体的聚类点云数据投影结果和图像序列中的目标物体相互一致对应,实现3D激光雷达和摄像头间的空间旋转矩阵。该方法通过基于摄像头和3D激光雷达的联合标定,能够简单、快速地确定摄像头和3D激光雷达坐标系之间的空间变换关系。
附图说明
图1为本发明的摄像头和3D激光雷达联合标定示意图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
如图1所示,本发明提供的一种基于摄像头和3D激光雷达的联合标定方法,在该方法中,首先根据3D激光雷达得到的点云数据展开聚类分析,将点云数据进行分类;然后,根据聚类分析的结果,将点云数据投影到摄像头采集的图像序列中;最后,通过动态调整欧拉角(由偏航角、俯仰角和横滚角组成),将目标物体的点云数据的投影结果和图像序列中目标物体相互一一对应,进而确定摄像头坐标系和3D激光雷达坐标系间的空间旋转关系,实现两传感器间的联合标定。
具体而言,该方法包括以下步骤:
步骤1:根据3D激光雷达得到的点云数据,进行点云数据聚类分析;
点云数据聚类分析是将3D激光雷达扫描得到的点云数据中的点集根据一定的判断准则进行类别划分,每个类别分别对应不同的目标物体,点云数据聚类分析具体采用的方法如下:
(1)创建Kd-tree数据结构描述点云数据集P;
(2)设置一个空聚类列表C以及一个含检测点的队列Q;
(3)对于集合P中的每一个点Pi,作如下操作:
(3.1)添加点Pi至当前队列Q;
(3.2)对于集合P中的每一个点Pj,j!=i,作如下操作:
(3.2.1)计算点Pi和点Pj之间的欧式距离r,如式(1),如果满足r<距离阈值dth,则将点Pj添加至其邻域列表N;
Figure BDA0002825298810000061
(3.2.2)对N中的每一个领域ni,检查该点Pj是否已经被处理过,如果没有,添加该点至队列Q;否则,针对集合P中的下一个点返回步骤3.2.1继续处理;
(3.2.3)添加队列Q至聚类列表C;
(3.3)重置Q为空队列,直至集合P中所有的点被处理完毕。
步骤2:通过3D-2D投影,将聚类分析结果投影到摄像头得到的图像序列;
点云数据聚类分析得到了3D激光雷达点云数据对应目标物体的三维轮廓信息,而摄像头采集的图像序列中的目标物体信息为二维图像信息,因此,点云数据聚类分析结果需要特定的方法进行处理,才能投影到摄像头采集的图像序列中。3D-2D投影的方法如下:
(1)计算点云数据聚类分析结果中点云数据相对于摄像头图像垂直方向的差分航向角,具体公式为式(2):
yaw_diff=|arctan(Py,Px)-yaw-90| (2)
其中,Px,Py分别为点云数据在3D激光雷达坐标系X,Y轴上坐标值,yaw是摄像头的原始偏航角;
(2)设定差分航向角阈值th1,统计满足yaw_diff<预设阈值th1的点云数据个数pt_c;
(3)根据点云数据聚类分析结果中点云数据的大小,设定pt_c的阈值th2,如果pt_c≥th2,则将点云数据投影到图像中。
步骤3:基于步骤2,动态调整欧拉角,并判断可视化的标定结果是否满意,如果满意,保存标定结果;否则继续调整欧拉角,直至满意。
其中,根据动态配置文件,生成欧拉角配置窗口,同时,在ros环境下通过可视化工具rviz,生成可视化图像窗口,并将点云数据聚类分析结果投影至该可视化窗口,然后,对3D激光雷达坐标系到摄像头坐标系所对应的旋转欧拉角进行动态调整,直至步骤2得到的目标物体的聚类点云数据投影结果和图像序列中的目标物体相互一致对应,最后,保存标定结果,并根据式(3)表示的欧拉角和空间旋转矩阵的转换关系计算3D激光雷达坐标系到摄像头坐标系的空间旋转矩阵;
Figure BDA0002825298810000071
其中,rl、ph、yw分别为绕3D激光雷达坐标系X、Y、Z轴旋转的偏航角、俯仰角和横滚角。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (9)

1.一种基于摄像头和3D激光雷达的联合标定方法,其特征在于,包括以下步骤:
步骤1:根据3D激光雷达得到的点云数据,进行点云数据聚类分析;
步骤2:通过3D-2D投影,将聚类分析结果投影到摄像头得到的图像序列;
步骤3:基于步骤2,动态调整欧拉角,并判断可视化的标定结果是否满意,如果满意,保存标定结果;否则继续调整欧拉角,直至满意。
2.如权利要求1所述的方法,其特征在于,步骤1中,点云数据聚类分析是将3D激光雷达扫描得到的点云数据中的点集根据一定的判断准则进行类别划分,每个类别分别对应不同的目标物体。
3.如权利要求2所述的方法,其特征在于,步骤1中,点云数据聚类分析具体采用的方法如下:
(1)创建Kd-tree数据结构描述点云数据集P;
(2)设置一个空聚类列表C以及一个含检测点的队列Q;
(3)对于集合P中的每一个点Pi,作如下操作:
(3.1)添加点Pi至当前队列Q;
(3.2)对于集合P中的每一个点Pj,j!=i,作如下操作:
(3.2.1)计算点Pi和点Pj之间的欧式距离r,为式(1),如果满足r<距离阈值dth,则将点Pj添加至其邻域列表N;
Figure FDA0002825298800000021
(3.2.2)对N中的每一个领域ni,检查该点Pj是否已经被处理过,如果没有,添加该点至队列Q;否则,针对集合P中的下一个点返回步骤3.2.1继续处理;
(3.2.3)添加队列Q至聚类列表C;
(3.3)重置Q为空队列,直至集合P中所有的点被处理完毕。
4.如权利要求2所述的方法,其特征在于,步骤2中,3D-2D投影的方法如下:
(1)计算点云数据聚类分析结果中点云数据相对于摄像头图像垂直方向的差分航向角,具体公式为式(2):
yaw_diff=|arctan(Py,Px)-yaw-90| (2)
其中,Px,Py分别为点云数据在3D激光雷达坐标系X,Y轴上坐标值,yaw是摄像头的原始偏航角;
(2)设定差分航向角阈值th1,统计满足yaw_diff<预设阈值th1的点云数据个数pt_c;
(3)根据点云数据聚类分析结果中点云数据的大小,设定pt_c的阈值th2,如果pt_c≥th2,则将点云数据投影到图像中。
5.如权利要求2所述的方法,其特征在于,步骤3中,根据动态配置文件,生成欧拉角配置窗口,同时,在ros环境下通过可视化工具rviz,生成可视化图像窗口,并将点云数据聚类分析结果投影至该可视化窗口,然后,对3D激光雷达坐标系到摄像头坐标系所对应的旋转欧拉角进行动态调整,直至步骤2得到的目标物体的聚类点云数据投影结果和图像序列中的目标物体相互一致对应,最后,保存标定结果。
6.如权利要求5所述的方法,其特征在于,步骤3中,在保存标定结果的同时,还根据欧拉角和空间旋转矩阵的转换关系计算3D激光雷达坐标系到摄像头坐标系的空间旋转矩阵。
7.如权利要求6所述的方法,其特征在于,步骤3中,在保存标定结果的同时,还根据由式(3)表示的欧拉角和空间旋转矩阵的转换关系计算3D激光雷达坐标系到摄像头坐标系的空间旋转矩阵;
Figure FDA0002825298800000031
其中,rl、ph、yw分别为绕3D激光雷达坐标系X、Y、Z轴旋转的偏航角、俯仰角和横滚角。
8.一种如权利要求1至7中任一项所述的方法在机器人技术领域中的应用。
9.一种如权利要求1至7中任一项所述的方法在无人车技术领域中的应用。
CN202011447659.3A 2020-12-09 2020-12-09 一种基于摄像头和3d激光雷达的联合标定方法 Active CN112614189B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011447659.3A CN112614189B (zh) 2020-12-09 2020-12-09 一种基于摄像头和3d激光雷达的联合标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011447659.3A CN112614189B (zh) 2020-12-09 2020-12-09 一种基于摄像头和3d激光雷达的联合标定方法

Publications (2)

Publication Number Publication Date
CN112614189A true CN112614189A (zh) 2021-04-06
CN112614189B CN112614189B (zh) 2024-05-31

Family

ID=75233426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011447659.3A Active CN112614189B (zh) 2020-12-09 2020-12-09 一种基于摄像头和3d激光雷达的联合标定方法

Country Status (1)

Country Link
CN (1) CN112614189B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024131435A1 (zh) * 2022-12-19 2024-06-27 中国科学院深圳先进技术研究院 一种点云耦合方法及asic专用处理器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法
CN109696663A (zh) * 2019-02-21 2019-04-30 北京大学 一种车载三维激光雷达标定方法和系统
US20200200907A1 (en) * 2018-12-19 2020-06-25 Dalong Li Semi-automatic lidar annotation system for autonomous driving
CN111383279A (zh) * 2018-12-29 2020-07-07 阿里巴巴集团控股有限公司 外参标定方法、装置及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法
US20200200907A1 (en) * 2018-12-19 2020-06-25 Dalong Li Semi-automatic lidar annotation system for autonomous driving
CN111383279A (zh) * 2018-12-29 2020-07-07 阿里巴巴集团控股有限公司 外参标定方法、装置及电子设备
CN109696663A (zh) * 2019-02-21 2019-04-30 北京大学 一种车载三维激光雷达标定方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024131435A1 (zh) * 2022-12-19 2024-06-27 中国科学院深圳先进技术研究院 一种点云耦合方法及asic专用处理器

Also Published As

Publication number Publication date
CN112614189B (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
CN108932736B (zh) 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法
CN112396650B (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
CN111665842B (zh) 一种基于语义信息融合的室内slam建图方法及系统
KR102195164B1 (ko) 다중 라이다를 이용한 다중 물체 인식 시스템 및 방법
WO2021189468A1 (zh) 激光雷达的姿态校正方法、装置和系统
CN110893617A (zh) 障碍物检测方法、装置及存储装置
CN106650701B (zh) 基于双目视觉的室内阴影环境下障碍物检测方法及装置
JP5109294B2 (ja) 3次元位置補正装置
CN111046776A (zh) 基于深度相机的移动机器人行进路径障碍物检测的方法
US11783507B2 (en) Camera calibration apparatus and operating method
CN111522022B (zh) 基于激光雷达的机器人进行动态目标检测方法
CN111123242B (zh) 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质
WO2022179566A1 (zh) 外参标定方法、装置、电子设备及存储介质
CN103065323A (zh) 一种基于单应性变换矩阵的分段空间对准方法
WO2023131203A1 (zh) 语义地图更新方法、路径规划方法以及相关装置
CN114413958A (zh) 无人物流车的单目视觉测距测速方法
CN116844124A (zh) 三维目标检测框标注方法、装置、电子设备和存储介质
CN110208802B (zh) 融合多视图模糊推理赋值的障碍物检测方法
CN112614189B (zh) 一种基于摄像头和3d激光雷达的联合标定方法
CN113920191B (zh) 一种基于深度相机的6d数据集构建方法
CN113902828A (zh) 一种以墙角为关键特征的室内二维语义地图的构建方法
CN115100287B (zh) 外参标定方法及机器人
CN108549089B (zh) 一种用于slam的镂空障碍物检测装置和方法
CN116051818A (zh) 自动驾驶系统的多传感器信息融合方法
Zhang et al. Automatic Extrinsic Parameter Calibration for Camera-LiDAR Fusion using Spherical Target

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant