CN113870343B - 相对位姿标定方法、装置、计算机设备和存储介质 - Google Patents

相对位姿标定方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113870343B
CN113870343B CN202010614019.0A CN202010614019A CN113870343B CN 113870343 B CN113870343 B CN 113870343B CN 202010614019 A CN202010614019 A CN 202010614019A CN 113870343 B CN113870343 B CN 113870343B
Authority
CN
China
Prior art keywords
point cloud
data
cloud data
coordinate system
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010614019.0A
Other languages
English (en)
Other versions
CN113870343A (zh
Inventor
曾钰廷
李敏
马源
胡荣东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha Intelligent Driving Research Institute Co Ltd
Original Assignee
Changsha Intelligent Driving Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha Intelligent Driving Research Institute Co Ltd filed Critical Changsha Intelligent Driving Research Institute Co Ltd
Priority to CN202010614019.0A priority Critical patent/CN113870343B/zh
Publication of CN113870343A publication Critical patent/CN113870343A/zh
Application granted granted Critical
Publication of CN113870343B publication Critical patent/CN113870343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及一种激光雷达与导航定位系统间相对位姿标定方法、装置、计算机设备和存储介质。该方法对于智能驾驶行驶设备采集的第一场景的第一点云数据和第一位姿数据,利用待优化的相对位姿,将第一点云数据整体或局部投影至世界坐标系后,叠加多帧第二点云数据,进而非线性迭代优化,在损失值满足条件时,确定激光雷达与导航定位系统间相对位姿。由于是将N帧点云叠加进行优化,使得场景的信息量更丰富,有助于提高配准的准确率,进而提高标定的准确率,即使车辆较快速度的行驶采集数据,和低线束激光雷达的标定场景也可适用。

Description

相对位姿标定方法、装置、计算机设备和存储介质
技术领域
本申请涉及自动驾驶技术领域,特别是涉及一种相对位姿标定方法、装置、计算机设备和存储介质。
背景技术
传感器标定是为了获取不同传感器之间的相对位置关系,是进行多传感器融合的前提条件,也是自动驾驶最核心的技术之一。车辆感知系统中,激光雷达和导航定位系统有不同的数据表达形式,需要设计相应的算法完成标定。
传统的标定方法,针对某两帧点云数据通过ICP匹配求解位姿关系的思路进行标定。采用这种方法,如果是车速行驶过快,使用低线束激光雷达或者场景不够丰富,很难完成两帧直接的迭代配准。具体而言,车速过快,场景差异比较大,ICP算法将失效;低线束激光雷达,探测距离有限,两帧重合度低,也将匹配失效,无法完成标定。即传统的标定方法,存在标定准确率低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种提高标定准确率的激光雷达与导航定位系统间相对位姿标定方法、装置、计算机设备和存储介质。
一种激光雷达与导航定位系统间相对位姿标定方法,所述方法包括:
获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据;
对所述第一点云数据对应的所述第一位姿数据进行运动补偿,确定每帧所述第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据;
根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧所述第一点云数据整体或局部投影至世界坐标系,得到所述第一场景在世界坐标系下的多帧第二点云数据;
将多帧所述第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图;
根据所述三维点云图和预设的目标函数得到第一损失值;所述预设的目标函数与所述第一三维点云图中匹配点的距离相关;
迭代优化所述相对位姿,当所述第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
一种激光雷达与导航定位系统间相对位姿标定装置,所述装置包括:
数据采集模块,用于获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据;
运动补偿模块,用于对所述第一点云数据对应的所述第一位姿数据进行运动补偿,确定每帧所述第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据;
转换模块,用于根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧所述第一点云数据整体或局部投影至世界坐标系,得到所述第一场景在世界坐标系下的多帧第二点云数据;
叠加模块,用于将多帧所述第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图;
损失计算模块,用于根据所述第一三维点云图和预设的目标函数得到第一损失值;所述预设的目标函数与所述第一三维点云图中匹配点的距离相关;
优化模块,用于迭代优化所述相对位姿,当所述第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
上述激光雷达与导航定位系统间相对位姿标定方法、装置、计算机设备和存储介质,对于智能驾驶行驶设备采集的第一场景的第一点云数据和第一位姿数据,利用待优化的相对位姿,将第一点云数据整体或局部投影至世界坐标系后,叠加多帧第二点云数据,进而非线性迭代优化,在损失值满足条件时,确定激光雷达与导航定位系统间相对位姿。由于是将N帧点云叠加进行优化,使得场景的信息量更丰富,有助于提高配准的准确率,进而提高标定的准确率,即使车辆较快速度的行驶采集数据,和低线束激光雷达的标定场景也可适用。
附图说明
图1为一个实施例中激光雷达与导航定位系统间相对位姿标定方法的应用环境图;
图2为一个实施例中激光雷达与导航定位系统间相对位姿标定方法的流程示意图;
图3为一个实施例中智能行驶设备采集标定数据的场景环境示意图;
图4为另一个实施例中智能行驶设备采集标定数据的场景环境示意图;
图5为一个实施例中利用待优化转换关系将第一点云数据投影至世界坐标系下的效果示意图;
图6为另一个实施例中激光雷达与导航定位系统间相对位姿标定方法的流程示意图;
图7为一个实施例中优化转换关系的步骤流程示意图;
图8为一个实施例中地面三维点云俯视图;
图9为一个实施例中路牌三维点云前视图;
图10为一个实施例中转换关系评估过程说明示意图;
图11为一个实施例中标定后自然场景下点云分布情况示意图;
图12为一个实施例中标定后标定物点云分布情况示意图;
图13为一个实施例中相对位姿标定装置的结构框图;
图14为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的激光雷达与导航定位系统间相对位姿标定方法,可以应用于如图1所示的应用环境中。该应用环境包括智能行驶设备100,智能行驶设备配置有激光雷达101、定位设备102以及车辆控制器103。其中,激光雷达101、定位设备102分别与车辆控制器103连接。激光雷达101采集场景的点云数据,定位设备102采集位姿数据。车辆控制器根据对位姿数据将点云数据转换至世界坐标系,得到还原真实场景的在世界坐标系下的点云数据。
其中,智能行驶设备100可以包括但不限于无人驾驶汽车,智能行走机器人和无人机等。
在一个实施例中,如图2所示,提供了一种激光雷达与导航定位系统间相对位姿标定方法,以该方法应用于图1中的智能行驶设备的车辆控制器为例进行说明,包括以下步骤:
步骤202,获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据。
其中,智能行驶设备是无人驾驶能够自主行走的设备,包括但不限于无人驾驶汽车和智能行走机器人。第一场景是智能行驶设备用于标定激光雷达与导航定位系统间相对位姿的行驶场景。为了排除移动物体的干扰,第一场景可以为在图3所示的相对空旷的场地,在第一场景进行数据的采集,车辆行驶S型或者∞型轨迹,对智能行驶设备采集的位姿数据和激光雷达数据进行标定。第一场景还可以为具有自然标定物的场景。如图4所示,智能行驶设备在图4所示的场景中行驶S型轨迹向前开,采集第一点云数据和第一位姿数据。图4的路牌和路杆为自然标定物。
第一点云数据是激光雷达采集的用于表征行驶道路场景的三维扫描信息。扫描资料以点的形式记录,每一个点包含有三维坐标,除了具有几何位置以外,有的还有颜色信息。颜色信息通常是通过相机获取彩色影像,然后将对应位置的像素的颜色信息(RGB)赋予点云中对应的点。强度信息的获取是激光扫描仪接收装置采集到的回波强度,此强度信息与目标的表面材质、粗糙度、入射角方向,以及仪器的发射能量,激光波长有关。
导航定位系统是指由至少一个具有定位功能的单元或系统等组合而成,可以由惯性导航系统,惯性测量单元、全球定位系统和北斗卫星导航系统中的至少一个组成。导航定位系统可以采集智能行驶设备所采集的第一位姿数据,包括位置和姿态,即三个维度的平移和旋转量。
其中,激光雷达和导航定位系统均设置于智能行驶设备上,二者同时对行驶道路相同场景进行采集,即激光雷达采集和导航定位系统同步对行驶道路场景进行采集。第一点云数据中的每个点云都有其对应的第一位姿数据。
步骤204,对第一点云数据对应的第一位姿数据进行运动补偿,确定每帧第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据。
其中,定位系统坐标系是指以采集定位数据的定位设备为基准建立的坐标系。世界坐标系是指系统的绝对坐标系。定位系统采集的第一位姿数据即是定位系统坐标系至世界坐标系的旋转平移矩阵,也就是定位系统坐标系至世界坐标系的相对位姿。
而在实际应用中,由于智能行驶设备处于运动状态时,激光雷达扫描一周的过程中,自动驾驶汽车的位置和状态均发生了改变,直接利用激光雷达采集到的激光点云的激光点云数据构建出的车辆行驶环境的三维模型是变形的,不能真实反映某一固定时刻(固定时刻车辆位置也是固定的)的行驶环境。因此,激光雷达输出的激光点云数据并不能直接使用,必须通过运动补偿算法将每一帧激光点云中每一个激光点的坐标转换到目标时间进行运动补偿,从而利用运动补偿后的激光点云数据建立车辆行驶环境的三维模型。基于相同的原理,对第一点云数据对应第一位姿数据进行运动补偿,以准确地将第一点云数据投影至世界坐标系。
其中,可采用插值法对第一点云数据对应的第一位姿数据进行运动补偿,确定每帧第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据。
具体地,运动补偿的目的是确定每帧激光雷达三维点云所对应的imu(定位系统)的位姿数据,也就是确定t时刻某帧点云所对应的imu的坐标系到世界坐标系的位姿关系。
假设某帧三维点云的时间戳为t,与时间戳相邻的IMU时间戳为t1和t2,那么相对应的imu坐标到世界坐标的位姿关系为t1.T和t2.T。
激光雷达时间戳t相对于t1和t2时刻的时间差,如下公式(一):
diff_t=(t-t1)/(t2-t1) 公式(一)
激光雷达对应IMU位姿相对于t1和t2时刻的位姿关系差,如下公式(二):
diff_v=t1.T-1*t2.T 公式(二)即某帧三维点云对应的第二位姿数据T计算方法,如下公式(三):
t.T=t1.T*(t-t1)/(t2-t1)*(t1.T-1*t2.T)=t1.T*diff_t*diff_v 公式(三)
步骤206,根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧第一点云数据整体或局部投影至世界坐标系,得到第一场景在世界坐标系下的多帧第二点云数据。
待优化的激光雷达与定位系统的相对位姿,即待优化的激光雷达坐标系到定位系统坐标系的转换关系。初始的激光雷达坐标系到定位系统坐标系的转换关系可以被赋值为0,也可以通过手工去测量两个传感器器安装的位置。初始的转换关系往往是完全不正确的,即便是经过严格物理测量的外参也有很大的误差,需要在标定过程中不断被优化。
其中,整体投影是指将第一点云数据全部投影至世界坐标系。局部投影是指将第一点云数据中的局部数据投影至世界坐标系。如,将第一点云数据中具有标识意义的自然标定物点云数据投影至世界坐标系。相比较而言,由于局部投影的是局部数据,数据处理量小,因而处理效率高。
对于采集的数据包,将每帧点云都投影到世界坐标系,这样对于低线束激光雷达的标定更有力,能够融合所有的点云进行非线性优化。而单独前后两帧点云匹配则比较稀疏。例如16线激光雷达每帧点云3万帧,32线激光雷达每帧点云6万帧,而且绝大多数点云是近距离的点,远处场景点云数据相对来说更稀疏。相邻两帧直接的匹配很容易失效,一旦车速过快,场景差异比较大时,ICP等匹配算法也很容易失效。因此,可采取整体叠加的方法。
假设每帧第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据为RTimu2world,即imu到世界坐标系的旋转平移关系。假设初始的激光雷达坐标系到定位定位系统坐标系的外参为RTlidar2imu,即初始的激光雷达坐标系到定位系统坐标系的转换关系。
那么,第i帧第一点云数据Plidar投影到世界坐标系,得到的第二点云数据为:
Pi(world)=RTimu2world*RTlidar2imu*Plidar (公式四)
本实施例中,可以基于投影的全部点云数据进行标定,也可以基于投影的局部点云数据进行标定。
其中,根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将第一点云数据局部投影至世界坐标系,得到第一场景在世界坐标系下的第二点云数据,包括:提取第一点云数据中的标定物第一点云数据;根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将标定物第一点云数据投影至世界坐标系,得到第一场景中的标定物在世界坐标系下的标定物第二点云数据。
标定物是第一场景具有明显特征标识的物体,如路面、路灯或路牌。由于标定物具有明显标识,点云数据提取较为容易获得。具体地,可采用ransac等算法求解,求解第一点云数据中相关地面,球面等规则面的标定物点云数据。当局部投影时,利用标定物对激光雷达坐标系到定位系统坐标系的转换关系进行优化。即本实施例可以为基于局部的标定物数据进行优化。
步骤208,将多帧第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图。其中,叠加是指取多帧第二点云数据的并集。
N帧点云叠加的三维点云图,就是N帧点云数据叠加为一帧点云图,如公式(五)表示一共有n帧点云数据,Pi(world)表示第i帧世界坐标系下的第二点云数据,若第二点云数据是第一点云中的全部数据,此处的叠加为整体叠加,则整体叠加就是保留每个点云(x,y,z,i)数据。若第二点云数据是第一点云中的局部数据,则此处的叠加为局部叠加,则局部叠加就是保留标定物点云(x,y,z,i)数据。即将多帧标定物第二点云数据叠加,得到第一场景在世界坐标系下第一三维点云图。
P(world)=P1(world)∪P2(world)U…UPi(world)…UPn(world) (公式五)
步骤210,根据第一三维点云图和预设的目标函数得到第一损失值。预设的目标函数与第一三维点云图中匹配点的距离相关。
世界坐标系下自然场景的点云数据分布位置是固定的,在激光雷达坐标系到定位系统坐标系的转换关系正确的情况下,叠加的多帧点云自然场景下的物体会重合,多帧点云的同一物体在三维点云图中的距离为零。而标定不好的情况下,叠加后的点云,同一个物体会包括很多个,即同一个物体会有重影。第一损失值包括距离损失,距离损失即多帧点云的同一物体的匹配点在三维点云图中存在距离损失。一个实施例中,距离损失的计算方法可采用kd-tree算法,将第一三维点云图中全部点云作为搜索点,或先对全部点云进行过滤,将部分点云作为搜索点,在整体或局部叠加后的几十帧点云中查找,找到和搜索点特征匹配的匹配点。即匹配点是第一三维点云图中与搜索点特征匹配的点云,对应场景中的相同位置点,搜索点与匹配点组成匹配点对。计算这搜索点与匹配点之间的距离,得到距离损失,即预设的目标函数与第一三维点云图中匹配点对的距离相关。
步骤212,迭代优化相对位姿,当第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
图5为一个实施例利用待优化激光雷达与定位系统的相对位姿将第一点云数据投影至世界坐标系下的效果示意图。叠加后明显可以看出,辨别不清点云扫描到的空间信息,无法还原真实的三维世界。显然,初始的激光雷达与定位系统的相对位姿(转换关系)RTlidar2imu是非常不准确的。因此,需要不断迭代对激光雷达坐标系到定位系统坐标系的转换关系进行优化。
具体地,迭代以固定步长调整初始的激光雷达坐标系到定位系统坐标系的转换关系,即6个自由度位姿参数(X,Y,Z,roll,pitch,yaw)。每次调整后,利用调整后的转换关系,将第一点云数据投影至世界坐标系,得到第一场景在世界坐标系下的第二点云数据,叠加得到第一三维点云图。
对于每一帧三维点云图来说,相同物体投影到世界坐标系下的位置参数应该是相同的,为验证优化的激光雷达坐标系到定位系统坐标系的转换关系是否正确,可对比匹配点对的距离,若距离最小,满足要求,则可将对应的转换关系确定为激光雷达与导航定位系统间相对位姿。
其中,非线性优化是不断迭代求解外参,使损失值最小化,当损失值最小时,则此时外参为标定所求的外参。损失值可以为距离。
上述的激光雷达与导航定位系统间相对位姿标定方法,对于智能驾驶行驶设备采集的第一场景的第一点云数据和第一位姿数据,利用待优化的相对位姿,将第一点云数据整体或局部投影至世界坐标系后,叠加多帧第二点云数据,进而非线性迭代优化,在损失值满足条件时,确定激光雷达与导航定位系统间相对位姿。由于是将N帧点云叠加进行优化,使得场景的信息量更丰富,有助于提高配准的准确率,进而提高标定的准确率,即使车辆较快速度的行驶采集数据,和低线束激光雷达的标定场景也可适用。
在另一个实施例中,如图6所示,非线性迭代优化相对位姿,当第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿,包括:当第一损失值不满足第一条件时,更新待优化的激光雷达与定位系统的相对位姿;返回根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将第一点云数据整体或局部投影至世界坐标系,得到第一场景在世界坐标系下的第二点云数据的步骤,直至第一损失值满足第一条件,停止迭代;当迭代停止时,确定激光雷达与导航定位系统之间的相对位姿。
其中,非线性优化是不断迭代求解外参,使损失值最小化,当损失值最小时,则此时外参为标定所求的外参。第一损失值对应的第一条件可以为实际测试的经验值。当第一损失值满足第一条件时,停止迭代,完成标定。其中,每一轮迭代更新相对位姿,可以是每轮迭代以固定步长调整6个自由度位姿参数(X,Y,Z,roll,pitch,yaw)。
在其中一个实施例中,根据叠加的三维点云图,确定同一物体在各帧点云的距离,得到第一损失值,包括:将第一三维点云图的全部或部分点云作为搜索点,遍历第一三维点云图搜索得到匹配点对;根据匹配点对的距离,得到距离损失;根据匹配点的反射强度,得到反射强度损失;根据距离损失和反射强度损失,得到第一损失值。即本实施例中,第一损失值包括距离损失和反射强度损失。
其中,匹配点对是第一三维点云图中任意一个搜索点以及与该搜索点特征匹配的点组成的点对。对应场景中的相同位置点。匹配点对可采用kdtree算法搜索确定。
其中,某一个三维点的损失值可以用loss来表示,本申请定义为如下计算(公式六)
loss=lossdistance+lossintensity (公式六)
其中lossdistance为(公式七)所示,利用kdtree算法求取第一三维点云图的匹配点的距离
lossdistance=KdTreedistance (公式七)
具体地,先计算每一搜索点到匹配点的距离,再计算匹配点对的距离的平均值,将匹配点对的距离的平均值作为该搜索点的距离损失。求和全部搜索点的距离损失,得到最终的全局距离损失。
如(公式八)其中lossintensi(y则为利用kdtree算法求取的第一三维点云图中最近距离的k个匹配点的反射强度的平均值,如k=10。
最终的损失函数Total-Loss为(公式九)所示,组合了距离损失值和反射强度损失值,α和β分别为距离损失值和反射强度损失值的权重,如可以设定α=1,β=1/2。
本申请目标损失函数,结合了距离和反射强度的多重损失信息,距离损失能够评价多帧重合度,反射强度损失则可以弥补距离损失的可能带来的误差,利用周围点的强度信息进行进一步评估。相比单纯距离的损失函数设定,本申请结合了kd-tree查询的临近点的反射强度的均值作为损失值,因为同一个目标的反射强度基本是一致的,或差异微小的,可以从相邻的点云中判断是否匹配正确。
在另一个实施例中,如图7所示,本申请先基于局部标定物的点云数据全局优化激光雷达与定位系统的相对位姿,再基于整体三维点云进行局部优化。
其中,为了得到一个较好的初始化外参,同时能更好的初始化相对位姿(旋转关系),可以先利用局部数据进行全局优化,得到较精准的旋转量。另一方面,如果是稠密三维点云,如64线以上激光雷达,所有点云叠加后将有几百万点云,不利于后续高效快速的计算非线性优化。因此,本申请考虑将三维点云进行局部叠加,按照式(公式四)将每帧点云中的局部点云数据投影到世界坐标系,然后按照式(公式五)叠加转换后的所有帧局部点云数据。
N帧点云局部叠加,是先对每帧点云提取局部点云数据,再分别将各帧的局部点云数据投影至世界坐标系,对每帧转换后的局部点云数据进行叠加。其中,局部点云数据可以为标定物点云数据,例如,先分别对每帧点云提取三维点云的地面,路牌等较规则的面的三维点云作为标定物第一点云数据。然后再将N帧的三维点云面分别利用公式(公式四)投影到世界坐标系组合为一帧点云图,得到标定物第二点云数据。例如,针对激光雷达扫描到的路牌,地面等三维点云,可以利用ransac等算法求解,求解相关地面,球面等规则面的点云数据。具体地,将多帧标定物第二点云数据叠加,得到多帧点云叠加的第一场景中标定物在世界坐标系下第一三维点云图。
在此基础上,进一步地基于局部叠加的第一三维点云图,基于损失函数进行优化。
如图8所示为三维点云俯视图,框中即为地面点的示意图。如图9所示为前向图路牌点云呈现情况,框中即为路牌的三维点云图。
在根据标定物三维点云优化得到转换关系后,再基于整体三维点云进行局部优化。具体地,在在确定激光雷达与导航定位系统之间的相对位姿之后,该方法还包括:根据第二位姿数据和确定的相对位姿,将各帧第一点云数据整体投影至世界坐标系,得到第一场景在世界坐标系下的第三点云数据;将多帧第三点云数据叠加,得到多帧点云叠加的第一场景整体在世界坐标系下第二三维点云图;根据第二三维点云图和预设的目标函数得到第二损失值;迭代优化相对位姿,当第二损失值满足第二条件时,确定激光雷达与导航定位系统之间的相对位姿。
通过N帧点云的叠加,使得场景的信息量更丰富,可以允许车辆较快速度的行驶采集数据。分块迭代则运行效率更高,点云数据量更少且能获取场景中更有效的目标,能够快速实现全局优化。整体叠加则有利于进行局部优化,从整体的三维点云分布情况去微调外参。
在另一个实施例中,在确定激光雷达与导航定位系统间相对位姿,还包括评价标定的相对位姿。
其中,评价可以和标定数据是同场景,用场景中标定物尺寸来判断。但是,为了验证算法的鲁棒性,可以使用完全不同场景的数据。为了能够定性且定量的分析标定结果,本申请提出了利用标定物的方法,标定物可以是如图4场景二的路牌和路杆,这样可以依据激光雷达扫描到的点云图进行求解标定物尺寸。同时,测量出真实的三维尺寸,与求解的物体尺寸进行比较,从而根据阈值判别标定精度。
如图10所示,通过两种方法去判断。其中方法二为自动化的评估,不需要人眼主观去判别,能够自主输出外参的好坏程度。如上图10所示,获取最终的外参后,本申请通过利用(公式四)的方法,利用外参结合IMU的位姿数据,将数据包bag中的每帧三维点云都投影到世界坐标系,而世界坐标系下自然场景的点云数据分布位置是固定的,那么可以通过叠加的N帧三维点云信息来判断标定的效果。
其中,方法一为直观判断。
多帧点云通过外参投影到世界坐标系下,判断建筑物,杆子和路牌以及树等目标,是否清晰及有无重影。如图11所示,图中台阶呈现的三维点云分布清晰,树木脉络也较清晰,初步判断标定外参较准确。
lidar与imu外参的标定往往是通过人眼去观察,这样不能完成自动化的标定和评估系统,因此本申请利用了损失值的判别方法,结合了自然场景的损失值以及标定物的损失值来综合判断外参的精准度。
比人眼判断,往往比较主观,没有客观的评价标准。因此,本申请可以利用目标函数求取的损失值来判断,这样就更自动化。同时,结合场景中的标定物,已知大小的三维点云目标,这样可以通过目标的尺寸进行评估。
其中方法二为损失值判断。具体为:获取智能行驶设备的激光雷达采集的第二场景的第四点云数据,以及智能行驶设备的导航定位系统采集的第二场景的第三位姿数据;对第四点云数据对应的第三位姿数据进行运动补偿,确定每帧第四点云数据对应的定位系统坐标系到世界坐标系的第四位姿数据;根据第四位姿数据、激光雷达与导航定位系统之间的相对位姿,将第四点云数据的标定物点云投影至世界坐标系,得到第二场景中标定物在世界坐标系下的第三标定物点云数据,将第四点云数据投影至世界坐标系,得到第二场景在世界坐标系下的第五点云数据;根据第三标定物点云数据计算标定物预测尺寸;根据标定物预测尺寸与实际尺寸确定标定物损失值;根据第五点云数据计算损失函数的第三损失值;根据第三损失值和标定物损失值评价标定的激光雷达与导航定位系统间相对位姿。
其中,可以基于自然场景的第三损失值error_natural来判断:
利用最终求取的外参,将第二场景下的多帧点云通过外参投影到世界坐标系下,并利用(公式八)求取总的损失值,当损失值小于阈值a,则认为标定良好。损失值小于阈值b,则标定优秀。
还基于标定物损失值error_object来判断。标定物损失值是根据标定的外参计算得到的第二场景下的标定物与实际测量的标定物的距离。具体地,利用最终求取的外参,将多帧点云通过外参投影到世界坐标系下,并求取自然场景中标定物目标的尺寸。如图12所示,杆子为事先已知的标定物,且直径尺寸为0.3(m)。其中利用点云求取的尺寸为x(m),当损失值|x-0.3|小于阈值a,则认为标定良好。损失值|x-0.3|小于阈值b,则标定优秀。又例如,标定物为长方体,真实的三维尺寸为长宽高维H,W,L,其中利用点云求取的尺寸为h,w,l,那么标定物损失值|h-H|+|w-W|+|l-L|小于阈值a,则认为标定良好。标定物损失值|h-H|+|w-W|+|l-L|小于阈值b,则标定优秀。同理,其他的特殊标定物损失值计算方法。
同时,为了更鲁棒,本申请通过将两者损失值结合进行评价外参的精准度,综合了自然场景损失值和标定物损失值。
第五点云数据如公式十),当损失值Estimate_Loss小于阈值a,则认为标定良好。损失值Estimate_Loss小于阈值b,则标定优秀。
Estimate_Loss=error_natural+error_object
本申请从数据采集、标定流程和标定结果的评估三个环节来解决现有问题。本方法中,首先采集两段数据,一段用于标定,一段用于验证。待标定的车辆,沿S型或∞型轨迹行驶,采集传感器数据。然后将采集的数据流中所有帧的点云数据,通过初始的RT以及对应IMU的位姿关系转换到世界坐标系,这样获取了整个场景的点云数据,再进行整体叠加及分块处理,然后利用基于迭代的非线性优化算法来优化RT,直到满足迭代停止条件,最后通过直观判断和损失值来评价标定外参的结果。
本申请整个框架包括三个部分,数据的采集和标定外参的算法以及标定结果的评估算法。其中标定外参的算法是基于迭代的非线性优化算法来完成的。
1)数据采集,首先采集标定数据和验证数据,为了验证算法鲁棒性,采集不同场景的多段数据。车辆在室外空旷场景,行驶S型或者∞型轨迹,让激光雷达能扫描到室外自然场景的物体或者自然场景中的特殊标定物。
2)标定外参,首先通过运动补偿插值法,确定每帧点云对应的IMU的位姿数据,然后将采集的所有三维点云数据叠加为一帧点云图,再利用迭代的非线性优化算法进行优化外参,直到满足迭代终止条件。
3)结果评估,本申请从两个角度进行评估,一个是直观判断,一个是损失值判断。其中直观判断是人眼去判断标定后的世界坐标系下的三维点云场景,是否正确反映物体的真实物理关系。另外损失值判断分为两种情况,若自然场景无特殊标定物,可以通过设定的目标函数的损失值来判断,若标定场景有标定物,可以比较标定叠加后的三维点云目标尺寸和真实的物理尺寸。
在一个实施例中,如图13所示,提供了一种激光雷达与导航定位系统间相对位姿标定装置,包括:
数据采集模块1302,用于获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据;
运动补偿模块1304,用于对第一点云数据对应的第一位姿数据进行运动补偿,确定每帧第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据;
转换模块1306,用于根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧第一点云数据整体或局部投影至世界坐标系,得到第一场景在世界坐标系下的多帧第二点云数据;
叠加模块1308,用于将多帧第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图;
损失计算模块1310,用于根据第一三维点云图和预设的目标函数得到第一损失值;预设的目标函数与第一三维点云图中匹配点的距离相关;
优化模块1312,用于迭代优化相对位姿,当第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
上述激光雷达与导航定位系统间相对位姿标定装置,对于智能驾驶行驶设备采集的第一场景的第一点云数据和第一位姿数据,利用待优化的相对位姿,将第一点云数据整体或局部投影至世界坐标系后,叠加多帧第二点云数据,进而非线性迭代优化,在损失值满足条件时,确定激光雷达与导航定位系统间相对位姿。由于是将N帧点云叠加进行优化,使得场景的信息量更丰富,有助于提高配准的准确率,进而提高标定的准确率,即使车辆较快速度的行驶采集数据,和低线束激光雷达的标定场景也可适用。
在另一个实施例中,转换模块,包括:
标定物提取模块,用于提取第一点云数据中的标定物第一点云数据;
标定物转换模块,用于根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将标定物第一点云数据投影至世界坐标系,得到第一场景中的标定物在世界坐标系下的标定物第二点云数据。
在另一个实施例中,叠加模块,用于将多帧标定物第二点云数据叠加,得到多帧点云叠加的第一场景中标定物在世界坐标系下第一三维点云图。
在一个实施例中,损失计算模块,用于将所述第一三维点云图的全部或部分点云作为搜索点,遍历所述第一三维点云图搜索得到匹配点对;根据匹配点对的距离,得到距离损失;根据匹配点的反射强度,得到反射强度损失;根据距离损失和反射强度损失,得到第一损失值。
在一个实施例中,优化模块,包括:
更新模块,用于当第一损失值不满足第一条件时,更新待优化的激光雷达与定位系统的相对位姿;
迭代控制模块,用于控制返回根据第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将第一点云数据整体或局部投影至世界坐标系,得到第一场景在世界坐标系下的第二点云数据的步骤,直至第一损失值满足第一条件,停止迭代;
标定模块,用于当迭代停止时,确定激光雷达与导航定位系统之间的相对位姿。
在另一个实施例中,转换模块,还用于根据第二位姿数据和确定的相对位姿,将第一点云数据整体投影至世界坐标系,得到第一场景在世界坐标系下的多帧第三点云数据;
叠加模块,还用于将多帧第三点云数据叠加,得到多帧点云叠加的第一场景整体在世界坐标系下第二三维点云图;
损失计算模块,还用于根据第二三维点云图和预设的目标函数得到第二损失值;
优化模块,还用于迭代优化相对位姿,当第二损失值满足第二条件时,确定激光雷达与导航定位系统之间的相对位姿。
在另一个实施例中,数据采集模块,还用于获取智能行驶设备的激光雷达采集的第二场景的第四点云数据,以及智能行驶设备的导航定位系统采集的第二场景的第三位姿数据;
运动补偿模块,还用于对第四点云数据对应的第三位姿数据进行运动补偿,确定每帧第四点云数据对应的定位系统坐标系到世界坐标系的第四位姿数据;
转换模块,还用于根据第四位姿数据、激光雷达与导航定位系统之间的相对位姿,将第四点云数据的标定物点云投影至世界坐标系,得到第二场景中标定物在世界坐标系下的第三标定物点云数据,将第四点云数据投影至世界坐标系,得到第二场景在世界坐标系下的第五点云数据;
损失值计算模块,还用于根据第三标定物点云数据计算标定物预测尺寸;根据标定物预测尺寸与实际尺寸确定标定物损失值;根据第五点云数据计算损失函数的第三损失值;
评价模块,还用于根据第三损失值和标定物损失值评价标定的激光雷达与导航定位系统间相对位姿。
关于激光雷达与导航定位系统间相对位姿标定装置的具体限定可以参见上文中对于激光雷达与导航定位系统间相对位姿标定方法的限定,在此不再赘述。上述激光雷达与导航定位系统间相对位姿标定装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图13所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种激光雷达与导航定位系统间相对位姿标定方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图13中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各实施例的步骤:
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各实施例的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种激光雷达与导航定位系统间相对位姿标定方法,所述方法包括:
获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据;
对所述第一点云数据对应的所述第一位姿数据进行运动补偿,确定每帧所述第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据;
根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧所述第一点云数据整体或局部投影至世界坐标系,得到所述第一场景在世界坐标系下的多帧第二点云数据;
将多帧所述第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图;
根据所述第一三维点云图和预设的目标函数得到第一损失值;所述预设的目标函数与所述第一三维点云图中匹配点对的距离相关;
迭代优化所述相对位姿,当所述第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
2.根据权利要求1所述的方法,其特征在于,根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将所述第一点云数据局部投影至世界坐标系,得到所述第一场景在世界坐标系下的第二点云数据,包括:
提取所述第一点云数据中的标定物第一点云数据;
根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将所述标定物第一点云数据投影至世界坐标系,得到所述第一场景中的标定物在世界坐标系下的标定物第二点云数据。
3.根据权利要求2所述的方法,其特征在于,将多帧所述第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图,包括:
将多帧所述标定物第二点云数据叠加,得到多帧点云叠加的第一场景中标定物在世界坐标系下第一三维点云图。
4.根据权利要求1所述的方法,其特征在于,根据所述第一三维点云图和预设的目标函数得到第一损失值,包括:
将所述第一三维点云图的全部或部分点云作为搜索点,遍历所述第一三维点云图搜索得到匹配点对;
根据匹配点对的距离,得到距离损失;
根据匹配点的反射强度,得到反射强度损失;
根据所述距离损失和所述反射强度损失,得到第一损失值。
5.根据权利要求1所述的方法,其特征在于,迭代优化所述相对位姿,当所述第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿,包括:
当所述第一损失值不满足第一条件时,更新待优化的激光雷达与定位系统的相对位姿;
返回所述根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将所述第一点云数据整体或局部投影至世界坐标系,得到所述第一场景在世界坐标系下的第二点云数据的步骤,直至所述第一损失值满足第一条件,停止迭代;
当迭代停止时,确定激光雷达与导航定位系统之间的相对位姿。
6.根据权利要求3所述的方法,其特征在于,在确定激光雷达与导航定位系统之间的相对位姿之后,所述方法还包括:
根据所述第二位姿数据和确定的所述相对位姿,将所述第一点云数据整体投影至世界坐标系,得到所述第一场景在世界坐标系下的多帧第三点云数据;
将多帧所述第三点云数据叠加,得到多帧点云叠加的第一场景整体在世界坐标系下第二三维点云图;
根据所述第二三维点云图和所述预设的目标函数得到第二损失值;
迭代优化所述相对位姿,当所述第二损失值满足第二条件时,确定激光雷达与导航定位系统之间的相对位姿。
7.根据权利要求1或6所述的方法,其特征在于,在确定激光雷达与导航定位系统之间的相对位姿,还包括:
获取智能行驶设备的激光雷达采集的第二场景的第四点云数据,以及智能行驶设备的导航定位系统采集的第二场景的第三位姿数据;
对所述第四点云数据对应的所述第三位姿数据进行运动补偿,确定每帧所述第四点云数据对应的定位系统坐标系到世界坐标系的第四位姿数据;
根据所述第四位姿数据、激光雷达与导航定位系统之间的相对位姿,将所述第四点云数据的标定物点云投影至世界坐标系,得到所述第二场景中标定物在世界坐标系下的第三标定物点云数据,将所述第四点云数据投影至世界坐标系,得到所述第二场景在世界坐标系下的第五点云数据;
根据所述第三标定物点云数据计算标定物预测尺寸;
根据所述标定物预测尺寸与实际尺寸确定标定物损失值;
根据第五点云数据计算损失函数的第三损失值;
根据所述第三损失值和所述标定物损失值评价标定的所述激光雷达与导航定位系统间相对位姿。
8.一种激光雷达与导航定位系统间相对位姿标定装置,其特征在于,所述装置包括:
数据采集模块,用于获取智能行驶设备的激光雷达采集的第一场景的多帧第一点云数据,以及智能行驶设备的导航定位系统采集的第一场景的第一位姿数据;
运动补偿模块,用于对所述第一点云数据对应的所述第一位姿数据进行运动补偿,确定每帧所述第一点云数据对应的定位系统坐标系到世界坐标系的第二位姿数据;
转换模块,用于根据所述第二位姿数据、待优化的激光雷达与定位系统的相对位姿,将各帧所述第一点云数据整体或局部投影至世界坐标系,得到所述第一场景在世界坐标系下的多帧第二点云数据;
叠加模块,用于将多帧所述第二点云数据叠加,得到多帧点云叠加的第一场景在世界坐标系下的第一三维点云图;
损失计算模块,用于根据所述第一三维点云图和预设的目标函数得到第一损失值;所述预设的目标函数与所述第一三维点云图中匹配点的距离相关;
优化模块,用于迭代优化所述相对位姿,当所述第一损失值满足第一条件时,确定激光雷达与导航定位系统之间的相对位姿。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202010614019.0A 2020-06-30 2020-06-30 相对位姿标定方法、装置、计算机设备和存储介质 Active CN113870343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010614019.0A CN113870343B (zh) 2020-06-30 2020-06-30 相对位姿标定方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010614019.0A CN113870343B (zh) 2020-06-30 2020-06-30 相对位姿标定方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN113870343A CN113870343A (zh) 2021-12-31
CN113870343B true CN113870343B (zh) 2024-05-28

Family

ID=78981357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010614019.0A Active CN113870343B (zh) 2020-06-30 2020-06-30 相对位姿标定方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113870343B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365542A (zh) * 2020-11-26 2021-02-12 上海禾赛科技股份有限公司 位姿标定方法及位姿标定设备、自动控制系统
CN114416764A (zh) * 2022-02-24 2022-04-29 上海商汤临港智能科技有限公司 地图更新方法、装置、设备及存储介质
CN114526746A (zh) * 2022-03-15 2022-05-24 智道网联科技(北京)有限公司 高精地图车道线的生成方法、装置、设备及存储介质
CN114511600A (zh) * 2022-04-20 2022-05-17 北京中科慧眼科技有限公司 基于点云配准的位姿计算方法和系统
CN115015889A (zh) * 2022-05-31 2022-09-06 襄阳达安汽车检测中心有限公司 激光雷达位姿调整方法、装置、设备及可读存储介质
CN115239899B (zh) * 2022-06-29 2023-09-05 北京百度网讯科技有限公司 位姿图生成方法、高精地图生成方法和装置
CN115236644A (zh) * 2022-07-26 2022-10-25 广州文远知行科技有限公司 一种激光雷达外参标定方法、装置、设备和存储介质
CN115258959B (zh) * 2022-09-19 2023-01-03 杭州飞步科技有限公司 吊具控制方法、设备及存储介质
CN117036511B (zh) * 2023-10-08 2024-03-26 之江实验室 多类型传感器的标定方法、装置、计算机设备和存储介质
CN117031443B (zh) * 2023-10-09 2024-01-19 天津云圣智能科技有限责任公司 点云数据构建方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109297510A (zh) * 2018-09-27 2019-02-01 百度在线网络技术(北京)有限公司 相对位姿标定方法、装置、设备及介质
CN109901139A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN109901138A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN110221276A (zh) * 2019-05-31 2019-09-10 文远知行有限公司 激光雷达的标定方法、装置、计算机设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214248B (zh) * 2017-07-04 2022-04-29 阿波罗智能技术(北京)有限公司 用于识别无人驾驶车辆的激光点云数据的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109297510A (zh) * 2018-09-27 2019-02-01 百度在线网络技术(北京)有限公司 相对位姿标定方法、装置、设备及介质
EP3629057A2 (en) * 2018-09-27 2020-04-01 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for calibrating relative pose and medium
CN109901139A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN109901138A (zh) * 2018-12-28 2019-06-18 文远知行有限公司 激光雷达标定方法、装置、设备和存储介质
CN110221276A (zh) * 2019-05-31 2019-09-10 文远知行有限公司 激光雷达的标定方法、装置、计算机设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于多对点云匹配的三维激光雷达外参数标定;韩栋斌;徐友春;王任栋;齐尧;李华;;激光与光电子学进展;20170924(第02期);全文 *
基于手眼模型的三维激光雷达外参数标定;韩栋斌;徐友春;李华;谢德胜;陈文;;光电工程;20170815(第08期);全文 *

Also Published As

Publication number Publication date
CN113870343A (zh) 2021-12-31

Similar Documents

Publication Publication Date Title
CN113870343B (zh) 相对位姿标定方法、装置、计算机设备和存储介质
TWI722355B (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
US10860871B2 (en) Integrated sensor calibration in natural scenes
JP7204326B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム
CN113657224B (zh) 车路协同中用于确定对象状态的方法、装置、设备
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
CN103424112A (zh) 一种基于激光平面辅助的运动载体视觉导航方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN110764110B (zh) 路径导航方法、装置及计算机可读存储介质
CN115690338A (zh) 地图构建方法、装置、设备及存储介质
CN110766761B (zh) 用于相机标定的方法、装置、设备和存储介质
CN114494466B (zh) 外参标定方法、装置及设备、存储介质
CN115077519A (zh) 基于模板匹配与激光惯导松耦合的定位建图方法和装置
CN115079143A (zh) 一种用于双桥转向矿卡的多雷达外参快速标定方法及装置
CN113403942B (zh) 一种基于标签辅助的桥梁检测无人机视觉导航方法
WO2022133986A1 (en) Accuracy estimation method and system
CN114565669A (zh) 一种场端多相机融合定位方法
CN113593026A (zh) 车道线标注辅助地图生成方法、装置和计算机设备
KR102618951B1 (ko) 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102675138B1 (ko) 복수개의 라이다들의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102626574B1 (ko) 카메라 및 라이다의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102616437B1 (ko) 라이다 및 관성측정장치의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN110969664A (zh) 一种相机外部参数的动态标定方法
CN117367441A (zh) 自主移动构建三维真彩色点云地图的机器人系统及方法
Shen et al. P‐2.11: Research on Scene 3d Reconstruction Technology Based on Multi‐sensor Fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant