CN117392241A - 自动驾驶中的传感器标定方法、装置及电子设备 - Google Patents

自动驾驶中的传感器标定方法、装置及电子设备 Download PDF

Info

Publication number
CN117392241A
CN117392241A CN202311687296.4A CN202311687296A CN117392241A CN 117392241 A CN117392241 A CN 117392241A CN 202311687296 A CN202311687296 A CN 202311687296A CN 117392241 A CN117392241 A CN 117392241A
Authority
CN
China
Prior art keywords
deviation
point cloud
point
coordinates
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311687296.4A
Other languages
English (en)
Other versions
CN117392241B (zh
Inventor
黄鸿胜
苗乾坤
张�雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neolithic Zhongyan Shanghai Technology Co ltd
Original Assignee
Neolithic Zhongyan Shanghai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neolithic Zhongyan Shanghai Technology Co ltd filed Critical Neolithic Zhongyan Shanghai Technology Co ltd
Priority to CN202311687296.4A priority Critical patent/CN117392241B/zh
Publication of CN117392241A publication Critical patent/CN117392241A/zh
Application granted granted Critical
Publication of CN117392241B publication Critical patent/CN117392241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开提供了一种自动驾驶中的传感器标定方法、装置及电子设备,涉及自动驾驶和智能交通等人工智能技术领域。该方法包括:获取自动驾驶车辆的激光雷达采集的激光点云;基于相机的初始外参和内参,生成激光点云在图像平面上的第一点云投影点和对应的初始坐标;基于光流学习网络预测第一点云投影点的第一偏差;对第一偏差进行不确定性建模,确定满足条件的第二偏差;基于第二偏差和初始坐标更新第一点云投影点的坐标,得到目标坐标;基于激光点云的3D坐标和目标坐标,得到初始外参和真值外参的第三偏差;利用第三偏差对初始外参进行更新,得到标定后的外参。本公开提供的方法具有更好的泛化性,并提高了标定精度。

Description

自动驾驶中的传感器标定方法、装置及电子设备
技术领域
本公开涉及人工智能技术领域,具体涉及自动驾驶和智能交通等人工智能技术领域,尤其涉及一种自动驾驶中的传感器标定方法、装置及电子设备。
背景技术
随着人工智能技术的发展,自动驾驶技术越发成熟。自动驾驶技术可以简要的分为感知、预测、定位、决策、规划与控制几个方面。感知需要融合多个传感器的信息识别环境信息。而融合不同传感器的前提是对不同传感器进行标定。而对激光雷达LiDAR(LightDetection And Ranging)和相机camera的标定是其中的核心部分。
发明内容
本公开提供了一种自动驾驶中的传感器标定方法、装置及电子设备。
根据本公开的第一方面,提供了一种自动驾驶中的传感器标定方法,包括:获取自动驾驶车辆的激光雷达采集的激光点云;基于自动驾驶车辆的相机的初始外参和内参,生成激光点云在图像平面上的第一点云投影点以及第一点云投影点在图像平面对应的图像坐标系下的初始坐标;基于光流学习网络预测第一点云投影点的偏差,记为第一偏差;对第一偏差进行不确定性建模,基于建模结果从第一偏差中确定满足预设条件的偏差,记为第二偏差,包括:基于拉普拉斯分布极大似然估计函数对第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差;基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标;基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差,其中,3D坐标根据相机的真值外参得到,相机的真值外参为自动驾驶车辆出厂时,通过标定间或者举板进行标定得到的外参值;利用第三偏差对初始外参进行更新,得到标定后的外参,标定后的外参为自动驾驶车辆的相机的标定后的外参。
根据本公开的第二方面,提供了一种自动驾驶中的传感器标定装置,包括:获取模块,被配置成获取自动驾驶车辆的激光雷达采集的激光点云;生成模块,被配置成基于自动驾驶车辆的相机的初始外参和内参,生成激光点云在图像平面上的第一点云投影点以及第一点云投影点在图像平面对应的图像坐标系下的初始坐标;预测模块,被配置成基于光流学习网络预测第一点云投影点的偏差,记为第一偏差;确定模块,被配置成对第一偏差进行不确定性建模,基于建模结果从第一偏差中确定满足预设条件的偏差,记为第二偏差,包括:基于拉普拉斯分布极大似然估计函数对第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差;第一更新模块,被配置成基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标;计算模块,被配置成基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差,其中,3D坐标根据相机的真值外参得到,相机的真值外参为自动驾驶车辆出厂时,通过标定间或者举板进行标定得到的外参值;第二更新模块,被配置成利用第三偏差对初始外参进行更新,得到标定后的外参,标定后的外参为自动驾驶车辆的相机的标定后的外参。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开的自动驾驶中的传感器标定方法的一个实施例的流程图;
图3是根据本公开的自动驾驶中的传感器标定方法的另一个实施例的流程图;
图4是根据本公开的自动驾驶中的传感器标定方法的一个应用场景示意图;
图5是根据本公开的自动驾驶中的传感器标定装置的一个实施例的结构示意图;
图6是用来实现本公开实施例的自动驾驶中的传感器标定方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本邻域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的自动驾驶中的传感器标定方法或自动驾驶中的传感器标定装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括自动驾驶车辆101,网络102和服务器103。网络102用以在自动驾驶车辆101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
自动驾驶车辆101上可以安装有各种传感器,例如相机传感器、激光雷达传感器等。
服务器103可以提供各种服务。例如,服务器103可以对从自动驾驶车辆101获取的激光点云数据信息进行分析和处理,并生成处理结果(例如标定后的外参)。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开实施例所提供的自动驾驶中的传感器标定方法一般由服务器103执行,相应地,自动驾驶中的传感器标定装置一般设置于服务器103中。
应该理解,图1中的自动驾驶车辆、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的自动驾驶车辆、网络和服务器。
继续参考图2,其示出了根据本公开的自动驾驶中的传感器标定方法的一个实施例的流程200。该自动驾驶中的传感器标定方法包括以下步骤:
步骤201,获取自动驾驶车辆的激光雷达采集的激光点云。
在本实施例中,自动驾驶中的传感器标定方法的执行主体(例如图1所示的服务器103)会获取自动驾驶车辆的激光雷达采集的激光点云。自动驾驶汽车(Autonomousvehicles)又称无人驾驶汽车、电脑驾驶汽车、或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。其依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。
自动驾驶车辆上会装有多个传感器,用于采集周围环境的信息,其中就包括激光雷达和相机,相机传感器用于采集当前环境的图像。激光雷达LiDAR(Light Detection AndRanging)是激光探测及测距系统的简称,主要构成要素包括发射系统、接收系统和信号处理系统。激光点云是是扫描点的集合。激光雷达系统对地面扫描获得地面反射点的三维坐标,每个地面反射点按三维坐标以点的形式分布在三维空间中,称为扫描点。即在相机采集图像的同时,激光雷达会采集该图像对应的激光点云。
步骤202,基于自动驾驶车辆的相机的初始外参和内参,生成激光点云在图像平面上的第一点云投影点以及第一点云投影点在图像平面对应的图像坐标系下的初始坐标。
在本实施例中,上述执行主体会基于自动驾驶车辆的相机的初始外参和内参,生成激光点云投影点在图像平面上的第一点云投影点以及第一点云投影点在图像坐标系下的初始坐标。
相机的外参用于将点从世界坐标系转换到相机坐标系,其一般指相机位置、旋转方向等。相机的内参用于将点从相机坐标系转换到像素坐标系,其一般指与相机自身特性相关的参数,如相机焦距、像素大小等。这里的初始外参指的是大家默认参数的外参,但是其往往有可能是不准确的,本实施例的目的是对可能不太准确的初始外参进行更新,从而使其更加准确。
在这里,上述执行主体会利用相机的初始外参和内参,生成激光点云在图像平面(即像素坐标系)对应的投影点,即第一点云投影点,还会得到第一点云投影点在图像坐标系下的坐标,即初始坐标。具体地,上述执行主体会利用初始外参将激光点云从世界坐标系转换到相机坐标系,然后再利用内参用于将其从相机坐标系转换到像素坐标系,从而得到第一点云投影点以及第一点云投影点的初始坐标。
步骤203,基于光流学习网络预测第一点云投影点的偏差,记为第一偏差。
在本实施例中,上述执行主体会基于光流学习网络预测第一点云投影点的偏差,记为第一偏差。光流学习网络即利用光流学习算法的网络,例如GMFlow,GMFlow是一个基于全局匹配的光流学习框架,但是本实施例中不限定光流学习网络只能采用GMFlow,其可以为任意的类似光流学习网络。
在这里,上述执行主体会先获取自动驾驶车辆的相机采集的与激光点云对应的图像。然后,上述执行主体会通过初始外参将激光点云转化为相机坐标系后,会取相机坐标系的深度作为投影图特征,从而得到投影深度图。光流学习网络的输入为相机采集的图像和投影深度图。光流学习网络的输出为第一点云投影点的偏差预测值,即第一偏差,在这里可以将其比做光流(optical flow),光流描述了两个视频帧之间像素之间的像素运动。
步骤204,对第一偏差进行不确定性建模,基于建模结果从第一偏差中确定满足预设条件的偏差,记为第二偏差。
在本实施例中,上述执行主体会对第一偏差进行不确定性建模,基于建模结果从第一偏差中确定满足预设条件的偏差,记为第二偏差。由于第一偏差是基于光流学习网络得到,也即光流学习网络对第一点云投影点的偏差进行了预测,在这里,通过不确定性建模对光流学习网络的预测结果(即第一偏差)的可靠性进行验证,从而基于建模结果来从第一偏差中确定满足预设条件的偏差,得到第二偏差。其具体包括:基于拉普拉斯分布极大似然估计函数(或者高斯分布极大似然估计函数)对第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差。
一般深度学习方法监督的是目标值与预测值的误差L2损失或者L1损失,其实际是对高斯分布均值进行建模,但是忽略高斯分布的方差(高维变量则实际为协方差矩阵)。但是在本实施例中,通过对方差进行建模,方差越大代表模型预测结果越不可靠,从而实现不确定性建模。通过过滤方差大的点,可提升solvePnPRansc函数的解算精度。同时所有lidar投影点的平均方差大小可作为外参估计可靠性的度量,方差超过一定阈值则认为标定失败需要重新进行标定,避免了错误标定结果带来的问题,同时减少了人工复核人力成本。需要说明的是,solvePnP(Perspective-n-Point)是计算机视觉中的一个重要问题,用于将三维物体的点在二维图像中进行定位,RANSAC(Random Sample Consensus),它是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。solvePnPRansc公式的核心思想是通过已知的三维物体坐标和对应的二维图像点坐标来计算相机的位姿,即相机的旋转矩阵和平移向量。通过该不确定性建模,可以判断模型结果是否可靠,明显提高了在线标定方法使用的自动化程度和可靠性。
步骤205,基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标。
在本实施例中,上述执行主体会基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标。也即将初始坐标与第二偏差进行求和,从而得到更新后的坐标,也即目标坐标。
步骤206,基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差。
在本实施例中,上述执行主体会基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差,其中,3D坐标根据自动驾驶车辆的相机的真值外参得到。
首先,相机的真值外参指的是车辆出厂时,通过标定间或者举板进行标定得到的外参值。通过真值外参可以将激光点云转化为相机坐标系下的第二点云点,从而得到3D坐标。
然后,利用opencv(跨平台计算机视觉库)的solvePnPRansc函数,即可解算出初始外参与真值外参的偏差,即第三偏差。
步骤207,利用第三偏差对初始外参进行更新,得到标定后的外参。
在本实施例中,上述执行主体会利用第三偏差对初始外参进行更新,得到标定后的外参,标定后的外参为自动驾驶车辆的相机的标定后的外参。具体地,可以将第三偏差与初始外参的乘积作为标定后的外参值。
本公开实施例提供的自动驾驶中的传感器标定方法,该方法采用类光流思想,通过学习lidar投影点的相对偏移,可获得lidar在图像上的真正应该的投影位置,再利用lidar点云和图像的投影点通过求解pnp和ransac处理离群点可求解出camera的外参。该方法可在实现较高标定精度的同时,实现相机内参的解耦,在跨车和跨城测试数据上表现出非常好的泛化性,得到了比较好的标定精度,在道路场景标定角度平均误差小于0.5度。此外,通过对预测结果的不确定性建模,可以判断模型结果是否可靠,明显提高了在线标定使用的自动化程度和可靠性。经测试,不确定建模可过滤掉如面向大墙壁,动态障碍物多等场景样本,模型结果可靠性明显提升。
继续参考图3,图3示出了根据本公开的自动驾驶中的传感器标定方法的另一个实施例的流程300。该自动驾驶中的传感器标定方法包括以下步骤:
步骤301,获取自动驾驶车辆的激光雷达采集的激光点云。
在本实施例中,自动驾驶中的传感器标定方法的执行主体(例如图1所示的服务器103)会获取自动驾驶车辆的激光雷达采集的激光点云。步骤301与前述实施例的步骤201基本一致,具体实现方式可以参考前述对步骤201的描述,此处不再赘述。
步骤302,通过初始外参将激光点云转化为相机坐标系下的第一点云点。
在本实施例中,上述执行主体会通过初始外参将激光点云/> 转化为相机坐标系下的第一点云点/>,可表示成以下形式。
步骤303,通过内参将第一点云点投影至图像平面,得到第一点云投影点以及第一点云投影点在图像坐标系下的初始坐标。
在本实施例中,上述执行主体会通过内参将第一点云点投影至图像平面,得到第一点云投影点/>以及第一点云投影点在图像坐标系下的初始坐标/>,可表示为以下形式。
步骤304,获取相机采集的与激光点云对应的图像。
在本实施例中,自动驾驶车辆上还会装有相机(相机传感器),其可以采集当前环境的图像,上述执行主体会获取相机采集的与激光点云对应的图像。
步骤305,获取第一点云点的投影深度图。
在本实施例中,上述执行主体会获取第一点云点的投影深度图。即取/>的深度/>作为投影图特征,从而获得投影深度图。
步骤306,将图像以及投影深度图输入至光流学习网络,输出得到第一点云投影点的偏差,记为第一偏差。
在本实施例中,上述执行主体会将图像以及第一点云点的投影深度图输入至光流学习网络,输出得到第一点云投影点的偏差,即第一偏差。光流学习网络的输出为第一点云投影点的偏差预测值,即第一偏差。
在本实施例的一些可选的实现方式中,上述方法还包括:根据自动驾驶车辆的相机的真值外参得到3D坐标,具体包括:通过真值外参将激光点云转化为相机坐标系下的第二点云点,得到3D坐标。
在该实现方式中,上述执行主体通过真值外参可以将激光点云转化为相机坐标系下的第二点云点/>,从而得到3D坐标/> ,具体可表示为以下形式。
在本实施例的一些可选的实现方式中,上述方法还包括:通过内参将第二点云点投影至图像平面,得到第二点云投影点以及第二点云投影点在图像坐标系下的真值坐标;基于初始坐标和真值坐标,得到第一点云投影点与第二点云投影点的偏差,记为第四偏差。
在该实现方式中,上述执行主体会通过内参将第二点云点投影到图像平面,通过以下公式获得其在图像上的坐标/>
再基于真值坐标和初始坐标/>以及以下公式,得到第一点云投影点与第二点云投影点的第四偏差/>
步骤307,基于第一偏差与第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对第一偏差的均值和方差进行不确定性建模。
在本实施例中,上述执行主体会基于第一偏差与第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对第一偏差的均值和方差进行不确定性建模。一般深度学习方法监督的是目标值与预测值的误差L2损失或者L1损失,如,其方法实际是对高斯分布均值进行建模,但是忽略高斯分布的方差(高维变量则实际为协方差矩阵),但是,本实施例通过对方差进行建模,方差越大代表模型预测结果越不可靠,从而实现不确定性建模。通过过滤方差大的点,可提升solvePnPRansc的解算精度。同时所有lidar投影点的平均方差大小可作为外参估计可靠性的度量,方差超过一定阈值则认为标定失败需要重新进行标定,避免了错误标定结果带来的问题,同时减少了人工复核人力成本。
这里假设lidar投影点的偏差满足拉普拉斯似然分布(或者高斯似然分布)。
和/>分别是对应的均值和对应协方差矩阵。这里我们认为/>为/>的真值,模型预测的/>则是需要不断接近/>(也就是/>)。
为了估计和/>,需要最大化拉普拉斯似然分布(或者高斯似然分布),相当于最小化-log拉普拉斯似然分布,相应的loss函数如下。
也即基于第一偏差与第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对第一偏差的均值和方差进行不确定性建模。
步骤308,基于建立的模型确定每个第一偏差对应的不确定度量值。
在本实施例中,上述执行主体会基于建立的模型确定每个第一偏差对应的不确定度量值,其中,不确定性度量值为对应的协方差矩阵的迹。由于协方差矩阵/>也是通过模型进行建模,由于协方差矩阵/>在这里是对称正定矩阵/>仅有3个自由度,可以通过Chelosky分解为下/>。因此模型需要输出3个自由度的变量,分别代表下三角矩阵L的3个元素。为了保证协方差矩阵/>正定,下三角矩阵L的对角线元素通过ELU激活函数保证大于0。这里由于采用的是类光流的标定方法,需要估计每个lidar投影点的相对偏移(也就是/>),因此我们每个lidar投影点都会估计一个相对偏移量/>的协方差矩阵/>
模型推理时我们可以获得每个lidar投影点对应的相对偏移(也就是)和协方差矩阵/>。/>如类光流预测中的介绍,可以用来解算出外参。但是部分lidar投影点估计的/>可能不够准确,这里我们求取其协方差矩阵/>的迹(也就是协方差矩阵/>的对角线元素的和)作为不确定性度量。
步骤309,对所有第一偏差对应的不确定性度量值进行排序,对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差。
在本实施例中,上述执行主体会对所有第一偏差对应的不确定性度量值进行排序,通过过滤得到满足预设条件的第二偏差/>,也即将不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,从而得到满足预设条件的第二偏差。也即为了提升PnP+Ransac的算法精度,先通过不确定性排序,过滤掉不确定性排序靠前30%的lidar投影点。
步骤310,将第二偏差的均值作为整体标定结果,响应于确定整体标定结果不大于预设值,则保留第二偏差。
在本实施例中,上述执行主体会将第二偏差的均值作为整体标定结果,若确定整体标定结果不大于预设值,则保留第二偏差。即将剩下的70%lidar投影点的不确定性取均值作为整体标定结果,假如整体不确定性大于预设值,例如整体不确定性不大于4,则认为该标定结果可靠,则保留第二偏差;也即若整体不确定性大于4,则认为该标定结果不可靠。
步骤311,基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标。
在本实施例中,上述执行主体会基于第二偏差和初始坐标/>更新第一点云投影点在图像坐标系下的坐标,得到目标坐标/>。也即将初始坐标与第二偏差进行求和,从而得到更新后的坐标,也即目标坐标,可表示为以下形式。
步骤312,基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差。
在本实施例中,上述执行主体会基于激光点云在相机坐标系下的3D坐标和目标坐标,利用opencv(跨平台计算机视觉库)的solvePnPRansc函数计算得到初始外参和真值外参的第三偏差/>,其中,3D坐标根据相机的真值外参得到。
步骤313,利用第三偏差对初始外参进行更新,得到标定后的外参。
在本实施例中,上述执行主体会利用第三偏差对初始外参/>进行更新,得到标定后的外参/>。具体地,可以将第三偏差与初始外参的乘积作为标定后的外参值,如以下公式所示。
从图3中可以看出,与图2对应的实施例相比,本实施例中的自动驾驶中的传感器标定方法,该方法通过学习lidar投影点的相对偏移,可获得lidar在图像上的真正应该的投影位置,利用lidar 3D点云和图像的投影点,通过求解pnp和ransac处理离群点可求解出camera的外参。该方案可实现较高标定精度的同时,可实现与相机内参的解耦,在跨车和跨城测试数据上表现出非常好的泛化性,得到了比较好的标定精度,在道路场景以角度误差0.5度为标准,标定成功率在80%以上。此外,该方法通过该不确定性建模,可以判断模型结果是否可靠,明显提高了在线标定使用的自动化程度和可靠性。经测试,不确定建模可过滤掉如面向大墙壁,动态障碍物多等场景样本,模型结果可靠性明显提升。
继续参考图4,其示出了根据本公开的自动驾驶中的传感器标定方法的一个应用场景示意图。在该应用场景中,执行主体会先获取自动驾驶车辆的相机采集的图像A以及激光雷达采集的激光点云,然后,将激光点云转化为相机坐标系,基于相机坐标系的深度得到投影深度图B。将A与B输入至网络GMFLOW,输出得到lidar投影点的偏差预测如图C。之后,对预测结果进行不确定性建模(Uncertainty),从而验证标定结果的可靠性。最后,利用点云的3D位置和获得的图像投影点,采用PnP+Ransac算法解算出标定后的外参,得到图像D。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种自动驾驶中的传感器标定装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的自动驾驶中的传感器标定装置500包括:获取模块501、生成模块502、预测模块503、确定模块504、第一更新模块505、计算模块506和第二更新模块507。其中,获取模块501,被配置成获取自动驾驶车辆的激光雷达采集的激光点云;生成模块502,被配置成基于自动驾驶车辆的相机的初始外参和内参,生成激光点云在图像平面上的第一点云投影点以及第一点云投影点在图像平面对应的图像坐标系下的初始坐标;预测模块503,被配置成基于光流学习网络预测第一点云投影点的偏差,记为第一偏差;确定模块504,被配置成对第一偏差进行不确定性建模,基于建模结果从第一偏差中确定满足预设条件的偏差,记为第二偏差,包括:基于拉普拉斯分布极大似然估计函数对第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差;第一更新模块505,被配置成基于第二偏差和初始坐标更新第一点云投影点在图像坐标系下的坐标,得到目标坐标;计算模块506,被配置成基于激光点云在相机坐标系下的3D坐标和目标坐标,计算得到初始外参和真值外参的偏差,记为第三偏差,其中,3D坐标根据相机的真值外参得到,相机的真值外参为自动驾驶车辆出厂时,通过标定间或者举板进行标定得到的外参值;第二更新模块507,被配置成利用第三偏差对初始外参进行更新,得到标定后的外参,标定后的外参为自动驾驶车辆的相机的标定后的外参。
在本实施例中,自动驾驶中的传感器标定装置500中:获取模块501、生成模块502、预测模块503、确定模块504、第一更新模块505、计算模块506和第二更新模块507的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-207的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,生成模块被进一步配置成:通过初始外参将激光点云转化为相机坐标系下的第一点云点;通过内参将第一点云点投影至图像平面,得到第一点云投影点以及第一点云投影点在图像坐标系下的初始坐标。
在本实施例的一些可选的实现方式中,预测模块被进一步配置成:获取相机采集的与激光点云对应的图像;获取第一点云点的投影深度图;将图像以及投影深度图输入至光流学习网络,输出得到第一点云投影点的偏差,记为第一偏差。
在本实施例的一些可选的实现方式中,上述自动驾驶中的传感器标定装置500还包括用于生成3D坐标的坐标生成模块,坐标生成模块被配置成:通过真值外参将激光点云转化为相机坐标系下的第二点云点,得到3D坐标;以及上述自动驾驶中的传感器标定装置500还包括:投影模块,被配置成通过内参将第二点云点投影至图像平面,得到第二点云投影点以及第二点云投影点在图像坐标系下的真值坐标;得到模块,被配置成基于初始坐标和真值坐标,得到第一点云投影点与第二点云投影点的偏差,记为第四偏差。
在本实施例的一些可选的实现方式中,确定模块被进一步配置成:基于第一偏差与第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对第一偏差的均值和方差进行不确定性建模;基于建立的模型确定每个第一偏差对应的不确定度量值,其中,不确定性度量值为第一偏差对应的协方差矩阵的迹;对所有第一偏差对应的不确定性度量值进行排序,对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足预设条件的第二偏差;将第二偏差的均值作为整体标定结果,响应于确定整体标定结果不大于预设值,则保留第二偏差。
根据本公开的实施例,本公开还提供了一种电子设备。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如自动驾驶中的传感器标定方法。例如,在一些实施例中,自动驾驶中的传感器标定方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的自动驾驶中的传感器标定方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行自动驾驶中的传感器标定方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域邻域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (11)

1.一种自动驾驶中的传感器标定方法,包括:
获取自动驾驶车辆的激光雷达采集的激光点云;
基于所述自动驾驶车辆的相机的初始外参和内参,生成所述激光点云在图像平面上的第一点云投影点以及所述第一点云投影点在所述图像平面对应的图像坐标系下的初始坐标;
基于光流学习网络预测所述第一点云投影点的偏差,记为第一偏差;
对所述第一偏差进行不确定性建模,基于建模结果从所述第一偏差中确定满足预设条件的偏差,记为第二偏差,包括:基于拉普拉斯分布极大似然估计函数对所述第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足所述预设条件的第二偏差;
基于所述第二偏差和所述初始坐标更新所述第一点云投影点在所述图像坐标系下的坐标,得到目标坐标;
基于所述激光点云在相机坐标系下的3D坐标和所述目标坐标,计算得到所述初始外参和真值外参的偏差,记为第三偏差,其中,所述3D坐标根据所述相机的真值外参得到,所述相机的真值外参为自动驾驶车辆出厂时,通过标定间或者举板进行标定得到的外参值;
利用所述第三偏差对所述初始外参进行更新,得到标定后的外参,所述标定后的外参为所述自动驾驶车辆的相机的标定后的外参。
2.根据权利要求1所述的方法,其中,所述基于所述自动驾驶车辆的相机的初始外参和内参,生成所述激光点云在图像平面上的第一点云投影点以及所述第一点云投影点在所述图像平面对应的图像坐标系下的初始坐标,包括:
通过所述初始外参将所述激光点云转化为相机坐标系下的第一点云点;
通过所述内参将所述第一点云点投影至图像平面,得到所述第一点云投影点以及所述第一点云投影点在所述图像坐标系下的初始坐标。
3.根据权利要求2所述的方法,其中,所述基于光流学习网络预测所述第一点云投影点的偏差,记为第一偏差,包括:
获取所述相机采集的与所述激光点云对应的图像;
获取所述第一点云点的投影深度图;
将所述图像以及所述投影深度图输入至所述光流学习网络,输出得到所述第一点云投影点的偏差,记为第一偏差。
4.根据权利要求1所述的方法,其中,所述3D坐标通过以下步骤得到:
通过所述真值外参将所述激光点云转化为相机坐标系下的第二点云点,得到所述3D坐标;以及
所述方法还包括:
通过所述内参将所述第二点云点投影至图像平面,得到第二点云投影点以及所述第二点云投影点在所述图像坐标系下的真值坐标;
基于所述初始坐标和所述真值坐标,得到所述第一点云投影点与所述第二点云投影点的偏差,记为第四偏差。
5.根据权利要求4所述的方法,其中,所述基于拉普拉斯分布极大似然估计函数对所述第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足所述预设条件的第二偏差,包括:
基于所述第一偏差与所述第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对所述第一偏差的均值和方差进行不确定性建模;
基于建立的模型确定每个第一偏差对应的不确定性度量值,其中,所述不确定性度量值为所述第一偏差对应的协方差矩阵的迹;
对所有第一偏差对应的不确定性度量值进行排序,对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足所述预设条件的第二偏差;
将所述第二偏差的均值作为整体标定结果,响应于确定所述整体标定结果不大于预设值,则保留所述第二偏差。
6.一种自动驾驶中的传感器标定装置,包括:
获取模块,被配置成获取自动驾驶车辆的激光雷达采集的激光点云;
生成模块,被配置成基于所述自动驾驶车辆的相机的初始外参和内参,生成所述激光点云在图像平面上的第一点云投影点以及所述第一点云投影点在所述图像平面对应的图像坐标系下的初始坐标;
预测模块,被配置成基于光流学习网络预测所述第一点云投影点的偏差,记为第一偏差;
确定模块,被配置成对所述第一偏差进行不确定性建模,基于建模结果从所述第一偏差中确定满足预设条件的偏差,记为第二偏差,包括:基于拉普拉斯分布极大似然估计函数对所述第一偏差的均值和方差进行不确定性建模,基于建模结果对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足所述预设条件的第二偏差;
第一更新模块,被配置成基于所述第二偏差和所述初始坐标更新所述第一点云投影点在所述图像坐标系下的坐标,得到目标坐标;
计算模块,被配置成基于所述激光点云在相机坐标系下的3D坐标和所述目标坐标,计算得到所述初始外参和真值外参的偏差,记为第三偏差,其中,所述3D坐标根据所述相机的真值外参得到,所述相机的真值外参为自动驾驶车辆出厂时,通过标定间或者举板进行标定得到的外参值;
第二更新模块,被配置成利用所述第三偏差对所述初始外参进行更新,得到标定后的外参,所述标定后的外参为所述自动驾驶车辆的相机的标定后的外参。
7.根据权利要求6所述的装置,其中,所述生成模块被进一步配置成:
通过所述初始外参将所述激光点云转化为相机坐标系下的第一点云点;
通过所述内参将所述第一点云点投影至图像平面,得到所述第一点云投影点以及所述第一点云投影点在所述图像坐标系下的初始坐标。
8.根据权利要求7所述的装置,其中,所述预测模块被进一步配置成:
获取所述相机采集的与所述激光点云对应的图像;
获取所述第一点云点的投影深度图;
将所述图像以及所述投影深度图输入至所述光流学习网络,输出得到所述第一点云投影点的偏差,记为第一偏差。
9.根据权利要求6所述的装置,其中,所述装置还包括用于生成所述3D坐标的坐标生成模块,所述坐标生成模块被配置成:
通过所述真值外参将所述激光点云转化为相机坐标系下的第二点云点,得到所述3D坐标;以及
所述装置还包括:
投影模块,被配置成通过所述内参将所述第二点云点投影至图像平面,得到第二点云投影点以及所述第二点云投影点在所述图像坐标系下的真值坐标;
得到模块,被配置成基于所述初始坐标和所述真值坐标,得到所述第一点云投影点与所述第二点云投影点的偏差,记为第四偏差。
10.根据权利要求9所述的装置,其中,所述确定模块被进一步配置成:
基于所述第一偏差与所述第四偏差的接近程度以及拉普拉斯分布极大似然估计函数,对所述第一偏差的均值和方差进行不确定性建模;
基于建立的模型确定每个第一偏差对应的不确定性度量值,其中,所述不确定性度量值为所述第一偏差对应的协方差矩阵的迹;
对所有第一偏差对应的不确定性度量值进行排序,对不满足预设条件的不确定性度量值所对应的第一偏差进行过滤,得到满足所述预设条件的第二偏差;
将所述第二偏差的均值作为整体标定结果,响应于确定所述整体标定结果不大于预设值,则保留所述第二偏差。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
CN202311687296.4A 2023-12-11 2023-12-11 自动驾驶中的传感器标定方法、装置及电子设备 Active CN117392241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311687296.4A CN117392241B (zh) 2023-12-11 2023-12-11 自动驾驶中的传感器标定方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311687296.4A CN117392241B (zh) 2023-12-11 2023-12-11 自动驾驶中的传感器标定方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN117392241A true CN117392241A (zh) 2024-01-12
CN117392241B CN117392241B (zh) 2024-03-05

Family

ID=89463440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311687296.4A Active CN117392241B (zh) 2023-12-11 2023-12-11 自动驾驶中的传感器标定方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN117392241B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117830438A (zh) * 2024-03-04 2024-04-05 数据堂(北京)科技股份有限公司 一种基于特定标志物的激光雷达与相机联合标定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200273205A1 (en) * 2017-09-08 2020-08-27 Sony Interactive Entertainment Inc. Calibration apparatus, calibration system, and calibration method
CN114494629A (zh) * 2022-01-27 2022-05-13 广东电网有限责任公司 一种三维地图的构建方法、装置、设备及存储介质
CN114926545A (zh) * 2022-05-26 2022-08-19 阿波罗智能技术(北京)有限公司 相机标定精度的评估方法、装置、电子设备及存储介质
CN115082289A (zh) * 2022-05-18 2022-09-20 广州文远知行科技有限公司 激光雷达点云的投影方法、装置、设备及存储介质
CN116758166A (zh) * 2023-06-30 2023-09-15 重庆长安汽车股份有限公司 车辆传感器的参数标定方法、装置、设备、车辆及介质
CN116993836A (zh) * 2023-08-04 2023-11-03 西安交通大学 一种路端激光雷达相机标定方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200273205A1 (en) * 2017-09-08 2020-08-27 Sony Interactive Entertainment Inc. Calibration apparatus, calibration system, and calibration method
CN114494629A (zh) * 2022-01-27 2022-05-13 广东电网有限责任公司 一种三维地图的构建方法、装置、设备及存储介质
CN115082289A (zh) * 2022-05-18 2022-09-20 广州文远知行科技有限公司 激光雷达点云的投影方法、装置、设备及存储介质
CN114926545A (zh) * 2022-05-26 2022-08-19 阿波罗智能技术(北京)有限公司 相机标定精度的评估方法、装置、电子设备及存储介质
CN116758166A (zh) * 2023-06-30 2023-09-15 重庆长安汽车股份有限公司 车辆传感器的参数标定方法、装置、设备、车辆及介质
CN116993836A (zh) * 2023-08-04 2023-11-03 西安交通大学 一种路端激光雷达相机标定方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUOHANG YAN ET AL.: "SensorX2car: Sensors-to-car calibration for autonomous driving in road scenarios", 《ARXIV》, 18 May 2023 (2023-05-18) *
刘思博等: "单目相机轨迹的真实尺度恢复", 《中国图象图形学报》, 28 February 2022 (2022-02-28) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117830438A (zh) * 2024-03-04 2024-04-05 数据堂(北京)科技股份有限公司 一种基于特定标志物的激光雷达与相机联合标定方法

Also Published As

Publication number Publication date
CN117392241B (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
CN107516326B (zh) 融合单目视觉和编码器信息的机器人定位方法和系统
CN111666891B (zh) 用于估计障碍物运动状态的方法和装置
CN111209978B (zh) 三维视觉重定位方法、装置及计算设备、存储介质
CN117392241B (zh) 自动驾驶中的传感器标定方法、装置及电子设备
WO2022170847A1 (zh) 一种基于激光和视觉融合的在线标定方法
JP2014523572A (ja) 地図データの生成
CN112880674A (zh) 一种行驶设备的定位方法、装置、设备及存储介质
CN114494629A (zh) 一种三维地图的构建方法、装置、设备及存储介质
CN111856499B (zh) 基于激光雷达的地图构建方法和装置
CN115719436A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN114323033A (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
JP7351892B2 (ja) 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
CN115457152A (zh) 外参标定方法、装置、电子设备及存储介质
CN114018269B (zh) 定位方法、装置、电子设备、存储介质以及自动驾驶车辆
CN115656989A (zh) 外参标定方法、装置、电子设备及存储介质
CN113177980B (zh) 用于自动驾驶的目标对象速度确定方法、装置及电子设备
CN111461980B (zh) 点云拼接算法的性能估计方法和装置
CN115727871A (zh) 一种轨迹质量检测方法、装置、电子设备和存储介质
CN115307646A (zh) 一种多传感器融合的机器人定位方法、系统及装置
CN115147561A (zh) 位姿图生成方法、高精地图生成方法和装置
Presnov et al. Robust range camera pose estimation for mobile online scene reconstruction
CN113920174A (zh) 点云配准方法、装置、设备、介质和自动驾驶车辆
CN113495281A (zh) 可移动平台的实时定位方法及装置
CN112880664A (zh) 一种行驶设备的定位方法、装置、设备及存储介质
CN116448105B (zh) 位姿更新方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant