CN110456330B - 一种相机与激光雷达之间外参无目标自动标定方法及系统 - Google Patents
一种相机与激光雷达之间外参无目标自动标定方法及系统 Download PDFInfo
- Publication number
- CN110456330B CN110456330B CN201910793555.9A CN201910793555A CN110456330B CN 110456330 B CN110456330 B CN 110456330B CN 201910793555 A CN201910793555 A CN 201910793555A CN 110456330 B CN110456330 B CN 110456330B
- Authority
- CN
- China
- Prior art keywords
- camera
- laser radar
- common
- external
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开一种相机与激光雷达之间外参无目标自动标定方法及系统,包括以下步骤:步骤101,根据相机与激光雷达之间的运动约束获取相机与激光雷达之间外参的初始估计;步骤102,根据相机与激光雷达之间的互信息特征以及外参的初始估计获取相机与激光雷达之间外参的优化估计,将相机与激光雷达之间外参的标定分为两个阶段,第一阶段利用相机与激光雷达之间的运动约束,第二阶段利用相机与激光雷达测量的互信息,以第一阶段的结果值作为初始值,在不需要额外提供初始值的情况下提供精确的外参估计,实现相机与激光雷达之间外参的自动标定,并有效的提高了标定的准确性和鲁棒性。
Description
技术领域
本发明涉及传感器外参标定技术领域,具体是一种相机与激光雷达之间外参无目标自动标定方法及系统。
背景技术
相机-激光雷达的外参标定,可以使激光雷达和相机数据在同一坐标系下校准,是相机-激光雷达的定位的基础工作,现有技术中相机-激光雷达的外参自动标定方法大多都需要目标装置来实现标定,例如标定板等,而不需要目标装置的标定方法有基于相机与激光雷达之间运动约束的标定方法和基于特征的标定方法,但是基于运动的校准方法通常不够精确,无法进行正确的点云到图像配准;而基于特征的标定方法通常需要一个相对精确的初值才能够进行精确地标定,但是基于特征的标定方法中获取精确初值的过程通常都较为复杂,获取难度大,无法实现相机与激光雷达之间外参的自动标定。
发明内容
本发明提供一种相机与激光雷达之间外参无目标自动标定方法及系统,用于克服现有技术中相机与激光雷达之间外参的标定不够准确、计算过程繁琐等缺陷,实现相机与激光雷达之间外参的自动精确标定。
为实现上述目的,本发明提供一种相机与激光雷达之间外参无目标自动标定方法,包括以下步骤:
步骤101,根据相机与激光雷达之间的运动约束获取相机与激光雷达之间外参的初始估计;
步骤102,根据相机与激光雷达之间的互信息特征以及外参的初始估计获取相机与激光雷达之间外参的优化估计。
进一步优选的,步骤101具体包括:
步骤201,获取相机与激光雷达的运动轨迹;
步骤202,基于相机与激光雷达的运动约束与运动轨迹建立高斯赫尔默特模型;
步骤203,对高斯赫尔默特模型进行最小二乘估计,获取相机与激光雷达之间外参的初始估计。
进一步优选的,步骤201中,所述相机与激光雷达的运动轨迹为:
式中,rai为激光雷达的旋转轨迹,tai为激光雷达的平移轨迹,rci为相机的旋转轨迹,λtci为相机的平移轨迹,其中,λ为相机的未知尺度因子,λ的求取过程为:
若限定相机与激光雷达做同步的平移运动,则有:
||rci||=||rai||=0,||λtci||=||tai||
进而得到:
令上式的一阶导数为0,则有:
最终得到:
式中,M表示相机与激光雷达平移运动的段数,||·||表示二范数。
进一步优选的,步骤202的过程具体为:限定相机与激光雷达的运动约束为同步平移与旋转,则有:
式中,gt(x,li)表示限定相机与激光雷达之间的旋转约束,gr(x,li)表示限定相机与激光雷达之间的平移约束,R(·)表示相应角度轴矢量的旋转矩阵,x=[η,ξ],其中,x表示相机与激光雷达之间的外参,η表示相机与激光雷达之间外参中的旋转参数,ξ表示相机与激光雷达之间外参中的平移参数;
在无噪声的情况下,外参x满足:
式中,x*表示无噪声的情况下的外参;
获取相机、激光雷达实际运动轨迹与无噪声情况下运动轨迹的误差:
建立高斯赫尔默特模型:
subject to gt(x,εi+li)=0
gr(x,εi+li)=0
进一步优选的,步骤102具体包括:
步骤301,根据相机与激光雷达之间外参的初始估计建立相机与激光雷达之间的投影模型;
步骤302,利用投影模型获取相机与激光雷达的共视点;
步骤303,获取每一个共视点的灰度值与反射率,进而获得所有共视点的灰度值直方图与反射率直方图;
步骤304,获取灰度值直方图与反射率直方图的相似度,调整相机与激光雷达之间的外参估计使得灰度值直方图与反射率直方图的相似度最大,此时相机与激光雷达之间的外参估计即为外参的优化估计。
进一步优选的,步骤302具体包括:
利用投影模型对激光雷达的激光落点进行投影转换:
c=π(K(R(η)·s+ξ))
式中,s表示激光雷达的激光落点,c表示经过投影模型投影转换后的激光雷达的激光落点,K表示相机矩阵,π(·)表示欧式标准化,即将激光落点由三位坐标转换为二维的图像坐标;
筛选出位于相机视场内的经过投影模型投影转换后的激光雷达的激光落点,即为相机与激光雷达的共视点。
进一步优选的,步骤302还包括剔除共视点中的遮挡点。
进一步优选的,步骤302中,剔除遮挡点的过程为:
步骤401,对所有的共视点进行从1~N的编号,其中,N为共视点的总数;
步骤402,获取相机视场下的相机共视点序列与机关雷达视场下的激光雷达共视点序列,其中,相机共视点序列与激光雷达共视点序列的排列方式相同;
步骤403,以相机共视点序列与激光雷达共视点序列的一个作为标准序列,另一个作为判定序列;
步骤404,若标准序列与判定序列相同,则判定无遮挡点,否则判定存在遮挡点,并提取出判定序列中所有相对于标准序列存在相互交换位置情况的点集组;
步骤405,判定点集组中深度值较大的点集中的点为遮挡点,将其从共视点中剔除。
进一步优选的,步骤304中,灰度值直方图与反射率直方图的相似度为:
MI(S,C)=H(S)+H(C)-H(S,C)
式中,MI(S,C)表示灰度值直方图与反射率直方图的相似度,S表示共视点的反射率,C表示共视点的灰度值,H(S)表示反射率的不确定性,H(C)表示灰度值的不确定性,H(S,C)表示反射率与灰度值共同观察时的不确定性。
一种相机与激光雷达之间外参无目标自动标定系统,包括:存储器和处理器,所述存储器存储有相机与激光雷达之间外参无目标自动标定程序,所述处理器在运行所述程序时执行上述法所述的步骤。
本发明提供的一种相机与激光雷达之间外参无目标自动标定方法及系统,将相机与激光雷达之间外参的标定分为两个阶段,第一阶段利用相机与激光雷达之间的运动约束,第二阶段利用相机与激光雷达测量的互信息,以第一阶段的结果值作为初始值,在不需要额外提供初始值的情况下提供精确的外参估计,实现相机与激光雷达之间外参的自动标定,并有效的提高了标定的准确性和鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中相机与激光雷达之间外参无目标自动标定方法的流程示意图;
图2为本发明实施例中相机与激光雷达之间外参的初始估计的流程示意图;
图3为本发明实施例中相机与激光雷达之间外参的优化估计的流程示意图;
图4为本发明实施例中剔除遮挡点的流程示意图;
图5为本发明实施例中剔除遮挡点的示例结构图;
图6为本发明实施例中的仿真示例图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示的一种相机与激光雷达之间外参无目标自动标定方法,其中,相机与激光雷达之间的外参指的是相机与激光雷达之间做同步运动时的相对姿态,这里的姿态包括3自由度的旋转和3自由度的平移,具体包括以下步骤:
步骤101,根据相机与激光雷达之间的运动约束获取相机与激光雷达之间外参的初始估计;
步骤102,根据相机与激光雷达之间的互信息特征以及外参的初始估计获取相机与激光雷达之间外参的优化估计。
本实施例通过将相机与激光雷达之间外参的标定分为两个阶段,第一阶段利用相机与激光雷达之间的运动约束,第二阶段利用相机与激光雷达测量的互信息,在没有初始值的情况下提供精确的外参估计,有效的提高了标定的准确性和鲁棒性。
参考图2,步骤101中,获取相机与激光雷达之间外参的初始估计具体包括:
步骤201,将相机与激光雷达安置在同一个载体上,并使得相机与激光雷达设定为时间同步,具体可以通过硬件触发器来同时触发相机与激光雷达,其中相机的内参(即焦距、相机中心、镜头失真系数)是预校准的,当载体移动时,相机与激光雷达跟随载体移动,进而获取此时相机与激光雷达的运动轨迹;
由于相机与激光雷达都是跟随载体运动,因此相机与载体之间的运动同步,因此满足运动之间的约束方程:Ax=Bx,其中,A表示相机的运动轨迹,B表示激光雷达的运动轨迹,x表示相机与激光雷达之间的外参。
本实施例中,相机与激光雷达的运动轨迹表示为:
式中,rai为激光雷达的旋转轨迹,tai为激光雷达的平移轨迹,rci为相机的旋转轨迹,λtci为相机的平移轨迹,λ为相机的未知尺度因子;
旋转轨迹rai、rci与平移轨迹tai、tci的估算方式可以采用现有激光和视觉里程计方法,因此本实施例中不再赘述,本实施例中的相机为单目相机,由于单目相机无法确定目标的距离,因此在相机的平移轨迹中含有未知尺度因子λ,本实施例中首先需要求取相机的未知尺度因子,求取过程为:
首先限定相机与激光雷达做同步的平移运动,即控制载体做直线运动即可,则有:
||rci||=||rai||=0,||λtci‖=‖tai||
进而得到:
令上式的一阶导数为0来进行求解,则有:
最终得到:
式中,M表示相机与激光雷达平移运动的段数,||·||表示二范数;
随后控制载体做六自由度的运动,即能估算出相机与激光雷达各自的运动轨迹。
步骤202,基于相机与激光雷达的运动约束与运动轨迹建立高斯赫尔默特模型,其具体过程为:
限定相机与激光雷达的运动约束为同步平移与旋转,则有:
式中,gt(x,li)表示限定相机与激光雷达之间的旋转约束,gr(x,li)表示限定相机与激光雷达之间的平移约束,R(·)表示相应角度轴矢量的旋转矩阵,x=[η,ξ],其中,x表示相机与激光雷达之间的外参,η表示相机与激光雷达之间外参中的旋转参数,ξ表示相机与激光雷达之间外参中的平移参数;
在无噪声的情况下,外参x满足:
式中,x*表示无噪声的情况下的外参;
获取相机、激光雷达实际运动轨迹与无噪声情况下运动轨迹的误差:
因此能够建立高斯赫尔默特模型:
subject to gt(x,εi+li)=0
gr(x,εi+li)=0
步骤203,对高斯赫尔默特模型进行最小二乘估计,获取相机与激光雷达之间外参的初始估计,其中,对高斯赫尔默特模型进行最小二乘估计的具体求解过程可以参照文献“K.Huang and C.Stachniss,“Extrinsic multi-sensor calibration for mobilerobots using the gauss-helmert model,”in Proc.of the IEEE/RSJ Intl.Conf.onIntelligent Robots and Systems(IROS),2017,pp.1490–1496.”。
步骤102中,对于由激光雷达和摄像机共同观察到的场景点,即本实施例中的共视点,可以获取三种类型的测量:其深度、反射率和图像强度。激光雷达能够提供共视点的深度和反射率信息,反射率测量红外脉冲通过共识点反射到激光雷达接收器的百分比。这种反射率信息通常与真实环境中的图像强度信息类似。因此,可以通过使用互信息的方法度量反射率信息校和图像强度信息的相关性,以进一步细化相机与激光雷达之间的外参估计,参考图3,具体过程为:
步骤301,根据相机与激光雷达之间外参的初始估计建立相机与激光雷达之间的投影模型;
步骤302,利用投影模型获取相机与激光雷达的共视点,其过程为:
首先利用投影模型对激光雷达的激光落点进行投影转换:
c=π(K(R(η)·s+ξ))
式中,s表示激光雷达的激光落点,c表示经过投影模型投影转换后的激光雷达的激光落点,K表示相机的内部参数决定的相机矩阵,π(·)表示欧式标准化,它将激光落点由三位坐标转换为二维的图像坐标;
筛选出位于相机视场内的经过投影模型投影转换后的激光雷达的激光落点,即为相机与激光雷达的共视点;
在获取共视点后,由于相机的视场图像为一幅完整的图像,而激光雷达的落点图像为若干行顺序排列的激光落点,因此正常情况下,相机与激光雷达的共视点也应为若干行顺序排列的点,但是由于激光雷达和相机的不同的拍摄角度可能使得场景点被遮挡,即遮挡点,使得共视点的排列顺序被破坏,进而影响后续计算过程的精度,因此还需要剔除共视点中的遮挡点,参考图4,本实施例中剔除遮挡点的过程为:
步骤401,对所有的共视点进行从1~N的编号,其中,N为共视点的总数;
步骤402,获取相机视场下的相机共视点序列与机关雷达视场下的激光雷达共视点序列,其中,相机共视点序列与激光雷达共视点序列的排列方式相同;
步骤403,以相机共视点序列与激光雷达共视点序列的一个作为标准序列,另一个作为判定序列;
步骤404,若标准序列与判定序列相同,则判定无遮挡点,否则判定存在遮挡点,并提取出判定序列中所有相对于标准序列存在相互交换位置情况的点集组;
步骤405,判定点集组中深度值较大的点集中的点为遮挡点,将其从共视点中剔除。
例如,参考图5,在相机视场下的相机共视点序列为(1、2、3、4、5),而在机关雷达视场下的激光雷达共视点序列为(1、2、5、3、5),可以显而易见的看出点集(5)与点集(3、4)交换了位置,因此可以判断为此处出现了遮挡点,由于点集(3、4)的深度值大于点集(5),因此可以判断为点3与点4为遮挡点,因此将点3与点4从共视点中剔除。
步骤303,获取每一个共视点的灰度值与反射率,进而获得所有共视点的灰度值直方图与反射率直方图;
步骤304,获取灰度值直方图与反射率直方图的相似度,调整相机与激光雷达之间的外参估计使得灰度值直方图与反射率直方图的相似度最大,此时相机与激光雷达之间的外参估计即为外参的优化估计:
灰度值直方图与反射率直方图的相似度为:
MI(S,C)=H(S)+H(C)-H(S,C)
式中,MI(S,C)表示灰度值直方图与反射率直方图的相似度,S表示共视点的反射率,C表示共视点的灰度值,H(S)表示反射率的不确定性,H(C)表示灰度值的不确定性,H(S,C)表示反射率与灰度值共同观察时的不确定性,上述灰度值直方图与反射率直方图的相似度的获取过程具体可以参考文献“G.Pandey,J.R.McBride,S.Savarese,and R.M.Eustice,“Automatic extrinsic calibration of vision and lidar by maximizing mutualinfor-mation,”Journal of FieldRobotics(JFR),vol.32,no.5,pp.696–722,2015”;
因此相机与激光雷达之间外参的优化估计为:
式中,x为相机与激光雷达之间外参的初始估计,x′为相机与激光雷达之间外参的初优化估计。
如图6所示的是将经过本实施例中外参标定方法得相机与激光雷达应用于智能机器人得到的运动轨迹生成的点云地图,以及对应场景的俯瞰照片。
其中轨迹的平均位移误差为2%,相比于现有的单一传感器方法均有显著提升。证明本发明使用的混合残差方法能够有效提升里程计估计精度。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (9)
1.一种相机与激光雷达之间外参无目标自动标定方法,其特征在于,包括以下步骤:
步骤101,根据相机与激光雷达之间的运动约束获取相机与激光雷达之间外参的初始估计;
步骤102,根据相机与激光雷达之间的互信息特征以及外参的初始估计获取相机与激光雷达之间外参的优化估计;
步骤102具体包括:
步骤301,根据相机与激光雷达之间外参的初始估计建立相机与激光雷达之间的投影模型;
步骤302,利用投影模型获取相机与激光雷达的共视点;
步骤303,获取每一个共视点的灰度值与反射率,进而获得所有共视点的灰度值直方图与反射率直方图;
步骤304,获取灰度值直方图与反射率直方图的相似度,调整相机与激光雷达之间的外参估计使得灰度值直方图与反射率直方图的相似度最大,此时相机与激光雷达之间的外参估计即为外参的优化估计。
2.根据权利要求1所述相机与激光雷达之间外参无目标自动标定方法,其特征在于,步骤101具体包括:
步骤201,获取相机与激光雷达的运动轨迹;
步骤202,基于相机与激光雷达的运动约束与运动轨迹建立高斯赫尔默特模型;
步骤203,对高斯赫尔默特模型进行最小二乘估计,获取相机与激光雷达之间外参的初始估计。
4.根据权利要求3所述相机与激光雷达之间外参无目标自动标定方法,其特征在于,步骤202的过程具体为:限定相机与激光雷达的运动约束为同步平移与旋转,则有:
式中,gt(x,li)表示限定相机与激光雷达之间的旋转约束,gr(x,li)表示限定相机与激光雷达之间的平移约束,R(·)表示相应角度轴矢量的旋转矩阵,x=[η,ξ],其中,x表示相机与激光雷达之间的外参,η表示相机与激光雷达之间外参中的旋转参数,ξ表示相机与激光雷达之间外参中的平移参数;
在无噪声的情况下,外参x满足:
式中,x*表示无噪声的情况下的外参;
获取相机、激光雷达实际运动轨迹与无噪声情况下运动轨迹的误差:
建立高斯赫尔默特模型:
subject to gt(x,εi+li)=0
gr(x,εi+li)=0
5.根据权利要求1所述相机与激光雷达之间外参无目标自动标定方法,其特征在于,步骤302具体包括:
利用投影模型对激光雷达的激光落点进行投影转换:
c=π(K(R(η)·s+ξ))
式中,s表示激光雷达的激光落点,c表示经过投影模型投影转换后的激光雷达的激光落点,K表示相机矩阵,π(·)表示欧式标准化,即将激光落点由三位坐标转换为二维的图像坐标,R(·)表示相应角度轴矢量的旋转矩阵,η表示相机与激光雷达之间外参中的旋转参数,ξ表示相机与激光雷达之间外参中的平移参数;
筛选出位于相机视场内的经过投影模型投影转换后的激光雷达的激光落点,即为相机与激光雷达的共视点。
6.根据权利要求1所述相机与激光雷达之间外参无目标自动标定方法,其特征在于,步骤302还包括剔除共视点中的遮挡点。
7.根据权利要求6所述相机与激光雷达之间外参无目标自动标定方法,其特征在于,步骤302中,剔除遮挡点的过程为:
步骤401,对所有的共视点进行从1~N的编号,其中,N为共视点的总数;
步骤402,获取相机视场下的相机共视点序列与机关雷达视场下的激光雷达共视点序列,其中,相机共视点序列与激光雷达共视点序列的排列方式相同;
步骤403,以相机共视点序列与激光雷达共视点序列中的一个作为标准序列,另一个作为判定序列;
步骤404,若标准序列与判定序列相同,则判定无遮挡点,否则判定存在遮挡点,并提取出判定序列中所有相对于标准序列存在相互交换位置情况的点集组;
步骤405,判定点集组中深度值较大的点集中的点为遮挡点,将其从共视点中剔除。
9.一种相机与激光雷达之间外参无目标自动标定系统,包括:存储器和处理器,所述存储器存储有相机与激光雷达之间外参无目标自动标定程序,所述处理器在运行所述程序时执行所述权利要求1~8任一项方法所述的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910793555.9A CN110456330B (zh) | 2019-08-27 | 2019-08-27 | 一种相机与激光雷达之间外参无目标自动标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910793555.9A CN110456330B (zh) | 2019-08-27 | 2019-08-27 | 一种相机与激光雷达之间外参无目标自动标定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110456330A CN110456330A (zh) | 2019-11-15 |
CN110456330B true CN110456330B (zh) | 2021-07-09 |
Family
ID=68489203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910793555.9A Active CN110456330B (zh) | 2019-08-27 | 2019-08-27 | 一种相机与激光雷达之间外参无目标自动标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110456330B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910456B (zh) * | 2019-11-22 | 2020-09-29 | 大连理工大学 | 基于Harris角点互信息匹配的立体相机动态标定方法 |
CN111210478B (zh) * | 2019-12-31 | 2023-07-21 | 重庆邮电大学 | 一种无共同视野多相机系统外参标定方法、介质及系统 |
CN111429521B (zh) * | 2020-03-05 | 2021-12-21 | 深圳市镭神智能系统有限公司 | 相机与激光雷达的外参标定方法、装置、介质及电子设备 |
CN114076935A (zh) * | 2020-08-20 | 2022-02-22 | 北京万集科技股份有限公司 | 激光雷达与相机联合标定方法和装置、服务器、计算机可读存储介质 |
CN112330756B (zh) * | 2021-01-04 | 2021-03-23 | 中智行科技有限公司 | 一种相机标定方法、装置、智能车辆和存储介质 |
CN113077523B (zh) * | 2021-03-31 | 2023-11-24 | 商汤集团有限公司 | 一种标定方法、装置、计算机设备及存储介质 |
CN113256696B (zh) * | 2021-06-28 | 2021-09-24 | 中国人民解放军国防科技大学 | 基于自然场景的激光雷达和相机的外参标定方法 |
CN114440928A (zh) * | 2022-01-27 | 2022-05-06 | 杭州申昊科技股份有限公司 | 激光雷达与里程计的联合标定方法、机器人、设备和介质 |
CN115184909B (zh) * | 2022-07-11 | 2023-04-07 | 中国人民解放军国防科技大学 | 一种基于目标检测的车载多谱系激光雷达标定系统与方法 |
CN116129106A (zh) * | 2023-04-20 | 2023-05-16 | 深圳佑驾创新科技有限公司 | 一种3d真值获取方法及装置 |
CN118226421B (zh) * | 2024-05-22 | 2024-08-09 | 山东大学 | 基于反射率图的激光雷达-相机在线标定方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331896A (zh) * | 2014-11-21 | 2015-02-04 | 天津工业大学 | 一种基于深度信息的系统标定方法 |
CN107977997A (zh) * | 2017-11-29 | 2018-05-01 | 北京航空航天大学 | 一种结合激光雷达三维点云数据的相机自标定方法 |
CN108964777A (zh) * | 2018-07-25 | 2018-12-07 | 南京富锐光电科技有限公司 | 一种高速相机校准系统及方法 |
CN109949372A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种激光雷达与视觉联合标定方法 |
-
2019
- 2019-08-27 CN CN201910793555.9A patent/CN110456330B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331896A (zh) * | 2014-11-21 | 2015-02-04 | 天津工业大学 | 一种基于深度信息的系统标定方法 |
CN107977997A (zh) * | 2017-11-29 | 2018-05-01 | 北京航空航天大学 | 一种结合激光雷达三维点云数据的相机自标定方法 |
CN108964777A (zh) * | 2018-07-25 | 2018-12-07 | 南京富锐光电科技有限公司 | 一种高速相机校准系统及方法 |
CN109949372A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种激光雷达与视觉联合标定方法 |
Non-Patent Citations (1)
Title |
---|
Extrinsic Multi-Sensor Calibration For Mobile Robots Using the Gauss-Helmert Model;Kaihong Huang等;《2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)》;20171214;第5节 * |
Also Published As
Publication number | Publication date |
---|---|
CN110456330A (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110456330B (zh) | 一种相机与激光雷达之间外参无目标自动标定方法及系统 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
CN110515088B (zh) | 一种智能机器人的里程计估计方法及系统 | |
CN108734741A (zh) | 摄像头校正方法、摄像头校正程序以及摄像头校正装置 | |
CN109579843A (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN103020952A (zh) | 信息处理设备和信息处理方法 | |
CN113627473A (zh) | 基于多模态传感器的水面无人艇环境信息融合感知方法 | |
CN109631911B (zh) | 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法 | |
CN111899282A (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
CN114459467B (zh) | 一种未知救援环境中基于vi-slam的目标定位方法 | |
CN115731268A (zh) | 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法 | |
CN111260715B (zh) | 深度图的处理方法、小障碍物检测方法及系统 | |
Bao et al. | Vision-based horizon extraction for micro air vehicle flight control | |
US9816786B2 (en) | Method for automatically generating a three-dimensional reference model as terrain information for an imaging device | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN112388635B (zh) | 机器人多传感器融合感知与空间定位的方法、系统及装置 | |
CN118135526B (zh) | 基于双目相机的四旋翼无人机视觉目标识别与定位方法 | |
KR20230003803A (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN118129733A (zh) | 一种典型激光雷达退化场景下的移动机器人定位方法 | |
CN117237789A (zh) | 基于全景相机和激光雷达融合生成纹理信息点云地图方法 | |
CN116258744A (zh) | 基于可见光、红外和激光雷达数据融合的目标跟踪方法 | |
CN112179373A (zh) | 一种视觉里程计的测量方法及视觉里程计 | |
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
Sun et al. | Automatic targetless calibration for LiDAR and camera based on instance segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |