CN117826129A - 一种单目相机和激光雷达在轨外参标定方法 - Google Patents

一种单目相机和激光雷达在轨外参标定方法 Download PDF

Info

Publication number
CN117826129A
CN117826129A CN202410242147.5A CN202410242147A CN117826129A CN 117826129 A CN117826129 A CN 117826129A CN 202410242147 A CN202410242147 A CN 202410242147A CN 117826129 A CN117826129 A CN 117826129A
Authority
CN
China
Prior art keywords
points
point
edge
map
monocular camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410242147.5A
Other languages
English (en)
Other versions
CN117826129B (zh
Inventor
胡茄乾
李爽
宋斌
杨彬
黄旭星
江海天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202410242147.5A priority Critical patent/CN117826129B/zh
Publication of CN117826129A publication Critical patent/CN117826129A/zh
Application granted granted Critical
Publication of CN117826129B publication Critical patent/CN117826129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Genetics & Genomics (AREA)
  • Physiology (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种单目相机和激光雷达在轨外参标定方法,步骤如下:首先,对原始图像通过Canny边缘提取算法提取图像边缘获得边缘图,而后对边缘图进行图像的距离变换操作获得距离图,再结合边缘图和距离图获得搜索场景图。针对原始点云,从中提取深度不连续点、折线点和边缘点等点云边缘特征。结合搜索场景图和点云边缘特征构建优化的目标函数,利用遗传算法寻早最优的外参,最终实现对单目相机和激光雷达的外参标定。

Description

一种单目相机和激光雷达在轨外参标定方法
技术领域
本发明属于人工智能(智能导航制导与控制技术)领域,具体涉及一种单目相机和激光雷达在轨外参标定方法。
背景技术
传感器数据是空间非合作目标测量任务的基础,通常单一的传感器数据都存在其相应的缺点而无法很好的满足非合作目标测量的复杂场景的要求,因此许多传感器组合被采用以互相弥补对方的缺点,其中单目相机和激光雷达是使用最多的传感器组合之一。单目相机体积小、能耗低、质量轻并且数据量丰富,但是容易受到光照条件的影响并且无法直接获得目标的三维信息;而激光雷达恰好可以直接获得目标的三维信息并且不受光照条件影响。由于相机和激光雷达属于异源的多模态传感器组合,因此在使用之前需要实现对传感器组合的时空标定。通常在地面会对单目相机和激光雷达实现标定,但是在发射和在轨运行中单目相机和激光雷达的外参会出现漂移,这会对空间非合作目标测量任务产生影响。因此需要对单目相机和激光雷达进行在轨的标定。目前已有的标定算法中,基于互信息的方法需要大量的优质观测数据,这在空间任务中很难实现;基于运动的方法需要单独的传感器即可获得高精度的运动信息,而空间任务中单独的传感器存在各自的缺陷;基于特征的方法可优化的范围较小并且通常需要多步的优化过程,计算较为复杂。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种单目相机和激光雷达在轨外参标定方法,以解决现有技术在在轨标定任务中,需要大量优质观测数据和优化过程复杂的问题。
本发明针对单目相机获取的原始图像通过Canny边缘提取算法提取图像边缘获得边缘图,而后对边缘图进行图像的距离变换操作获得距离图,再结合边缘图和距离图获得搜索场景图。针对原始点云,从中提取深度不连续点、折线点和边缘点等点云边缘特征。结合搜索场景图和点云边缘特征构建优化的目标函数,利用遗传算法寻早最优的外参最终实现对单目相机和激光雷达的外参标定。
为达到上述目的,本发明采用的技术方案如下:
一种单目相机和激光雷达在轨外参标定方法,所述标定方法步骤如下:
S1,针对原始图像,首先通过Canny边缘提取算法提取图像边缘获得边缘图,而后对边缘图进行图像的距离变换操作获得距离图,再结合所述边缘图和所述距离图获得搜索场景图;
S2,通过激光雷达获得点云数据,从所述点云中提取深度不连续点、折线点和边缘点的点云边缘特征;
S3,结合所述搜索场景图和所述点云边缘特征构建优化目标函数,利用遗传算法寻找最优的外参,最终实现对单目相机和激光雷达的外参标定。
进一步的,所述步骤S1具体包括:
S11,将原始图像I输入Canny边缘提取算法模块,获得边缘图
S12,将所述边缘图中的像素值的0和1做对调后,通过正向、反向两次扫描过程实现对所述边缘图/>的距离变换,获得距离图/>
S13,结合所述边缘图和所述距离图/>获得搜索场景图:
其中,uv表示当前像素点的横坐标和纵坐标;xy表示距离当前坐标系最近的边缘点的横坐标和纵坐标;256代表灰度图中像素最大值为256;和/>为参数。
进一步的,所述S12具体为:
设在正向、反向两次扫描过程中像素的相邻像素的集合分别为/>和/>,则图像距离变换的两次扫描计算过程如下:
第一次扫描:
从图像左上角开始,从左往右,从上往下扫描图像,计算相邻像素集合N 1中的各个像素到当前像素的距离,并将其中的最小值更新为当前像素点的像素值也即距离值,计算公式如下:
其中表示第一次扫描后点/>的像素值;
第二次扫描:
从图像右下角开始,从右往左,从下往上扫描图像,计算相邻像素集合N 2中的各个像素到当前像素的距离,并将其中的最小值与第一次扫描中获得的值做对比,其中更小的值即是距离变换最终的结果,计算公式如下:
其中,表示曼哈顿距离,/>表示第二次扫描后点/>的像素值。至此,经过两次扫描就可以获得最终的距离图/>
进一步的,所述步骤S2具体包括:
对于点云中的任一点,通过k近邻搜索算法获得离点/>最近的若干个点,求取这些点和点/>y轴坐标的差,将其中差值大于设定值的点剔除,获得同一个激光束的近邻点;
根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点,计算/>点与近邻点之间的矢量,以矢量关系作为点/>类型分类的标准,得到点/>是属于深度不连续点或折线点;
遍历点云中的所有点,将提取出来的所有的边缘点、深度不连续点和折线点的集合记为,/>即为点云边缘特征。
进一步的,所述同一个激光束的近邻点通过以下方式获得:
如果计算出的同一个激光束的近邻点不足2个,则抛弃该点,否则,再根据x轴坐标的差挑选边缘点,如果x轴的差全为负数或者全为正数则认为该点属于边缘点,否则,根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点。
进一步的,分别计算所述点与左右近邻点之间的矢量,以左右临近点矢量关系作为点/>分类的标准,得到点/>是属于深度不连续点或折线点具体为:
如果左右近邻点的矢量关系中,其中一个比另外一个的矢量长度在2倍以上,且较大的矢量长度大于0.3m,并且两个矢量之间的夹角小于160°,则属于深度不连续点;如果两个矢量的夹角大于40°小于100°,则属于折线点。
进一步的,所述步骤S3具体包括:
将单目相机和激光雷达的外参标定优化问题定义为一个非凸不可微的优化问题,优化问题的目标函数定义如下:
其中,N表示像素点集中点的数量,/>是目标函数,表示的是像素点集中所有点的值的平均值,/>分别表示滚转、俯仰和偏航角三个欧拉角;求解该目标函数得到当/>最大时的滚转、俯仰和偏航角即获得标定后的单目相机和激光雷达的外参。
进一步的,结合遗传算法的实现方法和单目相机和激光雷达外参标定的优化目标函数,过程如下:
(1)首先设定欧拉角的浮动范围为 ,随机生成/>个欧拉角的分配方案构成初始种群;
(2)在种群的所有个体中,将点云边缘特征投影到图像中,去除投影位置不在图像中的点;
(3)根据计算适应度函数,依据计算的适应度函数值采用轮盘赌模型对种群的个体进行选择,得到种群中的最优个体;
(4)对选择得到的个体进行交叉、变异操作,形成下一代种群;
(5)判断优化结束条件,如果满足则输出最优欧拉角,否则重复(2)~(4)操作;
获得最终的外参标定结果。
本发明的有益效果:
1、本文提出了一种基于在轨数据的单目相机和激光雷达外参标定算法;
2、本文提出了一种新的搜索场景图像生成方法,使得优化过程可以一次性完成。
附图说明
图1为本发明方法的流程图;
图2a为原始图像;
图2b为边缘图;
图2c为距离图;
图2d为搜索场景图;
图3a为原始点云图;
图3b为点云边缘特征图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种单目相机和激光雷达在轨外参标定方法,所述标定方法步骤如下:
S1,针对原始图像,首先通过Canny边缘提取算法提取图像边缘获得边缘图,而后对边缘图进行图像的距离变换操作获得距离图,再结合所述边缘图和所述距离图获得搜索场景图;
S2,通过激光雷达获得点云数据,从所述点云中提取深度不连续点、折线点和边缘点的点云边缘特征;
S3,结合所述搜索场景图和所述点云边缘特征构建优化目标函数,利用遗传算法寻找最优的外参,最终实现对单目相机和激光雷达的外参标定。
进一步的,所述步骤S1具体包括:
S11,将原始图像I输入Canny边缘提取算法模块,获得边缘图
S12,将所述边缘图中的像素值的0和1做对调后,通过正向、反向两次扫描过程实现对所述边缘图/>的距离变换,获得距离图/>
S13,结合所述边缘图和所述距离图/>获得搜索场景图:
其中,uv表示当前像素点的横坐标和纵坐标;xy表示距离当前坐标系最近的边缘点的横坐标和纵坐标;256代表灰度图中像素最大值为256;和/>为参数。
进一步的,所述S12具体为:
设在正向、反向两次扫描过程中像素的相邻像素的集合分别为/>和/>,则图像距离变换的两次扫描计算过程如下:
第一次扫描:
从图像左上角开始,从左往右,从上往下扫描图像,计算相邻像素集合N 1中的各个像素到当前像素的距离,并将其中的最小值更新为当前像素点的像素值也即距离值,计算公式如下:
其中表示第一次扫描后点/>的像素值;
第二次扫描:
从图像右下角开始,从右往左,从下往上扫描图像,计算相邻像素集合N 2中的各个像素到当前像素的距离,并将其中的最小值与第一次扫描中获得的值做对比,其中更小的值即是距离变换最终的结果,计算公式如下:
其中,表示曼哈顿距离,/>表示第二次扫描后点/>的像素值;至此,经过两次扫描获得最终的距离图/>
进一步的,所述步骤S2具体包括:
对于点云中的任一点,通过k近邻搜索算法获得离点/>最近的若干个点,本实施例中,取与点/>最近的10个点,求取这10个点和点/>y轴坐标的差,将其中差值大于设定值的点剔除,获得同一个激光束的近邻点;在程序中只保留了y轴误差小于0.05m的点。
根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点,计算/>点与近邻点之间的矢量,以矢量关系作为点/>分类的标准,得到点/>是属于深度不连续点或折线点;
遍历点云中的所有点,将提取出来的所有的边缘点、深度不连续点和折线点的集合记为,/>即为点云边缘特征。
所述同一个激光束的近邻点通过以下方式获得:
如果计算出的同一个激光束的近邻点不足2个,则抛弃该点,否则,再根据x轴坐标的差挑选边缘点,如果x轴的差全为负数或者全为正数则认为该点属于边缘点,否则,根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点。
进一步的,分别计算所述点与左右近邻点之间的矢量,以左右临近点矢量关系作为点/>分类的标准,得到点/>是属于深度不连续点或折线点具体为:
如果左右近邻点的矢量关系中,其中一个比另外一个的矢量长度在2倍以上,且较大的矢量长度大于0.3m,并且两个矢量之间的夹角小于160°,则属于深度不连续点;如果两个矢量的夹角大于40°小于100°,则属于折线点。
进一步的,所述步骤S3具体包括:
将单目相机和激光雷达的外参标定优化问题定义为一个非凸不可微的优化问题,优化问题的目标函数定义如下:
其中,N表示像素点集中点的数量,/>是目标函数,表示的是像素点集中所有点的值的平均值,/>分别表示滚转、俯仰和偏航角三个欧拉角;求解该目标函数得到当/>最大时的滚转、俯仰和偏航角即可获得标定后的单目相机和激光雷达的外参。
进一步的,结合遗传算法的实现方法和单目相机和激光雷达外参标定的优化目标函数,过程如下:
(1)首先设定欧拉角的浮动范围为 ,随机生成/>个欧拉角的分配方案构成初始种群;
(2)在种群的所有个体中,将点云边缘特征投影到图像中,去除投影位置不在图像中的点;
(3)根据计算适应度函数,依据计算的适应度函数值采用轮盘赌模型对种群的个体进行选择,得到种群中的最优个体;
(4)对选择得到的个体进行交叉、变异操作,形成下一代种群;
(5)判断优化结束条件,如果满足则输出最优欧拉角,否则重复(2)~(4)操作;
获得最终的外参标定结果。
以下通过具体实例说明算法的使用流程:
设定如下计算条件和技术参数:
(1)以空间非合作目标在轨观测为背景,单目相机和激光雷达与被观测的空间非合作目标之间的姿态固定俯仰、滚转和偏航都为30度;
(2)单目相机的参数为:分辨率1024×1024,焦距10mm,相机尺寸3.072mm;
(3)激光雷达参数为:激光器数量64,距离误差<2cm,角分辨率0.08(度)。
采用Blender和Matlab进行仿真验证,可以获得图2a、图2b、图2c、图2d、图3a、以及图3b和表1的仿真结果。图2a为原始图像;图2b为边缘图;图2c为距离图;图2d为搜索场景图;图3a为原始点云;图3b为点云边缘特征;表1为不同姿态条件下外参标定误差表。从图2b可知,Canny边缘提取算法可以很好的提取出目标的边缘信息。从图2c中可以看出,距离变换可以从边缘图像中提取出图像中的某点距离最近边缘点的距离并以图像灰度值的形式表现出来。从图2d中可以看出,搜索场景图不仅存在周围像素与边缘之间的距离信息,并且在边缘附近存在图像灰度值的突变。从图3b可知,点云边缘特征提取方法可以很好的提取原始点云中的边缘特征。表1为不同姿态条件下外参标定误差表,从表1中可知不同距离情况下,本发明提出的方法都能获得高精度的外参标定方法。
表1
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (8)

1.一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述标定方法步骤如下:
S1,获取原始图像,首先通过Canny边缘提取算法提取所述原始图像的边缘获得边缘图,而后对边缘图进行图像的距离变换操作获得距离图,再结合所述边缘图和所述距离图获得搜索场景图;
S2,通过激光雷达获得点云数据,从所述点云中提取深度不连续点、折线点和边缘点的点云边缘特征;
S3,结合所述搜索场景图和所述点云边缘特征构建优化目标函数,利用遗传算法寻找最优的外参,最终实现对单目相机和激光雷达的外参标定。
2.根据权利要求1所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述步骤S1具体包括:
S11,将原始图像I输入Canny边缘提取算法模块,获得边缘图
S12,将所述边缘图中的像素值的0和1做对调后,通过正向、反向两次扫描过程实现对所述边缘图/>的距离变换,获得距离图/>
S13,结合所述边缘图和所述距离图/>获得搜索场景图:
其中,uv表示当前像素点的横坐标和纵坐标;xy表示距离当前坐标系最近的边缘点的横坐标和纵坐标;256代表灰度图中像素最大值为256;和/>为参数。
3.根据权利要求2所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述S12具体为:
设在正向、反向两次扫描过程中像素的相邻像素的集合分别为/>和/>,则图像距离变换的两次扫描计算过程如下:
第一次扫描:
从图像左上角开始,从左往右,从上往下扫描图像,计算相邻像素集合N 1中的各个像素到当前像素的距离,并将其中的最小值更新为当前像素点的像素值也即距离值,计算公式如下:
其中表示第一次扫描后点/>的像素值;
第二次扫描:
从图像右下角开始,从右往左,从下往上扫描图像,计算相邻像素集合N 2中的各个像素到当前像素的距离,并将其中的最小值与第一次扫描中获得的值做对比,其中更小的值即是距离变换最终的结果,计算公式如下:
其中,表示曼哈顿距离,/>表示第二次扫描后点/>的像素值;至此,经过两次扫描获得最终的距离图/>
4.根据权利要求2所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述步骤S2具体包括:
对于点云中的任一点,通过k近邻搜索算法获得离点/>最近的若干个点,求取这些点和点/>y轴坐标的差,将其中差值大于设定值的点剔除,获得同一个激光束的近邻点;
根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点,计算/>点与近邻点之间的矢量,以矢量关系作为点/>类型分类的标准,得到点/>是属于深度不连续点或折线点;
遍历点云中的所有点,将提取出来的所有的边缘点、深度不连续点和折线点的集合记为,/>即为点云边缘特征。
5.根据权利要求4所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述同一个激光束的近邻点通过以下方式获得:
如果计算出的同一个激光束的近邻点不足2个,则抛弃该点,否则,再根据x轴坐标的差挑选边缘点,如果x轴的差全为负数或者全为正数则认为该点属于边缘点,否则,根据x轴坐标差挑选出同一个激光束中离点最近的左右两个点。
6.根据权利要求4所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,分别计算所述点与左右近邻点之间的矢量,以左右临近点矢量关系作为点/>分类的标准,得到点/>是属于深度不连续点或折线点具体为:
如果左右近邻点的矢量关系中,其中一个比另外一个的矢量长度在2倍以上,且较大的矢量长度大于0.3m,并且两个矢量之间的夹角小于160°,则属于深度不连续点;如果两个矢量的夹角大于40°小于100°,则属于折线点。
7.根据权利要求2所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,所述步骤S3具体包括:
将单目相机和激光雷达的外参标定优化问题定义为一个非凸不可微的优化问题,优化问题的目标函数定义如下:
其中,N表示像素点集中点的数量,/>是目标函数,表示的是像素点集中所有点的值的平均值,/>分别表示滚转、俯仰和偏航角三个欧拉角;求解该目标函数得到当/>最大时的滚转、俯仰和偏航角即获得标定后的单目相机和激光雷达的外参。
8.根据权利要求7所述的一种单目相机和激光雷达在轨外参标定方法,其特征在于,结合遗传算法的实现方法和单目相机和激光雷达外参标定的优化目标函数,过程如下:
(1)首先设定欧拉角的浮动范围为 ,随机生成/>个欧拉角的分配方案构成初始种群;
(2)在种群的所有个体中,将点云边缘特征投影到图像中,去除投影位置不在图像中的点;
(3)根据计算适应度函数,依据计算的适应度函数值采用轮盘赌模型对种群的个体进行选择,得到种群中的最优个体;
(4)对选择得到的个体进行交叉、变异操作,形成下一代种群;
(5)判断优化结束条件,如果满足则输出最优欧拉角,否则重复(2)~(4)操作;
获得最终的外参标定结果。
CN202410242147.5A 2024-03-04 2024-03-04 一种单目相机和激光雷达在轨外参标定方法 Active CN117826129B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410242147.5A CN117826129B (zh) 2024-03-04 2024-03-04 一种单目相机和激光雷达在轨外参标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410242147.5A CN117826129B (zh) 2024-03-04 2024-03-04 一种单目相机和激光雷达在轨外参标定方法

Publications (2)

Publication Number Publication Date
CN117826129A true CN117826129A (zh) 2024-04-05
CN117826129B CN117826129B (zh) 2024-07-05

Family

ID=90511803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410242147.5A Active CN117826129B (zh) 2024-03-04 2024-03-04 一种单目相机和激光雷达在轨外参标定方法

Country Status (1)

Country Link
CN (1) CN117826129B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201721811D0 (en) * 2017-12-22 2018-02-07 Novarum Dx Ltd Analysis of a captured image to determine a test outcome
CN109270534A (zh) * 2018-05-07 2019-01-25 西安交通大学 一种智能车激光传感器与相机在线标定方法
CN112396664A (zh) * 2020-11-24 2021-02-23 华南理工大学 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN114063025A (zh) * 2020-07-31 2022-02-18 通用汽车环球科技运作有限责任公司 动态激光雷达与相机的对准
US11555903B1 (en) * 2018-11-30 2023-01-17 Zoox, Inc. Sensor calibration using dense depth maps
CN117392237A (zh) * 2023-10-24 2024-01-12 浙江大学 一种鲁棒的激光雷达-相机自标定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201721811D0 (en) * 2017-12-22 2018-02-07 Novarum Dx Ltd Analysis of a captured image to determine a test outcome
CN109270534A (zh) * 2018-05-07 2019-01-25 西安交通大学 一种智能车激光传感器与相机在线标定方法
US11555903B1 (en) * 2018-11-30 2023-01-17 Zoox, Inc. Sensor calibration using dense depth maps
CN114063025A (zh) * 2020-07-31 2022-02-18 通用汽车环球科技运作有限责任公司 动态激光雷达与相机的对准
CN112396664A (zh) * 2020-11-24 2021-02-23 华南理工大学 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN117392237A (zh) * 2023-10-24 2024-01-12 浙江大学 一种鲁棒的激光雷达-相机自标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIUQIANG JIANG 等: "Innovative hazard detection and avoidance guidance for safe lunar landing", 《PROCEEDINGS OF THE INSTITUTION OF MECHANICAL ENGINEERS PART G-JOURNAL OF AEROSPACE ENGINEERING》, vol. 230, no. 11, 30 September 2016 (2016-09-30), pages 2086 - 2103 *
张永军 等: "利用距离变换模型进行卫星影像与激光点云精配准", 《武汉大学学报(信息科学版)》, vol. 48, no. 3, 28 March 2022 (2022-03-28), pages 339 - 348 *

Also Published As

Publication number Publication date
CN117826129B (zh) 2024-07-05

Similar Documents

Publication Publication Date Title
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
CN112396664B (zh) 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN113436260B (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN110189399B (zh) 一种室内三维布局重建的方法及系统
CN106780618B (zh) 基于异构深度摄像机的三维信息获取方法及其装置
CN112070770B (zh) 一种高精度三维地图与二维栅格地图同步构建方法
CN109214982B (zh) 一种基于双圆柱投影模型的三维点云成像方法
CN111486855A (zh) 一种具有物体导航点的室内二维语义栅格地图构建方法
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN111274943A (zh) 一种检测方法、装置、电子设备及存储介质
CN112017248B (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
WO2021195939A1 (zh) 一种双目拍摄装置的外参的标定方法、可移动平台及系统
CN113298947A (zh) 一种基于多源数据融合的变电站三维建模方法介质及系统
CN114782628A (zh) 基于深度相机的室内实时三维重建方法
CN113593035A (zh) 一种运动控制决策生成方法、装置、电子设备及存储介质
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
CN115639547A (zh) 多线激光雷达与gnss_ins联合标定方法、系统及介质
CN117593620A (zh) 一种基于相机和激光雷达融合的多目标检测方法及装置
CN107123135B (zh) 一种无序三维点云的无畸变成像方法
CN117826129B (zh) 一种单目相机和激光雷达在轨外参标定方法
CN114782556B (zh) 相机与激光雷达的配准方法、系统及存储介质
CN116540206A (zh) 一种足式机器人高程估计方法、装置及系统
CN117830439B (zh) 一种多相机系统位姿标定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant