CN110456363B - 三维激光雷达点云和红外图像融合的目标检测及定位方法 - Google Patents

三维激光雷达点云和红外图像融合的目标检测及定位方法 Download PDF

Info

Publication number
CN110456363B
CN110456363B CN201910520060.9A CN201910520060A CN110456363B CN 110456363 B CN110456363 B CN 110456363B CN 201910520060 A CN201910520060 A CN 201910520060A CN 110456363 B CN110456363 B CN 110456363B
Authority
CN
China
Prior art keywords
target
infrared
radar
laser radar
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910520060.9A
Other languages
English (en)
Other versions
CN110456363A (zh
Inventor
杨子木
王军政
李静
汪首坤
赵江波
马立玲
沈伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201910520060.9A priority Critical patent/CN110456363B/zh
Publication of CN110456363A publication Critical patent/CN110456363A/zh
Application granted granted Critical
Publication of CN110456363B publication Critical patent/CN110456363B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种三维激光雷达点云和红外图像融合的目标检测及定位方法,建立红外相机与三维激光雷达的坐标转换关系;红外相机采集红外图像,获得红外图像目标候选区域;三维激光雷达采集雷达数据,获得雷达目标候选区域及其中心点坐标;利用坐标转换关系将雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将交并比达到设定门限的红外‑雷达公共区域作为最终目标区域保留下来;从最终目标区域中提取区域长宽比、最大温度和温度离散度组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果。使用本发明融合红外图像和三维激光雷达点云,能够实现夜间障碍物检测及定位。

Description

三维激光雷达点云和红外图像融合的目标检测及定位方法
技术领域
本发明涉及无人运动平台自主导航技术领域,尤其涉及一种三维激光雷达点云和红外图像融合的目标检测及定位方法。
背景技术
无人运动平台在民用、军事、科研等各领域的应用前景日益广阔,想要实现自主运动离不开环境感知技术,夜间障碍物探测是无人平台全天候工作的重要组成部分。
可见光相机受到光照的影响大,无法在夜间进行目标识别,而红外相机的被动感光特性使其不受光照等因素的影响,可用于夜间障碍物检测。然而仅依赖红外图像无法获得目标位置,进而为无人平台提供更丰富的环境信息。激光雷达点云可以反应位置信息,环境适应性强,因此融合红外图像和三维激光雷达点云有望实现夜间障碍物检测及定位。
发明内容
有鉴于此,本发明提供了一种三维激光点云和红外图像融合的目标检测及定位方法,融合红外图像和三维激光雷达点云,实现夜间障碍物探测。
为了解决上述技术问题,本发明是这样实现的:
一种三维激光点云和红外图像融合的目标检测及定位方法,包括:
步骤一:建立红外相机与三维激光雷达的坐标转换关系;
步骤二:红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域;
步骤三:利用三维激光雷达采集雷达数据,使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点坐标;步骤二和步骤三不分先后;
步骤四:利用步骤一得到的坐标转换关系将所述雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将红外图像目标候选区域与雷达聚类目标区域进行匹配融合,将交并比达到设定门限的红外-雷达公共区域作为最终目标区域保留下来,最终目标区域对应的雷达聚类目标区域的中心点坐标即为目标定位信息;
步骤五:从保留的最终目标区域中提取区域长宽比R、最大温度Tmax和温度离散度DFeature组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果;
所述最大温度Tmax为融合区域内像素值最大的n个点的平均像素值对应的相机温度Tmax,温度离散度DFeature为融合区域灰度直方图的方差DFeature
优选地,所述步骤一为:以可见光相机作为标定的中间变量,分别标定红外相机与可见光相机、三维激光雷达与可见光相机,获得红外相机和可见光相机的坐标转换关系、三维激光雷达和可见光相机的坐标转换关系;利用这两个坐标转换关系得到红外相机与三维激光雷达的坐标转换关系为:
Figure GDA0002992903840000021
其中,空间点在红外相机坐标系下的坐标为PCr=(xCr,yCr,zCr),在激光雷达坐标系下对应点的坐标为(xl,yl,zl),RT为红外相机到可见光相机的旋转矩阵,TT红外相机到可见光相机的平移矩阵,Rc与Tc分别为激光雷达坐标系到可见光相机坐标系下的转换矩阵和平移向量。
优选地,所述步骤二包括:
步骤1)、选取多个场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d;设迭代初始值s=1;
步骤2)、给定聚类类别数C,图像像素点总数N,设定迭代停止阈值ε;
步骤3)、用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C,用值在[0,1]之间的随机数初始化C×N的隶属度矩阵U;
步骤4)、更新隶属度矩阵U(s+1)
Figure GDA0002992903840000031
其中,μik∈[0,1]是隶属度矩阵U中第i行第k列的元素,表示第k个像素点xk属于第i类的隶属度,
Figure GDA0002992903840000032
为高斯核函数,σ为核函数带宽,m为加权指数;上角标s和s+1表示迭代轮次;
步骤5)、更新聚类中心矩阵c(s+1)
Figure GDA0002992903840000033
其中,ci表示聚类中心矩阵c中第i个元素;
步骤6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代;
步骤7)利用迭代完成后获得的隶属度矩阵U和聚类中心c,得到分割后的图像,获得图像目标候选区域。
优选地,步骤四确定最终目标区域及其目标定位信息的过程为:
第一步:设红外图像目标候选区域有ni个,记为R1i,i=1,2,…,ni;激光雷达聚类目标区域有nl个,记为R2j,每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl;针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,并取最大值,记为ri
第二步:保留ri值大于设定阈值的红外-雷达目标公共区域作为最终目标区域,最终目标区域对应的激光雷达聚类目标区域的中心点坐标即为目标的定位信息。
有益效果:
1.本发明首次提出了融合红外图像和三维激光雷达点云实现目标检测及定位的方法。与传统红外小目标检测不同,本发明能够检测十米范围内的行人和车辆,并得到其精确的位置信息,同时实现检测及定位。
2.本发明创新的提出了聚合多特征进行目标区域分类识别。根据红外图像成像特点,利用不同目标温度差异性,摒弃传统的HoG、Harr等特征,设计了区域长宽比、最大温度和温度离散度三种聚合的多特征来描述目标区域,大大提高分类的准确度和实时性。
3.本发明提出了一种操作简单、成本低廉的红外相机与三维激光雷达标定方法。与当前已有的标定算法相比,本发明使用可见光相机作为标定的中间桥梁,使用纸质的标定板通过相对简单的标定过程即可获得两传感器坐标系间的转换关系。
4、受到传感器视场的限制,红外图像的分割结果不一定能够投影到雷达点云中,因此本发明在步骤三将三维激光雷达目标候选区域投影至红外图像中,利用联合标定得到的坐标转换关系可以实现这一功能,从而为后续的融合提供基础。
附图说明
图1为本发明流程图。
图2为红外相机与可见光相机坐标系之间的关系示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种三维激光雷达点云和红外图像融合的目标检测及定位方法,如图1所示,其包括如下步骤:
步骤一:建立红外相机与三维激光雷达的坐标转换关系。
本发明提供了一种成本低廉的坐标转换关系构建方法,使用可见光相机作为标定的中间变量,标定红外相机与可见光相机,获得红外相机和可见光相机的坐标转换关系,标定三维激光雷达与可见光相机,获得三维激光雷达和可见光相机的坐标转换关系;利用这两个坐标转换关系得到红外相机与三维激光雷达的坐标转换关系。具体来说:
对于红外相机与可见光相机的标定,使红外相机和可见光相机光轴平行放置,红外相机和可见光相机的模型可简化为平行光轴模型,如图2所示。设一空间点P(xw,yw,zw),在可见光相机坐标系下的坐标为PCl=(xCl,yCl,zCl),在红外相机坐标系下的坐标为PCr=(xCr,yCr,zCr),可见光相机标定得到的平移矩阵记为Tl,旋转矩阵记为Rl;红外相机标定得到的平移矩阵记为Tr,旋转矩阵记为Rr。则有:
Figure GDA0002992903840000051
Figure GDA0002992903840000052
联立式(1)和(2),消去xW、yW、zW,可以得到:
Figure GDA0002992903840000061
Figure GDA0002992903840000062
为红外相机到可见光相机的旋转矩阵,
Figure GDA0002992903840000063
为红外相机到可见光相机的平移矩阵,则两相机间的位置模型为:
Figure GDA0002992903840000064
利用张氏棋盘法进行标定。针对红外相机的成像特性,本发明制作了低成本的标定板。将提前加热并且按照棋盘格裁剪成镂空形状的白色纸贴在低温黑色板上。根据板子和纸的温度,红外图像上纸为白色而电脑为黑色,在可见光图像中的颜色与红外图像相对应。这样即可满足图像标定的要求,又可以大大缩小标定成本。
对三维激光雷达和可见光相机的标定,制作两块大小相同的方形板,在每个板子左上角粘贴不同的二维码。使激光雷达和可见光相机均能够完全检测到完整的二维码。按顺序依次选择图像中二维码边缘点与雷达点云中的对应点,进行迭代,相机的标定参数得到雷达和图可见光相机之间的转换关系。
Figure GDA0002992903840000065
其中,Rc与Tc分别为激光雷达坐标系到可见光相机坐标系下的转换矩阵和平移向量,(xcl,ycl,zcl)为空间点在可见光相机坐标系下坐标,(xl,yl,zl)为空间点在在激光雷达坐标系下对应点的坐标。
对红外相机和三维激光雷达之间的标定,根据式(4)和(5),可以得到红外相机和激光雷达的转换关系为:
Figure GDA0002992903840000071
步骤二、红外目标分割。
红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域。具体过程如下:
首先进行图像预处理,选取具有代表性的L个场景,L为正整数,统计每个场景中灰度直方图的峰值μl和谷值bl,l=1,…,L。粗初始化聚类中心范围的下界限thres_d为:
Figure GDA0002992903840000072
上界限thres_u为:
Figure GDA0002992903840000073
然后用核函数代替欧式距离进行聚类,目标函数可以表示为:
Figure GDA0002992903840000074
约束条件为:
Figure GDA0002992903840000075
Figure GDA0002992903840000076
其中:U是隶属度矩阵,c为聚类中心矩阵,X为输入图像,C为类别数,N为图像中像素点总数,xk为X中的元素,表示第k个像素点像素值;ci为聚类中心矩阵c中的元素,表示第i类的聚类中心;m∈[1,+∞)是一个加权指数;μik∈[0,1]是隶属度矩阵U中第i行第k列的元素,表示xk属于第i类的隶属度。Φ指的是特征映射,根据核函数的特性,有:
Figure GDA0002992903840000081
选取高斯核函数:
Figure GDA0002992903840000082
则有:
K(x,x)=1 (13)
将联立式(9)(12)(13),目标函数可简化为:
Figure GDA0002992903840000083
设置λk为拉格朗日乘子,根据拉格朗日乘子法,有:
Figure GDA0002992903840000084
则隶属度更新矩阵为:
Figure GDA0002992903840000085
聚类中心矩阵为:
Figure GDA0002992903840000086
红外图像分割算法步骤可简述为:
1)选取L张场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d,从而得到粗初始化聚类中心上下界thres_u和thres_d,设迭代初始值s=1。
2)给定聚类类别数C(2≤C≤N),设定迭代停止阈值ε以及聚类中心上下界。
3)用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C;用值在[0,1]之间的随机数初始化隶属度矩阵U,使其满足式(10),因为隶属度表明每个像素值属于一类的可能性,因此和为1,每一个隶属度都应该大于0。
4)用式(16)更新隶属度矩阵U(s+1)。上角标s和s+1表示迭代轮次。
5)利用式(17)更新聚类中心矩阵c(s+1)
6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代。
7)迭代完成后获得的隶属度矩阵U和聚类中心矩阵c,进行图像分割,得到分割后的图像,即获得图像目标候选区域。
步骤三、激光雷达点云目标检测;
由于需要实现障碍物定位,因此利用激光点云完成检测任务的同时要保留障碍物的位置信息,而聚类算法根据点云位置、强度等信息进行分割,能够满足系统要求。因此首先使用直通滤波器滤除无用点以及离群点,然后使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点对应的在x轴、y轴和z轴方向上的位置信息。
上述步骤二和步骤三不限定先后顺序,较佳地,可以并行执行,从而提高处理效率。
步骤四、红外相机与激光雷达信息融合处理;
受到传感器视场的限制,红外图像的分割结果不一定能够投影到雷达点云中,因此本发明将三维激光雷达目标候选区域投影至红外图像中,利用步骤一联合标定得到的坐标转换关系可以实现这一功能。这时可以融合红外分割和雷达检测结果检测目标。
将三维激光雷达目标候选区域投影至红外图像中之后,利用红外图像目标候选区域与雷达聚类目标区域之间的融合信息确定保留哪些融合区域作为最终的目标区域。本发明是根据两类区域的交并比实现最终目标区域的确定。其过程分三步实现:
第一步:找到与红外目标相对应的激光雷达区域。
设红外图像目标区域有ni个,记为R1i,i=1,2,…,ni;激光雷达目标区域有nl个,记为R2j,步骤三得到的每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl,针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,获得nl个交并比,取最大值,作为第i个红外图像目标区域的融合信息,记为ri。设qi为匹配编号,记为<i,j>。则有:
[ri qi]=max{Pi1,Pi2,…,Pij}i=1,2,…,ni (18)
其中
Figure GDA0002992903840000101
表示R1i与R2j这两个区域的面积交并比。
第二步:去除非目标区域。
第一步中计算得到的交并比Pij,若只有激光雷达或者红外相机检测到目标,而另一传感器没有检测到,则针对R1i计算得到的交并比最大值ri应为零,必然不存在目标。而若ri过小,也认为是检测错误。因此融合区域中是否存在目标应由ri决定,有:
Figure GDA0002992903840000102
其中,thresh_ratio为交并比门限值。
若ri值大于设定阈值thresh_ratio,则红外图像目标区域中存在目标,根据对应关系qi找到对应的激光雷达目标区域,两者相交的部分为最终目标区域,雷达目标区域中心点坐标Pj即为定位结果。
步骤五、目标区域分类识别;
设计红外图像聚合多特征,对得到的匹配融合区域(即最终目标区域)进行分类。
由于在融合区域内进行分类,因此必然存在目标,而行人和车辆为道路交通的主要参与者,故将目标分为三类:行人、车辆和其他。由于行人与车辆的长宽形态不同,一般来说在图像中行人高度大于宽度,车辆长度接近或大于高度,这一点可以用来区分车辆与行人。然而在不同角度,无法完全保证障碍物长宽比在一定范围内,因此需要考虑其他因素。行人温度变化在30-37℃之间,图像中像素差异不大,而车辆的发动机部分温度在80-95℃之间,车灯根据材质的不同有的在80℃左右,有的能达到200℃以上,排气管的温度则更高,车身等其他部分温度与环境接近(5-35℃),整体温度差异大,在图像中像素变化明显。行人红外图像像素值分布集中在低像素值处,高于150的像素较少。而车辆像素值分散,且高温像素值较多,甚至有较多点像素值为255。根据红外相机的温度标定结果,可以知道温度-像素值的对应关系。因此对融合区域提取3种特征:区域长宽比R,最大温度Tmax,温度离散度DFeature
区域长宽比R:为融合区域在图像中的高度h与宽度l的比值。
R=h/l (20)
最大温度Tmax:找到融合区域内像素值最大的前n个点,计算平均值Pmax
根据相机温度标定结果找到像素值Pmax对应的温度Tmax
Figure GDA0002992903840000111
其中N为融合区域像素点个数,X={x1,x2,…,xN-i}为去除i个最大值后的像素值集合。
温度离散度DFeature:为融合区域灰度直方图的方差。记融合区域像素总数为N,灰度为rk的像素数为nk,则概率密度函数为p(rk)=nk/N。直方图平均灰度为:
Figure GDA0002992903840000121
直方图标准差为:
Figure GDA0002992903840000122
其中,sqrt()表示平方根函数。
因此本步骤,从保留的最终目标区域中提取上述聚合多特征,输入SVM分类器进行分类,从而得到红外目标类型。步骤四得到的目标的定位信息Pj即为红外目标定位结果。
可见,本发明提供了一种红外图像和激光雷达点云融合方法实现目标检测及定位方案,标定流程简单成本低廉,检测定位精度高实时性好,具有很强的操作性和可靠性。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种三维激光雷达点云和红外图像融合的目标检测及定位方法,其特征在于,包括:
步骤一:建立红外相机与三维激光雷达的坐标转换关系;
步骤二:红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域;
所述步骤二包括:
步骤1)、选取多个场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d;设迭代初始值s=1;
步骤2)、给定聚类类别数C,图像像素点总数N,设定迭代停止阈值ε;
步骤3)、用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C,用值在[0,1]之间的随机数初始化C×N的隶属度矩阵U;
步骤4)、更新隶属度矩阵U(s+1)
Figure FDA0002992903830000011
其中,μik∈[0,1]是隶属度矩阵U中第i行第k列的元素,表示第k个像素点xk属于第i类的隶属度,
Figure FDA0002992903830000012
为高斯核函数,σ为核函数带宽,m为加权指数;上角标s和s+1表示迭代轮次;
步骤5)、更新聚类中心矩阵c(s+1)
Figure FDA0002992903830000013
其中,ci表示聚类中心矩阵c中第i个元素;
步骤6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代;
步骤7)利用迭代完成后获得的隶属度矩阵U和聚类中心c,得到分割后的图像,获得图像目标候选区域;
步骤三:利用三维激光雷达采集雷达数据,使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点坐标;步骤二和步骤三不分先后;
步骤四:利用步骤一得到的坐标转换关系将所述雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将红外图像目标候选区域与雷达聚类目标区域进行匹配融合,将交并比达到设定门限的红外-雷达公共区域作为最终目标区域保留下来,最终目标区域对应的雷达聚类目标区域的中心点坐标即为目标定位信息;
步骤五:从保留的最终目标区域中提取区域长宽比R、最大温度Tmax和温度离散度DFeature组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果;
所述最大温度Tmax为融合区域内像素值最大的n个点的平均像素值对应的相机温度Tmax,温度离散度DFeature为融合区域灰度直方图的方差DFeature
2.如权利要求1所述的方法,其特征在于,所述步骤一为:以可见光相机作为标定的中间变量,分别标定红外相机与可见光相机、三维激光雷达与可见光相机,获得红外相机和可见光相机的坐标转换关系、三维激光雷达和可见光相机的坐标转换关系;利用这两个坐标转换关系得到红外相机与三维激光雷达的坐标转换关系为:
Figure FDA0002992903830000021
其中,空间点在红外相机坐标系下的坐标为PCr=(xCr,yCr,zCr),在激光雷达坐标系下对应点的坐标为(xl,yl,zl),RT为红外相机到可见光相机的旋转矩阵,TT为红外相机到可见光相机的平移矩阵,Rc与Tc分别为激光雷达坐标系到可见光相机坐标系下的转换矩阵和平移向量。
3.如权利要求1所述的方法,其特征在于,步骤四确定最终目标区域及其目标定位信息的过程为:
第一步:设红外图像目标候选区域有ni个,记为R1i,i=1,2,…,ni;激光雷达聚类目标区域有nl个,记为R2j,每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl;针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,并取最大值,记为ri
第二步:保留ri值大于设定阈值的红外-雷达目标公共区域作为最终目标区域,最终目标区域对应的激光雷达聚类目标区域的中心点坐标即为目标的定位信息。
CN201910520060.9A 2019-06-17 2019-06-17 三维激光雷达点云和红外图像融合的目标检测及定位方法 Active CN110456363B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910520060.9A CN110456363B (zh) 2019-06-17 2019-06-17 三维激光雷达点云和红外图像融合的目标检测及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910520060.9A CN110456363B (zh) 2019-06-17 2019-06-17 三维激光雷达点云和红外图像融合的目标检测及定位方法

Publications (2)

Publication Number Publication Date
CN110456363A CN110456363A (zh) 2019-11-15
CN110456363B true CN110456363B (zh) 2021-05-18

Family

ID=68480746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910520060.9A Active CN110456363B (zh) 2019-06-17 2019-06-17 三维激光雷达点云和红外图像融合的目标检测及定位方法

Country Status (1)

Country Link
CN (1) CN110456363B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144315A (zh) * 2019-12-27 2020-05-12 北京三快在线科技有限公司 目标检测方法、装置、电子设备和可读存储介质
CN111398961B (zh) * 2020-03-17 2022-07-15 北京百度网讯科技有限公司 用于检测障碍物的方法和装置
CN111508020B (zh) * 2020-03-23 2024-05-07 北京国电富通科技发展有限责任公司 融合图像与激光雷达的电缆三维位置计算方法、装置
CN111680537A (zh) * 2020-03-31 2020-09-18 上海航天控制技术研究所 一种基于激光红外复合的目标检测方法及系统
CN111582256B (zh) * 2020-04-26 2024-05-14 智慧互通科技股份有限公司 一种基于雷达和视觉信息的停车管理方法及装置
CN111709988B (zh) * 2020-04-28 2024-01-23 上海高仙自动化科技发展有限公司 一种物体的特征信息的确定方法、装置、电子设备及存储介质
CN111738097B (zh) * 2020-05-29 2024-04-05 理光软件研究所(北京)有限公司 一种目标分类方法、装置、电子设备和可读存储介质
CN111709923B (zh) * 2020-06-10 2023-08-04 中国第一汽车股份有限公司 一种三维物体检测方法、装置、计算机设备和存储介质
CN111880196A (zh) * 2020-06-29 2020-11-03 安徽海博智能科技有限责任公司 一种无人矿车抗干扰方法、系统及计算机设备
CN112270694B (zh) * 2020-07-07 2023-04-18 中国人民解放军61540部队 基于激光雷达扫描图进行城市环境动态目标检测的方法
CN111951306B (zh) * 2020-08-31 2024-06-07 华通科技有限公司 一种激光雷达与图像视频融合的目标检测方法
CN112066994B (zh) * 2020-09-28 2022-07-22 河海大学常州校区 一种消防机器人局部自主导航方法及系统
CN112740225B (zh) * 2020-09-30 2022-05-13 华为技术有限公司 一种路面要素确定方法及装置
CN112215905A (zh) * 2020-10-22 2021-01-12 北京易达恩能科技有限公司 移动式红外测温系统的自动标定方法
CN112464812B (zh) * 2020-11-27 2023-11-24 西北工业大学 一种基于车辆的凹陷类障碍物检测方法
CN112528773B (zh) * 2020-11-27 2023-04-07 深兰科技(上海)有限公司 障碍物信息融合方法、装置、电子设备和存储介质
CN112766061A (zh) * 2020-12-30 2021-05-07 罗普特科技集团股份有限公司 一种多模态无监督的行人像素级语义标注方法和系统
CN112651380A (zh) * 2021-01-13 2021-04-13 深圳市一心视觉科技有限公司 人脸识别方法、人脸识别装置、终端设备及存储介质
CN112686206A (zh) * 2021-01-20 2021-04-20 塞尔昂(上海)工业技术有限公司 一种智能斗齿监测系统
CN113778078A (zh) * 2021-03-05 2021-12-10 北京京东乾石科技有限公司 定位信息生成方法、装置、电子设备和计算机可读介质
CN113034615B (zh) * 2021-03-30 2023-05-23 南方电网电力科技股份有限公司 一种用于多源数据融合的设备标定方法及相关装置
CN113111887B (zh) * 2021-04-26 2022-04-15 河海大学常州校区 一种基于相机和激光雷达信息融合的语义分割方法及系统
CN113192091B (zh) * 2021-05-11 2021-10-22 紫清智行科技(北京)有限公司 一种基于激光雷达与相机融合的远距离目标感知方法
CN113655477B (zh) * 2021-06-11 2023-09-01 成都圭目机器人有限公司 一种采用浅层对地雷达自动检测地质病害的方法
CN113390514B (zh) * 2021-06-16 2022-11-11 中国人民解放军军事科学院国防工程研究院 一种基于多传感器阵列的三维红外温度测量方法
CN113608355B (zh) * 2021-08-06 2023-07-21 湖南龙特科技有限公司 一种基于毫米波雷达和红外热成像仪的交互式显示方式
CN113850995B (zh) * 2021-09-14 2022-12-27 华设设计集团股份有限公司 一种基于隧道雷视数据融合的事件检测方法、装置及系统
WO2023040737A1 (zh) * 2021-09-17 2023-03-23 中国第一汽车股份有限公司 目标位置确定方法、装置、电子设备以及存储介质
CN114332748B (zh) * 2021-11-08 2024-10-15 西安电子科技大学 基于多源特征联合网络与变换图像自生成的目标检测方法
CN114743169A (zh) * 2022-04-11 2022-07-12 南京领行科技股份有限公司 一种对象的异常检测方法、装置、电子设备及存储介质
CN116091883B (zh) * 2023-04-10 2023-07-18 深圳市普雷德科技有限公司 基于多源信息融合的目标检测识别方法、系统及存储介质
CN117911734B (zh) * 2024-01-12 2024-07-26 哈尔滨工业大学 一种基于图像聚类离散度计算的红外检测数据预融合处理方法
CN118155038B (zh) * 2024-05-11 2024-10-18 中国第一汽车股份有限公司 多目标轨迹检测方法、装置、设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184368A (ja) * 1998-12-14 2000-06-30 Matsushita Electric Ind Co Ltd センサー信号重畳車載カメラシステム
CN108241871A (zh) * 2017-12-27 2018-07-03 华北水利水电大学 基于多特征的激光点云与影像融合数据分类方法
CN108334819A (zh) * 2017-01-17 2018-07-27 德尔福技术有限公司 用于自动化车辆的地面分类器系统
CN108509918A (zh) * 2018-04-03 2018-09-07 中国人民解放军国防科技大学 融合激光点云与图像的目标检测与跟踪方法
CN109271944A (zh) * 2018-09-27 2019-01-25 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、电子设备、车辆及存储介质
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184368A (ja) * 1998-12-14 2000-06-30 Matsushita Electric Ind Co Ltd センサー信号重畳車載カメラシステム
CN108334819A (zh) * 2017-01-17 2018-07-27 德尔福技术有限公司 用于自动化车辆的地面分类器系统
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
CN108241871A (zh) * 2017-12-27 2018-07-03 华北水利水电大学 基于多特征的激光点云与影像融合数据分类方法
CN108509918A (zh) * 2018-04-03 2018-09-07 中国人民解放军国防科技大学 融合激光点云与图像的目标检测与跟踪方法
CN109271944A (zh) * 2018-09-27 2019-01-25 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、电子设备、车辆及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于红外CCD与激光测距仪融合的行人检测技术研究;余燕;《中国优秀硕士学位论文全文数据库信息科技辑》;20081115;第4-7页、第32-47页 *

Also Published As

Publication number Publication date
CN110456363A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
CN110456363B (zh) 三维激光雷达点云和红外图像融合的目标检测及定位方法
CN110244322B (zh) 基于多源传感器的路面施工机器人环境感知系统及方法
Uzkent et al. Aerial vehicle tracking by adaptive fusion of hyperspectral likelihood maps
Xia et al. Geometric primitives in LiDAR point clouds: A review
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
Gudigar et al. A review on automatic detection and recognition of traffic sign
Bar Hillel et al. Recent progress in road and lane detection: a survey
CN111666805B (zh) 用于自动驾驶的类别标记系统
Zhou et al. Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain
CN111626217A (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN113706480B (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
Li et al. Classification of urban point clouds: A robust supervised approach with automatically generating training data
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Tumen et al. Recognition of road type and quality for advanced driver assistance systems with deep learning
CN110992424B (zh) 基于双目视觉的定位方法和系统
CN114782729A (zh) 一种基于激光雷达与视觉融合的实时目标检测方法
CN105989334A (zh) 基于单目视觉的道路检测方法
Tang et al. Multiple-kernel based vehicle tracking using 3D deformable model and camera self-calibration
Liu et al. Autonomous road detection and modeling for UGVs using vision-laser data fusion
Zhang et al. Gc-net: Gridding and clustering for traffic object detection with roadside lidar
Lu et al. A cross-scale and illumination invariance-based model for robust object detection in traffic surveillance scenarios
CN114973031B (zh) 一种无人机视角下的可见光-热红外图像目标检测方法
Yu et al. Obstacle detection with deep convolutional neural network
CN118298399A (zh) 一种基于YOLOv8模型优化的夜间车辆目标检测方法
Huang et al. Why semantics matters: A deep study on semantic particle-filtering localization in a LiDAR semantic pole-map

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant