CN111967373A - 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 - Google Patents

一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 Download PDF

Info

Publication number
CN111967373A
CN111967373A CN202010818329.4A CN202010818329A CN111967373A CN 111967373 A CN111967373 A CN 111967373A CN 202010818329 A CN202010818329 A CN 202010818329A CN 111967373 A CN111967373 A CN 111967373A
Authority
CN
China
Prior art keywords
image
laser radar
camera
feature
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010818329.4A
Other languages
English (en)
Other versions
CN111967373B (zh
Inventor
殷国栋
彭湃
庄伟超
耿可可
徐利伟
王金湘
张宁
卢彦博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010818329.4A priority Critical patent/CN111967373B/zh
Publication of CN111967373A publication Critical patent/CN111967373A/zh
Application granted granted Critical
Publication of CN111967373B publication Critical patent/CN111967373B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,所述方法包括:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,分别得到第一图像特征和第二图像特征;自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合;根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果。本发明能够在复杂环境下实时、精确且鲁棒地实现目标实例分割,在智能网联车辆感知领域具有广泛的应用前景。

Description

一种基于摄像头和激光雷达的自适应强化融合实时实例分割 方法
技术领域
本发明属于智能网联汽车的目标实例分割技术领域,特别是一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法。
背景技术
智能网联汽车在提高道路安全和交通效率方面具有很大的潜力,而对交通环境的精确感知是智能网联汽车进行规划、决策和控制的基础。摄像头作为智能网联汽车感知系统最常用的传感器,能够获取周围环境的详细形状和纹理信息。近些年,基于视觉的深度学习算法在环境感知方面已经取得了令人瞩目的成果。但是摄像头容易受到光线和天气条件的影响,导致算法性能严重降低甚至失效。所以,智能网联汽车的感知系统通常配备多种传感器,如摄像头、激光雷达、毫米波雷达、超声波雷达等,来获取全面的、互补的感知信息。由于激光雷达能够精确感知周围环境的三维信息且不易受环境变化影响,很多研究工作通过融合摄像头和激光雷达信息来获取鲁棒、精确、实时的环境感知能力。
中国发明专利申请“基于视觉、激光雷达和毫米波雷达的目标检测方法”(申请号:202010380040.9,公开日:2020.06.30)通过融合激光雷达点云鸟瞰图和摄像头图像来进行目标检测。目标检测利用边界框来定位图像中的目标,但是边界框中通常还包含来自背景以及其他目标的噪声;而实例分割利用掩模来精确分割图像中的目标个体,对环境的解析更详细、更自然。
中国发明专利申请“一种基于多传感器信息融合的三维目标检测方法及装置”(申请号:201911269486.8,公开日:2019.12.11)和“一种基于多传感器数据融合的3D目标检测方法”(申请号:201911423880.2,公开日:2020.05.29)公开了融合激光雷达和摄像头数据的两阶段三维目标检测方法,首先确定可能存在目标的感兴趣区域,然后再在该区域上进行目标检测,此类方法处理速度较慢,目前无法实际应用在智能网联汽车感知系统上。
在融合方式上,中国发明专利申请“一种基于单目视觉和激光雷达融合的车辆检测方法”(申请号:202010124991.X,公开日:2020.06.16)和“一种摄像头和激光雷达融合的端到端目标检测方法”(申请号:201911118301.3,公开日:2019.11.15)利用级联、求和或按元素取均值等方式来融合图像和激光雷达特征图。但是,此类融合方式并没有考虑不同模态信息对于最后感知结果的贡献程度,如激光雷达在夜间通常比摄像头提供更多的环境信息,使得网络无法充分利用两个模态的互补特征,导致网络性能受限。
总之,现有技术存在的问题是:仅依赖单模态传感器无法精确、鲁棒的感知外部环境;而目前基于摄像头和激光雷达的融合感知方法的目标定位精度低且实时性较差,并且所采用的融合方法无法自适应地学习不同模态的互补特征。
发明内容
本发明的目的在于提供一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,该方法可以自适应地利用不同模态的互补特征,有效实现对复杂交通环境下不同交通要素目标的实时实例分割。
实现本发明目的的技术解决方案为:
一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,所述方法包括:
S10,特征提取:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,得到对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征;
S20,自适应强化融合:将所述第一图像特征和所述第二图像特征输入到一个权重网络,自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合,得到融合后的图像特征;
S30,网络输出:根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果。
进一步地,所述特征提取具体包括:
S11,将目标的摄像头图像和激光雷达点云时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的摄像头图像帧和激光雷达点云帧;
S12,生成激光雷达投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z )T
式中,z表示摄像头图像坐标系下的该点的深度;
在投影时过滤掉摄像头图像视场外的点云,并用深度z或由对应的反射率值r填充(u v)的像素值,得到激光雷达点云深度投影图作为激光雷达投影图;
S13,提取摄像头图像和激光雷达投影图的图像特征:
将时空一致的摄像头图像和激光雷达深度投影图作为特征提取网络的输入,利用所述特征提取网络分别提取对应摄像头图像的第一图像特征
Figure BDA0002633549360000031
和对应激光雷达投影图的第二图像特征
Figure BDA0002633549360000032
其中,C、H和W分别代表特征图的通道数、高度和宽度。
进一步地,所述自适应强化融合具体包括:
S21,自适应权重分配:
将所提取的第一图像特征
Figure BDA0002633549360000033
和第二图像特征
Figure BDA0002633549360000034
作为自适应强化融合网络的输入;首先将
Figure BDA0002633549360000035
Figure BDA0002633549360000036
沿通道C方向拼接,得到拼接特征图
Figure BDA0002633549360000037
然后利用C个2C×1×1卷积核将
Figure BDA0002633549360000038
维度减小为C,得到权重特征图
Figure BDA0002633549360000039
最后利用sigmoid层将
Figure BDA00026335493600000310
归一化,得到最终的权重系数矩阵
Figure BDA00026335493600000311
其中分别对第一图像特征
Figure BDA00026335493600000312
和第二图像特征
Figure BDA00026335493600000313
进行权重分配,得到加权后的第三图像特征
Figure BDA00026335493600000314
和第四图像特征
Figure BDA00026335493600000315
Figure BDA00026335493600000316
Figure BDA00026335493600000317
式中,⊙代表Hadamard乘积。
S22,加权特征强化融合:
逐元素比较加权第三图像特征
Figure BDA00026335493600000318
和第四图像特征
Figure BDA00026335493600000319
取其中的较大值组成特征矩阵fp;计算
Figure BDA00026335493600000320
的均值m,令均值矩阵
Figure BDA00026335493600000321
所有元素都为m;并按照下式逐元素对
Figure BDA0002633549360000041
Figure BDA0002633549360000042
进行强化融合:
Figure BDA0002633549360000043
式中,
Figure BDA0002633549360000044
为强化系数。
进一步地,所述第一图像特征和第二图像特征为多尺度的高层语义特征。
进一步地,所述实时实例分割网络使用YOLACT++中的预测网络。
进一步地,所述激光雷达线束不小于40线。
进一步地,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络提取多尺度的高层语义信息。
进一步地,所述加权特征强化融合中的强化系数为:
Figure BDA0002633549360000045
通过以上技术方案,相对于现有技术,本发明具有以下有益效果:
1、实时性高:所提出的融合实例分割方法基于一个单阶段的端到端实时实例分割网络YOLACT++;且网络直接使用激光雷达投影图作为输入,避免了投影图上采样产生的大量计算开销,可直接应用于工程实践。
2、定位精度高:所提出的融合方法利用掩模来对目标进行定位,定位精度高。
3、适应性好且精确度、鲁棒性高:利用网络自适应地分配给每个模态不同的权重,并对加权后的各模态特征进行强化融合,能够适应复杂天气和光照变化,感知的精度和鲁棒性高。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明提供的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法的网络结构图;
图2是本发明提供的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法的流程图;
图3是本发明特征提取方法流程图;
图4是本发明自适应强化融合方法流程图。
具体实施方式
如图1所示,本发明的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,包括如下步骤:
S10,特征提取:分别用卷积神经网络从时空一致的摄像头图像和激光雷达点云投影图中提取多尺度的高层语义特征;
结合图2,所述特征提取步骤包括:
S11,摄像头和激光雷达时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的激光雷达点云帧和摄像头图像帧。
S12,生成激光雷达点云投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z)T
式中,z表示摄像头坐标系下的该点的深度;
在投影时过滤掉摄像头视场外的点云,并用深度z或由对应的反射率值r填充(uv)的像素值,由此可以分别得到激光雷达的点云深度投影图和反射率投影图。
优选地,所述激光雷达线束不小于40线。
S13,激光雷达投影图和摄像头图像特征提取:
结合图1,将时空一致的摄像头图像和激光雷达深度投影图(或反射率投影图)作为特征提取网络的输入,利用该网络提取各模态数据的高层语义特征,分别记为
Figure BDA0002633549360000051
Figure BDA0002633549360000052
其中,C、H和W分别代表特征图的通道数、高度和宽度。
优选地,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络(Feature Pyramid Network)提取多尺度的高层语义信息。
S20,自适应强化融合:根据所提取的高层语义特征利用一个权重网络来自适应地分配每个模态的权重,并将加权之后的高层语义特征进行强化融合;
其中,各个模态分别为目标的摄像头图像和激光雷达云投影图。
结合图3,所述自适应强化融合步骤包括:
S21,自适应权重分配:
如图1所示,将所提取的激光雷达投影图和摄像头图像的高层语义特征
Figure BDA0002633549360000061
Figure BDA0002633549360000062
作为自适应强化融合网络的输入。首先将
Figure BDA0002633549360000063
Figure BDA0002633549360000064
沿通道C方向拼接,得到拼接特征图
Figure BDA0002633549360000065
然后利用C个2C×1×1卷积核将
Figure BDA0002633549360000066
维度减小为C,得到权重特征图
Figure BDA0002633549360000067
最后利用sigmoid层将
Figure BDA0002633549360000068
归一化,得到最终的权重系数矩阵
Figure BDA0002633549360000069
按照下式分别对摄像头图像和激光雷达投影图的高层语义特征图
Figure BDA00026335493600000610
Figure BDA00026335493600000611
进行权重分配,得到加权后的高层语义特征
Figure BDA00026335493600000612
Figure BDA00026335493600000613
Figure BDA00026335493600000614
Figure BDA00026335493600000615
式中,⊙代表Hadamard乘积。
S22,加权特征强化融合:
逐元素比较加权高层语义特征
Figure BDA00026335493600000616
Figure BDA00026335493600000617
取其中的较大值组成特征矩阵fp;计算
Figure BDA00026335493600000618
的均值m,令均值矩阵
Figure BDA00026335493600000619
所有元素都为m;并按照下式逐元素对
Figure BDA00026335493600000620
Figure BDA00026335493600000621
进行强化融合:
Figure BDA00026335493600000622
式中,
Figure BDA00026335493600000623
为强化系数;
所述(22)加权特征强化融合中的强化系数按下式计算:
Figure BDA00026335493600000624
S30,网络输出:根据融合后的特征图,利用实时实例分割算法YOLACT++中的预测网络输出目标的类别、置信度、边界框、掩模,即获取目标的实例分割信息。
本发明基于单阶段实时实例分割网络YOLACT++,且使用摄像头图像和激光雷达稀疏投影图作为网络输入,能够实现实时处理;利用掩模进行目标定位,精度较高;并且能够自适应地调整每个模态的权重系数,并对加权后的各模态特征图进行强化融合,充分利用多模态的互补信息,能够适应复杂的天气和光照变化,感知精度和鲁棒性高。基于以上优点,本发明提出的基于摄像头和激光雷达的自适应强化融合实时实例分割方法在智能网联车辆感知领域具有广泛的应用前景。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本申请中所述的“和/或”的含义指的是各自单独存在或两者同时存在的情况均包括在内。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (8)

1.一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,其特征在于,所述方法包括:
S10,特征提取:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,得到对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征;
S20,自适应强化融合:将所述第一图像特征和所述第二图像特征输入到一个权重网络,自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合,得到融合后的图像特征;
S30,网络输出:根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果。
2.根据权利要求1所述的方法,其特征在于,所述特征提取具体包括:
S11,将目标的摄像头图像和激光雷达点云时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的摄像头图像帧和激光雷达点云帧;
S12,生成激光雷达投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z)T
式中,z表示摄像头图像坐标系下的该点的深度;
在投影时过滤掉摄像头图像视场外的点云,并用深度z或由对应的反射率值r填充(uv)的像素值,得到激光雷达点云深度投影图作为激光雷达投影图;
S13,提取摄像头图像和激光雷达投影图的图像特征:
将时空一致的摄像头图像和激光雷达深度投影图作为特征提取网络的输入,利用所述特征提取网络分别提取对应摄像头图像的第一图像特征
Figure FDA0002633549350000011
和对应激光雷达投影图的第二图像特征
Figure FDA0002633549350000012
其中,C、H和W分别代表特征图的通道数、高度和宽度。
3.根据权利要求1所述的方法,其特征在于,所述自适应强化融合具体包括:
S21,自适应权重分配:
将所提取的第一图像特征
Figure FDA0002633549350000021
和第二图像特征
Figure FDA0002633549350000022
作为自适应强化融合网络的输入;首先将
Figure FDA0002633549350000023
Figure FDA0002633549350000024
沿通道C方向拼接,得到拼接特征图
Figure FDA0002633549350000025
然后利用C个2C×1×1卷积核将
Figure FDA0002633549350000026
维度减小为C,得到权重特征图
Figure FDA0002633549350000027
最后利用sigmoid层将
Figure FDA0002633549350000028
归一化,得到最终的权重系数矩阵
Figure FDA0002633549350000029
其中分别对第一图像特征
Figure FDA00026335493500000210
和第二图像特征
Figure FDA00026335493500000211
进行权重分配,得到加权后的第三图像特征
Figure FDA00026335493500000212
和第四图像特征
Figure FDA00026335493500000213
Figure FDA00026335493500000214
Figure FDA00026335493500000215
式中,⊙代表Hadamard乘积。
S22,加权特征强化融合:
逐元素比较加权第三图像特征
Figure FDA00026335493500000216
和第四图像特征
Figure FDA00026335493500000217
取其中的较大值组成特征矩阵fp;计算
Figure FDA00026335493500000218
的均值m,令均值矩阵
Figure FDA00026335493500000219
所有元素都为m;并按照下式逐元素对
Figure FDA00026335493500000220
Figure FDA00026335493500000221
进行强化融合:
Figure FDA00026335493500000222
式中,
Figure FDA00026335493500000223
为强化系数。
4.根据权利要求1所述的方法,其特征在于,所述第一图像特征和第二图像特征为多尺度的高层语义特征。
5.根据权利要求1所述的方法,其特征在于,所述实时实例分割网络使用YOLACT++中的预测网络。
6.根据权利要求2所述的方法,其特征在于,所述激光雷达线束不小于40线。
7.根据权利要求2所述的方法,其特征在于,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络提取多尺度的高层语义信息。
8.根据权利要求3所述的方法,其特征在于,所述加权特征强化融合中的强化系数为:
Figure FDA0002633549350000031
CN202010818329.4A 2020-08-14 2020-08-14 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 Active CN111967373B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010818329.4A CN111967373B (zh) 2020-08-14 2020-08-14 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010818329.4A CN111967373B (zh) 2020-08-14 2020-08-14 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法

Publications (2)

Publication Number Publication Date
CN111967373A true CN111967373A (zh) 2020-11-20
CN111967373B CN111967373B (zh) 2021-03-30

Family

ID=73366029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010818329.4A Active CN111967373B (zh) 2020-08-14 2020-08-14 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法

Country Status (1)

Country Link
CN (1) CN111967373B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950640A (zh) * 2021-02-23 2021-06-11 Oppo广东移动通信有限公司 视频人像分割方法、装置、电子设备及存储介质
CN113537000A (zh) * 2021-07-01 2021-10-22 大连民族大学 单目视觉实例分割深度链式特征提取网络、方法和系统
CN113569803A (zh) * 2021-08-12 2021-10-29 中国矿业大学(北京) 一种基于多尺度卷积的多模态数据融合车道目标检测的方法及系统
CN115393854A (zh) * 2022-10-27 2022-11-25 粤港澳大湾区数字经济研究院(福田) 一种视觉对齐处理方法、终端及存储介质
CN117115359A (zh) * 2023-10-17 2023-11-24 国网江西省电力有限公司信息通信分公司 一种基于深度图融合的多视图电网三维空间数据重建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
WO2019015785A1 (en) * 2017-07-21 2019-01-24 Toyota Motor Europe METHOD AND SYSTEM FOR LEARNING A NEURAL NETWORK TO BE USED FOR SEMANTIC INSTANCE SEGMENTATION
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN110414418A (zh) * 2019-07-25 2019-11-05 电子科技大学 一种图像-激光雷达图像数据多尺度融合的道路检测方法
CN111275026A (zh) * 2020-03-23 2020-06-12 复旦大学 一种三维点云联合语义和实例分割的方法
CN111339876A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于识别场景中各区域类型的方法和装置
CN111429514A (zh) * 2020-03-11 2020-07-17 浙江大学 一种融合多帧时序点云的激光雷达3d实时目标检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019015785A1 (en) * 2017-07-21 2019-01-24 Toyota Motor Europe METHOD AND SYSTEM FOR LEARNING A NEURAL NETWORK TO BE USED FOR SEMANTIC INSTANCE SEGMENTATION
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN110414418A (zh) * 2019-07-25 2019-11-05 电子科技大学 一种图像-激光雷达图像数据多尺度融合的道路检测方法
CN111339876A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于识别场景中各区域类型的方法和装置
CN111429514A (zh) * 2020-03-11 2020-07-17 浙江大学 一种融合多帧时序点云的激光雷达3d实时目标检测方法
CN111275026A (zh) * 2020-03-23 2020-06-12 复旦大学 一种三维点云联合语义和实例分割的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDREAS PFEUFFER ET.AL: "Robust Semantic Segmentation in Adverse Weather Conditions by means of Sensor Data Fusion", 《ARXIV:1905.10117V1 [CS.CV]》 *
DANIEL BOLYA ET.AL: "YOLACT++ Better Real-time Instance Segmentation", 《ARXIV:1912.06218V1 [CS.CV]》 *
PAI PENG ET.AL: "Adaptive Multi-Modal Fusion Instance Segmentation for CAEVs in Complex Conditions: Dataset, Framework and Verifications", 《RESEARCH SQUARE》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950640A (zh) * 2021-02-23 2021-06-11 Oppo广东移动通信有限公司 视频人像分割方法、装置、电子设备及存储介质
CN113537000A (zh) * 2021-07-01 2021-10-22 大连民族大学 单目视觉实例分割深度链式特征提取网络、方法和系统
CN113569803A (zh) * 2021-08-12 2021-10-29 中国矿业大学(北京) 一种基于多尺度卷积的多模态数据融合车道目标检测的方法及系统
CN115393854A (zh) * 2022-10-27 2022-11-25 粤港澳大湾区数字经济研究院(福田) 一种视觉对齐处理方法、终端及存储介质
CN115393854B (zh) * 2022-10-27 2023-02-21 粤港澳大湾区数字经济研究院(福田) 一种视觉对齐处理方法、终端及存储介质
CN117115359A (zh) * 2023-10-17 2023-11-24 国网江西省电力有限公司信息通信分公司 一种基于深度图融合的多视图电网三维空间数据重建方法
CN117115359B (zh) * 2023-10-17 2024-02-02 国网江西省电力有限公司信息通信分公司 一种基于深度图融合的多视图电网三维空间数据重建方法

Also Published As

Publication number Publication date
CN111967373B (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN111967373B (zh) 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN111201451B (zh) 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置
CN109635685B (zh) 目标对象3d检测方法、装置、介质及设备
CN108802785B (zh) 基于高精度矢量地图和单目视觉传感器的车辆自定位方法
CN113111887B (zh) 一种基于相机和激光雷达信息融合的语义分割方法及系统
CN107862293A (zh) 基于对抗生成网络的雷达生成彩色语义图像系统及方法
CN111046781B (zh) 一种基于三元注意力机制的鲁棒三维目标检测方法
WO2021082745A1 (zh) 信息补全方法、车道线识别方法、智能行驶方法及相关产品
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
CN113095154A (zh) 基于毫米波雷达与单目相机的三维目标检测系统及方法
CN113269040A (zh) 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN113935428A (zh) 基于图像识别的三维点云聚类识别方法及系统
CN117237919A (zh) 跨模态监督学习下多传感器融合检测的卡车智驾感知方法
CN117274749B (zh) 一种基于4d毫米波雷达和图像的融合3d目标检测方法
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
CN116503803A (zh) 障碍物检测方法、装置、电子设备以及存储介质
CN115187941A (zh) 目标检测定位方法、系统、设备及存储介质
CN115830265A (zh) 一种基于激光雷达的自动驾驶运动障碍物分割方法
CN117808689A (zh) 基于毫米波雷达与摄像头融合的深度补全方法
CN112529011A (zh) 目标检测方法及相关装置
CN116797894A (zh) 一种增强特征信息的雷达与视频融合目标检测方法
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
CN116129234A (zh) 一种基于注意力的4d毫米波雷达与视觉的融合方法
CN116403191A (zh) 一种基于单目视觉的三维车辆跟踪方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant