CN117173693A - 3d目标检测方法、电子设备、介质以及驾驶设备 - Google Patents

3d目标检测方法、电子设备、介质以及驾驶设备 Download PDF

Info

Publication number
CN117173693A
CN117173693A CN202311447801.8A CN202311447801A CN117173693A CN 117173693 A CN117173693 A CN 117173693A CN 202311447801 A CN202311447801 A CN 202311447801A CN 117173693 A CN117173693 A CN 117173693A
Authority
CN
China
Prior art keywords
point cloud
top view
features
image
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311447801.8A
Other languages
English (en)
Other versions
CN117173693B (zh
Inventor
任广辉
秦海波
姚卯青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Weilai Zhijia Technology Co Ltd
Original Assignee
Anhui Weilai Zhijia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Weilai Zhijia Technology Co Ltd filed Critical Anhui Weilai Zhijia Technology Co Ltd
Priority to CN202311447801.8A priority Critical patent/CN117173693B/zh
Publication of CN117173693A publication Critical patent/CN117173693A/zh
Application granted granted Critical
Publication of CN117173693B publication Critical patent/CN117173693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及自动驾驶领域,具体提供一种3D目标检测方法、电子设备、介质以及驾驶设备,旨在解决现有的目标检测方法无法进行精准的3D目标检测,容易产生误检和漏检的问题。所述方法包括:获取待检测目标的点云数据和图像数据;将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征;基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征;基于所述时空融合特征进行3D目标检测。先基于点云和图像数据进行空间融合;再基于多帧不同时刻的空间融合特征获得时空融合特征,最终输出3D目标检测结果,以精确获得待检测目标的位置和尺寸以及类别信息,避免漏检或误检。

Description

3D目标检测方法、电子设备、介质以及驾驶设备
技术领域
本申请涉及自动驾驶领域,具体提供一种3D目标检测方法、电子设备、介质以及驾驶设备。
背景技术
目前3D目标检测在自动驾驶越来越受到大家的关注,在实际业务中发挥着越来越重要的作用,精准的3D检测对于下游的规划和控制模块至关重要。
现有技术中的3D目标检测大多是基于单一模态,由于信息不完备总会出现各种的漏检和误检,或难以精确获得待检测目标的位置和尺寸。当基于点云进行3D目标检测时,由于点云数据是激光投射到物体表面反射得到,只有位置、形状信息而缺少纹理信息,当一些噪音点云形状类似于车辆、行人时就会造成误检,比如交通牌形成的点云就和车辆尾部类似;基于图像进行3D目标检测时,由于图像数据是2D的,只有丰富的纹理信息而没有物体的3D位置信息,因此无法精准地估计物体的3D位置和尺寸。
现有技术中,采用多模态数据进行目标检测,也只是简单地将多个模态比如点云和图像进行融合训练,仍然难以获得满意的效果,无法进行精准的3D目标检测,容易产生误检和漏检。
相应地,本领域需要一种新的3D目标检测方案来解决上述问题。
发明内容
为了克服上述缺陷,提出了本申请,提供一种3D目标检测方法、电子设备、介质以及驾驶设备,以解决或至少部分地解决现有的目标检测方法无法进行精准的3D目标检测,容易产生误检和漏检的问题的技术问题。
在第一方面,本申请提供一种3D目标检测方法,包括:
获取待检测目标的点云数据和图像数据;
将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征;
基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征;
基于所述时空融合特征进行3D目标检测。
在上述3D目标检测方法的一个技术方案中,所述将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征包括:
对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
在上述3D目标检测方法的一个技术方案中,所述点云俯视图特征和图像俯视图特征均为多尺度特征;对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征包括:
基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征;
和/或,基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征包括:
基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
在上述3D目标检测方法的一个技术方案中,所述基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征,包括:
S1、基于所述点云数据进行初始下采样倍数的下采样,得到第一尺度的点云俯视图特征;
S2、基于所述第一尺度的点云俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的点云俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的点云俯视图特征替换步骤S2中的所述第一尺度的点云俯视图特征,并循环执行步骤S2,直到得到预设尺度的点云俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的点云俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的点云俯视图特征的尺度。
在上述3D目标检测方法的一个技术方案中,所述基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征,包括:
S1、基于所述图像数据进行初始下采样倍数的下采样,得到第一尺度的图像俯视图特征;
S2、基于所述第一尺度的图像俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的图像俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的图像俯视图特征替换步骤S2中的所述第一尺度的图像俯视图特征,并循环执行步骤S2,直到得到预设尺度的图像俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的图像俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的图像俯视图特征的尺度。
在上述3D目标检测方法的一个技术方案中,基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征前,还包括:
通过对所述点云俯视图特征和/或图像俯视图特征中的一个或多个进行上采样或下采样,以统一全部点云俯视图特征和图像俯视图特征的尺度。
在上述3D目标检测方法的一个技术方案中,对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征前,所述方法还包括:
分别对所述点云数据和图像数据进行空间对齐增强预处理。
在上述3D目标检测方法的一个技术方案中,所述分别对所述点云数据和图像数据进行空间对齐增强预处理,包括:
对所述点云数据进行随机采样;对随机采样的点云数据的外参在第一预设幅度内进行随机扰动,所述点云数据的外参包括旋转角度和/或位移;
和/或,对所述图像数据进行随机采样;对随机采样的图像数据的内、外参分别在第二预设幅度、第三预设幅度内进行随机扰动,所述图像数据的内参包括主点和/或焦距,外参包括旋转角度和/或位移。
在上述3D目标检测方法的一个技术方案中,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征,还包括:
基于各空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换,以使其与当前时刻对齐;
基于对齐后的空间融合特征进行时序融合,获得时空融合特征。
在上述3D目标检测方法的一个技术方案中,所述基于空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换之前,还包括:
对所述自车位移进行随机采样;对随机采样的自车位移的参数在第四预设幅度内进行随机扰动,所述自车位移的参数包括旋转角度和/或位移。
在上述3D目标检测方法的一个技术方案中,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征之前,所述方法还包括:
对不同时刻的所述空间融合特征进行时序对齐增强预处理。
在上述3D目标检测方法的一个技术方案中,所述对不同时刻的所述空间融合特征进行时序对齐增强预处理,包括:
对当前时刻之前的空间融合特征进行随机采样;
将随机采样的空间融合特征替换为预设时间范围内的空间融合特征,以进行时序扰动。
在第二方面,本申请提供一种电子设备,包括处理器和存储器,所述存储器适于存储多条程序代码,所述程序代码适于由所述处理器加载并运行以执行上述3D目标检测方法的技术方案中任一项技术方案所述的3D目标检测方法。
在第三方面,本申请提供一种计算机可读存储介质,其中存储有多条程序代码,所述程序代码适于由处理器加载并运行以执行上述3D目标检测方法的技术方案中任一项技术方案所述的3D目标检测方法。
在第四方面,本申请提供一种驾驶设备,所述驾驶设备包括驾驶设备本体以及上述的电子设备。
本申请上述一个或多个技术方案,至少具有如下一种或多种有益效果:
在实施本申请的技术方案中,基于待检测目标的点云数据和图像数据提取多个点云特征以及多个图像特征,分阶段进行空间、时序的特征拼接,先基于点云特征和图像特征进行特征拼接,获得空间融合特征;再基于多个时刻的空间融合特征进行特征拼接,获得时空融合特征,最终输出3D目标检测结果,以精确获得待检测目标的位置和尺寸以及类别信息,避免漏检或误检。
进一步地,本申请通过在空间上,融合各个分辨率的点云和图像特征俯视图特征,并引入空间对齐增强,适应空间噪声,实现了点云和图像多模态信息融合;在时序上融合多帧的点云和图像特征,并引入时序对齐增强,适应时序噪声;既能充分利用点云数据的位置信息又能充分利用图像数据的纹理信息,实现精准的3D目标检测。
附图说明
参照附图,本申请的公开内容将变得更易理解。本领域技术人员容易理解的是:这些附图仅仅用于说明的目的,而并非意在对本申请的保护范围组成限制。此外,图中类似的数字用以表示类似的部件,其中:
图1是本申请的一个实施例的3D目标检测方法的主要步骤流程图;
图2是本申请的3D目标检测方法对应于步骤S12的详细步骤流程图;
图3是本申请的3D目标检测方法对应于步骤S13-步骤S14的详细步骤流程图;
图4是用于执行本申请的3D目标检测方法的电子设备的主要结构框图。
具体实施方式
下面参照附图来描述本申请的一些实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本申请的技术原理,并非旨在限制本申请的保护范围。
在本申请的描述中,“模块”、“处理器”可以包括硬件、软件或者两者的组合。一个模块可以包括硬件电路,各种合适的感应器,通信端口,存储器,也可以包括软件部分,比如程序代码,也可以是软件和硬件的组合。处理器可以是中央处理器、微处理器、图像处理器、数字信号处理器或者其他任何合适的处理器。处理器具有数据和/或信号处理功能。处理器可以以软件方式实现、硬件方式实现或者二者结合方式实现。非暂时性的计算机可读存储介质包括任何合适的可存储程序代码的介质,比如磁碟、硬盘、光碟、闪存、只读存储器、随机存取存储器等等。术语“A和/或B”表示所有可能的A与B的组合,比如只是A、只是B或者A和B。术语“至少一个A或B”或者“A和B中的至少一个”含义与“A和/或B”类似,可以包括只是A、只是B或者A和B。单数形式的术语“一个”、“这个”也可以包含复数形式。
本申请提供一种3D目标检测方法。
请参阅附图1,图1是本申请的一个实施例的3D目标检测方法的主要步骤流程图。
如图1所示,本申请实施例中的3D目标检测方法主要包括下列步骤S11-步骤S14。
步骤S11,获取待检测目标的点云数据和图像数据。
在一个实施例中,所述点云数据可以基于激光雷达获取,所述图像数据可以图像传感器获取,如相机、摄像头等。
步骤S12,将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征。
进一步地,所述将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征包括:
对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
具体地,所述点云俯视图特征和图像俯视图特征均为多尺度特征;对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图(BEV)特征和图像俯视图(BEV)特征包括:
基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征;
和/或,基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征包括:
基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
在一个实施方式中,请参阅附图2,图2是本申请的3D目标检测方法对应于步骤S12的详细步骤流程图。
具体地,在一个实施例中,请参图2中阅步骤S201及步骤S203。对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征前,所述方法还包括:
分别对所述点云数据和图像数据进行空间对齐增强预处理。
在一个实施例中,所述分别对所述点云数据和图像数据进行空间对齐增强预处理,包括:
对所述点云数据进行随机采样;对随机采样的点云数据的外参在第一预设幅度(±N1%)内进行随机扰动,所述点云数据的外参包括旋转角度和/或位移;
和/或,对所述图像数据进行随机采样;对随机采样的图像数据的内、外参分别在第二预设幅度(±N2%)、第三预设幅度(±N3%)内进行随机扰动,所述图像数据的内参包括主点和/或焦距,外参包括旋转角度和/或位移。
其中,本领域技术人员可以根据实际情况设置N1、N2、N3的具体值。
通过对点云数据和图像数据进行空间对齐增强预处理,能够在一定范围内改变点云数据和图像数据的相对位置和方向,有助于增加模型的鲁棒性。
进一步地,继续基于完成空间对齐增强预处理后的点云数据和图像数据,进行特征提取,获取点云俯视图特征以及图像俯视图特征。
在一个实施方式中,请参阅步骤S202,所述基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征,包括:
S1、基于所述点云数据进行初始下采样倍数的下采样,得到第一尺度的点云俯视图特征;
S2、基于所述第一尺度的点云俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的点云俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的点云俯视图特征替换步骤S2中的所述第一尺度的点云俯视图特征,并循环执行步骤S2,直到得到预设尺度的点云俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的点云俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的点云俯视图特征的尺度。
请参阅图2所示的实施例,所述点云数据的初始下采样倍数为4,得到的第一尺度的点云俯视图特征为4倍下采样的点云俯视图特征(点云BEV S4);基于所述点云BEV S4,进行2倍下采样,即第二下采样倍数为2,获得的第二尺度的点云俯视图特征为8倍下采样的点云俯视图特征(点云BEV S8);循环执行步骤S3,直到得到预设尺度的点云俯视图特征(点云BEV Sn),点云数据的特征提取结束。
在这里,Sn代表步长,采样的步长越大,特征的尺度越小。因此逐步下采样的过程,即逐步缩小特征尺度的过程。
其中,进行每次下采样时,可以采取不同的下采样倍数。在一个实施例中,也可以仅获取两个尺度的点云俯视图特征,如点云BEV S4和点云BEV S8。
在另一个实施方式中,请参阅步骤S202,所述基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征,包括:
S1、基于所述图像数据进行初始下采样倍数的下采样,得到第一尺度的图像俯视图特征;具体地,先于2D卷积对所述图像数据进行特征提取得到图像特征,再基于前视到俯视转换网络将提取的所述图像特征转换为所述第一尺度的图像俯视图特征。
S2、基于所述第一尺度的图像俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的图像俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的图像俯视图特征替换步骤S2中的所述第一尺度的图像俯视图特征,并循环执行步骤S2,直到得到预设尺度的图像俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的图像俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的图像俯视图特征的尺度。
请参阅图2所示的实施例,所述图像数据的初始下采样倍数为4,得到的第一尺度的图像俯视图特征为4倍下采样的图像俯视图特征(图像BEV S4);基于所述图像BEV S4,进行2倍下采样,即第二下采样倍数为2,获得的第二尺度的图像俯视图特征为8倍下采样的图像俯视图特征(图像BEV S8);循环执行步骤S3,直到得到预设尺度的图像俯视图特征(图像BEV Sn),图像数据的特征提取结束。
其中,进行每次下采样时,可以采取不同的下采样倍数。在一个实施例中,也可以仅获取两个尺度的图像俯视图特征,如图像BEV S4和图像BEV S8。
其中,所述点云俯视图特征的下采样倍数与图像俯视图特征的下采样倍数可以不一一对应。
在本实施例中,上述步骤S202和步骤S204同时执行,在本申请的其他实施例中,上述步骤S202和步骤S204也可以先后执行,或择一执行。
在一个实施例中,若上述步骤S202和步骤S204择一执行,可以获取多个尺度的点云俯视图特征以及单一尺度的图像俯视图特征,或获取多个尺度的图像俯视图特征以及单一尺度的点云俯视图特征。
在卷积神经网络中,下采样通常用于减小特征图的尺寸以及提取更高级别的特征;而上采样则用于恢复特征图的分辨率,增加特征图的尺寸和细节。使用上采样和下采样操作,有助于网络在不同层次上捕获不同尺度的信息。
在一个实施例中,请参阅图2中步骤S205-步骤S206,基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征前,还包括:
通过对所述点云俯视图特征和/或图像俯视图特征中的一个或多个进行上采样或下采样,以统一全部点云俯视图特征和图像俯视图特征的尺度。
具体地,根据俯视图特征的尺度不同,执行不同倍数的上采样或下采样操作。请参阅附图2,以将特征尺度统一为4倍下采样为例,可以对点云BEV S8进行2倍上采样,对点云BEV Sn进行n/4倍上采样;对图像BEV S8进行2倍上采样,对图像BEV Sn进行n/4倍上采样。得到统一尺度后的点云特征和图像特征,以便进行特征拼接。
在其他实施例中,也可以选取在其他的俯视图特征尺度下进行特征拼接。
在本实施例中,通过特征拼接进行空间融合,将点云俯视图特征和图像俯视图特征,在特征的通道维度上进行连接,以获得更全面的空间信息。可以将这两种数据源的特征融合在一起,生成一个更全面的空间融合特征,空间融合特征能够综合利用点云和图像的信息,从而在空间上更准确地描述场景中的目标物体,以用于后续的分析、处理或任务。
步骤S13,基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征。
在一个实施方式中,请参阅附图3,图3是本申请的3D目标检测方法对应于步骤S13-步骤S14的详细步骤流程图。
具体地,在一个实施例中,请参阅图3中步骤S131。
以当前时刻T为例,获取多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,可以获取T时刻,以及T时刻前预设时间范围内的多个时刻的空间融合特征,如:T时刻、T-a时刻、T-b时刻……T-m时刻。
在一个实施例中,也可以仅获取T时刻、T-1时刻的两个空间融合特征。
在一个实施方式中,请参阅图3中步骤S301,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征之前,所述方法还包括:
对不同时刻的所述空间融合特征进行时序对齐增强预处理。
具体地,所述对不同时刻的所述空间融合特征进行时序对齐增强预处理,包括:
对当前时刻之前的空间融合特征进行随机采样;
将随机采样的空间融合特征替换为预设时间范围内的空间融合特征,以进行时序扰动。
示例性地,若获取T时刻、T-1时刻的两个空间融合特征,可将T-1时刻的空间融合特征替换为预设时间范围内的空间融合特征,即完成了所述时序对齐增强预处理,并进一步采用T时刻的空间融合特征以及替换后的空间融合特征进行后续的时序融合。
通过对空间融合特征进行时序对齐增强预处理,能够引入时间上的变化,以增加模型对动态场景的感知能力,有助于增加模型的鲁棒性。
在一个实施方式中,请参阅图3中步骤S302-步骤S303,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征,还包括:
基于各空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换,以使其与当前时刻对齐;
基于对齐后的空间融合特征进行时序融合,获得时空融合特征。
具体地,请参阅图3中步骤S304,所述基于空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换之前,还包括:
对所述自车位移进行随机采样;对随机采样的自车位移的参数在第四预设幅度(±N4%)内进行随机扰动,所述自车位移的参数包括旋转角度和/或位移。
其中,本领域技术人员可以根据实际情况设置N4的具体值。
通过对所述自车位移的参数进行扰动,可以提高通过自车位移进行特征对齐的容错率;通过自车位移进行特征对齐,可以保证在车辆行进的过程中,排除车辆行驶的影响,准确获取待检测目标的特征。避免出现因车辆行驶而对检测目标大小、方向的等产生误判的情况。
完成自车位移对齐后,即可对不同时刻的空间融合特征进行时序融合,获得时空融合特征。
其中,所述时序融合即将自不同时刻的空间融合特征在特征的通道维度上进行特征拼接,从而构建出一个具有时序信息的特征表示,建立时序上的联系和变化。可以综合考虑数据随时间的演变,从而更好地捕捉动态场景中的变化和运动,使得模型能够更好地理解和预测动态环境中的变化。
先经过空间融合,再经过时序融合,获得的时空融合特征可以更全面地描述环境,使系统对场景中的目标物体进行更准确的感知和理解。
步骤S14,基于所述时空融合特征进行3D目标检测。
具体地,在一个实施例中,将时空融合特征送入预测头网络,这个网络通常由多层卷积层组成。所述预测头网络将对点云数据和图像数据进行进一步的处理,最终得到3D目标预测的结果,包括目标的位置、尺寸、类别等信息。
示例性地,输出的目标位置可以以三维坐标的形式表示,如(x, y, z);目标尺寸通常需指出目标在三维空间中的长度、宽度和高度;目标类别用于表示检测目标所属的类别,例如车辆、行人、树木等。
3D目标检测的结果可以帮助自动驾驶系统理解环境中的物体,并做出相应的决策和规划,以确保车辆安全地行驶并与周围环境进行合理互动。
基于上述步骤S11-步骤S14,基于待检测目标的点云数据和图像数据提取多个点云特征以及多个图像特征,分阶段进行空间、时序的特征拼接,先基于点云特征和图像特征进行特征拼接,获得空间融合特征;再基于多个时刻的空间融合特征进行特征拼接,获得时空融合特征,最终输出3D目标检测结果,以精确获得待检测目标的位置和尺寸以及类别信息,避免漏检或误检。
进一步地,本申请通过在空间上,融合各个分辨率的点云和图像特征俯视图特征,并引入空间对齐增强,适应空间噪声,实现了点云和图像多模态信息融合;在时序上融合多帧的点云和图像特征,并引入时序对齐增强,适应时序噪声;既能充分利用点云数据的位置信息又能充分利用图像数据的纹理信息,实现精准的3D目标检测。
需要指出的是,尽管上述实施例中将各个步骤按照特定的先后顺序进行了描述,但是本领域技术人员可以理解,为了实现本申请的效果,不同的步骤之间并非必须按照这样的顺序执行,其可以同时(并行)执行或以其他顺序执行,这些变化都在本申请的保护范围之内。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
进一步地,本申请还提供了一种电子设备。请参阅附图4,图4是用于执行本申请的3D目标检测方法的电子设备的主要结构框图。
如图4所示,在根据本申请的一个电子设备实施例中,电子设备400包括处理器401和存储器402,存储器402可以被配置成存储执行上述方法实施例的3D目标检测方法的程序代码403,处理器401可以被配置成用于执行存储器402中的程序代码403,该程序代码403包括但不限于执行上述方法实施例的3D目标检测方法的程序代码403。为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。
示例性地,处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是电子设备400的内部存储单元,例如,是电子设备400的硬盘或内存;存储器402也可以是电子设备400的外部存储设备,例如,在电子设备400上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器402还可以既包括电子设备400的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备400所需的其它程序和数据,存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
在一些可能的实施方式中,电子设备400可以包括多个处理器401和存储器402。而执行上述方法实施例的3D目标检测方法的程序代码403可以被分割成多段子程序,每段子程序分别可以由处理器401加载并运行以执行上述方法实施例的3D目标检测方法的不同步骤。具体地,每段子程序可以分别存储在不同的存储器402中,每个处理器401可以被配置成用于执行一个或多个存储器402中的程序,以共同实现上述方法实施例的3D目标检测方法,即每个处理器401分别执行上述方法实施例的3D目标检测方法的不同步骤,来共同实现上述方法实施例的3D目标检测方法。
上述多个处理器401可以是部署于同一个设备上的处理器,例如上述电子设备可以是由多个处理器组成的高性能设备,上述多个处理器401可以是该高性能设备上配置的处理器。此外,上述多个处理器401也可以是部署于不同设备上的处理器,例如上述电子设备可以是服务器集群,上述多个处理器401可以是服务器集群中不同服务器上的处理器。
电子设备400可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备400可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备400的示例,并不构成对电子设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
进一步地,本申请还提供了一种计算机可读存储介质。在根据本申请的一个计算机可读存储介质实施例中,计算机可读存储介质可以被配置成存储执行上述方法实施例的3D目标检测方法的程序,该程序可以由处理器加载并运行以实现上述3D目标检测方法。为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该计算机可读存储介质可以是包括各种电子设备形成的存储装置设备,可选的,本申请实施例中计算机可读存储介质是非暂时性的计算机可读存储介质。
进一步地,本申请还提供了一种驾驶设备,所述驾驶设备包括驾驶设备本体以及上述的电子设备。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域技术人员可以意识到,结合本申请中实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本申请各实施例中可能涉及的相关用户个人信息,均为严格按照法律法规的要求,遵循合法、正当、必要的原则,基于业务场景的合理目的,处理用户在使用产品/服务过程中主动提供或因使用产品/服务而产生的,以及经用户授权获取的个人信息。
本申请处理的用户个人信息会因具体产品/服务场景而有所不同,需以用户使用产品/服务的具体场景为准,可能会涉及用户的账号信息、设备信息、驾驶信息、车辆信息或其他相关信息。本申请会以高度的勤勉义务对待用户的个人信息及其处理。
本申请非常重视用户个人信息的安全,已采取符合业界标准、合理可行的安全防护措施保护用户的信息,防止个人信息遭到未经授权访问、公开披露、使用、修改、损坏或丢失。
至此,已经结合附图所示的优选实施方式描述了本申请的技术方案,但是,本领域技术人员容易理解的是,本申请的保护范围显然不局限于这些具体实施方式。在不偏离本申请的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本申请的保护范围之内。

Claims (15)

1.一种3D目标检测方法,其特征在于,包括:
获取待检测目标的点云数据和图像数据;
将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征;
基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征;
基于所述时空融合特征进行3D目标检测。
2.根据权利要求1所述的方法,其特征在于,所述将所述点云数据和图像数据进行空间融合,获得点云数据和图像数据的空间融合特征包括:
对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
3.根据权利要求2所述的方法,其特征在于,所述点云俯视图特征和图像俯视图特征均为多尺度特征;对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征包括:
基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征;
和/或,基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征;
基于所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征包括:
基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征。
4.根据权利要求3所述的方法,其特征在于,所述基于3D卷积对所述点云数据进行特征提取,得到多个尺度的点云俯视图特征,包括:
S1、基于所述点云数据进行初始下采样倍数的下采样,得到第一尺度的点云俯视图特征;
S2、基于所述第一尺度的点云俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的点云俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的点云俯视图特征替换步骤S2中的所述第一尺度的点云俯视图特征,并循环执行步骤S2,直到得到预设尺度的点云俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的点云俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的点云俯视图特征的尺度。
5.根据权利要求3所述的方法,其特征在于,所述基于2D卷积对所述图像数据进行特征提取,得到图像特征,并基于前视到俯视转换网络将提取的所述图像特征转换为多个尺度的图像俯视图特征,包括:
S1、基于所述图像数据进行初始下采样倍数的下采样,得到第一尺度的图像俯视图特征;
S2、基于所述第一尺度的图像俯视图特征,进行第二下采样倍数的下采样,获得第二尺度的图像俯视图特征,所述第二尺度小于所述第一尺度;
S3、以当前所述第二尺度的图像俯视图特征替换步骤S2中的所述第一尺度的图像俯视图特征,并循环执行步骤S2,直到得到预设尺度的图像俯视图特征;其中每一次“进行第二下采样倍数的下采样”后获得的图像俯视图特征的尺度均小于上一次“进行进一步下采样”后获得的图像俯视图特征的尺度。
6.根据权利要求3至5中任一项所述的方法,其特征在于,基于多尺度所述点云俯视图特征和图像俯视图特征进行特征拼接,得到所述空间融合特征前,还包括:
通过对所述点云俯视图特征和/或图像俯视图特征中的一个或多个进行上采样或下采样,以统一全部点云俯视图特征和图像俯视图特征的尺度。
7.根据权利要求2所述的方法,其特征在于,对所述点云数据和所述图像数据分别进行特征提取,获取点云俯视图特征和图像俯视图特征前,所述方法还包括:
分别对所述点云数据和图像数据进行空间对齐增强预处理。
8.根据权利要求7所述的方法,其特征在于,所述分别对所述点云数据和图像数据进行空间对齐增强预处理,包括:
对所述点云数据进行随机采样;对随机采样的点云数据的外参在第一预设幅度内进行随机扰动,所述点云数据的外参包括旋转角度和/或位移;
和/或,对所述图像数据进行随机采样;对随机采样的图像数据的内、外参分别在第二预设幅度、第三预设幅度内进行随机扰动,所述图像数据的内参包括主点和/或焦距,外参包括旋转角度和/或位移。
9.根据权利要求1所述的方法,其特征在于,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征,还包括:
基于各空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换,以使其与当前时刻对齐;
基于对齐后的空间融合特征进行时序融合,获得时空融合特征。
10.根据权利要求9所述的方法,其特征在于,所述基于空间融合特征对应时刻的自车位移,对不同时刻的空间融合特征进行变换之前,还包括:
对所述自车位移进行随机采样;对随机采样的自车位移的参数在第四预设幅度内进行随机扰动,所述自车位移的参数包括旋转角度和/或位移。
11.根据权利要求9至10中任一项所述的方法,其特征在于,所述基于多帧不同时刻点云数据和图像数据空间融合后得到的空间融合特征,获得点云数据和图像数据的时空融合特征之前,所述方法还包括:
对不同时刻的所述空间融合特征进行时序对齐增强预处理。
12.根据权利要求11所述的方法,其特征在于,所述对不同时刻的所述空间融合特征进行时序对齐增强预处理,包括:
对当前时刻之前的空间融合特征进行随机采样;
将随机采样的空间融合特征替换为预设时间范围内的空间融合特征,以进行时序扰动。
13.一种电子设备,包括处理器和存储器,所述存储器适于存储多条程序代码,其特征在于,所述程序代码适于由所述处理器加载并运行以执行权利要求1至12中任一项所述的3D目标检测方法。
14.一种计算机可读存储介质,其中存储有多条程序代码,其特征在于,所述程序代码适于由处理器加载并运行以执行权利要求1至12中任一项所述的3D目标检测方法。
15.一种驾驶设备,其特征在于,所述驾驶设备包括驾驶设备本体以及权利要求13所述的电子设备。
CN202311447801.8A 2023-11-02 2023-11-02 3d目标检测方法、电子设备、介质以及驾驶设备 Active CN117173693B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311447801.8A CN117173693B (zh) 2023-11-02 2023-11-02 3d目标检测方法、电子设备、介质以及驾驶设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311447801.8A CN117173693B (zh) 2023-11-02 2023-11-02 3d目标检测方法、电子设备、介质以及驾驶设备

Publications (2)

Publication Number Publication Date
CN117173693A true CN117173693A (zh) 2023-12-05
CN117173693B CN117173693B (zh) 2024-02-27

Family

ID=88930198

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311447801.8A Active CN117173693B (zh) 2023-11-02 2023-11-02 3d目标检测方法、电子设备、介质以及驾驶设备

Country Status (1)

Country Link
CN (1) CN117173693B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092780A (zh) * 2021-11-12 2022-02-25 天津大学 基于点云与图像数据融合的三维目标检测方法
CN114757301A (zh) * 2022-05-12 2022-07-15 北京地平线机器人技术研发有限公司 车载视觉感知方法和装置、可读存储介质、电子设备
CN115409931A (zh) * 2022-10-31 2022-11-29 苏州立创致恒电子科技有限公司 一种基于图像与点云数据融合的三维重建方法
WO2023274254A1 (zh) * 2021-06-29 2023-01-05 上海高德威智能交通系统有限公司 目标检测方法、装置、系统、电子设备及存储介质
CN116129371A (zh) * 2023-02-09 2023-05-16 浙江大学 一种交通目标检测方法、装置及电子设备
CN116433715A (zh) * 2021-12-30 2023-07-14 魔门塔(苏州)科技有限公司 基于多传感器前融合结果的时序追踪方法、装置及介质
CN116469073A (zh) * 2022-12-16 2023-07-21 北京百度网讯科技有限公司 目标识别方法、装置、电子设备、介质及自动驾驶车辆
CN116612468A (zh) * 2023-04-21 2023-08-18 长安大学 基于多模态融合与深度注意力机制的三维目标检测方法
CN116844129A (zh) * 2023-07-24 2023-10-03 北京化工大学 多模态特征对齐融合的路侧目标检测方法、系统及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023274254A1 (zh) * 2021-06-29 2023-01-05 上海高德威智能交通系统有限公司 目标检测方法、装置、系统、电子设备及存储介质
CN114092780A (zh) * 2021-11-12 2022-02-25 天津大学 基于点云与图像数据融合的三维目标检测方法
CN116433715A (zh) * 2021-12-30 2023-07-14 魔门塔(苏州)科技有限公司 基于多传感器前融合结果的时序追踪方法、装置及介质
CN114757301A (zh) * 2022-05-12 2022-07-15 北京地平线机器人技术研发有限公司 车载视觉感知方法和装置、可读存储介质、电子设备
CN115409931A (zh) * 2022-10-31 2022-11-29 苏州立创致恒电子科技有限公司 一种基于图像与点云数据融合的三维重建方法
CN116469073A (zh) * 2022-12-16 2023-07-21 北京百度网讯科技有限公司 目标识别方法、装置、电子设备、介质及自动驾驶车辆
CN116129371A (zh) * 2023-02-09 2023-05-16 浙江大学 一种交通目标检测方法、装置及电子设备
CN116612468A (zh) * 2023-04-21 2023-08-18 长安大学 基于多模态融合与深度注意力机制的三维目标检测方法
CN116844129A (zh) * 2023-07-24 2023-10-03 北京化工大学 多模态特征对齐融合的路侧目标检测方法、系统及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
周全;张荣;尹东;: "基于高斯金字塔的遥感云图多尺度特征提取", 遥感技术与应用, no. 05, 15 October 2010 (2010-10-15), pages 298 - 301 *
孙佩军;张锦水;潘耀忠;谢登峰;袁周米琪;: "构建时空融合模型进行水稻遥感识别", 遥感学报, no. 02, 25 March 2016 (2016-03-25), pages 176 - 191 *

Also Published As

Publication number Publication date
CN117173693B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
US10885398B2 (en) Joint 3D object detection and orientation estimation via multimodal fusion
US11379699B2 (en) Object detection method and apparatus for object detection
CN111709343B (zh) 一种点云检测方法、装置、计算机设备和存储介质
US10373024B2 (en) Image processing device, object detection device, image processing method
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
JP2019096072A (ja) 物体検出装置、物体検出方法およびプログラム
CN110060230B (zh) 三维场景分析方法、装置、介质及设备
CN112258519B (zh) 一种高精度地图制作中道路的让行线自动化提取方法及装置
CN116758518B (zh) 环境感知方法、计算机设备、计算机可读存储介质及车辆
WO2022206414A1 (zh) 三维目标检测方法及装置
CN112287875A (zh) 异常车牌识别方法、装置、设备及可读存储介质
CN112116655A (zh) 目标对象的图像的位置信息确定方法和装置
CN112434566A (zh) 客流统计方法、装置、电子设备及存储介质
WO2022104296A1 (en) Camera radar fusion for advanced driver assistance system (adas) with radar and mobile phone
US10991155B2 (en) Landmark location reconstruction in autonomous machine applications
CN114240816A (zh) 道路环境感知方法、装置、存储介质、电子设备及车辆
CN114298908A (zh) 一种障碍物展示方法、装置、电子设备及存储介质
CN117173693B (zh) 3d目标检测方法、电子设备、介质以及驾驶设备
CN115565155A (zh) 神经网络模型的训练方法、车辆视图的生成方法和车辆
CN112946603B (zh) 一种基于激光雷达的道路养护检测系统及其检测方法
CN114972945A (zh) 多机位信息融合的车辆识别方法、系统、设备及存储介质
CN118043864A (zh) 障碍物识别方法、装置、存储介质及电子设备
CN113408325A (zh) 车辆周围环境的识别方法、装置及相关设备
CN112184605A (zh) 一种车辆驾驶视野增强方法、设备及系统
CN117173257B (zh) 3d目标检测及其标定参数增强方法、电子设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant