CN110751040B - 一种三维物体的检测方法和装置、电子设备、存储介质 - Google Patents

一种三维物体的检测方法和装置、电子设备、存储介质 Download PDF

Info

Publication number
CN110751040B
CN110751040B CN201910881408.7A CN201910881408A CN110751040B CN 110751040 B CN110751040 B CN 110751040B CN 201910881408 A CN201910881408 A CN 201910881408A CN 110751040 B CN110751040 B CN 110751040B
Authority
CN
China
Prior art keywords
feature map
dense
features
feature
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910881408.7A
Other languages
English (en)
Other versions
CN110751040A (zh
Inventor
徐国栋
王闻箫
刘子立
谢亮
杨政
刘海风
蔡登�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Fabu Technology Co Ltd
Original Assignee
Hangzhou Fabu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Fabu Technology Co Ltd filed Critical Hangzhou Fabu Technology Co Ltd
Priority to CN201910881408.7A priority Critical patent/CN110751040B/zh
Publication of CN110751040A publication Critical patent/CN110751040A/zh
Application granted granted Critical
Publication of CN110751040B publication Critical patent/CN110751040B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本公开提供一种三维物体的检测方法和装置、电子设备、存储介质。该方法包括:接收激光雷达发送的待检测点云数据,根据预设的张量模型和神经网络模型对待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图,根据预设的密集特征指示器捕捉特征图对应的密集特征,并根据密集特征生成目标特征图,根据目标特征图确定待测点云数据对应的三维物体的信息,根据三维物体的信息对自动驾驶设备的移动状态进行控制,通过根据密集特征指示器对密集特征进行捕捉,可提高特征提取的准确性,可实现查缺补漏,从而确保自动驾驶设备安全且可靠的行驶的技术效果。

Description

一种三维物体的检测方法和装置、电子设备、存储介质
技术领域
本公开涉及识别检测技术领域,具体涉及三维物体识别技术领域,尤其涉及一种三维物体的检测方法和装置、电子设备、存储介质。
背景技术
随着传感器如激光雷达等的快速发展和自动驾驶和机器人领域的应用需求,基于点云的三维物体检测变得越来越流行。现在学术界已经提出了许多检测方法,并且这些方法可以分为三类:基于点的,基于点与张量的和基于张量的。
在现有技术中,基于点的方法[PointRCNN]通过直接使用原始点云数据进行三维物体检测,以避免丢失几何细节;基于点张量的方法[STD][Fast Point]将基于张量的方法的速度优势集成到基于点的方法中。具体地,首先将点云数据转换为张量,例如三维体素网格或鸟瞰图,然后使用成熟的二维物体检测器来检测三维物体。
然而发明人在实现本公开的过程中,发现至少存在如下问题:由于二维物体检测器采用始终均匀的方式提取特征,以至于检测结果的精度不高,使得自动驾驶设备的安全性和可靠性偏低。
发明内容
本公开提供一种三维物体的检测方法和装置、电子设备、存储介质,用以解决现有技术中的由于二维物体检测器采用始终均匀的方式提取特征,以至于检测结果的精度不高,使得自动驾驶设备的安全性和可靠性偏低的问题。
一方面,本公开实施例提供一种三维物体的检测方法,所述方法包括:
接收激光雷达发送的待检测点云数据;
根据预设的张量模型和神经网络模型对所述待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图;
根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图;
根据所述目标特征图确定待测点云数据对应的三维物体的信息;
根据所述三维物体的信息对自动驾驶设备的移动状态进行控制。
在一些实施例中,所述根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图,包括:
通过所述密集特征指示器中的密集边界预测模型对所述初始特征图的障碍物边界进行预测;
通过所述密集特征指示器中的可变形模型根据预测得到的障碍物边界对所述密集特征进行捕捉,以便生成所述目标特征图。
在一些实施例中,确定所述密集特征指示器的步骤包括:
接收所述激光雷达发送的点云数据和三维物体标注信息;
确定所述点云数据中的稀疏点云数据对应的张量特征;
根据所述张量特征生成第一特征图;
根据预设网络模型对所述第一特征图进行训练,生成测试特征图,其中,所述预设网络模型用于对所述第一特征图的障碍物边界进行预测,并根据预测结果捕捉所述第一特征图的密集特征;
对所述三维物体标注信息进行格式转换处理,得到真实特征图;
根据所述测试特征图、所述真实特征图和所述网络模型生成所述密集特征指示器。
在一些实施例中,所述根据所述测试特征图、所述真实特征图和所述网络模型生成所述密集特征指示器包括:
计算所述测试特征图和所述真实特征图之间的损失;
根据所述损失对所述初始网络模型的参数进行调整,生成所述密集特征指示器。
另一方面,本公开实施例还提供了一种三维物体的检测装置,所述装置包括:
接收模块,用于接收激光雷达发送的待检测点云数据;
提取模块,用于根据预设的张量模型和神经网络模型对所述待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图;
捕捉模块,用于根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图;
确定模块,所述目标特征图确定待测点云数据对应的三维物体的信息;
控制模块,用于根据所述三维物体的信息对自动驾驶设备的移动状态进行控制。
在一些实施例中,所述捕捉模块具体用于,通过所述密集特征指示器中的密集边界预测模型对所述初始特征图的障碍物边界进行预测;
通过所述密集特征指示器中的可变形模型根据预测得到的障碍物边界对所述密集特征进行捕捉,以便生成所述目标特征图。
在一些实施例中,所述装置还包括:
训练模块,用于接收所述激光雷达发送的点云数据和三维物体标注信息,确定所述点云数据中的稀疏点云数据对应的张量特征,根据所述张量特征生成第一特征图,根据预设网络模型对所述第一特征图进行训练,生成测试特征图,其中,所述预设网络模型用于对所述第一特征图的障碍物边界进行预测,并根据预测结果捕捉所述第一特征图的密集特征,对所述三维物体标注信息进行格式转换处理,得到真实特征图,根据所述测试特征图、所述真实特征图和所述网络模型生成所述密集特征指示器。
在一些实施例中,所述训练模块具体用于,计算所述测试特征图和所述真实特征图之间的损失,根据所述损失对所述初始网络模型的参数进行调整,生成所述密集特征指示器。
另一个方面,本公开实施例还提供了一种电子设备,包括:存储器,处理器;
所述存储器用于存储所述处理器可执行指令的存储器;
其中,当执行所述存储器中的指令时,所述处理器被配置为实现如上任一实施例所述的方法。
另一个方面,本公开实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如上任一实施例所述的方法。
本公开提供的接收激光雷达发送的待检测点云数据,根据预设的张量模型和神经网络模型对待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图,根据预设的密集特征指示器捕捉特征图对应的密集特征,并根据密集特征生成目标特征图,根据目标特征图确定待测点云数据对应的三维物体的信息,根据三维物体的信息对自动驾驶设备的移动状态进行控制,通过根据密集特征指示器对密集特征进行捕捉,可实现将初始特征图划分为不同的区域,并着重对特征分布密集的区域的特征进行捕捉,进而提高特征提取的准确性,进而确保生成的目标特征图的精确性,且可实现查缺补漏,从而实现确定出的三维物体的信息的全面性和可靠性的技术效果,进而确保自动驾驶设备安全且可靠的行驶的技术效果。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1为本公开实施例的三维物体的检测方法的场景示意图;
图2为本公开实施例的三维物体的检测方法的流程示意图;
图3为本公开实施例的根据预设的密集特征指示器捕捉初始特征图对应的密集特征,并根据密集特征生成目标特征图的方法的流程示意图;
图4为本公开实施例的确定密集特征指示器的方法的示意图;
图5为本公开实施例的根据测试特征图、测试特征图和网络模型生成密集特征指示器的方法的示意图;
图6为本公开实施例的三维物体的检测装置的模块示意图;
图7为本公开另一实施例的三维物体的检测装置的模块示意图;
图8为本公开实施例的电子设备的结构示意图;
附图标记:10、自动驾驶车辆,20、限速牌,30、交通指示灯,1、接收模块,2、提取模块,3、捕捉模块,4、确定模块,5、控制模块,6、训练模块。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供的三维物体的检测方法,可以适用于如图1所示的场景。
在如图1所示的应用场景中,自动驾驶设备具体为自动驾驶车辆10,自动驾驶车辆10可对限速牌20和交通指示灯30(其中,限速牌20和交通指示灯30分别为三维物体)进行检测。
其中,自动驾驶车辆10内可设置激光雷达,通过激光雷达对车道以及周边的三维物体的信息进行获取,形成点云数据。
在一些实施例中,执行本公开实施例的三维物体的检测方法的主体可以为自动驾驶车辆10,具体可以为自动驾驶车辆10中的处理器,即本公开实施例的方法被配置于自动驾驶车辆10的处理器中。
在另一些实施例中,执行本公开实施例的三维物体的检测方法的主体可以为服务器(如云端服务器,图中未示出)。如,由激光雷达对点云数据进行获取,并将点云数据存储至自动驾驶车辆10的数据库,自动驾驶车辆10将点云数据发送至服务器,服务器中配置有本公开实施例的三维物体的检测方法,因此,由服务器对三维物体进行检测,并将检测结果反馈给自动驾驶车辆10,以便自动驾驶车辆10根据检测结果执行相应的驾驶方案。
当然,也可以由服务器根据检测结果确定相应的驾驶方案,并将行驶方案发送至自动驾驶车辆10,由自动驾驶车辆10根据驾驶方案行驶。
当然,当激光雷达获取到点云数据后,也可以直接将点云数据发送至服务器,并当服务器确定检测结果后,将检测结果发送至自动驾驶车辆10,以便自动驾驶车辆10根据检测结果执行相应的驾驶方案;或者,服务器根据检测结果确定驾驶方案,并将行驶方案发送至自动驾驶车辆10,由自动驾驶车辆10根据驾驶方案行驶。
需要说明的是,本公开实施例的三维物体的检测方法还可应用于机器人识别等应用场景。
下面以具体地实施例对本公开的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本公开的实施例进行描述。
一个方面,本公开实施例提供了一种适用于上述应用场景的三维物体的检测方法。
请参阅图2,图2为本公开实施例的三维物体的检测方法的流程示意图。
如图2所示,该方法包括:
S101:接收激光雷达发送的待检测点云数据。
S102:根据预设的张量模型和神经网络模型对待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图。
在该步骤中,具体包括:根据张量模型将待测点云数据转换为张量特征,将张量特征输入至神经网络模型,由神经网络模型对张量特征进行特征提取,得到初始特征图。
在一些实施例中,神经网络模型具体可以为卷积神经网络模型。
其中,初始特征图中可包括待测点云数据对应的所有三维物体的位置信息和尺寸信息。
S103:根据预设的密集特征指示器捕捉初始特征图对应的密集特征,并根据密集特征生成目标特征图。
其中,密集特征指示器是指用于捕捉特征图上的密集特征的网络模型,密集特征是指特征图中特征分布量大于预设阈值的区域上的特征。
即,在该步骤中,通过密集特征指示器可确定初始特征图的密集区域,并对该密集区域上的特征(即密集特征)进行捕捉,以便生成目标特征图。
在本公开实施例中,对密集特征指示器的具体结构及相关参数不进行限定,但凡能对密集特征进行捕捉的网络模型等都属于本公开实施例保护的范围。
基于上述背景描述可知,在现有技术中,可通过点的方法对三维物体进行检测,也可通过张量的方法对三维物体进行检测,还可通过点张量的方法对三维物体进行检测。而通过该现有技术方法,使用始终均匀提取特征的方式实现对三维物体的检测。
但是,在本公开实施例中,通过预设密集特征指示器,并通过该密集特征指示器对密集特征进行捕捉,从而实现将初始特征图划分为不同的区域,并着重对特征分布密集的区域的特征进行捕捉,进而提高特征提取的准确性,进而确保生成的目标特征图的精确性,以便实现对三维物体检测的准确性和高可靠性。
S104:根据目标特征图确定待测点云数据对应的三维物体的信息。
S105:根据三维物体的信息对自动驾驶设备的移动状态进行控制。
其中,移动状态包括是轨迹,速度,停止,或启动等,如,自动驾驶设备的移动方向(如直行和转弯等)等。
基于上述示例可知,若三维物体的信息为包括限速牌,则对自动驾驶设备的速度进行控制,具体为降低自动驾驶设备的速度,使其小于或等于限速速度。
本公开实施例提供了一种三维物体的检测方法,该方法包括:接收激光雷达发送的待检测点云数据,根据预设的张量模型和神经网络模型对待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图,根据预设的密集特征指示器捕捉特征图对应的密集特征,并根据密集特征生成目标特征图,根据目标特征图确定待测点云数据对应的三维物体的信息,根据三维物体的信息对自动驾驶设备的移动状态进行控制,通过根据密集特征指示器对密集特征进行捕捉,可实现将初始特征图划分为不同的区域,并着重对特征分布密集的区域的特征进行捕捉,进而提高特征提取的准确性,进而确保生成的目标特征图的精确性,且可实现查缺补漏,从而实现确定出的三维物体的信息的全面性和可靠性的技术效果,进而确保自动驾驶设备安全且可靠的行驶的技术效果。
结合图3(图3为本公开实施例的根据预设的密集特征指示器捕捉初始特征图对应的密集特征,并根据密集特征生成目标特征图的方法的流程示意图)可知,在一些实施例中,S103包括:
S31:通过密集特征指示器中的密集边界预测模型对初始特征图的障碍物边界进行预测。
其中,密集特征指示器包括密集边界预测模型,密集边界预测模型用于对特征图的障碍物边界信息进行预测。
在一些实施例中,可通过采集预设数量的特征图训练得到密集边界预测模型。具体训练方法可采用现有技术中如标注框、正负样本的方式实现。
在该步骤中,由于三维点云数据最密集的区域为三维物体的边界上,因此,通过预测密集边界预测模型对障碍物边界进行预测。
S32:通过密集特征指示器中的可变形模型根据预测得到的障碍物边界对密集特征进行捕捉,以便生成目标特征图。
其中,密集特征指示器还包括可变形模型,可变形模型用于对密集特征进行捕捉,即可变形模型用于从障碍物边界上获取密集特征。
在该步骤中,当密集边界预测模型已确定初始特征图的障碍物边界时,则由可变形模型对障碍物边界上的密集特征进行捕捉。
在一些实施例中,可选取现有技术中的可变形模型实现密集特征的捕捉,也可通过采集预设数量的样本,对样本进行训练得到可变形模型。
请参阅图4,图4为本公开实施例的确定密集特征指示器的方法的示意图。
如图4所示,该方法包括:
S41:接收激光雷达发送的点云数据和三维物体标注信息。
其中,三维物体标注信息包括位置信息和尺寸信息。
S42:确定点云数据中的稀疏点云数据对应的张量特征。
具体地,可通过张量模型(如张量特征提取模型)对点云数据中的稀疏点云数据的特征进行转换,得到张量特征。
S43:根据张量特征生成第一特征图。
具体地,可通过将张量特征输入至预设的卷积神经网络模型,输出第一特征图。其中,第一特征图中包括稀疏点云数据对应的三维物体的位置信息和尺寸信息。
S44:根据预设网络模型对第一特征图进行训练,生成测试特征图,其中,预设网络模型用于对第一特征图的障碍物边界进行预测,并根据预测结果捕捉第一特征图的密集特征。
在该步骤中,由具有对特征图的障碍物边界进行预测,且能基于预测结果对密集特征进行捕捉的网络模型对第一特征图进行训练,得到测试特征图。
其中,测试特征图包括测试定位和测试回归。
S45:对三维物体标注信息进行格式转换处理,得到真实特征图。
在该步骤中,对三维物体标注信息转换到位置信息和尺寸信息,以便得到真实特征图,其中,真实特征图包括目标定位和目标回归。
S46:根据测试特征图、真实特征图和网络模型生成密集特征指示器。
值得说明的是,训练是一个迭代的过程,为了确保密集特征指示器的准确性和可靠性,重复执行S41至S46,直至收敛。
在一些实施例中,S45包括:
给定一个三维物体标注框,先从鸟瞰图上关注其二维表示。该三维物体标注框被定义为(x,y,h,w,θ)。对于目标定位,其正样本区域Ap被定义为三维物体标注框的缩小版本(x,y,σ1h,σ1W,θ),其中σ1为正比例因子。对于负样本区域An,定义三维物体标注框的另一个放缩版本(x,y,σ2h,σ2w,θ),其中σ2是负缩放因子。未包含在该放缩版本的区域被定义为负区域An。此外,将既不是正样本也不负样本的区域定义为忽略样本,在训练期间不予考虑。对于目标回归,其定义为样本点到所处的三维物体标注框四条边的距离加上标注框的高、中心点的z轴坐标与旋转角θ。
结合图5(图5为本公开实施例的根据测试特征图、真实特征图和网络模型生成密集特征指示器的方法的示意图)可知,在一些实施例中,S46包括:
S51:计算测试特征图和真实特征图之间的损失。
S52:根据损失对初始网络模型的参数进行调整,生成密集特征指示器。
在一些实施例中,S51包括:计算测试特征图与真实特征图之间的定位损失,并计算测试特征图与真实特征图之间的回归损失,根据定位损失和回归损失确定损失。即,计算出的损失包括两部分,一部分为定位损失,另一部分为回归损失。
具体地,在一些实施例中,计算定位损失包括:
假设预测的特征图为F,由三维物体标注信息生成的目标定位为
Figure BDA0002205980610000091
i,j分为标注特征的空间维度,c表示通道维度,M表示正样本的总数,定位损失的计算如下:
Figure BDA0002205980610000092
其中,α,γ为常量系数。
在一些实施例中,计算回归损失包括:
假设特征F中(i,j)处的特征图为(1,t,r,b,h,z,θ),分别表示(i,j)到三维物体标注框的四条边的距离,高,中心点z轴坐标,旋转角。在解码时,为(1,t,r,b,θ)均乘上一个可学习的标量
Figure BDA0002205980610000093
以便快速便捷的进行训练。
其中,回归损失共包括三个部分,针对
Figure BDA0002205980610000094
的(1,t,r,b)的IoU损失,针对(h,z)的smoothL1损失,针对θ的基于分块的损失。对于一个正样本Cij,其损失IoU的定义为:
Figure BDA0002205980610000095
其中,Bp为由(1,t,r,b)解码后得到的预测标注框,B为由对应三维物体标注信息的(1,t,r,b)生成的三维物体标注框。
其中,θ的基于分块的损失,首先定义将2π的角度回归范围划分为n个块,则其目标块分类为:
Figure BDA0002205980610000096
块内目标回归定义为:
Figure BDA0002205980610000097
则,θ的基于分块的损失包括:
Figure BDA0002205980610000098
其中
Figure BDA0002205980610000099
代表交叉熵分类损失,
Figure BDA00022059806100000910
代表smooth L1损失,θt代表目标角度,θp代表预测角度。
在一些实施例中,预设网络模型包括检测头,若检测头的定位损失为
Figure BDA00022059806100000911
回归损失定义为
Figure BDA00022059806100000912
则损失L基于下式得到:
Figure BDA00022059806100000913
其中,λ为常量平衡系数。
根据本公开实施例的另一个方面,本公开实施例还提供了一种三维物体的检测装置。
请参阅图6,图6为本公开实施例的三维物体的检测装置的模块示意图。
如图6所示,该装置包括:
接收模块1,用于接收激光雷达发送的待检测点云数据;
提取模块2,用于根据预设的张量模型和神经网络模型对所述待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图;
捕捉模块3,用于根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图;
确定模块4,用于根据所述目标特征图确定待测点云数据对应的三维物体的信息;
控制模块5,用于根据所述三维物体的信息对自动驾驶设备的移动状态进行控制。
在一些实施例中,所述捕捉模块3具体用于,通过所述密集特征指示器中的密集边界预测模型对所述初始特征图的障碍物边界进行预测;
通过所述密集特征指示器中的可变形模型根据预测得到的障碍物边界对所述密集特征进行捕捉,以便生成所述目标特征图。
结合图7(图7为本公开另一实施例的三维物体的检测装置的模块示意图)可知,所述装置还包括:
训练模块6,用于接收所述激光雷达发送的点云数据和三维物体标注信息,确定所述点云数据中的稀疏点云数据对应的张量特征,根据所述张量特征生成第一特征图,根据预设网络模型对所述第一特征图进行训练,生成测试特征图,其中,所述预设网络模型用于对所述第一特征图的障碍物边界进行预测,并根据预测结果捕捉所述第一特征图的密集特征,对所述三维物体标注信息进行格式转换处理,得到真实特征图,根据所述测试特征图、所述真实特征图和所述网络模型生成所述密集特征指示器。
在一些实施例中,所述训练模块6具体用于,计算所述测试特征图和所述真实特征图之间的损失,根据所述损失对所述初始网络模型的参数进行调整,生成所述密集特征指示器。
根据本公开实施例的另一个方面,本公开实施例还提供了一种电子设备,包括:存储器,处理器;
存储器用于存储处理器可执行指令的存储器;
其中,当执行存储器中的指令时,处理器被配置为实现如上任一实施例所述的方法。
请参阅图8,图8为本公开实施例的电子设备的结构示意图。
如图8所示,该电子设备包括存储器和处理器,该电子设备还可以包括通信接口和总线,其中,处理器、通信接口和存储器通过总线连接;处理器用于执行存储器中存储的可执行模块,例如计算机程序。
其中,存储器可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
总线可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。
其中,存储器用于存储程序,处理器在接收到执行指令后,执行程序,前述本公开实施例任一实施例揭示的方法可以应用于处理器中,或者由处理器实现。
处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital SignalProcessing,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
根据本公开实施例的另一个方面,本公开实施例还提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如上任一实施例所述的方法。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本公开实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
还应理解,在本公开各实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
以上,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种三维物体的检测方法,其特征在于,所述方法包括:
接收激光雷达发送的待检测点云数据;
根据预设的张量模型和神经网络模型对所述待检测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图;
根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图;
根据所述目标特征图确定待测点云数据对应的三维物体的信息;
根据所述三维物体的信息对自动驾驶设备的移动状态进行控制;
所述根据预设的张量模型和神经网络模型对所述待测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图,具体包括:
根据所述张量模型将所述待测点云数据转换为张量特征,将所述张量特征输入至所述神经网络模型,由所述神经网络模型对所述张量特征进行特征提取,得到所述初始特征图;
所述根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图,包括:
通过所述密集特征指示器中的密集边界预测模型对所述初始特征图的障碍物边界进行预测;
通过所述密集特征指示器中的可变形模型根据预测得到的障碍物边界对所述密集特征进行捕捉,以便生成所述目标特征图。
2.根据权利要求1所述的方法,其特征在于,确定所述密集特征指示器的步骤包括:
接收所述激光雷达发送的点云数据和三维物体标注信息;
确定所述点云数据中的稀疏点云数据对应的张量特征;
根据所述张量特征生成第一特征图;
根据预设网络模型对所述第一特征图进行训练,生成测试特征图,其中,所述预设网络模型用于对所述第一特征图的障碍物边界进行预测,并根据预测结果捕捉所述第一特征图的密集特征;
对所述三维物体标注信息进行格式转换处理,得到真实特征图;
根据所述测试特征图、所述真实特征图和所述预设网络模型生成所述密集特征指示器。
3.根据权利要求2所述的方法,其特征在于,所述根据所述测试特征图、所述真实特征图和所述网络模型生成所述密集特征指示器包括:
计算所述测试特征图和所述真实特征图之间的损失;
根据所述损失对所述预设网络模型的参数进行调整,生成所述密集特征指示器。
4.一种三维物体的检测装置,其特征在于,所述装置包括:
接收模块,用于接收激光雷达发送的待检测点云数据;
提取模块,用于根据预设的张量模型和神经网络模型对所述待检测点云数据进行特征提取处理,并根据提取到的特征生成初始特征图;
捕捉模块,用于根据预设的密集特征指示器捕捉所述初始特征图对应的密集特征,并根据所述密集特征生成目标特征图;
确定模块,用于根据所述目标特征图确定待测点云数据对应的三维物体的信息;
控制模块,用于根据所述三维物体的信息对自动驾驶设备的移动状态进行控制;
所述提取模块,具体用于根据所述张量模型将所述待测点云数据转换为张量特征,将所述张量特征输入至所述神经网络模型,由所述神经网络模型对所述张量特征进行特征提取,得到所述初始特征图;
所述捕捉模块具体用于,通过所述密集特征指示器中的密集边界预测模型对所述初始特征图的障碍物边界进行预测;
通过所述密集特征指示器中的可变形模型根据预测得到的障碍物边界对所述密集特征进行捕捉,以便生成所述目标特征图。
5.根据权利要求4所述的装置,其特征在于,所述装置还包括:
训练模块,用于接收所述激光雷达发送的点云数据和三维物体标注信息,确定所述点云数据中的稀疏点云数据对应的张量特征,根据所述张量特征生成第一特征图,根据预设网络模型对所述第一特征图进行训练,生成测试特征图,其中,所述预设网络模型用于对所述第一特征图的障碍物边界进行预测,并根据预测结果捕捉所述第一特征图的密集特征,对所述三维物体标注信息进行格式转换处理,得到真实特征图,根据所述测试特征图、所述真实特征图和所述预设网络模型生成所述密集特征指示器。
6.根据权利要求5所述的装置,其特征在于,所述训练模块具体用于,计算所述测试特征图和所述测试特征图之间的损失,根据所述损失对所述预设网络模型的参数进行调整,生成所述密集特征指示器。
7.一种电子设备,包括:存储器,处理器;
所述存储器用于存储所述处理器可执行指令的存储器;
其中,当执行所述存储器中的指令时,所述处理器被配置为实现如权利要求1至3中任一项所述的方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至3中任一项所述的方法。
CN201910881408.7A 2019-09-18 2019-09-18 一种三维物体的检测方法和装置、电子设备、存储介质 Active CN110751040B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910881408.7A CN110751040B (zh) 2019-09-18 2019-09-18 一种三维物体的检测方法和装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910881408.7A CN110751040B (zh) 2019-09-18 2019-09-18 一种三维物体的检测方法和装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN110751040A CN110751040A (zh) 2020-02-04
CN110751040B true CN110751040B (zh) 2022-06-03

Family

ID=69276682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910881408.7A Active CN110751040B (zh) 2019-09-18 2019-09-18 一种三维物体的检测方法和装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN110751040B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598022B (zh) * 2020-05-20 2023-08-25 北京超星未来科技有限公司 一种三维目标检测系统及方法
CN113759338B (zh) * 2020-11-09 2024-04-16 北京京东乾石科技有限公司 一种目标检测方法、装置、电子设备及存储介质
CN112560972B (zh) 2020-12-21 2021-10-08 北京航空航天大学 基于毫米波雷达先验定位和视觉特征融合的目标检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5083715B2 (ja) * 2008-03-10 2012-11-28 株式会社Ihi 三次元位置姿勢計測方法および装置
CN106951847B (zh) * 2017-03-13 2020-09-29 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、设备及存储介质
CN108985171B (zh) * 2018-06-15 2023-04-07 上海仙途智能科技有限公司 运动状态估计方法和运动状态估计装置
CN109932730B (zh) * 2019-02-22 2023-06-23 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN110045729B (zh) * 2019-03-12 2022-09-13 北京小马慧行科技有限公司 一种车辆自动驾驶方法及装置
CN110058264A (zh) * 2019-04-22 2019-07-26 福州大学 一种基于深度学习的实时检测及识别障碍物的方法

Also Published As

Publication number Publication date
CN110751040A (zh) 2020-02-04

Similar Documents

Publication Publication Date Title
US10229332B2 (en) Method and apparatus for recognizing obstacle of vehicle
CN112417967B (zh) 障碍物检测方法、装置、计算机设备和存储介质
JP7033373B2 (ja) ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体
US11170525B2 (en) Autonomous vehicle based position detection method and apparatus, device and medium
CN110751040B (zh) 一种三维物体的检测方法和装置、电子设备、存储介质
CN112654998B (zh) 一种车道线检测方法和装置
CN111091023A (zh) 一种车辆检测方法、装置及电子设备
CN114998856B (zh) 一种多相机图像的3d目标检测方法、装置、设备及介质
KR20210082518A (ko) 교차로 검출, 신경망 훈련 및 스마트 주행 방법, 장치 및 기기
CN111160132B (zh) 障碍物所在车道的确定方法、装置、电子设备和存储介质
Rasib et al. Pixel level segmentation based drivable road region detection and steering angle estimation method for autonomous driving on unstructured roads
CN111191482B (zh) 一种刹车灯识别方法、装置及电子设备
CN113536867B (zh) 物体识别的方法、装置及系统
CN111488762A (zh) 一种车道级定位方法、装置及定位设备
CN111210411B (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
WO2021134357A1 (zh) 感知信息处理方法、装置、计算机设备和存储介质
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
CN116543143A (zh) 一种目标检测模型的训练方法、目标检测方法及装置
CN114005110B (zh) 3d检测模型训练方法与装置、3d检测方法与装置
CN116778262B (zh) 一种基于虚拟点云的三维目标检测方法和系统
CN116654022B (zh) 基于多重交互的行人轨迹预测方法、系统、设备和介质
US20230326029A1 (en) Method for processing images, electronic device, and storage medium
CN115546752A (zh) 高精地图的车道线标注方法和装置、电子设备和存储介质
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶系统
Lin School of Electrical, Electronic and Computer Engineering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant