CN116311172B - 3d目标检测模型的训练方法、装置、设备及存储介质 - Google Patents
3d目标检测模型的训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116311172B CN116311172B CN202310554946.1A CN202310554946A CN116311172B CN 116311172 B CN116311172 B CN 116311172B CN 202310554946 A CN202310554946 A CN 202310554946A CN 116311172 B CN116311172 B CN 116311172B
- Authority
- CN
- China
- Prior art keywords
- data
- position data
- preset
- distance
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 147
- 238000012549 training Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 50
- 239000004973 liquid crystal related substance Substances 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010606 normalization Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种3D目标检测模型的训练方法、装置、设备及存储介质,属于人工智能技术领域。所述方法包括:获取目标区域的点云的第一位置数据;根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;根据所述第二位置数据和第二距离数据,获得训练样本数据;利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型。本申请实现了优化3D目标检测模型学习效果,提升了模型性能。
Description
技术领域
本申请涉及人工智能技术领域,具体为深度学习、计算机视觉技术领域,特别涉及一种3D目标检测模型的训练方法、装置、设备及存储介质。
背景技术
在自动驾驶领域里,一种常用的传感器是激光雷达,激光雷达通过发射和接收电磁波来测量周围物体的距离。利用激光雷达可以获取到点云数据(point cloud),每个点云点记录了检测的物体的坐标,以及反射率等信息。
在执行目标检测任务时,可以将激光雷达获取到点云作为输入目标检测模型,得到所感知的周围环境障碍物的信息,例如,目标对象的3D检测框的坐标、尺寸、朝向等信息。
但是,目前用于目标检测模型学习或者识别的点云相关信息之间存在一定差异,导致模型难以学习到有效的点云信息。
发明内容
本申请提供了一种3D目标检测模型的训练方法、装置、设备及存储介质,解决了目标检测模型的学习效果欠佳的问题,所述技术方案如下:
第一方面,提供了一种3D目标检测模型的训练方法,所述方法包括:
获取目标区域的点云的第一位置数据;
根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;
利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
根据所述第二位置数据和第二距离数据,获得训练样本数据;
利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型。
在一种可能的实现方式中,所述利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,包括:
根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,
所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系。
在一种可能的实现方式中,所述第一位置数据包括3D坐标,所述根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,包括:
根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果;
根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
在一种可能的实现方式中,所述利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,包括:
获取所述第一距离数据对应的3D网格的尺寸数据;
计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值;
根据所述比值,获得所述第二距离数据。
在一种可能的实现方式中,所述3D网格的目标中心点包括3D网格的中心点或3D网格中指定对象的聚类中心点。
在一种可能的实现方式中,所述根据所述第二位置数据和第二距离数据,获得训练样本数据,包括:
对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据;
根据所述点云的空间数据,获得训练样本数据。
第二方面,提供了一种3D目标检测的方法,所述方法包括:
获取目标区域的待检测的点云的第一位置数据;
根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述待检测的点云与对应的3D网格的目标中心点之间的第一距离数据;
利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据;
将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据上所述的方面和任一可能的实现方式的方法得到的。
第三方面,提供了一种3D目标检测模型的训练装置,所述装置包括:
数据获取单元,用于获取目标区域的点云的第一位置数据;
第一获得单元,用于根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;
第一编码单元,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
第二编码单元,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
第二获得单元,用于根据所述第二位置数据和第二距离数据,获得训练样本数据;
模型训练单元,用于利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型。
第四方面,提供了一种3D目标检测的装置,所述装置包括:
数据获取单元,用于获取目标区域的待检测的点云的第一位置数据;
第一获得单元,用于根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述待检测的点云与对应的3D网格的目标中心点之间的第一距离数据;
第一编码单元,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
第二编码单元,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
第二获得单元,用于根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据;
目标检测单元,用于将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据第三方面所述的3D目标检测模型的训练装置得到的。
第五方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上如上所述的方面和任一可能的实现方式的方法。
第六方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方面和任一可能的实现方式的方法。
本申请提供的技术方案的有益效果至少包括:
由上述技术方案可知,一方面,本申请实施例通过获取目标区域的点云的第一位置数据,根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,进而可以利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据并利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,使得能够利用根据所述第二位置数据和第二距离数据所获得训练样本数据,对待训练的3D目标检测模型进行训练,得到训练好的3D目标检测模型,由于分别对用于模型训练的点云的位置数据和距离数据进行编码处理,可以获得具有更加有效地点云的空间信息的训练样本数据,进而基于该训练样本数据进行模型训练,可以更加便于模型学到点云的空间信息,减少了学习的信息损失,从而增强了模型的性能和鲁棒性。
由上述技术方案可知,另一方面,本申请实施例通过获取目标区域的待检测的点云的第一位置数据,根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,进而可以利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,并利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,使得能够根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据,并将所述待检测的点云的空间数据,输入预先训练好的3D目标检测模型,得到待检测的点云的3D目标检测结果,由于增强了用于检测的点云的空间数据可靠性,并利用检测性能更好地模型对待检测点云进行目标检测处理,从而提高了点云的目标检测结果的可靠性。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的3D目标检测模型的训练方法的流程示意图;
图2是本申请另一个实施例提供的3D目标检测的方法的流程示意图;
图3是本申请再一实施例提供的3D目标检测模型的训练装置的结构框图;
图4是本申请再一实施例提供的3D目标检测的装置的结构框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中所涉及的终端设备可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(TabletComputer)等智能设备;显示设备可以包括但不限于个人电脑、电视等具有显示功能的设备。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
通常,3D目标检测模型的训练样本数据中,点云相关信息可以包括点云的坐标和点云的坐标点到网格的目标中心点的距离。点云的坐标范围比较大,如在0米-60米的范围,而每个点云的坐标点到网格的目标中心点的距离通常比较小,如0米-0.3米的范围。可以看出,两种点云相关信息的尺度相差较大,同时被当作训练样本数据输入到目标检测模型时,会使得模型难以学习到有效的信息。
目前,用于目标检测模型学习或者识别的点云相关信息之间存在一定差异,导致模型难以学习到有效的点云信息。
因此,亟需提供一种3D目标检测模型的训练方法,能够使模型学到更加有效的点云信息,从而增强模型预测的鲁棒性。
请参考图1,其示出了本申请一个实施例提供的3D目标检测模型的训练方法的流程示意图。该3D目标检测模型的训练方法,具体可以包括:
步骤101、获取目标区域的点云的第一位置数据。
步骤102、根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据。
步骤103、利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据。
步骤104、利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据。
步骤105、根据所述第二位置数据和第二距离数据,获得训练样本数据。
步骤106、利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型。
需要说明的是,所述目标区域可以是自动驾驶车辆的激光雷达的采集范围对应的区域,例如,目标区域可以激光雷达的点云地图中的对应区域。
具体地,可以预先利用网格划分策略,对点云地图中的目标区域进行划分,得到具有3D网格的目标区域。
例如,对于一帧点云图,可以以自动驾驶车辆为坐标原点,目标区域的范围数据可以包括在三维空间XYZ三个方向的距离范围[-L,L],[-W,W]和[-H,H],即目标区域的所有的点云在XYZ三个方向对应的距离范围分别可以是[-L,L],[-W,W]和[-H,H]。
需要说明的是,所述待训练的3D目标检测模型可以包括但不限于基于体素网络(VoxelNet)算法的3D目标检测模型、以及基于点柱(PointPillar)算法的3D目标检测模型。
需要说明的是,利用预设的位置编码算法,对所述第一位置数据进行编码处理,即是对第一位置数据进行归一化处理,得到归一化的第二位置数据。同样地,利用预设的距离编码算法,对所述第一距离数据进行编码处理,即是对第一距离数据进行归一化处理,得到归一化的第二距离数据。
需要说明的是,步骤101~106的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,例如,网络侧的模型训练平台中的处理引擎或者分布式系统等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
这样,可以通过获取目标区域的点云的第一位置数据,根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,进而可以利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据并利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,使得能够利用根据所述第二位置数据和第二距离数据所获得训练样本数据,对待训练的3D目标检测模型进行训练,得到训练好的3D目标检测模型,由于分别对用于模型训练的点云的位置数据和距离数据进行编码处理,可以获得具有更加有效地点云的空间信息的训练样本数据,进而基于该训练样本数据进行模型训练,可以更加便于模型学到点云的空间信息,减少了学习的信息损失,从而增强了模型的检测性能和鲁棒性。
可选地,在本实施例的一个可能的实现方式中,所述3D网格的目标中心点包括3D网格的中心点或3D网格中指定对象的聚类中心点。
在本实现方式中,指定对象可以是目标检测的对象,即目标障碍物。
在该实现方式的一个具体实现过程中,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格的中心点可以是任意一个体素(Voxel)网格的中心点。
在该实现方式的另一个具体实现过程中,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格中指定对象的聚类中心点可以是任意一个Voxel网格中的目标对象的点云聚类的中心点。例如,一帧点云图,任意一个Voxel网格中,目标对象的点云聚类的中心点可以是一个目标检测框的中心点,目标对象是自行车的目标检测框的中心点。
可选地,在本实施例的一个可能的实现方式中,在步骤103中,具体可以根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据。
在本实现方式中,预设的位置编码算法可以包括预设的正弦函数算法。该预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系。
在该实现方式的一个具体实现过程中,具体可以利用预设的正弦函数算法和第一位置数据,计算得到第一位置数据对应的第二位置数据。
在本实现方式中,所述第一位置数据可以包括3D坐标。例如,任意一个点云的3D坐标可以是(x, y, z)。
在该实现方式的另一个具体实现过程中,具体可以根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果,进而可以根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
在本具体实现过程中,在目标区域的范围数据是[-L,L],[-W,W]和[-H,H]的情况下,任意一个3D网格,其中任意一个点云Pi的作为第一位置数据的3D坐标可以是(xi, yi,zi),该3D坐标的范围可以是范围是:,/>,/>。根据所述预设的正弦对应关系,对该3D坐标进行正弦编码处理后,获得的3D坐标的每个维度的正弦编码结果,即该点云Pi对应的第二位置数据可以是(/>,/>,/>)。
具体地,可以利用如下公式(1),计算得到该点云Pi对应的第二位置数据(,/>,/>)。
(1)
其中,xi, yi, zi分别为点云Pi三个维度(XYZ三个方向)的坐标值,即点云Pi的第一位置数据(xi, yi, zi),L,W、H分别为目标区域的长度、宽度、高度,点云Pi对应的第二位置数据(,/>,/>)的每个维度的数据范围分别可以是/>,/> ,即第二位置数据的每个维度的数据范围均处于/>之间。
这里,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格可以是Voxel网格。对于基于PointPillar算法的待训练的3D目标检测模型,3D网格可以是Pillar网格。
可以理解的是,第一位置数据可以是点云的原始3D坐标,第二位置数据可以是对点云的原始3D坐标进行编码处理后得到的点云的3D坐标,即第二位置数据可以是点云的原始3D坐标进行归一化处理后的得到的点云的3D坐标。
这样,通过对点云的原始3D坐标进行正弦编码处理,实现了对点云的原始3D坐标的归一化。由此,后续基于归一化处理后的点云的第二位置数据和第二距离数据,对待训练模型进行训练,可以使得模型学习到更加有效的点云空间信息。
可以理解的是,预设的位置编码算法还可以包括用于数据归一化的其他现有的编码算法,例如,现有的神经网络的编码器算法、数据归一化算法等。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测模型的训练方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤104中,具体可以获取所述第一距离数据对应的3D网格的尺寸数据,进而可以计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值,使得能够根据所述比值,获得所述第二距离数据。
在本实现方式中,3D网格的尺寸数据可以包括3D网格的长度、宽度和高度,例如,3D网格的尺寸数据为l,w,h。
具体地,对于任意一个3D网格,可以利用如下公式(2),获得第二距离数据:
(2)
其中,l为3D网格的长度,w为3D网格的宽度,h为3D网格的高度,3D网格中,任意点云Pi坐标是(xi, yi, zi),3D网格的目标中心的坐标是/>,则有任意点Pi到中心/>的第一距离数据可以为/>,编码处理后的第二距离数据为,第二距离数据的每个维度的数据范围分别是/>,/>,/>,即第二距离数据的每个维度的数据范围均处于/>之间。
可以理解的是,第一距离数据可以是点云与其对应的3D网格的目标中心点的之间的距离,第二距离数据可以是进行编码处理,即归一化处理后的距离数据。
这样,通过对点云与其对应的3D网格的目标中心点的之间的距离进行编码处理,实现了对点云与其对应的3D网格的目标中心点的之间的距离的归一化。后续基于归一化处理后的点云的第二位置数据和第二距离数据,对待训练模型进行训练,可以使得模型学习到更加有效的点云空间信息。
可以理解的是,预设的距离编码算法还可以包括现有的其他可以实现数据归一化的算法,在此可以不做具体限定。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测模型的训练方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤105中,具体可以对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据,进而可以根据所述点云的空间数据,获得训练样本数据。
在本实现方式中,对于任意一个3D网格内的点云Pi的空间数据可以记作。
这里,点云Pi的空间数据中的每个元素均归一化到之间,可以作为待训练的3D目标检测模型的训练样本数据。
在本实现方式中,训练样本数据可以是具有标签信息的样本数据,或者,可以是无标签信息的样本数据。
在该实现方式的一个具体实现过程中,还可以根据点云的空间数据和预先标注的标签信息,获得训练样本数据。
可以理解的是,可以利用现有的数据拼接的方式,对所述第二位置数据和第二距离数据进行拼接处理,在此可以不做具体限定。
示例性的,对于基于VoxelNet算法的待训练的3D目标检测模型,目标区域的范围数据是[-L,L],[-W,W]和[-H,H],其中的任意一个Voxel网格,该Voxel网格长宽高可以分别为l,w,h,其内部包含的n个点云分别记作P1, P2,…,Pn。
首先,对于任意的一个点云Pi的坐标可以记作(xi, yi, zi)。即该点云Pi的原始坐标(xi, yi, zi),坐标的范围是: ,/> ,/>。其次,可以利用公式(1),对点云Pi原始坐标进行重新编码得到点云Pi新的坐标(/>,/>,/>),其中,新坐标的范围是:/>,/>,/>,进而可以实现对点云的坐标的归一化。再次,任意点Pi到中心/>的距离数据可以为/>,可以利用公式(2),得到编码处理后的距离数据为/>,距离数据的每个维度的数值处于/>之间,进而可以实现对点云的坐标的归一化。再次,对点云Pi新的坐标(/>,/>,/>)和编码处理后的距离数据/>进行拼接处理,可以得到Voxel网格内的点云Pi的空间数据/>。最后,将目标区域内的点云的空间数据作为训练样本数据,对基于VoxelNet算法的待训练的3D目标检测模型进行训练,得到训练好的基于VoxelNet算法的3D目标检测模型。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测模型的训练方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
图2是本申请另一个实施例提供的3D目标检测的方法的流程示意图,如图2所示。
步骤201、获取目标区域的待检测的点云的第一位置数据。
步骤202、根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述待检测的点云与对应的3D网格的目标中心点之间的第一距离数据。
步骤203、利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据。
步骤204、利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据。
步骤205、根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据。
步骤206、将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据前述的3D目标检测模型的训练方法得到的。
需要说明的是,所述待检测的点云可以是需要利用3D目标检测模型进行目标检测的点云。
需要说明的是,所述3D目标检测模型可以包括但不限于基于VoxelNet算法的3D目标检测模型、以及基于PointPillar算法的3D目标检测模型。
需要说明的是,步骤201~步骤206的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,例如,网络侧的目标检测平台中的处理引擎或者分布式系统等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
这样,可以通过获取目标区域的待检测的点云的第一位置数据,根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,进而可以利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,并利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,使得能够根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据,并将所述待检测的点云的空间数据,输入预先训练好的3D目标检测模型,得到待检测的点云的3D目标检测结果,由于增强了用于检测的点云的空间数据可靠性,并利用检测性能更好地模型对待检测点云进行目标检测处理,从而提高了点云的目标检测结果的可靠性。
可选地,在本实施例的一个可能的实现方式中,所述3D网格的目标中心点包括3D网格的中心点或3D网格中指定对象的聚类中心点。
在本实现方式中,指定对象可以是目标检测的对象,例如,目标障碍物。
在该实现方式的一个具体实现过程中,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格的中心点可以是任意一个体素(Voxel)网格的中心点。
在该实现方式的另一个具体实现过程中,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格中指定对象的聚类中心点可以是任意一个Voxel网格中的目标对象的点云聚类的中心点。例如,一帧点云图,任意一个Voxel网格中,目标对象的点云聚类的中心点可以是一个目标检测框的中心点,目标对象是自行车的目标检测框的中心点。
可选地,在本实施例的一个可能的实现方式中,在步骤203中,具体可以根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据。
在本实现方式中,所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系。
在本实现方式中,所述第一位置数据可以包括3D坐标。例如,任意一个待检测的点云的3D坐标可以是(x, y, z)。
在该实现方式的一个具体实现过程中,具体可以根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果,进而可以根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
可以理解的是,可以利用前述实施例中的公式(1),获得待检测的点云的第二位置数据,在此不在赘述。
这里,对于基于VoxelNet算法的待训练的3D目标检测模型,3D网格可以是Voxel网格。对于基于PointPillar算法的待训练的3D目标检测模型,3D网格可以是Pillar网格。
可以理解的是,第一位置数据可以是待检测的点云的原始3D坐标,第二位置数据可以是进行编码处理后的待检测的点云的3D坐标。
这样,通过对待检测的点云的原始3D坐标进行正弦编码处理,实现了对点云的原始3D坐标的归一化。由此,后续对归一化处理后的点云的第二位置数据和第二距离数据进行目标检测处理,可以提升了目标检测的准确性和可靠性。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤204中,具体可以获取所述第一距离数据对应的3D网格的尺寸数据,进而可以计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值,使得能够根据所述比值,获得所述第二距离数据。
可以理解的是,可以利用前述实施例中的公式(2),获得待检测的点云的第二距离数据,在此不在赘述。
这里,第一距离数据可以是待检测的点云与其对应的3D网格的目标中心点的之间的距离,第二距离数据可以是进行编码处理,即归一化处理后的距离数据。
这样,通过对待检测的点云与其对应的3D网格的目标中心点的之间的距离进行编码处理,实现了对待检测的点云与其对应的3D网格的目标中心点的之间的距离的归一化。后续对归一化处理后的待检测的点云的第二位置数据和第二距离数据进行目标检测处理,可以提升目标检测的准确性和可靠性。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤205中,具体可以对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据。
在本实现方式中,对于任意一个3D网格内的待检测的点云Pi的空间数据可以记作。
这样,待检测的点云Pi,的空间数据中的每个元素均归一化到之间。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的3D目标检测的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可以理解的是,可以利用现有的数据拼接的方式,对所述第二位置数据和第二距离数据进行拼接处理,在此可以不做具体限定。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图3示出了本申请一个实施例提供的3D目标检测模型的训练装置的结构框图,如图3所示。本实施例的3D目标检测模型的训练装置300可以包括数据获取单元301,第一获得单元302、第一编码单元303、第二编码单元304、第二获得单元305和模型训练单元306。其中,数据获取单元301,用于获取目标区域的点云的第一位置数据;第一获得单元302,用于根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;第一编码单元303,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;第二编码单元304,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;第二获得单元305,用于根据所述第二位置数据和第二距离数据,获得训练样本数据;模型训练单元306,用于利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型。
需要说明的是,本实施例的3D目标检测模型的训练装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
可选地,在本实施例的一个可能的实现方式中,第一编码单元303,具体可以用于根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系。
可选地,在本实施例的一个可能的实现方式中,所述第一位置数据包括3D坐标,第一编码单元303,具体还可以用于根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果,根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
可选地,在本实施例的一个可能的实现方式中,第二编码单元304,具体可以用于获取所述第一距离数据对应的3D网格的尺寸数据,计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值,以及根据所述比值,获得所述第二距离数据。
可选地,在本实施例的一个可能的实现方式中,所述3D网格的目标中心点包括3D网格的中心点或3D网格中指定对象的聚类中心点。
可选地,在本实施例的一个可能的实现方式中,第二获得单元305,具体可以用于对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据,根据所述点云的空间数据,获得训练样本数据。
本实施例中,通过数据获取单元获取目标区域的点云的第一位置数据,进而可以由第一获得单元根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,由第一编码单元利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,由第二编码单元利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,由第二获得单元根据所述第二位置数据和第二距离数据,获得训练样本数据;使得模型训练单元能够利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型,由于分别对用于模型训练的点云的位置数据和距离数据进行编码处理,可以获得具有更加有效地点云的空间信息的训练样本数据,进而基于该训练样本数据进行模型训练,可以更加便于模型学到点云的空间信息,减少了学习的信息损失,从而增强了模型的性能和鲁棒性。
图4示出了本申请一个实施例提供的3D目标检测的装置的结构框图,如图4所示。本实施例的3D目标检测的装置400可以包括数据获取单元401,第一获得单元402、第一编码单元403、第二编码单元404、第二获得单元405和目标检测单元406。其中,数据获取单元401,用于获取目标区域的待检测的点云的第一位置数据;第一获得单元402,用于根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;第一编码单元403,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;第二编码单元404,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;第二获得单元405,用于根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据;目标检测单元406,用于将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据前述的3D目标检测模型的训练装置得到的。
需要说明的是,本实施例的3D目标检测的装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
可选地,在本实施例的一个可能的实现方式中,第一编码单元403,具体可以用于根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系。
可选地,在本实施例的一个可能的实现方式中,所述第一位置数据包括3D坐标,第一编码单元403,具体还可以用于根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果,根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
可选地,在本实施例的一个可能的实现方式中,第二编码单元404,具体可以用于获取所述第一距离数据对应的3D网格的尺寸数据,计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值,以及根据所述比值,获得所述第二距离数据。
可选地,在本实施例的一个可能的实现方式中,所述3D网格的目标中心点包括3D网格的中心点或3D网格中指定对象的聚类中心点。
可选地,在本实施例的一个可能的实现方式中,第二获得单元405,具体可以用于对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据。
本实施例中,通过数据获取单元获取目标区域的点云的第一位置数据,进而可以由第一获得单元根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据,由第一编码单元利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,由第二编码单元利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,由第二获得单元根据所述第二位置数据和第二距离数据,获得所述待检测的点云的空间数据,使得模型训练单元能够将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据前述的3D目标检测模型的训练装置得到的,由于增强了用于检测的点云的空间数据可靠性,并利用检测性能更好地模型对待检测点云进行目标检测处理,从而提高了点云的目标检测结果的可靠性。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上所述的3D目标检测模型的训练方法和3D目标检测的方法。
本申请一个实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的3D目标检测模型的训练方法和3D目标检测的方法。
本申请的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
需要说明的是:上述实施例提供的3D目标检测模型的训练装置在进行3D目标检测模型的训练时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将3D目标检测模型的训练装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的3D目标检测模型的训练装置与3D目标检测模型的训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
需要说明的是:上述实施例提供的3D目标检测的装置在进行3D目标检测时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将3D目标检测的装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的3D目标检测的装置与3D目标检测的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (8)
1.一种3D目标检测模型的训练方法,其特征在于,所述方法包括:
获取目标区域的点云的第一位置数据;
根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;所述3D网格的目标中心点包括3D网格中目标检测的对象的聚类中心点;所述目标检测的对象是目标障碍物;
利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
根据所述第二位置数据和第二距离数据,获得训练样本数据;
利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型;
所述利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,包括:
获取所述第一距离数据对应的3D网格的尺寸数据;
计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值;
根据所述比值,获得所述第二距离数据;
所述利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,包括:
根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,
所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系;
所述第一位置数据包括3D坐标,所述根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,包括:
根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果;
根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
2.根据权利要求1所述的3D目标检测模型的训练方法,其特征在于,所述3D网格的目标中心点包括3D网格的中心点。
3.根据权利要求1所述的3D目标检测模型的训练方法,其特征在于,所述根据所述第二位置数据和第二距离数据,获得训练样本数据,包括:
对所述第二位置数据和第二距离数据进行拼接处理,以获得所述点云的空间数据;
根据所述点云的空间数据,获得训练样本数据。
4.一种3D目标检测的方法,其特征在于,所述方法包括:
获取目标区域的待检测的点云的第一位置数据;
根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述待检测的点云与对应的3D网格的目标中心点之间的第一距离数据;所述3D网格的目标中心点包括3D网格中目标检测的对象的聚类中心点;所述目标检测的对象是目标障碍物;
利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据;
将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据权利要求1至3中任一所述的3D目标检测模型的训练方法得到的;
所述利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据,包括:
获取所述第一距离数据对应的3D网格的尺寸数据;
计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值;
根据所述比值,获得所述第二距离数据;
所述利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据,包括:
根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,
所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系;
所述第一位置数据包括3D坐标,所述根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,包括:
根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果;
根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
5.一种3D目标检测模型的训练装置,其特征在于,所述装置包括:
数据获取单元,用于获取目标区域的点云的第一位置数据;
第一获得单元,用于根据所述第一位置数据和所述目标区域的预设的三维3D网格,获得所述点云与对应的3D网格的目标中心点之间的第一距离数据;所述3D网格的目标中心点包括3D网格中目标检测的对象的聚类中心点;所述目标检测的对象是目标障碍物;
第一编码单元,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
第二编码单元,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
第二获得单元,用于根据所述第二位置数据和第二距离数据,获得训练样本数据;
模型训练单元,用于利用所述训练样本数据,对待训练的3D目标检测模型进行训练,以获得训练完成的3D目标检测模型;
所述第二编码单元,具体用于获取所述第一距离数据对应的3D网格的尺寸数据;计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值;根据所述比值,获得所述第二距离数据;
所述第一编码单元,用于根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系;
所述第一位置数据包括3D坐标,所述第一编码单元,还用于根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果;根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
6.一种3D目标检测的装置,其特征在于,所述装置包括:
数据获取单元,用于获取目标区域的待检测的点云的第一位置数据;
第一获得单元,用于根据所述第一位置数据和所述目标区域的预设的3D网格,获得所述待检测的点云与对应的3D网格的目标中心点之间的第一距离数据;所述3D网格的目标中心点包括3D网格中目标检测的对象的聚类中心点;所述目标检测的对象是目标障碍物;
第一编码单元,用于利用预设的位置编码算法,对所述第一位置数据进行编码处理,以获得第二位置数据;
第二编码单元,用于利用预设的距离编码算法,对所述第一距离数据进行编码处理,以获得第二距离数据;
第二获得单元,用于根据所述第二位置数据和所述第二距离数据,获得所述待检测的点云的空间数据;
目标检测单元,用于将所述待检测的点云的空间数据,输入3D目标检测模型,以获得所述待检测的点云的3D目标检测结果,所述3D目标检测模型是利用根据权利要求5所述的3D目标检测模型的训练装置得到的;
所述第二编码单元,具体用于获取所述第一距离数据对应的3D网格的尺寸数据;计算所述第一距离数据和所述第一距离数据对应的3D网格的尺寸数据的比值;根据所述比值,获得所述第二距离数据;
所述第一编码单元,用于根据所述第一位置数据、以及所述目标区域中预设的正弦对应关系,对所述第一位置数据的进行正弦编码处理,以获得所述第二位置数据,其中,所述预设的正弦对应关系是预设的第一位置数据和第二位置数据的正弦对应关系;
所述第一位置数据包括3D坐标,所述第一编码单元,还用于根据所述预设的正弦对应关系,对所述3D坐标进行正弦编码处理,以获得所述3D坐标的每个维度的正弦编码结果;根据所述3D坐标的每个维度的正弦编码结果,获得所述第二位置数据。
7. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行根据权利要求1-4中任一项所述的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310554946.1A CN116311172B (zh) | 2023-05-17 | 2023-05-17 | 3d目标检测模型的训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310554946.1A CN116311172B (zh) | 2023-05-17 | 2023-05-17 | 3d目标检测模型的训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116311172A CN116311172A (zh) | 2023-06-23 |
CN116311172B true CN116311172B (zh) | 2023-09-22 |
Family
ID=86794557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310554946.1A Active CN116311172B (zh) | 2023-05-17 | 2023-05-17 | 3d目标检测模型的训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311172B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674421A (zh) * | 2021-08-25 | 2021-11-19 | 北京百度网讯科技有限公司 | 3d目标检测方法、模型训练方法、相关装置及电子设备 |
CN114820465A (zh) * | 2022-04-06 | 2022-07-29 | 合众新能源汽车有限公司 | 点云检测模型训练方法、装置、电子设备及存储介质 |
CN115271096A (zh) * | 2022-07-27 | 2022-11-01 | 阿波罗智能技术(北京)有限公司 | 点云处理和机器学习模型训练方法、装置及自动驾驶车辆 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102263152B1 (ko) * | 2020-03-06 | 2021-06-09 | 주식회사 카르타 | 3차원 포인트 클라우드의 객체 탐지 방법 및 장치 |
-
2023
- 2023-05-17 CN CN202310554946.1A patent/CN116311172B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674421A (zh) * | 2021-08-25 | 2021-11-19 | 北京百度网讯科技有限公司 | 3d目标检测方法、模型训练方法、相关装置及电子设备 |
CN114820465A (zh) * | 2022-04-06 | 2022-07-29 | 合众新能源汽车有限公司 | 点云检测模型训练方法、装置、电子设备及存储介质 |
CN115271096A (zh) * | 2022-07-27 | 2022-11-01 | 阿波罗智能技术(北京)有限公司 | 点云处理和机器学习模型训练方法、装置及自动驾驶车辆 |
Non-Patent Citations (1)
Title |
---|
VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection;Yin Zhou;https://arxiv.org/pdf/1711.06396.pdf;第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116311172A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108401461B (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
CN109214980B (zh) | 一种三维姿态估计方法、装置、设备和计算机存储介质 | |
CN106997466B (zh) | 用于检测道路的方法和装置 | |
CN109325996B (zh) | 用于生成信息的方法和装置 | |
CN113112491B (zh) | 一种悬崖检测方法、装置、机器人及存储介质 | |
KR20200136723A (ko) | 가상 도시 모델을 이용하여 객체 인식을 위한 학습 데이터 생성 방법 및 장치 | |
WO2022237821A1 (zh) | 生成交通标志线地图的方法、设备和存储介质 | |
CN114429528A (zh) | 图像处理方法、装置、设备、计算机程序及存储介质 | |
CN114882316A (zh) | 目标检测模型训练方法、目标检测方法及装置 | |
CN116563493A (zh) | 基于三维重建的模型训练方法、三维重建方法及装置 | |
CN110827341A (zh) | 一种图片深度估计方法、装置和存储介质 | |
CN114627073A (zh) | 地形识别方法、装置、计算机设备和存储介质 | |
CN114022614A (zh) | 一种三维重建目标位置置信度的估计方法及系统 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN113592015A (zh) | 定位以及训练特征匹配网络的方法和装置 | |
CN116311172B (zh) | 3d目标检测模型的训练方法、装置、设备及存储介质 | |
CN110363847B (zh) | 一种基于点云数据的地图模型构建方法和装置 | |
CN114926549B (zh) | 三维点云处理方法、装置、设备以及存储介质 | |
CN115393423A (zh) | 目标检测方法和装置 | |
CN115713560A (zh) | 一种摄像头和车辆的外参数标定方法及装置、电子设备、存储介质 | |
CN113808196A (zh) | 平面融合定位方法、装置、电子设备及存储介质 | |
CN114419564A (zh) | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 | |
CN114111813A (zh) | 高精地图元素更新方法、装置、电子设备及存储介质 | |
CN116740682B (zh) | 车辆泊入路线信息生成方法、装置、电子设备和可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |