CN114140660B - 一种车辆检测方法、装置、设备及介质 - Google Patents
一种车辆检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114140660B CN114140660B CN202111278729.1A CN202111278729A CN114140660B CN 114140660 B CN114140660 B CN 114140660B CN 202111278729 A CN202111278729 A CN 202111278729A CN 114140660 B CN114140660 B CN 114140660B
- Authority
- CN
- China
- Prior art keywords
- frame
- loss
- visible
- anchor
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 144
- 238000012549 training Methods 0.000 claims abstract description 77
- 238000012216 screening Methods 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000002372 labelling Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 231100000897 loss of orientation Toxicity 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开了一种车辆检测方法、装置、设备及介质,包括:将训练数据输入车辆检测模型;训练数据包括LiDAR点云数据、为车辆标注的整体框;从LiDAR点云数据中确定出整体框中的有效LiDAR点,并利用目标车辆的有效LiDAR点生成目标车辆对应的3D可见框;根据锚点框计算整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及3D可见框对应的第二分类损失、第二位姿回归损失;计算综合训练损失;当综合训练损失收敛,则将当前的车辆检测模型作为训练后模型;当获取到待检测LiDAR点云数据,则利用训练后模型输出待检测LiDAR点云数据对应的车辆检测结果。能够提升车辆检测的准确度。
Description
技术领域
本申请涉及车辆检测技术领域,特别涉及一种车辆检测方法、装置、设备及介质。
背景技术
随着人工智能算法的快速发展,自动驾驶感知技术得到了长足的进步。自动驾驶车辆需要准确地识别出环境中的车辆并对其进行精确的定位,以完成后续诸如路径规划和防碰撞等高阶任务。相比于基于图像数据的车辆检测算法,基于LiDAR(即Light Detectionand Ranging,激光探测及测距系统)传感器数据的车辆检测算法能快速地识别车辆并精确地估计车辆的3D位置。越来越多的车企和自动驾驶研究机构使用LiDAR数据进行自动驾驶场景中车辆的识别与定位。
现有的基于LiDAR数据进行车辆检测的网络模型表示点云数据的方法可大致分为以下几种:基于体素化的表示,基于点的表示,基于图的表示,基于2D投影的表示。随着稀疏3D卷积计算和BEV(即Bird’s Eye View,鸟视图)的引入,基于体素化点云表示的车辆检测器取得了快速且准确的检测结果,在学术界和工业界得到了广泛的应用。当前基于体素化点云表示的车辆检测模型主要分为两种:单阶段检测器和两阶段检测器。单阶段检测器首先将点云进行体素化处理,然后使用卷积神经网络(3D卷积神经网络和2D卷积神经网络)提取特征,最后基于特征图对车辆分类和位置进行估计。两阶段检测器在单阶段检测器的基础上,提取RoI(即Region Of Interest,感兴趣区域)的特征并进行进一步处理,得到调优后的检测结果。两者相比,单阶段检测器通常具备更少的参数和更快的检测速度。已有的基于体素化点云表示的单阶段检测器中,通常将目标车辆的位置和姿态用一个紧紧包裹车辆整体的3D框进行表示。由于激光不能穿过车辆,通过LiDAR传感器得到点云数据不能覆盖车辆的全部表面。同时,由于其它物体或车辆之间的遮挡,目标车辆的整体框中只有部分区域具有点云数据。这种数据特性提升了检测器对车辆的识别和对整体框的定位难度,造成车辆检测的不准确性。
发明内容
有鉴于此,本申请的目的在于提供一种车辆检测方法、装置、设备及介质,能够提升车辆检测的准确度。其具体方案如下:
第一方面,本申请公开了一种车辆检测方法,包括:
将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框;
利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框;
根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失;
当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出;
当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。
可选的,所述从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,包括:
从所述LiDAR点云数据中直接确定出所述整体框中全部的LiDAR点,得到有效LiDAR点;
或,获取所述LiDAR点云数据对应的前景背景标注信息,并根据所述前景背景标注信息从所述LiDAR点云数据中确定出所述整体框中的前景LiDAR点,得到有效LiDAR点。
可选的,所述根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,包括:
根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本;
基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失。
可选的,所述根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本,包括:
若所述3D可见框的长度、宽度、高度分别大于等于预设长度阈值、预设宽度阈值以及预设高度阈值,将满足第一预设筛选条件或第二预设筛选条件的锚点框确定为第一正样本;
若所述目标车辆没有所述3D可见框,或所述3D可见框满足预设无效可见框条件,则将满足第三预设筛选条件或第四预设筛选条件的锚点框确定为第二正样本;
其中,所述第一预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第一预设整体框覆盖度阈值,且该锚点框与所述3D可见框的第二覆盖度大于等于预设3D可见框覆盖度阈值;所述第二预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大的,且第一覆盖度大于0的锚点框;
并且,所述预设无效可见框条件为所述3D可见框的长度小于所述预设长度阈值、或宽度小于所述预设宽度阈值、或高度小于所述预设高度阈值;
所述第三筛选条件为锚点框与所述整体框的第一覆盖度大于等于第二预设整体框覆盖度阈值;所述第四筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大、且第一覆盖度大于0的锚点框;
将全部所述锚点框中非第一正样本、且非第二正样本、且与所有目标车辆的所述整体框的第一覆盖度均小于第三预设整体框覆盖度阈值的锚点框确定为负样本。
可选的,所述基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,包括:
利用所述第一正样本、所述第二正样本和所述负样本计算所述整体框对应的第一分类损失;
利用所述第一正样本、所述第二正样本计算所述整体框对应的第一位姿回归损失以及朝向损失;
利用所述第一正样本和所述负样本计算所述3D可见框的第二分类损失;利用所述第一正样本计算所述3D可见框的第二位姿回归损失。
可选的,所述利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失,包括:
利用所述第一分类损失对应的权重参数、所述第一位姿回归损失对应的权重参数、所述朝向损失对应的权重参数、所述第二分类损失对应的权重参数以及所述第二位姿回归损失对应的权重参数,对所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失进行加权计算,得到综合训练损失。
可选的,所述利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果,包括:
利用所述训练后模型确定所述待检测LiDAR点云数据对应的整体框的第一检测结果,以及所述3D可见框的第二检测结果;
利用所述第二检测结果和所述第二检测结果确定出所述待检测LiDAR点云数据对应的车辆检测结果。
第二方面,本申请公开了一种车辆检测装置,包括车辆检测模型训练模块,以及车辆检测模块;其中,
所述车辆检测模型训练模块包括:
训练数据输入子模块,用于将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框;
3D可见框生成子模块,用于利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框;
整体框和3D可见框损失计算子模块,用于根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
综合损失计算子模块,用于利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失;
训练后模型输出子模块,用于当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出;
所述车辆检测模块用于:当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的车辆检测方法。
第四方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,所述计算机程序被处理器执行时实现前述的车辆检测方法。
可见,本申请先将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框,利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框,之后根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,并利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失,当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出最后当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。也即,本申请的车辆检测模型在对整体框进行分类和定位的基础上,又增加了对包含有效点云数据3D可见框的分类和定位,在训练过程中,利用整体框的分类、位姿回归、朝向损失以及3D可见框的分类、位姿回归损失计算出综合损失,这样训练得到的车辆检测模型能够充分利用整体框中的有效点云数据,提升对遮挡的鲁棒性,能够提升车辆检测的准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种车辆检测方法流程图;
图2为本申请公开的一种具体的车辆的整体框在鸟视图下的示意图;
图3为本申请公开的一种具体的车辆检测模型的结构示意图;
图4为本申请公开的一种车辆检测装置结构示意图;
图5为本申请公开的一种电子设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
已有的基于体素化点云表示的单阶段检测器中,通常将目标车辆的位置和姿态用一个紧紧包裹车辆整体的3D框进行表示。由于激光不能穿过车辆,通过LiDAR传感器得到点云数据不能覆盖车辆的全部表面。同时,由于其它物体或车辆之间的遮挡,目标车辆的整体框中只有部分区域具有点云数据。这种数据特性提升了检测器对车辆的识别和对整体框的定位难度,造成车辆检测的不准确性。为此,本申请提供了一种车辆检测方案,能够提升车辆检测的准确度。
参见图1所示,本申请实施例公开了一种车辆检测方法,包括:
步骤S11:将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框。
在具体的实施方式中,获取车辆的LiDAR点云数据后,可以为目标车辆标注整体框。例如,参见图2所示,图2为本申请实施例公开的一种具体的车辆的整体框在鸟视图下的示意图。目标车辆j在LiDAR坐标下的整体框可以表示为:
其中,代表整体框中心点的坐标,/>代表整体框的高度,宽度和长度,/>代表鸟视图下LiDAR坐标系X轴逆时针旋转至车头朝向的角度。
需要指出的是,在真实场景中,车辆很少发生俯仰角和翻滚角度变化,因此,只用绕LiDAR坐标系下Z轴的旋转角度表示车辆的朝向。
步骤S12:利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框。
对于处于目标车辆j的整体框里的点i在LiDAR坐标系下的坐标为:pi=(xi,yi,zi),将其投影到目标车辆j的整体框的坐标系,记为p′i=(x′i,y′i,z′i),计算过程如下公式:
其中,目标车辆j的整体框的坐标系为以整体框的中心点为原点,车头朝向为x轴的右手坐标系。
在具体的实施方式中,本申请实施例将3D可见框定义为整体框内紧紧包裹有效点云数据的长方体。具体地,3D可见框表示为:
其中,代表3D可见框中心点的坐标,/>代表3D可见框的高度,宽度和长度,/>代表3D可见框在鸟视图下的旋转角度。其计算过程为:
其中,Ij表示第j个整体框中全部所述有效LiDAR点的集合,也即全部前景点的索引集合。
也即,在具体的实施方式中,可以标注多个目标车辆的整体框,基于每个目标车辆的整体框内的有效LiDAR点确定每个目标车辆对应的3D可见框。
在具体的实施方式中,可以从所述LiDAR点云数据中直接确定出所述整体框中全部的LiDAR点,得到有效LiDAR点;或,获取所述LiDAR点云数据对应的前景背景标注信息,并根据所述前景背景标注信息从所述LiDAR点云数据中确定出所述整体框中的前景LiDAR点,得到有效LiDAR点。其中,前景LiDAR点即为整体框中根据前景背景标注信息确定出的LiDAR点。
具体的,当点云数据没有前景背景标注信息时,位于整体框中的所有LiDAR点均为前景点,也即有效LiDAR点;当前景背景标注信息为路面信息标注时,前景LiDAR点为整体框中除路面的LiDAR点;当前景背景标注信息有点云语义标注时,前景LiDAR点为整体框中车辆表面的LiDAR点;当前景背景标注信息有点云示例标注时,前景LiDAR点为整体框中对应目标车辆表面的LiDAR点。
可以理解的是,基于上述前景背景标注信息,能够进一步降低背景点对车辆检测的混淆,降低旁边车辆或路面等背景上的点云数据对目标车辆整体估计产生的干扰,提升车辆检测模型对车辆检测的准确度。
步骤S13:根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失。
在具体的实施方式中,上述步骤S13可以包括以下两个步骤:
步骤00:根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本。
在具体的实施方式中,可以若所述3D可见框的长度、宽度、高度分别大于等于预设长度阈值、预设宽度阈值以及预设高度阈值,将满足第一预设筛选条件或第二预设筛选条件的锚点框确定为第一正样本;若所述目标车辆没有所述3D可见框,或所述3D可见框满足预设无效可见框条件,则将满足第三预设筛选条件或第四预设筛选条件的锚点框确定为第二正样本;
其中,所述第一预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第一预设整体框覆盖度阈值,且该锚点框与所述3D可见框的第二覆盖度大于等于预设3D可见框覆盖度阈值;所述第二预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大的,且第一覆盖度大于0的锚点框;
并且,所述预设无效可见框条件为所述3D可见框的长度小于所述预设长度阈值、或宽度小于所述预设宽度阈值、或高度小于所述预设高度阈值;
所述第三筛选条件为锚点框与所述整体框的第一覆盖度大于等于第二预设整体框覆盖度阈值;所述第四筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大、且第一覆盖度大于0的锚点框;
将全部所述锚点框中非第一正样本、且非第二正样本、且与所有目标车辆的所述整体框的第一覆盖度均小于第三预设整体框覆盖度阈值的锚点框确定为负样本。
其中,预设长度阈值、预设宽度阈值、预设高度阈值、第一预设整体框覆盖度阈值,第二预设整体框覆盖度阈值,第三预设整体框覆盖度阈值、预设3D可见框覆盖度阈值,为根据经验或者实验确定的阈值。
也即,本申请实施例利用锚定框(anchor)与标注的目标车辆的整体框、3D可见框的覆盖度进行正负样本选取。首先,计算锚定框m与目标车辆n的整体框之间的第一覆盖度,同时,计算锚定框m与目标车辆n的3D可见框之间的第二覆盖度,然后,进行正负样本选取。其中,
第一覆盖度的计算公式为:
第二覆盖度的计算公式为:
其中,分别代表锚点框、整体框和3D可见框。Volume()为求体积函数。
一个锚点框m被视为第一正样本,当且仅当:当标注的目标车辆n'存在3D可见框且其可见框长宽高分别大于等于预设长度阈值预设宽度阈值/>预设高度阈值/>即:且/>且/>时:其与目标车辆n'之间的/>且或其是目标车辆n'的整体框与所有锚定框的第一覆盖度中最大值对应的锚定框且对应的第一覆盖度大于0。一个锚点框m被视为第二正样本,当且仅当:当标注车辆n”不存在3D可见框或其3D可见框的长宽高中至少存在一项小于对应阈值的情况,其与目标车辆n”的整体框的第一覆盖度/>或其是目标车辆n”的整体框与所有锚定框的第一覆盖度中最大值对应的锚定框且对应的第一覆盖度大于0。其中,/>表示第一预设整体框覆盖度阈值,/>表示预设3D可见框覆盖度阈值,/>表示第二预设整体框覆盖度阈值。锚点框m被视为负样本当且仅当:锚定框m既不是第一正样本也不是第二正样本,且与所有标注的目标车辆之间的整体框的第一覆盖度均小于第三预设整体框覆盖度阈值/>
需要指出的是,相比于传统的只利用整体框的覆盖度的样本选取策略,本申请根据引入的3D可见框与锚点框的覆盖度,进行正样本选取,可以选取拥有足够有效数据的正样本,防止产生只包含少量有效数据的正样本。
其中,关于锚点框的生成可以参考现有技术,在此不再进行赘述。
步骤01:基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失。
在具体的实施方式中,利用所述第一正样本、所述第二正样本和所述负样本计算所述整体框对应的第一分类损失;利用所述第一正样本、所述第二正样本计算所述整体框对应的第一位姿回归损失以及朝向损失;利用所述第一正样本和所述负样本计算所述3D可见框的第二分类损失;利用所述第一正样本计算所述3D可见框的第二位姿回归损失。
也即,3D可见框存在其长或宽或高小于对应阈值的情况时,对应的样本不参3D可见框相应的损失计算。
并且,本申请实施例中每个正样本匹配所有标注的目标车辆中与其整体框的覆盖度最大的整体框,进行位姿回归损失计算,具体的位姿回归损失计算方法,可参考现有技术,在此不再进行赘述。
步骤S14:利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失。
在具体的实施方式中,利用所述第一分类损失对应的权重参数、所述第一位姿回归损失对应的权重参数、所述朝向损失对应的权重参数、所述第二分类损失对应的权重参数以及所述第二位姿回归损失对应的权重参数,对所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失进行加权计算,得到综合训练损失。
其中,综合训练损失的计算公式如下:
其中,为整体框的分类损失,本申请实施例选用焦点损失(focal loss)对整体框对应的所有样本进行计算,/>为整体框的位姿回归损失,/>为整体框的朝向损失。/>为可视3D框的分类损失,可视3D框的标注类别与整体框的标注类别相同。/>为可视3D框的位姿回归损失,β0,β1,β2,β3,β4分别为个各损失对应的权重参数,可以通过实验获取。
步骤S15:当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出。
可以理解的是,在训练的过程中,利用综合训练损失更新车辆检测模型,不断迭代,当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出。
步骤S16:当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。
在具体的实施方式中,可以利用所述训练后模型确定所述待检测LiDAR点云数据对应的整体框的第一检测结果,以及所述3D可见框的第二检测结果;利用所述第二检测结果和所述第二检测结果确定出所述待检测LiDAR点云数据对应的车辆检测结果。
需要指出的是,为了提升模型的车辆检测置信度,本申请实施例将整体框的第一检测结果以及3D可见框的第二检测结果进行融合。
最终检测的分数Sc为:
代表整体框对应的输出,即进行最终softmax操作之前的检测结果;其中,0和1分别代表背景和车辆。/>分别表示整体框的背景和车辆的得分;exp表示指数函数。
代表3D可见框对应的输出,即进行softmax操作之前的检测结果。表示3D可见框对应的背景和车辆的得分。
关于和/>的计算方法可以参考现有车辆检测模型中的计算方法,在此不再进行赘述。
在具体的实施方式中,本申请使用神经网络包括3D卷积和鸟视图下的2D卷积等来构建车辆检测模型。通过引入车辆的3D可见框来提升检测模型的识别准确度和定位精度,例如,参见图3所示,图3位本申请实施例公开的一种具体的车辆检测模型的结构示意图。首先,点云数据通过体素化形成3D体素化表示。然后,体素化数据通过多次3D卷积、池化等操作得到3D卷积特征,其中,本申请中的3D卷积操作选用稀疏3D卷积算法,以加快3D卷积的速度。然后,检测模型将3D卷积特征沿着LiDAR坐标系的Z轴(即高度轴)进行特征连接,得到2D空间(BEV视角)下的特征图表示。接着,检测模型在得到的2D特征图的基础上进行2D卷积、池化等操作,得到最后的BEV视角下的2D卷积特征。根据预先设定的3D锚点框(anchor),对目标进行分类和位姿估计,其中包括:整体框的分类和定位,3D可见框的分类和定位,以及车辆整体框的朝向的分类,H表示整体框、V表示3D可见框。本申请实施例中使用相同的3D锚定框进行整体框和可视框的检测。需要指出的是,本申请实施例中生成3D可见框的步骤可以在体素化表示前,也可以在得到最后的BEV视角下的2D卷积特征之后。
可见,本申请先将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框,利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框,之后根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,并利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失,当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出最后当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。也即,本申请的车辆检测模型在对整体框进行分类和定位的基础上,又增加了对包含有效点云数据3D可见框的分类和定位,在训练过程中,利用整体框的分类、位姿回归、朝向损失以及3D可见框的分类、位姿回归损失计算出综合损失,这样训练得到的车辆检测模型能够充分利用整体框中的有效点云数据,提升对遮挡的鲁棒性,从而能够提升车辆检测的准确度。
另外,需要指出的是,现有技术中存在基于LiDAR的车辆检测算法,为提升检测的定位精度,采用了将整体框划分为不同的部件,然后将部件的检测进行融合得到最终的整体框检测结果;或者添加额外的网络结构对整体框中的LiDAR点进行定位回归,以提升特征的定位性能。人为设计和选择的部件有可能并不包含有效的点云数据,这导致对部件的检测也是一个十分困难的问题。同时,部件的增多在一定程度上增加了整个检测器的计算量。对整体框中LiDAR点的位置回归,能够提升特征的定位能力,但是并没有充分开发点云数据对部件和整体的分类和定位功能。或者,为了提升检测器抗遮挡的能力,部分基于LiDAR数据的车辆检测算法引入注意力机制进行网络构建,以提升点云中有效特征的权重。额外添加的网络结构在一定程度上会增加检测器的参数和计算量。在基于3D稀疏卷积的3D特征计算过程中,注意力网络需要精心的设计,同时,注意力机制的引入会对3D卷积特征的计算增加一定量的计算量。而本申请实施例提供的方案相对于现有技术,计算复杂度较低。
参见图4所示,本申请实施例公开了一种车辆检测装置,包括车辆检测模型训练模块11,以及车辆检测模块12;其中,
所述车辆检测模型训练模块11包括:
训练数据输入子模块,用于将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框;
3D可见框生成子模块,用于利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框;
整体框和3D可见框损失计算子模块,用于根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
综合损失计算子模块,用于利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失;
训练后模型输出子模块,用于当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出;
所述车辆检测模块12用于:当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。
可见,本申请先将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框,利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框,之后根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,并利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失,当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出最后当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果。也即,本申请的车辆检测模型在对整体框进行分类和定位的基础上,又增加了对包含有效点云数据3D可见框的分类和定位,在训练过程中,利用整体框的分类、位姿回归、朝向损失以及3D可见框的分类、位姿回归损失计算出综合损失,这样训练得到的车辆检测模型能够充分利用整体框中的有效点云数据,提升对遮挡的鲁棒性,从而能够提升车辆检测的准确度。
其中,3D可见框生成子模块,具体用于从所述LiDAR点云数据中直接确定出所述整体框中全部的LiDAR点,得到有效LiDAR点;或,获取所述LiDAR点云数据对应的前景背景标注信息,并根据所述前景背景标注信息从所述LiDAR点云数据中确定出所述整体框中的前景LiDAR点,得到有效LiDAR点。
整体框和3D可见框损失计算子模块,具体包括:
样本选取单元,用于根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本;
损失计算单元,用于基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失。
其中,样本选取单元,具体用于若所述3D可见框的长度、宽度、高度分别大于等于预设长度阈值、预设宽度阈值以及预设高度阈值,将满足第一预设筛选条件或第二预设筛选条件的锚点框确定为第一正样本;若所述目标车辆没有所述3D可见框,或所述3D可见框满足预设无效可见框条件,则将满足第三预设筛选条件或第四预设筛选条件的锚点框确定为第二正样本;其中,所述第一预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第一预设整体框覆盖度阈值,且该锚点框与所述3D可见框的第二覆盖度大于等于预设3D可见框覆盖度阈值;所述第二预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大的,且第一覆盖度大于0的锚点框;并且,所述预设无效可见框条件为所述3D可见框的长度小于所述预设长度阈值、或宽度小于所述预设宽度阈值、或高度小于所述预设高度阈值;所述第三筛选条件为锚点框与所述整体框的第一覆盖度大于等于第二预设整体框覆盖度阈值;所述第四筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大、且第一覆盖度大于0的锚点框;将全部所述锚点框中非第一正样本、且非第二正样本、且与所有目标车辆的所述整体框的第一覆盖度均小于第三预设整体框覆盖度阈值的锚点框确定为负样本。
损失计算单元,具体用于利用所述第一正样本、所述第二正样本和所述负样本计算所述整体框对应的第一分类损失;利用所述第一正样本、所述第二正样本计算所述整体框对应的第一位姿回归损失以及朝向损失;利用所述第一正样本和所述负样本计算所述3D可见框的第二分类损失;利用所述第一正样本计算所述3D可见框的第二位姿回归损失。
综合损失计算子模块,具体用于利用所述第一分类损失对应的权重参数、所述第一位姿回归损失对应的权重参数、所述朝向损失对应的权重参数、所述第二分类损失对应的权重参数以及所述第二位姿回归损失对应的权重参数,对所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失进行加权计算,得到综合训练损失。
参见图5所示,本申请实施例公开了一种电子设备20,包括处理器21和存储器22;其中,所述存储器22,用于保存计算机程序;所述处理器21,用于执行所述计算机程序,前述实施例公开的车辆检测方法。
关于上述车辆检测方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
并且,所述存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,存储方式可以是短暂存储或者永久存储。
另外,所述电子设备20还包括电源23、通信接口24、输入输出接口25和通信总线26;其中,所述电源23用于为所述电子设备20上的各硬件设备提供工作电压;所述通信接口24能够为所述电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;所述输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
进一步的,本申请实施例还公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述实施例公开的车辆检测方法。
关于上述车辆检测方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种车辆检测方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (7)
1.一种车辆检测方法,其特征在于,包括:
将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框;
利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框;
根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失;
当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出;
当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果;
所述根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,包括:根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本;基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
所述根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本,包括:
若所述3D可见框的长度、宽度、高度分别大于等于预设长度阈值、预设宽度阈值以及预设高度阈值,将满足第一预设筛选条件或第二预设筛选条件的锚点框确定为第一正样本;若所述目标车辆没有所述3D可见框,或所述3D可见框满足预设无效可见框条件,则将满足第三预设筛选条件或第四预设筛选条件的锚点框确定为第二正样本;其中,所述第一预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第一预设整体框覆盖度阈值,且该锚点框与所述3D可见框的第二覆盖度大于等于预设3D可见框覆盖度阈值;所述第二预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大的,且第一覆盖度大于0的锚点框;并且,所述预设无效可见框条件为所述3D可见框的长度小于所述预设长度阈值、或宽度小于所述预设宽度阈值、或高度小于所述预设高度阈值;所述第三预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第二预设整体框覆盖度阈值;所述第四预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大、且第一覆盖度大于0的锚点框;
将全部所述锚点框中非第一正样本、且非第二正样本、且与所有目标车辆的所述整体框的第一覆盖度均小于第三预设整体框覆盖度阈值的锚点框确定为负样本;
所述基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失,包括:利用所述第一正样本、所述第二正样本和所述负样本计算所述整体框对应的第一分类损失;利用所述第一正样本、所述第二正样本计算所述整体框对应的第一位姿回归损失以及朝向损失;利用所述第一正样本和所述负样本计算所述3D可见框的第二分类损失;利用所述第一正样本计算所述3D可见框的第二位姿回归损失。
2.根据权利要求1所述的车辆检测方法,其特征在于,所述从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,包括:
从所述LiDAR点云数据中直接确定出所述整体框中全部的LiDAR点,得到有效LiDAR点;
或,获取所述LiDAR点云数据对应的前景背景标注信息,并根据所述前景背景标注信息从所述LiDAR点云数据中确定出所述整体框中的前景LiDAR点,得到有效LiDAR点。
3.根据权利要求1所述的车辆检测方法,其特征在于,所述利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失,包括:
利用所述第一分类损失对应的权重参数、所述第一位姿回归损失对应的权重参数、所述朝向损失对应的权重参数、所述第二分类损失对应的权重参数以及所述第二位姿回归损失对应的权重参数,对所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失进行加权计算,得到综合训练损失。
4.根据权利要求1至3任一项所述的车辆检测方法,其特征在于,所述利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果,包括:
利用所述训练后模型确定所述待检测LiDAR点云数据对应的整体框的第一检测结果,以及所述3D可见框的第二检测结果;
利用所述第二检测结果和所述第二检测结果确定出所述待检测LiDAR点云数据对应的车辆检测结果。
5.一种车辆检测装置,其特征在于,包括车辆检测模型训练模块,以及车辆检测模块;其中,
所述车辆检测模型训练模块包括:
训练数据输入子模块,用于将训练数据输入车辆检测模型;其中,所述训练数据包括LiDAR点云数据以及为目标车辆标注的整体框;所述整体框为包裹所述目标车辆整体的标注框;
3D可见框生成子模块,用于利用所述车辆检测模型从所述LiDAR点云数据中确定出所述整体框中的有效LiDAR点,并利用所述目标车辆的所述有效LiDAR点生成所述目标车辆对应的3D可见框;其中,所述3D可见框为包裹所述目标车辆的全部所述有效LiDAR点的3D长方体框;
整体框和3D可见框损失计算子模块,用于根据锚点框计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
综合损失计算子模块,用于利用所述第一分类损失、所述第一位姿回归损失、所述朝向损失、所述第二分类损失以及所述第二位姿回归损失计算综合训练损失;
训练后模型输出子模块,用于当所述综合训练损失收敛,则将当前的车辆检测模型作为训练后模型输出;
所述车辆检测模块用于:当获取到待检测LiDAR点云数据,则利用所述训练后模型输出所述待检测LiDAR点云数据对应的车辆检测结果;
整体框和3D可见框损失计算子模块,具体包括:
样本选取单元,用于根据锚点框与所述整体框的第一覆盖度以及所述锚点框与所述3D可见框的第二覆盖度从所述锚点框中选取出正样本以及负样本;
损失计算单元,用于基于所述正样本和所述负样本计算所述整体框对应的第一分类损失、第一位姿回归损失、朝向损失,以及所述3D可见框对应的第二分类损失、第二位姿回归损失;
其中,样本选取单元,具体用于若所述3D可见框的长度、宽度、高度分别大于等于预设长度阈值、预设宽度阈值以及预设高度阈值,将满足第一预设筛选条件或第二预设筛选条件的锚点框确定为第一正样本;若所述目标车辆没有所述3D可见框,或所述3D可见框满足预设无效可见框条件,则将满足第三预设筛选条件或第四预设筛选条件的锚点框确定为第二正样本;其中,所述第一预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第一预设整体框覆盖度阈值,且该锚点框与所述3D可见框的第二覆盖度大于等于预设3D可见框覆盖度阈值;所述第二预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大的,且第一覆盖度大于0的锚点框;并且,所述预设无效可见框条件为所述3D可见框的长度小于所述预设长度阈值、或宽度小于所述预设宽度阈值、或高度小于所述预设高度阈值;所述第三预设筛选条件为锚点框与所述整体框的第一覆盖度大于等于第二预设整体框覆盖度阈值;所述第四预设筛选条件为锚点框为所有锚点框中与所述整体框的第一覆盖度最大、且第一覆盖度大于0的锚点框;将全部所述锚点框中非第一正样本、且非第二正样本、且与所有目标车辆的所述整体框的第一覆盖度均小于第三预设整体框覆盖度阈值的锚点框确定为负样本;
损失计算单元,具体用于利用所述第一正样本、所述第二正样本和所述负样本计算所述整体框对应的第一分类损失;利用所述第一正样本、所述第二正样本计算所述整体框对应的第一位姿回归损失以及朝向损失;利用所述第一正样本和所述负样本计算所述3D可见框的第二分类损失;利用所述第一正样本计算所述3D可见框的第二位姿回归损失。
6.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至4任一项所述的车辆检测方法。
7.一种计算机可读存储介质,其特征在于,用于保存计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的车辆检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111278729.1A CN114140660B (zh) | 2021-10-31 | 2021-10-31 | 一种车辆检测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111278729.1A CN114140660B (zh) | 2021-10-31 | 2021-10-31 | 一种车辆检测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114140660A CN114140660A (zh) | 2022-03-04 |
CN114140660B true CN114140660B (zh) | 2024-02-09 |
Family
ID=80391965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111278729.1A Active CN114140660B (zh) | 2021-10-31 | 2021-10-31 | 一种车辆检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114140660B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229174A (zh) * | 2023-03-10 | 2023-06-06 | 南京审计大学 | 一种基于空谱联合注意力机制的高光谱多类变化检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401264A (zh) * | 2020-03-19 | 2020-07-10 | 上海眼控科技股份有限公司 | 车辆目标检测方法、装置、计算机设备和存储介质 |
CN111401190A (zh) * | 2020-03-10 | 2020-07-10 | 上海眼控科技股份有限公司 | 车辆检测方法、装置、计算机设备和存储介质 |
CN111611947A (zh) * | 2020-05-25 | 2020-09-01 | 济南博观智能科技有限公司 | 一种车牌检测方法、装置、设备及介质 |
CN113112462A (zh) * | 2021-03-31 | 2021-07-13 | 同济大学 | 一种轻量化车辆检测方法、系统及计算机可读介质 |
-
2021
- 2021-10-31 CN CN202111278729.1A patent/CN114140660B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401190A (zh) * | 2020-03-10 | 2020-07-10 | 上海眼控科技股份有限公司 | 车辆检测方法、装置、计算机设备和存储介质 |
CN111401264A (zh) * | 2020-03-19 | 2020-07-10 | 上海眼控科技股份有限公司 | 车辆目标检测方法、装置、计算机设备和存储介质 |
CN111611947A (zh) * | 2020-05-25 | 2020-09-01 | 济南博观智能科技有限公司 | 一种车牌检测方法、装置、设备及介质 |
CN113112462A (zh) * | 2021-03-31 | 2021-07-13 | 同济大学 | 一种轻量化车辆检测方法、系统及计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114140660A (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113264066B (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
US11064178B2 (en) | Deep virtual stereo odometry | |
US20220051058A1 (en) | Unmanned driving behavior decision-making and model training | |
CN113052109A (zh) | 一种3d目标检测系统及其3d目标检测方法 | |
US20220156483A1 (en) | Efficient three-dimensional object detection from point clouds | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与系统 | |
CN115797736B (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN114022799A (zh) | 一种自监督单目深度估计方法和装置 | |
WO2022126522A1 (zh) | 物体识别方法、装置、可移动平台以及存储介质 | |
CN112967388A (zh) | 三维时序图像神经网络模型的训练方法和装置 | |
CN114140660B (zh) | 一种车辆检测方法、装置、设备及介质 | |
CN111127551A (zh) | 一种目标检测的方法及装置 | |
CN113895460B (zh) | 行人轨迹预测方法、装置及存储介质 | |
CN113822996B (zh) | 机器人的位姿估计方法及装置、电子设备、存储介质 | |
CN115187941A (zh) | 目标检测定位方法、系统、设备及存储介质 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN115952248A (zh) | 终端设备的位姿处理方法、装置、设备、介质及产品 | |
CN115586763A (zh) | 一种无人驾驶汽车避障测试设备 | |
CN116189150A (zh) | 基于融合输出的单目3d目标检测方法、装置、设备和介质 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
US11544899B2 (en) | System and method for generating terrain maps | |
CN114648639A (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN114140497A (zh) | 目标车辆3d实时追踪方法及系统 | |
CN112634331A (zh) | 一种光流预测方法及装置 | |
WO2020227933A1 (zh) | 一种六自由度姿态估计方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |