CN113420706A - 一种基于多层特征融合的车辆检测方法 - Google Patents

一种基于多层特征融合的车辆检测方法 Download PDF

Info

Publication number
CN113420706A
CN113420706A CN202110755187.6A CN202110755187A CN113420706A CN 113420706 A CN113420706 A CN 113420706A CN 202110755187 A CN202110755187 A CN 202110755187A CN 113420706 A CN113420706 A CN 113420706A
Authority
CN
China
Prior art keywords
network
feature
layer
feature fusion
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110755187.6A
Other languages
English (en)
Other versions
CN113420706B (zh
Inventor
王玉
李涵宇
申铉京
黄永平
刘同壮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202110755187.6A priority Critical patent/CN113420706B/zh
Publication of CN113420706A publication Critical patent/CN113420706A/zh
Application granted granted Critical
Publication of CN113420706B publication Critical patent/CN113420706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多层特征融合的车辆检测方法,包括如下步骤:步骤一:获取带有标注的车辆检测数据集;步骤二:针对训练集中车辆的尺寸重新设计先验框大小;步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果;步骤四:训练网络模型并测试网络性能。因此本发明能够提高网络对于小目标车辆的检测准确率并提高了检测速度。

Description

一种基于多层特征融合的车辆检测方法
技术领域
本发明涉及图像目标检测领域,特别涉及一种基于多层特征融合的车辆检测方法。
背景技术
随着计算机技术以及人工智能的快速发展,图像目标检测技术近年来取得了突破性进展。车辆检测作为目标检测的一个分支,其目标是在图像或视频中检测出车辆相关信息,其在城市智能交通建设、自动驾驶等领域发挥着重要作用。
目标检测技术主要基于卷积神经网络,包括两个分支:两阶段检测方法与一阶段检测方法。两阶段检测方法包括R-CNN,Fast R-CNN,Faster R-CNN等,特点是精度高,但是检测速度较慢。一阶段检测方法包括SDD,YOLO系列等,特点是速度快,但是精度不如二阶段检测方法。由于车辆检测对于速度、精度有一定要求,所以一阶段方法更适合用于车辆检测。YOLO v4是YOLO系列第四代算法,它通过CSPDarknet53网络提取图像不同尺度特征并进行融合,通过不同尺度特征分别检测不同大小目标,使得它在检测速度和精度之间达到了较好的平衡。但是YOLO v4对于小目标的检测效果不够优秀,而车辆检测会包含大量小目标车辆,这使得YOLO v4不能很好的满足车辆检测要求。
发明内容
本发明的目的是在于提供一种基于多层特征融合的车辆检测方法,基于YOLO v4网络结构,通过加入新的特征层以及使用多层特征融合网络,提高网络对于小目标的检测精度和检测速度。
本发明提供的技术方案为:
一种基于多层特征融合的车辆检测方法,包括如下步骤:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集。
步骤二:针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸。
步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果。
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证。最后通过测试集评估网络性能。
优选的,所述步骤一中的数据集获取通过提取coco2017数据集中的车辆类别得到,将coco2017-train中提取的车辆图片90%作为训练集,10%作为验证集,将coco2017-test中提取的车辆图片作为测试集。
优选的,所述步骤二中的针对训练集中车辆的尺寸重新设计先验框大小包含如下步骤:
(1)随机选取九个框作为聚类中心框。
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚类中心心框和真实框的距离。将真实框划分到距离最近的一个簇中。
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心。
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
优选的,所述步骤三包括如下步骤:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入。当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512,19×19×1024。
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径。在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数。融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合。在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合。以特征层P3为例:
Figure BDA0003147050440000021
Figure BDA0003147050440000022
其中,
Figure BDA0003147050440000023
为对应特征层的输入,
Figure BDA0003147050440000024
是中间特征层,
Figure BDA0003147050440000025
为对应特征层的输出,w1,w2,w3是可以学习的权重,up是上采样,down是下采样,cat是特征层拼接操作。其中,权重的计算方式为:
Figure BDA0003147050440000026
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练。
(3)特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积。
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果。
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置。所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果。
优选的,所述步骤四包括如下步骤:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,通过训练集训练网络模型,并通过验证集验证网络性能。在网络收敛后,保存训练好的模型,并通过测试集进行测试。
本发明的有益效果:
本发明提供了一种基于多层特征融合的车辆检测方法,基于YOLO v4网络模型,通过增加融合的特征层数并使用多层特征融合网络,提高网络对于小目标车辆的检测效果,通过使用深度可分离卷积降低模型参数量。最终得到的网络模型对小目标车辆具有较好的检测准确率并且检测速度较快。
附图说明
图1为本发明所述的一种基于多层特征融合的车辆检测方法的流程图。
图2为本发明所述的一种基于多层特征融合的车辆检测方法的网络结构图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字后能据以实施。
如图1所示,本发明提供了一种基于多层特征融合的车辆检测方法,首先建立车辆数据集,然后根据车辆尺寸重新设计先验框大小,再在YOLO v4网络模型上进行改进,通过将第二层特征加入融合,使用四个不同尺度的特征经过两次多层特征融合网络,将最后三层特征图传入分类回归预测网络进行预测。最后将网络在训练集上训练,保存模型后,在测试集上测试网络性能。所提出的方法对于小目标车辆检测具有较好效果,检测速度也高于YOLO v4。
其步骤如下:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集。
coco2017数据集作为常用的目标检测数据集,其具有丰富的类别,包含各种场景的图片,检测难度较大。选择coco数据集作为训练集,可以训练出更加鲁棒的网络。提取coco2017数据集中的车辆类别,coco2017包含80个类别,其中属于车辆的类别为car,bus,truck。将coco2017-train中的车辆图片提取出来,共16270张图片,其中90%作为训练集,10%作为验证集,将coco2017-test中的车辆图片提取出来,共707张图片,作为测试集。
步骤二:选择适合车辆尺寸的先验框有利于加速网络的回归和准确率,针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸,其步骤如下:
(1)随机选取九个框作为聚类中心框。
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚
类中心心框和真实框的距离。将真实框划分到距离最近的一个簇中。
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心。
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
最终得到的9个先验框尺寸分别为(12,10),(21,19),(29,38),(43,24),(48,72),(74,42),(108,93),(193,188),(447,388)。
步骤三:网络结构如图2所示,因为YOLO v4的主干特征提取网络CSPdarknet 53具有较好的性能,能够提取出图片不同尺度的特征,使用CSPdarknet 53网络提取特征,额外将第二层特征加入融合,使用四个不同尺度的特征经过两次多层特征融合网络,将最后三层特征图传入分类回归预测网络进行预测。其步骤如下:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入。当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512,19×19×1024。
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径。在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数。融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合。在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合。以特征层P3为例:
Figure BDA0003147050440000051
Figure BDA0003147050440000052
其中,
Figure BDA0003147050440000053
为对应特征层的输入,
Figure BDA0003147050440000054
是中间特征层,
Figure BDA0003147050440000055
为对应特征层的输出,w1,w2,w3是可以学习的权重,up是上采样,down是下采样,cat是特征层拼接操作。其中,权重的计算方式为:
Figure BDA0003147050440000056
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练。
(3)为了降低模型参数量,加快模型速度,特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积。使用深度可分离卷积,在保持网络检测精度的同时,融合网络的参数量下降到1/3。
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,通过多次特征融合使融合的特征更加精细。最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果。
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,阈值设定为0.5,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置。所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果。
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证。最后通过测试集评估网络性能。其步骤如下:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,选择adam优化器,为了加速模型训练,加载预训练的YOLO v4中CSPDarknet53模型参数作为预训练权重,首先冻结CSPDarknet53部分,批量大小设置为16,初始学习率为0.001,采用余弦退火衰减法,进行50000次迭代。然后解冻整个网络,学习率调整为0.0001,进行50000次迭代,保存最终的网络模型参数。测试集包含707张图片,将网络模型在测试集上进行评估。尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (5)

1.一种基于多层特征融合的车辆检测方法,其特征在于,包括如下步骤:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集;
步骤二:针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸;
步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果;
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证;最后通过测试集评估网络性能。
2.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤一中的数据集获取通过提取coco2017数据集中的车辆类别得到,将coco2017-train中提取的车辆图片90%作为训练集,10%作为验证集,将coco2017-test中提取的车辆图片作为测试集。
3.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤二中的针对训练集中车辆的尺寸重新设计先验框大小包含如下步骤:
(1)随机选取九个框作为聚类中心框;
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚类中心心框和真实框的距离;将真实框划分到距离最近的一个簇中;
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心;
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
4.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤三包括如下步骤:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入;当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512和19×19×1024;
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径;在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数;融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合;在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合;以特征层P3为例:
Figure FDA0003147050430000021
Figure FDA0003147050430000022
其中,
Figure FDA0003147050430000023
为对应特征层的输入,
Figure FDA0003147050430000024
是中间特征层,
Figure FDA0003147050430000025
为对应特征层的输出,w1,w2,w3是可以学习的权重,up是上采样,down是下采样,cat是特征层拼接操作;其中,权重的计算方式为:
Figure FDA0003147050430000026
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练;
(3)特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积;
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果;
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置;所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果。
5.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤四包括如下步骤:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,通过训练集训练网络模型,并通过验证集验证网络性能;在网络收敛后,保存训练好的模型,并通过测试集进行测试。
CN202110755187.6A 2021-07-05 2021-07-05 一种基于多层特征融合的车辆检测方法 Active CN113420706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110755187.6A CN113420706B (zh) 2021-07-05 2021-07-05 一种基于多层特征融合的车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110755187.6A CN113420706B (zh) 2021-07-05 2021-07-05 一种基于多层特征融合的车辆检测方法

Publications (2)

Publication Number Publication Date
CN113420706A true CN113420706A (zh) 2021-09-21
CN113420706B CN113420706B (zh) 2022-05-24

Family

ID=77720374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110755187.6A Active CN113420706B (zh) 2021-07-05 2021-07-05 一种基于多层特征融合的车辆检测方法

Country Status (1)

Country Link
CN (1) CN113420706B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445689A (zh) * 2022-01-29 2022-05-06 福州大学 目标先验信息指导的多尺度加权融合目标检测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108039044A (zh) * 2017-12-05 2018-05-15 安徽大学 基于多尺度卷积神经网络的车辆智能排队的系统及方法
CN109886312A (zh) * 2019-01-28 2019-06-14 同济大学 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法
CN109934163A (zh) * 2018-12-27 2019-06-25 北京航空航天大学 一种基于场景先验和特征再融合的航空图像车辆检测方法
US20190303731A1 (en) * 2018-03-28 2019-10-03 Boe Technology Group Co., Ltd. Target detection method and device, computing device and readable storage medium
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108039044A (zh) * 2017-12-05 2018-05-15 安徽大学 基于多尺度卷积神经网络的车辆智能排队的系统及方法
US20190303731A1 (en) * 2018-03-28 2019-10-03 Boe Technology Group Co., Ltd. Target detection method and device, computing device and readable storage medium
CN109934163A (zh) * 2018-12-27 2019-06-25 北京航空航天大学 一种基于场景先验和特征再融合的航空图像车辆检测方法
CN109886312A (zh) * 2019-01-28 2019-06-14 同济大学 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘鸣瑄 等: "基于特征融合SSD的远距离车辆检测方法", 《国外电子测量技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445689A (zh) * 2022-01-29 2022-05-06 福州大学 目标先验信息指导的多尺度加权融合目标检测方法及系统

Also Published As

Publication number Publication date
CN113420706B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
WO2022083784A1 (zh) 一种基于车联网的道路检测方法
CN110097755B (zh) 基于深度神经网络的高速公路交通流量状态识别方法
CN109993082B (zh) 卷积神经网络道路场景分类与道路分割方法
CN109657584B (zh) 辅助驾驶的改进LeNet-5融合网络交通标志识别方法
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
EP3690740B1 (en) Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same
CN111931902B (zh) 一种生成对抗网络模型、及利用该生成对抗网络模型的车辆轨迹预测方法
CN107832835A (zh) 一种卷积神经网络的轻量化方法及装置
EP3690741A2 (en) Method for automatically evaluating labeling reliability of training images for use in deep learning network to analyze images, and reliability-evaluating device using the same
CN112633149B (zh) 一种域自适应雾天图像目标检测方法和装置
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN112990065A (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN110852358A (zh) 一种基于深度学习的车辆类型判别方法
CN111144462B (zh) 一种雷达信号的未知个体识别方法及装置
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN114119966A (zh) 基于多视角学习与元学习的小样本目标检测方法
CN113420706B (zh) 一种基于多层特征融合的车辆检测方法
CN116110022A (zh) 基于响应知识蒸馏的轻量化交通标志检测方法及系统
CN115761735A (zh) 一种基于自适应伪标签纠正的半监督语义分割方法
CN113642114A (zh) 可犯错的拟人化随机跟车驾驶行为建模方法
CN113139592A (zh) 基于深度残差U-Net的月球陨石坑识别方法、设备及存储介质
CN110458013B (zh) 一种基于实例级注意机制的交通异常事件检测方法
CN114912719B (zh) 一种基于图神经网络的异质交通个体轨迹协同预测方法
CN114972725B (zh) 模型训练方法、可读介质和电子设备
CN114926819A (zh) 一种复杂场景的未知异常障碍物识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant