CN113420706B - 一种基于多层特征融合的车辆检测方法 - Google Patents
一种基于多层特征融合的车辆检测方法 Download PDFInfo
- Publication number
- CN113420706B CN113420706B CN202110755187.6A CN202110755187A CN113420706B CN 113420706 B CN113420706 B CN 113420706B CN 202110755187 A CN202110755187 A CN 202110755187A CN 113420706 B CN113420706 B CN 113420706B
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- layer
- feature fusion
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 69
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000012795 verification Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 4
- 241000282326 Felis catus Species 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000007306 functionalization reaction Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多层特征融合的车辆检测方法,包括如下步骤:步骤一:获取带有标注的车辆检测数据集;步骤二:针对训练集中车辆的尺寸重新设计先验框大小;步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果;步骤四:训练网络模型并测试网络性能。因此本发明能够提高网络对于小目标车辆的检测准确率并提高了检测速度。
Description
技术领域
本发明涉及图像目标检测领域,特别涉及一种基于多层特征融合的车辆检测方法。
背景技术
随着计算机技术以及人工智能的快速发展,图像目标检测技术近年来取得了突破性进展。车辆检测作为目标检测的一个分支,其目标是在图像或视频中检测出车辆相关信息,其在城市智能交通建设、自动驾驶等领域发挥着重要作用。
目标检测技术主要基于卷积神经网络,包括两个分支:两阶段检测方法与一阶段检测方法。两阶段检测方法包括R-CNN,Fast R-CNN,Faster R-CNN等,特点是精度高,但是检测速度较慢。一阶段检测方法包括SDD,YOLO系列等,特点是速度快,但是精度不如二阶段检测方法。由于车辆检测对于速度、精度有一定要求,所以一阶段方法更适合用于车辆检测。YOLO v4是YOLO系列第四代算法,它通过CSPDarknet53网络提取图像不同尺度特征并进行融合,通过不同尺度特征分别检测不同大小目标,使得它在检测速度和精度之间达到了较好的平衡。但是YOLO v4对于小目标的检测效果不够优秀,而车辆检测会包含大量小目标车辆,这使得YOLO v4不能很好的满足车辆检测要求。
发明内容
本发明的目的是在于提供一种基于多层特征融合的车辆检测方法,基于YOLO v4网络结构,通过加入新的特征层以及使用多层特征融合网络,提高网络对于小目标的检测精度和检测速度。
本发明提供的技术方案为:
一种基于多层特征融合的车辆检测方法,包括如下步骤:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集。
步骤二:针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸。
步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果。
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证。最后通过测试集评估网络性能。
优选的,所述步骤一中的数据集获取通过提取coco2017数据集中的车辆类别得到,将coco2017-train中提取的车辆图片90%作为训练集,10%作为验证集,将coco2017-test中提取的车辆图片作为测试集。
优选的,所述步骤二中的针对训练集中车辆的尺寸重新设计先验框大小包含如下步骤:
(1)随机选取九个框作为聚类中心框。
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚类中心心框和真实框的距离。将真实框划分到距离最近的一个簇中。
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心。
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
优选的,所述步骤三包括如下步骤:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入。当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512,19×19×1024。
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径。在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数。融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合。在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合。以特征层P3为例:
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练。
(3)特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积。
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果。
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置。所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果。
优选的,所述步骤四包括如下步骤:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,通过训练集训练网络模型,并通过验证集验证网络性能。在网络收敛后,保存训练好的模型,并通过测试集进行测试。
本发明的有益效果:
本发明提供了一种基于多层特征融合的车辆检测方法,基于YOLO v4网络模型,通过增加融合的特征层数并使用多层特征融合网络,提高网络对于小目标车辆的检测效果,通过使用深度可分离卷积降低模型参数量。最终得到的网络模型对小目标车辆具有较好的检测准确率并且检测速度较快。
附图说明
图1为本发明所述的一种基于多层特征融合的车辆检测方法的流程图。
图2为本发明所述的一种基于多层特征融合的车辆检测方法的网络结构图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字后能据以实施。
如图1所示,本发明提供了一种基于多层特征融合的车辆检测方法,首先建立车辆数据集,然后根据车辆尺寸重新设计先验框大小,再在YOLO v4网络模型上进行改进,通过将第二层特征加入融合,使用四个不同尺度的特征经过两次多层特征融合网络,将最后三层特征图传入分类回归预测网络进行预测。最后将网络在训练集上训练,保存模型后,在测试集上测试网络性能。所提出的方法对于小目标车辆检测具有较好效果,检测速度也高于YOLO v4。
其步骤如下:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集。
coco2017数据集作为常用的目标检测数据集,其具有丰富的类别,包含各种场景的图片,检测难度较大。选择coco数据集作为训练集,可以训练出更加鲁棒的网络。提取coco2017数据集中的车辆类别,coco2017包含80个类别,其中属于车辆的类别为car,bus,truck。将coco2017-train中的车辆图片提取出来,共16270张图片,其中90%作为训练集,10%作为验证集,将coco2017-test中的车辆图片提取出来,共707张图片,作为测试集。
步骤二:选择适合车辆尺寸的先验框有利于加速网络的回归和准确率,针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸,其步骤如下:
(1)随机选取九个框作为聚类中心框。
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚
类中心心框和真实框的距离。将真实框划分到距离最近的一个簇中。
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心。
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
最终得到的9个先验框尺寸分别为(12,10),(21,19),(29,38),(43,24),(48,72),(74,42),(108,93),(193,188),(447,388)。
步骤三:网络结构如图2所示,因为YOLO v4的主干特征提取网络CSPdarknet 53具有较好的性能,能够提取出图片不同尺度的特征,使用CSPdarknet 53网络提取特征,额外将第二层特征加入融合,使用四个不同尺度的特征经过两次多层特征融合网络,将最后三层特征图传入分类回归预测网络进行预测。其步骤如下:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入。当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512,19×19×1024。
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径。在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数。融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合。在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合。以特征层P3为例:
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练。
(3)为了降低模型参数量,加快模型速度,特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积。使用深度可分离卷积,在保持网络检测精度的同时,融合网络的参数量下降到1/3。
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,通过多次特征融合使融合的特征更加精细。最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果。
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,阈值设定为0.5,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置。所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果。
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证。最后通过测试集评估网络性能。其步骤如下:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,选择adam优化器,为了加速模型训练,加载预训练的YOLO v4中CSPDarknet53模型参数作为预训练权重,首先冻结CSPDarknet53部分,批量大小设置为16,初始学习率为0.001,采用余弦退火衰减法,进行50000次迭代。然后解冻整个网络,学习率调整为0.0001,进行50000次迭代,保存最终的网络模型参数。测试集包含707张图片,将网络模型在测试集上进行评估。尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (4)
1.一种基于多层特征融合的车辆检测方法,其特征在于,包括如下步骤:
步骤一:获取带有标注的车辆检测数据集,划分训练集、验证集、测试集;
步骤二:针对训练集中车辆的尺寸重新设计先验框大小,使用k-means聚类方法,得到9个聚类中心作为先验框的尺寸;
步骤三:使用YOLO v4的主干特征提取网络CSPdarknet 53,将提取到的四个不同尺度的特征作为输入传入多层特征融合网络,经过两次多层特征融合网络,将输出的三个不同尺度特征图传入分类回归预测网络得到最终预测结果;
具体包括如下步骤:
(1)CSPdarknet 53包含5个带有残差边的CSPResblock,将第二到第五个CSPResblock输出的四个特征层作为多层特征融合网络的输入;当输入图像大小为608×608×3时,四个特征层大小分别为152×152×128,76×76×256,38×38×512和19×19×1024;
(2)多层特征融合网络包含自下而上和自上而下的两个特征融合路径;在自下而上的特征融合路径中,考虑到不同层特征对于融合的贡献是不同的,当前层特征会与下层所有特征加权后进行融合,其中权重是可以学习的参数;融合结果经过五次卷积后一部分作为自上而下融合路径的输入,一部分上采样后与上层特征进行融合;在自上而下的特征融合路径中,当前层特征会与上层所有特征层加权后进行融合,融合结果经过三次卷积后,一部分作为多层特征融合网络的输出,一部分经过下采样与下层特征层进行融合;以特征层P3为例:
其中,P3 in,P4 in,P5 in为对应特征层的输入,P3 td是中间特征层,P2 out,P3 out为对应特征层的输出,w1,w2,w3是可以学习的权重,up是上采样,down是下采样,cat是特征层拼接操作;其中,权重的计算方式为:
wi首先初始化为1,经过Relu激活函数以及归一化操作后,作为一个可以学习的参数参与网络训练;
(3)特征融合网络中的3×3卷积使用深度可分离卷积,每次深度可分离卷积首先进行逐通道的3×3卷积,然后进行逐点的1×1卷积;
(4)将第一个多层特征融合网络的输出作为下一个多层特征融合网络的输入,一共经过两次多层特征融合网络,最终将P3,P4,P5特征图输入分类回归预测网络得到最终的预测结果;
(5)分类回归预测网络预测目标框偏移量、置信度、分类得分,根据置信度判断目标是否为背景,如果不是背景则根据分类得分判断类别,再根据目标框偏移量判断目标实际位置;所有目标框最后会经过非极大值抑制消除冗余目标框,得到最终的预测结果;
步骤四:通过训练集训练网络模型并在训练过程中使用验证集对模型进行验证;最后通过测试集评估网络性能。
2.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤一中的数据集获取通过提取coco2017数据集中的车辆类别得到,将coco2017-train中提取的车辆图片90%作为训练集,10%作为验证集,将coco2017-test中提取的车辆图片作为测试集。
3.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤二中的针对训练集中车辆的尺寸重新设计先验框大小包含如下步骤:
(1)随机选取九个框作为聚类中心框;
(2)计算真实框和聚类中心框的距离,公式如下:
d(B,C)=1-IOU(B,C)
其中B代表真实框,C代表聚类中心框,IOU代表交并比,d代表聚类中心心框和真实框的距离;将真实框划分到距离最近的一个簇中;
(3)所有真实框划分完毕后,对每个簇重新计算聚类中心;
(4)重复步骤(2)和(3),直到聚类中心收敛,将9个聚类中心作为先验框。
4.根据权利要求1所述的基于多层特征融合的车辆检测方法,其特征在于,步骤四包括如下步骤:
训练集包含14643张图片,验证集包含1627张图片,输入尺寸为608×608×3,通过训练集训练网络模型,并通过验证集验证网络性能;在网络收敛后,保存训练好的模型,并通过测试集进行测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110755187.6A CN113420706B (zh) | 2021-07-05 | 2021-07-05 | 一种基于多层特征融合的车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110755187.6A CN113420706B (zh) | 2021-07-05 | 2021-07-05 | 一种基于多层特征融合的车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420706A CN113420706A (zh) | 2021-09-21 |
CN113420706B true CN113420706B (zh) | 2022-05-24 |
Family
ID=77720374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110755187.6A Active CN113420706B (zh) | 2021-07-05 | 2021-07-05 | 一种基于多层特征融合的车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420706B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445689B (zh) * | 2022-01-29 | 2024-07-26 | 福州大学 | 目标先验信息指导的多尺度加权融合目标检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108039044A (zh) * | 2017-12-05 | 2018-05-15 | 安徽大学 | 基于多尺度卷积神经网络的车辆智能排队的系统及方法 |
CN109886312A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法 |
CN109934163A (zh) * | 2018-12-27 | 2019-06-25 | 北京航空航天大学 | 一种基于场景先验和特征再融合的航空图像车辆检测方法 |
CN110766643A (zh) * | 2019-10-28 | 2020-02-07 | 电子科技大学 | 一种面向眼底图像的微动脉瘤检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416327B (zh) * | 2018-03-28 | 2022-04-29 | 京东方科技集团股份有限公司 | 一种目标检测方法、装置、计算机设备及可读存储介质 |
-
2021
- 2021-07-05 CN CN202110755187.6A patent/CN113420706B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108039044A (zh) * | 2017-12-05 | 2018-05-15 | 安徽大学 | 基于多尺度卷积神经网络的车辆智能排队的系统及方法 |
CN109934163A (zh) * | 2018-12-27 | 2019-06-25 | 北京航空航天大学 | 一种基于场景先验和特征再融合的航空图像车辆检测方法 |
CN109886312A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法 |
CN110766643A (zh) * | 2019-10-28 | 2020-02-07 | 电子科技大学 | 一种面向眼底图像的微动脉瘤检测方法 |
Non-Patent Citations (1)
Title |
---|
基于特征融合SSD的远距离车辆检测方法;刘鸣瑄 等;《国外电子测量技术》;20200215(第02期);第33-37页第2-3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN113420706A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
CN109657584B (zh) | 辅助驾驶的改进LeNet-5融合网络交通标志识别方法 | |
CN110619369B (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
CN107209873B (zh) | 用于深度卷积网络的超参数选择 | |
EP3690740B1 (en) | Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same | |
CN111931902B (zh) | 一种生成对抗网络模型、及利用该生成对抗网络模型的车辆轨迹预测方法 | |
CN107832835A (zh) | 一种卷积神经网络的轻量化方法及装置 | |
CN109993082A (zh) | 卷积神经网络道路场景分类与道路分割方法 | |
EP3690741A2 (en) | Method for automatically evaluating labeling reliability of training images for use in deep learning network to analyze images, and reliability-evaluating device using the same | |
CN112633149B (zh) | 一种域自适应雾天图像目标检测方法和装置 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN101964063A (zh) | 一种改进的AdaBoost分类器构造方法 | |
CN116110022A (zh) | 基于响应知识蒸馏的轻量化交通标志检测方法及系统 | |
CN112990065A (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
CN115761735A (zh) | 一种基于自适应伪标签纠正的半监督语义分割方法 | |
CN111507488A (zh) | 一种基于vr的车辆维修保养辅助系统 | |
CN111144462B (zh) | 一种雷达信号的未知个体识别方法及装置 | |
CN113420706B (zh) | 一种基于多层特征融合的车辆检测方法 | |
CN114119966A (zh) | 基于多视角学习与元学习的小样本目标检测方法 | |
CN117611932A (zh) | 基于双重伪标签细化和样本重加权的图像分类方法及系统 | |
CN107909021A (zh) | 一种基于单个深层卷积神经网络的路牌检测方法 | |
CN114972725B (zh) | 模型训练方法、可读介质和电子设备 | |
CN114912719B (zh) | 一种基于图神经网络的异质交通个体轨迹协同预测方法 | |
CN114926819A (zh) | 一种复杂场景的未知异常障碍物识别方法及系统 | |
CN112766533A (zh) | 一种基于多策略改进gwo_bp神经网络的共享单车需求预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |