CN113505724A - 基于YOLOv4的交通标志识别模型训练方法及系统 - Google Patents

基于YOLOv4的交通标志识别模型训练方法及系统 Download PDF

Info

Publication number
CN113505724A
CN113505724A CN202110838499.3A CN202110838499A CN113505724A CN 113505724 A CN113505724 A CN 113505724A CN 202110838499 A CN202110838499 A CN 202110838499A CN 113505724 A CN113505724 A CN 113505724A
Authority
CN
China
Prior art keywords
training
traffic sign
model
network
yolov4
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110838499.3A
Other languages
English (en)
Other versions
CN113505724B (zh
Inventor
李文举
张干
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN202110838499.3A priority Critical patent/CN113505724B/zh
Publication of CN113505724A publication Critical patent/CN113505724A/zh
Application granted granted Critical
Publication of CN113505724B publication Critical patent/CN113505724B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种、基于YOLOv4的交通标志识别模型训练方法,包括如下步骤:获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。本发明中的主干网络在检测方面效果更好,缓解了数据分布不均衡的问题,增强了网络的特征提取能力。

Description

基于YOLOv4的交通标志识别模型训练方法及系统
技术领域
本发明涉及自动驾驶系统,具体地,涉及一种基于YOLOv4的交通标志识别模型训练方法及系统。
背景技术
近年来,无人驾驶汽车因具有安全、高效等优点受到社会的广泛关注,Google的无人驾驶车队已经在多个州进行了试运行,但在试运行期间发生了多起交通事故。由此可以看出道路交通标志的检测与识别对于改善自动驾驶系统的安全性和可靠性具有重要意义。
随着目标检测算法的迅猛发展以及安全性能在无人驾驶领域愈发受到重视,深度学习被广泛应用于道路交通标志方面的研究。刘胜等使用基于多尺度特征融合的交通标志识别网络充分利用多尺度特征实现了对小尺寸交通标志检测性能的提升;郭璠等通过对检测分支特征在通道和空间2个维度进行重新标定,使网络聚焦和增强有效特征;毕强将传统HOG特征与轻量级SSD在Conv4-2卷积层的卷积特征进行融合,再将获得的融合特征进行目标检测的方法,增强了轻量级SSD在该卷积层的语义信息,提高了对小目标检测的能力。
目前的无人驾驶技术存在极大的安全隐患,车顶传感器中配备的交通标志识别技术易受光线、遮挡和天气的影响,在不同环境中对道路交通标志的检测效果有较大差异,从而导致交通事故,所以需要一种有效的方法来提高道路交通标志的检测精度。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于YOLOv4的交通标志识别模型训练方法。
根据本发明提供的基于YOLOv4的交通标志识别模型训练方法,包括如下步骤:
步骤S1:获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
步骤S2:获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
步骤S3:通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
优选地,所述交通标志数据集采用TT100K数据集和CCTSDB数据集中的部分图片,并将数据集依次转换为VOC格式、YOLO格式生成。
优选地,在对所述目标训练模型进行训练时,每1000次迭代保存一次权重,并更新最佳权重和最后权重直到迭代次数达到最大值。
优选地,通过所述测试集对训练后的所述目标训练模型进行测试时,首先加载预训练权重,读取测试集中的每一张测试图片,将测试图片送入所述目标训练模型网络进行预测,得到预测框后进行非极大值抑制后画出检测框和预测结果,保存标记了预测标签的训练图片;最后计算mAP指标和Recall指标。
优选地,在通过所述目标训练模型网络进行预测时,批归一化是通过移动平均估算整个测试数据集的样本均值和方差,并在预测时根据所述样本均值和方差确定输出的预测结果。
优选地,所述mAP指标的计算方法如下:
步骤M1:计算单个类别的查准率P,其公式如下:
Figure BDA0003178056460000021
其中,p代表单个类别的查准率,True positives代表单个类别被模型预测为正的正样本数,Total object代表单个类别被模型预测为正的正样本数与被模型预测为正的负样本数之和;
步骤M2:根据单个类别的查准率P,分别计算每个类别的平均精度AP,其公式如下:
Figure BDA0003178056460000022
其中,AP代表每个类别的平均精度,∑p代表所有图片的精度之和,Total images代表所有图片之和;
步骤M3::根据所得的单个类别平均精度,计算所有类别的平均精度,其公式如下
Figure BDA0003178056460000031
其中,mAP代表所有类别的平均精度,∑AP代表所有类别的精度之和,Totalclasscs代表类别数。
优选地,所述交通标志识别模型选取CIoU作为损失函数。
本发明提供的基于YOLOv4的交通标志识别模型训练系统,包括如下模块:
数据获取模块,用于获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
模型建立模块,用于获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
模型训练模块,用于通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
与现有技术相比,本发明具有如下的有益效果:
1、本发明从感受野和参数量两个角度考虑,采用主干网络CSPDarkNet53,能够在检测方面实现更好的检测效果;
2、与原始的TT100K数据集相比,本发明将CCSUST数据集中包含低精度类别的图片选取出来并进行手动标注,以此作为TT100K数据集的扩充,缓解了数据分布不均衡的问题;
3、本发明将BiFPN网络作为特征融合的方法,代替YOLOV4原本的路径聚合网络PANet,增加了跨层连接,即添加一条额外的特征融合路径,将原本的两路特征融合增加为三路特征融合,在不增加代价的同时融合更多的特征,增强了网络的特征提取能力;
4、本发明选取CIoU作为损失函数,在DIoU的基础上增加了长和宽的损失使得预测框与真实框的重合率更高并解决以下问题:如果两个物体不重叠,则IoU值将为零,并且不会反映两个形状彼此之间的距离;在物体不重叠的情况下,其梯度为零并且无法对其进行优化。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中基于YOLOv4的交通标志识别模型训练方法的步骤流程图;
图2为本发明实施例中YOLOv4网络结构的结构示意图;
图3为本发明实施例中手动标注数据集的示意图;
图4为本发明实施例中三种路径聚合网络的对比示意图;
图5为本发明实施例中基于YOLOv4的交通标志识别模型训练系统的模块示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
图1为本发明实施例中基于YOLOv4的交通标志识别模型训练方法的步骤流程图,如图1所示,本发明提供的基于YOLOv4的交通标志识别模型训练方法,包括如下步骤:
步骤S1:获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
在本发明实施例中,所述交通标志数据集采用TT100K数据集和CCTSDB数据集中的部分图片,并将数据集依次转换为VOC格式、YOLO格式生成。作为扩充的部分图片中包含的可以是CCTSDB数据集中几种低精度类别的实例,而后使用图像标注工具labelImg对这些图片进行手动标注,以此作为对TT100K数据集的补充。
步骤S2:获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
在本发明实施例中,通过分析整合YOLOv4网络结构,将YOLOv4网络中原本的路径聚合网络PANet替换为准确度和效率更加均衡的BiFPN网络,通过增加跨层连接,即添加一条额外的路径,在不增加代价的同时将更多的特征融合在一起,防止信息在多层传递时流失。由于三条路径的输出特征图大小相等,因此可以直接进行Concat融合,而不需要额外增加权重。
步骤S3:通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
在本发明实施例中,解析网络配置,启动加载数据的线程后开始训练网络,在对所述目标训练模型进行训练时,每1000次迭代保存一次权重,并更新最佳权重和最后权重直到迭代次数达到最大值,该最大值可以为经验值或设定值。
在训练时,从指定数据文件中读取数据信息,找出训练集的路径信息,没找到则使用默认路径下的图片信息。
对测试集进行测试时,从指定配置文件中读取数据信息,获取测试集的名称,路径,所有类别名称并对应xml文件中定义的分类,解析配置并构建网络。
通过所述测试集对训练后的所述目标训练模型进行测试时,首先加载预训练权重,读取测试集中的每一张测试图片,将测试图片送入所述目标训练模型网络进行预测,得到预测框后进行非极大值抑制后画出检测框和预测结果,保存标记了预测标签的训练图片;最后计算mAP指标和Recall指标。
在本发明实施例中,在通过所述目标训练模型网络进行预测时,批归一化是通过移动平均估算整个测试数据集的样本均值和方差,并在预测时根据所述样本均值和方差确定输出的预测结果。
所述mAP指标的计算方法如下:
步骤M1:计算单个类别的查准率P,其公式如下:
Figure BDA0003178056460000051
其中,p代表单个类别的查准率,True positives代表单个类别被模型预测为正的正样本数,Total object代表单个类别被模型预测为正的正样本数与被模型预测为正的负样本数之和;
步骤M2:根据单个类别的查准率P,分别计算每个类别的平均精度AP,其公式如下:
Figure BDA0003178056460000052
其中,AP代表每个类别的平均精度,∑p代表所有图片的精度之和,Total images代表所有图片之和;
步骤M3::根据所得的单个类别平均精度,计算所有类别的平均精度,其公式如下
Figure BDA0003178056460000061
其中,mAP代表所有类别的平均精度,∑AP代表所有类别的精度之和,Totalclasscs代表类别数。
在本发明实施例中,所述交通标志识别模型选取CIoU作为损失函数。
图5为本发明实施例中基于YOLOv4的交通标志识别模型训练系统的模块示意图,如图5所示,本发明提供的基于YOLOv4的交通标志识别模型训练系统,包括如下模块:
数据获取模块,用于获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
模型建立模块,用于获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
模型训练模块,用于通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
在本发明实施例中,本发明从感受野和参数量两个角度考虑,采用主干网络CSPDarkNet53,能够在检测方面实现更好的检测效果;与原始的TT100K数据集相比,本发明将CCSUST数据集中包含低精度类别的图片选取出来并进行手动标注,以此作为TT100K数据集的扩充,缓解了数据分布不均衡的问题;本发明将BiFPN网络作为特征融合的方法,代替YOLOV4原本的路径聚合网络PANet,增加了跨层连接,即添加一条额外的特征融合路径,将原本的两路特征融合增加为三路特征融合,在不增加代价的同时融合更多的特征,增强了网络的特征提取能力;本发明选取CIoU作为损失函数,在DIoU的基础上增加了长和宽的损失使得预测框与真实框的重合率更高并解决以下问题:如果两个物体不重叠,则IoU值将为零,并且不会反映两个形状彼此之间的距离;在物体不重叠的情况下,其梯度为零并且无法对其进行优化。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (8)

1.一种基于YOLOv4的交通标志识别模型训练方法,其特征在于,包括如下步骤:
步骤S1:获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
步骤S2:获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
步骤S3:通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
2.根据权利要求1所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,所述交通标志数据集采用TT100K数据集和CCTSDB数据集中的部分图片,并将数据集依次转换为VOC格式、YOLO格式生成。
3.根据权利要求1所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,在对所述目标训练模型进行训练时,每1000次迭代保存一次权重,并更新最佳权重和最后权重直到迭代次数达到最大值。
4.根据权利要求1所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,通过所述测试集对训练后的所述目标训练模型进行测试时,首先加载预训练权重,读取测试集中的每一张测试图片,将测试图片送入所述目标训练模型网络进行预测,得到预测框后进行非极大值抑制后画出检测框和预测结果,保存标记了预测标签的训练图片;最后计算mAP指标和Recall指标。
5.根据权利要求4所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,在通过所述目标训练模型网络进行预测时的批归一化是通过移动平均估算整个测试数据集的样本均值和方差,并在预测时根据所述样本均值和方差确定输出的预测结果。
6.根据权利要求4所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,所述mAP指标的计算方法如下:
步骤M1:计算单个类别的查准率P,其公式如下:
Figure FDA0003178056450000011
其中,p代表单个类别的查准率,True positives代表单个类别被模型预测为正的正样本数,Total object代表单个类别被模型预测为正的正样本数与被模型预测为正的负样本数之和;
步骤M2:根据单个类别的查准率P,分别计算每个类别的平均精度AP,其公式如下:
Figure FDA0003178056450000021
其中,AP代表每个类别的平均精度,∑p代表所有图片的精度之和,Total images代表所有图片之和;
步骤M3::根据所得的单个类别平均精度,计算所有类别的平均精度,其公式如下
Figure FDA0003178056450000022
其中,mAP代表所有类别的平均精度,∑AP代表所有类别的精度之和,Total classcs代表类别数。
7.根据权利要求4所述的基于YOLOv4的交通标志识别模型训练方法,其特征在于,所述交通标志识别模型选取CIoU作为损失函数。
8.一种基于YOLOv4的交通标志识别模型训练系统,其特征在于,包括如下模块:
数据获取模块,用于获取交通标志数据集,将所述交通标志数据集划分为训练集和测试集;
模型建立模块,用于获取YOLOv4网络结构,将所述YOLOv4网络结构中主干网络的PANet路径聚合网络替换BiFPN网络生成目标训练模型;
模型训练模块,用于通过所述训练集对所述目标训练模型进行训练,并通过所述测试集对训练后的所述目标训练模型进行测试生成所述交通标志识别模型。
CN202110838499.3A 2021-07-23 2021-07-23 基于YOLOv4的交通标志识别模型训练方法及系统 Active CN113505724B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110838499.3A CN113505724B (zh) 2021-07-23 2021-07-23 基于YOLOv4的交通标志识别模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110838499.3A CN113505724B (zh) 2021-07-23 2021-07-23 基于YOLOv4的交通标志识别模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN113505724A true CN113505724A (zh) 2021-10-15
CN113505724B CN113505724B (zh) 2024-04-19

Family

ID=78013966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110838499.3A Active CN113505724B (zh) 2021-07-23 2021-07-23 基于YOLOv4的交通标志识别模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN113505724B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049572A (zh) * 2021-10-30 2022-02-15 西南电子技术研究所(中国电子科技集团公司第十研究所) 识别小目标的检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271852A (zh) * 2018-08-07 2019-01-25 重庆大学 一种基于深度神经网络的行人检测再识别的处理方法
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法
WO2021139309A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及存储介质
CN113128465A (zh) * 2021-05-11 2021-07-16 济南大学 一种针对工业场景基于改进YOLOv4的小目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271852A (zh) * 2018-08-07 2019-01-25 重庆大学 一种基于深度神经网络的行人检测再识别的处理方法
WO2021139309A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及存储介质
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法
CN113128465A (zh) * 2021-05-11 2021-07-16 济南大学 一种针对工业场景基于改进YOLOv4的小目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张钟文;高宇;王静;曹登平;: "基于YOLOv3的深度学习交通标志识别系统", 建筑电气, no. 07 *
熊昌镇;王聪;: "图切技术和卷积网络的交通标志数据集构建方法", 计算机应用, no. 1 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049572A (zh) * 2021-10-30 2022-02-15 西南电子技术研究所(中国电子科技集团公司第十研究所) 识别小目标的检测方法

Also Published As

Publication number Publication date
CN113505724B (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
CN108647665A (zh) 基于深度学习的航拍车辆实时检测方法
CN111507370A (zh) 获得自动标注图像中检查标签的样本图像的方法和装置
CN113723377B (zh) 一种基于ld-ssd网络的交通标志检测方法
CN113033604A (zh) 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质
CN112287896A (zh) 一种基于深度学习的无人机航拍图像目标检测方法及系统
CN114694002A (zh) 一种基于特征融合与注意力机制的红外目标检测方法
CN115187844A (zh) 基于神经网络模型的图像识别方法、装置及终端设备
CN113850799A (zh) 一种基于YOLOv5的微量DNA提取工作站工件检测方法
CN116363125A (zh) 基于深度学习的电池模组外观缺陷检测方法及系统
CN116823793A (zh) 设备缺陷检测方法、装置、电子设备和可读存储介质
CN117115722A (zh) 施工场景检测的方法、装置、存储介质及电子设备
CN113505724A (zh) 基于YOLOv4的交通标志识别模型训练方法及系统
CN115359264A (zh) 一种密集型分布的粘连细胞深度学习识别方法
Zhao et al. YOLO-highway: An improved highway center marking detection model for unmanned aerial vehicle autonomous flight
CN114359196A (zh) 雾气检测方法及系统
CN111931721B (zh) 年检标签颜色和个数的检测方法、装置及电子设备
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
CN110765900B (zh) 一种基于dssd的自动检测违章建筑方法及系统
CN112085001A (zh) 一种基于多尺度边缘特征检测的隧道识别模型及方法
CN116363532A (zh) 基于注意力机制和重参数化的无人机图像交通目标检测方法
CN114998866A (zh) 一种基于改进YOLOv4的交通标志识别方法
CN113657287A (zh) 一种基于深度学习改进YOLOv3的目标检测方法
CN112418020A (zh) 一种基于注意力机制的YOLOv3违法广告牌智能检测方法
CN117456480B (zh) 一种基于多源信息融合的轻量化车辆再辨识方法
CN117541587B (zh) 太阳能电池板缺陷检测方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant