CN113362299A - 一种基于改进YOLOv4的X光安检图像检测方法 - Google Patents

一种基于改进YOLOv4的X光安检图像检测方法 Download PDF

Info

Publication number
CN113362299A
CN113362299A CN202110619088.5A CN202110619088A CN113362299A CN 113362299 A CN113362299 A CN 113362299A CN 202110619088 A CN202110619088 A CN 202110619088A CN 113362299 A CN113362299 A CN 113362299A
Authority
CN
China
Prior art keywords
yolov4
ray security
training
model
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110619088.5A
Other languages
English (en)
Other versions
CN113362299B (zh
Inventor
周城
徐慧
余伟超
尹必才
赵晨薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202110619088.5A priority Critical patent/CN113362299B/zh
Publication of CN113362299A publication Critical patent/CN113362299A/zh
Application granted granted Critical
Publication of CN113362299B publication Critical patent/CN113362299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于改进YOLOv4的X光安检图像检测方法,S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;S2.利用K‑means++聚类算法设置数据集的先验框;S3.搭建YOLOv4网络模型,包含利用GHM‑C改进YOLOv4的置信度损失函数;S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;S5.利用测试集对X光安检图像检测模型进行测试。使用GHM‑C loss代替YOLOv4中的置信度损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。

Description

一种基于改进YOLOv4的X光安检图像检测方法
技术领域
本发明属于深度学习领域,更具体地,涉及一种基于改进YOLOV4的X光安检图像检测方法。
背景技术
X光安检机是我国目前应用最广泛的安检技术,广泛应用于城市轨道交通、铁路、机场、重点场馆、物流配送等场景。利用深度学习技术辅助一线安检人员进行X射线安检,可以有效减少人员疲劳或注意力不集中造成的漏报问题。但在实际场景中,由于目标的多样性、遮挡、背景复杂等问题,给算法的发展带来了一定的挑战。
基于深度学习的目标检测方法主要分为两类:两阶段检测和一阶段检测。两阶段检测主要分为两个步骤:第一步是生成可能包含目标的候选框;第二步是对候选框做进一步分类和校准。典型二阶段检测算法有R-CNN系列、R-FCN等。尽管两阶段目标检测的精度较高,但检测速度不满足X光安检图像检测的实时性要求。一阶段目标检测不需要产生候选框,而是通过网络直接回归出目标的位置和类别,以YOLO和SSD系列为代表。YOLOv4是2020年提出的目标检测算法,它在YOLOv3的基础上进行了大量改进,不仅精度更高而且速度更快。将YOLOV4改进后应用于X光安检图像检测领域,能够快速而精确的检测识别出违禁品。
但是基于YOLOV4的X光安检图像检测算法存在样本不均衡问题,包括正负样本的不平衡,难易样本的不均衡。GHM损失定义了梯度模长,样本梯度模长与检测难度成正比,在一个交叉熵损失函数训练收敛的单阶段检测模型中,梯度模长接近于0的样本数量最多,随着梯度模长的增长,样本数量迅速减少,但是在梯度模长接近于1时,样本数量又变多了,对于梯度模长接近于0的样本为简单样本,梯度模长接近于1的样本为特别难分的样本,即异常样本。对于单阶段检测模型,负样本的数量要远远大于正样本,而且大多数负样本是简单样本,单个简单负样本的梯度虽然小,但是由于数量过多,会导致简单负样本主导模型的训练;同时,在交叉熵损失函数训练收敛的单阶段检测模型中又有相当数量的异常样本,如果模型去关注这些异常样本会导致模型的准确度降低。
发明内容
为了解决基于YOLOv4的X光安检图像检测算法由于训练样本不均衡导致模型性能低的问题,本发明一种基于改进YOLOv4的X光安检图像检测方法,使用GHM-C loss代替YOLOv4中的置信度损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。
为了实现以上目的,本发明采取的一种技术方案是:
一种基于改进YOLOv4的X光安检图像检测方法,包含以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
S2.利用K-means++聚类算法设置数据集的先验框;
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数;
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;
S5.利用测试集对X光安检图像检测模型进行测试。
进一步地,步骤S3包含以下步骤:
S31.YOLOv4主干网络使用CSPDarkNet53来提取特征,颈部网络使用增强模块SPP和PANet对特征进行融合,头部网络采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj
GHM-C loss为:
Figure BDA0003098997190000021
其中,N是每个mini-batch的样本个数,
Figure BDA0003098997190000022
是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度;
改进后的置信度损失函数Lobj为:
Figure BDA0003098997190000023
其中,
Figure BDA0003098997190000024
是梯度密度协调参数:
Figure BDA0003098997190000025
S2是特征图中包含的网格单元个数,B是每个网格单元的回归框个数,
Figure BDA0003098997190000026
Figure BDA0003098997190000027
用来判断回归框中是否有目标物体,
Figure BDA0003098997190000028
Figure BDA0003098997190000029
分别表示回归框有目标物体的预测置信度以及真实置信度。
进一步地,步骤S3中搭建YOLOv4网络模型时还包含利用非极大值抑制方法对冗余预测框进行筛选,具体包含以下步骤:
S303.采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
Figure BDA0003098997190000031
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值。
进一步地,步骤2包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框。
进一步地,步骤4包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸,batchsize,训练轮数epoch,学习率;
S43.在训练之前对训练集采用Mosaic方法增强数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型。
进一步地,步骤5具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,为了解决物体遮挡问题,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像。
进一步地,步骤S1中违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机;
所述X光安检图像数据集构建步骤如下:利用标记工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,接着将X光安检图像和XML文件按照PascalVoc格式存放形成X光安检图像数据集。
本发明的技术方案相比现有技术具有以下优点:
1、采用GHM-C loss优化置信度损失函数可以解决正负样本不平衡的问题;
2、采用Soft NMS与Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,进一步解决物体遮挡的问题;
3、相对于K-means随机产生的初始聚类中心来说,K-means++能产生更合适的初始聚类中心,得到比较好的结果,并且使用IOU代替欧式距离作为距离计算公式,可以解决大的边框比小的边框产生更多错误的问题;
4、在训练时采用mosaic数据增强、自对抗训练方法可以改进训练效果。
附图说明
图1为本发明一实施例中提供的一种基于改进YOLOv4的X光安检图像检测方法的流程图;
图2为本发明一实施例中提供的YOLOv4网络架构图;
图3及图4均为本发明一具体实施例的检测结果图。
具体实施方式
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
如图1所示,本发明提供的一种基于改进YOLOv4的X光安检图像检测方法,包括以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
步骤S1中采集含有违禁品的原始X光安检图像,原始X光安检图像可来自地铁、飞机、铁路、物流等场合的X光安检机拍摄的视频帧,所述违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机,共7类。
所述X光安检图像数据集构建步骤如下:利用LabelImg工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,然后将X光安检图像和XML文件内的数据按照PASCAL VOC格式进行存放形成X光安检图像数据集,接着将X光安检图像数据集按8:2比例分成训练集和测试集;
具体过程如下:首先创建Annotation、ImageSets和JPEGImages三个文件夹,将xml文件放在Annotation文件夹中,X光安检图像放在JPEGImages文件夹,随机将xml文件和X光安检图像对应的文件名按照8:2划为训练集和测试集,将训练集和测试集分别入train.txt和test.txt文件中,最后将上述2个txt文件放在ImageSets文件夹中;
S2.利用K-means++聚类算法设置数据集的先验框,相对于K-means随机产生的初始聚类中心来说,K-means++能产生更合适的初始聚类中心,得到比较好的结果,并且使用IOU代替欧式距离作为距离计算公式,可以解决大的边框比小的边框产生更多错误的问题;K-means++聚类算法具体地包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框,本实施例中数据集对应9个先验框,具体可见表1。
在图像尺寸640×640条件下,聚类得到的先验框参数如表1所示:
表1先验框参数
Figure BDA0003098997190000051
Figure BDA0003098997190000061
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数,具体包含以下步骤:
S31.如图2所示,YOLOv4主干网络backbone使用CSPDarkNet53来提取特征,颈部网络neck使用增强模块SPP和PANet对特征进行融合,头部网络head采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj,首先GHM损失定义了梯度密度:
Figure BDA0003098997190000062
公式(1)中,δε(gk,g)表示一个mini-batch中梯度模长分布在
Figure BDA0003098997190000063
区间内样本的个数,lε(g)表示区间
Figure BDA0003098997190000064
的长度。
然后定义梯度密度协调参数:
Figure BDA0003098997190000065
最后在二元交叉熵损失函数中引用GHM损失思想:
Figure BDA0003098997190000066
公式(2)中,N是每个mini-batch的样本个数,
Figure BDA0003098997190000067
是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度。
YOLOv4的分类损失和交叉熵损失均为二元交叉熵损失,对于不含有目标对象的回归框bounding box,YOLOv4不计算其分类损失,因此分类损失不存在正负样本不平衡的问题,所以只在置信度损失函数中引用GHM损失,改进后的置信度损失函数为:
Figure BDA0003098997190000071
公式(3)中,
Figure BDA0003098997190000072
是梯度密度协调参数,计算公式是:
Figure BDA0003098997190000073
S2是特征图中包含的网格单元Grid Cell个数,B是每个网格单元Grid Cell的回归框bounding box个数,一般为3,
Figure BDA0003098997190000074
Figure BDA0003098997190000075
用来判断回归框bounding box中是否有目标物体,当存在目标物体时
Figure BDA0003098997190000076
当不存在目标物体时
Figure BDA0003098997190000077
Figure BDA0003098997190000078
Figure BDA0003098997190000079
分别表示bounding box有目标物体的预测置信度以及真实置信度。
在YOLOv4网络模型时总的损失函数包含置信度损失函数、位置损失函数及分类函数构建,利用GHM-C loss优化置信度损失函数进而改进总的损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型,具体包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,classes=7,anchors的值改为步骤2中得到的先验框参数,其次在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3=36;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸640×640,batchsize=8,训练轮数epoch=2000,学习率为0.0001;
S43.在训练之前对训练集采用Mosaic方法增强数据;Mosaic数据增强:是将四张图片进行随机裁剪,再拼接到一张图上作为训练数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型;自对抗训练包括两个阶段,第一个阶段,神经网络更改原始图像;第二阶段,训练神经网络以正常方式在修改后的图像上执行目标检测任务。
S5.利用测试集对X光安检图像检测模型进行测试,具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像;具体的检测图可参考图3及图4;
YOLOv4原始的非极大值抑制方法为Diou NMS,它会删除重叠面积较大的检测框,产生漏检的问题;本发明采用Soft NMS和Diou NMS相结合的方式(SD NMS),不再直接删除大于阈值的框,而是降低它们的置信度,与得分最高预测框的重叠度越高,其置信度下降得越快,反之则下降的越慢。改进后的非极大值抑制方法(SD NMS),可以进一步解决物体遮挡的问题。
采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
Figure BDA0003098997190000081
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值,本实施例中设为0.65。
利用非极大值抑制方法对冗余预测框进行筛选可以在步骤S3中搭建YOLOv4网络模型时进行设置。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (7)

1.一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,包含以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
S2.利用K-means++聚类算法设置数据集的先验框;
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数;
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;
S5.利用测试集对X光安检图像检测模型进行测试。
2.根据权利要求1的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤S3包含以下步骤:
S31.YOLOv4主干网络使用CSPDarkNet53来提取特征,颈部网络使用spp和pan对特征进行融合,头部网络采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj
GHM-C loss为:
Figure FDA0003098997180000011
其中,N是每个mini-batch的样本个数,
Figure FDA0003098997180000012
是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度;
改进后的置信度损失函数Lobj为:
Figure FDA0003098997180000013
其中,
Figure FDA0003098997180000014
是梯度密度协调参数:
Figure FDA0003098997180000015
S2是特征图中包含的网格单元个数,B是每个网格单元的回归框个数,
Figure FDA0003098997180000016
Figure FDA0003098997180000017
用来判断回归框中是否有目标物体,
Figure FDA0003098997180000018
Figure FDA0003098997180000019
分别表示回归框有目标物体的预测置信度以及真实置信度。
3.根据权利要求2的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤S3中搭建YOLOv4网络模型时还包含利用非极大值抑制方法对冗余预测框进行筛选,具体包含以下步骤:
S303.采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
Figure FDA0003098997180000021
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值。
4.根据权利要求3的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤2包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框。
5.根据权利要求3的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤4包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸,batchsize,训练轮数epoch,学习率;
S43.在训练之前对训练集采用Mosaic方法增强数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型。
6.根据权利要求5的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤5具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,为了解决物体遮挡问题,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像。
7.根据权利要求1-6中任一项所述的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤S1中违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机;
所述X光安检图像数据集构建步骤如下:利用标记工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,接着将X光安检图像和XML文件按照Pascal Voc格式存放形成X光安检图像数据集。
CN202110619088.5A 2021-06-03 2021-06-03 一种基于改进YOLOv4的X光安检图像检测方法 Active CN113362299B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110619088.5A CN113362299B (zh) 2021-06-03 2021-06-03 一种基于改进YOLOv4的X光安检图像检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110619088.5A CN113362299B (zh) 2021-06-03 2021-06-03 一种基于改进YOLOv4的X光安检图像检测方法

Publications (2)

Publication Number Publication Date
CN113362299A true CN113362299A (zh) 2021-09-07
CN113362299B CN113362299B (zh) 2023-09-12

Family

ID=77531580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110619088.5A Active CN113362299B (zh) 2021-06-03 2021-06-03 一种基于改进YOLOv4的X光安检图像检测方法

Country Status (1)

Country Link
CN (1) CN113362299B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780406A (zh) * 2021-09-08 2021-12-10 福州大学 一种基于yolo的成捆原木端面检测方法
CN115439361A (zh) * 2022-09-02 2022-12-06 江苏海洋大学 基于自对抗生成对抗网络的水下图像增强方法
CN116503344A (zh) * 2023-04-21 2023-07-28 南京邮电大学 一种基于深度学习的裂纹实例分割方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110018524A (zh) * 2019-01-28 2019-07-16 同济大学 一种基于视觉-属性的x射线安检违禁品识别方法
CN111860160A (zh) * 2020-06-16 2020-10-30 北京华电天仁电力控制技术有限公司 一种室内检测口罩佩戴的方法
CN112287899A (zh) * 2020-11-26 2021-01-29 山东捷讯通信技术有限公司 基于yolo v5的无人机航拍图像河流排污口检测方法及系统
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
CN112465794A (zh) * 2020-12-10 2021-03-09 无锡卡尔曼导航技术有限公司 一种基于YOLOv4和嵌入式平台的高尔夫球检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110018524A (zh) * 2019-01-28 2019-07-16 同济大学 一种基于视觉-属性的x射线安检违禁品识别方法
CN111860160A (zh) * 2020-06-16 2020-10-30 北京华电天仁电力控制技术有限公司 一种室内检测口罩佩戴的方法
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
CN112287899A (zh) * 2020-11-26 2021-01-29 山东捷讯通信技术有限公司 基于yolo v5的无人机航拍图像河流排污口检测方法及系统
CN112465794A (zh) * 2020-12-10 2021-03-09 无锡卡尔曼导航技术有限公司 一种基于YOLOv4和嵌入式平台的高尔夫球检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BUYU LI ET AL.: ""Gradient Harmonized Single-Stage Detector"", 《ARXIV》, pages 1 - 8 *
DEMAO YE ET AL.: ""An auxiliary intelligent identification system for contraband of x-ray machine"", 《PROCEEDINGS OF SPIE》, pages 1 - 9 *
蔡舒平 等: ""基于改进型 YOLOv4 的果园障碍物实时检测方法"", 《农业工程学报》, vol. 37, no. 2, pages 36 - 43 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780406A (zh) * 2021-09-08 2021-12-10 福州大学 一种基于yolo的成捆原木端面检测方法
CN115439361A (zh) * 2022-09-02 2022-12-06 江苏海洋大学 基于自对抗生成对抗网络的水下图像增强方法
CN115439361B (zh) * 2022-09-02 2024-02-20 江苏海洋大学 基于自对抗生成对抗网络的水下图像增强方法
CN116503344A (zh) * 2023-04-21 2023-07-28 南京邮电大学 一种基于深度学习的裂纹实例分割方法

Also Published As

Publication number Publication date
CN113362299B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN113362299B (zh) 一种基于改进YOLOv4的X光安检图像检测方法
CN109815886B (zh) 一种基于改进YOLOv3的行人和车辆检测方法及系统
CN113011319B (zh) 多尺度火灾目标识别方法及系统
WO2020181685A1 (zh) 一种基于深度学习的车载视频目标检测方法
CN110796186A (zh) 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN106201897B (zh) 基于主成分分布函数的软件缺陷预测不平衡数据处理方法
CN109033497B (zh) 一种面向高并发的多阶段数据挖掘算法智能选择方法
CN104036023B (zh) 一种融合上下文的树形视频语义索引建立方法
CN107833213A (zh) 一种基于伪真值自适应法的弱监督物体检测方法
CN112200225B (zh) 基于深度卷积神经网络的钢轨伤损b显图像识别方法
CN103886030B (zh) 基于代价敏感决策树的信息物理融合系统数据分类方法
CN111159396B (zh) 面向数据共享交换的文本数据分类分级模型的建立方法
JP2008077403A (ja) 評価装置、評価方法及び評価プログラム
CN107977670A (zh) 决策树和贝叶斯算法的突发事件分类分级方法、装置及系统
CN110321947A (zh) 一种基于卷积神经网络的用电异常预判方法
CN111461120A (zh) 一种基于区域的卷积神经网络物体表面缺陷检测方法
CN110009005A (zh) 一种基于特征强相关的网络流量分类方法
CN113639757B (zh) 基于双向评分模型和回溯校正机制的地图匹配方法及系统
CN110428398A (zh) 一种基于深度学习的高铁接触网拉线缺陷检测方法
CN103955676B (zh) 一种人脸识别方法及系统
CN105469099A (zh) 基于稀疏表示分类的路面裂缝检测和识别方法
WO2023108928A1 (zh) 基于事件树的飞行超限事件综合后果严重性的计算方法
CN104573049A (zh) 一种基于中心向量的knn分类器训练样本裁剪方法
CN115546581A (zh) 一种解耦的增量目标检测方法
CN114818954A (zh) 基于增量学习的工业互联网故障检测方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant