CN113362299B - 一种基于改进YOLOv4的X光安检图像检测方法 - Google Patents
一种基于改进YOLOv4的X光安检图像检测方法 Download PDFInfo
- Publication number
- CN113362299B CN113362299B CN202110619088.5A CN202110619088A CN113362299B CN 113362299 B CN113362299 B CN 113362299B CN 202110619088 A CN202110619088 A CN 202110619088A CN 113362299 B CN113362299 B CN 113362299B
- Authority
- CN
- China
- Prior art keywords
- security inspection
- inspection image
- ray security
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 51
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 230000006870 function Effects 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 32
- 230000001629 suppression Effects 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于改进YOLOv4的X光安检图像检测方法,S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;S2.利用K‑means++聚类算法设置数据集的先验框;S3.搭建YOLOv4网络模型,包含利用GHM‑C改进YOLOv4的置信度损失函数;S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;S5.利用测试集对X光安检图像检测模型进行测试。使用GHM‑C loss代替YOLOv4中的置信度损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。
Description
技术领域
本发明属于深度学习领域,更具体地,涉及一种基于改进YOLOV4的X光安检图像检测方法。
背景技术
X光安检机是我国目前应用最广泛的安检技术,广泛应用于城市轨道交通、铁路、机场、重点场馆、物流配送等场景。利用深度学习技术辅助一线安检人员进行X射线安检,可以有效减少人员疲劳或注意力不集中造成的漏报问题。但在实际场景中,由于目标的多样性、遮挡、背景复杂等问题,给算法的发展带来了一定的挑战。
基于深度学习的目标检测方法主要分为两类:两阶段检测和一阶段检测。两阶段检测主要分为两个步骤:第一步是生成可能包含目标的候选框;第二步是对候选框做进一步分类和校准。典型二阶段检测算法有R-CNN系列、R-FCN等。尽管两阶段目标检测的精度较高,但检测速度不满足X光安检图像检测的实时性要求。一阶段目标检测不需要产生候选框,而是通过网络直接回归出目标的位置和类别,以YOLO和SSD系列为代表。YOLOv4是2020年提出的目标检测算法,它在YOLOv3的基础上进行了大量改进,不仅精度更高而且速度更快。将YOLOV4改进后应用于X光安检图像检测领域,能够快速而精确的检测识别出违禁品。
但是基于YOLOV4的X光安检图像检测算法存在样本不均衡问题,包括正负样本的不平衡,难易样本的不均衡。GHM损失定义了梯度模长,样本梯度模长与检测难度成正比,在一个交叉熵损失函数训练收敛的单阶段检测模型中,梯度模长接近于0的样本数量最多,随着梯度模长的增长,样本数量迅速减少,但是在梯度模长接近于1时,样本数量又变多了,对于梯度模长接近于0的样本为简单样本,梯度模长接近于1的样本为特别难分的样本,即异常样本。对于单阶段检测模型,负样本的数量要远远大于正样本,而且大多数负样本是简单样本,单个简单负样本的梯度虽然小,但是由于数量过多,会导致简单负样本主导模型的训练;同时,在交叉熵损失函数训练收敛的单阶段检测模型中又有相当数量的异常样本,如果模型去关注这些异常样本会导致模型的准确度降低。
发明内容
为了解决基于YOLOv4的X光安检图像检测算法由于训练样本不均衡导致模型性能低的问题,本发明一种基于改进YOLOv4的X光安检图像检测方法,使用GHM-C loss代替YOLOv4中的置信度损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。
为了实现以上目的,本发明采取的一种技术方案是:
一种基于改进YOLOv4的X光安检图像检测方法,包含以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
S2.利用K-means++聚类算法设置数据集的先验框;
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数;
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;
S5.利用测试集对X光安检图像检测模型进行测试。
进一步地,步骤S3包含以下步骤:
S31.YOLOv4主干网络使用CSPDarkNet53来提取特征,颈部网络使用增强模块SPP和PANet对特征进行融合,头部网络采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj:
GHM-C loss为:
其中,N是每个mini-batch的样本个数,是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度;
改进后的置信度损失函数Lobj为:
其中,是梯度密度协调参数:/>S2是特征图中包含的网格单元个数,B是每个网格单元的回归框个数,/>和/>用来判断回归框中是否有目标物体,/>和/>分别表示回归框有目标物体的预测置信度以及真实置信度。
进一步地,步骤S3中搭建YOLOv4网络模型时还包含利用非极大值抑制方法对冗余预测框进行筛选,具体包含以下步骤:
S303.采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值。
进一步地,步骤2包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框。
进一步地,步骤4包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸,batchsize,训练轮数epoch,学习率;
S43.在训练之前对训练集采用Mosaic方法增强数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型。
进一步地,步骤5具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,为了解决物体遮挡问题,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像。
进一步地,步骤S1中违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机;
所述X光安检图像数据集构建步骤如下:利用标记工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,接着将X光安检图像和XML文件按照PascalVoc格式存放形成X光安检图像数据集。
本发明的技术方案相比现有技术具有以下优点:
1、采用GHM-C loss优化置信度损失函数可以解决正负样本不平衡的问题;
2、采用Soft NMS与Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,进一步解决物体遮挡的问题;
3、相对于K-means随机产生的初始聚类中心来说,K-means++能产生更合适的初始聚类中心,得到比较好的结果,并且使用IOU代替欧式距离作为距离计算公式,可以解决大的边框比小的边框产生更多错误的问题;
4、在训练时采用mosaic数据增强、自对抗训练方法可以改进训练效果。
附图说明
图1为本发明一实施例中提供的一种基于改进YOLOv4的X光安检图像检测方法的流程图;
图2为本发明一实施例中提供的YOLOv4网络架构图;
图3及图4均为本发明一具体实施例的检测结果图。
具体实施方式
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
如图1所示,本发明提供的一种基于改进YOLOv4的X光安检图像检测方法,包括以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
步骤S1中采集含有违禁品的原始X光安检图像,原始X光安检图像可来自地铁、飞机、铁路、物流等场合的X光安检机拍摄的视频帧,所述违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机,共7类。
所述X光安检图像数据集构建步骤如下:利用LabelImg工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,然后将X光安检图像和XML文件内的数据按照PASCAL VOC格式进行存放形成X光安检图像数据集,接着将X光安检图像数据集按8:2比例分成训练集和测试集;
具体过程如下:首先创建Annotation、ImageSets和JPEGImages三个文件夹,将xml文件放在Annotation文件夹中,X光安检图像放在JPEGImages文件夹,随机将xml文件和X光安检图像对应的文件名按照8:2划为训练集和测试集,将训练集和测试集分别入train.txt和test.txt文件中,最后将上述2个txt文件放在ImageSets文件夹中;
S2.利用K-means++聚类算法设置数据集的先验框,相对于K-means随机产生的初始聚类中心来说,K-means++能产生更合适的初始聚类中心,得到比较好的结果,并且使用IOU代替欧式距离作为距离计算公式,可以解决大的边框比小的边框产生更多错误的问题;K-means++聚类算法具体地包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框,本实施例中数据集对应9个先验框,具体可见表1。
在图像尺寸640×640条件下,聚类得到的先验框参数如表1所示:
表1先验框参数
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数,具体包含以下步骤:
S31.如图2所示,YOLOv4主干网络backbone使用CSPDarkNet53来提取特征,颈部网络neck使用增强模块SPP和PANet对特征进行融合,头部网络head采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj,首先GHM损失定义了梯度密度:
公式(1)中,δε(gk,g)表示一个mini-batch中梯度模长分布在区间内样本的个数,lε(g)表示区间/>的长度。
然后定义梯度密度协调参数:
最后在二元交叉熵损失函数中引用GHM损失思想:
公式(2)中,N是每个mini-batch的样本个数,是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度。
YOLOv4的分类损失和交叉熵损失均为二元交叉熵损失,对于不含有目标对象的回归框bounding box,YOLOv4不计算其分类损失,因此分类损失不存在正负样本不平衡的问题,所以只在置信度损失函数中引用GHM损失,改进后的置信度损失函数为:
公式(3)中,是梯度密度协调参数,计算公式是:/>S2是特征图中包含的网格单元Grid Cell个数,B是每个网格单元Grid Cell的回归框bounding box个数,一般为3,/>和/>用来判断回归框bounding box中是否有目标物体,当存在目标物体时当不存在目标物体时/> 和/>分别表示bounding box有目标物体的预测置信度以及真实置信度。
在YOLOv4网络模型时总的损失函数包含置信度损失函数、位置损失函数及分类函数构建,利用GHM-C loss优化置信度损失函数进而改进总的损失函数,通过降低简单负样本和非常困难的异常样本的权重,使模型更加专注于那些更为有效的正常困难样本,从而解决样本不平衡问题以提升模型的性能。
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型,具体包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,classes=7,anchors的值改为步骤2中得到的先验框参数,其次在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3=36;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸640×640,batchsize=8,训练轮数epoch=2000,学习率为0.0001;
S43.在训练之前对训练集采用Mosaic方法增强数据;Mosaic数据增强:是将四张图片进行随机裁剪,再拼接到一张图上作为训练数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型;自对抗训练包括两个阶段,第一个阶段,神经网络更改原始图像;第二阶段,训练神经网络以正常方式在修改后的图像上执行目标检测任务。
S5.利用测试集对X光安检图像检测模型进行测试,具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像;具体的检测图可参考图3及图4;
YOLOv4原始的非极大值抑制方法为Diou NMS,它会删除重叠面积较大的检测框,产生漏检的问题;本发明采用Soft NMS和Diou NMS相结合的方式(SD NMS),不再直接删除大于阈值的框,而是降低它们的置信度,与得分最高预测框的重叠度越高,其置信度下降得越快,反之则下降的越慢。改进后的非极大值抑制方法(SD NMS),可以进一步解决物体遮挡的问题。
采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值,本实施例中设为0.65。
利用非极大值抑制方法对冗余预测框进行筛选可以在步骤S3中搭建YOLOv4网络模型时进行设置。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (5)
1.一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,包含以下步骤:
S1.建立含有违禁品的X光安检图像数据集,并将数据集分为训练集和测试集;
S2.利用K-means++聚类算法设置数据集的先验框;
S3.搭建YOLOv4网络模型,包含利用GHM-C改进YOLOv4的置信度损失函数;
S4.利用训练集对改进的YOLOv4模型进行训练得到X光安检图像检测模型;
S5.利用测试集对X光安检图像检测模型进行测试;
步骤S3包含以下步骤:S31.YOLOv4主干网络使用CSPDarkNet53来提取特征,颈部网络使用spp和pan对特征进行融合,头部网络采用yolo head进行回归和预测;
S32.使用GHM-C loss优化模型的置信度损失函数Lobj:
GHM-C loss为:
其中,N是每个mini-batch的样本个数,是二元交叉熵损失函数,gi是梯度模长,GD(gi)是梯度模长为gi的梯度密度;
改进后的置信度损失函数Lobj为:
其中,是梯度密度协调参数:/>S2是特征图中包含的网格单元个数,B是每个网格单元的回归框个数,/>和/>用来判断回归框中是否有目标物体,/>和/>分别表示回归框有目标物体的预测置信度以及真实置信度;
步骤S3中搭建YOLOv4网络模型时还包含利用非极大值抑制方法对冗余预测框进行筛选,具体包含以下步骤:
S303.采用Soft NMS和Diou NMS相结合的非极大值抑制方法对检测时产生的冗余预测框进行筛选,Soft-Diou NMS公式:
其中,si为预测框分数,Bi是si当前类别预测框,M是当前类别得分最高的预测框,thresh是预设阈值。
2.根据权利要求1的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤2包含以下步骤:
S21.从数据集中随机选择一个样本作为聚类中心;
S22.采用K-means++算法计算数据集中的每个样本与聚类中心的最近距离,然后计算每个样本成为下一个聚类中心的概率,最后采用轮盘法选出下一个聚类中心;
样本与聚类中心的IOU距离为:d(box,centroid)=1-IOU(box,centiord)
其中,box是样本标注框,centroid是聚类中心,IOU是样本标注框和聚类中心框的交并比;
S23.重复步骤S22,直到选出k个聚类中心;
S24.针对数据集中的每个样本,计算出它到k个聚类中心的IOU距离,并且将其分到距离最小的聚类中心所对应的类中,从而得到数据集中每个样本对应的先验框。
3.根据权利要求1的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤4包含以下步骤:
S41.修改YOLOv4的cfg文件,包括将每个yolo层中的classes修改成数据集的类别数量,在每个yolo层前的convolution层中修改filters,改成filters=(classes+5)*3;
S42.设置网络模型超参数,包括训练和测试时输入图片的尺寸,batchsize,训练轮数epoch,学习率;
S43.在训练之前对训练集采用Mosaic方法增强数据;
S44.使用增强后的训练集训练改进后的YOLOv4模型,在训练时采用自对抗训练提高训练效果,然后利用改进后的置信度损失函数、位置损失函数及分类函数构建的总损失函数进行反向梯度迭代更新权重直至模型收敛,保存模型收敛时对应的最优权重文件,从而得到X光安检图像检测模型。
4.根据权利要求3的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤5具体为:
将测试集输入X光安检图像检测模型进行违禁品检测,为了解决物体遮挡问题,检测时使用Soft NMS和Diou NMS相结合的非极大值抑制方法对冗余预测框进行筛选,从而得到违禁品位置和类别的图像。
5.根据权利要求1-4中任一项所述的一种基于改进YOLOv4的X光安检图像检测方法,其特征在于,步骤S1中违禁品包括:枪、刀、扳手、钳子、剪刀、充电宝、打火机;
所述X光安检图像数据集构建步骤如下:利用标记工具对X光安检图像进行标注,得到违禁品的位置信息和类别信息的XML文件,接着将X光安检图像和XML文件按照Pascal Voc格式存放形成X光安检图像数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110619088.5A CN113362299B (zh) | 2021-06-03 | 2021-06-03 | 一种基于改进YOLOv4的X光安检图像检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110619088.5A CN113362299B (zh) | 2021-06-03 | 2021-06-03 | 一种基于改进YOLOv4的X光安检图像检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113362299A CN113362299A (zh) | 2021-09-07 |
CN113362299B true CN113362299B (zh) | 2023-09-12 |
Family
ID=77531580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110619088.5A Active CN113362299B (zh) | 2021-06-03 | 2021-06-03 | 一种基于改进YOLOv4的X光安检图像检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113362299B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113780406A (zh) * | 2021-09-08 | 2021-12-10 | 福州大学 | 一种基于yolo的成捆原木端面检测方法 |
CN115439361B (zh) * | 2022-09-02 | 2024-02-20 | 江苏海洋大学 | 基于自对抗生成对抗网络的水下图像增强方法 |
CN116503344A (zh) * | 2023-04-21 | 2023-07-28 | 南京邮电大学 | 一种基于深度学习的裂纹实例分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110018524A (zh) * | 2019-01-28 | 2019-07-16 | 同济大学 | 一种基于视觉-属性的x射线安检违禁品识别方法 |
CN111860160A (zh) * | 2020-06-16 | 2020-10-30 | 北京华电天仁电力控制技术有限公司 | 一种室内检测口罩佩戴的方法 |
CN112287899A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 基于yolo v5的无人机航拍图像河流排污口检测方法及系统 |
CN112287788A (zh) * | 2020-10-20 | 2021-01-29 | 杭州电子科技大学 | 基于改进YOLOv3和改进NMS的行人检测方法 |
CN112465794A (zh) * | 2020-12-10 | 2021-03-09 | 无锡卡尔曼导航技术有限公司 | 一种基于YOLOv4和嵌入式平台的高尔夫球检测方法 |
-
2021
- 2021-06-03 CN CN202110619088.5A patent/CN113362299B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110018524A (zh) * | 2019-01-28 | 2019-07-16 | 同济大学 | 一种基于视觉-属性的x射线安检违禁品识别方法 |
CN111860160A (zh) * | 2020-06-16 | 2020-10-30 | 北京华电天仁电力控制技术有限公司 | 一种室内检测口罩佩戴的方法 |
CN112287788A (zh) * | 2020-10-20 | 2021-01-29 | 杭州电子科技大学 | 基于改进YOLOv3和改进NMS的行人检测方法 |
CN112287899A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 基于yolo v5的无人机航拍图像河流排污口检测方法及系统 |
CN112465794A (zh) * | 2020-12-10 | 2021-03-09 | 无锡卡尔曼导航技术有限公司 | 一种基于YOLOv4和嵌入式平台的高尔夫球检测方法 |
Non-Patent Citations (1)
Title |
---|
"An auxiliary intelligent identification system for contraband of x-ray machine";Demao Ye et al.;《PROCEEDINGS OF SPIE》;1-9 * |
Also Published As
Publication number | Publication date |
---|---|
CN113362299A (zh) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113362299B (zh) | 一种基于改进YOLOv4的X光安检图像检测方法 | |
CN113011319B (zh) | 多尺度火灾目标识别方法及系统 | |
CN110796186A (zh) | 基于改进的YOLOv3网络的干湿垃圾识别分类方法 | |
CN113486726A (zh) | 一种基于改进卷积神经网络的轨道交通障碍物检测方法 | |
CN107833213A (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
CN109993040A (zh) | 文本识别方法及装置 | |
Gyawali et al. | Comparative analysis of multiple deep CNN models for waste classification | |
CN111488911B (zh) | 基于Mask R-CNN与GAN的图像实体抽取方法 | |
CN108647574A (zh) | 漂浮物图像检测模型生成方法、识别方法及设备 | |
CN112200225B (zh) | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 | |
CN109919252A (zh) | 利用少数标注图像生成分类器的方法 | |
CN105930792A (zh) | 一种基于视频局部特征字典的人体动作分类方法 | |
CN101540017A (zh) | 基于字节级n元文法的特征提取方法及垃圾邮件过滤器 | |
CN111159396B (zh) | 面向数据共享交换的文本数据分类分级模型的建立方法 | |
CN105574489A (zh) | 基于层次级联的暴力群体行为检测方法 | |
CN110879881A (zh) | 基于特征组分层和半监督随机森林的鼠标轨迹识别方法 | |
CN110009005A (zh) | 一种基于特征强相关的网络流量分类方法 | |
CN111461120A (zh) | 一种基于区域的卷积神经网络物体表面缺陷检测方法 | |
CN110070131A (zh) | 一种面向数据驱动建模的主动学习方法 | |
CN112395953A (zh) | 一种道面异物检测系统 | |
CN101655911A (zh) | 基于免疫抗体网络的模式识别方法 | |
CN105337842B (zh) | 一种与内容无关的垃圾邮件过滤方法 | |
CN105469099A (zh) | 基于稀疏表示分类的路面裂缝检测和识别方法 | |
CN116740495A (zh) | 路桥隧道的病害检测模型的训练方法和病害检测方法 | |
CN116385876A (zh) | 基于yolox的光学遥感影像地物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |