CN113192040A - 一种基于YOLO v4改进算法的织物瑕疵检测方法 - Google Patents

一种基于YOLO v4改进算法的织物瑕疵检测方法 Download PDF

Info

Publication number
CN113192040A
CN113192040A CN202110505326.XA CN202110505326A CN113192040A CN 113192040 A CN113192040 A CN 113192040A CN 202110505326 A CN202110505326 A CN 202110505326A CN 113192040 A CN113192040 A CN 113192040A
Authority
CN
China
Prior art keywords
network
feature
feature map
yolo
training set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110505326.XA
Other languages
English (en)
Other versions
CN113192040B (zh
Inventor
吕文涛
余序宜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110505326.XA priority Critical patent/CN113192040B/zh
Publication of CN113192040A publication Critical patent/CN113192040A/zh
Application granted granted Critical
Publication of CN113192040B publication Critical patent/CN113192040B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像目标检测技术领域,具体公开了一种基于YOLO v4改进算法的织物瑕疵检测方法,该方法在主干网络上引入了最新的轻量级注意力模块Coordinate Attention(CA),不仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,使得网络能对感兴趣的目标进行着重检测,并加入了可变形卷积(Deformable Convolutional Network,DCN)以增强网络对于形状多变的瑕疵的适应性,提高了检测准确率。对于特征融合部分,在原有的路径聚合网络的基础上使用了自适应加权融合(ASFF),使得各个特征层提取的特征在进行预测前以不同权重进行融合,同时对特征融合部分的部分卷积使用了跨阶段局部网络结构(CSP)进行替换,在保证速度的情况下,大幅提高了网络对织物瑕疵检测的准确率。

Description

一种基于YOLO v4改进算法的织物瑕疵检测方法
技术领域
本发明属于图像目标检测技术领域,具体涉及一种基于YOLO v4改进算法的织物瑕疵检测方法。
背景技术
我国是世界纺织品出口的大国,我国的纺织品价格在国际市场上也很有竞争力。依靠先进的纺织工艺,产量和质量也不断提升,但是在最终成品中依然不可避免地会出现一些瑕疵,影响了织物的的外观。而在织物的销售过程中,必须保证织物的高质量和美观度才能赢得市场,因此织物的瑕疵检测也是生产过程中不可缺少的一部分,从而有效地减少不合格的织物流入市场。在过去,因为技术和硬件设施的限制,只能通过人工检测来筛选。由于近些年的生产工艺的发展更新和纺织品的需求量的增大,人工检测的缺点日益凸显。
人工检测存在的缺点主要有:人工检测易受主观因素影响,缺乏一致性;并且检测人员在强光下长时间工作对视力影响极大。由于布匹疵点种类繁多、形态变化多样、观察识别难度大,检测人员无法长期不间断工作,无法保证出厂合格率;而且人眼很难准确判断细微瑕疵,误差大,出错机会很多,无法保证检测质量,生产速度也会有极大限制,因此亟需革新质检的流程,借助先进技术来代替人眼进行检测,提升布匹疵点检验的准确度,降低对大量人工的依赖,减少漏检发生率,提高产品质量。
目标检测是计算机视觉领域的重要组成模块。其中,瑕疵检测是目标检测领域的热点研究问题,可广泛应用于各种领域,如工业场景下的金属板材检测、薄膜检测等。
目前基于深度学习的目标检测方法大体上主要分为两种:一种是基于候选区域(Region Proposal)的两阶段检测算法,该方法主要以R-CNN(Regions with CNNfeatures)系列为代表,通过RPN(Region Proposal Network)产生候选区域,然后再在候选区域上做分类与回归,网络的准确度高、速度相对单阶段网络较慢。另外一种是单阶段目标检测方法,主要以YOLO、SSD和RetinaNet为代表,它们直接回归出物体的类别概率和位置坐标值,并没有使用RPN。这样的算法速度更快,但是精度相对于两阶段的网络较低。近些年提出的YOLO v4在保证速度的前提下,大幅提高了识别的精度,已经能达到与R-CNN系列相媲美的水平。
发明内容
针对现有技术中存在的上述问题,本发明提出一种基于YOLO v4改进算法的织物瑕疵检测方法,解决了对于织物的瑕疵检测中,长宽比极度不平衡和尺度很小的瑕疵容易漏检等问题。
本发明采用以下技术方案:一种基于YOLO v4改进算法的织物瑕疵检测方法,包括步骤:
S1、采集织物数据集,并对织物数据集进行增强,以得到织物增强数据集;
S2、对织物增强数据集中所有图片中的GT框进行聚类,以得到K个先验框;
S3、将织物增强数据集按预设比例划分为训练集、验证集、测试集;
S4、任意选取训练集中X张图片输入至YOLO v4的主干网络,以输出N个不同尺度的有效特征图,并对有效特征图进行特征融合,以输出N个不同尺度的融合特征图,对融合特征图的通道数进行调整以获取N个训练集网络输出特征图;
S5、将K个先验框平均分配至N个训练集网络输出特征图上,以生成相应训练集候选框;
S6、根据步骤S4中的训练集网络输出特征图对相应训练集候选框进行调整,根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,并根据网络整体损失对YOLO v4网络参数进行更新;
S7、通过参数更新后的YOLO v4网络在验证集上计算验证集损失,并根据验证集损失验证YOLO v4网络的拟合状态;
S8、重复步骤S4-S7,直至步骤S6计算得到的网络整体损失收敛,以得到训练后YOLO v4网络模型;
S9、将测试集中所有图片输入至训练后YOLO v4网络模型进行预测,以获取测试集网络输出特征图,并根据测试集网络输出特征图对预测过程中生成的测试集候选框进行调整,并从所有调整后的测试集候选框中得到最终预测框;
S10、根据测试集网络输出特征图与测试集原图的比例关系,将预测框映射至测试集原图上,以实现在测试集原图上瑕疵的定位。
作为优选方案,步骤S1中具体为,使用Mosaic数据对织物数据集进行数据增强,以实现数据集的扩充。
作为优选方案,步骤S2中具体为:根据GT框标记数据以对GT框进行聚类,GT框标记数据为(c,x1,y1,x2,y2),c表示GT框内所含物体的类别,x1、y1分别表示GT框内左上角顶点的x坐标和y坐标,x2、y2表示GT框内右下角顶点的x坐标和y坐标。
作为优选方案,步骤S2中所述根据GT框标记数据以对GT框进行聚类具体为:采用K-means聚类方法并根据GT框的宽和高进行聚类,以生成20个聚类后的先验框。
作为优选方案,步骤S3中,训练集、验证集、测试集的比例为7:1:2。
作为优选方案,步骤S4中具体包括以下步骤:
S4.1、任意选取训练集中X张图片输入至YOLO v4的主干网络CSPDarknet-53中进行初步的特征提取,以输出四个不同尺度的有效特征图,所述主干网络CSPDarknet-53包括依次相连的五个BottleneckCSP模块,其中第二、第三个BottleneckCSP模块之间连接有Coordinate Attention模块,第五个BottleneckCSP模块后连接有可变形卷积模块,其中BottleneckCSP表示带CSP结构的瓶颈层,CSP为跨阶段局部网络,Coordinate Attention模块为一个轻量级的注意力模块;
S4.2、将四个不同尺度的有效特征图通过轻量化的PANet进行特征融合,以输出尺度从小到大的第一、第二、第三、第四尺度特征图,并对PANet的输出进行自适应加权融合,以得到四个不同尺度的融合特征图,其中PANet表示路径聚合网络;
S4.3、通过YOLO Head将融合特征图的通道数调整为num_anchors*(5+num_classes),以获取N个训练集网络输出特征图,其中YOLO Head表示预测头,num_anchors表示每个网格上的先验框数目,num_classes表示类别数目。
作为优选方案,步骤S4.2中具体包括以下步骤:
S4.2.1、将第一尺度特征图经过空间金字塔池化和BottleneckCSP模块,以得到特征图P5,将特征图P5进行上采样并和第二尺度特征图进行堆叠,以得到特征图P4;
S4.2.2、将特征图P4进行上采样并和第三尺度特征图进行堆叠,并将堆叠结果输入BottleneckCSP模块,以得到特征图P3;
S4.2.3、将特征图P3进行上采样并和第四尺度特征图进行堆叠,并将堆叠结果进行三次卷积,以得到特征图P2;
S4.2.4、将特征图P2进行下采样并和特征图P3进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q3;
S4.2.5、将特征图Q3进行下采样并和特征图P4进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q4;
S4.2.6、将特征图Q4进行下采样并和特征图P5进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q5;
S4.2.7、对特征图P2、Q3、Q4、Q5进行自适应加权融合,以得到四个不同尺度的融合特征图。
作为优选方案,步骤S5中具体为:将K个先验框按照尺寸大小顺序平均分配至N个训练集网络输出特征图,每个尺度的训练集网络输出特征图按照像素划分为不同数量的网格,并根据每个网格中心位置和所分配的先验框尺寸生成相应的候选框。
作为优选方案,步骤S6中:
所述训练集网络输出特征图包括调整信息、分类置信度、边框置信度;
且,根据调整信息中的偏移信息与宽高调整信息对相应训练集候选框进行调整;
所述根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,具体为:
根据调整后训练集候选框以及相应GT框计算交并比损失,根据训练集网络输出特征图中包含的每个候选框的分类置信度、边框置信度计算训练集的分类置信度损失、边框置信度损失,并将交并比损失、分类置信度损失、边框置信度损失加权求和以得到网络整体损失。
作为优选方案,步骤S9中所述从所有调整后的测试集候选框中得到最终预测框具体包括以下步骤:
S9.1、对所有调整后的测试集候选框按照置信度得分进行排序;
S9.2、在所有调整后的测试集候选框中使用非极大值抑制去除冗余框,以得到最终的预测框。
本发明的有益效果是:
(1)、本发明对YOLO v4算法进行改进,在主干网络上引入了最新的轻量级注意力模块Coordinate Attention(CA),不仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,使得网络能对感兴趣的目标进行着重检测,并加入了可变形卷积(DeformableConvolutional Network,DCN)以增强网络对于形状多变的瑕疵的适应性,提高了检测准确率。
(2)、对于特征融合部分,首先在主干网络的低层截取感受野较小的特征图作为有效特征层,与原有的三层进行特征融合,增强了对小瑕疵的检测能力,并在原有的路径聚合网络(Path Aggregation Network,PANet)的基础上使用了自适应空间特征融合(Adaptively Spatial Feature Fusion,ASFF)的金字塔特征融合策略,使得各个特征层提取的特征在进行预测前以不同权重进行融合,同时为了轻量化网络,加快推理速度,对特征融合部分的卷积使用了跨阶段局部网络(Cross Stage Partial Network,CSP)结构进行部分替换,在保证速度的情况下,大幅提高了网络对织物瑕疵检测的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明所述一种基于YOLO v4改进算法的织物瑕疵检测方法的流程图;
图2是天池布匹检测数据集图像;
图3是基于YOLO v4改进的网络模型的结构示意图;
图4是Coordinate Attention模块结构示意图;
图5是可变形卷积模块结构示意图;
图6是天池数据集下的织物瑕疵检测效果图;
图7是使用基于改进YOLO v4网络模型对天池数据集下的sewing类别瑕疵的检测准确率。
具体实施方式
以下通过特定的具体实施例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
本实施例提供了一种基于YOLO v4改进算法的织物瑕疵检测方法,参照图1所示,该图像为该方法的流程示意图。参照图2,该图像为天池布匹检测数据集图像,该图像是由工作人员在佛山南海纺织车间现场采集的布匹图像组成,对该图像按照本发明方法的流程图进行处理,以详细说明本发明所述方法对于提高检测精度的效果。
一种基于YOLO v4改进算法的织物瑕疵检测方法,包括步骤:
S1、采集织物数据集,并对织物数据集进行增强,以得到织物增强数据集;
S2、对织物增强数据集中所有图片中的GT框进行聚类,以得到K个先验框;
S3、将织物增强数据集按预设比例划分为训练集、验证集、测试集;
S4、任意选取训练集中X张图片输入至YOLO v4的主干网络,以输出N个不同尺度的有效特征图,并对有效特征图进行特征融合,以输出N个不同尺度的融合特征图,对融合特征图的通道数进行调整以获取N个训练集网络输出特征图;
S5、将K个先验框平均分配至N个训练集网络输出特征图上,以生成相应训练集候选框;
S6、根据步骤S4中的训练集网络输出特征图对相应训练集候选框进行调整,根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,并根据网络整体损失对YOLO v4网络参数进行更新;
S7、通过参数更新后的YOLO v4网络在验证集上计算验证集损失,并根据验证集损失验证YOLO v4网络的拟合状态;
S8、重复步骤S4-S7,直至步骤S6计算得到的网络整体损失收敛,以得到训练后YOLO v4网络模型;
S9、将测试集中所有图片输入至训练后YOLO v4网络模型进行预测,以获取测试集网络输出特征图,并根据测试集网络输出特征图对预测过程中生成的测试集候选框进行调整,并从所有调整后的测试集候选框中得到最终预测框;
S10、根据测试集网络输出特征图与测试集原图的比例关系,将预测框映射至测试集原图上,以实现在测试集原图上瑕疵的定位。
具体地:
步骤S1中具体为,使用Mosaic数据对织物数据集进行数据增强,所述的Mosaic数据增强是对于数据集中任意4张图片,通过随机缩放、随机裁减、随机排布的方式进行拼接得到新的图片并加入数据集中,实现数据集的扩充。
织物数据集是含有多幅织物图片I及其对应的标签文件,织物图片的宽高均为2048×1696。标签文件是含有图片中的物体真实框标记数据的文件。真实框称为GroundTruth(GT),物体对象为织物瑕疵。
步骤S2中具体为:根据GT框标记数据以对GT框进行聚类,GT框标记数据为(c,x1,y1,x2,y2),c表示GT框内所含物体的类别,x1、y1分别表示GT框内左上角顶点的x坐标和y坐标,x2、y2表示GT框内右下角顶点的x坐标和y坐标。
步骤S2中所述根据GT框标记数据以对GT框进行聚类具体为:采用K-means聚类方法并根据GT框的宽和高进行聚类,以生成20个聚类后的先验框。
进一步,步骤S3中,训练集、验证集、测试集的比例为7:1:2。并生成train.txt、val.txt、test.txt文件来保存对应的图片名列表和其中的标签位置及类别信息,所述生成文件格式按行来对每张图片进行划分,以train.txt文件为例,其中每行依次保存着被划分为训练集的图片的路径、该图片内所有的标注框位置信息(x1,y1,x2,y2)及类别信息。
参照图3,进一步,步骤S4中具体包括以下步骤:
S4.1、任意选取训练集中X张图片输入至YOLO v4的主干网络CSPDarknet-53中进行初步的特征提取,在CSPDarknet-53中,输入的图片经过多个重复的残差结构并同时进行下采样,输出四个不同尺度的有效特征层,尺度分别为13×13、26×26、52×52及104×104,它们的感受野递减;
现有的主干网络CSPDarknet-53是主体由五个BottleneckCSP模块组成的,将可变形卷积模块插入到最后一个BottleneckCSP模块之后,然后将Coordinate Attention模块插入到第二个BottleneckCSP模块之后,其中Coordinate Attention模块的结构可参照图4所示,可变形卷积模块结构可参照图5所示。且现有的主干网络为输出三个有效特征层,分别对应上述三个较小尺度13×13、26×26、52×52,其中BottleneckCSP表示带CSP结构的瓶颈层,CSP为跨阶段局部网络,Coordinate Attention模块为一个轻量级的注意力模块。
本发明对YOLO v4算法进行改进,在主干网络上引入了最新的轻量级注意力模块Coordinate Attention(CA),不仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,使得网络能更精准地对感兴趣的目标进行着重检测,并加入了可变形卷积(Deformable Convolutional Network,DCN)以增强网络对于形状多变的瑕疵的适应性,提高了检测准确率。
S4.2、将四个不同尺度的有效特征图通过轻量化的PANet进行特征融合,以输出尺度从小到大的第一、第二、第三、第四尺度特征图(尺度分别为上述的13×13、26×26、52×52及104×104),并对PANet的输出进行自适应加权融合(Adaptively Spatial FeatureFusion,ASFF),以得到四个不同尺度的融合特征图,PANet表示路径聚合网络。
S4.3、通过YOLO Head将融合特征图的通道数调整为num_anchors*(5+num_classes),以获取N个训练集网络输出特征图,其中YOLO Head表示预测头,num_anchors表示每个网格上的先验框数目,num_classes表示类别数目。
所述轻量化的PANet为使用了CSP结构替代部分卷积的PANet。
步骤S4.2中具体包括以下步骤:
S4.2.1、将第一尺度特征图经过空间金字塔池化和BottleneckCSP模块,以得到特征图P5,将特征图P5进行上采样并和第二尺度特征图进行堆叠,以得到特征图P4;
S4.2.2、将特征图P4进行上采样并和第三尺度特征图进行堆叠,并将堆叠结果输入BottleneckCSP模块,以得到特征图P3;
S4.2.3、将特征图P3进行上采样并和第四尺度特征图进行堆叠,并将堆叠结果进行三次卷积,以得到特征图P2;
S4.2.4、将特征图P2进行下采样并和特征图P3进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q3;
S4.2.5、将特征图Q3进行下采样并和特征图P4进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q4;
S4.2.6、将特征图Q4进行下采样并和特征图P5进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q5;
S4.2.7、对特征图P2、Q3、Q4、Q5进行自适应加权融合,以得到四个不同尺度的融合特征图。
进一步,步骤S5中具体为:将20个先验框按照尺寸大小顺序平均分配至4个训练集网络输出特征图,每个尺度的训练集网络输出特征图按照像素划分为不同数量的网格,并根据每个网格中心位置和所分配的先验框尺寸生成相应的候选框。
所述20个不同尺寸大小的先验框分别为(6,8),(13,11),(14,25),(15,79),(21,238),(26,17),(34,35),(39,636),(60,141),(112,636),(115,22),(552,49),(639,638),(639,101),(639,75),(639,62),(639,32),(640,23),(640,40),(640,50)。而在步骤S4中得到的4个不同尺度的训练集网络输出特征图的尺度分别为13×13、26×26、52×52及104×104。对于每一个训练集网络输出特征图,分配5个尺寸的先验框。如对于13×13尺度的训练集网络输出特征图,其感受野最大,所以分配其最大的5个尺寸的先验框(639,62),(639,32),(640,23),(640,40),(640,50)。同理对于26×26尺度的训练集网络输出特征图,分配较大的5个尺寸的先验框(115,22),(552,49),(639,638),(639,101),(639,75)。对于26×26尺度的训练集网络输出特征图,分配较小的5个先验框(26,17),(34,35),(39,636),(60,141),(112,636)。最后对于104×104尺度的训练集网络输出特征图,分配最小的5个先验框(6,8),(13,11),(14,25),(15,79),(21,238)。
进一步,步骤S6中:所述训练集网络输出特征图包括调整信息、分类置信度、边框置信度;
且,根据调整信息中的偏移信息与宽高调整信息对相应训练集候选框进行调整;
所述根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,具体为:
根据调整后训练集候选框以及相应GT框计算交并比损失(Intersection overUnion,IOU),根据训练集网络输出特征图中包含的每个候选框的分类置信度、边框置信度计算训练集的分类置信度损失、边框置信度损失,并将交并比损失、分类置信度损失、边框置信度损失加权求和以得到网络整体损失。从而可以进行误差反向传播为网络的参数更新提供指导。
具体地,进行YOLO v4网络模型训练,具体包括以下步骤:
A:配置网络环境,Python版本为3.7和深度学习框架为PyTorch,使用CUDA进行加速;
B:设置初始学习率为0.001,每经历400次迭代后,调整一次学习率;
C:设置批量输入网络样本的数量为8;
D:加载预训练权重,进行训练,在训练过程中的每个周期结束后进行网络整体损失计算。循环迭代直至网络整体损失不再下降,此时停止YOLO v4网络参数更新。
在每个周期结束后,还可计算验证集损失,并将所述网络整体损失与验证集损失进行比较,以查看是否过拟合或者欠拟合。需要说明的是,验证集损失的计算方式与网络整体损失计算方式类似,这里不作过多赘述。
进一步地,步骤S9中所述从所有调整后的测试集候选框中得到最终预测框具体包括以下步骤:
S9.1、对所有调整后的测试集候选框按照置信度得分进行排序;
S9.2、在所有调整后的测试集候选框中使用非极大值抑制(Non-MaximumSuppression,NMS)去除冗余框,以得到最终的预测框。
为了验证方法的性能,在原先分配的测试集上进行测试,根据GT框和模型得到的预测框,计算平均精确度均值mAP(mean Average Precision)和每个类别对应的准确率(Precision)、召回率(Recall),对模型进行系统的评价。实验结果如图6、7所示,本发明能够实现对多种类别的织物瑕疵检测,取得了较高的准确率。
本发明的有益效果是:
(1)、本发明对YOLO v4算法进行改进,在主干网络上引入了最新的轻量级注意力模块Coordinate Attention(CA),不仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,使得网络能对感兴趣的目标进行着重检测,并加入了可变形卷积(DeformableConvolutional Network,DCN)以增强网络对于形状多变的瑕疵的适应性,提高了检测准确率。
(2)、对于特征融合部分,首先在主干网络的低层截取感受野较小的特征图作为有效特征层,与原有的三层进行特征融合,增强了对小瑕疵的检测能力,并在原有的路径聚合网络(Path Aggregation Network,PANet)的基础上使用了自适应空间特征融合(Adaptively Spatial Feature Fusion,ASFF)的金字塔特征融合策略,使得各个特征层提取的特征在进行预测前以不同权重进行融合,同时为了轻量化网络,加快推理速度,对特征融合部分的卷积使用了跨阶段局部网络(Cross Stage Partial Network,CSP)结构进行部分替换,在保证速度的情况下,大幅提高了网络对织物瑕疵检测的准确率。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的保护范围内。

Claims (10)

1.一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,包括步骤:
S1、采集织物数据集,并对织物数据集进行增强,以得到织物增强数据集;
S2、对织物增强数据集中所有图片中的GT框进行聚类,以得到K个先验框;
S3、将织物增强数据集按预设比例划分为训练集、验证集、测试集;
S4、任意选取训练集中X张图片输入至YOLO v4的主干网络,以输出N个不同尺度的有效特征图,并对有效特征图进行特征融合,以输出N个不同尺度的融合特征图,对融合特征图的通道数进行调整以获取N个训练集网络输出特征图;
S5、将K个先验框平均分配至N个训练集网络输出特征图上,以生成相应训练集候选框;
S6、根据步骤S4中的训练集网络输出特征图对相应训练集候选框进行调整,根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,并根据网络整体损失对YOLO v4网络参数进行更新;
S7、通过参数更新后的YOLO v4网络在验证集上计算验证集损失,并根据验证集损失验证YOLO v4网络的拟合状态;
S8、重复步骤S4-S7,直至步骤S6计算得到的网络整体损失收敛,以得到训练后YOLO v4网络模型;
S9、将测试集中所有图片输入至训练后YOLO v4网络模型进行预测,以获取测试集网络输出特征图,并根据测试集网络输出特征图对预测过程中生成的测试集候选框进行调整,并从所有调整后的测试集候选框中得到最终预测框;
S10、根据测试集网络输出特征图与测试集原图的比例关系,将预测框映射至测试集原图上,以实现在测试集原图上瑕疵的定位。
2.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S1中具体为,使用Mosaic数据对织物数据集进行数据增强,以实现数据集的扩充。
3.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S2中具体为:根据GT框标记数据以对GT框进行聚类,GT框标记数据为(c,x1,y1,x2,y2),c表示GT框内所含物体的类别,x1、y1分别表示GT框内左上角顶点的x坐标和y坐标,x2、y2表示GT框内右下角顶点的x坐标和y坐标。
4.根据权利要求3所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S2中所述根据GT框标记数据以对GT框进行聚类具体为:采用K-means聚类方法并根据GT框的宽和高进行聚类,以生成20个聚类后的先验框。
5.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S3中,训练集、验证集、测试集的比例为7:1:2。
6.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S4中具体包括以下步骤:
S4.1、任意选取训练集中X张图片输入至YOLO v4的主干网络CSPDarknet-53中进行初步的特征提取,以输出四个不同尺度的有效特征图,所述主干网络CSPDarknet-53包括依次相连的五个BottleneckCSP模块,其中第二、第三个BottleneckCSP模块之间连接有Coordinate Attention模块,第五个BottleneckCSP模块后连接有可变形卷积模块,其中BottleneckCSP表示带CSP结构的瓶颈层,CSP为跨阶段局部网络,Coordinate Attention模块为一个轻量级的注意力模块;
S4.2、将四个不同尺度的有效特征图通过轻量化的PANet进行特征融合,以输出尺度从小到大的第一、第二、第三、第四尺度特征图,并对PANet的输出进行自适应加权融合,以得到四个不同尺度的融合特征图,其中PANet表示路径聚合网络;
S4.3、通过YOLO Head将融合特征图的通道数调整为num_anchors*(5+num_classes),以获取N个训练集网络输出特征图,其中YOLO Head表示预测头,num_anchors表示每个网格上的先验框数目,num_classes表示类别数目。
7.根据权利要求6所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S4.2中具体包括以下步骤:
S4.2.1、将第一尺度特征图经过空间金字塔池化和BottleneckCSP模块,以得到特征图P5,将特征图P5进行上采样并和第二尺度特征图进行堆叠,以得到特征图P4;
S4.2.2、将特征图P4进行上采样并和第三尺度特征图进行堆叠,并将堆叠结果输入BottleneckCSP模块,以得到特征图P3;
S4.2.3、将特征图P3进行上采样并和第四尺度特征图进行堆叠,并将堆叠结果进行三次卷积,以得到特征图P2;
S4.2.4、将特征图P2进行下采样并和特征图P3进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q3;
S4.2.5、将特征图Q3进行下采样并和特征图P4进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q4;
S4.2.6、将特征图Q4进行下采样并和特征图P5进行堆叠,并将堆叠结果进行三次卷积,以得到特征图Q5;
S4.2.7、对特征图P2、Q3、Q4、Q5进行自适应加权融合,以得到四个不同尺度的融合特征图。
8.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S5中具体为:将K个先验框按照尺寸大小顺序平均分配至N个训练集网络输出特征图,每个尺度的训练集网络输出特征图按照像素划分为不同数量的网格,并根据每个网格中心位置和所分配的先验框尺寸生成相应的候选框。
9.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S6中:
所述训练集网络输出特征图包括调整信息、分类置信度、边框置信度;
且,根据调整信息中的偏移信息与宽高调整信息对相应训练集候选框进行调整;
所述根据网络输出特征图、调整后训练集候选框以及相应GT框计算网络整体损失,具体为:
根据调整后训练集候选框以及相应GT框计算交并比损失,根据训练集网络输出特征图中包含的每个候选框的分类置信度、边框置信度计算训练集的分类置信度损失、边框置信度损失,并将交并比损失、分类置信度损失、边框置信度损失加权求和以得到网络整体损失。
10.根据权利要求1所述的一种基于YOLO v4改进算法的织物瑕疵检测方法,其特征在于,步骤S9中所述从所有调整后的测试集候选框中得到最终预测框具体包括以下步骤:
S9.1、对所有调整后的测试集候选框按照置信度得分进行排序;
S9.2、在所有调整后的测试集候选框中使用非极大值抑制去除冗余框,以得到最终的预测框。
CN202110505326.XA 2021-05-10 2021-05-10 一种基于YOLO v4改进算法的织物瑕疵检测方法 Active CN113192040B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110505326.XA CN113192040B (zh) 2021-05-10 2021-05-10 一种基于YOLO v4改进算法的织物瑕疵检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110505326.XA CN113192040B (zh) 2021-05-10 2021-05-10 一种基于YOLO v4改进算法的织物瑕疵检测方法

Publications (2)

Publication Number Publication Date
CN113192040A true CN113192040A (zh) 2021-07-30
CN113192040B CN113192040B (zh) 2023-09-22

Family

ID=76988734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110505326.XA Active CN113192040B (zh) 2021-05-10 2021-05-10 一种基于YOLO v4改进算法的织物瑕疵检测方法

Country Status (1)

Country Link
CN (1) CN113192040B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343953A (zh) * 2021-08-05 2021-09-03 南京信息工程大学 一种用于遥感场景识别的fgr-am方法和系统
CN113723217A (zh) * 2021-08-09 2021-11-30 南京邮电大学 一种基于yolo改进的物体智能检测方法及系统
CN113963167A (zh) * 2021-10-29 2022-01-21 北京百度网讯科技有限公司 应用于目标检测的方法、装置及计算机程序产品
CN113962931A (zh) * 2021-09-08 2022-01-21 宁波海棠信息技术有限公司 一种用于磁簧开关的异物缺陷检测方法
CN114104980A (zh) * 2021-10-15 2022-03-01 福建电子口岸股份有限公司 一种基于ai与视觉结合的岸桥安全作业控制方法和系统
CN114240885A (zh) * 2021-12-17 2022-03-25 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN114240822A (zh) * 2021-12-28 2022-03-25 中山小池科技有限公司 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法
CN114332083A (zh) * 2022-03-09 2022-04-12 齐鲁工业大学 一种基于PFNet的工业品伪装瑕疵识别方法
CN114372968A (zh) * 2021-12-31 2022-04-19 江南大学 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
CN114549507A (zh) * 2022-03-01 2022-05-27 浙江理工大学 改进Scaled-YOLOv4的织物瑕疵检测方法
CN114596273A (zh) * 2022-03-02 2022-06-07 江南大学 利用yolov4网络的陶瓷基板多种瑕疵智能检测方法
CN114998220A (zh) * 2022-05-12 2022-09-02 湖南中医药大学 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN115049619A (zh) * 2022-06-16 2022-09-13 浙江理工大学 一种针对复杂场景的高效瑕疵检测方法
CN115049639A (zh) * 2022-07-21 2022-09-13 浙江理工大学 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法
CN115205568A (zh) * 2022-07-13 2022-10-18 昆明理工大学 一种多尺度特征融合的道路交通多要素检测方法
CN115326809A (zh) * 2022-08-02 2022-11-11 山西省智慧交通研究院有限公司 一种隧道衬砌表观裂纹检测方法及检测装置
CN115631407A (zh) * 2022-11-10 2023-01-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN116152254A (zh) * 2023-04-20 2023-05-23 北京万龙精益科技有限公司 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN116256586A (zh) * 2023-05-10 2023-06-13 广东电网有限责任公司湛江供电局 电力设备过热检测方法、装置、电子设备与存储介质
CN116958053A (zh) * 2023-06-21 2023-10-27 三峡大学 一种基于yolov4-tiny的竹签计数方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN110930387A (zh) * 2019-11-21 2020-03-27 中原工学院 基于深度可分离卷积神经网络的织物疵点检测方法
CN111260614A (zh) * 2020-01-13 2020-06-09 华南理工大学 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法
CN111860679A (zh) * 2020-07-29 2020-10-30 浙江理工大学 一种基于YOLO v3改进算法的车辆检测方法
CN112001339A (zh) * 2020-08-27 2020-11-27 杭州电子科技大学 一种基于YOLO v4的行人社交距离实时监测方法
CN112270722A (zh) * 2020-10-26 2021-01-26 西安工程大学 一种基于深度神经网络的数码印花织物缺陷检测方法
CN112446388A (zh) * 2020-12-05 2021-03-05 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法
CN112507896A (zh) * 2020-12-14 2021-03-16 大连大学 一种采用改进的yolo-v4模型对樱桃果实进行检测的方法
CN112733821A (zh) * 2021-03-31 2021-04-30 成都西交智汇大数据科技有限公司 一种融合轻量级注意力模型的目标检测方法
CN112766040A (zh) * 2020-12-23 2021-05-07 北京农业信息技术研究中心 残余饵料的探测方法、设备、装置及可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN110930387A (zh) * 2019-11-21 2020-03-27 中原工学院 基于深度可分离卷积神经网络的织物疵点检测方法
CN111260614A (zh) * 2020-01-13 2020-06-09 华南理工大学 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法
CN111860679A (zh) * 2020-07-29 2020-10-30 浙江理工大学 一种基于YOLO v3改进算法的车辆检测方法
CN112001339A (zh) * 2020-08-27 2020-11-27 杭州电子科技大学 一种基于YOLO v4的行人社交距离实时监测方法
CN112270722A (zh) * 2020-10-26 2021-01-26 西安工程大学 一种基于深度神经网络的数码印花织物缺陷检测方法
CN112446388A (zh) * 2020-12-05 2021-03-05 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统
CN112507896A (zh) * 2020-12-14 2021-03-16 大连大学 一种采用改进的yolo-v4模型对樱桃果实进行检测的方法
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法
CN112766040A (zh) * 2020-12-23 2021-05-07 北京农业信息技术研究中心 残余饵料的探测方法、设备、装置及可读存储介质
CN112733821A (zh) * 2021-03-31 2021-04-30 成都西交智汇大数据科技有限公司 一种融合轻量级注意力模型的目标检测方法

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343953A (zh) * 2021-08-05 2021-09-03 南京信息工程大学 一种用于遥感场景识别的fgr-am方法和系统
CN113723217A (zh) * 2021-08-09 2021-11-30 南京邮电大学 一种基于yolo改进的物体智能检测方法及系统
CN113962931A (zh) * 2021-09-08 2022-01-21 宁波海棠信息技术有限公司 一种用于磁簧开关的异物缺陷检测方法
CN114104980A (zh) * 2021-10-15 2022-03-01 福建电子口岸股份有限公司 一种基于ai与视觉结合的岸桥安全作业控制方法和系统
CN114104980B (zh) * 2021-10-15 2023-06-02 福建电子口岸股份有限公司 一种基于ai与视觉结合的岸桥安全作业控制方法和系统
CN113963167A (zh) * 2021-10-29 2022-01-21 北京百度网讯科技有限公司 应用于目标检测的方法、装置及计算机程序产品
CN114240885B (zh) * 2021-12-17 2022-08-16 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN114240885A (zh) * 2021-12-17 2022-03-25 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN114240822A (zh) * 2021-12-28 2022-03-25 中山小池科技有限公司 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法
CN114372968A (zh) * 2021-12-31 2022-04-19 江南大学 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
CN114372968B (zh) * 2021-12-31 2022-12-27 江南大学 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
CN114549507A (zh) * 2022-03-01 2022-05-27 浙江理工大学 改进Scaled-YOLOv4的织物瑕疵检测方法
CN114549507B (zh) * 2022-03-01 2024-05-24 浙江理工大学 改进Scaled-YOLOv4的织物瑕疵检测方法
CN114596273A (zh) * 2022-03-02 2022-06-07 江南大学 利用yolov4网络的陶瓷基板多种瑕疵智能检测方法
CN114596273B (zh) * 2022-03-02 2022-11-25 江南大学 利用yolov4网络的陶瓷基板多种瑕疵智能检测方法
CN114332083A (zh) * 2022-03-09 2022-04-12 齐鲁工业大学 一种基于PFNet的工业品伪装瑕疵识别方法
CN114998220B (zh) * 2022-05-12 2023-06-13 湖南中医药大学 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN114998220A (zh) * 2022-05-12 2022-09-02 湖南中医药大学 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN115049619A (zh) * 2022-06-16 2022-09-13 浙江理工大学 一种针对复杂场景的高效瑕疵检测方法
CN115049619B (zh) * 2022-06-16 2024-04-09 浙江理工大学 一种针对复杂场景的高效瑕疵检测方法
CN115205568A (zh) * 2022-07-13 2022-10-18 昆明理工大学 一种多尺度特征融合的道路交通多要素检测方法
CN115205568B (zh) * 2022-07-13 2024-04-19 昆明理工大学 一种多尺度特征融合的道路交通多要素检测方法
CN115049639B (zh) * 2022-07-21 2024-04-26 浙江理工大学 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法
CN115049639A (zh) * 2022-07-21 2022-09-13 浙江理工大学 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法
CN115326809B (zh) * 2022-08-02 2023-06-06 山西省智慧交通研究院有限公司 一种隧道衬砌表观裂纹检测方法及检测装置
CN115326809A (zh) * 2022-08-02 2022-11-11 山西省智慧交通研究院有限公司 一种隧道衬砌表观裂纹检测方法及检测装置
CN115631407A (zh) * 2022-11-10 2023-01-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN115631407B (zh) * 2022-11-10 2023-10-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN116152254A (zh) * 2023-04-20 2023-05-23 北京万龙精益科技有限公司 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN116256586A (zh) * 2023-05-10 2023-06-13 广东电网有限责任公司湛江供电局 电力设备过热检测方法、装置、电子设备与存储介质
CN116958053B (zh) * 2023-06-21 2024-05-14 三峡大学 一种基于yolov4-tiny的竹签计数方法
CN116958053A (zh) * 2023-06-21 2023-10-27 三峡大学 一种基于yolov4-tiny的竹签计数方法

Also Published As

Publication number Publication date
CN113192040B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN113192040B (zh) 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN109919934B (zh) 一种基于多源域深度迁移学习的液晶面板缺陷检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN110660052A (zh) 一种基于深度学习的热轧带钢表面缺陷检测方法
CN108961235A (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN110060237A (zh) 一种故障检测方法、装置、设备及系统
CN109816012A (zh) 一种融合上下文信息的多尺度目标检测方法
CN113920107A (zh) 一种基于改进yolov5算法的绝缘子破损检测方法
CN109671071A (zh) 一种基于深度学习的地下管道缺陷定位及等级判定方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN114549507B (zh) 改进Scaled-YOLOv4的织物瑕疵检测方法
CN113392775A (zh) 一种基于深度神经网络的甘蔗幼苗自动识别与计数方法
CN115049619B (zh) 一种针对复杂场景的高效瑕疵检测方法
CN112434586A (zh) 一种基于域自适应学习的多复杂场景目标检测方法
CN114463759A (zh) 一种基于无锚框算法的轻量化文字检测方法及装置
CN114612406A (zh) 一种基于可见光和红外视觉的光伏板缺陷检测方法
CN116342536A (zh) 基于轻量化模型的铝带材表面缺陷检测方法、系统及设备
CN117152484A (zh) 改进YOLOv5s的小目标布匹瑕疵检测方法
CN111598854A (zh) 基于丰富鲁棒卷积特征模型的复杂纹理小缺陷的分割方法
CN114494250A (zh) 基于神经网络模型的地板缺陷检测方法
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN117079125A (zh) 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法
CN114792300B (zh) 一种基于多尺度注意力x光断针检测方法
EP4266246A1 (en) Automated defect classification and detection
CN110211122A (zh) 一种检测图像处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant