CN114240822A - 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 - Google Patents
基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 Download PDFInfo
- Publication number
- CN114240822A CN114240822A CN202111243617.2A CN202111243617A CN114240822A CN 114240822 A CN114240822 A CN 114240822A CN 202111243617 A CN202111243617 A CN 202111243617A CN 114240822 A CN114240822 A CN 114240822A
- Authority
- CN
- China
- Prior art keywords
- frame
- yolov3
- image
- method based
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 229920000742 Cotton Polymers 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 239000004744 fabric Substances 0.000 title claims abstract description 17
- 230000007547 defect Effects 0.000 claims abstract description 28
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 238000011524 similarity measure Methods 0.000 claims 1
- 239000004753 textile Substances 0.000 abstract description 7
- 238000000034 method Methods 0.000 description 8
- 238000007689 inspection Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013477 bayesian statistics method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于YOLOv3网络以及多尺度特征融合的棉布瑕疵检测方法,设计了一个基于YOLOv3网络的瑕疵点检测模型,实现纺织品隐蔽瑕疵点的检测。首先对纺织品图像数据进行随机裁剪、旋转等预处理工作,增强模型的鲁棒性。然后用K‑Means++算法聚类锚框,得到逐渐接近真实框的参数。然后再利用Darknet‑53网络提取图像特征,并对特征进行特征融合多尺度分类预测,其中包括定位置信度评分、分类置信度评分、过滤预测框等操作,最终输出目标类别及预测的Bbox结果。
Description
技术领域
本发明属于纺织品成分分析、材料分类技术领域,具体涉及一种基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法。
背景技术
在当前的纺织企业中,织物的检验仍以传统的人工视觉检验方式为主,检测速度一般在15-20m/min[1],无法满足在线检测的要求. 纺织厂中的织物若出现瑕疵,将严重影响其经济收益.因此,以机器视觉和深度学习为依托的检测方法成为近几年研究的热点.一般基于传统的机器视觉处理方法大致可分为统计法(数学形态学法、直方图统计法、遗传算法、贝叶斯统计法),模型法(总变差模型),光谱法(快速傅里叶变换、小波变换、Gabor变换),且由于一种算法很难取得理想的瑕疵轮廓,于是很多学者将多种算法融合应用.但这些传统算法过于依赖图像本身的浅层特征,图像的低对比度、光照不均等因素都会干扰检测结果,使得检测精度较低.近些年深度学习在目标检测方面发展迅猛,采用经过验证的两级管道,例如Fast R-CNN、 FasterR-CNN、Mask R-CNN等框架已成为一种流行范式.首先需生成一些候选框(Proposal),然后对它们进行类,能实现较好的检测效果,但由于步骤繁琐,检测速度较慢.另一些框架如SSD、YOLO省去候选框的生成过程,输入整张图像后直接在输出层回归出目标位置和类别,从而得到较快的检测速度.吴桐等人基于YOLO网络研究了一种数据集预处理的方法进行焊缝瑕疵的检测,以流水线作业的方式提升网络检测速度.由于锚框选取的好坏直接影响检测精度的高低,故本文在 YOLOv3网络的基础上进行改进,提出一种棉布瑕疵目标检测算法 FS-YOLOv3(Four Scales YOLOv3),在保证速度的同时,从先验框的选取、尺度的选择、目标框滤除三个角度进行优化,进一步提高检测精度。
发明内容
本发明提出的基于YOLOv3网络以及多尺度特征融合的棉布瑕疵检测方法,设计了一个基于YOLOv3网络的瑕疵点检测模型,实现纺织品隐蔽瑕疵点的检测。首先对纺织品图像数据进行随机裁剪、旋转等预处理工作,增强模型的鲁棒性。然后用K-Means++算法聚类锚框,得到逐渐接近真实框的参数。然后再利用Darknet-53网络提取图像特征,并对特征进行特征融合多尺度分类预测,其中包括定位置信度评分、分类置信度评分、过滤预测框等操作,最终输出目标类别及预测的Bbox 结果。
本发明提出的基于YOLO的瑕疵点检测网络包括如下步骤:
S1:像预处理,其主要包括图像矩阵的归一化、标准化等操作。常用softmax函数作为归一化函数,常用Min-Max Feature scaling或 Standard score对数据进行标准化;
S2:专利要求2所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的分割图像,对其输入的图像数据进行随机裁剪、旋转等预处理工作,目的是增强模型额鲁棒性。假设输出特征图的高与宽分别为H、W,相当于将图像划分为H×W个网络,图像的每个网格对应输出特征图平面上的一个表征点。在每个网格上都放上这些锚框,每个网格上每个锚框都对应一个预测框。在过滤预测框阶段,设置分类置信度阈值为threshold1,定位置信度阈值threshold2.用红色框凸显先验框的选取、尺度的选择以及目标框的滤除部分;
S3:专利要求3所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的K-Means聚类锚框,利用锚点机制预测下次边界框以降低模型训练的复杂度。随着对样本特征的不断学习,根据真实框对初始候选框逐步修正,得到逐渐接近真实框的参数。为减少随机初始化对结果的影响,得到更好的IOU得分,用K-Means++算法取代K-Means算法,将候选框和真实框的交并比(IOU)作为位置相似性度量,计算公式如下:
d(box,centre)=1-IOU(box,centre)
其中box为目标的真实框,centre为样本聚类中心,IOU表示目标真实框和聚类得到的锚框的交并比,随着IOU的增大,函数值减小,聚类得到的锚框与真实框越接近,效果也越好。
在预测阶段,对于输入的瑕疵图像,预测一个三维张量,包括对棉布瑕疵每个预测框的坐标信息x、y、w、h,可以根据
bx=σ(x)+Cx,
by=σ(y)+cy,
两式子将锚框的中心点偏移到与真实框一致,根据
bw=pw ew,
bh=ph eh,
两式对预测框的宽度和高度做拉伸处理,使得预测框与真实框保持一致。
S4:专利要求4所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的用Darknet-53提取图像特征,初始卷积层用32个3×3的卷积核过滤416×416大小的棉布瑕疵图像;随后将之前卷积层的输出作为下一层的输入,并使用64个3×3的卷积核,用两个像素的步长对他们过滤波实现下采样操作。经过上述操作可以得到尺寸为208×208的特征图;执行包含1×,2×,8×,8×,4×残差块的五组网络,分别获得208×208,104×104,52×52,26×26,13×13分辨率的特征图。
S5:专利要求5所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的定位置信度评分与分类置信度评分,在过滤预测框阶段,设置分类置信度阈值为threshold1,定位置信度阈值为threshold2.用红色框凸显先验框的选取、尺度的选择以及目标框的滤除部分;
S6:专利要求6所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的将评分结果与阈值比较,将之前的分类置信度评分与定位置信度与初始化时设置的阈值进行比较,若均大于阈值则过滤预测框,否则舍弃Bbox目标框;
S7:专利要求7所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法中的引入softer-NMS算法精确化边框,对于低对比度的样本图像,噪声往往会被当成目标,得分低的边框被强制去除,造成精度下降,故引入softer-NMS算法,提高分类置信度边框的准确率。
与现有的技术相比,本发明具有如下优点:在保证速度的同时,提高了检测的精度。
附图说明
下面结合附图和具体实施方式对本申请作进一步详细的说明。
图1为本发明涉及到的经典YOLOv3网络结构图;
图2为本发明涉及到的目标检测流程图;
图3为本发明提出的改进的YOLOv3网络结构图;
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
在以下具体实施例的说明中,为了清楚展示本发明的结构及工作方式,将借助诸多方向性词语进行描述,但是应当将“前”、“后”、“左”、“右”、“外”、“内”、“向外”、“向内”、“轴向”、“径向”等词语理解为方便用语,而不应当理解为限定性词语。
下面结合附图详细说明本发明的具体细节。
图1是经典的YOLOv3流程图,使用了darknet-53的前面的52层 (没有全连接层),yolo_v3这个网络是一个全卷积网络,大量使用残差的跳层连接,并且为了降低池化带来的梯度负面效果,直接摒弃了 POOLing,用conv的stride来实现降采样。在这个网络结构中,使用的是步长为2的卷积来进行降采样。为了加强算法对小目标检测的精确度,YOLOv3中采用类似FPN的upsample和融合做法(最后融合了 3个scale,其他两个scale的大小分别是26×26和52×52),在多个scale的feature map上做检测。在3条预测支路采用的也是全卷积的结构,其中最后一个卷积层的卷积核个数是255,是针对COCO数据集的80类:3*(80+4+1)=255,3表示一个grid cell包含3个bounding box,4表示框的4个坐标信息,1表示objectness score。
图2是目标检测流程图,其中详细描述了瑕疵目标检测的流程,按以下步骤进行:
步骤1:输入图像并进行图像归一化;
步骤2:图像划分为H×W个网格;
步骤3:滑动窗口产生大量候选框;
步骤4:用训练好的分类器分类;
步骤5:筛选Bbox,计算Bbox与剩余边框的IOU;
步骤6:将IOU值与阈值进行比较,若小于阈值则保留阈值的索引,否则舍弃Bbox;
步骤7:标记瑕疵轮廓。
图3为本发明提出的改进的YOLOv3网络结构图,其中用 Darknet-53提取图像特征,初始卷积层用32个3×3的卷积核过滤416 ×416大小的棉布瑕疵图像;随后将之前卷积层的输出作为下一层的输入,并使用64个3×3的卷积核,用两个像素的步长对他们过滤波实现下采样操作。经过上述操作可以得到尺寸为208×208的特征图;执行包含1×,2×,8×,8×,4×残差块的五组网络,分别获得208× 208,104×104,52×52,26×26,13×13分辨率的特征图。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本申请的保护范围。
Claims (8)
1.基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,包括以下步骤:
S1:输入棉布图像,对其进行归一化与标准化预处理;
S2:随机裁剪图像并在网格上加入锚框;
S3:用K-Means++算法聚类锚框;
S4:用Darknet-53提取图像特征;
S5:定位置信度评分与分类置信度评分;
S6:将评分结果与阈值比较;
S7:引入softer-NMS算法精确化边框。
2.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S1图像预处理,其主要包括图像矩阵的归一化、标准化等操作。
3.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S2随机裁剪图像并在网格上加入锚框,对其输入的图像数据进行随机裁剪、旋转等预处理工作,目的是增强模型额鲁棒性,假设输出特征图的高与宽分别为H、W,相当于将图像划分为H×W个网络,图像的每个网格对应输出特征图平面上的一个表征点,在每个网格上都放上这些锚框,每个网格上每个锚框都对应一个预测框。
4.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S3用K-Means++算法聚类锚框,利用锚点机制预测下次边界框以降低模型训练的复杂度,随着对样本特征的不断学习,根据真实框对初始候选框逐步修正,得到逐渐接近真实框的参数,为减少随机初始化对结果的影响,得到更好的IOU得分,用K-Means++算法取代K-Means算法,将候选框和真实框的交并比(IOU)作为位置相似性度量。
5.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S4用Darknet-53提取图像特征,初始卷积层用32个3×3的卷积核过滤416×416大小的棉布瑕疵图像;随后将之前卷积层的输出作为下一层的输入,并使用64个3×3的卷积核,用两个像素的步长对他们过滤波实现下采样操作,经过上述操作可以得到尺寸为208×208的特征图;执行包含1×,2×,8×,8×,4×残差块的五组网络,分别获得208×208,104×104,52×52,26×26,13×13分辨率的特征图。
6.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S5定位置信度评分与分类置信度评分,在过滤预测框阶段,设置分类置信度阈值为threshold1,定位置信度阈值为threshold2.用红色框凸显先验框的选取、尺度的选择以及目标框的滤除部分。
7.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S6将评分结果与阈值比较,将之前的分类置信度评分与定位置信度与初始化时设置的阈值进行比较,若均大于阈值则过滤预测框,否则舍弃Bbox目标框。
8.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S7引入softer-NMS算法精确化边框,对于低对比度的样本图像,噪声往往会被当成目标,得分低的边框被强制去除,造成精度下降,故引入softer-NMS算法,提高分类置信度边框的准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111243617.2A CN114240822A (zh) | 2021-12-28 | 2021-12-28 | 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111243617.2A CN114240822A (zh) | 2021-12-28 | 2021-12-28 | 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114240822A true CN114240822A (zh) | 2022-03-25 |
Family
ID=80743240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111243617.2A Pending CN114240822A (zh) | 2021-12-28 | 2021-12-28 | 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240822A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115049639A (zh) * | 2022-07-21 | 2022-09-13 | 浙江理工大学 | 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310259A (zh) * | 2019-06-19 | 2019-10-08 | 江南大学 | 一种基于改进YOLOv3算法的木结瑕疵检测方法 |
CN110490874A (zh) * | 2019-09-04 | 2019-11-22 | 河海大学常州校区 | 基于yolo神经网络的纺织布匹表面瑕疵检测方法 |
US20200005468A1 (en) * | 2019-09-09 | 2020-01-02 | Intel Corporation | Method and system of event-driven object segmentation for image processing |
CN110827277A (zh) * | 2019-11-26 | 2020-02-21 | 山东浪潮人工智能研究院有限公司 | 一种基于yolo3网络的布匹瑕疵检测方法 |
CN111968076A (zh) * | 2020-07-24 | 2020-11-20 | 西安工程大学 | 一种基于s-yolov3的织物实时缺陷检测方法 |
CN112613387A (zh) * | 2020-12-18 | 2021-04-06 | 五邑大学 | 一种基于YOLOv3的交通标志检测方法 |
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
-
2021
- 2021-12-28 CN CN202111243617.2A patent/CN114240822A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310259A (zh) * | 2019-06-19 | 2019-10-08 | 江南大学 | 一种基于改进YOLOv3算法的木结瑕疵检测方法 |
CN110490874A (zh) * | 2019-09-04 | 2019-11-22 | 河海大学常州校区 | 基于yolo神经网络的纺织布匹表面瑕疵检测方法 |
US20200005468A1 (en) * | 2019-09-09 | 2020-01-02 | Intel Corporation | Method and system of event-driven object segmentation for image processing |
CN110827277A (zh) * | 2019-11-26 | 2020-02-21 | 山东浪潮人工智能研究院有限公司 | 一种基于yolo3网络的布匹瑕疵检测方法 |
CN111968076A (zh) * | 2020-07-24 | 2020-11-20 | 西安工程大学 | 一种基于s-yolov3的织物实时缺陷检测方法 |
CN112613387A (zh) * | 2020-12-18 | 2021-04-06 | 五邑大学 | 一种基于YOLOv3的交通标志检测方法 |
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
Non-Patent Citations (4)
Title |
---|
ARTHUR, D等: "k-means plus plus : The Advantages of Careful Seeding", 《PROCEEDINGS OF THE EIGHTEENTH ANNUAL ACM-SIAM SYMPOSIUM ON DISCRETE ALGORITHMS》 * |
JOSEPH REDMON等: "YOLOv3: An Incremental Improvement", 《ARXIV》 * |
YIHUI HE等: "Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection", 《ARXIV》 * |
刘露露等: "基于FS-YOLOv3及多尺度特征融合的棉布瑕疵检测", 《中南民族大学学报(自然科学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115049639A (zh) * | 2022-07-21 | 2022-09-13 | 浙江理工大学 | 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法 |
CN115049639B (zh) * | 2022-07-21 | 2024-04-26 | 浙江理工大学 | 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN107657279B (zh) | 一种基于少量样本的遥感目标检测方法 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
CN111860171B (zh) | 一种大规模遥感图像中不规则形状目标的检测方法及系统 | |
CN108288271A (zh) | 基于三维残差网络的图像检测系统及方法 | |
CN110532946B (zh) | 一种基于卷积神经网络识别绿通车车辆轴型的方法 | |
CN111160407B (zh) | 一种深度学习目标检测方法及系统 | |
CN106340016A (zh) | 一种基于细胞显微镜图像的dna定量分析方法 | |
CN114266794B (zh) | 基于全卷积神经网络的病理切片图像癌症区域分割系统 | |
CN111860587B (zh) | 一种用于图片小目标的检测方法 | |
CN111798409A (zh) | 一种基于深度学习的pcb缺陷数据生成方法 | |
CN114612472B (zh) | 一种基于SegNet改进的皮革缺陷分割网络算法 | |
CN112052772A (zh) | 一种人脸遮挡检测算法 | |
CN114926407A (zh) | 一种基于深度学习的钢材表面缺陷检测系统 | |
CN112102224A (zh) | 一种基于深度卷积神经网络的布匹疵点识别方法 | |
CN112561926A (zh) | 三维图像分割方法、系统、存储介质及电子设备 | |
CN114842201A (zh) | 基于改进Mask_Rcnn的砂石骨料图像分割方法 | |
CN115049952A (zh) | 一种基于多尺度级联感知深度学习网络的幼鱼肢体识别方法 | |
CN117746077B (zh) | 一种芯片缺陷的检测方法、装置、设备和存储介质 | |
CN114742758A (zh) | 一种全视野数字切片组织病理图片中的细胞核分类方法 | |
CN112183237A (zh) | 基于颜色空间自适应阈值分割的白细胞自动分类方法 | |
CN114240822A (zh) | 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 | |
CN116883996B (zh) | 基于旋转等变网络的胚胎发育阶段预测与质量评估系统 | |
CN112288765A (zh) | 一种用于车载红外行人检测跟踪的图像处理方法 | |
CN111768420A (zh) | 一种细胞图像分割模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220325 |