CN115587999A - 一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 - Google Patents
一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 Download PDFInfo
- Publication number
- CN115587999A CN115587999A CN202211329222.9A CN202211329222A CN115587999A CN 115587999 A CN115587999 A CN 115587999A CN 202211329222 A CN202211329222 A CN 202211329222A CN 115587999 A CN115587999 A CN 115587999A
- Authority
- CN
- China
- Prior art keywords
- area
- mask
- image
- samples
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007547 defect Effects 0.000 title claims abstract description 111
- 238000001514 detection method Methods 0.000 title claims abstract description 101
- 238000013135 deep learning Methods 0.000 title claims abstract description 48
- 230000011218 segmentation Effects 0.000 claims abstract description 33
- 239000004744 fabric Substances 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 85
- 238000002372 labelling Methods 0.000 claims description 55
- 238000011156 evaluation Methods 0.000 claims description 41
- 230000003321 amplification Effects 0.000 claims description 34
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 26
- 230000000694 effects Effects 0.000 claims description 21
- 230000001360 synchronised effect Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000012360 testing method Methods 0.000 claims description 16
- 238000013519 translation Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 9
- 230000037303 wrinkles Effects 0.000 claims description 9
- 238000012854 evaluation process Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000010008 shearing Methods 0.000 claims description 3
- 238000007599 discharging Methods 0.000 claims description 2
- 239000000463 material Substances 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 239000003086 colorant Substances 0.000 abstract description 2
- 238000011109 contamination Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,属于人工智能领域。检测口罩有无,输出口罩主体面料部分区域图片;基于深度学习带方向的斜框目标检测模型检测文字区域;基于深度学习语义分割模型检测文字区域、M型条纹区域、侧边区域、鼻梁条区域;基于深度学习语义分割模型检测脏污破损区域;基于深度学习目标检测模型的小污点区域检测;基于深度学习目标检测模型检测鼻梁条附近的褶皱破损区域;基于深度学习语义分割模型检测鼻梁条附近的缺角缺陷。本发明在相同数量的样本中,检测准确率最高,误检测率最低,漏检率也最低;同时能适应不同形态形状、尺寸大小、颜色深浅的脏污破损缺陷,很好地替代了人工。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法。
背景技术
世界各地疫情反复爆发,口罩成为了人们日常生活中的必须品,出门必须佩戴口罩。然而在口罩生产的过程中,难免会出现各种有缺陷的口罩,佩戴这样的口罩会严重危害人们的生命安全,为保证口罩出厂时完好无损,口罩质量检测尤为重要。
由于口罩面上的缺陷不可预料,缺陷的尺寸大小、位置、形态、颜色等具有随机性,如果人工检测则费时费力,而且容易产生疲脑导致漏检测;传统机器视觉检测算法鲁棒性较差,而且对成像环境要求较苛刻,难以应对缺陷的多样性,缺乏通用性和扩展性,难以保证较高的检测准确率。另外,传统机器视觉算法难以检测口罩面片上的细微缺陷,也可能把口罩面片上的点状物误认为是缺陷,导致合格品被误判为不合格品。
因此亟需一种鲁棒性强、抗干扰、准确率高、漏检率和误检率低的口罩主体面缺陷检测方法。
发明内容
本发明的目的在于提供一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,以解决背景技术中的问题。
为解决上述技术问题,本发明提供了一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,包括:
步骤一、检测口罩主体面片区域,采集口罩的正反面图像,输出相关的特征值;
步骤二、开启口罩检测设备,采集大量图片,含有口罩和不含有口罩的图片,检测图片内有无口罩,若无则直接返回NG,若有则检测出文字logo区域带方向的最小外接矩形区域;
步骤三、基于深度学习语义分割模型,检测出口罩主体面片上各个部件,包含文字logo区域、M型条纹区域、侧边区域、鼻梁条区域;
步骤四、基于深度学习语义分割模型检测口罩主体面片上的各种脏污破损缺陷的位置区域,并与步骤三中输出的区域作差,差值为最终的缺陷区域,如果缺陷区域的面积大于预设值,则返回NG,并输出缺陷类别和位置区域,否则返回OK,执行后续步骤;
步骤五、基于深度学习目标检测模型检测小的块状污染区域,如果面积大于预设值,则返回NG,无需执行后续步骤,否则返回OK执行下一步;
步骤六、基于带方向的目标检测模型,检测鼻梁条附近是否含有褶皱破损,若检测到则返回NG,无需执行后续步骤,否则返回OK执行下一步;
步骤七、基于语义分割模型,检测鼻梁条附近区域是否含有缺角缺陷,若检测到目标,则返回NG,无需执行后续步骤,否则返回OK。
在一种实施方式中,所述步骤一包括:放料,使口罩竖直向下,耳带自然下垂,调节视觉系统成像,使得口罩主体面片上各种缺陷特征明显;分别触发正、反面相机拍照,分别采集口罩的正反面图像并输出。
在一种实施方式中,所述口罩的正反面图像为彩色原图,先将原图分解为红色、绿色、蓝色三个通道的图像;绿色通道图减去红色通道图得到的差值图中,蓝色部分最为显著,其它部分较弱;
根据差值图进行简单的动态二值化,得到较亮部分的区域,再筛选面积最大的连通域,即得到口罩主体面片区域;再将区域做形状转换,提取口罩主体面片区域沿行方向和列方向的最小外接矩形面积,根据这个面积判断图像范围内有无口罩;
输出口罩主体面片区域轮廓的中心点,并输出该轮廓区域平行于坐标轴的最小外接矩形区域图像,裁剪这个区域的图像并输出,作为后续所有深度学习目标检测和语义分割的输入图像;
算出口罩主体面片区域上半部分和下半部分到中心点最远的点,这两个点为口罩主体面片区域的两个极点,以这两个极点为圆心,预设半径作圆,两个圆形区域分别与口罩主体面片区域的交集为两个扇形区域,作为后续鼻梁条附近褶皱缺陷、鼻梁条附近破损缺陷的输入图像。
在一种实施方式中,所述步骤二包括:
2.1、选取样本:口罩的正面含有字符logo,反面不包含字符logo,采集1000张口罩正面的图片,和1000张口罩反面不含有文字区域的图片;其中,2000张样本随机包含各种污染破损,或者不含任何污染破损的ok口罩,正面和反面口罩都随机含有一定比例的污染破损样本和ok样本;
随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集;
2.2、对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓平行于轴方向的最小外接矩形图,作为训练的输入图像;
2.3、对样本裁剪后的轮廓图像执行数据扩增算法,提升样本的数量和多样性;
其中所述数据扩增包含图像上下翻转、图像左右翻转、做小角度图像旋转、图像平移、尺度为0.8-1.2比例内的图像缩放、图像错切、图像裁剪、图像移位、随机调整图像的亮度、色调、饱和度、对比度、增加各种噪声、条件对抗网络中的一种或多种;
2.4、标注:用dlttools深度学习标注工具,新建一个带方向的目标检测标注工程,新建一个标签类别words,对于有字符logo的图片进行标注,不含有字符logo的图片不标注;标注方法是,对口罩主体面片区域中心区域的字符logo,创建包围该字符logo的最小外接矩形框,尽量贴合字符区域;
2.5训练:有字符logo的图片标注完后,所有样本全部参与训练,不含有logo字符的图片没有标注但是也要参与训练;调好训练参数,包含选择训练用的模型、图像缩放比例、矩形框角度限制参数、图像批处理数值、学习率、动量、迭代次数、学习率衰减轮次、尽量使损失降到不能再降的程度,同时iou尽量高;
用评估集对训练好的模型做评估,如果准确率不低于99.99%,则训练成功,否则继续调整训练参数,或加大样本量投入训练,直至模型评估集准确率达到99.99%;
2.6、检测:如果训练的时候,图像做了缩放采样,检测的时候检测图像也是缩放图,需要按比例放大到原图,并且加偏移;加的偏移坐标为口罩主体面片区域左上角坐标相对于原图的偏移坐标;针对检测出的带方向的矩形区域,实施缩放和平移操作,即得到文字区域在原始图像中的区域。
在一种实施方式中,所述步骤三包括:
3.1、样本选择:选取2000张样本,包含口罩正面或反面的图片各1000张,随机含有脏污破损或者不含有脏污破损的ok口罩,正反面与是否含有脏污破损不相关;随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集;
3.2、同步骤2.2,对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓最小外接矩形图,作为训练的图像;
3.3、同步骤2.3进行数据扩增;
3.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景/M型条纹/鼻梁条区域/文字区域/侧边条纹区域,基于自由轮廓区域按类别标注以上区域,标注的时候尽量贴近各个区域的边界,逐像素分辨判断;
3.5、训练:训练完后进行模型评估,如果评估效果不好,需要重新修改标注工程,修改的时候需要逐像素修改,反复标注训练,模型评估,直至评估集的准确率不低于99.99%为止;
3.6、同步骤2.6,检测出的区域需要做缩放处理和平移处理。
在一种实施方式中,所述步骤四包括:
4.1、样本选择:收集1000张口罩主体面片脏污破损的样本,1000张不包含任何污染破损的ok口罩样本,所有的样本随机覆盖正反面,随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
4.2、同步骤2.2,进行口罩主体面片区域检测裁剪;
4.3、同步骤2.3进行数据扩增;
4.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景区域/黑色污染区域/黄色污染区域/白色破洞区域,基于自由轮廓区域分别按以上各个类别标注,标注的时候尽量逐像素确认该像素是缺陷还是背景,涉及到模棱两可的像素,后续评估效果不好的时候再回过头来修改;
4.5、训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,需要开启cudnn;图像批处理数值根据电脑配置情况设为大于1小于64的数字,依据电脑内存情况设置,学习率根据收敛情况做调整;
当模型评估准确率不低于99.99%时,将图像批处理数值设为1,并保存模型参数;
4.6检测:同步骤2.6检测的区域要做缩放和平移处理。
在一种实施方式中,所述步骤五包括:
5.1样本选择:在上面污染破损样本中抽取全部的小污点或小污块区域的脏污样本,其中小污点的位置区域尽量覆盖全口罩主体面片的任意区域,如果覆盖的不够完全,手动生成一些处于不同位置区域的污点样本;污点的颜色要有深色和浅色的,如果采集不到,手动做数据扩增;最后再掺杂等数量的ok口罩样本;随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
5.2同步骤2.2进行口罩主体面片轮廓图检测;
5.3同步骤2.3进行数据扩增,在前面步骤中的数据扩增的基础上,增加一种扩增,即小污点缺陷在口罩面片不同位置的样本扩增,这种扩增通过复制粘贴然后图像融合的方式实现,使缺陷尽可能覆盖全口罩主体部分任意区域;
5.4标注:标注的时候,不要只标注小污点,标注框不要太贴近污点区域,而要包含一部分口罩主体面片面料蓝色部分的区域,以在一定数量的样本下得到更好的准确率;
5.5训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,需要开启cudnn;图像批处理个数设为大于1的数字,依据电脑内存情况设置,学习率根据收敛情况做调整;
5.6检测流程:这个模型只在上面的语义分割模型没有检测出缺陷的时候才执行,如果上面的语义分割模型检测出了缺陷,这个模型不执行检测。
在一种实施方式中,所述步骤六包括:
6.1、样本选择:选择500张含有鼻梁条褶皱破损缺陷的样本,再掺杂500张ok口罩样本,随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
6.2、同步骤2.2进行检测并输出口罩主体面片区域图像;
6.3、同步骤2.3做数据扩增;
6.4、标注:dltools深度学习标注工具,新建一个带方向的目标检测标注工程,新建两个类别,即鼻梁条附近有褶皱的和无褶皱两种类型;
标注的时候把鼻梁条也包含进去,不要只包含鼻梁条附近的褶皱;标注的区域为鼻梁条扩大区域,其方向与鼻梁条相同但是宽高比鼻梁条区域略大;
6.5、训练,反复训练评估,直至损失函数的误差值不高于0.01%,并且评估集的准确率不低于99.99%为止,再将图像批处理数量设为1,保存并输出模型参数。
在一种实施方式中,所述所述步骤七包括:
7.1、样本选择:从现有的仅存的口罩主体面片缺陷样本选出全部的鼻梁条缺角缺陷样本,再掺杂等数量的不包含缺角缺陷、可能包含或不包含其它缺陷的样本;
7.2、深度学习检测前的图像预处理操作:执行口罩主体面片轮廓检测函数,输出口罩主体面片区域最小外接矩形区域,然后基于鼻梁条检测函数,定位到鼻梁条区域,输出鼻梁条区域的膨胀区域,
以此扇形区域做后续操作的输入图像;
7.3、同步骤2.3进行数据扩增;
7.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建一个缺陷类别,代表缺角缺陷,做语义分割标注,基于任意形状轮廓区域,标注鼻梁条附近的缺角缺陷区域;
7.5、同步骤2.5进行训练,反复执行训练过程和评估过程,直至损失函数的误差值不高于0.01%,并且评估集的准确率不低于99.99%为止,再将图像批处理数值设为1,保存并输出模型参数;
7.6、同步骤2.6进行检测,需要做检测区域相对原始图像的缩放和平移。
本发明提供的一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,在相同数量的样本中,检测准确率最高,针对ok样本误检测为ng样本,或ng样本误检测为ok样本的误检测率最低,漏检率也最低;同时,能适应不同形态形状、尺寸大小、颜色深浅的脏污破损缺陷,最小能检测出1mm*1mm量级的缺陷,很好地替代了人工。
附图说明
图1是本发明提供的一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法流程示意图;
图2-1是原始图像;
图2-2是口罩主体面料区域裁剪后的效果图;
图3-1和图3-2是口罩主体部分文字logo检测效果图;
图4-1是口罩主体部分各个部件检测效果图;
图4-2是口罩主体部分各个部件检测效果图;
图5-1和图5-2是黑色污染缺陷检测效果图;
图5-3和图5-4是黄色油污缺陷检测效果图;
图5-5和图5-6是破损区域缺陷检测效果图;
图6-1和图6-2是对小污点缺陷的检测;
图7-1是鼻梁条附近无褶皱的检测效果图;
图7-2是鼻梁条附近含有褶皱的检测效果图;
图8-1是鼻梁条缺角缺陷的检测效果图。
具体实施方式
以下结合附图和具体实施例对本发明提出的一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法作进一步详细说明。根据下面说明,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
本发明提供一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其流程如图1所示,包括如下步骤:
步骤一、检测口罩主体面片区域,输出相关的特征值。
原图为彩色图像,先将原图分解为红色、绿色、蓝色三个通道的图像。经过测试,绿色通道图减去红色通道图,得到的差值图中,蓝色部分最为显著,其它部分较弱。见附图2-1所示。根据得到的差值图进行简单的动态二值化,得到较亮部分的区域,再筛选面积最大的连通域,即可得到口罩主体面片区域。再将区域做形状转换,提取口罩主体面片区域沿着行方向和列方向的最小外接矩形面积为600000,根据这个面积,就能判断图像范围内有无口罩。图2-1框中所示为口罩主体部分,如图2-2所示。输出口罩主体面片区域轮廓的中心点,并输出该轮廓区域平行于坐标轴的最小外接矩形区域图像,裁剪这个区域的图像并输出,作为后续所有深度学习目标检测和语义分割的输入图像。然后算出口罩主体面片区域上半部分和下半部分到中心点最远的点,这两个点为口罩主体面片区域的两个极点。以这两个极点为圆心,本实施例中的N95口罩以半径为0.3作圆,两个圆形区域分别与口罩主体面片区域的交集为两个扇形区域。可作为后续鼻梁条附近褶皱缺陷、鼻梁条附近破损缺陷的输入图像,这个输入图像相比原图尺寸更小,检测范围更小,这样能提升缺陷位置检测准确率,还能节省检测耗时。
步骤二、基于带方向的斜框目标检测模型检测文字区域,见图3-1和图3-2,是口罩主体部分文字logo的检测效果图,检测出文字logo区域带方向的最小外接矩形区域,这个步骤具体包括以下几个细分的步骤:
2.1、样本的选取:由于N95口罩的正面含有字符logo,反面不包含字符logo,采集1000张口罩正面的图片,和1000张口罩反面不含有文字区域的图片。其中,2000张样本随机包含各种污染破损,或者不含任何污染破损的ok口罩,正面和反面口罩都随机含有一定比例的污染破损样本和ok样本。
随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集。
2.2、对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓平行于轴方向的最小外接矩形图,作为训练的输入图像。见图2-2中所示,这个比原始图像图2-1小了很多,这样能节省电脑资源开销和缩小检测范围,提升检测位置的准确率。
2.3、对样本裁剪后的轮廓图像执行数据扩增算法,提升样本的数量和多样性。
数据扩增,包含以下各种方法:图像镜像(图像上下翻转、图像左右翻转)、做小角度图像旋转、图像平移、尺度为0.8-1.2比例内的图像缩放、图像错切、图像裁剪、图像移位、随机调整图像的亮度、色调、饱和度、对比度等、增加各种噪声、条件对抗网络、以上任意种选项随机组合的变换等。
2.4、标注:用dlttools深度学习标注工具,新建一个带方向的目标检测标注工程,新建一个标签类别words,对于有字符logo的图片进行标注,不含有字符logo的图片不标注。标注方法是,对口罩主体面片区域中心区域的字符logo,创建包围该字符logo的最小外接矩形框,尽量贴合字符区域。
2.5训练:有字符logo的图片标注完后,所有样本全部参与训练,此处不含有logo字符的图片没有标注但是也要参与训练,目的是为提高检测准确率。调好训练参数,包含选择训练用的模型、图像缩放比例、矩形框角度限制参数、图像批处理数值、学习率、动量、迭代次数、学习率衰减轮次、尽量使损失降到不能再降的程度,同时iou(Intersection overUnion,重叠度)尽量高。
用评估集对训练好的模型做评估,如果准确率接近100%(不低于99.99%),则训练成功,否则继续调整训练参数,或加大样本量投入训练,直至模型评估集准确率接近100%(不低于99.99%)。
2.6、检测:如果训练的时候,图像做了缩放采样,检测的时候检测图像也是缩放图,需要按比例放大到原图,并且加偏移;加的偏移坐标为口罩主体面片区域左上角坐标相对于原图的偏移坐标。针对检测出的带方向的矩形区域,实施缩放和平移操作,即可得到文字区域在原始图像中的区域。
步骤三、基于语义分割检测文字区域、M型条纹区域、侧边区域、鼻梁条区域,见图4-1和图4-2所示,为检测出的口罩主体面片部分各个部件的检测效果图。这个步骤具体包括以下几个细分的步骤:
3.1、样本选择:选取2000张样本,包含口罩正面或反面的图片各1000张,随机含有脏污破损,或者不含有脏污破损的ok口罩样本,正反面与是否含有脏污破损不相关。随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集。
3.2、同步骤2.2,对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓最小外接矩形图,作为训练的图像。
3.3、数据扩增,同步骤2.3。
3.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景/M型条纹/鼻梁条区域/文字区域/侧边条纹区域,基于自由轮廓区域按类别标注以上区域,标注的时候尽量贴近各个区域的边界,逐像素分辨判断。这种标注方式比步骤2.4的标注方式要求更为严格苛刻,也更为费时。
3.5、训练:训练完后进行模型评估,如果评估效果不好,需要重新修改标注工程,修改的时候需要逐像素修改,反复标注训练,模型评估,直至评估集的准确率接近100%(不低于99.99%)为止。
3.6、同步骤2.6,检测出的区域需要做缩放处理和平移处理。
步骤四、语义分割检测脏污破损区域,本步骤检测的脏污破损缺陷分三种,主要是黑色污染、黄色油污、白色破损,缺陷的形态各不相同,尺寸大小、位置区域也很随机,颜色深浅也各不相同。本方法能检测口罩主体面片范围内任意形态和各种不同尺度的脏污破损缺陷,缺陷尺寸1*1mm以上的缺陷检出率达99%以上,1mm*1mm以下尺寸的缺陷能检出部分,当前最小缺陷的检测尺寸,也跟相机镜头选型有关,本实施例中用到的相机是2448*2048像素的相机,对应的物理尺寸范围是350*300mm,1mm对应7各像素,在当前硬件下,尽量采用未经过采样的口罩轮廓面片裁剪图做标注训练,这样能检测出最小尺寸的缺陷,或者进一步提升相机分辨率,也能进一步检测更小尺寸的缺陷。如图5-1和图5-2,为黑色污染的检测效果图,图5-3和图5-4为黄色油污的检测效果图,图5-5和附图5-6为破损区域的检测效果图。本步骤具体分为以下几个细分的步骤:
4.1、样本选择:收集1000张口罩主体面片脏污破损的样本,1000张不包含任何污染破损的ok样本,所有的样本随机覆盖正反面,随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集。
4.2、同步骤2.2,口罩主体面片区域检测裁剪。
4.3、同步骤2.3,数据扩增。
4.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景区域/黑色污染区域/黄色污染区域/白色破洞区域,基于自由轮廓区域分别按以上各个类别标注,标注的时候尽量逐像素确认该像素是缺陷还是背景,涉及到模棱两可的像素,先记住,后续评估效果不好的时候再回过头来修改。这个过程需要反反复复很多次,才能训练出一个比较好的模型。
4.5、训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,这是为了检测细小的缺陷区域,原图训练会很费时间,也比较费内存,需要开启cudnn(DeepNeural Network library,深度神经网络库),否则内存会一直增长,导致训练终止。图像批处理数值可根据电脑配置情况设为大于1小于64的数字,依据电脑内存情况设置,学习率根据收敛情况做调整。
当模型评估准确率接近100%(不低于99.99%)时,将图像批处理数值设为1,并保存模型参数。
4.6检测:同步骤2.6,对检测的区域要做缩放和平移处理。
步骤五、小污点区域目标检测。
这个模型是针对上面的语义分割脏污检测模型的查漏补缺,上面的语义分割模型能检测不同形态和形状缺陷,但是对于小缺陷会存在漏检,这个模型主要检测上一个模型检测不出的小的缺陷,即1mm*1mm量级的缺陷。检测效果图见图6-1和图6-2。这个步骤具体分为以下几个小步骤:
5.1样本选择:在上面污染破损样本中抽取全部的小污点或小污块区域的脏污样本,其中小污点的位置区域尽量覆盖全口罩主体面片的任意区域,如果覆盖的不够完全,可以手动生成一些处于不同位置区域的污点样本。另外污点的颜色尽量有深色也要有浅色的,如果采集不到,手动做数据扩增。最后再掺杂等数量的ok口罩样本。随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集。
5.2口罩主体面片轮廓图检测,同步骤2.2,见附图2-2。
5.3数据扩增,同步骤2.3,在前面步骤中的数据扩增的基础上,还要增加一种扩增,即小污点缺陷在口罩面片不同位置的样本扩增,这种扩增可以通过复制粘贴然后图像融合的方式实现。使缺陷尽可能覆盖全口罩主体部分任意区域。
5.4标注:标注的时候,不要只标注小污点,标注框不要太贴近污点区域,而要包含一部分口罩主体面片面料蓝色部分的区域,这个技巧是在标注训练的过程中总结出来的,这样在一定数量的样本下,会得到更好的准确率,也能检测更小的缺陷。
5.5训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,这是为了检测细小的缺陷区域,原图训练会很费时间,也比较费内存,需要开启cudnn,否则内存会一直增长,导致训练终止。图像批处理个数可设为大于1的数字,依据电脑内存情况设置,学习率根据收敛情况做调整。
5.6检测流程:这个模型只在上面的语义分割模型没有检测出缺陷的时候才执行,如果上面的语义分割模型检测出了缺陷,这个模型不执行检测。
步骤六、检测鼻梁条附近褶皱缺陷,如图7-1和图7-2所示。
6.1、样本选择:选择500张含有鼻梁条褶皱破损缺陷的样本,再掺杂500张ok口罩样本。随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集。
6.2、同步骤2.2,检测并输出口罩主体面片区域图像。
6.3、同步骤2.3,做数据扩增。
6.4、标注:dltools深度学习标注工具,新建一个带方向的目标检测标注工程,新建两个类别,即鼻梁条附近有褶皱的和无褶皱两种类型。
标注的时候把鼻梁条也包含进去,不要只包含鼻梁条附近的褶皱,这样能提高检测准确率,因为鼻梁条是视野内唯一的,鼻梁条附件的区域只存在两种可能:有褶皱和无褶皱,如果不包含鼻梁条区域,只标褶皱区域,会导致很多误检,而且并不唯一。另外,标注的区域为鼻梁条扩大区域,其方向与鼻梁条相同但是宽高比鼻梁条区域略大。
6.5、训练,反复训练评估,直至损失函数的误差值无限接近0(不高于0.01%),并且评估集的准确率接近100%(不低于99.99%)为止,再将图像批处理数量设为1,保存并输出模型参数。
步骤七、检测鼻梁条附近缺角缺陷,如图8-1所示。
7.1、样本选择:从现有的仅存的口罩主体面片缺陷样本选出全部的鼻梁条缺角缺陷样本,再掺杂等数量的不包含缺角缺陷、可能包含或不包含其它缺陷的样本。
7.2、深度学习检测前的图像预处理操作:执行口罩主体面片轮廓检测函数,输出口罩主体面片区域最小外接矩形区域,然后基于鼻梁条检测函数,定位到鼻梁条区域,输出鼻梁条区域的膨胀区域,
以此扇形区域做后续操作的输入图像。
7.3、数据扩增,同步骤2.3。
7.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建一个缺陷类别,代表缺角缺陷,做语义分割标注,基于任意形状轮廓区域,标注鼻梁条附近的缺角缺陷区域。
7.5、训练,同步骤2.5,反复执行训练过程和评估过程,直至损失函数的误差值无限接近0(不高于0.01%),并且评估集的准确率接近100%(不低于99.99%)为止,再将图像批处理数值设为1,保存并输出模型参数。
7.6、检测,同步骤2.6,需要做检测区域相对原始图像的缩放和平移。
上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。
Claims (9)
1.一种基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,包括:
步骤一、检测口罩主体面片区域,采集口罩的正反面图像,输出相关的特征值;
步骤二、开启口罩检测设备,采集大量图片,含有口罩和不含有口罩的图片,检测图片内有无口罩,若无则直接返回NG,若有则检测出文字logo区域带方向的最小外接矩形区域;
步骤三、基于深度学习语义分割模型,检测出口罩主体面片上各个部件,包含文字logo区域、M型条纹区域、侧边区域、鼻梁条区域;
步骤四、基于深度学习语义分割模型检测口罩主体面片上的各种脏污破损缺陷的位置区域,并与步骤三中输出的区域作差,差值为最终的缺陷区域,如果缺陷区域的面积大于预设值,则返回NG,并输出缺陷类别和位置区域,否则返回OK,执行后续步骤;
步骤五、基于深度学习目标检测模型检测小的块状污染区域,如果面积大于预设值,则返回NG,无需执行后续步骤,否则返回OK执行下一步;
步骤六、基于带方向的目标检测模型,检测鼻梁条附近是否含有褶皱破损,若检测到则返回NG,无需执行后续步骤,否则返回OK执行下一步;
步骤七、基于语义分割模型,检测鼻梁条附近区域是否含有缺角缺陷,若检测到目标,则返回NG,无需执行后续步骤,否则返回OK。
2.如权利要求1所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤一包括:放料,使口罩竖直向下,耳带自然下垂,调节视觉系统成像,使得口罩主体面片上各种缺陷特征明显;分别触发正、反面相机拍照,分别采集口罩的正反面图像并输出。
3.如权利要求2所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述口罩的正反面图像为彩色原图,先将原图分解为红色、绿色、蓝色三个通道的图像;绿色通道图减去红色通道图得到的差值图中,蓝色部分最为显著,其它部分较弱;
根据差值图进行简单的动态二值化,得到较亮部分的区域,再筛选面积最大的连通域,即得到口罩主体面片区域;再将区域做形状转换,提取口罩主体面片区域沿行方向和列方向的最小外接矩形面积,根据这个面积判断图像范围内有无口罩;
输出口罩主体面片区域轮廓的中心点,并输出该轮廓区域平行于坐标轴的最小外接矩形区域图像,裁剪这个区域的图像并输出,作为后续所有深度学习目标检测和语义分割的输入图像;
算出口罩主体面片区域上半部分和下半部分到中心点最远的点,这两个点为口罩主体面片区域的两个极点,以这两个极点为圆心,预设半径作圆,两个圆形区域分别与口罩主体面片区域的交集为两个扇形区域,作为后续鼻梁条附近褶皱缺陷、鼻梁条附近破损缺陷的输入图像。
4.如权利要求3所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤二包括:
2.1、选取样本:口罩的正面含有字符logo,反面不包含字符logo,采集1000张口罩正面的图片,和1000张口罩反面不含有文字区域的图片;其中,2000张样本随机包含各种污染破损,或者不含任何污染破损的ok口罩,正面和反面口罩都随机含有一定比例的污染破损样本和ok样本;
随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集;
2.2、对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓平行于轴方向的最小外接矩形图,作为训练的输入图像;
2.3、对样本裁剪后的轮廓图像执行数据扩增算法,提升样本的数量和多样性;
其中所述数据扩增包含图像上下翻转、图像左右翻转、做小角度图像旋转、图像平移、尺度为0.8-1.2比例内的图像缩放、图像错切、图像裁剪、图像移位、随机调整图像的亮度、色调、饱和度、对比度、增加各种噪声、条件对抗网络中的一种或多种;
2.4、标注:用dlttools深度学习标注工具,新建一个带方向的目标检测标注工程,新建一个标签类别words,对于有字符logo的图片进行标注,不含有字符logo的图片不标注;标注方法是,对口罩主体面片区域中心区域的字符logo,创建包围该字符logo的最小外接矩形框,尽量贴合字符区域;
2.5训练:有字符logo的图片标注完后,所有样本全部参与训练,不含有logo字符的图片没有标注但是也要参与训练;调好训练参数,包含选择训练用的模型、图像缩放比例、矩形框角度限制参数、图像批处理数值、学习率、动量、迭代次数、学习率衰减轮次、尽量使损失降到不能再降的程度,同时iou尽量高;
用评估集对训练好的模型做评估,如果准确率不低于99.99%,则训练成功,否则继续调整训练参数,或加大样本量投入训练,直至模型评估集准确率达到99.99%;
2.6、检测:如果训练的时候,图像做了缩放采样,检测的时候检测图像也是缩放图,需要按比例放大到原图,并且加偏移;加的偏移坐标为口罩主体面片区域左上角坐标相对于原图的偏移坐标;针对检测出的带方向的矩形区域,实施缩放和平移操作,即得到文字区域在原始图像中的区域。
5.如权利要求4所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤三包括:
3.1、样本选择:选取2000张样本,包含口罩正面或反面的图片各1000张,随机含有脏污破损或者不含有脏污破损的ok口罩,正反面与是否含有脏污破损不相关;随机抽取70%的样本做训练集,15%的样本做评估集,剩余15%的样本做测试集;
3.2、同步骤2.2,对所有的样本原始图像执行口罩主体面片轮廓检测函数,输出裁剪后的轮廓最小外接矩形图,作为训练的图像;
3.3、同步骤2.3进行数据扩增;
3.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景/M型条纹/鼻梁条区域/文字区域/侧边条纹区域,基于自由轮廓区域按类别标注以上区域,标注的时候尽量贴近各个区域的边界,逐像素分辨判断;
3.5、训练:训练完后进行模型评估,如果评估效果不好,需要重新修改标注工程,修改的时候需要逐像素修改,反复标注训练,模型评估,直至评估集的准确率不低于99.99%为止;
3.6、同步骤2.6,检测出的区域需要做缩放处理和平移处理。
6.如权利要求5所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤四包括:
4.1、样本选择:收集1000张口罩主体面片脏污破损的样本,1000张不包含任何污染破损的ok口罩样本,所有的样本随机覆盖正反面,随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
4.2、同步骤2.2,进行口罩主体面片区域检测裁剪;
4.3、同步骤2.3进行数据扩增;
4.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建标签类别,分别表示背景区域/黑色污染区域/黄色污染区域/白色破洞区域,基于自由轮廓区域分别按以上各个类别标注,标注的时候尽量逐像素确认该像素是缺陷还是背景,涉及到模棱两可的像素,后续评估效果不好的时候再回过头来修改;
4.5、训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,需要开启cudnn;图像批处理数值根据电脑配置情况设为大于1小于64的数字,依据电脑内存情况设置,学习率根据收敛情况做调整;
当模型评估准确率不低于99.99%时,将图像批处理数值设为1,并保存模型参数;
4.6检测:同步骤2.6检测的区域要做缩放和平移处理。
7.如权利要求6所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤五包括:
5.1样本选择:在上面污染破损样本中抽取全部的小污点或小污块区域的脏污样本,其中小污点的位置区域尽量覆盖全口罩主体面片的任意区域,如果覆盖的不够完全,手动生成一些处于不同位置区域的污点样本;污点的颜色要有深色和浅色的,如果采集不到,手动做数据扩增;最后再掺杂等数量的ok口罩样本;随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
5.2同步骤2.2进行口罩主体面片轮廓图检测;
5.3同步骤2.3进行数据扩增,在前面步骤中的数据扩增的基础上,增加一种扩增,即小污点缺陷在口罩面片不同位置的样本扩增,这种扩增通过复制粘贴然后图像融合的方式实现,使缺陷尽可能覆盖全口罩主体部分任意区域;
5.4标注:标注的时候,不要只标注小污点,标注框不要太贴近污点区域,而要包含一部分口罩主体面片面料蓝色部分的区域,以在一定数量的样本下得到更好的准确率;
5.5训练:训练的时候,图像不能做任何缩放处理,直接用口罩主体面片原图,需要开启cudnn;图像批处理个数设为大于1的数字,依据电脑内存情况设置,学习率根据收敛情况做调整;
5.6检测流程:这个模型只在上面的语义分割模型没有检测出缺陷的时候才执行,如果上面的语义分割模型检测出了缺陷,这个模型不执行检测。
8.如权利要求7所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述步骤六包括:
6.1、样本选择:选择500张含有鼻梁条褶皱破损缺陷的样本,再掺杂500张ok口罩样本,随机抽取75%的样本做训练集,15%的样本做评估集,15%的样本做测试集;
6.2、同步骤2.2进行检测并输出口罩主体面片区域图像;
6.3、同步骤2.3做数据扩增;
6.4、标注:dltools深度学习标注工具,新建一个带方向的目标检测标注工程,新建两个类别,即鼻梁条附近有褶皱的和无褶皱两种类型;
标注的时候把鼻梁条也包含进去,不要只包含鼻梁条附近的褶皱;标注的区域为鼻梁条扩大区域,其方向与鼻梁条相同但是宽高比鼻梁条区域略大;
6.5、训练,反复训练评估,直至损失函数的误差值不高于0.01%,并且评估集的准确率不低于99.99%为止,再将图像批处理数量设为1,保存并输出模型参数。
9.如权利要求8所述的基于深度学习的N95口罩面脏污破损褶皱缺陷检测方法,其特征在于,所述所述步骤七包括:
7.1、样本选择:从现有的仅存的口罩主体面片缺陷样本选出全部的鼻梁条缺角缺陷样本,再掺杂等数量的不包含缺角缺陷、可能包含或不包含其它缺陷的样本;
7.2、深度学习检测前的图像预处理操作:执行口罩主体面片轮廓检测函数,输出口罩主体面片区域最小外接矩形区域,然后基于鼻梁条检测函数,定位到鼻梁条区域,输出鼻梁条区域的膨胀区域,
以此扇形区域做后续操作的输入图像;
7.3、同步骤2.3进行数据扩增;
7.4、标注:用dltools深度学习标注工具,新建一个语义分割标注工程,新建一个缺陷类别,代表缺角缺陷,做语义分割标注,基于任意形状轮廓区域,标注鼻梁条附近的缺角缺陷区域;
7.5、同步骤2.5进行训练,反复执行训练过程和评估过程,直至损失函数的误差值不高于0.01%,并且评估集的准确率不低于99.99%为止,再将图像批处理数值设为1,保存并输出模型参数;
7.6、同步骤2.6进行检测,需要做检测区域相对原始图像的缩放和平移。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329222.9A CN115587999A (zh) | 2022-10-27 | 2022-10-27 | 一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329222.9A CN115587999A (zh) | 2022-10-27 | 2022-10-27 | 一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115587999A true CN115587999A (zh) | 2023-01-10 |
Family
ID=84781965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211329222.9A Pending CN115587999A (zh) | 2022-10-27 | 2022-10-27 | 一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115587999A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409010A (zh) * | 2023-12-15 | 2024-01-16 | 菲特(天津)检测技术有限公司 | 漆面缺陷检测模型训练、检测、编码方法及检测系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902584A (zh) * | 2019-01-28 | 2019-06-18 | 深圳大学 | 一种口罩缺陷的识别方法、装置、设备及存储介质 |
US20220101051A1 (en) * | 2020-09-28 | 2022-03-31 | Robert Bosch Gmbh | Data-based updating of the training of classifier networks |
CN114689512A (zh) * | 2022-04-15 | 2022-07-01 | 中科芯集成电路有限公司 | 一种融合机器视觉和深度学习的口罩检测方法 |
CN115078388A (zh) * | 2022-06-24 | 2022-09-20 | 中科芯集成电路有限公司 | 一种基于传统机器视觉的n95口罩缺陷检测方法 |
-
2022
- 2022-10-27 CN CN202211329222.9A patent/CN115587999A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902584A (zh) * | 2019-01-28 | 2019-06-18 | 深圳大学 | 一种口罩缺陷的识别方法、装置、设备及存储介质 |
US20220101051A1 (en) * | 2020-09-28 | 2022-03-31 | Robert Bosch Gmbh | Data-based updating of the training of classifier networks |
CN114689512A (zh) * | 2022-04-15 | 2022-07-01 | 中科芯集成电路有限公司 | 一种融合机器视觉和深度学习的口罩检测方法 |
CN115078388A (zh) * | 2022-06-24 | 2022-09-20 | 中科芯集成电路有限公司 | 一种基于传统机器视觉的n95口罩缺陷检测方法 |
Non-Patent Citations (1)
Title |
---|
肖标: "无纺布口罩自动在线检测技术研究", 《硕士研究生论文.工程科技Ⅰ辑》, 15 March 2020 (2020-03-15), pages 3 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409010A (zh) * | 2023-12-15 | 2024-01-16 | 菲特(天津)检测技术有限公司 | 漆面缺陷检测模型训练、检测、编码方法及检测系统 |
CN117409010B (zh) * | 2023-12-15 | 2024-04-26 | 菲特(天津)检测技术有限公司 | 漆面缺陷检测模型训练、检测、编码方法及检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101799434B (zh) | 一种印刷图像缺陷检测方法 | |
CN108776140B (zh) | 一种基于机器视觉的印刷品瑕疵检测方法及系统 | |
CN108562589A (zh) | 一种对磁路材料表面缺陷进行检测的方法 | |
CN112508826A (zh) | 一种基于特征配准及梯度形状匹配融合的印刷品缺陷检测方法 | |
CN104851085B (zh) | 自动获取图像中检测区的方法及系统 | |
CN111598856B (zh) | 基于缺陷导向多点定位神经网络的芯片表面缺陷自动检测方法及系统 | |
US7751610B2 (en) | Image recognition method and image recognition apparatus | |
CN113313677B (zh) | 一种卷绕锂电池x光图像的质量检测方法 | |
CN109886960A (zh) | 基于机器视觉的玻璃边缘缺陷检测的方法 | |
CN113034488B (zh) | 一种喷墨印刷品的视觉检测方法 | |
CN111062934B (zh) | 一种织物图像缺陷实时检测方法 | |
CN112967221B (zh) | 一种盾构管片生产与拼装信息管理系统 | |
CN111126391A (zh) | 一种印刷字符缺陷定位方法 | |
JP7036477B1 (ja) | 欠陥検出方法、欠陥検出システム、及び、欠陥検出プログラム | |
CN109886954A (zh) | 一种印刷品缺陷检测方法 | |
CN115587999A (zh) | 一种基于深度学习的n95口罩面脏污破损褶皱缺陷检测方法 | |
CN105957023A (zh) | 一种基于色度空间变换的激光线条纹图像增强和去噪方法 | |
CN111429462A (zh) | 一种基于边缘检测和数学形态学的车牌定位方法 | |
CN114596329A (zh) | 一种气体图像增强及气体泄露检测方法和系统 | |
CN111426693A (zh) | 一种质量缺陷检测系统及其检测方法 | |
CN114387269B (zh) | 一种基于激光的纤维丝缺损检测方法 | |
CN115731208A (zh) | 金属复杂面高精度缺陷检测方法、装置、设备及存储介质 | |
CN106960424B (zh) | 基于优化分水岭的结核杆菌图像分割识别方法及装置 | |
CN113916893A (zh) | 模切产品缺陷的检测方法 | |
CN117115171A (zh) | 一种应用于地铁lcd显示屏的轻微亮点缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |