CN114549416A - 一种手机屏幕缺陷视觉检测方法和系统 - Google Patents
一种手机屏幕缺陷视觉检测方法和系统 Download PDFInfo
- Publication number
- CN114549416A CN114549416A CN202210066061.2A CN202210066061A CN114549416A CN 114549416 A CN114549416 A CN 114549416A CN 202210066061 A CN202210066061 A CN 202210066061A CN 114549416 A CN114549416 A CN 114549416A
- Authority
- CN
- China
- Prior art keywords
- mobile phone
- phone screen
- screen defect
- defect detection
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种手机屏幕缺陷视觉检测方法和系统。该方法包括:建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。其中手机屏幕缺陷检测模型包括改进的Ghostbottleneck,轻量化卷积模组,以及改进、加深处理的YOLOv5s网络结构。本发明在YOLOv5s目标检测网络基础上提出一个改进的轻量级目标检测网络,得到一个轻量级且检测速度快的屏幕缺陷检测模型,能够用于手机屏幕的缺陷检测。
Description
技术领域
本发明涉及轻量级目标检测领域,具体涉及一种基于改进的YOLOv5s和Ghostbottleneck的手机屏幕缺陷视觉检测方法和系统。
背景技术
在手机制造生产线上总会产生一些制造缺陷,由于机器学习中大多数的图像特征提取是基于经验手动设置的,而人工检测则容易出现检测标准不一致的问题,传统机器学习检测系统与人工检测无法适应日趋庞大的生产线。而随着计算机显卡算力的提升,深度学习也在目标检测这一个方向得到极大的发展,二阶段的目标检测算法具有高精度且能检测小目标的优势,而一阶段的目标检测算法具有二阶段目标检测算法所不能企及的检测速度。采用基于深度学习的手机缺陷检测算法可以在速度上和精度上暂时满足当前手机制造流水线上的检测要求。
手机屏幕的组要组成部分有:盖板玻璃、触控模组、显示模组,但盖板玻璃是制造缺陷最容易出现问题的部件,因此盖板玻璃的缺陷检测是缺陷检测的一环。当前计算机视觉中,基于深度学习的缺陷检测主要有三个方面:语义分割方式、目标检测方式、基于GAN生成方式。针对手机生产线上仍需要一种检测速度快、易被植入到各种设备上的检测模型。
发明内容
为了克服现有的检测算法检测速度不足与部署难度较大的问题,本发明提供一种轻量级手机屏幕缺陷视觉检测方法和系统,用于手机屏幕的缺陷检测。
本发明解决其技术问题所采用的技术方案是:
一种手机屏幕缺陷视觉检测方法,包括以下步骤:
建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;
采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;
将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。
进一步地,所述手机屏幕缺陷图片中的手机屏幕缺陷包括下列中的至少一种:锯齿缺口、油污、屏幕划痕。
进一步地,所述基于改进的YOLOv5s网络的手机屏幕缺陷检测模型包括:
1)改进的Ghostbottleneck:在GhostNet的Ghostbottleneck中添加SE模块,并将Coordinate Attention加入至Ghostbottleneck中以改进其原有的注意力机制;
2)轻量化卷积模组:使用深度可分离卷积DWSConv或者深度卷积DWConv作为卷积模组;
3)改进的YOLOv5s网络结构:对YOLOv5s的主干网络backbone中的C3进行替换处理,将C3替换为改进的Ghostbottleneck。
进一步地,对所述改进的YOLOv5s网络结构进行加深处理,包括:在进行卷积操作后,插入9个Ghostbottleneck和3个Ghostbottleneck。
进一步地,所述以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练,包括:首先通过主干网络对图像进行特征提取,再通过神经网络进行特征学习,最后得到训练完成的手机屏幕缺陷检测模型。
一种采用上述方法的手机屏幕缺陷视觉检测系统,其包括:
模型建立模块,用于建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;
模型训练模块,用于采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;
缺陷检测模块,用于将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。
本发明的有益效果是:
本发明提出的手机屏幕缺陷视觉检测方案,使用能够进行高速检测的YOLOv5作为检测器,并在YOLOv5自带的YOLOv5s目标检测网络基础上提出一个改进的轻量级目标检测网络GhostBackbone,结合这两个工作便可得到一个轻量级且检测速度快的屏幕缺陷检测模型。
附图说明
图1是YOLOv5的Bottleneck架构和Conv架构示意图。其中,Conv2d表示Convolution2D卷积层,BN表示BatchNormalization层,SiLu表示SiLu激活函数,Conv表示经过一个Conv2d处理之后再接BN层处理最后由SiLu激活函数输出的一个综合处理层,Add与Shortcut表示由两层Conv构成的残差结构。
图2是YOLOv5的C3架构示意图。其中,Concat表示将m个n维度的输出变为1个m*n维度的输出。
图3是YOLOv5的SPP架构示意图。其中,K表示kernel_size,表示maxpooling的窗口大小,MaxPoolling表示最大池化。
图4是GhostBackbone-Deep的完整结构图。其中,Backbone是特征提取网络的主干网络,Neck是为了使主干网络更好地提取特征,Head表示根据特征提取网络得到的结果做出预测。
具体实施方式
下面通过具体实施例和附图,对本发明做进一步详细说明。
本发明以现有的YOLOv5s与GhostNet为基础,对其加以改进并进行适当的结合。
GhostNet说明:GhostNet在YOLOv5的源代码中由Ghostconv和Ghostbottleneck组成,Ghostconv的作用主要是实现Ghostbottleneck的Pointwise Expansion(逐点展开)和Pointwise Linear Projection(逐点线性处理)这两个操作。如表1所示,在YOLOv5中Ghostbottleneck和华为开源的Ghostbottleneck相对比,可以发现SE(Squeeze-and-Excitation,挤压和激发)模块的代码被删除,由于YOLOv5暂没有正式的论文但从代码角度可以分析出:SE模块可以被自行地在Backbone中加入,而不是把其固定在Bottleneck中并且使用参数调度。针对某个特征层,Ghost Module只用卷积生成部分真实特征层,剩余的特征层被称作Ghost特征层,Ghost特征层并不通过卷积生成,而是对真实特征层进行线性运算计算获得,然后将真实特征层和Ghost特征层合并为完成的特征层。相对于以前的网络,Ghost Module可以比他们进行更少的卷积计算。Ghostbottleneck参照了ResNet中的残差块结构设计了两种类型Ghostbottleneck(G-bneck):一种为步长为1的bottleneck(G-bneckS1);另一种则为步长为2的bottleneck(G-bneckS2)。G-bneck内部中由G-bneckS1和G-bneckS2组成:为了增加通道数目,第一个Ghost Module用作扩张层;为了与shortcut(残差模块)的通道数匹配,第二个Ghost Module用来减少通道的数目。
表1 YOLOv5中已实现的GhostBottleneck架构一览
YOLOv5s说明:在YOLOv5的网络配置中,没有明显的neck设置,因此SPP被整合在Backbone中,但纵观YOLOv5s的配置文件不难发现Neck为PANet,而且从Head配置中就能看出在Head中包含了PANet和Detect。如表2所示,YOLOv5s由四个主要模块组成,分别是:Focus,Conv(Convolution),C3(CSP Bottleneck with 3convolutions),SPP。
表2 YOLOv5s的Backbone
数量 | 模块 | 模块内参数 |
1 | Focus | [64,3] |
1 | Conv | [128,3,2] |
3 | C3 | [128] |
1 | Conv | [256,3,2] |
9 | C3 | [256] |
1 | Conv | [512,3,2] |
9 | C3 | [512] |
1 | Conv | [1024,3,2] |
1 | SPP | [1024,[5,9,13]] |
3 | C3 | [1024,False] |
A.FOUCUS说明:
Focus用于对图像进行切片操作,如图4所示。它可以将单个通道内的图像切割为四个通道,这种方法可以让一张较大的图片被切割为像素降低的四张长得差不多的图片,这是为了不丢失信息然后进行二倍下采样获得特征图。Focus是一种保留信息,但是会提升计算量的结构。这样获取特征图是普通下采样的FLOPs(浮点运算数)的四倍,FLOPs计算方法如下式所示:
FLOPs=Cw×Ch×Chin×Chout×H×W
其中,Cw表示卷积窗口的宽,Ch表示卷积窗口的高,Chin表示数据的输入,Chout表示数据的输出,H表示输出特征图的高,W表示输出特征图的宽。
当进行Focus操作的时候,输入通道变为4倍,即如下式所示:
其中,FLOPs(Conv)表示采用Conv层处理的浮点运算数数量,FLOPs(Focus)表示采用Focus层处理的浮点运算数数量。
B.C3说明:
如图1、图2表示,C3代表了有3个卷积层的BottleneckCSP,BottleneckCSP是一个用作于获得图片特征的一个模块,它的主要模块为Conv、Bottleneck并且如图1所示:第一个Conv2d的大小为1*1,然后加入到BN+SiLU中,构成了一个卷积层(Kernel Size=1*1);第二个也是同样的道理,其Kernel Size=3*3。
C.SPP说明:
SPP指代的是空间金字塔池化操作,这是一种无视输入尺寸并产生固定输出的方法,是用于提升网络感受野的一种方法。它在YOLOv5(Version4.0)的结构如图3所示:
根据上述说明,本发明将YOLOv5s部分加以保留,将轻量级网络部分加以补充,最初的技术路线如下:将现有的Ghostbottleneck进行补全、改进;针对YOLOv5s的网络结构进行改进、加深处理。
与现有的技术相比,本发明提出了GhostBackbone(幻影主干网络),它采用了GhostNet中的Ghostbottleneck并使用Coordinate Attention改进其原有的注意力机制,实验证明了GhostBackbone在识别准确度、缺陷检测速度、降参这三个方面上相对于MobileNetV3s和YOLOv5s有较高的性价比,使得GhostBackbone部署在手机生产线上变为可能。其中,Coordinate Attention参见:Hou,Qibin,Daquan Zhou,and JiashiFeng.Coordinate attention for efficient mobile network design[J].arXivpreprint arXiv:2103.02907,2021Mar 4.
上述的技术路线,在下面将以图表的方式对本发明进行详细说明。
1.改进Ghostbottleneck:
已经实现的Ghostbottleneck如表1所示,表1中没有集成SE模块。因此改进的Ghostbottleneck需要添加SE模块并把Coordinate Attention加入至Ghostbottleneck中作为可选模块作为对比,改进之后的Ghostbottleneck如表3所示:
表3改进的Ghostbottleneck架构一览
其中,Coordinate Attention是来自新加坡国立大学的Qibin Hou的现有轻量级注意力机制技术,它将不同方向的1D特征编码进行聚合最后获得感兴趣的区域,并通过这种方法提升对目标的检测注意力。
2.使用轻量化卷积模组:
在本发明的网络将使用DWSConv(Depthwise Separable Convolution,深度可分离卷积)或者DWConv(Depthwise Convolution,深度卷积)作为卷积模组,DWSConv与DWConv的参数量相对于正常的卷积参数量都有极大的减少,能显著地降低参数量。以DWSConv参数量计算方法为例:N为参数量,Cw为卷积核宽度,Ch为卷积核高度,Iw为图像宽度,Ih为图像高度,Nin为输入通道数,Nout为输出通道数。
一个标准卷积如下式所示:
N=①×②×③
一个DWConv如下式所示:
N=①×②×Nout
一个Pointwise Convolution(逐点卷积)如下式所示:
N=1×1×①×②
在使用了DWSConv替代标准卷积之后,参数量就可以如下式所示被明显的压缩。
其中,(1)表示标准卷积参数量计算式,(2)表示深度卷积参数量计算式,(3)表示逐点卷积参数量计算式。
3.改进网络模型:
表4展示了本发明的GhostBackbone的最基本的网络架构(GhostBackbone-Simple)。
表4 GhostBackbone-Simple一览
数量 | 模块 | 模块内参数 |
1 | Focus | [64,3] |
1 | DWSConv/DWConv | [128,3,2] |
3 | Ghostbottleneck | [128,3,1,option] |
1 | DWSConv/DWConv | [256,3,2] |
9 | Ghostbottleneck | [256,3,1,option] |
1 | DWSConv/DWConv | [512,3,2] |
9 | Ghostbottleneck | [512,3,1,option] |
1 | DWSConv/DWConv | [1024,3,2] |
1 | SPP | [1024,[5,9,13]] |
3 | Ghostbottleneck | [1024,3,1,option] |
本网络模型由原有的YOLOv5s的backbone改进而来,本次改进使用了轻量级卷积DWConv卷积和DWSConv,并对C3进行了替换处理(即将C3替换为改进的Ghostbottleneck)。但是,后续研究表明,表4网络仍有提升空间,对模型GhostBackbone-Simple进行了加深处理,加深之后得到模型GhostBackbone-Deep的Backbone架构如表5所示:在进行卷积操作后,插入9个Ghostbottleneck和3个Ghostbottleneck。
表5 GhostBackbone-Deep的Backbone一览
数量 | 模块 | 模块内参数 |
1 | Focus | [64,3] |
1 | DWSConv/DWConv | [128,3,2] |
9 | GhostBottleneck | [128,3,1,option] |
3 | GhostBottleneck | [128,3,1,option] |
1 | DWSConv/DWConv | [256,3,2] |
9 | GhostBottleneck | [256,3,1,option] |
3 | GhostBottleneck | [256,3,1,option] |
1 | DWSConv/DWConv | [512,3,2] |
9 | GhostBottleneck | [512,3,1,option] |
3 | GhostBottleneck | [512,3,1,option] |
1 | DWSConv/DWConv | [1024,3,2] |
1 | SPP | [1024,[5,9,13]] |
3 | GhostBottleneck | [1024,3,1,option] |
最后完整的网络模型图可被抽象为图4所示。其中,Backbone是特征提取网络的主干网络,Neck是为了使主干网络更好地提取特征,Head表示根据特征提取网络得到的结果做出预测。
本发明设计的网络模型在Github开源的YOLOv5(release 4.0)上运行,此版本集合了训练、测试、检测代码,并且模型代码通过配置文件yaml进行修改。训练和检测步骤如下:
1)放置COCO格式的数据集文件夹;
2)在models文件夹中调整网络模型参数;
3)在train.py中调整模型、迭代次数等参数,调整完成之后执行train.py;
4)在detect.py修改权重文件、检测硬件等参数,在data文件中的放入待检测图片,并运行detect.py,输出手机屏幕缺陷检测结果。其中,待检测图片是指待检测的手机缺陷图片。
如果需要客制化自己的模型,应该把自己的代码植入到experimental.py中,并在yolo.py中的Parse_Model函数中进行参数上的设置,最后运行yolo.py来测试自己是否设置成功。上述的模型代码,将由本发明组成。
综上,本发明的一种手机屏幕缺陷视觉检测方法,包括以下步骤:
1)采集各种缺陷的手机屏幕缺陷图片,比如:jag(锯齿缺口)、oil(油污)、screen_scratch(屏幕划痕)。
2)训练网络:以手机屏幕缺陷图片作为训练样本,对本发明的改进的YOLOv5s网络进行训练。首先主干网络会对图像进行特征提取,再通过神经网络进行特征学习,最后得到被训练好的手机屏幕缺陷检测模型。
3)缺陷检测:将待检测图片输入训练完成的本发明的改进的YOLOv5s网络,本网络模型经训练之后可以直接输入一张无预处理的手机屏幕缺陷图片,并利用神经网络对此图像进行特征分析,最后得到手机屏幕缺陷预测检测结果。
表6是本发明的检测模型与对比模型(Yolov5s)的检测结果。
表6
基于同一发明构思,本发明的另一实施例提供一种采用上述方法的手机屏幕缺陷视觉检测系统,其包括:
模型建立模块,用于建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;
模型训练模块,用于采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;
缺陷检测模块,用于将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。
基于同一发明构思,本发明的另一实施例提供一种电子装置(计算机、服务器、智能手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
基于同一发明构思,本发明的另一实施例提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的各个步骤。
以上公开的本发明的具体实施例,其目的在于帮助理解本发明的内容并据以实施,本领域的普通技术人员可以理解,在不脱离本发明的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书的实施例所公开的内容,本发明的保护范围以权利要求书界定的范围为准。
Claims (8)
1.一种手机屏幕缺陷视觉检测方法,其特征在于,包括以下步骤:
建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;
采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;
将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。
2.根据权利要求1所述的方法,其特征在于,所述手机屏幕缺陷图片中的手机屏幕缺陷包括下列中的至少一种:锯齿缺口、油污、屏幕划痕。
3.根据权利要求1所述的方法,其特征在于,所述基于改进的YOLOv5s网络的手机屏幕缺陷检测模型包括:
1)改进的Ghostbottleneck:在GhostNet的Ghostbottleneck中添加SE模块,并将CoordinateAttention加入至Ghostbottleneck中以改进其原有的注意力机制;
2)轻量化卷积模组:使用深度可分离卷积DWSConv或者深度卷积DWConv作为卷积模组;
3)改进的YOLOv5s网络结构:对YOLOv5s的主干网络backbone中的C3进行替换处理,将C3替换为改进的Ghostbottleneck。
4.根据权利要求3所述的方法,其特征在于,对所述改进的YOLOv5s网络结构进行加深处理,包括:在进行卷积操作后,插入9个Ghostbottleneck和3个Ghostbottleneck。
5.根据权利要求1所述的方法,其特征在于,所述以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练,包括:首先通过主干网络对图像进行特征提取,再通过神经网络进行特征学习,最后得到训练完成的手机屏幕缺陷检测模型。
6.一种采用权利要求1~5中任一权利要求所述方法的手机屏幕缺陷视觉检测系统,其特征在于,包括:
模型建立模块,用于建立基于改进的YOLOv5s网络的手机屏幕缺陷检测模型;
模型训练模块,用于采集手机屏幕缺陷图片,以手机屏幕缺陷图片作为训练样本对所述手机屏幕缺陷检测模型进行训练;
缺陷检测模块,用于将待检测图片输入训练完成的所述手机屏幕缺陷检测模型,通过所述手机屏幕缺陷检测模型得到手机屏幕缺陷检测结果。
7.一种电子装置,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~5中任一权利要求所述方法的指令。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现权利要求1~5中任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210066061.2A CN114549416A (zh) | 2022-01-20 | 2022-01-20 | 一种手机屏幕缺陷视觉检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210066061.2A CN114549416A (zh) | 2022-01-20 | 2022-01-20 | 一种手机屏幕缺陷视觉检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114549416A true CN114549416A (zh) | 2022-05-27 |
Family
ID=81672318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210066061.2A Pending CN114549416A (zh) | 2022-01-20 | 2022-01-20 | 一种手机屏幕缺陷视觉检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549416A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114998324A (zh) * | 2022-07-19 | 2022-09-02 | 深圳新视智科技术有限公司 | 半导体晶圆缺陷检测模型的训练方法及装置 |
WO2024021081A1 (zh) * | 2022-07-29 | 2024-02-01 | 宁德时代新能源科技股份有限公司 | 一种检测产品表面缺陷的方法和装置 |
-
2022
- 2022-01-20 CN CN202210066061.2A patent/CN114549416A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114998324A (zh) * | 2022-07-19 | 2022-09-02 | 深圳新视智科技术有限公司 | 半导体晶圆缺陷检测模型的训练方法及装置 |
WO2024021081A1 (zh) * | 2022-07-29 | 2024-02-01 | 宁德时代新能源科技股份有限公司 | 一种检测产品表面缺陷的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113052210B (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN114549416A (zh) | 一种手机屏幕缺陷视觉检测方法和系统 | |
US11995901B2 (en) | Method and system for detecting scene text | |
CN110796143A (zh) | 一种基于人机协同的场景文本识别方法 | |
CN114495029B (zh) | 一种基于改进YOLOv4的交通目标检测方法及系统 | |
CN112084930A (zh) | 一种全视野数字病理切片的病灶区域分类方法及其系统 | |
CN112767423B (zh) | 一种基于改进SegNet的遥感图像建筑物分割方法 | |
CN105931246A (zh) | 一种基于小波变换和遗传算法的织物瑕疵检测方法 | |
US11699240B2 (en) | Target tracking method and apparatus, and storage medium | |
CN111507215A (zh) | 基于时空卷积循环神经网络与空洞卷积的视频目标分割方法 | |
CN112508099A (zh) | 一种实时目标检测的方法和装置 | |
CN116703919A (zh) | 一种基于最优传输距离损失模型的表面杂质检测方法 | |
CN114998756A (zh) | 一种基于yolov5的遥感图像检测方法、装置及存储介质 | |
CN115797808A (zh) | 一种无人机巡检缺陷图像的识别方法、系统、装置及介质 | |
CN114972323A (zh) | 一种用于模型训练的缺陷图片生成方法及系统 | |
CN114693963A (zh) | 基于电力数据特征提取的识别模型训练、识别方法及装置 | |
CN112215301B (zh) | 基于卷积神经网络的影像直线探测方法 | |
Liu et al. | Helmet wearing detection based on YOLOv4-MT | |
CN117671354A (zh) | 一种基于多尺度编织融合网络的工业产品表面缺陷检测方法 | |
CN110580462B (zh) | 一种基于非局部网络的自然场景文本检测方法和系统 | |
CN116310669B (zh) | 基于多模态特征提取网络的目标检测方法、系统及设备 | |
CN109753999B (zh) | 针对任意视角汽车图片的细粒度车型识别方法 | |
Yang et al. | Visual defects detection model of mobile phone screen | |
CN114943834A (zh) | 一种少标注样本下基于原型队列学习的全场景语义分割方法 | |
CN115497140A (zh) | 一种基于YOLOv5l和注意力机制的实时表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |