CN113920055A - 一种缺陷检测方法 - Google Patents

一种缺陷检测方法 Download PDF

Info

Publication number
CN113920055A
CN113920055A CN202111015419.0A CN202111015419A CN113920055A CN 113920055 A CN113920055 A CN 113920055A CN 202111015419 A CN202111015419 A CN 202111015419A CN 113920055 A CN113920055 A CN 113920055A
Authority
CN
China
Prior art keywords
image
detected
network
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111015419.0A
Other languages
English (en)
Inventor
王忠立
崔鑫
郑抄抄
蔡伯根
郭建坤
王剑
严利强
范远涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Third Engineering Co Ltd of China Railway Electrification Engineering Group Co Ltd
CREC EEB Operation Maintenance Co Ltd
Original Assignee
Beijing Jiaotong University
Third Engineering Co Ltd of China Railway Electrification Engineering Group Co Ltd
CREC EEB Operation Maintenance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University, Third Engineering Co Ltd of China Railway Electrification Engineering Group Co Ltd, CREC EEB Operation Maintenance Co Ltd filed Critical Beijing Jiaotong University
Priority to CN202111015419.0A priority Critical patent/CN113920055A/zh
Publication of CN113920055A publication Critical patent/CN113920055A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种缺陷检测方法,该方法包括:获取待检测图像,待检测图像中包含接触网;对待检测图像进行粗定位,得到粗定位图像;粗定位用于对待检测图像中接触网各部件进行捕获;对粗定位图像进行细定位,得到待分类图像;细定位用于对接触网各部件中的零件进行捕获;将待分类图像输入至预建小样本学习模型中进行检测,确定接触网的零件是否存在缺陷。该方案在复杂环境下具有良好的适应性和鲁棒性,能够达到较高的检测率。

Description

一种缺陷检测方法
技术领域
本发明一般涉及人工智能技术领域,具体涉及一种缺陷检测方法。
背景技术
铁路运输在我国经济建设发展中起着重要的作用,随着铁路的不断发展,运输安全问题受到了国内外研究人员的广泛关注,其中接触网作为核心供电设备,可以为电力机车直接输送电力设备,其运行状态直接影响列车的安全。因此,加强接触网设备的实时监测可以实现事故的预警,有效的避免事故的发生,该技术对于保证列车运行安全有着重要的意义。
对于接触网状态的检测目前主要有两种常用的方式,一个是接触式检测方法,采用传感器作为辅助工具获取接触网的基本参数,根据参数的对比得出其基本状态;另一个非接触式检测方法,通过超声波、图像等技术在现场采集接触网设备的数据,然后通过人工或者计算机处理的方法进行检测与评估。人工检测的方式效率低,操作人员的劳动强大,还可能存在漏检的风险。因此,随着人工智能技术的应用,现在越来越多的采用自动识别算法来实现接触网状态的检测。这种检测方法因为具有高效率、高速度等特点,成为目前的研究热点。
针对图像的目标检测技术,从理论研究的角度,传统方法研究集中在人工特征的构造和分类算法上,但存在的问题是人工设计的特征可能适用性并不强,或者说泛化能力较弱、检测率较低。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种缺陷检测方法。
本发明提供了一种缺陷检测方法,该方法包括:
获取待检测图像,待检测图像中包含接触网;
对待检测图像进行粗定位,得到粗定位图像;粗定位用于对待检测图像中接触网各部件进行捕获;
对粗定位图像进行细定位,得到待分类图像;细定位用于对接触网各部件中的零件进行捕获;
将待分类图像输入至预建小样本学习模型中进行检测,确定接触网的零件是否存在缺陷。
在其中一个实施例中,对待检测图像进行粗定位,得到粗定位图像,包括:
将待检测图像输入第一特征提取网络,得到粗定位图像。
在其中一个实施例中,第一特征提取网络包括Mish激活函数和/或Dropblock块。
在其中一个实施例中,将待检测图像输入第一特征提取网络,包括:
将待检测图像依次输入第一特征提取网络、Neck网络、头网络。
在其中一个实施例中,对粗定位图像进行细定位,得到待分类图像,包括:
将粗定位图像输入第二特征提取网络,得到待分类图像。
在其中一个实施例中,第二特征提取网络采用CIOU_Loss损失函数和DIOU_NMS非最大值抑制方法实现零件的细定位。
在其中一个实施例中,小样本学习模型的构建包括预训练阶段、微调和测试阶段;
预训练阶段用于使用分类训练网络训练模型,得到预训练模型,以学习一般的特征表示;
微调和测试阶段用于对预训练模型进行微调和测试,得到小样本学习模型。
在其中一个实施例中,预训练模型包括特征金字塔网络、嵌入特征传播、线性分类器;
使用分类训练网络训练模型,得到预训练模型,包括:
获取样本图像数据集,样本图像数据集中每个样本图像中均包含接触网;
基于样本图像数据集,训练特征金字塔网络、嵌入特征传播、线性分类器的参数,得到模型参数;
根据模型参数,得到预训练模型。
在其中一个实施例中,线性分类器包括第一线性分类器和第二线性分类器;
第一线性分类器用于预测待分类图像特征的类标签,通过最小化交叉熵损失实现;
第二线性分类器通过预测待分类图像特征的旋转变化,得到稳健的特征表示。
在其中一个实施例中,获取待检测图像后或获取样本图像数据集后,方法还包括:对待检测图像或样本图像进行预处理,得到预处理图像,以使待检测图像或样本图像的长度及宽度与小样本学习模型要求的一致;并对预处理图像进行增强处理。
本申请实施例提供的缺陷检测方法,通过对待检测图像由粗到细的定位接触网部件及其零件,然后通过小样本学习模型对缺陷种类进行识别,该方法在复杂环境下具有良好的适应性和鲁棒性,以及能够达到较高的检测率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本发明实施例提供的缺陷检测方法的流程示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
参照图1,其示出了适用于本申请缺陷检测方法的流程示意图。
如图1所示,一种缺陷检测方法,该方法可以包括:
S110、获取待检测图像,待检测图像中包含接触网;
S120、对待检测图像进行粗定位,得到粗定位图像;粗定位用于对待检测图像中接触网各部件进行捕获;
S130、对粗定位图像进行细定位,得到待分类图像;细定位用于对接触网各部件中的零件进行捕获;
S140、将待分类图像输入至预建小样本学习模型中进行检测,确定接触网的零件是否缺陷。
具体的,待检测图像为采集的包含接触网的图像。该图像可以为实时采集的图像,也可以为采集设备采集图像后存储存储器或存储服务器等存储设备的图像,该图像可以根据实际需求进行获取或存储,这里不做限制。
将待分类图像输入至预建小样本学习模型中进行检测,小样本学习模型可以将待分类图像分为支撑装置缺陷、附加装置缺陷、吊柱缺陷、接触悬挂缺陷和无缺陷五类。
本申请实施例,通过对待检测图像由粗到细的定位接触网部件及其零件,然后通过小样本学习模型对缺陷种类进行识别,该方法在复杂环境下具有良好的适应性和鲁棒性,以及能够达到较高的检测率。
可选的,在获取待检测图像后,该方法还包括:对待检测图像进行预处理,得到预处理图像,以使待检测图像的长度及宽度与小样本学习模型要求的一致。
在获取待检测图像后,该方法还包括:对预处理图像进行增强处理。
可以理解的,由于获取的图像大多数为长方体,而在深度学习训练中,大多需要正方形的照片,因此可以通过图片加灰条(补充边界数据)的方法,保证输入图像长度和宽度的一致性(即长度和宽度相等),且与小样本学习模型要求的一致。
还可以理解的,可以采用Mosaic数据增强方法对待检测图像进行增强处理,即将4张图片按照随机缩放、随机裁剪和随机排布的方式进行拼接,该增强方法不仅可以丰富数据集,同时可以极大提升网络的训练速度,而且降低模型的内存需求。
在一个实施例中,对待检测图像进行粗定位,得到粗定位图像,包括:
将待检测图像输入第一特征提取网络,得到粗定位图像。
具体的,第一特征提取网络可以采用CSPDarknet53。
可选的,第一特征提取网络包括Mish激活函数和/或Dropblock块。
具体的,采用Mish激活函数代替原始的RELU激活函数,可以使第一特征提取网络更加平滑,从而提升第一特征提取网络模型的精度。
Mish激活函数表示为:
y_mish=x*tanh(In(1+ex))
在第一特征提取网络中增加Dropblock块可以进一步提升第一特征提取网络的泛化能力。
可选的,将待检测图像输入第一特征提取网络,可以包括:
将待检测图像依次输入第一特征提取网络、Neck网络、头网络。
可以理解的,为了进一步提高特征提取能力,Neck网络通常位于基准网络和头网络的中间位置,利用它进一步提升特征的多样性及鲁棒性,并结合自顶向下的特征金字塔于和自底向上的特征金字塔提升网络的特征提取能力。
具体的,可以通过融合不同大小的最大池化层来获得鲁棒的特征表示,并结合特征金字塔网络,通过在特征图上面构建金字塔,其中采用FPN层自顶向下可以捕获强语义特征,而PAF则通过自底向上传达强定位特征,通过组合这两个模块,解决了目标检测中尺度问题,完成了目标定位,为进行后续的分类。
将待检测图像(可以为进行预处理和/或增强处理后的待检测图像)输入至第一特征提取网络进行特征提取,第一特征提取网络包含3个特征层的输出,最后输出层输出结果为(N,19,19,30),(N,38,38,30),(N,76,76,30),输出结果中N为每批次数据的大小;接下来两个维度为待检测图像的分辨率大小,分别为19x19、38x38、76x76;最后一个维度可拆分为30=3×(4+1+)5,表示有3个预测结果的先验框、4个调整参数(tx,ty,tw,th)、1为的置信度、5表示目标数。最终得到的边框的参数为(bx,by,bw,bh):
bx=cx+σ(tx)
by=cy+σ(ty)
Figure BDA0003239773880000061
Figure BDA0003239773880000062
式中,bx,by表示边框在水平、垂直方向上的位置,bw,bh为目标款的宽度和高度大小;tx,ty为边框回归运算时在水平和垂直方向的平移量,tw,th为在宽度和高度方向上的缩放比例,(cx,cy,pw,ph)是边框回归迭代计算之前的边框水平、垂直方向的位置、宽度和高度值。
本申请实施例中,对待检测图像进行粗定位,主要是对接触网各部件进行捕获,其目的是避免直接检测小的物体所导致精度较差的问题。
在一个实施例中,对粗定位图像进行细定位,得到待分类图像,可以包括:
将粗定位图像输入第二特征提取网络,得到待分类图像。
具体的,将粗定位图像进行细定位为将粗定位结果按照候选框的坐标对图像进行截取,然后输入到第二特征提取网络,该过程与粗定位过程相似,通过特征层提取图像的特征信息,输出对应的输出层,得到待分类图像。
可选的,第二特征提取网络可以采用CIOU_Loss损失函数和DIOU_NMS非最大值抑制方法实现零件的细定位。
其中,CIOU_Loss损失函数由分类损失函数和回归损失函数构成。
具体的,CIOU_Loss损失函数计算公式为:
Figure BDA0003239773880000071
其中,IOU为目标框和预测框的重合度。Distance_2为预测框和目标框中心点距离,Distance_C为最小外接矩形的对角线距离。v为过程参数,计算方法如下:
Figure BDA0003239773880000072
其中,wgt为训练图像样本的宽度真值,hgt为训练图像样本的高度真值,wp为训练图像样本的预测宽度,hp为训练图像样本的预测高度。
在一个实施例中,小样本学习模型的构建包括预训练阶段、微调和测试阶段;
预训练阶段用于使用分类训练网络训练模型,得到预训练模型,以学习一般的特征表示;
微调和测试阶段用于对预训练模型进行微调和测试,得到小样本学习模型。
在一个实施例中,预训练模型包括特征金字塔网络、嵌入特征传播、线性分类器;
使用分类训练网络训练模型,得到预训练模型,包括:
获取样本图像数据集,样本图像数据集中每个样本图像中均包含接触网;
基于样本图像数据集,训练特征金字塔网络、嵌入特征传播、线性分类器的参数,得到模型参数;
根据模型参数,得到预训练模型。
可选的,获取样本图像数据集后,方法还包括:对样本图像进行预处理,得到预处理图像,以使样本图像的长度及宽度与小样本学习模型要求的一致;并对预处理图像进行增强处理。
具体的,小样本学习模型的构建分为两个阶段:预训练阶段、微调和测试阶段,在预训练阶段时,使用分类训练网络在基类数据集(即样本图像数据集)
Figure BDA0003239773880000081
上训练模型,得到预训练模型,以学习一般的特征表示,其中yi∈Ybase是每一张图片(即样本图像)xi对应得标签,Nbase为基类数据集的样本数量,Ybase是基类数据集的所有样本标签集合。然后,在微调和测试阶段,预训练模型通过小样本任务学习来进行微调,以便泛化到新的类别之中。
具体的,在预训练阶段,利用基类数据集
Figure BDA0003239773880000082
对特征金字塔网络、嵌入特征传播、两个线性分类器的参数进行训练。训练结束后,特征金字塔网络的参数在微调和测试阶段将保持不变。
在嵌入特征传播阶段,利用特征金字塔网络得到的特征,利用嵌入特征传播进行流行平滑来缓解小样本学习过程中产生的分布偏移,其中嵌入特征传播接受来特征金字塔网络输出的特征zi∈Rm,然后对于每一对特征(i,j),计算其欧氏距离
Figure BDA0003239773880000083
与邻接矩阵
Figure BDA0003239773880000084
σ为方差,从而计算嵌入传播矩阵P:
P=(I-αL)-1
其中,
Figure BDA0003239773880000091
为对应邻接矩阵A的拉普拉斯矩阵,且Dii=∑jAij,α∈R为标度因子,I是单位矩阵,嵌入特征传播公式为:
Figure BDA0003239773880000092
其中,Pij为嵌入传播矩阵P中位置(i,j)的对应元素;
Figure BDA0003239773880000093
为经过嵌入传播后得到的更新的特征。
两个阶段使用相同嵌入特征传播,训练所使用的损失函数为:
Figure BDA0003239773880000094
式中,Q表示查询数据集上的样本(在训练阶段,其标签是已知的;在测试阶段,其标签值是通过网络预测得到),S表示支撑集上的样本。Wl为标签分类网络的参数,θ为特征提取网络的参数。Lp和Lc分别对应两个线性分类器的损失函数。
在一个实施例中,线性分类器包括第一线性分类器和第二线性分类器;
第一线性分类器用于预测待分类图像特征的类标签,通过最小化交叉熵损失实现;
第二线性分类器通过预测待分类图像特征的旋转变化,得到稳健的特征表示。
具体的,第一线性分类器的最小化交叉熵损伤为:
Figure BDA0003239773880000095
第二线性分类器的损失函数为:
Figure BDA0003239773880000096
在针对小样本分类模型的微调和测试阶段,使用两个新的数据集Dn和Dv,其中Dn用于评估模型的泛化能力,Dv中主要包括待分类的输入图像,在这一阶段同样使用两个分类器来对分类网络进行优化。
第一个分类器使用标签传播,其损失函数如下:
Figure BDA0003239773880000097
其中
Figure BDA0003239773880000098
是由支持集和查询集得到的传播嵌入矩阵,YS∈Rn×k是对支持集中标签的热编码矢量。
第二个分类器与预训练阶段时基于Wl的分类器相同。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种缺陷检测方法,其特征在于,所述方法包括:
获取待检测图像,所述待检测图像中包含接触网;
对所述待检测图像进行粗定位,得到粗定位图像;所述粗定位用于对所述待检测图像中所述接触网各部件进行捕获;
对所述粗定位图像进行细定位,得到待分类图像;所述细定位用于对所述接触网各部件中的零件进行捕获;
将所述待分类图像输入至预建小样本学习模型中进行检测,确定所述接触网的零件是否存在缺陷。
2.根据权利要求1所述的方法,其特征在于,所述对所述待检测图像进行粗定位,得到粗定位图像,包括:
将所述待检测图像输入第一特征提取网络,得到所述粗定位图像。
3.根据权利要求2所述的方法,其特征在于,所述第一特征提取网络包括Mish激活函数和/或Dropblock块。
4.根据权利要求2或3所述的方法,其特征在于,所述将所述待检测图像输入第一特征提取网络,包括:
将所述待检测图像依次输入所述第一特征提取网络、Neck网络、头网络。
5.根据权利要求1所述的方法,其特征在于,所述对所述粗定位图像进行细定位,得到待分类图像,包括:
将所述粗定位图像输入第二特征提取网络,得到所述待分类图像。
6.根据权利要求5所述的方法,其特征在于,所述第二特征提取网络采用CIOU_Loss损失函数和DIOU_NMS非最大值抑制方法实现零件的细定位。
7.根据权利要求1所述的方法,其特征在于,所述小样本学习模型的构建包括预训练阶段、微调和测试阶段;
所述预训练阶段用于使用分类训练网络训练模型,得到预训练模型,以学习一般的特征表示;
所述微调和测试阶段用于对所述预训练模型进行微调和测试,得到所述小样本学习模型。
8.根据权利要求7所述的方法,其特征在于,所述预训练模型包括特征金字塔网络、嵌入特征传播、线性分类器;
所述使用分类训练网络训练模型,得到预训练模型,包括:
获取样本图像数据集,所述样本图像数据集中每个样本图像中均包含接触网;
基于所述样本图像数据集,训练所述特征金字塔网络、嵌入特征传播、线性分类器的参数,得到模型参数;
根据所述模型参数,得到所述预训练模型。
9.根据权利要求8所述的方法,其特征在于,所述线性分类器包括第一线性分类器和第二线性分类器;
所述第一线性分类器用于预测所述待分类图像特征的类标签,通过最小化交叉熵损失实现;
所述第二线性分类器通过预测所述待分类图像特征的旋转变化,得到稳健的特征表示。
10.根据权利要求1或8所述的方法,其特征在于,所述获取待检测图像后或所述获取样本图像数据集后,所述方法还包括:对所述待检测图像或所述样本图像进行预处理,得到预处理图像,以使所述待检测图像或所述样本图像的长度及宽度与所述小样本学习模型要求的一致;并对所述预处理图像进行增强处理。
CN202111015419.0A 2021-08-31 2021-08-31 一种缺陷检测方法 Pending CN113920055A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111015419.0A CN113920055A (zh) 2021-08-31 2021-08-31 一种缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111015419.0A CN113920055A (zh) 2021-08-31 2021-08-31 一种缺陷检测方法

Publications (1)

Publication Number Publication Date
CN113920055A true CN113920055A (zh) 2022-01-11

Family

ID=79233572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111015419.0A Pending CN113920055A (zh) 2021-08-31 2021-08-31 一种缺陷检测方法

Country Status (1)

Country Link
CN (1) CN113920055A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117495856A (zh) * 2023-12-29 2024-02-02 深圳市壹倍科技有限公司 基于深度学习的晶圆表面检测方法、装置、设备和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117495856A (zh) * 2023-12-29 2024-02-02 深圳市壹倍科技有限公司 基于深度学习的晶圆表面检测方法、装置、设备和介质
CN117495856B (zh) * 2023-12-29 2024-03-22 深圳市壹倍科技有限公司 基于深度学习的晶圆表面检测方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
Du et al. Pavement distress detection and classification based on YOLO network
Hoang An Artificial Intelligence Method for Asphalt Pavement Pothole Detection Using Least Squares Support Vector Machine and Neural Network with Steerable Filter‐Based Feature Extraction
Yeum et al. Vision‐based automated crack detection for bridge inspection
Sánchez-Rodríguez et al. Automated detection and decomposition of railway tunnels from Mobile Laser Scanning Datasets
CN106548182B (zh) 基于深度学习和主成因分析的路面裂纹检测方法及装置
Siriborvornratanakul An automatic road distress visual inspection system using an onboard in‐car camera
Zhu et al. Concrete column recognition in images and videos
CN108596055B (zh) 一种复杂背景下高分辨遥感图像的机场目标检测方法
CN111784633B (zh) 一种面向电力巡检视频的绝缘子缺损自动检测算法
EP3899508A1 (en) Automated inspection system and associated method for assessing the condition of shipping containers
CN104239867B (zh) 车牌定位方法及系统
CN107992819B (zh) 一种车辆属性结构化特征的确定方法与装置
CN108305260B (zh) 一种图像中角点的检测方法、装置及设备
CN109840483B (zh) 一种滑坡裂缝检测与识别的方法及装置
CN113516146A (zh) 一种数据分类方法、计算机及可读存储介质
Xing et al. Traffic sign recognition using guided image filtering
CN113393426A (zh) 一种轧钢板表面缺陷检测方法
CN113240623A (zh) 一种路面病害检测方法及装置
CN113435452A (zh) 一种基于改进ctpn算法的电气设备铭牌文本检测方法
Katsamenis et al. A few-shot attention recurrent residual U-Net for crack segmentation
CN115019133A (zh) 基于自训练和标签抗噪的图像中弱目标的检测方法及系统
Zhang et al. Image-based approach for parking-spot detection with occlusion handling
Fang et al. Towards real-time crack detection using a deep neural network with a Bayesian fusion algorithm
CN113920055A (zh) 一种缺陷检测方法
CN110688512A (zh) 基于ptgan区域差距与深度神经网络的行人图像搜索算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination