CN112785574B - 一种基于改进YOLOv3的围巾花纹缺陷检测方法 - Google Patents

一种基于改进YOLOv3的围巾花纹缺陷检测方法 Download PDF

Info

Publication number
CN112785574B
CN112785574B CN202110094820.1A CN202110094820A CN112785574B CN 112785574 B CN112785574 B CN 112785574B CN 202110094820 A CN202110094820 A CN 202110094820A CN 112785574 B CN112785574 B CN 112785574B
Authority
CN
China
Prior art keywords
scarf
image
pattern
algorithm
yolov3
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110094820.1A
Other languages
English (en)
Other versions
CN112785574A (zh
Inventor
陈维娜
杨忠
顾姗姗
王逸之
唐玉娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinling Institute of Technology
Original Assignee
Jinling Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinling Institute of Technology filed Critical Jinling Institute of Technology
Priority to CN202110094820.1A priority Critical patent/CN112785574B/zh
Publication of CN112785574A publication Critical patent/CN112785574A/zh
Application granted granted Critical
Publication of CN112785574B publication Critical patent/CN112785574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

一种基于改进YOLOv3的围巾花纹缺陷检测方法,该方法包括以下步骤:步骤1,获取围巾生产过程中的围巾图像数据;步骤2,将围巾模糊运动图像复原;步骤3,利用改进的YOLOv3算法检测围巾的花纹边线;步骤4,设置花纹参考线,分割花纹小方格;步骤5,Harris角点检测围巾的瑕疵处。本发明通过计算点扩散函数、维纳滤波后,解决围巾生产过程中由运动带来的图像模糊问题,同时利用改进后的YOLOv3算法检测围巾的花纹边线,改进后的YOLOv3检测算法有着易收敛、减小检测框回归难度等优点。最终利用Harris角点检测算法实现了围巾的缺陷检测。

Description

一种基于改进YOLOv3的围巾花纹缺陷检测方法
技术领域
本发明涉及缺陷检测领域,特别设计一种基于改进YOLOv3的围巾花纹缺陷检测方法。
背景技术
围巾作为一种重要的冬天保暖工作,在现代日常生活中得到了广泛的应用。然而在现阶段,围巾在生产过程中或多或少会出现各种各样的缺陷,其中包括在围巾生产过程中,出现表面花纹缺陷等问题,这对于最后产品的美观性、完整性有着很大的不良影响,产品质量也在一定程度上很难得到市场认可,因此对于围巾的表面花纹进行检测是具有非常重要的意义。
常用的表面缺陷检测有人工、射线以及机器视觉检测,其中,人工检测的缺点非常明显,因为其需要很大的劳动强度,而且检测效率低,检测结果不理想;机器视觉检测是将计算机的很多优点与数字图像处理技术相结合进行视觉检测,这样可以大大提高检测的效率,但它的应用尚处于发展阶段,技术还不是很成熟。
发明内容
为了解决上述存在问题。本发明提供一种基于改进YOLOv3的围巾花纹缺陷检测方法,解决围巾花纹缺陷问题。为达此目的:一种基于改进YOLOv3的围巾花纹缺陷检测方法,具体步骤如下:
步骤1:获取围巾生产过程中的围巾图像数据:通过CCD相机检测流水线上围巾的运动图像数据;
步骤2:将围巾模糊运动图像复原:建立围巾运动时检测的数学模型,计算图像的扩散函数,使用滤波算法获得复原后的围巾运动图像;
步骤3:利用改进的YOLOv3算法检测围巾的花纹边线:为更准确的检测围巾的花纹边线,改进YOLOv3的损失函数和网络锚框,检测围巾花纹边线;
步骤4:设置花纹参考线,分割花纹小方格:通过YOLOv3算法定位围巾的花纹边线,并分割出多个围巾花纹小方格;
步骤5:Harris角点检测围巾的瑕疵处:通过Harris角点检测算法检测每个被分割方格的角点,并对花纹边线图像进行配准和拼接,检测出围巾的瑕疵处。
作为本发明进一步改进,所述步骤2中复原围巾模糊运动图像如下:
步骤2.1首先建立CCD相机采集的围巾图像数学模型:
g(x,y)=f(x,y)*h(x,y)+n(x,y) (1)
式中,g(x,y)是采集到的围巾模糊运动图像,*是卷积运算,f(x,y)是理想的图像,h(x,y)是点扩散函数,n(x,y)是随机引入的加性噪声;
步骤2.2计算点扩散函数:
先将h(x,y)点扩散函数经二维傅里叶转换为H(u,v),再通过下式求解出点扩散函数的二维傅里叶函数H(u,v):
Figure BDA0002913660970000021
式中,bx,by是沿x,y方向上的模糊范围;
步骤2.3在确定点扩散函数之后,通过维纳滤波获得复原后的围巾运动图像,其中滤波的表达式为:
Figure BDA0002913660970000022
式中,H(u,v)*是点扩散函数的共轭,Pn(u,v)是围巾模糊图像的功率谱,Pn(u,v)/Pf(u,v)是图像的信噪比;在确定滤波器之后,最终复原围巾运动图像f’(m,n):
f′(m,n)=F-1{G(u,v)M(u,v)} (4)
式中,G(u,v)是围巾模糊图像经傅里叶变换后的频域表达式,F-1是傅里叶逆变换。
作为本发明进一步改进,所述步骤3中利用改进的YOLOv3算法检测围巾的花纹边线如下:
网络的损失函数是用来评价模型预测值和真实值不一样的程度,极大的影响了模型的收敛效果,为了更好的收敛模型,本发明使用下列函数替代原有的损失函数:
LossGrad=tan(t-σ(z))/tan(l) (5)
式中,б(Z)是网络输出值,t是图像标签的实际值,t-б(Z)取值范围为[-1,1];同时为更准确的检测未经的花纹边线,使用K-means算法改进YOLOv3网络锚框,为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置:
d=1-IOU(b,a) (6)
其中,IOU是锚框交集和并集的比值,a和b分别表示标签和聚类中心框和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小表示标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用较小的2个锚框,小分辨率特征图对应的YOLO层使用较大的3个锚框;将复原后的围巾图像作为训练样本,训练改进后的YOLOv3网络,获得能检测围巾花纹边线的YOLOv3网络。
作为本发明进一步改进,所述步骤5中Harris角点检测围巾的瑕疵处如下:
经过步骤4分割多个围巾的花纹边线后,首先将图像进行灰度处理,获得花纹边线的灰度图像,并通过下式判断花纹边线的断点:
Figure BDA0002913660970000031
式中,u,v是窗口在水平和竖直方向的偏移值,M是灰度图像的协方差矩阵:
Figure BDA0002913660970000032
式中,(x,y)是图像的像素坐标,w(x,y)是窗口函数,Ix和Iy分别是图像在x和y方向上的梯度;通过Harris算法最终获得图像对应坐标的角点检测结果,同时对花纹边线图像进行配准和拼接,并通过结果判断在图像上的对应位置是否存在瑕疵。
本发明一种基于改进YOLOv3的围巾花纹缺陷检测方法,有益效果在于:
1.本发明通过计算点扩散函数、维纳滤波后,解决围巾生产过程中由运动带来的图像模糊问题;
2.本发明利用改进后的YOLOv3算法检测围巾的花纹边线,改进后的YOLOv3检测算法有着易收敛、减小检测框回归难度等优点;
3.本发明利用Harris角点检测算法实现了围巾的缺陷检测,为围巾花纹缺陷检测提供了一种重要技术手段。
附图说明
图1是本发明算法流程图;
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供一种基于改进YOLOv3的围巾花纹缺陷检测方法,通过计算点扩散函数、维纳滤波后,解决围巾生产过程中由运动带来的图像模糊问题,同时利用改进后的YOLOv3算法检测围巾的花纹边线,改进后的YOLOv3检测算法有着易收敛、减小检测框回归难度等优点,算法流程图如图1所示,具体步骤如下所示:
步骤1:获取围巾生产过程中的围巾图像数据:通过CCD相机检测流水线上围巾的运动图像数据;
步骤2:将围巾模糊运动图像复原:建立围巾运动时检测的数学模型,计算图像的扩散函数,使用滤波算法获得复原后的围巾运动图像;
步骤2中复原围巾模糊运动图像具体描述如下:
步骤2.1首先建立CCD相机采集的围巾图像数学模型:
g(x,y)=f(x,y)*h(x,y)+n(x,y) (1)
式中,g(x,y)是采集到的围巾模糊运动图像,*是卷积运算,f(x,y)是理想的图像,h(x,y)是点扩散函数,n(x,y)是随机引入的加性噪声;
步骤2.2计算点扩散函数:
先将h(x,y)点扩散函数经二维傅里叶转换为H(u,v),再通过下式求解出点扩散函数的二维傅里叶函数H(u,v):
Figure BDA0002913660970000051
式中,bx,by是沿x,y方向上的模糊范围;
步骤2.3在确定点扩散函数之后,通过维纳滤波获得复原后的围巾运动图像,其中滤波的表达式为:
Figure BDA0002913660970000052
式中,H(u,v)*是点扩散函数的共轭,Pn(u,v)是围巾模糊图像的功率谱,
Pn(u,v)/Pf(u,v)是图像的信噪比;在确定滤波器之后,最终复原围巾运动图像f’(m,n):
f′(m,n)=F-1{G(u,v)M(u,v)} (4)
式中,G(u,v)是围巾模糊图像经傅里叶变换后的频域表达式,F-1是傅里叶逆变换。
步骤3:利用改进的YOLOv3算法检测围巾的花纹边线:为更准确的检测围巾的花纹边线,改进YOLOv3的损失函数和网络锚框,检测围巾花纹边线;
步骤3中利用改进的YOLOv3算法检测围巾的花纹边线具体描述如下:
在获得复原后的围巾运动图像后,建立训练样本集,训练YOLOv3围巾花纹边线检测网络,网络的损失函数是用来评价模型预测值和真实值不一样的程度,极大的影响了模型的收敛效果,为了更好的收敛模型,本发明使用下列函数替代原有的损失函数:
LossGrad=tan(t-σ(z))/tan(l) (5)
式中,б(Z)是网络输出值,t是图像标签的实际值,t-б(Z)取值范围为[-1,1];同时为更准确的检测未经的花纹边线,使用K-means算法改进YOLOv3网络锚框,为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置:
d=1-IOU(b,a) (6)
其中,IOU是锚框交集和并集的比值,a和b分别表示标签和聚类中心框和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小表示标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用较小的2个锚框,小分辨率特征图对应的YOLO层使用较大的3个锚框;将复原后的围巾图像作为训练样本,训练改进后的YOLOv3网络,获得能检测围巾花纹边线的YOLOv3网络。
步骤4:设置花纹参考线,分割花纹小方格:经过步骤3检测定位围巾的花纹边线之后,将围巾的花纹边线分割出多个围巾花纹小方格;
步骤5:Harris角点检测围巾的瑕疵处:通过Harris角点检测算法检测每个被分割方格的角点,并对花纹边线图像进行配准和拼接,检测出围巾的瑕疵处。
步骤5中Harris角点检测围巾的瑕疵处具体描述如下:
经过步骤4分割多个围巾的花纹小方格后,首先将图像进行灰度处理,获得花纹边线的灰度图像,并通过下式判断花纹边线的断点:
Figure BDA0002913660970000061
式中,u,v是窗口在水平和竖直方向的偏移值,M是灰度图像的协方差矩阵:
Figure BDA0002913660970000062
式中,(x,y)是图像的像素坐标,w(x,y)是窗口函数,Ix和Iy分别是图像在x和y方向上的梯度;通过Harris算法最终获得图像对应坐标的角点检测结果,同时对花纹边线图像进行配准和拼接,并通过结果判断在图像上的对应位置是否存在瑕疵。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (1)

1.一种基于改进YOLOv3的围巾花纹缺陷检测方法,具体步骤如下,其特征在于:
步骤1:获取围巾生产过程中的围巾图像数据:通过CCD相机检测流水线上围巾的运动图像数据;
步骤2:将围巾模糊运动图像复原:建立围巾运动时检测的数学模型,计算图像的扩散函数,使用滤波算法获得复原后的围巾运动图像;
步骤2中复原围巾模糊运动图像的过程表示为:步骤
2.1首先建立CCD相机采集的围巾图像数学模型:
g(x,y)=f(x,y)*h(x,y)+n(x,y) (1)
式中,g(x,y)是采集到的围巾模糊运动图像,*是卷积运算,f(x,y)是理想的图像,h(x,y)是点扩散函数,n(x,y)是随机引入的加性噪声;
步骤2.2计算点扩散函数:
先将h(x,y)点扩散函数经二维傅里叶转换为H(u,v),再通过下式求解出点扩散函数的二维傅里叶函数H(u,v):
Figure FDA0004211940710000011
式中,bx,by是沿x,y方向上的模糊范围;
步骤2.3在确定点扩散函数之后,通过维纳滤波获得复原后的围巾运动图像,其中滤波的表达式为:
Figure FDA0004211940710000012
式中,H(u,v)*是点扩散函数的共轭,Pn(u,v)是围巾模糊图像的功率谱,Pn(u,v)/Pf(u,v)是图像的信噪比;在确定滤波器之后,最终复原围巾运动图像f’(m,n):
f′(m,n)=F-1{G(u,v)M(u,v)} (4)
式中,G(u,v)是围巾模糊图像经傅里叶变换后的频域表达式,F-1是傅里叶逆变换;
步骤3:利用改进的YOLOv3算法检测围巾的花纹边线:为更准确的检测未经的花纹边线,改进YOLOv3的损失函数和网络锚框,检测围巾花纹边线;
步骤3中利用改进的YOLOv3算法检测围巾的花纹边线的过程表示为:
网络的损失函数是用来评价模型预测值和真实值不一样的程度,极大的影响了模型的收敛效果,为了更好的收敛模型,使用下列函数替代原有的损失函数:
LossGrad=tan(t-σ(z))/tan(l) (5)
式中,б(Z)是网络输出值,t是图像标签的实际值,t-б(Z)取值范围为[-1,1];同时为更准确的检测围巾的花纹边线,使用K-means算法改进YOLOv3网络锚框,为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置:
d=1-IOU(b,a) (6)
其中,IOU是锚框交集和并集的比值,a和b分别表示标签和聚类中心框和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小表示标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用小的2个锚框,小分辨率特征图对应的YOLO层使用大的3个锚框;将复原后的围巾图像作为训练样本,训练改进后的YOLOv3网络,获得能检测围巾花纹边线的YOLOv3网络;
步骤4:设置花纹参考线,分割花纹小方格:通过YOLOv3算法定位围巾的花纹边线,并分割出多个围巾花纹小方格;
步骤5:Harris角点检测围巾的瑕疵处:通过Harris角点检测算法检测每个被分割方格的角点,并对花纹边线图像进行配准和拼接,检测出围巾的瑕疵处;
步骤5中Harris角点检测围巾的瑕疵处表示为:
经过步骤4分割多个围巾的花纹边线后,首先将图像进行灰度处理,获得花纹边线的灰度图像,并通过下式判断花纹边线的断点:
Figure FDA0004211940710000031
式中,u,v是窗口在水平和竖直方向的偏移值,M是灰度图像的协方差矩阵:
Figure FDA0004211940710000032
式中,(x,y)是图像的像素坐标,w(x,y)是窗口函数,Ix和Iy分别是图像在x和y方向上的梯度;通过Harris算法最终获得图像对应坐标的角点检测结果,同时对花纹边线图像进行配准和拼接,并通过结果判断在图像上的对应位置是否存在瑕疵。
CN202110094820.1A 2021-01-25 2021-01-25 一种基于改进YOLOv3的围巾花纹缺陷检测方法 Active CN112785574B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110094820.1A CN112785574B (zh) 2021-01-25 2021-01-25 一种基于改进YOLOv3的围巾花纹缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110094820.1A CN112785574B (zh) 2021-01-25 2021-01-25 一种基于改进YOLOv3的围巾花纹缺陷检测方法

Publications (2)

Publication Number Publication Date
CN112785574A CN112785574A (zh) 2021-05-11
CN112785574B true CN112785574B (zh) 2023-06-06

Family

ID=75758880

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110094820.1A Active CN112785574B (zh) 2021-01-25 2021-01-25 一种基于改进YOLOv3的围巾花纹缺陷检测方法

Country Status (1)

Country Link
CN (1) CN112785574B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011405B (zh) * 2021-05-25 2021-08-13 南京柠瑛智能科技有限公司 一种解决无人机地物目标识别多框重叠误差的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106556612A (zh) * 2016-11-04 2017-04-05 立讯精密工业(昆山)有限公司 一种基于相位信息的连接器缺陷检测方法
CN107945127A (zh) * 2017-11-27 2018-04-20 南昌大学 一种基于图像列灰度概率一致性的高速运动图像去模糊方法
CN110175658A (zh) * 2019-06-26 2019-08-27 浙江大学 一种基于YOLOv3深度学习的混凝土裂缝识别方法
CN110197259A (zh) * 2019-05-30 2019-09-03 浙江大学 基于小批量数据集与深度学习算法的晶圆缺陷检测方法
CN110310259A (zh) * 2019-06-19 2019-10-08 江南大学 一种基于改进YOLOv3算法的木结瑕疵检测方法
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN111861996A (zh) * 2020-06-23 2020-10-30 西安工程大学 一种印花织物疵点检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861187B2 (en) * 2019-02-13 2020-12-08 Apical Limited Method of processing object detection data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106556612A (zh) * 2016-11-04 2017-04-05 立讯精密工业(昆山)有限公司 一种基于相位信息的连接器缺陷检测方法
CN107945127A (zh) * 2017-11-27 2018-04-20 南昌大学 一种基于图像列灰度概率一致性的高速运动图像去模糊方法
CN110197259A (zh) * 2019-05-30 2019-09-03 浙江大学 基于小批量数据集与深度学习算法的晶圆缺陷检测方法
CN110310259A (zh) * 2019-06-19 2019-10-08 江南大学 一种基于改进YOLOv3算法的木结瑕疵检测方法
CN110175658A (zh) * 2019-06-26 2019-08-27 浙江大学 一种基于YOLOv3深度学习的混凝土裂缝识别方法
AU2020101011A4 (en) * 2019-06-26 2020-07-23 Zhejiang University Method for identifying concrete cracks based on yolov3 deep learning model
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN111861996A (zh) * 2020-06-23 2020-10-30 西安工程大学 一种印花织物疵点检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Real-Time Detection of Railway Track Component via One-Stage Deep Learning Networks;Tiange Wang 等;《sensors》;1-15 *
基于卷积神经网络的运动模糊车牌识别;唐博;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》(第(2020)03期);C034-959 *
基于改进YOLOv3算法的带钢表面缺陷检测;李维刚 等;《电子学报》;第48卷(第7期);1284-1292 *
晶圆表面缺陷视觉检测研究;郭毅强;《中国优秀硕士学位论文全文数据库信息科技辑》(第(2020)02期);I135-162 *

Also Published As

Publication number Publication date
CN112785574A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
CN108460764B (zh) 基于自动上下文和数据增强的超声图像智能分割方法
Deng et al. Image edge detection algorithm based on improved canny operator
CN107169953B (zh) 基于hog特征的桥梁混凝土表面裂缝检测方法
CN111383209A (zh) 一种基于全卷积自编码器网络的无监督瑕疵检测方法
CN111161222B (zh) 一种基于视觉显著性的印刷辊筒缺陷检测方法
CN113706464B (zh) 一种印刷品外观质量检测方法及系统
CN104573674A (zh) 面向实时嵌入式系统的一维条码识别方法
CN112767369A (zh) 小五金的缺陷识别检测方法、装置及计算机可读存储介质
CN110648330B (zh) 摄像头玻璃的缺陷检测方法
CN110335233B (zh) 基于图像处理技术的高速公路护栏板缺陷检测系统和方法
CN108734131B (zh) 一种图像中的交通标志对称性检测方法
CN101742292B (zh) 基于图像内容信息的环路滤波方法和滤波器
CN108921813A (zh) 一种基于机器视觉的无人机检测桥梁结构裂缝识别方法
CN104036521A (zh) 一种新的视网膜眼底图像分割方法
CN114757913A (zh) 一种显示屏缺陷检测方法
CN117635609B (zh) 一种塑胶产品生产质量视觉检测方法
CN112785574B (zh) 一种基于改进YOLOv3的围巾花纹缺陷检测方法
CN110807763A (zh) 一种陶瓦表面鼓包检测方法及系统
CN112668725A (zh) 一种基于改进特征的金属洗手盆缺陷目标训练方法
CN114219773A (zh) 一种桥梁裂缝检测数据集预筛选与标定方法
CN115587966A (zh) 一种在光照不均匀条件下零件有无缺漏的检测方法及系统
CN115272664A (zh) 仪表盘示数展示方法、装置、电子设备和存储介质
CN114155226A (zh) 一种微小缺陷边缘计算方法
CN111161228B (zh) 一种基于迁移学习的纽扣表面缺陷检测方法
CN116824483A (zh) 基于排列组合最优解的木材最大价值锯切算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant