CN117132584B - 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 - Google Patents
一种基于深度学习的液晶显示屏瑕疵检测方法及装置 Download PDFInfo
- Publication number
- CN117132584B CN117132584B CN202311227287.7A CN202311227287A CN117132584B CN 117132584 B CN117132584 B CN 117132584B CN 202311227287 A CN202311227287 A CN 202311227287A CN 117132584 B CN117132584 B CN 117132584B
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- point
- map
- convolution layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000004973 liquid crystal related substance Substances 0.000 title claims abstract description 65
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 229
- 230000004927 fusion Effects 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000000746 purification Methods 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims description 118
- 230000006870 function Effects 0.000 claims description 82
- 238000011176 pooling Methods 0.000 claims description 64
- 230000004913 activation Effects 0.000 claims description 39
- 239000011159 matrix material Substances 0.000 claims description 33
- 230000007547 defect Effects 0.000 claims description 22
- 230000002950 deficient Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 9
- YREOLPGEVLLKMB-UHFFFAOYSA-N 3-methylpyridin-1-ium-2-amine bromide hydrate Chemical compound O.[Br-].Cc1ccc[nH+]c1N YREOLPGEVLLKMB-UHFFFAOYSA-N 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000013618 particulate matter Substances 0.000 claims 15
- 239000000284 extract Substances 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30121—CRT, LCD or plasma display
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习的液晶显示屏瑕疵检测方法及装置,涉及计算机视觉目标检测技术领域,通过设计轻量化特征提取网络,在保证液晶显示屏瑕疵特征提取能力的基础上减少计算量,提高模型的检测速度;设计跨层多尺度特征融合网络,高效的融合特征提取网络的浅层细粒度信息和深层语义信息;设计精细化预测网络,包括特征聚合器和特征提纯模块,特征聚合器融合了多层次的特征,提取更多上下文信息,增强细粒度特征的提取;特征提纯模块抑制了不同尺度特征图的冲突信息,减少语义差异,提高了模型对液晶显示屏瑕疵检测的准确率。
Description
技术领域
本发明涉及计算机视觉目标检测技术领域,具体涉及一种基于深度学习的液晶显示屏瑕疵检测方法及装置。
背景技术
近年来,随着电子产品设备的超高速迭代更新,智能设备对液晶显示屏的要求越来越高,液晶显示屏的瑕疵检测是影响屏幕质量的重要环节。然而,如果在加工生产前检查材料的瑕疵,在一定程度上可以避免这些问题的产生。
随着机器自动化的飞速发展,许多工业领域的任务正在被机器智能所替代,这显著提升了生产过程中产品的自动化水平。然而,机器视觉技术长期以来一直依赖于人工设计特征,这导致了在某些情况下鲁棒性不足的问题。近年来,随着深度学习技术的迅速崛起,出现了一系列新的目标检测方法,如以YOLO为代表的一阶段目标检测器和以Fast RCNN为代表的二阶段目标检测器。虽然这些计算机视觉目标检测器已经在工厂液晶显示屏瑕疵检测中得到应用,但同时也面临着一些挑战。例如液晶显示屏的瑕疵种类繁多,不同瑕疵之间差异明显,而且有些瑕疵可能不太显著。此外,液晶显示屏的尺寸和形状多种多样,传统的目标检测器往往难以有效地处理这些问题,因为它们难以融合浅层细节和深层语义信息,这些信息对于准确检测至关重要。在实际的工厂生产环境中,产品质量检验必须在规定的时间内完成,这增加了挑战的复杂性。因此,迫切需要一种方法,既能够实时地完成检测任务,又能够精确地识别液晶显示屏上的各种瑕疵。这将有助于提高产品质量控制的效率和准确性,从而满足现代工厂生产的需求。
发明内容
本发明为了克服以上技术的不足,提供了一种有效解决上述液晶显示屏瑕疵检测的困难,提高对液晶显示屏瑕疵检测的精度和速度,保障产品进入市场的质量和效率。
本发明克服其技术问题所采用的技术方案是:
一种基于深度学习的液晶显示屏瑕疵检测方法,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,...,Pi,...,PN},Pi为第i张液晶显示屏图像,i∈{1,2,...,N};
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PIi,增强后的液晶显示屏图像数据集为PI,PI={PI1,PI2,...,PIi,...,PIN};
c)将增强后的液晶显示屏图像数据集PI划分为训练集、测试集、验证集;
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PIi输入到轻量化特征提取网络中,输出得到特征图PI1;
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4;
f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度;
g)计算总损失LTotal;
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型。
进一步的,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像;
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6;
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600};
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PIi。
优选的,步骤c)中将增强后的液晶显示屏图像数据集PI按8:1:1的比例划分为训练集、测试集、验证集。
进一步的,步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成;
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PIi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PIi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa;
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb;
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc;
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1。
进一步的,步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成;
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图/>e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图/>e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图/>e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第七融合节点中,输出得到特征图PI2;
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3;
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4。
进一步的,步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成;f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成;
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图特征图/>通过Concat函数进行拼接操作,输出得到特征图f3;f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14;
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22;
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34;
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F;
f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′;
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
进一步的,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比;g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
一种基于深度学习的液晶显示屏瑕疵检测装置,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行上述的基于深度学习的液晶显示屏瑕疵检测方法。
本发明的有益效果是:通过设计轻量化特征提取网络,在保证液晶显示屏瑕疵特征提取能力的基础上减少计算量,提高模型的检测速度;设计跨层多尺度特征融合网络,高效的融合特征提取网络的浅层细粒度信息和深层语义信息;设计精细化预测网络,包括特征聚合器和特征提纯模块,特征聚合器融合了多层次的特征,提取更多上下文信息,增强细粒度特征的提取;特征提纯模块抑制了不同尺度特征图的冲突信息,减少语义差异,提高了模型对液晶显示屏瑕疵检测的准确率,具有较高的鲁棒性。
附图说明
图1为本发明的方法流程图;
图2为本发明的轻量化特征提取网络的结构图;
图3为本发明的轻量化特征提取网络中逐点卷积模块的结构图;
图4为本发明的轻量化特征提取网络中的注意力特征提取模块的结构图;
图5为本发明的跨层多尺度特征融合结构图;
图6为本发明的精细化预测网络中的特征聚合器的结构图;
图7为精细化预测网络中的特征提纯模块的结构图。
具体实施方式
下面结合附图1至附图7对本发明做进一步说明。
一种基于深度学习的液晶显示屏瑕疵检测方法,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,...,Pi,...,PN},Pi为第i张液晶显示屏图像,i∈{1,2,...,N}。
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PIi,增强后的液晶显示屏图像数据集为PI,PI={PI1,PI2,...,PIi,...,PIN}。
c)将增强后的液晶显示屏图像数据集PI划分为训练集、测试集、验证集。
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PIi输入到轻量化特征提取网络中,输出得到特征图PI1。
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4。f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度。
g)计算总损失LTotal。
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型。
可以有效解决上述液晶显示屏瑕疵检测的困难,提高对液晶显示屏瑕疵检测的精度和速度,保障产品进入市场的质量和效率。
在本发明的一个实施例中,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像。
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6。
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600}。
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,0代表生成的掩码,1代表保留原始图像,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PIi。
在本发明的一个实施例中,步骤c)中将增强后的液晶显示屏图像数据集PI可以使用剪裁操作得到尺寸大小为640×640调节后的图像数据集,可以将调节后的图像数据集按8:1:1的比例划分为训练集、测试集、验证集。
在本发明的一个实施例中,步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成。
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PIi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PIi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa。
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb。
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc。
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1。
在本发明的一个实施例中,步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成。
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图/>e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图/>e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图输入到第七融合节点中,输出得到特征图PI2。
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3。
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4。
在本发明的一个实施例中,步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成。f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成。
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f3。f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14。
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22。
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34。
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F。f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′。
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
在本发明的一个实施例中,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,/>
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比。
g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
本发明还涉及一种基于深度学习的液晶显示屏瑕疵检测装置,包括:至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行上述的基于深度学习的液晶显示屏瑕疵检测方法。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,…,Pi,…,PN},Pi为第i张液晶显示屏图像,i∈{1,2,…,N};
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PMi,增强后的液晶显示屏图像数据集为PM,PM={PM1,PM2,…,PMi,…,PMN};
c)将增强后的液晶显示屏图像数据集PM划分为训练集、测试集、验证集;
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PMi输入到轻量化特征提取网络中,输出得到特征图PI1;
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4;
f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度;
g)计算总损失LTotal;
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型;
步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成;
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PMi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PMi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa;
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb;
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc;
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1;
步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成;
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图
e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图
e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图
e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>
e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图/>e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>
e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第七融合节点中,输出得到特征图PI2;
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3;
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4;
步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成;f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成;
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图/>将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f3;f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14;
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22;
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34;
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F;f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′;
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
2.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像;
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6;
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600};
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PMi。
3.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于:步骤c)中将增强后的液晶显示屏图像数据集PM按8:1:1的比例划分为训练集、测试集、验证集。
4.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,/>为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比;
g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
5.一种基于深度学习的液晶显示屏瑕疵检测装置,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行如权利要求1至4中任意一项所述的基于深度学习的液晶显示屏瑕疵检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311227287.7A CN117132584B (zh) | 2023-09-22 | 2023-09-22 | 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311227287.7A CN117132584B (zh) | 2023-09-22 | 2023-09-22 | 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117132584A CN117132584A (zh) | 2023-11-28 |
CN117132584B true CN117132584B (zh) | 2024-02-13 |
Family
ID=88860111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311227287.7A Active CN117132584B (zh) | 2023-09-22 | 2023-09-22 | 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117132584B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118154603B (zh) * | 2024-05-11 | 2024-07-23 | 山东省计算中心(国家超级计算济南中心) | 基于级联多层特征融合网络的显示屏缺陷检测方法及系统 |
CN118570212B (zh) * | 2024-08-05 | 2024-10-18 | 山东省计算中心(国家超级计算济南中心) | 一种基于强化特征提取网络的显示屏缺陷检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111077166A (zh) * | 2018-10-19 | 2020-04-28 | 北京金山云网络技术有限公司 | 液晶屏的瑕疵检测方法、装置及终端设备 |
WO2021082919A1 (zh) * | 2019-10-28 | 2021-05-06 | 上海悦易网络信息技术有限公司 | 一种电子设备屏幕区域瑕疵检测方法与设备 |
CN115170529A (zh) * | 2022-07-20 | 2022-10-11 | 西安电子科技大学广州研究院 | 基于注意力机制的多尺度微小瑕疵检测方法 |
CN115661777A (zh) * | 2022-11-03 | 2023-01-31 | 西安邮电大学 | 一种联合语义的雾天道路目标检测算法 |
-
2023
- 2023-09-22 CN CN202311227287.7A patent/CN117132584B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111077166A (zh) * | 2018-10-19 | 2020-04-28 | 北京金山云网络技术有限公司 | 液晶屏的瑕疵检测方法、装置及终端设备 |
WO2021082919A1 (zh) * | 2019-10-28 | 2021-05-06 | 上海悦易网络信息技术有限公司 | 一种电子设备屏幕区域瑕疵检测方法与设备 |
CN115170529A (zh) * | 2022-07-20 | 2022-10-11 | 西安电子科技大学广州研究院 | 基于注意力机制的多尺度微小瑕疵检测方法 |
CN115661777A (zh) * | 2022-11-03 | 2023-01-31 | 西安邮电大学 | 一种联合语义的雾天道路目标检测算法 |
Non-Patent Citations (4)
Title |
---|
A Lightweight Multiscale Feature Fusion Network for Remote Sensing Object Counting;J. Yi;IEEE Transactions on Geoscience and Remote Sensing;20230119;全文 * |
基于CCD的手机液晶屏缺陷检测方法;闫俊红;禹昕晖;李忠虎;;包头职业技术学院学报(01);全文 * |
基于改进Faster R-CNN算法的屏幕表面瑕疵检测系统的设计与实现;罗清雨;中国优秀硕士学位论文全文数据库 信息科技;全文 * |
多尺度特征自适应融合的轻量化织物瑕疵检测;杨毅;计算工程;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117132584A (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117132584B (zh) | 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 | |
CN109683360B (zh) | 液晶面板缺陷检测方法及装置 | |
CN112102255B (zh) | 基于工业场景下的x射线成像图像的缺陷智能评级方法 | |
CN111932511B (zh) | 一种基于深度学习的电子元器件质量检测方法与系统 | |
CN113393438B (zh) | 一种基于卷积神经网络的树脂镜片缺陷检测方法 | |
CN114372968A (zh) | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 | |
CN116630323B (zh) | 一种稠密金属腐蚀深度自动计算方法、系统、介质和设备 | |
CN116128839A (zh) | 晶圆缺陷识别方法、装置、电子设备以及存储介质 | |
CN113313678A (zh) | 一种基于多尺度特征融合的精子形态学自动分析方法 | |
CN113962980A (zh) | 基于改进yolov5x的玻璃容器瑕疵检测方法及系统 | |
CN111754502A (zh) | 基于多尺度特征融合的Faster-RCNN算法检测磁芯表面缺陷的方法 | |
CN116739991A (zh) | 基于深度学习的液晶显示屏表面缺陷检测方法及电子装置 | |
CN114494250A (zh) | 基于神经网络模型的地板缺陷检测方法 | |
Bahreini et al. | Dynamic graph CNN based semantic segmentation of concrete defects and as-inspected modeling | |
CN116805387B (zh) | 基于知识蒸馏的模型训练方法、质检方法和相关设备 | |
CN117197146A (zh) | 一种铸件内部缺陷自动识别方法 | |
CN117853778A (zh) | 一种基于改进的htc铸件dr图像缺陷识别方法 | |
CN113065556A (zh) | 一种数字式仪表定位和数字识别方法、装置和计算机设备 | |
CN117593244A (zh) | 一种基于改进注意力机制的膜产品缺陷检测方法 | |
CN117132540A (zh) | 一种基于分割模型的pcb电路板缺陷后处理方法 | |
CN114419078B (zh) | 基于卷积神经网络的表面缺陷区域分割方法及装置 | |
CN116824122A (zh) | 基于深度学习的led芯片定位方法及led芯片定位装置 | |
CN116228637A (zh) | 基于多任务多尺寸网络的电子元器件缺陷识别方法及装置 | |
CN113469984B (zh) | 一种基于yolo结构的显示面板外观检测方法 | |
CN111738324B (zh) | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |