CN112884732A - 一种基于图网络注意力机制的无监督缺陷提取方法及装置 - Google Patents

一种基于图网络注意力机制的无监督缺陷提取方法及装置 Download PDF

Info

Publication number
CN112884732A
CN112884732A CN202110177165.6A CN202110177165A CN112884732A CN 112884732 A CN112884732 A CN 112884732A CN 202110177165 A CN202110177165 A CN 202110177165A CN 112884732 A CN112884732 A CN 112884732A
Authority
CN
China
Prior art keywords
picture
detected
key
matching
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110177165.6A
Other languages
English (en)
Other versions
CN112884732B (zh
Inventor
王洪元
欣子豪
殷雨昌
徐志晨
吴琳钰
刘乾
张继
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN202110177165.6A priority Critical patent/CN112884732B/zh
Publication of CN112884732A publication Critical patent/CN112884732A/zh
Application granted granted Critical
Publication of CN112884732B publication Critical patent/CN112884732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图网络注意力机制的缺陷提取方法及装置,通过将两张图片进行关键点提取,得到的关键点在编码后输入至图网络,在图网络中使用多次自注意力方法和跨越注意力算法后,得到两张匹配描述符矩阵,之后将两个匹配描述符矩阵内积得到匹配得分矩阵,之后对匹配得分矩阵进行阈值筛选,得到最终的匹配点。将匹配后的两张图片做残差,差异较大的则为缺陷。与传统的缺陷提取方法相比,该方法只需要一张无缺陷的样品图片作为标准图片,不需要花费大量人力进行数据标注。

Description

一种基于图网络注意力机制的无监督缺陷提取方法及装置
技术领域
本发明涉及图像处理和深度学习技术领域,具体涉及一种基于图网络注意力机制的无监督缺陷提取方法,还涉及一种基于图网络注意力机制的无监督缺陷提取装置。
背景技术
产品表面的缺陷检测和提取是目前工业界急需解决的问题之一,目前常用的缺陷检测主要分为两种,一种通过常规的图像处理的方法,虽然处理速度较快,但是需要所有图片以相同的角度和位置拍摄,对于产线设备的精度要求过高,并且大量的参数需要人手工进行调试;另一种是通过深度学习下目标检测等方法,虽然能够以较强的鲁棒性对产品的缺陷进行检测,但是需要耗费大量人力物力对数据进行筛选和标注,且需要耗费大量时间。另外,传统深度学习方法网络层数较深,网络参数过多,由于硬件的限制,对图片尺寸的要求较为严格,需要将高分辨率图片裁剪成许多小图片进行检测。
发明内容
本发明的目的在于克服现有技术中的不足,提出了一种基于图网络注意力机制的无监督缺陷提取方法,来提高无监督视频行人重识别方法的识别精度。
为解决上述技术问题,本发明提供了一种基于图网络注意力机制的无监督缺陷提取方法,包括:
分别提取标准图片和待检测图片中的关键点,获得对应的关键点向量和对应的描述符向量;
分别对标准图片和待检测图片的关键点向量进行编码处理;
分别对标准图片和待检测图片对应的所有关键点向量与归一化后的描述符向量进行向量拼接叠加,获得对应的描述符张量;
将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵;
基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,所述匹配得分矩阵中的元素表示标准图片与待检测图片的关键点之间的匹配得分;
基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点;调整待检测图片直至待检测图片与标准图片中匹配的关键点匹配点重合;
计算待检测图片与标准图片之间的灰度值差,将待检测图片上灰度值差异较大处对应的区域视为缺陷。
可选的,所述编码处理采用多层一维卷积网络进行编码。
可选的,所述编码处理的过程为:
以标准图片关键点kA,i为例,实现步骤为:
Figure BDA0002941034560000021
其中,k′A,i为更新过后的关键点向量,kA,i为原关键点向量,kA,i,j表示向量kA,i的第j个元素,其中i为标准图片关键点序号,n为关键点总个数;wA和bA为一维卷积网络需要学习的参数,wA,j的下标j表示向量wA中的第j个元素。
可选的,所述图网络包括级联的自注意力图网络和跨越注意力图网络。
可选的,所述将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵,包括:
1)将标准图片和待检测图片对应的描述符张量xA和xB作为输入放入自注意力图网络中,自注意力图网络是分别对待检测和标准图片内关键点相互比较,选出各自图片内差异明显的关键点,输出匹配描述矩阵
Figure BDA0002941034560000031
和匹配描述矩阵
Figure BDA0002941034560000032
首先计算图网络的特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),其中下标A表示标准图片对应的特征三元组,下标B表示待检测图片对应的特征三元组;
自注意力图网络中特征三元组计算公式为:
Figure BDA0002941034560000033
其中,xi为输入的xA和xB张量,下标i为张量中的元素序号,上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置bquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),输出匹配描述矩阵
Figure BDA0002941034560000034
和匹配描述矩阵
Figure BDA0002941034560000035
匹配描述矩阵的计算公式为:
Figure BDA0002941034560000036
其中,keyT为向量key的转置,d为向量query的维度;
2)将自注意力图网络输出的匹配描述矩阵
Figure BDA0002941034560000037
和匹配描述矩阵
Figure BDA0002941034560000038
输入跨越注意力图网络中,跨越注意力图网络是对待检测和标准图片内关键点相互比较,选出两个图片内差异明显的关键点,输出匹配描述矩阵
Figure BDA0002941034560000041
和匹配描述矩阵
Figure BDA0002941034560000042
首先基于匹配描述矩阵
Figure BDA0002941034560000043
Figure BDA0002941034560000044
计算图网络的特征三元组(queryA,keyB,valueB)和(queryB,keyA,valueA),
跨越注意力图网络中特征三元组计算公式为:
Figure BDA0002941034560000045
其中,xi、xj分别为输入的匹配描述矩阵
Figure BDA0002941034560000046
Figure BDA0002941034560000047
下标i、j为向量中的元素序号,上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置dquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于输入的特征三元组(queryA,keyB,valueB)和(queryB,keyA,valueA),输出匹配描述矩阵
Figure BDA0002941034560000048
和匹配描述矩阵
Figure BDA0002941034560000049
匹配描述矩阵的计算公式为:
Figure BDA00029410345600000410
其中,keyT为向量key的转置,d为向量query的维度;
3)跨越注意力图网络的输出再次作为下一层的自注意力网络输入,一直迭代循环,直至达到迭代次数,最终输出匹配描述矩阵ZA和ZB
可选的,所述基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,包括:
分别对标准图片和待检测图片对应的匹配描述矩阵进行编码,获得对应的得分矩阵;
然后对标准图片和待检测图片对应的得分矩阵进行内积,得到匹配得分矩阵。
可选的,所述基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点,包括:
若匹配得分矩阵中某匹配得分大于阈值,则判断标准图片的关键点与待检测图片的关键点成功匹配。
可选的,所述选取标准图片和待检测图片中匹配成功的关键点后,还包括:
若标准图片和待检测图片中匹配成功的关键点少于设定的个数,则将待检测图片视为缺陷图片。
相应的,本发明还提供了一种基于图网络注意力机制的无监督缺陷提取装置,包括:
关键点提取模块,用于分别提取标准图片和待检测图片中的关键点,获得对应的关键点向量和对应的描述符向量;
编码处理模块,用于分别对标准图片和待检测图片的关键点向量进行编码处理;
描述符张量获取模块,用于分别对标准图片和待检测图片对应的所有关键点向量与归一化后的描述符向量进行向量拼接叠加,获得对应的描述符张量;
图网络处理模块,用于将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵;
匹配得分计算模块,用于基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,所述匹配得分矩阵中的元素表示标准图片与待检测图片的关键点之间的匹配得分;
匹配点获取模块,基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点;调整待检测图片直至待检测图片与标准图片中匹配的关键点匹配点重合;
缺陷区域获取模块,用于计算待检测图片与标准图片之间的灰度值差,将待检测图片上灰度值差异较大处对应的区域视为缺陷。
与现有技术相比,本发明所达到的有益效果是:本发明基于图网络的自注意力模型和跨越注意力模型,可以在一张无缺陷样本图片的情况下,对缺陷样本进行缺陷部分的提取,本发明能够以无监督的方式,快速对高分辨率图片进行缺陷检测,在没有人工标注的情况下对缺陷进行精准提取。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有描述中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动力的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法的流程图;
图2为本发明方法的整体框架图;
图3为本发明方法中图网络框架图;
图4为本发明方法中图网络迭代计算框架图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
无监督的缺陷提取方法的最大优势在于不需要任何数据集的标注,不仅能够节约大量时间,还能够为企业节约大量的人力物力。工业产品的缺陷检测需要具有很好的实时性,基于图网络注意力机制的无监督缺陷提取算法,相较于目标检测的深度网络,能够以更快的速度来提取缺陷。并且网络中参数相较于目标检测的深度网络更少,对于图片尺寸的要求更为宽松,在相同硬件的情况下,可以在不对图片进行剪裁的情况下进行缺陷提取。
本发明的发明构思为:常规的卷积神经网络无法直接处理图片关键点的描述符向量,所以借助图网络的注意力机制来进行图片匹配以及缺陷的提取。本发明采用了图网络中自注意力机制以及跨越注意力机制,其中自注意力机制单独应用在一张图片上,目的是选取鲁棒性好的关键点作匹配;跨越注意力机制同时作用于两张图片,两张图片交换描述符向量进行迭代,寻找两张图片中相似的关键点。两张图片经过自注意力图网络和跨越注意力图网络的多次迭代,会输出鲁棒性更好的描述符向量,通过对描述符向量的内积运算,可以得到匹配的得分矩阵,对得分矩阵进行阈值处理后完成两张图片的匹配,进行灰度校正后对两张图片作残差,差异较大部分则为缺陷部分。
本发明的一种基于图网络注意力机制的无监督缺陷提取方法,如图1和图2所示,包括以下过程:
步骤1,将一张无缺陷图片作为标准图片,记为IA,通过关键点提取算法(如SIFT、ORB等),得到标准图片的关键点向量和对应的描述符向量,标准图片的关键点向量记为kA,i,描述符向量记为dA,i,其中i为关键点序号;
步骤2,将待检测图片记为IB,通过相同的关键点提取算法得到待检测图片的关键点向量和对应的描述符向量,待检测图片的关键点向量记为kB,i,描述符向量记为dB,i,其中i为关键点序号;
步骤3,对获取的标准图片的关键点向量kA,i和待检测图片的关键点向量kB,i,通过多层一维卷积网络进行编码,获得更新后的关键点向量,编码是为了将低维的关键点映射到更高维度,一般最终维度设为256;
多层一维卷积编码,以标准图片关键点kA,i为例,实现步骤为:
Figure BDA0002941034560000081
其中,k′A,i为更新过后的关键点向量,kA,i为原关键点向量,kA,i,j表示向量kA,i的第j个元素,其中i为标准图片关键点序号,n为关键点总个数;wA和bA为一维卷积网络需要学习的参数,wA,j的下标j表示向量wA中的第j个元素。
待检测图片关键点的编码步骤与上述相同,并且使用与标准图片相同的卷积网络参数;
步骤4,对得到的标准图片的描述符向量dA,i和待检测图片的描述符向量dB,i同时进行归一化处理,通过归一化处理能够减少后续步骤的计算量,将编码后的所有关键点向量k′A,i和k′B,i分别与归一化后的描述符向量dA,i和dB,i进行向量拼接叠加,记为新的描述符张量xA和xB,通过拼接叠加操作能够使后续图网络能够同时对关键点以及描述符张量进行推理;
步骤5,将步骤4得到新的描述符张量xA和xB作为输入放入图网络中,输出匹配描述矩阵ZA和匹配描述矩阵ZB。通过图网络的注意力机制,选取出待检测和标准图片中差异较大的关键点特征,获得更为鲁棒的匹配描述矩阵。
如图3和图4所示,具体包括以下过程:
1)将步骤4得到新的描述符张量xA和xB作为输入放入自注意力图网络中,自注意力网络的输出为匹配描述矩阵
Figure BDA0002941034560000082
和匹配描述矩阵
Figure BDA0002941034560000083
自注意力图网络是分别对待检测和标准图片内关键点相互比较,选出各自图片内差异明显的关键点。
首先基于步骤4得到的xA和xB,计算图网络的特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),其中下标A表示标准图片对应的特征三元组,下标B表示待检测图片对应的特征三元组。目的是将当前数据转化为图网络注意力机制的输入形式。
自注意力图网络中特征三元组计算公式为:
Figure BDA0002941034560000091
其中,xi为输入的xA和xB张量,下标i为张量中的元素序号(即关键点序号),上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置bquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),输出匹配描述矩阵
Figure BDA0002941034560000092
和匹配描述矩阵
Figure BDA0002941034560000093
匹配描述矩阵的计算公式为:
Figure BDA0002941034560000094
其中,keyT为向量key的转置,d为向量query的维度。
2)将自注意力图网络输出的匹配描述矩阵
Figure BDA0002941034560000095
和匹配描述矩阵
Figure BDA0002941034560000096
输入跨越注意力图网络中,跨越注意力图网络的输出为匹配描述矩阵
Figure BDA0002941034560000097
和匹配描述矩阵
Figure BDA0002941034560000098
跨越注意力图网络是对待检测和标准图片内关键点相互比较,选出两个图片内差异明显的关键点。
首先基于匹配描述矩阵
Figure BDA0002941034560000101
Figure BDA0002941034560000102
计算图网络的特征三元组(queryA,keyB,valueB)和(queryB,keyA,valueA),目的是将当前数据转化为图网络注意力机制的输入形式。
跨越注意力图网络中特征三元组计算公式为:
Figure BDA0002941034560000103
其中,xi、xj分别为输入的匹配描述矩阵
Figure BDA0002941034560000104
Figure BDA0002941034560000105
下标i、j为向量中的元素序号,上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置bquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于输入的特征三元组(queryA,keyB,valueB)和(queryB,keyA,valueA),输出匹配描述矩阵
Figure BDA0002941034560000106
和匹配描述矩阵
Figure BDA0002941034560000107
匹配描述矩阵的计算公式为:
Figure BDA0002941034560000108
其中,keyT为向量key的转置,d为向量query的维度。
3)跨越注意力图网络的输出再次作为下一层的自注意力网络输入,一直迭代循环,直至达到迭代次数,最终输出匹配描述矩阵ZA和ZB
自注意力图网络和跨越注意力网络之间循环多次以增强结果的鲁棒性,循环次数由图片复杂度决定,对于复杂图片可以适当增加循环次数,正常情况下循环次数设定为十次(自注意力网络和跨越注意力网络各循环五次)。
步骤6,经过多次步骤5中介绍的自注意力和跨越注意力方法处理后的输出为匹配描述矩阵ZA和ZB,每一个关键点对应矩阵中一个匹配描述符向量,将两个匹配描述矩阵ZA和ZB分别进行一维卷积编码(一维卷积编码的公式与步骤三中的一维卷积编码相同),通过编码最后可以获得置信度更高的得分矩阵ZA和ZB。之后将两个矩阵进行内积,得到匹配得分矩阵,匹配得分矩阵中的元素表示标准图片的关键点与待检测图片的关键点之间的匹配得分。匹配得分越高,说明关键点之间的差异越小。
匹配得分矩阵的计算公式为:
Scores=conv(ZA)·conv(ZB)
若标准图片中有a个关键点,待检测图片中有b个关键点,每个关键点对应的描述符向量为d维,此时ZA维度为a×d,ZB维度为b×d,匹配得分矩阵维度为a×b。
步骤7,设定一个阈值,阈值可以根据实际对精准率和召回率的需求进行设定,一般阈值设为0.7,若匹配得分矩阵中某匹配得分大于阈值,则判断标准图片的关键点与待检测图片的关键点成功匹配,如果成功匹配点少于五个则直接将待检测图片视为缺陷图片(即认为整个待检测图片都是缺陷);如果成功匹配点大于等于五个,则进行步骤8处理。
步骤8,根据标准图片和待检测图片的匹配点的相对坐标(可以计算出标准图片与待检测图片之间的位移、旋转等形变参数),对待检测图片进行平移、旋转等处理直至标准图片和待检测图片对应匹配点重合(即修正待测试图片由于拍摄时位置偏移带来的误差),之后对待检测和标准两张图片求灰度值差,将待检测图片上对应灰度值差异较大处的区域视为缺陷,一般情况下差异值相差15个灰度以上视为差异较大。
本发明基于图网络的自注意力模型和跨越注意力模型,可以在一张无缺陷样本图片的情况下,对缺陷样本进行缺陷部分的提取,本发明能够以无监督的方式,快速对高分辨率图片进行缺陷检测,在没有人工标注的情况下对缺陷进行精准提取。
实施例2
相应的,本发明的一种基于图网络注意力机制的无监督缺陷提取装置,包括:
关键点提取模块,用于分别提取标准图片和待检测图片中的关键点,获得对应的关键点向量和对应的描述符向量;
编码处理模块,用于分别对标准图片和待检测图片的关键点向量进行编码处理;
描述符张量获取模块,用于分别对标准图片和待检测图片对应的所有关键点向量与归一化后的描述符向量进行向量拼接叠加,获得对应的描述符张量;
图网络处理模块,用于将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵;
匹配得分计算模块,用于基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,所述匹配得分矩阵中的元素表示标准图片与待检测图片的关键点之间的匹配得分;
匹配点获取模块,基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点;调整待检测图片直至待检测图片与标准图片中匹配的关键点匹配点重合;
缺陷区域获取模块,用于计算待检测图片与标准图片之间的灰度值差,将待检测图片上灰度值差异较大处对应的区域视为缺陷。
本发明装置的各个模块的具体实现方案参见上述实施例1中方法的具体实现过程。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。

Claims (9)

1.一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,包括:
分别提取标准图片和待检测图片中的关键点,获得对应的关键点向量和对应的描述符向量;
分别对标准图片和待检测图片的关键点向量进行编码处理;
分别对标准图片和待检测图片对应的所有关键点向量与归一化后的描述符向量进行向量拼接叠加,获得对应的描述符张量;
将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵;
基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,所述匹配得分矩阵中的元素表示标准图片与待检测图片的关键点之间的匹配得分;
基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点;调整待检测图片直至待检测图片与标准图片中匹配的关键点匹配点重合;
计算待检测图片与标准图片之间的灰度值差,将待检测图片上灰度值差异较大处对应的区域视为缺陷。
2.根据权利要求1所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述编码处理采用多层一维卷积网络进行编码。
3.根据权利要求2所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述编码处理的过程为:
以标准图片关键点kA,i为例,实现步骤为:
Figure FDA0002941034550000021
其中,k′A,i为更新过后的关键点向量,kA,i为原关键点向量,kA,i,j表示向量kA,i的第j个元素,其中i为标准图片关键点序号,n为关键点总个数;wA和bA为一维卷积网络需要学习的参数,wA,j的下标j表示向量wA中的第j个元素。
4.根据权利要求1所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述图网络包括级联的自注意力图网络和跨越注意力图网络。
5.根据权利要求4所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵,包括:
1)将标准图片和待检测图片对应的描述符张量xA和xB作为输入放入自注意力图网络中,自注意力图网络是分别对待检测和标准图片内关键点相互比较,选出各自图片内差异明显的关键点,输出匹配描述矩阵
Figure FDA0002941034550000022
和匹配描述矩阵
Figure FDA0002941034550000023
首先计算图网络的特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),其中下标A表示标准图片对应的特征三元组,下标B表示待检测图片对应的特征三元组;
自注意力图网络中特征三元组计算公式为:
Figure FDA0002941034550000024
其中,xi为输入的xA和xB张量,下标i为张量中的元素序号,上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置bquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于特征三元组(queryA,keyA,valueA)和(queryB,keyB,valueB),输出匹配描述矩阵
Figure FDA0002941034550000031
阳匹配描述矩阵
Figure FDA0002941034550000032
匹配描述矩阵的计算公式为:
Figure FDA0002941034550000033
其中,keyT为向量key的转置,d为向量query的维度;
2)将自注意力图网络输出的匹配描述矩阵
Figure FDA0002941034550000034
阳匹配描述矩阵
Figure FDA0002941034550000035
输入跨越注意力图网络中,跨越注意力图网络是对待检测和标准图片内关键点相互比较,选出两个图片内差异明显的关键点,输出匹配描述矩阵
Figure FDA0002941034550000036
阳匹配描述矩阵
Figure FDA0002941034550000037
首先基于匹配描述矩阵
Figure FDA0002941034550000038
Figure FDA0002941034550000039
计算图网络的特征三元组(queryA,keyB,valueB)和(queryB,keyA,valueA),
跨越注意力图网络中特征三元组计算公式为:
Figure FDA00029410345500000310
其中,xi、xj分别为输入的匹配描述矩阵
Figure FDA00029410345500000311
Figure FDA00029410345500000312
下标i、j为向量中的元素序号,上标(k)为当前图网络迭代次数,权重矩阵Wquery,Wkey,Wvalue及偏置bquery,bkey,bvalue为神经网络需要学习的参数,经过训练得到特征三元组(query,key,value);
图网络注意力机制,基于输入的特征三元组(queryA,keys,valueB)和(queryB,keyA,valueA),输出匹配描述矩阵
Figure FDA00029410345500000313
和匹配描述矩阵
Figure FDA00029410345500000314
匹配描述矩阵的计算公式为:
Figure FDA0002941034550000041
其中,keyT为向量key的转置,d为向量query的维度;
3)跨越注意力图网络的输出再次作为下一层的自注意力网络输入,一直迭代循环,直至达到迭代次数,最终输出匹配描述矩阵ZA和ZB
6.根据权利要求1所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,包括:
分别对标准图片和待检测图片对应的匹配描述矩阵进行编码,获得对应的得分矩阵;
然后对标准图片和待检测图片对应的得分矩阵进行内积,得到匹配得分矩阵。
7.根据权利要求1所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点,包括:
若匹配得分矩阵中某匹配得分大于阈值,则判断标准图片的关键点与待检测图片的关键点成功匹配。
8.根据权利要求1所述的一种基于图网络注意力机制的无监督缺陷提取方法,其特征是,所述选取标准图片和待检测图片中匹配成功的关键点后,还包括:
若标准图片和待检测图片中匹配成功的关键点少于设定的个数,则将待检测图片视为缺陷图片。
9.一种基于图网络注意力机制的无监督缺陷提取装置,其特征是,包括:
关键点提取模块,用于分别提取标准图片和待检测图片中的关键点,获得对应的关键点向量和对应的描述符向量;
编码处理模块,用于分别对标准图片和待检测图片的关键点向量进行编码处理;
描述符张量获取模块,用于分别对标准图片和待检测图片对应的所有关键点向量与归一化后的描述符向量进行向量拼接叠加,获得对应的描述符张量;
图网络处理模块,用于将标准图片和待检测图片对应的描述符张量输入图网络,获得图网络输出的与标准图片和待检测图片对应的匹配描述矩阵;
匹配得分计算模块,用于基于标准图片和待检测图片对应的匹配描述矩阵,计算得到匹配得分矩阵,所述匹配得分矩阵中的元素表示标准图片与待检测图片的关键点之间的匹配得分;
匹配点获取模块,基于匹配得分矩阵选取标准图片和待检测图片中匹配成功的关键点;调整待检测图片直至待检测图片与标准图片中匹配的关键点匹配点重合;
缺陷区域获取模块,用于计算待检测图片与标准图片之间的灰度值差,将待检测图片上灰度值差异较大处对应的区域视为缺陷。
CN202110177165.6A 2021-02-07 2021-02-07 一种基于图网络注意力机制的无监督缺陷提取方法及装置 Active CN112884732B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110177165.6A CN112884732B (zh) 2021-02-07 2021-02-07 一种基于图网络注意力机制的无监督缺陷提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110177165.6A CN112884732B (zh) 2021-02-07 2021-02-07 一种基于图网络注意力机制的无监督缺陷提取方法及装置

Publications (2)

Publication Number Publication Date
CN112884732A true CN112884732A (zh) 2021-06-01
CN112884732B CN112884732B (zh) 2023-09-26

Family

ID=76057537

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110177165.6A Active CN112884732B (zh) 2021-02-07 2021-02-07 一种基于图网络注意力机制的无监督缺陷提取方法及装置

Country Status (1)

Country Link
CN (1) CN112884732B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008639A (zh) * 2019-10-17 2020-04-14 安徽清新互联信息科技有限公司 一种基于注意力机制的车牌字符识别方法
CN111931859A (zh) * 2020-08-28 2020-11-13 中国科学院深圳先进技术研究院 一种多标签图像识别方法和装置
CN112070750A (zh) * 2020-09-10 2020-12-11 深兰人工智能芯片研究院(江苏)有限公司 皮革制品缺陷检测方法和装置
CN112070749A (zh) * 2020-09-10 2020-12-11 深兰人工智能芯片研究院(江苏)有限公司 纸张缺陷检测方法和装置
CN112132059A (zh) * 2020-09-25 2020-12-25 中南民族大学 一种基于深度条件随机场的行人重识别方法和系统
CN112288079A (zh) * 2020-11-17 2021-01-29 北京轩宇信息技术有限公司 图神经网络模型训练方法、软件缺陷检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008639A (zh) * 2019-10-17 2020-04-14 安徽清新互联信息科技有限公司 一种基于注意力机制的车牌字符识别方法
CN111931859A (zh) * 2020-08-28 2020-11-13 中国科学院深圳先进技术研究院 一种多标签图像识别方法和装置
CN112070750A (zh) * 2020-09-10 2020-12-11 深兰人工智能芯片研究院(江苏)有限公司 皮革制品缺陷检测方法和装置
CN112070749A (zh) * 2020-09-10 2020-12-11 深兰人工智能芯片研究院(江苏)有限公司 纸张缺陷检测方法和装置
CN112132059A (zh) * 2020-09-25 2020-12-25 中南民族大学 一种基于深度条件随机场的行人重识别方法和系统
CN112288079A (zh) * 2020-11-17 2021-01-29 北京轩宇信息技术有限公司 图神经网络模型训练方法、软件缺陷检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
徐镪;朱洪锦;范洪辉;周红燕;余光辉;: "改进的YOLOv3网络在钢板表面缺陷检测研究", 计算机工程与应用, no. 16 *
陈龙;侯普华;王进;朱文博;: "轴承表面缺陷类型识别算法", 计算机应用研究, no. 05 *

Also Published As

Publication number Publication date
CN112884732B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
CN113705588B (zh) 基于卷积自注意力模块的孪生网络目标跟踪方法与系统
CN108388896B (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN106599830B (zh) 人脸关键点定位方法及装置
CN109840556B (zh) 一种基于孪生网络的图像分类识别方法
CN105740899B (zh) 一种机器视觉图像特征点检测与匹配复合的优化方法
WO2022236876A1 (zh) 一种玻璃纸缺陷识别方法、系统、装置及存储介质
CN112446363A (zh) 一种基于视频抽帧的图像拼接与去重方法及装置
CN113378976B (zh) 一种基于特征顶点组合的目标检测方法、可读存储介质
JP6997369B2 (ja) プログラム、測距方法、及び測距装置
CN112149590A (zh) 一种手部关键点检测方法
CN112215079B (zh) 一种全局多阶段目标跟踪方法
CN111680705A (zh) 适于目标检测的mb-ssd方法和mb-ssd特征提取网络
CN114419406A (zh) 图像变化检测方法、训练方法、装置和计算机设备
CN115439694A (zh) 一种基于深度学习的高精度点云补全方法及装置
CN112364974A (zh) 一种基于激活函数改进的YOLOv3算法
CN115797808A (zh) 一种无人机巡检缺陷图像的识别方法、系统、装置及介质
CN115147418A (zh) 缺陷检测模型的压缩训练方法和装置
CN111209940A (zh) 一种基于特征点匹配的图像去重方法和装置
CN107578445B (zh) 基于卷积特征谱的图像可判别区域提取方法
CN112884732B (zh) 一种基于图网络注意力机制的无监督缺陷提取方法及装置
CN115937150A (zh) 基于点结构化信息网络的点云质量计算方法
CN112801013B (zh) 一种基于关键点识别校验的人脸识别方法、系统及装置
CN111931767B (zh) 一种基于图片信息度的多模型目标检测方法、装置、系统及存储介质
CN114782322A (zh) YOLOv5模型的电弧增材制造熔池缺陷检测方法
CN110705479A (zh) 模型训练方法和目标识别方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant