CN107833210B - 一种基于神经网络的外观检测方法和系统 - Google Patents

一种基于神经网络的外观检测方法和系统 Download PDF

Info

Publication number
CN107833210B
CN107833210B CN201711041424.2A CN201711041424A CN107833210B CN 107833210 B CN107833210 B CN 107833210B CN 201711041424 A CN201711041424 A CN 201711041424A CN 107833210 B CN107833210 B CN 107833210B
Authority
CN
China
Prior art keywords
detected
multilayer perceptron
standard
training
perceptron model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711041424.2A
Other languages
English (en)
Other versions
CN107833210A (zh
Inventor
李伯仲
翟发旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JUNJIE MACHINERY (SHENZHEN) CO Ltd
Original Assignee
JUNJIE MACHINERY (SHENZHEN) CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JUNJIE MACHINERY (SHENZHEN) CO Ltd filed Critical JUNJIE MACHINERY (SHENZHEN) CO Ltd
Priority to CN201711041424.2A priority Critical patent/CN107833210B/zh
Publication of CN107833210A publication Critical patent/CN107833210A/zh
Application granted granted Critical
Publication of CN107833210B publication Critical patent/CN107833210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于神经网络的外观检测方法和系统。该方法包括:获取待测目标对象的外观图像;确定外观图像中待测目标区域;根据待测目标区域提取待测目标对象的特征向量;将特征向量作为多层感知器模型的输入,并根据多层感知器模型的输出确定待测目标对象的外观形态类型,其中,多层感知器模型根据预设样本预先训练得到。从而不再依赖于阈值判定,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。

Description

一种基于神经网络的外观检测方法和系统
技术领域
本发明实施例涉及机器视觉领域,尤其涉及一种基于神经网络的外观检测方法和系统。
背景技术
随着科技的快速发展,机器视觉作为人工智能的一个分支越来越受到人们的关注。
目前,我国在机器视觉领域的外观检测方面,通常是利用二值化、快速傅里叶变换等方法提取外观图像的特征信息,然后设定外观图像判定中的阈值,从而确定外观图像的形态类型。
然而,这些传统的外观检测方法存在着诸多的缺点,例如,由于对外观图像判定的单一性,使得外观检测的准确率不高,并且无法应对外观缺陷的多样性,容错性较差,同时也大大限制了机器视觉的应用范围,以及阻碍了智能制造的发展。
发明内容
本发明提供一种基于神经网络的外观检测方法和系统,以提高外观检测的准确率,增强容错性,扩大机器视觉的应用范围以及促进智能制造的发展。
第一方面,本发明实施例提供了一种基于神经网络的外观检测方法,包括:
获取待测目标对象的外观图像;
确定所述外观图像中待测目标区域;
根据所述待测目标区域提取所述待测目标对象的特征向量;
将所述特征向量作为多层感知器模型的输入,并根据所述多层感知器模型的输出确定所述待测目标对象的外观形态类型,其中,所述多层感知器模型根据预设样本预先训练得到。
第二方面,本发明实施例还提供了一种基于神经网络的外观检测系统,包括:
外观图像获取模块,用于获取待测目标对象的外观图像;
待测区域确定模块,用于确定所述外观图像中待测目标区域;
特征向量提取模块,用于根据所述待测目标区域提取所述待测目标对象的特征向量;
形态类型确定模块,用于将所述特征向量作为多层感知器模型的输入,并根据所述多层感知器模型的输出确定所述待测目标对象的外观形态类型,其中,所述多层感知器模型根据预设样本预先训练得到。
本发明通过利用多层感知器模型,将提取的待测目标对象的特征向量作为多层感知器模型的输入,根据多层感知器模型的输出确定待测目标对象的外观形态类型,从而不再依赖于阈值判定,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。
附图说明
图1是本发明实施例一提供的一种基于神经网络的外观检测方法的流程图。
图2是本发明实施例二提供的一种基于神经网络的外观检测方法的流程图。
图3是本发明实施例二提供的一种待测目标对象的外观图像的展示图。
图4是本发明实施例三提供的一种基于神经网络的外观检测方法的流程图。
图5是本发明实施例三提供的一个多层感知器模型的展示图。
图6是本发明实施例四中提供的一种基于神经网络的外观检测系统的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种基于神经网络的外观检测方法的流程图,本实施例可适用于检测图像的外观形态类型的情况,该方法可以由基于神经网络的外观检测系统来执行,具体包括如下步骤:
步骤110、获取待测目标对象的外观图像。
其中,外观图像的获取方法可以是直接利用预先拍摄的待测目标对象的外观图像,也可以是利用相机现场拍摄待测目标对象的外观图像。根据对待测目标对象的检测需求确定拍摄角度。
步骤120、确定外观图像中待测目标区域。
其中,待测目标区域指的是机器视觉领域中的感兴趣区域,本实施例中,待测目标区域指的是包含有效特征信息的图像区域,当待测目标对象的边缘围成的区域中存在没有特征信息的无关区域时,待测目标区域小于待测目标对象的边缘围成的区域,所以无需对整个待测目标对象的边缘围成的区域进行检测,避免了无效特征信息对检测结果的干扰,加快了检测速度,同时缩短了检测时间。
步骤130、根据待测目标区域提取待测目标对象的特征向量。
其中,利用图像处理算法在待测目标区域中提取待测目标对象的特征向量。
可选的,步骤130包括:
对待测目标区域进行边缘化处理,获取待测目标区域的轮廓线;
将轮廓线进行水平灰度投影和垂直灰度投影,分别确定水平灰度投影矩阵和垂直灰度投影矩阵;
将根据水平灰度投影矩阵和垂直灰度投影矩阵确定为待测目标对象的特征向量。
其中,当待测目标区域为一个圆形区域或者椭圆形区域时,对待测目标区域进行极坐标转换,经过极坐标转换后,得到一个矩形区域的中间图像,相应的对中间图像进行边缘化处理,得到矩形区域中待测目标对象的轮廓线。若待测目标区域为矩形区域,则直接对待测目标区域进行边缘化处理,得到待测目标对象的轮廓线。通过对轮廓线进行水平灰度投影,获取水平灰度投影矩阵,示例性的,水平灰度投影矩阵是将每行中各轮廓线上的像素点的像素值相加求平均值得到的一个一行多列的矩阵。同理,通过对轮廓线进行垂直灰度投影,根据每列中各轮廓线上的像素点的像素值来获取垂直灰度投影矩阵。将水平投影矩阵和垂直投影矩阵合并为一个一行多列的特征矩阵,并将该特征矩阵确定为待测目标对象的特征向量。
步骤140、将特征向量作为多层感知器模型的输入,并根据多层感知器模型的输出确定待测目标对象的外观形态类型,其中,多层感知器模型根据预设样本预先训练得到。
其中,多层感知器模型(MLP,Multilayer Perceptron)是一种前馈人工神经网络模型,用于将输入的多个数据集映射到单一的输出的数据集上,通过调整内部大量节点之间相互连接的关系,从而达到识别特征向量,并根据特征向量判断待测目标对象外观状态类型的目的,并具有自学习和自适应的能力。本实施例中的多层感知器模型通过大量的预设样本预先训练得到,通过大量的预设样本的训练,多层感知器模型通过调节自身网络参数,获取待测目标对象外观状态类型的判断标准,相对于现有技术中人工确定的判断阈值精确度高。
本实施例中,利用多层感知器模型实现了对待测目标对象的外观形态类型的自动判断,其中,待测目标对象的外观形态类型可以包括两种,分别为合格和不合格。
本发明实施例通过利用多层感知器模型,将提取的待测目标对象的特征向量作为多层感知器模型的输入,根据多层感知器模型的输出确定待测目标对象的外观形态类型,从而不再依赖于阈值判定,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。
实施例二
图2为本发明实施例二提供的一种基于神经网络的外观检测方法的流程图,本实施例在上述实施例的基础上进行了优化,进一步的提供了确定外观图像中待测目标区域的方法。
优化后,一种基于神经网络的外观检测方法的具体步骤如下:
步骤210、获取待测目标对象的外观图像。
步骤220、根据标准模板在外观图像中进行模板匹配,确定待测反射矩阵,其中,标准模板根据标准图像预先确定。
其中,根据标准模板在外观图像中利用模板匹配算法进行模板匹配,可以得到与标准模板一致的待测模板,待测模板相对于图像原点的位置关系确定为待测反射矩阵;其中位置关系包括平移量、旋转量和缩放因子。图像原点是一个定点,对于任何一张外观图像或者标准图像,图像原点的位置均是一样的。模板匹配算法至少包括以下一种:基于灰度值的匹配算法、基于形状的匹配算法和基于特征点的匹配算法。
进一步的,步骤220中标准模板的确定方法包括:
根据标准图像的对比度以及待测目标对象的形状和大小,确定预期模板;
根据标准图像对所述预期模板进行训练,确定所述标准模板。
其中,根据标准图像的对比度以及待测目标对象的形状和大小,在标准图像上自定义一个特征轮廓,将该特征轮廓确定为预期模板。特征轮廓可以是圆形、矩形或者椭圆形等。标准图像可以是大量待处理外观图像中的第一张处理图像或者任意一张图像。根据标准图像对预期模板进行训练,使得训练后的预期模板可以识别出任何一张外观图像中的特征轮廓,此时将训练后的预期模板确定为标准模板。
示例性的,参见图3,图3是本发明实施例二提供的一种待测目标对象的外观图像的展示图。图3中的中心白色的圆盘为待测目标对象,其他区域为图像背景区域。图3中的预期模板可以是与待测目标对象大小和形状均相同的一个圆形轮廓。
步骤230、根据待测反射矩阵和标准反射矩阵,确定相对反射矩阵,其中标准反射矩阵是标准模板的反射矩阵。
其中,标准反射矩阵是标准模板相对于图像原点的反射矩阵。将待测反射矩阵和标准反射矩阵做差值运算,结果确定为相对反射矩阵。相对反射矩阵反映的是待测模板与标准模板之间的位置关系。
步骤240、根据相对反射矩阵和标准待测目标区域,确定待测目标区域,其中标准待测目标区域是标准图像的待测目标区域。
其中,标准待测目标区域是在标准图像上自定义的一个待测目标区域,根据检测要求进行选取。由于待测目标区域与标准待测目标区域的位置关系和待测模板与标准模板之间的位置关系相同,所以相对反射矩阵也反映的是待测目标区域与标准待测目标区域的位置关系。将相对反射矩阵与标准待测区域进行矩阵运算,运算结果确定为待测目标区域。
步骤250、根据待测目标区域提取待测目标对象的特征向量。
步骤260、将特征向量作为多层感知器模型的输入,并根据多层感知器模型的输出确定待测目标对象的外观形态类型,其中,多层感知器模型根据预设样本预先训练得到。
本发明实施例通过根据标准模板和反射矩阵确定待测目标区域,并利用多层感知器模型,将提取的待测目标对象的特征向量作为多层感知器模型的输入,根据多层感知器模型的输出确定待测目标对象的外观形态类型,从而不再依赖于阈值判定,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。
实施例三
图4所示为本发明实施例三提供的一种基于神经网络的外观检测方法的流程图,在上述各实施例的基础上进行了优化:多层感知器模型的训练方法包括:建立多层感知器模型,其中,多层感知器模型的输入层单元数根据特征向量的向量维数确定,多层感知器模型的输出层单元数根据待测目标对象的外观形态类型数确定;将预设样本集的特性向量和对应的标准结果迭代的添加到多层感知器模型,获取预设样本对应的训练结果和训练误差;判断训练误差是否大于预设误差;若是,则将训练误差反向传播至多层感知器模型,调整多层感知器模型的网络参数;若否,则停止迭代输入,多层感知器模型训练结束。
优化后,一种基于神经网络的外观检测方法的具体步骤如下:
步骤310、获取待测目标对象的外观图像。
示例性的,图3中的外观图像是利用预先拍摄的待测目标对象的外观图像获取的,图3中的待测目标对象是一个圆形的铝盖,外观图像的中心白色的圆盘即为拍摄的铝盖。
步骤320、确定外观图像中待测目标区域。
步骤330、根据待测目标区域提取待测目标对象的特征向量。
步骤340、建立多层感知器模型,其中,多层感知器模型的输入层单元数根据特征向量的向量维数确定,多层感知器模型的输出层单元数根据待测目标对象的外观形态类型数确定。
其中,多层感知器模型由输入层、至少一个隐含层和输出层三部分组成;隐含层单元数需要根据专业经验设定为一个适中值,若隐含层单元数过大,则可能使得多层感知器模型出现过拟合问题,若隐含层单元数过小,则可能使得多层感知器模型出现欠拟合问题,因此隐含层单元数的设定需要适中。
示例性的,图5是本发明实施例三给出的一个多层感知器模型的展示图,该多层感知器模型的输入层包括3个节点(节点1、节点2和节点3),隐含层包括2个节点(节点4和节点5)和输出层包括1个节点(节点6)。待测目标区域的特征向量为[X1,X2,X3],下面分别给出了节点4、节点5和节点6的输入值F(I)以及输出值F(O):
F(I4)=X1*W14+X2*W24+X3*W34
F(O4)=f(F(I4))
F(I5)=X1*W15+X2*W25+X3*W35
F(O5)=f(F(I5))
F(I6)=F(O4)*W46+F(O5)*W56
F(O6)=f(F(I6))
其中,Wij(i=1、2、3、4、5;j=4、5、6)代表的是节点i与节点j之间的权重值;F(I4)、F(I5)、F(I6)分别为节点4、节点5和节点6的输入值,F(O4)、F(O5)、F(O6)分别为节点4、节点5和节点6的输出值;f为激活函数,常用的激活函数为S型曲线函数:
Figure BDA0001450159010000101
需要说明的是,上述图5给出的多层感知器模型仅是一种多层感知器模型的示意性架构,其中隐含层的层数、各层的单元数根据检测需求确定。示例性的,对于图3实例中的铝盖来说,铝盖的特征向量维数为331,因此多层感知器模型的输入层单元数为331;铝盖的观形态类型分为合格和不合格两种,因此多层感知器模型的输出层单元数为2;可选的,多层感知器模型可以是一个隐含层,隐含层单元数为21。
步骤350、将预设样本集的特性向量和对应的标准结果迭代的添加到多层感知器模型,获取预设样本对应的训练结果和训练误差。
其中,预设样本集是若干张合格的图像和若干张不合格的图像;将预设样本集中每个预设样本的特征向量添加到多层感知器模型的输入层,将对应的标准结果也添加到多层感知器模型,根据多层感知器模型的输出层获取该预设样本的训练结果,根据该预设样本的训练结果和标准结果计算得出训练误差,这个过程称为示教。
步骤360、判断训练误差是否大于预设误差。若是,则执行步骤370,若否,则执行步骤380
其中,预设误差是根据检测要求预先设置的一个期望值。
步骤370、将训练误差反向传播至多层感知器模型,调整多层感知器模型的网络参数。其中,利用反向传播机制对多层感知器模型进行训练,当训练误差大于预设误差时,将训练误差在多层感知器模型中反向传播,调整多层感知器模型的网络参数,将预设样本集中的另一预设样本再次添加到调节后的多层感知器模型,再次获取训练误差,这个过程称为迭代。网络参数包括激活函数、权重值和偏置量。步骤370之后再返回步骤350对多层感知器模型进行训练。
步骤380、停止迭代添加,多层感知器模型训练结束。
其中,经过多次迭代后,当训练误差小于等于预设误差时,停止迭代添加,多层感知器模型训练完成。
进一步的,在多层感知器模型的训练完成之后,还包括:
根据测试样本对多层感知器模型进行测试,检测测试结果中是否存在误判;
若是,则根据测试样本的同类样本对多层感知器模型进行优化训练。
其中,测试样本用于检测训练后的多层感知器模型是否检测正确,若存在误判,则增加若干个测试样本的同类样本,利用同类样本对多层感知器模型进行重新示教,使得多层感知器模型得到优化,从而进一步提高多层感知器模型检测的准确率。
步骤390、将特征向量作为多层感知器模型的输入,并根据多层感知器模型的输出确定待测目标对象的外观形态类型,其中,多层感知器模型根据预设样本预先训练得到。
本发明实施例通过利用反向传播机制对多层感知器模型进行训练,将提取的待测目标对象的特征向量作为多层感知器模型的输入,根据多层感知器模型的输出确定待测目标对象的外观形态类型,从而不再依赖于阈值判定,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。
实施例四
图6为本发明实施例四提供的一种基于神经网络的外观检测系统的结构示意图,本实施例可适用于检测图像的外观形态类型的情况,该系统结构包括:外观图像获取模块510、待测区域确定模块520、特征向量提取模块530和形态类型确定模块540。
其中,外观图像获取模块510,用于获取待测目标对象的外观图像;待测区域确定模块520,用于确定外观图像中待测目标区域;特征向量提取模块530,用于根据待测目标区域提取待测目标对象的特征向量;形态类型确定模块540,用于将特征向量作为多层感知器模型的输入,并根据多层感知器模型的输出确定待测目标对象的外观形态类型,其中,多层感知器模型根据预设样本预先训练得到。
具体的,待测区域确定模块520,包括:
待测反射矩阵确定单元,用于根据标准模板在外观图像中进行模板匹配,确定待测反射矩阵,其中,标准模板根据标准图像预先确定;
相对反射矩阵确定单元,用于根据待测反射矩阵和标准反射矩阵,确定相对反射矩阵,其中标准反射矩阵是标准模板的反射矩阵;
待测目标区域确定单元,用于根据相对反射矩阵和标准待测目标区域,确定待测目标区域,其中标准待测目标区域是标准图像的待测目标区域。
进一步的,系统还包括:标准模板确定模块,具体用于:
根据标准图像的对比度以及待测目标对象的形状和大小,确定预期模板;
根据标准图像对预期模板进行训练,确定标准模板。
具体的,特征向量提取模块530,包括:
轮廓线获取单元,用于对待测目标区域进行边缘化处理,获取待测目标区域的轮廓线;
灰度投影矩阵确定单元,用于将轮廓线进行水平灰度投影和垂直灰度投影,分别确定水平灰度投影矩阵和垂直灰度投影矩阵;
特征向量确定单元,用于根据水平灰度投影矩阵和垂直灰度投影矩阵确定待测目标对象的特征向量。
进一步的,系统还包括模型训练模块;模型训练模块具体包括:
模型建立单元,用于建立多层感知器模型,其中,多层感知器模型的输入层单元数根据特征向量的向量维数确定,多层感知器模型的输出层单元数根据待测目标对象的外观形态类型数确定;
训练误差获取单元,用于将预设样本集的特性向量和对应的标准结果迭代的添加到多层感知器模型,获取预设样本对应的训练结果和训练误差;
训练误差判断单元,用于判断训练误差是否大于预设误差;
网络参数调整单元,用于若是,则将训练误差反向传播至多层感知器模型,调整多层感知器模型的网络参数;
模型训练完成单元,用于若否,则停止迭代添加,多层感知器模型训练完成。
进一步的,系统还包括:模型测试模块,具体用于:
根据测试样本对多层感知器模型进行测试,检测测试结果中是否存在误判;
若是,则根据测试样本的同类样本对多层感知器模型进行优化训练。
本发明实施例通过上述模块达到了不再依赖于阈值判定的效果,解决了因阈值判定的单一性导致的准确性和容错性较差的问题,从而提高了外观检测的准确率,增强了容错性,扩大了机器视觉的应用范围以及促进了智能制造的发展。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种基于神经网络的外观检测方法,其特征在于,包括:
获取待测目标对象的外观图像;
确定所述外观图像中待测目标区域;
当所述待测目标区域为一个圆形区域或者椭圆形区域时,对所述待测目标区域进行极坐标转换,得到一个矩形区域的中间图像,并对中间图像进行边缘化处理,得到矩形区域中所述待测目标对象的轮廓线;若所述待测目标区域为矩形区域,则直接对所述待测目标区域进行边缘化处理,得到待测目标对象的轮廓线;
将所述轮廓线进行水平灰度投影和垂直灰度投影,分别确定水平灰度投影矩阵和垂直灰度投影矩阵;
根据所述水平灰度投影矩阵和垂直灰度投影矩阵确定所述待测目标对象的特征向量;
将所述特征向量作为多层感知器模型的输入,并根据所述多层感知器模型的输出确定所述待测目标对象的外观形态类型,其中,所述多层感知器模型根据预设样本预先训练得到。
2.根据权利要求1所述的方法,其特征在于,确定所述外观图像中待测目标区域,包括:
根据标准模板在所述外观图像中进行模板匹配,确定待测反射矩阵,其中,所述标准模板根据标准图像预先确定;
根据所述待测反射矩阵和标准反射矩阵,确定相对反射矩阵,其中所述标准反射矩阵是所述标准模板的反射矩阵;
根据所述相对反射矩阵和标准待测目标区域,确定所述待测目标区域,其中所述标准待测目标区域是所述标准图像的待测目标区域。
3.根据权利要求2所述的方法,其特征在于,所述标准模板的确定方法包括:
根据所述标准图像的对比度以及所述待测目标对象的形状和大小,确定预期模板;
根据所述标准图像对所述预期模板进行训练,确定所述标准模板。
4.根据权利要求1所述的方法,其特征在于,所述多层感知器模型的训练方法,包括:
建立多层感知器模型,其中,所述多层感知器模型的输入层单元数根据所述特征向量的向量维数确定,所述多层感知器模型的输出层单元数根据所述待测目标对象的外观形态类型数确定;
将预设样本集的特性向量和对应的标准结果迭代的添加到所述多层感知器模型,获取预设样本对应的训练结果和训练误差;
判断所述训练误差是否大于预设误差;
若是,则将所述训练误差反向传播至所述多层感知器模型,调整所述多层感知器模型的网络参数;
若否,则停止迭代添加,所述多层感知器模型训练完成。
5.根据权利要求4所述的方法,其特征在于,在所述多层感知器模型的训练完成之后,还包括:
根据测试样本对多层感知器模型进行测试,检测测试结果中是否存在误判;
若是,则根据所述测试样本的同类样本对所述多层感知器模型进行优化训练。
6.一种基于神经网络的外观检测系统,其特征在于,包括:
外观图像获取模块,用于获取待测目标对象的外观图像;
待测区域确定模块,用于确定所述外观图像中待测目标区域;
轮廓线获取单元,用于当所述待测目标区域为一个圆形区域或者椭圆形区域时,对所述待测目标区域进行极坐标转换,得到一个矩形区域的中间图像,并对中间图像进行边缘化处理,得到矩形区域中所述待测目标对象的轮廓线;若所述待测目标区域为矩形区域,则直接对所述待测目标区域进行边缘化处理,得到待测目标对象的轮廓线;
灰度投影矩阵确定单元,用于将所述轮廓线进行水平灰度投影和垂直灰度投影,分别确定水平灰度投影矩阵和垂直灰度投影矩阵;
特征向量确定单元,用于根据所述水平灰度投影矩阵和垂直灰度投影矩阵确定所述待测目标对象的特征向量;
形态类型确定模块,用于将所述特征向量作为多层感知器模型的输入,并根据所述多层感知器模型的输出确定所述待测目标对象的外观形态类型,其中,所述多层感知器模型根据预设样本预先训练得到。
7.根据权利要求6所述的系统,其特征在于,所述待测区域确定模块,包括:
待测反射矩阵确定单元,用于根据标准模板在所述外观图像中进行模板匹配,确定待测反射矩阵,其中,所述标准模板根据标准图像预先确定;
相对反射矩阵确定单元,用于根据所述待测反射矩阵和标准反射矩阵,确定相对反射矩阵,其中所述标准反射矩阵是所述标准模板的反射矩阵;
待测目标区域确定单元,用于根据所述相对反射矩阵和标准待测目标区域,确定所述待测目标区域,其中所述标准待测目标区域是所述标准图像的待测目标区域。
8.根据权利要求6所述的系统,其特征在于,所述系统还包括模型训练模块;
所述模型训练模块具体包括:
模型建立单元,用于建立多层感知器模型,其中,所述多层感知器模型的输入层单元数根据所述特征向量的向量维数确定,所述多层感知器模型的输出层单元数根据所述待测目标对象的外观形态类型数确定;
训练误差获取单元,用于将预设样本集的特性向量和对应的标准结果迭代的添加到所述多层感知器模型,获取预设样本对应的训练结果和训练误差;
训练误差判断单元,用于判断所述训练误差是否大于预设误差;
网络参数调整单元,用于若是,则将所述训练误差反向传播至所述多层感知器模型,调整所述多层感知器模型的网络参数;
模型训练完成单元,用于若否,则停止迭代添加,所述多层感知器模型训练完成。
CN201711041424.2A 2017-10-30 2017-10-30 一种基于神经网络的外观检测方法和系统 Active CN107833210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711041424.2A CN107833210B (zh) 2017-10-30 2017-10-30 一种基于神经网络的外观检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711041424.2A CN107833210B (zh) 2017-10-30 2017-10-30 一种基于神经网络的外观检测方法和系统

Publications (2)

Publication Number Publication Date
CN107833210A CN107833210A (zh) 2018-03-23
CN107833210B true CN107833210B (zh) 2020-10-20

Family

ID=61650197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711041424.2A Active CN107833210B (zh) 2017-10-30 2017-10-30 一种基于神经网络的外观检测方法和系统

Country Status (1)

Country Link
CN (1) CN107833210B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472769A (zh) * 2018-09-26 2019-03-15 成都数之联科技有限公司 一种不良图像缺陷检测方法和系统
CN109459975A (zh) * 2018-11-13 2019-03-12 王鹂辉 数控机床智能部件信息协调感知神经元管控系统
CN110363057A (zh) * 2018-12-29 2019-10-22 上海北昂医药科技股份有限公司 一种形态学图像中的精子识别及分类方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101726251A (zh) * 2009-11-13 2010-06-09 江苏大学 基于支持向量机的苹果采摘机器人果实自动识别方法
CN102854191A (zh) * 2012-07-18 2013-01-02 湖南大学 高速铁轨表面缺陷的实时视觉检测与识别方法
CN103257144A (zh) * 2013-05-15 2013-08-21 华南理工大学 一种基于机器视觉的塑料瓶瓶口余料检测方法及装置
WO2014085975A1 (zh) * 2012-12-04 2014-06-12 中国科学院半导体研究所 可动态重构的多级并行单指令多数据阵列处理系统
CN105067638A (zh) * 2015-07-22 2015-11-18 广东工业大学 基于机器视觉的轮胎胎膜表面字符缺陷检测方法
CN106568783A (zh) * 2016-11-08 2017-04-19 广东工业大学 一种五金零件缺陷检测系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650508B2 (en) * 2014-12-03 2020-05-12 Kla-Tencor Corporation Automatic defect classification without sampling and feature selection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101726251A (zh) * 2009-11-13 2010-06-09 江苏大学 基于支持向量机的苹果采摘机器人果实自动识别方法
CN102854191A (zh) * 2012-07-18 2013-01-02 湖南大学 高速铁轨表面缺陷的实时视觉检测与识别方法
WO2014085975A1 (zh) * 2012-12-04 2014-06-12 中国科学院半导体研究所 可动态重构的多级并行单指令多数据阵列处理系统
CN103257144A (zh) * 2013-05-15 2013-08-21 华南理工大学 一种基于机器视觉的塑料瓶瓶口余料检测方法及装置
CN105067638A (zh) * 2015-07-22 2015-11-18 广东工业大学 基于机器视觉的轮胎胎膜表面字符缺陷检测方法
CN106568783A (zh) * 2016-11-08 2017-04-19 广东工业大学 一种五金零件缺陷检测系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于人工神经网络)))多层感知器(MLP)的遥感影像分类模型;韩玲;《测绘通报》;20041231(第9期);第29-42页 *
基于投影特征的商标图像检索方法;石励 等;《科学技术与工程》;20080131;第8卷(第2期);第537-538+574页第1,2节 *

Also Published As

Publication number Publication date
CN107833210A (zh) 2018-03-23

Similar Documents

Publication Publication Date Title
CN107330453B (zh) 基于分步识别和融合关键部位检测的色情图像识别方法
CN105678689B (zh) 高精地图数据配准关系确定方法及装置
KR102166458B1 (ko) 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치
CN106920215B (zh) 一种全景图像配准效果的检测方法
CN111640157B (zh) 一种基于神经网络的棋盘格角点检测方法及其应用
US9805294B2 (en) Method for denoising time-of-flight range images
CN103048331B (zh) 基于柔性模板配准的印刷缺陷检测方法
CN107833210B (zh) 一种基于神经网络的外观检测方法和系统
CN111507976B (zh) 基于多角度成像的缺陷检测方法及系统
JP2021515927A (ja) 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体
JP2012032370A (ja) 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
JP2021515885A (ja) 照明条件を設定する方法、装置、システム及びプログラム並びに記憶媒体
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN111524183A (zh) 一种基于透视投影变换的目标行列定位方法
CN109636790A (zh) 一种管路结构的识别方法及装置
CN115861170A (zh) 基于改进yolo v4算法的表面缺陷检测方法
Huang et al. Vision pose estimation from planar dual circles in a single image
Żak et al. Local image features matching for real-time seabed tracking applications
CN113160330A (zh) 基于端到端的相机与激光雷达标定方法、系统及介质
CN117576461A (zh) 一种用于变电站场景的语义理解方法、介质及系统
CN117152601A (zh) 一种基于动态感知区域路由的水下目标检测方法及系统
CN116958021A (zh) 基于人工智能的产品缺陷识别方法、相关装置和介质
CN111383281A (zh) 一种基于rbf神经网络的摄像机标定方法
CN113111850A (zh) 基于感兴趣区域变换的人体关键点检测方法、装置与系统
CN117470859B (zh) 绝缘子内部缺陷检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant