CN113129304A - 基于机器视觉的零件检测方法 - Google Patents

基于机器视觉的零件检测方法 Download PDF

Info

Publication number
CN113129304A
CN113129304A CN202110541077.XA CN202110541077A CN113129304A CN 113129304 A CN113129304 A CN 113129304A CN 202110541077 A CN202110541077 A CN 202110541077A CN 113129304 A CN113129304 A CN 113129304A
Authority
CN
China
Prior art keywords
image
algorithm
probability
defect
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110541077.XA
Other languages
English (en)
Other versions
CN113129304B (zh
Inventor
罗国富
李立伟
闫羲昊
明五一
李医中
张圣飞
马军
李晓科
何文斌
都金光
侯俊剑
曹阳
刘琨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Light Industry
Original Assignee
Zhengzhou University of Light Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Light Industry filed Critical Zhengzhou University of Light Industry
Priority to CN202110541077.XA priority Critical patent/CN113129304B/zh
Publication of CN113129304A publication Critical patent/CN113129304A/zh
Application granted granted Critical
Publication of CN113129304B publication Critical patent/CN113129304B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本发明公开了一种基于机器视觉的零件检测方法,采用加权混合深度学习目标辨识算法,并具有二次检测方法,二次检测方法采用多算法融合处理,最后通过支持向量机融合辨识。加权混合深度学习目标辨识算法的元深度学习算法包括RCNN算法、Faster‑RCNN算法、R‑FCN算法、YOLO算法、SSD算法和DenseBox算法;检查各元深度学习算法标记的缺陷对应的矩形区域的位置,两两判断是否相邻或重叠;对相邻或重叠的矩形区域进行合并。通过多算法融合处理方法对同一图像对象进行辨识处理,并使用相同的可以相互比较的标记,然后取多算法识别出来的最具缺陷可能性的辨识结果,相比单一算法进行图像辨识,大幅提高了图像识别的准确程度。

Description

基于机器视觉的零件检测方法
技术领域
本发明涉及一种零件缺陷检测技术领域,尤其涉及一种基于机器视觉的零件检测技术。
背景技术
零件表面裂纹不仅仅影响零件的整体质量,给生产零件的厂商造成利益损害,甚至带来严重的意外伤害。比如汽车、军工、航天、轨道传等行业中的轴类、齿轮、盘套类等铁磁性材料制成的零件出现裂纹,可能造成严重的交通事故。因此对这些零件表面上的裂纹进行检测和辨识已成为衡量该产品质量的必要手段。目前,常用的铁磁性材料表面裂纹的检测方法有涡轮法、超声法、磁粉法等等。
磁粉法又分为荧光和非荧光磁粉检测,前者的方法相比后者具有更高的对比度且易检测,因此被广泛应用在工业领域。目前,零件表面缺检测主要以人工为主,由于各种零件的种类及数量众多,同时一些零件结构的不规则,在人工操作的过程中难以避免会出现零件种类出错的情况。另外,人工检验过程中,容易产生疲劳现象,比如在一个时段内观察过多零件时,容易出现视觉疲劳,从而影响生产产品的合格率,造成企业不可弥补的损失。
因而,采用自动图像识别代替人工判断的全自动磁粉探伤技术是当务之急,但是,现有的检查手段以单一的图像处理技术为主,在理想实验室的情况下有较好的效果。但是,实际生产线上的环境相比实验室更加复杂,因此许多系统在生产线上无法达到理想的工作状态,且系统的识别率较低。
申请号“201310733416.X”的发明专利“基于多个传感器信息融合的零件检测方法、系统及装置”公开了一种基于多个传感器信息融合的零件检测方法、系统及电子装置,所述方法利用多个传感器采集被测零件的图像,形成相应的多幅图像融合后,将所述融合图像与模板图像进行匹配,根据匹配结果判断零件合格率。通过上述方法,能够通过多个传感器对零件进行图像采集,并将采集后的多幅图像进行融合,以实现多个传感器进行零件检测过程中的优势互补,更能真实的反应零件特性,提高了零件检测的精度和效率。
申请号“201910719946.6”的发明专利“一种用于流水线零件检测的图像采集摄像头”公开了一种用于流水线零件检测的图像采集摄像头,包括机体和杆体;机体上安装有安装架,且机体内安装有输送带,同时输送带上安装有装夹块,并且装夹块内部放置有零件,摄像头与限位块相螺接,用于流水线零件检测的图像采集摄像头,具有可对零件进行由下自上的拍摄作业,对零件进行全方位的拍摄工作,实现零件检测的连续化工作,提高了检测效率的特点。
申请号“201910185667.6”的发明专利“基于工业机器人的零件检测方法及系统”公开了一种基于工业机器人的零件检测方法及系统,其中该方法包括:获取待检测零件的多张三维投影图像,多张三维投影图像为待检测零件在不同拍摄方位进行拍摄得到的;根据待检测零件分别在各个三维投影图像中的视觉方位,确定在各个拍摄方位下的视觉坐标系和工业机器人与待检测零件之间的相对空间位置,并根据偏差量确定工业机器人的用于检测零件的目标零件检测方位。由此,允许零件位置的多样性并使得工业机器人自适应确定针对零件的目标检测方位,提高了零件检测的精确度。
申请号“202010380943.7”的发明专利“一种用于工业零件检测的机器人”公开了一种用于工业零件检测的机器人,包括底座、支杆、横杆、检测机构、移动机构和夹持机构,用于工业零件检测的机器人,通过检测机构实现零件的在线检测,通过移动机构实现夹持机构的移动,通过夹持机构对不合格的零件实现夹持,然后在通过移动机构移动至回收箱处,通过挡板使得零件落入回收箱,进行回收和再加工,该夹持机构采用较为柔性的夹持方式,避免了刚性夹持造成零件表面的划伤。
针对现有检测精度的不足,本专利提出一种基于机器视觉的零件自动检测装置及其方法,可实现在线自动化检测,并通过初、精两次自动化的检测,提升检测准确度。
发明内容
本发明的目的在于提供一种基于机器视觉的零件检测方法,提高检测准确度。
为实现上述目的,本发明的基于机器视觉的零件检测方法用于识别摄像头所拍摄的零件图像中的零件缺陷,通过基于机器视觉的零件检测机构来进行;
基于机器视觉的零件检测机构包括包括机架,以被检测零件的整体移动方向为下游方向,机架上由上游至下游方向依次设有输入传送机构、装夹拍摄机构和输出传送机构;输入传送机构的传送面与输出传送机构的传送面相平齐;机架上还设有电控装置,电控装置连接有显示屏和声光报警器,电控装置内具有图像识别模块;
装夹拍摄机构包括铰接在机架顶部的相机机械臂和安装在机架中下部的装夹装置;相机机械臂由伺服电机驱动;
相机机械臂的自由端设有第一摄像头,相机机械臂的自由端或者相机机械臂上方的固定结构上设有照明灯,伺服电机、照明灯和第一摄像头均与电控装置相连接;
装夹装置包括用于装夹零件的装夹结构、用于驱动装夹部分旋转的纵向旋转结构、横向旋转结构和纵向翻转结构;
初始状态下,纵向翻转结构的翻转方向、纵向旋转结构的旋转方向以及横向旋转结构的旋转方向两两垂直;
还包括有磁粉检测装置,磁粉检测装置包括检测台,检测台一侧固定连接有储粉箱,储粉箱中存储有磁粉;检测台上具有用于放置零件的零件位置,检测台上设有电动喷枪、吸粉器和连接杆,电动喷枪的进管连接储粉箱的底部,电动喷枪的喷射方向朝向零件位置的零件;吸粉器的吸粉口朝向零件位置的零件,吸粉器的出粉口朝向储粉箱;连接杆上安装有第二摄像头,第二摄像头的拍摄方向朝向零件位置的零件;电动喷枪、吸粉器和第二摄像头均与电控装置相连接;
纵向翻转结构包括支撑架,支撑架前端向上通过转轴转动连接有底框,底框的中后部向下铰接有用于驱动底框纵向翻转的翻转气缸,翻转气缸向下与机架相铰接,翻转气缸与电控装置相连接;
横向旋转结构包括旋转用减速电机和旋转框架,旋转用减速电机的输出轴为其转动部分且其壳体为其固定部分,旋转用减速电机的固定部分和转动部分分别连接底框或旋转框架;旋转用减速电机连接电控装置;
纵向旋转结构包括固定连接在旋转框架上的安装架,安装架转动连接有平行相对设置的第一转动圈和第二转动圈,第一转动圈的一侧沿周向凸设有第一滚动导环,第二转动圈的一侧沿周向凸设有第二滚动导环;第一滚动导环下方的安装架上设有两个用于支撑第一滚动导环的第一槽轮,第一滚动导环插入第一槽轮的轮槽内;
第二滚动导环下方的安装架上设有两个用于支撑第二滚动导环的第二槽轮,第二滚动导环插入第二槽轮的轮槽内;
两个第一槽轮和两个第二槽轮组成支撑槽轮组,支撑槽轮组中至少一个槽轮连接有槽轮驱动电机且该槽轮作为主动槽轮,槽轮驱动电机与电控装置相连接;
安装架上安装有压轮,压轮向下与第一转动圈的底部内表面或第二转动圈的底部内表面相压接;
装夹结构包括固定连接在第一转动圈和第二转动圈之间的前连接板和后连接板,前连接板和后连接板之间安装有两个装夹用滚筒,两个装夹用滚筒内分别设有电磁铁,电磁铁与电控装置相连接;两个装夹用滚筒之间设有驱动用滚筒,驱动用滚筒安装在前连接板和后连接板之间,驱动用滚筒连接有滚筒驱动电机,滚筒驱动电机连接电控装置;两个装夹用滚筒用于滚动输送零件以及磁力装夹零件;拍照时滚筒驱动电机用于微调零件位置;
两个装夹用滚筒和驱动用滚筒位于同一平面,将该平面称为装夹平面;装夹结构具有对接状态,装夹结构位于对接状态时装夹平面与输入传送机构的传送面以及输出传送机构的传送面相平齐并且对接;
装夹用滚筒下方的旋转框架或安装架上设有用于检测零件的零件传感器,零件传感器与电控装置相连接;
所述输入传送机构和输出传送机构结构相同,均包括并排间隔安装在辊架上的若干传送辊,传送辊包括一个主动辊和若干从动辊,辊架安装在机架上;机架上或辊架上安装有用于驱动主动辊的辊筒驱动电机,辊筒驱动电机与电控装置相连接;
磁粉检测装置和装夹结构之间设有用于将零件转运至磁粉检测装置上的转运机械手。
基于机器视觉的零件检测方法采用加权混合深度学习目标辨识算法,加权混合深度学习目标辨识算法的元深度学习算法包括RCNN算法、Faster-RCNN算法、R-FCN算法、YOLO算法、SSD算法和DenseBox算法;加权混合深度学习目标辨识算法存储于电控装置的图像识别模块中;所述6类元深度学习算法均通过离线进行训练;
所述加权混合深度学习目标辨识算法在实时检测时,由电控装置通过第一摄像头获取零件六个表面多角度彩色图像,图像分辨率为1280像素×720像素;六个表面图像包括上表面、下表面、前表面、后表面、左表面和右表面的图像;
对零件的各表面图像均执行以下缺陷标记处理:
(1)采用RCNN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RA1,RA2,RAm;
(2)采用Faster-RCNN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RB1,RB2,RBn;
(3)采用R-FCN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RC1,RC2,RCo;
(4)采用YOLO算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RD1,RD2,RDw;
(5)采用SSD算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RE1,RE2,REv;
(6)采用DenseBox算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RF1,RF2,RFk;
(7)如果m、n、o、w、v和k中有四个以上的数值为0,则所述加权混合深度学习目标辨识算法判断当前图像不存在表面缺陷,否则转到流程(8);
(8)检查各元深度学习算法标记的缺陷对应的矩形区域的位置,两两判断是否相邻或重叠;对相邻或重叠的矩形区域进行合并,直到新生成的最终矩形区域均不重叠且不相邻为止,最终的矩形区域标记为RG1,RG2,RGq,并将零件的该表面标记为疑似缺陷表面;
对一个零件的六个表面均进行缺陷标记处理后,由磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测。
磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测的方法是:
电控装置控制电动喷枪将磁粉均匀喷撒在零件的疑似缺陷表面,然后控制第二摄像头对零件所有疑似缺陷表面逐一进行拍摄,得到吸附有磁粉的零件表面图像,以下简称为磁粉图像;
电控装置中的图像识别模块对零件的各磁粉图像逐一进行识别,先进行加权滤波处理,再通过多算法融合处理进行图像识别,判断该表面是否确实具有缺陷,并将判断结果显示在显示屏上;电控装置打开吸粉器,将零件表面的磁粉吸回至储粉箱中;
加权滤波处理方法是:
第一是将拍摄的磁粉图像灰度化;
拍摄零件的疑似缺陷表面的具体操作是:电控装置通过第二摄像头对准最终的矩形区域RG1,RG2,RGqq的中心位置,拍摄其荧光成像图像得到磁粉图像,图像分辨率为1280像素×720像素,对磁粉图像进行灰度化后得到灰度图像;
将灰度图像标记为f(i,j),f为当前(i,j)像素的灰度值,其中720≥i>0,且1280≥j>0;
灰度图像中,i=1、i=720、j=1和j=1280的像素为边缘像素,720>i>1且1280>j>1的像素为中部像素;
第二是均值滤波;
对于边缘像素不进行均值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用均值滤波算法,获取处理后的灰度值,将中部像素f(i,j)处理后的灰度值标记为u1;均值滤波算法是:
Figure BDA0003071825630000051
u11、u12和u13满足下式:
u11=f(i-1,j-1)+f(i-1,j)+f(i-1,j+1);
u12=f(i,j-1)+f(i,j)+f(i,j+1);
u13=f(i+1,j-1)+f(i+1,j)+f(i+1,j+1);
第三是中心值滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用中心值滤波算法,获取处理后的灰度值,标记为u2;中心值滤波算法是:
Figure BDA0003071825630000052
u2m、u2avg、u2min和u2max满足下式:
u2m=median(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2avg=avg(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2min=min(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2max=max(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
上式中,median为取中值函数,avg为取平均值函数,min为取最小值函数,max为取最大值函数;
第四是高斯滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;对各中部像素f(i,j),采用高斯滤波算法,获取处理后的灰度值,标记为u3;中心值滤波算法是:
Figure BDA0003071825630000061
u31,u32和u33满足下式:
u31=f(i-1,j-1)+2×f(i-1,j)+f(i-1,j+1);
u32=2×f(i,j-1)+4×f(i,j)+2×f(i,j+1);
u33=f(i+1,j-1)+2×f(i+1,j)+f(i+1,j+1);
第五是计算中部像素f(i,j)的最终的灰度值,标记为ufinal
ufinal=INT{(u1+u2+2×u3+)/4};
第六是对于灰度图像中的每一个像素,均按加权滤波处理方法的第二步骤至第五步骤,进行加权滤波处理,得到加权滤波处理后的图像g(i,j),g为处理后(i,j)像素的灰度值,其中720≥i>0且1280≥j>0。
对于电控装置对磁粉图像加权滤波处理后得到图像g(i,j),通过多算法融合处理进行图像识别,多算法融合处理方法是:
第一是获取灰度特征;
通过计算图像g(i,j)的灰度直方图,提取其对应的均值、方差、偏度、峰度和能量,获取加权滤波处理后的图像g(i,j)灰度特征;
第二是获得待检测图像的形状特征;
对图像g(i,j)进行二值化处理,通过连通性判断,提取二值化图像疑似缺陷区域所对应的面积、周长、高度、宽度、高宽比、矩形性和圆形性,从而获得待检测图像的形状特征;
所述高宽比为疑似缺陷区域与外切矩形的垂直高与水平宽的比值,
所述矩形性为疑似缺陷区域与外接矩形面积的比值,
所述圆形性为疑似缺陷区域周长的平方与疑似缺陷区域面积比值;
第三是获取Tamura纹理特征;
以统计的方式计算图像g(i,j)区域中的各像素及其邻域内的灰度的一阶特征、二阶特征或者高阶特征,获取Tamura纹理特征,包括粗糙度、对比度、方向度、线性度和粗略度;
第四是计算一阶矩至七阶矩;
采用Hu矩的计算流程,对图像g(i,j)灰度图像分别计算一阶矩M1、二阶矩M2、三阶矩M3、四阶矩M4、五阶矩M5、六阶矩M6和七阶矩M7;
M1=y20+y02
M2=(y20-y02)2+4y11 2
M3=(y30-3y12)2+(3y21-y03)2
M4=(y30+y12)2+(y21+y03)2
M5=(y30-3y12)(y30+y12)((y30+y12)2-(3y21-y03)2)
+(3y21-y03)(y21+y03)(3(y30+y12)2-(y21+y03)2)
M6=(y20-y02)((y30+y12)2-(y21+y03)2)
+4y11(y30+y12)(y21+y03)
M7=(3y21-y03)(y30+y12)((y30+y12)2-3(y21+y03)2)
-(y30-3y12)(y21+y03)(3(y30+y12)2+(y21+y03)2);
上式中,
Figure BDA0003071825630000071
其中,
Figure BDA0003071825630000072
p+q=2或者p+q=3;
Figure BDA0003071825630000073
Figure BDA0003071825630000074
Figure BDA0003071825630000075
第五是AlexNet辨识并标记各类缺陷的概率;
通过离线训练,采用AlexNet深度学习算法,将图像g(i,j)均匀切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PAii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PAii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PAii(a1,b1,c1,d1)剔除,将最后留下的PAii(a1,b1,c1,d1)重新标记为PAjj(a1,b1,c1,d1);jj为整数,最大值小于等于16;
第六是ZFNet辨识并标记各类缺陷的概率;
通过离线训练,采用ZFNet深度学习算法,将图像g(i,j)均匀切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PBii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PBii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PBii(a1,b1,c1,d1)剔除,将最后留下的PBii(a1,b1,c1,d1)重新标记为PBkk(a1,b1,c1,d1);kk为整数,最大值小于等于16;
第七是VGG16辨识并标记各类缺陷的概率;
通过离线训练,采用VGG16深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PCii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PCii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PCii(a1,b1,c1,d1)剔除,将最后留下的PCii(a1,b1,c1,d1)重新标记为PCmm(a1,b1,c1,d1);mm为整数,最大值小于等于16;
第八是VGG19辨识并标记各类缺陷的概率;
通过离线训练,采用VGG19深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PDii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率,ii为整数;取值大于0且小于等于16;
对全部PDii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PDii(a1,b1,c1,d1)剔除,将最后留下的PDii(a1,b1,c1,d1)重新标记为PDnn(a1,b1,c1,d1),nn为整数,最大值小于等于16;
第九是GoogleNet辨识并标记各类缺陷的概率;
通过离线训练,采用GoogleNet深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PEii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PEii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PEii(a1,b1,c1,d1)剔除,将最后留下的PEii(a1,b1,c1,d1)重新标记为PEpp(a1,b1,c1,d1),pp为整数,最大值小于等于16;
第十是ResNet辨识并标记各类缺陷的概率;
通过离线训练,采用ResNet深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PFii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PFii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PFii(a1,b1,c1,d1)剔除,将最后留下的PFii(a1,b1,c1,d1)重新标记为PFqq(a1,b1,c1,d1);qq为整数,最大值小于等于16;
第五至第十步骤不分先后顺序;
第十一是排序取大值;
对所有PAjj(a1,b1,c1,d1)、PBkk(a1,b1,c1,d1)、PCmm(a1,b1,c1,d1)、PDnn(a1,b1,c1,d1)、PEpp(a1,b1,c1,d1)和PFqq(a1,b1,c1,d1)向量,按欧式范数对其从大到小排序,取前10个向量作为深度学习特征,标记为PGrr(a1,b1,c1,d1),如果不足10个,用PG(0,0,0,1)补全。
多算法融合处理方法还包括第十二步骤;
第十二是支持向量机融合辨识;
支持向量机SVM的输入包括:
①多算法融合处理方法第一步骤得到的灰度特征,包括均值、方差、偏度、峰度和能量;
②多算法融合处理方法第二步骤得到的形状特征,包括面积、周长、高度、宽度、高宽
比、矩形性和圆形性;
③多算法融合处理方法第三步骤得到的Tamura纹理特征,包括粗糙度、对比度、方向
度、线性度和粗略度;
④多算法融合处理方法第四步骤得到的Hu矩特征,包括一阶矩、二阶矩、三阶矩、四
阶矩、五阶矩、六阶矩和七阶矩;
⑤多算法融合处理方法第十一步骤得到的深度学习特征,即PGrr(a1,b1,c1,d1),其中rr最大值为10;
支持向量机SVM的输出为缺陷类型向量,其中最大值对应的列即为缺陷类型或者无缺陷。
还包括转运机械手空间三维路径控制方法,电控装置根据转运机械手空间三维路径控制方法控制转运机械手的转运动作;电控装置中预存有基于机器视觉的零件检测机构的空间模型;
机架顶部装有第一激光雷达,转运机械手上装有第二激光雷达,连接杆顶部装有第三激光雷达;
转运机械手空间三维路径控制方法按如下步骤进行:
第一步骤是构建障碍物Kriging模型;
电控装置内置有转运机械手的尺寸和关节角信息,根据空间模型,基于栅格法建立起空间环境模型,并构建障碍物模型;障碍物模型的具体构建过程包括如下子步骤:
第一子步骤是对障碍物进行拍照;
电控装置通过第一激光雷达、第二激光雷达和第三激光雷达对障碍物拍照,将障碍物的表面分别离散成10000个点,获取每一个点在空间环境模型中的空间坐标;
第二子步骤是构建Kriging模型;
电控装置从10000个点中随机选取100个点,以此100个点的X坐标和Y坐标作为设计变量,Z坐标作为响应构建障碍物的Kriging近似模型,共同构建Kriging模型;
第三子步骤是实现Kriging模型对整个障碍物的包络;
电控装置利用构建的Kriging模型预测第一步骤中10000个样本点处的Z坐标值
Figure BDA0003071825630000101
如果点
Figure BDA0003071825630000102
位于障碍物内部,则重新选点构建Kriging模型,直到障碍物边界上的所有点位于Kriging预测模型内部,实现Kriging模型对整个障碍物的包络;
第二步骤是转运机械手转运零件;电控装置判断转运机械手带动零件从起始点A到终点B的直线运动是否与Kriging模型干涉;A点通过第一激光雷达确定,B点为预先确定的检测台上的零件位置,预先存储在电控装置内;
如果不干涉,则将转运机械手的运动设置为从起点A到终点B的直线运动;
如果干涉,将直线AB与障碍物Kriging模型的相交线段邻近A点的端点设定为C点,将直线AB与障碍物Kriging模型的相交线段邻近B点的端点设定为D点;
转运机械手带动零件的运动分为如下三个子步骤:
第一子步骤是:电控装置控制转运机械手将零件从起点A沿直线移动至C点;
第二子步骤是:电控装置控制转运机械手将零件沿Kriging模型的表面由C点运动到D点;
第三子步骤是:电控装置控制转运机械手将零件沿由D点沿直线移动到B点,完成将零件由装夹拍摄机构移动至检测台的作业。
本发明具有如下的优点:
采用加权混合深度学习目标辨识算法进行缺陷标记处理时,采用6个不同的深度学习算法对同一彩色图像进行缺陷标记,如果大多数算法认为不存在表面缺陷(m、n、o、w、v和k中有四个以上的数值为0),则认为不存在表面缺陷,提高了表面缺陷是否存在的识别正确。
对于不同算法识别的表面缺陷,进行区域合并直到各缺陷区域不重叠不相邻,提高了表面缺陷区域的识别正确率。
通过多算法融合处理方法对同一图像对象进行辨识处理,并使用相同的可以相互比较的标记,然后取多算法识别出来的最具缺陷可能性的辨识结果,即PGrr(a1,b1,c1,d1),相比单一算法进行图像辨识,大幅提高了图像识别的准确程度。
多算法融合处理方法中第五至第十步骤中,经过筛选,剔除了具有缺陷的可能性较小的结果,从而使标记各类缺陷的最终范围更小,结果更加有效。
本发明中的转运机械手空间三维路径控制方法,在转运机械手将零件由装夹结构移动至磁粉检测装置的检测台的过程中,既保证了转运机械手运动过程中与障碍物不发生碰撞,又保证了零件(即转运机械手的末端)运动路径最短,能耗较低,转运效率较高。
空间三维坐标具有XYZ三个相互垂直的轴,本发明中的纵向翻转结构的翻转方向、纵向旋转结构的旋转方向以及横向旋转结构的旋转方向两两垂直,能够带动零件在三维方向上旋转至需要的角度,满足全方位拍摄的需求,在电控装置的控制下实现在线自动化检测。本发明通过第一摄像头对零件进行主要检测,对有问题的零件通过第二摄像头进行二次检测,提升了检测准确度。
本发明通过纵向翻转机构实现装夹结构竖向旋转,通过横向旋转结构实现装夹结构横向旋转,既可以旋转至对接状态来使零件进出装夹结构,又可以旋转至旋转拍照状态由第一摄像头进行拍照。
本发明中的装夹用滚筒内置电磁铁,兼具滚动输送零件以及磁力装夹零件的双重作用,在滚动输送零件时电磁铁不工作从而不会磁力吸附定位零件,通过装夹用滚筒的旋转驱动零件移动;在拍照时滚筒驱动电机不工作,电磁铁通电工作,从而能够将零件牢固地吸附在装夹用滚筒上。
拍照时,由于零件吸附在装夹用滚筒上,拍摄零件底面时,势必被两个装夹用滚筒以及一个驱动用滚筒所遮挡,从而无法获得全部零件图像。拍照时通过滚筒驱动电机可以微调零件位置,从而能够微调零件位置后再次拍摄零件底面,获得前次拍摄被两个装夹用滚筒以及一个驱动用滚筒所遮挡部位的图像,为图像融合生成全方位无死角的零件图像提供基础。
压轮向下与第一转动圈或第二转动圈相压接,可以防止与第一转动圈和第二转动圈向上离开槽轮,在结构灵活度非常高的同时保证结构运转稳定。零件传感器可以检测零件是否到位,为电控装置的自动控制提供依据。
环形LED灯板能够产生类似无影灯的光源效果,从而提升拍摄图像的质量。
既装夹定位零件,又在拍摄中不遮挡零件的任何一个面,是拍摄零件以进行机器视觉检测的难题。本发明的基于机器视觉的零件检测机构及其使用方法解决了这一问题,通过磁性吸附使零件除底面之外的所有面均不与装夹结构相接触,从而只有一面即底面被装夹结构所遮挡。通过装夹用滚筒的旋转,能够驱动零件位移,使零件露出原来被遮挡的部位,通过二次拍摄底面后进行图像融合,得到不被遮挡的完整的底面图像。
本发明的使用方法,在电控装置的控制下自动完成上料、装夹、翻转零件至不同位置并拍摄、下料等动作,工作效率较高。
附图说明
图1是本发明的结构示意图;
图2是被检测的零件的结构示意图;
图3是输入传送机构、装夹拍摄机构和输出传送机构的立体结构示意图;
图4是装夹结构处的结构示意图;
图5是零件进入输入传送机构时的结构示意图;
图6是拍摄零件上表面时的结构示意图;
图7是拍摄零件后表面时的结构示意图;
图8是拍摄零件左表面时的结构示意图;
图9是拍摄零件前表面时的结构示意图;
图10是拍摄零件右表面时的结构示意图;
图11是拍摄零件下表面时的结构示意图;
图12是第十一步骤中零件移动2d距离时的结构示意图;
图13是第十一步骤中拍摄零件下表面第二幅图像时的结构示意图;
图14是零件通过输出传送机构传送至下道工序的结构示意图;
图15是磁粉检测装置的结构示意图;
图16是装夹装置处的结构示意图;
图17是旋转用减速电机处的结构示意图;
图18是本发明的电控原理图。
具体实施方式
如图1至图18所示,本发明提供了一种基于机器视觉的零件检测方法,用于识别摄像头所拍摄的零件图像中的零件缺陷,通过基于机器视觉的零件检测机构来进行。
基于机器视觉的零件检测机构包括机架2,以被检测零件31的整体移动方向为下游方向,机架2上由上游至下游方向依次设有输入传送机构51、装夹拍摄机构52和输出传送机构53;输入传送机构51的传送面与输出传送机构53的传送面相平齐;机架2上还设有电控装置20,电控装置20连接有显示屏13和声光报警器19,电控装置20内具有图像识别模块;
装夹拍摄机构52包括铰接在机架2顶部的相机机械臂12和安装在机架2中下部的装夹装置;相机机械臂12由伺服电机32驱动;具体地,伺服电机32位于相机机械臂12的关节(铰接)处;相机机械臂12有几个关节,伺服电机32就相应设有几个。
相机机械臂12的自由端设有第一摄像头10,相机机械臂12的自由端或者相机机械臂12上方的固定结构上设有照明灯11,伺服电机32、照明灯11和第一摄像头10均与电控装置20相连接;照明灯11外罩设有扩散板33,扩散板33用来使照明灯11发出的光发生散射,使光照更加均匀。
装夹装置包括用于装夹零件31的装夹结构、用于驱动装夹部分旋转的纵向旋转结构、横向旋转结构和纵向翻转结构;
初始状态下,纵向翻转结构的翻转方向、纵向旋转结构的旋转方向以及横向旋转结构的旋转方向两两垂直;即纵向翻转结构的翻转方向与纵向旋转结构的旋转方向相垂直,纵向旋转结构的旋转方向和横向旋转结构的旋转方向相垂直,纵向翻转结构的翻转方向和横向旋转结构的旋转方向相垂直。
还包括有磁粉检测装置,磁粉检测装置包括检测台36,检测台36一侧固定连接有储粉箱39,储粉箱39中存储有磁粉(即具有磁性的粉体);检测台36上具有用于放置零件31的零件位置,检测台36上设有电动喷枪40、吸粉器38和连接杆37,电动喷枪40的进管连接储粉箱39的底部,电动喷枪40的喷射方向朝向零件位置的零件31;吸粉器38的吸粉口朝向零件位置的零件31,吸粉器38的出粉口朝向储粉箱39;连接杆37上安装有第二摄像头54,第二摄像头54的拍摄方向朝向零件位置的零件31;
电动喷枪40、吸粉器38和第二摄像头54均与电控装置20相连接;
电控装置20为PLC或工控计算机,电控装置20、声光报警器19、吸粉器38、电动喷枪40、相机机械臂12以及伺服电机32驱动机械臂12的结构均为现有技术,不再赘述。
空间三维坐标具有XYZ三个相互垂直的轴,本发明中的纵向翻转结构的翻转方向、纵向旋转结构的旋转方向以及横向旋转结构的旋转方向两两垂直,能够带动零件31在三维方向上旋转至需要的角度,满足全方位拍摄的需求,在电控装置20的控制下实现在线自动化检测。本发明通过第一摄像头10对零件31进行主要检测,对有问题的零件31通过第二摄像头54进行二次检测,提升了检测准确度。
图2中,标号55为零件31的上表面,标号56为零件31的后表面,标号57为零件31的下表面,标号58为零件31的前表面,标号59为零件31的左表面,标号60零件31的右表面。图3中的标号4为设置在机架上的工作台。
纵向翻转结构包括支撑架61,支撑架61前端向上通过转轴转动连接有底框62,底框62的中后部向下铰接有用于驱动底框62纵向翻转的翻转气缸63,翻转气缸63向下与机架2相铰接,翻转气缸63与电控装置20相连接;
横向旋转结构包括旋转用减速电机64和旋转框架65,旋转用减速电机64的输出轴为其转动部分且其壳体为其固定部分,旋转用减速电机64的固定部分和转动部分分别连接底框62或旋转框架65。即,底框62连接旋转用减速电机64的固定部分时,旋转框架65连接旋转用减速电机64的转动部分;底框62连接旋转用减速电机64的转动部分时,旋转框架65连接旋转用减速电机64的固定部分;旋转用减速电机64连接电控装置20;
纵向旋转结构包括固定连接在旋转框架65上的安装架66,安装架66转动连接有平行相对设置的第一转动圈67和第二转动圈16,第一转动圈67的一侧沿周向凸设有第一滚动导环68,第二转动圈16的一侧沿周向凸设有第二滚动导环69;第一滚动导环68下方的安装架66上设有两个用于支撑第一滚动导环68的第一槽轮70,第一滚动导环68插入第一槽轮70的轮槽内;
第二滚动导环69下方的安装架66上设有两个用于支撑第二滚动导环69的第二槽轮71,第二滚动导环69插入第二槽轮71的轮槽内;
两个第一槽轮70和两个第二槽轮71组成支撑槽轮组,支撑槽轮组中至少一个槽轮连接有槽轮驱动电机72且该槽轮作为主动槽轮,槽轮驱动电机72与电控装置20相连接;
安装架66上安装有压轮73,压轮73向下与第一转动圈67的底部内表面或第二转动圈16的底部内表面相压接;压轮73使得第一转动圈67和第二转动圈16通过装夹结构形成的整体不会离开支撑槽轮组,在纵向旋转时装夹结构不会掉落。
装夹结构包括固定连接在第一转动圈67和第二转动圈16之间的前连接板14和后连接板74,前连接板14和后连接板74之间安装有两个装夹用滚筒17,两个装夹用滚筒17内分别设有电磁铁75,电磁铁75与电控装置20相连接;两个装夹用滚筒17之间设有驱动用滚筒18,驱动用滚筒18安装在前连接板14和后连接板74之间,驱动用滚筒18连接有滚筒驱动电机76,滚筒驱动电机76连接电控装置20;两个装夹用滚筒17用于滚动输送零件31以及通过磁力定位装夹零件31;拍照时滚筒驱动电机76用于微调零件31位置;滚筒驱动电机76安装在前连接板14或后连接板74上。
两个装夹用滚筒17和驱动用滚筒18位于同一平面,将该平面称为装夹平面;装夹结构具有对接状态和旋转拍照状态,装夹结构位于对接状态时装夹平面与输入传送机构51的传送面以及输出传送机构53的传送面相平齐并且对接;
两个装夹用滚筒17下方的旋转框架65或安装架66上设有用于检测零件31的零件传感器77,零件传感器77与电控装置20相连接。
本发明通过纵向翻转机构实现装夹结构竖向旋转,通过横向旋转结构实现装夹结构横向旋转,既可以旋转至对接状态来使零件31装夹结构,又可以旋转至旋转拍照状态由第一摄像头10进行拍照。
本发明中的装夹用滚筒17内置电磁铁75,兼具滚动输送零件31以及磁力装夹零件31的双重作用,在滚动输送零件31时电磁铁75不工作从而不会磁力吸附定位零件31,通过装夹用滚筒17的旋转驱动零件31移动;在拍照时滚筒驱动电机76不工作,电磁铁75通电工作,从而能够将零件31牢固地吸附在装夹用滚筒17上。
拍照时,由于零件31吸附在装夹用滚筒17上,拍摄零件31底面时,势必被两个装夹用滚筒17以及一个驱动用滚筒18所遮挡,从而无法获得全部零件图像。拍照时通过滚筒驱动电机76可以微调零件31位置,从而能够微调零件31位置后再次拍摄零件底面,获得前次拍摄被两个装夹用滚筒17以及一个驱动用滚筒18所遮挡部位的图像,为图像融合生成全方位无死角的零件图像提供基础。
压轮73向下与第一转动圈67或第二转动圈16相压接,可以防止与第一转动圈67和第二转动圈16向上离开槽轮,在结构灵活度非常高的同时保证结构运转稳定。零件传感器77可以检测零件31是否到位,为电控装置20的自动控制提供依据。
具体地,机架2顶部设有水平设置的屏风挡板1,相机机械臂12铰接在机架2的屏风挡板1上,照明灯11优选为设置在屏风挡板1上的环形LED灯板。环形LED灯板能够产生类似无影灯的光源效果,从而提升拍摄图像的质量。
所述输入传送机构51和输出传送机构53结构相同,均包括并排间隔安装在辊架79上的若干传送辊78,传送辊78包括一个主动辊和若干从动辊,辊架79安装在机架2上;机架2上或辊架79上安装有用于驱动主动辊的辊筒驱动电机80,辊筒驱动电机80与电控装置相连接。磁粉检测装置和装夹结构之间设有用于将零件转运至磁粉检测装置上的转运机械手81。
本发明还公开了上述基于机器视觉的零件检测机构的使用方法,按以下步骤进行:
第一步骤是上料;
被检测的零件31(零件31具有铁或钢,能被磁性吸附)由上道工序进入输入传送机构51,在辊筒驱动电机80的带动下进入处于对接状态的装夹结构,电控装置20关闭辊筒驱动电机80,启动滚筒驱动电机76,通过驱动用滚筒18带动零件31;
零件传感器77检测到零件31后向电控装置20发出信号,电控装置20关闭滚筒驱动电机76,完成上料,此时零件31由驱动用滚筒18和两个装夹用滚筒17所支撑;
第二步骤是装夹;
电控装置20启动两个装夹用滚筒17内的电磁铁75,通过磁性吸附定位零件31;
第三步骤是拍摄零件31上表面;
电控装置20通过第一摄像头10拍摄获取零件31上表面图像;
第四步骤是拍摄零件31后表面图像;
电控装置20控制翻转气缸63驱动底框62向上翻转,同时控制相机机械臂12转动,使第一摄像头10在正对零件31后表面的方向上拍摄零件31后表面图像;
第五步骤是拍摄零件31左表面图像;
电控装置20控制旋转用减速电机64带动旋转框架65和零件31继续旋转90度,直到零件31的左表面正对第一摄像头10;然后电控装置20使第一摄像头10在正对零件31左表面的方向上拍摄零件31左表面图像;
第六步骤是拍摄零件31前表面图像;
电控装置20控制旋转用减速电机64带动旋转框架65和零件31继续旋转90度,使零件31的前表面正对第一摄像头10;然后电控装置20使第一摄像头10在正对零件31前表面的方向上拍摄零件31前表面图像;
第七步骤是拍摄零件31右表面图像;
电控装置20控制旋转用减速电机64带动旋转框架65和零件31继续旋转90度,使零件31的右表面正对第一摄像头10;然后电控装置20使第一摄像头10在正对零件31右表面的方向上拍摄零件31右表面图像;
第八步骤是零件31一次复位;
电控装置20控制旋转用减速电机64带动旋转框架65和零件31继续旋转90度,同时电控装置20控制翻转气缸63复位,从而使零件31回归第二步骤中的原位;
第九步骤是拍摄零件31下表面第一幅图像;
电控装置20控制槽轮驱动电机72启动,槽轮驱动电机72通过第一槽轮70或第二槽轮71驱动第一转动圈67和第二转动圈16一体旋转180度后停止,使零件31的下表面朝上;电控装置20控制相机机械臂12转动至摄像头的拍摄方向朝向正下方的位置,然后电控装置20使第一摄像头10在正对零件31下表面的方向上拍摄零件31下表面第一幅图像;
第十步骤是零件31二次复位;
电控装置20控制槽轮驱动电机72启动,槽轮驱动电机72通过第一槽轮70或第二槽轮71驱动第一转动圈67和第二转动圈16一体旋转180度后停止,使零件31复位;
第十一步骤是拍摄零件31下表面第二幅图像;
电控装置20关闭两个装夹用滚筒17内的电磁铁75,装夹用滚筒17的和驱动用滚筒18的直径均为d,启动滚筒驱动电机76,通过驱动用滚筒18带动零件31移动2d的距离时关闭滚筒驱动电机76,此时第一幅图像中零件31底面被装夹用滚筒17和驱动用滚筒18遮挡的部位显露出来;
电控装置20启动两个装夹用滚筒17内的电磁铁75,通过磁性吸附定位零件31,然后电控装置20控制槽轮驱动电机72启动,槽轮驱动电机72通过第一槽轮70或第二槽轮71驱动第一转动圈67和第二转动圈16一体旋转180度后停止,使零件31的下表面朝上;然后电控装置20使第一摄像头10在正对零件31下表面的方向上拍摄零件31下表面第二幅图像;
第十二步骤是零件31三次复位;
电控装置20控制槽轮驱动电机72启动,槽轮驱动电机72通过第一槽轮70或第二槽轮71驱动第一转动圈67和第二转动圈16一体旋转180度后停止,使零件31复位至上表面朝上的位置;
第十三步骤是图像识别以及下料;
电控装置20通过图像识别模块对零件31的图像进行识别,判断零件31表面是否存在气孔、裂纹或划痕缺陷;
如果图像识别模块检测到零件31某表面疑似存在缺陷,则电控装置20将疑似具有缺陷的表面(如前表面或上表面)显示在显示屏13上;电控装置20打开声光报警器19报警,直到零件传感器77检测到转运机械手81将零件31取出后(即零件31消失后)关闭声光报警器19;
如果零件31表面不存在缺陷,则电控装置20同时关闭两个装夹用滚筒17内的电磁铁75、启动滚筒驱动电机76和输出传送机构53的辊筒驱动电机80,使零件31移动至输出传送机构53上并由输出传送机构53传送至下道工序。
既装夹定位零件31,又在拍摄中不遮挡零件31的任何一个面,是拍摄零件31以进行机器视觉检测的难题。本发明的基于机器视觉的零件检测机构及其使用方法解决了这一问题,通过磁性吸附使零件31除底面之外的所有面均不与装夹结构相接触,从而只有一面即底面被装夹结构所遮挡。通过装夹用滚筒17的旋转,能够驱动零件31位移,使零件31露出原来被遮挡的部位,通过二次拍摄底面后进行图像融合,得到不被遮挡的完整的底面图像。
本发明的使用方法,在电控装置20的控制下自动完成上料、装夹、翻转零件31至不同位置并拍摄、下料等动作,工作效率较高。
在第十三步骤中,当零件31表面存在缺陷、转运机械手81将零件31取出后,将零件31放至检测台36上的零件位置,使疑似具有缺陷的表面朝上,为对零件31进行二次检测做好准备。
在将零件放至检测台上的零件位置时,电控装置按转运机械手空间三维路径控制方法对零件运行移动;
转运机械手空间三维路径控制方法是:
电控装置中预存有基于机器视觉的零件检测机构的空间模型;该空间模型可以是在对环境信息进行测绘的基础上构建的,也可以是事先定义好基于机器视觉的零件检测机构中输入传送机构、装夹拍摄机构、输出传送机构以及磁粉检测装置的标准相对位置关系,安装时确保各部件均处于标准相对位置;基于事先定义的输入传送机构、装夹拍摄机构、输出传送机构以及磁粉检测装置的标准相对位置关系构建空间模型,这样可以免去安装好后再测绘的麻烦。
机架2顶部装有第一激光雷达41,转运机械手上装有第二激光雷达42,连接杆37顶部装有第三激光雷达43;
转运机械手空间三维路径控制方法按如下步骤进行:
第一步骤是构建障碍物Kriging模型;
电控装置20内置有转运机械手81的尺寸和关节角信息,根据空间模型,基于栅格法建立起空间环境模型,并构建障碍物模型;障碍物模型的具体构建过程包括如下子步骤:
第一子步骤是对障碍物进行拍照;
电控装置20通过第一激光雷达41、第二激光雷达42和第三激光雷达43对障碍物拍照,将障碍物的表面分别离散成10000个点,获取每一个点在空间环境模型中的空间坐标;
第二子步骤是构建Kriging模型;
电控装置20从10000个点中随机选取100个点,以此100个点的X(轴)坐标和Y坐标作为设计变量,Z坐标作为响应构建障碍物的Kriging近似模型,共同构建Kriging模型;
第三子步骤是实现Kriging模型对整个障碍物的包络;
电控装置20利用构建的Kriging模型预测第一步骤中10000个样本点处的Z坐标值
Figure BDA0003071825630000181
如果点
Figure BDA0003071825630000182
位于障碍物内部,则重新选点构建Kriging模型,直到障碍物边界上的所有点位于Kriging预测模型内部,实现Kriging模型对整个障碍物的包络;
第二步骤是转运机械手81转运零件31;电控装置20判断转运机械手81带动零件31从起始点A到终点B的直线运动是否与Kriging模型干涉;A点通过第一激光雷达41确定,B点为预先确定的检测台上的零件31位置,预先存储在电控装置20内;
如果不干涉,则将转运机械手81的运动设置为从起点A到终点B的直线运动;
如果干涉,将直线AB与障碍物Kriging模型的相交线段邻近A点的端点设定为C点,将直线AB与障碍物Kriging模型的相交线段邻近B点的端点设定为D点;
转运机械手81带动零件31的运动分为如下三个子步骤:
第一子步骤是:电控装置20控制转运机械手81将零件31从起点A沿直线移动至C点;
第二子步骤是:电控装置20控制转运机械手81将零件31沿Kriging模型的表面由C点运动到D点;优选使用最短切线法选择Kriging表面上由C点到D点的最短路径;
第三子步骤是:电控装置20控制转运机械手81将零件31沿由D点沿直线移动到B点,完成将零件31由装夹拍摄机构移动至检测台的作业。
基于机器视觉的零件检测方法采用加权混合深度学习目标辨识算法,所述加权混合深度学习目标辨识算法的元深度学习算法包括RCNN算法、Faster-RCNN算法、R-FCN算法、YOLO算法、SSD算法和DenseBox算法;加权混合深度学习目标辨识算法存储于电控装置的图像识别模块中;
所述6类元深度学习算法均通过离线进行训练,提升各个元深度学习算法的精度和鲁棒性;
所述加权混合深度学习目标辨识算法在实时检测时,采用电控装置通过第一摄像头在基于机器视觉的零件检测机构的使用方法的第三步骤至十一步骤中拍摄的零件六个表面多角度彩色图像,图像分辨率为1280像素×720像素;六个表面图像包括上表面、下表面、前表面、后表面、左表面和右表面的图像;
对零件的各表面图像均执行以下缺陷标记处理:
(1)采用RCNN目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RA1,RA2,RAm;
(2)采用Faster-RCNN目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RB1,RB2,RBn;
(3)采用R-FCN目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RC1,RC2,RCo;
(4)采用YOLO目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RD1,RD2,RDw;
(5)采用SSD目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RE1,RE2,REv;
(6)采用DenseBox目标辨识算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RF1,RF2,RFk;
(7)如果m、n、o、w、v和k中有四个以上的数值为0,则所述加权混合深度学习目标辨识算法判断当前图像不存在表面缺陷,否则转到流程(8);
(8)检查各元深度学习算法标记的缺陷对应的矩形区域的位置,
包括RA1,RA2,RAm,RB1,RB2,RBn,RC1,RC2,RCo,RD1,RD2,RDw,RE1,RE2,REv,RF1,RF2和RFk的位置,
两两判断是否相邻或重叠;对相邻或重叠的矩形区域进行合并,直到新生成的最终矩形区域均不重叠且不相邻为止,最终的矩形区域标记为RG1,RG2,RGq,并将零件的该表面标记为疑似缺陷表面;
对一个零件的六个表面均进行缺陷标记处理后,由磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测。
磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测的方法是:
电控装置20控制电动喷枪40将磁粉均匀喷撒在零件31的疑似缺陷表面,然后控制第二摄像头54对零件31所有疑似缺陷表面逐一进行拍摄,得到吸附有磁粉的零件31表面图像(数量与零件31的疑似缺陷表面数量相同),以下简称为磁粉图像;
电控装置20中的图像识别模块对零件31的各磁粉图像逐一进行识别,先进行加权滤波处理,再通过多算法融合处理进行图像识别,判断该表面是否确实具有缺陷,并将判断结果显示在显示屏上;电控装置20打开吸粉器,将零件31表面的磁粉吸回至储粉箱中;检测完成后,对于实际并不存在缺陷的零件31,人工将其放入良品零件31存储位置;对于确有缺陷的零件31,人工将其放入次品零件31存储位置。
加权滤波处理方法是:
第一是将拍摄的磁粉图像灰度化;
拍摄零件31的疑似缺陷表面的具体操作是:电控装置20通过第二摄像头54对准最终的矩形区域RG1,RG2,RGqq的中心位置,拍摄其荧光成像图像得到磁粉图像,图像分辨率为1280像素×720像素,对磁粉图像进行灰度化后得到灰度图像;图像灰度化为常规技术,具体不详述。
将灰度图像标记为f(i,j),f为当前(i,j)像素的灰度值,其中720≥i>0,且1280≥j>0;
灰度图像中,i=1、i=720、j=1和j=1280的像素为边缘像素,720>i>1且1280>j>1的像素为中部像素;
第二是均值滤波;
对于边缘像素不进行均值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用均值滤波算法,获取处理后的灰度值,将中部像素f(i,j)处理后的灰度值标记为u1;均值滤波算法是:
Figure BDA0003071825630000211
u11、u12和u13满足下式:
u11=f(i-1,j-1)+f(i-1,j)+f(i-1,j+1);
u12=f(i,j-1)+f(i,j)+f(i,j+1);
u13=f(i+1,j-1)+f(i+1,j)+f(i+1,j+1);
第三是中心值滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用中心值滤波算法,获取处理后的灰度值,标记为u2;中心值滤波算法是:
Figure BDA0003071825630000212
u2m、u2avg、u2min和u2max满足下式:
u2m=median(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2avg=avg(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2min=min(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2max=max(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),
f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
上式中,median为取中值函数(即中值函数),avg为取平均值函数(即平均值函数),min为取最小值函数(即最小值函数),max为取最大值函数(即最大值函数);
第四是高斯滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;对各中部像素f(i,j),采用高斯滤波算法,获取处理后的灰度值,标记为u3;中心值滤波算法是:
Figure BDA0003071825630000221
u31,u32和u33满足下式:
u31=f(i-1,j-1)+2×f(i-1,j)+f(i-1,j+1);
u32=2×f(i,j-1)+4×f(i,j)+2×f(i,j+1);
u33=f(i+1,j-1)+2×f(i+1,j)+f(i+1,j+1);
第五是计算中部像素f(i,j)的最终的灰度值,标记为ufinal
ufinal=INT{(u1+u2+2×u3)/4};
第六是对于灰度图像中的每一个像素,均按加权滤波处理方法的第二步骤至第五步骤,进行加权滤波处理,得到加权滤波处理后的图像g(i,j),g为处理后(i,j)像素的灰度值,其中720≥i>0且1280≥j>0。
对于零件31所有疑似缺陷表面所对应的磁粉图像加权滤波处理后的图像g(i,j),电控装置20逐一进行多算法融合处理;
对于电控装置对磁粉图像加权滤波处理后得到图像g(i,j),通过多算法融合处理进行图像识别,多算法融合处理方法是:
多算法融合处理方法是:
第一是获取灰度特征;
通过计算图像g(i,j)的灰度直方图,提取其对应的均值、方差、偏度、峰度和能量,获取加权滤波处理后的图像g(i,j)灰度特征;
计算图像的灰度直方图并提取上述五项指标为本领域技术,不再赘述;
第二是获得待检测图像的形状特征;
对图像g(i,j)进行二值化处理,通过连通性判断,提取二值化图像疑似缺陷区域所对应的面积、周长、高度、宽度、高宽比、矩形性和圆形性,从而获得待检测图像的形状特征;
所述高宽比为疑似缺陷区域与外切矩形的垂直高与水平宽的比值,
所述矩形性为疑似缺陷区域与外接矩形面积的比值,
所述圆形性为疑似缺陷区域周长的平方与疑似缺陷区域面积比值;
连通性判断是本领域技术,不再赘述。
第三是获取Tamura纹理特征;
以统计的方式计算图像g(i,j)区域中的各像素及其邻域内的灰度的一阶特征、二阶特征或者高阶特征,获取Tamura纹理特征,包括粗糙度、对比度、方向度、线性度和粗略度;
其中,g(i,j)的领域为g(i+1,j)、g(i-1,j)、g(i,j+1)和g(i,j-1);
第四是计算一阶矩至七阶矩;
采用Hu矩的计算流程,对图像g(i,j)灰度图像分别计算一阶矩M1、二阶矩M2、三阶矩M3、四阶矩M4、五阶矩M5、六阶矩M6和七阶矩M7;
M1=y20+y02
M2=(y20-y02)2+4y11 2
M3=(y30-3y12)2+(3y21-y03)2
M4=(y30+y12)2+(y21+y03)2
M5=(y30-3y12)(y30+y12)((y30+y12)2-(3y21-y03)2)
+(3y21-y03)(y21+y03)(3(y30+y12)2-(y21+y03)2)
M6=(y20-y02)((y30+y12)2-(y21+y03)2)
+4y11(y30+y12)(y21+y03)
M7=(3y21-y03)(y30+y12)((y30+y12)2-3(y21+y03)2)
-(y30-3y12)(y21+y03)(3(y30+y12)2+(y21+y03)2);
上式中,
Figure BDA0003071825630000231
其中,
Figure BDA0003071825630000232
p+q=2或者p+q=3;
Figure BDA0003071825630000233
Figure BDA0003071825630000234
Figure BDA0003071825630000235
第五是AlexNet辨识并标记各类缺陷的概率;
通过离线训练,采用AlexNet深度学习算法,将图像g(i,j)均匀切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PAii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PAii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PAii(a1,b1,c1,d1)剔除,将最后留下的PAii(a1,b1,c1,d1)重新标记为PAjj(a1,b1,c1,d1);jj为整数,最大值小于等于16;
第六是ZFNet辨识并标记各类缺陷的概率;
通过离线训练,采用ZFNet深度学习算法,将图像g(i,j)均匀切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PBii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PBii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PBii(a1,b1,c1,d1)剔除,将最后留下的PBii(a1,b1,c1,d1)重新标记为PBkk(a1,b1,c1,d1);kk为整数,最大值小于等于16;
第七是VGG16辨识并标记各类缺陷的概率;
通过离线训练,采用VGG16深度学习算法,将图像g(i,j)切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PCii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PCii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PCii(a1,b1,c1,d1)剔除,将最后留下的PCii(a1,b1,c1,d1)重新标记为PCmm(a1,b1,c1,d1);mm为整数,最大值小于等于16;
第八是VGG19辨识并标记各类缺陷的概率;
通过离线训练,采用VGG19深度学习算法,将图像g(i,j)切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PDii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率,ii为整数;取值大于0且小于等于16;
对全部PDii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PDii(a1,b1,c1,d1)剔除,将最后留下的PDii(a1,b1,c1,d1)重新标记为PDnn(a1,b1,c1,d1),nn为整数,最大值小于等于16;
第九是GoogleNet辨识并标记各类缺陷的概率;
通过离线训练,采用GoogleNet深度学习算法,将图像g(i,j)切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PEii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PEii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PEii(a1,b1,c1,d1)剔除,将最后留下的PEii(a1,b1,c1,d1)重新标记为PEpp(a1,b1,c1,d1),pp为整数,最大值小于等于16;
第十是ResNet辨识并标记各类缺陷的概率;
通过离线训练,采用ResNet深度学习算法,将图像g(i,j)切割为16个图像块(每个图像块为320×180像素)分别进行辨识,辨识结果为各类缺陷的概率,标记为PFii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PFii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PFii(a1,b1,c1,d1)剔除,将最后留下的PFii(a1,b1,c1,d1)重新标记为PFqq(a1,b1,c1,d1);qq为整数,最大值小于等于16;
第五至第十步骤不分先后顺序;
第十一是排序取大值;
对所有PAjj(a1,b1,c1,d1)、PBkk(a1,b1,c1,d1)、PCmm(a1,b1,c1,d1)、PDnn(a1,b1,c1,d1)、PEpp(a1,b1,c1,d1)和PFqq(a1,b1,c1,d1)向量,按欧式范数对其从大到小排序,取前10个向量作为深度学习特征,标记为PGrr(a1,b1,c1,d1),如果不足10个,用PG(0,0,0,1)补全。
多算法融合处理方法还包括第十二步骤;
第十二是支持向量机融合辨识;
支持向量机SVM的输入包括:
①多算法融合处理方法第一步骤得到的灰度特征,包括均值、方差、偏度、峰度和能量;
②多算法融合处理方法第二步骤得到的形状特征,包括面积、周长、高度、宽度、高宽
比、矩形性和圆形性;
③多算法融合处理方法第三步骤得到的Tamura纹理特征,包括粗糙度、对比度、方向
度、线性度和粗略度;
④多算法融合处理方法第四步骤得到的Hu矩特征,包括一阶矩、二阶矩、三阶矩、四
阶矩、五阶矩、六阶矩和七阶矩;
⑤多算法融合处理方法第十一步骤得到的深度学习特征,即PGrr(a1,b1,c1,d1),其中rr最大值为10;
支持向量机SVM的输出为缺陷类型向量,其中最大值对应的列即为缺陷类型或者无缺陷。

Claims (5)

1.基于机器视觉的零件检测方法,用于识别摄像头所拍摄的零件图像中的零件缺陷,通过基于机器视觉的零件检测机构来进行;
基于机器视觉的零件检测机构包括包括机架,以被检测零件的整体移动方向为下游方向,机架上由上游至下游方向依次设有输入传送机构、装夹拍摄机构和输出传送机构;输入传送机构的传送面与输出传送机构的传送面相平齐;机架上还设有电控装置,电控装置连接有显示屏和声光报警器,电控装置内具有图像识别模块;
其特征在于:装夹拍摄机构包括铰接在机架顶部的相机机械臂和安装在机架中下部的装夹装置;相机机械臂由伺服电机驱动;
相机机械臂的自由端设有第一摄像头,相机机械臂的自由端或者相机机械臂上方的固定结构上设有照明灯,伺服电机、照明灯和第一摄像头均与电控装置相连接;
装夹装置包括用于装夹零件的装夹结构、用于驱动装夹部分旋转的纵向旋转结构、横向旋转结构和纵向翻转结构;
初始状态下,纵向翻转结构的翻转方向、纵向旋转结构的旋转方向以及横向旋转结构的旋转方向两两垂直;
还包括有磁粉检测装置,磁粉检测装置包括检测台,检测台一侧固定连接有储粉箱,储粉箱中存储有磁粉;检测台上具有用于放置零件的零件位置,检测台上设有电动喷枪、吸粉器和连接杆,电动喷枪的进管连接储粉箱的底部,电动喷枪的喷射方向朝向零件位置的零件;吸粉器的吸粉口朝向零件位置的零件,吸粉器的出粉口朝向储粉箱;连接杆上安装有第二摄像头,第二摄像头的拍摄方向朝向零件位置的零件;电动喷枪、吸粉器和第二摄像头均与电控装置相连接;
纵向翻转结构包括支撑架,支撑架前端向上通过转轴转动连接有底框,底框的中后部向下铰接有用于驱动底框纵向翻转的翻转气缸,翻转气缸向下与机架相铰接,翻转气缸与电控装置相连接;
横向旋转结构包括旋转用减速电机和旋转框架,旋转用减速电机的输出轴为其转动部分且其壳体为其固定部分,旋转用减速电机的固定部分和转动部分分别连接底框或旋转框架;旋转用减速电机连接电控装置;
纵向旋转结构包括固定连接在旋转框架上的安装架,安装架转动连接有平行相对设置的第一转动圈和第二转动圈,第一转动圈的一侧沿周向凸设有第一滚动导环,第二转动圈的一侧沿周向凸设有第二滚动导环;第一滚动导环下方的安装架上设有两个用于支撑第一滚动导环的第一槽轮,第一滚动导环插入第一槽轮的轮槽内;
第二滚动导环下方的安装架上设有两个用于支撑第二滚动导环的第二槽轮,第二滚动导环插入第二槽轮的轮槽内;
两个第一槽轮和两个第二槽轮组成支撑槽轮组,支撑槽轮组中至少一个槽轮连接有槽轮驱动电机且该槽轮作为主动槽轮,槽轮驱动电机与电控装置相连接;
安装架上安装有压轮,压轮向下与第一转动圈的底部内表面或第二转动圈的底部内表面相压接;
装夹结构包括固定连接在第一转动圈和第二转动圈之间的前连接板和后连接板,前连接板和后连接板之间安装有两个装夹用滚筒,两个装夹用滚筒内分别设有电磁铁,电磁铁与电控装置相连接;两个装夹用滚筒之间设有驱动用滚筒,驱动用滚筒安装在前连接板和后连接板之间,驱动用滚筒连接有滚筒驱动电机,滚筒驱动电机连接电控装置;两个装夹用滚筒用于滚动输送零件以及磁力装夹零件;拍照时滚筒驱动电机用于微调零件位置;
两个装夹用滚筒和驱动用滚筒位于同一平面,将该平面称为装夹平面;装夹结构具有对接状态,装夹结构位于对接状态时装夹平面与输入传送机构的传送面以及输出传送机构的传送面相平齐并且对接;
装夹用滚筒下方的旋转框架或安装架上设有用于检测零件的零件传感器,零件传感器与电控装置相连接;
所述输入传送机构和输出传送机构结构相同,均包括并排间隔安装在辊架上的若干传送辊,传送辊包括一个主动辊和若干从动辊,辊架安装在机架上;机架上或辊架上安装有用于驱动主动辊的辊筒驱动电机,辊筒驱动电机与电控装置相连接;
磁粉检测装置和装夹结构之间设有用于将零件转运至磁粉检测装置上的转运机械手;
基于机器视觉的零件检测方法采用加权混合深度学习目标辨识算法,加权混合深度学习目标辨识算法的元深度学习算法包括RCNN算法、Faster-RCNN算法、R-FCN算法、YOLO算法、SSD算法和DenseBox算法;加权混合深度学习目标辨识算法存储于电控装置的图像识别模块中;所述6类元深度学习算法均通过离线进行训练;
所述加权混合深度学习目标辨识算法在实时检测时,由电控装置通过第一摄像头获取零件六个表面多角度彩色图像,图像分辨率为1280像素×720像素;六个表面图像包括上表面、下表面、前表面、后表面、左表面和右表面的图像;
对零件的各表面图像均执行以下缺陷标记处理:
(1)采用RCNN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RA1,RA2,RAm;
(2)采用Faster-RCNN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RB1,RB2,RBn;
(3)采用R-FCN算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RC1,RC2,RCo;
(4)采用YOLO算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RD1,RD2,RDw;
(5)采用SSD算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RE1,RE2,REv;
(6)采用DenseBox算法,初步判断当前图像是否存在表面缺陷,并标记所述表面缺陷对应的矩形区域,具体标记为RF1,RF2,RFk;
(7)如果m、n、o、w、v和k中有四个以上的数值为0,则所述加权混合深度学习目标辨识算法判断当前图像不存在表面缺陷,否则转到流程(8);
(8)检查各元深度学习算法标记的缺陷对应的矩形区域的位置,两两判断是否相邻或重叠;对相邻或重叠的矩形区域进行合并,直到新生成的最终矩形区域均不重叠且不相邻为止,最终的矩形区域标记为RG1,RG2,RGq,并将零件的该表面标记为疑似缺陷表面;
对一个零件的六个表面均进行缺陷标记处理后,由磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测。
2.根据权利要求1所述的基于机器视觉的零件检测方法,其特征在于:磁粉检测装置对零件的每一个疑似缺陷表面进行二次检测的方法是:
电控装置控制电动喷枪将磁粉均匀喷撒在零件的疑似缺陷表面,然后控制第二摄像头对零件所有疑似缺陷表面逐一进行拍摄,得到吸附有磁粉的零件表面图像,以下简称为磁粉图像;
电控装置中的图像识别模块对零件的各磁粉图像逐一进行识别,先进行加权滤波处理,再通过多算法融合处理进行图像识别,判断该表面是否确实具有缺陷,并将判断结果显示在显示屏上;电控装置打开吸粉器,将零件表面的磁粉吸回至储粉箱中;
加权滤波处理方法是:
第一是将拍摄的磁粉图像灰度化;
拍摄零件的疑似缺陷表面的具体操作是:电控装置通过第二摄像头对准最终的矩形区域RG1,RG2,RGqq的中心位置,拍摄其荧光成像图像得到磁粉图像,图像分辨率为1280像素×720像素,对磁粉图像进行灰度化后得到灰度图像;
将灰度图像标记为f(i,j),f为当前(i,j)像素的灰度值,其中720≥i>0,且1280≥j>0;
灰度图像中,i=1、i=720、j=1和j=1280的像素为边缘像素,720>i>1且1280>j>1的像素为中部像素;
第二是均值滤波;
对于边缘像素不进行均值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用均值滤波算法,获取处理后的灰度值,将中部像素f(i,j)处理后的灰度值标记为u1;均值滤波算法是:
Figure FDA0003071825620000041
u11、u12和u13满足下式:
u11=f(i-1,j-1)+f(i-1,j)+f(i-1,j+1);
u12=f(i,j-1)+f(i,j)+f(i,j+1);
u13=f(i+1,j-1)+f(i+1,j)+f(i+1,j+1);
第三是中心值滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;
对各中部像素f(i,j),采用中心值滤波算法,获取处理后的灰度值,标记为u2;中心值滤波算法是:
Figure FDA0003071825620000042
u2m、u2avg、u2min和u2max满足下式:
u2m=median(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2avg=avg(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2min=min(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
u2max=max(f(i-1,j-1),f(i-1,j),f(i-1,j+1),f(i,j-1),f(i,j),f(i,j+1),f(i+1,j-1),f(i+1,j),f(i+1,j+1));
上式中,median为取中值函数,avg为取平均值函数,min为取最小值函数,max为取最大值函数;
第四是高斯滤波;
对于边缘像素不进行中心值滤波处理,拷贝其灰度值到处理后的新图像中;对各中部像素f(i,j),采用高斯滤波算法,获取处理后的灰度值,标记为u3;中心值滤波算法是:
Figure FDA0003071825620000051
u31,u32和u33满足下式:
u31=f(i-1,j-1)+2×f(i-1,j)+f(i-1,j+1);
u32=2×f(i,j-1)+4×f(i,j)+2×f(i,j+1);
u33=f(i+1,j-1)+2×f(i+1,j)+f(i+1,j+1);
第五是计算中部像素f(i,j)的最终的灰度值,标记为ufinal
ufinal=INT{(u1+u2+2×u3+)/4};
第六是对于灰度图像中的每一个像素,均按加权滤波处理方法的第二步骤至第五步骤,进行加权滤波处理,得到加权滤波处理后的图像g(i,j),g为处理后(i,j)像素的灰度值,其中720≥i>0且1280≥j>0。
3.根据权利要求2所述的基于机器视觉的零件检测方法,其特征在于:
对于电控装置对磁粉图像加权滤波处理后得到图像g(i,j),通过多算法融合处理进行图像识别,多算法融合处理方法是:
第一是获取灰度特征;
通过计算图像g(i,j)的灰度直方图,提取其对应的均值、方差、偏度、峰度和能量,获取加权滤波处理后的图像g(i,j)灰度特征;
第二是获得待检测图像的形状特征;
对图像g(i,j)进行二值化处理,通过连通性判断,提取二值化图像疑似缺陷区域所对应的面积、周长、高度、宽度、高宽比、矩形性和圆形性,从而获得待检测图像的形状特征;
所述高宽比为疑似缺陷区域与外切矩形的垂直高与水平宽的比值,
所述矩形性为疑似缺陷区域与外接矩形面积的比值,
所述圆形性为疑似缺陷区域周长的平方与疑似缺陷区域面积比值;
第三是获取Tamura纹理特征;
以统计的方式计算图像g(i,j)区域中的各像素及其邻域内的灰度的一阶特征、二阶特征或者高阶特征,获取Tamura纹理特征,包括粗糙度、对比度、方向度、线性度和粗略度;
第四是计算一阶矩至七阶矩;
采用Hu矩的计算流程,对图像g(i,j)灰度图像分别计算一阶矩M1、二阶矩M2、三阶矩M3、四阶矩M4、五阶矩M5、六阶矩M6和七阶矩M7;
M1=y20+y02
M2=(y20-y02)2+4y11 2
M3=(y30-3y12)2+(3y21-y03)2
M4=(y30+y12)2+(y21+y03)2
M5=(y30-3y12)(y30+y12)((y30+y12)2-(3y21-y03)2)+(3y21-y03)(y21+y03)(3(y30+y12)2-(y21+y03)2)
M6=(y20-y02)((y30+y12)2-(y21+y03)2)+4y11(y30+y12)(y21+y03)
M7=(3y21-y03)(y30+y12)((y30+y12)2-3(y21+y03)2)-(y30-3y12)(y21+y03)(3(y30+y12)2+(y21+y03)2);
上式中,
Figure FDA0003071825620000061
其中,
Figure FDA0003071825620000062
p+q=2或者p+q=3;
Figure FDA0003071825620000063
Figure FDA0003071825620000064
Figure FDA0003071825620000065
第五是AlexNet辨识并标记各类缺陷的概率;
通过离线训练,采用AlexNet深度学习算法,将图像g(i,j)均匀切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PAii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PAii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PAii(a1,b1,c1,d1)剔除,将最后留下的PAii(a1,b1,c1,d1)重新标记为PAjj(a1,b1,c1,d1);jj为整数,最大值小于等于16;
第六是ZFNet辨识并标记各类缺陷的概率;
通过离线训练,采用ZFNet深度学习算法,将图像g(i,j)均匀切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PBii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PBii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PBii(a1,b1,c1,d1)剔除,将最后留下的PBii(a1,b1,c1,d1)重新标记为PBkk(a1,b1,c1,d1);kk为整数,最大值小于等于16;
第七是VGG16辨识并标记各类缺陷的概率;
通过离线训练,采用VGG16深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PCii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0并小于等于16;
对全部PCii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PCii(a1,b1,c1,d1)剔除,将最后留下的PCii(a1,b1,c1,d1)重新标记为PCmm(a1,b1,c1,d1);mm为整数,最大值小于等于16;
第八是VGG19辨识并标记各类缺陷的概率;
通过离线训练,采用VGG19深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PDii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率,ii为整数;取值大于0且小于等于16;
对全部PDii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PDii(a1,b1,c1,d1)剔除,将最后留下的PDii(a1,b1,c1,d1)重新标记为PDnn(a1,b1,c1,d1),nn为整数,最大值小于等于16;
第九是GoogleNet辨识并标记各类缺陷的概率;
通过离线训练,采用GoogleNet深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PEii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PEii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PEii(a1,b1,c1,d1)剔除,将最后留下的PEii(a1,b1,c1,d1)重新标记为PEpp(a1,b1,c1,d1),pp为整数,最大值小于等于16;
第十是ResNet辨识并标记各类缺陷的概率;
通过离线训练,采用ResNet深度学习算法,将图像g(i,j)切割为16个图像块分别进行辨识,辨识结果为各类缺陷的概率,标记为PFii(a1,b1,c1,d1),其中a1代表气孔缺陷的概率,b1代表裂纹缺陷的概率,c1代表划痕缺陷的概率,d1代表无缺陷的概率;ii为整数,取值大于0且小于等于16;
对全部PFii(a1,b1,c1,d1)进行筛选,如果当前a1、b1和c1的值均小于0.1,则将当前PFii(a1,b1,c1,d1)剔除,将最后留下的PFii(a1,b1,c1,d1)重新标记为PFqq(a1,b1,c1,d1);qq为整数,最大值小于等于16;
第五至第十步骤不分先后顺序;
第十一是排序取大值;
对所有PAjj(a1,b1,c1,d1)、PBkk(a1,b1,c1,d1)、PCmm(a1,b1,c1,d1)、PDnn(a1,b1,c1,d1)、PEpp(a1,b1,c1,d1)和PFqq(a1,b1,c1,d1)向量,按欧式范数对其从大到小排序,取前10个向量作为深度学习特征,标记为PGrr(a1,b1,c1,d1),如果不足10个,用PG(0,0,0,1)补全。
4.根据权利要求3所述的基于机器视觉的零件检测方法,其特征在于:多算法融合处理方法还包括第十二步骤;
第十二是支持向量机融合辨识;
支持向量机SVM的输入包括:
①多算法融合处理方法第一步骤得到的灰度特征,包括均值、方差、偏度、峰度和能量;
②多算法融合处理方法第二步骤得到的形状特征,包括面积、周长、高度、宽度、高宽比、矩形性和圆形性;
③多算法融合处理方法第三步骤得到的Tamura纹理特征,包括粗糙度、对比度、方向度、线性度和粗略度;
④多算法融合处理方法第四步骤得到的Hu矩特征,包括一阶矩、二阶矩、三阶矩、四阶矩、五阶矩、六阶矩和七阶矩;
⑤多算法融合处理方法第十一步骤得到的深度学习特征,即PGrr(a1,b1,c1,d1),其中rr最大值为10;
支持向量机SVM的输出为缺陷类型向量,其中最大值对应的列即为缺陷类型或者无缺陷。
5.根据权利要求1所述的基于机器视觉的零件检测方法,其特征在于:还包括转运机械手空间三维路径控制方法,电控装置根据转运机械手空间三维路径控制方法控制转运机械手的转运动作;电控装置中预存有基于机器视觉的零件检测机构的空间模型;
机架顶部装有第一激光雷达,转运机械手上装有第二激光雷达,连接杆顶部装有第三激光雷达;
转运机械手空间三维路径控制方法按如下步骤进行:
第一步骤是构建障碍物Kriging模型;
电控装置内置有转运机械手的尺寸和关节角信息,根据空间模型,基于栅格法建立起空间环境模型,并构建障碍物模型;障碍物模型的具体构建过程包括如下子步骤:
第一子步骤是对障碍物进行拍照;
电控装置通过第一激光雷达、第二激光雷达和第三激光雷达对障碍物拍照,将障碍物的表面分别离散成10000个点,获取每一个点在空间环境模型中的空间坐标;
第二子步骤是构建Kriging模型;
电控装置从10000个点中随机选取100个点,以此100个点的X坐标和Y坐标作为设计变量,Z坐标作为响应构建障碍物的Kriging近似模型,共同构建Kriging模型;
第三子步骤是实现Kriging模型对整个障碍物的包络;
电控装置利用构建的Kriging模型预测第一步骤中10000个样本点处的Z坐标值
Figure FDA0003071825620000091
如果点
Figure FDA0003071825620000092
位于障碍物内部,则重新选点构建Kriging模型,直到障碍物边界上的所有点位于Kriging预测模型内部,实现Kriging模型对整个障碍物的包络;
第二步骤是转运机械手转运零件;电控装置判断转运机械手带动零件从起始点A到终点B的直线运动是否与Kriging模型干涉;A点通过第一激光雷达确定,B点为预先确定的检测台上的零件位置,预先存储在电控装置内;
如果不干涉,则将转运机械手的运动设置为从起点A到终点B的直线运动;
如果干涉,将直线AB与障碍物Kriging模型的相交线段邻近A点的端点设定为C点,将直线AB与障碍物Kriging模型的相交线段邻近B点的端点设定为D点;
转运机械手带动零件的运动分为如下三个子步骤:
第一子步骤是:电控装置控制转运机械手将零件从起点A沿直线移动至C点;
第二子步骤是:电控装置控制转运机械手将零件沿Kriging模型的表面由C点运动到D点;
第三子步骤是:电控装置控制转运机械手将零件沿由D点沿直线移动到B点,完成将零件由装夹拍摄机构移动至检测台的作业。
CN202110541077.XA 2021-05-18 2021-05-18 基于机器视觉的零件检测方法 Active CN113129304B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110541077.XA CN113129304B (zh) 2021-05-18 2021-05-18 基于机器视觉的零件检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110541077.XA CN113129304B (zh) 2021-05-18 2021-05-18 基于机器视觉的零件检测方法

Publications (2)

Publication Number Publication Date
CN113129304A true CN113129304A (zh) 2021-07-16
CN113129304B CN113129304B (zh) 2022-09-16

Family

ID=76782717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110541077.XA Active CN113129304B (zh) 2021-05-18 2021-05-18 基于机器视觉的零件检测方法

Country Status (1)

Country Link
CN (1) CN113129304B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723701A (zh) * 2022-03-31 2022-07-08 南通博莹机械铸造有限公司 基于计算机视觉的齿轮缺陷检测方法和系统
CN116952959A (zh) * 2023-06-06 2023-10-27 国网江苏省电力有限公司营销服务中心 一种电网建设工程用居配线缆终端检测设备
CN117565062A (zh) * 2024-01-16 2024-02-20 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202974948U (zh) * 2013-01-05 2013-06-05 大庆师范学院 零件自动化检测系统
CN103712560A (zh) * 2013-12-27 2014-04-09 镇江冈山电子有限公司 基于多个传感器信息融合的零件检测方法、系统及装置
JP2014126430A (ja) * 2012-12-26 2014-07-07 Hitachi High-Technologies Corp 欠陥検査方法および欠陥検査装置
CN105866241A (zh) * 2016-04-03 2016-08-17 武汉理工大学 机器视觉自分析轴类零件探伤装置及方法
CN109829876A (zh) * 2018-05-30 2019-05-31 东南大学 基于机器视觉的链板缺陷在线检测装置及方法
CN110017769A (zh) * 2019-03-12 2019-07-16 精诚工科汽车系统有限公司 基于工业机器人的零件检测方法及系统
CN110389127A (zh) * 2019-07-03 2019-10-29 浙江大学 一种金属陶瓷零件识别及表面缺陷检测系统和方法
CN211100241U (zh) * 2019-11-28 2020-07-28 河南智泰信息技术有限公司 一种用于瑕疵视觉检测的剔除装置
CN112184648A (zh) * 2020-09-22 2021-01-05 苏州中科全象智能科技有限公司 一种基于深度学习的活塞表面缺陷检测方法及系统
CN212622292U (zh) * 2020-07-02 2021-02-26 重庆科技学院 一种基于机器视觉的产品缺陷检测装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126430A (ja) * 2012-12-26 2014-07-07 Hitachi High-Technologies Corp 欠陥検査方法および欠陥検査装置
CN202974948U (zh) * 2013-01-05 2013-06-05 大庆师范学院 零件自动化检测系统
CN103712560A (zh) * 2013-12-27 2014-04-09 镇江冈山电子有限公司 基于多个传感器信息融合的零件检测方法、系统及装置
CN105866241A (zh) * 2016-04-03 2016-08-17 武汉理工大学 机器视觉自分析轴类零件探伤装置及方法
CN109829876A (zh) * 2018-05-30 2019-05-31 东南大学 基于机器视觉的链板缺陷在线检测装置及方法
CN110017769A (zh) * 2019-03-12 2019-07-16 精诚工科汽车系统有限公司 基于工业机器人的零件检测方法及系统
CN110389127A (zh) * 2019-07-03 2019-10-29 浙江大学 一种金属陶瓷零件识别及表面缺陷检测系统和方法
CN211100241U (zh) * 2019-11-28 2020-07-28 河南智泰信息技术有限公司 一种用于瑕疵视觉检测的剔除装置
CN212622292U (zh) * 2020-07-02 2021-02-26 重庆科技学院 一种基于机器视觉的产品缺陷检测装置
CN112184648A (zh) * 2020-09-22 2021-01-05 苏州中科全象智能科技有限公司 一种基于深度学习的活塞表面缺陷检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JING Y.等: "Real-Time Tiny Part Defect Detection System in Manufacturing Using Deep Learning", 《IEEE ACCESS》 *
谢俊 等: "基于机器视觉的孔类零件尺寸在线检测", 《电子测量技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723701A (zh) * 2022-03-31 2022-07-08 南通博莹机械铸造有限公司 基于计算机视觉的齿轮缺陷检测方法和系统
CN116952959A (zh) * 2023-06-06 2023-10-27 国网江苏省电力有限公司营销服务中心 一种电网建设工程用居配线缆终端检测设备
CN116952959B (zh) * 2023-06-06 2024-03-15 国网江苏省电力有限公司营销服务中心 一种电网建设工程用居配线缆终端检测设备
CN117565062A (zh) * 2024-01-16 2024-02-20 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统
CN117565062B (zh) * 2024-01-16 2024-03-19 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统

Also Published As

Publication number Publication date
CN113129304B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN113129304B (zh) 基于机器视觉的零件检测方法
CN106895961B (zh) 一种背光模组的检测设备及其检测方法
CN113189010B (zh) 基于机器视觉的零件检测机构及其使用方法
EP2602763B1 (en) Method for monitoring the quality of the primer layer applied on a motor-vehicle body before painting
US9047657B2 (en) Method and system for optically inspecting outer peripheral surfaces of parts
CN109675832A (zh) 一种钕铁硼磁铁尺寸及外观缺陷检测装置
CN112304960B (zh) 一种基于深度学习的高分辨率图像物体表面缺陷检测方法
KR102000906B1 (ko) 페라이트 외관 비전 검사시스템
WO2023134286A1 (zh) 一种阴极铜在线质量自动检测分类方法
US20210358112A1 (en) Vision inspection system and method of inspecting parts
CN206609797U (zh) 零件立体视觉检测机
CN106018415A (zh) 基于显微视觉的微小零件质量检测系统
CN115343289A (zh) 一种汽车总装整车坑包划伤自动检测系统及方法
CN111968100A (zh) 机器视觉检测方法与系统
CN114252452A (zh) 一种小型回转体外观缺陷和轮廓尺寸在线检测装置及方法
CN106645185A (zh) 一种智能检测工业零件表面质量的方法及装置
CN113714133A (zh) 基于机器视觉的叶片检测方法与系统
US11378520B2 (en) Auto focus function for vision inspection system
US9709371B1 (en) Ammunition inspecting system
CN206146851U (zh) 一种智能检测工业零件表面质量的装置
CN209613599U (zh) 一种钕铁硼磁铁尺寸及外观缺陷检测装置
US5903663A (en) Automatic error recognition apparatus
US20180176549A1 (en) Multi-view-angle image capturing device and multi-view-angle image inspection apparatus using the same
CN108460763B (zh) 一种磁粉探伤图像自动检测识别方法
JP2002207011A (ja) ワークの外観検査装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant