CN116862910B - 基于自动化裁切生产的视觉检测方法 - Google Patents
基于自动化裁切生产的视觉检测方法 Download PDFInfo
- Publication number
- CN116862910B CN116862910B CN202311126559.4A CN202311126559A CN116862910B CN 116862910 B CN116862910 B CN 116862910B CN 202311126559 A CN202311126559 A CN 202311126559A CN 116862910 B CN116862910 B CN 116862910B
- Authority
- CN
- China
- Prior art keywords
- window
- gray
- sliding
- corner
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 92
- 238000005520 cutting process Methods 0.000 title claims abstract description 55
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 13
- 230000002159 abnormal effect Effects 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 238000011179 visual inspection Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 5
- 238000009966 trimming Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 4
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000012216 screening Methods 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 35
- 238000009826 distribution Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 10
- 230000006978 adaptation Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 239000004744 fabric Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,具体涉及一种基于自动化裁切生产的视觉检测方法,该视觉检测方法通过图像处理技术,获取待裁切产品表面的灰度图像,确定自适应尺寸的滑窗;使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域,进而获得所有标记窗口区域;筛选出角点检测区域,确定角点检测区域的近似角点方向;根据角点检测区域和近似角点方向定位裁切位置。本发明在对图案进行定位裁切时不仅考虑到角点的位置,还考虑到了角点的方向,提高了待裁切产品图案的裁切精准度,主要应用于自动化裁切领域。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于自动化裁切生产的视觉检测方法。
背景技术
随着自动化技术的普及,越来越多的行业在生产产品的某些环节需要用到自动化机器,例如,自动化裁切。自动化裁切是指在布料上定位裁切预设好的图案,其大大加快了产品的生产效率,但是自动化裁切的精确度是在实际生产中一个十分关键的问题,基于成本考虑和人们日益提高的产品质量要求,自动化裁切的精确度一定程度上决定了最终成品的质量。
现有自动化裁切的视觉检测方法通过原始的Harris角点检测方法实现图案定位,但是原始的Harris角点检测方法的计算量较大,导致算法响应时间较长;而且,现有在使用原始的Harris角点检测方法进行图案定位时仅考虑了角点的位置,未考虑角点的方向,一定程度上造成裁切精准度较差的问题。
发明内容
为了解决上述现有自动化裁切的视觉检测方法的裁切精准度较差的技术问题,本发明的目的在于提供一种基于自动化裁切生产的视觉检测方法,所采用的技术方案具体如下:
本发明一个实施例提供了一种基于自动化裁切生产的视觉检测方法,该方法包括以下步骤:
S1,获取待裁切产品表面的灰度图像;
S2,根据灰度图像的图像特征确定自适应尺寸的滑窗;
S3,使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域;其中,所述标记窗口区域为位于待裁切产品图案边缘上的窗口区域;
S4,根据标记窗口区域的每个边缘上以及标记窗口区域内各个像素点的灰度值,确定标记窗口区域的每个边缘的异常分数;将最大异常分数的边缘确定为滑窗的滑动方向,使标记窗口区域对应的滑窗沿着所述滑动方向滑动一个预设步长,获得下一个标记窗口区域;其中,预设步长为滑窗的自适应尺寸;
S5,重复步骤S4,直至满足预设滑动停止条件,获得待裁切产品图案边缘上所有的标记窗口区域;
S6,将存在梯度方向变化像素点的标记窗口区域确定为角点检测区域;将角点检测区域边缘与待裁切产品图案边缘形成的两个交点对应的矢量方向确定为近似角点方向;
S7,根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测;根据角点检测结果定位裁切位置。
进一步地,所述根据灰度图像的图像特征确定自适应尺寸的滑窗,包括:
根据灰度图像统计所有像素点的总数目,根据所有像素点的总数目确定灰度图像的分辨率指标;
确定灰度图像的最大内接矩形的中心位置和最大外接圆形的圆心位置,计算最大内接矩形中心和最大外接圆形圆心的距离;根据最大内接矩形中心和最大外接圆形圆心的距离,确定灰度图像的规则程度指标;
计算分辨率指标和规则程度指标的乘积,将向上取整后的乘积确定为自适应尺寸,按照自适应尺寸构建滑窗。
进一步地,所述灰度图像的分辨率指标的计算公式为:
式中,为灰度图像的分辨率指标,N为灰度图像中所有像素点的总数目,/>为对数函数。
进一步地,所述灰度图像的规则程度指标的计算公式为:
式中,为灰度图像的规则程度指标,L为最大内接矩形中心和最大外接圆形圆心的距离。
进一步地,所述使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域,包括:
滑窗沿着灰度图像中相对称的两条对角线,按照预设步长,进行滑动;在滑窗滑动过程中,当滑窗位于基准线上时,向灰度图像的垂直中心线方向滑动,否则垂直向下滑动;
根据滑窗每次滑动后对应的窗口区域内每个像素点的灰度值确定窗口区域的信息熵,若存在某个窗口区域的信息熵大于与其相邻的前一次滑动和后一次滑动后对应的窗口区域的信息熵,则将对应的某个窗口区域确定为标记窗口区域。
进一步地,所述根据标记窗口区域的每个边缘上以及标记窗口区域内各个像素点的灰度值,确定标记窗口区域的每个边缘的异常分数,包括:
将标记窗口区域的任意一个边缘确定为选定边缘,根据选定边缘上各个像素点的灰度值确定最大灰度值和最小灰度值,将最大灰度值与最小灰度值的差值确定为选定边缘的灰度对比度;
确定选定边缘的灰度标准差;根据选定边缘的灰度对比度、灰度标准差、边缘上每个像素点的灰度值以及标记窗口区域内每个像素点的灰度值,确定标记窗口区域的选定边缘的异常分数。
进一步地,所述标记窗口区域的选定边缘的异常分数的计算公式为:
式中,S为标记窗口区域的选定边缘的异常分数,e为自然常数,为选定边缘的灰度对比度,/>为选定边缘的灰度标准差,m为选定边缘上所有像素点的个数,/>为选定边缘上第k个像素点的灰度值,k为选定边缘上像素点的序号,/>为标记窗口区域内第j个像素点的灰度值,/>为标记窗口区域内所有像素点的个数,j为标记窗口区域内像素点的序号。
进一步地,所述预设滑动停止条件为:
在滑窗滑动过程中,记录标记窗口区域内所有像素点的位置,构成已标记像素位置集合;在滑窗每次滑动后,通过已标记像素位置集合,判断当前滑窗对应的标记窗口区域内所有像素点是否已被标记;若已被标记,则舍弃当前滑动对应的标记窗口区域,判定滑窗滑动停止。
进一步地,所述根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测,包括:
对各个角点检测区域进行角点检测,获得各个角点检测区域内的每个角点;将角点检测区域内的每个角点的灰度梯度方向与对应的近似角点方向相结合,将结合后的方向确定为对应的角点的标记方向,从而获得各个角点检测区域内各角点的位置和各角点的标记方向。
进一步地,所述待裁切产品表面的灰度图像的获取步骤包括:
获取待裁切产品表面的彩色图像,对彩色图像进行灰度化处理,获得初始灰度图像;
对初始灰度图像进行降噪和均衡化处理,获得待裁切产品表面的灰度图像。
本发明具有如下有益效果:
本发明提供了一种基于自动化裁切生产的视觉检测方法,该视觉检测方法利用图像处理技术,确定图案边缘上的角点检测区域,相比传统对全局进行角点检测,仅对角点检测区域进行角点检测分析,有助于减少角点检测的计算量,缩短角点检测算法的响应时间,进一步提高自动化裁切生产的效率;现有的裁切生产的视觉检测方法在进行角点检测时,只考虑了角点的位置,而未考虑角点的方向,一定程度上造成检测精准新较差的结果,本发明根据角点检测区域边缘与图案边缘形成的两个交点对应的矢量方向确定了近似角点方向;近似角点方向提供了角点周围像素的分布特性,通过近似角点方向可以在一定程度上提高鲁棒性,减少对单个像素方向的依赖,稳定角点标记的方向,有助于获得更准确的角点检测结果,便于进行更精准的定位裁切。本发明在对图案进行定位裁切时不仅考虑到角点的位置,还考虑到了角点的方向,提高了待裁切产品图案的裁切精准度,主要应用于自动化裁切领域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一种基于自动化裁切生产的视觉检测方法的流程图;
图2为本发明实施例中不同角度的基准线的示例图;
图3为本发明实施例中两个滑窗沿不同角度的基准线滑动的示例图;
图4为本发明实施例中最后一次滑动后的窗口区域位于目标区域内的示例图;
图5为本发明实施例中近似角点方向对应的示例图;
图6为本发明实施例中角点的标记方向的示例图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的技术方案的具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一个实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
本发明所针对的具体场景为:产品在自动化裁切时,通过Harris角点检测对产品图案进行裁切定位,该裁切定位过程的计算量较大,而且在进行图案定位时仅考虑了角点的位置,未考虑角点的方向,一定程度上造成裁切精准度较差。为了改进上述裁切定位时存在的缺陷,在进行Harris角点检测时,仅对图案边缘上的角点检测区域进行角点检测,其有助于减少需要计算的像素点数量,降低传统检测需要的计算量;根据角点检测区域边缘交点结合区域内灰度值梯度方向确定角点的标记方向,其可以提高图案裁切的精准度。
本实施例提供了一种基于自动化裁切生产的视觉检测方法,如图1所示,包括以下步骤:
S1,获取待裁切产品表面的灰度图像。
在产品生产过程中,电荷耦合器件工业相机(Charge Coupled Device,CCD)通过俯视视角,采集到待裁切产品表面的彩色图像。其中,待裁切产品可以为布料,布料中仅存在一个图案,以简化裁切过程并提高裁切的准确性,图案的位置一般位于布料的中心附近。为了便于后续分析待裁切产品的图像特征,对彩色图像进行预处理,包括:
首先,对彩色图像进行灰度化处理,获得初始灰度图像;其次,对初始灰度图像进行降噪和均衡化处理,获得预处理后的灰度图像,即待裁切产品表面的灰度图像。灰度化、降噪和均衡化处理的实现过程为现有技术,此处不再进行详细阐述。
值得说明的是,实施例后续描述的灰度图像均为降噪和均衡化处理后的灰度图像。
S2,根据灰度图像的图像特征确定自适应尺寸的滑窗。
需要说明的是,对待裁切产品表面的灰度图像使用滑动窗口,滑动窗口即为滑窗,需要根据灰度图像的图像特征自适应确定滑窗尺寸大小。原因在于,只针对待裁切产品图案边缘进行角点检测,所以利用滑窗是为了先接触到需要进行角点检测的图案边缘,减少不必要的计算量,提高自动化裁切的效率;在自动化裁切定位中,待裁切成产品表面的灰度图像的图像特征,分析在灰度图像上滑动的滑窗的尺寸大小。灰度图像的图像特征不同,灰度图像中的图案边缘不同,滑窗的尺寸不同,一些图案本身由于边缘复杂性和图案大小不同,故需要设置不同尺寸的滑窗。
第一步,根据灰度图像统计所有像素点的总数目,根据所有像素点的总数目确定灰度图像的分辨率指标。
作为示例,灰度图像的分辨率指标的计算公式为:
式中,为灰度图像的分辨率指标,N为灰度图像中所有像素点的总数目,/>为对数函数。
在分辨率指标的计算公式中,灰度图像中所有像素点的总数目越多N,灰度图像的分辨率越高;对于分辨率较高的灰度图像,滑窗的自适应尺寸过小时会使滑动次数增多,相当于增加了计算量;故灰度图像的分辨率指标越大,自适应尺寸越大;利用对数函数进行数值转换可以压缩数值范围,将数值较大的所有像素点的总数目N转换为一个相对较小的数值;因为对数函数在0附近的定义不明确,加一是为了避免灰度图像中所有像素点的总数目N为0时出现无效结果。
第二步,确定灰度图像的最大内接矩形的中心位置和最大外接圆形的圆心位置,计算最大内接矩形中心和最大外接圆形圆心的距离;根据最大内接矩形中心和最大外接圆形圆心的距离,确定灰度图像的规则程度指标。
在本实施例中,首先,做灰度图像的最大内接矩形和最大外接圆形,最大内接矩形和最大外接圆形的确定过程为现有技术,此处不再进行赘述;其次,对灰度图像构建坐标系;接着,根据构建的坐标系确定最大内接矩形的中心坐标位置和最大外接圆形的圆心坐标位置;然后,根据中心坐标位置和圆心坐标位置,计算最大内接矩形中心和最大外接圆形圆心之间的欧氏距离,两点之间欧氏距离的计算过程为现有技术;最后,根据最大内接矩形中心和最大外接圆形圆心的距离,确定灰度图像的规则程度指标。
作为示例,灰度图像的规则程度指标的计算公式可以为:
式中,为灰度图像的规则程度指标,L为最大内接矩形中心和最大外接圆形圆心的距离。
在规则程度指标的计算公式中,最大内接矩形中心和最大外接圆形圆心的距离L可以体现灰度图像的规则程度,距离越大,灰度图像越不规则,灰度图像中图案边缘越复杂,自适应尺寸越小;规则程度指标作为自适应尺寸的系数,最大值不超过2,L+1是为了防止中心坐标位置和圆心坐标位置重合,导致出现距离为0的情况,其有助于避免分数分母为0的特殊情况。
第三步,计算分辨率指标和规则程度指标的乘积,将向上取整后的乘积确定为自适应尺寸,按照自适应尺寸构建滑窗。
作为示例,自适应尺寸的计算公式可以为:
式中,m为滑窗的自适应尺寸,为灰度图像的分辨率指标,/>为灰度图像的规则程度指标,/>为向上取整符号。
在自适应尺寸的计算公式中,灰度图像的分辨率指标与自适应尺寸m为正相关关系,分辨率指标/>越大,自适应尺寸m越大;规则程度指标/>与自适应尺寸m也为正相关关系,规则程度指标/>越大,自适应尺寸m越大;向上取整是为了避免滑窗尺寸过小,造成计算量较大的情况。
在获得滑窗的自适应尺寸m后,利用自适应尺寸m构建尺寸为的滑窗。基于图像的图像特征,即分辨率和规则程度,确定滑窗的自适应尺寸,具有较强的鲁棒性,同时减少了滑窗运行过程中的计算量,便于提高自动化裁切的效率。
S3,使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域。
需要说明的是,在对待裁切产品的图案边缘进行角点检测时,仅对图案边缘部分进行分析,故需要滑窗滑动到图案上。为了便于滑窗快速接触到图案边缘,本实施例通过设置滑窗滑动规则来实现,具体为:
在本实施例中,大多数CCD相机采用传统4:3比例进行图像采集,因此相机区域内拍摄的待裁切产品表面的灰度图像为长方形,不同角度的基准线可以为灰度图像中相对称的两条对角线,不同角度的基准线的示例图如图2所示。
滑窗的滑动方向可以分为多种情况,例如,一个滑窗沿着对角线从左上角到右下角进行滑动,另外一个滑窗沿着对角线从右上角到左下角进行滑动;又如,一个滑窗沿着对角线从右下角到左上角进行滑动,另外一个滑窗沿着对角线从左下角到右上角进行滑动。以第一个情况为例,描述标记窗口区域的获取步骤,包括:在灰度图像的左上角和右上角设置两个滑窗,两个滑窗同时滑动;一个滑窗沿着对角线/>从左上角到右下角进行滑动,另外一个滑窗/>沿着对角线/>从右上角到左下角进行滑动,每次滑动的滑动步长为一个滑动窗口,即自适应尺寸m。
第一,在滑窗滑动过程中,预设滑动规则可以为当滑窗位于基准线上时,向灰度图像的垂直中心线方向滑动,否则垂直向下滑动,两个滑窗沿不同角度的基准线滑动的示例图如图3所示,具体实现步骤可以包括:
当滑窗接触到对角线/>时,滑窗/>向右边滑动一个步长,直到滑窗/>没有接触到对角线/>。当滑窗/>没有接触到对角线/>时,滑窗/>向下滑动一个步长,直到滑窗/>接触到对角线/>,不断重复上述滑窗/>的滑动步骤,直至滑窗/>滑动到图案边缘上。
当滑窗接触到对角线/>时,滑窗/>向左边滑动一个步长,直到滑窗/>没有接触到对角线/>。当滑窗/>没有接触到对角线/>时,滑窗/>向下滑动一个步长,直到滑窗/>接触到对角线/>,不断重复上述滑窗/>的滑动步骤,直至滑窗/>滑动到图案边缘上。
值得说明的是,位于灰度图像左上角的滑窗在滑动过程中,接触到对角线向右滑动,即向灰度图像的垂直中心线方向滑动;而位于灰度图像右上角的滑窗在滑动过程中,接触到对角线向左滑动,即灰度图像的垂直中心线方向滑动。图案一般位于待裁切产品表面的中心位置附近,所以沿着两条对角线可以接触到图案边缘。
第二,在滑窗滑动过程中,需要判断每次滑动后的滑窗是否接触到图案边缘,即确定标记窗口区域,具体步骤包括:
根据滑窗每次滑动后对应的窗口区域内每个像素点的灰度值确定窗口区域的信息熵,若存在某个窗口区域的信息熵大于与其相邻的前一次滑动和后一次滑动后对应的窗口区域的信息熵,则将对应的某个窗口区域确定为标记窗口区域。
值得说明的是,确定标记窗口区域的依据可以为:标记窗口区域包含图案边缘外区域和图案边缘内区域的像素灰度,其说明包含了图案边缘的窗口区域内的像素点灰度分布较为混乱,信息熵较大;与标记窗口区域相邻两个区域,图案边缘外区域和图案边缘内区域的灰度值分布不同,但两个区域的信息熵均较小,两个区域的信息熵必然小于标记窗口区域的信息熵。
作为示例,滑窗第i次滑动后对应的窗口区域为,与窗口区域/>相邻的前一次滑动后对应的窗口区域为/>,与窗口区域/>相邻的后一次滑动后对应的窗口区域为。计算窗口区域/>、窗口区域/>以及窗口区域/>的信息熵,若窗口区域/>的信息熵大于窗口区域/>和窗口区域/>的信息熵,则说明窗口区域/>在图案边缘上,判定窗口区域/>为标记窗口区域。标记窗口区域为位于待裁切产品图案边缘上的窗口区域。
需要说明的是,两个基准线对应的滑窗,任意一个滑窗滑动到图案边缘上时,则停止滑窗向图案边缘上滑动,将先滑到图案边缘上的滑窗对应的窗口区域做标记,确定为标记窗口区域。滑窗从初始位置开始滑动到图案边缘停止时,会多滑一个步长,使最后一次滑动后的窗口区域位于目标区域内,最后一次滑动后的窗口区域位于目标区域内的示例图如图4所示,在图4中的目标区域为类似云朵形状的区域,目标区域即为待裁切产品的图案区域。
S4,根据标记窗口区域的每个边缘上以及标记窗口区域内各个像素点的灰度值,确定标记窗口区域的每个边缘的异常分数;将最大异常分数的边缘确定为滑窗的滑动方向,使标记窗口区域对应的滑窗沿着滑动方向滑动一个预设步长,获得下一个标记窗口区域。
需要说明的是,在接触到图案边缘时再变化下一次滑动的滑动方向,使滑窗能够沿着图案边缘附近滑动。位于图案边缘附近的边缘像素点呈现渐变状态,故可以对标记窗口区域的每个边缘上的像素点变化情况进行分析,标记窗口区域对应4个边缘,确定标记窗口区域的每个边缘的异常分数,具体实现步骤可以包括:
第一步,将标记窗口区域的任意一个边缘确定为选定边缘,根据选定边缘上各个像素点的灰度值确定最大灰度值和最小灰度值,将最大灰度值与最小灰度值的差值确定为选定边缘的灰度对比度。
第二步,确定选定边缘的灰度标准差;根据选定边缘的灰度对比度、灰度标准差、边缘上每个像素点的灰度值以及标记窗口区域内每个像素点的灰度值,确定标记窗口区域的选定边缘的异常分数。
需要说明的是,异常分数可以表征靠近图案区域的程度,异常分数的计算对象是标记窗口区域的4个边缘,异常分数可以用于确定标记窗口区域对应的滑窗下一次滑动的方向,异常分数越大,对应的边缘越有可能是滑窗下一次滑动的方向。在计算异常分数时,从两个方面进行分析,一方面是标记窗口区域边缘上像素灰度分布分散程度和对比度,另一方面是标记窗口区域边缘上的像素灰度与标记窗口区域内的像素灰度之间的差异。
作为示例,标记窗口区域的选定边缘的异常分数的计算公式可以为:
式中,S为标记窗口区域的选定边缘的异常分数,e为自然常数,为选定边缘的灰度对比度,/>为选定边缘的灰度标准差,m为选定边缘上所有像素点的个数,/>为选定边缘上第k个像素点的灰度值,k为选定边缘上像素点的序号,/>为标记窗口区域内第j个像素点的灰度值,/>为标记窗口区域内所有像素点的个数,j为标记窗口区域内像素点的序号。
对异常分数的计算公式进行分析,包括:
第一,灰度对比度、灰度标准差/>与异常分数为正相关关系;灰度对比度/>是选定边缘上的最大灰度值和最小灰度值之间的差值,灰度对比度越大,说明选定边缘上像素灰度分布差距较大,靠近图案边缘的可能性较大,也就是选定边缘包含图案边缘的可能性较大,异常分数S较大;灰度标准差/>可以反映选定边缘上像素点灰度值的稳定状态,当灰度标准差/>越小,选定边缘上像素点灰度值分布越稳定,靠近图案边缘的可能性越小,异常分数S越小;当灰度对比度/>大但灰度标准差/>小时,说明在计算灰度对比度时出现灰度值偏大或灰度值偏小的像素点,但整体的灰度分布较为稳定;当灰度对比度/>大且灰度标准差/>大时,说明选定边缘上的像素灰度分布较为分散且极值差距较大,异常分数较高。
第二,将作为选定边缘的异常分数系数,和/>的最大值均为0.5,当灰度对比度/>和灰度标准差/>越大时,异常分数系数越大;/>可以表征选定边缘的像素灰度普遍分布情况,可以表征选定边缘所在的标记窗口区域的像素灰度普遍分布情况,两者差异越大,说明选定边缘的像素灰度分布与选定边缘所在的标记窗口区域像素灰度分布越不相同,越不相同说明选定边缘越靠近图案区域,异常分数越大。
在获得标记窗口区域的选定边缘的异常分数后,参考选定边缘的异常分数的确定过程,可以获得标记窗口区域的每个边缘的异常分数,将最大异常分数的边缘确定为滑窗的滑动方向,使标记窗口区域对应的滑窗沿着滑动方向滑动一个预设步长,预设步长即为滑窗的自适应尺寸,可以获得下一个标记窗口区域。
S5,重复步骤S4,直至满足预设滑动停止条件,获得待裁切产品图案边缘上所有的标记窗口区域。
其中,预设滑动停止条件可以为:
在滑窗滑动过程中,记录标记窗口区域内所有像素点的位置,构成已标记像素位置集合;在滑窗每次滑动后,通过已标记像素位置集合,判断当前滑窗对应的标记窗口区域内所有像素点是否已被标记;若已被标记,则舍弃当前滑动对应的标记窗口区域,判定滑窗滑动停止。
在本实施例中,标记窗口对应的滑窗滑动过程中,记录下标记窗口区域内所有像素点的位置,构成已标记像素位置集合,已标记像素位置集合可以使用二维数组或是类似的数据结构来表示,随着滑窗地不断滑动,二维数组不断增加新的标记窗口区域内所有像素点的位置;在滑窗每次滑动后,通过已标记像素位置集合,判断当前滑窗对应的标记窗口区域内所有像素点是否已被标记,若当前滑窗对应的标记窗口区域内所有像素点的位置在已标记像素位置集合已经出现过一次,则说明当前滑窗对应的标记窗口区域已被标记;若已被标记,说明滑窗已经沿着图案边缘完整一周的滑动,也就是在图案边缘上,当前滑动对应的标记窗口区域与第一个标记窗口区域重复,则舍弃当前滑动对应的标记窗口区域,判定当前的所有标记窗口区域已经完全覆盖图案边缘,即可以判定滑窗滑动停止。
S6,将存在梯度方向变化像素点的标记窗口区域确定为角点检测区域;将角点检测区域边缘与待裁切产品图案边缘形成的两个交点对应的矢量方向确定为近似角点方向。
在本实施例中,角点检测是通过检测图像中像素周围的梯度变化来确定角点位置,传统的角点检测算法通常会将角点标记为梯度方向变化较大的像素位置,故将存在梯度方向变化像素点的标记窗口区域确定为真正需要进行角点检测的区域,即角点检测区域。角点检测区域边缘与待裁切产品图案边缘有两个交点,根据两个交点的位置确定矢量方向,由于两个交点的位置为梯度变化较大的像素点位置,所以可以将两个交点对应的矢量方向确定为近似角点方向。其中,每个角点检测区域均有其对应的近似角点方向,近似角点方向可以用于指导角点检测过程。近似角点方向对应的示例图如图5所示。
需要说明的是,近似角点方向是指通过局部特征描述符或周围像素的方向信息来估计角点的主要方向。近似角点方向可以提供更准确的角点标记方向,因为它们考虑了角点周围更大范围内像素的分布特性;近似角点方向有助于解决仅基于单个像素点灰度梯度可能存在的不确定性和噪声影响,提高了角点标记的准确性和稳定性。
S7,根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测;根据角点检测结果定位裁切位置。
第一步,根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测。
在本实施例中,角点检测在对弯曲边缘进行检测时,将曲线边缘上的角点作为噪声点或非角点处理,而且Harris角点检测只考虑了角点的位置,没有考虑角点的方向,导致后续基于角点结果进行的定位裁切的精准性较差。为了提高角点检测结果的准确性和完整性,结合近似角点方向,对各个角点检测区域进行角点检测,具体为:
利用Harris角点检测,对各个角点检测区域进行角点检测,获得各个角点检测区域内的每个角点;将角点检测区域内的每个角点的灰度梯度方向与对应的近似角点方向相结合,将结合后的方向确定为对应的角点的标记方向,从而获得各个角点检测区域内各角点的位置和各角点的标记方向。Harris角点检测的实现方法为现有技术,不在本发明保护范围,此处不再进行详细阐述。两个方向相结合的过程为现有技术,此处不再进行详细阐述。角点的标记方向的示例图如图6所示。
需要说明的是,第一,对各个角点检测区域进行角点检测,可以缩小并圈定进行角点检测的区域范围,相比传统对全局进行角点检测,对各个角点检测区域进行角点检测,有助于快速准确地定位角点,减少不必要的计算量。第二,角点的标记方向结合角点的灰度梯度方向和近似角点方向,灰度梯度方向可以帮助区分角点与边缘、纹理等其他图像特征,通过考虑灰度梯度方向,可以检测到在角点周围有显著灰度变化的区域。第三,两个方向相结合可以获得更全面的角点方向信息,灰度梯度方向提供了局部像素的灰度变化信息,近似角点方向提供了角点周围像素的分布特性。结合这两个方向可以综合考虑局部灰度变化和周围像素分布的特征,从而更准确地确定角点的标记方向。第四,若单独使用灰度梯度方向可能存在一些局限性,通过结合近似角点方向,可以在一定程度上提高鲁棒性,减少对单个像素方向的依赖。最重要是的是,近似角点方向可以稳定角点标记的方向,便于后续进行更精准的定位裁切。
第二步,根据角点检测结果定位裁切位置。
在本实施例中,基于待裁切产品表面中各个角点的位置和标记方向,可以更精准地定位待裁切产品中图案的裁切位置,完成待裁切产品图案的自动化裁切。
至此,本发明完成。
本发明提供了一种基于自动化裁切生产的视觉检测方法,该方法通过确定图案边缘上的所有角点检测区域,后续仅对角点区域进行角点检测,其减少了角点检测时的计算量;根据角点检测区域内每个像素点的灰度梯度变化特征、角点检测区域边缘与图案边缘相交时的交点位置,确定角点标记方向;在进行图案定位裁切时,基于角点位置和角点标记方向确定裁切位置,完成自动化裁切生产。本发明通过确定的角点标记方向,显著提高图案的裁切精准度。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于自动化裁切生产的视觉检测方法,其特征在于,包括以下步骤:
S1,获取待裁切产品表面的灰度图像;
S2,根据灰度图像的图像特征确定自适应尺寸的滑窗;
S3,使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域;其中,所述标记窗口区域为位于待裁切产品图案边缘上的窗口区域;
S4,根据标记窗口区域的每个边缘上以及标记窗口区域内各个像素点的灰度值,确定标记窗口区域的每个边缘的异常分数;将最大异常分数的边缘确定为滑窗的滑动方向,使标记窗口区域对应的滑窗沿着所述滑动方向滑动一个预设步长,获得下一个标记窗口区域;其中,预设步长为滑窗的自适应尺寸;
S5,重复步骤S4,直至满足预设滑动停止条件,获得待裁切产品图案边缘上所有的标记窗口区域;
S6,将存在梯度方向变化像素点的标记窗口区域确定为角点检测区域;将角点检测区域边缘与待裁切产品图案边缘形成的两个交点对应的矢量方向确定为近似角点方向;
S7,根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测;根据角点检测结果定位裁切位置。
2.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述根据灰度图像的图像特征确定自适应尺寸的滑窗,包括:
根据灰度图像统计所有像素点的总数目,根据所有像素点的总数目确定灰度图像的分辨率指标;
确定灰度图像的最大内接矩形的中心位置和最大外接圆形的圆心位置,计算最大内接矩形中心和最大外接圆形圆心的距离;根据最大内接矩形中心和最大外接圆形圆心的距离,确定灰度图像的规则程度指标;
计算分辨率指标和规则程度指标的乘积,将向上取整后的乘积确定为自适应尺寸,按照自适应尺寸构建滑窗。
3.根据权利要求2所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述灰度图像的分辨率指标的计算公式为:
式中,为灰度图像的分辨率指标,N为灰度图像中所有像素点的总数目,/>为对数函数。
4.根据权利要求2所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述灰度图像的规则程度指标的计算公式为:
式中,为灰度图像的规则程度指标,L为最大内接矩形中心和最大外接圆形圆心的距离。
5.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述使滑窗沿着设置的不同角度的基准线,根据预设滑动规则进行滑动,直至获得标记窗口区域,包括:
滑窗沿着灰度图像中相对称的两条对角线,按照预设步长,进行滑动;在滑窗滑动过程中,当滑窗位于基准线上时,向灰度图像的垂直中心线方向滑动,否则垂直向下滑动;
根据滑窗每次滑动后对应的窗口区域内每个像素点的灰度值确定窗口区域的信息熵,若存在某个窗口区域的信息熵大于与其相邻的前一次滑动和后一次滑动后对应的窗口区域的信息熵,则将对应的某个窗口区域确定为标记窗口区域。
6.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述根据标记窗口区域的每个边缘上以及标记窗口区域内各个像素点的灰度值,确定标记窗口区域的每个边缘的异常分数,包括:
将标记窗口区域的任意一个边缘确定为选定边缘,根据选定边缘上各个像素点的灰度值确定最大灰度值和最小灰度值,将最大灰度值与最小灰度值的差值确定为选定边缘的灰度对比度;
确定选定边缘的灰度标准差;根据选定边缘的灰度对比度、灰度标准差、边缘上每个像素点的灰度值以及标记窗口区域内每个像素点的灰度值,确定标记窗口区域的选定边缘的异常分数。
7.根据权利要求6所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述标记窗口区域的选定边缘的异常分数的计算公式为:
式中,S为标记窗口区域的选定边缘的异常分数,e为自然常数,为选定边缘的灰度对比度,/>为选定边缘的灰度标准差,m为选定边缘上所有像素点的个数,/>为选定边缘上第k个像素点的灰度值,k为选定边缘上像素点的序号,/>为标记窗口区域内第j个像素点的灰度值,/>为标记窗口区域内所有像素点的个数,j为标记窗口区域内像素点的序号。
8.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述预设滑动停止条件为:
在滑窗滑动过程中,记录标记窗口区域内所有像素点的位置,构成已标记像素位置集合;在滑窗每次滑动后,通过已标记像素位置集合,判断当前滑窗对应的标记窗口区域内所有像素点是否已被标记;若已被标记,则舍弃当前滑动对应的标记窗口区域,判定滑窗滑动停止。
9.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述根据各个角点检测区域和各个近似角点方向,对灰度图像进行角点检测,包括:
对各个角点检测区域进行角点检测,获得各个角点检测区域内的每个角点;将角点检测区域内的每个角点的灰度梯度方向与对应的近似角点方向相结合,将结合后的方向确定为对应的角点的标记方向,从而获得各个角点检测区域内各角点的位置和各角点的标记方向。
10.根据权利要求1所述的一种基于自动化裁切生产的视觉检测方法,其特征在于,所述待裁切产品表面的灰度图像的获取步骤包括:
获取待裁切产品表面的彩色图像,对彩色图像进行灰度化处理,获得初始灰度图像;
对初始灰度图像进行降噪和均衡化处理,获得待裁切产品表面的灰度图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311126559.4A CN116862910B (zh) | 2023-09-04 | 2023-09-04 | 基于自动化裁切生产的视觉检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311126559.4A CN116862910B (zh) | 2023-09-04 | 2023-09-04 | 基于自动化裁切生产的视觉检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116862910A CN116862910A (zh) | 2023-10-10 |
CN116862910B true CN116862910B (zh) | 2023-11-21 |
Family
ID=88219404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311126559.4A Active CN116862910B (zh) | 2023-09-04 | 2023-09-04 | 基于自动化裁切生产的视觉检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116862910B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117291985B (zh) * | 2023-11-24 | 2024-03-15 | 青岛宜霖赛瑞智能科技有限公司 | 一种零件冲孔的图像定位方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331910A (zh) * | 2014-11-24 | 2015-02-04 | 沈阳建筑大学 | 一种基于机器视觉的轨道障碍物检测系统 |
CN105046252A (zh) * | 2014-11-21 | 2015-11-11 | 华中科技大学 | 一种人民币冠字码识别方法 |
WO2019134252A1 (zh) * | 2018-01-03 | 2019-07-11 | 东南大学 | 结构裂缝自动化描绘及宽度精准测量方法与设备 |
CN110348263A (zh) * | 2019-06-24 | 2019-10-18 | 西安理工大学 | 一种基于图像识别的二维随机码图像识别与提取方法 |
CN114372992A (zh) * | 2021-12-02 | 2022-04-19 | 北京理工大学 | 一种基于动平台的边缘角点检测四目视觉算法 |
CN115035071A (zh) * | 2022-06-17 | 2022-09-09 | 浙江理工大学 | 一种pad导光板黑点缺陷的视觉检测方法 |
CN115063423A (zh) * | 2022-08-18 | 2022-09-16 | 启东市嘉信精密机械有限公司 | 基于计算机视觉的机械铸件冷热裂纹自适应辨别方法 |
CN115170576A (zh) * | 2022-09-09 | 2022-10-11 | 山东中发新材料科技有限公司 | 基于机器视觉的铝管表面缺陷检测方法 |
CN115393354A (zh) * | 2022-10-27 | 2022-11-25 | 江苏集宿智能装备有限公司 | 一种激光切割缺陷识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019105293A1 (de) * | 2019-03-01 | 2020-09-03 | Hochschule RheinMain University of Applied Sciences Wiesbaden Rüsselsheim Geisenheim | Schätzung der Bewegung einer Bildposition |
CN111243032B (zh) * | 2020-01-10 | 2023-05-12 | 大连理工大学 | 一种棋盘格角点全自动检测方法 |
CN111260731B (zh) * | 2020-01-10 | 2023-05-12 | 大连理工大学 | 一种棋盘格亚像素级角点自适应检测的方法 |
CN112950508B (zh) * | 2021-03-12 | 2022-02-11 | 中国矿业大学(北京) | 一种基于计算机视觉的排水管道视频数据修复方法 |
-
2023
- 2023-09-04 CN CN202311126559.4A patent/CN116862910B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046252A (zh) * | 2014-11-21 | 2015-11-11 | 华中科技大学 | 一种人民币冠字码识别方法 |
CN104331910A (zh) * | 2014-11-24 | 2015-02-04 | 沈阳建筑大学 | 一种基于机器视觉的轨道障碍物检测系统 |
WO2019134252A1 (zh) * | 2018-01-03 | 2019-07-11 | 东南大学 | 结构裂缝自动化描绘及宽度精准测量方法与设备 |
CN110348263A (zh) * | 2019-06-24 | 2019-10-18 | 西安理工大学 | 一种基于图像识别的二维随机码图像识别与提取方法 |
CN114372992A (zh) * | 2021-12-02 | 2022-04-19 | 北京理工大学 | 一种基于动平台的边缘角点检测四目视觉算法 |
CN115035071A (zh) * | 2022-06-17 | 2022-09-09 | 浙江理工大学 | 一种pad导光板黑点缺陷的视觉检测方法 |
CN115063423A (zh) * | 2022-08-18 | 2022-09-16 | 启东市嘉信精密机械有限公司 | 基于计算机视觉的机械铸件冷热裂纹自适应辨别方法 |
CN115170576A (zh) * | 2022-09-09 | 2022-10-11 | 山东中发新材料科技有限公司 | 基于机器视觉的铝管表面缺陷检测方法 |
CN115393354A (zh) * | 2022-10-27 | 2022-11-25 | 江苏集宿智能装备有限公司 | 一种激光切割缺陷识别方法 |
Non-Patent Citations (4)
Title |
---|
Fusion of local and global features for effective image extraction;Khawaja Tehseen Ahmed;《Applied Intelligence》;全文 * |
一种基于Harris特征点检测的改进算法;卢伟家;刘缠牢;;仪表技术与传感器(第12期);全文 * |
利用Gabor方向导数相关矩阵的角点检测;朱战立;《计算机应用》;第33卷(第10期);全文 * |
图像融合中角点检测技术研究;李桐;;北京印刷学院学报(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116862910A (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626190B (zh) | 基于聚类分区进行刻度识别的水位监测方法 | |
CN112949564B (zh) | 一种基于深度学习的指针式仪表自动读数方法 | |
US11551341B2 (en) | Method and device for automatically drawing structural cracks and precisely measuring widths thereof | |
US20210374466A1 (en) | Water level monitoring method based on cluster partition and scale recognition | |
CN108764229B (zh) | 一种基于计算机视觉技术的水尺图像自动识别方法 | |
CN111862037A (zh) | 基于机器视觉的精密孔类零件几何特征检测方法及系统 | |
CN112651968B (zh) | 一种基于深度信息的木板形变与凹坑检测方法 | |
CN116862910B (zh) | 基于自动化裁切生产的视觉检测方法 | |
CN115601365B (zh) | 用于数控机床的轴承检测方法 | |
CN114549981A (zh) | 一种基于深度学习的智能巡检指针式仪表识别及读数方法 | |
CN109708658B (zh) | 一种基于卷积神经网络的视觉里程计方法 | |
CN109034170B (zh) | 一种开关柜检测装置的圆形指针式仪表读数方法 | |
CN109359604B (zh) | 面向巡检机器人的阴影干扰下仪表识别方法 | |
CN116958125B (zh) | 基于图像处理的电竞主机电源元件缺陷视觉检测方法 | |
CN114005108A (zh) | 一种基于坐标变换的指针式仪表度数识别方法 | |
CN107230212B (zh) | 一种基于视觉的手机尺寸的测量方法及系统 | |
CN113592839B (zh) | 基于改进Faster RCNN的配网线路典型缺陷诊断方法及系统 | |
CN113705564B (zh) | 一种指针式仪表识别读数方法 | |
CN111178405A (zh) | 一种融合多种神经网络的相似物体识别方法 | |
CN114004858A (zh) | 基于机器视觉识别航空线缆表面编码的方法及装置 | |
CN114155226A (zh) | 一种微小缺陷边缘计算方法 | |
CN116385440B (zh) | 一种弧形刀片视觉检测方法 | |
CN116110006B (zh) | 一种用于智慧旅游系统的景区游客异常行为识别方法 | |
CN112597868A (zh) | 基于无定位点的试卷识别和矫正方法 | |
CN116612461A (zh) | 一种基于目标检测的指针式仪表全过程自动读数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |