CN107977960A - 一种基于改进的susan算子的轿车表面划痕检测算法 - Google Patents
一种基于改进的susan算子的轿车表面划痕检测算法 Download PDFInfo
- Publication number
- CN107977960A CN107977960A CN201711186520.6A CN201711186520A CN107977960A CN 107977960 A CN107977960 A CN 107977960A CN 201711186520 A CN201711186520 A CN 201711186520A CN 107977960 A CN107977960 A CN 107977960A
- Authority
- CN
- China
- Prior art keywords
- mrow
- mtd
- msub
- pixel
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进的SUSAN算子的轿车表面划痕检测算法,包括步骤:读入图像,首先将图像转换为CIELab空间图像,然后使用方向模板计算像素与中心像素的色差,如果色差不大于阈值T,则使用色差均值填补空洞,之后使用圆形模板计算USAN面积,并根据USAN大小,输出轿车边缘,使用轿车模板匹配方式去除边缘轮廓,输出划痕图像。本发明的使用SUSAN算法,减少由于迭代计算带来的时间和空间上的消耗,算法简单直观的完成对划痕的检测,本算法能有效的利用彩色信息,降低漏检率,本算法利用方向性模板判断边缘的方向特征,填补边缘沿方向上的像素缺陷,使划痕检测更加准确。
Description
技术领域
本发明涉及划痕检测,尤其是一种基于改进的SUSAN算子的轿车表面划痕检测算法。
背景技术
近年来,随着科学技术的发展,这种多媒体终端普及,使得数字图像获得更加容易,数字图像的像素更高和压缩技术更加成熟。数字图像的应用范围也更加广泛,很多科研机构和高校在图像处理和计算机视觉方面展开了研究。研究领域涉及图像识别、目标检测与跟踪、多普图像匹配技术、人工智能与思维科学、三维重建等领域。
图像的边缘检测技术是数字图像处理技术基础研究内容,是物体识别的重要基础。边缘特征广泛应用于图像分割、运动检测与跟踪、工业检测、目标识别、双目立体视觉等领域。将边缘检测技术应用于轿车划痕图像检测技术中是一个比较新的研究方向。目前边缘检测技术普遍采用固定阈值灰度检测方法,在阈值参数选取方面自适应能力很差,有待进一步改进和提高。彩色图像边缘检测技术还不够成熟,图像边缘检测技术在工程中的应用前景比较广阔,因此研究图像边缘检测技术具有重要的理论意义和应用前景。由于图像中存在各种类型的噪声,对边缘检测结果有很大影响,尤其是在轿车划痕检测中,划痕作为边缘容易与噪声混淆,此外,现有边缘检测技术的一些参数需要人工设定,自适应能力差,因此提高对彩色图像边缘检测技术中噪声过滤水平尤其重要。
轿车外表面划痕是轿车表面缺陷最为普遍的一种,其表面质量直接影响产品的销售。因此轿车表面划痕检测技术方法研究具有重要的理论和经济价值。而且随着用户要求的不断提高,市场竞争日益剧烈,其表面质量将成为国内外市场竞争的关键性指标之一。为避免存在表面缺陷的车辆进入市场,轿车出厂前外表面喷漆检测尤为重要。自动轿车外表面划痕检测也同样适用。将计算机的快速性、可靠性和结果的可重复性与数字图像处理技术相结合进行划痕检测,具有自动化、客观、非接触、高精度和快速等特点,可极大提高检测效率,促进生产率。目前的表面缺陷检测技术中采用的缺陷边缘检测算法大都是采用灰度检测技术,不可能正确并准确的检测出所有的缺陷边缘,同时在滤除噪声时影响边缘检测的正确性。针对这些问题,通过彩色检测技术希望得以解决。
发明内容
发明目的:为解决上述技术问题,代替传统轿车表面划痕检测过程中过多的人工干预,降低漏检率,提高检测速度,本发明提供一种基于改进的SUSAN算子的轿车表面划痕检测算法。
技术方案:
一种基于改进的SUSAN算子的轿车表面划痕检测算法,包括如下步骤:
步骤一、RGB彩色空间转换到CIELab彩色空间,包括步骤:
先将RGB转换到CIEXYZ空间:
将CIEXYZ转换到CIELab,其转换规范由ISO标准定义如下:
其中:
X'=f1(X/Xref),Y'=f1(Y/Yref),Z'=f1(Z/Zref),
L、a、b分别表示像素的亮度、红——绿轴强度、黄——蓝轴强度,
X、Y、Z分别表示CIEXYZ空间X、Y、Z轴值,Xref、Yref、Zref分别表示X、Y、Z轴转换基础值,一般情况下为1,
CIELab空间两个像素(L1,a1,b1)和(L2,a2,b2)的色差使用欧式距离公式:
步骤二、计算模板内像素相似度,
对于转换到CIELab颜色空间的图像,选用16个方向模板,计算待处理图像的像素值与每个模板内的边缘像素的差值绝对值,
计算模板内每一个像素与中心像素的色差,如公式(4)所示,
其中r表示方向像素,r0表示中心像素,ΔE(r,r0)为方向像素与中心像素的色差,Lr,ar,br分别表示在r位置的方向像素的L轴、a轴、b轴强度,分别表示在r0位置的中心像素的L轴、a轴、b轴强度。
其中,T为色差阈值,ΔE(r,r0)为方向像素与中心像素色差,c(r,r0)表示在像素r与像素r0相似度;
步骤三、方向性图像增强并确定边缘,具体为:
根据16个方向模板计算方向模板内中心像素与方向像素色差,并根据公式(5)判断中心像素是否属于USAN(Univalue Segment Assimilating Nucleus,USAN)区域,如果中心像素属于USAN区域,使用中心像素和距离中心像素最远的方向像素的色度平均值填补在此方向模板上的其他像素点,像素均值如公式(6)所示,
其中,E为中心像素色度与比较像素色度平均值,r表示模板内像素,r0表示核中心像素;
步骤四、边缘图像输出:
核相似区(USAN)的大小就是方向模板内像素、邻域像素与中心像素相似点个数,USAN区域的值越大说明像素模板内与核中心像素相似的像素点越多,反之与核中心像素相似的像素点越少,USAN区域大小计算公式如公式(7)所示,
n(r0)=∑rc(r,r0) (7)
其中n(r0)表示USAN区域的大小。
SUSAN(Small univalue segment assimilating nucleus,SUSAN)边缘检测根据公式(8)可得该像素点的初始边缘响应值,
其中,R(r0)表示r0的边缘灰度响应值,g为阈值,g取值为3nmax/4,nmax为圆形模板内像素总数,根据R(r0)值创建灰度图像,输出图像为边缘图像;
步骤五、输出划痕图像:
通过图像边缘检测处理之后,再进行划痕的定位,对边缘图像的非划痕部分进行去除,确定划痕在车身的位置,在获得图像的过程中,系统与车身的位置保持不变,轿车的型号直接固定车身的形状,利用无划痕的轿车图像建立模板库,待检测图像匹配模板库内边缘模板,实现边缘消除和划痕定位,输出划痕图像,本文采用提取边缘特征曲线,确定模板在边缘图像中的旋转角度、位移距离,然后利用图像配准技术实现划痕定位。
进一步地,步骤二中,16个方向模板以不同方向为基准建立具有方向性的圆形模板定义为方向模板,连接中心像素与边缘像素,取距离中心像素与边缘像素连线最近的像素作为方向像素,所述中心像素与边缘像素具有16个方向。
进一步地,步骤五中,边缘消除和划痕定位具体为在边缘模板上选取四个角点匹配区域,然后使用匹配区域与待检图像进行模板匹配,计算旋转角,缩放比例和平移量,保持待检图像与边缘模板物理位置一致,利用边缘模板实现边缘消除和划痕定位。
进一步地,根据模板大小选取nmax为37。有益效果:
与现有边缘检测算法相比,本发明具有以下优势:
(1)计算复杂度大大降低:使用SUSAN算法,减少由于迭代计算带来的时间和空间上的消耗,算法简单直观的完成对划痕的检测。
(2)利用彩色信息:传统的边缘检测使用灰度图像进行边缘检测,所以彩色图像需要转换为灰度图像之后才能实现边缘检测,然而灰度信息仅仅包含了彩色图像的90%的结构信息。本算法能有效的利用彩色信息,降低漏检率。
(3)利用划痕方向性:传统的边缘检测算法没有针对轿车本身划痕具有的方向特征实现划痕检测,本算法利用方向性模板判断边缘的方向特征,填补边缘沿方向上的像素缺陷,使划痕检测更加准确。
附图说明
图1为本发明实施例的流程图;
图2为方向模板。
具体实施方式
下面结合附图对本发明做更进一步的解释。
图1为一种基于改进的SUSAN算子的轿车表面划痕检测算法流程图,该算法包括步骤:
步骤一、RGB彩色空间转换到CIELab彩色空间,具体为:
先将RGB转换到CIEXYZ空间:
将CIEXYZ转换到CIELab,其转换规范由ISO标准定义如下:
其中,X'=f1(X/Xref),Y'=f1(Y/Yref),Z'=f1(Z/Zref),
L、a、b分别表示像素的亮度、红——绿轴强度、黄——蓝轴强度,
X、Y、Z分别表示CIEXYZ空间X、Y、Z轴值,Xref、Yref、Zref分别表示X、Y、Z轴转换基础值,一般情况下为1,
CIELab空间两个像素(L1,a1,b1)和(L2,a2,b2)的色差可以使用欧式距离公式:
步骤二、计算模板内像素相似度,具体为:
对于转换到CIELab颜色空间的图像,选用16个方向模板,即以不同方向为基准建立具有方向性的圆形模板定义为方向模板,连接中心像素与边缘像素,取距离中心像素与边缘像素连线最近的像素作为方向像素,由于本文中心像素与边缘像素具有16个方向,因此本文方向模板有16个,计算待处理图像的像素值与每个模板内的边缘像素的差值绝对值,如图2所示黑色块表示中心像素,灰色块表示待检测像素的邻域像素,深色线包裹的几个像素块为方向模板,深色线包裹的灰色块称为方向像素。
计算模板内每一个像素与中心像素的色差,计算公式如公式(4)所示,
其中r表示模板内像素,r0表示中心像素,ΔE(r,r0)为模板内像素与中心像素的色差,Lr,ar,br分别表示在r位置的方向像素的L轴、a轴、b轴强度,分别表示在r0位置的中心像素的L轴、a轴、b轴强度。
其中T为色差阈值,ΔE(r,r0)为方向像素与中心像素色差。
步骤三、方向性图像增强并确定边缘,包括步骤:
根据16个方向模板计算方向模板内中心像素点与方向像素色差,并根据公式(5)判断中心像素是否属于USAN区域,如果中心像素属于USAN区域,使用核中心像素色度和模板边缘像素的平均值填补在此方向模板上的其他像素点,像素均值如公式(6)所示。
其中E为中心像素色度与比较像素色度平均值,r表示方向像素,r0表示中心像素。
步骤四、输出边缘图像
核相似区(USAN)的大小就是方向模板内像素、邻域像素与中心像素相似点个数,USAN区域的值越大说明像素模板内与中心像素相似的像素点越多,反之与中心像素相似的像素点越少,因此,USAN区域大小计算公式如公式(7)所示。
n(r0)=∑rc(r,r0) (7)
SUSAN边缘检测根据公式(8)可得该像素点的初始边缘响应值。
其中g为阈值,一般取3nmax/4,nmax为圆形模板内像素总数,本文取37,根据R(r0)值创建灰度图像,输出图像为边缘图像。
步骤五、输出划痕图像
通过图像边缘检测处理之后,要进行划痕的定位,本部分的主要工作是对边缘图像的非划痕部分进行去除,从而确定划痕在车身的位置,由于在获得图像的过程中,系统与车身的位置保持不变,轿车的型号直接固定车身的形状,利用无划痕的轿车图像建立模板库,待检测图像匹配模板库内边缘模板,实现边缘消除和划痕定位,输出划痕图像,本文采用提取边缘特征曲线,确定模板在边缘图像中的旋转角度、位移距离,然后利用图像配准技术实现划痕定位,边缘消除和划痕定位具体为在边缘模板上选取四个角点匹配区域,然后使用匹配区域与待检图像进行模板匹配,计算旋转角,缩放比例和平移量,保持待检图像与边缘模板物理位置一致,利用边缘模板实现边缘消除和划痕定位。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种基于改进的SUSAN算子的轿车表面划痕检测算法,其特征在于,包括如下步骤:
步骤一、RGB彩色空间转换到CIELab彩色空间,具体为:
先将RGB转换到CIEXYZ空间:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>X</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>0.4124</mn>
</mtd>
<mtd>
<mn>0.3575</mn>
</mtd>
<mtd>
<mn>0.1804</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0.2128</mn>
</mtd>
<mtd>
<mn>0.7152</mn>
</mtd>
<mtd>
<mn>0.0722</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0.0.93</mn>
</mtd>
<mtd>
<mn>0.1192</mn>
</mtd>
<mtd>
<mn>0.9502</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>R</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>G</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>B</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
将CIEXYZ转换到CIELab,其转换规范由ISO标准定义如下:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>L</mi>
<mo>=</mo>
<mn>116</mn>
<mo>&times;</mo>
<msup>
<mi>Y</mi>
<mo>&prime;</mo>
</msup>
<mo>-</mo>
<mn>16</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>a</mi>
<mo>=</mo>
<mn>500</mn>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>X</mi>
<mo>&prime;</mo>
</msup>
<mo>-</mo>
<msup>
<mi>Y</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>b</mi>
<mo>=</mo>
<mn>200</mn>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>Y</mi>
<mo>&prime;</mo>
</msup>
<mo>-</mo>
<msup>
<mi>Z</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中:
X'=f1(X/Xref),Y'=f1(Y/Yref),Z'=f1(Z/Zref),
<mrow>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>c</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msup>
<mi>c</mi>
<mrow>
<mn>1</mn>
<mo>/</mo>
<mn>3</mn>
</mrow>
</msup>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>c</mi>
<mo>&le;</mo>
<mn>0.008856</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>7.787</mn>
<mo>&times;</mo>
<mi>c</mi>
<mo>+</mo>
<mn>16</mn>
<mo>/</mo>
<mn>116</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>c</mi>
<mo>></mo>
<mn>0.008856</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
L、a、b分别表示像素的亮度、红——绿轴强度、黄——蓝轴强度,
X、Y、Z分别表示CIEXYZ空间X、Y、Z轴值,Xref、Yref、Zref分别表示X、Y、Z轴转换基础值,一般情况下为1,
CIELab空间两个像素(L1,a1,b1)和(L2,a2,b2)的色差使用欧式距离公式:
<mrow>
<mi>&Delta;</mi>
<mi>E</mi>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
步骤二、计算模板内像素相似度,
对于转换到CIELab颜色空间的图像,选用16个方向模板,计算待处理图像的像素值与每个模板内的边缘像素的差值绝对值,
计算模板内每一个像素与中心像素的色差,如公式(4)所示,
<mrow>
<mi>&Delta;</mi>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>L</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mi>L</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mi>a</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>b</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
其中r表示方向像素,r0表示中心像素,ΔE(r,r0)为方向像素与中心像素的色差,Lr,ar,br分别表示在r位置的方向像素的L轴、a轴、b轴强度,分别表示在r0位置的中心像素的L轴、a轴、b轴强度,
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>&le;</mo>
<mi>T</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>></mo>
<mi>T</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,T为色差阈值,ΔE(r,r0)为方向像素与中心像素色差,c(r,r0)表示在像素r与像素r0相似度;
步骤三、方向性图像增强并确定边缘,具体为:
根据16个方向模板计算方向模板内中心像素与方向像素色差,并根据公式(5)判断中心像素是否属于USAN区域,如果中心像素属于USAN区域,使用中心像素和距离中心像素最远的方向像素的色度平均值填补在此方向模板上的其他像素点,像素均值如公式(6)所示,
<mrow>
<mi>E</mi>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msqrt>
<mrow>
<msub>
<mi>L</mi>
<mi>r</mi>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mi>r</mi>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>r</mi>
</msub>
</mrow>
</msqrt>
<mo>+</mo>
<msqrt>
<mrow>
<msub>
<mi>L</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
</msub>
</mrow>
</msqrt>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mn>2</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,E为中心像素色度与比较像素色度平均值,r表示模板内像素,r0表示核中心像素;
步骤四、边缘图像输出:
核相似区(USAN)的大小就是方向模板内像素、邻域像素与中心像素相似点个数,USAN区域的值越大说明像素模板内与核中心像素相似的像素点越多,反之与核中心像素相似的像素点越少,USAN区域大小计算公式如公式(7)所示,
n(r0)=∑rc(r,r0) (7)
其中n(r0)表示USAN区域的大小,
SUSAN边缘检测根据公式(8)可得该像素点的初始边缘响应值,
<mrow>
<mi>R</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>g</mi>
<mo>-</mo>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<mo><</mo>
<mi>g</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,R(r0)表示r0的边缘灰度响应值,g为阈值,g取值为3nmax/4,nmax为圆形模板内像素总数,根据R(r0)值创建灰度图像,输出图像为边缘图像;
步骤五、输出划痕图像:
通过图像边缘检测处理之后,再进行划痕的定位,对边缘图像的非划痕部分进行去除,确定划痕在车身的位置,在获得图像的过程中,系统与车身的位置保持不变,轿车的型号直接固定车身的形状,利用无划痕的轿车图像建立模板库,待检测图像匹配模板库内边缘模板,实现边缘消除和划痕定位,输出划痕图像。
2.根据权利要求1所述的一种基于改进的SUSAN算子的轿车表面划痕检测算法,其特征在于,步骤二中,16个方向模板以不同方向为基准建立具有方向性的圆形模板定义为方向模板,连接中心像素与边缘像素,取距离中心像素与边缘像素连线最近的像素作为方向像素,所述中心像素与边缘像素具有16个方向。
3.根据权利要求1所述的一种基于改进的SUSAN算子的轿车表面划痕检测算法,其特征在于,步骤五中,边缘消除和划痕定位具体为在边缘模板上选取四个角点匹配区域,然后使用匹配区域与待检图像进行模板匹配,计算旋转角,缩放比例和平移量,保持待检图像与边缘模板物理位置一致,利用边缘模板实现边缘消除和划痕定位。
4.根据权利要求1所述的一种基于改进的SUSAN算子的轿车表面划痕检测算法,其特征在于,根据模板大小选取nmax为37。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711186520.6A CN107977960B (zh) | 2017-11-24 | 2017-11-24 | 一种基于改进的susan算子的轿车表面划痕检测算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711186520.6A CN107977960B (zh) | 2017-11-24 | 2017-11-24 | 一种基于改进的susan算子的轿车表面划痕检测算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107977960A true CN107977960A (zh) | 2018-05-01 |
CN107977960B CN107977960B (zh) | 2021-08-06 |
Family
ID=62011430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711186520.6A Active CN107977960B (zh) | 2017-11-24 | 2017-11-24 | 一种基于改进的susan算子的轿车表面划痕检测算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977960B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109178831A (zh) * | 2018-09-21 | 2019-01-11 | 太原理工大学 | 一种皮带机纵向撕裂检测方法 |
CN110059685A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 文字区域检测方法、装置及存储介质 |
CN113793322A (zh) * | 2021-09-16 | 2021-12-14 | 上海安稷软件科技有限公司 | 一种对磁性材料自动检测的方法、电子设备和存储介质 |
CN113902739A (zh) * | 2021-11-29 | 2022-01-07 | 广东电网有限责任公司肇庆供电局 | Nut线夹缺陷识别方法、装置及设备、可读存储介质 |
CN116128804A (zh) * | 2022-11-28 | 2023-05-16 | 深圳技术大学 | 多尺度多方向的无人机图像角点检测方法、系统及终端 |
CN117274148A (zh) * | 2022-12-05 | 2023-12-22 | 魅杰光电科技(上海)有限公司 | 基于深度学习的无监督晶圆缺陷检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6941016B1 (en) * | 2001-12-31 | 2005-09-06 | Cognex Technology And Investment | Method for finding contours in an image of an object |
CN102789637A (zh) * | 2012-07-12 | 2012-11-21 | 北方工业大学 | 基于改进的susan算子的显著性区域提取 |
CN103364407A (zh) * | 2012-03-30 | 2013-10-23 | 株式会社日立高新技术 | 盘表面检查方法及其装置 |
CN104252710A (zh) * | 2014-09-02 | 2014-12-31 | 江苏大学 | 基于动态阈值的Susan算子彩色图像边缘检测方法 |
CN104751474A (zh) * | 2015-04-13 | 2015-07-01 | 上海理工大学 | 一种级联式快速图像缺陷分割方法 |
CN105957095A (zh) * | 2016-06-15 | 2016-09-21 | 电子科技大学 | 一种基于灰度图像的Spiking角点检测方法 |
CN106157303A (zh) * | 2016-06-24 | 2016-11-23 | 浙江工商大学 | 一种基于机器视觉对表面检测的方法 |
CN106174830A (zh) * | 2016-06-30 | 2016-12-07 | 西安工程大学 | 基于机器视觉的服装尺寸自动测量系统及其测量方法 |
-
2017
- 2017-11-24 CN CN201711186520.6A patent/CN107977960B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6941016B1 (en) * | 2001-12-31 | 2005-09-06 | Cognex Technology And Investment | Method for finding contours in an image of an object |
CN103364407A (zh) * | 2012-03-30 | 2013-10-23 | 株式会社日立高新技术 | 盘表面检查方法及其装置 |
CN102789637A (zh) * | 2012-07-12 | 2012-11-21 | 北方工业大学 | 基于改进的susan算子的显著性区域提取 |
CN104252710A (zh) * | 2014-09-02 | 2014-12-31 | 江苏大学 | 基于动态阈值的Susan算子彩色图像边缘检测方法 |
CN104751474A (zh) * | 2015-04-13 | 2015-07-01 | 上海理工大学 | 一种级联式快速图像缺陷分割方法 |
CN105957095A (zh) * | 2016-06-15 | 2016-09-21 | 电子科技大学 | 一种基于灰度图像的Spiking角点检测方法 |
CN106157303A (zh) * | 2016-06-24 | 2016-11-23 | 浙江工商大学 | 一种基于机器视觉对表面检测的方法 |
CN106174830A (zh) * | 2016-06-30 | 2016-12-07 | 西安工程大学 | 基于机器视觉的服装尺寸自动测量系统及其测量方法 |
Non-Patent Citations (1)
Title |
---|
EDOARDO ARDIZZONE 等: "Multidirectional Scratch Detection and Restoration in Digitized Old Images", 《EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109178831A (zh) * | 2018-09-21 | 2019-01-11 | 太原理工大学 | 一种皮带机纵向撕裂检测方法 |
CN110059685A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 文字区域检测方法、装置及存储介质 |
CN110059685B (zh) * | 2019-04-26 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 文字区域检测方法、装置及存储介质 |
CN113793322A (zh) * | 2021-09-16 | 2021-12-14 | 上海安稷软件科技有限公司 | 一种对磁性材料自动检测的方法、电子设备和存储介质 |
CN113902739A (zh) * | 2021-11-29 | 2022-01-07 | 广东电网有限责任公司肇庆供电局 | Nut线夹缺陷识别方法、装置及设备、可读存储介质 |
CN113902739B (zh) * | 2021-11-29 | 2022-03-22 | 广东电网有限责任公司肇庆供电局 | Nut线夹缺陷识别方法、装置及设备、可读存储介质 |
CN116128804A (zh) * | 2022-11-28 | 2023-05-16 | 深圳技术大学 | 多尺度多方向的无人机图像角点检测方法、系统及终端 |
CN116128804B (zh) * | 2022-11-28 | 2024-02-27 | 深圳技术大学 | 多尺度多方向的无人机图像角点检测方法、系统及终端 |
CN117274148A (zh) * | 2022-12-05 | 2023-12-22 | 魅杰光电科技(上海)有限公司 | 基于深度学习的无监督晶圆缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107977960B (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977960A (zh) | 一种基于改进的susan算子的轿车表面划痕检测算法 | |
CN107507167B (zh) | 一种基于点云平面轮廓匹配的货物托盘检测方法及系统 | |
CN110688987B (zh) | 一种行人位置检测与跟踪方法及系统 | |
CN107578418B (zh) | 一种融合色彩和深度信息的室内场景轮廓检测方法 | |
CN105631880B (zh) | 车道线分割方法和装置 | |
Gong et al. | The recognition and tracking of traffic lights based on color segmentation and camshift for intelligent vehicles | |
CN106340044B (zh) | 摄像机外参自动标定方法及标定装置 | |
CN108827316A (zh) | 基于改进的Apriltag标签的移动机器人视觉定位方法 | |
CN106203342A (zh) | 基于多角度局部特征匹配的目标识别方法 | |
CN105678806B (zh) | 一种基于Fisher判别的生猪行为轨迹自动跟踪方法 | |
CN105730336B (zh) | 倒车辅助装置及车辆 | |
CN103605953A (zh) | 基于滑窗搜索的车辆兴趣目标检测方法 | |
CN103177260B (zh) | 一种彩色图像边界提取方法 | |
CN104680519A (zh) | 基于轮廓和颜色的七巧板识别方法 | |
CN105809716B (zh) | 融合超像素与三维自组织背景减除法的前景提取方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN105405138B (zh) | 基于显著性检测的水面目标跟踪方法 | |
CN105678318B (zh) | 交通标牌的匹配方法及装置 | |
CN108876723A (zh) | 一种灰度目标图像的彩色背景的构建方法 | |
CN112560704B (zh) | 一种多特征融合的视觉识别方法及系统 | |
CN111199556A (zh) | 基于摄像头的室内行人检测和跟踪方法 | |
CN105488475B (zh) | 手机中人脸检测方法 | |
CN104392210A (zh) | 一种手势识别方法 | |
CN106228541A (zh) | 视觉检测中屏幕定位的方法及装置 | |
CN103955693B (zh) | 一种九球的计算机辅助检测识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |