CN112819772B - 一种高精度快速图形检测识别方法 - Google Patents
一种高精度快速图形检测识别方法 Download PDFInfo
- Publication number
- CN112819772B CN112819772B CN202110117070.5A CN202110117070A CN112819772B CN 112819772 B CN112819772 B CN 112819772B CN 202110117070 A CN202110117070 A CN 202110117070A CN 112819772 B CN112819772 B CN 112819772B
- Authority
- CN
- China
- Prior art keywords
- point
- image
- gray
- value
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 238000003708 edge detection Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 26
- 238000001914 filtration Methods 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 230000005284 excitation Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 6
- 238000005259 measurement Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种高精度快速图形检测识别方法,其特征是所述的高精度快速图形检测识别方法采用机器视觉对工件图形进行图像拍摄获取、图像增强预处理、边缘检测、关键点选取、曲线拟合、属性参数运算及图形重构七个步骤。适用于智能制造领域中工件图形检测、识别及重构。
Description
技术领域
本发明涉及智能制造领域,尤其是一种采用机器视觉对工件图形进行预处理、边缘检测、关键点选取及拟合、属性参数运算及图形重构的方法,适用于智能制造领域中工件图形检测、识别及重构,具体地说是一种高精度快速图形检测识别方法。
背景技术
本发明以如何快速准确检测识别加工工件为研究对象,基于工件图像,采用机器视觉测量技术对其进行图形测量识别,检测加工工件的尺寸是否合格,快速完成工业现场测量检测任务。
传统人工测量、识别工件的方法效率低,测量成本高,对于复杂工件或大量工件的检测,无法及时完成,而采用机器视觉检测技术能够快速将获取的现场图像或视频信息提供给监控中心,监控中心通过分析、识别找出不合格产品,实现对工件的实时质量分析,显著降低企业的检测成本,为自动化智能制造奠定了良好的基础。
人工检测小型工件时,由于工件尺寸小,不易找到合适的工具测量,测量时不易操作,操作误差比较大;测量大型复杂工件时,也很难找到合适测量工具,采用局部测量后也没有合适拼接手段,测量误差与经验强相关,没有固定工艺流程,总体测量效率低、准确度低。与传统的人工检测图形技术相比,机器视觉检测图形技术具备高精度、高效率的优点,被广泛应用在工件类别的识别以及复杂图形结构工件尺寸的测量检测中。对于小型工件,可以调整摄像机的镜头放大倍数和相机的成像精度,从而达到非常细微尺寸的高精度测量。对于大型工件的测量,该技术可以通过不同角度,从多个方位获取工件的局部图像,并运用图像拼接技术实现对工件完整结构的尺寸测量。对于复杂结构的工件的尺寸测量,机器视觉测量技术通过提取采集工件图像的轮廓特征信息、从而实现对其精确轮廓及尺寸测量。
当前基于机器视觉检测识别加工工件,存在由于受环境干扰而滤波性能偏差,前景、背景区分阈值不合理、易受干扰,曲线拟合方法精度低,从而造成总体检测识别精确度仍较低,且检测速度达不到要求,最终无法有效替代人工检测等问题。
发明内容
本发明的目的是针对传统人工测量或机器视觉检测识别存在的问题,提出一种高精度快速图形检测识别方法,是一种采用机器视觉对工件图形进行增强预处理、边缘检测、关键点选取及拟合、属性参数运算及图形重构的方法,适用于智能制造领域中工件图形检测、识别及重构。
本发明的技术方案是:
一种高精度快速图形检测识别方法,所述的高精度快速图形检测识别方法分为图像拍摄获取、图像增强预处理、边缘检测、关键点选取、曲线拟合、属性参数运算及图形重构七个步骤。
具体的,所述的图像拍摄获取步骤中,选用工业CCD相机,将相机固定到工作台的指定位置,进行相机的标定,获取包括相机的畸变参数和外部的旋转矩阵数据,算出相机的参数矩阵,然后拍摄工件,获得统一像素大小工件图像。
具体的,所述的图像增强预处理步骤中包括顺序进行的整体图像增强步骤和边缘自适应增强步骤。
具体的,所述的整体图像增强步骤具体包括:
1)计算输入工件图像的灰度均值Xm,Xm代表输入图像X的全部像素点的灰度均值,即X(i,j)表示像素点,l和h分别代表图像X的长和宽;
2)根据输入工件图像的灰度均值Xm,将输入图像划分为两个子图像XL和XU,XL由灰度值从X0到Xm的像素点组成,XU由灰度值从Xm+1到Xn的像素点组成,具体如下所示:
3)分别定义子图像XL和XU的概率密度函数:
和/>分别代表子图像XL和XU属于第k1或k2级灰度值上的像素个数,sL和sU分别代表子图像XL和XU的总像素个数,即/>
子图像XL和XU的累积概率密度函数表示如下:
对累积概率密度函数的直方图均衡化处理如下:
fL(x)=X0+(Xm-X0)·CL(x)
fU(x)=Xm+1+(Xn-Xm+1)·CU(x)
对两个子图像进行均衡化操作,得到整体增强图像Y:
Y=fL(XL)UfU(XU)。
具体的,所述的边缘自适应增强步骤中分别采用基于空间和灰度的双高斯滤波方法及其滤波参数的自适应确定;
所述的基于空间和灰度的双高斯滤波方法分别基于空间距离和灰度距离采用3×3矩阵的双高斯卷积核对整体增强的图像进行卷积滤波,具体如下:
(1)计算整体增强图像中任3×3区域内像素值的方差D,具体计算如下:
为当前3×3区域内像素灰度值的平均值,gi,j为3×3区域内某点的像素值;
(2)根据方差D,确定双高斯滤波系数σ1和σ2
(3)双高斯卷积核计算
f=fs×fg
其中,f表示双高斯滤波卷积核,fs表示空间域高斯滤波卷积核,fg表示灰度高斯滤波卷积核;gray(xi,yi)为对应位置的灰度值,gray(xc,yc)是中心点的灰度值;
(4)使用双高斯卷积核f对整体增强的图像进行卷积滤波,获得边缘自适应增强的新图像。即对原始图像的每一个像素点,计算它的邻域像素和滤波器矩阵的对应元素的乘积,然后加起来,作为该像素点的灰度值。
具体的,所述的边缘检测包括计算梯度、极大值抑制、迭代法阈值计算和边缘连接步骤,具体过程为:
(1)计算梯度,得到图像梯度的幅值、方位角、边缘方向以及邻域标准差;
图像的幅值:
式中,△x,△y分别表示Sobel水平和垂直算子与原始图像像素进行卷积计算后的灰度差分值;
代表原始图像灰度值的3×3矩阵;
方位角:
边缘方向角与方位角成正交关系;
邻域标准差:定义为去掉3×3邻域内的最大灰度和最小灰度值的像素点后剩余像素点灰度值的标准差,即:其中Gx,y为去掉最大与最小灰度值像素点后剩下的像素点的灰度值,μx,y为去除最大最小灰度后余下像素点灰度值的均值;
计算出全图的邻域标准差之后,寻出最大的邻域标准差,以最大值为基准对所有的标准差进行归一化处理;
(2)沿着梯度方向对幅值进行非极大值抑制,保留像素值较高的点,细化边缘:
对图像的每一个像素点(x,y),像素点(x,y)与沿着其对应的梯度方向相邻的两个像素相比,若点(x,y)像素值为最大值,则保留,否则点(x,y)像素值置0;
(3)采用迭代法计算阈值:
a求出图像的最大灰度值和最小灰度值,记为Zmax和Zmin,则初始阈值
T0=(Zmax+Zmin)/2
b根据阈值T(初始为T0)将图像分为前景和背景,设图片前景有p个像素点,后景有q个像素点,分别求出两者的平均灰度值ZO和ZB;
式中,Zo(i)和Zb(j)分别表示图片前景和背景各个位置上的灰度值;
c求出新阈值T=(ZO+ZB)/2;
d循环进行步骤b-c,直至T值不再变化;
e获得前景与背景的最佳区分阈值T:
将得到的阈值T上下调整5%分别作为边缘检测的高、低阈值;
(4)用双阈值算法检测和连接边缘:
将小于低阈值的点置0,将大于高阈值的点标记置1或255;
将小于高阈值、大于低阈值的点使用8连通区域确定:当这些点与高灰度值区域连接时才会被接受,成为边缘点,置1或255,否则置0。
具体的,所述的关键点选取步骤具体流程为:
(1)设置轮廓结束点,计算结束点邻域,即以结束点为圆心、Re为半径的圆包围的区域作为结束点邻域,Re半径大小根据不同测量对象进行设置及调整,Re默认取20个像素距离;
(2)记录轮廓开始点X0(x0,y0),选择距该点前、后各△l处两点B0(x0b,y0b),A0(x0a,y0a),计算开始点X0(x0,y0)的曲率半径R0,计算公式如下:
开始点X0(x0,y0)曲率半径
其中
a0=x0(y0b-y0a)+x0b(y0a-y0)+x0a(y0-y0b)
(3)计算步长l,
其中R表示点X(x,y)的曲率半径;从该点出发遍历l个像素点找到下一点X(x,y),遍历l个像素点过程中,后一个像素点是前一个像素点处边缘方向上紧邻的点;
(4)如果点X(x,y)进入结束点邻域,选点结束;否则,选择距点X(x,y)前、后各△l处两点B(xb,yb),A(xa,ya),计算该点曲率半径;
该点X(x,y)曲率半径
其中
a=x(yb-ya)+xb(ya-y)+xa(y-yb)
(5)如果该点的曲率半径大于800,比较该点与上一记录点边缘方向角大小,若偏差超过10°就记录该点;如果不超过10°就舍弃该点,返回(3)以该点计算新步长寻找下一点;
(6)如果当前点的曲率半径小于800,计算置信度bi,j
其中,σi,j是邻域标准差,σi,j从边缘检测步骤获得;(邻域标准差越大,置信度越大。)
若置信度满足要求bi,j>0.648,记录该点,回到(3)继续寻找下一点;否则,舍弃,回到(3)继续寻找下一点。具体的,所述的曲线拟合采用BP神经网络方法对所选关键点进行拟合,以达到关键点到拟合曲线距离的平方和最小,具体过程为:
(1)确定BP神经网络的模型;
(2)导入关键点进行模型训练;
(3)得到训练完成的模型,按照模型绘制出边缘轮廓;
其中,导入关键点进行模型训练具体步骤为:
1)网络初始化:根据系统输入输出确定网络输入层节点数n、隐含层节点数l、输出层节点数m,初始化输入层、隐含层和输出层神经元之间的连接权重wij,wjk,初始化隐含层阈值a,输出层阈值b,给定学习速率η,神经元激励函数f和期望误差;
2)隐含层输出计算:根据输入变量xi,输入层和隐含层间连接权值wij以及隐含层阈值aj,计算隐含层输出Hj:
f为隐含层激励函数,如
3)输出层输出计算:根据隐含层输出Hj,连接权值wjk和阈值bk,计算BP神经网络的预测输出Ok:
4)误差计算:根据网络预测输出Ok和期望输出Yk,计算网络预测误差ek。
ek=Yk-Ok k=1,2,...,m
5)权值更新:根据网络预测误差ek更新网络连接权值wij,wjk。
wjk=wjk+ηHjek j=1,2,...,l;k=1,2,...,m
式中,xi表示输入变量,η表示学习速率,这里取0.1即可。
6)阈值更新:根据网络预测误差ek更新网络节点阈值aj,bk。
bk=bk+ek k=1,2,...,m
根据网络预测误差ek是否小于期望误差判断算法迭代是否结束,如未结束,返回2)。
具体的,所述的属性参数运算通过最小二乘方法求取规则图形关键参数。
具体的,所述的图形重构基于拟合的图形轮廓或获得的规则图形关键参数在系统人机界面上进行图形重构。
本发明的有益效果
本发明的一种高精度快速图形检测识别方法,是一种采用机器视觉对工件图形进行预处理、边缘检测、关键点选取及拟合、属性参数运算及图形重构的方法,适用于智能制造领域中工件图形检测、识别及重构。
本发明相机选用工业CCD相机,相较于CMOS相机,CCD相机获取的图片噪声更少,图像质量更高。
本发明的整体图像增强,通过图像灰度均值分割的双直方图均衡化将图片的对比度局部对比度增加,增强了因为光源亮度不足而产生差质量图片的可识别性。
本发明在边缘自适应增强过程中分别采用了基于空间和灰度的双高斯滤波方法,综合考虑了位置和灰度值对于中心值的影响,而且其滤波参数根据区域灰度方差自适应调整,不仅能滤除噪声、平滑图像,还能很好的保留图像的边缘信息。
对比传统的将图像灰度最大与最小值的平均数作为图像前景与背景的区分阈值的方法,传统做法仅对图像灰度最大值与最小值取一次平均,忽略了图像的整体信息,容易受噪声干扰,本发明采用阈值迭代计算方法,将图像分为前景与背景,计算出来的阈值是基于图像整体考虑,采用迭代计算图像前景与背景平均灰度而获得的稳定阈值,所以使用本发明的迭代法计算得出的阈值更加实用、精确、可信,抗干扰能力也更强。
本发明基于置信度、曲率半径等信息综合选取关键点,所选关键点不仅更加趋近真实边缘,大大提高了曲线拟合的精度,同时因这些点更具代表性而省去一些不必要的点,从而大大节省了储存空间和曲线拟合时间。
本发明采用bp神经网络加最小二乘法的拟合方法,不仅能够通过神经网络快速得到图形轮廓,也能在一些基础模型图形上通过最小二乘法得到函数以及图形参数,两者相结合,方便后期对图像轮廓进行分析及重构。
附图说明
图1本发明的高精度快速图形检测识别方法流程图
图2本发明的图像增强预处理流程图
图3本发明的边缘检测流程图
图4本发明的关键点选取流程图
图5实施例中工业CCD相机获得的工件图像
图6实施例中卷积滤波示意图
图7实施例中3×3的空间域卷积核图
图8实施例中欧式距离、城市距离和棋盘距离对比图
图9实施例中梯度方向与边缘方向示意图
具体实施方式
结合图1,高精度快速图形检测识别方法分为图像拍摄获取、图像增强预处理、边缘检测、关键点选取、曲线拟合、属性参数运算及图形重构七个步骤。
1、相机选用工业CCD相机,相较于CMOS相机,CCD相机获取的图片噪声更少,图像质量更高。
将相机固定到工作台的指定位置,进行相机的标定,获取相机的畸变参数和外部的旋转矩阵等数据,算出相机的参数矩阵,然后拍摄工件,获得统一1024×768像素大小工件图像,如图5。
2、图像增强预处理
在图像采集过程中由于光源、拍摄角度等原因,获得的图像可能是亮度不够、边缘不清晰,采用整体图像增强的方法提高图像的质量,以便进行进一步的图像识别。图像增强预处理流程如图2所示,主要分为整体图像增强和边缘自适应增强步骤。其中:
(1)整体图像增强
在图像采集过程中由于光源不足的影响会产生质量较差的图像,为了提高这类图像的视觉效果,采用基于灰度图像均值分割的亮度均值稳定性的直方图均衡化算法进行整体图像增强。(该算法的总体目标是在保持灰度图像的亮度均值条件下,自适应增强图像对比度。)
采集到的的工件图像统一为1024×768像素大小。(首先,根据输入工件图像灰度均值Xm将输入图像分解为两个子图像XL和XU,其中子图像XL的像素灰度值小于或等于输入图像的灰度均值;子图像XU的像素灰度值大于输入图像的灰度值。然后,分别对两个子图像进行直方图均衡化处理,即第一个子图像的灰度值会拉伸到最小值和均值之间,第二个子图像的灰度值会拉伸到灰度均值和灰度最大值之间。)
首先,计算输入工件图像的灰度均值Xm,Xm代表输入图像X的全部像素点的灰度均值,即l和h分别代表图像X的长和宽。然后,根据输入工件图像的灰度均值Xm,输入图像可以划分为两个子图像XL和XU,XL由灰度值从X0到Xm的像素点组成,XU由灰度值从Xm+1到Xn的像素点组成,具体如下所示:
接着,分别定义子图像XL和XU的概率密度函数
和/>分别代表子图像XL和XU第k1或k2级灰度值上的像素个数,sL和sU分别代表子图像XL和XU的总像素个数,即/>
子图像XL和XU的累积概率密度函数可以表示如下:
对累积概率密度函数的直方图均衡化处理方式如下:
fL(x)=X0+(Xm-X0)·CL(x)
fU(x)=Xm+1+(Xn-Xm+1)·CU(x)
对两个子图像进行均衡化操作,得到整体增强图像Y:
Y=fL(XL)U fU(XU)
(2)边缘自适应增强
双高斯滤波
对于直方图均衡化过后的图像,先使用滤波的方法抑制图像噪声。本次设计采用3×3矩阵的双高斯卷积核对图像进行卷积滤波。
卷积滤波如图6所示,对于原始图像的每一个像素点,计算它的邻域像素和滤波器矩阵的对应元素的乘积,然后加起来,作为该像素位置的值。滤波后的图像依然为1024×768像素大小。
考虑图像的值域相似度,对邻域内各个点到中心点的权值进行优化,然后将计算后的核函数与图像矩阵做卷积运算。主要的思路是如果两侧的像素值相差较大,那么对应的权重会降低,所以相似一边的邻域权重影响更大。
双高斯滤波的原理就是一个与空间距离相关高斯函数与一个灰度距离相关的高斯函数相乘。
空间距离:指的是当前点(x,y)与中心点的图像上的像素距离,图7是一个3×3的空间域卷积核图。
空间域卷积核:
各个位置权重值的计算为:
其中,基于空间距离的高斯滤波最重要的参数就是高斯分布的标准差σ1,标准差代表着数据的离散程度。
σ1越小,模板的中心系数越大,周围的系数越小,这样对图像的平滑效果不是很明显。
σ1越大,模板的各个系数相差就不是很大,比较类似均值模板,对图像的平滑效果比较明显,但是过大的σ1可能会导致图像太过平滑,图像的各个元素的差异性被缩小,不利于后面的图像检测。
传统的高斯滤波算法是人为选取固定的标准差,这样对于图像离散程度较大或较小的区域没有一个好的滤波效果,所以本次设计引入区域内像素值的方差来动态调整标准差σ1。
3×3区域内像素值的方差用D表示,具体计算如下:
为当前3×3区域内像素灰度值的平均值,gi,j为3×3区域内某点的像素值。方差D和标准差σ1都是描述区域内像素灰度值的离散程度的,标准差σ1与方差D可以使用下式描述:
此时,不同区域的空间域高斯滤波标准差σ1由该3×3区域内像素灰度值的方差D决定,对于方差较大的区域,选择较大的σ1来加大对图像的平滑效果;对于方差较小的区域,可以认为区域内离散程度较小,较小的σ1可以减小平滑效果。这样在每一次的卷积迭代中都有新的标准差值,图像中每个像素矩阵中不同位置像素点对应的高斯核参数权值可以准确获取,从而实现对整体图像空间距离上的平滑去噪。
灰度距离:指的是当前点(x,y)与中心点灰度的差的绝对值。灰度值高斯卷积核:
各个位置权重值的计算:
其中gray(xi,yi)为对应位置的灰度值,gray(xc,yc)是中心点的灰度值。
灰度域高斯滤波卷积核的效果是由标准差σ2决定的,当σ2设置的较大的时候,灰度可以变化的范围越大,那么相比于灰度接近的点获得的大权重来说,灰度差异较大的点也能获得不小的权重值,因此细小的边缘会被影响到,没有很好地保边效果;当σ2设置的较小的时候,较大的灰度差异会得到相当小的权重值,边缘细化明显,但是图像上的噪声点会被放大很多,不利于图像边缘的识别。
传统的灰度域高斯滤波整张图像使用一个固定的σ2,对于局部的考量就不到位了,所以本设计选择了基于方差D设计的标准差σ2,
上式基于方差D适当调整σ2,对于图像方差较小的部分,适当调大σ2(不超过204),将孤立的噪声点去除;对于图像方差较大的部分,适当调小σ2(不低于75),增强细化效果。
双高斯滤波卷积核由灰度卷积核和空间卷积核相乘得到。其卷积核系数由以下公式决定:
f=fs×fg
其中,f表示双高斯滤波卷积核,fs表示空间域高斯滤波卷积核,fg表示灰度高斯滤波卷积核。对原始图像的每一个像素点,计算它的邻域像素和滤波器矩阵的对应元素的乘积,然后加起来,作为该像素点的灰度值。
在图像灰度值变化很小的平坦区域,对应的灰度域权重接近于1,此时空间域权重起主要作用,相当于进行空间高斯模糊;在图像灰度值变化较大的边缘区域,空间域权重不变,而灰度域权重变大,从而增强了边缘的信息。
3、边缘检测
边缘检测流程图如图3所示,主要可以包括计算梯度和幅值、极大值抑制、迭代法阈值计算和边缘连接等步骤。
(1)计算梯度,得到图像梯度的幅值、方位角、边缘方向以及邻域标准差。
使用Sobel算子来计算梯度,Sobel算子主要用于获得数字图像的一阶梯度,是一种离散性差分算子。Sobel算子考虑了水平、垂直和两个对角共计4个方向的梯度加权求和,是一个3×3矩阵的梯度算子。
结合图8,Sobel算子采取的像素距离是一种城市距离,而非通常的欧式距离,对角相邻像素的距离为2。Sobel选取距离的反比作为权重,对像素点f(x,y)而言,分别对x和y方向进行加权计算。取代表原始图像灰度值的3×3矩阵,计算它的横向和纵向的灰度差分近似值。
利用Sobel水平和垂直算子与原始图像像素进行卷积计算后的灰度差分近似值△x,△y:
△x=G(x,y)*Sobelx
△y=G(x,y)*Sobely
图像的幅值:
方位角
结合图9,边缘方向角与方位角成正交关系。
(在对图像进行边缘识别之前计算图像各个像素点的邻域标准差,邻域标准差的定义是为了计算边缘检测到的各个点的置信度。
由于工件的边缘是图像灰度急剧变化的区域,其不仅表现为局部梯度值较大,同时也表现为边缘两侧的灰度存在差异,这种差异可以用边缘像素邻域内的标准差来表示。)
邻域标准差定义为去掉3×3邻域内的最大灰度和最小灰度值的像素点后剩余像素点灰度值的标准差,即:其中Gx,y为去掉最大与最小灰度值像素点后剩下的像素点的灰度值,μx,y为去除最大最小灰度后余下像素点灰度值的均值。
(例如图像上一点及其邻域灰度值为去除邻域最大灰度值200和最小灰度值20,平均值μ=72.8,则标准差σ=38.43。)
计算出全图的邻域标准差之后,寻出最大的邻域标准差,以最大值为基准对所有的标准差进行归一化处理,(这里计算的标准差将用于计算置信度。)
(2)沿着梯度方向对幅值进行非极大值抑制,保留像素值较高的点,细化边缘
对图像的每一个像素点(x,y),像素点(x,y)与沿着其对应的梯度方向相邻的两个像素相比,若点(x,y)像素值为最大值,则保留,否则点(x,y)像素值置0。
(3)采用迭代法计算阈值:
(迭代法计算阈值的优势在于将前景与背景分开,计算得出的阈值更精确、可信,抗扰性更强,对不同工件图像的适应性好。)
迭代法阈值计算步骤:
a求出图像的最大灰度值和最小灰度值,记为Zmax和Zmin,则初始阈值
T0=(Zmax+Zmin)/2
b根据阈值T(初始为T0)将图像分为前景和背景,设图片前景有p个像素点,后景有q个像素点,分别求出两者的平均灰度值ZO和ZB;
式中,Zo(i)和Zb(j)分别表示图片前景和背景各个位置上的灰度值;
c求出新阈值T=(ZO+ZB)/2;
d循环进行步骤b-c,直至T值不再变化;
e获得前景与背景的最佳区分阈值T:
将得到的阈值T上下调整5%分别作为边缘检测的高、低阈值;
(4)用双阈值算法检测和连接边缘。
将小于低阈值的点置0,将大于高阈值的点标记置1或255(或者相反,将低的置1,高的置0,根据实际处理的图形选择方法)。
将小于高阈值、大于低阈值的点使用8连通区域确定:当这些点与高灰度值区域连接时才会被接受,成为边缘点,置1或255,否则置0。
4、关键点选取:
在曲线拟合之前要选取合适数量的点进行拟合,选出的点少了或者没有选取到具有代表性的点都会使得最终拟合出来的曲线不是最佳曲线;选取的点多了则会增加模型计算的时间复杂度,不能实现快速性。所以本次设计选择使用曲率半径和置信度来等步长选取像素点。1、关键点选取步骤具体流程为:
(1)设置轮廓结束点,计算结束点邻域,即以结束点为圆心、Re为半径的圆包围的区域作为结束点邻域,Re半径大小根据不同测量对象进行设置及调整,Re默认取20个像素距离;
(2)记录轮廓开始点X0((x0,y0),选择距该点前、后各△l处两点B0(x0b,y0b),A0(x0a,y0a),计算该点曲率半径R0,计算公式如下:
开始点X0(x0,y0)曲率半径
其中
a0=x0(y0b-y0a)+x0b(y0a-y0)+x0a(y0-y0b)
(3)计算步长l,
其中R表示点X(x,y)的曲率半径;从该点出发遍历l个像素点找到下一点X(x,y),遍历l个像素点过程中,后一个像素点是前一个像素点处边缘方向上紧邻的点。
(4)如果点X(x,y)进入结束点邻域,选点结束;否则,选择距点X(x,y)前、后各△l处两点B(xb,yb),A(xa,ya),计算该点曲率半径;
该点X(x,y)曲率半径
其中
a=x(yb-ya)+xb(ya-y)+xa(y-yb)
/>
(5)如果该点的曲率半径大于800,比较该点与上一记录点边缘方向角大小,若偏差超过10°就记录该点;如果不超过10°就舍弃该点,返回(3)以该点计算新步长寻找下一点。
(6)如果当前点的曲率半径小于800,计算置信度bi,j
其中,σi,j是邻域标准差,σi,j从边缘检测步骤获得;(邻域标准差越大,置信度越大。)
若置信度满足要求bi,j>0.648,记录该点,回到(3)继续寻找下一点;否则,舍弃,回到(3)继续寻找下一点。
5、曲线拟合
通过之前标记的角点、根据曲率半径大小按步长取置信度较高的点来进行下一步的曲线拟合。
使用BP神经网络进行曲线拟合,得到一个合适的轮廓图形,在界面上绘制出来。以点到拟合曲线距离的平方和最小标准来衡量拟合精度。具体过程为:
(1)确定BP神经网络的模型
(2)导入关键点进行模型训练
(3)得到训练完成的模型,按照模型绘制出边缘轮廓
BP神经网络需要确定节点数,激励函数,阈值,误差反馈等数据。
输入数据,经过权重加成后与阈值比较进行调整,调整后的数据经过激励函数输出到下一层,直到最后输出值,如果输出层不能得到期望输出,就将误差信号反向传播,将误差分摊给各层的单元,根据误差动态调整各单元的连接权重。
这样通过周而复始的正向传播和反向调节,直到输出信号的误差满足精度时停止学习,训练结束。
神经网络训练的整体步骤:
1)网络初始化。根据系统输入输出确定网络输入层节点数n、隐含层节点数l、输出层节点数m,初始化输入层、隐含层和输出层神经元之间的连接权重wij,wjk,初始化隐含层阈值a,输出层阈值b,给定学习速率η,神经元激励函数f和期望误差。
2)隐含层输出计算。根据输入变量xi,输入层和隐含层间连接权值wij以及隐含层阈值aj,计算隐含层输出Hj。
f为隐含层激励函数,如
3)输出层输出计算。根据隐含层输出Hj,连接权值wjk和阈值bk,计算BP神经网络的预测输出Ok。
/>
4)误差计算。根据网络预测输出Ok和期望输出Yk,计算网络预测误差ek。
ek=Yk-Ok k=1,2,...,m
5)权值更新。根据网络预测误差ek更新网络连接权值wij,wjk。
wjk=wjk+ηHjek j=1,2,...,l;k=1,2,...,m
式中,xi表示输入变量,η表示学习速率,这里取0.1即可。
6)阈值更新。根据网络预测误差ek更新网络节点阈值aj,bk。
bk=bk+ek k=1,2,...,m
根据网络预测误差ek是否小于期望误差判断算法迭代是否结束,如未结束,返回2)。
6、属性参数运算
属性参数运算通过最小二乘方法求取规则图形关键参数。
最小二乘法:对于一些特殊情况下的图形,如圆形、椭圆、矩形等,除了绘制出轮廓之外,还可以将具体的函数使用最小二乘法拟合出来,将圆心、半径、周长等特有的属性值计算出来。由一系列的点近似的落在一个曲线函数上,依据这些数据估算出函数的参数。最小二乘法拟合要求的是满足这些点到曲线的距离的平方和最小的函数参数。
例如:最小二乘法拟合圆。
最小二乘法拟合圆,圆方程一般写为:
(x-xc)2+(y-yc)2=R2
这里选择使用点到圆心的距离的平方和最小的解析值作为圆心和半径,其中:
这个比较难计算,可以求
f=∑((xi-xc)2+(yi-yc)2-R2)2
这个式子也能满足需求,计算相对来说要简单的多。定义一个辅助函数
g(x,y)=(xi-xc)2+(yi-yc)2-R2
那么上面的式子可以表示为:
f=∑g(xi,yi)2
依照最小二乘法的步骤,可知f取极值时对应以下的条件:
/>
由得:
由于R不为0,所以
∑g(xi,yi)=0
剩下的两个式子:
即:
设:
ui=xi-∑xi/N
uc=xc-∑xi/N
vi=yi-∑yi/N
vc=yc-∑yi/N
则
展开
∑(ui 3-2ui 2uc+uiuc 2+uivi 2-2uivivc+uivc 2-uiR2)=0
∑(ui 2vi-2uiviuc+viuc 2+vi 3-2vi 2vc+vivc 2-viR2)=0
定义:
Su3=∑ui 3
Sv3=∑vi 3
Su2=∑ui 2
Sv2=∑vi 2
Suv=∑uivi
Su2v=∑ui 2vi
Suv2=∑uivi 2
那么上面的式子等于:
这样就可以求出uc和vc了。
也就可以算出x,y了,再根据求出对应的R。
7、人机交互界面图形重构
在人机交互界面重绘工件图形,显示检测出来的轮廓和宽度或者半径等属性值。
Claims (7)
1.一种高精度快速图形检测识别方法,其特征是所述的高精度快速图形检测识别方法分为图像拍摄获取、图像增强预处理、边缘检测、关键点选取、曲线拟合、属性参数运算及图形重构七个步骤;所述的图像增强预处理步骤中包括顺序进行的整体图像增强步骤和边缘自适应增强步骤;
所述的整体图像增强步骤具体包括:
1)计算输入工件图像的灰度均值Xm,Xm代表输入图像X的全部像素点的灰度均值,即X(i,j)表示像素点,l和h分别代表图像X的长和宽;
2)根据输入工件图像的灰度均值Xm,将输入图像划分为两个子图像XL和XU,XL由灰度值从X0到Xm的像素点组成,XU由灰度值从Xm+1到Xn的像素点组成,具体如下所示:
3)分别定义子图像XL和XU的概率密度函数:
和/>分别代表子图像XL和XU属于第k1或k2级灰度值上的像素个数,sL和sU分别代表子图像XL和XU的总像素个数,即/>
子图像XL和XU的累积概率密度函数表示如下:
对累积概率密度函数的直方图均衡化处理如下:
fL(x)=X0+(Xm-X0)·CL(x)
fU(x)=Xm+1+(Xn-Xm+1)·CU(x)
对两个子图像进行均衡化操作,得到整体增强图像Y:
Y=fL(XL)UfU(XU);
所述的边缘自适应增强步骤中分别采用基于空间和灰度的双高斯滤波方法及其滤波参数的自适应确定;
所述的基于空间和灰度的双高斯滤波方法分别基于空间距离和灰度距离采用3×3矩阵的双高斯卷积核对整体增强的图像进行卷积滤波,具体如下:
(1)计算整体增强图像中任3×3区域内像素值的方差D,具体计算如下:
为当前3×3区域内像素灰度值的平均值,gi,j为3×3区域内某点的像素值;
(2)根据方差D,确定双高斯滤波系数σ1和σ2
(3)双高斯卷积核计算
f=fs×fg
其中,f表示双高斯滤波卷积核,fs表示空间域高斯滤波卷积核,fg表示灰度高斯滤波卷积核;gray(xi,yi)为对应位置的灰度值,gray(xc,yc)是中心点的灰度值;
(4)使用双高斯卷积核f对整体增强的图像进行卷积滤波,获得边缘自适应增强的新图像。
2.根据权利要求1所述的方法,其特征是所述的图像拍摄获取步骤中,选用工业CCD相机,将相机固定到工作台的指定位置,进行相机的标定,获取包括相机的畸变参数和外部的旋转矩阵数据,算出相机的参数矩阵,然后拍摄工件,获得统一像素大小工件图像。
3.根据权利要求1所述的方法,其特征是所述的边缘检测包括计算梯度、极大值抑制、迭代法阈值计算和边缘连接步骤,具体过程为:
(1)计算梯度,得到图像梯度的幅值、方位角、边缘方向以及邻域标准差;
图像的幅值:
式中,Δx,Δy分别表示Sobel水平和垂直算子与原始图像像素进行卷积计算后的灰度差分值;
代表原始图像灰度值的3×3矩阵;
方位角:
边缘方向角与方位角成正交关系;
邻域标准差:定义为去掉3×3邻域内的最大灰度和最小灰度值的像素点后剩余像素点灰度值的标准差,即:其中Gx,y为去掉最大与最小灰度值像素点后剩下的像素点的灰度值,μx,y为去除最大最小灰度后余下像素点灰度值的均值;
计算出全图的邻域标准差之后,寻出最大的邻域标准差,以最大值为基准对所有的标准差进行归一化处理;
(2)沿着梯度方向对幅值进行非极大值抑制,保留像素值较高的点,细化边缘:
对图像的每一个像素点(x,y),像素点(x,y)与沿着其对应的梯度方向相邻的两个像素相比,若点(x,y)像素值为最大值,则保留,否则点(x,y)像素值置0;
(3)采用迭代法计算阈值:
a求出图像的最大灰度值和最小灰度值,记为Zmax和Zmin,则初始阈值
T0=(Zmax+Zmin)/2
b根据阈值T将图像分为前景和背景,设图片前景有p个像素点,后景有q个像素点,分别求出两者的平均灰度值ZO和ZB;
式中,Zo(i)和Zb(j)分别表示图片前景和背景各个位置上的灰度值;
c求出新阈值T=(ZO+ZB)/2;
d循环进行步骤b-c,直至T值不再变化;
e获得前景与背景的最佳区分阈值T:
将得到的阈值T上下调整5%分别作为边缘检测的高、低阈值;
(4)用双阈值算法检测和连接边缘:
将小于低阈值的点置0,将大于高阈值的点标记置1或255;
将小于高阈值、大于低阈值的点使用8连通区域确定:当这些点与高灰度值区域连接时才会被接受,成为边缘点,置1或255,否则置0。
4.根据权利要求1所述的方法,其特征是所述的关键点选取步骤具体流程为:
(1)设置轮廓结束点,计算结束点邻域,即以结束点为圆心、Re为半径的圆包围的区域作为结束点邻域,Re半径大小根据不同测量对象进行设置及调整,Re默认取20个像素距离;
(2)记录轮廓开始点X0(x0,y0),选择距该点前、后各Δl处两点B0(x0b,y0b),A0(x0a,y0a),计算开始点X0(x0,y0)的曲率半径R0,计算公式如下:
开始点X0(x0,y0)曲率半径
其中
a0=x0(y0b-y0a)+x0b(y0a-y0)+x0a(y0-y0b)
(3)计算步长l,
其中R表示点X(x,y)的曲率半径;从该点出发遍历l个像素点找到下一点X(x,y),遍历l个像素点过程中,后一个像素点是前一个像素点处边缘方向上紧邻的点;
(4)如果点X(x,y)进入结束点邻域,选点结束;否则,选择距点X(x,y)前、后各Δl处两点B(xb,yb),A(xa,ya),计算该点曲率半径;
该点X(x,y)曲率半径
其中
a=x(yb-ya)+xb(ya-y)+xa(y-yb)
(5)如果该点的曲率半径大于800,比较该点与上一记录点边缘方向角大小,若偏差超过10°就记录该点;如果不超过10°就舍弃该点,返回(3)以该点计算新步长寻找下一点;
(6)如果当前点的曲率半径小于800,计算置信度bi,j
其中,σi,j是邻域标准差,σi,j从边缘检测步骤获得;
若置信度满足要求bi,j>0.648,记录该点,回到(3)继续寻找下一点;否则,舍弃,回到(3)继续寻找下一点。
5.根据权利要求1所述的方法,其特征是所述的曲线拟合采用BP神经网络方法对所选关键点进行拟合,以达到关键点到拟合曲线距离的平方和最小,具体过程为:
(1)确定BP神经网络的模型;
(2)导入关键点进行模型训练;
(3)得到训练完成的模型,按照模型绘制出边缘轮廓;
其中,导入关键点进行模型训练具体步骤为:
1)网络初始化:根据系统输入输出确定网络输入层节点数n、隐含层节点数l、输出层节点数m,初始化输入层、隐含层和输出层神经元之间的连接权重wij,wjk,初始化隐含层阈值a,输出层阈值b,给定学习速率η,神经元激励函数f和期望误差;
2)隐含层输出计算:根据输入变量xi,输入层和隐含层间连接权值wij以及隐含层阈值aj,计算隐含层输出Hj:
f为隐含层激励函数,如
3)输出层输出计算:根据隐含层输出Hj,连接权值wjk和阈值bk,计算BP神经网络的预测输出Ok:
4)误差计算:根据网络预测输出Ok和期望输出Yk,计算网络预测误差ek;
ek=Yk-Ok k=1,2,...,m
5)权值更新:根据网络预测误差ek更新网络连接权值wij,wjk;
wjk=wjk+ηHjek j=1,2,...,l;k=1,2,...,m
式中,xi表示输入变量,η表示学习速率;
6)阈值更新:根据网络预测误差ek更新网络节点阈值aj,bk;
bk=bk+ek k=1,2,...,m
根据网络预测误差ek是否小于期望误差判断算法迭代是否结束,如未结束,返回2)。
6.根据权利要求1所述的方法,其特征是所述的属性参数运算通过最小二乘方法求取规则图形关键参数。
7.根据权利要求1所述的方法,其特征是所述的图形重构基于拟合的图形轮廓或获得的规则图形关键参数在系统人机界面上进行图形重构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117070.5A CN112819772B (zh) | 2021-01-28 | 2021-01-28 | 一种高精度快速图形检测识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117070.5A CN112819772B (zh) | 2021-01-28 | 2021-01-28 | 一种高精度快速图形检测识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112819772A CN112819772A (zh) | 2021-05-18 |
CN112819772B true CN112819772B (zh) | 2024-05-03 |
Family
ID=75860075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110117070.5A Active CN112819772B (zh) | 2021-01-28 | 2021-01-28 | 一种高精度快速图形检测识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819772B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113847906A (zh) * | 2021-09-10 | 2021-12-28 | 交通运输部天津水运工程科学研究所 | 一种基于视觉边缘检测的实验室空间波浪实时测量方法 |
CN114359598B (zh) * | 2021-11-26 | 2023-09-12 | 西安交通大学 | 一种基于区域对比差分的自适应汽车油箱外盖识别方法 |
CN114897899B (zh) * | 2022-07-13 | 2022-09-30 | 南通海王消防水带有限公司 | 一种基于图形识别的消防水带耐低温性检测方法 |
CN116051563B (zh) * | 2023-03-31 | 2023-06-16 | 深圳市美亚迪光电有限公司 | 一种检测gob表面封胶工艺灯板表面平整度的检测装置 |
CN116416289B (zh) * | 2023-06-12 | 2023-08-25 | 湖南大学 | 基于深度曲线学习的多模图像配准方法、系统及介质 |
CN116700724B (zh) * | 2023-08-03 | 2023-10-20 | 江苏狄诺尼信息技术有限责任公司 | 一种基于模式法的立交平面交互式图形设计系统 |
CN116883401B (zh) * | 2023-09-07 | 2023-11-10 | 天津市生华厚德科技有限公司 | 一种工业产品生产质量检测系统 |
CN116977340B (zh) * | 2023-09-25 | 2024-04-19 | 厘壮信息科技(苏州)有限公司 | 基于光学信息的led半导体封装点胶缺陷检测方法 |
CN117237366B (zh) * | 2023-11-16 | 2024-02-06 | 福建凯达集团有限公司 | 一种薄膜防雾性能检测方法 |
CN117372567B (zh) * | 2023-12-06 | 2024-02-23 | 华芯程(杭州)科技有限公司 | 一种版图生成方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106584209A (zh) * | 2016-11-10 | 2017-04-26 | 哈尔滨理工大学 | 基于云制造的刀具磨损实时在线监测方法 |
CN106969706A (zh) * | 2017-04-02 | 2017-07-21 | 聊城大学 | 基于双目立体视觉的工件检测与三维测量系统及检测方法 |
JP2019066925A (ja) * | 2017-09-28 | 2019-04-25 | Kddi株式会社 | 複数のカメラ画像に基づくオブジェクト識別装置および方法 |
WO2019105044A1 (zh) * | 2017-11-28 | 2019-06-06 | 东莞市普灵思智能电子有限公司 | 一种镜头畸变矫正和特征提取的方法及系统 |
WO2019144581A1 (zh) * | 2018-01-29 | 2019-08-01 | 江苏宇特光电科技股份有限公司 | 一种智能化红外图像场景增强方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100278423A1 (en) * | 2009-04-30 | 2010-11-04 | Yuji Itoh | Methods and systems for contrast enhancement |
-
2021
- 2021-01-28 CN CN202110117070.5A patent/CN112819772B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106584209A (zh) * | 2016-11-10 | 2017-04-26 | 哈尔滨理工大学 | 基于云制造的刀具磨损实时在线监测方法 |
CN106969706A (zh) * | 2017-04-02 | 2017-07-21 | 聊城大学 | 基于双目立体视觉的工件检测与三维测量系统及检测方法 |
JP2019066925A (ja) * | 2017-09-28 | 2019-04-25 | Kddi株式会社 | 複数のカメラ画像に基づくオブジェクト識別装置および方法 |
WO2019105044A1 (zh) * | 2017-11-28 | 2019-06-06 | 东莞市普灵思智能电子有限公司 | 一种镜头畸变矫正和特征提取的方法及系统 |
WO2019144581A1 (zh) * | 2018-01-29 | 2019-08-01 | 江苏宇特光电科技股份有限公司 | 一种智能化红外图像场景增强方法 |
Non-Patent Citations (1)
Title |
---|
基于机器视觉的VCM磁钢检测系统设计与研究;李延芳;张舜德;姚晋丽;李燕;何润琴;;工具技术;20091120(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112819772A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819772B (zh) | 一种高精度快速图形检测识别方法 | |
CN112950508A (zh) | 一种基于计算机视觉的排水管道视频数据修复方法 | |
CN114549981A (zh) | 一种基于深度学习的智能巡检指针式仪表识别及读数方法 | |
CN114118144A (zh) | 抗干扰的航空遥感图像阴影精准检测方法 | |
CN104200434B (zh) | 一种基于噪声方差估计的非局部均值图像去噪方法 | |
CN112883824A (zh) | 一种用于智能采血的手指静脉特征识别装置及其识别方法 | |
CN113592911A (zh) | 表观增强深度目标跟踪方法 | |
CN113781413B (zh) | 一种基于Hough梯度法的电解电容定位方法 | |
CN113421210B (zh) | 一种基于双目立体视觉的表面点云重建方法 | |
CN112801141B (zh) | 基于模板匹配和孪生神经网络优化的异源图像匹配方法 | |
CN116934762B (zh) | 锂电池极片表面缺陷的检测系统及方法 | |
CN114119437A (zh) | 一种基于gms的用于改善运动物体畸变的图像拼接方法 | |
CN113673396A (zh) | 一种孢子发芽率计算方法、装置及存储介质 | |
CN111368856B (zh) | 一种基于视觉的图书盘点系统的书脊提取方法及装置 | |
CN111914749A (zh) | 基于神经网络的车道线识别方法及其系统 | |
CN112184619A (zh) | 一种基于深度学习的金属部件表面缺陷检测方法 | |
CN114529715B (zh) | 一种基于边缘提取的图像识别方法及系统 | |
CN110633705A (zh) | 一种低照度成像车牌识别方法及装置 | |
CN116342519A (zh) | 一种基于机器学习的图像处理方法 | |
CN115661110A (zh) | 一种透明工件识别与定位的方法 | |
CN113284158B (zh) | 一种基于结构约束聚类的图像边缘提取方法及系统 | |
CN110349129B (zh) | 一种高密度柔性ic基板外观缺陷检测方法 | |
CN114548250A (zh) | 一种基于数据分析的手机外观检测方法及装置 | |
CN113505811A (zh) | 一种轮毂生产用机器视觉成像方法 | |
CN112819823A (zh) | 一种面向家具板材的圆孔检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |