CN107657624A - 圆钢端面双目图像视差求取方法 - Google Patents
圆钢端面双目图像视差求取方法 Download PDFInfo
- Publication number
- CN107657624A CN107657624A CN201710878574.2A CN201710878574A CN107657624A CN 107657624 A CN107657624 A CN 107657624A CN 201710878574 A CN201710878574 A CN 201710878574A CN 107657624 A CN107657624 A CN 107657624A
- Authority
- CN
- China
- Prior art keywords
- round steel
- face
- parallax
- image
- binocular image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 229910000831 Steel Inorganic materials 0.000 title claims abstract description 62
- 239000010959 steel Substances 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 abstract description 2
- 238000002372 labelling Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30136—Metal
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
圆钢端面双目图像视差求取方法,所述方法包括如下步骤:(1)前期准备及图像处理;(2)圆钢双目图像圆形拟合;(3)求取圆钢端面圆心的视差。该方法分别对两幅图像的圆钢边界进行拟合确定出中心坐标,即可获得对应圆钢端面中心点的视差值,圆钢端面边界拟合时已知圆钢的直径信息,可以得到比较精确的轮廓边界,降低误差。
Description
技术领域
本发明涉及一种基于双目视觉的物体端面求取中心点视差的方法,尤其是涉及一种圆钢端面双目图像的视差求取方法。
背景技术
圆钢是当前钢铁行业的主要产品,更是工业领域重要的生产加工原材料。在不同行业对于圆钢的质量要求也是不同的,钢铁行业所生产的圆钢规格也是多种多样,为了区分不同种类、规格的圆钢,需要为圆钢粘贴标签,以便于识别圆钢的一些基本信息。购货商可以通过标签了解到圆钢的直径、长度以及生产炉号、成分、生产日期等信息。
目前,标签都是粘贴在圆钢的端面处,随着计算机视觉的发展,应用机器人自动贴标代替人工手动贴标成为了发展趋势。机器人贴标具有速度快、精度高、自动化等特点。要想实现机器人的准确贴标,首先要为机器人提供准确的圆钢端面坐标,但是由于钢厂生产环境复杂,照明不足,相机在提取图片时需要增加照明,这样圆钢端面就会出现反光,获得的图像在圆钢端面处会出现白色区域,此区域就是影响立体匹配的一种常见因素弱纹理。目前双目视觉中一般都是运用立体匹配来寻找两幅图像的匹配点,立体匹配的算法很多,其本质都是通过一幅图像上某点或者此点周边一些点的特征与另一幅图上的每一个点进行匹配,这些方法的运算量都很大,而且在弱纹理区域会出现匹配错误,无法准确找出圆钢中心点的匹配点,进而导致立体匹配误差较大。目前,还没有针对圆钢端面双目图像视差求取的有效方法。
发明内容
基于以上原因,本发明旨在提出一种针对圆钢端面双目图像情况下求取圆钢端面中心视差的一种方法,为最终建立基于双目视觉的自动贴标系统奠定技术基础。
本发明是根据圆钢端面贴标的特点提出的一种求取视差的简化方法,对于圆钢贴标不需要将整幅图像的视差都求出来,只需要将圆钢端面中心点的视差求取出来即可,因此只需要对两幅图像图像进行单独处理,提取出圆钢的边缘信息,通过拟合将圆钢边界拟合成圆形,两幅图像的圆心点即为对应的匹配点,由此可以得到对应点的视差值,此外由于圆钢端面形状比较规则而且直径已知,拟合出来的圆形精度较好,由此确定的圆心坐标偏差较小,而本方法就是通过两幅图像圆心坐标的差值来确定视差的,所以其视差值精度也较好。
基于双目视觉的圆钢端面双目图像的视差方法包括如下步骤:
(1)前期准备及图像处理;
(2)圆钢双目图像圆形拟合;
(3)求取圆钢端面圆心的视差。
本发明的有益技术效果包括:
(1)分别对两幅图像的圆钢边界进行拟合确定出中心坐标,即可获得对应圆钢端面中心点的视差值;
(2)圆钢端面边界拟合时已知圆钢的直径信息,可以得到比较精确的轮廓边界,降低误差。
附图说明
图1是本发明圆钢端面双目图像视差求取方法的流程图;
图2是本发明方法采用的双目视觉测量系统与坐标系示意图。
具体实施例:
下面结合附图1-2说明本方法。
以φ60圆钢为例说明本发明的应用,首先建立一个双目视觉系统,圆钢水平放置,双目相机布置在圆钢端面的前部。C l 和C r 分别代表左相机和右相机的光心位置,沿X轴水平放置。以C l 为原点建立XYZ坐标系,X轴水平朝右为正方向,Z轴向后为正方向,Y轴符合右手定则、向下为正方向。C l 、C r 的距离称为基线b,x为成像平面与X平行,它们之间的距离为焦距f。
本发明圆钢端面双目图像视差求取方法的步骤如下:
1、前期准备及图像处理
(1)双目相机标定
采用传统的张正友标定法,利用MATLAB标定工具箱进行双目标定的。在标定时标定板放置在圆钢端面的工位处,每个相机取最少3张不同角度的图像,利用MATLAB标定工具箱相机进行标定获得其各自的内、外参,相机内、外参的标准形式如下:
A为内参矩阵,其形式为:
其中,f x 为归一化后的x方向上的焦距,f y 为归一化后的y方向上的焦距,u 0 、v 0 为主点坐标。(R|t)为外参,是一个3×4的矩阵,R为3×3的旋转矩阵,t为平移向量。在第一左相机与第二右相机标定完成后,将其各自的标定参数按照MATLAB标定工具箱的要求导入,进行双目标定,得到左相机相对于右相机的姿态矩阵的旋转向量om,以及位移向量T,旋转向量om可以利用函数rodrigues转换为3×3旋转矩阵。标定完成后程序自动记录参数,后续程序直接调用参数不用进行二次标定。
(2)左、右相机获取立体图像对并进行极线校正
极线校正过程是将在标定时获得的左相机内外参P l =A l (R l |t l )、右相机内外参P r =A r (R r |t r )与左相机和右相机获取的图像对作为输入参数,极线校正通常经过单应变换H完成,H=A r (R r |t r )(R l |t l )-1 A l -1 为3×3矩阵。设原图像上的任意一点为m经过极线校正后对应点为m ’ ,它们的关系为:m ’ =Hm。原图像经校正后获得的立体图像对在同一平面上,左图像与右图像的x轴与基线平行,对应点具有相同的y坐标。
(3)左、右立体图像对增强
图像增强采用灰度变换增强法,在MATLAB中利用函数imadjust进行立体图像对增强,该函数中原图像中要变换的灰度范围可以通过函数stretchlim自动获得,也可采用固定值,在图像采集环境不变的情况下采用固定值可以使程序运行速度更快,本程序采用固定值,经验证在[0.5;1]时最优。图像变换后的灰度范围设置为默认值即0-255。
(4)左、右立体图像对二值化
图像二值化在MATLAB中是通过im2bw函数将灰度图像转换为二值图像的,在使用im2bw函数时必须首先设置阈值参数,可以通过graythresh函数自动获取阈值,也可以采用固定阈值。由于本系统图像提取是在光照情况下进行的,获取的图像稳定,采用固定阈值不仅可以提高图像质量,而且还可以提高系统运行速度,因此本系统采用固定阈值,经验证阈值为0.6时最优。
2、左、右立体图像对圆形拟合
通过已知条件圆钢直径φ60,利用最小二乘法拟合圆可以得到较为准确的圆形轮廓。圆曲线方程为:。
展开可得:。
令:,,,
则有:。
将圆钢边界作为样本集(x i ,y i ),样本集中第i个点到圆心的距离d i 为:
。
点(x i ,y i )到圆钢边界的距离的平方与半径平方的差为:
。
σ i 的平方和Q(a,b,c)为:。
使Q(a,b,c)取最小值可得a、b、c的值,进而可求出A、B、R的值,对圆钢边界进行圆形拟合后可以获得圆心坐标(A,B)。
3、求取双目立体图像对的视差
视差是左右图像的一对匹配点在x轴上的坐标的差异。双目立体图像对经过圆形拟合后圆钢端面中心坐标都已知,左图像圆钢端面中心坐标(x l 、y l ), 右图像圆钢端面中心坐标(x r 、y r ),只需将左右图像上对应圆钢端面中心的x坐标做差即可得到圆钢端面中心的视差d,即:
d=x l -x r. 。
Claims (2)
1.圆钢端面双目图像视差求取方法,所述方法包括如下步骤:
(1)前期准备及图像处理;
(2)圆钢双目图像圆形拟合;
(3)求取圆钢端面圆心的视差。
2.根据权利要求1所述的圆钢端面双目图像视差求取方法,其特征在于第(2)步圆钢双目图像圆形拟合时利用已知的圆钢直径信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710878574.2A CN107657624A (zh) | 2017-09-26 | 2017-09-26 | 圆钢端面双目图像视差求取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710878574.2A CN107657624A (zh) | 2017-09-26 | 2017-09-26 | 圆钢端面双目图像视差求取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107657624A true CN107657624A (zh) | 2018-02-02 |
Family
ID=61131172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710878574.2A Pending CN107657624A (zh) | 2017-09-26 | 2017-09-26 | 圆钢端面双目图像视差求取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107657624A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111537517A (zh) * | 2020-05-18 | 2020-08-14 | 江汉大学 | 一种无人智能化冲压缺陷识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296698A (zh) * | 2016-08-15 | 2017-01-04 | 成都通甲优博科技有限责任公司 | 一种基于立体视觉的闪电三维定位方法 |
CN107133983A (zh) * | 2017-05-09 | 2017-09-05 | 河北科技大学 | 成捆圆钢端面双目视觉系统与空间定位及计数方法 |
-
2017
- 2017-09-26 CN CN201710878574.2A patent/CN107657624A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296698A (zh) * | 2016-08-15 | 2017-01-04 | 成都通甲优博科技有限责任公司 | 一种基于立体视觉的闪电三维定位方法 |
CN107133983A (zh) * | 2017-05-09 | 2017-09-05 | 河北科技大学 | 成捆圆钢端面双目视觉系统与空间定位及计数方法 |
Non-Patent Citations (1)
Title |
---|
GABENR: ""最小二乘法拟合圆公式推导及matlab实现"", 《百度文库》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111537517A (zh) * | 2020-05-18 | 2020-08-14 | 江汉大学 | 一种无人智能化冲压缺陷识别方法 |
CN111537517B (zh) * | 2020-05-18 | 2022-12-13 | 江汉大学 | 一种无人智能化冲压缺陷识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133983B (zh) | 成捆圆钢端面双目视觉系统与空间定位及计数方法 | |
CN105538345B (zh) | 一种基于多镜头的智能机械手及定位装配方法 | |
CN107941808B (zh) | 基于机器视觉的3d打印成型质量检测系统及方法 | |
WO2023060926A1 (zh) | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 | |
CN109579695B (zh) | 一种基于异构立体视觉的零件测量方法 | |
CN107588721A (zh) | 一种基于双目视觉的零件多尺寸的测量方法及系统 | |
CN105740856A (zh) | 一种基于机器视觉的指针式仪表示数读取方法 | |
CN109961485A (zh) | 一种基于单目视觉进行目标定位的方法 | |
CN110328665B (zh) | Led模组的装配方法及装置、存储介质、处理器 | |
CN108269289A (zh) | 一种相机参数标定的两步优化方法 | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
US20210192705A1 (en) | Method for measuring hole provided in workpiece | |
CN113221953B (zh) | 基于实例分割和双目深度估计的目标姿态识别系统与方法 | |
CN111008602B (zh) | 一种小曲率薄壁零件用二维和三维视觉结合的划线特征提取方法 | |
CN111047586A (zh) | 一种基于机器视觉的像素当量测量方法 | |
CN115187612A (zh) | 一种基于机器视觉的平面面积测量方法、装置及系统 | |
CN111325803A (zh) | 一种评估双目相机内外参与时间同步的标定的方法 | |
CN107657624A (zh) | 圆钢端面双目图像视差求取方法 | |
CN107545587B (zh) | 基于主辅眼的圆钢端面双目视觉定位方法 | |
CN105823430B (zh) | 成像视野小于柔性环形零件尺寸时的图像采集与拼接方法 | |
CN112785647A (zh) | 一种三目立体图像检测方法和系统 | |
CN111380474A (zh) | 一种基于双目视觉的孔径检测方法 | |
CN116309325A (zh) | 一种基于深度学习的贴片检测方法及系统 | |
CN108459558B (zh) | 一种定位测量装置和定位测量方法 | |
CN108898585A (zh) | 一种轴类零件检测方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180202 |
|
WD01 | Invention patent application deemed withdrawn after publication |