CN110070095A - 一种在线视觉检测系统中的同步采集方法 - Google Patents
一种在线视觉检测系统中的同步采集方法 Download PDFInfo
- Publication number
- CN110070095A CN110070095A CN201910199110.8A CN201910199110A CN110070095A CN 110070095 A CN110070095 A CN 110070095A CN 201910199110 A CN201910199110 A CN 201910199110A CN 110070095 A CN110070095 A CN 110070095A
- Authority
- CN
- China
- Prior art keywords
- diff
- sequence
- image
- difference
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种在线视觉检测系统中的同步采集方法。该方法的主要步骤是:【1】对待测目标连续成像得到原始图像序列数;【2】通过原始图像序列,计算差分图像序列;【3】计算差分图像序列对应频率域的空间特征值序列;【4】根据空间特征值序列求取其差分序列值;【5】计算判断阈值序列;【6】根据阈值序列与空间特征值序列之间的关系,实现目标同步采集。本发明的方法不必依赖位置反馈装置,对待测目标的行进速度没有特殊要求,降低了硬件设备成本,具有同步精度高,适应性好的优点。
Description
技术领域
本发明属于计算机视觉检测领域,具体涉及一种在线视觉检测系统中的同步采集方法。
背景技术
在线视觉检测技术是工业测量领域中快速发展的新技术之一,它是指通过光学系统和光电传感器自动接收和处理一个真实物体的图像,通过分析计算以获取所需信息。与常规测量技术相比,它具有非接触、自动化、高效率、高精度的优点。在线视觉检测中,图像同步采集是极其重要的组成部分,它直接关系到所采集图像的质量和测量结果的准确性。
在线视觉测量系统采集过程中,被测物体处于持续或间歇运动状态,因相机采集速度限制,采集瞬间必须与被测物相对静止才能进行测量,在要求位置度测量精度较高条件下甚至要求相机与被测目标完全静止,即相机采集信号与被测目标状态同步。
目前同步采集控制的方式通常有两种:内触发和外触发。
内触发是利用相机内置的同步信号发生电路产生的同步信号来完成,工作时相机按固定的采集周期对目标图像进行采集,在这个过程中只能控制信号发生的间隔,而对其位置无法控制。
外触发通过外置信号将特定的信号送入相机的外部触发输入端来控制相机,通常是通过编码器或光栅尺等位置反馈装置实时跟踪目标的位移信号,然后再通过PLC等设备给相机提供触发信号从而进行采集,此时相机的采集时刻和采集位置都由外部信号控制。
但是以上的两种方法在实际应用中存在各自的不足:
内触发的方式对待测目标的行进速度与相机的采集周期的同步度有较高的要求,在采集精度要求较高的情况下(比如要求测量待测目标位置度时)就难以满足要求;
外触发的方式则完全依赖于位置反馈装置实时读取的位移信号,当由于成本或生产安全等原因无法从位置反馈装置引出信号时,则无法对相机进行同步采集控制,从而限制了在线视觉检测技术的应用范围。
发明内容
本发明的目的是提供一种在线视觉检测系统中的同步采集方法,该方法利用对图像特征进行识别达到同步采集控制的目的,本方法不必依赖位置反馈装置,对待测目标的行进速度也没有特殊要求,在降低了采集设备硬件成本的同时也具有同步精度高的特点。
本发明的基本原理是:
本发明是通过判断图像特征的变化趋势来获取相机的触发信号,即相机在待测目标行进过程中对其连续成像,通过对这些图像中的特征值的变化趋势进行分析计算实现在线同步采集。
为达到以上目的,本发明采取如下的具体技术方案予以实现:
【1】对待测目标连续成像得到原始图像序列F(ti),i≥7且i为自然数;
【2】通过原始图像序列F(ti),计算差分图像序列D(ti-1),
差分图像序列计算式为:D(ti-1)=F(ti)-F(ti-1);
【3】计算差分图像序列对应频率域的空间特征值序列SFDi-1;
其中,单幅差分图像的空间特征值SFDi-1的计算如下:
其中,图像大小为M×N,f(m,n)是坐标为(m,n)像素点的灰度值,HFDi-1和VFDi-1分别为单幅图像中水平的空间频率和垂直方向的空间频率,和分别是单幅图像两个对角线方向上的空间频率;
【4】根据空间特征值序列SFDi-1,求取其差分序列值DIFFi-2;
差分序列值计算式为:DIFFi-2=SFDi-1-SFDi-2;
【5】计算判断阈值序列为Hi-6、Hi-5、Hi-4、Hi-3、Hi-2;
其中:Hi-6=SFDi-6/5;
Hi-5=(DIFFi-6+DIFFi-5)/2;
Hi-4=(DIFFi-6+DIFFi-5+DIFFi-4+DIFFi-3)/4;
Hi-3=(DIFFi-5+DIFFi-4+DIFFi-3+DIFFi-2)/4,
Hi-2=(DIFFi-6+DIFFi-s+DIFFi-4+DIFFi-3+DIFFi-2)/5;
【6】根据阈值序列与空间特征值序列之间的关系,实现目标同步采集;其具体是:
【6.1】提取连续的七幅原始图像作为一组,其分别为:
F(ti),F(ti-1),F(ti-2),F(ti-3),F(ti-4),F(ti-5),F(ti-6),取其差分图像并求取六幅差分图像的空间特征值,记作:
SFDi-1、SFDi-2、SFDi-3、SFDi-4、SFDi-5、SFDi-6;
求取其差分序列值DIFFi-2、DIFFi-3、DIFFi-4、DIFFi-5、DIFFi-6;
【6.2】判断SFDi-6是否大于阈值Hi-6;判断DIFFi-5是否小于阈值Hi-5;判断DIFFi-4是否均小于阈值Hi-4;判断DIFFi-3是否均小于阈值Hi-3;判断DIFFi-2是否大于阈值Hi-2;
【6.3】若步骤【6.2】中的条件均满足,则将第一幅图像F(ti-6)记录下作为所要采集的目标图像;
若步骤步骤【6.2】中的任意一个条件不满足,继续向后顺延一幅图像F(ti+1),重新选定七幅图像,重复步骤【6.2】和步骤【6.3】,直至获得目标图像为止。
进一步地,在实际计算判断阈值的过程中发现,Hi-4和Hi-3中几乎相等,因此在进行步骤6.2时,DIFFi-4和DIFFi-3均可采用Hi-3来进行判断。
本发明的有益效果是:
本发明的方法不必依赖位置反馈装置,通过提取图像的空间特征值,实现了对目标图像的获取,不仅降低了硬件设备成本,并且具有高效可靠的同步精度和良好的适应性,为在线测量同步采集目标图像提供了新的思路。
附图说明
图1为理论空间特征值变化曲线图。
具体实施方式
下面通过实例和附图对本发明的方法进行更加详细的介绍:本发明设计了一种在线视觉检测系统中的同步采集方法,通过以下步骤实现:
步骤【1】测量系统(相机)对待测目标连续成像得到原始图像序列F(ti),i≥7且i为自然数;本例中i的最大值为100;
步骤【2】通过原始图像序列F(ti),计算差分图像序列D(ti-1),
差分图像序列计算式为:D(ti-1)=F(ti)-F(ti-1);
步骤【3】计算差分图像序列对应频率域的空间特征值序列SFDi-1;
其中,单幅差分图像的空间特征值sFDi-1的计算如下:
其中,图像大小为M×N,f(m,n)是坐标为(m,n)像素点的灰度值,HFDi-1和VFDi-1分别为单幅图像中水平的空间频率和垂直方向的空间频率,和分别是单幅图像两个对角线方向上的空间频率;
根据上述步骤【1】至【3】可得到空间特征值序列的变化趋势曲线图(即反映的就是原始图像序列变化趋势),参见图1。可见目标运动过程中其空间特征值曲线波动明显,且数值较大;静止时曲线较平稳,且其数值较小。由此可以根据转折点得到所要得到的目标图像。
步骤【4】根据空间特征值序列SFDi-1,求取其差分序列值DIFFi-2;
差分序列值计算式为:DIFFi-2=SFDi-1-SFDi-2;
步骤【5】计算判断阈值序列为Hi-6、Hi-5、Hi-4、Hi-3、Hi-2;
其中:Hi-6=SFDi-6/5;
Hi-5=(DIFFi-6+DIFFi-5)/2;
Hi-4=(DIFFi-6+DIFFi-5+DIFFi-4+DIFFi-3)/4;
Hi-3=(DIFFi-5+DIFFi-4+DIFFi-3+DIFFi-2)/4,
Hi-2=(DIFFi-6+DIFFi-5+DIFFi-4+DIFFi-3+DIFFi-2)/5;
步骤【6】根据阈值序列与空间特征值序列之间的关系,获得目标图像;其具体是:
步骤【6.1】提取连续的前七幅原始图像,分别为:
F(t7),F(t6),F(t5),F(t4),F(t3),F(t2),F(t1),取其差分图像并求取六幅差分图像的空间特征值,记作:SFD6、SFD5、SFD4、SFD3、SFD2、SFD1;
求取其差分序列值DIFF5、DIFF4、DIFF3、DIFF2、DIFF1;
步骤【6.2】判断SFD1是否大于阈值H1;
判断DIFF2是否小于阈值H2;判断DIFF3与DIFF4是否均小于阈值H3;判断DIFF5是否大于阈值H5;
步骤【6.3】若步骤【6.2】中的条件均满足,则将第一幅图像F(ti-6)记录下作为所要采集的目标图像;
若步骤步骤【6.2】中的任意一个条件不满足,继续向后顺延一幅图像F(t8),重新选定七幅图像,记为:
F(t8),F(t7),F(t6),F(t5),F(t4),F(t3),F(t2),重复步骤【6.2】和步骤【6.3】,直至获得目标图像为止。
实际操作中还可加入两次目标图像采集时间间隔的约束条件来保证结果更加准确可靠,如获取一幅目标图像后的一定时间(例如采用间隔时间大于200ms)为后再次获取的目标图像才是有效的。此外,差分图像不一定采用相邻原始图像,在相机帧频快的情况下可间隔一定帧进行差分,从而提高计算效率。
Claims (2)
1.一种在线视觉检测系统中的同步采集方法,其特征在于,包括以下步骤:
【1】对待测目标连续成像得到原始图像序列F(ti),i≥7且i为自然数;
【2】通过原始图像序列F(ti),计算差分图像序列D(ti-1);
差分图像序列计算式为:D(ti-1)=F(ti)-F(ti-1);
【3】计算差分图像序列对应频率域的空间特征值序列SFDi-1;
其中,单幅差分图像的空间特征值SFDi-1的计算如下:
其中,图像大小为M×N,f(m,n)是坐标为(m,n)像素点的灰度值,HFDi-1和VFDi-1分别为单幅图像中水平的空间频率和垂直方向的空间频率,和分别是单幅图像两个对角线方向上的空间频率;
【4】根据空间特征值序列SFDi-1,求取其差分序列值DIFFi-2;
差分序列值计算式为:DIFFi-2=SFDi-1-SFDi-2;
【5】计算判断阈值序列为Hi-6、Hi-5、Hi-4、Hi-3、Hi-2;
其中:Hi-6=SFDi-6/5;
Hi-5=(DIFFi-6+DIFFi-5)/2;
Hi-4=(DIFFi-6+DIFFi-5+DIFFi-4+DIFFi-3)/4;
Hi-3=(DIFFi-5+DIFFi-4+DIFFi-3+DIFFi-2)/4,
Hi-2=(DIFFi-6+DIFFi-5+DIFFi-4+DIFFi-3+DIFFi-2)/5;
【6】根据阈值序列与空间特征值序列之间的关系,实现目标同步采集;其具体是:
【6.1】提取连续的七幅原始图像作为一组,其分别为:
F(ti),F(ti-1),F(ti-2),F(ti-3),F(ti-4),F(ti-5),F(ti-6),取其差分图像并求取六幅差分图像的空间特征值,记作:
SFDi-1、SFDi-2、SFDi-3、SFDi-4、SFDi-5、SFDi-6;
求取其差分序列值DIFFi-2、DIFFi-3、DIFFi-4、DIFFi-5、DIFFi-6;
【6.2】判断SFDi-6是否大于阈值Hi-6;判断DIFFi-5是否小于阈值Hi-5;判断DIFFi-4是否均小于阈值Hi-4;判断DIFFi-3是否均小于阈值Hi-3;判断DIFFi-2是否大于阈值Hi-2;
【6.3】若步骤【6.2】中的条件均满足,则将第一幅图像F(ti-6)记录下作为所要采集的目标图像;
若步骤步骤【6.2】中的任意一个条件不满足,继续向后顺延一幅图像F(ti+1),重新选定七幅图像,重复步骤【6.2】和步骤【6.3】,直至获得目标图像为止。
2.根据权利要求1所述的在线视觉检测系统中的同步采集方法,其特征在于:Hi-4=Hi-3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199110.8A CN110070095B (zh) | 2019-03-15 | 2019-03-15 | 一种在线视觉检测系统中的同步采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199110.8A CN110070095B (zh) | 2019-03-15 | 2019-03-15 | 一种在线视觉检测系统中的同步采集方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110070095A true CN110070095A (zh) | 2019-07-30 |
CN110070095B CN110070095B (zh) | 2021-01-15 |
Family
ID=67366183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910199110.8A Active CN110070095B (zh) | 2019-03-15 | 2019-03-15 | 一种在线视觉检测系统中的同步采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070095B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101908143A (zh) * | 2010-08-09 | 2010-12-08 | 哈尔滨工程大学 | 基于子带特征融合的活体指纹滑移缺陷检测方法 |
US20110188728A1 (en) * | 2009-12-17 | 2011-08-04 | The Charles Stark Draper Laboratory, Inc. | Methods of generating trophectoderm and neurectoderm from human embryonic stem cells |
-
2019
- 2019-03-15 CN CN201910199110.8A patent/CN110070095B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110188728A1 (en) * | 2009-12-17 | 2011-08-04 | The Charles Stark Draper Laboratory, Inc. | Methods of generating trophectoderm and neurectoderm from human embryonic stem cells |
CN101908143A (zh) * | 2010-08-09 | 2010-12-08 | 哈尔滨工程大学 | 基于子带特征融合的活体指纹滑移缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110070095B (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107255476B (zh) | 一种基于惯性数据和视觉特征的室内定位方法和装置 | |
CN101945284B (zh) | 一种运动估计的装置和方法 | |
CN111354042A (zh) | 机器人视觉图像的特征提取方法、装置、机器人及介质 | |
CN103575227A (zh) | 一种基于数字散斑的视觉引伸计实现方法 | |
US11570375B2 (en) | Space debris observation method based on alternating exposure times of charge coupled device (CCD) camera | |
CN105472214B (zh) | 采用面阵图像传感器拼接成像的成像系统及成像方法 | |
CN111260720A (zh) | 一种基于深度学习方法的目标高度测定系统 | |
CN103020988A (zh) | 一种激光散斑图像的运动向量生成方法 | |
US11669978B2 (en) | Method and device for estimating background motion of infrared image sequences and storage medium | |
CN101943969B (zh) | 位置测量设备和位置测量方法 | |
CN110243338A (zh) | 一种实时动态双目测距方法及系统 | |
CN101340811B (zh) | 影像最优匹配系统及方法 | |
CN104865893B (zh) | 运动平台控制系统和运动平台误差计算方法 | |
JP2007127478A (ja) | 追跡対象物速度検出装置および追跡対象物速度検出方法 | |
WO2021111747A1 (ja) | 画像処理装置、監視システム、及び画像処理方法 | |
Zhao et al. | Precise positioning of linear motor mover directly from the phase difference analysis | |
CN110070095A (zh) | 一种在线视觉检测系统中的同步采集方法 | |
CN201166625Y (zh) | 固体材料挠度扫描测量装置 | |
CN110675393A (zh) | 一种基于机器视觉的坯料规格检测方法 | |
CN109410272B (zh) | 一种变压器螺母识别与定位装置及方法 | |
JP2011090708A (ja) | 対象個数検出装置および対象個数検出方法 | |
CN108627094A (zh) | 一种零部件高度尺寸的3d激光测量方法 | |
CN107218918B (zh) | 一种单摄像头测距方法 | |
JP2009205695A (ja) | 対象個数検出装置および対象個数検出方法 | |
CN114708318B (zh) | 一种基于深度相机的未知待测面曲率测定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |