CN116612306A - 基于计算机视觉的法兰盘智能对位方法及系统 - Google Patents

基于计算机视觉的法兰盘智能对位方法及系统 Download PDF

Info

Publication number
CN116612306A
CN116612306A CN202310868746.3A CN202310868746A CN116612306A CN 116612306 A CN116612306 A CN 116612306A CN 202310868746 A CN202310868746 A CN 202310868746A CN 116612306 A CN116612306 A CN 116612306A
Authority
CN
China
Prior art keywords
reflection
value
screw hole
matching
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310868746.3A
Other languages
English (en)
Other versions
CN116612306B (zh
Inventor
袭瑞江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Shunfa Heavy Industry Co ltd
Original Assignee
Shandong Shunfa Heavy Industry Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Shunfa Heavy Industry Co ltd filed Critical Shandong Shunfa Heavy Industry Co ltd
Priority to CN202310868746.3A priority Critical patent/CN116612306B/zh
Publication of CN116612306A publication Critical patent/CN116612306A/zh
Application granted granted Critical
Publication of CN116612306B publication Critical patent/CN116612306B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,具体涉及一种基于计算机视觉的法兰盘智能对位方法及系统。首先获取待匹配的法兰盘的对位面图像,根据图像中像素点的反光度确定疑似螺孔区域,根据反光度的离散特征获得反光误差指数筛选螺孔区域。确定螺孔区域的特征点,根据特征点的特征点描述符、反光度和光线能量度获得特征点表征向量。根据特征点表征向量的差异分析匹配对中的特征点匹配误差指数,进而分析待匹配的法兰盘是否能够进行对位匹配。最终,能够在提高法兰盘对位匹配分析的准确性的同时,减少算力成本和时间成本。

Description

基于计算机视觉的法兰盘智能对位方法及系统
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于计算机视觉的法兰盘智能对位方法及系统。
背景技术
法兰盘简称法兰,指在一个类似盘状的金属体的周边开几个固定用的孔用于连接管道等机械设备;只有两个孔径完全相同的法兰盘进行对位组合,才能够保证管道的安全性和密封性;若是选取两个不能够完全对位匹配的法兰盘进行对位组合,会影响管道的使用安全性以及密封性。
目前判断法兰盘能否进行对位匹配,通常是借助测量工具或通过图像匹配算法,借助工具测量不仅耗费时间,而且不能保证测量精度,容易产生误差。而图像匹配中特征点的选取与匹配会耗费一些必要的算力成本以及计算时间,影响效率,同时可能存在特征点匹配的误差,使得准确性不高。两种方式影响了判断法兰盘对位匹配的准确性以及效率。
发明内容
为了解决上述通过测量工具或图像匹配判断法兰盘能否对位匹配时,影响了判断法兰盘对位匹配的准确性以及效率的技术问题,本发明的目的在于提供一种基于计算机视觉的法兰盘智能对位方法及系统,所采用的技术方案具体如下:
获取待匹配的法兰盘的对位面图像,根据每个像素点和预设邻域范围内的邻域像素点的灰度特征获得每个像素点的反光度,所述预设邻域范围小于螺孔范围;
根据每个像素点的所述反光度获得所述对位面图像的疑似螺孔区域;根据所述疑似螺孔区域中像素点的所述反光度的离散特征获得反光误差指数,根据所述反光误差指数筛选螺孔区域;
获得所述螺孔区域的特征点,根据所述特征点的灰度值和反光度获得光线能量度,根据所述特征点的特征点描述符、所述反光度和所述光线能量度获得特征点表征向量;
将待匹配的两个法兰盘的所述螺孔区域按照顺序匹配获得匹配对,根据所述匹配对的特征点之间,所述特征点表征向量的差异特征获得匹配误差指数;根据所述匹配误差指数获得匹配特征点并进行法兰盘的对位匹配。
进一步地,所述反光度的获取步骤包括:
计算所述像素点的预设邻域范围内,邻域像素点的灰度值方差与数值一的和值,计算灰度值方差与数值一的和值的倒数,作为邻域比重系数;计算邻域像素点的灰度值平方的平均值,计算邻域像素点的灰度值平方的平均值、所述邻域比重系数和预设第一权重三者的乘积,获得邻域反光表征值;计算所述像素点的灰度值的平方值与预设第二权重的乘积,获得中心反光表征值;
计算所述中心反光表征值和所述邻域反光表征值的和值,获得区域反光表征值,并向下取整,获得所述反光度。
进一步地,所述疑似螺孔区域的获取步骤包括:
根据每个像素点的所述反光度的大小分布特征,通过阈值分割二值化算法获得反光度阈值,根据所述反光度阈值,确定所述反光度小于所述反光度阈值的连通域并进行分割,获得所述疑似螺孔区域。
进一步地,所述螺孔区域的获取步骤包括:
确定每个所述疑似螺孔区域的最小外接矩形,计算所述最小外接矩形内的像素点的反光度均值,计算所述最小外接矩形内像素点的所述反光度的标准差,计算所述最小外接矩形内所述反光度的最大值和最小值的极差;计算所述标准差与所述极差的乘积,获得离散特征值,计算所述离散特征值与所述反光度均值的乘积,获得所述反光误差指数;
将每个疑似螺孔区域的所述反光误差指数从小到大排序,从第一位开始取预设数量个所述反光误差指数对应的疑似螺孔区域,作为所述螺孔区域。
进一步地,所述光线能量度的获取步骤包括:
将所述螺孔区域的每个特征点的灰度值归一化,获得灰度表征值;计算所述特征点的所述灰度表征值与所述反光度的乘积并正相关映射,获得反光特征值,将所述反光度进行负相关映射,计算负向相关映射后的反光度与对应的所述反光特征值的比值,获得所述光线能量度。
进一步地,所述特征点表征向量的获取步骤包括:
计算所述特征点的所述反光度与预设第一数值的乘积,作为第一反光描述值;计算所述特征点的所述光线能量度与预设第二数值的乘积,作为第二反光描述值;
将所述特征点的所述特征点描述符、所述第一反光描述值和所述第二反光描述值组合,获得所述特征点表征向量。
进一步地,所述匹配对的获取步骤包括:
将待匹配的两个法兰盘的所述螺孔区域从同一位置开始,分别按照相同的顺序编号,将两个相同编号的所述螺孔区域作为一个所述匹配对。
进一步地,所述匹配误差指数的获取步骤包括:
计算所述匹配对的特征点之间的所述特征点表征向量中,每一个维度的特征分量值的差值的平方和,获得所述匹配误差指数。
进一步地,所述获得匹配特征点并进行法兰盘的对位匹配的步骤包括:
当所述匹配误差指数小于预设误差阈值时,两个特征点匹配成功,获得匹配特征点,遍历匹配对中所有特征点,获得所有匹配特征点后,当匹配特征点与所有特征点的数量比值超过预设比值时,则认为待匹配的法兰盘可以进行对位匹配,否则认为不能进行对位匹配。
本发明还提出了一种基于计算机视觉的法兰盘智能对位系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序实现任意一项一种基于计算机视觉的法兰盘智能对位方法的步骤。
本发明具有如下有益效果:
在本发明实施例中,首先基于法兰盘的金属区域和螺孔区域反光程度不同的特性,获得每个像素点的反光度,进而可通过反光度的差异获得疑似螺孔区域。因螺孔区域的反光度大小较为集中,离散情况较小;故可根据反光度的离散特征从疑似螺孔区域筛选螺孔区域。后续基于螺孔区域分析可以降低算法的算力成本和时间,同时提高准确性。获得光线能量度是为了表征特征点的光线能量特征,增加不同特征点之间的区别特征,提高后续特征点匹配的准确率。特征点的特征点表征向量结合了特征点描述符、反光度和匹配误差指数,能够从多维度的特征中表征该特征点,进而提高特征点匹配过程中的准确性,减少错误匹配的可能性;最后根据匹配特征点的占比情况分析法兰盘对位匹配情况。能够在提高法兰盘对位匹配分析的准确性的同时,减少算力成本和时间成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种基于计算机视觉的法兰盘智能对位方法流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于计算机视觉的法兰盘智能对位方法及系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于计算机视觉的法兰盘智能对位方法及系统的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种基于计算机视觉的法兰盘智能对位方法流程图,该方法包括以下步骤:
步骤S1,获取法兰盘的对位面图像,根据每个像素点和预设邻域范围内的邻域像素点的灰度特征获得每个像素点的反光度,预设邻域范围小于螺孔范围。
在本发明实施例中,实施场景为对法兰盘的智能对位匹配。因为测量工具,以及图像匹配算法中特征点的选取与匹配影响了判断法兰盘对位匹配的准确性以及效率。故需要对判断法兰盘对位匹配的过程进行改进,提高判断法兰盘对位匹配的准确性和效率。首先,获取待匹配的法兰盘的对位面图像,对位面指两个法兰盘需要贴合的一面,首先将两个法兰盘放置在同一个黑色背景区域,且法兰盘摆放方位一致,将CMOS相机固定于法兰盘的上方进行拍摄。为了提高后续分析的准确度,需要将拍摄获取的图像进行预处理,首先通过加权平均法灰度化算法获得灰度图像,然后通过非局部均值滤波算法对灰度图像进行处理,在保留边界信息的同时去除噪声;需要说明的是,加权平均法灰度化算法与非局部均值滤波算法属于本领域技术人员所熟知的技术手段。至此,获得了两个待匹配的法兰盘的对位面图像。后续根据法兰盘的对位面图像进行对位匹配情况的分析。
首先,因为法兰盘表面的特性是光滑的,故大部分区域会出现反光效应,但法兰盘中的螺孔区域不具备反光效应,故可以根据反光情况的差异,确定螺孔区域;故根据每个像素点和预设邻域范围内的邻域像素点的灰度特征获得每个像素点的反光度,具体包括:计算像素点的预设邻域范围内,邻域像素点的灰度值方差与数值一的和值,计算灰度值方差与数值一的和值的倒数,作为邻域比重系数;计算邻域像素点的灰度值平方的平均值,计算邻域像素点的灰度值平方的平均值、邻域比重系数和预设第一权重三者的乘积,获得邻域反光表征值;计算像素点的灰度值的平方值与预设第二权重的乘积,获得中心反光表征值;计算中心反光表征值和邻域反光表征值的和值,获得区域反光表征值,并向下取整,获得反光度,其中预设邻域范围小于螺孔范围;获取反光度的具体公式包括:
式中,表示对位面图像中第/>个像素点的反光度;/>表示向下取整函数,/>表示预设第一权重,/>表示预设第二权重;/>表示预设邻域范围内邻域像素点的数量,/>表示不同的邻域像素点,/>表示第/>个邻域像素点的灰度值,/>表示预设邻域范围内邻域像素点的灰度值方差,/>表示第/>个像素点的灰度值。/>表示邻域比重系数,表示邻域像素点的灰度值平方的平均值。
对于反光度的获取,为了避免只考虑该像素点自身特征而导致出现误差的可能,例如可能是噪声像素点;或是法兰盘某处出现了锈斑情况导致反光度较小,但实际应该是反光区域。故需要结合该像素点与预设邻域范围内的邻域像素点的灰度特征,灰度值越大,意味着该处越亮,光线反射的情况越明显。因螺孔区域和法兰盘其他区域的反光特征差异较大,故预设邻域范围不能大于螺孔区域,否则会影响该像素点的反光度准确性,预设邻域范围指以该像素点为中心像素点的圆形区域;在本发明实施例中,预设邻域范围的直径为螺孔区域半径的二分之一,实施者可根据实施场景自行确定。其中向下取整函数是为了获取正数便于后续的计算。计算邻域比重系数的目的是衡量邻域像素点的权重占比,邻域比重系数的范围区间为(0,1],当邻域像素点的方差较大时,意味着该预设邻域范围内的邻域像素点灰度值差异较大,此时可能在螺孔的边缘区域,即预设邻域范围内存在灰度值较大和较小的邻域像素点,则此时邻域比重系数就较低,需要降低邻域像素点的比重,着重于该像素点的灰度特征。当邻域像素点的方差趋于零时,意味着该像素点的预设邻域范围内的整体灰度特征较为接近,则计算该像素点的反光度时可以增加邻域像素点的比重,使得计算该像素点的反光度更准确。在本发明实施例中预设第一权重和预设第二权重分别为0.6和0.4,实施者可根据实施场景自行确定。
至此,获得了法兰盘的对位面图像中每个像素点的反光度,后续可通过不同像素点之间的反光度差异分析螺孔区域。
步骤S2,根据每个像素点的反光度获得对位面图像的疑似螺孔区域;根据疑似螺孔区域中像素点的反光度的离散特征获得反光误差指数,根据反光误差指数筛选螺孔区域。
因为法兰盘的螺孔区域和其他区域的反光度存在较大差异,因其他区域的金属表面较亮,容易对光线形成反射,故反光度较大,而螺孔区域是空的,直接可见黑色背景区域,故螺孔区域的反光度是非常小的,且越接近螺孔区域的圆心位置其反光度越低。因此可根据不同像素点处的反光度差异分析螺孔区域的情况。首先,根据每个像素点的反光度获得对位面图像的疑似螺孔区域,具体包括:根据每个像素点的反光度的大小分布特征,通过阈值分割二值化算法获得反光度阈值,根据反光度阈值,确定反光度小于反光度阈值的连通域并进行分割,获得疑似螺孔区域。在本发明实施例中,进行阈值分割二值化的算法为OTSU算法,需要说明的是,OTSU算法为最大类间方差法,该算法是一种确定图像二值化分割阈值的算法,能够基于所有像素点的反光度确定分割阈值将反光度分为两类,其中分割阈值即为反光度阈值,因最大类间方差法属于现有技术,具体步骤不再赘述,实施者可通过其他例如自适应阈值算法等现有技术进行二值化分割,确定反光度阈值。获得反光度阈值后,因螺孔区域的反光度较小,故确定反光度小于反光度阈值的连通域,作为疑似螺孔区域。对于疑似螺孔区域,因为目前基于反光度阈值获得的所有连通域并不能保证是全部是螺孔区域,因为可能存在法兰盘某处存在锈迹,导致反光度相对较小,从而出现了一块不是螺孔区域的连通域。因此将所有基于反光度阈值获得的连通域称为疑似螺孔区域。后续对疑似螺孔区域进一步分析,确定螺孔区域。
进一步地,可根据疑似螺孔区域中像素点的反光度分布情况分析是否为真实的螺孔区域。故根据疑似螺孔区域中像素点的反光度的离散特征获得反光误差指数,根据反光误差指数筛选螺孔区域,具体包括:确定每个疑似螺孔区域的最小外接矩形,计算最小外接矩形内的像素点的反光度均值,计算最小外接矩形内像素点的反光度的标准差,计算最小外接矩形内反光度的最大值和最小值的极差;计算标准差与极差的乘积,获得离散特征值,计算离散特征值与反光度均值的乘积,获得反光误差指数;将每个疑似螺孔区域的反光误差指数从小到大排序,从第一位开始取预设数量个反光误差指数对应的疑似螺孔区域,作为螺孔区域;获取螺孔区域的具体公式包括:
式中,表示第/>个疑似螺孔区域的最小外接矩形的反光度误差指数,/>表示第个疑似螺孔区域的最小外接矩形的反光度均值,/>表示第/>个疑似螺孔区域的最小外接矩形的标准差,/>表示第/>个疑似螺孔区域的最小外接矩形的极差。表示离散特征值。
对于反光误差指数的获取,最小外接矩形的反光度均值能体现该区域的整体反光度程度,反光度均值越小,意味着该疑似螺孔区域为螺孔区域的可能性越大。反光度标准差/>能反映反光度的离散程度,当标准差越小,意味着该区域的反光度越相似,则意味着该疑似螺孔区域为螺孔区域的可能性越大,为锈斑区域的可能性越小。当极差越小,同样意味着反光度越集中,因锈斑区域的反光度大小不一,相对于螺孔区域的黑色背景,锈斑区域的反光度会较大且离散,故锈斑区域的离散特征值会大于螺孔区域。因此,当反光误差值越小,则意味着该疑似螺孔区域为螺孔区域的可能性越大;当反光误差值越大,则意味着该疑似螺孔区域为螺孔区域的可能性越小。
进一步地,则可根据反光误差指数的大小情况进行排序,确定螺孔区域;每个疑似螺孔区域的反光误差指数从小到大排序,从第一位开始取预设数量个反光误差指数对应的疑似螺孔区域,作为螺孔区域。预设数量为待匹配的法兰盘的螺孔实际数量,例如法兰盘存在6个螺孔,则该预设数量即为6,通过寻找反光误差指数最小的6个疑似螺孔区域,作为螺孔区域。至此,获得了螺孔区域,后续需要根据螺孔区域中特征点的特征情况判断能否进行对位匹配。
步骤S3,获得螺孔区域的特征点,根据特征点的灰度值和反光度获得光线能量度,根据特征点的特征点描述符、反光度和光线能量度获得特征点表征向量。
现有常用的特征点提取算法有SIFT算法和HOG算法等,HOG指方向梯度直方图特征,通过计算和统计图像局部区域的梯度方向直方图来构成特征。SIFT算法为进行图像匹配的传统算法,SIFT算法指尺度不变特征变换,通过提取图像的局部特征,在尺度空间寻找极值点,并提取出其位置尺度和方向信息。在本发明实施例中使用SIFT算法进行特征点的提取分析,以获得的螺孔区域的图像为例,通过构建尺度空间,然后进行螺孔特征点的生成,得到螺孔特征点的主方向。但除了得到螺孔特征点外,该特征点中还包含其他的干扰特征点,故需要设置响应阈值剔除干扰特征点,在本发明实施例中,SIFT算法中的响应阈值设置为10,至此,获得了螺孔区域中的特征点,因SIFT算法为现有技术,具体步骤不再赘述。因只对螺孔区域的图像进行特征点提取,故减少了一定量的算力成本和计算时间,同时避免了计算其他区域没有必要的特征点,能够提高法兰盘的对位匹配效率和准确性。
又因传统的SIFT算法是通过穷举法和聚类法计算欧氏距离,通过欧氏距离最小来进行对位匹配,计算量较大,耗费不必要的算力成本和时间。步骤S1和S2已经通过确定螺孔区域减小了一定的算力成本和时间;为了在提高匹配的准确性的同时,进一步地减小算力成本和时间,需要对匹配过程进一步地改进。故首先需要获得螺孔区域的特征点,根据特征点的灰度值和反光度获得光线能量度,具体包括:将螺孔区域的每个特征点的灰度值归一化,获得灰度表征值;计算特征点的灰度表征值与反光度的乘积并正相关映射,获得反光特征值,将反光度进行负相关映射,计算负向相关映射后的反光度与对应的反光特征值的比值,获得光线能量度;在本发明一个实施例中,光线能量度的具体获取公式包括:
式中,表示第/>个特征点的光线能量度,/>表示归一化函数,/>表示第/>个特征点的灰度表征值,/>表示第/>个特征点的反光度,/>表示以自然常数为底的指数函数,/>目标是进行负相关映射,/>是自然对数,目的是进行正相关映射,自然对数中的/>的目的是防止数据小于1出现负值导致后续的计算误差。在本发明其他实施例中,可通过其他例如/>等数学运算方法进行负相关映射;可通过其他例如等数学运算方法进行正相关映射。
对于光线能量度的获取,目的是用来表征特征点的光线能量特征,用以增加不同特征点的区别特征,提高后续特征点匹配的准确性,当该特征点的灰度表征值越大、反光度越大时,分母越大,分子越小,该特征点的光线能量度越大,反光情况越明显;当该特征点的灰度表征值越小、反光度越小时,分母越小,分子越大,该特征点的光线能量度越小,反光情况越弱。
获得了特征点的光线能量度后,为了进行特征点的匹配,需要用向量表征该特征点的特征,故可根据特征点的特征点描述符、反光度和光线能量度获得特征点表征向量,具体包括:计算特征点的反光度与预设第一数值的乘积,作为第一反光描述值;计算特征点的光线能量度与预设第二数值的乘积,作为第二反光描述值;将特征点的特征点描述符、第一反光描述值和第二反光描述值组合,获得特征点表征向量。传统的SIFT算法会在每个特征点生成一个128维的向量,是由每个特征点邻域的16个8维向量构成,称为该特征点的特征点描述符,在该特征点的特征点描述的基础上,为了提高匹配的准确性,增加了第一反光描述值和第二反光描述值的两个维度的分量,最终构成了该特征点的130维的特征点表征向量。通过增加该特征点的反光度和光线能量度,能够准确地表征该特征点的特征,提高后续匹配的准确率。在本发明实施例中,预设第一数值和预设第二数值都为64,目的是增加反光度和光线能量度两个分量的比重,实施者可根据实施场景自行确定。
至此,获得了待匹配的两个法兰盘每个螺孔区域中特征点的特征点表征向量。后续可基于特征点表征向量中的差异特征判断待匹配法兰盘的对位匹配的情况。
步骤S4,将待匹配的两个法兰盘的螺孔区域按照顺序匹配获得匹配对,根据匹配对的特征点之间,特征点表征向量的差异特征获得匹配误差指数;根据匹配误差指数获得匹配特征点并进行法兰盘的对位匹配。
首先,因为法兰盘中的每个螺孔大小以及间隔相同,为了增加后续匹配的准确性,需要将待匹配的两个法兰盘的螺孔区域按照顺序匹配获得匹配对,具体包括:将待匹配的两个法兰盘的螺孔区域从同一位置开始,分别按照相同的顺序编号,将两个相同编号的螺孔区域作为一个匹配对。可分析每个匹配对之间的匹配特征差异,从而判断待匹配的两个法兰盘能否进行对位匹配,故根据匹配对的特征点之间,特征点表征向量的差异特征获得匹配误差指数;具体包括:计算匹配对的特征点之间的特征点表征向量中,每一个维度的特征分量值的差值的平方和,获得匹配误差指数;匹配误差指数的获取公式包括:
式中,表示匹配对中两个螺孔区域的特征点/>和/>的匹配误差指数,/>表示特征点表征向量的维数,/>表示特征点表征向量中不同维度的向量分量,/>表示特征点/>的第/>维的向量分量,/>表示特征点/>的第/>维的向量分量。
关于匹配误差指数的获取,在本发明实施例中为130,当两个特征点的特征点表征向量相似时,则匹配误差指数接近0;遍历匹配对中所有特征点,当两个螺孔区域的特征点的匹配误差指数小于一定数值后,则可认为匹配成功。因此可根据特征点匹配的数量,判断两个待匹配的法兰盘能否进行对位匹配,故根据匹配误差指数获得匹配特征点并进行法兰盘的对位匹配,当匹配误差指数小于预设误差阈值时,两个特征点匹配成功,获得匹配特征点;若某特征点与另一个螺孔区域的所有特征点的匹配误差指数都大于等于预设误差阈值时,则认为该特征点未匹配成功。获得所有匹配特征点后,当匹配特征点与所有特征点的数量比值超过预设比值时,则认为待匹配的法兰盘可以进行对位匹配,否则认为法兰盘不能进行对位匹配。在本发明实施例中,预设误差阈值为0.1,预设比值为四分之三;实施者可根据实施场景自行确定。当待匹配的两个法兰盘中特征点的匹配特征点的数量超过整体特征点数量的预设比值时,此时认为大部分的特征点都能够进行匹配,进而可认为待匹配的法兰盘能够进行准确地对位匹配;否则认为不能够进行对位匹配,需要进行更换。
至此,通过确定螺孔区域中的特征点以及计算对应的特征点表征向量,分析匹配对的特征点之间的匹配误差,分析法兰盘能否进行对位匹配,减少了算力成本和时间的同时,提高了对位匹配分析的准确性。
综上所述,本发明实施例提供了一种基于计算机视觉的法兰盘智能对位方法;首先获取待匹配的法兰盘的对位面图像,根据图像中像素点的反光度确定疑似螺孔区域,根据反光度的离散特征获得反光误差指数筛选螺孔区域。确定螺孔区域的特征点,根据特征点的特征点描述符、反光度和光线能量度获得特征点表征向量。根据特征点表征向量的差异分析匹配对中的特征点匹配误差指数,进而分析待匹配的法兰盘是否能够进行对位匹配。最终,能够在提高法兰盘对位匹配分析的准确性的同时,减少算力成本和时间成本。
本发明还提出了一种基于计算机视觉的法兰盘智能对位系统,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序实现任意一项一种基于计算机视觉的法兰盘智能对位方法的步骤。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。

Claims (10)

1.一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述方法包括以下步骤:
获取待匹配的法兰盘的对位面图像,根据每个像素点和预设邻域范围内的邻域像素点的灰度特征获得每个像素点的反光度,所述预设邻域范围小于螺孔范围;
根据每个像素点的所述反光度获得所述对位面图像的疑似螺孔区域;根据所述疑似螺孔区域中像素点的所述反光度的离散特征获得反光误差指数,根据所述反光误差指数筛选螺孔区域;
获得所述螺孔区域的特征点,根据所述特征点的灰度值和反光度获得光线能量度,根据所述特征点的特征点描述符、所述反光度和所述光线能量度获得特征点表征向量;
将待匹配的两个法兰盘的所述螺孔区域按照顺序匹配获得匹配对,根据所述匹配对的特征点之间,所述特征点表征向量的差异特征获得匹配误差指数;根据所述匹配误差指数获得匹配特征点并进行法兰盘的对位匹配。
2.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述反光度的获取步骤包括:
计算所述像素点的预设邻域范围内,邻域像素点的灰度值方差与数值一的和值,计算灰度值方差与数值一的和值的倒数,作为邻域比重系数;计算邻域像素点的灰度值平方的平均值,计算邻域像素点的灰度值平方的平均值、所述邻域比重系数和预设第一权重三者的乘积,获得邻域反光表征值;计算所述像素点的灰度值的平方值与预设第二权重的乘积,获得中心反光表征值;
计算所述中心反光表征值和所述邻域反光表征值的和值,获得区域反光表征值,并向下取整,获得所述反光度。
3.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述疑似螺孔区域的获取步骤包括:
根据每个像素点的所述反光度的大小分布特征,通过阈值分割二值化算法获得反光度阈值,根据所述反光度阈值,确定所述反光度小于所述反光度阈值的连通域并进行分割,获得所述疑似螺孔区域。
4.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述螺孔区域的获取步骤包括:
确定每个所述疑似螺孔区域的最小外接矩形,计算所述最小外接矩形内的像素点的反光度均值,计算所述最小外接矩形内像素点的所述反光度的标准差,计算所述最小外接矩形内所述反光度的最大值和最小值的极差;计算所述标准差与所述极差的乘积,获得离散特征值,计算所述离散特征值与所述反光度均值的乘积,获得所述反光误差指数;
将每个疑似螺孔区域的所述反光误差指数从小到大排序,从第一位开始取预设数量个所述反光误差指数对应的疑似螺孔区域,作为所述螺孔区域。
5.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述光线能量度的获取步骤包括:
将所述螺孔区域的每个特征点的灰度值归一化,获得灰度表征值;计算所述特征点的所述灰度表征值与所述反光度的乘积并正相关映射,获得反光特征值,将所述反光度进行负相关映射,计算负向相关映射后的反光度与对应的所述反光特征值的比值,获得所述光线能量度。
6.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述特征点表征向量的获取步骤包括:
计算所述特征点的所述反光度与预设第一数值的乘积,作为第一反光描述值;计算所述特征点的所述光线能量度与预设第二数值的乘积,作为第二反光描述值;
将所述特征点的所述特征点描述符、所述第一反光描述值和所述第二反光描述值组合,获得所述特征点表征向量。
7.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述匹配对的获取步骤包括:
将待匹配的两个法兰盘的所述螺孔区域从同一位置开始,分别按照相同的顺序编号,将两个相同编号的所述螺孔区域作为一个所述匹配对。
8.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述匹配误差指数的获取步骤包括:
计算所述匹配对的特征点之间的所述特征点表征向量中,每一个维度的特征分量值的差值的平方和,获得所述匹配误差指数。
9.根据权利要求1所述的一种基于计算机视觉的法兰盘智能对位方法,其特征在于,所述获得匹配特征点并进行法兰盘的对位匹配的步骤包括:
当所述匹配误差指数小于预设误差阈值时,两个特征点匹配成功,获得匹配特征点,遍历匹配对中所有特征点,获得所有匹配特征点后,当匹配特征点与所有特征点的数量比值超过预设比值时,则认为待匹配的法兰盘可以进行对位匹配,否则认为不能进行对位匹配。
10.一种基于计算机视觉的法兰盘智能对位系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序实现如权利要求1-9任意一项所述方法的步骤。
CN202310868746.3A 2023-07-17 2023-07-17 基于计算机视觉的法兰盘智能对位方法及系统 Active CN116612306B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310868746.3A CN116612306B (zh) 2023-07-17 2023-07-17 基于计算机视觉的法兰盘智能对位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310868746.3A CN116612306B (zh) 2023-07-17 2023-07-17 基于计算机视觉的法兰盘智能对位方法及系统

Publications (2)

Publication Number Publication Date
CN116612306A true CN116612306A (zh) 2023-08-18
CN116612306B CN116612306B (zh) 2023-09-26

Family

ID=87683838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310868746.3A Active CN116612306B (zh) 2023-07-17 2023-07-17 基于计算机视觉的法兰盘智能对位方法及系统

Country Status (1)

Country Link
CN (1) CN116612306B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274250A (zh) * 2023-11-20 2023-12-22 深圳市金三维实业有限公司 一种手表底盖磨损缺陷视觉检测方法
CN117893870A (zh) * 2024-03-14 2024-04-16 大连云智信科技发展有限公司 基于ir热成像的畜牧兽医用动物体温检测系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004044683A2 (en) * 2002-11-06 2004-05-27 Simmonds Precision Products, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US20050068451A1 (en) * 2003-09-30 2005-03-31 Eran Steinberg Automated statistical self-calibrating detection and removal of blemishes in digital images based on determining probabilities based on image analysis of single images
KR100972849B1 (ko) * 2009-10-16 2010-07-28 주식회사 쓰리디누리 객체 인식 방법
CN103338322A (zh) * 2012-02-06 2013-10-02 康耐视公司 视觉系统中的视野扩展系统和方法
CN103608642A (zh) * 2011-03-14 2014-02-26 法罗技术股份有限公司 通过激光跟踪仪对维度数据的自动测量
WO2016062159A1 (zh) * 2014-10-20 2016-04-28 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
WO2019237520A1 (zh) * 2018-06-11 2019-12-19 平安科技(深圳)有限公司 一种图像匹配方法、装置、计算机设备及存储介质
WO2020134617A1 (zh) * 2018-12-28 2020-07-02 南京航空航天大学 基于街景图像匹配重复结构建筑的定位方法
CN113331948A (zh) * 2021-05-28 2021-09-03 浙江德尚韵兴医疗科技有限公司 一种介入手术机器人系统、标定装置及标定方法
WO2021213508A1 (zh) * 2020-04-24 2021-10-28 安翰科技(武汉)股份有限公司 胶囊内窥镜图像拼接方法、电子设备及可读存储介质
WO2022062812A1 (zh) * 2020-09-28 2022-03-31 歌尔股份有限公司 屏幕缺陷检测方法、装置和电子设备
US20220292645A1 (en) * 2021-03-12 2022-09-15 China University Of Mining & Technology, Beijing Method for restoring video data of drainage pipe based on computer vision

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004044683A2 (en) * 2002-11-06 2004-05-27 Simmonds Precision Products, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US20050068451A1 (en) * 2003-09-30 2005-03-31 Eran Steinberg Automated statistical self-calibrating detection and removal of blemishes in digital images based on determining probabilities based on image analysis of single images
KR100972849B1 (ko) * 2009-10-16 2010-07-28 주식회사 쓰리디누리 객체 인식 방법
CN103608642A (zh) * 2011-03-14 2014-02-26 法罗技术股份有限公司 通过激光跟踪仪对维度数据的自动测量
CN103338322A (zh) * 2012-02-06 2013-10-02 康耐视公司 视觉系统中的视野扩展系统和方法
WO2016062159A1 (zh) * 2014-10-20 2016-04-28 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
WO2019237520A1 (zh) * 2018-06-11 2019-12-19 平安科技(深圳)有限公司 一种图像匹配方法、装置、计算机设备及存储介质
WO2020134617A1 (zh) * 2018-12-28 2020-07-02 南京航空航天大学 基于街景图像匹配重复结构建筑的定位方法
WO2021213508A1 (zh) * 2020-04-24 2021-10-28 安翰科技(武汉)股份有限公司 胶囊内窥镜图像拼接方法、电子设备及可读存储介质
WO2022062812A1 (zh) * 2020-09-28 2022-03-31 歌尔股份有限公司 屏幕缺陷检测方法、装置和电子设备
US20220292645A1 (en) * 2021-03-12 2022-09-15 China University Of Mining & Technology, Beijing Method for restoring video data of drainage pipe based on computer vision
CN113331948A (zh) * 2021-05-28 2021-09-03 浙江德尚韵兴医疗科技有限公司 一种介入手术机器人系统、标定装置及标定方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
杨业;李宏宁;冯洁;: "一种镜像立体匹配改进算法", 上海理工大学学报, no. 03 *
殷均平;: "一种改进的基于图像分割的立体匹配算法究", 西南师范大学学报(自然科学版), no. 11 *
王怡;王宁;卢萍;龙林;: "基于声发射原理的螺栓连接状态辨识方法研究", 声学技术, no. 05 *
陈勇;陈聪;薛滨;张文杰;郭勇;王激扬;孙炳楠;: "不同偏心距下内外刚性法兰压弯承载力性能试验研究", 钢结构, no. 03 *
马永山;杜则裕;刘杨;韩丽杰;: "关于法兰盘对接产生干涉的分析", 石油工程建设, no. 03 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274250A (zh) * 2023-11-20 2023-12-22 深圳市金三维实业有限公司 一种手表底盖磨损缺陷视觉检测方法
CN117274250B (zh) * 2023-11-20 2024-03-29 深圳市金三维实业有限公司 一种手表底盖磨损缺陷视觉检测方法
CN117893870A (zh) * 2024-03-14 2024-04-16 大连云智信科技发展有限公司 基于ir热成像的畜牧兽医用动物体温检测系统
CN117893870B (zh) * 2024-03-14 2024-06-07 大连云智信科技发展有限公司 基于ir热成像的畜牧兽医用动物体温检测系统

Also Published As

Publication number Publication date
CN116612306B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
CN116612306B (zh) 基于计算机视觉的法兰盘智能对位方法及系统
US6259396B1 (en) Target acquisition system and radon transform based method for target azimuth aspect estimation
CN116309537B (zh) 一种极耳模具表面油污的缺陷检测方法
US20180075603A1 (en) Automated tattoo recognition techniques
CN110991389B (zh) 判断目标行人在非重叠相机视角中出现的匹配方法
CN106557740B (zh) 一种遥感图像中油库目标的识别方法
CN117372432B (zh) 基于图像分割的电子烟表面缺陷检测方法及系统
CN116703909B (zh) 一种电源适配器生产质量智能检测方法
CN110084830B (zh) 一种视频运动目标检测与跟踪方法
Lee et al. Fingerprint-quality index using gradient components
CN116977679A (zh) 一种基于图像识别的图像采集方法及系统
CN113822361B (zh) 一种基于汉明距离的sar图像相似程度度量方法和系统
Liu et al. An improved 3-step contactless fingerprint image enhancement approach for minutiae detection
Zhang et al. A multi-scale bilateral structure tensor based corner detector
CN111104857A (zh) 一种基于步态能量图的身份识别方法及系统
CN117115436A (zh) 舰船姿态检测方法、装置、电子设备及存储介质
Wu et al. An accurate feature point matching algorithm for automatic remote sensing image registration
Saparudin et al. Segmentation of fingerprint image based on gradient magnitude and coherence
CN114820707A (zh) 一种用于摄像头目标自动追踪的计算方法
CN117173545B (zh) 一种基于计算机图形学的证照原件识别方法
Mbaidin et al. Recognizing cells in histological images of fish gonads
CN108960254B (zh) 一种基于mscn信息识别模糊图像的方法和装置、计算设备及存储介质
CN116934636B (zh) 一种水质实时监测数据智能管理系统
CN117649387B (zh) 一种适用于带有表面复杂纹理物体的缺陷检测方法
CN118032789B (zh) 基于机器视觉的手表外壳表面检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant