CN116843757A - 基于计算机视觉的贴标机智能定位方法 - Google Patents

基于计算机视觉的贴标机智能定位方法 Download PDF

Info

Publication number
CN116843757A
CN116843757A CN202311091382.9A CN202311091382A CN116843757A CN 116843757 A CN116843757 A CN 116843757A CN 202311091382 A CN202311091382 A CN 202311091382A CN 116843757 A CN116843757 A CN 116843757A
Authority
CN
China
Prior art keywords
pixel point
edge
line
target
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311091382.9A
Other languages
English (en)
Other versions
CN116843757B (zh
Inventor
孙成岱
朱本龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Qianyi Technology Co ltd
Original Assignee
Shandong Qianyi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Qianyi Technology Co ltd filed Critical Shandong Qianyi Technology Co ltd
Priority to CN202311091382.9A priority Critical patent/CN116843757B/zh
Publication of CN116843757A publication Critical patent/CN116843757A/zh
Application granted granted Critical
Publication of CN116843757B publication Critical patent/CN116843757B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像的增强技术领域,具体涉及基于计算机视觉的贴标机智能定位方法。该方法获取待贴标物体的灰度图像;根据第一预设窗口中像素点的梯度大小和分布,获取像素点的边缘连通率,确定目标线条;将任意两条目标线条作为一个匹配对,获取每个匹配对的相似度;根据相似度,获取匹配对的边缘概率;获取每个预设的分割阈值二值化分割出的目标待贴标物体;将最大边缘概率对应的目标线条作为边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,确定最优分割阈值,获取完整待贴标物体,确定贴标粘贴位置。本发明通过获取最优分割阈值,准确获取完整待贴标物体的边缘,进而准确的确定贴标粘贴位置。

Description

基于计算机视觉的贴标机智能定位方法
技术领域
本发明涉及图像的增强技术领域,具体涉及基于计算机视觉的贴标机智能定位方法。
背景技术
贴标机是一种用于自动贴标的机械设备,广泛应用于各个行业,例如制造行业和包装行业。它能够快速、准确地将标签粘贴到产品、包装或容器上,以提供识别、追踪和信息传递的功能。
使用贴标机对待贴标物体等产品进行贴标粘贴时,为了能够准确的确定贴标粘贴的位置,现有方法使用大津法对待贴标物体图像进行二值化分割,将待贴标物体分割出来,进而确定贴标粘贴的位置。但是由于待贴标物体透明的原因,设定的分割阈值可能不准确,会导致待贴标物体的边缘不能准确的分割出来,使得分割出来的待贴标物体不完整,不能准确的确定贴标粘贴的位置。
发明内容
为了解决阈值分割算法中设定的分割阈值不准确,导致待贴标物体的边缘不能准确的分割出来,使得贴标粘贴的位置不准确的技术问题,本发明的目的在于提供一种基于计算机视觉的贴标机智能定位方法,所采用的技术方案具体如下:
本发明提出了一种基于计算机视觉的贴标机智能定位方法,该方法包括以下步骤:
获取待贴标物体的灰度图像;
设定灰度图像中每个像素点的第一预设窗口;根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条;
设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率;根据目标线条中每个像素点的曲率和梯度方向,获取目标线条中每个像素点的边缘特征值;
将任意两条目标线条作为一个匹配对,根据每个匹配对中像素点的位置分布,获取每个匹配对的匹配数量;根据每个匹配对的匹配数量,以及每个匹配对中像素点的边缘特征值和横坐标,获取每个匹配对的边缘概率;
获取每个预设的分割阈值二值化分割出的目标待贴标物体;根据边缘概率获取边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值;
根据最优分割阈值,获取完整待贴标物体,确定贴标粘贴位置。
进一步地,所述边缘连通率的获取方法为:
将任一个第一预设窗口中的每个像素点与该第一预设窗口的中心像素点进行连接,作为该第一预设窗口中每个像素点的特征线段;
将每条所述特征线段与水平方向的夹角,作为该第一预设窗口中每个像素点的特征角;
将每个特征角进行归一化的结果,作为该第一预设窗口中每个像素点的第一特征值;
获取该第一预设窗口中每个像素点的第一特征值与梯度大小的乘积,作为该第一预设窗口中每个像素点的第一结果;
获取该第一预设窗口中所有第一结果的均值,作为该第一预设窗口的中心像素点的边缘连通率。
进一步地,所述根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条的方法为:
根据灰度图像中每个像素点的边缘连通率的大小,通过K-means聚类,将灰度图像中的像素点进行聚类,将边缘连通率最大的聚类中心所在的类别,作为线条类别;
将线条类别中的各个区域作为线条区域;
根据每个线条区域中像素点的位置,将每个线条区域中像素点的边缘连通率在矩阵中进行排列,获取每个线条区域的边缘连通率矩阵;
从边缘连通率矩阵中每一列的第一个元素开始,从上到下,按照参考路径获取方法进行连接,获取每个边缘连通率矩阵中的参考路径;
所述参考路径获取方法为:连接第一个元素与左下方相邻的元素,作为第一步;将第一步的终点,作为第二个元素,连接第二个元素与正下方相邻的元素,作为第二步;将第二步的终点,作为第三个元素,连接第三个元素与右下方相邻的元素,作为第三步;将所述第一步、所述第二步和所述第三步构建为一个循环体,不断的进行循环,直至边缘连通率矩阵中的最后一行元素停止,获得参考路径;
获取每条参考路径所经过元素的累加结果,作为每条参考路径的参考通过率;
将每个边缘连通率矩阵中最大参考通过率对应的参考路径,作为每个边缘连通率矩阵的目标路径;
将每条目标路径中的元素对应的像素点进行连接,作为对应的线条区域的目标线条。
进一步地,所述设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率的方法为:
以目标线条中的任一个像素点为中心,设定该像素点的第二预设窗口;
将该像素点所在的目标线条与该第二预设窗口上下边界的交点,分别与该像素点进行连接,将连接线段所在的直线构成的夹角,作为该像素点的曲率。
进一步地,所述边缘特征值的获取方法为:
将目标线条中每个像素点的曲率和梯度方向的乘积,作为第二特征值;
将所述第二特征值进行归一化的结果,作为目标线条中每个像素点的边缘特征值。
进一步地,所述匹配数量的获取方法为:
过每个匹配对中的每个像素点作与该像素点所在的目标线条的位置方向垂直的直线,作为每个匹配对中对应像素点的目标直线;
将每个匹配对中重合的两条目标直线对应的两个像素点,作为匹配像素点对;
获取每个匹配对中所有匹配像素点对的数量,作为每个匹配对的匹配数量。
进一步地,所述边缘概率的获取方法为:
获取每个匹配对中每个匹配像素点对的两个像素点的横坐标之和的方差,作为每个匹配对的目标方差;
根据每个匹配对的匹配数量和目标方差,以及每个匹配对中每个匹配像素点对的两个像素点的边缘特征值的差异,获取每个匹配对的相似度;
获取每个匹配对中每个匹配像素点对的两个像素点的横坐标的均值,作为每个匹配像素点对的中点横坐标;
获取每个匹配对中所有中点横坐标的均值,作为每个匹配对的对称轴横坐标;
根据每个匹配对的匹配数量、相似度和对称轴横坐标,获取每个匹配对的边缘概率。
进一步地,所述相似度的计算公式为:
式中,为第l个匹配对的相似度;/>为第l个匹配对的匹配数量;/>为第l个匹配对的目标方差;/>为第l个匹配对中的第一条目标线条中第i个匹配像素点对中的像素点的边缘特征值;/>为第l个匹配对中的第二条目标线条中第i个匹配像素点对中的像素点的边缘特征值;a为第一预设常数,且a大于0;/>为绝对值函数。
进一步地,所述边缘概率的计算公式为:
式中,为第l个匹配对的边缘概率;/>为第l个匹配对的相似度;/>为第t个匹配对的匹配数量;/>为第l个匹配对的匹配数量;/>为第t个匹配对的对称轴横坐标与第l个匹配对的对称轴横坐标的差值绝对值;exp为以自然常数e为底数的指数函数;s为匹配对的总数量。
进一步地,所述根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值的方法为:
获取边缘线中的每个像素点与目标待贴标物体的边缘之间的最小欧式距离,作为边缘线中对应像素点的目标距离;
获取每个目标距离与第二预设常数的相加结果,作为第二结果;其中,第二预设常数大于0;
获取每个第二结果的倒数与最大边缘概率的乘积,作为边缘线中对应像素点的评价值;
将所述评价值进行累加的结果,作为当前阈值的整体评价值;
将最大整体评价值对应的分割阈值,作为最优分割阈值。
本发明具有如下有益效果:
设定灰度图像中每个像素点的第一预设窗口,根据每个像素点周围像素点的特征,准确判断每个像素点的边缘特征,因此根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率,确定每个像素点为边缘像素点的可能性;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条,确定出灰度图像中所有的线条,为获取待贴标物体的边缘线做准备;为了准确获取待贴标物体的边缘线,将任意两条目标线条作为一个匹配对,根据每个匹配对中的两条目标线条的相似度和每个匹配对的对称轴的分布聚集程度,准确获取每个匹配对的边缘概率,进而准确确定待贴标物体的边缘线;获取每个预设的分割阈值二值化分割出的目标待贴标物体,根据边缘线与目标待贴标物体的边缘之间的距离,对每个预设的分割阈值的分割结果进行评价,准确获取最优分割阈值;根据最优分割阈值,获取完整待贴标物体,进而根据完整待贴标物体的边缘,准确确定贴标粘贴的位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种基于计算机视觉的贴标机智能定位方法的流程示意图;
图2为本发明一个实施例所提供的一种基于计算机视觉的阈值确定方法的流程示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于计算机视觉的贴标机智能定位方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
一种基于计算机视觉的贴标机智能定位方法实施例:
下面结合附图具体的说明本发明所提供的一种基于计算机视觉的贴标机智能定位方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种基于计算机视觉的贴标机智能定位方法的流程示意图,该方法包括以下步骤:
步骤S1:获取待贴标物体的灰度图像。
具体的,本发明实施例以注射液玻璃瓶为例,当注射液玻璃瓶中注入好透明的注射液后,需要在注射液玻璃瓶表面粘贴对应的贴标。为了确定贴标机粘贴贴标的位置,本发明实施例将注射液玻璃瓶竖直摆放在传送带上,在传送带的一侧固定相机,使得相机正对着注射液玻璃瓶,获取注射液玻璃瓶竖直摆放的图像。由于注射液玻璃瓶为透明的,为了更好的识别出注射液玻璃瓶,本发明实施例将注射液玻璃瓶的背景设定为黑色。
获取的注射液玻璃瓶图像为RGB图像,为了便于通过分割阈值准确的获取注射液玻璃瓶完整的形状,本发明实施例将注射液玻璃瓶图像进行灰度化处理,获取注射液玻璃瓶的灰度图像。其中,灰度化处理为公知技术,在此不进行赘述。
本发明实施例的目的:根据注射液玻璃瓶纵向分布的边缘线的特征和注射液玻璃瓶对称的特征来评价不同分割阈值对灰度图像进行二值化分割的结果,进而获取最优分割阈值,获取完整的注射液玻璃瓶。根据完整的注射液玻璃瓶的边缘,确定贴标粘贴的位置。
步骤S2:设定灰度图像中每个像素点的第一预设窗口;根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条。
具体的,已知注射液玻璃瓶是竖直摆放的,本发明实施例对注射液玻璃瓶纵向分布的边缘线进行分析,后续出现的边缘线均默认为纵向分布。注射液玻璃瓶纵向分布的边缘线是一条细长的线段,同时边缘像素点的梯度变化最大。为了确定灰度图像中的边缘像素点,本发明实施例根据Sobel算子,获取灰度图像中每个像素点的梯度大小和梯度方向,本发明实施例将根据Sobel算子获取的梯度方向与水平方向的夹角作为梯度方向,后续出现的梯度方向均为与水平方向的夹角,其中,梯度方向的范围大于或者等于0,小于。其中,Sobel算子为现有技术,在此不进行赘述。因此根据每个像素点的梯度大小,获取灰度图像中每个像素点的边缘连通率,进而根据边缘连通率获取灰度图像中可能为边缘线的目标线条。
优选地,获取边缘连通率的方法为:将任一个第一预设窗口中的每个像素点与该第一预设窗口的中心像素点进行连接,作为该第一预设窗口中每个像素点的特征线段;将每条特征线段与水平方向的夹角,作为该第一预设窗口中每个像素点的特征角;将每个特征角进行归一化的结果,作为该第一预设窗口中每个像素点的第一特征值;获取该第一预设窗口中每个像素点的第一特征值与梯度大小的乘积,作为该第一预设窗口中每个像素点的第一结果;获取该第一预设窗口中所有第一结果的均值,作为该第一预设窗口的中心像素点的边缘连通率。
作为一个示例,以灰度图像中的第z个像素点为例,本发明实施例将第一预设窗口的大小设定为,实施者可根据实际情况进行设定,在此不进行限定。以第z个像素点为中心,设定/>的第一预设窗口。获取第z个像素点的第一预设窗口中的每个像素点与第z个像素点的连线,即特征线段。获取每条特征线段与水平方向的夹角,即为第z个像素点的第一预设窗口中每个对应像素点的特征角。其中,第z个像素点为中心,第z个像素点对应的特征线段的长度为0,本发明实施例将第z个像素点的特征角设定为/>。因此特征角的范围为大于0,小于或者等于/>。若第z个像素点为灰度图像的边界点,则本发明实施例只计算第z个像素点的第一预设窗口中在灰度图像的像素点。获取每个特征角的正弦值,即将每个特征角进行归一化,即获取第z个像素点的第一预设窗口中每个对应像素点的第一特征值,在本发明另一个实施例中可以通过sigmoid函数、函数转化、最大最小规范化等归一化方法对特征角进行归一化处理,在此不做限定。根据第z个像素点的第一预设窗口中每个像素点的第一特征值的梯度大小,获取第z个像素点的竖直通过率的公式为:
式中,为第z个像素点的竖直通过率;/>为第一预设窗口的边长,本发明实施例设定为5;/>为第z个像素点的第一预设窗口中第v个像素点的特征角;/>为第z个像素点的第一预设窗口中第v个像素点的梯度大小;/>为第z个像素点的第一预设窗口中像素点的总数量;/>为第z个像素点的第一预设窗口中第v个像素点的第一特征值;sin为正弦函数。
需要说明的是,越大,说明第z个像素点的第一预设窗口中第v个像素点越可能和第z个像素点在同一条竖直的线上,/>越大;/>越大,说明第z个像素点的第一预设窗口中第v个像素点越可能为边缘像素点,/>越大;因此,/>越大,第z个像素点越可能为边缘像素点。
根据获取第z个像素点的竖直通过率的方法,获取灰度图像中每个像素点的竖直通过率。
竖直通过率越大说明对应的像素点越可能为边缘像素点,因此,根据灰度图像中每个像素点的竖直通过率,获取灰度图像中所有纵向分布的线条即目标线条。
优选地,获取目标线条的方法为:根据灰度图像中每个像素点的边缘连通率的大小,通过K-means聚类,将灰度图像中的像素点进行聚类,将边缘连通率最大的聚类中心所在的类别,作为线条类别;将线条类别中的各个区域作为线条区域;根据每个线条区域中像素点的位置,将每个线条区域中像素点的边缘连通率在矩阵中进行排列,获取每个线条区域的边缘连通率矩阵;从边缘连通率矩阵中每一列的第一个元素开始,从上到下,按照参考路径获取方法进行连接,获取每个边缘连通率矩阵中的参考路径;参考路径获取方法为:连接第一个元素与左下方相邻的元素,作为第一步;将第一步的终点,作为第二个元素,连接第二个元素与正下方相邻的元素,作为第二步;将第二步的终点,作为第三个元素,连接第三个元素与右下方相邻的元素,作为第三步;将第一步、第二步和第三步构建为一个循环体,不断的进行循环,直至边缘连通率矩阵中的最后一行元素停止,获得参考路径;获取每条参考路径所经过元素的累加结果,作为每条参考路径的参考通过率;将每个边缘连通率矩阵中最大参考通过率对应的参考路径,作为每个边缘连通率矩阵的目标路径;将每条目标路径中的元素对应的像素点进行连接,作为对应的线条区域的目标线条。其中,K-means聚类算法为公知技术,在此不进行赘述。
本发明实施例将K-means聚类算法中的k值设定为2,实施者可根据实际情况设定k值的大小,在此不进行限定。因此,将灰度图像中的像素点划分为了两个类别,其中,边缘连通率最大的聚类中心所在的类别,即为线条类别,其中,边缘像素点一定在线条类别中。将线条类别中的各个区域作为线条区域,将每个线条区域的最大长度和最大宽度上像素点的数量,分别作为每个线条区域对应的边缘连通率矩阵的行数和列数。根据每个线条区域中像素点的位置,将每个像素点的边缘连通率放入到边缘连通率矩阵中对应的位置,将线条区域中不存在的像素点,在边缘连通率矩阵中用0进行补充。获取每个线条区域对应的边缘连通率矩阵。为了获取注射液玻璃瓶纵向分布的边缘线,本发明实施例从每个边缘连通率矩阵中的每一列的第一个元素开始,从上到下,从第一个元素开始,连接第一个元素与左下方相邻的元素,作为第一步;将第一步的终点即第一个元素左下方相邻的元素,作为第二个元素,连接第二个元素与正下方相邻的元素,作为第二步;将第二步的终点即第二个元素正下方相邻的元素,作为第三个元素,连接第三个元素与右下方相邻的元素,作为第三步;将第一步、第二步和第三步构建为一个循环体,不断的进行循环,直至边缘连通率矩阵中的最后一行元素停止,即为本发明实施例设定的参考路径的获取方法。实施者可根据实际情况设定参考路径,在此不进行限定。因为注射液玻璃瓶的边缘线可能会发生中断,因此,本发明设定参考路径,避免边缘线中断太多,导致边缘线无法识别。其中,每个边缘连通率矩阵的左上角的第一个元素不存在右下方相邻的元素,因此,每个边缘连通率矩阵的左上角的第一个元素不参与计算。将每条参考路径所经过的元素即边缘连通率进行累加,所得的结果即为每条参考路径的参考通过率。获取每个边缘连通率矩阵中最大的参考通过率对应的参考路径,即为每个边缘连通率矩阵的目标路径;将每条目标路径中的元素即边缘连通率对应的像素点进行连接,即为对应的线条区域的目标线条。其中,当目标路径中的元素在线条区域中不存在对应的像素点时,在线条区域中直接跳过,继续连接目标路径中的元素在线条区域中存在的像素点。至此,获取灰度图像中所有的目标线条。
步骤S3:设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率;根据目标线条中每个像素点的曲率和梯度方向,获取目标线条中每个像素点的边缘特征值。
具体的,因为注射液玻璃瓶为透明的,注射液玻璃瓶身因为光线的问题,容易产生亮线条纹,因此,获取的目标线条可能为亮线条纹。本发明实施例为了准确的获取注射液玻璃瓶的边缘线,对获取的目标线条进行分析,获取目标线条中每个像素点的边缘特征值。
获取的目标线条存在很短的情况,可能是由注射液玻璃瓶中的光斑产生的,为了提高对目标线条的分析,本发明实施例设定目标线条长度阈值为6,实施者可根据实际情况进行设定,在此不进行限定。目标线条的长度为每条目标线条中像素点的数量,当目标线条的长度小于目标线条长度阈值时,将对应的目标线条进行删除,本发明实施例只对大于或者等于目标线条长度阈值的目标线条进行分析。需要说明的是,后续出现的目标线条均为目标线条的长度大于或者等于目标线条长度阈值的目标线条。
获取目标线条中每个像素点的边缘特征值之前,需要先获取目标线条中每个像素点的曲率,其中曲率的获取方法如下:
以目标线条中的第i个像素点为中心,设定第i个像素点的第二预设窗口;本发明实施例将第二预设窗口设定为,实施者可根据实际情况设定第二预设窗口的大小,在此不进行限定。将第i个像素点所在的目标线条与第二预设窗口上下边界的两个交点,分别与中心像素点即第i个像素点进行连接,将两条连接线段所在的直线构成的小夹角,作为第i个像素点的曲率。若第i个像素点为目标线条中的第一个像素点或者最后一个像素点,则第i个像素点所在的目标线条与第i个像素点的第二预设窗口的上下边界只存在一个交点,无法获取第i个像素点的曲率,因此,当第i个像素点为目标线条中的第一个像素点或者最后一个像素点时,不获取第i个像素点的曲率。当第i个像素点不是目标线条中的第一个像素点或者最后一个像素点时,但存在第i个像素点的第二预设窗口的上下边界与第i个像素点所在的目标线条的交点只有一个的情况,例如第i个像素点为目标线条中的第二个像素点或者倒数第二个像素点,若第i个像素点的第二预设窗口的上下边界与第i个像素点所在的目标线条的交点,在第i个像素点的第二预设窗口的下边界,则获取第i个像素点所在的目标线条中的第一个像素点与第i个像素点的线段,第i个像素点的第二预设窗口的下边界交点与第i个像素点的线段,将这两条线段所在直线构成的小夹角,作为第i个像素点的曲率;若第i个像素点的第二预设窗口的上下边界与第i个像素点所在的目标线条的交点,在第i个像素点的第二预设窗口的上边界,则获取第i个像素点所在的目标线条中的最后一个像素点与第i个像素点的线段,第i个像素点的第二预设窗口的上边界交点与第i个像素点的线段,将这两条线段所在直线构成的小夹角,作为第i个像素点的曲率。
根据获取目标线条中第i个像素点的曲率的方法,获取目标线条中每个像素点的曲率。
将目标线条中每个像素点的曲率和梯度方向的乘积,作为第二特征值;将第二特征值进行归一化的结果,作为目标线条中每个像素点的边缘特征值。目标线条中每个像素点的边缘特征值越大,说明目标线条中对应的像素点越可能为边缘像素点。至此,获取目标线条中每个像素点的边缘特征值,为确定注射液玻璃瓶的边缘线做准备。
步骤S4:将任意两条目标线条作为一个匹配对,根据每个匹配对中像素点的位置分布,获取每个匹配对的匹配数量;根据每个匹配对的匹配数量,以及每个匹配对中像素点的边缘特征值和横坐标,获取每个匹配对的边缘概率。
具体的,注射液玻璃瓶具有对称性,注射液玻璃瓶的边缘线一定是对称的,因为注射液玻璃瓶表面光滑的原因,在注射液玻璃瓶表面会产生竖状条纹,与注射液玻璃瓶纵向分布的边缘线很相似,但竖状条纹相比注射液玻璃瓶纵向分布的边缘线来说,竖状条纹的长度较短,竖状条纹与注射液玻璃瓶的边缘线整体的相似度反而小。因此,先获取任意两条目标线条的相似度,越相似的两条目标线条,才越可能对称。本发明实施例将任意两条目标线条作为一个匹配对。其中,真实边缘线的对称轴会聚集在同一个位置,在灰度图像的坐标中会显示为多个匹配对的对称轴近似共线。因此,利用对称轴的聚集程度和匹配对的相似度,获取每个匹配对的边缘概率。
在获取每个匹配对的边缘概率之前,需要先获取每个匹配对的匹配数量,根据匹配数量,获取每个匹配对的相似度,基于相似度获取每个匹配对的边缘概率。
优选地,获取匹配数量的方法为:过每个匹配对中的每个像素点作与该像素点所在的目标线条的位置方向垂直的直线,作为每个匹配对中对应像素点的目标直线;将每个匹配对中重合的两条目标直线对应的两个像素点,作为匹配像素点对;获取每个匹配对中所有匹配像素点对的数量,作为每个匹配对的匹配数量。
在本发明实施例中目标线条的位置方向为纵向分布,因此匹配对中每个像素点的目标直线为水平直线,将任一个匹配对中的两条目标线条中在同一水平线上同时存在的两个像素点,即构建为一个匹配像素点对。
本发明实施例获取每个匹配对中每个匹配像素点对的两个像素点的横坐标之和的方差,作为每个匹配对的目标方差;根据每个匹配对的匹配数量和目标方差,以及每个匹配对中每个匹配像素点对的两个像素点的边缘特征值的差异,获取每个匹配对的相似度。其中,本发明实施例以灰度图像的左下角为原点,建立二维直角坐标系,灰度图像在二维直角坐标系的第一象限中。
作为一个示例,本发明实施例以第l个匹配对为例,获取第l个匹配对的匹配数量和目标方差,根据第l个匹配对的匹配数量和目标方差,以及第l个匹配对中每个匹配像素点对的两个像素点的边缘特征值的差异,获取第l个匹配对的相似度。其中,获取第l个匹配对的相似度的计算公式为:
式中,为第l个匹配对的相似度;/>为第l个匹配对中的匹配数量;/>为第l个匹配对的目标方差;/>为第l个匹配对中的第一条目标线条中第i个匹配像素点对中的像素点的边缘特征值;/>为第l个匹配对中的第二条目标线条中第i个匹配像素点对中的像素点的边缘特征值;a为第一预设常数,且a大于0;/>为绝对值函数。
本发明实施例将第一预设常数a设定为1,设定第一预设常数a的目的是避免分母为0,使得公式没有意义。
需要说明的是,越大,说明第l个匹配对中的两条目标线条的长度与形状越相同,间接反映出第l个匹配对中的两条目标线条越相似,/>越大;/>越小,说明第l个匹配对中的两条目标线条越对称,/>越大;/>越小,说明第l个匹配对中两条目标线条中匹配像素点对的边缘特征值越相同,第l个匹配对中的两条目标线条越相似,/>越大;因此,/>越大,说明第l个匹配对中的两条目标线条越相似,对称的可能性越大。
根据获取第l个匹配对的相似度的方法,获取每个匹配对的相似度。
优选地,获取边缘概率的方法为:获取每个匹配对中每个匹配像素点对的两个像素点的横坐标的均值,作为每个匹配像素点对的中点横坐标;获取每个匹配对中所有中点横坐标的均值,作为每个匹配对的对称轴横坐标;根据每个匹配对的匹配数量、相似度和对称轴横坐标,获取每个匹配对的边缘概率。
作为一个示例,以第l个匹配对为例,获取第l个匹配对的边缘概率的计算公式为:
式中,为第l个匹配对的边缘概率;/>为第l个匹配对的相似度;/>为第t个匹配对的匹配数量;/>为第l个匹配对的匹配数量;/>为第t个匹配对的对称轴横坐标与第l个匹配对的对称轴横坐标的差值绝对值;exp为以自然常数e为底数的指数函数;s为匹配对的总数量。
需要说明的是,越大,说明第l个匹配对中的两条目标线条越相似,对称的可能性越大,第l个匹配对中的两条目标线条越可能为边缘线条,/>越大;/>越小,说明第t个匹配对的对称轴与第l个匹配对的对称轴越可能共线,/>越大,越大,说明第l个匹配对的对称轴越可能为第t个匹配对的对称轴,第l个匹配对的对称轴所在位置的对称轴的聚集程度越大,间接说明第l个匹配对的对称轴越可能为注射液玻璃瓶的对称轴,/>越大;因此,/>越大,第l个匹配对中的两条目标线条越可能为注射液玻璃瓶的边缘线。
根据获取第l个匹配对的边缘概率的方法,获取每个匹配对的边缘概率。
步骤S5:获取每个预设的分割阈值二值化分割出的目标待贴标物体;根据边缘概率获取边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值。
具体的,设定不同的分割阈值对灰度图像进行二值化分割,获取最完整的注射液玻璃瓶。为了获取出最优分割阈值,本发明实施例设定分割阈值的范围为0-255,从分割阈值0开始进行遍历,获取每个分割阈值对应的二值化分割出的目标注射液玻璃瓶。本发明实施例将最大的边缘概率对应的匹配对中的两条目标线条,作为边缘线;若最大的边缘概率对应的匹配对存在至少两个匹配对,则获取每个匹配对中的两条目标线条的最小欧式距离,作为筛选距离;将最大的筛选距离对应的匹配对中的两条目标线条,作为边缘线。获取边缘线中的每个像素点与目标待贴标物体的边缘之间的最小欧式距离,作为边缘线中对应像素点的目标距离;获取每个目标距离与第二预设常数的相加结果,作为第二结果;本发明实施例将第二预设常数设定为1,实施者可根据实际情况设定第二预设常数的大小,确保第二预设常数大于0,在此不进行限定。设定第二预设常数的目的是为了避免第二结果为0。获取每个第二结果的倒数与最大边缘概率的乘积,作为边缘线中对应像素点的评价值;将边缘线中每个像素点的评价值进行累加的结果,作为当前分割阈值的整体评价值。获取每个分割阈值的整体评价值,将最大整体评价值对应的分割阈值作为最优分割阈值。
步骤S6:根据最优分割阈值,获取完整待贴标物体,确定贴标粘贴位置。
根据最优分割阈值对灰度图像进行二值化分割,最优分割阈值对应的目标注射液玻璃瓶,即为完整注射液玻璃瓶。根据完整注射液玻璃瓶的边缘线的位置,准确的确定注射液玻璃瓶表面预设的贴标位置。
本发明实施例以注射液玻璃瓶为例,其他物体表面贴标位置的确定,也可通过本发明完成。
综上所述,本发明实施例获取待贴标物体的灰度图像;根据第一预设窗口中像素点的梯度大小和位置分布,获取像素点的边缘连通率,确定目标线条;将任意两条目标线条作为一个匹配对,获取每个匹配对的相似度;根据相似度,获取匹配对的边缘概率;获取每个预设的分割阈值二值化分割出的目标待贴标物体;将最大边缘概率对应的目标线条作为边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,确定最优分割阈值,获取完整待贴标物体,确定贴标粘贴位置。本发明通过获取最优分割阈值,准确获取完整待贴标物体的边缘,进而准确的确定贴标粘贴位置。
一种基于计算机视觉的阈值确定方法实施例:
贴标机是一种用于自动贴标的机械设备,广泛应用于各个行业,例如制造行业和包装行业。它能够快速、准确地将标签粘贴到产品、包装或容器上,以提供识别、追踪和信息传递的功能。
使用贴标机对待贴标物体等产品进行贴标粘贴时,为了能够准确的确定贴标粘贴的位置,现有方法使用大津法对待贴标物体图像进行二值化分割,将待贴标物体分割出来,进而确定贴标粘贴的位置。但是由于待贴标物体透明的原因,设定的分割阈值可能不准确,会导致待贴标物体的边缘不能准确的分割出来,进而不能准确的确定贴标粘贴的位置。
为了解决阈值分割算法中设定的分割阈值不准确,导致待贴标物体的边缘不能准确的分割出来的技术问题,本发明的目的在于提供一种基于计算机视觉的阈值确定方法,所采用的技术方案具体如下:
请参阅图2,其示出了本发明一个实施例提供的一种基于计算机视觉的阈值确定方法的流程示意图,该方法包括以下步骤:
步骤S1:获取待贴标物体的灰度图像。
步骤S2:设定灰度图像中每个像素点的第一预设窗口;根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条。
步骤S3:设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率;根据目标线条中每个像素点的曲率和梯度方向,获取目标线条中每个像素点的边缘特征值。
步骤S4:将任意两条目标线条作为一个匹配对,根据每个匹配对中像素点的位置分布,获取每个匹配对的匹配数量;根据每个匹配对的匹配数量,以及每个匹配对中像素点的边缘特征值和横坐标,获取每个匹配对的边缘概率。
步骤S5:获取每个预设的分割阈值二值化分割出的目标待贴标物体;根据边缘概率获取边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值。
其中,步骤S1~步骤S5在一种基于计算机视觉的贴标机智能定位方法实施例中已经给出了详细说明,不再赘述。
本实施例提供的一种基于计算机视觉的阈值确定方法具有如下技术效果:
设定灰度图像中每个像素点的第一预设窗口,根据每个像素点周围像素点的特征,准确判断每个像素点的边缘特征,因此根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率,确定每个像素点为边缘像素点的可能性;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条,确定出灰度图像中所有的线条,为获取待贴标物体的边缘线做准备;为了准确获取待贴标物体的边缘线,将任意两条目标线条作为一个匹配对,根据每个匹配对中的两条目标线条的相似度和每个匹配对的对称轴的分布聚集程度,准确获取每个匹配对的边缘概率,进而准确确定待贴标物体的边缘线;获取每个预设的分割阈值二值化分割出的目标待贴标物体,根据边缘线与目标待贴标物体的边缘之间的距离,对每个预设的分割阈值的分割结果进行评价,准确获取最优分割阈值;根据最优分割阈值,准确获取完整待贴标物体的边缘。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。

Claims (10)

1.一种基于计算机视觉的贴标机智能定位方法,其特征在于,该方法包括以下步骤:
获取待贴标物体的灰度图像;
设定灰度图像中每个像素点的第一预设窗口;根据第一预设窗口中像素点的梯度大小和位置分布,获取灰度图像中每个像素点的边缘连通率;根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条;
设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率;根据目标线条中每个像素点的曲率和梯度方向,获取目标线条中每个像素点的边缘特征值;
将任意两条目标线条作为一个匹配对,根据每个匹配对中像素点的位置分布,获取每个匹配对的匹配数量;根据每个匹配对的匹配数量,以及每个匹配对中像素点的边缘特征值和横坐标,获取每个匹配对的边缘概率;
获取每个预设的分割阈值二值化分割出的目标待贴标物体;根据边缘概率获取边缘线;根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值;
根据最优分割阈值,获取完整待贴标物体,确定贴标粘贴位置。
2.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述边缘连通率的获取方法为:
将任一个第一预设窗口中的每个像素点与该第一预设窗口的中心像素点进行连接,作为该第一预设窗口中每个像素点的特征线段;
将每条所述特征线段与水平方向的夹角,作为该第一预设窗口中每个像素点的特征角;
将每个特征角进行归一化的结果,作为该第一预设窗口中每个像素点的第一特征值;
获取该第一预设窗口中每个像素点的第一特征值与梯度大小的乘积,作为该第一预设窗口中每个像素点的第一结果;
获取该第一预设窗口中所有第一结果的均值,作为该第一预设窗口的中心像素点的边缘连通率。
3.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述根据边缘连通率对灰度图像中的像素点进行分类,获取目标线条的方法为:
根据灰度图像中每个像素点的边缘连通率的大小,通过K-means聚类,将灰度图像中的像素点进行聚类,将边缘连通率最大的聚类中心所在的类别,作为线条类别;
将线条类别中的各个区域作为线条区域;
根据每个线条区域中像素点的位置,将每个线条区域中像素点的边缘连通率在矩阵中进行排列,获取每个线条区域的边缘连通率矩阵;
从边缘连通率矩阵中每一列的第一个元素开始,从上到下,按照参考路径获取方法进行连接,获取每个边缘连通率矩阵中的参考路径;
所述参考路径获取方法为:连接第一个元素与左下方相邻的元素,作为第一步;将第一步的终点,作为第二个元素,连接第二个元素与正下方相邻的元素,作为第二步;将第二步的终点,作为第三个元素,连接第三个元素与右下方相邻的元素,作为第三步;将所述第一步、所述第二步和所述第三步构建为一个循环体,不断的进行循环,直至边缘连通率矩阵中的最后一行元素停止,获得参考路径;
获取每条参考路径所经过元素的累加结果,作为每条参考路径的参考通过率;
将每个边缘连通率矩阵中最大参考通过率对应的参考路径,作为每个边缘连通率矩阵的目标路径;
将每条目标路径中的元素对应的像素点进行连接,作为对应的线条区域的目标线条。
4.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述设定目标线条中每个像素点的第二预设窗口,根据目标线条与第二预设窗口边界的交点,获取目标线条中每个像素点的曲率的方法为:
以目标线条中的任一个像素点为中心,设定该像素点的第二预设窗口;
将该像素点所在的目标线条与该第二预设窗口上下边界的交点,分别与该像素点进行连接,将连接线段所在的直线构成的夹角,作为该像素点的曲率。
5.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述边缘特征值的获取方法为:
将目标线条中每个像素点的曲率和梯度方向的乘积,作为第二特征值;
将所述第二特征值进行归一化的结果,作为目标线条中每个像素点的边缘特征值。
6.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述匹配数量的获取方法为:
过每个匹配对中的每个像素点作与该像素点所在的目标线条的位置方向垂直的直线,作为每个匹配对中对应像素点的目标直线;
将每个匹配对中重合的两条目标直线对应的两个像素点,作为匹配像素点对;
获取每个匹配对中所有匹配像素点对的数量,作为每个匹配对的匹配数量。
7.如权利要求6所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述边缘概率的获取方法为:
获取每个匹配对中每个匹配像素点对的两个像素点的横坐标之和的方差,作为每个匹配对的目标方差;
根据每个匹配对的匹配数量和目标方差,以及每个匹配对中每个匹配像素点对的两个像素点的边缘特征值的差异,获取每个匹配对的相似度;
获取每个匹配对中每个匹配像素点对的两个像素点的横坐标的均值,作为每个匹配像素点对的中点横坐标;
获取每个匹配对中所有中点横坐标的均值,作为每个匹配对的对称轴横坐标;
根据每个匹配对的匹配数量、相似度和对称轴横坐标,获取每个匹配对的边缘概率。
8.如权利要求7所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述相似度的计算公式为:
式中,为第l个匹配对的相似度;/>为第l个匹配对的匹配数量;/>为第l个匹配对的目标方差;/>为第l个匹配对中的第一条目标线条中第i个匹配像素点对中的像素点的边缘特征值;/>为第l个匹配对中的第二条目标线条中第i个匹配像素点对中的像素点的边缘特征值;a为第一预设常数,且a大于0;/>为绝对值函数。
9.如权利要求7所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述边缘概率的计算公式为:
式中,为第l个匹配对的边缘概率;/>为第l个匹配对的相似度;/>为第t个匹配对的匹配数量;/>为第l个匹配对的匹配数量;/>为第t个匹配对的对称轴横坐标与第l个匹配对的对称轴横坐标的差值绝对值;exp为以自然常数e为底数的指数函数;s为匹配对的总数量。
10.如权利要求1所述一种基于计算机视觉的贴标机智能定位方法,其特征在于,所述根据边缘线与目标待贴标物体的边缘之间的距离,以及边缘概率,获取最优分割阈值的方法为:
获取边缘线中的每个像素点与目标待贴标物体的边缘之间的最小欧式距离,作为边缘线中对应像素点的目标距离;
获取每个目标距离与第二预设常数的相加结果,作为第二结果;其中,第二预设常数大于0;
获取每个第二结果的倒数与最大边缘概率的乘积,作为边缘线中对应像素点的评价值;
将所述评价值进行累加的结果,作为当前阈值的整体评价值;
将最大整体评价值对应的分割阈值,作为最优分割阈值。
CN202311091382.9A 2023-08-29 2023-08-29 基于计算机视觉的贴标机智能定位方法 Active CN116843757B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311091382.9A CN116843757B (zh) 2023-08-29 2023-08-29 基于计算机视觉的贴标机智能定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311091382.9A CN116843757B (zh) 2023-08-29 2023-08-29 基于计算机视觉的贴标机智能定位方法

Publications (2)

Publication Number Publication Date
CN116843757A true CN116843757A (zh) 2023-10-03
CN116843757B CN116843757B (zh) 2023-12-01

Family

ID=88162088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311091382.9A Active CN116843757B (zh) 2023-08-29 2023-08-29 基于计算机视觉的贴标机智能定位方法

Country Status (1)

Country Link
CN (1) CN116843757B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058357A (zh) * 2023-10-11 2023-11-14 中车城市交通规划设计研究院有限公司 基于视觉辅助的转向架落车对位校正方法
CN117197247A (zh) * 2023-11-08 2023-12-08 湖南才道半导体科技有限公司 基于人工智能的晶圆切割道视觉定位方法
CN117952980A (zh) * 2024-03-27 2024-04-30 山东鲁玻玻璃科技有限公司 一种中硼硅玻璃管精切工艺视觉检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114425776A (zh) * 2020-10-29 2022-05-03 江西科技学院 基于计算机视觉的自动贴标定位与纠偏方法
CN115100171A (zh) * 2022-07-11 2022-09-23 常宝云 一种基于机器视觉的钢模焊接缺陷检测方法及系统
CN115170576A (zh) * 2022-09-09 2022-10-11 山东中发新材料科技有限公司 基于机器视觉的铝管表面缺陷检测方法
CN115633259A (zh) * 2022-11-15 2023-01-20 深圳市泰迅数码有限公司 基于人工智能的智能摄像头自动调控方法及系统
WO2023062407A1 (en) * 2021-10-12 2023-04-20 Universidad De Chile Method and system for determining and selecting rock breaking target poses for a rock breaker
CN116309579A (zh) * 2023-05-19 2023-06-23 惠州市宝惠电子科技有限公司 一种用图像处理的变压器焊缝质量检测方法
WO2023134792A2 (zh) * 2022-12-15 2023-07-20 苏州迈创信息技术有限公司 一种led灯芯缺陷检测方法
CN116645366A (zh) * 2023-07-25 2023-08-25 山东千颐科技有限公司 一种立井提升机尾绳弧度异常ai视觉识别检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114425776A (zh) * 2020-10-29 2022-05-03 江西科技学院 基于计算机视觉的自动贴标定位与纠偏方法
WO2023062407A1 (en) * 2021-10-12 2023-04-20 Universidad De Chile Method and system for determining and selecting rock breaking target poses for a rock breaker
CN115100171A (zh) * 2022-07-11 2022-09-23 常宝云 一种基于机器视觉的钢模焊接缺陷检测方法及系统
CN115170576A (zh) * 2022-09-09 2022-10-11 山东中发新材料科技有限公司 基于机器视觉的铝管表面缺陷检测方法
CN115633259A (zh) * 2022-11-15 2023-01-20 深圳市泰迅数码有限公司 基于人工智能的智能摄像头自动调控方法及系统
WO2023134792A2 (zh) * 2022-12-15 2023-07-20 苏州迈创信息技术有限公司 一种led灯芯缺陷检测方法
CN116309579A (zh) * 2023-05-19 2023-06-23 惠州市宝惠电子科技有限公司 一种用图像处理的变压器焊缝质量检测方法
CN116645366A (zh) * 2023-07-25 2023-08-25 山东千颐科技有限公司 一种立井提升机尾绳弧度异常ai视觉识别检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WEILIN HU等: "Feature-Specific Sliding Window-Based Sub-pixel Edge Detection Algorithm", 《2022 5TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION AND ARTIFICIAL INTELLIGENCE (PRAI)》 *
刘占: "基于局部期望阈值分割的图像边缘检测算法", 《计算机与现代化》, no. 08 *
杜红超等: "电池包标机视觉检测系统设计与分析", 《机械与电子》, no. 01 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058357A (zh) * 2023-10-11 2023-11-14 中车城市交通规划设计研究院有限公司 基于视觉辅助的转向架落车对位校正方法
CN117058357B (zh) * 2023-10-11 2024-01-23 中车城市交通规划设计研究院有限公司 基于视觉辅助的转向架落车对位校正方法
CN117197247A (zh) * 2023-11-08 2023-12-08 湖南才道半导体科技有限公司 基于人工智能的晶圆切割道视觉定位方法
CN117197247B (zh) * 2023-11-08 2024-03-29 湖南才道半导体科技有限公司 基于人工智能的晶圆切割道视觉定位方法
CN117952980A (zh) * 2024-03-27 2024-04-30 山东鲁玻玻璃科技有限公司 一种中硼硅玻璃管精切工艺视觉检测方法
CN117952980B (zh) * 2024-03-27 2024-06-11 山东鲁玻玻璃科技有限公司 一种中硼硅玻璃管精切工艺视觉检测方法

Also Published As

Publication number Publication date
CN116843757B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
CN116843757B (zh) 基于计算机视觉的贴标机智能定位方法
CN107617573B (zh) 一种基于多任务深度学习的物流编码识别和分拣方法
CN107507167B (zh) 一种基于点云平面轮廓匹配的货物托盘检测方法及系统
CN113160192B (zh) 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置
Xiang et al. Recognition of clustered tomatoes based on binocular stereo vision
WO2019228063A1 (zh) 商品检测终端、方法、系统以及计算机设备、可读介质
CN111046872B (zh) 一种光学字符识别方法
CN116611748B (zh) 一种钛合金家具生产质量监控系统
CN115082419A (zh) 一种吹塑箱包生产缺陷检测方法
CN105066892A (zh) 一种基于直线聚类分析的bga元件检测与定位方法
CN112085024A (zh) 一种罐表面字符识别方法
CN106446894A (zh) 一种基于轮廓识别球型目标物位置的方法
CN107748855B (zh) 一种二维码寻像图形的检测方法
CN111461036B (zh) 一种利用背景建模增强数据的实时行人检测方法
CN114862855B (zh) 基于模板匹配的纺织品缺陷检测方法及系统
CN116228678A (zh) 芯片封装缺陷自动识别和处理方法
CN116309565A (zh) 基于计算机视觉的高强传送带跑偏检测方法
CN112345534A (zh) 一种基于视觉的泡罩板中颗粒的缺陷检测方法及系统
CN110751640A (zh) 一种基于角点配对的深度图像的四边形检测方法
CN110689568A (zh) 一种基于深度图像的立方物体体积的精确计算方法
CN111932617A (zh) 一种对规则物体实现实时检测定位方法和系统
CN112288372B (zh) 一种可同时识别一维条码和三段码字符的快递单识别方法
CN110689005A (zh) 一种基于深度学习融合位置和形状信息的商品识别方法
Ishizuka et al. Segmentation of road sign symbols using opponent-color filters
CN112907510B (zh) 一种表面缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant