CN116883404A - 一种用于食品生产包装的标签贴合效果检测方法 - Google Patents

一种用于食品生产包装的标签贴合效果检测方法 Download PDF

Info

Publication number
CN116883404A
CN116883404A CN202311148902.5A CN202311148902A CN116883404A CN 116883404 A CN116883404 A CN 116883404A CN 202311148902 A CN202311148902 A CN 202311148902A CN 116883404 A CN116883404 A CN 116883404A
Authority
CN
China
Prior art keywords
label
point cloud
food production
cloud data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311148902.5A
Other languages
English (en)
Other versions
CN116883404B (zh
Inventor
夏红芳
陈之祝
石康彬
魏瑞山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taizhou Letai Food Co ltd
Original Assignee
Taizhou Letai Food Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taizhou Letai Food Co ltd filed Critical Taizhou Letai Food Co ltd
Priority to CN202311148902.5A priority Critical patent/CN116883404B/zh
Publication of CN116883404A publication Critical patent/CN116883404A/zh
Application granted granted Critical
Publication of CN116883404B publication Critical patent/CN116883404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种用于食品生产包装的标签贴合效果检测方法,涉及食品生产包装技术领域,该方法包括以下步骤:获取点云数据;根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型;将得到的模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确;对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱;根据判断结果,对食品生产包装的标签贴合效果进行评估。本发明可以精确地判断标签在食品生产包装贴合区域的贴合是否准确,以及标签是否存在褶皱,大大提高了效率,可以在食品生产过程中实时进行标签贴合效果的检测,避免了大量不合格产品的产生。

Description

一种用于食品生产包装的标签贴合效果检测方法
技术领域
本发明涉及食品生产包装技术领域,具体来说,特别涉及一种用于食品生产包装的标签贴合效果检测方法。
背景技术
在食品生产包装过程中,贴合标签是一个重要的步骤。贴合标签可以为食品包装提供产品信息、营养成分、保质期、生产日期等重要的标识和说明。这些信息对消费者来说非常重要,可以帮助他们了解食品的来源、质量、保质期以及食用方法等。同时,贴合标签也是确保食品安全和消费者权益的重要手段之一。因此,在食品生产包装过程中,贴合标签是必不可少的环节。
标签贴合效果检测是指在标签与产品贴合之后,对其贴合效果进行检测的过程。这个步骤的目的是确保标签与产品贴合紧密、牢固以及贴合准确,以保证标签的可读性和信息的准确性。而标签贴合效果检测的准确性和可靠性对于确保产品质量和消费者权益非常重要。只有在标签与产品贴合良好的情况下,才能提供准确的产品信息,保证消费者能够正确理解并使用产品。
目前,标签的贴合效果的检测主要通过机器视觉来对标签的贴合进行检测。然而,机器视觉系统对于光照条件和环境条件非常敏感,变化的光线、阴影、反射等因素可能导致视觉系统产生误报或漏报,从而影响标签贴合效果的准确性。此外,如果标签在生产过程中发生变形或损坏,可能会导致标签的形状不规则,这会增加检测的难度。现有技术中的标签贴合效果的检测主要对标签的偏移量进行了检测,并没有对标签的褶皱情况进行详细的分析和检测。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种用于食品生产包装的标签贴合效果检测方法,以克服现有相关技术所存在的上述技术问题。
为了解决上述问题,本发明采用的具体技术方案如下:
一种用于食品生产包装的标签贴合效果检测方法,该方法包括以下步骤:
S1、通过激光扫描仪获取贴有标签的食品生产包装的点云数据;
S2、根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型;
S3、将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确;
S4、根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸;
S5、根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估。
优选的,所述根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型包括以下步骤:
S21、采用统计分析法对贴有标签的食品生产包装的点云数据进行离群点滤除;
S22、从离群点滤除后的点云数据中进行特征提取,所述特征包括点云的几何特征、颜色特征及纹理特征;
S23、根据提取的特征,利用K-MEANS聚类算法将贴有标签的食品生产包装的点云数据分为包装点云数据和标签点云数据;
S24、分别对包装点云数据和标签点云数据进行三维重建,得到包装三维模型和标签三维模型。
优选的,所述将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确包括以下步骤:
S31、根据预设的食品生成包装设计图纸获取食品生产包装上标签贴合区域的位置和大小;
S32、根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据;
S33、根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离;
S34、若配准后的标签点云数据与贴合区域的点云数据之间的距离大于预设的阈值,则表示标签未准确的贴合在食品生产包装上贴合区域,若配准后的标签点云数据与贴合区域的点云数据之间的距离小于或者等于预设的阈值,则表示标签准确的贴合在食品生产包装上贴合区域。
优选的,所述根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据包括以下步骤:
S321、根据标签在食品生产包装上贴合区域的位置和大小确定贴合区域的边界框;
S322、将标签在食品生产包装上贴合区域的位置和大小转换到包装三维模型中的坐标系中,并确定贴合区域的边界框的坐标;
S323、遍历包装三维模型的点云数据,对位于贴合区域边界框内的点云数据点进行提取;
S324、根据提取的点云数据点生成贴合区域的三维模型。
优选的,所述根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离包括以下步骤:
S331、利用主元分析法计算标签点云数据与贴合区域的点云数据的特征向量,并获取标签点云和贴合区域点云的参考坐标系;
S332、将标签点云和贴合区域点云的参考坐标系进行坐标变换,实现对标签点云和贴合区域点云初始配准;
S333、利用最近点迭代法对标签点云和贴合区域点云进行精确配准;
S334、计算标签点云中每个点到贴合区域点云中最近点的距离。
优选的,所述根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸包括以下步骤:
S41、基于中轴表达法对标签三维模型中的标签进行轮廓提取;
S42、对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值;
S43、若轮廓点的高斯曲率值大于预设的高斯曲率阈值,则认为该轮廓点处存在褶皱,若轮廓点的高斯曲率值小于或等于预设的高斯曲率阈值,则认为该轮廓点处不存在褶皱;
S44、统计褶皱处轮廓点的位置和数量,并确定出褶皱的尺寸,所述尺寸包括褶皱长、宽及高。
优选的,所述基于中轴表达法对标签三维模型中的标签进行轮廓提取包括以下步骤:
S411、对标签三维模型进行中轴转换表达,并基于SEG-MAT方法对标签三维模型划分区域,得到标签各区域的中轴和拓扑关系;
S412、提取每个区域的中轴角点并映射到标签三维模型中,得到标签轮廓的端点集;
S413、根据区域拓扑关系匹配不同的连接关系,对标签轮廓的端点进行连接,形成每个区域的初步轮廓线;
S414、合并各区域轮廓线,得到标签区域轮廓线;
S415、检查区域轮廓之间的完整性,扩展得到标签完整轮廓线。
优选的,所述对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值包括以下步骤:
S421、获取标签轮廓点在标签三维模型中的坐标数据;
S422、对于每个标签轮廓点,利用移动最小二乘法计算其法向量,并通过邻域增长法调整法向量的方向;
S423、根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值。
优选的,所述根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值包括以下步骤:
S4231、确定每个标签轮廓点在标签三维模型中的位置坐标,并设定每个轮廓点的邻域;
S4232、对于轮廓点及其邻域中的点进行协方差矩阵计算;
S4233、对协方差矩阵进行特征值分解,得到协方差矩阵的特征值;
S4234、根据协方差矩阵的特征值计算每个标签轮廓点的高斯曲率值;
所述计算每个标签轮廓点的高斯曲率值的计算公式为:
K=(λ1×λ2)/(λ12)
式中,K表示标签轮廓点的高斯曲率值;
λ1和λ2分别表示均协方差矩阵的特征值中的最大值和最小值。
优选的,所述根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估包括以下步骤:
S51、若判断出标签在食品生产包装贴合区域的贴合准确以及标签在食品生产包装的贴合不存在褶皱或者存在的褶皱小于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是合格的,若判断出标签在食品生产包装贴合区域的贴合不准确或标签在食品生产包装的贴合存在得褶皱大于等于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是不合格的;
S52、根据步骤S51的判断结果生成检测报告。
本发明的有益效果为:
1、本发明通过使用激光扫描仪获取点云数据和进行三维模型配准,可以精确地判断标签在食品生产包装贴合区域的贴合是否准确,以及标签是否存在褶皱,大大提高了效率,减少了人工检查的工作量,不仅可以判断标签的贴合是否准确,还可以检测标签是否存在褶皱,并计算褶皱的尺寸,从而全面评估标签的贴合效果,可以在食品生产过程中实时进行标签贴合效果的检测,及时发现问题,避免了大量不合格产品的产生。
2、本发明通过统计分析法滤除离群点,可以减少噪声和异常值对模型重建的影响,提高模型的准确性,通过提取点云的几何特征、颜色特征和纹理特征,可以全面地描述点云的属性,提高分类的准确性,通过使用K-MEANS聚类算法自动将点云数据分为包装点云数据和标签点云数据,减少了人工分类的工作量,提高了效率,通过对点云数据进行三维重建,可以得到包装和标签的三维模型,这对于后续的模型配准和贴合效果评估非常有用。
3、本发明通过根据标签在食品生产包装上的位置和大小提取出贴合区域的点云数据,以及使用迭代最近点算法进行配准,可以实现高度精确的标签贴合检测,通过设定距离阈值,可以根据实际情况自适应地判断标签的贴合情况,且能够适应不同尺寸和形状的标签以及包装,提高了贴合检测的准确性和可靠性,有助于确保产品质量和一致性。
4、本发明通过对标签三维模型中的标签轮廓进行高斯曲率计算,可以准确识别标签上的褶皱情况,通过设定高斯曲率阈值,可以根据实际情况自适应地判断轮廓点是否存在褶皱,这有助于区分真正的褶皱点和曲面上的微小变化,通过统计褶皱处轮廓点的位置和数量,以及确定褶皱的尺寸,包括褶皱的长、宽和高,可以为进一步的分析提供详细信息,有助于监控标签贴合效果的变化趋势和改进生产过程,可以有效地识别标签上的褶皱。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是根据本发明实施例的一种用于食品生产包装的标签贴合效果检测方法的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都应当属于本申请保护的范围。
根据本发明的实施例,提供了一种用于食品生产包装的标签贴合效果检测方法。
现结合附图和具体实施方式对本发明进一步说明,如图1所示,根据本发明实施例的用于食品生产包装的标签贴合效果检测方法,该方法包括以下步骤:
S1、通过激光扫描仪获取贴有标签的食品生产包装的点云数据;
需要说明的是,首先,要确保激光扫描仪已正确安装和配置。这可能涉及到校准、设置扫描分辨率和扫描范围等参数,将贴有标签的食品生产包装放置在激光扫描仪的扫描范围内,并确保包装表面完全可见。在实际生产环境中,可能需要自动化系统来处理大量的包装;启动激光扫描仪并进行扫描操作,扫描仪会生成大量的点云数据,每个点都具有三维坐标信息(x、y、z),表示物体表面上的一个点。
S2、根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型;
作为优选实施方式,所述根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型包括以下步骤:
S21、采用统计分析法对贴有标签的食品生产包装的点云数据进行离群点滤除;
需要说明的是,对从激光扫描仪获取的点云数据进行离群点滤除。离群点通常是由于噪声、反射问题或扫描仪不完全捕捉导致的异常点。常用的离群点滤除算法包括基于统计分析的方法、半径型滤波器、基于机器学习的方法等。
S22、从离群点滤除后的点云数据中进行特征提取,所述特征包括点云的几何特征、颜色特征及纹理特征;
需要说明的是,从离群点滤除后的点云数据中提取特征。这些特征可以包括点云的几何特征(如点的坐标、法向量、曲率等)、颜色特征(如果扫描设备捕捉了颜色信息)、纹理特征。特征提取的目的是为了后续的点云数据分类提供有用的信息。
S23、根据提取的特征,利用K-MEANS聚类算法将贴有标签的食品生产包装的点云数据分为包装点云数据和标签点云数据;
需要说明的是,从点云数据中提取用于聚类的特征。这些特征可以包括点的坐标、颜色、法线方向等,在K-Means中,K代表要分成的簇的数量,通过将点云数据点分成K个簇,每个簇都有一个中心点。K-Means的目标是最小化每个数据点与其所属簇中心点之间的距离,一旦完成聚类,您可以将每个点分配到与其最近的簇,从而得到包装点云数据和标签点云数据。
S24、分别对包装点云数据和标签点云数据进行三维重建,得到包装三维模型和标签三维模型。
S3、将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确;
作为优选实施方式,所述将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确包括以下步骤:
S31、根据预设的食品生成包装设计图纸获取食品生产包装上标签贴合区域的位置和大小;
需要说明的是,获取包括产品包装的平面设计和规格说明的食品生成包装的设计图纸,在设计图纸上,标识出标签贴合区域。这个区域通常包括标签的位置和大小的信息;使用设计图纸上的比例尺,测量标签贴合区域的实际尺寸,使用包装上的关键参考点或坐标来描述标签贴合区域的位置。
S32、根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据;
作为优选实施方式,所述根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据包括以下步骤:
S321、根据标签在食品生产包装上贴合区域的位置和大小确定贴合区域的边界框;
需要说明的是,获取的标签贴合区域的位置和大小信息,根据标签的位置信息,可以计算出边界框的坐标,在食品生产包装的图像上,使用计算得到的边界框坐标来绘制一个矩形或方框,以框定标签的贴合区域。
S322、将标签在食品生产包装上贴合区域的位置和大小转换到包装三维模型中的坐标系中,并确定贴合区域的边界框的坐标;
需要说明的是,使用包装三维模型的坐标系,将标签贴合区域的位置和大小从包装坐标系转换到包装三维模型的坐标系;这通常涉及到坐标的平移、旋转和缩放操作,以确保坐标系的匹配,一旦标签贴合区域的位置和大小在包装三维模型的坐标系中得到了,便计算出边界框的坐标。
S323、遍历包装三维模型的点云数据,对位于贴合区域边界框内的点云数据点进行提取;
S324、根据提取的点云数据点生成贴合区域的三维模型。
S33、根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离;
作为优选实施方式,所述根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离包括以下步骤:
S331、利用主元分析法计算标签点云数据与贴合区域的点云数据的特征向量,并获取标签点云和贴合区域点云的参考坐标系;
需要说明的是,主元分析法是一种线性代数方法,用于减少数据的维度,同时保留原始数据中的主要信息。主元分析法会计算出点云数据集的主要变化方向,即特征向量。这些特征向量构成了点云数据集在新坐标系下的坐标轴。根据主元分析计算出的特征向量,可以将标签点云和贴合区域点云转换到同一个参考坐标系下表示。
S332、将标签点云和贴合区域点云的参考坐标系进行坐标变换,实现对标签点云和贴合区域点云初始配准;
需要说明的是,坐标变换可以通过构建一个变换矩阵来实现。该矩阵包括平移、旋转和缩放等变换,对标签点云的每个点应用坐标变换矩阵,将其从标签坐标系变换到贴合区域坐标系。
S333、利用最近点迭代法对标签点云和贴合区域点云进行精确配准;
需要说明的是,对于标签点云中的每个点,使用最近邻搜索算法找到贴合区域点云中距离最近的点作为对应点,计算每对对应点之间的误差,通常是它们之间的距离;然后为每对对应点分配权重,使用误差和权重来计算最优的变换矩阵,以最小化总体误差,将计算得到的最优变换参数应用到标签点云上,将其变换到贴合区域点云的坐标系中,设定终止条件,如最大迭代次数或误差的收敛阈值,一旦满足了终止条件,最近点迭代算法将收敛到最优的变换参数,此时标签点云已经成功配准到贴合区域点云上。
S334、计算标签点云中每个点到贴合区域点云中最近点的距离。
需要说明的是,计算标签点云中每个点到贴合区域点云中最近点的距离具体包括以下步骤:
为当前标签点初始化一个最小距离值和一个最近点;
对于贴合区域点云中的每个点,计算其与当前标签点之间的距离;
如果计算得到的距离小于当前最小距离,更新最小距离为计算得到的距离,并更新最近点为当前贴合区域点;
遍历贴合区域点云中的所有点,以找到与当前标签点最近的点。
将最小距离作为当前标签点到贴合区域点云中最近点的距离。
遍历标签点云中的所有点,以计算每个标签点到最近点的距离。
S34、若配准后的标签点云数据与贴合区域的点云数据之间的距离大于预设的阈值,则表示标签未准确的贴合在食品生产包装上贴合区域,若配准后的标签点云数据与贴合区域的点云数据之间的距离小于或者等于预设的阈值,则表示标签准确的贴合在食品生产包装上贴合区域。
S4、根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸;
作为优选实施方式,所述根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸包括以下步骤:
S41、基于中轴表达法对标签三维模型中的标签进行轮廓提取;
作为优选实施方式,所述基于中轴表达法对标签三维模型中的标签进行轮廓提取包括以下步骤:
S411、对标签三维模型进行中轴转换表达,并基于SEG-MAT方法对标签三维模型划分区域,得到标签各区域的中轴和拓扑关系;
需要说明的是,中轴是一种描述物体几何形状的方法,通常是一个表示物体中心线的曲线或点集。中轴可以用于描述物体的主要几何特征,如轮廓和拓扑结构,SEG-MAT方法是一种用于划分三维模型的方法,将其分解为不同的区域或部分。这种方法可以帮助识别和分析三维模型的各个组成部分。一旦标签的三维模型被划分为不同的区域,对于每个区域,可以计算其中轴,这是描述该区域主要几何特征的曲线或点集。此外,还可以建立这些区域之间的拓扑关系,即它们如何连接和相互作用。这些拓扑关系有助于理解标签不同部分之间的空间关系。
S412、提取每个区域的中轴角点并映射到标签三维模型中,得到标签轮廓的端点集;
需要说明的是,在每个划分的区域内,中轴可能会有不同的形状和角点。提取中轴的角点通常是为了更准确地表示中轴的拐点或转折点,提取的中轴角点需要映射回原始的标签三维模型中,以确定这些点在模型的实际位置。这通常涉及到坐标系的转换和点的匹配过程。目标是在标签的三维模型中获得这些中轴角点的三维坐标。一旦中轴角点成功映射回标签三维模型中,将获得标签轮廓的端点集。
S413、根据区域拓扑关系匹配不同的连接关系,对标签轮廓的端点进行连接,形成每个区域的初步轮廓线;
需要说明的是,对标签的三维模型进行区域拓扑关系的分析。包括检测哪些区域是相邻的,它们之间的相对位置关系,以及它们之间是否存在连接的需求,对于相邻的区域,需要确定它们之间应该如何连接,以便形成标签的轮廓,一旦确定了连接关系,就可以将中轴角点相互连接,以形成每个区域的初步轮廓线。
S414、合并各区域轮廓线,得到标签区域轮廓线;
S415、检查区域轮廓之间的完整性,扩展得到标签完整轮廓线。
需要说明的是,遍历轮廓线,检查相邻区域之间是否存在缝隙或不匹配之处。这些缝隙可能是由于中轴角点匹配不准确或连接关系错误引起的,当检测到缝隙或不匹配时,需要对缝隙进行填补,以确保轮廓线在整个标签周围形成封闭的轮廓,在轮廓的两个端点之间填补缝隙通常涉及到轮廓线的扩展。扩展的方法可以使用曲线拟合、直线延伸或其他技术。在填补缝隙和扩展轮廓线之后,重新检查轮廓的完整性。确保轮廓现在是封闭的,没有任何缺陷。
S42、对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值;
作为优选实施方式,所述对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值包括以下步骤:
S421、获取标签轮廓点在标签三维模型中的坐标数据;
S422、对于每个标签轮廓点,利用移动最小二乘法计算其法向量,并通过邻域增长法调整法向量的方向;
需要说明的是,对于每个标签轮廓点,定义一个用于法向量计算的邻域。通常这个邻域是以目标点为中心的一组周围点,对于选定的邻域内的点,使用移动最小二乘法拟合一个平面来估计法向量。移动最小二乘法的目标是找到一个平面,使这些点到平面的距离之和最小。平面的法向量即为所需的法向量。它指向平面的外部。
对于邻域增长法调整法向量的方向,从标签轮廓点开始,选择一个点作为参考点,以便开始邻域增长过程,从未处理的点中选择一个邻域内的点,通常是与参考点相邻的点。这个点将成为下一个处理的点,计算被选择点的法向量和参考点的法向量之间的夹角。如果夹角接近180度,表示法向量方向相反,需要翻转被选择点的法向量。一旦法向量方向得到调整,将被选择的点标记为已处理。重复上述过程,选择下一个未处理的点,并继续调整法向量的方向,直到处理完所有点或达到停止条件。
S423、根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值。
作为优选实施方式,所述根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值包括以下步骤:
S4231、确定每个标签轮廓点在标签三维模型中的位置坐标,并设定每个轮廓点的邻域;
需要说明的是,对于每个标签轮廓点,首先确定它在标签三维模型中的位置坐标,并定义一个局部邻域,包含该轮廓点周围的一组点。通常,这个邻域是以轮廓点为中心的一个小球体或球形区域。
S4232、对于轮廓点及其邻域中的点进行协方差矩阵计算;
需要说明的是,对于邻域中的每个点,计算其在三维空间中的坐标值的平均值。协方差矩阵描述了点的分布和方向。对于每对坐标轴计算在邻域中每个点与均值之间的差值的乘积,然后将这些乘积求和并除以邻域中点的数量,能够得到协方差,根据得到协方差构建协方差矩阵。
S4233、对协方差矩阵进行特征值分解,得到协方差矩阵的特征值;
S4234、根据协方差矩阵的特征值计算每个标签轮廓点的高斯曲率值;
所述计算每个标签轮廓点的高斯曲率值的计算公式为:
K=(λ1×λ2)/(λ12)
式中,K表示标签轮廓点的高斯曲率值;
λ1和λ2分别表示均协方差矩阵的特征值中的最大值和最小值。
需要说明的是,在三维模型中,均协方差矩阵的特征值中的最大值和最小值通常对应于点云数据在标签轮廓点附近的主曲率,即曲率最大和最小的方向。
S43、若轮廓点的高斯曲率值大于预设的高斯曲率阈值,则认为该轮廓点处存在褶皱,若轮廓点的高斯曲率值小于或等于预设的高斯曲率阈值,则认为该轮廓点处不存在褶皱;
S44、统计褶皱处轮廓点的位置和数量,并确定出褶皱的尺寸,所述尺寸包括褶皱长、宽及高。
需要说明的是,根据计算的高斯曲率确定了存在褶皱的点,将这些褶皱点标识出来,并获取其在标签三维模型中的坐标位置,简单地统计被标识为褶皱的点的数量。
褶皱的长度是找到褶皱点中的最远两个点,然后计算它们之间的距离。这将是褶皱的长度。
褶皱的宽度通常是指褶皱的两侧之间的距离。在褶皱点的周围选择一定数量的点,然后计算这些点之间的平均距离,作为褶皱的宽度。
褶皱的高度通常是指褶皱点与一个基准平面之间的距离。选择一个适当的基准平面(例如,标签的底部表面),然后计算每个褶皱点到该平面的距离。然后选择最小距离或平均距离作为褶皱的高度。
S5、根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估。
作为优选实施方式,所述根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估包括以下步骤:
S51、若判断出标签在食品生产包装贴合区域的贴合准确以及标签在食品生产包装的贴合不存在褶皱或者存在的褶皱小于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是合格的,若判断出标签在食品生产包装贴合区域的贴合不准确或标签在食品生产包装的贴合存在得褶皱大于等于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是不合格的;
S52、根据步骤S51的判断结果生成检测报告。
综上所述,借助于本发明的上述技术方案,本发明通过使用激光扫描仪获取点云数据和进行三维模型配准,可以精确地判断标签在食品生产包装贴合区域的贴合是否准确,以及标签是否存在褶皱,大大提高了效率,减少了人工检查的工作量,不仅可以判断标签的贴合是否准确,还可以检测标签是否存在褶皱,并计算褶皱的尺寸,从而全面评估标签的贴合效果,可以在食品生产过程中实时进行标签贴合效果的检测,及时发现问题,避免了大量不合格产品的产生;本发明通过统计分析法滤除离群点,可以减少噪声和异常值对模型重建的影响,提高模型的准确性,通过提取点云的几何特征、颜色特征和纹理特征,可以全面地描述点云的属性,提高分类的准确性,通过使用K-MEANS聚类算法自动将点云数据分为包装点云数据和标签点云数据,减少了人工分类的工作量,提高了效率,通过对点云数据进行三维重建,可以得到包装和标签的三维模型,这对于后续的模型配准和贴合效果评估非常有用;本发明通过根据标签在食品生产包装上的位置和大小提取出贴合区域的点云数据,以及使用迭代最近点算法进行配准,可以实现高度精确的标签贴合检测,通过设定距离阈值,可以根据实际情况自适应地判断标签的贴合情况,且能够适应不同尺寸和形状的标签以及包装,提高了贴合检测的准确性和可靠性,有助于确保产品质量和一致性;本发明通过对标签三维模型中的标签轮廓进行高斯曲率计算,可以准确识别标签上的褶皱情况,通过设定高斯曲率阈值,可以根据实际情况自适应地判断轮廓点是否存在褶皱,这有助于区分真正的褶皱点和曲面上的微小变化,通过统计褶皱处轮廓点的位置和数量,以及确定褶皱的尺寸,包括褶皱的长、宽和高,可以为进一步的分析提供详细信息,有助于监控标签贴合效果的变化趋势和改进生产过程,可以有效地识别标签上的褶皱。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、光学存储器等)上实施的计算机程序产品的形式。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用于食品生产包装的标签贴合效果检测方法,其特征在于,该方法包括以下步骤:
S1、通过激光扫描仪获取贴有标签的食品生产包装的点云数据;
S2、根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型;
S3、将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确;
S4、根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸;
S5、根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估。
2.根据权利要求1所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据贴有标签的食品生产包装的点云数据进行分类处理,得到包装三维模型和标签三维模型包括以下步骤:
S21、采用统计分析法对贴有标签的食品生产包装的点云数据进行离群点滤除;
S22、从离群点滤除后的点云数据中进行特征提取,所述特征包括点云的几何特征、颜色特征及纹理特征;
S23、根据提取的特征,利用K-MEANS聚类算法将贴有标签的食品生产包装的点云数据分为包装点云数据和标签点云数据;
S24、分别对包装点云数据和标签点云数据进行三维重建,得到包装三维模型和标签三维模型。
3.根据权利要求1所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述将得到的包装三维模型和标签三维模型进行模型配准,并判断出标签在食品生产包装贴合区域的贴合是否准确包括以下步骤:
S31、根据预设的食品生成包装设计图纸获取食品生产包装上标签贴合区域的位置和大小;
S32、根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据;
S33、根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离;
S34、若配准后的标签点云数据与贴合区域的点云数据之间的距离大于预设的阈值,则表示标签未准确的贴合在食品生产包装上贴合区域,若配准后的标签点云数据与贴合区域的点云数据之间的距离小于或者等于预设的阈值,则表示标签准确的贴合在食品生产包装上贴合区域。
4.根据权利要求3所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据标签在食品生产包装上贴合区域的位置和大小从包装三维模型提取出贴合区域的点云数据包括以下步骤:
S321、根据标签在食品生产包装上贴合区域的位置和大小确定贴合区域的边界框;
S322、将标签在食品生产包装上贴合区域的位置和大小转换到包装三维模型中的坐标系中,并确定贴合区域的边界框的坐标;
S323、遍历包装三维模型的点云数据,对位于贴合区域边界框内的点云数据点进行提取;
S324、根据提取的点云数据点生成贴合区域的三维模型。
5.根据权利要求3所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据标签三维模型的点云数据,利用迭代最近点算法将标签点云数据与贴合区域的点云数据进行配准,并计算配准后的标签点云数据与贴合区域的点云数据之间的距离包括以下步骤:
S331、利用主元分析法计算标签点云数据与贴合区域的点云数据的特征向量,并获取标签点云和贴合区域点云的参考坐标系;
S332、将标签点云和贴合区域点云的参考坐标系进行坐标变换,实现对标签点云和贴合区域点云初始配准;
S333、利用最近点迭代法对标签点云和贴合区域点云进行精确配准;
S334、计算标签点云中每个点到贴合区域点云中最近点的距离。
6.根据权利要求1所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据标签三维模型对标签的轮廓进行高斯曲率计算,并根据得到的高斯曲率判断标签在食品生产包装的贴合是否存在褶皱,若标签存在褶皱,则计算褶皱的尺寸包括以下步骤:
S41、基于中轴表达法对标签三维模型中的标签进行轮廓提取;
S42、对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值;
S43、若轮廓点的高斯曲率值大于预设的高斯曲率阈值,则认为该轮廓点处存在褶皱,若轮廓点的高斯曲率值小于或等于预设的高斯曲率阈值,则认为该轮廓点处不存在褶皱;
S44、统计褶皱处轮廓点的位置和数量,并确定出褶皱的尺寸,所述尺寸包括褶皱长、宽及高。
7.根据权利要求6所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述基于中轴表达法对标签三维模型中的标签进行轮廓提取包括以下步骤:
S411、对标签三维模型进行中轴转换表达,并基于SEG-MAT方法对标签三维模型划分区域,得到标签各区域的中轴和拓扑关系;
S412、提取每个区域的中轴角点并映射到标签三维模型中,得到标签轮廓的端点集;
S413、根据区域拓扑关系匹配不同的连接关系,对标签轮廓的端点进行连接,形成每个区域的初步轮廓线;
S414、合并各区域轮廓线,得到标签区域轮廓线;
S415、检查区域轮廓之间的完整性,扩展得到标签完整轮廓线。
8.根据权利要求6所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述对提取的标签轮廓进行高斯曲率计算,得到每个轮廓点的高斯曲率值包括以下步骤:
S421、获取标签轮廓点在标签三维模型中的坐标数据;
S422、对于每个标签轮廓点,利用移动最小二乘法计算其法向量,并通过邻域增长法调整法向量的方向;
S423、根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值。
9.根据权利要求8所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据每个标签轮廓点的法向量计算每个标签轮廓点的高斯曲率值包括以下步骤:
S4231、确定每个标签轮廓点在标签三维模型中的位置坐标,并设定每个轮廓点的邻域;
S4232、对于轮廓点及其邻域中的点进行协方差矩阵计算;
S4233、对协方差矩阵进行特征值分解,得到协方差矩阵的特征值;
S4234、根据协方差矩阵的特征值计算每个标签轮廓点的高斯曲率值;
所述计算每个标签轮廓点的高斯曲率值的计算公式为:
K=(λ1×λ2)/(λ12);
式中,K表示标签轮廓点的高斯曲率值;
λ1和λ2分别表示均协方差矩阵的特征值中的最大值和最小值。
10.根据权利要求1所述的一种用于食品生产包装的标签贴合效果检测方法,其特征在于,所述根据步骤S3和步骤S4的判断结果,对食品生产包装的标签贴合效果进行评估包括以下步骤:
S51、若判断出标签在食品生产包装贴合区域的贴合准确以及标签在食品生产包装的贴合不存在褶皱或者存在的褶皱小于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是合格的,若判断出标签在食品生产包装贴合区域的贴合不准确或标签在食品生产包装的贴合存在得褶皱大于等于预设的褶皱阈值,则确定标签在食品生产包装上的贴合是不合格的;
S52、根据步骤S51的判断结果生成检测报告。
CN202311148902.5A 2023-09-07 2023-09-07 一种用于食品生产包装的标签贴合效果检测方法 Active CN116883404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311148902.5A CN116883404B (zh) 2023-09-07 2023-09-07 一种用于食品生产包装的标签贴合效果检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311148902.5A CN116883404B (zh) 2023-09-07 2023-09-07 一种用于食品生产包装的标签贴合效果检测方法

Publications (2)

Publication Number Publication Date
CN116883404A true CN116883404A (zh) 2023-10-13
CN116883404B CN116883404B (zh) 2023-12-26

Family

ID=88262594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311148902.5A Active CN116883404B (zh) 2023-09-07 2023-09-07 一种用于食品生产包装的标签贴合效果检测方法

Country Status (1)

Country Link
CN (1) CN116883404B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1113393A2 (de) * 1999-12-29 2001-07-04 Österreichisches Forschungszentrum Seibersdorf Ges.M.B.H. Verfahren und Anordnung zur Prüfung von Gegenständen
CN113177477A (zh) * 2021-04-29 2021-07-27 湖南大学 一种基于三维点云分析的目标检测识别方法
CN115330819A (zh) * 2022-10-12 2022-11-11 杭州蓝芯科技有限公司 一种软包分割定位方法、工控机和机器人抓取系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1113393A2 (de) * 1999-12-29 2001-07-04 Österreichisches Forschungszentrum Seibersdorf Ges.M.B.H. Verfahren und Anordnung zur Prüfung von Gegenständen
CN113177477A (zh) * 2021-04-29 2021-07-27 湖南大学 一种基于三维点云分析的目标检测识别方法
CN115330819A (zh) * 2022-10-12 2022-11-11 杭州蓝芯科技有限公司 一种软包分割定位方法、工控机和机器人抓取系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
路银北;张蕾;普杰信;杜鹏;: "基于曲率的点云数据配准算法", 计算机应用, no. 11 *

Also Published As

Publication number Publication date
CN116883404B (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
Zhang et al. A 3D reconstruction method for pipeline inspection based on multi-vision
Dorai et al. COSMOS-A representation scheme for 3D free-form objects
Pan et al. 3D face recognition using mapped depth images
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
Wang et al. High resolution tracking of non-rigid motion of densely sampled 3d data using harmonic maps
US20050169512A1 (en) Model-based localization and measurement of miniature surface mount components
CN109270079B (zh) 一种基于点云模型的工件表面缺陷精确检测方法
JP2014500484A (ja) 連続b‐スプライン変形を利用してタイヤ表面の三次元画像を前処理する方法
CN104075659A (zh) 一种基于rgb结构光源的三维成像识别方法
Dyke et al. Non-rigid registration under anisotropic deformations
CN117372433B (zh) 厚度参数的控制方法、装置、设备及存储介质
Liu et al. Tube measurement based on stereo-vision: a review
Chen et al. An automatic registration approach to laser point sets based on multidiscriminant parameter extraction
Radvar-Esfahlan et al. Robust generalized numerical inspection fixture for the metrology of compliant mechanical parts
CN116883404B (zh) 一种用于食品生产包装的标签贴合效果检测方法
JP2003216931A (ja) 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置
US8238619B2 (en) Method of extracting ridge line and valley line from three-dimensional point data
Wu et al. A measurement method of free-form tube based on multi-view vision for industrial assembly
CN115112098B (zh) 一种单目视觉的一维二维测量方法
Ma et al. Optimal mass transport based brain morphometry for patients with congenital hand deformities
CN110490865A (zh) 基于螺柱高反光特性的螺柱点云分割方法
JP2011022084A (ja) 三次元姿勢測定装置および三次元姿勢測定方法
Yang et al. Center extraction algorithm of linear structured light stripe based on improved gray barycenter method
Hart et al. Automated pipeline reconstruction using deep learning & instance segmentation
Canelhas Truncated signed distance fields applied to robotics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant