CN115359112B - 一种高位料库机器人的码垛控制方法 - Google Patents

一种高位料库机器人的码垛控制方法 Download PDF

Info

Publication number
CN115359112B
CN115359112B CN202211298730.5A CN202211298730A CN115359112B CN 115359112 B CN115359112 B CN 115359112B CN 202211298730 A CN202211298730 A CN 202211298730A CN 115359112 B CN115359112 B CN 115359112B
Authority
CN
China
Prior art keywords
historical
grabbing
edge line
image
grabbed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211298730.5A
Other languages
English (en)
Other versions
CN115359112A (zh
Inventor
李大超
程辉
刘广玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Efdi Shenyang Automation Technology Co ltd
Original Assignee
Efdi Shenyang Automation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Efdi Shenyang Automation Technology Co ltd filed Critical Efdi Shenyang Automation Technology Co ltd
Priority to CN202211298730.5A priority Critical patent/CN115359112B/zh
Publication of CN115359112A publication Critical patent/CN115359112A/zh
Application granted granted Critical
Publication of CN115359112B publication Critical patent/CN115359112B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及码垛机器人的控制技术领域,具体涉及一种高位料库机器人的码垛控制方法。方法包括:基于当前零件抓取过程中料框内零件的灰度图像中各零件的面积获得待抓取零件;将待抓取零件的边缘线记为当前边缘线,将历史零件抓取过程中被抓取零件的边缘线记为历史边缘线;将各历史边缘线投影到当前图像中获得第一图像,基于各历史边缘线与当前边缘线的相似性对第一图像中的历史边缘线聚类获得目标聚类簇;将目标聚类簇中的各历史边缘线对应的抓取点投影到待抓取零件的表面图像中并进行聚类,将各聚类簇的中心点作为待抓取零件的抓取点,控制机器人对待抓取零件的抓取点进行抓取。本发明能够控制机器人对料框内的零件进行准确抓取。

Description

一种高位料库机器人的码垛控制方法
技术领域
本发明涉及码垛机器人的控制技术领域,具体涉及一种高位料库机器人的码垛控制方法。
背景技术
目前,在汽车白车身制造车间里需要小总成或散零件大多是使用人工从工装上取零件,然后放到固定的料框里进行中转,轮流到下个工序使用;白车身零件比较锋利,特别是稍大的零件,重量较大,工作人员搬运起来较困难,也容易出现安全事故;随着科技的进步,码垛机器人在自动化生产场合得到了广泛的应用,码垛机器人能够替代工作人员进行危险作业,减轻工作人员的负担,达到提高作业效果及保护工作人员的目的。但是现有的利用码垛机器人对物件进行搬运时,多将物件互相间隔一定距离平铺在待搬运区域内,控制搬运机械手前往待搬运区域内对物件一一进行搬运。但是,物件平铺比较占地方,而且当距离机械手较近的物件被搬运后,工作人员需要对距离机械手较远的物件转移进行一一转移,比较麻烦。为了能够实现机器人自动化搬运零件,往往将零件放入料框内,进而控制机器人抓取零件,但是在机器人抓取零件时,若抓取点选取的不合适,会出现摆放效果不佳,影响后续零件的摆放的情况,严重时会出现零件滑落的情况,因此如何对料框内的零件的摆放姿态进行准确识别,并基于识别结果获得抓取点,进而控制机器人对料框内的零件进行准确抓取是个非常重要的问题。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种高位料库机器人的码垛控制方法,所采用的技术方案具体如下:
本发明提供了一种高位料库机器人的码垛控制方法,该方法包括以下步骤:
获取机器人当前零件抓取过程中料框内的零件的灰度图像记为当前图像,获取M次历史零件抓取过程中对应的零件的表面图像记为历史图像,所述历史零件抓取过程中对应的零件的表面图像为历史抓取过程中所抓取的零件被抓取前在料框内的表面图像;基于所述当前图像获得各零件的表面图像;M≥10;
基于各零件的表面图像的面积和各零件对应的标准面积,得到各零件的优先指标,将当前图像中优先指标最大的零件作为待抓取零件;将所述待抓取零件的边缘线记为当前边缘线,将历史零件抓取过程中被抓取零件的边缘线记为历史边缘线;基于各历史抓取过程对应的抓取效果评价指标和各历史零件抓取过程中被抓取零件的优先指标获得各历史边缘线上抓取点对应的有效性指标;基于各历史边缘线上抓取点、当前边缘线上的各像素点和所述有效性指标,得到当前边缘线上各像素点对应的匹配度,将所述匹配度大于匹配度阈值的像素点作为待抓取零件上的特征点;基于所述特征点和各历史边缘线获得各历史边缘线与当前边缘线的相似性;
将各历史边缘线投影到所述当前图像中获得第一图像,基于各历史边缘线与当前边缘线的相似性以及各历史边缘线对应的抓取效果评价指标对第一图像中的历史边缘线进行聚类获得目标聚类簇;将所述目标聚类簇中的各历史边缘线对应的抓取点投影到所述待抓取零件的表面图像中,对待抓取零件的表面图像中的所有投影点进行聚类,将各聚类簇的中心点作为待抓取零件的抓取点,控制机器人对所述待抓取零件的抓取点进行抓取。
优选的,所述基于各历史边缘线上抓取点、当前边缘线上的各像素点和所述有效性指标,得到当前边缘线上各像素点对应的匹配度,包括:
将当前边缘线和各历史边缘线投影到模板图像中,所述模板图像为零件水平放置在料框内的表面图像;
对于当前边缘线上第k个像素点:根据该像素点在模板图像中的投影点每次作为抓取点时对应的有效性指标、该像素点在模板图像中的投影点作为抓取点的总次数、该像素点在模板图像中的投影点与各历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,计算该像素点对应的匹配度。
优选的,采用如下公式计算该像素点对应的匹配度:
Figure 378521DEST_PATH_IMAGE001
其中,
Figure 215021DEST_PATH_IMAGE002
为当前边缘线上第k个像素点对应的匹配度,
Figure 36346DEST_PATH_IMAGE003
为历史零件抓取过程的次数,
Figure 916577DEST_PATH_IMAGE004
为当前边缘线上第k个像素点在模板图像中的投影点与第i个历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,
Figure 807042DEST_PATH_IMAGE005
为当前边缘线上第k个像素点在模板图像中的投影点作为抓取点的总次数,
Figure 430921DEST_PATH_IMAGE006
为当前边缘线上第k个像素点在模板图像中的投影点第j次作为抓取点时对应的有效性指标,
Figure 106753DEST_PATH_IMAGE007
为调整参数。
优选的,所述基于各历史边缘线与当前边缘线的相似性以及各历史边缘线对应的抓取效果评价指标对第一图像中的历史边缘线进行聚类获得目标聚类簇,包括:
采用的DBSCAN聚类算法对第一图像中的历史边缘线进行聚类;所述DBSCAN聚类算法聚类时的聚类距离是基于各历史边缘线对应的相似性以及抓取效果评价指标得到的;
将历史边缘线数量最多的聚类簇记为目标聚类簇。
优选的,所述对待抓取零件的表面图像中的所有投影点进行聚类,包括:采用K-means聚类算法对待抓取零件的表面图像中的所有投影点进行聚类,所述K-means聚类算法的聚类距离是基于待抓取零件的表面图像中的所有投影点的位置和所有投影点对应的抓取效果评价指标得到的。
优选的,所述基于各零件的表面图像的面积和各零件对应的标准面积,得到各零件的优先指标,包括:
对于当前图像中的任一零件:计算该零件的表面图像的面积和零件对应的标准面积的差值的绝对值,记为第一绝对值;以自然常数为底数,以负的所述第一绝对值为指数的指数函数的值作为该零件的优先指标。
优选的,所述基于各历史抓取过程对应的抓取效果评价指标和各历史零件抓取过程中被抓取零件的优先指标获得各历史边缘线上抓取点对应的有效性指标,包括:
对于任一历史零件抓取过程:将该历史零件抓取过程对应的抓取效果评价指标和该历史抓取过程中被抓取零件的优先指标的乘积作为该历史零件抓取过程对应的历史边缘线上抓取点对应的有效性指标。
本发明至少具有如下有益效果:
1、本发明考虑到机器人在抓取料框内的零件时,优选最容易抓取的零件,因此本发明首先获取了机器人当前零件抓取过程中料框内的零件的灰度图像并记为当前图像,基于当前图像中各零件的表面图像的面积分析当前图像中各零件的摆放姿态获取待抓取零件,进而对待抓取零件进行分析获取待抓取零件的抓取点,控制机器人根据抓取点抓取零件,大大减少了因抓取点选取的不对导致抓取过程中零件滑落或导致零件的放置的姿态不对影响后续零件的摆放的问题的出现,提高了机器人码垛的效率。
2、本发明在获取待抓取零件的抓取点时,考虑到若某一历史抓取过程中所抓取的零件被抓取前在料框内的摆放姿态与待抓取零件料框内的摆放姿态越相似且该历史抓取过程对应的抓取效果越好,则待抓取零件的边缘线上与该历史抓取过程对应的历史边缘线上的抓取点相同位置的像素点越适合作为当前零件抓取过程的抓取点,因此本发明基于历史零件抓取过程中的抓取点和抓取效果评价指标对当前边缘线上的像素点进行了分析,获取到了准确的抓取点,提高了机器人对料框内零件抓取的可靠性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明提供的一种高位料库机器人的码垛控制方法的流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种高位料库机器人的码垛控制方法进行详细说明如下。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种高位料库机器人的码垛控制方法的具体方案。
一种高位料库机器人的码垛控制方法实施例:
本实施例提出了一种高位料库机器人的码垛控制方法,如图1所示,本实施例的一种高位料库机器人的码垛控制方法包括以下步骤:
步骤S1,获取机器人当前零件抓取过程中料框内的零件的灰度图像记为当前图像,获取M次历史零件抓取过程中对应的零件的表面图像记为历史图像,所述历史零件抓取过程中对应的零件的表面图像为历史抓取过程中所抓取的零件被抓取前在料框内的表面图像;基于所述当前图像获得各零件的表面图像;M≥10。
由于在码垛的过程中,料框内放置的零件姿态各异,若是任由机器人随意抓取,可能会导致其在抓取的过程中掉落,或者可能使得其姿态不正确进而导致其最终的摆放姿态不符合预期姿态,进而导致在摆放过程中摆放不整齐或摆放不下的情况发生。故需要对机器人抓取零件进行控制,在每次完成一件零件的码垛后,对放置零件的料框内的零件进行识别,识别零件中抓取点,然后控制码垛机器人根据获取的抓取点调整抓取方式,进而使得机器人在进行抓取零件时,能够保持零件姿态符合可以摆放整齐的姿态。
在机器人抓取料框内的零件之前,对料框内的零件进行拍摄,获得料框内的零件表面的RGB图像,对料框内的零件表面的RGB图像进行灰度化、除噪等预处理操作,将预处理后的图像记为当前图像。其中灰度化使用加权平均灰度化方法,除噪使用高斯滤波进行除噪处理。灰度化、除噪均为现有技术,此处不再赘述。
由于料框内存在多个零件,因此当前图像中存在多个零件区域的表面图像,机器人在抓取零件的过程中每次抓取一个零件,接下来需要对当前图像进行分析,获取其中最容易被机器人抓取的零件,并对此零件进行分析,获取其优选抓取点,控制机器人手臂以此完成抓取操作,进而完成一次码垛操作。
本实施例首先利用神经网络对当前图像进行语义分割,获取当前图像中的各零件的图像,其中神经网络为ResNet神经网络,神经网络的训练集为料框内的样本灰度图像,将所述样本灰度图像作为神经网络的输入,输出为包含单个零件的表面图像,训练集对应标签标注过程为:单通道的语义标签,属于背景类的像素标注为0,属于零件上的像素标注为1;网络的损失函数为交叉熵损失函数。神经网络的训练过程为现有技术,此处不再赘述。获得训练好的神经网络,然后将当前图像输入到训练好的神经网络中,获得当前图像中各零件的表面图像。
本实施例获取M次历史零件抓取过程中对应的零件的表面图像,并将这些零件的表面图像记为历史图像,所述历史零件抓取过程中对应的零件的表面图像为历史抓取过程中所抓取的零件被抓取前在料框内的表面图像。本实施例中M的取值为100,在具体应用中,实施者可自行设置。
步骤S2,基于各零件的表面图像的面积和各零件对应的标准面积,得到各零件的优先指标,将当前图像中优先指标最大的零件作为待抓取零件;将所述待抓取零件的边缘线记为当前边缘线,将历史零件抓取过程中被抓取零件的边缘线记为历史边缘线;基于各历史抓取过程对应的抓取效果评价指标和各历史零件抓取过程中被抓取零件的优先指标获得各历史边缘线上抓取点对应的有效性指标;基于各历史边缘线上抓取点、当前边缘线上的各像素点和所述有效性指标,得到当前边缘线上各像素点对应的匹配度,将所述匹配度大于匹配度阈值的像素点作为待抓取零件上的特征点;基于所述特征点和各历史边缘线获得各历史边缘线与当前边缘线的相似性。
本实施例在步骤S1中对料框内的零件进行识别获得了当前图像中各零件的表面图像,考虑到若零件水平放置在料框内,则机器人在抓取零件及摆放零件时难度最低且摆放效果最好,因此首先获取零件水平放置在料框内时的灰度图像,将零件水平放置在料框内时的灰度图像记为模板图像,获取零件在模板图像中的面积记为零件对应的标准面积;若当前机器人抓取零件的过程中料框内的零件姿态较好,即较接近水平放置,则其在图像中对应的面积接近该种零件在模板图像中的面积;反之,若当前机器人抓取零件的过程中料框内的零件姿态较差,即零件倾斜放置,则其在采集到的图像中对应的面积与该种零件在模板图像中的面积差异较大;机器人在抓取料框内的零件时应当优先抓取料框内位于最上面的且接近水平放置的零件,因此根据当前图像中各零件的表面图像的面积和零件对应的标准面积,计算当前图像中各零件的优先指标,即:
Figure 908618DEST_PATH_IMAGE008
其中,
Figure 37111DEST_PATH_IMAGE009
为当前图像中第
Figure 713949DEST_PATH_IMAGE010
个零件的优先指标,
Figure 978708DEST_PATH_IMAGE011
为当前图像中第
Figure 466322DEST_PATH_IMAGE010
个零件的表面图像的面积,
Figure 832843DEST_PATH_IMAGE012
为零件对应的标准面积,
Figure 798525DEST_PATH_IMAGE013
为以自然常数为底数的指数函数。
Figure 432638DEST_PATH_IMAGE014
表征第
Figure 91152DEST_PATH_IMAGE010
个零件对应的面积与该零件对应的标准面积的差异,若第
Figure 194237DEST_PATH_IMAGE010
个零件越接近水平放置,则该零件的表面图像的面积与该零件对应的标准面积的差异越小,说明该零件越适合作为待抓取零件被机器人抓取,即该零件的优先指标越大;若第
Figure 731921DEST_PATH_IMAGE010
个零件放置的越倾斜,则该零件的表面图像的面积与该零件对应的标准面积的差异越大,说明该零件越不适合作为待抓取零件被机器人抓取,即该零件的优先指标越小。需要说明的是,本实施例是针对一种零件进行说明,机器人需要抓取其它种类的零件均可采用本实施例提供的方法进行处理。
至此,能够得到当前图像中各零件的优先指标。优先指标越大,说明越适合作为当前抓取过程中的待抓取零件被机器人抓取,因此本实施例将优先指标最大的零件作为待抓取零件。接下来本实施例将获取待抓取零件上的抓取点,进而控制机器人抓取待抓取零件,为了准确获取抓取点,本实施例将基于历史零件抓取过程中被抓取的零件上的抓取点、零件在料框内的摆放姿态和抓取效果获取待抓取零件的抓取点,若当前零件抓取过程中待抓取零件在料框内的摆放姿态与某一历史零件抓取过程中零件在料框内的摆放姿态相似,且历史零件抓取过程中零件的抓取效果较好,则应当选取待抓取零件上与历史抓取的零件上的抓取点位置相同的点作为当前零件抓取过程中待抓取零件的抓取点。
本实施例采用人为评价的方式对这M次历史零件抓取过程中零件的抓取效果进行评价,获得每一次历史零件抓取过程对应的抓取效果评价指标,其中,人为评价是基于零件在抓取过程中的滑落情况以及将零件搬运到目标位置的摆放情况进行评价的,并基于评价结果获得每次历史抓取过程对应的抓取效果评价指标,抓取效果评价指标的取值为
Figure 971272DEST_PATH_IMAGE015
,当抓取效果评价指标的值取1时,说明对应历史零件抓取过程零件的抓取效果最好。每一次历史零件抓取过程均对应一个被抓取零件,将历史零件抓取过程中被抓取零件的边缘线记为历史边缘线;若某一次历史零件抓取过程对应的抓取效果评价指标越大,说明该次零件抓取过程中零件的抓取效果越好,即该次零件抓取过程中抓取点选的越好,抓取点的选取越有效,该历史抓取过程对应的历史边缘线上抓取点的有效性指标应当越大;零件的优先指标反映零件在料框内的摆放姿态,优先指标越大,说明零件的摆放越接近水平,即越有利于机器人的抓取;对于任一历史零件抓取过程:将该历史零件抓取过程对应的抓取效果评价指标和该历史抓取过程中被抓取零件的优先指标的乘积作为该历史零件抓取过程对应的历史边缘线上抓取点对应的有效性指标。
将待抓取零件的边缘线记为当前边缘线,接下来将利用形状上下文算法对当前边缘线上的像素点和各历史零边缘线上的像素点进行匹配,进而获得各历史边缘线与当前边缘线的相似性,考虑到若对图像中的所有像素点均进行匹配,计算量较大、效率较低,故可以通过减少分析的点的数量提高匹配效率。本实施例通过对该种零件在不同历史数据中(即不同姿态下)被抓取的抓取点及其抓取效果进行分析,获得待抓取零件的边缘线上的特征点,进而基于特征点进行匹配,减少计算量,提高计算效率。
将当前边缘线和各历史边缘线投影到模板图像中,模板图像为零件水平放置在料框内的表面图像,并将投影之后的模板图像中历史边缘线上的抓取点标注出来;若模板图像中某一位置在多次历史抓取过程中均作为了抓取点,则当前边缘线在模板图像中距离该位置越近的点越适合作为特征点进行后续的匹配;当前边缘线上的像素点在模板图像中的投影点为被抓取点的次数越多,说明该点的特征越明显,即该点越适合作为特征点;当前边缘线上的像素点在模板图像中的投影点作为被抓取点时对应的有效性指标越大,说明利用该抓取点进行抓取时的抓取效果越好,即该像素点越应当被作为特征点进行后续匹配;基于此,根据当前边缘线上各像素点在模板图像中的投影点每次作为抓取点时对应的有效性指标、当前边缘线上各像素点在模板图像中的投影点作为抓取点的总次数、当前边缘线上各像素点在模板图像中的投影点与各历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,计算当前边缘线上各像素点对应的匹配度,即:
Figure 800688DEST_PATH_IMAGE016
其中,
Figure 640337DEST_PATH_IMAGE002
为当前边缘线上第k个像素点对应的匹配度,
Figure 947821DEST_PATH_IMAGE003
为历史零件抓取过程的次数,
Figure 572838DEST_PATH_IMAGE017
为当前边缘线上第k个像素点在模板图像中的投影点与第i个历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,
Figure 323887DEST_PATH_IMAGE005
为当前边缘线上第k个像素点在模板图像中的投影点作为抓取点的总次数,
Figure 135985DEST_PATH_IMAGE018
为当前边缘线上第k个像素点在模板图像中的投影点第j次作为抓取点时对应的有效性指标,
Figure 762008DEST_PATH_IMAGE007
为调整参数。
当前边缘线上第k个像素点在模板图像中的投影点在历史数据中被抓取次数越多、抓取效果越好,说明当前边缘线上第k个像素点为特征像素点的可能性越大;若该像素点被抓取次数越多,则
Figure 241531DEST_PATH_IMAGE019
的值越大,即该像素点对应的有效性指标的权重越大;当前边缘线上各像素点在模板图像中的投影点与各历史边缘线上的抓取点投影到模板图像中的像素点的最近距离越近,当前边缘线上第k个像素点为特征点的可能性越大,为了突出抓取点的重要性,其对应的匹配度越大;引入调整参数
Figure 412749DEST_PATH_IMAGE007
是为了防止分母为0,本实施例中
Figure 977722DEST_PATH_IMAGE007
的值为0.01,在具体应用中,实施者根据具体情况进行设置;当当前边缘线上第k个像素点在模板图像中的投影点在历史数据中被抓取次数越多、有效性指标越大、当前边缘线上各像素点在模板图像中的投影点与各历史边缘线上的抓取点投影到模板图像中的像素点的最近距离越近时,当前边缘线上第k个像素点对应的匹配度越大。
至此,采用上述方法,能够得到当前边缘线上各像素点对应的匹配度,匹配度指标越大,说明对应像素点越适合作为匹配像素点,设置匹配度阈值
Figure 112163DEST_PATH_IMAGE020
,判断当前边缘线上各像素点对应的匹配度是否大于
Figure 711771DEST_PATH_IMAGE020
,若大于,则将对应像素点作为待抓取零件上的特征点;若小于等于,则判定对应像素点不为待抓取零件上的特征点;至此,获得了当前边缘线(待抓取零件的边缘线)上的特征点。本实施例中
Figure 303159DEST_PATH_IMAGE020
的值为0.5,在具体应用中,实施者可根据具体情况自行设置。
本实施例在上述步骤中获得了待抓取零件的边缘线上的特征点,接下来采用形态学上下文算法,获得待抓取零件的边缘线上的特征点和各历史零件抓取过程对应的零件的边缘线上的像素点的相似性,作为各历史边缘线与当前边缘线的相似性。形态学上下文算法为现有技术,此处不再过多赘述。
步骤S3,将各历史边缘线投影到所述当前图像中获得第一图像,基于各历史边缘线与当前边缘线的相似性以及各历史边缘线对应的抓取效果评价指标对第一图像中的历史边缘线进行聚类获得目标聚类簇;将所述目标聚类簇中的各历史边缘线对应的抓取点投影到所述待抓取零件的表面图像中,对待抓取零件的表面图像中的所有投影点进行聚类,将各聚类簇的中心点作为待抓取零件的抓取点,控制机器人对所述待抓取零件的抓取点进行抓取。
将各历史边缘线投影到当前图像中,将投影之后的图像记为第一图像,每个历史边缘线均与当前边缘线有一个相似性,接下来本实施例对第一图像中的历史边缘线进行聚类,聚类采用的DBSCAN聚类算法,设置聚类半径为3,minpts为3,聚类距离是基于各历史边缘线对应的相似性以及抓取效果评价指标得到的,即:
Figure 89849DEST_PATH_IMAGE021
其中,
Figure 542827DEST_PATH_IMAGE022
为DBSCAN聚类算法进行聚类时的聚类距离,
Figure 482095DEST_PATH_IMAGE023
为第一图像中第1个历史边缘线与当前边缘线的相似性,
Figure 995116DEST_PATH_IMAGE024
为第一图像中所有历史边缘线与当前边缘线的相似性的均值,
Figure 252791DEST_PATH_IMAGE025
为第一图像中第1个历史边缘线对应的抓取效果评价指标,
Figure 775039DEST_PATH_IMAGE026
为第一图像中所有历史边缘线对应的抓取效果评价指标的均值。对第一图像中的历史边缘线进行了聚类,每个簇内的历史边缘线与当前边缘线的相似性差异较小,DBSCAN聚类算法为现有技术,此处不再赘述。在具体应用中,聚类半径和minpts实施者可根据具体情况进行设置。
将历史边缘线数量最多的聚类簇记为目标聚类簇,目标聚类簇中的所有历史边缘线均与当前边缘线的相似程度较大,即说明目标聚类簇中的各历史边缘线对应的零件被抓取前在料框内的摆放姿态与待抓取零件在料框内的摆放姿态较为相似,接下来本实施例将基于目标聚类簇中的所有历史边缘线对应的抓取点获取待抓取零件的抓取点。
具体的,对第一图像中目标聚类簇中的所有历史边缘线对应的抓取点进行标注,将第一图像中目标聚类簇中的所有历史边缘线对应的抓取点投影到待抓取零件的表面图像上,对待抓取零件的表面图像中的所有投影点进行聚类,聚类时采用K-means聚类算法,k的值是根据抓取点的数量设置的,机械手抓取零件时抓取点的个数即为抓取点的数量,本实施例使用四个方向上的机械手去抓取零件,因此k的值为4,在具体应用中,k的值根据具体情况进行设置,聚类距离是基于待抓取零件的表面图像中的所有投影点的位置和所有投影点对应的抓取效果评价指标得到的,即:
Figure 818082DEST_PATH_IMAGE027
其中,
Figure 246877DEST_PATH_IMAGE028
为K-means聚类算法进行聚类时的聚类距离,
Figure 742580DEST_PATH_IMAGE029
为待抓取零件的表面图像中的第1个投影点到聚类中心的距离,
Figure 802940DEST_PATH_IMAGE025
为待抓取零件的表面图像中的第1个投影点对应的抓取效果评价指标,
Figure 949757DEST_PATH_IMAGE026
为待抓取零件的表面图像中所有投影点对应的抓取效果评价指标的均值。
采用上述方法对待抓取零件的表面图像中的所有投影点进行聚类,得到了4个聚类簇,获取每个聚类簇的中心点,每个簇的中心点为待抓取零件的一个抓取点,即获得了待抓取零件上的4个抓取点,控制机器人手臂抓取待抓取零件的抓取点,完成零件的码垛操作。
本实施例考虑到机器人在抓取料框内的零件时,优选最容易抓取的零件,因此本实施例首先获取了机器人当前零件抓取过程中料框内的零件的灰度图像并记为当前图像,基于当前图像中各零件的表面图像的面积分析当前图像中各零件的摆放姿态获取待抓取零件,进而对待抓取零件进行分析获取待抓取零件的抓取点,控制机器人根据抓取点抓取零件,大大减少了因抓取点选取的不对导致抓取过程中零件滑落或导致零件的放置的姿态不对影响后续零件的摆放的问题的出现,提高了机器人码垛的效率。本实施例在获取待抓取零件的抓取点时,考虑到若某一历史抓取过程中所抓取的零件被抓取前在料框内的摆放姿态与待抓取零件料框内的摆放姿态越相似且该历史抓取过程对应的抓取效果越好,则待抓取零件的边缘线上与该历史抓取过程对应的历史边缘线上的抓取点相同位置的像素点越适合作为当前零件抓取过程的抓取点,因此本实施例基于历史零件抓取过程中的抓取点和抓取效果评价指标对当前边缘线上的像素点进行了分析,获取到了准确的抓取点,提高了机器人对料框内零件抓取的可靠性。
需要说明的是:以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种高位料库机器人的码垛控制方法,其特征在于,该方法包括以下步骤:
获取机器人当前零件抓取过程中料框内的零件的灰度图像记为当前图像,获取M次历史零件抓取过程中对应的零件的表面图像记为历史图像,所述历史零件抓取过程中对应的零件的表面图像为历史抓取过程中所抓取的零件被抓取前在料框内的表面图像;基于所述当前图像获得各零件的表面图像;M≥10;
基于各零件的表面图像的面积和各零件对应的标准面积,得到各零件的优先指标,将当前图像中优先指标最大的零件作为待抓取零件;将所述待抓取零件的边缘线记为当前边缘线,将历史零件抓取过程中被抓取零件的边缘线记为历史边缘线;基于各历史抓取过程对应的抓取效果评价指标和各历史零件抓取过程中被抓取零件的优先指标获得各历史边缘线上抓取点对应的有效性指标;基于各历史边缘线上抓取点、当前边缘线上的各像素点和所述有效性指标,得到当前边缘线上各像素点对应的匹配度,将所述匹配度大于匹配度阈值的像素点作为待抓取零件上的特征点;基于所述特征点和各历史边缘线获得各历史边缘线与当前边缘线的相似性;
将各历史边缘线投影到所述当前图像中获得第一图像,基于各历史边缘线与当前边缘线的相似性以及各历史边缘线对应的抓取效果评价指标对第一图像中的历史边缘线进行聚类获得目标聚类簇;将所述目标聚类簇中的各历史边缘线对应的抓取点投影到所述待抓取零件的表面图像中,对待抓取零件的表面图像中的所有投影点进行聚类,将各聚类簇的中心点作为待抓取零件的抓取点,控制机器人对所述待抓取零件的抓取点进行抓取;
所述基于各历史边缘线上抓取点、当前边缘线上的各像素点和所述有效性指标,得到当前边缘线上各像素点对应的匹配度,包括:
将当前边缘线和各历史边缘线投影到模板图像中,所述模板图像为零件水平放置在料框内的表面图像;
对于当前边缘线上第k个像素点:根据该像素点在模板图像中的投影点每次作为抓取点时对应的有效性指标、该像素点在模板图像中的投影点作为抓取点的总次数、该像素点在模板图像中的投影点与各历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,计算该像素点对应的匹配度。
2.根据权利要求1所述的一种高位料库机器人的码垛控制方法,其特征在于, 采用如下公式计算该像素点对应的匹配度:
Figure 398495DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE003
为当前边缘线上第k个像素点对应的匹配度,
Figure 722160DEST_PATH_IMAGE004
为历史零件抓取过程的次数,
Figure DEST_PATH_IMAGE005
为当前边缘线上第k个像素点在模板图像中的投影点与第i个历史边缘线上的抓取点投影到模板图像中的像素点的最近距离,
Figure 875799DEST_PATH_IMAGE006
为当前边缘线上第k个像素点在模板图像中的投影点作为抓取点的总次数,
Figure DEST_PATH_IMAGE007
为当前边缘线上第k个像素点在模板图像中的投影点第j次作为抓取点时对应的有效性指标,
Figure 677532DEST_PATH_IMAGE008
为调整参数。
3.根据权利要求1所述的一种高位料库机器人的码垛控制方法,其特征在于,所述基于各历史边缘线与当前边缘线的相似性以及各历史边缘线对应的抓取效果评价指标对第一图像中的历史边缘线进行聚类获得目标聚类簇,包括:
采用的DBSCAN聚类算法对第一图像中的历史边缘线进行聚类;所述DBSCAN聚类算法聚类时的聚类距离是基于各历史边缘线对应的相似性以及抓取效果评价指标得到的;
将历史边缘线数量最多的聚类簇记为目标聚类簇。
4.根据权利要求1所述的一种高位料库机器人的码垛控制方法,其特征在于,所述对待抓取零件的表面图像中的所有投影点进行聚类,包括:采用K-means聚类算法对待抓取零件的表面图像中的所有投影点进行聚类,所述K-means聚类算法的聚类距离是基于待抓取零件的表面图像中的所有投影点的位置和所有投影点对应的抓取效果评价指标得到的。
5.根据权利要求1所述的一种高位料库机器人的码垛控制方法,其特征在于,所述基于各零件的表面图像的面积和各零件对应的标准面积,得到各零件的优先指标,包括:
对于当前图像中的任一零件:计算该零件的表面图像的面积和零件对应的标准面积的差值的绝对值,记为第一绝对值;以自然常数为底数,以负的所述第一绝对值为指数的指数函数的值作为该零件的优先指标。
6.根据权利要求1所述的一种高位料库机器人的码垛控制方法,其特征在于,所述基于各历史抓取过程对应的抓取效果评价指标和各历史零件抓取过程中被抓取零件的优先指标获得各历史边缘线上抓取点对应的有效性指标,包括:
对于任一历史零件抓取过程:将该历史零件抓取过程对应的抓取效果评价指标和该历史抓取过程中被抓取零件的优先指标的乘积作为该历史零件抓取过程对应的历史边缘线上抓取点对应的有效性指标。
CN202211298730.5A 2022-10-24 2022-10-24 一种高位料库机器人的码垛控制方法 Active CN115359112B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211298730.5A CN115359112B (zh) 2022-10-24 2022-10-24 一种高位料库机器人的码垛控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211298730.5A CN115359112B (zh) 2022-10-24 2022-10-24 一种高位料库机器人的码垛控制方法

Publications (2)

Publication Number Publication Date
CN115359112A CN115359112A (zh) 2022-11-18
CN115359112B true CN115359112B (zh) 2023-01-03

Family

ID=84008745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211298730.5A Active CN115359112B (zh) 2022-10-24 2022-10-24 一种高位料库机器人的码垛控制方法

Country Status (1)

Country Link
CN (1) CN115359112B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108668637A (zh) * 2018-04-25 2018-10-19 江苏大学 一种机器视觉自然放置葡萄串抓取点定位方法
WO2020034872A1 (zh) * 2018-08-17 2020-02-20 深圳蓝胖子机器人有限公司 目标获取方法、设备和计算机可读存储介质
CN112560704A (zh) * 2020-12-18 2021-03-26 温州大学乐清工业研究院 一种多特征融合的视觉识别方法及系统
CN114758236A (zh) * 2022-04-13 2022-07-15 华中科技大学 一种非特定形状物体识别、定位与机械手抓取系统及方法
CN114842323A (zh) * 2022-07-04 2022-08-02 山东西曼克技术有限公司 基于分类识别的智能机器人分拣优化方法
CN114952809A (zh) * 2022-06-24 2022-08-30 中国科学院宁波材料技术与工程研究所 工件识别和位姿检测方法、系统及机械臂的抓取控制方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108890693A (zh) * 2018-07-06 2018-11-27 陕西大中科技发展有限公司 一种基于视觉的工业机器人码垛方法
CN111553949B (zh) * 2020-04-30 2023-05-19 张辉 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN114187312A (zh) * 2020-08-28 2022-03-15 曰轮法寺 目标物的抓取方法、装置、系统、存储介质及设备
CN112070818B (zh) * 2020-11-10 2021-02-05 纳博特南京科技有限公司 基于机器视觉的机器人无序抓取方法和系统及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108668637A (zh) * 2018-04-25 2018-10-19 江苏大学 一种机器视觉自然放置葡萄串抓取点定位方法
WO2020034872A1 (zh) * 2018-08-17 2020-02-20 深圳蓝胖子机器人有限公司 目标获取方法、设备和计算机可读存储介质
CN112560704A (zh) * 2020-12-18 2021-03-26 温州大学乐清工业研究院 一种多特征融合的视觉识别方法及系统
CN114758236A (zh) * 2022-04-13 2022-07-15 华中科技大学 一种非特定形状物体识别、定位与机械手抓取系统及方法
CN114952809A (zh) * 2022-06-24 2022-08-30 中国科学院宁波材料技术与工程研究所 工件识别和位姿检测方法、系统及机械臂的抓取控制方法
CN114842323A (zh) * 2022-07-04 2022-08-02 山东西曼克技术有限公司 基于分类识别的智能机器人分拣优化方法

Also Published As

Publication number Publication date
CN115359112A (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN106737664B (zh) 分拣多类工件的Delta机器人控制方法及系统
CN110516570B (zh) 一种基于视觉的垃圾分类识别方法和装置
CN111428731B (zh) 基于机器视觉的多类目标识别定位方法、装置和设备
CN108212807B (zh) 一种机器人分拣物品的方法、装置及机械臂
CN110969660B (zh) 一种基于三维立体视觉和点云深度学习的机器人上料系统
CN104417490B (zh) 一种汽车安全带检测方法及装置
CN110929713B (zh) 一种基于bp神经网络的钢印字符识别方法
CN108247635A (zh) 一种深度视觉的机器人抓取物体的方法
JP2013052490A (ja) ワーク取り出し装置
CN110852186B (zh) 一种树上柑橘的视觉识别与采摘顺序规划方法及其仿真系统
CN110125036B (zh) 一种基于模板匹配的自识别分拣方法
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
CN113569922A (zh) 一种苹果智能无损分拣的方法
CN111929299A (zh) 一种基于机器视觉的农产品种植分析管理系统
CN114842323B (zh) 基于分类识别的智能机器人分拣优化方法
CN115359112B (zh) 一种高位料库机器人的码垛控制方法
CN107953338B (zh) 一种机器人分拣物品的方法、装置及机械臂
CN114241037A (zh) 混合尺寸卸盘
CN113319013A (zh) 一种基于机器视觉的苹果智能分拣的方法
CN113524172B (zh) 机器人及其物品抓取方法、计算机可读存储介质
CN114750155B (zh) 一种基于工业机器人的物件分类控制系统及方法
CN112989881A (zh) 一种无监督可迁移的3d视觉物体抓取方法
CN115049860A (zh) 一种基于特征点识别的系统及抓取方法
CN113936276A (zh) 一种基于深度学习的物体姿态识别抓取的搬运机器人方法
CN113554635A (zh) 基于人工智能的钢卷松卷自动检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant