CN112171664B - 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 - Google Patents

基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 Download PDF

Info

Publication number
CN112171664B
CN112171664B CN202010949867.7A CN202010949867A CN112171664B CN 112171664 B CN112171664 B CN 112171664B CN 202010949867 A CN202010949867 A CN 202010949867A CN 112171664 B CN112171664 B CN 112171664B
Authority
CN
China
Prior art keywords
grabbed
clamping jaw
camera
image
production line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010949867.7A
Other languages
English (en)
Other versions
CN112171664A (zh
Inventor
陈辉
高会军
林伟阳
孙敬颋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jing Ke Shenzhen Robot Technology Co ltd
Original Assignee
Jing Ke Shenzhen Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jing Ke Shenzhen Robot Technology Co ltd filed Critical Jing Ke Shenzhen Robot Technology Co ltd
Priority to CN202010949867.7A priority Critical patent/CN112171664B/zh
Publication of CN112171664A publication Critical patent/CN112171664A/zh
Application granted granted Critical
Publication of CN112171664B publication Critical patent/CN112171664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,属于机器人控制技术领域。所述方法包括:本发明通过包含的姿态信息的待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。

Description

基于视觉识别的生产线机器人轨迹补偿方法、装置和系统
技术领域
本发明涉及机器人控制技术领域,特别涉及一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统。
背景技术
为了提高工作效率,越来越多的生产线引入了机器人进行无序分拣。由于机器人编程的门槛相对较高,生产线上的机器人往往是通过示教点来完成固定的点对点运动。
相关技术所提供的机器人仅仅可以用来抓取一些长方体模具或者非正圆球类的模具,这些模具由于放置或者一些其他因素导致的姿态不同(例如从原来的站立姿态到躺倒姿态),那么机器人运动到原来示教好的抓取点,将不能完成预设的抓取任务,从而降低了生产线机器人的抓取效率和准确性。
发明内容
为了提高生产线机器人的抓取效率和准确性,本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统。所述技术方案如下:
一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿方法,所述方法应用一种生产线机器人,所述生产线机器人至少包括至少一个夹爪和相机,所述方法包括:
获取所述相机所采集的待抓取物品图像;
根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
根据所述第一位置,生成所述抓取点;
根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述根据所述待抓取物品图像,计算所述待抓取物品的位置包括:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置包括:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
可选的,所述根据所述抓取点,设置所述夹爪的运动轨迹还包括:
根据所述深度信息,调整所述夹爪的运动轨迹。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括至少一个夹爪和相机,所述装置还包括:
获取模块,用于获取所述相机所采集的待抓取物品图像;
计算模块,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算模块还用于根据所述第一位置,生成所述抓取点;
设置模块,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述计算模块具体用于:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述计算模块还具体用于:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
可选的,所述设置模块还用于:
根据所述深度信息,调整所述夹爪的运动轨迹。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括存储器以及与所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行第一方面任一所述的方法。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿系统,所述系统包括生产线机器人,所述生产线机器人至少包括至少一个夹爪和相机,所述系统还包括:
获取装置,用于获取所述相机所采集的待抓取物品图像;
计算装置,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算装置还用于根据所述第一位置,生成所述抓取点;
设置装置,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述计算装置具体用于:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述计算装置还具体用于:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,包括:获取所述相机所采集的待抓取物品图像;根据所述待抓取物品图像,计算所述待抓取物品的第一位置;根据所述第一位置,生成所述抓取点;根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
本发明实施例提供的技术方案带来的有益效果是:
由于待抓取物品图像中的待抓取物品包含姿态信息,使得通过待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿方法流程图;
图2是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿方法流程图;
图3是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿装置结构示意图;
图4是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿系统示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法,该方法应用一种生产线机器人,生产线机器人至少包括至少一个夹爪和相机,参照图1所示,该方法包括:
101、获取相机所采集的待抓取物品图像。
102、根据待抓取物品图像,计算待抓取物品的第一位置。
具体的,获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
其中,根据待抓取物品图像,识别待抓取物品相对于相机的第三位置可以为:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
103、根据第一位置,生成抓取点。
104、根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
具体的,根据深度信息,调整夹爪的运动轨迹。
实施例二
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法,参照图2所示,该方法包括:
201、获取相机所采集的待抓取物品图像。
具体的,该相机可以为深度相机,本发明实施例对具体的采集方式不加以限定。
通过该深度相机,可以实现对待抓取物品的色彩信息进行识别且实现对待抓取物体进行三维重构。
202、获取相机相对于夹爪的第二位置。
具体的,设置相机外参数矩阵,该相机外参数矩阵为基坐标系中的点到相机坐标系的点的转换矩阵(景物坐标系到相机坐标系的变换矩阵),该过程可以为具体为:
设置相机坐标系相对于世界坐标系的位姿为
Figure 463299DEST_PATH_IMAGE001
(在本文剩余部分,定义
Figure 911598DEST_PATH_IMAGE002
Figure 97860DEST_PATH_IMAGE003
);
设置相机坐标系位姿为
Figure 24227DEST_PATH_IMAGE004
,其中,
Figure 245124DEST_PATH_IMAGE005
Figure 598745DEST_PATH_IMAGE006
为相机的外参数。
通过相机与夹爪之间的平移参数
Figure 537882DEST_PATH_IMAGE007
和旋转参数
Figure 267941DEST_PATH_IMAGE008
,结合基本变换矩阵,可以得出机器人末端坐标系到相机坐标系的变换矩阵:
Figure 841880DEST_PATH_IMAGE009
(1)
设置机器人末端相对于基底坐标系的变换矩阵
Figure 366402DEST_PATH_IMAGE010
,并根据末端到相机坐标系的变换矩阵
Figure 527256DEST_PATH_IMAGE011
,得到相机坐标系相对于基底坐标系的变换矩阵
Figure 795426DEST_PATH_IMAGE012
根据该变换矩阵。计算基底坐标系相对于相机坐标系的变换
Figure 725336DEST_PATH_IMAGE013
,即相机的外参数矩阵,该相机的外参数矩阵即为相机相对于夹爪的第二位置。
假设p
Figure 686339DEST_PATH_IMAGE014
为图像坐标系中的点,点B为点P在
Figure 334489DEST_PATH_IMAGE015
平面上垂线的交点,点C为点p在图像平面x轴上的垂线交点,得到相机坐标系的点到图像平面的点的转换为:
Figure 140771DEST_PATH_IMAGE016
(2)
上式中的右侧系数矩阵即为投影成像矩阵,f表示相机焦距,左侧的
Figure 692231DEST_PATH_IMAGE017
表示点的深度值,即相机坐标系中该点的Z坐标。
x-y为图像坐标系,u-v为像素坐标系,
Figure 558556DEST_PATH_IMAGE018
为图像坐标系的原点在像素坐标系中的表示,从而得到投影离散化矩阵。图像坐标系中的任意一点转换到到像素坐标系的表示为:
Figure 694002DEST_PATH_IMAGE019
(3)
上式中右侧的系数矩阵即为投影离散化矩阵,dx,dy分别表示像素平面水平和竖直方向的总像素值,
Figure 303975DEST_PATH_IMAGE020
为点p在像素坐标系中的坐标值。
基座标系的点通过相机外参数的转换,得到像素坐标,其具体转换如下式:
Figure 474057DEST_PATH_IMAGE021
(4)
式中,z为点在相机坐标系中的深度值。
203、识别待抓取物品图像中待抓取物品的深度信息。
具体的,通过深度学习算法进行特征识别,该过程之前,还可以执行以下步骤:
采集多个样本图像;
对样本图像中的待抓取物体进行标注,为每一张样本图像得到标签;
设置样本图像(JPG)以及其对应的标签文件(XML)为深度学习算法的输入数据,该深度学习算法的输出数据至少包括待抓取物体的深度信息;
根据该输入数据对深度学习算法进行训练。
在执行为上述步骤之后,通过深度学习算法进行特征识别的过程可以为:
将待抓取物品图像输入该深度学习算法,输出待抓取物体的深度信息,进一步的,该深度信息可以为该深度值。
204、根据深度信息,计算第三位置。
具体的,根据公式(3),得到该待抓取物体的在像素坐标系中的坐标值。
值得注意的是,步骤203至步骤204是实现根据待抓取物品图像,识别待抓取物品相对于相机的第三位置的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
205、根据第二位置和第三位置,计算第一位置。
具体的,通过公式(4)和深度值,将该待抓取物体的在像素坐标系中的坐标值转化为基座标系中的坐标,该坐标即为第三位置。
值得注意的是,步骤202至步骤205是实现根据待抓取物品图像,计算待抓取物品的第一位置的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
206、根据第一位置,生成抓取点。
具体的,获取待抓取物品的多个点的第一位置;
根据该多个点的第一位置,估计该待抓取物品的重心点的第一位置,该重心点的第一位置即为抓取点;
207、根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
具体的,根据深度信息,调整夹爪的运动轨迹,该过程可以为:
从夹爪的起始点以及深度信息,对给定的关节变量进行规划;
由若干关节角规划出整条轨迹的关节角,规划出的关节角可直接提供给机器人的控制器;
可选的,在进行时间最优轨迹规划时,除了要考虑机器人本身的性能参数,如各个关节所允许的最大速度、 加速度, 加加速度等, 还要考虑机械臂在运行过程中的平滑性与稳定性,即规划出来的轨迹没有速度和加速度突变,以免损坏机械臂的机械结构。为此,设置夹爪的运动轨迹的过程还可以为:
设置夹爪的机械臂各个关节的速度限制为
Figure 652228DEST_PATH_IMAGE022
,加速度限制为
Figure 134025DEST_PATH_IMAGE023
Figure 187170DEST_PATH_IMAGE024
为串联机械臂的关节个数。:
Figure 70812DEST_PATH_IMAGE025
(5)
式中:
Figure 419885DEST_PATH_IMAGE026
Figure 388978DEST_PATH_IMAGE027
,
Figure 216120DEST_PATH_IMAGE028
为第
Figure 219848DEST_PATH_IMAGE029
个关节的B样条速度、加速度曲线的第
Figure 739822DEST_PATH_IMAGE030
个控制点。
Figure 850340DEST_PATH_IMAGE031
是存在下界,即
Figure 605806DEST_PATH_IMAGE032
的每个元素满足:
Figure 73828DEST_PATH_IMAGE033
(6)
令:
Figure 889337DEST_PATH_IMAGE034
(7)
Figure 973968DEST_PATH_IMAGE035
Figure 533125DEST_PATH_IMAGE036
的值确定时间向量的初始值可以提高优化算法的搜索效率:
Figure 121232DEST_PATH_IMAGE037
(8)
采用序列二次规划(SQP)求解非线性约束优化问题构造拉格朗日函数,将非线性约束线性化:
Figure 842064DEST_PATH_IMAGE038
(9)
式中,
Figure 646946DEST_PATH_IMAGE039
是拉格朗日乘子,
Figure 744215DEST_PATH_IMAGE040
通过对拉格朗日函数求极值,当
Figure 717988DEST_PATH_IMAGE041
时,
Figure 485087DEST_PATH_IMAGE042
是非线性优化问题的解,也即时间优化问题的解。通过牛顿-拉夫森方法,得到SQP问题的第
Figure 403364DEST_PATH_IMAGE043
个子问题:
Figure 179690DEST_PATH_IMAGE044
(10)
式中:
Figure 867023DEST_PATH_IMAGE045
Figure 572068DEST_PATH_IMAGE046
为拉格朗日函数Hessian矩阵的近似。记序列二次规划的第k个子问题的解为
Figure 712062DEST_PATH_IMAGE047
,因此存在K-T方程:
Figure 292079DEST_PATH_IMAGE048
(11)
实施例三
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿装置3,参照图3所示,该装置3包括至少一个夹爪和相机,装置3还包括:
获取模块31,用于获取相机所采集的待抓取物品图像;
计算模块32,用于根据待抓取物品图像,计算待抓取物品的第一位置;
计算模块32还用于根据第一位置,生成抓取点;
设置模块33,用于根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
可选的,计算模块32具体用于:
获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
可选的,计算模块32还具体用于:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
可选的,设置模块33还用于:
根据深度信息,调整夹爪的运动轨迹。
实施例四
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿系统,参照图4所示,该系统包括生产线机器人,生产线机器人至少包括至少一个夹爪和相机,系统还包括:
获取装置41,用于获取相机所采集的待抓取物品图像;
计算装置42,用于根据待抓取物品图像,计算待抓取物品的第一位置;
计算装置42还用于根据第一位置,生成抓取点;
设置装置43,用于根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
可选的,计算装置42具体用于:
获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
可选的,计算装置42还具体用于:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
实施例五
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿装置,该装置包括存储器以及与存储器连接的处理器,其中,存储器用于存储一组程序代码,处理器调用存储器所存储的程序代码用于执行实施例一和/或所述的方法。
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,通过包含的姿态信息的待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的基于视觉识别的生产线机器人轨迹补偿装置和系统在执行基于视觉识别的生产线机器人轨迹补偿方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置和系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于视觉识别的生产线机器人轨迹补偿方法、装置和系统实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于视觉识别的生产线机器人轨迹补偿方法,其特征在于,所述方法应用于一种生产线机器人,所述生产线机器人至少包括相机和至少一个夹爪,所述方法包括:
获取所述相机所采集的待抓取物品图像;
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
根据所述第一位置,生成抓取点;
根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
Figure FDA0003226040670000011
Figure FDA0003226040670000012
Figure FDA0003226040670000013
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;
Figure FDA0003226040670000014
为第m个关节的B样条速度曲线的第j个控制点,
Figure FDA0003226040670000015
为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
Figure FDA0003226040670000016
令:
Figure FDA0003226040670000018
2.一种基于视觉识别的生产线机器人轨迹补偿装置,其特征在于,所述装置包括相机和至少一个夹爪,所述装置还包括:
获取模块,用于获取所述相机所采集的待抓取物品图像;
计算模块,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算模块还用于根据所述第一位置,生成抓取点;
设置模块,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
所述计算模块具体用于:获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
所述设置模块还用于:
根据所述深度信息,调整所述夹爪的运动轨迹;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
Figure FDA0003226040670000021
Figure FDA0003226040670000022
Figure FDA0003226040670000023
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;
Figure FDA0003226040670000024
为第m个关节的B样条速度曲线的第j个控制点,
Figure FDA0003226040670000025
为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
Figure FDA0003226040670000026
令:
Figure FDA0003226040670000032
3.一种基于视觉识别的生产线机器人轨迹补偿系统,其特征在于,所述系统包括生产线机器人,所述生产线机器人至少包括相机和至少一个夹爪,所述系统还包括:
获取装置,用于获取所述相机所采集的待抓取物品图像;
计算装置,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算装置还用于根据所述第一位置,生成抓取点;
设置装置,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
所述计算装置具体用于:获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
所述设置装置还用于:
根据所述深度信息,调整所述夹爪的运动轨迹;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
Figure FDA0003226040670000033
Figure FDA0003226040670000034
Figure FDA0003226040670000035
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;
Figure FDA0003226040670000036
为第m个关节的B样条速度曲线的第j个控制点,
Figure FDA0003226040670000037
为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
Figure FDA0003226040670000043
令:
Figure FDA0003226040670000042
4.一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括存储器以及与所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行权利要求1所述的方法。
CN202010949867.7A 2020-09-10 2020-09-10 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 Active CN112171664B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010949867.7A CN112171664B (zh) 2020-09-10 2020-09-10 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010949867.7A CN112171664B (zh) 2020-09-10 2020-09-10 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统

Publications (2)

Publication Number Publication Date
CN112171664A CN112171664A (zh) 2021-01-05
CN112171664B true CN112171664B (zh) 2021-10-08

Family

ID=73920572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010949867.7A Active CN112171664B (zh) 2020-09-10 2020-09-10 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统

Country Status (1)

Country Link
CN (1) CN112171664B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114505250A (zh) * 2021-12-29 2022-05-17 阿里巴巴新加坡控股有限公司 货品的自动分拣装置、方法、设备及计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101186038A (zh) * 2007-12-07 2008-05-28 北京航空航天大学 一种机器人延伸手眼标定方法
CN107127773A (zh) * 2017-04-05 2017-09-05 武汉科技大学 一种机器人抓取物品的方法
CN108247635A (zh) * 2018-01-15 2018-07-06 北京化工大学 一种深度视觉的机器人抓取物体的方法
CN111168686A (zh) * 2020-02-25 2020-05-19 深圳市商汤科技有限公司 物体的抓取方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8571745B2 (en) * 2008-04-10 2013-10-29 Robert Todd Pack Advanced behavior engine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101186038A (zh) * 2007-12-07 2008-05-28 北京航空航天大学 一种机器人延伸手眼标定方法
CN107127773A (zh) * 2017-04-05 2017-09-05 武汉科技大学 一种机器人抓取物品的方法
CN108247635A (zh) * 2018-01-15 2018-07-06 北京化工大学 一种深度视觉的机器人抓取物体的方法
CN111168686A (zh) * 2020-02-25 2020-05-19 深圳市商汤科技有限公司 物体的抓取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112171664A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN110026987B (zh) 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质
CN108356823B (zh) 具有学习控制功能的控制系统以及控制方法
CN104842352B (zh) 利用了视觉反馈的机器人系统
CN111958604A (zh) 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法
CN108748149B (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN114912287B (zh) 基于目标6d位姿估计的机器人自主抓取仿真系统及方法
JP2019150911A (ja) ロボット作業システム、及びロボット作業システムの制御方法
JP6826069B2 (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
CN113269723B (zh) 三维视觉定位与机械手协同工作的零部件无序抓取系统
CN114347008B (zh) 基于工业机器人的无序抓取工件方法、装置及智能终端
CN115213896A (zh) 基于机械臂的物体抓取方法、系统、设备及存储介质
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
CN112633187B (zh) 基于图像分析的机器人自动搬运方法、系统和存储介质
JP2022187984A (ja) モジュール化ニューラルネットワークを用いた把持学習
CN110009689A (zh) 一种用于协作机器人位姿估计的图像数据集快速构建方法
JP2022187983A (ja) 高次元のロボット作業を学習するためのネットワークモジュール化
CN112171664B (zh) 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统
CN114131603B (zh) 基于感知增强和场景迁移的深度强化学习机器人抓取方法
CN117103277A (zh) 一种基于多模态数据融合的机械手臂感知方法
CN112338922B (zh) 一种五轴机械臂抓取放置方法及相关装置
CN116214531B (zh) 一种工业机器人的路径规划方法及装置
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
CN115741666A (zh) 机器人手眼标定方法、机器人及机器人作业方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant