CN112171664B - 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 - Google Patents
基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 Download PDFInfo
- Publication number
- CN112171664B CN112171664B CN202010949867.7A CN202010949867A CN112171664B CN 112171664 B CN112171664 B CN 112171664B CN 202010949867 A CN202010949867 A CN 202010949867A CN 112171664 B CN112171664 B CN 112171664B
- Authority
- CN
- China
- Prior art keywords
- grabbed
- clamping jaw
- camera
- image
- production line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,属于机器人控制技术领域。所述方法包括:本发明通过包含的姿态信息的待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。
Description
技术领域
本发明涉及机器人控制技术领域,特别涉及一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统。
背景技术
为了提高工作效率,越来越多的生产线引入了机器人进行无序分拣。由于机器人编程的门槛相对较高,生产线上的机器人往往是通过示教点来完成固定的点对点运动。
相关技术所提供的机器人仅仅可以用来抓取一些长方体模具或者非正圆球类的模具,这些模具由于放置或者一些其他因素导致的姿态不同(例如从原来的站立姿态到躺倒姿态),那么机器人运动到原来示教好的抓取点,将不能完成预设的抓取任务,从而降低了生产线机器人的抓取效率和准确性。
发明内容
为了提高生产线机器人的抓取效率和准确性,本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统。所述技术方案如下:
一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿方法,所述方法应用一种生产线机器人,所述生产线机器人至少包括至少一个夹爪和相机,所述方法包括:
获取所述相机所采集的待抓取物品图像;
根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
根据所述第一位置,生成所述抓取点;
根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述根据所述待抓取物品图像,计算所述待抓取物品的位置包括:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置包括:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
可选的,所述根据所述抓取点,设置所述夹爪的运动轨迹还包括:
根据所述深度信息,调整所述夹爪的运动轨迹。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括至少一个夹爪和相机,所述装置还包括:
获取模块,用于获取所述相机所采集的待抓取物品图像;
计算模块,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算模块还用于根据所述第一位置,生成所述抓取点;
设置模块,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述计算模块具体用于:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述计算模块还具体用于:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
可选的,所述设置模块还用于:
根据所述深度信息,调整所述夹爪的运动轨迹。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括存储器以及与所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行第一方面任一所述的方法。
另一方面,提供了一种基于视觉识别的生产线机器人轨迹补偿系统,所述系统包括生产线机器人,所述生产线机器人至少包括至少一个夹爪和相机,所述系统还包括:
获取装置,用于获取所述相机所采集的待抓取物品图像;
计算装置,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算装置还用于根据所述第一位置,生成所述抓取点;
设置装置,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
可选的,所述计算装置具体用于:
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品相对于所述相机的第三位置;
根据所述第二位置和所述第三位置,计算所述第一位置。
可选的,所述计算装置还具体用于:
识别所述待抓取物品图像中所述待抓取物品的深度信息;
根据所述深度信息,计算所述第三位置。
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,包括:获取所述相机所采集的待抓取物品图像;根据所述待抓取物品图像,计算所述待抓取物品的第一位置;根据所述第一位置,生成所述抓取点;根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取。
本发明实施例提供的技术方案带来的有益效果是:
由于待抓取物品图像中的待抓取物品包含姿态信息,使得通过待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿方法流程图;
图2是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿方法流程图;
图3是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿装置结构示意图;
图4是本发明实施例提供的一种基于视觉识别的生产线机器人轨迹补偿系统示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法,该方法应用一种生产线机器人,生产线机器人至少包括至少一个夹爪和相机,参照图1所示,该方法包括:
101、获取相机所采集的待抓取物品图像。
102、根据待抓取物品图像,计算待抓取物品的第一位置。
具体的,获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
其中,根据待抓取物品图像,识别待抓取物品相对于相机的第三位置可以为:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
103、根据第一位置,生成抓取点。
104、根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
具体的,根据深度信息,调整夹爪的运动轨迹。
实施例二
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法,参照图2所示,该方法包括:
201、获取相机所采集的待抓取物品图像。
具体的,该相机可以为深度相机,本发明实施例对具体的采集方式不加以限定。
通过该深度相机,可以实现对待抓取物品的色彩信息进行识别且实现对待抓取物体进行三维重构。
202、获取相机相对于夹爪的第二位置。
具体的,设置相机外参数矩阵,该相机外参数矩阵为基坐标系中的点到相机坐标系的点的转换矩阵(景物坐标系到相机坐标系的变换矩阵),该过程可以为具体为:
基座标系的点通过相机外参数的转换,得到像素坐标,其具体转换如下式:
式中,z为点在相机坐标系中的深度值。
203、识别待抓取物品图像中待抓取物品的深度信息。
具体的,通过深度学习算法进行特征识别,该过程之前,还可以执行以下步骤:
采集多个样本图像;
对样本图像中的待抓取物体进行标注,为每一张样本图像得到标签;
设置样本图像(JPG)以及其对应的标签文件(XML)为深度学习算法的输入数据,该深度学习算法的输出数据至少包括待抓取物体的深度信息;
根据该输入数据对深度学习算法进行训练。
在执行为上述步骤之后,通过深度学习算法进行特征识别的过程可以为:
将待抓取物品图像输入该深度学习算法,输出待抓取物体的深度信息,进一步的,该深度信息可以为该深度值。
204、根据深度信息,计算第三位置。
具体的,根据公式(3),得到该待抓取物体的在像素坐标系中的坐标值。
值得注意的是,步骤203至步骤204是实现根据待抓取物品图像,识别待抓取物品相对于相机的第三位置的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
205、根据第二位置和第三位置,计算第一位置。
具体的,通过公式(4)和深度值,将该待抓取物体的在像素坐标系中的坐标值转化为基座标系中的坐标,该坐标即为第三位置。
值得注意的是,步骤202至步骤205是实现根据待抓取物品图像,计算待抓取物品的第一位置的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
206、根据第一位置,生成抓取点。
具体的,获取待抓取物品的多个点的第一位置;
根据该多个点的第一位置,估计该待抓取物品的重心点的第一位置,该重心点的第一位置即为抓取点;
207、根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
具体的,根据深度信息,调整夹爪的运动轨迹,该过程可以为:
从夹爪的起始点以及深度信息,对给定的关节变量进行规划;
由若干关节角规划出整条轨迹的关节角,规划出的关节角可直接提供给机器人的控制器;
可选的,在进行时间最优轨迹规划时,除了要考虑机器人本身的性能参数,如各个关节所允许的最大速度、 加速度, 加加速度等, 还要考虑机械臂在运行过程中的平滑性与稳定性,即规划出来的轨迹没有速度和加速度突变,以免损坏机械臂的机械结构。为此,设置夹爪的运动轨迹的过程还可以为:
令:
采用序列二次规划(SQP)求解非线性约束优化问题构造拉格朗日函数,将非线性约束线性化:
式中:
实施例三
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿装置3,参照图3所示,该装置3包括至少一个夹爪和相机,装置3还包括:
获取模块31,用于获取相机所采集的待抓取物品图像;
计算模块32,用于根据待抓取物品图像,计算待抓取物品的第一位置;
计算模块32还用于根据第一位置,生成抓取点;
设置模块33,用于根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
可选的,计算模块32具体用于:
获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
可选的,计算模块32还具体用于:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
可选的,设置模块33还用于:
根据深度信息,调整夹爪的运动轨迹。
实施例四
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿系统,参照图4所示,该系统包括生产线机器人,生产线机器人至少包括至少一个夹爪和相机,系统还包括:
获取装置41,用于获取相机所采集的待抓取物品图像;
计算装置42,用于根据待抓取物品图像,计算待抓取物品的第一位置;
计算装置42还用于根据第一位置,生成抓取点;
设置装置43,用于根据抓取点,设置夹爪的运动轨迹,以使夹爪按照运动轨迹进行运动,完成对待抓取物品的抓取。
可选的,计算装置42具体用于:
获取相机相对于夹爪的第二位置;
根据待抓取物品图像,识别待抓取物品相对于相机的第三位置;
根据第二位置和第三位置,计算第一位置。
可选的,计算装置42还具体用于:
识别待抓取物品图像中待抓取物品的深度信息;
根据深度信息,计算第三位置。
实施例五
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿装置,该装置包括存储器以及与存储器连接的处理器,其中,存储器用于存储一组程序代码,处理器调用存储器所存储的程序代码用于执行实施例一和/或所述的方法。
本发明实施例提供了一种基于视觉识别的生产线机器人轨迹补偿方法、装置和系统,通过包含的姿态信息的待抓取物品图像,实现对机器人抓取过程中的运动轨迹进行调整和设置,可以实现生产线机器人在待抓取物品不同姿态下的抓取任务,从而提高了生产线机器人的抓取效率和准确性。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的基于视觉识别的生产线机器人轨迹补偿装置和系统在执行基于视觉识别的生产线机器人轨迹补偿方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置和系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于视觉识别的生产线机器人轨迹补偿方法、装置和系统实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于视觉识别的生产线机器人轨迹补偿方法,其特征在于,所述方法应用于一种生产线机器人,所述生产线机器人至少包括相机和至少一个夹爪,所述方法包括:
获取所述相机所采集的待抓取物品图像;
获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
根据所述第一位置,生成抓取点;
根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;为第m个关节的B样条速度曲线的第j个控制点,为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
令:
2.一种基于视觉识别的生产线机器人轨迹补偿装置,其特征在于,所述装置包括相机和至少一个夹爪,所述装置还包括:
获取模块,用于获取所述相机所采集的待抓取物品图像;
计算模块,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算模块还用于根据所述第一位置,生成抓取点;
设置模块,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
所述计算模块具体用于:获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
所述设置模块还用于:
根据所述深度信息,调整所述夹爪的运动轨迹;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;为第m个关节的B样条速度曲线的第j个控制点,为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
令:
3.一种基于视觉识别的生产线机器人轨迹补偿系统,其特征在于,所述系统包括生产线机器人,所述生产线机器人至少包括相机和至少一个夹爪,所述系统还包括:
获取装置,用于获取所述相机所采集的待抓取物品图像;
计算装置,用于根据所述待抓取物品图像,计算所述待抓取物品的第一位置;
所述计算装置还用于根据所述第一位置,生成抓取点;
设置装置,用于根据所述抓取点,设置所述夹爪的运动轨迹,以使所述夹爪按照所述运动轨迹进行运动,完成对所述待抓取物品的抓取;
所述计算装置具体用于:获取所述相机相对于所述夹爪的第二位置;
根据所述待抓取物品图像,识别所述待抓取物品图像中所述待抓取物品的深度信息,根据所述深度信息,计算待抓取物品相对于相机的第三位置;
根据所述第二位置和所述第三位置,计算待抓取物品的第一位置;
所述设置装置还用于:
根据所述深度信息,调整所述夹爪的运动轨迹;
其中,设置所述夹爪的运动轨迹包括:根据深度信息,调整夹爪的运动轨迹,设置夹爪的机械臂各个关节的速度限制为cvm,加速度限制为cam,m=1,2,…,N,N为串联机械臂的关节个数;
式中:x=[x0,x1,…,xn-1]T,xi=△ti=ti+1-ti,i=0,1,…,n-1;为第m个关节的B样条速度曲线的第j个控制点,为第m个关节的加速度曲线的第j个控制点;△ti是存在下界,即TL=[△tl0,△tl1,…,△tl(n-l)]T的每个元素满足:
令:
4.一种基于视觉识别的生产线机器人轨迹补偿装置,所述装置包括存储器以及与所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行权利要求1所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010949867.7A CN112171664B (zh) | 2020-09-10 | 2020-09-10 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010949867.7A CN112171664B (zh) | 2020-09-10 | 2020-09-10 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112171664A CN112171664A (zh) | 2021-01-05 |
CN112171664B true CN112171664B (zh) | 2021-10-08 |
Family
ID=73920572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010949867.7A Active CN112171664B (zh) | 2020-09-10 | 2020-09-10 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112171664B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114505250A (zh) * | 2021-12-29 | 2022-05-17 | 阿里巴巴新加坡控股有限公司 | 货品的自动分拣装置、方法、设备及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101186038A (zh) * | 2007-12-07 | 2008-05-28 | 北京航空航天大学 | 一种机器人延伸手眼标定方法 |
CN107127773A (zh) * | 2017-04-05 | 2017-09-05 | 武汉科技大学 | 一种机器人抓取物品的方法 |
CN108247635A (zh) * | 2018-01-15 | 2018-07-06 | 北京化工大学 | 一种深度视觉的机器人抓取物体的方法 |
CN111168686A (zh) * | 2020-02-25 | 2020-05-19 | 深圳市商汤科技有限公司 | 物体的抓取方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8571745B2 (en) * | 2008-04-10 | 2013-10-29 | Robert Todd Pack | Advanced behavior engine |
-
2020
- 2020-09-10 CN CN202010949867.7A patent/CN112171664B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101186038A (zh) * | 2007-12-07 | 2008-05-28 | 北京航空航天大学 | 一种机器人延伸手眼标定方法 |
CN107127773A (zh) * | 2017-04-05 | 2017-09-05 | 武汉科技大学 | 一种机器人抓取物品的方法 |
CN108247635A (zh) * | 2018-01-15 | 2018-07-06 | 北京化工大学 | 一种深度视觉的机器人抓取物体的方法 |
CN111168686A (zh) * | 2020-02-25 | 2020-05-19 | 深圳市商汤科技有限公司 | 物体的抓取方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112171664A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110026987B (zh) | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 | |
CN108356823B (zh) | 具有学习控制功能的控制系统以及控制方法 | |
CN104842352B (zh) | 利用了视觉反馈的机器人系统 | |
CN111958604A (zh) | 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法 | |
CN108748149B (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
CN114912287B (zh) | 基于目标6d位姿估计的机器人自主抓取仿真系统及方法 | |
JP2019150911A (ja) | ロボット作業システム、及びロボット作業システムの制御方法 | |
JP6826069B2 (ja) | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 | |
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
JP2015071206A (ja) | 制御装置、ロボット、教示データ生成方法及びプログラム | |
CN113269723B (zh) | 三维视觉定位与机械手协同工作的零部件无序抓取系统 | |
CN114347008B (zh) | 基于工业机器人的无序抓取工件方法、装置及智能终端 | |
CN115213896A (zh) | 基于机械臂的物体抓取方法、系统、设备及存储介质 | |
CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
CN112633187B (zh) | 基于图像分析的机器人自动搬运方法、系统和存储介质 | |
JP2022187984A (ja) | モジュール化ニューラルネットワークを用いた把持学習 | |
CN110009689A (zh) | 一种用于协作机器人位姿估计的图像数据集快速构建方法 | |
JP2022187983A (ja) | 高次元のロボット作業を学習するためのネットワークモジュール化 | |
CN112171664B (zh) | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 | |
CN114131603B (zh) | 基于感知增强和场景迁移的深度强化学习机器人抓取方法 | |
CN117103277A (zh) | 一种基于多模态数据融合的机械手臂感知方法 | |
CN112338922B (zh) | 一种五轴机械臂抓取放置方法及相关装置 | |
CN116214531B (zh) | 一种工业机器人的路径规划方法及装置 | |
CN114187312A (zh) | 目标物的抓取方法、装置、系统、存储介质及设备 | |
CN115741666A (zh) | 机器人手眼标定方法、机器人及机器人作业方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |