CN112192577A - 一种应用于机器人抓取场景的一拍多抓方法 - Google Patents

一种应用于机器人抓取场景的一拍多抓方法 Download PDF

Info

Publication number
CN112192577A
CN112192577A CN202011395469.1A CN202011395469A CN112192577A CN 112192577 A CN112192577 A CN 112192577A CN 202011395469 A CN202011395469 A CN 202011395469A CN 112192577 A CN112192577 A CN 112192577A
Authority
CN
China
Prior art keywords
workpiece
sequence
workpieces
robot
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011395469.1A
Other languages
English (en)
Inventor
候金良
陈仕晰
陈新
盛国强
王雪峰
魏勤龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Longshen Robot Co Ltd
Original Assignee
Foshan Longshen Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Longshen Robot Co Ltd filed Critical Foshan Longshen Robot Co Ltd
Priority to CN202011395469.1A priority Critical patent/CN112192577A/zh
Publication of CN112192577A publication Critical patent/CN112192577A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种应用于机器人抓取场景的一拍多抓方法,包括以下步骤:S1:获取点云数据;S2:根据点云数据对工件进行三维识别定位,形成初始工件序列;S3:将工件重新排序,得到有序工件序列;S4:按顺序检测工件的干涉情况,并将与其他工件发生干涉的工件从有序工件序列中删除,得到无干涉工件序列;S5:对无干涉工件序列中的各个工件进行碰撞检测,并在无干涉工件序列中删除会发生碰撞的工件,得到可抓取工件序列;S6:机器人根据可抓取工件序列对工件进行逐一抓取,从而实现一拍多抓。本发明提供一种应用于机器人抓取场景的一拍多抓方法,解决了目前机器人每次抓取前都需要进行一次视觉识别定位,导致抓取效率低下的问题。

Description

一种应用于机器人抓取场景的一拍多抓方法
技术领域
本发明涉及机器人智能规划技术领域,更具体的,涉及一种应用于机器人抓取场景的一拍多抓方法。
背景技术
随着工业机器人应用场景的复杂化,需要机器人完成的任务越来越具有挑战性。在工件的无序抓取场景中,机器人需要完成抓取料框中无序摆放、任意堆叠的工件的任务,这对机器视觉和机器人轨迹规划提出了新的挑战。
目前机器人在无序抓取场景中对工件的识别定位基本都采用3D视觉或者双目视觉完成,但是一次视觉识别定位的时间较长,机器人每次抓取前都需要进行一次视觉识别定位,导致抓取效率低下,不能满足工业现场的生产节拍。
现有技术中,如2020年06月05日公开的中国专利,基于3D视觉的智能机器人抓取方法,公开号为CN111243017A,通过基于卷积神经网络的抓取规划模型实现在非结构环境下完成3D物体识别定位、自主无碰撞路径规划等工作,但抓取效率不够高。
发明内容
本发明为克服目前机器人每次抓取前都需要进行一次视觉识别定位,导致抓取效率低下的技术缺陷,提供一种应用于机器人抓取场景的一拍多抓方法。
为解决上述技术问题,本发明的技术方案如下:
一种应用于机器人抓取场景的一拍多抓方法,包括以下步骤:
S1:获取料框区域的点云数据;
S2:根据点云数据对料框区域的工件进行三维识别定位,形成初始工件序列;
S3:将初始工件序列中的全部工件重新排序,得到有序工件序列;
S4:按顺序检测有序工件序列中各个工件与其他工件的干涉情况,并将与其他工件发生干涉的工件从有序工件序列中删除,得到无干涉工件序列;
S5:对无干涉工件序列中的各个工件进行碰撞检测,并在无干涉工件序列中删除会发生碰撞的工件,得到可抓取工件序列;
S6:机器人根据可抓取工件序列对工件进行逐一抓取,从而实现一拍多抓。
上述方案中,通过点云数据对工件进行三维识别定位,从而获取初始工件序列,并对初始工件序列依次进行排序、干涉检测和碰撞检测,从而得到可抓取工件序列,最后使机器人按照可抓取工件序列对工件进行逐一抓取,实现了一拍多抓,即相机一次拍摄机器人多次抓取,提高了机器人的抓取效率。
优选的,步骤S1具体为:
S1.1:通过机器人的3D相机获取拍摄区域的RGB图像和点云数据;其中,拍摄区域包括料框区域;
S1.2:获取料框在拍摄区域的RGB图像中的坐标;
S1.3:将料框在拍摄区域的RGB图像中的坐标映射到拍摄区域的点云数据中,并在拍摄区域的点云数据中利用感兴趣区域提取法剔除料框区域以外的点云数据,保留料框区域的点云数据。
优选的,在步骤S1中,还包括以下步骤:获取单个工件的点云数据,建立工件的三维表面模型。
优选的,步骤S2具体为:在料框区域的点云数据中,以工件的三维表面模型为模板,采用ICP算法对料框区域的工件进行点云匹配和定位,从而得到各个工件的位姿,形成初始工件序列
Figure 502510DEST_PATH_IMAGE001
;其中,
Figure 302845DEST_PATH_IMAGE002
为第n个工件的位姿。
优选的,步骤S3具体为:按照
Figure 39857DEST_PATH_IMAGE003
从大到小的顺序对初始工件序列M的n个工件进行重新排序,得到有序工件序列;其中,
Figure 359980DEST_PATH_IMAGE003
为第n个工件的位姿
Figure 320982DEST_PATH_IMAGE002
中的Z方向平移量。
优选的,在步骤S4中,检测干涉的步骤为:在有序工件序列中选定工件i,计算工件i与有序工件序列中的其他工件的距离;
若有序工件序列中存在工件j与工件i之间的距离小于设定的距离阈值,则认为工件i与工件j发生干涉,删除工件i;否则,保留工件i;其中,i=1,2,…,n;j=1,2,…,n;且i不等于j。
优选的,设定的距离阈值为工件长度的2倍。
优选的,在步骤S4中,第i个工件与第j个工件之间的距离
Figure 562608DEST_PATH_IMAGE004
的计算公式为:
Figure 385201DEST_PATH_IMAGE005
其中,
Figure 28672DEST_PATH_IMAGE006
分别为第i个工件的位姿中的X、Y、Z方向平移量;
Figure 894997DEST_PATH_IMAGE007
分别为第j个工件的位姿中的X、Y、Z方向平移量。
优选的,还包括设置工件的抓取点:抓取点设置在工件的对称中心处。
优选的,在步骤S5中,通过模拟机器人的机械臂抓取无干涉工件序列中的各个工件时的位姿进行碰撞检测,从而判断出机械臂与料框是否会发生碰撞。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种应用于机器人抓取场景的一拍多抓方法,通过点云数据对工件进行三维识别定位,从而获取初始工件序列,并对初始工件序列依次进行排序、干涉检测和碰撞检测,从而得到可抓取工件序列,最后使机器人按照可抓取工件序列对工件进行逐一抓取,实现了一拍多抓,即相机一次拍摄机器人多次抓取,提高了机器人的抓取效率。
附图说明
图1为本发明的技术方案实施步骤流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种应用于机器人抓取场景的一拍多抓方法,包括以下步骤:
S1:获取料框区域的点云数据;
S2:根据点云数据对料框区域的工件进行三维识别定位,形成初始工件序列;
S3:将初始工件序列中的全部工件重新排序,得到有序工件序列;
S4:按顺序检测有序工件序列中各个工件与其他工件的干涉情况,并将与其他工件发生干涉的工件从有序工件序列中删除,得到无干涉工件序列;
S5:对无干涉工件序列中的各个工件进行碰撞检测,并在无干涉工件序列中删除会发生碰撞的工件,得到可抓取工件序列;
S6:机器人根据可抓取工件序列对工件进行逐一抓取,从而实现一拍多抓。
在具体实施过程中,通过点云数据对工件进行三维识别定位,从而获取初始工件序列,并对初始工件序列依次进行排序、干涉检测和碰撞检测,从而得到可抓取工件序列,最后使机器人按照可抓取工件序列对工件进行逐一抓取,实现了一拍多抓,即相机一次拍摄机器人多次抓取,提高了机器人的抓取效率。当机器人将可抓取工件序列中的工件抓取完毕后,重新对工件进行三维识别定位,开始下一轮的一拍多抓,直至将料框中的所有工件抓取完成。
更具体的,步骤S1具体为:
S1.1:通过机器人的3D相机获取拍摄区域的RGB图像和点云数据;其中,拍摄区域包括料框区域;
S1.2:获取料框在拍摄区域的RGB图像中的坐标;
S1.3:将料框在拍摄区域的RGB图像中的坐标映射到拍摄区域的点云数据中,并在拍摄区域的点云数据中利用感兴趣区域提取法剔除料框区域以外的点云数据,保留料框区域的点云数据。
在具体实施过程中,由于直接由3D相机获取的点云数据存在较多噪点,而且将整个拍摄区域的点云数据带入到后续的点云处理中会消耗运算资源、降低运算效率,因此需要通过感兴趣区域提取法剔除料框区域以外的点云数据,只保留料框区域的点云数据,这样在后续的点云处理中可大大减少运算资源的消耗,并且极大地提高运算效率。
更具体的,在步骤S1中,还包括以下步骤:获取单个工件的点云数据,建立工件的三维表面模型。
在具体实施过程中,只将单个工件放置在3D相机的下方,利用3D相机获取整个拍摄区域的RGB图像和点云数据;然后在RGB图像中利用感兴趣区域分割法手动去除工件以外的点云数据,因此得到只包含单个工件的点云数据,从而建立工件的三维表面模型。
更具体的,步骤S2具体为:在料框区域的点云数据中,以工件的三维表面模型为模板,采用ICP(Iterative Closest Point)算法对料框区域的工件进行点云匹配和定位,从而得到各个工件的位姿,形成初始工件序列
Figure 623919DEST_PATH_IMAGE001
;其中,
Figure 499471DEST_PATH_IMAGE002
为第n个工件的位姿。
在具体实施过程中,工件的位姿包括工件的位置和姿态,其中,位置即平移量,姿态即旋转量。
更具体的,步骤S3具体为:按照
Figure 997448DEST_PATH_IMAGE003
从大到小的顺序对初始工件序列M的n个工件进行重新排序,得到有序工件序列;其中,
Figure 549521DEST_PATH_IMAGE003
为第n个工件的位姿
Figure 296897DEST_PATH_IMAGE002
中的Z方向平移量。
在具体实施过程中,由于工件在料框中的位置是随机的,为避免机器人的机械臂在抓取工件过程中碰撞到其它工件,根据工件在料框中的高度对工件进行排序,令机械臂先抓取在料框中的高度比较高的工件。
更具体的,在步骤S4中,检测干涉的步骤为:在有序工件序列中选定工件i,计算工件i与有序工件序列中的其他工件的距离;
若有序工件序列中存在工件j与工件i之间的距离小于设定的距离阈值,则认为工件i与工件j发生干涉,删除工件i;否则,保留工件i;其中,i=1,2,…,n;j=1,2,…,n;且i不等于j。
在具体实施过程中,按照上述步骤对有序工件序列中的每个工件都进行一遍干涉检测,并删除会与其他工件发生干涉的工件,从而得到无干涉工件序列。
更具体的,设定的距离阈值为工件长度的2倍。
更具体的,在步骤S4中,第i个工件与第j个工件之间的距离
Figure 179403DEST_PATH_IMAGE004
的计算公式为:
Figure 328624DEST_PATH_IMAGE005
其中,
Figure 271173DEST_PATH_IMAGE006
分别为第i个工件的位姿中的X、Y、Z方向平移量;
Figure 990998DEST_PATH_IMAGE007
分别为第j个工件的位姿中的X、Y、Z方向平移量。
在具体实施过程中,工件i只计算与除工件i以外的其他工件的距离。
更具体的,还包括设置工件的抓取点:抓取点设置在工件的对称中心处。
在具体实施过程中,设置工件的抓取点即设置机器人的抓取位姿,抓取位姿包括抓取位置和抓取姿态;将抓取点设置在工件的对称中心处更有利于机械臂的抓取。
更具体的,在步骤S5中,通过模拟机器人的机械臂抓取无干涉工件序列中的各个工件时的位姿进行碰撞检测,从而判断出机械臂与料框是否会发生碰撞。
在具体实施过程中,利用编程或软件模拟机器人的机械臂抓取无干涉工件序列中的各个工件时的位姿进行碰撞检测。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种应用于机器人抓取场景的一拍多抓方法,其特征在于,包括以下步骤:
S1:获取料框区域的点云数据;
S2:根据点云数据对料框区域的工件进行三维识别定位,形成初始工件序列;
S3:将初始工件序列中的全部工件重新排序,得到有序工件序列;
S4:按顺序检测有序工件序列中各个工件与其他工件的干涉情况,并将与其他工件发生干涉的工件从有序工件序列中删除,得到无干涉工件序列;
S5:对无干涉工件序列中的各个工件进行碰撞检测,并在无干涉工件序列中删除会发生碰撞的工件,得到可抓取工件序列;
S6:机器人根据可抓取工件序列对工件进行逐一抓取,从而实现一拍多抓。
2.根据权利要求1所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,步骤S1具体为:
S1.1:通过机器人的3D相机获取拍摄区域的RGB图像和点云数据;其中,拍摄区域包括料框区域;
S1.2:获取料框在拍摄区域的RGB图像中的坐标;
S1.3:将料框在拍摄区域的RGB图像中的坐标映射到拍摄区域的点云数据中,并在拍摄区域的点云数据中利用感兴趣区域提取法剔除料框区域以外的点云数据,保留料框区域的点云数据。
3.根据权利要求1所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,在步骤S1中,还包括以下步骤:获取单个工件的点云数据,建立工件的三维表面模型。
4.根据权利要求3所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,步骤S2具体为:在料框区域的点云数据中,以工件的三维表面模型为模板,采用ICP算法对料框区域的工件进行点云匹配和定位,从而得到各个工件的位姿,形成初始工件序列
Figure 51571DEST_PATH_IMAGE001
;其中,
Figure 968711DEST_PATH_IMAGE002
为第n个工件的位姿。
5.根据权利要求4所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,步骤S3具体为:按照
Figure 545186DEST_PATH_IMAGE003
从大到小的顺序对初始工件序列M的n个工件进行重新排序,得到有序工件序列;其中,
Figure 940396DEST_PATH_IMAGE003
为第n个工件的位姿
Figure 285926DEST_PATH_IMAGE002
中的Z方向平移量。
6.根据权利要求1所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,在步骤S4中,检测干涉的步骤为:在有序工件序列中选定工件i,计算工件i与有序工件序列中的其他工件的距离;
若有序工件序列中存在工件j与工件i之间的距离小于设定的距离阈值,则认为工件i与工件j发生干涉,删除工件i;否则,保留工件i;其中,i=1,2,…,n;j=1,2,…,n;且i不等于j。
7.根据权利要求6所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,设定的距离阈值为工件长度的2倍。
8.根据权利要求6所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,在步骤S4中,第i个工件与第j个工件之间的距离
Figure 108389DEST_PATH_IMAGE004
的计算公式为:
Figure 922892DEST_PATH_IMAGE005
其中,
Figure 652951DEST_PATH_IMAGE006
分别为第i个工件的位姿中的X、Y、Z方向平移量;
Figure 321829DEST_PATH_IMAGE007
分别为第j个工件的位姿中的X、Y、Z方向平移量。
9.根据权利要求3所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,还包括设置工件的抓取点:抓取点设置在工件的对称中心处。
10.根据权利要求9所述的一种应用于机器人抓取场景的一拍多抓方法,其特征在于,在步骤S5中,通过模拟机器人的机械臂抓取无干涉工件序列中的各个工件时的位姿进行碰撞检测,从而判断出机械臂与料框是否会发生碰撞。
CN202011395469.1A 2020-12-03 2020-12-03 一种应用于机器人抓取场景的一拍多抓方法 Pending CN112192577A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011395469.1A CN112192577A (zh) 2020-12-03 2020-12-03 一种应用于机器人抓取场景的一拍多抓方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011395469.1A CN112192577A (zh) 2020-12-03 2020-12-03 一种应用于机器人抓取场景的一拍多抓方法

Publications (1)

Publication Number Publication Date
CN112192577A true CN112192577A (zh) 2021-01-08

Family

ID=74033746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011395469.1A Pending CN112192577A (zh) 2020-12-03 2020-12-03 一种应用于机器人抓取场景的一拍多抓方法

Country Status (1)

Country Link
CN (1) CN112192577A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112936257A (zh) * 2021-01-22 2021-06-11 熵智科技(深圳)有限公司 一种工件抓取方法、装置、计算机设备及存储介质
CN113246130A (zh) * 2021-05-26 2021-08-13 中国科学院宁波材料技术与工程研究所 一种工件抓取和拨动干预方法及系统
CN114310892A (zh) * 2021-12-31 2022-04-12 梅卡曼德(北京)机器人科技有限公司 基于点云数据碰撞检测的物体抓取方法、装置和设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106364903A (zh) * 2016-08-18 2017-02-01 上海交通大学 单目立体视觉堆叠工件分拣方法
CN106934833A (zh) * 2017-02-06 2017-07-07 江苏华航威泰机器人科技有限公司 一种散乱堆放物料拾取装置和方法
CN110420867A (zh) * 2019-07-26 2019-11-08 华南理工大学 一种使用平面检测的自动分拣的方法
EP3201112B1 (en) * 2014-10-03 2020-07-22 Wynright Corporation Perception-based robotic manipulation system and method for automated truck unloader that unloads/unpacks product from trailers and containers
CN111508066A (zh) * 2020-04-16 2020-08-07 北京迁移科技有限公司 一种基于3d视觉的无序堆叠工件抓取系统及交互方法
WO2020195416A1 (en) * 2019-03-27 2020-10-01 Mitsubishi Electric Corporation Detection, tracking and 3d modeling of objects with sparse rgb-d slam and interactive perception
CN111791239A (zh) * 2020-08-19 2020-10-20 苏州国岭技研智能科技有限公司 一种结合三维视觉识别可实现精确抓取的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3201112B1 (en) * 2014-10-03 2020-07-22 Wynright Corporation Perception-based robotic manipulation system and method for automated truck unloader that unloads/unpacks product from trailers and containers
CN106364903A (zh) * 2016-08-18 2017-02-01 上海交通大学 单目立体视觉堆叠工件分拣方法
CN106934833A (zh) * 2017-02-06 2017-07-07 江苏华航威泰机器人科技有限公司 一种散乱堆放物料拾取装置和方法
WO2020195416A1 (en) * 2019-03-27 2020-10-01 Mitsubishi Electric Corporation Detection, tracking and 3d modeling of objects with sparse rgb-d slam and interactive perception
CN110420867A (zh) * 2019-07-26 2019-11-08 华南理工大学 一种使用平面检测的自动分拣的方法
CN111508066A (zh) * 2020-04-16 2020-08-07 北京迁移科技有限公司 一种基于3d视觉的无序堆叠工件抓取系统及交互方法
CN111791239A (zh) * 2020-08-19 2020-10-20 苏州国岭技研智能科技有限公司 一种结合三维视觉识别可实现精确抓取的方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112936257A (zh) * 2021-01-22 2021-06-11 熵智科技(深圳)有限公司 一种工件抓取方法、装置、计算机设备及存储介质
CN113246130A (zh) * 2021-05-26 2021-08-13 中国科学院宁波材料技术与工程研究所 一种工件抓取和拨动干预方法及系统
CN113246130B (zh) * 2021-05-26 2022-03-22 中国科学院宁波材料技术与工程研究所 一种工件抓取和拨动干预方法及系统
CN114310892A (zh) * 2021-12-31 2022-04-12 梅卡曼德(北京)机器人科技有限公司 基于点云数据碰撞检测的物体抓取方法、装置和设备
CN114310892B (zh) * 2021-12-31 2024-05-03 梅卡曼德(北京)机器人科技有限公司 基于点云数据碰撞检测的物体抓取方法、装置和设备

Similar Documents

Publication Publication Date Title
CN112192577A (zh) 一种应用于机器人抓取场景的一拍多抓方法
CN110125930B (zh) 一种基于机器视觉和深度学习的机械臂抓取控制方法
CN112109086B (zh) 面向工业堆叠零件的抓取方法、终端设备及可读存储介质
CN111347411B (zh) 基于深度学习的双臂协作机器人三维视觉识别抓取方法
US11701777B2 (en) Adaptive grasp planning for bin picking
CN112464410B (zh) 一种工件抓取顺序的确定方法、装置、计算机设备及介质
CN112847375B (zh) 一种工件抓取方法、装置、计算机设备及存储介质
CN110428464B (zh) 基于深度学习的多类别乱序工件机器人抓取位姿估计方法
CN111462154A (zh) 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人
CN112828892B (zh) 一种工件抓取方法、装置、计算机设备及存储介质
CN114952809A (zh) 工件识别和位姿检测方法、系统及机械臂的抓取控制方法
CN113538459B (zh) 一种基于落点区域检测的多模式抓取避障检测优化方法
CN113858188A (zh) 工业机器人的抓取方法和设备、计算机存储介质以及工业机器人
CN112775959A (zh) 机械手的抓取位姿确定方法及系统、存储介质
CN112936257A (zh) 一种工件抓取方法、装置、计算机设备及存储介质
CN113420746A (zh) 机器人视觉分拣方法、装置、电子设备和存储介质
CN114029243A (zh) 一种用于分拣机器手的软物抓取识别方法
CN114310892B (zh) 基于点云数据碰撞检测的物体抓取方法、装置和设备
Wong et al. Generic development of bin pick-and-place system based on robot operating system
CN112338922B (zh) 一种五轴机械臂抓取放置方法及相关装置
CN115384971A (zh) 透明对象料箱拾取
JP2022187983A (ja) 高次元のロボット作業を学習するためのネットワークモジュール化
Cao et al. Two-stage grasping: A new bin picking framework for small objects
Dunn et al. Automatic discovery of robotic grasp configurations
JP2022045905A (ja) 混合サイズデパレタイジング

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210108

RJ01 Rejection of invention patent application after publication