CN113771027B - 一种基于深度学习的双臂协作抓取方法 - Google Patents
一种基于深度学习的双臂协作抓取方法 Download PDFInfo
- Publication number
- CN113771027B CN113771027B CN202110943699.5A CN202110943699A CN113771027B CN 113771027 B CN113771027 B CN 113771027B CN 202110943699 A CN202110943699 A CN 202110943699A CN 113771027 B CN113771027 B CN 113771027B
- Authority
- CN
- China
- Prior art keywords
- grabbing
- frame
- detection model
- loss
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 80
- 238000013138 pruning Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 34
- 230000004927 fusion Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 238000013461 design Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims 2
- 230000008859 change Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000011265 semifinished product Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000078 claw Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J18/00—Arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的双臂协作抓取方法,包括首先构建右臂抓取检测模型,通过数据集训练,来让模型达到识别未知物体的抓取位置的效果;通过在抓取检测模型的基础上加入通道剪枝训练,来得到一个轻量的左臂遮挡检测模型,大大加快检测速度;用相机采集操作画面,对图像进行尺寸上的变化和预处理,以便模型更好的操作;最后将检测到的信息按照一定逻辑通过ROS系统与机器人进行通信,以实现清除遮挡物、抓取物体的操作。本发明将深度学习与双臂协作的思想带入到非结构化的物体抓取中,提高了抓取的效率。同时由剪枝训练得到轻量级左臂遮挡检测模型,更进一步加快了操作的速度。
Description
技术领域
本发明属于机器人智能控制与计算机视觉领域,是一种基于深度学习的双臂协作抓取方法。
背景技术
随着科学技术和社会的发展,机器人的应用领域不断扩大,逐步进入医药生化、家庭清洁、医疗康复等服务业领域中。在这些新应用领域,传统机器人已经无法满足用户需求,开发能够与环境共融的智能协作机器人是当前国内外高校、研究机构的热门、前沿领域。在一背景下,研究一种方法来打破现有机器人在杂乱环境中自主拾取、放置物体的局限性具有重要意义。
传统机器人往往工作在结构化环境中,采用人工设计的待抓取物体的特征和三维模型来建立数据库,保存抓取经验等方法。这种方法在当前越来越多的非结构化环境中暴露出极大的局限性,因为非结构化环境中,如家庭、药房等,包含大量未知物体,且待抓取物体的尺寸存在变化以及物体间存在重叠遮挡等诸多因素。针对此问题,常用的方法是基于深度学习的方法,例如神经网络等,通过迭代训练得到深度学习模型。依靠深度学习模型的鲁棒性和强泛化能力,将抓取经验迁移到未知物体的抓取上。
但一方面,为了提高抓取框检测的精确度,网络结构也越来越复杂,随之带来的是预测时间的变长以及对硬件性能要求的提高;另一方面,单机械臂在有遮挡物时抓取效率变低。因此,如何在利用深度学习方法的同时,兼顾网络的效率和实时性,同时使用双臂协作的方法提高抓取效率就成为协作机器人急需解决的一个问题。
发明内容
针对目前存在的问题,本发明提供了一种基于深度学习的双臂协作抓取方法。该方法能够在减少网络模型参数量的同时,不影响抓取的速度和精度,以满足其实时抓取的要求,也保障其在非结构环境下的自主抓取的能力。
本发明为达上述目的,所采用的技术方案为,一种基于深度学习的双臂协作抓取方法,包括以下步骤:
S1:构建右机械臂的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型主干网络部分的设计:主干网络部分以Darknet-53网络为基础,以提取目标特征。
S12:抓取检测模型特征融合部分的设计:特征融合部分的设计采用类似FPN的上采样和融合的方式,融合了三种不同的特征尺度和在多个尺度的特征融合图上分别做独立的抓取位置检测,提升网络在较小抓取位置处的检测精度。
S13:抓取检测模型输出结果部分的设计:输出结果部分采用多尺度预测的思想,让S12中的三种不同特征尺度的特征图分别经历一系列卷积操作后,将通道数减少到固定值,最后在此基础上进行抓取框的预测。抓取框定义为:
R={x,y,w,h,confidence,c,α} (1)
其中,x与y分别表示抓取框中心点的横坐标与纵坐标,w与h分别表示抓取框的宽度及长度,confidence表示该抓取框的置信度。本发明将机械臂抓取旋转角度θ的预测转化为预测抓取框类别c和回归部分具体角α的组合问题,定义为:
θ=c×δ+α (2)
S14:抓取检测模型的损失函数设计:损失函数分为中心偏移损失(Lxy)、宽高损失(Lwh)、置信度损失(Lcon)、类别损失(Lclass)以及旋转角部分具体角度损失(Lα)。上述损失函数定义为:
其中,S2表示网格的数量,B表示每个网格产生的候选框数量。表示第i个网格的第j个候选框是否负责这个对象的预测,如果负责预测,则反之,则σ()表示sigmoid函数。S2、B、σ()和含义下同。λxy表示中心偏移损失的加权系数,与分别表示第i个网格的第j个候选框所预测的中心点横、纵坐标,与则表示相应的真实候选框中心点横、纵坐标。其损失函数采用BCE损失函数。
其中,λcon表示置信度损失的加权系数。由于图像中大部分内容是不包含待检测抓取框的,因此引入无对象加权系数λnoobj,来避免模型倾向于预测网格内无对象。表示第i个网格的第j个候选框所预测的置信度值,则表示相应的真实候选框的置信度值。
故,模型总损失定义为:
Ldetect=Lxy+Lwh+Lcon+Lc+Lα (8)
S2:构建左机械臂的遮挡检测模型,实现对移除遮挡物位姿的估计,具体包括:
S21:遮挡检测模型网络的设计:左机械臂的末端抓取结构是一个依靠虹吸效应的吸盘。也就是说,它在移除遮挡物的操作上不需要像右臂抓取那样进行精确的抓取框计算。在这个情况下,以检测精度的降低来换检测速度的提高是一个不错的策略。遮挡检测模型网络是在右机械臂的抓取检测模型网络的基础上,通过对通道进行剪枝,减少网络参数冗余得来。具体剪枝步骤如下:
S22:在S21中的模型网络中,除了输出结果部分外,其余每个卷积层后都有一个BN层。对这些卷积层进行带比例因子的归一化,具体定义如下:
S23:为了合理、有效地区分重要的通道和不重要的通道,本发明通过对S22中比例因子γ使用sign()函数来进行通道稀疏性训练,具体定义如下:
其中,ξ是惩罚因子。
S24:引入全局阈值η和安全阈值μ。全局阈值用来确定是否要修剪特征通道,以控制修剪比例;安全阈值防止卷积层通道的过度修剪,并保持网络连接的完整性。当S23中的比例因子γ小于η与μ二者最小值时,开始修剪通道。
S25:根据全局阈值和安全阈值为所有卷积层初始化一个剪枝遮罩。丢弃原网络结构中的maxpool层与upsample层。route层按顺序连接其接入层的剪枝遮罩,并将其接入层的遮罩作为route层的剪枝遮罩。保证所有与shortcut连接的图层都有相同的通道数。
S26:在S25的基础上,遮挡检测模型还需要在训练集上进行参数微调以及手动剪枝。
S27:迭代S22至S26,直至结果合理、有效。
S3:S1与S2中的目标检测模型在实时检测时,需要先对相机采集的输入图像进行尺寸上的预处理。最终目标检测模型预测得到待抓取物体、障碍物在像素坐标系下的抓取位姿。
S31:模型的抓取框筛选算法设计:抓取框的筛选算法能解决同一图像的多重抓取框问题,通过局部最大搜索,提取检测结果中置信度最高的抓取框。
S4:本发明采用ROS系统作为操作双机械臂的通信系统。
S41:调用左臂遮挡检测模型,识别有无遮挡物。若有,将遮挡物抓取框的位置和旋转角通过ROS话题‘shadow’发送到订阅该话题的左臂系统,以便左臂展开移除遮挡物的操作。若无,则直接进入S43。
S42:再次调用遮挡检测模型,确认无遮挡物。若有,则重复S41操作。
S43:调用右臂抓取检测模型,识别待抓取物体的抓取框。若有,将抓取框的位置和旋转角通过ROS话题‘box’发送到订阅该话题的右臂系统,以便右臂展开抓取操作。若无,则退出程序。
S44:重复S43操作至进程终止。
进一步,步骤S31所述的算法具体包括:
S311.按照置信度排列相应的抓取框;
S312.选取最大的作为初始保留框,并删除与其IOU大于设定阈值的框;
S313重复执行“2”中操作,直至遍历所有抓取框。
与现有技术相比,本发明的优点主要表现在:
1.两个机械臂使用不同的模型。右机械臂使用one-stage式目标检测模型,将预测抓取框变成一个回归问题,直接回归抓取框的中心点坐标、宽高值以及旋转角度。这使得模型在非结构环境下,检测精度不变,但检测速度大大提高,可实现实时检测。左机械臂在右臂抓取检测模型的基础上使用通道剪枝策略,在检测精度差不多的情况下,速度快了2倍。这意味这双臂协作抓取的总耗时大大减少。
2.使用双臂协作抓取来代替单臂抓取。本发明一方面充分利用了机器人资源,另一方面也为未来双臂同时完成移除遮挡物、抓取物体提供扩展思路。
附图说明
图1为本发明方法整体流程图。
图2为本发明方法中右臂抓取检测模型网络结构示意图。
图3为本发明方法中左臂遮挡检测模型网络结构生成过程图。
图4为本发明方法中待抓取物抓取框示意图。
具体实施方式
下面结合附图1-4对本发明做进一步描述。
本发明方法的流程图如图1所示,包括以下步骤:
S1:构建右机械臂的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型主干网络部分的设计:主干网络部分以Darknet-53网络为基础,以提取目标特征。
S12:抓取检测模型特征融合部分的设计:特征融合部分的设计采用类似FPN的上采样和融合的方式,融合了三种不同的特征尺度,在多个尺度的特征融合图上分别做独立的抓取位置检测,提升网络在较小抓取位置处的检测精度。即当输入图像尺寸为(w,h)时,三中不同的特征尺度分别为和
S13:抓取检测模型输出结果部分的设计:输出结果部分采用多尺度预测的思想,让S12中的三种不同特征尺度的特征图分别经历一系列卷积操作后,将通道数减少到固定值,最后在此基础上进行抓取框的预测。抓取框定义为:
R={x,y,w,h,confidence,c,α} (1)
其中,x与y分别表示抓取框中心点的横坐标与纵坐标,w与h分别表示抓取框的宽度及长度,confidence表示该抓取框的置信度。本发明将机械臂抓取旋转角度θ的预测转化为预测抓取框类别c和回归部分具体角α的组合问题,定义为:
θ=c×δ+α (2)
S14:抓取检测模型的损失函数设计:损失函数分为中心偏移损失(Lxy)、宽高损失(Lwh)、置信度损失(Lcon)、类别损失(Lclass)以及旋转角部分具体角度损失(Lα)。上述损失函数定义为:
其中,S2表示网格的数量,B表示每个网格产生的候选框数量。表示第i个网格的第j个候选框是否负责这个对象的预测,如果负责预测,则反之,则σ()表示sigmoid函数。S2、B、σ()和含义下同。λxy表示中心偏移损失的加权系数,与分别表示第i个网格的第j个候选框所预测的中心点横、纵坐标,与则表示相应的真实候选框中心点横、纵坐标。其损失函数采用BCE损失函数。
其中,λcon表示置信度损失的加权系数。由于图像中大部分内容是不包含待检测抓取框的,因此引入无对象加权系数λnoobj,来避免模型倾向于预测网格内无对象。表示第i个网格的第j个候选框所预测的置信度值,则表示相应的真实候选框的置信度值。
故,模型总损失定义为:
Ldetect=Lxy+Lwh+Lcon+Lc+Lα (8)
S2:构建左机械臂的遮挡检测模型,实现对移除遮挡物位姿的估计,具体包括:
S21:遮挡检测模型网络的设计:左机械臂的末端抓取结构是一个依靠虹吸效应的吸盘。也就是说,它在移除遮挡物的操作上不需要像右臂抓取那样进行精确的抓取框计算。在这个情况下,以检测精度的降低来换检测速度的提高是一个不错的策略。遮挡检测模型网络是在右机械臂的抓取检测模型网络的基础上,通过对通道进行剪枝,减少网络参数冗余得来。具体剪枝步骤如下:
S22:在S21中的模型网络中,除了输出结果部分外,其余每个卷积层后都有一个BN层。对这些卷积层进行带比例因子的归一化,具体定义如下:
S23:为了合理、有效地区分重要的通道和不重要的通道,本发明通过对S22中比例因子γ使用sign()函数来进行通道稀疏训练,具体定义如下:
其中,ξ是惩罚因子。
S24:引入全局阈值η和安全阈值μ。全局阈值用来确定是否要修剪特征通道,以控制修剪比例;安全阈值防止卷积层通道的过度修剪,并保持网络连接的完整性。当S23中的比例因子γ小于η与μ二者最小值时,开始修剪通道。
S25:根据全局阈值和安全阈值为所有卷积层初始化一个剪枝遮罩。丢弃原网络结构中的maxpool层与upsample层。route层按顺序连接其接入层的剪枝遮罩,并将其接入层的遮罩作为route层的剪枝遮罩。保证所有与shortcut连接的图层都有相同的通道数。
S26:在S25的基础上,遮挡检测模型还需要在训练集上进行参数微调以及手动剪枝。
S27:迭代S22至S26,直至结果合理、有效。
S3:S1与S2中的目标检测模型在实时检测时,需要先对相机采集的输入图像进行尺寸上的预处理。最终目标检测模型预测得到待抓取物体、障碍物在像素坐标系下的抓取位姿。
S31:模型的抓取框筛选算法设计:抓取框的筛选算法能解决同一图像的多重抓取框问题,通过局部最大搜索,提取检测结果中置信度最高的抓取框。
该算法具体步骤为:
1.按照置信度排列相应的抓取框;
2.选取最大的作为初始保留框,并删除与其IOU大于设定阈值的框;
3.重复执行“2”中操作,直至遍历所有抓取框。
S4:本发明采用ROS系统作为操作双机械臂的通信系统。
S41:调用左臂遮挡检测模型,识别有无遮挡物。若有,将遮挡物抓取框的位置和旋转角通过ROS话题‘shadow’发送到订阅该话题的左臂系统,以便左臂展开移除遮挡物的操作。若无,则直接进入S43。
S42:再次调用遮挡检测模型,确认无遮挡物。若有,则重复S41操作。
S43:调用右臂抓取检测模型,识别待抓取物体的抓取框。若有,将抓取框的位置和旋转角通过ROS话题‘box’发送到订阅该话题的右臂系统,以便右臂展开抓取操作。若无,则退出程序。
S44:重复S43操作至进程终止。
右臂抓取检测模型网络结构如图2所示。其中,CBL代表由一个卷积核,一个BN层和一个Relu激活函数组成的卷积块。
左臂遮挡检测模型网络结构生成过程如图3所示。首先,需要把右臂抓取检测模型网络拿来预训练,然后再每个BN层赋予比例因子之后进行稀疏训练。该训练结果会区分重要的和不重要的通道。本发明剪去不重要的通道(比例因子小的通道),得到一个半成品、待微调的新网络。之后根据经验在超参数上微调新网络,得到更进一步的半成品网络。最后对新的半成品网络进行评估,如果效果不行就继续迭代剪枝,直至效果合理、有效。此时,一个超轻量级遮挡检测模型网络就诞生了。
待抓取物抓取框如图4所示。两条较粗的边框线段代表二指夹爪落爪抓取的位置。
本说明书实例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (2)
1.一种基于深度学习的双臂协作抓取方法,包括如下步骤:
S1:构建右机械臂的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型主干网络部分的设计:主干网络部分以Darknet-53网络为基础,以提取目标特征;
S12:抓取检测模型特征融合部分的设计:特征融合部分的设计采用类似FPN的上采样和融合的方式,融合了三种不同的特征尺度和在多个尺度的特征融合图上分别做独立的抓取位置检测,提升网络在较小抓取位置处的检测精度;
S13:抓取检测模型输出结果部分的设计:输出结果部分采用多尺度预测的思想,让S12中的三种不同特征尺度的特征图分别经历一系列卷积操作后,将通道数减少到固定值,最后在此基础上进行抓取框的预测;抓取框定义为:
R={x,y,w,h,confidence,c,α} (1)
其中,x与y分别表示抓取框中心点的横坐标与纵坐标,w与h分别表示抓取框的宽度及长度,confidence表示该抓取框的置信度;将机械臂抓取旋转角度θ的预测转化为预测抓取框类别c和回归部分具体角α的组合问题,定义为:
θ=c×δ+α (2)
S14:抓取检测模型的损失函数设计:损失函数分为中心偏移损失Lxy、宽高损失Lwh、置信度损失Lcon、类别损失Lclass以及旋转角部分具体角度损失Lα;上述损失函数定义为:
其中,S2表示网格的数量,B表示每个网格产生的候选框数量;表示第i个网格的第j个候选框是否负责这个对象的预测,如果负责预测,则反之,则σ()表示sigmoid函数;S2、B、σ()和含义下同;λxy表示中心偏移损失的加权系数,与分别表示第i个网格的第j个候选框所预测的中心点横、纵坐标,与则表示相应的真实候选框中心点横、纵坐标;其损失函数采用BCE损失函数;
其中,λcon表示置信度损失的加权系数;由于图像中大部分内容是不包含待检测抓取框的,因此引入无对象加权系数λnoobj,来避免模型倾向于预测网格内无对象;表示第i个网格的第j个候选框所预测的置信度值,则表示相应的真实候选框的置信度值;
故,模型总损失定义为:
Ldetect=Lxy+Lwh+Lcon+Lc+Lα (8)
S2:构建左机械臂的遮挡检测模型,实现对移除遮挡物位姿的估计,具体包括:
S21:遮挡检测模型网络的设计:左机械臂的末端抓取结构是一个依靠虹吸效应的吸盘;也就是说,它在移除遮挡物的操作上不需要像右臂抓取那样进行精确的抓取框计算;在这个情况下,以检测精度的降低来换检测速度的提高是一个不错的策略;遮挡检测模型网络是在右机械臂的抓取检测模型网络的基础上,通过对通道进行剪枝,减少网络参数冗余得来;具体剪枝步骤如下:
S22:在S21中的模型网络中,除了输出结果部分外,其余每个卷积层后都有一个BN层;对这些卷积层进行带比例因子的归一化,具体定义如下:
S23:为了合理、有效地区分重要的通道和不重要的通道,通过对S22中比例因子γ使用sign()函数来进行通道稀疏性训练,具体定义如下:
其中,ξ是惩罚因子;
S24:引入全局阈值η和安全阈值μ;全局阈值用来确定是否要修剪特征通道,以控制修剪比例;安全阈值防止卷积层通道的过度修剪,并保持网络连接的完整性;当S23中的比例因子γ小于η与μ二者最小值时,开始修剪通道;
S25:根据全局阈值和安全阈值为所有卷积层初始化一个剪枝遮罩;丢弃原网络结构中的maxpool层与upsample层;route层按顺序连接其接入层的剪枝遮罩,并将其接入层的遮罩作为route层的剪枝遮罩;保证所有与shortcut连接的图层都有相同的通道数;
S26:在S25的基础上,遮挡检测模型还需要在训练集上进行参数微调以及手动剪枝;
S27:迭代S22至S26,直至结果合理、有效;
S3:S1与S2中的目标检测模型在实时检测时,需要先对相机采集的输入图像进行尺寸上的预处理;最终目标检测模型预测得到待抓取物体、障碍物在像素坐标系下的抓取位姿;
S31:模型的抓取框筛选算法设计:抓取框的筛选算法能解决同一图像的多重抓取框问题,通过局部最大搜索,提取检测结果中置信度最高的抓取框;
S4:采用ROS系统作为操作双机械臂的通信系统;
S41:调用左臂遮挡检测模型,识别有无遮挡物;若有,将遮挡物抓取框的位置和旋转角通过ROS话题‘shadow’发送到订阅该话题的左臂系统,以便左臂展开移除遮挡物的操作;若无,则直接进入S43;
S42:再次调用遮挡检测模型,确认无遮挡物;若有,则重复S41操作;
S43:调用右臂抓取检测模型,识别待抓取物体的抓取框;若有,将抓取框的位置和旋转角通过ROS话题‘box’发送到订阅该话题的右臂系统,以便右臂展开抓取操作;若无,则退出程序;
S44:重复S43操作至进程终止。
2.如权利要求1所述的一种基于深度学习的双臂协作抓取方法,其特征在于:步骤S31所述的算法具体包括:
S311.按照置信度排列相应的抓取框;
S312.选取最大的作为初始保留框,并删除与其IOU大于设定阈值的框;
S313重复执行步骤S312中操作,直至遍历所有抓取框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110943699.5A CN113771027B (zh) | 2021-08-17 | 2021-08-17 | 一种基于深度学习的双臂协作抓取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110943699.5A CN113771027B (zh) | 2021-08-17 | 2021-08-17 | 一种基于深度学习的双臂协作抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113771027A CN113771027A (zh) | 2021-12-10 |
CN113771027B true CN113771027B (zh) | 2023-03-31 |
Family
ID=78837989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110943699.5A Active CN113771027B (zh) | 2021-08-17 | 2021-08-17 | 一种基于深度学习的双臂协作抓取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113771027B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114523472B (zh) * | 2022-01-24 | 2023-05-23 | 湖南视比特机器人有限公司 | 一种工件协同抓取方法、系统及存储介质 |
CN116512254B (zh) * | 2023-04-11 | 2024-01-23 | 中国人民解放军军事科学院国防科技创新研究院 | 基于方向的机械臂智能控制方法及系统、设备、存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190050735A1 (en) * | 2017-08-11 | 2019-02-14 | Samsung Electronics Co., Ltd. | Methods and algorithms of reducing computation for deep neural networks via pruning |
CN110874631B (zh) * | 2020-01-20 | 2020-06-16 | 浙江大学 | 一种基于特征图稀疏化的卷积神经网络剪枝方法 |
CN111723782A (zh) * | 2020-07-28 | 2020-09-29 | 北京印刷学院 | 基于深度学习的视觉机器人抓取方法及系统 |
CN112464718B (zh) * | 2020-10-23 | 2024-02-20 | 西安电子科技大学 | 一种基于YOLO-Terse网络的目标检测方法及存储介质 |
CN112668663B (zh) * | 2021-01-05 | 2024-03-22 | 南京航空航天大学 | 一种基于YOLOv4的航拍小汽车检测方法 |
CN112949452B (zh) * | 2021-02-25 | 2022-05-31 | 山西大学 | 一种基于多任务共享网络的机器人弱光环境抓取检测方法 |
-
2021
- 2021-08-17 CN CN202110943699.5A patent/CN113771027B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113771027A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626128B (zh) | 一种基于改进YOLOv3的果园环境下行人检测方法 | |
CN111523486B (zh) | 一种基于改进CenterNet的机械臂抓取检测方法 | |
CN113771027B (zh) | 一种基于深度学习的双臂协作抓取方法 | |
CN110837778A (zh) | 一种基于骨架关节点序列的交警指挥手势识别方法 | |
CN108629288B (zh) | 一种手势识别模型训练方法、手势识别方法及系统 | |
CN105069413A (zh) | 一种基于深度卷积神经网络的人体姿势识别方法 | |
CN113378676A (zh) | 基于多特征融合的图像中人物交互检测方法 | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN113391607A (zh) | 一种基于深度学习的水电站闸门控制方法及系统 | |
CN114898470A (zh) | 基于改进YOLOv5的跌倒行为检测方法及系统 | |
CN112668543B (zh) | 一种手模型感知的孤立词手语识别方法 | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN111368770B (zh) | 基于骨骼点检测与跟踪的手势识别方法 | |
CN114211490B (zh) | 一种基于Transformer模型的机械臂抓手位姿预测方法 | |
CN111767826A (zh) | 一种定时定点场景异常检测方法 | |
Karkus et al. | Differentiable mapping networks: Learning structured map representations for sparse visual localization | |
CN118072196A (zh) | 一种基于YOLOv5改进的远距离岸滩障碍物目标识别方法及系统 | |
CN117475137A (zh) | 一种基于复合特征图的密集小目标检测方法 | |
CN115359411B (zh) | 一种基于改进DeepLab V3+网络的变电站环境理解方法 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
Zhang et al. | A novel mapping strategy based on neocortex model: Pre-liminary results by hierarchical temporal memory | |
CN115731517A (zh) | 一种基于Crowd-RetinaNet网络的拥挤人群检测方法 | |
CN114998731A (zh) | 智能终端导航场景感知识别的方法 | |
CN115034459A (zh) | 一种行人轨迹时间序列预测方法 | |
CN113111721B (zh) | 基于多无人机视角图像数据驱动的人体行为智能识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |