CN111844101B - 一种多指灵巧手分拣规划方法 - Google Patents
一种多指灵巧手分拣规划方法 Download PDFInfo
- Publication number
- CN111844101B CN111844101B CN202010762978.7A CN202010762978A CN111844101B CN 111844101 B CN111844101 B CN 111844101B CN 202010762978 A CN202010762978 A CN 202010762978A CN 111844101 B CN111844101 B CN 111844101B
- Authority
- CN
- China
- Prior art keywords
- target object
- grabbing
- target
- depth image
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0009—Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
Abstract
本发明公开了一种多指灵巧手分拣规划方法,包括:捕捉包含目标物体的彩色图像与深度图像;基于单图多框目标检测网络,从彩色图像中提取出若干包含单个目标物体的边界框,并基于边界框从深度图像中裁剪出相应的目标物体的深度图像;对于每个目标物体,若通过判断确定数据库中存在包含相同单个目标物体的深度图像,则提取数据库中相应的抓取点与抓取质量;否则,基于目标物体的深度图像计算抓取点与抓取质量;基于各目标物体对应的抓取质量,决策目标物体分拣次序,从而结合目标物体对应的抓取点驱动多指灵巧手抓取目标物体,并分拣至指定区域。该方法采用基于深度学习的规划策略,能在提升泛化性的同时,让多指灵巧手更有效地学习人类的行为。
Description
技术领域
本发明涉及机器人分拣规划领域,尤其涉及一种多指灵巧手分拣规划方法。
背景技术
在机器人的发展历史中,稳定且高效的抓取操作一直是机器人的基础功能之一,根据机器人所处的场景不同,可以将抓取操作进行封装,应用于各种较为复杂的日常任务之中,而分拣操作便是其中之一。因此,可以从人类对于分拣操作的潜意识中寻找某些固有规律,将其应用于机器人的分拣操作中。
多年以来,机器人的分拣操作已经在工业生产中有了较为成熟的应用,可以对固定种类的产品或零件实现固定模式的分拣操作,但是难以应用于生活场景中的未知物体,其特点是形状、大小并不固定。而因为工业生产中大多使用平行夹持器作为末端执行器,所以,大部分分拣规划方法都是针对平行夹持器进行优化,没有将多指灵巧手作为研究重点。因此,结合对多指灵巧手的分拣规划问题进行研究意义重大。
发明内容
本发明的目的是提供一种多指灵巧手分拣规划方法,采用基于深度学习的规划策略,能在提升泛化性的同时,让多指灵巧手更有效地学习人类的行为。
本发明的目的是通过以下技术方案实现的:
一种多指灵巧手分拣规划方法,包括:
捕捉包含目标物体的彩色图像与深度图像;
基于单图多框目标检测网络,从彩色图像中提取出若干包含单个目标物体的边界框,并基于提取出的边界框从深度图像中裁剪出相应的目标物体的深度图像;
对于每个目标物体,若通过判断确定数据库中存在包含相同单个目标物体的深度图像,则提取数据库中相应的抓取点与抓取质量;否则,基于目标物体的深度图像计算抓取点与抓取质量;基于各目标物体对应的抓取质量,决策目标物体分拣次序,从而结合目标物体对应的抓取点驱动多指灵巧手抓取目标物体,并分拣至指定区域。
由上述本发明提供的技术方案可以看出,将抓取规划方法应用于的包含单个目标物体的深度图像,不仅将针对多个目标物体的分拣任务拆分为多个针对单个目标物体的抓取任务,还可以避免多个目标物体之间可能存在堆叠、遮挡等相互干扰的情况;并且,通过以提取目标物体分布的方式,达到在未获知完整场景信息的情形下,对多指灵巧手的分拣操作进行规划的目标。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种多指灵巧手分拣规划方法的流程图;
图2为本发明实施例提供的单图多框目标检测网络的结构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种多指灵巧手分拣规划方法,如图1所示,其主要包括:
1、捕捉包含目标物体的彩色图像Irgb与深度图像Idepth。
本发明实施例中,同相机实时捕捉包含目标物体的彩色图像与深度图像,相机可以集成在机器人内,也可以分离设置,设置方式不影响方案的实现。
2、基于单图多框目标检测网络,从彩色图像中提取出若干包含单个目标物体的边界框,并基于提取出的边界框从深度图像中裁剪出相应的目标物体的深度图像。
如图2所示,为基于单图多框目标检测网络,其主要包括:特征提取器(Featureextractor)与回归计算部分(Regression)。
1)特征提取器。
本发明实施例中,所述特征提取器主要用于从彩色图像中提取若干特征图并输入至回归计算部分;此处的特征图是图像的全局特征,还没有进行目标物体的分割。
2)回归计算部分。
所述回归计算部分主要包括:交替设置的个卷积核大小和数量不同的卷积层与个池化核大小相同的池化层、以及针对每个特征图的探测卷积核(Detector),其中如图2所示,中间部分的虚线框示意性的给出了回归计算部分中交替设置卷积层与池化层的数目,Detector中的c表示图像中物体类别的数量。
所述回归计算部分,在特征图的每个像素采样不同的默认框,使用个探测卷积核作为回归工具,计算得到检测值,每个探测卷积核对应一个检测值,即某个类别的置信度或边界框转换值的某个分量;根据转换值将默认框转换为候选边界框,从而得到每个候选边界框的位置和尺寸,并将默认框的类别置信度作为相应候选边界框的类别置信度。
本发明实施例中,所述默认框为在特征图的每个像素上设置的多个尺寸或长宽比的矩形框,表示为:d={dcx,dcy,dw,dh};所述候选边界框为以默认框为基准的恰好包含单个目标物体的矩形框或者包含背景的边界框,表示为:b={bcx,bcy,bw,bh},其中,上标cx、cy表示x、y位置,上标w、h分别为矩形框的宽、高。
候选边界框相对于默认框的转换值为:l={lcx,lcy,lw,lh},可以表示为:
通过转换值可以将预设的一系列固定大小、长宽比的默认框转换为边界框。
由于候选边界框中存在包含目标物体的边界框、以及仅包含背景的边界框,因此,还需要对通过上述方式获得的候选边界框做进一步处理,即:由于彩色图像中只包含物体和背景两个类别,因此根据每个候选边界框的类别置信度中的最大值确定候选边界框中是否包含物体,从而剔除只包含背景的候选边界框,再利用阈值对候选边界框进行筛选,从而剔除类别置信度较低的候选边界框,只保留类别置信度最大值高于阈值的候选边界框;之后,使用非极大值抑制算法(Non-Maximun Suppression),剔除交集区域超过设定范围的候选边界框,只保留其中一个即可,剩余的候选边界框即为单图多框目标检测网络的预测结果;预测结果即为选出的各边界框的位置和尺寸。
另一方面,上述单图多框目标检测网络需要预先进行训练,训练过程与测试过程的工作过程相同,区别在于,测试过程只需要利用预测到的边界框位置与尺寸,训练过程还需要利用边界框的类别置信度,以构建损失函数。
训练过程的损失函数包含边界框误差和类别置信度误差,表示为:
其中,x为指示参数,表明默认框与真实边界框的对应关系(即每一默认框与具体某个真实框相对应);l为location,即上文的候选边界框相对于默认框的转换值,g为真实的边界框,C为目标物体的类别,N为数据量,Lloc为边界框误差,Lconf为类别置信度误差。
3、对于每个目标物体,若通过判断确定数据库中存在包含相同单个目标物体的深度图像,则提取数据库中相应的抓取点与抓取质量;否则,基于目标物体的深度图像计算抓取点与抓取质量;基于各目标物体对应的抓取质量,决策目标物体分拣次序,从而结合目标物体对应的抓取点驱动多指灵巧手抓取目标物体,并分拣至指定区域。
本步骤的优选实施方式如下:
1)考虑到上述步骤1~步骤3是一个迭代规划的过程,即会不断重复执行,直至不存在任何目标物体为止;因此,为了减少冗余计算,提高决策效率,会预先建立一个数据库所述数据库中包含多幅单个目标物体对应的深度图像,以及每一目标物体对应的预期抓取点与预期抓取质量,即“目标物体→预期抓取点+预期抓取质量”。
如果存在,则认为且目标物体的位置与上一时间步的位置类似,无需重新规划抓取点,从而节省计算资源,直接提取数据库中相应的抓取点与抓取质量(即预期抓取点+预期抓取质量)。
其中,可以采用下述方式,判断数据库中是否存在包含相同单个目标物体的深度图像:使用直方图比较法,对裁剪出的目标物体的深度图像与数据库中的深度图像进行计算,如果相似度大于设定值,那么两个深度图像中包含的目标物体相同,则认定数据库中存在包含相同单个目标物体的深度图像。
3)利用最小堆算法找出平均抓取质量最高的目标物体,再利用运动学反解算法反解计算机器人的关节值,从而驱动多指灵巧手抓取目标物体,之后,从数据库中删除已抓取的目标物体的相关数组,随后恢复机器人至初始状态(即,多指灵巧手恢复到原始位置)。通过抓取质量可以对目标物体的分拣次序进行决策,从而使用多指灵巧手完成当前步对于单个目标物体的抓取操作。
执行完上述步骤之后,再返回至前述的步骤1重新采集下一时刻的图像,再重新检测目标物体,因为目标物体可能由于本次抓取的碰撞接触而改变了位置,并且下一时刻的图像中包含未抓取的剩余目标物体。
本发明实施例中,所涉及的各项阈值、设定值、设定范围等所涉及的具体数值或者数值范围,可以由用户根据实际情况或者经验自行设定,本发明不做数值限定。
本发明实施例上述方案,主要获得如下有益效果:
1、本发明使用了相机捕捉包含多个目标物体的彩色图像和深度图像,从而有效解决了多个目标物体之间可能存在堆叠、遮挡等相互干扰的问题。
2、本发明使用了单图多框目标检测网络将彩色图像中多个目标物体的位置进行快速检测,并对当前可见的目标物体在深度图像中的前后景进行了分割,将抓取规划方法应用于分割后的包含单个目标物体的深度图像,从而将针对多个目标物体的分拣任务拆分为多个针对单个目标物体的抓取任务。
3、本发明使用了分拣次序决策算法对于多个目标物体的分拣次序进行决策,建立了“目标物体→预期抓取点+预期抓取质量”的数据库,从而提高了决策效率。
4、以检测目标物体分布的方式,达到在未获知完整场景信息的情形下,对多指灵巧手的分拣操作进行规划的目标。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (7)
1.一种多指灵巧手分拣规划方法,其特征在于,包括:
捕捉包含目标物体的彩色图像与深度图像;
基于单图多框目标检测网络,从彩色图像中提取出若干包含单个目标物体的边界框,并基于提取出的边界框从深度图像中裁剪出相应的目标物体的深度图像;
对于每个目标物体,若通过判断确定数据库中存在包含相同单个目标物体的深度图像,则提取数据库中相应的抓取点与抓取质量;否则,基于目标物体的深度图像计算抓取点与抓取质量;基于各目标物体对应的抓取质量,决策目标物体分拣次序,从而结合目标物体对应的抓取点驱动多指灵巧手抓取目标物体,并分拣至指定区域;
其中,所述单图多框目标检测网络包括:特征提取器与回归计算部分;
所述特征提取器从彩色图像中提取若干特征图并输入至回归计算部分;
所述回归计算部分,在特征图的每个像素采样不同的默认框,所述默认框为在特征图的每个像素上设置的多个尺寸或长宽比的矩形框;使用个探测卷积核作为回归工具,计算得到检测值,每个探测卷积核对应一个检测值,即某个类别的置信度或边界框转换值的某个分量;根据转换值将默认框转换为候选边界框,从而得到每个候选边界框的位置和尺寸,并将默认框的类别置信度作为相应候选边界框的类别置信度,所述候选边界框为以默认框为基准的恰好包含单个目标物体的矩形框或者包含背景的边界框;根据每个候选边界框的类别置信度中的最大值确定候选边界框中是否包含物体,从而剔除只包含背景的候选边界框,再利用阈值对候选边界框进行筛选,保留类别置信度最大值高于阈值的候选边界框;之后,使用非极大值抑制算法,剔除交集区域超过设定范围的边界框,只保留其中一个即可,剩余的候选边界框即为单图多框目标检测网络的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010762978.7A CN111844101B (zh) | 2020-07-31 | 2020-07-31 | 一种多指灵巧手分拣规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010762978.7A CN111844101B (zh) | 2020-07-31 | 2020-07-31 | 一种多指灵巧手分拣规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111844101A CN111844101A (zh) | 2020-10-30 |
CN111844101B true CN111844101B (zh) | 2022-09-06 |
Family
ID=72954228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010762978.7A Active CN111844101B (zh) | 2020-07-31 | 2020-07-31 | 一种多指灵巧手分拣规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111844101B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220167558A1 (en) * | 2020-11-30 | 2022-06-02 | International Business Machines Corporation | Locating picking points of anomalies |
CN112934758B (zh) * | 2020-12-14 | 2022-10-14 | 中科院计算所西部高等技术研究院 | 基于图像识别的煤炭分拣拨手控制方法 |
US11717963B2 (en) * | 2021-02-18 | 2023-08-08 | Sanctuary Cognitive Systems Corporation | Systems, devices, and methods for grasping by multi-purpose robots |
US11854255B2 (en) * | 2021-07-27 | 2023-12-26 | Ubkang (Qingdao) Technology Co., Ltd. | Human-object scene recognition method, device and computer-readable storage medium |
CN116416444B (zh) * | 2021-12-29 | 2024-04-16 | 广东美的白色家电技术创新中心有限公司 | 物体抓取点估计、模型训练及数据生成方法、装置及系统 |
CN114367470B (zh) * | 2022-03-22 | 2022-06-21 | 南京南戈特机电科技有限公司 | 基于坐标机器人的自动分拣控制方法及系统 |
CN114820802A (zh) * | 2022-07-01 | 2022-07-29 | 深圳大学 | 高自由度灵巧手抓取规划方法、装置和计算机设备 |
CN116330319B (zh) * | 2023-05-26 | 2023-07-21 | 泓浒(苏州)半导体科技有限公司 | 一种搬运机械手状态监测系统及监测方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9670021B2 (en) * | 2014-08-28 | 2017-06-06 | The Procter & Gamble Company | Mandrel |
CN110139552B (zh) * | 2016-11-08 | 2023-08-15 | 道格图斯科技有限公司 | 机器人水果采摘系统 |
CN107824475A (zh) * | 2017-10-20 | 2018-03-23 | 苏州茁实智能科技有限公司 | 一种煤与矸石分拣方法及装置 |
CN108126914B (zh) * | 2017-11-24 | 2020-01-21 | 上海发那科机器人有限公司 | 一种基于深度学习的料框内散乱多物体机器人分拣方法 |
CN108638054B (zh) * | 2018-04-08 | 2021-05-04 | 河南科技学院 | 一种智能排爆机器人五指灵巧手控制方法 |
CN108764228A (zh) * | 2018-05-28 | 2018-11-06 | 嘉兴善索智能科技有限公司 | 一种图像中文字目标检测方法 |
CN110509273B (zh) * | 2019-08-16 | 2022-05-06 | 天津职业技术师范大学(中国职业培训指导教师进修中心) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 |
CN110743818A (zh) * | 2019-11-29 | 2020-02-04 | 苏州嘉诺环境工程有限公司 | 基于视觉及深度学习的垃圾分选系统、垃圾分选方法 |
-
2020
- 2020-07-31 CN CN202010762978.7A patent/CN111844101B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111844101A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111844101B (zh) | 一种多指灵巧手分拣规划方法 | |
CN110503112B (zh) | 一种增强特征学习的小目标检测及识别方法 | |
CN110533084B (zh) | 一种基于自注意力机制的多尺度目标检测方法 | |
CN109190752A (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN107833213B (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
US8385649B2 (en) | Information processing apparatus and method for detecting object in image data | |
CN112884033B (zh) | 一种基于卷积神经网络的生活垃圾分类检测方法 | |
CN111753682A (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN114781514A (zh) | 一种融合注意力机制的漂浮物目标检测方法及系统 | |
CN111104855B (zh) | 一种基于时序行为检测的工作流识别方法 | |
CN114898200A (zh) | 一种基于轻量化YOLOV4-tiny的传送带工件图像目标检测方法及系统 | |
CN115147745A (zh) | 一种基于城市无人机图像的小目标检测方法 | |
CN111597875A (zh) | 一种交通标志识别方法、装置、设备及存储介质 | |
CN112288809B (zh) | 一种用于多物体复杂场景的机器人抓取检测方法 | |
CN113469617A (zh) | 快递爆仓识别方法、装置、设备及存储介质 | |
Liang et al. | Apple recognition based on convolutional neural network framework | |
CN113524172B (zh) | 机器人及其物品抓取方法、计算机可读存储介质 | |
KR102295619B1 (ko) | 소나영상에서 사전형상 판별을 통한 표적식별 고속화 방법 | |
CN113033427A (zh) | 一种基于dl的车底异物自动识别方法 | |
Zailan et al. | YOLO-based Network Fusion for Riverine Floating Debris Monitoring System | |
Zhang et al. | Robotic grasp detection using effective graspable feature selection and precise classification | |
Chen et al. | Research on an efficient single-stage multi-object detection algorithm | |
MAHURKAR et al. | Novel Outline Tracing Techniques for Leaf Species Identification from Shrouded Leaves | |
CN108268836A (zh) | 自动指纹分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |