CN110378325A - 一种机器人抓取过程中的目标位姿识别方法 - Google Patents

一种机器人抓取过程中的目标位姿识别方法 Download PDF

Info

Publication number
CN110378325A
CN110378325A CN201910534353.2A CN201910534353A CN110378325A CN 110378325 A CN110378325 A CN 110378325A CN 201910534353 A CN201910534353 A CN 201910534353A CN 110378325 A CN110378325 A CN 110378325A
Authority
CN
China
Prior art keywords
target
parameter
crawl
neural network
crawled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910534353.2A
Other languages
English (en)
Other versions
CN110378325B (zh
Inventor
黄攀峰
韩冬
马志强
刘正雄
张帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Northwest University of Technology
Original Assignee
Northwest University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University of Technology filed Critical Northwest University of Technology
Priority to CN201910534353.2A priority Critical patent/CN110378325B/zh
Publication of CN110378325A publication Critical patent/CN110378325A/zh
Application granted granted Critical
Publication of CN110378325B publication Critical patent/CN110378325B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明涉及一种机器人抓取过程中的目标位姿识别方法,对待识别目标提出特征需求,并将需求参数化;通过所设计的神经网络,实现图像的特征提取、边界框生成、边界框修正等功能,完成在图像中检测目标并识别步骤一所提出的目标特征参数。通过对训练数据的准备、神经网络参数的合理选取以及大量图像数据集的训练,实现损失函数收敛。在损失函数收敛后,利用机器人的视觉系统,实现对目标的位姿识别与操作任务。该方法用于智能机器人操作任务中,快速准确的识别目标,并在获得识别信息后,实现对目标的抓取、转移、搬运等操作,本发明具有良好的识别速度快,准确性高、鲁棒性好等优点。

Description

一种机器人抓取过程中的目标位姿识别方法
技术领域
本发明属于机器人与人工智能领域,涉及一种机器人抓取过程中的目标位姿识别方法。
背景技术
随着计算机、人工智能技术的发展,机器人在工业领域、危险场景以及家庭服务中有了越来越广泛的应用。不同于现有机器人在结构化环境下对合作目标的操作,智 能机器人在复杂环境下,实现对未知目标的操作面临着巨大的挑战,其关键点在于对 目标的检测与位姿识别,只有可靠检测出目标并准确估计出目标位姿,才可以完成抓 取、搬运等操作任务。因此,对目标的位姿识别是十分必要的,也是开展智能机器人 非结构化环境应用的基础。
目前机器人对目标的位姿识别主要存在的问题包括只检测物体而不做识别,或仅依靠特征来区分有限种类物体。仅仅检测到物体并确定物体边缘并不能满足机器人对 目标的操作要求,而识别有限种类物体具有很大局限性。因此,设计一种能够准确识 别出操作目标位姿态并具有广泛性的方法是机器人操作的关键问题。
已有的方法包括视角区域特征直方图识别法、视觉传感器三维建模法等,这些方法识别速度慢,准确率低,设备要求较高,比如三维建模需要RGB-D传感器并在多角 度拍摄。今年来深度学习方法取得了很大进展,但已有的方法均采用了将特征提取与 识别分别处理,降低了处理速度,损失函数多选取位置偏差,鲁棒性差。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种机器人抓取过程中的目标位姿识别方法。主要针对具备视觉系统的智能机器人操作目标的位姿识别,提供了一种适用 于非合作目标的识别方法,该方法用于智能机器人操作任务中,快速准确的识别目标, 并在获得识别信息后,实现对目标的抓取、转移、搬运等操作,本发明具有良好的识 别速度快,准确性高、鲁棒性好等优点。
技术方案
一种机器人抓取过程中的目标位姿识别方法,其特征在于步骤如下:
步骤1:在惯性坐标系下,对被抓取目标采用5维参数描述:
g={x,y,w,h,θ}
式中(x,y)表示抓取目标几何中心坐标参数,(w,h)表示抓取结构参数,θ表示抓取姿态参数即二指抓取器相对水平轴的旋转角度;w为二指抓取器的张开角度,h为二 指抓取器的宽度;
对抓取姿态参数θ离散化:在水平轴[-90°,90°],内进行采样率为20的等间隔离散, 得到离散数据表;
步骤2:对包含被抓取目标的高为H,宽为W的图像,采用VGG16神经网络模型 进行特征提取,特征提取的参数为:卷积核为3×3,步长为1,Padding参数为Same 的卷积方式,得到高宽分别为H/16、W/16的包含被抓取目标图像的特征图;所述被 抓取目标的真实边界框坐标为
采用区域生成网络RPN对特征图进行处理,得到被抓取目标存在的区域;利用锚点Anchor法对被抓取目标存在的区域处理,得到候选边界框坐标为
以LGIoU作为损失函数实现候选边界框修正:
1)令
2)计算真实边界框面积
3)计算候选边界框面积
4)计算相交区域面积I
5)计算最小封闭框Bc坐标
6)计算封闭框面积
7)u=Ap+Ag-I
8)
得到包含图像的特征提取、边界框生成、边界框修正的神经网络模型;
步骤3:
训练数据准备:读取康奈尔抓取检测数据集的文件,每次读取四行已经标注的目标位姿坐标数据,利用位置坐标计算结构参数(w,h)与姿态参数θ,通过离散数据表找 到对应区间的代表角度,并将其标记为对应类型,最后计算出的中心位置(x,y);
参数选取及训练神经网络模型:利用ImageNet训练好的参数对神经网络模型进行初始化,经过Fine-Tuning训练后,使得损失函数收敛结束;
Epochs参数为1000,学习率为0.001,Weight Decay参数设置为0.0001,Minibatch参数选择为1
训练完成的神经网络模型输出被抓取目标实际的5维参数
g={x,y,w,h,θ}
二指抓取器根据5维参数实施抓取目标。
有益效果
本发明提出的一种机器人抓取过程中的目标位姿识别方法,根据机器人末端夹持工具的构型和机器人操作任务,对待识别目标提出特征需求,并将需求参数化,从而 使机器人能够利用目标识别结果完成对目标的操作。通过所设计的神经网络,实现图 像的特征提取、边界框生成、边界框修正等功能,完成在图像中检测目标并识别步骤 一所提出的目标特征参数。通过对训练数据的准备、神经网络参数的合理选取以及大 量图像数据集的训练,实现损失函数收敛。在损失函数收敛后,利用机器人的视觉系 统,实现对目标的位姿识别与操作任务。该方法用于智能机器人操作任务中,快速准 确的识别目标,并在获得识别信息后,实现对目标的抓取、转移、搬运等操作,本发 明具有良好的识别速度快,准确性高、鲁棒性好等优点。
与现有技术相比,本发明具有如下有益效果:
本发明将目标识别中的特征提取、候选区域生成、分类与回归统一到一个深度网络架构之内,完全在图形处理单元(GPU)中完成,大大提高了运行速度。通过对损失 函数的改进,进一步提高了目标位姿识别的准确性和鲁棒性。解决了机器人操作过程 中目标识别速度慢、准确率低、鲁棒性差的问题。本发明具体拥有以下优点:
1.识别速度快
本发明将目标识别中的特征提取、候选区域生成、分类与回归统一到一个深度网络架构之内,完全在图形处理单元(GPU)中完成,大大提高了运行速度。
2.结果准确性高
通过对特征提取网络选取、特征区域设计、损失函数改进等措施进一步提高了目标位姿识别的准确性。
3.鲁棒性好
本发明通过设计新的损失函数,在识别区域与目标完全不重合时,仍然可以完成目标的检测与识别,具备较强的鲁棒性。
附图说明
图1为目标识别参数示意图
图2为参考边界框示意图
图3为交并比示意图
图4为损失函数收敛过程
图5为目标位姿识别结果
图6为算法验证平台
图7为验证试验四个阶段
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明所采用的技术方案包括以下步骤:
1)目标识别需求参数化,根据机器人末端夹持工具的构型和机器人操作任务,对待识别目标提出特征需求,并将需求参数化,从而使机器人能够利用目标识别结果完 成对目标的操作。
2)设计神经网络框架,通过所设计的神经网络,实现图像的特征提取、边界框生成、边界框修正等功能,完成在图像中检测目标并识别步骤一所提出的目标特征参数。
3)训练神经网络,通过对训练数据的准备、神经网络参数的合理选取以及大量图像数据集的训练,实现损失函数收敛。在损失函数收敛后,利用机器人的视觉系统, 实现对目标的位姿识别与操作任务。
所述步骤1)中,目标识别需求参数化的具体步骤如下:
1-1):需求分析与参数化
考虑到操作的便利性,设计抓取位置为物体顶部,根据机器人末端夹持器的二指特性,采用5维参数描述,具体如图1所示。绿色边代表夹持器二指的位置,并且二 指与绿线平行,蓝色边长度代表夹持器张开长度,蓝线与水平方向的夹角代表夹持器 旋转角度,矩形框中心为机械臂末端位置,用g表示需要识别出的目标参数,其表达 式定义为:
g={x,y,w,h,θ} (1)
式中(x,y)表示抓取目标几何中心坐标参数,(w,h)表示抓取结构参数,θ表示抓取姿态参数即二指抓取器相对水平轴的旋转角度;w为二指抓取器的张开角度,h为二 指抓取器的宽度;
1-2):姿态参数离散化
为了使目标抓取具备更强的鲁棒性,需要将抓取姿态参数离散化,设定顺时针旋转为负,逆时针旋转为正,由于方向的对称性,抓取姿态区间取[-90°,90°],离散后θ取 值如表1所示离散数据表。
表1抓取姿态角对应区间
所述步骤2)中,设计神经网络框架的具体方法如下:
2-1)图像特征提取
对包含被抓取目标的高为H,宽为W的图像,采用VGG16神经网络模型进行特 征提取,VGG16是在2014年开发的在ImageNet训练好的大型卷积神经网络,包含140 万张标记图像,1000种不同类别,因此具有更广泛的识别范围。采用卷积核为3×3, 步长为1,Padding参数为Same的卷积方式,输出高宽分别为H/16、W/16的特征图。
所述被抓取目标的真实边界框坐标为
2-2)目标检测与位姿识别
在VGG16网络对目标区域进行特征提取,得到被抓取目标存在的区域;通过区 域生成网络(RPN)进行目标检测,对特征图进行处理,得到被抓取目标存在的区域;
利用锚点(Anchor)法对被抓取目标存在的区域处理,得到候选边界框坐标为
该方法将传统图像搜索中的逐项目扫描改进为仅搜索有限数量的兴趣区域,提高了目标检测效率。
以特征图像的每个像素为中心,按不同尺度和长宽比产生矩形框,称为参考边 界框。由于夹持器张开角度限制,尺度选取应适当,为满足识别出不同尺度不同形状 的目标,选取尺度为[2,4,8],长宽比采用[1:2,1:1,2:1]三种比率,共9个区域,每 个尺度对应的长宽比如图2所示。
为了解决参考边界框重叠问题,采用了非极大值抑制(Non-maximumsuppression)方法,通过利用不同的尺寸和比例产生的所有参考边界框与已标定的真 实边界框进行比较,计算交并比(IoU)最大的参考边界框定义为候选边界框,交并比 的计算方法为:
式中:A∩G代表参考边界框与真实边界框面积的交集,A∪G代表参考边界框与真实 边界框面积的并集,如图3所示。
2-3)LGIoU作为损失函数实现候选边界框修正
上一步中所获得的候选边界框坐标为已标定的真实边界框坐标选取LGIoU作为损失函数,其计算方法为:
1)令
2)计算真实边界框面积
3)计算候选边界框面积
4)计算相交区域面积I
5)计算最小封闭框Bc坐标
6)计算封闭框面积
7)u=Ap+Ag-I
8)
得到包含图像的特征提取、边界框生成、边界框修正的神经网络模型;
因为运算过程均为线性函数,所以采用LGIoU作为损失函数进行反向传播是可行的,并且当最差情况,识别区域与目标完全不重合时,仍然可以采用梯度下降算法进 行回归,实现候选边界框的修正,提高了系统鲁棒性。
所述步骤3)中,训练神经网络的具体方法如下:
3-1)训练数据准备
首先读取康奈尔抓取检测(Cornell Grasp Detection)数据集的pcdxxxxcpos.txt 文件,每次读取四行已经标注的目标位姿坐标数据,利用位置坐标计算结构参数(w,h) 与姿态参数θ,通过表1找到对应区间的代表角度,并将其标记为对应类型,最后计 算出的中心位置(x,y)。为提供更多的样本,提高训练出来模型的鲁棒性,本文通过水 平翻转的方法将训练数据量扩展1倍。
3-2)参数选取
在训练模型时,本文采用整体训练的方法,同时利用ImageNet训练好的参数进行初始化。Epochs参数为1000,学习率为0.001,Weight Decay参数设置为0.0001, Minibatch参数选择为1,即每一张图片作为一个Batch进行训练。经过Fine-Tuning 训练后,通过Tensorboard得到的损失函数收敛过程如图5所示,从图像可知,损失 函数收敛。目标识别结果如图6所示,与标定结果比较,该方法对目标位姿识别准确 率到达91.6%。
训练完成的神经网络模型输出被抓取目标实际的5维参数
g={x,y,w,h,θ}
二指抓取器根据5维参数实施抓取目标。
为验证方法在机器人操作中的有效性,我们设计了机器人试验平台,该平台由包含二指结构夹持器的ABB14000机器人以及图像获取设备Kinect构成,如图7所示。 图像信息由的Kinect传感器采集,通过网络传输到机器人中控计算机进行处理,在识 别出目标位姿参数后,机械臂按位置参数(x,y)运动到目标上方,根据结构参数(w,h)调 整末端夹持器,通过姿态参数θ调整机器人末端关节旋转角度,下降高度由Kinect传 感器采集的深度信息提供。
图7展示了试验过程的四个阶段,分别为机械臂水平运动到抓取位置上方,旋转机械臂末端关节角并张开夹持器,垂直运动到目标物体上方并完成夹持,转移物体到 放置盒内。通过机械臂夹持物体试验验证了本发明准确有效。
本发明适用于机器人操作过程中的目标位姿识别方法,首先将目标识别需求参数化,根据机器人末端夹持工具的结构,针对操作需求,对待识别目标的特征进行参数 化。设计神经网络框架,通过所设计的神经网络,实现图像的特征提取、边界框生成、 候选边界框选取、候选边界框修正等功能,完成在图像中检测目标并识别目标特征参 数。计算机仿真结果显示,本方法识别准确率达到91.6%,试验平台验证结果显示, 本方法准确有效。

Claims (1)

1.一种机器人抓取过程中的目标位姿识别方法,其特征在于步骤如下:
步骤1:在惯性坐标系下,对被抓取目标采用5维参数描述:
g={x,y,w,h,θ}
式中(x,y)表示抓取目标几何中心坐标参数,(w,h)表示抓取结构参数,θ表示抓取姿态参数即二指抓取器相对水平轴的旋转角度;w为二指抓取器的张开角度,h为二指抓取器的宽度;
对抓取姿态参数θ离散化:在水平轴[-90°,90°],内进行采样率为20的等间隔离散,得到离散数据表;
步骤2:对包含被抓取目标的高为H,宽为W的图像,采用VGG16神经网络模型进行特征提取,特征提取的参数为:卷积核为3×3,步长为1,Padding参数为Same的卷积方式,得到高宽分别为H/16、W/16的包含被抓取目标图像的特征图;所述被抓取目标的真实边界框坐标为
采用区域生成网络RPN对特征图进行处理,得到被抓取目标存在的区域;利用锚点Anchor法对被抓取目标存在的区域处理,得到候选边界框坐标为
以LGIoU作为损失函数实现候选边界框修正:
1)令
2)计算真实边界框面积
3)计算候选边界框面积
4)计算相交区域面积I
5)计算最小封闭框Bc坐标
6)计算封闭框面积
7)u=Ap+Ag-I
8)
得到包含图像的特征提取、边界框生成、边界框修正的神经网络模型;
步骤3:
训练数据准备:读取康奈尔抓取检测数据集的文件,每次读取四行已经标注的目标位姿坐标数据,利用位置坐标计算结构参数(w,h)与姿态参数θ,通过离散数据表找到对应区间的代表角度,并将其标记为对应类型,最后计算出的中心位置(x,y);
参数选取及训练神经网络模型:利用ImageNet训练好的参数对神经网络模型进行初始化,经过Fine-Tuning训练后,使得损失函数收敛结束;
Epochs参数为1000,学习率为0.001,Weight Decay参数设置为0.0001,Minibatch参数选择为1
训练完成的神经网络模型输出被抓取目标实际的5维参数
g={x,y,w,h,θ}
二指抓取器根据5维参数实施抓取目标。
CN201910534353.2A 2019-06-20 2019-06-20 一种机器人抓取过程中的目标位姿识别方法 Active CN110378325B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910534353.2A CN110378325B (zh) 2019-06-20 2019-06-20 一种机器人抓取过程中的目标位姿识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910534353.2A CN110378325B (zh) 2019-06-20 2019-06-20 一种机器人抓取过程中的目标位姿识别方法

Publications (2)

Publication Number Publication Date
CN110378325A true CN110378325A (zh) 2019-10-25
CN110378325B CN110378325B (zh) 2022-03-15

Family

ID=68250454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910534353.2A Active CN110378325B (zh) 2019-06-20 2019-06-20 一种机器人抓取过程中的目标位姿识别方法

Country Status (1)

Country Link
CN (1) CN110378325B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310637A (zh) * 2020-02-11 2020-06-19 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111360862A (zh) * 2020-02-29 2020-07-03 华南理工大学 一种基于卷积神经网络的生成最佳抓取位姿的方法
CN111598951A (zh) * 2020-05-18 2020-08-28 清华大学 一种识别空间目标的方法、装置和存储介质
CN113808205A (zh) * 2021-08-31 2021-12-17 华南理工大学 一种基于检测约束的快速动态目标抓取方法
CN114083545A (zh) * 2022-01-24 2022-02-25 之江实验室 一种基于视觉感知的运动物体机器人抓取方法及装置
CN114660934A (zh) * 2022-03-03 2022-06-24 西北工业大学 一种基于视觉-触觉融合的机械臂自主操作策略学习方法
CN115965855A (zh) * 2023-02-14 2023-04-14 成都睿芯行科技有限公司 一种提高托盘识别精度的方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103895042A (zh) * 2014-02-28 2014-07-02 华南理工大学 一种基于视觉引导的工业机器人工件定位抓取方法及系统
CN107953329A (zh) * 2016-10-17 2018-04-24 中国科学院深圳先进技术研究院 物体识别和姿态估计方法、装置及机械臂抓取系统
CN108010078A (zh) * 2017-11-29 2018-05-08 中国科学技术大学 一种基于三级卷积神经网络的物体抓取检测方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN109102547A (zh) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 基于物体识别深度学习模型的机器人抓取位姿估计方法
EP3432271A1 (en) * 2017-07-20 2019-01-23 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103895042A (zh) * 2014-02-28 2014-07-02 华南理工大学 一种基于视觉引导的工业机器人工件定位抓取方法及系统
CN107953329A (zh) * 2016-10-17 2018-04-24 中国科学院深圳先进技术研究院 物体识别和姿态估计方法、装置及机械臂抓取系统
EP3432271A1 (en) * 2017-07-20 2019-01-23 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
CN108010078A (zh) * 2017-11-29 2018-05-08 中国科学技术大学 一种基于三级卷积神经网络的物体抓取检测方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN109102547A (zh) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN ZHIHONG等: "A vision-based robotic grasping system using deep learning for garbage sorting", 《2017 36TH CHINESE CONTROL CONFERENCE (CCC)》 *
GUOLIANG ZHANG等: "Object Detection and Grabbing Based on Machine Vision for Service Robot", 《2018 IEEE 9TH ANNUAL INFORMATION TECHNOLOGY, ELECTRONICS AND MOBILE COMMUNICATION CONFERENCE (IEMCON)》 *
李传浩: "基于卷积神经网络的机器人自动抓取规划研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
杜学丹等: "一种基于深度学习的机械臂抓取方法", 《机器人》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310637A (zh) * 2020-02-11 2020-06-19 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111310637B (zh) * 2020-02-11 2022-11-11 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111360862A (zh) * 2020-02-29 2020-07-03 华南理工大学 一种基于卷积神经网络的生成最佳抓取位姿的方法
CN111360862B (zh) * 2020-02-29 2023-03-24 华南理工大学 一种基于卷积神经网络的生成最佳抓取位姿的方法
CN111598951B (zh) * 2020-05-18 2022-09-30 清华大学 一种识别空间目标的方法、装置和存储介质
CN111598951A (zh) * 2020-05-18 2020-08-28 清华大学 一种识别空间目标的方法、装置和存储介质
CN113808205A (zh) * 2021-08-31 2021-12-17 华南理工大学 一种基于检测约束的快速动态目标抓取方法
CN113808205B (zh) * 2021-08-31 2023-07-18 华南理工大学 一种基于检测约束的快速动态目标抓取方法
CN114083545B (zh) * 2022-01-24 2022-07-01 之江实验室 一种基于视觉感知的运动物体机器人抓取方法及装置
CN114083545A (zh) * 2022-01-24 2022-02-25 之江实验室 一种基于视觉感知的运动物体机器人抓取方法及装置
CN114660934A (zh) * 2022-03-03 2022-06-24 西北工业大学 一种基于视觉-触觉融合的机械臂自主操作策略学习方法
CN114660934B (zh) * 2022-03-03 2024-03-01 西北工业大学 一种基于视觉-触觉融合的机械臂自主操作策略学习方法
CN115965855A (zh) * 2023-02-14 2023-04-14 成都睿芯行科技有限公司 一种提高托盘识别精度的方法及装置

Also Published As

Publication number Publication date
CN110378325B (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN110378325A (zh) 一种机器人抓取过程中的目标位姿识别方法
CN108555908B (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN108280856A (zh) 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108171748A (zh) 一种面向机器人智能抓取应用的视觉识别与定位方法
CN110355754A (zh) 机器人手眼系统、控制方法、设备及存储介质
CN108972494A (zh) 一种仿人机械手抓取控制系统及其数据处理方法
CN110211180A (zh) 一种基于深度学习的机械臂自主抓取方法
CN110298886B (zh) 一种基于四级卷积神经网络的灵巧手抓取规划方法
Zhang et al. Robotic grasp detection based on image processing and random forest
CN108748149B (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN109461184B (zh) 一种机器人机械臂抓取物体的抓取点自动定位方法
CN110796700B (zh) 基于卷积神经网络的多物体抓取区域定位方法
CN112297013A (zh) 一种基于数字孪生和深度神经网络的机器人智能抓取方法
CN108818530A (zh) 基于改进rrt算法的机械臂抓取散乱堆放活塞运动规划方法
CN110298292A (zh) 基于规则多边形物体角点检测的高精度实时抓取检测方法
CN115816460B (zh) 一种基于深度学习目标检测与图像分割的机械手抓取方法
CN114155301A (zh) 一种基于Mask R-CNN和双目相机的机器人目标定位和抓取方法
CN110969660A (zh) 一种基于三维立体视觉和点云深度学习的机器人上料系统
CN108297084A (zh) 一种基于图像识别的智能传送带式机械臂系统
CN114882109A (zh) 一种面向遮挡、杂乱场景下的机器人抓取检测方法及系统
CN113011344B (zh) 一种基于机器视觉的引体向上数量计算方法
CN113664828A (zh) 一种基于深度强化学习的机器人抓取-抛掷方法
CN111598172A (zh) 基于异构深度网络融合的动态目标抓取姿态快速检测方法
CN115861780B (zh) 一种基于yolo-ggcnn的机械臂检测抓取方法
CN113822933B (zh) 一种基于ResNeXt的智能机器人抓取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant