CN113888631B - 一种基于目标裁剪区域的指定物体抓取方法 - Google Patents

一种基于目标裁剪区域的指定物体抓取方法 Download PDF

Info

Publication number
CN113888631B
CN113888631B CN202111017083.1A CN202111017083A CN113888631B CN 113888631 B CN113888631 B CN 113888631B CN 202111017083 A CN202111017083 A CN 202111017083A CN 113888631 B CN113888631 B CN 113888631B
Authority
CN
China
Prior art keywords
grabbing
depth
coordinate system
target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111017083.1A
Other languages
English (en)
Other versions
CN113888631A (zh
Inventor
魏武
冯凯月
余秋达
高天啸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111017083.1A priority Critical patent/CN113888631B/zh
Publication of CN113888631A publication Critical patent/CN113888631A/zh
Application granted granted Critical
Publication of CN113888631B publication Critical patent/CN113888631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于目标裁剪区域的指定物体抓取方法,包括以下步骤:S1、采集实际抓取场景的RGB图像和深度图像;S2、对采集的深度图像和RGB图像进行对齐和裁剪操作;S3、将处理后的RGB图像数据流输入目标检测网络,输出当前场景中抓取物体位置和区域;S4、将处理后的深度图像输出训练好的全卷积神经网络中,得到整个场景的抓取位姿;S5、根据目标检测的结果和整个场景的抓取位姿生成指定目标物体的抓取位姿;S6、将抓取位姿转化为机械臂操作空间的抓取位姿;S7、设置机器人抓取轨迹并完成抓取。本发明能够完成在多目标的场景中对指定的目标物体进行抓取操作,建立的级联全卷积神经网络具有轻量并准确率高的优点。

Description

一种基于目标裁剪区域的指定物体抓取方法
技术领域
本发明涉及计算机视觉,深度学习,机器人控制领域,具体涉及一种基于目 标裁剪区域的指定物体抓取方法。
背景技术
21世纪以来,人工智能的发展带动了机器人领域迸发出新的活力。传统的 机器人主要应用于工厂的特定的场景内,而工业上的机器人抓取还局限于结构 化的场景和特定的物品。针对非结构化的机器人抓取,国内外的学者都有所研究, 他们利用计算机视觉获取抓取场景的信息,通过建立卷积神经网络生成机器人 抓取位姿(夏晶、钱堃等,基于级联卷积神经网络的机器人平面抓取位姿快速检 测[J],南京:东南大学自动化学院;SulabhKumra and Christopher Kanan Robotic Grasp Detection using Deep ConvolutionalNeural Networks)。用这种生成整个场景 最佳抓取位姿的方式,可以对场景中物体逐一抓取,利用卷积神经网络输出最佳 抓取位姿,具有快速、准确的特点,但不能指定抓取场景中的某一物品。而在实 际的生产生活中,抓取特定的物品是机器人抓取中的需要解决的一大难点。
发明内容
为了解决现有的机器人抓取研究不能指定目标进行抓取的问题,本发明提 供一种基于目标裁剪区域的指定物体抓取方法,使用YOLOv4算法输出场景中 各个物品的区域,通过建立的全卷积神经网络输出场景中抓取位姿,通过目标区 域裁剪的方式获得指定目标的最佳抓取位姿,能够快速稳定的抓取指定物品。
本发明至少通过如下技术方案之一实现。
一种基于目标裁剪区域的指定物体抓取方法,包括以下步骤:
S1、利用RGB-D相机采集实际抓取场景的RGB图像和深度图像;
S2、对相机采集的深度图像和RGB图像进行对齐和裁剪操作;
S3、将处理后的RGB图像数据流输入目标检测网络,输出当前场景中抓取 物体的位置和区域;
S4、将处理后的深度图像输出训练好的全卷积神经网络中,得到整个场景 的抓取位姿;
S5、根据目标检测的结果和整个场景的抓取位姿生成指定目标物体的抓取 位姿;
S6、将抓取位姿转化为机械臂操作空间的抓取位姿;
S7、设置机器人抓取轨迹并完成抓取。
优选的,步骤S1中的RGB-D相机是Relsense435i,深度图像的获取是双 目立体视觉与结构光的融合,左右两个红外传感器构成双目立体视觉,与单目结 构光相比深度测量精度更高。同时还有一个高精度彩色摄像头可以获取RGB图 像。
优选的,对相机采集到的深度图像和RGB图配准和裁剪。
优选的,相机获取的RGB图像输入到训练好的YOLOv4网络中,输出场 景中各个物品的位置和大小信息。
优选的,在步骤S4中所述的用于深度图像生成抓取位姿的全卷积神经网 络包括两个阶段,第一阶段和第二阶段均包括编码器模块和解码器模块,其中 第一阶段和第二阶段均产生一个损失,损失定义为预测的抓取角度、抓取宽度 和抓取质量和实际的真实间的均方误差;所述编码器模块包括卷积层,所述解 码器模块包括反卷积层。
优选的,用于抓取位姿预测的全卷积神经网络的训练阶段包括:
S41、先对Cornell数据集进行数据集增强操作,包括随机截取、随机缩 放、随机翻转,将增强后的数据集为训练集和测试集;在随机翻转的操作中, 翻转范围为在随机缩放的操作中,缩放范围为(0.1,10);
S42、训练全卷积神经网络模型时,采用均方误差损失函数作为训练性能 的指标。
S43、对上一步训练好的模型进行测试;对于预测的抓取框是否正确采用 IOU评价指标:
其中,A为预测矩形,B为真实矩形,IOU预测矩形和真实矩形之间面积 的交并比为评价指标。IOU大于0.6时,为一个成功的抓取。抓取成功率在训 练第32个epoch时达到最高的抓取成功率89%。保留此模型参数。
优选的,在步骤S4中,将深度图像数据流输入到训练好的全卷积神经网 络中,输出得到三幅图,分别对应着每个像素点的抓取质量q、夹爪旋转角度 夹爪张开宽度/>整合可以得到场景中每个像素的抓取位姿/>
优选的,用于训练目标检测网络的为COCO数据集。
优选的,用于训练预测抓取位姿的全卷积神经网络的为Cornell数据集。
优选的,所述训练是在NVIDIA服务器上进行的;由于网络结构的关系,所 有输入的深度图片resize成HxH大小,最终得到的输出同样为H×H×3。
本发明与现有技术相比,具有如下优点和有益效果:
本发明提供一种基于目标裁剪区域的指定物体抓取方法,使用YOLOv4算法 输出场景中各个物品的区域,通过建立的全卷积神经网络输出场景中抓取位姿, 通过目标区域裁剪的方式获得指定目标的最佳抓取位姿,能够快速稳定的抓取 指定物品。在多目标的场景中对指定的目标物体进行抓取操作,建立的级联全卷 积神经网络具有轻量并准确率高的优点,可以针对当前场景快速生成抓取位姿。
附图说明
图1为本发明实施例方法的流程图;
图2为本发明实施例搭建的两阶段卷积神经网络的结构图。
具体实施方式
本部分将详细描述本发明的具体实施例,本发明之较佳实施例在附图中示 出,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象 地理解本发明的每个技术特征和整体技术方案,但其不能理解为对本发明保护 范围的限制。
如图1所示,本发明基于目标裁剪区域的指定物体抓取方法,包括以下步 骤:
S1、利用Relsense435i的RGB-D相机采集,深度图像的获取是双目立体视 觉与结构光的融合,由两个红外传感器构成双目立体视觉,与单目结构光相比深 度测量精度更高。同时还有一个高精度彩色摄像头可以获取RGB图像。
S2、对相机采集的深度图像和RGB图像进行对齐和裁剪操作;
S3、将处理后的RGB图像数据流输入目标检测网络,输出当前场景中抓取 物体的位置和区域;
S4、将处理后的深度图像输出训练好的全卷积神经网络中,得到整个场景 的抓取位姿;
S5、根据目标检测的结果和整个场景的抓取位姿生成指定目标物体的抓取 位姿;
S6、将抓取位姿转化为机械臂操作空间的抓取位姿;
S7、设置机器人抓取轨迹并完成抓取。
其中,在当前场景中,在步骤S2中深度图像和彩色图像配准的操作包括以 下步骤:
S201、将深度图的像素点还原到深度坐标系下:
其中Kd为深度摄像头的内参由标定获得,表示深度图的像素点在深度坐 标系下的坐标,/>为深度图上的像素点的值;
S202、将深度坐标系下转换到世界坐标系下:
Pw是世界坐标系下的坐标,是深度坐标系到世界坐标系的转换矩阵由 摄像头的标定参数中获得;
S203、将世界坐标系下Pw转换到彩色摄像头坐标系下:
表示彩色摄像头坐标系下的坐标,Tw2c是世界坐标系到彩色相机坐标 系之间的转换矩阵。
S204、将彩色摄像头坐标系下的深度点转换到映射到彩色平面上:
其中Kd为深度摄像头的内参由标定获得,Tw2c是世界坐标系转换到彩色摄 像头坐标系的转换矩阵由标定获得,Tw2d为世界坐标系转换到深度摄像头的转 换矩阵由标定获得。
步骤S3中,将处理后的RGB图像数据流输入目标检测网络,输出当前场 景中抓取物体的位置和区域具体包括以下步骤:
S301、目标检测使用的是YOLOv4算法,采用大型公开数据集COCO数据 集预训练,使用自建数据集迁移训练,自建数据集为自己拍摄和标注的数据。
S303、保存训练最佳的模型参数。
S302、将处理后的RGB图像数据流输入到训练后的YOLOv4网络,对场 景实时采集。如果能够检测到目标物体则输出目标物体的所在的矩形区域。
如图2所示,在步骤S4中全卷积神经网络,采用编码器-解码器的结构,主 要包括自上而下的路径作为编码器和自下而上的解码器,利用经典的全卷积神 经网络思想,使用反卷积层代替全连接层,实现更高的计算效率。另一方面,池 化层的下采样过程中会造成图片的分辨率降低的后果,而利用反卷积层就可以 恢复到原本的分辨率。但是如果采用卷积层和反卷积层不对等的架构,虽然可以 在一定程度上恢复图片的分辨率,但是却无法保证原本图片内特征的位置信息 不发生改变。因此,为了保证在恢复图片分辨率的同时,还保留原本图片特征的 位置信息,采用基于全卷积神经网络的对称编码-解码网络结构,卷积层数量和 参数均与反卷积层的一致,最大限度的保证提取图片特征后保持特征的位置不 变,完成更好的分割效果。
建立的卷积神经网络分为两个阶段,共12层。该卷积神经网络每个阶段都 为一个6层网络,前三层为卷积层,构成编码器模块,后三层为反卷积层,构成 解码器模块,其中算法网络参数如下表,第一阶段输出的图像以及初始输入第一 阶段的图像均输入到第二阶段,即增加了一个保留原始信息的阶段,通过该阶段 可以使用变换后的信息和初始信息。结合两幅图像可以获得更高的精度。
在步骤S4中,训练好的全卷积神经网络包括以下步骤:
S401、建立全卷积神经网络,模型的输入和输出是同尺寸的图像,输入为 单通道,输出为3通道,分别意味着每个像素点的抓取质量,抓取角度和抓取 宽度信息;
S402、使用开源Cornell数据集对建立好的网络进行训练,训练前先对数据 集进行数据集增强操作,包括随机截取、随机缩放、随机翻转,将增强后的数 据集为训练集和测试集;在随机翻转的操作中,翻转范围为(0,π/2),在随机 缩放的操作中,缩放范围为(0.1,10),训练网络时采用均方误差损失函数作为 训练性能的指标;
S403、对上一步训练好的模型进行测试;对于预测的抓取框是否正确采用 IOU评价指标:
其中,A为预测矩形,B为真实矩形,IOU预测矩形和真实矩形之间面积的 交并比为评价指标。IOU大于0.6时,为一个成功的抓取。抓取成功率在训练 第32个epoch时达到最高的抓取成功率89%。保留此模型参数。
其中训练是在NVIDIA服务器上进行的。服务器显卡组由4块1080ti组成, 共11G显存。服务器版本是UBUNTU16.04,编程语言版本是Python3.6。由于 网络结构的关系,所有输入的深度图片resize成300x300大小,最终得到的输出 同样为300×300×3。一共训练了60个Epoch,其中在第32个Epoch,测试集 的准确率达到0.89,经过训练,获得了一个轻量级模型,在TX2上运行时只有 0.5MB,可以达到30FPS,保证了实时性。
在步骤S5中,根据目标检测的结果和整个场景的抓取位姿生成指定目标物 体的抓取位姿,包括以下步骤:
S501、根据目标检测的结果,可知如果目标物体显露出来,可以得知目标 物体所在的矩形区域为(x,y,w,h),其中(x,y)为目标物体矩形框的中心。w和h 分别为宽和长。
S502、根据检测结果可以得到矩形的四个顶点为(x-w,y-h)、 (x+w,y-h)、(x+w,y+h)、(x-w,y+h)。遍历这个矩形,结合图像对齐后的 整个场景的抓取位姿找到对应的最佳抓取的像素点。
S503、找到最佳的抓取点后,可以得到指定目标物体的二维图像上的抓取 位姿其中,(bx,by)表示RGB图像像素坐标,/>机械手在图像上的 宽度像素值。
本发明通过建立参数少的两阶段的全卷积神经网络,利用数据增强后的开 源数据集Cornell数据集训练,同时利用几何关系画出最佳抓取的抓取策略, 两阶段的网络解决了数据容易过拟合的问题,参数少保证了推测的快速性。
在步骤S6中,将图像上的抓取位姿结合深度信息映射到机器人操作空间 g=((px,py,pz),w,θ)。具体步骤如下:
S601、计算抓取点在相机坐标系中的位姿
由相机的内参数模型,将抓取点的RGB图像像素坐标(bx,by)转化为相机坐 标系下的坐标
xb=(bx-u0)/kxbz
{yb=(by-v0)kybz
zb=d
其中,u0,v0,kx,ky为彩色相机内参数的标定值,d为实际的深度值。
S602、计算机械臂基坐标系中的抓取点位置
抓取点在机械臂基坐标系的位置为:
其中为相机坐标系与机械臂坐标系的变换矩阵。
S603、计算机械手的真实抓取宽度
机械手在图像上的宽度像素值为将其转化为机械手真实的抓取宽度 w。图像上的宽度像素值和真实抓取的宽度是和相机离物体的距离有一定的线 性关系。所以在真实的抓取宽度w为:
其中k是图像像素值与相机与物体的距离之间的一个参数,bz为出物体的深 度值。
S604、根据上述推导,计算可得到机器人操作空间中的抓取为
g=((px,py,pz),w,θ)
其中(px,py,pz)表示机器人操作空间中的坐标,w表示机械手真是的抓取宽 度,θ表示机械手旋转的角度。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对 本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基 础上还可以做出其它不同形式的变化或变动。凡在本发明的精神和原则之内所 作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于目标裁剪区域的指定物体抓取方法,其特征在于,包括以下步骤:
S1、采集实际抓取场景的RGB图像和深度图像;
S2、对采集的深度图像和RGB图像进行预处理操作;
S3、将处理后的RGB图像数据流输入目标检测网络,输出当前场景中抓取物体的位置和区域;
S4、将处理后的深度图像输入训练好的全卷积神经网络中,得到整个场景的抓取位姿;
所述全卷积神经网络包括两个阶段,第一阶段和第二阶段均包括编码器模块和解码器模块,其中第一阶段和第二阶段均产生一个损失,损失定义为预测的抓取角度、抓取宽度和抓取质量和实际的真实间的均方误差;所述编码器模块包括卷积层,所述解码器模块包括反卷积层;
全卷积神经网络的训练包括以下步骤:
S401、建立全卷积神经网络,全卷积神经网络的输入和输出是同尺寸的图像,输入为单通道,输出为n通道,分别意味着每个像素点的抓取质量,抓取角度和抓取宽度信息;
S402、使用开源Cornell数据集对全卷积神经网络进行训练,训练前先对数据集进行数据集增强操作,包括随机截取、随机缩放、随机翻转,将增强后的数据集为训练集和测试集;在随机翻转的操作中,翻转范围为(0,π/2),在随机缩放的操作中,缩放范围为(0.1,10),训练网络时采用均方误差损失函数作为训练性能的指标;
S403、对全卷积神经网络进行测试;对于预测的抓取框是否正确采用IOU评价指标:
其中,A为预测矩形,B为真实矩形,IOU预测矩形和真实矩形之间面积的交并比为评价指标;
S5、根据目标检测的结果和整个场景的抓取位姿生成指定目标物体的抓取位姿,包括以下步骤:
S501、根据目标检测的结果,得到目标物体所在的矩形区域为(x,y,w,h),其中(x,y)为目标物体矩形框的中心,w和h分别为宽和长;
S502、根据检测结果得到矩形的四个顶点为(x-w,y-h)、(x+w,y-h)、(x+w,y+h)、(x-w,y+h),遍历整个矩形,结合图像对齐后的整个场景的抓取位姿找到对应抓取分数最高的像素点作为最佳的抓取点;
S503、找到最佳的抓取点后,得到指定目标物体的二维图像上的抓取位姿其中,(bx,by)表示RGB图像像素坐标,/>表示图像上的最佳抓取宽度;
S6、利用机器人视觉抓取系统的标定结果,将抓取位姿映射到机器人操作空间中的三维抓取位姿,包括以下步骤:
S601、计算抓取点在相机坐标系中的位姿
由相机的内参数模型,将抓取点的RGB图像像素坐标(bx,by)转化为相机坐标系下的坐标
xb=(bx-u0)/kxbz
yb=(by-v0)kybz
zb=d
其中,u0、v0、kx、ky为彩色相机内参数的标定值;d为实际深度值;
S602、计算机械臂基坐标系中的抓取点位置
抓取点在机械臂基坐标系的位置为:
其中为相机坐标系与机械臂坐标系的变换矩阵;
S603、计算机械手的真实抓取宽度
机械手在图像上的宽度像素值为将其转化为机械手真实的抓取宽度w,图像上的宽度像素值和真实抓取的宽度是和相机离物体的距离有线性关系,所以在真实的抓取宽度w为:
其中k是图像像素值与相机与物体的距离之间的参数,bz为物体的深度值;
S604、根据上述推导,图像上的抓取位姿结合深度信息映射到机器人操作空间,得到机器人操作空间中的抓取为:
g=((px,py,pz),w,θ)
其中(px,py,pz)表示机器人操作空间中的坐标,w表示机械手真是的抓取宽度,θ表示机械手旋转的角度。
2.根据权利要求1所述的一种基于目标裁剪区域的指定物体抓取方法,其特征在于,步骤S2中深度图像和彩色图像预处理操作包括以下步骤:
S201、将深度图的像素点还原到深度坐标系下:
其中Kd为深度摄像头的内参由标定获得,表示深度图的像素点在深度坐标系下的坐标,/>为深度图上的像素点的值,Z为深度图的像素点和实际深度的变化矩阵;
S202、将深度坐标系下转换到世界坐标系下:
Pw是世界坐标系下的坐标,是深度坐标系到世界坐标系的转换矩阵由摄像头的标定参数中获得;
S203、将世界坐标系下Pw转换到彩色摄像头坐标系下:
表示彩色摄像头坐标系下的坐标,Tw2c是世界坐标系到彩色相机坐标系之间的转换矩阵;
S204、将彩色摄像头坐标系下的深度点转换到映射到彩色平面上:
其中Kc为深度摄像头的内参。
3.根据权利要求1所述的一种基于目标裁剪区域的指定物体抓取方法,其特征在于:目标检测网络为YOLOv4网络,采用COCO数据集预训练,再使用目标数据集迁移训练。
4.根据权利要求3所述的一种基于目标裁剪区域的指定物体抓取方法,其特征在于:在步骤S3中,将处理后的RGB图像数据流输入到训练后的YOLOv4网络,对场景实时采集,输出目标物体的所在的矩形区域。
5.根据权利要求1所述的一种基于目标裁剪区域的指定物体抓取方法,其特征在于:在步骤S4中,将深度图像数据流输入到训练好的全卷积神经网络中,输出得到三幅图,分别对应着每个像素点(u,v)的抓取质量q、夹爪旋转角度夹爪张开宽度/>整合得到的每个像素的抓取位姿/>
6.根据权利要求1所述的一种基于目标裁剪区域的指定物体抓取方法,其特征在于:步骤S1利用Relsense435i的RGB-D相机采集,深度图像的获取是双目立体视觉与结构光的融合,由两个红外传感器构成双目立体视觉。
CN202111017083.1A 2021-08-31 2021-08-31 一种基于目标裁剪区域的指定物体抓取方法 Active CN113888631B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111017083.1A CN113888631B (zh) 2021-08-31 2021-08-31 一种基于目标裁剪区域的指定物体抓取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111017083.1A CN113888631B (zh) 2021-08-31 2021-08-31 一种基于目标裁剪区域的指定物体抓取方法

Publications (2)

Publication Number Publication Date
CN113888631A CN113888631A (zh) 2022-01-04
CN113888631B true CN113888631B (zh) 2024-05-24

Family

ID=79011456

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111017083.1A Active CN113888631B (zh) 2021-08-31 2021-08-31 一种基于目标裁剪区域的指定物体抓取方法

Country Status (1)

Country Link
CN (1) CN113888631B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114474056B (zh) * 2022-01-26 2023-07-21 北京航空航天大学 一种面向抓取操作的单目视觉高精度目标定位方法
CN114683251A (zh) * 2022-03-31 2022-07-01 上海节卡机器人科技有限公司 机器人抓取方法、装置、电子设备及可读取存储介质
CN114819075B (zh) * 2022-04-20 2024-09-10 西北工业大学 一种增强机器人抓取检测模型鲁棒性的训练方法
CN114750164B (zh) * 2022-05-25 2023-06-20 清华大学深圳国际研究生院 一种透明物体的抓取方法、系统及计算机可读存储介质
CN114918944A (zh) * 2022-06-02 2022-08-19 哈尔滨理工大学 基于卷积神经网络融合的家庭服务机器人抓取检测方法
CN115057139A (zh) * 2022-07-29 2022-09-16 徐州威卡电子控制技术有限公司 一种垃圾车上使用的自动垃圾桶识别系统及识别方法
CN115319739B (zh) * 2022-08-02 2024-07-09 中国科学院沈阳自动化研究所 一种基于视觉机械臂抓取工件方法
CN115070781B (zh) * 2022-08-24 2022-12-13 绿盛环保材料(集团)有限公司 一种物体抓取方法及双机械臂协作系统
CN115861780B (zh) * 2022-12-21 2023-07-21 苏州科技大学 一种基于yolo-ggcnn的机械臂检测抓取方法
CN116968022B (zh) * 2023-07-14 2024-05-28 武汉纺织大学 一种基于视觉引导的机械臂抓取目标物体方法及系统
CN117124302B (zh) * 2023-10-24 2024-02-13 季华实验室 一种零件分拣方法、装置、电子设备及存储介质
CN117681211B (zh) * 2024-01-23 2024-07-16 哈尔滨工业大学 基于深度学习的二指欠驱动机械手爪抓取位姿检测方法
CN118493399A (zh) * 2024-06-27 2024-08-16 安徽大学 基于多功能抓取及对象无关框架的机器人抓取方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN110796700A (zh) * 2019-10-21 2020-02-14 上海大学 基于卷积神经网络的多物体抓取区域定位方法
CN111080693A (zh) * 2019-11-22 2020-04-28 天津大学 一种基于YOLOv3的机器人自主分类抓取方法
CN111738261A (zh) * 2020-06-30 2020-10-02 张辉 基于位姿估计和校正的单图像机器人无序目标抓取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN110796700A (zh) * 2019-10-21 2020-02-14 上海大学 基于卷积神经网络的多物体抓取区域定位方法
CN111080693A (zh) * 2019-11-22 2020-04-28 天津大学 一种基于YOLOv3的机器人自主分类抓取方法
CN111738261A (zh) * 2020-06-30 2020-10-02 张辉 基于位姿估计和校正的单图像机器人无序目标抓取方法

Also Published As

Publication number Publication date
CN113888631A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
CN113888631B (zh) 一种基于目标裁剪区域的指定物体抓取方法
CN109934864B (zh) 面向机械臂抓取位姿估计的残差网络深度学习方法
CN113052835B (zh) 一种基于三维点云与图像数据融合的药盒检测方法及其检测系统
CN107953329B (zh) 物体识别和姿态估计方法、装置及机械臂抓取系统
CN113065546B (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN107358633A (zh) 一种基于三点标定物的多相机内外参标定方法
CN109712232B (zh) 一种基于光场的物体表面轮廓三维成像方法
CN111151463A (zh) 一种基于3d视觉的机械臂分拣抓取系统及方法
CN109345587B (zh) 一种基于全景与单目视觉的混合视觉定位方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN113808205B (zh) 一种基于检测约束的快速动态目标抓取方法
Ye et al. Keypoint-based LiDAR-camera online calibration with robust geometric network
CN116129037B (zh) 视触觉传感器及其三维重建方法、系统、设备及存储介质
Komatsu et al. 360 depth estimation from multiple fisheye images with origami crown representation of icosahedron
CN115330935A (zh) 一种基于深度学习的三维重建方法及系统
CN113327295A (zh) 一种基于级联全卷积神经网络的机器人快速抓取方法
CN112116653B (zh) 一种多张rgb图片的物体姿态估计方法
CN111914790B (zh) 基于双摄像头的不同场景下实时人体转动角度识别方法
JP6016242B2 (ja) 視点推定装置及びその分類器学習方法
CN116402904A (zh) 一种基于激光雷达间和单目相机的联合标定方法
CN112927304B (zh) 一种基于卷积神经网络的鱼眼镜头标定方法
CN113033470B (zh) 一种轻量型目标检测方法
CN114663599A (zh) 一种基于多视图的人体表面重建方法及系统
CN114757849A (zh) 一种具有高动态范围的成像方法
CN114863021A (zh) 一种基于三维重建场景的仿真数据集分析方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant