CN110509273B - 基于视觉深度学习特征的机器人机械手检测及抓取方法 - Google Patents

基于视觉深度学习特征的机器人机械手检测及抓取方法 Download PDF

Info

Publication number
CN110509273B
CN110509273B CN201910760908.5A CN201910760908A CN110509273B CN 110509273 B CN110509273 B CN 110509273B CN 201910760908 A CN201910760908 A CN 201910760908A CN 110509273 B CN110509273 B CN 110509273B
Authority
CN
China
Prior art keywords
key frame
neural network
layer
frame image
grabbing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910760908.5A
Other languages
English (en)
Other versions
CN110509273A (zh
Inventor
于雅楠
华春杰
王仲民
沈怡麟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University of Technology and Education China Vocational Training Instructor Training Center
Original Assignee
Tianjin University of Technology and Education China Vocational Training Instructor Training Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University of Technology and Education China Vocational Training Instructor Training Center filed Critical Tianjin University of Technology and Education China Vocational Training Instructor Training Center
Priority to CN201910760908.5A priority Critical patent/CN110509273B/zh
Publication of CN110509273A publication Critical patent/CN110509273A/zh
Application granted granted Critical
Publication of CN110509273B publication Critical patent/CN110509273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于视觉深度学习特征的机器人机械手检测及抓取方法,所述方法包括以下步骤:通过单目相机采集RGB图像从中选取关键帧图像,将关键帧图像切分成多个区域输入卷积神经网络A中,根据识别的目标类别选择抓取的目标区域;将关键帧图像与目标区域的标准图像作为卷积神经网络B的输入进行匹配,将关键帧图像进行某一角度的旋转,使其与标准图像的匹配率最高;根据匹配率最高时的角度确定目标区域的位姿,调整机械手的抓取姿态。本发明仅需采用简单设备,就可实现高效的目标识别和抓取定位,抓取结果准确。

Description

基于视觉深度学习特征的机器人机械手检测及抓取方法
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于视觉深度学习特征的机器人机械手检测及抓取方法,用于提高生产中工业机械手抓取目标时的准确性、实时性以及智能性,同时降低生产成本。
背景技术
工业自动化程度反应一个国家的经济发展水平,随着自动化技术的飞快发展,现代工业已经离不开机器人的参与,机器人的种类及数量越来越多,覆盖范围也越来越广,因此需要更高准确度、更高即时性、更加智能化的机器人来跟上经济的快速发展。在计算机视觉领域,目标识别和定位是机械手自动抓取过程中的关键技术,指导机器人按照人类的意图去抓取目标物体,使机器人完成搬运、分拣、零件加工等工作,或者使机器人在复杂的家庭环境下抓取主人指定的物品等。
目前,机器人机械手检测和抓取技术有以下方法:
1)接触式传感设备,例如:机械手末端使用爪部压力传感器和控制电路识别抓取物体的硬度,实现目标物体的动态抓取;
2)采用双目立体视觉或深度视觉技术,拟合目标物体的空间三维结构,由双目相机采集的关键帧图像以及深度信息计算出目标物体的具体位置以及目标位姿。
结合基于深度学习的单目视觉技术在工业机器人机械手工件检测及抓取应用尚不完善。
发明内容
本发明提供了一种基于视觉深度学习特征的机器人机械手检测及抓取方法,本发明仅需采用简单设备,就可实现高效的目标识别和抓取定位,抓取结果准确,详见下文描述:
一种基于视觉深度学习特征的机器人机械手检测及抓取方法,所述方法包括以下步骤:
通过单目相机采集RGB图像从中选取关键帧图像,将关键帧图像切分成多个区域输入卷积神经网络A中,根据识别的目标类别选择抓取的目标区域;
将关键帧图像与目标区域的标准图像作为卷积神经网络B的输入进行匹配,将关键帧图像进行某一角度的旋转,使其与标准图像的匹配率最高;
根据匹配率最高时的角度确定目标区域的位姿,调整机械手的抓取姿态。
所述卷积神经网络A的结构为:输入层,卷积层,池化层,全连接层和输出层,输出层输出目标区域在每个区域的评分,选取得分最高的区域为目标物体所在区域。
其中,所述池化层取最大值的函数,全连接层设计有一个随机函数,范围为(0,1],代表全连接层神经元参与计算的比例,当其值为1时全部神经元参与计算。
进一步地,所述卷积神经网络B可分解为通道卷积和块卷积。所述通道卷积的计算量为C=D×D×3×3×3,对数据进行一次规范化操作,采用修正线性单元函数ReLU来进行规范化;所述块卷积的计算量为C=D×D×1×1,D×D为输入图像的大小。
进一步地,所述修正线性单元函数ReLU为:
Figure BDA0002170219840000021
其中,X为每一个卷积层和池化层的输出结果。
本发明提供的技术方案的有益效果是:
1、本发明仅需一个单目摄像机采集目标物体图像,通过训练基于深度学习的神经网络模型,结合计算机视觉中的图像处理技术,识别图像目标物体,根据相机的移动轨迹以及相对运动量,确定目标物体的准确位置,再通过可分解卷积神经网络计算目标物体的姿态,然后控制机器人的机械臂对目标物体进行精准抓取;
2、本发明使用的设备简单,可以降低生产成本;同时提高在生产流水线上对于残次品的识别率以及抓取准确率,提高生产效率。
附图说明
图1为基于视觉深度学习特征的机器人机械手检测及抓取方法的流程图;
图2为目标物体图像以及相机移动的结构示意图;
图3为三角测量示意图;
图4为通道卷积、规范化操作的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
实施例1
现有技术中的机器人机械手需要安装多种传感器,进行传感信息融合,以至于消耗成本高,但算法精准度低,造成机器人机械手在工作过程中的抓取失败。
针对以上问题,本发明实施例提出了一种基于视觉深度学习特征的机器人机械手检测及抓取方法,这种方法属于多自由度机械手控制领域,本实施例由单目相机采集RGB图像,将关键帧图像分割成若干区域,使其适宜输入卷积神经网络中,经过卷积神经网络处理,识别出目标物体并找到目标物体所在的区域。
根据相机在拍摄两帧照片时的相对运动推算出目标的位置以及与机械手之间的距离。将相邻关键帧图像放入可分解卷积神经网络,与标准图像进行匹配,对关键帧图像进行一定角度的旋转,找到匹配率最高时的旋转角度。最后,以机械手末端为坐标原点建立机械臂坐标系,根据计算的角度值确定目标位姿。
实施例2
一种基于视觉深度学习特征的机器人机械手检测及抓取方法,该方法应用于基于深度学习特征的机器人机械手抓取设备中,包括以下步骤:
需要一个单目相机采集一系列RGB图像,从中选取关键帧图像,并将关键帧图像切分成多个区域,放入卷积神经网络中,根据识别的目标类别选择抓取的目标区域。
相机位于机械手末端,可根据机械手运行的轨迹以及相对运动量推算出目标物体的准确位置,以及机械手与目标物体之间的距离。
将单目相机获取的相邻关键帧图像与目标物体的标准图像作为神经网络的输入进行匹配,将关键帧图像进行某一角度的旋转,使其与标准图像的匹配率最高。根据找到匹配率最高时的角度确定目标物体的位姿,便于下一步调整机械手的抓取姿态。
本实施例中涉及到两个神经网络,分别为卷积神经网络A和可分解卷积神经网络B。
本实施例的操作步骤如下:
S1:进行初始化;
其中,该步骤具体为:配置好机器人机械手的相机,将机械臂放置在合适的位置,便于相机采集图像。
S2:获取单目相机RGB彩色图像,采用帧间差方法选取一系列关键帧图像;
本发明的实施例使用单目相机获取目标物体的一系列高分辨率RGB图像,RGB图像不仅包含目标物体的颜色信息还有目标物体的纹理信息,采用帧间差方法选取一系列关键帧。
帧间差方法采集关键帧的过程如下:
对时间上连续的两帧进行差分计算,两帧间的对应像素相减,取绝对值,若绝对值大于阈值,则取第二帧为关键帧,之后将所有关键帧图像统一处理为32*32的大小。
其中,阈值根据实际应用中的需要进行设定,本发明实施例对此不做限制。
S3:将关键帧图像切分成若干区域,其大小适宜放入卷积神经网络A中;
本发明实施例的步骤S2中,在两关键帧图像内设置滑动窗口,移动滑动窗口提取出目标区域,滑动窗口的大小即为候选目标区域的大小,使滑动窗口在关键帧图像上移动来找到目标物体的所在区域,候选目标区域大小即为卷积神经网络A的输入尺寸。
优选地,滑动窗口的尺寸是卷积神经网络A输入要求的尺寸,不需再进行放大或者缩小操作,减少计算量。
在步骤S3之前要设计一个卷积神经网络A,该神经网络的结构为输入层,卷积层,池化层,全连接层和输出层,在输出层输出目标物体在每个区域的评分,选取得分最高的区域为目标物体所在区域。
在此实施例中,卷积神经网络A输入的图像的大小为32*32,通道为3(RGB),滑动窗口的大小为24*24,滑动步长为2,因此可分为25个区域(5*5);该卷积神经网络的卷积层有64个神经元,卷积核大小为3*3,步长为1,初始值由随机函数产生,卷积时用0补充边界,使得到的图像规格和原来的图像一致。
池化层采用取最大值的函数,规格为2*2,步长为2。全连接层有1000个神经元,为减少过拟合,此处有一个随机函数,范围为(0,1],代表全连接层神经元参与计算的比例,当其值为1时1000个神经元全部参与计算。学习率为1e-4,输出25个区域在卷积神经网络中输出层的得分值,得分最高的区域为目标物体所在的区域。
将300张预处理好的图片集放入卷积神经网络A中,采用反向传播的方法训练该神经网络,用100张图片作为测试图片,保存训练后的卷积神经网络A中的所有权值。
S4:将预处理好的关键帧图像输入卷积神经网络A中,根据输出层的得分最高值所在的区域获得目标物体的所在区域。
S5:加载训练好的可分解卷积神经网络B;
在步骤S5之前需要进行的步骤还有:
S6:构建一个可分解卷积神经网络B。
其中,可分解卷积神经网络B将传统的卷积神经网络分解为通道卷积和块卷积。通道卷积即每个通道对应一个卷积核,块卷积是一般的卷积。本发明实施例通过可分解卷积神经网络B,简化了传统卷积神经网络,减少参数,加快了训练的速度。
参见图4,本发明实施例中需要相邻关键帧图像和标准图像进行匹配,传统全连接卷积神经网络计算量过大,因此使用可分解卷积神经网络。本发明实施例采用的可分解卷积神经网络B先对数据在三个通道上进行3×3通道卷积;如输入数据D×D×3,这里的3是指三个通道,那么通道卷积的计算量为C=D×D×3×3×3,然后对数据进行一次规范化操作,此操作采用修正线性单元函数ReLU来进行规范化。
修正线性单元函数ReLU公式如下:
Figure BDA0002170219840000051
再进行1×1的块卷积运算,块卷积的计算量为C=D×D×1×1;总计算量为=C+C,最后再进行一次规范化操作。
在此实施例中,卷积神经网络B输入的图像的大小和卷积神经网络A的滑动窗口大小相同,为24*24。
训练可分解卷积神经网络B;在训练时,根据反向传播至输入层的权重旋转图像的角度,再将旋转后的图像放入可分解卷积神经网络的输入层来训练,使得与标准图像匹配率最高,记录下此时图像旋转的角度;将500张图片集放入可分解卷积神经网络中,由于计算量仍然过大,此处采用梯度下降法对该神经网络进行训练,用100张图片作为测试图片,保存可分解卷积神经网络B中训练后的所有权值。
此处的标准图像为在以机械手末端为原点的世界坐标系下,旋转角度为0°时的目标物体的位姿图像。
S7:计算两关键帧图像目标物体中心点像素位置;
参见图2,M为目标物体的位置,A1、A2分别为两关键帧图像上目标物体中心像素所在行的中心位置,分别计算M与A1、A2的像素点个数,O1和O2分别为相机移动前后的位置,O2为即将采取抓取行为的机械手位置。
S8:根据两帧图像目标物体的位置以及相机的相对运动计算出目标物体的准确位置;
即,根据步骤S7中获得的两关键帧图像目标物体区域计算出目标物体中心点距离图像水平中心点的距离,根据相机在三维空间中的相对运动量计算出目标物体距离机械手的距离MO2
S9:根据步骤S8计算出目标物体在机械臂坐标系下的位置;
在标定目标物体中心像素点后,再计算图像水平中心位置,根据三角测量原理推算出图像点的深度信息,将目标物体的位置信息以及深度信息转化为以机械手末端为原点的世界坐标系下,确定要抓取目标的位置。
S10:将相邻关键帧图像以及标准图像输入训练好的可分解卷积神经网络,使得匹配率最高,记录下此时图像旋转的角度;
S11:根据步骤S10中计算的角度值确定目标物体的位姿。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于视觉深度学习特征的机器人机械手检测及抓取方法,其特征在于,所述方法包括以下步骤:
通过单目相机采集RGB图像从中选取关键帧图像,将关键帧图像切分成多个区域输入卷积神经网络A中,根据识别的目标类别选择抓取的目标区域;
将关键帧图像与目标区域的标准图像作为卷积神经网络B的输入进行匹配,将关键帧图像进行某一角度的旋转,使其与标准图像的匹配率最高;
根据匹配率最高时的角度确定目标区域的位姿,调整机械手的抓取姿态;
其中,所述卷积神经网络A的结构为:输入层,卷积层,池化层,全连接层和输出层,
输出层输出目标区域在每个区域的评分,选取得分最高的区域为目标物体所在区域;
所述池化层取最大值的函数,全连接层设计有一个随机函数,范围为(0,1],代表全连接层神经元参与计算的比例,当其值为1时全部神经元参与计算;
所述卷积神经网络B可分解为通道卷积和块卷积;
所述通道卷积的计算量为C=D×D×3×3×3,对数据进行一次规范化操作,采用修正线性单元函数ReLU来进行规范化;所述块卷积的计算量为C=D×D×1×1,D×D为输入图像的大小。
2.根据权利要求1所述的一种基于视觉深度学习特征的机器人机械手检测及抓取方法,其特征在于,所述修正线性单元函数ReLU为:
Figure FDA0003542054330000011
其中,X为每一卷积层和池化层的输出结果。
CN201910760908.5A 2019-08-16 2019-08-16 基于视觉深度学习特征的机器人机械手检测及抓取方法 Active CN110509273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910760908.5A CN110509273B (zh) 2019-08-16 2019-08-16 基于视觉深度学习特征的机器人机械手检测及抓取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910760908.5A CN110509273B (zh) 2019-08-16 2019-08-16 基于视觉深度学习特征的机器人机械手检测及抓取方法

Publications (2)

Publication Number Publication Date
CN110509273A CN110509273A (zh) 2019-11-29
CN110509273B true CN110509273B (zh) 2022-05-06

Family

ID=68626472

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910760908.5A Active CN110509273B (zh) 2019-08-16 2019-08-16 基于视觉深度学习特征的机器人机械手检测及抓取方法

Country Status (1)

Country Link
CN (1) CN110509273B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310637B (zh) * 2020-02-11 2022-11-11 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111360822B (zh) * 2020-02-24 2022-10-28 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于视觉的机械手抓取空间正方体方法
CN111360862B (zh) * 2020-02-29 2023-03-24 华南理工大学 一种基于卷积神经网络的生成最佳抓取位姿的方法
CN111618848B (zh) * 2020-04-28 2022-08-12 平安科技(深圳)有限公司 多机器人的协作控制方法、装置及计算机设备
CN111783537A (zh) * 2020-05-29 2020-10-16 哈尔滨莫迪科技有限责任公司 一种基于目标检测特征的两阶段快速抓取检测方法
CN111844101B (zh) * 2020-07-31 2022-09-06 中国科学技术大学 一种多指灵巧手分拣规划方法
CN112734727A (zh) * 2021-01-11 2021-04-30 安徽理工大学 一种基于改进深度神经网络的苹果采摘方法
CN113172629B (zh) * 2021-05-06 2023-08-01 清华大学深圳国际研究生院 一种基于时序触觉数据处理的物体抓取方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107689063A (zh) * 2017-07-27 2018-02-13 南京理工大学北方研究院 一种基于天花板图像的机器人室内定位方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108161931A (zh) * 2016-12-07 2018-06-15 广州映博智能科技有限公司 基于视觉的工件自动识别及智能抓取系统
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN108648233A (zh) * 2018-03-24 2018-10-12 北京工业大学 一种基于深度学习的目标识别与抓取定位方法
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN109901207A (zh) * 2019-03-15 2019-06-18 武汉大学 一种北斗卫星系统与图像特征结合的高精度室外定位方法
JP2019133658A (ja) * 2018-01-31 2019-08-08 株式会社リコー 測位方法、測位装置及び読取り可能な記憶媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108161931A (zh) * 2016-12-07 2018-06-15 广州映博智能科技有限公司 基于视觉的工件自动识别及智能抓取系统
CN107689063A (zh) * 2017-07-27 2018-02-13 南京理工大学北方研究院 一种基于天花板图像的机器人室内定位方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
JP2019133658A (ja) * 2018-01-31 2019-08-08 株式会社リコー 測位方法、測位装置及び読取り可能な記憶媒体
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108648233A (zh) * 2018-03-24 2018-10-12 北京工业大学 一种基于深度学习的目标识别与抓取定位方法
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN109901207A (zh) * 2019-03-15 2019-06-18 武汉大学 一种北斗卫星系统与图像特征结合的高精度室外定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘正琼 等.基于机器视觉的超视场工件识别抓取系统.《机器人》.2018, *

Also Published As

Publication number Publication date
CN110509273A (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
CN110509273B (zh) 基于视觉深度学习特征的机器人机械手检测及抓取方法
CN108280856B (zh) 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN112270249B (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
CN107186708B (zh) 基于深度学习图像分割技术的手眼伺服机器人抓取系统及方法
CN109685141B (zh) 一种基于深度神经网络的机器人物品分拣视觉检测方法
CN110211180A (zh) 一种基于深度学习的机械臂自主抓取方法
CN112070818A (zh) 基于机器视觉的机器人无序抓取方法和系统及存储介质
CN106780631A (zh) 一种基于深度学习的机器人闭环检测方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
CN113065546A (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN112045676A (zh) 一种基于深度学习的机器人抓取透明物体的方法
CN114952809A (zh) 工件识别和位姿检测方法、系统及机械臂的抓取控制方法
CN113222940B (zh) 一种基于rgb-d图像和cad模型的机器人自动抓取工件方法
CN110969660A (zh) 一种基于三维立体视觉和点云深度学习的机器人上料系统
CN107610086A (zh) 一种基于仿生复眼结构的工业并联机器人快速视觉检测算法
CN111709982B (zh) 一种动态环境三维重建方法
CN114882109A (zh) 一种面向遮挡、杂乱场景下的机器人抓取检测方法及系统
CN115816460A (zh) 一种基于深度学习目标检测与图像分割的机械手抓取方法
CN210386980U (zh) 一种基于机器视觉的冷床智能控制系统
CN112288815A (zh) 一种目标模位置测量方法、系统、存储介质及设备
CN115147488A (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
CN117021099A (zh) 一种面向任意物体基于深度学习和图像处理的人机交互方法
Jeong et al. Mask-RCNN based object segmentation and distance measurement for Robot grasping
CN115861780B (zh) 一种基于yolo-ggcnn的机械臂检测抓取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20191129

Assignee: FITOW (TIANJIN) DETECTION TECHNOLOGY CO.,LTD.

Assignor: TIANJIN University OF TECHNOLOGY AND EDUCATION (CHINA VOCATIONAL TRAINING INSTRUCTOR TRAINING CENTER)

Contract record no.: X2024980004379

Denomination of invention: Detection and Grasping Method of Robot Manipulator Based on Visual Deep Learning Features

Granted publication date: 20220506

License type: Common License

Record date: 20240412

Application publication date: 20191129

Assignee: TIANJIN HUIZHU PETROLEUM EQUIPMENT TECHNOLOGY Co.,Ltd.

Assignor: TIANJIN University OF TECHNOLOGY AND EDUCATION (CHINA VOCATIONAL TRAINING INSTRUCTOR TRAINING CENTER)

Contract record no.: X2024980004373

Denomination of invention: Detection and Grasping Method of Robot Manipulator Based on Visual Deep Learning Features

Granted publication date: 20220506

License type: Common License

Record date: 20240412