CN115019202A - 一种应用于服务型移动机械臂的分步式抓取检测方法 - Google Patents

一种应用于服务型移动机械臂的分步式抓取检测方法 Download PDF

Info

Publication number
CN115019202A
CN115019202A CN202210589187.8A CN202210589187A CN115019202A CN 115019202 A CN115019202 A CN 115019202A CN 202210589187 A CN202210589187 A CN 202210589187A CN 115019202 A CN115019202 A CN 115019202A
Authority
CN
China
Prior art keywords
grabbing
detection
target
scene
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210589187.8A
Other languages
English (en)
Inventor
陈国华
庚子超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN202210589187.8A priority Critical patent/CN115019202A/zh
Publication of CN115019202A publication Critical patent/CN115019202A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

随着深度学习的发展,移动机械臂的抓取检测在工业自动化与家用生活领域得到了广泛的发展和应用。当前的抓取检测方法大多针对单一目标,对于实际应用中多模态目标的抓取成功率较难保证。针对此类问题,本发明将目标识别算法(Yolov5)和全卷积抓取检测算法(GDFCN)进行了结合与改进,提出一种应用于服务型移动机械臂的分步式抓取检测方法。为克服单一抓取检测不能区分固有和可操作物体的缺陷,首先执行目标检测,其次将识别框映射下的局部深度图像输入抓取检测网络,将可行的机器人抓取检测表示为菱形抓取,形成一种新的分步式级联抓取算法。经过实验,此发明方法在满足实时性的要求下,可以有效的完成物体分类任务,并增强了抓取检测的稳定性和准确度。

Description

一种应用于服务型移动机械臂的分步式抓取检测方法
技术领域
本发明涉及计算机视觉和服务型移动机械臂智能抓取领域,特别是涉及一种应用于无人化生物检测实验室场景下移动机械臂的分步式抓取检测方法。
背景技术
随着全球新冠肺炎疫情爆发和不断地反复,生物科学领域获得了全世界研究学者的特别关注。由于需要大量的人工实验和海量的数据分析,较低的自动化渗透率成为限制该行业发挥更大效能的主要因素。机械臂作为自动化关键领域,目前正处于快速发展的爬坡阶段。为了适应卫生安全等领域的不同工作要求,机械臂必须变得越来越智能。其中服务型移动机械臂能否自主完成智能抓取任务被赋予了更高的期望,成为各方关注的重点问题。如何将服务型移动机械臂在医疗服务领域完成推广,利用更多的服务型移动机械臂去代替人工,完成各项复杂的生物实验任务成为了亟待解决的问题。无人化生物检测实验室项目也就应运而生。利用机器代人不但可以缩短检测时间,还可以提高安全系数,避免对医护人员造成接触感染。
为了能够在无人化生物检测实验室此类现实中无训练场景下进行良好的移动任务和抓取操作,服务型移动机器人应具备以下功能:(1)对复杂场景内的各类物体都有所感知,并且要求这个感知实时性能要好,对静止和移动的物体都有良好的识别能力。(2)针对感受野内所有的物体计算抓取位姿,同时区分开场景内固有物体和待操作物体,只对感兴趣的物体进行抓取操作。(3)在不稳定的动态环境中依然可以正常工作,此类环境主要包括:外界光线的强弱变化,工作空间场景不断变化、传感器受噪声及误差影响、机器人自身的扰动和控制不精确的影响。
发明内容
为了克服上述已有技术的缺陷,解决无人化生物检测实验室服务型移动机械臂面临的物体抓取和操作等问题。本发明的目的是,提出一种应用于服务型移动机械臂的分步式识别抓取检测方法。通过下述技术方案实现:
步骤S1,依据无人化生物检测检测实验室常见仪器,分别构建目标检测和抓取检测的数据集,其中用于目标检测数据集以彩色图像为主,抓取检测的数据集以深度图像为主。
步骤S2,构建抓取检测神经网络,设计的全卷积抓取检测算法(GDFCN)是一种以单张物体深度图像作为神经网络输入,用于在深度图像上实时生成抓取位姿
步骤S3,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体并完成分类的同时排除场景内的不应该被操作的固有物体,输出边界框信息。
步骤S4,利用边界框的映射将目标识别算法(Yolov5)和全卷积抓取检测算法(GDFCN)进行结合与改进,提出一种适用于无训练场景下陌生物体的机械臂实时抓取检测算法。
进一步地,所述步骤S1的具体过程如下:
S1-1,利用借助Python脚本在各类搜索引擎图片库中获取目标图像和第二种方式基于无人化生物实验室真实场景进行人工拍摄,采用单一拍摄和组合拍摄相结合的方式。
S1-2,根据人类通常的抓取经验在数据集待抓取目标上标注可以抓取的区域,在这个区域内所有的点都是可抓取点,包含相同的抓取角度和宽度。每个抓点都对应一种菱形抓取表示。此外增加了抓取置信度表示来执行抓取的概率。
S1-3,针对无人化生物检测实验室下常用的实验器材进行拍摄。将实验器材预定义共分为20个类别。采用LabelImg完成标注工作。对于数据集进行Yolo格式的标注。
进一步地,所述步骤S2的具体过程如下:
S2-1,为了保证物体深度信息的可应用性,必须先对深度图像进行填充修复。
S2-2,GDFCN评估将进行修复处理和裁剪缩放之后的深度图像输入到GDFCN神经网络模型之中。同时使用高斯滤波器对抓取置信度进行过滤处理和预处理操作。
S2-3,通过GDFCN对深度图像上的评估,产生的动态抓取效果热力图grasp map。将最佳抓取点在ROS系统下以Topic的形式进行发布。
进一步地,所述步骤S3的具体过程如下:
S3-1,为了满足本发明要求移动机械臂抓取系统实时性能好,可以满足动态抓取的特点,尝试多种的识别检测算法,通过准确度和处理帧率的比较,选出适合本发明方法应用的最优算法Yolov5s。
S3-2,利用深度相机完成对场景内物体信息的实时采集。为了避免场景内噪声的干扰,使用相应的滤波算法完成预处理工作。进而进行缩放剪裁处理,满足Yolov5s目标检测算法的输入要求。
S3-3,利用目标检测算法完成场景内目标物体的识别与分类,同时移除场景内无法抓取的固有物体。
进一步地,所述步骤S4的具体过程如下:
S4-1,利用深度相机完成对场景内物体视觉信息的实时采集。为了避免场景内噪声的干扰,完成预处理。进而进行缩放剪裁处理,满足Yolo v5s目标检测算法的输入要求。
S4-2,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体的同时排除场景内的不应该被机器人操作的固有物体,直接生成边界框信息,包括边界框两角的坐标信息,从而确定识别框高度宽度和中心位置。
S4-3,通过ROS控制系统下的service模块选择待抓取目标的种类,如果没有出现待抓取目标,则直接对整张深度图像完成抓取检测,选择置信度最高的抓取点,执行抓取任务,完成对其余物体的去除工作,直到目标物体出现在视野中。
S4-4,利用二阶段目标检测的结果将边界框的位置信息映射到深度图像之上。利用映射的复选框为深度图像重新建立约束,通过目标检测标签,如果约束中只包含感兴趣的对象,标记为正确边界框,进行裁剪操作,生成过滤后的局部深度图像。
S4-5,对局部深度图像进行填充,将过滤后的局部深度图像的尺寸统一为256×256像素。进而输入到训练后的网络之中,在局部深度图像上迅速产生像素级的的抓取位姿预测,主要包括抓取置信度,以及抓取点的像素坐标,夹持器旋转角度和抓取宽度。
为克服单一抓取检测不能区分场景内固有物体和可操作物体的缺陷,本文方法首先采用Yolo v5执行目标检测,然后将目标识别框映射下的局部深度图像输入进轻量级的全卷积神经网络中,将可行的机器人抓取表示为菱形抓取,形成一种新的分步式级联抓取算法。
本发明的优点:
本发明方法对比已有技术,能够辅助机械臂实现更快速稳定的识别和抓取操作,在满足实时性的要求下,可以有效的完成物体分类任务,并增强了抓取检测的稳定性和准确度。
附图说明
图1为GDFCN上采样阶段网络示意图
图2为GDFCN抓取检测神经网络下采样阶段示意图
图3为神经网络采用的跳级连接策略
图4为分步式视觉检测算法工作原理图
图5为仿真环境下的抓握流程图
图6为真实场景下基于该方法的抓取流程图
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及仿真环境和真实场景下具体的实施方式对上述技术方案进行详细的说明。
步骤S1,依据无人化生物检测实验室常见仪器,利用三维传感器构建目标检测和抓取检测的数据集,前者以彩色图像为主,后者以深度图像为主。
步骤S2,构建如图1和图2所示抓取检测神经网络,设计的全卷积抓取检测算法(GDFCN)是一种以单张物体深度图像作为神经网络输入,用于在深度图像上实时生成抓取位姿,采用图3所示的跳级连接策略。
步骤S3,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体并完成分类的同时排除场景内的不应该被操作的固有物体,输出边界框信息。
步骤S4,利用边界框的映射将目标识别算法(Yolov5)和全卷积抓取检测算法(GDFCN)进行结合与改进,提出一种适用于无训练场景下陌生物体的机械臂实时抓取检测算法。
进一步地,所述步骤S1的具体过程如下:
S1-1,借助Python脚本在各类搜索引擎图片库中获取目标图像以及基于无人化生物实验室真实场景进行人工拍摄,采用单一拍摄和组合拍摄相结合的方式。
S1-2,根据人类通常的抓取经验在数据集待抓取目标上标注可以抓取的区域,区域内所有的点都是可抓取点,拥有相同的抓取角度和宽度。每个抓点都对应一种菱形抓取表示。此外增加了抓取置信度表示来执行抓取的概率。
S1-3,针对无人化生物检测实验室下常用的实验器材进行拍摄。将实验器材预定义共分为20个类别。由于数据集很大,为了节省效率,采用LabelImg完成标注工作。对于数据集进行Yolo格式的标注
进一步地,所述步骤S2的具体过程如下:
S2-1,为了保证物体深度信息的可应用性,必须先对深度图像进行填充修复。
S2-2,GDFCN评估将进行修复处理和裁剪缩放之后的深度图像输入到GDFCN神经网络模型之中。同时使用高斯滤波器对抓取置信度进行过滤处理。作为一种线性滤波方式,其核心思想是借助高斯二维分步函数作为滤波器中的模板系数,进行预处理操作。
S2-3,通过GDFCN对深度图像上的评估,产生的动态抓取效果热力图grasp map。
进一步地,所述步骤S3的具体过程如下:
S3-1,为了满足本发明要求移动机械臂抓取系统实时性能好,可以满足动态抓取的特点,尝试了很多种的识别检测算法,通过准确度和处理帧率的比较,选出适合本发明应用的最优算法Yolov5s。
S3-2,利用深度相机完成对场景内物体信息的实时采集。为了避免场景内噪声的干扰,使用相应的滤波算法完成预处理工作。进而进行缩放剪裁处理,满足Yolov5s目标检测算法的输入要求。
S3-3,利用目标检测算法完成场景内目标物体的识别与分类。
进一步地,所述步骤S4分步式级联抓取检测算法的整体工作流程如图4所示,具体过程如下:
S4-1,利用深度相机完成对场景内物体视觉信息的实时采集。为了避免场景内噪声的干扰,完成预处理。进而进行缩放剪裁处理,满足Yolo v5s目标检测算法的输入要求。
S4-2,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体的同时排除场景内的不应该被机器人操作的固有物体。生成边界框信息,包括边界框两角的坐标信息,从而确定识别框高度宽度和中心位置。
S4-3,通过ROS控制系统下的service模块选择待抓取目标的种类,选择置信度最高的抓取点,执行抓取任务,完成对其余物体的去除工作,直到目标物体出现在视野中。仿真环境下的操作流程如图5所示。
S4-4,利用二阶段目标检测的结果将边界框的位置信息映射到深度图像之上。利用映射的复选框为深度图像重新建立约束,通过目标检测标签,标记目标边界框,进行裁剪操作,生成过滤后的局部深度图像。
S4-5,对局部深度图像进行填充,将过滤后的局部深度图像的尺寸统一为256×256像素。进而输入到训练后的网络之中,在局部深度图像上迅速产生像素级的的抓取位姿预测,主要包括抓取置信度,以及抓取点的像素坐标,夹持器旋转角度和抓取宽度。红色的部分代表抓取置信度较高的峰值点,绿色圆点代表通过GDFCN网络模型评估出来的最佳抓取点,该像素点的抓取置信度最高。
S4-6,在ROS系统中以Topic的形式输出该点的位置信息,以及对应的抓取角度和宽度,作为图像空间下的最佳抓取位姿,用于后续机械臂抓取任务。整体机械臂抓取流程如图6所示。

Claims (6)

1.一种应用于服务型移动机械臂的分步式抓取检测方法,整体方法包含以下步骤:
步骤S1,依据无人化生物检测检测实验室常见仪器,分别构建目标检测和抓取检测的数据集,其中用于目标检测数据集以彩色图像为主,抓取检测的数据集以深度图像为主;
步骤S2,构建抓取检测神经网络,设计的全卷积抓取检测算法(GDFCN)是一种以单张物体深度图像作为神经网络输入,用于在深度图像上实时生成像素级的抓取位姿;
步骤S3,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体并完成分类的同时排除场景内的不应该被操作的固有物体,输出边界框信息;
步骤S4,利用边界框的映射将目标识别算法(Yolov5)和全卷积抓取检测算法(GDFCN)进行结合与改进,提出一种适用于无训练场景下陌生物体的机械臂实时抓取检测算法。
2.根据权利要求1所述的应用于服务型移动机械臂的分步式抓取检测方法,所述步骤S1具体为:
S1-1,利用Python脚本在各类搜索引擎图片库中获取目标图像以及基于无人化生物实验室真实场景进行人工拍摄两种方法,采集目标物体的数据集图像;
S1-2,根据人类的抓取经验在数据集待抓取目标上标注可以抓取的区域,在这个区域内所有的点包含相同的抓取角度和宽度,每个抓点都对应一种菱形抓取表示,此外增加了抓取置信度表示来执行抓取的概率;
S1-3,针对无人化生物检测实验室下常用的实验器材进行拍摄。将实验器材预定义共分为20个类别,由于数据集很大,为了节省效率,采用LabelImg完成标注工作,对于数据集进行Yolo格式的标注。
3.根据权利要求1所述的应用于服务型移动机械臂的分步式抓取检测方法,所述步骤S2搭建GDFCN抓取检测神经网络的过程为:
S2-1,通过三维传感器采集视野内的深度图像,进行填充修复,保证物体深度信息的可应用性;
S2-2,将进行修复处理和裁剪缩放之后的深度图像输入到GDFCN神经网络模型之中,同时使用高斯滤波器对抓取置信度进行过滤处理,全卷积神经网络整体采用3个上采样卷积核和3个下采样卷积核跳级连接的模式,卷积核的大小相互对应;
S2-3,通过GDFCN对深度图像上的评估,产生的动态抓取效果热力图grasp map,将最佳抓取点在ROS系统下以Topic的形式进行发布。
4.根据权利要求1所述的应用于服务型移动机械臂的分步式抓取检测方法,所述步骤S3利用Yolo v5目标检测算法作为抓取检测的先验工作具体过程为:
S3-1,为了满足本发明要求移动机械臂抓取系统实时性能好,可以满足动态抓取的特点,尝试多种的识别检测算法,通过准确度和处理帧率的比较,选出适合本发明应用的最优算法Yolov5s;
S3-2,利用深度相机完成对场景内物体信息的实时采集,为了避免场景内噪声的干扰,使用相应的滤波算法完成预处理工作,进而进行缩放剪裁处理,满足Yolov5s目标检测算法的输入要求;
S3-3,利用目标检测算法完成场景内目标物体的识别与分类,同时移除场景内无法移除的固有物体。
5.根据权利要求1所述的应用于服务型移动机械臂的分步式抓取检测方法,所述步骤S4分步式级联识别抓取检测的整体流程为:
S4-1,利用深度相机完成对场景内物体视觉信息的实时采集,为了避免场景内噪声的干扰,完成预处理,进而进行缩放剪裁处理,满足Yolo v5s目标检测算法的输入要求;
S4-2,利用优化过后的Yolo v5s目标检测算法分析预处理过后的RGB图像,识别待抓取物体的同时排除场景内的不应该被机器人操作的固有物体,生成边界框端点的坐标信息;
S4-3,通过ROS控制系统下的service模块选择待抓取目标的种类,如果没有出现待抓取目标,则直接对整张深度图像完成抓取检测,选择置信度最高的抓取点,执行抓取任务,完成对其余物体的去除工作;
S4-4,利用目标检测的结果将边界框的位置信息映射到深度图像之上,利用映射的复选框为深度图像重新建立约束,通过目标检测标签,将目标对象标记为正确边界框,生成过滤后的局部深度图像;
S4-5,对局部深度图像进行填充,将过滤后的局部深度图像的尺寸统一为256×256像素,进而输入到训练后的网络之中,在局部深度图像上迅速产生像素级的的抓取位姿预测,主要包括抓取置信度,抓取点的像素坐标,夹持器旋转角度和抓取宽度。
6.为克服单一抓取检测不能区分场景内固有物体和可操作物体的缺陷,本文方法首先采用Yolo v5执行目标检测,然后将目标识别框映射下的局部深度图像输入进轻量级的全卷积神经网络中,将可行的机器人抓取检测表示为菱形抓取,形成一种新的应用于服务型移动机械臂的分步式级联抓取检测算法。
CN202210589187.8A 2022-05-26 2022-05-26 一种应用于服务型移动机械臂的分步式抓取检测方法 Pending CN115019202A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210589187.8A CN115019202A (zh) 2022-05-26 2022-05-26 一种应用于服务型移动机械臂的分步式抓取检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210589187.8A CN115019202A (zh) 2022-05-26 2022-05-26 一种应用于服务型移动机械臂的分步式抓取检测方法

Publications (1)

Publication Number Publication Date
CN115019202A true CN115019202A (zh) 2022-09-06

Family

ID=83070347

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210589187.8A Pending CN115019202A (zh) 2022-05-26 2022-05-26 一种应用于服务型移动机械臂的分步式抓取检测方法

Country Status (1)

Country Link
CN (1) CN115019202A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115530092A (zh) * 2022-10-17 2022-12-30 仲恺农业工程学院 基于深度神经网络的双机械臂肉鸽饲喂系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115530092A (zh) * 2022-10-17 2022-12-30 仲恺农业工程学院 基于深度神经网络的双机械臂肉鸽饲喂系统
CN115530092B (zh) * 2022-10-17 2023-08-18 仲恺农业工程学院 基于深度神经网络的双机械臂肉鸽饲喂系统

Similar Documents

Publication Publication Date Title
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN109800864B (zh) 一种基于图像输入的机器人主动学习方法
CN111553949B (zh) 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN108656107B (zh) 一种基于图像处理的机械臂抓取系统及方法
CN109816725A (zh) 一种基于深度学习的单目相机物体位姿估计方法及装置
Lin et al. Using synthetic data and deep networks to recognize primitive shapes for object grasping
CN109461184B (zh) 一种机器人机械臂抓取物体的抓取点自动定位方法
CN115330734A (zh) 一种基于三维目标检测和点云缺陷补全的自动化机器人补焊系统
CN109145836A (zh) 基于深度学习网络和卡尔曼滤波的船只目标视频检测方法
CN112926503B (zh) 一种基于矩形拟合的抓取数据集自动生成方法
CN112163447B (zh) 基于Attention和SqueezeNet的多任务实时手势检测和识别方法
CN112053441B (zh) 一种室内鱼眼图像的全自动布局恢复方法
CN114155610B (zh) 基于上半身姿态估计的面板装配关键动作识别方法
CN113297956B (zh) 一种基于视觉的手势识别方法及系统
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN114119753A (zh) 面向机械臂抓取的透明物体6d姿态估计方法
CN115147488B (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN114882109A (zh) 一种面向遮挡、杂乱场景下的机器人抓取检测方法及系统
CN115019202A (zh) 一种应用于服务型移动机械臂的分步式抓取检测方法
CN113762159B (zh) 一种基于有向箭头模型的目标抓取检测方法及系统
CN114331961A (zh) 用于对象的缺陷检测的方法
CN112288809B (zh) 一种用于多物体复杂场景的机器人抓取检测方法
CN115861780B (zh) 一种基于yolo-ggcnn的机械臂检测抓取方法
Wang et al. Unsupervised representation learning for visual robotics grasping
CN117037062A (zh) 一种目标物体抓取方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination