CN110046626B - 基于pico算法的图像智能学习动态跟踪系统及方法 - Google Patents

基于pico算法的图像智能学习动态跟踪系统及方法 Download PDF

Info

Publication number
CN110046626B
CN110046626B CN201910264649.7A CN201910264649A CN110046626B CN 110046626 B CN110046626 B CN 110046626B CN 201910264649 A CN201910264649 A CN 201910264649A CN 110046626 B CN110046626 B CN 110046626B
Authority
CN
China
Prior art keywords
target
image
pico
mechanical arm
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910264649.7A
Other languages
English (en)
Other versions
CN110046626A (zh
Inventor
马宏宾
罗嫚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gongji Intelligent Technology Suzhou Co ltd
Original Assignee
Gongji Intelligent Technology Suzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gongji Intelligent Technology Suzhou Co ltd filed Critical Gongji Intelligent Technology Suzhou Co ltd
Priority to CN201910264649.7A priority Critical patent/CN110046626B/zh
Publication of CN110046626A publication Critical patent/CN110046626A/zh
Application granted granted Critical
Publication of CN110046626B publication Critical patent/CN110046626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明基于PICO算法的图像智能学习动态跟踪系统,包括:设置于机械臂末端上的局部随动摄像头;基于局部随动摄像头的图像采集模块;基于QT界面的图像智能学习模块;基于图像反馈的机械臂控制模块;对未知目标PICO级联解析器的在线训练模块;对动态目标的检测定位和实时跟踪模块;基于图像动态目标位置反馈的机械臂闭环控制模块。通过在线采样、智能学习、检测跟踪和反馈控制来实现机械臂对动态目标的实时跟踪,最大化提高机械臂的作业能力和灵活度,同时实现机械臂对生产对象的在线学习、实时跟踪和动态抓取等任务,实现机械臂抓取的智能抓取。

Description

基于PICO算法的图像智能学习动态跟踪系统及方法
技术领域
本发明涉及智能控制技术及智能控制系统技术领域,具体的,其展示一种基于PICO算法的图像智能学习动态跟踪系统及方法。
背景技术
近些年来国内各大工厂不断引进自动化生产线,使用工业机械臂来解放人工劳动力。但是目前绝大多数机械臂依旧基于人工试教的模式来进行定点工作,调试周期长、工作模式固定、无法在线学习,缺乏智能化的视觉伺服系统。
另一方面,随着深度学习和神经网络的快速发展,计算机视觉技术也在突飞猛进,其研究方向主要包括:图像分类、目标检测、目标跟踪和语义分割等。目前随着视觉技术的理论研究不断深入,视觉领域涌现了诸多前沿的算法技术,但这些算法往往只在固定的大型数据集上进行过理论测试,缺乏实际应用和产业化落地。因此将视觉技术与工业生产相结合,改善传统机械臂的应用局限性,是促使传统制造业向智能化转型的重要途径,这对于各大加工行业都将具有很大的应用前景。
在工业生产线中,利用机械臂来实现生产对象的抓取、搬运和装箱是十分普遍的任务需求。为了最大化提高机械臂的作业能力和灵活度,将摄像头固定于机械臂末端形成随动效果,并将图像高效的智能学习算法与机械臂闭环控制系统相结合,可实现机械臂对生产对象的在线学习、实时跟踪和动态抓取等任务,以提高传统工业生产的智能化程度。
因此,有必要提供一种基于PICO算法的图像智能学习动态跟踪系统及方法来实现上述目的。
发明内容
本发明的目的之一是提供一种基于PICO算法的图像智能学习动态跟踪系统,其通过在线采样、智能学习、检测跟踪和反馈控制来实现机械臂对动态目标的实时跟踪,最大化提高机械臂的作业能力和灵活度,同时实现机械臂对生产对象的在线学习、实时跟踪和动态抓取等任务,实现机械臂抓取的智能抓取。
技术方案如下:
一种基于PICO算法的图像智能学习动态跟踪系统,包括:
设置于机械臂末端上的局部随动摄像头;
基于局部随动摄像头的图像采集模块;
基于QT界面的图像智能学习模块;
基于图像反馈的机械臂控制模块;
对未知目标PICO级联解析器的在线训练模块;
对动态目标的检测定位和实时跟踪模块;
基于图像动态目标位置反馈的机械臂闭环控制模块。
进一步的,像采集模块基于USB接口与PC中图像算法模块连通,PC基于网口和TCP/IP协议实时规划机械臂的运动控制模块。
本发明的目的之二是提供一种基于PICO算法的图像智能学习动态跟踪方法。
技术方案如下:
一种基于PICO算法的图像智能学习动态跟踪方法,包括如下步骤:
1)PICO级联解析器在线训练:
1-1)将待学习的单个目标放于视野中,并对其进行采样,采用包括进行图像采样及获取前景目标在图像中所处的位置限定框;
1-2)已采样图像在线进行数据增强:通过学习界面进行数据增强,数据增强包括:增强次数、缩放因子、平移因子、旋转角度、颜色变换、噪点添加、水平翻转和垂直翻转等选项,以满足对简单或复杂目标进行不同程度数据增强的需求;
1-3)进行在线训练以获取待学习目标所对应的PICO级联解析器:
构建回归决策树,树中每个节点基于图像两点间的强度值进行二元比较:
通过基于权重的最小二乘法来学习树节点参数:
基于GentleBoost算法来综合上述已学习的多棵决策树并获取提升树,此处所得到的提升树即为PICO级联解析器:
Ws=Ws·exp(-CsTk(Is)) (3);
Tk(Is)为回归树Tk遍历图像Is所得输出值;
2)动态目标实时跟踪:轮廓校正:
3)图像目标位置反馈,并进行机械臂闭环控制:
3-1)通过基于PICO算法捕获视野中动态目标的坐标位置,并将目标中心和视野中心的距离差值作为反馈值来对机械臂进行步进控制;
3-2)机械臂闭环控制控制中,先调用PICO算法来获取目标与视野中心的距离反馈值,后取该距离的一半作为步进距离来控制机械臂末端,循环执行直至目标中心与图像视野中心相重合,即对应实际系统中机械臂末端实时跟踪到动态目标中心处。
进一步的,步骤2)具体为:
2-1)轮廓校正:
2-1-1)基于PICO置信度阈值所获取的初步目标,尝试在各个目标的局部区域内提取有效轮廓,若能够提取到尺寸合理的有效轮廓则保留该初步目标,若不能则将其视作误判目标并删除;
2-1-2)对2-1-1)中所保留的候选目标,判断该目标中心与其所对应轮廓中心的距离值,当该中心距小于距离阈值时才保留目标并将目标中心点校正为轮廓中心点,否则排除无效目标。
进一步的,PICO级联解析器为通过基于回归决策树和GentleBoost增强算法综合获取。
进一步的,QT界面集成了诸多参数设置选项来对PICO目标检测算法进行微调,包括:滑窗尺寸、滑窗缩放因子和步进因子、置信度阈值、金字塔、旋转检测以及是否聚类。
进一步的,步骤1-1)中,获取目标限定框有自动和手动这两种模式:自动模式是通过目标分割和前景提取算法来自动获取视野中目标所在的位置限定框;而手动模式则是人为在Qt界面的画布上通过拖动鼠标来绘制目标矩形框。
与现有技术相比,本发明的有益效果在于:
1)实现了对未知目标进行在线采样、在线数据增强和在线训练的功能,使得工业机械臂具有在线学习的能力,大大扩展了机械臂的作业场景和作业能力;
2)采用PICO目标检测算法结合轮廓校正模块,先在全局搜索候选目标,而后在局部区域内利用有效轮廓来精确定位目标中心,实现了系统对视野中动态目标的实时检测和准确捕获,且具有较强的稳定性;
3)用随动摄像头,既省去了相机标定和坐标系转换等繁琐工作,又打破了全局摄像头的视野局限性,使得机械臂的作业灵活度大幅提高:
4)将图像智能学习算法、目标实时检测算法和机械臂运动控制系统这三者紧密结合,利用视觉伺服技术,基于目标中心和视野中心之间的动态距离反馈值来实现机械臂的闭环控制,增强了机械臂准确抓取生产线上动态目标的能力。
附图说明
图1为本发明的整体操作流程示意图;
图2为本发明的PICO在线训练流程图;
图3为本发明的机械臂实时跟踪动态目标流程图。
具体实施方式
实施例:
请参阅图1至图3,本实施例展示一种基于PICO算法的图像智能学习动态跟踪系统,包括:
设置于机械臂末端上的局部随动摄像头;
基于局部随动摄像头的图像采集模块;
基于QT界面的图像智能学习模块;
基于图像反馈的机械臂控制模块;
对未知目标PICO级联解析器的在线训练模块;
对动态目标的检测定位和实时跟踪模块;
基于图像动态目标位置反馈的机械臂闭环控制模块。
其中:
像采集模块基于USB接口与PC中图像算法模块连通,PC基于网口和TCP/IP协议实时规划机械臂的运动控制模块。
本实施例的实施步骤如下:
1)PICO级联解析器在线训练:
1-1)将待学习的单个目标放于视野中,并对其进行采样,采用包括进行图像采样及获取前景目标在图像中所处的位置限定框;
1-2)已采样图像在线进行数据增强:通过学习界面进行数据增强,数据增强包括:增强次数、缩放因子、平移因子、旋转角度、颜色变换、噪点添加、水平翻转和垂直翻转等选项,以满足对简单或复杂目标进行不同程度数据增强的需求;
1-3)进行在线训练以获取待学习目标所对应的PICO级联解析器:
构建回归决策树,树中每个节点基于图像两点间的强度值进行二元比较:
通过基于权重的最小二乘法来学习树节点参数:
基于GentleBoost算法来综合上述已学习的多棵决策树并获取提升树,此处所得到的提升树即为PICO级联解析器:
ws=ws·exp(-csTk(Is)) (3);
Tk(Is)为回归树Tk遍历图像Is所得输出值;
2)动态目标实时跟踪:
2-1)轮廓校正:
2-1-1)基于PICO置信度阈值所获取的初步目标,尝试在各个目标的局部区域内提取有效轮廓,若能够提取到尺寸合理的有效轮廓则保留该初步目标,若不能则将其视作误判目标并删除;
2-1-2)对2-1-1)中所保留的候选目标,判断该目标中心与其所对应轮廓中心的距离值,当该中心距小于距离阈值时才保留目标并将目标中心点校正为轮廓中心点,否则排除无效目标。
3)图像目标位置反馈,并进行机械臂闭环控制:
3-1)通过基于PICO算法捕获视野中动态目标的坐标位置,并将目标中心和视野中心的距离差值作为反馈值来对机械臂进行步进控制;
3-2)机械臂闭环控制控制中,先调用PICO算法来获取目标与视野中心的距离反馈值,后取该距离的一半作为步进距离来控制机械臂末端,循环执行直至目标中心与图像视野中心相重合,即对应实际系统中机械臂末端实时跟踪到动态目标中心处。
PICO级联解析器为通过基于回归决策树和GentleBoost增强算法综合获取。
QT界面集成了诸多参数设置选项来对PICO目标检测算法进行微调,包括:滑窗尺寸、滑窗缩放因子和步进因子、置信度阈值、金字塔、旋转检测以及是否聚类。
步骤1-1)中,获取目标限定框有自动和手动这两种模式:自动模式是通过目标分割和前景提取算法来自动获取视野中目标所在的位置限定框;而手动模式则是人为在Qt界面的画布上通过拖动鼠标来绘制目标矩形框。
与现有技术相比,本发明的有益效果在于:
1)实现了对未知目标进行在线采样、在线数据增强和在线训练的功能,使得工业机械臂具有在线学习的能力,大大扩展了机械臂的作业场景和作业能力;
2)采用PICO目标检测算法结合轮廓校正模块,先在全局搜索候选目标,而后在局部区域内利用有效轮廓来精确定位目标中心,实现了系统对视野中动态目标的实时检测和准确捕获,且具有较强的稳定性;
3)用随动摄像头,既省去了相机标定和坐标系转换等繁琐工作,又打破了全局摄像头的视野局限性,使得机械臂的作业灵活度大幅提高:
4)将图像智能学习算法、目标实时检测算法和机械臂运动控制系统这三者紧密结合,利用视觉伺服技术,基于目标中心和视野中心之间的动态距离反馈值来实现机械臂的闭环控制,增强了机械臂准确抓取生产线上动态目标的能力。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (5)

1.一种基于PICO算法的图像智能学习动态跟踪系统,包括:
设置于机械臂末端上的局部随动摄像头;基于局部随动摄像头的图像采集模块;基于QT界面的图像智能学习模块;基于图像反馈的机械臂控制模块;未知目标PICO级联解析器在线训练模块;动态目标的检测和动态跟踪模块;
基于图像动态目标位置反馈的机械臂闭环控制模块;
1)、PICO级联解析器在线训练模块:
1-1)、将待训练的单个目标的样本图像放于视野中,然后对所述样本图像进行在线采样和在线数据增强;所述数据增强包括:增强次数、缩放因子、平移因子、旋转角度、颜色变换、噪点添加、水平翻转和垂直翻转;
1-2)、获取该目标对应的PICO级联解析器文件,该文件以目标名称来命名保存在数据库中,基于该PICO级联解析器文件对步骤1-1)处理后的样本图像进行在线训练:
所述PICO级联解析器是由多棵回归决策树构成的级联结构的分类器,
利用经步骤1-2)处理后的样本图像进行在线训练时,首先构建回归决策树,回归决策树中每个节点用于将样本图像中两点间的像素强度值进行二元比较,图像两点间的像素强度值进行二元比较的计算公式如式(1)所示:
通过最小化总加权均值平方误差WMSE,完成回归决策树节点参数的更新,生成多棵回归决策树;总加权均值平方误差WMSE的计算公式如式(2)所示:
利用公式(3)更新样本图像的权重,并对更新后的权重进行归一化操作,
Ws=Ws·exp(-Cs Tk(Is)) (3);
Tk(Is)为回归树Tk遍历样本图像Is所得输出值;
2)、动态目标的检测和动态跟踪模块:
2-1)、进入实时目标检测和动态跟踪界面,在已训练的目标候选框中选择待跟踪的特定目标,根据特定目标的名称从所述数据库中调取对应的PICO级联解析器文件,PICO目标检测算法基于调取的PICO级联解析器文件遍历实时图像,并根据置信度阈值来获取特定目标的候选区域;
2-2)、采用轮廓校正模块逐一遍历所述候选区域所对应的局部区域,并进行轮廓提取;若能提取到尺寸合理的有效轮廓,且有效轮廓中心与特定目标中心的距离小于阈值,则保留所述候选区域对应的特定目标,并将所述有效轮廓中心作为特定目标校正后的目标中心;若不能提取到尺寸合理的有效轮廓,将所述候选区域对应的特定目标视作误判目标并删除;
3)、基于图像动态目标位置反馈的机械臂闭环控制模块:
判断特定目标校正后的目标中心与随动摄像头图像视野中心是否重合;若重合,关闭机械臂,当前跟踪任务完成;若不重合,将所述目标中心和图像视野中心的动态距离作为距离反馈值来对机械臂进行闭环控制;其中,机械臂闭环控制过程中,先调用PICO算法来获取所述目标中心与图像视野中心的距离反馈值,然后取该距离反馈值的一半作为步进距离来控制机械臂末端,循环执行直至目标中心与图像视野中心重合,即对应实际系统中机械臂末端实时跟踪到动态目标中心处。
2.根据权利要求1所述的基于PICO算法的图像智能学习动态跟踪系统,其特征在于:PICO级联解析器为通过基于回归决策树和GentleBoost增强算法综合获取。
3.根据权利要求2所述的基于PICO算法的图像智能学习动态跟踪系统,其特征在于:QT界面集成了诸多参数设置选项来对PICO目标检测算法进行微调,包括:滑窗尺寸、滑窗缩放因子和步进因子、置信度阈值、金字塔、旋转检测以及是否聚类。
4.根据权利要求3所述的基于PICO算法的图像智能学习动态跟踪系统,其特征在于:步骤1-1)中,获取目标限定框有自动和手动这两种模式:自动模式是通过目标分割和前景提取算法来自动获取视野中目标所在的位置限定框;而手动模式则是人为在Qt界面的画布上通过拖动鼠标来绘制目标矩形框。
5.根据权利要求1所述的基于PICO算法的图像智能学习动态跟踪系统,其特征在于:像采集模块基于USB接口与PC中图像算法模块连通,PC基于网口和TCP/IP协议实时规划机械臂的运动控制模块。
CN201910264649.7A 2019-04-03 2019-04-03 基于pico算法的图像智能学习动态跟踪系统及方法 Active CN110046626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910264649.7A CN110046626B (zh) 2019-04-03 2019-04-03 基于pico算法的图像智能学习动态跟踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910264649.7A CN110046626B (zh) 2019-04-03 2019-04-03 基于pico算法的图像智能学习动态跟踪系统及方法

Publications (2)

Publication Number Publication Date
CN110046626A CN110046626A (zh) 2019-07-23
CN110046626B true CN110046626B (zh) 2024-03-15

Family

ID=67276043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910264649.7A Active CN110046626B (zh) 2019-04-03 2019-04-03 基于pico算法的图像智能学习动态跟踪系统及方法

Country Status (1)

Country Link
CN (1) CN110046626B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111890365B (zh) * 2020-07-31 2022-07-12 平安科技(深圳)有限公司 目标跟踪方法、装置、计算机设备及存储介质
CN112785564B (zh) * 2021-01-15 2023-06-06 武汉纺织大学 一种基于机械臂的行人检测跟踪系统与方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105759720A (zh) * 2016-04-29 2016-07-13 中南大学 基于计算机视觉的机械手跟踪定位在线识别与纠偏方法
CN106682691A (zh) * 2016-12-21 2017-05-17 厦门中控生物识别信息技术有限公司 基于图像的目标检测方法及装置
CN107030687A (zh) * 2016-02-04 2017-08-11 上海晨兴希姆通电子科技有限公司 位置偏移检测方法及模块、抓取位置校准方法、抓取系统
CN108304001A (zh) * 2018-02-09 2018-07-20 成都新舟锐视科技有限公司 一种人脸检测跟踪方法、球机头部转动控制方法及球机
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130041508A1 (en) * 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107030687A (zh) * 2016-02-04 2017-08-11 上海晨兴希姆通电子科技有限公司 位置偏移检测方法及模块、抓取位置校准方法、抓取系统
CN105759720A (zh) * 2016-04-29 2016-07-13 中南大学 基于计算机视觉的机械手跟踪定位在线识别与纠偏方法
CN106682691A (zh) * 2016-12-21 2017-05-17 厦门中控生物识别信息技术有限公司 基于图像的目标检测方法及装置
CN108304001A (zh) * 2018-02-09 2018-07-20 成都新舟锐视科技有限公司 一种人脸检测跟踪方法、球机头部转动控制方法及球机
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法

Also Published As

Publication number Publication date
CN110046626A (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
Yu et al. A vision-based robotic grasping system using deep learning for 3D object recognition and pose estimation
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN111462154B (zh) 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人
CN107808376B (zh) 一种基于深度学习的举手检测方法
CN112102368B (zh) 一种基于深度学习的机器人垃圾分类分拣方法
CN110046626B (zh) 基于pico算法的图像智能学习动态跟踪系统及方法
CN111598172B (zh) 基于异构深度网络融合的动态目标抓取姿态快速检测方法
Wan et al. A real-time branch detection and reconstruction mechanism for harvesting robot via convolutional neural network and image segmentation
CN114565864A (zh) 一种基于深度学习的果实识别方法
CN110640741A (zh) 一种规则形状工件匹配的抓取工业机器人
CN113681552B (zh) 一种基于级联神经网络的机器人混杂物体五维抓取方法
Dong et al. A convolution neural network for parts recognition using data augmentation
CN113012228B (zh) 一种工件定位系统及基于深度学习的工件定位方法
Jiang et al. Robotic grasp detection using light-weight cnn model
Liang et al. Apple recognition based on convolutional neural network framework
Lin et al. Target recognition and optimal grasping based on deep learning
Zhao et al. Real-time object detection and robotic manipulation for agriculture using a YOLO-based learning approach
Shi et al. A fast workpiece detection method based on multi-feature fused SSD
CN113822946A (zh) 一种基于计算机视觉的机械臂抓取方法
Zhang et al. Robotic grasp detection using effective graspable feature selection and precise classification
Hou et al. Recognition and location of persimmons based on k-means and epipolar constraint SIFT matching algorithm
Cheng et al. Robotic arm pick-and-place system for L-shaped water pipe joint with arbitrary angle
Xia et al. Robot Grasping Detection in Object Overlapping Scenes Based on Multi-Stage ROI Extraction
Peng et al. The Research on the Motion Control of the Sorting Manipulator based on Machine Vision
Li et al. Design of Intelligent Grabbing System Based on ROS

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant