CN111331599A - 一种基于机械臂的物品自动定向抓取方法及系统 - Google Patents

一种基于机械臂的物品自动定向抓取方法及系统 Download PDF

Info

Publication number
CN111331599A
CN111331599A CN202010136746.0A CN202010136746A CN111331599A CN 111331599 A CN111331599 A CN 111331599A CN 202010136746 A CN202010136746 A CN 202010136746A CN 111331599 A CN111331599 A CN 111331599A
Authority
CN
China
Prior art keywords
articles
article
layer
mechanical arm
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010136746.0A
Other languages
English (en)
Inventor
熊意超
朱彦嘉
王天鹤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Media Intelligence Co ltd
Original Assignee
Shanghai Media Intelligence Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Media Intelligence Co ltd filed Critical Shanghai Media Intelligence Co ltd
Priority to CN202010136746.0A priority Critical patent/CN111331599A/zh
Publication of CN111331599A publication Critical patent/CN111331599A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于机械臂的物品自动定向抓取方法,通过相机采集待抓取物品的图像;利用事先训练好的卷积神经网络针对图像中所有物品进行自动识别与定位,得到每一物品的类别与定位信息;根据每一物品的类别与定位信息生成控制指令;根据控制指令,控制机械臂模块定向抓取事先指定的类别的物品。本发明同时提供了一种基于机械臂的物品自动定向抓取系统。本发明可以实现从若干物品中直接抓取指定类别的物品,具有抓取效率高、抓取周期短、计算简单的特点。

Description

一种基于机械臂的物品自动定向抓取方法及系统
技术领域
本发明涉及工业视觉技术领域,具体地,涉及一种基于机械臂的物品自动定向抓取方法及系统。
背景技术
现有的基于机械臂的多种类物品抓取,通常采用如下方式:获取任一物品位置信息后,控制机械臂抓取该物品于指定识别位置,利用贴于该物品的二维码或采集该物品图像进行类别识别,再将该物品置于指定的最终摆放位置。该方式有如下明显缺点:
1、以上过程需要针对每一物品重复一遍,对于从多个无用物品中抓取有用物品的场景,抓取效率很低。
2、图像识别方式需要针对每一物品采集图像进行识别,计算复杂度高、周期长。
3、二维码识别方式需要事先布置二维码,增加人力和时间成本。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
针对现有技术中存在的上述不足,本发明的目的提供了一种基于机械臂的物品自动定向抓取方法和系统,具有抓取效率高、抓取周期短、计算简单的特点。
本发明是通过以下技术方案实现的。
根据本发明的一个方面,提供了一种基于机械臂的物品自动定向抓取方法,包括:
采集待抓取物品的图像;
对采集的待抓取物品的图像,利用事先训练好的卷积神经网络进行图像中所有物品的自动识别与定位,得到每一物品的类别与定位信息;
根据得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;
根据控制指令,控制机械臂模块定向抓取事先指定的类别的物品。
优选地,所述事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入尺寸相同的待抓取物品的图像;
所述卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
优选地,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
优选地,所述卷积神经网络采用如下步骤进行训练:
获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;
使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
根据本发明的另一个方面,提供了一种基于机械臂的物品自动定向抓取系统,包括:
图像采集模块,采集待抓取物品的图像;
图像识别模块:对图像采集模块采集的图像,利用事先训练好的卷积神经网络进行所有物品的自动识别与定位,得到每一物品的类别与定位信息;
指令生成模块:根据图像识别模块得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;
机械臂模块:根据指令生成模块生成的控制指令,定向抓取事先指定的类别的物品。
优选地,所述图像识别模块采用事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入尺寸相同的待抓取物品的图像;
所述卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
优选地,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
优选地,所述卷积神经网络采用如下步骤进行训练:
获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;
使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
优选地,所述图像采集模块通过相机采集待抓取物品的图像。
优选地,所述机械臂模块,包括机械臂控制箱、机械臂、机械爪通信转换盒以及机械爪,所述械臂控制箱通过机器人电缆与机械臂控制连接,所述机械爪通信转换盒通过航插线与机械爪控制连接,所述机械臂控制箱和机械爪通信转换盒分别与指令生成模块连接。
与现有技术相比,本发明具有如下至少一种有益效果:
1、本发明提供的基于机械臂的物品自动定向抓取方法及系统,在进行抓取前先进行了物体的种类的识别和位置的定位,抓取时结合种类信息,可以按照物品类别抓取指定物品,尤其对于从大量无用物品中抓取特定物品的场景,抓取效率明显提高。
2、本发明提供的基于机械臂的物品自动定向抓取方法及系统,采用卷积神经网络,对图像进行一次识别,同步得到图像中所有物品的属性和位置信息,提高识别效率的同时降低计算量。
3、本发明提供的基于机械臂的物品自动定向抓取方法及系统,采用卷积神经网络,通过事先采集图片进行训练,具有更高的鲁棒性,可以应对复杂的场景,精准检测出易混淆物品的类别,有效提高准确率。
4、本发明提供的基于机械臂的物品自动定向抓取方法及系统,可实现全自动抓取流程,无需人工准备和干预,降低人力成本。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例中所提供的基于机械臂的物品自动定向抓取系统结构示意图。
图中:1为底座;2为机械臂;3为机械臂控制箱;4为机械爪;5为机械爪通信转换盒;6为网口;7为网线;8为计算机;9为机器人电缆;10为航插线;11为相机;12为USB连接线;13为放待抓取物品的餐盘;14为物品放置箱。
图2为本发明一实施例中所提供的基于机械臂的物品自动定向抓取方法流程图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
图2为本发明一实施例中所提供的基于机械臂的物品自动定向抓取方法流程图。
参照图2所示,本发明实施例提供了一种基于机械臂的物品自动定向抓取方法,包括:
S100,采集待抓取物品的图像;
S200,对采集的待抓取物品的图像,利用事先训练好的卷积神经网络进行图像中所有物品的自动识别与定位,得到每一物品的类别与定位信息;
S300,根据得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;
S400,根据控制指令,控制机械臂模块定向抓取事先指定的类别的物品。
本发明上述实施例提供的基于机械臂的物品自动定向抓取方法,在进行抓取前先进行了物体的种类的识别和位置的定位,抓取时结合种类信息,可以按照物品类别抓取指定物品,尤其对于从大量无用物品中抓取特定物品的场景,抓取效率明显提高。
在另一优选实施例中,上述S200中,利用事先训练好的卷积神经网络,该卷积神经网络包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:输入层用于输入尺寸相同的待抓取物品的图像;卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;全连接层用于连接当层神经元与前一层神经元;输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。更好地,卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
进一步地,卷积神经网络训练包括:获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
本发明上述实施例采用卷积神经网络,对图像进行一次识别,同步得到图像中所有物品的属性和位置信息,提高识别效率的同时降低计算量。
参照图1所示,基于上述实施例所提供的基于机械臂的物品自动定向抓取方法,本发明另一实施例提供一种基于机械臂的物品自动定向抓取系统,该系统能用于实现上述方法,其中包括:图像采集模块、图像识别模块、指令生成模块、机械臂模块;图像采集模块采集待抓取物品的图像;图像识别模块对图像采集模块采集的图像,利用事先训练好的卷积神经网络进行所有物品的自动识别与定位,得到每一物品的类别与定位信息;指令生成模块根据图像识别模块得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;机械臂模块根据指令生成模块生成的控制指令,定向抓取事先指定的类别的物品。
在一优选实施例中,图像识别模块采用事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:输入层用于输入尺寸相同的待抓取物品的图像;卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;全连接层用于连接当层神经元与前一层神经元;输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
进一步地,卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
进一步地,卷积神经网络训练包括:获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
进一步地,图像采集模块通过相机采集待抓取物品的图像。
进一步地,机械臂模块,包括机械臂控制箱、机械臂、机械爪通信转换盒以及机械爪,械臂控制箱通过机器人电缆与机械臂控制连接,机械爪通信转换盒通过航插线与机械爪控制连接,机械臂控制箱和机械爪通信转换盒分别与指令生成模块连接。
下面结合本发明的具体应用实例对所提供的技术方案进一步详细描述。
如图1所示,为本发明实施例所提供的基于机械臂的物品自动定向抓取系统,包括:图像采集模块、图像处理模块、图像识别模块、指令生成模块以及机械臂模块,其中,图像处理模块、图像识别模块、指令生成模块均可以安装于计算机中。
具体地:
1)图像采集模块:由相机11采集放待抓取物品的餐盘13上的物品图像,通过USB连接线12传入计算机8中的图像识别模块。
2)图像识别模块:对图像中所有物品进行自动识别与定位,得到每一物品的类别与定位信息。
3)指令生成模块:据图像识别模块得到的每一物品的类别与定位信息,针对事先指定的物品类别,生成用于控制机械臂模块进行定向抓取的控制指令;
4)机械臂模块:包括机械臂控制箱3、机械臂2、机械气爪通信转换盒5和机械气爪4;机械臂控制箱3通过机器人电缆9控制机械臂2,机械爪通信转换盒5通过航插线10控制机械爪4;其中:
指令生成模块通过网线7,利用TCP/IP依次将抓取每个物品的指令发送给机械臂控制箱3和机械爪通信转换盒5;其中,机械臂控制箱3用于接收指令生成模块输出的控制指令,并控制机械臂各轴实现配合旋转,到达指定位置;机械爪通信转换盒5用于接收指令生成模块输出的控制指令,并控制机械爪实现张开和夹紧。从而依次将每个物品从放待抓取物品的餐盘13,根据不同类别,抓取到物品放置箱14的相应位置。
进一步地,机械臂2安装于底座1上。
如图2所示,在另一实施例中,采用上述系统进行的基于机械臂的物品自动定向抓取方法,包括如下步骤:
步骤1),由相机11采集到放待抓取物品的餐盘13中的物品图像,通过USB连接线12传入计算机8中的图像识别模块。
步骤2),计算机8中的图像识别对步骤1)中得到的图像中所有物品进行自动识别与定位,得到每一物品的类别与定位信息,并发送至计算机8中的指令生成模块。
步骤3),指令生成:计算机8中的指令生成模块根据步骤2)中得到的每一物品的类别与定位信息,针对事先指定的物品类别,生成用于控制机械臂模块进行定向抓取的控制指令,并通过网线7、利用TCP/IP依次输出至机械臂模块;
步骤4),物品抓取:机械臂模块根据步骤3)中生成的控制指令,定向抓取指定类别的物品并传送至相应位置。
步骤4)具体为,抓取指令发送给机械臂控制箱3和机械气爪通信转换盒5其中,机械臂模块的机械臂控制箱接收抓取指令中的控制指令,并控制机械臂各轴实现配合旋转,到达指定位置;机械臂模块的机械气爪通信转换盒接收抓取指令中的控制指令,并控制机械气爪实现张开和夹紧,从而依次将每个物品从放待抓取物品的餐盘13,根据不同类别,抓取到物品放置箱14中的不同位置。
步骤2)具体为,采用事先训练好的卷积神经网络进行图像识别;其中,事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
输入层用于输入尺寸相同的待抓取物品的图像;
卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;其中,卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
全连接层用于连接当层神经元与前一层神经元;
输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
卷积神经网络采用如下步骤进行训练:
获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;
使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
步骤2)中还包括,对物品图像进行尺寸调整,使采集的所有图像均具有相同的图片尺寸,并进行图像中所有物品的自动识别与定位。
本发明上述实施例所提供的基于机械臂的物品自动定向抓取系统及方法,利用相机采集待抓取物品的图像,利用事先训练好的卷积神经网络针对图像中所有物品进行自动识别与定位,得到每一物品的类别与定位信息;根据每一物品的类别与定位信息,控制机械臂定向抓取事先指定的类别的物品。本发明上述实施例所提供的系统及方法,可以实现从若干物品中直接抓取指定类别的物品,具有抓取效率高、抓取周期短、计算简单的特点。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (10)

1.一种基于机械臂的物品自动定向抓取方法,其特征在于,包括:
采集待抓取物品的图像;
对采集的待抓取物品的图像,利用事先训练好的卷积神经网络进行图像中所有物品的自动识别与定位,得到每一物品的类别与定位信息;
根据得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;
根据控制指令,控制机械臂模块定向抓取事先指定的类别的物品。
2.根据权利要求1所述的基于机械臂的物品自动定向抓取方法,其特征在于,所述事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入尺寸相同的待抓取物品的图像;
所述卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
3.根据权利要求2所述的基于机械臂的物品自动定向抓取方法,其特征在于,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
4.根据权利要求2所述的基于机械臂的物品自动定向抓取方法,其特征在于,所述卷积神经网络采用如下步骤进行训练:
获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;
使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
5.一种基于机械臂的物品自动定向抓取系统,其特征在于,包括:
图像采集模块,采集待抓取物品的图像;
图像识别模块:对图像采集模块采集的图像,利用事先训练好的卷积神经网络进行所有物品的自动识别与定位,得到每一物品的类别与定位信息;
指令生成模块:根据图像识别模块得到的每一物品的类别与定位信息,生成用于控制机械臂模块进行定向抓取的控制指令;
机械臂模块:根据指令生成模块生成的控制指令定向抓取事先指定的类别的物品。
6.根据权利要求5所述的基于机械臂的物品自动定向抓取系统,其特征在于,所述图像识别模块采用事先训练好的卷积神经网络,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入尺寸相同的待抓取物品的图像;
所述卷积层采用多个卷积核,用于得到待抓取物品图像的图像特征;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果,得到每一物品的类别与定位信息。
7.根据权利要求6所述的基于机械臂的物品自动定向抓取系统,其特征在于,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置。
8.根据权利要求6所述的基于机械臂的物品自动定向抓取系统,其特征在于,所述卷积神经网络采用如下步骤进行训练:
获取包含不同种类物品的图像,并对图像中的物品种类和位置进行标注,构造训练数据集;
使用训练数据集训练卷积神经网络,得到用来检测物品类别和位置信息的模型。
9.根据权利要求5所述的基于机械臂的物品自动定向抓取系统,其特征在于,所述图像采集模块通过相机采集待抓取物品的图像。
10.根据权利要求5所述的基于机械臂的物品自动定向抓取系统,其特征在于,所述机械臂模块,包括机械臂控制箱、机械臂、机械爪通信转换盒以及机械爪,所述械臂控制箱通过机器人电缆与机械臂控制连接,所述机械爪通信转换盒通过航插线与机械爪控制连接,所述机械臂控制箱和机械爪通信转换盒分别与指令生成模块连接。
CN202010136746.0A 2020-03-02 2020-03-02 一种基于机械臂的物品自动定向抓取方法及系统 Pending CN111331599A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010136746.0A CN111331599A (zh) 2020-03-02 2020-03-02 一种基于机械臂的物品自动定向抓取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010136746.0A CN111331599A (zh) 2020-03-02 2020-03-02 一种基于机械臂的物品自动定向抓取方法及系统

Publications (1)

Publication Number Publication Date
CN111331599A true CN111331599A (zh) 2020-06-26

Family

ID=71175890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010136746.0A Pending CN111331599A (zh) 2020-03-02 2020-03-02 一种基于机械臂的物品自动定向抓取方法及系统

Country Status (1)

Country Link
CN (1) CN111331599A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115417140A (zh) * 2022-09-02 2022-12-02 智迪机器人技术(盐城)有限公司 一种基于机器人的电池壳清洗线上下料控制系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109374572A (zh) * 2018-12-10 2019-02-22 西安电子科技大学 基于神经网络的太赫兹时域光谱物品分类方法
CN109685141A (zh) * 2018-12-25 2019-04-26 哈工大机器人(合肥)国际创新研究院 一种基于深度神经网络的机器人物品分拣视觉检测方法
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法
US10373335B1 (en) * 2014-07-10 2019-08-06 Hrl Laboratories, Llc System and method for location recognition and learning utilizing convolutional neural networks for robotic exploration
CN110125930A (zh) * 2019-04-18 2019-08-16 华中科技大学 一种基于机器视觉和深度学习的机械臂抓取控制方法
CN110363254A (zh) * 2019-08-12 2019-10-22 河北工业大学 用于曲轴柔性生产线的零件种类快速识别方法和识别装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10373335B1 (en) * 2014-07-10 2019-08-06 Hrl Laboratories, Llc System and method for location recognition and learning utilizing convolutional neural networks for robotic exploration
CN109374572A (zh) * 2018-12-10 2019-02-22 西安电子科技大学 基于神经网络的太赫兹时域光谱物品分类方法
CN109685141A (zh) * 2018-12-25 2019-04-26 哈工大机器人(合肥)国际创新研究院 一种基于深度神经网络的机器人物品分拣视觉检测方法
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法
CN110125930A (zh) * 2019-04-18 2019-08-16 华中科技大学 一种基于机器视觉和深度学习的机械臂抓取控制方法
CN110363254A (zh) * 2019-08-12 2019-10-22 河北工业大学 用于曲轴柔性生产线的零件种类快速识别方法和识别装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张海洲: "基于机器视觉的三维物体识别与定位", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115417140A (zh) * 2022-09-02 2022-12-02 智迪机器人技术(盐城)有限公司 一种基于机器人的电池壳清洗线上下料控制系统及方法
CN115417140B (zh) * 2022-09-02 2023-06-06 智迪机器人技术(盐城)有限公司 一种基于机器人的电池壳清洗线上下料控制系统及方法

Similar Documents

Publication Publication Date Title
CN109483554B (zh) 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN111046948B (zh) 点云仿真和深度学习的工件位姿识别及机器人上料方法
CN111723782A (zh) 基于深度学习的视觉机器人抓取方法及系统
CN109584298B (zh) 面向机器人自主物体拾取任务的在线自学习方法
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
WO2012052614A1 (en) Method for the filtering of target object images in a robot system
CN110969660B (zh) 一种基于三维立体视觉和点云深度学习的机器人上料系统
CN111347411B (zh) 基于深度学习的双臂协作机器人三维视觉识别抓取方法
CN102514002A (zh) 一种数控车床单目视觉上下料机器人系统及方法
CN108748149B (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN111483803B (zh) 控制方法、抓取系统和存储介质
CN207841338U (zh) 一种机械臂
JP2020082322A (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN115816460B (zh) 一种基于深度学习目标检测与图像分割的机械手抓取方法
CN114714365B (zh) 一种基于云平台的无序工件抓取方法及其系统
CN114758236A (zh) 一种非特定形状物体识别、定位与机械手抓取系统及方法
CN114029243A (zh) 一种用于分拣机器手的软物抓取识别方法
CN114463244A (zh) 一种视觉机器人抓取系统及其控制方法
CN115256377A (zh) 一种基于多源信息融合的机器人抓取方法和装置
CN114055501A (zh) 一种机器人抓取系统及其控制方法
CN111331599A (zh) 一种基于机械臂的物品自动定向抓取方法及系统
CN114193440A (zh) 基于3d视觉的机器人自动抓取系统及方法
CN113681552B (zh) 一种基于级联神经网络的机器人混杂物体五维抓取方法
WO2024067006A1 (zh) 无序线材分拣方法、装置及系统
CN112975957A (zh) 目标提取方法、系统、机器人及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200626