CN111003380A - 一种智能回收垃圾的方法、系统、设备 - Google Patents

一种智能回收垃圾的方法、系统、设备 Download PDF

Info

Publication number
CN111003380A
CN111003380A CN201911358247.XA CN201911358247A CN111003380A CN 111003380 A CN111003380 A CN 111003380A CN 201911358247 A CN201911358247 A CN 201911358247A CN 111003380 A CN111003380 A CN 111003380A
Authority
CN
China
Prior art keywords
garbage
objects
grabbing
pose
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911358247.XA
Other languages
English (en)
Inventor
邓耀桓
李卓钧
陈超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dorabot Robotics Co ltd
Original Assignee
Shenzhen Dorabot Robotics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dorabot Robotics Co ltd filed Critical Shenzhen Dorabot Robotics Co ltd
Priority to CN201911358247.XA priority Critical patent/CN111003380A/zh
Publication of CN111003380A publication Critical patent/CN111003380A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F1/00Refuse receptacles; Accessories therefor
    • B65F1/0033Refuse receptacles; Accessories therefor specially adapted for segregated refuse collecting, e.g. receptacles with several compartments; Combination of receptacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F1/00Refuse receptacles; Accessories therefor
    • B65F1/14Other constructional features; Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F2210/00Equipment of refuse receptacles
    • B65F2210/128Data transmitting means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Processing Of Solid Wastes (AREA)

Abstract

本发明公开了一种智能回收垃圾的方法、系统以及设备。该方法包括根据获取的传送带上物体的RGB图像和深度信息,计算各物体的初步抓取位姿,然后根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿,再根据各物体的实时抓取位姿,由机械臂对各物体分别进行抓取和投放。采用本发明,能够智能识别不同种类的可回收垃圾,并投入到对应类别的垃圾桶中,可以高效而精准的对混合的可回收垃圾进行分类和提取,极大程度提高了可回收垃圾分类的效率和准确性。

Description

一种智能回收垃圾的方法、系统、设备
技术领域
本发明涉及垃圾分拣技术领域,尤其涉及一种智能回收垃圾的方法、系统、设备。
背景技术
随着现代人们生活水平的提高和各项消费的增加,城市垃圾产生量日益增多,环境状况也逐渐恶化。面对此种局面,垃圾分类是解决日益增多垃圾的最有效方式,也是对垃圾进行有效处置的一种科学管理方法。如何通过垃圾分类管理,最大限度地实现垃圾资源利用,减少垃圾处置的数量,改善生存环境状态,是当前中国乃至世界各国共同关注的迫切问题。
垃圾分类在源头将垃圾分类投放,目前垃圾主要分为可回收垃圾、有害垃圾、干垃圾、湿垃圾等。其中,可回收垃圾又主要包括废纸、塑料、玻璃、金属等几大类。可回收垃圾是可以再生循环的垃圾。因此对可回收垃圾进行分类回收再利用十分的有必要。
目前,可回收垃圾的分类回收方法主要包括人工拣选、风选等,其人工成本高,处理效率低,准确度也不高。
发明内容
有鉴于此,本发明的目的在于提供一种智能回收垃圾的方法、系统、设备,以解决现有技术可回收垃圾分类回收效率低准确度不高的问题。
本发明解决上述技术问题所采用的技术方案如下:
根据本发明的第一个方面,提供一种智能回收垃圾的方法,所述方法包括以下步骤:
获取传送带上物体的RGB图像和深度信息;
将获取的RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类;
将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
根据所述各物体在世界坐标的点云、计算各物体的初步抓取位姿;
根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿;
根据各物体的实时抓取位姿,由机械臂对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中。
根据本发明的第二个方面,提供一种智能回收垃圾的系统,所述系统包括:传送带,用于传送物体,所述物体为可回收垃圾;
垃圾桶,用于分类收纳可回收垃圾;
RGB相机,用于获取传送带上物体的RGB图像和深度信息;
服务器,用于接收RGB相机发送的RGB图像和深度信息,将RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,根据所述各物体在世界坐标的点云、计算各物体的初步抓取位姿,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿;
机械臂,用于根据各物体的实时抓取位姿,对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中。
根据本发明的第三个方面,提供一种智能回收垃圾的设备,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现智能回收垃圾的步骤。
本发明实施例的智能回收垃圾的方法、系统以及设备,能够智能识别不同种类的可回收垃圾,并投入到对应类别的垃圾桶中,可以高效而精准的对混合的可回收垃圾进行分类和提取,极大程度提高了可回收垃圾分类的效率和准确性。
附图说明
图1为本发明实施例一提供的一种智能回收垃圾的系统的示意图;
图2为本发明实施例二提供的一种智能回收垃圾的方法的流程图;
图3A为机械臂初步抓取位姿示意图的正视图;
图3B为机械臂初步抓取位姿示意图的俯视图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,如果使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例一提供了一种智能回收垃圾的系统。如图1所示,智能回收垃圾的系统包括传送带10、垃圾桶20、RGB相机30、服务器40以及机械臂50。
所述传送带10,用于传送物体,传送带10上的物体为可回收垃圾。将需要分类的可回收垃圾从传送带10一端进行放置,随着传送带10的向前移动而传送到机械臂50可抓取范围内。所述传送带10可以设置为环形,未被机械臂50夹取的可回收垃圾可以循环传送到机械臂50的可抓取范围内。
所述垃圾桶20,用于分类收纳可回收垃圾。可以设置多个垃圾桶分类收纳不同种类的可回收垃圾,例如,设置四种分类垃圾桶收纳四种最常见的可回收垃圾:纸质包装盒、塑料瓶、金属制易拉罐、玻璃瓶。
所述RGB相机30,用于获取传送带10上物体的RGB图像和深度信息,所述RGB相机30放置于传送带附近,对传送带10上的物体进行拍摄,获取RGB图像和深度信息。所述RGB相机30获取的RGB图像和深度信息发送给服务器40。
所述服务器40,用于接收RGB相机30发送的RGB图像和深度信息,将RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,再根据所述各物体在世界坐标的点云、计算各物体的初步抓取位姿,进一步根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿。
神经网络预先针对不同种类的可回收垃圾物品进行了训练,因此可以对RGB图像进行分割和分类,训练的可回收垃圾种类和设置的垃圾桶分类相对应。
所述机械臂50,用于根据各物体的实时抓取位姿,对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶20中。
在实际应用中,机械臂50对物体的抓取过程,具体包括:
首先,机械臂50以设定的时间周期通过服务器40轮询是否有物体在可抓取范围内,如果有至少一个物体在可抓取范围,则机械臂50选择一个物体准备进行抓取(对于物体的选择,可以在抓取范围内物体中随机选择,也可以选择第一个进入抓取范围的物体),如果没有物体在可抓取范围内,则选择第一个即将进入可抓取范围的物体准备进行抓取。
然后,机械臂50从服务器40获取选择物体对应的实时抓取位姿。
其次,根据选择物体对应的实时抓取位姿,机械臂50运动至实时抓取位姿对应的位置上方,对选择物体进行抓取;
最后,机械臂50将抓取的物体放入与物体垃圾种类对应的垃圾桶20中,机械臂50回归初始位置,以设定的时间周期,继续查询是否有物体在可抓取范围内。
通过本实施例提供的智能回收垃圾的系统,能够智能识别不同种类的可回收垃圾,并投入到对应类别的垃圾桶中,可以高效而精准的对混合的可回收垃圾进行分类和提取,极大程度提高了可回收垃圾分类的效率和准确性。
为了进一步理解本发明的实现过程,请继续参阅图2,图2为本发明实施例二提供的智能回收垃圾的方法的流程图。
所述智能回收垃圾的方法包括:
步骤S201、获取传送带上物体的RGB图像和深度信息;
通过RGB相机拍摄传送带上的物体,获取传送带上物体的原始图像RGB图像和深度信息。
步骤S202、将获取的RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类;
对神经网络预先进行训练,可以采用下面的方法:
神经网络获得多个物体的训练图像;
根据当前垃圾回收任务的定义,获得训练图像中完整度达到70%的物体的标注;
根据所述训练图像和对应的标注对神经网络进行训练。
其中,训练图像可以是成千上万个不同种类的可回收垃圾物体的图像,通过越多的训练图像能够训练出越精确的分类模型。训练图像中的物体包括处于不同形态、不同角度、不同距离和不同光线下的物体。再通过人工进行标注,即在训练图像中标注所要分类的物体的像素点。这里,完整度是指,在训练图像中,物体仅部分暴露在外,通过判断暴露在外的区域是否达到物体本身的70%,若是,则表示完整度达到70%。经过预先训练的神经网络能够根据RGB图像信息进行分割和分类。
优选地,将获取的RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类,具体方式为:
预先训练的神经网络通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
步骤S203、将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
优选地,获取各物体在世界坐标的点云的具体方式为:
根据检测得到的各个物体的位置区域,从深度信息中获取各个物体在RGB相机坐标系的点云,所述点云由Nⅹ4矩阵Pc表示,其中N为矩阵行数,即物体点云的三维点数量,每行的四个数分别表示一个三维点的齐次(x,y,z,l)坐标;
根据物体在RGB相机坐标系的点云,计算物体在世界坐标系下的点云:设从各个物体的相机坐标系到世界坐标系的转换矩阵为M,M为4ⅹ4矩阵,设物体在世界坐标系下的点云为Nⅹ4矩阵Pw,则计算公式为:Pw=(M·(Pc)T)T,其中T表示矩阵的转置运算。
步骤S204、根据各物体在世界坐标的点云、计算各物体的初步抓取位姿;
在本实施例中,抓取位姿指的是抓取物体时末端执行器的位置和朝向等。
优选地,计算各物体的初步抓取位姿的具体方式为:
根据物体的世界坐标点云,计算得到物体的初步抓取位姿,初步抓取位姿G由Gx,Gy,Gz,Gα,Gβ,Gθ六个变量表示,其中(Gx,Gy,Gz)表示抓取位姿的空间位置坐标,(Gα,Gβ,Gθ)表示抓取位姿的单位方向向量。
为了更好的理解计算各物体的初步抓取位姿的过程,请一起参阅图3A和图3B。其中,图3A为机械臂初步抓取位姿示意图的正视图。图3B为机械臂初步抓取位姿示意图的俯视图。图中圆柱体表示物体点云区域,虚线框表示能够包含物体点云的最小立体框,小圆圈表示计算得到的抓取位姿的位置,箭头表示计算得到的抓取位姿的方向,Hg为机械臂50的末端执行器的高度。本实施例中,机械臂的末端执行器是夹爪。
由图3A和3B可以看出,(Gx,Gy)为最小立体框在xy平面上矩形框的中心坐标点。Gz的坐标点可以通过传送带表面离地面的高度加上夹爪的高度得出,即Gz=Hc+Hg,Hc表示传送带表面离地面的高度,Hg是夹爪的高度。(Gα,Gβ)为最小立框体在xy平面上矩形框的短边方向,Gθ为-Z轴方向。
步骤S205、根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿;
优选地,计算各物体的实时抓取位姿的具体方式为:
设传送带的传输速度恒定为V,在x和y方向的速度分别为Vx和Vy,G(T)为根据T时刻获取的RGB图像和深度图像计算得到的初步抓取位姿,则各物体的实时抓取位姿G(t)的计算公式为:
Gx(t)=Gx(T)+Vxⅹ(t-T),
Gy(t)=Gy(T)+Vyⅹ(t-T),
GZ(t)=GZ,Gα(t)=Gα,Gβ(t)=Gβ,Gθ(t)=Gθ
由于物体随着传送带匀速运动,因此各物体的实时抓取位姿G(t)和初步抓取位姿G之间的关系如上式所示。
步骤S206、根据各物体的实时抓取位姿,由机械臂对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中。
优选地,抓取过程具体可包括:
根据设定的时间周期,机械臂轮询是否有物在可抓取范围内;
如果已有至少一个物体在可抓取范围,则选择一个物体准备进行抓取,如果没有物体在可抓取范围,则对第一个即将进入可抓取范围的物体准备进行抓取;
根据选择的物体对应的实时抓取位姿,机械臂运动至实时抓取位姿对应的位置上方,对选择的物体进行抓取;
机械臂将抓取的物体放入与物体垃圾种类对应的垃圾桶中;
机械臂回归初始位置,根据设定的时间周期,继续查询是否有物体进入可抓取范围。
在一个可行的方案中,机械臂运动至实时抓取位姿对应的位置上方,对选择的物体进行抓取,具体方式为:
机械臂运动至物体的实时抓取位姿对应的位置上方,在水平方向上机械臂跟随物体匀速运动,在竖直方向上,先将夹爪向下移动不断接近物体的上表面,然后夹爪张开抓取物体,关闭夹爪在设定时间内实现稳定抓取,再抬起夹爪完成移动抓取。
通过本实施例提供的智能回收垃圾的方法,能够智能识别不同种类的可回收垃圾,并投入到对应类别的垃圾桶中,可以高效而精准的对混合的可回收垃圾进行分类和提取,极大程度提高了可回收垃圾分类的效率和准确性。
在前述实施例的基础上,本发明实施例三提供了一种智能回收垃圾的设备,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现第一实施例或者第二实施例的智能回收垃圾的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种智能回收垃圾的方法,其特征在于,所述方法包括以下步骤:
获取传送带上物体的RGB图像和深度信息;
将获取的RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类;
将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
根据所述各物体在世界坐标的点云、计算各物体的初步抓取位姿;
根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿;
根据各物体的实时抓取位姿,由机械臂对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中。
2.如权利要求1所述的智能回收垃圾的方法,其特征在于,根据各物体的实时抓取位姿,由机械臂对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中,具体包括:
根据设定的时间周期,机械臂轮询是否有物在可抓取范围内;
如果已有至少一个物体在可抓取范围,则选择一个物体准备进行抓取,如果没有物体在可抓取范围,则对第一个即将进入可抓取范围的物体准备进行抓取;
根据选择的物体对应的实时抓取位姿,机械臂运动至实时抓取位姿对应的位置上方,对选择的物体进行抓取;
机械臂将抓取的物体放入与物体垃圾种类对应的垃圾桶中;
机械臂回归初始位置,根据设定的时间周期,继续查询是否有物体进入可抓取范围。
3.如权利要求2所述的智能回收垃圾的方法,其特征在于,机械臂运动至实时抓取位姿对应的位置上方,对选择的物体进行抓取,具体方式为:
机械臂运动至物体的实时抓取位姿对应的位置上方,在水平方向上机械臂跟随物体匀速运动,在竖直方向上,先将夹爪向下移动不断接近物体的上表面,然后夹爪张开抓取物体,关闭夹爪在设定时间内实现稳定抓取,再抬起夹爪完成移动抓取。
4.如权利要求1所述的智能回收垃圾的方法,其特征在于,所述将获取的RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类,具体方式为:
通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
5.如权利要求4所述的智能回收垃圾的方法,其特征在于,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,具体方式为:
根据检测得到的各个物体的位置区域,从深度信息中获取各个物体在RGB相机坐标系的点云,所述点云由Nⅹ4矩阵Pc表示,其中N为矩阵行数,即物体点云的三维点数量,每行的四个数分别表示一个三维点的齐次(x,y,z,l)坐标;
根据物体在RGB相机坐标系的点云,计算物体在世界坐标系下的点云:设从各个物体的相机坐标系到世界坐标系的转换矩阵为M,M为4ⅹ4矩阵,设物体在世界坐标系下的点云为Nⅹ4矩阵Pw,则计算公式为:Pw=(M·(Pc)T)T,其中T表示矩阵的转置运算。
6.如权利要求5所述的智能回收垃圾的方法,其特征在于,所述根据所述深度信息,计算各物体的初步抓取位姿,具体方式为:
根据物体的世界坐标点云,计算得到物体的初步抓取位姿,初步抓取位姿G由Gx,Gy,Gz,Gα,Gβ,Gθ六个变量表示,其中(Gx,Gy,Gz)表示抓取位姿的空间位置坐标,(Gα,Gβ,Gθ)表示抓取位姿的单位方向向量。
7.如权利要求6所述的智能回收垃圾的方法,其特征在于,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿,具体方式为:
设传送带的传输速度恒定为V,在x和y方向的速度分别为Vx和Vy,G(T)为根据T时刻获取的RGB图像和深度图像计算得到的初步抓取位姿,则各物体的实时抓取位姿G(t)的计算公式为:
Gx(t)=Gx(T)+Vxⅹ(t-T),
Gy(t)=Gy(T)+Vyⅹ(t-T),
GZ(t)=GZ,Gα(t)=Gα,Gβ(t)=Gβ,Gθ(t)=Gθ
8.一种智能回收垃圾的系统,其特征在于,包括:
传送带,用于传送物体,所述物体为可回收垃圾;
垃圾桶,用于分类收纳可回收垃圾;
RGB相机,用于获取传送带上物体的RGB图像和深度信息;
服务器,用于接收RGB相机发送的RGB图像和深度信息,将RGB图像输入预先训练的神经网络进行计算,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,根据所述各物体在世界坐标的点云、计算各物体的初步抓取位姿,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿;
机械臂,用于根据各物体的实时抓取位姿,对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中。
9.如权利要求8所述的智能回收垃圾的系统,其特征在于,机械臂根据各物体的抓取位姿,对各物体分别进行抓取,并根据各物体的种类放置在对应的垃圾桶中,具体包括:
机械臂以设定的时间周期轮询是否有物体在可抓取范围内;
如果有至少一个物体在可抓取范围,机械臂选择一个物体准备进行抓取,如果没有物体在可抓取范围内,则对第一个即将进入可抓取范围的物体准备进行抓取;
根据选择物体对应的实时抓取位姿,机械臂运动至实时抓取位姿对应的位置上方,对选择的物体进行抓取;
机械臂将抓取的物体放入与物体垃圾种类对应的垃圾桶中;
机械臂回归初始位置,以设定的时间周期,继续查询是否有物体在可抓取范围内。
10.一种智能回收垃圾的设备,其特征在于,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一所述的步骤。
CN201911358247.XA 2019-12-25 2019-12-25 一种智能回收垃圾的方法、系统、设备 Pending CN111003380A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911358247.XA CN111003380A (zh) 2019-12-25 2019-12-25 一种智能回收垃圾的方法、系统、设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911358247.XA CN111003380A (zh) 2019-12-25 2019-12-25 一种智能回收垃圾的方法、系统、设备

Publications (1)

Publication Number Publication Date
CN111003380A true CN111003380A (zh) 2020-04-14

Family

ID=70118570

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911358247.XA Pending CN111003380A (zh) 2019-12-25 2019-12-25 一种智能回收垃圾的方法、系统、设备

Country Status (1)

Country Link
CN (1) CN111003380A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626117A (zh) * 2020-04-22 2020-09-04 杭州电子科技大学 基于目标检测的垃圾分拣系统及方法
CN111931597A (zh) * 2020-07-20 2020-11-13 苏州富鑫林光电科技有限公司 基于人工智能的垃圾分选方法及系统、存储介质、设备
CN113955343A (zh) * 2021-10-26 2022-01-21 中南大学 基于三维视觉的无序垃圾智能分类设备及其分类方法
DE102022213562A1 (de) 2022-12-13 2024-06-13 Kuka Deutschland Gmbh Greifen mit Verpackungsmaterial

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105772407A (zh) * 2016-01-26 2016-07-20 耿春茂 一种基于图像识别技术的垃圾分类机器人
CN106000904A (zh) * 2016-05-26 2016-10-12 北京新长征天高智机科技有限公司 一种生活垃圾自动分拣系统
CN107336234A (zh) * 2017-06-13 2017-11-10 赛赫智能设备(上海)股份有限公司 一种反馈式自学习工业机器人及工作方法
CN108550141A (zh) * 2018-03-29 2018-09-18 上海大学 一种基于深度视觉信息的运动车斗自动识别与定位方法
CN109086736A (zh) * 2018-08-17 2018-12-25 深圳蓝胖子机器人有限公司 目标获取方法、设备和计算机可读存储介质
CN109101967A (zh) * 2018-08-02 2018-12-28 苏州中德睿博智能科技有限公司 基于视觉的目标对象识别与定位方法、终端以及存储介质
CN109249402A (zh) * 2018-10-15 2019-01-22 深圳蓝胖子机器人有限公司 机器人、机器人自动回收垃圾方法、装置和存储介质
WO2019028528A1 (en) * 2017-08-11 2019-02-14 Bucher Municipal Pty Ltd WASTE COLLECTION SYSTEM
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法
CN110119662A (zh) * 2018-03-29 2019-08-13 王胜春 一种基于深度学习的垃圾种类识别系统
CN110322512A (zh) * 2019-06-28 2019-10-11 中国科学院自动化研究所 结合小样本实例分割和三维匹配的物体位姿估计方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105772407A (zh) * 2016-01-26 2016-07-20 耿春茂 一种基于图像识别技术的垃圾分类机器人
CN106000904A (zh) * 2016-05-26 2016-10-12 北京新长征天高智机科技有限公司 一种生活垃圾自动分拣系统
CN107336234A (zh) * 2017-06-13 2017-11-10 赛赫智能设备(上海)股份有限公司 一种反馈式自学习工业机器人及工作方法
WO2019028528A1 (en) * 2017-08-11 2019-02-14 Bucher Municipal Pty Ltd WASTE COLLECTION SYSTEM
CN108550141A (zh) * 2018-03-29 2018-09-18 上海大学 一种基于深度视觉信息的运动车斗自动识别与定位方法
CN110119662A (zh) * 2018-03-29 2019-08-13 王胜春 一种基于深度学习的垃圾种类识别系统
CN109101967A (zh) * 2018-08-02 2018-12-28 苏州中德睿博智能科技有限公司 基于视觉的目标对象识别与定位方法、终端以及存储介质
CN109086736A (zh) * 2018-08-17 2018-12-25 深圳蓝胖子机器人有限公司 目标获取方法、设备和计算机可读存储介质
CN109249402A (zh) * 2018-10-15 2019-01-22 深圳蓝胖子机器人有限公司 机器人、机器人自动回收垃圾方法、装置和存储介质
CN109702741A (zh) * 2018-12-26 2019-05-03 中国科学院电子学研究所 基于自监督学习神经网络的机械臂视觉抓取系统及方法
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN110322512A (zh) * 2019-06-28 2019-10-11 中国科学院自动化研究所 结合小样本实例分割和三维匹配的物体位姿估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张国良,姚二亮: "《移动机器人的SLAM与VSLAM方法》", 31 October 2018 *
徐振平: "《普通高等教育"十三五"规划教材 机器人控制技术基础 基于Arduino的四旋翼飞行器设计与实现》", 30 April 2017 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626117A (zh) * 2020-04-22 2020-09-04 杭州电子科技大学 基于目标检测的垃圾分拣系统及方法
CN111626117B (zh) * 2020-04-22 2023-04-18 杭州电子科技大学 基于目标检测的垃圾分拣系统及方法
CN111931597A (zh) * 2020-07-20 2020-11-13 苏州富鑫林光电科技有限公司 基于人工智能的垃圾分选方法及系统、存储介质、设备
CN111931597B (zh) * 2020-07-20 2024-06-04 苏州富鑫林光电科技有限公司 基于人工智能的垃圾分选方法及系统、存储介质、设备
CN113955343A (zh) * 2021-10-26 2022-01-21 中南大学 基于三维视觉的无序垃圾智能分类设备及其分类方法
CN113955343B (zh) * 2021-10-26 2022-11-25 中南大学 基于三维视觉的无序垃圾智能分类设备及其分类方法
DE102022213562A1 (de) 2022-12-13 2024-06-13 Kuka Deutschland Gmbh Greifen mit Verpackungsmaterial

Similar Documents

Publication Publication Date Title
CN111015662B (zh) 一种动态抓取物体方法、系统、设备和动态抓取垃圾方法、系统、设备
CN111003380A (zh) 一种智能回收垃圾的方法、系统、设备
CN111144480A (zh) 一种可回收垃圾视觉分类方法、系统、设备
CN108942946B (zh) 一种智慧物流环境机器人装载方法与装置
CN109249402B (zh) 机器人、机器人自动回收垃圾方法、装置和存储介质
CN112802105A (zh) 对象抓取方法及装置
CN111723782A (zh) 基于深度学习的视觉机器人抓取方法及系统
CN110395515B (zh) 一种货物识别抓取方法、设备以及存储介质
US12017368B2 (en) Mix-size depalletizing
CN113666028B (zh) 一种基于激光雷达和相机融合的垃圾桶检测抓取方法
CN113183138A (zh) 一种垃圾搬运分拣机器人及其控制方法
CN113469264A (zh) 一种垃圾自动分类模型的构建方法、垃圾分拣方法和系统
CN112802093B (zh) 对象抓取方法及装置
CN110516625A (zh) 一种垃圾识别分类的方法、系统、终端及存储介质
KR102578921B1 (ko) 인공지능을 기반으로 하는 해양쓰레기 선별 시스템
CN113420746A (zh) 机器人视觉分拣方法、装置、电子设备和存储介质
CN110639820A (zh) 一种无人快递自动化分拣系统
Inagaki et al. Detecting layered structures of partially occluded objects for bin picking
CN115848715A (zh) 一种无序拣选机器人、系统及方法
Aarthi et al. A vision based approach to localize waste objects and geometric features exaction for robotic manipulation
Almanzor et al. Autonomous detection and sorting of litter using deep learning and soft robotic grippers
CN110918492A (zh) 一种货物分拣系统及方法
CN113731860B (zh) 一种容器内堆积物件自动分拣系统及方法
CN113955343B (zh) 基于三维视觉的无序垃圾智能分类设备及其分类方法
CN212724028U (zh) 视觉机器人抓取系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200414