CN113334368A - 一种垃圾分类装置及分类方法 - Google Patents
一种垃圾分类装置及分类方法 Download PDFInfo
- Publication number
- CN113334368A CN113334368A CN202110727216.8A CN202110727216A CN113334368A CN 113334368 A CN113334368 A CN 113334368A CN 202110727216 A CN202110727216 A CN 202110727216A CN 113334368 A CN113334368 A CN 113334368A
- Authority
- CN
- China
- Prior art keywords
- garbage
- robot
- camera
- classification
- control box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000010813 municipal solid waste Substances 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 6
- 239000002699 waste material Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 2
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 239000000463 material Substances 0.000 abstract description 6
- 239000011159 matrix material Substances 0.000 description 5
- 239000012636 effector Substances 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 208000003164 Diplopia Diseases 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 208000029444 double vision Diseases 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种垃圾分类装置,一种垃圾分类装置,包括机器人、触觉感知模块、抓取控制模块以及驱动模块,驱动模块嵌入机器人本体内部,所述机器人包括万向轮、六轴机械臂、夹爪,万向轮固接在驱动模块下方,六轴机械臂末端设置有夹爪,夹爪的内侧设置有阵列式触觉传感器,夹爪上配设有摄像头a,载物台上方设置有摄像头b。本发明还公开了一种垃圾分类装置的分类方法,通过摄像头a与摄像头b对待检测垃圾位置与类别信息和位姿信息进行检测,控制箱控制机器人执行抓取操作,利用触觉传感器对待分类垃圾材质进行细分类,最后进行垃圾投放,能实现常见可回收生活垃圾的细分类。
Description
技术领域
本发明属于工业机器人目标检测技术领域,涉及一种垃圾分类装置,还涉及上述一种垃圾分类装置的分类方法。
背景技术
随着国民经济的发展,人们的生活水平日益提高,琳琅满目的商品所造成的垃圾给环境造成巨大的负担。大量的废弃包装在我们的生活中随处可见,随着我国垃圾分类政策的推崇,垃圾分类受到了社会各界的关注,垃圾分类机器人的研究具有极大的应用前景与现实意义。
生活垃圾种类繁多形态各异,市场上现有的垃圾分类机器人大多基于红外线扫描等方式进行垃圾检测与分类,准确性不高实时性差。因此,无法满足垃圾细分类的需求。
发明内容
本发明的第一目的是提供一种垃圾分类装置,能实现常见可回收生活垃圾的细分类。
本发明的第二目的是提供一种垃圾分类装置的分类方法。
本发明所采用的技术方案是,一种垃圾分类装置,包括机器人、触觉感知模块、抓取控制模块以及驱动模块,驱动模块嵌入机器人本体内部,机器人包括万向轮、六轴机械臂、夹爪,万向轮固接在驱动模块下方,六轴机械臂末端设置有夹爪,夹爪的内侧设置有阵列式触觉传感器,夹爪上配设有摄像头a,载物台上方设置有摄像头b。
本发明的特点还在于:
机器人还包括示教器、控制箱,控制箱分别连接示教器、机器人阵列式触觉传感器、驱动模块和夹爪。
摄像头a与摄像头b能与电脑进行通讯,电脑端连接服务器,服务器内搭载有yolo6D深度学习检测网络、PoseCNN位姿估计网络,同时控制箱可接收电脑端传输的信息。
触觉感知模块包括阵列式触觉传感器、上位机,上位机分别与阵列式触觉传感器、控制箱相连接。
一种垃圾分类装置的分类方法,具体按照以下步骤实施:
步骤1、摄像头a与摄像头b拍摄载物台上的待检测垃圾,控制器驱动模块,将机器人移动到载物台前;
步骤2、上位机将步骤1中所拍摄的待检测垃圾输入yolo6D检测网络和PoseCNN位姿估计网络中去;
步骤3、yolo6D检测网络和PoseCNN位姿估计网络输出待检测垃圾位置与类别信息和位姿信息,并将所得信息反馈给上位机;
步骤4、上位机根据输出结果向机器人控制箱发送命令,控制箱向夹爪发出指令,夹爪旋转一定角度并抓取载物台上的垃圾;
步骤5、当夹爪抓取到待分类垃圾时,上位机根据附着在夹爪内侧的阵列式触觉传感器检测抓取物体所需的力的大小对垃圾进行细分类;
步骤6、上位机将分类结果输入到控制箱中,控制箱控制驱动模块驱动机器人移动到指定垃圾箱附近,进行垃圾投放。
步骤2中yolo6D检测网络训练包括:
步骤2.1.1、构建3D目标检测数据集;
步骤2.1.2、利用服务器搭建yolo6D检测网络;
步骤2.1.3、训练步骤2.1.2所搭建的yolo6D检测网络并得到目标检测模型;
步骤2.1.4、利用步骤2.1.3所得模型检测待抓取垃圾。
步骤2中PoseCNN位姿估计网络训练包括:
步骤2.2.1、在Ubuntu 16.04系统下,利用Keras深度学习框架搭建PoseCNN位姿估计网络;
步骤2.2.2、利用步骤2.1.1所得数据集训练步骤2.2.1搭建的PoseCNN位姿估计网络,得到PoseCNN位姿估计网络模型;
步骤2.2.3、当深度相机将检测到的物体信息传送到PoseCNN位姿估计网络模型之后,PoseCNN输出待抓取物体的位姿信息,其中位姿信息包括抓取角度、抓取位置。
本发明的有益效果是:本发明一种垃圾分类装置,能实现常见可回收生活垃圾的细分类。采用TS2520阵列式触觉传感器对待分类垃圾的材质、硬度等信息进行细分类,可区分纸制品、塑料制品、金属制品以及玻璃制品等常见材质。解决了由于仅使用视觉系统而无法区分无色塑料制品与玻璃制品的技术难题。采用眼在外与眼固定双视觉系统,其中眼在外系统中所用到的深度相机固定在工业机器人系统外部,可检测载物台上的所有待抓取物体;眼固定系统中所用到的深度相机固定在执行抓取的垃圾分类机器人的末端执行器上方,即固定在手爪上方,眼固定相机可随着末端执行器位置的改变测量出待抓取的某一特定垃圾的深度信息。双视觉系统的设计提高了物体抓取的准确率,解决了由于拍摄画面有限造成的待抓取物体出现截断的情况。本发明一种垃圾分类装置的分类方法通过目标检测网络对待分类垃圾进行初步检测,利用位姿估计算法输出待抓取垃圾的位置与抓取角度信息,通过TCP-IP协议与工业机器人进行通讯,控制机器人执行抓取操作。利用目标检测网络与位姿估计网络共同输出待分类垃圾的位姿信息与类别信息,提高了垃圾分类机器人的抓取效率。
附图说明
图1是本发明一种垃圾分类装置的结构示意图;
图2是本发明一种垃圾分类装置的分类方法的流程图;
图3是本发明一种垃圾分类装置的分类方法的触觉分类流程图;
图4是本发明一种垃圾分类装置的分类方法中的目标检测流程图;
图5是本发明一种垃圾分类装置的分类方法中的位姿估计流程图。
图中,1.驱动模块,2.六轴机械臂,3.夹爪,4.阵列式触觉传感器,5.摄像头a,6.摄像头b,7.待检测抓取物体,8.载物台。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种垃圾分类装置,如图1所示,包括驱动模块1、触觉感知模块4、六轴机械臂2和抓取控制模块3,驱动模块1嵌入机器人本体内部,六轴机械臂2置于机器人本体外部,万向轮固接在驱动模块1下方,六轴机械臂2末端设置有夹爪3,夹爪3的内侧设置有阵列式触觉传感器4,夹爪上设置有摄像头a5,载物台上方设置有摄像头6b。机器人还包括示教器、机器人控制箱、夹爪3,控制箱分别连接示教器、机器人阵列式触觉传感器4、驱动模块1和夹爪3。摄像头a5与摄像头b6能与电脑进行通讯,电脑端连接服务器,服务器内搭载有yolo6D深度学习检测网络、PoseCNN位姿估计网络,同时控制箱可接收电脑端传输的信息。触觉感知模块包括阵列式触觉传感器4、上位机,上位机分别与触觉传感器4、控制箱相连接。触觉感知模块包括阵列式触觉传感器4、上位机,上位机分别与阵列式触觉传感器4、控制箱相连接,阵列式触觉传感器优选由清华大学研发的TS2520阵列式触觉传感器,摄像头a5与摄像头b6优选Kinect 2.0。
本发明一种垃圾分类装置的分类方法,如图2所示,具体按照以下步骤实施:
步骤1、摄像头a5与摄像头b6拍摄载物台8上的待检测垃圾,控制器驱动模块1,将机器人移动到载物台8前;
步骤2、上位机将步骤1中所拍摄的待检测垃圾图像输入yolo6D检测网络和PoseCNN位姿估计网络中去;
如图4所示,步骤2中yolo6D检测网络训练包括:
步骤2.1.1、构建3D目标检测数据集;
步骤2.1.2、利用服务器搭建yolo6D检测网络;
步骤2.1.3、训练步骤2.1.2所搭建的yolo6D检测网络并得到目标检测模型;
步骤2.1.4、利用步骤2.1.3所得模型检测待抓取垃圾。
如图5所示,步骤2中PoseCNN位姿估计网络训练包括:
步骤2.2.1、在Ubuntu 16.04系统下,利用Keras深度学习框架搭建PoseCNN位姿估计网络;
步骤2.2.2、利用步骤2.1.1所得数据集训练步骤2.2.1搭建的PoseCNN位姿估计网络,得到PoseCNN位姿估计网络模型;
步骤2.2.3、当深度相机将检测到的物体信息传送到PoseCNN位姿估计网络模型之后,PoseCNN输出待抓取物体的位姿信息,其中位姿信息包括抓取角度、抓取位置。
步骤3、yolo6D检测网络和PoseCNN位姿估计网络输出待检测垃圾位置与类别信息和位姿信息,并将所得信息反馈给上位机。
步骤4、上位机根据输出结果向机器人控制箱发送命令,控制箱向夹爪发出指令,旋转一定角度并抓取载物台上的垃圾;
为保证抓取的稳定性与算法的准确性需要对深度相机的内外参进行标定。深度相机的内参可直接从相机中读取出来,内参矩阵是图像坐标系到相机坐标系下的转换矩阵;深度相机的外参矩阵可采用四点标定法,具体步骤如下:
步骤4.1:在载物台平面内任取4个高度不同、位置不同的点;
步骤4.2:测出步骤4.1中的4个点在相机坐标系下的坐标;
步骤4.3:测出步骤4.1中的4个点在机器人坐标系下的坐标;
步骤4.4:根据公式(1)求出转换矩阵R、t。
式中,(Xc,Yc,Zc)为某一点在相机坐标系下的坐标,(Xw,Yw,Zw)为该点在机器人坐标系下的坐标。
其中,相机外参标定可获得机器人坐标系与相机坐标系之间的转换矩阵。
步骤5、当夹爪3抓取到待分类垃圾时,根据附着在夹爪3内侧的阵列式触觉传感器4检测抓取物体所需的力的大小,上位机根据阵列式触觉传感器4的检测结果对垃圾进行细分类;
阵列式触觉传感器对不同材质物体抓取所需的力不同,因此会产生不同的信号,触觉感知分类技术将分类问题简化成二分类问题,利用多层感知器对抓取不同物体产生的信号进行分类。本发明提供的一种垃圾分类装置及分类方法中的触觉分类流程图如图3所示,具体过程如下:
步骤5.1:构建待分类垃圾的触觉数据集,根据能够稳定抓取待分类垃圾夹爪所需的闭合值对触觉数据进行采集;
步骤5.2:对步骤5.1采集到的数据集进行归一化;
步骤5.3:构架多层感知机(MLP)模型;
步骤5.4:利用步骤5.2所得结果训练MLP并得到最优参数;
步骤5.5:通过将分类问题转化成二分类问题实现触觉感知分类。
步骤6、上位机将分类结果输入到控制箱中,控制箱控制驱动模块1驱动机器人移动到指定垃圾箱附近,进行垃圾投放。
本发明一种垃圾分类装置,能实现常见可回收生活垃圾的细分类。采用TS2520阵列式触觉传感器对待分类垃圾的材质、硬度等信息进行细分类,可区分纸制品、塑料制品、金属制品以及玻璃制品等常见材质。解决了由于仅使用视觉系统而无法区分无色塑料制品与玻璃制品的技术难题。采用眼在外与眼固定双视觉系统,其中眼在外系统中所用到的深度相机固定在工业机器人系统外部,可检测载物台上的所有待抓取物体;眼固定系统中所用到的深度相机固定在执行抓取的垃圾分类机器人的末端执行器上方,即固定在手爪上方,眼固定相机可随着末端执行器位置的改变测量出待抓取的某一特定垃圾的深度信息。双视觉系统的设计提高了物体抓取的准确率,解决了由于拍摄画面有限造成的待抓取物体出现截断的情况。本发明一种垃圾分类装置的分类方法过目标检测网络对待分类垃圾进行初步检测,利用位姿估计算法输出待抓取垃圾的位置与抓取角度信息,通过TCP-IP协议与工业机器人进行通讯,控制机器人执行抓取操作。利用目标检测网络与位姿估计网络共同输出待分类垃圾的位姿信息与类级信息,提高了垃圾分类机器人的抓取效率。
Claims (7)
1.一种垃圾分类装置,其特征在于,包括机器人、触觉感知模块、抓取控制模块以及驱动模块(1),所述驱动模块(1)嵌入机器人本体内部,所述机器人包括万向轮、六轴机械臂(2)、夹爪(3),所述万向轮固接在驱动模块(1)下方,所述六轴机械臂(2)末端设置有夹爪(3),夹爪(3)的内侧设置有阵列式触觉传感器(4),夹爪(3)上配设有摄像头a(5),载物台(8)上方设置有摄像头b(6)。
2.如权利要求1所述的一种垃圾分类装置,其特征在于,所述机器人还包括示教器、控制箱,所述控制箱分别连接示教器、机器人阵列式触觉传感器(4)、驱动模块(1)和夹爪(3)。
3.如权利要求1所述的一种垃圾分类装置,其特征在于,所述摄像头a(5)与摄像头b(6)能与电脑进行通讯,电脑端连接服务器,服务器内搭载有yolo6D深度学习检测网络、PoseCNN位姿估计网络,同时控制箱可接收电脑端传输的信息。
4.如权利要求1所述的一种垃圾分类装置,其特征在于,所述触觉感知模块包括阵列式触觉传感器(4)、上位机,上位机分别与阵列式触觉传感器(4)、控制箱相连接。
5.如权利要求1-4任一权利要求所述的一种垃圾分类装置的分类方法,其特征在于,具体按照以下步骤实施:
步骤1、摄像头a(5)与摄像头b(6)拍摄载物台(8)上的待检测垃圾,控制器驱动模块(1),将机器人(2)移动到载物台前;
步骤2、上位机将步骤1中所拍摄的待检测垃圾输入yolo6D检测网络和PoseCNN位姿估计网络中去;
步骤3、yolo6D检测网络和PoseCNN位姿估计网络输出待检测垃圾位置与类别信息和位姿信息,并将所得信息反馈给上位机;
步骤4、上位机根据输出结果向机器人控制箱发送命令,控制箱向夹爪(3)发出指令,夹爪(3)旋转一定角度并抓取载物台上的垃圾;
步骤5、当夹爪(3)抓取到待分类垃圾时,上位机根据附着在夹爪(3)内侧的阵列式触觉传感器(4)检测抓取物体所需的力的大小对垃圾进行细分类;
步骤6、上位机将分类结果输入到控制箱中,控制箱控制驱动模块(1)驱动机器人(2)移动到指定垃圾箱附近,进行垃圾投放。
6.如权利要求5所述的一种垃圾分类装置的分类方法,其特征在于,所述步骤2中yolo6D检测网络训练包括:
步骤2.1.1、构建3D目标检测数据集;
步骤2.1.2、利用服务器搭建yolo6D检测网络;
步骤2.1.3、训练步骤2.1.2所搭建的yolo6D检测网络并得到目标检测模型;
步骤2.1.4、利用步骤2.1.3所得模型检测待抓取垃圾。
7.如权利要求5所述的一种垃圾分类装置的分类方法,其特征在于,所述步骤2中PoseCNN位姿估计网络训练包括:
步骤2.2.1、在Ubuntu 16.04系统下,利用Keras深度学习框架搭建PoseCNN位姿估计网络;
步骤2.2.2、利用步骤2.1.1所得数据集训练步骤2.2.1搭建的PoseCNN位姿估计网络,得到PoseCNN位姿估计网络模型;
步骤2.2.3、当深度相机将检测到的物体信息传送到PoseCNN位姿估计网络模型之后,PoseCNN输出待抓取物体的位姿信息,其中位姿信息包括抓取角度、抓取位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110727216.8A CN113334368A (zh) | 2021-06-29 | 2021-06-29 | 一种垃圾分类装置及分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110727216.8A CN113334368A (zh) | 2021-06-29 | 2021-06-29 | 一种垃圾分类装置及分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113334368A true CN113334368A (zh) | 2021-09-03 |
Family
ID=77481517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110727216.8A Pending CN113334368A (zh) | 2021-06-29 | 2021-06-29 | 一种垃圾分类装置及分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113334368A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113441421A (zh) * | 2021-07-22 | 2021-09-28 | 北京信息科技大学 | 一种自动垃圾分类系统和方法 |
CN113911586A (zh) * | 2021-12-09 | 2022-01-11 | 四川大学 | 智能垃圾分拣系统及分拣方法 |
CN113996543A (zh) * | 2021-10-09 | 2022-02-01 | 西安石油大学 | 一种智能垃圾分拣机器人 |
CN114101201A (zh) * | 2021-11-04 | 2022-03-01 | 江苏理工学院 | 一种自动识别并分类汽车零部件的清洗装置及方法 |
CN114770461A (zh) * | 2022-04-14 | 2022-07-22 | 深圳技术大学 | 一种基于单目视觉的移动机器人及其自动抓取方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017218324A (ja) * | 2016-06-06 | 2017-12-14 | 真喜 山西 | カニ式塵埃収集車 |
CN108942923A (zh) * | 2018-06-21 | 2018-12-07 | 安徽工程大学 | 一种机械臂抓取控制方法 |
CN109658454A (zh) * | 2018-12-04 | 2019-04-19 | 深圳前海达闼云端智能科技有限公司 | 一种位姿信息确定方法、相关装置及存储介质 |
CN112149573A (zh) * | 2020-09-24 | 2020-12-29 | 湖南大学 | 一种基于深度学习的垃圾分类与拾取机器人 |
CN112287730A (zh) * | 2019-07-24 | 2021-01-29 | 鲁班嫡系机器人(深圳)有限公司 | 姿态识别方法、装置、系统、存储介质及设备 |
CN112529062A (zh) * | 2020-12-04 | 2021-03-19 | 齐鲁工业大学 | 一种基于灵巧手触觉信息的物体分类方法 |
-
2021
- 2021-06-29 CN CN202110727216.8A patent/CN113334368A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017218324A (ja) * | 2016-06-06 | 2017-12-14 | 真喜 山西 | カニ式塵埃収集車 |
CN108942923A (zh) * | 2018-06-21 | 2018-12-07 | 安徽工程大学 | 一种机械臂抓取控制方法 |
CN109658454A (zh) * | 2018-12-04 | 2019-04-19 | 深圳前海达闼云端智能科技有限公司 | 一种位姿信息确定方法、相关装置及存储介质 |
CN112287730A (zh) * | 2019-07-24 | 2021-01-29 | 鲁班嫡系机器人(深圳)有限公司 | 姿态识别方法、装置、系统、存储介质及设备 |
CN112149573A (zh) * | 2020-09-24 | 2020-12-29 | 湖南大学 | 一种基于深度学习的垃圾分类与拾取机器人 |
CN112529062A (zh) * | 2020-12-04 | 2021-03-19 | 齐鲁工业大学 | 一种基于灵巧手触觉信息的物体分类方法 |
Non-Patent Citations (1)
Title |
---|
武张静等: "语音示教+自主巡航智能垃圾分类机器人的研究与设计", 《科技创新与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113441421A (zh) * | 2021-07-22 | 2021-09-28 | 北京信息科技大学 | 一种自动垃圾分类系统和方法 |
CN113441421B (zh) * | 2021-07-22 | 2022-12-13 | 北京信息科技大学 | 一种自动垃圾分类系统和方法 |
CN113996543A (zh) * | 2021-10-09 | 2022-02-01 | 西安石油大学 | 一种智能垃圾分拣机器人 |
CN113996543B (zh) * | 2021-10-09 | 2023-11-10 | 西安石油大学 | 一种智能垃圾分拣机器人 |
CN114101201A (zh) * | 2021-11-04 | 2022-03-01 | 江苏理工学院 | 一种自动识别并分类汽车零部件的清洗装置及方法 |
CN113911586A (zh) * | 2021-12-09 | 2022-01-11 | 四川大学 | 智能垃圾分拣系统及分拣方法 |
CN113911586B (zh) * | 2021-12-09 | 2022-03-18 | 四川大学 | 智能垃圾分拣系统及分拣方法 |
CN114770461A (zh) * | 2022-04-14 | 2022-07-22 | 深圳技术大学 | 一种基于单目视觉的移动机器人及其自动抓取方法 |
CN114770461B (zh) * | 2022-04-14 | 2023-12-01 | 深圳技术大学 | 一种基于单目视觉的移动机器人及其自动抓取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113334368A (zh) | 一种垃圾分类装置及分类方法 | |
US11752625B2 (en) | Robot grip detection using non-contact sensors | |
US20240253253A1 (en) | Sensorized Robotic Gripping Device | |
US20210187735A1 (en) | Positioning a Robot Sensor for Object Classification | |
CN111791239B (zh) | 一种结合三维视觉识别可实现精确抓取的方法 | |
CN111590611B (zh) | 一种基于多模态主动感知的物品分类回收方法 | |
JP5806301B2 (ja) | ロボットシステムにおける物理的な物体の選択のための方法 | |
US10471591B1 (en) | Object hand-over between robot and actor | |
CN109969178B (zh) | 基于多元传感器多物料自主搬运装置及方法 | |
WO2022166505A1 (zh) | 一种远端及自主实验机器人装置、管理系统及方法 | |
CN111974704A (zh) | 基于计算机视觉的垃圾分类检测系统及方法 | |
Shimonomura et al. | Robotic grasp control with high-resolution combined tactile and proximity sensing | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN110509280A (zh) | 一种多自由度并联抓取机器人控制系统及其控制方法 | |
CN113618709A (zh) | 一种用于智能产线的多模态力控无损抓取装置 | |
CN117531717A (zh) | 一种巡逻式智能垃圾分拣机器人及其工作方法 | |
Zhang et al. | Improving robustness of robotic grasping by fusing multi-sensor | |
Ibrahim et al. | Object detection-based automatic waste segregation using robotic arm | |
Fadhil et al. | Computer Vision-Based System for Classification and Sorting Color Objects | |
CN112156992A (zh) | 一种机器视觉教学创新平台 | |
CN102200780A (zh) | 一种实现3h型ccd视觉工业机器人的方法 | |
Faibish et al. | An eye-hand system for automated paper recycling | |
Cong | Design and development of a delta robot system to classify objects using image processing. | |
CN114192447A (zh) | 基于图像识别的垃圾分拣方法 | |
Sunil et al. | Waste Segregation Robot-A Swachh Bharat Initiation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210903 |
|
RJ01 | Rejection of invention patent application after publication |