CN113657551A - 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 - Google Patents
一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 Download PDFInfo
- Publication number
- CN113657551A CN113657551A CN202111018826.7A CN202111018826A CN113657551A CN 113657551 A CN113657551 A CN 113657551A CN 202111018826 A CN202111018826 A CN 202111018826A CN 113657551 A CN113657551 A CN 113657551A
- Authority
- CN
- China
- Prior art keywords
- sorting
- robot
- objects
- multiple targets
- grabbing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013439 planning Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 8
- 238000000638 solvent extraction Methods 0.000 claims description 8
- 230000008447 perception Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 238000002922 simulated annealing Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 6
- 238000001514 detection method Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract description 2
- 230000001737 promoting effect Effects 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 14
- 238000013507 mapping Methods 0.000 description 3
- 235000012055 fruits and vegetables Nutrition 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法,结合双目视觉系统、机器人抓取部位检测、任务规划与控制,基于视觉推理的多物体堆叠场景抓取方法,相关的研究结果可为分拣机器人的发展提供了基础,使分拣机器人能够适应于多物体堆叠场景的抓取任务,另外在通过对复杂工件外形特征的精确识别,以及复杂工件抓取最佳位姿,以提高分拣机器人抓取作业的精确度、稳定性和快速性。对于解决劳动密集型产业人力资源不足的情况,以及对推进制造业发展的具有重要的意义。
Description
技术领域
本发明涉及机器人技术领域,特别是涉及一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法。
背景技术
随着全球人口老龄化数量的与日俱增,且人力资源的日渐匮乏,人工作业成本占制造生产成本的比例逐年增加,劳动力短缺已成为制造业建设的一个重大问题,因此装备自动化成为了一种需要和趋势。快递分拣和制造业分拣、搬运作业属于劳动密集型工作,物流行业的分拣作业仍处于人工操作阶段,针对分拣机工件慢、精确度低以及定位不准等问题。急需对分拣机器人的信息感知系统及任务规划等进行研究和创新。
发明内容
本发明的目的是提供一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法,解决分拣机器人的分拣和抓取作业效率问题,并克服分拣机器人分步分拣作业方式的不足。
为实现上述目的,本发明提供一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法,具体包括以下步骤:
S1、通过双目视觉系统获取成像范围内物件的图像,得到若干张待识别图像;
S2、对所述待识别图像进行预处理;
S3、对预处理后的待识别图像中的物件进行标注框标定,并采用YOLOv4算法对所述物件进行外轮廓特征提取;
S4、构建FasterR-CNN网络模型,将所述物件的外轮廓特征输入到所述FasterR-CNN网络模型中进行训练和优化,得到物件定位模型,输出每个物件的位置信息;
S5、基于S3~S4,采用图像信息感知技术对分拣机器人进行任务分区和工作顺序确定;
S6、基于所述S5,对分拣机器人抓取目标物的路径进行规划,所述分拣机器人根据所述工作顺序和规划路径进行抓取和分拣。
优选的,所述S3具体为:
S31、将预处理后的待识别图像按照比例划分为训练集和测试集;
S32、对所述训练集和测试集的物件分别进行标注框标定;
S33、采用YOLOv4算法对标定后的所述训练集和测试集中的物件外轮廓特征分别进行提取。
优选的,所述S4具体为:
S41、构建Faster R-CNN网络模型,将所述训练集的外轮廓特征输入到所述FasterR-CNN网络模型中进行训练;
S42、通过神经元节点识别结果的实时反馈,对所述Faster R-CNN网络模型进行参数优化,得到训练后的Faster R-CNN网络模型;
S43、将所述测试集的外轮廓特征输入到所述训练后的Faster R-CNN网络模型进行验证,当输出结果精度达到设定阈值,则得到目标物体定位模型;
S44、利用所述目标物体定位模型对每个物件进行定位,输出每个物件的位置信息。
优选的,所述S5具体为:
S51、根据所述S3的物件外轮廓特征,确定目标物的抓取类型,并根据所述抓取类型对分拣任务进行分区;
S52、确定分拣工作顺序,并根据所述S4中的每个物件的位置信息规定分拣起始位置和统计分拣顺序的路径长度;
S53、将所述S4中的每个物件的位置信息传输至分拣机器人上位机控制器,所述控制器根据接收到的位置信息获取实际物件的位置,并确定分拣机器人到达方向。
优选的,采用K-means聚类算法对所述分拣任务进行分区。
优选的,采用模拟退火法对所述工作顺序进行确定。
优选的,所述S6具体为:
基于任务分区、所述实际物件的位置、分拣起始位置、统计分拣顺序的路径长度和所述分拣机器人到达方向,确定分拣机器人的最短运动轨迹且路径平滑,并确定了分拣机器人的工具端旋转的最大半径值和分离点的位置,得到分拣机器人的路径规划;然后所述分拣机器人根据分拣工作顺序和规划路径进行抓取和分拣。
优选的,所述S3中标注框标定的物件包括外轮廓完整的物件和外轮廓不完整的物件。
优选的,所述预处理包括:图像去冗余、图像灰度变换、直方图均衡化和Gabor滤波。
优选的,所述双目视觉系统采用的是ZED Stereolabs2代双目深度传感立体相机。
与现有技术相比,本发明具有以下技术效果:
本发明有效解决了自然环境下堆叠遮挡目标识别和任务规划的问题,识别精度高,速度快,可推广至物流行业和果蔬分拣等企业、以及劳动密集型组装代工大厂与中小企业等;同时还大大降低了劳动力成本负担,解决生产效率低下与补足劳力缺口等问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的方法流程图;
图2为本发明实施例的利用K-means聚类算法对同类型物件图像进行任务分区的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
参照图1所示,本发明提出一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法,具体包括以下步骤:
S1、根据工作场景中的环境,分拣机器人通过双目视觉系统对成像范围内的所有物件进行图像采集,获得n张待识别图像。
其中,本发明采用的是SmartFLY的ZED Stereolabs 2代双目深度传感立体相机,能够感知运动和空间、感知三维世界(深度感知、位置跟踪、三维映射)、移动追踪、3D建图(3D测绘能力)、室外深度感知且感知距离长、多种支持,利用双目视觉和高分辨率的传感器,精确定位目标物的实际位置,为后续图像预处理、图像检测及目标物特征识别奠定了良好的精度基础。
S2、对得到的每张待识别图像进行预处理;
一般地,图像在采集、生成和传输过程中会受到各种噪声的干扰和影响,而致使图像包含了各种的噪声和畸变,直接使用会影响后续识别系统的正确性和精度,因此,在进行目标识别之前,需通过一些预处理技术使有用的信息变的更易于提取。
本发明采用MATLAB软件对待识别图像进行预处理,首先,对待识别图像采用图像去冗余算法以去除图像中的冗余图像;再对图像采用图像灰度变换处理,以避免条带失真;然后通过直方图均衡化使较少像素的灰度会被分配到别的灰度去,像素相对集中,处理后灰度范围、对比度及清晰度变大,能够有效增强图像;最后采用Gabor滤波算法去除图像中的噪声干扰,还能够突出图像中目标物的空间信息,压抑其他无关的信息。
S3、根据工作场景中的环境,对预处理后的待识别图像中的所有物件进行标注框标定,并采用YOLO v4算法对所述物件的外轮廓特征进行提取;所述标注框可以是矩形也可以是不规则形状。
其中,所有物件既包括外轮廓完整的物件,又包括外轮廓不完整的物件,这是由于物件之间的堆叠遮挡导致轮廓显示不完整,因此,对外轮廓不完整的物件也进行标注框标定能够保证后续目标物特征训练的可靠性,避免因偶然因素对网络训练及后期测试造成的影响。
首先,将所述预处理后的待识别图像按照包括但不限于8:2比例划分为训练集和测试集;然后根据工作场景中的环境,对所述训练集和测试集中的所述物件进行标注框标定,并采用YOLOv4算法对训练集和测试集中的物件外轮廓特征分别进行提取。所述外轮廓特征包括:物件的大小、质量、颜色、纹理、外轮廓形状等,这种图像数据集的多样性,能够促进网络训练学习的有效性及网络泛化能力,提高分拣目标的识别精度。
S4、构建Faster R-CNN网络模型,将所述物件的外轮廓特征输入到所述Faster R-CNN网络模型中进行训练和优化,得到物件定位模型,输出每个物件的位置信息;
本发明采用Faster R-CNN这种用于目标检测与定位领域的专用深度神经网络算法来对堆叠遮挡及没有堆叠遮挡的目标物外形特性识别与机器人抓取位置的判断。
首先,构建Faster R-CNN网络模型,将所述训练集中提取的物件外轮廓特征输入到Faster R-CNN网络模型中进行训练,通过对神经元节点识别结果进行反馈,不断地优化网络参数,解决了复杂环境下堆叠和部分遮挡目标物无法精准识别的问题,提高目标识别精度和速度,得到训练后的Faster R-CNN网络模型;然后,再将测试集输出到训练后的Faster R-CNN网络模型中进行验证,使得该模型输出结果的精度满足本发明的设定阈值要求,即可得到高精度、高速度的目标物体定位模型,最终输出每个物件的位置信息。
S5、基于每个物件的位置信息和外轮廓特征,通过图像信息感知技术对分拣机器人进行任务分区和确定工作顺序。
本发明通过图像信息感知技术进行多分拣机器人的协同作业任务规划,首先根据复杂物件的外轮廓形状,确定目标物的抓取类型,并根据抓取类型对分拣任务进行分区和确定分拣工作顺序。然后确定收纳筐的中心位置,将临近物件进行聚类,确定为一个工作区域,并将图像中物件分为多个部分。首先,运用K-means聚类算法对同类型目标物件样本图像进行任务分区。具体为:参照图2所示,首先,设置聚类簇数为n,同时选取n个目标物作为初始聚类中心,计算每个目标物与n个聚类中心的距离,并将每个目标物分配给距离最近的聚类中心;然后根据分配结果,重新计算聚类中心,将簇内所有目标物的目标位置均值作为新的聚类中心,判断新的聚类中心是否发生变化,若没有变化,这新的聚类中心为最终的聚类中心(最佳初始聚类中心);反之,则重新选取n个目标物作为初始聚类中心,再次求取新的聚类中心,依次循环往复,直至聚类中心不再发生变化,此时聚类中心为最佳初始聚类中心,则完成任务分区。
分拣工作顺序采用模拟退火法对待识别图像进行验证,确定分拣顺序规划,并规定分拣起始位置,统计分拣顺序的路径长度,缩短了分拣机器人的分拣路径。本发明可为今后多分拣机器人协同作业提供信息感知方法,从而提高机器人分拣效率。
将每个物件的位置信息传输至分拣机器人上位机控制器,控制器根据接收到的位置信息获取实际物件的位置,并确定所述分拣机器人到达方向。
其中,根据排序任务规划方法,从而决定K-means算法中最佳初始聚类中心,K值根据所提出基于贡献率的聚类初始化方法所确定的初始质心数来锁定K的值,该优化方法的运算流程可做如下概括:
Output:经优化后所得到的K个初始聚类中心。
该算法具体运算流程划分为五个步骤:
步骤一、分别计算图像像素集中的每一列像素之和,并将每个像素点所在该列对应值除以该列像素之和,作为该列(单列)的贡献率,然后计算该行所有贡献率,并将其绝对值相加从而获得该像素点的贡献率;
步骤二、根据步骤一计算所得到的每个像素贡献率的值,对图像像素集进行排列;
步骤三、将排列好的像素集划分为K个子像素集;
步骤四、对K个子像素集分别求其均值;
步骤五、最后决定将K个子像素集的均值作为优化算法寻找得到的最佳初始聚类中心。
S6、基于所述S5,对分拣机器人抓取目标物的路径进行规划;通过分拣机器人的路径规划,确定分拣机器人的最短运动轨迹且路径平滑,并确定了分拣机器人的工具端旋转的最大半径值和分离点的位置,解决机器人协调作业防干扰问题,提高分拣机器人分拣效率。然后分拣机器人根据分拣工作顺序和规划路径进行抓取和分拣。
需要注意的是,针对分拣机器人视觉范围内因物件及收纳筐相互遮挡的目标,识别算法将存在遮挡的目标物进行剔除,避免分拣机器人对于遮挡目标包裹位置的分拣动作,达到缩短分拣时间的目的,其中无遮挡目标识别置信度均大于0.99,误识别及遮挡目标的识别置信度均小于0.99。
综上,本发明有效解决了自然环境下堆叠遮挡目标识别和任务规划的问题。遮挡目标图像识别与定位精度达到92.5%。其中识别精度的平均值为96.0%,定位精度误差小(±1.2mm),识别时间约为0.8s±0.1,识别精度高,速度快。所涉及的方法可推广至物流行业和果蔬分拣等企业,以及劳动密集型组装代工大厂与中小企业等,本专利提出的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,大大降低劳动力成本负担、提高生产效率与补足劳力缺口等。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (10)
1.一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,具体包括以下步骤:
S1、通过双目视觉系统获取成像范围内物件的图像,得到若干张待识别图像;
S2、对所述待识别图像进行预处理;
S3、对预处理后的待识别图像中的物件进行标注框标定,并采用YOLO v4算法对所述物件进行外轮廓特征提取;
S4、构建Faster R-CNN网络模型,将所述物件的外轮廓特征输入到所述Faster R-CNN网络模型中进行训练和优化,得到物件定位模型,输出每个物件的位置信息;
S5、基于S3~S4,采用图像信息感知技术对分拣机器人进行任务分区和工作顺序确定;
S6、基于所述S5,对分拣机器人抓取目标物的路径进行规划,所述分拣机器人根据所述工作顺序和规划路径进行抓取和分拣。
2.根据权利要求1所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,所述S3具体为:
S31、将预处理后的待识别图像按照比例划分为训练集和测试集;
S32、对所述训练集和测试集的物件分别进行标准框标定;
S33、采用YOLOv4算法对标定后的所述训练集和测试集中的物件外轮廓特征分别进行提取。
3.根据权利要求2所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,所述S4具体为:
S41、构建Faster R-CNN网络模型,将所述训练集的外轮廓特征输入到所述Faster R-CNN网络模型中进行训练;
S42、通过神经元节点识别结果的实时反馈,对所述Faster R-CNN网络模型进行参数优化,得到训练后的Faster R-CNN网络模型;
S43、将所述测试集的外轮廓特征输入到所述训练后的Faster R-CNN网络模型进行验证,当输出结果精度达到设定阈值,则得到目标物体定位模型;
S44、利用所述目标物体定位模型对每个物件进行定位,输出每个物件的位置信息。
4.根据权利要求2所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,所述S5具体为:
S51、根据所述S3的物件外轮廓特征,确定目标物的抓取类型,并根据所述抓取类型对分拣任务进行分区;
S52、确定分拣工作顺序,并根据所述S4中的每个物件的位置信息规定分拣起始位置和统计分拣顺序的路径长度;
S53、将所述S4中的每个物件的位置信息传输至分拣机器人上位机控制器,所述控制器根据接收到的位置信息获取实际物件的位置,并确定分拣机器人到达方向。
5.根据权利要求4所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,采用K-means聚类算法对所述分拣任务进行分区。
6.根据权利要求2所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,采用模拟退火法对所述工作顺序进行确定。
7.根据权利要求4所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,所述S6具体为:
基于任务分区、所述实际物件的位置、分拣起始位置、统计分拣顺序的路径长度和所述分拣机器人到达方向,确定分拣机器人的最短运动轨迹且路径平滑,并确定了分拣机器人的工具端旋转的最大半径值和分离点的位置,得到分拣机器人的路径规划;然后所述分拣机器人根据分拣工作顺序和规划路径进行抓取和分拣。
8.根据权利要求1所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,
所述S3中标注框标定的物件包括外轮廓完整的物件和外轮廓不完整的物件。
9.根据权利要求1所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,
所述预处理包括:图像去冗余、图像灰度变换、直方图均衡化和Gabor滤波。
10.根据权利要求1所述的用于分拣堆叠多目标的机器人抓取姿态任务规划方法,其特征在于,所述双目视觉系统采用的是ZED Stereolabs 2代双目深度传感立体相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111018826.7A CN113657551B (zh) | 2021-09-01 | 2021-09-01 | 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111018826.7A CN113657551B (zh) | 2021-09-01 | 2021-09-01 | 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113657551A true CN113657551A (zh) | 2021-11-16 |
CN113657551B CN113657551B (zh) | 2023-10-20 |
Family
ID=78493401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111018826.7A Active CN113657551B (zh) | 2021-09-01 | 2021-09-01 | 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113657551B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114132745A (zh) * | 2021-11-30 | 2022-03-04 | 北京新风航天装备有限公司 | 一种基于agv及机器视觉进行工件自动上下料系统及方法 |
CN114789452A (zh) * | 2022-06-21 | 2022-07-26 | 季华实验室 | 一种基于机器视觉的机器人抓取方法及系统 |
CN116309442A (zh) * | 2023-03-13 | 2023-06-23 | 北京百度网讯科技有限公司 | 挑拣信息的确定方法及目标对象的挑拣方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648233A (zh) * | 2018-03-24 | 2018-10-12 | 北京工业大学 | 一种基于深度学习的目标识别与抓取定位方法 |
CN109064495A (zh) * | 2018-09-19 | 2018-12-21 | 东南大学 | 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 |
CN109711288A (zh) * | 2018-12-13 | 2019-05-03 | 西安电子科技大学 | 基于特征金字塔和距离约束fcn的遥感船舶检测方法 |
CN109784297A (zh) * | 2019-01-26 | 2019-05-21 | 福州大学 | 一种基于深度学习的三维目标识别与最优抓取方法 |
CN109784204A (zh) * | 2018-12-25 | 2019-05-21 | 江苏大学 | 一种用于并联机器人的堆叠串类水果主果梗识别和提取方法 |
CN109961460A (zh) * | 2018-12-26 | 2019-07-02 | 国网浙江省电力有限公司 | 一种基于改进YOLOv3模型的多目标巡检方法 |
CN110026987A (zh) * | 2019-05-28 | 2019-07-19 | 广东工业大学 | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 |
CN110175533A (zh) * | 2019-05-07 | 2019-08-27 | 平安科技(深圳)有限公司 | 高架桥交通状况实时监测方法、装置、终端及存储介质 |
CN110560373A (zh) * | 2019-09-02 | 2019-12-13 | 湖南大学 | 一种多机器人协作分拣运输方法及系统 |
CN111445524A (zh) * | 2020-03-31 | 2020-07-24 | 清华大学 | 基于场景理解的施工现场工人不安全行为识别方法 |
CN111985376A (zh) * | 2020-08-13 | 2020-11-24 | 湖北富瑞尔科技有限公司 | 一种基于深度学习的遥感影像舰船轮廓提取方法 |
CN112102368A (zh) * | 2020-08-18 | 2020-12-18 | 东南大学 | 一种基于深度学习的机器人垃圾分类分拣方法 |
CN112295933A (zh) * | 2020-09-17 | 2021-02-02 | 东南大学 | 一种机器人快速分拣货物的方法 |
CN112497219A (zh) * | 2020-12-06 | 2021-03-16 | 北京工业大学 | 一种基于目标检测和机器视觉的柱状工件分类定位方法 |
CN112906680A (zh) * | 2021-05-08 | 2021-06-04 | 深圳市安软科技股份有限公司 | 一种行人属性识别方法、装置及电子设备 |
CN113284179A (zh) * | 2021-05-26 | 2021-08-20 | 吉林大学 | 一种基于深度学习的机器人多物体分拣方法 |
-
2021
- 2021-09-01 CN CN202111018826.7A patent/CN113657551B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648233A (zh) * | 2018-03-24 | 2018-10-12 | 北京工业大学 | 一种基于深度学习的目标识别与抓取定位方法 |
CN109064495A (zh) * | 2018-09-19 | 2018-12-21 | 东南大学 | 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 |
CN109711288A (zh) * | 2018-12-13 | 2019-05-03 | 西安电子科技大学 | 基于特征金字塔和距离约束fcn的遥感船舶检测方法 |
CN109784204A (zh) * | 2018-12-25 | 2019-05-21 | 江苏大学 | 一种用于并联机器人的堆叠串类水果主果梗识别和提取方法 |
CN109961460A (zh) * | 2018-12-26 | 2019-07-02 | 国网浙江省电力有限公司 | 一种基于改进YOLOv3模型的多目标巡检方法 |
CN109784297A (zh) * | 2019-01-26 | 2019-05-21 | 福州大学 | 一种基于深度学习的三维目标识别与最优抓取方法 |
CN110175533A (zh) * | 2019-05-07 | 2019-08-27 | 平安科技(深圳)有限公司 | 高架桥交通状况实时监测方法、装置、终端及存储介质 |
CN110026987A (zh) * | 2019-05-28 | 2019-07-19 | 广东工业大学 | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 |
CN110560373A (zh) * | 2019-09-02 | 2019-12-13 | 湖南大学 | 一种多机器人协作分拣运输方法及系统 |
CN111445524A (zh) * | 2020-03-31 | 2020-07-24 | 清华大学 | 基于场景理解的施工现场工人不安全行为识别方法 |
CN111985376A (zh) * | 2020-08-13 | 2020-11-24 | 湖北富瑞尔科技有限公司 | 一种基于深度学习的遥感影像舰船轮廓提取方法 |
CN112102368A (zh) * | 2020-08-18 | 2020-12-18 | 东南大学 | 一种基于深度学习的机器人垃圾分类分拣方法 |
CN112295933A (zh) * | 2020-09-17 | 2021-02-02 | 东南大学 | 一种机器人快速分拣货物的方法 |
CN112497219A (zh) * | 2020-12-06 | 2021-03-16 | 北京工业大学 | 一种基于目标检测和机器视觉的柱状工件分类定位方法 |
CN112906680A (zh) * | 2021-05-08 | 2021-06-04 | 深圳市安软科技股份有限公司 | 一种行人属性识别方法、装置及电子设备 |
CN113284179A (zh) * | 2021-05-26 | 2021-08-20 | 吉林大学 | 一种基于深度学习的机器人多物体分拣方法 |
Non-Patent Citations (3)
Title |
---|
ZHUANGZHUANG ZHOU等: "Detection of micro-defects on irregular reflective surfaces based on improved faster R-CNN", 《OPEN ACCESS》 * |
叶子涵;陈俊洪;杨振国;刘文印;: "基于视觉和动态运动基元的机械臂抓取轨迹规划", 机器人技术与应用 * |
夏伟杰;张奇志;周亚丽;: "家庭服务机器人目标检测实验研究", 中国仪器仪表 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114132745A (zh) * | 2021-11-30 | 2022-03-04 | 北京新风航天装备有限公司 | 一种基于agv及机器视觉进行工件自动上下料系统及方法 |
CN114789452A (zh) * | 2022-06-21 | 2022-07-26 | 季华实验室 | 一种基于机器视觉的机器人抓取方法及系统 |
CN114789452B (zh) * | 2022-06-21 | 2022-09-16 | 季华实验室 | 一种基于机器视觉的机器人抓取方法及系统 |
CN116309442A (zh) * | 2023-03-13 | 2023-06-23 | 北京百度网讯科技有限公司 | 挑拣信息的确定方法及目标对象的挑拣方法 |
CN116309442B (zh) * | 2023-03-13 | 2023-10-24 | 北京百度网讯科技有限公司 | 挑拣信息的确定方法及目标对象的挑拣方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113657551B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657551B (zh) | 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法 | |
CN109685152B (zh) | 一种基于dc-spp-yolo的图像目标检测方法 | |
CN109664300B (zh) | 一种基于力觉学习的机器人多风格书法临摹方法 | |
CN109784204B (zh) | 一种用于并联机器人的堆叠串类水果主果梗识别和提取方法 | |
CN111062915A (zh) | 一种基于改进YOLOv3模型的实时钢管缺陷检测方法 | |
CN109829476B (zh) | 基于yolo的端到端三维物体检测方法 | |
CN111311702B (zh) | 一种基于BlockGAN的图像生成和识别模块及方法 | |
CN110065068A (zh) | 一种基于逆向工程的机器人装配作业演示编程方法及装置 | |
CN115147488B (zh) | 一种基于密集预测的工件位姿估计方法与抓取系统 | |
CN111860327A (zh) | 一种基于视觉计算视频传输的图像检测与分析方法 | |
CN112802099A (zh) | 一种适用于串型水果的采摘方法 | |
CN114842337A (zh) | 基于深度学习与多维信息融合聚类的果实采摘点识别方法 | |
CN115937552A (zh) | 一种基于融合手工特征与深度特征的图像匹配方法 | |
CN108508844A (zh) | 基于平面辅助光源与机器视觉的产品转移系统及转移方法 | |
CN117576079A (zh) | 一种工业产品表面异常检测方法、装置及系统 | |
JP6596260B2 (ja) | 教示支援方法および画像分類方法 | |
CN115384971A (zh) | 透明对象料箱拾取 | |
CN113222889A (zh) | 高分辨率图像下水产养殖物的工厂化养殖计数方法及装置 | |
CN112488135A (zh) | 一种变电站bim三维图像特征的分类方法 | |
CN107590829B (zh) | 一种适用于多视角密集点云数据配准的种子点拾取方法 | |
CN113516158B (zh) | 基于Faster R-CNN的图模型构建方法 | |
CN114800533A (zh) | 一种用于工业机器人的分拣控制方法及系统 | |
CN115100416A (zh) | 一种不规则钢板位姿识别方法及相关设备 | |
CN115284279A (zh) | 一种基于混叠工件的机械臂抓取方法、装置及可读介质 | |
CN115937507A (zh) | 一种基于点空洞方向卷积的点云语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |