CN111311691A - 拆垛机器人拆垛方法及系统 - Google Patents

拆垛机器人拆垛方法及系统 Download PDF

Info

Publication number
CN111311691A
CN111311691A CN202010147479.7A CN202010147479A CN111311691A CN 111311691 A CN111311691 A CN 111311691A CN 202010147479 A CN202010147479 A CN 202010147479A CN 111311691 A CN111311691 A CN 111311691A
Authority
CN
China
Prior art keywords
point cloud
material bag
robot
example segmentation
unstacking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010147479.7A
Other languages
English (en)
Inventor
陈卫东
沈成洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202010147479.7A priority Critical patent/CN111311691A/zh
Publication of CN111311691A publication Critical patent/CN111311691A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

本发明提供了一种拆垛机器人拆垛方法及系统,工控机运行料袋检测与定位算法处理图像采集模块采集的数据得到料袋抓取点坐标后,将料袋抓取点坐标发送给机器人控制器,从而实现对堆垛的的自动化拆垛。料袋检测与定位算法包括离线部分和在线部分。其中离线部分包括图像采集模块外参标定和点云实例分割网络的训练。在线部分通过点云实例分割模型实现料袋的检测,通过料袋中心点获取和顶层料袋筛选算法对待抓取料袋进行定位,得到料袋抓取点坐标。本发明针对形变料袋等不规则包装的堆垛能准确识别与定位单个料袋,从而实现提高机器人抓取的鲁棒性。

Description

拆垛机器人拆垛方法及系统
技术领域
本发明涉及工业机器人应用领域,具体地,涉及一种拆垛机器人拆垛方法及系统。
背景技术
目前,在各行业编织袋拆垛工作一般分成人工拆垛和自动拆两类。人工拆垛劳动强度大、效率低且成本高,所以自动拆垛在各行业应用普遍。但目前的自动拆垛针对的是形状固定的,不会发生形变的物体。刚性物体的精确位置可以事先确定并将坐标值设定在机器人控制系统中。但编织袋等不规则物体在运输过程中会发生形变,导致料袋的位置会偏离预先设定位置,这时机器人就会抓取不准确,影响拆垛工作。因此,急需设计一套成熟的面向机器人抓取作业的可变形料袋视觉识别与定位方法,实现机器人自动对可变形料袋堆垛的拆垛工作。
专利文献CN104835156A公开了一种基于计算机视觉的无纺布袋自动定位方法,计算无纺布袋的前端线位置、左右端线的四个点的位置,无纺布袋的偏转角度,完成对无纺布袋的定位。该方法只是对流水线上固定深度无纺布袋定位,对不同深度层无纺布袋无法定位,通用性差。专利文献CN107626608A公开了一种利用视觉成像对包装袋进行识别的码垛控制装置,通过多个相机和光电开关获得包装袋位置,该方法所需要的传感器数目较多,推广成本较高。专利文献CN104331894A公开了一种基于双目立体视觉的机器人拆垛方法,该方法针对刚性物体,对于形变物体不能实现较好的目标识别定位。
专利文献CN204487582U公开了一种基于3D视觉引导的工业机器人自动拆垛系统,该系统设计了一种由工业相机和激光测距仪组成的可滑动的扫描仪来实现料袋的识别与定位,该方法推广成本较高。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种拆垛机器人拆垛方法及系统。
根据本发明提供的一种拆垛机器人拆垛方法,包括如下步骤:
离线步骤:图像采集模块离线采集料袋点云图像,手动标注所述料袋点云图像,利用标注的料袋点云图像数据训练点云实例分割网络,得到料袋点云实例分割模型;
在线步骤:利用料袋点云实例分割模型实现在线抓取料袋。
优选地,所述离线步骤包括:
图像采集模块标定步骤:定义深度相机坐标系OC,定义机器人坐标系OR,采用图像采集模块外参标定方法对相机外参进行标定,获取深度相机坐标系相对于机器人坐标系的齐次变换矩阵
Figure BDA0002401269910000021
离线训练步骤:采集大量不同摆放情况的料袋点云图像进行离线训练得到料袋点云实例分割模型。
优选地,所述离线训练步骤包括:
料袋点云图像采集步骤:采集大量不同摆放情况的料袋点云图像;
料袋点云图像标注步骤:对采集的数据进行手动数据标注,标明每个点的语义类别与实例类别;
点云实例分割网络训练步骤:利用标注好的数据对点云实例分割网络进行训练,得到料袋点云实例分割模型。
优选地,所述在线步骤包括:
料袋点云图像采集步骤:使用深度相机实时采集点云图像;
料袋检测步骤:处理深度相机实时采集的点云图像,得到单个料袋点云数据;
料袋定位步骤:分析所有单个料袋点云数据,得到顶层料袋抓取点在机器人坐标系下的坐标。
优选地,所述料袋检测步骤包括:
料袋点云分类步骤:将采集到的点云图像输入到料袋点云实例分割模型,输出每个点的语义类别和实例类别;
料袋点云聚合步骤:根据料袋点云实例分割模型的输出得到所有单个料袋的点云数据。
优选地,所述料袋定位步骤包括:
料袋中心点获取步骤:求取单个料袋区域点云数据的质心,将质心作为料袋的中心;
顶层料袋筛选步骤:从识别出的料袋中筛选出顶层的料袋;
坐标转换步骤:将相机坐标系下的料袋位置转化为机器人坐标系的位置,将顶层料袋坐标位置发送至机器人控制器,实现自动拆垛。
根据本发明提供的一种拆垛机器人拆垛系统,包括:
图像采集模块:离线采集料袋点云图像:
模型构建模块:获取标注后的所述料袋点云图像,利用标注的料袋点云图像数据训练点云实例分割网络,得到料袋点云实例分割模型;
在线抓取模块:利用料袋点云实例分割模型实现在线抓取料袋。
与现有技术相比,本发明具有如下的有益效果:
1、本发明针对形变料袋等不规则包装的堆垛能准确识别与定位单个料袋,从而实现提高机器人抓取的鲁棒性;
2、本发明处理图像采集模块采集的点云数据,不涉及RGB信息,因此当料袋的颜色、纹理发生变化时,算法仍有效;
3、本发明针对在料袋中粉末泄漏导致料袋表面标志变形严重或被遮挡的情况下能准确识别与定位可变形料袋,提高机器人抓取的鲁棒性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为拆垛机器人拆垛方法的系统示意图;
图2为拆垛机器人拆垛方法的步骤流程图。
图中示出:
拆垛工业机器人1
TOF相机2
相机固定装置3
堆垛4
工控机5
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
如图1和图2所述,根据本发明提供的拆垛机器人拆垛方法及系统,首先使用TOF相机离线采集不同摆放情况下的料袋点云图像,然后手动标注离线采集的料袋点云图像。接着使用标注好的料袋点云数据训练点云实例分割网络,得到料袋点云实例分割模型。然后在线采集点云图像,输入料袋点云实例分割模型,得到单个料袋的点云数据,进而得到料袋的抓取点。最后将料袋抓取点坐标位置发送至机器人控制器。具体的,本发明包括:
离线步骤:标定TOF相机及训练点云实例分割网络得到料袋点云实例分割模型;
在线步骤:利用料袋点云实例分割模型实现在线抓取料袋。
具体地,所述离线步骤包括:
TOF深度相机外参标定步骤:定义TOF相机坐标系OC,定义机器人坐标系OR,采用TOF相机外参标定方法对相机外参进行标定,获取TOF相机坐标系相对于机器人坐标系的齐次变换矩阵
Figure BDA0002401269910000041
离线训练步骤:采集大量不同摆放情况的料袋点云图像进行离线训练得到料袋点云实例分割模型;
具体地,所述离线训练步骤包括:
料袋点云图像采集步骤:采集大量不同摆放情况的料袋点云图像。用PCi=(XCi,YCi,ZCi)表示深度相机采集的第i个点在深度相机坐标系下的坐标,则可形成料袋点云训练数据集Td={M1,M2...Mn},其中Mi={PC1,PC2...PCs},表示一帧点云图像,s表示一帧点云图像中点的数量,n表示数据集中点云图像的帧数;
料袋点云图像标注步骤:对得到的料袋点云训练数据集Td进行手动数据标注,标明每个点的语义类别与实例类别。最后形成有标签数据集T={M'1,M'2...M'n},其中M'i={P'C1,P'C2...P'Cs},P'Ci=(XCi,YCi,ZCi,LCi,SCi),(XCi,YCi,ZCi)为第i个点在深度相机坐标系下的坐标,LCi,SCi分别为点i的语义类别(0表示点i为非料袋,1表示点i为料袋点)和点i的实例类别(1表示点i属于第1个物体,2表示点i属于第2个物体,以此类推)。
点云实例分割网络训练步骤:利用标注得到的有标签数据集T训练点云实例分割网络,最终得到训练好料袋点云实例分割模型M;
具体地,所述在线步骤包括:
料袋点云图像采集步骤:用(XCi,YCi,ZCi)表示深度相机采集的第i个点在深度相机坐标系下的坐标。则可得到点云图像帧I={(XC1,YC1,ZC1),(XC2,YC2,ZC2)...(XCs,YCs,ZCs)}。
料袋检测步骤:处理深度相机实时采集的点云图像,得到单个料袋点云数据;
料袋定位步骤:分析所有单个料袋点云数据,得到顶层料袋抓取点在机器人坐标系下的坐标;
具体地,所述料袋检测步骤包括:
料袋点云分类步骤:将点云图像帧I送入训练好的料袋点云实例分割模型M,网络输出点云图像帧I中每个点的语义类别和实例类别,即输出为O={(L1,S1),(L2,S2)...(Ls,Ss)},其中Li表示点云图像帧I中点i的语义类别(0或1),Si表示点云图像帧I中点i的实例类别(0、1、3...);
料袋点云聚合步骤:从点云图像帧I中选出语义属性为1(1表示料袋)的点形成料袋堆垛点云数据L={(XC1,YC1,ZC1),(XC2,YC2,ZC2)...(XCm,YCm,ZCm)};根据L中点的实例类别将L中相同实例类别划分为同一个物体,即将L分割成了N个料袋点云数据B1、B2、...BN,其中Bi={(XC1,YC1,ZC1),(XC2,YC2,ZC2)...(XCt,YCt,ZCt)},t表示料袋Bi中包含的点的个数;
具体地,所述料袋定位步骤包括:
料袋中心坐标获取步骤:对于每个料袋Bi={(XC1,YC1,ZC1),(XC2,YC2,ZC2)...(XCt,YCt,ZCt)},i=1,2,...N,求取Bi质心Gi作为料袋的抓取点。最终得到N个料袋的抓取点G1、G2,...GN,其中
Figure BDA0002401269910000051
顶层料袋筛选步骤:具体步骤如下:
(a)对于得到的N个料袋的抓取点G1、G2,...GN,其坐标分别为(XG1,YG1,ZG1),(XG2,YG2,ZG2),...(XGN,YGN,ZGN),首先按照深度值(即Z值)的大小进行排序,
(b)判断哪些料袋处于同一层:如果|ZGi-ZGj|<γH(i,j=1,2,...N,j>i)则判定料袋Bi和料袋Bj处于同一层,γ为比例系数,H为事先估计的单个料袋的经验厚度。
(c)对得到不同层的料袋取其平均深度。因为深度相机摆放的堆垛上方,所以平均深度最小的层为最上层。由此可得最上层料袋的抓取序列点G1、G2,...GM
坐标转换步骤:将相机坐标系下的最上层料袋抓取点坐标值(XGi,YGi,ZGi)转化为机器人坐标系下的坐标值(XRi,YRi,ZRi),其中
Figure BDA0002401269910000052
将(XRi,YRi,ZRi)发送至机器人控制器,实现对堆垛的自动拆垛。
本发明针对在料袋中粉末泄漏导致料袋表面标志变形严重或被遮挡的情况下能准确识别与定位可变形料袋,提高机器人抓取的鲁棒性。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (8)

1.一种拆垛机器人拆垛方法,其特征在于,包括如下步骤:
离线步骤:图像采集模块离线采集料袋点云图像,获取标注后的所述料袋点云图像,利用标注的料袋点云图像数据训练点云实例分割网络,得到料袋点云实例分割模型;
在线步骤:利用料袋点云实例分割模型实现在线抓取料袋。
2.根据权利要求1所述的拆垛机器人拆垛方法,其特征在于,所述离线步骤包括:
图像采集模块标定步骤:定义深度相机坐标系OC,定义机器人坐标系OR,采用图像采集模块外参标定方法对相机外参进行标定,获取深度相机坐标系相对于机器人坐标系的齐次变换矩阵
Figure FDA0002401269900000011
离线训练步骤:采集大量不同摆放情况的料袋点云图像进行离线训练得到料袋点云实例分割模型。
3.根据权利要求2所述的拆垛机器人拆垛方法,其特征在于,所述离线训练步骤包括:
料袋点云图像采集步骤:采集大量不同摆放情况的料袋点云图像;
料袋点云图像标注步骤:对采集的数据进行手动数据标注,标明每个点的语义类别与实例类别;
点云实例分割网络训练步骤:利用标注好的数据对点云实例分割网络进行训练,得到料袋点云实例分割模型。
4.根据权利要求1所述的拆垛机器人拆垛方法,其特征在于,所述在线步骤包括:
料袋点云图像采集步骤:使用深度相机实时采集点云图像;
料袋检测步骤:处理深度相机实时采集的点云图像,得到单个料袋点云数据;
料袋定位步骤:分析所有单个料袋点云数据,得到顶层料袋抓取点在机器人坐标系下的坐标。
5.根据权利要求4所述的拆垛机器人拆垛方法,其特征在于,所述料袋检测步骤包括:
料袋点云分类步骤:将采集到的点云图像输入到料袋点云实例分割模型,输出每个点的语义类别和实例类别;
料袋点云聚合步骤:根据料袋点云实例分割模型的输出得到所有单个料袋的点云数据。
6.根据权利要求4所述的拆垛机器人拆垛方法,其特征在于,所述料袋定位步骤包括:
料袋中心点获取步骤:求取单个料袋区域点云数据的质心,将质心作为料袋的中心;
顶层料袋筛选步骤:从识别出的料袋中筛选出顶层的料袋;
坐标转换步骤:将相机坐标系下的料袋位置转化为机器人坐标系的位置,将顶层料袋坐标位置发送至机器人控制器,实现自动拆垛。
7.根据权利要求1所述的拆垛机器人拆垛方法,其特征在于,所述图像采集模块包括TOF相机。
8.一种拆垛机器人拆垛系统,其特征在于,包括:
图像采集模块:离线采集料袋点云图像:
模型构建模块:获取标注后的所述料袋点云图像,利用标注的料袋点云图像数据训练点云实例分割网络,得到料袋点云实例分割模型;
在线抓取模块:利用料袋点云实例分割模型实现在线抓取料袋。
CN202010147479.7A 2020-03-05 2020-03-05 拆垛机器人拆垛方法及系统 Pending CN111311691A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010147479.7A CN111311691A (zh) 2020-03-05 2020-03-05 拆垛机器人拆垛方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010147479.7A CN111311691A (zh) 2020-03-05 2020-03-05 拆垛机器人拆垛方法及系统

Publications (1)

Publication Number Publication Date
CN111311691A true CN111311691A (zh) 2020-06-19

Family

ID=71158592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010147479.7A Pending CN111311691A (zh) 2020-03-05 2020-03-05 拆垛机器人拆垛方法及系统

Country Status (1)

Country Link
CN (1) CN111311691A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111932625A (zh) * 2020-09-01 2020-11-13 合肥泰禾光电科技股份有限公司 一种基于PointNet模型的袋装货物垛拆垛方法
CN112150427A (zh) * 2020-09-17 2020-12-29 山东洛杰斯特物流科技有限公司 基于点云信息的混合拆垛方法、装置及设备
CN112802106A (zh) * 2021-02-05 2021-05-14 梅卡曼德(北京)机器人科技有限公司 对象抓取方法及装置
CN113192058A (zh) * 2021-05-21 2021-07-30 中国矿业大学(北京) 一种基于计算机视觉的砖垛智能装车系统及其装车方法
CN115582827A (zh) * 2022-10-20 2023-01-10 大连理工大学 一种基于2d和3d视觉定位的卸货机器人抓取方法
CN117961901A (zh) * 2024-02-22 2024-05-03 深圳市华焱智能有限公司 一种机器人引导抓取系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331894A (zh) * 2014-11-19 2015-02-04 山东省科学院自动化研究所 一种基于双目立体视觉的机器人拆垛方法
CN109584216A (zh) * 2018-11-12 2019-04-05 上海交通大学 面向机器人抓取作业的可变形料袋视觉识别与定位方法
CN109886272A (zh) * 2019-02-25 2019-06-14 腾讯科技(深圳)有限公司 点云分割方法、装置、计算机可读存储介质和计算机设备
US20190196436A1 (en) * 2017-12-21 2019-06-27 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
CN209342062U (zh) * 2018-11-15 2019-09-03 青岛旭升视觉有限公司 3d视觉引导拆垛测量系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331894A (zh) * 2014-11-19 2015-02-04 山东省科学院自动化研究所 一种基于双目立体视觉的机器人拆垛方法
US20190196436A1 (en) * 2017-12-21 2019-06-27 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
CN109584216A (zh) * 2018-11-12 2019-04-05 上海交通大学 面向机器人抓取作业的可变形料袋视觉识别与定位方法
CN209342062U (zh) * 2018-11-15 2019-09-03 青岛旭升视觉有限公司 3d视觉引导拆垛测量系统
CN109886272A (zh) * 2019-02-25 2019-06-14 腾讯科技(深圳)有限公司 点云分割方法、装置、计算机可读存储介质和计算机设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LIN ZHAO等: "JSNet: Joint Instance and Semantic Segmentation of 3D Point Clouds" *
VASKEVICIUS等: "Recognition and Localization of Sacks for Autonomous Container Unloading by Fitting Superquadrics in Noisy, Partial Views from a Low-cost RGBD Sensor" *
郑刘坡: "面向机器人抓取的物体识别及定位技术" *
陈晓东;石江涛;贾仁耀;: "3D机器视觉在智能机器人拆垛中的应用" *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111932625A (zh) * 2020-09-01 2020-11-13 合肥泰禾光电科技股份有限公司 一种基于PointNet模型的袋装货物垛拆垛方法
CN112150427A (zh) * 2020-09-17 2020-12-29 山东洛杰斯特物流科技有限公司 基于点云信息的混合拆垛方法、装置及设备
CN112802106A (zh) * 2021-02-05 2021-05-14 梅卡曼德(北京)机器人科技有限公司 对象抓取方法及装置
CN112802106B (zh) * 2021-02-05 2024-06-18 梅卡曼德(北京)机器人科技有限公司 对象抓取方法及装置
CN113192058A (zh) * 2021-05-21 2021-07-30 中国矿业大学(北京) 一种基于计算机视觉的砖垛智能装车系统及其装车方法
CN115582827A (zh) * 2022-10-20 2023-01-10 大连理工大学 一种基于2d和3d视觉定位的卸货机器人抓取方法
CN117961901A (zh) * 2024-02-22 2024-05-03 深圳市华焱智能有限公司 一种机器人引导抓取系统及方法

Similar Documents

Publication Publication Date Title
CN111311691A (zh) 拆垛机器人拆垛方法及系统
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
CN107945192B (zh) 一种托盘纸箱垛型实时检测方法
WO2019189661A1 (ja) 学習データセット作製方法及び装置
CN104331894A (zh) 一种基于双目立体视觉的机器人拆垛方法
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
US20040041808A1 (en) Device for detecting position/orientation of object
CN107804514A (zh) 一种基于图像识别的牙刷分拣方法
CN116228854B (zh) 一种基于深度学习的包裹自动分拣方法
KR102391501B1 (ko) 딥러닝을 이용한 비정형 재활용품 분류 시스템 및 그 방법
CN116529760A (zh) 抓取控制方法、装置、电子设备和存储介质
CN114758236A (zh) 一种非特定形状物体识别、定位与机械手抓取系统及方法
CN109584216A (zh) 面向机器人抓取作业的可变形料袋视觉识别与定位方法
CN108748149A (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN111932625A (zh) 一种基于PointNet模型的袋装货物垛拆垛方法
CN114299139A (zh) 一种3d叠包分拣方法、系统及存储介质
CN112989881A (zh) 一种无监督可迁移的3d视觉物体抓取方法
CN113602799A (zh) 一种航空港行李箱搬运系统及其控制方法
CN110533717B (zh) 一种基于双目视觉的目标抓取方法及装置
CN115213122B (zh) 基于3d深度网络的无序分拣方法
CN116175542B (zh) 确定夹具抓取顺序的方法、装置、电子设备和存储介质
CN116188559A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN116197885A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN112907666A (zh) 一种基于rgb-d的托盘位姿估计方法、系统及装置
CN112233176A (zh) 一种基于标定物的目标位姿测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200619