CN102126221B - 一种基于图像信息的机械手抓取物体的方法 - Google Patents

一种基于图像信息的机械手抓取物体的方法 Download PDF

Info

Publication number
CN102126221B
CN102126221B CN2010106034018A CN201010603401A CN102126221B CN 102126221 B CN102126221 B CN 102126221B CN 2010106034018 A CN2010106034018 A CN 2010106034018A CN 201010603401 A CN201010603401 A CN 201010603401A CN 102126221 B CN102126221 B CN 102126221B
Authority
CN
China
Prior art keywords
data
convex polygon
coordinate
minimal
summit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010106034018A
Other languages
English (en)
Other versions
CN102126221A (zh
Inventor
苏建华
乔红
区志财
刘传凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN2010106034018A priority Critical patent/CN102126221B/zh
Publication of CN102126221A publication Critical patent/CN102126221A/zh
Application granted granted Critical
Publication of CN102126221B publication Critical patent/CN102126221B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种基于图像信息的机械手抓取物体的方法,从图像信息中提取出物体的轮廓,根据轮廓信息,计算出能够保证物体不会从机械手指间逃离的包容抓取方式。该方法的特点在于通过计算包容抓取区域,避免直接计算抓取点的精确位置,并且能够保证在抓取物体过程中,物体不会从机械手中脱离,并最终能够被抓稳。首先采用图像处理模块,从图像信息中提取物体的边缘轮廓;其次,采用凸包计算模块,拟合出包围物体轮廓的最小凸多边形;然后,采用最小宽度计算模块,计算出最小凸多边形的最小宽度;最后,根据包容抓取区域计算模块,计算机械手抓取物体时机械手与物体之间的相对位置关系。引导机械手抓取物体。

Description

一种基于图像信息的机械手抓取物体的方法
技术领域
本发明机器人技术领域,涉及一种基于图像信息的机械手抓取物体的方法。
背景技术
在工业生产活动中,利用机械手抓取放置在工作台或是传送带上的工件,是完成分拣、搬运或是装配任务的基础工序。例如在汽车发动机生产线中,需要利用机械手从一堆杂乱放置的工件中挑拣出连杆并装配到发动机内。在螺栓加工线上,则需要将不符合规格要求的螺帽从传送带上分拣出。在玩具生产线上,需要将不同形状的玩具搬运到不同的包装箱内。在生活领域,目前出现了大量实用化的服务机器人。这些服务机器人,需要根据使用者的指令,智能抓取放置在不同位置的物体,例如水瓶、水果或是扳手。
因而,利用图像信息,计算被抓取物体的位置,自动时计算出该物体的抓取点位置,对于工业机器人和服务机器人灵活完成不同的工作任务,具有重要的应用意义。
目前,大部分基于图像信息的抓取方法属于基于模型重构的抓取方法,即利用图像信息重构出物体的几何轮廓,然后从物体的几何轮廓上计算出抓取点的精确位置。例如,文章,“Manipulation of Unmodeled ObjectsUsing Intelligent Grasping Schemes”[D.L.Bowers和R.Lumia],专利CN03151424.3。这类方法的步骤是:首先,重构出物体的精确几何模型,计算出模型上每个点的位置和该点的法向量;然后,根据形封闭或力封闭的准则,从大量点的集合及其法向量集合中,找出一组符合稳定抓取要求的点。这种算法由于获取点的位置和法向量信息,因而算法复杂性较高;并且,由于机械手在抓取时需要精确到达抓取点位置,在实际应用过程中,如果机械手的手指位置产生偏差,不能到达计算出的抓取点位置,有可能会抓不稳物体。还有一些方法是基于离线训练的抓取方法,建立物体的几何轮廓与抓取点位置的映射关系。例如,文章Grasping Unknown ObjectsBased on 3D Model Reconstruction[B.Wang]。这种方法需要事先用大量的轮廓训练出映射函数。实时性不好。
发明内容
为了解决基于模型重构的抓取算法复杂性较高,并且在使用过程中,由于机械手手指位置的不精确,使物体脱离机械手,抓取不稳定;以及,基于离线学习的抓取方法,需要事先训练抓取映射函数,算法的实时性不好等问题,本发明的目的是提供一种的基于图像信息的机械手抓取物体的方法。
为了实现上述的目的,本发明提供一种基于图像信息的机械手抓取物体的方法,利用图像处理模块、凸包计算模块、最小宽度计算模块和包容抓取区域计算模块实现机械手抓取物体的步骤包括:
步骤S1:图像处理模块,从输入计算机的原始图像信息中提取待抓取物体的边缘轮廓数据;
步骤S2:凸包计算模块接收图像处理模块输出的待抓取物体的边缘轮廓数据,凸包计算模块根据边缘轮廓数据拟合出包围物体边缘轮廓的最小凸多边形;
步骤S3:最小宽度计算模块接收凸包计算模块输出的最小凸多边形数据,最小宽度计算模块利用最小凸多边形数据计算出最小凸多边形的最小宽度;
步骤S4:包容抓取区域计算模块接收最小宽度计算模块输出的最小凸多边形的最小宽度,包容抓取区域计算模块利用最小凸多边形的最小宽度计算机械手抓取物体时机械手与物体之间的相对位置关系,引导机械手抓取物体。
其中,所述凸包计算模块根据边缘轮廓数据拟合最小凸多边形的步骤包括:
步骤S21:输入待抓取物体的边缘轮廓数据,计算待抓取物体的边缘轮廓在y坐标最小的数据Pm,以Pm为极点,计算待抓取物体的边缘轮廓的第j个数据Pj与极点Pm的极角Qj,1≤j≤n,其中n为边缘轮廓数据的个数;
步骤S22:按照极角Qj从小到大的顺序将n个边缘轮廓数据的极角进行排序,得到边缘轮廓数据与极角相对应的数据集合S={P1,P2,.....,Pn},并设定凸包点的初始有序集合为Sinit={R1,R2},其中R1和R2表示最小凸多边形的顶点,R1的x坐标和y坐标等于P1的x坐标和y坐标,R2的x坐标和y坐标等于P2的x坐标和y坐标;
步骤S23:将初始有序集合Sinit的最后两个顶点Ri-1,Ri,其中i是Sinit中包含的顶点的个数,代入最小凸多边形的边直线方程y=ax+b中,计算最小凸多边形的边,其中参数a表示最小凸多边形的边的斜率,参数b表示最小凸多边形的边与y轴的截距,x、y是最小凸多边形的顶点的x坐标和y坐标;
步骤S24:设2≤j≤n,xj、yj是第j个数据Pj的x坐标和y坐标,将数据集合S={P1,P2,.....,Pn}中的第j个数据Pj,代入函数式Dj=axj-yj+b,得到新数据的值Dj,并对新数据的值Dj进行判断:
步骤S24a:如果Dj<0,则将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将凸包点的初始有序集合Sinit中的顶点增加一个,即i=i+1,并设置Ri=Pj,其中Ri表示最小多边形的顶点;
步骤S24b:如果Dj>0,则从凸包点的初始有序集合Sinit中删除第i-1个数据Ri-1
步骤S24c:如果Dj=0,则从凸包点的初始有序集合Sinit中删除第i-1个顶点Ri-1,并将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将凸包点的初始有序集合Sinit中的顶点增加一个,即i=i+1,并设置Ri=Pj
步骤S24d:如果数据集合S={P1,P2,.....,Pn}中的每个数据点都进行过判断,则遍历完所有数据点,则执行步骤25,如果没有遍历完所有数据点,重复步骤S23;
步骤S25:遍历完所有数据点找到则最后一次计算得到的集合Sinit就是凸包点的最终集合Send={R1,R2,.....,Rk},其中k为最终集合Send中包含的顶点的个数;
步骤S26:依次连接最终集合Send中的k个顶点,拟合出包围物体边缘轮廓的最小凸多边形,这个最小凸多边形的顶点的集合为P={R1,R2,.....,Rk}。
其中,所述计算最小凸多边形的最小宽度的步骤包括:
步骤S31:输入最小凸多边形的顶点的集合P后,取出第一个数据R1作为计算的起始点Rm,即初始时m=1;
步骤S32:取出集合P中三个顶点Rm+1,Rm+2和Rm+3,并设定第一个三角形的端点为Un=Rm+2,设定第二个三角形的端点为Un+1=Rm+3
步骤S33:计算由起始点Rm、临近点Rm+1和端点Un组成第一个三角形的面积A1,计算由起始点Rm、临近点Rm+1和端点Un+1组成的第二个三角形的面积A2
步骤S33a:如果A1<A2,则设定第一个三角形的端点Un的位置为Un=Rm+3,并设置第二个三角形的端点Un+1为Rm+4
步骤S33b:如果A1>A2,则计算端点Un到直线RmRm+1的距离W1
步骤S34:起始点Rm依次取集合P中的顶点R2、R3,直到Rk,如果顶点集合P={R1,R2,.....,Rk}中的每个顶点都进行过判断,则遍历完所有顶点,则执行步骤S35,如果没有遍历完所有顶点,重复步骤S32,计算距离W2、W3,直到计算到Wm,执行步骤S35;
步骤S35:计算距离W1、W2、W3,...、Wm中的最小值,这个最小值就为最小凸多边形的最小宽度Wd
其中,所述计算机械手抓取物体时与物体之间的相对位置关系的步骤包括:
步骤S41:在包容抓取区域计算模块中,输入最小凸多边形数据和最小凸多边形的最小宽度;
步骤S42:以机械手的中心为坐标系原点建立机械手坐标系XgOgYg;以最小凸多边形的中心为坐标系原点建立物体坐标系XoOoYo
步骤S43:设定机械手的相邻两个手指的间距DF等于最小凸多边形的最小宽度Wd;设定机械手坐标系的中心和物体坐标系的中心重合,记录机械手的第t个手指在物体坐标系下的坐标Ft(x,y),1≤t≤T,其中T为机械手手指的个数;
步骤S44:以物体坐标系为基准,平移和旋转机械手坐标系,平移后的机械手坐标系坐标原点的位置为(x1,y1)=(x0,y0)+(Δx0,Δy0),旋转后机械手坐标系的方位为θ1=θ0+Δθ0
步骤S45:计算平移和旋转机械手坐标系后,机械手手指t的位置F′t;如果机械手的所有T个手指的位置都在最小凸多边形的外侧,则(x1,y1,θ1)就是包容抓取时机械手与物体之间的相对位置关系,否则,重复步骤S44。
本发明的有益之处在于,从图像信息中提取出物体的轮廓,根据轮廓信息,计算出能够保证物体不会从机械手指间“逃离”的包容抓取方式。这个包容抓取不需要计算出抓取点的精确位置,以及该点的法向量方向;只需要计算出包围该轮廓的最小凸多边形,根据最小凸多边形的信息,计算出包容抓取时机械手与物体之间的相对位置关系。通过该方法计算出的包容抓取方式,能够保证在抓取物体过程中,物体不会从机械手中脱离,并最终能够被抓稳。因此,一方面,机械手的包容抓取可以在线计算,保证了方法的实时性;另一方面,由于不需要获得抓取点的精确位置和法向量,保证了即使机械手的手指位置有偏差,机械手也能够稳定抓取物体。
附图说明
图1为基于图像信息的四指机械手抓取物体的步骤图;
图2为图像处理模块的算法流程图;
图3(a)和图3(b)是实施例
图4为凸包计算模块的算法流程图;
图5为最小宽度计算模块的算法流程图;
图6为包容抓取区域计算模块的算法流程图。
图中标记号:
图像处理模块1,
原始图像11、           原始灰度图12、
高斯滤波函数13、       滤波后的灰度图14、
Canny算子15、          物体的边缘轮廓16;
凸包计算模块2,        最小凸多边形21;
最小宽度计算模块3,    最小凸多边形的最小宽度31;
包容抓取区域计算模块4;
四指机械手包括:
手指501、        手指502、
手指503、        手指504、
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
如图1所示,基于图像信息的机械手快速抓取物体的方法主要利用图像处理模块1、凸包计算模块2、最小宽度计算模块3和包容抓取区域计算模块4四个模块。首先采用图像处理模块1,从图像信息中提取物体的边缘轮廓;其次,采用凸包计算模块2,拟合出包围物体轮廓的最小凸多边形21;然后,采用最小宽度计算模块3,计算出最小凸多边形的最小宽度31;最后,根据包容抓取区域计算模块4,计算机械手抓取物体时机械手与物体之间的相对位置关系。
步骤S1:图像处理模块1输入计算机内的原始图像11,从原始图像中信息中提取包含待抓取物体图像的边缘轮廓数据;输入的图像首先转换为原始灰度图12,采用高斯滤波函数13对原始灰度图进行滤波,去除图像中存在的噪声点,得到滤波后的灰度图14;然后采用Canny算子15从灰度图中提取出待抓取物体的边缘轮廓16。
步骤S2:凸包计算模块2输入待抓取物体的边缘轮廓16数据后,凸包计算模块根据边缘轮廓数据,采用凸包算子拟合出包围物体边缘轮廓的最小凸多边形21,记录下最小凸多边形的k个顶点位置,其中k为最小凸多边形的顶点的个数。
步骤S3:最小宽度计算模块3接收凸包计算模块输出的最小凸多边形数据的k个顶点位置,最小宽度计算模块3利用最小凸多边形数据计算最小凸多边形的所有宽度,然后从这些宽度中计算出最小凸多边形的最小宽度31。
步骤S4:包容抓取区域计算模块4中输入最小凸多边形的最小宽度31,包容抓取区域计算模块利用最小凸多边形的最小宽度计算机械手抓取物体时机械手与物体之间的相对位置关系,引导机械手抓取物体。最小凸多边形的顶点位置,输出包容抓取时机械手与物体之间的相对位置。
每个模块的具体算法流程将在图2、图3(a)、图3(b)、图4、图5中详细描述。
图2所示为本发明的图像处理模块1的算法流程图,输入物体的原始图像11,转换为物体的原始灰度图12,采用高斯滤波函数13对连杆的原始灰度图12进行滤波,去除原始灰度图中存在的噪声点,得到滤波后的物体灰度图14;然后采用Canny算子15从物体灰度图14中提取出待抓取物体的边缘轮廓16。
图3(a)和图3(b)所示为本发明凸多边形的一个具体举例,数据101、数据102、数据103、数据104、数据105、数据106和数据107为物体的轮廓边缘的7个点,其中数据101、102、104、106和107是最小凸多边形的五个顶点,最小凸多边形的边301、最小凸多边形的边302、最小凸多边形的边303、最小凸多边形的边304和最小凸多边形的边305是最小凸多边形的五条边;极角201是数据102的极角,极角202是数据103的极角,极角203是数据104的极角,极角204是数据105的极角,极角205是数据106的极角,极角206是数据107的极角;手指为501,手指为502,手指为503,手指为504;机械手坐标系的原点为61,Xg轴为62,Yg轴为63;物体坐标系的原点为71,Xo轴为72,Yo轴为73。
图4所示为利用凸包计算模块2拟合出包围物体边缘轮廓的最小凸多边形数据的步骤,凸包计算模块2接收图像处理模块1输出的物体的边缘轮廓数据;
步骤S21:输入待抓取物体的边缘轮廓数据,计算待抓取物体的边缘轮廓在y坐标最小的数据Pm=101,以数据101为极点,计算待抓取物体的边缘轮廓的第j个数据Pj与极点101的极角201,202,203,204,205,206。
步骤S22:按照极角从小到大的顺序将6个极角进行排序,得到对应的数据的集合S={101,102,103,104,105,106,107},并设定凸包点的初始有序集合为Sinit={Ri-1,Ri},其中i=2,R1=101,R2=102;
步骤S23:将初始有序集合Sinit的最后两个数据Ri-1,Ri,代入直线方程y=ax+b中,计算参数a,b;
步骤S24:将S={101,102,103,104,105,106,107}中的第j个数据Pj,2≤j≤7代入函数式Dj=axj-yj+b中,并进行判断:
步骤S24a:如果Dj<0,则将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将Sinit中的数据增加一个,即i=i+1,并设置Ri=Pj
步骤S24b:如果Dj>0,则从凸包点的初始有序集合Sinit中删除第i-1个数据Ri-1
步骤S24c:如果Dj=0,则从凸包点的初始有序集合Sinit中删除第i-1个数据Ri-1,并将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将Sinit中的数据增加一个,即i=i+1,并设置Ri=Pj
步骤S25:找到最终集合集合Send={101,102,104,106,107}。
步骤S26:依次连接最终集合Send中的5个点,拟合出包围物体边缘轮廓的最小凸多边形,这个最小凸多边形的顶点的集合为P={101,102,104,106,107}。
图5所示为本发明的最小宽度计算模块3计算最小凸多边形的最小宽度的流程图,其中,最小宽度计算模块3接收凸包计算模块2输出的最小凸多边形的数据。
步骤S31:输入最小凸多边形的顶点的集合P={101,102,104,106,107}后,取出集合中的第一个数据101作为起始点Rm
步骤S32:取出集合P中的三个顶点Rm+1=102,Rm+2=104,Rm+3=106,并设定第一个三角形的端点为Un=Rm+2,设定第二个三角形的端点为Un+1=Rm+3,计算由起始点Rm、临近点Rm+1和端点Un组成第一个三角形的面积A1,计算由起始点Rm、临近点Rm+1和端点Un+1组成的第二个三角形的面积A2
步骤S33:判断:如果A1<A2,则设置Un=106,Un+1=107,计算第一个三角形RmRm+1Un的面积A1,第二个三角形RmRm+1Un+1的面积A2,如果A1>A2,计算点Un=106到直线RmRm+1的距离W1
步骤S34:起始点Rm分别取集合P中的顶点102,104,106,107,重复步骤S32和S33,计算距离W2,W3,W4,W5
步骤S35:计算距离W2,W3,W4,W5中的最小值,这个最小值就为最小凸多边形的最小宽度Wd
图6所示为本发明的包容抓取区域计算模块4计算机械手抓取物体时机械手与物体之间的相对位置关系的步骤图,其中,包容抓取区域计算模块4中接收凸包计算模块2输出的最小凸多边形的数据,最小宽度计算模块3输出的最小凸多边形的最小宽度。
计算步骤为:
步骤S41:在包容抓取区域计算模块4中,输入最小凸多边形数据和最小凸多边形的最小宽度,计算包容抓取时机械手与物体之间的相对位置关系;
步骤S42:以机械手的中心为坐标系原点建立机械手坐标系XgOgYg;以最小凸多边形的中心为坐标系原点建立物体坐标系XoOoYo
步骤S43:设定机械手的相邻两个手指的间距DF等于最小凸多边形的最小宽度Wd;设定机械手坐标系的中心和物体坐标系的中心重合,计算机械手的四个手指501,502,503,504在物体坐标系下的位置F1、F2、F3、F4
步骤S44:以物体坐标系为基准,平移和旋转机械手坐标系,平移后的机械手坐标系坐标原点的位置为(x1,y1)=(x0,y0)+(Δx0,Δy0),旋转后机械手坐标系的方位为θ1=θ0+Δθ0
步骤S45:计算平移和旋转机械手坐标系后,机械手的四个手指501,502,503,504的新位置F′1、F′2、F′3、F′4;如果机械手4个手指的位置都在最小凸多边形的外侧,则(x1,y1,θ1)就是包容抓取时机械手与物体之间的相对位置关系,否则,重复步骤S44;
步骤S46:记录机平移后机械手坐标系的原点的位置为(x1,y1),旋转后机械手的方位θ1,则(x1,y1,θ1)就是机械手抓取物体时机械手与物体之间的相对位置关系。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的权利要求书的保护范围之内。

Claims (4)

1.一种基于图像信息的机械手抓取物体的方法,其特征在于,利用图像处理模块、凸包计算模块、最小宽度计算模块和包容抓取区域计算模块,实现机械手抓取物体的步骤包括:
步骤S1:图像处理模块,从输入计算机的原始图像信息中提取待抓取物体的边缘轮廓数据;
步骤S2:凸包计算模块接收图像处理模块输出的待抓取物体的边缘轮廓数据,凸包计算模块根据边缘轮廓数据拟合出包围物体边缘轮廓的最小凸多边形;
步骤S3:最小宽度计算模块接收凸包计算模块输出的最小凸多边形数据,最小宽度计算模块利用最小凸多边形数据计算出最小凸多边形的最小宽度;
步骤S4:包容抓取区域计算模块接收最小宽度计算模块输出的最小凸多边形的最小宽度,包容抓取区域计算模块利用最小凸多边形的最小宽度计算机械手抓取物体时机械手与物体之间的相对位置关系,引导机械手抓取物体。
2.根据权利要求1所述的基于图像信息的机械手抓取物体的方法,其特征在于,凸包计算模块根据边缘轮廓数据拟合最小凸多边形的步骤包括:
步骤S21:输入待抓取物体的边缘轮廓数据,计算待抓取物体的边缘轮廓在y坐标最小的数据Pm,以Pm为极点,计算待抓取物体的边缘轮廓的第j个数据Pj与极点Pm的极角Qj,1≤j≤n,其中n为边缘轮廓数据的个数;
步骤S22:按照极角Qj从小到大的顺序将n个边缘轮廓数据的极角进行排序,得到边缘轮廓数据与极角相对应的数据集合S={P1,P2,.....,Pn},并设定凸包点的初始有序集合为Sinit={R1,R2},其中R1和R2表示最小凸多边形的顶点,R1的x坐标和y坐标等于P1的x坐标和y坐标,R2的x坐标和y坐标等于P2的x坐标和y坐标;
步骤S23:将初始有序集合Sinit的最后两个顶点Ri-1,Ri,其中i是Sinit 中包含的顶点的个数,代入最小凸多边形的边直线方程y=ax+b中,计算最小凸多边形的边,其中参数a表示最小凸多边形的边的斜率,参数b表示最小凸多边形的边与y轴的截距,x、y是最小凸多边形的顶点的x坐标和y坐标;
步骤S24:设2≤j≤n,xj、yj是第j个数据Pj的x坐标和y坐标,将数据集合S={P1,P2,.....,Pn}中的第j个数据Pj,代入函数式Dj=axj-yj+b,得到新数据的值Dj,并对新数据的值Dj进行判断:
步骤S24a:如果Dj<0,则将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将凸包点的初始有序集合Sinit中的顶点增加一个,即i=i+1,并设置Ri=Pj,其中Ri表示最小多边形的顶点;
步骤S24b:如果Dj>0,则从凸包点的初始有序集合Sinit中删除第i-1个数据Ri-1
步骤S24c:如果Dj=0,则从凸包点的初始有序集合Sinit中删除第i-1个顶点Ri-1,并将第j个数据Pj加入到凸包点的初始有序集合Sinit中,将凸包点的初始有序集合Sinit中的顶点增加一个,即i=i+1,并设置Ri=Pj
步骤S24d:如果数据集合S={P1,P2,.....,Pn}中的每个数据点都进行过判断,则遍历完所有数据点,则执行步骤S25,如果没有遍历完所有数据点,重复步骤S23;
步骤S25:遍历完所有数据点找到则最后一次计算得到的集合Sinit就是凸包点的最终集合Send={R1,R2,.....,Rk},其中k为最终集合Send中包含的顶点的个数;
步骤S26:依次连接最终集合Send中的k个顶点,拟合出包围物体边缘轮廓的最小凸多边形,这个最小凸多边形的顶点的集合为P={R1,R2,.....,Rk}。
3.根据权利要求2所述的基于图像信息的机械手抓取物体的方法,其特征在于,所述计算最小凸多边形的最小宽度的步骤包括:
步骤S31:输入最小凸多边形的顶点的集合P后,取出第一个数据R1作为计算的起始点Rm,即初始时m=1;
步骤S32:取出集合P中三个顶点Rm+1,Rm+2和Rm+3,并设定第一个三角形的端点为Un=Rm+2,设定第二个三角形的端点为Un+1=Rm+3; 
步骤S33:计算由起始点Rm、临近点Rm+1和端点Un组成第一个三角形的面积A1,计算由起始点Rm、临近点Rm+1和端点Un+1组成的第二个三角形的面积A2
步骤S33a:如果A1<A2,则设定第一个三角形的端点Un的位置为Un=Rm+3,并设置第二个三角形的端点Un+1为Rm+4
步骤S33b:如果A1>A2,则计算端点Un到直线RmRm+1的距离W1
步骤S34:起始点Rm依次取集合P中的顶点R2、R3,直到Rk,如果顶点集合P={R1,R2,.....,Rk}中的每个顶点都进行过判断,则遍历完所有顶点,则执行步骤S35,如果没有遍历完所有顶点,重复步骤S32,计算距离W2、W3,直到计算到Wk,执行步骤S35;
步骤S35:计算距离W1、W2、W3,...、Wk中的最小值,这个最小值就为最小凸多边形的最小宽度Wd
4.根据权利要求1所述的基于图像信息的机械手抓取物体的方法,其特征在于,所述计算机械手抓取物体时与物体之间的相对位置关系的步骤包括:
步骤S41:在包容抓取区域计算模块中,输入最小凸多边形数据和最小凸多边形的最小宽度;
步骤S42:以机械手的中心为坐标系原点建立机械手坐标系XgOgYg;以最小凸多边形的中心为坐标系原点建立物体坐标系XoOoYo
步骤S43:设定机械手的相邻两个手指的间距DF等于最小凸多边形的最小宽度Wd;设定机械手坐标系的中心和物体坐标系的中心重合,记录机械手的第t个手指在物体坐标系下的坐标Ft(x,y),1≤t≤T,其中T为机械手手指的个数;
步骤S44:以物体坐标系为基准,平移和旋转机械手坐标系,平移后的机械手坐标系坐标原点的位置为(x1,y1)=(x0,y0)+(Δx0,Δy0),旋转后机械手坐标系的方位为θ1=θ0+Δθ0
步骤S45:计算平移和旋转机械手坐标系后,机械手手指t的位置F′t;如果机械手的所有T个手指的位置都在最小凸多边形的外侧,则(x1,y1,θ1)就是包容抓取时机械手与物体之间的相对位置关系,否则,重复步骤S44。 
CN2010106034018A 2010-12-23 2010-12-23 一种基于图像信息的机械手抓取物体的方法 Expired - Fee Related CN102126221B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010106034018A CN102126221B (zh) 2010-12-23 2010-12-23 一种基于图像信息的机械手抓取物体的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010106034018A CN102126221B (zh) 2010-12-23 2010-12-23 一种基于图像信息的机械手抓取物体的方法

Publications (2)

Publication Number Publication Date
CN102126221A CN102126221A (zh) 2011-07-20
CN102126221B true CN102126221B (zh) 2012-03-28

Family

ID=44264636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010106034018A Expired - Fee Related CN102126221B (zh) 2010-12-23 2010-12-23 一种基于图像信息的机械手抓取物体的方法

Country Status (1)

Country Link
CN (1) CN102126221B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3168675C (en) * 2016-11-08 2024-03-26 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects
WO2018161305A1 (zh) * 2017-03-09 2018-09-13 深圳蓝胖子机器人有限公司 抓取质量检测方法及其应用的方法与系统
CN106960099B (zh) * 2017-03-28 2019-07-26 清华大学 一种基于深度学习的机械手抓取稳定性识别方法
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
CN109205327B (zh) * 2018-06-11 2020-08-28 杭州灵西机器人智能科技有限公司 一种基于多尺度轮廓直角检测的拆垛方法
CN109190688A (zh) * 2018-08-16 2019-01-11 上海发那科机器人有限公司 一种分拣模型生成方法
CN113927590B (zh) * 2020-06-29 2024-02-06 配天机器人技术有限公司 工件移动方法、装置、工业机器人及可读存储介质
CN112025693B (zh) * 2020-09-11 2021-09-14 山东大学 非对称三指抓取器的像素级目标抓取检测方法及系统
CN112802113B (zh) * 2021-02-05 2024-03-19 梅卡曼德(北京)机器人科技有限公司 一种任意形状物体的抓取点确定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1968597A (zh) * 2001-11-13 2007-05-23 赛博光学公司 具有元件布局检查功能的抓取式设备
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4770929B2 (ja) * 2009-01-14 2011-09-14 ソニー株式会社 撮像装置、撮像方法及び撮像プログラム。

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1968597A (zh) * 2001-11-13 2007-05-23 赛博光学公司 具有元件布局检查功能的抓取式设备
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘俊承等.一种基于视觉信息的自主搬运机器人.《科学技术与工程》.2007,第7卷(第3期),314-316,319. *

Also Published As

Publication number Publication date
CN102126221A (zh) 2011-07-20

Similar Documents

Publication Publication Date Title
CN102126221B (zh) 一种基于图像信息的机械手抓取物体的方法
CN102120307B (zh) 一种基于视觉信息的工业机器人磨削系统及方法
CN108858193B (zh) 一种机械臂抓取方法及系统
Chang et al. Collision avoidance of two general robot manipulators by minimum delay time
Vahrenkamp et al. Integrated grasp and motion planning
CN108972494A (zh) 一种仿人机械手抓取控制系统及其数据处理方法
Guida et al. Modeling techniques for kinematic analysis of a six-axis robotic arm
Liarokapis et al. Functional anthropomorphism for human to robot motion mapping
Adjigble et al. Model-free and learning-free grasping by local contact moment matching
Cruciani et al. Dexterous manipulation graphs
Ng et al. Programming a robot for conformance grinding of complex shapes by capturing the tacit knowledge of a skilled operator
Xue et al. Automatic optimal grasp planning based on found contact points
SE1930157A1 (en) Robot cell configuration system and process
Reddy et al. Integration of robotic arm with vision system
CN110370276A (zh) 基于三维模型Morse分解的工业机器人加工轨迹自动规划方法
CN110815230B (zh) 一种基于虚拟采样的六轴码垛机器人位姿适配方法
Cao et al. An integrated method for workspace computation of robot manipulator
Hermann et al. Mobile manipulation planning optimized for GPGPU Voxel-Collision detection in high resolution live 3d-maps
Varshney et al. Manipulator control using human arm imitation
Long et al. Robotic meat cutting
Singh et al. Mathematical modeling and kinematic analysis of 5 degrees of freedom serial link manipulator for online real-time pick and place applications
CN204913899U (zh) 一种机械手
Li The Hand-object Kinematic Model for Bimanual Manipulation
Kamali et al. Improving grasp capabilities of KNTU hand using position & force sensors
Wang et al. Object Grabbing of Robotic Arm Based on OpenMV Module Positioning

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120328

Termination date: 20211223

CF01 Termination of patent right due to non-payment of annual fee