CN105598965A - 基于立体视觉的机器人欠驱动手自主抓取方法 - Google Patents
基于立体视觉的机器人欠驱动手自主抓取方法 Download PDFInfo
- Publication number
- CN105598965A CN105598965A CN201510845320.1A CN201510845320A CN105598965A CN 105598965 A CN105598965 A CN 105598965A CN 201510845320 A CN201510845320 A CN 201510845320A CN 105598965 A CN105598965 A CN 105598965A
- Authority
- CN
- China
- Prior art keywords
- point
- hand
- crawl
- drive
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Abstract
基于立体视觉的机器人欠驱动手自主抓取方法,涉及一种机器人自主抓取方法。为了解决目前的机器人抓取方法需要事先得到物体的三维模型才可求解抓取点的问题和目前的机器人抓取方法只能对简单的物体进行识别,而对复杂的物体则不能获得其相应的抓取点的问题。本发明首先针对所要抓取的物体及其环境,通过Kinect传感器获取物体及环境的RGB-D点云,并对点云进行滤波处理;针对RGB-D点云,提取法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征和相应的约束方程;然后,基于高斯过程分类建立抓取规划方案;按照抓取方案驱动欠驱动手进行抓取,然后根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体。本发明适用于机器人的抓取领域。
Description
技术领域
本发明涉及一种机器人自主抓取方法。
背景技术
自主抓取一直以来都被认为是机器人智能化的一个基本组成部分。目前的机器人基本上都采用主从操作的方式,操作人员通过操作杆控制机器人完成抓取任务。这种操作方式要求操作人员需经过专业的训练,而且操作费时费力,因此研究一种自主抓取方法显得尤为重要。
PlinioMoreno等人提出一种使用支持向量机学习物体可抓取点的方法,使用SVM对点云中的可抓取部位的局部特征进行学习,通过训练以后,他们的算法可以找出物体的可抓取部位和不可抓取部位。为了验证训练结果,他们在OCRA仿真器中进行抓取仿真。为了减少对机器学习模型的训练的工作量,Bohg等人提出采用合成图像进行训练的方法。他们通过提取物体的shapecontext特征,并采用支持向量机的机器学习方法。实验过程中,分别采用了线性分类器和非线性分类器两种机器学习模型,并对这两个分类器进行对比,实验结果表明,结合了shapecontext特征和非线性分类器的算法能够更好地找到物体的抓取点。然而上述算法需要事先得到物体的三维模型,而在实际生活中这是不现实的,因此上述算法有一定的局限性。且以上算法均基于对于一个抓取点的情况进行研究,规划出来的抓取点被认为是执行器的中心位置。而多个抓取点的情况是要求规划出执行器与物体的多个接触点,其结果更易用于在实际的抓取控制当中。同时,多个抓取点的规划方法同时考虑了抓取过程的力封闭性原则和抓取稳定性,因此获得的抓取点的抓取成功率更高,因此受到广大研究人员的青睐。
韩峥等人提出了一种基于Kinect的目标抓取方案。在他们的实验研究中,将Kinect固定在天花板上,能够得到一个固定的抓取场景,当有新物体出现时,采用背景相减法能快速得到物体点云信息。为了将人在放置物体时人手产生的点云的影响消除,采用帧查法对人手的运动进行判别,当人手离开后才识别物体点云。同时,通过简单的几何运算计算出物体抓取点。Vassilios等人提出了一种对平面物体的抓取点的选取方法,将物体形状的不确定性考虑到规划过程中,可以计算出抓取方案是否满足满足力封闭性原则。并提出了一个抓取质量矩阵,在存在物体形状误差和手指放置位置误差的情况下,通过抓取质量矩阵可以识别出抓取的稳定区域。然而上述方法只能获得物体一个面的信息,因此只能对简单的物体进行识别,而对复杂的物体则不能获得其相应的抓取点。
自主抓取系统的核心是抓取规划器的建立。目前很多研究人员采用了有教师的机器学习方法进行抓取规划,过对三维图片进行处理,计算边界上的点的特征,进而采用支持向量机对提取的特征进行机器学习。使用上述方法提取的特征考虑了抓取过程的力封闭性、稳定性和碰撞性,并且提取的都是物体的局部信息,因此具有通用性可以抓取其他的物体。然而由于其获得的抓取点都位于物体的边界上,当抓取方形的物体时,其抓取点都位于方形物体的楞上,因此抓取很不稳定。且上述方法采用支持向量机或者神经网络的方法,只能给出分类的结果,而不能给出属于这一类的概率,因此无法进一步获得其最优的抓取点。
发明内容
本发明为了解决目前的机器人抓取方法需要事先得到物体的三维模型才可求解抓取点的问题和目前的机器人抓取方法只能对简单的物体进行识别,而对复杂的物体则不能获得其相应的抓取点的问题。
基于立体视觉的机器人欠驱动手自主抓取方法,包括下述步骤:
步骤1、针对所要抓取的物体及其环境,通过Kinect传感器获取物体及环境的RGB-D点云,并对点云进行滤波处理;
步骤2、针对RGB-D点云,提取法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征和相应的约束方程;
(1)法向量夹角特征:
在抓住物体时,欠驱动手的两指是对称的,两指的分支点为O″,假设两指与物体的接触点为点C1与点C2,C1与C2的连线为中点与O″的连线与物体表面的交点记为O,n1、n2分别为点O、C1处的法向量,n1、n2的夹角为α;
假设物体与欠驱动手之间的摩擦力系数为f,确定接触点C1与点C2处的摩擦锥,摩擦锥顶角θ的大小由θ=arctan(f)确定;
定义法向量夹角特征为:
F1=cos(α)=cos(n1,n2)
约束方程为:
F1=cos(α)<cos(θ);
(2)共面特征:
定义共面特征为:
F2=distance(n1,n2)
约束方程为:
F2=distance(n1,n2)<F2max;
其中,n1和n2分别表示点O与点C1法线;distance(n1,n2)表示n1和n2所在直线的距离;F2max为临界值;
(3)距离特征:
定义点O到点C1所在的直线距离为dpair;定义欠驱动手最合适的抓取距离为doptimal,定义距离描述子为d=|dpair-doptimal|;欠驱动手的最大距离为dmax,最小距离为dmin,假设
令ω为欠驱动手两指之间的最大距离,得到如下的约束条件:
(4)抓取稳定性特征:
稳定距离为欠驱动手中心与物体重心之间的距离;
通过Kinect传感器获得物体的局部三维点云,通过这局部三维点云找出物体在Kinect中的坐标系x轴、y轴和z轴方向上的最大和最小值,分别记为xmin、xmax、ymin、ymax、zmin、zmax;认为在Kinec的坐标系中物体中心点坐标为
定义共面特征为:
其中xg、yg、zg为在Kinect的坐标系中物体重心的坐标;
约束方程为:
其中,F3max为F3对应的阈值;
(5)碰撞检测特征:
首先是通过对称的方法获得两个抓取点,在两个抓取点外侧分别建立两个圆柱体,圆柱体的半径大于欠驱动手的手指的半径,圆柱体的方向与抓取方向相同;
碰撞检测特征是通过计算点云中的点落入到两个圆柱体中的个数来计算的,分别记为h1、h2;
通过机器学习的方法来学习碰撞检测特征并获得阀值h1max和h2max;即h1<h1max、h2<h2max;
步骤3:基于高斯过程分类建立抓取规划方案;
步骤4:按照抓取方案驱动欠驱动手进行抓取,然后根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体。
本发明具有以下有益效果:
(1)在机器人抓取过程中,物体与物体之间可能存在一定的遮挡的问题,故实际自主抓取中很难获得物体的三维模型。本发明提出了通过平面提取法从Kinect获得的RGB-D图像中提取物体点云,无需物体的三维模型,提高了自主抓取在实际应用中的可操作性和实际的应用性。
(2)本发明通过对获得的物体点云进行特征提取,在此基础上,通过采用高斯过程分类器对提取的特征进行有教师的机器学习,求解出欠驱动手的最优抓取轨迹。所以本发明的抓取效果更好,抓取成功率更高。
(3)为了使得在抓取过程中物体的移动量最小,需要欠驱动手接触到物体以后就立即停止运动。本发明在接触检测过程中采用基于电流的碰撞检测方法,通过高斯过程回归学习欠驱动手电流与电机转角之间的关系;当电流超出一定阀值时认为欠驱动手与物体接触,从而完成碰撞检测;在此基础上,完成欠驱动手的抓取控制。本发明提出的抓取方法可以有效的对复杂物体进行抓取,且抓取成功率在现有方法上有较大提高,成功率在95%以上。
附图说明
图1为法向量夹角特征选取过程的示意图;
图2为共面特征选取过程的示意图;
图3为Kinect传感器获得物体的局部三维点云图;
图4为实际抓取时适合抓取的抓取点示意图;
图5为实际抓取时不适合抓取的抓取点示意图;
具体实施方式
具体实施方式一:
基于立体视觉的机器人欠驱动手自主抓取方法,包括下述步骤:
步骤1、针对所要抓取的物体及其环境,通过Kinect传感器获取物体及环境的RGB-D点云,并对点云进行滤波处理;
Kinect传感器是微软于2010年11月推出的一款3D视觉传感器,其包含一个彩色摄像头和一个深度摄像头,可以直接获得场景内的彩色图和深度图,进而生成场景内的点云;然而,由于Kinect生成的点云中,包含场景内所有物体的点云,数量巨大且特征复杂,处理起来需要大量的机器时间,给后续的处埋带来麻烦;因此需要对所获得的点云进行一定的预处理,提取出点云中物体的点云,并进行滤波和法向量的提取,为后面的特征提取做准备;
步骤2、针对RGB-D点云,提取法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征和相应的约束方程;
(1)法向量夹角特征:
在抓住物体时,欠驱动手的两指是对称的,两指的分支点为O″,假设两指与物体的接触点为点C1与点C2,C1与C2的连线为中点与O″的连线与物体表面的交点记为O,n1、n2分别为点O、C1处的法向量,n1、n2的夹角为α;
假设物体与欠驱动手之间的摩擦力系数为f,因此可以确定接触点C1与点C2处的摩擦锥,摩擦锥顶角θ的大小由θ=arctan(f)确定;
定义法向量夹角特征为:
F1=cos(α)=cos(n1,n2)
约束方程为:
F1=cos(α)<cos(θ);
力封闭原则对于一个稳定的抓取来说是一个必备的条件;如图1所示,点C1和点C2的连线为如果分别在点C1和点C2的摩擦锥范围以内,那么从这两点抓取就可以符合力封闭原则;如果点C1和点C′2;的连线不在摩擦锥范围以内,那么从这两点的抓取时不稳定的;然而,由于只能得到物体的部分点云,点C2和点C′2实际是不可见的,因此通过测量点C1与点O处的法线夹角来替代;点O处的法线代表了抓取方向;
在理想情况下,点C1和点C2的连线应该要与点C1和点C2的法线共线,而点C1和点C2是关于点O所在的法线对称的,在理想情况下点C1处的法线应该要与点O处的法线垂直,因此可以通过测量点C1处的法线与点O处的法线的夹角来衡量是否满足力封闭原则;定义法向量夹角特征为:
F1=cos(α)=cos(n1,n2)
其中n1、n2分别为点O、C1处的法向量,由于必须在点C1和点C2的摩擦锥范围以内,得到如下的约束方程:
F1=cos(α)<cos(θ);
(2)共面特征:
定义共面特征为:
F2=distance(n1,n2)
约束方程为:
F2=distance(n1,n2)<F2max;
其中,n1和n2分别表示点O与点C1法线;distance(n1,n2)表示n1和n2所在直线的距离;F2max为临界值;
如图2所示,由点O′C1C2′构成的抓取方案显然是不可行的,这种情况下,即使点O′与点C1的法向量垂直,当点C1与点C2′的连线仍然不与点C1的法向量和点C2′的法向量共线,为了排除这种情况,要求点O′与点C1所在的直线的直线距离尽可能小(理想状态为0);当点O′与点C1所在的空间直线的直线距离足够小时,则其位置关系转换成如图由点OC1C2构成的抓取方案,显然这种抓取方案是可行的;定义
F2=distance(n1,n2)<F2max
来描述点O′与点C1所在的直线的直线距离,其必须小于一定的临界值F2max,其中n1和n2分别表示点O′与点C1法线,求解n1和n2的距离实则为求解n1、n2所在的直线的距离;
通过使用法向量夹角特征和共面特征,可以使得本文提出的方法考虑到了力封闭原则;
(3)距离特征:
由于欠驱动手机构等方面的限制,两指之间的距离不能太大也不能太小,因此需要定义两指之间的距离特征;数学描述如下,通过求取点O到点C1所在的直线的距离,既可以得到一个抓取点到欠驱动手中心距离,乘以2即为两个接触点之间的距离,即点C1与点C2之间的距离;
定义点O到点C1所在的直线距离为dpair;同时,对于一个欠驱动手,尽管欠驱动手能在一定的范围内实现抓取,然而欠驱动手有一个最合适的抓取距离,定义欠驱动手最合适的抓取距离为doptimal,定义距离描述子为d=|dpair-doptimal|;欠驱动手的最大距离为dmax,最小距离为dmin,则为了方便起见,不妨假设
令ω为欠驱动手两指之间的最大距离,得到如下的约束条件:
(4)抓取稳定性特征:
对于一个稳定的抓取,要求手爪与物体之间的摩擦力与物体的重力相平衡;这种情况下要求手爪的抓取中心与物体的重心之间的距离越小越好,这样的话物体重力产生的外力矩才更小;因此定义一个稳定距离来作为稳定性的评价指标,稳定距离为欠驱动手中心与物体重心之间的距离;
然而由于无法获得物体的全部三维点云,而只能获得其局部信息,因此无法真正的求解出物体的中心或者重心的位置;本文采用如下的简化方法,如图3可以看出,虽然无法获得其完整的点云信息,但是却可以通过Kinect传感器获得物体的局部三维点云,通过这局部三维点云找出物体在Kinect中的坐标系x轴、y轴和z轴方向上的最大和最小值,分别记为xmin、xmax、ymin、ymax、zmin、zmax;认为在Kinect的坐标系中物体中心点坐标为
定义共面特征为:
其中xg、yg、zg为在Kinect的坐标系中物体重心的坐标;
约束方程为:
其中,F3max为F3对应的阈值;
(5)碰撞检测特征:
首先是通过对称的方法获得两个抓取点,在两个抓取点外侧分别建立两个圆柱体,圆柱体的半径大于欠驱动手的手指的半径,圆柱体的方向与抓取方向相同;
碰撞检测特征是通过计算点云中的点落入到两个圆柱体中的个数来计算的,分别记为h1、h2;
如果两个圆柱体中都没有点,那么这个抓取方案在抓取过程中很有可能就不会与物体发生碰撞;反之,当圆柱体中有点时,则可能与物体发生碰撞;然而,由于点云存在一定的噪声,有时候尽管不会产生碰撞,圆柱体中也会有少量的点云;因此,有必要通过机器学习的方法来学习碰撞检测特征并获得合理的阀值h1max和h2max;即h1<h1max、h2<h2max;
通过以上5点特征,可以确定出一个稳定的抓取;第1、2个特征保证了抓取的力封闭原则,第3、5个特征保证了这种抓取方案对本研究中所使用的欠驱动手来说是可行的,第4个特征则保证了抓取过程的稳定性,保证了抓取的质量;
步骤3:基于高斯过程分类建立抓取规划方案;
步骤4:按照抓取方案驱动欠驱动手进行抓取,然后根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体。
具体实施方式二:
本实施方式步骤1所述的对点云进行滤波处理的过程的具体步骤如下:
步骤1.1、使用半径离群点移除滤波器(RadiusOutlierRemoval滤波器)移除离群点;
通过使用PCL库提供的半径离群点移除滤波器可以去除由于噪声产生的少量离群点;滤波过程如下,假设点A是需要通过滤波的点,则首先采用Kd_tree的搜索算法统计出以点A为中心,r为半径的球内部的点的总数,当点数小于阀值n时,则认为其是离群点;
步骤1.2、使用平均值滤波器使得物体的表面更为平滑。
通过使用平均值滤波器可以去除白噪声的影响;滤波过程如下,假设点A是需要通过滤波的点,则首先采用Kd_tree的搜索算法求取出以点A为中心,r为半径的球内部的点,将这些点的坐标值取平均数作为点A的坐标;通过循环的方法对点云中所有的点都进行滤波。
其他步骤和参数与具体实施方式一相同。
具体实施方式三:
本实施方式步骤3所述基于高斯过程分类建立抓取规划方案的具体步骤如下:
求取完以上各个特征以后,可以通过有教师的机器学习方法来获得抓取方案;通过采用高斯过程分类器这一机器学习方法来获得抓取方案的原因:1)实际特征与理想特征之间的误差是由噪声产生的,因此他们服从高斯分布;所以这些误差都可以被高斯过程所学习;2)相对比支持向量机和神经网络来说,高斯过程分类器构造更为简单,只需要确定其核函数和均值函数即可,同时使用的参数更少,这使得参数优化更为简单,同时参数也更容易收敛;3)高斯过程分类器不仅可以给出分类的结果,而且给出其概率的大小,这个概率在本研究中也就代表抓取成功的概率,这为后面的排序算法创造了条件;
步骤3.1、基于所述的抓取特征,通过一个六维向量来描述一对抓取点的抓取情况,设Xi∈R6为抓取特征向量;抓取特征向量中的每一个元素分别对应于法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征,由于碰撞检测特征需要检测两个接触点的碰撞检测特征,因此碰撞检测特征对应抓取特征向量中的两个元素;
步骤3.2、通过实际抓取判断抓取点是否合适抓取,利用高斯过程分类器获得训练结果;
步骤3.3、通过高斯过程分类器计算得出各抓取点适合抓取的概率,在0到1之间变化,概率越大抓取成功率越高;并按概率从高到低指定抓取方案。
其他步骤和参数与具体实施方式一或二相同。
具体实施方式四:
本实施方式步骤3.2所述利用高斯过程分类器获得训练结果的具体步骤如下:
步骤3.2.1、将物体放置在Kinect的可视范围以内,通过Kinect采集物体的点云,采用随机采样法从物体的点云中采集两点作为一对抓取点,并计算相应的抓取特征向量Xi∈R6,并将这对抓取点在RGB-D点云中绘制出来,通过实际抓取对抓取点进行判别,如图4所示,当抓取点适合抓取时,令输出Yi=1;如图5所示,当抓取点不适合抓取时,令输出Yi=-1;
步骤3.2.2、按照步骤3.2.1的操作,重复多次,获得训练集
步骤3.2.3、根据训练集验证点云中所有的点是否适合抓取,并不断实时在线更新训练集的训练结果。
其他步骤和参数与具体实施方式一至三之一相同。
具体实施方式五:
本实施方式步骤4所述根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体的具体步骤如下:
步骤4.1、通过欠驱动的运动学、准静力学和高斯过程分类器,确定抓取轨迹,并对抓取轨迹进行优化,使得实际抓取点与物体抓取点之间的距离最小;根据优化后的抓取轨迹对物体进行抓取;
步骤4.2、驱动手指按照轨迹接触抓取物,基于接触检测的抓取控制器完成抓取过程;抓取过程主要分为三个阶段:预抓取阶段、夹紧阶段、释放阶段;释放阶段完成后,抓取过程结束。
其他步骤和参数与具体实施方式一至四之一相同。
具体实施方式六:
本实施方式步骤4.2所述预抓取阶段、夹紧阶段、释放阶段具体如下:
预抓取阶段是指两个欠驱动手手指没有都与物体接触时的情况,此时欠驱动手按照指定的方式进行运动;
夹紧阶段是在预抓取的基础上进行的;当两个欠驱动手手指都与物体接触时,两个手指的欠驱动关节开始运动对物体进行夹紧,并不断读取欠驱动手关机的转角以及驱动电流,并通过高斯过程回归检测电流变化,当电流满足以下式子时认为物体已经夹紧,当欠驱动手夹紧物体后,停止运动;
其中,α′为欠驱动单元的转角,Iα′为相应时刻的电流,为相应时刻通过高斯过程回归计算的电流的理论平均值,ω′为对应夹紧判据所对应的权重;Ilimit表示的值,gcr为检测电流偏差最大值;
释放阶段,当欠驱动手控制器接收到释放命令以后,欠驱动手的舵机以及电机均运动到零位,从而完成物体的释放。
其他步骤和参数与具体实施方式一至五之一相同。
Claims (6)
1.基于立体视觉的机器人欠驱动手自主抓取方法,其特征在于包括下述步骤:
步骤1、针对所要抓取的物体及其环境,通过Kinect传感器获取物体及环境的RGB-D点云,并对点云进行滤波处理;
步骤2、针对RGB-D点云,提取法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征和相应的约束方程;
(1)法向量夹角特征:
在抓住物体时,欠驱动手的两指是对称的,两指的分支点为O″,假设两指与物体的接触点为点C1与点C2,C1与C2的连线为中点与O″的连线与物体表面的交点记为O,n1、n2分别为点O、C1处的法向量,n1、n2的夹角为α;
假设物体与欠驱动手之间的摩擦力系数为f,确定接触点C1与点C2处的摩擦锥,摩擦锥顶角θ的大小由θ=arctan(f)确定;
定义法向量夹角特征为:
F1=cos(α)=cos(n1,n2)
约束方程为:
F1=cos(α)<cos(θ);
(2)共面特征:
定义共面特征为:
F2=distance(n1,n2)
约束方程为:
F2=distance(n1,n2)<F2max;
其中,n1和n2分别表示点O与点C1法线;distance(n1,n2)表示n1和n2所在直线的距离;F2max为临界值;
(3)距离特征:
定义点O到点C1所在的直线距离为dpair;定义欠驱动手最合适的抓取距离为doptimal,定义距离描述子为d=|dpair-doptimal|;欠驱动手的最大距离为dmax,最小距离为dmin,假设
令ω为欠驱动手两指之间的最大距离,得到如下的约束条件:
(4)抓取稳定性特征:
稳定距离为欠驱动手中心与物体重心之间的距离;
通过Kinect传感器获得物体的局部三维点云,通过这局部三维点云找出物体在Kinect中的坐标系x轴、y轴和z轴方向上的最大和最小值,分别记为xmin、xmax、ymin、ymax、zmin、zmax;认为在Kinec的坐标系中物体中心点坐标为
定义共面特征为:
其中xg、yg、zg为在Kinect的坐标系中物体重心的坐标;
约束方程为:
其中,F3max为F3对应的阈值;
(5)碰撞检测特征:
首先是通过对称的方法获得两个抓取点,在两个抓取点外侧分别建立两个圆柱体,圆柱体的半径大于欠驱动手的手指的半径,圆柱体的方向与抓取方向相同;
碰撞检测特征是通过计算点云中的点落入到两个圆柱体中的个数来计算的,分别记为h1、h2;
通过机器学习的方法来学习碰撞检测特征并获得阀值h1max和h2max;即h1<h1max、h2<h2max;
步骤3:基于高斯过程分类建立抓取规划方案;
步骤4:按照抓取方案驱动欠驱动手进行抓取,然后根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体。
2.根据权利要求1所述的基于立体视觉的机器人欠驱动手自主抓取方法,其特征在于步骤1所述的对点云进行滤波处理的过程的具体步骤如下:
步骤1.1、使用半径离群点移除滤波器移除离群点;
步骤1.2、使用平均值滤波器使得物体的表面更为平滑。
3.根据权利要求4所述的基于立体视觉的机器人欠驱动手自主抓取方法其特征在于步骤3所述基于高斯过程分类建立抓取规划方案的具体步骤如下:
步骤3.1、基于所述的抓取特征,通过一个六维向量来描述一对抓取点的抓取情况,设Xi∈R6为抓取特征向量;抓取特征向量中的每一个元素分别对应于法向量夹角特征、共面特征、距离特征、抓取稳定性特征及碰撞检测特征,碰撞检测特征需要检测两个接触点的碰撞检测特征,碰撞检测特征对应抓取特征向量中的两个元素;
步骤3.2、通过实际抓取判断抓取点是否合适抓取,利用高斯过程分类器获得训练结果;
步骤3.3、通过高斯过程分类器计算得出各抓取点适合抓取的概率;并按概率从高到低指定抓取方案。
4.根据权利要求3所述的基于立体视觉的机器人欠驱动手自主抓取方法,其特征在于步骤3.2所述利用高斯过程分类器获得训练结果的具体步骤如下:
步骤3.2.1、将物体放置在Kinect的可视范围以内,通过Kinect采集物体的点云,采用随机采样法从物体的点云中采集两点作为一对抓取点,并计算相应的抓取特征向量Xi∈R6,并将这对抓取点在RGB-D点云中绘制出来,通过实际抓取对抓取点进行判别,当抓取点合适抓取时,令输出Yi=1;当抓取点不合适抓取时,令输出Yi=-1;
步骤3.2.2、按照步骤3.2.1的操作,重复多次,获得训练集
步骤3.2.3、根据训练集验证点云中所有的点是否适合抓取,并不断实时在线更新训练集的训练结果。
5.根据权利要求4所述的基于立体视觉的机器人欠驱动手自主抓取方法,其特征在于步骤4所述根据电流检测判断欠驱动手是否已经抓住物体,直至欠驱动手抓住物体,完成抓取任务后释放物体的具体步骤如下:
步骤4.1、通过欠驱动的运动学、准静力学和高斯过程分类器,确定抓取轨迹,并对抓取轨迹进行优化,使得实际抓取点与物体抓取点之间的距离最小;根据优化后的抓取轨迹对物体进行抓取;
步骤4.2、驱动手指按照轨迹接触抓取物,基于接触检测的抓取控制器完成抓取过程;抓取过程主要分为三个阶段:预抓取阶段、夹紧阶段、释放阶段;释放阶段完成后,抓取过程结束。
6.根据权利要求5所述的基于立体视觉的机器人欠驱动手自主抓取方法,其特征在于步骤4.2所述预抓取阶段、夹紧阶段、释放阶段具体如下:
预抓取阶段是指两个欠驱动手手指没有都与物体接触时的情况,此时欠驱动手按照指定的方式进行运动;
夹紧阶段是在预抓取的基础上进行的;当两个欠驱动手手指都与物体接触时,两个手指的欠驱动关节开始运动对物体进行夹紧,并不断读取欠驱动手关机的转角以及驱动电流,并通过高斯过程回归检测电流变化,当电流满足以下式子时认为物体已经夹紧,当欠驱动手夹紧物体后,停止运动;
其中,α′为欠驱动单元的转角,Iα′为相应时刻的电流,为相应时刻通过高斯过程回归计算的电流的理论平均值,ω′为对应夹紧判据所对应的权重;Ilimit表示的值,gcr为检测电流偏差最大值;
释放阶段,当欠驱动手控制器接收到释放命令以后,欠驱动手的舵机以及电机均运动到零位,从而完成物体的释放。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510845320.1A CN105598965B (zh) | 2015-11-26 | 2015-11-26 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510845320.1A CN105598965B (zh) | 2015-11-26 | 2015-11-26 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105598965A true CN105598965A (zh) | 2016-05-25 |
CN105598965B CN105598965B (zh) | 2018-03-16 |
Family
ID=55979569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510845320.1A Active CN105598965B (zh) | 2015-11-26 | 2015-11-26 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105598965B (zh) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106530297A (zh) * | 2016-11-11 | 2017-03-22 | 北京睿思奥图智能科技有限公司 | 基于点云配准的物体抓取区域定位方法 |
CN106780605A (zh) * | 2016-12-20 | 2017-05-31 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
CN107520838A (zh) * | 2017-08-21 | 2017-12-29 | 珠海格力节能环保制冷技术研究中心有限公司 | 机械手臂及其控制方法和装置 |
CN108177143A (zh) * | 2017-12-05 | 2018-06-19 | 上海工程技术大学 | 一种基于激光视觉引导的机器人定位抓取方法及系统 |
CN108189032A (zh) * | 2017-12-29 | 2018-06-22 | 深圳市越疆科技有限公司 | 视觉识别自动拿取方法和机械臂 |
WO2018161305A1 (zh) * | 2017-03-09 | 2018-09-13 | 深圳蓝胖子机器人有限公司 | 抓取质量检测方法及其应用的方法与系统 |
CN108568804A (zh) * | 2017-03-13 | 2018-09-25 | 发那科株式会社 | 机器人系统、测量数据处理装置及测量数据处理方法 |
CN108638054A (zh) * | 2018-04-08 | 2018-10-12 | 河南科技学院 | 一种智能排爆机器人五指灵巧手控制方法 |
CN109033920A (zh) * | 2017-06-08 | 2018-12-18 | 株式会社理光 | 一种可抓取目标的识别方法、装置及计算机可读存储介质 |
CN109015640A (zh) * | 2018-08-15 | 2018-12-18 | 深圳清华大学研究院 | 抓取方法、系统、计算机装置及可读存储介质 |
CN109079786A (zh) * | 2018-08-17 | 2018-12-25 | 上海非夕机器人科技有限公司 | 机械臂抓取自学习方法及设备 |
CN109190688A (zh) * | 2018-08-16 | 2019-01-11 | 上海发那科机器人有限公司 | 一种分拣模型生成方法 |
CN109241964A (zh) * | 2018-08-17 | 2019-01-18 | 上海非夕机器人科技有限公司 | 机械臂的抓取点的获取方法及设备 |
CN109961106A (zh) * | 2019-04-18 | 2019-07-02 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
CN109956251A (zh) * | 2019-04-19 | 2019-07-02 | 深圳蓝胖子机器人有限公司 | 一种货物识别抓取方法、设备以及存储介质 |
CN109986560A (zh) * | 2019-03-19 | 2019-07-09 | 埃夫特智能装备股份有限公司 | 一种面向多目标种类的机械臂自适应抓取方法 |
GB2570373A (en) * | 2017-11-17 | 2019-07-24 | Ocado Innovation Ltd | Control device and method for a robot system |
CN110315505A (zh) * | 2018-03-29 | 2019-10-11 | 发那科株式会社 | 机器学习装置及方法、机器人控制装置、机器人视觉系统 |
CN110603571A (zh) * | 2017-04-26 | 2019-12-20 | Abb瑞士股份有限公司 | 用于操作机器人的机器人系统和方法 |
CN111095139A (zh) * | 2017-07-20 | 2020-05-01 | 西门子股份公司 | 一种用于检测机器的异常状态的方法和系统 |
TWI693422B (zh) * | 2018-06-25 | 2020-05-11 | 大陸商北京嘀嘀無限科技發展有限公司 | 自然場景中的整合感測器校準 |
CN111163907A (zh) * | 2017-10-03 | 2020-05-15 | 三菱电机株式会社 | 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 |
CN111226237A (zh) * | 2017-09-01 | 2020-06-02 | 加利福尼亚大学董事会 | 用于稳健抓取和瞄准物体的机器人系统和方法 |
CN111645080A (zh) * | 2020-05-08 | 2020-09-11 | 覃立万 | 智能服务机器人手眼协作系统及运行方法 |
CN113524184A (zh) * | 2021-07-16 | 2021-10-22 | 珠海丽珠试剂股份有限公司 | 样本架抓取方法、装置和系统 |
CN113580130A (zh) * | 2021-07-20 | 2021-11-02 | 佛山智能装备技术研究院 | 六轴机械臂避障控制方法、系统及计算机可读存储介质 |
WO2021232669A1 (zh) * | 2020-05-22 | 2021-11-25 | 梅卡曼德(北京)机器人科技有限公司 | 机器人运动规划方法、路径规划方法、抓取方法及其装置 |
US11185978B2 (en) | 2019-01-08 | 2021-11-30 | Honda Motor Co., Ltd. | Depth perception modeling for grasping objects |
WO2021249570A1 (zh) * | 2020-06-12 | 2021-12-16 | 深圳市海柔创新科技有限公司 | 仓储机器人的控制方法、装置、机器人和仓储系统 |
CN114083535A (zh) * | 2021-11-18 | 2022-02-25 | 清华大学 | 一种机器手抓取姿势质量的物理度量方法及装置 |
CN114845842A (zh) * | 2019-10-24 | 2022-08-02 | 辉达公司 | 触觉抓取策略的强化学习 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110074171A1 (en) * | 2009-09-29 | 2011-03-31 | Canon Kabushiki Kaisha | Object grasping control method and apparatus |
CN102902271A (zh) * | 2012-10-23 | 2013-01-30 | 上海大学 | 基于双目视觉的机器人目标识别与抓取系统及方法 |
CN203636837U (zh) * | 2013-10-24 | 2014-06-11 | 广东技术师范学院 | 一种智能机械手 |
CN204036474U (zh) * | 2014-01-08 | 2014-12-24 | 沈阳工业大学 | 工业机器人分拣系统 |
-
2015
- 2015-11-26 CN CN201510845320.1A patent/CN105598965B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110074171A1 (en) * | 2009-09-29 | 2011-03-31 | Canon Kabushiki Kaisha | Object grasping control method and apparatus |
CN102902271A (zh) * | 2012-10-23 | 2013-01-30 | 上海大学 | 基于双目视觉的机器人目标识别与抓取系统及方法 |
CN203636837U (zh) * | 2013-10-24 | 2014-06-11 | 广东技术师范学院 | 一种智能机械手 |
CN204036474U (zh) * | 2014-01-08 | 2014-12-24 | 沈阳工业大学 | 工业机器人分拣系统 |
Non-Patent Citations (1)
Title |
---|
LIYUN LI等: "A Data-driven Grasp Planning Method Based on Gaussian Process Classifier", 《PROCEEDINGS OF 2015 IEEE INTERNATIONAL CONFERENCE ON MECHATRONICS AND AUTOMATION》 * |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106530297A (zh) * | 2016-11-11 | 2017-03-22 | 北京睿思奥图智能科技有限公司 | 基于点云配准的物体抓取区域定位方法 |
CN106780605A (zh) * | 2016-12-20 | 2017-05-31 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
CN106934833B (zh) * | 2017-02-06 | 2019-09-10 | 华中科技大学无锡研究院 | 一种散乱堆放物料拾取装置和方法 |
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
CN109153118A (zh) * | 2017-03-09 | 2019-01-04 | 深圳蓝胖子机器人有限公司 | 抓取质量检测方法及其应用的方法与系统 |
WO2018161305A1 (zh) * | 2017-03-09 | 2018-09-13 | 深圳蓝胖子机器人有限公司 | 抓取质量检测方法及其应用的方法与系统 |
CN108568804B (zh) * | 2017-03-13 | 2019-06-18 | 发那科株式会社 | 机器人系统、测量数据处理装置及测量数据处理方法 |
CN108568804A (zh) * | 2017-03-13 | 2018-09-25 | 发那科株式会社 | 机器人系统、测量数据处理装置及测量数据处理方法 |
CN110603571A (zh) * | 2017-04-26 | 2019-12-20 | Abb瑞士股份有限公司 | 用于操作机器人的机器人系统和方法 |
CN110603571B (zh) * | 2017-04-26 | 2023-11-03 | Abb瑞士股份有限公司 | 用于操作机器人的机器人系统和方法 |
CN109033920A (zh) * | 2017-06-08 | 2018-12-18 | 株式会社理光 | 一种可抓取目标的识别方法、装置及计算机可读存储介质 |
CN109033920B (zh) * | 2017-06-08 | 2021-10-08 | 株式会社理光 | 一种可抓取目标的识别方法、装置及计算机可读存储介质 |
CN111095139B (zh) * | 2017-07-20 | 2024-03-12 | 西门子股份公司 | 一种用于检测机器的异常状态的方法和系统 |
CN111095139A (zh) * | 2017-07-20 | 2020-05-01 | 西门子股份公司 | 一种用于检测机器的异常状态的方法和系统 |
CN107520838A (zh) * | 2017-08-21 | 2017-12-29 | 珠海格力节能环保制冷技术研究中心有限公司 | 机械手臂及其控制方法和装置 |
CN111226237A (zh) * | 2017-09-01 | 2020-06-02 | 加利福尼亚大学董事会 | 用于稳健抓取和瞄准物体的机器人系统和方法 |
CN111163907A (zh) * | 2017-10-03 | 2020-05-15 | 三菱电机株式会社 | 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 |
US11787631B2 (en) | 2017-11-17 | 2023-10-17 | Ocado Innovation Limited | Control device and method for a robot system |
GB2570373B (en) * | 2017-11-17 | 2021-09-15 | Ocado Innovation Ltd | Control device and method for a robot system |
GB2570373A (en) * | 2017-11-17 | 2019-07-24 | Ocado Innovation Ltd | Control device and method for a robot system |
CN108177143B (zh) * | 2017-12-05 | 2021-08-10 | 上海工程技术大学 | 一种基于激光视觉引导的机器人定位抓取方法及系统 |
CN108177143A (zh) * | 2017-12-05 | 2018-06-19 | 上海工程技术大学 | 一种基于激光视觉引导的机器人定位抓取方法及系统 |
CN108189032A (zh) * | 2017-12-29 | 2018-06-22 | 深圳市越疆科技有限公司 | 视觉识别自动拿取方法和机械臂 |
CN108189032B (zh) * | 2017-12-29 | 2023-01-03 | 日照市越疆智能科技有限公司 | 视觉识别自动拿取方法和机械臂 |
CN110315505A (zh) * | 2018-03-29 | 2019-10-11 | 发那科株式会社 | 机器学习装置及方法、机器人控制装置、机器人视觉系统 |
CN108638054A (zh) * | 2018-04-08 | 2018-10-12 | 河南科技学院 | 一种智能排爆机器人五指灵巧手控制方法 |
TWI693422B (zh) * | 2018-06-25 | 2020-05-11 | 大陸商北京嘀嘀無限科技發展有限公司 | 自然場景中的整合感測器校準 |
US10860871B2 (en) | 2018-06-25 | 2020-12-08 | Beijing Didi Infinity Technology And Development Co., Ltd. | Integrated sensor calibration in natural scenes |
CN109015640A (zh) * | 2018-08-15 | 2018-12-18 | 深圳清华大学研究院 | 抓取方法、系统、计算机装置及可读存储介质 |
CN109190688A (zh) * | 2018-08-16 | 2019-01-11 | 上海发那科机器人有限公司 | 一种分拣模型生成方法 |
CN109241964A (zh) * | 2018-08-17 | 2019-01-18 | 上海非夕机器人科技有限公司 | 机械臂的抓取点的获取方法及设备 |
CN109079786A (zh) * | 2018-08-17 | 2018-12-25 | 上海非夕机器人科技有限公司 | 机械臂抓取自学习方法及设备 |
CN109079786B (zh) * | 2018-08-17 | 2021-08-27 | 上海非夕机器人科技有限公司 | 机械臂抓取自学习方法及设备 |
US11185978B2 (en) | 2019-01-08 | 2021-11-30 | Honda Motor Co., Ltd. | Depth perception modeling for grasping objects |
CN109986560B (zh) * | 2019-03-19 | 2023-02-14 | 埃夫特智能装备股份有限公司 | 一种面向多目标种类的机械臂自适应抓取方法 |
CN109986560A (zh) * | 2019-03-19 | 2019-07-09 | 埃夫特智能装备股份有限公司 | 一种面向多目标种类的机械臂自适应抓取方法 |
CN109961106B (zh) * | 2019-04-18 | 2022-03-18 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
CN109961106A (zh) * | 2019-04-18 | 2019-07-02 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
US11599825B2 (en) | 2019-04-18 | 2023-03-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for training trajectory classification model, and electronic device |
CN109956251A (zh) * | 2019-04-19 | 2019-07-02 | 深圳蓝胖子机器人有限公司 | 一种货物识别抓取方法、设备以及存储介质 |
WO2020211552A1 (zh) * | 2019-04-19 | 2020-10-22 | 深圳蓝胖子机器人有限公司 | 一种货物识别抓取方法、设备以及存储介质 |
CN114845842A (zh) * | 2019-10-24 | 2022-08-02 | 辉达公司 | 触觉抓取策略的强化学习 |
CN111645080A (zh) * | 2020-05-08 | 2020-09-11 | 覃立万 | 智能服务机器人手眼协作系统及运行方法 |
WO2021232669A1 (zh) * | 2020-05-22 | 2021-11-25 | 梅卡曼德(北京)机器人科技有限公司 | 机器人运动规划方法、路径规划方法、抓取方法及其装置 |
WO2021249570A1 (zh) * | 2020-06-12 | 2021-12-16 | 深圳市海柔创新科技有限公司 | 仓储机器人的控制方法、装置、机器人和仓储系统 |
CN113524184A (zh) * | 2021-07-16 | 2021-10-22 | 珠海丽珠试剂股份有限公司 | 样本架抓取方法、装置和系统 |
CN113580130A (zh) * | 2021-07-20 | 2021-11-02 | 佛山智能装备技术研究院 | 六轴机械臂避障控制方法、系统及计算机可读存储介质 |
CN114083535A (zh) * | 2021-11-18 | 2022-02-25 | 清华大学 | 一种机器手抓取姿势质量的物理度量方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105598965B (zh) | 2018-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105598965A (zh) | 基于立体视觉的机器人欠驱动手自主抓取方法 | |
Weng et al. | Enhancement of real‐time grasp detection by cascaded deep convolutional neural networks | |
CN108337915A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN104570731A (zh) | 一种基于Kinect的无标定人机交互控制系统及方法 | |
CN108838991A (zh) | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 | |
CN111085997A (zh) | 基于点云获取和处理的抓取训练方法及系统 | |
CN112906797B (zh) | 一种基于计算机视觉和深度学习的平面抓取检测方法 | |
CN103714322A (zh) | 一种实时手势识别方法及装置 | |
CN107067018A (zh) | 一种基于随机Hough变换和SVM的带电作业机器人螺栓识别方法 | |
CN110796700B (zh) | 基于卷积神经网络的多物体抓取区域定位方法 | |
CN106371442A (zh) | 一种基于张量积模型变换的移动机器人控制方法 | |
CN112070782A (zh) | 识别场景轮廓的方法、装置、计算机可读介质及电子设备 | |
CN108229678A (zh) | 网络训练方法、操作控制方法、装置、存储介质和设备 | |
CN107363834A (zh) | 一种基于认知地图的机械臂抓取方法 | |
CN114851201A (zh) | 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法 | |
Yin et al. | Research on the method of step feature extraction for EOD robot based on 2D laser radar | |
Gao et al. | Iterative interactive modeling for knotting plastic bags | |
Gao et al. | Kinect-based motion recognition tracking robotic arm platform | |
CN109977884A (zh) | 目标跟随方法和装置 | |
Zhu et al. | A robotic semantic grasping method for pick-and-place tasks | |
Guo et al. | A system of robotic grasping with experience acquisition | |
Gyawali et al. | Simulation of detecting and climbing a ladder for a humanoid robot | |
CN114131603A (zh) | 基于感知增强和场景迁移的深度强化学习机器人抓取方法 | |
Fu et al. | Robotic arm intelligent grasping system for garbage recycling | |
Yamazaki et al. | Tidying and cleaning rooms using a daily assistive robot-an integrated system for doing chores in the real world |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |