CN108247637B - 一种工业机器人手臂视觉防撞操控方法 - Google Patents

一种工业机器人手臂视觉防撞操控方法 Download PDF

Info

Publication number
CN108247637B
CN108247637B CN201810067937.9A CN201810067937A CN108247637B CN 108247637 B CN108247637 B CN 108247637B CN 201810067937 A CN201810067937 A CN 201810067937A CN 108247637 B CN108247637 B CN 108247637B
Authority
CN
China
Prior art keywords
mechanical arm
grabbing
neural network
path
grabbed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810067937.9A
Other languages
English (en)
Other versions
CN108247637A (zh
Inventor
李燕飞
杨宇翔
刘辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201810067937.9A priority Critical patent/CN108247637B/zh
Publication of CN108247637A publication Critical patent/CN108247637A/zh
Application granted granted Critical
Publication of CN108247637B publication Critical patent/CN108247637B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种工业机器人手臂视觉防撞操控方法,包括以下步骤:步骤1:构建机械臂所在工作空间的三维坐标系;步骤2:构建基于Elman网络的待抓取物体目标识别模型;步骤3:构建基于多核支持向量机的机械臂抓取最优路径模型;步骤4:实时采集待抓取物体目标图像识别物体类别;步骤5;基于物体类别确定物体重心,求得抓取终点坐标,获取机械臂抓取最优路径,驱动机械臂抓取物体;该方法采用智能算法计算得到机械臂抓取目标物体一条无碰撞、动力学特性满足裕度要求、轨迹长度和运动时间较短的理想轨迹,大大提高了生产效率,同时节约了人员成本,给工厂带来收益。

Description

一种工业机器人手臂视觉防撞操控方法
技术领域
本发明属于机械臂控制计算领域,特别涉及一种工业机器人手臂视觉防撞操控方法。
背景技术
随着“工业4.0”的来临,机械臂在工厂中的应用越来越广泛,机械臂在复杂环境下人机交互的传统工作方式的效率和安全性受到了关注。现有机械臂可由示教器、上位机控制,示教器控制是在示教器上通过操纵杆和按钮对机械臂的各关节进行控制,再完成既定工况后将程序储存;上位机控制是在上位机中进行编程,可完成既定工况循环。上述两种机械臂控制方法都只能完成固定工况的循环,无法应对工况的变化,针对现有机械臂操作通过监控装置操作机械臂视野受限,操作者在整个控制过程中极易产生难以承受的生物学疲劳,造成失误发生安全事故,为此,机械臂的自动识别和抓取物体路径设计是解决机械臂控制难题的一大突破。
发明内容
本发明提供了一种工业机器人手臂视觉防撞操控方法,该方法使机械臂通过外置摄像头建立笛卡尔坐标系获取目标物体图像并识别目标物体,通过机器学习模型获取抓取目标物体最优运动路径,并对障碍物进行判断,生成避障路径。
一种工业机器人手臂视觉防撞操控方法,包括以下步骤:
步骤1:构建机械臂所在工作空间的三维坐标系;
利用图像采集区域覆盖机械臂抓取目标物体的整个工作空间的双目ZED相机的左右摄像头连线中点作为原点,以双目ZED右摄像头中心到双目ZED左摄像头中心连线为y轴正向,根据右手定则建立机械臂工作空间的三维立体坐标系;
步骤2:构建基于Elman神经网络的待抓取物体目标识别模型;
以每幅待抓取物体目标图像的中间像素累加值和对应的物体类别分别作为输入和输出数据,对Elman神经网络进行训练,得到基于Elman神经网络的待抓取物体目标识别模型;
所述待抓取物体目标图像的中间像素累加值的获取过程如下:
利用步骤1中用于构建三维立体坐标系的双目ZED采集各类待抓取物体目标图像在各种位姿下的图像;对待抓取物体目标图像依次进行去噪、位置变换、灰度处理和边缘检测;提取经过边缘检测后的图像的大小为200×200的正中间区域,将所提取区域中所有像素的灰度值进行累加得到中间像素累加值;
对采集到的目标图像使用图像平滑法去除噪声,然后进行几何预处理,由于所有图的背景均相同,将图像中的物体变换到统一中央位置,然后进行灰度化处理,再使用Laplacian算子进行边缘检测;
步骤3:构建基于多核支持向量机的机械臂抓取最优路径模型;
利用机械臂抓取各类待抓取物体,获得抓取路径样本,以抓取路径样本中的机械臂起点、终点位置坐标和运动旋转角度矩阵分别作为输入和输出数据,以各关节的旋转角度总和最小为目标函数,对多核支持向量机进行训练,获得基于多核支持向量机的机械臂抓取最优路径模型;
所述抓取路径样本包括机械臂末端在步骤1构建的三维坐标系中,抓取起点和抓取终点位置坐标,以及机械臂各关节的运动旋转角度矩阵,所述运动旋转角度矩阵的行数和列数分别为机械臂转动关节个数和抓取物体过程中的动作次数;
步骤4:实时采集待抓取物体目标图像识别物体类别;
利用步骤1中用于构建三维立体坐标系的双目ZED采集待抓取物体目标图像,按照步骤2中的处理过程提取当前图像中的中间像素累加值,并输入所述基于Elman神经网络的待抓取物体目标识别模型中,获得物体类别信息;
步骤5;基于物体类别确定物体重心,求得抓取终点坐标,获取机械臂抓取最优路径,驱动机械臂抓取物体;
基于物体类别信息确定物体重心,使得机械臂夹爪的抓取中心对应物体重心,从而确定机械臂夹爪在抓取终点的坐标,并输入所述基于极限学习机的机械臂抓取最优路径模型中,得到机械臂抓取最优路径,并发送至机械臂控制系统,驱动机械臂抓取物体。
进一步地,所述基于Elman神经网络的待抓取物体目标识别模型中Elman神经网络的权值和阈值使用自适应花授粉算法进行优化获得:
步骤A1:以花粉位置作为所述Elman神经网络的权值和阈值,设置自适应花授粉算法的基本参数;
初始化花粉种群参数,种群数N∈[300,500],变异因子的初始值ε0∈[0.3,0.7],转换因子取值范围p∈[0.4,0.9],并设置最大迭代次数为1000;
步骤A2:设置适应度函数,随机初始化每个花粉的位置,并计算每个花粉的适应度函数值,令迭代次数t=1;
将每个花粉位置对应的Elman神经网络的权值、阈值参数代入所述基于Elman神经网络的待抓取物体目标识别模型中,利用花粉位置确定的基于Elman神经网络的待抓取物体目标识别模型输出的物体类别二进制数与实际对应的物体类别二进制数的差值的倒数作为第一适应度函数f1(x);
步骤A3:生成随机数rand1∈[0,1],按公式p=0.7+0.2*rand1改变转换因子,调节全局搜索和局部搜索的转换;
步骤A4:生成随机数rand2∈[0,1],若转换因子p>rand2,则进行全局搜索执行交叉授粉操作,在全局中产生新的花粉,否则进行局部搜索执行自花授粉操作,在局部位置产生新的花粉;
步骤A5:计算每个花粉的适应度函数值,并找出当前最优解;
步骤A6:判断是否达到最大迭代次数,若未达到,转步骤A3,t=t+1,若达到,转步骤A7;
步骤A7:输出最优位置花粉,以及最优花粉对应的基于Elman神经网络的待抓取物体目标识别模型的权值和阈值。
进一步地,所述基于多核向量机的机械臂抓取最优路径模型中多核向量机的的惩罚系数、核参数和核函数权值采用量子粒子群算法进行优化获得:
步骤B1:以量子粒子群中每个量子粒子个体的位置向量作为所述多核支持向量机的惩罚系数c、核参数g和核函数权值d;
量子粒子群中粒子个体总数的取值范围为[80,300],量子粒子群的粒子个数的取值范围为[20,60],最大迭代次数的取值范围为[300,750],早熟收敛判断阈值γ的取值范围为[0.01,0.45],种群最差粒子变异比例δ%的取值范围为[2%,7%],惯性权值w的取值范围[0.5,1.5],加速常数c1、c2取值范围为[1.1,2.5];
步骤B2:设定适应度函数,确定初始最优量子粒子个体位置向量和迭代次数t,t=1;
将量子粒子个体位置向量对应的惩罚系数c、核参数g和核函数权值d代入基于多核支持向量机的机械臂抓取最优路径模型中,将量子粒子个体的位置向量确定的基于多核支持向量机的机械臂抓取最优路径模型得到的机械臂关节转动角度之和的倒数作为第二适应度函数f2(x);
步骤B3:计算每个量子粒子群的群体适应度方差,进行早熟收敛判断;
若量子粒子群群体适应度方差小于早熟收敛判断阈值γ,则对量子粒子群中δ%的适应度最差粒子和群体极值粒子进行变异,并以当前适应度最好的粒子作为全局最优量子粒子个体,第i个粒子迄今为止搜索到的最优位置称为个体极值记为pi,整个粒子群体迄今为止搜索到的最优位置为全局极值,记作pg;否则按下式更新粒子速度以及位置;
速度更新公式:
vi(t+1)=wvi(t)+c1r1(pi-xi(t))+c2r2(pg-xi(t))
位置更新公式:
xi(t+1)=xi(t)+vi(t+1)
其中,w为惯性权值,c1、c2为加速常数,r1、r2为[0,1]范围内的均匀随机数。vi(t)表示迭代t次时第i个粒子的速度,xi(t)表示迭代t次时第i个粒子的位置;
步骤B4:重新计算并比较每个粒子的适应度值,如果优于当前的个体极值,则更新个体极值;比较全局极值粒子,如果存在粒子适应度值优于当前的群体极值,则更新全局极值粒子;
步骤B5:判断是否满足最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到找到全局最优量子粒子个体,将全局最优量子粒子个体的位置向量作为对应的多核支持向量机的惩罚系数c、核参数g和核函数权值d,构建机械臂抓取最优路径模型。
进一步地,在机械臂抓取物体过程中,若双目ZED拍摄到工作空间出现障碍物,则利用障碍物的深度图像信息在所述三维坐标系中构建障碍物模型,通过判断障碍物模型的包络线位置是否处于机械臂的抓取路径运动区域中,若不处于,则机械臂继续按原抓取路径进行抓取工作,若处于,则以障碍物模型的包络线与抓取运动区域的切点和两端交叉点依次作为避障路径的中间点、起点和终点,将避障路径的中间点、起点和终点坐标输入基于支持向量机的机械臂避障路径模型,获得避障路径;
所述障碍物模型的包络线与抓取运动区域的中间点的获取过程如下:
将障碍物截断机械臂原抓取路径的截断起点、截断终点连成截断直线,获取所有和截断直线平行的平面与障碍物模型的包络线相切的点,选出与截断直线最近的切点;
避障路径的起点为所述截断起点前移3cm,避障路径的截断终点为交叉终点后移3cm;
所述避障路径位于切点外部;
所述基于模糊神经网络的机械臂避障路径模型,是以各类障碍物位于所述工作区间中,障碍物的包络线将原始机械臂抓取路径截断后得到避障路径起点、避障路径终点以及与包络线与原始抓取运动区域的切点作为输入数据,机械臂在避障过程中各关节的运动旋转角度矩阵作为输出数据,以各关节的旋转角度之和最小作为目标函数,对模糊神经网络进行训练获得。
进一步地,所述基于模糊神经网络的机械臂避障路径模型中模糊神经网络的权值、隶属函数均值以及方差采用磷虾算法优化:
步骤C1:以磷虾个体作为所述模糊神经网络的权值、隶属函数均值以及方差,随机初始化磷虾种群并设置磷虾种群参数;
磷虾种群规模的取值范围为[20,200],诱导惯性权重wy的取值范围为[0.25,0.7],觅食惯性权重wm的取值范围为[0.25,0.7],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.075],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.1,1.5],最大迭代次数T的取值范围为[200,800],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值、隶属函数均值以及方差代入基于模糊神经网络的机械臂避障路径模型中,将磷虾算法确定的模糊神经网络得到的机械臂关节转动角度之和的倒数作为第三适应度函数f3(x);
即机械臂所有关节的转动角度和越小,该磷虾个体越优秀。
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第三适应度函数f3(x)确定当前最优磷虾位置;
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤B3,直到满足最大迭代次数后,输出最优磷虾个体代表的基于模糊神经网络的机械臂避障路径模型的权值、隶属函数均值以及方差。
有益效果
本发明提供了一种工业机器人手臂视觉防撞操控方法,包括以下步骤:步骤1:构建机械臂所在工作空间的三维坐标系;步骤2:构建基于Elman神经网络的待抓取物体目标识别模型;步骤3:构建基于多核支持向量机的机械臂抓取最优路径模型;步骤4:实时采集待抓取物体目标图像识别物体类别;步骤5;基于物体类别确定物体重心,求得抓取终点坐标,获取机械臂抓取最优路径,驱动机械臂抓取物体;相对于现有技术具有以下优点:
(1)该方法能够有效改善现有机械臂监控操作环境,实现工厂的智能制造,取代工人完成对目标物体使用机器学习的方法进行识别分类;
(2)具备避障功能的手臂有效的保证了机械臂工作的安全性,降低了事故发生的可能,提高了工业生产的生产效率;
(3)由于建立D-H模型求解机械臂运动学方程的复杂性,每增加一个自由度,方程求解难度承几何难度提高,而使用机器学习的方法求解机械臂运动公式的简单高效,能够有效替代传统的建立D-H模型的方法;
(4)采用能够超远距离感知的双目zed来获取视觉内的深度信息,延伸了机械臂的工作空间,保证了机械臂的工作安全性,同时可以提供多角度工作空间信息,实现在人无法进入的环境下保证机械臂的正常运行,提供了适应复杂工种的可能性;
(5)该方法采用智能算法计算得到机械臂抓取目标物体一条无碰撞、动力学特性满足裕度要求、轨迹长度和运动时间较短的理想轨迹大大提高了生产效率,同时节约了人员成本,给工厂带来收益;
(6)针对Elman神经网络、多核支持向量机和模糊神经网络分别搭配优化算法进行参数优化,增强了机械臂在实际工作环境中的运行速度和动作精度,减少了反应时间,提高了效率。
附图说明
图1为本发明所述方法的流程图。
具体实施方式
下面将结合附图和实施例对本发明做进一步地说明。
如图1所示,一种工业机器人手臂视觉防撞操控方法,包括以下步骤:
步骤1:构建机械臂所在工作空间的三维坐标系;
利用图像采集区域覆盖机械臂抓取目标物体的整个工作空间的双目ZED相机的左右摄像头连线中点作为原点,以双目ZED右摄像头中心到双目ZED左摄像头中心连线为y轴正向,根据右手定则建立机械臂工作空间的三维立体坐标系;
步骤2:构建基于Elman神经网络的待抓取物体目标识别模型;
以每幅待抓取物体目标图像的中间像素累加值和对应的物体类别分别作为输入和输出数据,对Elman神经网络进行训练,得到基于Elman神经网络的待抓取物体目标识别模型;
假设机械臂工作过程有k类目标物体需要识别,输出对应为
m1=[000…001]
m2=[000…010]
m3=[000…100]
Figure BDA0001557272720000061
mk=[100…000]
其中,二进制位数为k位,即对应的Elman神经网络具有k个输出神经元。
所述待抓取物体目标图像的中间像素累加值的获取过程如下:
利用步骤1中用于构建三维立体坐标系的双目ZED采集各类待抓取物体目标图像在各种位姿下的图像;对待抓取物体目标图像依次进行去噪、位置变换、灰度处理和边缘检测;提取经过边缘检测后的图像的大小为200×200的正中间区域,将所提取区域中所有像素的灰度值进行累加得到中间像素累加值;
对采集到的目标图像使用图像平滑法去除噪声,然后进行几何预处理,由于所有图的背景均相同,将图像中的物体变换到统一中央位置,然后进行灰度化处理,再使用Laplacian算子进行边缘检测;
所述基于Elman神经网络的待抓取物体目标识别模型中Elman神经网络的权值和阈值使用自适应花授粉算法进行优化获得:
步骤A1:以花粉位置作为所述Elman神经网络的权值和阈值,设置自适应花授粉算法的基本参数;
初始化花粉种群参数,种群数N∈[300,500],变异因子的初始值ε0∈[0.3,0.7],转换因子取值范围p∈[0.4,0.9],并设置最大迭代次数为1000;
步骤A2:设置适应度函数,随机初始化每个花粉的位置,并计算每个花粉的适应度函数值,令迭代次数t=1;
将每个花粉位置对应的Elman神经网络的权值、阈值参数代入所述基于Elman神经网络的待抓取物体目标识别模型中,利用花粉位置确定的基于Elman神经网络的待抓取物体目标识别模型输出的物体类别二进制数与实际对应的物体类别二进制数的差值的倒数作为第一适应度函数f1(x);
步骤A3:生成随机数rand1∈[0,1],按公式p=0.7+0.2*rand1改变转换因子,调节全局搜索和局部搜索的转换;
步骤A4:生成随机数rand2∈[0,1],若转换因子p>rand2,则进行全局搜索执行交叉授粉操作,在全局中产生新的花粉,否则进行局部搜索执行自花授粉操作,在局部位置产生新的花粉;
步骤A5:计算每个花粉的适应度函数值,并找出当前最优解;
步骤A6:判断是否达到最大迭代次数,若未达到,转步骤A3,t=t+1,若达到,转步骤A7;
步骤A7:输出最优位置花粉,以及最优花粉对应的基于Elman神经网络的待抓取物体目标识别模型的权值和阈值。
步骤3:构建基于多核支持向量机的机械臂抓取最优路径模型;
利用机械臂抓取各类待抓取物体,获得抓取路径样本,以抓取路径样本中的机械臂起点、终点位置坐标和运动旋转角度矩阵分别作为输入和输出数据,以各关节的旋转角度总和最小为目标函数,对多核支持向量机进行训练,获得基于多核支持向量机的机械臂抓取最优路径模型;
所述抓取路径样本包括机械臂末端在步骤1构建的三维坐标系中,抓取起点和抓取终点位置坐标,以及机械臂各关节的运动旋转角度矩阵,所述运动旋转角度矩阵的行数和列数分别为机械臂转动关节个数和抓取物体过程中的动作次数;
所述基于多核向量机的机械臂抓取最优路径模型中多核向量机的的惩罚系数、核参数和核函数权值采用量子粒子群算法进行优化获得:
步骤B1:以量子粒子群中每个量子粒子个体的位置向量作为所述多核支持向量机的惩罚系数c、核参数g和核函数权值d;
量子粒子群中粒子个体总数的取值范围为[80,300],量子粒子群的粒子个数的取值范围为[20,60],最大迭代次数的取值范围为[300,750],早熟收敛判断阈值γ的取值范围为[0.01,0.45],种群最差粒子变异比例δ%的取值范围为[2%,7%],惯性权值w的取值范围[0.5,1.5],加速常数c1、c2取值范围为[1.1,2.5];
步骤B2:设定适应度函数,确定初始最优量子粒子个体位置向量和迭代次数t,t=1;
将量子粒子个体位置向量对应的惩罚系数c、核参数g和核函数权值d代入基于多核支持向量机的机械臂抓取最优路径模型中,将量子粒子个体的位置向量确定的基于多核支持向量机的机械臂抓取最优路径模型得到的机械臂关节转动角度之和的倒数作为第二适应度函数f2(x);
步骤B3:计算每个量子粒子群的群体适应度方差,进行早熟收敛判断;
若量子粒子群群体适应度方差小于早熟收敛判断阈值γ,则对量子粒子群中δ%的适应度最差粒子和群体极值粒子进行变异,并以当前适应度最好的粒子作为全局最优量子粒子个体,第i个粒子迄今为止搜索到的最优位置称为个体极值记为pi,整个粒子群体迄今为止搜索到的最优位置为全局极值,记作pg;否则按下式更新粒子速度以及位置;
速度更新公式:
vi(t+1)=wvi(t)+c1r1(pi-xi(t))+c2r2(pg-xi(t))
位置更新公式:
xi(t+1)=xi(t)+vi(t+1)
其中,w为惯性权值,c1、c2为加速常数,r1、r2为[0,1]范围内的均匀随机数。vi(t)表示迭代t次时第i个粒子的速度,xi(t)表示迭代t次时第i个粒子的位置;
步骤B4:重新计算并比较每个粒子的适应度值,如果优于当前的个体极值,则更新个体极值;比较全局极值粒子,如果存在粒子适应度值优于当前的群体极值,则更新全局极值粒子;
步骤B5:判断是否满足最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到找到全局最优量子粒子个体,将全局最优量子粒子个体的位置向量作为对应的多核支持向量机的惩罚系数c、核参数g和核函数权值d,构建机械臂抓取最优路径模型。
步骤4:实时采集待抓取物体目标图像识别物体类别;
利用步骤1中用于构建三维立体坐标系的双目ZED采集待抓取物体目标图像,按照步骤2中的处理过程提取当前图像中的中间像素累加值,并输入所述基于Elman神经网络的待抓取物体目标识别模型中,获得物体类别信息;
步骤5;基于物体类别确定物体重心,求得抓取终点坐标,获取机械臂抓取最优路径,驱动机械臂抓取物体;
基于物体类别信息确定物体重心,使得机械臂夹爪的抓取中心对应物体重心,从而确定机械臂夹爪在抓取终点的坐标,并输入所述基于极限学习机的机械臂抓取最优路径模型中,得到机械臂抓取最优路径,并发送至机械臂控制系统,驱动机械臂抓取物体。
在机械臂抓取物体过程中,若双目ZED拍摄到工作空间出现障碍物,则利用障碍物的深度图像信息在所述三维坐标系中构建障碍物模型,通过判断障碍物模型的包络线位置是否处于机械臂的抓取路径运动区域中,若不处于,则机械臂继续按原抓取路径进行抓取工作,若处于,则以障碍物模型的包络线与抓取运动区域的切点和两端交叉点依次作为避障路径的中间点、起点和终点,将避障路径的中间点、起点和终点坐标输入基于多核支持向量机的机械臂避障路径模型,获得避障路径;
所述障碍物模型的包络线与抓取运动区域的中间点的获取过程如下:
将障碍物截断机械臂原抓取路径的截断起点、截断终点连成截断直线,获取所有和截断直线平行的平面与障碍物模型的包络线相切的点,选出与截断直线最近的切点;
避障路径的起点为所述截断起点前移3cm,避障路径的截断终点为交叉终点后移3cm;
所述避障路径位于切点外部;
所述基于模糊神经网络的机械臂避障路径模型,是以各类障碍物位于所述工作区间中,障碍物的包络线将原始机械臂抓取路径截断后得到避障路径起点、避障路径终点以及与包络线与原始抓取运动区域的切点作为输入数据,机械臂在避障过程中各关节的运动旋转角度矩阵作为输出数据,以各关节的旋转角度之和最小作为目标函数,对模糊神经网络进行训练获得。
所述基于模糊神经网络的机械臂避障路径模型中模糊神经网络的权值、隶属函数均值以及方差采用磷虾算法优化:
步骤C1:以磷虾个体作为所述模糊神经网络的权值、隶属函数均值以及方差,随机初始化磷虾种群并设置磷虾种群参数;
磷虾种群规模的取值范围为[20,200],诱导惯性权重wy的取值范围为[0.25,0.7],觅食惯性权重wm的取值范围为[0.25,0.7],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.075],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.1,1.5],最大迭代次数T的取值范围为[200,800],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值、隶属函数均值以及方差代入基于模糊神经网络的机械臂避障路径模型中,将磷虾算法确定的模糊神经网络得到的机械臂关节转动角度之和的倒数作为第三适应度函数f3(x);
机械臂所有关节的转动角度和越小,该磷虾个体越优秀。
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第三适应度函数f3(x)确定当前最优磷虾位置;
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤B3,直到满足最大迭代次数后,输出最优磷虾个体代表的基于模糊神经网络的机械臂避障路径模型的权值、隶属函数均值以及方差。
以上结合具体实施例对本发明进行了详细的说明,这些并非构成对发明的限制。在不脱离本发明原理的情况下,本领域的技术人员还可以做出许多变形和改进,这些也应属于本发明的保护范围。

Claims (4)

1.一种工业机器人手臂视觉防撞操控方法,其特征在于,包括以下步骤:
步骤1:构建机械臂所在工作空间的三维坐标系;
利用图像采集区域覆盖机械臂抓取目标物体的整个工作空间的双目ZED相机的左右摄像头连线中点作为原点,以双目ZED右摄像头中心到双目ZED左摄像头中心连线为y轴正向,根据右手定则建立机械臂工作空间的三维立体坐标系;
步骤2:构建基于Elman神经网络的待抓取物体目标识别模型;
以每幅待抓取物体目标图像的中间像素累加值和对应的物体类别分别作为输入和输出数据,对Elman神经网络进行训练,得到基于Elman神经网络的待抓取物体目标识别模型;
所述待抓取物体目标图像的中间像素累加值的获取过程如下:
利用步骤1中用于构建三维立体坐标系的双目ZED采集各类待抓取物体目标图像在各种位姿下的图像;对待抓取物体目标图像依次进行去噪、位置变换、灰度处理和边缘检测;提取经过边缘检测后的图像的大小为200×200的正中间区域,将所提取区域中所有像素的灰度值进行累加得到中间像素累加值;
步骤3:构建基于多核支持向量机的机械臂抓取最优路径模型;
利用机械臂抓取各类待抓取物体,获得抓取路径样本,以抓取路径样本中的机械臂起点、终点位置坐标和运动旋转角度矩阵分别作为输入和输出数据,以各关节的旋转角度总和最小为目标函数,对多核支持向量机进行训练,获得基于多核支持向量机的机械臂抓取最优路径模型;
所述抓取路径样本包括机械臂末端在步骤1构建的三维坐标系中,抓取起点和抓取终点位置坐标,以及机械臂各关节的运动旋转角度矩阵,所述运动旋转角度矩阵的行数和列数分别为机械臂转动关节个数和抓取物体过程中的动作次数;
步骤4:实时采集待抓取物体目标图像识别物体类别;
利用步骤1中用于构建三维立体坐标系的双目ZED采集待抓取物体目标图像,按照步骤2中的处理过程提取当前图像中的中间像素累加值,并输入所述基于Elman神经网络的待抓取物体目标识别模型中,获得物体类别信息;
步骤5;基于物体类别确定物体重心,求得抓取终点坐标,获取机械臂抓取最优路径,驱动机械臂抓取物体;
基于物体类别信息确定物体重心,使得机械臂夹爪的抓取中心对应物体重心,从而确定机械臂夹爪在抓取终点的坐标,并输入所述基于极限学习机的机械臂抓取最优路径模型中,得到机械臂抓取最优路径,并发送至机械臂控制系统,驱动机械臂抓取物体;
在机械臂抓取物体过程中,若双目ZED拍摄到工作空间出现障碍物,则利用障碍物的深度图像信息在所述三维坐标系中构建障碍物模型,通过判断障碍物模型的包络线位置是否处于机械臂的抓取路径运动区域中,若不处于,则机械臂继续按原抓取路径进行抓取工作,若处于,则以障碍物模型的包络线与抓取运动区域的切点和两端交叉点依次作为避障路径的中间点、起点和终点,将避障路径的中间点、起点和终点坐标输入基于支持向量机的机械臂避障路径模型,获得避障路径;
所述障碍物模型的包络线与抓取运动区域的中间点的获取过程如下:
将障碍物截断机械臂原抓取路径的截断起点、截断终点连成截断直线,获取所有和截断直线平行的平面与障碍物模型的包络线相切的点,选出与截断直线最近的切点;
避障路径的起点为所述截断起点前移3cm,避障路径的截断终点为交叉终点后移3cm;
所述避障路径位于切点外部;
所述基于模糊神经网络的机械臂避障路径模型,是以各类障碍物位于所述工作区间中,障碍物的包络线将原始机械臂抓取路径截断后得到避障路径起点、避障路径终点以及与包络线与原始抓取运动区域的切点作为输入数据,机械臂在避障过程中各关节的运动旋转角度矩阵作为输出数据,以各关节的旋转角度之和最小作为目标函数,对模糊神经网络进行训练获得。
2.根据权利要求1所述的方法,其特征在于,所述基于Elman神经网络的待抓取物体目标识别模型中Elman神经网络的权值和阈值使用自适应花授粉算法进行优化获得:
步骤A1:以花粉位置作为所述Elman神经网络的权值和阈值,设置自适应花授粉算法的基本参数;
初始化花粉种群参数,种群数N∈[300,500],变异因子的初始值ε0∈[0.3,0.7],转换因子取值范围p∈[0.4,0.9],并设置最大迭代次数为1000;
步骤A2:设置适应度函数,随机初始化每个花粉的位置,并计算每个花粉的适应度函数值,令迭代次数t=1;
将每个花粉位置对应的Elman神经网络的权值、阈值参数代入所述基于Elman神经网络的待抓取物体目标识别模型中,利用花粉位置确定的基于Elman神经网络的待抓取物体目标识别模型输出的物体类别二进制数与实际对应的物体类别二进制数的差值的倒数作为第一适应度函数f1(x);
步骤A3:生成随机数rand1∈[0,1],按公式p=0.7+0.2*rand1改变转换因子,调节全局搜索和局部搜索的转换;
步骤A4:生成随机数rand2∈[0,1],若转换因子p>rand2,则进行全局搜索执行交叉授粉操作,在全局中产生新的花粉,否则进行局部搜索执行自花授粉操作,在局部位置产生新的花粉;
步骤A5:计算每个花粉的适应度函数值,并找出当前最优解;
步骤A6:判断是否达到最大迭代次数,若未达到,转步骤A3,t=t+1,若达到,转步骤A7;
步骤A7:输出最优位置花粉,以及最优花粉对应的基于Elman神经网络的待抓取物体目标识别模型的权值和阈值。
3.根据权利要求1所述的方法,其特征在于,所述基于多核支持向量机的机械臂抓取最优路径模型中多核支持向量机的的惩罚系数、核参数和核函数权值采用量子粒子群算法进行优化获得:
步骤B1:以量子粒子群中每个量子粒子个体的位置向量作为所述多核支持向量机的惩罚系数c、核参数g和核函数权值d;
量子粒子群中粒子个体总数的取值范围为[80,300],量子粒子群的粒子个数的取值范围为[20,60],最大迭代次数的取值范围为[300,750],早熟收敛判断阈值γ的取值范围为[0.01,0.45],种群最差粒子变异比例δ%的取值范围为[2%,7%],惯性权值w的取值范围[0.5,1.5],加速常数c1、c2取值范围为[1.1,2.5];
步骤B2:设定适应度函数,确定初始最优量子粒子个体位置向量和迭代次数t,t=1;
将量子粒子个体位置向量对应的惩罚系数c、核参数g和核函数权值d代入基于多核支持向量机的机械臂抓取最优路径模型中,将量子粒子个体的位置向量确定的基于多核支持向量机的机械臂抓取最优路径模型得到的机械臂关节转动角度之和的倒数作为第二适应度函数f2(x);
步骤B3:计算每个量子粒子群的群体适应度方差,进行早熟收敛判断;
若量子粒子群群体适应度方差小于早熟收敛判断阈值γ,则对量子粒子群中δ%的适应度最差粒子和群体极值粒子进行变异,并以当前适应度最好的粒子作为全局最优量子粒子个体;否则更新粒子速度以及位置;
步骤B4:重新计算并比较每个粒子的适应度值,如果优于当前的个体极值,则更新个体极值;比较全局极值粒子,如果存在粒子适应度值优于当前的群体极值,则更新全局极值粒子;
步骤B5:判断是否满足最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到找到全局最优量子粒子个体,将全局最优量子粒子个体的位置向量作为对应的多核支持向量机的惩罚系数c、核参数g和核函数权值d。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述基于模糊神经网络的机械臂避障路径模型中模糊神经网络的权值、隶属函数均值以及方差采用磷虾算法优化:
步骤C1:以磷虾个体作为所述模糊神经网络的权值、隶属函数均值以及方差,随机初始化磷虾种群并设置磷虾种群参数;
磷虾种群规模的取值范围为[20,200],诱导惯性权重wy的取值范围为[0.25,0.7],觅食惯性权重wm的取值范围为[0.25,0.7],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.075],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.1,1.5],最大迭代次数T的取值范围为[200,800],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值、隶属函数均值以及方差代入基于模糊神经网络的机械臂避障路径模型中,将磷虾算法确定的模糊神经网络得到的机械臂关节转动角度之和的倒数作为第三适应度函数f3(x);
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第三适应度函数f3(x)确定当前最优磷虾位置;
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤B3,直到满足最大迭代次数后,输出最优磷虾个体代表的基于模糊神经网络的机械臂避障路径模型的权值、隶属函数均值以及方差。
CN201810067937.9A 2018-01-24 2018-01-24 一种工业机器人手臂视觉防撞操控方法 Active CN108247637B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810067937.9A CN108247637B (zh) 2018-01-24 2018-01-24 一种工业机器人手臂视觉防撞操控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810067937.9A CN108247637B (zh) 2018-01-24 2018-01-24 一种工业机器人手臂视觉防撞操控方法

Publications (2)

Publication Number Publication Date
CN108247637A CN108247637A (zh) 2018-07-06
CN108247637B true CN108247637B (zh) 2020-11-24

Family

ID=62742606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810067937.9A Active CN108247637B (zh) 2018-01-24 2018-01-24 一种工业机器人手臂视觉防撞操控方法

Country Status (1)

Country Link
CN (1) CN108247637B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109213174B (zh) * 2018-10-24 2021-10-01 北京工业大学 一种基于模糊神经网络的污水处理厂智能巡检避障方法
CN111687829B (zh) * 2019-03-14 2023-10-20 苏州创势智能科技有限公司 基于深度视觉的防碰撞控制方法、装置、介质、及终端
CN109917793B (zh) * 2019-04-15 2022-07-08 中国铁建重工集团股份有限公司 一种管片拼装机避障路径规划方法及装置
CN110161850B (zh) * 2019-04-24 2020-04-07 南京航空航天大学 一种工业机器人变参数刚度辨识与建模方法
CN110253570B (zh) * 2019-05-27 2020-10-27 浙江工业大学 基于视觉的工业机械臂人机安全系统
CN110309887A (zh) * 2019-07-09 2019-10-08 哈尔滨理工大学 基于改进花朵授粉的模糊c-均值聚类异常检测方法
US20210162593A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. Robot and method for controlling thereof
CN110900611A (zh) * 2019-12-13 2020-03-24 合肥工业大学 一种新型机械臂目标定位及路径规划方法
CN111070211B (zh) * 2020-01-06 2021-06-22 中联恒通机械有限公司 随车机械手一键抓取放回控制方法、装置及系统
CN111860097B (zh) * 2020-04-16 2024-02-20 西安电子科技大学 一种基于模糊理论的异常行为检测方法
CN111797929B (zh) * 2020-07-07 2023-08-22 金陵科技学院 一种基于cnn与pso的双目机器人障碍特征检测方法
CN112734727A (zh) * 2021-01-11 2021-04-30 安徽理工大学 一种基于改进深度神经网络的苹果采摘方法
CN114762977B (zh) * 2022-05-19 2023-01-10 深圳市大族机器人有限公司 一种基于双关节模组的六轴协助机器人
CN117193020B (zh) * 2023-10-12 2024-05-07 武汉科技大学 一种基于全自动液体样本处理工作站的目标识别和路径规划方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778426A (zh) * 2012-10-22 2014-05-07 内蒙古大学 绿色作物特征提取方法以及农情信息检测视觉系统
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
CN107160402A (zh) * 2017-06-27 2017-09-15 华北电力大学(保定) 一种机械臂移动路径规划系统及方法
CN107272705A (zh) * 2017-07-31 2017-10-20 中南大学 一种智能环境下机器人路径的多神经网络控制规划方法
WO2017199196A1 (en) * 2016-05-19 2017-11-23 Politecnico Di Milano Method and device for controlling the motion of one or more collaborative robots
CN107414830A (zh) * 2017-07-31 2017-12-01 中南大学 一种运载机器人手臂操控多层映射智能控制方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778426A (zh) * 2012-10-22 2014-05-07 内蒙古大学 绿色作物特征提取方法以及农情信息检测视觉系统
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
WO2017199196A1 (en) * 2016-05-19 2017-11-23 Politecnico Di Milano Method and device for controlling the motion of one or more collaborative robots
CN107160402A (zh) * 2017-06-27 2017-09-15 华北电力大学(保定) 一种机械臂移动路径规划系统及方法
CN107272705A (zh) * 2017-07-31 2017-10-20 中南大学 一种智能环境下机器人路径的多神经网络控制规划方法
CN107414830A (zh) * 2017-07-31 2017-12-01 中南大学 一种运载机器人手臂操控多层映射智能控制方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于二维DCT与Elman神经网络相结合的人脸识别研;韩柯等;《第十三届全国图像图形学学术会议》;20061130;第I140-185页 *
基于视觉的6R工业机械臂运动规划;鄢诚挚;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170115;第I140-564页 *
移动机械臂运动规划研究;吴江;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180115;第373-376页 *

Also Published As

Publication number Publication date
CN108247637A (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN108247637B (zh) 一种工业机器人手臂视觉防撞操控方法
CN108196453B (zh) 一种机械臂运动规划群体智能计算方法
CN108280856B (zh) 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN111055279B (zh) 基于触觉与视觉结合的多模态物体抓取方法与系统
CN110202583B (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
CN107972026B (zh) 机器人、机械臂及其控制方法和装置
CN112297013B (zh) 一种基于数字孪生和深度神经网络的机器人智能抓取方法
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
EP2249286A1 (en) Robot with vision-based 3D shape recognition
JP2018165948A (ja) 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム
CN108044625B (zh) 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法
Saxena et al. Garment recognition and grasping point detection for clothing assistance task using deep learning
CN114140418A (zh) 一种基于rgb图像和深度图像的七自由度抓取姿势检测方法
JPH0830327A (ja) 能動的環境認識システム
CN114905508A (zh) 基于异构特征融合的机器人抓取方法
Kim et al. Stable robotic grasping of multiple objects using deep neural networks
CN113553943B (zh) 目标实时检测方法以及装置、存储介质、电子装置
CN114494594A (zh) 基于深度学习的航天员操作设备状态识别方法
Weinrich et al. Appearance-based 3D upper-body pose estimation and person re-identification on mobile robots
Ikram et al. Real time hand gesture recognition using leap motion controller based on CNN-SVM architechture
Zhao et al. POSITIONING AND GRABBING TECHNOLOGY OF INDUSTRIAL ROBOT BASED ON VISION.
Yu et al. Object recognition and robot grasping technology based on RGB-D data
Chen et al. A Framework for 3D Object Detection and Pose Estimation in Unstructured Environment Using Single Shot Detector and Refined LineMOD Template Matching
He et al. FabricFolding: learning efficient fabric folding without expert demonstrations
Ardizzone et al. Pose classification using support vector machines

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant