CN107253195B - 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 - Google Patents
一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 Download PDFInfo
- Publication number
- CN107253195B CN107253195B CN201710636798.2A CN201710636798A CN107253195B CN 107253195 B CN107253195 B CN 107253195B CN 201710636798 A CN201710636798 A CN 201710636798A CN 107253195 B CN107253195 B CN 107253195B
- Authority
- CN
- China
- Prior art keywords
- joint
- wolf
- sample
- forecast model
- crawl
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
Abstract
本发明公开了一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统,包括以下步骤:步骤1:利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;步骤2:按照手臂运动耗电量选取初始训练样本;步骤3:依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;步骤4:利用关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;步骤5:依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。本发明通过建立机器人基座、抓取台之间距离与机器人手臂姿态之间的映射,避免了繁琐的运动学方程建立;获取准确的关节控制值,控制灵活。
Description
技术领域
本发明属于机器人控制领域,特别涉及一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统。
背景技术
近些年来,移动机器人被广泛应用于室内运输,如医院利用移动机器人运输医疗设备、超市的服务型机器人、工厂制造环境下的机器人等。而机器人手臂是机器人机械系统的重要组成部分,也是机器人实现其服务功能的主要载体。
机械手臂的控制问题一直是该行业的难点问题。早期,大部分手臂采用PID控制,能够实现中等以下速度的跟踪,但是在高精度、快速的场合下,传统的PID控制并不能满足其控制要求。在这种情况下,出现了模糊控制、神经网络控制、模糊神经网络控制、专家控制等智能控制方法。
如今神经网络广泛应用于机器人手臂控制:通过求解运动学方程来获得训练样本,然后利用神经网络建立手臂关节空间坐标与笛卡尔空间坐标的映射关系。然而通过求解运动学方程获得大量样本的方法并不实用,而且机器人手臂关节处的电机更换会使得之前构建的神经网络需重新训练。因此,机器人的维护存在着极大的不便。基于上述原因,迫切地需要一种更为智能的手臂控制方法。
发明内容
本发明提供了一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统,其目的在于,克服上述现有技术中存在的问题,通过建立机器人基座、抓取台之间距离与机器人手臂姿态之间的映射,避免繁琐的运动学方程建立;从抓取样本集中根据耗电量选择初始训练样本;结合抓取中关节运动幅度并将关节分为三类,并且对这三类关节采用了不同的优化算法和神经网络组合进行训练和预测,提高了手臂关节的控制精度。
一种运载机器人手臂操控自适应混合学习映射智能控制方法,包括以下步骤:
步骤1:将运载机器人位于指定抓取区域内的抓取任务固定起始点,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点移动到抓取结束点的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
所述抓取结束点是指,当运载机器人从抓取任务固定起始点运动到抓取结束点时,运载机器人抓到物体,完成抓取任务;
利用远程服务器控制运载机器人手臂进行抓取,同时自动记录距离和对应的控制值矩阵,获取样本的方法不同于传统反求运动学方程的复杂方法,避免了复杂的建模和求解过程。
步骤2:按照手臂运动耗电量选取初始训练样本;
从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
步骤3:依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值;
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
N个关节的控制值被划分为三类;
步骤4:利用步骤3得到的关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第二类关节预测模型使用的训练模型为PID神经网络模型;
第三类关节预测模型使用的训练模型为广义回归神经网络模型;
建立距离与机器人手臂姿态之间的映射,而不需要建立复杂的运动学方程。同时,手臂关节处电机的更换不会造成神经网络训练的失效,方便了机器人的维护。
运用多种优化算法和神经网络的组合对手臂的抓取进行控制,针对不同关节选择精度更加高的组合进行预测,提高了系统的稳定性;
步骤5:当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
进一步的,所述第一类关节预测模型是以第一类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为灰色神经网络模型的输入数据和输出数据进行训练后,获得的基于灰色神经网络的第一类关节预测模型:
所述基于灰色神经网络的第一类关节预测模型的输入层节点个数为2,隐含层小波元个数为4,输出层节点个数为2;训练过程中的最大迭代次数设置为500,训练学习率为0.1,阈值为0.05;
所述基于灰色神经网络的第一类关节预测模型的权值和阈值采用自改进狼群算法进行寻优获得。
进一步的,所述基于灰色神经网络的第一类关节预测模型的权值和阈值采用狼群算法进行寻优获得的过程如下:
步骤3.1:以个体狼的位置作为基于灰色神经网络的第一类关节预测模型的权值和阈值,初始化狼群并设置狼群参数;
狼群包含多只个体狼;
狼群规模的取值范围为[10,100],步长因子的取值范围为[1000,2500],探狼比例因子的取值范围为[2,10],最大游走次数的取值范围为[5,20],距离判定因子的取值范围为[100,500],最大奔袭次数的取值范围为[5,15],更新比例因子的取值范围为[2,20],最大迭代次数的取值范围为[200,2000],最大搜索精度的取值范围为[0.01,0.1];
步骤3.2:设定适应度函数,并确定初始最优头狼位置和迭代次数t,t=1;
依次个体狼位置体对应的权值和阈值代入基于灰色神经网络的第一类关节预测模型中,并利用个体狼位置确定的基于灰色神经网络的第一类关节预测模型计算第一类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的关节控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
利用第一适应度函数计算每个个体狼位置的适应度,以最大适应度对应的磷虾个体位置作为初始最优头狼位置
步骤3.3:探狼游走;
从狼群中选取适应度最大的狼作为头狼,并随机选取探狼;计算探狼在各方向的适应度,并使探狼向适应度最大的方向探索:当某只探狼适应度大于头狼或者达到最大游走次数时,游走结束,进入步骤3.4;
步骤3.4:猛狼奔袭;
除头狼与探狼之外的个体狼均为猛狼,猛狼向头狼所在方向奔袭,并不断计算猛狼位置的适应度;
若某猛狼位置适应度高于头狼位置适应度,则更新头狼,且其余猛狼改为向当前头狼奔袭,当猛狼与当前头狼距离小于判定距离时,该猛狼奔袭停止,当所有猛狼奔袭停止或达到最大奔袭次数时,奔袭结束,狼群进入围攻状态,进入步骤3.5;
步骤3.5:除当前头狼以外所有个体狼均向头狼方向前进一步,依次判断向前进一步后的个体狼位置适应度是否优于未向前进一步的位置的适应度,若是,则将向前进一步的位置作为个体狼的新的位置,否则,若适应度降低,则个体狼保持原位置不变;
步骤3.6:完成围攻行为后,狼群中所有个体狼按照当前适应度由高到低排序,适应度最高的个体狼设为头狼,排名靠后的人工狼被淘汰,并重新随机生成新的人工狼;
步骤3.7:当达到最大搜索精度或最大迭代次数时,输出最新的头狼对应的基于灰色神经网络的第一类关节预测模型的最优权值和阈值,否则,令t=t+1,返回步骤3.3,继续下一次迭代。
进一步的,所述第二类关节预测模型是以第二类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制值分别作为PID神经网络模型的输入数据和输出数据进行训练后,获得的基于PID神经网络的第二类关节预测模型:
其中,所述基于PID神经网络的第二类关节预测模型输入层节点个数为2,隐含层个数为4,输出层节点个数为2;训练过程中,最大迭代次数设置为100,训练学习率为0.1;
所述基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得。
进一步的,所述基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得的过程如下:
步骤5.1:将降雨层作为基于PID神经网络的第二类关节预测模型的权值和阈值,初始化降雨层种群,并设置降雨层种群参数;
降雨层种群规模的取值范围为[30,150],河流和海洋的取值范围为[5,15],海洋个数1,极小值dmin的取值范围为[0.02,0.1],最大迭代次数的取值范围为[200,1000],最大搜索精度的取值范围为[0.01,0.1];
步骤5.2:设定适应度函数,并确定初始最优降雨层和迭代次数t,t=1;
将降雨层对应的权值和阈值代入基于PID神经网络的第二类关节预测模型中,并利用降雨层确定的基于PID神经网络的第二类关节预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第二适应度函数f2(x);
利用第二适应度函数计算每个降雨层的适应度,以最大适应度对应的降雨层作为大海,以次小适应度对应的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤5.3:使溪流汇入河流,如果发现溪流的解比河流的解更好,则它们互相交换位置;
步骤5.4:使河流流入海洋,若河流的解比海洋的解较优,则河流与海洋交换位置,以最终海洋作为最优解;
步骤5.5:检查是否满足蒸发条件;判断河流与海洋的适应值之差的绝对值是否小于极小值dmin;
如果小于,则认为满足降雨条件,去掉该河流,并重新进行降雨过程,随机生成新的降雨层,重新计算降雨层种群中各降雨层的适应度,返回步骤5.3,否则,进入步骤5.6;
随机生成的新的降雨层数量与删掉的河流数量相同;
步骤5.6:判断是否到达最大迭代次数,,若达到,输出全局最优大海对应的基于PID神经网络的第二类关节预测模型的权值和阈值,若未达到,则令t=t+1,进入步骤5.3,继续下一次迭代。
进一步的,所述第三类关节预测模型是以第三类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为广义回归神经网络模型的输入数据和输出数据进行训练后,获得的基于广义回归神经网络的第三类关节预测模型:
其中,所述基于广义回归神经网络的第三类关节预测模型的输入层节点个数为2,模式层神经元个数为2,求和层神经元个数为4,输出层神经元个数4;训练过程中,最大迭代次数设置为200,训练学习率为0.1;
所述基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行寻优获得。
进一步的,所述基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行优化选择寻优获得的过程如下:
步骤7.1:以蝙蝠个体的位置作为基于广义回归神经网络的第三类关节预测模型的光滑因子σ,设置蝙蝠种群参数;
蝙蝠种群规模的取值范围为[100,500],蝙蝠个体最大脉冲频度r0=0.5,最大脉冲声音强度A0的取值范围为[0.2,0.7],蝙蝠搜索频度增加系数的取值范围为[0.02,0.06],声音强度衰减系的取值范围为[0.75,0.9],交叉概率设置为0.5,变异概率设置为0.5,适应度方差阈值的取值范围为[0.01,0.05],搜索脉冲频率的取值范围为[0,1.5],最大迭代次数的取值范围为[200,500],最大搜索精度的取值范围为[0.02,0.1];
步骤7.2:根据混沌映射序列初始化蝙蝠种群中每个蝙蝠个体的位置、速度和频率;
步骤7.3:设定适应度函数,并确定初始最优蝙蝠个体位置和迭代次数t,t=1;
将蝙蝠个体位置对应的权值、阈值和伸缩平移系数代入基于小波神经网络的第三类关节控制预测模型中,并利用蝙蝠个体位置确定的基于小波神经网络的第三类关节控制预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的差值E构建第三适应度函数f3(x),f3(x)=1/(E+1);
步骤7.4:利用设定的脉冲频率更新蝙蝠的搜索脉冲频率、位置和速度;
步骤7.5:若Rand1>ri,则对处于个体最优位置的蝙蝠进行随机扰动,生成蝙蝠个体的扰动位置;
其中,Rand1为在[0,1]上均匀分布的随机数,ri为第i只蝙蝠的脉冲频度;
步骤7.6:Rand2>Ai,蝙蝠个体的扰动位置的适应度优于扰动前的蝙蝠个体位置的适应度,则将蝙蝠个体移动到扰动位置,否则保持原位;
其中,Rand2为在[0,1]上均匀分布的随机数,Ai为第i只蝙蝠的声音强度;
步骤7.7:计算当前种群中每个蝙蝠个体的适应度以及蝙蝠种群的群体适应度方差;
群体适应度方差是指所有蝙蝠个体的适应度方差;
根据蝙蝠种群的群体适应度方差判断蝙蝠算法的早熟状态,若群体适应度方差小于给定的阈值,则对蝙蝠种群中每个蝙蝠个体进行交叉和变异操作,返回步骤7.5,否则,在当前蝙蝠种群中寻找适应度最大的蝙蝠个体,转到步骤7.8;
步骤7.8:判断是否达到最大搜索精度或者最大迭代次数,若达到,则输出最优蝙蝠个体位置对应的基于广义回归神经网络的第三类关节预测模型的光滑因子σ。
一种运载机器人手臂操控自适应混合学习映射智能控制系统,包括:
抓取样本集获取单元,将运载机器人位于指定抓取区域内的抓取任务固定起始点,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点移动到抓取结束点的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
初始训练样本选取单元,从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
各类关节样本集划分单元,依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值;
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节;
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
预测模型构建单元,利用关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第二类关节预测模型使用的训练模型为PID神经网络模型;
第三类关节预测模型使用的训练模型为广义回归神经网络模型;
控制单元,当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
进一步地,所述指定抓取区域内的抓取任务固定起始点和抓取结束点与抓取台边缘之间的距离分别为28cm和18cm,相邻移动点之间的间距为1cm。
进一步地,所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
运载机器人基座的超声波传感器是一般用作避障,本发明不需要在运载机器人身上增加任何距离测量装置,扩展了自带的超声波传感器用途。
有益效果
本发明提供了一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统,该方法通过建立机器人手臂关节控制值和距离的非线性映射关系,多次利用远程服务器控制机器人手臂进行抓取训练,获得抓取样本集。根据耗电量指标,选择出初始训练样本。根据样本关节值变化幅度,将机器人的关节分成了三类,对每一类关节采用了不同的优化算法和神经网络组合进行控制。对第一类关节,采用了改进狼群算法优化后灰色神经网络进行训练和预测;对第二类关节,采用了水循环算法优化的PID神经网络进行训练和预测;针对第三类关节,建立广义回归神经网络模型进行训练和预测,利用混沌和差分蝙蝠算法优化广义回归神经网络的光滑因子σ,提高神经网络的全局搜索速度及寻优精度。本发明所述方案,避免了反求解复杂的动力学方程,具有适用性广、操控精度高、控制灵活的特点。
附图说明
图1为运载机器人抓取过程示意图;
图2为PID神经网络结构示意图;
图3为广义回归神经网络结构示意图;
图4为本发明所述手臂抓取控制方法流程图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
运载机器人抓取过程示意图如图1所示;应用本发明所述控制方法对机器人手臂抓取进行控制的流程图如图4所示。
一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统,包括以下步骤:
步骤1:将运载机器人位于指定抓取区域内的抓取任务固定起始点a,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点a移动到抓取结束点b的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
步骤2:按照手臂运动耗电量选取初始训练样本;
从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
步骤3:依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值。
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节;
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
步骤4:利用步骤3得到的关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第一类关节预测模型是以第一类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为灰色神经网络模型的输入数据和输出数据进行训练后,获得的基于灰色神经网络的第一类关节预测模型:
所述基于灰色神经网络的第一类关节预测模型的输入层节点个数为2,隐含层小波元个数为4,输出层节点个数为2;训练过程中的最大迭代次数设置为500,训练学习率为0.1,阈值为0.05;
所述基于灰色神经网络的第一类关节预测模型的权值和阈值采用自改进狼群算法进行寻优获得。
基于灰色神经网络的第一类关节预测模型的权值和阈值采用狼群算法进行寻优获得的过程如下:
步骤3.1:以个体狼的位置作为基于灰色神经网络的第一类关节预测模型的权值和阈值,初始化狼群并设置狼群参数;
狼群包含多只个体狼;
狼群规模的取值范围为[10,100],步长因子的取值范围为[1000,2500],探狼比例因子的取值范围为[2,10],最大游走次数的取值范围为[5,20],距离判定因子的取值范围为[100,500],最大奔袭次数的取值范围为[5,15],更新比例因子的取值范围为[2,20],最大迭代次数的取值范围为[200,2000],最大搜索精度的取值范围为[0.01,0.1];
步骤3.2:设定适应度函数,并确定初始最优头狼位置和迭代次数t,t=1;
依次个体狼位置体对应的权值和阈值代入基于灰色神经网络的第一类关节预测模型中,并利用个体狼位置确定的基于灰色神经网络的第一类关节预测模型计算第一类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的关节控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
利用第一适应度函数计算每个个体狼位置的适应度,以最大适应度对应的磷虾个体位置作为初始最优头狼位置
步骤3.3:探狼游走;
从狼群中选取适应度最大的狼作为头狼,并随机选取探狼;计算探狼在各方向的适应度,并使探狼向适应度最大的方向探索:当某只探狼适应度大于头狼或者达到最大游走次数时,游走结束,进入步骤3.4;
步骤3.4:猛狼奔袭;
除头狼与探狼之外的个体狼均为猛狼,猛狼向头狼所在方向奔袭,并不断计算猛狼位置的适应度;
若某猛狼位置适应度高于头狼位置适应度,则更新头狼,且其余猛狼改为向当前头狼奔袭,当猛狼与当前头狼距离小于判定距离时,该猛狼奔袭停止,当所有猛狼奔袭停止或达到最大奔袭次数时,奔袭结束,狼群进入围攻状态,进入步骤3.5;
步骤3.5:除当前头狼以外所有个体狼均向头狼方向前进一步,依次判断向前进一步后的个体狼位置适应度是否优于未向前进一步的位置的适应度,若是,则将向前进一步的位置作为个体狼的新的位置,否则,若适应度降低,则个体狼保持原位置不变;
步骤3.6:完成围攻行为后,狼群中所有个体狼按照当前适应度由高到低排序,适应度最高的个体狼设为头狼,排名靠后的人工狼被淘汰,并重新随机生成新的人工狼;
步骤3.7:当达到最大搜索精度或最大迭代次数时,输出最新的头狼对应的基于灰色神经网络的第一类关节预测模型的最优权值和阈值,否则,令t=t+1,返回步骤3.3,继续下一次迭代。
第二类关节预测模型使用的训练模型为PID神经网络模型,如图2所示。
第二类关节预测模型是以第二类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制值分别作为PID神经网络模型的输入数据和输出数据进行训练后,获得的基于PID神经网络的第二类关节预测模型:
其中,所述基于PID神经网络的第二类关节预测模型输入层节点个数为2,隐含层个数为4,输出层节点个数为2;训练过程中,最大迭代次数设置为100,训练学习率为0.1;
所述基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得。
基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得的过程如下:
步骤5.1:将降雨层作为基于PID神经网络的第二类关节预测模型的权值和阈值,初始化降雨层种群,并设置降雨层种群参数;
降雨层种群规模的取值范围为[30,150],河流和海洋的取值范围为[5,15],海洋个数1,极小值dmin的取值范围为[0.02,0.1],最大迭代次数的取值范围为[200,1000],最大搜索精度的取值范围为[0.01,0.1];
步骤5.2:设定适应度函数,并确定初始最优降雨层和迭代次数t,t=1;
将降雨层对应的权值和阈值代入基于PID神经网络的第二类关节预测模型中,并利用降雨层确定的基于PID神经网络的第二类关节预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第二适应度函数f2(x);
利用第二适应度函数计算每个降雨层的适应度,以最大适应度对应的降雨层作为大海,以次小适应度对应的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤5.3:使溪流汇入河流,如果发现溪流的解比河流的解更好,则它们互相交换位置;
步骤5.4:使河流流入海洋,若河流的解比海洋的解较优,则河流与海洋交换位置,以最终海洋作为最优解;
步骤5.5:检查是否满足蒸发条件;判断河流与海洋的适应值之差的绝对值是否小于极小值dmin;
如果小于,则认为满足降雨条件,去掉该河流,并重新进行降雨过程,随机生成新的降雨层,重新计算降雨层种群中各降雨层的适应度,返回步骤5.3,否则,进入步骤5.6;
随机生成的新的降雨层数量与删掉的河流数量相同;
步骤5.6:判断是否到达最大迭代次数,,若达到,输出全局最优大海对应的基于PID神经网络的第二类关节预测模型的权值和阈值,若未达到,则令t=t+1,进入步骤5.3,继续下一次迭代。
第三类关节预测模型使用的训练模型为广义回归神经网络模型如图3所示;
第三类关节预测模型是以第三类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为广义回归神经网络模型的输入数据和输出数据进行训练后,获得的基于广义回归神经网络的第三类关节预测模型:
其中,所述基于广义回归神经网络的第三类关节预测模型的输入层节点个数为2,模式层神经元个数为2,求和层神经元个数为4,输出层神经元个数4;训练过程中,最大迭代次数设置为200,训练学习率为0.1;
所述基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行寻优获得。
基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行优化选择寻优获得的过程如下:
步骤7.1:以蝙蝠个体的位置作为基于广义回归神经网络的第三类关节预测模型的光滑因子σ,设置蝙蝠种群参数;
蝙蝠种群规模的取值范围为[100,500],蝙蝠个体最大脉冲频度r_0=0.5,最大脉冲声音强度A_0的取值范围为[0.2,0.7],蝙蝠搜索频度增加系数的取值范围为[0.02,0.06],声音强度衰减系的取值范围为[0.75,0.9],交叉概率设置为0.5,变异概率设置为0.5,适应度方差阈值的取值范围为[0.01,0.05],搜索脉冲频率的取值范围为[0,1.5],最大迭代次数的取值范围为[200,500],最大搜索精度的取值范围为[0.02,0.1];
步骤7.2:根据混沌映射序列初始化蝙蝠种群中每个蝙蝠个体的位置、速度和频率;
步骤7.3:设定适应度函数,并确定初始最优蝙蝠个体位置和迭代次数t,t=1;
将蝙蝠个体位置对应的权值、阈值和伸缩平移系数代入基于小波神经网络的第三类关节控制预测模型中,并利用蝙蝠个体位置确定的基于小波神经网络的第三类关节控制预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的差值E构建第三适应度函数f3(x),f3(x)=1/(E+1);
步骤7.4:利用设定的脉冲频率更新蝙蝠的搜索脉冲频率、位置和速度;
步骤7.5:若Rand1>ri,则对处于个体最优位置的蝙蝠进行随机扰动,生成蝙蝠个体的扰动位置;
其中,Rand1为在[0,1]上均匀分布的随机数,ri为第i只蝙蝠的脉冲频度;
步骤7.6:若Rand2>Ai,蝙蝠个体的扰动位置的适应度优于扰动前的蝙蝠个体位置的适应度,则将蝙蝠个体移动到扰动位置,否则保持原位;
其中,Rand2为在[0,1]上均匀分布的随机数,Ai为第i只蝙蝠的声音强度;
步骤7.7:计算当前种群中每个蝙蝠个体的适应度以及蝙蝠种群的群体适应度方差;
根据蝙蝠种群的群体适应度方差判断蝙蝠算法的早熟状态,若群体适应度方差小于给定的阈值,则对蝙蝠种群中每个蝙蝠个体进行交叉和变异操作,返回步骤7.5,否则,在当前蝙蝠种群中寻找适应度最大的蝙蝠个体,转到步骤7.8;
步骤7.8:判断是否达到最大搜索精度或者最大迭代次数,若达到,则输出最优蝙蝠个体位置对应的基于广义回归神经网络的第三类关节预测模型的光滑因子σ。
步骤5:当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
一种运载机器人手臂操控自适应混合学习映射智能控制系统,包括:
抓取样本集获取单元,将运载机器人位于指定抓取区域内的抓取任务固定起始点,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点移动到抓取结束点的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
初始训练样本选取单元,从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
各类关节样本集划分单元,依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值;
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节;
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
预测模型构建单元,利用关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第二类关节预测模型使用的训练模型为PID神经网络模型;
第三类关节预测模型使用的训练模型为广义回归神经网络模型;
控制单元,当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
进一步地,所述指定抓取区域内的抓取任务固定起始点和抓取结束点与抓取台边缘之间的距离分别为28cm和18cm,相邻移动点之间的间距为1cm。
进一步地,所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
所述指定抓取区域内的抓取任务固定起始点和抓取结束点与抓取台边缘之间的距离分别为28cm和18cm,相邻移动点之间的间距为1cm。
所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (10)
1.一种运载机器人手臂操控自适应混合学习映射智能控制方法,其特征在于,包括以下步骤:
步骤1:将运载机器人位于指定抓取区域内的抓取任务固定起始点,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点移动到抓取结束点的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
步骤2:按照手臂运动耗电量选取初始训练样本;
从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
步骤3:依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值;
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节;
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
步骤4:利用步骤3得到的关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第二类关节预测模型使用的训练模型为PID神经网络模型;
第三类关节预测模型使用的训练模型为广义回归神经网络模型;
步骤5:当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
2.根据权利要求1所述的方法,其特征在于,所述第一类关节预测模型是以第一类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为灰色神经网络模型的输入数据和输出数据进行训练后,获得的基于灰色神经网络的第一类关节预测模型:
所述基于灰色神经网络的第一类关节预测模型的输入层节点个数为2,隐含层小波元个数为4,输出层节点个数为2;训练过程中的最大迭代次数设置为500,训练学习率为0.1,阈值为0.05;
所述基于灰色神经网络的第一类关节预测模型的权值和阈值采用自改进狼群算法进行寻优获得。
3.根据权利要求2所述的方法,其特征在于,所述基于灰色神经网络的第一类关节预测模型的权值和阈值采用狼群算法进行寻优获得的过程如下:
步骤3.1:以个体狼的位置作为基于灰色神经网络的第一类关节预测模型的权值和阈值,初始化狼群并设置狼群参数;
狼群规模的取值范围为[10,100],步长因子的取值范围为[1000,2500],探狼比例因子的取值范围为[2,10],最大游走次数的取值范围为[5,20],距离判定因子的取值范围为[100,500],最大奔袭次数的取值范围为[5,15],更新比例因子的取值范围为[2,20],最大迭代次数的取值范围为[200,2000],最大搜索精度的取值范围为[0.01,0.1];
步骤3.2:设定适应度函数,并确定初始最优头狼位置和迭代次数t,t=1;
依次个体狼位置体对应的权值和阈值代入基于灰色神经网络的第一类关节预测模型中,并利用个体狼位置确定的基于灰色神经网络的第一类关节预测模型计算第一类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的关节控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
利用第一适应度函数计算每个个体狼位置的适应度,以最大适应度对应的磷虾个体位置作为初始最优头狼位置
步骤3.3:探狼游走;
从狼群中选取适应度最大的狼作为头狼,并随机选取探狼;计算探狼在各方向的适应度,并使探狼向适应度最大的方向探索:当某只探狼适应度大于头狼或者达到最大游走次数时,游走结束,进入步骤3.4;
步骤3.4:猛狼奔袭;
除头狼与探狼之外的个体狼均为猛狼,猛狼向头狼所在方向奔袭,并不断计算猛狼位置的适应度;
若某猛狼位置适应度高于头狼位置适应度,则更新头狼,且其余猛狼改为向当前头狼奔袭,当猛狼与当前头狼距离小于判定距离时,该猛狼奔袭停止,当所有猛狼奔袭停止或达到最大奔袭次数时,奔袭结束,狼群进入围攻状态,进入步骤3.5;
步骤3.5:除当前头狼以外所有个体狼均向头狼方向前进一步,依次判断向前进一步后的个体狼位置适应度是否优于未向前进一步的位置的适应度,若是,则将向前进一步的位置作为个体狼的新的位置,否则,若适应度降低,则个体狼保持原位置不变;
步骤3.6:完成围攻行为后,狼群中所有个体狼按照当前适应度由高到低排序,适应度最高的个体狼设为头狼,排名靠后的人工狼被淘汰,并重新随机生成新的人工狼;
步骤3.7:当达到最大搜索精度或最大迭代次数时,输出最新的头狼对应的基于灰色神经网络的第一类关节预测模型的最优权值和阈值,否则,令t=t+1,返回步骤3.3,继续下一次迭代。
4.根据权利要求1所述的方法,其特征在于,所述第二类关节预测模型是以第二类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制值分别作为PID神经网络模型的输入数据和输出数据进行训练后,获得的基于PID神经网络的第二类关节预测模型:
其中,所述基于PID神经网络的第二类关节预测模型输入层节点个数为2,隐含层个数为4,输出层节点个数为2;训练过程中,最大迭代次数设置为100,训练学习率为0.1;
所述基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得。
5.根据权利要求4所述的方法,其特征在于,所述基于PID神经网络的第二类关节预测模型的权值和阈值采用水循环算法进行寻优获得的过程如下:
步骤5.1:将降雨层作为基于PID神经网络的第二类关节预测模型的权值和阈值,初始化降雨层种群,并设置降雨层种群参数;
降雨层种群规模的取值范围为[30,150],河流和海洋的取值范围为[5,15],海洋个数1,极小值dmin的取值范围为[0.02,0.1],最大迭代次数的取值范围为[200,1000],最大搜索精度的取值范围为[0.01,0.1];
步骤5.2:设定适应度函数,并确定初始最优降雨层和迭代次数t,t=1;
将降雨层对应的权值和阈值代入基于PID神经网络的第二类关节预测模型中,并利用降雨层确定的基于PID神经网络的第二类关节预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第二适应度函数f2(x);
利用第二适应度函数计算每个降雨层的适应度,以最大适应度对应的降雨层作为大海,以次小适应度对应的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤5.3:使溪流汇入河流,如果发现溪流的解比河流的解更好,则它们互相交换位置;
步骤5.4:使河流流入海洋,若河流的解比海洋的解较优,则河流与海洋交换位置,以最终海洋作为最优解;
步骤5.5:检查是否满足蒸发条件;判断河流与海洋的适应值之差的绝对值是否小于极小值dmin;
如果小于,则认为满足降雨条件,去掉该河流,并重新进行降雨过程,随机生成新的降雨层,重新计算降雨层种群中各降雨层的适应度,返回步骤5.3,否则,进入步骤5.6;
随机生成的新的降雨层数量与删掉的河流数量相同;
步骤5.6:判断是否到达最大迭代次数,若达到,输出全局最优大海对应的基于PID神经网络的第二类关节预测模型的权值和阈值,若未达到,则令t=t+1,进入步骤5.3,继续下一次迭代。
6.根据权利要求1所述的方法,其特征在于,所述第三类关节预测模型是以第三类关节样本集中各关节样本的移动点位置和在对应移动点上的关节控制分别作为广义回归神经网络模型的输入数据和输出数据进行训练后,获得的基于广义回归神经网络的第三类关节预测模型:
其中,所述基于广义回归神经网络的第三类关节预测模型的输入层节点个数为2,模式层神经元个数为2,求和层神经元个数为4,输出层神经元个数4;训练过程中,最大迭代次数设置为200,训练学习率为0.1;
所述基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行寻优获得。
7.根据权利要求6所述的方法,其特征在于,所述基于广义回归神经网络的第三类关节预测模型的光滑因子σ采用混沌和差分蝙蝠算法进行优化选择寻优获得的过程如下:
步骤7.1:以蝙蝠个体的位置作为基于广义回归神经网络的第三类关节预测模型的光滑因子σ,设置蝙蝠种群参数;
蝙蝠种群规模的取值范围为[100,500],蝙蝠个体最大脉冲频度r0=0.5,最大脉冲声音强度A0的取值范围为[0.2,0.7],蝙蝠搜索频度增加系数的取值范围为[0.02,0.06],声音强度衰减系的取值范围为[0.75,0.9],交叉概率设置为0.5,变异概率设置为0.5,适应度方差阈值的取值范围为[0.01,0.05],搜索脉冲频率的取值范围为[0,1.5],最大迭代次数的取值范围为[200,500],最大搜索精度的取值范围为[0.02,0.1];
步骤7.2:根据混沌映射序列初始化蝙蝠种群中每个蝙蝠个体的位置、速度和频率;
步骤7.3:设定适应度函数,并确定初始最优蝙蝠个体位置和迭代次数t,t=1;
将蝙蝠个体位置对应的权值、阈值和伸缩平移系数代入基于小波神经网络的第三类关节控制预测模型中,并利用蝙蝠个体位置确定的基于小波神经网络的第三类关节控制预测模型计算第二类关节样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的差值E构建第三适应度函数f3(x),f3(x)=1/(E+1);
步骤7.4:利用设定的脉冲频率更新蝙蝠的搜索脉冲频率、位置和速度;
步骤7.5:若Rand1>ri,则对处于个体最优位置的蝙蝠进行随机扰动,生成蝙蝠个体的扰动位置;
其中,Rand1为在[0,1]上均匀分布的随机数,ri为第i只蝙蝠的脉冲频度;
步骤7.6:若Rand2>Ai,蝙蝠个体的扰动位置的适应度优于扰动前的蝙蝠个体位置的适应度,则将蝙蝠个体移动到扰动位置,否则保持原位;
其中,Rand2为在[0,1]上均匀分布的随机数,Ai为第i只蝙蝠的声音强度;
步骤7.7:计算当前种群中每个蝙蝠个体的适应度以及蝙蝠种群的群体适应度方差;
根据蝙蝠种群的群体适应度方差判断蝙蝠算法的早熟状态,若群体适应度方差小于给定的阈值,则对蝙蝠种群中每个蝙蝠个体进行交叉和变异操作,返回步骤7.5,否则,在当前蝙蝠种群中寻找适应度最大的蝙蝠个体,转到步骤7.8;
步骤7.8:判断是否达到最大搜索精度或者最大迭代次数,若达到,则输出最优蝙蝠个体位置对应的基于广义回归神经网络的第三类关节预测模型的光滑因子σ。
8.一种运载机器人手臂操控自适应混合学习映射智能控制系统,其特征在于,包括:
抓取样本集获取单元,将运载机器人位于指定抓取区域内的抓取任务固定起始点,利用远程服务器控制运载机器人手臂重复进行多次抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人从抓取任务固定起始点移动到抓取结束点的过程中依次经过各个移动点,运载机器人在各个移动点上所有关节的控制值以及完成一次抓取任务的手臂运动耗电量;每个移动点所在位置是指运载机器人的基座与抓取台底端边缘之间的距离,相邻移动点之间间距相等;
初始训练样本选取单元,从抓取样本集中选出手臂运动耗电量百分比低于10%的抓取样本,并从手臂运动耗电量百分比低于10%的抓取样本中选出手臂运动耗电量百分比最低的抓取样本作为初始训练样本;
各类关节样本集划分单元,依据各手臂关节控制值的变化幅度对初始训练样本进行关节分类,获得各类关节样本集;
从初始训练样本中提取出各个关节样本,每个关节样本包括移动点位置和在对应移动点的关节控制值;
依据关节控制值变化幅度a%,对初始训练样本中每个关节样本进行分类:
若a%<20%,该类关节作为第一类关节;
若20%≤a%≤50%,该类关节作为第二类关节;
若a%>50%,该类关节作为第三类关节;
每个关节样本的关节控制值变化幅度a%是指每个关节在一次抓取过程所有动作中的最大控制值和最小控制值之差与对应关节的控制量程之比;
预测模型构建单元,利用关节样本集作为最终训练集构建运载机器人手臂关节控制值的预测模型;
依次将最终训练集中属于同类型关节的所有关节样本的移动点位置和在对应移动点上的关节控制值分别作为训练模型的输入数据和输出数据进行训练,构建预测模型;
其中,第一类关节预测模型使用的训练模型为灰色神经网络模型;
第二类关节预测模型使用的训练模型为PID神经网络模型;
第三类关节预测模型使用的训练模型为广义回归神经网络模型;
控制单元,当运载机器人接收到抓取指令运动到抓取任务固定起始点时,利用设定的手臂关节动作数量将抓取区域进行等间隔划分,得到各个移动点位置,依次输入各个移动点的位置到预测模型,得到各个移动点位置上的各个关节的控制值,完成将抓取任务。
9.根据权利要求8所述的系统,其特征在于,所述指定抓取区域内的抓取任务固定起始点和抓取结束点与抓取台边缘之间的距离分别为28cm和18cm,相邻移动点之间的间距为1cm。
10.根据权利要求9所述的系统,其特征在于,所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710636798.2A CN107253195B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710636798.2A CN107253195B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107253195A CN107253195A (zh) | 2017-10-17 |
CN107253195B true CN107253195B (zh) | 2018-02-09 |
Family
ID=60025453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710636798.2A Active CN107253195B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107253195B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107917734B (zh) * | 2017-11-29 | 2020-12-29 | 国网吉林省电力有限公司信息通信公司 | 基于温度和电阻的光缆故障预测方法 |
CN108255180B (zh) * | 2018-01-23 | 2019-05-03 | 中南大学 | 一种智能制造环境机器人及车辆计算智能驱动运载方法与系统 |
CN108287548B (zh) * | 2018-01-23 | 2019-06-07 | 中南大学 | 一种自动化导轨运载装置及机器人协同运载方法与系统 |
CN108280518B (zh) * | 2018-01-23 | 2020-06-26 | 中南大学 | 一种分布式环境机器人及车辆移动互联运载方法与系统 |
CN110293550B (zh) * | 2018-03-21 | 2021-06-18 | 北京猎户星空科技有限公司 | 机械臂移动控制方法、装置和智能设备 |
CN110376881A (zh) * | 2019-08-23 | 2019-10-25 | 上海应用技术大学 | 一种基于灰狼算法的桥式吊车pid控制方法 |
CN110977965B (zh) * | 2019-11-26 | 2023-02-28 | 中国科学院深圳先进技术研究院 | 机器人及其控制方法、计算机存储介质 |
CN111305899B (zh) * | 2020-02-25 | 2021-09-14 | 大连海事大学 | 用于地铁车站拱盖法施工临时支撑拆除长度确定的方法 |
CN112170781B (zh) * | 2020-09-25 | 2022-02-22 | 泰州鑫宇精工股份有限公司 | 一种提升淋砂机环保性能的方法和装置 |
CN114161417A (zh) * | 2021-12-07 | 2022-03-11 | 东莞市易联交互信息科技有限责任公司 | 一种机器人的动作控制方法和系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942371B2 (en) * | 2009-09-03 | 2015-01-27 | Jerzy Henryk Urbanik | Method and system for a symmetric block cipher using a plurality of symmetric algorithms |
CN103213129B (zh) * | 2013-04-17 | 2015-04-22 | 北京空间飞行器总体设计部 | 一种空间机械臂位置力混合控制方法 |
CN103235513B (zh) * | 2013-04-24 | 2016-12-28 | 武汉科技大学 | 一种基于遗传算法的移动机械臂轨迹规划优化方法 |
CN103279039A (zh) * | 2013-05-17 | 2013-09-04 | 安徽工业大学 | 一种机器人神经网络式计算力矩控制器训练平台及训练方法 |
TWI460436B (zh) * | 2013-08-13 | 2014-11-11 | Nat Univ Tsing Hua | 相量計算單元位置選取方法 |
CN104589349B (zh) * | 2015-01-16 | 2016-04-13 | 西北工业大学 | 一种混合悬浮微重力环境下带有单关节机械臂的组合体自主控制方法 |
CN105904462A (zh) * | 2016-05-27 | 2016-08-31 | 湖南科瑞特科技股份有限公司 | 一种六自由度智能机器人本体的控制方法 |
CN106502963A (zh) * | 2016-10-20 | 2017-03-15 | 燕山大学 | 基于自适应变步长混沌狼群寻优算法的非线性函数求解方法 |
CN106393081B (zh) * | 2016-11-21 | 2018-10-30 | 深圳市小二极客科技有限公司 | 人机交互的机械手控制方法、终端及系统 |
-
2017
- 2017-07-31 CN CN201710636798.2A patent/CN107253195B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107253195A (zh) | 2017-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107253195B (zh) | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 | |
CN107092254B (zh) | 一种基于深度增强学习的家用扫地机器人的设计方法 | |
Qolomany et al. | Parameters optimization of deep learning models using particle swarm optimization | |
Jaddi et al. | Optimization of neural network model using modified bat-inspired algorithm | |
CN110490035A (zh) | 人体骨架动作识别方法、系统及介质 | |
CN110794842A (zh) | 基于势场的强化学习路径规划算法 | |
Flaspohler et al. | Information-guided robotic maximum seek-and-sample in partially observable continuous environments | |
CN106444755A (zh) | 基于改进遗传算法的移动机器人路径规划方法及系统 | |
CN107414830B (zh) | 一种运载机器人手臂操控多层映射智能控制方法及系统 | |
CN106022471A (zh) | 基于粒子群优化算法的小波神经网络模型船舶横摇实时预测方法 | |
CN110442129A (zh) | 一种多智能体编队的控制方法和系统 | |
CN107253194A (zh) | 一种运载机器人手臂操控多点映射智能控制方法及系统 | |
CN109934422A (zh) | 一种基于时间序列数据分析的神经网络风速预测方法 | |
CN108955689A (zh) | 基于自适应细菌觅食优化算法的rbpf-slam方法 | |
Shi et al. | Enhanced spatial attention graph for motion planning in crowded, partially observable environments | |
Liang et al. | Recent advances in particle swarm optimization via population structuring and individual behavior control | |
CN109344961A (zh) | 一种基于pso的权值直接确定神经网络结构优化方法 | |
CN110047088B (zh) | 一种基于改进教与学优化算法的ht-29图像分割方法 | |
Jerbć et al. | Autonomous agent based on reinforcement learning and adaptive shadowed network | |
CN116841303A (zh) | 一种针对水下机器人的智能择优高阶迭代自学习控制方法 | |
CN109408896A (zh) | 一种污水厌氧处理产气量多元智能实时监控方法 | |
CN112861332B (zh) | 一种基于图网络的集群动力学预测方法 | |
Prescott | Explorations in reinforcement and model-based learning | |
CN114118374A (zh) | 基于层次一致性学习的多智体强化学习方法及系统 | |
Liu et al. | Robotic cognitive behavior control based on biology-inspired episodic memory |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |