CN111673739B - 一种基于rbf神经网络的机器人位姿可达性判断的方法 - Google Patents

一种基于rbf神经网络的机器人位姿可达性判断的方法 Download PDF

Info

Publication number
CN111673739B
CN111673739B CN202010414103.8A CN202010414103A CN111673739B CN 111673739 B CN111673739 B CN 111673739B CN 202010414103 A CN202010414103 A CN 202010414103A CN 111673739 B CN111673739 B CN 111673739B
Authority
CN
China
Prior art keywords
robot
tag
neural network
rbf neural
target pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010414103.8A
Other languages
English (en)
Other versions
CN111673739A (zh
Inventor
隋少春
曾德标
张乐
谭红
刘克非
雷沛
曾超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Aircraft Industrial Group Co Ltd
Original Assignee
Chengdu Aircraft Industrial Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Aircraft Industrial Group Co Ltd filed Critical Chengdu Aircraft Industrial Group Co Ltd
Priority to CN202010414103.8A priority Critical patent/CN111673739B/zh
Publication of CN111673739A publication Critical patent/CN111673739A/zh
Application granted granted Critical
Publication of CN111673739B publication Critical patent/CN111673739B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Software Systems (AREA)
  • Numerical Control (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及机器人可达性分析技术领域,公开了一种基于RBF神经网络的机器人位姿可达性判断的方法,根据给定的目标位姿Tag,建立与Tag的等效目标位姿Tag*,判断机器人的机械臂末端到给定目标位姿的可达性;分析影响机器人姿态可达性的参数,确定输入与输出及其边界条件;构建机器人位姿可达性检测的RBF神经网络;基于RBF神经网络输出的关节角,判断机器人位置和姿态的可达性。本发明的有益效果是:本发明能够与有效的缩短判断目标位姿可达性分析的时间,提升了机器人目标位姿可达性判断的效率,对加工站位的优化、缩短工艺规划周期与降低成本。

Description

一种基于RBF神经网络的机器人位姿可达性判断的方法
技术领域
本发明涉及机器人可达性分析技术领域,具体的说,是一种基于RBF神经网络的机器人位姿可达性判断的方法。
背景技术
机器人在加工对象处的位置和姿态的可达是满足产品制造工艺要求和保证作业安全的必要条件,也是机器人加工站位与加工路径优化,提高作业效率的基础保障。机器人目标位姿可达性分析通常采用示教或求常规运动学逆解的方法计算在给定目标位姿下机器人各关节的角度,从而判断机器人在该目标位姿处是否可达。但是该类方法计算量大,尤其是在飞机部件装配机器人制孔领域,制孔数量庞大,需要大量判断目标位姿的可达性,此时示教和逆解计算的耗时是无法接受的。目前中国航空工业正处于与世界航空强国弯道超车的关键阶断,急需一种方法解决上述问题。
发明内容
本发明的目的在于提供一种基于RBF神经网络的机器人位姿可达性判断的方法,能够与有效的缩短判断目标位姿可达性分析的时间,提升了机器人目标位姿可达性判断的效率,对加工站位的优化、缩短工艺规划周期与降低成本。
本发明通过下述技术方案实现:
一种基于RBF神经网络的机器人位姿可达性判断的方法,根据给定的目标位姿Tag,建立与Tag的等效目标位姿Tag*,判断机器人的机械臂末端到给定目标位姿的可达性;分析影响机器人姿态可达性的参数,确定输入与输出及其边界条件;构建机器人位姿可达性检测的RBF神经网络;基于RBF神经网络输出的关节角,判断机器人位置和姿态的可达性。
进一步地,为了更好的实现本发明,具体包括以下步骤:
步骤S1:在机器人自身坐标系下,根据给定的目标位姿Tag=(x,y,z,R,P,Y),对机械臂末端是否可达进行预判断;其中:Tag=(x,y,z,R,P,Y)中,x、y、z为目标位姿三维坐标值,R为旋转角,P为俯仰角,Y为偏转角;
步骤S2:转化坐标系,建立Tag点的等效目标位姿点Tag*,进一步判断机器人位置的可达性;
步骤S3:确定影响机器人姿态可达性的参数,并将其作为RBF神经网络的输入参数;所述的参数包括O*Tag*的长度即极径ρ、O*X到O*Tag*的角度即极角θ、等效目标位姿Tag*绕自身X轴旋转的欧拉角α和等效目标位姿Tag*绕自身Y轴旋转的欧拉角β;所述O*Tag*为转换坐标系原点O*与等效目标位姿Tag*之间连成的线;所述O*X为转换坐标系的X轴;
步骤S4:将机器人第2关节、第3关节与第5关节的关节角分别作为RBF神经网络的3个输出量y1,y2,y3,并确定y1,y2与y3的边界条件;
步骤S5:获取训练RBF神经网络的样本;
步骤S6:通过DELMIA的CAA二次开发,将RBF神经网络相关函数写入离线编程模块中,并对训练样本进行训练,建立完整的RBF神经网络目标位姿可达性判断模型;
步骤S7:对给定的目标位姿Tag点,将对应的参数输入完整的RBF神经网络目标位姿可达性判断模型即可判断位姿是否可达。
进一步地,为了更好的实现本发明,所述步骤S1具体是指:机器人在X、Y与Z轴方向的可达位置区间分别为[Xmin,Xmax]、[Ymin,Ymax]与[Zmin,Zmax];若x、y、z不在上述区间范围内,则Tag是不可达的,如果都在区间范围内则需进一步判断其可达性。
进一步地,为了更好的实现本发明,所述步骤S2中可达性的判断具体包括以下步骤:
步骤S21:将目标位姿Tag绕Z轴旋转-η角至XOZ平面得到Tag*(x,0,z,α,β,γ),其中α、β、γ为欧拉角,其中Tag与Tag*的可达性是一致的;
步骤S22:当机器人处于零位时,将机器人第2关节的旋转轴线与机器人坐标系XOZ平面的交点设为转换坐标系原点O*;
步骤S23:计算Tag*与O*之间的距离,即极径ρ,以及O*Tag*与X轴之间的夹角,即极角θ;
步骤S24:设Lmax为机器人第2杆件、第3杆件、第4杆件和第5杆件的臂长之和;若距离ρ大于Lmax,则Tag*是不可达的,否则需进一步采用RBF神经网络判断其姿态可达性。
进一步地,为了更好的实现本发明,在所述步骤S4中,机器人第2关节、第3关节与第5关节的许用关节角的范围小于其设计许用关节角的范围,需满足以下条件:
Figure GDA0003083334600000021
其中[Y1min,Y1max]、[Y2min,Y2max]、[Y3min,Y3max]分别为第2关节、第3关节和第5关节的设计许用关节角的范围;ε为角度常量,根据实际需求设定。
进一步地,为了更好的实现本发明,所述步骤S5具体是指:循环变换机器人末端TCP的位姿,然后将末端TCP旋转到机器人坐标系XOZ平面上得到TCP*,则认为该TCP*是位姿可达并且各关节角度已知的等效目标位姿Tag*,从而获取每一组关节角与该TCP*的对应关系。
进一步地,为了更好的实现本发明,所述步骤S6具体包括以步骤:
步骤S61:采用Gauss函数作为RBF神经网络的基函数:
Figure GDA0003083334600000031
式中:X为向量(ρ,θ,α,β),为样本输入量;
Xi为对应第i个隐结点的聚类中心,为4维向量;
σi为第i个聚类中心对应的径向基函数的扩展常数;
n为隐结点数量;
||X-Xi||为向量X-Xi的范数;
步骤S62:采用K-均值聚类方法获得RBF神经网络的聚类中心Xi(i=1,2,…,n);根据各聚类中心之间的距离确定扩展常数:
Figure GDA0003083334600000032
RBF神经网络输出公式为:
Figure GDA0003083334600000033
Figure GDA0003083334600000034
Figure GDA0003083334600000035
步骤S63:设获取有m个样本Xi,i=1,2,…,m,RBF神经网络有n个隐结点;对于第i个样本Xi,第j个隐结点的输出为:
Figure GDA0003083334600000036
2,…,m;j=1,2,…,n,则隐结点层的输出矩阵为:
Figure GDA0003083334600000037
若RBF神经网络待定的权值矩阵为W,则RBF神经网络输出矩阵为:
F=ΦW;
令RBF神经网络输出矩阵等于理论输出矩阵D,则权值矩阵W可通过Φ的伪逆Φ+求出:
W=Φ+D;
Φ+=(ΦTΦ)-1ΦT
步骤S64:将神经网络输出矩阵与理论输出矩阵D进行比较,当误差绝对值小于定值0.1°
时,结束训练过程,获得完整的RBF神经网络目标位姿可达性判断模型。
本发明与现有技术相比,具有以下优点及有益效果:
本发明能够与有效的缩短判断目标位姿可达性分析的时间,提升了机器人目标位姿可达性判断的效率,对加工站位的优化、缩短工艺规划周期与降低成本。
附图说明
图1为本发明的工作流程图;
图2为本发明中的RBF神经网络;
图3为本发明中机器人目标位姿可达性及坐标转换示意图。
具体实施方式
下面结合实施例对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例1:
本发明通过下述技术方案实现,如图1、图2、图3所示,一种基于RBF神经网络的机器人位姿可达性判断的方法,根据给定的目标位姿Tag,建立与Tag的等效目标位姿Tag*,判断机器人的机械臂末端到给定目标位姿的可达性;分析影响机器人姿态可达性的参数,确定输入与输出及其边界条件;构建机器人位姿可达性检测的RBF神经网络;基于RBF神经网络输出的关节角,判断机器人位置和姿态的可达性。
进一步地,为了更好的实现本发明,具体包括以下步骤:
步骤S1:在机器人自身坐标系下,根据给定的目标位姿Tag=(x,y,z,R,P,Y),对机械臂末端是否可达进行预判断;其中:Tag=(x,y,z,R,P,Y)中,x、y、z为目标位姿三维坐标值,R为旋转角,P为俯仰角,Y为偏转角;
步骤S2:转化坐标系,建立Tag点的等效目标位姿点Tag*,进一步判断机器人位置的可达性;
步骤S3:确定影响机器人姿态可达性的参数,并将其作为RBF神经网络的输入参数;所述的参数包括O*Tag*的长度即极径ρ、O*X到O*Tag*的角度即极角θ、等效目标位姿Tag*绕自身X轴旋转的欧拉角α和等效目标位姿Tag*绕自身Y轴旋转的欧拉角β;所述O*Tag*为转换坐标系原点O*与等效目标位姿Tag*之间连成的线;所述O*X为转换坐标系的X轴;确定影响机器人姿态可达性的4个参数方法如下:由步骤S2可知,决定Tag*(x,0,z,α,β,γ)的参数有5个:距离ρ、极角θ、欧拉角α、β、γ。由于机器人的关节6是可360°自由旋转的,因此决定Tag*可达性的参数只有4个:极径ρ、极角θ和欧拉角α、β。
步骤S4:将机器人第2关节、第3关节与第5关节的关节角分别作为RBF神经网络的3个输出量y1,y2,y3,并确定y1,y2与y3的边界条件;
步骤S5:获取训练RBF神经网络的样本;
步骤S6:通过DELMIA的CAA二次开发,将RBF神经网络相关函数写入离线编程模块中,并对训练样本进行训练,建立完整的RBF神经网络目标位姿可达性判断模型;
步骤S7:对给定的目标位姿Tag点,将对应的参数输入完整的RBF神经网络目标位姿可达性判断模型即可判断位姿是否可达。
进一步地,为了更好的实现本发明,所述步骤S1具体是指:机器人在X、Y与Z轴方向的可达位置区间分别为[Xmin,Xmax]、[Ymin,Ymax]与[Zmin,Zmax];若x、y、z不在上述区间范围内,则Tag是不可达的,如果都在区间范围内则需进一步判断其可达性。
进一步地,为了更好的实现本发明,所述步骤S2中可达性的判断具体包括以下步骤:
步骤S21:将目标位姿Tag绕Z轴旋转-η角至XOZ平面得到Tag*(x,0,z,α,β,γ),其中α、β、γ为欧拉角,其中Tag与Tag*的可达性是一致的;
步骤S22:当机器人处于零位时,将机器人第2关节的旋转轴线与机器人坐标系XOZ平面的交点设为转换坐标系原点O*;
步骤S23:计算Tag*与O*之间的距离,即极径ρ,以及O*Tag*与X轴之间的夹角,即极角θ;
步骤S24:设Lmax为机器人第2杆件、第3杆件、第4杆件和第5杆件的臂长之和;若距离ρ大于Lmax,则Tag*是不可达的,否则需进一步采用RBF神经网络判断其姿态可达性。
进一步地,为了更好的实现本发明,所述步骤S4中,确定许用关节角的范围的方法如下:第四关节为360°旋转,可不计其影响。实际工程中机器人各个关节角通常不能过于接近其极限角度以免影响机器人作业的质量,同时避免误差的影响,机器人第2、3与5关节的许用关节角的范围需小于其设计的许用关节角的范围,需满足以下条件则:
Figure GDA0003083334600000051
进一步地,为了更好的实现本发明,所述步骤S5具体是指:循环变换机器人末端TCP的位姿,然后将末端TCP旋转到机器人坐标系XOZ平面上得到TCP*,则认为该TCP*是位姿可达并且各关节角度已知的等效目标位姿Tag*,从而获取每一组关节角与该TCP*的对应关系。
进一步地,为了更好的实现本发明,所述步骤S6具体包括以步骤:
步骤S61:采用Gauss函数作为RBF神经网络的基函数:
Figure GDA0003083334600000052
式中:X为向量(ρ,θ,α,β),为样本输入量;
Xi为对应第i个隐结点的聚类中心,为4维向量;
σi为第i个聚类中心对应的径向基函数的扩展常数;
n为隐结点数量;
||X-Xi||为向量X-Xi的范数;
步骤S62:采用K-均值聚类方法获得RBF神经网络的聚类中心Xi(i=1,2,…,n);根据各聚类中心之间的距离确定扩展常数:
Figure GDA0003083334600000061
RBF神经网络输出公式为:
Figure GDA0003083334600000062
Figure GDA0003083334600000063
Figure GDA0003083334600000064
步骤S63:设获取有m个样本Xi,i=1,2,…,m,RBF神经网络有n个隐结点;对于第i个样本Xi,第j个隐结点的输出为:
Figure GDA0003083334600000065
i=1,2,…,m;j=1,2,…,n,则隐结点层的输出矩阵为:
Figure GDA0003083334600000066
若RBF神经网络待定的权值矩阵为W,则RBF神经网络输出矩阵为:
F=ΦW;
令RBF神经网络输出矩阵等于理论输出矩阵D,则权值矩阵W可通过Φ的伪逆Φ+求出:
W=Φ+D;
Φ+=(ΦTΦ)-1ΦT
步骤S64:将神经网络输出矩阵与理论输出矩阵D进行比较,当误差绝对值小于定值0.1°时,结束训练过程,获得完整的RBF神经网络目标位姿可达性判断模型。
实施例2:
本实施例在上述实施例的基础上做进一步优化,
首先发明所述方法是基于RBF神经网络,以DELMIA软件平台为载体,通过CAA(一种基于CATIA、DELMIA特有的开发工具)为开发工具,在VisualStudio开发环境下实现的一种判断机器人位姿可达性的方法。需要说明的是,本发明所构思的方法不仅仅只限限于以DELMIA为平台使用,技术人员在本发明构思的指导下所完成的在其他平台软件的运用,均应视为在本发明要求保护的范围内。
如图1为本发明实施例的流程图,本实施实例的具体方法具体包括以下步骤:
步骤S1:在机器人自身坐标系下,根据给定的目标位姿Tag=(x,y,z,R,P,Y),通过坐标值对机械臂末端是否可达进行预判断;
步骤S2:转化坐标系,建立Tag点的等效目标位姿点Tag*,进一步判断机器人位置的可达性;
步骤S3:确定影响机器人姿态可达性的4个参数(极径ρ、极角θ和欧拉角α、β),并将其作为RBF神经网络的输入参数。
步骤S4:将机器人第2关节、第3关节与第5关节的关节角分别作为RBF神经网络的3个输出量y1,y2,y3,其边界条件为:
Figure GDA0003083334600000071
步骤S5:获取训练RBF神经网络的样本。
步骤S6:通过DELMIA的CAA二次开发,将RBF神经网络相关函数写入离线编程模块中,并对训练样本进行训练,建立完整的RBF神经网络目标位姿可达性判断模型。
步骤S7:新给定一目标位姿Tag点,输入对应的参数输入模型即可判断位姿是否可达。
作为优选,所述步骤S1中,对机械臂末端是否可达进行预判断的具体方法如下:Tag=(x,y,z,R,P,Y),x、y、z为目标位姿三维坐标值,R、P、Y分别为旋转角、俯仰角和偏转角。根据机器人的技术参数说明,确定在X、Y与Z轴方向的可达位置区间分别为[Xmin,Xmax]、[Ymin,Ymax]与[Zmin,Zmax]。若x、y、z不在上述区间范围内,则Tag是不可达的,如果都在区间范围内则需进一步判断其可达性。
作为优选,所述步骤S2中,进一步判断机器人位置可达性的方法还包括以下步骤:步骤S21:将目标位姿Tag绕Z轴旋转-η角至XOZ平面得到Tag*(x,0,z,α,β,γ),此时Tag与Tag*的可达性是一致的;
步骤S22:当机器人处于零位时,将机器人坐标系平移至第二关节中心点,记为O*,如图3所示。
步骤S23:计算Tag*与O*之间的距离,即极径ρ,以及O*Tag*与X轴之间的夹角,即极角θ。
步骤S24:设Lmax为机器人2、3、4和5杆件的臂长之和,若距离ρ大于Lmax,则Tag*是不可达的,否则需进一步采用RBF神经网络判断其姿态可达性。
作为优选,所述步骤S3中,确定影响机器人姿态可达性的4个参数方法如下:由步骤S2可知,决定Tag*(x,0,z,α,β,γ)的参数有5个:距离ρ、极角θ、欧拉角α、β、γ。由于机器人的关节6是可360°自由旋转,因此决定Tag*可达性的参数只有4个:极径ρ、极角θ和欧拉角α、β。
作为优选,所述步骤S5中,确定许用关节角范围包括:机器人第1关节以45°为步长,第2~5关节每个关节以20°为步长循环变换机器人末端TCP的位姿,然后将末端TCP旋转到机器人坐标系XOZ平面上得到TCP*,则认为该TCP*是位姿可达并且各关节角度已知的等效目标位姿Tag*,从而获取每一组关节角与该TCP*的对应关系。
作为优选,所述步骤S6中,对训练样本进行训练,建立完整的RBF神经网络目标位姿可达性判断模型具体方法包括:
步骤S61:RBF神经网络的基函数:
Figure GDA0003083334600000081
式中:X—向量(ρ,θ,α,β),样本输入量;
Xi—对应第i个隐结点的聚类中心,为4维向量;
σi—第i个聚类中心对应的径向基函数的扩展常数;
n—隐结点数量;
||X-Xi||一向量X-Xi的范数。
步骤S62:RBF神经网络的聚类中心Xi(i=1,2,…,n)采用K-均值聚类方法产生。根据各聚类中心之间的距离确定扩展常数:
Figure GDA0003083334600000082
输出公式为:
Figure GDA0003083334600000083
Figure GDA0003083334600000084
Figure GDA0003083334600000085
步骤S63:设获取有m个样本Xi,i=1,2,…,m,RBF神经网络有n个隐结点。对于第i个样本Xi,第j个隐结点的输出为:
Figure GDA0003083334600000086
i=1,2,…,m;j=1,2,…,n。则隐结点层的输出矩阵为:
Figure GDA0003083334600000087
若RBF神经网络待定的权值矩阵为W,则RBF神经网络输出矩阵为:
F=ΦW
令网络输出矩阵等于教师信号矩阵D,则权值矩阵W可通过Φ的伪逆Φ+求出
W=Φ+D
Φ+=(ΦTΦ)-1ΦT
步骤S64:将神经网络输出矩阵与理论输出矩阵D(教师信号)进行比较,误差绝对值小于一个给定值0.1°时,结束训练过程,从而获得完整的RBF神经网络目标位姿可达性判断模型,并将该模型通过二次开发,写入离线编程站位规划模块,其中运用的CAA接口为DNBITagGroupFactory、DNBITagFactory、DNBITagGroup、DNBITag。
需要说明的是,通过上述改进,本发明提升了机器人目标位姿可达性判断的效率,对加工站位的优化、缩短工艺规划周期与降低成本具有重要的促进作用。
本实施例的其他部分与上述实施例相同,故不再赘述。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。

Claims (1)

1.一种基于RBF神经网络的机器人位姿可达性判断的方法,其特征在于:根据给定的目标位姿Tag,建立与Tag的等效目标位姿Tag*,判断机器人的机械臂末端到给定目标位姿的可达性;分析影响机器人姿态可达性的参数,确定输入与输出及其边界条件;构建机器人位姿可达性检测的RBF神经网络;基于RBF神经网络输出的关节角,判断机器人位置和姿态的可达性;具体包括以下步骤:
步骤S1:在机器人自身坐标系下,根据给定的目标位姿Tag=(x,y,z,R,P,Y),对机械臂末端是否可达进行预判断;其中:Tag=(x,y,z,R,P,Y)中,x、y、z为目标位姿三维坐标值,R为旋转角,P为俯仰角,Y为偏转角;具体是指:机器人在X、Y与Z轴方向的可达位置区间分别为[Xmin,Xmax]、[Ymin,Ymax]与[Zmin,Zmax];若x、y、z不在上述区间范围内,则Tag是不可达的,如果都在区间范围内则需进一步判断其可达性;
步骤S2:转化坐标系,建立Tag点的等效目标位姿点Tag*,进一步判断机器人位置的可达性;所述步骤S2中可达性的判断具体包括以下步骤:
步骤S21:将目标位姿Tag绕Z轴旋转-η角至XOZ平面得到Tag*(x,0,z,α,β,γ),其中α、β、γ为欧拉角,其中Tag与Tag*的可达性是一致的;
步骤S22:当机器人处于零位时,将机器人第2关节的旋转轴线与机器人坐标系XOZ平面的交点设为转换坐标系原点O*;
步骤S23:计算Tag*与O*之间的距离,即极径ρ,以及O*Tag*与X轴之间的夹角,即极角θ;
步骤S24:设Lmax为机器人第2杆件、第3杆件、第4杆件和第5杆件的臂长之和;若距离ρ大于Lmax,则Tag*是不可达的,否则需进一步采用RBF神经网络判断其姿态可达性;
步骤S3:确定影响机器人姿态可达性的参数,并将其作为RBF神经网络的输入参数;所述的参数包括O*Tag*的长度即极径ρ、O*X到O*Tag*的角度即极角θ、等效目标位姿Tag*绕自身X轴旋转的欧拉角α和等效目标位姿Tag*绕自身Y轴旋转的欧拉角β;所述O*Tag*为转换坐标系原点O*与等效目标位姿Tag*之间连成的线;所述O*X为转换坐标系的X轴;
步骤S4:将机器人第2关节、第3关节与第5关节的关节角分别作为RBF神经网络的3个输出量y1,y2,y3,并确定y1,y2与y3的边界条件;机器人第2关节、第3关节与第5关节的许用关节角的范围小于其设计许用关节角的范围,需满足以下条件:
Figure FDA0003065117090000021
其中[Y1min,Y1max]、[Y2min,Y2max]、[Y3min,Y3max]分别为第2关节、第3关节和第5关节的设计许用关节角的范围;ε为角度常量,根据实际需求设定;
步骤S5:获取训练RBF神经网络的样本;具体是指:循环变换机器人末端TCP的位姿,然后将末端TCP旋转到机器人坐标系XOZ平面上得到TCP*,则认为该TCP*是位姿可达并且各关节角度已知的等效目标位姿Tag*,从而获取每一组关节角与该TCP*的对应关系;
步骤S6:通过DELMIA的CAA二次开发,将RBF神经网络相关函数写入离线编程模块中,并对训练样本进行训练,建立完整的RBF神经网络目标位姿可达性判断模型;具体包括以下步骤:
步骤S61:采用Gauss函数作为RBF神经网络的基函数:
Figure FDA0003065117090000022
式中:X为向量(ρ,θ,α,β),为样本输入量;
Xi为对应第i个隐结点的聚类中心,为4维向量;
σi为第i个聚类中心对应的径向基函数的扩展常数;
n为隐结点数量;
||X-Xi||为向量X-Xi的范数;
步骤S62:采用K-均值聚类方法获得RBF神经网络的聚类中心Xi(i=1,2,…,n);根据各聚类中心之间的距离确定扩展常数:
Figure FDA0003065117090000023
RBF神经网络输出公式为:
Figure FDA0003065117090000024
其中,wi1、wi2、wi3分别为从第i个隐含层节点到第1个、第2个和第3个输出节点的权值;
步骤S63:设获取有m个样本Xi,i=1,2,…,m,RBF神经网络有n个隐结点;对于第i个样本Xi,第j个隐结点的输出为:
Figure FDA0003065117090000031
则隐结点层的输出矩阵为:
Figure 1
若RBF神经网络待定的权值矩阵为W,则RBF神经网络输出矩阵为:
F=ΦW;
令RBF神经网络输出矩阵等于理论输出矩阵D,则权值矩阵W可通过Φ的伪逆Φ+求出:
W=Φ+D;
Φ+=(ΦTΦ)-1ΦT
步骤S64:将神经网络输出矩阵与理论输出矩阵D进行比较,当误差绝对值小于定值0.1°时,结束训练过程,获得完整的RBF神经网络目标位姿可达性判断模型;
步骤S7:对给定的目标位姿Tag点,将对应的参数输入完整的RBF神经网络目标位姿可达性判断模型即可判断位姿是否可达。
CN202010414103.8A 2020-05-15 2020-05-15 一种基于rbf神经网络的机器人位姿可达性判断的方法 Active CN111673739B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010414103.8A CN111673739B (zh) 2020-05-15 2020-05-15 一种基于rbf神经网络的机器人位姿可达性判断的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010414103.8A CN111673739B (zh) 2020-05-15 2020-05-15 一种基于rbf神经网络的机器人位姿可达性判断的方法

Publications (2)

Publication Number Publication Date
CN111673739A CN111673739A (zh) 2020-09-18
CN111673739B true CN111673739B (zh) 2021-08-03

Family

ID=72434052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010414103.8A Active CN111673739B (zh) 2020-05-15 2020-05-15 一种基于rbf神经网络的机器人位姿可达性判断的方法

Country Status (1)

Country Link
CN (1) CN111673739B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113319863B (zh) * 2021-05-11 2023-06-16 华中科技大学 机器人磨抛加工整体叶盘的工件装夹位姿优化方法和系统
CN113715030B (zh) * 2021-11-04 2022-04-15 深圳市优必选科技股份有限公司 仿人机器人关节的控制方法、装置、设备及介质
CN116160444B (zh) * 2022-12-31 2024-01-30 中国科学院长春光学精密机械与物理研究所 基于聚类算法的机械臂运动学逆解的优化方法、装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106914897A (zh) * 2017-03-31 2017-07-04 长安大学 基于rbf神经网络的机械手运动学逆解方法
CN109304710A (zh) * 2017-07-27 2019-02-05 中国商用飞机有限责任公司 基于径向基神经网络的机械臂精度标定方法
CN109895121A (zh) * 2017-12-07 2019-06-18 泰科电子(上海)有限公司 机械臂控制系统和方法
CN109444928B (zh) * 2018-12-18 2021-08-06 重庆西部汽车试验场管理有限公司 一种定位方法及系统

Also Published As

Publication number Publication date
CN111673739A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
CN111673739B (zh) 一种基于rbf神经网络的机器人位姿可达性判断的方法
CN107738254B (zh) 一种机械臂坐标系的转换标定方法与系统
CN110193829B (zh) 一种耦合运动学与刚度参数辨识的机器人精度控制方法
CN108908327B (zh) 一种机器人定位误差分级补偿方法
CN107457783B (zh) 基于pd控制器的六自由度机械臂自适应智能检测方法
CN111993417B (zh) 一种基于rbf神经网络的机械臂自适应阻抗控制方法
CN108068113B (zh) 7-dof仿人臂飞行物体作业最小加速度轨迹优化
CN109163675B (zh) 一种基于激光跟踪仪检测角摆轴位置精度的方法
CN107414827B (zh) 基于线性反馈控制器的六自由度机械臂自适应检测方法
CN110253574B (zh) 一种多任务机械臂位姿检测和误差补偿方法
CN112109084A (zh) 基于机器人关节角度补偿的末端位置补偿方法及其应用
CN113510690B (zh) 四自由度串联机器人逆运动学求解方法和系统
CN113510709A (zh) 基于深度强化学习的工业机器人位姿精度在线补偿方法
Chen et al. A compensation method based on error similarity and error correlation to enhance the position accuracy of an aviation drilling robot
CN113160334A (zh) 一种基于手眼相机的双机器人系统标定方法
CN103950552B (zh) 基于六轴数控定位器的飞机壁板装配变形的数字化校正方法
CN113858217A (zh) 多机器人交互的三维视觉位姿感知方法及系统
CN114347018A (zh) 一种基于小波神经网络的机械臂扰动补偿方法
Lu et al. Inverse kinematic analysis and evaluation of a robot for nondestructive testing application
CN110181522B (zh) 一种五自由度首末对称机械臂逆运动学计算的优化方法
CN113580135B (zh) 一种有偏置七轴机器人实时逆解算法
CN113601499A (zh) 一种单关节锁定失效下的空间机械臂逆运动学方法
CN109366486A (zh) 柔性机器人逆运动学求解方法、系统、设备、存储介质
CN112157654A (zh) 一种机器人加工系统定位误差的优化方法
CN115446836B (zh) 一种基于多种图像特征信息混合的视觉伺服方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant