CN110977965B - 机器人及其控制方法、计算机存储介质 - Google Patents
机器人及其控制方法、计算机存储介质 Download PDFInfo
- Publication number
- CN110977965B CN110977965B CN201911176236.XA CN201911176236A CN110977965B CN 110977965 B CN110977965 B CN 110977965B CN 201911176236 A CN201911176236 A CN 201911176236A CN 110977965 B CN110977965 B CN 110977965B
- Authority
- CN
- China
- Prior art keywords
- robot
- control model
- data information
- matrix
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种机器人及其控制方法、计算机存储介质,该方法包括:获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。通过上述方式,能够减少模型的精度损失,提高系统稳定性,还提高机器人仿人运动的复现精度。
Description
技术领域
本申请涉及机器人和智能控制技术领域,特别是涉及一种机器人及其控制方法、计算机存储介质。
背景技术
在现阶段机器人的应用中,尤其是工业应用中,机器人的运动一般是通过用户预先编程定义的,或者预先设定某种任务环境,然后让机器人按照计划重复执行即可。这种模式运行的机器人无法面对环境的变化,或者突如其来的扰动。对于复杂场景下或较困难任务的实现,这种模式也需要较为繁重的人工编程。更重要的是,这种控制模式没有隐含人的操作习惯。为了更好地实现人机协同交互,机器人应该具有更加灵活和柔顺的特性。机器人“模仿学习”(Imitation Learning)或称“示教学习”(Programming by Demonstration)、“学习人类策略控制”(Learning Control from Human Demonstrations)便是解决这一问题的重要方法。
在使用示教学习对机器人运动进行建模时,通常希望实现以下三个目标:稳定性、精度、速度。
不足之处在于,“精度”、“速度”和“稳定性”三者通常是互相牵制和矛盾的关系。要保证模型较高的精度,通常需要使用较为复杂的模型结构来拟合运动的过程,如增加神经网络的层数、每层网络的神经元个数等,从而导致训练需要花费更长的时间才能获得最优解,也即降低了训练的速度。要保证系统的稳定性,必须要求系统无论从空间中的任意哪个位置出发,都要运动到目标位置,这无疑与精度的要求产生了矛盾。因此,越强的稳定性约束必然导致精度的下降。速度和稳定性之间没有必然的联系,但如果使用较为复杂的模型,也会对稳定性的约束条件的推导增加一定的困难。
发明内容
为了解决上述问题,本申请提供一种机器人及其控制方法、计算机存储介质,能够减少模型的精度损失,提高系统稳定性,还提高机器人仿人运动的复现精度。
本申请采用的一种技术方案是提供一种机器人的控制方法,该方法包括:获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。
其中,将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练,包括:将数据信息初始化,以生成训练样本;将训练样本输入至预先建立的控制模型,以对控制模型进行训练;在控制模型的精度满足预设阈值时,结束对控制模型的训练。
其中,控制模型的计算公式为:X(k+1)=AX(k)+g(X(k));其中,A是一个常系数矩阵,g(X)=[g1(X),...,gn+m(X)]T是一个多项式核函数组成的向量,gi(X)是不低于2次的多项式核函数。
其中,基于训练后的控制模型判断机器人的系统稳定性,包括:获取控制模型的矩阵;计算出矩阵的特征值;基于特征值计算出矩阵的谱半径;当谱半径小于1时,确定机器人的系统稳定。
其中,基于特征值计算出矩阵的谱半径,包括:将特征值代入以下公式,得到矩阵的谱半径:ρ(A)=max{|λi|};其中,A表示矩阵,λi表示矩阵的特征值,i=1,2,…,n。
其中,若系统稳定,则利用控制模型对机器人进行控制,包括:若系统稳定,则计算出机器人的系统收敛域;当机器人的系统收敛域大于预设阈值时,则利用控制模型对机器人进行控制。
其中,若系统稳定,则计算出系统收敛域进一步包括:当机器人的系统收敛域小于或等于预设阈值时,则返回至获取机器人在示教过程中的数据信息的步骤。
其中,计算出机器人的系统收敛域,包括:将集合X变换到一个超球面坐标系y上,以得到下列公式:akrk+ak-1rk-1+...+a2r2>0;其中,集合X为数据信息的集合,r表示超球面的半径,ai,i=2,...,k是α的函数,α是超球面的角变量;利用切比雪夫点方法计算出r的值;r的值为系统收敛域。
本申请采用的另一种技术方案是提供一种机器人,该机器人包括处理器以及与处理器连接的存储器;存储器用于存储程序数据,处理器用于执行程序数据,以实现上述方案中提供的任一方法。
本申请采用的另一种技术方案是提供一种计算机存储介质,计算机存储介质用于存储程序数据,程序数据在被处理器执行时,用于实现上述方案中提供的任一方法。
本申请的有益效果是:区别于现有技术的情况,本申请的一种机器人的控制方法,该方法包括:获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。通过上述方式,在模型训练完成后判断机器人的系统稳定性,能够减少模型的精度损失,提高系统稳定性,还提高机器人仿人运动的复现精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的机器人的控制方法第一实施例的流程示意图;
图2是本申请提供的机器人的控制方法第二实施例的流程示意图;
图3是本申请提供的机器人的控制方法第三实施例的流程示意图;
图4是本申请提供的机器人的控制方法第四实施例的流程示意图;
图5为本申请提供的机器人一实施例的结构示意图;
图6是本申请提供的计算机存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参阅图1,图1是本申请提供的应用程序的操作方法第一实施例的流程示意图,该方法包括:
步骤11:获取机器人在示教过程中的数据信息。
可以理解,机器人示教的方式有很多,例如遥操作示教、拖动示教、在虚拟仿真环境中进行示教。
在上述的多种示教方式中,均会产生相应的运动数据,如机器人的移动速度、角速度、各关节的位置信息、工具中心点的位置信息等。
在一些实施例中,机器人是被拖动示教时,通过机器人的传感器采集每个关节的位置信息,以得到多个连续的位置信息。传感器可以是机器人关节或电机端的编码器,以获取关节的位置信息。
进一步通过对位置信息进行处理,可以获取到机器人被拖动执行动作时的速度。
可以理解,不同的机器人,获取的数据信息不尽相同,根据机器人的特性,获取合理的数据信息。
步骤12:将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练。
在一些实施例中,可以采用高斯混合模型、隐马尔科夫模型、K近邻、线性回归、神经网络、支持向量机等方式建立控制模型,在控制模型建立后,将获取到的数据信息作为训练样本输入至控制模型,以对控制模型进行训练。
在一些实施例中,在数据信息作为训练样本输入至预先建立的控制模型后,将数据信息进行预处理,然后利用预处理后的数据信息进行控制模型训练。
步骤13:基于训练后的控制模型判断机器人的系统稳定性。
在一些实施例中,可以使用劳斯稳定性判据的方法来进行系统稳定性的判断。劳斯稳定性判据是根据系统特征方程式来判断特征跟在S平面的位置,从而决定系统的稳定性。判断依据为特征方程的各项系数都不等于0且各项系数符号相同且劳斯表的第一列元素都是正数。
在一些实施例中,可以使用奈奎斯特稳定性判据的方法来进行系统稳定性的判断。奈奎斯特稳定性判据是根据开环奈奎斯特图判断闭环系统的稳定性,若系统稳定,则系统的开环频率特性按逆时针方向包围(-1,j0)点的圈数为N圈,等于位于S右半平面的极点个数P。S表示一个平面。
在一些实施例中,还可以使用由伯德图判断系统的稳定性的方法来进行系统稳定性的判断。也可以使用根轨迹法的方法来进行系统稳定性的判断。或者可以使用李雅普诺稳定性方法的方法来进行系统稳定性的判断。
可以理解,基于不同特性,可以选择合理的方式进行机器人的稳定性判断。若判断出机器人系统稳定,则执行步骤14,若判断出机器人系统不稳定,则返回步骤11重新获取机器人在示教过程中的数据信息。
步骤14:利用控制模型对机器人进行控制。
在判断系统稳定后,则利用控制模型对机器人进行控制,从而使机器人复现示教动作,使的机器人掌握示教动作。
区别于现有技术的情况,本申请的一种机器人的控制方法,该方法包括:获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。通过上述方式,在模型训练完成后判断机器人的系统稳定性,能够减少模型的精度损失,提高系统稳定性,还提高机器人仿人运动的复现精度。
参阅图2,图2是本申请提供的应用程序的操作方法第二实施例的流程示意图,该方法包括:
步骤21:获取机器人在示教过程中的数据信息。
在本实施例中,机器人可以是带有关节、连杆等结构,可实现伸缩、抓取等动作的机器人。
可以理解,获取的机器人在示教过程中的数据信息应为多组信息。
可选的,设置采样点,按照相应的时间间隔获取各采样点的数据信息。
步骤22:将数据信息初始化,以生成训练样本。
例如对部分数据进行格式上的转化,单位上的换算,以符合接下来训练模型的需要。
在一些实施例中,对数据信息初始化可以是将数据信息进行分类,以生成多个训练样本,形成训练样本集,还可以标记训练样本标签。
步骤23:将训练样本输入至预先建立的控制模型,以对控制模型进行训练。
可选的,可以采用高斯混合模型、隐马尔科夫模型、K近邻、线性回归、神经网络、支持向量机等方式建立控制模型。
在一些实施例中,可以将多种算法结合来建立控制模型。
在一些实施例中,采用支持向量机的方法建立控制模型,所以控制模型的计算公式为:
X(k+1)=AX(k)+g(X(k));
其中,A是一个常系数矩阵,g(X)=[g1(X),...,gn+m(X)]T是一个多项式核函数组成的向量,gi(X)是不低于2次的多项式核函数。
步骤24:在控制模型的精度满足预设阈值时,结束对控制模型的训练。
可以理解,模型的精度表示了模型的性能,如识别率、分类准确率等。
在一些实施例中,为了能够在训练模型时能够检测模型的性能,可以将训练样本分为训练集、验证集、测试集。训练集主要进行模型训练,验证集主要进行参数调整,测试集主要进行模型性能的评估。
当精度不满足预设阈值时,则结束对模型的训练,返回步骤21,重新获取机器人在示教过程中的数据信息,以再次进行模型训练;当精度满足预设阈值时,则结束对模型的训练,执行步骤25。
步骤25:基于训练后的控制模型判断机器人的系统稳定性。
在本实施中,可利用上述实施例的技术方案来判断机器人的系统稳定性,这里不做赘述。
若判断出机器人系统稳定,则执行步骤26,若判断出机器人系统不稳定,则返回步骤21重新获取机器人在示教过程中的数据信息。
步骤26:利用控制模型对机器人进行控制。
当模型训练完成后,输入示教过程中的数据信息,则可输出相应的数据信息,以利用相应的数据信息,实现动作复现。
在本实施例中,保证模型的精度之后判断机器人的系统稳定性,能够减少模型的精度损失,提高系统稳定性,还提高机器人仿人运动的复现精度。
参阅图3,图3是本申请提供的应用程序的操作方法第三实施例的流程示意图,该方法包括:
步骤31:获取机器人在示教过程中的数据信息。
步骤32:将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练。
步骤31-32与上述实施例中的技术方案相同或相似,这里不做赘述。
步骤33:获取控制模型的矩阵。
其中,控制模型的矩阵是基于上述训练样本对控制模型训练得到的。
步骤34:计算出矩阵的特征值。
设A是n阶方阵,如果存在数m和非零n维列向量x,使得Ax=mx成立,则称m是矩阵A的一个特征值。
举例说明:
则由特征方程:
解得A有2重特征值λ1=λ2=-2,有单特征值λ3=4。
步骤35:基于特征值计算出矩阵的谱半径。
步骤36:判断谱半径是否小于1。
步骤33-36是基于控制模型对机器人的系统稳定性的判断,在本实施例中,采用李雅普诺夫定理进行稳定性的判断。
根据李雅普诺夫定理,对于线性的连续时间系统,该系统是渐进稳定的当且仅当系统状态方程的动态矩阵的特征值都落在复平面的左半平面内;对于离散时间系统,一个系统是渐进稳定的当且仅当该系统状态方程的动态矩阵的所有特征值都落在复平面的单位圆内。数学表达如下:
ρ(A)=max{|λi|};
其中,A表示矩阵,λi表示矩阵的特征值,i=1,2,…,n;ρ(A)表示矩阵的谱半径。
当ρ(A)<1时,确定机器人系统稳定,则执行步骤37。当ρ(A)≥1时,确定机器人系统不稳定,返回步骤31。
步骤37:利用控制模型对机器人进行控制。
参阅图4,图4是本申请提供的应用程序的操作方法第三实施例的流程示意图,该方法包括:
步骤41:获取机器人在示教过程中的数据信息。
步骤42:将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练。
步骤43:基于训练后的控制模型判断机器人的系统稳定性。
步骤41-43与上述实施例中的技术方案相同或相似,这里不做赘述。
步骤44:计算出机器人的系统收敛域。
在本实施例中,在判断出系统稳定后,进一步计算系统收敛域。
在本实施例中,采用如下方式计算系统收敛域。
定义如下的李雅普诺夫函数:
V(X(k))=XT(k)X(k)=XTX;
系统平衡点附近的收敛域则定义为如下的集合:
根据李雅普诺夫定理,如果对于所有X∈Ωr,X≠0,集合Ωr将被限制于收敛域内,以下的不等条件成立:
h(X)=-ΔV(X)=-(V(k+1)-V(k))=-(AX+BY)T(AX+BY)+XTX>0;
因此,收敛域分析的问题就转换为一个以上述不等式为约束条件、对R进行的最优化的过程。
为了计算收敛域我们将变量X的集合变换到一个超球面坐标系y上:
其中,r是超球面的半径,α=[α1,α2,...,αn+m-1]T是变换后的角变量,变换的过程如下:
因此,上述定义的李雅普诺夫函数则可写成
V(X)=V(α,r)=V(y)=r2;
那么,不等式也相应地写作
h(X)=h(y)=akrk+ak-1rk-1+...+a2r2>0;
其中,集合X为数据信息的集合,r表示超球面的半径,ai,i=2,...,k是α的函数,α是所述超球面的角变量。
利用切比雪夫点方法计算出r的值;所述r的值为所述系统收敛域。
步骤45:判断系统收敛域是否大于设定阈值。
当机器人的系统收敛域大于预设阈值时,则执行步骤46,否则返回步骤41。
步骤46:利用控制模型对机器人进行控制。
在一具体实施方式中,以倒立摆平衡小车为例,对本申请进行说明:
控制的目标是通过控制系统的脉冲调制宽度(Pulse Width Modulation,PWM)U0使得系统在动态运动的过程中保持平衡不倒。当系统处于k时刻时,我们建模的输入可写作:
X(k)=[θ(k),ω(k),v(k),U0(k)]T=[x1,x2,x3,x4]T;
建模的输出可以同样地写作:
X(k+1)=[θ(k+1),ω(k+1),v(k+1),U0(k+1)]T=[x1(k+1),x2(k+1),x3(k+1),x4(k+1)]T;
由于状态变量有3个,控制变量有1个,所以我们总共需要估计4个函数如下:
其中xi(k+1),i=1,2,3,4是X(k+1)中的第i个元素。
我们通过人类示教的方式,让人控制系统不倒的过程中进行了800组采样,并用采样数据训练SVR的模型。多项式核函数的次数设为2,因此函数gi(X),i=1,...,4的每一个元素都包含一组状态变量的2次多项式,共10项,分别是因此,模型的表达形式则变为:
采样得到的数据可训练得到矩阵A和B。
然后计算矩阵A的谱半径ρ(A)判断系统是否稳定。根据实验计算得到的数据ρ(A)=0.9682<1,因此系统是稳定的。
然后进行收敛域的估计。将变量X的集合变换到超球面,变化过程如下:
李雅普诺夫函数则可以写成:
V(X)=V(θ,r)=V(y)=r2;
不等式可以相应的写作
h(X)=h(y)=(m2r2+m1r+m0)r2>0;
应用切比雪夫点方法对r值进行估计,最终实验可得r∈[-16,+16]。
r大于预设阈值,则利用控制模型对倒立摆平衡小车进行控制。
在本实施例中,保证模型的精度之后判断机器人的系统稳定性,再次判断系统收敛域,能够减少对模型训练时的稳定性约束,进而减少模型的精度损失,提高模型训练速度,还提高机器人仿人运动的复现精度,保证机器人运动收敛到目标位置。
参阅图5,图5是本申请提供的机器人一实施例的结构示意图,机器人50包括处理器51以及与处理器51连接的存储器52;其中,存储器52用于存储程序数据,处理器51用于执行程序数据,用于实现以下方法:
获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:将数据信息初始化,以生成训练样本;将训练样本输入至预先建立的控制模型,以对控制模型进行训练;在控制模型的精度满足预设阈值时,结束对控制模型的训练。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:控制模型的计算公式为:X(k+1)=AX(k)+g(X(k));其中,A是一个常系数矩阵,g(X)=[g1(X),...,gn+m(X)]T是一个多项式核函数组成的向量,gi(X)是不低于2次的多项式核函数。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:获取控制模型的矩阵;计算出矩阵的特征值;基于特征值计算出矩阵的谱半径;当谱半径小于1时,确定机器人的系统稳定。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:将特征值代入以下公式,得到矩阵的谱半径:ρ(A)=max{|λi|};其中,A表示矩阵,λi表示矩阵的特征值,i=1,2,…,n。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:若系统稳定,则计算出机器人的系统收敛域;当机器人的系统收敛域大于预设阈值时,则利用控制模型对机器人进行控制。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:当机器人的系统收敛域小于或等于预设阈值时,则返回至获取机器人在示教过程中的数据信息的步骤。
可选的,处理器51用于执行程序数据时,还用于实现以下方法:将集合X变换到一个超球面坐标系y上,以得到下列公式:akrk+ak-1rk-1+...+a2r2>0;其中,集合X为数据信息的集合,r表示超球面的半径,ai,i=2,...,k是α的函数,α是超球面的角变量;利用切比雪夫点方法计算出r的值;r的值为系统收敛域。
参阅图6,图6是本申请提供的计算机存储介质一实施例的结构示意图,计算机存储介质60用于存储程序数据61,程序数据61在被处理器执行时,用于实现以下的方法步骤:
获取机器人在示教过程中的数据信息;将数据信息作为训练样本,输入至预先建立的控制模型中,以对控制模型进行训练;基于训练后的控制模型判断机器人的系统稳定性;若系统稳定,则利用控制模型对机器人进行控制;若系统不稳定,则返回至获取机器人在示教过程中的数据信息的步骤。
可以理解的,程序数据61在被处理器执行,可用于实现上述实施例的任一方法,其具体的实施步骤可以参考上述实施例,这里不再赘述。
在本申请所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述其他实施方式中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (9)
1.一种机器人的控制方法,其特征在于,所述方法包括:
获取机器人在示教过程中的数据信息;
将所述数据信息作为训练样本,输入至预先建立的控制模型中,以对所述控制模型进行训练;
基于训练后的所述控制模型判断所述机器人的系统稳定性;
若系统稳定,则计算出所述机器人的系统收敛域;
当所述机器人的系统收敛域大于预设阈值时,则利用所述控制模型对所述机器人进行控制;
若系统不稳定,则返回至所述获取机器人在示教过程中的数据信息的步骤。
2.根据权利要求1所述的方法,其特征在于,
所述将所述数据信息作为训练样本,输入至预先建立的控制模型中,以对所述控制模型进行训练,包括:
将所述数据信息初始化,以生成训练样本;
将所述训练样本输入至预先建立的控制模型,以对所述控制模型进行训练;
在所述控制模型的精度满足预设阈值时,结束对所述控制模型的训练。
3.根据权利要求2所述的方法,其特征在于,所述控制模型采用支持向量机的方法建立。
4.根据权利要求1所述的方法,其特征在于,
所述基于训练后的所述控制模型判断所述机器人的系统稳定性,包括:
获取所述控制模型的矩阵;其中,所述矩阵是通过对所述控制模型训练得到的;
计算出所述矩阵的特征值;
基于所述特征值计算出所述矩阵的谱半径;
当所述谱半径小于1时,确定所述机器人的系统稳定。
5.根据权利要求4所述的方法,其特征在于,
所述基于所述特征值计算出所述矩阵的谱半径,包括:
将所述特征值代入以下公式,得到所述矩阵的谱半径:
ρ(A)=max{|λi|};
其中,A表示所述矩阵,λi表示所述矩阵的特征值,i=1,2,…,n。
6.根据权利要求1所述的方法,其特征在于,
所述若所述系统稳定,则计算出所述系统收敛域进一步包括:
当所述机器人的系统收敛域小于或等于预设阈值时,则返回至获取机器人在示教过程中的数据信息的步骤。
7.根据权利要求1所述的方法,其特征在于,
所述计算出所述机器人的系统收敛域,包括:
将集合X变换到一个超球面坐标系y上,以得到下列公式:
akrk+ak-1rk-1+...+a2r2>0;
其中,集合X为所述数据信息的集合,r表示超球面的半径,ai,i=2,...,k是α的函数,α是所述超球面的角变量;
利用切比雪夫点方法计算出r的值;所述r的值作为所述系统收敛域。
8.一种机器人,其特征在于,所述机器人包括处理器以及与所述处理器连接的存储器;
所述存储器用于存储程序数据,所述处理器用于执行所述程序数据,以实现如权利要求1-7任一项所述的方法。
9.一种计算机存储介质,其特征在于,所述计算机存储介质用于存储程序数据,所述程序数据在被处理器执行时,用于实现如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176236.XA CN110977965B (zh) | 2019-11-26 | 2019-11-26 | 机器人及其控制方法、计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176236.XA CN110977965B (zh) | 2019-11-26 | 2019-11-26 | 机器人及其控制方法、计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110977965A CN110977965A (zh) | 2020-04-10 |
CN110977965B true CN110977965B (zh) | 2023-02-28 |
Family
ID=70087349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911176236.XA Active CN110977965B (zh) | 2019-11-26 | 2019-11-26 | 机器人及其控制方法、计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110977965B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112605973B (zh) * | 2020-11-19 | 2022-11-01 | 广东省科学院智能制造研究所 | 一种机器人运动技能学习方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107253195A (zh) * | 2017-07-31 | 2017-10-17 | 中南大学 | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 |
CN107457780A (zh) * | 2017-06-13 | 2017-12-12 | 广州视源电子科技股份有限公司 | 控制机械臂运动的方法及装置、存储介质和终端设备 |
CN108115681A (zh) * | 2017-11-14 | 2018-06-05 | 深圳先进技术研究院 | 机器人的模仿学习方法、装置、机器人及存储介质 |
CN109740753A (zh) * | 2018-12-31 | 2019-05-10 | 浙江新铭智能科技有限公司 | 一种神经网络构建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102023149B1 (ko) * | 2016-03-03 | 2019-11-22 | 구글 엘엘씨 | 로봇 파지를 위한 심층 기계 학습 방법 및 장치 |
-
2019
- 2019-11-26 CN CN201911176236.XA patent/CN110977965B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107457780A (zh) * | 2017-06-13 | 2017-12-12 | 广州视源电子科技股份有限公司 | 控制机械臂运动的方法及装置、存储介质和终端设备 |
CN107253195A (zh) * | 2017-07-31 | 2017-10-17 | 中南大学 | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及系统 |
CN108115681A (zh) * | 2017-11-14 | 2018-06-05 | 深圳先进技术研究院 | 机器人的模仿学习方法、装置、机器人及存储介质 |
CN109740753A (zh) * | 2018-12-31 | 2019-05-10 | 浙江新铭智能科技有限公司 | 一种神经网络构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110977965A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109885883B (zh) | 一种基于gk聚类算法模型预测的无人车横向运动的控制方法 | |
CN111890350A (zh) | 机器人及其控制方法、计算机可读存储介质 | |
Wang et al. | A new trajectory-planning beetle swarm optimization algorithm for trajectory planning of robot manipulators | |
CN111872934B (zh) | 一种基于隐半马尔可夫模型的机械臂控制方法及系统 | |
CN111890351A (zh) | 机器人及其控制方法、计算机可读存储介质 | |
Frank et al. | Constrained probabilistic movement primitives for robot trajectory adaptation | |
Hyatt et al. | Real-time nonlinear model predictive control of robots using a graphics processing unit | |
CN111702767A (zh) | 一种基于反演模糊自适应的机械手阻抗控制方法 | |
Hendzel | An adaptive critic neural network for motion control of a wheeled mobile robot | |
CN112965487B (zh) | 基于策略迭代的移动机器人轨迹跟踪控制方法 | |
CN109582030A (zh) | 一种调整无人机姿态控制中待整定参数方法及相关装置 | |
Cheng et al. | Learning the inverse dynamics of robotic manipulators in structured reproducing kernel Hilbert space | |
CN110977965B (zh) | 机器人及其控制方法、计算机存储介质 | |
Piccinini et al. | A physics-driven artificial agent for online time-optimal vehicle motion planning and control | |
CN113184040B (zh) | 一种基于驾驶人转向意图的无人车线控转向控制方法及系统 | |
Kim et al. | TOAST: trajectory optimization and simultaneous tracking using shared neural network dynamics | |
Li et al. | Learning from demonstration for autonomous generation of robotic trajectory: Status quo and forward-looking overview | |
CN113341696A (zh) | 一种运载火箭姿态控制参数智能整定方法 | |
Rödönyi et al. | Data-driven linear parameter-varying modelling of the steering dynamics of an autonomous car | |
CN110348115B (zh) | 一种叉车的lqr控制方法、装置、存储介质和控制器 | |
Nguyen-Tuong et al. | Sparse online model learning for robot control with support vector regression | |
Joukov et al. | Gaussian process based model predictive controller for imitation learning | |
CN115488881A (zh) | 基于多运动技能先验的人机共享自治遥操作方法及系统 | |
Hill et al. | Neuroevolution with CMA-ES for Real-time Gain Tuning of a Car-like Robot Controller. | |
Lampton et al. | Reinforcement learning of morphing airfoils with aerodynamic and structural effects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |