CN117817674A - 一种机器人自适应阻抗控制方法 - Google Patents
一种机器人自适应阻抗控制方法 Download PDFInfo
- Publication number
- CN117817674A CN117817674A CN202410248159.9A CN202410248159A CN117817674A CN 117817674 A CN117817674 A CN 117817674A CN 202410248159 A CN202410248159 A CN 202410248159A CN 117817674 A CN117817674 A CN 117817674A
- Authority
- CN
- China
- Prior art keywords
- robot
- neural network
- adaptive impedance
- impedance control
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000003044 adaptive effect Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 12
- 239000012636 effector Substances 0.000 claims abstract description 7
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 10
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 abstract description 7
- 238000003062 neural network model Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013016 damping Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
本发明公开一种机器人自适应阻抗控制方法,其包括以下步骤:初始化与机器人参数设置;测量机器人的运动轨迹信息;训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合;利用神经网络,根据训练数据集合,预测机器人末端的将来轨迹;执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动;实时更新神经网络,并执行循环控制。该方法通过神经网络模型感知操作面特征,并利用自适应阻抗控制调整机器人控制参数,使机器人能够在面对不同形状和特性的操作面时快速适应,并实时调整阻抗参数以应对操作面变化。该方法能够在复杂环境中实现高效、实时的持续接触,同时保证系统稳定性和自适应性。
Description
技术领域
本发明涉及机器人控制领域,具体为一种机器人自适应阻抗控制方法。
背景技术
随着机器人应用领域的不断扩大,要求机器人执行复杂操作的需求也在增加,其中包括打磨、握持等操作。这些操作要求机器人能够在执行任务的同时,持续接触操作面,并同时满足位置和操作力的要求。例如在打磨操作中,机器人需要保持接触工件的待打磨面。这可能涉及到操作面的表面不规则性、变化和复杂的形状,因此需要强大的感知和控制系统。除了位置控制,机器人还需要实现对力的控制,从而调整施加在工件上的力,以确保适当的磨削压力,同时避免损害工件表面。而在握持操作中,机器人可能需要握持具有复杂形状的物体,如不规则形状的工件。这要求机器人能够适应不同形状的物体表面,而且握持过程中,机器人需要平衡位置和握持力的要求,并根据任务要求进行调整,以保持握持的稳定性。
因此,机器人需要在复杂操作中实现对操作面的持续接触,并同时满足位置和操作力的控制要求。传统的机器人控制方法在持续接触操作面时面临建模困难、响应速度不足等问题。现有的控制方法如基于模型的控制方法,这类方法要求精确的系统动力学模型,然而,在复杂操作的情况下,难以准确建模。传统PID控制方法对未知环境变化响应较慢,而传统阻抗控制方法通常需要提前确定阻抗参数,无法适应动态操作面变化。现有控制方法在面对操作面时,难以快速适应操作面的形状和特性的变化。基于模型的方法要求提前准确建模,而对于复杂的操作面,建模变得极为困难。传统PID控制和阻抗控制方法对操作面的快速变化响应较慢,影响控制性能。
发明内容
本发明引入数据驱动的方法,通过学习大量实际测量数据来建立模型,从而克服了对精确模型的依赖。采用神经网络方法进行实时预测和更新,使机器人能够在操作面上实现高精度的自适应阻抗控制。本发明采用自适应阻抗控制方法,能够实时调整阻抗参数,使得机器人在持续接触操作面时对操作面的变化更加敏感,提高了适应性。
本发明提供一种机器人自适应阻抗控制方法,其包括以下步骤:
初始化与机器人参数设置;
测量机器人的运动轨迹信息;
训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合;
利用神经网络,根据训练数据集合,预测机器人末端的将来轨迹;
执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动;
实时更新神经网络,并执行循环控制。
具体地,自适应阻抗控制通过可变阻抗控制实时调整阻尼系数。
具体地,自适应阻抗控制的控制律为:
,其中,Xd为机器人末端的期望位置,Xc为机器人末端的当前位置,Fd为期望的接触力,Fc为当前的接触力,M、B、P、Q、R为机器人控制参数,t为控制周期,λ为极小值。
具体地,训练数据处理,具体为:
(1)确定待处理运动轨迹的起始点和终止点,并将该起始点和终止点加入训练数据集合;
(2)依次计算轨迹上的其他测量点到起始点和终止点所在轨迹的距离;
(3)计算测量点到前述轨迹的最大距离,如果最大距离小于阈值,则去掉除起始点和终止点外的所有点;如果最大距离大于阈值,则在最大距离所在测量点处将运动轨迹分段;
(4)对形成的所有运动轨迹重复执行步骤(1)-(3),直到最大距离均大于阈值或当前训练数据集合内的测量点数量大于预设数量,则迭代结束。
具体地,阈值为操作面的粗糙度算术平均高度。
具体地,粗糙度算术平均高度为相对于表面的平均面,各点高度差的绝对值的平均值。
具体地,神经网络为反向传播神经网络。
具体地,神经网络的输入为训练数据集合,输出包括操作面的拟合表达式和机器人末端的将来位移。
具体地,神经网络通过监督学习,使用已知的位移信息与神经网络预测的位移信息之间的差异作为损失函数。
具体地,损失函数为均方误差。
有益效果:使用深度学习模型,机器人能够通过监督学习不断优化对操作面的拟合表达式。这使得机器人在面对不同形状和特性的操作面时能够快速适应,并且在操作面发生变化时能够迅速调整。引入自适应阻抗控制,使得机器人能够在运动中动态调整控制参数,适应操作面的变化。这提高了实时性,机器人可以即时响应操作面的不规则性。
本文将深度学习和自适应阻抗控制相结合,实现了感知和控制的融合。深度学习用于感知操作面的特征,而自适应阻抗控制用于根据感知结果调整机器人的运动和力施加,能够根据操作面的特性实时调整阻抗参数,从而提高控制系统的适应性和稳定性。由于深度学习模型和自适应阻抗控制的特性,该系统表现出较强的自适应性,适用于不同形状和特性的操作面。通过这种综合的方案,机器人能够在复杂环境中以高效、实时、精确的方式执行对操作面的持续接触任务,同时保证了系统的稳定性和自适应性。
附图说明
图1为机器人末端与工件持续接触的示意图。
图2为本发明所述的机器人自适应阻抗控制方法的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的方法进行进一步的说明。下面结合附图和实施例对本发明的方法进行进一步的说明。如图1所示,在装配、打磨、抛光等作业场景中,机器人末端需要与工件保持持续接触。
如图2所示,本发明提供一种机器人自适应阻抗控制方法,其包括以下步骤:
1. 初始化与机器人参数设置:设置初始关节位置和速度,并确定机器人的动力学模型参数,包括质量矩阵、科氏矩阵和重力矩阵等。
在机器人操作开始前,需要确定机器人的初始关节位置和速度。这可以通过将机器人移动到一个已知位置,或通过传感器获取当前关节的状态信息来实现。初始状态的准确设置对于后续运动的控制和规划非常重要。
机器人的动力学模型描述了机器人系统的运动行为,包括质量矩阵、科氏矩阵和重力矩阵等参数。这些参数的准确设置对于进行逆运动学和运动规划至关重要。通常,这些参数可以通过对机器人进行实验测量或从制造商提供的规格中获取。
2. 测量机器人运动轨迹信息:
测量机器人的运动轨迹信息,具体可利用安装在机器人末端的力传感器测量接触力,并根据机器人的正运动学关系计算末端执行器在世界坐标系下的位置和位移。
安装在机器人末端的力传感器用于测量机器人与环境或作业对象的接触力。这些力传感器可以提供实时的接触力信息,有助于机器人对外部环境或作业对象的感知。
通过正运动学关系,可以将机器人的关节状态映射到末端执行器在世界坐标系下的位置和位移,这为后续的运动控制和规划提供了基础。
对于复杂操作面,机器人很难实现预期的持续接触效果。可根据操作面的复杂程度,在前期或作业开始之前进行人工示教操作,从而获得测量点数据。在人工示教过程中,可控制机器人以恒定的接触力,持续接触作业对象的表面轮廓,即操作面,同时以固定的周期或频率,计算或记录机械臂在空间中的运动轨迹,包括了机器人末端的机器人末端的位置位姿、各关节的状态(位置、速度、加速度)、接触力等,并计算速度和加速度,应当注意部分数据可由计算生成,轨迹点即测量点以某种频率或周期被计算或记录出来。人工示教阶段,操作者通过控制机器人以恒定的接触力,持续接触作业对象的表面轮廓,即操作面,这有助于在机器人学习和适应未知环境或未知作业对象的过程中获取关键信息。
在处理复杂操作面时,人工示教提供了一种有效的方式,通过实际操作获取关键数据,帮助机器人更好地适应和执行任务。
3. 训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合。
在机器人的运动过程中,获取的运动轨迹数据可能包含大量冗余的测量点和冗余信息。这一方面造成较大的计算负担,另一方面造成拟合或预测的操作面不光滑,或达不到预期要求。为了提高神经网络学习的效率和减小计算负担,需要对这些轨迹数据进行处理,形成一个有效的训练数据集合。因此有必要在保证数据有效性的基础上,尽可能地减少测量点的数据,从而方便后续神经网络训练。
训练数据处理,具体为:
(1)确定待处理运动轨迹的起始点和终止点,并将该起始点和终止点加入训练数据集合;
(2)依次计算轨迹上的其他测量点到起始点和终止点所在轨迹的距离;
(3)计算测量点到前述轨迹的最大距离,如果最大距离小于阈值,则去掉除起始点和终止点外的所有点;如果最大距离大于阈值,则在最大距离所在测量点处将运动轨迹分段;
(4)对形成的所有运动轨迹重复执行前述步骤,直到最大距离均大于阈值或当前训练数据集合内的测量点数量大于预设数量,则迭代结束。
阈值为操作面的粗糙度算术平均高度,粗糙度算术平均高度为操作面表面的粗糙度参数,表示相对于表面的平均面,各点高度差的绝对值的平均值。该值可通过粗糙度测量设备测量得到或计算得到。
4. 利用神经网络,预测机器人末端的将来轨迹。在这一阶段,使用反向传播神经网络来学习并预测机器人末端的将来轨迹。
反向传播神经网络的输入为前述训练数据集合,输出包括操作面的拟合表达式和机器人末端的将来位移。对于操作面拟合,神经网络可以输出操作面的参数,例如多项式系数或其他拟合函数的参数或隐性表达。对于将来位移的预测,神经网络输出机器人末端在未来时间步的位置信息。
通过监督学习,使用已知的位移信息与神经网络预测的位移信息之间的差异作为损失函数。损失函数可以选择多种形式,例如均方误差(MSE)等,用于衡量预测值与实际值之间的差异。通过反向传播算法,神经网络根据损失函数的梯度优化网络参数,以减小预测误差。这个过程反复进行,直到网络能够在训练数据上获得良好的拟合和预测性能。
训练过程可包括:准备训练数据集,将经过前述数据处理步骤得到的训练数据集作为神经网络的输入;定义神经网络结构,设计神经网络的结构,包括输入层、隐藏层和输出层。根据任务的复杂性,选择适当的网络架构;初始化网络参数,随机初始化神经网络的权重和偏置;前向传播,将训练数据输入神经网络,通过前向传播计算网络的输出;计算损失函数,将神经网络的输出与真实值比较,计算损失函数;反向传播与参数更新,利用反向传播算法计算损失函数对网络参数的梯度,并根据梯度更新网络参数,以减小损失函数;迭代训练, 重复进行前向传播、损失计算、反向传播和参数更新的过程,直到损失函数收敛或达到预设的训练迭代次数。
通过这个过程,神经网络能够学习操作面的拟合表达式和机器人末端的将来轨迹。在训练完成后,该网络可以用于对操作面的预测和机器人未来轨迹的模拟。
5. 执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动。
当机器人持续接触操作面时,考虑操作面表面的粗糙度和可能的操作面预测差异,机器人末端的位置差异是时变的,从而引起接触力的控制误差,从而接触力的控制误差是时变的, 该误差可能由于操作面的变化和机器人在运动过程中的不确定性而产生。为了克服时变性,本发明采用了可变阻抗控制,对阻尼系数进行了调整。具体的控制律为:
,其中,Xd为机器人末端的期望位置,Xc为机器人末端的当前位置,Fd为期望的接触力,Fc为当前的接触力,M、B、P、Q、R为机器人控制参数,t为控制周期,λ为极小值,防止分母为0。
这种设计允许系统对位移误差的导数进行实时调整,以适应时变性。ΔB的计算考虑了控制力误差的变化率,并在系统中引入了一个积分项,以更好地应对时变的控制误差。通过这样的自适应阻抗控制设计,机器人能够在持续接触操作面时灵活调整阻尼,以适应操作面的不规则性和变化,从而提高了控制系统的稳定性和性能。
6. 实时更新神经网络,并执行循环控制。具体地,在机器人运动过程中,不断采集新的传感器数据和实际位移信息;使用新的数据,实时更新神经网络的参数;使用更新后的神经网络进行预测,得到机器人末端的将来轨迹或位移;根据自适应阻抗控制,结合预测的位移信息和实际传感器测量数据,更新控制律,计算新的控制力;将计算得到的力施加到机器人末端执行器,使机器人沿着操作面实现实时运动,同时保持接触并对操作面施加所需的法向力。
通过这一实时更新神经网络和执行循环控制的过程,机器人能够根据最新的信息和实际运动情况,动态地调整控制策略,以适应操作面的变化,不断提高操作面预测模型的准确性,更好地适应操作面变化,提高持续接触性能和控制精度。这种策略使得机器人系统更具自适应性和实时性。
上文所描述的各种方法,在一些实施例中,可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元。在一些实施例中,计算机程序的部分或者全部可以经由ROM 和/或通信单元而被载入和/或安装到设备上。当计算机程序被加载到RAM 并由CPU 执行时,可以执行上文描述的方法中的一个或多个动作或步骤。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。
以上内容是结合具体/优选的实施方式对本申请所作的进一步详细说明,不能认定本申请的具体实施只局限于这些说明。对于本申请所属技术领域的普通技术人员来说,在不脱离本申请构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本申请的保护范围。
Claims (8)
1.一种机器人自适应阻抗控制方法,其包括以下步骤:
初始化与机器人参数设置;
测量机器人的运动轨迹信息;
训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合;
利用神经网络,根据训练数据集合,预测机器人末端的将来轨迹;
执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动;其中,自适应阻抗控制的控制律为:
,其中,Xd为机器人末端的期望位置,Xc为机器人末端的当前位置,Fd为期望的接触力,Fc为当前的接触力,M、B、P、Q、R为机器人控制参数,t为控制周期,λ为极小值;
实时更新神经网络,并执行循环控制。
2.根据权利要求1所述的机器人自适应阻抗控制方法,其中,训练数据处理,具体为:
(1)确定待处理运动轨迹的起始点和终止点,并将该起始点和终止点加入训练数据集合;
(2)依次计算轨迹上的其他测量点到起始点和终止点所在轨迹的距离;
(3)计算测量点到前述轨迹的最大距离,如果最大距离小于阈值,则去掉除起始点和终止点外的所有点;如果最大距离大于阈值,则在最大距离所在测量点处将运动轨迹分段;
(4)对形成的所有运动轨迹重复执行步骤(1)-(3),直到最大距离均大于阈值或当前训练数据集合内的测量点数量大于预设数量,则迭代结束。
3.根据权利要求2所述的机器人自适应阻抗控制方法,其中,阈值为操作面的粗糙度算术平均高度。
4.根据权利要求3所述的机器人自适应阻抗控制方法,其中,粗糙度算术平均高度为相对于表面的平均面,各点高度差的绝对值的平均值。
5.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络为反向传播神经网络。
6.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络的输入为训练数据集合,输出包括操作面的拟合表达式和机器人末端的将来位移。
7.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络通过监督学习,使用已知的位移信息与神经网络预测的位移信息之间的差异作为损失函数。
8.根据权利要求7所述的机器人自适应阻抗控制方法,其中,损失函数为均方误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410248159.9A CN117817674A (zh) | 2024-03-05 | 2024-03-05 | 一种机器人自适应阻抗控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410248159.9A CN117817674A (zh) | 2024-03-05 | 2024-03-05 | 一种机器人自适应阻抗控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117817674A true CN117817674A (zh) | 2024-04-05 |
Family
ID=90506100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410248159.9A Pending CN117817674A (zh) | 2024-03-05 | 2024-03-05 | 一种机器人自适应阻抗控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117817674A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108153153A (zh) * | 2017-12-19 | 2018-06-12 | 哈尔滨工程大学 | 一种学习变阻抗控制系统及控制方法 |
CN111752151A (zh) * | 2020-06-17 | 2020-10-09 | 华中科技大学 | 一种工业叶片磨抛加工自适应力跟踪与补偿方法及系统 |
CN111993417A (zh) * | 2020-08-04 | 2020-11-27 | 北京航空航天大学 | 一种基于rbf神经网络的机械臂自适应阻抗控制方法 |
US20220371194A1 (en) * | 2021-05-10 | 2022-11-24 | Robert Bosch Gmbh | Method for controlling a robotic device |
CN117226613A (zh) * | 2023-10-31 | 2023-12-15 | 华中科技大学 | 一种基于ppo强化学习的机器人恒力控制打磨方法 |
CN117620782A (zh) * | 2023-10-26 | 2024-03-01 | 华中科技大学 | 一种复杂曲面的机器人自适应磨抛加工方法及系统 |
-
2024
- 2024-03-05 CN CN202410248159.9A patent/CN117817674A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108153153A (zh) * | 2017-12-19 | 2018-06-12 | 哈尔滨工程大学 | 一种学习变阻抗控制系统及控制方法 |
CN111752151A (zh) * | 2020-06-17 | 2020-10-09 | 华中科技大学 | 一种工业叶片磨抛加工自适应力跟踪与补偿方法及系统 |
CN111993417A (zh) * | 2020-08-04 | 2020-11-27 | 北京航空航天大学 | 一种基于rbf神经网络的机械臂自适应阻抗控制方法 |
US20220371194A1 (en) * | 2021-05-10 | 2022-11-24 | Robert Bosch Gmbh | Method for controlling a robotic device |
CN117620782A (zh) * | 2023-10-26 | 2024-03-01 | 华中科技大学 | 一种复杂曲面的机器人自适应磨抛加工方法及系统 |
CN117226613A (zh) * | 2023-10-31 | 2023-12-15 | 华中科技大学 | 一种基于ppo强化学习的机器人恒力控制打磨方法 |
Non-Patent Citations (3)
Title |
---|
周帅,刘晓鸣: ""基于神经网络的工业机器人力控制研究"", 《机床与液压》, vol. 51, no. 17, 30 September 2023 (2023-09-30), pages 21 - 25 * |
王桥,毋河海: "《地图信息的分形描述与自动综合研究》", 30 September 1998, 武汉测绘科技大学出版社, pages: 145 - 152 * |
金锋扬,秦菲菲,郭振武,王斌锐: ""机械臂接触力跟踪自适应变导纳控制方法"", 《中国计量大学学报》, vol. 34, no. 2, 30 June 2023 (2023-06-30), pages 216 - 223 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pil et al. | Integrated structure/control design of mechatronic systems using a recursive experimental optimization method | |
WO2020207219A1 (zh) | 一种利用环境预测优化非模型机器人多轴孔装配控制方法 | |
CN110524371B (zh) | 基于实时力控的复杂曲面恒定切除率的机器人打磨方法 | |
CN111752151A (zh) | 一种工业叶片磨抛加工自适应力跟踪与补偿方法及系统 | |
JP2010134907A (ja) | 強化学習システム | |
CN111673733B (zh) | 未知环境下机器人的智能自适应柔顺控制方法 | |
JP2019139755A (ja) | 研磨工具摩耗量予測装置、機械学習装置及びシステム | |
CN112666831A (zh) | 一种机器人磨抛加工接触力的主动控制方法 | |
CN109766597B (zh) | 一种考虑几何误差的装配位姿高精度线性化求解方法 | |
CN111872937A (zh) | 一种任务空间中不确定机械臂的控制方法 | |
Dupree et al. | Adaptive Lyapunov-based control of a robot and mass–spring system undergoing an impact collision | |
CN111975579A (zh) | 一种基于打磨模型和迭代算法的机器人恒力打磨系统 | |
Gao et al. | Time-optimal trajectory planning of industrial robots based on particle swarm optimization | |
CN117226613A (zh) | 一种基于ppo强化学习的机器人恒力控制打磨方法 | |
CN114660940A (zh) | 一种基于深度强化学习ppo算法的磨削恒力控制方法 | |
CN113759839A (zh) | 用于为贝叶斯优化法选择评估点的控制装置和方法 | |
CN117817674A (zh) | 一种机器人自适应阻抗控制方法 | |
CN117086877A (zh) | 一种基于深度强化学习的工业机器人轴孔装配方法、装置和设备 | |
CN117331309A (zh) | 一种基于超扭曲滑模自适应导纳控制的机器人抛光方法 | |
Li et al. | Position‐based force tracking adaptive impedance control strategy for robot grinding complex surfaces system | |
Lowrey et al. | Real-time state estimation with whole-body multi-contact dynamics: A modified UKF approach | |
JP2021035714A (ja) | 制御装置、制御方法、及び制御プログラム | |
CN118112991A (zh) | 机器人跟踪未知曲面的位力混合控制方法 | |
WO2022044615A1 (ja) | 学習装置、学習方法、学習プログラム、制御装置、制御方法、及び制御プログラム | |
Chen et al. | Robust Zhang neural network for tracking control of parallel robot manipulators with unknown parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |