CN113246121B - 一种基于Actor-Critic深度强化学习的同心管机器人控制方法 - Google Patents
一种基于Actor-Critic深度强化学习的同心管机器人控制方法 Download PDFInfo
- Publication number
- CN113246121B CN113246121B CN202110374971.2A CN202110374971A CN113246121B CN 113246121 B CN113246121 B CN 113246121B CN 202110374971 A CN202110374971 A CN 202110374971A CN 113246121 B CN113246121 B CN 113246121B
- Authority
- CN
- China
- Prior art keywords
- concentric tube
- robot
- concentric
- actor
- critic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000002787 reinforcement Effects 0.000 title claims abstract description 18
- 238000011217 control strategy Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 229910001000 nickel titanium Inorganic materials 0.000 claims description 9
- HZEWFHLRYVTOIW-UHFFFAOYSA-N [Ti].[Ni] Chemical compound [Ti].[Ni] HZEWFHLRYVTOIW-UHFFFAOYSA-N 0.000 claims description 8
- 238000005452 bending Methods 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Surgery (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
一种基于Actor‑Critic深度强化学习的同心管机器人控制方法。本发明包括如下步骤:1)设置同心管机器人几何参数和力学参数,并建立其运动学模型;2)数据预处理,获得同心管曲率‑位置状态集合;3)利用同心管曲率‑位置状态集,更新Actor网络和Critic网络参数;4)根据最终的收敛模型,可以得到基于Actor‑Critic深度强化学习的同心管机器人最优控制策略,即所需采用的驱动量。与现有技术相比,本发明通过深度强化学习的方法,获取了同心管机器人逆运动学计算方法,最终得到了更精确的逆运动学解。
Description
技术领域
本发明涉及同心管手术机器人领域,具体涉及一种基于Actor-Critic深度强化学习的同心管机器人控制方法
背景技术
目前随着社会医疗水平的提高,高精度、高稳定性的手术机器人开始逐步介入医学。相比于具有刚性关节的机械手,一种可灵活弯曲,并可沿着既定的非线性路径到达目标位置的同心管机器人开始受到人们的广泛关注。
同心管机器人由多根预弯曲的超弹性镍钛合金管嵌套而成,并由驱动端管的旋转和伸缩来改变机器人的姿态。同心管基于经典弹性杆模型建立静力学平衡方程进行正运动学的求解计算,并已能够在建模中考虑摩擦及外力。但由于其没有明显的关节区分,并且是一种容易发生分岔的非线性系统,故同心管机器人的逆运动学求解是很有挑战性的。
发明内容
为了克服使用雅可比矩阵方法容易使系统陷入无解的不足,提高逆运动学求解的准确性,本发明提出一种基于Actor-Critic深度强化学习的同心管机器人控制方法,可以有效处理同心管机器人的逆运动学,并能在奖励收敛后得到对于期望位置的最优驱动输入量。
本发明所采用的技术方案是:
一种基于Actor-Critic深度强化学习的同心管机器人控制方法,包括以下步骤:
1)利用静力学平衡法建立了同心管机器人运动学模型,并根据刚度要求和稳定性判据设置同心管的几何参数和力学参数,使系统满足刚度主宰且避免发生非线性分岔:
其中L为机器人预弯曲部分的总长度,r为任意相邻同心预弯管的曲率乘积,K为同心管的刚度,σ也是直接和机器人几何、力学参数相关的量,N为组成同心管机器人所用的镍钛管数量;
2)将同心管机器人的逆运动学描述为马尔科夫决策过程MDP,且状态设置为St={U1,...,UN,Pc,Pt},其中Ui=[uixuiyuiz]为当前时刻同心管机器人末端点的曲率向量,Pc和Pt分别为当前时刻机器人末端点和期望的笛卡尔空间位置向量;动作则设置为相对上一时刻的旋转和伸缩输入增量:
At={Δθ1,Δφ1,…,ΔθN,ΔφN}
其中θi和φi分别为同心管的旋转和伸缩输入量,且本发明规定旋转输入的变化量|Δθi|≤3°,伸缩输入的变化量|Δφi|≤0.2mm,在此基础上得到的实际输入量还需满足:
θi∈[-2π,2π]
φi∈[0,li]
li为第i根镍钛管的长度;
e=||Pc-Pt||2
其中e为当前回合同心管机器人末端点与期望位置的误差,λ=1mm为目标容忍度;
4)根据最终得到的神经网络模型,给出基于Actor-Critic深度强化学习的同心管机器人控制策略:在现实场景中,根据同心管末端的位姿信息和当前的驱动输入,确定下一个时刻所需的同心管状态信息:
Snext=arg max(Q(Snow,Anow))
其中,Snext为下一时刻同心管所处的状态,Snow为当前时刻同心管的运动状态,Anow为到达当前状态所需执行的驱动输入,Q(Snow,Anow)表示由当前时刻同心管的状态和动作所决定的Q值函数,arg max(Q(Snow,Anow))指的是使Q值函数取到最大值所对应的同心管位置。
进一步,所述步骤3)的实现过程如下:
a)首先,初始化训练参数,奖励折扣γ=0.95,Actor和Critic的学习率分别为α=0.001和β=0.005,训练步长step=10。Actor和Critic的神经网络均为三层全连接层,且神经元个数为128-64-32;
b)根据同心管曲率-位置的状态集合St,奖励值rt+1以及下一时刻的同心管状态集合St+1,计算评估Actor执行策略好坏的TD-error,并更新Critic网络参数ω:
δt←rt+1+γQ(St+1,At+1)-Q(St,At)
w=w+βδt
c)根据同心管曲率-位置的状态集合St,动作At以及Critic返回的TD-error进行Actor网络参数的更新:
d)不断进行迭代更新神经网络,直到迭代次数达到M=100000为止,得到优化的同心管逆运动学控制方案。
本发明的技术构思为:首先获取同心管在不同输入下的曲率-位置信息,并在此基础上加入期望的位置信息。然后基于这些信息,使用Actor-Critic方法进行训练优化,最终得到同心管机器人的最佳控制输入。
本发明的有益效果为:该发明可以有效处理同心管机器人的逆运动学,并能在奖励收敛后得到对于期望位置的最优驱动输入量。
附图说明
图1显示了基于Actor-Critic深度强化学习的同心管机器人控制方法流程图;
图2显示了同心管机器人驱动输入示意图;
图3显示了同心管机器人在自由空间中的形状示意图,用于下文的分析。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图3,一种基于Actor-Critic深度强化学习的同心管机器人控制方法,包括以下步骤:
1)根据图1,利用静力学平衡法建立了同心管机器人运动学模型,并根据刚度要求和稳定性判据设置同心管的几何参数和力学参数,使系统满足刚度主宰且避免发生非线性分岔:
其中L为机器人预弯曲部分的总长度,r为任意相邻同心预弯管的曲率乘积,K为同心管的刚度,σ也是直接和机器人几何、力学参数相关的量,N为组成同心管机器人所用的镍钛管数量;
2)参考图2,本发明将同心管机器人的逆运动学描述为马尔科夫决策过程MDP,且状态设置为St={U1,...,UN,Pc,Pt},其中Ui=[uix uiy uiz]为当前时刻同心管机器人末端点的曲率向量,Pc和Pt分别为当前时刻机器人末端点和期望的笛卡尔空间位置向量;动作则设置为相对上一时刻的旋转和伸缩输入增量:
At={Δθ1,Δφ1,...,ΔθN,ΔφN}
其中θi和φi分别为同心管的旋转和伸缩输入量(如图2),且本发明规定旋转输入的变化量|Δθi|≤3°,伸缩输入的变化量|Δφi|≤0.2mm,在此基础上得到的实际
输入量还需满足:
θi∈[-2π,2π]
φi∈[0,li]
li为第i根镍钛管的长度;
e=||Pc-Pt||2
其中e为当前回合同心管机器人末端点与期望位置的误差,λ=1mm为目标容忍度,实现过程如下:
a)首先,初始化训练参数,奖励折扣γ=0.95,Actor和Critic的学习率分别为α=0.001和β=0.005,训练步长step=10。Actor和Critic的神经网络均为三层全连接层,且神经元个数为128-64-32;
b)根据同心管曲率-位置的状态集合St,奖励值rt+1以及下一时刻的同心管状态集合St+1,计算评估Actor执行策略好坏的TD-error,并更新Critic网络参数ω:
δt←rt+1+γQ(St+1,At+1)-Q(St,At)
w=w+βδt
c)根据同心管曲率-位置的状态集合St,动作At以及Critic返回的TD-error进行Actor网络参数的更新:
θ=θ+α▽J(θ)
d)不断进行迭代更新神经网络,直到迭代次数达到M=100000为止,可得到优化的同心管逆运动学控制方案;
4)根据最终得到的神经网络模型,给出基于Actor-Critic深度强化学习的同心管机器人控制策略:在现实场景中,根据同心管末端的位姿信息和当前的驱动输入,确定下一个时刻所需的同心管状态信息:
Snext=arg max(Q(Snow,Anow))
其中,Snext为下一时刻同心管所处的状态,Snow为当前时刻同心管的运动状态,Anow为到达当前状态所需执行的驱动输入,Q(Snow,Anow)表示由当前时刻同心管的状态和动作所决定的Q值函数,arg max(Q(Snow,Anow))指的是使Q值函数取到最大值所对应的同心管位置。
本发明以使用MATLAB R2018b建立同心管机器人运动学模型为实施例,进行训练仿真,一种基于Actor-Critic深度强化学习的同心管机器人控制方法,包括以下步骤:
1)根据图1,利用静力学平衡法建立了同心管机器人运动学模型,并根据刚度要求和稳定性判据设置同心管的几何参数和力学参数,使系统满足刚度主宰且避免发生非线性分岔:
其中L为机器人预弯曲部分的总长度,r为任意相邻同心预弯管的曲率乘积,K为同心管的刚度,σ也是直接和机器人几何、力学参数相关的量,N为组成同心管机器人所用的镍钛管数量;
2)参考图3,本发明将同心管机器人的逆运动学描述为马尔科夫决策过程(MDP),且状态设置为St={U1,...,UN,Pc,Pt},其中Ui=[uix uiy uiz]为当前时刻同心管机器人末端点的曲率向量,Pc和Pt分别为当前时刻机器人末端点和期望的笛卡尔空间位置向量;动作则设置为相对上一时刻的旋转和伸缩输入增量:
At={Δθ1,Δφ1,...,ΔθN,ΔφN}
其中θi和φi分别为同心管的旋转和伸缩输入量(如图2),且本发明规定旋转输入的变化量|Δθi|≤3°,伸缩输入的变化量|Δφi|≤0.2mm,在此基础上得到的实际输入量还需满足:
θi∈[-2π,2π]
φi∈[0,li]
li为第i根镍钛管的长度;
e=||Pc-Pt||2
其中e为当前回合同心管机器人末端点与期望位置的误差,λ=1mm为目标容忍度,实现过程如下:
a)首先,初始化训练参数,奖励折扣γ=0.95,Actor和Critic的学习率分别为α=0.001和β=0.005,训练步长step=10。Actor和Critic的神经网络均为三层全连接层,且神经元个数为128-64-32;
b)根据同心管曲率-位置的状态集合St,奖励值rt+1以及下一时刻的同心管状态集合St+1,计算评估Actor执行策略好坏的TD-error,并更新Critic网络参数ω:
δt←rt+1+γQ(St+1,At+1)-Q(St,At)
w=w+βδt
c)根据同心管曲率-位置的状态集合St,动作At以及Critic返回的TD-error进行Actor网络参数的更新:
d)不断进行迭代更新神经网络,直到迭代次数达到M=100000为止,可得到优化的同心管逆运动学控制方案。
4)根据最终得到的神经网络模型,可以给出基于Actor-Critic深度强化学习的同心管机器人控制策略:在现实场景中,根据同心管末端的位姿信息和当前的驱动输入,可确定下一个时刻所需的同心管状态信息:
Snext=arg max(Q(Snow,Anow))
其中,Snext为下一时刻同心管所处的状态,Snow为当前时刻同心管的运动状态,Anow为到达当前状态所需执行的驱动输入,Q(Snow,Anow)表示由当前时刻同心管的状态和动作所决定的Q值函数,arg max(Q(Snow,Anow))指的是使Q值函数取到最大值所对应的同心管位置。
以MATLAB仿真软件为实施例,运用以上方法得到了基于Actor-Critic深度强化学习的同心管机器人控制方法,结果显示当训练收敛或达到最大迭代次数后,能够得到最优控制策略,最终的位置与期望位置的误差在0.2mm以内。
以上阐述的是本发明给出的一个实施例表现出来的优良效果,显然本发明不仅适合上述实施例,在不偏离本发明基本精神及不超出本发明实质内容所涉及内容的前提下可对其做种种变化加以实施。
Claims (2)
1.一种基于Actor-Critic深度强化学习的同心管机器人控制方法,其特征在于,所述方法包括以下步骤:
1)利用静力学平衡法建立了同心管机器人运动学模型,并根据刚度要求和稳定性判据设置同心管的几何参数和力学参数,使系统满足刚度主宰且避免发生非线性分岔:
其中L为机器人预弯曲部分的总长度,r为任意相邻同心预弯管的曲率乘积,K为同心管的刚度,σ也是直接和机器人几何、力学参数相关的量,N为组成同心管机器人所用的镍钛管数量;
2)将同心管机器人的逆运动学描述为马尔科夫决策过程MDP,且状态设置为St={U1,...,UN,Pc,Pt},其中Ui=[uix uiy uiz]为当前时刻同心管机器人末端点的曲率向量,Pc和Pt分别为当前时刻机器人末端点和期望的笛卡尔空间位置向量;
动作则设置为相对上一时刻的旋转和伸缩输入增量:
At={Δθ1,Δφ1,…,ΔθN,ΔφN}
其中θi和φi分别为同心管的旋转和伸缩输入量,且规定旋转输入的变化量|Δθi|≤3°,伸缩输入的变化量|Δφi|≤0.2mm,在此基础上得到的实际输入量还需满足:
θi∈[-2π,2π]
φi∈[0,li]
li为第i根镍钛管的长度;
e=||Pc-Pt||2
其中e为当前回合同心管机器人末端点与期望位置的误差,λ=1mm为目标容忍度;
4)根据最终得到的神经网络模型,给出基于Actor-Critic深度强化学习的同心管机器人控制策略:在现实场景中,根据同心管末端的位姿信息和当前的驱动输入,确定下一个时刻所需的同心管状态信息:
Snext=arg max(Q(Snow,Anow))
其中,Snext为下一时刻同心管所处的状态,Snow为当前同心管的运动状态,Anow为到达当前状态所需执行的驱动输入,Q(Snow,Anow)表示由当前时刻同心管的状态和动作所决定的Q值函数,argmax(Q(Snow,Anow))指的是使Q值函数取到最大值所对应的同心管位置。
2.如权利要求1所述的一种基于Actor-Critic深度强化学习的同心管机器人控制方法,其特征在于,所述步骤3)的实现过程如下:
a)首先,初始化训练参数,奖励折扣γ=0.95,Actor和Critic的学习率分别为α=0.001和β=0.005,训练步长step=10,Actor和Critic的神经网络均为三层全连接层,且神经元个数为128-64-32;
b)根据同心管曲率-位置的状态集合St,奖励值rt+1以及下一时刻的同心管状态集合St+1,计算评估Actor执行策略好坏的TD-error,并更新Critic网络参数ω:
δt←rt+1+γQ(St+1,At+1)-Q(St,At)
w=w+βδt
c)根据同心管曲率-位置的状态集合St,动作At以及Critic返回的TD-error进行Actor网络参数的更新:
θ=θ+α▽J(θ)
d)不断进行迭代更新神经网络,直到迭代次数达到M=100000为止,可得到优化的同心管逆运动学控制方案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110374971.2A CN113246121B (zh) | 2021-04-08 | 2021-04-08 | 一种基于Actor-Critic深度强化学习的同心管机器人控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110374971.2A CN113246121B (zh) | 2021-04-08 | 2021-04-08 | 一种基于Actor-Critic深度强化学习的同心管机器人控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113246121A CN113246121A (zh) | 2021-08-13 |
CN113246121B true CN113246121B (zh) | 2022-04-08 |
Family
ID=77220445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110374971.2A Active CN113246121B (zh) | 2021-04-08 | 2021-04-08 | 一种基于Actor-Critic深度强化学习的同心管机器人控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113246121B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103536365A (zh) * | 2013-10-22 | 2014-01-29 | 同济大学 | 一种用于微创手术同心管机器人的引导装置 |
CN108972550A (zh) * | 2018-07-10 | 2018-12-11 | 哈尔滨工业大学(深圳) | 一种同心管机器人逆运动学求解方法 |
CN111679576A (zh) * | 2020-05-21 | 2020-09-18 | 大连理工大学 | 一种基于改进确定性策略梯度算法的变循环发动机控制器设计方法 |
CN112201060A (zh) * | 2020-09-27 | 2021-01-08 | 航天科工广信智能技术有限公司 | 一种基于Actor-Critic的单交叉口交通信号控制方法 |
CN112462792A (zh) * | 2020-12-09 | 2021-03-09 | 哈尔滨工程大学 | 一种基于Actor-Critic算法的水下机器人运动控制方法 |
-
2021
- 2021-04-08 CN CN202110374971.2A patent/CN113246121B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103536365A (zh) * | 2013-10-22 | 2014-01-29 | 同济大学 | 一种用于微创手术同心管机器人的引导装置 |
CN108972550A (zh) * | 2018-07-10 | 2018-12-11 | 哈尔滨工业大学(深圳) | 一种同心管机器人逆运动学求解方法 |
CN111679576A (zh) * | 2020-05-21 | 2020-09-18 | 大连理工大学 | 一种基于改进确定性策略梯度算法的变循环发动机控制器设计方法 |
CN112201060A (zh) * | 2020-09-27 | 2021-01-08 | 航天科工广信智能技术有限公司 | 一种基于Actor-Critic的单交叉口交通信号控制方法 |
CN112462792A (zh) * | 2020-12-09 | 2021-03-09 | 哈尔滨工程大学 | 一种基于Actor-Critic算法的水下机器人运动控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113246121A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110434851B (zh) | 一种5自由度机械臂逆运动学求解方法 | |
US11529733B2 (en) | Method and system for robot action imitation learning in three-dimensional space | |
WO2020207219A1 (zh) | 一种利用环境预测优化非模型机器人多轴孔装配控制方法 | |
CN110076775B (zh) | 一种绳驱动连续型机械臂的三维静力学建模方法 | |
CN111890350A (zh) | 机器人及其控制方法、计算机可读存储介质 | |
CN113172621B (zh) | 一种面向scara机械臂的动力学参数辨识方法 | |
CN110524544A (zh) | 一种机械臂运动的控制方法、终端和可读存储介质 | |
CN113510704A (zh) | 一种基于强化学习算法的工业机械臂运动规划方法 | |
CN116460860B (zh) | 一种基于模型的机器人离线强化学习控制方法 | |
CN110861088A (zh) | 一种冗余自由度机器人的运动优化方法 | |
CN112417755A (zh) | 一种主从式手术机器人轨迹预测控制方法 | |
CN112036062A (zh) | 一种金属材料弯曲成形回弹角预测方法 | |
CN111890351A (zh) | 机器人及其控制方法、计算机可读存储介质 | |
CN112560343B (zh) | 基于深度神经网络与打靶算法的J2摄动Lambert问题求解方法 | |
CN118081773B (zh) | 一种基于综合损失的演员评论家算法的机器人控制方法 | |
CN112571420A (zh) | 一种未知参数下的双功能模型预测控制方法 | |
CN109062040A (zh) | 基于系统嵌套优化的预测pid方法 | |
CN113246121B (zh) | 一种基于Actor-Critic深度强化学习的同心管机器人控制方法 | |
CN117733870A (zh) | 基于轨迹预测控制的机械臂目标捕捉方法、设备及介质 | |
CN111158238B (zh) | 一种基于粒子群算法的力反馈设备动力学参数估计算法 | |
CN117601120A (zh) | 自适应变阻抗控制方法和装置、电子设备及存储介质 | |
EP3536467B1 (en) | Action transfer device, action transfer method, and non-temporary computer readable medium having action transfer program stored thereon | |
CN114019798B (zh) | 机器人轨迹跟踪控制方法、磁性医疗机器人及存储介质 | |
CN114840947A (zh) | 一种带约束的三自由度机械臂动力学模型 | |
CN114967472A (zh) | 一种无人机轨迹跟踪状态补偿深度确定性策略梯度控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |