CN113190029A - 基于深度强化学习的四足机器人适应性步态自主生成方法 - Google Patents
基于深度强化学习的四足机器人适应性步态自主生成方法 Download PDFInfo
- Publication number
- CN113190029A CN113190029A CN202110365655.9A CN202110365655A CN113190029A CN 113190029 A CN113190029 A CN 113190029A CN 202110365655 A CN202110365655 A CN 202110365655A CN 113190029 A CN113190029 A CN 113190029A
- Authority
- CN
- China
- Prior art keywords
- quadruped robot
- different
- gait
- reinforcement learning
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005021 gait Effects 0.000 title claims abstract description 80
- 230000002787 reinforcement Effects 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 31
- 230000006870 function Effects 0.000 claims abstract description 25
- 238000011156 evaluation Methods 0.000 claims abstract description 20
- 238000004088 simulation Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 15
- 230000009471 action Effects 0.000 claims abstract description 6
- 238000011217 control strategy Methods 0.000 claims description 11
- 238000005265 energy consumption Methods 0.000 claims description 7
- 238000013016 damping Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 230000000704 physical effect Effects 0.000 claims description 2
- 210000001503 joint Anatomy 0.000 claims 2
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 235000001968 nicotinic acid Nutrition 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 239000011664 nicotinic acid Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0891—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明公开了基于深度强化学习的四足机器人适应性步态自主生成方法,包括步骤1)定义四足机器人运动控制特征属性、奖励函数和评价指标,明确动作空间和状态空间;2)在不同环境模型中使用基于PPO算法训练模型参数,得到适应不同环境的四足机器人步态;3)利用评价指标评价对得到的四足机器人步态进行评估。本发明解决传统四足机器人运动控制需要手动指定步态、手动根据环境不同指定不同运动控制参数等问题,建立四足机器人步态自主生成训练库,在仿真中实现四足机器人鲁棒性强、控制性能好的步态自主涌现,使强化学习算法应用在四足机器人运动控制上。
Description
技术领域
本发明涉及机器人运动控制领域,具体是指一种四足机器人环境适应性运动控制步态的自主生成方法。
背景技术
随着机器人技术的不断发展,步行机器人的应用领域越来越广。双足机器人控制难度较高,六足及多足机器人制作难度较大,因此四足机器人由于其优势成为了足式步行机器人的研究重点。
四足机器人利用孤立的地面支撑而不是轮式机器人所需的连续地面支撑;在非平整的复杂吸顶中可以以稳定的不行方式而非接触式的行进方式避障;可以以跨步的方式跨过粗糙路面等。四足机器人由于其结构特性使其能够快速穿梭于崎岖不平的地面,这使得四足机器人尤其适用于搜救、侦察、野外运输等任务。自然界中大多数在自然地形中能够高速移动并灵活转向的哺乳动物都具有四足移动机构的配置,根据仿生学原理就可以构建四足机器人的运动控制策略。然而,不同任务中四足机器人执行移动任务的环境复杂多变,单纯的人为根据仿生学原理构建的四足机器人运动控制方法难以应用于四足机器人运动控制中。
复杂四足机器人的运动控制系统使非线性的多输入多输出不稳定系统,具有时变性和间歇动态性。目前四足机器人的步态运动大多数是基于步态的几何位置轨迹规划、关节位置控制的规划的控制策略。而对机器人进行单纯的集合位置或关节控制,会因为惯性、机器人状态不稳定等原因导致机器人失稳,同时,人工根据仿生学原理定义的四足机器人步态只能适应规定地形,不具备环境鲁棒性的同时,也不是环境中的最优控制步态。相较于传统的运动控制,使用强化学习的运动控制策略生成方法具有无模型、环境使用性强、控制策略自主生成的优点。
基于此,本发明提供了一种基于强化学习的四足机器人适应性步态自生成方法。
发明内容
本发明目的在于提供一种四足机器人适应性步态生成方法,通过机器人在仿真环境中运行的过程中不断从环境中收集信息,自主生成适应当前环境的最优运动控制策略,解决上述四足机器人运动控制步态环境鲁棒性差、控制性能不好等问题。本发明利用深度神经网络、强化学习PPO算法、分布式计算等原理设计一种基于深度强化学习的四足机器人适应性步态生成方法,使四足机器人能够自主根据不同地形环境生成相应的最优适应性步态,使四足机器人能够高效、准确的工作。
本发明提出一种四足机器人适应性步态生成方法,包括以下步骤:
步骤1:利用Pybullet物理引擎构建四足机器人快速仿真环境,包括四足机器人物理模型和物理属性;根据四足机器人需要执行行走任务的不同环境对环境的物理模型和物理属性进行建模,并通过可视化的方式进行显示;
步骤2:在仿真环境中,制定奖励函数,使用PPO算法在不同地形环境中优化四足机器人运动控制器,在仿真环境中,实现控制策略的自主生成;
步骤3:通过在不同环境、根据速度最优、能耗最优、末端控制力最优三种不同评价指标设定不同奖赏函数权重,在仿真中得到四足机器人适应性步态,根据不同的评价指标评价得到的四足机器人步态;
步骤1中,包括以下步骤:
步骤1.1:构建可视化的四足机器人模型。根据四足机器人结构特性,各关节重量、转动惯量、摩擦力系数等物理属性,使用SolidWorks构建四足机器人模型,并导入Pybullet物理引擎中;
步骤1.2:构建环境模型。根据环境的摩擦力系数、阻尼比和地面刚度,
由平面、20°上坡、20°下坡这三个典型地形及他们的拼接地形构建相应的urdf格式地面模型并导入Pybullet物理引擎中;
得到四足机器人和环境的模型之后,根据四足机器人适应性步态生成目标,构建基于强化学习的四足机器人步态自主生成框架。
步骤2中,包括以下步骤:
步骤2.1:设计深度强化学习PPO算法所使用的奖励函数R:
R=λo*(x1-xo)+λ1*(y1-y0)+λ2*(z1-zo)+λ3*E
其中,λi(i=0,1,2,3)表示奖励函数各部分所占的权重,通过调节λi的相对大小来控制各个指标的相对重要程度,λi的相对大小不同即可以使四足机器人生成评价指标不同的适应性步态。x1,y1,z1表示当前四足机器人的三维坐标值,x0,y0,z0表示前一时刻的坐标值,取当前的变化量作为奖励函数的指标;E表示四足机器人当前时刻消耗的能量,作为奖励函数的一部分,使用八个电机的当前转速和输出转矩乘积的和来表示。
步骤2.2:使用强化学习优化四足机器人腿部的关节角度:
设计强化学习框架需要的动作空间和状态空间。不对四足机器人的腿部结构进行建模,使用强化学习方法建立一个由当前时刻电机转动角度到下一时刻转动角度的映射。当前时刻电机转动角度代表了当前四足机器人的状态,下一时刻的转动角度代表了当前采取的控制策略。
步骤2.3:建立强化学习框架之后,在不同地面刚度、地面摩擦力系数、不同地形及他们的拼接中使用强化学习PPO算法优化四足机器人步态,生成适应不同环境的四足机器人步态。
在步骤2构建基于强化学习的四足机器人步态自主生成框架之后,根据不同的评价指标、不同的地形要求,重复执行强化学习算法,组织生成地形适应性的四足机器人步态。
在步骤3中,包括以下步骤:
步骤3.1:根据不同评价指标,设定不同奖励函数权重,根据不同奖励函数在相同地形上训练,得到不同的四足机器人适应性步态;
步骤3.2:重复步骤3.1,直到得到在一种地形上的不同评价指标下都有良好表现的四足机器人步态。使用不同地形再次使用PPO算法优化步态,使用单一典型地形、及不同典型地形的拼接作为训练环境;
步骤3.3:重复步骤3.1-3.2,直到得到在不同地形、不同评价指标下都有良好表现的四足机器人步态;
基于深度强化学习理论,构建具有较高样本利用率的四足机器人步态策略搜索控制框架。区别于现有技术,本发明将动态的环境和机器人参数空间的噪声进行建模,并将它们添加到强化学习算法的优化目标中去,实现四足机器人环境适应性步态控制策略的自主快速生成。
附图说明
构成本发明的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本发明的不当限定。
图1是本发明的整体系统的框架图;
图2是本发明中使用的不同地形示意图;
图3是本发明的以速度最优时提出方法与默认方法速度对比图;
图4是本发明的以能量最优时提出方法与默认方法消耗能量对比图;
图5是本发明的以末端碰撞力最优时提出方法与默认方法末端碰撞力对比图
图6是本发明的行走步态示意图;
具体实施方式
以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
四足机器人模型根据实际四足机器人物理属性通过SolidWorks搭建后导入Pybullet物理引擎;
使用Pybullet引擎依照典型地形搭建相应的仿真环境,搭建的典型地形和地形组合如图2所示;
在Pybullet中设置虚拟传感器,感知四足机器人位姿信息和自身关节转速、转矩;
根据不同评价指标,设置对应的奖励函数。在奖励函数的设置中,为了奖励四足机器人向前运动,通常λ1为正,λ2、λ3、λ4为负,根据评价指标的不同,设置λ1、λ4的相对大小不同来控制评价指标的重要程度;
建立多个独立并行的四足机器人训练环境,搭建分布式深度强化学习算法PPO框架,通过队列并行同步网络参数到各个四足机器人训练环境;
各个仿真环境中的四字机器人通过共享队列独立收集环境信息和四足机器人自身位姿和关节信息,并实时上传到经验缓冲池中;
经验缓冲池对接收到的环境信息和四足机器人位姿关节状态数据进行实时处理,当收集到足够数据后建立神经网络训练集,通过PPO方法生成四足机器人自适应步态;
以速度指标最优为在基础平面地形上生成自适应最优步态,奖励函数权重为(1.0,-0.3,-0.3,0.005),状态空间为八个电机当前时刻的输出转速,动作空间为八个电机下一时刻的输出转速,使用三层全连接层神经网络,每个隐藏层神经元个数为128个,使用ReLU作为非线性激活函数,获得速度指标最优的四足机器人步态,图3为使用深度强化学习生成的步态与仿生学步态的速度对比;
以能量消耗指标最优为在基础平面地形上生成自适应最优步态,奖励函数权重为(1.0,-0.3,-0.3,0.1),状态空间为八个电机当前时刻的输出转速,动作空间为八个电机下一时刻的输出转速,使用三层全连接层神经网络,每个隐藏层神经元个数为128个,使用ReLU作为非线性激活函数,获得能量消耗指标最优的四足机器人步态,图4为使用深度强化学习生成的步态与仿生学步态消耗能量的对比;;
以末端碰撞力指标最优为在基础平面地形上生成自适应最优步态,奖励函数权重为(1.0,0.3,0.3,0.5),状态空间为八个电机当前时刻的输出转速,动作空间为八个电机下一时刻的输出转速,使用三层全连接层神经网络,每个隐藏层神经元个数为128个,使用ReLU作为非线性激活函数,获得末端碰撞力指标最优的四足机器人步态,图5为使用深度强化学习生成的步态与仿生学步态的末端碰撞力对比;
针对不同典型地形和典型地形的拼接,在不同环境地形下使用上述三种指标进行训练,不同地形如图2所示;
调整不同地形的具体物理模型参数,接触刚度为105N/m(法向),106N/m(法向),107N/m(法向),108N/m(法向),阻尼比为0.2,摩擦系数0.1,以直线行走、满足不同性能指标为强化学习目标,生成适应不同地形的四足机器人步态,生成步态如图6所示;
执行多次训练,以不同性能指标最优为基准、在不同典型地形、不同典型地形组合、不同地形物理参数的环境上训练,得到可以适应不同环境、满足性能指标的四足机器人步态;
由仿真结果图3-6可知,四足机器人在虚拟的搜救环境中能够不断学习、优化步态,快速且稳定地提升步态控制性能,面对不同优化指标和不同复杂经中能够通过在环境中高效探索,能够快速、稳定的提升控制步态的性能,自主生成适应性步态,并均较现常用的仿生学提高20%以上;
尽管方法已对本发明说明性的具体实施方式逐步进行了描述,以便于本技术领域的技术人员能够进行领会,但是本发明不仅限于具体实施方式的范围,本领域技术人员可以在权利要求的范围内做出各种变形或修改,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内。
Claims (7)
1.基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:包括以下步骤:
步骤1:利用Pybullet物理引擎构建四足机器人快速仿真环境,包括四足机器人物理模型和物理属性;根据四足机器人需要执行行走任务的不同环境对环境的物理模型和物理属性进行建模,并通过可视化的方式进行显示;
步骤2:在仿真环境中,制定奖励函数,使用PPO算法在不同地形环境中优化四足机器人运动控制器,在仿真环境中,实现控制策略的自主生成;
步骤3:通过在不同环境、根据速度最优、能耗最优、末端控制力最优三种不同评价指标设定不同奖赏函数权重,在仿真中得到四足机器人适应性步态,根据不同的评价指标评价得到的四足机器人步态;
2.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:步骤1中,包括以下步骤:
步骤1.1:构建可视化的四足机器人模型。根据四足机器人结构特性,各关节重量、转动惯量、摩擦力系数物理属性,使用SolidWorks构建四足机器人模型,并导入Pybullet物理引擎中;
步骤1.2:构建环境模型。根据环境的摩擦力系数、阻尼比和地面刚度,由平面、20°上坡、20°下坡这三个典型地形及他们的拼接地形构建相应的urdf格式地面模型并导入Pybullet物理引擎中;得到四足机器人和环境的模型之后,根据四足机器人适应性步态生成目标,构建基于强化学习的四足机器人步态自主生成框架。
3.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:步骤2中,包括以下步骤:
步骤2.1:设计深度强化学习PPO算法所使用的奖励函数R:
R=λ0*(x1-x0)+λ1*(y1-y0)+λ2*(z1-z0)+λ3*E
其中,λi(i=0,1,2,3)表示奖励函数各部分所占的权重,通过调节λi的相对大小来控制各个指标的相对重要程度,λi的相对大小不同即可以使四足机器人生成评价指标不同的适应性步态。x1,y1,z1表示当前四足机器人的三维坐标值,x0,y0,z0表示前一时刻的坐标值,取当前的变化量作为奖励函数的指标;E表示四足机器人当前时刻消耗的能量,作为奖励函数的一部分,使用八个电机的当前转速和输出转矩乘积的和来表示。
步骤2.2:使用强化学习优化四足机器人腿部的关节角度:
设计强化学习框架需要的动作空间和状态空间。不对四足机器人的腿部结构进行建模,使用强化学习方法建立一个由当前时刻电机转动角度到下一时刻转动角度的映射。当前时刻电机转动角度代表了当前四足机器人的状态,下一时刻的转动角度代表了当前采取的控制策略。
步骤2.3:建立强化学习框架之后,在不同地面刚度、地面摩擦力系数、不同地形及他们的拼接中使用强化学习PPO算法优化四足机器人步态,生成适应不同环境的四足机器人步态。
在步骤2构建基于强化学习的四足机器人步态自主生成框架之后,根据不同的评价指标、不同的地形要求,重复执行强化学习算法,组织生成地形适应性的四足机器人步态。
4.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:在步骤3中,包括以下步骤:
步骤3.1:根据不同评价指标,设定不同奖励函数权重,根据不同奖励函数在相同地形上训练,得到不同的四足机器人适应性步态;
步骤3.2:重复步骤3.1,直到得到在一种地形上的不同评价指标下都有良好表现的四足机器人步态。使用不同地形再次使用PPO算法优化步态,使用单一典型地形、及不同典型地形的拼接作为训练环境;
步骤3.3:重复步骤3.1-3.2,直到得到在不同地形、不同评价指标下都有良好表现的四足机器人步态;
5.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:根据四足机器人实际物理模型,关节相对关系,质量、惯性、转动惯量物理参数建立四足机器人仿真模型;根据环境的摩擦力系数、阻尼比和地面刚度、坡度建立环境模型。
6.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:使用强化学习优化四足机器人腿部关节角度。
不对四足机器人的腿部结构进行建模,使用强化学习方法建立一个由当前时刻电机转动角度到下一时刻转动角度的映射。当前时刻电机转动角度代表了当前四足机器人的状态,下一时刻的转动角度代表了当前采取的控制策略。
7.根据权利要求1所述的基于深度强化学习的四足机器人适应性步态自主生成方法,其特征在于:通过在不同典型地形、典型地形的拼接地形上,使用不同地面接触刚度、阻尼比、摩擦系数,以直线行走,满足不同指标要求为目的进行训练。
执行多次训练,以不同性能指标最优为基准、在不同典型地形、不同典型地形组合、不同地形物理参数的环境上训练,得到适应不同环境、满足性能指标的四足机器人步态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110365655.9A CN113190029B (zh) | 2021-04-06 | 2021-04-06 | 基于深度强化学习的四足机器人适应性步态自主生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110365655.9A CN113190029B (zh) | 2021-04-06 | 2021-04-06 | 基于深度强化学习的四足机器人适应性步态自主生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113190029A true CN113190029A (zh) | 2021-07-30 |
CN113190029B CN113190029B (zh) | 2023-02-28 |
Family
ID=76975141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110365655.9A Active CN113190029B (zh) | 2021-04-06 | 2021-04-06 | 基于深度强化学习的四足机器人适应性步态自主生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113190029B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821045A (zh) * | 2021-08-12 | 2021-12-21 | 浙江大学 | 一种腿足机器人强化学习动作生成系统 |
CN113848967A (zh) * | 2021-10-20 | 2021-12-28 | 深圳鹏行智能研究有限公司 | 步态控制方法、足式机器人和计算机可读存储介质 |
CN115016325A (zh) * | 2022-07-04 | 2022-09-06 | 北京化工大学 | 一种足式机器人步态自学习方法 |
CN115998573A (zh) * | 2021-10-22 | 2023-04-25 | 深圳市奇诺动力科技有限公司 | 一种辅助训练装置及其控制方法 |
CN116627041A (zh) * | 2023-07-19 | 2023-08-22 | 江西机电职业技术学院 | 一种基于深度学习的四足机器人运动的控制方法 |
CN117032283A (zh) * | 2023-08-11 | 2023-11-10 | 江南大学 | 一种基于深度强化学习的四足机器人越障控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003311669A (ja) * | 2002-04-18 | 2003-11-05 | Fuji Heavy Ind Ltd | ロボット装置 |
CN111580385A (zh) * | 2020-05-11 | 2020-08-25 | 深圳阿米嘎嘎科技有限公司 | 基于深度强化学习的机器人行走控制方法、系统及介质 |
US10786900B1 (en) * | 2018-09-27 | 2020-09-29 | Deepmind Technologies Limited | Robot control policy determination through constrained optimization for smooth continuous control |
CN112363402A (zh) * | 2020-12-21 | 2021-02-12 | 杭州未名信科科技有限公司 | 基于模型相关强化学习的足式机器人的步态训练方法、装置、电子设备及介质 |
CN112571418A (zh) * | 2020-12-15 | 2021-03-30 | 山东科技大学 | 四足机器人运动状态聚类与自主决策方法 |
CN112596534A (zh) * | 2020-12-04 | 2021-04-02 | 杭州未名信科科技有限公司 | 基于深度强化学习的四足机器人的步态训练方法、装置、电子设备及介质 |
-
2021
- 2021-04-06 CN CN202110365655.9A patent/CN113190029B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003311669A (ja) * | 2002-04-18 | 2003-11-05 | Fuji Heavy Ind Ltd | ロボット装置 |
US10786900B1 (en) * | 2018-09-27 | 2020-09-29 | Deepmind Technologies Limited | Robot control policy determination through constrained optimization for smooth continuous control |
CN111580385A (zh) * | 2020-05-11 | 2020-08-25 | 深圳阿米嘎嘎科技有限公司 | 基于深度强化学习的机器人行走控制方法、系统及介质 |
CN112596534A (zh) * | 2020-12-04 | 2021-04-02 | 杭州未名信科科技有限公司 | 基于深度强化学习的四足机器人的步态训练方法、装置、电子设备及介质 |
CN112571418A (zh) * | 2020-12-15 | 2021-03-30 | 山东科技大学 | 四足机器人运动状态聚类与自主决策方法 |
CN112363402A (zh) * | 2020-12-21 | 2021-02-12 | 杭州未名信科科技有限公司 | 基于模型相关强化学习的足式机器人的步态训练方法、装置、电子设备及介质 |
Non-Patent Citations (1)
Title |
---|
袁雯等: "基于深度Q网络的仿人机器人步态优化", 《计算机与现代化》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821045A (zh) * | 2021-08-12 | 2021-12-21 | 浙江大学 | 一种腿足机器人强化学习动作生成系统 |
CN113821045B (zh) * | 2021-08-12 | 2023-07-07 | 浙江大学 | 一种腿足机器人强化学习动作生成系统 |
CN113848967A (zh) * | 2021-10-20 | 2021-12-28 | 深圳鹏行智能研究有限公司 | 步态控制方法、足式机器人和计算机可读存储介质 |
CN115998573A (zh) * | 2021-10-22 | 2023-04-25 | 深圳市奇诺动力科技有限公司 | 一种辅助训练装置及其控制方法 |
CN115016325A (zh) * | 2022-07-04 | 2022-09-06 | 北京化工大学 | 一种足式机器人步态自学习方法 |
CN116627041A (zh) * | 2023-07-19 | 2023-08-22 | 江西机电职业技术学院 | 一种基于深度学习的四足机器人运动的控制方法 |
CN116627041B (zh) * | 2023-07-19 | 2023-09-29 | 江西机电职业技术学院 | 一种基于深度学习的四足机器人运动的控制方法 |
CN117032283A (zh) * | 2023-08-11 | 2023-11-10 | 江南大学 | 一种基于深度强化学习的四足机器人越障控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113190029B (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113190029B (zh) | 基于深度强化学习的四足机器人适应性步态自主生成方法 | |
CN111552301B (zh) | 一种基于强化学习的蝾螈机器人路径跟踪的分层控制方法 | |
CN113031528B (zh) | 一种基于深度确定性策略梯度的多足机器人非结构性地面运动控制方法 | |
CN113821045B (zh) | 一种腿足机器人强化学习动作生成系统 | |
Nonami et al. | Hydraulically actuated hexapod robots | |
Huang et al. | Reward-adaptive reinforcement learning: Dynamic policy gradient optimization for bipedal locomotion | |
Hu et al. | Learning a faster locomotion gait for a quadruped robot with model-free deep reinforcement learning | |
Dinev et al. | A versatile co-design approach for dynamic legged robots | |
Dinev et al. | Co-designing robots by differentiating motion solvers | |
CN113848905B (zh) | 基于神经网络和自适应控制的移动机器人轨迹跟踪方法 | |
Leng et al. | M-A3C: a mean-asynchronous advantage actor-critic reinforcement learning method for real-time gait planning of biped robot | |
Roy et al. | Soft computing-based expert systems to predict energy consumption and stability margin in turning gaits of six-legged robots | |
CN110262218A (zh) | 机器鱼的控制方法、装置、设备及存储介质 | |
Hardt et al. | The role of motion dynamics in the design, control and stability of bipedal and quadrupedal robots | |
Elibol et al. | Analyzing and Reducing Energy Usage in a Humanoid Robot During Standing Up and Sitting Down Tasks. | |
Liu et al. | Development of Wheel-Legged Biped Robots: A Review | |
CN110597067B (zh) | 一种多移动机器人的群集控制方法及系统 | |
Coelho et al. | Development and implementation of a new approach for posture control of a hexapod robot to walk in irregular terrains | |
Zhu et al. | Leg compliance control of a hexapod robot based on improved adaptive control in different environments | |
Babu et al. | Terrain adaption controller for a walking excavator robot using deep reinforcement learning | |
Masuda et al. | Sim-to-real transfer of compliant bipedal locomotion on torque sensor-less gear-driven humanoid | |
Roy et al. | Soft computing-based approaches to predict energy consumption and stability margin of six-legged robots moving on gradient terrains | |
Yang et al. | Bionic Multi-legged Robot Based on End-to-end Artificial Neural Network Control | |
Katić et al. | Survey of intelligent control algorithms for humanoid robots | |
Liu et al. | A motion planning and control method of quadruped robot based on deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |