CN114371613A - 一种基于在线学习的仿人机器人上半身姿态控制方法 - Google Patents
一种基于在线学习的仿人机器人上半身姿态控制方法 Download PDFInfo
- Publication number
- CN114371613A CN114371613A CN202111617507.8A CN202111617507A CN114371613A CN 114371613 A CN114371613 A CN 114371613A CN 202111617507 A CN202111617507 A CN 202111617507A CN 114371613 A CN114371613 A CN 114371613A
- Authority
- CN
- China
- Prior art keywords
- robot
- model
- hip joint
- posture
- humanoid robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 210000004394 hip joint Anatomy 0.000 claims abstract description 39
- 230000005021 gait Effects 0.000 claims abstract description 26
- 238000007477 logistic regression Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 9
- 230000000737 periodic effect Effects 0.000 claims abstract description 5
- 238000005457 optimization Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 210000001624 hip Anatomy 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B11/00—Automatic controllers
- G05B11/01—Automatic controllers electric
- G05B11/36—Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
- G05B11/42—Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P. I., P. I. D.
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种基于在线学习的仿人机器人上半身姿态控制方法,包括以下步骤:构建以逻辑斯蒂回归模型为基础的髋关节补偿模型,以采集的历史数据离线训练所述髋关节补偿模型的模型参数;在每个步态周期中,基于当前的髋关节补偿模型获得髋关节补偿值进行仿人机器人上半身姿态控制,在每个步态周期结束时对所述模型参数进行在线周期性更新;采集的所述历史数据为采用PID控制的仿人机器人在不同PID参数下的运行数据。与现有技术相比,本发明具有鲁棒性强、能够使机器人行走更稳定等优点。
Description
技术领域
本发明涉及仿人机器人步行稳定控制领域,尤其是涉及一种基于在线学习的仿人机器人上半身姿态控制方法。
背景技术
仿人机器人因其独特的外形和结构,能在各种地面和场景中工作,代替人类完成一些危险或者程序化的工作,因此,具有巨大的应用潜力和研究价值。仿人机器人完成各项工作的前提就是,它能像人一样以稳定的双足直立行走,而其中的关键之一就是仿人机器人的上半身姿态控制,即保持机器人姿态基本竖直向上,从而提升仿人机器人行走的稳定性。
目前常用的仿人机器人的上半身姿态控制方法主要是PID控制,如专利申请CN109895120A公开一种双足行走机器人的控制系统,根据反馈信息采用模糊自适应PID控制方法实现对电机的精确控制。PID控制是一个传统控制方法,算法简单,但是,对于仿人机器人这样的高度非线性系统而言,难以建立精确的数学模型,PID控制器往往效果一般;PID控制器的参数需要人工整定,只有参数设置得当才能达到较好效果,对于不同行走环境,往往需要整定出不同参数,缺乏适应性。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种鲁棒性强、能够使机器人行走更稳定的基于在线学习的仿人机器人上半身姿态控制方法。
本发明的目的可以通过以下技术方案来实现:
一种基于在线学习的仿人机器人上半身姿态控制方法,包括以下步骤:
构建以逻辑斯蒂回归模型为基础的髋关节补偿模型,以采集的历史数据离线训练所述髋关节补偿模型的模型参数;
在每个步态周期中,基于当前的髋关节补偿模型获得髋关节补偿值进行仿人机器人上半身姿态控制,在每个步态周期结束时对所述模型参数进行在线周期性更新;
采集的所述历史数据为采用PID控制的仿人机器人在不同PID参数下的运行数据。
进一步地,所述运行数据包括每一时刻的当前姿态误差、累积姿态误差、姿态误差变化量和作用于机器人的髋关节补偿值。
进一步地,所述当前姿态误差为每一时刻的机器人当前姿态角与机器人期望姿态角的差值,所述机器人当前姿态角基于采集的加速度计和陀螺仪数据获得。
进一步地,所述机器人当前姿态角θreal通过互补滤波对加速度计和陀螺仪数据进行融合获得,具体公式如下:
θreal=GainL*LF(θacc)+GainH*HF(θgyro)
其中,θacc和θgyro分别是从加速度计和陀螺仪得到的机器人姿态角,LF(·)表示低通滤波,HF(·)表示高通滤波,GainL和GainH分别是低通滤波器和高通滤波器的增益,并且满足GainL+GainH=1。
进一步地,所述历史数据为在多种环境下调节PID参数所获得的运行数据。
进一步地,所述PID控制中,PID控制器的表达式为:
并进行限幅:
其中,u是PID控制器的输出,是作用于机器人的髋关节补偿值,Δθi是第i时刻计算得到的姿态误差,Δθk是当前采样时刻计算得到的姿态误差,Δθk-1是上一采用时刻计算得到的姿态误差,Kp、Ki和Kd是PID控制器的比例、积分和微分系数,ulimit是髋关节补偿阈值。
进一步地,所述髋关节补偿模型表示为:
进一步地,所述对所述模型参数进行在线周期性更新的更新公式为:
进一步地,所述在线优化的目标函数为:
其中,θ和w分别是测量得到机器人真实的姿态角和角速度,θref和wref分别是机器人期望的姿态角和角速度,α和β分别是姿态角和角速度的权重,并且满足α+β=1。
Δθround=θ-θlaStround
Δwround=w-wlastround
Δuround=u-ulasfround
其中,θlastround、wlastround分别是上一个步态周期中同相位采样点测量得到机器人真实的姿态角和角速度,ulastround是上一个步态周期中同相位采样点控制器的输出,是逻辑斯蒂回归模型对其参数的导数,u是作用于机器人的髋关节补偿值,ulimit是髋关节补偿阈值。
与现有技术相比,本发明具有以下有益效果:
1)本发明通过非线性模型来增强上半身姿态控制器的鲁棒性,以适应于不同环境。
2)本发明的历史数据为采用PID控制的仿人机器人在不同PID参数下的运行数据,通过主观观察机器人走的好坏,在不同环境下手动尝试和调节参数,耗时耗力且缺少客观判断,而通过量化评价指标来指导调节参数,提高模型训练的可靠性。
3)本发明结合仿人机器人行走的特性,提出了模型参数在线学习的有效学习方法,以使得机器人在环境中不断学习,不断适应环境,提升上半身姿态控制的适应性和稳定性,使得机器人行走更稳定。
4)本发明通用易行,在多种仿人机器人上均可使用本发明提出的方法快速进行机器人上半身姿态控制。
附图说明
图1为本发明方法的流程示意图;
图2为本发明机器人上半身姿态控制算法框图;
图3为实施例中仿人机器人NAO的结构示意图;
图4为实施例中实验环境图;
图5为实施例中仿人机器人行走过程中姿态角变化的对比图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本实施例提供一种基于在线学习的仿人机器人上半身姿态控制方法,该方法构建以逻辑斯蒂回归模型为基础的髋关节补偿模型,以采集的历史数据离线训练所述髋关节补偿模型的模型参数,采集的所述历史数据为采用PID控制的仿人机器人在不同PID参数下的运行数据;在每个步态周期中,基于当前的髋关节补偿模型获得髋关节补偿值进行仿人机器人上半身姿态控制,在每个步态周期结束时对所述模型参数进行在线周期性更新。该方法通过模型参数的在线学习方法,以使得机器人在环境中不断学习,不断适应环境,提升上半身姿态控制的适应性和稳定性。
如图1所示,上述方法具体包括以下步骤:
1、获取历史数据,训练髋关节补偿模型,获得初始模型参数。
(1)估计机器人当前的上半身姿态角
通过互补滤波对加速度计和陀螺仪数据进行融合,估计得到机器人当前的姿态角:
θreal=GainL*LF(θacc)+GainH*HF(θgyro)
其中,θacc和θgyro分别是从加速度计和陀螺仪得到机器人姿态角,GainL和GainH分别是低通滤波器(LF)和高通滤波器(HF)的增益,并且满足GainL+GainH=1。在本实施例中,取GainL=GainH=0.5。
(2)确定期望姿态角和髋关节补偿阈值
确定机器人期望的姿态角θref,并计算姿态误差:
Δθ=θreal-θref
因较大的补偿值反而会导致机器人行走的扰动,故需根据不同机器人确定髋关节补偿阈值ulimit。
在本实施例中,确定θref=0,即期望机器人保持竖直向上,确定ulimit=0.2(rad)。
(3)调节PID参数,并记录数据
PID控制器的表达式为:
并进行限幅:
其中,u是PID控制器的输出,是作用在机器人髋关节的补偿值,进行机器人上半身姿态的稳定控制,Δθi是第i时刻计算得到的姿态误差,Δθk是当前采样时刻计算得到的姿态误差,Δθk-1是上一采用时刻计算得到的姿态误差,Kp、Ki和Kd是PID控制器的比例、积分和微分系数,在不同环境下需要手动整定调节,以使得机器人在对应环境下能较稳定地行走。
机器人在不同环境下行走,调节好对应的PID参数,使得机器人能基本保持稳定行走,不必反复打磨参数使得非常稳定;记录每一时刻的Δθk,累积姿态误差姿态误差变化量(Δθk-Δθk-1)和作用于机器人的髋关节补偿值u。若条件不允许,可以只在一种环境下调节对应的PID参数,并记录数据,但是,在多种环境下本发明提出方法的最终效果更好。
在本实施例中,在软硬不同的草地上调节PID参数并记录数据,记录的数据样例如表1所示。
表1
(4)离线训练得到模型参数初值
髋关节补偿模型在逻辑斯蒂回归(Logistic Regression)模型的基础上得到:
2、基于得到的髋关节补偿模型对机器人上半身姿态进行控制,并在线更新模型参数。
(1)确定在线优化的目标函数
将训练得到的模型代替PID控制器,进行机器人上半身姿态控制,在工作环境下进行在线优化,以适应工作环境。工作环境可以是之前采集数据时的工作环境,也可以是新的环境。在本样例中,机器人在斜坡环境中进行行走,并在线优化参数。
在线优化的目标函数如下,需要使其最小化:
其中,代表需要优化的所有模型参数,θ和w分别是测量得到机器人真实的姿态角和角速度,θref和wref分别是机器人期望的姿态角和角速度,α和β分别是姿态角和角速度的权重,并且满足α+β=1。在本实施例中α=0.7,β=0.3。
(2)计算参数周期优化方向:
目标函数与模型参数不存在直接函数关系,无法直接求导,且仿人机器人行走具体步态周期性,故使用如下方法计算参数周期优化方向:
Δθround=θ-θlastround
Δwround=w-wlastround
Δuround=u-ulastround
其中,θlastround,w1astround分别是上一个步态周期中同相位采样点测量得到机器人真实的姿态角和角速度,ulastround是上一个步态周期中同相位采样点控制器的输出,是逻辑斯蒂回归模型对其参数的导数。
(3)在线周期性更新模型参数:
从第二个步态周期开始,在每个步态周期结束时对模型参数值进行更新,并将更新后的模型参数用于下一个步态周期的补偿输出计算。
模型参数在线更新的方法是:
在下一个步态周期中,使用更新后的模型参数计算髋关节补偿值进行上半身姿态控制。
利用上述控制方法的整个行走控制系统的框图如图2所示,其中,CoMref是从步态规划器得到的机器人质心轨迹,θall_joints是关节空间规划器规划得到的机器人各个关节的角度,包括髋关节,uhip是上半身姿态控制器的输出,是作用于髋关节的补偿值,上述方法中构建的髋关节补偿模型部署于上半身姿态控制器中,和分别是从传感器得到并滤波后的机器人真实的姿态角和姿态角速度,和分别是期望的机器人姿态角和姿态角速度。
本实施例中的实验环境如图4所示,为一个6度的斜坡,使用的仿人机器人NAO,其结构示意图如图3所示。机器人行走过程中,姿态角的变化如图5所示,设定的期望姿态角θref=0,即保持机器人身体竖直向上,并使用PID控制器和本发明提出的在线学习方法作为上半身姿态控制进行了对比。使用PID控制器,机器人在进入斜坡后身体上半身姿态不能进行有效自适应调节,从而姿态角较大,稳定性较差;而使用本发明提出的在线学习方法时,可以看到机器人在进入斜坡后通过不断地在线优化,其身体姿态角不断变小,更接近于设定的期望姿态角θref=0,达到了更好的上半身姿态控制效果,使得机器人行走更稳定。
上述方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于在线学习的仿人机器人上半身姿态控制方法,其特征在于,包括以下步骤:
构建以逻辑斯蒂回归模型为基础的髋关节补偿模型,以采集的历史数据离线训练所述髋关节补偿模型的模型参数;
在每个步态周期中,基于当前的髋关节补偿模型获得髋关节补偿值进行仿人机器人上半身姿态控制,在每个步态周期结束时对所述模型参数进行在线周期性更新;
采集的所述历史数据为采用PID控制的仿人机器人在不同PID参数下的运行数据。
2.根据权利要求1所述的基于在线学习的仿人机器人上半身姿态控制方法,其特征在于,所述运行数据包括每一时刻的当前姿态误差、累积姿态误差、姿态误差变化量和作用于机器人的髋关节补偿值。
3.根据权利要求2所述的基于在线学习的仿人机器人上半身姿态控制方法,其特征在于,所述当前姿态误差为每一时刻的机器人当前姿态角与机器人期望姿态角的差值,所述机器人当前姿态角基于采集的加速度计和陀螺仪数据获得。
4.根据权利要求3所述的基于在线学习的仿人机器人上半身姿态控制方法,其特征在于,所述机器人当前姿态角θreal通过互补滤波对加速度计和陀螺仪数据进行融合获得,具体公式如下:
θreal=GainL*LF(θacc)+GainH*HF(θgyro)
其中,θacc和θgyro分别是从加速度计和陀螺仪得到的机器人姿态角,LF(·)表示低通滤波,HF(·)表示高通滤波,GainL和GainH分别是低通滤波器和高通滤波器的增益,并且满足GainL+GainH=1。
5.根据权利要求1所述的基于在线学习的仿人机器人上半身姿态控制方法,其特征在于,所述历史数据为在多种环境下调节PID参数所获得的运行数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617507.8A CN114371613B (zh) | 2021-12-27 | 2021-12-27 | 一种基于在线学习的仿人机器人上半身姿态控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617507.8A CN114371613B (zh) | 2021-12-27 | 2021-12-27 | 一种基于在线学习的仿人机器人上半身姿态控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114371613A true CN114371613A (zh) | 2022-04-19 |
CN114371613B CN114371613B (zh) | 2023-08-29 |
Family
ID=81142024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111617507.8A Active CN114371613B (zh) | 2021-12-27 | 2021-12-27 | 一种基于在线学习的仿人机器人上半身姿态控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114371613B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080009970A1 (en) * | 2006-07-05 | 2008-01-10 | Battelle Energy Alliance, Llc | Robotic Guarded Motion System and Method |
WO2008005662A2 (en) * | 2006-07-05 | 2008-01-10 | Battelle Energy Alliance, Llc | Generic robot architecture |
CN110515299A (zh) * | 2019-08-01 | 2019-11-29 | 中国科学院力学研究所 | 一种星-臂耦合系统的主星姿态解耦预报方法及系统 |
CN110780592A (zh) * | 2019-10-21 | 2020-02-11 | 上海海事大学 | 一种基于差分进化粒子群算法的六自由度平台的控制方法 |
CN112596534A (zh) * | 2020-12-04 | 2021-04-02 | 杭州未名信科科技有限公司 | 基于深度强化学习的四足机器人的步态训练方法、装置、电子设备及介质 |
CN113442171A (zh) * | 2021-07-01 | 2021-09-28 | 南京蔚蓝智能科技有限公司 | 一种机器人动态稳定判别方法和动态自适应姿态控制方法 |
-
2021
- 2021-12-27 CN CN202111617507.8A patent/CN114371613B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080009970A1 (en) * | 2006-07-05 | 2008-01-10 | Battelle Energy Alliance, Llc | Robotic Guarded Motion System and Method |
WO2008005662A2 (en) * | 2006-07-05 | 2008-01-10 | Battelle Energy Alliance, Llc | Generic robot architecture |
CN110515299A (zh) * | 2019-08-01 | 2019-11-29 | 中国科学院力学研究所 | 一种星-臂耦合系统的主星姿态解耦预报方法及系统 |
CN110780592A (zh) * | 2019-10-21 | 2020-02-11 | 上海海事大学 | 一种基于差分进化粒子群算法的六自由度平台的控制方法 |
CN112596534A (zh) * | 2020-12-04 | 2021-04-02 | 杭州未名信科科技有限公司 | 基于深度强化学习的四足机器人的步态训练方法、装置、电子设备及介质 |
CN113442171A (zh) * | 2021-07-01 | 2021-09-28 | 南京蔚蓝智能科技有限公司 | 一种机器人动态稳定判别方法和动态自适应姿态控制方法 |
Non-Patent Citations (1)
Title |
---|
刘成军;李祖枢;薛方正;: "仿人机器人动态步行控制综述", 计算机工程与应用, no. 33 * |
Also Published As
Publication number | Publication date |
---|---|
CN114371613B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005310114A (ja) | ソフト演算最適化装置を用いた自動二輪車のためのインテリジェントロバスト制御システム | |
CN109940596B (zh) | 一种基于方差的机器人位移补偿方法 | |
Falsafi et al. | Fuzzy motion control for wheeled mobile robots in real-time | |
CN116460860A (zh) | 一种基于模型的机器人离线强化学习控制方法 | |
Lin et al. | Adaptive critic anti-slip control of wheeled autonomous robot | |
CN107085432B (zh) | 一种移动机器人的目标轨迹跟踪方法 | |
Wyrwał et al. | Control strategy of hydraulic cylinder based on Deep Reinforcement Learning | |
CN109249393B (zh) | 一种基于经验控制的多参数机器人实时行为校正方法 | |
CN114371613B (zh) | 一种基于在线学习的仿人机器人上半身姿态控制方法 | |
Hill et al. | Online gain setting method for path tracking using CMA-ES: Application to off-road mobile robot control | |
CN113741183A (zh) | 基于阻尼比模型的工业机器人自适应导纳控制方法 | |
Hu et al. | Optimal velocity control of spherical robots based on offset-free linear model predictive control | |
CN117369287A (zh) | 一种用于多轴车辆的鲁棒超螺旋滑模控制方法 | |
MohandSaidi et al. | Real-time speed control of a mobile robot using PID controller | |
CN116560375A (zh) | 基于神经网络观测器的轮式移动机器人轨迹跟踪控制方法 | |
CN113515044B (zh) | 一种轮式移动机器人的基于学习预测跟踪控制方法及装置 | |
CN116736749B (zh) | 构建机器人的控制器的方法和机器人 | |
CN116736748B (zh) | 构建机器人的控制器的方法和机器人 | |
CN115167424A (zh) | 一种智能农机的路径跟踪控制方法 | |
CN114839878A (zh) | 基于改进ppo算法的双足机器人行走稳定性优化方法 | |
CN116728393A (zh) | 机器人控制方法和机器人 | |
Nourizadeh et al. | Trajectory Tracking Control of Skid-Steering Mobile Robots with Slip and Skid Compensation using Sliding-Mode Control and Deep Learning | |
CN113325694A (zh) | 一种基于机器学习的模型预测控制参数的整定方法 | |
Rodriguez et al. | Learning to control an unstable system with one minute of data: Leveraging gaussian process differentiation in predictive control | |
Chiou et al. | Application of a hybrid controller to a mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |