CN112405542B - 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统 - Google Patents

基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统 Download PDF

Info

Publication number
CN112405542B
CN112405542B CN202011286626.5A CN202011286626A CN112405542B CN 112405542 B CN112405542 B CN 112405542B CN 202011286626 A CN202011286626 A CN 202011286626A CN 112405542 B CN112405542 B CN 112405542B
Authority
CN
China
Prior art keywords
robot
robot control
model
learning
control model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011286626.5A
Other languages
English (en)
Other versions
CN112405542A (zh
Inventor
陈嘉浩
乔红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202011286626.5A priority Critical patent/CN112405542B/zh
Publication of CN112405542A publication Critical patent/CN112405542A/zh
Application granted granted Critical
Publication of CN112405542B publication Critical patent/CN112405542B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

本发明属于机器人控制技术领域,具体涉及了一种基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统,旨在解决多任务场景下肌肉骨骼式机器人无法连续学习且控制精准度较低的问题。本发明包括:构建循环神经网络作为初始机器人控制模型;设计模型的一致集群响应模式,分析模型的权重条件;针对单个任务,通过基于奖励的学习方法实现模型的自主学习,进行模型权重修正;针对多个任务,结合基于奖励调控的学习方法和低维输入空间的正交权重修正算法,实现多个运动任务的可持续学习,进行模型循环权重修正,获得多任务学习的机器人控制模型;通过模型生成机器人的肌肉控制信号。本发明建模简单、高效,模型连续学习和泛化能力强,对噪声的鲁棒性好。

Description

基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统
技术领域
本发明属于机器人控制技术领域,具体涉及了一种基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统。
背景技术
近年来,通过模拟人体的关节、骨骼和肌肉结构,研究人员们研发了一系列肌肉骨骼式机器人。相比于传统的关节连杆机器人,肌肉骨骼式机器人有更好的灵活性,鲁棒性和柔顺性。肌肉骨骼式机器人有着大量仿人的冗余关节和肌肉驱动器,可以令其更加灵活精细地完成运动和操作。同时,这种冗余特性可以令机器人更好地应对部分驱动器的故障,更鲁棒地完成任务。另外,通过对多组肌肉的协同调控可以令机器人针对不同环境和任务要求展现出所需的柔顺性或高刚度。然而,肌肉骨骼系统的强冗余性,耦合性,非线性导致其控制信号的解空间过于庞大,针对肌肉骨骼式机器人系统的数学建模也非常复杂,给其控制带来了巨大挑战。
现有的针对肌肉骨骼式机器人的控制研究大体分为基于模型的方法和不基于模型的方法两类:基于模型的方法需要先建立关节空间和肌肉空间之间的显式数学关系,然后基于所建立的模型,研究人员可以设计迭代学习控制器、自适应控制器、神经模糊控制器和静态优化控制器等实现对肌肉骨骼系统的控制。然而,复杂的肌肉骨骼式机器人的肌肉和关节之间的关系非常复杂,很难建立显式的数学模型。因此,基于模型的方法很难用于复杂肌肉骨骼式机器人的精准控制。此外,研究人员们也提出了许多不基于模型的运动学习方法,可以直接根据运动目标计算肌肉控制信号。其中,有部分研究人员通过监督学习的方式训练深层神经网络(DNN)来控制肌肉骨骼系统[1]。研究人员们也尝试通过强化学习的方法来训练网络并实现肌肉骨骼式机器人的控制,具体方法如基于奖励的赫伯学习、深度确定性策略梯度、最近点策略优化和信赖域策略优化等[2,3]。虽然这些无模型学习方法不需要建立显式模型就可以应用于复杂的肌肉骨骼式机器人的控制,但其运动泛化性能有限,且无法实现面向多运动任务的持续学习。
总的来说,现有无模型的肌肉骨骼式机器人控制方法的运动泛化能力有限,并且无法实现面向多运动任务的持续学习,而有模型的肌肉骨骼式机器人控制方法,由于肌肉和关节之间的关系非常复杂,很难建立显式的数学模型,因此机器人控制的精准度较低。
以下文献是与本发明相关的技术背景资料:
[1]Nakada M,Zhou T,Chen H,et al.Deep learning of biomimeticsensorimotor control for biomechanical human animation[J].ACM Transactions onGraphics(TOG),2018,37(4):1-15.
[2]Huang X,Wu W,Qiao H,et al.Brain-inspired motion learning inrecurrent neural network with emotion modulation[J].IEEE Transactions onCognitive and Developmental Systems,2018,10(4):1153-1164.
[3]Kidzinski
Figure GDA0003207237420000021
,Ong C,Mohanty S P,et al.Artificial Intelligence forProsthetics:Challenge Solutions[J].The NeurIPS'18Competition:From MachineLearning to Intelligent Conversations,2019:69.
发明内容
为了解决现有技术中的上述问题,即多任务场景下肌肉骨骼式机器人无法连续学习且控制精准度较低的问题,本发明提供了一种基于脑启发多任务学习的肌肉骨骼机器人控制方法,该控制方法包括:
步骤S10,获取机器人预设的运动目标;
步骤S20,基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
步骤S30,基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
在一些优选的实施例中,所述初始机器人控制模型,其公式表示为:
Figure GDA0003207237420000031
h=tanh(r)
o=Relu(Vh)
其中,
Figure GDA0003207237420000041
为循环神经网络隐藏层神经元的膜电位,
Figure GDA0003207237420000042
为r的导数,表示膜电位的变化率,
Figure GDA0003207237420000043
为循环神经网络隐藏层神经元的激活频率,
Figure GDA0003207237420000044
为循环神经网络的输入,
Figure GDA0003207237420000045
为网络的偏置向量,
Figure GDA0003207237420000046
为循环神经网络的输出,
Figure GDA0003207237420000047
为连接输入层神经元和隐藏层神经元的输入权重,
Figure GDA0003207237420000048
为隐藏层神经元相互连接的循环权重,
Figure GDA0003207237420000049
为连接隐藏层神经元和输出层神经元的输出权重,
Figure GDA00032072374200000410
代表实域空间,N、M、d、N×d、N×N、M×N分别为对应的实域空间的维度,τ代表时间常数。
在一些优选的实施例中,所述模型隐藏层神经元膜电位的变化率的李雅诺夫函数,其公式表示为:
Figure GDA00032072374200000411
其中,
Figure GDA00032072374200000412
时,
Figure GDA00032072374200000413
T代表转置。
在一些优选的实施例中,所述一致集群响应模式的模型循环权重条件,其公式表示为:
Figure GDA00032072374200000414
其中,
Figure GDA00032072374200000415
为膜电位的变化率
Figure GDA00032072374200000420
中第i个元素;λ*为是将实对称矩阵
Figure GDA00032072374200000416
进行特征值分解后获取的最大特征值,W+中的第i行第j个元素
Figure GDA00032072374200000417
是循环权重矩阵W中的第i行第j个元素wij的绝对值。
在一些优选的实施例中,步骤B30包括:
步骤B31,获取机器人点到点的单任务对应的奖励信号:
Figure GDA00032072374200000418
其中,pd、p和
Figure GDA00032072374200000419
分别为机器人点到点的单任务中机器人的期望运动目标点坐标、实际运动的位置坐标和末端的运动速度,l1和l2为预设的加权系数常数;
步骤B32,在每一时刻的循环神经网络隐藏层神经元的膜电位上添加随机噪声:
Figure GDA0003207237420000051
其中,
Figure GDA0003207237420000052
代表服从正态分布的噪声向量,
Figure GDA0003207237420000053
为对角矩阵,是正态分布的协方差矩阵,矩阵对角线上的元素均为σ2,σ2为噪声的方差;
步骤B33,基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正:
Figure GDA0003207237420000054
Figure GDA0003207237420000055
Figure GDA0003207237420000056
其中,
Figure GDA0003207237420000057
代表多次单任务训练中多次运动的平均奖励信号,η代表训练步长,S为模型针对机器人点到点的单任务执行的时间步数,T代表转置;
步骤B34,将修正后的循环权重、输入权重和偏置向量赋予一致集群响应模式的机器人控制模型,获得单任务学习的机器人控制模型。
在一些优选的实施例中,所述平均奖励信号为:
Figure GDA0003207237420000058
其中,Rn
Figure GDA0003207237420000059
分别为第n次运动的奖励信号和第n次运动后的平均奖励信号,αR为预设的超参数。
在一些优选的实施例中,所述循环权重,其修正过程中引入幅度限制常数进行循环权重更新幅度的限制:
Figure GDA0003207237420000061
其中,g>0为设定的进行循环权重更新幅度限制的幅度限制常数,||·||F代表矩阵的F范数。
在一些优选的实施例中,步骤B40包括:
步骤B41,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的输入空间:
Figure GDA0003207237420000062
其中,
Figure GDA0003207237420000063
代表循环权重W在第v个任务中第i个运动目标点所对应的所有输入,K为第v个任务中的运动目标点数量;
步骤B42,基于所述循环权重的输入空间,获取针对所述单任务学习的机器人控制模型的循环权重的低维输入空间:
Figure GDA0003207237420000064
其中,
Figure GDA0003207237420000065
Figure GDA0003207237420000066
的低维矩阵,
Figure GDA0003207237420000067
为降维投影矩阵,
Figure GDA0003207237420000068
代表实域空间,KS×q为Qv的实域空间维度,S为模型针对机器人点到点的单任务执行的时间步数,q代表降维后的维数。
在一些优选的实施例中,步骤B50包括:
步骤B51,基于所述低维输入空间,构建机器人的v+1个运动任务的正交投影矩阵:
Figure GDA0003207237420000069
其中,I代表单位矩阵,αP代表低于设定阈值的常数;
步骤B52,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正:
ΔWC=ΔWPW
步骤B53,将修正后的循环权重赋予单任务学习的机器人控制模型,获得多任务学习的机器人控制模型。
本发明的另一方面,提出了一种基于脑启发多任务学习的肌肉骨骼机器人控制系统,基于上述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,该控制系统包括以下模块:
运动目标获取模块,用于获取机器人预设的运动目标;
控制信号生成模块,用于基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
机器人控制模块,用于基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
本发明的有益效果:
(1)本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法,受运动皮层神经编码方式的启发,将基于泄露神经元构建的循环神经网络作为初始机器人控制模型,并获取一致集群响应模式下模型的权重,将运动目标转换为肌肉控制信号,模型的数学建模简单、效率高,并降低了模型求解的难度,进一步提升后续机器人控制的精度和效率。
(2)本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法,针对单个任务,采用基于奖励调控的强化学习方法进行RNN的自主训练,针对多个任务,将基于奖励调控的强化学习方法和基于降维输入空间的正交权重修正方法结合,实现RNN针对多个任务的连续学习,最终获取的机器人控制模型具有多任务的连续学习能力、较强的泛化能力和对噪声的鲁棒性,从而进一步提升机器人控制的精度和效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法一种实施例的模型训练流程示意图;
图2是本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法一种实施例的肌肉骨骼式机器人平台。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明提供一种基于脑启发多任务学习的肌肉骨骼机器人控制方法,能够实现肌肉骨骼式机器人在多任务场景下的可连续学习。考虑到现有的针对肌肉骨骼式机器人的运动学习方法泛化能力有限,且缺乏持续学习能力,本发明的肌肉骨骼机器人控制方法为脑启发式多任务可持续学习方法。首先,本发明提出了一种循环神经网络(RNN)的一致集群响应模式,并利用李雅普诺夫稳定性分析得出产生该模式的条件。在该条件下,针对不同的运动目标,RNN的神经元激活在集群层面仍具有一致的响应模式,这为网络的可持续学习奠定了基础。其次,本发明提出了一种针对具有一致集群响应的RNN的持续学习方法。基于该学习方法,RNN能够自主地通过奖励信号习得运动任务,并且能够在学习新任务的时候避免灾难性地遗忘已习得的知识,实现对多运动任务的可持续学习。本发明所提出的可持续运动学习方法在肌肉骨骼系统的仿真平台上进行了验证,实现了针对多运动任务的可持续学习,为新型肌肉骨骼式机器人系统的控制和发展提供了理论基础和技术支撑。
本发明的一种基于脑启发多任务学习的肌肉骨骼机器人控制方法,该控制方法包括:
步骤S10,获取机器人预设的运动目标;
步骤S20,基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
步骤S30,基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
为了更清晰地对本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法进行说明,下面结合图1对本发明实施例中各步骤展开详述。
本发明第一实施例的基于脑启发多任务学习的肌肉骨骼机器人控制方法,各步骤详细描述如下:
步骤S10,获取机器人预设的运动目标;
步骤S20,基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
步骤S30,基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件。
初始机器人控制模型,其公式表示如式(1)、式(2)和式(3)所示:
Figure GDA0003207237420000111
h=tanh(r) (2)
o=Relu(Vh) (3)
其中,
Figure GDA0003207237420000112
为循环神经网络隐藏层神经元的膜电位,
Figure GDA0003207237420000113
为r的导数,表示膜电位的变化率,
Figure GDA0003207237420000114
为循环神经网络隐藏层神经元的激活频率,
Figure GDA0003207237420000115
为循环神经网络的输入,
Figure GDA0003207237420000116
为网络的偏置向量,
Figure GDA0003207237420000117
为循环神经网络的输出,
Figure GDA0003207237420000118
为连接输入层神经元和隐藏层神经元的输入权重,
Figure GDA0003207237420000119
为隐藏层神经元相互连接的循环权重,
Figure GDA00032072374200001110
为连接隐藏层神经元和输出层神经元的输出权重,
Figure GDA00032072374200001111
代表实域空间,N、M、d、N×d、N×N、M×N分别为对应的实域空间的维度,τ代表时间常数。
受循环权重W的影响,RNN可能产生不同的动力学特性。受运动皮层的神经编码方式的启发,本发明为RNN的隐藏层神经元设计了一致的集群响应模式。具体地,令隐藏层神经元膜电位的变化率
Figure GDA00032072374200001117
能够随时间逐渐收敛至0。
模型隐藏层神经元膜电位的变化率的李雅诺夫函数,其公式表示如式(4)所示:
Figure GDA00032072374200001112
其中,
Figure GDA00032072374200001113
时,
Figure GDA00032072374200001114
T代表转置,
Figure GDA00032072374200001115
Wtanh(r)+Ux+b]。
Figure GDA00032072374200001118
针对时间求导,可得
Figure GDA00032072374200001116
如式(5)所示:
Figure GDA0003207237420000121
其中,
Figure GDA0003207237420000122
为膜电位的变化率
Figure GDA00032072374200001217
中第i个元素。
由于对
Figure GDA0003207237420000123
部成立,可得
Figure GDA0003207237420000124
进一步可得式(6):
Figure GDA0003207237420000125
其中,
Figure GDA0003207237420000126
是一个对角阵,矩阵W+中的第i行第j个元素
Figure GDA0003207237420000127
是循环权重矩阵W中的第i行第j个元素wij的绝对值。
因此,针对
Figure GDA0003207237420000128
可进一步缩放如式(7)所示:
Figure GDA0003207237420000129
其中,
Figure GDA00032072374200001210
和W+为实对称矩阵,PDPT为将
Figure GDA00032072374200001211
通过特征值分解获得的矩阵,
Figure GDA00032072374200001212
是一个正交矩阵,
Figure GDA00032072374200001213
Figure GDA00032072374200001214
是一个对角阵,λ1,λ2,…,λN
Figure GDA00032072374200001215
的特征值。
因此,可将
Figure GDA00032072374200001216
进一步展开如式(8)所示:
Figure GDA0003207237420000131
其中,P:,j表示矩阵P的第j列,Pi,j表示矩阵P中位于第i行第j列的元素,
Figure GDA0003207237420000132
Figure GDA0003207237420000133
的第i个元素,λ*为是将实对称矩阵
Figure GDA0003207237420000134
进行特征值分解后获取的最大特征值。
由于P是正交矩阵,其中各行各列为单位向量,且相互正交,可得式(9)和式(10):
Figure GDA0003207237420000135
Figure GDA0003207237420000136
从而,一致集群响应模式的模型循环权重条件,其公式表示如式(11):
Figure GDA0003207237420000137
基于上式,可得,当λ*≤2时,对于
Figure GDA0003207237420000138
成立。当λ*≤2的限制条件能够被严格满足时,在不同的外部输入下,RNN都具备一致集群响应,即RNN的
Figure GDA00032072374200001310
都将收敛至0。然而,在λ*≤2的条件下,||W||F的值很小,对应的RNN的表征能力较弱,无法表征运动目标和肌肉信号之间的关系。因此,RNN的一致集群响应模式和表征能力之间存在一定的矛盾。然而,当λj<2对于大部分(但并非所有)j都成立时,
Figure GDA0003207237420000139
对于大部分
Figure GDA0003207237420000141
也成立。因此,可合理设计RNN的循环权重W,令λ*稍大于2(将λ*取值比2稍大即可,例如在[2,3]之间选择一个数值),使得RNN在给定的任务下,具有较好表征能力的同时,令
Figure GDA0003207237420000142
对于给定任务场景下的
Figure GDA0003207237420000143
都成立,令RNN同时具备一致集群响应和足够的表征能力。
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型。
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型。
在肌肉骨骼式机器人的点到点到达任务中,RNN将根据输入的运动目标位置,输出时变的肌肉信号。基于得到的时变肌肉信号,肌肉骨骼式机器人将产生运动。通过将肌肉骨骼式机器人实际运动和期望运动的对比可以得到奖励信号。在训练过程中,每一次运动结束后,基于奖励信号可以对RNN的权重进行自主调节,不断改进RNN的控制效果,使得肌肉骨骼式机器人能够学会到达给定的运动目标点。
步骤B31,获取机器人点到点的单任务对应的奖励信号,如式(12)所示:
Figure GDA0003207237420000144
其中,pd、p和
Figure GDA0003207237420000145
分别为机器人点到点的单任务中机器人的期望运动目标点坐标、实际运动的位置坐标和末端的运动速度,l1和l2为预设的加权系数常数;
在训练过程中,将执行多次运动,每次运动都将获得一个奖励信号,因此有平均奖励信号,如式(13)所示
Figure GDA0003207237420000146
其中,Rn
Figure GDA0003207237420000151
分别为第n次运动的奖励信号和第n次运动后的平均奖励信号,αR为预设的超参数。
步骤B32,在每一时刻的循环神经网络隐藏层神经元的膜电位上添加随机噪声,如式(14)所示:
Figure GDA0003207237420000152
其中,
Figure GDA0003207237420000153
代表服从正态分布的噪声向量,
Figure GDA0003207237420000154
为对角矩阵,是正态分布的协方差矩阵,矩阵对角线上的元素均为σ2,σ2为噪声的方差;
步骤B33,基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正。
在每次运动结束后,基于对运动效果的评估得到奖励信号,针对RNN网络的权重进行调整。具体地,权重V保持不变,权重W,U,b的修正分别如式(15)、式(16)和式(17)所示:
Figure GDA0003207237420000155
Figure GDA0003207237420000156
Figure GDA0003207237420000157
其中,
Figure GDA0003207237420000158
代表多次单任务训练中多次运动的平均奖励信号,η代表训练步长,S为模型针对机器人点到点的单任务执行的时间步数,T代表转置;
为了防止权重W的||W||F过快增长,将权重W的更新幅度限制在一定的范围内,如式(18)所示:
Figure GDA0003207237420000161
其中,g>0为设定的进行循环权重更新幅度限制的幅度限制常数,||·||F代表矩阵的F范数。
为了提高运动学习的效率,3个主要的超参数将随着运动情况进行动态调整,如式(19)、式(20)和式(21)所示:
Figure GDA0003207237420000162
Figure GDA0003207237420000163
Figure GDA0003207237420000164
其中,n表示训练过程中的第n次运动,τp是一个时间常数,γn
Figure GDA00032072374200001610
分别为η,αR,σ2在训练阶段的初始值,
Figure GDA0003207237420000165
是一个衡量n次运动的学习情况的值,将随着运动效果的提升而增加,如式(22)、式(23)、式(24)和式(25)所示:
Figure GDA0003207237420000166
Figure GDA0003207237420000167
Figure GDA0003207237420000168
Hn=ln(ζn)+0.Sln(2πe) (25)
其中,ζn为第n次训练时,第n-k次至第n次的奖励信号的标准差,
Figure GDA0003207237420000169
为常数,k也为常数,通常可取50。
步骤B34,将修正后的循环权重、输入权重和偏置向量赋予一致集群响应模式的机器人控制模型,获得单任务学习的机器人控制模型。
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间。
在本发明中,将连续学习多个运动任务,从第2个运动任务开始,将仅针对RNN的循环权重W进行修正,其他权重将保持不变。
步骤B41,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的输入空间。
基于RNN的动力学方程可得,RNN循环权重W的输入为隐层神经元在每一时刻的激活频率ht。因此,W的输入空间由训练中所有运动目标x所对应的隐藏层神经元的激活频率所构成。因此权重W在第v个任务中的输入空间如式(26)所示:
Figure GDA0003207237420000171
其中,
Figure GDA0003207237420000172
代表循环权重W在第v个任务中第i个运动目标点所对应的所有输入,即N个隐藏层神经元在T个时间步的放电频率,K为第v个任务中的运动目标点数量,
Figure GDA0003207237420000173
收集了循环权重W在第v个任务中总共K个运动目标点所对应的所有输入。相应地,
Figure GDA0003207237420000174
中的各列一起张成了权重W在第v个任务中的输入空间。
步骤B42,基于所述循环权重的输入空间,获取针对所述单任务学习的机器人控制模型的循环权重的低维输入空间,如式(27)所示:
Figure GDA0003207237420000175
其中,
Figure GDA0003207237420000176
Figure GDA0003207237420000177
的低维矩阵,
Figure GDA0003207237420000178
为降维投影矩阵,
Figure GDA0003207237420000179
代表实域空间,KS×q为Qv的实域空间维度,S为模型针对机器人点到点的单任务执行的时间步数,q代表降维后的维数。
Qv中的每一列都为
Figure GDA0003207237420000181
的特征向量,而且对应着q个特征值最大的特征向量。需要注意地是,为了保持数据的原始特性,
Figure GDA0003207237420000182
通过
Figure GDA0003207237420000183
直接降维得到,并没有经过归一化的过程。
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
步骤B51,基于所述低维输入空间,构建机器人的v+1个运动任务的正交投影矩阵,如式(28)所示:
Figure GDA0003207237420000184
其中,I代表单位矩阵,αP代表低于设定阈值的常数;
步骤B52,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,如式(29)所示:
ΔWC=ΔWPW (29)
其中,ΔW是针对单个任务的权重更新向量,ΔWC是经过正交修正后的权重更新向量。
因为
Figure GDA0003207237420000185
成立。因此,在第v+1个任务中,对于权重W的更新,仅对前v个任务中所习得的知识产生较小的影响,具体如式(30)所示:
Figure GDA0003207237420000186
其中,AH记录了前v个任务中权重W的所有输入,而第v+1个任务中的权重更新ΔWC对之前输入所产生的结果仅产生较小的影响,
Figure GDA0003207237420000187
是Qv的伪逆矩阵。
步骤B53,将修正后的循环权重赋予单任务学习的机器人控制模型,获得多任务学习的机器人控制模型。
如图2所示,为本发明基于脑启发多任务学习的肌肉骨骼机器人控制方法一种实施例的肌肉骨骼式机器人平台,将本发明方法应用到该平台的时候,可以实现肌肉骨骼式机器人的精准度高、实时性强的运动控制。
本发明第二实施例的基于脑启发多任务学习的肌肉骨骼机器人控制系统,基于上述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,该控制系统包括以下模块:
运动目标获取模块,用于获取机器人预设的运动目标;
控制信号生成模块,用于基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
机器人控制模块,用于基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的基于脑启发多任务学习的肌肉骨骼机器人控制系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的基于脑启发多任务学习的肌肉骨骼机器人控制方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于脑启发多任务学习的肌肉骨骼机器人控制方法。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (10)

1.一种基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,该控制方法包括:
步骤S10,获取机器人预设的运动目标;
步骤S20,基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
步骤S30,基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
2.根据权利要求1所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,所述初始机器人控制模型,其公式表示为:
Figure FDA0003207237410000011
h=tanh(r)
o=Relu(Vh)
其中,
Figure FDA0003207237410000021
为循环神经网络隐藏层神经元的膜电位,
Figure FDA0003207237410000022
为r的导数,表示膜电位的变化率,
Figure FDA0003207237410000023
为循环神经网络隐藏层神经元的激活频率,
Figure FDA0003207237410000024
为循环神经网络的输入,
Figure FDA0003207237410000025
为网络的偏置向量,
Figure FDA0003207237410000026
为循环神经网络的输出,
Figure FDA0003207237410000027
为连接输入层神经元和隐藏层神经元的输入权重,
Figure FDA0003207237410000028
为隐藏层神经元相互连接的循环权重,
Figure FDA0003207237410000029
为连接隐藏层神经元和输出层神经元的输出权重,
Figure FDA00032072374100000210
代表实域空间,N、M、d、N×d、N×N、M×N分别为对应的实域空间的维度,τ代表时间常数。
3.根据权利要求2所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,所述模型隐藏层神经元膜电位的变化率的李雅诺夫函数,其公式表示为:
Figure FDA00032072374100000211
其中,
Figure FDA00032072374100000212
时,
Figure FDA00032072374100000213
T代表转置。
4.根据权利要求3所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,所述一致集群响应模式的模型循环权重条件,其公式表示为:
Figure FDA00032072374100000214
其中,
Figure FDA00032072374100000215
为膜电位的变化率
Figure FDA00032072374100000216
中第i个元素;λ*为是将实对称矩阵
Figure FDA00032072374100000217
进行特征值分解后获取的最大特征值,W+中的第i行第j个元素
Figure FDA00032072374100000218
是循环权重矩阵W中的第i行第j个元素wij的绝对值。
5.根据权利要求2所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,步骤B30包括:
步骤B31,获取机器人点到点的单任务对应的奖励信号:
Figure FDA0003207237410000031
其中,pd、p和
Figure FDA0003207237410000032
分别为机器人点到点的单任务中机器人的期望运动目标点坐标、实际运动的位置坐标和末端的运动速度,l1和l2为预设的加权系数常数;
步骤B32,在每一时刻的循环神经网络隐藏层神经元的膜电位上添加随机噪声:
Figure FDA0003207237410000033
其中,
Figure FDA0003207237410000034
代表服从正态分布的噪声向量,
Figure FDA0003207237410000035
为对角矩阵,是正态分布的协方差矩阵,矩阵对角线上的元素均为σ2,σ2为噪声的方差;
步骤B33,基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正:
Figure FDA0003207237410000036
Figure FDA0003207237410000037
Figure FDA0003207237410000038
其中,
Figure FDA0003207237410000039
代表多次单任务训练中多次运动的平均奖励信号,η代表训练步长,S为模型针对机器人点到点的单任务执行的时间步数,T代表转置;
步骤B34,将修正后的循环权重、输入权重和偏置向量赋予一致集群响应模式的机器人控制模型,获得单任务学习的机器人控制模型。
6.根据权利要求5所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,所述平均奖励信号为:
Figure FDA0003207237410000041
其中,Rn
Figure FDA0003207237410000042
分别为第n次运动的奖励信号和第n次运动后的平均奖励信号,αR为预设的超参数。
7.根据权利要求5所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,所述循环权重,其修正过程中引入幅度限制常数进行循环权重更新幅度的限制:
Figure FDA0003207237410000043
其中,g>0为设定的进行循环权重更新幅度限制的幅度限制常数,‖·‖F代表矩阵的F范数。
8.根据权利要求1所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,步骤B40包括:
步骤B41,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的输入空间:
Figure FDA0003207237410000044
其中,
Figure FDA0003207237410000045
代表循环权重W在第v个任务中第i个运动目标点所对应的所有输入,K为第v个任务中的运动目标点数量;
步骤B42,基于所述循环权重的输入空间,获取针对所述单任务学习的机器人控制模型的循环权重的低维输入空间:
Figure FDA0003207237410000046
其中,
Figure FDA0003207237410000047
Figure FDA0003207237410000048
的低维矩阵,
Figure FDA0003207237410000049
为降维投影矩阵,
Figure FDA00032072374100000410
代表实域空间,KS×q为Qv的实域空间维度,S为模型针对机器人点到点的单任务执行的时间步数,q代表降维后的维数。
9.根据权利要求8所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,其特征在于,步骤B50包括:
步骤B51,基于所述低维输入空间,构建机器人的v+1个运动任务的正交投影矩阵:
Figure FDA0003207237410000051
其中,I代表单位矩阵,αP代表低于设定阈值的常数;
步骤B52,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正:
ΔWC=ΔWPW
步骤B53,将修正后的循环权重赋予单任务学习的机器人控制模型,获得多任务学习的机器人控制模型。
10.一种基于脑启发多任务学习的肌肉骨骼机器人控制系统,其特征在于,基于权利要求1-9任一项所述的基于脑启发多任务学习的肌肉骨骼机器人控制方法,该控制系统包括以下模块:
运动目标获取模块,用于获取机器人预设的运动目标;
控制信号生成模块,用于基于所述机器人预设运动轨迹,通过多任务学习的机器人控制模型生成机器人的肌肉控制信号;
机器人控制模块,用于基于所述肌肉控制信号控制机器人运动;
其中,所述多任务学习的机器人控制模型,其构建和训练方法为:
步骤B10,基于泄露神经元构建循环神经网络作为初始机器人控制模型,并构建模型隐藏层神经元膜电位的变化率的李雅诺夫函数,求解函数获得一致集群响应模式的模型循环权重条件;
步骤B20,基于所述循环权重条件获取模型的循环权重并赋予所述初始机器人控制模型,获得一致集群响应模式的机器人控制模型;
步骤B30,获取机器人点到点的单任务对应的奖励信号,并基于随机噪声和奖励信号进行所述一致集群响应模式的机器人控制模型的循环权重、输入权重和偏置向量的修正,获得单任务学习的机器人控制模型;
步骤B40,获取机器人的v个运动任务,构建针对所述单任务学习的机器人控制模型的循环权重的低维输入空间;
步骤B50,获取机器人的v+1个运动任务,在所述低维输入空间的正交方向上进行所述单任务学习的机器人控制模型的循环权重修正,获得多任务学习的机器人控制模型。
CN202011286626.5A 2020-11-17 2020-11-17 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统 Active CN112405542B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011286626.5A CN112405542B (zh) 2020-11-17 2020-11-17 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011286626.5A CN112405542B (zh) 2020-11-17 2020-11-17 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统

Publications (2)

Publication Number Publication Date
CN112405542A CN112405542A (zh) 2021-02-26
CN112405542B true CN112405542B (zh) 2021-09-14

Family

ID=74831472

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011286626.5A Active CN112405542B (zh) 2020-11-17 2020-11-17 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统

Country Status (1)

Country Link
CN (1) CN112405542B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113298242B (zh) 2021-06-08 2022-08-05 浙江大学 一种基于脉冲神经网络的脑机接口解码方法
CN114872040B (zh) * 2022-04-20 2024-04-16 中国科学院自动化研究所 基于小脑预测与修正的肌肉骨骼机器人控制方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272885B (zh) * 2017-05-09 2020-06-26 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置
CN108717492A (zh) * 2018-05-18 2018-10-30 浙江工业大学 基于改进的人工蜂群算法的机械臂动力学模型辨识方法
CN110059144B (zh) * 2019-04-03 2021-12-10 电子科技大学 一种基于卷积神经网络的轨迹属主预测方法
CN110781262B (zh) * 2019-10-21 2023-06-02 中国科学院计算技术研究所 基于视觉slam的语义地图的构建方法
CN110795522B (zh) * 2019-11-06 2023-01-06 中国人民解放军战略支援部队信息工程大学 一种移动用户轨迹位置的预测方法及装置
CN111775145B (zh) * 2020-06-01 2023-05-16 上海大学 一种串并联机器人的控制系统

Also Published As

Publication number Publication date
CN112405542A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN110909859B (zh) 基于对抗结构化控制的仿生机器鱼运动控制方法、系统
US10962976B1 (en) Motion control method and system for biomimetic robotic fish based on adversarial structured control
CN112405542B (zh) 基于脑启发多任务学习的肌肉骨骼机器人控制方法及系统
Hu et al. Monitor-based spiking recurrent network for the representation of complex dynamic patterns
Wang et al. Model-based meta reinforcement learning using graph structured surrogate models and amortized policy search
Jiang et al. Generative adversarial interactive imitation learning for path following of autonomous underwater vehicle
Li et al. EU FP7
Wang et al. Dob-net: Actively rejecting unknown excessive time-varying disturbances
Shi et al. Dynamical motor control learned with deep deterministic policy gradient
Rowcliffe et al. Training spiking neuronal networks with applications in engineering tasks
Wang et al. Multitask policy adversarial learning for human-level control with large state spaces
Milovanović et al. Adaptive control of nonlinear MIMO system with orthogonal endocrine intelligent controller
Burms et al. Reward-modulated Hebbian plasticity as leverage for partially embodied control in compliant robotics
CN114952791A (zh) 肌肉骨骼机器人控制方法及装置
CN112621760B (zh) 基于神经元增益基元组合优化的机器人运动控制方法
Gawali et al. Development of improved coyote optimization with deep neural network for intelligent skill knowledge transfer for human to robot interaction
Caamaño et al. Introducing synaptic delays in the NEAT algorithm to improve modelling in cognitive robotics
Hachiya et al. Efficient sample reuse in EM-based policy search
CN114872042B (zh) 基于临界状态循环网络的肌肉骨骼机器人控制方法及装置
Pretorius et al. Towards an artificial neural network-based simulator for behavioural evolution in evolutionary robotics
CN114872040B (zh) 基于小脑预测与修正的肌肉骨骼机器人控制方法及装置
CN110515297B (zh) 基于冗余肌肉骨骼系统的阶段式运动控制方法
JPH04291662A (ja) 階層ネットワーク構成演算素子
CN114872042A (zh) 基于临界状态循环网络的肌肉骨骼机器人控制方法及装置
CN116690570A (zh) 基于循环神经网络的肌肉骨骼机器人运动控制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant