CN114939870B - 模型训练方法和装置、策略优化方法、设备及介质 - Google Patents
模型训练方法和装置、策略优化方法、设备及介质 Download PDFInfo
- Publication number
- CN114939870B CN114939870B CN202210599743.XA CN202210599743A CN114939870B CN 114939870 B CN114939870 B CN 114939870B CN 202210599743 A CN202210599743 A CN 202210599743A CN 114939870 B CN114939870 B CN 114939870B
- Authority
- CN
- China
- Prior art keywords
- model
- mechanical arm
- training
- training data
- strategy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000005457 optimization Methods 0.000 title claims abstract description 40
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 59
- 230000002787 reinforcement Effects 0.000 claims abstract description 50
- 230000006870 function Effects 0.000 claims abstract description 41
- 238000010276 construction Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000003062 neural network model Methods 0.000 claims abstract description 21
- 238000004458 analytical method Methods 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims abstract description 16
- 230000009471 action Effects 0.000 claims abstract description 12
- 238000011217 control strategy Methods 0.000 claims description 47
- 230000004913 activation Effects 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 11
- 230000001174 ascending effect Effects 0.000 claims 2
- 238000013473 artificial intelligence Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 8
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012933 kinetic analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种模型训练方法和装置、策略优化方法、设备及介质,所述方法包括:获取机械臂的训练数据集合;其中,所述训练数据集合包括:电压训练数据、位姿训练数据、训练策略,所述电压训练数据作为强化学习的环境,所述训练策略作为强化学习的动作;根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型;将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。本发明申请能够使得目标机械臂模型构建简易,提高机械臂的强化学习的效率。
Description
技术领域
本发明涉及模型训练的技术领域,尤其是涉及一种模型训练方法和装置、策略优化方法、设备及介质。
背景技术
机械臂是一种强非线性系统,其动力学模型往往具有非线性、耦合度高等特点,因此建立一个精确度高的机械臂动力学模型非常困难,而且机械臂系统的非线性特征导致了策略学习的子过程计算量大,学习机理表征不足,因此如何构建有效表征机械臂动力学特征的模型是目前亟待解决的问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种模型训练方法,能够使得目标机械臂模型构建简易,提高机械臂的强化学习的效率。
本发明还提出一种策略优化方法。
本发明还提出一种模型训练装置。
本发明还提出一种电子设备。
本发明还提出一种计算机可读存储介质。
第一方面,本发明的一个实施例提供了一种模型训练方法,所述方法包括:
获取机械臂的训练数据集合;其中,所述训练数据集合包括:电压训练数据、位姿训练数据、训练策略,所述电压训练数据作为强化学习的环境,所述训练策略作为强化学习的动作;
根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型;
将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;
根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
本发明实施例的基于强化学习的模型训练方法至少具有如下有益效果:通过获取电压训练数据、位姿训练数据和训练策略构建训练数据集合,然后根据预设的动力学分析算法对训练数据集合进行模型构建以得到原始机械臂模型,然后再根据预设的神经网络模型对原始机械臂模型转换为线性的初始机械臂模型,最后根据预设的奖励函数对初始机械臂模型进行更新参考轨迹和策略以得到目标机械臂模型,因此使得目标机械臂模型构建简易,提高机械臂的强化学习的效率。
根据本发明的另一些实施例的基于强化学习的模型训练方法,所述动力学分析算法为Koopman算法,所述根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型,包括:
根据所述Koopman算法对所述电压训练数据、所述位姿训练数据和所述训练策略进行模型构建,得到所述原始机械臂模型;其中,所述原始机械臂模型具体如下:
Zk+1=AZk+Buk
Zk=ψ(xk)
根据本发明的另一些实施例的基于强化学习的模型训练方法,所述神经网络模型包括:编码器、解码器;
所述将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型,包括:
通过所述编码器根据所述奖励函数对所述原始机械臂模型进行编码处理,得到解码数据;
通过所述解码器根据所述解码数据进行模型重构处理,得到所述初始机械臂模型;其中,所述初始机械臂模型为线性模型。
根据本发明的另一些实施例的基于强化学习的模型训练方法,所述编码器包括:第一全连接层、第一激活层、第二全连接层、第二激活层、第三全连接层和第三激活层;所述解码器包括:第四全连接层、第四激活层、第五全连接层、第五激活层、第六激活层和第六全连接层,所述第一激活层、所述第二激活层、所述第五激活层和所述第六激活层为PRelu层,所述第三激活层和所述第四激活层为Tanh层。
第二方面,本发明的一个实施例提供了基于强化学习的策略优化方法,所述方法包括:
获取电压预测数据,并将所述电压预测数据输入至所述目标机械臂模型,得到初始控制策略;其中,所述目标机械臂模型如第一方面所述的训练方法训练得到;
根据预设优化算法对所述初始控制策略进行优化处理,得到目标控制策略。
本发明实施例的基于强化学习的策略优化方法至少具有如下有益效果:通过目标机械臂模型得到初始控制策略,由于目标机械臂模型由上述训练得到,所以所得到的初始控制策略能够控制机械臂准确抓取目标位置的物品,但是为了进一步提高机械臂抓取的优化,根据优化算法对初始控制策略进行优化得到目标控制策略,既能够保证机械臂抓取又能够简化策略。
根据本发明的另一些实施例的基于强化学习的策略优化方法,所述目标机械臂模型包括:目标强化模型和目标动力学模型;所述获取电压预测数据,并将所述电压预测数据输入至所述目标机械臂模型,得到初始控制策略,包括:
获取电压预测数据,并将所述电压预测数据输入所述目标强化模型,得到预测位姿数据;
将所述预测位姿数据输入至所述目标动力学模型,得到目标控制策略。
根据本发明的另一些实施例的基于强化学习的策略优化方法,所述预设优化算法包括:预设代价算法和递归微分算法;所述根据预设优化算法对所述初始控制策略进行优化处理,得到目标控制策略,包括:
根据所述预设代价算法对所述初始控制策略进行构建,得到代价方程;
根据所述递归微分算法对所述代价方程进行求解处理,得到所述目标控制策略。
第三方面,本发明的一个实施例提供了基于强化学习的模型训练装置,所述装置包括:
获取模块,用于获取机械臂的训练数据集合;其中,所述训练数据集合包括:电压训练数据、位姿训练数据、训练策略,所述电压训练数据作为强化学习的环境,所述训练策略作为强化学习的动作;
构建模块,用于根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型;
变换模块,用于将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;
调整模块,用于根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
本发明实施例的基于强化学习的模型训练装置至少具有如下有益效果:通过获取电压训练数据、位姿训练数据和训练策略构建训练数据集合,然后根据预设的动力学分析算法对训练数据集合进行模型构建以得到原始机械臂模型,再根据预设的神经网络模型对原始机械臂模型转换为线性的初始机械臂模型,最后根据预设的奖励函数对初始机械臂模型进行更新参考轨迹和策略以得到目标机械臂模型,因此使得目标机械臂模型构建简易,提高机械臂的强化学习的效率。
第四方面,本发明的一个实施例提供了电子设备,包括:
至少一个处理器,以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的模型训练方法,或如第二方面所述的策略优化方法。
第五方面,本发明的一个实施例提供了计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如第一方面所述的模型训练方法,或如第二方面所述的策略优化方法。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在说明书以及附图中所特别指出的结构来实现和获得。
附图说明
图1是本发明实施例中模型训练方法的一具体实施例流程示意图;
图2是图1中步骤S102的一具体实施例流程示意图;
图3是图1中步骤S103的一具体实施例流程示意图;
图4是本发明实施例中模型训练方法中编码器和解码器的一具体实施例结构示意图;
图5是本发明实施例中策略优化方法的一具体实施例流程示意图;
图6是图5中步骤S501的一具体实施例流程示意图;
图7是图5中步骤S502的一具体实施例流程示意图;
图8是本发明实施例中模型训练装置的一具体实施例模块框图;
图9是本发明实施例中电子设备的一具体实施例模块框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
Koopman算法:Koopman算法的基本思想是将非线性系统升维到一个线性维度空间下,并且这个线性空间在理论上来讲是无限维的。这样就能够得到原动力系统非线性特性的同时保证系统不会丢失任何信息,利用这个理论可以对非线性动力系统进行全局线性化,且只需要利用系统的实验或仿真数据而不用对系统进行数学建模。这种做法是把原非线性系统升维到一个线性的无穷维空间下,即用无穷的维度来换取线性特性,但是由于无穷维Koopman算法的复杂性,使其在实践应用中十分困难。
Encoder网络:input data通过一个Encoder神经网络得到一个维度的较低的向量,称这个向量为code,Encoder网络的作用是用来发现给定数据的压缩表示。
Decoder网络:code经过一个Decoder神经网络后输出一个output data,Decoder网络使原始输入的尽可能地相同的重建的表示。
线性二次型调节器(LQR,linear quadratic regulator):LQR可得到状态线性反馈的最优控制规律,易于构成闭环最优控制。LQR最优控制利用廉价成本可以使原系统达到较好的性能指标(事实也可以对不稳定的系统进行整定),而且方法简单便于实现,同时利用Matlab强大的功能体系容易对系统实现仿真。
机械臂系统的非线性特性导致了其策略学习的子过程计算量大,学习机理表征不足,非线性凸优化问题难以解决,限制了机械臂强化学习任务在实际场景下的应用。由于机械臂强化学习存在一定局限性,绝大部分的研究工作需要精确的动力学模型,非线性系统的策略学习子过程计算量庞大,调参工作繁重,对于策略学习在内在机理缺乏可解释性,且目前大多数算法对于系统本身的数据得不到充分利用,往往难以获取最优策略。
基于此,本申请通过预设的动力学分析算法对训练数据集合进行模型构建得到原始机械臂模型,再根据神经网络模型对原始机械臂模型进行线性变换得到初始机械臂模型,根据预设奖励函数的交互对初始机械臂模型进行更新以得到目标机械臂模型,使得机械臂的强化学习计算简易,提高机械臂强化学习的效率,且根据目标机械臂模型可以得到最优策略,使得最优策略计算简易。
本申请实施例提供的模型训练方法和装置、策略优化方法、设备及介质,具体通过如下实施例进行说明,首先描述本申请实施例中的模型训练方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的策略优化方法,涉及人工智能技术领域。本申请实施例提供的策略优化方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现策略优化方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
图1是本申请实施例提供的基于强化学习的模型训练方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S104。
步骤S101,获取机械臂的训练数据集合;其中,训练数据集合包括:电压训练数据、位姿训练数据、训练策略,电压训练数据作为强化学习的环境,训练策略作为强化学习的动作;
步骤S102,根据预设的动力学分析算法对训练数据集合进行模型构建,得到原始机械臂模型;
步骤S103,将原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;
步骤S104,根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
本申请实施例所示意的步骤S101至步骤S104,通过获取电压训练数据、位姿训练数据和训练策略构建训练数据集合,然后根据预设的动力学分析算法对训练数据集合进行模型构建以得到原始机械臂模型,然后再根据预设的神经网络模型对原始机械臂模型进行线性比变换得到初始机械臂模型,并通过预设的奖励函数交互以更新初始机械臂模型以得到目标机械臂模型,使得目标机械臂模型构建简易且更加准确,提高机械臂的强化学习的效率。
在一些实施例的步骤S101中,通过对机械臂的输入输出数据进行采集,以对输入的电压数据采集以得到电压训练数据,再对输出的位姿数据采集以得到位姿训练数据,同时采集机械臂的控制策略以得到训练策略。其中,位姿数据通过深度摄像头等传感器捕抓机械臂的动力学特征以得到位姿数据。然后将电压训练数据作为强化学习的环境,训练策略作为强化学习的动作,并根据训练策略知晓位姿参考数据,以根据位姿参数数据和位姿训练数据确定奖励函数,以根据奖励函数作为强化学习的评价。
需要说明的是,在采集数据时,根据机械臂数据的特点,选择符合机械臂数据特点的电压训练数据、位姿训练数据和训练策略。
在一些实施例的步骤S102中,通过预设的动力学分析算法根据训练数据集合进行模型构建以得到原始机械臂模型。例如,若位姿训练数据为Y,电压训练数据为X,训练策略为U,基于X,Y,U训练数据集合进行动力学分析以建立原始机械臂模型。其中,原始机械臂模型通过电压训练数据后能获得当前位置和下个时刻的位姿训练数据。
在一些实施例的步骤S103中,由于原始机械臂模型为非线性模型,因此通过预设的神经网络模型将原始机械臂模型进行线性变换,以得到线性模型的初始机械臂模型,以便于后续根据预设的奖励函数对初始机械臂模型进行强化学习和策略学习的更新与优化。
在一些实施例的步骤S104中,预设的奖励函数作为强化学习的评价,则根据预设的奖励函数对初始机械臂模型进行更新,以通过将训练策略中的当前策略输入初始机械臂模型得到动作和环境的交互,并根据动作和环境的交互确定对应的奖励函数,以根据奖励函数不断更新初始机械臂模型,以获取训练集合中奖励函数最低的初始机械臂模型作为目标机械臂模型,以更新初始机械臂模型,实现机械臂模型的强化学习和优化。因此,目标机械臂模型的构建简易且更加准确,使得机械臂强化学习的效率提高。其中,目标机械臂模型为机械臂观测和动作的高维线性动力学方程。
请参照图2,在一些实施例中,动力学分析算法为Koopman算法,步骤S102可以包括但不限于包括步骤S201。
步骤S201,根据Koopman算法对电压训练数据、位姿训练数据和训练策略进行模型构建,得到原始机械臂模型;其中,原始机械臂模型具体如公式(1)所示:
需要说明的是,通过Koopman算法对采集的训练数据集合构建出原始机械臂模型。通过公式(1)可知,将电压训练数据输入公式(1)后能够得到当前位置和下一时刻位置的预测位姿数据,然后即可将训练位姿数据和预测位姿数据进行比对,以确定奖励函数。其中,原始机械臂模型中的系数A、B、C,且系数A、B、C为系数矩阵。因此通过求解出系数矩阵A、B、C即可确定目标机械臂模型,以根据目标机械臂模型求出机械臂的控制策略。
请参照图3,在一些实施例中,神经网络模型包括:编码器、解码器,步骤S103可以包括但不限于包括步骤S301和步骤S302。
步骤S301,通过编码器根据奖励函数对原始机械臂模型进行编码处理,得到编码数据;
步骤S302,通过解码器根据编码数据进行模型重构处理,得到初始机械臂模型;其中,初始机械臂模型为线性模型。
在一些实施例的步骤S301中,神经网络模型为Deep-EDMD网络,其中,EDMD为Exteneded Dynamic Mode Decomposition,以通过Deep-EDMD网络求解系数A、B、C。其中,Deep-EDMD网络由解码器和编码器组成,因此通过编码器对原始机械臂模型进行编码处理。其中,训练的损失函数如公式(2)所示:
其中,Xlift=[ψ(x1),…,ψ(xk)],Ylift=[ψ(x2),…,ψ(xk+1)]。
在一些实施例的步骤S302中,通过解码器根据所述编码数据进行模型重构处理也即根据公式(2)求解系数矩阵A、B、C,以将系数输入原始机械臂模型以得到线性的初始机械臂模型。由于ψ(x)=[xT,φn+1(x),…,φN(x)]T,前n维由系统自身状态组成,φi是非线性函数,所得的解析解为:
因此,通过编码器和解码器对原始机械臂模型进行编码和解码处理,以得到线性模型的初始机械臂模型,以便于构建线性初始机械臂模型进行后续的强化学习和更新。
请参照图4,在一些实施例中,编码器包括:第一全连接层、第一激活层、第二全连接层、第二激活层、第三全连接层和第三激活层;解码器包括:第四全连接层、第四激活层、第五全连接层、第五激活层、第六激活层和第六全连接层,第一激活层、第二激活层、第五激活层和第六激活层为PRelu层,第三激活层和第四激活层为Tanh层。
需要说明的是,第一全连接层连接带有参数的PRelu层,然后PRelu层连接第二全连接层,第二全连接层再连接另一个PRelu层,另一个PRelu层再连接第三全连接层,第三全连接层连接Tanh层,然后通过Tanh层输出。因此,通过将原始机械臂模型输入第一全连接层、第一激活层、第二全连接层、第二激活层、第三全连接层和第三激活层,以对原始机械臂模型进行编码处理以得到编码数据。其中,将原始机械臂模型转换为编码数据,也即将原始机械臂模型按照预设的参考模型进行映射,以得到与参考模型类型对应的编码数据。第四全连接层连接带有参数的PRelu层,PRelu层连接第五全连接层,第五全连接层连接另一PRelu层,另一PRelu层连接第六全连接层,第六全连接层连接Tanh层。因此,通过将初始机械臂模型输入第四全连接层、第四激活层、第五全连接层、第五激活层、第六激活层和第六全连接层进行解码处理,也即进行模型重建,以得到线性的初始机械臂模型。因此,通过线性变换得到用于强化学习的初始机械臂模型。
需要说明的是,得到了线性的机械臂模型后,根据预设的奖励函数对初始机械臂模型进行更新,其中,预设的奖励函数也即上述公式(2)的奖励函数,以不断更新奖励函数,实现强化学习的动作和环境交互,进而不断更新初始机械臂模型的系数以优化初始机械臂模型,也即根据奖励函数更新策略进行下一次交互,最终得到机械臂强化学习的最优策略,也即构建更加符合实际机械臂操控的目标机械臂模型,使得目标机械臂模型构建更加准确,通过目标机械臂模型进行策略预测也更加准确。
请参照图5,本申请实施例还提供了一种策略优化方法,策略优化方法可以包括但不限于包括步骤S501至步骤S502:
步骤S501,获取电压预测数据,并将电压预测数据输入至目标机械臂模型,得到初始控制策略;其中,目标机械臂模型如上述的训练方法训练得到;
步骤S502,根据预设优化算法对初始控制策略进行优化处理,得到目标控制策略。
本申请实施例所示意的步骤S501至步骤S502,当需要进行机械臂的控制策略优化时,先将电压预测数据输入上述得到的目标机械臂模型,以通过目标机械臂模型得到初始控制策略,由于目标机械臂模型由上述训练得到,所以得到的初始控制策略能够控制机械臂准确抓取目标位置的物品,但是为了进一步提高机械臂抓取的优化,既能够保证机械臂抓取又能够简化策略,则通过预设优化算法对初始控制策略进行优化以得到目标控制策略,使得机械臂的操控即准确又简易,从而提高机械臂强化学习的效率。
在一些实施例的步骤S501中,当需要进行策略优化时,利用上述得到的目标机械臂模型输入电压预测数据以得到初始控制策略,使得机械臂的控制策略计算简易。
在一些实施例的步骤S502中,预设优化算法为代价方程,通过最优控制的代价方程来对初始控制策略进行优化,以优化机械臂的控制策略,使得机械臂操控更加简易且准确。
请参照图6,在一些实施例中,目标机械臂模型包括:目标强化模型和目标动力学模型;其中,目标强化模型用于根据电压数据输出对应的位姿数据,目标动力学模型则根据位姿数据得到控制策略。步骤S501可以包括但不限于包括步骤S601和步骤S602。
步骤S601,获取电压预测数据,并将电压预测数据输入目标强化模型,得到预测位姿数据;
步骤S602,将预测位姿数据输入至目标动力学模型,得到目标控制策略。
在一些实施例的步骤S601中,通过将电压预测数据输入目标强化模型,能够得到当前位置和下一时刻的位姿数据,以获取下一时刻的位姿数据作为预测位姿数据,以根据下一时刻的位姿数据进行机械臂的控制策略的预测,则根据初始控制策略控制机械臂运行,以使机械臂抓取下一时刻位置的物品,实现机械臂的精准控制。
在一些实施例的步骤S602中,目标动力学模型的具体公式如公式(3)所示:
请参照图7,在一些实施例中,预设优化算法包括:预设代价算法和递归微分算法。步骤S502可以包括但不限于步骤S701和步骤S702。
步骤S701,根据预设代价算法对初始控制策略进行构建,得到代价方程;
步骤S702,根据递归微分算法对代价方程进行求解处理,得到目标控制策略。
在一些实施例的步骤S701中,通过预设代价算法对初始控制策略进行代价方程构建,以将最优策略学习问题转化为最优控制问题。因此,构建代价方程如公式(4)所示:
式中,c(xt,ut)即为代价方程,u为初始控制策略,x为电压预测数据。
其中,代价方程具体计算公式如公式(5)所示:
式中,φθ(xt)即为上述Zk,A,B由公式(2)求得。而φθ(xτ)表示由最优参考轨迹s′经过升维变换之后的参考轨迹。
在一些实施例的步骤S702中,根据递归微分算法对代价方程进行求解上述公式(5),以优化初始控制策略得到目标控制策略。其中,根据递归微分算法对代价方程进行求解具体如公式(6)所示:
其中,Kt=(R+BTPt+1B)-1BTPt+1Az,kt=(BTPt+1B+R)-1BTpt+1分表代表了目标机械臂模型中的反馈项和前馈项,其中Pt=ATPt+1(A-BKt)+Q,递归微分算法为递归Riccati方程,pt=(A-BKt)Tpt+1+Qxr可由递归Riccati方程求得,其过程如下所示:
假设有离散系统:
xt+1=Axt+But (7)
对其进行LQR控制器设计,则有代价函数:
假设t时刻的状态为z,则在t时刻到N时刻的代价函数可表示为:
其中,ω为最优策略,上式为关于ω的无约束凸优化问题,因此可直接求其极值:
ω*=-(R+BTPt+1B)-1BTPt+1Az (11)
将该最优策略带入t时刻至N时刻得代价函数中,得到:
Pt=Q+ATPt+1A-ATPt+1B(R+BTPt+1B)-1BTPt+1A (12)
上式即为递归Riccati方程,同理可求得pt=(A-BKt)Tpt+1+Qxr。
因此,通过公式(7)至(12)对代价方程进行求解以优化初始控制策略,从而得到目标控制策略,以根据目标控制策略求解出机械臂的相关控制量以形成控制信号,并将控制信号发送至机械臂,则机械臂根据控制信号进行操控,以准确抓取到目标位置上的物品,使得机械臂操控准确且简易。
请参照图8,本申请实施例还提供一种模型训练装置,装置包括:
获取模块801,用于获取机械臂的训练数据集合;其中,训练数据集合包括:电压训练数据、位姿训练数据、训练策略,电压训练数据作为强化学习的环境,训练策略作为强化学习的动作;
构建模块802,用于根据预设的动力学分析算法对训练数据集合进行模型构建,得到原始机械臂模型;
变换模块803,用于将原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;
更新模块804,用于根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
该模型训练装置的具体实施方式与上述模型训练方法的具体实施例基本相同,在此不再赘述。
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器901,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的模型训练方法或者策略优化方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述的模型训练方法或者策略优化方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的模型训练方法和装置、策略优化方法、设备及介质,其通过预设的动力学分析算法对训练数据集合进行模型构建,再根据神经网络模型以预设奖励函数对原始机械臂模型进行求解得到目标系数,以根据目标系数调整原始机械臂模型的参数以得到目标机械臂模型,使得机械臂的强化学习计算简易,提高机械臂强化学习的效率,且根据目标机械臂模型可以得到最优策略,使得最优策略计算操作简易。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7或图6-7,中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (9)
1.一种模型训练方法,其特征在于,所述方法包括:
获取机械臂的训练数据集合;其中,所述训练数据集合包括:电压训练数据、位姿训练数据、训练策略,所述电压训练数据作为强化学习的环境,所述训练策略作为强化学习的动作;
根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型;其中,所述动力学分析算法为Koopman算法,所述根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型,包括:
根据所述Koopman算法对所述电压训练数据、所述位姿训练数据和所述训练策略进行模型构建,得到所述原始机械臂模型;其中,所述原始机械臂模型具体如下:
式中,为电压训练数据,表示升维函数,表示训练策略,为位姿训练数据,A、B、C为原始机械臂模型中的系数;
将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;其中,所述神经网络模型为Deep-EDMD网络,Deep-EDMD网络由解码器和编码器组成;
根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
2.根据权利要求1所述的模型训练方法,其特征在于,所述神经网络模型包括:编码器、解码器;所述将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型,包括:
通过所述编码器根据所述奖励函数对所述原始机械臂模型进行编码处理,得到编码数据;
通过所述解码器根据所述编码数据进行模型重构处理,得到所述初始机械臂模型;其中,所述初始机械臂模型为线性模型。
3.根据权利要求2所述的模型训练方法,其特征在于,所述编码器包括:第一全连接层、第一激活层、第二全连接层、第二激活层、第三全连接层和第三激活层;所述解码器包括:第四全连接层、第四激活层、第五全连接层、第五激活层、第六激活层和第六全连接层,所述第一激活层、所述第二激活层、所述第五激活层和所述第六激活层为PRelu层,所述第三激活层和所述第四激活层为Tanh层。
4.一种策略优化方法,其特征在于,所述策略优化方法包括:
获取电压预测数据,并将所述电压预测数据输入至所述目标机械臂模型,得到初始控制策略;其中,所述目标机械臂模型如权利要求1至3任一项所述的训练方法训练得到;
根据预设优化算法对所述初始控制策略进行优化处理,得到目标控制策略;其中,所述预设优化算法包括:预设代价算法和递归微分算法。
5.根据权利要求4所述的策略优化方法,其特征在于,所述目标机械臂模型包括:目标强化模型和目标动力学模型;所述获取电压预测数据,并将所述电压预测数据输入至所述目标机械臂模型,得到初始控制策略,包括:
获取电压预测数据,并将所述电压预测数据输入所述目标强化模型,得到预测位姿数据;
将所述预测位姿数据输入至所述目标动力学模型,得到目标控制策略。
6.根据权利要求4所述的策略优化方法,其特征在于,所述根据预设优化算法对所述初始控制策略进行优化处理,得到目标控制策略,包括:
根据所述预设代价算法对所述初始控制策略进行构建,得到代价方程;
根据所述递归微分算法对所述代价方程进行求解处理,得到所述目标控制策略。
7.一种模型训练装置,其特征在于,所述装置包括:
获取模块,用于获取机械臂的训练数据集合;其中,所述训练数据集合包括:电压训练数据、位姿训练数据、训练策略,所述电压训练数据作为强化学习的环境,所述训练策略作为强化学习的动作;
构建模块,用于根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型;其中,所述动力学分析算法为Koopman算法,所述根据预设的动力学分析算法对所述训练数据集合进行模型构建,得到原始机械臂模型,包括:
根据所述Koopman算法对所述电压训练数据、所述位姿训练数据和所述训练策略进行模型构建,得到所述原始机械臂模型;其中,所述原始机械臂模型具体如下:
式中,为电压训练数据,表示升维函数,表示训练策略,为位姿训练数据,A、B、C为原始机械臂模型中的系数;
变换模块,用于将所述原始机械臂模型输入预设的神经网络模型进行线性变换处理,得到初始机械臂模型;其中,所述神经网络模型为Deep-EDMD网络,Deep-EDMD网络由解码器和编码器组成;
更新模块,用于根据预设的奖励函数对所述初始机械臂模型进行更新处理,得到目标机械臂模型。
8.一种电子设备,其特征在于,包括:
至少一个处理器,以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3任一项所述的模型训练方法,或如权利要求4至6任一项所述的策略优化方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至3任一项所述的模型训练方法,或如权利要求4至6任一项所述的策略优化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210599743.XA CN114939870B (zh) | 2022-05-30 | 2022-05-30 | 模型训练方法和装置、策略优化方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210599743.XA CN114939870B (zh) | 2022-05-30 | 2022-05-30 | 模型训练方法和装置、策略优化方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114939870A CN114939870A (zh) | 2022-08-26 |
CN114939870B true CN114939870B (zh) | 2023-05-09 |
Family
ID=82908759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210599743.XA Active CN114939870B (zh) | 2022-05-30 | 2022-05-30 | 模型训练方法和装置、策略优化方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114939870B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116237935B (zh) * | 2023-02-03 | 2023-09-15 | 兰州大学 | 一种机械臂协同抓取方法、系统、机械臂及存储介质 |
CN116747026A (zh) * | 2023-06-05 | 2023-09-15 | 北京长木谷医疗科技股份有限公司 | 基于深度强化学习的机器人智能截骨方法、装置及设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210103815A1 (en) * | 2019-10-07 | 2021-04-08 | Deepmind Technologies Limited | Domain adaptation for robotic control using self-supervised learning |
CN110647042B (zh) * | 2019-11-11 | 2022-04-26 | 中国人民解放军国防科技大学 | 一种基于数据驱动的机器人鲁棒学习预测控制方法 |
CN111523236A (zh) * | 2020-04-24 | 2020-08-11 | 哈尔滨工业大学 | 基于Koopman算子的压电陶瓷迟滞模型线性化辨识方法 |
CN111515961B (zh) * | 2020-06-02 | 2022-06-21 | 南京大学 | 一种适用于移动机械臂的强化学习奖励方法 |
CN111985640A (zh) * | 2020-07-10 | 2020-11-24 | 清华大学 | 一种基于强化学习的模型训练方法以及相关装置 |
CN112016194A (zh) * | 2020-08-10 | 2020-12-01 | 天津大学 | 基于Koopman算子的全方位移动机械臂数据驱动模型预测控制方法 |
CN112338921A (zh) * | 2020-11-16 | 2021-02-09 | 西华师范大学 | 一种基于深度强化学习的机械臂智能控制快速训练方法 |
CN113400307B (zh) * | 2021-06-16 | 2022-10-18 | 清华大学 | 一种空间机器人机械臂的控制方法 |
-
2022
- 2022-05-30 CN CN202210599743.XA patent/CN114939870B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114939870A (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114939870B (zh) | 模型训练方法和装置、策略优化方法、设备及介质 | |
Chinchali et al. | Network offloading policies for cloud robotics: a learning-based approach | |
Böhmer et al. | Autonomous learning of state representations for control: An emerging field aims to autonomously learn state representations for reinforcement learning agents from their real-world sensor observations | |
CN104094293B (zh) | 用于尖峰神经计算的方法和装置 | |
US8301421B2 (en) | Automatic control system generation for robot design validation | |
CN104094295B (zh) | 用于尖峰神经计算的方法和装置 | |
Anh et al. | Hybrid control of a pneumatic artificial muscle (PAM) robot arm using an inverse NARX fuzzy model | |
CN110705684A (zh) | 基于端云协同的环境自适应学习方法及系统 | |
CN107610208B (zh) | 一种颗粒介质环境下动画角色的运动仿真方法 | |
CN116848532A (zh) | 具有短期记忆单元的注意力神经网络 | |
CN111152227A (zh) | 一种基于引导式dqn控制的机械臂控制方法 | |
Hauser | Physical reservoir computing in robotics | |
JP6947029B2 (ja) | 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラム | |
CN116977502A (zh) | 运动重定向方法、装置、电子设备及计算机可读存储介质 | |
CN115438588B (zh) | 一种锂电池的温度预测方法、系统、设备及存储介质 | |
CN116901055B (zh) | 仿人手交互控制方法和装置、电子设备及存储介质 | |
CN114333069A (zh) | 对象的姿态处理方法、装置、设备及存储介质 | |
CN115437269A (zh) | 机器人的控制方法及系统、电子设备 | |
CN116652940B (zh) | 仿人手精密操控方法和装置、电子设备及存储介质 | |
Kohler et al. | Symmetric models for visual force policy learning | |
JP2010134926A (ja) | マルチ・モーダル・グリーン・コンピューティング統合システム、コンピュータ・プログラム、方法、およびシステムの展開方法(問題解析を用いたマルチ・モーダル・グリーン・コンピューティング統合) | |
Zjavka | Generalization of patterns by identification with polynomial neural network | |
CN115989504A (zh) | 硬件加速器上的大规模矩阵运算 | |
CN116652940A (zh) | 仿人手精密操控方法和装置、电子设备及存储介质 | |
JP2002342738A (ja) | 畳み込みネットワーク挙動のシミュレーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |