CN114114902A - 机器控制装置 - Google Patents
机器控制装置 Download PDFInfo
- Publication number
- CN114114902A CN114114902A CN202110988132.XA CN202110988132A CN114114902A CN 114114902 A CN114114902 A CN 114114902A CN 202110988132 A CN202110988132 A CN 202110988132A CN 114114902 A CN114114902 A CN 114114902A
- Authority
- CN
- China
- Prior art keywords
- data processing
- machine
- control
- processing device
- control agent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40499—Reinforcement learning algorithm
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Feedback Control In General (AREA)
- Numerical Control (AREA)
Abstract
机器控制装置。按照不同的实施方式,描述了一种机器控制装置,其具有第一数据处理设备,该第一数据处理设备具有第一中央处理单元,该第一中央处理单元实现控制代理,其中第一数据处理设备向该机器传送控制指令并且从该机器接收过程和环境数据,这些过程和环境数据包含关于该机器的状态和/或该机器的环境的状态信息。第二数据处理设备从第一数据处理设备接收这些状态信息并且实现该控制代理的副本。第二数据处理设备借助于一个或多个图形处理器和/或一个或多个张量处理器在使用这些状态信息的情况下通过强化学习来确定该控制代理的副本的更新,并且将该更新传送给第一数据处理设备。
Description
技术领域
不同的实施例共同地涉及机器控制装置。
背景技术
用于像机器人那样的机器的控制设备可以通过所谓的强化学习、英文Reinforcement Learning(RL)来被训练,用于实施特定任务、例如在生产过程中实施特定任务。对任务的实施通常包括选择针对状态序列的每个状态的行动,也就是说可以被视为顺序决策问题。根据通过所选择的行动来实现的状态、尤其是最终状态,每个行动都得到一定回报(英文return),该回报例如根据该行动是否允许到达对其来说给予奖励(例如对于实现该任务的目标来说)的最终状态而得出。
然而,包含对神经网络的训练的强化学习、尤其是“深度”强化学习的执行为了能够在可接受的时间内被执行而需要大量的计算资源,这些计算资源无法由典型的机器控制设备(例如工业PC)来提供。然而,用具有足够的计算能力的机器控制设备来替换这种机器控制设备(例如由于存在的成本)不符合希望。
因此,如下做法是值得期望的,这些做法能够在不更换现有的机器控制设备(例如设施计算机)的情况下实现强化学习。
发明内容
按照一个实施方式,提供了一种机器控制装置,该机器控制装置具有第一数据处理设备,该第一数据处理设备具有第一中央处理单元,该第一中央处理单元被设立为实现控制代理,该控制代理被设立为选择针对机器的控制行动。第一数据处理设备还具有至该机器的控制接口,该控制接口被设立为向该机器传送用于实施所选择的控制行动的控制指令并且从该机器接收过程和环境数据(例如传感器数据),这些过程和环境数据包含关于该机器的状态和/或该机器的环境的状态信息。该机器控制装置还具有第二数据处理设备,该第二数据处理设备具有用于与第一数据处理设备进行通信的数据通信接口,其中该数据通信接口被设立为从第一数据处理设备接收这些状态信息。第二数据处理设备具有第二中央处理单元,该第二中央处理单元被设立为实现控制代理的副本。第二数据处理设备附加地具有一个或多个图形处理器和/或一个或多个张量处理器,其中第二中央处理单元被设立为:借助于所述一个或多个图形处理器和/或所述一个或多个张量处理器在使用这些状态信息的情况下通过强化学习来确定控制代理的副本的更新。第二数据处理设备被设立为将该更新传送给第一数据处理设备,而且第一数据处理设备被设立为根据所确定的更新来对由该第一数据处理设备实现的控制代理进行更新。
上述机器控制装置能够将强化学习(Reinforcement Learning)应用于真实世界中的过程并且能够自动且连续地改善对这些过程的控制。该机器控制装置不需要更改控制设备(第一数据处理设备),如该控制设备例如在生产车间中被提供的那样,因为在保持该控制设备的情况下可以用性能更卓越的第二数据处理设备来进行补充。仅需要实现(用于数据通信接口的)通信网络、例如本地(可能是无线的)网络,以便提供在这两个数据处理设备之间的通信。因此,如果存在现有的机器的控制设备可以与附加的处理资源进行通信、也就是说相对应的连通性能够将RL任务(控制和训练)分发到不同设备上的可能性,则按照上述机器控制装置的做法可以被应用于这些现有的机器。
因此,按照上述机器控制装置的做法允许继续使用现有的机器(例如机器人)并且允许对这些现有的机器的升级,使得这些现有的机器基于RL连续地自动地学习,而无需更改这些现有的机器。这节约了成本和花费并且促进了可持续性。
上述机器控制装置尤其能够实现所谓的在线学习。这表示实时学习,其中控制设备可以直接访问受控系统的状态信息流并且可以对这些状态信息进行处理。通常在其中受控系统的不确定因素不能足够精确地在仿真环境中被建模的应用中,需要这种在线学习。
由提供状态信息和更新控制代理构成的循环可以在不妨碍或停止受控过程的情况下不间断地进行。
在下文说明不同的实施例。
实施例1是上述机器控制装置。
实施例2是根据实施例1所述的机器控制装置,其中该控制代理和该控制代理的副本分别借助于一个或多个神经网络来被实现,并且对强化学习的执行具有对所述一个或多个神经网络的训练。
尤其是对神经网络的训练需要大量的计算资源,并且能够通过将控制和训练分发到两个数据处理设备上来被实现。
实施例3是根据实施例2所述的机器控制装置,其中对该控制代理的副本的更新是对该控制代理的副本的权重的更新,并且第二数据处理设备被设立为将被更新的权重传送给第一数据处理设备。
对这些权重的传送能够实现对控制代理的简单更新,该更新可以快速被执行,使得控制不需要被中断。
实施例4是根据实施例1至3中任一项所述的机器控制装置,该机器控制装置具有状态信息缓冲器,该状态信息缓冲器被设立为收集这些状态信息,而且其中第二中央处理单元被设立为:如果所收集的状态信息的量已经达到了阈值,则在使用这些所收集的状态信息的情况下确定该控制代理的副本的更新。
因此,第一数据处理设备可以连续地传送状态信息,并且如果对于适当的训练循环来说存在足够的数据(例如一定数目的部分训练数据集(小批量(Mini-Batches)),则第二数据处理设备可以执行该适当的训练循环。
实施例5是一种用于控制机器的方法,该方法具有:通过由第一数据处理设备所实现的控制代理,选择针对机器的控制行动;通过所述第一数据处理设备将用于实施所选择的控制行动的控制指令传送给所述机器;通过所述第一数据处理设备,从所述机器接收过程和环境数据,所述过程和环境数据包含关于所述机器的状态和/或所述机器的环境的状态信息;将所述状态信息从所述第一数据处理设备传送给第二数据处理设备;其中所述第二数据处理设备实现所述控制代理的副本;借助于一个或多个图形处理器和/或一个或多个张量处理器,在使用所述状态信息的情况下确定所述控制代理的副本的更新;将所述更新从所述第二数据处理设备传送给所述第一数据处理设备;而且根据所确定的更新来对由所述第一数据处理设备所实现的控制代理进行更新。
实施例6是一种计算机程序,其具有程序指令,当这些程序指令由一个或多个处理器来实施时,这些程序指令使所述一个或多个处理器执行根据实施例5所述的方法。
实施例7是一种计算机可读存储介质,在其上存储有程序指令,当这些程序指令由一个或多个处理器来实施时,这些程序指令使所述一个或多个处理器执行根据实施例5所述的方法。
结合该机器控制装置所描述的实施例类似地适用于用于控制机器的方法。
附图说明
本发明的实施例在附图中被示出并且在下文详细地予以阐述。在附图中,相同的附图标记在多个视图中各处通常都涉及相同的部分。这些附图不一定比例正确,其中重点反而通常在于呈现本发明的原理。
图1示出了机器人设备。
图2示出了按照一个实施方式的机器控制装置。
图3示出了按照另一实施方式的机器控制装置。
图4示出了按照一个实施方式的用于控制机器的方法。
具体实施方式
不同的实施方式、尤其是下文描述的实施例可以借助于一个或多个电路来被实现。在一个实施方式中,“电路”可以被理解为任何类型的逻辑实现实体,该逻辑实现实体可以是硬件、软件、固件或它们的组合。因而,在一个实施方式中,“电路”可以是硬接线逻辑电路或可编程逻辑电路,诸如可编程处理器、例如微处理器。“电路”也可以是由处理器实现或实施的软件、例如任何类型的计算机程序。根据一个替选的实施方式,相应的功能的任何其它类型的实现方案都可以被理解为“电路”,这些相应的功能在下文更详细地予以描述。
图1示出了机器人设备100。
机器人设备100具有机器人101,例如用于操作或安装工件或者一个或多个其它对象114的工业机器人臂。机器人101具有操纵器102、103、104和基座(例如托座)105,该基座承载这些操纵器102、103、104。术语“操纵器”涉及机器人101的可移动部分,对这些可移动部分的操纵能够实现与环境的物理交互,例如用于执行任务。为了控制该机器人,机器人设备100包含(机器人)控制设备106,该(机器人)控制设备被配置为使得该(机器人)控制设备根据控制程序来实现与周围环境(英文environment)的交互。操纵器102、103、104的最后一个链节104(离托座105最远)也被称为末端执行器(Endeffektor)104,并且可包含一个或多个工具,如焊炬、抓具、喷漆装置等等。
其它操纵器102、103(更靠近基座105)可形成定位设备,使得在其端部具有末端执行器104的机器人101与末端执行器104一起被提供。机器人101是机械臂,该机械臂可以完成与人类手臂类似的功能(可能利用在其端部处的工具)。
机器人101可包含链节元件107、108、109,这些链节元件使操纵器102、103、104彼此连接并且与托座105连接。链节元件107、108、109可具有一个或多个链节,所述一个或多个链节中的每个链节都可以实现所属的操纵器相对于彼此的旋转运动(也就是说转动运动)和/或平移运动(也就是说位移)。操纵器102、103、104的运动可以借助于执行机构(Aktor)来引起,这些执行机构由控制设备106来控制。
术语“执行机构”可以被理解成如下组件,该组件被设立为使得该组件响应于操控来影响机制或过程。该执行机构可以将由控制设备106输出的命令(所谓的激活)转化成机械运动。该执行机构、例如机电转换器可以被配置为使得该执行机构响应于该操控将电能转换成机械能。
机器人101可具有传感器113(例如一个或多个摄像机、位置传感器等等),这些传感器被设立为:确定机器人和一个或多个被操纵的对象114(也就是说环境,英文environment)的状态,如该状态从对执行机构的操控和机器人的所产生的运动中得出的那样。
在当前示例中,控制设备106具有存储器111和一个或多个处理器110,该存储器存储程序代码和数据,处理器110依据这些程序代码和数据来控制机器人101。根据不同的实施方式,控制设备106控制由控制装置所实现的控制代理112的机器人101,该控制代理又实现控制方针。
生成控制方针的途径是强化学习,英文Reinforcement Learning(RL)。强化学习的特点在于试错(Trial-and-Error)搜索和延迟奖励。不同于需要标签(英文labels)来进行训练的神经网络的监督学习,RL使用试错机制,以便学习将状态分配给行动,使得被称为回报(英文return)的强化信号被最大化。通过试错,在RL的情况下尝试找出引起更高奖励的行动,其方式是对这些行动进行试验。行动的选择不仅影响当前状态的奖励,而且影响所有即将到来的状态的奖励。深度强化学习(Deep Reinforcement Learning,DRL)是指使用监督学习,以便对可以估计回报或者可以将状态直接映射到行动的神经网络进行训练。
对复杂性足够的KI(人工智能)模型的训练需要数据处理设备,所述数据处理设备具有“强”数据处理组件,如图形处理器(英文graphics processing units,GPUs)或者张量处理器(英文tensor processing units,TPUs)。例如在用于在生产过程中控制机器人101的生产车间中的被用作机器控制设备106的数据处理设备、例如工业PC(IPC),通常并不具有在这个意义上来说“强的”数据处理组件。
通常,通过离线训练来解决在例如在生产车间中的只能实施(但是不能训练)KI模型的“弱”数据处理组件与为了训练这种KI模型所需的“强”数据处理组件之间的差异。也就是说,在生产车间中(或者在使用机器人或者一般来说机器的其它地点)收集到了大量训练数据之后,KI模型利用这些数据在位于另一地点(因而称为“offline(离线)”)的“强”数据处理设备(也就是说具有强数据处理组件的数据处理设备)上被训练,直至KI模型的性能令人满意为止。接着,该KI模型在“弱”数据处理设备(也就是说没有强数据处理组件的数据处理设备)上例如在生产车间中被使用并且在运行时在较长的时间段跨度上被使用。
然而,该方案不能应用于典型的RL方法。学习控制真实世界中的过程或者改善对真实世界中的过程的控制的RL代理需要来自该过程的不断的反馈。该反馈以过程状态序列和与之相关联的奖励为形式向RL代理显示该RL代理的操作的结果。
按照不同的实施方式,该问题通过特定的数据处理基础设施来被解决,该数据处理基础设施提供了将RL代理复制带控制代理和训练代理中并且提供在这两个代理之间的动态交互。
图2示出了按照一个实施方式的机器控制装置200。
机器控制装置200具有弱数据处理设备201,该弱数据处理设备例如实现SoftSPS204(也就是说以软件为形式的存储器可编程控制器)并且包括PC,如工业PC、嵌入式PC或者盒式PC(Box-PC)。因此,该弱数据处理设备201仅具有中央处理单元(CPU),但是没有适合于训练KI模型的协处理器,也就是说没有可以比CPU更快地实施对KI模型的训练(例如对RL代理的训练)的协处理器。弱数据处理设备201例如对应于控制设备106。
机器控制装置200还具有强数据处理设备202,也就是说具有一个或多个协处理器的数据处理设备,所述一个或多个协处理器相对于弱数据处理设备201的CPU而言(而且必要时也相对于强数据处理设备202的CPU而言)可以更快地执行对KI模型的训练。所述一个或多个协处理器例如是一个或多个图形处理器或者一个或多个张量处理器。
弱数据处理设备201将控制指令发送给机器人203。每个控制指令(该控制指令可包含针对一个或多个执行机构的控制信号)通过行动来给出,该行动针对环境的当前状态(机器人加上被操纵的对象、工作区等等)由RL控制代理205来选择,该RL控制代理由弱数据处理设备201来实现。反过来,弱数据处理设备201从机器人203获得信息(也就是说过程和环境数据,例如传感器数据),这些信息说明了环境的接下来到达的状态。这些信息在下文也被称作状态信息。
强数据处理设备202实现RL训练代理206。弱数据处理设备201和强数据处理设备202经由通信接口来连接,其中在该示例中在强数据处理设备202的一侧,从弱数据处理设备201到强数据处理设备202的通信方向由输入端通信接口组件207来实现,并且从强数据处理设备201到弱数据处理设备202的通信方向由输出端通信接口组件208来实现。
这些通信接口组件207、208中的每个通信接口组件都例如借助于UMC(UniversalMachine Connector(通用机器连接器))来被实现。这是一种可以将不同类型的数据源与不同类型的数据接收器(Datensenke)连接的设备。在图2的示例中,实现第一通信接口组件207的第一UMC将作为数据源的SoftSPS 204与作为数据接收器的强数据处理设备202的存储器209连接,并且实现第二通信接口组件208的第二UMC将作为数据源的存储器209与作为数据接收器的SoftSPS 204连接。
存储器209尤其是存储状态信息(也就是关于环境的状态的数据),也就是说实现针对状态信息的缓冲器或数据库,这些状态信息由弱数据处理设备201提供给强数据处理设备202。
强数据处理设备202的训练控制单元210监控在存储器209中的状态信息(尤其是还未被考虑用于训练RL训练代理206的状态信息的集合)。如果这些状态信息满足一定条件(例如还未被考虑用于训练RL训练代理206的状态信息的量超过阈值),则训练控制单元210在使用这些状态信息(尤其是到目前为止(也就是说在先前的训练遍历中)未被RL训练代理206考虑用于该训练的状态信息)的情况下开始RL训练代理的训练遍历。在该训练之后,RL训练代理提供RL代理的参数,并且训练控制单元210将这些参数存储在存储器209中。第二通信接口组件208将这些参数提供给SoftSPS 204,该SoftSPS利用这些参数来对RL控制代理205进行更新。
由RL控制代理和RL训练代理来实现并且由训练控制单元来训练的RL代理可以是任意的RL模型,诸如Actor-Critic(演员-评论家)模型。在这种情况下,这些参数是实现Actor的神经网络的权重和实现Critic的神经网络的权重。
输入端通信接口组件207例如可以监控存在于弱数据处理设备201上的状态信息,而且当这些状态信息发生变化时调用这些状态信息并且将这些状态信息传输到存储器209。输出端通信接口组件208可以监控在存储器209中的RL代理参数,并且当这些RL代理参数发生变化(也就是说被训练控制单元210更新)时被传输(转发)给弱数据处理设备201。
因此,按照不同的实施例,弱数据处理设备201和强数据处理设备202借助于用于处理状态信息的缓冲器来动态地连接。
RL控制代理例如通过RL代理的编译版本来被形成。RL训练代理例如通过RL代理的原始代码来被形成。在Actor-Critic模型的情况下,RL控制代理例如当其必须确定所要实施的行动时只包含RL代理的Actor部分。RL训练代理不仅实现Actor而且实现Critic。
因此,按照不同的实施方式,使用具有相同知识水平的两个RL代理。这些RL代理中的一个RL代理(由控制代理205实现)负责对机器人203的持续控制,而另一个RL代理(由RL训练代理来实现)被训练控制单元210用于(通过强化学习)进行该训练。
两个RL代理205、206同时(同步)运行。在RL控制代理205(例如针对制造过程)控制该机器人期间,训练控制单元210对其RL代理的版本进行训练,以便改善该控制的性能。状态信息被持续传输给存储器209。训练控制单元210从该缓冲器中提取训练数据集(批量)并且针对每个集执行RL训练代理的训练遍历。一旦训练遍历结束,所得到的(经训练的)RL代理的参数就被转移到RL控制代理并且被实现,使得可以在不中断的情况下执行该控制。
从RL代理的角度看是响应于控制行动而发生变化的环境(environment)或受控系统的受控(例如制造)过程具有当前状态。RL控制代理205读取该状态并且按照由该RL控制代理实现的控制方针(policy)来生成用于控制机器人201(并且借此控制该过程)的行动。响应于该行动,环境到达新状态。被RL控制代理205应用的控制方针通过该RL控制代理的参数来被确定(例如实现Actor的神经网络的权重)。
输入端通信接口组件207收集关于状态的信息并且将这些信息存储在存储器209中。如果在存储器209中存在关于所说明的数目的新(也就是说尚未被用于训练流程的)状态的信息,则训练控制单元210提取关于这些状态的信息并且在使用这些信息的情况下对RL训练代理206进行训练,以便改善该RL训练代理的控制性能。
例如当满足一定的性能标准(或者已执行了一定数目的训练迭代)时,训练控制单元210结束训练遍历,读取RL代理的新的、从该训练遍历中得到的版本的参数,并且将这些参数写入存储器209。替选地,训练控制单元210也可以将这些参数直接传输给弱数据处理设备201。
RL控制代理205在运行时更新其参数并且利用被更新的参数来继续该控制。以这种方式,RL控制代理205继承了由RL训练代理206实现的经改善的性能。
通过重复地执行该训练过程(收集状态信息、执行训练遍历、更新RL控制代理),该控制的性能连续并且自动化地被改善。
例如针对新的过程(对其来说尚不存在控制),可以设计传统的标准控制设备。RL代理通过该标准控制设备来被初始化并且被用于该控制以及对控制性能的改善。通常,可以通过RL代理来改善现有的控制。
在下文中,以用于将上述做法应用于Actor-Critic模型的伪代码来说明算法(“Algorithmus 1(算法1)”),其中针对Actor附加地设置靶标Actor(Target-Actor)并且针对Critic附加地设置靶标Critic(Target-Critic)。使用如下符号:
M:训练迭代(也就是说训练遍历)的总数
J:在训练遍历中Actor和Critic的更新的总数
N:在部分训练数据集(小批量(Mini-Batch))中状态转变的数目
d:Actor网络更新靶标网络(靶标Actor和靶标Critic)的频率
yi:行动价值目标
概况来说,按照不同的实施方式,提供了如在图3中示出的机器控制装置。
图3示出了按照一个实施方式的机器控制装置300。
机器控制装置300具有第一数据处理设备301,该第一数据处理设备具有第一中央处理单元(CPU)302,该第一中央处理单元被设立为实现控制代理,该控制代理被设立为选择针对机器303的控制行动。
第一数据处理设备301还具有至该机器303的控制接口304,该控制接口被设立为向该机器303传送用于实施所选择的控制行动的控制指令并且从该机器303接收过程和环境数据(例如传感器数据),这些过程和环境数据包含关于该机器的状态和/或该机器的环境的状态信息。
机器控制装置300还具有第二数据处理设备305,该第二数据处理设备具有用于与第一数据处理设备301进行通信的数据通信接口306,其中该数据通信接口306被设立为从第一数据处理设备301接收这些状态信息;
第二数据处理设备305具有第二中央处理单元307,该第二中央处理单元被设立为实现控制代理的副本。
第二数据处理设备307附加地具有一个或多个图形处理器308和/或一个或多个张量处理器309。
第二中央处理单元(CPU)307被设立为:借助于所述一个或多个图形处理器308和/或所述一个或多个张量处理器309在使用这些状态信息的情况下通过强化学习来确定控制代理的副本的更新。
第二数据处理设备305被设立为:(例如借助于数据通信接口306)将该更新传送给第一数据处理设备。
第一数据处理设备301被设立为:根据所确定的更新来对由该第一数据处理设备所实现的控制代理进行更新(并且将该控制代理用于对机器303的进一步控制)。
换言之,对被第一数据处理设备用于控制机器的控制代理的训练由第二数据处理设备来执行,该第二数据处理设备与第一数据处理设备相比包含用于执行强化学习的附加的计算资源。
该机器控制装置可以被用于对任何过程的控制,这些过程通过状态序列来被表示并且通过行动序列来被控制。该机器控制装置例如处理具有其通过传感器信号获得的状态向量的时间序列,并且使用该时间序列,以便计算针对物理系统的控制信号。例如,该机器控制装置控制机器,其中机器可以被理解成任何(具有其运动被控制的机械部分的)物理系统,如机器人、车辆、家用电器、电动工具、生产机器、私人助理或门禁系统。
第一数据处理设备和第二数据处理设备可以彼此分开地(例如彼此分开几米、例如超过10m、20m、50m或100m)布置,例如布置在工厂的不同房间中,例如布置在生产车间(第一数据处理设备)或工厂设施的服务器机房(第二数据处理设备)中。这两个数据处理设备之间的距离最终只受限于数据通信速度。只要连接允许这两个数据处理设备能够足够快地彼此进行通信,这些数据处理设备就也可以彼此离得非常远,例如第二数据处理设备位于与第一数据处理设备不同的国家的中央计算中心中。因此,实施方式并不限于“单一工厂解决方案”。
图形处理器可以被理解成计算机等等的专门从事图形计算并且针对图像计算被优化的(协)处理器。张量处理器可以被理解成协处理器,该协处理器专门从事在机器学习的框架内对数据的处理、尤其是在人工神经网络中对数据的处理(并且针对此被优化)。
图4示出了按照一个实施方式的用于控制机器的方法。
该方法具有如下步骤:
在401中,通过由第一数据处理设备所实现的控制代理,选择针对机器的控制行动;
在402中,通过第一数据处理设备将用于实施所选择的控制行动的控制指令传送给该机器;
在403中,通过第一数据处理设备,从该机器接收过程和环境数据,这些过程和环境数据包含关于该机器的状态和/或该机器的环境的状态信息;
在404中,将这些状态信息从第一数据处理设备传送给第二数据处理设备,其中第二数据处理设备实现该控制代理的副本;
在405中,借助于一个或多个图形处理器和/或一个或多个张量处理器,在使用这些状态信息的情况下确定该控制代理的副本的更新;
在406中,将该更新从第二数据处理设备传送给第一数据处理设备;而且
在407中,根据所确定的更新来对由第一数据处理设备所实现的控制代理进行更新。
按照一个实施方式,该方法是计算机实现的。
尽管本发明主要是在参考特定实施方式的情况下被展示和描述的,但是本领域技术人员应该理解:可以在不脱离本发明的如通过随后的权利要求书限定的精神和范围的情况下关于其设计方案和细节进行大量更改。因而,本发明的范围通过随附的权利要求书来被确定,而且意图涵盖落入权利要求书的字面含义或等效范围的全部更改。
Claims (7)
1.一种机器控制装置,其具有:
第一数据处理设备,所述第一数据处理设备具有第一中央处理单元,所述第一中央处理单元被设立为实现控制代理,所述控制代理被设立为选择针对机器的控制行动;
其中所述第一数据处理设备还具有至所述机器的控制接口,所述控制接口被设立为向所述机器传送用于实施所选择的控制行动的控制指令;并且从所述机器接收过程和环境数据,所述过程和环境数据包含关于所述机器的状态和/或所述机器的环境的状态信息;
第二数据处理设备,所述第二数据处理设备具有用于与所述第一数据处理设备进行通信的数据通信接口,其中所述数据通信接口被设立为从所述第一数据处理设备接收所述状态信息;
其中所述第二数据处理设备具有第二中央处理单元,所述第二中央处理单元被设立为实现所述控制代理的副本;
而且其中所述第二数据处理设备附加地具有一个或多个图形处理器和/或一个或多个张量处理器;
其中所述第二中央处理单元被设立为:借助于所述一个或多个图形处理器和/或所述一个或多个张量处理器在使用所述状态信息的情况下通过强化学习来确定所述控制代理的副本的更新;
其中所述第二数据处理设备被设立为将所述更新传送给所述第一数据处理设备;而且
其中所述第一数据处理设备被设立为根据所确定的更新来对由所述第一数据处理设备实现的控制代理进行更新。
2.根据权利要求1所述的机器控制装置,其中所述控制代理和所述控制代理的副本分别借助于一个或多个神经网络来被实现,并且对强化学习的执行具有对所述一个或多个神经网络的训练。
3.根据权利要求2所述的机器控制装置,其中对所述控制代理的副本的更新是对所述控制代理的副本的权重的更新,并且所述第二数据处理设备被设立为将被更新的权重传送给所述第一数据处理设备。
4.根据权利要求1至3中任一项所述的机器控制装置,所述机器控制装置具有状态信息缓冲器,所述状态信息缓冲器被设立为收集所述状态信息,而且其中所述第二中央处理单元被设立为:如果所收集的状态信息的量已经达到了阈值,则在使用所收集的状态信息的情况下确定所述控制代理的副本的更新。
5.一种用于控制机器的方法,所述方法具有:
通过由第一数据处理设备所实现的控制代理,选择针对机器的控制行动;
通过所述第一数据处理设备将用于实施所选择的控制行动的控制指令传送给所述机器;
通过所述第一数据处理设备,从所述机器接收过程和环境数据,所述过程和环境数据包含关于所述机器的状态和/或所述机器的环境的状态信息;
将所述状态信息从所述第一数据处理设备传送给第二数据处理设备;
其中所述第二数据处理设备实现所述控制代理的副本;
借助于一个或多个图形处理器和/或一个或多个张量处理器,在使用所述状态信息的情况下确定所述控制代理的副本的更新;
将所述更新从所述第二数据处理设备传送给所述第一数据处理设备;而且
根据所确定的更新来对由所述第一数据处理设备实现的控制代理进行更新。
6.一种计算机程序,其具有程序指令,当所述程序指令由一个或多个处理器来实施时,所述程序指令使所述一个或多个处理器执行根据权利要求5所述的方法。
7.一种计算机可读存储介质,在其上存储有程序指令,当所述程序指令由一个或多个处理器来实施时,所述程序指令使所述一个或多个处理器执行根据权利要求5所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020210823.4 | 2020-08-27 | ||
DE102020210823.4A DE102020210823A1 (de) | 2020-08-27 | 2020-08-27 | Maschinen-Steueranordnung |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114114902A true CN114114902A (zh) | 2022-03-01 |
Family
ID=80221158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110988132.XA Pending CN114114902A (zh) | 2020-08-27 | 2021-08-26 | 机器控制装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12032343B2 (zh) |
CN (1) | CN114114902A (zh) |
DE (1) | DE102020210823A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115319741A (zh) * | 2022-08-05 | 2022-11-11 | 美的集团(上海)有限公司 | 机器人控制模型的训练方法和机器人控制方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11992945B2 (en) * | 2020-11-10 | 2024-05-28 | Google Llc | System and methods for training robot policies in the real world |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115338859A (zh) | 2016-09-15 | 2022-11-15 | 谷歌有限责任公司 | 机器人操纵的深度强化学习 |
CN110753936A (zh) * | 2017-08-25 | 2020-02-04 | 谷歌有限责任公司 | 批量强化学习 |
BR112021005358A2 (pt) * | 2018-12-13 | 2021-06-15 | Andritz Inc. | controlador de instalação industrial |
-
2020
- 2020-08-27 DE DE102020210823.4A patent/DE102020210823A1/de active Pending
-
2021
- 2021-08-10 US US17/398,320 patent/US12032343B2/en active Active
- 2021-08-26 CN CN202110988132.XA patent/CN114114902A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115319741A (zh) * | 2022-08-05 | 2022-11-11 | 美的集团(上海)有限公司 | 机器人控制模型的训练方法和机器人控制方法 |
CN115319741B (zh) * | 2022-08-05 | 2023-10-10 | 美的集团(上海)有限公司 | 机器人控制模型的训练方法和机器人控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220066401A1 (en) | 2022-03-03 |
US12032343B2 (en) | 2024-07-09 |
DE102020210823A1 (de) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6445964B1 (en) | Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine | |
CN114114902A (zh) | 机器控制装置 | |
US11975451B2 (en) | Simulation-in-the-loop tuning of robot parameters for system modeling and control | |
JP2022061022A (ja) | 力及びトルク誘導ロボット組立のための技術 | |
KR102522511B1 (ko) | 다자유도 로봇 제어방법 및 시스템 | |
KR20220155921A (ko) | 로봇 디바이스를 제어하기 위한 방법 | |
CN115916477A (zh) | 机器人演示学习的技能模板分发 | |
Mower et al. | ROS-PyBullet Interface: A framework for reliable contact simulation and human-robot interaction | |
Škulj et al. | An architecture for sim-to-real and real-to-sim experimentation in robotic systems | |
Liu et al. | Cognitive modeling for robotic assembly/maintenance task in space exploration | |
Mukhtar et al. | A control structure for ambidextrous robot arm based on Multiple Adaptive Neuro‐Fuzzy Inference System | |
Yang et al. | Data Driven Vibration Control: A Review | |
KR20210090098A (ko) | 로봇 제어 장치 및 로봇 제어 방법 | |
US20210122038A1 (en) | Method and device for ascertaining control parameters in a computer-assisted manner for a favorable action of a technical system | |
Zou et al. | Development of robot programming system through the use of augmented reality for assembly tasks | |
Nambiar et al. | Automation of unstructured production environment by applying reinforcement learning | |
US20240054393A1 (en) | Learning Device, Learning Method, Recording Medium Storing Learning Program, Control Program, Control Device, Control Method, and Recording Medium Storing Control Program | |
Santo et al. | Collaborative control of mobile manipulator robots through the hardware-in-the-loop technique | |
Santos et al. | Simulation Case Study for Improving Painting Tires Process Using the Fanuc Roboguide Software | |
Fekik et al. | FPGA in the loop implementation of the PUMA 560 robot based on backstepping control | |
Park et al. | Enhancement of control performance for degraded robot manipulators using digital twin and proximal policy optimization | |
KR102673389B1 (ko) | 데이터 기반 로봇 회화 작업을 자동화하기 위한 방법, 컴퓨터 시스템, 및 컴퓨터 프로그램 | |
Guo et al. | Adaptive Biological Neural Network Control and Virtual Realization for Engineering Manipulator | |
Lee et al. | A probabilistic motion control approach for teleoperated construction machinery | |
Wang et al. | DOREP 2.0: An Upgraded Version of Robot Control Teaching Experimental Platform with Reinforcement Learning and Visual Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |