CN111860777A - 面向超实时仿真环境的分布式强化学习训练方法及装置 - Google Patents

面向超实时仿真环境的分布式强化学习训练方法及装置 Download PDF

Info

Publication number
CN111860777A
CN111860777A CN202010642373.4A CN202010642373A CN111860777A CN 111860777 A CN111860777 A CN 111860777A CN 202010642373 A CN202010642373 A CN 202010642373A CN 111860777 A CN111860777 A CN 111860777A
Authority
CN
China
Prior art keywords
simulation environment
time simulation
super real
action
actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010642373.4A
Other languages
English (en)
Other versions
CN111860777B (zh
Inventor
徐新海
刘逊韵
李渊
李晟泽
李豪
张帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Institute of War of PLA Academy of Military Science
Original Assignee
Research Institute of War of PLA Academy of Military Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Institute of War of PLA Academy of Military Science filed Critical Research Institute of War of PLA Academy of Military Science
Priority to CN202010642373.4A priority Critical patent/CN111860777B/zh
Publication of CN111860777A publication Critical patent/CN111860777A/zh
Application granted granted Critical
Publication of CN111860777B publication Critical patent/CN111860777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种面向超实时仿真环境的分布式强化学习训练方法及装置,所述方法包括:通过将超实时仿真环境与行动器部署在同一台虚拟机上,并控制超实时仿真环境在向所述行动器发送环境观察时添加包含有动作指令最晚反馈时间限制信息的附加信息戳,控制行动器根据环境观察输出动作决策并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断若动作指令未在动作指令最晚反馈时间限制内发送至超实时仿真环境,则控制行动器暂停超实时仿真环境的运行直至行动器将动作指令发送至所述超实时仿真环境,从而能够缩短分布式强化学习框架的决策流程时长,避免因过长决策延时导致下达动作指令失效。

Description

面向超实时仿真环境的分布式强化学习训练方法及装置
技术领域
本发明涉及分布式强化学习技术领域,尤其涉及一种面向超实时仿真环境的分布式强化学习训练方法及装置。
背景技术
深度强化学习(Deep Reinforcement Learning,简称“DRL”)通过使用深层网络来表示估值函数、策略和模型,实现了由神经网络驱动的端到端学习。深度强化学习使得强化学习技术真正应用在现实场景中,解决如自然语言处理、机器人控制、资源调度、性能优化、仿真模拟、游戏博弈等领域的复杂问题。
然而,日益复杂的应用问题也极大地增加了深度强化学习的训练难度,导致计算资源消耗量的急速增长。受制于功耗与工艺进步的限制,单台计算设备的CPU、GPU性能提升日趋缓慢,已经远远无法满足深度强化学习大规模试错的要求。因此系统整体算力的提高必须借助于分布式集群与分布式强化学习框架,通过分布式计算的方式来满足深度强化学习训练飞速增长的性能需求。另一方面,目前的深度强化学习技术还不能普及到考虑逻辑推理与情感分析的复杂现实场景,因此拥有一个适当抽象的仿真环境是开展强化学习训练的重要基础。仿真环境负责为智能体构建一个虚拟的世界,为其设定具体任务目标,并为不同的试验行为提供反馈以及奖励机制等等。
然而,当深度强化学习应用于超实时仿真环境中时,仿真时钟显著快于实际物理时钟,即模型仿真的解算速度可快于实际系统运行的速度数十倍甚至数百倍。若在现实场景下,实体需在数秒钟的物理时间内做出决策与动作,那运行在超实时仿真环境中的智能体则需要在毫秒级的延时内从环境获取观察,做出决策,并下达相应动作指令。现有的分布式强化学习框架的决策流程耗时长,获取观察、奖励以及下达动作指令的延迟较高。这往往导致动作指令到达环境后,环境状态与指令执行的上下文已经发生了重大改变,此时继续执行过时的动作指令将无法实现预期的效果。
因此,如何提出一种方法,能够缩短分布式强化学习框架的决策流程时长,降低获取动作指令的延迟,从而应用于超实时仿真环境,成为亟待解决的问题。
发明内容
本发明实施例提供一种面向超实时仿真环境的分布式强化学习训练方法及装置,用以解决现有技术中分布式强化学习框架的决策流程时长的缺陷,实现降低获取动作指令的延迟,从而应用于超实时仿真环境。
本发明实施例提供一种面向超实时仿真环境的分布式强化学习训练方法,所述方法应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
将所述超实时仿真环境与所述行动器部署在同一台虚拟机上;
控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息;
控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,所述动作指令最晚反馈时间限制信息包括:当前仿真时间t、当前仿真加速比s以及动作指令最晚允许执行时间d;相应地,控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,包括:
控制所述行动器根据所述动作指令最晚反馈时间限制信息确定所述行动器用于决策的墙钟时间w=(d-t)/s;
控制所述行动器判断所述动作指令是否在所述墙钟时间w内发送至所述超实时仿真环境。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境,包括:
控制所述行动器生成主线程和计时线程;
控制所述主线程执行根据所述环境观察输出动作决策并将所述动作决策转换为动作指令以及向所述超实时仿真环境发送动作指令的处理过程;
控制所述计时线程执行所述墙钟时间的倒计时处理过程;
判断所述计时线程是否早于所述主线程结束,若是,则在所述计时线程的结束时刻控制所述行动器暂停所述超实时仿真环境的运行直至所述主线程将所述动作指令发送至所述超实时仿真环境。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,所述系统还包括:参数服务器和私有云;所述训练单元还包括:学习器和回放存储器;
相应地,将所述超实时仿真环境与所述行动器部署在同一台虚拟机上,包括:
向OpenStack请求虚拟化资源,为所述参数服务器配备一台虚拟机;
按照每个训练单元配备两台虚拟机的比例,向OpenStack请求虚拟化资源,使得所述超实时仿真环境和所述行动器共享一台虚拟机,以及,使得所述学习器和所述回放存储器共享一台虚拟机;
为与所述参数服务器对应的虚拟机、与所述超实时仿真环境和所述行动器对应的虚拟机、以及与所述学习器和所述回放存储器对应的虚拟机,创建集群虚拟网络并生成访问密钥对;
设置安全组规则,并允许通过ssh端口访问所述集群虚拟网络;
为与所述参数服务器对应的虚拟机加载“参数服务器镜像”,为与所述超实时仿真环境和所述行动器对应的虚拟机加载超实时仿真环境-行动器镜像,以及,为与所述学习器和所述回放存储器对应的虚拟机加载回放存储器-学习器镜像,完成集群部署。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,所述超实时仿真环境采用编译型语言编写,所述行动器采用解释型语言编写;相应地,控制所述超实时仿真环境采用ICE RPC向所述行动器发送环境观察,以及,控制所述行动器采用ICERPC向所述超实时仿真环境发送动作指令。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,还包括:
获取所述行动器与所述超实时仿真环境交互产生的经验元组,并将所述经验元组以时序数据的方式存放在所述回放存储器中;其中,所述经验元组包括:环境观察、响应所述环境观察得到的动作指令、执行所述动作指令得到的回报,以及,对下一时刻状态的环境观察。
根据本发明一个实施例的面向超实时仿真环境的分布式强化学习训练方法,所述系统包括多个训练单元;相应地,所述方法还包括:
控制每个训练单元中的学习器从相应的回放存储器中解析预设时间段内产生的经验元组序列,并控制学习器计算用于每个经验元组的梯度,以及根据随机梯度下降法修改学习器的Q网络参数;
控制每个训练单元中的学习器将相应学习器的Q网络参数通过网络发送给所述参数服务器,并使得所述参数服务器综合各个训练单元中学习器的Q网络参数更新每个训练单元中的行动器和学习器。
本发明实施例还提供一种面向超实时仿真环境的分布式强化学习训练装置,所述装置应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
耦合部署单元,用于将所述超实时仿真环境与所述行动器部署在同一台虚拟机上;
时延报告单元,用于控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息;
进度控制单元,用于控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述面向超实时仿真环境的分布式强化学习训练方法的步骤。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述面向超实时仿真环境的分布式强化学习训练方法的步骤。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法及装置,通过将超实时仿真环境与行动器部署在同一台虚拟机上,并控制超实时仿真环境在向所述行动器发送环境观察时添加包含有动作指令最晚反馈时间限制信息的附加信息戳,控制行动器根据环境观察输出动作决策并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断若动作指令未在动作指令最晚反馈时间限制内发送至超实时仿真环境,则控制行动器暂停超实时仿真环境的运行直至行动器将动作指令发送至所述超实时仿真环境,从而能够缩短分布式强化学习框架的决策流程时长,降低获取动作指令的延迟,避免因过长决策延时导致下达动作指令失效。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练方法的流程示意图;
图2是本发明实施例提供的一种分布式强化学习训练总体架构图;
图3是本发明实施例提供的一种仿真进度控制流程图;
图4是本发明实施例提供的一种训练任务耦合部署的工作流程图;
图5是本发明实施例提供的一种基于ICE的超实时仿真环境与行动器交互流程图;
图6是本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练装置的结构示意图;
图7是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1-图5描述本发明实施例的面向超实时仿真环境的分布式强化学习训练方法。
图1是本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练方法的流程示意图,如图1所示,本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练方法,所述方法应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
步骤110、将所述超实时仿真环境与所述行动器部署在同一台虚拟机上。
具体地,图2是本发明实施例提供的一种分布式强化学习训练总体架构图,如图2所示,分布式强化学习系统包括:参数服务器、私有云如云计算平台(以下简称“OpenStack”)、以及一个或多个由超实时仿真环境、行动器、学习器以及回放存储器组成的训练单元。
从运行的角度来看,训练单元内的行动器与超实时仿真环境持续交互,由行动器维护一个深度神经网络即Q网络来选择待执行的动作。在这个交互过程中,超实时仿真环境持续获取特征化环境观察,并且将该观察作为输入交给行动器的深度神经网络,之后从行动器的深度神经网络中得到动作决策输出,并转化为动作指令作用到仿真环境中。
然而,在训练交互过程中,对操作与通信延迟敏感的主要是行动器与超实时仿真环境的交互过程。因此,本发明实施例通过将超实时仿真环境与行动器绑定部署在同一台虚拟机上,为高频率且对延迟敏感的交互操作省去网络传输开销。相较于传统方法中分布式强化学习框架未考虑低延迟通信所带来的训练任务部署需求,将超实时仿真环境与行动器部署在不同一台虚拟机上,本发明实施例减小了超实时仿真环境与行动器之间的网络传输开销,从而可以适用于仿真时钟显著快于实际物理时钟的超实时仿真环境。
步骤120、控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息。
具体地,控制超实时仿真环境向行动器不断发送观察得到的环境状态数据,为下一步动作指令提供决策输入。同时,超实时仿真环境在上报环境观察时,环境观察中有可以供行动器计算决策的墙钟时间的附加信息戳,附加信息戳中包含有动作指令最晚反馈时间限制信息。
步骤130、控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
具体地,超实时仿真环境带来了苛刻的响应延迟,在极端情况下(如仿真环境加速比过高、领域问题所允许的决策延迟过小等),行动器所需执行的一系列动作,包括接收当前环境观察,使用深度神经网络选择待执行动作,以及转换输出下达动作指令的总耗时可能超过响应延迟。因此行动器必须控制仿真环境的运行以避免动作指令失效,即通过控制行动器根据环境观察输出动作决策,并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,一旦行动器未能在动作指令最晚反馈时间限制内下达相应的动作指令给超实时仿真环境,那么该动作指令就将面临失效的风险,因此,本发明实施例中通过控制行动器暂停超实时仿真环境的运行,直至行动器将动作指令发送至超实时仿真环境。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过将超实时仿真环境与行动器部署在同一台虚拟机上,并控制超实时仿真环境在向所述行动器发送环境观察时添加包含有动作指令最晚反馈时间限制信息的附加信息戳,控制行动器根据环境观察输出动作决策并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断若动作指令未在动作指令最晚反馈时间限制内发送至超实时仿真环境,则控制行动器暂停超实时仿真环境的运行直至行动器将动作指令发送至所述超实时仿真环境,从而能够缩短分布式强化学习框架的决策流程时长,降低获取动作指令的延迟,避免因过长决策延时导致下达动作指令失效。
基于上述实施例的内容,作为一种可选实施例,所述动作指令最晚反馈时间限制信息包括:当前仿真时间t、当前仿真加速比s以及动作指令最晚允许执行时间d;相应地,控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,包括:
控制所述行动器根据所述动作指令最晚反馈时间限制信息确定所述行动器用于决策的墙钟时间w=(d-t)/s;
控制所述行动器判断所述动作指令是否在所述墙钟时间w内发送至所述超实时仿真环境。
具体地,为了计算行动器可以用来决策的墙钟时间w,动作指令最晚反馈时间限制信息中包含有仿真引擎提供当前仿真时间t、当前仿真加速比s,智能体模型则根据其类型与当前所处状态提供指令的最晚允许下达时间d,因此,行动器可以用来决策的墙钟时间为:w=(d-t)/s。
控制行动器判断动作指令是否在墙钟时间w内发送至所述超实时仿真环境,一旦行动器未能在时间w内下达相应指令,那么该指令就将面临失效的风险。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过计算墙钟时间,明确了仿真逻辑正确所应达到的速度要求,避免动作指令的下达延迟。
基于上述实施例的内容,作为一种可选实施例,控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境,包括:
控制所述行动器生成主线程和计时线程;
控制所述主线程执行根据所述环境观察输出动作决策并将所述动作决策转换为动作指令以及向所述超实时仿真环境发送动作指令的处理过程;
控制所述计时线程执行所述墙钟时间的倒计时处理过程;
判断所述计时线程是否早于所述主线程结束,若是,则在所述计时线程的结束时刻控制所述行动器暂停所述超实时仿真环境的运行直至所述主线程将所述动作指令发送至所述超实时仿真环境。
具体地,超实时仿真环境带来了苛刻的响应延迟。在极端情况下如仿真环境加速比过高、领域问题所允许的决策延迟过小,行动器所需执行的一系列动作,包括接收当前环境观察,使用行动器深度神经网络选择待执行动作,以及转换输出下达动作指令的总耗时可能超过响应延迟。因此,行动器必须主动暂停超实时仿真环境的运行以避免动作指令失效,同时行动器暂停超实时仿真环境应尽可能晚地介入,以避免对超实时仿真的性能造成过多影响。
图3是本发明实施例提供的一种仿真进度控制流程图,如图3所示,控制行动器生成主线程和计时线程,控制主线程执行根据环境观察输出动作决策并将动作决策转换为动作指令以及向超实时仿真环境发送动作指令的处理过程,控制计时线程执行墙钟时间的倒计时处理过程,即将墙钟时间作为参数输入计时线程进行倒计时,若计时线程结束即倒计时结束时行动器仍未向超实时仿真环境发送动作指令,则在计时线程的结束时刻控制行动器调用ice接口暂停超实时仿真环境的运行,直至主线程将动作指令发送至超实时仿真环境后,行动器再调用ice接口运行超实时仿真环境。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过控制行动器暂停超实时仿真环境的运行直至行动器将动作指令发送至超实时仿真环境,从而可以避免因过长时间决策延时导致下达动作指令失效。
基于上述实施例的内容,作为一种可选实施例,所述系统还包括:参数服务器和私有云;所述训练单元还包括:学习器和回放存储器;
相应地,将所述超实时仿真环境与所述行动器部署在同一台虚拟机上,包括:
向OpenStack请求虚拟化资源,为所述参数服务器配备一台虚拟机;
按照每个训练单元配备两台虚拟机的比例,向OpenStack请求虚拟化资源,使得所述超实时仿真环境和所述行动器共享一台虚拟机,以及,使得所述学习器和所述回放存储器共享一台虚拟机;
为与所述参数服务器对应的虚拟机、与所述超实时仿真环境和所述行动器对应的虚拟机、以及与所述学习器和所述回放存储器对应的虚拟机,创建集群虚拟网络并生成访问密钥对;
设置安全组规则,并允许通过ssh端口访问所述集群虚拟网络;
为与所述参数服务器对应的虚拟机加载“参数服务器镜像”,为与所述超实时仿真环境和所述行动器对应的虚拟机加载超实时仿真环境-行动器镜像,以及,为与所述学习器和所述回放存储器对应的虚拟机加载回放存储器-学习器镜像,完成集群部署。
具体地,图4是本发明实施例提供的一种训练任务耦合部署的工作流程图,如图4所示,训练任务的自动化耦合部署依赖于OpenStack与自动化运维工具(以下简称“Ansible”)实现,其中OpenStack提供集群虚拟化与镜像支持,Ansible提供脚本部署自动化工具。其工作流程如图4所示。训练任务的自动化耦合部署在有新的强化学习任务提交时运行,首先解析用户指令获取训练单元个数,并按照每个训练单元配备两台虚拟机的比例向OpenStack请求虚拟化资源。其次创建该集群的虚拟网络,生成访问密钥对,之后设置安全组规则,允许通过22号(ssh)端口访问集群。最后,依次为参数服务器虚拟机加载“参数服务器镜像”,为每个训练单元加载“超实时仿真环境-行动器镜像”以及“回放存储-学习器镜像”,完成集群部署。
通过镜像捆绑,每一个训练单元所包含的行动器与超实时仿真环境将被部署到同一台虚拟机上,且该虚拟机不再运行其他类型的任务以避免资源竞争,从而在软件部署层面上最大限度地降低超实时仿真环境与行动器的通信开销。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过将超实时仿真环境与行动器部署在同一台虚拟机上,在软件部署层面上降低了超实时仿真环境与行动器的通信开销。
基于上述实施例的内容,作为一种可选实施例,所述超实时仿真环境采用编译型语言编写,所述行动器采用解释型语言编写;相应地,控制所述超实时仿真环境采用ICERPC向所述行动器发送环境观察,以及,控制所述行动器采用ICE RPC向所述超实时仿真环境发送动作指令。
具体地,图5是本发明实施例提供的一种基于ICE的超实时仿真环境与行动器交互流程图,如图5所示,从实现的角度看,超实时仿真环境向行动器上报决策最大延时时间的过程需解决跨语言程序的高性能通信问题。考虑仿真性能因素,超实时仿真环境通常采用C/C++等编译型语言编写;而考虑开发便捷性与代码兼容性因素,行动器内的强化学习通常由Python、Perl等解释型语言编写。为满足跨语言、低延迟的通信要求,本发明实施例采用一种远程过程调用库ICE RPC,实现超实时仿真环境与行动器之间的观察上报与动作指令下达,Communicator.ice定义了动作指令最晚反馈时间限制信息数据处理函数的接口,server代码中定义了接口的实现。行动器作为函数调用的客户端,仅需要编写Client.py,用python代码即可实现观察的获取或指令的下达。其中,超实时仿真环境和行动器之间采用ICE RPC进行交互的详细处理过程如下:
(1)行动器作为客户端初始化ICE通信器,传入远程服务单元的名称、网络协议、IP以及端口,获取Comunicator的远程代理。然后通过checkedCast向下转型Comunicator的远程代理,获取调用接口指针。若接口指针不为null,则表示远程调用链接已建立,行动器可以使用调用接口指针,通过调用本地函数类似的方式调用超实时仿真环境所运行的远程函数。
(2)超实时仿真环境作为服务器端初始化ICE通信器,并处理初始化参数如连接超时,客户端连接池的数量等。然后,创建名为EnvAdapter的ICE ObjectAdapter适配器,并要求适配器使用缺省的协议(TCP/IP端口为10000或其他空闲端口)。接着,为Communicator接口创建实例化一个Comunicator ICE对象,并将该对象添加至EnvAdapter适配器中。对象添加完毕后,激活适配器,在服务退出之前,该适配器会一直持续监听行动器请求并完成相应处理。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过控制超实时仿真环境向行动器上报环境观察,明确了强化学习算法保证仿真逻辑正确所应达到的速度要求,避免下达动作指令的延迟而导致动作指令失效。
基于上述实施例的内容,作为一种可选实施例,获取所述行动器与所述超实时仿真环境交互产生的经验元组,并将所述经验元组以时序数据的方式存放在所述回放存储器中;其中,所述经验元组包括:环境观察、响应所述环境观察得到的动作指令、执行所述动作指令得到的回报,以及,对下一时刻状态的环境观察。
具体地,训练单元内行动器与超实时仿真环境的交互会生成经验元组,以时序数据的方式存放在相应的回放存储器中。经验元组包括四项:(1)对环境当前状态的特征化观察;(2)响应当前观察所执行的动作;(3)执行该动作所得到的回报;(4)对环境下一时刻状态的特征化观察。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过获取行动器与超实时仿真环境交互产生的经验元组,并将经验元组以时序数据的方式存放在回放存储器中,从而可以更新并维护学习器的Q网络参数进行训练。
基于上述实施例的内容,作为一种可选实施例,所述系统包括多个训练单元;相应地,所述方法还包括:
控制每个训练单元中的学习器从相应的回放存储器中解析预设时间段内产生的经验元组序列,并控制学习器计算用于每个经验元组的梯度,以及根据随机梯度下降法修改学习器的Q网络参数;
控制每个训练单元中的学习器将相应学习器的Q网络参数通过网络发送给所述参数服务器,并使得所述参数服务器综合各个训练单元中学习器的Q网络参数更新每个训练单元中的行动器和学习器。
具体地,训练单元内的学习器负责从相应的回放存储器中解析经验元组序列,通过结合其保持的学习器的深度神经网络,学习器计算用于每个经验元组的梯度,并根据随机梯度下降法来修改学习器所维护的深度神经网络参数(即Q网络参数)。每隔一定时间,学习器将其所维护的深度神经网络参数通过网络发送给参数服务器。参数服务器在接收到所有学习器的深度神经网络参数后实施按位平均操作,其中,学习器的深度神经网络参数可理解为一个多维矩阵,按位平均操作即将多个多维矩阵的相同位置元素取出来求平均,从而得到一个新的深度神经网络参数。参数服务器再将新的深度神经网络参数发送给各个训练单元内的行动器与学习器,命令其更新所维护的深度神经网络参数。训练过程按此流程持续运行,直至行动器与学习器的深度神经网络收敛即参数更新不再显著,或用户主动终止训练。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练方法,通过控制每个训练单元对Q网络参数进行维护和更新,从而保证分布式强化学习框架的正确性。
下面对本发明实施例提供的面向超实时仿真环境的分布式强化学习训练装置进行描述,下文描述的面向超实时仿真环境的分布式强化学习训练装置与上文描述的面向超实时仿真环境的分布式强化学习训练方法可相互对应参照。
图6是本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练装置的结构示意图,如图6所示,本发明实施例提供的一种面向超实时仿真环境的分布式强化学习训练装置,所述装置应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
耦合部署单元610,用于将所述超实时仿真环境与所述行动器部署在同一台虚拟机上。
具体地,分布式强化学习系统包括:参数服务器、私有云如云计算平台(以下简称“OpenStack”)、以及一个或多个由超实时仿真环境、行动器、学习器以及回放存储器组成的训练单元。
从运行的角度来看,训练单元内的行动器与超实时仿真环境持续交互,由行动器维护一个深度神经网络即Q网络来选择待执行的动作。在这个交互过程中,超实时仿真环境持续获取特征化环境观察,并且将该观察作为输入交给行动器的深度神经网络,之后从行动器的深度神经网络中得到动作决策输出,并转化为动作指令作用到仿真环境中。
然而,在训练交互过程中,对操作与通信延迟敏感的主要是行动器与超实时仿真环境的交互过程。因此,本发明实施例耦合部署单元610通过将超实时仿真环境与行动器绑定部署在同一台虚拟机上,为高频率且对延迟敏感的交互操作省去网络传输开销。相较于传统方法中分布式强化学习框架未考虑低延迟通信所带来的训练任务部署需求,将超实时仿真环境与行动器部署在不同一台虚拟机上,本发明实施例减小了超实时仿真环境与行动器之间的网络传输开销,从而可以适用于仿真时钟显著快于实际物理时钟的超实时仿真环境。
时延报告单元620,用于控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息。
具体地,时延报告单元620控制超实时仿真环境向行动器不断发送观察得到的环境状态数据,为下一步动作指令提供决策输入。同时,超实时仿真环境在上报环境观察时,环境观察中有可以供行动器计算决策的墙钟时间的附加信息戳,附加信息戳中包含有动作指令最晚反馈时间限制信息。
进度控制单元630,用于控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
具体地,超实时仿真环境带来了苛刻的响应延迟,在极端情况下(如仿真环境加速比过高、领域问题所允许的决策延迟过小等),行动器所需执行的一系列动作,包括接收当前环境观察,使用深度神经网络选择待执行动作,以及转换输出下达动作指令的总耗时可能超过响应延迟。因此行动器必须控制仿真环境的运行以避免动作指令失效,即进度控制单元630通过控制行动器根据环境观察输出动作决策,并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,一旦行动器未能在动作指令最晚反馈时间限制内下达相应的动作指令给超实时仿真环境,那么该动作指令就将面临失效的风险,因此,本发明实施例中通过控制行动器暂停超实时仿真环境的运行,直至行动器将动作指令发送至超实时仿真环境。
本发明实施例提供的面向超实时仿真环境的分布式强化学习训练装置,通过将超实时仿真环境与行动器部署在同一台虚拟机上,并控制超实时仿真环境在向所述行动器发送环境观察时添加包含有动作指令最晚反馈时间限制信息的附加信息戳,控制行动器根据环境观察输出动作决策并将动作决策转换为动作指令,同时控制行动器根据动作指令最晚反馈时间限制信息判断若动作指令未在动作指令最晚反馈时间限制内发送至超实时仿真环境,则控制行动器暂停超实时仿真环境的运行直至行动器将动作指令发送至所述超实时仿真环境,从而能够缩短分布式强化学习框架的决策流程时长,降低获取动作指令的延迟,避免因过长决策延时导致下达动作指令失效。
图7是本发明实施例提供的一种电子设备的结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行面向超实时仿真环境的分布式强化学习训练方法。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的面向超实时仿真环境的分布式强化学习训练方法。
又一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的面向超实时仿真环境的分布式强化学习训练方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种面向超实时仿真环境的分布式强化学习训练方法,其特征在于,所述方法应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
将所述超实时仿真环境与所述行动器部署在同一台虚拟机上;
控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息;
控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
2.根据权利要求1所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,所述动作指令最晚反馈时间限制信息包括:当前仿真时间t、当前仿真加速比s以及动作指令最晚允许执行时间d;相应地,控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,包括:
控制所述行动器根据所述动作指令最晚反馈时间限制信息确定所述行动器用于决策的墙钟时间w=(d-t)/s;
控制所述行动器判断所述动作指令是否在所述墙钟时间w内发送至所述超实时仿真环境。
3.根据权利要求2所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境,包括:
控制所述行动器生成主线程和计时线程;
控制所述主线程执行根据所述环境观察输出动作决策并将所述动作决策转换为动作指令以及向所述超实时仿真环境发送动作指令的处理过程;
控制所述计时线程执行所述墙钟时间的倒计时处理过程;
判断所述计时线程是否早于所述主线程结束,若是,则在所述计时线程的结束时刻控制所述行动器暂停所述超实时仿真环境的运行直至所述主线程将所述动作指令发送至所述超实时仿真环境。
4.根据权利要求1所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,所述系统还包括:参数服务器和私有云;所述训练单元还包括:学习器和回放存储器;
相应地,将所述超实时仿真环境与所述行动器部署在同一台虚拟机上,包括:
向OpenStack请求虚拟化资源,为所述参数服务器配备一台虚拟机;
按照每个训练单元配备两台虚拟机的比例,向OpenStack请求虚拟化资源,使得所述超实时仿真环境和所述行动器共享一台虚拟机,以及,使得所述学习器和所述回放存储器共享一台虚拟机;
为与所述参数服务器对应的虚拟机、与所述超实时仿真环境和所述行动器对应的虚拟机、以及与所述学习器和所述回放存储器对应的虚拟机,创建集群虚拟网络并生成访问密钥对;
设置安全组规则,并允许通过ssh端口访问所述集群虚拟网络;
为与所述参数服务器对应的虚拟机加载“参数服务器镜像”,为与所述超实时仿真环境和所述行动器对应的虚拟机加载超实时仿真环境-行动器镜像,以及,为与所述学习器和所述回放存储器对应的虚拟机加载回放存储器-学习器镜像,完成集群部署。
5.根据权利要求1所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,所述超实时仿真环境采用编译型语言编写,所述行动器采用解释型语言编写;相应地,控制所述超实时仿真环境采用ICE RPC向所述行动器发送环境观察,以及,控制所述行动器采用ICE RPC向所述超实时仿真环境发送动作指令。
6.根据权利要求4所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,还包括:
获取所述行动器与所述超实时仿真环境交互产生的经验元组,并将所述经验元组以时序数据的方式存放在所述回放存储器中;其中,所述经验元组包括:环境观察、响应所述环境观察得到的动作指令、执行所述动作指令得到的回报,以及,对下一时刻状态的环境观察。
7.根据权利要求6所述的面向超实时仿真环境的分布式强化学习训练方法,其特征在于,所述系统包括多个训练单元;相应地,所述方法还包括:
控制每个训练单元中的学习器从相应的回放存储器中解析预设时间段内产生的经验元组序列,并控制学习器计算用于每个经验元组的梯度,以及根据随机梯度下降法修改学习器的Q网络参数;
控制每个训练单元中的学习器将相应学习器的Q网络参数通过网络发送给所述参数服务器,并使得所述参数服务器综合各个训练单元中学习器的Q网络参数更新每个训练单元中的行动器和学习器。
8.一种面向超实时仿真环境的分布式强化学习训练装置,其特征在于,所述装置应用于对分布式强化学习系统进行训练,所述系统包括:由超实时仿真环境和行动器组成的训练单元;
相应地,所述方法包括:
耦合部署单元,用于将所述超实时仿真环境与所述行动器部署在同一台虚拟机上;
时延报告单元,用于控制所述超实时仿真环境在向所述行动器发送环境观察时添加附加信息戳,所述附加信息戳中包含有动作指令最晚反馈时间限制信息;
进度控制单元,用于控制所述行动器根据所述环境观察输出动作决策并将所述动作决策转换为动作指令,同时控制所述行动器根据所述动作指令最晚反馈时间限制信息判断所述动作指令是否在动作指令最晚反馈时间限制内发送至所述超实时仿真环境,若否,则控制所述行动器暂停所述超实时仿真环境的运行直至行动器将所述动作指令发送至所述超实时仿真环境。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述面向超实时仿真环境的分布式强化学习训练方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述面向超实时仿真环境的分布式强化学习训练方法的步骤。
CN202010642373.4A 2020-07-06 2020-07-06 面向超实时仿真环境的分布式强化学习训练方法及装置 Active CN111860777B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010642373.4A CN111860777B (zh) 2020-07-06 2020-07-06 面向超实时仿真环境的分布式强化学习训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010642373.4A CN111860777B (zh) 2020-07-06 2020-07-06 面向超实时仿真环境的分布式强化学习训练方法及装置

Publications (2)

Publication Number Publication Date
CN111860777A true CN111860777A (zh) 2020-10-30
CN111860777B CN111860777B (zh) 2021-07-02

Family

ID=73152301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010642373.4A Active CN111860777B (zh) 2020-07-06 2020-07-06 面向超实时仿真环境的分布式强化学习训练方法及装置

Country Status (1)

Country Link
CN (1) CN111860777B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463386A (zh) * 2020-12-08 2021-03-09 内蒙古大学 用于异构云环境下在线游戏应用的虚拟机管理方法及系统
CN114781274A (zh) * 2022-05-17 2022-07-22 江苏泰坦智慧科技有限公司 仿真与决策交替学习的综合能源系统控制优化方法与系统
CN116893883A (zh) * 2023-08-04 2023-10-17 中国人民解放军战略支援部队航天工程大学 一种兵棋对抗指令集方案推演脚本设计方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157650A (zh) * 2016-07-11 2016-11-23 东南大学 一种基于强化学习可变限速控制的快速道路通行效率改善方法
CN109947567A (zh) * 2019-03-14 2019-06-28 深圳先进技术研究院 一种多智能体强化学习调度方法、系统及电子设备
CN110025959A (zh) * 2019-01-25 2019-07-19 清华大学 用于控制智能体的方法和设备
CN110114806A (zh) * 2018-02-28 2019-08-09 华为技术有限公司 信号灯控制方法、相关设备及系统
US10402723B1 (en) * 2018-09-11 2019-09-03 Cerebri AI Inc. Multi-stage machine-learning models to control path-dependent processes
US20200050920A1 (en) * 2018-08-09 2020-02-13 Nvidia Corporation Techniques for efficiently operating a processing system based on energy characteristics of instructions and machine learning
CN110882542A (zh) * 2019-11-13 2020-03-17 广州多益网络股份有限公司 游戏智能体的训练方法、装置、设备及存储介质
CN110968816A (zh) * 2019-12-23 2020-04-07 广东技术师范大学 一种基于强化学习的内容缓存方法、装置及存储介质
CN112304314A (zh) * 2020-08-27 2021-02-02 中国科学技术大学 一种分布式多机器人的导航方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157650A (zh) * 2016-07-11 2016-11-23 东南大学 一种基于强化学习可变限速控制的快速道路通行效率改善方法
CN110114806A (zh) * 2018-02-28 2019-08-09 华为技术有限公司 信号灯控制方法、相关设备及系统
US20200050920A1 (en) * 2018-08-09 2020-02-13 Nvidia Corporation Techniques for efficiently operating a processing system based on energy characteristics of instructions and machine learning
US10402723B1 (en) * 2018-09-11 2019-09-03 Cerebri AI Inc. Multi-stage machine-learning models to control path-dependent processes
CN110025959A (zh) * 2019-01-25 2019-07-19 清华大学 用于控制智能体的方法和设备
CN109947567A (zh) * 2019-03-14 2019-06-28 深圳先进技术研究院 一种多智能体强化学习调度方法、系统及电子设备
CN110882542A (zh) * 2019-11-13 2020-03-17 广州多益网络股份有限公司 游戏智能体的训练方法、装置、设备及存储介质
CN110968816A (zh) * 2019-12-23 2020-04-07 广东技术师范大学 一种基于强化学习的内容缓存方法、装置及存储介质
CN112304314A (zh) * 2020-08-27 2021-02-02 中国科学技术大学 一种分布式多机器人的导航方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ERIK SCHUITEMA 等: "Control Delay in Reinforcement Learning for Real-Time Dynamic Systems: A Memoryless Approach", 《INTELLIGENT ROBOTS AND SYSTEMS.2010》 *
MONTEYANG 等: "强化学习总结01 基本概念", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/141243435》 *
SIMON RAMSTEDT 等: "Real-Time Reinforcement Learning", 《ARXIV》 *
WEILIN LI 等: "Using co-simulation method to analyze the communication delay impact in agent-based wide area power system stabilizing control", 《GCMS "11: PROCEEDINGS OF THE 2011 GRAND CHALLENGES ON MODELING AND SIMULATION CONFERENCE》 *
周燕莹: "二阶多智能体系统的有限时间一致性", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
戴国忠 等: "时延约束下多智能体编队的集结控制", 《舰船电子工程》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463386A (zh) * 2020-12-08 2021-03-09 内蒙古大学 用于异构云环境下在线游戏应用的虚拟机管理方法及系统
CN112463386B (zh) * 2020-12-08 2022-08-02 内蒙古大学 用于异构云环境下在线游戏应用的虚拟机管理方法及系统
CN114781274A (zh) * 2022-05-17 2022-07-22 江苏泰坦智慧科技有限公司 仿真与决策交替学习的综合能源系统控制优化方法与系统
CN114781274B (zh) * 2022-05-17 2023-07-14 江苏泰坦智慧科技有限公司 仿真与决策交替学习的综合能源系统控制优化方法与系统
CN116893883A (zh) * 2023-08-04 2023-10-17 中国人民解放军战略支援部队航天工程大学 一种兵棋对抗指令集方案推演脚本设计方法

Also Published As

Publication number Publication date
CN111860777B (zh) 2021-07-02

Similar Documents

Publication Publication Date Title
CN111860777B (zh) 面向超实时仿真环境的分布式强化学习训练方法及装置
US11120365B2 (en) For hierarchical decomposition deep reinforcement learning for an artificial intelligence model
US11120299B2 (en) Installation and operation of different processes of an AI engine adapted to different configurations of hardware located on-premises and in hybrid environments
Hemingway et al. Rapid synthesis of high-level architecture-based heterogeneous simulation: a model-based integration approach
CN109947567A (zh) 一种多智能体强化学习调度方法、系统及电子设备
WO2018236674A1 (en) HIERARCHICAL DECOMPOSITION DEEPENING REINFORCEMENT LEARNING FOR A MODEL OF ARTIFICIAL INTELLIGENCE
García et al. MISIA: middleware infrastructure to simulate intelligent agents
CN113779810A (zh) 陆军合同战斗方案仿真实验决策控制系统及仿真控制方法
Gand et al. Serverless Container Cluster Management for Lightweight Edge Clouds.
CN114116102A (zh) 一种机器人流程自动化管理系统
Gokhale et al. TIXT: An extensible testbed for tactile internet communication
CN109100952B (zh) 分布式半实物仿真航天器健康管理系统区域推理机
CN113867889A (zh) 一种分布式实时仿真平台
CN112669194A (zh) 虚拟场景中的动画处理方法、装置、设备及存储介质
CN110728368B (zh) 一种仿真机器人深度强化学习的加速方法
Szabó et al. On the effects of the variations in network characteristics in cyber physical systems
CN110321092A (zh) 向单个显示频率同步视频输出
CN112737815B (zh) 一种动态配置网络模拟器事件队列的方法及系统
WO2021220616A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに分散学習システム
KR101197245B1 (ko) 로봇 동작을 제어하는 프레임워크 시스템 및 이를 이용한 로봇의 동작 제어 방법
CN113836061A (zh) 一种适用于仿真模型及流程模型的分布式实时仿真方法
Rodrigues et al. Digital twin technologies for immersive virtual reality training environments
Žáková et al. Design of control education interactive examples via web service for openmodelica
RU2815598C1 (ru) Способ создания робототехнических систем
Kharitonov A software architecture for high-level development of component-based distributed virtual reality systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant