CN112001585A - 多智能体决策方法、装置、电子设备及存储介质 - Google Patents
多智能体决策方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112001585A CN112001585A CN202010674227.XA CN202010674227A CN112001585A CN 112001585 A CN112001585 A CN 112001585A CN 202010674227 A CN202010674227 A CN 202010674227A CN 112001585 A CN112001585 A CN 112001585A
- Authority
- CN
- China
- Prior art keywords
- agent
- strategy
- environment
- decision
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000002787 reinforcement Effects 0.000 claims abstract description 38
- 230000003993 interaction Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 19
- 238000005516 engineering process Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 11
- 230000002452 interceptive effect Effects 0.000 claims description 4
- 230000008901 benefit Effects 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 239000003795 chemical substances by application Substances 0.000 description 127
- 238000010586 diagram Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06315—Needs-based resource requirements planning or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Game Theory and Decision Science (AREA)
- Stored Programmes (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了多智能体决策方法、装置、电子设备及存储介质,涉及人工智能、深度学习以及自动驾驶领域,其中的方法可包括:获取经验数据,包括各智能体与环境的交互数据以及环境的全局数据;根据经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据该智能体的策略和模型进行决策。应用本申请所述方案,可提升资源利用率及全局收益等。
Description
技术领域
本申请涉及计算机应用技术,特别涉及人工智能、深度学习以及自动驾驶领域的多智能体决策方法、装置、电子设备及存储介质。
背景技术
自动运输工具如无人车或自动导引车(AGV,Automatic Guided Vehicle)是现代以及未来物流系统中重要的运输资源,此类场景涉及到多个主体协作以达到整体收益最大化的问题。比如,园区中的多个无人车协作运输园区乘客,自动化物流仓库中的多个AGV协作运输货物等。相应地,就会涉及到不同主体的决策问题,如决策每个AGV的下一个任务,包括运输出发点和终点等。
传统的解决方式是通过运输场景建模,根据人为经验预估所需的运输资源,制定固定的规则来实现运输资源周期性运转,不仅需要有专家知识和复杂的计算,而且也无法最大化资源利用率和全局收益等。
发明内容
本申请提供了多智能体决策方法、装置、电子设备及存储介质。
一种多智能体决策方法,包括:
智能平台获取经验数据,所述经验数据包括各智能体与环境的交互数据以及环境的全局数据;
所述智能平台根据所述经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据所述智能体的策略和模型进行决策。
一种多智能体决策装置,包括:获取模块和训练模块;
所述获取模块,用于获取经验数据,所述经验数据包括各智能体与环境的交互数据以及环境的全局数据;
所述训练模块,用于根据所述经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据所述智能体的策略和模型进行决策。
一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如以上所述的方法。
上述申请中的一个实施例具有如下优点或有益效果:可根据获取到的经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,进而可基于确定出的策略和模型进行智能体的决策,无需复杂的专家知识和计算,从而降低了实现复杂度,而且,利用强化学习的优势,自动学习,优化至最优解,从而可使得决策结果更为合理和准确,进而提升了资源利用率及全局收益等。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请所述多智能体决策方法实施例的流程图;
图2为本申请所述策略训练和模型选取过程示意图;
图3为本申请所述奖励函数的调整方式示意图;
图4为本申请所述经验数据获取及训练的整体过程示意图;
图5为本申请所述决策方式示意图;
图6为本申请所述软件框架的示意图;
图7为本申请多智能体决策装置70实施例的组成结构示意图;
图8为根据本申请实施例所述方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,比如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请所述多智能体决策方法实施例的流程图。如图1所示,包括以下具体实现方式。
在101中,智能平台获取经验数据,包括各智能体(agent)与环境(environment)的交互数据以及环境的全局数据。
本实施例所述方案可应用于多智能体协作的场景中,智能体的数量取决于场景中的主体数量,如园区中共有多少辆无人车,或自动化物流仓库中共有多少辆AGV等,即将每个主体分别作为一个智能体。
在102中,智能平台根据获取到的经验数据,通过多智能体强化学习(MARL,Multi-Agent Reinforcement Learning)方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据该智能体的策略和模型进行决策。
可以看出,上述实施例中,可根据获取到的经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,进而可基于确定出的策略和模型进行智能体的决策,无需复杂的专家知识和计算,从而降低了实现复杂度,而且,利用强化学习的优势,自动学习,优化至最优解,从而可使得决策结果更为合理和准确,进而提升了资源利用率和全局收益等。
如101中所述,获取到的经验数据中可包括各智能体与环境的交互数据以及环境的全局数据。其中,任一智能体与环境的交互数据可包括:智能体向环境输入的动作,环境向智能体返回的观测值(observation)、奖励(reward)、状态信息(done)以及额外诊断信息(info)等,状态信息即指当前状态是否结束信息。环境的全局数据可包括:全局状态(state)信息和全局奖励(global_reward)等。
在实际应用中,可进行环境应用程序接口(API,Application ProgrammingInterface)抽象,将环境接口抽象为交互、重置、全局获取等接口。
其中,交互接口主要用于单智能体交互:observation,reward,done,info=env.step(action,agentid),可输入智能体的标识(id)和动作(action),可返回智能体的观测值、奖励、状态信息以及额外诊断信息,可根据具体场景抽象设计。
比如,输入为园区中的一辆无人车的动作及其标识(如编号),返回为该无人车的观测值、奖励等,其中观测值可进一步包括当前位置、传感器信息、载客量、电量等信息。奖励与载客量、功率消耗等有关,通常来说,载客量越大,功率消耗越小,奖励越大。
重置接口主要用于环境重置:env.reset(),如将环境重置到一个初始化状态。比如,园区中的无人车在下班时将各自回到初始位置。
全局获取接口主要用于全局数据获取:state,gobal_reward,info=env.gobal_info(),如获取环境的全局状态信息和全局奖励等。
比如,可将当前园区中共有几辆无人车在运行中以及各自的位置作为全局状态信息,将当前所有无人车的载客总收益作为全局奖励等。
每个智能体分别具有各自的策略(policy)和模型(model)。策略即指智能体对应的策略网络结构,可设置各智能体的策略网络结构一致,以方便共享参数,当然,不同智能体的策略网络结构也可不同。模型即指智能体的策略网络结构对应的参数模型。各智能体加载最佳的策略和模型后即可开始工作,如输入获取到的观测值,输出智能体的动作等。
如102中所述,可根据经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型。具体地,可采用黑盒优化技术,调整(修改)智能体的策略和/或奖励函数(reward function),针对每次调整后的结果,可分别通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,将全局收益最大时的各智能体的策略和模型作为确定出的各智能体的最优的策略和模型。
其中,各智能体分别对应各自的奖励函数,不同智能体的奖励函数可以相同,也可以不同。另外,调整智能体的策略和/或奖励函数,可以是指调整任意一个或多个智能体的策略和/或奖励函数等。
可采用现有的黑盒优化技术,如贝叶斯优化、进化策略等,调整智能体的策略和/或奖励函数,针对每次调整后的结果,可选定多智能体强化学习算法,利用所述多智能体强化学习算法训练各智能体的策略达到纳什均衡,得到最优模型,如何训练为现有技术。其中,可根据场景需求选取适合的多智能体强化学习算法,比如,选取的多智能体强化学习算法可为多智能体深度确定性策略梯度(MADDPG,Multi-Agent Deep Deterministic PolicyGradient)算法等。可评估不同的最优模型对应的全局奖励,使用黑盒优化技术选取全局收益最大的模型(即全局最优模型)等。
基于上述介绍,图2为本申请所述策略训练和模型选取过程示意图。如图2所示,其中上半部分的曲线,横轴对应着不同的奖励函数参数和模型参数,纵轴对应着全局奖励。
在调整智能体的奖励函数时,可以在原有基础(原有的奖励函数)上增加一个附加奖励函数,并调整附加奖励函数的参数,即仅需修改附加奖励函数的参数即可达到调整原有的奖励函数的目的。如图3所示,图3为本申请所述奖励函数的调整方式示意图。
通过上述处理,结合多智能体强化学习和黑盒优化技术等,可使得单个的智能体优化自身策略至最优的同时,优化全局收益/整体收益,很好地平衡了整体和部分的关系等。
综合上述介绍,图4为本申请所述经验数据获取及训练的整体过程示意图。如图4所示,数据路由作为数据的收集点和转发站,可负责收集各智能体与环境的交互数据以及环境的全局数据,并传输给经验池进行存储和管理,可借助于经验池中的经验数据,利用策略训练器和模型选择器训练得到各智能体的最佳的策略和模型等,其中,策略训练器用于针对调整后的结果,选取适合的多智能体强化学习算法,训练各智能体的策略达到纳什均衡等,模型选择器用于采用黑盒优化技术,调整智能体的策略和/或奖励函数,并借助于策略训练器得到最优模型,评估不同模型对应的全局奖励,选取使得全局收益最大的模型等。
另外,图4中所示的环境可通过环境仿真器来实现,在获取经验数据时,可获取各智能体与环境仿真器的交互数据,环境仿真器的数量可以为一个,也可以为多个,当为多个时,多个环境仿真器可并行运行,这样,不同的智能体可并行地与不同的环境仿真器交互数据,从而可提升经验数据的获取效率等。在获取经验数据并存储到经验池的同时,策略训练器即可利用经验池中的经验数据进行训练等。通常来说,策略训练器可运行在图形处理单元(GPU,Graphics Processing Unit)上,环境仿真器和经验池可运行在中央处理单元(CPU,Central Processing Unit)上,最大化资源利用。
另外,还可并行运行N个策略训练器,N为大于一的正整数,各策略训练器可分别根据对应的调整后的结果(如某一次调整后的各智能体的策略及奖励函数),通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,如达到纳什均衡,优化出一个最优模型,多个策略训练器可并行地训练得到多个最优模型,从而加快了模型选择器选择全局最优模型的效率等,任意两个策略训练器对应的调整后的结果均不相同。
在确定出各智能体的最优的策略和模型后,当任一智能体需要进行决策时,可由预定执行主体根据该智能体的策略和模型进行决策。所述预定执行主体可为需要进行决策智能体或智能平台。
图5为本申请所述决策方式示意图。如图5所示,可以将决策功能下发给具体的智能体,如一辆无人车或一辆AGV,也可以由智能平台来进行决策。其中,前一种方式让智能体单独决策,如输入获取到的观测值,输出智能体的动作等,分散计算,降低了动作空间维度及计算和决策的复杂度,并具有更快的决策响应速度等,在要求不高的情况下,也可以采用后一种方式,响应速度可能稍慢,但无需使用本地的计算资源等。具体采用哪种方式可根据实际需要而定。
为了使得本申请所述训练和决策流程可迁移和分布式部署等,本申请中还提出了一套具有高度可扩展性的软件框架,基于该框架的软件工具可以在非常短的周期内定制和训练一套解决真实世界问题的软件,无需专家知识。
图6为本申请所述软件框架的示意图。如图6所示,所述软件框架包括个性化层、核心技术层、数据与计算管理层以及混合云层。其中,个性化层即个性化应用层,基于底层的技术,符合用户需求定制的解决方案可以被快速实现。核心技术层(强化学习、黑盒优化、概率模型、多智能体强化学习)可集成多个环境的API,如百度PaddlePaddle的RLSchool的电梯环境、四轴飞行器环境等,该层为软件框架的核心,可包含Multi Agent框架、概率模型的集成插件及机器学习算法库等。数据与计算管理层可用Kubernetes容器化技术来编排计算资源,用Ceph来做分布式容错文件系统,用Kafka来做分布式队列,用Splunk和Promethues来做日志处理。混合云层可使用百度云等,支持弹性和可扩展性计算,使得软件可以方便的迁移,方便做容灾备份等。上述框架分层清晰,有很好的可迁移性和兼容性,在部署和应用上高度灵活。
需要说明的是,对于前述的方法实施例,为了简单描述,将其表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本申请所述方案进行进一步说明。
图7为本申请多智能体决策装置70实施例的组成结构示意图。如图7所示,包括:获取模块701和训练模块702。
获取模块701,用于获取经验数据,经验数据包括各智能体与环境的交互数据以及环境的全局数据。
训练模块702,用于根据经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据该智能体的策略和模型进行决策。
其中,任一智能体与环境的交互数据可包括:智能体向环境输入的动作,环境向智能体返回的观测值、奖励、状态信息以及额外诊断信息。环境的全局数据可包括:全局状态信息和全局奖励。
获取模块701可获取各智能体与环境仿真器的交互数据。所述环境仿真器可包括:一个环境仿真器或并行运行的M个环境仿真器,M为大于一的正整数。
训练模块702可采用黑盒优化技术,调整智能体的策略和/或奖励函数,针对每次调整后的结果,分别通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,将全局收益最大时的各智能体的策略和模型作为确定出的各智能体的最优的策略和模型。
其中,通过多智能体强化学习的方式训练各智能体的策略至符合预定条件可以是指,选定多智能体强化学习算法,利用选定的多智能体强化学习算法训练各智能体的策略达到纳什均衡。
训练模块702还可针对任一需要调整的奖励函数,在原有基础上增加一个附加奖励函数,调整附加奖励函数的参数。
另外,训练模块702还可并行运行N个策略训练器,N为大于一的正整数,各策略训练器可分别根据对应的调整后的结果,通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,任意两个策略训练器对应的调整后的结果均不相同。
当任一智能体需要进行决策时,预定执行主体可为该需要进行决策的智能体,或者,也可为多智能体决策装置70,相应地,多智能体决策装置70中可进一步包括:决策模块703,用于根据智能体的策略和模型进行决策。
图7所示装置可对应于前述的智能平台,获取模块701可将获取到的经验数据存储到经验池中,训练模块702可借助于策略训练器和模型选择器来确定出各智能体的最优的策略和模型等。
图7所示装置实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
总之,采用本申请装置实施例所述方案,可根据获取到的经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,进而可基于确定出的策略和模型进行智能体的决策,无需复杂的专家知识和计算,从而降低了实现复杂度,而且,利用强化学习的优势,自动学习,优化至最优解,从而可使得决策结果更为合理和准确,进而提升了资源利用率和全局收益等;结合多智能体强化学习和黑盒优化技术等,可使得单个的智能体优化自身策略至最优的同时,优化全局收益/整体收益,很好地平衡了整体和部分的关系等;可让智能体单独决策,分散计算,降低了动作空间维度及计算和决策的复杂度,并具有更快的决策响应速度等。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例所述方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器Y01、存储器Y02,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(比如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器Y01为例。
存储器Y02即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的方法。
存储器Y02作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的方法对应的程序指令/模块。处理器Y01通过运行存储在存储器Y02中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器Y02可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器Y02可以包括高速随机存取存储器,还可以包括非瞬时存储器,比如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器Y02可选包括相对于处理器Y01远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、区块链网络、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置Y03和输出装置Y04。处理器Y01、存储器Y02、输入装置Y03和输出装置Y04可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置Y03可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,比如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置Y04可以包括显示设备、辅助照明装置和触觉反馈装置(比如,振动电机)等。该显示设备可以包括但不限于,液晶显示器、发光二极管显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(比如,磁盘、光盘、存储器、可编程逻辑装置),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(比如,阴极射线管或者液晶显示器监视器);以及键盘和指向装置(比如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;比如,提供给用户的反馈可以是任何形式的传感反馈(比如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(比如,作为数据服务器)、或者包括中间件部件的计算系统(比如,应用服务器)、或者包括前端部件的计算系统(比如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(比如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网、广域网、区块链网络和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。比如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种多智能体决策方法,包括:
智能平台获取经验数据,所述经验数据包括各智能体与环境的交互数据以及环境的全局数据;
所述智能平台根据所述经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据所述智能体的策略和模型进行决策。
2.根据权利要求1所述的方法,其中,
任一智能体与环境的交互数据包括:所述智能体向环境输入的动作,环境向所述智能体返回的观测值、奖励、状态信息以及额外诊断信息;
所述环境的全局数据包括:全局状态信息和全局奖励。
3.根据权利要求1所述的方法,其中,
所述获取经验数据包括:获取各智能体与环境仿真器的交互数据;
所述环境仿真器包括:一个环境仿真器或并行运行的M个环境仿真器,M为大于一的正整数。
4.根据权利要求1所述的方法,其中,所述通过多智能体强化学习方式确定出各智能体的最优的策略和模型包括:
采用黑盒优化技术,调整智能体的策略和/或奖励函数,针对每次调整后的结果,分别通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,将全局收益最大时的各智能体的策略和模型作为确定出的各智能体的最优的策略和模型。
5.根据权利要求4所述的方法,其中,所述通过多智能体强化学习的方式训练各智能体的策略至符合预定条件包括:
选定多智能体强化学习算法,利用所述多智能体强化学习算法训练各智能体的策略达到纳什均衡。
6.根据权利要求4所述的方法,其中,调整所述奖励函数包括:在原有基础上增加一个附加奖励函数,调整所述附加奖励函数的参数。
7.根据权利要求4所述的方法,其中,所述分别通过多智能体强化学习的方式训练各智能体的策略至符合预定条件包括:
并行运行N个策略训练器,N为大于一的正整数,各策略训练器分别根据对应的调整后的结果,通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,任意两个策略训练器对应的调整后的结果均不相同。
8.根据权利要求1所述的方法,其中,所述预定执行主体包括:需要进行决策的智能体,或者,所述智能平台。
9.一种多智能体决策装置,包括:获取模块和训练模块;
所述获取模块,用于获取经验数据,所述经验数据包括各智能体与环境的交互数据以及环境的全局数据;
所述训练模块,用于根据所述经验数据,通过多智能体强化学习方式确定出各智能体的最优的策略和模型,以便当任一智能体需要进行决策时,由预定执行主体根据所述智能体的策略和模型进行决策。
10.根据权利要求9所述的装置,其中,
任一智能体与环境的交互数据包括:所述智能体向环境输入的动作,环境向所述智能体返回的观测值、奖励、状态信息以及额外诊断信息;
所述环境的全局数据包括:全局状态信息和全局奖励。
11.根据权利要求9所述的装置,其中,
所述获取模块获取各智能体与环境仿真器的交互数据;
所述环境仿真器包括:一个环境仿真器或并行运行的M个环境仿真器,M为大于一的正整数。
12.根据权利要求9所述的装置,其中,所述训练模块采用黑盒优化技术,调整智能体的策略和/或奖励函数,针对每次调整后的结果,分别通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,将全局收益最大时的各智能体的策略和模型作为确定出的各智能体的最优的策略和模型。
13.根据权利要求12所述的装置,其中,所述训练模块选定多智能体强化学习算法,利用所述多智能体强化学习算法训练各智能体的策略达到纳什均衡。
14.根据权利要求12所述的装置,其中,所述训练模块针对任一需要调整的奖励函数,在原有基础上增加一个附加奖励函数,调整所述附加奖励函数的参数。
15.根据权利要求12所述的装置,其中,所述训练模块并行运行N个策略训练器,N为大于一的正整数,各策略训练器分别根据对应的调整后的结果,通过多智能体强化学习的方式训练各智能体的策略至符合预定条件,任意两个策略训练器对应的调整后的结果均不相同。
16.根据权利要求9所述的装置,其中,
所述预定执行主体为需要进行决策的智能体;
或者,所述预定执行主体为所述多智能体决策装置,所述多智能体决策装置中进一步包括:决策模块,用于根据所述智能体的策略和模型进行决策。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010674227.XA CN112001585B (zh) | 2020-07-14 | 2020-07-14 | 多智能体决策方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010674227.XA CN112001585B (zh) | 2020-07-14 | 2020-07-14 | 多智能体决策方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001585A true CN112001585A (zh) | 2020-11-27 |
CN112001585B CN112001585B (zh) | 2023-09-22 |
Family
ID=73466887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010674227.XA Active CN112001585B (zh) | 2020-07-14 | 2020-07-14 | 多智能体决策方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001585B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507104A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 对话系统获取方法、装置、存储介质及计算机程序产品 |
CN112651446A (zh) * | 2020-12-29 | 2021-04-13 | 杭州趣链科技有限公司 | 一种基于联盟链的无人驾驶汽车训练方法 |
CN112987742A (zh) * | 2021-02-08 | 2021-06-18 | 扬州大学 | 一种机器人路径规划方法和规划系统 |
CN113254200A (zh) * | 2021-05-13 | 2021-08-13 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN113342631A (zh) * | 2021-07-02 | 2021-09-03 | 厦门美图之家科技有限公司 | 分发管理优化方法、装置和电子设备 |
CN113395708A (zh) * | 2021-07-13 | 2021-09-14 | 东南大学 | 基于全局环境预测的多自主体集中式区域覆盖方法与系统 |
CN113570040A (zh) * | 2021-07-27 | 2021-10-29 | 南京航空航天大学 | 一种基于进化策略的多域行动序列智能优化系统及方法 |
CN113599832A (zh) * | 2021-07-20 | 2021-11-05 | 北京大学 | 基于环境模型的对手建模方法、装置、设备及存储介质 |
CN114596042A (zh) * | 2022-05-10 | 2022-06-07 | 卡奥斯工业智能研究院(青岛)有限公司 | 一种货物运输的方法、装置、电子设备及存储介质 |
CN114881386A (zh) * | 2021-11-12 | 2022-08-09 | 中国电力科学研究院有限公司 | 一种基于人机混合电力系统安全稳定分析的方法及系统 |
CN115676539A (zh) * | 2023-01-03 | 2023-02-03 | 常熟理工学院 | 基于物联网的高层电梯协同调度方法 |
CN116627474A (zh) * | 2023-07-21 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 基于强化学习的智能设备智能安全管理方法、装置及设备 |
CN117031399A (zh) * | 2023-10-10 | 2023-11-10 | 浙江华创视讯科技有限公司 | 多智能体协同的声源定位方法、设备及存储介质 |
CN118657266A (zh) * | 2024-08-22 | 2024-09-17 | 青岛理工大学 | 一种基于大语言模型的多智能体区块链优化系统及方法 |
US12129150B2 (en) | 2023-01-03 | 2024-10-29 | Changshu Institute Of Technology | Collaborative scheduling method for high-rise elevators based on internet of things |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947567A (zh) * | 2019-03-14 | 2019-06-28 | 深圳先进技术研究院 | 一种多智能体强化学习调度方法、系统及电子设备 |
CN110852448A (zh) * | 2019-11-15 | 2020-02-28 | 中山大学 | 一种基于多智能体强化学习的合作型智能体的学习方法 |
US20200090048A1 (en) * | 2017-05-19 | 2020-03-19 | Deepmind Technologies Limited | Multi-task neural network systems with task-specific policies and a shared policy |
CN111222718A (zh) * | 2020-02-27 | 2020-06-02 | 上海电力大学 | 一种风能转换系统的最大功率点跟踪方法与装置 |
CN111324167A (zh) * | 2020-02-27 | 2020-06-23 | 上海电力大学 | 一种光伏发电最大功率点跟踪控制方法与装置 |
-
2020
- 2020-07-14 CN CN202010674227.XA patent/CN112001585B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200090048A1 (en) * | 2017-05-19 | 2020-03-19 | Deepmind Technologies Limited | Multi-task neural network systems with task-specific policies and a shared policy |
CN109947567A (zh) * | 2019-03-14 | 2019-06-28 | 深圳先进技术研究院 | 一种多智能体强化学习调度方法、系统及电子设备 |
CN110852448A (zh) * | 2019-11-15 | 2020-02-28 | 中山大学 | 一种基于多智能体强化学习的合作型智能体的学习方法 |
CN111222718A (zh) * | 2020-02-27 | 2020-06-02 | 上海电力大学 | 一种风能转换系统的最大功率点跟踪方法与装置 |
CN111324167A (zh) * | 2020-02-27 | 2020-06-23 | 上海电力大学 | 一种光伏发电最大功率点跟踪控制方法与装置 |
Non-Patent Citations (2)
Title |
---|
A. HALINKA; P. RZEPKA; M. SZABLICKI: "Agent model of multi-agent system for area power system protection", 《2015 MODERN ELECTRIC POWER SYSTEMS (MEPS)》 * |
刘强;姜峰;: "基于深度强化学习的群体对抗策略研究", 智能计算机与应用, no. 05 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507104A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 对话系统获取方法、装置、存储介质及计算机程序产品 |
CN112651446A (zh) * | 2020-12-29 | 2021-04-13 | 杭州趣链科技有限公司 | 一种基于联盟链的无人驾驶汽车训练方法 |
CN112651446B (zh) * | 2020-12-29 | 2023-04-14 | 杭州趣链科技有限公司 | 一种基于联盟链的无人驾驶汽车训练方法 |
CN112987742A (zh) * | 2021-02-08 | 2021-06-18 | 扬州大学 | 一种机器人路径规划方法和规划系统 |
CN113254200A (zh) * | 2021-05-13 | 2021-08-13 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN113254200B (zh) * | 2021-05-13 | 2023-06-09 | 中国联合网络通信集团有限公司 | 资源编排方法及智能体 |
CN113342631A (zh) * | 2021-07-02 | 2021-09-03 | 厦门美图之家科技有限公司 | 分发管理优化方法、装置和电子设备 |
CN113395708A (zh) * | 2021-07-13 | 2021-09-14 | 东南大学 | 基于全局环境预测的多自主体集中式区域覆盖方法与系统 |
CN113599832A (zh) * | 2021-07-20 | 2021-11-05 | 北京大学 | 基于环境模型的对手建模方法、装置、设备及存储介质 |
CN113599832B (zh) * | 2021-07-20 | 2023-05-16 | 北京大学 | 基于环境模型的对手建模方法、装置、设备及存储介质 |
CN113570040A (zh) * | 2021-07-27 | 2021-10-29 | 南京航空航天大学 | 一种基于进化策略的多域行动序列智能优化系统及方法 |
CN114881386A (zh) * | 2021-11-12 | 2022-08-09 | 中国电力科学研究院有限公司 | 一种基于人机混合电力系统安全稳定分析的方法及系统 |
CN114596042A (zh) * | 2022-05-10 | 2022-06-07 | 卡奥斯工业智能研究院(青岛)有限公司 | 一种货物运输的方法、装置、电子设备及存储介质 |
CN115676539A (zh) * | 2023-01-03 | 2023-02-03 | 常熟理工学院 | 基于物联网的高层电梯协同调度方法 |
US12129150B2 (en) | 2023-01-03 | 2024-10-29 | Changshu Institute Of Technology | Collaborative scheduling method for high-rise elevators based on internet of things |
CN116627474A (zh) * | 2023-07-21 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 基于强化学习的智能设备智能安全管理方法、装置及设备 |
CN116627474B (zh) * | 2023-07-21 | 2023-10-13 | 杭州海康威视数字技术股份有限公司 | 基于强化学习的智能设备智能安全管理方法、装置及设备 |
CN117031399A (zh) * | 2023-10-10 | 2023-11-10 | 浙江华创视讯科技有限公司 | 多智能体协同的声源定位方法、设备及存储介质 |
CN117031399B (zh) * | 2023-10-10 | 2024-02-20 | 浙江华创视讯科技有限公司 | 多智能体协同的声源定位方法、设备及存储介质 |
CN118657266A (zh) * | 2024-08-22 | 2024-09-17 | 青岛理工大学 | 一种基于大语言模型的多智能体区块链优化系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112001585B (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001585B (zh) | 多智能体决策方法、装置、电子设备及存储介质 | |
Du et al. | A survey on multi-agent deep reinforcement learning: from the perspective of challenges and applications | |
CN110520868B (zh) | 用于分布式强化学习的方法、程序产品和存储介质 | |
Agarwal et al. | Flexible and intelligent learning architectures for SoS (FILA-SoS): Architectural evolution in systems-of-systems | |
CN114139637B (zh) | 多智能体信息融合方法、装置、电子设备及可读存储介质 | |
CN114355793B (zh) | 用于车辆仿真评测的自动驾驶规划模型的训练方法及装置 | |
CN101083019A (zh) | 基于空间态势感知的快速评估系统 | |
US20200122039A1 (en) | Method and system for a behavior generator using deep learning and an auto planner | |
CN111966361B (zh) | 用于确定待部署模型的方法、装置、设备及其存储介质 | |
CN114261400A (zh) | 一种自动驾驶决策方法、装置、设备和存储介质 | |
Toma et al. | Pathbench: A benchmarking platform for classical and learned path planning algorithms | |
US20190005169A1 (en) | Dynamic Design of Complex System-of-Systems for Planning and Adaptation to Unplanned Scenarios | |
CN114528893A (zh) | 机器学习模型训练方法、电子设备及存储介质 | |
US20190026410A1 (en) | Strategic improvisation design for adaptive resilience | |
US20220383076A1 (en) | Machine learning models for behavior understanding | |
CN110377769A (zh) | 基于图数据结构的建模平台系统、方法、服务器及介质 | |
Skuba et al. | Simplification of deep reinforcement learning in traffic control using the Bonsai Platform | |
Robinson et al. | Bridging the stakeholder communities that produce cyber-physical systems | |
Chen et al. | The implementation and performance evaluation for a smart robot with edge computing algorithms | |
Bonache-Seco et al. | ART-GCS: an adaptive real-time multi-agent ground control station | |
CN117076134B (zh) | 基于人工智能的无人机状态数据处理方法及系统 | |
CN117192998B (zh) | 基于Transformer神经网络状态预测的无人机自主决策方法及装置 | |
CN110753936B (zh) | 批量强化学习 | |
Marsh et al. | An initial agent behaviour modelling and definition methodology as applied to unmanned aerial vehicle simulations | |
Fernández Sánchez | Joined optimization of traffic signaling and vehicle speed advisory in V2I-enabled traffic with deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |