CN113534784B - 智能体动作的决策方法及相关设备 - Google Patents
智能体动作的决策方法及相关设备 Download PDFInfo
- Publication number
- CN113534784B CN113534784B CN202010306503.7A CN202010306503A CN113534784B CN 113534784 B CN113534784 B CN 113534784B CN 202010306503 A CN202010306503 A CN 202010306503A CN 113534784 B CN113534784 B CN 113534784B
- Authority
- CN
- China
- Prior art keywords
- collaboration
- agent
- message
- model
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims abstract description 131
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000004891 communication Methods 0.000 claims abstract description 85
- 230000008569 process Effects 0.000 claims abstract description 25
- 238000011156 evaluation Methods 0.000 claims description 35
- 230000007246 mechanism Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 17
- 238000012216 screening Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 abstract description 32
- 238000003062 neural network model Methods 0.000 abstract description 18
- 239000003795 chemical substances by application Substances 0.000 description 222
- 238000010586 diagram Methods 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000002787 reinforcement Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000002079 cooperative effect Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000010391 action planning Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0032—Distributed allocation, i.e. involving a plurality of allocating devices, each making partial allocation
- H04L5/0035—Resource allocation in a cooperative multipoint environment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
- Multi Processors (AREA)
Abstract
本申请实施例公开了一种智能体动作的决策方法及相关设备,用于通信技术领域。本申请实施例方法包括:第一智能体通过第一模型,对从环境中获取的第一状态信息进行处理,得到第一协作消息并向至少一个第二智能体发送所述第一协作消息;所述第一智能体通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作,所述第二协作消息由所述至少一个第二智能体发送;这样使得原来根据状态信息同时得到协作消息和协作动作的并行网络模型变成串行网络模型,每一个网络模型的结构更加简单,神经网络模型的训练也更加容易。
Description
技术领域
本申请实施例涉及通信技术领域,尤其涉及一种智能体动作的决策方法及相关设备。
背景技术
随着通信技术的不断发展,多个智能体相互协作,共同完成一项任务的场景越来越多,多智能体需要同时与环境进行交互,各自完成相适应的动作以此完成规定的任务,如多基站的联合调度、自动驾驶中多汽车的联合编排等;多智能体强化学习的需要也越来越多,强化学习即指智能体以与环境交互的方式进行学习,根据环境反馈的状态对环境作出动作,从而获得奖励并根据奖励机制来获得知识,从而改进智能体对环境作出的反应。
在多智能体强化学习中,由于单个智能体通常很难观测到全局的状态信息,因此各智能体之间需要通信来交换状态信息,来实现多智能的协作,多智能体之间相互通信就需要确定通信内容和通信方法,前者解决传输的内容,后者解决传输的途径;现有技术中,智能体通常采用神经网络模型来确定通信内容,该模型的输入为环境中的状态,输出传给其他网络的通信信息和自身的执行动作,然后根据整个协作任务的奖励来作为对神经网络的反馈评价,根据该评价来训练神经网络模型。
由于通信信息不直接影响协作任务的完成,而是通过影响每个智能体的动作来间接影响协作任务对应的奖励,这样利用任务奖励来引导通信信息的学习会使得训练模型更加困难,并且同时输出信息和动作会使得网络规模显著增大,模型训练困难的问题亟需解决;另一方面强化学习的目标中没有考虑通信开销,这可能会导致学习到的通信内容维度较大,无法适用于实际通信场景,特别是带宽受限的无线通信。
发明内容
本申请提供了一种智能体动作的决策方法,用于解决利用任务奖励来间接确定通信内容而导致的神经网络模型训练困难的问题;将通信对动作的影响和通信维度作为学习目标的一部分,从而解决通信难以学习和智能体之间通信开销的问题。
本申请的第一方面提供了一种智能体动作的决策方法,包括:
在多智能体协作的场景下,第一智能体从环境中获取第一状态信息,并通过第一模型对获取到的第一状态信息进行处理,得到第一协作消息,该第一协作消息不仅用于第一智能体自身动作的决策,还是向其他智能体传输的通信信息;然后第一智能体将第一协作消息和从其他智能体接收到的第二协作消息输入至第二模型,得到第一智能体所需要执行的第一协作动作;其中,第一模型和第二模型在训练过程中,都根据相同的任务奖励来进行学习,该奖励与每一个智能体获取到的状态信息、得到的协作消息以及最终确定的每个智能体对应的协作动作相关,是对其进行的评价,多个智能体可以根据该评价来训练第一模型和第二模型。
本申请利用第一模型对第一状态信息进行处理,得到第一协作消息,然后再利用第二模型,对第一协作消息进行处理得到第一协作动作,使得原来根据状态信息同时得到协作消息和协作动作的并行网络模型变成串行网络模型,同时奖励除了与任务相关,也与状态信息、协作消息以及协作动作相关,这样使得每一个网络模型的结构更加简单,同时新的奖励机制可以直接对第一模型和第二模型进行评价,神经网络模型的训练也更加容易。
基于第一方面,本申请还提供了第一方面的第一种实施方式:
奖励是对基于同一协作任务的多个智能体之间,完成该任务的结果进行的评价,是与任务本身相关的一种评价机制,所以针对某一项任务,任务完成度越高,目标实现度越高,奖励越高,同时奖励机制还需要包括第一奖励和第二奖励,第一奖励为状态信息和第一协作消息的相关度,其中,第一协作消息是第一模型对第一状态信息的筛选与压缩,第一状态信息与第一协作信息相关度越低,则说明第一模型选择出最相关的信息,筛除了第一状态信息中大量与任务无关的信息,即第一状态信息与第一协作消息的相关度越低,第一奖励越高。
其中,第一奖励可以对第一模型进行评价,根据反馈的第一奖励来对第一模型进行训练学习,这样可以直接对第一模型进行评价,根据奖励不断优化网络模型。
基于第一方面的第一种实施方式,本申请还提供了第一方面的第二种实施方式:
奖励还可以包括第二奖励,第二奖励为第一协作消息、第一协作动作和第二协作动作的相关度。第一协作信息作为第一智能体和其他智能体的第二模型的输入,指导智能体协作动作的选择,当第一协作消息、第一协作动作和第二协作动作的相关度越高,第二奖励越高,第一奖励和第二奖励越高,奖励就越高。
在本申请中,奖励不仅要对任务完成度进行评价,还需要评价第一状态信息和第一协作消息的相关度,第一协作消息与协作动作的相关度;通过该种奖励机制的反馈不断优化网络模型,可以获得更优的第一协作消息、第一协作动作以及第二协作动作,即网络模型可以从状态信息中获取到更有用的信息即第一协作消息,然后根据第一协作消息得到每个智能体最佳的协作动作,从而能更好的完成协作任务。
基于第一方面至第一方面的第二种实施方式,本申请还提供了第一方面的第三种实施方式:
状态信息包括第一智能体从环境中获取到的第一状态信息,还包括其他智能体从环境中获取到的第二状态信息,其中第二状态信息用于确定其他智能体的第二协作消息。
基于第一方面的第三种实施方式,本申请还提供了第一方面的第四种实施方式:
在多智能体协作的场景下,多个智能体从环境中采集状态信息也是由任务决定,根据一定的评价机制来分配采集任务,第一智能体根据协作任务的评价机制从环境中获取第一状态信息,第二智能体根据同一评价机制从环境中获得第二状态信息,然后每一个智能体别对获取到的状态信息进行处理,得到相互通信的协作消息,这样每一个智能体都可以观测到全局的状态信息,更好的协作完成任务。
基于第一方面至第一方面的第四种实施方式,本申请还提供了第一方面的第五种实施方式:
第一智能体还可以包括一个筛选模型,处于第一模型与第二模型之间,用于对第一协作消息和第二协作消息进行筛选,即在第二模型通过第一协作消息和第二协作消息得到第一协作动作之前,对输入第二模型的第一协作消息和第二协作消息进行处理,包括冗余信息删除,错误信息修改等;这样可以使得第二模型的输入更加准确简洁,减少第二模型的强化训练的复杂度。
基于第一方面至第一方面的第五种实施方式,本申请还提供了第一方面的第六种实施方式:
在两个智能体之间相互通信发送协作消息时,还可以通过通信模块来进行协作消息的传递,首先,第一智能体通过通信模块对第一协作消息进行编码,然后向其他智能体发送编码后的第一协作消息,然后其他智能体通过该通信模型,再对其进行解码,然后获取第一协作消息。
一般的智能体在相互通信传递信息时,为了应对信道变换,需要增加冗余来对抗通信介质的干扰,如果利用神经网络对信息进行传递,并且根据任务对通信模型进行强化训练,这样可以得到对任务更有用的通信内容,提高了通信效率。
本申请的第二方面提供了一种第一智能体,包括:
处理单元,用于通过第一模型,对从环境中获取的第一状态信息进行处理,得到第一协作消息。
发送单元,用于向至少一个第二智能体发送所述第一协作消息;
所述处理单元,还用于通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作,所述第二协作消息由所述至少一个第二智能体发送。
其中,所述第一模型和所述第二模型根据相同的奖励确定;所述第一协作消息还用于确定所述至少一个第二智能体需执行的第二协作动作;所述奖励与状态信息、所述第一协作消息、所述第二协作动作和所述第一协作动作相关;所述状态信息包括所述第一状态信息。
基于第二方面,本申请还提供了第二方面的第一种实施方式:
所述奖励是对基于同一协作任务的所述第一智能体与所述至少一个第二智能体的任务完成度的评价,所述奖励包括第一奖励和/或第二奖励,所述第一奖励为所述状态信息和所述第一协作消息的相关度;其中,所述状态信息和所述第一协作消息的相关度越低,所述第一奖励越高。
基于第二方面的第一种实施方式,本申请还提供了第二方面的第二种实施方式:
所述第二奖励为所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度;其中,所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度越高,所述第二奖励越高。
基于第二方面至第二方面的第二种实施方式,本申请还提供了第二方面的第三种实施方式:
所述状态信息还包括第二状态信息,所述第二状态信息用于所述至少一个第二智能体根据所述第二状态信息得到所述第二协作消息。
基于第二方面的第三种实施方式,本申请还提供了第二方面的第四种实施方式:
获取单元,用于根据协作任务的评价机制从环境中获取所述第一状态信息;其中,所述第二状态信息为所述至少一个第二智能体根据所述协作任务的同一评价机制从环境中获得。
基于第二方面至第二方面的第四种实施方式,本申请还提供了第二方面的第五种实施方式:
接收单元,用于通过筛选模型接收所述第二协作消息,所述筛选模型用于根据所述第一协作消息和所述第二协作消息进行筛选。
基于第二方面至第二方面的第五种实施方式,本申请还提供了第二方面的第六种实施方式:
所述发送单元具体用于通过通信模型对所述第一协作消息进行编码;所述发送单元向所述至少一个第二智能体发送编码后的所述第一协作消息,以使得所述至少一个第二智能体通过所述通信模型对编码后的所述第一协作消息进行解码,获取所述第一协作消息。
本申请第三方面提供一种智能体,包括:至少一个处理器和存储器,存储器存储有可在处理器上运行的计算机执行指令,当所述计算机执行指令被所述处理器执行时,所述智能体执行如上述第一方面或第一方面任意一种可能的实现方式所述的方法。
本申请第四方面提供了一种多智能体协作系统,包括:第一智能体和至少一个第二智能体,所述第一智能体和所述至少一个第二智能体执行如上述第一方面至第一方面的任一种可能的实现方式中所述的方法。
本申请实施例第五方面提供了一种计算机存储介质,该计算机存储介质用于储存为上述智能体所用的计算机软件指令,其包括用于执行为智能体所设计的程序。
该智能体可以如前述第二方面所描述的第一智能体。
本申请第六方面提供了一种芯片或者芯片系统,该芯片或者芯片系统包括至少一个处理器和通信接口,通信接口和至少一个处理器通过线路互联,至少一个处理器用于运行计算机程序或指令,以进行第一方面至第一方面的任一种可能的实现方式中任一项所描述的智能体动作的决策方法;
其中,芯片中的通信接口可以为输入/输出接口、管脚或电路等。
在一种可能的实现中,本申请中上述描述的芯片或者芯片系统还包括至少一个存储器,该至少一个存储器中存储有指令。该存储器可以为芯片内部的存储单元,例如,寄存器、缓存等,也可以是该芯片的存储单元(例如,只读存储器、随机存取存储器等)。
本申请第七方面提供了一种计算机程序产品,该计算机程序产品包括计算机软件指令,该计算机软件指令可通过处理器进行加载来实现上述第一方面中任意一项的智能体动作的决策方法中的流程。
从以上技术方案可以看出,本申请具有以下优点:
本申请通过对环境中采集的状态信息进行处理,得到第一协作消息,然后再对第一协作消息进行处理得到第一协作动作,使得原来根据状态信息同时得到协作消息和协作动作的并行网络模型变成串行网络模型,同时奖励除了与任务相关,也与状态信息、协作消息以及协作动作相关,这样使得每一个网络模型的结构更加简单,同时新的奖励机制可以直接对第一模型和第二模型进行评价,减少了神经网络模型的训练复杂度,提高了协作任务的完成度。
附图说明
图1为本申请实施例提供的智能体强化学习示意图;
图2为本申请实施例提供的多智能体强化学习示意图;
图3为本申请实施例提供的全连接神经网络的结构示意图;
图4为本申请实施例提供的智能体动作的决策方法对应的网络架构图;
图4A为本申请实施例提供的智能体动作的决策方法对应的另一个网络架构图;
图4B为本申请实施例提供的智能体动作的决策方法对应的另一个网络架构图;
图5为本申请实施例提供的智能体动作的决策方法的流程示意图;
图6为本申请实施例提供的第一模型和第二模型对应的训练框架图;
图7为本申请实施例提供的第一模型和第二模型对应的另一种训练框架图;
图8为本申请实施例提供的一种智能体的结构示意图;
图9为本申请实施例提供的另一种智能体的结构示意图。
具体实施方式
本申请提供了一种智能体动作的决策方法,用于解决利用任务奖励来间接确定通信内容而导致的神经网络模型训练困难的问题。
下面将结合本申请中的附图,对本申请中的技术方案进行详细描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
请参阅图1,为本申请实施例提供的智能体强化学习示意图,强化学习是智能体利用与环境交互的方式来进行学习,智能体接收环境反馈的状态信息,做出动作,然后获得奖励以及下一时刻的状态。其中,奖励是根据任务本身对动作做出的评价,在一段时间内,智能体积累到的奖励越大,证明智能体对环境状态所做出来动作越好;智能体不断的进行学习,调整动作,最终根据奖励获得知识,改进行动方案以适应环境。
请参阅图2,为本申请实施例提供的多智能体强化学习示意图,多智能体强化学习是指多个智能体同时与环境进行交互,对环境状态做出动作,共同完成协作任务;例如多基站联合调度、自动驾驶中多汽车的联合编队、设备到设备中的多用户联合传输等。由于单个智能体很难观测到全局的状态信息,要实现多智能体之间的协作,更好完成任务,就需要多智能体联合学习,多智能体联合学习即需要通过通信来交互信息。
多智能体之间通信,需要解决传输内容和传输方式的问题,传统的通信方式为传输内容和传输方式分开设计。传输内容通常为某个智能体所观测到的所有状态,如自动驾驶汽车摄像头采集的图像或者视频、基站收集的本小区用户的信道状态、各种传感器采集的数据等。智能体需要将这些数据传输给其他的智能体,通信方法则是采用香农的通信构架,包括信源和信道编码等。其中,信源编码实现对信源的压缩,以降低通信开销;信道编码通过增加冗余,以对抗通信介质中的干扰。
这种通信方式没有针对任务和接收方自身观测到的状态信息对通信内容进行筛选,最坏的情况为发送方需要将自己全部观测到的状态信息传输给其他所有智能体,接收方必须接收到其他所有智能体观测的全部状态信息,这样才能保证每个智能体观测到全局状态,做出最佳动作;因此通信内容将含有大量的冗余信息,导致通信效率降低。
因此,多智能体可以选择基于学习的通信方式,即利用强化学习中奖励的引导,每个智能体自主学习到完成任务所需要的通信内容,利用神经网络模型对通信内容进行选择。根据任务奖励的引导,对神经网络模型进行训练。
如图3所示,为全连接神经网络的结构示意图,全连接神经网络又叫多层感知机(multilayer perceptron,MLP),MLP的左侧xi为输入层,右侧yi为输出层,中间多层则为隐藏层,每一层都包括数个节点,被称为神经元;其中相邻两层的神经元之间两两相连,以第一层为例,第二层每个神经元h为第一层的输出,依次推导,神经网络的最后的输出用矩阵表达可以递归为:y=fn(wnfn-1(...)+bn)。
其中w为权重矩阵,b为偏置向量,f为激活函数。因此,简单的说,可以将神经网络模型理解为一个从输入数据集合到输出数据集合的映射关系。而通常神经网络模型都是随机初始化的,神经网络模型的训练则是不断优化权重矩阵w和偏置向量b的过程,具体的方式是采用损失函数对神经网络的输出结果进行评价,并将误差反向传播,通过梯度下降的方法迭代优化w和b,以降低损失函数,然后利用训练优化后的w和b来对输入进行处理,得到输出;其中,损失函数与任务相关,是对任务的一种评价。
在多智能体联合协作的场景下,多智能体通过神经网络模型,输入从环境中获取的状态信息,输出自身的协作动作和传输给他人的协作消息,利用奖励来对输出进行评价,对神经网络模型进行训练,其中强化学习的目标为:
其中,rt是奖励,γ是折扣因子,π是策略,包括关于协作动作的策略和关于协作消息的策略。其中,π(ai|si,m-i)表示智能体在状态为si,从其他智能体收到的消息为m-i时,执行动作ai;π(mi|si)表示智能体在状态为时si,生成协作消息mi传输给其他智能体;即奖励机制引导神经网络改变输出的协作动作和协作消息,不同的输出会获得不同的奖励,在一段时间内累积的奖励越大时,其对应的协作动作和协作消息越好。
由于奖励是对任务完成度进行的评价,而协作消息影响协作动作,协作动作直接影响任务完成,所以奖励对协作消息的评价是间接的,这将导致根据奖励学习协作消息内容是非常困难的,同时,根据状态信息并行输出协作消息和协作动作将导致神经网络模型规模显著增大,使得神经网络模型训练变得异常困难;另一方面强化学习的目标中只有奖励,没有考虑通信开销,这可能会导致学习到的通信内容维度较大,无法适用于实际通信场景。
请参阅图4,为本申请实施例中的智能体动作的决策方法对应的网络架构图,如图4所示,第一智能体从环境中获取第一状态信息s1,将第一状态信息s1输入至第一智能体的第一模型,生成第一协作消息m1;第二智能体从环境中获取第二状态信息s2,将第二状态信息输入至第二智能体的第一模型,生成第二协作消息m2;然后,第一智能体接收第二智能体发送的第二协作消息m2,并且将第一协作消息m1和第二协作消息m2作为第一智能体对应的第二模型的输入,第二模型对其进行处理,生成第一协作动作a1;同理,第二智能体接收第一智能体发送的第一协作消息m1,并且将第一协作消息m1和第二协作消息m2作为第二智能体对应的第二模型的输入,第二模型对其进行处理,生成第二智能体的第二协作动作a2。
本实施例采用串型网络结构,第一模型完成状态信息的提取,根据协作任务从中抽取对多个智能体的协作动作来说有用的信息,生成协作消息;该协作消息既用于本智能体的动作决策,也是传输给其他智能体的通信内容,影响其他智能体的协作动作决策。第二模型输入本智能体第一模型生成的协作消息和其他智能体发送的协作消息,输出本智能体所需要执行的协作动作。这样,每个神经网络模型的结构更加简单,可以通过改变奖励机制直接对第一模型和第二模型进行训练,具体方法步骤如图5所示:
501、第一智能体通过第一模型,对从环境中获取的第一状态信息进行处理,得到第一协作消息。
状态信息是根据协作任务观测到的环境特征,例如,自动驾驶中多汽车的联合编队的协作任务中,状态信息可以是汽车观测到的路面状况,汽车观测到的障碍物图像等;设备到设备中的多用户联合传输的协作任务中,状态信息可以是设备获取到的信道资源、信道损耗值等。智能体确定行动方案完成协作任务以适应环境,因此,首先需要从环境中获取到状态信息。
在多智能体联合协作的场景下,单个智能体很难掌握全局状态信息,需要多个智能体联合获取状态信息并进行交互,因此,每个智能体都有观测环境状态的任务;可选的,多个智能体根据协作任务本身来分配状态信息的获取,即第一智能体需要根据协作任务的某一评价机制从环境中获取所述第一状态信息;第二智能体也需要根据同一评价机制从环境中获得第二状态信息。
示例性的,在多汽车编队协作的场景下,当为高速公路货车编队时,由于高速公路一般路线固定,障碍物和突发因素较少,因此高速公路货车编队的任务则为与带头货车到行动路线保持一致,各货车之间车距保持不变。因此,根据该协作任务,其评价机制则可以包括对各车之间车距的评价,因此带头的汽车从环境中获取的状态可以是路况信息等,后面的汽车则不仅需要监测路况,还需要监测前一个汽车的位置。
示例性的,当多汽车编队协作为自动协同驾驶时,交通环境的复杂多变将需要汽车感知、计算庞大的数据量,需要车辆全面、准确并迅速地评估实时的交通环境变化,然后作出合理的动作规划;因此,根据这一评价机制,各汽车需要从环境中获取交通拥堵信息、感知领近车辆和行人的动态、获取交通信号灯信息、感知车辆间距,并且根据任务确定每个车辆需要监控的范围等,设计合理的状态信息获取策略,达到合理利用资源、合理完成任务的效果。
第一智能体根据评价机制对环境进行监测,获取到有用第一状态信息,然后对第一状态信息进行处理,即通过第一模型学习到第一状态信息中对任务有用的信息,得到第一协作信息;示例性的,第一模型的结构和维度由第一状态信息的数据结构进行确定,例如状态信息为图像,第一模型就可以采用卷积网络,若状态信息是某一信道值,第一模型则采用全连接神经网络,具体形式不做限定。该第一协作信息不仅用于第一智能体的动作决策,而且还为多智能体之间相互交互通信的通信信息,便于其他智能体获取到全局环境状态信息,即也用于第二智能体的动作决策。
502、第一智能体向至少一个第二智能体发送第一协作消息。
第二智能体的第二协作动作需要由第一协作消息来确定,因此第一智能体需要向第二智能体发送该第一协作消息,在一个优选的实施方式中,第一智能体和第二智能体之间可以通过通信模型来传输信息。请参阅图4A,为本申请实施例中的智能体动作的决策方法对应的另一个网络架构图,如图4A所示:第一智能体在向第二智能体传输第一协作消息m1时,先将第一协作消息m1传输至第一智能体的通信模型,然后由第一智能体的通信模型经过信道传输至第二智能体的通信模型。
通信模型作为信道适配器,可以包括编码器和解码器,用来解决信道干扰、噪声等问题。例如,通信模型中的编码器先对第一协作消息m1进行编码,然后向第二智能体发送,第二智能体的通信模块接收到编码后第一协作消息m1,由通信模块中的解码器对其进行解码,完成数据传输。
其中,通信模块用于减少通信开销,并且保证数据传输真实可靠,利用神经网络可以不断学习新知识,不断调整编码方案,其可以与第一模型和第二模型联合训练,也可以作为独立的网络,完成通信任务,单独进行训练。
503、第一智能体接收至少一个第二智能体发送的第二协作消息。
请参阅图4B,为本申请实施例中的智能体动作的决策方法对应的另一个网络架构图,如图4B所示,第一智能体接收到至少一个第二智能体发送第二协作消息之后,就需要通过第二模型对第一协作消息和第二协作消息进行处理,在将第一协作消息和第二协作消息传输至第二模型之前,还可以通过筛选模块对第一协作消息和第二协作消息进行筛选,将筛选后的信息输入至第二模型。
示例性的,筛选模型可以对第一协作消息和第二协作消息重复的信息进行删减,可以对比第一协作消息和第二协作消息,对错误信息进行纠正,具体不做限定。
可以理解的,步骤502和步骤503无时序上的先后关系,第一智能体可以先发送第一协作消息,再接收第二协作消息,也可以先接收第二协作消息,再发送第一协作消息,具体形式不做限定。
504、第一智能体通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作。
第二模型用于动作决策,通过输入第一协作消息和第二协作消息,来确定智能体本身所要完成的协作动作,然后根据任务评价机制来获得奖励,并根据奖励来学习新知识,不断调整协作动作;最终累计最大奖励确定智能体的行动方案。
其中,第一模型和第二模型由相同的奖励确定;即第一模型和第二模型强化学习的目标一致,都可以为:
其中,是任务的奖励;I(M;A)是协作消息与协作动作之间的互信息,最大化这一项即是从状态信息中提取到与协作动作最相关的协作信息;I(S;M)是协作消息与状态信息之间的互信息,最小化这一项实现对获取状态信息的压缩,去除对与协作动作无关的状态信息的获取。
可以理解的,第一模型和第二模型强化学习的目标中,可以只包括任务的奖励和协作消息与协作动作之间的互信息I(M;A),也可以只包括任务的奖励/>和协作消息与状态信息之间的互信息I(S;M),还可以包括三者,具体不做限定。
可以理解的,奖励与状态信息、第一协作消息、第二协作动作和第一协作动作都相关;是对状态信息、协作消息和协作动作的整体评价,即当智能体确定一个协作动作时,系统需要根据该智能体获取的状态信息与第一协作消息的相关度,第一协作消息与第一协作动作和第二协作动作的相关度来进行评价,确定最终的奖励。在训练过程中,第一模型和第二模型不断进行学习,确定多个行动方案,行动方案中包括状态信息的获取、第一协作消息的生成、以及第一协作动作和第二协作动作的确定。每个行动方案对应一个奖励,最大奖励对应的行动方案将会确定出最有效的状态信息的观测、确定出最有用的协作消息、以及最合适的协作动作。
可以理解的,奖励是对基于同一协作任务的第一智能体与至少一个第二智能体的任务完成度的评价,状态信息和第一协作消息的相关度越低,奖励越高;第一协作消息、第一协作动作和第二协作动作的相关度越高,奖励越高。
可以理解的,第一模型的作用为从状态信息中提取对任务最有用的信息生成第一协作信息,即第一模型需要完成对状态信息的筛选及压缩,当第一模型提取到最有效的信息时,其与状态信息的相关度也就越低,例如状态信息中包括十个不同方面的信息数据,最终第一模型筛选出与任务最相关的数据信息只有三个,这样就可以根据这三个数据信息得到第一协作消息,该第一协作消息与状态信息的相关度低,其奖励就高;第二模型的作用为根据协作消息得到最有用的动作,即第一协作消息与第一协作动作和第二协作动作的相关度越高,奖励越高。
本实施例通过对环境中采集的状态信息进行处理,得到第一协作消息,然后再对第一协作消息进行处理得到第一协作动作,使得原来根据状态信息同时得到协作消息和协作动作的并行网络模型变成串行网络模型,同时奖励除了与任务相关,也与状态信息、协作消息以及协作动作相关,这样使得每一个网络模型的结构更加简单,同时新的奖励机制可以直接对第一模型和第二模型进行评价,减少了神经网络模型的训练复杂度,提高了协作任务的完成度。
下面对第一模型和第二模型的训练过程进行描述:
请参阅图6,为本申请实施例中的第一模型和第二模型对应的训练框架图,如图6所示:
训练框架包括第一智能体、第二智能体、共用的通信评价网络和动作评价网络、以及每个智能体的第一模型和第二模型;训练的过程为:
首先根据任务确定迭代轮数并且初始化所有网络的网络参数,然后第一智能体从环境中获取第一状态信息s1,第二智能体从环境中获取第一状态信息s2,然后基于共同的通信评价网络将第一状态信息s1输入至第一智能体第一模型,将第二状态信息s2输入至第二智能体第一模型,分别得到第一协作消息m1和第二协作消息m2;然后第一协作消息m1和第二协作消息m2传输至共同的动作评价网络中,由共同的动作评价网络传递信息至第一智能体的第二模型和第二智能体的第二模型,每个智能体的第二模型分别对m1和m2进行处理,分别得到第一协作动作a1和第二协作动作a2,然后根据a1和a2获得奖励,同时获取下一时刻的状态信息。当循环次数达到迭代轮数后,就累计计算总奖励并且保存训练模型,然后进行下一次训练,最后从多个训练模型中选取最佳模型,确定最佳参数。
请参阅图7,为本申请实施例中的第一模型和第二模型对应的另一种训练框架图,如图7所示:
训练框架包括第一智能体、第二智能体、每个智能体的第一模型和第二模型;训练的过程为:
首先根据任务确定迭代轮数并且初始化所有网络的网络参数,然后第一智能体从环境中获取第一状态信息s1,第二智能体从环境中获取第一状态信息s2,然后将第一状态信息s1输入至第一智能体第一模型,将第二状态信息s2输入至第二智能体第一模型,分别得到第一协作消息m1和第二协作消息m2;然后第一智能体将第一协作消息m1传输至第一智能体的第二模型和第二智能体,第二智能体将第二协作消息m2传输至第二智能体第二模型和第一智能体;第一智能体的第二模型分别对m1和m2进行处理,得到第一协作动作a1,第二智能体的第二模型分别对m1和m2进行处理,得到第二协作动作a2,然后根据a1和a2获得奖励,同时获取下一时刻的状态信息。当循环次数达到迭代轮数后,就累计计算总奖励并且保存训练模型,然后进行下一次训练,最后从多个训练模型中选取最佳模型,确定最佳参数。
请参阅图8,本申请实施例提供的一种第一智能体的结构示意图。如图8所示,该第一智能体800包括:
处理单元801,用于通过第一模型,对从环境中获取的第一状态信息进行处理,得到第一协作消息。
发送单元802,用于向至少一个第二智能体发送所述第一协作消息。
所述处理单元801,还用于通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作,所述第二协作消息由所述至少一个第二智能体发送。
其中,所述第一模型和所述第二模型根据相同的奖励确定;所述第一协作消息还用于确定所述至少一个第二智能体需执行的第二协作动作;所述奖励与状态信息、所述第一协作消息、所述第二协作动作和所述第一协作动作相关;所述状态信息包括所述第一状态信息。
一种可能的实现中,所述奖励是对基于同一协作任务的所述第一智能体800与所述至少一个第二智能体的任务完成度的评价,所述奖励包括第一奖励和/或第二奖励,所述第一奖励为所述状态信息和所述第一协作消息的相关度;其中,所述状态信息和所述第一协作消息的相关度越低,所述第一奖励越高。
一种可能的实现中,所述第二奖励为所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度;其中,所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度越高,所述第二奖励越高。
一种可能的实现中,所述状态信息还包括第二状态信息,所述第二状态信息用于所述至少一个第二智能体根据所述第二状态信息得到所述第二协作消息。
一种可能的实现中,所述第一智能体800还包括获取单元803。
所述获取单元803,用于根据协作任务的评价机制从环境中获取所述第一状态信息;其中,所述第二状态信息为所述至少一个第二智能体根据所述协作任务的同一评价机制从环境中获得。
一种可能的实现中,所述第一智能体还包括接收单元804。
所述接收单元804,用于通过筛选模型接收所述第二协作消息,所述筛选模型用于根据所述第一协作消息对所述第二协作消息进行筛选。
一种可能的实现中,所述发送单元802具体用于通过通信模型对所述第一协作消息进行编码;所述发送单元802向所述至少一个第二智能体发送编码后的所述第一协作消息,以使得所述至少一个第二智能体通过所述通信模型对编码后的所述第一协作消息进行解码,获取所述第一协作消息。
上述第一智能体800的各个单元的功能,具体可参见前述图5所示的方法实施例中的第一智能体的实现细节,此处不再赘述。
请参阅图9,为本申请实施例提供的另一种第一智能体的结构示意图,该第一智能体900包括:中央处理器901,存储器902,通信接口903。
中央处理器901、存储器902、通信接口903通过总线相互连接;总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器902可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器602还可以包括上述种类的存储器的组合。
中央处理器901可以是中央处理器(central processing unit,CPU),网络处理器(英文:network processor,NP)或者CPU和NP的组合。中央处理器901还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integratedcircuit,ASIC),可编程逻辑器件(programmable logic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
通信接口903可以为有线通信接口,无线通信接口或其组合,其中,有线通信接口例如可以为以太网接口。以太网接口可以是光接口,电接口或其组合。无线通信接口可以为WLAN接口,蜂窝网络通信接口或其组合等。
可选地,存储器902还可以用于存储程序指令,中央处理器901调用该存储器902中存储的程序指令,可以执行图5所示方法实施例中的一个或多个步骤,或其中可选的实施方式,使得所述第一智能体900实现上述方法中智能体的功能,具体此处不再赘述。
本申请实施例还提供了一种多智能体协作系统,包括:第一智能体和至少一个第二智能体;第一智能体和至少一个第二智能体执行如上述图5所示的任一项智能体动作的决策方法。
本申请实施例还提供了一种芯片或者芯片系统,该芯片或者芯片系统包括至少一个处理器和通信接口,通信接口和至少一个处理器通过线路互联,至少一个处理器运行指令或计算机程序,执行图5所示方法实施例中的一个或多个步骤,或其中可选的实施方式,以实现上述方法中智能体的功能。
其中,芯片中的通信接口可以为输入/输出接口、管脚或电路等。
在一种可能的实现中,上述描述的芯片或者芯片系统还包括至少一个存储器,该至少一个存储器中存储有指令。该存储器可以为芯片内部的存储单元,例如,寄存器、缓存等,也可以是该芯片的存储单元(例如,只读存储器、随机存取存储器等)。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质中存储有实现本申请实施例提供的智能体动作的决策方法中智能体功能的计算机程序指令。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品包括计算机软件指令,该计算机软件指令可通过处理器进行加载来实现上述图5所示智能体动作的决策方法中的流程。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (17)
1.一种智能体动作的决策方法,其特征在于,所述方法包括:
第一智能体通过第一模型,根据协作任务对从环境中获取的第一状态信息进行处理,得到第一协作消息并向至少一个第二智能体发送所述第一协作消息;
所述第一智能体通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作,所述第二协作消息由所述至少一个第二智能体根据所述协作任务发送,所述协作任务用于所述第一智能体和所述第二智能体的联合协作;
其中,所述第一模型和所述第二模型根据相同的奖励确定;所述第一协作消息还用于确定所述至少一个第二智能体需执行的第二协作动作;所述奖励与状态信息、所述第一协作消息、所述第二协作动作和所述第一协作动作相关;所述状态信息包括所述第一状态信息。
2.根据权利要求1所述的方法,其特征在于,所述奖励是对基于同一协作任务的所述第一智能体与所述至少一个第二智能体的任务完成度的评价,所述奖励包括第一奖励和/或第二奖励,所述第一奖励为所述状态信息和所述第一协作消息的相关度;其中,所述状态信息和所述第一协作消息的相关度越低,所述第一奖励越高。
3.根据权利要求2所述的方法,其特征在于,所述第二奖励为所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度;其中,所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度越高,所述第二奖励越高。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述状态信息还包括第二状态信息,所述第二状态信息用于所述至少一个第二智能体根据所述第二状态信息得到所述第二协作消息。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
所述第一智能体根据协作任务的评价机制从环境中获取所述第一状态信息;其中,所述第二状态信息为所述至少一个第二智能体根据所述协作任务的同一评价机制从环境中获得。
6.根据权利要求1至5任一项所述的方法,其特征在于,在所述第一智能体通过第二模型,对所述第一协作消息和第二协作消息进行处理之前,所述方法还包括:
所述第一智能体通过筛选模型接收所述第二协作消息,所述筛选模型用于根据所述第一协作消息对所述第二协作消息进行筛选。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述第一智能体向至少一个第二智能体发送所述第一协作消息,包括:
所述第一智能体通过通信模型对所述第一协作消息进行编码;
所述第一智能体向所述至少一个第二智能体发送编码后的所述第一协作消息,以使得所述至少一个第二智能体通过所述通信模型对编码后的所述第一协作消息进行解码,获取所述第一协作消息。
8.一种第一智能体,其特征在于,所述第一智能体包括:
处理单元,用于通过第一模型,根据协作任务对从环境中获取的第一状态信息进行处理,得到第一协作消息;
发送单元,用于向至少一个第二智能体发送所述第一协作消息;
所述处理单元,还用于通过第二模型,对所述第一协作消息和第二协作消息进行处理,得到所述第一智能体执行的第一协作动作,所述第二协作消息由所述至少一个第二智能体根据所述协作任务发送,所述协作任务用于所述第一智能体和所述第二智能体的联合协作;
其中,所述第一模型和所述第二模型根据相同的奖励确定;所述第一协作消息还用于确定所述至少一个第二智能体需执行的第二协作动作;所述奖励与状态信息、所述第一协作消息、所述第二协作动作和所述第一协作动作相关;所述状态信息包括所述第一状态信息。
9.根据权利要求8所述的第一智能体,其特征在于,所述奖励是对基于同一协作任务的所述第一智能体与所述至少一个第二智能体的任务完成度的评价,所述奖励包括第一奖励和/或第二奖励,所述第一奖励为所述状态信息和所述第一协作消息的相关度;其中,所述状态信息和所述第一协作消息的相关度越低,所述第一奖励越高。
10.根据权利要求9所述的第一智能体,其特征在于,所述第二奖励为所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度;其中,所述第一协作消息、所述第一协作动作和所述第二协作动作的相关度越高,所述第二奖励越高。
11.根据权利要求8至10任一项所述的第一智能体,其特征在于,所述状态信息还包括第二状态信息,所述第二状态信息用于所述至少一个第二智能体根据所述第二状态信息得到所述第二协作消息。
12.根据权利要求11所述的第一智能体,其特征在于,所述第一智能体还包括:
获取单元,用于根据协作任务的评价机制从环境中获取所述第一状态信息;其中,所述第二状态信息为所述至少一个第二智能体根据所述协作任务的同一评价机制从环境中获得。
13.根据权利要求8至12任一项所述的第一智能体,其特征在于,所述第一智能体还包括:
接收单元,用于通过筛选模型接收所述第二协作消息,所述筛选模型用于根据所述第一协作消息对所述第二协作消息进行筛选。
14.根据权利要求8至13任一项所述的第一智能体,其特征在于,
所述发送单元具体用于通过通信模型对所述第一协作消息进行编码;所述发送单元向所述至少一个第二智能体发送编码后的所述第一协作消息,以使得所述至少一个第二智能体通过所述通信模型对编码后的所述第一协作消息进行解码,获取所述第一协作消息。
15.一种智能体,包括:至少一个处理器、存储器,存储器存储有可在处理器上运行的计算机执行指令,当所述计算机执行指令被所述处理器执行时,使得所述智能体执行如上述权利要求1至权利要求7任一项所述的方法。
16.一种多智能体协作系统,其特征在于,包括:第一智能体和至少一个第二智能体,所述第一智能体和所述至少一个第二智能体执行如上述权利要求1至7任一项所述的方法。
17.一种存储一个或多个计算机执行指令的计算机可读存储介质,其特征在于,当所述计算机执行指令被处理器执行时,所述处理器执行如上述权利要求1至7任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010306503.7A CN113534784B (zh) | 2020-04-17 | 2020-04-17 | 智能体动作的决策方法及相关设备 |
PCT/CN2021/087642 WO2021209023A1 (zh) | 2020-04-17 | 2021-04-16 | 智能体动作的决策方法及相关设备 |
EP21788348.7A EP4120042A4 (en) | 2020-04-17 | 2021-04-16 | DECISION-MAKING PROCESS FOR AGENT ACTION, AND ASSOCIATED MECHANISM |
US17/964,233 US20230032176A1 (en) | 2020-04-17 | 2022-10-12 | Decision-making method for agent action and related device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010306503.7A CN113534784B (zh) | 2020-04-17 | 2020-04-17 | 智能体动作的决策方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113534784A CN113534784A (zh) | 2021-10-22 |
CN113534784B true CN113534784B (zh) | 2024-03-05 |
Family
ID=78084156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010306503.7A Active CN113534784B (zh) | 2020-04-17 | 2020-04-17 | 智能体动作的决策方法及相关设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230032176A1 (zh) |
EP (1) | EP4120042A4 (zh) |
CN (1) | CN113534784B (zh) |
WO (1) | WO2021209023A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116192308A (zh) * | 2021-11-24 | 2023-05-30 | 华为技术有限公司 | 数据处理方法和通信装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104750745A (zh) * | 2013-12-30 | 2015-07-01 | 华为技术有限公司 | 一种智能体处理信息的方法及智能体 |
CN106964145A (zh) * | 2017-03-28 | 2017-07-21 | 南京邮电大学 | 一种仿人足球机器人传球控制方法及球队控球方法 |
CN108600379A (zh) * | 2018-04-28 | 2018-09-28 | 中国科学院软件研究所 | 一种基于深度确定性策略梯度的异构多智能体协同决策方法 |
CN109416871A (zh) * | 2016-07-08 | 2019-03-01 | 捷豹路虎有限公司 | 车辆通信系统和方法 |
CN109617968A (zh) * | 2018-12-14 | 2019-04-12 | 启元世界(北京)信息技术服务有限公司 | 多智能体协作系统及其智能体、智能体间的通信方法 |
CN110471297A (zh) * | 2019-07-30 | 2019-11-19 | 清华大学 | 多智能体协同控制方法、系统及设备 |
CN110991972A (zh) * | 2019-12-14 | 2020-04-10 | 中国科学院深圳先进技术研究院 | 一种基于多智能体强化学习的货物运输系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8924069B1 (en) * | 2008-04-09 | 2014-12-30 | The United States of America as represented by the Administrator of the National Aeronautics & Space Administration (NASA) | Artificial immune system approach for airborne vehicle maneuvering |
CN105892480B (zh) * | 2016-03-21 | 2018-12-11 | 南京航空航天大学 | 异构多无人机系统协同察打任务自组织方法 |
US11630998B2 (en) * | 2018-03-26 | 2023-04-18 | Cohda Wireless Pty Ltd. | Systems and methods for automatically training neural networks |
CN108334112A (zh) * | 2018-04-08 | 2018-07-27 | 李良杰 | 无人机协作系统 |
CN109116854B (zh) * | 2018-09-16 | 2021-03-12 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
CN210198395U (zh) * | 2019-03-18 | 2020-03-27 | 东莞理工学院 | 无人机与无人车协作导航系统 |
CN110442133A (zh) * | 2019-07-29 | 2019-11-12 | 南京市晨枭软件技术有限公司 | 一种多组工业机器人协同作业的方法及系统 |
-
2020
- 2020-04-17 CN CN202010306503.7A patent/CN113534784B/zh active Active
-
2021
- 2021-04-16 EP EP21788348.7A patent/EP4120042A4/en active Pending
- 2021-04-16 WO PCT/CN2021/087642 patent/WO2021209023A1/zh unknown
-
2022
- 2022-10-12 US US17/964,233 patent/US20230032176A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104750745A (zh) * | 2013-12-30 | 2015-07-01 | 华为技术有限公司 | 一种智能体处理信息的方法及智能体 |
CN109416871A (zh) * | 2016-07-08 | 2019-03-01 | 捷豹路虎有限公司 | 车辆通信系统和方法 |
CN106964145A (zh) * | 2017-03-28 | 2017-07-21 | 南京邮电大学 | 一种仿人足球机器人传球控制方法及球队控球方法 |
CN108600379A (zh) * | 2018-04-28 | 2018-09-28 | 中国科学院软件研究所 | 一种基于深度确定性策略梯度的异构多智能体协同决策方法 |
CN109617968A (zh) * | 2018-12-14 | 2019-04-12 | 启元世界(北京)信息技术服务有限公司 | 多智能体协作系统及其智能体、智能体间的通信方法 |
CN110471297A (zh) * | 2019-07-30 | 2019-11-19 | 清华大学 | 多智能体协同控制方法、系统及设备 |
CN110991972A (zh) * | 2019-12-14 | 2020-04-10 | 中国科学院深圳先进技术研究院 | 一种基于多智能体强化学习的货物运输系统 |
Non-Patent Citations (3)
Title |
---|
multiagent cooperation and competition with deep reinforcement learning;Ardi Tampuu,etal.;《Plos ONE》;20171231;第1-5页 * |
多智能体强化学习在城市交通网络信号控制方法中的应用综述;杨文臣等;《计算机应用研究》;20180612(第06期);第19-24页 * |
对等协商多Agent系统的设计模型;童晓阳等;《西南交通大学学报》;20090415(第02期);第59-65页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113534784A (zh) | 2021-10-22 |
EP4120042A4 (en) | 2023-07-26 |
EP4120042A1 (en) | 2023-01-18 |
WO2021209023A1 (zh) | 2021-10-21 |
US20230032176A1 (en) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931905B (zh) | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 | |
CN103473831B (zh) | 用于使用神经网络定位车辆钥匙的系统、方法和产品 | |
CN110850854A (zh) | 自动驾驶员代理和为自动驾驶员代理提供策略的策略服务器 | |
US20210072033A1 (en) | Logistics and transportation technologies | |
Shi et al. | Machine learning for large-scale optimization in 6g wireless networks | |
US11586203B2 (en) | Method for training a central artificial intelligence module | |
CN113783716B (zh) | 基于云边协同框架的流量预测方法及装置 | |
CN110281949B (zh) | 一种自动驾驶统一分层决策方法 | |
CN113534784B (zh) | 智能体动作的决策方法及相关设备 | |
CN114757362A (zh) | 一种基于边缘增强的多智能体系统通信方法及相关装置 | |
DE112019006526T5 (de) | Rechenvorrichtung | |
CN113541986B (zh) | 5g切片的故障预测方法、装置及计算设备 | |
Shi et al. | Motion planning for unmanned vehicle based on hybrid deep learning | |
CN114327935A (zh) | 一种通信敏感的多智能体协同方法 | |
CN112765892B (zh) | 一种异构车联网中的智能切换判决方法 | |
CN112149835B (zh) | 一种网络重构方法及装置 | |
CN113420879A (zh) | 多任务学习模型的预测方法及装置 | |
CN114399901A (zh) | 一种控制交通系统的方法和设备 | |
Karthi et al. | Electric Vehicle Speed Control with Traffic sign Detection using Deep Learning | |
WO2023116787A1 (zh) | 智能模型的训练方法和装置 | |
CN113179484B (zh) | 一种基于车联网模型的idnc网络编码方法 | |
WO2024032214A1 (zh) | 一种推理方法及相关装置 | |
CN112991200B (zh) | 一种红外图像自适应增强的方法与装置 | |
KR102617344B1 (ko) | 비지도 학습 기반의 깊이 예측 방법 및 이를 이용하는 시스템 | |
US20240185087A1 (en) | Intelligent model training method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |