CN112836805B - Krfpv算法、执行装置、电子设备、存储介质以及神经网络 - Google Patents
Krfpv算法、执行装置、电子设备、存储介质以及神经网络 Download PDFInfo
- Publication number
- CN112836805B CN112836805B CN202110211690.5A CN202110211690A CN112836805B CN 112836805 B CN112836805 B CN 112836805B CN 202110211690 A CN202110211690 A CN 202110211690A CN 112836805 B CN112836805 B CN 112836805B
- Authority
- CN
- China
- Prior art keywords
- action
- node
- value
- network module
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 66
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 62
- 230000009471 action Effects 0.000 claims abstract description 267
- 230000003993 interaction Effects 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000004088 simulation Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims 2
- 238000003062 neural network model Methods 0.000 claims 1
- 238000011156 evaluation Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 19
- 230000010391 action planning Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 4
- 230000001351 cycling effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种KRFPV算法、执行装置、电子设备、存储介质以及神经网络,其技术方案要点是:将价值网络模块、策略网络模块、特征网络模块以及KR‑FPV‑UCT融合到一块便得到了最终KRFPV算法,在KRPV算法的基础上添加特征网络模块来减少相似性评估误差。本申请提供的一种KRFPV算法、执行装置、电子设备、存储介质以及神经网络具有对智能体进行动作规划,同时减小对不同行动之间相似性的评估误差的优点。
Description
技术领域
本申请涉及算法技术领域,具体而言,涉及一种KRFPV算法、执行装置、电子设备、存储介质以及神经网络。
背景技术
现实世界是一个四维的连续空间,其中大多数场景涉及到高维连续行动规划。例如,人体由上百条肌肉所驱动,为了完成一项基本的任务,大脑需要寻找出最佳的驱动这些肌肉的方式;每个机构由不同的人所构成,机构的领导人需要找出最佳的驱动这些人的方式来完成某个目标。高维连续行动空间中的行动规划任务在生活中如此常见,因此解决高维连续行动空间的行动规划任务具有十分重要的现实意义。高维连续行动空间中的行动规划任务涉及到智能体根据已有环境模型在大脑中进行模拟推演,最终从高维的行动空间中选出一个最佳的行动与环境进行交互这一过程。现有的最优规划技术是蒙特卡洛树搜索,而在连续的行动空间中一个比较好的规划技术是KR-UCT。这两种方式通过在当前状态对未来进行推演从而找出最佳的行动。然而这两种方式存在无记忆性的特点,在与环境交互时需要耗费大量的时间对未来进行推演才能找出当前的最佳行动。针对这个问题,KRPV算法使用神经网络保存了智能体与环境的交互信息,随后使用这些信息剪枝了蒙特卡罗树搜索过程,进而加快了蒙特卡罗树搜索的效率,使得蒙特卡罗树搜索可以在有限的时间内从高维的连续行动空间找出最佳的行动,因而大幅提升了KR-UCT在高维连续行动空间的性能。
然而在KRPV算法的选择过程中,KRPV使用了一个不可变的核函数计算不同行动之间的相似性,即如果两个行动在距离上比较相近,那么做两个行动也比较相似。但到了高维行动空间,由于距离上相近的两个行动不一定相似,而且在不同状态下两个动作之间的相似性也在不断变化,因此不可变核函数对不同行动之间的相似性的估计误差变大。如附图6所示的符号函数y=sgn(x)的图像,我们假设这个图像是在状态s下不同行动的价值,我们同样假设行动a=0.01,行动b=-0.01,因为行动a和行动b之间的距离很近,利用不可变核函数计算出a和b之间的相似性比较高,然而事实是a与b一点也不相似。
针对上述问题,需要进行改进。
发明内容
本申请实施例的目的在于提供一种KRFPV算法、执行装置、电子设备、存储介质以及神经网络,具有对智能体进行动作规划,同时减小对不同行动之间相似性的评估误差的优点。
第一方面,本申请实施例提供了一种KRFPV算法,技术方案如下:
初始化神经网络的参数、数据池以及环境,所述神经网络包括特征网络模块、策略网络模块以及价值网络模块;
获取智能体在与所述环境发生交互后t时刻所处的状态以及反馈奖励rt;
将所述作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;
若判断为否,则从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>;
执行最优行动与环境发生交互并获取所述环境反馈的奖励rt以及下一步的状态st+1;
将所述、所述rt、所述/>、所述/>、所述/>以及所述st+1保存到所述数据池中;
根据所述st+1以及所述rt回到上述判断步骤并循环;
若判断为是,则根据所述数据池中的数据训练所述神经网络得到新的参数;
将更新后的神经网络替换掉原有的神经网络;
判断所述智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
进一步地,在本申请实施例中,所述若判断为否,则从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值/>的步骤包括:
根据所述状态设置根节点R、当前节点设为S、模拟次数T1=1;
根据子节点选择策略从所述根节点R递归地选择叶子节点L;
对所述叶子节点L进行判断,若所述叶子节点是一个亟待扩展的节点,则根据所述策略网络模块从行动空间中初始化一个行动集合,其中根节点R对应的行动集合为/>,随后从所述行动集合中随机选择一个行动进行模拟;若所述叶子节点/>已经被充分访问,向所述叶子节点L的行动集合中添加新的行动;
根据所述价值网络模块对新的叶子节点进行评估,得到所述叶子节点L的价值,其中/>为所述根节点R所对应的子节点的价值集合;
根据所述叶子节点更新从所述叶子节点L到所述根节点R路径及兄弟节点的信息、每个路径上节点所对应的状态价值、每个路径上的边所对应的动作的访问次数加一;
从所述根节点R中选择最优行动与环境进行交互。
进一步地,在本申请实施例中,所述根据所述根节点R选择叶子节点L的公式为:
;
;
;
。
进一步地,在本申请实施例中,所述若所述叶子节点L已经被充分访问,向所述叶子节点L的行动集合中添加新的行动的步骤包括:
若所述行动与所述叶子节点L的行动集合中最好的行动相似,同时所述行动不能很好被所述行动集合代表,即所述行动与原来所述行动集合中的行动之间的相似度低于预设值,则将所述行动作为新行动添加到所述子节点L的行动集合中。
进一步地,在本申请实施例中,若所述行动与所述叶子节点L的行动集合中最好的行动相似,同时所述行动不能很好被所述叶子节点L的行动集合代表,即所述行动与原来所述行动集合中的行动之间的相似度低于预设值,则将所述行动作为新行动添加到所述叶子节点L的行动集合中的筛选公式为:
。
进一步地,在本申请实施例中,所述从所述根节点R中选择最优行动与环境进行交互的选择公式为:
。
进一步地,本申请还提供一种KRFPV算法执行装置,包括:
第一获取模块,用于获取智能体在与所述环境发生交互后t时刻所处的状态以及反馈奖励rt;
第一判断模块,用于将所述作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;
第二处理模块,若判断为否,用于从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>;
执行最优行动与环境发生交互并获取环境反馈奖励rt以及下一步的状态st+1;
将所述、所述rt、所述/>、所述/>、所述/>以及所述st+1保存到所述数据池中;
根据所述st+1以及所述rt回到上述判断步骤并循环;
第三处理模块,若判断为是,用于根据所述数据池中的数据训练所述神经网络得到新的参数;
将更新后的神经网络替换掉KR-FPV-UCT中的神经网络;
第二判断模块,用于判断所述智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
进一步地,本申请实施例还提供一种电子设备,所述包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如上所述的算法。
进一步地,本申请实施例还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如上所述的算法。
进一步地,本申请实施例中还提供一种神经网络,包括:
策略网络模块,包括第一输入层、用于接收所述第一输入层信息的第一隐藏层、用于接收所述第一隐藏层信息的第二隐藏层、用于接收所述第二隐藏层信息的第一输出层,所述策略网络模块用于输入状态计算输出所述状态/>下的行动概率分布;
价值网络模块,包括用于接收所述第二隐藏层信息的第二输出层,所述价值网络模块共享所述策略网络模块的所述第一输入层、第一隐藏层以及第二隐藏层,所述价值网络模块用于输入状态计算输出状态/>的价值;
特征网络模块,包括第二输入层、用于接收所述第二输入层信息的状态部分、用于接收所述状态部分信息的行动部分、用于接收所述行动部分信息的特征层、用于接收所述特征层信息的第三输出层,所述特征网络模块用于输入行动计算输出状态/>下行动/>的价值。
由上可知,本申请实施例提供的一种KRFPV算法、执行装置、电子设备、存储介质以及神经网络,利用训练策略网络和价值网络的同时,训练一个特征网络,随后利用特征网络的中间层作为行动的特征用于行动之间相似性的计算,具有对智能体进行动作规划,同时降低KRPV算法中对不同行动之间相似性的估计误差的有益效果。
附图说明
图1为本申请实施例提供的一种KRFPV算法流程图。
图2为本申请实施例提供的一种KR-FPV-UCT算法流程图。
图3为本申请实施例提供的一种KRFPV算法执行装置结构示意图。
图4为本申请实施例提供的一种神经网络结构示意图。
图5为本申请实施例提供的一种电子设备示意图。
图6为符号函数y=sgn(x)的图像。
图中:110、第一处理模块;120、第一获取模块;130、第一判断模块;140、第二处理模块;150、第三处理模块;160、第二判断模块;210、第一输入层;220、第一隐藏层;230、第二隐藏层;240、第一输出层;241、第二输出层;250、第二输入层;260、状态部分;270、行动部分;280、特征层;290、第三输出层。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1至图5,一种KRFPV算法,其技术方案具体包括:
初始化神经网络的参数、数据池以及环境,神经网络包括特征网络模块、策略网络模块以及价值网络模块;其中,神经网络的参数分别为特征网络模块、策略网络模块以及价值网络模块的参数,初始化神经网络的参数的目的是使神经网络的参数随机化,提高神经网络训练的效率;初始化数据池的目的是使数据池准备好接收数据;环境指的是需要完成的任务,初始化环境的目的是确定智能体待完成的任务,确保智能体可以与之顺利交互。
获取智能体在与环境发生交互后t时刻所处的状态以及反馈奖励rt;其中,,是在t时刻状态/>下执行完行动/>后环境所反馈的奖励,/>为t时刻KR-FPV-UCT中树结构的根节点所有的边所对应的行动集合,/>为t时刻/>中每个行动所对应的子节点的价值集合。其中,VX是智能体在环境中的速度矢量,rt主要用于价值网络模块的训练。
将作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;其中,令T为计数器,初始设置为T=0。
若判断为否,则从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>;其中,/>为t时刻KR-FPV-UCT中树结构的根节点所有的边所对应的行动集合,/>为t时刻/>中每个行动所对应的子节点的价值集合,/>和/>主要用于特征网络模块的训练。
执行最优行动与环境发生交互并获取反馈奖励rt以及下一步的状态st+1;
将、rt、/>、/>、/>以及st+1保存到所述数据池中,T=T+1;
根据st+1以及rt回到上述判断步骤并循环;
若判断为是,则根据数据池中的数据训练神经网络得到新的参数;
将更新后的神经网络替换掉原有的神经网络;
判断智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
通过上述技术方案,以特征网络模块、策略网络模块以及价值网络模块构建的神经网络为基础,结合KR-FPV-UCT得到了KRFPV算法,通过对当前智能体的状态来进行蒙特卡罗模拟,在这个过程中还会保存智能体与环境的交互信息,使用这些信息剪枝了蒙特卡罗树搜索的过程,从而加快蒙特卡罗树搜索的效率,并且,在这之中还使用了特征网络来用于行动之间的相似性计算,降低了现有KRPV算法中对不同行动之间相似性的估计误差,因此,本申请所提出的KRFPV算法不仅使得蒙特卡罗树搜索可以在有限的时间内从高维的连续行动空间找出最佳的行动,大幅提升了KR-UCT在高维连续行动空间的性能,还减少相似性的评估误差,提高了智能体行动规划的准确度。
在其中一些实施例中,若判断为否,则从KR-FPV-UCT算法结合使用神经网络和KR-UCT算法得到的最优行动/>、搜索树根节点的行动集合/>、每个行动的价值/>的步骤包括:
根据状态设置根节点R、当前节点设为S、模拟次数T1=1;
根据子节点选择策略从根节点R递归地选择叶子节点L;
对叶子节点L进行判断,若叶子节点是一个亟待扩展的节点,则根据策略网络模块从行动空间中初始化一个行动集合,其中根节点R对应的行动集合为/>,随后从行动集合中随机选择一个行动进行模拟;若叶节子点/>已经被充分访问,向叶子节点L的行动集合中添加新的行动;
根据价值网络模块对新的叶子节点进行评估,得到叶子节点L的价值;其中,叶子节点L的价值/>的作用是计算根节点R所对应子节点的价值。
根据叶子节点L更新从叶子节点L到根节点R路径及兄弟节点的信息、每个路径上节点所对应的状态价值、每个路径上的边所对应的动作的访问次数加一;
从根节点R中选择最优行动与环境进行交互。
通过上述技术方案,在现有的KR-PV-UCT下,结合特征网络模块得到了KR-FPV-UCT,KR-FPV-UCT的模拟与现有KR-PV-UCT的过程相比存在许多不同,参照图2所示,KR-FPV-UCT的模拟过程分别是选择过程、扩展过程、评估过程、反向传播过程以及最终选择过程,具体的:
选择过程:每次模拟从根节点开始,根节点/>表示的是当前的状态,根据子节点选择策略选择叶子节点L,子节点表示父节点执行完一个动作后转移到的状态,直到到达某一个满足条件的叶子节点/>。这里,满足条件的叶子节点L要么是一个亟待扩展的节点,要么这个节点已经被充分访问。其中,叶子节点L的选择策略为:
;
;
;
;
其中,其中是节点的行动集合,/>是行动/>价值的期望,/>是对行动a访问次数的估计,/>是行动a与行动b之间的核函数,可以看作是行动a与行动b之间的相似性,是行动b的真实访问次数,/>是行动b的真实价值。
扩展过程:当叶子节点是一个亟待扩展的节点,根据策略网络模块从行动空间中初始化一个行动集合,随后从行动集合中随机选择一个行动进行模拟。当叶子节点/>已经被充分访问,向叶子节点L的行动集合中添加新的行动。如果一个行动与行动集合中最好的行动相似,同时又不能被行动集合很好的代表,即行动与原来行动集合中的行动之间的相似度低于预设值,那么这个行动作为新行动被添加到行动集合中。筛选行动的公式为:。
评估过程:当扩展过程完成后,我们使用价值网络模块对新的叶子节点进行评估,评估叶子节点L的价值,从而省略随机走棋过程。
反向传播过程:根据对新叶子节点的价值评估和方程,更新从叶子节点L到根节点R路径及兄弟节点的信息每个路径上节点所对应的状态价值,每个路径上的边所对应的动作的访问次数/>。
最终选择过程:在经过充分的模拟之后,即模拟次数达到预设值后,KR-FPV-UCT从根节点R中选择最优行动与环境进行交互,选择最优行动/>的公式如下:
。
进一步地,本申请还提供一种KRFPV算法执行装置,包括:
第一处理模块110,用于初始化神经网络的参数、数据池以及环境,神经网络包括特征网络模块、策略网络模块以及价值网络模块;
第一获取模块120,用于获取智能体在与环境发生交互后t时刻所处的状态以及反馈奖励rt;
第一判断模块130,用于将作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;
第二处理模块140,若判断为否,用于从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、每个行动的价值/>;
执行最优行动与环境发生交互并获取反馈奖励rt以及下一步的状态st+1;
将、rt、/>、/>、/>以及st+1保存到数据池中;
根据st+1以及rt回到上述判断步骤并循环;
第三处理模块150,若判断为是,用于根据数据池中的数据训练神经网络得到新的参数;
将更新后的神经网络替换掉KR-FPV-UCT中的神经网络;
第二判断模块160,用于判断智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
通过上述技术方案,第一处理模块110对神经网络的参数进行初始化,使运行环境回到初始设定,然后通过第一获取模块120获取状态以及反馈奖励rt,以状态/>作为根节点,第一判断模块130通过KR-FPV-UCT计算判断/>是否为终端节点或步数T是否大于最大步数,
当判断为否的时候,第二处理模块140,从KR-FPV-UCT算法结合使用神经网络和KR-UCT算法得到的最优行动/>、搜索树根节点的行动集合/>、每个行动的价值/>;执行最优行动/>与环境发生交互并获取反馈奖励rt以及下一步的状态st+1;将所述/>、所述rt、所述、所述/>、所述/>以及所述st+1保存到所述数据池中;根据所述st+1以及所述rt回到上述判断步骤并循环;
当判断为是的时候,第三处理模块150根据所述数据池中的数据训练所述神经网络得到新的参数;然后将更新后的神经网络替换掉KR-FPV-UCT中的神经网络;
最后,第二判断模块160,判断所述智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
以特征网络模块、策略网络模块以及价值网络模块构件的神经网络为基础,结合KR-FPV-UCT得到了KRFPV算法,通过对当前智能体的状态来进行蒙特卡罗模拟,在这个过程中还会保存智能体与环境的交互信息,使用这些信息剪枝了蒙特卡罗树搜索的过程,从而加快蒙特卡罗树搜索的效率,并且,在这之中还使用了特征网络来用于行动之间的相似性计算,降低了现有KRPV算法中对不同行动之间相似性的估计误差,因此,不仅使得蒙特卡罗树搜索可以在有限的时间内从高维的连续行动空间找出最佳的行动,大幅提升了KR-UCT在高维连续行动空间的性能,还减少相似性的评估误差,提高了智能体行动规划的准确度。
进一步地,本申请实施例还提供一种电子设备,包括处理器以及存储器,存储器存储有计算机可读取指令,当计算机可读取指令由所述处理器执行时,运行上述算法。
通过上述技术方案,处理器和存储器通过通信总线和/或其他形式的连接机构(未标出)互连并相互通讯,存储器存储有处理器可执行的计算机程序,当计算设备运行时,处理器310执行该计算机程序,以执行时执行上述实施例的任一可选的实现方式中的方法,以实现以下功能:初始化神经网络的参数、数据池以及环境,神经网络包括特征网络模块、策略网络模块以及价值网络模块;
获取智能体在与环境发生交互后t时刻所处的状态以及反馈奖励rt;其中,,是在t时刻状态/>下执行完行动/>后环境所反馈的奖励,/>为t时刻KR-FPV-UCT中树结构的根节点的子节点所对应的行动集合,/>为t时刻/>中每个行动所对应的子节点的价值集合。
将作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;其中,令T为计数器,初始设置为T=0。
若判断为否,则从KR-FPV-UCT算法结合使用神经网络和KR-UCT算法得到的最优行动/>、搜索树根节点的行动集合/>、每个行动的价值/>;
执行最优行动与环境发生交互并获取反馈奖励rt以及下一步的状态st+1;
将、rt、/>、/>、/>以及st+1保存到所述数据池中,T=T+1;
根据st+1以及rt回到上述判断步骤并循环;
若判断为是,则根据数据池中的数据训练神经网络得到新的参数;
将更新后的神经网络替换掉原有的神经网络;
判断智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
进一步地,本申请实施例还提供一种存储介质,其上存储有计算机程序,计算机程序被处理器执行时运行上述算法。
通过上述技术方案,计算机程序被处理器执行时,执行上述实施例的任一可选的实现方式中的方法,以实现以下功能:
初始化神经网络的参数、数据池以及环境,神经网络包括特征网络模块、策略网络模块以及价值网络模块;
获取智能体在与环境发生交互后t时刻所处的状态以及反馈奖励rt;其中,,是在t时刻状态/>下执行完行动/>后环境所反馈的奖励,/>为t时刻KR-FPV-UCT中树结构的根节点的子节点所对应的行动集合,/>为t时刻/>中每个行动所对应的子节点的价值集合。
将作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;其中,令T为计数器,初始设置为T=0。
若判断为否,则从KR-FPV-UCT算法结合使用神经网络和KR-UCT算法得到的最优行动/>、搜索树根节点的行动集合/>、每个行动的价值/>;
执行最优行动与环境发生交互并获取反馈奖励rt以及下一步的状态st+1;
将、rt、/>、/>、/>以及st+1保存到所述数据池中,T=T+1;
根据st+1以及rt回到上述判断步骤并循环;
若判断为是,则根据数据池中的数据训练神经网络得到新的参数;
将更新后的神经网络替换掉原有的神经网络;
判断智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
其中,存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory, 简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory, 简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory, 简称EPROM),可编程只读存储器(Programmable Red-Only Memory, 简称PROM),只读存储器(Read-OnlyMemory, 简称ROM),磁存储器,快闪存储器,磁盘或光盘。
进一步地,本申请实施例中还提供一种神经网络,包括:
策略网络模块,包括第一输入层210、用于接收第一输入层210信息的第一隐藏层220、用于接收所述第一隐藏层220信息的第二隐藏层230、用于接收第二隐藏层230信息的第一输出层240,策略网络模块用于输入状态计算输出所述状态/>下的行动概率分布;
价值网络模块,包括用于接收所述第二隐藏层230信息的第二输出层241,价值网络模块共享策略网络模块的第一输入层210、第一隐藏层220以及第二隐藏层230,价值网络模块用于输入状态计算输出状态/>的价值;
特征网络模块,包括第二输入层250、用于接收第二输入层250信息的状态部分260、用于接收所述状态部分260信息的行动部分270、用于接收行动部分270信息的特征层280、用于接收特征层280信息的第三输出层,特征网络模块用于输入行动计算输出状态/>下行动/>的价值。
通过上述技术方案,训练一个包括状态部分260和行动部分270的特征网络模块,其中,状态部分260与价值网络模块的相同并互相共享参数,行动部分270与状态部分260的结构相同,在一些具体实施方式中,状态部分260与行动部分270分别具有128个神经元,然后利用一个具有128个神经元的特征层280对状态部分260以及行动部分270进行汇总,输出层具有一个神经元,通过输出层的最后一个神经元输出对状态下行动/>的价值评估。状态部分用于提取状态相关的特征,行动部分用于提取与行动相关的特征,最终用于核函数的计算。
在其中一些实施例中,特征网络模块的训练公式为,其中,M为第/>次训练时的训练样本的大小,/>为第/>次迭代特征模块的损失函数,/>为特征模块的标签,/>为特征网络模块对状态/>下行动/>的价值估计;特征模块的标签通过蒙特卡罗树搜索对根节点的行动集中每个行动的价值估计而获得。
策略网络模块的训练公式为,/>为第/>次迭代策略网络模块的参数,/>为第/>次迭代策略网络模块的损失函数,M为第/>次训练时的训练样本的大小,/>为策略模块的标签,/>为策略网络模块的输出,/>为KR-PV-UCT模拟从根节点中选出的最佳的行动。
价值网络模块的训练公式为,其中,/>为第t时间步时智能体所处的状态,/>是状态/>的价值标签,/>为智能体在第/>步时的奖励,/>为衰减因子,T为一个周期内总时间步。M为第/>次训练时的训练样本的大小,/>为第/>次迭代价值网络模块的参数,/>为第/>次迭代价值网络模块的损失函数,/>是状态/>的价值标签,/>为第/>次迭代时价值网络模块对状态s的价值评估。此外,价值网络模块的标签通过智能体与环境交互时产生的信息和公式/>所决定。
整个神经网络的训练公式为:。
通过上述技术方案,对特征网络模块进行训练,通过不断的训练和迭代,使其计算结果越接近真实值。
在其中一些实施例中,特征网络模块的相似性计算公式为,是行动a与行动b之间的核函数,/>为行动a在状态s下的特征。
通过上述技术方案,利用特征网络模块作为行动的特征用于相似性计算,由于传统的于KR-UCT算法主要将核函数用于行动价值的估计,因此可以得出了以下的思路,即如果在某一状态下两个行动的价值很相近,那么在这一状态下这两个行动也很相似,因此在本申请所记载的方案中,利用特征网络模块作为行动的特征用于相似性计算,进而减小对不同行动之间相似性的评估误差。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (8)
1.一种KRFPV算法,其特征在于,包括:
初始化神经网络的参数、数据池以及环境,所述神经网络包括特征网络模块、策略网络模块以及价值网络模块;
获取智能体在与所述环境发生交互后t时刻所处的状态以及反馈奖励/>;
将所述作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;
若判断为否,则从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合、根节点行动集合/>对应的价值集合/>;
执行最优行动与环境发生交互并获取所述环境反馈的奖励/>以及下一步的状态/>;
将所述、所述/>、所述/>、所述/>、所述/>以及所述/>保存到所述数据池中;
根据所述以及所述/>回到上述判断步骤并循环;
若判断为是,则根据所述数据池中的数据训练所述神经网络得到新的参数;
将更新后的神经网络替换掉原有的神经网络;
神经网络的训练公式为:;/>为策略网络模块的训练公式,为价值网络模块的训练公式,/>为特征网络的训练公式,表示为:,其中,M为第i次训练时的训练样本的大小,/>为第i次迭代特征模块的损失函数,/>为特征模块的标签,/>为特征网络模块对状态/>下行动/>的价值估计;特征模块的标签/>通过蒙特卡罗树搜索对根节点的行动集中每个行动的价值估计而获得;
判断所述智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束;
所述若判断为否,则从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>的步骤包括:
根据所述状态设置根节点R、当前节点设为S、模拟次数T1=1;
根据子节点选择策略从所述根节点R递归地选择叶子节点L;
对所述叶子节点L进行判断,若所述叶子节点L是一个亟待扩展的节点,则根据所述策略网络模块从行动空间中初始化一个行动集合,其中根节点R对应的行动集合为,随后从所述行动集合中随机选择一个行动进行模拟;若所述叶子节点L已经被充分访问,向所述叶子节点L的行动集合中添加新的行动;
根据所述价值网络模块对新的叶子节点进行评估,得到所述叶子节点L的价值,其中/>为所述根节点R所对应的子节点的价值集合;
根据所述叶子节点L更新从所述叶子节点L到所述根节点R路径及兄弟节点的信息、每个路径上节点所对应的状态价值、每个路径上的边所对应的动作的访问次数加一;
从所述根节点R中选择最优行动与环境进行交互;
所述根据子节点选择策略从所述根节点R递归地选择叶子节点L的选择策略为:
其中,/>为特征网络模块的相似性计算公式;其中,A是节点的行动集合,/>是行动a价值的期望,是对行动a访问次数的估计,/>是对行动b访问次数的估计,/>是行动a与行动b之间的核函数,可以看作是行动a与行动b之间的相似性,/>是行动b的真实访问次数,/>是行动b的真实价值。
2.根据权利要求1所述的KRFPV算法,其特征在于,所述若所述叶子节点L已经被充分访问,向所述叶子节点L的行动集合中添加新的行动的步骤包括:
若所述行动与所述叶子节点L的行动集合中最好的行动相似,同时所述行动不能很好被所述行动集合代表,即所述行动与原来所述行动集合中的行动之间的相似度低于预设值,则将所述行动作为新行动添加到所述叶子节点L的行动集合中。
3.根据权利要求2所述的KRFPV算法,其特征在于,所述若所述行动与所述叶子节点L的行动集合中最好的行动相似,同时所述行动不能很好被所述行动集合代表,即所述行动与原来所述行动集合中的行动之间的相似度低于预设值,则将所述行动作为新行动添加到所述叶子节点L的行动集合中的筛选公式为:。
4.根据权利要求1所述的KRFPV算法,其特征在于,所述从所述根节点R中选择最优行动与环境进行交互的选择公式为:/>。
5.一种KRFPV算法执行装置,其特征在于,包括:
第一处理模块,用于初始化神经网络的参数、数据池以及环境,所述神经网络包括特征网络模块、策略网络模块以及价值网络模块;
第一获取模块,用于获取智能体在与所述环境发生交互后t时刻所处的状态以及反馈奖励/>;
第一判断模块,用于将所述作为根节点使用KR-FPV-UCT算法进行计算,并判断/>是否为终端节点或步数T是否大于最大步数;
第二处理模块,若判断为否,用于从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>;
执行最优行动与环境发生交互并获取所述环境反馈的奖励/>以及下一步的状态/>;
将所述、所述/>、所述/>、所述/>、所述/>以及所述/>保存到所述数据池中;
根据所述以及所述/>回到上述判断步骤并循环;
所述第二处理模块,所述若判断为否,还用于从KR-FPV-UCT算法中得到的最优行动/>、搜索树根节点的行动集合/>、根节点行动集合/>对应的价值集合/>的步骤包括:
根据所述状态设置根节点R、当前节点设为S、模拟次数T1=1;
根据子节点选择策略从所述根节点R递归地选择叶子节点L;
对所述叶子节点L进行判断,若所述叶子节点L是一个亟待扩展的节点,则根据所述策略网络模块从行动空间中初始化一个行动集合,其中根节点R对应的行动集合为,随后从所述行动集合中随机选择一个行动进行模拟;若所述叶子节点L已经被充分访问,向所述叶子节点L的行动集合中添加新的行动;
根据所述价值网络模块对新的叶子节点进行评估,得到所述叶子节点L的价值,其中/>为所述根节点R所对应的子节点的价值集合;
根据所述叶子节点L更新从所述叶子节点L到所述根节点R路径及兄弟节点的信息、每个路径上节点所对应的状态价值、每个路径上的边所对应的动作的访问次数加一;
从所述根节点R中选择最优行动与环境进行交互;
所述根据子节点选择策略从所述根节点R递归地选择叶子节点L的选择策略为:
其中,/>为特征网络模块的相似性计算公式;其中,A是节点的行动集合,/>是行动a价值的期望,/>是对行动a访问次数的估计,/>是对行动b访问次数的估计,/>是行动a与行动b之间的核函数,可以看作是行动a与行动b之间的相似性,/>是行动b的真实访问次数,/>是行动b的真实价值;
第三处理模块,若判断为是,用于根据所述数据池中的数据训练所述神经网络得到新的参数;
将更新后的神经网络替换掉KR-FPV-UCT中的神经网络;
神经网络的训练公式为:;/>为策略网络模块的训练公式,为价值网络模块的训练公式,/>为特征网络的训练公式,表示为:,其中,M为第i次训练时的训练样本的大小,/>为第i次迭代特征模块的损失函数,/>为特征模块的标签,/>为特征网络模块对状态/>下行动/>的价值估计;特征模块的标签/>通过蒙特卡罗树搜索对根节点的行动集中每个行动的价值估计而获得;
第二判断模块,用于判断所述智能体与环境的交互次数,如果没有达到预设值则初始化环境并继续执行上述步骤,如果达到预设值则结束。
6.一种电子设备,其特征在于,所述包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如权利要求1-4任一项所述的算法。
7.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时运行如权利要求1-4任一项所述的算法。
8.一种神经网络模型产品,其特征在于,应用于如权利要求1-4任一项所述的算法,包括:
策略网络模块,包括第一输入层、用于接收所述第一输入层信息的第一隐藏层、用于接收所述第一隐藏层信息的第二隐藏层、用于接收所述第二隐藏层信息的第一输出层,所述策略网络模块用于输入状态计算输出所述状态/>下的行动概率分布;
价值网络模块,包括用于接收所述第二隐藏层信息的第二输出层,所述价值网络模块共享所述策略网络模块的所述第一输入层、第一隐藏层以及第二隐藏层,所述价值网络模块用于输入状态计算输出状态/>的价值;
特征网络模块,包括第二输入层、用于接收所述第二输入层信息的状态部分、用于接收所述状态部分信息的行动部分、用于接收所述行动部分信息的特征层、用于接收所述特征层信息的第三输出层,所述特征网络模块用于输入行动计算输出状态/>下行动/>的价值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110211690.5A CN112836805B (zh) | 2021-02-25 | 2021-02-25 | Krfpv算法、执行装置、电子设备、存储介质以及神经网络 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110211690.5A CN112836805B (zh) | 2021-02-25 | 2021-02-25 | Krfpv算法、执行装置、电子设备、存储介质以及神经网络 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112836805A CN112836805A (zh) | 2021-05-25 |
CN112836805B true CN112836805B (zh) | 2024-05-10 |
Family
ID=75933608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110211690.5A Active CN112836805B (zh) | 2021-02-25 | 2021-02-25 | Krfpv算法、执行装置、电子设备、存储介质以及神经网络 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836805B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115618754B (zh) * | 2022-12-19 | 2023-04-07 | 中国科学院自动化研究所 | 多智能体的价值评估方法、装置和可读储存介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110326004A (zh) * | 2017-02-24 | 2019-10-11 | 谷歌有限责任公司 | 使用路径一致性学习训练策略神经网络 |
CN111582469A (zh) * | 2020-03-23 | 2020-08-25 | 成都信息工程大学 | 多智能体协作信息处理方法、系统、存储介质、智能终端 |
CN112264999A (zh) * | 2020-10-28 | 2021-01-26 | 复旦大学 | 用于智能体连续空间行动规划的方法、装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11480972B2 (en) * | 2018-11-13 | 2022-10-25 | Qualcomm Incorporated | Hybrid reinforcement learning for autonomous driving |
-
2021
- 2021-02-25 CN CN202110211690.5A patent/CN112836805B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110326004A (zh) * | 2017-02-24 | 2019-10-11 | 谷歌有限责任公司 | 使用路径一致性学习训练策略神经网络 |
CN111582469A (zh) * | 2020-03-23 | 2020-08-25 | 成都信息工程大学 | 多智能体协作信息处理方法、系统、存储介质、智能终端 |
CN112264999A (zh) * | 2020-10-28 | 2021-01-26 | 复旦大学 | 用于智能体连续空间行动规划的方法、装置及存储介质 |
Non-Patent Citations (2)
Title |
---|
Multiple Policy Value Monte Carlo Tree Search;Li-Cheng Lan et al.;arXiv;20190531;第1-7页 * |
基于蒙特卡罗模拟修正的随机矩阵去噪方法;骆旗;韩华;龚江涛;王海军;;计算机应用(09) * |
Also Published As
Publication number | Publication date |
---|---|
CN112836805A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shao et al. | A survey of deep reinforcement learning in video games | |
CN111401556B (zh) | 一种对抗式模仿学习中奖励函数的选择方法 | |
Goyal et al. | Using natural language for reward shaping in reinforcement learning | |
Lanctot et al. | A unified game-theoretic approach to multiagent reinforcement learning | |
Bellemare et al. | The arcade learning environment: An evaluation platform for general agents | |
Margaritis | Learning Bayesian network model structure from data | |
Wierstra et al. | Natural evolution strategies | |
Doshi-Velez et al. | Bayesian nonparametric methods for partially-observable reinforcement learning | |
Paster et al. | You can’t count on luck: Why decision transformers and rvs fail in stochastic environments | |
Van Otterlo | The logic of adaptive behavior: Knowledge representation and algorithms for adaptive sequential decision making under uncertainty in first-order and relational domains | |
Roohi et al. | Predicting game difficulty and churn without players | |
US20220405682A1 (en) | Inverse reinforcement learning-based delivery means detection apparatus and method | |
Nagy | Artificial Intelligence and Machine Learning Fundamentals: Develop real-world applications powered by the latest AI advances | |
CN112836805B (zh) | Krfpv算法、执行装置、电子设备、存储介质以及神经网络 | |
Hämäläinen et al. | Visualizing movement control optimization landscapes | |
Milani et al. | Towards solving fuzzy tasks with human feedback: A retrospective of the minerl basalt 2022 competition | |
Boots | Spectral approaches to learning predictive representations | |
Powell | Approximate dynamic programming-II: algorithms | |
Mott et al. | Controllable and coherent level generation: A two-pronged approach | |
Ashraf et al. | A state-of-the-art review of deep reinforcement learning techniques for real-time strategy games | |
Dahl | The lagging anchor algorithm: Reinforcement learning in two-player zero-sum games with imperfect information | |
Askren | Survey of Deep Neural Networks Handling Plan Development using Simulations of Real-World Environments | |
Jónsson | Representing uncertainty in rts games | |
CN117648585B (zh) | 基于任务相似度的智能决策模型泛化方法和装置 | |
CN111178541B (zh) | 游戏人工智能系统及其性能提升系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |