CN112766497A - 深度强化学习模型的训练方法、装置、介质及设备 - Google Patents
深度强化学习模型的训练方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN112766497A CN112766497A CN202110127253.5A CN202110127253A CN112766497A CN 112766497 A CN112766497 A CN 112766497A CN 202110127253 A CN202110127253 A CN 202110127253A CN 112766497 A CN112766497 A CN 112766497A
- Authority
- CN
- China
- Prior art keywords
- value
- target
- sampling data
- state
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002787 reinforcement Effects 0.000 title claims abstract description 190
- 238000000034 method Methods 0.000 title claims abstract description 122
- 238000012549 training Methods 0.000 title claims abstract description 46
- 238000005070 sampling Methods 0.000 claims abstract description 485
- 230000009471 action Effects 0.000 claims abstract description 207
- 230000006870 function Effects 0.000 claims abstract description 201
- 230000003993 interaction Effects 0.000 claims abstract description 139
- 230000008901 benefit Effects 0.000 claims abstract description 74
- 238000004364 calculation method Methods 0.000 claims abstract description 54
- 230000002452 interceptive effect Effects 0.000 claims description 60
- 238000009826 distribution Methods 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 35
- 238000005457 optimization Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006399 behavior Effects 0.000 claims description 9
- 238000005728 strengthening Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 395
- 230000008569 process Effects 0.000 description 52
- 230000002829 reductive effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种深度强化学习模型的训练方法、装置、介质及设备,所述方法包括:获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,交互序列包括多个采样数据,每一采样数据包括虚拟环境的第一状态、决策动作、以及在虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值;针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息;根据所述更新梯度信息对所述深度强化学习模型进行更新。
Description
技术领域
本公开涉及计算机技术领域,具体地,涉及一种深度强化学习模型的训练方法、装置、介质及设备。
背景技术
随机计算机技术的发展,各类大型模型、复杂的机器学习模型逐渐开始应用。深度强化学习将深度学习的感知能力和强化学习的决策能力相结合,可以直接根据输入的图像进行控制,更接近人类思维方式。在深度强化学习模型的训练过程中,通常需要基于动作值函数对某一状态下的选择决策动作策略进行评价,以便于该深度强化学习模型的策略提升。
相关技术中,在基于动作值函数进行计算获得动作价值的过程中会引入误差,并且在进行梯度更新时通常是基于当前步的策略或回报进行更新,难以通过梯度优化的方式确定出最优策略,难以保证深度强化学习模型的训练效率和准确性。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种深度强化学习模型的训练方法,所述方法包括:
获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
根据所述更新梯度信息对所述深度强化学习模型进行更新。
第二方面,本公开提供一种深度强化学习模型的训练装置,所述装置包括:
获取模块,用于获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述环境的第一状态、决策动作、以及在所述环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
第一确定模块,用于针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
第二确定模块,用于针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
更新模块,用于根据所述更新梯度信息对所述深度强化学习模型进行更新。
第三方面,提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第四方面,提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面所述方法的步骤。
通过上述技术方案,可以基于该深度强化学习模型对应的交互序列和参数确定模型对该深度强化学习模型中的目标超参数进行动态调整和设置,避免人为经验设置的局限性,在保证目标超参数取值准确的同时,提高该目标取值与该深度强化学习模型的实际应用场景的匹配程度。并且,基于优势函数和深度强化学习模型的策略熵参数构造决策策略对应的概率分布,从而可以通过优势函数对决策策略的概率分布进行表示,以使得在采样数据对应的决策策略下该优势函数值的优势期望可以基于优势函数进行计算,从而获得准确的优势期望,与现有技术中通过优势函数值的平均值对其期望进行估计相比,可以有效降低优势期望计算过程中的误差,既可以对该第一状态下的各个动作的优势价值进行准确评价,同时提高对深度强化学习模型中的策略的评价准确性,也可以为深度强化学习模型的训练过程提供准确的数据支持。另外,在基于获得的交互序列对深度强化学习模型进行训练的过程中,针对交互序列中除最后一个采样数据之外的每一采样数据,在基于该采样数据确定更新梯度信息时,并非只基于该采样数据进行确定,而是结合该采样数据以及该采样数据之后的每一采样数据进行确定,从而使得确定出的更新梯度信息的准确性提高,使得确定出的更新梯度信息与深度强化学习的实际处理过程相匹配,从而可以提高基于该更新梯度信息对深度强化学习模型进行更新的准确性和效率,为深度强化学习模型获得最优策略提供准确的数据支持。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据本公开的一种实施方式提供的深度强化学习模型的训练方法的流程图;
图2是根据本公开的一种实施方式提供的根据交互样本,对参数确定模型中目标超参数对应的状态价值进行更新的示例性实现方式的流程图;
图3是根据本公开的一种实施方式提供的深度强化学习模型的训练装置的框图;
图4是示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1所示,为根据本公开的一种实施方式提供的深度强化学习模型的训练方法的流程图,如图1所示,所述方法包括:
在步骤11中,获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态。
深度强化学习模型将深度学习的感知能力和强化学习的决策能力相结合,其通过在每个时刻代理(agent)与环境交互得到一个高维度的观察,并利用深度学习方法来感知该观察,以得到该观察具体的状态特征表示;之后可以基于预期回报来评价各个状态的价值函数(状态值函数)和状态-动作对的价值函数(动作值函数),并且基于这两个价值函数对决策策略进行提升,决策策略用于将当前状态映射为相应的决策动作;环境会对此决策动作做出反应,并得到下一个观察。通过不断循环以上过程,以得到实现目标的最优策略,示例地,该目标为累计回报最大。
因此,在该应用场景中,所述虚拟对象基于所述深度强化学习模型进行控制。其中,虚拟环境可以是用计算机生成的一种虚拟的场景环境,如虚拟环境可以是游戏场景,示例地,对用于与用户进行交互的多媒体数据进行渲染,从而可以将该多媒体数据渲染显示为游戏场景,虚拟环境提供了一个多媒体的虚拟世界,用户可通过操作界面上的控件来控制虚拟对象动作,或直接对虚拟环境中可操作的虚拟对象进行控制,并以虚拟对象的视角观察虚拟环境中的物体、人物、风景等,以及通过虚拟对象和虚拟环境中的其它虚拟对象等进行互动。作为另一示例,该虚拟环境还可以包括场景中的其他虚拟对象等。虚拟对象可以是在虚拟环境中的用于模拟用户的虚拟形象,其可以是人类形象或者其他动物形象等。
作为示例,该虚拟对象可以在该虚拟环境的第一状态下执行决策动作,则在该虚拟对象执行该决策动作后,该虚拟环境则可以对该决策动作做出反应,从而获得该虚拟环境的第二状态,以及执行该决策动作对应的回报值。则在虚拟对象与该虚拟环境进行交互的过程中进行采样时,可以基于将该第一状态、决策动作、第二状态以及该回报值作为该采样时刻对应的采样数据。在一次完整的交互过程中,按照采样时间的先后顺序的采样数据形成为一交互序列。示例地,该目标模型可以为一深度强化学习模型,虚拟场景可以为一虚拟迷宫场景,在该虚拟迷宫场景中的随机位置中可能出现虚拟奖励,可以训练深度强化学习模型以确定虚拟对象从虚拟迷宫入口E1至出口E2的策略,以使得虚拟对象从入口E1至出口E2的过程中获得的虚拟奖励最多。示例地,从入口E1处在初始时刻采样,虚拟对象所述虚拟环境在该初始时刻的第一状态下对应的动作为直行或右转,则可以根据策略确定该初始时刻的状态下对应决策动作,示例地决策动作为直行,环境基于该决策动作做出反应获得回报值和第二状态,采样获得一采样数据。在下一时刻采样,获得该虚拟对象所述虚拟环境在该下一时刻的第一状态,该第一状态下对应的动作为直行或右转,则可以根据策略确定该下一时刻的第一状态下对应的决策动作,示例地决策动作为右转,同样地环境基于该决策动作做出反应获得回报值和第二状态,获得下一采样数据。则在虚拟对象移动至出口E2的过程中,通过上述方式采样可以获得包含多个采样数据的交互序列。
其中,在进行采样时,可以获取该采样时刻对应的虚拟环境的图像,从而可以对该图像进行特征提取,以获得该第一状态。在该虚拟对象执行决策动作之后,采样获取虚拟环境的图像并对图像进行特征提取,以获得第二状态。该回报值可以是执行该决策动作后,该虚拟对象对应的得分值的变化,也可以是虚拟生命条的变化等,可以根据实际使用场景进行设置,本公开对此不进行限定。
在步骤12中,针对每一采样数据,根据深度强化学习模型的优势函数和采样数据对应的决策策略,确定采样数据对应的计算动作价值。
其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的。熵是不确定性的度量,不确定性越大熵越大,本公开中该策略熵参数为该深度强化学习模型中的超参数,用于表示策略的多样性,该策略熵参数越大,表示可选择的策略更多样。该超参数的取值可以基于人为经验进行设置,也可以深度强化学习模型更新的过程中,基于对应的交互序列动态调整,以进一步提高深度强化模型更新的准确性和效率。
所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数。因此,在该实施例中可以在深度强化学习模型的训练过程中动态调整该策略熵参数的取值,以提高深度强化学习模型的训练效率。
在一种可能的实施例中,所述优化特征参数可以为所述交互序列对应的累计回报。作为示例,该累计回报可以是该交互序列中包含的每一决策动作对应的回报值之和。作为另一示例,与当前决策动作距离越远的决策动作对该当前决策动作的影响越小,则该累计回报可以是该交互序列中的每一决策动作的回报值与该决策动作对应的衰减系数的乘积的累加和,其中,决策动作对应的衰减系数按照所述决策动作由先至后的顺序递减,例如:
Gt=Rt+1+γRt+2+γ2Rt+3+…+γn-1Rt+n
=Rt+1+γ(Rt+2+γRt+3+…+γn-2Rt+n)
=Rt+1+γGt+1
其中,Ri用于表示i时刻的决策动作的回报值,γ用于表示该衰减系数,n可以用于表示该交互序列中t时刻之后到交互结束的采样数据的数量。
因此,在另一实施例中,可以从交互序列的最后一个决策动作起,将其回报值与衰减值相乘并与前一决策动作的回报值相加,直至与所述交互序列中的第一个决策动作的回报值相加,获得该累计回报。其中该衰减值可以根据实际使用场景进行设置。
示例地,在该深度强化学习模型中,可以通过一神经网络实现该优势函数的计算,示例地,该优势函数网络可以基于CNN(Convolutional Neural Networks,卷积神经网络)和RNN(Recurrent Neural Networks,循环神经网络)实现。
在本领域中,优势函数通常用于评价在状态s下选择动作a的优势价值,因此,在确定该优势价值时,通常需要确定出在状态s下选择各个动作的优势期望,其中,所述优势期望用于表示优势函数关于策略的期望。相关技术中是基于优势函数值的平均值对该期望进行估计,则其必然会引入误差,从而会导致确定出的计算动作价值的计算误差,导致在深度强化学习模型的训练过程中无法找到最优策略。
示例地,虚拟场景可以为一虚拟迷宫场景,在该虚拟迷宫场景中的随机位置中可能出现虚拟奖励,可以训练深度强化学习模型以确定虚拟对象从虚拟迷宫入口E1至出口E2的策略,以使得虚拟对象从入口E1至出口E2的过程中获得的虚拟奖励最多。在基于交互序列对该深度强化学习模型训练的过程中,基于该交互序列中的采样数据,在虚拟对象在虚拟迷宫场景中的状态s时,在该状态s下其可以选择直行,左转或右转等三个动作,若如相关技术中方案,在对该三个动作进行价值评价时动作价值中引入误差,则会使得对该选择决策动作的决策策略的评价产生误差,降低基于该交互序列对该深度强化学习模型的策略提升的准确性,在该情况下通常需要更多的训练样本数据对该深度强化学习模型进行训练,甚至还会影响该深度强化学习模型的收敛性,出现深度强化学习模型未收敛的问题。
在深度强化学习模型中,是基于决策策略将当前状态映射为相应的决策动作,因此,在本公开实施例中,可以基于所述优势函数和所述深度强化学习模型的策略熵参数构造决策策略对应的概率分布,即通过优势函数和策略熵参数对决策策略的函数进行求解,以使得该决策策略的函数可以具有显式表现形式,以使得在采样数据对应的决策策略下该优势函数值的优势期望存在闭式解,从而可以基于优势函数和对应的决策策略进行计算求解,而无需用采样样本的均值逼近以确定优势期望。由此,在确定计算动作价值时,不会出现计算优势期望引入误差的问题,从而获得准确的优势期望和计算动作价值,实现对选择决策动作的决策策略的准确评价,以提高深度强化学习模型的策略提升的效率。
在步骤13中,针对每一采样数据,根据采样数据对应的目标采样数据和目标采样数据对应的计算动作价值,确定深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种。
示例地,示例地,若交互序列中包含N个采样数据,即D1-DN,则采样数据D1对应的目标数据即为该采样数据D1本身,以及交互序列中处于该采样数据D1之后的每一采样数据,即D2-DN。针对采样数据Dt(t<N),则采样数据Dt对应的目标数据即为该采样数据Dt本身,以及交互序列中处于该采样数据Dt之后的每一采样数据,即Dt+1-DN。针对交互序列中的最后一个采样数据,其对应的目标采样数据即为DN。
在步骤14中,根据更新梯度信息对深度强化学习模型进行更新。
示例地,可以基于确定出更新梯度信息通过梯度反向传播的方式对深度强化学习模型进行更新,该方式可以采用本领域中的常用方式,本公开对此不进行限定。
由此,通过上述技术方案,可以基于该深度强化学习模型对应的交互序列和参数确定模型对该深度强化学习模型中的目标超参数进行动态调整和设置,避免人为经验设置的局限性,在保证目标超参数取值准确的同时,提高该目标取值与该深度强化学习模型的实际应用场景的匹配程度。并且,基于优势函数和深度强化学习模型的策略熵参数构造决策策略对应的概率分布,从而可以通过优势函数对决策策略的概率分布进行表示,以使得在采样数据对应的决策策略下该优势函数值的优势期望可以基于优势函数进行计算,从而获得准确的优势期望,与现有技术中通过优势函数值的平均值对其期望进行估计相比,可以有效降低优势期望计算过程中的误差,既可以对该第一状态下的各个动作的优势价值进行准确评价,同时提高对深度强化学习模型中的策略的评价准确性,也可以为深度强化学习模型的训练过程提供准确的数据支持。另外,在基于获得的交互序列对深度强化学习模型进行训练的过程中,针对交互序列中除最后一个采样数据之外的每一采样数据,在基于该采样数据确定更新梯度信息时,并非只基于该采样数据进行确定,而是结合该采样数据以及该采样数据之后的每一采样数据进行确定,从而使得确定出的更新梯度信息的准确性提高,使得确定出的更新梯度信息与深度强化学习的实际处理过程相匹配,从而可以提高基于该更新梯度信息对深度强化学习模型进行更新的准确性和效率,为深度强化学习模型获得最优策略提供准确的数据支持。
其中,可以设置一与该深度强化学习模型相同的采样模型,通过该采样模型与环境进行交互以在交互的过程中进行采样,并将采样获得的交互序列存储在一数据存储器中,从而使得该深度强化学习模型可以从该数据存储器中获取交互序列,以对该深度强化学习模型进行训练。在该深度强化学习模型进行训练后,可以将该深度强化学习模型中的模型参数存储至一参数服务器,则该采样模型可以定期从该参数服务器中获取对应的模型参数以对该采样模型中的相应参数赋值,从而保证该采样模型与该深度强化学习模型中的模型参数的一致性。通过上述过程可将获得交互序列的数据采集过程和对深度强化学习模型的更新同步进行,进一步提高深度强化学习模型的训练效率。
为了使本领域技术人员更加理解本发明实施例提供的技术方案,下面对上述步骤进行详细的说明。
在一种可能的实施例中,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新的示例性实现方式如下,该步骤可以包括:
在所述参数确定模型为一个的情况下,则根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域。
其中,在本领域中,在模型已知时对任意策略π能够估计出该策略带来的期望累计回报,通常采用状态值函数来评价某一状态的价值,某一个状态的价值可以用该状态下所有动作的价值表述,即基于状态s能获得的累计回报的期望,在这个策略下,该累计回报服从一个分布,累计回报在状态处的期望值定义为状态值函数V(s):
Vπ(s)=Eπ[Gt|St=s]
即表示在策略π下,t时刻的状态St取值为s时,累计回报Gt在s处的期望值。则在该实施例中,可以基于该状态值函数对在状态s的所有取值区域的状态价值进行评价。其中,该累计回报的确定方式已在上文详述,在此不再赘述。
在深度强化学习模型中,可以通过一神经网络实现该状态值函数的计算。因此,可以将该采样数据中的第一状态输入该状态值函数网络,从而可以获得该状态值函数网络的输出值,即该状态值函数与该第一状态对应的状态价值。
作为示例,目标超参数的参数空间被离散化为多个取值区域,目标超参数对应的状态价值可以用于表征在该目标超参数取值为采样取值的状态下,基于策略进一步选择目标超参数从各个取值区域中进行取值所带来的累计回报。示例地,在本公开中可以通过迭代更新的方式确定目标超参数对应的状态价值,即根据交互样本对应的采样取值,对目标超参数对应的状态价值进行迭代更新。
作为示例,可以预先确定该参数空间对应的取值区域的个数,之后可以将目标超参数的参数空间进行均匀划分从而获得多个取值区域。如,目标超参数的参数空间为[0,9],将该参数空间划分为9个取值区域,则取值区域A1对应的取值范围为[0,1),取值区域A2对应的取值范围为[1,2),其他取值区域对应的取值范围以此类推,在此不再赘述。目标超参数对应的状态价值可以通过一个向量进行表示,即为该9个取值区域各自对应的状态价值分别为该向量中的一个维度值。
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定目标区域。
在该步骤中,可以通过根据深度强化学习模型对应的交互序列确定出的目标超参数对应的状态价值,对该目标超参数选择每一取值区域的累计回报进行准确评价,从而可以根据评价结果选择用于确定目标超参数的取值的目标区域,以保证目标超参数取值的准确性,以及该目标超参数的取值与该目标模型的实际应用过程的一致性。
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
作为一种实施例,在所述目标区域对应的取值范围内进行均匀分布采样,将采样获得的取值确定为所述目标取值。
将目标超参数的参数空间离散化为多个取值区域,从而可以基于使用该目标超参数的深度强化学习模型对应的交互序列,基于该深度强化学习模型的优化特征参数,确定该目标超参数的取值。基于深度强化学习模型的优化特征参数确定目标取值,在确定目标取值时是基于使得优化特征参数更优的条件确定目标区域,从而可以有效提高深度强化学习模型的训练效率,以在一定程度上降低深度强化学习模型训练的迭代次数,提高深度强化学习模型的收敛效率。
如上文所述,深度强化学习模型中的目标超参数可以包括上文所述的策略熵参数,从而可以通过上述过程以在深度强化学习模型的训练过程中对该策略熵参数的取值进行优化。作为另一示例,深度强化学习模型中的目标超参数可以包括上文所述的衰减系数,从而可以通过上述过程以在深度强化学习模型的训练过程中对该衰减系数的取值进行优化,进一步提高深度强化学习模型的训练效率。
如上文所述,虚拟环境可以为游戏环境,则可以在该虚拟对象与虚拟环境进行交互的过程中进行采样以获得交互数据,该深度强化学习模型在训练过程中,可以基于上述方式确定该深度强化学习模型中的超参数的取值,从而可以使得深度强化学习模型确定虚拟对象的决策动作时能够获得更大的回报,保证虚拟对象的决策动作的准确性,提高虚拟人物控制的准确性,同时还能够减少训练过程中所需的数据量和人力。
在一种可能的实施例中,所述方法还可以包括:
将所述目标取值作为新的采样取值,从而可以基于深度强化学习模型中的目标超参数的取值为该新的采样取值时进行采样获得的交互序列,重复上述过程以获得新的目标取值,实现对目标超参数取值的动态调整。作为示例,可以在所述该深度强化学习模型训练完成时结束目标超参数的取值调整过程。其中,目标超参数的采样取值初始时可以基于随机初始化的参数确定模型采样得到。通过上述技术方案,也可以对深度强化学习模型对应的优化特征参数进行优化,在进一步提高目标超参数的取值的准确性的同时,保证深度强化学习模型的收敛性和准确性,提高深度强化学习模型的训练效率。
在一种可能的实施例中,所述根据交互样本,对参数确定模型中目标超参数对应的状态价值进行更新的示例性实现方式如下,如图2所示,该步骤可以包括:
在步骤21中,在参数确定模型中,根据采样取值,确定采样取值所属的取值区域。
示例地,可以基于每一取值区域对应的范围长度确定该采样取值所属的取值区域,如上文所述的取值区域划分,采样取值所属的取值区域的下标i可以通过以下公式进行确定:
i=(min(max(x,l),r)-l)//acc
其中,x用于表示所述采样取值;l用于表示所述参数空间的左边界;r用于表示所述参数空间的右边界;//用于表示整除符号;acc用于表示取值区域的范围长度。
在步骤22中,根据采样取值所属的取值区域确定待更新取值区域。
作为示例,可以直接将采样取值所属的取值区域确定为该待更新取值区域;作为另一示例,可以将所述采样取值所属的取值区域和处于所述采样取值所属的取值区域相邻的预设范围内的取值区域确定为所述待更新取值区域。其中,预设范围可以是取值区域的数量信息,相邻的预设范围可以用于表示处于当前取值区域左侧的预设范围和处于当前取值区域右侧的预设范围的总和。例如,若确定出的采样取值所属的取值区域为A2,预设范围为一个取值区域,则可以将取值区域A2、以及处于取值区域A2左侧的一个取值区域A1、和处于取值区域右侧的一个取值区域A3均确定为待更新取值区域。
在步骤23中,根据优化特征参数,对待更新取值区域的状态价值进行更新。
在该实施例中,通过采样取值与所述参数空间的关系可以确定出该采样取值对应的待更新取值区域,从而可以对该待更新取值区域的状态价值进行更新,针对除所述待更新取值区域之外的其他取值区域,其对应的状态价值无需更新,从而可以保证该目标超参数对应的状态价值的准确性,为后续准确选择目标区域提供数据支持。
在一种可能的实施例中,将采样取值所属的取值区域确定为该待更新取值区域,则在步骤23中可以通过以下公式根据优化特征参数,对待更新取值区域的状态价值进行更新,公式如下:
其中,T用于表示所述优化特征参数,其中,若该优化特征参数为累计回报,即该累计回报在优化时向增大的方向优化,则T可以为Gt,若该优化特征参数为深度强化学习模型的误差率error,即该误差率在优化时向减小的方向优化,则T可以为-error;K(s)用于表示待更新取值区域s的命中次数,即交互序列对应的目标超参数的取值属于该待更新取值区域s的次数,V(s)用于表示所述待更新取值区域s当前的状态价值,V’(s)用于表示待更新取值区域s更新后的状态价值。
在另一种可能的实施例中,如上文所述实施例,将所述采样取值所属的取值区域和处于所述采样取值所属的取值区域相邻的预设范围内的取值区域确定为所述待更新取值区域。相应地,在步骤23中,根据优化特征参数,对待更新取值区域的状态价值进行更新的示例性实现方式如下,该步骤可以包括:
根据所述优化特征参数和各个所述待更新取值区域的状态价值,分别对每一所述待更新取值区域的状态价值进行更新。
示例地,可以通过如下公式确定第j个待更新取值区域更新后的状态价值Vj’:
其中,width用于表示预设范围内的取值区域的个数;Vj用于表示第j个待更新取值区域的状态价值;lr用于表示进行状态价值更新的学习率;i用于表示采样取值所属的取值区域的下标。如上文所述示例,width为1,确定出的采样取值所属的取值区域为A2,即i=2,则j可以为1,2,3,则可以根据取值区域A1、A2、A3的状态价值分别对取值区域A1、A2、A3的状态价值进行更新,以获得V1’、V2’、V3’。
在该实施例中,在对目标超参数对应的状态价值进行更新时,考虑邻近的取值区域间的相互影响,可以同时对该第一取值所属的取值区域及其邻近的取值区域的状态价值进行更新,从而可以有效避免单一取值区域计算不准确而导致的误差,避免对深度强化学习模型优化的影响。
在一种可能的实施方式中,根据更新后的目标超参数对应的状态价值,从多个取值区域中确定目标区域的示例性实现方式如下,该步骤可以包括:
根据更新后的目标超参数对应的状态价值,确定每一取值区域的目标分数,其中,该目标分数用于表征选择该取值区域的可靠程度。
在一种可能的实施例中,所述根据更新后的目标超参数对应的状态价值,确定每一取值区域的目标分数的示例性实现方式如下,该步骤可以包括:
在所述更新后的所述目标超参数对应的状态价值中,针对每一所述取值区域,将该取值区域的状态价值、和该取值区域相邻的预设范围内的取值区域的状态价值的平均值确定为该取值区域的价值分数,则可以将该价值分数确定为目标分数。
示例地,如上文所述,可以对待更新取值区域的状态价值进行更新以实现对目标超参数对应的状态价值的更新。示例地,更新后的目标超参数对应的状态价值表示为{V1’,V2’,…,VN’},其中,N为取值区域的总个数。
相应地,针对取值区域i(i=1,2,…,N)可以通过以下公式确定该取值区域的价值分数Si:
其中,为了提高超参数取值确定的效率,可以在所述交互样本的数量达到预设阈值时,针对每一所述交互样本,执行根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新的步骤,其中,每一交互样本对应于目标超参数在不同取值区域的取值。即可以同时基于多个交互样本对该目标超参数对应的状态价值进行更新,基于每一交互样本的更新方式与上文所述相同,在此不再赘述。
在该实施例中,在目标超参数对应的状态价值更新后,可以重新计算每取值区域对应的分数,同时,在确定取值区域的目标分数时,可以结合邻近的取值区域的状态价值确定该取值区域的价值分数,从而可以保证每一所述取值区域的分数的准确性,同时可以保证多个取值区域的分数之间的平滑相关性,为确定目标区域提供准确的数据支持。
在另一可能的实施例中,所述根据更新后的目标超参数对应的状态价值,确定每一取值区域的目标分数的示例性实现方式如下,该步骤可以包括:
在所述更新后的所述目标超参数对应的状态价值中,针对每一所述取值区域,将该取值区域的状态价值、和该取值区域相邻的预设范围内的取值区域的状态价值的平均值确定为该取值区域的价值分数。其中,确定价值分数的方式已在上文详述。
之后,针对每一所述取值区域,根据所述取值区域的价值分数和所述取值区域的命中次数,确定所述取值区域的目标分数。
示例地,可以通过以下公式确定取值区域i的目标分数Scorei:
其中,c为预先设置的常数,用于调节命中次数对目标分数的影响,Mi为取值区域i的命中次数。
其中,如上文所述,在本公开实施例中可以通过该迭代更新的方式确定取值区域的状态价值,每一取值区域的状态价值初始为0,针对每一取值区域,在该根据目标超参数的采样取值确定出待更新取值区域后,相应的待更新取值区域的状态价值会更新,除待更新取值区域之外的其他取值区域的状态价值则会保持不变。由此,在该实施例中,为了提高初始训练过程中的目标区域选择的多样性,在确定取值区域的分数时同时需要考虑该取值区域的命中次数,以降低历史命中的取值对目标区域的选择的影响程度。由上述可知,在该过程中,随着交互样本的增多,目标超参数对应的状态价值越准确,且随着命中次数的增大,命中次数对目标分数的影响逐渐降低,从而可以使得在初始学习阶段提高目标区域选择的多样性和探索空间,在一定程度上提高确定出的目标取值的准确性,避免初始状态下的随机样本的过大影响,而在状态价值准确时,降低命中次数对目标区域选择的影响,以保证目标区域的选择对优化特征参数的正向优化调整。
在另一实施例中,可以通过以下公式确定取值区域i的目标分数Scorei:
其中,μ({Vj'}j=1,2,...,(r-l)//acc)和σ({Vj'}j=1,2,...,(r-l)//acc)分别表示更新后的各个取值区域的状态价值对应的均值和标准差,即通过上述公式可以对每一取值区域的价值分数进行归一化处理,以便于平衡价值分数和命中次数对目标分数的影响。
在确定出目标分数之后,根据每一取值区域的目标分数,从多个取值区域中确定目标区域。
在一种可能的实施例中,该根据每一所述取值区域的目标分数,从所述多个取值区域中确定目标区域的步骤可以包括:
将目标分数最大的取值区域确定为所述目标区域。
在本公开实施例中,可以直接选择目标分数最大的取值区域作为该目标区域,从而可以有效保证从该目标区域中确定出的目标取值对深度强化学习模型优化的有效调整,提高深度强化学习模型优化的效率。
在另一种可能的实施例中,该根据每一所述取值区域的目标分数,从所述多个取值区域中确定目标区域的步骤可以包括:
对所述多个取值区域对应的目标分数进行softmax处理,获得由所述多个取值区域的概率信息所形成的概率分布,并根据所述概率分布对所述多个取值区域进行采样,将采样获得的取值区域确定为所述目标区域。
在该实施例中,为了进一步提高目标超参数取值探索的多样性,可以基于softmax函数对各个取值区域的状态价值进行映射,以将其映射为0-1范围内的数值,作为该取值区域的概率信息,以获得该多个取值区域的概率分布。在基于概率分布进行采样时,概率信息较小的取值区域也会有被采样的可能,从而可以在一定程度上保证多个取值区域均存在被采样的可能性,避免确定出的目标区域为使得特征优化参数处于局部最优的参数的问题,避免深度强化学习模型的训练达到局部最优而停止训练,能够保证深度强化学习模型训练的准确性和鲁棒性。
在一种可能的实施例中,所述参数确定模型可以为多个。相应地,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新的示例性实现方式如下,该步骤可以包括:
在所述参数确定模型为多个的情况下,则针对每一所述参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域,每一所述参数确定模型的学习率不同,且多个所述参数确定模型对应的所述多个取值区域划分相同。
在该实施例中,可以采用多个参数确定模型确定该目标超参数的取值。示例地,可以随机初始化5个参数确定模型,并且预先设置该5个参数确定模型的学习率。在本公开中,每一参数确定模型的学习率不同,则在不同的参数确定模型基于同一交互样本进行学习时,可以在多种学习步长下对各自的参数进行调整,使得每一参数确定模型可以进行个性化学习,增加在基于每一参数确定模型确定目标超参数取值时该多个参数确定模型的多样性,从而保证该多个参数确定模型在确定目标取值时考虑特征的全面性,提高目标取值的准确性。
其中,在参数确定模型为多个时,针对每一参数确定模型,可以采用与上文所述同样的方式对该参数确定模型下目标超参数对应的状态价值进行更新。需要进行说明的是,在采用上述所述方式对目标超参数对应的状态价值进行更新时,每一所述参数确定模型中均是采用该参数确定模型对应的学习率进行更新。
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定候选区域。
其中,在所述参数确定模型为多个时,每一参数确定模型确定候选区域的具体实现方式,与上文所述在参数确定模型为一个时,该参数确定模型从多个取值区域中确定目标区域的确定方式类似,在此不再赘述。
根据每一所述参数确定模型确定出的所述候选区域,确定目标区域。
示例地,该步骤可以包括:
针对每一所示候选区域,获取确定所述候选区域的参数确定模型的数量。
将所述数量最大的候选区域确定为所述目标区域。如上文所述取值区域可以为A1-A9,参数确定模型为5个,例如M1-M5,示例地,M1确定出的候选区域为A1、A2,M2确定出的候选区域为A1、A2,M3确定出的候选区域为A2、A3,M4确定出的候选区域为A2、A4,M5确定出的候选区域为A5、A6。则在该实施例中可以分别获取确定候选区域的参数确定模型的数量,如,针对候选区域A1,其对应的参数确定模型为M1、M2,即候选区域A1对应的数量为2。针对其他候选区域,采样同样的方式进行确定。之后,则可以将对应的数量最多的候选区域确定为目标区域,即被最多的参数确定模型确定出的取值区域。如上述示例,该目标区域为取值区域A2。
由此,在上述技术方案中,可以基于多个参数确定模型选择的候选区域确定出目标区域,一方面可以避免单模型选择目标区域的偏差性,另一方面该多个参数确定模型的学习率不同,确定候选区域的方式可能不同,由此可以保证该多个参数确定模型的多样性,进而提高确定目标区域时所考虑特征的全面性和多样性,保证目标区域准确性的同时拓宽目标超参数取值的探索空间。
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。其中,该步骤的具体实现方式已在上文进行详述,在此不再赘述。
由此,可以结合多个参数确定模型确定出的候选区域确定出目标区域,进而确定目标超参数的取值,从而在保证目标超参数取值准确的同时,提高该目标取值与该目标模型的实际应用场景的匹配程度。另外,确定出的目标取值可以使得目标模型的优化特征参数更优,从而可以有效提高目标模型的训练效率,以在一定程度上降低目标模型训练的迭代次数,提高目标模型的收敛效率。
在一种可能的实施例中,所述方法还可以包括:
在所述交互样本的数量达到数量阈值的情况下,获取用于确定所述目标超参数的新的参数确定模型。其中,该数量阈值可以根据实际使用场景进行设置,本公开对此不进行限定。示例地,该新的参数确定模型可以是新初始化的参数确定模型,该新的参数确定模型中的模型参数为随机初始化的取值。
之后,以所述新的参数确定模型替换所述用于确定所述目标超参数的多个参数确定模型中使用时长最长的参数确定模型。
作为示例,可以记录每一参数确定模型的初始使用时间,则可以将初始使用时间最早的模型确定为该使用时间最长的参数确定模型。作为另一示例,可以将该多个参数确定模型的标识信息通过队列进行存储,该队列可以为一FIFO(First Input First Output,先入先出)队列,则在进行参数确定模型的替换时,直接将处于队列队首的标识信息的参数确定模型删除,并将该新的参数确定模型的标识信息添加至队尾。
其中,在该实施例中,在交互样本的数量达到数量阈值时,表示该多个参数确定模型已经基于该部分交互样本进行了训练,该多个参数确定模型的参数已经进行了优化。此时,在基于该多个参数确定模型确定候选区域时,每一参数确定模型在确定时受历史的交互样本的影响较大。因此,在本公开实施例中,可以在历史的交互样本达到一定数量时,替换该多个参数确定模型中的使用时长最长的模型,即受历史的交互样本的影响最大的参数确定模型,从而既可以在一定程度上降低历史的交互样本的过大影响,保证目标超参数的取值的探索多样性,同时在该多个参数确定模型中保留了部分已经进行参数优化的模型,从而可以保证最终确定出的目标区域的准确性。
在一种可能的实施例中,所述决策策略对应的概率分布通过以下方式构造:
根据所述优势函数值与所述策略熵参数确定所述决策策略对应的目标参数。其中,如上文所述,优势函数值用于表示某一个状态的价值,即可以用该状态下所有动作的价值表述,则该优势函数值可以为一向量,该向量中的每一维度用于表示在该维度对应的动作的价值。示例地,可以将该优势函数值与策略熵参数的比值确定该为决策策略对应的目标参数。
之后,可以将所述目标参数进行softmax处理后得到的概率分布确定为所述决策策略对应的概率分布。
其中,进行softmax处理得到概率分布的方式为本领域中的常规操作,在此不再赘述。在该实施例中,通过将目标参数转换成概率分布,从而基于该优势函数值确定出状态下的策略中针对每一动作的概率信息,以基于优势函数值对该决策策略的概率分布进行表示,同时便于后续进行决策动作的确定,提高深度强化学习模型的训练效率和准确性。
在一种可能的实施例中,所述针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值的示例性实现方式如下,该步骤可以包括:
针对每一所述采样数据,确定所述优势函数与该采样数据中的第一状态对应的优势函数值,以及在所述采样数据对应的决策策略下所述优势函数值的优势期望。
示例地,如上文所述,针对每一采样数据,可以将该采样数据中的第一状态输入该优势函数网络,从而可以获得该优势函数网络的输出值,即该优势函数与该第一状态对应的优势函数值。
针对每一所述采样数据,根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值。
在深度强化学习模型中,通常采用动作值函数评价某一状态下执行某一动作的价值,即基于状态s下选择一个动作a后能获得的累计回报的期望:
Qπ(s,a)=Eπ[Gt|St=s,At=a];
即表示在策略π下,t时刻的状态St取值为s,选择的动作At为a时,累计回报Gt在s,a处的期望值,也就是说该动作值函数可以用于对策略π进行评价。
基于优势函数A(s,a)、状态值函数V(s)和动作值函数Q(s,a)的定义,本领域中深度强化学习中存在如下关系:
Q(s,a)=A(s,a)+V(s)
则在该实施例中,动作值函数与该第一状态和决策动作对应的计算动作价值,则可以根据采样数据、与采样数据对应的优势函数值、优势期望以及深度强化学习模型的状态值函数进行确定。
由此,在采样数据对应的决策策略下该优势函数值的优势期望可以基于优势函数进行计算,从而获得准确的优势期望,与现有技术中通过优势函数值的平均值对其期望进行估计相比,可以有效降低优势期望计算过程中的误差,既可以对该第一状态下的各个动作的优势价值进行准确评价,同时提高对深度强化学习模型中的策略的评价准确性,也可以为深度强化学习模型的训练过程提供准确的数据支持。进一步地,可以基于该优势期望确定对状态下选择决策动作的策略进行准确评价的计算动作价值,实现对深度强化学习模型的策略的有效更新,提高深度强化学习模型的效率的同时,可以在一定程度上降低优化该深度强化学习模型所需要数据计算量,免去了对大量的样本数据的需要,极大降低了训练的难度,提升深度强化学习模型的鲁棒性,有效降低训练深度强化学习模型对设备资源的高要求。
在一种可能的实施例中,所述根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值的示例性实现方式如下,该步骤可以包括:
根据所述采样数据中的第一状态,确定所述状态值函数对应的状态价值。示例地,如上文所述可以将该第一状态输入状态值函数网络,从而获得该状态价值。
之后,将所述优势函数值与所述优势期望之差确定为处理优势函数值,从而可以通过该处理优势函数值对该第一状态下的每一动作的价值相对与优势期望价值而言的优势。若在该第一状态下某一动作的价值优于该期望值,则该处理优势函数值为正值,表示选择其对应的动作为正向的,即可以获得更多的回报。通过该转换方案,可以使得该处理优势函数值满足期望为0的约束,增加输出的稳定性,有助于提高学习效率,同时使得深度强化学习模型的学习过程更加稳定。
将所述处理优势函数值与所述状态价值之和确定为所述计算动作价值。
如上文所示Q(s,a)=A(s,a)+V(s)的关系,则可以在确定出处理优势函数值和所述状态价值之后,确定出该计算动作价值。
示例地,如上文所示,可以基于状态值函数网络确定状态价值V,即:
V=V(st)
基于优势函数网络确定优势价值A,即:
A=A(st)
则决策策略π的函数可以表示为:
π=P(A/τ)
其中,P表示确定概率分布,τ表示所述策略熵参数;
从而确定出计算动作价值Q:
通过上述技术方案,在确定采样数据对应的计算动作价值的过程中,通过对状态和状态-动作分别进行评价,以获得状态价值和优势价值,以提高该动作价值确定方法的使用范围。同时,在该过程中,通过优势期望对该优势函数值进行处理,从而可以提高确定出的处理优势函数值的稳定性,并且该过程中优势期望为基于数学计算确定出的,不会确定过程中引入其他误差,从而可以保证计算动作价值的准确性,对在第一状态下选择动作的策略进行准确评价,以便于对该深度强化学习模型的策略的有效更新,避免由于动作价值确定的误差而导致深度强化学习模型中策略更新的误差,保证基于该深度强化学习模型控制虚拟对象的决策动作的准确性。另外,可以在提高学习效率的同时,可以在一定程度上减少训练深度强化学习模型时的所需的计算量和样本数量。
在一种可能的实施例中,所述根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息的示例性实现方式如下,该步骤可以包括:
针对每一所述目标采样数据,根据所述目标采样数据中的第二状态和所述深度强化学习模型的状态值函数,确定所述目标采样数据对应的第二计算状态价值。同样地,可以将该第二状态输入状态值函数网络,从而获得该状态函数值网络输出的结果作为该第二计算状态价值。
根据所述目标采样数据中的回报值、所述第二计算状态价值和所述计算动作价值,确定所述目标采样数据对应的时序状态估计差异。
其中,所述时序状态估计差异可以是TD-error(Temporal-Difference error),用于表示在时刻t下状态价值的估计误差。如上文所示,该采样数据对应的目标采样数据可以是一个或者多个,则在该实施例中,在所述目标采样数据为一个时,即确定目标采样数据对应的时序状态估计差异;在所述目标采样数据为多个时,即确定该多个目标采样数据中的每一目标采样数据分别对应的时序状态估计差异。
示例地,可以通过如下公式根据所述目标采样数据中的回报值、所述第二计算状态价值和所述计算动作价值,确定所述目标采样数据对应的时序状态估计差异:
δtV=rt+γV(st+1)-Q(st,at)
其中,δtV用于表示t时刻的采样数据对应的时序状态估计差异,rt用于表示t时刻的采样数据中的回报值;γλ用于表示衰减系数;V(st+1)用于表示所述第二计算状态价值;Q(st,at)用于表示所述计算动作价值。
其中,在相关技术中,在确定时序状态估计差异时通常是基于回报值、下一时刻的状态价值和当前时刻的状态价值确定的,即:
δtV=rt+γV(st+1)-V(st)
因此,与传统确定时序状态估计差异时将V(st)作为Q(st,at)的期望进行计算,则会使得估计误差更大。本公开实施例中,在确定时序状态估计差异时结合动作价值进行确定,以减小确定出的时序状态估计差异,更加适用于实际应用场景,为后续确定目标状态价值提供准确的数据支持。
根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息。
在一种可能的实施例中,所述更新梯度信息包括状态值函数对应的梯度信息,
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息的示例性实现方式如下,该步骤可以包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值。示例地,可以将该采样数据中的第一状态输入该状态值函数网络,从而可以获得该状态值函数网络的输出值,即与该第一状态对应的第一计算状态价值。
根据所述时序状态估计差异的第一加权和、以及所述第一计算状态价值确定目标状态价值。
其中,所述目标采样数据为一个时,该时序状态估计差异的第一加权和可以是该时序状态估计差异与其对应的第一权重值的乘积,在目标采样数据为多个时,该时序状态估计差异的第一加权和可以是该每一时序状态估计差异与其对应的第一权重值的乘积之和。
根据所述目标状态价值和所述第一计算状态价值确定所述状态值函数在所述采样数据下对应的梯度信息。
其中,可以通过目标状态价值和第一计算状态价值确定状态价值的误差,从而可以基于该误差进行参数调整。示例地,可以将目标状态价值和第一计算状态价值对应的均方误差确定为状态值函数对应的损失函数,从而可以基于该损失函数确定出梯度信息。
其中,可以对确定状态价值损失的损失函数求导以获得该状态价值对应的梯度信息,需要进行说明的是,在基于该损失函数进行求导时,需要对目标状态价值中的状态价值停止梯度计算,从而使得目标状态价值在求导时作为常数项,以保证梯度信息确定过程中目标状态价值不变,保证更新过程的稳定性和可靠性。
在一种可能的实施例中,所述时序状态估计差异的第一加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第一权重值的乘积之和;
示例地,该目标采样数据对应的第一权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的采样数据,则将所述交互序列中位于所述采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第一权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第一权重值。
其中,如上文所示,除交互序列中的最后一个采样数据之外的其他采样数据,该采样数据对应的目标数据包含该采样数据本身,以及该采样数据之后的采样数据。示例地,可以以Dt表示该采样数据,则该采样数据对应的目标采样数据可以表示为Dt+k,其中,k=0,1,...,n,其中,n为交互序列中处于采样数据Dt之后的采样数据的个数。
作为示例,若该目标采样数据Dt+k为采样数据Dt本身,即k=0,则可以将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第一权重值,即ρt。
作为另一示例,若该目标采样数据Dt+k为采样数据Dt之后的采样数据,即k大于0,则所述交互序列中位于所述采样数据Dt之后至该目标采样数据Dt+k之前的每一采样数据对应的第一重要性参数的乘积可以表示为为简化表示,记与该目标采样数据Dt+k对应的第二重要性参数为ρt+k,则第一权重值αt+k可以表示为αt+k=γkc[t:t+k-1]ρt+k,其中,γ用于表示所述衰减系数,如上文所述可知,K=k。
与K=0时对应的第一权重值进行综合之后,第一权重值表示为:
αt+k=γkc[t:t+k-1]ρt+k,其中,c[t:t-1]=1。
由此,通过上述方式,可以分别确定出每一目标采样数据对应的第一权重值,则可以进一步确定出每一时序状态估计差异的第一加权和为:
其中δt+kV表示目标采样数据Dt+k对应的时序状态估计差异,进而根据时序状态估计差异的第一加权和、以及所述第一计算状态价值确定目标状态价值:
其中,μ用于表示采样样本对应的策略,p用于表示所述环境的转移的概率分布,V(st)用于表示所述第一计算状态价值。由此,通过上述技术方案可以准确确定出与第一计算状态价值对应的目标状态价值,并且在确定目标状态价值时,是基于当前进行计算的采样数据以及该采样数据之后的每一采样数据进行确定出,因此确定出的目标状态价值不仅考虑了当前步策略选择的回报,同时考虑了当前的策略选择至交互过程结束对应的回报,提高确定出的目标状态价值的准确性,并且每一目标采样数据的第一权重值时,将该目标采样数据对应的重要性参数和处于该目标采样数据之前的采样数据的重要性参数分开计算,从而可以保证对每一目标采样数据的重要性的精准衡量,进一步提高确定出的更新梯度信息的准确性。
在一种可能的实施例中,所述采样数据对应的第一重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第一预设阈值中的最小值;
所述采样数据对应的第二重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第二预设阈值中的最小值;
其中,所述第一预设阈值小于或等于所述第二预设阈值。
示例,在本公开实施例中采样异策略(off-policy)的方式对深度强化学习模型进行训练,即要学习的代理agent对应的策略和与环境互动过程中进行采样时对应的策略不同的状态下的学习更新方式。为了提高模型的训练效率,可以用策略μ与环境进行互动并在互动过程中进行采样,获得交互序列,并基于该策略μ对应的交互序列去更新策略π下的模型,以分别进行数据采集和模型学习。在该过程中,由于交互序列和深度强化学习模型对应的策略不同,则需要对其进行重要性采样。其中,所述深度强化学习模型的目标策略对应的概率分布即为待学习的代理对应的策略,记为π,与所述采样数据对应的行为策略的概率分布即与环境互动过程中进行采样时对应的策略,即μ,则t时刻的采样数据对应的第一重要性参数ct可以表示为:
同样地,则t时刻的采样数据对应的第二重要性参数ρt可以表示为:
其中,用于表示该第二预设阈值,其取值范围可以为[0.8,1.2]。需要进行说明的是,在确定第一预设阈值和所述第二预设阈值时,需要保证第一预设阈值小于第二预设阈值,从而可以保证状态价值对应的更新梯度信息和策略更新梯度信息的梯度一致性,从而可以保证对深度强化学习模型进行策略提升的准确性。
在一种可能的实施例中,所述更新梯度信息包括动作值函数对应的梯度信息;
相应地,所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息的示例性实现方式如下,该步骤可以包括:
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值。
在一种可能的实施例中,所述时序状态估计差异的第二加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第二权重值的乘积之和;
该目标采样数据对应的第二权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的第一个采样数据,将该目标采样数据对应的第二重要性参数和衰减系数的乘积确定为该目标采样数据对应的第二权重值。
其中,如上文所示,除交互序列中的最后一个采样数据之外的其他采样数据,该采样数据对应的目标数据包含该采样数据本身,以及该采样数据之后的采样数据。示例地,可以以Dt表示该采样数据,则该采样数据对应的目标采样数据可以表示为Dt+k,其中,k=0,1,...,n,其中,n为交互序列中处于采样数据Dt之后的采样数据的个数。
作为示例,若该目标采样数据Dt+k为所述采样数据Dt之后的第一个采样数据,即k=1,将该目标采样数据Dt+1对应的第二重要性参数ρt+1和衰减系数γ的乘积确定为该目标采样数据Dt+1对应的第二权重值。
若该目标采样数据为所述第一个采样数据之后的采样数据,则将所述交互序列中位于所述第一个采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第二权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数。
作为示例,若该目标采样数据为所述第一个采样数据之后的采样数据,即该目标采样数据Dt+k为所述采样数据Dt之后的第一个采样数据Dt+1之后的采样数据,即k>1,则所述交互序列中位于所述第一个采样数据Dt+1之后至该目标采样数据Dt+k之前的每一采样数据对应的第一重要性参数的乘积可以表示为c[t+1:t+k-1]。其中,由于该采样数据之后的第一个采样数据对应的动作价值可以通过计算获得,则该第一个采样数据无需进行重要性采样。该目标采样数据Dt+k对应的第二重要性参数可以表示为ρt+k,则该目标采样数据Dt+k对应的第二权重值βt+k可以表示为:βt+k=γkc[t+1:t+k-1]ρt+k。
若该目标采样数据为所述采样数据本身,则所述采样数据对应的第二权重值为1。
作为示例,若该目标采样数据Dt+k为采样数据Dt本身,即k=0,则可以将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第二权重值,即ρt。
与K=0时对应的第二权重值进行综合表示,第二权重值可以为:
βt+k=γkc[t+1:t+k-1]ρt,k,其中,c[t+1:t-1]=c[t+1:t]=1,且k=0时,ρt,k=1,k大于0时,ρt,k=ρt+k,即可以基于上文所述第二重要性参数的确定方式进行确定。
由此,通过上述方式,可以分别确定出每一目标采样数据对应的第二权重值,则可以进一步确定出每一时序状态估计差异的第二加权和为:
其中δt+kV表示目标采样数据Dt+k对应的时序状态估计差异,进而根据时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值:
其中,第一重要性参数和第二重要性参数的确定方式已在上文详述,Q(st,at)用于表示所述计算动作价值。由此,通过上述技术方案可以准确确定出与计算动作价值对应的目标动作价值,并且在确定目标动作价值时,是基于当前进行计算的采样数据以及该采样数据之后的每一采样数据进行确定出,因此确定出的目标动作价值不仅考虑了当前步策略选择的回报,同时考虑了当前的策略选择至交互过程结束对应的回报,提高确定出的目标动作价值的准确性,并且每一目标采样数据的第二权重值时,将该目标采样数据对应的重要性参数和处于该目标采样数据之前的采样数据的重要性参数分开计算,从而可以保证对每一目标采样数据的重要性的精准衡量,提高确定出的更新梯度信息的准确性。
之后,根据所述目标动作价值和所述计算动作价值确定所述动作值函数在所述采样数据下对应的梯度信息。
其中,可以通过目标动作价值和计算动作价值确定动作价值的误差,从而可以基于该误差进行参数调整。示例地,可以将目标动作价值和计算动作价值对应的均方误差确定为动作值函数对应的损失函数,从而可以基于该损失函数确定出梯度信息。
其中,可以对确定动作价值损失的损失函数求导以获得该动作价值对应的梯度信息,需要进行说明的是,在基于该损失函数进行求导时,确定目标动作价值时的状态价值停止梯度计算,使得目标动作价值在求导时作为常数项,以保证梯度信息确定过程中目标动作价值不变,保证更新过程的稳定性和可靠性。
在一种可能的实施例中,所述更新梯度信息包括策略梯度信息;
相应地,所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息的示例性实现方式如下,该步骤可以包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
根据所述目标动作价值和所述第一计算状态价值确定所述采样数据对应的策略梯度信息。
其中,确定第一计算状态价值、目标采样数据对应的时序状态估计差异和目标动作价值的具体实施方式已在上文进行详述,在此不再赘述。在该实施例中,可以通过目标动作价值和第一计算状态价值确定策略误差,从而可以基于该误差进行参数调整。示例地,可以将目标动作价值和第一计算状态价值对应的交叉熵确定为策略损失,从而可以基于该策略损失确定出梯度信息,其中交叉熵的计算方式为常规计算,在此不再赘述。
示例地,可以对确定策略损失的损失函数求导以获得该策略的梯度信息,需要进行说明的是,在基于该损失函数进行求导时,将目标动作价值作为常数项进行求导,即对确定目标动作价值时的状态价值停止梯度计算,以保证梯度信息确定过程中目标动作价值不变,保证更新过程的稳定性和可靠性。
示例地,可以基于该深度强化学习模型的训练方法对游戏人工智能进行训练,则通过上述技术方案对该游戏人工智能的策略进行更新,可以保证确定出的游戏人工智能的决策的准确性,提高该游戏人工智能与用户进行交互时,游戏人工智能的决策能力,提升用户交互体验。
本公开还提供一种深度强化学习模型的训练装置,如图3所示,所述装置10包括:
获取模块100,用于获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
第一确定模块200,用于针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
第二确定模块300,用于针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
更新模块400,用于根据所述更新梯度信息对所述深度强化学习模型进行更新。
可选地,在所述参数确定模型为一个的情况下,所述第一确定模块包括:
第一更新子模块,用于根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域;
第一确定子模块,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定目标区域;
第二确定子模块,用于根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
可选地,在所述参数确定模型为多个的情况下,所述第一确定模块包括:
第一更新子模块,用于针对每一所述参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域,每一所述参数确定模型的学习率不同,且多个所述参数确定模型对应的所述多个取值区域划分相同;
第三确定子模块,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定候选区域;
第四确定子模块,用于根据每一所述参数确定模型确定出的所述候选区域,确定目标区域;
第五确定子模块,用于根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
可选地,所述第一更新子模块包括:
第六确定子模块,用于在所述参数确定模型中,根据所述采样取值,确定所述采样取值所属的取值区域;
第七确定子模块,用于根据所述采样取值所属的取值区域确定待更新取值区域;
第二更新子模块,用于根据所述优化特征参数,对所述待更新取值区域的状态价值进行更新。
可选地,所述第七确定子模块用于将所述采样取值所属的取值区域和处于所述采样取值所属的取值区域相邻的预设范围内的取值区域确定为所述待更新取值区域;
所述第二更新子模块用于:
根据所述优化特征参数和各个所述待更新取值区域的状态价值,分别对每一所述待更新取值区域的状态价值进行更新。
可选地,所述决策策略对应的概率分布通过以下方式构造:
根据所述优势函数值与所述策略熵参数确定所述决策策略对应的目标参数;
将所述目标参数进行softmax处理后得到的概率分布确定为所述决策策略对应的概率分布。
可选地,所述第一确定模块包括:
第八确定子模块,用于针对每一所述采样数据,确定所述优势函数与该采样数据中的第一状态对应的优势函数值,以及在所述采样数据对应的决策策略下所述优势函数值的优势期望;
第九确定子模块,用于针对每一所述采样数据,根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值。
可选地,所述第九确定子模块包括:
第十确定子模块,用于根据所述采样数据中的第一状态,确定所述状态值函数对应的状态价值;
第十一确定子模块,用于将所述优势函数值与所述优势期望之差确定为处理优势函数值;
第十二确定子模块,用于将所述处理优势函数值与所述状态价值之和确定为所述计算动作价值。
可选地,所述第二确定模块包括:
第十三确定子模块,用于针对每一所述目标采样数据,根据所述目标采样数据中的第二状态和所述深度强化学习模型的状态值函数,确定所述目标采样数据对应的第二计算状态价值;
第十四确定子模块,用于根据所述目标采样数据中的回报值、所述第二计算状态价值和所述计算动作价值,确定所述目标采样数据对应的时序状态估计差异;
第十五确定子模块,用于根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息。
可选地,所述更新梯度信息包括状态值函数对应的梯度信息,
所述第十五确定子模块包括:
第十六确定子模块,用于根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
第十七确定子模块,用于根据所述时序状态估计差异的第一加权和、以及所述第一计算状态价值确定目标状态价值;
第十八确定子模块,用于根据所述目标状态价值和所述第一计算状态价值确定所述状态值函数在所述采样数据下对应的梯度信息。
可选地,所述时序状态估计差异的第一加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第一权重值的乘积之和;
该目标采样数据对应的第一权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的采样数据,则将所述交互序列中位于所述采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第一权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第一权重值。
可选地,所述更新梯度信息包括动作值函数对应的梯度信息;
所述第十五确定子模块包括:
第十九确定子模块,用于根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
第二十确定子模块,用于根据所述目标动作价值和所述计算动作价值确定所述动作值函数在所述采样数据下对应的梯度信息。
可选地,所述更新梯度信息包括策略梯度信息;
所述第十五确定子模块包括:
第十六确定子模块,用于根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
第十九确定子模块,用于根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
第二十一确定子模块,用于根据所述目标动作价值和所述第一计算状态价值确定所述采样数据对应的策略梯度信息。
可选地,所述时序状态估计差异的第二加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第二权重值的乘积之和;
该目标采样数据对应的第二权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的第一个采样数据,将该目标采样数据对应的第二重要性参数和衰减系数的乘积确定为该目标采样数据对应的第二权重值;
若该目标采样数据为所述第一个采样数据之后的采样数据,则将所述交互序列中位于所述第一个采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第二权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则所述采样数据对应的第二权重值为1。
可选地,所述采样数据对应的第一重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第一预设阈值中的最小值;
所述采样数据对应的第二重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第二预设阈值中的最小值;
其中,所述第一预设阈值小于或等于所述第二预设阈值。
可选地,所述交互序列为在虚拟对象与所述虚拟环境进行交互的过程中进行采样获得的,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述虚拟环境为所述虚拟对象所处的环境。
下面参考图4,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;根据所述更新梯度信息对所述深度强化学习模型进行更新。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取获取深度强化学习模型与虚拟环境交互所产生的交互序列的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种深度强化学习模型的训练方法,其中,所述方法包括:
获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
根据所述更新梯度信息对所述深度强化学习模型进行更新。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,其中,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,包括:
在所述参数确定模型为一个的情况下,则根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定目标区域;
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,其中,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,包括:
在所述参数确定模型为多个的情况下,则针对每一所述参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域,每一所述参数确定模型的学习率不同,且多个所述参数确定模型对应的所述多个取值区域划分相同;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定候选区域;
根据每一所述参数确定模型确定出的所述候选区域,确定目标区域;
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
根据本公开的一个或多个实施例,示例4提供了示例2或3的方法,其中,所述根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,包括:
在所述参数确定模型中,根据所述采样取值,确定所述采样取值所属的取值区域;
根据所述采样取值所属的取值区域确定待更新取值区域;
根据所述优化特征参数,对所述待更新取值区域的状态价值进行更新。
根据本公开的一个或多个实施例,示例5提供了示例4的方法,其中,所述根据所述采样取值所属的取值区域确定待更新取值区域,包括:
将所述采样取值所属的取值区域和处于所述采样取值所属的取值区域相邻的预设范围内的取值区域确定为所述待更新取值区域;
所述根据所述优化特征参数,对所述待更新取值区域的状态价值进行更新,包括:
根据所述优化特征参数和各个所述待更新取值区域的状态价值,分别对每一所述待更新取值区域的状态价值进行更新。
根据本公开的一个或多个实施例,示例6提供了示例1的方法,其中,所述决策策略对应的概率分布通过以下方式构造:
根据所述优势函数值与所述策略熵参数确定所述决策策略对应的目标参数;
将所述目标参数进行softmax处理后得到的概率分布确定为所述决策策略对应的概率分布。
根据本公开的一个或多个实施例,示例7提供了示例1的方法,其中,所述针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,包括:
针对每一所述采样数据,确定所述优势函数与该采样数据中的第一状态对应的优势函数值,以及在所述采样数据对应的决策策略下所述优势函数值的优势期望;
针对每一所述采样数据,根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值。
根据本公开的一个或多个实施例,示例8提供了示例7的方法,其中,所述根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值,包括:
根据所述采样数据中的第一状态,确定所述状态值函数对应的状态价值;
将所述优势函数值与所述优势期望之差确定为处理优势函数值;
将所述处理优势函数值与所述状态价值之和确定为所述计算动作价值。
根据本公开的一个或多个实施例,示例9提供了示例1的方法,其中,所述根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,包括:
针对每一所述目标采样数据,根据所述目标采样数据中的第二状态和所述深度强化学习模型的状态值函数,确定所述目标采样数据对应的第二计算状态价值;
根据所述目标采样数据中的回报值、所述第二计算状态价值和所述计算动作价值,确定所述目标采样数据对应的时序状态估计差异;
根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息。
根据本公开的一个或多个实施例,示例10提供了示例9的方法,其中,所述更新梯度信息包括状态值函数对应的梯度信息,
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
根据所述时序状态估计差异的第一加权和、以及所述第一计算状态价值确定目标状态价值;
根据所述目标状态价值和所述第一计算状态价值确定所述状态值函数在所述采样数据下对应的梯度信息。
根据本公开的一个或多个实施例,示例11提供了示例10的方法,其中,所述时序状态估计差异的第一加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第一权重值的乘积之和;
该目标采样数据对应的第一权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的采样数据,则将所述交互序列中位于所述采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第一权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第一权重值。
根据本公开的一个或多个实施例,示例12提供了示例9的方法,其中,所述更新梯度信息包括动作值函数对应的梯度信息;
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
根据所述目标动作价值和所述计算动作价值确定所述动作值函数在所述采样数据下对应的梯度信息。
根据本公开的一个或多个实施例,示例13提供了示例9的方法,其中,所述更新梯度信息包括策略梯度信息;
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
根据所述目标动作价值和所述第一计算状态价值确定所述采样数据对应的策略梯度信息。
根据本公开的一个或多个实施例,示例14提供了示例12的方法,其中,所述时序状态估计差异的第二加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第二权重值的乘积之和;
该目标采样数据对应的第二权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的第一个采样数据,将该目标采样数据对应的第二重要性参数和衰减系数的乘积确定为该目标采样数据对应的第二权重值;
若该目标采样数据为所述第一个采样数据之后的采样数据,则将所述交互序列中位于所述第一个采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第二权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则所述采样数据对应的第二权重值为1。
根据本公开的一个或多个实施例,示例15提供了示例11或14的方法,其中,所述采样数据对应的第一重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第一预设阈值中的最小值;
所述采样数据对应的第二重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第二预设阈值中的最小值;
其中,所述第一预设阈值小于或等于所述第二预设阈值。
根据本公开的一个或多个实施例,示例16提供了示例1的方法,其中,所述交互序列为在虚拟对象与所述虚拟环境进行交互的过程中进行采样获得的,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述虚拟环境为所述虚拟对象所处的环境。
根据本公开的一个或多个实施例,示例17提供了一种深度强化学习模型的训练装置,所述装置包括:
获取模块,用于获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述环境的第一状态、决策动作、以及在所述环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
第一确定模块,用于针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
第二确定模块,用于针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
更新模块,用于根据所述更新梯度信息对所述深度强化学习模型进行更新。
根据本公开的一个或多个实施例,示例18提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现示例1-16中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例19提供了一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1-16中任一项所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
Claims (19)
1.一种深度强化学习模型的训练方法,其特征在于,所述方法包括:
获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述虚拟环境的第一状态、决策动作、以及在所述虚拟环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
根据所述更新梯度信息对所述深度强化学习模型进行更新。
2.根据权利要求1所述的方法,其特征在于,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,包括:
在所述参数确定模型为一个的情况下,则根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定目标区域;
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
3.根据权利要求1所述的方法,其特征在于,所述深度强化学习模型的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,包括:
在所述参数确定模型为多个的情况下,则针对每一所述参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,其中,所述目标超参数的参数空间被离散化为多个取值区域,每一所述参数确定模型的学习率不同,且多个所述参数确定模型对应的所述多个取值区域划分相同;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数对应的更新后的状态价值,从所述多个取值区域中确定候选区域;
根据每一所述参数确定模型确定出的所述候选区域,确定目标区域;
根据所述目标区域确定所述目标超参数的目标取值,并将所述目标取值确定为所述目标超参数的取值。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述交互样本,对所述参数确定模型中所述目标超参数对应的状态价值进行更新,包括:
在所述参数确定模型中,根据所述采样取值,确定所述采样取值所属的取值区域;
根据所述采样取值所属的取值区域确定待更新取值区域;
根据所述优化特征参数,对所述待更新取值区域的状态价值进行更新。
5.根据权利要求4所述的方法,其特征在于,所述根据所述采样取值所属的取值区域确定待更新取值区域,包括:
将所述采样取值所属的取值区域和处于所述采样取值所属的取值区域相邻的预设范围内的取值区域确定为所述待更新取值区域;
所述根据所述优化特征参数,对所述待更新取值区域的状态价值进行更新,包括:
根据所述优化特征参数和各个所述待更新取值区域的状态价值,分别对每一所述待更新取值区域的状态价值进行更新。
6.根据权利要求1所述的方法,其特征在于,所述决策策略对应的概率分布通过以下方式构造:
根据所述优势函数值与所述策略熵参数确定所述决策策略对应的目标参数;
将所述目标参数进行softmax处理后得到的概率分布确定为所述决策策略对应的概率分布。
7.根据权利要求1所述的方法,其特征在于,所述针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,包括:
针对每一所述采样数据,确定所述优势函数与该采样数据中的第一状态对应的优势函数值,以及在所述采样数据对应的决策策略下所述优势函数值的优势期望;
针对每一所述采样数据,根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值。
8.根据权利要求7所述的方法,其特征在于,所述根据所述采样数据、与所述采样数据对应的优势函数值、所述优势期望以及所述深度强化学习模型的状态值函数,确定所述采样数据对应的计算动作价值,包括:
根据所述采样数据中的第一状态,确定所述状态值函数对应的状态价值;
将所述优势函数值与所述优势期望之差确定为处理优势函数值;
将所述处理优势函数值与所述状态价值之和确定为所述计算动作价值。
9.根据权利要求1所述的方法,其特征在于,所述根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,包括:
针对每一所述目标采样数据,根据所述目标采样数据中的第二状态和所述深度强化学习模型的状态值函数,确定所述目标采样数据对应的第二计算状态价值;
根据所述目标采样数据中的回报值、所述第二计算状态价值和所述计算动作价值,确定所述目标采样数据对应的时序状态估计差异;
根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息。
10.根据权利要求9所述的方法,其特征在于,所述更新梯度信息包括状态值函数对应的梯度信息,
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
根据所述时序状态估计差异的第一加权和、以及所述第一计算状态价值确定目标状态价值;
根据所述目标状态价值和所述第一计算状态价值确定所述状态值函数在所述采样数据下对应的梯度信息。
11.根据权利要求10所述的方法,其特征在于,所述时序状态估计差异的第一加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第一权重值的乘积之和;
该目标采样数据对应的第一权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的采样数据,则将所述交互序列中位于所述采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第一权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则将所述采样数据对应的第二重要性参数确定为所述采样数据对应的第一权重值。
12.根据权利要求9所述的方法,其特征在于,所述更新梯度信息包括动作值函数对应的梯度信息;
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
根据所述目标动作价值和所述计算动作价值确定所述动作值函数在所述采样数据下对应的梯度信息。
13.根据权利要求9所述的方法,其特征在于,所述更新梯度信息包括策略梯度信息;
所述根据所述采样数据和每一所述目标采样数据对应的时序状态估计差异,确定所述深度强化模型对应的更新梯度信息,包括:
根据所述采样数据中的第一状态和所述状态值函数,确定所述第一状态对应的第一计算状态价值;
根据所述时序状态估计差异的第二加权和、以及所述计算动作价值确定目标动作价值;
根据所述目标动作价值和所述第一计算状态价值确定所述采样数据对应的策略梯度信息。
14.根据权利要求12所述的方法,其特征在于,所述时序状态估计差异的第二加权和为:每一目标采样数据对应的时序状态估计差异和该目标采样数据对应的第二权重值的乘积之和;
该目标采样数据对应的第二权重值通过以下方式确定:
若该目标采样数据为所述采样数据之后的第一个采样数据,将该目标采样数据对应的第二重要性参数和衰减系数的乘积确定为该目标采样数据对应的第二权重值;
若该目标采样数据为所述第一个采样数据之后的采样数据,则将所述交互序列中位于所述第一个采样数据之后至该目标采样数据之前的每一采样数据对应的第一重要性参数的乘积、与该目标采样数据对应的第二重要性参数、以及衰减系数的K次幂的乘积确定为该目标采样数据对应的第二权重值,K为所述交互序列中所述采样数据之后至该目标采样数据的采样数据的个数;
若该目标采样数据为所述采样数据本身,则所述采样数据对应的第二权重值为1。
15.根据权利要求11或14所述的方法,其特征在于,所述采样数据对应的第一重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第一预设阈值中的最小值;
所述采样数据对应的第二重要性参数为:所述深度强化学习模型的目标策略对应的概率分布与所述采样数据对应的行为策略的概率分布的比值、和第二预设阈值中的最小值;
其中,所述第一预设阈值小于或等于所述第二预设阈值。
16.根据权利要求1所述的方法,其特征在于,所述交互序列为在虚拟对象与所述虚拟环境进行交互的过程中进行采样获得的,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述虚拟环境为所述虚拟对象所处的环境。
17.一种深度强化学习模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取深度强化学习模型与虚拟环境交互所产生的交互序列,其中,所述交互序列包括多个采样数据,其中,每一所述采样数据包括所述环境的第一状态、决策动作、以及在所述环境处于所述第一状态对应的状态下执行所述决策动作所得到的回报值和第二状态;
第一确定模块,用于针对每一所述采样数据,根据所述深度强化学习模型的优势函数和所述采样数据对应的决策策略,确定所述采样数据对应的计算动作价值,其中,所述决策策略对应的概率分布为基于所述优势函数和所述深度强化学习模型的策略熵参数构造的,所述深度强化学习模型中的目标超参数的取值基于所述目标超参数对应的参数确定模型和所述交互序列生成的交互样本进行更新,所述交互样本中包含与所述交互序列对应的所述目标超参数的采样取值和所述深度强化学习模型对应的优化特征参数,所述目标超参数包括所述策略熵参数;
第二确定模块,用于针对每一所述采样数据,根据所述采样数据对应的目标采样数据和所述目标采样数据对应的计算动作价值,确定所述深度强化模型对应的更新梯度信息,其中,所述采样数据对应的所述目标采样数据包括所述采样数据本身,并且,若所述采样数据不为所述交互序列中的最后一个采样数据,则所述目标采样数据还包括所述交互序列中处于所述采样数据之后的每一采样数据,所述更新梯度信息包括状态值函数对应的梯度信息、动作值函数对应的梯度信息和策略梯度信息中的至少一种;
更新模块,用于根据所述更新梯度信息对所述深度强化学习模型进行更新。
18.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-16中任一项所述方法的步骤。
19.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-16中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110127253.5A CN112766497A (zh) | 2021-01-29 | 2021-01-29 | 深度强化学习模型的训练方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110127253.5A CN112766497A (zh) | 2021-01-29 | 2021-01-29 | 深度强化学习模型的训练方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766497A true CN112766497A (zh) | 2021-05-07 |
Family
ID=75703805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110127253.5A Pending CN112766497A (zh) | 2021-01-29 | 2021-01-29 | 深度强化学习模型的训练方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766497A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113780554A (zh) * | 2021-09-10 | 2021-12-10 | 网易(杭州)网络有限公司 | 深度强化学习模型的处理方法及装置、介质、电子设备 |
CN114917586A (zh) * | 2022-06-01 | 2022-08-19 | 北京字跳网络技术有限公司 | 模型的训练方法、对象的控制方法、装置、介质及设备 |
CN115356919A (zh) * | 2022-10-19 | 2022-11-18 | 吉林省百皓科技有限公司 | 一种二氧化氯消毒机pid控制器自适应调整方法 |
US11907335B2 (en) | 2020-10-16 | 2024-02-20 | Cognitive Space | System and method for facilitating autonomous target selection |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110861634A (zh) * | 2018-08-14 | 2020-03-06 | 本田技研工业株式会社 | 交互感知决策 |
CN111292001A (zh) * | 2020-02-24 | 2020-06-16 | 清华大学深圳国际研究生院 | 基于强化学习的联合决策方法及装置 |
CN111768028A (zh) * | 2020-06-05 | 2020-10-13 | 天津大学 | 一种基于深度强化学习的gwlf模型参数调节方法 |
CN111985640A (zh) * | 2020-07-10 | 2020-11-24 | 清华大学 | 一种基于强化学习的模型训练方法以及相关装置 |
CN112052947A (zh) * | 2020-08-17 | 2020-12-08 | 清华大学 | 基于策略选项的分层强化学习方法和装置 |
CN112149347A (zh) * | 2020-09-16 | 2020-12-29 | 北京交通大学 | 基于深度强化学习的配电网负荷转供方法 |
-
2021
- 2021-01-29 CN CN202110127253.5A patent/CN112766497A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110861634A (zh) * | 2018-08-14 | 2020-03-06 | 本田技研工业株式会社 | 交互感知决策 |
CN111292001A (zh) * | 2020-02-24 | 2020-06-16 | 清华大学深圳国际研究生院 | 基于强化学习的联合决策方法及装置 |
CN111768028A (zh) * | 2020-06-05 | 2020-10-13 | 天津大学 | 一种基于深度强化学习的gwlf模型参数调节方法 |
CN111985640A (zh) * | 2020-07-10 | 2020-11-24 | 清华大学 | 一种基于强化学习的模型训练方法以及相关装置 |
CN112052947A (zh) * | 2020-08-17 | 2020-12-08 | 清华大学 | 基于策略选项的分层强化学习方法和装置 |
CN112149347A (zh) * | 2020-09-16 | 2020-12-29 | 北京交通大学 | 基于深度强化学习的配电网负荷转供方法 |
Non-Patent Citations (2)
Title |
---|
WENJIE SHI等: ""Soft policy Gradient Method for Maximum Entropy Deep Reinforcement Learning"", 《ARXIV》, pages 1 - 7 * |
祁文凯等: ""基于延迟策略的最大熵优势演员评论家算法"", 《小型微型计算机系统》, pages 1656 - 1664 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11907335B2 (en) | 2020-10-16 | 2024-02-20 | Cognitive Space | System and method for facilitating autonomous target selection |
CN113780554A (zh) * | 2021-09-10 | 2021-12-10 | 网易(杭州)网络有限公司 | 深度强化学习模型的处理方法及装置、介质、电子设备 |
CN113780554B (zh) * | 2021-09-10 | 2023-10-24 | 网易(杭州)网络有限公司 | 深度强化学习模型的处理方法及装置、介质、电子设备 |
CN114917586A (zh) * | 2022-06-01 | 2022-08-19 | 北京字跳网络技术有限公司 | 模型的训练方法、对象的控制方法、装置、介质及设备 |
CN115356919A (zh) * | 2022-10-19 | 2022-11-18 | 吉林省百皓科技有限公司 | 一种二氧化氯消毒机pid控制器自适应调整方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766497A (zh) | 深度强化学习模型的训练方法、装置、介质及设备 | |
CN109800732B (zh) | 用于生成漫画头像生成模型的方法和装置 | |
CN113408797B (zh) | 流转量预测多时序模型生成方法、信息发送方法和装置 | |
CN113436620B (zh) | 语音识别模型的训练方法、语音识别方法、装置、介质及设备 | |
CN110058936B (zh) | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 | |
CN109558605B (zh) | 用于翻译语句的方法和装置 | |
US20200151545A1 (en) | Update of attenuation coefficient for a model corresponding to time-series input data | |
CN113052253A (zh) | 超参数确定方法、装置、深度强化学习框架、介质及设备 | |
CN114065863A (zh) | 联邦学习的方法、装置、系统、电子设备及存储介质 | |
CN111783810A (zh) | 用于确定用户的属性信息的方法和装置 | |
US20220044109A1 (en) | Quantization-aware training of quantized neural networks | |
CN112926628A (zh) | 动作价值的确定方法、装置、学习框架、介质及设备 | |
CN114389975A (zh) | 网络带宽预估方法、装置、系统、电子设备及存储介质 | |
CN115546293A (zh) | 障碍物信息融合方法、装置、电子设备和计算机可读介质 | |
CN109359727B (zh) | 神经网络的结构确定方法、装置、设备及可读介质 | |
CN114240506A (zh) | 多任务模型的建模方法、推广内容处理方法及相关装置 | |
CN113256339A (zh) | 资源投放的方法、装置、存储介质及电子设备 | |
CN111510473B (zh) | 访问请求处理方法、装置、电子设备和计算机可读介质 | |
WO2024051707A1 (zh) | 训练推荐模型的方法、推荐资源的方法及其装置 | |
CN113850890A (zh) | 动物形象的生成方法、装置、设备及存储介质 | |
CN112949850A (zh) | 超参数确定方法、装置、深度强化学习框架、介质及设备 | |
CN116776155A (zh) | 一种基于联邦学习的模型训练方法、装置、设备和介质 | |
CN116306981A (zh) | 策略确定方法、装置、介质及电子设备 | |
CN113052312A (zh) | 深度强化学习模型的训练方法、装置、介质及电子设备 | |
CN115293292A (zh) | 自动驾驶决策模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |