CN113052253A - 超参数确定方法、装置、深度强化学习框架、介质及设备 - Google Patents

超参数确定方法、装置、深度强化学习框架、介质及设备 Download PDF

Info

Publication number
CN113052253A
CN113052253A CN202110351935.4A CN202110351935A CN113052253A CN 113052253 A CN113052253 A CN 113052253A CN 202110351935 A CN202110351935 A CN 202110351935A CN 113052253 A CN113052253 A CN 113052253A
Authority
CN
China
Prior art keywords
target
value
parameter
space
hyper
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110351935.4A
Other languages
English (en)
Inventor
范嘉骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202110351935.4A priority Critical patent/CN113052253A/zh
Publication of CN113052253A publication Critical patent/CN113052253A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开涉及一种超参数确定方法、装置、深度强化学习框架、介质及设备,所述方法包括:获取在目标模型的目标超参数组合对应的采样取值组合下,与采样取值组合对应的采样样本;根据采样样本生成目标超参数组合对应的交互样本;针对用于确定目标超参数组合的多个参数确定模型中的每一参数确定模型,根据交互样本,对参数确定模型中目标超参数组合对应的状态价值进行更新;针对每一参数确定模型,根据该参数确定模型中目标超参数组合对应的更新后的状态价值,从多个取值空间中确定候选空间;根据每一参数确定模型确定出的候选空间,确定目标空间;根据目标空间确定目标超参数组合对应的目标取值组合,提高具有关联关系的多个超参数的取值的准确性。

Description

超参数确定方法、装置、深度强化学习框架、介质及设备
技术领域
本公开涉及计算机领域,具体地,涉及一种超参数确定方法、装置、深度强化学习框架、介质及设备。
背景技术
随机计算机技术的发展,各类大型模型、复杂的机器学习模型逐渐开始应用。在模型中需要通过大量的参数进行计算,从而使得该模型可以满足用户的需求。在模型中的部分参数可以通过模型的训练进行优化,例如神经网络模型中的权重,而部分参数不能够通过模型的训练进行优化,这类参数为模型的超参数,例如神经网络中的隐藏层的数量。超参数用于对模型的训练过程进行调节,通常是工作人员基于经验人为设置的,超参数并不直接参与到模型的训练过程,不会在模型的训练过程中进行更新。而超参数的设置对模型训练的迭代次数、收敛效率等具有较大影响。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种超参数确定方法,所述方法包括:
获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
第二方面,提供一种超参数确定装置,所述装置包括:
第一获取模块,用于获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
生成模块,用于根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
更新模块,用于针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
第一确定模块,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
第二确定模块,用于根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
第三确定模块,用于根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
第三方面,提供一种深度强化学习框架,所述深度强化学习框架中的多个具有关联关系的超参数的取值是基于第一方面所述超参数确定方法确定出的。
第四方面,提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第五方面,提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面所述方法的步骤。
在上述技术方案中,在多个参数确定模型中,针对于多个具有关联关系的目标超参数,可以通过目标超空间同时对每一目标超参数的参数空间进行表示,从而可以通过在每一维度中对该维度下的目标超参数的参数空间进行离散化处理,从而将目标超空间离散化为多个取值空间,从而可以基于使用该目标超参数组合的目标模型对应的采样样本,基于所述目标模型的优化特征参数,以确定该目标超参数组合在每一参数确定模型中进行取值的候选空间,从而可以基于多个参数确定模型,进一步地确定出目标超参数组合对应的目标取值组合。由此,通过上述技术方案,一方面可以对模型的超参数的取值进行准确设置,避免由于人为经验的局限性而出现由于超参数设置值不合适而导致目标模型无法收敛或者收敛速度过慢的现象。另一方面,通过对具有关联关系的多个超参数的取值的统一确定,结合多个参数确定模型确定出的候选空间确定出目标空间,进而确定目标超参数组合对应的取值,从而在保证目标超参数取值准确的同时,提高该目标取值与该目标模型的实际应用场景的匹配程度,避免每一超参数分别进行优化时陷入鞍点的问题。同时基于目标模型的优化特征参数确定目标取值组合,确定出的目标取值可以使得目标模型的优化特征参数更优,从而可以有效提高目标模型的训练效率,以在一定程度上降低目标模型训练的迭代次数,提高目标模型的收敛效率。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是基于本公开的一种实施方式提供的超参数确定方法的流程图;
图2是基于本公开的一种实施方式提供的目标超空间的示意图;
图3是基于本公开的一种实施方式提供的根据该参数确定模型中目标超参数组合对应的更新后的状态价值,从多个取值空间中确定候选空间的示例性实现方式的流程图;
图4是基于本公开的一种实施方式提供的超参数确定装置的框图;
图5示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1所示,为基于本公开的一种实施方式提供的超参数确定方法的流程图,如图1所示,所述方法可以包括:
在步骤11中,获取在目标模型的目标超参数组合对应的采样取值组合下,与采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值。
示例地,所述目标模型可以为深度强化学习模型。其中,深度强化学习模型将深度学习的感知能力和强化学习的决策能力相结合,其通过在每个时刻代理(agent)与环境交互得到一个高维度的观察,并利用深度学习方法来感知该观察,以得到该观察具体的状态特征表示;之后可以基于预期回报来评价各个状态的价值函数(状态值函数)和状态-动作对的价值函数(动作值函数),并且基于这两个价值函数对决策策略进行提升,决策策略用于将当前状态映射为相应的决策动作;环境会对此决策动作做出反应,并得到下一个观察。通过不断循环以上过程,以得到实现目标的最优策略,示例地,该目标为累计回报最大。
示例地,以深度强化学习模型为例,在深度强化模型中可以通过2个目标超参数对策略π的搜索空间进行表示,目标超参数组合α可以表示为:α=(τ12),则采样取值组合则可以分别包含该目标超参数τ1和τ2的采样取值。
因此,在该应用场景中,所述采样样本可以为在虚拟对象与虚拟环境进行交互的过程中进行采样获得的交互序列,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述交互序列包括在所述采样取值下的多个采样数据,每一所述采样数据包括所述虚拟环境的环境状态、所述深度强化学习模型确定出的所述虚拟对象在所述环境状态下的执行的决策动作,以及与所述决策动作对应的回报值。
其中,虚拟环境可以是用计算机生成的一种虚拟的场景环境,如虚拟环境可以是游戏场景,示例地,对用于与用户进行交互的多媒体数据进行渲染,从而可以将该多媒体数据渲染显示为游戏场景,虚拟环境提供了一个多媒体的虚拟世界,用户可通过操作界面上的控件来控制虚拟对象动作,或直接对虚拟环境中可操作的虚拟对象进行控制,并以虚拟对象的视角观察虚拟环境中的物体、人物、风景等,以及通过虚拟对象和虚拟环境中的其它虚拟对象等进行互动。作为另一示例,该虚拟环境还可以包括场景中的其他虚拟对象等。虚拟对象可以是在虚拟环境中的用于模拟用户的虚拟形象,其可以是人类形象或者其他动物形象等。
该应用场景可以是由虚拟对象感知其所处的环境,并根据感知到的环境信息来进行动作的场景。该应用场景可以包括一虚拟对象以及虚拟对象所处环境中包含的多个环境对象,在该场景下,虚拟对象可以对虚拟对象所处环境的环境信息进行融合,并将融合后的环境信息,输入到目标模型中,以得到虚拟对象待执行的目标动作。其中,虚拟对象可以是任一种能够与环境交互,并根据所处环境的环境信息进行动作的智能体。
示例地,所述虚拟对象为游戏人工智能(游戏AI,ArtificialIntelligence),所述深度强化学习模型用于对所述游戏人工智能进行训练,所述采样样本为在所述游戏人工智能在目标游戏的对局中进行采样获得的交互序列,所述虚拟环境为所述游戏人工智能在所述目标游戏中所处的训练环境。
作为示例,目标游戏为枪战类游戏,虚拟对象可以是游戏对战AI,其对应的决策动作可以是控制游戏对战AI角色攻击、移动和停止等。作为另一示例,目标游戏为驾驶类游戏中,虚拟对象可以是进行自动驾驶的游戏车辆AI,其对应的决策动作可以是控制该车辆转向、直行和刹车等。作为另一示例,目标游戏可以在装配类游戏,虚拟对象可以是机器人AI,其对应的决策动作可以是控制该机器人AI移动、抓取待装配物体和放下待装配物体等。
举例来说,在对游戏人工智能在目标游戏的对局中进行采样获得的交互序列时,可以由游戏人工智能对游戏人工智能所处环境进行感知,以获取游戏人工智能所处训练环境的多模态的环境状态。其中,环境状态可以包括环境图像,以及环境图像中每个环境对象的对象信息,对象信息包含了环境对象所对应的具体参数。例如,在虚拟对象为枪战类游戏中的游戏对战AI时,虚拟环境则可以是游戏对战AI在该枪战类游戏中所处的训练环境,则环境图像可以是游戏对战AI所在的游戏地图,环境对象可以是该游戏地图中的敌方单位、道路和建筑物等,对象信息可以包括敌方单位的数值参数(例如:血量、攻击力、技能)、名称和所在位置等信息。在虚拟对象为驾驶类游戏的游戏车辆AI时,虚拟环境则可以是游戏车辆AI在该驾驶类游戏中所处的训练环境,则环境图像可以是拍摄到的该车辆周围的图像,环境对象可以是该车辆周围的其他车辆、障碍物和道路等,对象信息可以包括其他车辆的车速、行驶方向和大小等信息。在虚拟对象为装配类游戏中的机器人AI时,虚拟环境则可以是机器人AI在该装配类游戏中所处的训练环境,环境图像可以是拍摄到的待装配物体所在区域的图像,环境对象可以是待装配物体,对象信息可以包括待装配物体的大小、形状和位置等信息。然后,可以对每个环境对象的对象信息进行预处理,以得到每个环境对象的对象特征向量。例如,可以将每个环境对象的对象信息输入到预先训练好的深度学习网络中,以将每个环境对象的对象信息转换为该环境对象的对象特征向量。
作为示例,该虚拟对象可以在该虚拟环境的第一状态下执行决策动作,则在该虚拟形象执行该决策动作后,该虚拟环境则可以对该决策动作做出反应,从而获得该虚拟环境的第二状态,以及执行该决策动作对应的回报值。则在虚拟对象与该虚拟环境进行交互的过程中进行采样时,可以基于将该第一状态、决策动作、第二状态以及该回报值作为该采样时刻对应的采样数据,若无另外说明,本公开实施例中所述采样数据中的环境状态为该采样数据中的第一状态。在一次完整的交互过程中,按照采样时间的先后顺序的采样数据形成为一交互序列。示例地,该目标模型可以为一深度强化学习模型,目标游戏为迷宫类游戏,虚拟对象对游戏AI,虚拟环境可以为一虚拟迷宫环境,在该虚拟迷宫场景中的随机位置中可能出现虚拟奖励,可以训练深度强化学习模型以确定游戏AI从虚拟迷宫入口E1至出口E2的策略,以使得游戏AI从入口E1至出口E2的过程中获得的虚拟奖励最多。示例地,从入口E1处在初始时刻采样,游戏AI在虚拟迷宫环境中该初始时刻的第一状态下对应的动作为直行或右转,则可以根据策略确定该初始时刻的状态下对应决策动作,示例地决策动作为直行,环境基于该决策动作做出反应获得回报值和第二状态,采样获得一采样数据。在下一时刻采样,获得该游戏AI在虚拟迷宫环境中该下一时刻的第一状态,该第一状态下对应的动作为直行或右转,则可以根据策略确定该下一时刻的第一状态下对应的决策动作,示例地决策动作为右转,同样地环境基于该决策动作做出反应获得回报值和第二状态,获得下一采样数据。则在游戏AI移动至出口E2的过程中,通过上述方式采样可以获得包含多个采样数据的交互序列。
其中,在进行采样时,可以获取该采样时刻对应的虚拟环境的图像,从而可以对该图像进行特征提取,以获得该第一状态。该回报值可以是执行该决策动作后,该虚拟对象对应的得分值的变化,也可以是虚拟生命条的变化等,可以根据实际使用场景进行设置,本公开对此不进行限定。
在步骤12中,根据采样样本生成目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数。
所述优化特征参数可以为所述交互序列对应的累计回报。作为示例,该累计回报可以是该交互序列中包含的每一决策动作对应的回报值之和。作为另一示例,与当前决策动作距离越远的决策动作对该当前决策动作的影响越小,则该累计回报可以是该交互序列中的每一决策动作的回报值与该决策动作对应的衰减系数的乘积的累加和,其中,决策动作对应的衰减系数按照所述决策动作由先至后的顺序递减,例如:
Gt=Rt+1+γRt+22Rt+3+…+γn-1Rt+n
=Rt+1+γ(Rt+2+γRt+3+…+γn-2Rt+n)
=Rt+1+γGt+1
其中,Ri用于表示i时刻的决策动作的回报值,γ用于表示该衰减系数,n可以用于表示该交互序列中t时刻之后到交互结束的采样数据的数量。
因此,在另一实施例中,可以从交互序列的最后一个决策动作起,将其回报值与衰减值相乘并与前一决策动作的回报值相加,直至与所述交互序列中的第一个决策动作的回报值相加,获得该累计回报。其中该衰减值可以根据实际使用场景进行设置。
在步骤13中,针对用于确定目标超参数组合的多个参数确定模型中的每一参数确定模型,根据交互样本,对所述参数确定模型中目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同。
接上述示例,目标超参数组合中包含两个目标超参数,分别为τ1和τ2,则该目标超参数组合对应的目标超空间为二维空间,如图2所示,其中,X轴维度对应于目标超参数τ1,Y轴维度对应于目标超参数τ2,目标超参数τ1和τ2分别对应的参数空间可以在其对应的维度上进行离散化处理,其中不同维度进行离散化处理的间隔可以相同,也可以不同,用户可以基于实际使用场景进行设置,本公开对此不进行限定。
如图2所示,在X轴维度对目标超参数τ1的参数空间以离散间隔H1进行离散化处理,在Y轴维度对目标超参数τ2的参数空间以离散间隔H2进行离散化处理,则目标超空间被离散化为图2所示的12个取值空间(C00-C23)。目标超参数组合对应的状态价值可以通过一个向量进行表示,即该12个取值空间各自对应的状态价值分别为该向量中的一个维度值。
在该实施例中,可以采用多个参数确定模型确定该目标超参数组合中每一所述目标超参数的取值。示例地,可以随机初始化5个参数确定模型,并且预先设置该5个参数确定模型的学习率。在本公开中,每一参数确定模型的学习率不同,则在不同的参数确定模型基于同一交互样本进行学习时,可以在多种学习步长下对各自的参数进行调整,使得每一参数确定模型可以进行个性化学习,增加在基于每一参数确定模型确定目标超参数组合对应取值时该多个参数确定模型的多样性,从而保证该多个参数确定模型在确定目标取值组合时考虑特征的全面性,提高目标取值组合的准确性。
其中,在本领域中,在模型已知时对任意策略π能够估计出该策略带来的期望累计回报,通常采用状态值函数来评价某一状态的价值,某一个状态的价值可以用该状态下所有动作的价值表述,即基于状态s能获得的累计回报的期望,在这个策略下,该累计回报服从一个分布,累计回报在状态处的期望值定义为状态值函数V(s):
Vπ(s)=Eπ[Gt|St=s]
Vπ(s)即表示在策略π下,t时刻的状态St取值为s时,累计回报Gt在s处的期望值。则在该实施例中,可以基于该状态值函数对在状态s的所有取值空间的状态价值进行评价。其中,该累计回报的确定方式已在上文详述,在此不再赘述。
在该深度强化学习模型中,可以通过一神经网络实现该状态值函数的计算。因此,可以将该采样数据中的环境状态输入该状态值函数网络,从而可以获得该状态值函数网络的输出值,即该状态值函数与该环境状态对应的状态价值。
作为示例,针对每一参数模型,其对应的目标超参数组合中每一目标超参数的参数空间被离散化为多个取值区间,从而使得目标超参数组合对应的目标超空间被离散化为多个取值空间,则目标超参数组合对应的状态价值可以用于表征在该目标超参数组合中的目标超参数的取值为采样取值组合中对应的采样取值的状态下,基于策略进一步选择从各个取值空间中选择目标超参数组合中的每一目标超参数取值所带来的累计回报。示例地,在本公开中可以通过迭代更新的方式确定目标超参数组合对应的状态价值,即根据交互样本对应的采样取值组合,对目标超参数组合对应的状态价值进行迭代更新。
作为示例,在对目标超空间中的每一维度下的参数空间进行离散化处理时,针对每一维度,可以预先确定该参数空间对应的取值区间的个数,之后可以将目标超参数的参数空间进行均匀划分从而获得多个取值区间。如,目标超参数的参数空间为[0,9],将该参数空间划分为9个取值区间,则取值区间A1对应的取值范围为[0,1),取值区间A2对应的取值范围为[1,2),其他取值区间对应的取值范围以此类推,在此不再赘述。
在步骤14中,针对每一参数确定模型,根据该参数确定模型中目标超参数组合对应的更新后的状态价值,从多个取值空间中确定候选空间。
如上文所述,每一参数确定模型的学习率不同,则在每一参数确定模型中确定出的目标超参数组合对应的状态价值一般不同。因此,在本公开实施例中,针对每一参数确定模型,其可以根据各自模型中目标超参数组合对应的更新后的状态价值,确定出该参数确定模型中进行取值的取值空间,即候选空间。
在该步骤中,针对每一参数确定模型,可以通过根据目标模型的采样样本确定出的目标超参数组合对应的状态价值,对该目标超参数组合从每一取值空间中进行取值的累计回报进行准确评价,从而可以根据评价结果选择用于确定目标超参数组合的取值的候选空间,以保证目标超参数组合取值的准确性,以及该目标超参数组合的取值与该目标模型的实际应用过程的一致性。
在步骤15中,根据每一参数确定模型确定出的候选空间,确定目标空间,以提高目标空间的准确性和可信度。
在步骤16中,根据目标空间确定目标超参数组合对应的目标取值组合。
作为一种实施例,可以在所述目标空间对应的取值范围内进行均匀分布采样,将采样获得的点在每一维度下对应的取值确定为所述该维度对应的目标超参数的目标取值。如图2所示,确定出的目标空间为C13,从该目标空间中进行采样获得的采样点为P1,则可以将P1在X轴维度对应的取值Px确定为目标超参数τ1的目标取值,将P1在Y轴维度对应的取值Py确定为目标超参数τ2的目标取值,以获得目标取值组合。
由此,在上述技术方案中,在多个参数确定模型中,针对于多个具有关联关系的目标超参数,可以通过目标超空间同时对每一目标超参数的参数空间进行表示,从而可以通过在每一维度中对该维度下的目标超参数的参数空间进行离散化处理,从而将目标超空间离散化为多个取值空间,从而可以基于使用该目标超参数组合的目标模型对应的采样样本,基于所述目标模型的优化特征参数,以确定该目标超参数组合在每一参数确定模型中进行取值的候选空间,从而可以基于多个参数确定模型,进一步地确定出目标超参数组合对应的目标取值组合。由此,通过上述技术方案,一方面可以对模型的超参数的取值进行准确设置,避免由于人为经验的局限性而出现由于超参数设置值不合适而导致目标模型无法收敛或者收敛速度过慢的现象。另一方面,通过对具有关联关系的多个超参数的取值的统一确定,结合多个参数确定模型确定出的候选空间确定出目标空间,进而确定目标超参数组合对应的取值,从而在保证目标超参数取值准确的同时,提高该目标取值与该目标模型的实际应用场景的匹配程度,避免每一超参数分别进行优化时陷入鞍点的问题。同时基于目标模型的优化特征参数确定目标取值组合,确定出的目标取值可以使得目标模型的优化特征参数更优,从而可以有效提高目标模型的训练效率,以在一定程度上降低目标模型训练的迭代次数,提高目标模型的收敛效率。
如上文所述,虚拟环境可以为游戏环境,则可以在该虚拟对象与虚拟环境进行交互的过程中进行采样以获得交互数据,该深度强化学习模型在训练过程中,可以基于上述方式确定该深度强化学习模型中的具有关联关系的多个超参数的取值,从而可以使得深度强化学习模型确定虚拟对象的决策动作时能够获得更大的回报,保证虚拟对象的决策动作的准确性,提高虚拟对象控制的准确性,同时还能够减少训练过程中所需的数据量和人力。
在一种可能的实施例中,所述方法还可以包括:
将所述目标取值组合作为所述目标超参数组合对应的新的采样取值组合,并重新执行所述获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本的步骤至所述根据所述目标空间确定所述目标超参数组合对应的目标取值组合的步骤,直至所述目标模型训练完成。
其中,其中,目标超参数组合对应的采样取值组合初始时可以基于随机初始化的模型采样得到。在该实施例中,可以从多个初始化参数确定模型中选择一个参数确定模型确定该采样取值,
在确定出目标超参数组合对应的目标取值组合后,则可以将该目标模型中的相应的目标超参数的取值更新为其对应的目标取值,从而可以重新执行步骤11至步骤16,以对目标模型的目标超参数组合在该目标取值组合下的交互样本进一步确定该目标取值组合是否准确,从而可以实现目标超参数组合对应的取值的动态调整,同时也可以对目标模型对应的优化特征参数进行优化,在进一步提高目标超参数组合对应的取值的准确性的同时,保证目标模型的收敛性和准确性,提高目标模型的训练效率,同时无需人工设置目标模型的超参数的取值,降低人工工作量。
在一种可能的实施例中,针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新的示例性实现方式如下,该步骤可以包括:
针对每一参数确定模型,在参数确定模型中,根据所述采样取值组合,确定所述采样取值组合所属的取值空间作为待更新取值空间。
示例地,示例地,可以根据该采样取值组合中的每一采样取值,分别确定该采样取值在该采样取值对应的维度下的标识,例如,可以基于采样取值的取值区间对应的范围长度确定该采样取值所属的取值区间,采样取值所属的取值区间的下标i可以通过以下公式进行确定:
i=(min(max(x,l),r)-l)//acc
其中,x用于表示所述采样取值;l用于表示所述参数空间的左边界;r用于表示所述参数空间的右边界;//用于表示整除符号;acc用于表示取值区间的范围长度。
因此,在基于上述方式确定出每一采样取值对应的采样区间的下标时,基于每一采样取值的维度确定出该待更新取值空间。示例地,X轴维度确定出的下标为2,Y轴维度确定出的下标为1,则该采样取值组合所属的取值空间即为C21。
之后,根据优化特征参数,对待更新取值空间的状态价值进行更新。
在该实施例中,通过采样取值与所述参数空间的关系可以确定出该采样取值对应的待更新取值空间,从而可以对该待更新取值空间的状态价值进行更新,针对除所述待更新取值空间之外的其他取值空间,其对应的状态价值无需更新,从而可以保证该目标超参数组合对应的状态价值的准确性,为后续准确选择目标空间提供数据支持。
在一种可能的实施例中,将采样取值组合所属的取值空间确定为该待更新取值空间,则可以通过以下公式根据优化特征参数,对待更新取值空间的状态价值进行更新,公式如下:
Figure BDA0003002599940000131
其中,T用于表示所述优化特征参数,其中,若该优化特征参数为累计回报,即该累计回报在优化时向增大的方向优化,则T可以为Gt,若该优化特征参数为目标模型的误差率error,即该误差率在优化时向减小的方向优化,则T可以为-error;K(s)用于表示待更新取值空间s的命中次数,即采样样本对应的目标超参数组合的取值属于该待更新取值空间s的次数,V(s)用于表示所述待更新取值空间s当前的状态价值,V’(s)用于表示待更新取值空间s更新后的状态价值。
又如,可以通过如下公式通过以下公式根据优化特征参数,对待更新取值空间的状态价值进行更新:
V'(s)=V(s)+lrk*(T-V(s))
其中,lrk用于表示第k个参数确定模型中进行状态价值更新的学习率。
由此,通过上述技术方案,可以基于交互样本对目标超参数空间对应的状态价值进行更新,使得该状态价值与目标模型中实际的优化特征参数相对应,从而可以保证后续确定出的目标取值组合的准确性,优化目标模型的训练效率。
其中,为了提高超参数取值确定的效率,可以在所述交互样本的数量达到预设阈值时,针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,执行根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新的步骤,其中,每一交互样本对应于目标超参数组合在不同取值空间的取值,即可以同时基于多个交互样本对该目标超参数组合对应的状态价值进行更新,基于每一交互样本的更新方式与上文所述相同,在此不再赘述。
在该实施例中,在目标超参数组合对应的状态价值更新后,可以重新计算每取值空间对应的分数,从而可以保证每一所述取值空间的分数的准确性,为后续确定目标空间提供准确的数据支持。
在一种可能的实施例中,在步骤14中,根据该参数确定模型中目标超参数组合对应的更新后的状态价值,从多个取值空间中确定候选空间的示例性实现方式如下,如图3所示,该步骤可以包括:
在步骤31中,在参数确定模型中,根据目标超参数组合对应的更新后的状态价值,确定每一取值空间的目标分数,其中,该目标分数用于表征选择该取值空间的可靠程度。
在一种可能的实施例中,所述根据目标超参数组合对应的更新后的状态价值,确定每一取值空间的目标分数的示例性实现方式如下,该步骤可以包括:
在所述目标超参数组合对应的更新后的状态价值中,针对每一所述取值空间,将该取值空间的状态价值进行归一化处理后所得结果确定为该取值空间的价值分数。
示例地,可以通过以下公式确定第i个取值空间的价值分数Si
Figure BDA0003002599940000141
其中,Vi'用于表示当前的取值空间对应的最新的状态价值,μ(V')和σ(V')分别表示更新后的各个取值空间的状态价值对应的均值和标准差,即通过上述公式可以对每一取值空间的价值分数进行归一化处理。
之后,针对每一所述取值空间,根据所述取值空间的价值分数和所述取值空间的命中次数,确定所述取值空间的目标分数。
示例地,可以通过以下公式确定第i个取值空间的目标分数Scorei
Figure BDA0003002599940000142
其中,c为预先设置的常数,用于调节命中次数对目标分数的影响,Mi为取值空间i的命中次数,j用于表示各个取值空间的下标。
其中,如上文所述,在本公开实施例中可以通过该迭代更新的方式确定取值空间的状态价值,每一取值空间的状态价值初始为0,针对每一取值空间,在该根据目标超参数组合的采样取值组合确定出待更新取值空间后,相应的待更新取值空间的状态价值会更新,除待更新取值空间之外的其他取值空间的状态价值则会保持不变。由此,在该实施例中,为了提高初始训练过程中的目标空间选择的多样性,在确定取值空间的分数时同时需要考虑该取值空间的命中次数,以降低历史命中的取值对目标空间的选择的影响程度。由上述可知,在该过程中,随着交互样本的增多,目标超参数组合对应的状态价值越准确,且随着命中次数的增大,命中次数对目标分数的影响逐渐降低,从而可以使得在初始学习阶段提高候选空间选择的多样性和探索空间,在一定程度上提高确定出的目标取值组合的准确性,避免初始状态下的随机样本目标空间确定的过大影响,而在状态价值准确时,降低命中次数对目标空间选择的影响,以保证目标空间的选择对优化特征参数的正向优化调整。
转回图3,在步骤32中,根据每一取值空间的目标分数,从多个取值空间中确定候选空间。
在第一种可能的实施例中,所述根据每一取值空间的目标分数,从多个取值空间中确定候选空间的步骤可以包括:
按照所述目标分数由大至小的顺序选择预设数量的取值空间作为所述候选空间。其中,该预设数量可以根据实际使用场景进行设置,本公开对此不进行限定。
作为示例,预设数量为1,可以直接选择目标分数最大的取值空间作为该候选空间;作为另一示例,预设数量为2,则可以将目标分数由大至小的顺序排序前2的取值空间确定该候选空间。其中,每一参数模型确定候选空间的方式相同。由此,可以有效保证每一参数模型确定出的候选空间的有效性,为后续确定准确的目标空间提供数据支持,进而提高从该目标空间中确定出的目标取值组合对目标模型优化的有效调整,提高目标模型优化的效率。
在第二种可能的实施例中,该根据每一取值空间的目标分数,从多个取值空间中确定候选空间的步骤可以包括:
对所述多个取值空间的目标分数进行softmax处理,获得由每一所述取值空间的概率信息所形成的概率分布,并根据所述概率分布对所述多个取值空间进行采样,将采样获得的取值空间确定为所述候选空间。其中,该采样的个数可以为一个或多个。
在该实施例中,为了进一步提高目标超参数组合对应的取值探索的多样性,可以基于softmax函数对各个取值空间的状态价值进行映射,以将其映射为0-1范围内的数值,作为该取值空间的概率信息,以获得该多个取值空间的概率分布。在基于概率分布进行采样时,概率信息较小的取值空间也会有被采样的可能,从而可以在一定程度上保证多个取值空间均存在被采样的可能性,提高确定候选空间多样性,避免后续确定出的目标空间为使得特征优化参数处于局部最优的参数的问题,避免目标模型的训练达到局部最优而停止训练,能够保证目标模型训练的准确性和鲁棒性。
在一种可能的实施例中,该多个参数确定模型中的部分参数确定模型可以采用上文所述的第一种实施例确定候选空间,该多个参数确定模型中的剩余部分参数确定模型可以采用上文所述的第二种实施例确定候选空间,从而可以从多种特征下确定对应的候选空间,进一步提高后续目标空间的准确性。
在一种可能的实施例中,在步骤15中,根据每一参数确定模型确定出的候选空间,确定目标空间的示例性实现方式如下,该步骤可以包括:
针对每一所述候选空间,获取确定所述候选空间的参数确定模型的数量。
将所述数量最大的候选空间确定为所述目标空间。
如上文所述取值空间可以为C00-C23,参数确定模型为5个,例如M1-M5,示例地,M1确定出的候选空间为C00、C01,M2确定出的候选空间为C00、C10,M3确定出的候选空间为C10、C01,M4确定出的候选空间为C00、C01,M5确定出的候选空间为C11、C01。则在该实施例中可以分别获取确定候选空间的参数确定模型的数量,如,针对候选空间C00,其对应的参数确定模型为M1、M2和M4,即候选空间C00对应的数量为3。针对其他候选空间,采样同样的方式进行确定。之后,则可以将对应的数量最多的候选空间确定为目标空间,即被最多的参数确定模型确定出的取值空间。如上述示例,该目标空间为取值空间C01。
由此,在上述技术方案中,可以基于多个参数确定模型选择的候选空间确定出目标空间,一方面可以避免单模型选择目标空间的偏差性,另一方面该多个参数确定模型的学习率不同,确定候选空间的方式可能不同,由此可以保证该多个参数确定模型的多样性,进而提高确定目标空间时所考虑特征的全面性和多样性,保证目标空间准确性的同时拓宽目标超参数组合对应的取值的探索空间。
在一种可能的实施例中,所述方法还可以包括:
在所述交互样本的数量达到数量阈值的情况下,获取用于确定所述目标超参数组合的新的参数确定模型。其中,该数量阈值可以根据实际使用场景进行设置,本公开对此不进行限定。示例地,该新的参数确定模型可以是新初始化的参数确定模型,该新的参数确定模型中的模型参数为随机初始化的取值。
之后,以所述新的参数确定模型替换所述用于确定所述目标超参数组合的多个参数确定模型中使用时长最长的参数确定模型。
作为示例,可以记录每一参数确定模型的初始使用时间,则可以将初始使用时间最早的模型确定为该使用时间最长的参数确定模型。作为另一示例,可以将该多个参数确定模型的标识信息通过队列进行存储,该队列可以为一FIFO(First Input First Output,先入先出)队列,则在进行参数确定模型的替换时,直接将处于队列队首的标识信息的参数确定模型删除,并将该新的参数确定模型的标识信息添加至队尾。
其中,在该实施例中,在交互样本的数量达到数量阈值时,表示该多个参数确定模型已经基于该部分交互样本进行了训练,该多个参数确定模型的参数已经进行了优化。此时,在基于该多个参数确定模型确定候选空间时,每一参数确定模型在确定时受历史的交互样本的影响较大。因此,在本公开实施例中,可以在历史的交互样本达到一定数量时,替换该多个参数确定模型中的使用时长最长的模型,即受历史的交互样本的影响最大的参数确定模型,从而既可以在一定程度上降低历史的交互样本的过大影响,保证目标超参数组合的取值的探索多样性,同时在该多个参数确定模型中保留了部分已经进行参数优化的模型,从而可以保证最终确定出的目标空间的准确性。
本公开还提供一种深度强化学习框架,所述所述深度强化学习框架中的多个具有关联关系的超参数的取值是基于上述超参数确定方法确定出的。示例地,可以基于该深度强化学习框架对游戏人工智能进行训练,则通过上述技术方案,可以保证确定出的游戏人工智能的决策的准确性,提高该游戏人工智能与用户进行交互时,游戏人工智能的决策能力,提升用户交互体验。
本公开还提供一种超参数确定装置,如图4所示,所述装置10包括:
第一获取模块101,用于获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
生成模块102,用于根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
更新模块103,用于针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
第一确定模块104,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
第二确定模块105,用于根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
第三确定模块106,用于根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
可选地,所述装置还包括:
触发模块,用于将所述目标取值组合作为所述目标超参数组合对应的新的采样取值组合,并重触发采样模块执行所述获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本至所述第三确定模块根据所述目标空间确定所述目标超参数组合对应的目标取值组合,直至所述目标模型训练完成。
可选地,所述装置还包括:
第二获取模块,用于在所述交互样本的数量达到数量阈值的情况下,获取用于确定所述目标超参数组合的新的参数确定模型;
替换模块,用于以所述新的参数确定模型替换所述用于确定所述目标超参数组合的多个参数确定模型中使用时长最长的参数确定模型。
可选地,所述第二确定模块包括:
获取子模块,用于针对每一所述候选空间,获取确定所述候选空间的参数确定模型的数量;
第一确定子模块,用于将所述数量最大的候选空间确定为所述目标空间。
可选地,所述更新模块包括:
第二确定子模块,用于在所述参数确定模型中,根据所述采样取值组合,确定所述采样取值组合所属的取值空间作为待更新取值空间;
更新子模块,用于根据所述优化特征参数,对所述待更新取值空间的状态价值进行更新。
可选地,所述第一确定模块包括:
第三确定子模块,用于在所述参数确定模型中,根据所述目标超参数组合对应的更新后的状态价值,确定每一所述取值空间的目标分数;
第四确定子模块,用于根据每一所述取值空间的目标分数,从所述多个取值空间中确定所述候选空间。
可选地,所述第三确定子模块包括:
第五确定子模块,用于在所述目标超参数组合对应的更新后的状态价值中,针对每一所述取值空间,将该取值空间的状态价值进行归一化处理后所得结果确定为该取值空间的价值分数;
第六确定子模块,用于针对每一所述取值空间,根据所述取值空间的价值分数和所述取值空间的命中次数,确定所述取值空间的目标分数。
可选地,所述第四确定子模块包括:
第七确定子模块,用于按照所述目标分数由大至小的顺序选择预设数量的取值空间作为所述候选空间;
或者
第八确定子模块,用于对所述多个取值空间的目标分数进行softmax处理,获得由每一所述取值空间的概率信息所形成的概率分布,并根据所述概率分布对所述多个取值空间进行采样,将采样获得的取值空间确定为所述候选空间。
可选地,所述目标模型为深度强化学习模型,所述采样样本为在虚拟对象与虚拟环境进行交互的过程中进行采样获得的交互序列,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述交互序列包括在所述目标超参数组合对应的所述采样取值组合下的多个采样数据,每一所述采样数据包括所述虚拟环境的环境状态、所述深度强化学习模型确定出的所述虚拟对象在所述环境状态下的执行的决策动作,以及与所述决策动作对应的回报值,所述优化特征参数为所述交互序列对应的累计回报。
可选地,所述虚拟对象为游戏人工智能,所述深度强化学习模型用于对所述游戏人工智能进行训练,所述采样样本为在所述游戏人工智能在目标游戏的对局中进行采样获得的交互序列,所述虚拟环境为所述游戏人工智能在所述目标游戏中所处的训练环境。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,第一获取模块还可以被描述为“获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种超参数确定方法,所述方法包括:
获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,其中,所述方法还包括:
将所述目标取值组合作为所述目标超参数组合对应的新的采样取值组合,并重新执行所述获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本的步骤至所述根据所述目标空间确定所述目标超参数组合对应的目标取值组合的步骤,直至所述目标模型训练完成。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,其中,所述方法还包括:
在所述交互样本的数量达到数量阈值的情况下,获取用于确定所述目标超参数组合的新的参数确定模型;
以所述新的参数确定模型替换所述用于确定所述目标超参数组合的多个参数确定模型中使用时长最长的参数确定模型。
根据本公开的一个或多个实施例,示例4提供了示例1的方法,其中,所述根据每一所述参数确定模型确定出的所述候选空间,确定目标空间,包括:
针对每一所述候选空间,获取确定所述候选空间的参数确定模型的数量;
将所述数量最大的候选空间确定为所述目标空间。
根据本公开的一个或多个实施例,示例5提供了示例1的方法,其中,所述根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,包括:
在所述参数确定模型中,根据所述采样取值组合,确定所述采样取值组合所属的取值空间作为待更新取值空间;
根据所述优化特征参数,对所述待更新取值空间的状态价值进行更新。
根据本公开的一个或多个实施例,示例6提供了示例1的方法,其中,所述根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间,包括:
在所述参数确定模型中,根据所述目标超参数组合对应的更新后的状态价值,确定每一所述取值空间的目标分数;
根据每一所述取值空间的目标分数,从所述多个取值空间中确定所述候选空间。
根据本公开的一个或多个实施例,示例7提供了示例6的方法,其中,所述根据所述目标超参数组合对应的更新后的状态价值,确定每一所述取值空间的目标分数,包括:
在所述目标超参数组合对应的更新后的状态价值中,针对每一所述取值空间,将该取值空间的状态价值进行归一化处理后所得结果确定为该取值空间的价值分数;
针对每一所述取值空间,根据所述取值空间的价值分数和所述取值空间的命中次数,确定所述取值空间的目标分数。
根据本公开的一个或多个实施例,示例8提供了示例6的方法,其中,所述根据每一所述取值空间的目标分数,从所述多个取值空间中确定所述候选空间,包括:
按照所述目标分数由大至小的顺序选择预设数量的取值空间作为所述候选空间;
或者
对所述多个取值空间的目标分数进行softmax处理,获得由每一所述取值空间的概率信息所形成的概率分布,并根据所述概率分布对所述多个取值空间进行采样,将采样获得的取值空间确定为所述候选空间。
根据本公开的一个或多个实施例,示例9提供了示例1的方法,其中,所述目标模型为深度强化学习模型,所述采样样本为在虚拟对象与虚拟环境进行交互的过程中进行采样获得的交互序列,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述交互序列包括在所述目标超参数组合对应的所述采样取值组合下的多个采样数据,每一所述采样数据包括所述虚拟环境的环境状态、所述深度强化学习模型确定出的所述虚拟对象在所述环境状态下的执行的决策动作,以及与所述决策动作对应的回报值,所述优化特征参数为所述交互序列对应的累计回报。
根据本公开的一个或多个实施例,示例10提供了示例9的方法,其中,所述虚拟对象为游戏人工智能,所述深度强化学习模型用于对所述游戏人工智能进行训练,所述采样样本为在所述游戏人工智能在目标游戏的对局中进行采样获得的交互序列,所述虚拟环境为所述游戏人工智能在所述目标游戏中所处的训练环境。
根据本公开的一个或多个实施例,示例11提供了一种超参数确定装置,其中,所述装置包括:
第一获取模块,用于获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
生成模块,用于根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
更新模块,用于针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
第一确定模块,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
第二确定模块,用于根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
第三确定模块,用于根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
根据本公开的一个或多个实施例,示例12提供了一种深度强化学习框架,其中,所述深度强化学习框架中的多个具有关联关系的超参数的取值是基于示例1-10中任一所述超参数确定方法确定出的。
根据本公开的一个或多个实施例,示例13提供了一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理装置执行时实现示例1-10中任一示例所述方法的步骤。
根据本公开的一个或多个实施例,示例14提供了一种电子设备,其中,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1-10中任一示例所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (14)

1.一种超参数确定方法,其特征在于,所述方法包括:
获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述目标取值组合作为所述目标超参数组合对应的新的采样取值组合,并重新执行所述获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本的步骤至所述根据所述目标空间确定所述目标超参数组合对应的目标取值组合的步骤,直至所述目标模型训练完成。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述交互样本的数量达到数量阈值的情况下,获取用于确定所述目标超参数组合的新的参数确定模型;
以所述新的参数确定模型替换所述用于确定所述目标超参数组合的多个参数确定模型中使用时长最长的参数确定模型。
4.根据权利要求1所述的方法,其特征在于,所述根据每一所述参数确定模型确定出的所述候选空间,确定目标空间,包括:
针对每一所述候选空间,获取确定所述候选空间的参数确定模型的数量;
将所述数量最大的候选空间确定为所述目标空间。
5.根据权利要求1所述的方法,其特征在于,所述根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,包括:
在所述参数确定模型中,根据所述采样取值组合,确定所述采样取值组合所属的取值空间作为待更新取值空间;
根据所述优化特征参数,对所述待更新取值空间的状态价值进行更新。
6.根据权利要求1所述的方法,其特征在于,所述根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间,包括:
在所述参数确定模型中,根据所述目标超参数组合对应的更新后的状态价值,确定每一所述取值空间的目标分数;
根据每一所述取值空间的目标分数,从所述多个取值空间中确定所述候选空间。
7.根据权利要求6所述的方法,其特征在于,所述根据所述目标超参数组合对应的更新后的状态价值,确定每一所述取值空间的目标分数,包括:
在所述目标超参数组合对应的更新后的状态价值中,针对每一所述取值空间,将该取值空间的状态价值进行归一化处理后所得结果确定为该取值空间的价值分数;
针对每一所述取值空间,根据所述取值空间的价值分数和所述取值空间的命中次数,确定所述取值空间的目标分数。
8.根据权利要求6所述的方法,其特征在于,所述根据每一所述取值空间的目标分数,从所述多个取值空间中确定所述候选空间,包括:
按照所述目标分数由大至小的顺序选择预设数量的取值空间作为所述候选空间;
或者
对所述多个取值空间的目标分数进行softmax处理,获得由每一所述取值空间的概率信息所形成的概率分布,并根据所述概率分布对所述多个取值空间进行采样,将采样获得的取值空间确定为所述候选空间。
9.根据权利要求1所述的方法,其特征在于,所述目标模型为深度强化学习模型,所述采样样本为在虚拟对象与虚拟环境进行交互的过程中进行采样获得的交互序列,其中,所述虚拟对象基于所述深度强化学习模型进行控制,所述交互序列包括在所述目标超参数组合对应的所述采样取值组合下的多个采样数据,每一所述采样数据包括所述虚拟环境的环境状态、所述深度强化学习模型确定出的所述虚拟对象在所述环境状态下的执行的决策动作,以及与所述决策动作对应的回报值,所述优化特征参数为所述交互序列对应的累计回报。
10.根据权利要求9所述的方法,其特征在于,所述虚拟对象为游戏人工智能,所述深度强化学习模型用于对所述游戏人工智能进行训练,所述采样样本为在所述游戏人工智能在目标游戏的对局中进行采样获得的交互序列,所述虚拟环境为所述游戏人工智能在所述目标游戏中所处的训练环境。
11.一种超参数确定装置,其特征在于,所述装置包括:
第一获取模块,用于获取在目标模型的目标超参数组合对应的采样取值组合下,与所述采样取值组合对应的采样样本,其中,所述目标超参数组合中包含多个具有关联关系的目标超参数,所述采样取值组合中包含每一所述目标超参数对应的采样取值;
生成模块,用于根据所述采样样本生成所述目标超参数组合对应的交互样本,所述交互样本中包含所述采样取值组合和所述目标模型对应的优化特征参数;
更新模块,用于针对用于确定所述目标超参数组合的多个参数确定模型中的每一参数确定模型,根据所述交互样本,对所述参数确定模型中所述目标超参数组合对应的状态价值进行更新,其中,每一所述参数确定模型的学习率不同,在每一所述参数确定模型中、所述目标超参数与所述目标超参数组合对应的目标超空间中的维度一一对应,每一所述目标超参数的参数空间在该目标超参数对应的维度下被离散化为多个取值区间,以使得所述目标超空间被离散化为多个取值空间,且多个所述参数确定模型对应的所述多个取值空间划分相同;
第一确定模块,用于针对每一所述参数确定模型,根据该参数确定模型中所述目标超参数组合对应的更新后的状态价值,从所述多个取值空间中确定候选空间;
第二确定模块,用于根据每一所述参数确定模型确定出的所述候选空间,确定目标空间;
第三确定模块,用于根据所述目标空间确定所述目标超参数组合对应的目标取值组合。
12.一种深度强化学习框架,其特征在于,所述深度强化学习框架中的多个具有关联关系的超参数的取值是基于权利要求1-10中任一所述超参数确定方法确定出的。
13.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-10中任一项所述方法的步骤。
14.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-10中任一项所述方法的步骤。
CN202110351935.4A 2021-03-31 2021-03-31 超参数确定方法、装置、深度强化学习框架、介质及设备 Pending CN113052253A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110351935.4A CN113052253A (zh) 2021-03-31 2021-03-31 超参数确定方法、装置、深度强化学习框架、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110351935.4A CN113052253A (zh) 2021-03-31 2021-03-31 超参数确定方法、装置、深度强化学习框架、介质及设备

Publications (1)

Publication Number Publication Date
CN113052253A true CN113052253A (zh) 2021-06-29

Family

ID=76516799

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110351935.4A Pending CN113052253A (zh) 2021-03-31 2021-03-31 超参数确定方法、装置、深度强化学习框架、介质及设备

Country Status (1)

Country Link
CN (1) CN113052253A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449823A (zh) * 2021-08-31 2021-09-28 成都深蓝思维信息技术有限公司 自动驾驶模型训练方法及数据处理设备
CN114356540A (zh) * 2021-10-30 2022-04-15 腾讯科技(深圳)有限公司 一种参数更新方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401556A (zh) * 2020-04-22 2020-07-10 清华大学深圳国际研究生院 一种对抗式模仿学习中奖励函数的选择方法
US20200327448A1 (en) * 2019-04-15 2020-10-15 Oracle International Corporation Predicting machine learning or deep learning model training time
CN112052936A (zh) * 2020-07-24 2020-12-08 清华大学 基于生成对抗机制的强化学习探索方法及装置
WO2020249125A1 (zh) * 2019-06-14 2020-12-17 第四范式(北京)技术有限公司 用于自动训练机器学习模型的方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200327448A1 (en) * 2019-04-15 2020-10-15 Oracle International Corporation Predicting machine learning or deep learning model training time
WO2020249125A1 (zh) * 2019-06-14 2020-12-17 第四范式(北京)技术有限公司 用于自动训练机器学习模型的方法和系统
CN111401556A (zh) * 2020-04-22 2020-07-10 清华大学深圳国际研究生院 一种对抗式模仿学习中奖励函数的选择方法
CN112052936A (zh) * 2020-07-24 2020-12-08 清华大学 基于生成对抗机制的强化学习探索方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TONG YU 等: "Hyber-Parameter Optimizaiton:A Review of Algorithms and Applications", 《ARXIV》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449823A (zh) * 2021-08-31 2021-09-28 成都深蓝思维信息技术有限公司 自动驾驶模型训练方法及数据处理设备
CN113449823B (zh) * 2021-08-31 2021-11-19 成都深蓝思维信息技术有限公司 自动驾驶模型训练方法及数据处理设备
CN114356540A (zh) * 2021-10-30 2022-04-15 腾讯科技(深圳)有限公司 一种参数更新方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
US10664725B2 (en) Data-efficient reinforcement learning for continuous control tasks
EP3593289A1 (en) Training action selection neural networks using a differentiable credit function
US20220176248A1 (en) Information processing method and apparatus, computer readable storage medium, and electronic device
CN110114784B (zh) 递归环境预测器及其方法
CN114596553B (zh) 模型训练方法、轨迹预测方法、装置及自动驾驶车辆
CN113052253A (zh) 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112766497A (zh) 深度强化学习模型的训练方法、装置、介质及设备
CN111695698A (zh) 用于模型蒸馏的方法、装置、电子设备及可读存储介质
CN112256037B (zh) 应用于自动驾驶的控制方法、装置、电子设备及介质
CN114972591A (zh) 动画生成模型的训练方法、动画生成方法和装置
CN114021330A (zh) 一种仿真交通场景搭建方法及系统、智能体车辆控制方法
CN112632380A (zh) 兴趣点推荐模型的训练方法和推荐兴趣点的方法
CN115546293A (zh) 障碍物信息融合方法、装置、电子设备和计算机可读介质
CN114065900A (zh) 数据处理方法和数据处理装置
CN112528160B (zh) 智能推荐、模型训练方法、装置、电子设备及存储介质
CN113052252B (zh) 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112949850B (zh) 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052312A (zh) 深度强化学习模型的训练方法、装置、介质及电子设备
CN116088537B (zh) 车辆避障方法、装置、电子设备和计算机可读介质
CN112926628A (zh) 动作价值的确定方法、装置、学习框架、介质及设备
CN113534790B (zh) 路径规划方法、装置、电子设备及计算机可读存储介质
CN113052248A (zh) 超参数确定方法、装置、深度强化学习框架、介质及设备
CN115293292A (zh) 自动驾驶决策模型的训练方法及装置
CN115648204A (zh) 智能决策模型的训练方法、装置、设备以及存储介质
CN112926629B (zh) 超参数确定方法、装置、深度强化学习框架、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination