CN111401594A - 展示信息组合确定方法、装置、存储介质及电子设备 - Google Patents
展示信息组合确定方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN111401594A CN111401594A CN201811647015.1A CN201811647015A CN111401594A CN 111401594 A CN111401594 A CN 111401594A CN 201811647015 A CN201811647015 A CN 201811647015A CN 111401594 A CN111401594 A CN 111401594A
- Authority
- CN
- China
- Prior art keywords
- display information
- combination
- candidate
- information combination
- reinforcement learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000002787 reinforcement Effects 0.000 claims abstract description 114
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008901 benefit Effects 0.000 abstract description 7
- 230000009471 action Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008092 positive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282376 Panthera tigris Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种展示信息组合确定方法、装置、存储介质及电子设备。所述方法包括:获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。这样,利用强化学习方法,可自动生成目标展示信息组合,节省人力,还可以使目标展示信息组合能够获得最大的回报值,使用户利益最大化。
Description
技术领域
本公开涉及计算机技术领域,具体地,涉及一种展示信息组合确定方法、装置、存储介质及电子设备。
背景技术
信息流(Feeds)是社交媒体移动应用中最重要的创新点之一,即当用户加载显示界面时为用户呈现一系列信息。该一系列信息就是一系列展示信息,展示信息可以在展位进行展示,从而获得一定的回报值。展位可以为用于对展示信息进行展示的虚拟或实际的载体。在数据库中存在多种可供展示的展示信息,而在实际的展示中,由于每一次可用于展示的展位数量有限,这些可供展示的展示信息无法全部展示,只能从中选择一部分进行展示,这一部分展示信息可视为展示信息组合。现有技术中,对于展示信息组合的确定需要人工收集数据后进行人为选择,这样,一方面需要投入大量的人力、物力、时间等,效率很低,另一方面,由于人工选择的方式受限于个人经验等因素,会使确定出的展示信息组合得到的回报值无法估量,易出现回报值过低的情况。
发明内容
本公开的目的是提供一种展示信息组合确定方法、装置、存储介质及电子设备,以自动生成展示信息组合。
为了实现上述目的,根据本公开的第一方面,提供一种展示信息组合确定方法,所述方法包括:
获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;
将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。
可选地,所述与候选展示信息对应的目标决策模型通过以下方式获得:
获取历史展示信息组合以及所述历史展示信息组合对应的实际回报值,其中,所述历史展示信息组合包括M个所述候选展示信息;
根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型。
可选地,所述根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型,包括:
初始化所述强化学习网络模型,并根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,所述第一展示信息组合包括M个所述候选展示信息;
确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值;
将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中各候选展示信息在所述强化学习网络模型中的权重参数;
重复执行所述根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,以及所述确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值,以及所述将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中候选展示信息在所述强化学习网络模型中的权重参数的步骤,直至所述重复执行的次数达到预设次数;
将当前的所述强化学习网络模型确定为所述目标决策模型。
可选地,所述获取数据库中的N个候选展示信息,包括:
获取所述数据库中的第一展示信息,所述第一展示信息为已被单独展示过的展示信息;
获取所述第一展示信息被单独展示时对应的实际回报值;
至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息。
可选地,所述至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,包括:
将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,以及,将所述数据库中除所述第一展示信息之外的其他展示信息确定为所述候选展示信息。
可选地,所述方法还包括:
记录所述目标展示信息组合对应的实际回报值;
将所述实际回报值输入至所述目标决策模型,以更新所述目标决策模型中与所述目标展示信息组合中各候选展示信息对应的权重参数。
可选地,候选展示信息在目标决策模型中的权重参数与目标决策模型生成展示信息组合时选择该候选展示信息的几率相关,并且,展示信息组合对应的实际回报值越高,则在更新所述目标决策模型时,该展示信息组合中的候选展示信息在所述目标决策模型中的权重参数的增大程度越高。
根据本公开的第二方面,提供一种展示信息组合确定装置,所述装置包括:
获取模块,用于获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;
确定模块,用于将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。
可选地,所述确定模块包括:
第一获取子模块,用于获取历史展示信息组合以及所述历史展示信息组合对应的实际回报值,其中,所述历史展示信息组合包括M个所述候选展示信息;
训练子模块,用于根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型。
可选地,所述训练子模块用于初始化所述强化学习网络模型,并根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,所述第一展示信息组合包括M个所述候选展示信息;确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值;将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中各候选展示信息在所述强化学习网络模型中的权重参数;触发所述训练子模块重复执行所述根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,以及所述确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值,以及所述将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中候选展示信息在所述强化学习网络模型中的权重参数,直至所述重复执行的次数达到预设次数;将当前的所述强化学习网络模型确定为所述目标决策模型。
可选地,所述获取模块包括:
第二获取子模块,用于获取所述数据库中的第一展示信息,所述第一展示信息为已被单独展示过的展示信息;
第三获取子模块,用于获取所述第一展示信息被单独展示时对应的实际回报值;
确定子模块,用于至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息。
可选地,所述确定子模块用于将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,以及,将所述数据库中除所述第一展示信息之外的其他展示信息确定为所述候选展示信息。
可选地,所述装置还包括:
记录模块,用于记录所述目标展示信息组合对应的实际回报值;
更新模块,用于将所述实际回报值输入至所述目标决策模型,以更新所述目标决策模型中与所述目标展示信息组合中各候选展示信息对应的权重参数。
可选地,候选展示信息在目标决策模型中的权重参数与目标决策模型生成展示信息组合时选择该候选展示信息的几率相关,并且,展示信息组合对应的实际回报值越高,则在更新所述目标决策模型时,该展示信息组合中的候选展示信息在所述目标决策模型中的权重参数的增大程度越高。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开第一方面所述方法的步骤。
根据本公开的第四方面,提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,获取数据库中的N个候选展示信息,将候选展示信息输入至与候选展示信息对应的目标决策模型,获得目标展示信息组合。其中,目标决策模型是利用强化学习网络模型构建的,且目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合。这样,利用强化学习方法,可自动生成目标展示信息组合,节省人力,另外,还可以使目标展示信息组合能够获得最大的回报值,使用户利益最大化。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据本公开的一种实施方式提供的展示信息组合确定方法的流程图;
图2是根据本公开提供的展示信息组合确定方法中,获取数据库中的N个候选展示信息的步骤的一种示例性实现方式的流程图;
图3是根据本公开提供的展示信息组合确定方法中,获得与候选展示信息对应的目标决策模型的方式的一种示例性实现方式的流程图;
图4是根据本公开的一种实施方式提供的展示信息组合确定装置的框图;
图5是根据一示例性实施例示出的一种电子设备的框图
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
需要说明的是,本公开的说明书和权利要求书以及上述附图中的术语“第一”等是用于区别类似的对象,而不必理解为描述特定的顺序或先后次序。
图1是根据本公开的一种实施方式提供的展示信息组合确定方法的流程图。如图1所示,该方法可以包括以下步骤。
在步骤11中,获取数据库中的N个候选展示信息。
其中,N为大于1的正整数。示例地,N个候选展示信息可以为数据库中所有的展示信息。再例如,N个候选展示信息可以为数据库中所有的展示信息的一部分。
在一种可能的实施方式中,步骤11中获取数据库中的N个候选展示信息可以直接获取数据库中的所有展示信息作为N个候选展示信息,这里N即为数据库中所有展示信息的个数。
在另一种可能的实施方式中,步骤11中获取数据库中的N个候选展示信息可以从数据库中的所有展示信息中随机选取N个展示信息作为候选展示信息,这里N小于数据库中所有展示信息的个数。
在另一种可能的实施方式中,如图2所示,步骤11可以包括以下步骤:
在步骤21中,获取数据库中的第一展示信息。
其中,第一展示信息为已被单独展示过的展示信息。
在步骤22中,获取第一展示信息被单独展示时对应的实际回报值。
针对已被单独展示过的第一展示信息,能够获取到第一展示信息被单独展示时各自对应的实际回报值。
在步骤23中,至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为候选展示信息。
在一种可能的实施例中,可以将单独展示时对应的实际回报值大于或者等于预设回报阈值的第一展示信息确定为候选展示信息。
采用上述方式,可以对数据库中的展示信息进行筛选以得到候选展示信息,即将单独展示时能够得到高回报值的展示信息作为候选展示信息,从而使候选展示信息本身在获得高回报值方面就具备一定的优势,从而对后续确定的目标展示信息组合获得高回报值具有积极效果。
在另一种可能的实施例中,除了将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为候选展示信息外,还可以将数据库中除第一展示信息之外的其他展示信息确定为候选展示信息。
也就是说,候选展示信息除了包括单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息外,还包括数据库中未被展示过的展示信息。
采用上述方式,一方面,可以将单独展示时能够得到高回报值的展示信息作为候选展示信息,从而使候选展示信息本身在获得高回报值方面具备一定的优势,从而对后续确定的目标展示信息组合获得高回报值具有积极效果。另一方面,也可以减小未被单独展示过的展示信息在候选展示信息选取中的劣势,避免出现未被单独展示过的展示信息总是不被选取为候选展示信息的情况。
现在回到图1,在步骤12中,将候选展示信息输入至与候选展示信息对应的目标决策模型,获得目标展示信息组合。
其中,目标展示信息组合可以包括M个候选展示信息,且1≤M<N。目标决策模型是利用强化学习网络模型构建的,且目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合。
下面将对强化学习进行简单介绍。强化学习网络模型以“试错”的方式进行学习,通过与环境进行交互获得的奖赏来指导行为。强化学习的目标是使强化学习网络模型获得最大的奖赏,强化学习不同于监督学习,主要表现在强化信号上。强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价,而不是告诉强化学习网络模型如何去产生正确的动作。由于外部环境提供的信息很少,强化学习网络模型需要靠自身的经历进行学习。其中,强化学习网络模型获取外部环境的当前状态信息,对环境采取试探行为,并获取环境反馈的对此动作的评价和新的环境状态。如果强化学习网络模型的某动作导致环境正的奖赏,那么强化学习网络模型以后产生这个动作的趋势便会加强;反之,强化学习网络模型产生这个动作的趋势将减弱。通过这样的方式,强化学习网络模型通过逐步学习优化模型,可以使其选择的行为能够获得环境最大的奖赏。示例地,强化学习网络模型可以为多臂老虎机模型。
下面对本公开利用强化学习的原理进行简要说明。在本公开中,最终的目标是使展示信息组合能够尽可能获得高回报值。因此,强化学习网络模型所产生的动作就是生成展示信息组合,而动作导致的奖赏则通过生成的展示信息组合的实际回报值判定。例如,强化学习网络模型此次生成的展示信息组合所得到的实际回报值相较于上次生成的展示信息组合所得到的实际回报值有所增加,则可认为此次生成的展示信息组合导致环境正的奖赏,那么强化学习网络模型后续生成此次对应的展示信息组合的趋势将会增强。示例地,强化学习网络模型增强产生某一动作的趋势的具体的操作可以为增大此次的展示信息组合中各个展示信息在强化学习网络模型中的权重参数。其中,展示信息在强化学习网络模型中的权重参数可以与强化学习网络模型生成展示信息组合时选择该展示信息的几率相关。例如,某展示信息在强化学习网络模型中的权重参数越大,则该展示信息在强化学习网络模型生成展示信息组合时被选择的几率越高。通过这样的方式,在一次又一次生成展示信息组合并收集相应的实际回报值后,逐步优化强化学习网络模型,可以使强化学习网络模型所生成的展示信息组合能够获得最大回报值。
在一种可能的实施方式中,可以首先初始化一强化网络学习模型,并直接将该初始化的强化网络学习模型作为与N个候选展示信息对应的目标决策模型。在这种实施方式中,目标决策模型内各个候选展示信息的权重参数是随机的。
在另一种可能的实施方式中,在获得与候选展示信息对应的目标决策模型时,可以首先确定是否存在历史展示信息组合。历史展示信息组合可以包括M个候选展示信息,且1≤M<N。也就是说,历史展示信息组合需满足两个条件,第一个条件是组合内的展示信息均为候选展示信息,第二个条件是组合内的展示信息个数与欲构建的目标决策模型所要生成的目标展示信息组合内展示信息个数相同,也就是均为M个。若存在历史展示信息组合,则说明在构建目标决策模型之前,已经有相应的展示信息组合被展示,因此可以将与这些历史展示信息组合相关的数据收集起来,用以辅助获得目标决策模型。因此,在这种实施方式中,如图3所示,与候选展示信息对应的目标决策模型可以通过以下步骤获得。
在步骤31中,获取历史展示信息组合以及历史展示信息组合对应的实际回报值。
在步骤32中,根据N个候选展示信息、历史展示信息组合以及历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得目标决策模型。
在一种可能的实施例中,步骤32可以包括以下步骤:
在第一步骤中,初始化强化学习网络模型;
在第二步骤中,根据N个候选展示信息和强化学习网络模型生成第一展示信息组合;
在第三步骤中,确定与第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为第一展示信息组合对应的实际回报值;
在第四步骤中,将第一展示信息组合对应的实际回报值输入至强化学习网络模型中,以调整第一展示信息组合中各候选展示信息在强化学习网络模型中的权重参数;
重复执行上述第二步骤、以及第三步骤、以及第四步骤,直至重复执行的次数达到预设次数;
将当前的强化学习网络模型确定为目标决策模型。
其中,第一展示信息组合包括M个候选展示信息。第一展示信息组合中每一个候选展示信息在强化学习网络模型中的权重参数可以与强化学习网络模型生成第一展示信息组合时选择该候选展示信息的几率相关,并且,第一展示信息组合对应的实际回报值越高,则在更新强化学习网络模型时,该第一展示信息组合中的候选展示信息在强化学习网络模型中的权重参数的增大程度越高。
首先,初始化强化学习网络模型。此时,当前的强化学习网络模型内各个候选展示信息的权重参数是随机的。之后,当前的强化学习网络模型可以根据N个候选展示信息生成第一展示信息组合。
在生成第一展示信息组合后,可以确定与第一展示信息组合相同的历史展示信息组合,若存在这样的历史展示信息组合,则将与该历史展示信息组合对应的实际回报值确定为第一展示信息组合对应的实际回报值。从而,可以认为该与第一展示信息组合对应的实际回报值就是第一展示信息组合实际展示所对应的回报值,因此可以将该第一展示信息组合对应的实际回报值输入至强化学习网络模型中,以调整第一展示信息组合中各候选展示信息在强化学习网络模型中的权重参数。而若不存在与第一展示信息组合相同的历史展示信息组合,则说明对于当前的第一展示信息组合没有可以参考的实际数据,因此可以忽略此次生成的第一展示信息组合而重新生成新的第一展示信息组合。
其中,若此次生成的第一展示信息组合对应的实际回报值有所增加,则增大该第一展示信息组合中各个候选展示信息在当前强化学习网络模型的权重参数。初始情况下,由于第一展示信息组合对应的实际回报值没有比较的对象,因此可以预先设置一个比较阈值,将第一展示信息组合对应的实际回报值与该比较阈值进行比较,以判断此次第一展示信息组合对应的实际回报值的增加或减小情况。示例地,该比较阈值可以设置为0。
另外,在调整强化学习网络模型的权重参数的过程中,还可以根据此次生成的第一展示信息组合对应的实际回报值相较于上次生成的第一展示信息组合对应的实际回报值的变化程度确定对此次的第一展示信息组合中各候选展示信息的权重参数的调整程度。例如,若此次生成的第一展示信息组合对应的实际回报值相较于上次生成的第一展示信息组合对应的实际回报值的增加程度较大,则在此次调整强化学习网络模型的权重参数时,可以将此次生成的第一展示信息组合对应的各个候选展示信息在强化学习网络模型中的权重参数以较大的增加幅度调整。
之后,可以重复执行上述第二步骤、第三步骤以及第四步骤,也就是生成新的第一展示信息组合对强化学习网络模型内的相应权重参数进行调整,直至重复执行的次数达到预设次数。这里,重复执行的次数可以从第一次重复执行开始计算。示例地,若在初始情况下,第二步骤、第三步骤以及第四步骤被执行过一次后,开始重复执行第二步骤、第三步骤以及第四步骤,那么在此次重复执行后,重复执行次数为1。预设次数可以人为进行设定,例如可以根据历史展示信息组合的数量确定,示例地,预设次数可以大于或者等于历史展示信息组合的数量,以尽可能多地应用历史展示信息组合。在重复执行的次数达到预设次数后,则可以将当前的强化学习网络模型确定为目标决策模型。
需要说明的是,上述构建的目标决策模型是针对上述N个候选展示信息所生成的,并且该目标决策模型用于针对这N个候选展示信息生成含M个候选展示信息的展示信息组合。若候选展示信息的内容或者数量存在变化,或者目标决策模型需要生成的展示信息组合所包含的展示信息的数量存在变化,则均需要重新收集相关的数据重新构建目标决策模型。
通过上述方式,可以利用已被展示过的历史展示信息组合以及历史展示信息组合对应的实际回报值辅助构建目标决策模型,使构建的目标决策模型在初次应用时即可具备一定的优势,能够得到较高的回报值。
在另一种可能的实施例中,步骤32可以包括以下步骤:
在第一步骤中,初始化强化学习网络模型;
在第二步骤中,根据N个候选展示信息和强化学习网络模型生成第一展示信息组合;
在第三步骤中,确定与第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为第一展示信息组合对应的实际回报值;
在第四步骤中,将第一展示信息组合对应的实际回报值输入至强化学习网络模型中,以调整第一展示信息组合中各候选展示信息在强化学习网络模型中的权重参数;
重复执行上述第二步骤、以及第三步骤、以及第四步骤,直至所有的历史展示信息组合的实际回报值均被输入至强化学习网络模型以调整强化学习网络模型中候选展示信息组合的权重参数;
将当前的强化学习网络模型确定为目标决策模型。
所有的历史展示信息组合的实际回报值均被输入至强化学习网络模型以调整强化学习网络模型中候选展示信息组合的权重参数,是指强化学习网络模型在各次所生成的第一展示信息组合已经覆盖了全部的历史展示信息组合,也就是说,当前收集的历史展示信息组合以及历史展示信息组合对应的实际回报值均被使用过,且用于调整强化学习网络模型内各个候选展示信息的权重参数,已经没有其他数据可用,因此,可以不必再对强化学习网络模型继续进行训练。另外,关于上述实施例中的其他步骤,详细的执行方式在上文中均有描述,此处不赘述。
需要说明的是,上述构建的目标决策模型是针对上述N个候选展示信息所生成的,并且该目标决策模型用于针对这N个候选展示信息生成含M个候选展示信息的展示信息组合。若候选展示信息的内容或者数量存在变化,或者目标决策模型需要生成的展示信息组合所包含的展示信息的数量存在变化,则均需要重新收集相关的数据重新构建目标决策模型。
通过上述方案,获取数据库中的N个候选展示信息,将候选展示信息输入至与候选展示信息对应的目标决策模型,获得目标展示信息组合。其中,目标决策模型是利用强化学习网络模型构建的,且目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合。这样,利用强化学习方法,可自动生成目标展示信息组合,节省人力,另外,还可以使目标展示信息组合能够获得最大的回报值,使用户利益最大化。
在一种可能的实施方式中,本公开提供的方法还可以包括以下步骤:
记录目标展示信息组合对应的实际回报值;
将实际回报值输入至目标决策模型,以更新目标决策模型中与目标展示信息组合中各候选展示信息对应的权重参数。
其中,候选展示信息在目标决策模型中的权重参数与目标决策模型生成目标展示信息组合时选择该候选展示信息的几率相关,并且,目标展示信息组合对应的实际回报率越高,则在更新目标决策模型时,该目标展示信息组合中的候选展示信息在目标决策模型中的权重参数的增大程度越高。
另外,上述权重参数的更新与上文原理相同,且在上文中已有相关说明,此处不赘述。
通过上述方案,可通过收集目标展示信息组合对应的实际回报值,用以调整目标决策模型中与目标展示信息组合中各候选展示信息对应的权重参数,以优化目标决策模型,从而使目标决策模型的效果更加出色,使后续生成的目标展示信息组合能够获得更大的回报值。
需要说明的是,利用强化学习方法构建模型的方法与流程均为本领域技术人员公知,为理解方便在上文中对于其中的一种可能的情况进行了简要说明,但是本公开中构建模型的方式并不局限于此,对于其他的实现方式此处不赘述。
图4是根据本公开的一种实施方式提供的展示信息组合确定装置的框图。如图4所示,该装置40可以包括:
获取模块41,用于获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;
确定模块42,用于将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。
可选地,所述确定模块42可以包括:
第一获取子模块,用于获取历史展示信息组合以及所述历史展示信息组合对应的实际回报值,其中,所述历史展示信息组合包括M个所述候选展示信息;
训练子模块,用于根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型。
可选地,所述训练子模块用于初始化所述强化学习网络模型,并根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,所述第一展示信息组合包括M个所述候选展示信息;确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值;将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中各候选展示信息在所述强化学习网络模型中的权重参数;触发所述训练子模块重复执行所述根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,以及所述确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值,以及所述将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中候选展示信息在所述强化学习网络模型中的权重参数,直至所述重复执行的次数达到预设次数;将当前的所述强化学习网络模型确定为所述目标决策模型。
可选地,所述获取模块41可以包括:
第二获取子模块,用于获取所述数据库中的第一展示信息,所述第一展示信息为已被单独展示过的展示信息;
第三获取子模块,用于获取所述第一展示信息被单独展示时对应的实际回报值;
确定子模块,用于至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息。
可选地,所述确定子模块用于将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,以及,将所述数据库中除所述第一展示信息之外的其他展示信息确定为所述候选展示信息。
可选地,所述装置40还可以包括:
记录模块,用于记录所述目标展示信息组合对应的实际回报值;
更新模块,用于将所述实际回报值输入至所述目标决策模型,以更新所述目标决策模型中与所述目标展示信息组合中各候选展示信息对应的权重参数。
可选地,候选展示信息在目标决策模型中的权重参数与目标决策模型生成展示信息组合时选择该候选展示信息的几率相关,并且,展示信息组合对应的实际回报值越高,则在更新所述目标决策模型时,该展示信息组合中的候选展示信息在所述目标决策模型中的权重参数的增大程度越高。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据一示例性实施例示出的一种电子设备的框图。例如,电子设备1900可以被提供为一服务器。参照图5,电子设备1900包括处理器1922,其数量可以为一个或多个,以及存储器1932,用于存储可由处理器1922执行的计算机程序。存储器1932中存储的计算机程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理器1922可以被配置为执行该计算机程序,以执行上述的展示信息组合确定方法。
另外,电子设备1900还可以包括电源组件1926和通信组件1950,该电源组件1926可以被配置为执行电子设备1900的电源管理,该通信组件1950可以被配置为实现电子设备1900的通信,例如,有线或无线通信。此外,该电子设备1900还可以包括输入/输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM等等。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的展示信息组合确定方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器1932,上述程序指令可由电子设备1900的处理器1922执行以完成上述的展示信息组合确定方法。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (10)
1.一种展示信息组合确定方法,其特征在于,所述方法包括:
获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;
将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。
2.根据权利要求1所述的方法,其特征在于,所述与候选展示信息对应的目标决策模型通过以下方式获得:
获取历史展示信息组合以及所述历史展示信息组合对应的实际回报值,其中,所述历史展示信息组合包括M个所述候选展示信息;
根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述N个候选展示信息、所述历史展示信息组合以及所述历史展示信息组合对应的实际回报值,对强化学习网络模型进行训练,以获得所述目标决策模型,包括:
初始化所述强化学习网络模型,并根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,所述第一展示信息组合包括M个所述候选展示信息;
确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值;
将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中各候选展示信息在所述强化学习网络模型中的权重参数;
重复执行所述根据所述N个候选展示信息和所述强化学习网络模型生成第一展示信息组合,以及所述确定与所述第一展示信息组合相同的历史展示信息组合,并将该历史展示信息组合对应的实际回报值确定为所述第一展示信息组合对应的实际回报值,以及所述将所述第一展示信息组合对应的实际回报值输入至所述强化学习网络模型中,以调整所述第一展示信息组合中候选展示信息在所述强化学习网络模型中的权重参数的步骤,直至所述重复执行的次数达到预设次数;
将当前的所述强化学习网络模型确定为所述目标决策模型。
4.根据权利要求1所述的方法,其特征在于,所述获取数据库中的N个候选展示信息,包括:
获取所述数据库中的第一展示信息,所述第一展示信息为已被单独展示过的展示信息;
获取所述第一展示信息被单独展示时对应的实际回报值;
至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息。
5.根据权利要求4所述的方法,其特征在于,所述至少将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,包括:
将单独展示时对应的实际回报值大于或者等于预设回报值阈值的第一展示信息确定为所述候选展示信息,以及,将所述数据库中除所述第一展示信息之外的其他展示信息确定为所述候选展示信息。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
记录所述目标展示信息组合对应的实际回报值;
将所述实际回报值输入至所述目标决策模型,以更新所述目标决策模型中与所述目标展示信息组合中各候选展示信息对应的权重参数。
7.根据权利要求3或6所述的方法,其特征在于,候选展示信息在目标决策模型中的权重参数与目标决策模型生成展示信息组合时选择该候选展示信息的几率相关,并且,展示信息组合对应的实际回报值越高,则在更新所述目标决策模型时,该展示信息组合中的候选展示信息在所述目标决策模型中的权重参数的增大程度越高。
8.一种展示信息组合确定装置,其特征在于,所述装置包括:
获取模块,用于获取数据库中的N个候选展示信息,所述N个候选展示信息为数据库中所有展示信息的全部或部分,其中,N为大于1的正整数;
确定模块,用于将所述候选展示信息输入至与所述候选展示信息对应的目标决策模型,获得目标展示信息组合,所述目标展示信息组合包括M个所述候选展示信息,所述目标决策模型是利用强化学习网络模型构建的,且所述目标决策模型用于根据输入的展示信息确定出能够获得最大回报值的展示信息组合,其中,1≤M<N。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647015.1A CN111401594A (zh) | 2018-12-29 | 2018-12-29 | 展示信息组合确定方法、装置、存储介质及电子设备 |
PCT/CN2019/094743 WO2020134011A1 (zh) | 2018-12-29 | 2019-07-04 | 展示信息组合确定方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647015.1A CN111401594A (zh) | 2018-12-29 | 2018-12-29 | 展示信息组合确定方法、装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111401594A true CN111401594A (zh) | 2020-07-10 |
Family
ID=71126070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811647015.1A Pending CN111401594A (zh) | 2018-12-29 | 2018-12-29 | 展示信息组合确定方法、装置、存储介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111401594A (zh) |
WO (1) | WO2020134011A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115658212A (zh) * | 2022-11-16 | 2023-01-31 | 北京极致车网科技有限公司 | 一种多终端数据的可视化展示控制方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003207784A1 (en) * | 2002-02-01 | 2003-09-02 | Manugistics Atlanta, Inc. | Market response modeling |
CN108345419B (zh) * | 2017-01-25 | 2021-06-08 | 华为技术有限公司 | 一种信息推荐列表的生成方法及装置 |
CN107798608A (zh) * | 2017-10-19 | 2018-03-13 | 深圳市耐飞科技有限公司 | 一种投资产品组合推荐方法及系统 |
CN107908735B (zh) * | 2017-11-15 | 2019-01-22 | 北京三快在线科技有限公司 | 信息展示方法和装置以及计算设备 |
CN108108821B (zh) * | 2017-12-29 | 2022-04-22 | Oppo广东移动通信有限公司 | 模型训练方法及装置 |
CN109062919B (zh) * | 2018-05-31 | 2021-06-15 | 腾讯科技(深圳)有限公司 | 一种基于深度强化学习的内容推荐方法及装置 |
-
2018
- 2018-12-29 CN CN201811647015.1A patent/CN111401594A/zh active Pending
-
2019
- 2019-07-04 WO PCT/CN2019/094743 patent/WO2020134011A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115658212A (zh) * | 2022-11-16 | 2023-01-31 | 北京极致车网科技有限公司 | 一种多终端数据的可视化展示控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2020134011A1 (zh) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11521056B2 (en) | System and methods for intrinsic reward reinforcement learning | |
US9536191B1 (en) | Reinforcement learning using confidence scores | |
CN110018869B (zh) | 通过强化学习向用户展示页面的方法及装置 | |
US11809977B2 (en) | Weakly supervised reinforcement learning | |
JP2020047285A (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
CN111091200A (zh) | 训练模型的更新方法、系统、智能体、服务器及存储介质 | |
CN108604314B (zh) | 使用强化学习选择动作名单 | |
CN112001585A (zh) | 多智能体决策方法、装置、电子设备及存储介质 | |
WO2017213857A1 (en) | System for iteratively training an artificial intelligence using cloud-based metrics | |
US20110125700A1 (en) | User model processing device | |
CN108805611A (zh) | 广告筛选方法及装置 | |
CN113806512B (zh) | 机器人对话模型的训练方法、装置、设备及存储介质 | |
US20210334702A1 (en) | Model evaluating device, model evaluating method, and program | |
CN111222553A (zh) | 机器学习模型的训练数据处理方法、装置和计算机设备 | |
CN103077184A (zh) | 用于基于规则的情景获取的方法 | |
Argerich et al. | Tutor4RL: Guiding Reinforcement Learning with External Knowledge. | |
CN111124916B (zh) | 一种基于动作语义向量的模型训练方法和电子设备 | |
CN111401594A (zh) | 展示信息组合确定方法、装置、存储介质及电子设备 | |
CN105956680B (zh) | 一个基于强化学习的自适应规则的生成和管理框架 | |
CN110826695B (zh) | 数据处理方法、装置和计算机可读存储介质 | |
CN111552549A (zh) | 一种智能设备的多任务请求动态配置方法及系统 | |
CN111046156A (zh) | 奖励数据的确定方法、装置和服务器 | |
CN115470403A (zh) | 车辆服务推荐模型的实时更新方法、装置、车辆及介质 | |
CN115185606A (zh) | 业务配置参数的获得方法、装置、设备及存储介质 | |
CN112760908A (zh) | 一种洗衣系统及控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |