CN112070559A - 状态获取方法和装置、电子设备和存储介质 - Google Patents
状态获取方法和装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112070559A CN112070559A CN202010981822.8A CN202010981822A CN112070559A CN 112070559 A CN112070559 A CN 112070559A CN 202010981822 A CN202010981822 A CN 202010981822A CN 112070559 A CN112070559 A CN 112070559A
- Authority
- CN
- China
- Prior art keywords
- user
- training
- samples
- behavior
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000006399 behavior Effects 0.000 claims abstract description 318
- 238000012549 training Methods 0.000 claims abstract description 311
- 238000007477 logistic regression Methods 0.000 claims abstract description 138
- 230000000694 effects Effects 0.000 claims abstract description 88
- 238000005070 sampling Methods 0.000 claims description 28
- 230000004927 fusion Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 238000002372 labelling Methods 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000003542 behavioural effect Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000011835 investigation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000001892 vitamin D2 Nutrition 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000013410 fast food Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Probability & Statistics with Applications (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开实施例公开了一种状态获取方法和装置、电子设备和存储介质,其中,方法包括:获取用户在统计周期内各单位时间上的用户行为信息;所述用户行为信息包括至少一类用户行为及各类用户行为的属性值;利用逻辑回归模型,生成各类用户行为的权重值;其中,所述逻辑回归模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息;基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;基于所述用户的活跃度值确定所述用户的用户生命周期状态。本公开实施例可以准确、客观的获取用户生命周期状态。
Description
技术领域
本公开涉及数据处理技术,尤其是一种状态获取方法和装置、电子设备和存储介质。
背景技术
用户生命周期状态是指从用户首次接触产品(例如产品应用APP、快消品类等)到最终遗弃该产品的整个过程中,用户在不同阶段的综合表现。通过对用户生命周期状态进行分析,一方面可以帮助品类或品牌建立统一的用户运营监控体系,另一方面可以对产品或运营方式进行改进,以更好的满足用户需求。
当前主流的用户生命周期状态界定方法,先验的认为用户的行为量越多,用户的质量越高,基于用户的行为量计算用户分数并进行倒排,然后按业务需求基于用户分数将用户进行分档,例如按照业务需要将用户分为5档运营,取每20%用户分为一档,打上对应的标签。由于不同用户行为、用户在不同时间点上的行为差异,对用户的综合表现和最终结果影响不同,而上述用户生命周期状态界定方法无法体现不同用户行为、用户在不同时间点上的行为差异影响,由此得到的用户分数不能准确、客观的反应用户生命周期状态。
发明内容
本公开实施例提供一种状态获取方法和装置、电子设备和存储介质,以准确、客观的获取用户生命周期状态。
本公开实施例的一个方面,提供一种状态获取方法,包括:
获取用户在统计周期内各单位时间上的用户行为信息;所述用户行为信息包括至少一类用户行为及各类用户行为的属性值;
利用逻辑回归模型,生成各类用户行为的权重值;其中,所述逻辑回归模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息;
基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;
基于所述用户的活跃度值确定所述用户的用户生命周期状态。
可选地,在本公开上述任一方法实施例中,所述逻辑回归模型的训练,包括:
从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本,以所述多个训练样本作为所述训练样本集中的训练样本;
分别将所述训练样本集中的各训练样本输入逻辑回归模型,经所述逻辑回归模型输出各训练样本的行为结果预测信息;
基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述逻辑回归模型进行训练,直至满足预设训练完成条件。
可选地,在本公开上述任一方法实施例中,所述利用逻辑回归模型,生成各类用户行为的权重值,包括:
利用强学习器中的M个逻辑回归模型,分别生成各类用户行为的权重值;其中,所述逻辑回归模型为所述M个逻辑回归模型中的一个逻辑回归模型,所述M个逻辑回归模型中的各逻辑回归模型分别基于不同训练样本集中的训练样本训练得到,M为大于1的整数;
分别针对各类用户行为,利用所述强学习器中的融合单元,对所述M个逻辑回归模型生成的各类用户行为的权重值进行融合,得到各类用户行为的融合权重值;
所述基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值,包括:
基于各类用户行为的属性值和融合权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
可选地,在本公开上述任一方法实施例中,所述强学习器的训练,包括:
从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本;
根据所述多个训练样本中各训练样本的行为结果将所述多个训练样本分为正样本和负样本;
对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集;所述训练样本集为所述M个训练样本集中的一个训练样本集;或者,所述训练样本集包括所述多个训练样本;
分别基于所述M个训练样本集中的一个训练样本集对应训练M个逻辑回归模型中的一个逻辑回归模型,直至满足预设训练完成条件,得到所述M个逻辑回归模型。
可选地,在本公开上述任一方法实施例中,基于一个训练样本集对应训练一个逻辑回归模型,包括:
将所述一个训练样本集中的各训练样本输入所述一个逻辑回归模型,经所述一个逻辑回归模型输出各训练样本的行为结果预测信息;
基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述一个逻辑回归模型进行训练,直至满足预设训练完成条件。
可选地,在本公开上述任一方法实施例中,所述根据各训练样本的行为结果将所述多个训练样本分为正样本和负样本之后,还包括:
基于所述正样本的数量和所述负样本的数量,对所述正样本和负样本中数量较少的样本进行下采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;和/或,
基于所述正样本的数量和所述负样本的数量,对数量较多的样本进行上采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;
所述对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集,包括:
对正样本数量与负样本数量之间的差异小于预设差异的多个训练样本进行M次有放回的随机采样,得到M个训练样本集。
可选地,在本公开上述任一方法实施例中,所述基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值,包括:
基于如下公式,获取所述用户的活跃度值:
其中,N为用户行为的种类数,T为统计周期,t为单位时间,action_cntt为一类用户行为在单位时间t上的属性值,wi为第i类用户行为的权重值,decay(t)为时间衰减函数因子,decay(t)=exp(-t/T)。
可选地,在本公开上述任一方法实施例中,所述用户包括多个用户;
分别针对所述多个用户中的每个用户,执行所述获取用户在统计周期内各单位时间上的用户行为信息的操作、所述利用逻辑回归模型,生成各类用户行为的权重值的操作、以及所述基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值的操作;
所述基于所述用户的活跃度值确定所述用户的用户生命周期状态,包括:
利用无监督聚类模型,基于所述多个用户的活跃度值进行聚类操作,基于聚类结果确定所述多个用户的用户生命周期状态。
可选地,在本公开上述任一方法实施例中,所述基于所述用户的活跃度值确定所述用户的用户生命周期状态之后,还包括:
存储所述用户的状态活跃度信息,所述状态活跃度信息包括:用户标识、活跃度值和用户生命周期状态。
可选地,在本公开上述任一方法实施例中,还包括:
基于预设执行周期,开始执行所述获取用户在统计周期内各单位时间上的用户行为信息的操作,以存储所述用户在各执行周期的状态活跃度信息;
基于所述用户在各执行周期的状态活跃度信息,分析所述用户在不同执行周期的活跃度值和用户生命周期状态的变化情况,以便基于所述变化情况预测所述用户的行为。
本公开实施例的另一个方面,提供一种状态获取装置,包括:
第一获取模块,用于获取用户在统计周期内各单位时间上的用户行为信息;所述用户行为信息包括至少一类用户行为及各类用户行为的属性值;
生成模块,用于利用逻辑回归模型,生成各类用户行为的权重值;其中,所述逻辑回归模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息;
第二获取模块,用于基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;
确定模块,用于基于所述用户的活跃度值确定所述用户的用户生命周期状态。
可选地,在本公开上述任一装置实施例中,还包括:
第一样本选取模块,用于从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本,以所述多个训练样本作为所述训练样本集中的训练样本;
第一训练模块,用于训练得到所述逻辑回归模型,具体用于:分别将所述训练样本集中的各训练样本输入逻辑回归模型,经所述逻辑回归模型输出各训练样本的行为结果预测信息;基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述逻辑回归模型进行训练,直至满足预设训练完成条件。
可选地,在本公开上述任一装置实施例中,所述生成模块包括:
生成单元,用于利用强学习器中的M个逻辑回归模型,分别生成各类用户行为的权重值;其中,所述逻辑回归模型为所述M个逻辑回归模型中的一个逻辑回归模型,所述M个逻辑回归模型中的各逻辑回归模型分别基于不同训练样本集中的训练样本训练得到,M为大于1的整数;
得到单元,用于分别针对各类用户行为,利用所述强学习器中的融合单元,对所述M个逻辑回归模型生成的各类用户行为的权重值进行融合,得到各类用户行为的融合权重值;
所述第二获取模块,具体用于基于各类用户行为的属性值和融合权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
可选地,在本公开上述任一装置实施例中,还包括:
第二样本选取模块,用于从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本;
划分模块,用于根据所述多个训练样本中各训练样本的行为结果将所述多个训练样本分为正样本和负样本;
第一采样模块,用于对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集;所述训练样本集为所述M个训练样本集中的一个训练样本集;或者,所述训练样本集包括所述多个训练样本;
第二训练模块,用于训练得到所述强学习器,具体用于:分别基于所述M个训练样本集中的一个训练样本集对应训练M个逻辑回归模型中的一个逻辑回归模型,直至满足预设训练完成条件,得到所述M个逻辑回归模型。
可选地,在本公开上述任一装置实施例中,所述第二训练模块基于一个训练样本集对应训练一个逻辑回归模型时,具体用于:
将所述一个训练样本集中的各训练样本输入所述一个逻辑回归模型,经所述一个逻辑回归模型输出各训练样本的行为结果预测信息;
基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述一个逻辑回归模型进行训练,直至满足预设训练完成条件。
可选地,在本公开上述任一装置实施例中,还包括:
第二采样模块,用于基于所述正样本的数量和所述负样本的数量,对所述划分模块得到的正样本和负样本中数量较少的样本进行下采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;和/或,基于所述正样本的数量和所述负样本的数量,对数量较多的样本进行上采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异。
可选地,在本公开上述任一装置实施例中,所述第二获取模块,具体用于基于如下公式,获取所述用户的活跃度值:
其中,N为用户行为的种类数,T为统计周期,t为单位时间,action_cntt为一类用户行为在单位时间t上的属性值,wi为第i类用户行为的权重值,decay(t)为时间衰减函数因子,decay(t)=exp(-t/T)。
可选地,在本公开上述任一装置实施例中,所述用户包括多个用户;
所述第一获取模块,具体用于分别针对所述多个用户中的每个用户,获取用户在统计周期内各单位时间上的用户行为信息;
所述生成模块,具体用于分别针对所述多个用户中的每个用户,利用逻辑回归模型,生成各类用户行为的权重值;
所述第二获取模块,具体用于分别针对所述多个用户中的每个用户,基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;
所述确定模块,具体用于利用无监督聚类模型,基于所述多个用户的活跃度值进行聚类操作,基于聚类结果确定所述多个用户的用户生命周期状态。
可选地,在本公开上述任一装置实施例中,还包括:
存储模块,用于存储所述用户的状态活跃度信息,所述状态活跃度信息包括:用户标识、活跃度值和用户生命周期状态。
可选地,在本公开上述任一装置实施例中,所述第一获取模块,具体用于基于预设执行周期,开始执行所述获取用户在统计周期内各单位时间上的用户行为信息的操作;
所述存储模块,具体用于存储所述用户在各执行周期的状态活跃度信息;
所述装置还包括:
分析模块,用于基于所述用户在各执行周期的状态活跃度信息,分析所述用户在不同执行周期的活跃度值和用户生命周期状态的变化情况,以便基于所述变化情况预测所述用户的行为。
本公开实施例的又一个方面,提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述的方法。
本公开实施例的再一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现本公开上述任一实施例所述的方法。
基于本公开上述实施例提供的状态获取方法和装置、电子设备和存储介质,通过获取用户在统计周期内各单位时间上的用户行为信息(包括至少一类用户行为及各类用户行为的属性值),利用基于训练样本集中的训练样本得到的逻辑回归模型,生成各类用户行为的权重值,其中的训练样本包括样本用户的用户行为信息和行为结果的标注信息,然后,基于各类用户行为的属性值和权重值、以及各单位时间在统计周期内的时间衰减因子,获取用户的活跃度值,进而,基于该活跃度值确定用户的用户生命周期状态。由于确定用户的用户生命周期状态的过程中利用了各类用户行为的权重值,并结合时间衰减因子引入了行为时效,充分考虑了不同用户行为、用户在不同时间点上的行为差异的影响,使得得到的活跃度值可以更准确、更客观的反应用户生命周期状态。
另外,基于本公开实施例的技术方案,逻辑回归模型基于训练样本集中的训练样本得到,训练样本包括样本用户的用户行为信息和行为结果的标注,利用该逻辑回归模型来生成各类用户行为的权重值,可以避免不用用户行为之间的共线性影响,生成的各类用户行为的权重值更准确、合理,从而使得计算得到的活跃度值的更准确、客观,由此提高了用户生命周期状态的准确性和客观性。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1为本公开状态获取方法一个实施例的流程图。
图2为本公开实施例中训练逻辑回归模型的一个实施例的流程图。
图3为本公开状态获取方法另一个实施例的流程图。
图4为本公开实施例中训练强学习器的一个实施例的流程图。
图5为本公开实施例中强学习器的一个具体示例图。
图6为本公开状态获取装置一个实施例的结构示意图。
图7为本公开状态获取装置另一个实施例的结构示意图。
图8为本公开状态获取装置又一个实施例的结构示意图。
图9为本公开电子设备一个应用实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1为本公开状态获取方法一个实施例的流程图。如图1所示,该实施例的状态获取方法包括:
102,获取用户在统计周期内各单位时间上的用户行为信息。
其中的用户行为信息包括至少一类用户行为及各类用户行为的属性值。
104,利用逻辑回归(LR)模型,生成各类用户行为的权重值。
其中的LR模型基于训练样本集中的训练样本得到,每个训练样本包括样本用户的用户行为信息和行为结果的标注信息。
其中的行为结果可以包括是否达成目标(例如商品是否成交、交易是否完成、服务是否完成等)的行为结果,根据是否达成目标(例如是否成交)的行为结果,训练样本相应的可以分为正样本和负样本,其中,达成目标的行为结果对应的训练样本为正样本,未达成目标的行为结果对应的训练样本作为负样本。
其中,行为结果的标注信息用于表示是否达成目标,可以对应通过1、0表示。
其中的权重值用于表示各类用户行为对于达成目标的行为结果的重要性,权重值越高,说明在达成目标的行为结果的过程中该类用户行为越重要(即重要越高);反之,权重值越低,说明在达成目标的行为结果的过程中该类用户行为越不重要(即重要越低)。
106,基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
108,基于所述用户的活跃度值确定所述用户的用户生命周期状态。
例如,在其中一些可能的实现方式中,用户生命周期状态依据活跃度值从低到高可以分为如下几个状态:审核期,观察期,意向期,兴趣期、行动期,成熟期,等。本公开实施例不限于此。
基于本公开上述实施例提供的状态获取方法,通过获取用户在统计周期内各单位时间上的用户行为信息(包括至少一类用户行为及各类用户行为的属性值),利用基于训练样本集中的训练样本得到的LR模型,生成各类用户行为的权重值,其中的训练样本包括样本用户的用户行为信息和行为结果的标注信息,然后,基于各类用户行为的属性值和权重值、以及各单位时间在统计周期内的时间衰减因子,获取用户的活跃度值,进而,基于该活跃度值确定用户的用户生命周期状态。由于确定用户的用户生命周期状态的过程中利用了各类用户行为的权重值,并结合时间衰减因子引入了行为时效,充分考虑了不同用户行为、用户在不同时间点上的行为差异的影响,使得得到的活跃度值可以更准确、更客观的反应用户生命周期状态。
另外,基于本公开实施例的技术方案,LR模型基于训练样本集中的训练样本得到,训练样本包括样本用户的用户行为信息和行为结果的标注,利用该LR模型来生成各类用户行为的权重值,可以避免不用用户行为之间的共线性影响,生成的各类用户行为的权重值更准确、合理,从而使得计算得到的活跃度值的更准确、客观,由此提高了用户生命周期状态的准确性和客观性。
其中的共线性,即同线性或同线型。统计学中,共线性即多重共线性(Multicollinearity),是指线性回归模型中的解释变量(即输入特征)之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。
图2为本公开实施例中训练LR模型的一个实施例的流程图。如图2所示,该实施例训练LR模型的方法包括:
202,从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对训练样本添加所述行为结果的标注信息,得到多个训练样本,以所述多个训练样本作为训练样本集中的训练样本。
其中的用户行为数据库用于存储用户的行为数据,其中的行为数据可以包括用户的个人信息和各类用户行为信息,例如可以通过从底层日志抽取和业务方数据库获取。
在其中一些可能的实现方式中,可以从底层日志抽取和业务方数据库获取包括但不限于以下各类用户行为及其属性值:页面浏览量(page view,PV),详情页PV、页面停留时长、行为结果意向、委托、现场行为(例如带看、现场考察等)等类行为,并将其按照时间分区整合到用户行为数据库中,为后续训练LR模型、以生成各类用户行为的权重值提供数据支持。本公开实施例对用户行为的具体类型不做限制,具体可以根据业务场景确定。
其中,PV为用户从进入产品制造商或者服务商提供的服务页面(例如网页首页、APP登录后等)到浏览具体产品详情页之前浏览页面的数量;详情页PV为用户浏览具体产品详情页的数量。
行为结果意向是用户表示出的用于达成行为结果的意向,该意向可以通过咨询交易对象相关信息(例如报价、产品细节等)表示出来。
其中,各类用户行为的属性值即各类用户行为的具体数值,例如PV量的具体数值、详情页PV的具体数值、页面停留的具体时长、行为结果意向的次数、委托次数、现场行为(例如带看、现场考察等)次数,等等。
例如,在其中一些可能的实现方式中,可以获取多个样本用户在最近180天内的用户行为信息和行为结果。
204,分别将训练样本集中的各训练样本输入LR模型,经LR模型输出各训练样本的行为结果预测信息。
其中,行为结果预测信息用于表示是否达成目标,可以对应通过1、0表示,或者也可以是是否达成目标的概率值,基于该概率值可以确定是否达成目标。
206,基于各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对LR模型进行训练,直至满足预设训练完成条件。
其中,可以通过迭代执行操作204-206或者202-206对LR模型进行训练。其中的预设训练完成条件例如可以是,训练样本的行为结果的标注信息和行为结果预测信息之间的差异小于预设阈值和/或对LR模型的迭代训练次数达到预设次数。
在实现本公开的过程中,本发明人通过研究发现,在产品交易领域(例如房产交易领域),用户最终的目标就是成交(即达成目标),用户在成交前发生的所有行为都会对于其最终是否成交产生一定影响,而最终是否成交(即是否达成目标)在机器学习领域就是一个典型的二分类问题,在解决二分类问题中,带有L2正则化惩罚因子的LR模型在完成分类任务的同时,可以输出每一个输入特征的权重值,而且可以解决输入特征之间的共线性问题,可解释性好,计算成本低。本公开实施例基于训练样本、以行为结果的标注信息为监督信息对LR进行训练,使得训练得到的LR模型可以准确的预测是否达成目标,同时输出准确的各类用户行为(即输入特征)的权重值,即可以准确生成各类用户行为的权重值,还节省了成本。
图3为本公开状态获取方法另一个实施例的流程图。如图3所示,该实施例的状态获取方法包括:
302,获取用户在统计周期内各单位时间上的用户行为信息。
其中的用户行为信息包括至少一类用户行为及各类用户行为的属性值。
在其中一些可能的实现方式中,可以从用户行为数据库中获取用户在统计周期内各单位时间上的用户行为信息,其中获取的各类用户行为例如可以包括但不限于以下各类用户行为及其属性值:PV,详情页PV、页面停留时长、行为结果意向、委托、现场行为(例如带看、现场考察等)等类行为。
其中,PV为用户从进入产品制造商或者服务商提供的服务页面(例如网页首页、APP登录后等)到浏览具体产品详情页之前浏览页面的数量;详情页PV为用户浏览具体产品详情页的数量。
行为结果意向是用户表示出的用于达成行为结果的意向,该意向可以通过咨询交易对象相关信息(例如报价、产品细节等)表示出来。
其中,各类用户行为的属性值即各类用户行为的具体数值,例如PV量的具体数值、详情页PV的具体数值、页面停留的具体时长、行为结果意向的次数、委托次数、现场行为(例如带看、现场考察等)次数,等等。
本公开实施例对用户行为的具体类型不做限制,具体可以根据业务场景确定。
其中的统计周期可以根据需求预先设定,例如可以是最近30天、15天等,其中的单位时间是统计周期内的单位时间,例如可以是每天。例如,在其中一些可能的实现方式中,可以获取用户在最近30天内各天(例如第1天、第二天、…、第30天)上的用户行为信息。
304,利用强学习器中的M个LR模型,分别生成各类用户行为的权重值。
其中,强学习器包括M个LR模型,该M个LR模型包括上述实施例中的LR模型,即上述实施例中的LR模型为该M个LR模型中的一个LR模型,该M个LR模型中的各LR模型分别基于不同训练样本集中的训练样本训练得到。其中每个LR模型可以采用上述实施例中LR模型的训练方法训练得到。其中,M为大于1的整数。
306,分别针对各类用户行为,利用强学习器中的融合单元,对所述M个LR模型生成的各类用户行为的权重值进行融合,得到各类用户行为的融合权重值。
例如,在其中一些可能的实现方式中,可以分别针对各类用户行为,对M个LR模型生成的该类用户行为的权重值进行求和或者求和后取平均值,作为融合权重值。
308,基于各类用户行为的属性值和融合权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
310,基于所述用户的活跃度值确定所述用户的用户生命周期状态。
本公开实施例中,在LR模型的基础上引入集成学习(bagging)的思想,通过M个LR模型和融合单元构成强学习器,由于各LR模型分别基于不同训练样本集中的训练样本训练得到,通过对M个LR模型生成的各类用户行为的权重值进行融合来作为各类用户行为的融合权重值,用于获取用户的活跃度值,提升了强学习器的预测效果和鲁棒性,提高了最终生成的权重值的准确性,从而使得得到的用户的活跃度值质量更高,用户生命周期状态更准确。
图4为本公开实施例中训练强学习器的一个实施例的流程图。如图4所示,该实施例训练强学习器的方法包括:
402,从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对训练样本添加所述行为结果的标注信息,得到多个训练样本。
404,根据所述多个训练样本中各训练样本的行为结果将所述多个训练样本分为正样本和负样本。406,对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集。
其中,所述M个训练样本集包括上述实施例中的训练样本集,即上述实施例中的训练样本集为所述M个训练样本集中的一个训练样本集;或者也可以直接采用402得到的多个训练样本作为上述实施例中的训练样本集,本实施例对此不做限定。
其中,有放回的随机采样是简单随机抽样的操作方式之一,是将总体中的抽样单位从1至N编号,每抽取一个号码后再将它放回总体。对于任意一次抽取而言,由于总体容量不变,所以N个号码被抽中的机会均等。本实施例中,对所述多个训练样本进行M次有放回的随机采样,即每次从所述多个训练样本中抽取出L个训练样本,来得到一个训练样本集,进行M次有放回的随机采样,即可得到M个训练样本集;或者,也可以每次从所述多个训练样本中抽取出P个训练样本,以未被抽取的训练样本作为一个训练样本集,进行M次有放回的随机采样,即可得到M个训练样本集。其中,L为大于1的整数,P为大于0的整数。
408,分别基于所述M个训练样本集中的一个训练样本集对应训练M个LR模型中的一个LR模型,直至满足预设训练完成条件,得到所述M个LR模型。
可选地,在其中一些可能的实现方式中,可以利用随机梯度下降算法(StochasticGradient Descent,SGD)基于每一个训练样本集训练一个LR模型,训练好的LR模型也可以称为基学习器(base learner),训练完成后可以产生M个基学习器。如果多个个体学习器是利用同种学习算法基于训练样本产生,则可称为同质集成,此时的个体学习器也称作基学习器。另外,也可以利用不同类型的训练算法基于每一个训练样本集训练一个LR模型,此时可称为异质集成,个体学习器称为组件学习器,即训练好的LR模型也可以称为组件学习器。本公开实施例对M个LR模型具体采用相同或不同训练算法训练得到不做限制。
可选地,在本公开其中一些可能的实现方式中,操作408中,基于一个训练样本集对应训练一个LR模型时,可以将所述一个训练样本集中的各训练样本输入所述一个LR模型,经所述一个LR模型输出各训练样本的行为结果预测信息,然后,基于各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述一个LR模型进行训练,直至满足预设训练完成条件。
其中,可以通过迭代执行操作408或者402-408对LR模型进行训练。其中的预设训练完成条件例如可以是,各训练样本的行为结果的标注信息和行为结果预测信息之间的差异小于预设阈值和/或对LR模型的迭代训练次数达到预设次数。
另外,为了进一步提升强学习器的预测性能和鲁棒性,在操作408之后,还可以利用强学习器中的融合单元,采用预设融合规则(投票机制),来基于M个LR模型的行为结果的预测信息得到最终行为结果的预测信息,然后基于该最终行为结果的预测信息与对应的行为结果的标注信息之间的差异,对强学习器中LR模型进行进一步训练(即调整LR模型的网络参数),使得强学习器的整体性能更好,这样,最终生成的各类用户行为的权重值也更准确。
其中,强学习器在训练过程中执行的操作和训练完成后预测行为结果的过程中执行的操作对应,二者之间相互参考即可。
可选地,再参见图5,在进一步实施例中,操作404之后,还可以包括:
基于正样本的数量和负样本的数量,对正样本和负样本中数量较少的样本进行下采样,以使得生成训练样本集的正样本数量与负样本数量之间的差异小于预设差异;和/或,
基于正样本的数量和负样本的数量,对正样本和负样本中数量较多的样本进行上采样,以使得生成训练样本集中的正样本数量与负样本数量之间的差异小于预设差异。
其中,下采样,是指对于一个不均衡的数据,让目标值(0和1分类)中的样本数据量相同,且以数据量少的一方的样本数量为准。下采样获取数据时一般是从分类样本多的数据中随机抽取等数量的样本。上采样,是指以数据量多的一方的样本数量为标准,把样本数量较少的类的样本数量生成和样本数量多的一方相同。
其中的预设差异可以根据实际需求设置,例如,该预设差异可以为正样本数量与负样本数量总数量的10%,或者也可以是0(即正样本数量和负样本数量相等,二者之间的比例为1:1)。其中正样本数量与负样本数量之间的差异越小,训练样本越均衡,从而使得最终训练得到的LR模型或者强学习器具有更好的预测性能、生成的权重值更准确。
相应地,操作406中,可以对正样本数量与负样本数量之间的差异小于预设差异的多个训练样本进行M次有放回的随机采样,得到M个训练样本集。
基于本实施例,通过对正样本和负样本中数量较少的样本进行下采样、或者对正样本和负样本中数量较多的样本进行上采样,可以减少用于生成训练样本集的正样本数量与负样本数量之间的差异,保证样本分布均衡,从而提高最终训练得到的LR模型或者强学习器的预测性能、使得生成的权重值更准确。
可选地,在本公开其中一些可能的实现方式中,操作106中,具体可以基于如下公式,获取用户的活跃度值:
其中,上述公式中,N为用户行为的种类数,T为统计周期,t为单位时间,action_cntt为一类用户行为在单位时间t上的属性值,wi为第i类用户行为的权重值,decay(t)为时间衰减函数因子,decay(t)=exp(-t/T)。
可选地,在本公开其中一些可能的实现方式中,所述用户包括多个用户,分别针对所述多个用户中的每个用户,执行上述操作102-106,从而得到所述多个用户的活跃度值。相应地,在操作108中,可以利用无监督聚类模型,基于所述多个用户的活跃度值进行聚类操作,基于聚类结果确定所述多个用户的用户生命周期状态,其中,聚类结果中各聚类中心即相应用户的活跃度值所属类簇,以各聚类中心对应的用户生命周期状态作为相应用户的用户生命周期状态。
在具体实现中,可以采用经典的K均值(K-Means)算法模型或改进的K均值(K-Means++)算法模型作为无监督聚类模型。其中,K-means算法模型最开始随机选取数据集中K个点作为聚类中心;而K-means++算法模型按照如下的思想选取K个聚类中心:假设已经选取了n个初始聚类中心(0<n<K),则在选取第n+1个聚类中心时,距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚类中心,在选取第一个聚类中心(n=1)时同样通过随机的方法。K-means++算法模型相对于K-means算法模型可以取得更好的聚类结果,提高聚类结果的准确性。
其中,在利用无监督聚类模型基于所述多个用户的活跃度值进行聚类操作之前,可以预先初始化无监督聚类模型的模型参数。
本公开实施例中,可以通过初始化模型参数、聚类操作和模型评估,来得到一个无监督聚类模型。以下以K-Means++算法模型为例,进行说明:
初始化模型参数:对于K-Means++算法模型,初始化K-Means++算法模型的模型参数,主要包括初始选取初始类簇中心个数K和聚类距离度量方式,例如可以是:欧式距离、曼哈顿距离、切比雪夫距离、余弦相似度距离等;
聚类操作:启动K-Means++算法模型,对多个用户的活跃度值进行聚类,随机选择K个聚类中心,通过不断迭代计算出距离每个类簇中心(聚类中心)最近的活跃度值,更新聚类中心,不断收敛到最终稳定的聚类中心,此聚类中心位置即是这些活跃度值所属的类簇;
模型评估:K-Means++算法模型训练完成后,可以对K-Means++算法模型的性能进行评估。具体可以从模型角度和业务角度两个层面对K-Means++算法模型的性能进行评估。
从模型角度,可以获取无监督聚类模型的聚类轮廓系数,根据该聚类轮廓系数的具体数值大小来确定模型性能,其中,聚类轮廓系数取值范围为[-1,1],越接近于1表示簇越紧密,模型的聚类效果越好。
从业务角度,可以从不同层级(即处于不同用户生命周期状态)的用户未来30天的行为转化率,来评价模型表现,判断是否满足评价标准。若不满足,重新调整模型参数,例如在K个聚类中心的基础上选取第K+1个聚类中心时,选择距离当前K个聚类中心最远的点作为第K+1个聚类中心,重复上述初始化模型参数、聚类操作和模型评估的操作,直至满足评价标准。若满足评价标准,可以将聚类得到的各用户的活跃度值和用户生命周期状态写入存储模块(状态活跃度数据库)中。
可选地,在本公开状态获取方法的又一个实施例中,通过上述实施例确定用户的用户生命周期状态之后,还可以存储用户的状态活跃度信息,其中的状态活跃度信息包括:用户标识(ID)、活跃度值和用户生命周期状态。其中的用户ID用于唯一标识一个用户,例如可以包括但不限于:用户的姓名、编号、注册用户名等等。
可选地,在本公开状态获取方法的再一个实施例中,可以基于预设执行周期,执行本公开上述实施例,以存储用户在各执行周期的状态活跃度信息,然后,基于用户在各执行周期的状态活跃度信息,分析用户在不同执行周期的活跃度值和用户生命周期状态的变化情况,以便基于所述变化情况预测用户的行为,以提前预知用户动向,为用户精细化运营提供支持。
另外,在本公开状态获取方法的再一个实施例中,也可以基于预设执行周期对无监督聚类模型进行模型评估,以监控无监督聚类模型的模型性能提前发现模型问题并纠正。
其中的预设执行周期(即监控粒度)天、周、月、季度等。通过基于预设执行周期,对模型指标(轮廓系数、错误迁移率等)、状态指标(用户生命周期状态的状态分布、状态变化、聚类中心)的监控,具体可以采用每个指标在各监控粒度的绝对值和相对变化值,来实现全方位的监控,做到提前发现模型问题调整模型,提前感知用户动向,为用户精细化运营提供帮助。
本公开实施例提供的任一种点状态获取方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种点状态获取方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种点状态获取方法。下文不再赘述。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图6为本公开状态获取装置一个实施例的结构示意图。该实施例的状态获取装置可用于实现本公开上述各状态获取方法实施例。如图6所示,该实施例的状态获取装置包括:第一获取模块,生成模块,第二获取模块和确定模块。其中:
第一获取模块,用于获取用户在统计周期内各单位时间上的用户行为信息。其中,所述用户行为信息包括至少一类用户行为及各类用户行为的属性值。
生成模块,用于利用LR模型,生成各类用户行为的权重值。其中,所述LR模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息。
第二获取模块,用于基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
确定模块,用于基于所述用户的活跃度值确定所述用户的用户生命周期状态。
基于本公开上述实施例提供的状态获取装置,通过获取用户在统计周期内各单位时间上的用户行为信息(包括至少一类用户行为及各类用户行为的属性值),利用基于训练样本集中的训练样本得到的LR模型,生成各类用户行为的权重值,其中的训练样本包括样本用户的用户行为信息和行为结果的标注信息,然后,基于各类用户行为的属性值和权重值、以及各单位时间在统计周期内的时间衰减因子,获取用户的活跃度值,进而,基于该活跃度值确定用户的用户生命周期状态。由于确定用户的用户生命周期状态的过程中利用了各类用户行为的权重值,并结合时间衰减因子引入了行为时效,充分考虑了不同用户行为、用户在不同时间点上的行为差异的影响,使得得到的活跃度值可以更准确、更客观的反应用户生命周期状态。
另外,基于本公开实施例的技术方案,LR模型基于训练样本集中的训练样本得到,训练样本包括样本用户的用户行为信息和行为结果的标注,利用该LR模型来生成各类用户行为的权重值,可以避免不用用户行为之间的共线性影响,生成的各类用户行为的权重值更准确、合理,从而使得计算得到的活跃度值的更准确、客观,由此提高了用户生命周期状态的准确性和客观性。
图7为本公开状态获取装置另一个实施例的结构示意图。如图7所示,与图6所示的实施例相比,该实施例的状态获取装置还包括:第一样本选取模块和第一训练模块。其中:
第一样本选取模块,用于从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本,以所述多个训练样本作为所述训练样本集中的训练样本。
第一训练模块,用于训练得到所述LR模型,具体用于:分别将所述训练样本集中的各训练样本输入LR模型,经所述LR模型输出各训练样本的行为结果预测信息;基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述LR模型进行训练,直至满足预设训练完成条件。
可选地,在本公开其中一些可能的实现方式中,所述生成模块包括:生成单元,用于利用强学习器中的M个逻辑回归模型,分别生成各类用户行为的权重值;其中,所述逻辑回归模型为所述M个逻辑回归模型中的一个逻辑回归模型,所述M个逻辑回归模型中的各逻辑回归模型分别基于不同训练样本集中的训练样本训练得到,M为大于1的整数;得到单元,用于分别针对各类用户行为,利用所述强学习器中的融合单元,对所述M个LR模型生成的各类用户行为的权重值进行融合,得到各类用户行为的融合权重值。相应地,该实施例中,所述第二获取模块,具体用于基于各类用户行为的属性值和融合权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
图8为本公开状态获取装置又一个实施例的结构示意图。如图8所示,在图6所示实施例的基础上,本实施例的状态获取装置还可以包括:第二样本选取模块,划分模块,第一采样模块和第二训练模块。其中:
第二样本选取模块,用于从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本。
划分模块,用于根据所述多个训练样本中各训练样本的行为结果将所述多个训练样本分为正样本和负样本。
第一采样模块,用于对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集;所述训练样本集为所述M个训练样本集中的一个训练样本集;或者,所述训练样本集包括所述多个训练样本。
第二训练模块,用于训练得到所述强学习器,具体用于:分别基于所述M个训练样本集中的一个训练样本集对应训练M个LR模型中的一个LR模型,直至满足预设训练完成条件,得到所述M个LR模型。
可选地,在本公开其中一些可能的实现方式中,所述第二训练模块基于一个训练样本集对应训练一个LR模型时,具体用于:将所述一个训练样本集中的各训练样本输入所述一个LR模型,经所述一个LR模型输出各训练样本的行为结果预测信息;基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述一个LR模型进行训练,直至满足预设训练完成条件。
另外,再参见图8,在上述实施例的状态获取装置中,还可以包括:第二采样模块,用于基于所述正样本的数量和所述负样本的数量,对所述划分模块得到的正样本和负样本中数量较少的样本进行下采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;和/或,基于所述正样本的数量和所述负样本的数量,对数量较多的样本进行上采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异。
可选地,在本公开其中一些可能的实现方式中,所述第二获取模块,具体用于基于如下公式,获取所述用户的活跃度值:
其中,N为用户行为的种类数,T为统计周期,t为单位时间,action_cntt为一类用户行为在单位时间t上的属性值,wi为第i类用户行为的权重值,decay(t)为时间衰减函数因子,decay(t)=exp(-t/T)。
可选地,在本公开其中一些可能的实现方式中,所述用户包括多个用户。相应地,所述第一获取模块,具体用于分别针对所述多个用户中的每个用户,获取用户在统计周期内各单位时间上的用户行为信息;所述生成模块,具体用于分别针对所述多个用户中的每个用户,利用LR模型,生成各类用户行为的权重值;所述第二获取模块,具体用于分别针对所述多个用户中的每个用户,基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;所述确定模块,具体用于利用无监督聚类模型,基于所述多个用户的活跃度值进行聚类操作,基于聚类结果确定所述多个用户的用户生命周期状态。
另外,再参见图7或图8,在上述各状态获取装置实施例的基础上,还可以包括:存储模块,用于存储所述用户的状态活跃度信息,所述状态活跃度信息包括:用户ID、活跃度值和用户生命周期状态。
可选地,在本公开其中一些可能的实现方式中,所述第一获取模块,具体用于基于预设执行周期,开始执行所述获取用户在统计周期内各单位时间上的用户行为信息的操作。相应地,所述存储模块,具体用于存储所述用户在各执行周期的状态活跃度信息。
可选地,再参见图7或图8,在上述各状态获取装置实施例的基础上,还可以包括:分析模块,用于基于所述用户在各执行周期的状态活跃度信息,分析所述用户在不同执行周期的活跃度值和用户生命周期状态的变化情况,以便基于所述变化情况预测所述用户的行为。
另外,本公开实施例还提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述的状态获取方法。
图9为本公开电子设备一个应用实施例的结构示意图。下面,参考图9来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
如图9所示,电子设备包括一个或多个处理器和存储器。
处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器可以运行所述程序指令,以实现上文所述的本公开的各个实施例的状态获取方法以及/或者其他期望的功能。
在一个示例中,电子设备还可以包括:输入装置和输出装置,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入设备还可以包括例如键盘、鼠标等等。
该输出装置可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图9中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的状态获取方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的状态获取方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种状态获取方法,其特征在于,包括:
获取用户在统计周期内各单位时间上的用户行为信息;所述用户行为信息包括至少一类用户行为及各类用户行为的属性值;
利用逻辑回归模型,生成各类用户行为的权重值;其中,所述逻辑回归模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息;
基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;
基于所述用户的活跃度值确定所述用户的用户生命周期状态。
2.根据权利要求1所述的方法,其特征在于,所述逻辑回归模型的训练,包括:
从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本,以所述多个训练样本作为所述训练样本集中的训练样本;
分别将所述训练样本集中的各训练样本输入逻辑回归模型,经所述逻辑回归模型输出各训练样本的行为结果预测信息;
基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述逻辑回归模型进行训练,直至满足预设训练完成条件。
3.根据权利要求1所述的方法,其特征在于,所述利用逻辑回归模型,生成各类用户行为的权重值,包括:
利用强学习器中的M个逻辑回归模型,分别生成各类用户行为的权重值;其中,所述逻辑回归模型为所述M个逻辑回归模型中的一个逻辑回归模型,所述M个逻辑回归模型中的各逻辑回归模型分别基于不同训练样本集中的训练样本训练得到,M为大于1的整数;
分别针对各类用户行为,利用所述强学习器中的融合单元,对所述M个逻辑回归模型生成的各类用户行为的权重值进行融合,得到各类用户行为的融合权重值;
所述基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值,包括:
基于各类用户行为的属性值和融合权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值。
4.根据权利要求3所述的方法,其特征在于,所述强学习器的训练,包括:
从用户行为数据库中获取多个样本用户的用户行为信息和行为结果,分别以每个样本用户的用户行为信息作为一个训练样本、并对所述训练样本添加所述行为结果的标注信息,得到多个训练样本;
根据所述多个训练样本中各训练样本的行为结果将所述多个训练样本分为正样本和负样本;
对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集;所述训练样本集为所述M个训练样本集中的一个训练样本集;或者,所述训练样本集包括所述多个训练样本;
分别基于所述M个训练样本集中的一个训练样本集对应训练M个逻辑回归模型中的一个逻辑回归模型,直至满足预设训练完成条件,得到所述M个逻辑回归模型。
5.根据权利要求4所述的方法,其特征在于,基于一个训练样本集对应训练一个逻辑回归模型,包括:
将所述一个训练样本集中的各训练样本输入所述一个逻辑回归模型,经所述一个逻辑回归模型输出各训练样本的行为结果预测信息;
基于所述各训练样本的行为结果的标注信息和行为结果预测信息之间的差异,对所述一个逻辑回归模型进行训练,直至满足预设训练完成条件。
6.根据权利要求4或5所述的方法,其特征在于,所述根据各训练样本的行为结果将所述多个训练样本分为正样本和负样本之后,还包括:
基于所述正样本的数量和所述负样本的数量,对所述正样本和负样本中数量较少的样本进行下采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;和/或,
基于所述正样本的数量和所述负样本的数量,对数量较多的样本进行上采样,以使得生成所述训练样本集的正样本数量与负样本数量之间的差异小于预设差异;
所述对所述多个训练样本进行M次有放回的随机采样,得到M个训练样本集,包括:
对正样本数量与负样本数量之间的差异小于预设差异的多个训练样本进行M次有放回的随机采样,得到M个训练样本集。
8.一种状态获取装置,其特征在于,包括:
第一获取模块,用于获取用户在统计周期内各单位时间上的用户行为信息;所述用户行为信息包括至少一类用户行为及各类用户行为的属性值;
生成模块,用于利用逻辑回归模型,生成各类用户行为的权重值;其中,所述逻辑回归模型基于训练样本集中的训练样本得到,所述训练样本包括样本用户的用户行为信息和行为结果的标注信息;
第二获取模块,用于基于各类用户行为的属性值和权重值、以及各单位时间在所述统计周期内的时间衰减因子,获取所述用户的活跃度值;
确定模块,用于基于所述用户的活跃度值确定所述用户的用户生命周期状态。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现上述权利要求1-7任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,实现上述权利要求1-7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010981822.8A CN112070559A (zh) | 2020-09-17 | 2020-09-17 | 状态获取方法和装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010981822.8A CN112070559A (zh) | 2020-09-17 | 2020-09-17 | 状态获取方法和装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112070559A true CN112070559A (zh) | 2020-12-11 |
Family
ID=73680975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010981822.8A Pending CN112070559A (zh) | 2020-09-17 | 2020-09-17 | 状态获取方法和装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112070559A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378956A (zh) * | 2021-06-23 | 2021-09-10 | 北京化工大学 | 一种基于二级松弛聚类的设备退化数据便捷标注方法 |
CN114629946A (zh) * | 2022-01-26 | 2022-06-14 | 深圳腾银信息咨询有限责任公司 | 一种跨平台的用户分析方法、装置、系统及介质 |
CN114742569A (zh) * | 2021-01-08 | 2022-07-12 | 广州视源电子科技股份有限公司 | 用户生命阶段预测方法、装置、计算机设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944617A (zh) * | 2017-11-20 | 2018-04-20 | 国网福建省电力有限公司 | 一种基于逻辑回归的疑似窃电主题影响因素权重优化方法 |
CN108108912A (zh) * | 2018-01-10 | 2018-06-01 | 百度在线网络技术(北京)有限公司 | 互动低质量用户的判别方法、装置、服务器及存储介质 |
-
2020
- 2020-09-17 CN CN202010981822.8A patent/CN112070559A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944617A (zh) * | 2017-11-20 | 2018-04-20 | 国网福建省电力有限公司 | 一种基于逻辑回归的疑似窃电主题影响因素权重优化方法 |
CN108108912A (zh) * | 2018-01-10 | 2018-06-01 | 百度在线网络技术(北京)有限公司 | 互动低质量用户的判别方法、装置、服务器及存储介质 |
Non-Patent Citations (1)
Title |
---|
陈俊宇 等: "微博用户行为活跃度的衰减窗口分析方法", 中原工学院学报, vol. 26, no. 04, pages 59 - 64 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742569A (zh) * | 2021-01-08 | 2022-07-12 | 广州视源电子科技股份有限公司 | 用户生命阶段预测方法、装置、计算机设备及存储介质 |
CN113378956A (zh) * | 2021-06-23 | 2021-09-10 | 北京化工大学 | 一种基于二级松弛聚类的设备退化数据便捷标注方法 |
CN113378956B (zh) * | 2021-06-23 | 2023-11-24 | 北京化工大学 | 一种基于二级松弛聚类的设备退化数据便捷标注方法 |
CN114629946A (zh) * | 2022-01-26 | 2022-06-14 | 深圳腾银信息咨询有限责任公司 | 一种跨平台的用户分析方法、装置、系统及介质 |
CN114629946B (zh) * | 2022-01-26 | 2023-06-06 | 深圳腾银信息咨询有限责任公司 | 一种跨平台的用户分析方法、装置、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163647B (zh) | 一种数据处理方法及装置 | |
CN110503531B (zh) | 时序感知的动态社交场景推荐方法 | |
CN108829808B (zh) | 一种页面个性化排序方法、装置及电子设备 | |
KR102251302B1 (ko) | 시간 인자와 결합한 협업 필터링 방법, 장치, 서버 및 저장 매체 | |
CN106251174A (zh) | 信息推荐方法及装置 | |
CN105488539B (zh) | 分类模型的生成方法及装置、系统容量的预估方法及装置 | |
CN112070559A (zh) | 状态获取方法和装置、电子设备和存储介质 | |
CN114298417A (zh) | 反欺诈风险评估方法、训练方法、装置及可读存储介质 | |
CN110008397B (zh) | 一种推荐模型训练方法及装置 | |
WO2019061664A1 (zh) | 电子装置、基于用户上网数据的产品推荐方法及存储介质 | |
CN111797320B (zh) | 数据处理方法、装置、设备及存储介质 | |
KR20190128246A (ko) | 검색 방법 및 장치 및 비-일시적 컴퓨터-판독가능 저장 매체 | |
CN114997916A (zh) | 潜在用户的预测方法、系统、电子设备和存储介质 | |
CN113313538A (zh) | 用户消费能力预测方法、装置、电子设备和存储介质 | |
Liu et al. | [Retracted] Deep Learning and Collaborative Filtering‐Based Methods for Students’ Performance Prediction and Course Recommendation | |
Gezici et al. | Neural sentiment analysis of user reviews to predict user ratings | |
CN107644042B (zh) | 软件程序点击率预估排序方法及服务器 | |
LI et al. | Social recommendation algorithm fusing user interest social network | |
CN112328899B (zh) | 信息处理方法、信息处理装置、存储介质与电子设备 | |
CN114756764A (zh) | 基于企业的内容信息流推荐方法、装置、电子设备及存储介质 | |
CN112463964B (zh) | 文本分类及模型训练方法、装置、设备及存储介质 | |
CN112801226A (zh) | 数据筛选方法和装置、计算机可读存储介质、电子设备 | |
CN113469819A (zh) | 基金产品的推荐方法、相关装置及计算机存储介质 | |
CN113837843A (zh) | 产品推荐方法、装置、介质及电子设备 | |
CN115222177A (zh) | 业务数据处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |