CN117422490A - 用户流失预测方法、装置、设备、介质和程序产品 - Google Patents
用户流失预测方法、装置、设备、介质和程序产品 Download PDFInfo
- Publication number
- CN117422490A CN117422490A CN202311479828.5A CN202311479828A CN117422490A CN 117422490 A CN117422490 A CN 117422490A CN 202311479828 A CN202311479828 A CN 202311479828A CN 117422490 A CN117422490 A CN 117422490A
- Authority
- CN
- China
- Prior art keywords
- data
- user
- training
- model
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012549 training Methods 0.000 claims abstract description 172
- 238000013145 classification model Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 75
- 238000004364 calculation method Methods 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 18
- 230000000873 masking effect Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000005315 distribution function Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000000306 component Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000008033 biological extinction Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2123/00—Data types
- G06F2123/02—Data types in the time domain, e.g. time-series data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Finance (AREA)
- Bioinformatics & Computational Biology (AREA)
- Development Economics (AREA)
- Evolutionary Biology (AREA)
- Strategic Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Accounting & Taxation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种用户流失预测方法,可以应用于大数据技术领域。该用户流失预测方法包括:获取用户数据;将所述用户数据输入用户流失预测模型;利用所述用户流失预测模型对用户行为进行分析,获取用户流失概率;其中,所述用户流失预测模型的训练包括:基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,其中,所述用户数据为时间序列数据。本公开还提供了一种用户流失预测装置、设备、存储介质和程序产品。
Description
技术领域
本公开涉及大数据技术领域,具体地,涉及一种用户流失预测方法、装置、设备、介质和程序产品。
背景技术
客户流失预测是业务拓展的重要方面。失去客户会对业务收入和长期增长产生负面影响。在现有的利用人工智能进行客户流失预测的方法中,常采用逻辑回归、支持向量机(SVM)、随机森林等传统的机器学习方法,然而,上述传统的机器学习方法需要手动设计特征,增加了人力成本,且在数据较为复杂或特征表示不充分的情况下可能表现不佳。另一方面,目前所采用的神经网络模型主要包括CNN和RNN模型,但上述模型中,CNN对于序列数据的建模较为困难。而传统的RNN在处理长序列时容易出现梯度消失或梯度爆炸问题,导致难以捕捉远距离的时间依赖关系。这限制了RNN在长序列任务上的表现。RNN在计算时需要按照时间步展开,导致计算量较大,难以并行化。这也使得训练RNN模型的时间成本较高。
发明内容
鉴于上述问题,本公开的实施例提供了提高用户流失预测的方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种用户流失预测方法,包括:获取用户数据;将所述用户数据输入用户流失预测模型;利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率;其中,所述用户流失预测模型的训练包括:基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,其中,所述用户数据为时间序列数据。
根据本公开的实施例,所述用户数据包括预设时间范围内的用户交易行为数据和用户属性数据,其中,所述用户交易行为数据包含多个交易维度,所述用户属性数据包含多维用户属性。
根据本公开的实施例,所述用户交易行为数据包括交易频率,交易量,交易平台登录次数,交易平台查询次数,交易咨询次数,交易咨询类型,交易类型,交易对象类型,交易对象数量中的至少三种;和/或,所述用户属性数据包括用户年龄,用户收入,用户性别,用户地区,用户职业,用户婚姻状况中的至少三种。
根据本公开的实施例,所述基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型包括:对用户数据样本进行预处理,获取第一训练数据;将所述第一训练数据基于预设时间步长度堆叠,获取第一处理数据,其中,所述第一处理数据为时间序列数据,所述第一处理数据包含用户在所述预设时间步长中每个时间步的用户数据;将所述第一处理数据与位置向量相加,获取第二处理数据,其中所述位置向量基于所述第一处理数据中各时间步的用户数据在所属时间序列中的位置构建;利用所述第二处理数据对所述Transformer模型进行迭代训练,直至达到预设的截止条件,其中,所述预设的截止条件与模型的损失函数值关联;其中,在对所述Transformer模型进行第i轮迭代时,所述方法包括:将所述第二处理数据输入编码器,获取第三处理数据,其中,所述编码器基于多头注意力模型构建;将所述第三处理数据输入全连接层,获取第四处理数据;基于所述第四处理数据和预设的损失函数计算损失函数值;基于所述损失函数值更新模型参数。
根据本公开的实施例,所述方法还包括:基于预设的掩码策略对所述第二处理数据进行部分遮蔽,利用部分遮蔽的第二处理数据对所述Transformer模型进行迭代训练。
根据本公开的实施例,所述基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型包括:将所述用户样本数据输入至所述无监督预训练模型中,获取预训练输出数据样本;对预训练输出数据样本进行筛选,获取第二训练数据,其中,所述预训练输出数据样本为将所述用户样本数据输入至所述无监督预训练模型后的输出数据;对所述第二训练数据建立数据标签,形成标签数据集,所述标签数据集包含待分类样本数据和与所述待分类样本数据对应的数据标签;基于所述待分类样本数据对所述预构建的分类模型进行迭代训练,直至达到预设的截止条件,获取所述用户流失预测模型,其中,在对所述预构建的分类模型进行第i轮迭代训练时,所述方法包括:将所述待分类样本数据输入第一线性层,获取第一计算数据;将所述第一计算数据利用激活函数进行处理,获取第二计算数据;将所述第二计算数据输入第二线性层,获取第三计算数据;将所述第三计算数据利用概率分布函数进行处理,获取分类结果数据。
根据本公开的实施例,所述第二训练数据包括在所述时间步中交易平台登录次数为0的用户数据。
本公开的第二方面提供了一种用户流失预测装置,包括:获取模块,配置为获取用户数据;输入模块,配置为将所述用户数据输入用户流失预测模型;计算模块,配置为利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率;其中,所述计算模块包括:无监督训练子模块,配置为基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;有监督训练子模块,配置为基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,其中,所述用户数据为时间序列数据。
本公开的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述用户预测方法。
本公开的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述用户预测方法。
本公开的第五方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述用户预测方法。
本公开的实施例的用户流失预测方法,利用Transformer模型,通过无监督预训练结合有监督微调预测用户是否流失,充分利用了无标签数据和有标签数据,结合了自监督学习和有监督学习的优势,能够更好的捕捉用户数据的特点,实现更好的特征表示学习,更高效的训练和更好的泛化能力。特别适用于处理数据量大,维度多,数据构成较为复杂的用户历史行为数据,在节省计算资源,提升数据处理效率的情况下准确快速的实现用户流失预测。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的用户流失预测的方法、装置、设备、介质和程序产品的应用场景图。
图2示意性示出了根据本公开实施例的用户流失预测方法的流程图。
图3示意性示出了根据本公开实施例的训练用户流失预测模型的方法的流程图。
图4示意性示出了根据本公开实施例的基于Transformer模型对用户数据样本进行无监督预训练的方法的流程图。
图5示意性示出了在对所述Transformer模型进行第i轮迭代时的方法的流程图。
图6示意性示出了Transformer模型的结构的示意图。
图7示意性示出了根据本公开实施例的基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型的流程图。
图8示意性示出了根据本公开实施例的对所述预构建的分类模型进行第i轮迭代训练的方法的流程图。
图9示意性示出了根据本公开的具体的实施例的分类模型的结构的示意图。
图10示意性示出了根据本公开实施例的用户流失预测装置的结构框图。
图11示意性示出了根据本公开实施例的计算模块的结构框图。
图12示意性示出了根据本公开实施例的适于实现用户流失预测方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
客户流失预测是企业在进行业务拓展的重要方面。失去客户会对业务收入和长期增长产生负面影响。在现有的利用人工智能进行客户流失预测的方法中,常采用逻辑回归、支持向量机(SVM)、随机森林等传统的机器学习方法,然而,上述传统的机器学习方法需要手动设计特征,增加了人力成本,且在数据较为复杂或特征表示不充分的情况下可能表现不佳。另一方面,客户流失预测通常需要利用客户的个人信息,交易历史,服务记录及其他相关的行为数据进行分析。其具有时间序列数据的特点,且数据量大,维度多,数据构成较为复杂。而在目前所采用的神经网络模型中,主要包括CNN和RNN模型,但上述模型中,CNN对于序列数据(例如时间序列)的建模较为困难。而传统的RNN在处理长序列时容易出现梯度消失或梯度爆炸问题,导致难以捕捉远距离的时间依赖关系。这限制了RNN在长序列任务上的表现。RNN在计算时需要按照时间步展开,导致计算量较大,难以并行化。这也使得训练RNN模型的时间成本较高。
本公开的实施例提供了一种用户流失预测方法,包括:获取用户数据;将所述用户数据输入用户流失预测模型;利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率;其中,所述用户流失预测模型的训练包括:基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,其中,所述用户数据为时间序列数据。
本公开的实施例的用户流失预测方法,利用Transformer模型,通过无监督预训练结合有监督微调预测用户是否流失,充分利用了无标签数据和有标签数据,结合了自监督学习和有监督学习的优势,能够更好的捕捉用户数据的特点,实现更好的特征表示学习,更高效的训练和更好的泛化能力。特别适用于处理数据量大,维度多,数据构成较为复杂的用户历史特征数据,在节省计算资源,提升数据处理效率的情况下准确快速的实现用户流失预测。
在本发明的技术方案中,所涉及的用户信息(包括但不限于用户个人信息、用户图像信息、用户设备信息,例如位置信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、存储、使用、加工、传输、提供、公开和应用等处理,均遵守相关国家和地区的相关法律法规和标准,采取了必要保密措施,不违背公序良俗,并提供有相应的操作入口,供用户选择授权或者拒绝。
图1示意性示出了根据本公开实施例的用户流失预测的方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的终端设备101、102、103方法一般可以由服务器105执行。相应地,本公开实施例所提供的用户流失预测装置一般可以设置于服务器105中。本公开实施例所提供的用户流失预测方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的用户流失预测装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图9对公开实施例的用户流失预测方法进行详细描述。
图2示意性示出了根据本公开实施例的用户流失预测方法的流程图。
如图2所示,该实施例的用户流失预测方法包括操作S210~操作S230,该用户流失预测方法可以由服务器105执行。
在操作S210,获取用户数据。
在操作S220,将所述用户数据输入用户流失预测模型。
在操作S230,利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率。
根据本公开的实施例,用户数据包括预设时间范围内的用户交易行为数据和用户属性数据。其中,所述用户交易行为数据包含多个交易维度,所述用户属性数据包含多维用户属性。用于进行用户流失概率预测时,可以多维度提取用户相关的历史交易行为数据和用户属性,以充分利用已存储的大数据进行模型训练,以达到更好的预测效果。
根据本公开的实施例,用户交易行为数据包括交易频率,交易量,交易平台登录次数,交易平台查询次数,交易咨询次数,交易咨询类型,交易类型,交易对象类型,交易对象数量中的至少三种;和/或,所述用户属性数据包括用户年龄,用户收入,用户性别,用户地区,用户职业,用户婚姻状况中的至少三种。在一些具体的实施例中,可以统计的用户交易行为数据可以包括:近期移动银行登录次数:统计客户最近5年登录移动银行的次数;近期移动银行查询次数:统计客户最近5年在移动银行上查询余额和交易记录的次数;近期移动银行交易频率:统计客户最近5年的交易次数;近期移动银行交易金额均值:计算客户最近5年的平均交易金额;近期移动银行交易笔数均值:计算客户最近5年的平均每笔交易金额;近期网银登录次数:统计客户最近5年登录网银的次数,其可以反映客户对网银服务的使用频率;近期客服咨询次数:统计客户最近5年向银行客服咨询问题的次数,反映客户对银行服务的满意度;咨询问题类型:记录客户咨询的问题类型,如账户查询、产品咨询、投诉等;购买产品数量:统计客户购买的金融产品数量;购买产品种类:记录客户购买的具体金融产品种类,例如理财产品、贷款产品等。本公开的具体的实施例的用户交易行为数据,可以从手机银行、网上银行、客服系统埋点日志中收集,通过kafka存入大数据仓库Hive中。在本公开的实施例中,在获取用户的信息之前,可以获得用户的同意或授权。例如,在操作S210之前,可以向用户发出获取用户信息的请求。在用户同意或授权可以获取用户信息的情况下,执行所述操作S210。
本公开的实施例的用户流失预测方法,利用Transformer模型,通过无监督预训练结合有监督微调预测用户是否流失,充分利用了无标签数据和有标签数据,结合了自监督学习和有监督学习的优势,能够更好的捕捉用户数据的特点,实现更好的特征表示学习,更高效的训练和更好的泛化能力。特别适用于处理数据量大,维度多,数据构成较为复杂的用户历史行为数据,在节省计算资源,提升数据处理效率的情况下准确快速的实现用户流失预测。
图3示意性示出了根据本公开实施例的训练用户流失预测模型的方法的流程图。
如图3所示,该实施例的训练用户流失预测模型的方法包括操作S310~操作S320。
在操作S310,基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型。
在操作S320,基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型。
根据本公开的实施例,所述用户数据为时间序列数据。通过分析用户在一定时间范围内行为的变化,以预测未来流失的概率。
本公开的实施例,基于Transformer模型对用户数据样本进行无监督预训练。传统的Transformer模型是一种基于自注意力机制的神经网络结构,通过多层的encoder和decoder结构,可以处理序列数据。与传统的循环神经网络(RNN)和长短时记忆网络(LSTM)相比,Transformer模型具有更好的并行性能和更短的训练时间。它的核心组件是自注意力机制,可以捕捉输入序列中不同位置之间的关系。Transformer模型的整体结构包括一个输入层、多个encoder层和多个decoder层。输入层将输入序列转换为一系列向量表示,每个向量都与单词的嵌入向量和位置嵌入向量相加。然后,这些向量通过多个encoder层进行传递和计算,每个encoder层都包含多个注意力机制模块和前馈神经网络模块。在最后的decoder层中,输出序列被解码成目标序列。传统的Transformer模型在自然语言中应用较多。而本公开的实施例发现,由于用户数据是一种多维度高复杂度,且数据量庞大的具有时间序列特征的数据,Transformer模型能够敏锐捕捉序列中任意两个位置之间的长程依赖关系;可以捕捉全局信息;可拓展性较高,将Transformer模型应用于本公开的实施例用户流失预测模型的建立,有利于处理数据量大,维度多,数据构成较为复杂的用户历史行为数据。在节省计算资源,提升数据处理效率的情况下准确快速的实现用户流失预测。
进一步的,可以利用有标签数据集对分类模型进行微调。将无监督预训练模型作为初始状态并构建分类模型,利用无监督预训练模型的输出对分类模型进行有监督训练,优化模型的参数,以使其在用户流失预测任务上表现更好。其中,分类模型是预定义的,然后在每个训练轮次中,将预训练的无监督预训练模型的输出作为分类模型的输入,并使用带标签的数据来训练分类模型。
根据本公开的实施例,对用户数据样本进行预处理包括对收集到的数据进行清洗、处理和特征提取。例如,对缺失值进行处理、对类别型数据进行编码、计算统计特征等。其中,可以将非数值型数据编码成为数值型数据特征。
图4示意性示出了根据本公开实施例的基于Transformer模型对用户数据样本进行无监督预训练的方法的流程图。
如图4所示,该实施例的基于Transformer模型对用户数据样本进行无监督预训练的方法包括操作S410~操作S440。
在操作S410,对用户数据样本进行预处理,获取第一训练数据。
在操作S420,将所述第一训练数据基于预设时间步长度堆叠,获取第一处理数据,其中,所述第一处理数据为时间序列数据,所述第一处理数据包含用户在所述预设时间步长中每个时间步的用户数据。
在操作S430,将所述第一处理数据与位置向量相加,获取第二处理数据,其中所述位置向量基于所述第一处理数据中各时间步的用户数据在所属时间序列中的位置构建。
在操作S440,利用所述第二处理数据对所述Transformer模型进行迭代训练,直至达到预设的截止条件,其中,所述预设的截止条件与模型的损失函数值关联。
根据本公开的实施例,通过预训练阶段的自监督学习,在大量无标签数据上学习到了更加丰富和高层次的特征表示。预训练模型可以更好地捕捉数据中的模式和结构,从而提取出更有用的特征,有利于后续任务的学习和泛化能力。由于预训练阶段采用了无监督学习,模型并不直接拟合于特定任务的标签,因此可以有效防止在预训练阶段过拟合。微调阶段则有监督地引导模型在具体任务上学习,更有针对性地优化模型。可以将原始数据转换为适合输入Transformer的格式。Transformer的输入是一个序列,其中每个元素都是一个特征向量和位置编码的组合。这些元素被逐个传递给自注意力机制进行计算,从而产生每个元素的表示向量。这些表示向量可以被用于进一步的处理和预测任务。,即第一处理数据,位置编码用以表示元素在序列中的位置。通过添加位置编码,Transformer模型可以捕捉到元素之间的相对位置关系。在本公开的实施例中,由于用户数据为时间序列数据,每项用户样本在一个时间步下的特征可以被映射为一组向量,基于预设的时间步长可以捕捉时间序列的依赖关系,并基于每个时间步数据在时间序列中的位置确定位置向量。本公开的实施例中,数据堆叠维度为样本数,时间步,特征数。进一步的,可以取时间步长为适宜的月度范围。例如取20个月的数据以进行后续预测。样本数可以基于用于训练的用户样本数量确定,特征数与用户数据维度关联。预设的截止条件与模型的损失函数值关联,即当模型的损失函数值达到预设的训练截止条件时,停止模型训练。其中,预设的训练截止条件可以包括但不限于模型的损失函数值小于预设的阈值时,认为达到预设的训练截止条件。其中,预设的阈值可以给予专家经验设定。
图5示意性示出了在对所述Transformer模型进行第i轮迭代时的方法的流程图。
如图5所示,该实施例的在对所述Transformer模型进行第i轮迭代时的方法包括操作S510~操作S540。
在操作S510,将所述第二处理数据输入编码器,获取第三处理数据,其中,所述编码器基于多头注意力模型构建。
在操作S520,将所述第三处理数据输入全连接层,获取第四处理数据。
在操作S530,基于所述第四处理数据和预设的损失函数计算损失函数值。
在操作S540,基于所述损失函数值更新模型参数。
根据本公开的实施例,由于使用的是序列数据,因此对传统的Transformer模型进行结构调整,只使用编码器encoder,而无需使用解码器decoder。
在一个具体的示例中,Transformer模型的结构如图6所示。
在图6中,用于训练本公开的无监督预训练模型的Transformer模型由6个编码器encoder和1个全连接层组成。首先,输入的序列数据与位置向量相加,位置向量采用正弦/余弦位置编码。然后经过编码器,编码器结构为:多头注意力模型中的头数为8,前馈网络模型的维度1024,共有6层。最后经过全连接层,全连接层维度与输入数据尺寸一致,用于将Transformer的输出映射回原始特征空间。本公开的实施例发现,基于如上结构的Transformer模型在后续的模型应用中具有较好的表现。
在一些优选的实施例中,可以基于预设的掩码策略对所述第二处理数据进行部分遮蔽,利用部分遮蔽的第二处理数据对所述Transformer模型进行迭代训练。具体的,使用Masked Language Model(MLM)任务作为自监督学习任务,以利用Transformer模型对用户数据进行预训练。MLM任务是自监督学习中的一种常见任务,其目标是使模型在输入数据的部分内容被遮蔽的情况下,能够预测被遮蔽的内容。这样的任务可以让模型学习到数据的潜在模式和特征,为后续的有监督微调阶段提供更好的特征表示。在MLM任务中,随机地遮蔽输入数据的一部分,让模型在输入中看不到部分信息。本公开的实施例中,可以设置maskratio,表示遮蔽比例,即随机遮蔽多少数据。具体的,设置mask ratio为0.15,即随机遮蔽15%的输入数据作为掩码策略。对于每个样本,根据mask ratio的概率随机选择一部分数据进行遮蔽,并将被遮蔽的部分置为0。将遮蔽后的输入数据输入到Transformer MLM模型中,让模型对被遮蔽的部分进行预测。将输出与原始数据进行比较,并使用损失函数衡量模型输出与原始数据之间的差异。本公开的实施例中,使用均方误差(MSE)损失函数作为具体的损失函数类型。使用反向传播算法优化模型的参数,使得模型能够更准确地重构被遮蔽的部分。
可选的,在无监督预训练阶段还可以使用如下方法。一种方法是自编码器(Autoencoder),即将输入数据经过编码器压缩成低维表示,然后再通过解码器恢复回原始数据。在Transformer中,可以设计一个编码器-解码器结构,利用Transformer模型进行自编码,从而学习到输入数据的有效表示。另一种方法是是生成模型(Generative Models):生成模型可以从无标签数据中学习到数据的概率分布,然后可以用来生成新的样本。在Transformer中,可以使用生成模型来生成无标签数据,然后将这些生成的数据作为预训练的输入,用于学习Transformer模型的表示。
图7示意性示出了根据本公开实施例的基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型的流程图。
如图7所示,该实施例的基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型的方法包括操作S710~操作S740。
在操作S710,将所述用户样本数据输入至所述无监督预训练模型中,获取预训练输出数据样本。
在操作S720,对预训练输出数据样本进行筛选,获取第二训练数据,其中,所述预训练输出数据样本为将所述用户特征样本数据输入至所述无监督预训练模型后的输出数据。
在操作S730,对所述第二训练数据建立数据标签,形成标签数据集,所述标签数据集包含待分类样本数据和与所述待分类样本数据对应的数据标签。
在操作S740,基于所述待分类样本数据对所述预构建的分类模型进行迭代训练,直至达到预设的截止条件,获取所述用户流失预测模型。
根据本公开的实施例,在进行有监督训练时,利用已训练好的无监督预训练模型的输出作为有监督分类模型训练的输入数据,以在模型已学习当前场景的数据特征的情况下进一步优化微调。根据本公开的实施例,第二训练数据可以包括流失用户的数据。由此可以基于模型进一步捕捉流失用户的特征。
在一些实施例中,第二训练数据包括在所述时间步中交易平台登录次数为0的用户数据。具体的,可以从无监督预训练的数据中,取出最近24个月的数据,将最近20个月没有登录过手机银行的用户置为流失用户。将这24个月的数据添加标签,0表示未流失,1表示流失,形成一个有标签的数据集,即标签数据集。可以理解的是,可以对有标签数据进行与无监督预训练阶段相同的预处理,确保数据质量和一致性。
图8示意性示出了根据本公开实施例的对所述预构建的分类模型进行第i轮迭代训练的方法的流程图。
如图8所示,该实施例的对所述预构建的分类模型进行第i轮迭代训练的方法包括操作S810~操作S840。
在操作S810,将所述待分类样本数据输入第一线性层,获取第一计算数据。
在操作S820,将所述第一计算数据利用激活函数进行处理,获取第二计算数据。
在操作S830,将所述第二计算数据输入第二线性层,获取第三计算数据。
在操作S840,将所述第三计算数据利用概率分布函数进行处理,获取分类结果数据。
图9示意性示出了根据本公开的具体的实施例的分类模型的结构的示意图。
如图9所示,根据本公开的具体的实施例的分类模型主要包括两个线性层,最后通过softmax输出概率。在有监督微调阶段,使用全连接层作为分类模型,将无监督预训练模型的输出映射到流失标签的预测概率。第一个线性层维度为128,通过Relu函数激活,然后经过维度为2的线性层,最后通过softmax输出流失和未流失的概率。在模型评估阶段,使用验证集对微调后的模型进行评估,选择合适的超参数,确保模型性能达到预期。本公开的具体的实施例发现,采用图9所示的分类模型具有较好的用户流失分类效果。
本公开的实施例中,预训练后的模型基础上,进行微调阶段的有监督学习时,模型已经具有较好的初始状态,相比于从头开始训练,可以更快地收敛和更高的训练效率。通过预训练和微调,模型可以学习到更通用的特征表示,并具有更好的泛化能力。
在获取本公开的实施例的用户流失预测模型后,可以对新的用户数据进行流失预测。根据模型预测结果,可以对潜在流失用户采取相应的营销策略,以降低用户流失率。
基于上述用户流失预测方法,本公开还提供了一种用户流失预测装置。以下将结合图10对该装置进行详细描述。
图10示意性示出了根据本公开实施例的用户流失预测装置的结构框图。
如图10所示,该实施例的用户流失预测装置1000包括获取模块1010、输入模块1020和计算模块1030。
获取模块1010用于获取用户数据。在一实施例中,获取模块1010可以用于执行前文描述的操作S210,在此不再赘述。
输入模块1020用于将所述用户数据输入用户流失预测模型。在一实施例中,输入模块1020可以用于执行前文描述的操作S220,在此不再赘述。
计算模块1030用于利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率。在一实施例中,计算模块1030可以用于执行前文描述的操作S230,在此不再赘述。
根据本公开的实施例,计算模块包括无监督训练子模块和有监督训练子模块。
图11示意性示出了根据本公开实施例的计算模块的结构框图。
如图11所示,该实施例的计算模块1030包括无监督训练子模块10301和有监督训练子模块10302。
其中,无监督训练子模块10301被配置为基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型。
有监督训练子模块10302被配置为基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型。其中,所述用户数据为时间序列数据。
根据本公开的实施例,无监督训练子模块执行基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型的方法包括:对用户数据样本进行预处理,获取第一训练数据;将所述第一训练数据基于预设时间步长度堆叠,获取第一处理数据,其中,所述第一处理数据为时间序列数据,所述第一处理数据包含用户在所述预设时间步长中每个时间步的用户数据;将所述第一处理数据与位置向量相加,获取第二处理数据,其中所述位置向量基于所述第一处理数据中各时间步的用户数据在所属时间序列中的位置构建;利用所述第二处理数据对所述Transformer模型进行迭代训练,直至达到预设的截止条件,其中,所述预设的截止条件与模型的损失函数值关联;其中,在对所述Transformer模型进行第i轮迭代时,所述方法包括将所述第二处理数据输入编码器,获取第三处理数据,其中,所述编码器基于多头注意力模型构建;将所述第三处理数据输入全连接层,获取第四处理数据;基于所述第四处理数据和预设的损失函数计算损失函数值;基于所述损失函数值更新模型参数。
根据本公开的实施例,有监督训练子模块执行基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型包括:将所述用户样本数据输入至所述无监督预训练模型中,获取预训练输出数据样本;对预训练输出数据样本进行筛选,获取第二训练数据,其中,所述预训练输出数据样本为将所述用户样本数据输入至所述无监督预训练模型后的输出数据;对所述第二训练数据建立数据标签,形成标签数据集,所述标签数据集包含待分类样本数据和与所述待分类样本数据对应的数据标签;基于所述待分类样本数据对所述预构建的分类模型进行迭代训练,直至达到预设的截止条件,获取所述用户流失预测模型,其中,在对所述预构建的分类模型进行第i轮迭代训练时,所述方法包括:将所述待分类样本数据输入第一线性层,获取第一计算数据;将所述第一计算数据利用激活函数进行处理,获取第二计算数据;将所述第二计算数据输入第二线性层,获取第三计算数据;将所述第三计算数据利用概率分布函数进行处理,获取分类结果数据。
根据本公开的实施例,获取模块1010、输入模块1020、计算模块1030、无监督训练子模块10301和有监督训练子模块10302中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,获取模块1010、输入模块1020、计算模块1030、无监督训练子模块10301和有监督训练子模块10302中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,获取模块1010、输入模块1020、计算模块1030、无监督训练子模块10301和有监督训练子模块10302中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图9示意性示出了根据本公开实施例的适于实现用户流失预测方法的电子设备的方框图。
如图9所示,根据本公开实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器91 0也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器901执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (11)
1.一种用户流失预测方法,其特征在于,包括:
获取用户数据;
将所述用户数据输入用户流失预测模型;
利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率;
其中,所述用户流失预测模型的训练包括:
基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;
基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,
其中,所述用户数据为时间序列数据。
2.根据权利要求1所述的用户流失预测方法,其中,所述用户数据包括预设时间范围内的用户交易行为数据和用户属性数据,其中,所述用户交易行为数据包含多个交易维度,所述用户属性数据包含多维用户属性。
3.根据权利要求2所述的用户流失预测方法,其中,所述用户交易行为数据包括交易频率,交易量,交易平台登录次数,交易平台查询次数,交易咨询次数,交易咨询类型,交易类型,交易对象类型,交易对象数量中的至少三种;和/或,所述用户属性数据包括用户年龄,用户收入,用户性别,用户地区,用户职业,用户婚姻状况中的至少三种。
4.根据权利要求1所述的用户流失预测方法,其中,所述基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型包括:
对用户数据样本进行预处理,获取第一训练数据;
将所述第一训练数据基于预设时间步长度堆叠,获取第一处理数据,其中,所述第一处理数据为时间序列数据,所述第一处理数据包含用户在所述预设时间步长中每个时间步的用户数据;
将所述第一处理数据与位置向量相加,获取第二处理数据,其中所述位置向量基于所述第一处理数据中各时间步的用户数据在所属时间序列中的位置构建;
利用所述第二处理数据对所述Transformer模型进行迭代训练,直至达到预设的截止条件,其中,所述预设的截止条件与模型的损失函数值关联;
其中,在对所述Transformer模型进行第i轮迭代时,所述方法包括:
将所述第二处理数据输入编码器,获取第三处理数据,其中,所述编码器基于多头注意力模型构建;
将所述第三处理数据输入全连接层,获取第四处理数据;
基于所述第四处理数据和预设的损失函数计算损失函数值;
基于所述损失函数值更新模型参数。
5.根据权利要求4所述的方法,其中,所述方法还包括:
基于预设的掩码策略对所述第二处理数据进行部分遮蔽,利用部分遮蔽的第二处理数据对所述Transformer模型进行迭代训练。
6.根据权利要求1所述的方法,其中,所述基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型包括:
将所述用户样本数据输入至所述无监督预训练模型中,获取预训练输出数据样本;
对预训练输出数据样本进行筛选,获取第二训练数据,其中,所述预训练输出数据样本为将所述用户样本数据输入至所述无监督预训练模型后的输出数据;
对所述第二训练数据建立数据标签,形成标签数据集,所述标签数据集包含待分类样本数据和与所述待分类样本数据对应的数据标签;
基于所述待分类样本数据对所述预构建的分类模型进行迭代训练,直至达到预设的截止条件,获取所述用户流失预测模型,
其中,在对所述预构建的分类模型进行第i轮迭代训练时,所述方法包括:
将所述待分类样本数据输入第一线性层,获取第一计算数据;
将所述第一计算数据利用激活函数进行处理,获取第二计算数据;
将所述第二计算数据输入第二线性层,获取第三计算数据;
将所述第三计算数据利用概率分布函数进行处理,获取分类结果数据。
7.根据权利要求6所述的方法,其中,所述第二训练数据包括在所述时间步中交易平台登录次数为0的用户数据。
8.一种用户流失预测装置,其特征在于,包括:
获取模块,配置为获取用户数据;
输入模块,配置为将所述用户数据输入用户流失预测模型;
计算模块,配置为利用所述用户流失预测模型对用户特征进行分析,获取用户流失概率;
其中,所述计算模块包括:
无监督训练子模块,配置为基于Transformer模型对用户数据样本进行无监督预训练,获取无监督预训练模型;
有监督训练子模块,配置为基于所述无监督预训练模型对预构建的分类模型进行有监督训练,获取所述用户流失预测模型,
其中,所述用户数据为时间序列数据。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~7中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311479828.5A CN117422490A (zh) | 2023-11-08 | 2023-11-08 | 用户流失预测方法、装置、设备、介质和程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311479828.5A CN117422490A (zh) | 2023-11-08 | 2023-11-08 | 用户流失预测方法、装置、设备、介质和程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117422490A true CN117422490A (zh) | 2024-01-19 |
Family
ID=89532478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311479828.5A Pending CN117422490A (zh) | 2023-11-08 | 2023-11-08 | 用户流失预测方法、装置、设备、介质和程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117422490A (zh) |
-
2023
- 2023-11-08 CN CN202311479828.5A patent/CN117422490A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220020026A1 (en) | Anti-money laundering methods and systems for predicting suspicious transactions using artifical intelligence | |
CN109492772B (zh) | 生成信息的方法和装置 | |
WO2014099127A1 (en) | Dynamic model data facility and automated operational model building and usage | |
Biswas et al. | A hybrid recommender system for recommending smartphones to prospective customers | |
CN110490304B (zh) | 一种数据处理方法及设备 | |
CN115983900A (zh) | 用户营销策略的构建方法、装置、设备、介质和程序产品 | |
CN115545886A (zh) | 逾期风险识别方法、装置、设备及存储介质 | |
Matos et al. | A comparison of data-driven approaches for mobile marketing user conversion prediction | |
Qasem et al. | Extreme learning machine for credit risk analysis | |
CN116308641A (zh) | 产品推荐方法、训练方法、装置、电子设备和介质 | |
CN116012066A (zh) | 广告转化率的预测方法、装置、可读存储介质 | |
CN112328899B (zh) | 信息处理方法、信息处理装置、存储介质与电子设备 | |
CN117422490A (zh) | 用户流失预测方法、装置、设备、介质和程序产品 | |
Preetham et al. | A Stacked Model for Approving Bank Loans | |
CN117172632B (zh) | 一种企业异常行为检测方法、装置、设备及存储介质 | |
CN117009883B (zh) | 对象分类模型构建方法、对象分类方法、装置和设备 | |
Yuan et al. | Deep context interaction network based on attention mechanism for click-through rate prediction | |
US20230066770A1 (en) | Cross-channel actionable insights | |
CN114418700A (zh) | 产品推荐方法、装置、设备和介质 | |
US11936814B1 (en) | Utilizing machine learning models to generate interactive digital text threads with personalized agent escalation digital text reply options | |
RU2813245C1 (ru) | Компьютерные системы, вычислительные компоненты и вычислительные объекты, выполненные с возможностью реализации уменьшения обусловленного выбросовыми значениями динамического отклонения в моделях машинного обучения | |
US20240086947A1 (en) | Intelligent prediction of sales opportunity outcome | |
CN117611224A (zh) | 客户分群方法、装置、设备、介质及程序产品 | |
CN116976956A (zh) | Crm系统商机成交预测方法、装置、设备及存储介质 | |
CN117035843A (zh) | 客户流失的预测方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |