CN117009659A - 套餐推荐方法、装置、设备及存储介质 - Google Patents
套餐推荐方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117009659A CN117009659A CN202310878569.7A CN202310878569A CN117009659A CN 117009659 A CN117009659 A CN 117009659A CN 202310878569 A CN202310878569 A CN 202310878569A CN 117009659 A CN117009659 A CN 117009659A
- Authority
- CN
- China
- Prior art keywords
- package
- training
- model
- neural network
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 104
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 230000000306 recurrent effect Effects 0.000 claims abstract description 17
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 142
- 238000012360 testing method Methods 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 32
- 230000000694 effects Effects 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 22
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013101 initial test Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 28
- 238000010276 construction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 238000001212 derivatisation Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种套餐推荐方法、装置、设备及存储介质,涉及套餐推荐技术领域,方法包括:获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。本发明使得循环神经网络根据长序列特征编码,输出的待推荐套餐与目标客户的套餐匹配结果更准确,解决了现有套餐推荐模型准确性较低的技术问题,提高了套餐推荐的准确性。
Description
技术领域
本发明涉及套餐推荐技术领域,尤其涉及一种套餐推荐方法、装置、设备及存储介质。
背景技术
相关技术中,通信运营商可以基于用户特征画像数据以及历史样本标签数据,利用合适的特征工程和算法模型,构建套餐推荐模型,实现各种套餐产品的高质量营销。但是,现有的特征工程中得到的数据特征嘈杂,使得套餐推荐模型准确性较低。
发明内容
本发明的主要目的在于:提供一种套餐推荐方法、装置、设备及存储介质,旨在解决现有套餐推荐模型准确性较低的技术问题。
为实现上述目的,本发明采用如下技术方案:
第一方面,本发明提供一种套餐推荐方法,方法包括:
获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;
将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;
将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
可选地,将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码之前,方法还包括:
获取训练样本集和测试样本集,构造深度森林神经网络的第一损失函数,以及循环神经网络的第二损失函数;训练样本集包括多个训练相关数据集合和多个训练相关数据集合对应的多个样本标签信息,测试样本集包括多个测试相关数据集合;
利用训练样本集对待训练套餐推荐模型进行训练,利用第一损失函数更新待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型;
利用训练样本集对深度森林参数更新后模型进行训练,利用第二损失函数更新深度森林参数更新后模型中当前循环神经网络的网络参数,获得套餐匹配参数更新后模型;
利用测试样本集中的多个测试样本,对套餐匹配参数更新后模型进行测试,获得训练效果评价值;
若训练效果评价值满足轮训条件,则将套餐匹配参数更新后模型作为待训练套餐推荐模型;
返回执行利用训练样本集对待训练套餐推荐模型进行训练,更新待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型的步骤,直到训练效果评价值不满足轮训条件,获得套餐推荐模型。
可选地,构造深度森林神经网络的第一损失函数,以及循环神经网络的第二损失函数的步骤,包括:
根据样本标签信息和循环神经网络的第二预测输出结果,构造第二损失函数;
根据样本标签信息、深度森林神经网络的第一预测输出结果和第二损失函数,构造第一损失函数。
可选地,利用训练样本集对待训练套餐推荐模型进行训练的步骤,包括:
根据第一预设迭代次数,利用训练样本集对待训练套餐推荐模型进行训练;
利用训练样本集对深度森林参数更新后模型进行训练的步骤,包括:
根据第二预设迭代次数,利用训练样本集对深度森林参数更新后模型进行训练。
可选地,训练效果评价值包括AUC值;
若训练效果评价值满足轮训条件,则将套餐匹配模块参数更新后模型作为待训练套餐推荐模型,包括:
根据当前AUC值和历史AUC值,获得ACU波动率;
若ACU波动率大于预设波动率阈值,则将套餐匹配模块参数更新后模型作为待训练套餐推荐模型。
可选地,获取训练样本集和测试样本集的步骤之前,方法还包括:
对初始训练样本集和初始测试样本集进行预处理,得到训练样本集和测试样本集;预处理包括数据格式转换处理、空值处理、异常值处理和高单一值处理中至少一者。
可选地,用户相关数据的数据种类根据待推荐套餐的套餐类型确定,用户相关数据包括通话数据、短信数据、流量使用数据、消费数据和/或套餐使用数据。
第二方面,本发明还提供一种套餐推荐装置,装置包括:
数据获取模块,用于获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;
特征编码模块,用于将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;
推荐模块,用于将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
第三方面,本发明还提供一种套餐推荐设备,设备包括:存储器、处理器及存储在存储器上并可在处理器上运行的套餐推荐程序,通过套餐推荐程序配置为实现如上述任一项套餐推荐方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述任一项的套餐推荐方法的步骤。
本发明提供一种套餐推荐方法、装置、设备及存储介质,获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
由此,本发明通过深度森林神经网络的多粒度扫描模块对目标用户的多种相关历史数据集合进行编码,得到长序列特征编码,通过循环神经网络根据长序列特征编码,得到待推荐套餐与目标用户的套餐匹配结果,向目标用户推荐待推荐套餐。通过深度森林神经网络的多粒度扫描模块,自动将目标用户嘈杂的多种相关历史数据转换为连续且分布一致的长序列特征编码,更适循环神经网络的输入,融合了深度森林神经网络的多粒度扫描模块和循环神经网络进行套餐推荐,使得循环神经网络根据长序列特征编码,输出的待推荐套餐与目标客户的套餐匹配结果更准确,提高了套餐推荐的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明套餐推荐设备的结构示意图;
图2为本发明套餐推荐方法第一实施例的流程示意图;
图3为本发明套餐推荐方法第二实施例的流程示意图;
图4为本发明深度森林编码与循环神经网络融合训练的技术架构图;
图5为图3中步骤S100的细化流程图;
图6为单独使用DF神经网络进行套餐推荐的指标表现;
图7为单独使用RNN进行套餐推荐的指标表现;
图8为使用本发明套餐推荐模型进行套餐推荐的指标表现;
图9为本发明套餐推荐装置第一实施例的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的装置或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种装置或者系统所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括该要素的装置或者系统中还存在另外的相同要素。
通信运营商拥有强大的数据采集、存储和处理能力,且通信运营商数据拥有及时、多样、准确、海量的特点,可以有效的从基础身份信息、通话数据和短信数据、上网行为数据、消费行为数据、位置数据等多个角度构建用户特征画像。
基于通信运营商数据的套餐营销模型建设,是目前通信运营商的一项重要业务。在相关法律法规的规约下,通信运营商基于自身拥有的用户特征画像数据以及历史样本标签数据,利用合适的特征工程和算法模型工具,可以完成套餐营销模型建设,实现流量套餐等产品的高质量营销。
特征工程方面:主要包括业务场景数据特征工程和数学衍生特征工程两方面。业务场景特征工程需要行业专家的经验指导,对基础数据进行重定义和衍生,例如,通过用户周期性接收公积金短信,定义用户稳定工作标签;通过用户集团网信息,进行业务分类,定义用户行业等级等。
数学衍生特征工程,则是通过对历史数据均值、方差、趋势、同比环比分析等进行数据衍生,例如,通过用户近3个月的数据分析获得用户APP使用稳定性等。
以上两个特征工程中涉及的数据修改、聚合、衍生等工作,都需要人为参与,根据建模人员或行业专家的主观经验进行数据加工,而为参与主观性的特征工程往往是无法做到特征处理最佳化的。
算法模型方面:针对套餐营销模型,行业主流使用的算法模型有逻辑回归、评分卡、传统树、梯度提升树、神经网络等等。具体操作时,将用户特征画像数据和历史样本标签数据相关联,获得数据集进行模型训练,完成模型训练和参数调优后,在全量用户上进行预测,实现套餐营销方案制定。
近期,由于循环神经网络(Recurrent Neural Network,RNN)具有强大的序列化特征处理能力,越来越多运营商选择RNN作为套餐营销模型建设的首选方案之一。比如,A金融使用RNN进行用户借贷能力评估,据此确定营销对象和借贷额度。其利用合作银行的客户交易流水信息,制作具有时间序列特性的数据集,完成模型建设,总体效果良好。B运营商也在多种营销业务中多次使用RNN模型,细化用户特征画像数据至日粒度或周粒度,构建时间序列化的特征数据集,进行模型训练,辅助产品营销工作,展现出了良好效果。
但是,针对现有RNN模型,在利用通信运营商数据构建套餐营销模型的场景下,还存在一些缺陷或技术问题,如下:
1、针对RNN模型的输入数据部分,存在两方面的问题:一方面,输入样本的单周期内特征指标十分嘈杂。具体在于,通信运营商数据具有极强的多样性,包含通话、短信、行为、消费、上网、位置等许多维度,各个指标之间无论是分布特性、现实解释性、数据规模还是量化范围,都具有极大的差异。将它们直接集合在一起作为单个周期的模型输入特征并不合适,其原因是:RNN在原初设计上,序列化输入数据的每个周期内的内容应该是连贯的、分布一致的、一体化解释的,这个特性在自然语言处理中表现明显。
另一方面,通信运营商的可用指标有限。RNN作为深度神经网络模型,需要输入足量的特征指标才能发挥出更好的效果。而通信运营商指标数据,经过基本的异常量、高空值、高单一值等数据处理后,保留的可用指标通常不足一百个,这个指标量对于传统机器学习模型可能足够,但是对于深度学习模型只能算是勉强。
2、针对特征工程:现用特征工程中涉及的数据修改、聚合、衍生等工作,都需要人为参与,根据建模人员或行业专家的主观经验进行数据加工,其中也存在不少问题。首先,主观性的特征工程往往无法做到特征处理的最佳化。其次,建模师或行业专家衍生的指标数量往往有限,无法实现指标量的高扩展。再次,新的指标需要进行有效性和标签关联度的再过滤,过程复杂,耗时较长。最后,现有特征工程方案和RNN模型不一定适配,如存在第1点中提及的指标嘈杂问题,应寻找更好的特征工程方案。
综上,现有通信运营场景下套餐营销模型的建设还存在诸多问题,使得套餐营销模型的准确性较低。
鉴于现有套餐推荐方法准确性较低的技术问题,本发明提供了一种套餐推荐方法,总体思路如下:
方法包括:获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
本发明提供一种套餐推荐方法,通过深度森林神经网络的多粒度扫描模块对目标用户的多种相关历史数据集合进行编码,得到长序列特征编码,通过循环神经网络根据长序列特征编码,得到待推荐套餐与目标用户的套餐匹配结果,向目标用户推荐待推荐套餐。通过深度森林神经网络的多粒度扫描模块,自动将目标用户嘈杂的多种相关历史数据转换为连续且分布一致的长序列特征编码,更适循环神经网络的输入,融合了深度森林神经网络的多粒度扫描模块和循环神经网络进行套餐推荐,使得循环神经网络根据长序列特征编码,输出的待推荐套餐与目标客户的套餐匹配结果更准确,提高了套餐推荐的准确性。
下面对本发明技术实现中应用到的套餐推荐方法、装置、设备及存储介质进行详细说明:
参照图1,图1为本申请实施例方案涉及的硬件运行环境的套餐推荐设备的结构示意图。
如图1所示,该设备可以包括:处理器1001,例如CPU,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括智能手机、平板设备和掌上电脑(PDAs,Personal Digital Assistants)等类型的用户设备,可选所述用户接口1003还可以是显示屏(Display)、输入单元比如键盘(Keyboard)等。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可以理解的是,所述设备还可以包括网络接口1004,网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。可选地,设备还可以包括RF(RadioFrequency,射频)电路,传感器、音频电路、WiFi模块等等。
本领域技术人员可以理解,图1中示出的设备结构并不构成对该设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合附图和具体实施方式对本发明的套餐推荐方法、装置、设备及存储介质进行详细描述。
基于上述硬件结构但不限于上述硬件结构,参照图2,图2为本发明套餐推荐方法第一实施例的流程示意图。
本实施例提供一种套餐推荐方法,方法可以包括:
步骤S700:获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据。
本实施例中,执行主体可以为如图1所示的套餐推荐设备,该套餐推荐设备可以为包括一独立主机的物理服务器,或可以为主机集群承载的虚拟服务器。
目标用户可以为通信运营商的任一用户,相关历史数据集合可以包括预设数量T个时间周期内的多种用户相关数据,时间周期可以包括当前时间周期和当前时间周期之前T-1个历史时间周期,用户相关数据可以为各种通信运营类数据。其中,预设数量T可以根据实际需求设置,时间周期可以为一个月、一周或一天等,也可以根据实际需求选择。例如,预设数量可以为10,时间周期可以为一个月,则相关历史数据集合可以包括目标用户的当前月内通信运营类数据和当前月之前九个月内通信运营类数据。
具体的,作为一具体实施方式,用户相关数据的数据种类根据待推荐套餐的套餐类型确定,用户相关数据可以包括通话数据、短信数据、流量使用数据、消费数据和/或套餐使用数据。
本实施例中,待推荐套餐可以包括流量套餐产品、通话套餐产品和基础消费套餐产品等,数据种类可以根据不同套餐产品设置,例如,针对流量套餐产品,可使用大量与流量、套餐和消费相关的数据。其中,通话数据可以为单时间周期内主叫时长,短信数据可以为单时间周期内短信条数,流量使用数据可以为单时间周期内app使用流量和app使用次数,消费数据可以包括单时间周期内话费消费、流量消费和套餐外消费,套餐使用数据可以包括单时间周期内套餐用量。
步骤S800:将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块。
本实施例中,深度森林DF(Deep Forest)神经网络的每一层使用多个简单树模型作为评估器,自动化的完成通信运营类数据的分组、交叉、聚合和高阶衍生等工作,挖掘出通信运营类数据更广更深层的信息,且各层的输出编码与DF神经网络的训练样本强相关。从而DF神经网络可以实现通信运营类数据表示形式的转换,将原始嘈杂的通信运营类数据转换为了连续的、分布一致的长编码,将散乱、独立的通信运营类数据的特征信息映射于高维、长序列的编码之中,同时实现了通信运营类数据的数据量扩展。可以理解,长序列特征编码通过依次将相关历史数据集合中用户相关数据输入深度森林神经网络的多粒度扫描模块后编排得到。长序列特征编码的编码长度根据实际使用需求预先设置。继续以预设数量为10,时间周期为一个月为例,若相关历史数据集合单个时间周期内数据数量为100,则相关历史数据集合的张量为10×100,若编码长度为500,则通过多粒度扫描模块编码后单个时间周期内的数据数量可以从100个扩展到500个,极大的丰富了RNN的输入数据。
步骤S900:将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
本实施例中,循环神经网络(Recurrent Neural Network,RNN)可以根据长序列特征编码输出待推荐套餐与目标用户的匹配得分,匹配得分越高表示向目标用户推荐待推荐套餐的价值越高,可对高匹配得分目标用户推荐更高价的待推荐套餐产品。其中,匹配得分的数值区间可以为[0,1],例如,目标用户的匹配得分为0.88,可以认为匹配得分较高,目标用户是该待推荐套餐的目标营销客户。另外,也可以根据匹配得分是否超过预设推荐得分阈值判断是否向目标用户推荐待推荐套餐。
本实施例提供一种套餐推荐方法,通过深度森林神经网络的多粒度扫描模块,自动将目标用户嘈杂的多种相关历史数据转换为连续且分布一致的长序列特征编码,更适循环神经网络的输入,融合了深度森林神经网络的多粒度扫描模块和循环神经网络进行套餐推荐,使得循环神经网络根据长序列特征编码,输出的待推荐套餐与目标客户的套餐匹配结果更准确,提高了套餐推荐的准确性。且,无需人为参与特征工程,避免了人为参与的主观性影响特征工程进行特征处理的最佳化,提高了特征工程的效率。
进一步地,如图3到8所示,图3为本发明套餐推荐方法第二实施例的流程示意图,图4为本发明深度森林编码与循环神经网络融合训练的技术架构图,图5为图3中步骤S100的细化流程图,图6为单独使用DF神经网络进行套餐推荐的指标表现,图7为单独使用RNN进行套餐推荐的指标表现,图8为使用本发明套餐推荐模型进行套餐推荐的指标表现。
如图3所示,基于上述实施例一,步骤S100之前,方法还可以包括:
步骤S100:获取训练样本集和测试样本集,构造深度森林神经网络的第一损失函数,以及循环神经网络的第二损失函数。
其中,训练样本集包括多个训练相关数据集合和多个训练相关数据集合对应的多个样本标签信息,测试样本集包括多个测试相关数据集合。
本实施例中,多个训练相关数据集合和多个测试相关数据集合均可以包括多个用户的相关历史数据集合,样本标签信息根据多个用户购买或升级待推荐套餐的结果确定,样本标签信息可以设定多个用户中购买或升级了待推荐套餐的用户为正样本,多个用户中未购买或升级待推荐套餐的用户为负样本。
如图4所示,样本量为D的训练样本集可以表示为 为第i个训练样本,yi为第i个训练样本对应的样本标签信息,单个训练样本/>可以表示为:
其中,T表示时间周期数,即预设数量,为当前时间周期内用户相关数据,/>为当前时间周期之前第T-1个历史时间周期内用户相关数据。针对单时间周期内用户相关数据可以表示为:
针对通信运营类数据,可以具象化展示为如下表所示:
具体的,如图5所示,作为一具体实施方式,步骤S100可以包括:
步骤S110:根据样本标签信息和循环神经网络的第二预测输出结果,构造第二损失函数。
本实施例中,如图4所示,RNN训练阶段,输入DF神经网络mGS(Multi-GrainedScanning,多粒度扫描)模块输出的样本长序列编码featuresequencei,可以得到RNN输出的第二预测输出结果可以利用交叉熵函数,根据样本标签信息yi和第二预测输出结果/>得到循环神经网络的第二损失函数/>
步骤S120:根据样本标签信息、深度森林神经网络的第一预测输出结果和第二损失函数,构造第一损失函数。
本实施例中,DF神经网络训练阶段,mGS(Multi-Grained Scanning,多粒度扫描)模块输出的样本长序列编码featuresequencei,是将单个训练样本的T个时间周期内用户相关数据/>依次输入DF神经网络的mGS模块后编排获得,样本长序列编码featuresequencei可以表示为:
在DF神经网络的CF(Cascade Forest Structure,级联森林结构)模块通常仅考虑单个时间周期内通信运营类数据最具代表性,且由于对于用户来说,最近一个时间周期的通信运营类数据与用户行为最接近。因此,DF神经网络训练阶段,选取mGS模块输出的作为CF模块的输入,获得DF神经网络的第一预测输出/>使用均方误差函数,得到DF神经网络本身的损失函数为:
进一步地,为了使mGS模块生成的长序列化特征编码可以更好地服务于RNN的深层特征处理过程,在DF神经网络训练阶段,可以引入RNN的第二损失函数,构建DF神经网络的第一损失函数,从而使mGS模块的训练过程与RNN在高维和复杂的特征空间中产生关联性,让mGS模块的特征编码过程更具针对性。
从而可以根据样本标签信息yi、DF神经网络的第一预测输出结果和第二损失函数/>构造DF神经网络的第一损失函数/>为:
其中,α和β均为损失权重,可以根据实际需求设置。较佳地,α和β均为0.5。
步骤S200:利用训练样本集对待训练套餐推荐模型进行训练,利用第一损失函数更新待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型。
步骤S300:利用训练样本集对深度森林参数更新后模型进行训练,利用第二损失函数更新深度森林参数更新后模型中当前循环神经网络的网络参数,获得套餐匹配参数更新后模型。
本实施例中,套餐推荐模型中深度森林神经网络和循环神经网络采用多次轮训的方式进行训练,针对深度森林神经网络和循环神经网络需要分别构建损失函数对应更新深度森林神经网络和循环神经网络的模型参数。在单次轮训中,首先固定RNN,利用训练样本集训练DF神经网络,利用第一损失函数更新DF神经网络mGS模块和CF模块的网络参数;然后,固定DF神经网络,利用训练样本集训练RNN,利用第二损失函数更新RNN的网络参数。
具体的,作为另一具体实施方式,步骤S200可以包括:根据第一预设迭代次数,利用训练样本集对待训练套餐推荐模型进行训练。
步骤S300可以包括:根据第二预设迭代次数,利用训练样本集对深度森林参数更新后模型进行训练。
本实施例中,在单次轮训中,可以预先设置DF神经网络的迭代次数为第一预设迭代次数,RNN的迭代次数为第二预设迭代次数。第一预设迭代次数和第二预设迭代次数可以根据具体使用情况预先设置。
步骤S400:利用测试样本集中的多个测试样本,对套餐匹配参数更新后模型进行测试,获得训练效果评价值。
步骤S500:若训练效果评价值满足轮训条件,则将套餐匹配参数更新后模型作为待训练套餐推荐模型。
步骤S600:返回执行步骤S200,直到训练效果评价值不满足轮训条件,获得套餐推荐模型。
本实施例中,样本量为Dtest的测试样本集可以表示为 为第j个测试样本,测试样本中用户相关数据种类和时间周期数与训练样本中用户相关数据种类和时间周期数相同。每次轮训后,通过轮训后的套餐匹配参数更新后模型进行测试预测,可以得到多个测试样本的多个测试结果,获得训练效果评价值,来评估套餐匹配参数更新后模型训练结果。轮训条件可以根据训练效果评价值的类型设置。
具体的,作为又一具体实施方式,训练效果评价值可以包括AUC值。
步骤S600可以包括:根据当前AUC值和历史AUC值,获得ACU波动率;若ACU波动率大于预设波动率阈值,则将套餐匹配模块参数更新后模型作为待训练套餐推荐模型。
本实施例中,AUC值为ROC曲线(Receiver Operating Characteristic Curve,受试者特征曲线)下方区域面积,可以用于比较不同次轮训后的套餐匹配模块参数更新后模型的优劣。当前AUC值为当前次轮训后的套餐匹配模块参数更新后模型对测试样本集中多个测试样本进行预测,得到的AUC值;历史AUC值为上一次轮训后的套餐匹配模块参数更新后模型对测试样本集中多个测试样本进行预测,得到的AUC值。ACU波动率为AUC值的变化率,预设波动率阈值根据实际需求设置,例如,预设波动率阈值可以为0.1%。
如图6至8所示,使用ks值、auc值和PR曲线三项指标比较多种套餐推荐模型进行套餐推荐的优缺点。图6中ks值为0.3008,AUC值为0.7027,图7中ks值为0.3343,AUC值为0.7202,图8中ks值为0.3933,AUC值为0.7635。可以看出,本实施例的套餐推荐模型集成DF神经网络的mGS模块和RNN进行套餐推荐,相比单独使用DF神经网络或单独使用RNN进行套餐推荐,本实施例的套餐推荐模型ks值提升了0.059,AUC值提升了0.0433,PR曲线也具有更高的覆盖面积,从而本实施例的套餐推荐模型相较于单独使用DF神经网络或单独使用RNN进行套餐推荐性能较好。
进一步地,作为另一实施方式,步骤S100之前,方法还可以包括:对初始训练样本集和初始测试样本集进行预处理,得到训练样本集和测试样本集;预处理包括数据格式转换处理、空值处理、异常值处理和高单一值处理中至少一者。
本实施例中,在模型训练前需要对训练样本集和测试样本集进行预处理,对训练样本集中多个训练样本进行格式统一和数据清洗,对测试样本集中多个测试样本进行格式统一和数据清洗。其中,数据格式转换处理、空值处理、异常值处理和高单一值处理的具体处理方式可以根据实际使用需求选择。
本实施例提供一种套餐推荐方法,在向目标用户推荐待推荐套餐前,采用轮训式训练方案分别训练套餐推荐模型的特征提取模块和套餐匹配模块,在特征提取模块训练时,考虑了套餐匹配模块的损失函数,使得特征提取模块与套餐匹配模块在高维和复杂的特征空间中产生关联性,特征提取模块生成的长序列特征编码更符合套餐匹配模块的深层特征处理过程,提高了套餐推荐模型的准确性和推荐效率。
基于同一发明构思,参照图9,图9为本发明套餐推荐装置第一实施例的模块示意图。本实施例提供了一种套餐推荐装置,装置可以包括:
数据获取模块10,用于获取目标用户的相关历史数据集合,相关历史数据集合包括多种用户相关数据;
特征编码模块20,用于将相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;特征提取模块包括深度森林神经网络的多粒度扫描模块;
推荐模块30,用于将长序列特征编码输入套餐推荐模型的套餐匹配模块,得到待推荐套餐与目标用户的套餐匹配结果;套餐匹配模块包括循环神经网络。
进一步地,作为一实施方式,装置还可以包括:
构造模块,用于获取训练样本集和测试样本集,构造深度森林神经网络的第一损失函数,以及循环神经网络的第二损失函数;其中,训练样本集包括多个训练相关数据集合和多个训练相关数据集合对应的多个样本标签信息,测试样本集包括多个测试相关数据集合;
深度森林训练模块,用于利用训练样本集对待训练套餐推荐模型进行训练,利用第一损失函数更新待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型;
循环网络训练模块,用于利用训练样本集对深度森林参数更新后模型进行训练,利用第二损失函数更新深度森林参数更新后模型中当前循环神经网络的网络参数,获得套餐匹配参数更新后模型;
模型测试模块,用于利用测试样本集中的多个测试样本,对套餐匹配参数更新后模型进行测试,获得训练效果评价值;
模型评估模块,用于若训练效果评价值满足轮训条件,则将套餐匹配参数更新后模型作为待训练套餐推荐模型;返回执行利用训练样本集对待训练套餐推荐模型进行训练,更新待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型的步骤,直到训练效果评价值不满足轮训条件,获得套餐推荐模型。
具体的,构造模块可以包括:
第一构造单元,用于根据样本标签信息和循环神经网络的第二预测输出结果,构造第二损失函数;
第二构造单元,用于根据样本标签信息、深度森林神经网络的第一预测输出结果和第二损失函数,构造第一损失函数。
具体的,深度森林训练模块,还用于根据第一预设迭代次数,利用所述训练样本集对待训练套餐推荐模型进行训练;
循环网络训练模块,还用于根据第二预设迭代次数,利用所述训练样本集对所述深度森林参数更新后模型进行训练。
具体的,训练效果评价值包括AUC值;
模型评估模块,还用于根据当前AUC值和历史AUC值,获得ACU波动率;若ACU波动率大于预设波动率阈值,则将套餐匹配模块参数更新后模型作为待训练套餐推荐模型。
进一步地,作为另一实施方式,装置还可以包括:
数据处理模块,用于对初始训练样本集和初始测试样本集进行预处理,得到训练样本集和测试样本集;预处理包括数据格式转换处理、空值处理、异常值处理和高单一值处理中至少一者。
上述套餐推荐装置的具体实施方式中更多实施细节可参见上述实施例一或二中套餐推荐方法的具体实施方式的描述,为了说明书的简洁,此处不再重复赘述。
此外,本发明实施例还提出一种计算机存储介质,存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上文的套餐推荐方法的步骤。因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。确定为示例,程序指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种套餐推荐方法,其特征在于,所述方法包括:
获取目标用户的相关历史数据集合,所述相关历史数据集合包括多种用户相关数据;
将所述相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;所述特征提取模块包括深度森林神经网络的多粒度扫描模块;
将所述长序列特征编码输入所述套餐推荐模型的套餐匹配模块,得到待推荐套餐与所述目标用户的套餐匹配结果;所述套餐匹配模块包括循环神经网络。
2.如权利要求1所述的方法,其特征在于,所述将所述相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码之前,所述方法还包括:
获取训练样本集和测试样本集,构造所述深度森林神经网络的第一损失函数,以及所述循环神经网络的第二损失函数;所述训练样本集包括多个训练相关数据集合和多个所述训练相关数据集合对应的多个样本标签信息,所述测试样本集包括多个测试相关数据集合;
利用所述训练样本集对待训练套餐推荐模型进行训练,利用所述第一损失函数更新所述待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型;
利用所述训练样本集对所述深度森林参数更新后模型进行训练,利用所述第二损失函数更新所述深度森林参数更新后模型中当前循环神经网络的网络参数,获得套餐匹配参数更新后模型;
利用所述测试样本集中的多个测试样本,对所述套餐匹配参数更新后模型进行测试,获得训练效果评价值;
若所述训练效果评价值满足轮训条件,则将所述套餐匹配参数更新后模型作为所述待训练套餐推荐模型;
返回执行利用所述训练样本集对待训练套餐推荐模型进行训练,更新所述待训练套餐推荐模型中当前深度森林神经网络的网络参数,获得深度森林参数更新后模型的步骤,直到所述训练效果评价值不满足轮训条件,获得所述套餐推荐模型。
3.如权利要求2所述的方法,其特征在于,所述构造所述深度森林神经网络的第一损失函数,以及所述循环神经网络的第二损失函数的步骤,包括:
根据所述样本标签信息和所述循环神经网络的第二预测输出结果,构造所述第二损失函数;
根据所述样本标签信息、所述深度森林神经网络的第一预测输出结果和所述第二损失函数,构造所述第一损失函数。
4.如权利要求2所述的方法,其特征在于,所述利用所述训练样本集对待训练套餐推荐模型进行训练的步骤,包括:
根据第一预设迭代次数,利用所述训练样本集对待训练套餐推荐模型进行训练;
所述利用所述训练样本集对所述深度森林参数更新后模型进行训练的步骤,包括:
根据第二预设迭代次数,利用所述训练样本集对所述深度森林参数更新后模型进行训练。
5.如权利要求2所述的方法,其特征在于,所述训练效果评价值包括AUC值;
所述若所述训练效果评价值满足轮训条件,则将所述套餐匹配模块参数更新后模型作为所述待训练套餐推荐模型,包括:
根据当前AUC值和历史AUC值,获得ACU波动率;
若所述ACU波动率大于预设波动率阈值,则将所述套餐匹配模块参数更新后模型作为所述待训练套餐推荐模型。
6.如权利要求2所述的方法,其特征在于,所述获取训练样本集和测试样本集的步骤之前,所述方法还包括:
对初始训练样本集和初始测试样本集进行预处理,得到所述训练样本集和所述测试样本集;所述预处理包括数据格式转换处理、空值处理、异常值处理和高单一值处理中至少一者。
7.如权利要求1所述的方法,其特征在于,所述用户相关数据的数据种类根据待推荐套餐的套餐类型确定,所述用户相关数据包括通话数据、短信数据、流量使用数据、消费数据和/或套餐使用数据。
8.一种套餐推荐装置,其特征在于,所述装置包括:
数据获取模块,用于获取目标用户的相关历史数据集合,所述相关历史数据集合包括多种用户相关数据;
特征编码模块,用于将所述相关历史数据集合输入套餐推荐模型的特征提取模块,生成长序列特征编码;所述特征提取模块包括深度森林神经网络的多粒度扫描模块;
推荐模块,用于将所述长序列特征编码输入所述套餐推荐模型的套餐匹配模块,得到待推荐套餐与所述目标用户的套餐匹配结果;所述套餐匹配模块包括循环神经网络。
9.一种套餐推荐设备,其特征在于,所述设备包括:存储器、处理器及存储在存储器上并可在处理器上运行的套餐推荐程序,通过套餐推荐程序配置为实现如权利要求1至7中任一项所述的套餐推荐方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,计算机程序被处理器执行时实现如权利要求1至7中任一项所述的套餐推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310878569.7A CN117009659A (zh) | 2023-07-17 | 2023-07-17 | 套餐推荐方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310878569.7A CN117009659A (zh) | 2023-07-17 | 2023-07-17 | 套餐推荐方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117009659A true CN117009659A (zh) | 2023-11-07 |
Family
ID=88564657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310878569.7A Pending CN117009659A (zh) | 2023-07-17 | 2023-07-17 | 套餐推荐方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117009659A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118607796A (zh) * | 2024-08-07 | 2024-09-06 | 天翼物联科技有限公司 | 物联网海量详单累积量处理方法、装置、平台和介质 |
-
2023
- 2023-07-17 CN CN202310878569.7A patent/CN117009659A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118607796A (zh) * | 2024-08-07 | 2024-09-06 | 天翼物联科技有限公司 | 物联网海量详单累积量处理方法、装置、平台和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210326729A1 (en) | Recommendation Model Training Method and Related Apparatus | |
US20230281448A1 (en) | Method and apparatus for information recommendation, electronic device, computer readable storage medium and computer program product | |
CN110647921B (zh) | 一种用户行为预测方法、装置、设备及存储介质 | |
US11315032B2 (en) | Method and system for recommending content items to a user based on tensor factorization | |
CN110008397B (zh) | 一种推荐模型训练方法及装置 | |
US12020267B2 (en) | Method, apparatus, storage medium, and device for generating user profile | |
CN110147389B (zh) | 帐号处理方法和装置、存储介质及电子装置 | |
CN109684364B (zh) | 基于用户画像的问题处理方法、装置、设备和存储介质 | |
EP4242955A1 (en) | User profile-based object recommendation method and device | |
CN111061956A (zh) | 用于生成信息的方法和装置 | |
US11748452B2 (en) | Method for data processing by performing different non-linear combination processing | |
CN111967914A (zh) | 基于用户画像的推荐方法、装置、计算机设备和存储介质 | |
CN105468161A (zh) | 指令执行方法和装置 | |
CN117009659A (zh) | 套餐推荐方法、装置、设备及存储介质 | |
CN113065882A (zh) | 一种商品处理方法、装置及电子设备 | |
CN112070542A (zh) | 信息转化率预测方法、装置、设备及可读存储介质 | |
CN108667877B (zh) | 确定推荐信息的方法及装置、计算机设备及存储介质 | |
CN111538909A (zh) | 一种信息推荐方法及装置 | |
CN110457387A (zh) | 一种应用于网络中用户标签确定的方法及相关装置 | |
CN118043802A (zh) | 一种推荐模型训练方法及装置 | |
CN107644042B (zh) | 软件程序点击率预估排序方法及服务器 | |
CN111445139A (zh) | 业务流程模拟方法及装置、存储介质、电子设备 | |
CN114429384B (zh) | 基于电商平台的产品智能推荐方法及系统 | |
CN115659005A (zh) | 产品推送方法、装置、计算机设备和存储介质 | |
CN114925275A (zh) | 产品推荐方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |