CN112231584A - 基于小样本迁移学习的数据推送方法、装置及计算机设备 - Google Patents
基于小样本迁移学习的数据推送方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN112231584A CN112231584A CN202011424422.3A CN202011424422A CN112231584A CN 112231584 A CN112231584 A CN 112231584A CN 202011424422 A CN202011424422 A CN 202011424422A CN 112231584 A CN112231584 A CN 112231584A
- Authority
- CN
- China
- Prior art keywords
- user data
- historical user
- data
- product
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/55—Push-based network services
Abstract
本发明公开了基于小样本迁移学习的数据推送方法、装置、计算机设备及存储介质,涉及人工智能技术,先获取历史用户数据集,以提取对应的初始信息因子集;将初始信息因子集进行自动特征生成以得到对应的特征信息因子集;将当前用户数据集与特征信息因子集组合得到当前训练集;将其作为待训练预测模型的训练样本进行模型训练,得到预测模型;获取另一历史用户数据集,以输入至预测模型进行预测运算,得到对应的预测结果。实现了利用相似产品数据对应的历史用户数据进行迁移训练得到预测模型,通过预测模型在其他历史用户数据集中挖掘出潜在目标用户,从而更加准确的进行信息推送,降低了信息推送量和网络带宽占用。
Description
技术领域
本发明涉及人工智能的智能决策技术领域,尤其涉及一种基于小样本迁移学习的数据推送方法、装置、计算机设备及存储介质。
背景技术
目前,当某一用户使用用户端设计了一款新的产品(例如保险产品、理财产品、软件产品等)进行推广后,直接获取到的用户数据较少(也即用户样本有限),无法直接基于直接获取到的用户数据作为用于预测潜在客户的预测模型的样本数据。
在缺少用户数据的情况下,一般采用线上投放广告、向海量用户群发推广信息、线下发放产品广告宣传单的方式进信息传递以达到获取用户数据的目的,通过现有的信息传递方式,不仅推送成本高,而且因推送对象广泛而导致信息推送量大,推送效率低下。
发明内容
本发明实施例提供了一种基于小样本迁移学习的数据推送方法、装置、计算机设备及存储介质,旨在解决现有技术中服务器中因缺乏历史用户而无目标性的向大量用户发送推广信息时,不仅推送成本高,而且因推送对象广泛而导致信息推送量大,推送效率低下的问题。
第一方面,本发明实施例提供了一种基于小样本迁移学习的数据推送方法,其包括:
获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集;
对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;
获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集;
根据所述当前训练集进行模型训练,得到预测模型;
获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果;以及
获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
第二方面,本发明实施例提供了一种基于小样本迁移学习的数据推送装置,其包括:
初始因子获取单元,用于获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集;
特征因子获取单元,用于对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;
当前训练集获取单元,用于获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集;
模型训练单元,用于根据所述当前训练集进行模型训练,得到预测模型;
预测单元,用于获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果;以及
待推荐用户清单获取单元,用于获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于小样本迁移学习的数据推送方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于小样本迁移学习的数据推送方法。
本发明实施例提供了一种基于小样本迁移学习的数据推送方法、装置、计算机设备及存储介质,先获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集;对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集;根据所述当前训练集进行模型训练,得到预测模型;获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果。实现了利用相似产品数据对应的历史用户数据进行迁移训练得到预测模型,通过预测模型在其他历史用户数据集中挖掘出潜在目标用户,从而更加准确的进行信息推送,降低了信息推送量和网络带宽占用。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于小样本迁移学习的数据推送方法的应用场景示意图;
图2为本发明实施例提供的基于小样本迁移学习的数据推送方法的流程示意图;
图3为本发明实施例提供的基于小样本迁移学习的数据推送方法中全连接神经网络的示意图;
图4为本发明实施例提供的基于小样本迁移学习的数据推送装置的示意性框图;
图5为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和 “包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/ 或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于小样本迁移学习的数据推送方法的应用场景示意图;图2为本发明实施例提供的基于小样本迁移学习的数据推送方法的流程示意图,该基于小样本迁移学习的数据推送方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S160。
S110、获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集。
在本实施例中,当某一用户使用用户端(如平板电脑、笔记本电脑等)设计了一款新的产品(例如保险产品、理财产品、软件产品等)进行推广后,直接获取到的用户数据较少(也即用户样本有限),无法基于直接获取到的用户数据作为用于预测潜在客户的预测模型的样本数据。此时,可以获取该产品的近似产品的历史用户数据集作为样本数据进行预测模型训练。而且可以从近似产品的历史用户数据集中根据所述预测模型挖掘出潜在客户。
在一实施例中,步骤S110中获取历史用户数据集包括:
若检测到用户端上传的当前产品属性数据,在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集;
获取所述目标产品属性数据集中各目标产品属性数据分别对应的目标产品历史用户数据集,以组成历史用户数据集。
在本实施例中,为了获取新产品(也即当前产品)的相关类似产品,可以在服务器中先获取当前产品对应的当前产品属性数据,例如该当前产品属性数据包括产品名称、产品类型(如健康险产品等)、产品特征文本(在产品特征文本中有关于该产品主要特征的描述)。
此时为了在服务器的本地产品数据库中获取当前产品的较相似目标产品,此时可以计算当前产品属性数据与本地产品数据库中各个产品属性数据的相似度,从而在在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。
由于目标产品属性数据集中每一个目标产品属性对应一款近似产品,而每一款近似产品有对应一个目标产品历史用户数据集,那么由这些近似产品各自对应的目标产品历史用户数据集共同组成了历史用户数据集。
在一实施例中,所述若检测到用户端上传的当前产品属性数据,在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集,包括:
判断在本地产品数据库中是否存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据;
若在本地产品数据库中存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据,获取对应的初步筛选产品属性数据以组成初步筛选产品属性数据集;
获取初步筛选产品属性数据集中每一个初步筛选产品属性数据的产品特征文本,获取每一产品特征文本对应的产品语义向量;
获取所述当前产品属性数据的产品特征文本对应的当前产品语义向量,计算所述当前产品语义向量与每一产品特征文本对应的产品语义向量之间的欧氏距离作为数据相似度,获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。
在本实施例中,当获取了当前产品属性数据后,是可以获知其对应的产品类型和产品特征文本。为了在本地产品数据库中筛选出较近似产品,可以先在本地产品数据库中筛选出与当前产品属性数据的产品类型相同的初步筛选产品属性数据,以组成初步筛选产品属性数据集;之后,获取初步筛选产品属性数据集中每一个初步筛选产品属性数据的产品特征文本及其对应的产品语义向量;然后,获取所述当前产品属性数据的产品特征文本对应的当前产品语义向量,这样即可计算当前产品语义向量与每一产品语义向量对应的欧氏距离,从而作为当前产品属性数据与初步筛选产品属性数据集中各个初步筛选产品属性数据之间的数据相似度;最后在初步筛选产品属性数据集中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。通过上述方式即可快速且准确的在服务器的本地产品数据库中获取当前产品的较相似目标产品。
S120、对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集。
在本实施例中,当获取了多个较近似产品的目标产品历史用户数据集所组成历史用户数据集后,可以先通过自动学习提取各历史用户数据的特征信息因子集。上述由初始信息因子集进行自动特征生成的过程可以参考图3。
如图3所示,最下面一层是输入层,ij代表初始信息因子集的其中一个信息因子,fn是进行特征工程后可得到的特征层。从ij到fn是一个自动特征生成的过程,在这一将初始信息因子ij进行变换,得到更利于预测潜在客户的特征信息因子fn。ij和fn之间可以是某种神经网络结构,如Wide&Deep、Deep&Cross等,也可以是其他的机器学习模型。
在一实施例中,步骤S120包括:
将每一条历史用户数据对应的初始信息因子集输入至全连接神经网络进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;其中,所述全连接神经网络包括1个隐藏层。
在本申请中,以只有一个隐藏层的全连接神经网络为例来说明上述进行自动特征生成。这一只有一个隐藏层的全连接神经网络所涉及的公式如下:
在式(1)和式(2)中w和b是神经网络的参数,relu()是激活函数,图3中的ts是当前产品的模型输出,该当前产品由于样本量较小,不适合直接训练模型。tm表示较近似产品的模型输出,借助较近似产品的历史用户数据集,预训练模型。然后利用预训练获得的特征信息因子fn,在当前产品的有限数据上进行再训练,最后挖掘出潜在用户。
其中,ts和tm满足以下关系:
在式(3)和式(4)中激活函数σ()为sigmoid函数,输出值在0到1之间,代表可能性。φ和ρ是输出神经元的参数。通过这一方式提取的特征因子,不仅实现了特征降维,而且所挑选出来的因子更具数据代表性。
S130、获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集。
在本实施例中,例如当前产品是健康险产品A,由于获得健康险产品A的用户很少,直接训练模型效果会比较差。考虑企业的相关健康险产品,如健康险产品B、健康险产品C等,利用在一段时间内上述产品的用户数据训练模型,可以使得特征信息因子fn直接包含客户的重要信息。利用特征信息因子fn在当前产品的小样本上训练模型,由于充分扩展了当前产品的小样本(即在当前产品的小样本上增加了近似产品对应的大量用户的特征信息因子fn)而得到了样本数据量充足的样本集,此时再对当前产品的潜在用户预测预测模型进行训练,得到的预测模型可以获得较理想的预测效果。
S140、根据所述当前训练集进行模型训练,得到预测模型。
在本实施例中,当获取了当前训练集后,可能包括多个较近似产品的目标产品历
史用户数据集,可以参考多任务学习的思想来综合较近似产品的目标产品历史用户数据集
来对待训练预测模型进行训练。在上述预测模型的训练过程中,训练阶段的损失函数如下
式: (5)
其中,是L2正则的相对权重,可在训练时利用网格搜索等方法调节。、分别为
相关产品m的实际标签和预测概率。是各个相关产品重要性的相对权重,可根据经验人
工设定。如果各个相关产品重要性相当,则损失函数为各相关产品等权重相加。
在基于当前训练集对完成对待训练预测模型的训练后,可以将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存,与当前产品相似的其他缺少用户历史数据的其他产品对应的其他待训练预测模型直接用各历史用户数据对应的特征信息因子集,可以节省计算的消耗。同时特征信息因子集还可以方便其他客户相关模型的使用。
在一实施例中,步骤S120之后还包括:
将所述全连接神经网络的网络结构和参数进行保存。
其中,将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存(例如保存在服务器本地的数据库)后,这种情况适用于后续对模型训练时效性要求高的过程。也就是需要训练与当前产品相似的其他缺少用户历史数据的其他产品对应的其他待训练预测模型时,直接将这些保存的特征信息因子集作为训练集使用即可,无需通过如步骤S120中的特征工程处理的过程,节省计算的消耗。
在一实施例中,步骤S130之后还包括:
将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存。
其中,另一种情况是后续对模型训练时效性要求不高的过程,此时不用保存特征信息因子集,而是保存步骤S120中的特征工程处理的过程中所使用的值包括一个隐藏层的全连接神经网络的网络结构和参数计算。需要对其他待训练预测模型训练时利用ij和fn之间的网络结构和参数计算fn,这种方法由于仅仅只保存了网络结构和参数在服务器本地,没有保存大量的特征信息因子集,从而可以节省数据存储空间,也即实现了模型的重复利用。
S150、获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果。
在本实施例中,当训练得到了预测模型后,此时可以获取与当前产品为较近似产品关系的另一产品的另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果。其中,所述预测结果的取值范围是[0,1]。例如,历史用户数据对应的分类结果为1时(其超出预先设置的预测结果阈值如0.7),表示该历史用户数据对应的用户可以被选中为潜在用户(即该用户可以被发送推荐信息以进行产品推广);历史用户数据对应的分类结果为0时(其未超出预先设置的预测结果阈值如0.7),表示该历史用户数据对应的用户不是潜在用户(即该用户无需被发送推荐信息)。
S160、获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
在本实施例中,当获取了满足预设条件(例如将预设条件设置为预测结果超出预设的预测结果阈值)的历史用户数据以组成待推荐用户清单,即挖掘出了潜在用户对应的用户数据,此时可以在服务器本地的数据库中查询待推荐用户清单中各目标用户数据分别对应的目标接收端,从而将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。通过这一方式,实现了更精准的推送信息。
在一实施例中,步骤S160之后还包括:
若接收到目标接收端发送的确认用户信息,将从所述确认用户信息中提取的目标用户信息存储至本地的用户数据表。
在本实施例中,当目标接收端接收到服务器发送的待推荐信息后,若对该待推荐信息有反馈意向,此时可以填写确认用户信息(例如包括用户姓名、电话、购买意向等),之后将确认用户信息发送至服务器,由服务器从所述确认用户信息中提取的目标用户信息后存储至本地的用户数据表。通过这一方式,实现了对用户信息的有效采集和保存。
该方法利用相似产品数据对应的历史用户数据进行迁移训练得到预测模型,通过预测模型在其他历史用户数据集中挖掘出潜在目标用户,从而更加准确的进行信息推送,降低了信息推送量和网络带宽占用。
本发明实施例还提供一种基于小样本迁移学习的数据推送装置,该基于小样本迁移学习的数据推送装置用于执行前述基于小样本迁移学习的数据推送方法的任一实施例。具体地,请参阅图4,图4是本发明实施例提供的基于小样本迁移学习的数据推送装置的示意性框图。该基于小样本迁移学习的数据推送装置100可以配置于服务器中。
如图4所示,基于小样本迁移学习的数据推送装置100包括:初始因子获取单元110、特征因子获取单元120、当前训练集获取单元130、模型训练单元140、预测单元150、待推荐用户清单获取单元160。
初始因子获取单元110,用于获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集。
在本实施例中,当某一用户使用用户端(如平板电脑、笔记本电脑等)设计了一款新的产品(例如保险产品、理财产品、软件产品等)进行推广后,直接获取到的用户数据较少(也即用户样本有限),无法基于直接获取到的用户数据作为用于预测潜在客户的预测模型的样本数据。此时,可以获取该产品的近似产品的历史用户数据集作为样本数据进行预测模型训练。而且可以从近似产品的历史用户数据集中根据所述预测模型挖掘出潜在客户。
在一实施例中,初始因子获取单元110包括:
目标产品属性数据集获取单元,用于若检测到用户端上传的当前产品属性数据,在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集;
历史用户数据集获取单元,用于获取所述目标产品属性数据集中各目标产品属性数据分别对应的目标产品历史用户数据集,以组成历史用户数据集。
在本实施例中,为了获取新产品(也即当前产品)的相关类似产品,可以在服务器中先获取当前产品对应的当前产品属性数据,例如该当前产品属性数据包括产品名称、产品类型(如健康险产品等)、产品特征文本(在产品特征文本中有关于该产品主要特征的描述)。
此时为了在服务器的本地产品数据库中获取当前产品的较相似目标产品,此时可以计算当前产品属性数据与本地产品数据库中各个产品属性数据的相似度,从而在在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。
由于目标产品属性数据集中每一个目标产品属性对应一款近似产品,而每一款近似产品有对应一个目标产品历史用户数据集,那么由这些近似产品各自对应的目标产品历史用户数据集共同组成了历史用户数据集。
在一实施例中,所述目标产品属性数据集获取单元,包括:
属性判断单元,用于判断在本地产品数据库中是否存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据;
初步筛选单元,用于若在本地产品数据库中存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据,获取对应的初步筛选产品属性数据以组成初步筛选产品属性数据集;
产品语义向量获取单元,用于获取初步筛选产品属性数据集中每一个初步筛选产品属性数据的产品特征文本,获取每一产品特征文本对应的产品语义向量;
数据相似度计算单元,用于获取所述当前产品属性数据的产品特征文本对应的当前产品语义向量,计算所述当前产品语义向量与每一产品特征文本对应的产品语义向量之间的欧氏距离作为数据相似度,获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。
在本实施例中,当获取了当前产品属性数据后,是可以获知其对应的产品类型和产品特征文本。为了在本地产品数据库中筛选出较近似产品,可以先在本地产品数据库中筛选出与当前产品属性数据的产品类型相同的初步筛选产品属性数据,以组成初步筛选产品属性数据集;之后,获取初步筛选产品属性数据集中每一个初步筛选产品属性数据的产品特征文本及其对应的产品语义向量;然后,获取所述当前产品属性数据的产品特征文本对应的当前产品语义向量,这样即可计算当前产品语义向量与每一产品语义向量对应的欧氏距离,从而作为当前产品属性数据与初步筛选产品属性数据集中各个初步筛选产品属性数据之间的数据相似度;最后在初步筛选产品属性数据集中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。通过上述方式即可快速且准确的在服务器的本地产品数据库中获取当前产品的较相似目标产品。
特征因子获取单元120,用于对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集。
在本实施例中,当获取了多个较近似产品的目标产品历史用户数据集所组成历史用户数据集后,可以先通过自动学习提取各历史用户数据的特征信息因子集。上述由初始信息因子集进行自动特征生成的过程可以参考图3。
如图3所示,最下面一层是输入层,ij代表初始信息因子集的其中一个信息因子,fn是进行特征工程后可得到的特征层。从ij到fn是一个自动特征生成的过程,在这一将初始信息因子ij进行变换,得到更利于预测潜在客户的特征信息因子fn。ij和fn之间可以是某种神经网络结构,如Wide&Deep、Deep&Cross等,也可以是其他的机器学习模型。
在一实施例中,特征因子获取单元120还用于:
将每一条历史用户数据对应的初始信息因子集输入至全连接神经网络进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;其中,所述全连接神经网络包括1个隐藏层。
在本申请中,以只有一个隐藏层的全连接神经网络为例来说明上述进行自动特征生成。这一只有一个隐藏层的全连接神经网络所涉及的公式参考上述的(1)和(2)。在式(1)和式(2)中w和b是神经网络的参数,relu()是激活函数,图3中的ts是当前产品的模型输出,该当前产品由于样本量较小,不适合直接训练模型。tm表示较近似产品的模型输出,借助较近似产品的历史用户数据集,预训练模型。然后利用预训练获得的特征信息因子fn,在当前产品的有限数据上进行再训练,最后挖掘出潜在用户。
其中,ts和tm满足如式(3)和式(4)中的关系,在式(3)和式(4)中激活函数σ()为sigmoid函数,输出值在0到1之间,代表可能性。φ和ρ是输出神经元的参数。通过这一方式提取的特征因子,不仅实现了特征降维,而且所挑选出来的因子更具数据代表性。
当前训练集获取单元130,用于获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集。
在本实施例中,例如当前产品是健康险产品A,由于获得健康险产品A的用户很少,直接训练模型效果会比较差。考虑企业的相关健康险产品,如健康险产品B、健康险产品C等,利用在一段时间内上述产品的用户数据训练模型,可以使得特征信息因子fn直接包含客户的重要信息。利用特征信息因子fn在当前产品的小样本上训练模型,由于充分扩展了当前产品的小样本(即在当前产品的小样本上增加了近似产品对应的大量用户的特征信息因子fn)而得到了样本数据量充足的样本集,此时再对当前产品的潜在用户预测预测模型进行训练,得到的预测模型可以获得较理想的预测效果。
模型训练单元140,用于根据所述当前训练集进行模型训练,得到预测模型。
在本实施例中,当获取了当前训练集后,可能包括多个较近似产品的目标产品历
史用户数据集,可以参考多任务学习的思想来综合较近似产品的目标产品历史用户数据集
来对待训练预测模型进行训练。在上述预测模型的训练过程中,训练阶段的损失函数如上
述的式(5)。其中,是L2正则的相对权重,可在训练时利用网格搜索等方法调节。、
分别为相关产品m的实际标签和预测概率。是各个相关产品重要性的相对权重,可根据
经验人工设定。如果各个相关产品重要性相当,则损失函数为各相关产品等权重相加。
在基于当前训练集对完成对待训练预测模型的训练后,可以将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存,与当前产品相似的其他缺少用户历史数据的其他产品对应的其他待训练预测模型直接用各历史用户数据对应的特征信息因子集,可以节省计算的消耗。同时特征信息因子集还可以方便其他客户相关模型的使用。
在一实施例中,基于小样本迁移学习的数据推送装置100还包括:
模型结构参数存储单元,用于将所述全连接神经网络的网络结构和参数进行保存。
其中,将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存(例如保存在服务器本地的数据库)后,这种情况适用于后续对模型训练时效性要求高的过程。也就是需要训练与当前产品相似的其他缺少用户历史数据的其他产品对应的其他待训练预测模型时,直接将这些保存的特征信息因子集作为训练集使用即可,无需通过如特征因子获取单元120中的特征工程处理的过程,节省计算的消耗。
在一实施例中,基于小样本迁移学习的数据推送装置100还包括:
特征信息因子保存单元,用于将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存。
其中,另一种情况是后续对模型训练时效性要求不高的过程,此时不用保存特征信息因子集,而是保存特征因子获取单元120中的特征工程处理的过程中所使用的值包括一个隐藏层的全连接神经网络的网络结构和参数计算。需要对其他待训练预测模型训练时利用ij和fn之间的网络结构和参数计算fn,这种方法由于仅仅只保存了网络结构和参数在服务器本地,没有保存大量的特征信息因子集,从而可以节省数据存储空间,也即实现了模型的重复利用。
预测单元150,用于获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果。
在本实施例中,当训练得到了预测模型后,此时可以获取与当前产品为较近似产品关系的另一产品的另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果。其中,所述预测结果的取值范围是[0,1]。例如,历史用户数据对应的分类结果为1时(其超出预先设置的预测结果阈值如0.7),表示该历史用户数据对应的用户可以被选中为潜在用户(即该用户可以被发送推荐信息以进行产品推广);历史用户数据对应的分类结果为0时(其未超出预先设置的预测结果阈值如0.7),表示该历史用户数据对应的用户不是潜在用户(即该用户无需被发送推荐信息)。
待推荐用户清单获取单元160,用于获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
在本实施例中,当获取了满足预设条件(例如将预设条件设置为预测结果超出预设的预测结果阈值)的历史用户数据以组成待推荐用户清单,即挖掘出了潜在用户对应的用户数据,此时可以在服务器本地的数据库中查询待推荐用户清单中各目标用户数据分别对应的目标接收端,从而将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。通过这一方式,实现了更精准的推送信息。
在一实施例中,基于小样本迁移学习的数据推送装置100还包括:
用户信息提取单元,用于若接收到目标接收端发送的确认用户信息,将从所述确认用户信息中提取的目标用户信息存储至本地的用户数据表。
在本实施例中,当目标接收端接收到服务器发送的待推荐信息后,若对该待推荐信息有反馈意向,此时可以填写确认用户信息(例如包括用户姓名、电话、购买意向等),之后将确认用户信息发送至服务器,由服务器从所述确认用户信息中提取的目标用户信息后存储至本地的用户数据表。通过这一方式,实现了对用户信息的有效采集和保存。
该装置利用相似产品数据对应的历史用户数据进行迁移训练得到预测模型,通过预测模型在其他历史用户数据集中挖掘出潜在目标用户,从而更加准确的进行信息推送,降低了信息推送量和网络带宽占用。
上述基于小样本迁移学习的数据推送装置可以实现为计算机程序的形式,该计算机程序可以在如图5所示的计算机设备上运行。
请参阅图5,图5是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图5,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于小样本迁移学习的数据推送方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于小样本迁移学习的数据推送方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图5中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的基于小样本迁移学习的数据推送方法。
本领域技术人员可以理解,图5中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图5所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元 (CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路 (Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的基于小样本迁移学习的数据推送方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备 ( 可以是个人计算机,服务器,或者网络设备等 ) 执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U 盘、移动硬盘、只读存储器 (ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于小样本迁移学习的数据推送方法,其特征在于,包括:
获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集;
对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;
获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集;
根据所述当前训练集进行模型训练,得到预测模型;
获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果;以及
获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
2.根据权利要求1所述的基于小样本迁移学习的数据推送方法,其特征在于,所述获取历史用户数据集,包括:
若检测到用户端上传的当前产品属性数据,在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集;
获取所述目标产品属性数据集中各目标产品属性数据分别对应的目标产品历史用户数据集,以组成历史用户数据集。
3.根据权利要求2所述的基于小样本迁移学习的数据推送方法,其特征在于,所述在本地产品数据库中获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集,包括:
判断在本地产品数据库中是否存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据;
若在本地产品数据库中存在有与当前产品属性数据的产品类型相同的初步筛选产品属性数据,获取对应的初步筛选产品属性数据以组成初步筛选产品属性数据集;
获取初步筛选产品属性数据集中每一个初步筛选产品属性数据的产品特征文本,获取每一产品特征文本对应的产品语义向量;
获取所述当前产品属性数据的产品特征文本对应的当前产品语义向量,计算所述当前产品语义向量与每一产品特征文本对应的产品语义向量之间的欧氏距离作为数据相似度,获取与所述当前产品属性数据的数据相似度超出预先设置的相似度阈值的目标产品属性数据,以组成目标产品属性数据集。
4.根据权利要求1所述的基于小样本迁移学习的数据推送方法,其特征在于,所述对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集,包括:
将每一条历史用户数据对应的初始信息因子集输入至全连接神经网络进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;其中,所述全连接神经网络包括1个隐藏层。
5.根据权利要求1所述的基于小样本迁移学习的数据推送方法,其特征在于,所述获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集之后,还包括:
将所述当前训练集中每一历史用户数据对应的特征信息因子集进行保存。
6.根据权利要求4所述的基于小样本迁移学习的数据推送方法,其特征在于,所述将每一条历史用户数据对应的初始信息因子集输入至全连接神经网络进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集之后,还包括:
将所述全连接神经网络的网络结构和参数进行保存。
7.根据权利要求1所述的基于小样本迁移学习的数据推送方法,其特征在于,还包括:
若接收到目标接收端发送的确认用户信息,将从所述确认用户信息中提取的目标用户信息存储至本地的用户数据表。
8.一种基于小样本迁移学习的数据推送装置,其特征在于,包括:
初始因子获取单元,用于获取历史用户数据集,并提取所述历史用户数据集中每一条历史用户数据对应的初始信息因子集;
特征因子获取单元,用于对每一条历史用户数据对应的初始信息因子集进行自动特征生成,得到与每一条历史用户数据对应的特征信息因子集;
当前训练集获取单元,用于获取当前用户数据集,将所述当前用户数据集与每一条历史用户数据对应的特征信息因子集组合得到当前训练集;
模型训练单元,用于根据所述当前训练集进行模型训练,得到预测模型;
预测单元,用于获取另一历史用户数据集,将所述另一历史用户数据集中各历史用户数据的信息因子集分别输入至所述预测模型进行预测运算,得到与所述另一历史用户数据集中各历史用户数据分别对应的预测结果;以及
待推荐用户清单获取单元,用于获取满足预设条件的历史用户数据组成待推荐用户清单,将在本地所获取的待推荐信息发送至所述待推荐用户清单中各用户对应的目标接收端。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于小样本迁移学习的数据推送方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于小样本迁移学习的数据推送方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011424422.3A CN112231584B (zh) | 2020-12-08 | 2020-12-08 | 基于小样本迁移学习的数据推送方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011424422.3A CN112231584B (zh) | 2020-12-08 | 2020-12-08 | 基于小样本迁移学习的数据推送方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112231584A true CN112231584A (zh) | 2021-01-15 |
CN112231584B CN112231584B (zh) | 2021-03-26 |
Family
ID=74124490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011424422.3A Active CN112231584B (zh) | 2020-12-08 | 2020-12-08 | 基于小样本迁移学习的数据推送方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112231584B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112835882A (zh) * | 2021-01-29 | 2021-05-25 | 北京百家科技集团有限公司 | 信息预测方法、装置、电子设备和存储介质 |
CN112989702A (zh) * | 2021-03-25 | 2021-06-18 | 河北工业大学 | 一种装备性能分析与预测的自学习方法 |
CN113138977A (zh) * | 2021-04-22 | 2021-07-20 | 康键信息技术(深圳)有限公司 | 交易转化分析方法、装置、设备及存储介质 |
CN113256368A (zh) * | 2021-04-30 | 2021-08-13 | 索信达(北京)数据技术有限公司 | 产品推送方法、装置、计算机设备和存储介质 |
CN113344196A (zh) * | 2021-06-01 | 2021-09-03 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
CN113656692A (zh) * | 2021-08-17 | 2021-11-16 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113934871A (zh) * | 2021-10-29 | 2022-01-14 | 北京达佳互联信息技术有限公司 | 多媒体推荐模型的训练方法、装置、电子设备及存储介质 |
CN114997263A (zh) * | 2022-04-20 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于机器学习的结训率分析方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241440A (zh) * | 2018-09-29 | 2019-01-18 | 北京工业大学 | 一种基于深度学习的面向隐式反馈推荐方法 |
CN109670590A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
US10318864B2 (en) * | 2015-07-24 | 2019-06-11 | Microsoft Technology Licensing, Llc | Leveraging global data for enterprise data analytics |
CN110378726A (zh) * | 2019-07-02 | 2019-10-25 | 阿里巴巴集团控股有限公司 | 一种目标用户的推荐方法、系统以及电子设备 |
US20190370601A1 (en) * | 2018-04-09 | 2019-12-05 | Nutanix, Inc. | Machine learning model that quantifies the relationship of specific terms to the outcome of an event |
CN111311332A (zh) * | 2020-02-28 | 2020-06-19 | 北京互金新融科技有限公司 | 用户数据的处理方法和装置 |
-
2020
- 2020-12-08 CN CN202011424422.3A patent/CN112231584B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10318864B2 (en) * | 2015-07-24 | 2019-06-11 | Microsoft Technology Licensing, Llc | Leveraging global data for enterprise data analytics |
CN109670590A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
US20190370601A1 (en) * | 2018-04-09 | 2019-12-05 | Nutanix, Inc. | Machine learning model that quantifies the relationship of specific terms to the outcome of an event |
CN109241440A (zh) * | 2018-09-29 | 2019-01-18 | 北京工业大学 | 一种基于深度学习的面向隐式反馈推荐方法 |
CN110378726A (zh) * | 2019-07-02 | 2019-10-25 | 阿里巴巴集团控股有限公司 | 一种目标用户的推荐方法、系统以及电子设备 |
CN111311332A (zh) * | 2020-02-28 | 2020-06-19 | 北京互金新融科技有限公司 | 用户数据的处理方法和装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112835882A (zh) * | 2021-01-29 | 2021-05-25 | 北京百家科技集团有限公司 | 信息预测方法、装置、电子设备和存储介质 |
CN112835882B (zh) * | 2021-01-29 | 2024-02-02 | 北京百家科技集团有限公司 | 信息预测方法、装置、电子设备和存储介质 |
CN112989702A (zh) * | 2021-03-25 | 2021-06-18 | 河北工业大学 | 一种装备性能分析与预测的自学习方法 |
CN112989702B (zh) * | 2021-03-25 | 2022-08-02 | 河北工业大学 | 一种装备性能分析与预测的自学习方法 |
CN113138977A (zh) * | 2021-04-22 | 2021-07-20 | 康键信息技术(深圳)有限公司 | 交易转化分析方法、装置、设备及存储介质 |
CN113256368A (zh) * | 2021-04-30 | 2021-08-13 | 索信达(北京)数据技术有限公司 | 产品推送方法、装置、计算机设备和存储介质 |
WO2022252960A1 (zh) * | 2021-06-01 | 2022-12-08 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
CN113344196A (zh) * | 2021-06-01 | 2021-09-03 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
CN113656692A (zh) * | 2021-08-17 | 2021-11-16 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113656692B (zh) * | 2021-08-17 | 2023-05-30 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113934871A (zh) * | 2021-10-29 | 2022-01-14 | 北京达佳互联信息技术有限公司 | 多媒体推荐模型的训练方法、装置、电子设备及存储介质 |
CN113934871B (zh) * | 2021-10-29 | 2022-09-09 | 北京达佳互联信息技术有限公司 | 多媒体推荐模型的训练方法、装置、电子设备及存储介质 |
CN114997263A (zh) * | 2022-04-20 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于机器学习的结训率分析方法、装置、设备及存储介质 |
CN114997263B (zh) * | 2022-04-20 | 2024-05-07 | 平安科技(深圳)有限公司 | 基于机器学习的结训率分析方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112231584B (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112231584B (zh) | 基于小样本迁移学习的数据推送方法、装置及计算机设备 | |
CN111651704B (zh) | 一种内容推荐方法、计算设备以及存储介质 | |
CN109360057B (zh) | 信息推送方法、装置、计算机设备及存储介质 | |
CN111967971B (zh) | 银行客户数据处理方法及装置 | |
US10552863B1 (en) | Machine learning approach for causal effect estimation | |
CN112765480A (zh) | 一种信息推送方法、装置及计算机可读存储介质 | |
CN111783873A (zh) | 基于增量朴素贝叶斯模型的用户画像方法及装置 | |
CN110598120A (zh) | 基于行为数据的理财推荐方法及装置、设备 | |
US11907862B2 (en) | Response prediction for electronic communications | |
CN114118287A (zh) | 样本生成方法、装置、电子设备以及存储介质 | |
CN112328876A (zh) | 基于知识图谱的电子卡片生成推送方法、装置 | |
CN114065750A (zh) | 商品信息匹配、发布方法及其装置、设备、介质、产品 | |
CN112288554A (zh) | 商品推荐方法和装置、存储介质及电子装置 | |
CN113592593A (zh) | 序列推荐模型的训练及应用方法、装置、设备及存储介质 | |
CN113822390B (zh) | 用户画像构建方法、装置、电子设备和存储介质 | |
CN115345669A (zh) | 文案生成方法、装置、存储介质及计算机设备 | |
CN115795156A (zh) | 物料召回和神经网络训练方法、装置、设备及存储介质 | |
CN115185606A (zh) | 业务配置参数的获得方法、装置、设备及存储介质 | |
CN113409096A (zh) | 目标对象识别方法、装置、计算机设备及存储介质 | |
CN113344060A (zh) | 文本分类模型训练方法、诉讼状分类方法及装置 | |
CN111144935A (zh) | 基于大数据的睡眠会员唤醒方法及系统、服务器及介质 | |
CN117235371A (zh) | 视频推荐方法、模型训练方法及装置 | |
CN116627760A (zh) | 一种基于用户行为信息的匹配度确定方法、装置及介质 | |
CN114021003A (zh) | 一种序列推荐方法、装置及设备 | |
CN114677168A (zh) | 一种资源推荐方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |