CN112132260B - 神经网络模型的训练方法、调用方法、设备及存储介质 - Google Patents

神经网络模型的训练方法、调用方法、设备及存储介质 Download PDF

Info

Publication number
CN112132260B
CN112132260B CN202010918143.6A CN202010918143A CN112132260B CN 112132260 B CN112132260 B CN 112132260B CN 202010918143 A CN202010918143 A CN 202010918143A CN 112132260 B CN112132260 B CN 112132260B
Authority
CN
China
Prior art keywords
polynomial
neural network
network model
training
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010918143.6A
Other languages
English (en)
Other versions
CN112132260A (zh
Inventor
邵俊
张磊
曹新建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Suoxinda Data Technology Co ltd
Original Assignee
Shenzhen Suoxinda Data Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Suoxinda Data Technology Co ltd filed Critical Shenzhen Suoxinda Data Technology Co ltd
Priority to CN202010918143.6A priority Critical patent/CN112132260B/zh
Publication of CN112132260A publication Critical patent/CN112132260A/zh
Application granted granted Critical
Publication of CN112132260B publication Critical patent/CN112132260B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种神经网络模型的训练方法、调用方法、设备及存储介质,该方法包括:获取训练样本数据;将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式;根据训练后的每个所述多项式,完成所述神经网络模型训练。该神经网络模型兼顾了模型的精度和可解释性。

Description

神经网络模型的训练方法、调用方法、设备及存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种神经网络模型的训练方法、调用方法、设备及存储介质。
背景技术
在智能推荐、智能风控等二分类场景中,通常采用逻辑回归模型、复杂机器学习模型等模型进行二分类处理,如进行推荐或不推荐,通过或拒绝等。逻辑回归模型,简单易用,容易理解,模型的可解释性强,但是逻辑回归模型的精度低,输出结果的精准性不高。复杂机器学习模型,其精度高,输出结果的精准性高,但是复杂机器学习模型的可解释性弱,人们无法理解模型输出结果的原因,存在不可解释性。
因此,如何兼顾模型的精度以及可解释性成为亟需解决的问题。
发明内容
本申请实施例提供一种神经网络模型的训练方法、调用方法、设备及存储介质,可以实现兼顾模型的精度以及可解释性。
第一方面,本申请实施例提供了一种神经网络模型的训练方法,包括:
获取训练样本数据;
将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式;
根据训练后的每个所述多项式,完成所述神经网络模型训练。
第二方面,本申请实施例提供了一种神经网络模型的调用方法,所述神经网络模型为如上述的神经网络模型,所述方法包括:
获取准推荐用户名单中每个用户对应的用户特征数据;
将所述用户特征数据输入所述神经网络模型,输出每个用户对应的推荐概率;
根据每个用户对应的所述推荐概率,确定推荐用户名单,以根据所述推荐用户名单进行用户推荐。
第三方面,本申请实施例还提供了一种计算机设备,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如上述的神经网络模型的训练方法;或者,实现如上述的神经网络模型的调用方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序被处理器执行时使所述处理器实现上述的神经网络模型的训练方法;或者,实现如上述的神经网络模型的调用方法。
本申请实施例提供了一种神经网络模型的训练方法、装置、计算机设备及计算机可读存储介质,通过获取训练样本数据,并将该训练样本数据多次输入预设的神经网络模型,该神经网络模型包括多个多项式,且多个多项式中包括高阶多项式,依次对该神经网络模型中的每个多项式进行训练,根据训练后的每个多项式,完成神经网络模型训练。由于该神经网络模型具有训练后的包含高阶多项式的多个多项式,该模型输出结果的精准性高,确保了模型的精度;而且,每个多项式也具有可解释性,因而确保了模型的可解释性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种神经网络模型的训练方法的步骤示意流程图;
图2是本申请实施例提供的一种对神经网络模型中的每个多项式进行训练的步骤示意流程图;
图3是本申请实施例提供的一种第一多项式对应模型的输入输出示意图;
图4是本申请实施例提供的一种第一多项式对应模型的可解释性示意图;
图5是本申请实施例提供的一种对神经网络模型中的第一多项式进行训练的步骤示意流程图;
图6是本申请实施例提供的一种第二多项式对应模型的输入输出示意图;
图7是本申请实施例提供的一种第二多项式对应模型的可解释性示意图;
图8是本申请实施例提供的一种决策树示意图;
图9是本申请实施例提供的一种对神经网络模型进行测试的步骤示意流程图;
图10是本申请实施例提供的一种神经网络模型的调用方法的步骤示意流程图;
图11是本申请实施例提供的一种计算机设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
在智能推荐、智能风控等二分类场景中,通常采用逻辑回归模型、复杂机器学习模型等模型进行二分类处理,如进行推荐或不推荐,通过或拒绝等。逻辑回归模型,简单易用,容易理解,模型的可解释性强,但是逻辑回归模型的精度低,输出结果的精准性不高。复杂机器学习模型,其精度高,输出结果的精准性高,但是复杂机器学习模型的可解释性弱,人们无法理解模型输出结果的原因,存在不可解释性。
对于模型的可解释性,有以下几个用途:1、在模型出现逻辑谬误的时候可以及时诊断,发现原因并做出调整;2、在很多场景如营销或者医疗,对模型的理解有助于对症下药,例如在智能推荐的场景中,知道推荐的原因有助于制定针对性的推荐策略,说服用户去购买推荐的物品,并帮助用户做出决策;在客户流失预警模型中,知道用户被预警的原因,可制定针对性的挽留方案;在智能风控场景中,告知用户拒绝原因有助于提升用户体验,减少客户投诉,并指导金融机构针对性地调整获客渠道以提升用户质量、提升审批通过率;3、在许多场景下,可解释性是模型能被使用的必须要求,必须使用的要求可能来源于客户、监管机构、中介机构或公司自身。例如,在智能推荐的场景中,给出向客户推荐某个产品的原因是因为需要向用户解释为什么系统会推荐某个特定的物品,增强用户对推荐系统的信任,并响应用户的需求;在金融风控这样的强监管领域,没有解释性的模型是难以得到使用的,因为其既不符合监管机构对于风控模型的要求,也不利于金融机构自身的风险管控,而且如果拒绝客户来源于中介推荐,那么也通常需要给予中介机构合理的拒绝理由。因此,可解释性对于模型也是十分关键的。
由上可知,常用的逻辑回归模型、复杂机器学习模型都无法兼顾模型的精度以及可解释性。
为了解决上述问题,本申请的实施例提供了一种神经网络模型的训练方法、调用方法、设备及存储介质,用于实现兼顾模型的精度以及可解释性。其中,该神经网络模型的训练方法及调用方法可以应用于计算机设备,如服务器中,该服务器可以为单台的服务器,也可以为由多台服务器组成的服务器集群。
请参阅图1,图1是本申请一实施例提供的神经网络模型的训练方法的流程示意图。
如图1所示,该神经网络模型的训练方法具体包括步骤S101至步骤S103。
S101、获取训练样本数据。
示例性的,该训练样本数据为预设历史时间段内相关用户的用户特征数据。其中,用户特征数据包括但不限于用户基本属性、资产数据、交易数据、活跃数据等,用户基本属性包括年龄、性别等数据,资产数据包括账户余额等数据,交易数据包括近段时间内(如近7天内)消费金额等数据,活跃数据包括近段时间内(如近一个月内)终端(如手机)app登录次数等数据。
例如,以智能推荐应用场景为例,采集预设历史时间段内有过推荐行为的用户作为建模样本,获取这些用户对应的用户特征数据,确定为训练样本数据。需要说明的是,该预设历史时间段可根据实际情况进行灵活设置,在此不作具体限制。
在一些实施例中,获取到训练样本数据之后,先对训练样本数据进行数据清洗。其中,数据清洗包括数据去重、缺失值填补、归一化和标准化、将文本型变量数据转换为数值型变量数据等。
S102、将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式。
相比于逻辑回归模型、复杂机器学习模型,该预设的神经网络模型包括多个多项式,其中,神经网络模型的多个多项式中包括高阶多项式。例如,该预设的神经网络模型包括但不限于至少一个一阶多项式、至少一个二阶多项式、至少一个三阶或三阶以上多项式等。每个多项式包括多项式对应的参数,不同多项式对应不同的参数。
在获得训练样本数据之后,基于该训练样本数据对神经网络模型进行训练,示例性的,依次对神经网络模型中的每一个多项式进行训练。每一次将训练样本数据输入神经网络模型,基于该训练样本数据,对神经网络模型的其中之一多项式进行训练,获得神经网络模型的每个多项式的参数。例如,在基于该训练样本数据,对神经网络模型中的一阶多项式进行训练后,获得一阶多项式中每一项的参数。
S103、根据训练后的每个所述多项式,完成所述神经网络模型训练。
通过对每个多项式进行训练,获得每个多项式的参数,基于每个获得参数的多项式,完成神经网络模型的训练。在一些实施例中,将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练可以包括:将所述神经网络模型中的每个多项式依次确定为当前待训练的多项式;若所述多个多项式中不存在已训练的多项式,则将所述神经网络模型中除所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练;若所述多个多项式中存在已训练的多项式,则将所述神经网络模型中除所述已训练的多项式和所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练。
也即,依次将神经网络模型中的每个多项式确定为当前待训练的多项式,若在对当前待训练的多项式进行训练之前,还未对其他多项式进行训练,也即当前待训练的多项式是首个进行训练的多项式,神经网络模型的多个多项式中不存在已训练的多项式,此时,将神经网络模型中除当前待训练的多项式以外的其他多项式置零,也即将神经网络模型当做只包含当前待训练的多项式,将训练样本数据输入神经网络模型,对当前待训练的多项式进行训练,获得当前待训练的多项式的参数。若在对当前待训练的多项式进行训练之前,已经对其他多项式进行训练,也即当前待训练的多项式不是首个进行训练的多项式,神经网络模型的多个多项式中存在已训练的多项式,此时,将神经网络模型中除当前待训练的多项式和已训练的多项式以外的其他多项式置零,也即将神经网络模型当做只包含已训练的多项式和当前待训练的多项式,将训练样本数据输入神经网络模型,对当前待训练的多项式进行训练,获得当前待训练的多项式的参数。
示例性的,神经网络模型的多个多项式包括第一多项式、第二多项式和第三多项式,其中,第一多项式为一阶多项式,第二多项式为二阶多项式,第三多项式为三阶或三阶以上多项式。如图2所示,步骤S102包括:子步骤S1021至子步骤S1023。
S1021、将所述第二多项式和所述第三多项式置零,输入所述训练样本数据至所述神经网络模型,对所述第一多项式进行训练。
示例性的,一阶的第一多项式为∑fi(Xi),其中,fi为如图3所示的神经网络,Xi为不同的用户特征数据,也即训练样本数据。首先对一阶的第一多项式∑fi(Xi)进行训练,将第二多项式和第三多项式置零,则模型相当于只包含第一多项式∑fi(Xi)的神经网络模型,例如,如图3所示,只有Xi一个输入节点,并通过该神经网络模型的过程输出fi(Xi)的值。例如,使用Adam Optimizer对每个Xi训练出fi(Xi)。通过将训练样本数据输入神经网络模型,对第一多项式∑fi(Xi)进行训练,获得第一多项式∑fi(Xi)的神经网络参数,从而得到其表达式。
对于只有一个输入节点的神经网络模型,可以通过如图4所示的趋势图来展示Xi对预测结果的影响,所以,该神经网络模型具有可解释性。例如,如图4所示,展示了Xi对预测结果的作用先下降后上升。
示例性的,如图5所示,步骤S1021之后还可以包括步骤S1024至步骤S1026。
S1024、计算训练后的所述第一多项式中每个第一单项式对应的范数,其中,所述第一多项式包括多个所述第一单项式。
示例性的,第一多项式∑fi(Xi)包括多个第一单项式fi(Xi),对于该多个第一单项式fi(Xi),计算获得每个第一单项式fi(Xi)对应的范数||fi(Xi)||2为:
Figure BDA0002665763040000071
S1025、选取第一数量的所述第一单项式,其中,每个选取的所述第一单项式对应的范数大于未选取的所述第一单项式对应的范数,且所述第一数量的所述第一单项式对应的范数之和与全部所述第一单项式对应的范数之和的比值大于预设阈值。
示例性的,在计算获得每个第一单项式fi(Xi)对应的范数||fi(Xi)||2之后,将各个第一单项式fi(Xi)按照其对应范数||fi(Xi)||2从大到小或者从小到大的顺序进行排列,比如,按照对应范数||fi(Xi)||2从大到小的顺序排列,选取排列在前的第一数量s1的第一单项式fi(Xi),第一数量s1的第一单项式fi(Xi)满足条件:第一数量s1的第一单项式fi(Xi)对应的范数之和
Figure BDA0002665763040000081
与所有第一单项式对应的范数之和∑||fi(Xi)||2的比值大于预设阈值,其中,预设阈值为取值范围在0至1之间的数值。示例性的,该预设阈值设置为0.9,也即,所选取的第一数量s1的第一单项式fi(Xi)满足:
Figure BDA0002665763040000082
可以理解的是,该预设阈值还可以根据实际情况设置为其他比值,在此不作具体限制。
S1026、根据选取的所述第一数量的所述第一单项式,确定训练完成后的所述第一多项式。
也即,将选取的第一数量s1的第一单项式fi(Xi)对应的
Figure BDA0002665763040000083
替代∑fi(Xi),确定为训练完成后的第一多项式。
S1022、将所述第三多项式置零,并基于训练后的所述第一多项式,输入所述训练样本数据至所述神经网络模型,对所述第二多项式进行训练。
示例性的,二阶的第二多项式为∑hij(Xi,Xj),其中,hij(Xi,Xj)为第二多项式中的每项式,Xi、Xj为不同的用户特征数据,也即训练样本数据。对于∑hij(Xi,Xj),例如,如图6所示,只有Xi和Xj两个输入节点,并通过该神经网络模型的过程输出hij(Xi,Xj)的值。例如,使用Adam Optimizer对每个(Xi,Xj)训练出hij(Xi,Xj)。
在一些实施例中,基于训练后已经获得神经网络参数的第一多项式∑fi(Xi),将第三多项式置零,神经网络模型相当于只包含第一多项式∑fi(Xi)和第二多项式∑hij(Xi,Xj)的模型,并且第一多项式∑fi(Xi)已经通过训练是已知的,将训练样本数据输入神经网络模型,对第二多项式∑hij(Xi,Xj)进行训练,获得第二多项式∑hij(Xi,Xj)的神经网络参数,从而得到第二多项式∑hij(Xi,Xj)的表达式。
在一些实施例中,基于经过选取之后得到的
Figure BDA0002665763040000091
并将第三多项式置零,将训练样本数据输入神经网络模型,对第二多项式∑hij(Xi,Xj)进行训练,获得第二多项式∑hij(Xi,Xj)的神经网络参数。
示例性的,第二多项式∑hij(Xi,Xj)包括多个第二单项式hij(Xi,Xj),对于该多个第二单项式hij(Xi,Xj),基于每个第二单项式hij(Xi,Xj)对应的神经网络参数,计算获得每个第二单项式hij(Xi,Xj)对应的范数||hij(Xi,Xj)||2为:
Figure BDA0002665763040000092
在计算获得每个第二单项式hij(Xi,Xj)对应的范数||hij(Xi,Xj)||2之后,将各个第二单项式hij(Xi,Xj)按照其对应范数||hij(Xi,Xj)||2从大到小或者从小到大的顺序进行排列,比如,按照对应范数||hij(Xi,Xj)||2从大到小的顺序排列,选取排列在前的第二数量s2的第二单项式hij(Xi,Xj),第二数量s2的第二单项式hij(Xi,Xj)满足条件:第二数量s2的第二单项式hij(Xi,Xj)对应的范数之和
Figure BDA0002665763040000093
与所有第二单项式对应的范数之和∑||hij(Xi,Xj)||2的比值大于预设值,其中,预设值为取值范围在0至1之间的数值。示例性的,该预设值设置为0.9,也即,所选取的第二数量s2的第二单项式hij(Xi,Xj)满足:
Figure BDA0002665763040000094
可以理解的是,该预设值还可以根据实际情况设置为其他比值,在此不作具体限制。
之后,将选取的第二数量s2的第二单项式hij(Xi,Xj)对应的
Figure BDA0002665763040000095
替代∑hij(Xi,Xj),确定为训练完成后的第二多项式。
对于只有两个输入节点的神经网络模型,可以通过如图7所示的热力图来展示Xi、Xj联合对预测结果的影响,所以也具有可解释性。例如,如图7所示,展示了在Xi一致的情况下,随着Xj越来越大,其对结果的影响呈现下降的趋势(对应图中纵轴方向上灰度值递减);而在Xj一致的情况下,随着Xi越来越大,其对预测结果的影响先下降然后上升(对应图中横轴方向上灰度值先减后增)。
S1023、基于训练后的所述第一多项式以及训练后的所述第二多项式,将所述训练样本数据输入所述神经网络模型,对所述第三多项式进行训练。
在一些实施例中,基于训练后已获得神经网络参数的第一多项式Σfi(Xi),以及训练后已获得神经网络参数的第二多项式∑hij(Xi,Xj),将训练样本数据输入神经网络模型,对神经网络模型的第三多项式进行训练,获得第三多项式的参数。
在一些实施例中,基于经过选取后得到的
Figure BDA0002665763040000101
以及经过选取之后得到的
Figure BDA0002665763040000102
将训练样本数据输入神经网络模型,对神经网络模型的第三多项式进行训练,获得第三多项式的参数。
在一些实施例中,神经网络模型的第三多项式为高阶决策树规则函数多项式
Figure BDA0002665763040000103
其中,rm(Xj)为决策树规则函数,M为树的个数,am为第三多项式的参数,更具体地,rm(Xj)可以写成:
Figure BDA0002665763040000104
其中,I为示性函数,在事件成立时I取1,在事件不成立时I取0。sjm为用户特征数据Xj的一个取值区间,该取值区间的截取源自于决策树规则。
示例性的,在生成高阶决策树规则函数多项式的过程中,采用随机森林算法生成多棵决策树,对应于高阶决策树规则函数多项式
Figure BDA0002665763040000105
生成M棵决策树,基于每一棵决策树,选取确定其中对应路径长度大于2的多条路径,所谓路径是从决策树的根节点出发至任意中间节点或叶子节点的路径,经过的分岔的数目即为路径长度。根据选取确定的每一条路径,生成对应的决策树规则函数,其中基于第m棵决策树生成的对应的决策树规则函数记做rm(Xj)。
例如,请参阅图8,假设第m棵树如图8所示,该决策树中利用了三个变量进行决策,分别是balance(账户余额)、age(年龄)、active1m(近一个月活跃次数)。该决策树中对应有6条路径,分别为a(balance>10000)、b(balance<=10000)、a->c(balance>10000、age>30)、a->d(balance>10000、age<=30)、a->d->e(balance>10000、age<=30、active1m>3)、a->d->f(balance>10000、age<=30、active1m<=3),从中选取确定路径长度大于2的路径有:a->d->e和a->d->f,分别生成对应的决策树规则函数为:
r1(Xj)=I(balance>10000)·I(age<=30)·I(activelm>3)
r2(Xj)=I(balance>10000)·I(age<=30)·I(activelm<=3)
根据所生成的决策树规则函数rm(Xj),生成神经网络模型中的高阶决策树规则函数多项式
Figure BDA0002665763040000111
对于
Figure BDA0002665763040000112
以r2(Xj)=I(balance>10000)·I(age<=30)·I(activelm<=3)为例,表示账户余额大于10000,年龄小于30,以及最近1个月账户活跃次数小于等于3这三个条件同时满足,因此也具有可解释性。
通过对第一多项式
Figure BDA0002665763040000113
第二多项式
Figure BDA0002665763040000114
和第三多项式
Figure BDA0002665763040000115
进行训练后,获得训练后的神经网络模型为:
Figure BDA0002665763040000116
其中,y为事件响应的概率,比如,智能风控场景的违约概率,智能推荐场景的购买概率等。
示例性的,神经网络模型训练是通过最优化算法来最小化损失函数,该损失函数通过极大似然估计法得到,损失函数如下:
Figure BDA0002665763040000117
其中N为样本的个数,yn是因变量,表示第n个样本的标签,取值为0或者1,从业务上0表示推荐不成功,1表示推荐成功。
损失函数中,
Figure BDA0002665763040000118
其中:
Figure BDA0002665763040000121
Figure BDA0002665763040000122
表示第n个样本通过神经网络模型预测的能被成功推荐的概率值,Xni表示第n个样本在用户特征数据Xi上的取值。
所以神经网络模型训练的目的即为在合理选择s1、s2的情况下寻找最佳的fi、hij、am使得
Figure BDA0002665763040000123
最小。
在一些实施例中,如图9所示,步骤S103之后还可以包括步骤S104至步骤S106。
S104、获取测试样本数据。
其中,测试样本数据也是用户特征数据。示例性的,通过采集预设历史时间段内相关用户的用户特征数据,并将采集到的用户特征数据按照相应的数据量比例划分为训练样本数据和测试样本数据。该数据量比例可根据实际情况进行灵活设置,在此不作具体限制。比如,将采集到的用户特征数据按照7:3的比例划分为训练样本数据和测试样本数据,也即将采集到的用户特征数据中的十分之七用户特征数据作为训练样本数据,训练样本数据用于对神经网络模型进行训练,将采集到的用户特征数据中的另外十分之三用户特征数据作为测试样本数据,用于对训练完成的神经网络模型进行测试。
综上可知,测试样本数据既可以与训练样本数据同时获取,也可以在神经网络模型训练完成后,再获取测试样本数据,也即测试样本数据只要在对神经网络模型进行测试之前获取到即可,不限于是在训练完成之后获取测试样本数据。
S105、将所述测试样本数据输入所述神经网络模型,对所述神经网络模型进行测试,确定所述测试样本数据对应的AUC值。
S106、根据所述AUC值,确定所述神经网络模型的分类效果,其中,所述AUC值越大,所述神经网络模型的分类效果越佳。
在对神经网络模型训练完成后,将获得的测试样本数据输入训练完成的神经网络模型,对该神经网络模型进行测试,基于测试输出结果,确定测试样本数据对应的AUC(AreaUnder Curve)值。其中,AUC被定义为ROC(receiver operating characteristic curve,接受者操作特性曲线)曲线下与坐标轴围成的面积,ROC曲线是以虚惊概率为横轴,击中概率为纵轴所组成的坐标图,和被试在特定刺激条件下由于采用不同的判断标准得出的不同结果画出的曲线。AUC值为0到1之间的数,AUC值反映神经网络模型训练后的分类效果,AUC值越大,则神经网络模型的分类效果越佳。
上述实施例提供的神经网络模型的训练方法,通过获取训练样本数据,并将该训练样本数据多次输入预设的神经网络模型,该神经网络模型包括多个多项式,且多个多项式中包括高阶多项式,依次对该神经网络模型中的每个多项式进行训练,根据训练后的每个多项式,完成神经网络模型训练。由于该神经网络模型具有训练后的包含高阶多项式的多个多项式,该模型输出结果的精准性高,确保了模型的精度;而且,每个多项式也具有可解释性,因而确保了模型的可解释性。
请参阅图10,图10是本申请一实施例提供的神经网络模型的调用方法的流程示意图。
如图10所示,该神经网络模型的调用方法具体包括步骤S201至步骤S203。
S201、获取准推荐用户名单中每个用户对应的用户特征数据。
本实施例中,以智能推荐场景为例,对调用上述实施例中的神经网络模型进行用户推荐进行说明。示例性的,首先获得准推荐用户名单,其中,准推荐用户名单里包括了多个用户,这多个用户中可能有的用户适宜推荐而有的用户不适宜推荐。对于准推荐用户名单里的用户,获取其中每个用户对应的用户特征数据。用户特征数据包括但不限于用户基本属性、资产数据、交易数据、活跃数据等,用户基本属性包括年龄、性别等数据,资产数据包括账户余额等数据,交易数据包括近段时间内(如近7天内)消费金额等数据,活跃数据包括近段时间内(如近一个月内)终端(如手机)app登录次数等数据。
S202、将所述用户特征数据输入所述神经网络模型,输出每个用户对应的推荐概率。
在获得了每个用户对应的用户特征数据之后,将每个用户对应的用户特征数据输入神经网络模型
Figure BDA0002665763040000131
输出每个用户对应的推荐概率。
S203、根据每个用户对应的所述推荐概率,确定推荐用户名单,以根据所述推荐用户名单进行用户推荐。
获得每个用户对应的推荐概率后,根据每个用户对应的推荐概率确定推荐用户名单,其中,推荐用户名单中的用户均是进行推荐的用户。可以理解的是,将推荐概率大的用户选中,确定为推荐用户名单中的用户。之后根据确定的推荐用户名单进行用户推荐。
在一实施方式中,预先设置一用于选中用户进行用户推荐的预设概率,根据每个用户对应的推荐概率,将每个用户对应的推荐概率与预设概率进行比对,选取对应的推荐概率大于预设概率的用户,并基于所选取的用户生成推荐用户名单。例如,预设概率设置为0.8,在获得每个用户对应的推荐概率后,选取其中推荐概率大于0.8的用户,确定推荐用户名单,并根据该推荐用户名单进行用户推荐。
在另一实施方式中,按照推荐的数量比例进行用户推荐。示例性的,预先设置一预设数量比例。根据每个用户对应的推荐概率,从中选取预设数量比例的推荐概率高的用户进行推荐,也即选取的用户对应的推荐概率大于未选取的用户对应的推荐概率。
例如,预设数量比例设置为20%,准推荐用户名单中包含n个用户,通过调用神经网络模型获得准推荐用户名单中每个用户对应的推荐概率后,按照推荐概率从高到低对用户进行排序,选取排序在前的20%的用户,确定推荐用户名单,并根据该推荐用户名单进行用户推荐。或者,也可以按照推荐概率从低到高对用户进行排序,选取排序在后的20%的用户,确定推荐用户名单,并根据该推荐用户名单进行用户推荐。
上述实施例提供的神经网络模型的调用方法,通过获取准推荐用户名单中每个用户对应的用户特征数据,并将获取的用户特征数据输入预设的神经网络模型,该神经网络模型包括含有高阶多项式的多个多项式,经该神经网络模型处理后,输出每个用户对应的推荐概率,然后根据每个用户对应的推荐概率,确定推荐用户名单,以根据确定的推荐用户名单进行用户推荐。由于该神经网络模型的精度高,输出每个用户对应的推荐概率的精准性高,从而提高了用户推荐的可靠性。
请参阅图11,图11为本申请实施例提供的一种计算机设备的示意性框图。该计算机设备可以为服务器。
如图11所示,该计算机设备可以包括处理器、存储器和网络接口。处理器、存储器和网络接口通过系统总线连接,该系统总线比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器用于运行存储在存储器中的计算机程序,并在执行所述计算机程序时实现如下步骤:
获取训练样本数据;
将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式;
根据训练后的每个所述多项式,完成所述神经网络模型训练。
在一些实施例中,所述处理器在实现所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练时,用于实现:
将所述神经网络模型中的每个多项式依次确定为当前待训练的多项式;
若所述多个多项式中不存在已训练的多项式,则将所述神经网络模型中除所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练;
若所述多个多项式中存在已训练的多项式,则将所述神经网络模型中除所述已训练的多项式和所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练。
在一些实施例中,所述多个多项式包括第一多项式、第二多项式和第三多项式,所述第一多项式为一阶多项式,所述第二多项式为二阶多项式,所述第三多项式为三阶或三阶以上多项式,所述处理器在实现所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练时,用于实现:
将所述第二多项式和所述第三多项式置零,输入所述训练样本数据至所述神经网络模型,对所述第一多项式进行训练;
将所述第三多项式置零,并基于训练后的所述第一多项式,输入所述训练样本数据至所述神经网络模型,对所述第二多项式进行训练;
基于训练后的所述第一多项式以及训练后的所述第二多项式,将所述训练样本数据输入所述神经网络模型,对所述第三多项式进行训练。
在一些实施例中,所述第三多项式为高阶决策树规则函数多项式,所述处理器在实现所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练之前,还用于实现:
采用随机森林算法生成多棵决策树;
基于所述多棵决策树,确定对应路径长度大于2的多条路径;
根据所述多条路径,生成所述高阶决策树规则函数多项式。
在一些实施例中,所述处理器在实现所述对所述第一多项式进行训练之后,用于实现:
计算训练后的所述第一多项式中每个第一单项式对应的范数,其中,所述第一多项式包括多个所述第一单项式;
选取第一数量的所述第一单项式,其中,每个选取的所述第一单项式对应的范数大于未选取的所述第一单项式对应的范数,且所述第一数量的所述第一单项式对应的范数之和与全部所述第一单项式对应的范数之和的比值大于预设阈值;
根据选取的所述第一数量的所述第一单项式,确定训练完成后的所述第一多项式。
在一些实施例中,所述处理器在实现所述完成所述神经网络模型训练之后,用于实现:
获取测试样本数据;
将所述测试样本数据输入所述神经网络模型,对所述神经网络模型进行测试,确定所述测试样本数据对应的AUC值;
根据所述AUC值,确定所述神经网络模型的分类效果,其中,所述AUC值越大,所述神经网络模型的分类效果越佳。
在一些实施例中,所述处理器用于运行存储在存储器中的计算机程序,并在执行所述计算机程序时实现如下步骤:
获取准推荐用户名单中每个用户对应的用户特征数据;
将所述用户特征数据输入所述神经网络模型,输出每个用户对应的推荐概率;
根据每个用户对应的所述推荐概率,确定推荐用户名单,以根据所述推荐用户名单进行用户推荐。
在一些实施例中,所述处理器在实现所述根据每个用户对应的所述推荐概率,确定推荐用户名单时,用于实现:
选取所述推荐概率大于预设概率的用户,基于选取的用户确定所述推荐用户名单;或
从所述准推荐用户名单中选取预设数量比例的用户,确定所述推荐用户名单,其中,选取的用户对应的所述推荐概率大于未选取的用户对应的所述推荐概率。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的计算机设备的具体工作过程,可以参考前述神经网络模型的训练方法和/或神经网络模型的调用方法实施例中的对应过程,在此不再赘述。计算机设备可以实现本申请实施例所提供的任一种神经网络模型的训练方法和/或神经网络模型的调用方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现上述实施例提供的神经网络模型的训练方法和/或神经网络模型的调用方法的步骤。例如,该计算机程序被处理器加载,可以执行如下步骤:
获取训练样本数据;
将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式;
根据训练后的每个所述多项式,完成所述神经网络模型训练。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,计算机可读存储介质可以是前述实施例的计算机设备的内部存储单元,例如计算机设备的硬盘或内存。计算机可读存储介质也可以是计算机设备的外部存储设备,例如计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
由于该计算机可读存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种神经网络模型的训练方法和/或神经网络模型的调用方法,因此,可以实现本申请实施例所提供的任一种神经网络模型的训练方法和/或神经网络模型的调用方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。以上所述,仅是本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种神经网络模型的调用方法,其特征在于,包括:
获取训练样本数据;
将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,其中,所述神经网络模型包括多个多项式,且所述多个多项式中包括高阶多项式;所述多个多项式包括第一多项式、第二多项式和第三多项式,所述第三多项式为高阶决策树规则函数多项式;
根据训练后的每个所述多项式,完成所述神经网络模型训练;
获取准推荐用户名单中每个用户对应的用户特征数据;
将所述用户特征数据输入所述神经网络模型,输出每个用户对应的推荐概率;
根据每个用户对应的所述推荐概率,确定推荐用户名单,以根据所述推荐用户名单进行用户推荐。
2.根据权利要求1所述的方法,其特征在于,所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,包括:
将所述神经网络模型中的每个多项式依次确定为当前待训练的多项式;
若所述多个多项式中不存在已训练的多项式,则将所述神经网络模型中除所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练;
若所述多个多项式中存在已训练的多项式,则将所述神经网络模型中除所述已训练的多项式和所述当前待训练的多项式以外的其他多项式置零,输入所述训练样本数据至所述神经网络模型,对所述当前待训练的多项式进行训练。
3.根据权利要求1所述的方法,其特征在于,所述第一多项式为一阶多项式,所述第二多项式为二阶多项式,所述第三多项式为三阶或三阶以上多项式,所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练,包括:
将所述第二多项式和所述第三多项式置零,输入所述训练样本数据至所述神经网络模型,对所述第一多项式进行训练;
将所述第三多项式置零,并基于训练后的所述第一多项式,输入所述训练样本数据至所述神经网络模型,对所述第二多项式进行训练;
基于训练后的所述第一多项式以及训练后的所述第二多项式,将所述训练样本数据输入所述神经网络模型,对所述第三多项式进行训练。
4.根据权利要求3所述的方法,其特征在于,所述将所述训练样本数据多次输入预设的神经网络模型,依次对所述神经网络模型中的每个多项式进行训练之前,包括:
采用随机森林算法生成多棵决策树;
基于所述多棵决策树,确定对应路径长度大于2的多条路径;
根据所述多条路径,生成所述高阶决策树规则函数多项式。
5.根据权利要求3所述的方法,其特征在于,所述对所述第一多项式进行训练之后,包括:
计算训练后的所述第一多项式中每个第一单项式对应的范数,其中,所述第一多项式包括多个所述第一单项式;
选取第一数量的所述第一单项式,其中,每个选取的所述第一单项式对应的范数大于未选取的所述第一单项式对应的范数,且所述第一数量的所述第一单项式对应的范数之和与全部所述第一单项式对应的范数之和的比值大于预设阈值;
根据选取的所述第一数量的所述第一单项式,确定训练完成后的所述第一多项式。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述完成所述神经网络模型训练之后,包括:
获取测试样本数据;
将所述测试样本数据输入所述神经网络模型,对所述神经网络模型进行测试,确定所述测试样本数据对应的AUC值;
根据所述AUC值,确定所述神经网络模型的分类效果,其中,所述AUC值越大,所述神经网络模型的分类效果越佳。
7.根据权利要求1所述的方法,其特征在于,所述根据每个用户对应的所述推荐概率,确定推荐用户名单,包括:
选取所述推荐概率大于预设概率的用户,基于选取的用户确定所述推荐用户名单;或
从所述准推荐用户名单中选取预设数量比例的用户,确定所述推荐用户名单,其中,选取的用户对应的所述推荐概率大于未选取的用户对应的所述推荐概率。
8.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如权利要求1至7中任一项所述的神经网络模型的调用方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至7中任一项所述的神经网络模型的调用方法。
CN202010918143.6A 2020-09-03 2020-09-03 神经网络模型的训练方法、调用方法、设备及存储介质 Active CN112132260B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010918143.6A CN112132260B (zh) 2020-09-03 2020-09-03 神经网络模型的训练方法、调用方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010918143.6A CN112132260B (zh) 2020-09-03 2020-09-03 神经网络模型的训练方法、调用方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112132260A CN112132260A (zh) 2020-12-25
CN112132260B true CN112132260B (zh) 2021-04-20

Family

ID=73848303

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010918143.6A Active CN112132260B (zh) 2020-09-03 2020-09-03 神经网络模型的训练方法、调用方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112132260B (zh)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573621A (zh) * 2014-09-30 2015-04-29 李文生 基于Chebyshev神经网络的动态手势学习和识别方法
FR3057090B1 (fr) * 2016-09-30 2018-10-19 Safran Identity & Security Procedes d'apprentissage securise de parametres d'un reseau de neurones a convolution, et de classification securisee d'une donnee d'entree
US10261685B2 (en) * 2016-12-29 2019-04-16 Google Llc Multi-task machine learning for predicted touch interpretations
US10360012B2 (en) * 2017-11-09 2019-07-23 International Business Machines Corporation Dynamic selection of deployment configurations of software applications
CN108898476A (zh) * 2018-06-14 2018-11-27 中国银行股份有限公司 一种贷款客户信用评分方法和装置
US10796482B2 (en) * 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
CN110378726A (zh) * 2019-07-02 2019-10-25 阿里巴巴集团控股有限公司 一种目标用户的推荐方法、系统以及电子设备
CN110619585A (zh) * 2019-08-16 2019-12-27 广州越秀金融科技有限公司 推荐数据的方法、装置、存储介质和处理器
CN110610035B (zh) * 2019-08-28 2022-12-16 武汉科技大学 一种基于gru神经网络的滚动轴承剩余寿命预测方法
CN111062516A (zh) * 2019-11-20 2020-04-24 广西电网有限责任公司 一种基于gmdh多变量处理的风机出力预测的方法
CN111126562B (zh) * 2019-11-22 2023-04-28 上海交通大学 基于神经网络的目标算法拟合方法、终端以及应用
CN111273668B (zh) * 2020-02-18 2021-09-03 福州大学 针对结构化道路的无人驾驶汽车运动轨迹规划系统及方法
CN111461413B (zh) * 2020-03-20 2024-04-19 淮阴工学院 一种公路路面使用性能检测系统

Also Published As

Publication number Publication date
CN112132260A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
US10943186B2 (en) Machine learning model training method and device, and electronic device
US20180365525A1 (en) Multi-sampling model training method and device
US9405427B2 (en) Adaptive user interface using machine learning model
US9875294B2 (en) Method and apparatus for classifying object based on social networking service, and storage medium
CN108898476A (zh) 一种贷款客户信用评分方法和装置
CN110956224A (zh) 评估模型生成、评估数据处理方法、装置、设备及介质
CN111080360B (zh) 行为预测方法、模型训练方法、装置、服务器及存储介质
CN110880014B (zh) 数据处理方法、装置、计算机设备及存储介质
CN113379301A (zh) 通过决策树模型对用户进行分类的方法、装置和设备
CN111062444A (zh) 信用风险预测方法、系统、终端及存储介质
CN110659922B (zh) 一种客户筛选方法、装置、服务器及计算机可读存储介质
CN111797320A (zh) 数据处理方法、装置、设备及存储介质
CN110969172A (zh) 一种文本的分类方法以及相关设备
CN114782201A (zh) 股票推荐方法、装置、计算机设备和存储介质
CN112487021B (zh) 业务数据的关联分析方法、装置及设备
US20210192361A1 (en) Intelligent data object generation and assignment using artificial intelligence techniques
CN113159213A (zh) 一种业务分配方法、装置及设备
CN112132260B (zh) 神经网络模型的训练方法、调用方法、设备及存储介质
CN108629381A (zh) 基于大数据的人群筛选方法及终端设备
CN115600818A (zh) 多维评分方法、装置、电子设备和存储介质
CN114925275A (zh) 产品推荐方法、装置、计算机设备及存储介质
CN114757397A (zh) 一种坏料预测方法、坏料预测装置及电子设备
CN110264306B (zh) 基于大数据的产品推荐方法、装置、服务器及介质
CN109284354B (zh) 脚本搜索方法、装置、计算机设备及存储介质
CN113034264A (zh) 客户流失预警模型的建立方法、装置、终端设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant