CN113392889A - 数据处理方法、装置以及电子设备 - Google Patents

数据处理方法、装置以及电子设备 Download PDF

Info

Publication number
CN113392889A
CN113392889A CN202110633594.XA CN202110633594A CN113392889A CN 113392889 A CN113392889 A CN 113392889A CN 202110633594 A CN202110633594 A CN 202110633594A CN 113392889 A CN113392889 A CN 113392889A
Authority
CN
China
Prior art keywords
processed
vector
network model
deep learning
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110633594.XA
Other languages
English (en)
Inventor
钟翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Hefei Technology Co ltd
Original Assignee
Shenzhen Huantai Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huantai Digital Technology Co ltd filed Critical Shenzhen Huantai Digital Technology Co ltd
Priority to CN202110633594.XA priority Critical patent/CN113392889A/zh
Publication of CN113392889A publication Critical patent/CN113392889A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种数据处理方法、装置以及电子设备。方法包括:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,多个待处理样本包括正常用户样本以及欺诈用户样本;将待处理向量输入到因子分解机,将待处理向量输入到深度学习网络模型;获取因子分解机以及深度学习网络模型基于待处理向量输出的目标结果;根据目标结果以及深度学习网络模型的权重归一化损失函数,对深度学习网络模型包括的参数进行更新,以及对至少一个待处理样本对应于权重归一化损失函数的权重进行更新。从而通过上述方式可以改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。

Description

数据处理方法、装置以及电子设备
技术领域
本申请涉及计算机技术领域,更具体地,涉及一种数据处理方法、装置以及电子设备。
背景技术
为了应对不断升级的数字金融欺诈风险,有效利用互联网公司的海量数据进行风险识别,与深度学习技术相关的网络模型已经在反欺诈领域发挥了重要作用。例如,DeepFM网络模型在反欺诈领域的应用。但是,相关的与深度学习技术相关的网络模型在训练过程中,存在用于训练的样本不均衡的问题,进而会造成所训练得到的网络模型所输出结果的准确性有待提升。
发明内容
鉴于上述问题,本申请提出了一种数据处理方法、装置以及电子设备,以改善上述问题。
第一方面,本申请提供了一种数据处理方法,所述方法包括:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本;将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型;获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果;根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
第二方面,本申请提供了一种数据处理装置,所述装置包括:向量获取单元,用于获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本;向量输入单元,用于将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型;结果输出单元,用于获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果;参数更新单元,用于根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
第三方面,本申请提供了一种电子设备,包括处理器以及存储器;一个或多个程序被存储在所述存储器中并被配置为由所述处理器执行以实现上述的方法。
第四方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码被启动控制器运行时执行上述的方法。
本申请提供的一种数据处理方法、装置以及电子设备,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请实施例提出的一种数据处理方法的应用场景的示意图;
图2示出了本申请实施例提出的一种数据处理方法的流程图;
图3示出了本申请实施例中的一种DeepFM模型的架构示意图;
图4示出了本申请另一实施例提出的一种数据处理方法的流程图;
图5示出了本申请又一实施例提出的一种数据处理方法的流程图;
图6示出了本申请实施例中的随机选取部分神经元不参与数据处理的示意图;
图7示出了本申请再一实施例提出的一种数据处理方法的流程图;
图8示出了本申请实施例中的另一种DeepFM模型的架构示意图;
图9示出了本申请实施例中的注意力机制的网络结构图;
图10示出了本申请一实施例提出的一种数据处理装置的结构框图;
图11示出了本申请另一实施例提出的一种数据处理装置的结构框图;
图12示出了本申请的用于执行根据本申请实施例的数据处理方法的电子设备的结构框图;
图13是本申请实施例的用于保存或者携带实现根据本申请实施例的数据处理方法的程序代码的存储单元。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了应对愈演愈烈的欺诈风险,在“互联网+”的大趋势下,数字技术与金融不断交融,同时欺诈手段也随数字科技升级在不断变化中,数字金融欺诈逐渐表现出专业化、产业化、隐蔽化、场景化等特征。以网购为例,数字金融机构依托网购场景可以开展消费金融、供应链金融等多种业务,如果买卖双方勾结,虚拟交易行为,则可能出现同场景下多种欺诈行为。
为了应对不断升级的数字金融欺诈风险,有效利用互联网公司的海量数据进行风险识别,与深度学习技术相关的网络模型已经在反欺诈领域发挥了重要作用。例如,DeepFM网络模型在反欺诈领域的应用。但是,然而发明人在研究中发现,相关的与深度学习技术相关的网络模型在训练过程中,存在样本不均衡的问题,进而会造成所训练得到的网络模型所输出结果的准确性有待提升。
因此,发明人提出了本申请中可以改善上述问题的数据处理方法、装置以及电子设备,通过获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
需要说明的是,本申请实施例所提供的数据处理方法可以运行于手机、平板电脑等电子设备中,也可以运行于服务器中。其中,服务器可以是单个的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算、云服务、云存储、以及人工智能平台等基础云计算服务的云服务器。其中,在本申请实施例提供的数据处理方法由多个物理服务器构成的服务器集群或者分布式系统执行的情况下,数据处理方法中的不同步骤可以分别由不同的物理服务器执行,或者可以由基于分布式系统构建的服务器基于分布式的方式执行。例如,如图1所示,本申请所涉及的数据处理方法中的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量这个步骤可以单独由服务器110来执行,而该数据处理方法后续的步骤则可以由服务器120来执行。
下面将结合附图具体描述本申请的各实施例。
请参阅图2,本申请实施例提供的一种数据处理方法,所述方法包括:
S110:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
其中,在本申请实施例中待处理样本可以理解为待输入到模型中以对该模型进行参数更新的样本,其中,对模型进行参数更新可以可理解为对模型进行训练。并且,在本申请实施例中,所进行参数更新的模型为用于进行欺诈用户识别的模型,那么在待处理样本中则会包括有正常用户样本以及欺诈用户样本,其中,正常用户样本为对应的标签为正常用户的样本,欺诈用户样本为对应的标签为欺诈用户的样本。该正常用户为标记为不会进行欺诈的用户。
作为一种方式,所述获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量之前还包括:获取多个原始样本;对所述多个原始原本进行数据清洗得到多个待处理样本,其中,所述数据清洗至少包括:清除所包括的特征不满足该特征对应的特征条件的样本。
需要说明的是,本申请实施例中的样本为用户样本,那么每个样本则会对应包括有用户的一些特征。其中,所包括的特征可以包括有用户的年龄,用户的性别,用户的身高,用户的收入,以及用户的借贷情况等。其中,借贷情况可以包括用户分别在202101月,202102月,202103月的申请借贷额度。其中,所获取到的原始样本的来源可能会有多种,例如,可以包括有通过获取注册用户的信息来得到样本,也可以通过从其他平台获取到的用户信息来得到样本。而因为来源的多样性,或者也可能因为系统的错误,那么则在获取的原始样本中则可能会有部分样本的特征是不合理的。
例如,原始原本包括的有用户样本A、用户样本B、用户样本C以及用户样本D,其中,用户样本A包括年龄为20岁这一特征,用户样本B包括年龄为200岁这一特征,用户样本C包括年龄为30岁这一特征,用户样本D包括年龄为28岁这一特征。其中,对于年龄这一特征对应有特征条件,那么这可以将每个用户样本的年龄与年龄对应的特征条件进行比对,进而清洗掉包括的年龄不满足年龄对应的特征条件的样本。例如,若年龄对应的特征条件为21岁到50岁之间,那么则前述示例中的用户样本中用户样本B则会被清洗掉。
其中,样本所包括的特征可以有多个,并且针对多个特征都有各自对应的特征条件。例如,样本所包括的特征可以包括有用户的年龄,用户的性别,用户的身高,用户的收入,以及用户的借贷情况等。可选的,那么年龄对应有特征条件,身高对应有特征条件,用户的借贷情况对应有特征条件等。
在得到待处理样本后,则可以将待处理样本各自所包括的特征进行向量化以得到待处理向量。其中,在本申请实施例中,待处理向量会包括待处理样本所包括的所有特征对应的向量,其中待处理样本所包括的所有特征包括每个处理样本所包括的特征的总和。例如,待处理样本包括用户样本A、用户样本C以及用户样本D。用户样本A包括特征a1、特征a2以及特征a3,用户样本B包括特征b1、特征b2以及特征b3,用户样本C包括特征c1、特征c2以及特征c3。那么待处理样本所包括的所有特征包括特征a1、特征a2、特征a3、特征b1、特征b2、特征b3、特征c1、特征c2以及特征c3。
再者,所得到的待处理向量的类型为嵌入向量(Embedding)。其中,Embedding是一个将离散变量转为连续向量表示的一个方式。作为一种方式,可以通过BERT(Bidirectional Encoder Representations from Transformers)模型来获取得到每个特征对应的嵌入向量。
S120:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
需要说明的是,本申请实施例中是会对DeepFM模型进行参数更新,进而得到参数更新后的DeepFM模型。其中,DeepFM模型可以包括有因子分解机和深度学习网络模型两个部分。其中,因子分解机部分是2阶的因子分解机学习器,用于建模低阶的特征组合。深度学习网络模型部分可以是多层感知器,用于捕获高阶特征交互作用和非线性。这两个部分共享相同的输入/嵌入,并将它们的输出汇总为最终预测。
在本申请实施例中,深度学习网络模型可以为DNN(Deep Neural Networks)、CNN(Convolutional Neural Networks)或者RNN(Recurrent Neural Network)。
S130:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
其中,因子分解机以及深度学习网络模型会分别进行结果输出,那么对于因子分解机所输出的结果以及深度学习网络模型所输出的结果进行综合以后,则可以得到目标结果。
S140:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
其中,对所述深度学习网络模型包括的参数进行更新可以理解为对深度学习网络模型中的网络参数或者权重参数进行更新,进而使得在基于本申请实施例中所训练得到的模型(DeepFM模型)进行欺诈用户的识别阶段,可以有更为准确的识别结果。
其中,待处理样本对应于权重归一化损失函数的权重可以理解为在计算该待处理样本对应于权重归一化损失函数的值时所配置的权重。例如,可选的,权重归一化损失函数可以如下所示:
-∑ωi*yi*log(pi)
其中,yi是第i个样本的真实标签,取值0或1。0表征为该样本为欺诈用户样本,1表征该用户为正常用户样本。pi是第i个样本,被预测为欺诈用户样的概率。ωi是第i个样本的权重。那么待处理样本对应于所述权重归一化损失函数的权重则可以理解为在将待处理样本输入到上述公式中时,对应的ωi的值。
需要说明的是,在待处理样本中欺诈用户样本的占比是较小的,那么为了提升对于模型(由因子分解机以及深度学习网络模型组成的模型)的训练效率,则可以在对对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新的过程中,提升欺诈用户样本对应于权重归一化损失函数的权重。例如,正常用户样本对应于权重归一化损失函数的权重可以为1,那么欺诈用户样本对应于权重归一化损失函数的权重可以为2到100之间的任一一个值。
下面在通过附图来对本申请实施例涉及的数据处理方法进行说明。如图3所示,待处理样本所包括的所有特征包括有图3中所示的特征i到特征m。对于该特征i到特征m可以进行对应嵌入向量的获取,以得到待处理向量。对于待处理向量可以同时输入到因子分解机中,以及输入到深度学习网络模型的隐藏层中,其中,输出单元可以根据因子分解机输出的结果,以及深度学习网络模型的隐藏层输入的结果而得到目标结果。
本实施例提供的一种数据处理方法,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
请参阅图4,本申请实施例提供的一种数据处理方法,所述方法包括:
S210:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S220:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
S230:对所述深度学习网络模型中的隐藏层输出的数据进行批归一化处理,并将处理后的数据输入到下一个隐藏层进行处理。
其中,批归一化处理(Batch Normalization)是通过标准化层批量进行标准化的方式,使神经网络模型更快以及更稳定的方法。
需要说明的是,因为深度学习网络模型在做非线性变换前的激活输入值,随着深度学习网络模型的深度的加深,其分布逐渐发生偏移或者变动,所以训练收敛慢。一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近,进而导致反向传播时,低层神经网络的梯度消失,从而导致收敛越来越慢。而经过批归一化处理后,把每层神经网络任意神经元的输入值,强行拉回到均值为0,方差为1的正态分布,使得激活输入值落在非线性函数对输入比较敏感的区域,这样即便小的变化也会让损失函数发生变化,从而避免梯度消失问题,从而加快深度学习网络模型的学习和收敛速度。
S240:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
S250:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,在深度学习网络模型的参数更新过程中,可以将从隐藏层输出的数据进行批归一化处理后再输入到下一个隐藏层中,从而有效的深度学习网络模型的参数更新效率(学习效率)以及收敛速度。
请参阅图5,本申请实施例提供的一种数据处理方法,所述方法包括:
S310:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S320:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
S330:获取所述深度学习网络模型中的隐藏层中的目标隐藏层。
S340:控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理。
作为一种方式,所述控制所述目标隐藏层中的部分神经元不参与当前的数据处理,包括:基于所述多个待处理样本,确定目标隐藏层中不进行数据处理的神经元的数量;控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理。
其中,在本实施例中,控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理,可以理解为在模型进行参数更新的过程中,中从隐藏层中随机删除神经元。
作为一种方式,可以在执行本申请实施例的服务器中建立有神经元运行状态记录文件,在该神经元运行状态记录文件中存储每个隐藏层中有哪些神经元是处于工作状态,哪些神经元是处于不参与所在隐藏层的数据处理的状态。可选的,在该神经元运行状态记录文件中对于每个隐藏层的每个神经元分别对应有一个状态值,该状态值则用于表征对应的神经元是处于工作状态还是处于不参与所在隐藏层的数据处理的状态。例如,状态值为1表征处于工作状态,状态值为0表征不参与所在隐藏层的数据处理的状态。
如图6所示,深度学习网络模型包括有隐藏层H1、隐藏层H2以及隐藏层H3。可选的,可以将隐藏层H1、隐藏层H2以及隐藏层H3均作为目标隐藏层。那么隐藏层H1、隐藏层H2以及隐藏层H3中所包括的神经元10(隐藏层H2以及隐藏层H3中未标记)则为确定的不参与所在隐藏层的数据处理的神经元。
需要说明的是,在待处理样本较小的情况下,深度学习网络模型容易过拟合的问题,那么在控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理的情况下,可以使得在深度学习网络模型进行参数更新的过程中,以概率p随机确定不参与所在隐藏层的数据处理的神经元,减小了神经元之间的共适应性关系,加强了模型的鲁棒性。
S350:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
S360:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,可以对目标隐藏层中的随机选取部分神经元进行忽略,进而使得被忽略的神经元不参与所在层的数据处理,进而减小了神经元之间的共适应性关系,加强了深度学习网络模型的鲁棒性。
请参阅图7,本申请实施例提供的一种数据处理方法,所述方法包括:
S410:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S420:将所述待处理向量输入到因子分解机。
S430:基于所述注意力机制对所述待处理向量进行处理,得到处理后的向量。
示例新的,如图8所示,在将嵌入向量输入到隐藏层之前可以通过注意力机制来对会输入到深度学习网络模型的嵌入向量进行处理,进而得到处理后的向量。其中,处理后的向量能够表征用户样本所包括的特征在时序方面的关联。
在加入注意力机制前,某一个用户在202101月的数据,与202102月及202103月的数据,就会被当成完全独立的不相关的数据。但是,实际上同一个用户,从202101月到202102,202103月之间会存在某种联系,比如因为时间变化,身高长高了。通过注意力机制对嵌入向量进行处理,就能够使得模型学习到这个变化的信息,以便最终所输出的结果更加符合用户的实际情况。
其中,在本申请实施例中的注意力机制可以为多头注意力机制(Multi-HeadAttention)。多头注意力机是会并行运行多次注意力的机制,其中运行多次注意力则会得到多次并行的注意力输出,然后将多次并行的注意力输出连接起来并线性变换为预期的维度。
如图9所示,示处了本申请实施例涉及的注意力机制的网络结构。其中包括拼接(Concat)模块和放缩向量点积注意力机制(Scaled Dot-Product Attention)的模块,其中Q是查询向量,依据输入数据,经过Embedding和linear_query生成。K其中是关键词向量,依据input数据,经过Embedding和linear_keys生成。V其中是值向量,依据input数据,经过Embedding和linear_values生成。Q、K以及V会共同提取出数据中的时序列信息,从而有效利用时序列信息。
需要说明的是,前述的S430和S420可以同时执行,也可以先后执行。本申请实施例中对于S430和S420执行前后不做具体限定。
S440:将所述处理后的向量输入到深度学习网络模型。
S450:获取所述因子分解机基于所述待处理向量输出的第一分类结果,以及获取所述深度学习网络模型基于所述处理后的向量输出的第二分类结果。
S460:根据所述第一分类结果以及所述第二分类结果得到目标结果。
作为一种方式,所述根据所述第一分类结果以及所述第二分类结果得到目标结果,包括:基于下列公式获取得到目标结果:
Figure BDA0003104688600000111
其中,yFM表征第一分类结果,yDNN表征第二分类结果。
S470:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,对于得到的待处理向量会先基于注意力机制进行处理,进而得到能够表征一定时序信息的处理后的向量,进而使得可以利用特征之间的时序关系来对深度网络模型的参数进行更新,以便使得所训练得到的网络模型能够更加准确的进行结果输出。
请参阅图10,本申请实施例提供的一种数据处理装置500,所述装置500包括:
向量获取单元510,用于获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
向量获取单元510,还用于获取多个原始样本;对所述多个原始原本进行数据清洗得到多个待处理样本,其中,所述数据清洗至少包括:清除所包括的特征不满足该特征对应的特征条件的样本。
向量输入单元520,用于将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
结果输出单元530,用于获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
参数更新单元540,用于根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
作为一种方式,结果输出单元530,还用于对所述深度学习网络模型中的隐藏层输出的数据进行批归一化处理,并将处理后的数据输入到下一个隐藏层进行处理。
作为一种方式,结果输出单元530,还用于获取所述深度学习网络模型中的隐藏层中的目标隐藏层;控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理。其中,可选的,结果输出单元530,具体用于基于所述多个待处理样本,确定目标隐藏层中不进行数据处理的神经元的数量;控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理。
作为一种方式,如图11所示,所述装置还包括:注意力机制单元550,用于基于所述注意力机制对所述待处理向量进行处理,得到处理后的向量。在这种方式下,向量输入单元520,具体用于将所述处理后的向量输入到深度学习网络模型。对应的,结果输出单元530,具体用于获取所述因子分解机基于所述待处理向量输出的第一分类结果,以及获取所述深度学习网络模型基于所述处理后的向量输出的第二分类结果;根据所述第一分类结果以及所述第二分类结果得到目标结果。可选的,结果输出单元530,具体用于基于下列公式获取得到目标结果:
Figure BDA0003104688600000131
其中,yFM表征第一分类结果,yDNN表征第二分类结果。
本申请提供的一种数据处理装置,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
需要说明的是,本申请中装置实施例与前述方法实施例是相互对应的,装置实施例中具体的原理可以参见前述方法实施例中的内容,此处不再赘述。
下面将结合图12对本申请提供的一种电子设备进行说明。
请参阅图12,基于上述的数据处理方法、装置,本申请实施例还提供的另一种可以执行前述数据处理方法的电子设备200。电子设备200包括相互耦合的一个或多个(图中仅示出一个)处理器102、存储器104以及网络模块106。其中,该存储器104中存储有可以执行前述实施例中内容的程序,而处理器102可以执行该存储器104中存储的程序。
其中,处理器102可以包括一个或者多个用于处理数据的核。处理器102利用各种接口和线路连接整个电子设备200内的各个部分,通过运行或执行存储在存储器104内的指令、程序、代码集或指令集,以及调用存储在存储器104内的数据,执行电子设备200的各种功能和处理数据。可选地,处理器102可以采用数字信号处理(Digital SignalProcessing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器102可集成中央处理器(Central Processing Unit,CPU)、图像处理器(Graphics ProcessingUnit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器102中,单独通过一块通信芯片进行实现。
存储器104可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器104可用于存储指令、程序、代码、代码集或指令集。存储器104可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
所述网络模块106用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯,例如和音频播放设备进行通讯。所述网络模块106可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。所述网络模块106可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。上述的无线网络可包括蜂窝式电话网、无线局域网或者城域网。例如,网络模块106可以与基站进行信息交互。
请参考图13,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质1100中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质1100可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质1100包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质1100具有执行上述方法中的任何方法步骤的程序代码1110的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1110可以例如以适当形式进行压缩。
综上所述,本申请提供的一种数据处理方法、装置以及电子设备,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征图进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种数据处理方法,其特征在于,所述方法包括:
获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本;
将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型;
获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果;
根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述深度学习网络模型中的隐藏层输出的数据进行批归一化处理,并将处理后的数据输入到下一个隐藏层进行处理。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述深度学习网络模型中的隐藏层中的目标隐藏层;
控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理。
4.根据权利要求3所述的方法,其特征在于,所述控制所述目标隐藏层中的部分神经元不参与当前的数据处理,包括:
基于所述多个待处理样本,确定目标隐藏层中不进行数据处理的神经元的数量;
控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理。
5.根据权利要求1所述的方法,其特征在于,所述将所述待处理向量输入到深度学习网络模型,包括:
基于所述注意力机制对所述待处理向量进行处理,得到处理后的向量;
将所述处理后的向量输入到深度学习网络模型;
所述获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,包括:
获取所述因子分解机基于所述待处理向量输出的第一分类结果,以及获取所述深度学习网络模型基于所述处理后的向量输出的第二分类结果;
根据所述第一分类结果以及所述第二分类结果得到目标结果。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一分类结果以及所述第二分类结果得到目标结果,包括:基于下列公式获取得到目标结果:
Figure FDA0003104688590000021
其中,yFM表征第一分类结果,yDNN表征第二分类结果。
7.根据权利要求1-6任一所述的方法,其特征在于,所述获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量之前还包括:
获取多个原始样本;
对所述多个原始原本进行数据清洗得到多个待处理样本,其中,所述数据清洗至少包括:清除所包括的特征不满足该特征对应的特征条件的样本。
8.一种数据处理装置,其特征在于,所述装置包括:
向量获取单元,用于获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本;
向量输入单元,用于将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型;
结果输出单元,用于获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果;
参数更新单元,用于根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
9.一种电子设备,其特征在于,包括处理器以及存储器;
一个或多个程序被存储在所述存储器中并被配置为由所述处理器执行以实现权利要求1-7任一所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码被处理器运行时执行权利要求1-7任一所述的方法。
CN202110633594.XA 2021-06-07 2021-06-07 数据处理方法、装置以及电子设备 Pending CN113392889A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110633594.XA CN113392889A (zh) 2021-06-07 2021-06-07 数据处理方法、装置以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110633594.XA CN113392889A (zh) 2021-06-07 2021-06-07 数据处理方法、装置以及电子设备

Publications (1)

Publication Number Publication Date
CN113392889A true CN113392889A (zh) 2021-09-14

Family

ID=77618527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110633594.XA Pending CN113392889A (zh) 2021-06-07 2021-06-07 数据处理方法、装置以及电子设备

Country Status (1)

Country Link
CN (1) CN113392889A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114707488A (zh) * 2022-02-25 2022-07-05 马上消费金融股份有限公司 数据处理方法、装置、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166032A (zh) * 2018-08-22 2019-01-08 北京芯盾时代科技有限公司 一种电子银行线上反欺诈方法及系统
CN109472345A (zh) * 2018-09-28 2019-03-15 深圳百诺名医汇网络技术有限公司 一种权重更新方法、装置、计算机设备和存储介质
CN109902722A (zh) * 2019-01-28 2019-06-18 北京奇艺世纪科技有限公司 分类器、神经网络模型训练方法、数据处理设备及介质
CN110008984A (zh) * 2019-01-22 2019-07-12 阿里巴巴集团控股有限公司 一种基于多任务样本的目标模型训练方法和装置
CN111950625A (zh) * 2020-08-10 2020-11-17 中国平安人寿保险股份有限公司 基于人工智能的风险识别方法、装置、计算机设备及介质
CN112052900A (zh) * 2020-09-04 2020-12-08 京东数字科技控股股份有限公司 机器学习样本权重调整方法和装置、存储介质
CN112054967A (zh) * 2020-08-07 2020-12-08 北京邮电大学 网络流量分类方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166032A (zh) * 2018-08-22 2019-01-08 北京芯盾时代科技有限公司 一种电子银行线上反欺诈方法及系统
CN109472345A (zh) * 2018-09-28 2019-03-15 深圳百诺名医汇网络技术有限公司 一种权重更新方法、装置、计算机设备和存储介质
CN110008984A (zh) * 2019-01-22 2019-07-12 阿里巴巴集团控股有限公司 一种基于多任务样本的目标模型训练方法和装置
CN109902722A (zh) * 2019-01-28 2019-06-18 北京奇艺世纪科技有限公司 分类器、神经网络模型训练方法、数据处理设备及介质
CN112054967A (zh) * 2020-08-07 2020-12-08 北京邮电大学 网络流量分类方法、装置、电子设备及存储介质
CN111950625A (zh) * 2020-08-10 2020-11-17 中国平安人寿保险股份有限公司 基于人工智能的风险识别方法、装置、计算机设备及介质
CN112052900A (zh) * 2020-09-04 2020-12-08 京东数字科技控股股份有限公司 机器学习样本权重调整方法和装置、存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUIFENG GUO ET AL.: "DeepFM: An End-to-End Wide & Deep Learning Framework for CTR Prediction", 《ARXIV》, pages 1 - 14 *
JUN YANG ET AL.: "Metro Passenger Flow Prediction Model Using Attention-Based Neural Network", 《IEEE ACCESS》, pages 30953 - 30959 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114707488A (zh) * 2022-02-25 2022-07-05 马上消费金融股份有限公司 数据处理方法、装置、计算机设备及存储介质
CN114707488B (zh) * 2022-02-25 2024-02-09 马上消费金融股份有限公司 数据处理方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN111368210B (zh) 基于人工智能的信息推荐方法、装置以及电子设备
Gulli et al. Deep learning with Keras
CN111080397A (zh) 信用评估方法、装置及电子设备
CN107947951A (zh) 用户群组推荐方法、装置及存储介质和服务器
KR102214422B1 (ko) 개인화 컨텐츠 추천을 위한 실시간 그래프기반 임베딩 구축 방법 및 시스템
CN111275205B (zh) 虚拟样本的生成方法、终端设备及存储介质
CN112035549B (zh) 数据挖掘方法、装置、计算机设备及存储介质
KR20210018384A (ko) 개인화 컨텐츠 추천을 위한 실시간 그래프기반 임베딩 구축 방법 및 시스템
CN107995370A (zh) 通话控制方法、装置及存储介质和移动终端
CN112085565A (zh) 基于深度学习的信息推荐方法、装置、设备及存储介质
CN110795618B (zh) 内容推荐方法、装置、设备及计算机可读存储介质
CN110858226A (zh) 对话管理方法和装置
CN110969441A (zh) 基于深度学习的反欺诈模型处理方法及装置
CN114519435A (zh) 模型参数更新方法、模型参数更新装置和电子设备
CN111243574A (zh) 一种语音模型自适应训练方法、系统、装置及存储介质
CN115619448A (zh) 用户流失预测方法、装置、计算机设备及存储介质
CN113392889A (zh) 数据处理方法、装置以及电子设备
CN116910373B (zh) 房源推荐方法、装置、电子设备及存储介质
CN113592593A (zh) 序列推荐模型的训练及应用方法、装置、设备及存储介质
CN111340574B (zh) 风险用户的识别方法、装置和电子设备
CN116228391A (zh) 一种风险识别方法、装置、存储介质及电子设备
CN111768218A (zh) 用于处理用户交互信息的方法和装置
CN115130536A (zh) 特征提取模型的训练方法、数据处理方法、装置及设备
CN111784787B (zh) 图像生成方法和装置
CN116703498B (zh) 商品推荐方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230613

Address after: 1301, Office Building T2, Qianhai China Resources Financial Center, No. 55 Guiwan 4th Road, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong Province, 518035

Applicant after: Shenzhen Hefei Technology Co.,Ltd.

Address before: 518052 2501, office building T2, Qianhai China Resources Financial Center, 55 guiwan 4th Road, Nanshan street, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen City, Guangdong Province

Applicant before: Shenzhen Huantai Digital Technology Co.,Ltd.