具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了应对愈演愈烈的欺诈风险,在“互联网+”的大趋势下,数字技术与金融不断交融,同时欺诈手段也随数字科技升级在不断变化中,数字金融欺诈逐渐表现出专业化、产业化、隐蔽化、场景化等特征。以网购为例,数字金融机构依托网购场景可以开展消费金融、供应链金融等多种业务,如果买卖双方勾结,虚拟交易行为,则可能出现同场景下多种欺诈行为。
为了应对不断升级的数字金融欺诈风险,有效利用互联网公司的海量数据进行风险识别,与深度学习技术相关的网络模型已经在反欺诈领域发挥了重要作用。例如,DeepFM网络模型在反欺诈领域的应用。但是,然而发明人在研究中发现,相关的与深度学习技术相关的网络模型在训练过程中,存在样本不均衡的问题,进而会造成所训练得到的网络模型所输出结果的准确性有待提升。
因此,发明人提出了本申请中可以改善上述问题的数据处理方法、装置以及电子设备,通过获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
需要说明的是,本申请实施例所提供的数据处理方法可以运行于手机、平板电脑等电子设备中,也可以运行于服务器中。其中,服务器可以是单个的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算、云服务、云存储、以及人工智能平台等基础云计算服务的云服务器。其中,在本申请实施例提供的数据处理方法由多个物理服务器构成的服务器集群或者分布式系统执行的情况下,数据处理方法中的不同步骤可以分别由不同的物理服务器执行,或者可以由基于分布式系统构建的服务器基于分布式的方式执行。例如,如图1所示,本申请所涉及的数据处理方法中的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量这个步骤可以单独由服务器110来执行,而该数据处理方法后续的步骤则可以由服务器120来执行。
下面将结合附图具体描述本申请的各实施例。
请参阅图2,本申请实施例提供的一种数据处理方法,所述方法包括:
S110:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
其中,在本申请实施例中待处理样本可以理解为待输入到模型中以对该模型进行参数更新的样本,其中,对模型进行参数更新可以可理解为对模型进行训练。并且,在本申请实施例中,所进行参数更新的模型为用于进行欺诈用户识别的模型,那么在待处理样本中则会包括有正常用户样本以及欺诈用户样本,其中,正常用户样本为对应的标签为正常用户的样本,欺诈用户样本为对应的标签为欺诈用户的样本。该正常用户为标记为不会进行欺诈的用户。
作为一种方式,所述获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量之前还包括:获取多个原始样本;对所述多个原始原本进行数据清洗得到多个待处理样本,其中,所述数据清洗至少包括:清除所包括的特征不满足该特征对应的特征条件的样本。
需要说明的是,本申请实施例中的样本为用户样本,那么每个样本则会对应包括有用户的一些特征。其中,所包括的特征可以包括有用户的年龄,用户的性别,用户的身高,用户的收入,以及用户的借贷情况等。其中,借贷情况可以包括用户分别在202101月,202102月,202103月的申请借贷额度。其中,所获取到的原始样本的来源可能会有多种,例如,可以包括有通过获取注册用户的信息来得到样本,也可以通过从其他平台获取到的用户信息来得到样本。而因为来源的多样性,或者也可能因为系统的错误,那么则在获取的原始样本中则可能会有部分样本的特征是不合理的。
例如,原始原本包括的有用户样本A、用户样本B、用户样本C以及用户样本D,其中,用户样本A包括年龄为20岁这一特征,用户样本B包括年龄为200岁这一特征,用户样本C包括年龄为30岁这一特征,用户样本D包括年龄为28岁这一特征。其中,对于年龄这一特征对应有特征条件,那么这可以将每个用户样本的年龄与年龄对应的特征条件进行比对,进而清洗掉包括的年龄不满足年龄对应的特征条件的样本。例如,若年龄对应的特征条件为21岁到50岁之间,那么则前述示例中的用户样本中用户样本B则会被清洗掉。
其中,样本所包括的特征可以有多个,并且针对多个特征都有各自对应的特征条件。例如,样本所包括的特征可以包括有用户的年龄,用户的性别,用户的身高,用户的收入,以及用户的借贷情况等。可选的,那么年龄对应有特征条件,身高对应有特征条件,用户的借贷情况对应有特征条件等。
在得到待处理样本后,则可以将待处理样本各自所包括的特征进行向量化以得到待处理向量。其中,在本申请实施例中,待处理向量会包括待处理样本所包括的所有特征对应的向量,其中待处理样本所包括的所有特征包括每个处理样本所包括的特征的总和。例如,待处理样本包括用户样本A、用户样本C以及用户样本D。用户样本A包括特征a1、特征a2以及特征a3,用户样本B包括特征b1、特征b2以及特征b3,用户样本C包括特征c1、特征c2以及特征c3。那么待处理样本所包括的所有特征包括特征a1、特征a2、特征a3、特征b1、特征b2、特征b3、特征c1、特征c2以及特征c3。
再者,所得到的待处理向量的类型为嵌入向量(Embedding)。其中,Embedding是一个将离散变量转为连续向量表示的一个方式。作为一种方式,可以通过BERT(Bidirectional Encoder Representations from Transformers)模型来获取得到每个特征对应的嵌入向量。
S120:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
需要说明的是,本申请实施例中是会对DeepFM模型进行参数更新,进而得到参数更新后的DeepFM模型。其中,DeepFM模型可以包括有因子分解机和深度学习网络模型两个部分。其中,因子分解机部分是2阶的因子分解机学习器,用于建模低阶的特征组合。深度学习网络模型部分可以是多层感知器,用于捕获高阶特征交互作用和非线性。这两个部分共享相同的输入/嵌入,并将它们的输出汇总为最终预测。
在本申请实施例中,深度学习网络模型可以为DNN(Deep Neural Networks)、CNN(Convolutional Neural Networks)或者RNN(Recurrent Neural Network)。
S130:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
其中,因子分解机以及深度学习网络模型会分别进行结果输出,那么对于因子分解机所输出的结果以及深度学习网络模型所输出的结果进行综合以后,则可以得到目标结果。
S140:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
其中,对所述深度学习网络模型包括的参数进行更新可以理解为对深度学习网络模型中的网络参数或者权重参数进行更新,进而使得在基于本申请实施例中所训练得到的模型(DeepFM模型)进行欺诈用户的识别阶段,可以有更为准确的识别结果。
其中,待处理样本对应于权重归一化损失函数的权重可以理解为在计算该待处理样本对应于权重归一化损失函数的值时所配置的权重。例如,可选的,权重归一化损失函数可以如下所示:
-∑ωi*yi*log(pi)
其中,yi是第i个样本的真实标签,取值0或1。0表征为该样本为欺诈用户样本,1表征该用户为正常用户样本。pi是第i个样本,被预测为欺诈用户样的概率。ωi是第i个样本的权重。那么待处理样本对应于所述权重归一化损失函数的权重则可以理解为在将待处理样本输入到上述公式中时,对应的ωi的值。
需要说明的是,在待处理样本中欺诈用户样本的占比是较小的,那么为了提升对于模型(由因子分解机以及深度学习网络模型组成的模型)的训练效率,则可以在对对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新的过程中,提升欺诈用户样本对应于权重归一化损失函数的权重。例如,正常用户样本对应于权重归一化损失函数的权重可以为1,那么欺诈用户样本对应于权重归一化损失函数的权重可以为2到100之间的任一一个值。
下面在通过附图来对本申请实施例涉及的数据处理方法进行说明。如图3所示,待处理样本所包括的所有特征包括有图3中所示的特征i到特征m。对于该特征i到特征m可以进行对应嵌入向量的获取,以得到待处理向量。对于待处理向量可以同时输入到因子分解机中,以及输入到深度学习网络模型的隐藏层中,其中,输出单元可以根据因子分解机输出的结果,以及深度学习网络模型的隐藏层输入的结果而得到目标结果。
本实施例提供的一种数据处理方法,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
请参阅图4,本申请实施例提供的一种数据处理方法,所述方法包括:
S210:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S220:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
S230:对所述深度学习网络模型中的隐藏层输出的数据进行批归一化处理,并将处理后的数据输入到下一个隐藏层进行处理。
其中,批归一化处理(Batch Normalization)是通过标准化层批量进行标准化的方式,使神经网络模型更快以及更稳定的方法。
需要说明的是,因为深度学习网络模型在做非线性变换前的激活输入值,随着深度学习网络模型的深度的加深,其分布逐渐发生偏移或者变动,所以训练收敛慢。一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近,进而导致反向传播时,低层神经网络的梯度消失,从而导致收敛越来越慢。而经过批归一化处理后,把每层神经网络任意神经元的输入值,强行拉回到均值为0,方差为1的正态分布,使得激活输入值落在非线性函数对输入比较敏感的区域,这样即便小的变化也会让损失函数发生变化,从而避免梯度消失问题,从而加快深度学习网络模型的学习和收敛速度。
S240:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
S250:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,在深度学习网络模型的参数更新过程中,可以将从隐藏层输出的数据进行批归一化处理后再输入到下一个隐藏层中,从而有效的深度学习网络模型的参数更新效率(学习效率)以及收敛速度。
请参阅图5,本申请实施例提供的一种数据处理方法,所述方法包括:
S310:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S320:将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
S330:获取所述深度学习网络模型中的隐藏层中的目标隐藏层。
S340:控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理。
作为一种方式,所述控制所述目标隐藏层中的部分神经元不参与当前的数据处理,包括:基于所述多个待处理样本,确定目标隐藏层中不进行数据处理的神经元的数量;控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理。
其中,在本实施例中,控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理,可以理解为在模型进行参数更新的过程中,中从隐藏层中随机删除神经元。
作为一种方式,可以在执行本申请实施例的服务器中建立有神经元运行状态记录文件,在该神经元运行状态记录文件中存储每个隐藏层中有哪些神经元是处于工作状态,哪些神经元是处于不参与所在隐藏层的数据处理的状态。可选的,在该神经元运行状态记录文件中对于每个隐藏层的每个神经元分别对应有一个状态值,该状态值则用于表征对应的神经元是处于工作状态还是处于不参与所在隐藏层的数据处理的状态。例如,状态值为1表征处于工作状态,状态值为0表征不参与所在隐藏层的数据处理的状态。
如图6所示,深度学习网络模型包括有隐藏层H1、隐藏层H2以及隐藏层H3。可选的,可以将隐藏层H1、隐藏层H2以及隐藏层H3均作为目标隐藏层。那么隐藏层H1、隐藏层H2以及隐藏层H3中所包括的神经元10(隐藏层H2以及隐藏层H3中未标记)则为确定的不参与所在隐藏层的数据处理的神经元。
需要说明的是,在待处理样本较小的情况下,深度学习网络模型容易过拟合的问题,那么在控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理的情况下,可以使得在深度学习网络模型进行参数更新的过程中,以概率p随机确定不参与所在隐藏层的数据处理的神经元,减小了神经元之间的共适应性关系,加强了模型的鲁棒性。
S350:获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
S360:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,可以对目标隐藏层中的随机选取部分神经元进行忽略,进而使得被忽略的神经元不参与所在层的数据处理,进而减小了神经元之间的共适应性关系,加强了深度学习网络模型的鲁棒性。
请参阅图7,本申请实施例提供的一种数据处理方法,所述方法包括:
S410:获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
S420:将所述待处理向量输入到因子分解机。
S430:基于所述注意力机制对所述待处理向量进行处理,得到处理后的向量。
示例新的,如图8所示,在将嵌入向量输入到隐藏层之前可以通过注意力机制来对会输入到深度学习网络模型的嵌入向量进行处理,进而得到处理后的向量。其中,处理后的向量能够表征用户样本所包括的特征在时序方面的关联。
在加入注意力机制前,某一个用户在202101月的数据,与202102月及202103月的数据,就会被当成完全独立的不相关的数据。但是,实际上同一个用户,从202101月到202102,202103月之间会存在某种联系,比如因为时间变化,身高长高了。通过注意力机制对嵌入向量进行处理,就能够使得模型学习到这个变化的信息,以便最终所输出的结果更加符合用户的实际情况。
其中,在本申请实施例中的注意力机制可以为多头注意力机制(Multi-HeadAttention)。多头注意力机是会并行运行多次注意力的机制,其中运行多次注意力则会得到多次并行的注意力输出,然后将多次并行的注意力输出连接起来并线性变换为预期的维度。
如图9所示,示处了本申请实施例涉及的注意力机制的网络结构。其中包括拼接(Concat)模块和放缩向量点积注意力机制(Scaled Dot-Product Attention)的模块,其中Q是查询向量,依据输入数据,经过Embedding和linear_query生成。K其中是关键词向量,依据input数据,经过Embedding和linear_keys生成。V其中是值向量,依据input数据,经过Embedding和linear_values生成。Q、K以及V会共同提取出数据中的时序列信息,从而有效利用时序列信息。
需要说明的是,前述的S430和S420可以同时执行,也可以先后执行。本申请实施例中对于S430和S420执行前后不做具体限定。
S440:将所述处理后的向量输入到深度学习网络模型。
S450:获取所述因子分解机基于所述待处理向量输出的第一分类结果,以及获取所述深度学习网络模型基于所述处理后的向量输出的第二分类结果。
S460:根据所述第一分类结果以及所述第二分类结果得到目标结果。
作为一种方式,所述根据所述第一分类结果以及所述第二分类结果得到目标结果,包括:基于下列公式获取得到目标结果:
其中,yFM表征第一分类结果,yDNN表征第二分类结果。
S470:根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
本实施例提供的一种数据处理方法,通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。并且,在本实施例中,对于得到的待处理向量会先基于注意力机制进行处理,进而得到能够表征一定时序信息的处理后的向量,进而使得可以利用特征之间的时序关系来对深度网络模型的参数进行更新,以便使得所训练得到的网络模型能够更加准确的进行结果输出。
请参阅图10,本申请实施例提供的一种数据处理装置500,所述装置500包括:
向量获取单元510,用于获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,其中,所述多个待处理样本包括正常用户样本以及欺诈用户样本。
向量获取单元510,还用于获取多个原始样本;对所述多个原始原本进行数据清洗得到多个待处理样本,其中,所述数据清洗至少包括:清除所包括的特征不满足该特征对应的特征条件的样本。
向量输入单元520,用于将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型。
结果输出单元530,用于获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果。
参数更新单元540,用于根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
作为一种方式,结果输出单元530,还用于对所述深度学习网络模型中的隐藏层输出的数据进行批归一化处理,并将处理后的数据输入到下一个隐藏层进行处理。
作为一种方式,结果输出单元530,还用于获取所述深度学习网络模型中的隐藏层中的目标隐藏层;控制所述目标隐藏层中的部分神经元不参与所在隐藏层的数据处理。其中,可选的,结果输出单元530,具体用于基于所述多个待处理样本,确定目标隐藏层中不进行数据处理的神经元的数量;控制目标隐藏层中所述数量的神经元不参与所在隐藏层的数据处理。
作为一种方式,如图11所示,所述装置还包括:注意力机制单元550,用于基于所述注意力机制对所述待处理向量进行处理,得到处理后的向量。在这种方式下,向量输入单元520,具体用于将所述处理后的向量输入到深度学习网络模型。对应的,结果输出单元530,具体用于获取所述因子分解机基于所述待处理向量输出的第一分类结果,以及获取所述深度学习网络模型基于所述处理后的向量输出的第二分类结果;根据所述第一分类结果以及所述第二分类结果得到目标结果。可选的,结果输出单元530,具体用于基于下列公式获取得到目标结果:
其中,yFM表征第一分类结果,yDNN表征第二分类结果。
本申请提供的一种数据处理装置,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
需要说明的是,本申请中装置实施例与前述方法实施例是相互对应的,装置实施例中具体的原理可以参见前述方法实施例中的内容,此处不再赘述。
下面将结合图12对本申请提供的一种电子设备进行说明。
请参阅图12,基于上述的数据处理方法、装置,本申请实施例还提供的另一种可以执行前述数据处理方法的电子设备200。电子设备200包括相互耦合的一个或多个(图中仅示出一个)处理器102、存储器104以及网络模块106。其中,该存储器104中存储有可以执行前述实施例中内容的程序,而处理器102可以执行该存储器104中存储的程序。
其中,处理器102可以包括一个或者多个用于处理数据的核。处理器102利用各种接口和线路连接整个电子设备200内的各个部分,通过运行或执行存储在存储器104内的指令、程序、代码集或指令集,以及调用存储在存储器104内的数据,执行电子设备200的各种功能和处理数据。可选地,处理器102可以采用数字信号处理(Digital SignalProcessing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器102可集成中央处理器(Central Processing Unit,CPU)、图像处理器(Graphics ProcessingUnit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器102中,单独通过一块通信芯片进行实现。
存储器104可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器104可用于存储指令、程序、代码、代码集或指令集。存储器104可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
所述网络模块106用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯,例如和音频播放设备进行通讯。所述网络模块106可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。所述网络模块106可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。上述的无线网络可包括蜂窝式电话网、无线局域网或者城域网。例如,网络模块106可以与基站进行信息交互。
请参考图13,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质1100中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质1100可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质1100包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质1100具有执行上述方法中的任何方法步骤的程序代码1110的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1110可以例如以适当形式进行压缩。
综上所述,本申请提供的一种数据处理方法、装置以及电子设备,获取包括正常用户样本以及欺诈用户样本多个待处理样本后,进一步的获取多个待处理样本各自所包括特征对应的向量,以得到待处理向量,进而将所述待处理向量输入到因子分解机,将所述待处理向量输入到深度学习网络模型,然后获取所述因子分解机以及所述深度学习网络模型基于所述待处理向量输出的目标结果,并根据所述目标结果以及所述深度学习网络模型的权重归一化损失函数,对所述深度学习网络模型包括的参数进行更新,以及对至少一个所述待处理样本对应于所述权重归一化损失函数的权重进行更新。
从而通过上述方式可以使得在得到目标结果后,会再结合权重归一化损失函数所具备的权重调节特性,以根据当次的目标结果对正常用户样本以及欺诈用户样本所对应的于该权重归一化损失函数中的权重进行调整,改善了正常用户样本以及欺诈用户样本不均衡所造成的最终所训练得到的网络模型的输出结果的准确性不高的问题。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征图进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。