CN109948670A - 数据识别模型的训练方法及装置、数据处理方法及装置 - Google Patents
数据识别模型的训练方法及装置、数据处理方法及装置 Download PDFInfo
- Publication number
- CN109948670A CN109948670A CN201910160638.4A CN201910160638A CN109948670A CN 109948670 A CN109948670 A CN 109948670A CN 201910160638 A CN201910160638 A CN 201910160638A CN 109948670 A CN109948670 A CN 109948670A
- Authority
- CN
- China
- Prior art keywords
- data
- machine learning
- model
- learning model
- camouflaged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000010801 machine learning Methods 0.000 claims abstract description 111
- 230000006870 function Effects 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000007423 decrease Effects 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 241000208340 Araliaceae Species 0.000 claims description 5
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 5
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 5
- 235000008434 ginseng Nutrition 0.000 claims description 5
- 238000005457 optimization Methods 0.000 abstract description 2
- 238000003860 storage Methods 0.000 description 22
- 230000015654 memory Effects 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001503987 Clematis vitalba Species 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001965 increasing effect Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Landscapes
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
本发明公开了数据识别模型的训练方法及装置、数据处理方法及装置。数据识别模型的训练方法包括:获取用户的样本数据,样本数据指向具有金融欺诈风险的特征;基于样本数据,使用第一机器学习模型进行数据伪装训练,得到样本数据对应的伪装数据;基于伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;调整第一机器学习模型的第一模型参数和第二机器学习模型的第二模型参数,优化目标函数的取值至预设值;将当前第二模型参数对应的第二机器学习模型作为数据识别模型。在利用数据识别模型进行数据处理时可以提高对经伪装后的具有金融欺诈风险的特征的识别适应能力,进而可以大大提高反金融欺诈的可靠性和有效性。
Description
技术领域
本发明涉及互联网通信技术领域,尤其涉及数据识别模型的训练方法及装置、数据处理方法及装置。
背景技术
随着计算机和互联网技术的快速发展,传统行业与之相结合也呈现出快速发展的态势。互联网金融产品在人们日常生活中应用日益广泛,降低使用门槛带给用户便利的同时也面临着金融欺诈的风险。
欺诈者以非法占有为目的,采取虚构事实或者隐瞒真相的方法,骗取银行或者其他金融机构的贷款、保险金等。金融欺诈一旦发生,财产难以追回。欺诈者往往针对反欺诈方法作对应的研究,因此,需要提供更可靠或更有效的方案,以便准确的识别具有金融欺诈风险的特征。
发明内容
为了解决现有技术应用在识别具有金融欺诈风险的特征准确率低等问题,本发明提供了数据识别模型的训练方法及装置、数据处理方法及装置:
一方面,本发明提供了一种数据识别模型的训练方法,所述方法包括:
获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;
将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型;
其中,所述第一机器学习模型与所述第二机器学习模型基于生成式对抗网络建立。
另一方面提供了一种数据处理方法,所述方法包括:
获取用户的待识别数据;
将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
其中,所述数据识别模型是基于用户的样本数据与伪装数据进行机器学习训练确定的,所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据。
另一方面提供了一种数据识别模型的训练装置,所述装置包括:
样本数据获取模块:用于获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
数据伪装训练模块:用于基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
数据识别训练模块:用于基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
模型参数调整模块:用于调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型;
其中,所述第一机器学习模型与所述第二机器学习模型基于生成式对抗网络建立。
另一方面提供了一种数据处理装置,所述装置包括:
待识别数据获取模块:用于获取用户的待识别数据;
数据识别处理模块:用于将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
其中,所述数据识别模型是基于用户的样本数据与伪装数据进行机器学习训练确定的,所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据。
另一方面提供了一种训练服务器,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述的数据识别模型的训练方法。
另一方面提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述的数据识别模型的训练方法。
另一方面提供了一种数据处理服务器,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述的数据处理方法。
另一方面提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述的数据处理方法。
本发明提供的数据识别模型的训练方法及装置、数据处理方法及装置,具有如下技术效果:
本发明利用第一机器学习模型对样本数据进行伪装,第二机器学习模型对伪装数据进行识别,通过两个机器学习模型的对抗学习,得到具有高泛化能力的数据识别模型,在利用数据识别模型进行数据处理时可以提高对经伪装后的具有金融欺诈风险的特征的识别适应能力,进而可以大大提高反金融欺诈的可靠性和有效性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明实施例提供的一种数据识别模型的训练方法的流程示意图;
图2是本发明实施例提供的基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数的一种的流程示意图;
图3是本发明实施例提供的调整第一模型参数和第二模型参数,优化目标函数至预设值的一种流程示意图;
图4是本发明实施例提供的一种数据识别模型的应用场景的示意图;
图5是本发明实施例提供的一种机器学习模型的示意图;
图6是本发明实施例提供的一种数据处理方法的流程示意图;
图7是本发明实施例提供的一种数据识别模型的训练装置的组成框图;
图8是本发明实施例提供的一种数据处理装置的组成框图;
图9是本发明实施例提供的一种服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
目前,在一些应用场景中,一些用户为了顺利购买到保险或者以低价买到保险,可能会对保险标的的情况进行伪装,比如购买汽车保险时对上一年度的出险次数、违章情况等的数据作伪装,购买疾病保险时对家族疾病历史等的数据作伪装。一些用户为了顺利获得贷款,可能会对相关的征信数据作伪装。欺诈者进行金融欺诈的方式繁多,以现有的金融欺诈案例作为建模样本不足以支撑复杂模型。单个金融欺诈案例(比如贷款逾期或恶意骗保)常带来数万乃至数十万的损失,具有金融欺诈风险的特征的标注成本高且存在误差,通过线上实验积累样本低效且成本巨大。欺诈者往往针对反欺诈方法作对应的研究,欺诈者对于具有金融欺诈风险的特征的伪装速度更快。因此,现有的数据识别模型对于欺诈者进行了伪装的具有金融欺诈风险的特征就无法准确的识别出来,对于经伪装的具有金融欺诈风险的特征识别适应能力差,导致在实际应用中对不能可靠且有效的减小金融欺诈的发生。
针对上述对经伪装的具有金融欺诈风险的特征识别方法所存在的问题,可以采用机器学习训练数据识别模型,利用机器学习训练得到具有高泛化能力的数据识别模型,在利用数据识别模型进行数据处理时可以提高对经伪装后的具有金融欺诈风险的特征的识别适应能力,进而可以大大提高反金融欺诈的可靠性和有效性。
以下先具体介绍神经网络机器学习训练数据识别模型的实现过程:
图1是本发明实施例提供的一种数据识别模型的训练方法的流程示意图,本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。具体的如图1所示,所述方法可以包括:
S101:获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
在本发明实施例中,在进行神经网络机器学习之前,可以先确定训练数据,可以获取指向具有金融欺诈风险的特征的样本数据作为训练数据。
在实际应用中,可以从数据库(比如微信的数据库)中随机抽取用户,获取当前时间t内用户的样本数据。样本数据包括但不限于年龄、性别、生活区域、职业等基础信息,以及公众号阅读、社交等微信平台数据。比如设置用户i对应的样本数据为xi,xi可以为一个长为K的向量。
S102:基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
在本发明实施例中,将所述样本数据输入所述第一机器学习模型;使用所述第一机器学习模型将所述样本数据与随机数据结合,生成所述伪装数据。第一机器学习模型对样本数据进行伪装可以不依赖金融欺诈案例的收集、实验及积累等。第一机器学习模型作为一用于伪装的神经网络A(xi,WA),通过对样本数据作伪装以期骗过第二机器学习模型,WA为所述第一机器学习模型的第一模型参数。
具体的,根据xi′=A(xi,WA),通过第一机器学习模型将样本数据xi=(xi,0,xi,1,...,xi,K)与随机数据ui=(ui,0,ui,1,...,ui,M)结合,生成对应的伪装数据xi′=(xi,0′,xi,1′,...,xi,K′)。引入随机数据下,每个用户的样本数据对应的随机数据不同,同一个用户的样本数据在不同的时间对应的随机数据也不同,避免生成的伪装数据具有相似性。
在实际应用中,第一机器学习模型将具有金融欺诈风险的特征进行伪装。比如用户阅读极限运动的文章数目为每天平均两篇即xi,j=2,两篇的阅读数目远高于平均水平,可能数据识别模型会因此将该用户视为高危运动爱好者从而拒保或者拒绝放贷。第一机器学习模型可以通过在-0.25至0.25之间的随机数据ui,M将xi,j=2伪装为xi,j′=0.75+ui,M,这样伪装数据xi,j′对应0.5至1之间数目,从而期使数据识别模型误判。
S103:基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
如图2所示,所述基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数的步骤,包括:
S201:将所述伪装数据输入所述第二机器学习模型;
在本发明实施例中,所述第一机器学习模型与所述第二机器学习模型基于生成式对抗网络(GAN,GenerativeAdversarial Networks)建立。第二机器学习模型作为一用于识别的神经网络D(xi,WD),对伪装数据进行识别,WD为所述第二机器学习模型的第二模型参数。第二机器学习模型识别出所述伪装数据具有金融欺诈风险的特征可以是对样本数据中相关特征的还原(比如A类车险要求的上一年度的出险次数为小于等于2,第一机器学习模型将真实的出险次数3伪装为了2,此时第二机器学习模型将被伪装的出险次数2还原为3,实现了识别),也可以是基于伪装数据中的B特征或该用户的其他特征认定伪装数据中的C特征存在一定程度的金融欺诈风险,当然也可以基于其他方式。
具体的,所述第二机器学习模型基于二分类判别网络算法进行数据识别训练。对应的神经网络可以采用DNN(Deep NeuralNetwork,深度神经网络)、RNN(RecurrentNeuralNetwork,循环神经网络)、Wide&Deep learning等。第二机器学习模型进行D(xi′,WD)=0或1的判断。
S202:当所述第二机器学习模型识别出所述伪装数据具有金融欺诈风险的特征时,得到第一识别结果;
此时,得到第一识别结果
S203:当所述第二机器学习模型识别不出所述伪装数据具有金融欺诈风险的特征时,得到第二识别结果;
此时,得到第二识别结果
S204:根据所述第一识别结果和所述第二识别结果,生成所述目标函数。
在本发明实施例中,从时间t开始,每次从当前时间抽取B个样本数据。那么,基于所述第一识别结果构建第一损失函数:l(0,D(xi′,WD));基于所述第二识别结果构建第二损失函数:l(1,D(A(xi,WA),WD));通过公式:得到所述目标函数;其中,xi为第i个样本数据,xi′为第i个样本数据对应的伪装数据,B为时间t内的样本数据个数,D(xi′,WD)表示所述第二机器学习模型识别不出所述伪装数据具有金融欺诈风险的特征,D(A(xi,WA),WD)表示所述第二机器学习模型识别出所述伪装数据具有金融欺诈风险的特征。根据目标函数,目标函数的取值会随着第二机器学习模型是否识别出所述伪装数据具有金融欺诈风险的特征而增加或减小。
S104:调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;
在本发明实施例中,机器学习模型初始化时,目标函数Q的取值为0,所述第一模型参数WA以正太分布、均匀分布或者任意的人工指定分布的形式随机生成;所述第二模型参数WD以正太分布、均匀分布或者任意的人工指分布的形式随机生成。如图5所示,第一机器学习模型和第二机器学习模型通过强化对抗学习,调优各自模型。
具体的,如图3所示,所述调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值的步骤,包括:
S301:基于前次迭代更新的所述第一模型参数的取值和所述目标函数,更新所述第二模型参数的取值;
计算时间t内目标函数Q的取值,保持第一模型参数WA不变,通过用Q对WD取偏导,更新当前第二模型参数WD=前次第二模型参数εD作为步长,它的取值可以根据实际情况进行手动设置,因为步长太小会拖慢迭代的执行速度,而步长太大则有可能在下降时走弯路或者不小心跳过了最优解。
S302:基于前次迭代更新的所述第二模型参数的取值和所述目标函数,更新所述第一模型参数的取值;
利用S301中更新的第二模型参数WD,再计算时间t内目标函数Q的取值,保持第二模型参数WD不变,通过用Q对WA取偏导,更新当前第一模型参数WA=前次第二模型参数εA作为步长,它的取值可以根据实际情况进行手动设置,因为步长太小会拖慢迭代的执行速度,而步长太大则有可能在下降时走弯路或者不小心跳过了最优解。
S303:沿所述目标函数的梯度下降方向进行迭代,重复上述两步骤直到所述目标函数的取值至预设值。
重复上述两步骤S301和S302,每次分别更新WD和WA。当目标函数的取值至预设值时,目标函数的取值趋于稳定,WD的取值和WA的取值也趋于稳定,第一机器学习模型和第二机器学习模型的对抗能力稳定(收敛)。
对所述第一模型参数WA和所述第二模型参数WD进行调整中涉及的模型的超参数可通过Cross-validation(交叉验证)、train-test-split等方式确定。超参数包括梯度下降的学习率、迭代次数和Q-Learning的学习步长等。可以设置梯度下降的学习率为0.0005至0.001,设置迭代次数为50至100。
S105:将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型。
如图4所示,图4是本发明实施例提供的一种数据识别模型的应用场景示意图。图4中训练数据为指向具有金融欺诈风险的特征的样本数据,相应的,后续训练出来的数据识别模型可以对待识别数据(所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据,例如都为一定长度的向量)进行具有金融欺诈风险的特征的识别。
此外,需要说明的是,本发明实施例所述机器学习模型并不仅限于上述的神经网络机器学习模型,还可以包括BP(back propagation)神经网络机器学习模型,贝叶斯神经网络机器学习模型等。在实际应用中,还可以包括其他机器学习模型,例如蜕化的回归机器学习模型、决策树机器学习模型等,本发明实施例并不以上述为限。
由以上本说明书实施例提供的技术方案可见,本说明书实施例中第一机器学习模型和第二机器学习模型通过类似下棋、对弈的对抗学习,调优各自模型。第一机器学习模型通过伪装可以最大能力的突破第二机器学习模型进行识别的防御,第一机器学习模型生成近乎完美的伪装数据。同时第二机器学习模型又能最大限度的识别出样本数据和伪装数据的区别。本说明书实施例无需监督学习,伪装数据可以由第一机器学习模型生成,不需要再额外收集数据。同时两个机器学习模型在线学习,可以随时更新模型,更新模型参数,实时用于反金融欺诈中。
基于上述的数据识别模型,以下介绍本说明书一种数据处理方法的一种具体实施例。图6是本发明实施例提供的一种数据处理方法的流程示意图,本发明提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。具体的如图6所示,所述方法可以包括:
S601:获取用户的待识别数据;
在实际应用中,待识别数据可以来自当前时间投保、申请贷款等用户,所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据。所述待识别数据包括但不限于年龄、性别、生活区域、职业等基础信息,以及公众号阅读、社交等微信平台数据。用户i对应的待识别数据可以为xi和xi′,xi和xi′可以为一个长为K的向量。
S602:将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
在本发明实施例中,数据识别模型基于用户的样本数据与伪装数据进行机器学习训练确定的,数据识别模型识别出所述待识别数据具有金融欺诈风险的特征可以是对待识别数据中相关特征的还原,也可以是基于待识别数据中的D特征或该用户的其他特征认定待识别数据中的E特征存在一定程度的金融欺诈风险,当然也可以基于其他方式。
在实际应用中,以保险风控为例,通常来说男性、大龄、低学历人群从事高风险职业(比如机械操作工、高空作业工)等的概率较高,在意外险上也存在有较高出险概率。当其中的部分人为了可以顺利买到保险或者以低价买到保险,可能会将其基础信息等修改为无业者或者农民。数据识别模型获取到的待识别数据=(男,55岁,低学历,农民,无常用工作wifi,农产品朋友圈阅读=0,...),数据识别模型判定出待识别数据与通常的“农民”有较大差异,数据识别模型识别所述待识别数据指向的具有金融欺诈风险的特征,进而保险公司拒保。
以征信业务为例,如果贷款客户声称自己有很多好友,贷款客户对于好友数量这一特征进行伪装,数据识别模型获取待识别数据,其中贷款客户的好友平均支付次数只有不到每周1次,而如果通常的正常用户的有效好友的好友平均支付次数为每周3次,数据识别模型判定出待识别数据中的“好友数量”与通常的“好友数量”有较大差异,数据识别模型识别所述待识别数据指向的具有金融欺诈风险的特征,进而被银行拒绝放贷。
由以上本说明书实施例提供的技术方案可见,本说明书实施例中通过数据识别模型对每个请求金融服务的用户的相关数据作识别,根据判断其是否是欺诈者,若是则拒绝服务。
本发明实施例还提供了一种数据识别模型的训练装置,如图7所示,所述装置包括:
样本数据获取模块71:用于获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
数据伪装训练模块72:用于基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
数据识别训练模块73:用于基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
模型参数调整模块74:用于调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型。
需要说明的,所述装置实施例中的装置与方法实施例基于同样的发明构思。
本发明实施例还提供了一种数据处理装置,如图8所示,所述装置包括:
待识别数据获取模块81:用于获取用户的待识别数据;
数据识别处理模块82:用于将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
其中,所述数据识别模型是基于用户的样本数据与伪装数据进行机器学习训练确定的,所述样本数据指向具有金融欺诈风险的特征,所述待识别数据与所述伪装数据属于同一类型的数据。
需要说明的,所述装置实施例中的装置与方法实施例基于同样的发明构思。
本发明实施例提供了一种数据处理服务器,该服务器包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由该处理器加载并执行以实现如上述方法实施例所提供的数据处理方法。
存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、功能所需的应用程序等;存储数据区可存储根据所述设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
本发明实施例还提供了一种服务器的结构示意图,请参阅图9,该服务器900用于实施上述实施例中提供的数据处理方法,具体来讲,所述服务器结构可以包括上述装置。该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,CPU)910(例如,一个或一个以上处理器)和存储器930,一个或一个以上存储应用程序923或数据922的存储介质920(例如一个或一个以上海量存储设备)。其中,存储器930和存储介质920可以是短暂存储或持久存储。存储在存储介质920的程序可以包括一个或一个以上模块,每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器910可以设置为与存储介质920通信,在服务器900上执行存储介质920中的一系列指令操作。服务器900还可以包括一个或一个以上电源960,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口940,和/或,一个或一个以上操作系统921,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本发明的实施例还提供了一种存储介质,所述存储介质可设置于服务器之中以保存用于实现方法实施例中一种数据处理方法相关的至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由该处理器加载并执行以实现上述方法实施例提供的数据处理方法。
可选地,在本实施例中,上述存储介质可以位于计算机网络的多个网络服务器中的至少一个网络服务器。可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例提供了一种训练服务器,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述方法实施例提供的数据识别模型的训练方法。
本发明的实施例还提供了一种存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述方法实施例提供的数据识别模型的训练方法。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统和服务器实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种数据识别模型的训练方法,其特征在于,所述方法包括:
获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;
将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型;
其中,所述第一机器学习模型与所述第二机器学习模型基于生成式对抗网络建立。
2.根据权利要求1所述的方法,其特征在于,所述基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据的步骤,包括:
将所述样本数据输入所述第一机器学习模型;
使用所述第一机器学习模型将所述样本数据与随机数据结合,生成所述伪装数据。
3.根据权利要求1所述的方法,其特征在于,所述基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数的步骤,包括:
将所述伪装数据输入所述第二机器学习模型;
当所述第二机器学习模型识别出所述伪装数据具有金融欺诈风险的特征时,得到第一识别结果;
当所述第二机器学习模型识别不出所述伪装数据具有金融欺诈风险的特征时,得到第二识别结果;
根据所述第一识别结果和所述第二识别结果,生成所述目标函数。
4.根据权利要求3所述的方法,其特征在于,所述调整所述第一机器学习模型的模型参数和所述第二机器学习模型的模型参数,优化所述目标函数至预设值的步骤,包括:
基于前次迭代更新的所述第一模型参数的取值和所述目标函数,更新所述第二模型参数的取值;
基于前次迭代更新的所述第二模型参数的取值和所述目标函数,更新所述第一模型参数的取值;
沿所述目标函数的梯度下降方向进行迭代,重复上述两步骤直到所述目标函数的取值至预设值。
5.根据权利要求3或4任一所述的方法,其特征在于,所述根据所述第一识别结果和所述第二识别结果,生成所述目标函数的步骤,包括:
基于所述第一识别结果构建第一损失函数:l(0,D(xi′,WD));
基于所述第二识别结果构建第二损失函数:l(1,D(A(xi,WA),WD));
通过公式: 得到所述目标函数;
其中,xi为第i个样本数据,xi′为第i个样本数据对应的伪装数据,B为时间t内的样本数据个数,WA为所述第一模型参数,WD为所述第二模型参数,D(xi′,WD)表示所述第二机器学习模型识别不出所述伪装数据具有金融欺诈风险的特征,D(A(xi,WA),WD)表示所述第二机器学习模型识别出所述伪装数据具有金融欺诈风险的特征。
6.根据权利要求4所述的方法,其特征在于,设置梯度下降的学习率为0.0005至0.001,设置迭代次数为50至100。
7.根据权利要求1所述的方法,其特征在于,所述第二机器学习模型基于二分类判别网络算法进行数据识别训练。
8.一种数据处理方法,其特征在于,所述方法包括:
获取用户的待识别数据;
将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
其中,所述数据识别模型是基于用户的样本数据与伪装数据进行机器学习训练确定的,所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据。
9.一种数据识别模型的训练装置,其特征在于,所述装置包括:
样本数据获取模块:用于获取用户的样本数据,所述样本数据指向具有金融欺诈风险的特征;
数据伪装训练模块:用于基于所述样本数据,使用第一机器学习模型进行数据伪装训练,得到所述样本数据对应的伪装数据;
数据识别训练模块:用于基于所述伪装数据,使用第二机器学习模型进行数据识别训练,得到目标函数;
模型参数调整模块:用于调整所述第一机器学习模型的第一模型参数和所述第二机器学习模型的第二模型参数,优化所述目标函数的取值至预设值;将当前所述第二模型参数对应的所述第二机器学习模型作为所述数据识别模型;
其中,所述第一机器学习模型与所述第二机器学习模型基于生成式对抗网络建立。
10.一种数据处理装置,其特征在于,所述装置包括:
待识别数据获取模块:用于获取用户的待识别数据;
数据识别处理模块:用于将所述待识别数据输入数据识别模型进行数据识别处理,识别所述待识别数据所指向的具有金融欺诈风险的特征;
其中,所述数据识别模型是基于用户的样本数据与伪装数据进行机器学习训练确定的,所述待识别数据与所述样本数据、所述伪装数据属于同一类型的数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910160638.4A CN109948670A (zh) | 2019-03-04 | 2019-03-04 | 数据识别模型的训练方法及装置、数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910160638.4A CN109948670A (zh) | 2019-03-04 | 2019-03-04 | 数据识别模型的训练方法及装置、数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109948670A true CN109948670A (zh) | 2019-06-28 |
Family
ID=67006583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910160638.4A Pending CN109948670A (zh) | 2019-03-04 | 2019-03-04 | 数据识别模型的训练方法及装置、数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948670A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807207A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN110956549A (zh) * | 2019-12-04 | 2020-04-03 | 浙江同花顺智能科技有限公司 | 一种订单识别方法、装置以及相关设备 |
JP6813231B1 (ja) * | 2019-10-21 | 2021-01-13 | 株式会社エイシング | 制御装置、方法、プログラム及びシステム |
CN112671633A (zh) * | 2020-12-01 | 2021-04-16 | 重庆邮电大学 | 一种基于bp神经网络预测的二分探测心跳间隔系统及方法 |
CN113115311A (zh) * | 2021-04-12 | 2021-07-13 | 江苏通付盾科技有限公司 | 一种基于支持向量机模型的欺诈行为的识别方法及系统 |
CN113762585A (zh) * | 2021-05-17 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 数据的处理方法、账号类型的识别方法及装置 |
CN116452923A (zh) * | 2023-06-16 | 2023-07-18 | 安徽大学 | 一种针对对抗攻击的协同防御策略和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180218261A1 (en) * | 2017-01-31 | 2018-08-02 | Paypal, Inc. | Fraud prediction based on partial usage data |
CN108629680A (zh) * | 2018-04-03 | 2018-10-09 | 中国农业银行股份有限公司 | 一种风险识别方法及系统 |
CN108769993A (zh) * | 2018-05-15 | 2018-11-06 | 南京邮电大学 | 基于生成对抗网络的通信网络异常用户检测方法 |
-
2019
- 2019-03-04 CN CN201910160638.4A patent/CN109948670A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180218261A1 (en) * | 2017-01-31 | 2018-08-02 | Paypal, Inc. | Fraud prediction based on partial usage data |
CN108629680A (zh) * | 2018-04-03 | 2018-10-09 | 中国农业银行股份有限公司 | 一种风险识别方法及系统 |
CN108769993A (zh) * | 2018-05-15 | 2018-11-06 | 南京邮电大学 | 基于生成对抗网络的通信网络异常用户检测方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6813231B1 (ja) * | 2019-10-21 | 2021-01-13 | 株式会社エイシング | 制御装置、方法、プログラム及びシステム |
US11940787B2 (en) | 2019-10-21 | 2024-03-26 | Aising Ltd. | Control device, method, program, and system using machine learning technology |
CN110807207B (zh) * | 2019-10-30 | 2021-10-08 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN110807207A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN110956549B (zh) * | 2019-12-04 | 2023-09-22 | 浙江同花顺智能科技有限公司 | 一种订单识别方法、装置以及相关设备 |
CN110956549A (zh) * | 2019-12-04 | 2020-04-03 | 浙江同花顺智能科技有限公司 | 一种订单识别方法、装置以及相关设备 |
CN112671633A (zh) * | 2020-12-01 | 2021-04-16 | 重庆邮电大学 | 一种基于bp神经网络预测的二分探测心跳间隔系统及方法 |
CN112671633B (zh) * | 2020-12-01 | 2022-08-23 | 重庆邮电大学 | 一种基于bp神经网络预测的二分探测心跳间隔系统及方法 |
CN113115311A (zh) * | 2021-04-12 | 2021-07-13 | 江苏通付盾科技有限公司 | 一种基于支持向量机模型的欺诈行为的识别方法及系统 |
CN113115311B (zh) * | 2021-04-12 | 2022-12-06 | 江苏通付盾科技有限公司 | 一种基于支持向量机模型的欺诈行为的识别方法及系统 |
CN113762585A (zh) * | 2021-05-17 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 数据的处理方法、账号类型的识别方法及装置 |
CN116452923B (zh) * | 2023-06-16 | 2023-09-01 | 安徽大学 | 一种针对对抗攻击的协同防御策略和系统 |
CN116452923A (zh) * | 2023-06-16 | 2023-07-18 | 安徽大学 | 一种针对对抗攻击的协同防御策略和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948670A (zh) | 数据识别模型的训练方法及装置、数据处理方法及装置 | |
CN111967971B (zh) | 银行客户数据处理方法及装置 | |
TWI752349B (zh) | 風險識別方法及裝置 | |
US20150262184A1 (en) | Two stage risk model building and evaluation | |
Yang et al. | ENHANCING FINANCIAL SERVICES THROUGH BIG DATA AND AI-DRIVEN CUSTOMER INSIGHTS AND RISK ANALYSIS | |
CN113034145A (zh) | 用户异常加密数字资产交易类别判断方法、装置 | |
CN109522317A (zh) | 一种反欺诈预警方法及系统 | |
Ford et al. | Identifying Suspicious Bidders Utilizing Hierarchical Clustering and Decision Trees. | |
CN113487109B (zh) | 群体识别方法、装置、电子设备及存储介质 | |
CN113011893B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
Karwowski et al. | Sequential Stackelberg Games with bounded rationality | |
Lee et al. | Taiwan stock investment with gene expression programming | |
EP3879418B1 (en) | Identity verification method and device | |
Terko et al. | Credit scoring model implementation in a microfinance context | |
CN110795232B (zh) | 数据处理方法、装置、计算机可读存储介质和计算机设备 | |
CN113706258A (zh) | 基于组合模型的产品推荐方法、装置、设备及存储介质 | |
CN113706290A (zh) | 在区块链上采用神经架构搜索的信用评估模型构建方法、系统、设备及存储介质 | |
CN113762365A (zh) | 用户意愿评估方法、装置、计算机设备和存储介质 | |
Karthika et al. | Detection of Credit Card Fraud Detection Using HPO with Inception Based Deep Learning Model | |
KR102678395B1 (ko) | 투자 기준 딥러닝 모델 기반 최적 투자 전략 제공 시스템 | |
Charan et al. | Real time loan prediction system using novel logistic regression algorithm compared with decision tree algorithm for improved accuracy rate | |
Emambocus et al. | An Optimized Harris Hawks Algorithm for Enhancing ANN Performance in Prediction Tasks Applied in Sales Domain | |
Park et al. | Analysis and Prediction of Patterns in Futures Trading Datasets Using lstm | |
Hollis | Deep Learning Algorithms Applied to Blockchain-Based Financial Time Series | |
Hudnurkar et al. | Legalities in Metaverse–Ethereum Fraud Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |