CN110969441A - 基于深度学习的反欺诈模型处理方法及装置 - Google Patents
基于深度学习的反欺诈模型处理方法及装置 Download PDFInfo
- Publication number
- CN110969441A CN110969441A CN201911333796.1A CN201911333796A CN110969441A CN 110969441 A CN110969441 A CN 110969441A CN 201911333796 A CN201911333796 A CN 201911333796A CN 110969441 A CN110969441 A CN 110969441A
- Authority
- CN
- China
- Prior art keywords
- data
- layer
- fraud
- neural network
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 53
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 238000007781 pre-processing Methods 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 238000003062 neural network model Methods 0.000 claims abstract description 21
- 238000004140 cleaning Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000010606 normalization Methods 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 23
- 210000002569 neuron Anatomy 0.000 claims description 19
- 230000008030 elimination Effects 0.000 claims description 17
- 238000003379 elimination reaction Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 9
- 230000003213 activating effect Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000007477 logistic regression Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 239000000872 buffer Substances 0.000 description 4
- 239000000243 solution Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000012089 stop solution Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4016—Transaction verification involving fraud or risk level assessment in transaction processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种基于深度学习的反欺诈模型处理方法及装置,方法包括:对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型;本申请能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
Description
技术领域
本申请涉及数据处理领域,具体涉及一种基于深度学习的反欺诈模型处理方法及装置。
背景技术
现有技术中主要是使用传统的机器学习方法逻辑回归。虽然逻辑回归并不复杂,但正是由于其简单,高效,可解释性强的特点,在实际用途中十分的广泛,从购物预测到用户营销响应,从流失分析到信用评估,都能看到其活跃的身影,可以说,逻辑回归占据了分类算法中非常重要的地位。
在反欺诈领域,现有技术中常常会根据业务理解,以及各方数据,尝试做各种特征工程和特征选择。最后才会将处理好的数据放入到逻辑回归中进行训练。在机器学习中,特征工程决定了这个任务可以达到的上限,算法只能是尽可能的去逼近这个上限。
现有技术中常常使用逻辑回归,因为其简单,可解释强。但是正由于其太过于简单,在训练的过程中,容易欠拟合,分类精度不高。而且在数据特征有缺失或者特征空间很大时表现效果也不够好。
同时,在金融反欺诈领域,数据其实是时序类数据,一个人往往会根据时间的推移,表现出不同的行为。而逻辑回归也无法很好的处理时序类数据。这些缺点都表明,逻辑回归在反欺诈领域无法取得比较好的成绩。
发明内容
针对现有技术中的问题,本申请提供一种基于深度学习的反欺诈模型处理方法及装置,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
为了解决上述问题中的至少一个,本申请提供以下技术方案:
第一方面,本申请提供一种基于深度学习的反欺诈模型处理方法,包括:
对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;
将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
进一步地,所述根据数据的数据类型,分别执行对应的数据预处理,包括:
若数据类型为类别型变量,则创建一类别输入矩阵;
遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层;
将每个类别型变量映射到相同的预设维度中。
进一步地,所述根据数据的数据类型,分别执行对应的数据预处理,包括:
若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
进一步地,所述根据数据的数据类型,分别执行对应的数据预处理,包括:
若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
第二方面,本申请提供一种基于深度学习的反欺诈模型处理装置,包括:
数据清洗和预处理模块,用于对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;
模型训练模块,用于将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
进一步地,所述数据清洗和预处理模块包括:
类别型变量第一预处理单元,用于若数据类型为类别型变量,则创建一类别输入矩阵;
类别型变量第二预处理单元,用于遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层;
类别型变量第三预处理单元,用于将每个类别型变量映射到相同的预设维度中。
进一步地,所述数据清洗和预处理模块包括:
数值型变量第一预处理单元,用于若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
数值型变量第二预处理单元,用于然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
进一步地,所述模型训练模块包括:
第一模型训练单元,用于将经过合并后的数据输入GRU神经网络中;
第二模型训练单元,用于依次接入一层批量归一化层、一层随机剔除神经元、一个全连接神经网络层、一个批量归一化层、随机剔除神经元层、和全连接层、激活层、批量归一化层和随机剔除神经元层的组合以及一个全连接层,用s函数激活后得到所述反欺诈神经网络模型。
第三方面,本申请提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的基于深度学习的反欺诈模型处理方法的步骤。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述的基于深度学习的反欺诈模型处理方法的步骤。
由上述技术方案可知,本申请提供一种基于深度学习的反欺诈模型处理方法及装置,通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中的基于深度学习的反欺诈模型处理方法的流程示意图;
图2为本申请实施例中的基于深度学习的反欺诈模型处理装置的结构图;
图3为本申请实施例中的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
考虑到现有技术中常常使用逻辑回归,因为其简单,可解释强。但是正由于其太过于简单,在训练的过程中,容易欠拟合,分类精度不高。而且在数据特征有缺失或者特征空间很大时表现效果也不够好的问题,本申请提供一种基于深度学习的反欺诈模型处理方法及装置,通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
为了能够有效提升对欺诈用户和正常用户的识别准确度和识别效率,本申请提供一种基于深度学习的反欺诈模型处理方法的实施例,参见图1,所述基于深度学习的反欺诈模型处理方法具体包含有如下内容:
步骤S101:对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理。
步骤S102:将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
从上述描述可知,本申请实施例提供的基于深度学习的反欺诈模型处理方法,能够通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
在本申请的基于深度学习的反欺诈模型处理方法的一实施例中,还可以具体包含如下内容:
若数据类型为类别型变量,则创建一类别输入矩阵;
遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层;
将每个类别型变量映射到相同的预设维度中。
在本申请的基于深度学习的反欺诈模型处理方法的一实施例中,还可以具体包含如下内容:
若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
在本申请的基于深度学习的反欺诈模型处理方法的一实施例中,还可以具体包含如下内容:
将经过合并后的数据输入GRU神经网络中;
依次接入一层批量归一化层、一层随机剔除神经元、一个全连接神经网络层、一个批量归一化层、随机剔除神经元层、和全连接层、激活层、批量归一化层和随机剔除神经元层的组合以及一个全连接层,用s函数激活后得到所述反欺诈神经网络模型。
为了能够有效提升对欺诈用户和正常用户的识别准确度和识别效率,本申请提供一种用于实现所述基于深度学习的反欺诈模型处理方法的全部或部分内容的基于深度学习的反欺诈模型处理装置的实施例,参见图2,所述基于深度学习的反欺诈模型处理装置具体包含有如下内容:
数据清洗和预处理模块10,用于对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理。
模型训练模块20,用于将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
从上述描述可知,本申请实施例提供的基于深度学习的反欺诈模型处理装置,能够通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
在本申请的基于深度学习的反欺诈模型处理装置的一实施例中,所述数据清洗和预处理模块10包括:
类别型变量第一预处理单元,用于若数据类型为类别型变量,则创建一类别输入矩阵。
类别型变量第二预处理单元,用于遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层。
类别型变量第三预处理单元,用于将每个类别型变量映射到相同的预设维度中。
在本申请的基于深度学习的反欺诈模型处理装置的一实施例中,所述数据清洗和预处理模块10包括:
数值型变量第一预处理单元,用于若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense。
数值型变量第二预处理单元,用于然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
在本申请的基于深度学习的反欺诈模型处理装置的一实施例中,所述模型训练模块20包括:
第一模型训练单元,用于将经过合并后的数据输入GRU神经网络中。
第二模型训练单元,用于依次接入一层批量归一化层、一层随机剔除神经元、一个全连接神经网络层、一个批量归一化层、随机剔除神经元层、和全连接层、激活层、批量归一化层和随机剔除神经元层的组合以及一个全连接层,用s函数激活后得到所述反欺诈神经网络模型。
为了更进一步说明本方案,本申请还提供一种应用上述基于深度学习的反欺诈模型处理装置实现基于深度学习的反欺诈模型处理方法的具体应用实例,具体包含有如下内容:
随着技术的发展,后来提出了集成学习,其中最具代表性的算法XGboost,在它刚出来的时候,就取得了很好的成绩,席卷各个比赛的榜单。因此后来我们改用XGboost算法来识别欺诈用户。其中XGboost是GBDT的一种高效实现,是基于决策树的一种继承学习范式。XGboost算法的步骤和GBDT基本相同,都是首先初始化为一个常数,GBDT是根据一阶导数,XGBoost是根据一阶导数和二阶导数,迭代生成基学习器,相加更新学习器。XGBoost算法的优点有1.内置加入正则化。2.内置并行特征处理,加快模型训练过程。3.高度的灵活性,允许用户自定义优化目标和评价标准。4.内置缺失值处理逻辑……。XGboost有那么多优点,使得它现在在机器学习领域大放光彩,但是它也有若干缺点,比如仍然是串行训练,这个无法修改。无法从时序类数据中发现特征等等。
其他的集成学习算法比如随机森林,LightGBM等等,虽然细节不一样,但是都大同小异了。这些是目前反欺诈领域的现状,无法很好的处理时序类数据。前面说过,在金融反欺诈领域,用户的行为会根据时间的变化而变化,如果一个算法可以很好的处理时序类算法,可以想象,在反欺诈领域,应该会表现得很好。因此我们想到使用深度学习领域的递归神经网络来处理这个业务场景。
一般而言,我们说的递归神经网络是RNN,它是最基础的递归神经网络,但是由于其存在一个明显的缺点,在进行权重更新的时候,可能会出现梯度消失或梯度爆炸这个明显的问题。所以RNN在处理长序列上的表现不如短序列,造成了一旦序列过长便使得准确率下降的结果,以及更严重的Long-Term Dependency问题。后来争对这个问题,有人提出长短时记忆网络LSTM,它的设计就是为了解决网络过长的情况下会出现梯度消失的现象,其网络采用三个门结构,分别为输入门,输出门,忘记门。随着信息进入该模型,Lstm的cell会对该信息进行判断,符合规则的信息会被留下,不符合的信息会被遗忘,以此原理,可以解决神经网络中长序列依赖问题。所以在时序类数据中,LSTM表现非常优异,但是由于内部结构过于复杂,导致训练过慢。
后来,有人提出了GRU神经网络,其中只使用了2个门结构,更新门和重置门。相比于LSTM,其结构更简单,并且效果和LSTM也差不多。所以本专利使用GRU网络来处理时序数据。
算法选择上,我们使用最新的深度学习里面的递归神经网络GRU,一般在深度学习领域中,我们不需要做特征工程,深层算法,会捕获数据中的特征表示。然而我们使用机器学习算法的时候,特征工程是非常重要的。
本发明的目的旨在使用高效的递归神经网络GRU对时序类数据进行分类。我们使用GRU对反欺诈数据做2分类,识别是欺诈用户还是正常用户。模型准确性达到90%.因为传统基础的RNN网络,由于其原本的网络结构,导致了RNN虽然能处理时序类数据,但是可能会造成梯度消失和梯度爆炸的问题,导致特征无法更新和求解。因此研究人员为了解决长序列梯度消失的问题,专门设计了一种网络叫LSTM,其使用了三个门,分别为遗忘门,输入门,输出门。其中遗忘门用来控制T时刻需要保留多少T-1时刻的记忆,输入门表示T时刻需要增加哪些新信息。输出们表示T时刻输出哪些记忆。虽然这个结构非常好,但是计算量增大了。因此本专利使用GRU网络,因为GRU只有两个门,分别为遗忘门和更新门。网络结构更简单,运算更快,因此更高效。
为了实现上述目的,本发明的具体实施包括如下步骤:
步骤一:对数据进行初步清洗。比如,统计每个特征的同一值和空值,初步筛选掉无用特征。再接着基于业务知识,做一些特征工程和特征衍生的工作,这一步会显著提高数据的表现能力。
步骤二:深度学习算法的输入和机器学习算法的输入不太一样,我们需要先对数据做一些预处理。首先,将数据分为类别型变量和数值型变量。这两种变量会进入到不同的Input中,走不同的处理逻辑。
步骤三:统计每个类别型变量的类别个数,存储到字典中,key为该类别的名字,value是一个元组,元组1为该类别的类别个数,元组2为该类别即将由多少维向量表示。这里我们假设使用64维向量来表示一个类别。创建一个类别输入矩阵。矩阵形状为类别型变量的个数。遍历所有的类别,然后从类别输入矩阵中依次的取出每一个类别变量,然后进入到嵌入层,因为每个类别型变量的个数不一致,所以我们需要加入一个嵌入层,将每个类别变量映射到相同的维度中,也就是之前设置的64维。假设一共有p个类别特征,类别型变量遍历完成后,我们对这p个变量特征进行合并输出就是64*p维向量了,为了防止过拟合,再跟上一层高斯随机剔除神经元.设此时的输出层名为category_embeds。
步骤四:构造数值型变量的输入Input,名为numerical_input。其中shape为数值型变量的个数。因为数值型变量不同于类别型变量,已经是数值了,所以不需要加一层嵌入层。我们在数值型变量的Input层后面紧跟一层全连接层Dense。输出神经元个数为len(numerical)//8+8,设为q,采用线性整流激活函数。然后再接一层dropout。为了加快训练速度,再加一层批量归一化层进行批量归一化。然后调用形状重置对其维度进行扩展一维,方便后续和类别型特征做合并。然后输出为数值型的张量名为numerical_x。则输出的numerical_x的维度为输出的神经元个数q维。
步骤五:在步骤三和步骤四,我们已经提前分别处理好了类别型变量和数值型变量。接着我们将处理好的类别型变量层和numerical_x进行合并,输出为64p+q维,该层命名为x。
步骤六:经过前面几步,已经将数据处理好了。接着我们可以将数据输入到GRU神经网络中。同样为了加快训练,紧跟一层批量归一化层,为了防止过拟合,再接一层随机剔除神经元。然后接入一个全连接神经网络层,使用线性整流函数激活。为了防止梯度消失,再使用新型线性整流函数激活。再继续接一个批量归一化层,以及随机剔除神经元层。再接一个全连接层,激活层,批量归一化层和随机剔除神经元层组合。最后接一个全连接层,输出为1个神经单元out_p,用s函数激活。因为是2分类问题,所以用s函数激活即可。
步骤七:构造Model对象,输入category_input和numerical_input,输出为out_p标量,也就是表明是坏人的概率是多少。至此,整个网络模型构造完成。
步骤八:为了防止训练的时候过拟合,加入提取停止解决方案。然后使用自适应矩阵优化方法进行优化目标。
步骤九:模型训练完成后,达到了上线的要求,为了保证实时调用的性能要求,以及统一研发的编程语言,使用Java调用持久化的模型对象pb文件,保证并发要求。
从硬件层面来说,为了能够有效提升对欺诈用户和正常用户的识别准确度和识别效率,本申请提供一种用于实现所述基于深度学习的反欺诈模型处理方法中的全部或部分内容的电子设备的实施例,所述电子设备具体包含有如下内容:
处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述通信接口用于实现基于深度学习的反欺诈模型处理装置与核心业务系统、用户终端以及相关数据库等相关设备之间的信息传输;该逻辑控制器可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该逻辑控制器可以参照实施例中的基于深度学习的反欺诈模型处理方法的实施例,以及基于深度学习的反欺诈模型处理装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。
可以理解的是,所述用户终端可以包括智能手机、平板电子设备、网络机顶盒、便携式计算机、台式电脑、个人数字助理(PDA)、车载设备、智能穿戴设备等。其中,所述智能穿戴设备可以包括智能眼镜、智能手表、智能手环等。
在实际应用中,基于深度学习的反欺诈模型处理方法的部分可以在如上述内容所述的电子设备侧执行,也可以所有的操作都在所述客户端设备中完成。具体可以根据所述客户端设备的处理能力,以及用户使用场景的限制等进行选择。本申请对此不作限定。若所有的操作都在所述客户端设备中完成,所述客户端设备还可以包括处理器。
上述的客户端设备可以具有通信模块(即通信单元),可以与远程的服务器进行通信连接,实现与所述服务器的数据传输。所述服务器可以包括任务调度中心一侧的服务器,其他的实施场景中也可以包括中间平台的服务器,例如与任务调度中心服务器有通信链接的第三方服务器平台的服务器。所述的服务器可以包括单台计算机设备,也可以包括多个服务器组成的服务器集群,或者分布式装置的服务器结构。
图3为本申请实施例的电子设备9600的系统构成的示意框图。如图3所示,该电子设备9600可以包括中央处理器9100和存储器9140;存储器9140耦合到中央处理器9100。值得注意的是,该图3是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
一实施例中,基于深度学习的反欺诈模型处理方法功能可以被集成到中央处理器9100中。其中,中央处理器9100可以被配置为进行如下控制:
步骤S101:对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理。
步骤S102:将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
从上述描述可知,本申请实施例提供的电子设备,通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
在另一个实施方式中,基于深度学习的反欺诈模型处理装置可以与中央处理器9100分开配置,例如可以将基于深度学习的反欺诈模型处理装置配置为与中央处理器9100连接的芯片,通过中央处理器的控制来实现基于深度学习的反欺诈模型处理方法功能。
如图3所示,该电子设备9600还可以包括:通信模块9110、输入单元9120、音频处理器9130、显示器9160、电源9170。值得注意的是,电子设备9600也并不是必须要包括图3中所示的所有部件;此外,电子设备9600还可以包括图3中没有示出的部件,可以参考现有技术。
如图3所示,中央处理器9100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器9100接收输入并控制电子设备9600的各个部件的操作。
其中,存储器9140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器9100可执行该存储器9140存储的该程序,以实现信息存储或处理等。
输入单元9120向中央处理器9100提供输入。该输入单元9120例如为按键或触摸输入装置。电源9170用于向电子设备9600提供电力。显示器9160用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
该存储器9140可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器9140还可以是某种其它类型的装置。存储器9140包括缓冲存储器9141(有时被称为缓冲器)。存储器9140可以包括应用/功能存储部9142,该应用/功能存储部9142用于存储应用程序和功能程序或用于通过中央处理器9100执行电子设备9600的操作的流程。
存储器9140还可以包括数据存储部9143,该数据存储部9143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器9140的驱动程序存储部9144可以包括电子设备的用于通信功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通信模块9110即为经由天线9111发送和接收信号的发送机/接收机9110。通信模块(发送机/接收机)9110耦合到中央处理器9100,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。
基于不同的通信技术,在同一电子设备中,可以设置有多个通信模块9110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通信模块(发送机/接收机)9110还经由音频处理器9130耦合到扬声器9131和麦克风9132,以经由扬声器9131提供音频输出,并接收来自麦克风9132的音频输入,从而实现通常的电信功能。音频处理器9130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器9130还耦合到中央处理器9100,从而使得可以通过麦克风9132能够在本机上录音,且使得可以通过扬声器9131来播放本机上存储的声音。
本申请的实施例还提供能够实现上述实施例中的执行主体为服务器或客户端的基于深度学习的反欺诈模型处理方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的执行主体为服务器或客户端的基于深度学习的反欺诈模型处理方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤S101:对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理。
步骤S102:将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
从上述描述可知,本申请实施例提供的计算机可读存储介质,通过对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,能够有效提升对欺诈用户和正常用户的识别准确度和识别效率。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于深度学习的反欺诈模型处理方法,其特征在于,所述方法包括:
对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;
将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
2.根据权利要求1所述的基于深度学习的反欺诈模型处理方法,其特征在于,所述根据数据的数据类型,分别执行对应的数据预处理,包括:
若数据类型为类别型变量,则创建一类别输入矩阵;
遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层;
将每个类别型变量映射到相同的预设维度中。
3.根据权利要求1所述的基于深度学习的反欺诈模型处理方法,其特征在于,所述根据数据的数据类型,分别执行对应的数据预处理,包括:
若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
4.根据权利要求1所述的基于深度学习的反欺诈模型处理方法,其特征在于,所述将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型,包括:
将经过合并后的数据输入GRU神经网络中;
依次接入一层批量归一化层、一层随机剔除神经元、一个全连接神经网络层、一个批量归一化层、随机剔除神经元层、和全连接层、激活层、批量归一化层和随机剔除神经元层的组合以及一个全连接层,用s函数激活后得到所述反欺诈神经网络模型。
5.一种基于深度学习的反欺诈模型处理装置,其特征在于,包括:
数据清洗和预处理模块,用于对数据进行初步清洗,并根据数据的数据类型,分别执行对应的数据预处理;
模型训练模块,用于将经过数据预处理后的不同类型的数据进行合并,并将经过合并后的数据输入预设神经网络中进行训练,得到反欺诈神经网络模型。
6.根据权利要求5所述的基于深度学习的反欺诈模型处理装置,其特征在于,所述数据清洗和预处理模块包括:
类别型变量第一预处理单元,用于若数据类型为类别型变量,则创建一类别输入矩阵;
类别型变量第二预处理单元,用于遍历所有类别,并从所述类别输入矩阵中依次取出每一类别型变量,然后进入到嵌入层;
类别型变量第三预处理单元,用于将每个类别型变量映射到相同的预设维度中。
7.根据权利要求5所述的基于深度学习的反欺诈模型处理装置,其特征在于,所述数据清洗和预处理模块包括:
数值型变量第一预处理单元,用于若数据类型为数值型变量,则在数值型变量的Input层后面紧跟一层全连接层Dense;
数值型变量第二预处理单元,用于然后再接一层dropout和一层批量归一化层,然后调用形状重置对其维度进行扩展。
8.根据权利要求5所述的基于深度学习的反欺诈模型处理装置,其特征在于,所述模型训练模块包括:
第一模型训练单元,用于将经过合并后的数据输入GRU神经网络中;
第二模型训练单元,用于依次接入一层批量归一化层、一层随机剔除神经元、一个全连接神经网络层、一个批量归一化层、随机剔除神经元层、和全连接层、激活层、批量归一化层和随机剔除神经元层的组合以及一个全连接层,用s函数激活后得到所述反欺诈神经网络模型。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至4任一项所述的基于深度学习的反欺诈模型处理方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至4任一项所述的基于深度学习的反欺诈模型处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911333796.1A CN110969441A (zh) | 2019-12-23 | 2019-12-23 | 基于深度学习的反欺诈模型处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911333796.1A CN110969441A (zh) | 2019-12-23 | 2019-12-23 | 基于深度学习的反欺诈模型处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110969441A true CN110969441A (zh) | 2020-04-07 |
Family
ID=70035828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911333796.1A Pending CN110969441A (zh) | 2019-12-23 | 2019-12-23 | 基于深度学习的反欺诈模型处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969441A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634026A (zh) * | 2020-12-30 | 2021-04-09 | 四川新网银行股份有限公司 | 基于用户页面操作行为的信用欺诈识别方法 |
CN113364702A (zh) * | 2021-06-04 | 2021-09-07 | 上海明略人工智能(集团)有限公司 | 广告流量异常检测方法、系统、存储介质及电子设备 |
CN113630495A (zh) * | 2020-05-07 | 2021-11-09 | 中国电信股份有限公司 | 涉诈订单预测模型训练方法和装置,订单预测方法和装置 |
CN116205664A (zh) * | 2023-04-28 | 2023-06-02 | 成都新希望金融信息有限公司 | 一种中介欺诈识别方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035003A (zh) * | 2018-07-04 | 2018-12-18 | 北京玖富普惠信息技术有限公司 | 基于机器学习的反欺诈模型建模方法和反欺诈监控方法 |
CN109710768A (zh) * | 2019-01-10 | 2019-05-03 | 西安交通大学 | 一种基于mimo递归神经网络的纳税人行业两层级分类方法 |
CN109919358A (zh) * | 2019-01-31 | 2019-06-21 | 中国科学院软件研究所 | 一种基于神经网络时空注意力机制的实时站点流量预测方法 |
CN110222733A (zh) * | 2019-05-17 | 2019-09-10 | 嘉迈科技(海南)有限公司 | 一种高精度的多阶神经网络分类方法及系统 |
-
2019
- 2019-12-23 CN CN201911333796.1A patent/CN110969441A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035003A (zh) * | 2018-07-04 | 2018-12-18 | 北京玖富普惠信息技术有限公司 | 基于机器学习的反欺诈模型建模方法和反欺诈监控方法 |
CN109710768A (zh) * | 2019-01-10 | 2019-05-03 | 西安交通大学 | 一种基于mimo递归神经网络的纳税人行业两层级分类方法 |
CN109919358A (zh) * | 2019-01-31 | 2019-06-21 | 中国科学院软件研究所 | 一种基于神经网络时空注意力机制的实时站点流量预测方法 |
CN110222733A (zh) * | 2019-05-17 | 2019-09-10 | 嘉迈科技(海南)有限公司 | 一种高精度的多阶神经网络分类方法及系统 |
Non-Patent Citations (2)
Title |
---|
JEFF HEATON: ""Automated Feature Engineering for Deep Neural Networks with Genetic Programming"" * |
NAN DING: ""Real-time anomaly detection based on long short-Term memory and Gaussian Mixture Model"" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113630495A (zh) * | 2020-05-07 | 2021-11-09 | 中国电信股份有限公司 | 涉诈订单预测模型训练方法和装置,订单预测方法和装置 |
CN113630495B (zh) * | 2020-05-07 | 2022-08-02 | 中国电信股份有限公司 | 涉诈订单预测模型训练方法和装置,订单预测方法和装置 |
CN112634026A (zh) * | 2020-12-30 | 2021-04-09 | 四川新网银行股份有限公司 | 基于用户页面操作行为的信用欺诈识别方法 |
CN113364702A (zh) * | 2021-06-04 | 2021-09-07 | 上海明略人工智能(集团)有限公司 | 广告流量异常检测方法、系统、存储介质及电子设备 |
CN113364702B (zh) * | 2021-06-04 | 2024-04-12 | 上海明略人工智能(集团)有限公司 | 广告流量异常检测方法、系统、存储介质及电子设备 |
CN116205664A (zh) * | 2023-04-28 | 2023-06-02 | 成都新希望金融信息有限公司 | 一种中介欺诈识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN110969441A (zh) | 基于深度学习的反欺诈模型处理方法及装置 | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN111310814A (zh) | 利用不平衡正负样本对业务预测模型训练的方法及装置 | |
CN111080397A (zh) | 信用评估方法、装置及电子设备 | |
CN111428217B (zh) | 欺诈团伙识别方法、装置、电子设备及计算机可读存储介质 | |
CN111582341B (zh) | 用户异常操作预测方法及装置 | |
CN112085541A (zh) | 基于浏览消费时序数据的用户需求分析方法及装置 | |
CN112995414B (zh) | 基于语音通话的行为质检方法、装置、设备及存储介质 | |
CN115130536A (zh) | 特征提取模型的训练方法、数据处理方法、装置及设备 | |
Hayder et al. | Predicting reaction based on customer's transaction using machine learning approaches | |
CN112258238A (zh) | 用户生命价值周期检测方法、装置和计算机设备 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
CN111445032A (zh) | 利用业务决策模型进行决策处理的方法及装置 | |
CN114723012B (zh) | 基于分布式训练系统的计算方法和装置 | |
CN118057373A (zh) | 数据处理方法、风险评估方法、装置及电子设备 | |
CN113392889A (zh) | 数据处理方法、装置以及电子设备 | |
CN113255231A (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN111489203A (zh) | 理财产品推荐方法及系统 | |
CN118152812B (zh) | 虚假信息识别模型的训练方法、装置、设备及存储介质 | |
CN112766490B (zh) | 特征变量学习方法、装置、设备及计算机可读存储介质 | |
KR20190126662A (ko) | 특정 공간에 위치한 전자 장치를 구분하기 위한 서버 및 그의 제어 방법 | |
CN114943274B (zh) | 模型训练方法、装置、存储介质、服务器、终端及系统 | |
US20240070466A1 (en) | Unsupervised Labeling for Enhancing Neural Network Operations | |
WO2024140630A1 (zh) | 一种模型训练方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200407 |
|
RJ01 | Rejection of invention patent application after publication |