CN110544168A - 一种基于生成对抗网络的弱监督互联网金融反欺诈方法 - Google Patents
一种基于生成对抗网络的弱监督互联网金融反欺诈方法 Download PDFInfo
- Publication number
- CN110544168A CN110544168A CN201910761996.0A CN201910761996A CN110544168A CN 110544168 A CN110544168 A CN 110544168A CN 201910761996 A CN201910761996 A CN 201910761996A CN 110544168 A CN110544168 A CN 110544168A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- generated
- fraud
- countermeasure network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000011156 evaluation Methods 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 7
- 238000004140 cleaning Methods 0.000 claims description 6
- 238000012821 model calculation Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000006403 short-term memory Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000013501 data transformation Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000011157 data evaluation Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/018—Certifying business or products
- G06Q30/0185—Product, service or business identity fraud
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/04—Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Technology Law (AREA)
- Entrepreneurship & Innovation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于生成对抗网络的弱监督互联网金融反欺诈方法,涉及互联网金融网络支付的反欺诈检测领域,解决了目前反欺诈对于欺诈数据的使用不完全,模型准确率低的弊端,其技术方案要点是对互联网金融产生的交易数据进行预处理以能进行模型的计算;建立生成对抗网络的生成模型和判别模型,根据真实数据和随机生成的数据交替训练判别模型和生成模型直至模型收敛;将收敛的生成对抗网络中的生成模型作为样本生成器,通过神经网络的预测模型对交易数据评估,本发明的一种基于生成对抗网络的弱监督互联网金融反欺诈方法,在不丢失信息量的情况下还能引入新的信息量,提高了模型的泛化能力,从而提高了拦截欺诈交易的准确性和模型的鲁棒性。
Description
技术领域
本发明涉及互联网金融网络支付的反欺诈检测,特别涉及一种基于生成对抗网络的弱监督互联网金融反欺诈方法。
背景技术
在互联网金融领域,数据标签的获得是依赖于风险的实际发生,即只有真正当欺诈发生时,金融公司才能得到欺诈的标签数据,因此该标签数据的获得具有滞后性,所以欺诈标签的获得是以用户实际发生欺诈为代价的,这会给用户带来极大的损失,同时也会给金融公司的安全防护带来极大的威胁,因此互联网金融的反欺诈过程就是一个和犯罪者赛跑的过程,如果能及时的超越对手跑在犯罪者的前面,就能防患于未然,及时给用户以反馈,并挽救用户的损失。
目前已经针对这种欺诈与非欺诈数据的比率极度不均衡的样本,常规的机器学习的思路是从数据中抽出特定的数据比率,即只从非欺诈数据中抽出部分数据,然后将欺诈数据和抽样得到的非欺诈数据作为训练集来训练一个合适的判别模型。但是这种方式存在一个弊端,即通常只用到了部分的非欺诈数据,信息的使用不完全,很可能会造成信息丢失的情况,从信息量的角度来判断,这种构建学习模型的方式对信息量的使用是不完全的。对信息量的使用不完全必定会造成模型的准确率不高。
发明内容
本发明的目的是提供一种基于生成对抗网络的弱监督互联网金融反欺诈方法,在不丢失信息量的情况下还能引入新的信息量,提高了模型的泛化能力,从而提高了拦截欺诈交易的准确性和模型的鲁棒性。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种基于生成对抗网络的弱监督互联网金融反欺诈方法,包括有以下步骤:
对互联网金融产生的交易数据进行预处理以能进行模型的计算;
建立生成对抗网络的生成模型和判别模型,根据真实数据和随机生成的数据交替训练判别模型和生成模型直至模型收敛;
将收敛的生成对抗网络中的生成模型作为样本生成器,用来生成欺诈的标签数据;
通过生成的标签数据训练预测模型,以通过预测模型进行交易数据评估。
作为优选,具体步骤如下:
预处理:对原始的数据通过数据清理、数据集成及数据变化将数据转换成可参与模型计算的形式;
建模:建立不断学习训练集中的真实数据的概率分布,将输入的随机噪声转换成伪数据的生成模型;建立判断一条记录是否是真实的数据,且将生成模型产生的伪数据与数据中的真数据区分的判别模型;
训练:通过真实数据和随机生成的数据同时输入判别模型进行训练,并且更新判别模型的参数;将损失函数中的损失反馈给生成模型以调整生成模型的参数,并训练生成模型;交替训练判别模型和生成模型直至模型收敛;
评估:将收敛的生成模型作为交易数据评估中欺诈数据的样本生成器,生成欺诈的标签数据并训练神经网络中的预测模型,以对交易数据进行预测评估。
作为优选,预处理中具体步骤包括有:
数据清理:通过填写缺失值,光滑噪声数据,识别/解决不一致来清理数据,实现数据的格式化标准、异常数据的清除、错误纠正及重复数据的清除;
数据集成:将多个数据源中的数据结合起来并统一存储,建立数据仓库;
数据变换:通过平滑聚集、数据概化、规范化将数据转换成学习模型需要的数值型数据。
作为优选,判别模型及判别模型的参数的更新具体如下:
从生成模型生成的数据及真实欺诈数据中均选取等量若干样本,计算下式采用随机梯度下降更新判别模型参数,计算公式为:
从生成模型生成的数据中选取若干样本,计算下式通过随机梯度下降更新生成模型参数,计算公式如下:
更新直至模型收敛,若模型未收敛则增加选取的样本再次计算更新;
其中,z(i)为生成模型生成的数据中选取的样本,x(i)为正式欺诈数据中选取的样本,m为样本数量。
作为优选,生成模型及判别模型均为长短期记忆网络。
综上所述,本发明具有以下有益效果:
在保证没有信息量丢失的情况下,还能顺利的建模,甚至在使用了GAN之后对预测的结果还有一定提升;在互联网金融中,由于欺诈交易的少量特性,基于本方法可以利用这些少量的珍贵的欺诈样本作为“种子数据”来生成更多的欺诈数据,由于生成模型可以较好的学习到欺诈数据的分布,则利用生成模型生成的欺诈数据可以用来训练后续的预测模型,弥补了欺诈标签数据不足的情况,可以促进预测模型的训练结果,从而使得预测的结构有一定的提升。
附图说明
图1为本发明的系统结构图;
图2为本发明的评估模型。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本实施例公开的一种基于生成对抗网络的弱监督互联网金融反欺诈方法,当前互联网金融产生丰富交易信息数据,以这些数据作为基础分析,设计反欺诈检测系统,保护用户和企业的安全。如图1所示,生成对抗网络的线上交易欺诈实时检测包括有四个模块,它们分别是:1.预处理;2.建模;3.训练;4.生成。
1、预处理
目前的互联网金融已经产生了许多丰富的交易数据,数据大体上都是不完整的不一致的脏数据,无法直接参与模型的计算,因此我们必须对原始的数据进行预处理。预处理包括:
(1)数据清理:通过填写缺失值,光滑噪声数据,识别或解决不一致来清理数据。主要为达到以下的目标:数据的格式化标准,如时间,异常数据的清除,错误纠正,重复数据的清除;
(2)数据集成:数据集成主要是将多个数据源中的数据结合起来并统一存储,建立数据仓库;
(3)数据变换:通过平滑聚集,数据概化,规范化等方式将数据转换成学习模型需要的形式。
预处理的过程就是将原始的数据转化成模型可以用来计算的数值型数据,并对缺失值进行填充。例如数据的原始字段如表1所示:
表1原始字段以及处理后的字段
如表1所示,可用的原始字段大部分为字符串类型,而作为概率图模型本身则只能对离散型的变量做处理,因此预处理不仅包含前面提到的数据清理和数据集成,并且在数据变换过程中,还将连续型浮点数转换成概率图模型可计算的离散型变量。
2、建模
生成对抗网络-Generative Adversarial Networks,简称GAN,其中包含两个重要的模型一个是生成模型G,另一个是判别模型D:
(1)生成模型G:不断学习训练集中的真实数据的概率分布,将输入的随机噪声转换成与真实数据相似的伪数据。
(2)判别模型D:判断一条记录是否是真实的数据,区分生成模型G产生的伪数据与数据中的真数据。
GAN的实现方法是让判别模型D和生成模型G进行博弈,训练过程通过相互竞争让这两个模型同时得到增强。由于判别模型D的存在,使得生成模型G在没有大量先验知识以及先验分布的前提下也能很好的去学习逼近真实数据,并最终让模型生成的数据达到判别模型D无法区分生成模型G生成的数据与真实数据的效果,从而生成模型G和判别模型D达到纳什均衡。
由于需要让生成模型学习到真实数据的分布,考虑到互联网欺诈交易的时序性,即随着时间的交易序列是对一个人的行为的刻画,需要捕捉到这种行为特性,因此生成模型G和判别模型D均是一个多层的长短期记忆网络-long short term memory,简称LSTM,LSTM是一种时间递归网络,适合处理和预测时间序列中间隔阂延迟相对较长的重要事件。
建模算法,其过程如下:
算法环境:
Python,numpy,Keras
输入:
1、m是一个超参数,表示的是模型的抽样数量,一般不会事先给出,得根据特定的实验环境而定,一般机器配置较好的情况下可以适当的将该数值给大一些。
2、k也是一个超参数,通常是来控制判别模型的训练次数,在这里我们给定k=1。
输出:
1.生成模型G
2.判别模型D
算法伪代码:
(1)while模型未收敛do:
(2)m=m+1;
(3)for k steps do:
(4)从生成模型生成的数据中抽出m个样本{z(1),…,z(m)}。
(5)从真实的欺诈数据中抽出m个样本{x(1),…,x(m)}。
(6)计算下面的公式用随机梯度下降来更新判别模型D:
(7)end for
(8)从生成模型生成的数据中抽出m个样本{z(1),…,z(m)}。
(9)计算下面的公式用随机梯度下降来更新生成模型G:
(10)end do
在上述算法的(3)-(7)步中主要是来更新判别模型的参数,判别模型的目标是要尽量的将真实数据和生成模型生成的数据区分开来,因此判别模型更新参数的状态是要朝着犯错的反方向来更新参数,即梯度提升的方向;而判别模型犯错的方式有两种情况1.无法区分真实样本;2.无法区分生成模型生成的样本,因此公式(1)中即是两种错误的损失函数之和。
算法的(8)-(10)步主要是来更新生成模型的参数,而生成模型则要让判别模型犯错,即如果生成模型生成的数据越来越接近真实数据的分布,那么判别模型犯错的可能性就会越大,所以生成模型更新参数的方向是沿着判别模型犯错的梯度下来更新的,因此判别模型需要沿着公式(2)中计算的梯度下来更新参数。
3、训练
训练的过程首先是将真实数据标记为1,随机生成的数据标记为0,同时放到判别模型D中去训练,更新D中的参数,然后将损失函数中的损失反馈给生成模型G,调整G中的参数,然后开始训练G,两个模型的训练交替进行,直到最后的模型收敛。训练的过程主要是控制模型的收敛,而纳什均衡所达到的均衡状态通常是理想状态下的,即判别模型已经无法分辨真实数据和生成模型生成的数据,即判别模型犯错的概率为50%,在此次实验中我们设定的阈值为30%左右,即当判别模型犯错的概率达到30%即可认为模型收敛了。
4、评估
将已经收敛的生成对抗网络中的生成模型G作为样本生成器,在这个过程中由于需要解决的是样本中欺诈数据和非欺诈数据的极度不均衡的局面,因此在训练过程中引入的数据仅为真实的欺诈数据,为了验证生成模型G生成的数据的效果,采用详细的实验结果来对比。
模型评估,其过程如下:
模型环境:
Python,Keras,Pandas,Numpy
输入:
数据集1:欺诈数据与非欺诈数据的比率为1:400
数据集2:欺诈数据与非欺诈数据的比率为1:500
数据集3:欺诈数据与非欺诈数据的比率为1:800
注:由于真实的数据欺诈数据与非欺诈数据的比率为1:800,所以数据集1和数据集2中的欺诈数据组成为真实的欺诈数据和生成器生成的欺诈数据,区别是使用到的生成器生成的欺诈数据的量不同,而数据集3中全部为真实的数据。
输出:
测试集中每条记录的标签,以及一系列的度量指标。
(1)我们采用了常规的神经网络中LSTM来作为我们的预测模型(我们利用三个不同的数据集来训练三个LSTM模型,使得三个模型成为对照组,然后分别利用训练好的三个模型对真实的数据做预测,来对比三个模型的训练效果,借此来验证生成模型生成的数据的质量),实验的过程是分别对以上的三个数据集,使用GAN和不使用GAN来对模型的预测做评估。
(2)针对预测的评估结果我们引入了以下的三个指标:准确率precision,召回率recall,以及打扰率disturb。同时我们还将引入以下的几个概念TP:模型将正类判定为正类的数量;FP:模型将负类判定为正类的数量;FN:模型将正类判定为负类的数量;TN:模型将负类判定为负类的数量。精确率的定义如下:
召回率的定义如下:
打扰率的定义如下:
当模型对所有的测试集预测完之后,分别根据公式(3),(4)和(5)统计输出精确率,召回率以及打扰率。
本发明通过在真实互联网金融线上交易数据集上进行检测证明,通过在具体的实验比较中我们可以发现,在保证打扰率相同的情况下,如表2的实验结果所示(其中样本比率指的是欺诈数据与非欺诈数据的比率),在保证打扰率相同的情况下,使用了GAN的实验效果(精确率和召回率)均要优于单纯只使用LSTM的情况,而且效果的提升相对比较明显,其中在数据比率为1:800时,LSTM模型已经无法训练出正确的预测模型,而使用了GAN的模型还可以起到欺诈检测的作用,并且效果明显。
表2实验结果对比
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。
Claims (5)
1.一种基于生成对抗网络的弱监督互联网金融反欺诈方法,其特征是,包括有以下步骤:
对互联网金融产生的交易数据进行预处理以能进行模型的计算;
建立生成对抗网络的生成模型和判别模型,根据真实数据和随机生成的数据交替训练判别模型和生成模型直至模型收敛;
将收敛的生成对抗网络中的生成模型作为样本生成器,用来生成欺诈的标签数据;
通过生成的标签数据训练预测模型,以通过预测模型进行交易数据评估。
2.根据权利要求1所述的基于生成对抗网络的弱监督互联网金融反欺诈方法,其特征是,具体步骤如下:
预处理:对原始的数据通过数据清理、数据集成及数据变化将数据转换成可参与模型计算的形式;
建模:建立不断学习训练集中的真实数据的概率分布,将输入的随机噪声转换成伪数据的生成模型;建立判断一条记录是否是真实的数据,且将生成模型产生的伪数据与数据中的真数据区分的判别模型;
训练:通过真实数据和随机生成的数据同时输入判别模型进行训练,并且更新判别模型的参数;将损失函数中的损失反馈给生成模型以调整生成模型的参数,并训练生成模型;交替训练判别模型和生成模型直至模型收敛;
评估:将收敛的生成模型作为交易数据评估中欺诈数据的样本生成器,生成欺诈的标签数据并训练神经网络中的预测模型,以对交易数据进行预测评估。
3.根据权利要求2所述的基于生成对抗网络的弱监督互联网金融反欺诈方法,其特征是,所述预处理中具体步骤包括有:
数据清理:通过填写缺失值,光滑噪声数据,识别/解决不一致来清理数据,实现数据的格式化标准、异常数据的清除、错误纠正及重复数据的清除;
数据集成:将多个数据源中的数据结合起来并统一存储,建立数据仓库;
数据变换:通过平滑聚集、数据概化、规范化将数据转换成学习模型需要的数值型数据。
4.根据权利要求2所述的基于生成对抗网络的弱监督互联网金融反欺诈方法,其特征是:判别模型及判别模型的参数的更新具体如下:
从生成模型生成的数据及真实欺诈数据中均选取等量若干样本,计算下式采用随机梯度下降更新判别模型参数,计算公式为:
从生成模型生成的数据中选取若干样本,计算下式通过随机梯度下降更新生成模型参数,计算公式如下:
更新直至模型收敛,若模型未收敛则增加选取的样本再次计算更新;
其中,z(i)为生成模型生成的数据中选取的样本,x(i)为正式欺诈数据中选取的样本,m为样本数量。
5.根据权利要求1所述的基于生成对抗网络的弱监督互联网金融反欺诈方法,其特征是:生成模型及判别模型均为长短期记忆网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910761996.0A CN110544168A (zh) | 2019-08-19 | 2019-08-19 | 一种基于生成对抗网络的弱监督互联网金融反欺诈方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910761996.0A CN110544168A (zh) | 2019-08-19 | 2019-08-19 | 一种基于生成对抗网络的弱监督互联网金融反欺诈方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110544168A true CN110544168A (zh) | 2019-12-06 |
Family
ID=68711654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910761996.0A Pending CN110544168A (zh) | 2019-08-19 | 2019-08-19 | 一种基于生成对抗网络的弱监督互联网金融反欺诈方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110544168A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523666A (zh) * | 2020-04-24 | 2020-08-11 | 博雅创智(天津)科技有限公司 | 基于生成对抗网络算法的网络行为分析诊断准确率提升方法 |
CN111967993A (zh) * | 2020-09-25 | 2020-11-20 | 北京信息科技大学 | 一种在线交易反欺诈方法及系统 |
CN113159947A (zh) * | 2021-03-17 | 2021-07-23 | 同济大学 | 一种基于生成对抗网络的困难异常样本检测框架 |
CN113158390A (zh) * | 2021-04-29 | 2021-07-23 | 北京邮电大学 | 一种基于辅助分类式生成对抗网络的网络攻击流量生成方法 |
CN113240011A (zh) * | 2021-05-14 | 2021-08-10 | 烟台海颐软件股份有限公司 | 一种深度学习驱动的异常识别与修复方法及智能化系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978550A (zh) * | 2019-03-12 | 2019-07-05 | 同济大学 | 一种基于生成对抗网络的可信电子交易放行机制 |
CN110020868A (zh) * | 2019-03-11 | 2019-07-16 | 同济大学 | 基于线上交易特征的反欺诈模块决策融合方法 |
-
2019
- 2019-08-19 CN CN201910761996.0A patent/CN110544168A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020868A (zh) * | 2019-03-11 | 2019-07-16 | 同济大学 | 基于线上交易特征的反欺诈模块决策融合方法 |
CN109978550A (zh) * | 2019-03-12 | 2019-07-05 | 同济大学 | 一种基于生成对抗网络的可信电子交易放行机制 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523666A (zh) * | 2020-04-24 | 2020-08-11 | 博雅创智(天津)科技有限公司 | 基于生成对抗网络算法的网络行为分析诊断准确率提升方法 |
CN111967993A (zh) * | 2020-09-25 | 2020-11-20 | 北京信息科技大学 | 一种在线交易反欺诈方法及系统 |
CN113159947A (zh) * | 2021-03-17 | 2021-07-23 | 同济大学 | 一种基于生成对抗网络的困难异常样本检测框架 |
CN113158390A (zh) * | 2021-04-29 | 2021-07-23 | 北京邮电大学 | 一种基于辅助分类式生成对抗网络的网络攻击流量生成方法 |
CN113240011A (zh) * | 2021-05-14 | 2021-08-10 | 烟台海颐软件股份有限公司 | 一种深度学习驱动的异常识别与修复方法及智能化系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110544168A (zh) | 一种基于生成对抗网络的弱监督互联网金融反欺诈方法 | |
CN107316198B (zh) | 账户风险识别方法及装置 | |
Dal Pozzolo et al. | Credit card fraud detection: a realistic modeling and a novel learning strategy | |
CN108053318B (zh) | 一种对异常交易进行识别的方法及装置 | |
CN109034194B (zh) | 基于特征分化的交易欺诈行为深度检测方法 | |
CN106886915B (zh) | 一种基于时间衰减采样的广告点击预估方法 | |
CN109410036A (zh) | 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置 | |
CN109948669A (zh) | 一种异常数据检测方法及装置 | |
CN105095238A (zh) | 用于检测欺诈交易的决策树生成方法 | |
CN110414780B (zh) | 一种基于生成对抗网络的金融交易数据的欺诈检测方法 | |
CN110189134B (zh) | 基于疑似欺诈交易参照序位的网络支付反欺诈系统架构设计方法 | |
CN107563995A (zh) | 一种多判别器误差反传的对抗网络方法 | |
CN108416663A (zh) | 评估金融违约风险的方法及装置 | |
CN108900542A (zh) | 基于LSTM预测模型的DDoS攻击检测方法及装置 | |
CN109978550A (zh) | 一种基于生成对抗网络的可信电子交易放行机制 | |
CN106548343A (zh) | 一种非法交易检测方法及装置 | |
CN106651373A (zh) | 一种混合欺诈交易检测分类器建立方法及装置 | |
CN110020868B (zh) | 基于线上交易特征的反欺诈模块决策融合方法 | |
CN114638688A (zh) | 一种用于信贷反欺诈的拦截策略衍生方法、系统 | |
CN114444620B (zh) | 一种基于生成式对抗神经网络的示功图故障诊断方法 | |
CN104537383A (zh) | 一种基于粒子群的海量组织机构数据分类方法及系统 | |
CN117408698A (zh) | 一种基于Transformer的对比多视图下庞氏骗局检测方法 | |
CN113159947A (zh) | 一种基于生成对抗网络的困难异常样本检测框架 | |
Suhaimi et al. | Network intrusion detection system using immune-genetic algorithm (IGA) | |
CN115271926A (zh) | 基于云计算的金融大数据自动化智能分析控制系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191206 |
|
RJ01 | Rejection of invention patent application after publication |