CN117591921B - 基于欺骗与反欺骗理论的对抗生成欺骗检测方法 - Google Patents
基于欺骗与反欺骗理论的对抗生成欺骗检测方法 Download PDFInfo
- Publication number
- CN117591921B CN117591921B CN202410076555.8A CN202410076555A CN117591921B CN 117591921 B CN117591921 B CN 117591921B CN 202410076555 A CN202410076555 A CN 202410076555A CN 117591921 B CN117591921 B CN 117591921B
- Authority
- CN
- China
- Prior art keywords
- collusion
- camouflage
- node
- spoofing
- deception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 69
- 230000002123 temporal effect Effects 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 35
- 238000010586 diagram Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 230000000873 masking effect Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 6
- 238000005192 partition Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 description 16
- 238000000638 solvent extraction Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001627 detrimental effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 101100001674 Emericella variicolor andI gene Proteins 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法,包括欺骗判别步骤:S110:将待检测的用户划分到群体,以获取所述用户在群体层面的信息;S120:基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装;S130:通过捕获时间和空间共谋模式来检测去除伪装的用户是否为欺骗者;欺骗生成步骤:用于通过生成伪装和故意示假来生成一个欺骗者样本,与欺骗判别步骤检测的伪装下的欺骗者进行竞争。本发明通过将用户划分到群体,基于其所属群体层面的信息,通过放大共谋模式来识别和去除伪装,最后通过捕获时间和空间共谋模式来检测去除伪装后的欺骗者,能够更加有效的识别具有伪装的欺骗者。
Description
技术领域
本发明涉及人工智能技术领域下的信息检测技术领域,更为具体地,涉及一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法。
背景技术
欺骗行为是各类网络平台健康发展的主要威胁之一,由于欺骗行为很容易获取不正当利益,且暴露风险较低,因此发生次数正日益增多。为了检测欺骗者,时空图神经网络模型已被广泛应用于检测时间和空间共谋模式,将机器学习应用于欺骗检测的研究,也已经获得了丰富而复杂的设置、方法、理论和结果。
通常的欺骗实施流程如图1所示。诈骗者通过寻找、研究欺骗目标,然后指通过操纵、歪曲或伪造证据等手段误导目标,诱导其做出损害其自身利益的反应。可见,欺骗不同于拒止,拒止是指通过采取隐藏或干扰等手段,阻碍或阻止目标了解某事物所采取的措施。拒止的基础是隐藏、掩盖真相;而欺骗的基础是伪装,展示虚假的内容。
欺骗渠道指在欺骗手段与欺骗目标之间信息的流通路径。在欺骗的策划阶段,要明确战略目标;预判受骗者如何反映;预判受骗者如何感知欺骗信息;哪些信息必须掩盖、哪些必须展示;如何掩盖;如何示假;分析以上步骤对受骗者的效果。在欺骗的实施阶段,通过各种欺骗渠道传递虚假特征,并且欺骗活动应被受骗者感知。
而反欺骗则包括识别拒止与欺骗的情报活动,以及为消除、减少对手实施拒止与欺骗活动产生的影响而进行的活动。进行反欺骗最重要的是了解欺骗者,以及识别他们的伪装。
目前针对网络平台欺骗行为的检测主要包括:心理学中的欺骗检测、医疗保健行业的欺骗检测以及基于图的异常检测。
从心理学的角度来看,专注于个体感知者可以用来检测欺骗的非语言和语言行为。研究人员认为,欺骗伴随着不同的心理活动,当个体撒谎时,一些迹象可能会渗透出来。因此,人们经常试图根据身体运动和眼神等非语言指标来检测欺骗,而忽略或较少关注语言信号。例如,DePaulo 和 Morris对欺骗的可能预测因素进行了荟萃分析。他们声称,检测欺骗是一门不精确的科学,说谎与瞳孔增大之间存在联系,瞳孔增大是紧张和注意力集中的标志。此外,他们还发现,听说谎话的人认为自己比说真话的人更担心,因为他们的声音音调更高。说谎者也比说真话的人更容易闭嘴。然而,他们确实注意到,说谎者并没有显得更加烦躁,也没有更多地眨眼或更少地以随意的方式站立。根据德保罗和莫里斯的说法,只有当说谎者的动机更加强烈并且处于危险之中时,他们才会显得异常安静,并且与听众的目光接触明显减少。
医疗保健行业已经开发了从统计规则到经典机器学习方法的医疗保险反欺骗方法。后来,引入深度神经网络来学习潜在的欺骗模式,揭示了深度架构在欺骗检测中的力量。同时,作弊手段也升级了,变得过于具有欺骗性和隐蔽性,经典深度模型无法检测到,因为该模型将每个欺骗行为视为孤立的。最近,图神经网络(GNN)已被用于欺骗检测并取得了显着的成功,因为 GNN 可以有效地从历史互连行为中学习潜在特征。换句话说,GNN 通过从关系图中学习欺骗行为,可以更准确地推断欺骗概率。
基于图的异常检测(GAD)是指识别与关系数据和结构化数据中的大多数对象显着偏离的异常。随着图数据变得无处不在且不断增长,基于图的异常检测因其广泛的应用而受到越来越多的关注,例如Ye和Akoglu等提出垃圾邮件发送者识别、Weber等人使用图进行金融欺骗者识别。由于现实世界系统中节点之间的复杂交互,检测图数据中的异常变得比非交互特征空间中的异常检测更具挑战性。考虑到网络中欺骗者与大量正常用户连接的趋势,基于同质假设限制了传统 GNN的能力,因此可以利用各种技术来减轻负面影响。从谱域来看,AMNet和 BWGNN都设计了多通谱滤波器来发现高频异常。为了选择重要的邻居,CARE-GNN 和 AOGNN都使用强化学习模块,分别将邻居与自我节点的相似度测量和 AUC 性能作为奖励。而 PC-GNN通过训练仅以节点属性作为输入的附加 MLP 来直接测量异常概率差距。
然而,上述已有的欺骗检测技术很少对欺骗者的伪装行为给予足够的关注,许多现有的图神经网络模型都面临着隐藏在海量用户中的罕见欺骗者造成的极端样本不平衡的挑战,从而导致欺骗检测方案的不完善、检测准确率低。
发明内容
鉴于上述目前虚假信息检测领域存在的检测准确率差等问题,本发明的目的是提供一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法,通过将用户划分到群体,基于群体层面的信息检测欺骗者。
一方面,本发明提供一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法,
包括欺骗判别步骤和欺骗生成步骤;其中,所述欺骗判别步骤用于利用判别器检测伪装下的欺骗者,包括:
S110:将待检测的用户划分到群体,以获取所述用户在群体层面的信息;
S120:基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装;
S130:通过捕获时间和空间共谋模式来检测去除伪装的用户是否为欺骗者;
所述欺骗生成步骤用于利用生成器通过生成伪装和故意示假来生成一个欺骗者样本,与所述欺骗判别步骤检测的伪装下的欺骗者进行竞争。
其中,可选的方案是,所述将待检测的用户划分到群体,以获取所述用户在群体层面的信息,包括:
使用高斯混合模型将待检测的用户通过聚类对比学习划分为m个群体,记为:,其中,/>,/> ,其中,C为群体集合,c代表一个群体,v代表其中的节点,/>指群体c i 的用户数量;m是超参数。
其中,可选的方案是,所述将待检测的用户划分到群体,以获取所述用户在群体层面的信息,还包括:
使用对比学习通过将节点v及其正样本邻居在嵌入空间中相互拉近,同时将节点v远离其他节点,使群体划分模块h(v)的输出包含更多的负样本图结构信息节点;以及,
使用时间相关性来对正样本进行加权,以减少伪装边的权重,其中,群体划分损失表述如下:
其中,表示群体划分损失,M是负样本,从除节点v的邻居之外的V中随机选择,/>是节点v i 经过RNN的输出,/>是负样本中的节点v j 经过RNN的输出;E和/>分别使用最新的通用图和图轨迹进行更新。
其中,可选的方案是,所述基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装,包括:
为每个快照图中与欺骗节点相关的每个边输出一个掩码;其中,用户节点在t期间的伪装反映在快照图Gt处的节点特征和边特征上;
通过将边特征与所述掩码的逐元素相乘来更新所述边特征;
调整相应的节点特征与所述边特征对齐,以去除所述快照图中的伪装。
其中,可选的方案是,所述为每个快照图中与欺骗节点相关的每个边输出一个掩码,包括:
给定时间嵌入层和边嵌入的输出,为与欺骗节点相关的每个边生成掩码嵌入/>,其中,/>代表与欺骗节点相关的边;
将每个掩码嵌入转换为掩码值,所述掩码值是0到1之间的连续值;
其中,采用tanh函数进行平滑近似来生成与欺骗节点相关的边的掩码,如下式所示:
,
其中,W和b是可学习参数,β是用于控制平滑逼近强度的超参数,输出。
其中,可选的方案是,所述欺骗生成步骤S200用于通过生成伪装和故意示假来生成一个欺骗者样本,包括生成伪装步骤和故意示假步骤;其中,
所述生成伪装步骤用于向现有欺骗者添加伪装;包括:
S210:以生成所述节点的伪装输出伪装边特征伪装边特征;其中,对于每个快照图中每个欺骗者与其他用户之间的连接,无论在原始图中是否存在边,所述伪装边特征均包含与所述伪装相关的所有信息;
S220:通过将生成的伪装边特征与初始边特征/>逐元素相加,生成新欺骗样本的边特征;
S230:将新生成的欺骗样本的边特征与节点特征对齐,以生成所述节点的伪装;
所述故意示假步骤用于向现有欺骗者添加示假内容向量,与生成伪装步骤生成的内容一起组成一个欺骗者样本。
其中,可选的方案是,所述与所述欺骗判别步骤检测的伪装下的欺骗者进行竞争,包括:通过所述步骤S120识别通过所述生成伪装步骤生成的伪装;通过所述步骤S120和S130检测所述欺骗者样本中的欺骗者。
其中,可选的方案是,通过所述步骤S120识别通过所述生成伪装步骤生成的伪装,包括:
给定群体划分C;
固定,通过最大化共谋损失/>和/>以及最大化伪装识别损失来优化ω;以及,通过最大化共谋损失/>和/>来优化/>;
固定ω,通过最小化共谋损失和/>以及最小化伪装识别损失/>来优化/>。
其中,可选的方案是,通过所述步骤S120和S130检测所述欺骗者样本中的欺骗者,包括:固定和/>,生成器通过最大化欺骗检测误差/>来优化ω;
固定ω,判别器通过最小化欺骗检测误差来优化/>和/>。
从上面的技术方案可知,本发明提供的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,通过将用户划分到群体,基于其所属群体层面的信息,通过放大共谋模式来识别和去除伪装,最后通过捕获时间和空间共谋模式来检测去除伪装后的欺骗者,能够更加有效的识别具有伪装的欺骗者。
附图说明
通过参考以下结合附图的说明书内容,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为通常的欺骗实施流程示意图;
图2为根据本发明实施例的基于欺骗与反欺骗理论的对抗生成欺骗检测方法流程示意图;
图3为根据本发明实施例的基于欺骗与反欺骗理论的对抗生成反欺诈网络结构示意图;
图4为根据本发明实施例的欺骗判别器的优化流程示意图;
图5为根据本发明实施例的欺骗生成器的优化流程示意图;
图6为根据本发明实施例的电子设备的示意图。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。在其它例子中,为了便于描述一个或多个实施例,公知的结构和设备以方框图的形式示出。
对于前述现有的虚假信息检测方法中存在的诸多为题,本发明提出一种融合心理学或人类认知的解决思路,利用心理学的原理,全面评估 信息的真实性和可信度,以提高虚假信息检测的准确率。
为了更好地说明本发明的技术方案,下面先对本发明中所涉及的部分技术术语进行简单说明。
生成对抗模型(GAN,Generative Adversarial Networks),传统的GAN主要由生成网络(Generative Network)和判别网络(Adversarial Network)两部分组成,也叫生成器(Generator)和判别器(Discriminator)。在GAN中两个网络是单独进行训练。首先训练判别器,让判别器能够对图片的真假进行判别。之后训练生成器,通过生成器生成图像,利用判别器生成的图像进行判别。
生成器,是一个特殊的迭代器,它使用函数中的 yield 语句来生成值,每次调用生成器的next () 方法时,函数会执行到 yield,返回值并暂停,下一次调用会从上次暂停的地方继续执行。
判别器,是对抗神经网络中用来识别生成器生成的数据的网络,它通过约束生成器生成的membership和true label,使其与判别器输出的结果相反数,提高分类精度。
时空图,是用来分析物理问题的几何语言,它可以用世界线和参考系来描述时空中的事件和位置。
RNN(Recurrent Neural Network,循环神经网络)模型,是一种可以专门用来处理时间序列数据的模型,它一般以序列数据为输入,通过网络内部的结构设计有效捕捉序列之间的关系特征,一般也是以序列形式进行输出。RNN 与传统神经网络最大的区别在于每次都会将前一次的输出结果,带到下一次的隐藏层中,一起训练。
高斯混合模型(Gaussian Mixture Models,GMM),是一种无监督学习中的聚类方法,指多个高斯分布函数的线性组合,理论上GMM可以拟合出任意类型的分布。 高斯混合模型通常用于解决同一集合下的数据包含多个不同的分布的情况,具体应用有聚类、密度估计、生成新数据等。
双向长短期记忆网络(BiLSTM),是一种基于循环神经网络(RNN)的改进方法,由前向LSTM和后向LSTM组合而成,可以更好地捕捉双向的语义依赖和情感词语的表示。
深入了解欺骗者的真实记录可以发现,欺骗者通常会进行群体层面的伪装,具体分为时间伪装和空间伪装两种。这种伪装可以通过隐藏共谋模式将自己伪装成良性群体,从而欺骗许多现有的图神经网络模型。具体来说,为了掩盖时间共谋模式,欺骗者通过从事不限于短时间窗口的非法活动来引入时间伪装。此外,欺骗者利用空间伪装,有意将自己与良性个体联系起来,可以有效隐藏空间共谋模式。因此,本发明从分析欺骗者的伪装行为入手,通过识别欺骗者的群体信息,提高识别伪装的能力。
为了解决现有的检测中所存在的检测准确率低的问题,本发明提供一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法,基于欺骗与反欺骗理论,提出了一种FraudDetection(Adversarial Generation Fraud Detection,AGFD),用于欺骗检测,具体来讲也可用于检测含有欺骗意图的虚假信息,以此提高欺骗信息和虚假信息检测的准确性。
以下将结合附图对本发明的具体实施例进行详细描述。
需要说明的是,以下示例性实施例的描述实际上仅仅是说明性的,不作为对本发明及其应用或使用的任何限制。对于相关领域普通技术人员已知的技术和设备可能不作详细讨论,但在适当情况下,所述技术和设备应当被视为说明书的一部分。
为了说明本发明提供的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,图2、图3分别对本发明实施例的基于欺骗与反欺骗理论的对抗生成欺骗检测方法流程和所采用的模型结构进行了示例性标示。需要说明的是,附图以及下面描述中的实施例仅仅是本发明的一些实现方式,不作为对本发明的限定。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图和实现方式获得其他的附图和实现方式。
参考图2,本实施例提供的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,主要包括欺骗判别步骤S100和欺骗生成步骤S200;其中,所述欺骗判别步骤S100用于检测伪装下的欺骗者,包括:
S110:将待检测的用户划分到群体,以获取所述用户在群体层面的信息;
S120:基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装;
S130:通过捕获时间和空间共谋模式来检测去除伪装的用户是否为欺骗者;
所述欺骗生成步骤S200用于通过生成伪装和故意示假来生成一个欺骗者样本,与所述欺骗判别步骤S100检测的伪装下的欺骗者进行竞争。
通过上述步骤可以看出,针对于现有技术中存在的上述技术问题,本发明主要通过识别欺骗者的群体信息,来提高识别伪装的能力,以实现基于欺骗与反欺骗理论的对抗生成欺骗检测。
为了实现上述基于欺骗与反欺骗理论的对抗生成欺骗检测方法,本发明基于对欺骗者的群体信息的考虑设计了如图3所示的基于欺骗与反欺骗理论的对抗生成反欺诈网络模型。以下将结合具体的模型结构实施例对本发明提供的上述基于欺骗与反欺骗理论的对抗生成欺骗检测方法做更加详细的说明。
具体的,作为示例,图3示出了根据本发明实施例的基于欺骗与反欺骗理论的对抗生成反欺诈网络的整体框架结构图。如图3所示,本实施例提供的基于欺骗与反欺骗理论的对抗生成反欺诈网络200主要包括欺骗判别器220和欺骗生成器240两个部分共五个模块,分别负责群体划分、伪装识别、欺骗检测、伪装生成和示假生成。其中,前三个模块(群体划分模块222、伪装识别模块224和欺骗检测模块226)构成了一个欺骗判别器220,旨在检测伪装下的欺骗者;后两个模块(伪装生成模块242和示假生成模块244)构成了一个欺骗生成器240。
其中,欺骗判别器220使用时空图神经网络作为基础模型。群体划分模块旨在将用户划分到群体,提供群体层面的信息;其目的是识别所有用户中的群体并提取群体级别的信息。伪装识别模块基于群体划分,通过放大欺骗者犯罪共谋模式来检测伪装行为,是欺骗检测模块进行欺骗检测的前提。将检测出的伪装去除后,欺骗检测模块采用时空图神经网络来捕获时间和空间共谋模式来检测欺骗者。欺骗生成器240通过生成伪装和故意示假来生成一个欺骗者样本,与欺骗判别器220进行竞争,以减轻样本不平衡的挑战并提高模型的鲁棒性。
以下将结合更为详细的实施例对本发明的上述对抗生成反欺诈网络200以及基于欺骗与反欺骗理论的对抗生成欺骗检测方法做出说明。
推理阶段仅使用伪装识别模块224和欺骗检测模块226。为了支持实际业务场景中的新注册用户,推理阶段不使用群体划分。这使得 AGFD 能够处理通用图和图轨迹中新添加的节点,同时也可用于带有欺骗意图的虚假信息检测。
将群体划分模块222、伪装识别模块224、欺骗检测模块226、伪装生成模块242和示假生成模块244中的可训练参数分别写为和ω,/>这五个参数的值在深度模型训练过程中不断优化更新。
上述五个模块都共享相似的时空图。模块的输入是图轨迹。时空图的每个节点需要先经过两个双层感知机,将节点V在时间段t内的特征/>变换为时空图的节点特征;每个边E同样也包含两个双层感知机,将边E在时间段t内的特征变换为/>变换为时空图的边特征/>,其中,时空图的边特征/>且时空图的节点特征/>。n t是t时间段时的边数,d v 和d e 是节点嵌入和边嵌入的维度。时空图层由空间嵌入层和时间嵌入层组成。
空间嵌入层旨在挖掘每个快照图Gt(是一个无向静态图,包含一定时间段t内的信息)中的用户之间背后交互的空间模式。与快照图Gt对应的输入是和/>。空间嵌入层由l个图注意力层组成。在每一层中,节点嵌入都会使用邻居的信息进行更新。其中,群体划分模块222、伪装识别模块224、欺骗检测模块226和伪装生成模块242四个模块的空间嵌入层共享相同的参数,以避免过度拟合。
时间嵌入层的输入是空间嵌入层在每个时间步的输出。在时间嵌入层中,RNN 模型用于捕获基于序列/>的时间模式。 RNN模型的输出写为/>。
图4示出了根据本发明实施例的欺骗判别器的优化流程。
如图4所示,对于欺骗判别器220来说,优化可以分为两个阶段。第一阶段,优化群体划分模块222,将用户划分成多个群体。一开始,群体划分是基于初始通用图G,不考虑伪装。在第二阶段,群体划分C,伪装识别模块224通过最大化共谋模式来识别伪装。去除伪装后,利用欺骗检测模块226,准确检测欺骗者。两个阶段的模块交替优化。第二阶段去除伪装后,更新通用图并进一步用于下一轮优化群体划分模块。经过几轮优化后,当判别器收敛时,开始对生成器进行优化。
下面,分别对群体划分模块222、伪装识别模块224和欺骗检测模块226的具体实现方式做示例性说明。
具体的,作为示例,群体划分模块目标是将用户分配到 m 个群体,记为群体集合,其中/>,/> ,其中,C为群体集合,c代表一个群体,v代表其中的节点,/>指群体c i 的用户数量。请注意,每个群体c i 都是初始通用图G的子图。这些群体是不重叠的,其中/>。
由于通用图G是不断变化的,因此,群体划分模块222始终根据最新的通用图谱(当前图G的状态)将用户划分为不同的群体。聚类对比学习通常用于群体检测,在本发明中,也遵循这种聚类对比学习的方法来划分群体。基于RNN最后一个时间步的输出(该输出包含了RNN网络对整个序列的理解或总结),使用高斯混合模型将所有节点划分为m个群体,其中,m是超参数。在整个深度学习模型训练过程中,根据用户级别标签将获得的群体标记为欺骗者和良性群体。值得注意的是,欺骗生成器生成的欺骗者样本不会纳入群体检测,它们会保留原有的群体。
群体划分模块222的优化目标同时考虑图结构和节点属性。使用对比学习通过将节点v及其邻居(正样本)在嵌入空间中相互拉近,同时将节点v远离其他节点,使群体划分模块的输出h(v)包含更多的图结构信息节点(负样本)。一开始,伪装行为可能会不利于群体划分,因为与空间伪装相关的伪装边总是连接良性和欺骗节点。为了有利于训练过程早期的群体划分,使用时间相关性来对正样本进行加权。通过测量行为相似性,时间相关性可以减少伪装边的权重。为此,群体划分损失可以表述如下:
(1)
其中,表示群体划分损失,M是负样本,是从除节点v的邻居之外的节点V中随机选择的,/>是节点v i 经过RNN的输出,/>是负样本中的节点v j 经过RNN的输出;E和/>分别使用最新的通用图和图轨迹进行更新。
在介绍伪装识别模块224之前,首先介绍伪装如何在快照图中体现以及如何从快照图中去除伪装。t期间的伪装反映在快照图G t 处的节点特征和边特征上。在本发明的一个具体实施例中,去伪装操作是从边为切入点,根据边特征调整节点特征。
为了去除伪装,伪装识别模块224为每个快照图中与欺骗节点相关的每个边输出一个掩码。在该伪装识别模块224中,时间嵌入层为BiLSTM,以使不同时间步骤的节点信息相互增强。给定时间嵌入层和边嵌入的输出,该伪装识别模块224为与欺骗节点相关的每个边生成掩码嵌入/>,其中,/>代表与欺骗节点相关的边。最后,该伪装识别模块224将每个掩码嵌入转换为掩码值,该掩码值是0到1之间的连续值。为此,采用tanh函数进行平滑近似来生成与欺骗节点相关的边的掩码,如下式所示:
(2)
其中,W和b是可学习参数,β是用于控制平滑逼近强度的超参数,输出与欺骗节点相关的边的掩码。为了方便,将伪装对应的节点和边分别命名为伪装节点和伪装边。对于那些正常边,掩码接近于1,而对于伪装边,掩码应该小于1。然后,边特征将通过与掩码的逐元素相乘来更新,在图4中表示为/>。最后,调整相应的节点特征以与边特征对齐。这样,就可以轻松去除快照图中的伪装。相应地,通用图G中伪装边的边权值a ij 也会减小。
需要说明的是,在本发明的公式参数表示中,同一个符号不带^和带^的区别在于:不带^代表是真实的数据,带^代表是生成的虚假(欺骗)的数据。示例性的,y t(m)表示掩码,则表示与欺骗节点相关的边掩码。
欺骗检测模块226的输出就是检测结果。空间嵌入层和时间嵌入层可能会挖掘空间共谋模式和时间共谋模式以协助欺骗检测。基于伪装识别模块224的输出,也是RNN的最后一步的输出,使用线性组合和softmax来生成输出表示节点v是欺骗者的概率/>,作为整个欺骗检测模块226的输出。
伪装识别和欺骗检测的优化目标:这两个模块的优化目标是从监管者的角度出发,即准确识别伪装、检测欺骗者。具体的,作为示例,本发明中使用共谋损失和伪装识别损失来优化伪装识别,并使用欺骗检测损失来指导伪装识别模块224和欺骗检测模块226两个模块检测欺骗者。
共谋损失包括时间共谋损失和空间共谋损失,用于通过最大化掩模操作后的时间和空间共谋分数相对于初始共谋分数的增量来引导伪装识别模块去除伪装边。时间共谋损失可以计算如下:
(3)
其中,表示时间共谋损失,c代表一个群体,/>为伪装识别模块的输出,/>为掩码操作后c i 的时间共谋分数。类似地,空间共谋损失可以计算为:
(4)
其中,表示空间共谋损失,c代表一个群体,/>为伪装识别模块的输出,/>指的是掩码操作后c i 的空间共谋分数。
伪装识别损失可以指导欺骗判别器模型通过监督信号去除伪装。一开始,监督信号只能表明良性用户和欺骗者之间的空间伪装。经过第一轮优化后,欺骗生成器可以提供额外的监督信号。在此基础上,掩码可以通过二元分类任务以有监督的方式学习,欺骗生成器生成的伪装边的掩码朝0优化,其他边的掩码朝1优化。采用交叉熵计算伪装识别损失,如下式:
(5)
其中,为伪装识别损失,E为时空图的边,/>表示掩码,/>表示前述公式(2)中计算出的与欺骗节点相关的边的掩码,/>表示与欺骗节点相关的伪装边的掩码。
在欺骗判别器第二阶段,优化优化伪装识别的目标函数可以表述如下:
(6)
其中,,/>和/>是超参数,/>为欺骗者测损失。
欺骗检测损失用于优化欺骗检测模块,检测社区中用户是否进行过欺骗活动,计算公式如下:
,
其中,表示节点v的掩码,/>表示节点v的伪装掩码,在欺诈背景下,y v = 1 代表欺骗者,y v = 0代表良性用户。
欺骗生成器是通过伪装生成模块242和示假生成模块244共同创建新的欺骗样本。图5为根据本发明实施例的欺骗生成器的优化流程示意图,如图5所示,在欺骗生成器的优化流程中,通过向现有群体添加伪装和示假内容来创建欺骗者样本。通过这种方式,欺骗生成器学习通过结合来自判别器的反馈来创建假欺骗样本,具体来说,使判别器将其输出分类为良性用户。经过几轮优化后,当欺骗生成器收敛时,生成的欺骗样本可以用来扩大训练集中的欺骗样本。
伪装生成模块242用于向现有欺骗者添加伪装。
首先,伪装生成模块242为每个快照图中与欺骗节点相关的每个边输出伪装边特征;其中,对于每个快照图中每个欺骗者与其他用户之间的连接,无论他们在原始图中是否存在边,该特征包含与伪装相关的所有信息。为了保证伪装生成模块只能通过添加伪装来改变初始特征,在本发明的一个具体实施例中,使用ReLU使生成的伪装边特征中的每个元素不小于0。
然后,通过将生成的伪装边特征与初始边特征/>逐元素相加,生成新欺骗样本的边特征。如果原始快照图中v i 和v j 之间没有边,则/>中的每一位都会用 0填充。
之后,与删除操作类似,新生成的欺骗样本的边特征和节点特征应该对齐,以生成所述节点的伪装。该过程在图5中表示为。与删除操作不同,通用图G不更新。
伪装生成的优化目标。伪装行为是从欺骗者的角度出发,即以最小的成本避免被发现。直观上,伪装行为会带来成本,伪装越多,成本就越高。基于此,生成器遵循一个基本原则,即添加尽可能少的伪装,以尽可能隐藏共谋模式。为此,伪装生成模块的目标函数由两部分组成。第一部分是与判别器竞争,包括最大化欺骗检测损失、伪装识别损失和共谋损失。考虑到伪装成本,使用L1正则化来确保只生成少量伪装。伪装生成模块的损失函数可以表示为以下公式(7)所示的等式:
(7)
其中,表示伪装生成模块的伪装检测损失,/>表示伪装生成模块的空间共谋损失,/>表示伪装生成模块的时间共谋损失,/>表示伪装生成模块的伪装识别损失,/>,表示伪装生成模块的L1正则化,用于防止过度拟合,/>,,/>和/>是超参数。
生成的伪装进一步作为监督信号来优化伪装识别模块。生成的伪装数量很少,导致监管信号不平衡。这确保了只有少数边被伪装识别模块判断为伪装边,从而使伪装识别和伪装生成保持一致。
示假生成模块244用于向现有欺骗者以逐元素相加的方式添加示假内容向量,与伪装生成模块242输出的内容一起组成一个欺骗者样本。在本发明的一个具体实施例中,并没有像伪装生成模块一样有对应的伪装识别模块,它只通过最大化欺骗检测损失和共谋损失进行优化。同样的使用L1正则化。示假生成模块的总体损失函数可以表示为以下等式:
(8)
其中,表示示假生成模块的损失函数,/>表示示假生成模块的示假检测损失,/>表示示假生成模块的空间共谋损失,/>表示示假生成模块的时间共谋损失,/>和/>是超参数。到此为止,欺骗生成器的整体损失为:
(9)
下面示例性说明判别器和生成器的对抗性优化过程。
生成器从两个方面与判别器竞争。
首先,伪装生成模块直接输出伪装。它的对手,伪装识别模块,试图识别伪装。从优化的角度来看,给定群体划分C,通过固定,伪装生成模块通过最大化共谋损失/>和以及最大化伪装识别损失/>来优化ω,以对伪装识别模块不利。示假生成模块通过最大化共谋损失/>和/>来优化/>。相反,通过固定ω,伪装识别模块通过最小化共谋损失/>和/>以及最小化伪装识别损失/>来优化/>。
另一方面,生成器生成欺骗样本,而伪装识别模块和欺骗检测模块尝试检测欺骗者。类似地,通过固定和/>,生成器通过最大化欺骗检测误差/>来优化ω,从而对两个模块产生不利影响。相反,通过固定ω,判别器通过最小化欺骗检测误差/>来优化/>和/>。这样,判别器和生成器就以对抗的方式进行了优化。
如图6所示,本发明还提供一种电子设备,该电子设备包括:
至少一个处理器;以及,
与至少一个处理器通信连接的存储器;其中,
该存储器存储有可被至少一个处理器执行的计算机程序,该计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法中的步骤。
本领域技术人员可以理解的是,图6示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于欺骗与反欺骗理论的对抗生成欺骗检测程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
S110:对新闻内容和评论内容的特征进行提取,以获得所述新闻内容和评论内容中的图像特征和文本特征;
S120:基于所述图像特征和所述文本特征,分别通过认知共情推理和情感共情推理,模拟所述新闻内容和评论内容的认知共情产生的程度和情感共情产生的程度;
S130:对所述认知共情产生的程度和情感共情产生的程度进行融合,基于所述融合的结果判断所述新闻内容和评论内容是否对假新闻产生了共情。
具体地,所述处理器10对上述指令的具体实现方法可参考图2对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
如上参照附图以示例的方式描述了根据本发明提出的基于欺骗与反欺骗理论的对抗生成欺骗检测方法。但是,本领域技术人员应当理解,对于上述本发明所提出的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,还可以在不脱离本发明内容的基础上做出各种改进。因此,本发明的保护范围应当由所附的权利要求书的内容确定。
Claims (9)
1.一种基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,包括欺骗判别步骤和欺骗生成步骤;其中,所述欺骗判别步骤用于利用判别器检测伪装下的欺骗者,包括:
S110:将待检测的用户划分到群体,以获取所述用户在群体层面的信息;
S120:基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装;
S130:通过捕获时间和空间共谋模式来检测去除伪装的用户是否为欺骗者;其中包括:在去除所述用户的伪装之后,使用共谋损失和伪装识别损失来优化伪装识别;其中,
所述共谋损失包括时间共谋损失和空间共谋损失,用于通过最大化掩模操作后的时间和空间共谋分数相对于初始共谋分数的增量来引导伪装识别模块去除伪装边;其中,所述时间共谋损失计算如下:
,
其中,表示时间共谋损失,c代表一个群体,/>为伪装识别模块的输出,/> 为的时间共谋分数,/>为/>进行掩码操作后的时间共谋分数;
所述空间共谋损失计算为:
,
其中,表示空间共谋损失,c代表一个群体,/>为伪装识别模块的输出,/> 为的空间共谋分数,/>为/>进行掩码操作后的空间共谋分数;
所述伪装识别损失用于指导模型通过监督信号去除伪装;其中,所述掩码通过二元分类任务以有监督的方式学习,生成器生成的伪装边的掩码朝0优化,其他边的掩码朝1优化;采用交叉熵计算伪装识别损失,如下式:
,
其中,为伪装识别损失,E为时空图的边,/>是节点/>构成的边,表示掩码,/>表示与欺骗节点相关的边的掩码,/>表示与欺骗节点相关的伪装边的掩码;
优化伪装识别的目标函数表述如下:
,
其中,,/>和/>是超参数,/>为欺骗者测损失;
,
其中,表示节点v的掩码,/>表示节点v的伪装掩码,在欺诈背景下,y v = 1 代表欺骗者,y v = 0代表良性用户;
所述欺骗生成步骤用于利用生成器通过生成伪装和故意示假来生成一个欺骗者样本,与所述欺骗判别步骤检测的伪装下的欺骗者进行竞争。
2.如权利要求1所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,所述将待检测的用户划分到群体,以获取所述用户在群体层面的信息,包括:
使用高斯混合模型将待检测的用户通过聚类对比学习划分为m个群体,记为:,其中,/>,/> ,其中,C为群体集合,/>代表第/>个群体,/>代表第/>个群体;v代表其中的节点,/>指群体c i 的用户数量;m是超参数,/>代表群体/>中的用户/>,/>代表群体/>中的用户/>。
3.如权利要求2所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,所述将待检测的用户划分到群体,以获取所述用户在群体层面的信息,还包括:
使用对比学习通过将节点v及其正样本邻居在嵌入空间中相互拉近,同时将节点v远离其他节点,使群体划分模块h(v)的输出包含更多的负样本图结构信息节点;以及,
使用时间相关性来对正样本进行加权,以减少伪装边的权重,其中,群体划分损失表述如下:
,
其中,表示群体划分损失,n是群体数量,M是负样本,从除节点v的邻居之外的V中随机选择,/>是节点v i 经过RNN的输出,/>是负样本中的节点v j 经过RNN的输出;E是通用图G的边的集合,/>是节点/>,/>构成的边,/>是节点/>,/>之间的时间共谋损失,E和/>分别使用最新的通用图和图轨迹进行更新。
4.如权利要求3所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,所述基于所述群体层面的信息,通过放大共谋模式以识别和去除所述用户的伪装,包括:
为每个快照图中与欺骗节点相关的每个边输出一个掩码;其中,用户节点在t期间的伪装反映在快照图Gt处的节点特征和边特征上;
通过将边特征与所述掩码的逐元素相乘来更新所述边特征;
调整相应的节点特征与所述边特征对齐,以去除所述快照图中的伪装。
5.如权利要求4所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,所述为每个快照图中与欺骗节点相关的每个边输出一个掩码,包括:
给定时间嵌入层和边嵌入的输出,为与欺骗节点相关的每个边生成掩码嵌入,其中,/>代表与欺骗节点相关的边;
将每个掩码嵌入转换为掩码值,所述掩码值是0到1之间的连续值;
其中,采用tanh函数进行平滑近似来生成与欺骗节点相关的边的掩码,如下式所示:
,
其中,W和b是可学习参数,β是用于控制平滑逼近强度的超参数,代表边的掩码,输出/>。
6.如权利要求4所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,所述欺骗生成步骤S200用于通过生成伪装和故意示假来生成一个欺骗者样本,包括生成伪装步骤和故意示假步骤;其中,
所述生成伪装步骤用于向现有欺骗者添加伪装;包括:
S210:为每个快照图中与欺骗节点相关的每个边输出伪装边特征;其中,对于每个快照图中每个欺骗者与其他用户之间的连接,无论在原始图中是否存在边,所述伪装边特征均包含与所述伪装相关的所有信息;
S220:通过将生成的伪装边特征与初始边特征/>逐元素相加,生成新欺骗样本的边特征;
S230:将新生成的欺骗样本的边特征与节点特征对齐,以生成所述节点的伪装;
所述故意示假步骤用于向现有欺骗者添加示假内容向量,与生成伪装步骤生成的内容一起组成一个欺骗者样本。
7.如权利要求6所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,与所述欺骗判别步骤检测的伪装下的欺骗者进行竞争,包括:
通过所述步骤S120识别通过所述生成伪装步骤生成的伪装;
通过所述步骤S120和S130检测所述欺骗者样本中的欺骗者。
8.如权利要求7所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,通过所述步骤S120识别通过所述生成伪装步骤生成的伪装,包括:
给定群体划分C;
固定,通过最大化共谋损失/>和/>以及最大化伪装识别损失/>来优化ω;以及,通过最大化共谋损失/>和/>来优化/>;
固定ω,通过最小化共谋损失和/>以及最小化伪装识别损失/>来优化/>;
其中,为伪装识别模块的训练参数,/>表示伪装生成模块的时间共谋损失,表示伪装生成模块的空间共谋损失,ω为伪装生成模块的训练参数,/>为示假生成模块的时间共谋损失,/>为示假生成模块的空间共谋损失,/>为示假生成模块的训练参数。
9.如权利要求8所述的基于欺骗与反欺骗理论的对抗生成欺骗检测方法,其特征在于,通过所述步骤S120和S130检测所述欺骗者样本中的欺骗者,包括:
固定伪装识别模块的训练参数和欺骗检测模块的训练参数/>,生成器通过最大化欺骗检测误差/>来优化ω;
固定伪装生成模块的训练参数ω,判别器通过最小化欺骗检测误差来优化/>和/>。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410076555.8A CN117591921B (zh) | 2024-01-19 | 2024-01-19 | 基于欺骗与反欺骗理论的对抗生成欺骗检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410076555.8A CN117591921B (zh) | 2024-01-19 | 2024-01-19 | 基于欺骗与反欺骗理论的对抗生成欺骗检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117591921A CN117591921A (zh) | 2024-02-23 |
CN117591921B true CN117591921B (zh) | 2024-05-07 |
Family
ID=89922364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410076555.8A Active CN117591921B (zh) | 2024-01-19 | 2024-01-19 | 基于欺骗与反欺骗理论的对抗生成欺骗检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117591921B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443203A (zh) * | 2019-08-07 | 2019-11-12 | 中新国际联合研究院 | 基于对抗生成网络的人脸欺骗检测系统对抗样本生成方法 |
KR20220136017A (ko) * | 2021-03-31 | 2022-10-07 | 삼성전자주식회사 | 스푸핑 방지 방법 및 장치 |
EP4075395A2 (en) * | 2021-08-25 | 2022-10-19 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus of training anti-spoofing model, method and apparatus of performing anti-spoofing, and device |
CN117172875A (zh) * | 2023-08-31 | 2023-12-05 | 南阳理工学院 | 欺诈检测方法、装置、设备及存储介质 |
CN117240523A (zh) * | 2023-09-04 | 2023-12-15 | 北京航空航天大学 | 一种基于结构信息原理的网络欺骗账户的检测方法 |
-
2024
- 2024-01-19 CN CN202410076555.8A patent/CN117591921B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443203A (zh) * | 2019-08-07 | 2019-11-12 | 中新国际联合研究院 | 基于对抗生成网络的人脸欺骗检测系统对抗样本生成方法 |
KR20220136017A (ko) * | 2021-03-31 | 2022-10-07 | 삼성전자주식회사 | 스푸핑 방지 방법 및 장치 |
EP4075395A2 (en) * | 2021-08-25 | 2022-10-19 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus of training anti-spoofing model, method and apparatus of performing anti-spoofing, and device |
CN117172875A (zh) * | 2023-08-31 | 2023-12-05 | 南阳理工学院 | 欺诈检测方法、装置、设备及存储介质 |
CN117240523A (zh) * | 2023-09-04 | 2023-12-15 | 北京航空航天大学 | 一种基于结构信息原理的网络欺骗账户的检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117591921A (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Selvakumar et al. | Firefly algorithm based feature selection for network intrusion detection | |
CN111914256B (zh) | 一种机器学习训练数据受投毒攻击的防御方法 | |
CN108549940B (zh) | 基于多种对抗样例攻击的智能防御算法推荐方法及系统 | |
Neelakandan et al. | Deep learning approaches for cyberbullying detection and classification on social media | |
Barreno et al. | Can machine learning be secure? | |
Razak et al. | Bio-inspired for features optimization and malware detection | |
Okutan et al. | Forecasting cyberattacks with incomplete, imbalanced, and insignificant data | |
Sabir et al. | Gait-based gender classification using smartphone accelerometer sensor | |
CN112565261B (zh) | 基于多生成器AugGAN的对抗动态恶意API序列生成方法 | |
Javed et al. | Betalogger: Smartphone sensor-based side-channel attack detection and text inference using language modeling and dense multilayer neural network | |
Chen et al. | LinkBreaker: Breaking the backdoor-trigger link in DNNs via neurons consistency check | |
Belkhouja et al. | Analyzing deep learning for time-series data through adversarial lens in mobile and IoT applications | |
Guo et al. | A temporal chrominance trigger for clean-label backdoor attack against anti-spoof rebroadcast detection | |
CN117591921B (zh) | 基于欺骗与反欺骗理论的对抗生成欺骗检测方法 | |
Li et al. | TCM-KNN scheme for network anomaly detection using feature-based optimizations | |
Michailidis et al. | Intrusion detection using evolutionary neural networks | |
Conigliaro et al. | Integrating computer vision algorithms and ontologies for spectator crowd behavior analysis | |
Sah et al. | Adversarial transferability in wearable sensor systems | |
CN117892151A (zh) | 网络平台欺骗行为检测系统 | |
Garcia-Ceja et al. | A genetic attack against machine learning classifiers to steal biometric actigraphy profiles from health related sensor data | |
Atzmueller et al. | Adaptive Class Association Rule Mining for Human Activity Recognition. | |
Alsuhibany et al. | Detection of attack strategies | |
CN114070416A (zh) | 基于跨境电子商务的大数据安全管理系统 | |
Kurniawan et al. | Detection of sensors used for adversarial examples against machine learning models | |
Carlsson et al. | User and Entity Behavior Anomaly Detection using Network Traffic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |