CN112232827A - 欺诈识别方法、装置和电子设备 - Google Patents
欺诈识别方法、装置和电子设备 Download PDFInfo
- Publication number
- CN112232827A CN112232827A CN202011178438.0A CN202011178438A CN112232827A CN 112232827 A CN112232827 A CN 112232827A CN 202011178438 A CN202011178438 A CN 202011178438A CN 112232827 A CN112232827 A CN 112232827A
- Authority
- CN
- China
- Prior art keywords
- user
- avatar
- fraud
- head portrait
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003062 neural network model Methods 0.000 claims abstract description 49
- 238000012546 transfer Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 44
- 238000012512 characterization method Methods 0.000 claims description 34
- 238000012795 verification Methods 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4016—Transaction verification involving fraud or risk level assessment in transaction processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Accounting & Taxation (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书实施例提出了一种欺诈识别方法、装置和电子设备,其中,上述欺诈识别方法中,电子支付平台接收电子设备发送的资金操作请求,上述资金操作请求包括使用上述电子设备的第一用户向第二用户进行资金转移操作的请求,然后电子支付平台获取第二用户的头像,利用预先训练的神经网络模型,对第二用户的头像进行识别,获得上述第二用户的头像的欺诈识别结果。
Description
【技术领域】
本说明书实施例涉及互联网技术领域,尤其涉及一种欺诈识别方法、装置和电子设备。
【背景技术】
近年来无论是在整个社会,还是在电子支付场景中,欺诈犯罪的情况时有发生。仅在电子支付场景中,每天与欺诈有关的投诉可能就有上万次,投诉涉案的金额高达上千万。在这个背景下,电子支付平台对于欺诈的防控开展了非常多且富有成效的工作。
但是,随着安全防控的逐渐深入,黑产的攻击技术和骗术传播途径也在不断地进行升级和变化,诈骗手法也越来越隐蔽。另外,由于目前的欺诈识别方案主要基于交易信息,但交易信息已被挖掘多年,有效信息已被充分利用,因此需要提供一种新的欺诈识别方案,以进一步提升欺诈识别能力。
【发明内容】
本说明书实施例提供了一种欺诈识别方法、装置和电子设备,以实现结合头像信息对欺诈行为进行识别,提高电子支付平台的欺诈识别能力。
第一方面,本说明书实施例提供一种欺诈识别方法,包括:接收电子设备发送的资金操作请求,所述资金操作请求包括使用所述电子设备的第一用户向第二用户进行资金转移操作的请求;获取所述第二用户的头像;利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果。
上述欺诈识别方法中,电子支付平台接收电子设备发送的资金操作请求,上述资金操作请求包括使用上述电子设备的第一用户向第二用户进行资金转移操作的请求,然后电子支付平台获取第二用户的头像,利用预先训练的神经网络模型,对第二用户的头像进行识别,获得上述第二用户的头像的欺诈识别结果,从而可以实现结合头像信息对欺诈行为进行识别,提高了电子支付平台的欺诈识别能力。
其中一种可能的实现方式中,所述获得所述第二用户的头像的欺诈识别结果之后,还包括:如果所述欺诈识别结果为所述第二用户的头像为欺诈头像,则对所述资金操作请求进行拦截,并向所述电子设备发送提示信息,以使所述电子设备将所述提示信息展示给所述第一用户;其中,所述提示信息用于提示所述第一用户的资金操作请求存在风险。
其中一种可能的实现方式中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果包括:利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数;根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果。
其中一种可能的实现方式中,所述根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果包括:如果所述第二用户的头像的表征分数大于或等于预定的分数阈值,则确定所述第二用户的头像为欺诈头像;如果所述第二用户的头像的表征分数小于所述预定的分数阈值,则确定所述第二用户的头像不是欺诈头像。
其中一种可能的实现方式中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果包括:利用预先训练的神经网络模型,将所述第二用户的头像转化为特征向量;对所述特征向量进行识别,获得所述第二用户的头像的欺诈识别结果。
其中一种可能的实现方式中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数之前,还包括:获取训练数据,所述训练数据中包括电子支付平台中注册用户的头像;获取所述电子支付平台中审理定性的欺诈事件,将所述训练数据中涉及欺诈事件的用户的头像标注为欺诈头像,将所述训练数据中不涉及欺诈事件的用户的头像标注为非欺诈头像;将标注后的训练数据划分为训练集合和验证集合;利用所述训练集合中的头像和对应的标注,对待训练的神经网络模型进行训练;利用训练获得的神经网络模型对所述验证集合中的头像进行欺诈识别,根据所述验证集合中的头像的欺诈识别结果和所述验证集合中的头像对应的标注,确定所述训练获得的神经网络模型的准确率;当所述准确率达到预定的准确率阈值时,获得训练好的神经网络模型。
第二方面,本说明书实施例提供一种欺诈识别装置,包括:接收模块,用于接收电子设备发送的资金操作请求,所述资金操作请求包括使用所述电子设备的第一用户向第二用户进行资金转移操作的请求;获取模块,用于获取所述第二用户的头像;识别模块,用于利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果。
其中一种可能的实现方式中,所述装置还包括:拦截模块,用于在所述识别模块获得所述第二用户的头像的欺诈识别结果之后,当所述欺诈识别结果为所述第二用户的头像为欺诈头像时,对所述资金操作请求进行拦截;发送模块,用于向所述电子设备发送提示信息,以使所述电子设备将所述提示信息展示给所述第一用户;其中,所述提示信息用于提示所述第一用户的资金操作请求存在风险。
其中一种可能的实现方式中,所述识别模块,具体用于利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数;以及根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果。
其中一种可能的实现方式中,所述识别模块,具体用于当所述第二用户的头像的表征分数大于或等于预定的分数阈值时,确定所述第二用户的头像为欺诈头像;当所述第二用户的头像的表征分数小于所述预定的分数阈值时,确定所述第二用户的头像不是欺诈头像。
其中一种可能的实现方式中,所述识别模块,具体用于利用预先训练的神经网络模型,将所述第二用户的头像转化为特征向量;以及对所述特征向量进行识别,获得所述第二用户的头像的欺诈识别结果。
第三方面,本说明书实施例提供一种电子设备,包括:至少一个处理器;以及与所述处理器通信连接的至少一个存储器,其中:所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面提供的方法。
第四方面,本说明书实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面提供的方法。
应当理解的是,本说明书实施例的第二~四方面与本说明书实施例的第一方面的技术方案一致,各方面及对应的可行实施方式所取得的有益效果相似,不再赘述。
【附图说明】
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本说明书一个实施例提供的欺诈头像特点的示意图;
图2为本说明书一个实施例提供的欺诈识别方法的流程图;
图3为本说明书一个实施例提供的ResNet50的网络结构示意图;
图4为本说明书另一个实施例提供的欺诈识别方法的流程图;
图5为本说明书再一个实施例提供的欺诈识别方法的流程图;
图6为本说明书再一个实施例提供的欺诈识别方法的流程图;
图7为本说明书再一个实施例提供的欺诈识别方法的流程图;
图8为本说明书欺诈识别装置一个实施例的结构示意图;
图9为本说明书欺诈识别装置另一个实施例的结构示意图;
图10为本说明书电子设备一个实施例的结构示意图。
【具体实施方式】
为了更好的理解本说明书的技术方案,下面结合附图对本说明书实施例进行详细描述。
应当明确,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本说明书保护的范围。
在本说明书实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书。在本说明书实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
现有相关技术中,欺诈识别方案主要基于交易信息,但交易信息已被挖掘多年,有效信息已被充分利用,如何取得欺诈识别能力的进一步突破,是当前研究的重点问题。就目前技术的前沿趋势来看,融入图片和/或文本类等其它模态的信息,是提升欺诈识别能力的最有潜力的方向之一。
通过日常的欺诈案件数据分析和心理学研究发现,发生欺诈案件收益账户的头像具有一些共同的特点,如图1所示,欺诈者的头像通常具有伪装(例如:非真实头像)、吸引(例如:俊男靓女)和/或提示(例如:刷单信息)的特点,因此,融入头像信息,可以显著提升欺诈的识别能力。图1为本说明书一个实施例提供的欺诈头像特点的示意图。
本说明书实施例提出了一种欺诈识别方法,可以基于头像进行欺诈识别,显著提升欺诈识别的效果,并可以对现有的风控特征体系进行有效补充,同时可应用在防控策略、模型和/或分析等各个方面。
图2为本说明书一个实施例提供的欺诈识别方法的流程图,如图2所示,上述欺诈识别方法可以包括:
步骤202,电子支付平台接收电子设备发送的资金操作请求,上述资金操作请求包括使用上述电子设备的第一用户向第二用户进行资金转移操作的请求。
其中,上述资金转移操作包括第一用户向第二用户转账、发红包和/或付款等操作。
步骤204,电子支付平台获取第二用户的头像。
具体地,第二用户为电子支付平台的注册用户,第二用户的头像为第二用户在电子支付平台的个人信息中的头像。
步骤206,利用预先训练的神经网络模型,对第二用户的头像进行识别,获得上述第二用户的头像的欺诈识别结果。
具体地,上述神经网络模型可以为卷积神经网络模型,例如:ResNet50模型,当然,还可以采用其他类型的神经网络模型,本实施例对此不作限定。
其中,ResNet50模型是卷积神经网络的一种,其特点是容易优化,并且能够通过增加相当的深度来提高图片分类的准确率。ResNet50模型内部的残差块使用了跳跃连接,缓解了在深度神经网络模型中增加深度带来的梯度消失问题,因此ResNet50模型对于图片分类的性能较好。
图3为本说明书一个实施例提供的ResNet50的网络结构示意图,ResNet50的网络结构可以如图3所示,ResNet50模型利用随机梯度下降的方法进行迭代,并最终得到网络各层的权重系数,完成一个图片到向量的映射(embedding),或者直接采用ResNet50模型的预测结果作为头像的表征分数,考虑到上线应用的成本,本说明书实施例采用ResNet50模型的预测结果作为头像的表征分数。
上述欺诈识别方法中,电子支付平台接收电子设备发送的资金操作请求,上述资金操作请求包括使用上述电子设备的第一用户向第二用户进行资金转移操作的请求,然后电子支付平台获取第二用户的头像,利用预先训练的神经网络模型,对第二用户的头像进行识别,获得上述第二用户的头像的欺诈识别结果,从而可以实现结合头像信息对欺诈行为进行识别,提高了电子支付平台的欺诈识别能力。
图4为本说明书另一个实施例提供的欺诈识别方法的流程图,如图4所示,本说明书图2所示实施例中,步骤206之后,还可以包括:
步骤402,如果上述欺诈识别结果为第二用户的头像为欺诈头像,则电子支付平台对上述资金操作请求进行拦截,并向电子设备发送提示信息,以使上述电子设备将上述提示信息展示给第一用户。
其中,上述提示信息用于提示第一用户的资金操作请求存在风险。
具体实现时,当电子支付平台识别出第二用户的头像为欺诈头像时,电子支付平台可以对第一用户的资金操作请求进行拦截,并向电子设备发送提示信息,从而提示第一用户的资金操作请求存在风险,这样,第一用户就会进一步确认资金操作请求的安全性,从而可以保障第一用户的资金安全。
图5为本说明书再一个实施例提供的欺诈识别方法的流程图,如图5所示,本说明书图2所示实施例中,步骤206可以包括:
步骤502,利用预先训练的神经网络模型,对第二用户的头像进行识别,获得上述第二用户的头像的表征分数。
具体地,参见图3,当神经网络模型采用ResNet50模型时,利用ResNet50模型对第二用户的头像进行识别,可以获得上述第二用户的头像的表征分数。
步骤504,根据第二用户的头像的表征分数,获得第二用户的欺诈识别结果。
具体地,根据第二用户的头像的表征分数,获得第二用户的欺诈识别结果可以为:如果第二用户的头像的表征分数大于或等于预定的分数阈值,则确定第二用户的头像为欺诈头像;如果第二用户的头像的表征分数小于上述预定的分数阈值,则确定第二用户的头像不是欺诈头像。
其中,上述预定的分数阈值可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述预定的分数阈值的大小不作限定,举例来说,上述预定的分数阈值可以为85。
本实施例中,表征分数高的用户头像,涉及欺诈行为的浓度越高,同时,从结果来看,也符合数据分析的结果。在欺诈防控模型与策略的开发过程中,加入头像图片的欺诈识别结果,可以提升相应策略、模型的性能。
图6为本说明书再一个实施例提供的欺诈识别方法的流程图,如图6所示,本说明书图2所示实施例中,步骤206可以包括:
步骤602,利用预先训练的神经网络模型,将第二用户的头像转化为特征向量。
具体地,当神经网络模型采用ResNet50模型时,ResNet50模型可以利用随机梯度下降的方法进行迭代,获得网络各层的权重系数,完成第二用户的头像到特征向量的映射(embedding)。
步骤604,对上述特征向量进行识别,获得第二用户的头像的欺诈识别结果。
具体地,在获得ResNet50模型输出的特征向量之后,可以进一步对该特征向量进行识别,获得第二用户的头像的欺诈识别结果。
图7为本说明书再一个实施例提供的欺诈识别方法的流程图,如图7所示,本说明书图2所示实施例中,步骤206之前,还可以包括:
步骤702,获取训练数据,上述训练数据中包括电子支付平台中注册用户的头像。
具体地,可以从电子支付平台注册用户的个人信息中获取注册用户的头像。
步骤704,获取电子支付平台中审理定性的欺诈事件,将上述训练数据中涉及欺诈事件的用户的头像标注为欺诈头像,将上述训练数据中不涉及欺诈事件的用户的头像标注为非欺诈头像。
其中,电子支付平台中审理定性的欺诈事件是经人工审核定性的欺诈事件。
也就是说,在获取训练数据之后,可以获取电子支付平台中审理定性的欺诈事件,然后根据上述审理定性的欺诈事件对训练数据中的用户头像进行标注。
步骤706,将上述训练数据划分为训练集合和验证集合。
步骤708,利用上述训练集合中的头像和对应的标注,对待训练的神经网络模型进行训练。
其中,待训练的神经网络模型可以为卷积神经网络模型,例如:ResNet50模型,ResNet50模型的结构可以如图3所示,在此不再赘述。
步骤710,利用训练获得的神经网络模型对上述验证集合中的头像进行欺诈识别,根据上述验证集合中的头像的欺诈识别结果和上述验证集合中的头像对应的标注,确定训练获得的神经网络模型的准确率。
步骤712,当上述准确率达到预定的准确率阈值时,获得训练好的神经网络模型。
其中,上述预定的准确率阈值可以在具体实现时根据系统性能和/或实现需求等自行设定,本实施例对上述预定的准确率阈值的大小不作限定。
本说明书实施例提供的欺诈识别方法,在进行欺诈识别时,融入用户头像的图片信息,可以显著提升欺诈识别能力,并且可以对恶意用户的诈骗信息和传播手法起到一定的限制作用。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
图8为本说明书欺诈识别装置一个实施例的结构示意图,如图8所示,上述欺诈识别装置可以包括:接收模块81、获取模块82和识别模块83;
其中,接收模块81,用于接收电子设备发送的资金操作请求,上述资金操作请求包括使用电子设备的第一用户向第二用户进行资金转移操作的请求。
获取模块82,用于获取第二用户的头像。
识别模块83,用于利用预先训练的神经网络模型,对第二用户的头像进行识别,获得第二用户的头像的欺诈识别结果。
图8所示实施例提供的欺诈识别装置可用于执行本说明书图2所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。
图9为本说明书欺诈识别装置另一个实施例的结构示意图,与图8所示的欺诈识别装置相比,图9所示的欺诈识别装置还可以包括:拦截模块84和发送模块85;
其中,拦截模块84,用于在识别模块83获得第二用户的头像的欺诈识别结果之后,当上述欺诈识别结果为第二用户的头像为欺诈头像时,对上述资金操作请求进行拦截;
发送模块85,用于向上述电子设备发送提示信息,以使电子设备将上述提示信息展示给第一用户;其中,上述提示信息用于提示第一用户的资金操作请求存在风险。
本实施例的一种实现方式中,识别模块83,具体用于利用预先训练的神经网络模型,对第二用户的头像进行识别,获得第二用户的头像的表征分数;以及根据第二用户的头像的表征分数,获得第二用户的欺诈识别结果。
识别模块83,具体用于当第二用户的头像的表征分数大于或等于预定的分数阈值时,确定第二用户的头像为欺诈头像;当第二用户的头像的表征分数小于上述预定的分数阈值时,确定第二用户的头像不是欺诈头像。
本实施例的另一种实现方式中,识别模块83,具体用于利用预先训练的神经网络模型,将第二用户的头像转化为特征向量;以及对上述特征向量进行识别,获得第二用户的头像的欺诈识别结果。
进一步地,上述欺诈识别装置还可以包括:标注模块86、划分模块87、训练模块88和验证模块89;
获取模块82,还用于在识别模块83获得第二用户的头像的表征分数之前,获取训练数据,上述训练数据中包括电子支付平台中注册用户的头像;以及获取电子支付平台中审理定性的欺诈事件;
标注模块86,用于将获取模块82获取的训练数据中涉及欺诈事件的用户的头像标注为欺诈头像,将获取模块82获取的训练数据中不涉及欺诈事件的用户的头像标注为非欺诈头像;
划分模块87,用于将标注模块86标注后的训练数据划分为训练集合和验证集合;
训练模块88,用于利用上述训练集合中的头像和对应的标注,对待训练的神经网络模型进行训练;
验证模块89,用于利用训练模块88训练获得的神经网络模型对上述验证集合中的头像进行欺诈识别,根据上述验证集合中的头像的欺诈识别结果和上述验证集合中的头像对应的标注,确定训练模块88训练获得的神经网络模型的准确率;当上述准确率达到预定的准确率阈值时,获得训练好的神经网络模型。
图9所示实施例提供的欺诈识别装置可用于执行本申请图2~图7所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。
图10为本说明书电子设备一个实施例的结构示意图,如图10所示,上述电子设备可以包括至少一个处理器;以及与上述处理器通信连接的至少一个存储器,其中:存储器存储有可被处理器执行的程序指令,上述处理器调用上述程序指令能够执行本说明书图2~图7所示实施例提供的欺诈识别方法。
其中,上述电子设备可以为服务器,例如:云服务器,本说明书实施例中,该服务器可以为电子支付平台的服务器。
图10示出了适于用来实现本说明书实施方式的示例性电子设备的框图。图10显示的电子设备仅仅是一个示例,不应对本说明书实施例的功能和使用范围带来任何限制。
如图10所示,电子设备以通用计算设备的形式表现。电子设备的组件可以包括但不限于:一个或者多个处理器410,通信接口420,存储器430,以及连接不同组件(包括存储器430、通信接口420和处理单元410)的通信总线440。
通信总线440表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,或者使用多种总线结构中的任意总线结构的局域总线。举例来说,通信总线440可以包括但不限于工业标准体系结构(industry standardarchitecture,ISA)总线,微通道体系结构(micro channel architecture,MAC)总线,增强型ISA总线、视频电子标准协会(video electronics standards association,VESA)局域总线以及外围组件互连(peripheral component interconnection,PCI)总线。
电子设备典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器430可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(random access memory,RAM)和/或高速缓存存储器。存储器430可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本说明书图2~图7所示实施例的功能。
具有一组(至少一个)程序模块的程序/实用工具,可以存储在存储器430中,这样的程序模块包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块通常执行本说明书图2~图7所描述的实施例中的功能和/或方法。
处理器410通过运行存储在存储器430中的程序,从而执行各种功能应用以及数据处理,例如实现本说明书图2~图7所示实施例提供的欺诈识别方法。
本说明书实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行本说明书图2~图7所示实施例提供的欺诈识别方法。
上述非暂态计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(read only memory,ROM)、可擦式可编程只读存储器(erasable programmable read onlymemory,EPROM)或闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、射频(radio frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本说明书操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(localarea network,LAN)或广域网(wide area network,WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本说明书的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本说明书的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本说明书的实施例所属技术领域的技术人员所理解。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
需要说明的是,本说明书实施例中所涉及的终端可以包括但不限于个人计算机(personal computer,PC)、个人数字助理(personal digital assistant,PDA)、无线手持设备、平板电脑(tablet computer)、手机、MP3播放器、MP4播放器等。
在本说明书所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本说明书各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(processor)执行本说明书各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本说明书的较佳实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。
Claims (13)
1.一种欺诈识别方法,包括:
接收电子设备发送的资金操作请求,所述资金操作请求包括使用所述电子设备的第一用户向第二用户进行资金转移操作的请求;
获取所述第二用户的头像;
利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果。
2.根据权利要求1所述的方法,其中,所述获得所述第二用户的头像的欺诈识别结果之后,还包括:
如果所述欺诈识别结果为所述第二用户的头像为欺诈头像,则对所述资金操作请求进行拦截,并向所述电子设备发送提示信息,以使所述电子设备将所述提示信息展示给所述第一用户;其中,所述提示信息用于提示所述第一用户的资金操作请求存在风险。
3.根据权利要求1所述的方法,其中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果包括:
利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数;
根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果。
4.根据权利要求3所述的方法,其中,所述根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果包括:
如果所述第二用户的头像的表征分数大于或等于预定的分数阈值,则确定所述第二用户的头像为欺诈头像;
如果所述第二用户的头像的表征分数小于所述预定的分数阈值,则确定所述第二用户的头像不是欺诈头像。
5.根据权利要求1所述的方法,其中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果包括:
利用预先训练的神经网络模型,将所述第二用户的头像转化为特征向量;
对所述特征向量进行识别,获得所述第二用户的头像的欺诈识别结果。
6.根据权利要求1-5任意一项所述的方法,其中,所述利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数之前,还包括:
获取训练数据,所述训练数据中包括电子支付平台中注册用户的头像;
获取所述电子支付平台中审理定性的欺诈事件,将所述训练数据中涉及欺诈事件的用户的头像标注为欺诈头像,将所述训练数据中不涉及欺诈事件的用户的头像标注为非欺诈头像;
将标注后的训练数据划分为训练集合和验证集合;
利用所述训练集合中的头像和对应的标注,对待训练的神经网络模型进行训练;
利用训练获得的神经网络模型对所述验证集合中的头像进行欺诈识别,根据所述验证集合中的头像的欺诈识别结果和所述验证集合中的头像对应的标注,确定所述训练获得的神经网络模型的准确率;
当所述准确率达到预定的准确率阈值时,获得训练好的神经网络模型。
7.一种欺诈识别装置,包括:
接收模块,用于接收电子设备发送的资金操作请求,所述资金操作请求包括使用所述电子设备的第一用户向第二用户进行资金转移操作的请求;
获取模块,用于获取所述第二用户的头像;
识别模块,用于利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的欺诈识别结果。
8.根据权利要求7所述的装置,其中,还包括:
拦截模块,用于在所述识别模块获得所述第二用户的头像的欺诈识别结果之后,当所述欺诈识别结果为所述第二用户的头像为欺诈头像时,对所述资金操作请求进行拦截;
发送模块,用于向所述电子设备发送提示信息,以使所述电子设备将所述提示信息展示给所述第一用户;其中,所述提示信息用于提示所述第一用户的资金操作请求存在风险。
9.根据权利要求7所述的装置,其中,
所述识别模块,具体用于利用预先训练的神经网络模型,对所述第二用户的头像进行识别,获得所述第二用户的头像的表征分数;以及根据所述第二用户的头像的表征分数,获得所述第二用户的欺诈识别结果。
10.根据权利要求9所述的装置,其中,
所述识别模块,具体用于当所述第二用户的头像的表征分数大于或等于预定的分数阈值时,确定所述第二用户的头像为欺诈头像;当所述第二用户的头像的表征分数小于所述预定的分数阈值时,确定所述第二用户的头像不是欺诈头像。
11.根据权利要求7所述的装置,其中,
所述识别模块,具体用于利用预先训练的神经网络模型,将所述第二用户的头像转化为特征向量;以及对所述特征向量进行识别,获得所述第二用户的头像的欺诈识别结果。
12.一种电子设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至7任一所述的方法。
13.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011178438.0A CN112232827A (zh) | 2020-10-29 | 2020-10-29 | 欺诈识别方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011178438.0A CN112232827A (zh) | 2020-10-29 | 2020-10-29 | 欺诈识别方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112232827A true CN112232827A (zh) | 2021-01-15 |
Family
ID=74110416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011178438.0A Pending CN112232827A (zh) | 2020-10-29 | 2020-10-29 | 欺诈识别方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232827A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530772A (zh) * | 2013-09-30 | 2014-01-22 | 深圳钱盒信息技术有限公司 | 一种移动互联支付风险控制方法及系统 |
CN106453061A (zh) * | 2016-11-22 | 2017-02-22 | 北京锐安科技有限公司 | 一种识别网络诈骗行为的方法及系统 |
CN106611133A (zh) * | 2015-10-27 | 2017-05-03 | 阿里巴巴集团控股有限公司 | 一种风险识别方法和设备 |
CN109325770A (zh) * | 2018-09-19 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 一种处理转账交易的方法及装置 |
CN109615355A (zh) * | 2018-09-30 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 一种转账交易处理方法及系统 |
CN109697666A (zh) * | 2018-12-18 | 2019-04-30 | 深圳壹账通智能科技有限公司 | 风险预警方法、装置、计算机设备和存储介质 |
CN110399925A (zh) * | 2019-07-26 | 2019-11-01 | 腾讯科技(武汉)有限公司 | 账号的风险识别方法、装置及存储介质 |
CN110633991A (zh) * | 2019-09-20 | 2019-12-31 | 阿里巴巴集团控股有限公司 | 风险识别方法、装置和电子设备 |
CN111553702A (zh) * | 2020-05-14 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 一种支付风险识别方法及装置 |
-
2020
- 2020-10-29 CN CN202011178438.0A patent/CN112232827A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530772A (zh) * | 2013-09-30 | 2014-01-22 | 深圳钱盒信息技术有限公司 | 一种移动互联支付风险控制方法及系统 |
CN106611133A (zh) * | 2015-10-27 | 2017-05-03 | 阿里巴巴集团控股有限公司 | 一种风险识别方法和设备 |
CN106453061A (zh) * | 2016-11-22 | 2017-02-22 | 北京锐安科技有限公司 | 一种识别网络诈骗行为的方法及系统 |
CN109325770A (zh) * | 2018-09-19 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 一种处理转账交易的方法及装置 |
CN109615355A (zh) * | 2018-09-30 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 一种转账交易处理方法及系统 |
CN109697666A (zh) * | 2018-12-18 | 2019-04-30 | 深圳壹账通智能科技有限公司 | 风险预警方法、装置、计算机设备和存储介质 |
CN110399925A (zh) * | 2019-07-26 | 2019-11-01 | 腾讯科技(武汉)有限公司 | 账号的风险识别方法、装置及存储介质 |
CN110633991A (zh) * | 2019-09-20 | 2019-12-31 | 阿里巴巴集团控股有限公司 | 风险识别方法、装置和电子设备 |
CN111553702A (zh) * | 2020-05-14 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 一种支付风险识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
AQNIU: "《2017年网络诈骗趋势研究报告(全文)》", 31 January 2018 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509915B (zh) | 人脸识别模型的生成方法和装置 | |
US10817707B2 (en) | Attack sample generating method and apparatus, device and storage medium | |
CN109993150B (zh) | 用于识别年龄的方法和装置 | |
US20190034702A1 (en) | Living body detecting method and apparatus, device and storage medium | |
US20190026605A1 (en) | Neural network model training method and apparatus, living body detecting method and apparatus, device and storage medium | |
US20210042504A1 (en) | Method and apparatus for outputting data | |
CN110633991A (zh) | 风险识别方法、装置和电子设备 | |
CN111210335B (zh) | 用户风险识别方法、装置及电子设备 | |
CN112839223B (zh) | 图像压缩方法、装置、存储介质及电子设备 | |
WO2021223738A1 (zh) | 模型参数的更新方法、装置、设备及存储介质 | |
CN111598122B (zh) | 数据校验方法、装置、电子设备和存储介质 | |
CN108305057A (zh) | 电子红包的发放装置、方法及计算机可读存储介质 | |
CN112149699A (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN110826036A (zh) | 用户操作行为安全性的识别方法、装置和电子设备 | |
CN112651311A (zh) | 一种人脸识别方法和相关设备 | |
CN110046571B (zh) | 用于识别年龄的方法和装置 | |
CN109829431B (zh) | 用于生成信息的方法和装置 | |
CN112232804B (zh) | 扫码支付方法、装置和电子设备 | |
CN110189141A (zh) | 发票的验证方法、装置和计算机设备 | |
CN112232827A (zh) | 欺诈识别方法、装置和电子设备 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN114186039A (zh) | 一种视觉问答方法、装置及电子设备 | |
CN111899747B (zh) | 用于合成音频的方法和装置 | |
CN114817346A (zh) | 一种业务处理方法、装置、电子设备及计算机可读介质 | |
CN111601000A (zh) | 通信网络诈骗的识别方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210115 |
|
RJ01 | Rejection of invention patent application after publication |