WO2023029324A1 - 一种基于动态注意力图网络的营销套利黑产的识别方法 - Google Patents

一种基于动态注意力图网络的营销套利黑产的识别方法 Download PDF

Info

Publication number
WO2023029324A1
WO2023029324A1 PCT/CN2021/142967 CN2021142967W WO2023029324A1 WO 2023029324 A1 WO2023029324 A1 WO 2023029324A1 CN 2021142967 W CN2021142967 W CN 2021142967W WO 2023029324 A1 WO2023029324 A1 WO 2023029324A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
attention
relationship
graph
merchant
Prior art date
Application number
PCT/CN2021/142967
Other languages
English (en)
French (fr)
Inventor
傅剑文
陈心童
章建森
韩弘炀
周文彬
Original Assignee
天翼电子商务有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 天翼电子商务有限公司 filed Critical 天翼电子商务有限公司
Priority to JP2023513542A priority Critical patent/JP2023543128A/ja
Publication of WO2023029324A1 publication Critical patent/WO2023029324A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0225Avoiding frauds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the invention relates to the fields of emerging information technology and artificial intelligence, and in particular to a method for identifying illegal marketing arbitrage products based on a dynamic attention map network.
  • this kind of method usually has the following shortcomings: 1) In essence, this kind of method It is to define the expert experience strategy in a more complex form on the graph network, which is also limited by the operator itself, rather than a machine learning algorithm. 2) This type of method often only utilizes the topological information on the network space of the graph, and does not utilize the characteristic information contained in the network nodes themselves. 3) Usually only the information in the low adjacency relationship is used, but the potential information contained in the high adjacency relationship is not fully utilized.
  • Graph neural network is a self-learning algorithm based on historical samples, which can avoid the limitations of expert experience. At the same time, it also introduces the characteristic information of the node itself, and can perform multi-layer adjacency information aggregation to more comprehensively identify potential Arbitrage risk node.
  • the technical problem to be solved by the present invention is to overcome the defects of the prior art and provide a method for identifying illegal marketing arbitrage products based on a dynamic attention map network, which can greatly improve the comprehensiveness and accuracy of the risk control system in identifying illegal arbitrage products , so as to better solve the problem of this scene.
  • the present invention provides the following technical solutions:
  • the present invention provides a method for identifying illegal marketing arbitrage products based on a dynamic attention map network, comprising the following steps:
  • the graph network contains two types of nodes: user node V c and merchant node V b
  • a transaction relationship edge between the user node and the merchant node is generated
  • Common natural person attribute features can be constructed, and statistical features based on expert experience can also be introduced, such as: the number of visits to an activity in a certain period of time in the past, etc., to obtain better recognition results;
  • the user set V c generates the attribute feature matrix Stored in the distributed database module in the form of a table; n 0 , n 1 , ... in the subscript represent the number of user sets at each time point;
  • the merchant set V b at each time point is imported from the graph database module to the distributed database module, and a k-dimensional feature vector representing its attributes is generated for each merchant at each time point;
  • the merchant set V b at a point in time generates an attribute feature matrix Stored in the distributed database module in the form of a table; l 0 , l 1 , ... in the subscript represent the number of merchant sets at each time point;
  • the transaction relationship edge E t between the user and the merchant define an independent shared linear mapping matrix for the user node and the merchant node and It is used to map the user feature vector space and merchant feature vector space from m-dimensional and l-dimensional to a unified f-dimensional vector space; define a shared attention vector a t ⁇ R 2f ;
  • represents the concatenation of vectors
  • the subscripts i and j respectively represent two adjacent nodes based on a certain relationship edge in the graph
  • h i or h j both represent that the feature vector corresponding to the node is taken from
  • N d (i), N p (i), N s (i), and N t (i) respectively indicate that node i is connected through device relationship edges, payment relationship edges, social relationship edges, and transaction relationship edges first-order neighbors;
  • Multi-edge attention unit MultiEdgeGAT
  • step 4 only completes the information aggregation of the graph network at the spatial level at a certain moment, because to consider the dynamics of the time dimension of the graph network, it is necessary to complete the transmission of network information in the time dimension.
  • This patent innovation A mechanism for transferring attention parameters in the time dimension using a multi-way GRU (called: multi-way GRU unit-MultiGRU) is proposed, combined with a spatial-level graph attention information aggregation mechanism (multilateral attention unit-MultiEdgeGAT) , forming a brand new processing unit called dynamic attention unit, the specific operation is as follows:
  • the above formula completes the attention parameter at time t-1 pass Pass the attention parameter at time t to generate
  • the other 8 attention parameters W pt , W st , W tct , W tbt , a dt , a pt , a st , a at time t can be generated from time t-1 through other GRUs with the same structure.
  • ⁇ in the above formula means Hadamard product, for The parameters to be learned by itself, similarly, other GRUs also have similar parameters to learn; the above-mentioned 9 GRU units are combined together, called a multi-channel GRU unit-MultiGRU;
  • H' t' MultiEdgeGAT(H t , W t , a t );
  • step 5 describes the information transmission and information aggregation of a dynamic attention unit on the time axis.
  • the expression of the above dynamic attention unit can be Expressed as:
  • each additional layer of aggregation means that the next layer of adjacency information of the node in the graph is "pressed" to the node, so it makes good use of the multi-layer adjacency.
  • information so far a dynamically learnable graph network that includes information transmission in the time dimension and multi-layer aggregation in the space dimension has been constructed;
  • This patent proposes a method for identifying arbitrage black products based on a dynamic attention graph network. Its innovation has the following advantages: 1) A new type of arbitrage network composed of user nodes, merchant nodes, multi-dimensional relationships and multiple moments is defined. 2) A new type of multilateral attention unit is designed, which can more effectively realize the unification of user nodes, merchant nodes, and multi-dimensional relationships, so as to better realize the information aggregation at the node space level; 3) in In terms of the time dynamics of the graph network, an innovative design of a dynamic mode that transmits attention information through multi-channel GRU units enables the evolution information of the graph network on the time axis to be effectively transmitted; 4) Effective multi-lateral attention The unit and the multi-channel GRU unit are combined, and a new type of processing unit, the dynamic attention unit, is proposed. The dynamic attention map network built with this unit can not only complete the effective information transmission of the time dimension, but also realize the multi-layer adjacency of the space dimension. Efficient aggregation of information.
  • the method proposed in this patent can greatly improve the comprehensiveness and accuracy of the risk control system in identifying arbitrage black products, so as to better solve the problem in this scenario.
  • Fig. 1 is an example diagram of graph network composition of the present invention
  • Fig. 2 is a structural diagram of a multi-channel GRU unit
  • Figure 3 is a structural diagram of a dynamic attention unit
  • Figure 4 is the overall structure diagram of the dynamic attention map network
  • Fig. 5 is an implementation flow chart of the present invention.
  • the present invention provides a method for identifying illegal marketing arbitrage products based on a dynamic attention graph network, comprising the following steps:
  • the graph network contains two types of nodes: user node V c and merchant node V b
  • a social relationship edge between user nodes and user nodes is generated
  • a transaction relationship edge between the user node and the merchant node is generated
  • Common natural person attribute features can be constructed, and statistical features based on expert experience can also be introduced, such as: the number of visits to an activity in a certain period of time in the past, etc., to obtain better recognition results;
  • the user set V c generates the attribute feature matrix Stored in the distributed database module in the form of a table; n 0 , n 1 , ... in the subscript represent the number of user sets at each time point;
  • the merchant set V b at each time point is imported from the graph database module to the distributed database module, and a k-dimensional feature vector representing its attributes is generated for each merchant at each time point;
  • the merchant set V b at a point in time generates an attribute feature matrix Stored in the distributed database module in the form of a table; l 0 , l 1 , ... in the subscript represent the number of merchant sets at each time point;
  • the transaction relationship edge E t between the user and the merchant define an independent shared linear mapping matrix for the user node and the merchant node and It is used to map the user feature vector space and merchant feature vector space from m-dimensional and l-dimensional to a unified f-dimensional vector space. Define the shared attention vector a t ⁇ R 2f ;
  • represents the concatenation of vectors
  • the subscripts i and j respectively represent two adjacent nodes based on a certain relationship edge in the graph
  • h i or h j both represent that the feature vector corresponding to the node is taken from
  • N d (i), N p (i), N s (i), and N t (i) respectively indicate that node i is connected through device relationship edges, payment relationship edges, social relationship edges, and transaction relationship edges first-order neighbors;
  • Multi-edge attention unit MultiEdgeGAT
  • step 4 only completes the information aggregation of the graph network at the spatial level at a certain moment, because to consider the dynamics of the time dimension of the graph network, it is necessary to complete the transmission of network information in the time dimension.
  • This patent innovation A mechanism for transferring attention parameters in the time dimension using a multi-way GRU (called: multi-way GRU unit-MultiGRU) is proposed, combined with a spatial-level graph attention information aggregation mechanism (multilateral attention unit-MultiEdgeGAT) , forming a brand new processing unit called dynamic attention unit, the specific operation is as follows:
  • the above formula completes the attention parameter at time t-1 pass Pass the attention parameter at time t to generate
  • the other 8 attention parameters W pt , W st , W tct , W tbt , a dt , a pt , a st , a at time t can be generated from time t-1 through other GRUs with the same structure.
  • tt ; ⁇ in the above formula means Hadamard product, for The parameters to be learned by itself, similarly, other GRUs also have similar parameters to learn; the above-mentioned 9 GRU units are combined together, called a multi-channel GRU unit-MultiGRU; see the structure shown in Figure 2;
  • the five parameters of W d , W p , W s , W tc , and W tb are combined into W, and the four parameters of a d , a p , a s , and a t are combined into a;
  • H' t' MultiEdgeGAT(H t , W t , a t )
  • step 5 describes the information transmission and information aggregation of a dynamic attention unit on the time axis.
  • the expression of the above dynamic attention unit can be Expressed as:
  • each additional layer of aggregation means that the next layer of adjacency information of the node in the graph is "pressed" to the node, so it makes good use of the multi-layer adjacency.
  • a dynamic learnable graph network that includes information transmission in the time dimension and multi-layer aggregation in the space dimension has been constructed; see the overall structure of the dynamic attention graph network shown in Figure 4;
  • the example is as follows:
  • node consisting of two types of nodes: user nodes and merchant nodes, and four types of relationship edges: user-user device relationship edge E d , user-user payment relationship edge E p , user-user social relationship edge E s , user-user social relationship edge E s , User-merchant transaction relationship edge E t , and a new type of dynamic graph network structure composed of multiple moments;
  • a new type of multilateral attention unit is designed, which can more effectively realize the unification of user nodes, merchant nodes, and multi-dimensional relationships, so as to better realize information aggregation at the node space level;
  • the dynamic attention map network built using this unit can not only complete the effective information transmission of the time dimension, but also can Achieving efficient aggregation of multi-layer adjacency information in spatial dimension.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Biology (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于动态注意力图网络的营销套利黑产的识别方法:1)定义了一种由用户节点、商户节点、多维关系和多个时刻组成的一种新型的动态图网络结构;2)设计了一种新型的多边注意力单元,能更有效的实现用户节点、商户节点、多维关系的统一,更好的实现节点空间层面的信息聚合;3)在图网络时间动态性上,创新的设计了一种通过多路GRU单元传递注意力信息的动态模式,使得图网络在时间轴上的演变信息也得到了有效的传递;4)有效把多边注意力单元和多路GRU单元进行了合并,提出了新型处理单元,使用此单元搭建的动态注意力图网络能既完成时间维的有效信息传递,又能实现空间维的多层邻接信息的高效聚合。

Description

一种基于动态注意力图网络的营销套利黑产的识别方法 技术领域
本发明涉及新兴信息技术、人工智能领域,特别涉及一种基于动态注意力图网络的营销套利黑产的识别方法。
背景技术
营销套利是一种新型的互联网欺诈手段,套利黑产通过各种不法方式来大量套取电商平台或支付平台推出的代金券、折扣、满减、立返立减等营销活动的权益,极大的伤害了正常消费者的切身利益,也使得平台方投入的营销成本没有发挥其应有价值。并且随着当今互联网产业的飞速发展,营销套利黑产也更加趋于团伙化,手段方式也变得更加隐蔽和复杂。
传统的解决方案通常依靠专家经验在风控系统中设置一些风险策略,用以捕获被风险策略命中的套利黑产人员,但随着黑产手段更具团伙化、复杂化、隐蔽化,此类方法往往受限于专家自身经验无法更全面的识别一些特征潜藏的或手段新型的套利黑产群体。
也有提出通过构建图网络并在图网络上定义一些风险算子,从而通过计算风险算子来判断图上各节点的套利风险,但这类方法通常存在如下一些不足:1)本质上该类方法是将专家经验策略以一种更复杂的形式定义在图网络上,同样也会受限于算子本身,而并非是一种机器学习的算法。2)该类方法往往仅利用了图网络空间上的拓扑信息,并未利用网络节点本身蕴藏的特征信息。3)通常只利用了低邻接关系中的信息,而没有充分利用高邻接关系中蕴藏的潜在信息。
随着科技的发展进步,有提出通过图神经网络来更好的解决该场景的问题。图神经网络是一种基于历史样本可自学习的算法能避免专家经验的局限性,同时也都引入了节点自身的特征信息,并且可进行多层邻接的信息聚合使得能更全面的识别潜在的套利风险节点。
但是当前基于图神经网络的方法大多只是使用了静态图而非动态图,即只是某一时刻的图网络结构,并没有考虑图网络在时间轴上的演变。静态图的方法只考虑图网络空间结构上的信息,却忽略了时间轴上传递的信息
发明内容
本发明要解决的技术问题是克服现有技术的缺陷,提供一种基于动态注意力图网络的营销套利黑产的识别方法,能很大程度提升风控系统识别套利黑产的全面性和准确性,从而能更好的解决此场景问题。
为了解决上述技术问题,本发明提供了如下的技术方案:
本发明提供一种基于动态注意力图网络的营销套利黑产的识别方法,包括以下步骤:
一、定义一种动态图网络结构,它由两类节点,四种关系边,和T个时刻组成:
1)两类节点:图网络中含有用户节点V c,和商户节点V b两类节点
2)四种关系边分别是:
A)用户与用户的设备关系边E d
根据访问日志中过去某段时间内,不同用户访问设备IP存在相同性,生成用户节点和用户节点之间的设备关系边;
B)用户与用户的支付关系边E p
根据业务系统中过去某段时间内,用户和用户之间存在转账支付行
为,生成用户节点和用户节点之间的支付关系边;
C)用户与用户的社交关系边E s
根据业务系统中过去某段时间内,用户和用户之间存在一方分享营销活动信息并成功邀请另一方参加该营销活动的行为,生成用户节点和用户 节点之间的社交关系边;
D)用户与商户的交易关系边E t
根据业务系统中过去某段时间内,用户在商户里发生了交易支付的行为,生成用户节点和商户节点之间的交易关系边;
3)T个时刻是指:
在时间轴上以t0时刻为初始,ω为间隔,选取连贯的T个时刻点;在每个时刻点上都生成一张由上述2类节点和4种关系边的关系图网络;这样即反映出了图网络随着时间的T个时刻的演变;
二、在图数据库中为T个时刻生成T张网络图,分别为
Figure PCTCN2021142967-appb-000001
Figure PCTCN2021142967-appb-000002
Figure PCTCN2021142967-appb-000003
把每个时刻点的用户集V c分别从图数据库模块中导入至分布式数据库模块,并为每个时刻点的每个用户生成代表其属性的m维特征向量,特征向量的特征域可以选取常见的自然人属性特征予以构建,也可以引入基于专家经验提炼的统计类特征,例如:过去某段时间访问某活动的次数等等,以获取更好的识别效果;这样就为每个时刻点的用户集V c生成了属性特征矩阵
Figure PCTCN2021142967-appb-000004
以表的形式存入分布式数据库模块中;下标中n 0,n 1,…分别表示每个时刻点用户集的数量;
同理,把每个时刻点的商户集V b分别从图数据库模块中导入至分布式数 据库模块,并为每个时刻点的每个商户生成代表其属性的k维特征向量;这样就为每个时刻点的商户集V b生成了属性特征矩阵
Figure PCTCN2021142967-appb-000005
以表的形式存入分布式数据库模块中;下标中l 0,l 1,…分别表示每个时刻点商户集的数量;
三、基于历史的套利用户正负样本,分别为每个时刻点的用户集V c打上标签,并以表的形式存入分布式数据库模块中;打完标签后,用户集V c变成有标签(V labeled)和无标签(V unlabeled)两种样本,V labeled样本被分为已知套利用户样本V labeled=1和已知非套利用户样本V labeled=0,图网络上所有的商户节点都设置为无标签样本;
四、设计一种新型图注意力机制,其特点是1)分别为用户节点和商户节点都定义了独立的映射矩阵,通过映射矩阵把这两类不同维度特征向量映射成同一维度,实现了用户节点和商户点在信息聚合时的统一;2)基于图上定义的四种关系边,定义了一种多边注意力的机制,即为每个关系边都引入了一套独立的注意力的学习参数,从而实现了多种关系边在信息聚合时的统一;
具体操作如下:
1)首先根据四种关系边定义4套独立的注意力学习参数并初始化学习参数:
A)用户与用户设备关系E d:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000006
和注意力共享向量a d∈R 2f
B)用户与用户支付关系E p:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000007
和注意力共享向量a p∈R 2f
C)用户与用户的社交关系边E s:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000008
和注意力共享向量a s∈R 2f
D)用户与商户的交易关系边E t:为用户节点和商户节点定义独立的共享的线性映射矩阵
Figure PCTCN2021142967-appb-000009
Figure PCTCN2021142967-appb-000010
用于把用户特征向量空间和商户特征向量空间从m维和l维映射到统一的f维向量空间;定义共享注意力向量a t∈R 2f
2)再以如下公式进行图中各边的注意力系数计算:
a)基于E d关系边的注意力系数:
Figure PCTCN2021142967-appb-000011
Figure PCTCN2021142967-appb-000012
b)基于E p关系的注意力系数:
Figure PCTCN2021142967-appb-000013
Figure PCTCN2021142967-appb-000014
c)基于E s关系的注意力系数:
Figure PCTCN2021142967-appb-000015
Figure PCTCN2021142967-appb-000016
d)基于E t关系的注意力系数:
Figure PCTCN2021142967-appb-000017
Figure PCTCN2021142967-appb-000018
上面表达式中,符号||代表向量的拼接,下标i,j分别表示图中基于某种关系边相邻的两个节点,h i或h j都表示该节点所对应的特征向量取自之前生成的用户特征矩阵,在计算E t关系注意力系数时h i和h j特征向量一个取自用户特征矩阵,另一个取自商户特征矩阵;
3)最后通过如下公式进行信息聚合计算:
Figure PCTCN2021142967-appb-000019
上述公式中,N d(i)、N p(i)、N s(i)、N t(i)符号分别表示节点i通过设备关系边、支付关系边、社交关系边、交易关系边连接的一阶邻居;
上述步骤四中这一系列处理称为:多边注意力单元(MultiEdgeGAT);
五、上述步骤四只是完成了在某个时刻上图网络在空间层面的信息聚合,因为要考虑图网络的时间维上的动态性,就必须完成网络信息在时间维上的传递,本专利创新提出了一种使用多路GRU的方式在时间维上传递注意力参数的机制(称为:多路GRU单元-MultiGRU),结合空间层面的图注意力信息聚合机制(多边注意力单元-MultiEdgeGAT),形成了一个全新的处理单元,称之为动态注意力单元,具体操作如下:
1)因为图注意力机制会产生9个需要学习的参数,即5个共享线性映射矩阵和4个共享注意力向量,这里需要定9个独立的GRU单元负责在时间维上进行对于参数信息的传递,其分别是:
Figure PCTCN2021142967-appb-000020
用来传递线性映射矩阵,和
Figure PCTCN2021142967-appb-000021
用来传递注意力向量;对这些GRU单元的参数进行初始化;
2)这里的GRU传播公式如下:
因为GRU单元内部结构是一样的为了便于阐述举
Figure PCTCN2021142967-appb-000022
为例进行公式说明:
Figure PCTCN2021142967-appb-000023
Figure PCTCN2021142967-appb-000024
Figure PCTCN2021142967-appb-000025
Figure PCTCN2021142967-appb-000026
上述公式即完成了t-1时刻的注意力参数
Figure PCTCN2021142967-appb-000027
通过
Figure PCTCN2021142967-appb-000028
传递生成t时刻的注意力参数
Figure PCTCN2021142967-appb-000029
同理也可以以相同的结构,通过其他GRU从t-1时刻传递生成t时刻的其他8个注意力参数W pt、W st、W tct、W tbt、a dt、a pt、a st、a tt;上述公式中⊙表示哈达玛积,
Figure PCTCN2021142967-appb-000030
Figure PCTCN2021142967-appb-000031
自身要学习的参数,同理其他GRU也有相类似的参数要学习;把上述9个GRU单元汇总在一起,称为多路GRU单元–MultiGRU;
3)把多边注意力单元和多路GRU单元合并,生成一个全新的处理单元,称之为动态注意力单元(DynamicGAT),合并公式如下:
为了使公式简化,更易于表达,把W d、W p、W s、W tc、E tb这5个参数合并成W,把a d、a p、a s、a t这4个参数合并成a;
W t,a t=MultiGRU(H t,W t-1,a t-1)
H′ t′=MultiEdgeGAT(H t,W t,a t);
六、上述步骤五阐述在时间轴上一个动态注意力单元的信息传递和信息聚合,这里可以很自然在每个时间点上进行空间上的多层聚合,则上述动态注意力单元的表达式可以表示成:
Figure PCTCN2021142967-appb-000032
Figure PCTCN2021142967-appb-000033
上式中上标l表示空间聚合的层级,这里每增加一层聚合意味着把图中节 点再下一层邻接信息“压”向该节点,因此就很好的利用了多层邻接关系所蕴藏的信息,至此构建完成了一个既包含时间维度的信息传递,又包含空间维度多层聚合的动态可学习的图网络;
七、把上述动态注意力图网络最后一层最后一个时刻的输出
Figure PCTCN2021142967-appb-000034
表征通过Softmax进行激活映射成预测节点套利风险的概率P;
八、把上述所有步骤称为一次完整的学习迭代;进行学习迭代时,要把所需的信息从分布式数据库模块中同步入服务器内存并初始化所需学习的参数,然后进行多轮次的完整学习迭代;每次完整的学习迭代后仅针对有标签的节点V labeled,通过交叉熵损失函数,进行损失计算,以及Adam优化算法进行梯度更新,最后经过N次完整的学习迭代学习出动态注意力图网络所需的参数;完成动态注意力图网络的学习;
九、把学习好的动态注意力网络部署进风控决策模块中,进行在线的营销套利风险概率预测,设置概率决策阈值P=σ,当预测的风险概率大于σ时,判断为营销套利风险人群,并进行后续拦截等处理操作。
与现有技术相比,本发明的有益效果如下:
本专利提出了一种基于动态注意力图网络来识别套利黑产的方法,其创新的具有以下优点:1)定义了一种由用户节点、商户节点、多维关系和多个时刻组成的一种新型的动态图网络结构;2)设计了一种新型的多边注意力单元,能更有效的实现用户节点、商户节点、多维关系的统一,从而更好的实现节点空间层面的信息聚合;3)在图网络时间动态性上,创新的设计了一种通过多路GRU单元传递注意力信息的动态模式,使得图网络在时间轴上的演变信息也得到了有效的传递;4)有效把多边注意力单元和多路GRU单元进行了合并,提出了动态注意力单元这种新型处理单元,使用此单元搭建的动态 注意力图网络能既完成时间维的有效信息传递,又能实现空间维的多层邻接信息的高效聚合。
本专利提出的方法,能很大程度提升风控系统识别套利黑产的全面性和准确性,从而能更好的解决此场景问题。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明的图网络组成示例图;
图2是多路GRU单元结构图;
图3是动态注意力单元结构图;
图4是动态注意力图网络整体结构图;
图5是本发明的实施流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1
本发明如图1-5所示,本发明提供一种基于动态注意力图网络的营销套利黑产的识别方法,包括以下步骤:
一、定义一种动态图网络结构,它由两类节点,四种关系边,和T个时刻组成:
1)两类节点:图网络中含有用户节点V c,和商户节点V b两类节点
2)四种关系边分别是:
A)用户与用户的设备关系边E d
根据访问日志中过去某段时间内,不同用户访问设备IP存在相同性, 生成用户节点和用户节点之间的设备关系边;
B)用户与用户的支付关系边E p
根据业务系统中过去某段时间内,用户和用户之间存在转账支付行为,生成用户节点和用户节点之间的支付关系边;
C)用户与用户的社交关系边E s
根据业务系统中过去某段时间内,用户和用户之间存在一方分享营销活动信息并成功邀请另一方参加该营销活动的行为,生成用户节点和用户节点之间的社交关系边;
D)用户与商户的交易关系边E t
根据业务系统中过去某段时间内,用户在商户里发生了交易支付的行为,生成用户节点和商户节点之间的交易关系边;
3)T个时刻是指:
在时间轴上以t0时刻为初始,ω为间隔,选取连贯的T个时刻点;在每个时刻点上都生成一张由上述2类节点和4种关系边的关系图网络;这样即反映出了图网络随着时间的T个时刻的演变;图例见于图1;
二、在图数据库中为T个时刻生成T张网络图,分别为
Figure PCTCN2021142967-appb-000035
Figure PCTCN2021142967-appb-000036
Figure PCTCN2021142967-appb-000037
把每个时刻点的用户集V c分别从图数据库模块中导入至分布式数据库模块,并为每个时刻点的每个用户 生成代表其属性的m维特征向量,特征向量的特征域可以选取常见的自然人属性特征予以构建,也可以引入基于专家经验提炼的统计类特征,例如:过去某段时间访问某活动的次数等等,以获取更好的识别效果;这样就为每个时刻点的用户集V c生成了属性特征矩阵
Figure PCTCN2021142967-appb-000038
以表的形式存入分布式数据库模块中;下标中n 0,n 1,…分别表示每个时刻点用户集的数量;
同理,把每个时刻点的商户集V b分别从图数据库模块中导入至分布式数据库模块,并为每个时刻点的每个商户生成代表其属性的k维特征向量;这样就为每个时刻点的商户集V b生成了属性特征矩阵
Figure PCTCN2021142967-appb-000039
以表的形式存入分布式数据库模块中;下标中l 0,l 1,…分别表示每个时刻点商户集的数量;
三、基于历史的套利用户正负样本,分别为每个时刻点的用户集V c打上标签,并以表的形式存入分布式数据库模块中;打完标签后,用户集V c变成有标签(V labeled)和无标签(V unlabeled)两种样本,V labeled样本被分为已知套利用户样本V labeled=1和已知非套利用户样本V labeled=0,图网络上所有的商户节点都设置为无标签样本;
四、设计一种新型图注意力机制,其特点是1)分别为用户节点和商户节点都定义了独立的映射矩阵,通过映射矩阵把这两类不同维度特征向量映射成同一维度,实现了用户节点和商户点在信息聚合时的统一;2)基于图上定义的四种关系边,定义了一种多边注意力的机制,即为每个关系边都引入了 一套独立的注意力的学习参数,从而实现了多种关系边在信息聚合时的统一;
具体操作如下:
1)首先根据四种关系边定义4套独立的注意力学习参数并初始化学习参数:
A)用户与用户设备关系E d:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000040
和注意力共享向量a d∈R 2f
B)用户与用户支付关系E p:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000041
和注意力共享向量a p∈R 2f
C)用户与用户的社交关系边E s:定义共享线性映射矩阵
Figure PCTCN2021142967-appb-000042
和注意力共享向量a s∈R 2f
D)用户与商户的交易关系边E t:为用户节点和商户节点定义独立的共享的线性映射矩阵
Figure PCTCN2021142967-appb-000043
Figure PCTCN2021142967-appb-000044
用于把用户特征向量空间和商户特征向量空间从m维和l维映射到统一的f维向量空间。定义共享注意力向量a t∈R 2f
2)再以如下公式进行图中各边的注意力系数计算:
a)基于E d关系边的注意力系数:
Figure PCTCN2021142967-appb-000045
Figure PCTCN2021142967-appb-000046
b)基于E p关系的注意力系数:
Figure PCTCN2021142967-appb-000047
Figure PCTCN2021142967-appb-000048
c)基于E s关系的注意力系数:
Figure PCTCN2021142967-appb-000049
Figure PCTCN2021142967-appb-000050
d)基于E t关系的注意力系数:
Figure PCTCN2021142967-appb-000051
Figure PCTCN2021142967-appb-000052
上面表达式中,符号||代表向量的拼接,下标i,j分别表示图中基于某种关系边相邻的两个节点,h i或h j都表示该节点所对应的特征向量取自之前生成的用户特征矩阵,在计算E t关系注意力系数时h i和h j特征向量一个取自用户特征矩阵,另一个取自商户特征矩阵;
3)最后通过如下公式进行信息聚合计算:
Figure PCTCN2021142967-appb-000053
上述公式中,N d(i)、N p(i)、N s(i)、N t(i)符号分别表示节点i通过设备关系边、支付关系边、社交关系边、交易关系边连接的一阶邻居;
上述步骤四中这一系列处理称为:多边注意力单元(MultiEdgeGAT);
五、上述步骤四只是完成了在某个时刻上图网络在空间层面的信息聚合,因为要考虑图网络的时间维上的动态性,就必须完成网络信息在时间维上的传递,本专利创新提出了一种使用多路GRU的方式在时间维上传递注意力参数的机制(称为:多路GRU单元-MultiGRU),结合空间层面的图注意力信息聚合机制(多边注意力单元-MultiEdgeGAT),形成了一个全新的处理单元,称之为动态注意力单元,具体操作如下:
1)因为图注意力机制会产生9个需要学习的参数,即5个共享线性映射矩阵和4个共享注意力向量,这里需要定9个独立的GRU单元负责在时间维上进行对于参数信息的传递,其分别是:
Figure PCTCN2021142967-appb-000054
用来传递线性映射矩阵,和
Figure PCTCN2021142967-appb-000055
用来传递注意力向量。对这些GRU单元的参数进行初始化;
2)这里的GRU传播公式如下:
因为GRU单元内部结构是一样的为了便于阐述举
Figure PCTCN2021142967-appb-000056
为例进行公式说明:
Figure PCTCN2021142967-appb-000057
Figure PCTCN2021142967-appb-000058
Figure PCTCN2021142967-appb-000059
Figure PCTCN2021142967-appb-000060
上述公式即完成了t-1时刻的注意力参数
Figure PCTCN2021142967-appb-000061
通过
Figure PCTCN2021142967-appb-000062
传递生成t时刻的注意力参数
Figure PCTCN2021142967-appb-000063
同理也可以以相同的结构,通过其他GRU从t-1时刻传递生成t时刻的其他8个注意力参数W pt、W st、W tct、W tbt、a dt、a pt、a st、a tt;上述公式中⊙表示哈达玛积,
Figure PCTCN2021142967-appb-000064
Figure PCTCN2021142967-appb-000065
自身要学习的参数,同理其他GRU也有相类似的参数要学习;把上述9个GRU单元汇总在一起,称为多路GRU单元–MultiGRU;见图2所示结构;
3)把多边注意力单元和多路GRU单元合并,生成一个全新的处理单元,称之为动态注意力单元(DynamicGAT),合并公式如下:
为了使公式简化,更易于表达,把W d、W p,W s、W tc、W tb这5个参数合并成W,把a d、a p、a s、a t这4个参数合并成a;
W t,a t=MultiGRU(H t,W t-1,a t-1)
H′ t′=MultiEdgeGAT(H t,W t,a t)
见图3所示动态注意力单元结构;
六、上述步骤五阐述在时间轴上一个动态注意力单元的信息传递和信息聚合,这里可以很自然在每个时间点上进行空间上的多层聚合,则上述动态 注意力单元的表达式可以表示成:
Figure PCTCN2021142967-appb-000066
Figure PCTCN2021142967-appb-000067
上式中上标l表示空间聚合的层级,这里每增加一层聚合意味着把图中节点再下一层邻接信息“压”向该节点,因此就很好的利用了多层邻接关系所蕴藏的信息,至此构建完成了一个既包含时间维度的信息传递,又包含空间维度多层聚合的动态可学习的图网络;见图4所示动态注意力图网络整体结构;
七、把上述动态注意力图网络最后一层最后一个时刻的输出
Figure PCTCN2021142967-appb-000068
表征通过Softmax进行激活映射成预测节点套利风险的概率P;
八、把上述所有步骤称为一次完整的学习迭代。进行学习迭代时,要把所需的信息从分布式数据库模块中同步入服务器内存并初始化所需学习的参数,然后进行多轮次的完整学习迭代。每次完整的学习迭代后仅针对有标签的节点V labeled,通过交叉熵损失函数,进行损失计算,以及Adam优化算法进行梯度更新,最后经过N次完整的学习迭代学习出动态注意力图网络所需的参数。完成动态注意力图网络的学习;
九、把学习好的动态注意力网络部署进风控决策模块中,进行在线的营销套利风险概率预测,设置概率决策阈值P=σ,当预测的风险概率大于σ时,判断为营销套利风险人群,并进行后续拦截等处理操作。
具体的,示例如下:
1.用户节点属性特征向量,经验取值m=256
2.商户节点属性特征向量,经验取值l=128
3.T个时刻,T取值T=10
3.有标签(V labeled)和无标签(V unlabeled)两类样本比例:
Figure PCTCN2021142967-appb-000069
4.空间聚合层级(L),取值范围:{L|2≤L≤3,L∈Z}
5.预测识别时决策阈值σ取值:σ=0.5。
本发明技术点如下:
1.定义了一种由两类节点:用户节点、商户节点,由四种关系边:用户与用户设备关系边E d、用户与用户支付关系边E p、用户与用户社交关系边E s、用户与商户交易关系边E t,和由多个时刻组成的一种新型的动态图网络结构;
2.设计了一种新型的多边注意力单元,能更有效的实现用户节点、商户节点、多维关系的统一,从而更好的实现节点空间层面的信息聚合;
3.创新的设计了一种通过多路GRU单元传递注意力信息的动态模式,使得图网络在时间轴上的演变信息也得到了有效的传递。
4.有效把多边注意力单元和多路GRU单元进行了合并,提出了动态注意力单元这种新型处理单元,使用此单元搭建的动态注意力图网络能既完成时间维的有效信息传递,又能实现空间维的多层邻接信息的高效聚合。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或 者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

  1. 一种基于动态注意力图网络的营销套利黑产的识别方法,其特征在于,包括以下步骤:
    一、定义一种动态图网络结构,它由两类节点,四种关系边,和T个时刻组成:
    1)两类节点:图网络中含有用户节点V c,和商户节点V b两类节点
    2)四种关系边分别是:
    A)用户与用户的设备关系边E d
    根据访问日志中过去某段时间内,不同用户访问设备IP存在相同性,生成用户节点和用户节点之间的设备关系边;
    B)用户与用户的支付关系边E p
    根据业务系统中过去某段时间内,用户和用户之间存在转账支付行为,生成用户节点和用户节点之间的支付关系边;
    C)用户与用户的社交关系边E s
    根据业务系统中过去某段时间内,用户和用户之间存在一方分享营销活动信息并成功邀请另一方参加该营销活动的行为,生成用户节点和用户节点之间的社交关系边;
    D)用户与商户的交易关系边E t
    根据业务系统中过去某段时间内,用户在商户里发生了交易支付的行为,生成用户节点和商户节点之间的交易关系边;
    3)T个时刻是指:
    在时间轴上以t0时刻为初始,ω为间隔,选取连贯的T个时刻点;在每个时刻点上都生成一张由上述2类节点和4种关系边的关系图网络;这样即 反映出了图网络随着时间的T个时刻的演变;
    二、在图数据库中为T个时刻生成T张网络图,分别为
    Figure PCTCN2021142967-appb-100001
    Figure PCTCN2021142967-appb-100002
    Figure PCTCN2021142967-appb-100003
    把每个时刻点的用户集V c分别从图数据库模块中导入至分布式数据库模块,并为每个时刻点的每个用户生成代表其属性的m维特征向量,特征向量的特征域可以选取常见的自然人属性特征予以构建,也可以引入基于专家经验提炼的统计类特征,例如:过去某段时间访问某活动的次数等等,以获取更好的识别效果;这样就为每个时刻点的用户集V c生成了属性特征矩阵
    Figure PCTCN2021142967-appb-100004
    以表的形式存入分布式数据库模块中;下标中n 0,n 1,...分别表示每个时刻点用户集的数量;
    同理,把每个时刻点的商户集V b分别从图数据库模块中导入至分布式数据库模块,并为每个时刻点的每个商户生成代表其属性的k维特征向量;这样就为每个时刻点的商户集V b生成了属性特征矩阵
    Figure PCTCN2021142967-appb-100005
    以表的形式存入分布式数据库模块中;下标中l 0,l 1,...分别表示每个时刻点商户集的数量;
    三、基于历史的套利用户正负样本,分别为每个时刻点的用户集V c打上 标签,并以表的形式存入分布式数据库模块中;打完标签后,用户集V c变成有标签(V labeled)和无标签(V unlabeled)两种样本,V labeled样本被分为已知套利用户样本V labeled=1和已知非套利用户样本V labeled=0,图网络上所有的商户节点都设置为无标签样本;
    四、设计一种新型图注意力机制,其特点是1)分别为用户节点和商户节点都定义了独立的映射矩阵,通过映射矩阵把这两类不同维度特征向量映射成同一维度,实现了用户节点和商户点在信息聚合时的统一;2)基于图上定义的四种关系边,定义了一种多边注意力的机制,即为每个关系边都引入了一套独立的注意力的学习参数,从而实现了多种关系边在信息聚合时的统一;
    具体操作如下:
    1)首先根据四种关系边定义4套独立的注意力学习参数并初始化学习参数:
    A)用户与用户设备关系E d:定义共享线性映射矩阵
    Figure PCTCN2021142967-appb-100006
    和注意力共享向量a d∈R 2f
    B)用户与用户支付关系E p:定义共享线性映射矩阵
    Figure PCTCN2021142967-appb-100007
    和注意力共享向量a p∈R 2f
    C)用户与用户的社交关系边E s:定义共享线性映射矩阵
    Figure PCTCN2021142967-appb-100008
    和注意力共享向量a s∈R 2f
    D)用户与商户的交易关系边E t:为用户节点和商户节点定义独立的共享的线性映射矩阵
    Figure PCTCN2021142967-appb-100009
    Figure PCTCN2021142967-appb-100010
    用于把用户特征向量空间和商户特征向量空间从m维和l维映射到统一的f维向量空间;定义共享注意力向量a t∈R 2f
    2)再以如下公式进行图中各边的注意力系数计算:
    a)基于E d关系边的注意力系数:
    Figure PCTCN2021142967-appb-100011
    Figure PCTCN2021142967-appb-100012
    b)基于E p关系的注意力系数:
    Figure PCTCN2021142967-appb-100013
    Figure PCTCN2021142967-appb-100014
    c)基于E s关系的注意力系数:
    Figure PCTCN2021142967-appb-100015
    Figure PCTCN2021142967-appb-100016
    d)基于E t关系的注意力系数:
    Figure PCTCN2021142967-appb-100017
    Figure PCTCN2021142967-appb-100018
    上面表达式中,符号||代表向量的拼接,下标i,j分别表示图中基于某种关系边相邻的两个节点,h i或h j都表示该节点所对应的特征向量取自之前生成的用户特征矩阵,在计算E t关系注意力系数时h i和h j特征向量一个取自用户特征矩阵,另一个取自商户特征矩阵;
    3)最后通过如下公式进行信息聚合计算:
    Figure PCTCN2021142967-appb-100019
    上述公式中,N d(i)、N p(i)、N s(i)、N t(i)符号分别表示节点i通过设备关系边、支付关系边、社交关系边、交易关系边连接的一阶邻居;
    上述步骤四中这一系列处理称为:多边注意力单元(MultiEdgeGAT);
    五、上述步骤四只是完成了在某个时刻上图网络在空间层面的信息聚合,因为要考虑图网络的时间维上的动态性,就必须完成网络信息在时间维上的传递,本专利创新提出了一种使用多路GRU的方式在时间维上传递注意力参数的机制(称为:多路GRU单元-MultiGRU),结合空间层面的图注意力信息聚合机制(多边注意力单元-MultiEdgeGAT),形成了一个全新的处理单元,称之为动态注意力单元,具体操作如下:
    1)因为图注意力机制会产生9个需要学习的参数,即5个共享线性映射矩阵和4个共享注意力向量,这里需要定9个独立的GRU单元负责在时间维 上进行对于参数信息的传递,其分别是:
    Figure PCTCN2021142967-appb-100020
    用来传递线性映射矩阵,和
    Figure PCTCN2021142967-appb-100021
    用来传递注意力向量;对这些GRU单元的参数进行初始化;
    2)这里的GRU传播公式如下:
    因为GRU单元内部结构是一样的为了便于阐述举
    Figure PCTCN2021142967-appb-100022
    为例进行公式说明:
    Figure PCTCN2021142967-appb-100023
    Figure PCTCN2021142967-appb-100024
    Figure PCTCN2021142967-appb-100025
    Figure PCTCN2021142967-appb-100026
    上述公式即完成了t-1时刻的注意力参数
    Figure PCTCN2021142967-appb-100027
    通过
    Figure PCTCN2021142967-appb-100028
    传递生成t时刻的注意力参数
    Figure PCTCN2021142967-appb-100029
    同理也可以以相同的结构,通过其他GRU从t-1时刻传递生成t时刻的其他8个注意力参数W pt、W st
    Figure PCTCN2021142967-appb-100030
    上述公式中
    Figure PCTCN2021142967-appb-100031
    表示哈达玛积,
    Figure PCTCN2021142967-appb-100032
    Figure PCTCN2021142967-appb-100033
    自身要学习的参数,同理其他GRU也有相类似的参数要学习;把上述9个GRU单元汇总在一起,称为多路GRU单元–MultiGRU;
    3)把多边注意力单元和多路GRU单元合并,生成一个全新的处理单元,称之为动态注意力单元(DynamicGAT),合并公式如下:
    为了使公式简化,更易于表达,把W d、W p、W s、W tc、W tb这5个参数合并成W,把a d、a p、a s、a t这4个参数合并成a;
    W t,a t=MultiGRU(H t,W t-1,a t-1)
    H′ t′=MultiEdgeGAT(H t,W t,a t);
    六、上述步骤五阐述在时间轴上一个动态注意力单元的信息传递和信息聚合,这里可以很自然在每个时间点上进行空间上的多层聚合,则上述动态注意力单元的表达式可以表示成:
    Figure PCTCN2021142967-appb-100034
    Figure PCTCN2021142967-appb-100035
    上式中上标l表示空间聚合的层级,这里每增加一层聚合意味着把图中节点再下一层邻接信息“压”向该节点,因此就很好的利用了多层邻接关系所蕴藏的信息,至此构建完成了一个既包含时间维度的信息传递,又包含空间维度多层聚合的动态可学习的图网络;
    七、把上述动态注意力图网络最后一层最后一个时刻的输出
    Figure PCTCN2021142967-appb-100036
    表征通过Softmax进行激活映射成预测节点套利风险的概率P;
    八、把上述所有步骤称为一次完整的学习迭代;进行学习迭代时,要把所需的信息从分布式数据库模块中同步入服务器内存并初始化所需学习的参数,然后进行多轮次的完整学习迭代;每次完整的学习迭代后仅针对有标签 的节点V labeled,通过交叉熵损失函数,进行损失计算,以及Adam优化算法进行梯度更新,最后经过N次完整的学习迭代学习出动态注意力图网络所需的参数;完成动态注意力图网络的学习;
    九、把学习好的动态注意力网络部署进风控决策模块中,进行在线的营销套利风险概率预测,设置概率决策阈值P=σ,当预测的风险概率大于σ时,判断为营销套利风险人群,并进行后续拦截等处理操作。
PCT/CN2021/142967 2021-09-06 2021-12-30 一种基于动态注意力图网络的营销套利黑产的识别方法 WO2023029324A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023513542A JP2023543128A (ja) 2021-09-06 2021-12-30 動的アテンショングラフネットワークに基づくマーケティング裁定取引ネット暗黒産業の識別方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111040219.0 2021-09-06
CN202111040219.0A CN113919862A (zh) 2021-09-06 2021-09-06 一种基于动态注意力图网络的营销套利黑产的识别方法

Publications (1)

Publication Number Publication Date
WO2023029324A1 true WO2023029324A1 (zh) 2023-03-09

Family

ID=79234169

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/142967 WO2023029324A1 (zh) 2021-09-06 2021-12-30 一种基于动态注意力图网络的营销套利黑产的识别方法

Country Status (3)

Country Link
JP (1) JP2023543128A (zh)
CN (1) CN113919862A (zh)
WO (1) WO2023029324A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116821451A (zh) * 2023-06-19 2023-09-29 云洞(上海)科技股份有限公司 一种基于全生命周期的用户管理系统和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934706A (zh) * 2017-12-15 2019-06-25 阿里巴巴集团控股有限公司 一种基于图结构模型的交易风险控制方法、装置以及设备
US20200104729A1 (en) * 2018-09-27 2020-04-02 Babylon Partners Limited Method and system for extracting information from graphs
CN111260462A (zh) * 2020-01-16 2020-06-09 东华大学 一种基于异质关系网络注意力机制的交易欺诈检测方法
CN112381547A (zh) * 2020-12-02 2021-02-19 天翼电子商务有限公司 一种基于异构图卷积神经网络的营销作弊监测方法
CN112435034A (zh) * 2020-12-01 2021-03-02 天翼电子商务有限公司 一种基于多网络图聚合的营销套利黑产的识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934706A (zh) * 2017-12-15 2019-06-25 阿里巴巴集团控股有限公司 一种基于图结构模型的交易风险控制方法、装置以及设备
US20200104729A1 (en) * 2018-09-27 2020-04-02 Babylon Partners Limited Method and system for extracting information from graphs
CN111260462A (zh) * 2020-01-16 2020-06-09 东华大学 一种基于异质关系网络注意力机制的交易欺诈检测方法
CN112435034A (zh) * 2020-12-01 2021-03-02 天翼电子商务有限公司 一种基于多网络图聚合的营销套利黑产的识别方法
CN112381547A (zh) * 2020-12-02 2021-02-19 天翼电子商务有限公司 一种基于异构图卷积神经网络的营销作弊监测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Master's Thesis", 13 January 2020, ZHEJIANG UNIVERSITY, CN, article ZHOU, CHAO: "A Design of Graph-based Anomaly Detection Framework for E-commerce Transaction Data", pages: 1 - 60, XP009543989, DOI: 10.27461/d.cnki.gzjdx.2020.000460 *
SUN QUAN, TANG, TAO; ZHENG, JIANBIN; PAN, JING; ZHAO, JINTAO: "Financial Transaction Data Based Intelligent Fraud Graph Network Detection", JOURNAL OF APPLIED SCIENCES - YINGYONG KEXUE XUEBAO, SHANGHAI, CN, vol. 38, no. 5, 1 September 2020 (2020-09-01), CN , pages 713 - 723, XP093041273, ISSN: 0255-8297, DOI: 10.3969/j.issn.0255-8297.2020.05.005 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116821451A (zh) * 2023-06-19 2023-09-29 云洞(上海)科技股份有限公司 一种基于全生命周期的用户管理系统和方法
CN116821451B (zh) * 2023-06-19 2024-03-22 苏州浩海医疗科技有限公司 一种基于全生命周期的用户管理系统和方法

Also Published As

Publication number Publication date
JP2023543128A (ja) 2023-10-13
CN113919862A (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
Zhou et al. Deeplink: A deep learning approach for user identity linkage
Zeng et al. Fmore: An incentive scheme of multi-dimensional auction for federated learning in mec
CN112766500B (zh) 图神经网络的训练方法及装置
Liu et al. Keep your data locally: Federated-learning-based data privacy preservation in edge computing
CN111160954B (zh) 基于图卷积网络模型的面向群组对象的推荐方法
CN114817663B (zh) 一种基于类别感知图神经网络的服务建模与推荐方法
CN112396189A (zh) 一种多方构建联邦学习模型的方法及装置
CN113609398A (zh) 一种基于异构图神经网络的社交推荐方法
CN111008335B (zh) 一种信息处理方法、装置、设备及存储介质
CN113657607B (zh) 一种面向联邦学习的连续学习方法
CN113283902B (zh) 一种基于图神经网络的多通道区块链钓鱼节点检测方法
CN110263236A (zh) 基于动态多视图学习模型的社交网络用户多标签分类方法
WO2023029324A1 (zh) 一种基于动态注意力图网络的营销套利黑产的识别方法
Xu et al. Hp-gmn: Graph memory networks for heterophilous graphs
CN115034836A (zh) 一种模型训练方法及相关装置
CN116187469A (zh) 一种基于联邦蒸馏学习框架的客户端成员推理攻击方法
CN112435034A (zh) 一种基于多网络图聚合的营销套利黑产的识别方法
Sahu et al. Matrix factorization in cross-domain recommendations framework by shared users latent factors
CN116975686A (zh) 训练学生模型的方法、行为预测方法和装置
CN111935259B (zh) 目标帐号集合的确定方法和装置、存储介质及电子设备
Ji et al. Community-based dynamic graph learning for popularity prediction
Jamil et al. Technological innovation capability evaluation of high-tech firms using conjunctive and disjunctive belief rule-based expert system: a comparative study
Xie et al. L-BGNN: Layerwise trained bipartite graph neural networks
Jiang et al. Towards utilization of rule base structure to support fuzzy rule interpolation
Liu et al. Asynchronous algorithms for distributed optimisation and application to distributed regression with robustness to outliers

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2023513542

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21955852

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE