CN113298116B - 基于注意力权重的图嵌入特征提取方法、装置及电子设备 - Google Patents
基于注意力权重的图嵌入特征提取方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113298116B CN113298116B CN202110464041.6A CN202110464041A CN113298116B CN 113298116 B CN113298116 B CN 113298116B CN 202110464041 A CN202110464041 A CN 202110464041A CN 113298116 B CN113298116 B CN 113298116B
- Authority
- CN
- China
- Prior art keywords
- node
- adjacent
- attention weight
- graph
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 8
- 239000013598 vector Substances 0.000 claims abstract description 69
- 238000013528 artificial neural network Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000005070 sampling Methods 0.000 claims abstract description 26
- 238000010586 diagram Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000011478 gradient descent method Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 31
- 230000004913 activation Effects 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 13
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于注意力权重的图嵌入特征提取方法及装置,所述方法包括:基于用户通话信息构建关系图;根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;根据所述固定个数的邻节点对应的向量序列训练图神经网络;配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。本发明以注意力权重为依据对各个邻节点进行采样,从而在采样过程中得到固定排序和个数的邻节点,提高了图嵌入特征的准确性。
Description
技术领域
本发明涉及计算机信息处理技术领域,具体而言,涉及一种基于注意力权重的图嵌入特征提取方法、装置、电子设备及计算机可读介质。
背景技术
图嵌入(Graph Embedding,也叫Network Embedding)通过保留图结构的网络拓扑结构和节点信息,将图结构中顶点表示为低维向量空间,以便用简单的机器学习算法进行处理。因此,图嵌入成为数据挖掘和机器学习领域关注的课题。
图嵌入可以分为矩阵分解、随机游走和深度学习。其中,图嵌入的深度学习方法属于图神经网络。由于图结构是不规则的,每个图结构由多个节点以及连接节点的边组成,每个节点的邻节点个数是不断变化的,因此,在提取图嵌入特征时,难以采集到固定排序和数量的邻节点,导致最终提取的图嵌入特征不够准确。
发明内容
本发明旨在解决无法采集到固定排序和数量的邻节点,影响图嵌入特征的准确性的技术问题。
为了解决上述技术问题,本发明第一方面提出一种基于注意力权重的图嵌入特征提取方法,所述方法包括:
基于用户通话信息构建关系图;
根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;
根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;
根据所述固定个数的邻节点对应的向量序列训练图神经网络;
配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
根据本发明一种优选实施方式,对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
根据本发明一种优选实施方式,所述通话信息包括:通话时长和/或在预定时间内的通话次数。
根据本发明一种优选实施方式,所述根据所述固定个数的邻节点对应的向量序列训练图神经网络包括:
将节点v在第k-1层固定个数的邻节点对应的向量序列进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
根据本发明一种优选实施方式,所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
根据本发明一种优选实施方式,所述方法还包括:
将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。
为解决上述技术问题,本发明第二方面提供一种基于注意力权重的图嵌入特征提取装置,所述装置包括:
构建模块,用于基于用户通话信息构建关系图;
第一计算模块,用于根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;
采样模块,用于根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;
训练模块,用于根据所述固定个数的邻节点对应的向量序列训练图神经网络;
第二计算模块,用于配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
输入模块,用于将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
根据本发明一种优选实施方式,对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
根据本发明一种优选实施方式,所述通话信息包括:通话时长和/或在预定时间内的通话次数。
根据本发明一种优选实施方式,所述训练模块具体用于,将节点v在第k-1层固定个数的邻节点对应的向量序列进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
根据本发明一种优选实施方式,所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
根据本发明一种优选实施方式,所述装置还包括:
预测模块,用于将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。
为解决上述技术问题,本发明第三方面提供一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行上述的方法。
为解决上述技术问题,本发明第四方面提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现上述方法。
本发明基于用户通话信息构建关系图,根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;通过注意力权重来反映当前节点与各个邻节点之间通话的亲密度;以注意力权重为依据对各个邻节点进行采样,从而在采样过程中得到固定排序和个数的邻节点,再通过该固定排序和个数的邻节点对应的向量序列训练图神经网络,提高了图嵌入特征的准确性。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1a~1b是本发明一种图结构的示意图;
图2是本发明一种基于注意力权重的图嵌入特征提取方法的流程示意图;
图3是本发明一种基于注意力权重的图嵌入特征提取装置的结构框架示意图;
图4是根据本发明的一种电子设备的示例性实施例的结构框图;
图5是本发明一种计算机可读介质实施例的示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
本发明通过图神经网络来提取图嵌入特征,其中,图神经网络(Graph NeuralNetwork,GNN)是一种直接在图结构上运行的神经网络。本质上,图结构中的每个节点v都可以用其特征x_v表示并且与邻节点的特征相关联。其基本思想就是基于节点的局部邻居信息对节点进行embedding。直观来讲,就是通过神经网络来聚合每个节点及其周围节点的信息。主要包含采样和聚合(Sample and aggregate),首先使用图结构中节点之间连接信息,对邻节点进行采样,然后通过多层聚合函数不断地将相邻节点的信息融合在一起。聚合一个节点的邻节点信息时,采用平均的方法,并使用神经网络作聚合操作。如图1a~1b中的图结构,第k层的目标节点A通过k-1层的节点B、C、D聚合而来,而节点B又通过k-2层的节点A和C聚合而来,节点C又通过k-2层的节点A、B、E、F聚合而来,节点D又通过k-2层的节点A聚合而来。
由于图结构是不规则的,每个图结构由多个节点以及连接节点的边组成,每个节点的邻节点个数是不断变化的,因此,在提取图嵌入特征时,难以采集到固定排序和数量的邻节点,导致最终提取的图嵌入特征不够准确。基于此,本发明根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;通过注意力权重来反映当前节点与各个邻节点之间通话的亲密度;以注意力权重为依据对各个邻节点进行采样,从而在采样过程中得到固定排序和个数的邻节点,以提高提取的图嵌入特征的准确性。
请参阅图2,图2是本发明提供的一种基于注意力权重的图嵌入特征提取方法的流程图。如图2所示,所述方法包括:
S1、基于用户通话信息构建关系图;
本发明中,关系图可以以图1a所示的图结构表示。在计算机科学中,图是一种数据结构,由顶点和边组成。图G可以通过顶点集合V和它包含的边E来进行描述,即:G=(V,E)。其中,顶点也称为节点。根据边的方向可以将图分为有向图和无向图。
其中,所述通话信息可以包括通话时长,或者在预定时间内的通话次数,也可以同时包括通话时长和预定时间内的通话次数。以通话时长为例,将用户作为节点,用户之间的通话时长作为边,构建关系图。
S2、根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;
其中,所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;具体可以将当前节点与邻节点的通话信息转换为概率来确定。对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
S3、根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;
示例性的,可以根据当前节点与各个邻节点之间的注意力权重大小对各个邻节点进行排序,根据各个邻节点的排序采集固定个数的邻节点。
另一种示例中,可以根据当前节点与各个邻节点之间的注意力权重对各个节点进行加权采样。则先遍历每个邻节点,得到每个邻节点的采样分数,根据采样分数对各个邻节点进行排序,根据各个邻节点的排序采集固定个数的邻节点。其中,所述采样分数通过以下公式确定:
其中,wi是每个邻节点的注意力权重,R是遍历每个邻节点时产生的0到1之间的随机数,Si是每个邻节点的采样分数。
S4、根据所述固定个数的邻节点对应的向量序列训练图神经网络;
具体的,对于节点v,根据邻节点排序采集k-1层前N个相邻节点对应的向量序列为{h1 k-1、h2 k-1…hN k-1},N为邻节点的固定个数。则将节点v在第k-1层N个邻节点对应的向量序列{h1 k-1、h2 k-1…hN k-1}进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
S5、配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
本实施例中,所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
本步骤通过梯度下降法对目标函数一步步的迭代求解,得到最小化的目标函数,和图神经网络参数值,即WK和BK。
S6、将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
其中,待处理用户通话信息可以包括通话时长,或者在预定时间内的通话次数,也可以同时包括通话时长和预定时间内的通话次数。
进一步的,在得到图嵌入特征后,可以将图嵌入特征输入具体的机器学习模型中,得到预测结果。例如,将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。或者,将图嵌入特征输入逾期风险模型中,预测用户逾期风险。
本发明实施例还提供一种基于注意力权重的图嵌入特征提取方法,与图2的不同在于,在上述步骤S2之前,可以根据节点在N个指定时间点的特征向量序列构建节点的时序特征向量;
其中,所述时序特征向量反映节点特征在各个指定时间点的均值和变化趋势。在一种示例中,所述时序特征向量可以通过Lstm聚合函数来获取。若节点v在在N个指定时间点的特征向量序列为{xv1、xv2…xvN},则节点v的时序特征向量Xv为:
Xv=Lstm({xv1,xv2…xvN})。
其中,指定时间点可以是一个具体的时刻,也可以是预定的时间区间(比如,一天、一月、一年等)。示例性的,可以将一月作为指定时间点,用户在1-8月内每月与其他用户的通话时长作为各个指定时间点的特征向量xi,则1-8内的时序特征向量X根据1-8月内用户每月与其他用户的通话时长来确定,该时序特征向量X反映用户1-8月内与其他用户通话时长的均值及变化趋势。
与之对应,在上述S4中根据所述固定个数的邻节点对应的时序特征向量序列训练图神经网络。
图3是本发明一种基于注意力权重的图嵌入特征提取装置的架构示意图,如图3所示,所述装置包括:
构建模块31,用于基于用户通话信息构建关系图;
第一计算模块32,用于根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;
采样模块33,用于根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;
训练模块34,用于根据所述固定个数的邻节点对应的向量序列训练图神经网络;
第二计算模块35,用于配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
输入模块36,用于将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
根据本发明一种具体实施方式,对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
其中,所述通话信息包括:通话时长和/或在预定时间内的通话次数。
进一步的,所述训练模块34具体用于,将节点v在第k-1层固定个数的邻节点对应的向量序列进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
进一步的,所述装置还包括:
预测模块,用于将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。
本领域技术人员可以理解,上述装置实施例中的各模块可以按照描述分布于装置中,也可以进行相应变化,分布于不同于上述实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的实体形式的实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图4是根据本发明的一种电子设备的示例性实施例的结构框图。图4显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,该示例性实施例的电子设备400以通用数据处理设备的形式表现。电子设备400的组件可以包括但不限于:至少一个处理单元410、至少一个存储单元420、连接不同电子设备组件(包括存储单元420和处理单元410)的总线430、显示单元440等。
其中,所述存储单元420存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元410执行,使得所述处理单元410执行本发明各种实施方式的步骤。例如,所述处理单元410可以执行如图1所示的步骤。
所述存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。所述存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作电子设备、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备300(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备300与该电子设备400交互,和/或使得该电子设备400能与一个或多个其它数据处理设备(例如路由器、调制解调器等等)进行通信。这种通信可以通过输入/输出(I/O)接口450进行,还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器460可以通过总线430与电子设备400的其它模块通信。应当明白,尽管图4中未示出,电子设备400中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID电子设备、磁带驱动器以及数据备份存储电子设备等。
图5是本发明的一个计算机可读介质实施例的示意图。如图5所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的电子设备、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:基于用户通话信息构建关系图;根据当前节点与各个邻节点的通话信息计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点;根据所述固定个数的邻节点对应的向量序列训练图神经网络;配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行电子设备、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语音的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语音包括面向对象的程序设计语音—诸如Java、C++等,还包括常规的过程式程序设计语音—诸如“C”语音或类似的程序设计语音。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种基于注意力权重的图嵌入特征提取方法,其特征在于,包括:
以用户通话信息为边并以用户为节点构建关系图,通话信息包括通话时长和/或在预定时间内的通话次数;
根据节点在N个指定时间点的特征向量序列构建节点的时序特征向量,所述时序特征向量反映节点特征在各个指定时间点的均值和变化趋势;所述指定时间点包括具体时刻和/或预定的时间区间;
根据当前节点与各个邻节点的通话信息,通过将当前节点与邻节点的通话信息转换为概率的方式计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;
根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点包括:根据当前节点与各个邻节点之间的注意力权重大小对各个邻节点进行排序,或者,根据当前节点与各个邻节点之间的注意力权重对各个节点进行加权采样,其中,先遍历每个邻节点得到每个邻节点的采样分数、根据采样分数对各个邻节点进行排序;根据各个邻节点的排序采集固定个数的邻节点;
根据所述固定个数的邻节点对应的时序特征向量序列训练图神经网络;
配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
2.根据权利要求1所述的方法,其特征在于,对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
3.根据权利要求1所述的方法,其特征在于,所述根据所述固定个数的邻节点对应的时序特征向量序列训练图神经网络包括:
将节点v在第k-1层固定个数的邻节点对应的时序特征向量序列进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
4.根据权利要求3所述的方法,其特征在于,所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
5.根据权利要求1所述的方法,其特征在于,还包括:
将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。
6.一种基于注意力权重的图嵌入特征提取装置,其特征在于,所述装置包括:
构建模块,用于以用户通话信息为边并以用户为节点构建关系图,通话信息包括通话时长和/或在预定时间内的通话次数;
第一计算模块,用于根据节点在N个指定时间点的特征向量序列构建节点的时序特征向量,所述时序特征向量反映节点特征在各个指定时间点的均值和变化趋势;所述指定时间点包括具体时刻和/或预定的时间区间;根据当前节点与各个邻节点的通话信息,通过将当前节点与邻节点的通话信息转换为概率的方式计算各个邻节点的注意力权重;所述注意力权重用于反映当前节点与各个邻节点之间通话的亲密度;
采样模块,用于根据所述注意力权重对各个邻节点进行采样,得到固定个数的邻节点包括:根据当前节点与各个邻节点之间的注意力权重大小对各个邻节点进行排序,或者,根据当前节点与各个邻节点之间的注意力权重对各个节点进行加权采样,其中,先遍历每个邻节点得到每个邻节点的采样分数、根据采样分数对各个邻节点进行排序;根据各个邻节点的排序采集固定个数的邻节点;
训练模块,用于根据所述固定个数的邻节点对应的时序特征向量序列训练图神经网络;
第二计算模块,用于配置目标函数,通过梯度下降法最小化所述目标函数,得到所述图神经网络参数;
输入模块,用于将待处理用户通话信息输入所述图神经网络中,得到图嵌入特征。
7.根据权利要求6所述的装置,其特征在于,对于节点u,有邻居节点集合Vu,则第i个邻居节点ui的注意力权重为:
其中,Pui是第i个节点的通话信息。
8.根据权利要求6所述的装置,其特征在于,所述训练模块具体用于,将节点v在第k-1层固定个数的邻节点对应的时序特征向量序列进行聚合,得到节点v在第k层的聚合向量;
其中,节点v在第k层的聚合向量为:
其中,σ为非线性激活函数,为平均节点v的邻节点在第k-1层的向量,/>为节点v在第k-1层的向量,Wk和Bk为所述图神经网络的参数。
9.根据权利要求8所述的装置,其特征在于,所述目标函数为:
其中,为节点v在第k层的聚合向量的转置,Zni为节点v在第i层的聚合向量。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
预测模块,用于将所述图嵌入特征输入反欺诈模型中,预测用户欺诈风险。
11.一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行根据权利要求1-5中任一项所述的方法。
12.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110464041.6A CN113298116B (zh) | 2021-04-26 | 2021-04-26 | 基于注意力权重的图嵌入特征提取方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110464041.6A CN113298116B (zh) | 2021-04-26 | 2021-04-26 | 基于注意力权重的图嵌入特征提取方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298116A CN113298116A (zh) | 2021-08-24 |
CN113298116B true CN113298116B (zh) | 2024-04-02 |
Family
ID=77320472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110464041.6A Active CN113298116B (zh) | 2021-04-26 | 2021-04-26 | 基于注意力权重的图嵌入特征提取方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298116B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870987A (zh) * | 2021-10-20 | 2021-12-31 | 南京润海科星物联网智能科技有限公司 | 一种医用智能床位柜的使用方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291138A (zh) * | 2020-02-21 | 2020-06-16 | 支付宝(杭州)信息技术有限公司 | 更新关系网络的方法及装置 |
CN111309983A (zh) * | 2020-03-10 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于异构图进行业务处理的方法及装置 |
CN111461004A (zh) * | 2020-03-31 | 2020-07-28 | 北京邮电大学 | 基于图注意力神经网络的事件检测方法、装置和电子设备 |
CN111860783A (zh) * | 2020-07-22 | 2020-10-30 | 中山大学 | 图节点低维表征学习方法、装置、终端设备及存储介质 |
CN112119412A (zh) * | 2018-05-18 | 2020-12-22 | 伯耐沃伦人工智能科技有限公司 | 具有注意力的图神经网络 |
CN112464292A (zh) * | 2021-01-27 | 2021-03-09 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护训练图神经网络的方法及装置 |
CN112508691A (zh) * | 2021-02-04 | 2021-03-16 | 北京淇瑀信息科技有限公司 | 基于关系网标签化和图神经网络的风险预测方法及装置 |
-
2021
- 2021-04-26 CN CN202110464041.6A patent/CN113298116B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112119412A (zh) * | 2018-05-18 | 2020-12-22 | 伯耐沃伦人工智能科技有限公司 | 具有注意力的图神经网络 |
CN111291138A (zh) * | 2020-02-21 | 2020-06-16 | 支付宝(杭州)信息技术有限公司 | 更新关系网络的方法及装置 |
CN111309983A (zh) * | 2020-03-10 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于异构图进行业务处理的方法及装置 |
CN111461004A (zh) * | 2020-03-31 | 2020-07-28 | 北京邮电大学 | 基于图注意力神经网络的事件检测方法、装置和电子设备 |
CN111860783A (zh) * | 2020-07-22 | 2020-10-30 | 中山大学 | 图节点低维表征学习方法、装置、终端设备及存储介质 |
CN112464292A (zh) * | 2021-01-27 | 2021-03-09 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护训练图神经网络的方法及装置 |
CN112508691A (zh) * | 2021-02-04 | 2021-03-16 | 北京淇瑀信息科技有限公司 | 基于关系网标签化和图神经网络的风险预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
张志扬 ; 张凤荔 ; 陈学勤 ; 王瑞锦 ; .基于分层注意力的信息级联预测模型.计算机科学.2020,(第06期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN113298116A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113298634B (zh) | 基于时序特征和图神经网络的用户风险预测方法及装置 | |
WO2018156942A1 (en) | Optimizing neural network architectures | |
CN109657805A (zh) | 超参数确定方法、装置、电子设备及计算机可读介质 | |
CN107133202A (zh) | 基于人工智能的文本校验方法和装置 | |
CN113298221B (zh) | 基于逻辑回归和图神经网络的用户风险预测方法及装置 | |
US11423307B2 (en) | Taxonomy construction via graph-based cross-domain knowledge transfer | |
CN110348578A (zh) | 一种安全事件情景推演构建方法、系统、设备及介质 | |
CN109583367A (zh) | 图像文本行检测方法及装置、存储介质和电子设备 | |
CN113298116B (zh) | 基于注意力权重的图嵌入特征提取方法、装置及电子设备 | |
CN114925938A (zh) | 一种基于自适应svm模型的电能表运行状态预测方法、装置 | |
CN110019849A (zh) | 一种基于注意力机制的视频关注时刻检索方法及装置 | |
CN115034379A (zh) | 一种因果关系确定方法及相关设备 | |
CN113283222B (zh) | 自动化报表生成方法、装置、计算机设备及存储介质 | |
CN110489730A (zh) | 文本处理方法、装置、终端及存储介质 | |
CN116307216A (zh) | 神经网络模型的不确定性估计方法及其相关设备 | |
CN116486341A (zh) | 基于rfid的人体行为识别模型的训练、识别方法及装置 | |
CN113723712B (zh) | 风电功率预测方法、系统、设备及介质 | |
CN113010687B (zh) | 一种习题标签预测方法、装置、存储介质以及计算机设备 | |
CN115618065A (zh) | 一种数据处理方法及相关设备 | |
CN113298117B (zh) | 基于图着色和图神经网络的图嵌入特征提取方法及装置 | |
CN112784219B (zh) | 基于app指数的用户风险预测方法、装置及电子设备 | |
CN114067149A (zh) | 互联网服务提供方法、装置和计算机设备 | |
CN114445692A (zh) | 图像识别模型构建方法、装置、计算机设备及存储介质 | |
CN109919203A (zh) | 一种基于离散动态机制的数据分类方法及装置 | |
JP6777592B2 (ja) | データ数決定装置、データ数決定方法及びデータ数決定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |