CN116249987A - 具有更新向量的基于图学习的系统 - Google Patents
具有更新向量的基于图学习的系统 Download PDFInfo
- Publication number
- CN116249987A CN116249987A CN202180063357.2A CN202180063357A CN116249987A CN 116249987 A CN116249987 A CN 116249987A CN 202180063357 A CN202180063357 A CN 202180063357A CN 116249987 A CN116249987 A CN 116249987A
- Authority
- CN
- China
- Prior art keywords
- interaction
- user
- resource provider
- neural network
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 title claims abstract description 183
- 230000003993 interaction Effects 0.000 claims abstract description 284
- 238000004458 analytical method Methods 0.000 claims abstract description 99
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000013528 artificial neural network Methods 0.000 claims description 83
- 230000000306 recurrent effect Effects 0.000 claims description 61
- 230000006870 function Effects 0.000 claims description 51
- 238000010801 machine learning Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 230000015654 memory Effects 0.000 description 15
- 230000003068 static effect Effects 0.000 description 12
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 11
- 230000006399 behavior Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012360 testing method Methods 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005295 random walk Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- FMFKNGWZEQOWNK-UHFFFAOYSA-N 1-butoxypropan-2-yl 2-(2,4,5-trichlorophenoxy)propanoate Chemical compound CCCCOCC(C)OC(=O)C(C)OC1=CC(Cl)=C(Cl)C=C1Cl FMFKNGWZEQOWNK-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 102000007474 Multiprotein Complexes Human genes 0.000 description 1
- 108010085220 Multiprotein Complexes Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种方法,所述方法包括由分析计算机提取数据集,所述数据集包括针对多个用户节点中的每一者和针对多个资源提供商节点中的每一者的初始向量表示。然后,当新交互数据随着时间的推移到达时,所述分析计算机可生成更新向量表示,并且使用它们来执行对未来交互的预测。
Description
相关申请的交叉引用
本申请要求2020年9月22日提交的美国临时申请号63/081,804的权益,该临时申请出于所有目的全文以引用方式并入本文。
背景技术
特定交互发生在两种不同类型的实体—资源提供商与用户之间。可用许多参数来描述交互,这些参数可称为维度。维度的示例包括用户设备的类型、资源提供商位置、交互渠道(例如,面对面、线上、通过电话等)。
交互由资源提供商或用户发起。资源提供商发起的交易的示例是经常性订阅服务交互。用户发起的交易的示例是用户将用户设备物理地呈现给资源提供商终端或者在网站输入用户设备信息。
通常,当资源提供商发起的交互被否决时,资源提供商可重试该交互,直到它被批准。这消极地使用了处理能力,招致了资源提供商的处理成本,并且降低了资源提供商的交互的总体批准率。
此外,传统的交互预测系统可能是资源密集型的,因为当获得新数据时,它们可能涉及整个现有预测模型的重新创建或重新格式化。这可需要大量的计算资源,尤其是在可存在数百万或数十亿个交互(每个交互包括多个特征)的情况下。
本发明的实施方案单独地和共同地解决这些问题和其他问题。
发明内容
一个实施方案涉及一种方法,包括:由分析计算机接收图,所述图包括针对多个用户的多个用户节点、针对多个资源提供商的多个资源提供商节点以及所述多个用户节点与所述多个资源提供商节点之间的多条交互边,所述交互边表示所述多个用户与所述多个资源提供商之间的多个交互;由所述分析计算机提取数据集,所述数据集包括针对所述多个用户节点中的每一者和针对所述多个资源提供商节点中的每一者的初始向量表示;由所述分析计算机响应于涉及所述第一用户节点的新交互而使用第一递归神经网络和针对来自所述多个用户节点的第一用户节点的初始向量表示来生成针对所述第一用户节点的更新向量表示;由所述分析计算机基于针对所述第一用户节点的所述更新向量表示来执行对未来交互的第一预测;以及由所述分析计算机基于所述未来交互来执行动作。
另一实施方案涉及一种分析计算机,包括:处理器;和耦合到所述处理器的计算机可读介质,所述计算机可读介质包括代码,所述代码能够由所述处理器执行以用于实现上述方法。
有关本发明的实施方案的更多详细信息可见于具体实施方式和附图。
附图说明
图1示出了根据一些实施方案的系统的框图。
图2示出了根据一些实施方案的分析计算机的框图。
图3示出了根据一些实施方案的被建模为二分图的交互数据的示例的图。
图4示出了根据一些实施方案的互连递归神经网络方程的图示。
图5示出了根据一些实施方案的示出相邻节点关系的二分图。
图6示出了根据一些实施方案的具有由结果分隔的交互数据的二分图。
图7示出了根据一些实施方案的具有另外输入变量的互连递归神经网络方程的图示。
图8示出了根据一些实施方案的示出动态图表示过程的流程图。
具体实施方式
在描述本公开的实施方案之前,可详细地描述一些术语。
“机器学习模型”可包括为系统提供自动学习和根据经验进行改进的能力而无需被明确编程的人工智能的应用。机器学习模型可以包括一组软件例程和参数,它们可以基于“特征向量”或其它输入数据预测过程的输出(例如,计算机网络攻击者的标识、计算机的认证、基于用户搜索查询的合适推荐等)。可在训练过程中确定软件例程的结构(例如,子例程的数量和它们之间的关系)和/或参数的值,这可使用正在建模的过程的实际结果,例如,不同类别的输入数据的标识。机器学习模型的示例包括支持向量机(SVM),通过在不同分类的输入之间建立间隙或边界来对数据进行分类的模型,以及神经网络,神经网络是通过响应于输入而激活来执行功能的人工“神经元”的集合。在一些实施方案中,神经网络可包括卷积神经网络、递归神经网络等。
“模型数据库”可包括可存储机器学习模型的数据库。机器学习模型可以各种形式存储在模型数据库中,诸如限定机器学习模型的参数或其他值的集合。模型数据库中的模型可与传达模型的某些方面的关键词相关联地存储。例如,用于评估新闻文章的模型可与关键词“新闻”、“宣传”和“信息”相关联地存储在模型数据库中。分析计算机可访问模型数据库,并从模型数据库中检索模型、修改模型数据库中的模型、从模型数据库中删除模型,或将新模型添加到模型数据库中。
“特征向量”可包括表示某个对象或实体的一组可测量特性(或“特征”)。特征向量可以包括以数组或向量结构形式用数字表示的数据的集合。特征向量还可以包括可以被表示为数学向量的数据的集合,可以对所述数学向量执行例如标量积的向量运算。可以从输入数据确定或生成特征向量。特征向量可以用作机器学习模型的输入,使得机器学习模型产生某种输出或分类。基于输入数据的性质,可以各种方式实现特征向量的构造。例如,对于将单词分类为正确拼写或错误拼写的机器学习分类器,对应于例如“LOVE”的单词的特征向量可以被表示为向量(12,15,22,5),它对应于输入数据字中的每个字母的字顺索引。对于更复杂的“输入”,例如人类实体,示例性特征向量可以包括例如人的年龄、身高、体重、相对幸福的数值表示等的特征。可以在特征存储区中以电子方式表示和存储特征向量。此外,可以将特征向量归一化,即,使特征向量具有单位量值。例如,对应于“LOVE”的特征向量(12,15,22,5)可被归一化为大约(0.40,0.51,0.74,0.17)。
“交互”可包括相互的作用或影响。“交互”可以包括各方、各装置和/或各实体之间的通信、联系或交换。示例交互包括两方之间的交易和两个装置之间的数据交换。在一些实施例中,交互可以包括用户请求访问安全数据、安全网页、安全位置等。在其他实施方案中,交互可包括支付交易,在所述支付交易中,两个设备可交互以促进支付。
“拓扑图”可包括在由边连接的不同顶点的平面中的图的表示。拓扑图中的不同顶点可以被称为“节点”。每个节点可以表示事件的特定信息,或者可以表示实体或对象的简档的特定信息。这些节点可通过一组边E彼此相关。例如,“边”可被描述为由作为图G=(V,E)的子集的两个节点组成的无序对,其中G是包括由一组边E连接的一组顶点(节点)V的图。例如,拓扑图可表示交易网络,其中表示交易的节点可通过边连接到与交易相关的一个或多个节点,诸如表示设备、用户、交易类型等的信息的节点。边可与称为“权重”的数值相关联,该权重可被分配给两个节点之间的成对连接。边权重可被标识为两个节点之间的连接强度和/或可与成本或距离相关,因为它通常表示从一个节点移动到下一个节点所需的量。在一些实施方案中,图可以是动态图,其可随着时间的推移而变化。例如,可向图中添加和/或从图中移除节点和/或边。拓扑图可以是具有两种不同类型类别的节点的“二分图”。例如,二分图可包括针对用户的用户节点和针对资源提供商的资源提供商节点。更具体地,用户可以是消费者,并且资源提供商可以是商家。
“子图”可包括由更大图的元素的子集形成的图。元素可包括顶点和连接边,并且子集可以是从更大图的整个一组节点和边中选择的一组节点和边。例如,多个子图可以通过对图形数据随机采样来形成,其中每个随机样本都可以是子图。每个子图可与由同一更大图形成的另一子图重叠。
“社区”可以包括图中的在组内密集连接的一组节点。社区可以是子图或其部分/衍生物,且子图可以是也可以不是社区和/或包括一个或多个社区。可以使用图学习算法从图标识社区,所述图学习算法例如是用于绘制蛋白质复合物的图学习算法。使用历史数据标识出的社区可以用于对新数据进行分类,以进行预测。例如,标识社区可用作机器学习过程的一部分,其中关于信息元素的预测可基于它们彼此之间的关系来做出。
“图数据”可包括表示为拓扑图的数据。例如,图数据可包括由多个节点和边表示的数据。图数据可包括任何合适的数据(例如,交互数据、通信数据、评论数据、网络数据等)。
“图快照”可包括时间范围内的图数据。例如,图快照可包括在3天、1周、2个月等期间发生的图数据。
“图上下文预测”可包括基于图数据的任何合适的预测。在一些实施方案中,预测可涉及图或图数据的至少一些部分的上下文。例如,如果图数据由天气数据形成,则预测可涉及预测特定位置的天气。在一些实施方案中,可通过使用最终节点表示形成的机器学习模型来做出图上下文预测,这些最终节点表示可对应于来自第二数据集的数据。在一些实施方案中,图上下文预测可以是由机器学习模型对一些输入数据进行的分类。
“向量表示”可包括表示某些东西的向量。在一些实施方案中,向量表示可包括表示向量空间中来自图数据的节点的向量。在一些实施方案中,向量表示可包括嵌入。
“数据集”可包括相关信息集的集合,这些信息集可由单独的元素组成,但可由计算机作为一个单元来操纵。在一些实施方案中,数据集可包括多个向量。
“服务器计算机”可包括功能强大的计算机或计算机集群。例如,服务器计算机可以是大型主机、小型计算机集群,或者像单元一样工作的一组服务器。在一个示例中,服务器计算机可以是耦合到网络服务器的数据库服务器。服务器计算机可包括一个或多个计算设备,并且可使用各种计算结构、布置和编译中的任一种来服务来自一个或多个客户端计算机的请求。
“存储器”可包括可存储电子数据的任何合适的一个或多个设备。合适的存储器可以包括非瞬态计算机可读介质,其存储可由处理器执行以实施所要方法的指令。存储器的示例可以包括一个或多个存储器芯片、磁盘驱动器等。此类存储器可使用任何合适的电气、光学和/或磁性操作模式来操作。
“处理器”可包括任何合适的一个或多个数据计算设备。处理器可包括一起工作以实现期望功能的一个或多个微处理器。处理器可以包括CPU,所述CPU包括至少一个高速数据处理器,所述高速数据处理器足以执行用于执行用户和/或系统生成的请求的程序部件。该CPU可以是微处理器,诸如AMD的速龙(Athlon)、钻龙(Duron)和/或皓龙(Opteron);IBM和/或摩托罗拉(Motorola)的PowerPC;IBM和索尼(Sony)的Cell处理器;英特尔(Intel)的赛扬(Celeron)、安腾(Itanium)、奔腾(Pentium)、至强(Xeon)和/或XScale;和/或类似处理器。
I.引言
本发明的实施方案提供了一种新颖的基于机器学习的系统,用于预测未来交互以及未来交互将被批准或拒绝的概率。基于机器学习的引擎可预测交互的批准概率,并且然后可建议资源提供商,使得资源提供商可采取对应动作(例如,直到稍后才重新提交交互)以节省处理和计算成本。该系统可帮助资源提供商在被拒绝交互的批准机会低时避免重试被拒绝交互。另外,该系统可通过提供对用户可能与之进行成功交互的下一个资源提供商的洞察来帮助推荐系统。
本公开的实施方案可在动态图上操作。可(例如,通过结构图学习)准备初始一组节点向量表示。然后,当新的交互数据到达时,可更新向量表示。并非例如重新创建整个一组向量,而是每个向量可当其在新交互中有所涉及时被更新。更新向量表示可用作预测函数的输入,这些预测函数被设计成预测后续的交互位置、交互特性和交互结果。可使用一组链接的递归神经网络来执行这些任务,并且可使用历史交互数据来一起训练它们。
本发明的实施方案包括基于图神经网络(GNN)的框架,该框架使用多个递归神经网络(RNN)来对特定用户可与之交互的未来资源提供商进行建模和预测。本发明的实施方案还可产生针对此类交互的未来交互批准概率。
在一些实施方案中,GNN模型利用来自动态时序图的信息。另外,在一些实施方案中,除了聚集来自直接相邻节点的信息聚集之外,还可利用来自两跳(或更多跳)邻居节点的信息。这可进一步提高预测性能。
根据一些实施方案,生成资源提供商和用户嵌入来表示其状态。这些嵌入可用于一个或多个下游任务,诸如欺诈检测、社区发现等。
实施方案可被概括为通过另外RNN对交互数据中的其他重要方(诸如发行方银行和/或收单方银行)进行建模。
A.系统概述
图1示出了根据一些实施方案的包括许多部件的系统100的框图。系统100包括分析计算机102、图数据数据库104、模型数据库106和客户端设备108。分析计算机102可与图数据数据库104、模型数据库106和客户端设备108(例如,远程计算机)进行操作性通信。
为了简化说明,在图1中示出了一定数量的部件。然而,应当理解,本公开的实施方案可包括多于一个每种部件。另外,本公开的一些实施方案可包括比图1中所示的所有部件少或多的部件。
可使用安全通信协议诸如但不限于文件传送协议(FTP)、超文本传送协议(HTTP)、安全超文本传送协议(HTTPS)、SSL、ISO(例如,ISO 8583)等来传输图1中的系统100的设备之间的消息。通信网络可包括下列中的任一个和/或组合:直接互连、互联网、局域网(LAN)、城域网(MAN)、作为互联网节点的运行任务(OMNI)、安全定制连接、广域网(WAN)、无线网络(例如,采用协议诸如但不限于无线应用协议(WAP)、I-模式等)等。通信网络可以使用任何合适的通信协议以生成一个或多个安全通信信道。在一些情况下,通信信道可包括安全通信信道,该安全通信信道可以任何已知方式建立,诸如通过使用相互认证和会话密钥,以及建立安全套接层(SSL)会话。
图数据数据库104可安全地存储图数据。图数据数据库104可存储拓扑图数据,当接收到新数据时,可更新该拓扑图数据。
模型数据库106可安全地存储模型。例如,分析计算机102可创建模型(例如,机器学习模型),并且可将该模型存储在模型数据库106中。在一些实施方案中,图数据数据库104和模型数据库106可以是传统的、容错的、关系的、可扩展的、安全的数据库,诸如可从OracleTM、SybaseTM等商购获得的那些。
分析计算机102可能够经由如本文所述的递归神经网络来执行动态图表示学习。分析计算机102可能够从图数据数据库104中检索图数据,并且然后利用机器学习模型来处理图数据。分析计算机102可定期更新图数据,并且能够利用图数据来执行图上下文预测,这将在本文中更详细地描述。
客户端设备108可包括在分析计算机102外部的任何合适的设备。在一些实施方案中,客户端设备108可接收由分析计算机102做出的输出和/或预测。在其他实施方案中,客户端设备108可将请求(例如,预测请求)传输到分析计算机102。该请求可包括有关模型的请求数据。该客户端设备108可请求分析计算机102运行模型,以例如预测图数据的两个节点未来是否将经由边连接。在接收到包括请求数据的请求之后,分析计算机102可确定输出数据。例如,分析计算机102可将请求数据输入到模型中以确定由模型输出的输出数据。然后,分析计算机102可将输出数据提供给客户端设备108。在一些实施方案中,分析计算机102可使用模型来预测客户端设备108并且然后将输出数据推送给客户端设备108。
B.分析计算机
图2示出了根据实施方案的分析计算机200的框图。示例性分析计算机200可包括处理器204。处理器204可耦合到存储器202、网络接口206、输入元件210、输出元件212和计算机可读介质208。计算机可读介质208可包括图结构学习模块208A、时序自注意力模块208B和上下文预测模块208C。
存储器202可用于存储数据和代码。存储器202可在内部或在外部耦合到处理器204(例如,基于云的数据存储装置),并且可包括易失性和/或非易失性存储器(诸如RAM、DRAM、ROM、闪存存储器或任何其他合适的存储器设备)的任何组合。例如,存储器202可存储图数据、向量、数据集等。
计算机可读介质208可包括代码,该代码能够由处理器204执行以用于执行一种方法,该方法包括:由分析计算机接收图,该图包括针对多个用户的多个用户节点、针对多个资源提供商的多个资源提供商节点以及该多个用户节点与该多个资源提供商节点之间的多条交互边,这些交互边表示该多个用户与该多个资源提供商之间的多个交互;由分析计算机提取数据集,该数据集包括针对该多个用户节点中的每一者和针对该多个资源提供商节点中的每一者的初始向量表示;由分析计算机使用第一递归神经网络和针对来自该多个用户节点的第一用户节点的初始向量表示来响应于涉及第一用户节点的新交互而生成针对第一用户节点的更新向量表示;由分析计算机基于针对第一用户节点的更新向量表示来执行对未来交互的第一预测;以及由分析计算机基于未来交互来执行动作。
图结构学习模块208A可包括能够由处理器204执行以用于执行图结构学习的代码或软件。图结构学习的示例是结构性自注意力。例如,图结构学习模块208A结合处理器204可通过关注特定节点(例如,节点)的直接相邻节点来执行结构自注意力。例如,图结构学习模块208A结合处理器204可通过将注意力权重(例如,在注意力神经网络中)确定为输入节点的函数来关注直接相邻节点。在一些实施方案中,图结构学习模块208A结合处理器204可确定针对图的每个节点的向量表示。
例如,图结构学习模块208A结合处理器204可接收图数据的初始图。图数据可以是包括特定用户(例如,表示为节点)(诸如,用户和资源提供商)以及用户之间的通信(例如,表示为边)的通信数据。图结构学习模块208A结合处理器204可首先确定哪些节点连接到第一节点(例如,通信网络中的第一用户)。(经由边)连接到第一用户的节点可以是相邻节点。当确定第一节点的嵌入时,可使用第一节点的相邻节点。以此类方式,当确定第一节点的向量表示时,可将注意力放在第一节点的相邻节点上,从而捕获图数据中的结构性模式。
向量更新模块208A可包括能够由处理器204执行以用于更新向量的代码或软件。向量更新模块208A结合处理器204可从图结构学习模块208A接收初始向量表示,并且然后基于初始向量表示和新的交互数据来生成更新向量表示。向量更新模块208A结合处理器204可使用具有可训练权重参数的一个或多个向量更新方程来生成更新向量表示。
在一些实施方案中,分析计算机可使用至少更新向量数据集来创建任何合适类型的模型。例如,模型可包括机器学习模型(例如,支持向量机(SVM)、人工神经网络、决策树、贝叶斯网络、遗传算法等)。在一些实施方案中,模型可包括系统或过程的数学描述以帮助计算和预测(例如,欺诈模型、异常检测模型等)。
例如,分析计算机200可创建模型,该模型可以是统计模型,其可用于根据已知信息预测未知信息。例如,分析计算机200可包括用于从训练数据生成回归线(监督学习)的指令集或者用于基于数据点之间的类似性、连通性和/或距离将数据分组为不同分类的数据聚类(无监督学习)的指令集。然后,回归线或数据聚类可用作用于根据已知信息预测未知信息的模型。
一旦分析计算机已根据至少更新数据集构建了模型,该模型就可用于由上下文预测模块208C结合处理器204根据请求生成预测输出。上下文预测模块208C可包括能够由处理器204执行以用于执行上下文预测的代码或软件。例如,接收到的请求可以是针对与所呈现的数据相关联的预测的请求。例如,该请求可以是用于预测特定用户(例如,用户或资源提供商)的后续交互的请求,和/或针对未来交互将被分类为批准或拒绝的预测的请求,或者针对用于用户的推荐的请求。
在一些实施方案中,分析计算机200可创建模型,该模型基于新交互并且在没有新交互的情况下基于时间流逝来训练用于更新向量表示的一组方程。这些方程可用于预测用户和/或资源提供商的向量表示的未来版本,然后,该未来版本可用于确定用户和/或资源提供商可执行哪些交互和活动。
图上下文预测模块208C结合处理器204可基于图数据的上下文来执行任何合适的预测。例如,分析计算机200可确定涉及图数据的预测。在一些实施方案中,预测可涉及图数据与之相关联的图的上下文。分析计算机200可例如执行图上下文预测,以确定对用户是否将在下周的某个时间点进行交易、与哪个特定资源提供商进行交易以及该交互将被批准还是被拒绝的预测。作为说明性示例,由向量更新模块208B结合处理器204确定的更新向量数据集可用于训练神经网络。例如,更新向量数据集可对应于包括经由交互连接的用户和资源提供商的图数据。可利用更新向量数据集以任何合适的方式来训练神经网络。在一些实施方案中,可训练神经网络来将输入向量分类为例如批准或拒绝。又如,可训练神经网络来预测两个节点未来是否将经由边连接(例如,特定用户和资源提供商是否进行交易)。
网络接口206可包括可允许分析计算机200与外部计算机通信的接口。网络接口206可使得分析计算机200能够向和从另一设备(例如,客户端设备等)传送数据。网络接口206的一些示例可包括调制解调器、物理网络接口(诸如以太网卡或其他网络接口卡(NIC))、虚拟网络接口、通信端口、个人计算机存储卡国际协会(PCMCIA)插槽和卡等。由网络接口206启用的无线协议可包括Wi-FiTM。经由网络接口206传送的数据可以呈信号的形式,所述信号可以是电信号、电磁信号、光信号,或者能够由外部通信接口接收的任何其他信号(统称为“电子信号”或“电子消息”)。可经由通信路径或信道在网络接口206与其他设备之间提供可包括数据或指令的这些电子消息。如上所述,可使用任何合适的通信路径或信道,诸如电线或电缆、光纤、电话线、蜂窝链路、射频(RF)链路、WAN或LAN网络、互联网,或任何其他合适的介质。
II.问题建模
本发明的实施方案可使用针对一组用户和资源提供商的历史交互信息来学习他们的交互模式,然后,这些交互模式可用于预测未来交互将成功还是失败。
交互数据集Tr可如下所示地表示:
Tr=(cr,mr,tr,fr)
其中Tr表示交互(针对交互集r),cr表示参与交互的用户,mr表示参与交互的资源提供商,tr表示交互的时间,并且fr表示交互的特征向量。特征向量可包括任何合适数量的交互特征的值维度。
可以二分图的形式对交互数据集进行建模。在图3中示出了被建模为二分图300的交互数据的示例。二分图300包括节点和节点之间的边。存在两种类型的节点:表示特定用户的用户节点和表示特定资源提供商的资源提供商节点。用户节点包括节点1至3,并且资源提供商节点包括节点4至5。根据交互数据集,每个交互在二分图300中被示出为边。每条边是两个节点之间的线,其中节点表示交互的参与者。例如,交互边371发生在用户节点1与服务提供商节点4之间,交互边372发生在用户节点1与服务提供商节点5之间,交互边373发生在用户节点2与服务提供商节点4之间,交互边374发生在用户节点3与服务提供商节点4之间,并且交互边375发生在用户节点3与服务提供商节点5之间。
图300中的每条交互边可具有相关联的特征向量fr,该特征向量包含针对该交互的不同特征的值。交易特征可包括交互金额、商品或服务的类型、交互模式(例如,面对面或线上)、日期、时间、电子商务指示符、用户设备类型(例如,信用卡或借记卡)、支付处理器、交互状态(例如,批准或拒绝)和/或与交互相关联的任何其他合适的信息。
交互状态特征指示交互是被批准还是被拒绝。出于说明的目的,在每条交互边的旁边示出了具有四个特征维度的特征向量。在该示例中,第四个特征维度是交互状态,其中“A”指示交互被批准,并且“D”指示交互被拒绝。虽然在图中留空,但是第一、第二和第三特征维度可表示任何合适类型的特征。
基于交互的性质,二分图300具有两个关键特性。首先,二分图300是时序的,因为每条边都具有相关联的时间(即,交互的时间)。其次,二分图300是动态的并且随着时间的推移而演变,使得当发生另外交互时,另外的节点和/或边被添加到二分图300中。
本发明的实施方案可基于来自图数据的节点和边特性来生成每个节点(诸如针对人的节点)的向量表示。当发生新交互时,向量表示可被更新,并且可用于预测未来交互。例如,针对特定用户,可预测未来交互将在何时发生、用户将与哪个资源提供商进行交易等。另外,针对每个预测的未来交互,实施方案可预测针对该交互的结果或状态(例如,批准或拒绝)。此外,可向资源提供商告知预测的交互和预测的结果。例如,如果预测与特定用户的特定交互将被拒绝,则分析计算机可向资源提供商发送通知,并且然后资源可确定根本不提交和/或重复地重新提交该交互以供批准,或者直到稍后的时间才进行提交和/或重复地重新提交,从而节省了处理资源。
实施方案具有许多另外的优点。例如,在过去,可具有交易数据的图节点的大型数据集(例如,包括资源提供商的节点和用户的节点,以及可描述他们的交互的边)。该数据集可被转换成描述图中的节点与边之间的关系的向量。当接收到新数据时,这些向量可能不再准确,因为用户和资源提供商随着时间的推移在不断地执行交互。缓解这个问题的一种方式是全盘重新开始该过程,并且使用包括新数据的更新数据集来重新生成向量。
然而,本发明的实施方案不需要这样做。相反,本发明的实施方案可为特定节点创建特定向量,并且在获得与该向量相关的新数据时单独地更新每个向量。可基于数据(诸如涉及新交易的任何数据)以及与附近节点(例如,一跳或两跳节点)的交互来更新每个向量。该向量更新过程是创建结合当前和过去交互活动的模型的有效方式。
III.数据集预处理
根据一些实施方案,数据集可被预处理以准备用于数据分析。例如,可基于时间(例如,从最早到最新)对交互进行分类和排列。
另外,数据集在交互状态方面可能不平衡。通常,约3%的交互是被拒绝交互。由于数据集中的大多数交互被批准,分析计算机可能难以标识仅与被拒绝交互相关联的模式。为了避免这个问题,可过滤和减少交互数据,以收集相同数量的每个类别(例如,批准和拒绝)来形成平衡的数据集。对于较大的类别(即,被批准交互),数据集被采样以收集从数据集时间框架的开始跨越到数据集时间框架的结束的被批准交互的实例,以便保持数据随着时间的推移的分布。
此外,特征向量可包括具有大范围实数的特征值。因此,特定交互的特征值中的一些特征值可比其他交互中的相同特征的值显著更大。相对较大的值可支配相同特征的其他值,并且因此可扭曲数据和结果。为了避免这个问题,我们使用以下公式来标准化(或归一化)特征向量。
其中Z表示修改特征值,x是原始特征值,μ是该特定特征的最小值,并且σ是该特征的最大值与最小值之间的差值。这可修改每个特征的值,使得它们介于0与1之间。
IV.示例性数据集
出于说明的目的,现在将讨论示例性数据集和一些相关联的统计数据。下面所示的表1给出了示例性数据集,其中有9032个用户、681个资源提供商,以及这些用户与资源提供商之间的68,912个交互
表1:唯一用户、资源提供商和交互的数量
下面所示的表2基于程度来划分数据集中的用户和资源提供商。“程度”是连接到每个用户节点或资源提供商节点的边的数量。数据集被划分为程度小于10、程度介于10与100之间以及程度大于100的类别。在一些实施方案中,程度可表示用户或资源提供商参与的交互的数量。另选地,在一些场景中,程度可表示用户或资源提供商已与之交互的实体的数量。
表2:用户和资源提供商的程度类别
程度 | <10 | 10<&<100 | >100 | 总计 |
用户的数量 | 7,664 | 1,310 | 58 | 9032 |
资源提供商的数量 | 489 | 134 | 57 | 681 |
下面所示的表3基于状态(即,批准或拒绝)来划分数据集中的交互。
表3:交互在拒绝和批准类别中的分布
被批准交互 | 被拒绝交互 | |
交互的数量 | 32,264 | 36,648 |
该数据可用于生成针对每个用户和资源提供商的向量表示。它还可用作用于训练神经网络以确定未来的交互和结果的训练数据,如下所述。
V.学习嵌入
在一些实施方案中,分析计算机可被配置为确定图数据的嵌入。例如,分析计算机可确定表示图数据中的每个节点的初始一组向量。分析计算机还可随着时间的推移和另外交互的发生而更新每个向量。然后,向量表示可用于图上下文预测。
作为说明性示例,图数据可包括交互数据(例如,交互数据等)。图数据可包括任何合适数量的节点和边。图数据的节点可表示用户和资源提供商。当用户节点和资源提供商节点已执行交互时,边可将用户节点连接到资源提供商节点。
A.初始嵌入
为了确定初始图表示,分析计算机可从图数据数据库中检索图数据。然后,分析计算机可使用图结构学习模块来提取初始数据集。初始数据集可包括例如针对每个用户节点和资源提供商节点的初始向量表示。初始向量表示可处于在向量空间中,该向量空间可表示图数据的特性。节点的邻域的结构性特性(以及可能的属性)可被编码成低维向量。例如,如果图的两个节点是类似的(例如,共享多个特征值),则表示这两个节点的向量在向量空间中可以是类似的。
根据实施方案,可通过任何合适的手段来执行初始数据集的提取。例如,实施方案可利用图神经网络技术、可训练的邻域聚集函数、注意力机制、通过最大化在随机游走中出现在窗口内的节点的共现概率来学习节点嵌入的基于随机游走的方法(例如,深度游走)或任何其他合适的技术。注意力机制的基本原理是学习聚集可变大小输入的函数,同时关注与特定上下文最相关的部分。当注意力机制使用单个序列作为输入和上下文时,它可称为自注意力。尽管注意力机制最初被设计成促进递归神经网络(RNN)捕获长期依赖性,但是(Vaswani等人(2017))最近的工作表明,完全自注意力的网络本身可在机器翻译任务中实现最先进性能。(Velickovic等人(2018))通过使得每个节点能够关注其邻居来扩展对图的自注意力,从而在静态图中实现了半监督节点分类任务的最先进结果。
例如,可通过自注意力神经网络来确定初始向量表示,其中分析计算机基于节点的相邻节点对该节点的影响来确定给予该节点的相邻节点多少注意力(例如,权重)。针对每个节点,分析计算机可基于节点的相邻节点(例如,局部结构)来确定向量。例如,在自注意力过程期间,分析计算机可确定针对第一用户节点的向量表示。分析计算机可确定表示可放在第一用户节点与第一用户节点连接到的每个资源提供商节点之间的链路上的注意力的值。在一个示例中,第一用户节点可经由边连接到三个资源提供商节点,包括位于旧金山的提供食品杂货资源的第一资源提供商、位于旧金山的提供电子产品资源的第二资源提供商,和位于纽约的提供数字图书资源的第三资源提供商。分析计算机可关注这些节点以确定第一用户节点的向量表示。例如,第一用户节点可与旧金山的位置相关联,并且可与电子产品社区群组相关联。分析计算机可使用自注意力神经网络来确定值,其中输入可包括第一用户节点和相邻节点,如本文更详细地描述的。神经网络的输出可包括向量,该向量包括表示第一用户节点与每个输入节点的相关密切程度的值。例如,在一些实施方案中,第一用户节点可与其自身最密切相关,因为它共享其自身的所有特性。然后,由于第一用户节点与旧金山和电子产品相关联,因此第一用户节点可按照相似程度的降序与第二资源提供商(旧金山,电子产品)、第一资源提供商(旧金山,食品杂货)和第三资源提供商(纽约,数字图书)相关。
B.基于新交互来更新嵌入
可基于表示来自初始时间框架(例如,第一天、周、月、年等)的节点和边的初始图数据来生成嵌入的初始数据集。当创建了另外数据诸如新的节点和/或边时,图可改变。并非为新的或更新的图创建全新一组嵌入,而是实施方案可更新嵌入的初始数据集。
继续先前的示例,在向量更新过程期间,分析计算机可接收关于用户与相同的其他资源提供商之间的后续交互的另外信息。例如,第一用户节点现在也可经由边连接到另外两个资源提供商节点,包括位于旧金山的提供体育用品资源的第四资源提供商,和位于奥克兰的提供衣物服饰资源的第五资源提供商。分析计算机可基于新的交互数据来生成第一用户节点的更新向量表示。例如,第一用户节点现在可更强烈地与旧金山的位置相关联,并且可新近地与体育用品社区群组相关联。
分析计算机可利用被设计成更新节点的向量表示的另外神经网络。神经网络可被设计成包括特定输入,诸如先前的用户向量表示、先前的资源提供商向量表示、自最近交互以来经过的时间量、交易的特征以及任何其他合适的细节。包括这些细节作为输入可训练网络来标识这些细节影响用户或资源提供商的状态的方式。例如,当用户与奥克兰的第五资源提供商交互时,第五资源提供商的嵌入被用作更新用户的嵌入的输入。这可反映与新的资源提供商的关系可指示用户的状态或行为的一些变化。神经网络的输出可包括表示与其他节点的相关程度的新向量。
在一些实施方案中,可为来自图数据的每个节点创建两个单独的向量嵌入:静态嵌入和动态嵌入。动态嵌入可以是随着时间的推移而更新以反映节点的变化(例如,新边、旧边的时间衰减等)的嵌入,如上文所介绍的。动态嵌入可在特定时间点表示随着时间的推移而改变的行为模式(例如,兴趣和习惯)。静态嵌入可以是单独的嵌入,其表示节点的不随着时间的推移而改变或者缓慢或不频繁改变的特性。例如,针对用户的静态嵌入可表示出生日期、家庭地址、家庭关系、婚姻状态、性别、收入水平或任何其他合适的特性。静态嵌入还可包括节点的索引标识符(例如,用户或资源提供商)。每个用户节点和资源提供商节点可由静态嵌入和动态嵌入两者来表示。
当发生交互时,两个端节点(例如,参与的用户节点和资源提供商节点两者)的动态嵌入被更新。在一些实施方案中,递归神经网络(RNN)可用于更新动态嵌入。可为用户节点(即,RNNc)创建和训练第一RNN,并且可为资源提供商节点(即,RNNm)创建和训练第二RNN。根据一些实施方案,RNNc可用于所有用户节点,并且RNNm可用于所有资源提供商节点。
针对RNNc(其是第一递归神经网络的示例)和RNNm(其是第二递归神经网络的示例),输入值、权重参数和输出向量可由下面所示的方程表示。
c(t)=σ(W1c(t-)+w2m(t-)+w3f+w4Δtc) (RNNc)
m(t)=σ(W5m(t-)+w6c(t-)+w7f+w8Δtc) (RNNm)
这些方程指示当用户和资源提供商在时间t交互时更新用户嵌入和资源提供商嵌入两者的动态嵌入的方式。需注意,c(t)表示由于与资源提供商在时间t的交互的更新用户动态嵌入,c(t-)是用户嵌入在交互之前的最近版本,m(t)是由于与用户的交互的更新资源提供商动态嵌入,m(t-)是资源提供商嵌入在交互之前的最近版本,f是当前交互的特征向量(其可包括任何合适数量的特征值),Δtc是当前时间t与针对该用户或资源提供商的最近先前交互的时间之间的时间差,σ是S型(sigmoid)函数,并且每个W是可学习权重参数。每个大写W(例如,W1和W5)表示矩阵,同时每个小写w(例如,w2、w3、w4、w6、w7和w8)表示权重或缩放系数,所有这些都可使用历史交互数据和递归神经网络技术(或其他机器学习模型技术)来训练。权重参数有效地确定给定输入对嵌入的转换的影响程度。例如,当确定用户的更新状态和行为时,特征向量的不同特征可能更有意义,并且当确定用户的更新状态和行为时,资源提供商的特定方面(例如,位置、提供的服务、大小)可能更有意义。
如上所示,RNNc和RNNm包括相同的输入。然而,权重参数是有区别的,并且在训练过程之后可能是不同的,因为用户和资源提供商可能具有不同的倾向和行为模式。用于更新资源提供商的动态嵌入m(t)的RNNm包括针对用户的先前动态嵌入(c(t-))的项,并且用于更新用户的动态嵌入c(t)的RNNc包括针对资源提供商的先前动态嵌入(m(t-))的项。因此,用户动态嵌入和资源提供商动态嵌入可相互影响。这被认为是用户与资源提供商之间的相互依赖性。这种关系在图4中表明,其示出了使用相同的输入来生成c(t)和m(t)两者的方式。
C.基于时间来更新嵌入
在一些实施方案中,即使没有发生新交互(例如,即使没有向图中添加新边),也可基于时间流逝来更新向量嵌入。
例如,用户可能在一段时间(例如,1小时、1天、3天、1周、1个月等)内不参与任何交互。然而,用户的行为仍然可被认为在这段时间内已经改变。例如,如果用户购买了自行车,分析计算机可认为用户在后续的时间框架期间对自行车或自行车配件感兴趣。然而,如果经过了更大的时间量,用户对自行车或自行车配件的兴趣量可被认为已经降低或不太相关。
可使用另外的神经网络(其是第三递归神经网络的示例)以将时间流逝的特定效果投射到节点上的方式来更新节点的向量表示。例如,此类神经网络(其是第三递归神经网络的示例)可由以下投影函数来表示以用于确定时间更新的向量表示:
此处,表示用户节点在自用户的最近交互的时间起的时间差Δ之后的动态嵌入表示(例如,时间更新的向量表示)。c(t)表示用户的动态嵌入在最近交互的时间更新的最近版本(例如,由上面的公式RNNc给出)。(1+W.Δ)是用于结合时间差Δ来转换动态嵌入的标量可训练参数。该公式可表示用户对特定产品、活动和/或其他关联的兴趣的衰减。W.Δ可被训练成使用历史交互数据和递归神经网络技术(或其他机器学习模型技术)来修改c(t)的特定向量维度。例如,特征向量的不同特征可比其他特征(例如,位置关联、购物类别关联等)更受时间衰减的影响。
因此,动态嵌入的维度值和位置可在任何时间点被更新(例如,以提供时间更新的向量表示)。这可针对用户节点表示和/或资源提供商节点表示来执行。例如,可为资源提供商提供类似的公式和另外一组权重可训练参数(例如,另一W.Δ):
利用提取数据集,以及基于新交互和时间流逝的数据集的更新版本,分析计算机可执行图上下文预测。图上下文预测可包括确定第一节点未来是否将与第二节点交互。说明性地,分析计算机可确定用户将与之交互的下一个资源提供商、交互发生的时间,以及交互将被批准还是被拒绝。下面更详细地讨论预测技术。
D.结合邻域信息
如上所述,当用户与资源提供商进行交易时,用户节点动态嵌入可受资源提供商节点动态嵌入的影响,反之亦然。在一些实施方案中,其他相邻节点也可被考虑并被包括作为RNN输入,使得它们也对用户节点动态嵌入有影响。
在一些实施方案中,邻居不一定是作为向量彼此接近的嵌入。相反,可基于交互关系来限定邻居。
相邻节点可具有不同的分离级别,诸如一跳或两跳。在二分图的上下文中,如果两个用户都与相同资源提供商进行过交易,则这两个用户被认为是一跳邻居。类似地,如果两个资源提供商都与相同用户进行过交易,则这两个资源提供商被认为是一跳邻居。相比之下,两跳邻居是没有与相同资源提供商进行过交易但是具有共同的一跳邻居的两个用户。
在图5中示出了示出相邻节点关系的示例性二分图500。持卡人A、B、C、D和E节点各自具有连接到资源提供商A节点的边,这意味着他们各自都与资源提供商A进行过交易。由于各自都与资源提供商A进行过交易,因此所有这五个用户(A、B、C、D和E)彼此都是一跳邻居。出于说明的目的,图5具体指出用户C节点和用户E节点是一跳邻居。
对于与资源提供商B进行过交易的用户,存在另外的用户一跳邻居关系。如图所示,用户D、F和G节点各自具有连接到资源提供商B节点的边,这意味着他们各自都与资源提供商B进行过交易。由于各自都与资源提供商B进行过交易,因此这三个用户(D、F和G)彼此都是一跳邻居。出于说明的目的,图5具体指出用户D节点和用户G节点是一跳邻居。
商家A节点和资源提供商B节点两者都具有连接到用户D节点的边,这意味着他们各自都与用户D进行过交易。由于两者都与用户D进行过交易,因此资源提供商A节点和资源提供商B节点是一跳邻居,如图5所指示的。
图5中的二分图500也包括两跳邻居关系。如图所示,用户C节点和用户G节点是两跳邻居。这是因为他们没有与相同资源提供商进行过交易(例如,他们不是一跳邻居),但是他们具有共同的一跳邻居(例如,他们两者都是与用户D节点的一跳邻居)。换句话讲,在用户C节点与用户G节点之间存在两个资源提供商节点(例如,资源提供商A和资源提供商B节点)和一个用户节点(例如,用户D节点)。
虽然在图5中没有具体指示,但是存在另外的两跳邻居关系。例如,类似于上面讨论的用户C节点,用户A、B和E节点也是相对于用户G节点的两跳邻居。此外,用户A、B、C和E节点各自都是相对于用户F节点的两跳邻居。
图6示出了其中被批准交互和被拒绝交互在视觉上分离的二分图。如图所示,数据集可被细分为两组:被批准交互和被否决(或被拒绝)交互。在该示例中,目标用户A可具有与资源提供商A进行过交易的一跳邻居,其中邻居交互中的一些被批准,并且一些被拒绝。示出了针对资源提供商A与用户A、B、C和E之间的交互的边。用户B和C的交互都被批准,而用户E的交互被拒绝。批准和拒绝的结果可影响用户、资源提供商和邻居的特征向量和嵌入,如上所述。
可分析用户的行为(诸如用户直接与哪些资源提供商交互)以标识趋势。另外,用户可能在某些方面类似于其他邻居用户。因此,还可分析用户邻居的行为来标识趋势,并且这些邻居趋势可提供对用户的行为模式和可能的未来活动的进一步洞察。
为了利用邻居节点信息,实施方案还可包括邻居节点嵌入信息作为RNN公式的输入,或者以其他方式用于确定更新的用户节点动态嵌入。在一些实施方案中,可标识在目标交互的时间之前已经是一跳邻居的用户的一跳邻居。然后,可聚集这些一跳邻居的动态嵌入。
为了聚集一跳邻居的动态嵌入,本发明的实施方案可利用两种不同聚集方法中的一者。作为第一选项,可计算已标识嵌入的平均值。作为第二选项,可计算已标识嵌入的加权平均值。当使用加权平均值时,每个动态嵌入的权重可基于一跳邻居与共同资源提供商交互的最近程度。如果交互在时间上更近,则该嵌入的权重更大,并且该嵌入对平均值的影响更大。在一些实施方案中,嵌入的权重由以下公式确定:
权重=1/(目标交互时间-邻居交互时间
其中目标交互时间是正在分析或用于更新用户嵌入和/或资源提供商嵌入的当前用户-资源提供商交互的时间,并且邻居交互时间是邻居先前与相同资源提供商进行交易的时间。因此,当确定针对特定用户或资源提供商的更新嵌入时,被认为最相关的最近邻居交互具有最大的影响。
所聚集的一跳邻居嵌入向量可被包括在用于确定用户和资源提供商的更新动态嵌入的公式中。在当前用户嵌入向量被权重W1修改之前,所聚集的一跳邻居嵌入向量可被添加到当前用户嵌入向量(例如,与其拼接)。例如,在一些实施方案中,用于响应于新交互而更新用户的动态嵌入c(t)和资源提供商的动态嵌入m(t)的RNN方程(其是第一递归神经网络和第二递归神经网络的示例)可采取下面所示的形式:
c(t)=σ(W1(c(t-)+nc(t-))+w2m(t-)+w3f+w4Δtc) (RNNc)
m(t)=σ(W5(m(t-)+nm(t-))+w6c(t-)+w7f+w8Δtc) (RNNm)
其中nc(t-)是在当前交互时或刚好在当前交互之前针对用户节点的所聚集的一跳邻居嵌入向量(例如,被基于时间的权重修改的一跳邻居,如上所述),并且其中nm(t-)是在当前交互时或刚好在当前交互之前针对资源提供商节点的所聚集的一跳邻居嵌入向量。RNN方程的这些更复杂的版本类似于用于更新用户的动态嵌入c(t)和资源提供商的动态嵌入m(t)的上述那些,但是具有邻居嵌入的另外输入。因此,这些也可分别用作第一递归神经网络和第二递归神经网络。
图7示出了相同输入中的一些用于生成c(t)和m(t)两者、同时基于其各自的一跳邻居群组输入不同的所聚集的一跳邻居嵌入向量来得到c(t)和m(t)的方式。
作为用于所聚集的一跳邻居的术语的补充和/或替代,其他实施方案可包括用于所聚集的两跳邻居的单独术语。可包括用于任何合适距离的邻居(例如,三跳邻居、四跳邻居等)的任何合适数量的术语。
因此,用户和资源提供商节点嵌入的数据集可使用基于新交互、时间流逝、邻居节点嵌入的状态和/或任何其他合适的RNN输入信息的RNN方程来更新。可基于更新嵌入数据在任何合适的时间做出预测,如下所述。
VI.预测未来交易
根据一些实施方案,分析计算机可使用嵌入向量来预测下一个交互,如上所述,这些嵌入向量可基于新信息来迭代地更新。
分析计算机可具体预测用户将与哪个资源提供商交互(例如,通过指示资源提供商嵌入),以及交互将在何时发生。在其他实施方案中,分析计算机可更一般地预测用户将在某处(例如,跨所有资源提供商)实施交互的概率。
在一个示例中,分析计算机可利用另外的神经网络(其是第四递归神经网络的示例),该神经网络被训练成将输入用户(或资源提供商)节点嵌入转换成资源提供商(或用户)节点嵌入的输出。输出嵌入可表示对用户将与之交互的下一个资源提供商的预测(其是第一预测的示例)。在一些实施方案中,预测神经网络(其是第四递归神经网络的示例)可由以下公式表示:
为了解释在该预测(其是第一预测的示例)中所考虑的因素,在此将再次调用上文中的先前节点嵌入更新函数中的一些。例如,如上所述,用于计算更新用户嵌入c(t)的RNN方程(其是第一递归神经网络的示例)可以是:
c(t)=σ(W1(c(t-)+nc(t-))+w2m(t-)+w3f+w4Δtc)
这在发生新交互时更新用户节点嵌入。方程的输入包括当前交互之前的用户节点嵌入c(t-)、针对用户正与之交互的资源提供商的资源提供商节点嵌入m(t-)的项(也是当前交互之前的项)、针对用户的相邻节点嵌入(例如,一跳和/或两跳)的项nc(t-)、针对描述当前交互的特征向量f的项,以及针对自用户的先前交互起的时间量Δtc的项。这些输入被包括,因为它们可提供关于用户的当前状态(例如,兴趣、位置和其他交互行为趋势)的有意义信息。这些输入也将通过c(t)结转到预测函数中。
当发生交互时,确定更新用户嵌入c(t)。然而,在没有活跃地发生交互的时间期间,可利用或定期检查预测函数。因此,如上所述,可利用投影函数来确定用户节点嵌入在交互之间的时间(例如,当正在执行预测时的当前时间)期间的投影(例如,时间更新的版本):
该投影函数(其是第三递归神经网络的示例)包括针对更新用户嵌入c(t)的项。因此,投影函数有效地结合了用于确定c(t)的所有信息,诸如c(t-)、m(t-)、nc(t-)和f。
最后,如上所述,用于预测针对用户将与之交互的下一个资源提供商(其是第一预测的示例)的资源提供商节点嵌入的预测函数(其是第四递归神经网络的示例)可采取以下形式:
该预测RNN方程使用投影的用户嵌入作为输入。因此,预测函数有效地结合了用于确定的所有信息,诸如c(t),其本身基于c(t-)、m(t-)、nc(t-)和f。预测函数还包括B,其可以是用户节点静态嵌入和/或先前资源提供商节点(例如,用户最近与之交互)静态嵌入中的一者或多者。因此,总的来说,除了可学习权重参数之外,预测函数可基于嵌入和交互信息,诸如c(t-)、m(t-)、nc(t-)、f和B。这可称为全连接层,因为若干关键输入分量被一起利用。
所得到的预测嵌入(或预测向量)是对用户将与之交互的下一个资源提供商的预测。预测嵌入向量可能不与针对真实资源提供商的实际资源提供商嵌入完全重叠或对应。因此,分析计算机然后可标识与预测嵌入向量最类似(例如,最接近)的针对真实资源提供商的真实嵌入。可使用局部敏感度散列(LSH)来标识最接近的真实资源提供商嵌入。然后,所标识的资源提供商嵌入可被选择作为用户未来将与之交互的实际预测资源提供商。
预测可用于许多任务。例如,分析计算机可向资源提供商发送告知特定用户可能在不久的未来进行访问的通知消息。资源提供商可在用户到达之前为用户准备商品、服务、激励优惠券、餐位或任何其他合适的物品。此外,可收集关于预测交互的另外信息,诸如关于交互的成功结果预测或其他合适的特征,如下所述。
VII.预测交互结果
根据一些实施方案,除了预测用户将与之进行交易的下一个资源提供商之外,还可预测该特定用户与资源提供商之间可能的未来交互的结果状态(例如,批准或拒绝)。
在一个示例中,分析计算机可利用另外的神经网络(其是第五递归神经网络的示例),该神经网络被训练成转换包括用户节点嵌入的最新更新版本c(t)和预测的下一个资源提供商节点嵌入m(t)的输入。交互特征预测神经网络(其是第五递归神经网络的示例)可提供描述用户与资源提供商之间的预测交互的交互特征的输出向量(其是第二预测的示例)。在一些实施方案中,交互特征预测神经网络(其是第五递归神经网络的示例)可由以下公式表示:
s(t)=W10(c(t)+m(t))+B
此处,s(t)表示针对特定用户与资源提供商之间的预测交互的具有特征维度值(例如,金额、时间、位置、交互模式、商品或服务的类型等)的预测交互向量(其是第二预测的示例)。W10是可使用历史交互数据和递归神经网络技术来训练的可学习矩阵参数。B可以是用户节点静态嵌入和/或预测资源提供商节点静态嵌入。如交互特征预测函数中所示,用户节点嵌入和资源提供商节点嵌入在被W10修改之前被组合(例如,拼接)。
一旦获得了预测交互向量s(t),就可将其用作概率函数中的输入。概率函数(其是第六递归神经网络的示例)可用于预测具有那些给定向量特征维度值的预测交互将具有批准还是拒绝的结果(其是第三预测的示例):
p1=δ(W11s(t))
此处,p1是批准概率,W11是可学习矩阵参数,并且δ是归一化项。
W11可使用历史交互数据和递归神经网络技术来训练。输出p1可采取介于0%与100%之间的经计算批准概率的形式。
分析计算机可基于概率预测的结果(其是第三预测的示例)以及预测交互的特征(其是第二预测的示例)来采取任何合适的动作。例如,分析计算机可在预测交互被尝试和被拒绝时通知资源提供商。然后,资源提供商可选择不提交交互以供批准,并且从而节省处理资源和成本。在一些实施方案中,当可能存在更高的批准机会时,分析计算机可建议资源提供商稍后提交一个或多个交互请求(例如,通过授权请求消息)。此外,分析计算机可向资源提供商建议其他交互特征,诸如物品购买,使得资源提供商可确保物品有库存并且可用,和/或准备物品以供提货。可基于预测来采取许多其他先发制人的动作,这可提高效率并防止不期望事件(例如,欺诈)。
预测下一个资源提供商和交互结果可用于许多应用。例如,可通知或警告资源提供商可能发生的交互。这可发生在任何合适的时间(例如,每天早上、每周、每月、每小时等)。可向资源提供商告知哪个交互可能或可能不被批准。这可允许资源提供商采取适当的动作,诸如提交或不提交交互请求。在为特定用户处理经常性(例如,每月订阅)交互的卡存档资源提供商的情况下,可建议该资源提供商关于何时提交经常性收费。例如,有可能特定用户的购买在特定时间更有可能被否决或被批准。例如,周一可具有较高的否决,而周三可具有较高的批准。又如,月初可具有更多的批准,而月末可具有更多的否决。可向资源提供商发送这些类型的建议,以及针对当前正在处理的交互的实时更新和实时反馈。因此,资源提供商可更好地避免对被拒绝交互的重试,并且提高他们的批准率系统。而且,对下一步动作、结果和兴趣的预测可实现更强大的推荐系统。
在其他的实施方案中,可确定用户(例如,在特定区域中)实施任何交互的机会。交互特征预测函数可用于预测用户与每个资源提供商之间(例如,在给定的物理区域内)的各种交互的特征。然后,每个交互向量可被输入到交易概率结果函数(其是第六递归神经网络的示例)中,并且所有所得到的概率可被一起考虑,以确定用户将在某处(例如,在特定区域和时间框架内)实施交互的可能性。
VIII.损失函数
过去交互的数据集可用作训练数据。上述RNN方程可使用一些交互数据来训练,并且然后使用相同或不同的交互数据来测试。在测试期间,分析计算机使用RNN方程来尝试预测用户将与之进行交易的下一个资源提供商(或者资源提供商将与之进行交易的下一个用户),以及交互结果。RNN输出可以是特定嵌入。在测试情况下(与真实世界的具体实施相反),针对用户实际与之进行交易的资源提供商的实际资源提供商嵌入已经从测试数据(例如,历史交互数据)中已知,交互结果也是如此。因此,预测的嵌入然后可与实际的资源提供商嵌入和实际结果进行比较。例如,历史交互数据可被划分为各种时间框架。初始时间框架可用于创建初始嵌入,并且初始时间框架之后发生的交互数据可用于更新嵌入并将预测与实际结果进行比较。可使用损失函数(也称为损失公式或误差函数)来测量预测嵌入的准确性。分析计算机可通过最小化由损失函数计算的损失(例如,使用梯度下降方法)来迭代地训练和更新RNN方程。
示例性损失函数(LF)如下所示:
该损失函数包括许多项,每一项都被设计成训练上述RNN方程中的一者或多者。
例如,在损失函数的第一项中,表示预测资源提供商嵌入,并且m(t-)是实际观察到的资源提供商嵌入(例如,如由测试数据所指示的)。损失函数中的第一项(例如,确定预测资源提供商嵌入与真正资源提供商嵌入之间的差值。由于该项被包括在损失函数中,因此用于预测下一个资源提供商嵌入的公式将被训练成最小化该差值。因此,用于预测下一个资源提供商嵌入的上述可训练权重参数可通过损失函数和历史交互测试数据来训练。
此外,在损失函数的第二项中,p1表示交互成功的概率,其基于如上所述的用户嵌入和资源提供商嵌入两者。损失函数中的第二项(例如,-log(p1)-(1-)log(1-p1))是二元交叉熵损失项,并且其被包括以最小化交互结果预测任务(其是二元分类任务)中的误差。由于该项被包括在损失函数中,因此用于预测交互结果的公式将被训练成最小化该误差。因此,用于预测交互结果的上述可训练权重参数可通过损失函数和历史交互测试数据来训练。
损失函数包括与预测资源提供商嵌入的准确性相关的第一项,以及与预测交互结果的准确性相关的第二项。因此,分析计算机可通过相同的损失函数同时学习多个任务(例如,预测资源提供商和预测结果)。而且,因为预测函数完全连接到其他RNN方程,所以整个组的RNN方程(例如,它们的权重参数)可通过该损失函数来训练。
在一些实施方案中,损失函数可被改变或分离,以便仅学习这些任务中的一者。例如,如果期望仅预测资源提供商嵌入而不预测交互结果,则可从损失函数中移除第二项。另选地,如果期望仅预测交互结果而不预测资源提供商嵌入,则可移除第一项。
损失函数中的最后两项用于平滑用于更新用户嵌入c(t)和资源提供商嵌入m(t)的RNN方程。例如,第三项(例如,λc||c(t)-c(t-)||2))确定更新用户嵌入c(t)与先前用户嵌入c(t-)之间的差值,并且第四项(例如,λm||m(t)-m(t-)||2)确定更新资源提供商嵌入m(t)与先前资源提供商嵌入m(t-)之间的差值。通过在损失函数中包括这些项,RNN方程将被训练成在更新嵌入时避免大变化。
IX.示例性方法
图8示出了根据一些实施方案的示出动态图表示过程的流程图。将在分析交互图数据的分析计算机的上下文中描述图8中所示的方法。然而,应当理解,本发明可应用于其他情况(例如,分析其他类型的图数据等)。在一些实施方案中,多个图快照中的每个图快照可包括多个节点。该多个图快照中的每个图快照可包括与时间戳相关联的图数据。
在步骤802处,分析计算机可使用图结构学习模块从交互数据的二分图中提取第一数据集。第一数据集可包括针对基于初始时间框架(例如,第一天、周、月、年等)的交互图数据的图中的每个节点的初始向量表示。在一些实施方案中,提取第一数据集还可包括为初始时间框架的图数据执行结构性自注意力过程。
在步骤804处,分析计算机可当发生新交互时迭代地更新针对每个节点的向量表示。在一些实施方案中,迭代地更新向量表示可使用一个或多个RNN方程来执行,该一个或多个RNN方程具有使用历史交易数据来训练的权重参数。RNN方程可结合可提供关于节点的行为和状态的洞察的输入。例如,当发生新交互时,用户节点向量表示可被更新。可基于输入来更新用户节点向量表示,这些输入包括用户节点向量表示的当前版本、表示正在发生的新交互的特征向量、针对正在与之实施交互的资源提供商的资源提供商节点向量表示的当前版本、一个或多个相邻节点向量表示、自用户节点的先前交互起的时间,和/或任何其他合适的信息。可使用单独的受过训练的RNN方程以类似的方式来更新资源提供商节点。因此,可迭代地更新向量表示,这些向量表示可以是每个节点在表示多个节点的特性的向量空间中的嵌入。
在步骤806处,分析计算机可基于自先前交互和向量更新起已经过去的时间量来更新针对一个或多个节点的向量表示。例如,可能期望确定针对特定用户的更新用户节点向量表示,即使当没有发生新交互时,以便做出关于后续用户交互的预测。具有使用历史交易数据来训练的权重参数的RNN方程可用于基于时间流逝(在该时间期间没有交互)来更新用户节点向量表示(例如,确定时间更新的向量表示)。
在步骤808处,分析计算机可确定表示预测用户接下来与之交互的资源提供商节点的嵌入。具有使用历史交易数据来训练的权重参数的RNN方程可用于基于用户节点向量表示的投影版本(例如,如在步骤806中确定的)来预测资源提供商节点向量表示。
在步骤810处,分析计算机可确定最接近地匹配来自步骤808的预测嵌入的实际资源提供商节点向量表示。例如,预测嵌入(例如,如在步骤808中确定的)可能不与针对真实资源提供商的实际资源提供商节点向量表示完全重叠或对应。在一些实施方案中,可使用局部敏感度散列(LSH)来标识最接近的真实资源提供商节点向量表示。然后,所标识的最接近的资源提供商节点向量表示可被选择作为用户未来将与之交互的实际预测资源提供商。
在步骤812处,分析计算机可基于用户节点向量表示和预测资源提供商节点向量表示(例如,如在步骤810中确定的)来执行交互预测。例如,具有使用历史交易数据来训练的权重参数的RNN方程可用于预测用户与预测资源提供商之间可能的未来交互(例如,二分图中的未来边)的特征。RNN方程可利用用户节点向量表示和预测资源提供商节点向量表示两者作为输入,并且可产生交互特征向量值的输出。
在步骤814处,分析计算机可执行交互结果预测。例如,具有使用历史交易数据来训练的权重参数的RNN方程可用于针对预测交互特征向量(例如,如在步骤812中确定的)预测与那些特征的交互将被批准还是被拒绝。分析计算机可确定交互是否将被批准的概率。
在步骤816处,分析计算机可基于这些预测中的一者或多者来采取一个或多个动作。例如,分析计算机可告知预测资源提供商关于预测交互的特征和/或交互的预测批准概率。在一些实施方案中,如果批准概率低于特定阈值,则分析计算机可发送指示交互拒绝是十分可能的以致于值得警告的通知。分析计算机还可推荐交互更有可能被批准的时间。资源提供商可接收此类通知,并且当用户尝试实施交互时,确定是否处理该交互。
X.实验和结果
从历史数据来看,前80%的排序数据可用于训练,接下来10%的排序数据可用于验证,并且后10%的排序数据可用于测试。
第一任务可以是预测下一个资源提供商。报告的指标可以是:平均倒数排名(MRR),以及前十召回率(Recall@10)。
为了计算指标:
1)针对每个查询,用户是已知的,并且目标是预测下一个资源提供商嵌入。
2)在预测资源提供商嵌入之后,使用LSH技术来计算预测嵌入与所有其他资源提供商嵌入之间的欧式距离。基于所计算的距离来对资源提供商嵌入进行排序,以找到真值资源提供商(例如,如历史数据中指示的真正资源提供商)在结果列表中的排名。比率(1/排名)提供了查询的倒数排名。对所有查询进行这项平均提供了平均倒数排名(MMR)。
3)对于Recall@10,报告了其中真值资源提供商排名在排序列表的前10个资源提供商中的测试案例的比率。较高的比率指示较好的测试结果和更准确的过程,因为标识了正确的资源提供商。
表4:验证集和测试集针对任务1的结果表
指标 验证 测试 |
Recall@10 93.77 94.35 |
MRR 92.34 92.76 |
第二任务可以是分类任务。此处报告了召回率、精确率、F分数和AUC。训练可进行50个时期。
表5:原始模型以及具有2跳邻居的扩展模型和具有加权2跳邻居的扩展模型针对任务2的结果
本发明的实施方案有利地提供了一种用于在动态时序二分图随着时间的推移而改变并且从而利用来自动态时序图的时间信息时更新节点嵌入的方法。通过用策略输入值来训练RNN方程,关于用户行为模式的有意义信息可被考虑、建模并用于预测未来活动。反过来,对未来的预测可用于通知相关方,并且更有效地使用处理资源。
现在将描述可用于实现本文所述的任何实体或部件的计算机系统。计算机系统中的子系统经由系统总线互连。额外子系统包括打印机、键盘、固定磁盘和监视器,监视器可耦合到显示适配器。外围装置和可以耦合到输入/输出(I/O)控制器的I/O装置可以由所属领域已知的任何数量个构件连接到计算机系统,所述构件例如串行端口。例如,串行端口或外部接口可用于将计算机设备连接到例如因特网的广域网、鼠标输入装置或扫描仪。通过系统总线的互连允许中央处理器与每个子系统通信,并且控制来自系统存储器或固定磁盘的指令的执行以及子系统之间的信息交换。系统存储器和/或固定磁盘可体现计算机可读介质。
如所描述,本发明的服务可涉及实施一个或多个功能、过程、操作或方法步骤。在一些实施例中,所述功能、过程、操作或方法步骤可以实施为由适当地被编程的计算装置、微处理器、数据处理器等执行指令集或软件代码的结果。指令集或软件代码可以存储在由计算装置、微处理器等存取的存储器或其它形式的数据存储元件中。在其它实施例中,所述功能、过程、操作或方法步骤可由固件或专用处理器、集成电路等实施。
本申请中描述的软件部件或功能中的任一者可实现为使用任何合适的计算机语言诸如Java、C++或Perl使用例如常规技术或面向对象的技术由处理器执行的软件代码。软件代码可作为一系列指令或命令存储在计算机可读介质上,例如随机存取存储器(RAM)、只读存储器(ROM)、例如硬盘驱动器的磁介质或软盘、或例如CD-ROM的光学介质。任何此类计算机可读介质可驻存在单个计算设备上或内部,并且可存在于系统或网络内的不同计算设备上或内部。
虽然已经详细描述了并且在附图中示出了特定示例性实施方案,但是应当理解,此类实施方案仅仅是对本广泛发明的说明而并非旨在进行限制,并且本发明不限于示出和描述的具体布置和结构,因为本领域的普通技术人员可想到各种其他修改。
如本文所用,除非明确指示有相反的意思,否则使用“一个/种”或“该/所述”旨在表示“至少一个/种”。
Claims (20)
1.一种方法,包括:
由分析计算机接收图,所述图包括针对多个用户的多个用户节点、针对多个资源提供商的多个资源提供商节点以及所述多个用户节点与所述多个资源提供商节点之间的多条交互边,所述交互边表示所述多个用户与所述多个资源提供商之间的多个交互;
由所述分析计算机提取数据集,所述数据集包括针对所述多个用户节点中的每一者和针对所述多个资源提供商节点中的每一者的初始向量表示;
响应于涉及所述第一用户节点的新交互,由所述分析计算机使用第一递归神经网络和针对来自所述多个用户节点的第一用户节点的初始向量表示来生成针对所述第一用户节点的更新向量表示;
由所述分析计算机基于针对所述第一用户节点的所述更新向量表示来执行对未来交互的第一预测;以及
由所述分析计算机基于所述未来交互来执行动作。
2.如权利要求1所述的方法,其中生成针对所述第一用户节点的所述更新向量表示基于所述第一递归神经网络的输入,其中所述第一递归神经网络的所述输入包括针对所述第一用户节点的所述初始向量表示、针对与所述新交互相关联的资源提供商节点的向量表示,和所述新交互的特征。
3.如权利要求2所述的方法,其中所述第一递归神经网络的所述输入还包括对应于所述第一用户节点的一个或多个邻居节点的一个或多个向量表示。
4.如权利要求3所述的方法,其中所述第一用户节点的所述一个或多个邻居节点包括一跳邻居或两跳邻居。
5.如权利要求1所述的方法,其中执行对所述未来交互的所述第一预测包括:
使用第三递归神经网络来确定基于自涉及所述第一用户节点的最近交互以来经过的时间量和当前时间的、针对所述第一用户节点的时间更新的向量表示,其中基于针对所述第一用户节点的所述时间更新的向量表示来预测所述未来交互。
6.如权利要求5所述的方法,其中预测所述未来交互包括:
使用第四递归神经网络和针对所述第一用户节点的所述时间更新的向量表示来预测向量;以及
从所述多个资源提供商节点中确定具有最接近所预测向量的向量表示的资源提供商节点,其中所述未来交互被预测为包括所述第一用户节点和所确定的资源提供商节点。
7.如权利要求6所述的方法,还包括:
由所述分析计算机执行对针对所述未来交互的特征的第二预测,其中使用第五递归神经网络和所述第五递归神经网络的输入来执行所述第二预测,所述第五递归神经网络的输入包括针对所述第一用户节点的所述更新向量表示和所确定的资源提供商节点的所述向量表示。
8.如权利要求7所述的方法,还包括:
由所述分析计算机执行对针对所述未来交互的结果的第三预测,使用第六递归神经网络和所述第六递归神经网络的输入来执行所述第三预测,所述第六递归神经网络的输入包括针对所述未来交互的所预测特征。
9.如权利要求8所述的方法,其中针对所述未来交互的所预测结果是批准概率。
10.如权利要求9所述的方法,其中执行所述动作包括向与所确定的资源提供商节点相关联的资源提供商通知所述未来交互、针对所述未来交互的所预测特征和所述批准概率中的至少一者。
11.如权利要求10所述的方法,其中通知包括提供采取一个或多个后续动作的建议,所述后续动作包括以下中的至少一者:当发起所述未来交互时提交交互以供批准、当发起所述未来交互时不提交所述交互以供批准,以及等待直到推荐的稍后时间来提交所述交互以供批准。
12.如权利要求11所述的方法,其中所述第一递归神经网络、所述第三递归神经网络、所述第四递归神经网络、所述第五递归神经网络和所述第六递归神经网络各自包括使用机器学习模型和已知历史交互数据来训练的对应习得系数。
13.如权利要求12所述的方法,还包括:
由所述分析计算机使用所述已知历史交互数据来训练所述第一递归神经网络、所述第三递归神经网络、所述第四递归神经网络、所述第五递归神经网络和所述第六递归神经网络中的每一者。
14.如权利要求13所述的方法,其中所述训练基于损失函数,所述损失函数包括被设计成最小化预测向量与对应的已知资源提供商向量之间的差值的项。
15.一种分析计算机,包括:
处理器;和
耦合到所述处理器的计算机可读介质,所述计算机可读介质包括代码,所述代码能够由所述处理器执行以用于实现包括以下的方法:
接收图,所述图包括针对多个用户的多个用户节点、针对多个资源提供商的多个资源提供商节点以及所述多个用户节点与所述多个资源提供商节点之间的多条交互边,所述交互边表示所述多个用户与所述多个资源提供商之间的多个交互;
提取数据集,所述数据集包括针对所述多个用户节点中的每一者和针对所述多个资源提供商节点中的每一者的初始向量表示;
响应于涉及所述第一用户节点的新交互,使用第一递归神经网络和针对来自所述多个用户节点的第一用户节点的初始向量表示来生成针对所述第一用户节点的更新向量表示;
基于针对所述第一用户节点的所述更新向量表示来执行对未来交互的第一预测;以及
基于所述未来交互来执行动作。
16.如权利要求15所述的分析计算机,其中所述图是二分图。
17.如权利要求15所述的分析计算机,其中来自所述多条交互边的每条交互边包括相关联的特征向量,所述特征向量包含一个或多个特征的值,所述一个或多个特征包括金额、时间、位置、类型和结果中的一者或多者。
18.如权利要求15所述的分析计算机,其中生成针对所述第一用户节点的所述更新向量表示基于所述第一递归神经网络的输入,其中所述第一递归神经网络的所述输入包括针对所述第一用户节点的所述初始向量表示、针对与所述新交互相关联的资源提供商节点的向量表示,和所述新交互的特征。
19.如权利要求18所述的分析计算机,其中所述第一递归神经网络的所述输入还包括对应于所述第一用户节点的一个或多个邻居节点的一个或多个向量表示。
20.如权利要求19所述的分析计算机,其中所述第一用户节点的所述一个或多个邻居节点包括一跳邻居或两跳邻居。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063081804P | 2020-09-22 | 2020-09-22 | |
US63/081,804 | 2020-09-22 | ||
PCT/US2021/051147 WO2022066587A1 (en) | 2020-09-22 | 2021-09-20 | Graph learning-based system with updated vectors |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116249987A true CN116249987A (zh) | 2023-06-09 |
Family
ID=80845786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180063357.2A Pending CN116249987A (zh) | 2020-09-22 | 2021-09-20 | 具有更新向量的基于图学习的系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230325630A1 (zh) |
CN (1) | CN116249987A (zh) |
WO (1) | WO2022066587A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118154282B (zh) * | 2024-05-11 | 2024-08-16 | 武汉纺织大学 | 基于图神经网络的多模态个性化服装推荐方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402750B2 (en) * | 2015-12-30 | 2019-09-03 | Facebook, Inc. | Identifying entities using a deep-learning model |
CN110580314A (zh) * | 2019-07-16 | 2019-12-17 | 华南师范大学 | 基于图卷积神经网络和动态权重的课程推荐方法和系统 |
CN110704692A (zh) * | 2019-09-12 | 2020-01-17 | 重庆大学 | 基于图嵌入的员工离职行为预测方法及装置 |
CN110955834B (zh) * | 2019-11-27 | 2023-07-07 | 西北工业大学 | 一种知识图谱驱动的个性化精准推荐方法 |
CN111400560A (zh) * | 2020-03-10 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 一种基于异构图神经网络模型进行预测的方法和系统 |
-
2021
- 2021-09-20 CN CN202180063357.2A patent/CN116249987A/zh active Pending
- 2021-09-20 US US18/044,552 patent/US20230325630A1/en active Pending
- 2021-09-20 WO PCT/US2021/051147 patent/WO2022066587A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022066587A9 (en) | 2023-04-20 |
WO2022066587A1 (en) | 2022-03-31 |
US20230325630A1 (en) | 2023-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11853854B2 (en) | Method of automating data science services | |
US11734607B2 (en) | Data clean-up method for improving predictive model training | |
US10984423B2 (en) | Method of operating artificial intelligence machines to improve predictive model training and performance | |
US20210073283A1 (en) | Machine learning and prediction using graph communities | |
US11423365B2 (en) | Transaction card system having overdraft capability | |
US20210264448A1 (en) | Privacy preserving ai derived simulated world | |
CN116194929A (zh) | 用于交易数据处理的机器学习系统的训练 | |
CA3045736A1 (en) | Digital banking platform and architecture | |
Kültür et al. | Hybrid approaches for detecting credit card fraud | |
WO2019213426A1 (en) | Event monitoring and response system and method | |
US12079814B2 (en) | Privacy-preserving graph compression with automated fuzzy variable detection | |
US20210174367A1 (en) | System and method including accurate scoring and response | |
CN117391313B (zh) | 基于ai的智能决策方法、系统、设备以及介质 | |
CN116452333A (zh) | 异常交易检测模型的构建方法、异常交易检测方法及装置 | |
CN115545886A (zh) | 逾期风险识别方法、装置、设备及存储介质 | |
US20230325630A1 (en) | Graph learning-based system with updated vectors | |
US20240161117A1 (en) | Trigger-Based Electronic Fund Transfers | |
US11921821B2 (en) | System and method for labelling data for trigger identification | |
US20230342426A1 (en) | System and method for training a machine learning model to label data for trigger identification | |
US11935060B1 (en) | Systems and methods based on anonymized data | |
US20230368013A1 (en) | Accelerated model training from disparate and heterogeneous sources using a meta-database | |
US20230367782A1 (en) | Graphical user interface enabling interactive visualizations using a meta-database constructed from autonomously scanned disparate and heterogeneous sources | |
US20240144091A1 (en) | Method of automating data science services | |
CN118468207B (zh) | 基于大数据的企业异常行为监测系统及方法 | |
Equihua Linares | Representation Learning Methods for Sequential Information in Marketing and Customer Level Transactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |