CN114091669A - 一种基于事件的图神经网络训练方法及装置 - Google Patents

一种基于事件的图神经网络训练方法及装置 Download PDF

Info

Publication number
CN114091669A
CN114091669A CN202111397085.8A CN202111397085A CN114091669A CN 114091669 A CN114091669 A CN 114091669A CN 202111397085 A CN202111397085 A CN 202111397085A CN 114091669 A CN114091669 A CN 114091669A
Authority
CN
China
Prior art keywords
event
target
neural network
time
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111397085.8A
Other languages
English (en)
Inventor
田胜
吴若凡
石磊磊
朱亮
熊涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202111397085.8A priority Critical patent/CN114091669A/zh
Publication of CN114091669A publication Critical patent/CN114091669A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书一个或多个实施例提供一种基于事件的图神经网络训练方法及装置。方法包括:确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;采用各个目标事件下涉事对象的事件三元组训练图神经网络。

Description

一种基于事件的图神经网络训练方法及装置
技术领域
本说明书一个或多个实施例涉及人工智能技术领域,尤其涉及一种基于事件的图神经网络训练方法及装置。
背景技术
图能够对多个对象彼此间的关联关系加以描述,可以广泛地表征社会生活中多种场景下人或事物间的关系结构,具有很高的应用价值。
不过,目前,相关技术中只是采用静态图去表征一些具有稳定关联关系的对象结构,没有考虑到真实场景下人或事物间的关系结构实际具有动态变化的特点。因为缺乏对时序特性的考量,基于静态图的训练方法适用性不够广泛,学习结果也不够准确。
发明内容
有鉴于此,本说明书一个或多个实施例提供一种基于事件的图神经网络训练方法及装置。
为实现上述目的,本说明书一个或多个实施例提供的技术方案如下:
根据本说明书一个或多个实施例的第一方面,提出了一种基于事件的图神经网络训练方法,所述方法包括:
确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;
针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;
基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;
采用各个目标事件下涉事对象的事件三元组训练图神经网络。
根据本说明书一个或多个实施例的第二方面,提出了一种基于事件的图神经网络训练装置,所述装置包括目标事件确定单元、事件图生成单元、事件三元组确定单元和图神经网络训练单元:
所述目标事件确定单元,确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;
所述事件图生成单元,针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;
所述事件三元组确定单元,基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;
所述图神经网络训练单元,采用各个目标事件下涉事对象的事件三元组训练图神经网络。
根据本说明书一个或多个实施例的第三方面,提出了一种电子设备,包括:处理器,和用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令实现上述第一方面所述的方法。
根据本说明书一个或多个实施例的第四方面,提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
由以上描述可以看出,本说明书中,在确定目标时段内发生的目标事件后,确定了各个目标事件的事发时间以及参与目标事件的涉事对象,针对每个涉事对象,基于发生在其所属目标事件的事发时间之前的其他目标事件为其生成事件图;由涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图确定目标事件下所述涉事对象的事件三元组,进而得到各个目标事件下涉事对象的事件三元组,采用各个目标事件下涉事对象的事件三元组训练用于获取事件三元组特征向量的图神经网络。
该技术方案基于事件进行图神经网络的训练:根据事件发生的时间先后,由在先发生的事件为在后发生的事件下的各个对象生成事件图,所述事件图能够体现本事件及既往事件中蕴含的与本对象相关的对象之间动态变化的关联关系,采用结合了对象、事发时间和事件图的三元组训练图神经网络,可以获取到含有时序特性的三元组的特征向量,在人或事物间关系结构频繁变化的应用场景下也能适用,且具有更高的准确性。
附图说明
图1是一示例性实施例提供的一种基于事件的图神经网络训练方法的流程图。
图2是一示例性实施例示出的生成涉事对象在事发时间的事件图的方法流程图。
图3是一示例性实施例示出的涉事对象在事发时间的事件图的示意图。
图4是一示例性实施例示出的采用事件三元组训练图神经网络的方法流程图。
图5是一示例性实施例示出的采用对比学习的方式对图神经网络进行训练的方法流程图。
图6是一示例性实施例示出的生成正样本的方法流程图。
图7是一示例性实施例示出的构建图神经网络的损失函数的方法流程图。
图8是一示例性实施例提供的一种电子设备的结构示意图。
图9是一示例性实施例提供的一种基于事件的图神经网络训练装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书一个或多个实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书一个或多个实施例的一些方面相一致的装置和方法的例子。
需要说明的是:在其他实施例中并不一定按照本说明书示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本说明书所描述的更多或更少。此外,本说明书中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本说明书中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
本说明书提供一种基于事件的图神经网络训练方法。
本说明书中所述的图,是图论意义下的图。不同于计算机视觉领域下由像素点构成的图像,图论意义下的图是一种用于描述对象间关联关系的结构,常见的,所述图可以是由节点以及节点之间的边构成的网状或树状结构。其中,一个节点即一个对象,节点属性表征着对象的属性;而任意两个节点可以由一条边加以连接,两个节点之间的边即两个对象之间的关联关系,边属性表征着两个对象之间关联关系的属性。
图能够广泛表征社会生活中多种场景下的关系结构,包括但不限于人之间的人际关系、以及企业之间的合作竞争关系。举例来说,以用户这一对象作为图中节点,用户的个人信息可以是对应的节点属性,而任意两个用户之间发生的一笔交易就是二者间的一种关联关系,即二者对应节点间的一条边,这笔交易发生的时间、往来的金额可以为对应的边属性。
目前,相关技术中,大多采用静态图描述某一时刻对象间既定不变的关联关系,并在所述静态图的基础上进行图神经网络训练,以获得表征所述静态图或图中节点及边的特征向量。但是,建立在静态图基础上的上述方案,始终只能针对某一时刻对象间既定不变的关联关系进行学习,忽视了对象之间的关系结构在多数真实场景下实际是动态变化的这一特点,无法对关系结构的时序特性加以考量,训练学习的结果不够准确,在一些关系结构变化频繁的应用场景中并不适用。
举例来说,在前文所述的以用户为图中节点、两个用户间发生的一笔交易为二者对应节点间的一条边的例子中,假设用户a与用户b在15:30这一时刻进行一笔交易,在这一时刻后用户a或用户b还可以再与其他用户进行新的交易,即,用户之间的交易关系结构可以频繁地发生变化。
用户a对应的节点A与用户b对应的节点B在15:30这一时刻建立一条连接二者的边,这条边随着交易结束很快便断开连接,用户a与用户b在17:00这一时刻再次进行一笔交易,则节点A与节点B在17:00这一时刻建立一条连接二者的新的边,这条边随着新的交易的结束断连。在这一场景下,相关技术中结合静态图的图神经网络训练方法,不能够体现用户交易的时序特性,如果希望基于历史交易对未来交易的合法性进行预测便难以达到理想的准确性。
因而,在类似上述关系结构频繁变化的应用场景下,如何在动态图基础上进行图神经网络训练以执行风控、推荐等措施成为亟待解决的技术问题。可以理解的是,上述应用场景仅仅用以示例说明,并不构成对本说明书技术方案的限制。
有鉴于此,本说明书提供一种基于事件的图神经网络训练方法,应用于任一可以执行图神经网络训练学习的电子设备,包括大型计算机和云服务器等。
请参考图1,图1为本说明书一示例性实施例提供的一种基于事件的图神经网络训练方法的流程图。
所述基于事件的图神经网络训练方法,可以包括如下具体步骤:
步骤102,确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象。
下面对事件、事件的事发时间以及参与事件的涉事对象进行相关的名词阐述。
在本说明书中,所述事件可以为任意对象之间关联关系的一次变化,能够表征实际应用场景中特定人或事物间在某一时刻产生、消失或改变的关联关系。要说明的是,在一些应用场景下,所述关联关系的变化也可以包括对象属性的改变,例如,在对象属性包括用户的账户余额的情况下,交易产生后交易双方的账户余额将会发生增减,因而所述关联关系的变化同时改变了对象属性。
而所述事件的事发时间可以为所述事件中关联关系变化的具体时刻;参与所述事件的涉事对象则可以为所述事件中关联关系变化涉及到的具体对象。
本实施例提供的基于事件的图神经网络训练方法中,执行训练的电子设备首先可以确定目标事件,所述目标事件可以为发生在预设的目标时段内的事件,确定所述目标事件的实现方式包括读取本地或获取数据库存储的所述目标时段内的日志文件等。可以理解的是,所述目标事件也可以是涉及到预设的目标对象的事件等,相应地,确定所述目标事件的实现方式则可以为读取本地或获取数据库存储的所述目标对象有关的日志文件。
所述目标时段内发生的目标事件的数量为一或多个,针对其中的每个目标事件,可以确定所述目标事件的事发时间,并确定参与所述目标事件的涉事对象及其对象属性。其中,不同目标事件的事发时间可以相同,也可以不同;而参与同一目标事件的涉事对象的数量可以为多个,比较常见的情况下为两个,参与不同目标事件的多个涉事对象可以全部相同或全部不同,也可以部分相同、部分不同。
举例来说,假设选用最近一周内用户a、b、c、d之间发生的交易作为目标时段内发生的目标事件,在得到相关日志后可以确定每笔交易的交易时间和交易用户,所述交易时间即事发时间,所述交易用户即涉事对象,因而也就确定了每个目标事件的事发时间和参与所述目标事件的涉事对象的对象属性。其中,在周一15:30这一时刻,用户a与用户b可以产生一笔交易,用户c与用户d也可以产生一笔交易,而在周一17:00这一时刻,用户a与用户b还可以产生一笔新的交易。
步骤104,针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图。
在确定每个目标事件的事发时间和涉事对象后,针对参与所述目标事件的每个涉事对象,生成所述涉事对象在所述事发时间的事件图。其中,同一目标事件下不同涉事对象的事件图并不相同,同一对象处在不同目标事件下的事件图也不相同;例如,针对15:30在用户a与用户b之间发生的交易,用户a对应生成的事件图不同于用户b对应生成的事件图,而对用户a而言,针对15:30发生的交易所生成的事件图不同于针对17:00发生的交易所生成的事件图。
为了向单一目标事件下的涉事对象引入其关系结构变化的时序特性,在生成所述涉事对象在所述事发时间的事件图时,将结合所述目标时段内发生在所述事发时间之前的其他目标事件。
生成所述事件图存在着多种可选择的实现方式,请参考图2,在一种可选择的实现方式下,生成所述涉事对象在所述事发时间的事件图,可以包括如下具体步骤:
步骤1042,针对待生成事件图的所述涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,确定所述涉事对象的邻居对象;所述邻居对象与所述涉事对象之间的连接路径的阶数不超出预设的阶数阈值。
所述涉事对象在所述事发时间的事件图为一张静态图,为了将与所述涉事对象相关的关联结构变化的信息整合于所述事件图中,首先可以确定所述事件图中包涵的节点,即确定所述涉事对象的邻居对象。
假设本目标事件中的其他涉事对象为所述事件图中本涉事对象的一阶邻居对象,一阶邻居对象与本涉事对象之间的连接路径为二者直连,而在本目标事件前发生的其他目标事件中,与所述一阶邻居对象处于同一目标事件的涉事对象即为本涉事对象的二阶邻居对象,二阶邻居对象与本涉事对象之间的连接路径则为所述二阶邻居对象与所述一阶邻居对象相连,所述一阶邻居对象再与本涉事对象相连。依次类推,可以确定本涉事对象在预设的阶数阈值以内的所有邻居对象以及与所述邻居对象之间的连接路径。其中,所述阶数阈值可以根据实际需求进行预先设置;同一对象可以既是本涉事对象的p阶邻居对象,又是本涉事对象的q阶邻居对象,且同一对象也可以因所处目标事件的不同,成为本涉事对象两个不同的p阶邻居对象。
举例来说,假设在15:30用户a与用户b发生一次交易,在此之前,用户a与用户c在14:50交易一次,用户b与用户c在14:30交易一次,用户a与用户b在14:00交易一次。
针对用户a确定其邻居对象及连接路径,则用户b在14:00、15:30的交易中均为用户a的一阶邻居对象,分别记为B(A,14:00)和B(A,15:30);用户c在14:30的交易中为用户b的一阶邻居对象C(B,14:50),即用户a的二阶邻居对象C(B(A,(14:00)),14:50);用户c在14:50的交易中为用户a的一阶邻居对象,记为C(A,14:50)。
步骤1044,基于所述涉事对象、所述涉事对象的邻居对象以及所述涉事对象与所述邻居对象之间的连接路径,生成所述涉事对象在所述事发时间的事件图。
在确定本涉事对象于预设的阶数阈值以内的各阶邻居对象及连接路径后,基于本涉事对象、本涉事对象的各阶邻居对象以及本涉事对象与各阶邻居对象之间的连接路径,生成本涉事对象在本目标事件事发时间的事件图。
请参考图3,基于前例,用户a在15:30的事件图中的对象属性为用户a在15:30的交易中诸如账户ID、账户余额等个人信息,而各阶邻居对象在图中的对象属性则为各阶邻居对象在各自交易中的个人信息,例如,一阶邻居对象B(A,14:00)在图中的对象属性为用户b在14:00的交易中的个人信息,用户a与各阶邻居对象之间依据连接路径以边相连,边属性可以为相连对象间交易的交易时间。
步骤106,基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组。
在得到各个目标事件下各个涉事对象的事件图后,针对每个目标事件下的每个涉事对象,确定所述涉事对象的事件三元组,进而得到各个目标事件下各个涉事对象的事件三元组。与前文所述的事件图相类似地,同一目标事件下不同涉事对象的事件三元组并不相同,同一对象处在不同目标事件下的事件三元组也不相同。
所述涉事对象的事件三元组,可以由所述涉事对象、所述目标事件的事发时间以及所述涉事对象在所述事发时间的事件图构成,一个事件三元组可以为图神经网络的一个训练样本,由目标时段内多个目标事件下不同的涉事对象的事件三元组可以得到一批训练样本。
步骤108,采用各个目标事件下涉事对象的事件三元组训练图神经网络,所述图神经网络用于获取所述事件三元组的特征向量。
在得到各个目标事件下各个涉事对象的事件三元组后,即得到了多个训练样本,可以进行图神经网络的训练,比较常见的,可以利用图神经网络将所述事件三元组映射至向量空间,训练获取所述事件三元组的特征向量。训练所述图神经网络的方式可以是有监督的,也可以无监督的,此处不做具体限制。
举例来说,针对每个事件三元组中,可以基于事件图中的各阶邻居对象,依照阶数由高至低的顺序,利用图编码器聚合得到涉事对象在事发时间的特征向量,训练所述图编码器直至其输出的所述特征向量达到收敛目标。其中,连接各阶邻居对象与涉事对象的边属性中包含的不同目标事件的事发时间,在聚合时可以采用其与本目标事件的事发时间之间的差值加以表示,例如前文所述的用户a的一阶邻居对象B(A,14:00),在聚合时连接节点A、B之间的边属性可以采用14:00与本目标事件的事发时间15:30之间的时间差值90分钟加以表示。
在一种可选择的实现方式下,完成图神经网络的训练后,已训练的所述图神经网络可以作为一个预训练模型,衔接各类下游任务。
例如,针对后续新时段内发生的新事件,可以参照步骤102至108得到各个事件下各个涉事对象的事件三元组,采用已训练的所述图神经网络输出所述涉事对象的事件三元组的特征向量,并以所述事件三元组的特征向量为输入结合分类模型进行端到端再训练,以实现风控、推荐等功能。
综上所述,本说明书中,在确定目标时段内发生的目标事件后,确定了各个目标事件的事发时间以及参与目标事件的涉事对象,针对每个涉事对象,基于发生在其所属目标事件的事发时间之前的其他目标事件为其生成事件图;由涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图确定目标事件下所述涉事对象的事件三元组,进而得到各个目标事件下涉事对象的事件三元组,采用各个目标事件下涉事对象的事件三元组训练用于获取事件三元组特征向量的图神经网络。
该技术方案基于事件进行图神经网络的训练:根据事件发生的时间先后,由在先发生的事件为在后发生的事件下的各个对象生成事件图,所述事件图能够体现本事件及既往事件中蕴含的与本对象相关的对象之间动态变化的关联关系,采用结合了对象、事发时间和事件图的三元组训练图神经网络,可以获取到含有时序特性的三元组的特征向量,在人或事物间关系结构频繁变化的应用场景下也能适用,且具有更高的准确性。
请参考图4,在一种可选择的实现方式下,所述用于获取事件三元组特征向量的图神经网络以对比学习的自监督方式实现,步骤108所述,采用各个目标事件下涉事对象的事件三元组训练图神经网络,可以包括如下具体步骤:
步骤1082,针对每个事件三元组,生成所述事件三元组的正样本和负样本;
步骤1084,基于所述正样本和所述负样本,采用对比学习的方式对所述图神经网络进行训练。
对比学习是一种自监督方式的训练学习,它通过构建锚点样本的正、负样本,并结合所述锚点样本与所述正、负样本之间的相似度对图神经网络加以训练。
其中,所述锚点样本为原始样本,即本说明书中的所述事件三元组。
所述正样本为基于所述锚点样本生成的与其差异微小的样本,它在向量空间中理论上应与所述锚点样本相距较近;而所述负样本则为基于所述锚点样本生成的与其差异巨大的样本,它在向量空间中理论上应与所述锚点样本相距较远。所述正样本的数量可以为一个,也可以为多个,同样地,所述负样本的数量可以为一个,也可以为多个,本说明书中对此不做具体限制。
采用对比学习的方式训练所述图神经网络的目标在于,提高所述图神经网络输出的正样本的特征向量与所述锚点样本的特征向量的相似度,并降低所述图神经网络输出的负样本的特征向量与所述锚点样本的特征向量的相似度。
在该实现方式下,采用对比学习方式训练所述图神经网络,无需对所述事件三元组进行标签设置,规避了事件三元组难以打标的问题,节约了进行样本打标的人力和时间,提高了学习效率,降低了学习成本。
请参考图5,在一个例子中,步骤1084所述,采用对比学习的方式对图神经网络进行训练,可以包括如下具体步骤:
步骤1084a,选取本轮迭代的锚点事件三元组,并基于上一轮迭代调整得到的图神经网络获取所述锚点事件三元组的特征向量;
步骤1084b,确定所述锚点事件三元组的正样本和负样本的特征向量。
采用对比学习的方式对图神经网络进行训练,所述图神经网络可以基于多个锚点事件三元组进行多轮迭代学习。其中,每轮迭代包括针对同一锚点事件三元组的多次迭代,每次迭代使用的所述锚点事件三元组的正、负样本可以相同,但每次迭代输出的所述锚点事件三元组以及所述正、负样本的特征向量可以不同。每轮迭代可以损失函数收敛为目标进行训练,针对本锚点事件三元组的本轮迭代中,如果某次迭代时损失函数收敛则可进入针对另一锚点事件三元组的下一轮迭代。
首先,可以确定本轮迭代的锚点事件三元组,基于上一轮迭代调整得到的图神经网络可以输出本轮迭代中首次迭代得到的所述锚点事件三元组的特征向量,将所述锚点事件三元组的特征向量记作x。
为与所述锚点事件三元组的特征向量进行对比学习,可以确定所述锚点事件三元组的正样本和负样本的特征向量,将所述锚点事件三元组的正样本的特征向量记作x+,将所述锚点事件三元组的负样本的特征向量记作x-
确定所述正样本的特征向量x+以及所述负样本的特征向量x-,存在多种可选择的实现方式。举例来说,可以从本轮迭代前已完成训练的各个锚点事件三元组中选取正、负样本,并使用所选取的锚点事件三元组已训练得到的特征向量作为所述正、负样本的特征向量;也可以构建新的事件三元组作为正、负样本,在本次迭代中针对新构建的事件三元组输出所述正、负样本的特征向量。
步骤1084c,基于所述锚点事件三元组的特征向量、以及所述锚点事件三元组的正样本和负样本的特征向量,确定本次迭代中所述图神经网络的损失函数是否收敛;所述损失函数以锚点事件三元组与正样本的特征向量相似度最大化,与负样本的特征向量相似度最小化为收敛目标构建;
步骤1084d,若不收敛,则对所述图神经网络的模型参数进行调整并进入本轮迭代的下一次迭代;
步骤1084e,若收敛,则结束本轮迭代,重新选取新的锚点事件三元组并进入下一轮迭代。
在得到所述锚点事件三元组的特征向量x,所述正样本的特征向量x+,以及所述负样本的特征向量x-后,可以带入所述图神经网络的损失函数进行计算并判断本次迭代中所述损失函数是否收敛。其中,在以对此学习的方式训练图神经网络的情况下,所述图神经网络的损失函数以锚点事件三元组与正样本的特征向量相似度最大化,与负样本的特征向量相似度最小化为收敛目标加以构建,构建所述损失函数存在多种可选择的实现方式,本说明书中对此不做具体限制。
如果所述损失函数收敛,则说明本次迭代后,基于当前模型参数,所述图神经网络可以输出所述锚点事件三元组相对准确的特征向量,本轮迭代结束,本次迭代为本轮迭代中的最后一次迭代,当前模型参数即为本轮迭代调整得到的模型参数,进入下一轮针对其他锚点事件三元组的迭代学习后,下一轮迭代的首次迭代中锚点事件三元组的特征向量可以由所述图神经网络基于当前模型参数输出。
如果所述损失函数不收敛,则说明本次迭代后,所述图神经网络的模型参数还不能输出所述锚点事件三元组相对准确的特征向量,可以对所述图神经网络的模型参数进行调整并进入下一次迭代,下一次迭代将基于本次迭代调整后的所述图神经网络输出特征向量,并再次判断损失函数是否收敛,直至收敛后结束本轮迭代。其中,对所述图神经网络的模型参数进行调整存在多种可选择的实现方式,本说明书中对此不做具体限制。
针对每个锚点事件三元组生成所述锚点事件三元组的正、负样本,存在着多种可选择的实现方式,请参考图6,在一个例子中,步骤1082所述,生成事件三元组的正样本,可以包括如下具体步骤:
步骤1082a,基于所述事件三元组中的事发时间,确定正样本时间;所述正样本时间在所述事发时间之前;
步骤1082b,基于所述目标时段内发生在所述正样本时间之前的目标事件,生成所述涉事对象在所述正样本时间的正样本事件图;
步骤1082c,基于涉事对象、正样本时间以及所述涉事对象在所述正样本时间的正样本事件图,确定所述事件三元组的正样本。
基于锚点事件三元组,可以生成一个新的事件三元组作为所述锚点事件三元组的正样本,所述正样本中的涉事对象应与所述锚点事件三元组中的涉事对象相一致,考虑到同一涉事对象在短时间内关联结构的变化较小,可以基于锚点事件三元组中的事发时间确定正样本时间,并基于正样本时间进一步确定所述正样本。
所述正样本时间可以在所述事发时间之前,确定所述正样本时间存在多种可选择的实现方式,本说明书中对此不做具体限制。举例来说,所述正样本时间可以是处于锚点事件三元组中事发时间之前、且与所述事发时间相距预设时长的一时间点。
在确定正样本中的涉事对象以及正样本时间后,可以基于所述目标时段内发生在所述正样本时间之前的目标事件,生成所述涉事对象在所述正样本时间的正样本事件图,并由所述涉事对象、所述正样本时间以及所述涉事对象在所述正样本时间的正样本事件图构成所述正样本,生成所述正样本事件图并构建正样本的实现方式,可以参见前文,此处不再赘述,而后续的步骤1084b中,同锚点事件三元组相一致,本次迭代中所述正样本的特征向量x+可以通过图神经网络输出得到。
在另一个例子中,预先设置有负样本队列,所述负样本队列中可以存储多个事件三元组的特征向量,步骤1084b所述,确定所述锚点事件三元组的负样本的特征向量,可以选取所述负样本队列中的特征向量作为所述负样本的特征向量,不再需要通过图神经网络输出得到。
所述负样本队列可以存储各轮迭代完成后所述图神经网络输出的锚点事件三元组的特征向量作为后续各轮迭代中使用的负样本的特征向量。
所述基于时间的图神经网络的训练方法,还可以包括:
在确定本次迭代中所述图神经网络的损失函数收敛后,采用本次迭代中所述图神经网络输出的所述锚点事件三元组的特征向量对所述负样本队列中的特征向量进行更新;结束本轮迭代后,下一轮迭代中新的锚点事件三元组的负样本的特征向量从更新后的负样本队列中选取。
举例来说,假设进行针对事件三元组i的第i轮迭代,在所述第i轮迭代的最后一次迭代中,所述图神经网络的损失函数收敛,可以将此次迭代中所述图神经网络输出的所述事件三元组i的特征向量xi存储至负样本队列中,然后结束所述第i轮迭代,开启针对事件三元组i+1的第i+1轮迭代;依次类推,不再赘述。
其中,所述负样本队列中所存储特征向量的数量可以预先设置,假设所述负样本队列中存储4096个特征向量,则可以使用第4097轮训练而得的特征向量x4097淘汰所述负样本队列中最久远的特征向量x1,以不断更新所述负样本队列中的特征向量;在第4098轮迭代中,可以使用所述负样本队列中的特征向量x2至x4097作为本轮事件三元组的负样本的特征向量,从而使得每轮迭代所使用的负样本特征向量更为准确,提升所述图神经网络训练的准确性。
前文所述从负样本队列中选取其他锚点事件三元组已训练得到的特征向量作为本轮迭代中负样本的特征向量,虽然提供了一种能够高效获取负样本特征向量的方法,但是从所述负样本队列中随机选取的负样本存在着取伪问题,即,从所述负样本队列中随机选取的特征向量x’可能实际并非锚点事件三元组的负样本的特征向量x-,而是正样本的特征向量x+,这种负样本取样偏差可能导致图神经网络训练的准确性下降。
此外,在采用对比学习的方式训练图神经网络的过程中,相关技术还存在着忽略负样本强弱性的问题。同一锚点事件三元组的负样本在向量空间中与所述锚点事件三元组的距离越近则越强,距离越远则越弱,换言之,与所述锚点事件三元组在特征向量的表达上越相似的负样本越强。强负样本的学习难度更高,在对比学习中强调强负样本的价值能够带来更佳的学习效果。
请参考图7,在一种可选择的实现方式下,为解决上述问题,提高图神经网络训练的准确性,可以对所述图神经网络的损失函数进行修正,所述图神经网络的损失函数的构建过程,可以包括如下具体步骤:
步骤702,基于负样本队列中事件三元组的特征向量与锚点事件三元组的特征向量之间的相似度,确定所述负样本队列中事件三元组的负样本有效因子。
假设,负样本队列中事件三元组的特征向量x′,与锚点事件三元组的特征向量x之间的相似度为sim(x,x’),基于sim(x,x′)确定负样本有效因子eβsim(x,x′),其中β为可以预先设置的超参数。
步骤704,基于所述负样本有效因子,确定所述负样本队列中事件三元组的概率分布。
假设,负样本队列中事件三元组特征向量x′的概率分布为p(x’),确定特征向量x’的概率分布p(x’)正比于负样本有效因子eβsim(x,x′)
步骤706,采用所述负样本队列中事件三元组的概率分布以及正样本的概率分布,对所述图神经网络原始的损失函数中负样本的概率分布进行换算,得到修正后的损失函数,以降低从负样本队列中选取锚点事件三元组的负样本的取样偏差。
假设,负样本队列中事件三元组的概率分布符合均匀分布,随机选取到的特征向量x′为正样本的概率为τ+,为负样本的概率为(1-τ+),正样本的概率分布为p(x+),负样本的概率分布为p(x-),则可以确定p(x’)=τ+×p(x+)+(1-τ+)×p(x-),可得负样本的概率分布为p(x-)=1/(1-τ+)×(p(x’)-τ+×p(x+))。
基于所述特征向量x′的概率分布p(x′)正比于负样本有效因子eβsim(x,x′),以及所述特征向量x’概率分布p(x′)与正样本概率分布为p(x+)、负样本概率分布为p(x-)间的关系,可以对原始损失函数中有关负样本的部分进行换算,从而得到修正后的损失函数。
举例来说,假设原始的损失函数如公式(1)所示:
Figure BDA0003370703390000111
其中,Ex表示数学期望,x+~P+表示x+服从P+概率分布,x-~P-表示x-服从P-概率分布。
经过上述修正,公式(1)中
Figure BDA0003370703390000112
的部分可以换算如公式(2)所示:
Figure BDA0003370703390000113
其中,Zβ=Ey~P(esim(x,y)),
Figure BDA0003370703390000114
假设,待训练的锚点样本x属于集合X{x1,...,xN},N为锚点样本数量,任一锚点样本x拥有正样本
Figure BDA0003370703390000115
及负样本
Figure BDA0003370703390000116
Npos为正样本数量,Nneg为负样本数量。换算而得的修正后的损失函数如公式(3)所示:
Figure BDA0003370703390000117
使用修正后的损失函数对所述图神经网络进行训练,可以消除所述负样本取样偏差的影响,同时,在概率分布中引入负样本有效因子esim(x,x′),也使得负样本的强弱性在学习中能够得到体现,提高了图神经网络训练的准确性。
图8是一示例性实施例提供的一种电子设备的示意结构图。请参考图8,在硬件层面,该设备包括处理器802、内部总线804、网络接口806、内存808以及非易失性存储器810,当然还可能包括其他业务所需要的硬件。本说明书一个或多个实施例可以基于软件方式来实现,比如由处理器802从非易失性存储器810中读取对应的计算机程序到内存808中然后运行。当然,除了软件实现方式之外,本说明书一个或多个实施例并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
请参考图9,图9为一示例性实施例提供的一种基于事件的图神经网络训练装置。所述基于事件的图神经网络训练装置可以应用于如图8所示的电子设备中,以实现本说明书中的技术方案。其中,所述基于事件的图神经网络训练装置,可以包括目标事件确定单元910、事件图生成单元920、事件三元组确定单元930和图神经网络训练单元940:
所述目标事件确定单元910,确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;
所述事件图生成单元920,针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;
所述事件三元组确定单元930,基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;
所述图神经网络训练单元940,采用各个目标事件下涉事对象的事件三元组训练图神经网络。
可选地,所述事件图生成单元920,在生成所述涉事对象在所述事发时间的事件图时,具体用于:
针对待生成事件图的所述涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,确定所述涉事对象的邻居对象;所述邻居对象与所述涉事对象之间的连接路径的阶数不超出预设的阶数阈值;
基于所述涉事对象、所述涉事对象的邻居对象以及所述涉事对象与所述邻居对象之间的连接路径,生成所述涉事对象在所述事发时间的事件图。
可选地,所述图神经网络训练单元940,在采用各个目标事件下涉事对象的事件三元组训练图神经网络时,具体用于:
针对每个事件三元组,生成所述事件三元组的正样本和负样本;
基于所述正样本和所述负样本,采用对比学习的方式对所述图神经网络进行训练。
可选地,所述图神经网络训练单元940,在生成所述事件三元组的正样本时,具体用于:
基于所述事件三元组中的事发时间,确定正样本时间;所述正样本时间在所述事发时间之前;
基于所述目标时段内发生在所述正样本时间之前的目标事件,生成所述涉事对象在所述正样本时间的正样本事件图;
基于涉事对象、正样本时间以及所述涉事对象在所述正样本时间的正样本事件图,确定所述事件三元组的正样本。
可选地,所述图神经网络训练单元940,在采用对比学习的方式对所述图神经网络进行训练时,具体用于:
选取本轮迭代的锚点事件三元组,并基于上一轮迭代调整得到的图神经网络获取所述锚点事件三元组的特征向量;
确定所述锚点事件三元组的正样本的特征向量、以及所述锚点事件三元组的负样本的特征向量;
基于所述锚点事件三元组的特征向量、以及所述正样本的特征向量和所述负样本的特征向量,确定本次迭代中所述图神经网络的损失函数是否收敛;所述损失函数以锚点事件三元组与正样本的特征向量相似度最大化,与负样本的特征向量相似度最小化为收敛目标构建;
若不收敛,则对所述图神经网络的模型参数进行调整并进入本轮迭代的下一次迭代;
若收敛,则结束本轮迭代,重新选取新的锚点事件三元组并进入下一轮迭代。
可选地,所述装置预先设置有负样本队列,所述负样本队列中存储有多个事件三元组的特征向量;
所述图神经网络训练单元940,在确定所述锚点事件三元组的负样本的特征向量时,具体用于:
从所述负样本队列中选取用作所述锚点事件三元组的负样本的特征向量;
所述装置还包括:
负样本更新单元950,在确定本次迭代中所述图神经网络的损失函数收敛后,采用本次迭代中获取到的所述锚点事件三元组的特征向量对所述负样本队列中的特征向量进行更新。
可选地,所述图神经网络的损失函数的构建过程,包括:
基于负样本队列中事件三元组的特征向量与锚点事件三元组的特征向量之间的相似度,确定所述负样本队列中事件三元组的负样本有效因子;
基于所述负样本有效因子,确定所述负样本队列中事件三元组的概率分布;
采用所述负样本队列中事件三元组的概率分布以及正样本的概率分布,对所述图神经网络原始的损失函数中负样本的概率分布进行换算,得到修正后的损失函数,以降低从负样本队列中选取锚点事件三元组的负样本的取样偏差并引入负样本的强弱性。
可选地,所述装置还包括:
特征向量获取单元960,在完成所述图神经网络的训练后,采用已训练的所述图神经网络获取各个事件下涉事对象的事件三元组的特征向量。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
在一个典型的配置中,计算机包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带、磁盘存储、量子存储器、基于石墨烯的存储介质或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在本说明书一个或多个实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
以上所述仅为本说明书一个或多个实施例的较佳实施例而已,并不用以限制本说明书一个或多个实施例,凡在本说明书一个或多个实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例保护的范围之内。

Claims (11)

1.一种基于事件的图神经网络训练方法,所述方法包括:
确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;
针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;
基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;
采用各个目标事件下涉事对象的事件三元组训练图神经网络。
2.根据权利要求1所述的方法,所述生成所述涉事对象在所述事发时间的事件图,包括:
针对待生成事件图的所述涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,确定所述涉事对象的邻居对象;所述邻居对象与所述涉事对象之间的连接路径的阶数不超出预设的阶数阈值;
基于所述涉事对象、所述涉事对象的邻居对象以及所述涉事对象与所述邻居对象之间的连接路径,生成所述涉事对象在所述事发时间的事件图。
3.根据权利要求1所述的方法,所述采用各个目标事件下涉事对象的事件三元组训练图神经网络,包括:
针对每个事件三元组,生成所述事件三元组的正样本和负样本;
基于所述正样本和所述负样本,采用对比学习的方式对所述图神经网络进行训练。
4.根据权利要求3所述的方法,所述生成所述事件三元组的正样本,包括:
基于所述事件三元组中的事发时间,确定正样本时间;所述正样本时间在所述事发时间之前;
基于所述目标时段内发生在所述正样本时间之前的目标事件,生成所述涉事对象在所述正样本时间的正样本事件图;
基于涉事对象、正样本时间以及所述涉事对象在所述正样本时间的正样本事件图,确定所述事件三元组的正样本。
5.根据权利要求3所述的方法,所述采用对比学习的方式对所述图神经网络进行训练,包括:
选取本轮迭代的锚点事件三元组,并基于上一轮迭代调整得到的图神经网络获取所述锚点事件三元组的特征向量;
确定所述锚点事件三元组的正样本的特征向量、以及所述锚点事件三元组的负样本的特征向量;
基于所述锚点事件三元组的特征向量、以及所述正样本的特征向量和所述负样本的特征向量,确定本次迭代中所述图神经网络的损失函数是否收敛;所述损失函数以锚点事件三元组与正样本的特征向量相似度最大化,与负样本的特征向量相似度最小化为收敛目标构建;
若不收敛,则对所述图神经网络的模型参数进行调整并进入本轮迭代的下一次迭代;
若收敛,则结束本轮迭代,重新选取新的锚点事件三元组并进入下一轮迭代。
6.根据权利要求5所述的方法,预先设置有负样本队列,所述负样本队列中存储有多个事件三元组的特征向量;
所述确定所述锚点事件三元组的负样本的特征向量,包括:
从所述负样本队列中选取用作所述锚点事件三元组的负样本的特征向量;
所述方法还包括:
在确定本次迭代中所述图神经网络的损失函数收敛后,采用本次迭代中获取到的所述锚点事件三元组的特征向量对所述负样本队列中的特征向量进行更新。
7.根据权利要求6所述的方法,所述图神经网络的损失函数的构建过程,包括:
基于负样本队列中事件三元组的特征向量与锚点事件三元组的特征向量之间的相似度,确定所述负样本队列中事件三元组的负样本有效因子;
基于所述负样本有效因子,确定所述负样本队列中事件三元组的概率分布;
采用所述负样本队列中事件三元组的概率分布以及正样本的概率分布,对所述图神经网络原始的损失函数中负样本的概率分布进行换算,得到修正后的损失函数,以降低从负样本队列中选取锚点事件三元组的负样本的取样偏差并引入负样本的强弱性。
8.根据权利要求1所述的方法,还包括:
在完成所述图神经网络的训练后,采用已训练的所述图神经网络获取各个事件下涉事对象的事件三元组的特征向量。
9.一种基于事件的图神经网络训练装置,所述装置包括目标事件确定单元、事件图生成单元、事件三元组确定单元和图神经网络训练单元:
所述目标事件确定单元,确定目标时段内发生的目标事件,针对每个目标事件,确定所述目标事件的事发时间以及参与所述目标事件的涉事对象;
所述事件图生成单元,针对参与所述目标事件的每个涉事对象,基于所述目标时段内发生在所述事发时间之前的目标事件,生成所述涉事对象在所述事发时间的事件图;
所述事件三元组确定单元,基于涉事对象、事发时间以及所述涉事对象在所述事发时间的事件图,确定所述目标事件下所述涉事对象的事件三元组,得到各个目标事件下涉事对象的事件三元组;
所述图神经网络训练单元,采用各个目标事件下涉事对象的事件三元组训练图神经网络。
10.一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令实现权利要求1-8中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8中任一项所述的方法。
CN202111397085.8A 2021-11-23 2021-11-23 一种基于事件的图神经网络训练方法及装置 Pending CN114091669A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111397085.8A CN114091669A (zh) 2021-11-23 2021-11-23 一种基于事件的图神经网络训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111397085.8A CN114091669A (zh) 2021-11-23 2021-11-23 一种基于事件的图神经网络训练方法及装置

Publications (1)

Publication Number Publication Date
CN114091669A true CN114091669A (zh) 2022-02-25

Family

ID=80303479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111397085.8A Pending CN114091669A (zh) 2021-11-23 2021-11-23 一种基于事件的图神经网络训练方法及装置

Country Status (1)

Country Link
CN (1) CN114091669A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112085293A (zh) * 2020-09-18 2020-12-15 支付宝(杭州)信息技术有限公司 训练交互预测模型、预测交互对象的方法及装置
CN113076422A (zh) * 2021-04-15 2021-07-06 国家计算机网络与信息安全管理中心 一种基于联邦图神经网络的多语种社交事件检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112085293A (zh) * 2020-09-18 2020-12-15 支付宝(杭州)信息技术有限公司 训练交互预测模型、预测交互对象的方法及装置
CN113076422A (zh) * 2021-04-15 2021-07-06 国家计算机网络与信息安全管理中心 一种基于联邦图神经网络的多语种社交事件检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHENG TIAN等: "Self-supervised Representation Learning on Dynamic Graphs", 《ACM》 *

Similar Documents

Publication Publication Date Title
US20210256403A1 (en) Recommendation method and apparatus
CN107545889B (zh) 适用于模式识别的模型的优化方法、装置及终端设备
US20230267730A1 (en) Image abnormality detection model training
CN111639687B (zh) 一种模型训练以及异常账号识别方法及装置
CN110740194B (zh) 基于云边融合的微服务组合方法及应用
US20210065011A1 (en) Training and application method apparatus system and stroage medium of neural network model
CN115688913A (zh) 一种云边端协同个性化联邦学习方法、系统、设备及介质
CN112381216A (zh) 混合图神经网络模型的训练、预测方法和装置
CN113868523A (zh) 推荐模型训练方法、电子设备及存储介质
CN113487326B (zh) 基于智能合约的交易限制参数设置方法及装置
CN112836829B (zh) 一种个性化的隐私保护学习方法、装置以及设备
CN117521783B (zh) 联邦机器学习方法、装置、存储介质及处理器
CN111726592B (zh) 获取图像信号处理器的架构的方法和装置
CN114091669A (zh) 一种基于事件的图神经网络训练方法及装置
CN110889316B (zh) 一种目标对象识别方法、装置及存储介质
CN116258923A (zh) 图像识别模型训练方法、装置、计算机设备和存储介质
Timofeeva et al. Forecasting credit portfolio components with a Markov chain model
CN112434552A (zh) 神经网络模型调整方法、装置、设备及存储介质
CN113379392A (zh) 一种众包场景中针对数值任务获取高质量数据的方法
Reverdy Human-inspired algorithms for search A framework for human-machine multi-armed bandit problems
CN111767934A (zh) 一种图像识别方法、装置及电子设备
JP2020144411A (ja) 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム
CN117557870B (zh) 基于联邦学习客户端选择的分类模型训练方法及系统
US20240233357A1 (en) Learning apparatus and learning method
JP7283566B2 (ja) モデル生成システム、方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220225

RJ01 Rejection of invention patent application after publication