CN113326443A - 一种高效的图卷积神经网络重训练方法 - Google Patents
一种高效的图卷积神经网络重训练方法 Download PDFInfo
- Publication number
- CN113326443A CN113326443A CN202110587163.4A CN202110587163A CN113326443A CN 113326443 A CN113326443 A CN 113326443A CN 202110587163 A CN202110587163 A CN 202110587163A CN 113326443 A CN113326443 A CN 113326443A
- Authority
- CN
- China
- Prior art keywords
- neural network
- node
- graph
- graph convolution
- convolution neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种高效的图卷积神经网络重训练方法,包括:对于上一时刻已经训练好的图卷积神经网络,获取每个节点历史时刻总的积累度;对于每个节点,利用其邻接节点历史时刻总的积累度,计算能够概括历史数据中知识的各节点表征表示;再利用当前时刻收集到的新数据构建增量图,结合增量图以及各节点表征表示,采用增量图卷积操作更新图卷积神经网络的参数。该方法利用图卷积神经网络自身的邻居聚合机制,直接从旧模型参数中提取旧知识,在只使用新数据的条件下精确、高效地完成重训练任务,该方法使得重训练模型的成本大大降低,模型性能比较原始的重训练方法显著提高。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及一种高效的图卷积神经网络重训练方法。
背景技术
近年来,随着图卷积神经网络的优异表现,图卷积神经网络模型被广泛应用于机器学习任务中,由于其良好的协同关系建模能力使得其被越来越多地运用在协同过滤推荐系统中。真实推荐场景下,新数据不断产生,用户兴趣持续变化,为了保证推荐系统的性能往往需要维持模型的不断更新。桎梏于图卷积神经网络远高于传统机器模型的训练成本,以及大数据背景下庞大的数据增量,想要高效地、高频率地更新图推荐模型非常困难,传统的重训练方法成本过高几乎不可能实现。
部分研究尝试只使用新增数据,或在此基础上额外增加少量历史数据参与模型重训练。虽然这一方法很好地避免了高昂的重训练成本,使得高频率更新图推荐模型成为可能,但是由于其对历史数据的抛弃、采样等操作,必然导致旧数据中蕴含的历史知识遭受损失,很难在重训练旧图卷积神经网络保障模型的性能。
发明内容
本发明的目的是提供一种高效的图卷积神经网络重训练方法,可以从旧的图卷积神经网络模型中提取知识,使得在重训练图推荐模型时仅利用新数据就可以保留用户的长期兴趣并使得模型的重训练成本大大下降,同时能够使得模型性能达到最优。
本发明的目的是通过以下技术方案实现的:
一种高效的图卷积神经网络重训练方法,包括:
对于上一时刻已经训练好的图卷积神经网络,获取每个节点历史时刻总的积累度;对于每个节点,利用其邻接节点历史时刻总的积累度,计算能够概括历史数据中知识的各节点表征表示;
再利用当前时刻收集到的新数据构建增量图,结合增量图以及各节点表征表示,采用增量图卷积操作更新图卷积神经网络的参数;
其中,当图卷积神经网络为图推荐模型时,当前时刻收集到的新数据为产生于上一时刻至当前时刻之间的用户与商品的交互数据。
由上述本发明提供的技术方案可以看出,利用图卷积神经网络自身的邻居聚合机制,直接从旧模型参数中提取旧知识,在只使用新数据的条件下精确、高效地完成重训练任务,该方法使得重训练模型的成本大大降低,模型性能比较原始的重训练方法显著提高。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种高效的图卷积神经网络重训练方法的流程图;
图2为本发明实施例提供的增量图生成示意图;
图3为本发明实施例提供的增量图卷积操作(IGC)示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
考虑到图卷积神经网络虽然有强劲的性能,但是由于其将数据显式建模在模型框架中的缘故而难以被重训练,因此,本发明实施例提供一种高效的图卷积神经网络重训练方法,如图1所示,其主要包括:对于上一时刻已经训练好的图卷积神经网络,获取每个节点历史时刻总的积累度;对于每个节点,利用其邻接节点历史时刻总的积累度,计算能够概括历史数据中知识的各节点表征表示;再利用当前时刻收集到的新数据构建增量图,结合增量图以及各节点表征表示,采用增量图卷积操作更新图卷积神经网络的参数。
上述重训练流程与传统训练方式最大的不同点就是其流式结构,借助这一流式结构可以保证随着数据的不断更新模型参数持续更新,并为系统提供持续不断的服务;假设上一时刻t-1已经训练好的图卷积神经网络的参数是Wt-1,可以利用Wt-1和历史积累的度di,0~t-1直接计算出各节点表征表示再结合增量图GΔt,更新得到t时刻的图卷积神经网络的参数Wt,参数Wt可对下一时刻t+1的数据Dt+1服务,可以利用数据Dt+1进行网络模型的性能测试;同时,可以采用相同的方式利用数据Dt+1对Wt进行更新,实现流式训练。对于图卷积神经网络而言,神经网络模型的权重Wt即为t时刻图中所有节点的第0层表征表示拼接而成的矩阵构成,及
本发明实施例提供的上述方案,可以应用到大型电商或短视频平台的图推荐模型(属于一种卷积神经网络)中,在不改变原推荐模型的基础上,加速对原模型的重训练,并使模型可以兼顾用户长短期兴趣,在上线时取得更优的推荐效果。
为了便于理解,下面针对结合模型新旧知识的增量图卷积操作进行详细的介绍。
结合模型新旧知识的增量图卷积操作是通过跨时间阶段的节点新旧表征融合框架来实现,框架的输入是和GΔt。代表上一时间节点t-1时刻旧的图卷积神经网络模型输出的i节点在图卷积神经网络(GCN)第l层的表征,GΔt表示当前时刻新收集到的数据所构建成的图数据。主要分为如下三个阶段:
1、节点表征表示计算。
本发明实施例中,直接从旧的GCN(图卷积神经网络)模型参数中获取足以概括历史数据中知识的各节点表征表示,其公式为:
其中,表示节点i到t-1时刻为止的全体邻居节点;di,0~t-1、dj,0~t-1各自表示从0时刻到t-1时刻为止,节点i、节点j总的积累度;表示t-1时刻图卷积神经网络输出的节点i在图卷积神经网络第l+1层的表征;表示表示t-1时刻图卷积神经网络输出的节点i在图卷积神经网络第l层的表征。
2、构建增量图。
如图2所示,直接利用当前时刻t新收集到的数据Dt构建增量图GΔt。
如图2所示,本专利使用新收集到的仅产生于t-1和t时刻之间的用户、商品交互数据Dt来构建增量图GΔt。GΔt为用户商品二部图,即用户和商品都会以“节点”的形式表示在图中,某一用户和某一商品间如果存在交互记录,则对应的两个节点间会存在一条“边”。
本领域技术人员可以理解,用户、商品交互数据通常以(UserID,ItemID)这样的U/I对的格式用文本记录在txt中。
本领域技术人员可以理解,增量图GΔt可以采用常规方式的图构建方式来构建,增量图的构建与普通图的构建的区别在于:增量图只涉及新数据,普通图涉及全部的数据。
3、增量图卷积操作(IGC)。
如图3所示,在从历史GCN模型参数中获得可以概括历史知识的表征表示的前提下,通过结合增量图GΔt,即可直接使用增量图卷积操作来进行对模型的重训练。
其中,表示通过增量图卷积操作得到的当前时刻t图卷积神经网络输出的节点i在图卷积神经网络第l+1层的表征,表示节点i的表征表示,表示节点i到t-1时刻为止的全体邻居节点;di,0~t-1表示从0时刻到t-1时刻为止节点i总的积累度,表示t-1时刻图卷积神经网络输出的节点i在图卷积神经网络第l+1层的表征;表示表示当前时刻t图卷积神经网络输出的节点j在图卷积神经网络第l层的表征,d′i,t、dj′,t各自表示对增量图中节点i、节点j的图卷积约束程度。
值得注意的是在上述增量图卷积操作的公式中代表历史知识的部分(即 )是不参与训练的固定参数,这一操作可以很好地避免历史数据被新数据的持续引入不断稀释,同时很好大大降低了重训练的成本。公式中的Agg(·)代表任意的一种邻居聚合方式,示例性的,可以使用一层结构的卷积神经网络(CNN)来实现这一操作,在保证复杂度不增加的前提下达到了最优表现。公式中的d′i,t可以由增量图卷积操作的度同步器(DS)生成。
大量的图学习研究表明,对于图卷积神经网络框架来说一个合适的度约束框架对模型的性能起着决定性的影响。考虑到在动态的图结构数据中,不同的节点既会有不同的当前时刻度di,t,又会有不同的历史积累度di,0~t-1,本发明提出了一种端到端的度同步器来捕获这一差异,通过如下公式来生成对增量图中节点的图卷积约束程度:
d′i,t=β·di,0~t-1+di,t
其中,β为可学习的参数,由推荐系统原本的误差直接进行监督;di,t为通过增量图得到的当前时刻t节点i的度。这样,可以保证在不增加训练成本的前提下,直接通过机器学习的方法智能地、灵活地捕获不同数据中的不同特点,生成合适的d′i,t用来约束在增量图中进行的增量图卷积操作。
通过上述增量图卷积操作的公式可以得到当前时刻t各节点在每个层(第1层至最后一层)的表征,综合所有层的表征,结合图卷积神经网络的损失函数进行反向传播,从而得到当前时刻t各节点在第0层表征表示向量再拼接为矩阵作为更新后的网络权重参数此处所涉及的损失函数以及反向传播可直接参照常规技术,本发明不做赘述。
本领域技术人员可以理解,图卷积神经网络第0层是指“l=0”。每一次迭代中,图神经网络中第l层的输入是第l-1层的输出,第l层的输出作为第l+1层的输入,也就是说,l=1时,输入的是来自第0层的数据输出的作为第2层的输入。考虑到l的取值是从0开始,但是,运算是从第1层开始,因此,图3从第1层开始绘制。
本发明实施例上述方案,利用图卷积神经网络自身的邻居聚合机制,直接从旧模型参数中提取旧知识,在只使用新数据的条件下精确、高效地完成重训练任务,该方法使得重训练模型的成本大大降低,模型性能比较原始的重训练方法显著提高。
为了验证本发明的性能,进行了相关实验。
实验中,以SOTA的图推荐模型LightGCN为基础推荐模型,选取两个公开不同类型的数据集Yelp,Gowalla进行实验。以Full-Retrain LightGCN以及Caser作为对比模型。按照时间顺序将Yelp和Gowalla数据集划分为40份,到达阶段t时,在Dt中训练Caser及IGC-LightGCN模型,在{D0,D1…,Dt}中训练Full-Retrain LightGCN模型,并在Dt+1中进行测试。分别统计Yelp和Gowalla最后10个阶段的平均性能,以Recall@5及NDCG@5作为度量,比较结果如表1所示。
表1不同方法在两个数据集上的性能比较
从表1中,可以发现:在两种不同类型的数据集上,本发明在所有指标都超越Full-RetrainLightGCN,说明本发明可以利用更少的数据、更少的训练时间开销和存储开销却可以获得更优的推荐效果。与SOTA的非图推荐模型Caser、SML-MF和SOTA的图推荐模型Full-Retrain LightGCN比较,本发明都获得了更优秀的结果,这说明本发明对于不同的推荐场景具有自适应性,且比起非图框架的重训练方法、以及Full-retrain的图训练方法都可以实现更好的重训练结果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (6)
1.一种高效的图卷积神经网络重训练方法,其特征在于,包括:
对于上一时刻已经训练好的图卷积神经网络,获取每个节点历史时刻总的积累度;对于每个节点,利用其邻接节点历史时刻总的积累度,计算能够概括历史数据中知识的各节点表征表示;
再利用当前时刻收集到的新数据构建增量图,结合增量图以及各节点表征表示,采用增量图卷积操作更新图卷积神经网络的参数;
其中,当图卷积神经网络为图推荐模型时,当前时刻收集到的新数据为产生于上一时刻至当前时刻之间的用户与商品的交互数据。
3.根据权利要求1所述的一种高效的图卷积神经网络重训练方法,其特征在于,当前时刻t收集的新数据Dt构建的增量图GΔt只包含新数据Dt的节点信息。
5.根据权利要求4所述的一种高效的图卷积神经网络重训练方法,其特征在于,对增量图中节点的图卷积约束程度计算公式为:
d′i,t=β·di,0~t-1+di,t
其中,β为可学习的参数,di,t为通过增量图得到的当前时刻t节点i的度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110587163.4A CN113326443B (zh) | 2021-05-27 | 2021-05-27 | 一种高效的图卷积神经网络重训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110587163.4A CN113326443B (zh) | 2021-05-27 | 2021-05-27 | 一种高效的图卷积神经网络重训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326443A true CN113326443A (zh) | 2021-08-31 |
CN113326443B CN113326443B (zh) | 2022-04-19 |
Family
ID=77421774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110587163.4A Active CN113326443B (zh) | 2021-05-27 | 2021-05-27 | 一种高效的图卷积神经网络重训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326443B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120005154A1 (en) * | 2010-06-28 | 2012-01-05 | Johann George | Efficient recovery of transactional data stores |
CN109885723A (zh) * | 2019-02-20 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 一种视频动态缩略图的生成方法、模型训练的方法及装置 |
CN110515986A (zh) * | 2019-08-27 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种社交网络图的处理方法、装置及存储介质 |
CN110826700A (zh) * | 2019-11-13 | 2020-02-21 | 中国科学技术大学 | 建模邻居交互的双线性图神经网络模型的实现及分类方法 |
CN112686376A (zh) * | 2021-01-11 | 2021-04-20 | 东北大学 | 一种基于时序图神经网络的节点表示方法及增量学习方法 |
-
2021
- 2021-05-27 CN CN202110587163.4A patent/CN113326443B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120005154A1 (en) * | 2010-06-28 | 2012-01-05 | Johann George | Efficient recovery of transactional data stores |
CN109885723A (zh) * | 2019-02-20 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 一种视频动态缩略图的生成方法、模型训练的方法及装置 |
CN110515986A (zh) * | 2019-08-27 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种社交网络图的处理方法、装置及存储介质 |
CN110826700A (zh) * | 2019-11-13 | 2020-02-21 | 中国科学技术大学 | 建模邻居交互的双线性图神经网络模型的实现及分类方法 |
CN112686376A (zh) * | 2021-01-11 | 2021-04-20 | 东北大学 | 一种基于时序图神经网络的节点表示方法及增量学习方法 |
Non-Patent Citations (1)
Title |
---|
DO TIEN HUU ET AL.: "Graph convolutional neural networks with node transition probability-based message passing and DropNode regularization", 《EXPERT SYSTEMS WITH APPLICATIONS》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113326443B (zh) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yi et al. | Sampling-bias-corrected neural modeling for large corpus item recommendations | |
US20170161644A1 (en) | Media recommendation using internet media stream modeling | |
Domingos et al. | Mining the network value of customers | |
US7945668B1 (en) | System and method for content-aware co-clustering algorithm based on hourglass model | |
CN109190030B (zh) | 融合node2vec和深度神经网络的隐式反馈推荐方法 | |
WO2019056628A1 (zh) | 关注点文案的生成 | |
WO2010078060A1 (en) | Systems and methods for making recommendations using model-based collaborative filtering with user communities and items collections | |
Xu et al. | Graphcar: Content-aware multimedia recommendation with graph autoencoder | |
CN112734104B (zh) | 一种融合生成对抗网络和自编码器的跨域推荐方法 | |
CN114357201B (zh) | 基于信息感知的视听推荐方法、系统 | |
CN114282077A (zh) | 一种基于会话数据的会话推荐方法及系统 | |
CN115867919A (zh) | 用于推荐系统的图结构感知增量学习 | |
CN115114542A (zh) | 一种对象推荐方法、系统、训练方法、介质及计算机设备 | |
CN108197209B (zh) | 一种基于加权协同过滤算法的电影推荐方法 | |
CN113326443B (zh) | 一种高效的图卷积神经网络重训练方法 | |
CN112381225A (zh) | 优化未来性能的推荐系统重训练方法 | |
Chen et al. | FrAug: Frequency Domain Augmentation for Time Series Forecasting | |
Hu et al. | An association rule-based bilateral multi-issue negotiation model | |
CN114547276A (zh) | 基于三通道图神经网络的会话推荐方法 | |
CN112016004A (zh) | 一种基于多粒度信息融合的职务犯罪筛查系统及方法 | |
CN114036400B (zh) | 一种基于超图的协同会话推荐方法 | |
CN110990715B (zh) | 基于层自编码器的多源用户属性推断方法 | |
CN115496174B (zh) | 优化网络表示学习的方法、模型训练方法和系统 | |
JP7387521B2 (ja) | 論述構造推定方法、論述構造推定装置、および論述構造推定プログラム | |
WO2024018671A1 (ja) | Cld管理装置、cld管理システム及びcld管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |