CN116186309B - 基于融合用户意图的交互兴趣图的图卷积网络推荐方法 - Google Patents
基于融合用户意图的交互兴趣图的图卷积网络推荐方法 Download PDFInfo
- Publication number
- CN116186309B CN116186309B CN202310435302.0A CN202310435302A CN116186309B CN 116186309 B CN116186309 B CN 116186309B CN 202310435302 A CN202310435302 A CN 202310435302A CN 116186309 B CN116186309 B CN 116186309B
- Authority
- CN
- China
- Prior art keywords
- user
- graph
- interest
- interaction
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000002452 interceptive effect Effects 0.000 claims abstract description 13
- 230000005540 biological transmission Effects 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000002776 aggregation Effects 0.000 claims description 12
- 238000004220 aggregation Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 238000005096 rolling process Methods 0.000 claims description 12
- 238000000265 homogenisation Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 108010085990 projectin Proteins 0.000 claims description 2
- 238000012546 transfer Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种基于融合用户意图的交互兴趣图的图卷积网络推荐方法,该方法结合融入用户意图的兴趣图,进行簇间交互和二次子图分裂操作,使模型能在传播中更有选择性地对高阶节点汲取正反馈,以此来达到增强模型高阶传播学习的能力,本发明融合用户意图构建用户交互兴趣图,从时间和位置因素来考虑用户意图,将传统的用户‑项目交互组织图结构中松散的、孤立的节点进行增强连接,不仅使项目序列变得更为紧密,提高了用户兴趣表示的精确性;本发明的高密度兴趣图通过簇间交互来传导及连接相关节点信息,使项目间的交互更为充分,让用户的潜在兴趣信息更大程度分布在兴趣图的相关位置上,从而提升推荐准确率。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种基于融合用户意图的交互兴趣图的图卷积网络推荐方法。
背景技术
推荐系统作为大数据时代获取信息的重要工具之一,受到广泛的关注和研究。但随着海量数据的增加及技术的革新,人们的需求不再仅仅满足得到相同的推荐结果,而希望得到主动符合用户个性和需求的推荐结果。这就要求推荐模型能定制排名列表,以满足每个用户的个性化需求。但传统研究通常建立基于历史行为的用户配置文件,并直到结果排序时才考虑用户和项目间的关系,显然,这很难满足用户的个性化需求。最近,图卷积网络(graph convolutional network, GCN)的出现使得模型能捕捉用户在信息空间中的兴趣,并生成节点嵌入,最终做出推荐。
基于GCN的推荐模型建立在用户-项目交互图基础上,其中用户和项目根据历史交互进行链接。用户嵌入是通过迭代聚合从相邻(用户和项目)节点传递的消息来学习的,这种做法建立在一个基本假设,来自高阶邻居的协作信号有利于嵌入学习。当然,这种基本假设也有大量的相关研究证实,但并非所有来自高阶邻居的信息都是正面的。即,兴趣图中与目标用户不相关的用户或项目信息,最终也会随着消息的传递,而被目标用户学习。简言之,没有相似兴趣的用户被联系在一起了。这种现象是很可能发生的,尤其在基于隐式反馈的协同过滤等方法中,它们的目标是为提取相似用户的兴趣,但不相关信息的加入,势必会影响推荐性能。显然,目标用户学习的信息是从相邻节点的嵌入中传递过来的,这是图神经网络(graph neural network, GNN)推荐模型产生过度平滑效应的原因之一。
也就是说,在未解决这种过度平滑效应的情况下,兴趣图个体间的紧密程度越高,就越可能使目标用户学习到更多的负面信息,对推荐性能越不利。基于此,有相关研究者就从兴趣图的构建出发,降低个体间的紧密程度,来缓解过度平滑问题。但这些研究又易陷入一个新的问题,即,基于GNN的推荐模型很难适应项目序列松散或项目间交互不充分等的兴趣图,这对提升推荐性能依然很不利。
发明内容
为此,本发明的实施例提出一种基于融合用户意图的交互兴趣图的图卷积网络推荐方法,通过兴趣图构建和簇间交互来增强个体间的紧密联系,便于协作信号在高阶传播中被学习,以解决项目序列松散或项目间交互不充分的问题,此外将用户及其交互项分组到不同的子图中,并在子图中进行高阶图卷积,以解决过度平滑问题。
根据本发明一实施例的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,包括以下步骤:
步骤1,根据时序信息和位置信息,对图卷积网络推荐模型中用户-项目交互图中的项目序列重新构建,以生成簇型兴趣图,所述簇型兴趣图包括用户簇兴趣图和项目簇兴趣图;
步骤2,基于用户簇兴趣图和项目簇兴趣图对同簇属性和异簇属性分别实施交互建模,产生分别附有同质化和异质化的协作信号,将用户自身的表示与附有同质化和异质化的协作信号进行融合,生成高密度兴趣图;
步骤3,基于高密度兴趣图,利用双层神经网络构建分类模块,对每个用户节点均进行无监督分类,处于类边缘的节点自动分裂,形成多个中间子图,再以中间子图的共同意图来分析中间子图间的独立性,实施2次分裂,最终生成多个子图;
步骤4,将多个子图的用户唯一节点与同一项目的多个子图节点执行高阶图卷积操作,最终实现基于图卷积网络的推荐。
根据本发明实施例的融合用户意图的项目推荐方法,结合融入用户意图的兴趣图,进行簇间交互和二次子图分裂操作,使模型能在传播中更有选择性地对高阶节点汲取正反馈,以此来达到增强模型高阶传播学习的能力,相比现有技术,具有以下有益效果:
1) 融合用户意图构建用户交互兴趣图,从时间和位置因素来考虑用户意图,将传统的用户-项目交互组织图结构中松散的、孤立的节点进行增强连接,不仅使项目序列变得更为紧密,还大大地提高了用户兴趣表示的精确性;
2) 基于用户协作图和项目协同分别进行同簇、异簇交互来构建高密度兴趣图.与传统的用户-项目交互图不一样的是,本发明的高密度兴趣图通过簇间交互来传导及连接相关节点信息,使项目间的交互更为充分,让用户的潜在兴趣信息更大程度分布在兴趣图的相关位置上,从而提升推荐准确率;
3) 采用二次子图分裂对高密度兴趣图进行重组.为保证节点嵌入最终表示的独立性,1次无监督子图生成使兴趣图分裂成相似节点聚集的中间子图,在2次子图分裂后,进一步降低了子图间的相似性(低耦合性),而子图内部却保持了高度相似(高内聚性);显然,这样求得的最终节点嵌入表示相似度大大降低,能很好地缓解过度平滑等问题,对模型推荐性能起到积极作用。
附图说明
本发明实施例的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明提出的基于融合用户意图的交互兴趣图的图卷积网络推荐方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例提出一种基于融合用户意图的交互兴趣图的图卷积网络推荐方法,所述方法包括步骤1至步骤4:
步骤1,根据时序信息和位置信息,对图卷积网络推荐模型中用户-项目交互图中的项目序列重新构建,以生成簇型兴趣图,所述簇型兴趣图包括用户簇兴趣图和项目簇兴趣图。
首先,构造一个无向图,且将其表示为/>,其中,对于每个交互序列,/>为顶点集,顶点/>(且/>)对应一个交互项(其关联的嵌入向量表示为,/>表示维度),/>是要学习的一组边,/>表示对应的邻接矩阵。推荐目标是通过学习得到邻接矩阵/>,并用边/>表示项目/>与项目/>的关系。
用户的意图不是长期固定的,往往会随着时间的推移而改变,从用户的历史序列中也可发现,同一项目可能会不定期地与其它多个项目同时出现。相反,远离目标项目的项目对用户当前意图的影响较小。因此,需要考虑时间因素的作用。
例1. 用户的某个连续历史序列中,观看了/>主演的电影/>和电影/>,可推测这段时间内,该用户的观看意图可能是/>主演的一系列电影。但在往后连续历史序列中,用户/>又观看了电影/>和电影/>,再一次将此次的用户意图不做验证地指定为/>主演的一系列电影,这显然是不合适的,因为电影/>很可能不是/>主演的电影,此时,用户u的意图可能就是观看电影/>和观看电影/>的另外的共性,比如均是观看喜剧电影。
进一步地,因数据集中的时间戳粒度不一,即用户可在某个时间戳范围内与多个项目进行交互,为了指明序列中项目的顺序,还需考虑位置因素的影响。
例2. 用户u的某个连续历史序列中,截取时间粒度为1天的数据,在这天中,用户依次观看了电影、/>、/>,电影/>和/>的共同属性是喜剧类型,且为上午先后观看;电影和/>的共同属性为演员/>,且电影/>在晚上观看,则认为用户/>当天的意图为观看喜剧类型电影的可能性大于喜欢演员/>。
因此,本发明基于时间和位置信息来体现用户意图,并建立一种自我注意机制,以此方式来区分用户的不同意图,步骤1具体包括:
基于时序信息,引入时间间隔特征进行建模:
;
其中,和/>分别为当前时刻和未来预测时刻的编码,/>是权重矩阵,/>为偏置向量,/>为Sigmoid函数;
基于位置信息,使用可学习的位置嵌入矩阵,其中,/>是当前交互序列的长度,/>是第1位置的位置向量,/>是第/>位置的位置向量,/>是第/>位置的位置向量;
将时序信息和位置信息通过级联方式进行集成,得到包含时序信息和位置信息的项目新表示:
;
其中,为项目的初始表示,通过原始交互兴趣图得到;/>表示权重矩阵,表示偏置向量,/>为双曲正切函数;
对于项目与项目/>的相关值/>:
;
其中,和/>分别是查询和键的输入投影,/>为比例因子,/>和/>分别为项目/>和项目/>的项目新表示;
将相关值标准化为/>:
;
其中,为标准化后的相关值,/>为项目总数,/>为项目/>与项目/>的相关值;
每个输出元素为线性变换输入项的加权和:
;
其中,是模型值的输入投影,/>为标准化后的项目/>与项目/>的相关值,为项目/>的项目新表示;显然,如果项目/>与项目/>比序列中的任何其它项目更相似,/>将涉及更多来自项目/>的信息,反映序列中项目间的相关性。
通过融合时序信息和位置信息来构建意图增强层,以计算项目间的相关性和区分用户交互序列中不同的意图区域,根据意图增强层,获得新用户邻接矩阵A'及任一项目的初始综合嵌入表示/>,进而将图卷积网络推荐模型中用户-项目交互图中的项目序列重新构建为簇型兴趣图,所述簇型兴趣图包括用户簇兴趣图和项目簇兴趣图。
步骤2,基于用户簇兴趣图和项目簇兴趣图对同簇属性和异簇属性分别实施交互建模,产生分别附有同质化和异质化的协作信号,将用户自身的表示与附有同质化和异质化的协作信号进行融合,生成高密度兴趣图。
其中,步骤2具体包括:
步骤2.1,通过消息传递方式对特征学习的内部交互进行同簇交互,将用户簇兴趣图中的节点嵌入表示输入到神经网络中,能够保证每个节点间充分交互,从而获得同质化的协作信号,具体使用多层感知机进行建模,输出交互建模结果:
;
其中,表示MLP函数,/>和/>分别为节点/>和的嵌入表示;
为得到用户簇兴趣图中节点的综合嵌入表示,将每个节点对应的所有交互建模结果进行聚合,使用Hadamard乘积的方式来处理:,其中/>是节点/>与其邻接节点集/>中一系列节点的消息传递结果;
能对两个属性间的交互信息进行同簇交互(主要在用户簇兴趣图中实施),有效地统一了推荐中的交互模型及图学习中的消息传递。但高内部交互结果并不意味着这两个节点就一定相似,这可通过应用相似性交叉交互的方式来弥补。
步骤2.2,将对用户簇兴趣图和项目簇兴趣图这两个图采用交叉交互方式实施建模以进行异簇交互,获得异质化的协作信号;
理论上,如果用户的第/>个特征/>表现出对项目/>的第/>个特征/>具有很高偏好,则期望这两个属性间的匹配得分较高。
例3. 若男性用户更喜欢科幻电影,则节点对<男,科幻>的节点匹配分数应该很高,因此,经过训练后,该男生用户的嵌入与科幻电影的最终嵌入会较为相似,科幻电影在男性用户的推荐中得分会相对较高,也更容易被推荐。
为实现这一点,使用双向交互的方式进行节点匹配,以获得更多异质化的协作信号,在交互建模结果的基础上,使属性间的相似度单调增加。因此,如果用户属性在项目属性上具有较高的匹配分数,则它们具有相似的属性表示:
;
其中,表示用户簇兴趣图中节点/>的嵌入表示,/>则表示项目簇兴趣图中节点/>的嵌入表示,/>是这两个来自不同图中节点的匹配结果,/>表示Hadamard乘积。
与同簇消息传递类似,用Hadamard乘积来聚合图的一个节点和另一图中所有节点的匹配结果。聚合的结果为,其中/>是另一属性图的节点集,是节点/>聚合节点匹配的结果。
步骤2.3,实施同簇交互和异簇交互结果的聚合,除了消息传递结果,还进一步考虑节点匹配结果,目的是在生成融合节点表示(生成同质化信息)的同时还能捕获节点的匹配信息(异质化信息),具体将初始节点的表示形式、消息传递结果/>及节点匹配结果/>作为节点聚合函数/>输入,得到聚合后的节点表示/>,,每个图的融合节点表示聚合为图表示,使用Hadamard乘积之和来聚合节点表示,得到高密度兴趣图的嵌入表示。
循环神经网络的融合性能较好,故使用递归循环神经网络模型GRU(GateRecurrent Unit)视为函数,利用/>作为其输入序列,则该函数的最终输出即为融合节点表示。
每个图的融合节点表示聚合为图表示,使用Hadamard乘积之和来聚合节点表示。综上,高密度兴趣图的嵌入表示满足以下条件式:
;
其中,G表示用户协作图,V表示用户协作图的所有节点集合。通过消息传递聚合后,便可得到蕴含丰富用户协作信号的高密度兴趣图。
步骤3,基于高密度兴趣图,利用双层神经网络构建分类模块,对每个用户节点均进行无监督分类,处于类边缘的节点自动分裂,形成多个中间子图,再以中间子图的共同意图来分析中间子图间的独立性,实施2次分裂,最终生成多个子图。
其中,子图生成的目的,是为了实现所有传播的信息均有助于子图中节点的嵌入学习,而避免子图在图卷积运算中发生负信息传播。为达到这一目标,以用户节点为核心在用户兴趣图中形成子图,把兴趣较相似的用户分组到同一中间子图中,与这些用户直接连接的项目也属于该子图。因此,每个用户只会属于一个子图,而一个项目可与多个子图关联。无监督的神经网络能将不同维度的嵌入预测成相同维度的嵌入,在分类时起到很好的标准化处理;另外,共同意图能恰当地反映子图内的共性,利于突出子图间差异。下面分别采用无监督和融合用户意图的分类方式生成子图。
利用无监督分类的子图生成,其输入为给定的高密度兴趣图当中的图结构数据,输出所需要的子图。在此次子图生成的过程中,具有共同兴趣特征的用户被分到同一子图中,我们将这个过程表述为一个分类任务。每个用户的兴趣均可用高密度兴趣图中的融合节点表示。为将用户划分到不同的子图,且尽可能保持节点嵌入的原始性,采用双层神经网络这种无监督分类的方式,将获得的用户特征转换为预测向量,双层神经网络的表达式如下:
;
;
其中,为一层预测向量;/>是目标预测向量,且目标预测向量中最大值的位置下标,即为用户所属的子图标号;/>和/>是双层神经网络的权重矩阵;/>和/>是双层神经网络的偏置向量,/>是预先设定的超参数。
显然,这种无监督分类的方法可将用户分为不同的组:对于具有相似嵌入的用户,会生成相似的预测向量,即,它们将被分类到相同的组中。
例4. 用户和/>均观看了电影/>,而用户/>观看了电影/>。显然,我们希望在对用户/>进行推荐时,能学习到更多来自于用户/>的协作信号,更少地甚至不从用户/>中获取负信号。由于有电影/>的联系,用户/>和/>的嵌入会更为相似,因此,在子图分裂时,他们最终分组到同一个子图中,而用户/>则被分组到其它子图中。
结合前面分析可知,用户通常带有意图与项目交互,且不同的意图可能导致用户不同的行为。尽管具有相似嵌入的用户会被归于同一子图,但由于同一子图存在多种用户意图,不同权重的用户意图组合成的子图间仍可能存在兴趣高度相似的用户节点,以至于经过高阶传播后,不同子图中的节点嵌入表示依然可能具有较高的相似性。因此,提出一种融合共同意图的中间子图再分裂方法,以解决此问题。
中间子图再分裂的重要依据就是用户共同意图,下面介绍如何求解子图中的用户共同意图。为此,设计用户意图聚合函数,步骤3中,以中间子图的共同意图来分析中间子图间的独立性,实施2次分裂,最终生成多个子图具体包括:
为每个中间子图中的成员设计意图聚合函数,并将聚合后的节点表示作为意图聚合函数的输入;
根据间的相似度求解出每个用户对同一中间子图中其余成员用户偏好的投票权重,并利用线性加权方式得到该中间子图当前的共同意图表示:
;
其中,是中间子图中成员/>对成员/>的偏好投票权重,/>为偏好投票权重计算函数;/>是中间子图/>中成员/>综合其余成员偏好而得到的共同意图表示;是子图/>中成员/>的意图表示,/>为中间子图/>中的成员总数;
将中间子图的当前各个共同意图表示进行线性求和,得到最终的子图共同意图表示/>:
;
其中,为共同意图的总数,/>为中间变量;
采用距离作为评判相似性的标准,具体采用欧氏距离度量:
;
其中,表示中间子图/>和中间子图/>之间的相似性,/>表示共同意图维度,/>和/>分别表示中间子图/>和中间子图/>的第/>个维度特征;
将用户个体意图与其所属子图的共同意图距离大于预设值的用户节点进行重新分配,实现中间子图的2次分裂,最终生成多个子图。且最终子图中的共同意图趋于单一。因此,经过2次分裂后,子图间的整体相似性急剧下降(低耦合性),而子图内部节点却保持了高度相似性(高内聚性)。这样的子图再经过高阶传播后,用户和项目的嵌入表示更具有个性化,有效地缓解了过度平滑问题。
例5. 当某个子图的共同意图为观看喜剧电影时,而用户仅因某个电影演员的联系与该子图的个别用户相似,却被分组到了该子图,显然这并不利于该子图中其他用户的嵌入学习。因此,用户/>需被重新分组,比如,把他分组到共同意图为喜欢该电影演员的子图中,或与他最近观影集合中最大共同特征表现相同或相似的子图中。
步骤4,将多个子图的用户唯一节点与同一项目的多个子图节点执行高阶图卷积操作,最终实现基于图卷积网络的推荐。
其中,步骤4具体包括:
步骤4.1,对于一阶传播,所有一阶邻居都参与图卷积运算,和/>分别表示经簇型兴趣图消息交互后的用户初始嵌入和经意图增强后的项目初始嵌入,则一阶图卷积运算为:
;
;
其中,和/>分别表示用户/>和项目/>的一阶嵌入,/>和/>分别表示用户交互的项目集和项目交互的用户集;
步骤4.2,对于用户节点,利用其所属的一个子图中相邻节点的信息;对于项目节点,采用多个包含项目的子图中学习它的嵌入表示;项目在子图/>中经过/>层图卷积后的嵌入表示记为/>,其传播过程为:
;
;
其中,表示在项目/>在子图/>交互的用户集,/>为项目/>在子图中经过/>层图卷积后的嵌入表示,/>为用户/>经过/>层图卷积后的嵌入表示,/>为用户/>经过/>层图卷积后的嵌入表示;
项目 经过 />层图卷积的最终表示/>是在不同子图中学习到的嵌入的组合,具体为:
其中,是包含项目/>的子图集;
步骤4.3,给定所有用户的初始嵌入和项目的初始嵌入/>后,随着嵌入达到第层时,再将每一层用户的嵌入表示/>和项目的嵌入表示/>组合起来,得到用户的最终表示/>或项目的最终表示/>,用户/>对项目/>的最终得分/>的计算公式如下所示:
;
其中,表示转置操作;
求出用户对所有项目的最终得分,然后按照从大到小的顺序对最终得分进行排序,选择排序靠前的预设数量的项目作为推荐项,实现项目推荐。
综上,根据本发明实施例的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,结合融入用户意图的兴趣图,进行簇间交互和二次子图分裂操作,使模型能在传播中更有选择性地对高阶节点汲取正反馈,以此来达到增强模型高阶传播学习的能力,相比现有技术,具有以下有益效果:
1) 融合用户意图构建用户交互兴趣图,从时间和位置因素来考虑用户意图,将传统的用户-项目交互组织图结构中松散的、孤立的节点进行增强连接,不仅使项目序列变得更为紧密,还大大地提高了用户兴趣表示的精确性;
2) 基于用户协作图和项目协同分别进行同簇、异簇交互来构建高密度兴趣图,与传统的用户-项目交互图不一样的是,本发明的高密度兴趣图通过簇间交互来传导及连接相关节点信息,使项目间的交互更为充分,让用户的潜在兴趣信息更大程度分布在兴趣图的相关位置上,从而提升推荐准确率;
3) 采用二次子图分裂对高密度兴趣图进行重组.为保证节点嵌入最终表示的独立性,1次无监督子图生成使兴趣图分裂成相似节点聚集的中间子图,在2次子图分裂后,进一步降低了子图间的相似性(低耦合性),而子图内部却保持了高度相似(高内聚性);显然,这样求得的最终节点嵌入表示相似度大大降低,能很好地缓解过度平滑等问题,对模型推荐性能起到积极作用。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (5)
1.一种基于融合用户意图的交互兴趣图的图卷积网络推荐方法,其特征在于,所述方法包括:
步骤1,根据时序信息和位置信息,对图卷积网络推荐模型中用户-项目交互图中的项目序列重新构建,以生成簇型兴趣图,所述簇型兴趣图包括用户簇兴趣图和项目簇兴趣图;
步骤2,基于用户簇兴趣图和项目簇兴趣图对同簇属性和异簇属性分别实施交互建模,产生分别附有同质化和异质化的协作信号,将用户自身的表示与附有同质化和异质化的协作信号进行融合,生成高密度兴趣图;
步骤3,基于高密度兴趣图,利用双层神经网络构建分类模块,对每个用户节点均进行无监督分类,处于类边缘的节点自动分裂,形成多个中间子图,再以中间子图的共同意图来分析中间子图间的独立性,实施2次分裂,最终生成多个子图;
步骤4,将多个子图的用户唯一节点与同一项目的多个子图节点执行高阶图卷积操作,最终实现基于图卷积网络的推荐;
步骤1具体包括:
基于时序信息,引入时间间隔特征进行建模:
;
其中,和/>分别为当前时刻和未来预测时刻的编码,/>是权重矩阵,/>为偏置向量,/>为Sigmoid函数;
基于位置信息,使用可学习的位置嵌入矩阵,其中,/>是当前交互序列的长度,/>是第1位置的位置向量,/>是第/>位置的位置向量,/>是第/>位置的位置向量;
将时序信息和位置信息通过级联方式进行集成,得到包含时序信息和位置信息的项目新表示:
;
其中,为项目的初始表示,通过原始交互兴趣图得到;/>表示权重矩阵,/>表示偏置向量,/>为双曲正切函数;
对于项目与项目/>的相关值/>:
;
其中,和/>分别是查询和键的输入投影,/>为比例因子,/>和/>分别为项目/>和项目/>的项目新表示;
将相关值标准化为/>:
;
其中,为标准化后的相关值,/>为项目总数,/>为项目/>与项目/>的相关值;
每个输出元素为线性变换输入项的加权和:
;
其中,是模型值的输入投影,/>为标准化后的项目/>与项目/>的相关值,/>为项目/>的项目新表示;
通过融合时序信息和位置信息来构建意图增强层,以计算项目间的相关性和区分用户交互序列中不同的意图区域,根据意图增强层,获得新用户邻接矩阵及任一项目/>的初始综合嵌入表示/>,进而将图卷积网络推荐模型中用户-项目交互图中的项目序列重新构建为簇型兴趣图,所述簇型兴趣图包括用户簇兴趣图和项目簇兴趣图;
步骤2具体包括:
步骤2.1,通过消息传递方式对特征学习的内部交互进行同簇交互,将用户簇兴趣图中的节点嵌入表示输入到神经网络中,从而获得同质化的协作信号,具体使用多层感知机进行建模,输出交互建模结果:
;
其中,表示MLP函数,/>和/>分别为节点/>和/>的嵌入表示;
将每个节点对应的所有交互建模结果进行聚合,使用Hadamard乘积的方式进行处理;
步骤2.2,将对用户簇兴趣图和项目簇兴趣图这两个图采用交叉交互方式实施建模以进行异簇交互,获得异质化的协作信号;
步骤2.3,实施同簇交互和异簇交互结果的聚合,在生成同质化信息的同时捕获节点的异质化信息,具体将初始节点的表示形式、消息传递结果/>及节点匹配结果作为节点聚合函数/>输入,得到聚合后的节点表示,每个图的融合节点表示聚合为图表示,使用Hadamard乘积之和来聚合节点表示,得到高密度兴趣图的嵌入表示。
2.根据权利要求1所述的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,其特征在于,高密度兴趣图的嵌入表示满足以下条件式:
;
其中,G表示用户协作图,V表示用户协作图的所有节点集合。
3.根据权利要求2所述的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,其特征在于,步骤3中,双层神经网络的表达式如下:
;
;
其中,为一层预测向量;/>是目标预测向量,且目标预测向量中最大值的位置下标,即为用户所属的子图标号;/>和/>是双层神经网络的权重矩阵;/>和/>是双层神经网络的偏置向量,/>是预先设定的超参数。
4.根据权利要求3所述的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,其特征在于,步骤3中,以中间子图的共同意图来分析中间子图间的独立性,实施2次分裂,最终生成多个子图具体包括:
为每个中间子图中的成员设计意图聚合函数,并将聚合后的节点表示作为意图聚合函数的输入;
根据间的相似度求解出每个用户对同一中间子图中其余成员用户偏好的投票权重,并利用线性加权方式得到该中间子图当前的共同意图表示:
;
其中,是中间子图中成员/>对成员/>的偏好投票权重,/>为偏好投票权重计算函数;/>是中间子图/>中成员/>综合其余成员偏好而得到的共同意图表示;/>是子图/>中成员/>的意图表示,/>为中间子图/>中的成员总数;
将中间子图的当前各个共同意图表示进行线性求和,得到最终的子图共同意图表示:
;
其中,为共同意图的总数,/>为中间变量;
采用距离作为评判相似性的标准,具体采用欧氏距离度量:
;
其中,表示中间子图/>和中间子图/>之间的相似性,/>表示共同意图维度,/>和/>分别表示中间子图/>和中间子图/>的第/>个维度特征;
将用户个体意图与其所属子图的共同意图距离大于预设值的用户节点进行重新分配,实现中间子图的2次分裂,最终生成多个子图。
5.根据权利要求4所述的基于融合用户意图的交互兴趣图的图卷积网络推荐方法,其特征在于,步骤4具体包括:
步骤4.1,对于一阶传播,所有一阶邻居都参与图卷积运算,和/>分别表示经簇型兴趣图消息交互后的用户初始嵌入和经意图增强后的项目初始嵌入,则一阶图卷积运算为:
;
;
其中,和/>分别表示用户/>和项目/>的一阶嵌入,/>和/>分别表示用户交互的项目集和项目交互的用户集;
步骤4.2,对于用户节点,利用其所属的一个子图中相邻节点的信息;对于项目节点,采用多个包含项目的子图中学习它的嵌入表示;项目在子图/>中经过/>层图卷积后的嵌入表示记为/>,其传播过程为:
;
;
其中,表示在项目/>在子图/>交互的用户集,/>为项目/>在子图/>中经过/>层图卷积后的嵌入表示,/>为用户/>经过/>层图卷积后的嵌入表示,为用户/>经过/>层图卷积后的嵌入表示;
项目经过/>层图卷积的最终表示/>是在不同子图中学习到的嵌入的组合,具体为:
;
其中,S是包含项目的子图集;
步骤4.3,给定所有用户的初始嵌入和项目的初始嵌入/>后,随着嵌入达到第/>层时,再将每一层用户的嵌入表示/>和项目的嵌入表示/>组合起来,得到用户的最终表示/>或项目的最终表示/>,用户/>对项目/>的最终得分/>的计算公式如下所示:
;
其中,表示转置操作;
求出用户对所有项目的最终得分,然后按照从大到小的顺序对最终得分进行排序,选择排序靠前的预设数量的项目作为推荐项,实现项目推荐。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310435302.0A CN116186309B (zh) | 2023-04-21 | 2023-04-21 | 基于融合用户意图的交互兴趣图的图卷积网络推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310435302.0A CN116186309B (zh) | 2023-04-21 | 2023-04-21 | 基于融合用户意图的交互兴趣图的图卷积网络推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116186309A CN116186309A (zh) | 2023-05-30 |
CN116186309B true CN116186309B (zh) | 2023-07-18 |
Family
ID=86449197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310435302.0A Active CN116186309B (zh) | 2023-04-21 | 2023-04-21 | 基于融合用户意图的交互兴趣图的图卷积网络推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116186309B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117370672B (zh) * | 2023-12-06 | 2024-02-23 | 烟台大学 | 基于混合结构图的用户兴趣点推荐方法、系统和设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115310004A (zh) * | 2022-08-08 | 2022-11-08 | 杭州电子科技大学 | 融合项目时序关系的图神经协同过滤推荐方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423018B1 (en) * | 2010-04-21 | 2022-08-23 | Richard Paiz | Multivariate analysis replica intelligent ambience evolving system |
GB2584588A (en) * | 2018-12-24 | 2020-12-16 | Nanolayers Res Computing Limited | A computer-implemented method of training a graph neural network |
CN113672811B (zh) * | 2021-08-24 | 2023-04-18 | 广东工业大学 | 一种基于拓扑信息嵌入的超图卷积协同过滤推荐方法、系统及计算机可读存储介质 |
CN114461906A (zh) * | 2022-01-06 | 2022-05-10 | 中国科学院信息工程研究所 | 一种聚焦于用户核心兴趣的序列推荐方法及装置 |
CN114564652B (zh) * | 2022-04-29 | 2022-09-27 | 江西财经大学 | 基于用户意图与双向偏好的个性化礼物推荐方法与系统 |
CN115168721A (zh) * | 2022-07-15 | 2022-10-11 | 齐鲁工业大学 | 融合协同变换与时态感知的用户兴趣推荐方法及系统 |
-
2023
- 2023-04-21 CN CN202310435302.0A patent/CN116186309B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115310004A (zh) * | 2022-08-08 | 2022-11-08 | 杭州电子科技大学 | 融合项目时序关系的图神经协同过滤推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116186309A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Martins et al. | Deep learning techniques for recommender systems based on collaborative filtering | |
Zhang et al. | Joint representation learning for top-n recommendation with heterogeneous information sources | |
CN113362131B (zh) | 一种融合知识图谱和用户交互的图模型智能商品推荐方法 | |
CN108563755A (zh) | 一种基于双向循环神经网络的个性化推荐系统及方法 | |
CN114817663B (zh) | 一种基于类别感知图神经网络的服务建模与推荐方法 | |
Ni et al. | A two-stage embedding model for recommendation with multimodal auxiliary information | |
CN111241394A (zh) | 数据处理方法、装置、计算机可读存储介质及电子设备 | |
CN116186309B (zh) | 基于融合用户意图的交互兴趣图的图卷积网络推荐方法 | |
CN113051468B (zh) | 一种基于知识图谱和强化学习的电影推荐方法及系统 | |
Bedi et al. | CitEnergy: A BERT based model to analyse Citizens’ Energy-Tweets | |
US20240193402A1 (en) | Method and apparatus for determining representation information, device, and storage medium | |
CN112861006A (zh) | 融合元路径语义的推荐方法及系统 | |
CN116468460A (zh) | 基于人工智能的消费金融客户画像识别系统及其方法 | |
CN114357201B (zh) | 基于信息感知的视听推荐方法、系统 | |
Gong et al. | Exploring temporal information for dynamic network embedding | |
CN113918711A (zh) | 一种基于多视图多层注意力的面向学术论文的分类方法 | |
CN117171447A (zh) | 一种基于自注意力和对比学习的在线兴趣组推荐方法 | |
CN115129975B (zh) | 推荐模型训练方法、推荐方法、装置、设备及存储介质 | |
CN113656560B (zh) | 情感类别的预测方法和装置、存储介质及电子设备 | |
Liu et al. | Gcn-int: A click-through rate prediction model based on graph convolutional network interaction | |
Wang et al. | A multi-scale self-supervised hypergraph contrastive learning framework for video question answering | |
He et al. | Efficient barrage video recommendation algorithm based on convolutional and recursive neural network | |
Larrakoetxea et al. | Efficient machine learning on edge computing through data compression techniques | |
Shi et al. | Recommender system for telecom packages based on the deep & cross network | |
Xu et al. | A Top-N recommendation algorithm based on graph convolutional network that integrates basic user information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |