CN112380427A - 基于迭代图注意力网络的用户兴趣预测方法及电子装置 - Google Patents
基于迭代图注意力网络的用户兴趣预测方法及电子装置 Download PDFInfo
- Publication number
- CN112380427A CN112380427A CN202011159408.5A CN202011159408A CN112380427A CN 112380427 A CN112380427 A CN 112380427A CN 202011159408 A CN202011159408 A CN 202011159408A CN 112380427 A CN112380427 A CN 112380427A
- Authority
- CN
- China
- Prior art keywords
- user
- network
- interest
- label
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000009826 distribution Methods 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 23
- 239000013598 vector Substances 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 239000010410 layer Substances 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 239000002356 single layer Substances 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
Abstract
Description
技术领域
本发明属于社交媒体-用户画像-自然语言处理领域,尤其涉及一种基于迭代图注意力网络的用户兴趣预测方法及电子装置。
背景技术
社交网络用户兴趣的自动预测在基于用户建模的应用如推荐系统中起着重要的作用。例如,在了解用户的兴趣后,推荐系统可以为用户提供潜在好友推荐、个性化广告等精准服务。近年来,用户兴趣预测得到了广泛的研究。现有的用户兴趣预测技术主要可以分为四大方案:
一类是基于协同过滤的方法(A.Ahmed,B.Kanagal,S.Pandey,V.Josifovski,L.G.Pueyo,and J.Yuan,“Latent factor models with additive and hierarchically-smoothed user preferences,”2013,pp.385-394.),使用用户与商品之间的交互信息来发现用户相同兴趣爱好的用户、或有相似属性的商品,进而来推断用户的兴趣。这种方法主要分为基于用户的协同过滤和基于商品的协同过滤。基于用户的方法通过构建用户-商品矩阵,分别统计每个用户正反馈过的商品来获得用户向量,再通过计算两个用户间的皮尔森系数或余弦相似度来返回相似用户,将用户没有交互的商品记为潜在兴趣。基于商品的协同过滤方法则去计算商品之间的相似度,将与用户交互过的商品接近的商品记为潜在兴趣;
第二类是基于主题建模的方法(J.He,H.Liu,Y.Zheng,S.Tang,W.He,and X.Du,“Bi-Labeled LDA:Inferring Interest Tags for Non-famous Users in SocialNetwork,”Data Science and Engineering,vol.5,no.1,pp.27-47,/,2020.),通过对用户生成的文本数据进行主题建模来挖掘用户感兴趣的话题类别。这种方法一般基于LDA主题模型,使用Dirichlet分布生成K个主题的词语分布以及用户文本关于主题的分布,当用户的主题分布确定后,以主题作为特征维度来得到用户的特征表示,最后使用VSM对用户建模来预测用户的兴趣。
第三种是基于图模型的方法,该方法通过将数据不断在用户网络中迭代来达到使关系紧密的用户兴趣趋于一致的结果。其中比较典型的是MLP方法(L.Wei,W.Zhou,J.Wen,M.Lin,J.Han,and S.Hu,“MLP-IA:Multi-label User Profile Based on ImplicitAssociation Labels,”2019,pp.548-561.),首先通过统计兴趣标签的共现关系定义了兴趣关联矩阵P,再通过用户好友关系来计算用户相似度得到概率转移矩阵T。模型初始化了兴趣标签矩阵F,在每轮的标签迭代中,用户标签将被邻居节点的标签和隐式关联的标签更新,兴趣标签矩阵F得到修正以便进行下一次传播。
第四类是基于神经网络的方法,这种方法关注于用户信息的表示,使用神经网络来学习用户文本、图像信息的深层次特征来表示用户自身特征,最后使用分类器根据用户特征进行兴趣分类。目前越来越多的用户兴趣预测方法开始使用基于神经网络的方法。最新提出的异构图注意力网络模型(W.Chen,Y.Gu,Z.Ren,X.He,H.Xie,T.Guo,D.Yin,andY.Zhang,“Semi-supervised User Profiling with Heterogeneous Graph AttentionNetworks,”2019,pp.2116-2122.),通过将物品属性、物品本身、用户三者根据依赖关系构造出异构网络,在其基础上应用图注意力网络。该模型首先使用FastText方式(P.Bojanowski,E.Grave,A.Joulin,and T.Mikolov,“Enriching Word Vectors withSubword Information,”Trans.Assoc.Comput.Linguistics,vol.5,pp.135-146,/,2017.)编码物品属性,使用注意力机制来学习物品本身的特征表达,再根据用户之间的交互关系以及用户共同交互过的产品再次使用注意力机制学习用户最终的特征表达,进而进行兴趣预测。
目前多数模型在对于用户生成数据(如文本、图片等)和用户交互信息的处理较为孤立。不仅如此,兴趣标签之间的潜在关联没有被充分学习到。对于一个兴趣未知的用户,可以参考与他的好友兴趣潜在相关的领域作为该用户的兴趣标签,而不同用户网络中,兴趣标签的潜在关联会不同,因此目前需要一种方法来自动地建模这种联系。
发明内容
为解决上述问题,本申请提出一种基于迭代图注意力网络的用户兴趣预测方法及电子装置,将用户特征学习与兴趣潜在关系建模相结合,并同时考虑用户网络结构,用来精准地预测社交网络中用户的兴趣标签。
本发明技术解决方案包括:
1)通过预训练的语言模型,得到各用户的用户特征uj,其中1≤j≤N,N为用户数量;
2)将用户特征uj输入图注意力网络通过固定兴趣标签联合依赖概率近似未知标签用户分布对图注意力网络的参数θ(t-1)进行更新,得到图注意力网络的参数θ(t),其中t为迭代次数,t≥1,兴趣标签联合依赖概率未知标签用户分布通过用户网络得到,IL为已知标签,Iun为未知标签,UV为用户特征uj的集合;
进一步地,预训练的语言模型包括BERT模型。
1)用户特征uj由共享的权重Wu∈R{F′×F}经一次线性变换从F维转换为F’维,得到用户特征u′j;
2)将用户特征u′j与邻居用户特征ujk进行横向拼接;
1)依据通过one-hot编码的用户向量,得到一概率转移矩阵P;
3)通过公式对标签传播过程进行迭代直至收敛,得到用户标签矩阵I(t),其中用户特征矩阵H(t)是由用户特征构成,用户标签矩阵I(t)是由用户标签构成,t′为标签传播过程的迭代次数,t′≥1,λ为超参。
进一步地,通过已知标签用户的交叉误差函数,判断所述迭代图注意网络是否收敛。
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述所述的方法。
一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机以执行上述所述的方法。
与现有技术相比,本发明具有如下优点:
1.提出一个能够将用户特征表示与兴趣领域潜在联系建模相结合的模型,弥补了目前主流的用户兴趣预测方法对兴趣潜在关系建模的空缺;
2.通过引入标签传播机制进一步利用用户社交关系数据,充分捕捉兴趣标签的局部依赖关系;
3.与现有的图注意力网络模型相比,本发明使用了两个图神经网络内核进行迭代学习,并且创新地将用户兴趣标签的潜在联系进行建模,预测准确率更高,并且高效快捷。
附图说明
图1为本发明的迭代图神经网络框架示意图。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合说明书附图作详细说明如下。
本发明使用一个基于迭代图注意网络(IGAT)的兴趣预测模型,该模型不仅通过网络结构来学习用户特征,而且对兴趣标签的依赖性进行建模,挖掘了兴趣标签的潜在关联。IGAT由两个模块组成:用户特征学习模块和兴趣依赖建模模块。用户特征学习模块在整个社交网络中捕捉用户信息,并通过加权从他们的邻居获得的信息来学习用户表示;兴趣依赖建模模块负责挖掘兴趣标签内部的潜在依赖关系,而后反馈给用户特征学习模块来进行最终的兴趣预测工作。整体来看,IGAT利用从用户特征学习模块中学习到的用户标签表示和兴趣依赖建模模块挖掘的兴趣间潜在关联共同预测用户的兴趣属性。特别指出,本发明用EM算法(最大期望算法)对IGAT进行迭代训练。在E步中,使用一个GAT内核来学习不同邻域内不同权重的用户特征表示。在M步中,另一个GAT内核通过将周围的用户标签作为特征来建模兴趣标签的联合依赖关系。此外,在迭代训练过程中应用标签传播操作,捕捉兴趣的局部依赖,捕捉用户的聚集特征。本发明利用带有兴趣标签的用户和他们的朋友构造用户网络图,在现实中,由于大部分用户标签无法获取,因此,本发明以半监督的方式预测用户的兴趣,即通过标签已知的用户以及其各自大量的标签未知的用户共同训练出一个用户兴趣预测模型。
本发明的迭代图神经网络框架,如图1所示,可分为两个部分:1)用户特征学习模块;2)兴趣依赖建模模块。
具体来说,本发明可以拆解为三个主要操作:用户兴趣学习、兴趣依赖建模、标签传播。
1.用户兴趣学习
首先使用一个图注意网络(P.Velickovic,G.Cucurull,A.Casanova,A.Romero,P.Liò,and Y.Bengio,“Graph Attention Networks,”2018.)内核GATθ来学习用户的特征表达。GATθ使用由BERT(J.Devlin,M.-W.Chang,K.Lee,and K.Toutanova,“BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding,”2019,pp.4171-4186.)编码的用户特征嵌入U={u1,u2,...uN},ui∈RF作为输入,其中N表示输入用户的数量,R为维度表示符号,F为用户特征维度。为了捕获用户邻居节点的特征,本发明在整个用户网络上应用一个自注意力操作:对于每个用户j,他与邻居k的注意力系数定义如下:
ejk=LeakyReLU(αT[Wu·uj||Wu·uk])
其中,为了获得更好的表达能力,用户特征uj由共享的权重Wu∈R{F′×F}经一次线性变换从F维转换为F’维,然后与他的邻居节点特征向量uk进行横向拼接,经过权重向量αT∈R2F′参数化后共同送入一个单层的前馈网络并进行非线性的LeakyReLU操作。在这之后,注意力系数ejk会被归一化,得到注意力系数:
其中Neighborj表示用户j的邻居用户集合。
接下来,本发明引入多头注意力机制(A.Vaswani,N.Shazeer,N.Parmar,J.Uszkoreit,L.Jones,A.N.Gomez,L.Kaiser,and I.Polosukhin,“Attention is All youNeed,”2017,pp.5998-6008.)来提高特征的表达能力。在这里M个独立的注意力头用来提升特征的表达。在此操作下,用户的特征uj最终可以表示为hj:
hj=Concat(head1,head2,...,headM)
其中为第i个注意力机制下的注意力系数,σ(*)为非线性激活函数,聚合函数Concat(*)在最后一层会被替换为Average(*),Average操作会将用户的每个注意力机制下的输出做平均,最终用户向量的输出维度是总的标签数量C。
2.兴趣依赖建模
在这一模块,本发明的目标是去建模兴趣标签间的潜在依赖关系。上一模块中得到的用户特征矩阵{h1,h2,...,hN}在这里记为I∈R{N×C},其中N表示用户数量,C表示标签数量(用户特征向量最终的输出维度为标签类别总数)。每一个行向量i∈I都可以被视为用户兴趣标签的特征表示。为了建模这些兴趣标签的依赖关系,本发明在每一层注意力运算时都使用用户兴趣标签的一阶邻居来捕获标签之间的依赖关系。这样一来在K-层注意力运算后,用户uj的兴趣ij与第K-阶邻居uk∈K的兴趣ik间的依赖关系depjk就可以被学习到。这一步也使用图注意力机制来进行:
其中Wi∈R{C×C}是一个权值矩阵用来学习标签的特征表示,β是一个权重向量帮助进行前馈操作。这里同样引入M-头注意力机制来获得更丰富的特征表示,注意力头定义如下:
3.标签传播
直觉上,拥有相同朋友的用户他们的相似度会更高。依据标签传播算法LPA(Zhu,X.,Ghanramani,Z.:Learning from labeled and unlabeled data with labelpropagation.CMU-CALD-02-107(2002))的思路,本发明在以上两个主要模块间加入了一个标签传播过程,目的是进一步来捕获标签之间的局部依赖。为此根据用户间的相似性定义了一个概率转移矩阵P:
在这里用户向量u′使用的是one-hot编码,每一维是用户的粉丝。
为了使整个传播更好地收敛,转移矩阵P进行了转化:
其中D是用户网络的度矩阵。在这之后使用以下公式对传播过程进行迭代直至收敛:
公式中的超参λ用来控制初始化时的影响。在每轮传播过程迭代t中,用户的标签会被邻居节点的标签信息更新。
4.迭代训练:
在训练过程中,将用户-兴趣图看作一个条件随机场,其中用户的特征表示为观测序列,而待预测的标签视作标注序列。于是待解决的问题转化为去建模在用户特征条件下的兴趣标签联合依赖概率(后文简写为),其中IL表示已知的兴趣标签,Iun指未知标签,IV={IL,Iun}为全部标签集合,UV为全部用户特征集合。根据EM算法可推导出含隐变量的最大似然估计为:
其中qθ(Iun|UV)为未知标签Iun的分布,后文简写为qθ。E为期望表示。于是,IGAT将会在E步和M步间进行迭代优化。
这里首先使用GATθ来近似qθ分布来预测每个标签的概率,通过神经网络更新方法来对于模型参数θ进行更新,方法如下:
qθ(In|UV)=GATθ(U={u1,u2,...uN};θ)
对于由于它的后验分布十分复杂,这里将它转化为每个标签In在其邻居标签状态下的预测概率(推导方法参考伪似然方法(Besag,J.Statistical analysis of non-lattice data.The statistician,pp.179-195,1975.)),其中若其邻居标签已知,则使用邻居真实的标签,若未知则使用该邻居在上一步预测出的标签:
在训练中qθ将会被固定以更新参数M步的输出结果I’将被作为下一轮E步的近似目标。最终,通过E步和M步交替地训练,IGAT可以在迭代训练过程中很好地被优化。由于本模型采用半监督学习的方法,模型的损失函数定义为所有标签已知用户的交叉误差:
其中UL是所有已知标签用户的集合,C为标签类别,Yuc表示用户u在标签c下的概率(真实值),Iuc表示用户在标签c下的预测概率(预测值)。
5.积极效果
在实验步骤中,为了能够更好地运用用户数据,申请人手工构建了一个数据集。该数据集内容全部为国内社交平台真实数据。其中包括4368名待预测主用户以及这些用户的关注/粉丝用户13104名,用户社交关系32241条,以及待预测用户的个人简介信息。数据集含兴趣标签46类,申请人将为4368名主用户预测他们各自的兴趣。为了更好地验证用户社交数据的有效性,分别在只有主用户的数据集、以及同时包含主用户和其关注/粉丝用户的数据集上进行实验。
本技术的评估指标分别为精确率accuracy、准确率precision以及F1-macro。将本发明中的模型方法与主流方法进行了比较,其中最后一行是本发明提出的模型,具体结果如表1所示。可以看到本发明提出的模型超过了许多主流模型的性能,证明了本发明提出方法的有效性:
表1:主要模型的性能结果对比
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (10)
1)通过预训练的语言模型,得到各用户的用户特征uj,其中1≤j≤N,N为用户数量;
2)将用户特征uj输入图注意力网络通过固定兴趣标签联合依赖概率近似未知标签用户分布对图注意力网络的参数θ(t-1)进行更新,得到图注意力网络的参数θ(t),其中t为迭代次数,t≥1,兴趣标签联合依赖概率未知标签用户分布通过用户网络得到,IL为已知标签,Iun为未知标签,UV为用户特征uj的集合;
2.如权利要求1所述的方法,其特征在于,预训练的语言模型包括BERT模型。
8.如权利要求1所述的方法,其特征在于,通过已知标签用户的交叉误差函数,判断所述迭代图注意网络是否收敛。
9.一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行权利要求1-8中任一所述方法。
10.一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行如权利要求1-8中任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011159408.5A CN112380427B (zh) | 2020-10-27 | 2020-10-27 | 基于迭代图注意力网络的用户兴趣预测方法及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011159408.5A CN112380427B (zh) | 2020-10-27 | 2020-10-27 | 基于迭代图注意力网络的用户兴趣预测方法及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112380427A true CN112380427A (zh) | 2021-02-19 |
CN112380427B CN112380427B (zh) | 2022-07-08 |
Family
ID=74577303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011159408.5A Active CN112380427B (zh) | 2020-10-27 | 2020-10-27 | 基于迭代图注意力网络的用户兴趣预测方法及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112380427B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011920A (zh) * | 2021-03-15 | 2021-06-22 | 北京百度网讯科技有限公司 | 转化率预估模型的训练方法、装置及电子设备 |
CN113688600A (zh) * | 2021-09-08 | 2021-11-23 | 北京邮电大学 | 一种基于主题感知注意力网络的信息传播预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649659A (zh) * | 2016-12-13 | 2017-05-10 | 重庆邮电大学 | 一种面向社交网络的链接预测系统及方法 |
CN108256678A (zh) * | 2018-01-04 | 2018-07-06 | 浙江大学 | 一种利用排序度量的双层注意力网络进行用户关系预测的方法 |
CN111539786A (zh) * | 2020-04-15 | 2020-08-14 | 清华大学 | 条件注意力网络及其在个性化推荐中的应用方法及装置 |
US20200326934A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | System to analyze and enhance software based on graph attention networks |
-
2020
- 2020-10-27 CN CN202011159408.5A patent/CN112380427B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649659A (zh) * | 2016-12-13 | 2017-05-10 | 重庆邮电大学 | 一种面向社交网络的链接预测系统及方法 |
CN108256678A (zh) * | 2018-01-04 | 2018-07-06 | 浙江大学 | 一种利用排序度量的双层注意力网络进行用户关系预测的方法 |
CN111539786A (zh) * | 2020-04-15 | 2020-08-14 | 清华大学 | 条件注意力网络及其在个性化推荐中的应用方法及装置 |
US20200326934A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | System to analyze and enhance software based on graph attention networks |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011920A (zh) * | 2021-03-15 | 2021-06-22 | 北京百度网讯科技有限公司 | 转化率预估模型的训练方法、装置及电子设备 |
CN113011920B (zh) * | 2021-03-15 | 2024-02-13 | 北京百度网讯科技有限公司 | 转化率预估模型的训练方法、装置及电子设备 |
CN113688600A (zh) * | 2021-09-08 | 2021-11-23 | 北京邮电大学 | 一种基于主题感知注意力网络的信息传播预测方法 |
CN113688600B (zh) * | 2021-09-08 | 2023-07-28 | 北京邮电大学 | 一种基于主题感知注意力网络的信息传播预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112380427B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309331B (zh) | 一种基于自监督的跨模态深度哈希检索方法 | |
CN110232480B (zh) | 利用变分的正则化流实现的项目推荐方法及模型训练方法 | |
CN108431833B (zh) | 端到端深度协作过滤 | |
Chen et al. | Deep reinforcement learning in recommender systems: A survey and new perspectives | |
CN111814854A (zh) | 一种无监督域适应的目标重识别方法 | |
CN111966914B (zh) | 基于人工智能的内容推荐方法、装置和计算机设备 | |
Gui et al. | Embedding learning with events in heterogeneous information networks | |
Wu et al. | Knowledge distillation improves graph structure augmentation for graph neural networks | |
CN111680217A (zh) | 内容推荐方法、装置、设备及存储介质 | |
CN112380427B (zh) | 基于迭代图注意力网络的用户兴趣预测方法及电子装置 | |
CN113065013B (zh) | 图像标注模型训练和图像标注方法、系统、设备及介质 | |
Chen et al. | Label-free node classification on graphs with large language models (llms) | |
Su et al. | Semi-supervised knowledge distillation for cross-modal hashing | |
Sun | POI recommendation method based on multi-source information fusion using deep learning in location-based social networks | |
Lai et al. | Faithful Vision-Language Interpretation via Concept Bottleneck Models | |
Du et al. | POLAR++: active one-shot personalized article recommendation | |
Sharma et al. | An approach toward information retrieval through machine learning and its algorithms: a review | |
CN113761291A (zh) | 标签分类的处理方法和装置 | |
Teng et al. | Toward jointly understanding social relationships and characters from videos | |
Kumari et al. | A Semantic Approach to Solve Scalability, Data Sparsity and Cold-Start Problems in Movie Recommendation Systems | |
Vaičiulytė et al. | Recursive parameter estimation algorithm of the Dirichlet hidden Markov model | |
Arya et al. | Node classification using deep learning in social networks | |
CN111723301B (zh) | 基于层次化主题偏好语义矩阵的关注关系识别及标注方法 | |
CN116932862A (zh) | 冷启动对象推荐方法、装置、计算机设备和存储介质 | |
Idrissi et al. | “Guess Why I didn't rate it”: A New Preference-based Model for Enhanced Top-K Recommendation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |