WO2023065859A1 - 物品推荐方法、装置及存储介质 - Google Patents
物品推荐方法、装置及存储介质 Download PDFInfo
- Publication number
- WO2023065859A1 WO2023065859A1 PCT/CN2022/117056 CN2022117056W WO2023065859A1 WO 2023065859 A1 WO2023065859 A1 WO 2023065859A1 CN 2022117056 W CN2022117056 W CN 2022117056W WO 2023065859 A1 WO2023065859 A1 WO 2023065859A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sample
- item
- target
- model
- loss function
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及人工智能领域,尤其涉及一种物品推荐方法、装置及存储介质。所述方法包括:获取目标对象的历史交互数据,所述历史交互数据指示所述目标对象与至少一个物品之间的历史交互事件;获取预先训练完成的目标推荐模型,所述目标推荐模型包括一层卷积层的图神经网络模型,所述卷积层指示样本对象与样本物品之间的关联关系;根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品。本申请实施例通过简化目标推荐模型的框架结构,使得模型运算时间大幅减少,进而使得模型因其运算效率提高而容易被推广使用,保证了后续基于该模型进行物品推荐的推荐效果。
Description
本申请要求于2021年10月20日提交中国专利局、申请号为202111223081.8、申请名称为“物品推荐方法、装置及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本申请涉及人工智能领域,尤其涉及一种物品推荐方法、装置及存储介质。
在个性化推荐系统中,最重要的是准确预测用户对于特定物品的喜好程度,这不仅影响到用户体验,同时直接影响到企业的收益。因此,用户行为预测具有重要意义。
在图神经网络(Graph Neural Network,GNN)提出之前,对于基于图或者网络类型数据的推荐方式大多是基于核的方法、基于图论的正则化、矩阵分解等方法等来进行推荐。图神经网络的提出为这一问题提供了另一种解决方案,并在许多数据集上都取得了最佳结果。使用图神经网络学习图上的用户和物品的表示不仅能建模对应节点的高阶信息,同时能模拟用户、物品之间的上下文信息和其之间的差异。
对于图神经网络而言,学习节点的低维向量表达过程中传播步骤是非常重要的,它可以获得节点的隐藏状态。传播步骤使用的方法通常是选择不同的聚合函数和特定的更新函数,然后进行迭代计算直到收敛,因此存在一个较长的计算过程,使得模型收敛速度比较慢,导致图神经网络因其效率低而难以推广使用。
发明内容
有鉴于此,提出了一种物品推荐方法、装置及存储介质,可以解决由于图神经网络运算时间过长导致推荐效率低的问题。
第一方面,本申请的实施例提供了一种物品推荐方法,所述方法包括:
获取目标对象的历史交互数据,所述历史交互数据指示所述目标对象与至少一个物品之间的历史交互事件;
获取预先训练完成的目标推荐模型,所述目标推荐模型包括一层卷积层的图神经网络模型,所述卷积层指示样本对象与样本物品之间的关联关系;
根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品。
在该实现方式中,获取目标对象的历史交互数据,历史交互数据指示目标对象与至少一个物品之间的历史交互事件,根据历史交互数据调用预先训练完成的目标推荐模型,输出得到目标对象对应的目标物品,由于目标推荐模型包括一层卷积层的图神经网络模型,该卷积层指示样本对象与样本物品之间的关联关系,大大简化了目标推荐模型的框架结构,使得模型运算时间大幅减少,进而使得模型因其运算效率提高而 容易被推广使用,保证了后续基于该模型进行物品推荐的推荐效果。
在一种可能的实现方式中,所述目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,所述关联物品信息指示与所述样本对象交互过的至少一个物品,所述关联对象信息指示与所述样本物品交互过的至少一个对象,所述n和所述m为正整数。
在该实现方式中,预先训练完成的目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,其中关联物品信息指示与样本对象交互过的至少一个物品,关联对象信息指示与样本物品交互过的至少一个对象,即目标推荐模型可以表示样本对象的操作频繁度和样本物品的热度,进一步保证了后续基于该模型进行物品推荐的推荐效果。
在另一种可能的实现方式中,所述目标推荐模型还指示至少两个所述样本物品之间的关联关系和/或至少两个所述样本对象之间的关联关系。
在该实现方式中,通过建立物品与物品关系、对象与对象的关系,可以更进一步的使用图结构中隐含的信息,有效地利用整个图结构中的其他信息,从而提高了目标推荐模型的推荐效果。
在另一种可能的实现方式中,所述根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品,包括:
将所述历史交互数据输入至所述目标推荐模型中,输出得到目标对象对应的所述目标物品;
其中,所述目标推荐模型是根据至少一组样本数据组训练得到的,每组所述样本数据组包括:样本交互数据和预先标注的正确推荐信息,所述样本交互数据指示所述样本对象和对应的所述样本物品。
在该实现方式中,根据至少一组样本数据组预先训练得到目标推荐模型,每组样本数据组包括:样本交互数据和预先标注的正确推荐信息,样本交互数据指示样本对象和对应的样本物品,以便后续将历史交互数据输入至训练完成的目标推荐模型中,输出得到目标对象对应的目标物品,保证了后续基于该模型进行物品推荐的准确性和可执行性。
在另一种可能的实现方式中,所述获取预先训练完成的目标推荐模型之前,还包括:
获取训练样本集,所述训练样本集包括所述至少一组样本数据组;
对于所述至少一组样本数据组中的每组样本数据组,将所述样本交互数据输入初始参数模型得到训练结果;
根据所述训练结果和所述正确推荐信息,采用预设损失函数计算得到训练损失值,所述训练损失值指示所述训练结果与所述正确推荐信息之间的误差;
根据所述至少一组样本数据组各自对应的训练损失值调整所述初始参数模型的模型参数;
在满足预设收敛条件的情况下,训练得到所述目标推荐模型。
在该实现方式中,获取训练样本集,对于训练样本集中的每组样本数据组,将样本交互数据输入初始参数模型得到训练结果,根据训练结果和正确推荐信息,采用预 设损失函数计算得到训练损失值,根据至少一组样本数据组各自对应的训练损失值调整初始参数模型的模型参数,在满足预设收敛条件的情况下训练得到目标推荐模型,由于训练损失值是根据训练结果和正确推荐信息采用预设损失函数计算得到的,避免了相关技术中需要选择不同的聚合函数和特定的更新函数进行迭代计算的情况,大大缩短了训练过程中的计算时长,提高了目标推荐模型的收敛速度。
在另一种可能的实现方式中,所述至少一组样本数据组包括至少一组正样本数据组和随机采样的至少一组负样本数据组,所述正样本数据组中的所述样本对象与所述样本物品存在交互事件,所述负样本数据组中的所述样本对象与所述样本物品不存在交互事件。
在该实现方式中,在图神经网络模型的训练阶段内采用至少一组正样本数据组和随机采样的至少一组负样本数据组进行模型训练,提高了训练得到的目标推荐模型的准确性,进一步保证了后续基于该模型进行物品推荐的推荐效果。
在另一种可能的实现方式中,所述预设损失函数包括第一损失函数和第二损失函数,所述第一损失函数是基于所述样本对象与所述样本物品之间的关联关系设置的损失函数,所述第二损失函数是预设类型的损失函数。
在该实现方式中,基于样本对象与样本物品之间的关联关系设置第一损失函数,采用第一损失函数和预设类型的第二损失函数直接计算训练损失值,提高了图神经网络模型的收敛速度和运算效率。
在另一种可能的实现方式中,所述预设损失函数还包括第三损失函数,所述第三损失函数是基于至少两个所述样本物品之间的关联关系设置的损失函数。
在该实现方式中,基于至少两个所述样本物品之间的关联关系设置第三损失函数,采用第一损失函数、第二损失函数和第三损失函数直接计算训练损失值,即通过建模物品与物品的关系及设计新的损失函数,可以更进一步地使用图结构中隐含的信息,提高训练得到的目标推荐模型的准确性。
在另一种可能的实现方式中,所述预设损失函数还包括第四损失函数,所述第四损失函数是基于至少两个所述样本对象之间的关联关系设置的损失函数。
在该实现方式中,基于至少两个所述样本对象之间的关联关系设置第四损失函数,采用第一损失函数、第二损失函数和第四损失函数(或者第一损失函数、第二损失函数、第三损失函数和第四损失函数)直接计算训练损失值,即通过建模对象与对象的关系及设计新的损失函数,可以更进一步地使用图结构中隐含的信息,提高训练得到的目标推荐模型的准确性。
在另一种可能的实现方式中,所述物品包括文本、链接、产品、服务、观念信息中的至少一种。
在该实现方式中,物品可以包括文本、链接、产品、服务、观念信息中的至少一种,即本申请实施例提供的物品推荐方法可以应用于多种推荐场景,比如推荐新文档、新商品、新应用程序等场景,适用范围较广。
第二方面,本申请的实施例提供了一种物品推荐装置,所述装置包括:
第一获取单元,用于获取目标对象的历史交互数据,所述历史交互数据指示所述目标对象与至少一个物品之间的历史交互事件;
第二获取单元,用于获取预先训练完成的目标推荐模型,所述目标推荐模型包括一层卷积层的图神经网络模型,所述卷积层指示样本对象与样本物品之间的关联关系;
调用单元,用于根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品。
在一种可能的实现方式中,所述目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,所述关联物品信息指示与所述样本对象交互过的至少一个物品,所述关联对象信息指示与所述样本物品交互过的至少一个对象,所述n和所述m为正整数。
在另一种可能的实现方式中,所述目标推荐模型还指示至少两个所述样本物品之间的关联关系和/或至少两个所述样本对象之间的关联关系。
在另一种可能的实现方式中,所述调用单元,还用于:
将所述历史交互数据输入至所述目标推荐模型中,输出得到目标对象对应的所述目标物品;
其中,所述目标推荐模型是根据至少一组样本数据组训练得到的,每组所述样本数据组包括:样本交互数据和预先标注的正确推荐信息,所述样本交互数据指示所述样本对象和对应的所述样本物品。
在另一种可能的实现方式中,所述装置,还包括:训练单元;所述训练单元,用于:
获取训练样本集,所述训练样本集包括所述至少一组样本数据组;
对于所述至少一组样本数据组中的每组样本数据组,将所述样本交互数据输入初始参数模型得到训练结果;
根据所述训练结果和所述正确推荐信息,采用预设损失函数计算得到训练损失值,所述训练损失值指示所述训练结果与所述正确推荐信息之间的误差;
根据所述至少一组样本数据组各自对应的训练损失值调整所述初始参数模型的模型参数;
在满足预设收敛条件的情况下,训练得到所述目标推荐模型。
在另一种可能的实现方式中,所述至少一组样本数据组包括至少一组正样本数据组和随机采样的至少一组负样本数据组,所述正样本数据组中的所述样本对象与所述样本物品存在交互事件,所述负样本数据组中的所述样本对象与所述样本物品不存在交互事件。
在另一种可能的实现方式中,所述预设损失函数包括第一损失函数和第二损失函数,所述第一损失函数是基于所述样本对象与所述样本物品之间的关联关系设置的损失函数,所述第二损失函数是预设类型的损失函数。
在另一种可能的实现方式中,所述预设损失函数还包括第三损失函数,所述第三损失函数是基于至少两个所述样本物品之间的关联关系设置的损失函数。
在另一种可能的实现方式中,所述预设损失函数还包括第四损失函数,所述第四损失函数是基于至少两个所述样本对象之间的关联关系设置的损失函数。
在另一种可能的实现方式中,所述物品包括文本、链接、产品、服务、观念信息中的至少一种。
第三方面,本申请的实施例提供了一种物品推荐装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令时实现上述第一方面或第一方面中的任意一种可能的实现方式所提供的方法。
第四方面,本申请的实施例提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述第一方面或第一方面中的任意一种可能的实现方式所提供的方法。
第五方面,本申请的实施例提供了一种计算机程序产品,所述计算机程序产品包括计算机可读指令,当所述计算机可读指令在计算机设备上运行时,使得所述计算机设备执行上述第一方面或第一方面中的任意一种可能的实现方式所提供的方法。
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本申请的示例性实施例、特征和方面,并且用于解释本申请的原理。
图1示出了相关技术中图卷积神经网络模型的原理示意图。
图2示出了本申请的实施例的一种应用场景的示意图。
图3示出了本申请一个示例性实施例提供的计算机设备的结构示意图。
图4示出了本申请一个示例性实施例提供的物品推荐方法的流程图。
图5示出了本申请一个示例性实施例提供的目标推荐模型的训练过程的流程图。
图6示出了本申请一个示例性实施例提供的训练样本集指示的对象与物品的交互情况的示意图。
图7示出了本申请一个示例性实施例提供的第一邻接矩阵文件的示意图。
图8示出了本申请一个示例性实施例提供的物品推荐方法的原理示意图。
图9示出了本申请一个示例性实施例提供的物品推荐方法的原理示意图。
图10示出了本申请一个示例性实施例提供的物品推荐方法涉及的应用界面的示意图。
图11示出了本申请一个示例性实施例提供的物品推荐装置的框图。
以下将参考附图详细说明本申请的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本申请,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本申请同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本申请的主旨。
首先,本申请实施例对涉及的一些名词进行介绍。
1、人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控
制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2、自然语言处理(Nature Language processing,NLP):是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
3、机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
4、图神经网络:图神经网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。
5、交互数据:包括在推荐系统中对象对物品进行操作的数据,指示对象与至少一个物品之间的交互事件,比如,对象为用户,物品为产品信息、服务信息、观念信息中的至少一种,交互事件包括浏览、点击、下载、购买、评论中的至少一种事件。本申请实施例对此不加以限定。
6、对象与物品的关联关系,基于该关联关系可获知对象的相邻物品和物品的相邻对象。
物品的相邻对象是指操作过该物品的对象。比如,物品i的相邻对象包括点击过和/或下载过物品i的对象。
对象的相邻物品是指被该对象操作过的物品。例如,对象u的相邻物品包括对象u点击过和/或下载过的物品。
相关技术中从原始图神经网络中衍生了如下几种类型的图神经网络:
1、图卷积网络(Graph Convolutional Network,GCN):旨在将卷积推广到图域。GCN用于提取拓扑图的空间特征,在空域(spatial domain)和谱域(spectral domain)实现目标是两种最主流的方式。GCN及其相关的变种属于这一方向。
2、图递归网络:把图神经网络(Recurrent Neural Network,RNN)的门控机制应用在节点传播上,以突破原始GNN的一些限制,提高图上长距离信息的传播效率。比如,图递归网络模型包括长短期记忆网络(Long Short-Term Memory,LSTM)、门控循环单元(Gated Recurrent Unit,GRU)等模型。
3、图注意力网络:注意力机制,会为当前节点每一个邻接节点分配不同的注意力分数,以识别更重要的邻接节点。比如,图注意力网络模型包括图注意力网络(Graph Attention Network,GAT)、门控注意力网络(Gated Attention Networks,GAAN)等模型。
4、图残差网络:使用残差连接来解决超过3层的图卷积层会引入噪音导致效果反而会变差的问题。
相关技术中,以图神经网络模型为图卷积神经网络模型为例,图卷积神经网络模型的原理示意图如图1所示,图卷积神经网络模型中包括多层隐藏层(Hidden layer)和多个激活函数,比如激活函数为修正线性单元(Rectified Linear Unit,ReLU)函数。在图卷积神经网络中,每个节点因其他的各个节点的影响而改变自身状态直到最终的平衡,距离越近的节点影响越大。图卷积神经网络模型采用直推学习(Transductive learning)的方式,需要将所有的节点都参与训练才能得到嵌入(embedding)表达,即节点特征的更新方式是基于聚合邻居节点的信息来完成,这种计算方式不可避免需要一定的计算时间,使得模型收敛较慢,导致图神经网络模型因其效率低而难以推广使用。
为此,本申请实施例提供了一种物品推荐方法、装置及存储介质,可以解决由于图神经网络运算时间过长导致推荐效率低的问题。
本申请实施例提供的物品推荐方法,可适用于基于图神经网络模型下不同的推荐场景。图2为本申请的实施例的一种应用场景的示意图。
当对象进入推荐系统,推荐系统会根据该对象的日志(包括该对象的各种交互数据),向该对象推送可能会感兴趣的物品,然后将该对象与返回结果之间的交互数据存储在日志中,交互数据指示对象与至少一个物品之间的交互事件,比如浏览、点击、下载、购买、评论等。
在模型训练阶段,目标推荐模型会统计预设周期内的日志(包括至少一个对象的历史交互数据),并根据至少一个对象的历史交互数据离线训练目标推荐模型,将训练完成的目标推荐模型推送上线。
在推荐阶段,在线通过调用训练完成的目标推荐模型输出并显示待推荐的物品列表,物品列表包括物品标识1、物品标识2、物品标识3等。通过更新对象的交互数据来确定该对象最新的兴趣点所在,以便给其推送最新的相关物品以提升推荐效果。即记录对象更新的交互数据,将更新的交互数据存入日志中,作为下一次的模型训练的 数据,以保证模型效果。
可以理解的是,图2的场景仅是一种示例,本申请的技术方案还可以应用于其它场景,只要该场景涉及根据对象的历史交互数据向对象推荐物品即可。其中,物品包括文本、链接、产品、服务、观念信息中的至少一种。本申请的技术方案可以应用于点评网站,根据对象消费过的餐厅向对象推荐新餐厅等场景。本申请的技术方案还可以应用于购物网站,根据对象购买过的商品向对象推荐新商品等场景。本申请的技术方案还可以应用于应用市场,根据对象下载过的应用程序向对象推荐新应用程序等场景。本申请实施例对此不加以限定。
本申请实施例提供了一种物品推荐方法,执行主体为计算机设备。请参考图3,其示出了本申请一个示例性实施例提供的计算机设备的结构示意图。
该计算机设备可以是终端或者服务器。终端包括移动终端或者固定终端,比如终端可以是手机、平板电脑、膝上型便携计算机和台式计算机等等。服务器可以是一台服务器,或者由若干台服务器组成的服务器集群,或者是一个云计算服务中心。
可选的,该计算机设备安装有物品推荐程序,该物品推荐程序是具有推荐物品功能的应用程序。
如图3所示,计算机设备包括处理器10、存储器20以及通信接口30。本领域技术人员可以理解,图1中示出的结构并不构成对该计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器10是计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器20内的软件程序和/或模块,以及调用存储在存储器20内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体控制。处理器10可以由CPU实现,也可以由图形处理器(Graphics Processing Unit,GPU)实现。
存储器20可用于存储软件程序以及模块。处理器10通过运行存储在存储器20的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器20可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统21、第一获取单元22、第二获取单元23、调用单元24和至少一个功能所需的应用程序25(比如神经网络训练等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。存储器20可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM),可编程只读存储器(Programmable Read-Only Memory,PROM),只读存储器(Read Only Memory,ROM),磁存储器,快闪存储器,磁盘或光盘。相应地,存储器20还可以包括存储器控制器,以提供处理器10对存储器20的访问。
其中,处理器20通过运行第一获取单元22执行以下功能:获取目标对象的历史交互数据,历史交互数据指示目标对象与至少一个物品之间的历史交互事件;处理器20通过运行第二获取单元23执行以下功能:获取预先训练完成的目标推荐模型,目 标推荐模型包括一层卷积层的图神经网络模型,卷积层指示样本对象与样本物品之间的关联关系;处理器20通过运行调用单元24执行以下功能:根据历史交互数据,调用目标推荐模型输出得到目标对象对应的目标物品。
下面,采用几个示例性实施例对本申请实施例提供的物品推荐方法进行介绍。
请参考图4,其示出了本申请一个示例性实施例提供的物品推荐方法的流程图,本实施例以该方法用于图3所示的计算机设备中来举例说明。该方法包括以下几个步骤。
步骤401,获取目标对象的历史交互数据,历史交互数据指示目标对象与至少一个物品之间的历史交互事件。
可选的,当计算机设备接收到第一触发信号时,获取目标对象的历史交互数据。或者,计算机设备每隔预设时间间隔获取目标对象的历史交互数据。
示意性的,第一触发信号为触发进行物品推荐的用户操作信号。比如,第一触发信号包括点击操作信号、滑动操作信号、按压操作信号、长按操作信号中的任意一种或多种的组合。
在其它可能的实现方式中,第一触发信号也可以语音形式实现。比如,计算机设备接收用户输入的语音信号,对该语音信号进行解析获取语音内容,当语音内容中存在与预设信息相匹配的关键字词时,即确定接收到第一触发信号。
其中,预设时间间隔为默认设置的,或者自定义设置的,本实施例对此不加以限定。
可选地,历史交互数据包括目标对象在历史上与至少一个物品之间进行交互的数据。
可选地,历史交互数据是在当前时刻之前的预设统计周期内获取的。其中,预设统计周期为默认设置的,或者自定义设置的,本实施例对此不加以限定。
可选地,历史交互数据指示目标对象在多个应用中与至少一个物品之间的历史交互事件。
可选地,历史交互数据指示目标对象在目标应用中与至少一个物品之间的历史交互事件,目标应用为预设类型的应用,或者为预设的至少一个应用,或者是与第一触发信号对应的应用。
可选地,交互事件包括浏览、点击、下载、购买、评论中的至少一种事件。本申请实施例对此不加以限定。
可选地,物品包括文本、链接、产品、服务、观念信息中的至少一种。本申请实施例对此不加以限定。
步骤402,获取预先训练完成的目标推荐模型,目标推荐模型包括一层卷积层的图神经网络模型,卷积层指示样本对象与样本物品之间的关联关系。
计算机设备获取训练好的目标推荐模型。在一种可能的实现方式中,当计算机设备为终端时,终端获取自身存储的训练好的目标推荐模型,或者从服务器中获取训练好的目标推荐模型。在另一种可能的实现方式中,当计算机设备为服务器时,服务器获取自身存储的训练好的目标推荐模型。
目标推荐模型包括采用样本交互数据和正确推荐信息对图神经网络进行训练得到的模型,样本交互数据指示样本对象和对应的样本物品。即目标推荐模型是根据样本交互数据和正确推荐信息所确定的。其中,正确推荐信息为预先标注的与样本交互数据对应的正确的待推荐物品。
目标推荐模型是具有基于目标对象的历史交互数据进行定向推荐功能的图神经网络模型。
目标推荐模型用于将输入的历史交互数据转化为待推荐的目标物品。
目标推荐模型用于表示样本对象与样本物品之间的关联关系。
目标推荐模型为预设的数学模型,该目标推荐模型包括样本对象与样本物品之间的模型系数。模型系数可以为固定值,也可以是随时间动态修改的值,还可以是随着使用场景动态修改的值。
可选的,目标推荐模型包括图神经网络模型,该图神经网络模型为只有一层卷积层的图神经网络的模型。即目标推荐模型为图神经网络的模型,或者,为图神经网络和其他神经网络的混合模型,其中图神经网络为只有一层卷积层的图神经网络,该卷积层指示样本对象与样本物品之间的关联关系。比如,其他神经网络为LSTM。本申请实施例对此不加以限定。
步骤403,根据历史交互数据,调用目标推荐模型输出得到目标对象对应的目标物品。
可选的,计算机设备将历史交互数据输入至目标推荐模型中,输出得到目标对象对应的目标物品。
可选地,目标物品为待推荐的至少一个物品。目标物品是基于目标对象的历史交互数据所预测的目标对象感兴趣的至少一个物品。示意性的,目标推荐模型的输出结果包括至少一个物品标识,物品标识用于在多个物品中唯一指示该物品。
比如,计算机设备将历史交互数据输入至目标推荐模型中,输出得到目标对象对应的待推荐的物品序列:物品标识1、物品标识2和物品标识3。
可选地,计算机设备为终端时,目标对象为一个对象,目标推荐模型的输入参数(即目标对象的历史交互数据)包括该对象的历史交互数据,目标推荐模型的输出参数(即目标对象对应的目标物品)包括该对象对应的待推荐的至少一个物品。在输出得到目标对象对应的目标物品后,终端显示待推荐的至少一个物品。
可选地,计算机设备为服务器时,目标对象为n个对象,n为正整数,目标推荐模型的输入参数(即目标对象的历史交互数据)包括n个对象各自对应的历史交互数据,目标推荐模型的输出参数(即目标对象对应的目标物品)包括n个对象各自对应的待推荐的至少一个物品。在输出得到目标对象对应的目标物品后,服务器保存输出结果。对于n个对象中的任意一个对象对应的终端,服务器向该终端发送对应的待推荐的至少一个物品,或者服务器在接收到该终端发送的物品推荐请求后,向该终端发送对应的待推荐的至少一个物品。
综上所述,本申请实施例通过获取目标对象的历史交互数据,历史交互数据指示目标对象与至少一个物品之间的历史交互事件,根据历史交互数据调用预先训练完成的目标推荐模型,输出得到目标对象对应的目标物品,由于目标推荐模型包括一层卷 积层的图神经网络模型,该卷积层指示样本对象与样本物品之间的关联关系,大大简化了目标推荐模型的框架结构,使得模型运算时间大幅减少,进而使得模型因其运算效率提高而容易被推广使用,保证了后续基于该模型进行物品推荐的推荐效果。
需要说明的是,在计算机设备获取目标推荐模型之前,需要对训练样本集进行训练得到目标推荐模型。下面对目标推荐模型的训练过程进行介绍。
在一种可能的实现方式中,如图5所示,对目标推荐模型的训练过程包括如下几个步骤:
步骤501,获取训练样本集,训练样本集包括至少一组样本数据组。
目标推荐模型是根据至少一组样本数据组训练得到的,每组样本数据组包括:样本交互数据和预先标注的正确推荐信息,样本交互数据指示样本对象和对应的样本物品。
其中,训练样本集中的样本交互数据指示预设统计周期内统计的多个样本对象在系统中与所展示的物品之间产生的交互事件,交互事件包括浏览、点击、下载、购买、评论中的至少一种事件。本申请实施例对此不加以限定。
可选地,样本交互数据包括样本对象标识和对应的样本物品标识,样本对象标识用于在多个对象中唯一标识该样本对象,样本物品标识用于在多个物品中唯一标识该样本物品。
本申请实施例中仅以节点本身的标识特征(即对象标识或物品标识)为例进行说明,并没有使用节点其他的特征(比如:文本信息、标签、时间、地域等),这些特征也可以用于节点的向量表达。
可选地,样本交互数据还包括样本对象与样本物品之间的交互事件标识和/或交互事件的发生时刻,交互事件标识用于在多个交互事件中唯一标识该交互事件。
可选地,样本交互数据还包括交互事件的其它特征,其它特征指示文本信息、标签、时间和地域中的至少一种。本申请实施例对样本交互数据的数据结构不加以限定。
其中,至少一组样本数据组包括至少一组正样本数据组和随机采样的至少一组负样本数据组,正样本数据组中的样本对象与样本物品存在交互事件,负样本数据组中的样本对象与样本物品不存在交互事件。
可选地,计算机设备获取数据库中的数据集后,对数据集进行预处理,预处理包括去噪声处理和/或去除错误数据的处理,将预处理后的数据集进行划分得到训练样本集和测试样本集。
可选地,训练样本集和测试样本集的内容均指示对象与物品的交互情况。训练样本集包括第一预设时间段内的多个对象的历史交互数据,测试样本集包括第二预设时间段内的多个对象的历史交互数据,第二预设时间段为预设统计周期内的一段时间段(比如最后一天或者最后几天),第一预设时间段为预设统计周期内除预设时间段外的时间段。
在一个示意性的例子中,训练样本集指示的对象与物品的交互情况如图6所示,对象Q1交互过的物品为物品I1和物品I2,对象Q2交互过的物品为物品I2和物品I3,对象Q3交互过的物品为物品I2、物品I3和物品I4,对象Q4交互过的物品为物品I4。
可选地,计算技术设备基于历史交互数据统计多个物品之间的共现频率,生成物品与物品的第一邻接矩阵文件,第一邻接矩阵文件指示任意两个物品被同一对象交互过的次数。
可选地,计算技术设备基于历史交互数据统计多个对象之间的共现频率,生成对象与对象的第二邻接矩阵文件,第二邻接矩阵文件指示任意两个对象交互过同一物品的次数。
可选地,训练样本集还包括基于物品与物品的共现频率生成的第一邻接矩阵文件,和/或,基于对象与对象的共现频率生成的第二邻接矩阵文件。
在一个示意性的例子中,基于图6所示的交互情况,生成物品与物品的第一邻接矩阵文件,如图7所示,物品I1与物品I1被同一对象交互过的次数为0,物品I1与物品I2被同一对象交互过的次数为1,物品I1与物品I3被同一对象交互过的次数为0,物品I1与物品I4被同一对象交互过的次数为0;物品I2与物品I2被同一对象交互过的次数为0,物品I2与物品I3被同一对象交互过的次数为2,物品I2与物品I4被同一对象交互过的次数为1;物品I3与物品I3被同一对象交互过的次数为0,物品I3与物品I4被同一对象交互过的次数为1;物品I4与物品I4被同一对象交互过的次数为0。
步骤502,对于至少一组样本数据组中的每组样本数据组,将样本交互数据输入初始参数模型得到训练结果。
可选地,计算机设备在获取到训练样本集、测试样本集和过滤后的邻接矩阵(第一邻接矩阵和/或第二邻接矩阵)后,读取全部的文件,将初始参数模型中的各节点初始化。
可选的,初始参数模型是根据图神经网络模型建立的,该图神经网络模型包括一层卷积层,该卷积层指示样本对象与样本物品之间的关联关系。
可选地,初始参数模型的节点初始化采用随机初始化的形式。
示意性的,对于每组样本数据组,计算机设备创建该组样本数据组对应的输入输出对,输入输出对的输入参数为该组样本数据组,目标参数为该组样本数据组中的正确推荐信息;计算机设备将输入参数输入初始参数模型中,得到训练结果。
可选的,输入输出对通过特征向量表示。
步骤503,根据训练结果和正确推荐信息,采用预设损失函数计算得到训练损失值,训练损失值指示训练结果与正确推荐信息之间的误差。
基于轻量图卷积网络(LightGCN)的简化思想将图神经网络中的信息聚合过程进行了更进一步的简化,通过模拟模型的收敛条件可以直接略去中间无数需要大量计算时间的消息传递层的计算过程,直接计算最终的对象与物品向量,以达到模型的快速收敛。
在一种可能的实现方式中,预设损失函数包括第一损失函数和第二损失函数,第一损失函数是基于样本对象与样本物品之间的关联关系设置的损失函数,第二损失函数是预设类型的损失函数。
可选地,第二损失函数为均值平方差(Mean Squared Error,MSE)损失函数,或者二值交叉熵(Binary Cross Entropy,BCE)损失函数。本申请实施例对此不加以限定。
可选地,根据训练结果和正确推荐信息,基于第一损失函数确定第一损失值,并基于第二损失函数确定第二损失值,基于第一损失值和第二损失值确定训练损失值。
可选地,训练损失值是基于第一损失值、第二损失值和第一权重值确定的;示意性的,将第一损失值与第一权重值相乘得到第一乘积,将第一乘积与第二损失值的和确定为训练损失值。其中,第一权重值为指定数值,第一权重值用于平衡第一损失值和第二损失值。示意性的,第一权重值是默认设置的,或者是自定义设置的。
其中,β
u,i,β
u,j为约束系数,N
+,N
-分别为正样本数据组及随机采样的负样本数据组,σ为sigmoid激活函数,e
u为样本对象u的低维向量表达,e
i、e
j分别代表正样本数据组中样本物品i的低维向量表达与负样本数据组中的样本物品j中的低维向量表达。
示意性的,通过如下公式计算得到β
u,i:
其中,d
u为样本对象u对应的关联物品信息,关联物品信息指示样本对象u的操作频繁度,关联物品信息指示与样本对象u交互过的至少一个物品;d
i为样本物品i对应的关联对象信息,关联对象信息指示样本物品i的热度,关联对象信息指示与样本物品i交互过的至少一个对象。
示意性的,通过如下公式计算得到β
u,j:
其中,d
u为样本对象u对应的关联物品信息,关联物品信息指示样本对象u的操作频繁度,关联物品信息指示与样本对象u交互过的至少一个物品;d
j为样本物品j对应的关联对象信息,关联对象信息指示样本物品j的热度,关联对象信息指示与样本物品j交互过的至少一个对象。
可选地,样本对象的关联物品信息包括与该样本对象交互过的至少一个物品的个数,样本物品的关联对象信息包括与该样本物品交互过的至少一个对象的个数。
此外,一般图神经网络无法有效的利用完整的图结构信息,本申请实施例还通过建立物品与物品关系、对象与对象的关系及设计新的损失函数,可以更进一步的使用图结构中隐含的信息,有效地利用整个图结构中的其他信息。
在另一种可能的实现方式中,预设损失函数包括第一损失函数、第二损失函数和第三损失函数,第三损失函数是基于至少两个样本物品之间的关联关系设置的损失函数。
可选地,根据训练结果和正确推荐信息,基于第一损失函数确定第一损失值,并基于第二损失函数确定第二损失值,基于第一损失值和第二损失值确定主损失值;基于第三损失函数确定第三损失值,基于主损失值和第三损失值确定训练损失值。
其中,基于第一损失值和第二损失值确定主损失值的过程可类比参考上述基于第一损失值和第二损失值确定训练损失值的相关描述,在此不再赘述。
在该实现方式中,训练损失值是基于主损失值、第三损失值和第三权重值确定的,其中,第三权重值为指定数值,第三权重值用于平衡主损失值和第三损失值。示意性的,第三权重值是默认设置的,或者是自定义设置的。
其中,物品i和物品j之间的物品相似度ω
i,j为:
其中,G为物品与物品的第一邻接矩阵,G
i,k为第一邻接矩阵中第i行第k列中的值,G
i,j为第一邻接矩阵中第i行第j列中的值,G
i,i为第一邻接矩阵中第i行第i列中的值,g
i为第一邻接矩阵中第i行所有值之和,代表物品i的度,S(i)为与物品i相似的其他物品所构成的集合。
需要说明的是,对于大多数场景,物品与物品的第一邻接矩阵往往较为稠密,即在第一邻接矩阵中一个物品会与较多的物品有共现,如果将所有的共现物品均纳入计算过程将导致第三损失函数引入过多的噪声。在一种可能的实现方式中,为了减小噪声的影响,针对每个物品,按照物品相似度从大到小的顺序将其他的多个物品进行排序,将排序后位于前K个的物品确定为待计算集合,根据每个物品和各自对应的待计算集合采用第三损失函数进行计算,即上述S(i)可以是根据物品相似度ω
i,j所确定的与物品i的最相似的K个物品所构成的集合。
可选地,预设损失函数还包括第四损失函数,第四损失函数是基于至少两个样本对象之间的关联关系设置的损失函数。
在另一种可能的实现方式中,预设损失函数包括第一损失函数、第二损失函数和第四损失函数,第四损失函数是基于至少两个样本对象之间的关联关系设置的损失函数。
可选地,根据训练结果和正确推荐信息,基于第一损失函数确定第一损失值,并基于第二损失函数确定第二损失值,基于第一损失值和第二损失值确定主损失值;基于第四损失函数确定第四损失值,基于主损失值和第四损失值确定训练损失值。
在该实现方式中,训练损失值是基于主损失值、第四损失值和第四权重值确定的,其中,第四权重值为指定数值,第四权重值用于平衡主损失值和第四损失值。示意性 的,第四权重值是默认设置的,或者是自定义设置的。
需要说明的是,基于主损失值、第四损失值和第四权重值确定训练损失值的过程可类比参考上述基于主损失值、第三损失值和第三权重值确定训练损失值的相关描述,在此不再赘述。
在另一种可能的实现方式中,预设损失函数包括第一损失函数、第二损失函数、第三损失函数和第四损失函数。
可选地,根据训练结果和正确推荐信息,基于第一损失函数确定第一损失值,并基于第二损失函数确定第二损失值,基于第一损失值和第二损失值确定主损失值;基于第三损失函数确定第三损失值,基于第四损失函数确定第四损失值,基于主损失值、第三损失值和第四损失值确定训练损失值。
需要说明的是,基于主损失值、第三损失值和第四损失值确定训练损失值的过程可类比参考上述确定训练损失值的相关描述,在此不再赘述。
步骤504,根据至少一组样本数据组各自对应的训练损失值调整初始参数模型的模型参数。
可选的,计算机设备通过反向传播算法根据训练损失值确定目标推荐模型的梯度方向,从目标推荐模型的输出层逐层向前更新目标推荐模型中的模型参数。
步骤505,在满足预设收敛条件的情况下,训练得到目标推荐模型。
计算机设备在满足预设收敛条件的情况下,训练得到目标推荐模型。
可选地,预设收敛条件包括:训练损失值小于预设误差阈值,或者两次迭代之间的训练损失值小于预设差值阈值,或者迭代次数大于预设最大迭代次数。本申请实施例对此不加以限定。
可选地,在训练完成目标推荐模型后,计算机设备根据目标对象的向量表达得到目标对象对多个物品的相似度。示意性的,用物品的向量对多个其他物品的向量求点乘得到乘积值,该乘积值与两个物品节点之间的相似度呈正相关关系,即乘积值越大表示这两个物品越相似,然后按照乘积值从大到小的顺序将多个其他物品进行排序,输出排序后位于前N个的物品,这些物品即可认为是该对象最感兴趣的物品,作为待推荐给该对象的目标物品。目标推荐模型的推荐阶段可以放在线下离线计算,也可以放在线上实时进行定向推荐。
请参考图8,其示出了本申请一个示例性实施例提供的物品推荐方法的原理示意图,本实施例以该方法用于图3所示的计算机设备中来举例说明。该方法包括以下几个步骤。
步骤801,对数据集进行预处理得到训练样本集和测试样本集。
计算机设备获取数据库中的数据集,对数据集进行预处理得到训练样本集和测试样本集。
步骤802,根据训练样本集和测试样本集进行模型训练得到目标推荐模型。
可选地,计算机设备根据训练样本集和测试样本集,对初始参数模型进行模型训练得到目标推荐模型。
其中,目标推荐模型包括一层卷积层的图神经网络模型,卷积层指示样本对象与样本物品之间的关联关系。
可选地,目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,关联物品信息指示与样本对象交互过的至少一个物品,关联对象信息指示与样本物品交互过的至少一个对象,n和m为正整数。
可选地,目标推荐模型还指示至少两个样本物品之间的关联关系和/或至少两个样本对象之间的关联关系。
步骤803,根据目标对象的历史交互数据,调用目标推荐模型输出得到目标对象对应的目标物品。
计算机设备获取目标对象的历史交互数据,根据历史交互数据调用训练完成的目标推荐模型,输出得到该目标对象对应的目标物品。
需要说明的是,本实施例中各个步骤的相关细节可参考上述实施例中的相关描述,在此不再赘述。
请参考图9,其示出了本申请一个示例性实施例提供的物品推荐方法的原理示意图,本实施例以该方法用于图3所示的计算机设备中来举例说明。该方法包括以下几个步骤。
步骤901,对数据集进行预处理得到训练样本集和测试样本集。
步骤902,对初始参数模型中的节点进行初始化。
步骤903,根据训练样本集和测试样本集对初始参数模型进行模型训练,得到目标推荐模型。
步骤904,根据目标对象的历史交互数据,调用目标推荐模型输出得到推荐结果。
其中,推荐结果包括待推荐给目标对象的目标物品。
需要说明的是,本实施例中各个步骤的相关细节可参考上述实施例中的相关描述,在此不再赘述。
在一个示意性的例子中,如图10所示,在用户A的手机应用市场的推荐页面中显示有第一应用图标列表1010,第一应用图标列表1010中包括多个应用图标,比如图标“应用A”、图标“应用B”、图标“应用C”和图标“应用D”等,这些应用图标是根据用户A前一段时间在该手机上的历史交互数据所推荐的应用图标,根据用户A与物品的相关度进行降序排列,将最可能被下载的应用图标排在最靠前的位置。
在用户A看到手机应用市场的第一应用图标列表1010之后,根据个人兴趣,选择浏览、点击或者下载等交互操作,这些交互操作对应的交互数据被存入日志中,作为历史交互数据。手机或者手机对应的服务器将日志中的历史交互数据作为训练样本集重新训练目标推荐模型。为了方便说明,下面仅以手机重新训练模型为例进行介绍。 在图10的示例场景下,用户A点击了应用图标A,手机记录下该操作的交互数据。在预设统计周期内,手机将记录的历史交互数据进行预处理后,根据新的历史交互数据重新训练目标推荐模型,然后重新评估该用户A的最新兴趣点所在,得到待重新推荐的多个应用图标,并在推荐页面中更新显示第二应用图标列表1020,第二应用图标列表1020中包括重新推荐的多个应用图标,比如图标“应用E”、图标“应用F”、图标“应用G”和图标“应用H”等,以提高物品推荐效果。
在一个示意性的例子中,对本申请实施例提供的目标推荐模型进行了实验,对比了相关技术中的其他方案。由于本申请实施例中的目标推荐模型为极简的图神经网络,其在取得较好的效果提升的情况下,仍然有着非常快的运算效率,因此实验的对比从推荐效果及模型运算效率这两个方面进行对比。
在一方面,在推荐效果的对比。在多个公开数据集(包括Amazon-Books,yelp2018,Gowalla,Amazon-Electronics,Amazon-CDs,Movielens-1M这6个数据集)上对比多个最前沿(state-of-the-art model,SOTA)模型在recall@20,ndcg@20指标上的表现,同时在目标数据集上对比相关技术中的推荐模型在AUC指标上的表现。本申请实施例提供的目标推荐模型在公开数据集上的推荐效果表现如表一所示:
表一
本申请实施例提供的目标推荐模型在目标数据集上的推荐效果表现如表二所示:
表二
评测项 | ENMF | GHCF | UltraGCN |
AUC | 0.81893 | 0.84514 | 0.89535 |
从表一可以发现在公开数据集上可以发现本申请实施例提供的目标推荐模型的推荐效果提升明显,recall@20与ndcg@20提升最高可以达到60%~70%;从表二可以发现,在目标数据集上,离线实验证明本申请实施例提供的目标推荐模型对比线上的非负矩阵扩展(Extended Non-negative Matrix,ENMF)及图异构协同过滤(Graph Heterogeneous Collaborative Filtering,GHCF)模型的AUC指标,分别提升9.33%、5.94%,推荐效果的提升也较为明显。
在另一方面,模型运算效率的对比。在公开数据集上对比LightGCN模型,对比两个模型在设定条件下的整体运算时间,实验结果如表三所示:
表三
模型 | 训练时长(分钟) | Recall@20 | NDCG@20 |
MF-BPR | 12m | 0.0338 | 0.0261 |
ENMF | 2h41m | 0.0355 | 0.0277 |
LR-GCCF | 1h13m | 0.0304 | 0.0185 |
LightGCN | 1h4m | 0.0342 | 0.0262 |
UltraGCN | 45m | 0.0681 | 0.0556 |
本申请实施例提供的目标推荐模型对比其他模型在75个时期(epoch)下效率对比,实验结果如表四所示:
表四
模型 | 训练时长(分钟) | Recall@20 | NDCG@20 |
MF-BPR | 12m | 0.0338 | 0.0261 |
ENMF | 2h41m | 0.0355 | 0.0277 |
LR-GCCF | 1h13m | 0.0304 | 0.0185 |
LightGCN | 1h4m | 0.0342 | 0.0262 |
UltraGCN | 45m | 0.0681 | 0.0556 |
通过表三可以发现,在模型的整体运行效率上,本申请实施例提供的目标推荐模型仅使用45分钟就完成了收敛,在表四中对比75个时期的运行效率,本申请实施例提供的目标推荐模型比LightGCN模型在运算效果上提升近1倍,同时可以看出在固定时期上,本申请实施例提供的目标推荐模型的推荐效果也要好出LightGCN模型超过100%。
综上所述,本申请实施例涉及的目标推荐模型使用了更加简化的图神经网络模型的框架结构,通过推导图神经网络中若有无限层消息传递层的情况下模型的收敛条件,并通过直接拟合收敛条件来省略图神经网络中的消息传递层的计算,从而使得模型运算时间大幅减少,极大的提升模型的运算效率,使得图神经网络模型可以很好的实现线上使用。
此外,针对相关技术中图神经网络无法更深层次利用图结构信息这个情况,本申 请实施例基于图神经网络模型来充分挖掘对象与物品的关系,并且建模物品与物品的关系,以及对象与对象的关系,通过更深层次的利用图结构信息,可以更加准确的地发现对象的兴趣点所在,从而给用户推荐更相关的物品,提高了物品推荐效果。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图11,其示出了本申请一个示例性实施例提供的物品推荐装置的框图。该装置可以通过软件、硬件或者两者的结合实现成为图3提供的计算机设备的全部或者一部分。该装置可以包括:第一获取单元1110、第二获取单元1120和调用单元1130;
第一获取单元1110,用于获取目标对象的历史交互数据,历史交互数据指示目标对象与至少一个物品之间的历史交互事件;
第二获取单元1120,用于获取预先训练完成的目标推荐模型,目标推荐模型是基于样本对象与样本物品之间的关联关系建立的神经网络模型;
调用单元1130,用于根据历史交互数据,调用目标推荐模型输出得到目标对象对应的目标物品。
在一种可能的实现方式中,目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,关联物品信息指示与样本对象交互过的至少一个物品,关联对象信息指示与样本物品交互过的至少一个对象,n和m为正整数。
在另一种可能的实现方式中,目标推荐模型还指示至少两个样本物品之间的关联关系和/或至少两个样本对象之间的关联关系。
在另一种可能的实现方式中,调用单元1130,还用于:
将历史交互数据输入至目标推荐模型中,输出得到目标对象对应的目标物品;
其中,目标推荐模型是根据至少一组样本数据组训练得到的,每组样本数据组包括:样本交互数据和预先标注的正确推荐信息,样本交互数据指示样本对象和对应的样本物品。
在另一种可能的实现方式中,该装置,还包括:训练单元;训练单元,用于:
获取训练样本集,训练样本集包括至少一组样本数据组;
对于至少一组样本数据组中的每组样本数据组,将样本交互数据输入初始参数模型得到训练结果;
根据训练结果和正确推荐信息,采用预设损失函数计算得到训练损失值,训练损失值指示训练结果与正确推荐信息之间的误差;
根据至少一组样本数据组各自对应的训练损失值调整初始参数模型的模型参数;
在满足预设收敛条件的情况下,训练得到目标推荐模型。
在另一种可能的实现方式中,至少一组样本数据组包括至少一组正样本数据组和随机采样的至少一组负样本数据组,正样本数据组中的样本对象与样本物品存在交互事件,负样本数据组中的样本对象与样本物品不存在交互事件。
在另一种可能的实现方式中,预设损失函数包括第一损失函数和第二损失函数,第一损失函数是基于样本对象与样本物品之间的关联关系设置的损失函数,第二损失 函数是预设类型的损失函数。
在另一种可能的实现方式中,预设损失函数还包括第三损失函数,第三损失函数是基于至少两个样本物品之间的关联关系设置的损失函数。
在另一种可能的实现方式中,预设损失函数还包括第四损失函数,第四损失函数是基于至少两个样本对象之间的关联关系设置的损失函数。
在另一种可能的实现方式中,物品包括文本、链接、产品、服务、观念信息中的至少一种。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请的实施例还提供了一种物品推荐装置,该装置包括:处理器;用于存储处理器可执行指令的存储器;
其中,处理器被配置为执行指令时实现上述实施例中由计算机设备执行的方法。
本申请的实施例还提供了一种计算机程序产品,计算机程序产品包括计算机可读指令,当计算机可读指令在计算机设备上运行时,使得计算机设备执行上述实施例中由计算机设备执行的方法。
本申请的实施例还提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,计算机程序指令被处理器执行时实现上述实施例中由计算机设备执行的方法。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、可擦式可编程只读存储器(Electrically Programmable Read-Only-Memory,EPROM或闪存)、静态随机存取存储器(Static Random-Access Memory,SRAM)、便携式压缩盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、数字多功能盘(Digital Video Disc,DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。
这里所描述的计算机可读程序指令或代码可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本申请操作的计算机程序指令可以是汇编指令、指令集架构(Instruction Set Architecture,ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(Local Area Network,LAN)或广域网(Wide Area Network,WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或可编程逻辑阵列(Programmable Logic Array,PLA),该电子电路可以执行计算机可读程序指令,从而实现本申请的各个方面。
这里参照根据本申请实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本申请的多个实施例的装置、系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。
也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行相应的功能或动作的硬件(例如电路或ASIC(Application Specific Integrated Circuit,专用集成电路))来实现,或者可以用硬件和软件的组合,如固件等来实现。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请 过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其它变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其它单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
以上已经描述了本申请的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (16)
- 一种物品推荐方法,其特征在于,所述方法包括:获取目标对象的历史交互数据,所述历史交互数据指示所述目标对象与至少一个物品之间的历史交互事件;获取预先训练完成的目标推荐模型,所述目标推荐模型包括一层卷积层的图神经网络模型,所述卷积层指示样本对象与样本物品之间的关联关系;根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品。
- 根据权利要求1的方法,其特征在于,所述目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,所述关联物品信息指示与所述样本对象交互过的至少一个物品,所述关联对象信息指示与所述样本物品交互过的至少一个对象,所述n和所述m为正整数。
- 根据权利要求1或2所述的方法,其特征在于,所述目标推荐模型还指示至少两个所述样本物品之间的关联关系和/或至少两个所述样本对象之间的关联关系。
- 根据权利要求1至3任一所述的方法,其特征在于,所述根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品,包括:将所述历史交互数据输入至所述目标推荐模型中,输出得到目标对象对应的所述目标物品;其中,所述目标推荐模型是根据至少一组样本数据组训练得到的,每组所述样本数据组包括:样本交互数据和预先标注的正确推荐信息,所述样本交互数据指示所述样本对象和对应的所述样本物品。
- 根据权利要求3的方法,其特征在于,所述获取预先训练完成的目标推荐模型之前,还包括:获取训练样本集,所述训练样本集包括所述至少一组样本数据组;对于所述至少一组样本数据组中的每组样本数据组,将所述样本交互数据输入初始参数模型得到训练结果;根据所述训练结果和所述正确推荐信息,采用预设损失函数计算得到训练损失值,所述训练损失值指示所述训练结果与所述正确推荐信息之间的误差;根据所述至少一组样本数据组各自对应的训练损失值调整所述初始参数模型的模型参数;在满足预设收敛条件的情况下,训练得到所述目标推荐模型。
- 根据权利要求5的方法,其特征在于,所述至少一组样本数据组包括至少一组 正样本数据组和随机采样的至少一组负样本数据组,所述正样本数据组中的所述样本对象与所述样本物品存在交互事件,所述负样本数据组中的所述样本对象与所述样本物品不存在交互事件。
- 根据权利要求5或6的方法,其特征在于,所述预设损失函数包括第一损失函数和第二损失函数,所述第一损失函数是基于所述样本对象与所述样本物品之间的关联关系设置的损失函数,所述第二损失函数是预设类型的损失函数。
- 根据权利要求7所述的方法,其特征在于,所述预设损失函数还包括第三损失函数,所述第三损失函数是基于至少两个所述样本物品之间的关联关系设置的损失函数。
- 根据权利要求7或8所述的方法,其特征在于,所述预设损失函数还包括第四损失函数,所述第四损失函数是基于至少两个所述样本对象之间的关联关系设置的损失函数。
- 根据权利要求1至9任一所述的方法,其特征在于,所述物品包括文本、链接、产品、服务、观念信息中的至少一种。
- 一种物品推荐装置,其特征在于,所述装置包括:第一获取单元,用于获取目标对象的历史交互数据,所述历史交互数据指示所述目标对象与至少一个物品之间的历史交互事件;第二获取单元,用于获取预先训练完成的目标推荐模型,所述目标推荐模型包括一层卷积层的图神经网络模型,所述卷积层指示样本对象与样本物品之间的关联关系;调用单元,用于根据所述历史交互数据,调用所述目标推荐模型输出得到所述目标对象对应的目标物品。
- 根据权利要求11的装置,其特征在于,所述目标推荐模型指示n个样本对象各自对应的关联物品信息和m个样本物品各自对应的关联对象信息,所述关联物品信息指示与所述样本对象交互过的至少一个物品,所述关联对象信息指示与所述样本物品交互过的至少一个对象,所述n和所述m为正整数。
- 根据权利要求11或12所述的装置,其特征在于,所述目标推荐模型还指示至少两个所述样本物品之间的关联关系和/或至少两个所述样本对象之间的关联关系。
- 一种物品推荐装置,其特征在于,所述装置包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令时实现权利要求1-10任意一项所述的方 法。
- 一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1-10中任意一项所述的方法。
- 一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机可读指令,当所述计算机可读指令在计算机设备上运行时,使得所述计算机设备执行权利要求1-10中任意一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111223081.8 | 2021-10-20 | ||
CN202111223081.8A CN116010684A (zh) | 2021-10-20 | 2021-10-20 | 物品推荐方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023065859A1 true WO2023065859A1 (zh) | 2023-04-27 |
Family
ID=86028478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2022/117056 WO2023065859A1 (zh) | 2021-10-20 | 2022-09-05 | 物品推荐方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116010684A (zh) |
WO (1) | WO2023065859A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116596576A (zh) * | 2023-07-17 | 2023-08-15 | 深圳须弥云图空间科技有限公司 | 目标推荐方法及装置 |
CN116737917A (zh) * | 2023-08-09 | 2023-09-12 | 中信证券股份有限公司 | 文本推荐信息生成方法、电子设备和计算机可读介质 |
CN116955835A (zh) * | 2023-09-21 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 资源筛选方法、装置、计算机设备及存储介质 |
CN117788122A (zh) * | 2024-02-23 | 2024-03-29 | 山东科技大学 | 一种基于异质图神经网络商品推荐方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485505B (zh) * | 2023-06-25 | 2023-09-19 | 杭州金智塔科技有限公司 | 基于用户表现公平性训练推荐模型的方法及装置 |
CN116703531B (zh) * | 2023-08-03 | 2023-10-13 | 腾讯科技(深圳)有限公司 | 物品数据处理方法、装置、计算机设备和存储介质 |
CN116911912B (zh) * | 2023-09-12 | 2024-03-15 | 深圳须弥云图空间科技有限公司 | 一种交互对象和交互结果的预测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084407A (zh) * | 2020-09-08 | 2020-12-15 | 辽宁工程技术大学 | 一种融合图神经网络和注意力机制的协同过滤推荐方法 |
CN112633482A (zh) * | 2020-12-30 | 2021-04-09 | 广州大学华软软件学院 | 一种高效宽度图卷积神经网络模型及其训练方法 |
US20210110436A1 (en) * | 2019-10-14 | 2021-04-15 | Visa International Service Association | Group item recommendations for ephemeral groups based on mutual information maximization |
CN112905900A (zh) * | 2021-04-02 | 2021-06-04 | 辽宁工程技术大学 | 基于图卷积注意力机制的协同过滤推荐算法 |
CN113362131A (zh) * | 2021-06-02 | 2021-09-07 | 合肥工业大学 | 一种融合知识图谱和用户交互的图模型智能商品推荐方法 |
-
2021
- 2021-10-20 CN CN202111223081.8A patent/CN116010684A/zh active Pending
-
2022
- 2022-09-05 WO PCT/CN2022/117056 patent/WO2023065859A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210110436A1 (en) * | 2019-10-14 | 2021-04-15 | Visa International Service Association | Group item recommendations for ephemeral groups based on mutual information maximization |
CN112084407A (zh) * | 2020-09-08 | 2020-12-15 | 辽宁工程技术大学 | 一种融合图神经网络和注意力机制的协同过滤推荐方法 |
CN112633482A (zh) * | 2020-12-30 | 2021-04-09 | 广州大学华软软件学院 | 一种高效宽度图卷积神经网络模型及其训练方法 |
CN112905900A (zh) * | 2021-04-02 | 2021-06-04 | 辽宁工程技术大学 | 基于图卷积注意力机制的协同过滤推荐算法 |
CN113362131A (zh) * | 2021-06-02 | 2021-09-07 | 合肥工业大学 | 一种融合知识图谱和用户交互的图模型智能商品推荐方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116596576A (zh) * | 2023-07-17 | 2023-08-15 | 深圳须弥云图空间科技有限公司 | 目标推荐方法及装置 |
CN116596576B (zh) * | 2023-07-17 | 2024-04-16 | 深圳须弥云图空间科技有限公司 | 目标推荐方法及装置 |
CN116737917A (zh) * | 2023-08-09 | 2023-09-12 | 中信证券股份有限公司 | 文本推荐信息生成方法、电子设备和计算机可读介质 |
CN116737917B (zh) * | 2023-08-09 | 2023-10-27 | 中信证券股份有限公司 | 文本推荐信息生成方法、电子设备和计算机可读介质 |
CN116955835A (zh) * | 2023-09-21 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 资源筛选方法、装置、计算机设备及存储介质 |
CN116955835B (zh) * | 2023-09-21 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 资源筛选方法、装置、计算机设备及存储介质 |
CN117788122A (zh) * | 2024-02-23 | 2024-03-29 | 山东科技大学 | 一种基于异质图神经网络商品推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116010684A (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023065859A1 (zh) | 物品推荐方法、装置及存储介质 | |
CN111931062B (zh) | 一种信息推荐模型的训练方法和相关装置 | |
Ding et al. | Extreme learning machine and its applications | |
EP4145308A1 (en) | Search recommendation model training method, and search result sorting method and device | |
WO2020048445A1 (en) | End-to-end structure-aware convolutional networks for knowledge base completion | |
CN111797321B (zh) | 一种面向不同场景的个性化知识推荐方法及系统 | |
EP3711031A1 (en) | Analyzing spatially-sparse data based on submanifold sparse convolutional neural networks | |
CN112765480B (zh) | 一种信息推送方法、装置及计算机可读存储介质 | |
US20210383205A1 (en) | Taxonomy Construction via Graph-Based Cross-domain Knowledge Transfer | |
US11789985B2 (en) | Method for determining competitive relation of points of interest, device | |
US20230342833A1 (en) | Recommendation method, recommendation network, and related device | |
CN112085615A (zh) | 图神经网络的训练方法及装置 | |
CN113761359B (zh) | 数据包推荐方法、装置、电子设备和存储介质 | |
CN114519145A (zh) | 一种基于图神经网络挖掘用户长短期兴趣的序列推荐方法 | |
CN112183881A (zh) | 一种基于社交网络的舆情事件预测方法、设备及存储介质 | |
JP2023017921A (ja) | コンテンツ推薦とソートモデルトレーニング方法、装置、機器、記憶媒体及びコンピュータプログラム | |
CN115564017A (zh) | 模型数据处理方法、电子设备及计算机存储介质 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
Bangyal et al. | A forward only counter propagation network-based approach for contraceptive method choice classification task | |
WO2024041483A1 (zh) | 一种推荐方法及相关装置 | |
WO2024012360A1 (zh) | 一种数据处理方法及相关装置 | |
Du et al. | Structure tuning method on deep convolutional generative adversarial network with nondominated sorting genetic algorithm II | |
WO2023284516A1 (zh) | 基于知识图谱的信息推荐方法、装置、设备、介质及产品 | |
Li et al. | Short text sentiment analysis based on convolutional neural network | |
JP2022111020A (ja) | 文書類似度学習に基づくディープラーニングモデルの転移学習方法およびコンピュータ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22882474 Country of ref document: EP Kind code of ref document: A1 |