CN114969508A - 推荐模型数据处理方法 - Google Patents

推荐模型数据处理方法 Download PDF

Info

Publication number
CN114969508A
CN114969508A CN202210452920.1A CN202210452920A CN114969508A CN 114969508 A CN114969508 A CN 114969508A CN 202210452920 A CN202210452920 A CN 202210452920A CN 114969508 A CN114969508 A CN 114969508A
Authority
CN
China
Prior art keywords
terminal
vector
module
prototype
network module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210452920.1A
Other languages
English (en)
Inventor
楚云霏
姚杨
周靖人
杨红霞
吴飞
况琨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Damo Institute Hangzhou Technology Co Ltd
Original Assignee
Alibaba Damo Institute Hangzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Damo Institute Hangzhou Technology Co Ltd filed Critical Alibaba Damo Institute Hangzhou Technology Co Ltd
Priority to CN202210452920.1A priority Critical patent/CN114969508A/zh
Publication of CN114969508A publication Critical patent/CN114969508A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供推荐模型数据处理方法,该方法应用于服务端且推荐模型包括图神经网络模块以及原型网络模块,该方法包括根据至少两个终端发送的终端操作数据构建全局图,并根据全局图以及图神经网络模块,获得每个终端的训练数据以及训练数据对应的聚合向量;根据训练数据对应的聚合向量以及预设数量的原型向量,确定原型网络模块相对于聚合向量的初始模块参数;根据每个终端的训练数据、训练数据对应的聚合向量以及原型网络模块相对于聚合向量的初始模块参数,训练图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数;将原型网络模块以及原型网络模块的预设数量的目标模块参数,分别下发至每个终端。

Description

推荐模型数据处理方法
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种推荐模型数据处理方法。
背景技术
现有的推荐系统通常从所有端设备收集数据,根据收集的数据在云端对其进行训练,以训练统一的推荐模型来服务所有用户。然而,不可能存在一个推荐模型在每个用户上都表现良好。统一的推荐模型通常会忽略甚至牺牲长尾用户(即低活跃度用户)的体验以提高模型整体性能。尽管端智能的发展使得可以在不同端设备上部署不同的推荐模型成为可能,但大多数现有的基于端智能的推荐系统在训练过程中只能使用本地设备上的训练数据,这对低活跃度用户不友好。
发明内容
有鉴于此,本说明书实施例提供了一种推荐模型数据处理方法。本说明书一个或者多个实施例同时涉及一种推荐模型数据处理装置,一种目标对象推荐方法,一种目标对象推荐装置,一种端云协同推荐系统,一种计算设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种推荐模型数据处理方法,应用于服务端,且所述推荐模型包括图神经网络模块以及原型网络模块,其中,所述方法包括:
根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量;
根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量;
根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数;
将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
根据本说明书实施例的第二方面,提供了一种推荐模型数据处理装置,应用于服务端,且所述推荐模型包括图神经网络模块以及原型网络模块,其中,所述装置包括:
获得模块,被配置为根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量;
确定模块,被配置为根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量;
训练模块,被配置为根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数;
下发模块,被配置为将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
根据本说明书实施例的第三方面,提供了一种目标对象推荐方法,应用于终端,包括:
在确定满足预设对象推荐条件的情况下,获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据;
根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,其中,所述目标模块参数通过上述推荐模型数据处理方法获得;
根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量;
将待推荐的目标对象以及所述目标向量输入,根据所述预测模块参数调整后的原型网络模块,获得所述待推荐的目标对象的推荐结果。
根据本说明书实施例的第四方面,提供了一种目标对象推荐装置,应用于终端,包括:
数据获取模块,被配置为在确定满足预设对象推荐条件的情况下,获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据;
模型确定模块,被配置为根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,其中,所述目标模块参数通过上述推荐模型数据处理方法获得;
向量拼接模块,被配置为根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量;
结果预测模块,被配置为将待推荐的目标对象以及所述目标向量输入,根据所述预测模块参数调整后的原型网络模块,获得所述待推荐的目标对象的推荐结果。
根据本说明书实施例的第五方面,提供了一种端云协同推荐系统,包括云端以及至少两个终端,且所述推荐模型包括图神经网络模块以及原型网络模块,包括:
所述至少两个终端中的每个终端,用于向所述云端发送终端操作数据;
所述云端,用于根据所述至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量,根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量,根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数,将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端;
所述每个终端,根据所述原型网络模块的预设数量的目标模块参数,部署所述原型网络模块,并通过记忆网络将终端更新操作数据的更新记忆向量上传至所述云端。
根据本说明书实施例的第六方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述推荐模型数据处理方法的步骤或者目标对象推荐方法的步骤。
根据本说明书实施例的第七方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现上述推荐模型数据处理方法的步骤或者目标对象推荐方法的步骤。
根据本说明书实施例的第八方面,提供了一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述推荐模型数据处理方法的步骤或者目标对象推荐方法的步骤。
本说明书一个实施例实现了一种推荐模型数据处理方法及装置,其中,所述推荐模型数据处理方法应用于服务端,且所述推荐模型包括图神经网络模块以及原型网络模块,其中,所述方法包括:根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量;根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量;根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数;将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
具体的,该推荐模型数据处理方法,通过接收多个终端的终端操作数据构建终端之间的全景图,利用该全局图以及图神经网络模块实现跨终端的知识共享方式,以及利用原型网络模块生成用于组级模型个性化的模块参数,并将原型网络模块以及组级模型个性化的模块参数下发至每个终端;后续应用过程中,每个终端可以根据组级模型个性化的模块参数,确定其个性化的专属推荐模型,减少高活跃度用户带来的推荐有偏问题,提升大量低活跃度用户的使用体验。
附图说明
图1是本说明书一个实施例提供的一种推荐模型数据处理以及推荐模型应用的具体处理场景示意图;
图2是本说明书一个实施例提供的一种推荐模型数据处理方法的流程图;
图3是本说明书一个实施例提供的一种推荐模型数据处理装置的结构示意图;
图4是本说明书一个实施例提供的一种目标对象推荐方法的流程图;
图5是本说明书一个实施例提供的一种目标对象推荐方法的处理过程流程图;
图6是本说明书一个实施例提供的一种目标对象推荐装置的结构示意图;
图7是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
CIGAR:Device-Cloud Collaborative Graph-Enriched Prototypical Network,一种端云协同的图增强原型网络模块。
CD-GNN:Cross-Device Graph Neural Network,一种跨设备的图神经网络模型。
GNN:Graph Neural Network,图神经网络。
GCN:Graph Convolution Network,图卷积网络,一种图神经网络。
Embedding:也称为表征,一种数据格式,即数学上的向量或矩阵;在深度学习中是神经网络中的某一个或多个中间层的输出结果。
GRU:Gated Recurrent Units,一种循环神经网络。
LSTM:Long-Short Term Memory,一种循环神经网络。
推荐系统在云计算和大数据时代成为web服务(Web Service)不可或缺的基础设施。对于推荐场景而言,为了实现千人千面(即不同用户接收到不同的个性化内容推荐)的效果,一种技术方案可以是基于所有平台用户的历史行为,训练单个推荐模型;模型上线后,根据用户历史行为推测用户兴趣,为用户产生个性化的推荐结果。但是由于用户的历史行为数据量大,计算能力要求高,一般推荐系统通常部署在服务器(如云服务器)上,即从所有端侧设备集中收集用户的历史行为数据,训练统一的推荐模型来服务所有用户。然而,首先由于网络延迟和刷新机制,这种云上推荐系统的性能受到系统反馈延迟和用户感知延迟的影响,会造成推荐结果的延迟,无法匹配用户对端侧设备偏好的实时变化;其次,由于少量的高活跃度用户往往贡献了大部分的行为数据,会致使推荐系统偏向于高活(即高活跃)用户,长尾用户(即低活跃用户)的体验通常会被忽略,甚至被牺牲,以最大限度地提高整体性能。
而随着移动计算和物联网(IoT)的激增推动了设备智能的出现,这对于需要实时反馈、频繁响应或细粒度功能的应用程序来说是一个有效的解决方案。更重要的是,随着手机硬件性能的持续提升,在用户手机端部署推荐系统进行实时重排序成为可能。然而,由于手机计算性能、存储等方面的限制,推荐模型一般体积很小,能力远弱于云端大模型,导致推荐系统偏向高活的问题尤为严重。所以不同用户,尤其对于历史交互行为较少或有限的长尾用户来说,此种推荐模型十分不友好。
基于此,在本说明书中,提供了一种推荐模型数据处理方法。本说明书一个或者多个实施例同时涉及一种推荐模型数据处理装置,一种目标对象推荐方法,一种目标对象推荐装置,一种端云协同推荐系统,一种计算设备,一种计算机可读存储介质以及一种计算机程序,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了根据本说明书一个实施例提供的一种推荐模型数据处理以及推荐模型应用的具体处理场景示意图,具体包括以下步骤。
具体的,本说明书实施例提供的推荐模型数据处理在服务端(如普通服务器或云服务器)实现,推荐模型应用在端侧(即终端,如手机)实现。
步骤102:云侧接收多个端侧上传的终端操作数据。
其中,云侧可以理解为云侧服务器,即云服务器;端侧可以理解为终端侧,如固定终端(pc机)、移动终端(手机或者平板电脑等);终端操作数据包括但不限于用户行为序列(如用户点击item(项目、物品或商品)的行为序列,如用户点击了商品a-b-c等),且用户行为序列是存在时间线的,按照点击item的时间,从远到近形成用户行为序列、用户的属性信息(用户的姓名、兴趣、喜好等)、item信息(如商品的商品名称、商品类型等)、用户行为的背景信息(如用户点击商品的地点、时间等)。
步骤104:云侧根据每个端侧上传的终端操作数据,利用图结构的相似性度量算法计算端侧之间的相似度,构建端侧之间的全局图。
其中,可以根据终端操作数据计算终端之间的相似度,也可以根据用户画像计算终端之间的相似度,在此不作任何限定。
具体的,云侧根据每个端侧上传的终端操作数据,根据图结构的相似性度量算法计算端侧之间的相似度,构建端侧之间的全局图,可以理解为:云侧根据每个终端上传的用户的行为数据,根据终端操作数据计算终端之间的相似度,以终端为节点,以终端与终端之间的相似度关系为边,构建终端之间的全局图。
步骤106:根据全局图训练CIGAR(图增强原型网络模块)。
具体的,根据全局图训练CIGAR,可以理解为,根据全局图确定每个终端的训练样本(终端操作数据结合相邻终端设备id为一条训练样本)和该训练样本的训练标签,其中,终端可以理解为用户,用户有多条行为就对应多个训练样本。
以一个终端a包括两条训练样本为例,具体如下所示:
样本1:用户a(用户的属性信息)在1月1日上午(用户行为的背景信息)被曝光了商品a(item信息),用户a的历史行为“商品a-商品b-商品c”(用户行为序列),相邻设备id;用户a对商品a进行了点击(训练标签为1);
样本2:用户a(用户的属性信息)在1月2日上午(用户行为的背景信息)被曝光了商品d(item信息),用户a的历史行为“商品a-商品b-商品c”(用户行为序列),相邻设备id;用户a对商品d未点击(训练标签为0)。
将每个终端的每个训练样本输入GNN(图神经网络模块),经过Embedding层,获得每个终端的每个训练样本对应的特征向量,并将每个终端的每个训练样本对应的特征向量在GNN中、与其相邻终端设备的终端操作数据进行聚合,获得每个终端的每个训练样本的聚合向量。
仍以终端a包括样本1和样本2为例,对原型网络模块的训练进行详细介绍。
将该终端a的训练样本1的聚合向量与预设数量的每个原型向量进行余弦相似度计算,选择余弦相似度较高的原型向量替换原型网络模块的模块参数,其中,原型向量可以理解为原型网络模块的模块参数,且预设数量可以根据实际应用进行设置,例如预设数量可以为100个或者200个等。
同时,将该终端a的训练样本1中的终端操作数据输入交互网络,获得训练样本1的表征向量,以及将该终端a的训练样本1中的终端操作数据的用户行为序列输入记忆网络,获得训练样本1的记忆向量;将该表征向量、记忆向量与聚合向量进行拼接,并将拼接后的向量输入到模块参数替换后的原型网络模块,获得训练样本1的预测结果;根据该预测结果以及该训练样本1的训练标签对原型网络模块和/或图神经网络模块的模块参数进行调整,以实现对图增强原型网络模块的训练。
同理,该终端a的训练样本2也是通过上述方式,对图增强原型网络模块进行训练。
最终,通过所有终端的所有训练样本,实现对图增强原型网络模块的训练,并获得原型网络模块训练后的预设数量的原型向量。
其中,训练后的图神经网络模块以及原型网络模块、以及该原型网络模块训练后的预设数量的原型向量即构成了推荐模型CIGAR。
步骤108:云侧将训练后的原型网络模块以及预设数量的原型向量下发至每个终端。
具体的,对图增强原型网络模块完成训练后,将图增强原型网络模块拆分为两个部分:GNN模块(图神经网络模块)和相对于每个终端的原型网络模块,并将GNN模块部署在云侧,将原型网络模块部署在端侧。
而在后续应用时,每个终端的原型网络模块会根据云侧下发的聚合向量,以及预设数量的原型向量,确定一个自身专属的原型向量,用于进行对象推荐。
步骤110:每个端侧会实时记录终端操作数据,并将其上传至端设备的记忆网络。
其中,记忆网络包括但不限于GRU(门控循环单元)、LSTM循环神经网络、或者线性自注意力模型等。
步骤112:每个端侧的记忆网络会提取终端操作数据的记忆向量,并按照预设上传规则将该记忆向量上传至云侧。
其中,预设上传规则可以根据实际应用进行设置,例如可以理解为实时上传,或者根据预设时间间隔上传等。
步骤114:云侧接收每个端侧上传的记忆向量之后,根据GNN推断并下发每个端侧上传的记忆向量对应的聚合向量至对应端侧。
步骤116:端侧接收到新的排序请求后,会根据其部署的原型网络模块以及确定的原型网络模块的原型向量,对排序请求中包含的排序对象进行预测,并根据预测得分对排序对象进行排序。
本说明书实施例提供的推荐模型数据处理方法中,通过在云侧根据多个端侧上传的终端操作数据生成全局图,训练CIGAR和CD-GNN,并将训练后的CIGAR下发部署至每个端侧,在每个端侧采用训练后的CIGAR进行用户行为预测;采用此种云侧训练和端云协同推断的框架,利用云侧丰富的计算资源,避免端侧训练耗费较多计算资源影响用户体验的问题,并且根据生成的全局图结合采用CD-GNN来实现端侧设备之间实时信息共享,以对每个端侧的特征进行增强,解决了在低活跃度用户上容易出现的过拟合的问题,从而使得训练后获得的推荐模型在具体应用的时候,在低活跃度的端侧用户上表现良好,从而一定程度上缓解了推荐系统中面临的用户行为稀疏的问题。
参见图2,图2示出了本说明书一个实施例提供的一种推荐模型数据处理方法的流程图,具体包括以下步骤。
其中,推荐模型数据处理方法应用于服务端,且该推荐模型包括图神经网络模块以及原型网络模块。
步骤202:根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量。
其中,终端以及终端操作数据的具体解释可以参见上述实施例的详细介绍,在此不再赘述。
具体的,为了后续可以利用其他终端设备的终端操作数据,对低活跃度的用户进行特征增强,因此云侧会接收多个终端发送的终端操作数据,并根据多个终端发送的终端操作数据以及图神经网络模块,获得每个终端的聚合向量。具体实现方式如下所述:
所述根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量,包括:
接收至少两个终端发送的终端操作数据;
根据所述至少两个终端的终端操作数据,构建全局图;
根据所述终端操作数据以及所述全局图,确定所述至少两个终端中每个终端的训练数据;
根据所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
其中,全局图中的节点为终端,边为终端与终端之间的相似度。
具体的,云侧接收至少两个终端中每个终端发送的终端操作数据;再根据每个终端的终端操作数据,构建以终端为节点,以终端与终端之间的相似度为边的全局图;然后根据每个终端的终端操作数据以及构建的全局图,获取每个终端的至少一条训练数据,其中,每条训练数据均包括训练样本和训练样本对应的训练标签;最后,再根据图神经网络模块,获得每个终端的每条训练数据对应的聚合向量。
实际应用中,可以根据至少两个终端的终端操作数据中用户行为序列之间的相似度,构建全局图,也可以根据终端操作数据中用户的属性信息对用户画像,构建全局图。具体实现方式如下所述:
所述根据所述至少两个终端的终端操作数据,构建全局图,包括:
根据所述至少两个终端的终端操作数据,计算所述至少两个终端之间的相似度;
根据所述至少两个终端、以及所述至少两个终端之间的相似度构建全局图。
其中,终端操作数据中包括用户行为序列以及用户的属性信息。
因此,云侧在接收到至少两个终端发送的终端操作数据后,可以根据终端操作数据中的用户行为序列,计算至少两个终端设备之间的相似度;也可以根据终端操作数据中用户的属性信息,为用户画像,根据用户画像计算至少两个终端设备之间的相似度;然后将每个终端作为全局图的节点,将每个终端与其他终端之间的相似度作为全局图的边,以此构建全局图(即上述实施例中的全局图)。
本说明书实施例提供的推荐模型数据处理方法,根据至少两个终端之间的相似度,构建全局图,后续可以根据全局图以及每个终端的终端操作数据,构建每个终端的训练数据,使得每个终端的训练数据的训练样本中不仅可以包括其自身的终端操作数据,还包括相邻终端id,在将每个终端的训练样本经过GNN处理后,可以获得每个终端的训练样本的聚合向量,通过该聚合向量即可以结合相邻终端的终端操作数据和自身的终端操作数据,更加准确的预测用户的兴趣。
而在根据至少两个终端、以及至少两个终端之间的相似度构建全局图之后,会根据每个终端的终端操作数据结合全局图中每个终端的相邻终端的终端操作数据,构建每个终端的训练数据;再根据图神经网络模块,快速且准确的获得每个终端的每个训练数据对应的聚合向量。具体实现方式如下所述:
所述根据所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量,包括:
将所述每个终端的训练数据输入记忆网络,获得所述每个终端的训练数据对应的记忆向量;
将所述每个终端的训练数据对应的记忆向量输入所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
具体的,在获取每个终端的每个训练数据之后,将每个训练数据输入记忆网络,获得每个终端的每个训练数据对应的记忆向量;再将每个记忆向量输入图神经网络模块进行聚合,获得每个终端的每个训练数据对应的记忆向量的聚合向量。其中,获得每个终端的每个训练数据的聚合向量的意义是,可以结合相邻终端的终端操作数据和自身的终端操作数据,更加准确的预测用户的兴趣。
本说明书实施例提供的推荐模型数据处理方法中,通过图神经网络模块实现跨设备的知识共享的方式,利用相邻终端之间的终端操作数据进行特征增强,使得后续训练获得的推荐模型可以解决在低活跃度用户上出现的过拟合问题。
步骤204:根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量。
其中,原型向量的数量可以根据实际应用进行设置,例如设置为1个、2个或者100个等;若预设数量为1个的情况下,则可以理解为多人一模;若预设数量为多个的情况下,则可以理解为多人多模。实际应用中,原型向量的数量可以与终端的数量相等,也可以大于或者小于终端的数量。而原型向量可以理解为原型网络模块的模块参数的参数向量。
实际应用中,由于存在至少两个终端,且每个终端包括一个或多个训练数据,因此,可以通过至少两个终端中的所有终端的训练数据对应的聚合向量,与预设数量的原型向量,确定原型网络模块相对于每个聚合向量的初始模块参数。具体实现方式如下所述:
所述根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,包括:
根据预设相似度算法,分别计算所述训练数据对应的聚合向量、与预设数量的原型向量中每个原型向量的相似度;
根据所述相似度对所述预设数量的原型向量进行降序排序,并将排序后的第一个原型向量,确定为所述原型网络模块相对于所述聚合向量的初始模块参数。
其中,预设相似度算法包括但不限于余弦相似度算法,欧式距离算法等。
具体的,若原型向量为K个,则计算每个训练样本对应的聚合向量、与第1到k个预设原型向量的余弦相似度,从而获得k个余弦相似度,再对k个余弦相似度进行降序排列,选择排列后的第一个原型向量作为,该原型网络模块相对于该训练数据的聚合向量的初始模块参数。
同理,原型网络模块相对于其他训练数据的聚合向量的初始模块参数的具体实现方式,均可以参见上述实现方式,在此不再赘述。
以训练数据包括训练数据1和训练数据2,预设数量的原型向量为100个,预设相似度算法为余弦相似度算法为例。
具体实施时,分别计算训练数据1对应的聚合向量与100个原型向量中每个原型向量的余弦相似度;然后根据该余弦相似度对这100个原型向量进行降序排序,将排序后的第一个原型向量,确定为原型网络模块相对于该训练数据1的聚合向量的初始模块参数。同理,计算出原型网络模块相对于该训练数据2的聚合向量的初始模块参数。
本说明书实施例提供的推荐模型数据处理方法,预先设置多个原型向量,通过计算每个训练数据的聚合向量与每个原型向量的相似度的方式,确定原型网络模块的初始模块参数,以使后续可以根据该初始模块参数对原型网络模块进行参数调整后,通过预测结果与训练数据的真实结果对其进行模型以及参数训练,提升用户使用体验。
步骤206:根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数。
具体的,在获得每个终端的每个训练数据对应的聚合向量、以及每个聚合向量对应的原型网络模块的初始模块参数之后,即可根据每个训练数据、其对应的聚合向量以及其对应的原型网络模块的初始模块参数,训练所述图神经网络模块以及所述原型网络模块。具体实现方式如下所述:
所述根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,包括:
确定所述每个终端的训练数据中的训练样本以及所述训练样本对应的训练标签;
根据所述每个终端的训练样本中的终端操作数据,获得所述每个终端的训练样本的行为向量;
根据所述每个终端的训练样本的行为向量、聚合向量、训练标签以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块。
其中,训练数据包括训练样本和训练标签,训练样本又包括终端操作数据,且终端操作数据包括用户行为序列、用户的属性信息、item信息、用户行为的背景信息。
首先,确定每个终端的每个训练数据的训练样本以及其对应的训练标签;再根据每个终端的每个训练样本中的终端操作数据,获得每个终端的每个训练样本的行为向量;最后,根据每个终端的每个训练样本的行为向量、聚合向量、训练标签以及原型网络模块相对于该训练样本的聚合向量的初始模块参数,训练图神经网络模块以及原型网络模块。
本说明书实施例提供的推荐模型数据处理方法,通过至少两个终端的所有训练数据、每个训练数据的聚合向量以及每个聚合向量对应的原型网络模块的初始模块参数,对图神经网络模块以及原型网络模块进行训练,以获得更加准确的图神经网络模块以及原型网络模块,以及原型网络模块的预设数量的目标原型向量。
而对于每个训练样本的行为向量的获取,则是通过终端操作数据的交互向量以及记忆向量拼接获得,使得后续的模型训练过程中,不仅会考虑用户行为序列的记忆向量,还会考虑用户行为序列、用户的属性信息、item信息、用户行为的背景信息之间的交互向量,以增强模型训练的准确性。具体实现方式如下所述:
所述根据所述每个终端的训练样本中的终端操作数据,获得所述每个终端的训练样本的行为向量,包括:
确定所述每个终端的训练样本中的终端操作数据;
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量与所述记忆向量进行拼接,获得所述每个终端的训练样本的行为向量。
具体的,首先,确定每个训练样本中的终端操作数据,然后将终端操作数据中的用户行为序列输入记忆网络,获得该训练样本的记忆向量;同时,将终端操作数据中的用户行为序列、用户的属性信息、item信息、用户行为的背景信息输入到交互网络,获得该训练样本的交互向量;最后将该训练样本的交互向量以及记忆向量进行拼接,获得该训练样本的行为向量;后续可以将该行为向量与其对应的聚合向量进行拼接,输入到参数调整后的原型网络模块中,实现对图神经网络模块以及原型网络模块的模型训练。
具体的模型训练过程如下所述:
所述根据所述每个终端的训练样本的行为向量、聚合向量、训练标签以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,包括:
根据所述原型网络模块相对于所述聚合向量的初始模块参数,调整所述原型网络模块的模块参数;
将所述每个终端的训练样本的行为向量以及聚合向量进行拼接,输入模块参数调整后的原型网络模块进行预测,获得所述每个终端的训练样本的预测结果;
根据所述每个终端的训练样本的预测结果以及训练标签,训练所述图神经网络模块以及所述原型网络模块。
沿用上例,以训练数据1的聚合向量为例。
首先,根据训练数据1的聚合向量对应的原型网络模块的初始模块参数,调整原型网络模块的模块参数;然后将该训练数据1的训练样本的行为向量以及聚合向量进行拼接,输入模块参数调整后的原型网络模块进行预测,获得该训练样本的预测结果;最后根据该训练样本的预测结果以及训练标签,训练图神经网络模块以及原型网络模块。
其中,训练图神经网络模块以及原型网络模块,则可以理解为根据预测结果以及训练标签对图神经网络模块以及原型网络模块的模块参数进行调整。
而实际应用中,至少两个终端存在多个训练数据,每个训练数据都会对图神经网络模块以及原型网络模块的模块参数进行调整,获得调整后的图神经网络模块以及原型网络模块;由于原型网络模块存在预设数量的原型向量,因此也会存在预设数量的初始模块参数,那么根据多个训练数据对该预设数量的初始模块参数调整后,也会获得该原型网络模块的预设数量的目标模块参数。
即若原型网络模块存在k个初始原型向量,那么在对该原型网络模块进行训练,则是根据训练数据对这k个初始原型向量进行调整,获得最终的k个目标原型向量。
本说明书实施例提供的推荐模型数据处理方法,通过根据每个终端的每个训练数据的训练标签以及根据初始模块参数调整后的原型网络模块输出的、该训练数据的预测结果,调整其对应的原型网络模块以及图神经网络模块的模块参数,获得训练后的图神经网络模块、原型网络模块、以及该原型网络模块的目标原型向量;使得后续可以将该原型网络模块、以及该原型网络模块的目标原型向量下发至终端,实现终端可以根据实际需求从该原型网络模块的目标原型向量中选择合适的原型向量对其原型网络模块进行模块参数调整,实现其个性化、专属的推荐模型应用。
实际应用中,若存在k个原型向量,具体实施时,会随机初始化K个原型向量,对于每个用户(终端),计算其聚合向量与各原型向量的相似性,输入到Gumbel Softmax函数中,输出最相似的原型向量,作为该用户的原型向量;最小化原型多样性损失函数,使得K个原型尽量多样,避免重复,将原型向量通过线性变换转换为最后预测层的参数,由于存在K个原型向量,那么最终会得到K组原型网络模块的目标模块参数。
步骤208:将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
具体的,在训练获得原型网络模块以及该原型网络模块的预设数量的目标原型向量的情况下,则将原型网络模块以及该原型网络模块的预设数量的目标原型向量下发部署至终端,实现在其终端上进行后续的item推荐。
具体实施时,若某个终端存在终端操作数据更新时,为了保证终端部署的原型网络模块的准确性,则会将该终端操作数据上传至云侧,进行新的聚合向量的推断和下发。具体实现方式如下所述:
所述获得训练后的原型网络模块的预设数量的目标模块参数之后,还包括:
接收所述至少两个终端中的任意终端,从端侧的记忆网络上传的、终端更新操作数据的更新记忆向量;
将所述更新记忆向量输入所述图神经网络模块,获得所述更新记忆向量的更新聚合向量,并将所述更新聚合向量下发对应终端。
其中,云侧和端侧均存在记忆网络以及交互网络,云侧的记忆网络和交互网络,实现模型训练流程,而端侧的记忆网络以及交互网络,则实现推荐模型的应用流程。
实际应用中,云侧会实时接收至少两个终端的任意一个或多个终端,从其对应的端侧的记忆网络上传的、更新后的终端操作数据;根据图神经网络模块推断该更新的终端操作数据的更新聚合向量,并将该更新聚合向量通过上传的终端的标识,下发至对应的终端;以使对应的终端在后续进行item推荐时,可以使用更新聚合向量进行更为准确和合理的预测推荐。
本说明书实施例提供的推荐模型数据处理方法,通过接收多个终端的终端操作数据构建终端之间的全景图,利用该全局图以及图神经网络模块实现跨终端的知识共享方式,以及利用原型网络模块生成用于组级模型个性化的模块参数,并将原型网络模块以及组级模型个性化的模块参数下发至每个终端;后续应用过程中,每个终端可以根据组级模型个性化的模块参数,确定其个性化的专属推荐模型,减少高活跃度用户带来的推荐有偏问题,提升大量低活跃度用户的使用体验。
具体的,本说明书实施例提供的推荐模型数据处理方法与传统推荐系统用一个模型服务于所有用户不同,本说明书实施例中,基于端智能技术和原型网络模块,产出多个原型网络模块服务于多组用户,实现了组级别的模型个性化;并且通过将图神经网络和端智能结合的推荐系统,使得推荐时可以利用相邻设备的实时行为信息以增加推荐线索,从而提供优于其他推荐系统的推荐结果,尤其是在低活跃度的用户上表现更好,从一定程度上缓解了推荐系统中普遍面临的行为稀疏的挑战。
与上述方法实施例相对应,本说明书还提供了推荐模型数据处理装置实施例,图3示出了本说明书一个实施例提供的一种推荐模型数据处理装置的结构示意图。如图3所示,该装置应用于服务端,且所述推荐模型包括图神经网络模块以及原型网络模块,其中,所述装置包括:
获得模块302,被配置为根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量;
确定模块304,被配置为根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量;
训练模块306,被配置为根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模型,并获得训练后的原型网络模块的预设数量的目标模块参数。
下发模块308,被配置为将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
可选地,所述获得模块302,进一步被配置为:
接收至少两个终端发送的终端操作数据;
根据所述至少两个终端的终端操作数据,构建全局图;
根据所述终端操作数据以及所述全局图,确定所述至少两个终端中每个终端的训练数据;
根据所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
可选地,所述获得模块302,进一步被配置为:
根据所述至少两个终端的终端操作数据,计算所述至少两个终端之间的相似度;
根据所述至少两个终端、以及所述至少两个终端之间的相似度构建全局图。
可选地,所述获得模块302,进一步被配置为:
将所述每个终端的训练数据输入记忆网络,获得所述每个终端的训练数据对应的记忆向量;
将所述每个终端的训练数据对应的记忆向量输入所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
可选地,所述确定模块304,进一步被配置为:
根据预设相似度算法,分别计算所述训练数据对应的聚合向量、与预设数量的原型向量中每个原型向量的相似度;
根据所述相似度对所述预设数量的原型向量进行降序排序,并将排序后的第一个原型向量,确定为所述原型网络模块相对于所述聚合向量的初始模块参数。
可选地,所述训练模块306,进一步被配置为:
确定所述每个终端的训练数据中的训练样本以及所述训练样本对应的训练标签;
根据所述每个终端的训练样本中的终端操作数据,获得所述每个终端的训练样本的行为向量;
根据所述每个终端的训练样本的行为向量、聚合向量、训练标签以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块。
可选地,所述训练模块306,进一步被配置为:
确定所述每个终端的训练样本中的终端操作数据;
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量与所述记忆向量进行拼接,获得所述每个终端的训练样本的行为向量。
可选地,所述训练模块306,进一步被配置为:
根据所述原型网络模块相对于所述聚合向量的初始模块参数,调整所述原型网络模块的模块参数;
将所述每个终端的训练样本的行为向量以及聚合向量进行拼接,输入模块参数调整后的原型网络模块进行预测,获得所述每个终端的训练样本的预测结果;
根据所述每个终端的训练样本的预测结果以及训练标签,训练所述图神经网络模块以及所述原型网络模块。
可选地,所述装置,还包括:
数据更新模块,被配置为:
接收所述至少两个终端中的任意终端,从端侧的记忆网络上传的、终端更新操作数据的更新记忆向量;
将所述更新记忆向量输入所述图神经网络模块,获得所述更新记忆向量的更新聚合向量,并将所述更新聚合向量下发对应终端。
本说明书实施例提供的该推荐模型数据处理装置,通过接收多个终端的终端操作数据构建终端之间的全景图,利用该全局图以及图神经网络模块实现跨终端的知识共享方式,以及利用原型网络模块生成用于组级模型个性化的模块参数,并将原型网络模块以及组级模型个性化的模块参数下发至每个终端;后续应用过程中,每个终端可以根据组级模型个性化的模块参数,确定其个性化的专属推荐模型,减少高活跃度用户带来的推荐有偏问题,提升大量低活跃度用户的使用体验。
上述为本实施例的一种推荐模型数据处理装置的示意性方案。需要说明的是,该推荐模型数据处理装置的技术方案与上述的推荐模型数据处理方法的技术方案属于同一构思,推荐模型数据处理装置的技术方案未详细描述的细节内容,均可以参见上述推荐模型数据处理方法的技术方案的描述。
参见图4,图4示出了本说明书一个实施例提供的一种目标对象推荐方法的流程图,具体包括以下步骤。
具体的,本说明书实施例提供的目标对象推荐方法应用于终端,其中,终端可以理解为上述实施例的至少两个终端中的任意终端。
步骤402:在确定满足预设对象推荐条件的情况下,获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据。
其中,本说明书实施例提供的目标对象推荐方法的应用场景不同,其目标对象也不同;例如在目标对象推荐方法的应用场景为商品推荐场景时,该目标对象可以理解为商品;在目标对象推荐方法的应用场景为广告推荐场景时,该目标对象可以理解为广告等。为了便于理解,本说明书实施例中,均以目标对象推荐方法的应用场景为商品推荐场景,该目标对象为商品为例进行详细介绍。
那么在目标对象为商品的情况下,预设对象推荐条件则可以理解为预设商品推荐条件,而该预设对象推荐条件可以根据实际应用进行设置,例如用户通过终端浏览商品时,该预设对象推荐条件则可以为用户在浏览商品进行商品翻页时进行商品推荐,或者是用户刷新商品页面时进行商品推荐,又或者是用户新打开商品页面时进行商品推荐。
以对象为商品,预设对象推荐条件为用户在浏览商品进行商品翻页时进行商品推荐的条件为例,在用户浏览商品进行商品翻页的情况下,获取当前时刻的前一时刻,该终端上传至服务端的记忆向量对应的终端操作数据,其中,该终端操作数据的详细解释可以参见上述实施例,在此不再赘述。
若当前时刻为1月1日13点,而在当前时刻的前一时刻1月1日12点,该终端通过该端侧的记忆网络向服务端上传的记忆向量对应的终端操作数据;那么获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据,则可以理解为,获取1月1日12点,该终端上传至服务端的记忆向量对应的终端操作数据。
步骤404:根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数。
其中,所述目标模块参数通过上述实施例的推荐模型数据处理方法获得。
而原型网络模块的预设数量的目标模块参数,则可以理解为上述实施例的推荐模型数据处理方法中,云侧下发至每个终端的原型网络模块的预设数量的目标模块参数。
以目标模块参数的数量为3个为例。
终端在接收服务端下发的、根据终端操作数据的记忆向量获得的聚合向量的情况下,根据该聚合向量以及服务端下发的原型网络模块的预设数量的目标模块参数,确定其部署的原型网络模块的预测模块参数。具体实现方式如下所述:
所述根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,包括:
确定服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数;
根据预设相似度算法,分别计算所述聚合向量、与所述原型网络模块的预设数量的目标模块参数中每个目标模块参数的相似度;
根据所述相似度对所述预设数量的目标模块参数进行降序排序,并将排序后的第一个目标模块参数,确定为所述原型网络模块的预测模块参数。
其中,预设相似度算法的详细解释,可以参见上述实施例的介绍,在此不再赘述。
沿用上例,仍以预设相似度算法为余弦相似度算法为例。
具体实施时,接收服务端下发的该记忆向量对应的聚合向量、原型网络模块的预设数量的目标模块参数;根据余弦相似度算法,对聚合向量与每个目标模块参数进行余弦相似度计算,再根据该余弦相似度对该预设数量的目标模块参数进行降序排序,并将排序后的第一个目标模块参数确定为该原型网络模块的预测模块参数。
本说明书实施例提供的目标对象推荐方法,每个终端根据预测下发的其对应的聚合向量,通过预设相似度算法计算出,与其聚合向量的相似度较高的目标模块参数,作为其原型网络模块的预测模块参数,实现为每个终端设计个性化的专属原型网络模块,使得每个终端后续均可以根据该专属的原型网络模块进行商品推荐,提升用户使用体验。
步骤406:根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量。
具体的,所述根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量,包括:
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量、所述记忆向量与所述终端操作数据的聚合向量进行拼接,获得所述终端操作数据的目标向量。
具体的,将终端操作数据中的用户行为序列输入交互网络,获得记忆向量;同时,将终端操作数据中的用户行为序列、用户的属性信息、item信息、用户行为的背景信息输入到交互网络,获得交互向量;再该终端操作数据的记忆向量、交互向量与聚合向量进行拼接,获得该终端操作数据的目标向量;后续即可根据该目标向量结合参数调整后的原型网络模块,对待推荐的目标对象进行合理、准确的推荐。
步骤408:将待推荐的目标对象以及所述目标向量输入,根据所述预测模块参数调整后的原型网络模块,获得所述待推荐的目标对象的推荐结果。
其中,待推荐的目标对象,可以理解为待推荐的商品。
具体的,将待推荐的商品、以及该终端操作数据的目标向量同时输入到、根据预测模块参数调整后的原型网络模块中,即可获得该原型网络模块针对每个待推荐的商品的推荐结果,例如用户对每个待推荐商品的感兴趣程度。
最后,根据该原型网络模块针对每个待推荐的商品的推荐结果,对待推荐的商品进行排序,推荐展示给用户。
本说明书实施例提供的目标对象推荐方法中,每个终端在满足物品推荐条件的情况下,均可以根据当前时刻之前的终端操作数据,结合服务端下发的聚合向量、根据预测模块参数调整后的原型网络模块,准确的对待推荐物品进行预测,获得该终端的用户相对于每个待推荐物品的感兴趣程度,从而可以根据该预测结果对每个待推荐物品进行排序,以便将用户感兴趣的待推荐物品排列在较为显著的位置,提升用户的购物或者浏览体验。
参见图5,图5示出了本说明书一个实施例提供的一种目标对象推荐方法的处理过程流程图,具体包括以下步骤。
步骤502:端侧将用户行为序列s发送至端设备的记忆网络,获得记忆向量m。
步骤504:端侧将记忆向量m上传至云侧。
步骤506:云侧通过CD-GNN(跨设备的图神经网络模型)获得该记忆向量m的聚合向量h。
步骤508:云侧将聚合向量h下发至端侧。
步骤510:端侧计算该聚合向量h与原型向量(p1-pk)中每个原型向量的余弦相似度。
步骤512:通过Gumbel softmax函数选择余弦相似度较高的原型向量pk,并通过参数生成器(Parameter generator)将该pk转化为原型网络模块的mlp(多层感知机)可使用的原型向量θk,且通过原型向量θk调整原型网络模块的mlp的模块参数。
步骤514:终端将用户的属性信息u、item信息i、用户行为序列s、以及用户行为的背景信息c,输入交互层,获得表征向量。
其中,交互层可以理解为上述的交互网络,其目的是为了捕捉用户特征、历史行为序列、商品特征和context(用户行为的背景信息)之间的交互关系,从而更好的进行预测;本说明书实施例提供的交互层可以通过但不限于全联接层、attention等各种推荐模型的网络来实现。
步骤516:终端将记忆向量m、表征向量以及聚合向量h进行拼接,获得拼接向量z。
步骤518:将拼接向量z输入模块参数调整后的原型网络模块,获得原型网络模块对item的预测结果。
其中,原型网络模块对item的预测结果可以理解为,用户对每个item的感兴趣程度。
实际应用,端侧与云侧的推断属于异步操作,云侧对于端侧的用户行为序列的记忆向量对应的聚合向量的下发,不会特别频繁,即聚合向量不会特别实时更新,比如云侧会10分钟或者20分钟下发一次端侧的聚合向量,那么在云侧没有下发新的聚合向量之前,端侧在进行item推荐时,可以采用当前时刻之前云侧下发的聚合向量作为原型网络模块的输入。
因此,图中端侧的记忆向量可能与云侧接收的记忆向量不同,但均属于同一个终端,仅获取时间不同。
本说明书实施例提供的目标对象推荐方法中,每个终端在满足物品推荐条件的情况下,均可以根据当前时刻之前的终端操作数据,结合服务端下发的聚合向量、根据预测模块参数调整后的原型网络模块,准确的对待推荐物品进行预测,获得该终端的用户相对于每个待推荐物品的感兴趣程度,从而可以根据该预测结果对每个待推荐物品进行排序,以便将用户感兴趣的待推荐物品排列在较为显著的位置,提升用户的购物或者浏览体验。
与上述方法实施例相对应,本说明书还提供了目标对象推荐装置实施例,图6示出了本说明书一个实施例提供的一种目标对象推荐装置的结构示意图。如图6所示,该装置应用于终端,包括:
数据获取模块602,被配置为在确定满足预设对象推荐条件的情况下,获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据;
模型确定模块604,被配置为根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,确定所述原型网络模块的预测模块参数,其中,所述目标模块参数通过上述推荐模型数据处理方法获得;
向量拼接模块606,被配置为根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量;
结果预测模块608,被配置为将待推荐的目标对象以及所述目标向量输入,根据所述预测模块参数调整后的原型网络模块,获得所述待推荐的目标对象的推荐结果。
可选地,所述模型确定模块604,进一步被配置为:
确定服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数;
根据预设相似度算法,分别计算所述聚合向量、与所述原型网络模块的预设数量的目标模块参数中每个目标模块参数的相似度;
根据所述相似度对所述预设数量的目标模块参数进行降序排序,并将排序后的第一个目标模块参数,确定为所述原型网络模块的预测模块参数。
可选地,所述向量拼接模块606,进一步被配置为:
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量、所述记忆向量与所述终端操作数据的聚合向量进行拼接,获得所述终端操作数据的目标向量。
上述为本实施例的一种目标对象推荐装置的示意性方案。需要说明的是,该目标对象推荐装置的技术方案与上述的目标对象推荐方法的技术方案属于同一构思,目标对象推荐装置的技术方案未详细描述的细节内容,均可以参见上述目标对象推荐方法的技术方案的描述。
本说明书实施例还提供了一种端云协同推荐系统,包括云端以及至少两个终端,且所述推荐模型包括图神经网络模块以及原型网络模块,包括:
所述至少两个终端中的每个终端,用于向所述云端发送终端操作数据;
所述云端,用于根据所述至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量,根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量,根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数,将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端;
所述每个终端,根据所述原型网络模块的预设数量的目标模块参数,部署所述原型网络模块,并通过记忆网络将终端更新操作数据的更新记忆向量上传至所述云端。
其中,云端可以理解为上述实施例的服务端的一种,终端与上述实施例中的终端一致,在此不再赘述。
本说明书实施例提供的端云协同推荐系统中,多个终端均会将终端操作数据上传至云端,云端根据每个终端的终端操作数据在云端对推荐系统中的图神经网络模块和原型网络模块进行训练,同时根据原型网络模块的预设数量的模块参数,产出多个原型网络模块的目标模块参数,服务于多组用户,实现了组级别的模型个性化;云端将训练后的图神经网络模块部署在其云端,再将训练后的原型网络模块以及产出的多个原型网络模块的模块参数下发至每个终端,使得每个终端在实际应用中,可以根据云端下发的聚合向量,实时的选择合适的原型网络模块的模块参数进行目标对象推荐。
即通过将图神经网络和端智能结合的推荐系统,不仅使得推荐时可以根据全局图利用相邻设备的实时行为信息以增加推荐线索,从而提供优于其他推荐系统的推荐结果,尤其是在低活跃度的用户上表现更好,从一定程度上缓解了推荐系统中普遍面临的行为稀疏的挑战;还可以后续的实际应用中,终端可以根据实时的行为数据选择合适的型网络模块的模块参数,增加推荐结果的准确性。
图7示出了根据本说明书一个实施例提供的一种计算设备700的结构框图。该计算设备700的部件包括但不限于存储器710和处理器720。处理器720与存储器710通过总线730相连接,数据库750用于保存数据。
计算设备700还包括接入设备740,接入设备740使得计算设备700能够经由一个或多个网络760通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备740可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备700的上述部件以及图7中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图7所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备700可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备700还可以是移动式或静止式的服务器。
其中,处理器720用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述推荐模型数据处理方法或目标对象推荐方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的推荐模型数据处理方法或目标对象推荐方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述推荐模型数据处理方法或目标对象推荐方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述推荐模型数据处理方法或目标对象推荐方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的推荐模型数据处理方法或目标对象推荐方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述推荐模型数据处理方法或目标对象推荐方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述推荐模型数据处理方法或目标对象推荐方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的推荐模型数据处理方法或目标对象推荐方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述推荐模型数据处理方法或目标对象推荐方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。

Claims (13)

1.一种推荐模型数据处理方法,应用于服务端,且所述推荐模型包括图神经网络模块以及原型网络模块,其中,所述方法包括:
根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量;
根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量;
根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数;
将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端,用于所述终端部署所述原型网络模块,并通过所述终端的记忆网络将所述终端更新操作数据的更新记忆向量上传至所述服务端。
2.根据权利要求1所述的推荐模型数据处理方法,所述根据至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量,包括:
接收至少两个终端发送的终端操作数据;
根据所述至少两个终端的终端操作数据,构建全局图;
根据所述终端操作数据以及所述全局图,确定所述至少两个终端中每个终端的训练数据;
根据所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
3.根据权利要求2所述的推荐模型数据处理方法,所述根据所述至少两个终端的终端操作数据,构建全局图,包括:
根据所述至少两个终端的终端操作数据,计算所述至少两个终端之间的相似度;
根据所述至少两个终端、以及所述至少两个终端之间的相似度构建全局图。
4.根据权利要求2所述的推荐模型数据处理方法,所述根据所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量,包括:
将所述每个终端的训练数据输入记忆网络,获得所述每个终端的训练数据对应的记忆向量;
将所述每个终端的训练数据对应的记忆向量输入所述图神经网络模块,获得所述每个终端的训练数据对应的聚合向量。
5.根据权利要求1所述的推荐模型数据处理方法,所述根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,包括:
根据预设相似度算法,分别计算所述训练数据对应的聚合向量、与预设数量的原型向量中每个原型向量的相似度;
根据所述相似度对所述预设数量的原型向量进行降序排序,并将排序后的第一个原型向量,确定为所述原型网络模块相对于所述聚合向量的初始模块参数。
6.根据权利要求1所述的推荐模型数据处理方法,所述根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,包括:
确定所述每个终端的训练数据中的训练样本以及所述训练样本对应的训练标签;
根据所述每个终端的训练样本中的终端操作数据,获得所述每个终端的训练样本的行为向量;
根据所述每个终端的训练样本的行为向量、聚合向量、训练标签以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块。
7.根据权利要求6所述的推荐模型数据处理方法,所述根据所述每个终端的训练样本中的终端操作数据,获得所述每个终端的训练样本的行为向量,包括:
确定所述每个终端的训练样本中的终端操作数据;
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量与所述记忆向量进行拼接,获得所述每个终端的训练样本的行为向量。
8.根据权利要求7所述的推荐模型数据处理方法,所述根据所述每个终端的训练样本的行为向量、聚合向量、训练标签以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,包括:
根据所述原型网络模块相对于所述聚合向量的初始模块参数,调整所述原型网络模块的模块参数;
将所述每个终端的训练样本的行为向量以及聚合向量进行拼接,输入模块参数调整后的原型网络模块进行预测,获得所述每个终端的训练样本的预测结果;
根据所述每个终端的训练样本的预测结果以及训练标签,训练所述图神经网络模块以及所述原型网络模块。
9.根据权利要求1所述的推荐模型数据处理方法,所述获得训练后的原型网络模块的预设数量的目标模块参数之后,还包括:
接收所述至少两个终端中的任意终端,从端侧的记忆网络上传的、终端更新操作数据的更新记忆向量;
将所述更新记忆向量输入所述图神经网络模块,获得所述更新记忆向量的更新聚合向量,并将所述更新聚合向量下发对应终端。
10.一种目标对象推荐方法,应用于终端,包括:
在确定满足预设对象推荐条件的情况下,获取当前时刻的前一时刻,上传至服务端的记忆向量对应的终端操作数据;
根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,其中,所述目标模块参数通过上述权利要求1-9任意一项推荐模型数据处理方法获得;
根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量;
将待推荐的目标对象以及所述目标向量输入,根据所述预测模块参数调整后的原型网络模块,获得所述待推荐的目标对象的推荐结果。
11.根据权利要求10所述的目标对象推荐方法,所述根据接收的服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数,确定所述原型网络模块的预测模块参数,包括:
确定服务端下发的所述记忆向量对应的聚合向量、以及原型网络模块的预设数量的目标模块参数;
根据预设相似度算法,分别计算所述聚合向量、与所述原型网络模块的预设数量的目标模块参数中每个目标模块参数的相似度;
根据所述相似度对所述预设数量的目标模块参数进行降序排序,并将排序后的第一个目标模块参数,确定为所述原型网络模块的预测模块参数。
12.根据权利要求10所述的目标对象推荐方法,所述根据所述终端操作数据以及所述聚合向量,获得所述终端操作数据的目标向量,包括:
将所述终端操作数据分别输入交互网络以及记忆网络,获得所述终端操作数据的交互向量以及记忆向量;
将所述交互向量、所述记忆向量与所述终端操作数据的聚合向量进行拼接,获得所述终端操作数据的目标向量。
13.一种端云协同推荐系统,包括云端以及至少两个终端,且所述推荐模型包括图神经网络模块以及原型网络模块,包括:
所述至少两个终端中的每个终端,用于向所述云端发送终端操作数据;
所述云端,用于根据所述至少两个终端发送的终端操作数据构建全局图,并根据所述全局图以及所述图神经网络模块,获得每个终端的训练数据以及所述训练数据对应的聚合向量,根据所述训练数据对应的聚合向量以及预设数量的原型向量,确定所述原型网络模块相对于所述聚合向量的初始模块参数,其中,所述原型向量为所述原型网络模块的模块参数向量,根据所述每个终端的训练数据、所述训练数据对应的聚合向量以及所述原型网络模块相对于所述聚合向量的初始模块参数,训练所述图神经网络模块以及所述原型网络模块,并获得训练后的原型网络模块的预设数量的目标模块参数,将所述原型网络模块以及所述原型网络模块的预设数量的目标模块参数,分别下发至所述至少两个终端;
所述每个终端,根据所述原型网络模块的预设数量的目标模块参数,部署所述原型网络模块,并通过记忆网络将终端更新操作数据的更新记忆向量上传至所述云端。
CN202210452920.1A 2022-04-27 2022-04-27 推荐模型数据处理方法 Pending CN114969508A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210452920.1A CN114969508A (zh) 2022-04-27 2022-04-27 推荐模型数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210452920.1A CN114969508A (zh) 2022-04-27 2022-04-27 推荐模型数据处理方法

Publications (1)

Publication Number Publication Date
CN114969508A true CN114969508A (zh) 2022-08-30

Family

ID=82978913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210452920.1A Pending CN114969508A (zh) 2022-04-27 2022-04-27 推荐模型数据处理方法

Country Status (1)

Country Link
CN (1) CN114969508A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115687944A (zh) * 2022-12-27 2023-02-03 荣耀终端有限公司 一种短信采集方法及相关设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115687944A (zh) * 2022-12-27 2023-02-03 荣耀终端有限公司 一种短信采集方法及相关设备
CN115687944B (zh) * 2022-12-27 2023-09-15 荣耀终端有限公司 一种短信采集方法及相关设备

Similar Documents

Publication Publication Date Title
CN107861938B (zh) 一种poi文案生成方法及装置,电子设备
Zhao et al. Learning sequential distribution system restoration via graph-reinforcement learning
CN110321422A (zh) 在线训练模型的方法、推送方法、装置以及设备
CN111949886B (zh) 一种用于信息推荐的样本数据生成方法和相关装置
CN112035743A (zh) 数据推荐方法、装置、计算机设备以及存储介质
CN112232889A (zh) 一种用户兴趣画像扩展方法、装置、设备及存储介质
CN112231580B (zh) 基于人工智能的信息推荐方法、装置、电子设备及存储介质
CN112307352B (zh) 内容推荐方法、系统、装置和存储介质
Liu et al. Deep generative model and its applications in efficient wireless network management: A tutorial and case study
CN115170840B (zh) 数据处理系统、方法和电子设备
CN112784118A (zh) 一种对三角形结构敏感的图中的社区发现方法和装置
Perifanis et al. Federated learning for 5G base station traffic forecasting
CN114969508A (zh) 推荐模型数据处理方法
Hafi et al. Split federated learning for 6G enabled-networks: Requirements, challenges and future directions
CN111767953B (zh) 用于训练物品编码模型的方法和装置
CN105432038A (zh) 应用排名计算装置和使用信息收集装置
CN116363457B (zh) 任务处理、图像分类、任务处理模型的数据处理方法
CN115564532A (zh) 序列推荐模型的训练方法及装置
CN115601047A (zh) 数据处理方法以及装置
CN115391638A (zh) 基于社交网络的推荐模型训练方法及装置
CN114611015A (zh) 交互信息处理方法、装置和云服务器
CN112288195B (zh) 基于好友行为预测中心用户行为的方法、装置和电子设备
Gao et al. ML-WiGR: A meta-learning-based approach for cross-domain device-free gesture recognition
Jansevskis et al. Machine Learning and on 5G Based Technologies Create New Opportunities to Gain Knowledge
Chen et al. Cross-domain augmentation networks for click-through rate prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination