CN117370657A - 物品推荐的方法、装置、设备及存储介质 - Google Patents

物品推荐的方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117370657A
CN117370657A CN202311324897.9A CN202311324897A CN117370657A CN 117370657 A CN117370657 A CN 117370657A CN 202311324897 A CN202311324897 A CN 202311324897A CN 117370657 A CN117370657 A CN 117370657A
Authority
CN
China
Prior art keywords
model
article
recommendation
prediction result
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311324897.9A
Other languages
English (en)
Inventor
赵鑫
谢若冰
孙文奇
林乐宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Renmin University of China
Original Assignee
Tencent Technology Shenzhen Co Ltd
Renmin University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd, Renmin University of China filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202311324897.9A priority Critical patent/CN117370657A/zh
Publication of CN117370657A publication Critical patent/CN117370657A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及物品推荐技术领域,提供一种物品推荐的方法、装置、设备及存储介质,该物品推荐的方法包括:通过获取目标对象的物品交互序列,物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;将物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,向目标对象推荐所述待推荐物品。由于本申请实施例物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,多个推荐大模型为多个不同领域的预训练模型,因此,本申请实施例物品推荐模型,可以将多个推荐大模型储存的知识迁移到物品推荐小模型上进行物品推荐,提高物品推荐效率,同时能以更少的时间和储存成本进行物品推荐服务。

Description

物品推荐的方法、装置、设备及存储介质
技术领域
本申请实施例涉及物品推荐技术领域,更具体地涉及一种物品推荐的方法、装置、设备及存储介质。
背景技术
推荐系统是基于对象的历史交互信息为对象推荐感兴趣物品的一种系统,推荐系统通常搭建一个对象的动态兴趣模型通过模型的序列编码器捕捉对象的动态兴趣生成对象和物品隐藏表示,再基于对象和物品的隐藏表示推荐物品。
推荐系统能够为每个对象提供个性化的项目排名列表。但由于深度学习的快速发展,推荐系统变得越来越复杂,参数量也急剧增加,一般来说,参数量大的推荐模型可以实现更好的性能但同时也存在一些问题:这种模型有很大的推理延迟,且需要巨大的内存和计算成本,无法直接有效地应用于线上服务环境。因此,采用庞大的推荐模型对于需要快速响应的在线部署是不合适的。
因而,如何有效在真实的线上服务环境中应用推荐大模型成为了亟待解决的问题。
发明内容
本申请实施例提供一种物品推荐的方法、装置、设备及存储介质,可以将多个推荐大模型储存的知识迁移到物品推荐小模型上进行物品推荐,提高物品推荐效率,同时能以更少的时间和储存成本进行物品推荐服务。
第一方面,本申请实施例提供一种物品推荐的方法,所述方法包括:
获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
向所述目标对象推荐所述待推荐物品。
第二方面,本申请实施例提供一种模型训练方法,所述方法包括:
获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
将所述多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
将所述多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
第三方面,本申请实施例提供一种物品推荐的装置,具有实现对应于上述第一方面提供的物品推荐的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。
在本申请的一种实施方式中,所述物品推荐的装置包括:
获取模块,用于获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
预测模块,用于将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
推荐模块,用于向所述目标对象推荐所述待推荐物品。
第四方面,本申请实施例提供一种模型训练装置,所述模型训练装置包括:
获取模块,用于获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
第一预测模块,用于将所述多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
第二预测模块,用于将所述多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
确定模块,用于根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
第五方面,本申请实施例提供一种计算机可读存储介质,其包括指令,当其在计算机上运行时,使得计算机执行如第一方面所述的物品推荐的方法或者第二方面所述的模型训练方法。
第六方面,本申请实施例提供一种计算机设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现第一方面所述的物品推荐的方法或者第二方面所述的模型训练方法。
第七方面,本申请实施例提供一种芯片,该芯片中包括与终端设备的收发器耦合的处理器,用于执行本申请实施例第一方面或第二方面提供的技术方案。
第八方面,本申请实施例提供一种芯片系统,该芯片系统包括处理器,用于支持终端设备实现上述第一方面中所涉及的功能,例如,生成或者处理上述第一方面提供的物品推荐的方法中所涉及的信息。
在一种可能的设计中,上述芯片系统还包括存储器,该存储器用于保存终端必需的程序指令和数据。该芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。
第九方面,本申请实施例提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面所述的物品推荐的方法或者第二方面所述的模型训练方法。
本申请实施例中通过获取目标对象的物品交互序列,物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;将物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,向目标对象推荐所述待推荐物品。由于本申请实施例物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,多个推荐大模型为多个不同领域的预训练模型,因此,本申请实施例物品推荐模型,可以将多个推荐大模型储存的知识迁移到物品推荐小模型上进行物品推荐,提高物品推荐效率,同时能以更少的时间和储存成本进行物品推荐服务。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中物品推荐的方法的一种物品推荐系统示意图;
图2为本申请实施例的物品推荐的方法的一种流程示意图;
图3为本申请实施例的物品推荐的方法的模型训练的一个流程示意图;
图4为本申请实施例中物品推荐模型的训练框架示意图;
图5为本申请实施例的物品推荐的装置的结构示意图;
图6为本申请实施例的模型训练装置的结构示意图;
图7为本申请实施例中手机的一种结构示意图;
图8为本申请实施例中服务器的一种结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在以下的说明中,本申请的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有说明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存系统中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实体位置,其具有由该数据格式所定义的特定特性。但是,本申请原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本文所使用的术语“模块”或“单元”可看做为在该运算系统上执行的软件对象。本文所述的不同组件、模块、引擎及服务可看做为在该运算系统上的实施对象。而本文所述的装置及方法优选的以软件的方式进行实施,当然也可在硬件上进行实施,均在本申请保护范围之内。
本申请以下描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
本申请以下描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
下面首先对本申请实施例中涉及到的一些基本概念进行介绍:
预训练模型(Pre-training model):也称基石模型、大模型,指具有大参量的深度神经网络(Deep neural network,DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(fine tune)、参数高效微调(PEFT)、prompt-tuning等技术,适用于下游任务。因此,预训练模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT,CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。预训练模型是输出人工智能生成内容(AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。预训练模型是先通过一批语料进行模型训练,然后在这个初步训练好的模型基础上,再继续训练或者另作他用。预训练模型的训练和使用分别对应两个阶段:预训练阶段(pre-training)和微调(fine-tuning)阶段。
分布式训练:指将训练模型的工作负载拆分、共享给多个微型处理器。大模型的参数大,训练数据大,超过单个机器容纳能力,因此需要分布式并行提速。并行机制包括数据并行(Data Parallel,DP)、模型并行(Model Parallel,MP)、流水线并行(PipelineParallel,PP)、混合并行(Hybrid parallel,HP)。结构设计包括基于参数服务器(Parameter Server)、基于规约(Reduce)基于MPI等构造。
模型压缩与量化:指通过压缩与量化的技术帮助减小模型大小和加速模型推理,从而降低模型在存储和计算方面的成本。模型压缩通常包括剪枝、低秩分解、知识蒸馏等,模型量化指将模型中的浮点数参数转换为定点数或整数参数,从而减小模型大小和加速模型推理。
自适应计算:指根据不同的输入数据,自动调整模型的计算量和精度,以达到在保持模型精度的同时提高模型计算效率的目的。自适应计算能够在不同的输入数据上灵活地调整模型的计算量和精度,从而更好地平衡模型的计算效率和精度。
模型并行计算:指将模型的计算任务分配给多个计算设备(例如CPU、GPU、TPU等)同时进行计算,从而加速模型的训练和推理。模型并行计算能够有效地利用计算资源,提高模型的计算效率和训练速度。
知识蒸馏:一种经典的模型压缩方法,核心思想是通过引导轻量化的学生模型“模仿”性能更好、结构更复杂的教师模型(或多模型的ensemble),在不改变学生模型结构的情况下提高其性能。知识蒸馏(knowledge distillation)也叫暗知识提取,是指通过结构复杂、计算量大但是性能优秀的教师神经网络(teacher network),对结构相对简单、计算量较小的学生神经网络(student network)的训练进行指导,以提升学生神经网络的性能,实现知识迁移(knowledge transfer)的过程。
集成(ensemble)方法:通过创建多个模型,然后将它们合并以产生改进的结果。在机器学习中,集成方法通常比单个模型产生更准确的解决方案。可以使用集成方法来实现强大的协同过滤算法。集成方法包括投票(多数表决、加权投票)、平均(简单平均、加权平均)、堆叠、装袋和提升等。
请参阅图1,图1为本申请实施例所提供的物品推荐系统的场景示意图,该物品推荐系统可以包括计算机设备100,计算机设备100中集成有物品推荐的装置。本申请实施例中,计算机设备100可以是终端设备或者服务器。本申请实施例中物品推荐系统可以应用在任何大型推荐模型上,将大模型压缩成小模型实现在线推理。该物品推荐系统可以设置在需要对对象进行实时推荐的推荐应用中,这些推荐应用可以是购物网站、综合性内容发布网站及相关应用程序(Application,APP)等。
本申请实施例中,在计算机设备100为服务器的情况下,该服务器可以是独立的物理服务器,也可以是服务器组成的服务器网络或服务器集群,例如,本申请实施例中所描述的服务器,其包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集、或者提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。其中,云服务器由基于云计算(Cloud Computing)的大量计算机或网络服务器构成。本申请的实施例中,服务器与客户端之间可通过任何通信方式实现通信,包括但不限于,基于第三代合作伙伴计划(3rd Generation Partnership Project,3GPP)、长期演进(Long Term Evolution,LTE)、全球互通微波访问(Worldwide Interoperability for Microwave Access,WiMAX)的移动通信,或基于TCP/IP协议族(TCP/IP Protocol Suite,TCP/IP)、用户数据报协议(UserDatagram Protocol,UDP)协议的计算机网络通信等。
可以理解的是,当本申请实施例中所使用的计算机设备100为终端设备时,终端设备可以是既包括接收硬件和发射硬件的设备,即具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种终端设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备。具体的计算机设备100具体可以是台式终端或移动终端,计算机设备100具体可以手机、平板电脑、笔记本电脑等中的一种。
本申请实施例涉及的终端设备,还可以是指向用户提供语音和/或数据连通性的设备,具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备。例如移动电话(或称为“蜂窝”电话)和具有移动终端的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语音和/或数据。例如,个人通信业务(英文全称:Personal Communication Service,英文简称:PCS)电话、无绳电话、会话发起协议(SIP)话机、无线本地环路(Wireless Local Loop,英文简称:WLL)站、个人数字助理(英文全称:Personal Digital Assistant,英文简称:PDA)等设备。
本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本申请方案一种应用场景,并不构成对本申请方案应用场景的限定,其他的应用环境还可以包括比图1中所示更多或更少的计算设备,或者计算设备网络连接关系,例如图1中仅示出1个计算设备,可以理解的,该物品推荐系统还可以包括一个或多个其他计算设备,或/且一个或多个与计算机设备100网络连接的其他计算设备,具体此处不作限定。
另外,如图1所示,该物品推荐系统还可以包括存储器200,用于存储数据,如存储对象的物品交互序列等。
需要说明的是,图1所示的物品推荐系统的场景示意图仅仅是一个示例,本申请实施例描述的物品推荐系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着物品推荐系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本申请实施例提供的方案涉及人工智能(Artificial Intelligence,AI)、计算机视觉技术(Computer Vision,CV)、机器学习(Machine Learning,ML)等技术,具体通过如下实施例进行说明:
其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、预训练模型技术、操作/交互系统、机电一体化等。其中,预训练模型又称大模型、基础模型,经过微调后可以广泛应用于人工智能各大方向下游任务。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。大模型技术为计算机视觉技术发展带来重要变革,swin-transformer,ViT,V-MOE,MAE等视觉领域的预训练模型经过微调(fine tune)可以快速、广泛适用于下游具体任务。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。大模型技术为语音技术发展带来变革,WavLM,UniSpeech等沿用Transformer架构的预训练模型具有强大的泛化性、通用性,可以优秀完成各方向的语音处理任务。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理涉及自然语言,即人们日常使用的语言,与语言学研究密切;同时涉及计算机科学和数学等。人工智能领域模型训练的重要技术,预训练模型,即是从NLP领域的大语言模型(Large Language Model)发展而来。经过微调,大语言模型可以广泛应用于下游任务。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。预训练模型是深度学习的最新发展成果,融合了以上技术。
本申请实施例提供的方案涉及人工智能的物品推荐等技术,下面结合具体实施例进行详细说明,需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
在本申请实施例中,首先将从物品推荐的装置的角度进行描述,该物品推荐的装置具体可以集成在计算机设备中。
请参阅图2,图2是本申请实施例中提供的物品推荐的方法的一个实施例流程示意图,该物品推荐的方法包括如下步骤:
201、获取目标对象的物品交互序列。
其中,物品可以是商品,货物,礼品等各种在互联网平台上的虚拟物品,物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列,其中目标对象可以为一个或多个对象,当为多个对象时,多个对象可以是同一类型的对象,例如,多个对象都为具有预设属性的对象,多个对象为具有同样兴趣爱好(如打篮球)的对象等,具体此处不作限定。
目标时间段可以是当前时间前的一个历史时间段,例如当前时间的前一个月,或者当前时间的前一周等,目标平台可以包括一个或多个网络平台,例如电子商务平台,如淘宝,京东,天猫等,具体此处不作限定。
本申请实施例中,获取目标对象的物品交互序列可以是:获取目标对象在目标时间段内在目标平台的物品交互记录,基于物品交互记录生成物品交互序列。其中,物品交互可以包括物品购买,物品浏览,物品收藏,物品分享等物品交互操作中一项或多项。基于物品交互记录生成物品交互序列可以是基于物品交互记录按照时间顺序排序生成物品交互序列。
202、将物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品。
其中,物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,多个推荐大模型为多个不同领域的预训练模型,多个推荐大模型为多个不同预训练模型,例如多个推荐大模型包括3个大模型时,3个大模型分别为UniSRec,Recformer,以及UniSRec+视觉信息的大模型。
在人工智能领域,大模型是指拥有超过10亿个参数的深度神经网络,它们能够处理海量数据、完成各种复杂的任务,如自然语言处理、计算机视觉、语音识别等。本申请实施例中,物品推荐模型为推荐小模型,推荐小模型为常规推荐模型,区别于现有的推荐大模型,即物品推荐模型非大模型。
203、向目标对象推荐待推荐物品。
一些前沿工作已经证明推荐大模型在推荐系统中有光明的前景,但是直接使用这些推荐大模型存在以下几个问题:(1)推荐大模型在线上服务时往往需要耗费比较高的推理和存储成本;(2)目前有很多种推荐大模型的设计方案,他们彼此之间各有优势,也各有缺点;(3)现有工业界的推荐系统往往是一系列相互耦合的模型集合组成的,直接替换成推荐大模型成本较高而且效果不稳定,风险很大。
本申请实施例中通过获取目标对象的物品交互序列,物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;将物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,向目标对象推荐待推荐物品。由于本申请实施例物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,多个推荐大模型为多个不同领域的预训练模型,因此,本申请实施例物品推荐模型,可以将多个推荐大模型储存的知识迁移到物品推荐小模型上进行物品推荐,提高物品推荐效率,同时能以更少的时间和储存成本进行物品推荐服务。
在本申请实施例中,在将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品之前,需要提前训练得到物品推荐模型。
知识蒸馏被广泛应用在推荐系统领域来压缩较大的推荐模型。其由预训练的大型教师模型学到的知识作为额外监督信息转移到小型学生模型上,使学生模型的性能尽可能地接近教师模型。大量研究已经验证了在推荐性能和推理速度方面,用知识蒸馏技术训练的学生模型优于没有使用任何蒸馏技术的原始学生模型。尽管知识蒸馏在推荐系统领域的应用有效地解决了在线推理延迟问题,并迅速为对象提供项目排名列表,但在如何为不同的对象生成他们真正感兴趣的个性化排名列表方面仍存在很多问题。因此,必须提高学生模型的排名性能,以接近甚至超越教师模型的性能。但是现有教师模型和学生模型之间存在巨大的性能差距;由于大型教师模型有更多的参数,它可以捕获包含丰富信息的知识来实现性能提升。
因此,本申请实施例中是通过多个推荐大模型为多个教师模型,多个教师模型为多个推荐预训练大模型,包括但不限于UniSRec,Recformer,以及UniSRec+视觉信息的模型;目标推荐模型为学生模型,学生模型采用推荐小模型,如SASRec等。
本申请实施例中这些推荐预训练大模型往往在多个领域的数据上进行预训练,并且基于丰富的通用的模态信息(例如文本、图像等)作为桥梁,能够将预训练领域上的对象偏好迁移到下游新领域的推荐任务中。这些推荐大模型融入了较多通用的额外知识,希望能将其储存的知识迁移到推荐小模型上。在下游任务新领域推荐任务中,这些推荐大模型可以直接使用,也可以通过基于下游任务的对象操作数据进行微调,进一步优化推荐大模型的性能。本申请实施例中推荐小模型具有较小的时间空间成本,例如传统SASRec模型仅仅基于下游任务的对象操作数据,通过直接学习的损失函数进行训练。
本申请实施例方法中,在进行物品推荐模型训练时,如图3所示,本申请实施例中物品推荐的方法还可以包括如下步骤301~304:
301、获取对象的物品交互训练集。
其中,物品交互训练集中包括多个物品交互训练序列,每个物品交互训练序列对应一个对象,可以理解的是,物品交互训练集还可以包括物品交互训练序列进行预测的真实结果,以便在训练过程中计算单个模型的损失值。
本申请实施例中,还可以将每一对象的物品交互序列分割成等长的训练序列,即分成多份训练数据,不足的部分补0,具体的如:一个对象的物品交互序列有28个,假设训练序列的长度为10,则该对象的物品交互序列对应的共有3个长度为10的训练序列,其中有一个训练序列中为补两个0的训练序列。
302、将多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集。
其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果。
303、将多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果。
304、根据多个预测结果集和第二预测结果,确定训练后的物品推荐模型。
本实施例中通过通过多教师模型蒸馏,使得传统推荐模型能够享受到多个推荐大模型的红利,以更少的时间和储存成本进行物品推荐服务。
其中,步骤304中根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型,可以进一步包括步骤(1)~(2):
(1)根据所述多个预测结果集进行集成计算,得到每个物品交互训练序列的集成预测结果。
其中,步骤(1)中根据所述多个预测结果集进行集成计算,得到每个物品交互训练序列的集成预测结果,可以包括:
1、分别以每个物品交互训练序列为目标物品交互训练序列,根据所述多个预测结果集,计算所述目标物品交互训练序列中各物品的集成预测结果。
具体的,根据所述多个预测结果集,计算所述目标物品交互训练序列中各物品的集成预测结果,还可以进一步包括:获取所述多个推荐大模型的权重;分别以所述目标物品交互训练序列中一个物品为目标物品,获取所述多个预测结果集中所述目标物品对应的多个第一预测结果,每个第一预测结果对应一个推荐大模型;根据所述目标物品对应的多个第一预测结果和所述多个推荐大模型的权重,计算所述目标物品的集成预测结果;在完成计算目标物品交互训练序列中各物品集成预测结果之后,得到所述目标物品交互训练序列中各物品的集成预测结果。
其中,根据所述目标物品对应的多个第一预测结果和所述多个推荐大模型的权重,计算所述目标物品的集成预测结果,可以进一步包括:根据每个推荐大模型的权重和每个推荐大模型对应的第一预测结果,计算每个推荐大模型的有效预测结果;根据所述多个推荐大模型的有效预测结果,计算所述目标物品的集成预测结果。
具体的,以推荐大模型为教师模型为例,知识提取过程中,多个教师模型的特征与相应的重要度权重相结合。整合不同推荐预训练大模型的能力,根据下游任务不同的特点,为不同的推荐预训练大模型分配不同的权重,以集成学习到多个教师模型的先验知识。
在一个具体实施例中,多个教师模型的权重w1,w2,…,wN满足如下公式:
最终,多个教师模型的预测结果集成后的集成预测结果为:
其中,N为教师模型的数量,ωk为第k个教师模型的权重,为集成预测结果,pi为第i个教师模型的预测结果,i=k。
2、在所述目标物品交互训练序列中各物品的集成预测结果中,选择最佳的集成预测结果,得到所述目标物品交互训练序列的集成预测结果。
(2)采用预设损失函数对所述集成预测结果和所述第二预测结果进行收敛,得到训练后的物品推荐模型。
具体的,采用预设损失函数对所述集成预测结果和所述第二预测结果进行收敛,得到训练后的物品推荐模型,可以包括:获取每个物品交互训练序列的真实结果;根据所述真实结果和所述第二预测结果,计算模型损失值;根据所述集成预测结果和所述第二预测结果,计算蒸馏损失值;根据所述模型损失值和所述蒸馏损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
其中,所述根据所述模型损失值和所述蒸馏损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型,进一步包括:根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值;根据所述模型总损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
具体的,所述根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值,可以包括:根据所述第一权重和所述模型损失值,计算有效模型损失值;根据所述第二权重和所述蒸馏损失值,计算有效蒸馏损失值;根据所述有效模型损失值和所述有效蒸馏损失值,计算模型总损失值。
其中,第一权重和第二权重可以预先设定,取值可以在[0,1],具体可以根据实际应用场景设定。
如图4所示,为本申请实施例中物品推荐模型的训练框架示意图,图4中多个推荐大模型包括教师模型1、教师模型2和教师模型3,将物品交互序列分别输入教师模型1、教师模型2和教师模型3,可以得到多个预测结果集,每个预测结果集中都包括物品交互序列中同一物品的预测结果,例如,物品1,教师模型1、教师模型2和教师模型3分别进行预测,得到预测结果1,预测结果2和预测结果3,对教师模型1、教师模型2和教师模型3的结果进行集成即可得到集成预测结果,而图4中目标推荐模型为学生模型。
学生模型可以通过生成的预测结果与真实结果的做对比,通过交叉熵损失函数计算学生损失(即本申请实施例中描述的模型损失值),学生模型生成的预测结果与多个推荐大模型集成的集成预测结果,通过KL散度计算蒸馏损失。
本申请实施例中,最终的损失函数可以由学生损失/>和蒸馏损失/>按比例相加而得,其中λ为预设的比例系数,公式为:
本申请实施例中,在多个教师模型蒸馏中,多个教师模型分别通过集成得到集成预测结果,与学生模型的预测结果做比较,计算蒸馏损失。同时,学生模型的预测结果与真实结果的模型损失值,根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值,通过上述过程,一方面,结合了多个教师模型的预测结果进行收敛,另一方面又结合单个模型的真实结果进行收敛,实现多方面比较学习,提高了训练后得到的物品推荐模型的推荐效果。
目前,人工智能技术逐渐应用到各种推荐模型,能够利用对象数据生成个性化推荐列表,在商业网站和信息分发应用中得到广泛应用。但是终端的展示区域有限,在推荐列表的推荐物品较多的情况下,并不能确保各个推荐物品都在展示区域显示。在推荐列表中,位置相近的推荐物品在推荐分数上相近,但是展示区域的推荐物品会更容易被特定对象看到,从而产生与对象之间的交互数据。推荐模型采用知识蒸馏机制,通过教师模型对学生模型进行训练,在获取到推荐物品与对象之间的交互数据之后,教师模型会根据对象操作数据进一步更新推荐分数,非展示区域的推荐物品由于缺少交互数据,曝光度的缺失会导致推荐分数续降低,而学生模型通常以推荐列表作为正样本,导致训练出的学生模型过于偏向展示区域的推荐物品,影响推荐模型的准确性。
因此,如果每次选取对象在固定时间段全部物品作为所要物品交互训练序列中的物品,一方面影响计算效率,另一方面由于非有效信息的干扰,会影响高曝光物品信息从推荐大模型到推荐小模型的有效传递。
本申请实施例中,可以采用in-batch策略进行蒸馏商品(即物品交互训练序列)的选取,即每次选择同一批训练数据(同一batch,例如,batch大小为512)中,真实的下一个物品标签作为要蒸馏传递信息的物品,这些物品通常是一些高曝光物品,可以包含更多的物品有效信息,从而避免非有效信息的干扰,提高高曝光物品信息从推荐大模型到推荐小模型的传递效率。
本申请实施例中所提出方法,与现有方法实验比较的结果如下表1所示,表1为在Instruments和Arts数据集上的实验结果展示:
表1
发明人在2个下游数据集Arts和Instruments上比较了所提出的方法与现有方法的实验结果,上表1展示了具体实验结果。
实验结果表明:(1)在真实的线上服务环境中,采用集成多个推荐大模型的预测结果,蒸馏到推荐小模型,效果要远高于原始推荐效果,同时兼顾了效率,说明基于知识蒸馏的多个推荐大模型集成方法是大模型时代一种有效的利用推荐大模型的方式。(2)实验结果表明,集成多个推荐大模型蒸馏的结果,要优于单个推荐大模型,说明了各推荐大模型的学习侧重点有所不同,充分利用各多推荐大模型的特点有助于线上真实服务的效果提升。(3)多个教师模型集成的结果优于单个推荐大模型蒸馏的结果,说明了集成方法能够从不同的推荐大模型学习到不同的知识。(4)通过知识蒸馏,显著减小了模型大小(即参数量),加快了推荐小模型学习速度。(5)为推荐小模型融入了额外知识。(5)在大模型时代,用极低的成本,实现了稳定、有效、可迁移的下游推荐模型。
为便于更好的实施本申请实施例提供的物品推荐的方法,本申请实施例还提供一种上述物品推荐的方法中用到的模型训练方法。其中名词的含义与上述物品推荐的方法中相同,具体实现细节可以参考方法实施例中的说明。
该模型训练方法包括如下步骤:
(1)获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
(2)将所述多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
(3)将所述多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
(4)根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
通过上述模型训练方法训练得到训练后的物品推荐模型,提升了物品推荐模型的物品推荐效果。
以上对本申请实施例中一种物品推荐的方法进行说明,以下对执行上述物品推荐的方法的物品推荐的装置分别进行介绍。
参阅图5,如图5所示的一种物品推荐的装置的结构示意图,在本申请实施例中的物品推荐的装置能够实现对应于上述图2中所对应的实施例中所执行的物品推荐的方法的步骤。物品推荐的装置实现的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。所述物品推荐的装置500可包括获取模块501、预测模块502和推荐模块503:
获取模块501,用于获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
预测模块502,用于将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
推荐模块503,用于向所述目标对象推荐所述待推荐物品。
在本申请一些实施例中,所述装置还包括训练模块,所述训练模块用于:
在所述将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品之前,获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
将所述多个物品交互训练序列分别输入到所述多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
将所述多个物品交互训练序列分别输入到所述目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
在本申请一些实施例中,所述训练模块具体用于:
根据所述多个预测结果集进行集成计算,得到每个物品交互训练序列的集成预测结果;
采用预设损失函数对所述集成预测结果和所述第二预测结果进行收敛,得到训练后的物品推荐模型。
在本申请一些实施例中,所述训练模块具体用于:
分别以每个物品交互训练序列为目标物品交互训练序列,根据所述多个预测结果集,计算所述目标物品交互训练序列中各物品的集成预测结果;
在所述目标物品交互训练序列中各物品的集成预测结果中,选择最佳的集成预测结果,得到所述目标物品交互训练序列的集成预测结果。
在本申请一些实施例中,所述训练模块具体用于:
获取所述多个推荐大模型的权重;
分别以所述目标物品交互训练序列中一个物品为目标物品,获取所述多个预测结果集中所述目标物品对应的多个第一预测结果,每个第一预测结果对应一个推荐大模型;
根据所述目标物品对应的多个第一预测结果和所述多个推荐大模型的权重,计算所述目标物品的集成预测结果;
在完成计算目标物品交互训练序列中各物品集成预测结果之后,得到所述目标物品交互训练序列中各物品的集成预测结果。
在本申请一些实施例中,所述训练模块具体用于:
根据每个推荐大模型的权重和每个推荐大模型对应的第一预测结果,计算每个推荐大模型的有效预测结果;
根据所述多个推荐大模型的有效预测结果,计算所述目标物品的集成预测结果。
在本申请一些实施例中,所述训练模块具体用于:
获取每个物品交互训练序列的真实结果;
根据所述真实结果和所述第二预测结果,计算模型损失值;
根据所述集成预测结果和所述第二预测结果,计算蒸馏损失值;
根据所述模型损失值和所述蒸馏损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
在本申请一些实施例中,所述训练模块具体用于:
根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值;
根据所述模型总损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
在本申请一些实施例中,所述训练模块具体用于:
根据所述第一权重和所述模型损失值,计算有效模型损失值;
根据所述第二权重和所述蒸馏损失值,计算有效蒸馏损失值;
根据所述有效模型损失值和所述有效蒸馏损失值,计算模型总损失值。
在本申请一些实施例中,所述获取模块501具体用于:
获取所述目标对象在所述目标时间段内在目标平台的物品交互记录;
基于所述物品交互记录生成物品交互序列。
本申请实施例中通过获取模块501获取目标对象的物品交互序列,物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;预测模块502将物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,推荐模块503向目标对象推荐所述待推荐物品。由于本申请实施例物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,多个推荐大模型为多个不同领域的预训练模型,因此,本申请实施例物品推荐模型,可以将多个推荐大模型储存的知识迁移到物品推荐小模型上进行物品推荐,提高物品推荐效率,同时能以更少的时间和储存成本进行物品推荐服务。
参阅图6,如图6所示的一种模型训练装置的结构示意图,在本申请实施例中的模型训练装置能够实现对应于上述图2中所对应的实施例中所执行的模型训练方法的步骤。模型训练装置实现的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。所述模型训练装置600可包括获取模块601、第一预测模块602、第二预测模块603和确定模块604:
获取模块601,用于获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
第一预测模块602,用于将所述多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
第二预测模块603,用于将所述多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
确定模块604,用于根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
通过上述模型训练装置训练得到训练后的物品推荐模型,提升了物品推荐模型的物品推荐效果。
上面从模块化功能实体的角度对本申请实施例中的物品推荐的装置500或模型训练装置600进行了描述,下面从硬件处理的角度分别对本申请实施例中的物品推荐的装置进行描述。
需要说明的是,物品推荐的装置500或模型训练装置600均可以是设置在本申请实施例中计算机设备中,计算机设备可以是终端设备或服务器。
当计算机设备为计算机设备时,本申请实施例还提供了一种终端设备,如图7所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端设备可以为包括手机、平板电脑、个人数字助理(PersonalDigital Assistant,PDA)、销售终端设备(Point of Sales,POS)、车载电脑等任意终端设备,以终端设备为手机为例:
图7示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图7,手机包括:射频(Radio Frequency,RF)电路1010、存储器1020、输入单元1030、显示单元1040、传感器1050、音频电路1060、无线保真(wireless fidelity,WiFi)模块1070、处理器1080、以及电源1090等部件。本领域技术人员可以理解,图7中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图7对手机的各个构成部件进行具体的介绍:
RF电路1010可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1080处理;另外,将设计上行的数据发送给基站。通常,RF电路1010包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(LowNoiseAmplifier,LNA)、双工器等。此外,RF电路1010还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General PacketRadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1030可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1030可包括触控面板1031以及其他输入设备1032。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上或在触控面板1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1040可包括显示面板1041,可选的,可以采用液晶显示器(LiquidCrystalDisplay,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1041。进一步的,触控面板1031可覆盖显示面板1041,当触控面板1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041上提供相应的视觉输出。虽然在图7中,触控面板1031与显示面板1041是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1031与显示面板1041集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1041和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1060、扬声器1061,传声器1062可提供用户与手机之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一手机,或者将音频数据输出至存储器1020以便进一步处理。
Wi-Fi属于短距离无线传输技术,手机通过Wi-Fi模块1070可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图7示出了Wi-Fi模块1070,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1080是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行手机的各种功能和处理数据,从而对手机进行整体观察。可选的,处理器1080可包括一个或多个处理单元;可选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
手机还包括给各个部件供电的电源1090(比如电池),可选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本申请实施例中,该手机所包括的处理器1080还具有控制执行以上由物品推荐的装置执行的物品推荐的方法流程,或者由模型训练装置执行的模型训练方法流程。
本申请实施例还提供了一种服务器,请参阅图8,图8是本申请实施例提供的一种服务器结构示意图,该服务器1100可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(英文全称:central processing units,英文简称:CPU)1122(例如,一个或一个以上处理器)和存储器1132,一个或一个以上存储应用程序1142或数据1144的存储介质1130(例如一个或一个以上海量存储设备)。其中,存储器1132和存储介质1130可以是短暂存储或持久存储。存储在存储介质1130的程序可以包括一个或一个以上模块(图中未示出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1122可以设置为与存储介质1130通信,在服务器1100上执行存储介质1130中的一系列指令操作。
服务器1100还可以包括一个或一个以上电源1126,一个或一个以上有线或无线网络接口1150,一个或一个以上输入输出接口1158,和/或,一个或一个以上操作系统1141,例如Windows Server,Mac OS X,Unix,Linux,FreeBSD等等。
上述实施例中由服务器所执行的步骤可以基于该图8所示的服务器1100的结构。例如,例如上述实施例中由图8所示的模型训练装置600或物品推荐的装置500所执行的步骤可以基于该图8所示的服务器结构。例如,所述中央处理器1122通过调用存储器1132中的指令,执行以下操作:
获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
向所述目标对象推荐所述待推荐物品。
或者,所述中央处理器1122通过调用存储器1132中的指令,执行以下操作:
获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
将所述多个物品交互训练序列分别输入到多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
将所述多个物品交互训练序列分别输入到目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请实施例所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请实施例各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
以上对本申请实施例所提供的技术方案进行了详细介绍,本申请实施例中应用了具体个例对本申请实施例的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请实施例的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请实施例的限制。

Claims (13)

1.一种物品推荐的方法,其特征在于,所述方法包括:
获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
向所述目标对象推荐所述待推荐物品。
2.根据权利要求1所述的方法,其特征在于,在所述将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品之前,所述方法还包括:
获取对象的物品交互训练集,所述物品交互训练集中包括多个物品交互训练序列;
将所述多个物品交互训练序列分别输入到所述多个推荐大模型进行预测,得到每个物品交互训练序列的多个预测结果集,其中,每个推荐大模型对应每个物品交互训练序列的一个预测结果集,每个预测结果集包括当前物品交互序列中各物品的第一预测结果;
将所述多个物品交互训练序列分别输入到所述目标推荐模型进行预测,得到每个物品交互训练序列的第二预测结果;
根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述多个预测结果集和所述第二预测结果,确定训练后的物品推荐模型,包括:
根据所述多个预测结果集进行集成计算,得到每个物品交互训练序列的集成预测结果;
采用预设损失函数对所述集成预测结果和所述第二预测结果进行收敛,得到训练后的物品推荐模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述多个预测结果集进行集成计算,得到每个物品交互训练序列的集成预测结果,包括:
分别以每个物品交互训练序列为目标物品交互训练序列,根据所述多个预测结果集,计算所述目标物品交互训练序列中各物品的集成预测结果;
在所述目标物品交互训练序列中各物品的集成预测结果中,选择最佳的集成预测结果,得到所述目标物品交互训练序列的集成预测结果。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多个预测结果集,计算所述目标物品交互训练序列中各物品的集成预测结果,包括:
获取所述多个推荐大模型的权重;
分别以所述目标物品交互训练序列中一个物品为目标物品,获取所述多个预测结果集中所述目标物品对应的多个第一预测结果,每个第一预测结果对应一个推荐大模型;
根据所述目标物品对应的多个第一预测结果和所述多个推荐大模型的权重,计算所述目标物品的集成预测结果;
在完成计算目标物品交互训练序列中各物品集成预测结果之后,得到所述目标物品交互训练序列中各物品的集成预测结果。
6.根据权利要求5所述的方法,其特征在于,所述根据所述目标物品对应的多个第一预测结果和所述多个推荐大模型的权重,计算所述目标物品的集成预测结果,包括:
根据每个推荐大模型的权重和每个推荐大模型对应的第一预测结果,计算每个推荐大模型的有效预测结果;
根据所述多个推荐大模型的有效预测结果,计算所述目标物品的集成预测结果。
7.根据权利要求3所述的方法,其特征在于,所述采用预设损失函数对所述集成预测结果和所述第二预测结果进行收敛,得到训练后的物品推荐模型,包括:
获取每个物品交互训练序列的真实结果;
根据所述真实结果和所述第二预测结果,计算模型损失值;
根据所述集成预测结果和所述第二预测结果,计算蒸馏损失值;
根据所述模型损失值和所述蒸馏损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
8.根据权利要求7所述的方法,其特征在于,所述根据所述模型损失值和所述蒸馏损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型,包括:
根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值;
根据所述模型总损失值,对所述目标推荐模型进行优化,直至所述模型总损失值达到预设要求,得到训练后的物品推荐模型。
9.根据权利要求8所述的方法,其特征在于,所述根据预先设定的模型损失值的第一权重,预先设定的所述蒸馏损失值的第二权重,所述模型损失值和所述蒸馏损失值,计算模型总损失值,包括:
根据所述第一权重和所述模型损失值,计算有效模型损失值;
根据所述第二权重和所述蒸馏损失值,计算有效蒸馏损失值;
根据所述有效模型损失值和所述有效蒸馏损失值,计算模型总损失值。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述获取目标对象的物品交互序列,包括:
获取所述目标对象在所述目标时间段内在目标平台的物品交互记录;
基于所述物品交互记录生成物品交互序列。
11.一种物品推荐的装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象的物品交互序列,所述物品交互序列为目标对象在目标时间段内在目标平台交互的物品序列;
预测模块,用于将所述物品交互序列输入训练后的物品推荐模型中,以预测待推荐物品,其中,所述物品推荐模型为通过多个推荐大模型训练目标推荐模型后得到的模型,所述多个推荐大模型为多个不同领域的预训练模型;
推荐模块,用于向所述目标对象推荐所述待推荐物品。
12.一种计算机设备,其特征在于,其包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如权利要求1至10中任一项所述的方法中的步骤。
13.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行权利要求1至10任一项所述的方法中的步骤。
CN202311324897.9A 2023-10-12 2023-10-12 物品推荐的方法、装置、设备及存储介质 Pending CN117370657A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311324897.9A CN117370657A (zh) 2023-10-12 2023-10-12 物品推荐的方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311324897.9A CN117370657A (zh) 2023-10-12 2023-10-12 物品推荐的方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117370657A true CN117370657A (zh) 2024-01-09

Family

ID=89405311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311324897.9A Pending CN117370657A (zh) 2023-10-12 2023-10-12 物品推荐的方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117370657A (zh)

Similar Documents

Publication Publication Date Title
KR20190130636A (ko) 기계번역 방법, 장치, 컴퓨터 기기 및 기억매체
CN113821720A (zh) 一种行为预测方法、装置及相关产品
CN113821589B (zh) 一种文本标签的确定方法及装置、计算机设备和存储介质
CN113723378B (zh) 一种模型训练的方法、装置、计算机设备和存储介质
CN112685578B (zh) 一种多媒体信息内容提供方法及装置
CN114357278B (zh) 一种话题推荐方法、装置及设备
CN112749252A (zh) 一种基于人工智能的文本匹配方法和相关装置
CN117540205A (zh) 模型训练方法、相关装置及存储介质
CN113269279B (zh) 一种多媒体内容分类方法和相关装置
CN116933149A (zh) 一种对象意图预测方法、装置、电子设备和存储介质
CN110019648B (zh) 一种训练数据的方法、装置及存储介质
WO2021147421A1 (zh) 用于人机交互的自动问答方法、装置和智能设备
CN113704008A (zh) 一种异常检测方法、问题诊断方法和相关产品
CN112328783A (zh) 一种摘要确定方法和相关装置
CN116758362A (zh) 图像处理方法、装置、计算机设备及存储介质
CN117370657A (zh) 物品推荐的方法、装置、设备及存储介质
CN116453005A (zh) 一种视频封面的提取方法以及相关装置
CN116205686A (zh) 一种多媒体资源推荐的方法、装置、设备和存储介质
CN113569043A (zh) 一种文本类别确定方法和相关装置
CN115080840A (zh) 一种内容推送方法、装置及存储介质
CN112966182A (zh) 一种项目推荐方法及相关设备
CN111709789A (zh) 一种用户转化率的确定方法及相关设备
CN113822435A (zh) 一种用户转化率的预测方法及相关设备
CN117574983B (zh) 一种算子处理模型的训练方法和相关装置
CN113220848B (zh) 用于人机交互的自动问答方法、装置和智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication