CN114139052B - 用于智能推荐的排序模型训练方法、智能推荐方法及装置 - Google Patents

用于智能推荐的排序模型训练方法、智能推荐方法及装置 Download PDF

Info

Publication number
CN114139052B
CN114139052B CN202111402589.4A CN202111402589A CN114139052B CN 114139052 B CN114139052 B CN 114139052B CN 202111402589 A CN202111402589 A CN 202111402589A CN 114139052 B CN114139052 B CN 114139052B
Authority
CN
China
Prior art keywords
implicit
user
resource
data
splicing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111402589.4A
Other languages
English (en)
Other versions
CN114139052A (zh
Inventor
吴学超
曹前
何晓辉
白云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111402589.4A priority Critical patent/CN114139052B/zh
Publication of CN114139052A publication Critical patent/CN114139052A/zh
Priority to US18/020,910 priority patent/US20240303465A1/en
Priority to JP2023509864A priority patent/JP7499946B2/ja
Priority to PCT/CN2022/096599 priority patent/WO2023087667A1/zh
Application granted granted Critical
Publication of CN114139052B publication Critical patent/CN114139052B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种用于智能推荐的排序模型训练方法、智能推荐方法及装置,涉及数据处理、机器学习技术领域。方法包括:获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;基于隐式特征,训练排序模型,排序模型用于对目标域的用户进行资源推荐。本公开技术方案中,通过隐式特征的形式引入源域数据,可以避免直接将源域数据作为训练样本产生的“负迁移”现象,可以提升排序模型应用到资源推荐中的推荐效果。

Description

用于智能推荐的排序模型训练方法、智能推荐方法及装置
技术领域
本公开涉及计算机技术领域,尤其涉及数据处理、机器学习技术领域。
背景技术
跨域推荐(cross-domain recommendation)指的是推荐系统利用来自更丰富域的相对丰富的信息,提高在更稀疏域中的推荐性能。现有技术中,通过将源域的样本加入到目标域的训练中,来解决目标域样本稀疏的问题。然而,由于源域和目标域的样本分布不一致,会导致“负迁移”现象,进而影响模型在推荐过程中的推荐效果。
发明内容
本公开提供了一种用于智能推荐的排序模型训练方法、智能推荐方法及装置。
根据本公开的一方面,提供了一种排序模型训练方法,包括:
获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
在目标域和源域有重叠的情况下,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
基于隐式特征,训练排序模型,排序模型用于对目标域的用户进行资源推荐。
根据本公开的另一方面,提供了一种智能推荐方法,包括:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于用户数据和资源数据,得到隐式特征;
将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源;
其中,排序模型是根据本公开任一实施例的训练方法训练得到的。
根据本公开的另一方面,提供了一种排序模型训练装置,包括:
数据获取模块,用于获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
特征确定模块,用于根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
第一训练模块,用于基于隐式特征,训练排序模型,排序模型用于对目标域的用户进行资源推荐。
根据本公开的另一方面,提供了一种智能推荐装置,包括:
第一获取模块,用于获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
第二获取模块,用于基于用户数据和资源数据,得到隐式特征;
资源确定模块,用于将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源;
其中,排序模型是根据本公开任一实施例的训练装置训练得到的。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
本公开提供了一种用于智能推荐的排序模型训练方法、智能推荐方法、及装置,将源域的数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,可以提升排序模型应用到资源推荐中的推荐效果。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开一实施例中排序模型训练方法的流程图;
图2为本公开一实施例中排序模型训练方法的流程图;
图3为本公开一实施例中智能推荐方法的流程图;
图4为本公开一实施例中排序模型训练装置的示意图;
图5为本公开一实施例中特征确定模块的示意图;
图6为本公开一实施例中智能推荐装置的示意图;
图7是用来实现本公开实施例的排序模型训练方法或智能推荐方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例提供了一种用于智能推荐的排序模型训练方法,图1是本公开一实施例的排序模型训练方法的流程图,该方法可以应用于排序模型训练装置,例如,该装置在部署于终端或服务器或其它处理设备执行的情况下,可以执行排序模型训练等。其中,终端可以为用户设备(UE,User Equipment)、移动设备、蜂窝电话、无绳电话、个人数字处理(PDA,Personal Digital Assistant)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图1所示,包括:
步骤S101,获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
其中,目标域、源域可以是任一业务场景或业务产品,源域、目标域的数量可以是一个也可以是多个,本公开对此不做限定。与源域相比,目标域是训练完成的排序模型要应用到其中的域。
终端或服务器可以分别从预先建立的目标域数据库和源域数据库中获取目标域的数据和源域的数据,第一用户数据、第二用户数据可以包括但不限于用户的基础数据(例如,用户标识、年龄、性别等),用户行为序列数据(用户的使用行为记录,例如,在一段时间内用户连续浏览某一类别的文章)、用户的请求数据(发送请求的IP地址、发送请求的终端信息等)。第一资源数据、第二资源数据包括但不限于资源标识、资源类别(例如,文章的标题、类别等)以及与业务场景相关的数据(例如,教育类、生活类业务场景等)。
步骤S102,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
其中,根据目标域的用户数据、资源数据,源域的用户数据、资源数据,共同确定隐式特征,隐式特征可以是没有明确物理意义的特征向量。
步骤S103,基于隐式特征,训练排序模型。
根据目标域的数据和源域的数据得到的隐式特征,构造排序模型的训练样本集,训练排序模型,其中,排序模型可以用于对目标域的用户进行资源推荐。
本公开实施例提供的排序模型训练方法,将源域的数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,可以提升排序模型应用到资源推荐中的推荐效果。
在一种可能的实现方式中,排序模型训练方法还包括:
根据第一用户数据和第一资源数据,确定显式特征;
基于显式特征和隐式特征,训练排序模型。
在实际应用中,可以通过数据统计等方式,对目标域中的第一用户数据和第一资源数据提取用户特征和资源特征,作为目标域的显式特征,显式特征可以是有明确物理意义的特征,例如,用数字表示用户的年龄等。利用根据目标域的数据得到的显式特征,以及根据目标域的数据和源域的数据得到的隐式特征,构造排序模型的训练样本集,训练排序模型,其中,排序模型可以用于对目标域的用户进行资源推荐。
本公开实施例中,基于显式特征和隐式特征训练排序模型,丰富了训练样本的特征信息,可以提升排序模型应用到资源推荐中的推荐效果。
本公开技术方案中,在目标域的数量为多个时,如何确定显式特征,具体见如下实施例:
在一种可能的实现方式中,根据第一用户数据和第一资源数据,确定显式特征,包括:
在目标域的数量为多个的情况下,采用相同的特征编码方式从每一目标域的第一用户数据中获取第一显式用户特征,采用相同的特征编码方式从每一目标域的第一资源数据中获取第一显式资源特征;各目标域的第一显式用户特征的的格式相同;各目标域的第一显式资源特征的格式相同;
对于每一目标域,将第一显式用户特征和第一显式资源特征按照第一拼接方式进行拼接,得到显式特征。
在实际应用中,如果目标域为多个,即训练好的排序模型是为了给多个目标域共同使用的,对于每个目标域配置相同的特征抽取逻辑,并对抽取到的特征采用相同的编码方式,得到统一的特征格式,从而使不同目标域的特征映射到相似的特征空间,使得各目标域的数据分布接近。例如,抽取第一个目标域的用户A的年龄特征为26,抽取第二个目标域的用户B的年龄特征为30,抽取这两个用户特征的逻辑相同,再将这两个用户特征采用相同的编码方式进行编码,得到相同格式的特征。采用相同的特征编码方式从每一目标域的用户数据中获取显式用户特征,以及采用相同的特征编码方式从每一目标域的资源数据中获取显式资源特征,对于每一目标域,将显式用户特征和显式资源特征按照第一拼接方式拼接得到最终的显式特征。
其中,第一拼接方式可以是将显式用户特征和显式资源特征进行横向拼接,例如,显式用户特征为128维向量,显式资源特征为100维向量,将显式用户特征向量和显式资源特征向量横向拼接得到128+100=228维的显式特征向量。
本公开实施例中,采用多个目标域的数据,可以增加样本数量,解决单一目标域的训练样本的数据稀疏问题;采用相同的特征编码方式获取每一目标域的显式用户特征、显式资源特征,可以使提取的显式特征映射到相似的特征空间,具有接近的数据分布,减轻不同域的数据联合训练造成的负迁移现象。
在一种可能的实现方式中,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据第一用户数据和第二用户数据确定目标域和源域有重叠用户的情况下,采用协同过滤方式对第一用户数据提取第一隐式用户特征;
采用协同过滤方式对重叠用户的第二用户数据提取第二隐式用户特征;
将第一隐式用户特征和第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征;
基于拼接用户特征,确定隐式特征。
其中,目标域和源域有重叠可以包括目标域和源域的用户、资源中至少一项有重叠,根据第一用户数据和第二用户数据确定目标域和源域是否有重叠用户,重叠用户可以包括既是源域的用户,又是目标域的用户,在两个域各自对应的产品中均有使用记录,例如,用户A既是用搜索类应用程序B1,又使用社交类应用程序B2,则用户A即为应用程序B1和应用程序B2的重叠用户。
如果源域和目标域有重叠用户,则采用协同过滤方式对第一用户数据提取第一隐式用户特征,可以是隐式UCF(User Collaborative Filtering)特征。采取同样的隐式特征提取方式对重叠用户的第二用户数据提取第二隐式用户特征,其中,重叠用户的第二用户数据可以是重叠用户在源域中的用户数据。将第一隐式用户特征和第二隐式用户特征按照第二拼接方式进行拼接,其中,第二拼接方式可以是第一隐式用户特征的特征向量和第二隐式用户特征的特征向量,两个特征向量中的对应位置的元素相加,例如,第一隐式用户特征为128维向量,第二隐式用户特征也为128维向量,则将第一隐式用户特征和第二隐式用户特征按照第二拼接方式拼接得到的拼接用户特征也是128维向量。
其中,可以将拼接用户特征作为隐式特征,或者将拼接用户特征作为隐式特征的一个部分,可选的,基于拼接用户特征,确定隐式特征,包括:
采用协同过滤方式对第一资源数据提取第一隐式资源特征;
采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一资源数据和重叠用户的第二用户数据,采用图神经网络提取第二联合隐式特征;
将第一联合隐式特征、第二联合隐式特征按照第二拼接方式进行拼接,得到第一拼接联合隐式特征;
将第一隐式资源特征、第一拼接联合隐式特征和拼接用户特征按照第一拼接方式进行拼接,得到隐式特征。
本公开实施例中,在源域和目标域有重叠用户的情况下,将源域的用户数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,丰富了训练样本的特征信息,可以提升排序模型应用到资源推荐中的推荐效果。而且,采用协同过滤的方式提取隐式特征,方法简单,与通过深度学习模型提取隐式特征相比,计算的复杂度更低。
在一种可能的实现方式中,将第一隐式用户特征和第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征,包括:
基于重叠用户的第二用户数据的数量和第一用户数据的数量,确定第二隐式用户特征对应的第一权重;
基于第一隐式用户特征、第二隐式用户特征和第一权重,得到拼接用户特征。
在实际应用中,在将第一隐式用户特征和第二隐式用户特征进行拼接时,可以根据源域和目标域的数据规模,确定引入的源域数据的隐式用户特征的权重,将第一隐式用户特征、第二隐式用户特征进行加权计算,得到拼接用户特征。
其中,第一用户数据的数量可以是从目标域中获取到的用户数据的样本数量,例如,从目标域中获取100个用户对应的用户数据,该100个用户对应200个用户数据,则第一用户数据的数量为200。
重叠用户的第二用户数据的数量可以是重叠用户在源域中的样本数量,即引入源域的样本规模。例如,源域和目标域有100个重叠用户,若该100个重叠用户在源域中对应100个用户数据,则重叠用户的第二用户数据的数量为100;若该100个重叠用户在源域中对应300个用户数据,则重叠用户的第二用户数据的数量为300。
本公开实施例中,通过源域数据和目标域数据的样本规模,确定引入源域数据对应的隐式特征的权重,通过加权计算的方式引入源域的隐式向量,丰富了训练样本的特征信息。
在一种可能的实现方式中,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据第一资源数据和第二资源数据确定目标域和源域有重叠资源的情况下,采用协同过滤方式对第一资源数据提取第一隐式资源特征;
采用协同过滤方式对重叠资源的第二资源数据提取第二隐式资源特征;
将第一隐式资源特征和第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征;
基于拼接资源特征,确定隐式特征。
在实际应用中,根据第一资源数据和第二资源数据确定目标域和源域是否有重叠资源,重叠资源可以包括既是源域的资源,又是目标域的资源。例如,文章C既是搜索类应用程序B1中的资源,又是社交类应用程序B2中的资源,则文章C即为应用程序B1和应用程序B2的重叠资源。
如果源域和目标域有重叠资源,则采用协同过滤方式对第一资源数据提取第一隐式资源特征,可以是隐式ICF(Item Collaborative Filtering)特征。采取同样的隐式特征提取方式对重叠资源的第二资源数据提取第二隐式资源特征,其中,重叠资源的第二资源数据可以是重叠资源在源域中的资源数据。将第一隐式资源特征和第二隐式资源特征按照第二拼接方式进行拼接,其中,第二拼接方式可以是第一隐式资源特征的特征向量和第二隐式资源特征的特征向量,两个特征向量中的对应位置的元素相加,例如,第一隐式资源特征为128维向量,第二隐式资源特征也为128维向量,则将第一隐式资源特征和第二隐式资源特征按照第二拼接方式拼接得到的拼接资源特征也是128维向量。
其中,可以将拼接资源特征作为隐式特征,或者将拼接资源特征作为隐式特征的一个部分,可选的,基于拼接资源特征,确定隐式特征,包括:
采用协同过滤方式对第一用户数据提取第一隐式用户特征;
采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一用户数据和重叠资源的第二资源数据,采用图神经网络提取第三联合隐式特征;
将第一联合隐式特征、第三联合隐式特征按照第二拼接方式进行拼接,得到第二拼接联合隐式特征;
将第一隐式用户特征、第二拼接联合隐式特征和拼接资源特征按照第一拼接方式进行拼接,得到隐式特征。
本公开实施例中,在源域和目标域有重叠资源的情况下,将源域的资源数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,丰富了训练样本的特征信息,可以提升排序模型应用到资源推荐中的推荐效果。而且,采用协同过滤的方式提取隐式特征,方法简单,与通过深度学习模型提取隐式特征相比,计算的复杂度更低。
在一种可能的实现方式中,将第一隐式资源特征和第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征,包括:
基于重叠资源的第二资源数据的数量和第一资源数据的数量,确定第二隐式资源特征对应的第二权重;
基于第一隐式资源特征、第二隐式资源特征和第二权重,得到拼接资源特征。
在实际应用中,在将第一隐式资源特征和第二隐式资源特征进行拼接时,可以根据源域和目标域的数据规模,确定引入的源域数据的隐式资源特征的权重,将第一隐式资源特征、第二隐式资源特征进行加权计算,得到拼接资源特征。
其中,第一资源数据的数量可以是从目标域中获取到的资源数据的样本数量,例如,从目标域中获取100个资源对应的资源数据,该100个资源对应200个资源数据,则第一资源数据的数量为200。
重叠资源的第二资源数据的数量可以是重叠资源在源域中的样本数量,即引入源域的样本规模。例如,源域和目标域有100个重叠资源,若该100个重叠资源在源域中对应100个资源数据,则重叠资源的第二资源数据的数量为100;若该100个重叠资源在源域中对应300个资源数据,则重叠资源的第二资源数据的数量为300。
本公开实施例中,通过源域数据和目标域数据的样本规模,确定引入源域数据对应的隐式特征的权重,通过加权计算的方式引入源域的隐式向量,丰富了训练样本的特征信息。
在一种可能的实现方式中,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据第一用户数据和第二用户数据确定目标域和源域有重叠用户的情况下,采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一资源数据和重叠用户的第二用户数据,采用图神经网络提取第二联合隐式特征;
基于第一联合隐式特征和第二联合隐式特征,确定隐式特征。
在实际应用中,在目标域和源域有重叠用户的情况下,可以采用图神经网络(Graph Neural Network,GNN)对第一用户数据和第一资源数据提取第一联合隐式特征,可以是隐式GCF(Graph Collaborative Filtering)特征。采取同样的隐式特征提取方式对第一资源数据和重叠用户的第二用户数据提取第二联合隐式资源特征,将第一联合隐式特征和第二联合隐式特征按照第二拼接方式进行拼接,得到拼接联合隐式特征,作为隐式特征;或者将拼接联合隐式特征作为隐式特征的一部分,再与隐式用户特征、拼接资源特征按照第一拼接方式进行拼接,得到隐式特征。
本公开实施例中,通过图神经网络提取隐式特征,特征提取精度高,效果好。
可选的,在目标域和源域既有重叠用户,又有重叠资源的情况下,可以利用重叠用户的第二用户数据和重叠资源的第二资源数据,通过GNN提取联合隐式特征,基于该联合隐式特征,确定最终的隐式特征。
在一种可能的实现方式中,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据第一资源数据和第二资源数据确定目标域和源域有重叠资源的情况下,采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一用户数据和重叠资源的第二资源数据,采用图神经网络提取第三联合隐式特征;
基于第一联合隐式特征和第三联合隐式特征,确定隐式特征。
在实际应用中,在目标域和源域有重叠资源的情况下,可以GNN对第一用户数据和第一资源数据提取第一联合隐式特征,可以是隐式GCF(Graph Collaborative Filtering)特征。采取同样的隐式特征提取方式对第一用户数据和重叠资源的第二资源数据提取第三联合隐式资源特征,将第一联合隐式特征和第三联合隐式特征按照第二拼接方式进行拼接,得到拼接联合隐式特征,作为隐式特征;或者将拼接联合隐式特征作为隐式特征的一部分,再与隐式资源特征、拼接用户特征按照第一拼接方式进行拼接,得到隐式特征。
本公开实施例中,通过图神经网络提取隐式特征,特征提取精度高,效果好。
在一种可能的实现方式中,还包括:
若根据第一用户数据和第二用户数据确定目标域和源域无重叠用户,且根据第一资源数据和第二资源数据确定目标域和源域无重叠资源,则根据第一用户数据和第一资源数据,确定隐式特征。
在实际应用中,在目标域和源域既无重叠用户,也无重叠资源的情况下,对第一用户数据和第一资源数据提取显式特征,再通过协同过滤的方式分别对第一用户数据和第一资源数据提取第一隐式用户特征和第一隐式资源特征,再通过GNN对第一用户数据和第一资源数据提取联合隐式特征,将第一隐式用户特征、第一隐式资源特征和联合隐式特征进行拼接,得到隐式特征。将显式特征和隐式特征进行拼接得到模型的一个训练样本。
本公开实施例中,在目标域和源域既无重叠用户,也无重叠资源的情况下,利用目标域的用户数据和资源数据确定隐式特征,基于显式特征和隐式特征构造训练样本,这样训练的排序模型再资源推荐中预估的准确度更高。
在一示例中,可以通过以下公式(1)和(2)计算隐式向量:
Figure BDA0003365300820000121
Figure BDA0003365300820000122
其中,xCF表示UCF、ICF、GCF向量,VxCF表示隐式特征,vxCF表示目标域的数据的隐式特征,vxCF′表示源域的数据的隐式特征,γi表示第i个目标域引入的源域的隐式特征的权重,在目标域为多个的情况下,Ni表示第i个目标域的样本规模,M表示源域的样本规模。
在一种可能的实现方式中,基于显式特征和隐式特征,训练排序模型,包括:
将显式特征和隐式特征按照第一拼接方式进行拼接,得到第一拼接特征,并获取第一拼接特征对应的样本标签;
基于第一拼接特征和对应的样本标签,训练排序模型。
在实际应用中,可以将显式特征和隐式特征按照第一拼接方式进行拼接得到的第一拼接特征作为一个训练样本,这样基于多个用户数据和多个资源数据,得到多个训练样本,对于每个训练样本,根据排序模型的具体应用场景,配置样本标签,例如,样本标签可以是用户是否点击、用户浏览时长、用户是否消费等。利用训练样本和样本标签组成的训练样本集训练排序模型。
本公开实施例中,根据目标域的数据确定显式特征,在源域和目标域有重叠的情况下,将源域的数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,基于显式特征和隐式特征训练排序模型,丰富了训练样本的特征信息,可以提升排序模型应用到资源推荐中的推荐效果。
在一种可能的实现方式中,方法还包括:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于用户数据和资源数据,得到隐式特征;
将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源。
在实际应用中,可以将排序模型用于资源推荐中,通过协同过滤以及GNN分别提取用户数据和资源数据各自对应的隐式用户特征和隐式资源特征,并按照第一拼接方式进行拼接,得到隐式特征;将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源。
本公开实施例中,根据排序模型的排序结果对待推荐用户进行资源推荐,排序模型是基于目标域数据和源域数据的隐式特征进行训练得到的,使用该排序模型进行资源推荐,可以提升推荐效果。
图2为本公开一实施例中排序模型训练方法的流程图。如图2所示,该方法包括:
步骤S201,获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
步骤S202,在所述目标域的数量为多个的情况下,采用相同的特征抽取方式从每一目标域的第一用户数据中获取第一显式用户特征,采用相同的特征抽取方式从每一目标域的第一资源数据中获取第一显式资源特征;
步骤S203,对于每一目标域,将所述第一显式用户特征和所述第一显式资源特征按照第一拼接方式进行拼接,得到显式特征;
步骤S204,在目标域和源域有重叠的情况下,根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
步骤S205,将显式特征和隐式特征按照第一拼接方式进行拼接,得到拼接特征,并获取拼接特征对应的样本标签;
步骤S206,基于拼接特征和对应的样本标签,训练排序模型。
本公开实施例中,采用多个目标域的数据,可以增加样本数量,解决单一目标域的训练样本的数据稀疏问题;采用相同的特征编码方式获取每一目标域的显式用户特征、显式资源特征,可以使提取的显式特征映射到相似的特征空间,具有接近的数据分布,减轻不同域的数据联合训练造成的负迁移现象。另外,在源域和目标域有重叠的情况下,将源域的数据以隐式特征的形式,引入排序模型的训练数据,避免直接将源域数据作为训练样本产生的“负迁移”现象,基于显式特征和隐式特征训练排序模型,丰富了训练样本的特征信息,可以提升排序模型应用到资源推荐中的推荐效果。
本公开实施例提供了一种资源推荐方法,图3为本公开一实施例中资源推荐方法的流程图,该方法可以应用于资源推荐装置,例如,该装置在部署于终端或服务器或其它处理设备执行的情况下,可以执行排序模型训练等。其中,终端可以为用户设备(UE,UserEquipment)、移动设备、蜂窝电话、无绳电话、个人数字处理(PDA,Personal DigitalAssistant)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图3所示,智能推荐方法可以包括:
步骤S301,获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
步骤S302,基于用户数据和资源数据,得到隐式特征;
其中,通过协同过滤以及GNN分别提取用户数据和资源数据各自对应的隐式用户特征和隐式资源特征,并按照第一拼接方式进行拼接,得到隐式特征。
步骤S303,将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源;
其中,排序模型是根据本公开任一实施例的训练方法训练得到的。排序结果可以是各待推荐用户与各待推荐资源的匹配程度对应的概率,也可以是各待推荐用户与各待推荐资源是否匹配。
本公开实施例中,根据排序模型的排序结果对待推荐用户进行资源推荐,排序模型是基于目标域数据和源域数据的隐式特征进行训练得到的,使用该排序模型进行资源推荐,可以提升推荐效果。
图4为本公开一实施例中用于智能推荐的排序模型训练装置的示意图。如图4所示,用于智能推荐的排序模型训练装置可以包括:
数据获取模块401,用于获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
特征确定模块402,用于根据第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
第一训练模块403,用于基于隐式特征,训练排序模型,排序模型用于对目标域的用户进行资源推荐。
在一种可能的实现方式中,装置还包括第二训练模块,用于:
根据第一用户数据和第一资源数据,确定显式特征;
基于显式特征和隐式特征,训练排序模型。
在一种可能的实现方式中,第二训练模块在根据第一用户数据和第一资源数据,确定显式特征时用于:
在目标域的数量为多个的情况下,采用相同的特征编码方式从每一目标域的第一用户数据中获取第一显式用户特征,采用相同的特征编码方式从每一目标域的第一资源数据中获取第一显式资源特征;各目标域的第一显式用户特征的的格式相同;各目标域的第一显式资源特征的格式相同;
对于每一目标域,将第一显式用户特征和第一显式资源特征按照第一拼接方式进行拼接,得到显式特征。
图5为本公开一实施例中特征确定模块的示意图。如图5所示,在一种可能的实现方式中,特征确定模块包括第一提取单元501、第二提取单元502、第一拼接单元503和第一确定单元504;
第一提取单元501,用于在根据第一用户数据和第二用户数据确定目标域和源域有重叠用户的情况下,采用协同过滤方式对第一用户数据提取第一隐式用户特征;
第二提取单元502,用于采用协同过滤方式对重叠用户的第二用户数据提取第二隐式用户特征;
第一拼接单元503,用于将第一隐式用户特征和第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征;
第一确定单元504,用于基于拼接用户特征,确定隐式特征。
在一种可能的实现方式中,第一拼接单元503,用于:
基于重叠用户的第二用户数据的数量和第一用户数据的数量,确定第二隐式用户特征对应的第一权重;
基于第一隐式用户特征、第二隐式用户特征和第一权重,得到拼接用户特征。
在一种可能的实现方式中,特征确定模块402包括第三提取单元、第四提取单元、第二拼接单元和第二确定单元;
第三提取单元,用于在根据第一资源数据和第二资源数据确定目标域和源域有重叠资源的情况下,采用协同过滤方式对第一资源数据提取第一隐式资源特征;
第四提取单元,用于采用协同过滤方式对重叠资源的第二资源数据提取第二隐式资源特征;
第二拼接单元,用于将第一隐式资源特征和第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征;
第二确定单元,用于基于拼接资源特征,确定隐式特征。
在一种可能的实现方式中,第二拼接单元,用于:
基于重叠资源的第二资源数据的数量和第一资源数据的数量,确定第二隐式资源特征对应的第二权重;
基于第一隐式资源特征、第二隐式资源特征和第二权重,得到拼接资源特征。
在一种可能的实现方式中,特征确定模块402,具体用于:
在根据第一用户数据和第二用户数据确定目标域和源域有重叠用户的情况下,采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一资源数据和重叠用户的第二用户数据,采用图神经网络提取第二联合隐式特征;
基于第一联合隐式特征和第二联合隐式特征,确定隐式特征。
在一种可能的实现方式中,特征确定模块402,具体用于:
在根据第一资源数据和第二资源数据确定目标域和源域有重叠资源的情况下,采用图神经网络对第一用户数据和第一资源数据提取第一联合隐式特征;
基于第一用户数据和重叠资源的第二资源数据,采用图神经网络提取第三联合隐式特征;
基于第一联合隐式特征和第三联合隐式特征,确定隐式特征。
在一种可能的实现方式中,还包括特征确定模块,用于:
若根据第一用户数据和第二用户数据确定目标域和源域无重叠用户,且根据第一资源数据和第二资源数据确定目标域和源域无重叠资源,则根据第一用户数据和第一资源数据,确定隐式特征。
在一种可能的实现方式中,第一训练模块403,具体用于:
将显式特征和隐式特征按照第一拼接方式进行拼接,得到第一拼接特征,并获取第一拼接特征对应的样本标签;
基于第一拼接特征和对应的样本标签,训练排序模型。
在一种可能的实现方式中,还包括推荐模块,用于:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于用户数据和资源数据,得到隐式特征;
将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源。
图6为本公开一实施例中智能推荐装置的示意图。如图6所示,智能推荐装置包括:
第一获取模块601,用于获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
第二获取模块602,用于基于用户数据和资源数据,得到隐式特征;
资源确定模块603,用于将隐式特征输入排序模型,根据排序模型的排序结果从资源数据中确定待推荐用户匹配的待推荐资源;
其中,排序模型是根据本公开任一实施例的训练方法训练得到的。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如用于智能推荐的排序模型训练方法、智能推荐方法。例如,在一些实施例中,用于智能推荐的排序模型训练方法、智能推荐方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的用于智能推荐的排序模型训练方法、智能推荐方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于智能推荐的排序模型训练方法、智能推荐方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (27)

1.一种排序模型训练方法,所述方法包括:
获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
根据所述第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
基于所述隐式特征,训练排序模型,所述排序模型用于对所述目标域的用户进行资源推荐;
还包括:在所述目标域和所述源域有重叠用户和重叠资源的情况下,利用重叠用户的第二用户数据和重叠资源的第二资源数据,通过图神经网络GNN提取联合隐式特征,基于所述联合隐式特征,确定所述隐式特征;
还包括:在根据所述第一用户数据和第二用户数据确定所述目标域和所述源域有重叠用户的情况下,采用协同过滤方式对第一资源数据提取第一隐式资源特征;
采用图神经网络对所述第一用户数据和所述第一资源数据提取第一联合隐式特征;
基于所述第一资源数据和所述重叠用户的第二用户数据,采用图神经网络提取第二联合隐式特征;
将所述第一联合隐式特征、所述第二联合隐式特征按照第二拼接方式进行拼接,得到第一拼接联合隐式特征;
将所述第一隐式资源特征、所述第一拼接联合隐式特征和拼接用户特征按照第一拼接方式进行拼接,得到隐式特征;
其中,所述拼接用户特征是将第一隐式用户特征和第二隐式用户特征进行拼接得到的,所述第一隐式用户特征是对第一用户数据提取得到的,所述第二隐式用户特征是对重叠用户的第二用户数据提取得到的。
2.根据权利要求1所述的方法,还包括:
根据所述第一用户数据和第一资源数据,确定显式特征;
基于所述显式特征和所述隐式特征,训练排序模型。
3.根据权利要求2所述的方法,其中,所述根据所述第一用户数据和第一资源数据,确定显式特征,包括:
在所述目标域的数量为多个的情况下,采用相同的特征编码方式从每一目标域的第一用户数据中获取第一显式用户特征,采用相同的特征编码方式从每一目标域的第一资源数据中获取第一显式资源特征;各目标域的第一显式用户特征的的格式相同;各目标域的第一显式资源特征的格式相同;
对于每一目标域,将所述第一显式用户特征和所述第一显式资源特征按照第一拼接方式进行拼接,得到显式特征。
4.根据权利要求1所述的方法,其中,所述根据所述第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据所述第一用户数据和第二用户数据确定所述目标域和源域有重叠用户的情况下,采用协同过滤方式对所述第一用户数据提取第一隐式用户特征;
采用协同过滤方式对重叠用户的第二用户数据提取第二隐式用户特征;
将所述第一隐式用户特征和所述第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征;
基于所述拼接用户特征,确定隐式特征。
5.根据权利要求4所述的方法,其中,所述将所述第一隐式用户特征和所述第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征,包括:
基于所述重叠用户的第二用户数据的数量和所述第一用户数据的数量,确定所述第二隐式用户特征对应的第一权重;
基于所述第一隐式用户特征、所述第二隐式用户特征和所述第一权重,得到拼接用户特征。
6.根据权利要求1所述的方法,其中,所述根据所述第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据所述第一资源数据和第二资源数据确定所述目标域和源域有重叠资源的情况下,采用协同过滤方式对所述第一资源数据提取第一隐式资源特征;
采用协同过滤方式对重叠资源的第二资源数据提取第二隐式资源特征;
将所述第一隐式资源特征和所述第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征;
基于所述拼接资源特征,确定隐式特征。
7.根据权利要求6所述的方法,其中,所述将所述第一隐式资源特征和所述第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征,包括:
基于所述重叠资源的第二资源数据的数量和所述第一资源数据的数量,确定所述第二隐式资源特征对应的第二权重;
基于所述第一隐式资源特征、所述第二隐式资源特征和所述第二权重,得到拼接资源特征。
8.根据权利要求1所述的方法,其中,所述根据所述第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征,包括:
在根据所述第一资源数据和第二资源数据确定所述目标域和源域有重叠资源的情况下,采用图神经网络对所述第一用户数据和第一资源数据提取第一联合隐式特征;
基于所述第一用户数据和重叠资源的第二资源数据,采用图神经网络提取第三联合隐式特征;
基于所述第一联合隐式特征和第三联合隐式特征,确定隐式特征。
9.根据权利要求1所述的方法,还包括:
若根据所述第一用户数据和第二用户数据确定所述目标域和源域无重叠用户,且根据所述第一资源数据和第二资源数据确定所述目标域和源域无重叠资源,则根据所述第一用户数据和第一资源数据,确定隐式特征。
10.根据权利要求2所述的方法,其中,所述基于所述显式特征和所述隐式特征,训练排序模型,包括:
将所述显式特征和所述隐式特征按照第一拼接方式进行拼接,得到第一拼接特征,并获取所述第一拼接特征对应的样本标签;
基于所述第一拼接特征和对应的样本标签,训练排序模型。
11.根据权利要求1所述的方法,还包括:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于所述用户数据和资源数据,得到隐式特征;
将所述隐式特征输入所述排序模型,根据所述排序模型的排序结果从所述资源数据中确定所述待推荐用户匹配的待推荐资源。
12.一种智能推荐方法,所述方法包括:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于所述用户数据和资源数据,得到隐式特征;
将所述隐式特征输入排序模型,根据所述排序模型的排序结果从所述资源数据中确定所述待推荐用户匹配的待推荐资源;
其中,所述排序模型是根据权利要求1-11 任一项所述的排序模型训练方法训练得到的。
13.一种排序模型训练装置,所述装置包括:
数据获取模块,用于获取目标域的第一用户数据和第一资源数据,以及获取源域的第二用户数据和第二资源数据;
特征确定模块,用于根据所述第一用户数据、第一资源数据、第二用户数据和第二资源数据,确定隐式特征;
第一训练模块,用于基于所述隐式特征,训练排序模型,所述排序模型用于对所述目标域的用户进行资源推荐;
所述装置还用于:在所述目标域和所述源域有重叠用户和重叠资源的情况下,利用重叠用户的第二用户数据和重叠资源的第二资源数据,通过图神经网络GNN提取联合隐式特征,基于所述联合隐式特征,确定所述隐式特征;
所述装置还用于:在根据所述第一用户数据和第二用户数据确定所述目标域和所述源域有重叠用户的情况下,采用协同过滤方式对第一资源数据提取第一隐式资源特征;
采用图神经网络对所述第一用户数据和所述第一资源数据提取第一联合隐式特征;
基于所述第一资源数据和所述重叠用户的第二用户数据,采用图神经网络提取第二联合隐式特征;
将所述第一联合隐式特征、所述第二联合隐式特征按照第二拼接方式进行拼接,得到第一拼接联合隐式特征;
将所述第一隐式资源特征、所述第一拼接联合隐式特征和拼接用户特征按照第一拼接方式进行拼接,得到隐式特征;
其中,所述拼接用户特征是将第一隐式用户特征和第二隐式用户特征进行拼接得到的,所述第一隐式用户特征是对第一用户数据提取得到的,所述第二隐式用户特征是对重叠用户的第二用户数据提取得到的。
14.根据权利要求13所述的装置,还包括第二训练模块,用于:
根据所述第一用户数据和第一资源数据,确定显式特征;
基于所述显式特征和所述隐式特征,训练排序模型。
15.根据权利要求14所述的装置,其中,所述第二训练模块在根据所述第一用户数据和第一资源数据,确定显式特征时,用于:
在所述目标域的数量为多个的情况下,采用相同的特征编码方式从每一目标域的第一用户数据中获取第一显式用户特征,采用相同的特征编码方式从每一目标域的第一资源数据中获取第一显式资源特征;各目标域的第一显式用户特征的的格式相同;各目标域的第一显式资源特征的格式相同;
对于每一目标域,将所述第一显式用户特征和所述第一显式资源特征按照第一拼接方式进行拼接,得到显式特征。
16.根据权利要求13所述的装置,其中,所述特征确定模块包括第一提取单元、第二提取单元、第一拼接单元和第一确定单元;
所述第一提取单元,用于在根据所述第一用户数据和第二用户数据确定所述目标域和源域有重叠用户的情况下,采用协同过滤方式对所述第一用户数据提取第一隐式用户特征;
所述第二提取单元,用于采用协同过滤方式对重叠用户的第二用户数据提取第二隐式用户特征;
所述第一拼接单元,用于将所述第一隐式用户特征和所述第二隐式用户特征按照第二拼接方式进行拼接,得到拼接用户特征;
所述第一确定单元,用于基于所述拼接用户特征,确定隐式特征。
17.根据权利要求16所述的装置,其中,所述第一拼接单元,用于:
基于所述重叠用户的第二用户数据的数量和所述第一用户数据的数量,确定所述第二隐式用户特征对应的第一权重;
基于所述第一隐式用户特征、所述第二隐式用户特征和所述第一权重,得到拼接用户特征。
18.根据权利要求13所述的装置,其中,所述特征确定模块包括第三提取单元、第四提取单元、第二拼接单元和第二确定单元;
所述第三提取单元,用于在根据所述第一资源数据和第二资源数据确定所述目标域和源域有重叠资源的情况下,采用协同过滤方式对所述第一资源数据提取第一隐式资源特征;
所述第四提取单元,用于采用协同过滤方式对重叠资源的第二资源数据提取第二隐式资源特征;
所述第二拼接单元,用于将所述第一隐式资源特征和所述第二隐式资源特征按照第二拼接方式进行拼接,得到拼接资源特征;
所述第二确定单元,用于基于所述拼接资源特征,确定隐式特征。
19.根据权利要求18所述的装置,其中,所述第二拼接单元,用于:
基于所述重叠资源的第二资源数据的数量和所述第一资源数据的数量,确定所述第二隐式资源特征对应的第二权重;
基于所述第一隐式资源特征、所述第二隐式资源特征和所述第二权重,得到拼接资源特征。
20.根据权利要求13所述的装置,其中,所述特征确定模块,具体用于:
在根据所述第一资源数据和第二资源数据确定所述目标域和源域有重叠资源的情况下,采用图神经网络对所述第一用户数据和第一资源数据提取第一联合隐式特征;
基于所述第一用户数据和重叠资源的第二资源数据,采用图神经网络提取第三联合隐式特征;
基于所述第一联合隐式特征和第三联合隐式特征,确定隐式特征。
21.根据权利要求13所述的装置,还包括特征确定模块,用于:
若根据所述第一用户数据和第二用户数据确定所述目标域和源域无重叠用户,且根据所述第一资源数据和第二资源数据确定所述目标域和源域无重叠资源,则根据所述第一用户数据和第一资源数据,确定隐式特征。
22.根据权利要求14所述的装置,其中,所述第一训练模块,具体用于:
将所述显式特征和所述隐式特征按照第一拼接方式进行拼接,得到第一拼接特征,并获取所述第一拼接特征对应的样本标签;
基于所述第一拼接特征和对应的样本标签,训练排序模型。
23.根据权利要求13所述的装置,还包括推荐模块,用于:
获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
基于所述用户数据和资源数据,得到隐式特征;
将所述隐式特征输入所述排序模型,根据所述排序模型的排序结果从所述资源数据中确定所述待推荐用户匹配的待推荐资源。
24.一种智能推荐装置,所述装置包括:
第一获取模块,用于获取目标域的待推荐用户的用户数据和待推荐资源的资源数据;
第二获取模块,用于基于所述用户数据和资源数据,得到隐式特征;
资源确定模块,用于将所述隐式特征输入排序模型,根据所述排序模型的排序结果从所述资源数据中确定所述待推荐用户匹配的待推荐资源;
其中,所述排序模型是根据权利要求1-11任一项所述的排序模型训练方法训练得到的。
25.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1-12中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1-12中任一项所述的方法。
CN202111402589.4A 2021-11-19 2021-11-19 用于智能推荐的排序模型训练方法、智能推荐方法及装置 Active CN114139052B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202111402589.4A CN114139052B (zh) 2021-11-19 2021-11-19 用于智能推荐的排序模型训练方法、智能推荐方法及装置
US18/020,910 US20240303465A1 (en) 2021-11-19 2022-06-01 Method for training ranking model for intelligent recommendation, and intelligent recommendation method
JP2023509864A JP7499946B2 (ja) 2021-11-19 2022-06-01 インテリジェント推奨用のソートモデルトレーニング方法及び装置、インテリジェント推奨方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
PCT/CN2022/096599 WO2023087667A1 (zh) 2021-11-19 2022-06-01 用于智能推荐的排序模型训练方法、智能推荐方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111402589.4A CN114139052B (zh) 2021-11-19 2021-11-19 用于智能推荐的排序模型训练方法、智能推荐方法及装置

Publications (2)

Publication Number Publication Date
CN114139052A CN114139052A (zh) 2022-03-04
CN114139052B true CN114139052B (zh) 2022-10-21

Family

ID=80391496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111402589.4A Active CN114139052B (zh) 2021-11-19 2021-11-19 用于智能推荐的排序模型训练方法、智能推荐方法及装置

Country Status (4)

Country Link
US (1) US20240303465A1 (zh)
JP (1) JP7499946B2 (zh)
CN (1) CN114139052B (zh)
WO (1) WO2023087667A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114139052B (zh) * 2021-11-19 2022-10-21 北京百度网讯科技有限公司 用于智能推荐的排序模型训练方法、智能推荐方法及装置
CN117874355A (zh) * 2024-02-07 2024-04-12 北京捷报金峰数据技术有限公司 跨域数据推荐方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259222A (zh) * 2020-01-22 2020-06-09 北京百度网讯科技有限公司 物品推荐方法、系统、电子设备及存储介质
CN112417298A (zh) * 2020-12-07 2021-02-26 中山大学 一种基于少量重叠用户的跨域推荐方法及系统
CN113312512A (zh) * 2021-06-10 2021-08-27 北京百度网讯科技有限公司 训练方法、推荐方法、装置、电子设备以及存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133277B (zh) * 2017-04-12 2019-09-06 浙江大学 一种基于动态主题模型和矩阵分解的旅游景点推荐方法
JP6523498B1 (ja) 2018-01-19 2019-06-05 ヤフー株式会社 学習装置、学習方法および学習プログラム
CN110348968B (zh) * 2019-07-15 2022-02-15 辽宁工程技术大学 一种基于用户及项目耦合关系分析的推荐系统及方法
CN110516165B (zh) * 2019-08-28 2022-09-06 安徽农业大学 一种基于文本ugc的混合神经网络跨领域推荐方法
US20210110306A1 (en) * 2019-10-14 2021-04-15 Visa International Service Association Meta-transfer learning via contextual invariants for cross-domain recommendation
US11227349B2 (en) 2019-11-20 2022-01-18 Visa International Service Association Methods and systems for graph-based cross-domain restaurant recommendation
CN111400456B (zh) * 2020-03-20 2023-09-26 北京百度网讯科技有限公司 资讯推荐方法及装置
CN112529350B (zh) * 2020-06-13 2022-10-18 青岛科技大学 一种针对冷启动任务的开发者推荐方法
CN112989146B (zh) * 2021-02-18 2024-04-23 百度在线网络技术(北京)有限公司 向目标用户推荐资源的方法、装置、设备、介质和程序产品
CN113222687A (zh) * 2021-04-22 2021-08-06 杭州腾纵科技有限公司 一种基于深度学习的推荐方法及装置
CN113312644B (zh) * 2021-06-15 2022-05-24 杭州金智塔科技有限公司 基于隐私保护的跨域推荐模型训练方法及训练系统
CN113254782B (zh) * 2021-06-15 2023-05-05 济南大学 问答社区专家推荐方法及系统
CN113569151B (zh) * 2021-09-18 2021-12-17 平安科技(深圳)有限公司 基于人工智能的数据推荐方法、装置、设备及介质
CN114139052B (zh) * 2021-11-19 2022-10-21 北京百度网讯科技有限公司 用于智能推荐的排序模型训练方法、智能推荐方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259222A (zh) * 2020-01-22 2020-06-09 北京百度网讯科技有限公司 物品推荐方法、系统、电子设备及存储介质
CN112417298A (zh) * 2020-12-07 2021-02-26 中山大学 一种基于少量重叠用户的跨域推荐方法及系统
CN113312512A (zh) * 2021-06-10 2021-08-27 北京百度网讯科技有限公司 训练方法、推荐方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
JP7499946B2 (ja) 2024-06-14
JP2023554210A (ja) 2023-12-27
WO2023087667A1 (zh) 2023-05-25
CN114139052A (zh) 2022-03-04
US20240303465A1 (en) 2024-09-12

Similar Documents

Publication Publication Date Title
CN108287864B (zh) 一种兴趣群组划分方法、装置、介质及计算设备
US20190147539A1 (en) Method and apparatus for outputting information
CN114139052B (zh) 用于智能推荐的排序模型训练方法、智能推荐方法及装置
CN113377958B (zh) 一种文档分类方法、装置、电子设备以及存储介质
CN113407851B (zh) 基于双塔模型的确定推荐信息的方法、装置、设备和介质
CN114494784A (zh) 深度学习模型的训练方法、图像处理方法和对象识别方法
CN112381236A (zh) 联邦迁移学习的数据处理方法、装置、设备及存储介质
CN113627536A (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN113705362A (zh) 图像检测模型的训练方法、装置、电子设备及存储介质
CN113435523B (zh) 预测内容点击率的方法、装置、电子设备以及存储介质
CN113190746B (zh) 推荐模型的评估方法、装置及电子设备
CN112528146B (zh) 内容资源推荐方法、装置、电子设备及存储介质
CN114817478A (zh) 基于文本的问答方法、装置、计算机设备及存储介质
CN111782850A (zh) 一种基于手绘图的物品搜索方法和装置
CN113205189B (zh) 训练预测模型的方法、预测方法及装置
CN112418442A (zh) 联邦迁移学习的数据处理方法、装置、设备及存储介质
CN110489563B (zh) 图结构的表示方法、装置、设备及计算机可读存储介质
CN116738057A (zh) 信息推荐方法、装置、计算机设备及存储介质
CN113742564A (zh) 目标资源的推送方法和装置
CN116468479A (zh) 确定页面质量评估维度方法、页面质量的评估方法和装置
CN116204624A (zh) 应答方法、装置、电子设备及存储介质
CN113239215B (zh) 多媒体资源的分类方法、装置、电子设备及存储介质
CN110837596B (zh) 一种智能推荐方法、装置、计算机设备及存储介质
CN113076450A (zh) 一种目标推荐列表的确定方法和装置
CN112036418A (zh) 用于提取用户特征的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant