CN113112312B - 针对用户生成模型的方法、装置和计算机可读存储介质 - Google Patents

针对用户生成模型的方法、装置和计算机可读存储介质 Download PDF

Info

Publication number
CN113112312B
CN113112312B CN202110522026.2A CN202110522026A CN113112312B CN 113112312 B CN113112312 B CN 113112312B CN 202110522026 A CN202110522026 A CN 202110522026A CN 113112312 B CN113112312 B CN 113112312B
Authority
CN
China
Prior art keywords
user
model
server
data
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110522026.2A
Other languages
English (en)
Other versions
CN113112312A (zh
Inventor
杨哲
杨一鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202110522026.2A priority Critical patent/CN113112312B/zh
Publication of CN113112312A publication Critical patent/CN113112312A/zh
Application granted granted Critical
Publication of CN113112312B publication Critical patent/CN113112312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Bioethics (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Computer Security & Cryptography (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

公开了一种用于针对用户生成模型的方法,包括:在服务器处获取多个用户的多个第一数据集;基于所述多个第一数据集,在所述服务器处利用元学习算法为所述多个用户生成共享模型;由所述服务器将所述共享模型传送至用户的客户端;在该用户的客户端处获取该用户的对应第二数据集;以及基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。本申请还涉及其它方法、装置和计算机可读存储设备。本申请的方法能够在保护隐私的情况下更准确地建立用户的私有模型。

Description

针对用户生成模型的方法、装置和计算机可读存储介质
技术领域
本说明书的一个或多个实施例涉及机器学习,尤其涉及用于针对用户生成模型的方法、装置和计算机可读存储介质。
背景技术
目前,随着大数据的使用,为了各种目的,例如对用户进行分类、聚类或者执行与用户有关的预测,通常需要对用户进行建模。
在传统方案中,通常对所有用户建立统一模型。而为了区分不同用户,现有的方法是基于特征层面的个性化,比如普遍使用的用户历史行为特征,而模型都是统一模型。也就是说,每个用户所使用的模型是一致的,不同用户通过其不同的特征(例如通过与用户相关联的数据集提取的特征)而体现其个性。然而,这种统一模型可能存在问题。
首先,为了利用尽量丰富的特征来训练统一模型,可能需要在服务器处收集许多用户的数据,甚至包括隐私数据,这可能对用户的隐私造成损害,且带来相关联的带宽和存储等成本。
其次,由于统一模型是利用来自多个用户的特征(数据集)训练的,而有些活跃用户的数据集比较大,数据样本多,使得训练好的统一模型更多地体现这些活跃用户的特征,对这些活跃用户的代表性较强;而另一些不活跃用户(或称长尾用户)或新用户的数据量则比较少,统一模型对这些用户的代表性较弱。因此,所生成的统一模型对于长尾用户和新用户的准确性可能不高。
因此,需要更准确、更能保护用户隐私的针对用户生成模型的方案。
发明内容
为了克服现有技术的缺陷,本说明书的一个或多个实施例通过为每个用户建立私有模型提供了更准确的建模方案,且对用户的隐私保护更加完善。
本说明书的一个或多个实施例通过以下技术方案来实现其上述目的。
在一个方面中,公开了一种用于针对用户生成模型的方法,包括:在服务器处获取多个用户的多个第一数据集;基于所述多个第一数据集,在所述服务器处利用元学习算法为所述多个用户生成共享模型;由所述服务器将所述共享模型传送至用户的客户端;在该用户的客户端处获取该用户的对应第二数据集;以及基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。
优选地,所述方法还包括:基于每一用户的对应第一数据集,使用所述共享模型生成该用户的云模型分;以及将该用户的云模型分传送至该用户的用户客户端,其中所述自适应训练进一步基于所述云模型分。
优选地,其中所述第一数据集不包括用户的敏感数据,所述第二数据集包括所述多个用户的敏感数据。
优选地,其中用户的对应第一数据集包括该用户的经模糊化的信息,且该用户的对应第二数据集包括该用户的未经模糊化的信息。
优选地,其中所述元学习算法包括步长超参α,其中每个用户的步长超参α至少部分基于该用户的数据量。
优选地,其中每个用户的步长超参α与该用户的数据量负相关。
优选地,其中所述元学习算法的损失函数为:
Figure BDA0003064348840000021
其中α为步长,Θ为共享模型的参数,而Θ’为每个用户的私有模型的参数,T为用户数。
优选地,其中基于每个用户的私有模型为用户生成推荐或对用户执行预测。
在另一方面中,公开了一种在客户端处执行的用于针对用户生成模型的方法,包括:接收来自服务器的共享模型,所述共享模型是基于多个第一数据集在所述服务器处利用元学习算法生成的;获取该用户的第二数据集;以及基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。
优选地,所述方法还包括:接收来自服务器的针对该用户的云模型分,该云模型分是基于该用户在服务器处的第一数据集利用所述共享模型生成的,其中所述自适应训练进一步基于所述云模型分。
在又另一方面中,公开了一种在服务器处执行的用于针对用户生成模型的方法,包括:在服务器处获取多个用户的多个第一数据集;基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型;以及将所述共享模型传送至用户的客户端,其中所述共享模型用作自适应训练以生成该用户的私有模型的基础。
在又另一方面中,公开了一种用于针对用户生成模型的方法,包括:在第一服务器处获取多个用户的多个第一数据集;基于所述多个第一数据集,在所述第一服务器处利用元学习算法为所述多个用户生成共享模型;由所述第一服务器将所述共享模型传送至第二服务器;在所述第二服务器处获取所述多个用户中的一个或多个用户的第二数据集;以及基于所述第二数据集,由所述第二服务器对共享模型进行自适应训练以生成所述一个或多个用户中的每个用户的私有模型。
优选地,所述方法还包括:基于每一用户的对应第一数据集,在所述第一服务器处使用所述共享模型生成该用户的云模型分;以及将该用户的云模型分传送至所述第二服务器,其中所述自适应训练进一步基于所述云模型分。
在又另一方面中,公开了一种用于针对用户执行操作的方法,包括:获取多个用户的多个第一数据集;利用元学习算法为所述多个用户生成共享模型;获取所述多个用户的多个第二数据集;基于所述多个第二数据集对所述共享模型进行自适应训练以获得生成每个用户的私有模型;以及获取一用户的数据,并基于所获取的该用户的数据应用该用户的私有模型对该用户执行操作。
在又另一方面中,公开了一种用于针对用户生成模型的装置,包括:存储器;以及处理器,所述处理器被配置成执行如上文任一项所述的方法。
在又另一方面中,公开了一种存储指令的计算机可读存储介质,该指令当被计算机执行时,使所述计算机执行上述方法。
与现有技术相比,本说明书的一个或多个实施例能够实现以下技术效果中的一者或多者:
能够更好地保护用户的隐私;
能够训练出适合单个用户的、更定制化的用户私有模型;
能够适合服务器侧数据量较少的情形;
能够针对长尾用户或新用户更好地适配,防止过拟合;和/或
能够更好地利用客户端侧的计算资源。
附图说明
以上发明内容以及下面的具体实施方式在结合附图阅读时会得到更好的理解。需要说明的是,附图仅作为所请求保护的发明的示例。在附图中,相同的附图标记代表相同或类似的元素。
图1示出根据本说明书实施例的用于为用户生成并应用模型的方法的总体流程图。
图2示出根据本说明书实施例的用于针对用户生成模型的第一示例方法的流程图。
图3示出根据本说明书实施例的基于MAML算法的模型训练的过程的示意图。
图4示出根据本说明书实施例的用于针对用户生成模型的第二示例方法的流程图。
图5示出根据本说明书实施例的在客户端处执行的用于针对用户生成模型的示例方法的流程图。
图6示出根据本说明书实施例的在客户端处执行的用于针对用户生成模型的示例方法的流程图。
图7示出根据本说明书实施例的用于针对用户生成模型的第三示例方法的流程图。
图8示出根据本说明书实施例的用于针对用户生成模型的第四示例方法的流程图。
图9示出根据本说明书实施例的用于针对用户执行操作的示例方法的流程图。
图10示出根据本说明书的实施例的可用作服务器或客户端的装置的框图。
具体实施方式
以下具体实施方式的内容足以使任何本领域技术人员了解本说明书的一个或多个实施例的技术内容并据以实施,且根据本说明书所揭露的说明书、权利要求及附图,本领域技术人员可轻易地理解本说明书的一个或多个实施例相关的目的及优点。
如上文所述,一方面,用于针对用户生成模型的现有方案由于云服务器需要收集关于用户的大量数据,从而可能导致隐私问题以及对带宽、存储和处理资源的浪费。而且,由于所训练的模型是利用来自多个用户的数据集训练的,不可避免地导致模型对不活跃用户的代表性较弱。
另一方面,如果在云服务器上仅收集用户的少量非隐私数据,则可能导致训练得到的模型不够准确。
因此,采用何种方式来在不侵犯用户隐私的情况下,针对用户(尤其是较不活跃或较新的用户)生成准确的模型,成为需要解决的技术问题。
为了解决上述问题,本说明书实施例首先设想了充分利用用户的客户端设备上的大量个人数据(尤其是隐私数据)来训练模型。然而,仅仅是在客户端设备上进行训练,则无法利用到个人用户与其它用户的共性;对于客户端上个人数据较少的用户(例如新用户),则更加难以生成好的模型。此外,客户端设备的运算能力有限,对于复杂模型的自始至终的训练可能比较困难。
为克服上述技术困难,根据实际的数据分布情况和训练目标,本说明书实施例进一步设想了采用“云上学习”和“端上训练”相结合方式来为用户生成模型。
此外,考虑到数据量、训练速度以及计算能力,本说明书实施例还进一步设想了对于云上学习采用元学习算法,而对于端上训练采用自适应训练算法的方式。
因此,本说明书实施例的用于针对用户生成模型的方案特别适用于本说明书的具体应用场景。
在另一种实现方式中,本说明书实施例还设想了采用“第一服务器上元学习”和“第二服务器上自适应训练”相结合的方案。在本方案中,仅能访问用户的非敏感数据的第一服务器被配置成使用元学习利用非敏感数据来训练初步模型,而能够访问用户的敏感数据的第二服务器被配置成使用自适应训练来针对用户生成个性化的模型。
下面对上述方案进行更加具体的介绍。
参考图1,其示出根据本说明书实施例的用于为用户生成并应用模型的方法100的总体流程图。
如图1所示,方法100可包括:在操作102,首先执行云上元学习以生成共享模型。元学习允许使用较少的数据生成初步的模型,作为后续进一步个性化的共享模型。在生成共享模型之后,可使用共享模型为每个用户生成云模型分。在生成云模型分之后,云模型分可被传送至用户的客户端。
方法100还可包括:在操作104,可使用云模型分和客户端上的用户数据,将该共享模型细化为该用户的私有模型。通过这种方式,用户无需将客户端上的数据(其可包括隐私数据)上传至云服务器。此外,因为该私有模型是针对该用户自己的用户数据训练的,因此相对于现有技术中使用全部数据训练的统一模型而言,私有模型更能体现该用户本身的特点,更为个性化,且更为准确。
方法100还可包括:在操作106,可使用所生成的用户的私有模型针对该用户来进行预测或推荐。
下面,参考图2,对以上各操作进行更详细的描述。图2示出根据本说明书实施例的用于针对用户生成模型的第一示例方法200的流程图。
如图2所示,方法200可包括:在操作202,可在服务器处获取多个用户的多个第一数据集。
在本说明书的实施例中,用户的数据集通常是指与用户相关联的,可用于训练模型以便表征用户的数据集。
以在线交易场景为例,数据集的示例可包括但不限于:
(1)用户基础属性:年龄、性别、地区、设备型号;
(2)用户活跃属性:支付频次、登录频次;
(3)用户支付能力:余额、花呗、银行卡、亲情卡;
(4)用户支付偏好:电商、数娱、游戏、出行;
(5)交易属性:订单金额、订单时间、商户名称;
(6)端上特征:用户行为轨迹、APP列表、页面访问历时;
(7)权益特征:权益金额、权益种类。
本领域技术人员可根据需要构想其它期望数据集。
相对应地,根据需要,该数据集还可包括作为标签的各种数据。例如,用户是否进行交易;用户是否核销权益;用户的交易金额;用户是否使用优惠券等等。这些标签可与要对该用户执行的预测和/或分类等任务相对应。
优选地,该第一数据集不包括用户的敏感数据。也就是说,该第一数据集仅包括用户的非敏感数据。用户的敏感数据是指例如涉及用户隐私的数据。用户的敏感数据还可以是指例如用户不期望被服务器收集的数据。
用户的非敏感数据的示例例如包括上文的用户基础属性数据和用户活跃属性数据等等。
用户的敏感数据的示例例如包括上文的用户支付能力、用户支付偏好、交易属性、端上特征、权益特征等等。
根据具体情形,对敏感数据和非敏感数据的定义可能有所不同。例如,用户支付能力数据在一些情况下可被认为是敏感数据,而在另一些情况下可被认为是非敏感数据。例如,对于支付平台而言,用户支付能力数据为其本身完全掌握、可被利用的非敏感数据;而对于与支付平台合作的第三方平台,用户支付能力数据为敏感数据。此外,可基于用户选择来确定数据是否为敏感数据。
在另一优选示例中,该第一数据集可包括经模糊化的数据。对数据进行模糊化是一种隐私保护的手段。通过对数据进行模糊化,使得能够访问该数据的人无法准确地确定用户的敏感信息。可采用本领域已知的各种手段来对数据进行模糊化,例如隶属度值法等等。
也就是说,优选地,该服务器仅可访问或仅需访问经模糊化的数据,从而也能够对用户的隐私实现一定程度的保护。
优选地,该服务器为云服务器。云服务器是指是具有弹性可扩展处理能力的服务器或服务器集群。该服务器可以是物理服务器或虚拟服务器。
该服务器可从该服务器可访问的存储中获取数据集,例如该服务器或服务器集群本地的存储,或者其它位置的存储,例如云存储。在云存储的示例中,云存储可针对不同的服务器设置不同的权限。例如,用于执行元学习以便训练共享模型的参数可仅具有访问敏感数据或经模糊化数据的权限。
在此实施例中,用户可以仅将其非敏感数据上传到该服务器所访问的存储,或可将数据模糊化后上传到该存储。
虽然在上文中将第一数据集限制为非敏感数据集或经模糊化数据集,但本说明书实施例不限于此。例如,在用户隐私并非主要关注点的情况下,该第一数据集也可包括敏感数据或未经模糊化的数据。在此情况下,仍然能够实现本说明书实施例的其它优点,例如减少涉及用户数据的收集和处理有关的带宽、存储和处理资源。
方法200还可包括:在操作204,可基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型。
如上文所述,由于可能的隐私保护要求,服务器侧的数据有以下特点:用户数量庞大,然而每个用户的可用数据量可能并不太大,而且存在数据量特别少的长尾用户和新用户。因此,出于用户隐私保护、数据量、训练速度以及计算能力等方面的考虑,本说明书实施例采用元学习算法来生成多个用户生成共享模型。
元学习算法是一类机器学习算法。具体而言,元学习算法使用经验来改变学习算法本身或其某些方面,从而使得经修改的学习算法能够更好地针对新任务进行学习。在本领域中,元学习也被称为“学习如何学习”(learn to learn)。
元学习算法可以大致分为以下几类:基于度量的方法、基于模型的方法、基于优化的方法。其中基于度量的方法可包括孪生卷积神经网络算法、匹配网络算法、关系网络算法等;基于模型的方法可包括MANN算法、元网络算法等;基于优化的方法可包括LSTM元学习算法、MAML算法、Reptile算法等。
在现有技术中,元学习常被用于解决不同领域或不同类别的任务,例如将不同语言的翻译作为任务进行学习。在本说明书实施例中,创造性地将每个用户作为一个任务来进行元学习。
MAML算法是指模型无关元学习(Model-Agnostic Meta-Learning)算法。该算法具有极好的灵活性,适用于各种符合梯度下降标准的模型。关于MAML算法的实现细节可以参考Chelsea Finn等人于2017年发布的“Model-Agnostic Meta-Learning(模型无关元学习)”的论文。
在下文中,我们以MAML算法作为元学习算法的示例进行介绍。但应领会,也可采用其它的元学习算法。
参考图3,其示出了根据本说明书实施例的基于MAML算法的模型训练的过程的示意图。在图3中,实线部分为元学习阶段,在此阶段通过元学习算法(在此示例中为MAML算法)训练出共享模型(得到共享模型的参数或参数向量Θ);虚线部分为自适应(或学习)阶段,在此阶段针对具体任务使用具体任务的数据来进行进一步学习,从而得到针对特定用户的参数或参数向量Θ’。
为进行行元学习,可设置两个超参α、β,这两个超参α、β都是步长超参,其中步长参数α可以是固定的超参,也可以是在元学习阶段通过元学习来改善的超参,可针对每个任务采用不同的步长参数α,该参数决定了该任务的学习率。超参β为元步长参数。
所采用的模型可被表示为f(Θ),而对于每个具体任务而言,其模型可被表示为f(Θ’)。也就是说,最后得到的Θ为共享模型的参数,而Θ’为每个任务的私有模型的参数。
对于本说明书的实施例而言,最终要为每个用户生成一个私有模型。因此,在元学习过程中,为每个用户设置一个任务。与该用户相关联的数据集为该任务的数据集。例如,在元学习阶段,将每个用户的第一数据集作为该任务的数据集。
在元学习过程中,可对模型的参数(例如如上所述的Θ和Θ’)进行初始化。例如,可对参数进行随机初始化。或者,可采用本领域已知的其它适当方式来初始化参数。
对于MAML算法,其损失函数由以下的公式(1)来定义:
Figure BDA0003064348840000071
在上式中,
Figure BDA0003064348840000072
表示任务,因此
Figure BDA0003064348840000073
表示第t个任务,而T为任务数。在将每个用户作为一个任务进行训练的过程中,T为用户数。
随后,可按照在Chelsea Finn等人于2017年发布的“Model-Agnostic Meta-Learning(模型无关元学习)”的论文中记录的方式来执行训练,在训练过程中可执行以下参数迭代过程:
Figure BDA0003064348840000081
Figure BDA0003064348840000082
Figure BDA0003064348840000083
如上文所述且可从以上迭代参数过程可以看出,步长参数α决定了任务的学习率。通过设置任务的α的大小,可决定最终的共享模型对该任务的体现度或关注度。
因此,优选地,可至少部分基于每个用户的数据量来设置该用户的步长超参α。优选地,可将每个用户的步长超参α设置为与该用户的数据量负相关。也就是说,用户的可用数据量越少(例如对于长尾用户或新用户而言),则该用户的步长超参α可被设置得越大,从而使得该模型更关注与该用户相关的任务的梯度方向,该用户的数据量对最终生成的共享模型的影响越大。相反,用户的可用数据量越多(例如对于活跃用户而言),则该用户的步长超参α可被设置得越小,则该用户的数据量对最终生成的共享模型的影响越大。通过这种方式,可以显著改善过拟合问题,使得共享模型对每个用户(尤其是长尾用户和新用户)的准确性越好,最终生成的私有模型也更准确。
在训练满足一定条件之后,可停止迭代,从而得到共享模型的模型参数Θ,这样就生成了共享模型。该条件例如可以是迭代轮数、训练时间、损失阈值等等。
方法200可包括:在操作206,在得到共享模型后,可由所述服务器将所述共享模型传送至用户的客户端。在服务器侧和客户端侧约定了所使用的模型,或者客户端侧以其它方式知晓所使用的模型的情况下,可仅将所确定的共享模型的参数传送至用户的客户端。
具体而言,用户的客户端中可安装相应的应用,例如支付应用、购物应用等。该应用可接收来自服务器的共享模型。或者,该应用中可内置了模型,此时该应用可仅接收来自服务器的模型参数(例如模型参数Θ)。根据需要,共享模型的传送可由服务器侧发起,也可由用户的客户端侧发起。
方法200可包括:在操作208,可在该用户的客户端处获取该用户的对应第二数据集。
例如,在在线交易场景中,用户的第二数据集也可采用在上文中的数据集示例中的数据。
由于该第二数据集位于用户的客户端处,而用户的客户端能够获得更多的数据。因此,优选地,该第二数据集可包括比第一数据集更多的数据。
此外,该第二数据集可包括敏感数据或者未经模糊化的数据。由于第二数据集由该用户的客户端获取并使用,因此无需担心隐私问题。
当然,第二数据集可既包括敏感数据,也包括非敏感数据。类似地,第二数据集可既包括经模糊化的数据,也包括非模糊化的数据。
虽然在以上描述和附图中将操作208示出为在操作206之后执行,但本说明书实施例不限于此。本说明书中所描述的方法或过程的步骤可采用任何适当的次序来执行。
方法200可包括:在操作210,可基于该用户的第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。
例如,操作可对应于如图3中所示的虚线部分。自适应训练有时也可被称为微调(fine-tuning)训练。
在优选示例中,可采用与操作204中的元学习算法相同或类似的算法来执行自适应训练。
在此情况下,由于操作204中的元学习算法被用于针对多个任务进行预训练,所以操作210中的算法的执行细节与操作204中有所不同,主要不同在于以下几点:
第一,由于已在操作204通过元学习生成了共享模型,从而获得了共享模型的参数Θ的值。因此,在自适应训练过程中,不是随机初始化模型的参数,而是将模型的参数(例如Θ和Θ’)初始化为通过操作204的预训练获得的共享模型的参数值。
第二,在本示例中,由于是在单个用户的客户端上针对单个用户进行训练,因此仅存在单个任务(即与该用户相关联的任务),因此自适应训练只需要针对一个任务进行学习(而不是针对多个任务构成的batch(批次))进行学习。
第三,在训练过程中,只需要更新参数私有模型的Θ’,而无需再更新共享模型的参数Θ。也就是说,无需再执行在上文中所描述的公式3中对Θ的更新。
具体过程仍可参考Chelsea Finn等人于2017年发布的“Model-Agnostic Meta-Learning(模型无关元学习)”的论文中的描述。
在其它示例中,也可采用不同于操作204中的元学习算法的算法来执行自适应训练。
通过自适应训练,可以获得针对单个用户的Θ’参数,从而生成了专用于该单个用户的私有模型。
在上文实施例中,由于无需将敏感数据或未经模糊化的数据上传到服务器,因此能够更好地保护用户的隐私。基于元学习算法的特点,使用用户客户端上的数据,能够训练出适合单个用户的、更定制化的用户私有模型。即便服务器侧的单个用户的数据量较少,通过结合多个用户的数据进行元学习或预训练,仍能得到较好的共享模型;基于元学习本身的特点并结合对相关参数(例如步长等)的调整,能够针对长尾用户或新用户进行更好的训练。同时,将自适应训练放在客户端侧执行能够更好地利用客户端侧的计算资源。
参考图4,其示出根据本说明书实施例的用于针对用户生成模型的第二示例方法400的流程图。图4的方法与图2的方法类似,但是包括利用共享模型和第一数据集生成云模型分,并在自适应训练过程中
如图4所示,方法400可包括:在操作402,可在服务器处获取多个用户的多个第一数据集。例如,该第一数据集可以为非敏感数据集或经模糊化数据聚集。操作402的具体细节可参考上文对操作202的描述。
方法400还可包括:在操作404,可基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型。操作404的具体细节可参考上文对操作204的描述。
方法400还可包括:在操作406,可基于每一用户的对应第一数据集,使用所述共享模型生成该用户的云模型分。此步骤没有包括在上文描述的方法200中。例如,用户的云模型分体现该共享模型对该用户的代表度。在优选示例中,该用户的云模型分与该共享模型对该用户的预测相关联。在另一优选示例中,该用户的云模型分与对该用户进行预测或分类的置信度相关联。可采用其它方式来基于一用户的对应第一数据集来生成用户的云模型分。
方法400还可包括:在操作408,可由所述服务器将共享模型和用户的云模型分传送至该用户的客户端。不同于方法200的操作206,在此操作中除了共享模型(或其参数)之外,还将云模型分传送至相应用户的客户端。例如,可将共享模型和云模型分传送至安装在相应用户的客户端上的应用。
方法400还可包括:在操作410,可在该用户的客户端处获取该用户的对应第二数据集。操作410的具体细节可参考上文对操作208的描述。
方法400还可包括:在操作412,可在用户的客户端处基于该用户的第二数据集以及该用户的云模型分,对共享模型进行自适应训练以生成该用户的私有模型。在优选示例中,在对共享模型进行自适应训练时,除了该用户的第二数据集中所包括的特征之外,还将该用户的云模型分作为特征,来对该鸥鸟共享模型进行自适应训练。由于用户的云模型分体现了共享模型对该用户的代表度,通过使用云模型分来进行自适应训练,能够更好或者更准确地对共享模型进行微调,从而得到更准确的私有模型。
参考图5,其示出了根据本说明书实施例的在客户端处执行的用于针对用户生成模型的示例方法500的流程图。也就是说,方法500与方法200或方法400相对应,但仅描述了在用户的客户端处的操作。
方法500可包括:在操作502,可接收来自服务器的共享模型,所述共享模型是基于多个第一数据集在所述服务器处利用元学习算法生成的。例如,该共享模型可由服务器根据上文针对方法200的操作202-206来生成。
方法500还可包括:在操作504,可获取该用户的第二数据集。操作504的具体细节可参考上文对操作208的描述。
方法500还可包括:在操作506,可基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。操作506的具体细节可参考上文对操作210的描述。
以上示例描述了与方法200相对应的客户端处的方法。类似地,与方法400相对应,在操作502或另一操作中,用户的客户端还可接收来自服务器的针对该用户的云模型分,该云模型分是基于该用户在服务器处的第一数据集利用所述共享模型生成的。此示例的具体细节可参考上文对操作406和408的描述。
相应地,在操作506中,可基于该用户的对应第二数据集和该用户的云模型分,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。此示例的具体细节可参考上文对操作412的描述。
参考图6,其示出了根据本说明书实施例的在客户端处执行的用于针对用户生成模型的示例方法600的流程图。也就是说,方法600与方法200或方法400相对应,但仅描述了在用户的服务器处的操作。
方法600可包括:在操作602,可在服务器处获取多个用户的多个第一数据集。操作504的具体细节可参考上文对操作202的描述。
方法600还可包括:在操作604,可基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型。操作604的具体细节可参考上文对操作204的描述。
方法600还可包括:在操作606,可将所述共享模型传送至用户的客户端。操作606的具体细节可参考上文对操作206的描述。所述共享模型用作自适应训练以生成该用户的私有模型的基础,如上文针对操作208-210所描述的。
以上示例描述了与方法200相对应的客户端处的方法。类似地,与方法400相对应,方法600还可包括:可基于每一用户的对应第一数据集,使用所述共享模型生成该用户的云模型分(图6中未示出)。此操作的具体细节可参考上文对操作406的描述。相应地,在操作606或另一操作中,可将该用户的云模型分连同共享模型一起传送至该用户的用户客户端。在此情况下,所述自适应训练可进一步基于所述云模型分。此示例的具体细节可参考上文对操作406、408-412的描述。
参考图7,图7示出根据本说明书实施例的用于针对用户生成模型的第三示例方法700的流程图。方法700与方法200有类似之处,两者的不同在于,在方法700中生成用户的私有模型是在第二服务器处进行,而不是在用户的客户端处进行。
如图7所示,方法700可包括:在操作702,在第一服务器处获取多个用户的多个第一数据集。操作702的具体细节可参考上文对操作202的描述,其中此处的第一服务器相当于方法200中的服务器。优选地,第一服务器仅可访问非敏感数据或者经模糊化的数据。
方法700还可包括:在操作704,可基于所述多个第一数据集,在所述第一服务器处利用元学习算法为所述多个用户生成共享模型。操作704的具体细节可参考上文对操作204的描述。
方法700还可包括:在操作706,可由所述第一服务器将所述共享模型传送至第二服务器。与方法200不同,在方法700中,第一服务器不是将共享模型传送至用户的客户端以便由用户的客户端执行自适应训练,而是将共享模型传送至第二服务器。
方法700还可包括:在操作708,可在所述第二服务器处获取所述多个用户中的一个或多个用户的第二数据集。该第二数据集可包括敏感数据或未经模糊化的数据。该第二服务器可具有比第一服务器更高的权限。例如,该第二服务器可访问敏感数据或未经模糊化的数据。通过这种方式,能够实现对用户的隐私的保护。例如,第一服务器可能是与支付平台合作的第三方的服务器,而第二服务器可能是支付平台本身的服务器。通过这种方式,第一服务器无法访问到敏感数据,从而不会造成隐私泄漏。
在一种情形中,用户的第一数据集和第二数据集被存储在相同的存储中,但第一服务器和第二服务器对该存储的访问权限不同。在第二种情形中,用户的第一数据集和用户的第二数据集可被存储在不同的存储中。
在另一示例中,第二服务器可获取敏感数据和非敏感数据两者。也就是说,该第二数据集可既包括敏感数据(和/或未经模糊化的数据),也可包括非敏感数据(和/或经模糊化的数据)。
方法700还可包括:在操作710,可基于所述第二数据集,由所述第二服务器对共享模型进行自适应训练以生成所述一个或多个用户中的每个用户的私有模型。
例如,可采用上文针对操作210描述的方式,针对每个用户单独地对共享模型进行自适应训练。
替代地,还可采用其它方式。在第一示例中,在训练针对一用户的私有模型时,可不仅基于该用户的对应的第二数据集,而且还可将其他用户的第二数据集考虑在内。通过这种方式,可以利用到多个用户之间的共性,以便帮助对该用户的私有模型的训练。在第二示例中,可将一组用户组成一个用户集,并对该用户集中的用户进行统一训练。例如,可将该用户集中的用户训练得到的模型的参数进行取平均。通过这种方式,可以缩小离群样本导致的模型训练的不准确性。此外,在第二服务器处执行自适应训练,可以节省用户的客户端处的处理资源。
由上文可以看出,方法700中在第二服务器中进行自适应训练,与方法200中在用户的客户端处进行训练,两者各有优势。
可选地,方法700还可包括:将用户的私有模型传送至该用户的客户端设备。取决于要在第二服务器处还是在用户的客户端处应用该私有模型来进行分类或预测等任务,可以选择是否将用户的私有模型传送至该用户的客户端设备。
参考图8,图8示出根据本说明书实施例的用于针对用户生成模型的第四示例方法800的流程图。方法800与方法400有类似之处,两者的不同在于,在方法800中生成用户的私有模型是在第二服务器处进行,而不是在用户的客户端处进行。
方法800可包括:在操作802,可在第一服务器处获取多个用户的多个第一数据集。例如,该第一数据集可以为非敏感数据集或经模糊化数据聚集。操作802的具体细节可参考上文对操作702的描述。
方法800还可包括:在操作804,可基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型。操作804的具体细节可参考上文对操作704的描述。
方法800还可包括:在操作806,可基于每一用户的对应第一数据集,在第一服务器处使用所述共享模型生成该用户的云模型分。操作806的具体细节可参考上文对操作406的描述。
方法800还可包括:在操作808,可由所述服务器将共享模型和用户的云模型分传送至第二服务器。不同于方法700的操作706,在此操作中除了共享模型(或其参数)之外,还将云模型分传送至第二服务器。对此操作的理解可参考操作408。
方法800还可包括:在操作810,可在该第二服务器处获取该用户的对应第二数据集。操作810的具体细节可参考上文对操作708的描述。
方法800还可包括:在操作812,可在第二服务器处基于该用户的第二数据集以及该用户的云模型分,对共享模型进行自适应训练以生成该用户的私有模型。在优选示例中,在对共享模型进行自适应训练时,除了该用户的第二数据集中所包括的特征之外,还将该用户的云模型分作为特征,来对该鸥鸟共享模型进行自适应训练。由于用户的云模型分体现了共享模型对该用户的代表度,通过使用云模型分来进行自适应训练,能够更好或者更准确地对共享模型进行微调,从而得到更准确的私有模型。此操作的其它细节可参考上文对操作412和710的描述。
可以领会,虽然对于方法400、700和800分别详细示出由服务器和用户的客户端执行的方法,但本说明书的实施例涵盖了这些方法。
参考图9,图9示出根据本说明书实施例的用于针对用户执行操作的示例方法900的流程图。在此实施例中,将上文介绍的用于针对用户生成模型的各个方法应用于具体场景。在下文中,以在线交易场景为例进行介绍。
在在线交易场景中,经常需要针对不同的用户执行不同的操作。例如,在针对用户执行营销时,将营销奖励(例如交易返现、优惠券等等)分配给哪些用户,可能对营销的效果具有较大的影响。然而,现有营销是基于统一模型的,不同用户之间的区别仅在于不同用户的特征(数据样本)不同。这种统一模型存在着上面所介绍的问题。
方法900可包括:在操作902,可获取多个用户的多个第一数据集。例如,可通过安装在用户的客户端上的在线交易应用或支付应用等来收集该第一数据集并将其上传到在线交易服务器。优选地,该第一数据集仅包括非敏感数据或经模糊化数据。
方法900还可包括:在操作904中,可根据上文描述的任何方法,基于所述多个第一数据集训练多个用户的共享模型。例如,可在服务器处(例如根据方法200、400、500或600)训练共享模型。或者,可在第一服务器处(例如根据方法700或800)训练共享模型。
方法900还可包括:在操作906中,可获取多个用户的多个第二数据集。优选地,该第二数据集可包括敏感数据或未经模糊化的数据。替代地,该第二数据集可包括敏感数据(或未经模糊化的数据)和非敏感数据(或经模糊化的数据)两者。在第一优选示例中,用户的在线交易客户端不将该第二数据集上传到云存储服务或其它任何存储,此示例可对应于例如方法200、400、500或600。在第二优选示例中,用户的在线交易客户端将该第二数据集上传到云存储服务,但该云存储服务对不同的服务器分配不同的权限,例如第一服务器仅可访问第一数据集,而第二服务器可访问第二数据集或第一数据集和第二数据集两者,此示例可对应于例如方法700或800。
方法900还可包括:在操作908中,可根据上文描述的任何方法,基于所述多个第二数据集对共享模型进行自适应训练以获得生成每个用户的私有模型。例如,可在用户的客户端处(例如根据方法200、400、500或600)训练共享模型。或者,可在第二服务器处(例如根据方法700或800)训练共享模型。
方法900还可包括:在操作910中,可获取一用户的数据,并基于所获取的该用户的数据应用该用户的私有模型对该用户执行操作。
例如,在用户执行操作(例如执行交易、浏览商品页面等操作)时,可获取用户的与该操作相关的数据。随后,可(由例如第一服务器或用户的客户端)将该数据作为该用户的私有模型的输入,使用该用户的私有模型对该用户进行预测或分类,并基于该用户的预测或分类对该用户执行操作,例如执行返现、发放优惠券等操作。
参考图10,其示出了根据本说明书的实施例的可用作上文所述的服务器或客户端的装置1000的示意框图。
该装置可包括处理器1010以及存储器1015,所述处理器被配置成执行如上所述的任何方法。该存储器可存储例如所获取的用户数据(例如如上文所述第一数据集和/或第二数据集等)。该处理器可执行如上文所述的任何方法。
该装置可包括网络连接设备1025,例如可包括通过有线连接或无线连接来连接到其它设备(例如服务器可连接到用户的客户端和/或其它服务器,客户端可连接到服务器)的网络连接设备。该无线连接例如可以为WiFi连接、蓝牙连接、3G/4G/5G网络连接等。
该装置还可包括其它外围元件1020,例如键盘和鼠标等。
这些模块中的每一者可彼此直接或间接通信,例如,经由一条或多条总线(例如总线1005)。
而且,本申请还公开了一种包括存储于其上的计算机可执行指令的计算机可读存储介质,所述计算机可执行指令在被处理器执行时使得所述处理器执行本文所述的各实施例的方法。
此外,本申请还公开了一种装置,该装置包括处理器以及存储有计算机可执行指令的存储器,所述计算机可执行指令在被处理器执行时使得所述处理器执行本文所述的各实施例的方法。
此外,本申请还公开了一种系统,该系统包括用于实现本文所述的各实施例的方法的装置。
可以理解,根据本说明书的一个或多个实施例的方法可以用软件、固件或其组合来实现。
应该理解,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参考方法实施例的部分说明即可。
应该理解,上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
应该理解,本文用单数形式描述或者在附图中仅显示一个的元件并不代表将该元件的数量限于一个。此外,本文中被描述或示出为分开的模块或元件可被组合为单个模块或元件,且本文中被描述或示出为单个的模块或元件可被拆分为多个模块或元件。
还应理解,本文采用的术语和表述方式只是用于描述,本说明书的一个或多个实施例并不应局限于这些术语和表述。使用这些术语和表述并不意味着排除任何示意和描述(或其中部分)的等效特征,应认识到可能存在的各种修改也应包含在权利要求范围内。其他修改、变化和替换也可能存在。相应的,权利要求应视为覆盖所有这些等效物。
同样,需要指出的是,虽然已参考当前的具体实施例来描述,但是本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本说明书的一个或多个实施例,在没有脱离本发明精神的情况下还可做出各种等效的变化或替换,因此,只要在本发明的实质精神范围内对上述实施例的变化、变型都将落在本申请的权利要求书的范围内。

Claims (20)

1.一种用于针对用户生成模型的方法,包括:
在服务器处获取多个用户的多个第一数据集;
基于所述多个第一数据集,在所述服务器处利用元学习算法为所述多个用户生成共享模型,其中为所述多个用户中的每个用户设置所述元学习算法的一个任务;
由所述服务器将所述共享模型传送至用户的客户端;
在该用户的客户端处获取该用户的对应第二数据集;以及
基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。
2.如权利要求1所述的方法,还包括:
基于每一用户的对应第一数据集,使用所述共享模型生成该用户的云模型分;以及
将该用户的云模型分传送至该用户的用户客户端,其中所述自适应训练进一步基于所述云模型分。
3.如权利要求1所述的方法,其中所述第一数据集不包括用户的敏感数据,所述第二数据集包括所述多个用户的敏感数据。
4.如权利要求1所述的方法,其中用户的对应第一数据集包括该用户的经模糊化的信息,且该用户的对应第二数据集包括该用户的未经模糊化的信息。
5.如权利要求1所述的方法,其中所述元学习算法包括步长超参α,其中每个用户的步长超参α至少部分基于该用户的数据量。
6.如权利要求5所述的方法,其中每个用户的步长超参α与该用户的数据量负相关。
7.如权利要求1所述的方法,其中所述元学习算法的损失函数为:
Figure FDA0003779780600000011
其中α为步长,Θ为共享模型的参数,而Θ’为每个用户的私有模型的参数,T为用户数。
8.如权利要求1所述的方法,其中基于每个用户的私有模型为用户生成推荐或对用户执行预测。
9.一种在客户端处执行的用于针对用户生成模型的方法,包括:
接收来自服务器的共享模型,所述共享模型是基于多个第一数据集在所述服务器处利用元学习算法生成的,其中为包括所述用户在内的多个用户中的每个用户设置所述元学习算法的一个任务;
获取该用户的第二数据集;以及
基于该用户的对应第二数据集,在该用户的客户端处对共享模型进行自适应训练以生成该用户的私有模型。
10.如权利要求9所述的方法,还包括:
接收来自服务器的针对该用户的云模型分,该云模型分是基于该用户在服务器处的第一数据集利用所述共享模型生成的,
其中所述自适应训练进一步基于所述云模型分。
11.一种在服务器处执行的用于针对用户生成模型的方法,包括:
在服务器处获取多个用户的多个第一数据集;
基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型;以及
将所述共享模型传送至用户的客户端,其中所述共享模型用作自适应训练以生成该用户的私有模型的基础。
12.如权利要求11所述的方法,还包括:
基于每一用户的对应第一数据集,使用所述共享模型生成该用户的云模型分;以及
将该用户的云模型分传送至该用户的用户客户端,其中所述自适应训练进一步基于所述云模型分。
13.如权利要求11所述的方法,其中所述第一数据集不包括用户的敏感数据,或者包括该用户的经模糊化的信息。
14.如权利要求11所述的方法,其中所述元学习算法包括步长超参α,其中每个用户的步长超参α至少部分基于该用户的数据量。
15.如权利要求14所述的方法,其中每个用户的步长超参α与该用户的数据量负相关。
16.一种用于针对用户生成模型的方法,包括:
在第一服务器处获取多个用户的多个第一数据集;
基于所述多个第一数据集,在所述第一服务器处利用元学习算法为所述多个用户生成共享模型,其中为所述多个用户中的每个用户设置所述元学习算法的一个任务;
由所述第一服务器将所述共享模型传送至第二服务器;
在所述第二服务器处获取所述多个用户中的一个或多个用户的第二数据集;以及
基于所述第二数据集,由所述第二服务器对共享模型进行自适应训练以生成所述一个或多个用户中的每个用户的私有模型。
17.如权利要求16所述的方法,还包括:
基于每一用户的对应第一数据集,在所述第一服务器处使用所述共享模型生成该用户的云模型分;以及
将该用户的云模型分传送至所述第二服务器,其中所述自适应训练进一步基于所述云模型分。
18.一种由服务器执行的用于针对用户执行操作的方法,包括:
获取多个用户的多个第一数据集;
基于所述多个第一数据集,利用元学习算法为所述多个用户生成共享模型,其中为所述多个用户中的每个用户设置所述元学习算法的一个任务;
获取所述多个用户的多个第二数据集;
基于所述多个第二数据集对所述共享模型进行自适应训练以获得生成每个用户的私有模型;以及
获取一用户的数据,并基于所获取的该用户的数据应用该用户的私有模型对该用户执行操作。
19.一种用于针对用户生成模型的装置,包括:
存储器;以及
处理器,所述处理器被配置成执行如权利要求1-18中任一项所述的方法。
20.一种存储指令的计算机可读存储介质,所述指令当被计算机执行时,使所述计算机执行如权利要求1-18中任一项所述的方法。
CN202110522026.2A 2021-05-13 2021-05-13 针对用户生成模型的方法、装置和计算机可读存储介质 Active CN113112312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110522026.2A CN113112312B (zh) 2021-05-13 2021-05-13 针对用户生成模型的方法、装置和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110522026.2A CN113112312B (zh) 2021-05-13 2021-05-13 针对用户生成模型的方法、装置和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN113112312A CN113112312A (zh) 2021-07-13
CN113112312B true CN113112312B (zh) 2022-09-30

Family

ID=76722458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110522026.2A Active CN113112312B (zh) 2021-05-13 2021-05-13 针对用户生成模型的方法、装置和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113112312B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115730590A (zh) * 2022-11-30 2023-03-03 金蝶软件(中国)有限公司 意图识别方法以及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109089155A (zh) * 2018-10-30 2018-12-25 深圳市中京电子有限公司 一种音视频资源共享装置及其共享方法
CN110942512A (zh) * 2019-11-27 2020-03-31 大连理工大学 基于元学习的室内场景重建方法
CN111783983A (zh) * 2020-06-30 2020-10-16 南京工业大学 用于实现导航的可迁移的元学习的无监督dqn强化学习

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395180B2 (en) * 2015-03-24 2019-08-27 International Business Machines Corporation Privacy and modeling preserved data sharing
CN111090631B (zh) * 2020-03-24 2020-06-19 中国人民解放军国防科技大学 分布式环境下的信息共享方法、装置和电子设备
CN112182649B (zh) * 2020-09-22 2024-02-02 上海海洋大学 一种基于安全两方计算线性回归算法的数据隐私保护系统
CN112348200B (zh) * 2020-11-02 2022-11-15 中国科学院信息工程研究所 一种基于联邦学习的受控共享学习方法及系统
CN112651511B (zh) * 2020-12-04 2023-10-03 华为技术有限公司 一种训练模型的方法、数据处理的方法以及装置
CN112766514B (zh) * 2021-01-22 2021-12-24 支付宝(杭州)信息技术有限公司 一种联合训练机器学习模型的方法、系统及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109089155A (zh) * 2018-10-30 2018-12-25 深圳市中京电子有限公司 一种音视频资源共享装置及其共享方法
CN110942512A (zh) * 2019-11-27 2020-03-31 大连理工大学 基于元学习的室内场景重建方法
CN111783983A (zh) * 2020-06-30 2020-10-16 南京工业大学 用于实现导航的可迁移的元学习的无监督dqn强化学习

Also Published As

Publication number Publication date
CN113112312A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
US10783450B2 (en) Learning user preferences using sequential user behavior data to predict user behavior and provide recommendations
US20210110306A1 (en) Meta-transfer learning via contextual invariants for cross-domain recommendation
US20190370634A1 (en) Data platform to protect security of data used by machine learning models supported by blockchain
CN104937590B (zh) 用相关第三方应用内容扩充搜索结果
US20170293865A1 (en) Real-time updates to item recommendation models based on matrix factorization
JP7160980B2 (ja) 情報提供装置、情報提供方法、およびプログラム
US10635973B1 (en) Recommendation system using improved neural network
US20190147430A1 (en) Customizing payment sessions with machine learning models
CN107683466A (zh) 具有隐私控制机制的计算系统及其操作方法
CN113688855A (zh) 数据处理方法、联邦学习的训练方法及相关装置、设备
US20180165590A1 (en) Techniques for providing sequential recommendations to users
US20140172877A1 (en) Boosting ranks of stories by a needy user on a social networking system
CN111652648A (zh) 智能生成个性化组合促销方案的方法及具有该方法的系统
US20140172875A1 (en) Arranging stories on newsfeeds based on expected value scoring on a social networking system
US20210035183A1 (en) Method and system for a recommendation engine utilizing progressive labeling and user content enrichment
US20180336490A1 (en) Deep semantic content selection
CA3089074A1 (en) System and method for providing customer specified webpage configuration
US20230042084A1 (en) Systems and methods for generating a targeted communication based on life events
US20240054391A1 (en) Privacy-enhanced training and deployment of machine learning models using client-side and server-side data
CN113112312B (zh) 针对用户生成模型的方法、装置和计算机可读存储介质
Santana et al. Contextual meta-bandit for recommender systems selection
WO2022235599A1 (en) Generation and implementation of dedicated feature-based techniques to optimize inference performance in neural networks
CN110968887A (zh) 在数据隐私保护下执行机器学习的方法和系统
US11907963B2 (en) On-device privacy-preservation and personalization
CN116956204A (zh) 多任务模型的网络结构确定方法、数据预测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant