CN113780572B - 建立个性化模型的方法和装置 - Google Patents

建立个性化模型的方法和装置 Download PDF

Info

Publication number
CN113780572B
CN113780572B CN202110952740.5A CN202110952740A CN113780572B CN 113780572 B CN113780572 B CN 113780572B CN 202110952740 A CN202110952740 A CN 202110952740A CN 113780572 B CN113780572 B CN 113780572B
Authority
CN
China
Prior art keywords
model
global
personalized
user data
target scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110952740.5A
Other languages
English (en)
Other versions
CN113780572A (zh
Inventor
申书恒
傅欣艺
王维强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202110952740.5A priority Critical patent/CN113780572B/zh
Publication of CN113780572A publication Critical patent/CN113780572A/zh
Application granted granted Critical
Publication of CN113780572B publication Critical patent/CN113780572B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本说明书实施例提供了一种建立个性化模型的方法和装置。根据该实施例的方法,首先在服务器端利用全局用户数据进行学习,构建全局模型;然后利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型;最后再将所述个性化模型部署于所述目标场景对应的终端设备。

Description

建立个性化模型的方法和装置
技术领域
本说明书一个或多个实施例涉及人工智能技术领域,尤其涉及建立个性化模型的方法和装置。
背景技术
随着终端设备的性能提升和公众对隐私保护的日益重视,终端设备成为AI(Artificial Intelligence,人工智能)模型的重要落地场景。AI模型部署在终端设备上相比较部署于云端服务器上的主要优势包括:1)用户数据无需上传到云端,直接在终端设备上输入数据即可产出结果,能够有效保护用户隐私;2)减少终端设备和服务端的交互,减轻服务端的带宽和计算性能瓶颈;3)提升模型鲁棒性,避免大规模故障。
然而,目前大多数的在终端设备建模使用的是统一全局模型,这种方式显然无法为每个用户提供个性化模型。
发明内容
有鉴于此,本说明书一个或多个实施例描述了一种建立个性化模型的方法和装置,以便于在终端设备实现用户个性化模型的构建。
根据第一方面,提供了一种建立个性化模型的方法,包括:
在服务器端利用全局用户数据进行学习,构建全局模型;
利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型;
将所述个性化模型部署于所述目标场景对应的终端设备。
在一个实施例中,所述在服务器端利用全局用户数据进行学习,构建全局模型包括:
在每轮迭代中,根据局部用户数据量进行重要性采样,利用采样得到的样本进行本轮迭代的模型参数更新。
在另一个实施例中,在服务器端利用全局用户数据进行学习的过程中,在每一轮迭代中利用各目标场景对应的个性化模型的损失函数的梯度和作为最终梯度进行本轮全局模型参数的更新。
在一个实施例中,所述利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型包括:
利用目标场景对应的局部用户数据对所述全局模型进行N轮迭代,并保留每一轮迭代的模型参数,所述N为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型。
在另一个实施例中,将所述个性化模型部署于所述目标场景对应的终端设备包括:
将所述个性化模型和所述全局模型部署于所述目标场景对应的终端设备。
在一个实施例中,所述学习包括元学习,所述全局模型包括元模型。
根据第二方面,提供了一种建立个性化模型的方法,包括:
在目标场景对应的终端设备预先部署由服务器端预先学习得到的所述目标场景对应的个性化模型;其中所述个性化模型是所述服务器端利用全局用户数据进行学习构建全局模型后,利用所述目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到的;
所述终端设备调用所述个性化模型进行决策。
在一个实施例中,还包括:
所述终端设备周期性获取累积的局部用户数据,利用所述累积的局部用户数据更新所述个性化模型。
在另一个实施例中,还包括:在所述目标场景对应的终端设备预先部署所述全局模型;
利用所述累积的局部用户数据更新所述个性化模型包括:
在所述全局模型的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型;
对当前的个性化模型和所述局部更新模型进行平滑平均,利用平滑平均得到的模型更新个性化模型。
在一个实施例中,在所述全局模型的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型包括:
利用当前周期累积的局部用户数据对所述全局模型进行M轮迭代,并保留每一轮迭代的模型参数,所述M为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的局部更新模型。
根据第三方面,提供了一种建立个性化模型的装置,设置于服务器端,包括:
全局训练单元,被配置为利用全局用户数据进行学习,构建全局模型;
局部训练单元,被配置为利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型;
模型部署单元,被配置为将所述个性化模型部署于所述目标场景对应的终端设备。
根据第四方面,提供了一种建立个性化模型的装置,设置于终端设备,包括:
模型部署单元,被配置为预先部署由服务器端预先学习得到的目标场景对应的个性化模型;其中所述个性化模型是所述服务器端利用全局用户数据进行学习构建全局模型后,利用所述目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到的;
模型应用单元,被配置为调用所述个性化模型进行决策。
根据第五方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
根据本说明书实施例提供的方法和装置,在服务器端先利用全局用户数据进行学习构建全局模型后,进一步基于全局模型利用局部用户数据分别构建各目标场景对应的个性化模型并部署于对应的终端设备,从而实现了在终端设备构建用户个性化模型。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据一个实施例的建立个性化模型的方法流程图;
图2示出了根据一个实施例提供的建立全局模型的示意图;
图3示出了根据另一个实施例的建立个性化模型的方法流程图;
图4示出了根据一个实施例提供的确定局部更新模型的示意图;
图5示出了根据一个实施例提供的更新个性化模型的示意图;
图6示出了根据一个实施例的建立个性化模型的装置的示意性框图;
图7示出了根据另一个实施例的建立个性化模型的装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
如背景技术中所述的,在终端设备建模时使用的是统一全局模型,这种方式通常具备以下缺陷:
1)无法每个用户提供个性化模型;
2)如果在终端设备拟合全局数据进行建模,则需要很大的模型容量,对终端设备的计算能力要求过高;
3)如果在终端设备仅拟合用户数据,则不能很好地拟合全局用户数据,造成模型效果差;
4)在线学习容易受到异常样本的影响,不够鲁邦。
除了上述在终端设备建立统一全局模型的方式之外,也有一些技术根据专家经验将用户分为几个群体,在终端设备针对各用户群体分别建模,但这种方式具备以下缺陷:
1)为每个群体分别建模耗时较长,用户群体越多耗时越长;
2)没有使用全局用户数据,模型泛化性较差,容易过拟合。
针对上述情况,本说明书实施例提供了一种全新的个性化模型的构建思路。该思路基于服务器端和终端设备所组成的系统架构。下面描述以上构思的具体实现方式。
图1示出根据一个实施例的建立个性化模型的方法流程图。该方法在服务器端执行,该服务器可以是单个的服务器,也可以是由多个服务器组成的服务器集群,服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPs,Ⅵirtual Private Server)服务中存在的管理难度大,业务扩展性弱的缺陷。如图1所示,该方法包括:
步骤101,在服务器端利用全局用户数据进行学习,构建全局模型。
步骤103,利用目标场景对应的局部用户数据在全局模型基础上进一步学习,得到目标场景对应的个性化模型。
步骤105,将个性化模型部署于目标场景对应的终端设备。
由此可以看出,本说明书实施例在服务器端先利用全局用户数据进行学习构建全局模型后,进一步基于全局模型利用局部用户数据分别构建各目标场景对应的个性化模型并部署于对应的终端设备,从而实现了在终端设备构建用户个性化模型。
并且,一方面服务器端利用自身的计算优势先进行全局用户数据的拟合,从而保证模型效果,同时也分别利用局部用户数据构建个性化模型保证了每个场景的模型个性化。
下面描述图1所示的各个步骤的具体执行方式。首先结合实施例对上述步骤101即“在服务器端利用全局用户数据进行学习,构建全局模型”进行详细描述。
在本说明书实施例实施例中,首先利用全局用户数据进行学习来构建全局模型。其中,全局模型的类型、结构和用途本说明书实施例中并不加以限制,可以根据具体的应用场景进行设计。例如可以是资源推荐模型、可以是身份鉴别模型、可以是分类模型、也可以是风险识别模型等等。
在不同的应用和用途中涉及的全局用户数据的类型也可能不同,但需要明确的是,本步骤中利用了在特定应用和用途下涉及的全局用户数据。全局用户数据可以理解为所有用户或可获取的绝大多数用户的数据,是相对于局部用户数据而言的。可以在一定程度上理解为“全量数据”。
在进行学习时可以采用监督学习算法。但作为一种更优选的实施方式,可以采用元学习(Meta learning)机制,构建出的全局模型也为元模型,这种情况下涉及的模型参数是元参数。训练得到的一组元参数就决定了一个元模型,因此,在此可以采用元参数来表示元模型。例如通过本步骤构建出了元模型θ即全局模型。元学习的目的是要让全局模型获得一个良好的初始化参数,以这个初始化参数为起点去学习新的任务时,可以学得又快又好。而普通的监督学习算法则着眼于具体的任务,而不会考虑如何面对新的任务,因此本步骤中采用元学习机制更加合适。
由于在很多场景中用户有高频用户和低频用户之分,他们的局部数据量差异悬殊。在使用全局用户数据进行学习时,如果能够有效地利用全局用户数据的分布信息,则能够产生更优的模型效果。因此,作为一种优选的实施方式,可以在每轮迭代中,根据局部用户数据量进行重要性采样,利用采样得到的样本进行本轮迭代的模型参数更新。
例如在进行采样时,采用各用户的概率进行采样作为一批样本。其中针对第i个用户采用的采样概率pi可以为:
其中,Di表示第i个用户的局部用户数据分布,|Di|表示第i个用户的局部用户数据量,n为用户数量。
另外需要说明的是,上述是以用户作为粒度进行的采样。在不同目标场景下,除了以用户作为粒度之外,还可以以用户群体作为粒度,这种情况下,上述公式中的Di可以表示第i个用户群体的局部用户数据分布。
另外作为一种优选的实施方式,在学习过程中可以借用MAML(Model AgnosticMeta Learning,模型无关元学习)算法。MAML的思路是优化模型参数在各个任务上的梯度方向矢量和。如图2中所示,在本场景中假设每一批样本采样得到k个用户,这k个用户的局部用户数据分布分别表示为:在利用该批样本进行本轮迭代时,将这一批样本中利用每个用户的局部用户数据分别进行一步或多步梯度下降来拟合每个用户的数据分布,即分别得到模型参数这些模型参数并不用以真实更新模型,而作为中间数据用以后续最终梯度的确定。由于期望后续训练得到的个性化模型在局部用户数据分布上性能较好,因此在训练全局模型时也需要考虑后续各个性化模型的损失函数。假设各个性化模型的损失函数表示为f,那么在本轮迭代中对全局模型参数θ采用的最终梯度G为:
其中,表示第j个用户的个性化模型的损失函数。
因此在本轮迭代更新中,采用如下公式更新模型参数:
θ'=θ-ηG (3)
其中,θ为更新前的全局模型的参数。η为学习率,可以采用经验值或实验值等。θ'为本轮迭代更新后的全局模型的参数,更新后再下一轮又作为θ进行更新后全局模型的参数计算。
从上述公式(2)和公式(3)可以看出,在服务器端利用全局用户数据进行学习的过程中个,在每一轮迭代中利用各目标场景对应的个性化模型的损失函数的梯度和作为最终梯度进行本轮全局模型参数的更新。
以此进行到多轮迭代后,在满足迭代停止条件后训练得到全局模型。其中迭代停止条件可以包括全局模型参数收敛、迭代轮数超过预设的轮数阈值等等。
结合实施例对上述步骤103即“利用目标场景对应的局部用户数据在全局模型基础上进一步学习,得到目标场景对应的个性化模型”进行详细描述。
在本说明书实施例中涉及的目标场景可以是单个用户为场景的,即每个用户对应一个场景,得到的个性化模型就是针对每个用户建立的,即利用用户的局部用户数据在全局模型基础上进一步学习,得到用户的个性化模型。
除此之外,目标场景也可以是针对用户群体的,例如一些推荐场景是针对不同行业的用户分别建模的,那么可以根据行业将用户划分为不同的用户群体,分别利用各用户群体的局部用户数据在全局模型基础上进一步学习,得到各行业的用户群体对应的个性化模型。
作为一种可实现的方式,可以直接利用目标场景对应的局部用户数据在全局模型基础上进行一轮以上的迭代更新,得到个性化模型。其中,迭代更新的停止条件可以是个性化模型参数收敛、迭代轮数超过预设的轮数阈值等等。
鉴于局部用户数据分布是全局用户数据分布的一部分,局部用户数据分布之间的距离比较小,直接迭代并不一定可以比全局模型的效果更好。因此在此提供了一种优选的实施方式,即可以利用目标场景对应的局部用户数据对全局模型进行N轮迭代,并保留每一轮迭代的模型参数即中间数据,其中N为正整数。然后利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型。所谓效果最优可以是诸如损失函数最小。
下面结合实施例对上述步骤105即“将个性化模型部署于目标场景对应的终端设备”进行详细描述。
服务器端针对各目标场景生成个性化模型后,将个性化模型部署于目标场景对应的终端设备。
其中部署方式可以采用主动推送(Push)的方式,将个性化模型推送至终端设备。除此之外,也可以基于请求的方式,响应于终端设备的请求,将个性化模型发送至终端设备。还可以采用其他部署方式,在此不做一一列举。
图3示出根据另一个实施例的建立个性化模型的方法流程图。该方法在终端设备执行,该终端设备可以包括但不限于智能移动终端、智能家居设备、网络设备、可穿戴式设备、智能医疗设备、PC(个人计算机)等。其中智能移动设备可以包括诸如手机、平板电脑、笔记本电脑、PDA(个人数字助理)、互联网汽车等。智能家居设备可以包括智能家电设备,诸如智能电视、智能空调、智能热水器、智能冰箱、智能空气净化器等等,智能家居设备还可以包括智能门锁、智能插座、智能电灯、智能摄像头等。网络设备可以包括诸如交换机、无线AP、服务器等。可穿戴式设备可以包括诸如智能手表、智能眼镜、智能手环、虚拟现实设备、增强现实设备、混合现实设备(即可以支持虚拟现实和增强现实的设备)等等。智能医疗设备可以包括诸如智能体温计、智能血压仪、智能血糖仪等等。如图3所示,该方法可以包括:
在301中,在目标场景对应的终端设备预先部署由服务器端预先学习得到的目标场景对应的个性化模型;其中个性化模型是服务器端利用全局用户数据进行学习构建全局模型后,利用目标场景对应的局部用户数据在全局模型基础上进一步学习得到的。
在303中,终端设备调用个性化模型进行决策。
终端设备获取到服务器端发送来的个性化模型后,将个性化模型存储于本地。在实际应用中,终端设备可以调用个性化模型进行决策。具体的决策方式依据具体应用场景和模型来确定。
例如,应用于支付过程中的身份鉴别时,上述个性化模型为身份鉴别模型,终端设备获取到用户输入的数据后,调用个性化模型对用户身份进行鉴别,得到用户身份。
再例如,应用于用户风险识别时,上述个性化模型为风险识别模型。终端设备获取到用户输入的数据后,调用个性化模型对用户进行风险识别。
更进一步地,该方法还可以包括:
在305中,终端设备周期性获取累积的局部用户数据,利用累积的局部用户数据更新个性化模型。
随着时间的推移,用户的行为习惯可能会发生变化,之前在服务器端训练得到的该用户的个性化模型性能会衰退,因此需要在终端设备上进行个性化模型的更新。
如果每产生一个新样本(即新的用户数据)就进行一次模型更新,会使得模型受到异常样本的影响。在本说明书实施例实施例中采用周期性更新的方式。假设设定一星期更新一次,则利用这一星期累积的用户数据进行个性化模型的更新。另外,还可以进一步限制这一星期内累积的用户数据的数量,如果大于预设的数量阈值(例如100条用户数据),才进行个性化模型的更新。这样能够保证样本的数量,从而降低模型受到异常样本的影响。
在利用累积的局部用户数据更新个性化模型时,可以直接利用累积的局部用户数据对个性化模型进行迭代更新。但除了这种方式之外,本说明书实施例提供了一种优选的方式来更新个性化模型,下面对这种方式进行详细描述。
在本实施例中终端设备除了部署有个性化模型之外,还部署有服务器端训练得到的全局模型。以θ表示全局模型的模型参数,以θt表示个性化模型的模型参数。具体可以包括以下步骤:
步骤S1、在全局模型(模型参数为θ)的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型(模型参数为θt')。
作为一种可实现的方式,可以直接利用当前周期累积的局部用户数据在全局模型基础上进行一轮以上的迭代更新,得到局部更新模型。其中,迭代更新的停止条件可以是局部更新模型参数收敛、迭代轮数超过预设的轮数阈值等等。
除了这种方式之外,还可以提供一种优选的实施方式,利用当前周期累积的局部用户数据对全局模型进行M轮迭代,并保留每一轮迭代的模型参数,M为正整数;利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的局部更新模型。所谓效果最优可以是诸如损失函数最小。如图4中所示,假设当前周期累积的用户数据为Di,利用Di对全局模型进行一轮迭代、两轮迭代、三轮迭代……十轮迭代分别得到模型参数θ1、θ2、θ3、…、θ10。然后取这10个模型参数中对应损失函数最小的模型参数。即:
其中,fi()为该用户的个性化模型的损失函数。
步骤S2、然后对当前的个性化模型(模型参数为θt)和局部更新模型(模型参数为θt')进行平滑平均,利用平滑平均得到的模型更新个性化模型。
在得到局部更新模型(模型参数为θt')后,并非直接利用θt'替换θt,而是采用滑动平均的方式对个性化模型进行更新。具体可以采用如下公式:
θt+1=θt+α(θt'-θt) (5)
其中,θt+1为更新后的个性化模型的参数。α为预设的超参数。
通过上述平滑平均的处理方式,既可以保证个性化模型可以实时捕捉用户行为习惯的变化,也能够避免由异常样本所带来的个性化模型性能急剧衰退的问题,做到持续学习且鲁邦更新。
上述过程可以如图5中所示,假设初始的个性化模型参数为θ1,则利用第一个星期累积的局部用户数据D1首先对全局模型参数θ进行更新后得到θ1',然后将个性化模型参数更新为θ2,θ2=θ1+α(θ1'-θ1)。
第二个星期累积的局部用户数据D2对全局模型参数θ进行更新后得到θ2',然后将个性化模型参数更新为θ3,θ3=θ2+α(θ2'-θ2)。
然后以此类推。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
根据另一方面的实施例,提供了一种建立个性化模型的装置。图6示出根据一个实施例的建立个性化模型的装置的示意性框图。该装置设置于服务器端。如图6所示,该装置600包括:全局训练单元601、局部训练单元602和模型部署单元603。其中各组成单元的主要功能如下:
全局训练单元601,被配置为利用全局用户数据进行学习,构建全局模型。
局部训练单元602,被配置为利用目标场景对应的局部用户数据在全局模型基础上进一步学习,得到目标场景对应的个性化模型。
模型部署单元603,被配置为将个性化模型部署于目标场景对应的终端设备。
作为一种优选的实施方式,全局训练单元601可以具体被配置为在每轮迭代中,根据局部用户数据量进行重要性采样,利用采样得到的样本进行本轮迭代的模型参数更新。
上述的学习可以是元学习,训练得到的全局模型可以是元模型。
作为一种优选的实施方式,全局训练单元601可以具体被配置为在每一轮迭代中利用各目标场景对应的个性化模型的损失函数的梯度和作为最终梯度进行本轮全局模型参数的更新。
作为一种可实现的方式,局部训练单元602可以直接利用目标场景对应的局部用户数据在全局模型基础上进行一轮以上的迭代更新,得到个性化模型。其中,迭代更新的停止条件可以是个性化模型参数收敛、迭代轮数超过预设的轮数阈值等等。
作为一种优选的实施方式,局部训练单元602可以具体被配置为利用目标场景对应的局部用户数据对全局模型进行N轮迭代,并保留每一轮迭代的模型参数,N为正整数;利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型。
更进一步地,模型部署单元603,具体被配置为将个性化模型和全局模型部署于目标场景对应的终端设备。
其中部署方式可以采用主动推送(Push)的方式,将个性化模型推送至终端设备。除此之外,也可以基于请求的方式,响应于终端设备的请求,将个性化模型发送至终端设备。还可以采用其他部署方式。
图7示出根据另一个实施例的建立个性化模型的装置的示意性框图。该装置设置于终端设备。如图7所示,该装置700包括:模型部署单元701和模型应用单元702,还可以进一步包括模型更新单元703。其中各组成单元的主要功能如下:
模型部署单元701,被配置为预先部署由服务器端预先学习得到的目标场景对应的个性化模型;其中个性化模型是服务器端利用全局用户数据进行学习构建全局模型后,利用目标场景对应的局部用户数据在全局模型基础上进一步学习得到的。
模型应用单元702,被配置为调用个性化模型进行决策。
模型更新单元703,被配置为周期性获取终端设备累积的局部用户数据,利用累积的局部用户数据更新个性化模型。
更进一步地,模型部署单元701,还被配置为预先部署全局模型。
模型更新单元703,具体被配置为在全局模型的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型;对当前的个性化模型和局部更新模型进行平滑平均,利用平滑平均得到的模型更新个性化模型。
作为一种优选的实施方式,模型更新单元703可以具体被配置为利用当前周期累积的局部用户数据对全局模型进行M轮迭代,并保留每一轮迭代的模型参数,M为正整数;利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的局部更新模型。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行图1或图3所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现图1或图3所述的方法。
随着时间、技术的发展,计算机可读存储介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读存储介质的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本说明书中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述的处理器可包括一个或多个单核处理器或多核处理器。处理器可包括任何一般用途处理器或专用处理器(如图像处理器、应用处理器基带处理器等)的组合。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (11)

1.建立个性化模型的方法,包括:
在服务器端利用全局用户数据进行学习,构建全局模型;
利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型;
将所述个性化模型部署于所述目标场景对应的终端设备;
其中,所述利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型包括:
利用目标场景对应的局部用户数据对所述全局模型进行N轮迭代,并保留每一轮迭代的模型参数,所述N为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型;
其中,将所述个性化模型部署于所述目标场景对应的终端设备包括:
将所述个性化模型和所述全局模型部署于所述目标场景对应的终端设备。
2.根据权利要求1所述的方法,其中,所述在服务器端利用全局用户数据进行学习,构建全局模型包括:
在每轮迭代中,根据局部用户数据量进行重要性采样,利用采样得到的样本进行本轮迭代的模型参数更新。
3.根据权利要求1所述的方法,其中,在服务器端利用全局用户数据进行学习的过程中,在每一轮迭代中利用各目标场景对应的个性化模型的损失函数的梯度和,作为最终梯度进行本轮全局模型参数的更新。
4.根据权利要求1至3中任一项所述的方法,其中,所述学习包括元学习,所述全局模型包括元模型。
5.建立个性化模型的方法,包括:
在目标场景对应的终端设备预先部署由服务器端预先学习得到的所述目标场景对应的个性化模型;其中所述个性化模型是所述服务器端利用全局用户数据进行学习构建全局模型后,利用所述目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到的;
所述终端设备调用所述个性化模型进行决策;
其中,利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到所述目标场景对应的个性化模型包括:
利用目标场景对应的局部用户数据对所述全局模型进行N轮迭代,并保留每一轮迭代的模型参数,所述N为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型;
其中,将个性化模型部署于所述目标场景对应的终端设备包括:
将所述个性化模型和所述全局模型部署于所述目标场景对应的终端设备。
6.根据权利要求5所述的方法,还包括:
所述终端设备周期性获取累积的局部用户数据,利用所述累积的局部用户数据更新所述个性化模型。
7.根据权利要求6所述的方法,还包括:在所述目标场景对应的终端设备预先部署所述全局模型;
利用所述累积的局部用户数据更新所述个性化模型包括:
在所述全局模型的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型;
对当前的个性化模型和所述局部更新模型进行平滑平均,利用平滑平均得到的模型更新个性化模型。
8.根据权利要求7所述的方法,其中,在所述全局模型的基础上,利用当前周期累积的局部用户数据进一步学习得到局部更新模型包括:
利用当前周期累积的局部用户数据对所述全局模型进行M轮迭代,并保留每一轮迭代的模型参数,所述M为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的局部更新模型。
9.建立个性化模型的装置,设置于服务器端,包括:
全局训练单元,被配置为利用全局用户数据进行学习,构建全局模型;
局部训练单元,被配置为利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习,得到所述目标场景对应的个性化模型;
模型部署单元,被配置为将所述个性化模型部署于所述目标场景对应的终端设备;
其中,所述局部训练单元被配置为利用目标场景对应的局部用户数据对全局模型进行N轮迭代,并保留每一轮迭代的模型参数,N为正整数;利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型;
所述模型部署单元被配置为将个性化模型和全局模型部署于目标场景对应的终端设备。
10.建立个性化模型的装置,设置于终端设备,包括:
模型部署单元,被配置为预先部署由服务器端预先学习得到的目标场景对应的个性化模型;其中所述个性化模型是所述服务器端利用全局用户数据进行学习构建全局模型后,利用所述目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到的;
模型应用单元,被配置为调用所述个性化模型进行决策;
其中,利用目标场景对应的局部用户数据在所述全局模型基础上进一步学习得到所述目标场景对应的个性化模型包括:
利用目标场景对应的局部用户数据对所述全局模型进行N轮迭代,并保留每一轮迭代的模型参数,所述N为正整数;
利用验证集对每一轮迭代的模型参数进行验证,取效果最优的模型参数对应的个性化模型;
其中,将个性化模型部署于所述目标场景对应的终端设备包括:
将所述个性化模型和所述全局模型部署于所述目标场景对应的终端设备。
11.一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-8中任一项所述的方法。
CN202110952740.5A 2021-08-19 2021-08-19 建立个性化模型的方法和装置 Active CN113780572B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110952740.5A CN113780572B (zh) 2021-08-19 2021-08-19 建立个性化模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110952740.5A CN113780572B (zh) 2021-08-19 2021-08-19 建立个性化模型的方法和装置

Publications (2)

Publication Number Publication Date
CN113780572A CN113780572A (zh) 2021-12-10
CN113780572B true CN113780572B (zh) 2024-07-16

Family

ID=78838193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110952740.5A Active CN113780572B (zh) 2021-08-19 2021-08-19 建立个性化模型的方法和装置

Country Status (1)

Country Link
CN (1) CN113780572B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325417A (zh) * 2020-05-15 2020-06-23 支付宝(杭州)信息技术有限公司 实现隐私保护的多方协同更新业务预测模型的方法及装置
CN112799708A (zh) * 2021-04-07 2021-05-14 支付宝(杭州)信息技术有限公司 联合更新业务模型的方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814985B (zh) * 2020-06-30 2023-08-29 平安科技(深圳)有限公司 联邦学习网络下的模型训练方法及其相关设备
CN112966832B (zh) * 2021-03-31 2022-10-11 上海嗨普智能信息科技股份有限公司 基于多服务器的联邦学习系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325417A (zh) * 2020-05-15 2020-06-23 支付宝(杭州)信息技术有限公司 实现隐私保护的多方协同更新业务预测模型的方法及装置
CN112799708A (zh) * 2021-04-07 2021-05-14 支付宝(杭州)信息技术有限公司 联合更新业务模型的方法及系统

Also Published As

Publication number Publication date
CN113780572A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
WO2020094060A1 (zh) 推荐方法及装置
CN107944610B (zh) 预测事件流行度方法、服务器及计算机可读存储介质
US11928583B2 (en) Adaptation of deep learning models to resource constrained edge devices
WO2022105117A1 (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
WO2019232772A1 (en) Systems and methods for content identification
CN110263916B (zh) 数据处理方法和装置、存储介质及电子装置
CN111813539B (zh) 一种基于优先级与协作的边缘计算资源分配方法
US11423307B2 (en) Taxonomy construction via graph-based cross-domain knowledge transfer
CN113435365B (zh) 人脸图像迁移方法及装置
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN111340221A (zh) 神经网络结构的采样方法和装置
CN111539903B (zh) 训练人脸图像合成模型的方法和装置
US20190197425A1 (en) Deep convolutional factor analyzer
CN113988225B (zh) 建立表征提取模型、表征提取、类型识别的方法和装置
CN117077765A (zh) 一种基于个性化联邦增量学习的脑电信号身份识别方法
CN113362852A (zh) 一种用户属性识别方法和装置
CN113850372A (zh) 神经网络模型训练方法、装置、系统和存储介质
CN113780572B (zh) 建立个性化模型的方法和装置
WO2023143080A1 (zh) 一种数据处理方法以及相关设备
CN113610228B (zh) 神经网络模型的构建方法及装置
Liu et al. Towards Multi-Task Generative-AI Edge Services with an Attention-based Diffusion DRL Approach
CN111899747B (zh) 用于合成音频的方法和装置
CN116112366A (zh) 数据处理方法及装置、设备、存储介质
CN113762648A (zh) 公卫黑天鹅事件预测方法、装置、设备及介质
CN113298747A (zh) 图片、视频检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant