CN113614750A - 联邦学习系统中的机器学习模型的超参数优化装置和方法 - Google Patents

联邦学习系统中的机器学习模型的超参数优化装置和方法 Download PDF

Info

Publication number
CN113614750A
CN113614750A CN201980094506.4A CN201980094506A CN113614750A CN 113614750 A CN113614750 A CN 113614750A CN 201980094506 A CN201980094506 A CN 201980094506A CN 113614750 A CN113614750 A CN 113614750A
Authority
CN
China
Prior art keywords
hyper
model
updated
machine learning
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980094506.4A
Other languages
English (en)
Inventor
穆罕默德·阿马德·乌丁
阿德里安·弗拉纳根
宽·埃克·谭
埃琳娜·伊万尼科娃
付强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN113614750A publication Critical patent/CN113614750A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

一种联邦学习服务器用于聚合多个接收到的模型更新以更新主机器学习模型。一旦达到接收到的模型更新的预定义阈值或间隔,将从所述更新的主机器学习模型中获得的当前超参数值集和对应的验证集性能指标发送到超参数优化模型。所述优化模型使用超参数值和对应的性能指标的成对历史数据推断下一个最佳超参数集。将推断出的超参数值发送到所述联邦学习服务器,所述联邦学习服务器使用所述更新的超参数值集更新所述主机器学习模型,并重新分发具有所述更新的超参数值集的更新的主机器学习模型。所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。

Description

联邦学习系统中的机器学习模型的超参数优化装置和方法
技术领域
本发明的各个方面大体上涉及联邦学习系统和联邦推荐系统,更具体地,涉及增强联邦学习系统或联邦推荐系统中的数据隐私保护。
背景技术
个性化推荐应用程序要求通常以下面三个主要方面为基础。第一,推荐应用程序通常需要用户数据,例如年龄、性别、位置、观看或查看历史数据以及其他个人、私人或机密信息。第二,推荐应用程序需要一种机器学习模型来从这些数据中学习用户偏好。第三,推荐应用程序需要超参数优化,以训练一种更稳健、更准确的机器学习模型。超参数表示关于模型结构和基础数据生成过程的先验假设。传统技术方案的主要局限性在于,需要在评估超参数配置的同时统一访问个人数据和模型。
需要正确的超参数值来提高推荐的质量,这样通常会产生更好的用户体验。然而,典型的个人推荐系统通常依赖于在中央服务器中传输、存储和处理客户端或用户的个人数据。这种方法变得越来越难以实施,特别是在实施《通用数据保护条例(General DataProtection Regulation,GDPR)》之后。联邦学习模型方法试图解决机器学习模型中的数据访问和隐私相关问题。然而,因为超参数优化需要访问用户数据,与超参数优化相关的数据隐私问题尚未得到充分解决。
因此,希望提供解决上述问题中的至少一些问题的系统。
发明内容
所公开实施例的目的是提供一种增强联邦学习模型中超参数优化的隐私的装置和方法。通过独立权利要求的主题来实现上述目标。在从属权利要求中可以找到其它有利修改。
根据第一方面,通过服务器装置获得上述以及其它目的和优点。在一个实施例中,所述服务器装置包括处理器,用于:聚合多个接收到的模型更新以更新主机器学习模型;确定是否达到接收到的模型更新的预定义阈值;将从所述更新的主机器学习模型中获得的当前超参数值集和对应的验证集性能指标发送到超参数优化模型;从所述超参数优化模型接收更新的超参数值集;使用所述更新的超参数值集更新所述主机器学习模型;重新分发具有所述更新的超参数值集的所述更新的主机器学习模型。
所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。
根据第一方面,在所述服务器装置的第一种可能的实现方式中,所述处理器用于周期性地从所述超参数优化模型请求更新的超参数值集。使用超参数优化,可以调整机器学习模型,以生成更好的推荐。
在服务器装置的一种可能的实现方式中,所述主机器学习模型在联邦学习系统中运行。所述联邦学习系统支持最大限度地增强客户隐私。
在所述服务器装置的一种可能的实现方式中,所述主机器学习模型是联邦学习协同过滤器模型或联邦学习逻辑回归模型中的一个或多个。联邦学习模式下的超参数优化能够提供更准确的个性化推荐。
根据第二方面,通过服务器装置获得上述以及其它目的和优点。在一个实施例中,所述服务器装置包括处理器,用于:从联邦学习服务器接收主机器学习模型的当前超参数值集和对应的验证集性能指标;根据所述接收到的超参数值集和所述对应的验证集性能指标确定所述主机器学习模型的更新的超参数值集;向所述联邦学习服务器发送所述主机器学习模型的所述更新的超参数值集。所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。
根据第二方面,在所述服务器装置的一种可能的实现方式中,所述处理器用于使所述服务器装置维护从所述联邦学习服务器上的主机器学习模型获得的接收到的超参数值和对应的验证集性能指标的成对历史数据。所公开实施例的各方面可以在训练联邦学习模型时对超参数进行自适应调整,并且不依赖于超参数配置的重复离线测试。这种连续在线调整不仅提高了推荐的准确性,而且有助于加快收敛,从而降低计算复杂性。
根据第二方面,在所述服务器装置的一种可能的实现方式中,所述处理器用于使用超参数值和所述对应的验证集性能指标的累积历史数据来训练优化模型。所公开实施例的各方面将优化机器学习模型相关的数据传输、存储和安全性的开销成本降至最低,该模型是在固有地分布在数百万台客户端(例如手机或手持设备)之间的大数据上训练的。
根据第二方面,在所述服务器装置的另一种可能的实现方式中,所述处理器用于使所述训练过的优化模型从接收到的超参数值和所述对应的验证集性能指标中推断出所述主机器学习模型的所述更新的超参数值集。所公开实施例的各方面可以在训练联邦学习模型时对超参数进行自适应调整,并且不依赖于超参数配置的重复离线测试。这种连续在线调整不仅提高了推荐的准确性,而且有助于加快收敛,从而降低计算复杂性。
根据第三方面,通过一种方法获得上述以及其它目的和优点。在一个实施例中,所述方法包括:聚合多个接收到的模型更新以更新主机器学习模型;确定是否达到接收到的模型更新的预定义阈值;将从所述更新的主机器学习模型中获得的当前超参数值集和对应的验证集性能指标发送到超参数优化模型;从所述超参数优化模型接收更新的超参数值集;使用所述更新的超参数值集更新所述主机器学习模型;向多个客户端重新分发具有所述更新的超参数值集的所述更新的主机器学习模型。所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。
根据第三方面,在所述方法的一种可能的实现方式中,所述方法包括周期性地从所述超参数优化模型请求更新的超参数值集。所公开实施例的各方面可以在训练联邦学习模型时对超参数进行自适应调整,并且不依赖于超参数配置的重复离线测试。这种连续在线调整不仅提高了推荐的准确性,而且有助于加快收敛,从而降低计算复杂性。
根据第四方面,通过一种方法获得上述以及其它目的和优点。在一个实施例中,所述方法包括:从联邦学习服务器接收主机器学习模型的当前超参数值集和对应的验证集性能指标;根据所述接收到的超参数值集和对应的验证集性能指标确定所述主机器学习模型的更新的超参数值集;向所述联邦学习服务器发送所述主机器学习模型的所述更新的超参数值集。所公开实施例的各方面最大限度地增强了客户的隐私,不需要访问客户的个人数据和模型。在不知道客户端身份的情况下,唯一需要从客户端获得的信息是验证集性能,也称为准确性度量。
根据所述第四方面,在所述方法的一种可能的实现模式中,所述方法包括:使用所述更新的超参数值集更新所述主机器学习模型,重新分发具有所述更新的超参数值集的所述更新的主机器学习模型。所公开实施例的各方面能够以在线连续自适应的方式优化超参数,同时联邦学习主模型继续进行训练。
根据所述第四方面,在所述方法的一种可能的实现方式中,所述方法包括维护超参数值和验证集性能指标的成对历史数据的数据集;使用所述成对历史数据训练优化模型;使用所述训练过的优化模型确定更新的超参数值集。所述解决方案可以在训练联邦学习模型时对超参数进行自适应调整,并且不依赖于超参数配置的重复离线测试。这种连续在线调整不仅提高了推荐的准确性,而且有助于加快收敛,从而降低计算复杂性。
根据所述第四方面,在所述方法的一种可能的实现方式中,具有所述更新的超参数值集的所述更新的主机器学习模型被重新分发给订阅视频服务的多个客户端。所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。
根据第五方面,上述和其它目的和优点是通过存储在其上的程序指令的非瞬时性计算机可读介质获得的。在一个实施例中,当由处理器执行所述程序指令时使所述处理器执行可能的实现方式的方法。所公开实施例的各方面提供了联邦学习模式下的超参数优化,以便为华为视频服务等应用提供准确的个性化推荐。
示例性实施例的这些和其它方面、实现方式和优点将从结合附图考虑的本文描述的实施例中变得显而易见。但应理解,此类描述和附图仅用于说明的目的,而不能作为对本发明的限制;对本发明的任何限制,应参考所附权利要求书。本发明的附加方面和优点将在随后的说明书阐述,并且,部分方面和优点在说明书中显而易见,或者可以通过实施本发明而了解。此外,本发明的方面和优点可以通过所附权利要求书中特别指出的手段或结合方式实现和获得。
附图简要说明
在本发明的以下详述部分中,将参考附图中所示出的示例实施例来更详细地解释本发明,其中:
图1示出了结合所公开实施例的各方面的示例性系统的示意图;
图2示出了结合所公开实施例的各方面的示例性联邦学习系统的示意图;
图3示出了结合所公开实施例的各方面的推荐系统的示意图;
图4示出了结合所公开实施例的各方面的示例性方法;
图5示出了结合所公开实施例的各方面的示例性方法;
图6示出了结合所公开实施例的各方面的过程的示例性时序图;
图7示出了可用于实践所公开实施例的各方面的示例性装置的示意图。
具体实施方式
图1示出了结合所公开实施例的各方面的示例性系统10。所公开实施例的各方面涉及系统10,用于执行联邦学习(Federated Learning,FL)系统中的超参数优化,而不泄露个性化推荐系统中的超参数优化通常所需的个人用户数据。根据所公开实施例的各方面,个性化推荐系统中的超参数优化使用历史数据来预测下一组可能最佳或更好的超参数值。超参数和对应的优化不需要访问用户个人数据或本地模型。相反,所需要的只是超参数值和使用这些值获得的对应验证集性能的历史数据。
如图1所示,在一个实施例中,系统10包括服务器装置100。在一个实施例中,服务器装置是用于联邦学习(Federated Learning,FL)模型的联邦学习服务器,其示例在PCT/EP2017/084494和PCT/EP2017/084491中描述,这两个申请的公开内容通过全文引用的方式并入本文本中。然而,为了生成精细化和更准确的个性化推荐,联邦学习模型需要超参数优化。服务器装置100用于聚合多个接收到的模型更新以更新机器学习模型。所公开实施例的各方面用于在联邦学习模式下执行自适应超参数优化。个人数据是完全私有的并局限于客户端设备200上。机器学习模型是在线学习的,从客户端200异步获取更新。服务器装置200至少包括处理器102和存储器108,如本文将进一步描述。
图1所示的服务器装置100连接或以其它方式耦合到服务器装置104,服务器装置104在本文中通常被描述为超参数优化器或模型104。在一个实施例中,服务器装置104可以是服务器装置100的一部分,或包括在服务器装置100中。在可选实施例中,服务器装置104是单独的设备,并且至少包括处理器114和存储器124。例如,服务器装置100通过互联网等网络12耦合到客户端设备200。
在一个实施例中,如果达到接收到的模型更新的预定义阈值,则服务器装置100用于将从所述更新的主机器学习模型获得的当前超参数值集和对应的验证集性能指标发送到超参数优化服务器104的超参数优化模型。超参数优化模型104不是服务器装置100上的机器模型的一部分,并且与服务器装置100上的机器模型各自独立。所公开实施例的各方面可以在训练联邦学习模型时对超参数进行自适应调整,并且不依赖于传统推荐模型中常见的超参数配置的重复离线测试。所公开实施例的各方面提供的连续在线调整不仅提高了推荐的准确性,而且有助于加快聚合,从而降低计算复杂性。因此,因为这些效率迄今尚未实现,所公开实施例的各方面还提供了对计算机和计算技术的改进。
服务器装置100还用于从超参数优化模型104接收更新的超参数值集,并使用该更新的超参数值集更新服务器装置100的主机器学习模型。这时,可以给客户端200重新分发具有更新的超参数值集的更新的主机器学习模型。所公开实施例的各方面将优化机器学习模型相关的数据传输、存储和安全性的开销成本降至最低,该模型是在固有地分布在数百万台客户端200(例如手机或手持设备)之间的大数据上训练的。不需要访问客户端的个人数据或模型,所公开实施例的各方面也不需要在中央服务器中传输、存储或保护客户端的数据和本地模型。相反,在不知道客户端200的身份的情况下,唯一需要从客户端200获得的信息是验证集性能,也称为准确性度量。
图2示出了结合所公开实施例的各方面的系统20的一个实施例。在本示例中,联邦学习服务器202,在本文中也称为联邦学习服务器主模型202,与超参数优化器或服务器204相连或耦合。虽然联邦学习服务器202和超参数优化器204在图2的示例中被示为单独的设备,但所公开实施例的各方面并不限于此。在替代实施例中,服务器202和204可以包括单个设备或服务器。
如图2所示,联邦学习服务器202包括主模型。联邦学习服务器202的主模型不是超参数优化器204的一部分,并且与超参数优化器204分离。此外,超参数优化器204不能访问主模型和数据。这与传统的超参数优化器技术方案不同,在传统方案中,主模型和数据是超参数优化器的一部分。
在图2的示例中,超参数优化器204从联邦学习服务器主模型202接收当前超参数配置和性能指标作为输入212。联邦学习服务器主模型202收集和存储当前配置和性能指标,作为客户端发送的模型更新的一部分。超参数优化器204用于更新配置历史数据并学习优化模型。在一个实施例中,联邦学习服务器主模型202用于定期向超参数优化器204发送212超参数值和性能指标,以便在超参数优化器204中构建历史数据。在一个实施例中,图2中的超参数优化器204维护超参数值和对应的验证集性能指标的成对历史数据,超参数值和对应的验证集性能指标是在使用这些值训练时从联邦学习主模型中获得的。
超参数优化器204使用历史数据(超参数值-验证集性能)来训练优化模型,例如贝叶斯(Bayesian)优化模型。假设当前超参数和性能值作为新的输入查询,优化模型推断联邦学习主模型的下一组可能最佳的超参数。可以将新的或更新的超参数配置输出214或以其它方式发送到联邦学习服务器202。
联邦学习主模型202用于使用新的值更新主模型中的当前超参数,并将主模型的更新副本分发到客户端200a至200n中的一个或多个上。客户端数据保持为私有的和分散的。可以理解,系统20可以包括任意合适数量的客户端200a至200n。以此方式,所公开实施例的各方面能够以连续自适应调整的方式在线优化超参数,同时联邦学习服务器202的主模型继续进行训练。这与联邦学习系统中的传统超参数优化方法相反。
图3示出了推荐系统300中所公开实施例的各方面的一种示例性实现方式。在本示例中,推荐系统300为华为视频服务(Huawei Video Service)。华为视频服务300在移动设备上为所服务的每个用户生成个性化推荐。在本示例中,推荐系统300包括服务器端202和客户端200。客户端200通常表示用户设备,例如移动通信设备或移动电话。可以理解,客户端200包括多个用户设备,例如图2中提到的客户端200a至200n。为了更好地描述本文,仅描述客户端200上的一个客户端。然而,这里的描述通常应用于客户端200上的每个客户端或用户设备。
推荐系统300的服务器端202包括一个或多个处理器,所述一个或多个处理器运行联邦学习模式下的两个算法。协同过滤器(Collaborative Filter,CF)312用于生成用户特定的视频推荐候选集。预测模型(Predictive Model,PM)314用于对候选集中的每个视频进行评分,并生成最终的视频推荐。
客户端200上的一个客户端,在本文中也称为一个或多个客户端设备,也包括一个或多个处理器,所述一个或多个处理器运行联邦学习模式下的两种算法。在本示例中,客户端200上的协同过滤器(Collaborative Filter,CF)322用于接收和生成用户特定的视频推荐候选集325。客户端200上的预测模型(Predictive Model,PM)324用于对候选集中的每个视频进行评分326,并生成最终的视频推荐集327。如应用于图2的示例一样,客户端上的每个客户端200a至200n会生成最终的视频推荐集327。
协同过滤器322根据用户的视频观看事件或行为数据生成候选集325。预测模型324根据用户的个人数据对候选集325重新评分326。在本示例中,候选集325被视为全部视频的子集,根据用户的观看行为进行过滤。然后,该过滤集被重新评分326,使得很可能被用户喜欢的视频获得高分并被推荐。
所公开实施例的各方面可用于优化协同过滤器312、322和预测模型314、324的超参数。在一个实施例中,华为视频服务在其服务器上初始化两个超参数优化器204,一个用于协同过滤器312,一个用于预测模型314。优化器204对服务器端302的主模型给出初步超参数建议值。
初始化验证集性能指标:华为视频服务在其服务器202上初始化验证集性能指标,即均方根误差(Root Mean Squared Error,RMSE)和记录损失,一个用于协同过滤器312,一个用于预测模型314。性能指标由客户端200收集,并由超参数优化器204用于推断新的超参数。
初始化主模型:华为视频服务在其服务器202上创建两个主模型,一个用于协同过滤器312,一个用于预测模型314。两个主模型使用超参数优化器204建议的相应超参数进行初始化。
客户端200:上述每个主模型和性能指标被分发到图3所示的客户端200上的每个华为视频服务用户设备。服务器端202的主模型和性能指标,称为客户端200上的本地主模型,现在驻留在图2所示的用户设备200a至200n等用户设备上,并且具有与服务器202上的主模型相同的超参数配置。在一个实施例中,现在驻留在客户端200上的本地主模型通常用于生成推荐,更新,训练和评估。
在一个实施例中,协同过滤器322的本地主模型用于使用本地用户数据为用户生成候选视频集325。本示例中的本地用户数据可以包括但不限于用户在该设备上观看的视频。生成的候选视频集325由本地预测模块324根据用户个人数据进行评分326。例如,用户个人数据可以包括但不限于用户使用的其它应用程序、存储在用户设备上的出生日期、设备的位置等。评分326的结果是最终的视频列表或视频集327,其作为视频推荐个人集生成或提供给用户。然后,本地生成的视频推荐可以在设备上显示给或以其它方式呈现给用户。以这种方式,鼓励特定客户端设备200的用户从该个性化集合327中选择一个或多个视频推荐进行观看。
客户端200还能够更新和训练本地设备或用户设备(例如图2的设备200n)上的本地主模型。根据用户在华为视频服务中观看不同视频的情况,将不同视频随机分为训练集、验证集和测试集。使用训练集更新相应协同过滤器322的本地主模型。由于系统300包括许多不同的客户端设备200,每个用户或客户端设备200的本地主模型更新是不同的且独立的。
使用训练集并根据用户的个人数据,例如,用户对设备上其它服务的使用情况、用户的年龄和性别,更新本地预测模型324。在这里,系统300中不同用户的更新同样是不同的且独立的。
来自客户端设备200的协同过滤器322和预测模型324的本地主模型更新被传送回服务器端202。在本示例中,服务器端202为华为视频服务服务器。因此,华为视频服务服务器要接收并可以聚合来自推荐系统300中的每个客户端设备200的多个本地主模型更新。
在客户端200上,使用本地数据为每个用户独立生成验证集325和训练集327视频推荐。训练集327用于更新本地模型。验证集325用于评估本地模型并计算验证集性能指标。对验证集推荐进行评估,以更新验证集性能指标。本地协同过滤器322和预测模型324模型的验证集性能指标更新被传送回联邦学习服务器,或者在本示例中,传回联邦学习主模型所在的华为视频服务服务器202。
还参考图4,在服务器端202上,例如华为视频服务,聚合402从客户端设备200接收的协同过滤器模型更新,以更新协同过滤器312主模型。对从每个客户端设备200接收的协同过滤器验证集性能指标更新求平均,以创建新的更新的协同过滤器指标,称为RMSE。当达到404协同过滤器模型更新的预定义阈值或一些其它合适的间隔时,协同过滤器312的主模型将当前超参数和性能指标发送406到优化器204,并请求新的超参数值。
在一个实施例中,优化器204用于更新超参数配置或值和对应的验证集性能指标RMSE值的历史数据。优化器204更新协同过滤器312的优化模型,并预测新的超参数值集,并将新的超参数值发送回协同过滤器312的主模型。
一旦在服务器202中接收到408,协同过滤器312的主模型用于使用新的超参数配置或值替换和更新410协同过滤器312的当前超参数。协同过滤器312的更新的主模型的副本在所有客户端200之间重新分发412。更新的协同过滤器主模型替换每个客户端200的相应协同过滤器322中的本地主模型。
服务器202还用于聚合从每个客户端200获得的预测模型更新,并更新服务器202的预测模型314的主模型。对从预测模型324的每个客户端接收的验证集性能指标更新求平均,以创建新的更新的预测模型指标,在本文中通常称为记录损失。当达到不同预测模型324的模型更新的预定义阈值或间隔时,预测模型314的主模型向优化器204发送当前超参数和性能指标,并请求新的值。
还参考图5,在一个实施例中,优化器204接收502请求,并用于确定和更新504超参数配置和对应的验证集性能指标的历史数据,在此称为记录损失值。优化器204更新预测模型314的优化模型。优化器204用于预测新的超参数配置集,并向预测模型324的主模型发送新的超参数集506。
在一个实施例中,优化器204还用于维护508超参数值的成对历史数据。优化器204可以使用超参数值的成对历史数据来训练510优化模型。训练优化模型可生成新的超参数集,以用于更新服务器202的主模型。
预测模型314的主模型使用优化器204提供的新配置或值替换当前超参数。预测模型314的更新的主模型被重新分发到所有客户端200之间,并替换相应客户端200的预测模型324中的本地主模型。从这里重复这个过程。
图6通过示例性时序图示出了为推荐系统(如华为视频服务)生成个性化推荐的过程。具体地,还参考图2,图6的示例性时序图示出了超参数优化器204与联邦学习服务器202的交互以获得新的超参数值。用于推断最优超参数集的算法和基础优化模型是贝叶斯(Bayesian)优化模型。华为技术有限公司赫尔辛基研究中心EU云技术的Ammad-ud-din等人撰写的标题为“联邦学习方法中机器学习模型的超参数优化(Hyper-parameteroptimization of a machine learning model in a Federated Learning approach)”的论文中描述了这种贝叶斯优化模型的一个示例,提出了联邦机器学习算法的超参数优化方法,其公开内容全文通过引用的方式并入本文本中。
参考图6,在初始化步骤6.1中,超参数优化器204对主模型给出6.11初步超参数建议值。超参数优化器204被初始化并用于维护超参数值和对应的性能指标。
联邦学习服务器主模型202在其服务器上创建两个主模型,一个用于协同过滤器(CF-SM),另一个用于预测模型(PM-SM)。使用超参数优化器204建议的相应超参数初始化6.11这两个模型CF-SM和PM-SM。将主模型CF-SM和PM-SM的副本分发6.12到用户设备或客户端200。主模型CF-SM和PM-SM的副本6.13以及性能指标现在驻留在用户设备200上,现在被称为本地主模型CF-CM和PM-CM,并且具有与服务器202上的主模型CF-SM和PM-SM相同的超参数配置。
下一阶段或步骤包括模型更新6.2。客户端200向联邦服务器主模型202发送6.21本地模型更新CF-CM和PM-CM。使用从客户端200接收的本地模型更新来更新包括CF-SM和PM-SM的主模型。例如,在这一点上,如果将新视频添加到集合中,则主模型考虑新视频的元数据6.23。将更新的主模型CF-SM和PM-SM分发6.24到客户端200。
在一个实施例中,在超参数优化步骤6.3中,如果已经达到模型更新的预定义阈值,联邦学习服务器202将当前超参数值和对应的性能指标发送6.31到超参数优化器204。超参数优化器204用于推断6.32一个新的超参数值。然后,超参数优化器204用于将新的超参数值发送6.33到联邦学习服务器202。
在推荐阶段6.4中,通过使用协同过滤器生成6.41候选集,并使用预测模型记录6.42候选集,向用户显示个性化视频推荐。为了向用户显示6.45推荐的视频,客户端设备200向华为视频服务请求6.43视频内容。客户端设备200记录关于观看6.46推荐的视频的信息。
图7示出了用于实现所公开实施例的各方面的示例性装置1000的框图。装置1000适合于在无线网络中使用,并且可以在用户设备装置100或后端服务器装置200中的一个或多个中实现。
装置1000包括或耦合到处理器或计算硬件1002、存储器1004、射频(radiofrequency,RF)单元1006和用户界面(user interface,UI)1008。在某些实施例中,例如在接入节点或基站中,UI 1008可以从装置1000中移除。当UI 1008被移除时,装置1000可以通过无线或有线网络连接(未示出)远程或本地管理。
处理器1002可以是单独的处理设备,或者可以包括多个处理设备,所述多个处理设备包括专用设备,例如,数字信号处理(digital signal processing,DSP)设备、微处理器、图形处理单元(graphics processing unit,GPU)、专用处理设备或通用计算机处理单元(computer processing unit,CPU)。处理器1002通常包括与DSP协同工作以处理信号处理任务的CPU。处理器1002可以被实现为结合图1描述的处理器102、114和202中的一个或多个,可以用于实现本文描述的方法和过程中的任何一个或多个。
在图10的示例中,处理器1002用于耦合到存储器1004,存储器1004可以是各种类型的易失性和非易失性计算机存储器的组合,例如只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁盘或光盘,或其它类型的计算机存储器。存储器1004用于存储可由处理器1002访问和执行的计算机程序指令,以使处理器1002执行各种期望的计算机实现的过程或方法,例如本文所述的方法。存储器1004可以实现为结合图1描述的存储器设备108、124、208中的一个或多个。
存储在存储器1004中的程序指令被组织为工业中引用的程序指令的集合或组,这些程序指令具有各种术语,例如程序、软件组件、软件模块、单元等。每个模块可以包括一组设计用于支持特定目的的功能。例如,软件模块可以是识别类型,例如虚拟机管理程序、虚拟执行环境、操作系统、应用程序、设备驱动程序或其它传统识别类型的软件组件。存储器1004中还包括程序数据和数据文件,它们可以在执行一组计算机程序指令时由处理器1002存储和处理。
装置1000还可以包括或耦合到收发器等RF单元1006,耦合到处理器1002,处理器1002用于根据与处理器1002交互的数字数据1012发送和接收RF信号,并且可以使用无线网络中的其它节点发送和接收无线电信号。在某些实施例中,RF单元1006包括接收器,能够接收和解释从全球定位系统(global positioning system,GPS)中的卫星发送出来的消息,并与从其它发射器接收的信息一起发挥作用,以获得与计算设备1000的位置有关的定位信息。为了便于发送和接收RF信号,RF单元1006包括天线单元1010,在某些实施例中,天线单元1010可以包括多个天线阵子。多天线1010可用于支持发送和接收可用于波束赋形的MIMO信号。
UI 1008可以包括一个或多个用户接口元件,例如触摸屏、键盘、按钮、语音指令处理器,以及用于与用户交互信息的其它元件。UI 1008还可以包括显示单元,用于显示适合于计算设备或移动用户设备的各种信息,并且UI 1008可以使用任何类型的显示器来实现,例如有机发光二极管(organic light emitting diode,OLED)、液晶显示器(liquidcrystal display,LCD)以及不太复杂的元件,如LED或指示灯。
所公开实施例的各方面涉及一种用于执行联邦机器学习系统的超参数优化的方法和系统。例如,华为视频服务的个性化推荐是一个机器学习问题,需要数据、机器学习模型和超参数优化来进一步提高推荐的准确性。
因此,尽管文中已示出、描述和指出应用于本发明的示例性实施例的本发明的基本新颖特征,但应理解,本领域技术人员可以在不脱离本发明的精神和范围的情况下,对所示出的设备和方法的形式和细节以及设置操作进行各种省略、取代和改变。进一步,明确地希望以大体相同的方式执行大体相同的功能以实现相同结果的那些元件的所有组合均在本发明的范围内。此外,应认识到,结合所公开的本发明的任何形式或实施例进行展示和/或描述的结构和/或元件可作为设计选择的通用项而并入所公开或描述或建议的任何其它形式或实施例中。因此,其意图仅如所附权利要求的范围所表明的那样加以限制。

Claims (15)

1.一种服务器装置(100),其特征在于,包括处理器(102),用于:
聚合多个接收到的模型更新以更新主机器学习模型;
确定是否达到接收到的模型更新的预定义阈值;
将从更新的主机器学习模型中获得的当前超参数值集和对应的验证集性能指标发送到超参数优化模型(104);
从所述超参数优化模型(104)接收更新的超参数值集;
使用所述更新的超参数值集更新所述主机器学习模型;
重新分发具有所述更新的超参数值集的更新的主机器学习模型。
2.根据权利要求1所述的服务器装置(100),其特征在于,所述处理器(102)用于周期性地从所述超参数优化模型(104)请求更新的超参数值集。
3.根据上述权利要求中任一项所述的服务器装置(100),其特征在于,所述主机器学习模型在联邦学习系统中运行。
4.根据上述权利要求中任一项所述的服务器装置(100),其特征在于,所述主机器学习模型是联邦学习协同过滤器模型或联邦学习逻辑回归模型中的一个或多个。
5.一种服务器装置(104),其特征在于,包括处理器(114),用于:
从联邦学习服务器(100)接收主机器学习模型的当前超参数值集和对应的验证集性能指标;
根据所述接收到的超参数值集和所述对应的验证集性能指标确定所述主机器学习模型的更新的超参数值集;
向所述联邦学习服务器(100)发送所述主机器学习模型的所述更新的超参数值集。
6.根据权利要求5所述的服务器装置(104),其特征在于,所述处理器(114)用于使所述服务器装置(104)维护从所述联邦学习服务器上的所述主机器学习模型获得的接收到的超参数值和对应的验证集性能指标的成对历史数据。
7.根据权利要求5或6所述的服务器装置(104),其特征在于,所述处理器(114)用于使用超参数值和所述对应的验证集性能指标的累积历史数据来训练优化模型。
8.根据权利要求7所述的服务器装置(104),其特征在于,所述处理器(114)用于使所述训练过的优化模型从所述接收到的超参数值和所述对应的验证集性能指标中推断出所述主机器学习模型的所述更新的超参数值集。
9.一种方法(400),其特征在于,包括:
聚合(402)多个接收到的模型更新以更新主机器学习模型;
确定(404)是否达到接收到的模型更新的预定义阈值;
将从更新的主机器学习模型获得的当前超参数值集和对应的验证集性能指标发送(406)到超参数优化模型;
从所述超参数优化模型接收(408)更新的超参数值集;
使用所述更新的超参数值集更新(410)所述主机器学习模型;
向多个客户端重新分发(412)具有所述更新的超参数值集的更新的主机器学习模型。
10.根据权利要求9所述的方法(400),其特征在于,包括周期性地从所述超参数优化模型请求更新的超参数值集。
11.一种方法(500),其特征在于,包括:
从联邦学习服务器接收(502)主机器学习模型的当前超参数值集和对应的验证集性能指标;
根据所述接收到的超参数值集和所述对应的验证集性能指标确定(504)所述主机器学习模型的更新的超参数值集;
向所述联邦学习服务器发送(506)所述主机器学习模型的所述更新的超参数值集。
12.根据权利要求11所述的方法(500),其特征在于,还包括:
使用所述更新的超参数值集更新(410)所述主机器学习模型;
重新分发(412)具有所述更新的超参数值集的更新的主机器学习模型。
13.根据权利要求11或12所述的方法(500),其特征在于,还包括:
维护(508)超参数值和验证集性能指标的成对历史数据的数据集;
使用所述成对历史数据训练(501)优化模型;
使用所述训练过的优化模型确定(504)更新的超参数值集。
14.根据权利要求13所述的方法(400),其特征在于,具有所述更新的超参数值集的所述更新的主机器学习模型被重新分发到订阅视频服务的多个客户端。
15.一种非瞬时性计算机可读介质,其特征在于,所述非瞬时性计算机可读介质上存储有程序指令,当处理器执行所述程序指令时,所述程序指令使所述处理器执行根据权利要求11至14中任一项所述的方法。
CN201980094506.4A 2019-03-26 2019-03-26 联邦学习系统中的机器学习模型的超参数优化装置和方法 Pending CN113614750A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2019/057597 WO2020192896A1 (en) 2019-03-26 2019-03-26 Apparatus and method for hyperparameter optimization of a machine learning model in a federated learning system

Publications (1)

Publication Number Publication Date
CN113614750A true CN113614750A (zh) 2021-11-05

Family

ID=65951588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980094506.4A Pending CN113614750A (zh) 2019-03-26 2019-03-26 联邦学习系统中的机器学习模型的超参数优化装置和方法

Country Status (4)

Country Link
US (1) US20220012601A1 (zh)
EP (1) EP3921783A1 (zh)
CN (1) CN113614750A (zh)
WO (1) WO2020192896A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348143B2 (en) * 2019-06-27 2022-05-31 Capital One Services, Llc Dynamic selection of advertisements using deep learning models on client devices
US20220006783A1 (en) * 2020-07-02 2022-01-06 Accenture Global Solutions Limited Privacy preserving cooperative firewall rule optimizer
WO2022080534A1 (ko) * 2020-10-15 2022-04-21 엘지전자 주식회사 디지털 aircomp 시그널링
CN112150280B (zh) * 2020-10-16 2023-06-30 北京百度网讯科技有限公司 提升匹配效率的联邦学习方法及设备、电子设备和介质
CN112150221B (zh) * 2020-11-25 2021-03-16 支付宝(杭州)信息技术有限公司 一种基于联邦学习的直播间业务处理方法、装置及设备
CN112733181B (zh) * 2020-12-18 2023-09-15 平安科技(深圳)有限公司 一种产品推荐方法、系统、计算机设备及存储介质
CA3143855A1 (en) * 2020-12-30 2022-06-30 Atb Financial Systems and methods for federated learning on blockchain
US20220300618A1 (en) * 2021-03-16 2022-09-22 Accenture Global Solutions Limited Privacy preserving cooperative learning in untrusted environments
EP4161085A4 (en) * 2021-03-30 2023-11-01 BOE Technology Group Co., Ltd. REAL-TIME AUDIO/VIDEO CONTENT RECOMMENDATION METHOD AND APPARATUS, DEVICE, AND COMPUTER STORAGE MEDIUM
CN113194489B (zh) * 2021-04-01 2022-09-13 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
WO2022217784A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质
CN113240184B (zh) * 2021-05-21 2022-06-24 浙江大学 一种基于联邦学习的楼宇空间单元冷负荷预测方法及系统
WO2022258149A1 (en) * 2021-06-08 2022-12-15 Huawei Technologies Co., Ltd. User device, server device, method and system for privacy preserving model training
CN113609785B (zh) * 2021-08-19 2023-05-09 成都数融科技有限公司 基于贝叶斯优化的联邦学习超参数选择系统及方法
CN114036122B (zh) * 2021-11-26 2024-08-06 安徽师范大学 基于联邦学习技术的分布式系统日志解析方法
CN114782176B (zh) * 2022-06-23 2022-10-25 浙江数秦科技有限公司 一种基于联邦学习的信贷业务推荐方法
WO2024089064A1 (en) 2022-10-25 2024-05-02 Continental Automotive Technologies GmbH Method and wireless communication system for gnb-ue two side control of artificial intelligence/machine learning model

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846082B (zh) * 2016-12-10 2021-07-30 江苏途致信息科技有限公司 基于硬件信息的旅游冷启动用户产品推荐系统及方法
US20180285759A1 (en) * 2017-04-03 2018-10-04 Linkedin Corporation Online hyperparameter tuning in distributed machine learning
US20190012592A1 (en) * 2017-07-07 2019-01-10 Pointr Data Inc. Secure federated neural networks
US11526799B2 (en) * 2018-08-15 2022-12-13 Salesforce, Inc. Identification and application of hyperparameters for machine learning
US20200082290A1 (en) * 2018-09-11 2020-03-12 International Business Machines Corporation Adaptive anonymization of data using statistical inference

Also Published As

Publication number Publication date
EP3921783A1 (en) 2021-12-15
WO2020192896A1 (en) 2020-10-01
US20220012601A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
CN113614750A (zh) 联邦学习系统中的机器学习模型的超参数优化装置和方法
US8751435B2 (en) System and method for determining client-based user behavioral analytics
JP7521043B2 (ja) コンテンツの擬似パーソナライゼーションのための低エントロピーのブラウジング履歴
US9323835B2 (en) Cloud-based web content filtering
US10762300B1 (en) Techniques to predictively respond to user requests using natural language processing
US11983646B2 (en) Bias scoring of machine learning project data
US20170213257A1 (en) Resource estimation for queries in large-scale distributed database system
US20200201855A1 (en) System to generate curated ontologies
US10262265B2 (en) Systems and methods for generating and communicating application recommendations at uninstall time
WO2020147965A1 (en) Enhanced privacy federated learning system
US10402465B1 (en) Content authority ranking using browsing behavior
US20220277205A1 (en) Automated machine learning to generate recommendations for websites or applications
US9865034B1 (en) Zoom-adaptive data granularity to achieve a flexible high-performance interface for a geospatial mapping system
US8042061B1 (en) Method and system for interface presentation
US20160034532A1 (en) Flexible operators for search queries
US10789619B1 (en) Advertisement metric prediction
US20190042991A1 (en) Resource physical positioning planning tool
US11204965B2 (en) Data analytics and insights brokerage service
US9965566B2 (en) Target criterion-based data file distribution
US20240320279A1 (en) Systems and methods for serving short-form data requests related to usage of cloud computing resources
US11683245B1 (en) Recommendation system with performance management
WO2022044811A1 (ja) レコメンド装置
US20240362221A1 (en) Systems, apparatuses, methods, and computer program products for optimizing search latency
CN117540081A (zh) 车主权益推荐方法、装置、电子设备及存储介质
US7827072B1 (en) Method and system for interface presentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination