CN113138847A - 基于联邦学习的计算机资源分配调度方法和装置 - Google Patents

基于联邦学习的计算机资源分配调度方法和装置 Download PDF

Info

Publication number
CN113138847A
CN113138847A CN202010061311.4A CN202010061311A CN113138847A CN 113138847 A CN113138847 A CN 113138847A CN 202010061311 A CN202010061311 A CN 202010061311A CN 113138847 A CN113138847 A CN 113138847A
Authority
CN
China
Prior art keywords
participant
model
participants
combination
single data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010061311.4A
Other languages
English (en)
Other versions
CN113138847B (zh
Inventor
孔清清
程建波
彭南博
黄志翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Original Assignee
JD Digital Technology Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JD Digital Technology Holdings Co Ltd filed Critical JD Digital Technology Holdings Co Ltd
Priority to CN202010061311.4A priority Critical patent/CN113138847B/zh
Publication of CN113138847A publication Critical patent/CN113138847A/zh
Application granted granted Critical
Publication of CN113138847B publication Critical patent/CN113138847B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开的实施例公开了基于联邦学习的计算机资源分配调度方法和装置。该方法的一具体实施方式包括:从参与联邦学习的多个参与方获取预先训练的单数据模型;将各参与方进行组合,得到至少一个参与方组合;针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成对应的训练样本集合,采用所生成的训练样本集合训练预设模型,得到与该参与方组合对应的融合模型;采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度。该实施方式实现了计算机资源的合理分配,提高了计算机资源调度的合理性。

Description

基于联邦学习的计算机资源分配调度方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及基于联邦学习的计算机资源分配调度方法和装置。
背景技术
联邦学习,又称联邦机器学习、联合学习或联盟学习,是一项新兴的机器学习技术。联邦学习实现了不同平台、机构等参与方在满足数据隐私、安全和监管要求的前提下能够更加高效、准确的共同使用各自的数据,从而达到节约成本和共赢的效果。
相关技术中,联邦学习的各参与方在提供数据共同训练模型时,各参与方对共同训练模型的作用程度不同。因此可以考虑通过考量各参与方对联邦学习的作用程度来制定各参与方的计算机调度方案,从而实现公平地对待参与方。可见,如何制定公平合理的计算机资源分配方案可以使得各参与方合理地调度计算机资源。作为示例,不同部门作为联邦学习的参与方提供模型训练的数据,最后根据各部门提供的数据对联邦学习的贡献度为各部门分配计算机资源,可以实现对计算机资源的公平合理分配,提高计算机资源调度的合理性。
发明内容
本公开的实施例提出了基于联邦学习的计算机资源分配调度方法和装置。
第一方面,本公开的实施例提供了一种基于联邦学习的计算机资源分配调度方法,该方法包括:从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各参与方的单数据模型的类型相同;将各参与方进行组合,得到至少一个参与方组合,其中,参与方组合包括至少两个参与方;针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型;采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度,其中,评估值用于表征模型的可靠程度。
在一些实施例中,在将该参与方组合所包括的参与方的训练数据结合生成训练样本集合之前,方法还包括:针对多个参与方中的参与方,利用该参与方的单数据模型生成该参与方的训练数据。
在一些实施例中,采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,包括:针对至少一个参与方组合中的参与方组合,利用该参与方组合的验证样本集合,确定该参与方组合的融合模型的评估值;针对多个参与方中的参与方,利用该参与方的验证样本集合,确定该参与方的单数据模型的评估值;基于所确定的各融合模型的评估值和各单数据模型的评估值,采用夏普利值法确定各参与方的贡献度,按照所确定的贡献度生成计算机资源的分配方案。
在一些实施例中,方法还包括:计算融合模型的AUC值,将融合模型的AUC值确定为融合模型的评估值;计算单数据模型的AUC值,将单数据模型的AUC值确定为单数据模型的评估值。
在一些实施例中,单数据模型通过如下步骤训练得到:获取第一参与方的原始训练数据,基于预设的目标变量和第一参与方的原始训练数据,得到第一参与方的单数据模型,其中,第一参与方为多个参与方中的任一参与方;针对多个参与方中的第二参与方,向该第二参与方发送目标变量,以使该第二参与方基于目标变量和该第二参与方的原始训练数据得到该第二参与方的单数据模型,其中,第二参与方为多个参与方中除第一参与方的参与方。
在一些实施例中,采用相同的时间窗口获取第一参与方的原始训练数据和第二参与方的原始训练数据。
第二方面,本公开的实施例提供了一种基于联邦学习的资源分配装置,装置包括:获取单元,被配置成从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各参与方的单数据模型的类型相同;组合单元,被配置成将各参与方进行组合,得到至少一个参与方组合,其中,参与方组合包括至少两个参与方;训练单元,被配置成针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型;分配方案生成单元,被配置成采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度,其中,评估值用于表征模型的可靠程度。
在一些实施例中,装置还包括:训练数据生成单元,被配置成针对多个参与方中的参与方,利用该参与方的单数据模型生成该参与方的训练数据。
在一些实施例中,分配方案生成单元进一步被配置成针对至少一个参与方组合中的参与方组合,利用该参与方组合的验证样本集合,确定该参与方组合的融合模型的评估值;针对多个参与方中的参与方,利用该参与方的验证样本集合,确定该参与方的单数据模型的评估值;基于所确定的各融合模型的评估值和各单数据模型的评估值,采用夏普利值法确定各参与方的贡献度,按照所确定的贡献度生成计算机资源的分配方案。
在一些实施例中,装置还包括:第一计算单元,被配置成计算融合模型的AUC值,将融合模型的AUC值确定为融合模型的评估值;第二计算单元,被配置成计算单数据模型的AUC值,将单数据模型的 AUC值确定为单数据模型的评估值。
在一些实施例中,单数据模型通过如下步骤训练得到:获取第一参与方的原始训练数据,基于预设的目标变量和第一参与方的原始训练数据,得到第一参与方的单数据模型,其中,第一参与方为多个参与方中的任一参与方;针对多个参与方中的第二参与方,向该第二参与方发送目标变量,以使该第二参与方基于目标变量和该第二参与方的原始训练数据得到该第二参与方的单数据模型,其中,第二参与方为多个参与方中除第一参与方的参与方。
在一些实施例中,单数据模型的训练步骤还包括:采用相同的时间窗口获取第一参与方的原始训练数据和第二参与方的原始训练数据。
本公开的实施例提供的基于联邦学习的计算机资源分配调度方法和装置,从参与联邦学习的多个参与方获取预先训练的单数据模型,之后将各参与方进行组合,得到至少一个参与方组合,而后针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型,最后采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,并按照所生成的分配方案为各参与方进行计算机资源调度,从而实现了利用联邦学习的各参与方的单数据模型和融合模型,采用博弈论生成计算机资源的分配方案,使得计算机资源可以公平合理分配,提高了各参与方计算机资源调度的合理性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的基于联邦学习的计算机资源分配调度方法的一个实施例的流程图;
图3是根据本实施例的基于联邦学习的计算机资源分配调度方法中单数据模型的训练方法的一个实现方式的流程图;
图4是根据本公开的基于联邦学习的计算机资源分配调度方法的又一个实施例的流程图;
图5是根据本公开的基于联邦学习的计算机资源分配调度装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的基于联邦学习的计算机资源分配调度方法或基于联邦学习的计算机资源分配调度装置的示例性系统架构100。
在本实施例中,系统架构100可以包括参与联邦学习的多个参与方,以及用于资源分配的服务器。如图1所示,系统架构100可以包括参与方101、102、103,网络104和服务器105。其中,网络104 用以在各参与方101、102、103之间提供通信链路的介质,以及网络 104还用以在参与方101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
参与方101、102、103之间可以通过网络104进行交互,以接收或发送数据等。进一步地,参与方101、102、103还可以通过网络104 与服务器105交互,以接收或发送数据等。这里,参与方101、102、 103可以为参与联邦学习的对象,例如,参与方可以为公司内部的不同部门,或者参与方还可以为电商平台、银行平台等为用户提供服务的各种平台,这里没有唯一的限定。
参与方101、102、103可以预先训练得到单数据模型,单数据模型可以为对逻辑回归模型、树模型、神经网络等训练得到的模型,所得到的单数据模型可以为实现各种不同功能的模型,且各参与方的单数据模型的类型相同。例如,单数据模型可以为对用户分类的二分类模型、用于销售量等预测的预测模型等。
服务器105可以是提供各种服务的服务器,例如对参与方101、102、103进行资源分配的后台服务器。后台服务器可以对获取的各参与方的单数据模型等数据进行分析等处理,并得到处理结果(例如计算机资源调度结果)反馈给各参与方。
需要说明的是,本公开的实施例所提供的基于联邦学习的计算机资源分配调度方法可以由服务器105执行。相应地,基于联邦学习的计算机资源分配调度装置可以设置于服务器105中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的参与方、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的参与方、网络和服务器。
继续参考图2,示出了根据本公开的基于联邦学习的计算机资源分配调度方法的一个实施例的流程200。该基于联邦学习的计算机资源分配调度方法,包括以下步骤:
步骤201,从参与联邦学习的多个参与方获取预先训练的单数据模型。
在本实施例中,基于联邦学习的计算机资源分配调度方法(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从参与联邦学习的多个参与方获取各参与方预先训练的单数据模型。其中,各参与方的单数据模型的类型相同。可以理解的是,各参与方采用类型相同的数据对同一模型算法分别进行训练得到的模型可以为类型相同的模型。任一参与方的单数据模型可以为该参与方采用本方的数据训练得到的同类型的模型,例如,单数据模型均为各参与方采用本方数据训练神经网络得到的分类模型。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,将各参与方进行组合,得到至少一个参与方组合。
在本实施例中,上述执行主体(例如图1所示的服务器)可以对各参与方进行组合,确定出至少一个参与方组合。其中,参与方组合可以包括至少两个参与方。可以理解的是,上述执行主体可以从上述多个参与方的所有组合方式中去除仅包含一个参与方的组合,剩余的组合即为得到的参与方组合。例如,若参与联邦学习的参与方包括A、 B、C,则所得到的参与方组合可以包括AB、BC、AC、ABC。
步骤203,针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型。
在本实施例中,基于步骤202得到的至少一个参与方组合,针对其中任一参与方组合,上述执行主体可以采用该参与方组合的训练样本集合进行模型训练。针对至少一个参与方组合中的参与方组合的训练样本集合可以通过如下方式得到:获取该参与方组合所包含的各参与方的训练数据;将所获取的数据相结合得到该参与方组合的训练样本集合。其中,上述执行主体可以通过各种方式获取参与方的训练数据,例如,可以从各参与方所在的平台获取该平台所产生的数据作为参与方的训练数据。最后,上述执行主体可以利用该参与方组合的训练样本集合训练预设模型,从而可以得到该参与方组合的融合模型。如此,上述执行主体可以利用该步骤的方法得到每个参与方组合的融合模型。可以理解的是,上述融合模型的训练方法可以根据实际的业务场景确定,例如,上述预设模型可以为逻辑回归模型,训练样本集合可以包括多个训练样本,各训练样本包括输入数据和与输入数据对应的预测值,利用训练样本集合训练逻辑回归模型可以得到融合模型。
步骤204,采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度。
在本实施例中,基于步骤201获取的各参与方的单数据模型和步骤203得到的各参与方组合的融合模型,上述执行主体可以采用博弈论处理各单数据模型和融合模型,从而可以生成计算机资源的分配方案。例如,上述执行主体可以采用Nash博弈理论处理各单数据模型和融合模型,建立Nash谈判模型以确定各参与方的贡献度,根据所得到的贡献度可以生成计算机资源的分配方案。最后,上述执行主体可以按照所生成的分配方案为参与联邦学习的各参与方调度计算机资源。这里,计算机资源可以包括计算机程序运行时所需的CPU资源、内存资源、硬盘资源和网络资源中的至少一项。
在本实施例的一些可选的实现方式中,上述基于联邦学习的计算机资源调度方法,可以包括:从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各单数据模型可以为采用例如二分类的神经网络训练得到的二分类模型,该二分类模型用于将用户划分为可信和不可信两类;将各参与方进行组合,得到至少一个参与方组合,其中,参与方组合包括至少两个参与方;针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型,其中,融合模型可以为采用例如逻辑回归模型训练得到的二分类模型,该二分类模型可以用于将用户划分为可信和不可信两类;采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度,其中,评估值用于表征模型的可靠程度,计算资源包括内存资源。
作为示例,参与连邦学习的各参与方为公司中不同部门,上述执行主体基于各参与方的单数据模型和各参与方组合的融合模型,采用博弈理论可以准确地确定出参与联邦学习的各部门在联邦学习中的贡献度,并合理地制定出计算机资源的分配方案。最后,上述执行主体可以根据该分配方案为各部门调度计算机资源,从而保证了计算机资源调度的公平合理性,避免出现计算机资源浪费在数据产出质量差的部门,提高了计算机资源的利用率。
在一些可选的实现方式中,步骤201中的单数据模型可以通过如图3所示方法训练得到,图3示出了根据本实施例的基于联邦学习的计算机资源分配调度方法中单数据模型的训练方法的一个实现方式的流程图300。可以理解的是,每个参与方可以在本方建立对应的单数据模型。当然,各参与方的单数据模型还可以在与各参与方相联系的电子设备(例如,图1中所示的服务器)中建立对应的单数据模型,这里没有唯一的限定。上述单数据模型的训练方法的流程300,包括如下步骤:
步骤301,获取第一参与方的原始训练数据,基于预设的目标变量和第一参与方的原始训练数据,得到第一参与方的单数据模型。
在本实现方式中,针对参与联邦学习的多个参与方中的第一参与方,可以建立该第一参与方的单数据模型。其中,第一参与方可以为参与联邦学习的多个参与方中的任一参与方。具体地,可以获取第一参与方的原始训练数据。这里,可以获取第一参与方本方产生数据,而后对所获取的数据进行数据清洗等处理,最后可以将处理过的数据确定为该第一参与方的原始训练数据。这里,可以根据单数据模型的实际应用场景确定第一参与方的原始训练数据,例如,单数据模型可以为用于将用户划分为可信和不可信两类的二分类模型,原始训练数据可以为用户信用卡逾期数据等。对于所获取的第一参与方的原始训练数据,可以采用预设的目标变量进行模型训练,从而可以得到该第一参与方的单数据模型。可以理解的是,在模型训练的过程中可以根据实际的需求确定训练模型的算法,例如,模型训练算法可以为逻辑回归、树模型、神经网络等。
步骤302,针对多个参与方中的第二参与方,向该第二参与方发送目标变量,以使该第二参与方基于目标变量和该第二参与方的原始训练数据得到该第二参与方的单数据模型。
在本实现方式中,针对参与联邦学习的各参与方中的第二参与方,可以建立该第二参与方的单数据模型。这里,可以将参与联邦学习的各参与方中除了第一参与方之外的其它参与方均作为第二参与方。具体地,对于任一第二参与方,第一参与方可以向该第二参与方发送上述目标变量,而后该第二参与方可以获取本方的原始训练数据,将本方的原始训练数据作为单数据模型的训练样本,采用接收到的目标变量对该第二参与方的原始训练数据进行模型训练,从而可以得到训练完成的单数据模型。需要说明的是,第二参与方训练单数据模型的模型算法与第一参与方训练单数据模型的模型算法和目标变量相同,从而使得各参与方训练得到的单数据模型的类型相同。
在一些可选的实现方式中,可以采用相同的时间窗口获取第一参与方和第二参与方的原始训练数据。例如,各参与方的原始训练数据均为过去7天各参与方平台产生的数据。各参与方采用相同的时间窗口获取原始训练数据可以提高各参与方训练得到单数据模型的可用性。
对于参与联邦学习的多个参与方中的各第二参与方,可以均采用步骤302中的方法训练单数据模型。进一步地,第一参与方可以通过加密的方式向第二参与方传输目标变量,从而使得各参与方可以在保护数据隐私的情况下进行例如计算资源等的分配。上述实现方式提供的单数据模型的训练方法,各参与方使用相同的目标变量和各参与方本方的原始训练数据可以使得各参与方训练得到的单数据模型具有相同的类型和特有的参数,从而提高了确定出的各参与方贡献度的准确性。
可以理解的是,本实施例公开的基于联邦学习的计算机资源调度方法不仅可以用于计算机资源的分配调度,采用该方法还可以实现对其它资源(例如,电力资源、物流资源、利润等)的分配调度。
本公开的上述实施例提供的方法,从参与联邦学习的多个参与方获取预先训练的单数据模型,之后将各参与方进行组合,得到至少一个参与方组合,而后针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型,最后采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,并按照所生成的分配方案为各参与方进行计算机资源调度,从而实现了利用联邦学习的各参与方的单数据模型和融合模型,采用博弈论生成计算机资源的分配方案,使得计算机资源可以合理分配,提高了各参与方计算机资源调度的合理性。
进一步参考图4,其示出了基于联邦学习的计算机资源分配调度方法的又一个实施例的流程400。该基于联邦学习的计算机资源分配调度方法的流程400,包括以下步骤:
步骤401,从参与联邦学习的多个参与方获取预先训练的单数据模型。
步骤402,将各参与方进行组合,得到至少一个参与方组合。
在本实施例中,步骤401~步骤402中公开的内容与步骤201~步骤 202中的内容相似,这里不再赘述。
步骤403,针对多个参与方中的参与方,利用该参与方的单数据模型生成该参与方的训练数据。
在本实施例中,基于步骤401所获取的各参与方的单数据模型,针对各参与方的任一参与方,上述执行主体可以利用该参方的单数据模型生成该参与方的训练数据。具体地,可以向该参与方的单数据模型输入数据,并得到该参与方单数据模型输出的预测数据,该输入和输出数据即为该参与方的训练数据。采用该步骤的方法可以使得各参与方利用本方的单数据模型获取本方的训练数据。
步骤404,针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型。
在本实施例中,基于步骤403生成的各参与方的训练数据和步骤 402得到的参与方组合,上述执行主体可以获取各参与方组合的训练样本集合。具体地,针对至少一个参与方组合中的参与方组合,上述执行主体可以确定该参与方组合所包含的参与方,而后获取利用该参与方组和中各参与方的单数据模型生成的训练数据,最后,将所获取的训练数据组合即可以得到该参与方组合的训练样本。上述执行主体获取该参与方组合的训练样本集合后,可以利用所获取的训练样本集合对预设模型(例如逻辑回归模型)进行训练,从而可以得到该参与方组合的融合模型。该融合模型可以为采用融合了该参与方组合中各参与方的训练数据训练得到的模型。上述执行主体可以采用该步骤的方法训练得到各参与方组合的融合模型。
作为示例,参与联邦学习的参与方A、B、C,上述执行主体可以确定出参与方组合可以包括AB、BC、AC、ABC,以及上述执行主体还可以分别利用参与方A、B、C的单数据模型得到参与方A、B、C 的训练数据,将参与方A、B的训练数据结合可以得到参与方组合AB 的训练样本集合。如此,上述执行主体可以分别确定出参与方组合AB、 BC、AC、ABC的训练样本集合。最后,上述执行主体可以利用参与方组合AB的训练样本集合训练预设模型可以得到该参与方组合AB 的融合模型。如此,上述执行主体可以分别确定出参与方组合AB、 BC、AC、ABC的融合模型。
步骤405,采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度。
在本实施例中,基于步骤401获取的各参与方组合的单数据模型和步骤402得到的各融合模型,上述执行主体可以采用博弈论处理各单数据模型和融合模型,从而可以生成计算机资源的分配方案。例如,上述执行主体可以采用Nash博弈理论处理各单数据模型和融合模型,建立Nash谈判模型以确定各参与方的贡献度,根据所得到的贡献度可以生成计算机资源的分配方案。最后,上述执行主体可以按照所生成的分配方案为参与联邦学习的各参与方调度计算机资源。这里,计算机资源可以包括计算机程序运行时所需的CPU资源、内存资源、硬盘资源和网络资源中的至少一项。
在本实施例的一些可选的实现方式中,上述执行主体可以利用各参与方组合的预设的验证样本集合来确定各融合模型的评估值。具体地,针对任一参与方组合,上述执行主体可以获取该参与方组合的验证样本集合,而后利用该参与方组合的验证样本集合来确定该参与方组合的融合模型的评估值。同样地,针对任一参与方,上述执行主体还可以获取该参与方的验证样本集合,而后利用该参与方的验证样本集合来确定该参与方的融合模型的评估值。可以理解的是,针对任一模型的验证样本集合,该验证样本集合中的样本为训练该模型时未使用过的样本。进一步地,上述执行主体还可以利用其它的方法(例如,混淆矩阵)来确定模型的评估值,这里没有唯一的限定。最后,在确定出各融合模型的评估值和单数据模型的评估值之后,上述执行主体可以采用夏普利(shapley)值法确定该参与方的贡献度,并按照所确定的贡献度生成计算机资源的分配方案。
上述shapley值法为博弈论范畴的一种方法,通常可以用来计算多个参与方合作中收益分配和成本均摊的一种算法。具体地,shapley值法可以假设各个参与方地位相同,它的基本思想为参与方所获得的效益等于该参与者对每一个它所在的联盟的边际贡献期望值。shapley值法可以通过参与方与目标函数的关系计算得到该参与者的收益,因此shapley值可以应用在联邦学习评估各个参与方数据的贡献度来进行资源分配的过程中。目标函数可以表示模型的效果,得到各参与方的收益可以为该参与方数据的贡献度。在联邦学习的过程中,shapley值法公式具体如下:
Figure 1
其中,v表示根据实际需求设置的模型评估函数,xi(v)表示在模型评估函数v下第i参与方的贡献度,N表示包含n个参与方的联邦,S表示参与方组合,v(S)表示参与方组合S的融合模型的评估值,v(S-i)表示在参与方组合S中去除参与方i的模型的评估值。w (S)为权重值,且该w(S)可以通过如下公式计算得到:
Figure BDA0002374589060000132
其中,s表示参与方组合S中包含参与方的数目,n表示联邦N 中包含参与方的数目。
在本实施例的一些可选的实现方式中,上述执行主体可以通过 AUC(Area UnderCurve)确定融合模型和单数据模型的评估值。AUC (Area Under Curve)被定义为ROC曲线下的面积,这个面积的数值不会大于1,因此模型的AUC值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,因此AUC的取值范围通常在0.5和1之间。使用AUC值作为模型评估值是因为很多时候ROC曲线并不能清晰的反应模型的效果,而AUC作为数值可以直观的评价出模型的可靠程度,AUC值越大的模型的可靠程度也越好。因此,针对任一融合模型,上述执行主体可以计算该融合模型的AUC值,并将该AUC值确定为融合模型的评估值。针对任一单数据模型,上述执行主体可以计算该单数据模型的AUC值,并将该AUC值确定为单数据模型的评估值。可以理解的是,上述执行主体还可以采用Lift提升度来确定模型的评估值,这里没有唯一的限定。Lift提升度衡量的是一个模型对目标中“响应”的预测能力优于随机选择的倍数,以1为界线,大于1的 Lift表示该模型比随机选择捕捉了更多的“响应”,等于1的Lift表示该模型的表现独立于随机选择,小于1则表示该模型比随机选择捕捉了更少的“响应”。
从图4中可以看出,与图2对应的实施例相比,本实施例中的基于联邦学习的计算机资源分配调度方法的流程400采用与各参与方的单数据模型生成各参与方的训练数据,并利用参与方组合中各参与方中生成的训练数据训练预设模型得到融合模型,把不同单数据模型的预测结果当做训练样本,从而实现了自动赋予不同单数据模型的权重,进一步提高了训练得到融合模型的可靠性,提高了计算机资源调度的合理性。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种基于联邦学习的计算机资源调度装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的基于联邦学习的资源分配装置500包括:获取单元501、组合单元502、训练单元503和分配方案生成单元504。其中,获取单元501被配置成从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各参与方的单数据模型的类型相同;组合单元502被配置成将各参与方进行组合,得到至少一个参与方组合,其中,参与方组合包括至少两个参与方;训练单元503被配置成针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成对应的训练样本集合,采用所生成的训练样本集合训练预设模型,得到与该参与方组合对应的融合模型;分配方案生成单元504被配置成采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度,其中,评估值用于表征模型的可靠程度。
在本实施例的一些可选的实现方式中,装置500还包括:训练数据生成单元,被配置成针对多个参与方中的参与方,利用该参与方的单数据模型生成该参与方的训练数据。
在本实施例的一些可选的实现方式中,分配方案生成单元504进一步被配置成针对至少一个参与方组合中的参与方组合,利用该参与方组合验证样本集合,确定该参与方组合的融合模型的评估值;针对多个参与方中的参与方,利用该参与方的验证样本集合,确定该参与方的单数据模型的评估值;基于所确定的各融合模型的评估值和各单数据模型的评估值,通过夏普利值法确定各参与方的贡献度。
在本实施例的一些可选的实现方式中,装置500还包括:第一计算单元,被配置成计算融合模型的AUC值,将融合模型的AUC值确定为融合模型的评估值;第二计算单元,被配置成计算单数据模型的 AUC值,将单数据模型的AUC值确定为单数据模型的评估值。
在本实施例的一些可选的实现方式中,单数据模型通过如下步骤训练得到:获取第一参与方的原始训练数据,基于预设的目标变量和第一参与方的原始训练数据,得到第一参与方的单数据模型,其中,第一参与方为多个参与方中的任一参与方;针对多个参与方中的第二参与方,向该第二参与方发送目标变量,以使该第二参与方基于目标变量和该第二参与方的原始训练数据得到该第二参与方的单数据模型,其中,第二参与方为多个参与方中除第一参与方的参与方。
在本实施例的一些可选的实现方式中,单数据模型的训练步骤还包括:采用相同的时间窗口获取第一参与方的原始训练数据和第二参与方的原始训练数据。
装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线 604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置 606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各参与方的单数据模型的类型相同;将各参与方进行组合,得到至少一个参与方组合,其中,参与方组合包括至少两个参与方;针对至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型;采用博弈理论处理各融合模型的评估值和各单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各参与方进行计算机资源调度,其中,评估值用于表征模型的可靠程度。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、组合单元、训练单元和分配方案生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“从参与联邦学习的多个参与方获取预先训练的单数据模型的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种基于联邦学习的计算机资源调度方法,包括:
从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各所述参与方的单数据模型的类型相同;
将各所述参与方进行组合,得到至少一个参与方组合,其中,所述参与方组合包括至少两个参与方;
针对所述至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型;
采用博弈理论处理各所述融合模型的评估值和各所述单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各所述参与方进行计算机资源调度,其中,所述评估值用于表征模型的可靠程度。
2.根据权利要求1所述的方法,其中,在将该参与方组合所包括的参与方的训练数据结合生成训练样本集合之前,所述方法还包括:
针对所述多个参与方中的参与方,利用该参与方的单数据模型生成该参与方的训练数据。
3.根据权利要求1所述的方法,其中,所述采用博弈理论处理各所述融合模型的评估值和各所述单数据模型的评估值,生成计算机资源的分配方案,包括:
针对所述至少一个参与方组合中的参与方组合,利用该参与方组合的验证样本集合,确定该参与方组合的融合模型的评估值;
针对所述多个参与方中的参与方,利用该参与方的验证样本集合,确定该参与方的单数据模型的评估值;
基于所确定的各融合模型的评估值和各单数据模型的评估值,采用夏普利值法确定各所述参与方的贡献度,按照所确定的贡献度生成计算机资源的分配方案。
4.根据权利要求1所述的方法,其中,所述方法还包括:
计算所述融合模型的AUC值,将所述融合模型的AUC值确定为所述融合模型的评估值;
计算所述单数据模型的AUC值,将所述单数据模型的AUC值确定为所述单数据模型的评估值。
5.根据权利要求1所述的方法,其中,所述单数据模型通过如下步骤训练得到:
获取第一参与方的原始训练数据,基于预设的目标变量和所述第一参与方的原始训练数据,得到所述第一参与方的单数据模型,其中,所述第一参与方为所述多个参与方中的任一参与方;
针对所述多个参与方中的第二参与方,向该第二参与方发送所述目标变量,以使该第二参与方基于所述目标变量和该第二参与方的原始训练数据得到该第二参与方的单数据模型,其中,所述第二参与方为所述多个参与方中除所述第一参与方的参与方。
6.根据权利要求5所述的方法,其中,所述方法还包括:
采用相同的时间窗口获取所述第一参与方的原始训练数据和所述第二参与方的原始训练数据。
7.一种基于联邦学习的计算机资源调度装置,包括:
获取单元,被配置成从参与联邦学习的多个参与方获取预先训练的单数据模型,其中,各所述参与方的单数据模型的类型相同;
组合单元,被配置成将各所述参与方进行组合,得到至少一个参与方组合,其中,所述参与方组合包括至少两个参与方;
训练单元,被配置成针对所述至少一个参与方组合中的参与方组合,将该参与方组合所包括的参与方的训练数据结合生成训练样本集合,采用所生成的训练样本集合训练预设模型,得到该参与方组合的融合模型;
分配方案生成单元,被配置成采用博弈理论处理各所述融合模型的评估值和各所述单数据模型的评估值,生成计算机资源的分配方案,按照所生成的分配方案为各所述参与方进行计算机资源调度,其中,所述评估值用于表征模型的可靠程度。
8.根据权利要求7所述的装置,其中,所述生成单元进一步被配置成:
针对所述至少一个参与方组合中的参与方组合,利用该参与方组合的验证样本集合,确定该参与方组合的融合模型的评估值;
针对所述多个参与方中的参与方,利用该参与方的验证样本集合,确定该参与方的单数据模型的评估值;
基于所确定的各融合模型的评估值和各单数据模型的评估值,采用夏普利值法确定各所述参与方的贡献度,按照所确定的贡献度生成计算机资源的分配方案。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202010061311.4A 2020-01-19 2020-01-19 基于联邦学习的计算机资源分配调度方法和装置 Active CN113138847B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010061311.4A CN113138847B (zh) 2020-01-19 2020-01-19 基于联邦学习的计算机资源分配调度方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010061311.4A CN113138847B (zh) 2020-01-19 2020-01-19 基于联邦学习的计算机资源分配调度方法和装置

Publications (2)

Publication Number Publication Date
CN113138847A true CN113138847A (zh) 2021-07-20
CN113138847B CN113138847B (zh) 2024-06-18

Family

ID=76809120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010061311.4A Active CN113138847B (zh) 2020-01-19 2020-01-19 基于联邦学习的计算机资源分配调度方法和装置

Country Status (1)

Country Link
CN (1) CN113138847B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609781A (zh) * 2021-08-16 2021-11-05 广域铭岛数字科技有限公司 基于联邦学习的汽车生产模具优化方法、系统、设备及介质
CN114116740A (zh) * 2021-11-10 2022-03-01 新智我来网络科技有限公司 用于联合学习中确定参与方贡献度的方法及装置
CN115169992A (zh) * 2022-09-02 2022-10-11 天聚地合(苏州)科技股份有限公司 基于区块链的数据要素权益分配方法、装置和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050123891A1 (en) * 2003-12-09 2005-06-09 North Carolina State University Systems, methods and computer program products for standardizing expert-driven assessments
US20190087383A1 (en) * 2017-09-19 2019-03-21 Beijing Baidu Netcom Science And Technology Co., Ltd. Intelligent big data system, and method and apparatus for providing intelligent big data service
CN110222762A (zh) * 2019-06-04 2019-09-10 恒安嘉新(北京)科技股份公司 对象预测方法、装置、设备、及介质
CN110490335A (zh) * 2019-08-07 2019-11-22 深圳前海微众银行股份有限公司 一种计算参与者贡献率的方法及装置
WO2019237657A1 (zh) * 2018-06-15 2019-12-19 北京字节跳动网络技术有限公司 用于生成模型的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050123891A1 (en) * 2003-12-09 2005-06-09 North Carolina State University Systems, methods and computer program products for standardizing expert-driven assessments
US20190087383A1 (en) * 2017-09-19 2019-03-21 Beijing Baidu Netcom Science And Technology Co., Ltd. Intelligent big data system, and method and apparatus for providing intelligent big data service
WO2019237657A1 (zh) * 2018-06-15 2019-12-19 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110222762A (zh) * 2019-06-04 2019-09-10 恒安嘉新(北京)科技股份公司 对象预测方法、装置、设备、及介质
CN110490335A (zh) * 2019-08-07 2019-11-22 深圳前海微众银行股份有限公司 一种计算参与者贡献率的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王选飞;吴应良;黄媛;: "基于合作博弈的移动支付商业模式动态联盟企业利益分配研究", 运筹与管理, no. 07 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609781A (zh) * 2021-08-16 2021-11-05 广域铭岛数字科技有限公司 基于联邦学习的汽车生产模具优化方法、系统、设备及介质
CN113609781B (zh) * 2021-08-16 2023-12-26 广域铭岛数字科技有限公司 基于联邦学习的汽车生产模具优化方法、系统、设备及介质
CN114116740A (zh) * 2021-11-10 2022-03-01 新智我来网络科技有限公司 用于联合学习中确定参与方贡献度的方法及装置
CN115169992A (zh) * 2022-09-02 2022-10-11 天聚地合(苏州)科技股份有限公司 基于区块链的数据要素权益分配方法、装置和系统
CN115169992B (zh) * 2022-09-02 2023-01-17 天聚地合(苏州)科技股份有限公司 基于区块链的数据要素权益分配方法、装置和系统

Also Published As

Publication number Publication date
CN113138847B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
US10891161B2 (en) Method and device for virtual resource allocation, modeling, and data prediction
US20190392441A1 (en) Customizing authorization request schedules with machine learning models
US20200167798A1 (en) Customizing customer onboarding for a service with machine learning models
US20190147430A1 (en) Customizing payment sessions with machine learning models
CN110929799B (zh) 用于检测异常用户的方法、电子设备和计算机可读介质
CN113505882B (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
CN111861225B (zh) 一种任务分配方法、装置、电子设备及存储介质
US9292363B2 (en) Predicting application programming interface consumption using social networks
Trivedi et al. The Impact of Artificial Intelligence Integration on Minimizing Patient Wait Time in Hospitals
CN111563267A (zh) 用于联邦特征工程数据处理的方法和装置
CN113138847B (zh) 基于联邦学习的计算机资源分配调度方法和装置
CN113011210B (zh) 视频处理方法和装置
CN113221989B (zh) 基于分布式的评估模型训练方法、系统以及装置
CN111383768A (zh) 医疗数据回归分析方法、装置、电子设备及可读介质
US20230027919A1 (en) Method, apparatus, computer program and computer recordable medium for database construction
CN114860402B (zh) 调度策略模型训练方法、调度方法、装置、设备和介质
CN113781247B (zh) 协议数据推荐方法、装置、计算机设备及存储介质
CN113657724B (zh) 基于多源异构数据的资源分配方法、装置和电子设备
US20210166329A1 (en) Distributed computing system for benefits processing using patient-centric profiling and machine learning
CN113570114A (zh) 一种资源服务智能匹配方法、系统和计算机设备
CN112036418A (zh) 用于提取用户特征的方法和装置
Xu et al. Digital twin-enabled hybrid deep evolutionary framework for smart building sustainable infrastructure management
CN112036160B (zh) 结合rpa和ai的语料数据的获取方法和装置
CN111030811B (zh) 一种数据处理的方法
CN114764668A (zh) 基于横向联合学习参与方的数据贡献力确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant after: Jingdong Technology Holding Co.,Ltd.

Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant