CN111368984B - 用于联盟学习的方法、装置及联盟学习系统 - Google Patents
用于联盟学习的方法、装置及联盟学习系统 Download PDFInfo
- Publication number
- CN111368984B CN111368984B CN202010463531.XA CN202010463531A CN111368984B CN 111368984 B CN111368984 B CN 111368984B CN 202010463531 A CN202010463531 A CN 202010463531A CN 111368984 B CN111368984 B CN 111368984B
- Authority
- CN
- China
- Prior art keywords
- model
- member node
- decomposition
- data
- current global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本说明书的实施例提供一种联盟学习方法。联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,第二成员节点维护全局模型。在该方法中,各个第一成员节点从第二成员节点获取当前全局模型;使用本地数据训练当前全局模型,并且按照模型分解策略来将训练好的当前全局模型分解为多个分解模型并发送给第二成员节点,所述多个分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量。第二成员节点使用各个第一成员节点的分解模型的模型参数数据来按照与模型分解策略对应的模型重构策略进行模型重构,并且使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
Description
技术领域
本说明书实施例通常涉及人工智能领域,尤其涉及用于联盟学习的方法、装置以及联盟学习系统。
背景技术
随着人工智能技术的发展,例如深度神经网络(DNN)的业务模型已经逐渐应用于各种业务应用场景,比如,风险评估、语音识别、自然语言处理等。为了实现更好的模型性能,在进行模型训练时需要更多的数据拥有方来提供更多的训练样本数据。例如,在业务模型应用于医疗、金融等领域时,不同的医疗或金融机构会收集不同的数据样本。一旦使用这些数据样本来对业务模型进行联盟学习(Federated Learning),将会极大地提升业务模型的模型精度。
联盟学习是一种新兴的人工智能支撑技术,它的目标是在保证数据拥有方的私有数据(如终端数据、个人隐私数据)安全及符合法律法规规定的前提下,在多个数据拥有方或多个计算节点之间进行高效率的模型学习。
在一种联盟学习场景下,联盟中的多个(两个或两个以上)第一成员节点会分别依据自己的私有数据训练模型,并将训练得到的模型参数发送至第二成员节点,由第二成员节点对模型参数进行整合得到目标模型。按照这种联盟学习方式,在各个第一成员节点使用本地数据训练完业务模型后,各个第一成员节点会同时向第二成员节点发送各自训练好的模型数据,从而导致第二成员节点端发生网络通信堵塞,使得联盟学习时的数据通信效率不佳,进而造成联盟学习效率不高。此外,第一成员节点处带宽资源有限或者带宽资源宝贵,第一成员节点不愿意或者无法向外部发送大量的模型参数。
发明内容
鉴于上述问题,本说明书实施例提供一种用于联盟学习的方法、装置及联盟学习系统。利用该方法、装置及系统,通过在各个本地端完成模型训练后,将训练好的全局模型分解为数据量更少的多个分解模型发送给模型拥有端,并在模型拥有端进行模型重构,可以减少联盟学习时各个模型训练参与方之间的通信数据量,由此提高联盟学习时的通信效率,进而提升联盟学习效率。
根据本说明书实施例的一个方面,提供一种用于联盟学习的方法,所述联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,所述方法由第一成员节点执行,所述方法包括:从所述第二成员节点获取当前全局模型;使用本地数据训练所述当前全局模型;按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;以及将所述多个分解模型的模型参数数据发送给所述第二成员节点,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,并进行模型整合得到当前目标全局模型。
可选地,在上述方面的一个示例中,在所述第一成员节点和所述第二成员节点之间预先绑定所述模型分解策略和所述模型重构策略。
可选地,在上述方面的一个示例中,将所述多个分解模型的模型参数数据发送给所述第二成员节点可以包括:将所述多个分解模型的模型参数数据和所述模型分解策略发送给所述第二成员节点。
可选地,在上述方面的一个示例中,所述模型分解策略可以包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
可选地,在上述方面的一个示例中,所述全局模型可以包括神经网络模型,所述神经网络模型包括输入层、至少两个隐层和输出层,其中,所述模型分解方式包括权值矩阵分解,以及所述模型分解对象包括所述神经网络模型中的隐层间模型结构。
可选地,在上述方面的一个示例中,所述神经网络模型包括至少三个隐层,所述模型分解对象包括所述神经网络模型中的部分隐层间模型结构,以及所述方法还可以包括:基于各个隐层的隐层节点数,确定所述模型分解对象。
可选地,在上述方面的一个示例中,基于各个隐层的隐层节点数,确定所述模型分解对象可以包括:将满足下述公式的隐层i和隐层i+1之间的隐层间模型结构,确定为所述模型分解对象:/(N-1) ,其中,是隐层i的隐层节点数,是隐层i+1的隐层节点数,是隐层j的隐层节点数,是隐层j+1的隐层节点数,N是神经网络模型的隐层总数。
可选地,在上述方面的一个示例中,所述第一成员节点可以具有模型权重,以及将所述多个分解模型的模型参数数据发送给所述第二成员节点可以包括:将所述多个分解模型的模型参数数据和所述模型权重发送给所述第二成员节点,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,以及所述模型权重被所述第二成员节点使用来对重构后的各个第一成员节点处的当前全局模型进行模型整合得到当前目标全局模型。
可选地,在上述方面的一个示例中,各个第一成员节点的模型权重基于各个第一成员节点的数据样本质量确定。
根据本说明书的实施例的另一方面,提供一种用于联盟学习的方法,所述联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,所述方法由第二成员节点执行,所述方法包括:将当前全局模型提供给各个第一成员节点;从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据;使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,所述各个第一成员节点的多个分解模型的模型参数数据通过在该第一成员节点处对经由该第一成员节点使用本地数据训练好的当前全局模型按照模型分解策略进行分解得到,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;以及使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
可选地,在上述方面的一个示例中,经过模型整合而得到的当前目标全局模型被提供给各个第一成员节点,作为下一训练循环过程的当前全局模型来执行循环训练,直到满足循环结束条件。
可选地,在上述方面的一个示例中,从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据可以包括:从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型分解策略。
可选地,在上述方面的一个示例中,所述模型分解策略可以包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
可选地,在上述方面的一个示例中,所述第一成员节点具有模型权重,以及从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据可以包括:从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型权重,使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型可以包括:使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,得到当前目标全局模型。
可选地,在上述方面的一个示例中,所述循环结束条件可以包括:循环次数达到预定循环次数;或者在所述第二成员节点处的模型预测差值在预定范围内。
根据本说明书的实施例的另一方面,提供一种联盟学习方法,所述联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,所述方法包括:各个第一成员节点从第二成员节点获取当前全局模型;在各个第一成员节点处,使用本地数据训练所述当前全局模型,并且按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;第二成员节点从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据;以及在第二成员节点处,使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,并且使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
可选地,在上述方面的一个示例中,经过模型整合而得到的当前目标全局模型被提供给各个第一成员节点,作为下一训练循环过程的当前全局模型来执行循环训练,直到满足循环结束条件。
根据本说明书的实施例的另一方面,提供一种用于联盟学习的装置,所述联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,所述装置应用于第一成员节点,所述装置包括:模型获取单元,从所述第二成员节点获取当前全局模型;模型训练单元,使用本地数据训练所述当前全局模型;模型分解单元,按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;以及模型数据发送单元,将所述多个分解模型的模型参数数据发送给所述第二成员节点,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型并进行模型整合得到当前目标全局模型。
可选地,在上述方面的一个示例中,所述模型数据发送单元将所述多个分解模型的模型参数数据和所述模型分解策略发送给所述第二成员节点。
可选地,在上述方面的一个示例中,所述模型分解策略包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
可选地,在上述方面的一个示例中,所述全局模型包括神经网络模型,所述神经网络模型包括输入层、至少两个隐层和输出层,其中,所述模型分解方式包括权值矩阵分解,以及所述模型分解对象包括所述神经网络模型中的隐层间模型结构。
可选地,在上述方面的一个示例中,所述神经网络模型包括至少三个隐层,所述模型分解对象包括所述神经网络模型中的部分隐层间模型结构,以及所述装置还可以包括:分解策略确定单元,基于各个隐层的隐层节点数,确定所述模型分解对象。
可选地,在上述方面的一个示例中,所述第一成员节点具有模型权重,以及所述模型数据发送单元将所述多个分解模型的模型参数数据和所述模型权重发送给所述第二成员节点。
根据本说明书的实施例的另一方面,提供一种用于联盟学习的装置,所述联盟包括至少两个第一成员节点以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,所述装置应用于第二成员节点,所述装置包括:模型提供单元,将当前全局模型提供给各个第一成员节点;模型数据获取单元,从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据,所述各个第一成员节点的多个分解模型的模型参数数据通过在该第一成员节点处对经由该第一成员节点使用本地数据训练好的当前全局模型按照模型分解策略进行分解得到,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;模型重构单元,使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型;以及模型整合单元,使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
可选地,在上述方面的一个示例中,所述模型数据获取单元从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型分解策略。
可选地,在上述方面的一个示例中,所述第一成员节点具有模型权重,以及所述模型数据获取单元从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型权重,所述模型整合单元使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,得到当前目标全局模型。
根据本说明书的实施例的另一方面,提供一种联盟学习系统,包括:至少两个具有本地数据的第一成员节点,每个第一成员节点包括如上所述用于联盟学习的装置;和第二成员节点,所述第二成员节点维护全局模型,并且包括如上所述的用于联盟学习的装置。
根据本说明书的实施例的另一方面,提供一种电子设备,包括:至少一个处理器,以及与所述至少一个处理器耦合的存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如上所述的在第一成员节点处执行的用于联盟学习的方法。
根据本说明书的实施例的另一方面,提供一种机器可读存储介质,其存储有可执行指令,所述指令当被执行时使得所述机器执行如上所述的在第一成员节点处执行的用于联盟学习的方法。
根据本说明书的实施例的另一方面,提供一种电子设备,包括:至少一个处理器,以及与所述至少一个处理器耦合的存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如上所述的在第二成员节点处执行的用于联盟学习的方法。
根据本说明书的实施例的另一方面,提供一种机器可读存储介质,其存储有可执行指令,所述指令当被执行时使得所述机器执行如上所述的在第二成员节点处执行的用于联盟学习的方法。
附图说明
通过参照下面的附图,可以实现对于本说明书内容的本质和优点的进一步理解。在附图中,类似组件或特征可以具有相同的附图标记。
图1示出了联盟学习系统架构的示例示意图。
图2示出了根据本说明书的实施例的联盟学习系统架构的示例示意图。
图3示出了根据本说明书的实施例的在第一成员节点处执行的联盟学习过程的一个示例的流程图。
图4A和4B示出了根据本说明书的实施例的神经网络模型的示例示意图。
图5示出了根据本说明书的实施例的在第一成员节点处执行的联盟学习过程的另一示例的流程图。
图6示出了根据本说明书的实施例的在第二成员节点处执行的联盟学习过程的流程图。
图7示出了根据本说明书的实施例的在第一成员节点处的用于联盟学习的装置的一个示例的方框图。
图8示出了根据本说明书的实施例的在第一成员节点处的用于联盟学习的装置的另一示例的方框图。
图9示出了根据本说明书的实施例的在第二成员节点处的用于联盟学习的装置的一个示例的方框图。
图10示出了根据本说明书的实施例的用于实现在第一成员节点处的联盟学习过程的电子设备的示意图。
图11示出了根据本说明书的实施例的用于实现在第二成员节点处的联盟学习过程的电子设备的示意图。
具体实施方式
现在将参考示例实施方式讨论本文描述的主题。应该理解,讨论这些实施方式只是为了使得本领域技术人员能够更好地理解从而实现本文描述的主题,并非是对权利要求书中所阐述的保护范围、适用性或者示例的限制。可以在不脱离本说明书内容的保护范围的情况下,对所讨论的元素的功能和排列进行改变。各个示例可以根据需要,省略、替代或者添加各种过程或组件。例如,所描述的方法可以按照与所描述的顺序不同的顺序来执行,以及各个步骤可以被添加、省略或者组合。另外,相对一些示例所描述的特征在其它例子中也可以进行组合。
如本文中使用的,术语“包括”及其变型表示开放的术语,含义是“包括但不限于”。术语“基于”表示“至少部分地基于”。术语“一个实施例”和“一实施例”表示“至少一个实施例”。术语“另一个实施例”表示“至少一个其他实施例”。术语“第一”、“第二”等可以指代不同的或相同的对象。下面可以包括其他的定义,无论是明确的还是隐含的。除非上下文中明确地指明,否则一个术语的定义在整个说明书中是一致的。
图1示出了一种联盟学习系统架构100的示例示意图。
如图1所示,联盟学习系统架构100包括多个数据拥有方110和服务端120。在图1中示出的示例中,多个数据拥有方110包括数据拥有方A、数据拥有方B和数据拥有方C。在其它示例中,多个数据拥有方110例如可以包括两个数据拥有方,或者多于三个数据拥有方。
各个数据拥有方110在本地收集用于联盟学习的数据样本,例如,数据拥有方A收集数据样本,数据拥有方B收集数据样本,以及数据拥有方C收集数据样本。服务端120上部署全局模型W。各个数据拥有方具有的每条数据样本具有全局模型W训练所需的完整维度数据,可以被使用来单独训练全局模型W。
数据拥有方A、B和C与服务端120一起使用数据拥有方A、B和C的数据样本来迭代训练全局模型W。在每次迭代训练时,服务端120将全局模型W提供给数据拥有方A、B和C。数据拥有方A、B和C各自在本地使用各自的数据样本来训练全局模型W,由此分别训练出各自的全局模型、和。
然后,数据拥有方A、B和C分别将各自训练出的全局模型、和提供给服务端120。服务端120按照预定整合规则来对全局模型、和进行模型整合,以得到整合后的全局模型,作为当前训练出的目标全局模型。如果满足迭代结束条件,则模型训练完成。如果不满足迭代结束条件,则服务端120将当前训练出的目标全局模型提供给数据拥有方A、B和C来执行下一迭代过程。
按照上述联盟学习方案,在每次各个数据拥有方110完成各自的本地模型训练后,都需要向服务端120发送各自训练好的全局模型W的模型数据。实际使用的全局模型W的模型数据的数据量较大,比如全局模型W的权值矩阵例如是1000×1000的矩阵,该权值矩阵包括100万个模型参数值,由此各个数据拥有方110向服务端120发送的数据量较大,导致服务端120处容易发生网络通信堵塞,使得联盟学习时的数据通信效率不佳,进而造成联盟学习效率不高。
为了提升联盟学习时的数据通信效率,本说明书实施例提供一种用于联盟学习的方法、装置和联盟学习系统。利用该方法、装置及系统,通过在各个本地端完成模型训练后,将训练好的全局模型分解为数据量更少的多个分解模型发送给模型拥有端,并在模型拥有端进行模型重构,可以减少联盟学习时各个模型训练参与方之间的通信数据量,由此提高联盟学习时的通信效率,进而提升联盟学习效率。
本说明书实施例提供的方法和装置可以由电子设备执行,例如终端设备或服务端设备。换言之,所述方法可以由安装在终端设备或服务器设备的软件或硬件来执行。所述服务器设备包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述终端设备包括但不限于:智能手机、个人电脑(personal computer,PC)、笔记本电脑、平板电脑、电子阅读器、网络电视、可穿戴设备等智能终端设备中的任一种。
在本说明书的实施例中,术语“多个”指的是“两个或两个以上”。术语“第一成员节点”可以是用于本地收集模型训练数据样本的设备或设备方,比如,终端设备、服务器设备等。“第一成员节点”也可以称为“数据拥有方”。在第一成员节点上不部署待训练模型。术语“第二成员节点”可以是部署待训练模型的设备或设备方,比如,终端设备、服务器设备等。在本说明书中,“第二成员节点”也可以称为“服务端”或“模型拥有方”。
在一个实际应用示例中,第二成员节点例如可以是第三方支付平台的服务器,各个第一成员节点例如可以是不同金融机构或医疗机构的私有数据存储服务器。
在本说明提供的实施例中,第一成员节点的本地数据可以包括本地私有数据和本地非私有数据。在本说明书中,本地私有数据是隐私数据,不能泄露给其它成员节点,从而在进行联盟学习时不能以明文或将该数据全部共享给其它成员节点。本地非私有数据是指可以分享给其它成员节点的本地数据。本地非私有数据可以被其它成员节点使用来形成公域数据。
下文以包括3个第一成员节点的联盟学习系统为例,对本说明书的实施例所提供的联盟学习方法、装置及联盟学习系统进行说明。在本说明书的其它实施例中,联盟学习系统可以包括2个第一成员节点,或者多于3个第一成员节点。
图2示出了根据本说明书的实施例的联盟学习系统架构200的示例示意图。
如图2所示,联盟学习系统架构200包括多个第一成员节点210和第二成员节点220。多个第一成员节点210包括第一成员节点A、第一成员节点B和第一成员节点C。第一成员节点A、第一成员节点B、第一成员节点C以及第二成员节点220可以通过例如但不局限于互联网或局域网等的网络相互通信。
各个第一成员节点210在本地收集用于联盟学习的数据样本,例如,第一成员节点A收集数据样本,第一成员节点B收集数据样本,以及第一成员节点C收集数据样本。第二成员节点220上部署全局模型W。各个数据拥有方具有的每条数据样本具有全局模型W训练所需的完整维度数据,可以被使用来单独训练全局模型W。
各个第一成员节点A、B和C与第二成员节点220一起使用第一成员节点A、B和C的数据样本来迭代训练全局模型W。在每次迭代训练时,第二成员节点120将全局模型W提供给各个第一成员节点A、B和C。第一成员节点A、B和C各自在本地使用各自的数据样本来训练全局模型W,由此分别训练出各自的全局模型、和。
然后,各个第一成员节点A、B和C在本地分别对各自的全局模型、和进行模型分解,并且将各自得到的分解模型数据Wi提供给第二成员节点220。各个第一成员节点A、B和C的本地训练过程将在后面参照附图详细说明。
在从各个第一成员节点A、B和C接收到各自的分解模型数据后,第二成员节点220对各个第一成员节点A、B和C的分解模型进行模型重构,以得到各个第一成员节点A、B和C所训练出的当前全局模型、和,随后按照预定整合规则来对全局模型、和进行模型整合,以得到整合后的全局模型,作为当前训练出的目标全局模型。
如果满足迭代结束条件,则模型训练完成。如果不满足迭代结束条件,则第二成员节点220将当前训练出的目标全局模型提供给各个第一成员节点A、B和C来执行下一迭代过程。
要说明的是,在图2中示出的联盟学习中,使用多次迭代过程来完成联盟学习。在一个示例中,也可以不使用多次迭代过程,而仅仅迭代一次来完成联盟学习。
图3示出了根据本说明书的实施例的在第一成员节点处执行的联盟学习过程的一个示例的流程图,下面以第一成员节点A为例来进行说明,其它第一成员节点执行相同的处理。
如图3所示,在块310,第一成员节点A从第二成员节点220获取当前全局模型W。在一个示例中,第一成员节点A可以通过向第二成员节点220发送请求来获取当前全局模型W。在另一示例中,第二成员节点220可以主动向第一成员节点A下发当前全局模型W。
在块330,第一成员节点A按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,多个分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量。在本说明书的实施例中,所述模型分解策略可以包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
术语“模型分解方式”可以是指对当前全局模型进行模型分解的模型分解算法、模型分解逻辑等。例如,在神经网络模型的情况下,当前全局模型的模型参数采用权值矩阵的方式表征,则模型分解方式可以包括权值矩阵分解,即,将当前全局模型的权值矩阵分解为两个或更多个分解矩阵的乘积。例如,将当前全局模型的权值矩阵分解为两个分解矩阵和的乘积,即,。在本说明书的其它实施例中,也可以采用其它合适的模型分解方式来进行模型分解。
经过上述模型分解后,所得到的多个分解模型和的模型参数的数据总量小于当前全局模型的模型参数的数据量。例如,假设当前全局模型的权值矩阵是1000×1000维的权值矩阵,则权值矩阵具有1000×1000=1000,000个权值元素。按照上述模型分解,可以将权值矩阵分解为两个分解矩阵和相乘,其中,是1000×100维的权值矩阵,以及是100×1000维的权值矩阵,即,。具有1000×100=100,000个权值元素,以及具有100×1000=100,000个权值元素,从而第一成员节点A向第二成员节点发送的数据量为200,000个权值元素,远远小于权值矩阵的1000,000个权值元素。
术语“压缩比Rate”可以是指分解后的多个分解模型的模型参数数据量与分解前的当前全局模型的模型参数数据量之间的比例。在上面示出的权值矩阵分解的示例中,压缩比Rate=200,000/1000,000=20%。在本说明书的实施例中,压缩比Rate可以是用户预先定义的期望值。压缩比Rate可以被使用来确定各个分解模型的模型结构。例如,在模型参数使用权值矩阵表征的情况下,压缩比Rate可以被使用来确定各个分解矩阵的矩阵维度。例如,假设为,将其分解为两个分解矩阵和相乘,其中,为,以及为。在这种情况下,可以使用压缩比Rate来确定上述权值矩阵分解中的参数Z,即,每个分解矩阵的矩阵维度。具体地,,在Rate、m和n已知的情况下,可以确定出Z的值。
在本说明书中,术语“模型分解对象”是指被执行模型分解的模型结构。在当前全局模型包括单层模型结构的情况下,模型分解对象是指当前全局模型的全部模型结构。在本说明书的一个实施例中,当前全局模型可以包括多层模型结构。在这种情况下,可以选择该多层模型结构中的部分层模型结构来进行模型分解,而剩余模型结构保持不变。相应地,模型分解对象可以指当前全局模型的部分模型结构。例如,在当前全局模型是神经网络模型的情况下,神经网络模型包括输入层、至少两个隐层和输出层,则可以仅仅对隐层间模型结构进行模型分解,而对输入层与隐层之间的模型结构以及隐层与输出层之间的模型不进行模型分解。在另一示例中,在包括多于两个隐层的情况下,还可以仅仅对部分隐层间模型结构进行模型分解,而不是所有隐层间模型结构。在本说明书中,术语“隐层间模型结构”可以包括两个隐层之间的权值矩阵。
在本说明书中,多个分解模型是指针对当前全局模型的模型分解后得到的所有部分模型结构,包括对模型分解对象分解后得到的模型分解结构以及当前全局模型中的未进行模型分解的部分模型结构。
在本说明书中,术语“每个模型分解对象的模型分解数量”是指每个模型分解对象被分解成多少个分解模型。例如,在模型分解对象是权值矩阵的情况下,每个模型分解对象的模型分解数量是指权值矩阵被分解为多少个分解矩阵相乘。通常,模型分解数量为2个。在本说明书的其它实施例中,模型分解数量也可以采用3个或更多个。每个模型分解对象的模型分解数量可以预先设定,也可以基于压缩比、模型分解对象的模型复杂度、模型训练设备的计算能力和/或计算资源来确定。
回到图3,在块340,第一成员节点A将多个分解模型的模型参数数据发送给第二成员节点,以供第二成员节点进行模型重构。在一个示例中,多个分解模型的模型参数数据可以采用串行数据序列的方式发送给第二成员节点。在这种情况下,第一成员节点首先对所得到的多个分解模型的模型参数数据进行串行序列化,并且在所生成的串行数据序列中,以规定的信息来标识每个分解模型的模型参数,比如,在每个分解模型的模型参数之后增加一个结束比特来表示该结束比特之前的数据为该分解模型的模型参数。或者,可以在串行数据序列的头部设置长度字段信息,该长度字段信息用于规定每个分解模型的模型参数的数据长度等等。在本说明书的其它实施例中,也可以采用其它合适的方式来在串行数据序列中对各个分解模型的模型参数数据进行区分和标识。
在第二成员节点接收到各个第一成员节点发送的分解模型的模型参数数据后,使用各个第一成员节点的多个分解模型的模型参数数据,按照各自的与模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型。例如,在采用权值矩阵分解进行模型分解的情况下,第二成员节点可以根据模型重构策略,确定出各个被分解的模型分解对象所对应的分解模型,并将各个对应的分解模型进行矩阵相乘来重构出该模型分解对象,由此得到各个第一成员节点处的当前全局模型。随后,第二成员节点使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,以得到当前目标全局模型。
在上面示出的示例中,在第一成员节点和第二成员节点之间可以预先绑定模型分解策略和模型重构策略。例如,可以通过预先配置的方式在第一成员节点和第二成员节点之间绑定模型分解策略和模型重构策略。或者,可以通过预先协商的方式,使得第二成员节点能够获悉各个第一成员节点的模型分解策略,从而可以确定出对应的模型重构策略。
在另一示例中,也可以不在第一成员节点和第二成员节点之间预先绑定模型分解策略和模型重构策略。相应地,在块340中,第一成员节点A可以将多个分解模型的模型参数数据以及模型分解策略发送给第二成员节点,以供第二成员节点进行模型重构。
此外,在另一示例中,各个第一成员节点可以具有模型权重。在这种情况下,在块340中,第一成员节点A可以将多个分解模型的模型参数数据和模型权重发送给第二成员节点。在一个示例中,各个第一成员节点的模型权重可以基于各个第一成员节点的数据样本质量来确定。例如,数据样本质量越好,所具有的模型权重越大。
相应地,在第二成员节点处,使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,并且使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,以得到当前目标全局模型。
要说明的是,图3中示出的仅仅是第一成员节点处的一次迭代过程。在使用多次迭代过程来完成全局模型训练时,可以循环执行图3中示出的过程,直到满足循环结束条件。
在本说明书的实施例中,全局模型W可以包括单层模型结构,也可以包括多层模型结构。例如,全局模型W可以包括神经网络模型,比如深度神经网络(DNN)模型、卷积神经网络(CNN)模型等。神经网络模型可以包括输入层、至少两个隐层和输出层。图4A和4B示出了根据本说明书的实施例的神经网络模型的示例示意图。
在图4A示出的神经网络模型中,神经网络模型包括输入层、隐层1、隐层2和输出层。输入层包括4个输入节点,隐层1包括4个隐层节点,隐层2包括3个隐层节点,以及输出层包括1个输出节点。在图4A示出的神经网络模型结构包括输入层到隐层1的第一模型结构,隐层1到隐层2的第二模型结构,以及隐层2到输出层的第三模型结构。第一模型结构可以使用4×4的权值矩阵来表征,第二模型结构可以使用4×3的权值矩阵来表征,以及第三模型结构可以使用3×1的权值矩阵来表征。
在图4B示出的神经网络模型中,神经网络模型包括输入层、隐层1、隐层2、隐层3、隐层4和输出层。输入层包括4个输入节点,隐层1包括4个隐层节点,隐层2包括3个隐层节点,隐层3包括4个隐层节点,隐层4包括3个隐层节点,以及输出层包括1个输出节点。在图4B示出的神经网络模型结构包括输入层到隐层1的第一模型结构,隐层1到隐层2的第二模型结构,隐层2到隐层3的第三模型结构,隐层3到隐层4的第四模型结构,以及隐层4到输出层的第五模型结构。第一模型结构可以使用4×4的权值矩阵来表征,第二模型结构可以使用4×3的权值矩阵来表征,第三模型结构可以使用3×4的权值矩阵来表征,第四模型结构可以使用4×3的权值矩阵来表征,以及第五模型结构可以使用3×1的权值矩阵来表征。
图5示出了根据本说明书的实施例的在第一成员节点处执行的联盟学习过程的另一示例的流程图。在图5示出的示例中,全局模型是具有多层模型结构的神经网络模型,并且该神经网络模型包括至少三个隐层。在本说明书的其它实施例中,全局模型也可以是具有多层模型结构的其它业务模型。
如图5所示,在块510,第一成员节点A从第二成员节点220获取当前神经网络模型W。
在块530,第一成员节点A基于各个隐层的隐层节点数,确定模型分解对象,即,将神经网络模型中的哪些隐层之间的隐层间模型结构确定为模型分解对象。在一个示例中,可以将满足下述公式的隐层i和隐层i+1之间的隐层间模型结构,确定为所述模型分解对象:/(N-1),其中,是隐层i的隐层节点数,是隐层i+1的隐层节点数,是隐层j的隐层节点数,是隐层j+1的隐层节点数,N是神经网络模型的隐层总数。
在如上确定出模型分解对象后,在块540,第一成员节点A基于模型分解策略来对神经网络模型进行模型分解。具体地,第一成员节点A将各个模型分解对象分解为模型分解策略中规定的模型分解数目个分解模型,每个分解模块具有基于压缩比确定出的分解模型维度。同时,保持神经网络模型中的除了模型分解对象之外的剩余模型结构不变。所得到的多个分解模型包括各个模型分解对象的分解模型以及未进行模型分解的剩余模型结构。所得到的分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量。
在块550,第一成员节点A将多个分解模型的模型参数数据以及模型分解策略发送给第二成员节点,以供第二成员节点进行模型重构。
在第二成员节点接收到各个第一成员节点发送的分解模型的模型参数数据后,使用各个第一成员节点的多个分解模型的模型参数数据,按照各自的与模型分解策略对应的模型重构策略重构各个第一成员节点的神经网络模型。例如,第二成员节点可以根据模型重构策略,确定出各个被分解的模型分解对象所对应的分解模型,并将各个对应的分解模型进行矩阵相乘来重构出该模型分解对象,由此得到各个第一成员节点处的神经网络模型。随后,第二成员节点使用重构后的各个第一成员节点处的当前神经网络模型来进行模型整合,以得到当前目标神经网络模型。
同样,图5中示出的仅仅是第一成员节点处的一次迭代过程。在使用多次迭代过程来完成全局模型训练时,可以循环执行图5中示出的过程,直到满足循环结束条件。
图6示出了根据本说明书的实施例的在第二成员节点处执行的联盟学习过程的流程图。
如图6所示,在块610,第二成员节点将当前全局模型提供给各个第一成员节点。在各个第一成员节点处,使用本地数据训练所述当前全局模型,并且按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量。
在块620,第二成员节点从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据。在另一示例中,例如,在第一成员节点和第二成员节点之间未绑定模型分解策略和模型重构策略的情况下,第二成员节点还可以从各个第一成员节点获取对应的模型分解策略。在另一示例中,各个第一成员节点具有模型权重。相应地,第二成员节点还可以从各个第一成员节点获取各自的模型权重。
在块630,第二成员节点使用各个第一成员节点的多个分解模型的模型参数数据来按照与模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型。
在块640,第二成员节点使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。在各个第一成员节点具有模型权重的情况下,第二成员节点使用重构后的各个第一成员节点处的当前全局模型以及各自的模型权重来进行模型整合,以得到当前目前全局模型。
在块650,第二成员节点确定是否满足循环结束条件。在本说明书中,循环结束条件可以包括循环次数达到预定循环次数。在另一示例中,第二成员节点处可以具有本地训练样本数据。相应地,循环结束条件可以包括在第二成员节点处的模型预测差值在预定范围内。
如上参照图1到图6,对根据本说明书的实施例的联盟学习方法进行了描述。
利用图3中示出的联盟学习方法,通过在各个本地端完成模型训练后,将训练好的全局模型分解为数据量更少的多个分解模型发送给模型拥有端,并在模型拥有端进行模型重构,可以减少联盟学习时各个模型训练参与方之间的通信数据量,由此提高联盟学习时的通信效率,进而提升联盟学习效率。
此外,利用图3中示出的联盟学习方法,通过在第一成员节点和第二成员节点之间预先绑定模型分解策略和模型重构策略,从而无需第一成员节点向第二成员节点发送模型分解策略信息,由此进一步减少第一成员节点与第二成员节点的数据传输量。
此外,利用图3中示出的联盟学习方法,通过为各个第一成员节点赋予模型权重,并且使用各个第一成员节点处的经过模型权重加权后的全局模型来进行模型整合,从而可以使得模型整合后的全局模型更加准确。
此外,利用图3中示出的联盟学习方法,通过基于各个第一成员节点的数据样本质量来为各个第一成员节点赋予模型权重,可以使得数据样本质量越好的第一成员节点,在进行模型整合时的贡献越多,由此使得模型整合后的全局模型更加准确。
利用图5中示出的联盟学习方法,在全局模型包括多层模型结构的情况下,可以基于各层模型结构中具有的节点数来确定模式分解对象,从而可以使得仅仅对全局模型中的部分层模型结构进行模型分解,从而可以降低第一成员节点处的模型分解复杂度以及第二成员节点处的模型重构复杂度。
图7示出了根据本说明书的实施例的在第一成员节点处的用于联盟学习的装置(下文中称为联盟学习装置)700的一个示例的方框图。如图7所示,联盟学习装置700包括模型获取单元710、模型训练单元720、模型分解单元730和模型数据发送单元740。
模型获取单元710被配置为从第二成员节点获取当前全局模型。模型获取单元710的操作可以参考上面参照图3描述的块310的操作。
模型训练单元720被配置为使用本地数据训练当前全局模型。模型训练单元720的操作可以参考上面参照图3描述的块320的操作。
模型分解单元730被配置为按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,多个分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量。所述模型分解策略可以包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。模型分解单元730的操作可以参考上面参照图3描述的块330的操作。
模型数据发送单元740被配置为将多个分解模型的模型参数数据发送给第二成员节点。相应地,在各个第一成员节点和第二成员节点之间预先绑定模型分解策略和模型重构策略。在另一示例中,在各个第一成员节点和第二成员节点之间可以未预先绑定模型分解策略和模型重构策略。相应地,模型数据发送单元740可以将多个分解模型的模型参数数据和模型分解策略发送给第二成员节点。
此外,各个第一成员节点可以具有模型权重。相应地,模型数据发送单元740可以将多个分解模型的模型参数数据和模型权重发送给第二成员节点。
在一个示例中,模型获取单元710、模型训练单元720、模型分解单元730和模型数据发送单元740循环操作,直到满足循环结束条件。所述循环结束条件可以包括循环次数达到预定循环次数,或者在第二成员节点处的模型预测差值在预定范围内。
图8示出了根据本说明书的实施例的在第一成员节点处的用于联盟学习的装置(下文称为联盟学习装置)800的另一示例的方框图。如图8所示,联盟学习装置800包括模型获取单元810、模型训练单元820、分解策略确定单元830、模型分解单元840和模型数据发送单元850。图8中示出的联盟学习装置800适用于神经网络模型。所述神经网络模型包括输入层、至少三个隐层和输出层。相应地,模型分解方式包括权值矩阵分解,以及模型分解对象包括神经网络模型中的部分隐层间模型结构。
模型获取单元810被配置为从第二成员节点获取神经网络模型。模型获取单元810的操作可以参考上面参照图5描述的块510的操作。
模型训练单元820被配置为使用本地数据训练当前神经网络模型。模型训练单元820的操作可以参考上面参照图5描述的块520的操作。
分解策略确定单元830被配置为基于各个隐层的隐层节点数,确定模型分解对象。所确定出的模型分解对象与模型分解方式、压缩比和每个模型分解对象的模型分解数目一起构成模型分解策略。分解策略确定单元830的操作可以参考上面参照图5描述的块530的操作。
模型分解单元840被配置为按照模型分解策略来将训练好的当前神经网络模型分解为多个分解模型,多个分解模型的模型参数的数据总量小于当前神经网络模型的模型参数的数据量。模型分解单元840的操作可以参考上面参照图5描述的块540的操作。
模型数据发送单元850被配置为将多个分解模型的模型参数数据和模型分解策略发送给第二成员节点。模型数据发送单元850的操作可以参考上面参照图5描述的块550的操作。
此外,各个第一成员节点可以具有模型权重。相应地,模型数据发送单元850还可以将模型权重发送给第二成员节点。
同样,在一个示例中,模型获取单元810、模型训练单元820、分解策略确定单元830、模型分解单元840和模型数据发送单元850循环操作,直到满足循环结束条件。所述循环结束条件可以包括循环次数达到预定循环次数,或者在第二成员节点处的模型预测差值在预定范围内。
图9示出了根据本说明书的实施例的在第二成员节点处的用于联盟学习的装置(下文称为联盟学习装置)900的一个示例的方框图。如图9所示,联盟学习装置900包括模型提供单元910、模型数据获取单元920、模型重构单元930和模型整合单元940。
模型提供单元910被配置为将当前全局模型提供给各个第一成员节点。各个第一成员节点使用本地数据训练所述当前全局模型,并且按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,多个分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量。模型提供单元910的操作可以参考上面参照图6描述的块610的操作。
模型数据获取单元920被配置为从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据。在另一示例中,例如,在第一成员节点和第二成员节点之间未绑定模型分解策略和模型重构策略的情况下,模型数据获取单元920还被配置为从各个第一成员节点获取对应的模型分解策略。在另一示例中,各个第一成员节点具有模型权重。相应地,模型数据获取单元920还被配置为从各个第一成员节点获取各自的模型权重。模型数据获取单元920的操作可以参考上面参照图6描述的块620的操作。
模型重构单元930被配置为使用各个第一成员节点的多个分解模型的模型参数数据来按照与模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型。模型重构单元930的操作可以参考上面参照图6描述的块630的操作。
模型整合单元940被配置为使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
在一个示例中,第一成员节点可以具有模型权重。相应地,模型数据获取单元920还可以从各个第一成员节点获取各自的模型权重。模型整合单元940使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,得到当前目标全局模型。
在一个示例中,模型提供单元910、模型数据获取单元920、模型重构单元930和模型整合单元940循环操作,直到满足循环结束条件。所述循环结束条件可以包括循环次数达到预定循环次数,或者在第二成员节点处的模型预测差值在预定范围内。
如上参照图1到图9,对根据本说明书实施例的联盟学习方法和联盟学习装置进行了描述。上面的联盟学习装置可以采用硬件实现,也可以采用软件或者硬件和软件的组合来实现。
图10示出了根据本说明书的实施例的用于实现在第一成员节点处的联盟学习过程的电子设备的示意图。如图10所示,电子设备1000可以包括至少一个处理器1010、存储器(例如,非易失性存储器)1020、内存1030和通信接口1040,并且至少一个处理器1010、存储器1020、内存1030和通信接口1040经由总线1060连接在一起。至少一个处理器1010执行在存储器中存储或编码的至少一个计算机可读指令(即,上述以软件形式实现的元素)。
在一个实施例中,在存储器中存储计算机可执行指令,其当执行时使得至少一个处理器1010:从第二成员节点获取当前全局模型;使用本地数据训练所述当前全局模型;按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,多个分解模型的模型参数的数据总量小于当前全局模型的模型参数的数据量;以及将多个分解模型的模型参数数据发送给第二成员节点,所述多个分解模型的模型参数数据被第二成员节点使用来按照与模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型并进行模型整合得到当前目标全局模型。
应该理解,在存储器中存储的计算机可执行指令当执行时使得至少一个处理器1010进行本说明书的各个实施例中以上结合图1-9描述的各种操作和功能。
根据一个实施例,提供了一种比如机器可读介质(例如,非暂时性机器可读介质)的程序产品。机器可读介质可以具有指令(即,上述以软件形式实现的元素),该指令当被机器执行时,使得机器执行本说明书的各个实施例中以上结合图1-9描述的各种操作和功能。具体地,可以提供配有可读存储介质的系统或者装置,在该可读存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该系统或者装置的计算机或处理器读出并执行存储在该可读存储介质中的指令。
图11示出了根据本说明书的实施例的用于实现在第二成员节点处的联盟学习过程的电子设备的示意图。如图11所示,电子设备1100可以包括至少一个处理器1110、存储器(例如,非易失性存储器)1120、内存1130和通信接口1140,并且至少一个处理器1110、存储器1120、内存1130和通信接口1140经由总线1160连接在一起。至少一个处理器1110执行在存储器中存储或编码的至少一个计算机可读指令(即,上述以软件形式实现的元素)。
在一个实施例中,在存储器中存储计算机可执行指令,其当执行时使得至少一个处理器1110:将当前全局模型提供给各个第一成员节点;从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据,所述各个第一成员节点的多个分解模型的模型参数数据通过在该第一成员节点处对经由该第一成员节点使用本地数据训练好的当前全局模型按照模型分解策略进行分解得到,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;使用各个第一成员节点的多个分解模型的模型参数数据来按照与模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型;以及使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型。
应该理解,在存储器中存储的计算机可执行指令当执行时使得至少一个处理器1110进行本说明书的各个实施例中以上结合图1-9描述的各种操作和功能。
根据一个实施例,提供了一种比如机器可读介质(例如,非暂时性机器可读介质)的程序产品。机器可读介质可以具有指令(即,上述以软件形式实现的元素),该指令当被机器执行时,使得机器执行本说明书的各个实施例中以上结合图1-9描述的各种操作和功能。具体地,可以提供配有可读存储介质的系统或者装置,在该可读存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该系统或者装置的计算机或处理器读出并执行存储在该可读存储介质中的指令。
在这种情况下,从可读介质读取的程序代码本身可实现上述实施例中任何一项实施例的功能,因此机器可读代码和存储机器可读代码的可读存储介质构成了本发明的一部分。
可读存储介质的实施例包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD-RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机上或云上下载程序代码。
本领域技术人员应当理解,上面公开的各个实施例可以在不偏离发明实质的情况下做出各种变形和修改。因此,本发明的保护范围应当由所附的权利要求书来限定。
需要说明的是,上述各流程和各系统结构图中不是所有的步骤和单元都是必须的,可以根据实际的需要忽略某些步骤或单元。各步骤的执行顺序不是固定的,可以根据需要进行确定。上述各实施例中描述的装置结构可以是物理结构,也可以是逻辑结构,即,有些单元可能由同一物理实体实现,或者,有些单元可能分由多个物理实体实现,或者,可以由多个独立设备中的某些部件共同实现。
以上各实施例中,硬件单元或模块可以通过机械方式或电气方式实现。例如,一个硬件单元、模块或处理器可以包括永久性专用的电路或逻辑(如专门的处理器,FPGA或ASIC)来完成相应操作。硬件单元或处理器还可以包括可编程逻辑或电路(如通用处理器或其它可编程处理器),可以由软件进行临时的设置以完成相应操作。具体的实现方式(机械方式、或专用的永久性电路、或者临时设置的电路)可以基于成本和时间上的考虑来确定。
上面结合附图阐述的具体实施方式描述了示例性实施例,但并不表示可以实现的或者落入权利要求书的保护范围的所有实施例。在整个本说明书中使用的术语“示例性”意味着“用作示例、实例或例示”,并不意味着比其它实施例“优选”或“具有优势”。出于提供对所描述技术的理解的目的,具体实施方式包括具体细节。然而,可以在没有这些具体细节的情况下实施这些技术。在一些实例中,为了避免对所描述的实施例的概念造成难以理解,公知的结构和装置以框图形式示出。
本公开内容的上述描述被提供来使得本领域任何普通技术人员能够实现或者使用本公开内容。对于本领域普通技术人员来说,对本公开内容进行的各种修改是显而易见的,并且,也可以在不脱离本公开内容的保护范围的情况下,将本文所定义的一般性原理应用于其它变型。因此,本公开内容并不限于本文所描述的示例和设计,而是与符合本文公开的原理和新颖性特征的最广范围相一致。
Claims (31)
1.一种用于联盟学习的方法,所述联盟包括至少两个第一成员节点,以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,各个第一成员节点和第二成员节点通过网络相互通信,所述方法由第一成员节点执行,所述方法包括:
从所述第二成员节点获取当前全局模型;
使用本地数据训练所述当前全局模型;
按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;以及
将所述多个分解模型的模型参数数据发送给所述第二成员节点,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构出各个第一成员节点的当前全局模型并进行模型整合得到当前目标全局模型,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器。
2.如权利要求1所述的方法,其中,在所述第一成员节点和所述第二成员节点之间预先绑定所述模型分解策略和所述模型重构策略。
3.如权利要求1所述的方法,其中,将所述多个分解模型的模型参数数据发送给所述第二成员节点包括:
将所述多个分解模型的模型参数数据和所述模型分解策略发送给所述第二成员节点。
4.如权利要求1所述的方法,其中,所述模型分解策略包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
5.如权利要求4所述的方法,其中,所述全局模型包括神经网络模型,所述神经网络模型包括输入层、至少两个隐层和输出层,
其中,所述模型分解方式包括权值矩阵分解,以及所述模型分解对象包括所述神经网络模型中的隐层间模型结构。
6.如权利要求5所述的方法,其中,所述神经网络模型包括至少三个隐层,所述模型分解对象包括所述神经网络模型中的部分隐层间模型结构,以及所述方法还包括:
基于各个隐层的隐层节点数,确定所述模型分解对象。
8.如权利要求1所述的方法,其中,所述第一成员节点具有模型权重,以及
将所述多个分解模型的模型参数数据发送给所述第二成员节点包括:
将所述多个分解模型的模型参数数据和所述模型权重发送给所述第二成员节点,
其中,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,以及所述模型权重被所述第二成员节点使用来对重构后的各个第一成员节点处的当前全局模型进行模型整合得到当前目标全局模型。
9.如权利要求8所述的方法,其中,各个第一成员节点的模型权重基于各个第一成员节点的数据样本质量确定。
10.一种用于联盟学习的方法,所述联盟包括至少两个第一成员节点,以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,各个第一成员节点和第二成员节点通过网络相互通信,所述方法由第二成员节点执行,所述方法包括:
将当前全局模型提供给各个第一成员节点;
从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据,所述各个第一成员节点的多个分解模型的模型参数数据通过在该第一成员节点处对经由该第一成员节点使用本地数据训练好的当前业务模型按照模型分解策略进行分解得到,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;
使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型;以及
使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器。
11.如权利要求10所述的方法,其中,经过模型整合而得到的当前目标全局模型被提供给各个第一成员节点,作为下一训练循环过程的当前全局模型来执行循环训练,直到满足循环结束条件。
12.如权利要求10所述的方法,其中,从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据包括:
从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型分解策略。
13.如权利要求10所述的方法,其中,所述模型分解策略包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
14.如权利要求10所述的方法,其中,所述第一成员节点具有模型权重,以及
从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据包括:
从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型权重,
使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型包括:
使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,得到当前目标全局模型。
15.如权利要求11所述的方法,其中,所述循环结束条件包括:
循环次数达到预定循环次数;或者
在所述第二成员节点处的模型预测差值在预定范围内。
16.一种联盟学习方法,所述联盟包括至少两个第一成员节点,以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,各个第一成员节点和第二成员节点通过网络相互通信,所述方法包括:
各个第一成员节点从第二成员节点获取当前全局模型;
在各个第一成员节点处,使用本地数据训练所述当前全局模型,并且按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;
第二成员节点从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据;以及
在第二成员节点处,使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型,并且使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器。
17.如权利要求16所述的联盟学习方法,其中,经过模型整合而得到的当前目标全局模型被提供给各个第一成员节点,作为下一训练循环过程的当前全局模型来执行循环训练,直到满足循环结束条件。
18.一种用于联盟学习的装置,所述联盟包括至少两个第一成员节点,以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,各个第一成员节点和第二成员节点通过网络相互通信,所述装置应用于第一成员节点,所述装置包括:
模型获取单元,从所述第二成员节点获取当前全局模型;
模型训练单元,使用本地数据训练所述当前全局模型;
模型分解单元,按照模型分解策略来将训练好的当前全局模型分解为多个分解模型,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;以及
模型数据发送单元,将所述多个分解模型的模型参数数据发送给所述第二成员节点,所述多个分解模型的模型参数数据被所述第二成员节点使用来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型并进行模型整合得到当前目标全局模型,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器。
19.如权利要求18所述的装置,其中,所述模型数据发送单元将所述多个分解模型的模型参数数据和所述模型分解策略发送给所述第二成员节点。
20.如权利要求18所述的装置,其中,所述模型分解策略包括下述策略中的至少一个:模型分解方式;压缩比;模型分解对象;和每个模型分解对象的模型分解数量。
21.如权利要求20所述的装置,其中,所述全局模型包括神经网络模型,所述神经网络模型包括输入层、至少两个隐层和输出层,
其中,所述模型分解方式包括权值矩阵分解,以及所述模型分解对象包括所述神经网络模型中的隐层间模型结构。
22.如权利要求21所述的装置,其中,所述神经网络模型包括至少三个隐层,所述模型分解对象包括所述神经网络模型中的部分隐层间模型结构,以及所述装置还包括:
分解策略确定单元,基于各个隐层的隐层节点数,确定所述模型分解对象。
23.如权利要求18所述的装置,其中,所述第一成员节点具有模型权重,以及所述模型数据发送单元将所述多个分解模型的模型参数数据和所述模型权重发送给所述第二成员节点。
24.一种用于联盟学习的装置,所述联盟包括至少两个第一成员节点,以及第二成员节点,每个第一成员节点具有本地数据,所述第二成员节点维护全局模型,各个第一成员节点和第二成员节点通过网络相互通信,所述装置应用于第二成员节点,所述装置包括:
模型提供单元,将当前全局模型提供给各个第一成员节点;
模型数据获取单元,从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据,所述各个第一成员节点的多个分解模型的模型参数数据通过在该第一成员节点处对经由该第一成员节点使用本地数据训练好的当前全局模型按照模型分解策略进行分解得到,所述多个分解模型的模型参数的数据总量小于所述当前全局模型的模型参数的数据量;
模型重构单元,使用各个第一成员节点的多个分解模型的模型参数数据来按照与所述模型分解策略对应的模型重构策略重构各个第一成员节点的当前全局模型;以及
模型整合单元,使用重构后的各个第一成员节点处的当前全局模型来进行模型整合,得到当前目标全局模型,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器。
25.如权利要求24所述的装置,其中,所述模型数据获取单元从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型分解策略。
26.如权利要求24所述的装置,其中,所述第一成员节点具有模型权重,以及所述模型数据获取单元从各个第一成员节点获取该第一成员节点处训练出的当前全局模型的多个分解模型的模型参数数据和所述模型权重,
所述模型整合单元使用重构后的各个第一成员节点处的当前全局模型以及对应的模型权重来进行模型整合,得到当前目标全局模型。
27.一种联盟学习系统,包括:
至少两个具有本地数据的第一成员节点,每个第一成员节点包括如权利要求18到23中任一所述的装置;和
第二成员节点,所述第二成员节点维护全局模型,并且包括如权利要求24到26中任一所述的装置,
其中,所述第一成员节点是不同金融机构或医疗机构的私有数据存储服务器,以及所述第二成员节点是第三方支付平台的服务器,各个第一成员节点和第二成员节点通过网络相互通信。
28.一种电子设备,包括:
至少一个处理器,以及
与所述至少一个处理器耦合的存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如权利要求1到9中任一所述的方法。
29.一种机器可读存储介质,其存储有可执行指令,所述指令当被执行时使得所述机器执行如权利要求1到9中任一所述的方法。
30.一种电子设备,包括:
至少一个处理器,以及
与所述至少一个处理器耦合的存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如权利要求10到15中任一所述的方法。
31.一种机器可读存储介质,其存储有可执行指令,所述指令当被执行时使得所述机器执行如权利要求10到15中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011480599.5A CN112418444B (zh) | 2020-05-15 | 2020-05-27 | 用于联盟学习的方法、装置及联盟学习系统 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020104119246 | 2020-05-15 | ||
CN202010411924 | 2020-05-15 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011480599.5A Division CN112418444B (zh) | 2020-05-15 | 2020-05-27 | 用于联盟学习的方法、装置及联盟学习系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368984A CN111368984A (zh) | 2020-07-03 |
CN111368984B true CN111368984B (zh) | 2021-01-05 |
Family
ID=71212303
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011480599.5A Active CN112418444B (zh) | 2020-05-15 | 2020-05-27 | 用于联盟学习的方法、装置及联盟学习系统 |
CN202010463531.XA Active CN111368984B (zh) | 2020-05-15 | 2020-05-27 | 用于联盟学习的方法、装置及联盟学习系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011480599.5A Active CN112418444B (zh) | 2020-05-15 | 2020-05-27 | 用于联盟学习的方法、装置及联盟学习系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN112418444B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240005341A1 (en) * | 2021-05-08 | 2024-01-04 | Asiainfo Technologies (China), Inc. | Customer experience perception based on federated learning |
CN114021732B (zh) * | 2021-09-30 | 2022-07-29 | 医渡云(北京)技术有限公司 | 一种比例风险回归模型训练方法、装置、系统及存储介质 |
CN114707662A (zh) * | 2022-04-15 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 联邦学习方法、装置及联邦学习系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100553229C (zh) * | 2007-01-24 | 2009-10-21 | 中国科学院计算机网络信息中心 | 一种半覆盖自组织的动态组播路由方法 |
CN103442038B (zh) * | 2013-08-12 | 2019-08-06 | 北京理工大学 | 一种主从分布式协作运行的hla仿真管控 |
US10475165B2 (en) * | 2017-04-06 | 2019-11-12 | Disney Enterprises, Inc. | Kernel-predicting convolutional neural networks for denoising |
CN109754256A (zh) * | 2017-11-08 | 2019-05-14 | 徐蔚 | 基于码链的模型、装置、系统、方法和应用 |
WO2019165000A1 (en) * | 2018-02-20 | 2019-08-29 | Jackson James R | Systems and methods for generating a relationship among a plurality of data sets to generate a desired attribute value |
CN110874650B (zh) * | 2020-01-16 | 2020-04-24 | 支付宝(杭州)信息技术有限公司 | 融合公域数据和私有数据的联盟学习方法、装置和系统 |
-
2020
- 2020-05-27 CN CN202011480599.5A patent/CN112418444B/zh active Active
- 2020-05-27 CN CN202010463531.XA patent/CN111368984B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112418444A (zh) | 2021-02-26 |
CN112418444B (zh) | 2022-03-29 |
CN111368984A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368984B (zh) | 用于联盟学习的方法、装置及联盟学习系统 | |
He et al. | Model inversion attacks against collaborative inference | |
Li et al. | Hermes: an efficient federated learning framework for heterogeneous mobile clients | |
Nguyen et al. | Federated learning for internet of things: A comprehensive survey | |
Liu et al. | From distributed machine learning to federated learning: A survey | |
CN112862011A (zh) | 基于联邦学习的模型训练方法、装置及联邦学习系统 | |
US20210383205A1 (en) | Taxonomy Construction via Graph-Based Cross-domain Knowledge Transfer | |
CN115563650A (zh) | 基于联邦学习实现医疗数据的隐私保护系统 | |
CN114580658A (zh) | 基于区块链的联邦学习激励方法、装置、设备和介质 | |
CN113537400B (zh) | 一种基于分支神经网络的边缘计算节点的分配与退出方法 | |
CN116862012A (zh) | 机器学习模型训练方法、业务数据处理方法、装置及系统 | |
CN111368983A (zh) | 业务模型训练方法、装置及业务模型训练系统 | |
CN111340243B (zh) | 用于联盟学习的方法、装置及联盟学习系统 | |
CN112333217B (zh) | 基于区块链的联合推荐方法和系统 | |
Nguyen et al. | Enhancing Heterogeneous Federated Learning with Knowledge Extraction and Multi-Model Fusion | |
CN113362852A (zh) | 一种用户属性识别方法和装置 | |
CN116431915A (zh) | 一种基于联邦学习和注意力机制的跨域推荐方法与装置 | |
CN108038496B (zh) | 基于大数据与深度学习的婚恋对象匹配数据处理方法、装置、计算机设备和存储介质 | |
CN111950416B (zh) | 基于区块链的人脸识别方法及系统 | |
CN115146292A (zh) | 一种树模型构建方法、装置、电子设备及存储介质 | |
CN112765481A (zh) | 一种数据处理方法、装置、计算机及可读存储介质 | |
CN114359769A (zh) | 视频表征学习方法、视频处理方法、装置、介质及设备 | |
CN114004265A (zh) | 一种模型训练方法及节点设备 | |
Yin et al. | DLDP-FL: Dynamic local differential privacy federated learning method based on mesh network edge devices | |
CN113836566B (zh) | 基于区块链系统的模型处理方法及装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40033194 Country of ref document: HK |