CN114787832A - 联邦机器学习的方法和服务器 - Google Patents

联邦机器学习的方法和服务器 Download PDF

Info

Publication number
CN114787832A
CN114787832A CN201980102933.2A CN201980102933A CN114787832A CN 114787832 A CN114787832 A CN 114787832A CN 201980102933 A CN201980102933 A CN 201980102933A CN 114787832 A CN114787832 A CN 114787832A
Authority
CN
China
Prior art keywords
data
machine learning
learning model
quality
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980102933.2A
Other languages
English (en)
Inventor
P·克里希纳斯瓦米
L·阿南塔拉曼
F·古列特诺
何勉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agency for Science Technology and Research Singapore
Original Assignee
Agency for Science Technology and Research Singapore
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency for Science Technology and Research Singapore filed Critical Agency for Science Technology and Research Singapore
Publication of CN114787832A publication Critical patent/CN114787832A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Abstract

本发明提供了一种使用至少一个处理器的联邦机器学习的方法,所述方法包括:将当前全局机器学习模型传输到复数个数据源中的每一个;分别从所述复数个数据源接收复数个训练更新,所述复数个训练更新中的每一个由相应的所述数据源响应于接收到的所述全局机器学习模型而生成;并且分别基于接收到的所述复数个训练更新以及与所述复数个数据源相关联的复数个数据质量参数来更新所述当前全局机器学习模型,以生成更新的全局机器学习模型。还提供了用于联邦机器学习的相应的服务器。

Description

联邦机器学习的方法和服务器
技术领域
本发明总体上涉及一种联邦机器学习的方法及其服务器。
背景技术
有监督的深度学习算法为各种分类任务(例如图像分类任务)提供了最先进的性能。这些任务的传统途径可能包括三个步骤:(a)集中大型数据存储库,(b)获取这些数据的基本事实注释,以及(c)使用基本事实注释来训练卷积神经网络(CNN)进行分类,然而,这个框架带来了重大的实际挑战。
特别是,数据隐私以及安全问题给创建大型中央数据存储库以进行训练带来了困难。最近的工作已经开发出分散的联邦学习途径,可以在不共享敏感信息的情况下跨多个数据源训练深度学习模型。这些现有的联邦学习途径已经被证明是成功的,但仍然可能存在不准确和/或不可靠的问题,具体取决于它们所训练的数据源。
因此,需要提供一种联邦机器学习的方法及其系统,以寻求克服或至少改善现有联邦机器学习途径或方法中的一个或多个缺陷,例如但不限于,提高联邦机器学习的准确性和/或可靠性。正是在这种背景下开发了本发明。
发明内容
根据本发明的第一方面,提供了一种使用至少一个处理器的联邦机器学习的方法,该方法包括:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于接收到的全局机器学习模型而生成;并且
分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新当前全局机器学习模型,以生成更新的全局机器学习模型。
根据本发明的第二方面,提供了一种用于联邦机器学习的服务器,包括:
存储器;和
至少一个处理器,通信地耦合到存储器并被配置为:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于接收到的全局机器学习模型而生成;并且
分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新当前全局机器学习模型,以生成更新的全局机器学习模型。
根据本发明的第三方面,提供了一种计算机程序产品,包含在一个或多个非暂时性计算机可读存储介质中,包括可由至少一个处理器执行以执行联邦机器学习的方法的指令,该方法包括:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应数据源响应于接收到的全局机器学习模型而生成;并且
分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新当前全局机器学习模型,以生成更新的全局机器学习模型。
附图说明
通过以下仅作为示例的书面描述并结合附图,本发明的实施例对于本领域的普通技术人员来说将会更好理解并且显而易见,其中:
图1描绘了根据本发明的各种实施例的使用至少一个处理器的联邦机器学习的方法的流程图;
图2描绘了根据本发明的各种实施例的用于联邦机器学习的服务器的示意框图;
图3描绘了示例计算机系统,仅作为示例,参照图2描述的服务器可以包含在该示例计算机系统中;
图4描绘了根据本发明的各种实施例的用于联邦机器学习的系统的示意框图;
图5描绘了根据本发明的各种示例实施例的联邦机器学习方法的概述;
图6描绘了根据本发明的各种示例实施例的联邦机器学习的示例方法(或算法);
图7A描绘了根据本发明的各种示例实施例的根据用于确定第一数据质量因子的第一技术的三个示例;
图7B描绘了根据本发明的各种示例实施例的根据用于确定第二数据质量因子的第二技术的两个示例;以及
图8描绘了根据本发明的各种示例实施例的用于在实验中评估集中托管的、联邦的以及加权的联邦学习途径或方法的示例过程的流程图;以及
图9描绘了根据本发明的各种示例实施例的为噪声模拟分配错误标签的可能性的过程的概述。
具体实施方式
本发明的各个实施例提供了一种联邦机器学习的方法及其服务器。
如背景技术中所述,最近的工作已经开发出分散的联邦学习途径,可以在不共享敏感信息的情况下跨多个数据源训练深度学习模型。这些现有的联邦学习途径已经证明是成功的,但仍然可能存在不准确和/或不可靠的问题,具体取决于它们所训练的数据源。特别地,根据本发明的各种实施例,可以确定,这些现有的联邦学习途径要么假设多个数据源中的每一个都提供相同质量的数据(标签数据),要么没有考虑到多个数据源之间的数据的不同质量,导致不准确和/或不可靠。
例如但不限于,根据各种实施例,需要注意的是,医学成像、驾驶员辅助系统、远程传感设备以及众包社交媒体系统领域中的各种应用在跨数据源的数据质量方面表现出高度可变性。在某些情况下,例如,由于图像伪影、采集参数的差异或设备标准,输入数据特征是高度可变的。在其他情况下,例如,由于标签通常对应于不同的专家意见以及判断,并受到人为错误的影响,标签质量可能是可变的,并且基本事实标签可能难以定义。
本领域已知,标签数据可以包括特征(或数据特征)以及标签。例如但不限于,在机器学习中,特征可以是指数据中的信息,这些信息可能对预测任务具有预测力(例如,有助于预测或预测能力),并且也可以称为输入数据特征。标签可以指关于相关联的特征的预测任务的基本事实结果。例如,关于特征质量,所有设备以及采集条件可能无法产生相同质量的图像。举例来说,以1T和3T下操作的医用磁共振(MR)图像扫描仪可能会导致针对特定诊断需求的非常不同的特征质量。此外,关于标签质量,所有专家的知识、技能、经验、判断力、专业化以及声誉可能都不相同。此外,数据注释者的注意力以及疲劳程度可能会有所不同,从而导致标签质量存在差异。例如,在医学成像领域,在对相同样本进行评估时,专家可能经常会与其同事甚至(在以后)与其自己意见相左。在一些复杂的应用程序中,甚至可能期望专家进行不同的评估,专家之间的不一致率可能非常高。因此,本发明的各种实施例确定标签质量可能在数据源、专家以及读数之间显著变化。
在这点上,本发明的各种实施例确认,执行联邦学习的现有努力可能在其解释以及适应跨多个数据源的数据质量以及分布的差异的能力方面受到高度限制。因此,各种实施例涉及对数据不确定性(例如,包括标签不确定性和/或特征不确定性)、弱监督学习、联邦学习以及多视图学习进行建模的努力。
在不使用机器学习的系统中,数据隐私涉及收集消费者/企业数据以及这些数据的未来使用。在使用系统时收集数据。另一方面,在使用机器学习的系统中,除了在使用系统时(即在推理期间)存在数据隐私问题外,在将数据用于训练机器学习模型时还存在数据隐私问题。同态加密等技术可用于在推理期间保护隐私。
传统的有监督机器学习算法需要将训练数据集中在一台机器或数据中心。机器学习社区普遍认为,更多的标签数据会产生更好的模型。然而,将数据集中在一台机器或数据中心可能是不可取的,甚至是不可行的。2017年,引入了联邦学习(FL)(也可以称为联邦机器学习),从而可以在不集中数据的情况下学习高质量的模型。用例是文本短语预测,然后扩展到包括安全聚合。联邦学习也被视为医学领域的重要数据隐私技术。然而,与单个数据生成器(源)通常为手头的学习任务生成质量足够好的数据的应用相比,在医学领域,本发明的各种实施例识别了与不同数据源之间的数据质量差异(例如,显著变化)相关联的问题。
出于机器学习的目的,标签数据可能包括特征(或数据特征)以及标签。例如但不限于,在机器学习中,特征可以是指数据中的信息,这些信息可能对预测任务具有预测力(例如,有助于预测或预测能力),并且也可以称为输入数据特征。标签可以指关于相关联的特征的预测任务的基本事实结果。有监督机器学习旨在学习特征以及标签之间的功能映射。通常,有监督学习需要创建具有高质量特征以及标签的大型标签数据集。然而,创建大型标签数据集是昂贵、耗时且后果严重的。在这方面,机器学习模型对数据的质量——特征以及标签的质量很敏感。
在许多应用程序中,当创建数据集时,数据工程师可能(a)预处理数据以清理特征空间;(b)为数据集中的每个样本收集多个标签,并聚合标签(例如,多数投票)以减轻噪声。在一些情况下,可以自动分配标签,而在其他情况下,“众包”(例如,通过诸如亚马逊的Mechanical Turk之类的平台)可以用作创建以及提高数据质量的手段。然而,本发明的各种实施例确定这种途径对于数据生成需要专门设备、领域知识和/或判断的应用程序(例如,医学领域的应用程序)通常是不可行的。在这种情况下,特征质量可能会在某些采集条件下受到影响。此外,由于可以根据人类专家的判断调用来分配标签,因此专家之间通常可能存在显著差异,从而导致标签质量变化。
对于特征质量变化,许多研究都集中在去噪或缺失数据插补上。然而,这样的传统途径可能无法在联邦设置中统一特征质量。对于标签质量变化,最近的研究集中在对贴标机进行建模。然而,这些研究集中在对标签噪声进行建模,当可以让多个人在数据集中标签样本时是可行的。在医学领域,尤其是在联邦环境中,假设一个样本将有多个贴标机可能是不现实的。
因此,本发明的各种实施例提供了一种联邦机器学习的方法及其系统,其寻求克服或至少改善现有联邦机器学习途径或方法中的一个或多个缺陷,例如但不限于提高联邦机器学习的准确性和/或可靠性。正是在这种背景下开发了本发明。
图1描绘了根据本发明的各种实施例的使用至少一个处理器的联邦机器学习的方法100的流程图。方法100包括将当前全局机器学习模型传输(在102)到复数个数据源中的每一个;分别从复数个数据源接收(在104)复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于接收到的全局机器学习模型而生成;并且分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新(在106)当前全局机器学习模型,以生成更新的全局机器学习模型。
本领域技术人员可以理解,联邦机器学习是分布式机器学习技术,能够对驻留在复数个数据源上的分散数据(例如,大量分散数据)进行训练。在各种实施例中,方法100可以由配置为提供或协调(例如,实施/执行和/或控制/管理)联邦机器学习的服务器(例如,可以称为中央服务器或聚合服务器)执行作为基于云的分布式服务(例如,联邦学习计划),并且复数个数据源可以被称为由服务器提供的联邦机器学习中的参与者(例如,联邦学习群体)。例如,复数个数据源可以各自实现为其中存储有数据(用于训练的标签数据)的设备或系统,例如但不限于存储系统(例如,用于企业或组织,例如本地数据存储服务器)或存储设备(例如,用于个人,例如手机、平板电脑、便携式计算机等)。因此,数据源也可以称为其中存储有本地数据(标签数据)的本地数据源。
关于102,全局机器学习模型可以指根据需要被配置为基于驻留在复数个数据源中或由复数个数据源存储的数据(即,基于分散的数据)来训练的机器学习模型,以用于特定期望的实际应用程序,例如分类任务。在各种实施例中,传输当前全局机器学习模型可以包括传输当前全局模型状态(例如,包括当前全局模型参数)作为联邦学习检查点。例如,用于训练全局机器学习模型的模型架构、初始权重以及超参数可以跨所有参与的数据源统一设置。仅作为示例而非限制,用于图像分类任务的模型架构示例是Resnet、InceptionV3、DenseNet等。在各种实施例中,来自每个参与数据源的用于更新服务器处的全局机器学习模型的传输可以仅包括来自参与数据源处的本地训练的机器学习模型的更新的权重,或者可以包括整个本地训练的机器学习模型的模型状态以及参数。
关于104,为了生成训练更新,数据源可以基于数据源存储的标签数据在本地训练当前的全局机器学习模型。本领域技术人员可以理解,本领域已知的任何训练技术都可以根据需要或酌情应用来训练基于标签数据的机器学习模型,因此为了简洁在此不再赘述。
关于106,可以基于与对应数据源(即,从其接收训练更新的数据源)相关联的数据质量参数来修改或调整(例如,加权)接收到的每个训练更新。
在各种实施例中,联邦机器学习的方法100在多轮中迭代地执行,每轮执行上述传输(在102)当前全局机器学习模型到复数个数据源中的每一个,上述从复数个数据源接收(在104)复数个训练更新,以及基于接收到的复数个训练更新来更新(在106)当前全局机器学习模型。在各种实施例中,迭代中的轮数可以是预定的或者可以继续(即,执行另一轮)直到满足预定条件(例如,直到损失函数收敛)。
本领域技术人员将理解,方法100不限于图1所示的步骤顺序。如图1所示,这些步骤可以以合适的或适合相同或相似结果的任何顺序执行。例如,在当前轮次中,当前全局机器学习模型可以首先基于在前一轮中从复数个数据源接收到的复数个训练更新进行更新,然后更新的全局机器学习模型可以用作当前(新的当前)全局机器学习模型,用于在当前轮次中传输到复数个数据源中的每一个。
因此,本发明的各种实施例有利地识别与联邦机器学习相关的复数个数据源中的不同质量的数据(标签数据)相关的问题,并有利地提供考虑到不同质量的技术解决方案在执行联邦机器学习以提高准确性和/或可靠性时,在多个数据源之间的数据。特别地,根据本发明的各种实施例,对于多个数据源中的每一个,获得数据质量参数,然后在更新当前全局机器学习模型时用于修改或调整(例如,加权)从相应数据源接收的训练更新。
在各种实施例中,复数个训练更新中的每一个是由相应的数据源基于接收到的全局机器学习模型和由相应数据源存储的标签数据生成的。在这点上,相应的数据源可以基于由相应的数据源存储的标签数据来训练或更新接收到的全局机器学习模型,以生成本地机器学习模型。
在各种实施例中,复数个训练更新中的每一个包括当前全局机器学习模型和由相应的数据源基于当前全局机器学习模型以及由相应的数据源存储的标签数据进行训练的本地机器学习模型之间的差异。
在各种实施例中,上述更新(在102)当前全局机器学习模型包括分别基于与复数个数据源相关联的复数个数据质量参数确定复数个训练更新的加权平均值。在这点上,复数个训练更新中的每一个都基于与对应数据源相关联的数据质量参数(例如,数据质量度量或指数)来加权。
在各个实施例中,由相应的数据源存储的标签数据包括特征以及标签,与相应的数据源关联的数据质量参数包括与特征关联的特征质量参数以及与标签关联的标签质量参数中的至少一种。在这方面,特征质量参数提供由数据源存储的特征的质量的度量或指示,标签质量参数提供由数据源存储的标签的质量的度量或指示。
在各种实施例中,复数个数据质量参数中的一个或多个每个都基于第一数据质量因子、第二数据质量因子以及第三数据质量因子中的至少一个。在这方面,第一数据质量因素涉及相应数据源的质量,第二数据质量因素涉及由相应数据源存储的标签数据的质量,第三数据质量因素涉及数据的推导不确定性(例如,包括标签不确定性和/或特征不确定性)。在各种实施例中,复数个数据质量参数中的每一个基于第一数据质量因子、第二数据质量因子以及第三数据质量因子中的至少一个。
第一数据质量因子基于与数据源相关联的信誉级别(例如,信誉分数)、由对应数据源存储的标签数据的一个或多个数据注释者的能力级别(例如,能力分数),以及与用于生成由相应数据源存储的标签数据的注释方法的类型相关联的方法值(例如,方法分数)中的至少一个。在各个实施例中,上述参数(信誉级别、能力级别以及方法值)中的每一个可以表示为数值,例如在从0到1的范围内。就此而言,基于多个参数的第一数据质量因子可以通过将上述参数(数值)相乘得到第一数据质量因子值来确定。
在各种实施例中,标签数据的特征与图像相关(即,图像的特征),并且第二数据质量因子基于图像采集特征以及图像中的图像伪影水平中的至少一个。例如但不限于,图像采集特征可以包括设备值(例如,设备分数)以及采集协议(例如,采集协议分数)。例如但不限于,图像伪影可以包括图像中的运动伪影。类似地,上述参数(图像采集特征以及图像伪影的水平)中的每一个都可以表示为数值,例如在从0到的范围内1。类似地,基于多个参数的第二数据质量因子可以通过将上述参数(数值)相乘得到第二数据质量因子值来确定。
在各种实施例中,第三数据质量因子可以基于与手头的预测任务相关的标签的统计特征,这可以包括在每个数据源的本地训练期间数据质量指数的数学估计。例如,这种方法在模型训练期间采用贝叶斯(Bayesian)神经网络根据模型的概率解释来估计数据质量指数。所获得的数据质量指数然后可以对应于第三质量因子。
在各种实施例中,方法100还包括:将多个数据源分箱成复数个质量范围;从多个数据源中选择复数个数据源。
在各种实施例中,复数个数据质量参数是复数个数据质量指标。
图2描绘了根据本发明的各种实施例的用于联邦机器学习的服务器200的示意框图,例如对应于根据本发明的各种实施例的如上文所述的联邦机器学习的方法100。服务器200包括存储器202以及至少一个处理器204,该处理器204通信地耦合到存储器202并且被配置为:将当前全局机器学习模型传输到复数个数据源中的每一个;分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于接收到的全局机器学习模型而生成;以及分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新当前全局机器学习模型,以生成更新的全局机器学习模型。
本领域技术人员将理解,至少一个处理器204可以被配置为通过至少一个处理器204可执行的指令集(例如,软件模块)来执行所需的功能或操作。因此,如图2所示,服务器200可以包括全局模型传输模块(或全局模型传输电路)206,用于将当前全局机器学习模型传输到复数个数据源中的每一个;训练更新接收模块(或训练更新接收电路)208,被配置为分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于全局机器生成收到的学习模型;和全局模型更新模块(或全局模型更新电路)210,被配置为分别基于接收到的复数个训练更新以及与复数个数据源相关联的复数个数据质量参数更新当前全局机器学习模型,以生成更新的全局机器学习模型。
本领域技术人员可以理解,上述模块不一定是单独的模块,在不脱离本发明的范围的情况下,一个或多个模块可以根据需要或适当地由一个功能模块(例如,电路或软件程序)来实现或实施为一个功能模块复数个。例如,全局模型传输模块206、训练更新接收模块208以及全局模型更新模块210可以实现(例如,一起编译)为一个可执行软件程序(例如,软件应用程序或简称为“app”),其例如可以存储在存储器202中并且可由至少一个处理器204执行以根据各种实施例执行如本文所述的功能/操作。在各个实施例中,全局模型传输模块206可以被配置为通过服务器200的无线信号传输器或收发器将当前全局机器学习模型传输到复数个数据源中的每一个。在各个实施例中,训练更新接收模块208可以被配置为通过服务器200的无线信号接收器或收发器分别从复数个数据源接收复数个训练更新。
在各种实施例中,服务器200对应于如上文参考图1描述的方法100。参照图1,因此,配置为由至少一个处理器204执行的各种功能或操作可以对应于根据各种实施例的上述方法100的各个步骤,因此为了清楚以及简明起见,不需要针对服务器200重复。换言之,本文在方法的上下文中描述的各种实施例对于相应的系统(例如,服务器200)类似地有效,反之亦然。
例如,在各种实施例中,存储器202中可以存储有全局模型传输模块206、训练更新接收模块208以及全局模型更新模块210,该全局模型传输模块206、训练更新接收模块208以及全局模型更新模块210分别对应于根据各种实施例的如上所述的方法100的各种步骤,可由至少一个处理器204执行以执行如本文所述的相应功能/操作。
根据本发明中的各种实施例,可以提供计算系统、控制器、微控制器或提供处理能力的任何其他系统。这样的系统可以被认为包括一个或多个处理器以及一个或多个计算机可读存储介质。例如,上文描述的服务器200可以包括处理器(或控制器)204以及计算机可读存储介质(或存储器)202,它们例如用于如本文描述的在其中执行的各种处理。在各种实施例中使用的存储器或计算机可读存储介质可以是易失性存储器,例如动态随机存取存储器(Dynamic Random Access Memory,DRAM)或非易失性存储器,例如可编程只读存储器(Programmable Read Only Memory,PROM)、可擦除PROM(Erasable PROM,EPROM)、电可擦除PROM(Electrically Erasable PROM,EEPROM)或闪存,例如浮栅存储器、电荷俘获存储器、磁阻随机存取存储器(Magnetoresistive Random Access Memory,MRAM)或相变随机存取存储器(Phase Change Random Access Memory,PCRAM)。
在各种实施例中,“电路”可以被理解为任何种类的逻辑实现实体,其可以是专用电路或执行存储在存储器、固件或其任何组合中的软件的处理器。因此,在实施例中,“电路”可以是硬连线逻辑电路或可编程逻辑电路,例如可编程处理器,例如微处理器(例如,复杂指令集计算机(CISC)处理器或精简指令集计算机(RISC)处理器)。“电路”也可以是执行软件的处理器,例如,任何类型的计算机程序,例如,使用虚拟机代码的计算机程序,例如Java。将在下面更详细描述的相应功能的任何其他类型的实现也可以被理解为根据各种替代实施例的“电路”。类似地,“模块”可以是根据本发明的各种实施例的系统的一部分,并且可以包括如上的“电路”,或者可以被理解为任何种类的逻辑实现实体。
本发明的某些部分以算法以及计算机存储器内数据操作的函数或符号表示的形式显式或隐式呈现。这些算法描述以及函数或符号表示是数据处理领域的技术人员用来最有效地将他们的工作内容传达给本领域的其他技术人员的手段。算法在这里,并且通常被认为是导致期望结果的自洽步骤序列。这些步骤是需要对物理量进行物理操作的步骤,例如能够存储、传输、组合、比较以及以其他方式操作的电、磁或光信号。
除非另有特别说明,并且从下文中显而易见,应理解在整个本说明书中,使用诸如“传输”、“接收”、“更新”、“分箱”、“选择”等术语的讨论是指计算机系统或类似电子设备的操作以及过程,这些操作以及过程将计算机系统内以物理量表示的数据操作且转换为计算机系统内以物理量表示的其他数据或其他信息存储、传输或显示设备。
本说明书还公开了用于执行本文描述的方法的操作/功能的系统(例如,其也可以体现为设备或装置)。这样的系统可以为所需目的专门构建,或者可以包括通用计算机或由存储在计算机中的计算机程序选择性地激活或重新配置的其他设备。本文提出的算法与任何特定的计算机或其他设备没有内在关联。根据本文的教导,各种通用机器可以与计算机程序一起使用。或者,构建更专业的设备来执行所需的方法步骤可能是合适的。
此外,本说明书还至少隐含地公开了计算机程序或软件/功能模块,因为对于本领域技术人员来说显而易见的是,本文描述的方法的各个步骤可以通过计算机代码来实施。计算机程序不旨在限于任何特定的编程语言及其实现。应当理解,可以使用多种编程语言及其编码来实现本文所包含的公开内容的教导。此外,计算机程序不旨在限于任何特定的控制流。计算机程序有许多其他变体,它们可以使用不同的控制流而不背离本发明的精神或范围。本领域技术人员将理解,本文描述的各种模块(例如,全局模型传输模块206、训练更新接收模块208和/或全局模型更新模块210)可以是由计算机程序或可由计算机处理器执行以执行所需功能的指令集实现的软件模块,或者可以是硬件模块,其是设计用于执行所需功能的功能性硬件单元。还将理解的是,可以实现硬件以及软件模块的组合。
此外,本文描述的计算机程序/模块或方法的一个或多个步骤可以并行而不是顺序地执行。这样的计算机程序可以存储在任何计算机可读介质上。计算机可读介质可以包括存储设备,例如磁盘或光盘、存储芯片,或适合与通用计算机接口的其他存储设备。当在这种通用计算机上加载以及执行计算机程序时,该计算机程序有效地产生了实现本文所述方法的步骤的装置。
在各种实施例中,提供了一种计算机程序产品,包含在一个或多个计算机可读存储介质(非暂时性计算机可读存储介质)中,包括可由一个或多个计算机处理器执行以执行如上文参考图1所述的联邦机器学习的方法100的指令(例如,全局模型传输模块206、训练更新接收模块208和/或全局模型更新模块210)。因此,本文描述的各种计算机程序或模块可以存储在可由其中的系统接收的计算机程序产品中,例如如图2所示的服务器200,由服务器200的至少一个处理器204执行以执行所需或期望的功能。
本文描述的软件或功能模块也可以实现为硬件模块。更具体地说,在硬件意义上,模块是设计用于与其他组件或模块一起使用的功能硬件单元。例如,模块可以使用分立的电子元件来实现,或者可以形成整个电子电路的一部分,例如专用集成电路(ASIC)。还有许多其他的可能性。本领域技术人员将理解,本文描述的软件或功能模块也可以实现为硬件以及软件模块的组合。
在各种实施例中,服务器200可以由包括至少一个处理器以及存储器的任何计算机系统(例如,台式或便携式计算机系统)实现,例如图3中示意性示出的计算机系统300,仅作为示例而非限制。各种方法/步骤或功能模块(例如,全局模型传输模块206、训练更新接收模块208和/或全局模型更新模块210)可以实现为软件,例如在计算机系统内执行的计算机程序300,并指示计算机系统300(特别是其中的一个或多个处理器)执行本文描述的各种实施例的方法/功能。计算机系统300可以包括计算机模块302、诸如键盘304以及鼠标306的输入模块,以及诸如显示器308以及打印机310的复数个输出设备。计算机模块302可以通过合适的收发器设备314连接到计算机网络312以访问例如Internet或其他网络系统,例如局域网(LAN)或广域网(WAN)。示例中的计算机模块302可以包括用于执行各种指令的处理器318、随机存取存储器(RAM)320以及只读存储器(ROM)322。计算机模块302还可以包括复数个输入/输出(I/O)接口,例如到显示器308的I/O接口324以及到键盘304的I/O接口326。计算机模块302的组件通常经由互连总线328并以相关领域技术人员已知的方式进行通信。
图4描绘了根据本发明的各种实施例的用于联邦机器学习的系统400的示意框图。系统400包括服务器200以及复数个数据源404(404-1、404-2到404-N)。
在各种实施例中,服务器200被配置用于联邦机器学习并且可以对应于如上文参考图2所描述的内容。具体地,服务器200包括全局模型传输模块(或全局模型传输电路)206,其被配置为:向复数个数据源404中的每一个传输当前全局机器学习模型;训练更新接收模块(或训练更新接收电路)208,其被配置为分别从复数个数据源404接收复数个训练更新,复数个训练更新中的每一个由相应的数据源响应于接收到的全局机器学习模型而生成;和全局模型更新模块(或全局模型更新电路)210,其被配置为分别基于接收到的复数个训练更新以及与复数个数据源404相关联的复数个数据质量参数来更新当前全局机器学习模型,生成更新的全局机器学习模型。
在各种实施例中,复数个数据源404中的每一个都包括其中存储有标签数据(例如,包括特征以及标签)的存储器,以及至少一个处理器,该至少一个处理器通信地耦合到存储器并且被配置为:从服务器200接收当前的全局机器学习模型;响应与接收到的全局机器学习模型生成训练更新;并且将训练更新传输到服务器200。关于生成训练更新,数据源可以被配置为:基于从服务器200接收的当前全局机器学习模型以及由数据源存储的标签数据来训练本地机器学习模型;并确定当前全局机器学习模型与本地机器学习模型之间的差异。如上文所述,复数个数据源404可各自实现为其中存储有数据(用于训练的标签数据)的设备或系统,例如但不限于存储系统(例如,用于企业或组织,例如本地数据存储服务器)或存储设备(例如,用于个人,例如移动电话、平板电脑、便携式计算机等)。
本领域技术人员将理解,本文使用的术语仅出于描述各种实施例的目的,并不旨在限制本发明。如本文所用,单数形式“一”、“一个”以及“所述”旨在也包括复数形式,除非上下文另有明确指示。将进一步理解的是,当在本说明书中使用时,术语“包括”和/或“包含”指定了所述特征、整数、步骤、操作、元件和/或组件的存在,但不排除存在或添加一个或多个其他特征、整数、步骤、操作、元素、组件和/或它们的组。
为了使本发明易于理解并付诸实施,以下仅以举例而非限制的方式对本发明的各种实施例进行说明。然而,本领域的技术人员将理解,本发明可以以各种不同的形式或配置来实施,并且不应被解释为限于下文阐述的示例性实施例。相反,提供这些示例性实施例是为了使本发明彻底以及完整,并将本发明的范围完全传达给本领域技术人员。
根据各种示例实施例,提供了一种可扩展的联邦深度学习途径或方法来处理跨多个数据源的可变数据质量。在这方面,该方法基于每个数据源的数据质量对联邦过程进行加权。出于说明目的而非限制,下文将描述根据各种示例实施例的示例总体框架以及三种不同的示例加权策略或技术。随后,将以糖尿病视网膜病变的计算机辅助检测以及分类的评估实验为例进行讨论,以展示根据本发明的各种示例实施例的联邦机器学习途径或方法的各种技术优势。例如,联邦机器学习方法有利地为涉及跨多个数据源的噪声以及可变标签数据(例如,包括特征以及标签)的各种实际部署场景提供了能力。
图5描绘了根据本发明的各种示例实施例的联邦机器学习的方法500的概述。如图5所示,基于分别与复数个数据源504(504-1、504-2、504-3、504-4)相关联的复数个数据质量参数506(506-1、506-2、506-3、506-4)复数个提供了加权联邦机器学习方法复数个。换言之,方法500基于它们各自的数据质量参数(例如,数据质量指数)506对数据源进行不同的加权。
仅出于说明目的而非限制,图6示出了根据本发明的各种示例实施例的联邦机器学习的示例方法(或算法)600,并且更具体地,示出了加权联邦机器学习的方法。示例方法600基于迭代训练并假设N个本地数据源。在联邦学习中,训练数据可以保留在它们的本地位置(数据源),并且模型(例如,全局以及本地模型)在聚合服务器(例如,对应于如上文根据各种实施例描述的服务器200)以及分布式本地服务器(例如,对应于如上文根据各种实施例所述的复数个数据源404)之间。在每个运动回合中,联邦学习可以迭代地聚合本地模型(例如,对应于如根据各种实施例在上文中描述的“本地机器学习模型”)并更新联邦全局模型(例如,对应于根据各种实施例在上文中描述的“全局机器学习模型”)。在图6所示的示例方法600中,采用以下符号:
·N:联邦学习中本地数据源(例如,联邦学习群体)的总数
·M:在任何轮次t中考虑或用于联邦的资源数量
·Gt:t轮的全局模型
·Lt:t轮的局部模型
Figure BDA0003689397620000161
t轮的局部模型和全局模型之间的差异
·S:在任何轮次t中选择用于联邦的M个源的索引列表
·Dm:由第mth个本地源(例如,本地服务器)存储的本地数据
·η:联邦的权重因子
·Lclass(L,D):在数据集D上测试的模型L的分类损失
·l:分类损失函数
·E:本地历元
·lr:学习率
·bs:批量大小
方法600包括(a)聚合服务器函数602,其被配置为由聚合服务器执行,该聚合服务器被配置为提供或协调(例如,实施/执行和/或控制/管理)关于联邦学习群体中的本地数据源(例如,示例中的本地服务器)的联邦机器学习,以及(b)本地数据源函数(例如,示例中的本地服务器函数)606,其被配置为由聚合服务器为每一轮选择的相应的本地数据源(被选择以接收当前全局机器学习模型)执行。方法600可以迭代地执行并且包括对于迭代中的复数个轮次中的每一轮,在聚合服务器处执行聚合服务器函数602(执行其实例)并且在由聚合服务器选择的相应的本地服务器处执行本地数据源函数606(例如,执行其实例)。如上文所述,迭代中的轮数可以是预定的(例如,1到T,如图6所示,其中T是预定数)或者可以继续(即,执行另一轮)直到满足预定条件(例如,直到损失函数收敛)。
关于服务器函数602,在每一轮t,聚合服务器可以从一组数据源(1到N)中选择m个数据源(1到M)的子集(例如,随机子集),并且向所选择的数据源子集(例如,对应于上文根据各种实施例描述的“复数个数据源”)发送最新的(即,当前的)全局模型Gt。在各种示例实施例中,在选择数据源子集之前,方法600还包括将数据源集合(1到N)分箱成K个质量范围的复数个间隔(分箱),复数个然后从(在复数个间隔中分箱的)数据源集合中选择数据源子集用于当前轮次t的联邦。换言之,M个数据源的子集的选择可以基于已经被分箱成复数个(例如,K个)质量范围的数据源,这有利地说明了数据源之间的不同质量范围。在这方面,例如,各种示例实施例可以允许在每次迭代中表示随机的质量范围集合。这允许在每次迭代中捕获真实世界的可变性。例如,如果数据源没有被分箱到质量范围内,则算法可以随机选择总共N个数据源中的M个,从而所有数据源可能具有相同的质量级别。因此,上述分箱过程有利地有助于捕获可变性。然后,聚合服务器可以(在相应的数据源响应于接收到的当前全局模型生成相应的训练更新之后)分别地从选定的数据源子集接收复数个训练更新(例如,示例中的差异
Figure BDA0003689397620000181
),然后分别基于接收到的复数个训练更新以及与数据源子集相关联的复数个数据质量参数(例如,示例中的数据质量指数
Figure BDA0003689397620000182
)更新当前全局模型,以生成更新的全局模型,其然后作为新的当前全局模型。在这方面,聚合服务器可以基于复数个数据质量参数对接收到的训练更新进行加权平均以获得加权平均结果,然后将加权平均结果添加到当前全局模型以获得更新的全局模式。
在示例方法600中,对于每一轮t,接收复数个训练更新以及更新当前全局机器学习模型的步骤可以基于在紧接的前一轮(即,第t-1轮)中接收到的复数个训练更新来执行。在这种情况下,当前全局模型Gt-1分别基于接收到的复数个训练更新以及与数据源子集(在前一轮中选择的)相关联的复数个数据质量参数进行更新,以生成更新的全局模型Gt作为当前轮次t的新的当前全局模型,然后可以将其传输到选定的数据源子集。然而,应当理解,每一轮不限于以如图6所示的顺序执行的上述步骤。例如,对于每一轮,当前全局模型Gt可能首先被传输到选定的数据源子集,随后,可以响应于当前全局模型Gt接收来自所选数据源子集的复数个训练更新,然后可以分别基于接收到的复数个训练更新以及与(在当前轮次中选择的)所选数据源子集相关联的复数个数据质量参数来更新当前全局模型Gt,以生成更新的全局模型Gt+1,然后可以作为下一轮t+1的新的当前全局模型。
关于本地数据源函数606,在每一轮t,选定的数据源子集(m个本地数据源)中的每一个可以通过对其私有数据进行训练来将接收到的当前全局模型更新为新的本地模型Lt+1(m),例如图6所示,仅作为示例而非限制,并且将当前全局模型以及训练的本地模型之间的差异
Figure BDA0003689397620000183
发送回聚合服务器,用于在聚合服务器处更新当前全局模型,如上所述。
在各种示例实施例中,与复数个数据源相关联的复数个数据质量参数(例如,示例中的数据质量指数
Figure BDA0003689397620000184
)可以在复数个数据源中分别计算为联邦权重(例如,W),例如图6所示,仅作为示例而非限制,然后可以将联邦权重发送到聚合服务器。在各种其他实施例中,可以将复数个数据质量参数发送到聚合服务器,然后可以在聚合服务器中计算联邦权重(分别对应于复数个数据源)。在不偏离本发明的范围的情况下,可以根据需要或适当地采用各种其他加权方法或技术。
因此,示例方法600可以包括为每个选定的本地数据源m获得数据质量参数(例如,示例中的数据质量指数
Figure BDA0003689397620000191
),并且随后在由聚合服务器执行的全局模型更新中,对从各个本地数据源接收到的训练更新
Figure BDA0003689397620000192
进行加权。具体来说,全局模型更新步骤根据每个数据源的数据质量指标对从各种数据源接收的训练更新
Figure BDA0003689397620000193
的平均值进行加权。此外,M个数据源的选择也可以通过将源分箱成K个质量范围来执行,以说明数据源之间的不同质量范围。
在各种实施例中,复数个数据质量参数可以是分别与复数个数据源相关联的复数个数据质量指数
Figure BDA0003689397620000194
仅作为示例而非限制,用于基于人为错误、注释者背景、临床考虑和/或数据不确定性(例如,数据噪声)的(例如,基于模型的)统计推导,即基于第一数据质量因子、第二数据质量因子以及第三数据质量因子来推导数据质量参数(例如,数据质量指数)的三种示例技术将根据本发明的各种示例实施例在下面进行描述。
注释者背景以及可靠性度量(例如,对应于上文所述的“第一数据质量因子”)
在各种示例实施例中,第一技术涉及标签质量(对应于标签质量参数)并且包括基于注释者的可靠性的公式表示来分配标签质量指数。因此,第一数据质量因子涉及质量对应的数据源。在各种示例实施例中,第一数据质量因子基于与数据源相关联的信誉级别(例如,信誉分数)、由相应数据源存储的标签数据的一个或多个数据注释者的能力级别(例如,能力分数)以及与用于生成由相应数据源存储的标签数据的注释方法的类型相关联的方法值复数个(例如,方法分数)中的至少一个。仅作为示例而非限制,对于手动注释,第一技术可以考虑雇用注释者的机构的声誉、许可级别以及经验年数。此外,第一技术还可以考虑可能影响注释者表现的情境因素,例如临床负荷以及疲劳。例如,在导致注释的时间段内工作的小时数可以用作代理。第一技术也可以调整流行对异常检测的影响。例如,被连续呈现多张正常图像的注释者可能很容易漏掉很少出现的异常图像。对于半自动注释,例如文本报告的自动处理,第一技术可以额外考虑标签质量指数中的预测错误(例如,由于语言复杂性或歧义)。
仅出于说明目的而非限制,图7A示出了根据第一技术的三个示例。例如,在数据源属于中心或组织的情况下,第一数据质量因子可以是基于中心声誉(R)、注释者能力(C)以及注释方法(M)确定的中心质量指数(Qc)。在这点上,中心信誉(R)、注释者能力(C)以及注释方法(M)可以分别各分配(或分级)从0到1的值。例如,值0可以对应到最差级别,值1可以对应于最佳级别。例如,关于中心信誉(R),最有信誉的中心可以被分配值1,而不太有信誉的中心可以相应地被分配在0到1之间的值。在各种示例实施例中,具有比被分配值1的中心更高声誉的预期中心可以被分配高于1的值,以反映其在数据质量方面的预期优势。例如,关于注释者能力(C),注释者可以按照与标注任务相关的经验量以及专业化/子专业化进行排名。可以为排名最高的注释者分配值1,并且可以根据排名为其他注释者分配0到1之间的值。类似地,被认为比排名最高的注释者更熟练的预期注释者可以被分配高于1的值。关于注释方法(M),手动注释可能被认为是最好的,并被分配值1。第一数据质量因子然后可以通过将中心信誉(R)、注释者能力(C)以及注释方法(M)的值相乘来确定,如图7A所示。
前兆因素的临床考虑(例如,对应于上文所述的“第二数据质量因素”)
在各种示例实施例中,第二技术涉及特征质量以及标签质量(对应于特征以及标签质量参数)并且包括基于公式表示来分配数据质量指数,该公式表示分别考虑了内在以及外在前兆因素,例如采集特征以及图像伪影。因此,第二数据质量因子与由对应数据源存储的标签数据的质量有关。在各种实施例中,标签数据的特征与图像相关(即,图像的特征),并且第二数据质量因子基于图像采集特征以及图像中的图像伪影水平中的至少一个。仅作为示例而非限制,可以基于所使用的成像设备的规格、图像采集的参数设置和/或患者历史与高质量扫描要求的一致性来定义图像采集特征。例如,使用不同设备或设置获取的图像可能质量较低(特征质量较低)。此外,过度曝光或曝光不足和/或运动伪影的存在可能使某些图像难以解释。在某些情况下,较低质量的图像可能会导致更大的解释困难(影响标签质量)。
仅出于说明目的而非限制,图7B描绘了根据第二技术的两个示例。例如,第二数据质量因子可以是基于内在因素(I)以及外在因素(E)确定的图像质量指数(QI)。类似地,内在因素(I)以及外在因素(E)在被呈现用于标签之前,可以基于其对图像质量的预测影响被分配(或分级)从0到1的值。在各种示例实施例中,内在因素(I)可以包括设备能力(例如,3T对1.5T MRI扫描仪)以及采集协议(例如,CT切片厚度)。在各种示例实施例中,外在因素(E)可以包括操作者变化(例如,放射技师的经验)以及患者变化(例如,运动伪影)。在各种示例实施例中,对于诸如运动伪影之类的因素,可以获得随机样本以估计大的数据集中的运动伪影的水平(例如,普遍性以及程度)。
学习数据质量度量(例如,对应于上文所述的“第三数据质量因素”)。
在各种示例实施例中,第三技术涉及特征质量以及标签质量(对应于特征以及标签质量参数)并且包括在训练期间学习数据质量指数。因此,第三质量因子涉及数据不确定性(例如,包括标签噪声和/或特征噪声)的统计(例如,基于模型的)推导。在第三技术中,不是使用经典的CNN,而是使用贝叶斯神经网络并学习其权重的分布,并重写或修改损失函数以包含不确定性正则化项。通过对分类任务的监督,可以从损失函数中隐式地学习数据质量指标(捕获特征质量以及标签质量)。仅作为示例而非限制,在Kendall等人在2017年美国加利福尼亚州第31届神经信息处理系统会议上题为《我们需要用于计算机视觉的贝叶斯深度学习中的哪些不确定性》一文中描述了一种用于学习这些指数的示例技术,出于所有目的,其内容通过引用整体并入本文。应当理解,本发明不限于用于学习这些指标的示例性技术,并且本领域已知的其他技术可以替代地根据需要或适当地用于学习这些指标。换句话说,数据质量指标可以从模型的概率解释中获得,并且可以在训练过程中有效地计算出来。特别地,在各种示例实施例中,利用上述Kendall参考文献中公开的用于预测任意不确定性的贝叶斯技术,其对应于数据质量(捕获特征质量以及标签质量),基于以下等式:
Figure BDA0003689397620000221
Figure BDA0003689397620000222
用xi,t,c‘表示logit向量xi,t中的元素c‘ 等式(1)
在上面的等式(1)中,可以训练深度学习模型以学习使用修改的损失函数(例如Lx)来预测任意不确定性,例如,使用贝叶斯分类交叉熵方法。因此,对于分类任务,在推理过程中,贝叶斯深度学习模型可能有两个输出,即softmax激活值以及输入方差。
出于说明目的而非限制,现在将描述使用根据本发明的各种示例实施例的联邦机器学习的方法执行的实验以展示相关的技术优势。
评估
数据
在一项实验中,从Kaggle糖尿病视网膜病变竞赛(Kaggle,糖尿病视网膜病变检测(数据),2015)中获得88,702幅彩色数字视网膜眼底图像。数据检索自Kaggl,https://www.kaggle.com/c/diabetic-retinopathy-detection/data)。这是一大组高分辨率视网膜图像,已由有执照的临床医生按照0到4的级别评定,分别对应于正常、轻度、中度、重度以及增殖性视网膜病变。根据各种示例性实施例进行的实验集中在不可归因(标度0-1)和可归因(标度2-4)糖尿病性视网膜病变的二元分类,其中后者是当严重性标度为中等或更差时。
在实验中,原始数据集被调整大小、标准化、过滤以及预处理。然后,这些图像被随机采样到由57,146幅图像组成的训练和验证集以及由8,790幅图像组成的测试集中。从训练和验证集中,随机生成大小相等的四个数据拆分或“数据源”,并注入不同的标签噪声来模拟四个不同的质量水平。
实验
图8描绘了说明用于在实验中评估集中托管、联邦以及加权联邦学习途径或方法的示例过程的流程图。在每种情况下,使用标准预训练多层卷积网络架构来训练卷积神经网络进行图像分类。为了与基线性能结果进行比较,基于针对该数据集的原始深度学习模型开发研究来选择模型训练的方法和超参数,如V.Gulshan等人在2016年《美国医学会杂志(JAMA)》第316卷第22期第2402-2410页《用于检测视网膜眼底照片中的糖尿病性视网膜病变的深度学习算法的开发和验证》中所公开的。
在每种情况下,对每个数据拆分重复五次训练以及评估,并计算总体性能指标。对于所有联邦学习实验,每个本地数据源的训练都采用相同的架构以及初始化,以及相同数量的历元。对于根据本发明示例实施例的加权联邦学习方法,采用三种不同的策略来获得数据源的三组不同的质量权重。
模拟标签噪声
为了针对具有可变标签质量的基本事实的案例评估结果,将随机或系统噪声模拟到糖尿病视网膜病变图像数据集的标签中。这些模拟被告知临床理解关于所使用的特定类型的数据或图像的错误标记是如何产生的。例如,使用领域专业知识来分析现实世界中可能出现错误标签的各种方式以及程度,以模拟现实世界的质量变化。对于特定的糖尿病视网膜病变用例,由于但不限于上述原因,针对眼部疾病的存在以及程度分级的图像可能会不时被错误标签。为了真实地对此进行建模,错误标签的概率或可能性被考虑用于错误分配标签的所有排列,因为它们在现实生活中不太可能以统一的频率发生。为了将这种评估逻辑推广到其他医学成像用例,开发了半自动模拟指南,其可以自动推导有意义的阈值,以便将噪声注入数据。根据本发明的各种示例实施例,在图9中提供了上述为噪声模拟分配错误标签可能性的过程900的概述。
性能结果
对标签质量具有原生差异的数据进行了初步实验。对于模型评估,各种示例实施例使用接收器操作特性下的面积(AUROC)以及精确召回曲线下的面积(AUPRC)度量。AUROC是评估模型能力的性能指标,用于区分病例(阳性标签)以及非病例(阴性标签),广泛用于医学研究。AUPRC是评估使用不平衡数据集训练的模型的另一个指标,它通常更接近真实的用例情况。为了模拟不同的标签质量,对少于20%的训练数据的标签注入了模拟噪声。在所执行的实验中,观察到根据本发明的各个示例实施例的加权联邦学习方法比集中托管以及传统联邦学习方法平均提供了3%(AUROC)以及6%(AUPRC)的改进。这些结果证明了加权联邦学习在适应不同来源的标签质量变化方面的潜力。
例如,在实际应用方面,考虑到研究社区的热情,使用联邦学习(在学习期间)来缓解数据隐私问题可能会很普遍。然而,发现在传统的联邦学习方法中没有考虑跨医疗机构的不同数据质量的方面或问题。相比之下,本发明的各种实施例有利地提供了在执行联邦机器学习时考虑多个数据源之间的不同数据质量以提高准确性和/或可靠性的技术解决方案。在各种示例实施例中,如上文所述,采用加权联邦平均技术来解决数据质量问题,并且还描述了用于分配权重以解决数据质量问题的各种技术。
因此,本发明的各种示例实施例有利地提供了一种加权联邦学习方法,用于对数据源进行不同的加权以解决数据质量问题,该方法可以例如应用于医学成像应用。各种示例实施例还提供用于声誉、前兆因素的自动加权以及在学习期间,对噪声以及鲁棒性的模拟、和/或用于基于数据质量选择源的主动学习。
因此,提供了根据本发明的各种实施例的可扩展的联邦深度学习途径或方法来处理跨多个数据源的可变数据质量,其可以扩展到多种标签噪声条件以及多个模态以及疾病。例如,该方法与涉及不确定标签以及需要隐私的若干个实际部署场景相关
仅作为示例而非限制,在放射学中,在使用自然语言处理对非结构化放射学文本报告自动提取标签的情况下,基于数据质量对网络训练过程进行加权的能力可能是有用的。此外,在数据质量指数中考虑类分布的能力还可以实现对不同来源内的类分布的定制。在更大的范围内,可以扩展根据各种示例实施例的联邦学习方法,使得可以针对每个中心定制数据质量调整,与涉及数据池的其他模型相比,允许调查中心范围内的影响对联邦学习模型的影响。
尽管本文已经描述了医学成像应用,但是本领域技术人员将理解,本发明不限于医学成像应用,并且可以在使用联邦学习的任何其他应用中实现,例如但不限于,搜索浏览器自动完成以及网络安全应用程序(例如,恶意软件检测)。
尽管本发明的实施例已经参照特定实施例进行了具体的展示以及描述,本领域技术人员应当理解,在不脱离所附权利要求限定的本发明范围的情况下,可以在形式以及细节上进行各种改变。因此,本发明的范围由所附的权利要求表示,并且所有落入权利要求的等同意义以及范围内的变化都因此被包括在内。

Claims (19)

1.一种使用至少一个处理器的联邦机器学习的方法,所述方法包括:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从所述复数个数据源接收复数个训练更新,所述复数个训练更新中的每一个由相应的所述数据源响应于接收到的所述全局机器学习模型而生成;并且
分别基于接收到的所述复数个训练更新以及与所述复数个数据源相关联的复数个数据质量参数来更新所述当前全局机器学习模型,以生成更新的全局机器学习模型。
2.根据权利要求1所述的方法,其中,所述复数个训练更新中的每一个是由相应的所述数据源基于接收到的所述全局机器学习模型以及由相应的所述数据源存储的标签数据生成的。
3.根据权利要求2所述的方法,其中,所述复数个训练更新中的每一个包括所述当前全局机器学习模型和由相应的所述数据源基于所述当前全局机器学习模型以及由相应的所述数据源存储的标签数据进行训练的本地机器学习模型之间的差异。
4.根据权利要求1所述的方法,其中,所述更新所述当前全局机器学习模型包括分别基于与所述复数个数据源相关联的所述复数个数据质量参数确定所述复数个训练更新的加权平均值。
5.根据权利要求2所述的方法,其中,所述由相应的所述数据源存储的标签数据包括特征和标签,与相应的所述数据源相关联的数据质量参数包括与所述特征相关联的特征质量参数和与所述标签相关联的标签质量参数中的至少一种。
6.根据权利要求5所述的方法,其中,所述复数个数据质量参数中的一个或多个分别基于第一数据质量因子、第二数据质量因子以及第三数据质量因子中的至少一个,其中所述第一数据质量因子涉及对应数据源的质量,所述第二数据质量因子涉及由所述对应数据源存储的标签数据的质量,所述第三数据质量因子涉及数据不确定性的统计推导。
7.根据权利要求6所述的方法,其中,所述第一数据质量因子基于以下至少一个:与所述数据源关联的信誉级别,由所述对应数据源存储的标签数据的一个或多个数据注释者的能力级别,以及与用于生成由所述对应数据源存储的标签数据的注释方法的类型相关联的方法值,其中,所述标签数据的特征与图像相关,所述第二数据质量因子基于图像采集特征以及图像中图像伪影水平中的至少一个。
8.根据权利要求1所述的方法,还包括:
将多个数据源分箱成复数个质量范围;并且
从所述多个数据源中选择所述复数个数据源。
9.根据权利要求1所述的方法,其中,所述复数个数据质量参数为复数个数据质量指标。
10.一种用于联邦机器学习的服务器,包括:
存储器,
至少一个处理器,通信地耦合到所述存储器并被配置为:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从所述复数个数据源接收复数个训练更新,所述复数个训练更新中的每一个由相应的所述数据源响应于接收到的所述全局机器学习模型而生成;并且
分别基于接收到的所述复数个训练更新以及与所述复数个数据源相关联的复数个数据质量参数来更新所述当前全局机器学习模型,以生成更新的全局机器学习模型。
11.根据权利要求10所述的服务器,其中,所述复数个训练更新中的每一个是由相应的所述数据源基于接收到的所述全局机器学习模型以及由相应的所述数据源存储的标签数据生成的。
12.根据权利要求11所述的服务器,其中,所述复数个训练更新中的每一个包括所述当前全局机器学习模型和由相应的所述数据源基于所述当前全局机器学习模型以及由相应的所述数据源存储的标签数据进行训练的本地机器学习模型之间的差异。
13.根据权利要求10所述的服务器,其中,所述更新所述当前全局机器学习模型包括分别基于与所述复数个数据源相关联的所述复数个数据质量参数确定所述复数个训练更新的加权平均值。
14.根据权利要求11所述的服务器,其中,所述由相应的所述数据源存储的标签数据包括特征和标签,与相应的所述数据源相关联的数据质量参数包括与所述特征相关联的特征质量参数和与所述标签相关联的标签质量参数中的至少一种。
15.根据权利要求14所述的服务器,其中,所述复数个数据质量参数中的一个或多个分别基于第一数据质量因子、第二数据质量因子以及第三数据质量因子中的至少一个,其中所述第一数据质量因子涉及对应数据源的质量,所述第二数据质量因子涉及由所述对应数据源存储的标签数据的质量,所述第三数据质量因子涉及数据不确定性的统计推导。
16.根据权利要求14所述的服务器,其中,所述第一数据质量因子基于以下至少一个:与所述数据源关联的信誉级别,由所述相应数据源存储的标签数据的一个或多个数据注释者的能力级别,以及与用于生成由所述相应数据源存储的标签数据的注释方法的类型相关联的方法值,其中,所述标签数据的特征与图像相关,所述第二数据质量因子基于图像采集特征以及图像中图像伪影水平中的至少一个。
17.根据权利要求10所述的服务器,其中,所述至少一个处理器还被配置为:
将多个数据源分箱成复数个质量范围;并且
从所述多个数据源中选择所述复数个数据源。
18.根据权利要求10所述的服务器,其中,所述复数个数据质量参数为复数个数据质量指标。
19.一种计算机程序产品,包含在一个或多个非暂时性计算机可读存储介质中,包括可由至少一个处理器执行以执行联邦机器学习的方法的指令,所述方法包括:
将当前全局机器学习模型传输到复数个数据源中的每一个;
分别从复数个数据源接收复数个训练更新,复数个训练更新中的每一个由相应数据源响应于接收到的全局机器学习模型而生成;并且
分别基于接收到的所述复数个训练更新以及与所述复数个数据源相关联的复数个数据质量参数来更新所述当前全局机器学习模型,以生成更新的全局机器学习模型。
CN201980102933.2A 2019-12-10 2019-12-10 联邦机器学习的方法和服务器 Pending CN114787832A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SG2019/050608 WO2021118452A1 (en) 2019-12-10 2019-12-10 Method and server for federated machine learning

Publications (1)

Publication Number Publication Date
CN114787832A true CN114787832A (zh) 2022-07-22

Family

ID=76330624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980102933.2A Pending CN114787832A (zh) 2019-12-10 2019-12-10 联邦机器学习的方法和服务器

Country Status (3)

Country Link
US (1) US20220414464A1 (zh)
CN (1) CN114787832A (zh)
WO (1) WO2021118452A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210225463A1 (en) * 2020-01-22 2021-07-22 doc.ai, Inc. System and Method with Federated Learning Model for Medical Research Applications
US20210240680A1 (en) * 2020-01-31 2021-08-05 Element Ai Inc. Method and system for improving quality of a dataset
US20210312336A1 (en) * 2020-04-03 2021-10-07 International Business Machines Corporation Federated learning of machine learning model features
US11937186B2 (en) * 2020-10-15 2024-03-19 Qualcomm Incorporated Power control loops for uplink transmission for over-the-air update aggregation
US11790039B2 (en) * 2020-10-29 2023-10-17 EMC IP Holding Company LLC Compression switching for federated learning
US20220172356A1 (en) * 2020-12-02 2022-06-02 University Of Iowa Research Foundation Robust deep auc/auprc maximization: a new surrogate loss and empirical studies on medical image classification
CA3143855A1 (en) * 2020-12-30 2022-06-30 Atb Financial Systems and methods for federated learning on blockchain
US20220374449A1 (en) * 2021-05-22 2022-11-24 Labelbox, Inc. System and method for productionizing unstructured data for artificial intelligence (ai) and analytics
CN113379294B (zh) * 2021-06-28 2022-07-05 武汉大学 基于面向联邦学习参与用户拍卖激励机制的任务部署方法
CN113435534A (zh) * 2021-07-09 2021-09-24 新智数字科技有限公司 一种基于相似度度量的数据异构处理方法、装置、计算机设备及计算机可读存储介质
US20230025754A1 (en) * 2021-07-22 2023-01-26 Accenture Global Solutions Limited Privacy-preserving machine learning training based on homomorphic encryption using executable file packages in an untrusted environment
WO2023026293A1 (en) * 2021-08-27 2023-03-02 Telefonaktiebolaget Lm Ericsson (Publ) System and method for statistical federated learning
EP4145458A1 (en) * 2021-09-07 2023-03-08 Koninklijke Philips N.V. Defining preset parameter values for an ultrasound imaging system
WO2023036778A1 (en) * 2021-09-07 2023-03-16 Koninklijke Philips N.V. Defining preset parameter values for an ultrasound imaging system
US20230128548A1 (en) * 2021-10-25 2023-04-27 International Business Machines Corporation Federated learning data source selection
CN114186694A (zh) * 2021-11-16 2022-03-15 浙江大学 一种高效安全,低通信的纵向联邦学习方法
WO2023138756A1 (de) * 2022-01-18 2023-07-27 Siemens Ag Österreich Computer-implementierte datenstruktur, verfahren und system zum betrieb eines technischen geräts mit einem modell auf basis föderierten lernens
EP4254896A1 (en) * 2022-03-29 2023-10-04 Nokia Technologies Oy Coordination of model trainings for federated learning
WO2024032876A1 (en) * 2022-08-09 2024-02-15 Nokia Technologies Oy Managing distributed network functions in a core network
CN115328691B (zh) * 2022-10-14 2023-03-03 山东大学 基于模型差异的故障诊断方法、系统、存储介质及设备
CN115840965B (zh) * 2022-12-27 2023-08-08 光谷技术有限公司 一种信息安全保障模型训练方法和系统
CN115829028B (zh) * 2023-02-14 2023-04-18 电子科技大学 一种多模态联邦学习任务处理方法及系统
CN116361398B (zh) * 2023-02-21 2023-12-26 北京大数据先进技术研究院 一种用户信用评估方法、联邦学习系统、装置和设备
CN117009095B (zh) * 2023-10-07 2024-01-02 湘江实验室 一种隐私数据处理模型生成方法、装置、终端设备及介质
CN117521856B (zh) * 2023-12-29 2024-03-15 南京邮电大学 一种基于本地特征的大模型切割联邦学习方法及系统
CN117589444B (zh) * 2024-01-18 2024-04-02 湖南科技大学 一种基于联邦学习的风力发电机齿轮箱故障诊断方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US11144616B2 (en) * 2017-02-22 2021-10-12 Cisco Technology, Inc. Training distributed machine learning with selective data transfers
US11270201B2 (en) * 2017-12-29 2022-03-08 Intel Corporation Communication optimizations for distributed machine learning

Also Published As

Publication number Publication date
US20220414464A1 (en) 2022-12-29
WO2021118452A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
CN114787832A (zh) 联邦机器学习的方法和服务器
US11823106B2 (en) Location-based medical scan analysis system
US11688518B2 (en) Deep neural network based identification of realistic synthetic images generated using a generative adversarial network
US20180144244A1 (en) Distributed clinical workflow training of deep learning neural networks
AU2020260078B2 (en) Computer-implemented machine learning for detection and statistical analysis of errors by healthcare providers
US11475358B2 (en) Annotation pipeline for machine learning algorithm training and optimization
US11954610B2 (en) Active surveillance and learning for machine learning model authoring and deployment
US11507822B2 (en) Scalable artificial intelligence model generation systems and methods for healthcare
Pathan et al. Automated Detection of Covid-19 from Chest X-ray scans using an optimized CNN architecture
CN114787833A (zh) 分散式人工智能(ai)/机器学习训练系统
WO2021138083A1 (en) Neural architecture search based on synaptic connectivity graphs
US20210201111A1 (en) Predicting neuron types based on synaptic connectivity graphs
WO2021138082A1 (en) Training artificial neural networks based on synaptic connectivity graphs
WO2021138091A1 (en) Reservoir computing neural networks based on synaptic connectivity graphs
WO2021138092A1 (en) Artificial neural network architectures based on synaptic connectivity graphs
KR102460257B1 (ko) 진단 결과를 제공하기 위한 방법 및 장치
US11152123B1 (en) Processing brain data using autoencoder neural networks
US20190370383A1 (en) Automatic Processing of Ambiguously Labeled Data
US11586955B2 (en) Ontology and rule based adjudication
Seo et al. Closing the gap between deep neural network modeling and biomedical decision-making metrics in segmentation via adaptive loss functions
Albahri et al. Early automated prediction model for the diagnosis and detection of children with autism spectrum disorders based on effective sociodemographic and family characteristic features
Elkins et al. Developing an app to interpret chest X-rays to support the diagnosis of respiratory pathology with artificial intelligence
CN116569194A (zh) 联合学习
US11308615B1 (en) Systems and processes for improving medical diagnoses
Ahmed et al. Robust adversarial uncertainty quantification for deep learning fine-tuning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination