CN115311478A - 一种基于图深度聚类的联邦影像分类方法、存储介质 - Google Patents
一种基于图深度聚类的联邦影像分类方法、存储介质 Download PDFInfo
- Publication number
- CN115311478A CN115311478A CN202210981303.0A CN202210981303A CN115311478A CN 115311478 A CN115311478 A CN 115311478A CN 202210981303 A CN202210981303 A CN 202210981303A CN 115311478 A CN115311478 A CN 115311478A
- Authority
- CN
- China
- Prior art keywords
- model
- client
- clustering
- global
- embedded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于图深度聚类的联邦影像分类方法、存储介质,方法包括各个客户端使用本地影像数据集对服务器发送过来的全局模型进行训练,并将其发送至服务器;服务器计算局部模型之间的相似度,构建出相似性图;基于所述相似性图,使用各个局部模型训练最新的深度嵌入模型;将深度嵌入模型的嵌入向量在嵌入参数空间上聚为K类,以将嵌入向量对应的客户端聚类到K个标签下;分别聚合每个标签下所有客户端的局部模型,得到K个聚合后的全局模型;将K个聚合后的全局模型分别发送至其标签下的各个客户端,重复执行上述步骤直至收敛。本发明能够有效强化联邦学习系统的有效性,提升联邦学习系统的收敛性。
Description
技术领域
本发明涉及联邦学习技术领域,特别涉及一种基于图深度聚类的联邦影像分类方法、存储介质。
背景技术
深度学习是近年来人工智能领域最具代表性的技术之一,已经在各行各业获得了极为广泛的应用。深度模型的训练过程往往需要大量的用户数据,这对数据的获取提出了较高的要求。另一方面,随着近年来移动通信的快速发展,数以亿计的移动端设备催生了一个个数据孤岛。这些数据孤岛往往隶属于个人或小团体,因此属于严重敏感的隐私数据,并且具有数据分布呈现高度个性化的特点。因此,在日趋严格的隐私保护和数据安全要求的形势下,如何解决数据的碎片化和数据隔离的问题,是当前人工智能,特别是深度学习所面临的紧迫挑战。
针对上述挑战,Google于2017年提出联邦学习的概念。联邦学习是分布式机器学习的一次拓展,其核心在于在保持训练数据的去中心化和分散性的前提下协调多个客户端共同训练模型。联邦学习现今已得到巨大的发展,应用场景也越来越广泛。每次训练开始时,负责协调各个客户端的服务器初始化模型并将其分发到各个客户端;各个客户端利用本地数据训练模型,并将训练几轮后的局部模型发送回服务器;最后服务器聚合各个客户端发送回的局部模型来得到新的全局模型。可见,联邦学习的过程主要包括两个阶段,局部模型训练和全局模型融合。客户端和服务器传递的只有模型,各个客户端的数据则被完全保留在了本地,因此能够较好地保护隐私。在联邦学习的过程中,有效性和收敛性是重要的指标。有效性是指联邦学习的模型能够全面的学习到各个客户端的信息,在各个客户端具有良好的预测能力;收敛性是指训练过程中模型能够在较短的时间内收敛到一个最优解。
对于一个联邦学习系统来说,各客户端数据通常是不平衡、不独立的、不均匀的。每个客户端数据的特殊性导致了局部模型的特殊性。因此各个客户端的局部模型的分布通常也是各异的。局部模型通过模型融合得到全局模型,而全局模型应该在各个客户端上都具有良好的性能,即全局模型应该具有好的综合性。因此,局部模型的特殊性和全局模型的综合性是一对矛盾,这阻碍了联邦学习系统的良好的有效性和收敛性的实现。
发明内容
本发明旨在至少在一定程度上解决上述技术中的技术问题之一。为此,本发明的一个目的在于提出一种基于图深度聚类的联邦影像分类方法,能够在保护客户端隐私的同时,提升联邦学习系统的有效性和收敛性,从而为联邦学习中局部模型的特殊性和全局模型的综合性这一矛盾提供了有效的解决方案。
本发明的第二个目的在于提出一种计算机可读存储介质,运用于联邦学习系统,能够在保护客户端隐私的同时,提升联邦学习系统的有效性和收敛性。
为达到上述目的,本发明第一方面实施例提出了一种基于图深度聚类的联邦影像分类方法,包括:
S1:各个客户端使用本地影像数据集对服务器发送过来的全局模型进行训练,并将训练后的全局模型发送至服务器;
S2:服务器计算客户端发送过来的各个局部模型之间的相似度,构建出相似性图;
S3:服务器基于所述相似性图,使用各个局部模型训练最新的深度嵌入模型;
S4:在训练后的深度嵌入模型的嵌入参数空间上使用聚类算法,以依据聚类结果将嵌入向量对应的客户端聚类到K个标签下,所述K为大于1的整数;
S5:分别聚合每个标签下所有客户端的局部模型,得到K个聚合后的全局模型;
S6:将所述K个聚合后的全局模型分别发送至其标签下的各个客户端,然后返回执行S1,直至收敛。
根据本发明实施例的一种基于图深度聚类的联邦影像分类方法,基于图的聚类有效地依照联邦学习局部模型之间的关系,将局部模型划为多个聚类簇,从而降低簇内部局部模型之间的差异性,提升联邦学习的有效性和收敛性;通过深度嵌入模型将局部模型映射为低维向量,深刻地揭示了联邦学习局部模型之间的关系,从而提升了聚类效果。
另外,根据本发明上述实施例提出的一种基于图深度聚类的联邦影像分类方法,还可以具有如下附加的技术特征:
优选地,所述S1之前,还包括:
S01:服务器中初始化全局模型和深度嵌入模型;
S02:建立服务器与各个客户端之间的通信连接关系;
S03:服务器发送初始化的全局模型至各个客户端。
优选地,客户端的本地影像数据集为Di=(Xi,Yi);
其中,i为客户端的标号,Xi为客户端i的本地影像数据,Yi为客户端i数据Xi的标签;
所述全局模型的输入为影像数据,输出为影像对应的标签;
所述深度嵌入模型的输入为全局模型参数,输出为维度低于全局模型参数空间的嵌入向量。
优选地,所述S1中对全局模型进行训练时所使用的损失函数为:
其中,l为衡量模型输出和标签的差异的损失函数,j为客户端i中的第j个数据,|Di|为客户端i中的数据个数,fi是客户端i从服务器接收到的最新的全局模型。
优选地,所述S3中使用下述损失函数梯度下降更新深度嵌入模型的模型向量:
Zi=f'(Wi);
其中,f'是最新的深度嵌入模型,Zi是客户端i的嵌入向量。
优选地,所述S1中对全局模型进行训练的过程包括:
S11:使用公式:Wi t+1=Wi t-ηtgi(Wi t)对全局模型进行训练;
其中,Wi t为模型fi在第t个轮次下的参数,ηt为第t个轮次下的步长,gi为客户端i下的梯度公式;
S12:重复执行所述S101步骤T次,得到客户端i训练后的局部模型参数Wi T,所述T为大于1的整数。
优选地,所述相似性图使用高斯核函数:Aij=exp(-γ||Wi-Wj||2)构建得到;
其中,exp为指数函数,γ为系数,Aij是相似性图G=(V,E,A)中的相似度矩阵A第i行第j列的值。
优选地,所述S4具体包括:
S41:在训练后的深度嵌入模型的嵌入参数空间中初始化K个标签作为初始聚类中心;
S42:分别计算所述训练后的深度嵌入模型中所有的嵌入向量与所述初始化K个聚类中心的欧几里得距离的平方,确定每个嵌入向量对应的初始化聚类中心,得到K个聚类嵌入向量簇;
S43:分别计算每个聚类嵌入向量簇中所有嵌入向量的平均值,并将平均值作为对应聚类嵌入向量簇新的聚类中心;
S44:若新的聚类中心与对应聚类嵌入向量簇的初始聚类中心不同且迭代次数小于预设阈值,则返回S42,否则执行S45;
S45:依据嵌入向量与聚类嵌入向量簇的对应关系,将嵌入向量对应的客户端聚类到K个标签下。
优选地,所述S5中聚合标签下所有客户端的局部模型所使用的模型聚合算法为:
其中,Nk是第k个标签对应的客户端,Ck是第k个标签的全局模型;
所述模型聚合算法产生C1,C2,...,CK共K个聚合后的全局模型。
为达到上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述一种基于图深度聚类的联邦影像分类方法所包含的步骤。
综上所述,本发明具有以下有益效果:
(1)在学习过程中各个客户端的数据永远不会离开客户端,能够有效保护用户隐私和数据安全;另外,由于客户端和服务器之间只传递模型参数而不传递数据,因此减少了原始数据传输所带来的通信开销;
(2)本发明的方法使用多个全局模型,这降低了各个聚类内部客户端之间的异质性,能够有效地平衡局部模型的特殊性和全局模型的综合性,从而有助于联邦学习系统实现良好的有效性和收敛性。
(3)本发明的方法使用深度嵌入模型,在保持局部模型之间关系的同时映射局部模型到低维的嵌入空间,更有效地度量了联邦学习过程中的全局更新结构,从而提升了联邦学习系统的有效性和收敛性。
附图说明
图1为本发明实施例提供的一种基于图深度聚类的联邦影像分类方法的流程示意图;
图2为本发明一具体实施方式所述方法中服务器基于局部模型训练深度嵌入模型的流程示意图;
图3为本发明一具体实施方式所述方法中服务器对各个客户端进行聚类处理的流程示意图;
图4为本发明一具体实施方式所述方法中服务器通过聚类得到K个全局模型的流程示意图;
图5为本发明一具体运用场景示出的本发明所述方法与对比方法对EMNIST数据集模型正确率随通信轮数变化的曲线示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
如图1所示,本发明的一实施例提供一种基于图深度聚类的联邦影像分类方法,包括:
S01:服务器中初始化全局模型和深度嵌入模型;
所述全局模型的输入为影像数据,输出为影像对应的标签;所述深度嵌入模型的输入为全局模型参数,输出为维度低于全局模型参数空间的嵌入向量。所述全局模型和深度嵌入模型的详细内容取决于具体的联邦学习系统,并不局限于某个具体的结构。
S02:建立参与联邦学习的服务器与各个客户端之间的通信连接关系;
S03:服务器发送初始化的全局模型至各个客户端;
S1:各个客户端使用本地影像数据集对服务器发送过来的全局模型进行训练,并将训练后的全局模型发送至服务器;
S2:服务器计算客户端发送过来的各个局部模型(即所述S1步骤训练后得到的全局模型)之间的相似度,构建出相似性图;
S3:服务器基于所述相似性图,使用各个局部模型训练最新的深度嵌入模型;
S4:在训练后的深度嵌入模型的嵌入参数空间上使用聚类算法,即对嵌入参数空间中的嵌入向量进行聚类,以将这些嵌入向量对应的客户端聚类到K个标签下,即为每个客户端分配一个聚类标签,所述K为大于1的整数;
S5:分别聚合每个标签下客户端的局部模型,得到K个聚合后的全局模型;
S6:将所述K个聚合后的全局模型分别发送至其标签下的各个客户端,然后返回执行S1,直至各个客户端的局部模型的损失函数不高于预设阈值或者循环次数达到预设的迭代次数;
S7:各个客户端使用最新收到的全局模型处理其本地的待处理影像数据。
在一些具体实施方式中,各个客户端的本地影像数据集可以表示为:
Di=(Xi,Yi);
其中,i为客户端的标号,Xi为客户端i的本地影像数据,Yi为客户端i数据Xi的标签;
在一些具体实施方式中,所述S1中对全局模型进行训练时所使用的损失函数为:
其中,l为衡量模型输出和标签的差异的损失函数,j为客户端i中的第j个数据,|Di|为客户端i中的数据个数,fi是客户端i从服务器接收到的最新的全局模型。
进一步地,所述S1中对全局模型进行训练的过程,即全局模型更新的过程,包括:
S11:使用公式:Wi t+1=Wi t-ηtgi(Wi t)对全局模型进行训练;
其中,Wi t为模型fi在第t个轮次下的参数,ηt为第t个轮次下的步长,gi为客户端i下的梯度公式;
S12:重复执行所述S101步骤T次,得到客户端i训练后的局部模型参数Wi T。
请参阅图2,在一些具体实施方式中,所述相似性图使用高斯核函数:Aij=exp(-γ||Wi-Wj||2)构建得到;
其中,exp为指数函数,γ为系数,Aij是相似性图G=(V,E,A)中的相似度矩阵A第i行第j列的值。
所述相似性图能够衡量各个客户端的局部模型之间的关系。
进一步地,所述S3中使用下述损失函数梯度下降更新深度嵌入模型的模型向量:
Zi=f′(Wi);
其中,f'是最新的深度嵌入模型,Zi是客户端i的嵌入向量。
基于相似性图,所述损失函数使得嵌入向量之间的关系与原空间中各个客户端的局部模型之间的关系保持一致;使用上述损失函数,梯度下降更新深度嵌入模型f'的模型向量。
请参阅图3,在一些具体实施方式中,所述S4中在嵌入向量的空间上使用的聚类算法为k-means算法,具体包括:
S41:在训练后的深度嵌入模型的嵌入参数空间中初始化K个标签作为初始聚类中心;
S42:分别计算所述训练后的深度嵌入模型中所有的嵌入向量与所述初始化K个聚类中心的欧几里得距离的平方,找到距离每个嵌入向量欧几里得距离的平方最小的初始聚类中心,即确定每个嵌入向量对应的初始化聚类中心,以此将每个嵌入向量划分到与其对应的初始化聚类中心所在的聚类,得到K个聚类嵌入向量簇;
S43:在嵌入空间中分别计算每个聚类嵌入向量簇中所有嵌入向量的平均值,并将平均值作为对应聚类嵌入向量簇新的聚类中心;
S44:若新的聚类中心与对应聚类嵌入向量簇的初始聚类中心不同且迭代次数小于预设阈值,则返回S42,否则执行S45;
S45:依据嵌入向量与聚类嵌入向量簇的对应关系,将嵌入向量对应的客户端聚类到K个标签下。
请参阅图4,在一些具体实施方式中,所述S5中聚合标签下所有客户端的局部模型所使用的模型聚合算法为:
其中,Nk是第k个标签对应的客户端,Ck是第k个标签的全局模型;
所述模型聚合算法产生C1,C2,…,CK共K个聚合后的全局模型,每个聚合后的全局模型对应于相应聚类客户端簇,即相应标签下的客户端集合。
本发明基于上述实施例,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述实施例所述的一种基于图深度聚类的联邦影像分类方法所包含的所有步骤。具体步骤内容在此不进行复述,详细请参阅上述实施例的记载。
以下结合具体运用场景来验证本发明的有效性和正确性。
本具体运用场景包括构建联邦学习环境以及在环境中实施上述实施例所述联邦学习方法两部分。
对于联邦学习环境的构建,以影像分类数据集EMNIST为例。EMNIST数据集包含62个手写体类别,分别为10个数字和26个大小写字母。所述数据集已在大量的机器学习实施例中应用,作为判断模型性能的基准数据集。
进一步地,为了验证本发明对联邦学习有效性和收敛性的促进作用,在本具体运用场景中需要构建联邦学习客户端之间的差异性。即将所述数据集以非独立同分布的设置分配到各个客户端,即各个客户端的标签和数据数量不平衡。作为一种示例,对所述EMNIST数据集,可以首先将数据按标签两两随机组合,得到31个数据堆;然后,将每个数据堆按迪利克雷分布拆分为五个数据堆,并将每个数据堆分配给一个客户端。这样,共产生31×5=155个客户端。
对于在环境中实施的联邦学习方法,在本具体运用场景中,使用LeNet作为联邦学习的模型,三层全连接网络作为深度嵌入模型。联邦学习的客户端训练需要指定其轮数,在本具体运用场景中设定为20,学习率设定为10-3。
为了清晰地说明本发明所述技术方案对联邦学习的有效性和收敛性的提升,在本具体运用场景中将本发明所述联邦学习方案与其他联邦学习模型进行对比。
FedAvg是联邦学习的经典算法,由Google在2017年提出。该方法计算所有局部模型的加权平均值,获得一个全局模型。因此,该方法着重强调了全局模型的综合性,而忽略了局部模型的特殊性。进一步地,选择两个经典的直接聚类方法,k-means和谱聚类,作为本发明的基于图深度聚类方法的对比。其中谱聚类的相似性图的构建方法与本发明中的相似性图的构建方法保持一致,即使用高斯核生成。
进一步地,以所有客户端上的正确率作为模型精度的评价指标。对于本发明,k-means和谱聚类,聚类的数量会影响模型的精度。本具体运用场景中,测试了不同聚类的数量下各个模型的精度。
使用本发明在聚类的数量取不同数值时测得的正确率与FedAvg,k-means,谱聚类算法测得的正确率在EMNIST数据集上的比较如下表1所示:
聚类的数量 | 3 | 4 | 5 |
FedAvg | 66.7±0.6 | 66.7±0.6 | 66.7±0.6 |
k-means | 76.5±3.8 | 81.7±3.6 | 85.6±3.3 |
谱聚类 | 70.5±1.4 | 74.0±1.7 | 74.0±0.8 |
本发明 | 81.8±3.9 | 86.9±4.2 | 87.1±2.7 |
表1
由上表1可知,本发明在不同的聚类数量的设定下均取得了超过FedAvg,k-means和谱聚类的性能。这说明了本发明能够促进联邦学习的有效性。
为了进一步说明本发明对联邦学习收敛性的促进作用,进一步分析模型的正确率随通信轮数的变化情况,即通信效率。联邦学习系统中,客户端通常是不稳定的移动设备,这使得服务器与客户端通信的代价非常高,远远高于在客户端本地训练模型的代价。因此,联邦学习系统通常希望以较少的通信轮数达到较高的正确率,即希望获得更高的通信效率。如果一个联邦学习系统收敛非常慢,那么即使最终正确率很高,也被认为是缺少实用价值的。
使用本发明和上述其他方法在聚类的数量为5时,测得的正确率随通信轮数变化的曲线在EMNIST数据集上的比较如图5所示。可见,在相同的通信轮数下本发明取得了超过其他方法的正确率,这说明本发明的通信效率更高,能够促进联邦学习的收敛性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不应理解为必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于图深度聚类的联邦影像分类方法,其特征在于,包括:
S1:各个客户端使用本地影像数据集对服务器发送过来的全局模型进行训练,并将训练后的全局模型发送至服务器;
S2:服务器计算客户端发送过来的各个局部模型之间的相似度,构建出相似性图;
S3:服务器基于所述相似性图,使用各个局部模型训练最新的深度嵌入模型;
S4:在训练后的深度嵌入模型的嵌入参数空间上使用聚类算法,以依据聚类结果将嵌入向量对应的客户端聚类到K个标签下,所述K为大于1的整数;
S5:分别聚合每个标签下所有客户端的局部模型,得到K个聚合后的全局模型;
S6:将所述K个聚合后的全局模型分别发送至其标签下的各个客户端,然后返回执行S1,直至收敛。
2.如权利要求1所述的一种基于图深度聚类的联邦影像分类方法,其特征在于,所述S1之前,还包括:
S01:服务器中初始化全局模型和深度嵌入模型;
S02:建立服务器与各个客户端之间的通信连接关系;
S03:服务器发送初始化的全局模型至各个客户端。
3.如权利要求1所述的一种基于图深度聚类的联邦影像分类方法,其特征在于,客户端的本地影像数据集为Di=(Xi,Yi);
其中,i为客户端的标号,Xi为客户端i的本地影像数据,Yi为客户端i数据Xi的标签;
所述全局模型的输入为影像数据,输出为影像对应的标签;
所述深度嵌入模型的输入为全局模型参数,输出为维度低于全局模型参数空间的嵌入向量。
6.如权利要求5所述的一种基于图深度聚类的联邦影像分类方法,其特征在于,所述S1中对全局模型进行训练的过程包括:
S11:使用公式:Wi t+1=Wi t-ηtgi(Wi t)对全局模型进行训练;
其中,Wi t为模型fi在第t个轮次下的参数,ηt为第t个轮次下的步长,gi为客户端i下的梯度公式;
S12:重复执行所述S101步骤T次,得到客户端i训练后的局部模型参数Wi T,所述T为大于1的整数。
7.如权利要求6所述的一种基于图深度聚类的联邦影像分类方法,其特征在于,所述相似性图使用高斯核函数:Aij=exp(-γ||Wi-Wj||2)构建得到;
其中,exp为指数函数,γ为系数,Aij是相似性图G=(V,E,A)中的相似度矩阵A第i行第j列的值。
8.如权利要求1所述的一种基于图深度聚类的联邦影像分类方法,其特征在于,所述S4具体包括:
S41:在训练后的深度嵌入模型的嵌入参数空间中初始化K个标签作为初始聚类中心;
S42:分别计算所述训练后的深度嵌入模型中所有的嵌入向量与所述初始化K个聚类中心的欧几里得距离的平方,确定每个嵌入向量对应的初始化聚类中心,得到K个聚类嵌入向量簇;
S43:分别计算每个聚类嵌入向量簇中所有嵌入向量的平均值,并将平均值作为对应聚类嵌入向量簇新的聚类中心;
S44:若新的聚类中心与对应聚类嵌入向量簇的初始聚类中心不同且迭代次数小于预设阈值,则返回S42,否则执行S45;
S45:依据嵌入向量与聚类嵌入向量簇的对应关系,将嵌入向量对应的客户端聚类到K个标签下。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序在被处理器执行时,能够实现上述权利要求1-9任意一项所述的一种基于图深度聚类的联邦影像分类方法所包含的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210981303.0A CN115311478A (zh) | 2022-08-16 | 2022-08-16 | 一种基于图深度聚类的联邦影像分类方法、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210981303.0A CN115311478A (zh) | 2022-08-16 | 2022-08-16 | 一种基于图深度聚类的联邦影像分类方法、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115311478A true CN115311478A (zh) | 2022-11-08 |
Family
ID=83863654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210981303.0A Pending CN115311478A (zh) | 2022-08-16 | 2022-08-16 | 一种基于图深度聚类的联邦影像分类方法、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115311478A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115775026A (zh) * | 2022-12-27 | 2023-03-10 | 重庆大学 | 一种基于组织相似度的联邦学习方法 |
CN116204599A (zh) * | 2023-05-06 | 2023-06-02 | 成都三合力通科技有限公司 | 基于联邦学习的用户信息分析系统及方法 |
CN116958149A (zh) * | 2023-09-21 | 2023-10-27 | 湖南红普创新科技发展有限公司 | 医疗模型训练方法、医疗数据分析方法、装置及相关设备 |
CN117077817A (zh) * | 2023-10-13 | 2023-11-17 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
-
2022
- 2022-08-16 CN CN202210981303.0A patent/CN115311478A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115775026A (zh) * | 2022-12-27 | 2023-03-10 | 重庆大学 | 一种基于组织相似度的联邦学习方法 |
CN116204599A (zh) * | 2023-05-06 | 2023-06-02 | 成都三合力通科技有限公司 | 基于联邦学习的用户信息分析系统及方法 |
CN116204599B (zh) * | 2023-05-06 | 2023-10-20 | 成都三合力通科技有限公司 | 基于联邦学习的用户信息分析系统及方法 |
CN116958149A (zh) * | 2023-09-21 | 2023-10-27 | 湖南红普创新科技发展有限公司 | 医疗模型训练方法、医疗数据分析方法、装置及相关设备 |
CN116958149B (zh) * | 2023-09-21 | 2024-01-12 | 湖南红普创新科技发展有限公司 | 医疗模型训练方法、医疗数据分析方法、装置及相关设备 |
CN117077817A (zh) * | 2023-10-13 | 2023-11-17 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
CN117077817B (zh) * | 2023-10-13 | 2024-01-30 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115311478A (zh) | 一种基于图深度聚类的联邦影像分类方法、存储介质 | |
CN105608179B (zh) | 确定用户标识的关联性的方法和装置 | |
US9928278B2 (en) | Systems and methods for distributed data annotation | |
CN112416986B (zh) | 基于分层个性化联邦学习的用户画像实现方法及系统 | |
CN111897975A (zh) | 一种面向知识图谱表示学习训练的局部训练方法 | |
WO2017159403A1 (ja) | 予測システム、方法およびプログラム | |
CN106407364B (zh) | 一种基于人工智能的信息推荐方法和装置 | |
CN107633257B (zh) | 数据质量评估方法及装置、计算机可读存储介质、终端 | |
US11074274B2 (en) | Large scale social graph segmentation | |
CN111932386A (zh) | 用户账号确定方法及装置、信息推送方法及装置、电子设备 | |
CN110135681A (zh) | 风险用户识别方法、装置、可读存储介质及终端设备 | |
CN109960755B (zh) | 一种基于动态迭代快速梯度的用户隐私保护方法 | |
CN110909868A (zh) | 基于图神经网络模型的节点表示方法和装置 | |
CN115293919A (zh) | 面向社交网络分布外泛化的图神经网络预测方法及系统 | |
CN112668482A (zh) | 人脸识别训练方法、装置、计算机设备及存储介质 | |
CN112131261A (zh) | 基于社区网络的社区查询方法、装置和计算机设备 | |
CN106203165A (zh) | 基于可信云计算的信息大数据分析支撑方法 | |
CN109635004B (zh) | 一种数据库的对象描述提供方法、装置及设备 | |
CN113887698B (zh) | 基于图神经网络的整体知识蒸馏方法和系统 | |
CN113377964B (zh) | 知识图谱链接预测方法、装置、设备及存储介质 | |
CN112836629B (zh) | 一种图像分类方法 | |
CN112182243B (zh) | 基于实体识别模型构建知识图谱的方法、终端及存储介质 | |
CN112069412B (zh) | 信息推荐方法、装置、计算机设备及存储介质 | |
CN107423319B (zh) | 一种垃圾网页检测方法 | |
CN111144466B (zh) | 一种图像样本自适应的深度度量学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |