CN117216566B - 一种基于局部-全局伪标记的联邦半监督学习方法 - Google Patents
一种基于局部-全局伪标记的联邦半监督学习方法 Download PDFInfo
- Publication number
- CN117216566B CN117216566B CN202311189197.3A CN202311189197A CN117216566B CN 117216566 B CN117216566 B CN 117216566B CN 202311189197 A CN202311189197 A CN 202311189197A CN 117216566 B CN117216566 B CN 117216566B
- Authority
- CN
- China
- Prior art keywords
- data
- local
- pseudo
- parameters
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000004891 communication Methods 0.000 claims abstract description 16
- 208000024827 Alzheimer disease Diseases 0.000 claims description 16
- 239000003550 marker Substances 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000013459 approach Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012733 comparative method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于局部‑全局伪标记的联邦半监督学习方法,步骤S1、在通信轮次t开始时,服务器将全局模型参数传输到活动客户端;每个客户端在接收到参数后再利用全局模型和上一轮通信轮次t‑1中训练得到的本地模型在未标记数据的弱增强视图上生成伪标签,并将其作为本地训练强增强视图的目标用于优化交叉熵损失;S2、本地训练结束后每个客户端将本地模型的参数发回到服务器,服务器聚合这些参数并对其进行微调,最后得到一个新的全局模型上述交替训练过程重复多次至全局模型收敛后结束。
Description
技术领域
本发明涉及人工智能技术领域,尤其是一种基于局部-全局伪标记的联邦半监督学习方法。
背景技术
联邦学习作为一种分布式解决方案最近引起了广泛的研究关注,它允许多个参与客户端协作学习一个全局模型,而无需共享自己的私有数据。联邦学习现有的成果主要集中在有监督的环境中,即每个客户端都有完全标记的数据。然而在现实场景中,由于注释成本高或专业知识不足,大多数客户端可能没有足够的真实标签数据,而且必须注意的是,有些客户端可能拥有完全未标注的数据(例如,医院病人的医疗数据)。因此,有学者提出了联邦半监督学习范式,它通过利用客户端存在的大量未标记数据来增强全局模型的性能。根据标记数据在客户端和服务器之间的分布情况,可以将联邦半监督学习分为以下三大类:Ⅰ)Labels-at-client,该场景中客户端拥有由标记数据和未标记数据组成的混合数据集;Ⅱ)Labels-at-server,该场景中客户端包含一个未标记的数据集,而服务器则包含一个标记数据集;Ⅲ)Labels-at-Partial-Client,该场景中一部分客户端具有标记数据集,而其余客户端则具有未标记数据的数据集。
目前,联邦半监督学习领域内的通用框架是FedMatch,它涵盖了联邦半监学习场景中的前两类。FedMatch使用伪标记的方法为无标签数据生成伪标签从而利用每个客户端的未标记数据集。然而,在伪标签的生成过程中它依赖来自其它客户端的辅助模型,这就带来了潜在的隐私泄露风险,这一点与联邦学习的隐私保护性背道而驰。其次,在每一轮通信开始前,服务器都需要将H个辅助模型发送给每个活动的客户端,这极大地增加了通信的开销,降低了全局模型的收敛速度。最后,它是为每一个批次中的未标记训练数据生成伪标签,该做法会导致模型遗忘从标记数据中学习到的知识,虽然参数分解机制能够缓解该问题,但不能从根本上解决它。
SemiFL是Labels-at-server场景下一个效果较好的解决方案。它首次提出了“使用标记数据微调全局模型”和“使用全局模型生成伪标签”的交替训练方式。SemiFL同样使用伪标记法利用未标记数据,但是它为无标签数据生成伪标签时仅使用了全局模型而忽略了本地模型。当本地客户端的数据分布与服务器的差异较大时,生成的伪标签可能包含大量噪声,从而导致严重的确认偏差现象而降低全局模型的性能。尤其是标记数据量较少时,该问题会进一步加剧。
发明内容
针对当前联邦半监督学习方法存在的导致潜在信息泄漏,只使用全局模型来生成伪标签等缺陷,本发明提供一种基于局部-全局伪标记的联邦半监督学习方法。
本发明提供的基于局部-全局伪标记的联邦半监督学习方法,从客户端和服务器之间数据分布差异的角度出发,在不共享任何敏感信息的情况下,提出了一种名为FedLGMatch的新型联邦半监督学习框架。直观的理解是,与全局模型相比,本地模型捕捉本地数据独特特征的能力更强。因此,在为未标记数据生成伪标签时,自然会想到使用在每个客户端训练的本地模型来辅助全局模型。
本发明提供的基于局部-全局伪标记的联邦半监督学习方法,包括以下两个步骤:
S1、在通信轮次t开始时,服务器将全局模型参数传输到活动客户端;每个客户端在接收到参数后再利用全局模型/>和上一轮通信轮次t-1中训练得到的本地模型/>在未标记数据的弱增强视图/>上生成伪标签,并将其作为本地训练强增强视图的目标用于优化交叉熵损失。
S2、本地训练结束后,每个客户端将本地模型的参数发回到服务器,服务器首先聚合这些参数,然后利用标记数据集对其进行微调,最后得到一个新的全局模型/>
上述交替训练过程重复多次至全局模型收敛后结束。
所述步骤S1中,生成伪标签的方法如下:
对于客户端Cu的未标记数据集使用公式(1)和(2)一次性标记数据集内所有数据,并通过下列公式(3)的方式构建一个固定的伪标记数据集/>
式中,I(·)是一个指示函数,DAw是弱数据增强操作,xu是未标记数据,是通信轮次t中全局模型的参数,F(·)是一个基于卷积神经网络的编码器,τ是置信度阈值;/>是上一轮通信轮次t-1中训练得到的本地模型参数,L是未标记数据集中的类别总数。
如果数据集为空,则该客户端的训练过程将直接被跳过;否则,则从数据集Du中随机采样一个与/>等大小的数据集/>用于辅助训练,其定义如下:
其中,是生成的伪标签,/>是数据集/>的大小。
在客户端的本地训练过程中,数据集和/>被随机划分为大小为Bu的小批次数据。
对于伪标记数据集定义如下训练目标:
其中,CE表示交叉熵损失,DAs是一种强数据增强操作。
从数据集和/>被划分的小批次数据中分别采样一对样本/>和/>然后利用线性插值方法构建一对新的样本:
其中Beta(·)表示Beta分布,α是其对应的超参数;λ是Beta分布生成的一个数值,代表插值方法构造出的新数据,i表示索引下标,u是unlabeled缩写,代表未标记的数据。
对于插值数据定义如下训练目标:
未标记客户端上总的训练目标如下所示:
其中λm是决定相对权重的超参数。
所述步骤S2中,完成本地训练后并将参数发送给服务器时,首先通过聚合本地参数,然后使用标记数据集/>对其进行微调,该过程的目标函数如下:
其中,Bl是标记数据集的批次大小;均代表标签数据以及对应的标签,i表示索引下标,l是labeled的缩写,代表标记数据;最终得到一个新的全局模型/>
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于局部-全局伪标记的联邦半监督学习方法。
本发明还提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现上述的基于局部-全局伪标记的联邦半监督学习方法。
现有技术相比,本发明的有益之处在于:
(1)本发明从客户端和服务器之间数据分布差异的角度出发,在不共享任何敏感信息的情况下,提出了一种基于局部-全局伪标记的联邦半监督学习方法。使用“局部-全局”伪标记方法在客户端为无标签数据生成伪标签,它在生成伪标签的过程中同时考虑了全局模型和本地模型的输出。凭借“局部-全局”伪标记方法成功地在Non-IID设置下的未标记客户端上强调了更纯净的伪标签学习。
(2)本发明的基于局部-全局伪标记的联邦半监督学习方法,可以用于阿尔茨海默症早期预。该方法不仅能够用于发现分布式阿尔茨海默症医疗大数据的动态关联关系,而且可以解决分布式医疗大数据的数据异构、标签样本稀少、孤立私密等问题。为跨域阿尔茨海默症医疗大数据环境下,构建多粒度多模态融合的联邦半监督学习计算模型和框架提供理论依据,提高阿尔茨海默症早期预测的准确性。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1、本发明的基于局部-全局伪标记的联邦半监督学习方法整体框架。
图2、现有伪标记方法(a)和本发明的“局部-全局”伪标记方法(b)的对比图。
图3、本发明的FedLGMatch和现有的SemiFL之间伪标签数量和质量的对比图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明的基于局部-全局伪标记的联邦半监督学习方法整体框架如图1所示。它包含以下两个步骤:
(1)在通信轮次t开始时,服务器将全局模型参数传输到活动客户端。每个客户端在接收到参数后再利用全局模型/>和上一轮通信轮次t-1中训练得到的本地模型/>在未标记数据的弱增强视图/>上生成伪标签,并将其作为本地训练强增强视图/>的目标用于优化交叉熵损失。
(2)本地训练结束后,每个客户端将本地模型的参数发回到服务器,服务器首先聚合这些参数,然后利用标记数据集对其进行微调,最后得到一个新的全局模型/>
上述过程重复一定迭代次数至全局模型收敛时结束。
以下对本发明的方法进行具体描述。
目前许多关于联邦半监督学习的工作都采用了集中式半监督学习中的基于批次的伪标记方法在未标记的客户端生成伪标签,这种方法通常还使用一个较高的预定义阈值来过滤掉噪声数据。上述做法在服务器与未标记客户端共享一个数据分布时有较好的效果,然而,当为标记客户端的数据分布和服务器端的差异较大时,这种方法生成的伪标签会包含大量的噪声数据,使得模型的训练受到错误标签信息的引导,并且这一过程可能还会在后续的训练中得到累加(即确认偏差现象),最终使全局模型的性能急剧下降。为了解决上述问题,本发明提出使用“局部-全局”伪标记方法在客户端为无标签数据生成伪标签,它在生成伪标签的过程中同时考虑了全局模型和本地模型的输出。此外,为了解决知识遗忘问题,本发明采用了固定的伪标记方法而不是基于批次的伪标记方法。图2是现有技术的伪标记方法(a)和本发明的“局部-全局”伪标记方法(b)的对比图。
本发明的生成伪标签的方法如下:
对于客户端Cu的未标记数据集使用公式(1)和(2)一次性标记数据集内所有数据,并通过下列公式(3)的方式构建一个固定的伪标记数据集/>
式中,I(·)是一个指示函数,DAw是弱数据增强操作(通常是旋转、裁剪等变换),xu是未标记数据,是通信轮次t中全局模型的参数,F(·)是一个基于卷积神经网络的编码器,τ是置信度阈值;/>是上一轮通信轮次t-1中训练得到的本地模型参数,L是未标记数据集中的类别总数。
如果数据集为空,则该客户端的训练过程将直接被跳过;否则,则从数据集Du中随机采样一个与/>等大小的数据集/>用于辅助训练,其定义如下:
其中,是生成的伪标签,/>是数据集/>的大小。
在客户端的本地训练过程中,数据集和/>被随机划分为大小为Bu的小批次数据。
对于伪标记数据集定义如下训练目标:
其中,CE#表示交叉熵损失,DAs是一种强数据增强操作,例如,现有的RandAugment数据增强方法。
除此之外,本发明从数据集和/>被划分的小批次数据中分别采样一对样本和/>然后利用线性插值方法构建一对新的样本:
其中Brta(·)表示Beta分布,α是其对应的超参数。
对于插值数据定义如下训练目标:
最后,未标记客户端上总的训练目标可以被总结为如下形式:
其中λm是决定相对权重的超参数。
所述步骤S2中,完成本地训练后并将参数发送给服务器时,首先通过聚合本地参数,然后使用标记数据集/>对其进行微调,该过程的目标函数如下:
其中,Bl是标记数据集的批次大小;最终得到一个新的全局模型上述交替训练过程重复多次至全局模型收敛后结束。
性能测试:
将本发明的基于局部-全局伪标记的联邦半监督学习方法(FedLGMatch)与现有的FedMatch和SemiFL方法进行对比测试性能。这三种方法在数据集SVHN、CIFAR-10和CIFAR-100上使用不同设置以及不同标签数量运行4次的性能结果见表1。
表1、本发明的联邦半监督学习方法(FedLGMatch)与FedMatch和SemiFL方法性能测试结果
注:表1中,Non-IID是Not identically and independently distributed的缩写,即非独立同分布,表示客户端和服务器的数据分布是不一致的,Dir(·)是用于采样数据的迪利克雷分布,其参数越小表示客户端与服务器数据分布差异越大。IID是identically and independently distributed的缩写,即独立同分布,表示客户端和服务器共享同一个数据分布。Non-IID,K=2表示每个客户端只具有全部类别中最多两个类别的数据,而服务器端拥有全部类别的数据。表中FedMatch和SemiFL是对比方法,FedLGMatch是本发明提出的方法。结果采用了“均值±方差”的形式展现,黑色加粗的是最优结果,下划线的是次优结果。
从表1中可以看出,除了CIFAR-100数据集之外,FedLGMatch在三个基准测试中显著超越了它对比方法,其中SemiFL在某些情况下表现稍好一些。本发明人发现,在大多数情况下,FedLGMatch在Non-IID设置下具有更好的性能,特别是当本地客户端数据分布与服务器存在较大差异。例如,在Non-IID,K=2设置下,本发明方法在SVHN和CIFAR-10数据集上每类仅使用25个标签的测试准确率分别达到90.08%和64.76%,比SemiFL准确率提高了2.58%和4.76%。除此之外,本发明方法从以下角度进一步研究了FedLGMatch的伪标签的数量和质量(见图3):未标记数据的利用率(Mask Rate)、伪标记数据集的伪标签准确性(Mask Accuracy)、未标记数据整体的伪标签准确率(Pseudo-label Accuracy)。并且在CIFAR-10数据集上使用250个标签分别在IID和Non-IID,K=2的设置下进行了实验与SemiFL进行对比,结果显示,FedLGMatch在Non-IID设置下比SemiFL具有更好的伪标签数量和质量,以及在IID设置下的表现和SemiFL相近。这进一步表明,FedLGMatch凭借“局部-全局”伪标记方法成功地在Non-IID设置下的未标记客户端上强调了更纯净的伪标签学习。
应用案例
在当前人口老龄化社会中,阿尔茨海默症(AD)是最严峻的致残性疾病。截止目前,还没有针对阿尔茨海默症的有效治疗方法,早期发现和及时干预可以有效缓解甚至避免患者转入到不可逆阶段,因此阿尔茨海默症早期发现的准确性尤为关键。利用先进的机器学习方法,可以在一定程度上提高阿尔茨海默症早期预测的准确性。然而,当前医疗机构的内部数据具有高度的保密性与敏感性,形成一个个私密的“医疗数据孤岛”,传统数据集中模式的机器学习方法难以发挥更大的作用。因此,如何解决分布式阿尔茨海默症医疗大数据的安全隐私保护,实现隐私敏感数据不出本地医疗机构,成为当前智慧医疗从理论研究走向临床应用的关键,由此也带来了一些瓶颈问题。
分布式阿尔茨海默症医疗大数据具有孤立私密性、数据异构和标签样本稀缺等特点,传统数据集中式的机器学习方法难以应用于孤立私密性的分布式医疗大数据分析。如何针对分布式阿尔茨海默症医疗大数据的孤立私密性、标签样本稀缺性、数据异构性进行深入分析,构建微量标签信息引导的隐私保护数据分析模型,成为当前阿尔茨海默症医疗大数据处理的关键核心问题之一。联邦学习作为保护数据隐私前提下解决“数据孤岛”的新兴机器学习基础方法,在原始数据不出域的情况下,保障计算结点交换信息的安全,保护终端数据和个人数据隐私,在多参与方或多计算结点之间开展高效率的联合机器学习,在不分享隐私数据的前提下共同建立共享模型,同时也有效解决单一用户训练数据不足问题,具有强大安全的分布式协同学习能力。半监督学习能够在标签样本大量缺失的情景下,利用微量标签信息和无标签数据提升模型学习能力。
本发明的方法将半监督学习方法深度融合到联邦学习方法和框架中,不仅能够用于发现分布式阿尔茨海默症医疗大数据的动态关联关系,而且可以解决分布式医疗大数据的数据异构、标签样本稀少、孤立私密等问题。为跨域阿尔茨海默症医疗大数据环境下,构建多粒度多模态融合的联邦半监督学习计算模型和框架提供理论依据。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (5)
1.一种基于局部-全局伪标记的联邦半监督学习方法,其特征在于,包括以下两个步骤:
S1、在通信轮次t开始时,服务器将全局模型参数传输到活动客户端;每个客户端在接收到参数后再利用全局模型/>和上一轮通信轮次t-1中训练得到的本地模型/>在未标记数据的弱增强视图/>上生成伪标签,并将其作为本地训练强增强视图的目标用于优化交叉熵损失;
其中,生成伪标签的方法如下:
对于客户端Cu的未标记数据集使用公式(1)和(2)一次性标记数据集内所有数据,并通过下列公式(3)的方式构建一个固定的伪标记数据集/>
式中,I(·)是一个指示函数,DAw是弱数据增强操作,xu是未标记数据,是通信轮次t中全局模型的参数,F(·)是一个基于卷积神经网络的编码器,/>是置信度阈值;/>是上一轮通信轮次t-1中训练得到的本地模型参数,L是未标记数据集中的类别总数;
如果数据集为空,则该客户端的训练过程将直接被跳过;否则,则从数据集Du中随机采样一个与/>等大小的数据集/>用于辅助训练,其定义如下:
其中,是生成的伪标签,/>是数据集/>的大小;
在客户端的本地训练过程中,数据集和/>被随机划分为大小为Bu的小批次数据;
从数据集和/>被划分的小批次数据中分别采样一对样本/>和/>然后利用线性插值方法构建一对新的样本:
其中,Beta(·)表示Beta分布,α是其对应的超参数;λ是Beta分布生成的一个数值,代表插值方法构造出的新数据,i表示索引下标,u是unlabeled缩写,代表未标记的数据;
对于插值数据定义如下训练目标:
对于伪标记数据集定义如下训练目标:
其中,CE表示交叉熵损失,DAs是一种强数据增强操作;
未标记客户端上总的训练目标如下所示:
其中λm是决定相对权重的超参数;
S2、本地训练结束后,每个客户端将本地模型的参数发回到服务器,服务器首先聚合这些参数,然后利用标记数据集对其进行微调,最后得到一个新的全局模型/>
上述交替训练过程重复多次至全局模型收敛后结束。
2.如权利要求1所述的基于局部-全局伪标记的联邦半监督学习方法,其特征在于,步骤S2中,完成本地训练后并将参数发送给服务器时,首先通过/>聚合本地参数,然后使用标记数据集/>对其进行微调,该过程的目标函数如下:
其中,Bl是标记数据集的批次大小;均代表标签数据以及对应的标签,i表示索引下标,l是labeled的缩写,代表标记数据,最终得到一个新的全局模型/>
3.如权利要求1所述的基于局部-全局伪标记的联邦半监督学习方法,其特征在于,用于阿尔茨海默症早期预测。
4.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1或2所述方法。
5.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现权利要求1或2所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311189197.3A CN117216566B (zh) | 2023-09-14 | 2023-09-14 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311189197.3A CN117216566B (zh) | 2023-09-14 | 2023-09-14 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117216566A CN117216566A (zh) | 2023-12-12 |
CN117216566B true CN117216566B (zh) | 2024-04-09 |
Family
ID=89047575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311189197.3A Active CN117216566B (zh) | 2023-09-14 | 2023-09-14 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117216566B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310938A (zh) * | 2020-02-10 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN114065951A (zh) * | 2021-11-17 | 2022-02-18 | 黑龙江大学 | 基于non-IID数据的半监督联邦学习方法 |
WO2023038574A1 (en) * | 2021-09-10 | 2023-03-16 | Grabtaxi Holdings Pte. Ltd. | Method and system for processing a target image |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230177812A1 (en) * | 2021-12-08 | 2023-06-08 | The Hong Kong University Of Science And Technology | Random sampling consensus federated semi-supervised learning |
-
2023
- 2023-09-14 CN CN202311189197.3A patent/CN117216566B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310938A (zh) * | 2020-02-10 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
WO2023038574A1 (en) * | 2021-09-10 | 2023-03-16 | Grabtaxi Holdings Pte. Ltd. | Method and system for processing a target image |
CN114065951A (zh) * | 2021-11-17 | 2022-02-18 | 黑龙江大学 | 基于non-IID数据的半监督联邦学习方法 |
Non-Patent Citations (1)
Title |
---|
一种结合GAN和伪标签的深度半监督模型研究;杨灿;;中国科技信息;20200901(17);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117216566A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wen et al. | Trend: Temporal event and node dynamics for graph representation learning | |
Gou et al. | Multilevel attention-based sample correlations for knowledge distillation | |
CN111858955B (zh) | 基于加密联邦学习的知识图谱表示学习增强方法和装置 | |
CN113536383B (zh) | 基于隐私保护训练图神经网络的方法及装置 | |
Wang et al. | Artificial intelligence in optical communications: from machine learning to deep learning | |
CN113657607B (zh) | 一种面向联邦学习的连续学习方法 | |
Shahaf et al. | Towards a theory of ai completeness. | |
CN114186694B (zh) | 一种高效安全,低通信的纵向联邦学习方法 | |
CN112667824B (zh) | 基于多语义学习的知识图谱补全方法 | |
Jia et al. | Extrapolation over temporal knowledge graph via hyperbolic embedding | |
Yan et al. | Multi-participant vertical federated learning based time series prediction | |
CN117216566B (zh) | 一种基于局部-全局伪标记的联邦半监督学习方法 | |
CN113033410B (zh) | 基于自动数据增强的域泛化行人重识别方法、系统及介质 | |
CN117893807B (zh) | 基于知识蒸馏的联邦自监督对比学习图像分类系统及方法 | |
Zhou et al. | Adaptive mutual learning for unsupervised domain adaptation | |
CN114399055A (zh) | 一种基于联邦学习的域泛化方法 | |
CN116778233B (zh) | 一种基于图神经网络的不完全深度多视图半监督分类方法 | |
Wang et al. | Meta-learning adaptation network for few-shot link prediction in heterogeneous social networks | |
CN108470215A (zh) | 社交网络服务中模糊信任度计算方法 | |
CN112862003A (zh) | 一种图神经网络信息增强方法、装置及设备 | |
Li et al. | VFed-SSD: Towards practical vertical federated advertising | |
Hong et al. | Retracted: Artificial intelligence point‐to‐point signal communication network optimization based on ubiquitous clouds | |
Wang et al. | A novel approach of unknown network attack detection based on zero-shot learning | |
Zhou et al. | Metric Learning-based Few-Shot Malicious Node Detection for IoT Backhaul/Fronthaul Networks | |
CN114169515B (zh) | 一种基于高阶图神经网络的社交关系识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |