CN111856934B - 一种同构智能车间之间的联邦学习数据处理算法 - Google Patents

一种同构智能车间之间的联邦学习数据处理算法 Download PDF

Info

Publication number
CN111856934B
CN111856934B CN202010684786.9A CN202010684786A CN111856934B CN 111856934 B CN111856934 B CN 111856934B CN 202010684786 A CN202010684786 A CN 202010684786A CN 111856934 B CN111856934 B CN 111856934B
Authority
CN
China
Prior art keywords
user server
gradient
server
value
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010684786.9A
Other languages
English (en)
Other versions
CN111856934A (zh
Inventor
简祯祈
黄嘉泽
胡凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Taliang Technology Co ltd
Original Assignee
Nanjing Taliang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Taliang Technology Co ltd filed Critical Nanjing Taliang Technology Co ltd
Priority to CN202010684786.9A priority Critical patent/CN111856934B/zh
Publication of CN111856934A publication Critical patent/CN111856934A/zh
Application granted granted Critical
Publication of CN111856934B publication Critical patent/CN111856934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/148Wavelet transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Abstract

本发明公开了一种同构智能车间之间的联邦学习数据处理算法,利用获取的公钥对两个使用方服务器进行加密和模型预训练,并将得到的梯度值和损失值汇总上传至供货方服务器;利用所述供货方服务器进行依次尺度一致化和小波变换,去掉高频系数,经过小波逆变换重构得到新的梯度矩阵和二维矩阵;然后随机抽取样本,计算对应的置信度值和收益值,同时利用所述置信度值计算出对应的梯度值,解密后回传至所述第一使用方服务器和所述第二使用方服务器,进行对应的模型参数更新,直至损失函数收敛,有效的降低数据学习中的噪声,提高学习的效果。

Description

一种同构智能车间之间的联邦学习数据处理算法
技术领域
本发明涉及数据处理技术领域,尤其涉及一种同构智能车间之间的联邦学习数据处理算法。
背景技术
随着工业智能化的程度不断加深,在单独的智能生产设备的基础上,出现了智能车间的概念。智能车间能够通过车间管理系统(MES)或者企业管理系统(ERP),快速响应不同的生产任务,依据各个生产单元的特性优化生产流程,成为很多生产制造企业所需的整体打包的服务体系。
在供货方给多个使用方提供了多个结构相同(整体相同,可以有模块删减)的智能车间后,经过平时的长期应用,这些随时间积累的数据可以对整体智能车间提供进一步控制模型优化的信息。如果整合所有数据的学习的话,能够获得比单独学习更好的控制模型,但是现实的问题是多方数据之间却又是不能共享的。所以在此,人们提出了联邦学习的概念,用于解决这一数据学习问题。在现有的联邦学习的模型信息传输的内容上,主要是模型迭代梯度,联邦学习是在供货方的服务器端,获得每个使用方的模型内参数的变化的梯度,而不是直接参与学习的原始数据,在通过所有使用方的每次迭代学习的梯度的条件下,学习和反馈信息给所有使用方,达到一个比所有使用方的更优的控制模型。
基于模型迭代梯度的学习方法存在一个问题,就是梯度本身是一个一阶函数,对数据中的噪声十分敏感,而智能车间中生产时的数据会包含很多噪声,例如智能设备在损坏维修时的时延就是一种椒盐噪声;力传感器传输回数据时,数据中会存在高斯时延,工人操作时的错误,这些都是数据上的噪声,这些噪声原本在0阶时就已经严重影响了模型,现在变成一阶模型后,会更加极端的影响数据的可靠性。更加影响了每次学习迭代过程中,从供货端回传控制参数给使用方端的数据的可靠性,从而严重影响训练出的控制模型的效能。
发明内容
本发明的目的在于提供一种同构智能车间之间的联邦学习数据处理算法,有效的降低数据学习中的噪声,提高学习的效果。
为实现上述目的,本发明提供了一种同构智能车间之间的联邦学习数据处理算法,包括:
利用获取的公钥对两个使用方服务器进行加密和模型预训练;
对训练得到的数据进行尺度一致化、小波变换和小波逆变换;
根据小波逆变换结果得到对应的置信度值和收益值;
计算出两个所述使用方服务器的训练梯度值并解密回传,直至损失函数收敛。
其中,利用获取的公钥对两个使用方服务器进行加密和模型预训练,包括:
利用加密技术掩蔽公共共享样本集,并利用获取的公钥对第一使用方服务器和第二使用方服务器计算出的梯度值进行加密,同时根据标签数据,计算出对应的损失值,并汇总上传至供货方服务器。
其中,对训练得到的数据进行尺度一致化、小波变换和小波逆变换,包括:
判断所述第一使用方服务器和所述第二使用方服务器计算出的梯度值中的特征维度的大小,并用零将两个特征维度填充至相同大小后,将尺度一致化后的梯度矩阵和二维矩阵进行小波分解去噪。
其中,对训练得到的数据进行尺度一致化、小波变换和小波逆变换,还包括:
通过软阈值函数将大于阈值的高频系数的绝对值减去阈值得到的结果作为新的高频系数,将小于阈值的高频系数置为零,得到新的高低频分量,同时利用小波逆变换重构得到新的梯度矩阵和二维矩阵。
其中,根据小波逆变换结果得到对应的置信度值和收益值,包括:
随机抽取小波逆变换重构得到新的梯度矩阵和二维矩阵中的样本,计算出对应的输出与对应标签中人工标记输出的差别,得到置信度值,并根据所述第一使用方服务器和所述第二使用方服务器对应的损失值,得到对应的收益值。
其中,计算出两个所述使用方服务器的训练梯度值并解密回传,直至损失函数收敛,包括:
根据所述置信度值分别计算出所述第一使用方服务器和所述第二使用方服务器的训练梯度,并由所述供货方服务器解密后,分别回传至所述第一使用方服务器和所述第二使用方服务器,进行对应的模型参数更新,直至损失函数收敛。
本发明的一种同构智能车间之间的联邦学习数据处理算法,利用获取的公钥对两个使用方服务器进行加密和模型预训练,并将得到的梯度值和损失值汇总上传至供货方服务器;利用所述供货方服务器进行依次尺度一致化和小波变换,去掉高频系数,经过小波逆变换重构得到新的梯度矩阵和二维矩阵;然后随机抽取样本,计算对应的置信度值和收益值,同时利用所述置信度值计算出对应的梯度值,解密后回传至所述第一使用方服务器和所述第二使用方服务器,进行对应的模型参数更新,直至损失函数收敛,有效的降低数据学习中的噪声,提高学习的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种同构智能车间之间的联邦学习数据处理算法的步骤示意图。
图2是本发明提供的算法关系示意图。
图3是本发明提供的同构智能车间之间的联邦学习数据处理算法的流程示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明提供一种同构智能车间之间的联邦学习数据处理算法,包括:
S101、利用获取的公钥对两个使用方服务器进行加密和模型预训练。
具体的,联邦学习利用各个客户端联合训练一个全局模型,但是各个客户端之间相互不分享私有数据。纵向联邦学习的基本框架,不失一般性,假设使用方的服务器(Ci)只有两个A和B,
A:数据
Figure BDA0002587142350000041
B:数据
Figure BDA0002587142350000042
其中,DA中有一小部分与DB中样本对应的标签
Figure BDA0002587142350000043
θAB分别为A和B在本地使用数据训练模型时得到的梯度值,经过加密后用[[GA]],[[GB]]来表示。
Figure BDA0002587142350000044
分别为A,B在第i次迭代学习时得到的的损失函数,加密后表示为
Figure BDA0002587142350000045
A和B的隐含层的表示是来自于两个神经网络,
Figure BDA0002587142350000046
其中NA,NB∈R分别是A,B两个客户端数据的样本数,
Figure BDA0002587142350000047
是DA上第i个样本的标签。
Figure BDA0002587142350000048
d是神经网络隐含层的维度。
通过使用常见的RSA方案等加密技术掩蔽数据ID,可以在隐私保护的同时找到公共共享样本ID集,即DC。其中只有公共样本集用于交换,其他数据是不能向对方透露。由于使用的是纵向联邦学习的基本框架,各个客户端之间的相同的用户ID较多,可以直接使用有标签方的标签数据,从而使得无标签的B客户端能够利用本地特征数据进行训练,如图2所提供的算法关系示意图所示,然后利用获取的公钥对第一使用方服务器A和第二使用方服务器B计算出的梯度值进行加密,同时根据标签数据,计算出对应的损失值,并汇总上传至供货方服务器,其中,所述梯度值包括对应的梯度矩阵和参数矩阵
Figure BDA0002587142350000049
Figure BDA00025871423500000410
初始梯度矩阵的维度分别是n×i_Afeature,n×i_Bfeature(n×i_Afeature是A的特征维度,n×i_Bfeature是B的特征维度,n是预训练迭代次数,迭代一次就会得到一组梯度)。
S102、对训练得到的数据进行尺度一致化、小波变换和小波逆变换。
具体的,当所述供货方服务器接收到所述梯度值后,判断所述第一使用方服务器和所述第二使用方服务器计算出的梯度值中的特征维度的大小,并用零将两个特征维度填充至相同大小,即用零将特征维度小的梯度矩阵填充至与特征维度大的梯度矩阵的尺寸一致,得到
Figure BDA00025871423500000411
Figure BDA00025871423500000412
将尺度一致化后的梯度矩阵和二维矩阵进行小波分解去噪,把尺度一致化处理后的梯度矩阵和经过神经网络得到中间值构成的二维矩阵
Figure BDA0002587142350000051
Figure BDA0002587142350000052
进行小波分解,通过公式中的1个低频分量L和3个不同方向上的高频分量H,V,D:
[L,H,V,D]=dwt2(pp,n,'harr')
其中,pp是待分解的二维矩阵,n表示分解尺度,'harr'表示小波变换使用的是harr基。符号dwt2代表的是二维小波变换。
Figure BDA0002587142350000053
和分别输入到小波变换公式中得到各自的L、H、V、D,通过软阈值函数将大于阈值的高频系数的绝对值减去阈值得到的结果作为新的高频系数,将小于阈值的高频系数置为0,得到新的L’、H’、V’、D’。然后再通过小波逆变换重构得到新的初始梯度矩阵和神经网络的中间参数,即
Figure BDA0002587142350000054
ppinw=idwt2(L',H',V',D','harr')
其中,ppinv是去噪后的二维矩阵,即
Figure BDA0002587142350000055
符号idwt2代表的是二维的逆小波变换。
S103、根据小波逆变换结果得到对应的置信度值和收益值。
具体的,在每次经过模型反馈的梯度信息的学习过后,随机抽取小波逆变换重构得到新的梯度矩阵和二维矩阵中的部分样本,计算出新的模型输出下对应的输出与对应标签中人工标记输出的差别,得到置信度值,并根据所述第一使用方服务器和所述第二使用方服务器对应的损失值,得到对应的收益值
Figure BDA0002587142350000056
Figure BDA0002587142350000057
相邻损失越接近0则效果越好,收益值越小表明梯度下降效果越好,梯度值θAB对收敛速度越有正面影响。收益值的表达式为:
Figure BDA0002587142350000058
Figure BDA0002587142350000059
S104、计算出两个所述使用方服务器的训练梯度值并解密回传,直至损失函数收敛。
具体的,供货方服务器根据所述置信度值分别计算出适用于所述第一使用方服务器和所述第二使用方服务器的训练梯度,计算公式为:
Figure BDA00025871423500000510
Figure BDA00025871423500000511
Figure BDA00025871423500000512
Figure BDA00025871423500000513
并由所述供货方服务器解密后,分别回传至所述第一使用方服务器和所述第二使用方服务器,然后所述第一使用方服务器和所述第二使用方服务器根据解密后的训练梯度值进行对应的模型参数更新,直至损失函数收敛,在样本对齐及模型训练过程中,所述第一使用方服务器和所述第二使用方服务器各自的数据均保留在本地,且训练中的数据交互也不会导致数据隐私泄露。可以有效的降低数据学习中的噪声,提高学习的效果。从而用于在工程中,在供货方为不同使用方提供了相同结构的智能车间后,供货方通过联邦学习的方法,在对多使用方数据保密的前提下,去除多方数据噪声,回传精确信息内容,学习出一个比单独学习时的模型更优的模型,从而提高多方整体智能车间的效能。
如图3所提供的同构智能车间之间的联邦学习数据处理算法的流程示意图所示,首选进行初始化,第一使用方服务器A和第二使用方服务器B计算出初始模型结构和梯度,并将置信度初始值为1,利用获取的公钥对两个使用方服务器进行加密和模型预训练,并将得到的梯度值和损失值汇总上传至供货方服务器,并判断是否达到置信度精度要求,若没有达到,则供货方服务器对于第一使用方服务器A和第二使用方服务器B进行梯度补齐,并当成图片进行小波变换,去掉高频部分,保留低频,然后进行小波逆变换,并判断是否是第一次传输,若是第一次传输,则平均第一使用方服务器A和第二使用方服务器B的逆变换值,得到对应梯度值,并赋值给第一使用方服务器A和第二使用方服务器B的模型,然后得到对应的新的置信度,用新的置信度和滤波后的模型,计算出适用于第一使用方服务器A和第二使用方服务器B的新的梯度值,直至达到最大迭代次数或者达到置信度精度要求后,输出模型,提高多方整体智能车间的效能。
本发明的一种同构智能车间之间的联邦学习数据处理算法,利用获取的公钥对两个使用方服务器进行加密和模型预训练,并将得到的梯度值和损失值汇总上传至供货方服务器;利用所述供货方服务器进行依次尺度一致化和小波变换,去掉高频系数,经过小波逆变换重构得到新的梯度矩阵和二维矩阵;然后随机抽取样本,计算对应的置信度值和收益值,同时利用所述置信度值计算出对应的梯度值,解密后回传至所述第一使用方服务器和所述第二使用方服务器,进行对应的模型参数更新,直至损失函数收敛,有效的降低数据学习中的噪声,提高学习的效果。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (4)

1.一种同构智能车间之间的联邦学习数据处理算法,其特征在于,包括:
利用获取的公钥对两个使用方服务器进行加密和模型预训练;
对训练得到的数据进行尺度一致化、小波变换和小波逆变换;
根据小波逆变换结果得到对应的置信度值,根据第一使用方服务器和第二使用方服务器对应的损失值得到对应的收益值;
计算出两个所述使用方服务器的训练梯度值并解密回传,直至损失函数收敛;
具体流程如下:
第一使用方服务器和第二使用方服务器计算出初始模型结构和梯度,并将置信度初始值为1,利用获取的公钥对两个使用方服务器进行加密和模型预训练,并将得到的梯度值和损失值汇总上传至供货方服务器,并判断是否达到置信度精度要求,若没有达到,则供货方服务器对于第一使用方服务器和第二使用方服务器进行梯度补齐,并当成图片进行小波变换,去掉高频部分,保留低频,然后进行小波逆变换,并判断是否是第一次传输,若是第一次传输,则平均第一使用方服务器和第二使用方服务器的逆变换值,得到对应梯度值,并赋值给第一使用方服务器和第二使用方服务器的模型,然后得到对应的新的置信度,用新的置信度和滤波后的模型,计算出适用于第一使用方服务器和第二使用方服务器的新的梯度值,直至达到最大迭代次数或者达到置信度精度要求后,输出模型;
其中,新的置信度值的生成过程为:随机抽取小波逆变换重构得到新的梯度矩阵和二维矩阵中的部分样本,计算出新的模型输出下对应的输出与对应标签中人工标记输出的差别,得到置信度值,并根据所述第一使用方服务器和所述第二使用方服务器对应的损失值,得到对应的收益值;
新的梯度值的生成过程为:供货方服务器根据所述置信度值分别计算出适用于所述第一使用方服务器和所述第二使用方服务器的训练梯度,并由所述供货方服务器解密后,分别回传至所述第一使用方服务器和所述第二使用方服务器,然后所述第一使用方服务器和所述第二使用方服务器根据解密后的训练梯度值进行对应的模型参数更新,直至损失函数收敛。
2.如权利要求1所述的同构智能车间之间的联邦学习数据处理算法,其特征在于,利用获取的公钥对两个使用方服务器进行加密和模型预训练,包括:
利用加密技术掩蔽公共共享样本集,并利用获取的公钥对第一使用方服务器和第二使用方服务器计算出的梯度值进行加密,同时根据标签数据,计算出对应的损失值,并汇总上传至供货方服务器。
3.如权利要求2所述的同构智能车间之间的联邦学习数据处理算法,其特征在于,对训练得到的数据进行尺度一致化、小波变换和小波逆变换,包括:
判断所述第一使用方服务器和所述第二使用方服务器计算出的梯度值中的特征维度的大小,并用零将两个特征维度填充至相同大小后,将尺度一致化后的梯度矩阵和二维矩阵进行小波分解去噪。
4.如权利要求3所述的同构智能车间之间的联邦学习数据处理算法,其特征在于,对训练得到的数据进行尺度一致化、小波变换和小波逆变换,还包括:
通过软阈值函数将大于阈值的高频系数的绝对值减去阈值得到的结果作为新的高频系数,将小于阈值的高频系数置为零,得到新的高低频分量,同时利用小波逆变换重构得到新的梯度矩阵和二维矩阵。
CN202010684786.9A 2020-07-16 2020-07-16 一种同构智能车间之间的联邦学习数据处理算法 Active CN111856934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010684786.9A CN111856934B (zh) 2020-07-16 2020-07-16 一种同构智能车间之间的联邦学习数据处理算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010684786.9A CN111856934B (zh) 2020-07-16 2020-07-16 一种同构智能车间之间的联邦学习数据处理算法

Publications (2)

Publication Number Publication Date
CN111856934A CN111856934A (zh) 2020-10-30
CN111856934B true CN111856934B (zh) 2022-11-15

Family

ID=72984538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010684786.9A Active CN111856934B (zh) 2020-07-16 2020-07-16 一种同构智能车间之间的联邦学习数据处理算法

Country Status (1)

Country Link
CN (1) CN111856934B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113806759A (zh) * 2020-12-28 2021-12-17 京东科技控股股份有限公司 联邦学习模型的训练方法、装置、电子设备和存储介质
CN113824677B (zh) * 2020-12-28 2023-09-05 京东科技控股股份有限公司 联邦学习模型的训练方法、装置、电子设备和存储介质
CN112863175B (zh) * 2020-12-31 2022-11-22 平安科技(深圳)有限公司 汽车道路监测数据处理方法、装置、设备及存储介质
CN115021985B (zh) * 2022-05-23 2023-06-16 北京融数联智科技有限公司 一种无需第三方参与的逻辑回归模型训练方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255444A (zh) * 2018-08-10 2019-01-22 深圳前海微众银行股份有限公司 基于迁移学习的联邦建模方法、设备及可读存储介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN111143308A (zh) * 2019-12-26 2020-05-12 许昌中科森尼瑞技术有限公司 基于联邦学习的高低压电动机数据处理方法、系统及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089587A1 (en) * 2016-09-26 2018-03-29 Google Inc. Systems and Methods for Communication Efficient Distributed Mean Estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255444A (zh) * 2018-08-10 2019-01-22 深圳前海微众银行股份有限公司 基于迁移学习的联邦建模方法、设备及可读存储介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN111143308A (zh) * 2019-12-26 2020-05-12 许昌中科森尼瑞技术有限公司 基于联邦学习的高低压电动机数据处理方法、系统及装置

Also Published As

Publication number Publication date
CN111856934A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111856934B (zh) 一种同构智能车间之间的联邦学习数据处理算法
CN115102763B (zh) 基于可信联邦学习多域DDoS攻击检测方法与装置
CN112395643B (zh) 一种神经网络的数据隐私保护方法及系统
CN113609398A (zh) 一种基于异构图神经网络的社交推荐方法
WO2023138152A1 (zh) 一种基于区块链的联邦学习方法和系统
CN113657607B (zh) 一种面向联邦学习的连续学习方法
CN114254386A (zh) 基于层次聚合和区块链的联邦学习隐私保护系统及方法
Song et al. Privacy-preserving unsupervised domain adaptation in federated setting
Shterev et al. Amplitude scale estimation for quantization-based watermarking
CN111931814A (zh) 一种基于类内结构紧致约束的无监督对抗域适应方法
CN115859184A (zh) 基于联合学习的船舶故障诊断模型系统及其训练方法
Wang et al. Efficient participant contribution evaluation for horizontal and vertical federated learning
Cheung et al. Fedsgc: Federated simple graph convolution for node classification
Zeng et al. Quantum watermark algorithm based on maximum pixel difference and tent map
Li et al. Privacy protection method based on multidimensional feature fusion under 6G networks
Xu et al. A compact neural network-based algorithm for robust image watermarking
CN115510472B (zh) 一种面向云边聚合系统的多重差分隐私保护方法及系统
Anis et al. A reframed watermark extraction approach using the ABC algorithm
CN115378707B (zh) 基于门限同态的自适应采样联邦学习隐私保护方法
CN116820816A (zh) 一种基于多层分组聚合的横向联邦学习故障检测方法
Wang et al. Image encryption algorithm using multi-base diffusion and a new four-dimensional chaotic system
CN115905978A (zh) 基于分层联邦学习的故障诊断方法及系统
CN116089715A (zh) 一种基于个性化联邦技术的序列推荐方法
CN115130568A (zh) 支持多参与方的纵向联邦Softmax回归方法及系统
CN115131605A (zh) 一种基于自适应子图的结构感知图对比学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant