CN113762525A - 一种具有差分隐私保护的联邦学习模型训练方法 - Google Patents
一种具有差分隐私保护的联邦学习模型训练方法 Download PDFInfo
- Publication number
- CN113762525A CN113762525A CN202111040480.0A CN202111040480A CN113762525A CN 113762525 A CN113762525 A CN 113762525A CN 202111040480 A CN202111040480 A CN 202111040480A CN 113762525 A CN113762525 A CN 113762525A
- Authority
- CN
- China
- Prior art keywords
- model
- gradient
- privacy protection
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012544 monitoring process Methods 0.000 claims abstract description 21
- 230000000694 effects Effects 0.000 claims abstract description 15
- 230000005540 biological transmission Effects 0.000 claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 230000002776 aggregation Effects 0.000 claims description 10
- 238000004220 aggregation Methods 0.000 claims description 10
- 230000004931 aggregating effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000008439 repair process Effects 0.000 claims description 4
- 230000000379 polymerizing effect Effects 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 abstract description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种具有差分隐私保护的联邦学习模型训练方法,所述具有差分隐私保护的联邦学习模型训练方法如图1所示,包括如下步骤:建立模型和终端的连接,选择学习模型,建立模型与终端服务器的联系;模型的区分与分发,对模型进行样本级别和用户级别的区分,终端服务器将区分后的模型按照标准选择参与本轮联邦学习的设备;进行本地训练;建立隐私保护;更新全局模型;监控和反馈,数据备份记录。将模型分类进行差分隐私保护,提高对数据的保护效果;监控和反馈模块,监测数据是否存在隐私泄露,减少信息的泄露,便于隐私保护机制的维护和更新;数据备份,避免终端掉线影响数据的传输,提高训练效果。
Description
技术领域
本申请涉及联邦学习领域,尤其是一种具有差分隐私保护的联邦学习模型训练方法。
背景技术
联邦机器学习又名联邦学习,联合学习,联盟学习。联邦机器学习是一个机器学习框架,能有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模。
模型未经过分类区分,不利于对模型分别进行差分隐私保护,影响数据的保护效果,缺乏对数据的监测,不易检测数据是否存在泄露,不利于隐私保护机制的维护和更新,且不易对数据备份,终端掉线时影响数据的传输,影响训练的效果。因此,针对上述问题提出一种具有差分隐私保护的联邦学习模型训练方法。
发明内容
在本实施例中提供了一种具有差分隐私保护的联邦学习模型训练方法用于解决现有技术中模型未经过分类区分,不利于对模型分别进行差分隐私保护,缺乏对数据的监测,不易检测数据是否存在泄露,不利于隐私保护机制的维护和更新,且不易对数据备份,终端掉线时影响数据的传输的问题。
提供了一种具有差分隐私保护的联邦学习模型训练方法,所述具有差分隐私保护的联邦学习模型训练方法包括如下步骤:
S1:建立模型和终端的连接,选择学习模型,建立学习模型与终端服务器的联系;
S2:模型的区分与分发,对模型进行样本级别和用户级别的区分,终端服务器将区分后的模型按照标准选择参与本轮联邦学习的设备;
S3:进行本地训练,每个设备加载当前全局模型,使用自己的训练数据训练,得到新的本地模型;
S4:建立隐私保护,根据模型类别的区分,采用不同的方式利用差分隐私保护对信息进行加密保护;
S5:更新全局模型,每个设备向服务器上传模型的更新值,服务器收集更新值后进行聚合,得到聚合结果,进而更新全局模型;
S6:监控和反馈,对数据的更新值进行监控,判断训练的模型是否泄露某个特定的样本或用户参与了训练,并将得到的结果向终端服务器进行反馈;
S7:数据备份记录,对更新后的全局模型数据进行备份存档,避免数据传输时损坏影响数据的获取。
所述步骤S1中,模型的联邦学习以轮为单位,每轮包含模型分发、本地训练和全局更新3个阶段。
所述步骤S2中区分模型的类别,减少不同模型之间的掺杂,提高模型训练时的差分隐私保护效果。
所述步骤S3中客户做完本地训练可得到梯度更新值,服务器不是直接对梯度更新值进行聚合,而是进行梯度裁剪,取所有用户梯度更新值的中位数值。
所述步骤S4中对样本级别的差分隐私保护时,采用:1、裁剪;2、加噪的步骤,根据一组损失函数计算完梯度之后,在进行梯度下降的更新前,第一步是对每个样本计算的梯度裁剪,第二步是在这个组内梯度更新前对梯度更新总值添加噪声。对梯度进行放缩,让梯度的二范数值在范围C内,之后添加的噪声的大小和C值有关。C值是一个动态变化的值,C的值选取为这个组内梯度的范数中位数值。
所述步骤S4中对用户机构的差分隐私保护时,采用:1、裁剪;2、聚合;3、加噪的步骤,一般的联邦学习的聚合过程将每个用户返回梯度的更新值给服务器,由服务器做加权聚合。
所述步骤S4中添加噪声时,添加噪声的强度与用户梯度更新范数值中位数S有关。在聚合平均之后,服务器添加高斯噪声,然后做模型参数的全局更新。
所述步骤S4中每组参与训练的设备数量为3-5个。
所述步骤S6中当模型信息泄露时及时向终端服务器报警,工程师可针对漏洞进行修复,保证隐私保护的效果。
所述步骤S6中数据监控时向终端服务器的反馈时间间隔为1-3min。
通过本申请上述实施例,采用了模型的区分、监控和反馈和数据备份记录,解决了模型为经过分类区分,不利于对模型分别进行差分隐私保护,缺乏对数据的监测,不易检测数据是否存在泄露,不利于隐私保护机制的维护和更新,且不易对数据备份,终端掉线时影响数据的传输的问题,取得了可对模型分别进行差分隐私保护,可监测数据的泄露状况,可对数据备份,便于数据的传输和训练的效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请流程图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
实施例1
请参阅图1所示,一种具有差分隐私保护的联邦学习模型训练方法,所述具有差分隐私保护的联邦学习模型训练方法包括如下步骤:
S1建立模型和终端的连接,选择学习模型,建立学习模型与终端服务器的联系;
S2模型的区分与分发,对模型进行样本级别和用户级别的区分,终端服务器将区分后的模型按照标准选择参与本轮联邦学习的设备;
S3进行本地训练,每个设备加载当前全局模型,使用自己的训练数据训练,得到新的本地模型;
S4建立隐私保护,根据模型类别的区分,采用不同的方式利用差分隐私保护对信息进行加密保护;
S5更新全局模型,每个设备向服务器上传模型的更新值,服务器收集更新值后进行聚合,得到聚合结果,进而更新全局模型;
S6监控和反馈,对数据的更新值进行监控,判断训练的模型是否泄露某个特定的样本或用户参与了训练,并将得到的结果向终端服务器进行反馈;
S7数据备份记录,对更新后的全局模型数据进行备份存档,避免数据传输时损坏影响数据的获取。
进一步地,所述步骤S1中,模型的联邦学习以轮为单位,每个轮内包含模型分发、本地训练和全局更新这3个阶段。
进一步地,所述步骤S2中区分模型的类别,减少不同模型之间的掺杂,提高模型训练时的差分隐私保护效果。
进一步地,所述步骤S3中客户做完本地训练可得到梯度更新值,服务器不是直接对梯度更新值进行聚合,而是进行梯度裁剪,二阶范数限制取所有用户梯度更新值的中位数值。
进一步地,所述步骤S4中对样本级别的差分隐私保护时,采用:1、裁剪;2、加噪的步骤,根据一组损失函数计算完梯度之后,在进行梯度下降的更新前,第一步是对每个样本计算的梯度裁剪,第二步是在这个组内梯度更新前对梯度更新总值添加噪声。对梯度进行放缩,让梯度的二范数值在范围C内,之后添加的噪声的大小和C值有关。C值是一个动态变化的值,C的值选取为这个组内梯度的范数中位数值。
进一步地,所述步骤S4中对用户机构的差分隐私保护时,采用:1、裁剪;2、加噪的步骤,一般的联邦学习的加噪过程将每个用户返回梯度的更新值给服务器,由设备进行加噪。
进一步地,所述步骤S4中添加噪声时,添加噪声的强度与用户梯度更新范数值中位数S有关。在聚合平均之后,服务器添加高斯噪声,然后做模型参数的全局更新。
进一步地,所述步骤S4中每组参与训练的设备数量为3个。
进一步地,所述步骤S6中当模型信息泄露时及时向终端服务器报警,工程师可针对漏洞进行修复,保证隐私保护的效果。
进一步地,所述步骤S6中数据监控时向终端服务器的反馈时间间隔为3min。
上述方法适用于处理数据较少、设备数量较少的具有差分隐私保护的联邦学习模型训练方法。
实施例2
请参阅图1所示,一种具有差分隐私保护的联邦学习模型训练方法,所述具有差分隐私保护的联邦学习模型训练方法包括如下步骤:
S1:建立模型和终端的连接,选择学习模型,建立学习模型与终端服务器的联系;
S2:模型的区分与分发,对模型进行样本级别和用户级别的区分,终端服务器将区分后的模型按照标准选择参与本轮联邦学习的设备;
S3:进行本地训练,每个设备加载当前全局模型,使用自己的训练数据训练,得到新的本地模型;
S4:建立隐私保护,根据模型类别的区分,采用不同的方式利用差分隐私保护对信息进行加密保护;
S5:更新全局模型,每个设备向服务器上传模型的更新值,服务器收集更新值后进行聚合,得到聚合结果,进而更新全局模型;
S6:监控和反馈,对数据的更新值进行监控,判断训练的模型是否泄露某个特定的样本或用户参与了训练,并将得到的结果向终端服务器进行反馈;
S7数据备份记录,对更新后的全局模型数据进行备份存档,避免数据传输时损坏影响数据的获取。
进一步地,所述步骤S1中,模型的联邦学习以轮为单位,每个轮内包含模型分发、本地训练和全局更新这3个阶段。
进一步地,所述步骤S2中区分模型的类别,减少不同模型之间的掺杂,提高模型训练时的差分隐私保护效果。
进一步地,所述步骤S3中客户做完本地训练可得到梯度更新值,服务器不是直接对梯度更新值进行聚合,而是进行梯度裁剪,二阶范数限制取所有用户梯度更新值的中位数值。
进一步地,所述步骤S4中对样本级别的差分隐私保护时,采用:1、裁剪;2、加噪的步骤,根据一组损失函数计算完梯度之后,在进行梯度下降的更新前,第一步是对每个样本计算的梯度裁剪,第二步是在这个组内梯度更新前对梯度更新总值添加噪声。对梯度进行放缩,让梯度的二范数值在范围C内,之后添加的噪声的大小和C值有关。C值是一个动态变化的值,C的值选取为这个组内梯度的范数中位数值。
进一步地,所述步骤S4中对用户机构的差分隐私保护时,采用:1、裁剪;2、聚合;3、加噪的步骤,一般的联邦学习的聚合过程将每个用户返回梯度的更新值给服务器,由服务器做加权聚合。
进一步地,所述步骤S4中添加噪声时,添加噪声的强度与用户梯度更新范数值中位数S有关。在聚合平均之后,服务器添加高斯噪声,然后做模型参数的全局更新。
进一步地,所述步骤S4中每组参与训练的设备数量为5个。
进一步地,所述步骤S6中当模型信息泄露时及时向终端服务器报警,工程师可针对漏洞进行修复,保证隐私保护的效果。
进一步地,所述步骤S6中数据监控时向终端服务器的反馈时间间隔为3min。
上述方法适用于处理数据较多、设备数量较多的具有差分隐私保护的联邦学习模型训练方法。
本申请的有益之处在于:
将模型进行分类区分样本级别还是用户级别,分类进行差分隐私保护,提高对数据的保护效果;监控和反馈模块,监测数据是否存在隐私泄露,减少信息的泄露,便于隐私保护机制的维护和更新;数据备份,避免终端掉线影响数据的传输,提高训练效果。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述具有差分隐私保护的联邦学习模型训练方法包括如下步骤:
S1:建立模型和终端的连接,选择学习模型,建立学习模型与终端服务器的联系;
S2:模型的区分与分发,对模型进行样本级别和用户级别的区分,终端服务器将区分后的模型按照标准选择参与本轮联邦学习的设备;
S3进行本地训练,每个设备加载当前全局模型,使用自己的训练数据训练,得到新的本地模型;
S4:建立隐私保护,根据模型类别的区分,采用不同的方式利用差分隐私保护对信息进行加密保护;
S5:更新全局模型,每个设备向服务器上传模型的更新值,服务器收集更新值后进行聚合,得到聚合结果,进而更新全局模型;
S6:监控和反馈,对数据的更新值进行监控,判断训练的模型是否泄露某个特定的样本或用户参与了训练,并将得到的结果向终端服务器进行反馈;
S7:数据备份记录,对更新后的全局模型数据进行备份存档,避免数据传输时损坏影响数据的获取;
所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S1中,模型的联邦学习以轮为单位,每个轮内包含模型分发、本地训练和全局更新这3个阶段。
2.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S2中区分模型的类别,减少不同模型之间的掺杂,提高模型训练时的差分隐私保护效果。
3.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S3中客户做完本地训练可得到梯度更新值,服务器不是直接对梯度更新值进行聚合,而是进行梯度裁剪,二阶范数限制取所有用户梯度更新值的中位数值。
4.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S4中对样本级别的差分隐私保护时,采用:1、裁剪;2、加噪的步骤,根据一组损失函数计算完梯度之后,在进行梯度下降的更新前,第一步是对每个样本计算的梯度裁剪,第二步是在这个组内梯度更新前对梯度更新总值添加噪声;对梯度进行放缩,让梯度的二范数值在范围C内,之后添加的噪声的大小和C值有关;C值是一个动态变化的值,C的值选取为这个组内梯度的范数中位数值。
5.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S4中对用户机构的差分隐私保护时,采用:1、裁剪;2、聚合;3、加噪的步骤,一般的联邦学习的聚合过程将每个用户返回梯度的更新值给服务器,由服务器做加权聚合。
6.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S4中添加噪声时,添加噪声的强度与用户梯度更新范数值中位数S有关;在聚合平均之后,服务器添加高斯噪声,然后做模型参数的全局更新。
7.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S4中每组参与训练的设备数量为3-5个。
8.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S6中当模型信息泄露时及时向终端服务器报警,工程师可针对漏洞进行修复,保证隐私保护的效果。
9.根据权利要求1所述的一种具有差分隐私保护的联邦学习模型训练方法,其特征在于:所述步骤S6中数据监控时向终端服务器的反馈时间间隔为1-3min。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111040480.0A CN113762525B (zh) | 2021-09-07 | 2021-09-07 | 一种具有差分隐私保护的联邦学习模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111040480.0A CN113762525B (zh) | 2021-09-07 | 2021-09-07 | 一种具有差分隐私保护的联邦学习模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762525A true CN113762525A (zh) | 2021-12-07 |
CN113762525B CN113762525B (zh) | 2024-04-05 |
Family
ID=78793211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111040480.0A Active CN113762525B (zh) | 2021-09-07 | 2021-09-07 | 一种具有差分隐私保护的联邦学习模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762525B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114169010A (zh) * | 2021-12-13 | 2022-03-11 | 安徽理工大学 | 一种基于联邦学习的边缘隐私保护方法 |
CN114595831A (zh) * | 2022-03-01 | 2022-06-07 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114997420A (zh) * | 2022-08-03 | 2022-09-02 | 广州中平智能科技有限公司 | 基于分割学习和差分隐私融合的联邦学习系统和方法 |
CN117094410A (zh) * | 2023-07-10 | 2023-11-21 | 西安电子科技大学 | 一种面向投毒受损联邦学习的模型修复方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
CN111580970A (zh) * | 2020-05-07 | 2020-08-25 | 电子科技大学 | 一种联邦学习的模型分发与聚合的传输调度方法 |
CN112052480A (zh) * | 2020-09-11 | 2020-12-08 | 哈尔滨工业大学(深圳) | 一种模型训练过程中的隐私保护方法、系统及相关设备 |
WO2021163213A1 (en) * | 2020-02-11 | 2021-08-19 | Ventana Medical Systems, Inc. | Federated learning system for training machine learning algorithms and maintaining patient privacy |
-
2021
- 2021-09-07 CN CN202111040480.0A patent/CN113762525B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
WO2021163213A1 (en) * | 2020-02-11 | 2021-08-19 | Ventana Medical Systems, Inc. | Federated learning system for training machine learning algorithms and maintaining patient privacy |
CN111580970A (zh) * | 2020-05-07 | 2020-08-25 | 电子科技大学 | 一种联邦学习的模型分发与聚合的传输调度方法 |
CN112052480A (zh) * | 2020-09-11 | 2020-12-08 | 哈尔滨工业大学(深圳) | 一种模型训练过程中的隐私保护方法、系统及相关设备 |
Non-Patent Citations (1)
Title |
---|
KANG WEI 等: "Federated Learning With Differential Privacy:Algorithms and Performance Analysis", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114169010A (zh) * | 2021-12-13 | 2022-03-11 | 安徽理工大学 | 一种基于联邦学习的边缘隐私保护方法 |
CN114595831A (zh) * | 2022-03-01 | 2022-06-07 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114595831B (zh) * | 2022-03-01 | 2022-11-11 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114997420A (zh) * | 2022-08-03 | 2022-09-02 | 广州中平智能科技有限公司 | 基于分割学习和差分隐私融合的联邦学习系统和方法 |
CN117094410A (zh) * | 2023-07-10 | 2023-11-21 | 西安电子科技大学 | 一种面向投毒受损联邦学习的模型修复方法 |
CN117094410B (zh) * | 2023-07-10 | 2024-02-13 | 西安电子科技大学 | 一种面向投毒受损联邦学习的模型修复方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113762525B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113762525A (zh) | 一种具有差分隐私保护的联邦学习模型训练方法 | |
CN112162878B (zh) | 数据库故障发现方法、装置、电子设备及存储介质 | |
CN111309565B (zh) | 告警处理方法、装置、电子设备以及计算机可读存储介质 | |
CN109886290B (zh) | 用户请求的检测方法、装置、计算机设备及存储介质 | |
CN101997709B (zh) | 一种根告警数据分析的方法及其系统 | |
CN110164104A (zh) | 基于故障分级的故障预警方法、装置及设备 | |
CN106611291A (zh) | 信息推送方法和装置 | |
CN106126388A (zh) | 监控事件的方法、规则引擎装置和规则引擎系统 | |
CN113037575B (zh) | 网元异常的根因定位方法、装置、电子设备及存储介质 | |
CN116366374B (zh) | 基于大数据的电网网络管理的安全评估方法、系统及介质 | |
CN113037562A (zh) | 一种网关故障评估方法、装置及服务器 | |
CN105207797A (zh) | 故障定位方法和装置 | |
CN113641667B (zh) | 一种分布式大数据采集平台的数据异常监控系统及方法 | |
CN113676343A (zh) | 电力通信网故障源定位方法及装置 | |
CN106982141A (zh) | Weblogic实例监控方法及装置 | |
CN107766737B (zh) | 一种数据库审计方法 | |
CN111275453A (zh) | 一种物联网设备的行业识别方法及系统 | |
CN116720194A (zh) | 一种数据安全风险评估的方法和系统 | |
CN106815772A (zh) | 电力数据上报方法及装置 | |
CN110928942A (zh) | 指标数据监控管理方法及装置 | |
CN205692170U (zh) | 一种营配调数据预处理系统 | |
CN114338248A (zh) | 基于机器学习的用户异常行为检测方法及装置 | |
CN114091699A (zh) | 一种电力通信设备故障诊断方法及系统 | |
CN107169357A (zh) | 预警显示处理方法、装置、存储介质和处理器 | |
CN101968768B (zh) | 一种基于缺陷的软件安全性测试需求的获取与分级方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |