CN113627086B - 横向联邦学习建模优化方法、设备、介质及程序产品 - Google Patents
横向联邦学习建模优化方法、设备、介质及程序产品 Download PDFInfo
- Publication number
- CN113627086B CN113627086B CN202110964074.7A CN202110964074A CN113627086B CN 113627086 B CN113627086 B CN 113627086B CN 202110964074 A CN202110964074 A CN 202110964074A CN 113627086 B CN113627086 B CN 113627086B
- Authority
- CN
- China
- Prior art keywords
- signature
- model
- local
- target
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000003062 neural network model Methods 0.000 claims abstract description 97
- 238000012549 training Methods 0.000 claims abstract description 96
- 238000005457 optimization Methods 0.000 claims abstract description 52
- 238000012795 verification Methods 0.000 claims description 47
- 238000003860 storage Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 abstract description 18
- 239000011159 matrix material Substances 0.000 description 13
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
- G06Q50/184—Intellectual property management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Tourism & Hospitality (AREA)
- Technology Law (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Entrepreneurship & Innovation (AREA)
- General Health & Medical Sciences (AREA)
- Operations Research (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种横向联邦学习建模优化方法、设备、介质及程序产品,应用于联邦参与方,所述横向联邦学习建模优化方法包括:依据获取的训练任务数据集和目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将目标白盒签名嵌入本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;将签名嵌入本地模型发送至横向联邦服务器,以供横向联邦服务器对各联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;基于聚合签名嵌入本地模型,优化签名嵌入本地模型,得到目标签名嵌入模型。本申请解决了分布式机器学习场景中AI模型知识产权保护安全性低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能技术领域,尤其涉及一种横向联邦学习建模优化方法、设备、介质及程序产品。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。
随着计算机软件和人工智能、大数据云服务应用的不断发展,目前,保护深度神经网络的知识产权,如何使其不被非法拷贝、分发和滥用是急迫的需求,目前,虽然基于网络嵌入水印和护照的方法可保护AI模型的知识产权,但是,该方法无法直接应用于分布式机器学习场景,例如,联邦学习场景以及联邦迁移学习场景等,所以,现有的分布式机器学习场景中难以保护AI模型的知识产权,分布式机器学习场景中的AI模型在知识产权保护方面仍然存在安全隐患。
发明内容
本申请的主要目的在于提供一种横向联邦学习建模优化方法、设备、介质及程序产品,旨在解决现有技术中分布式机器学习场景中AI模型知识产权保护安全性低的技术问题。
为实现上述目的,本申请提供一种横向联邦学习建模优化方法,所述横向联邦学习建模优化方法应用于联邦参与方,所述横向联邦学习建模优化方法包括:
获取训练任务数据集和目标白盒签名;
依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;
将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;
基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型。
本申请还提供一种横向联邦学习建模优化装置,所述横向联邦学习建模优化装置为虚拟装置,且所述横向联邦学习建模优化装置应用于联邦参与方,所述横向联邦学习建模优化装置包括:
获取模块,用于获取训练任务数据集和目标白盒签名;
嵌入模块,用于依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;
聚合模块,用于将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;
优化模块,用于基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型。
本申请还提供一种横向联邦学习建模优化设备,所述横向联邦学习建模优化设备为实体设备,所述横向联邦学习建模优化设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述横向联邦学习建模优化方法的程序,所述横向联邦学习建模优化方法的程序被处理器执行时可实现如上述的横向联邦学习建模优化方法的步骤。
本申请还提供一种介质,所述介质为可读存储介质,所述可读存储介质上存储有实现横向联邦学习建模优化方法的程序,所述横向联邦学习建模优化方法的程序被处理器执行时实现如上述的横向联邦学习建模优化方法的步骤。
本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的横向联邦学习建模优化方法的步骤。
本申请提供了一种横向联邦学习建模优化方法、设备、介质及程序产品,相比于现有技术采用的基于网络嵌入水印和护照的方法可保护AI模型的知识产权的技术手段,本申请首先获取训练任务数据集和目标白盒签名,进而依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型,进而将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,由于不同联邦参与方所具备的预设签名位置不同,进而各签名嵌入本地模型在聚合后,各签名嵌入本地模型的模型网络参数中的签名不会互相干扰,可防止进行聚合的各签名嵌入本地模型中的模型网络参数不会互相抵消,进而基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型,实现了在分布式机器学习场景中,构建嵌入了目标白盒签名的目标签名嵌入模型的目的,且在分布式模型构建过程中,属于不同参与方的签名嵌入本地模型不会由于模型聚合而导致嵌入的签名失效,进而在目标签名嵌入模型中总能提取出嵌入的的准确目标白盒签名,实现了将通过目标白盒签名验证保护分布式机器学习模型的知识产权的目的,克服了现有的保护AI模型的知识产权的方法无法直接应用于分布式机器学习场景,而导致现有的分布式机器学习场景中难以保护AI模型的知识产权,分布式机器学习场景中的AI模型在知识产权保护方面仍然存在安全隐患的计算缺陷,提升了分布式机器学习场景中AI模型知识产权保护的安全性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请横向联邦学习建模优化方法第一实施例的流程示意图;
图2为本申请横向联邦学习建模优化方法第二实施例的流程示意图
图3为本申请横向联邦学习建模优化方法第三实施例的流程示意图;
图4为本申请横向联邦学习建模优化方法中基于黑盒验证和白盒验证的模型所有权验证的流程示意图;
图5为本申请实施例中横向联邦学习建模优化方法涉及的硬件运行环境的设备结构示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种横向联邦学习建模优化方法,应用于联邦参与方,在本申请横向联邦学习建模优化方法的第一实施例中,参照图1,所述横向联邦学习建模优化方法包括:
步骤S10,获取训练任务数据集和目标白盒签名;
在本实施例中,需要说明的是,所述目标白盒签名为用于进行白盒验证的签名,所述目标白盒签名可以为文字、图像或者特定分布的张量等。
步骤S20,依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;
在本实施例中,依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型,具体地,在所述训练任务数据集提取至少一个训练任务样本,进而依据各训练任务样本,对所述本地神经网络模型进行迭代训练,计算所述本地神经网络模型在各训练任务样本上的模型预测损失,并依据在所述本地神经网络模型的网络参数中的预设签名位置上提取的嵌入白盒标签以及所述目标白盒标签之间的相似度,构建白盒标签嵌入损失,进而依据所述白盒标签嵌入损失以及所述模型预测损失,优化所述本地神经网络模型,得到签名嵌入本地模型,其中,所述模型预测损失用于促使所述本地神经网络模型在所述训练任务数据集上收敛,所述白盒标签嵌入损失用于促使在所述本地神经网络模型的网络参数中的预设签名位置上提取的嵌入白盒标签与所述目标白盒标签的相似度小于预设相似度阈值,或者说趋近一致。
步骤S30,将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;
在本实施例中,需要说明的是,在横向联邦学习场景中,各联邦参与方部署的签名嵌入本地模型通常一致,所述签名嵌入本地模型的模型网络参数通常为张量,预设签名位置为模型网络参数中不同比特位位置,例如,假设各签名嵌入本地模型的模型网络参数为矩阵X,联邦参与方A可设置预设签名位置为矩阵X中第一行第一列的比特位位置以及矩阵X中第一行第二列的比特位位置,而联邦参与方可设置预设签名为矩阵X中第二行第一列的比特位位置以及矩阵X中第二行第二列的比特位位置。
另外地,需要说明的是,所述预设签名位置至少包括一签名嵌入本地模型的模型网络参数中特定比特位位置,各联邦参与方设置的预设签名位置不同,也即,不同联邦参与方设置的预设签名位置无重叠部分,具体地说,不同联邦参与方在所述签名嵌入本地模型的模型网络参数中设置的至少特定比特位位置无重叠部分。
另外地,需要说明的是,由于在横向联邦学习场景中需要将各联邦参与方的签名嵌入本地模型进行聚合,若不同联邦参与方设置的预设签名位置存在重叠部分,则各联邦参与方嵌入的白盒标签将互相干扰,进而导致无法在签名嵌入本地模型的模型网络参数中成功嵌入目标白盒标签。
将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同,具体地,将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器依据预设聚合规则,对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不发生重叠,所述预设聚合规则包括加权求和以及加权平均等。
步骤S40,基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型。
在本实施例中,基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型,具体地,将所述签名嵌入本地模型替换更新为聚合标签嵌入本地模型,得到新的签名嵌入本地模型,判断新的签名嵌入本地模型是否满足预设联邦迭代训练结束条件,若满足,则将新的签名嵌入本地模型作为目标签名嵌入模型,若不满足,则返回执行步骤:在所述训练任务数据集提取至少一个训练任务样本,其中,所述预设联邦迭代训练结束条件可以为模型损失收敛以及达到最大联邦迭代次数阈值等。
本申请实施例提供了一种横向联邦学习建模优化方法,相比于现有技术采用的基于网络嵌入水印和护照的方法可保护AI模型的知识产权的技术手段,本申请实施例首先获取训练任务数据集和目标白盒签名,进而依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型,进而将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,由于不同联邦参与方所具备的预设签名位置不同,进而各签名嵌入本地模型在聚合后,各签名嵌入本地模型的模型网络参数中的签名不会互相干扰,可防止进行聚合的各签名嵌入本地模型中的模型网络参数不会互相抵消,进而基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型,实现了在分布式机器学习场景中,构建嵌入了目标白盒签名的目标签名嵌入模型的目的,且在分布式模型构建过程中,属于不同参与方的签名嵌入本地模型不会由于模型聚合而导致嵌入的签名失效,进而在目标签名嵌入模型中总能提取出嵌入的的准确目标白盒签名,实现了将通过目标白盒签名验证保护分布式机器学习模型的知识产权的目的,克服了现有的保护AI模型的知识产权的方法无法直接应用于分布式机器学习场景,而导致现有的分布式机器学习场景中难以保护AI模型的知识产权,分布式机器学习场景中的AI模型在知识产权保护方面仍然存在安全隐患的计算缺陷,提升了分布式机器学习场景中AI模型知识产权保护的安全性。
进一步地,参照图2,基于本申请上述第一实施例,在本申请另一实施例中,所述依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型的步骤包括:
步骤S21,在所述训练任务数据集中提取训练任务样本,并依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失;
在本实施例中,在所述训练任务数据集中提取训练任务样本,并依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失,具体地,在所述训练任务数据集中提取训练任务样本,进而将所述训练任务样本输入所述本地神经网络模型中执行模型预测,得到模型预测标签,进而依据所述模型预测标签和所述训练任务样本对应的预设真实标签之间的相似度,计算模型预测损失,其中,所述模型预测损失可以利用交叉熵损失函数以及L2损失函数等损失函数进行计算。
其中,所述依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失的步骤包括:
步骤S211,计算所述本地神经网络模型对于所述训练任务样本的模型损失,得到任务样本预测损失;
在本实施例中,将至少一个训练任务样本输入所述本地神经网络中执行模型预测,得到各训练任务样本对应的模型预测标签,进而依据每一所述模型预测标签与每一所述训练任务样本对应的预设真实标签之间的相似度,计算任务样本预测损失。
步骤S212,获取触发数据集中的触发样本,并计算所述本地神经网络模型对于所述触发样本的模型损失,得到触发样本预测损失;
在本实施例中,需要说明的是,在整个模型训练过程中,可设置触发样本与训练任务样本在肉眼上无区别,但训练好的本地神经网络模型对于训练任务样本和触发样本的模型输出不同,进而当将触发样本输入训练好的本地神经网络模型后,通过判断训练好的本地神经网络模型是否能输出预期的触发样本预测结果,验证训练好的本地神经网络模型是否对触发样本敏感,进而可验证训练好的本地神经网络的所有权。另外地,选取的训练任务样本的数量应当大于触发样本的数量,例如,在训练所述待验证模型时,设置任务样本的数量为10万,而设置触发样本的数量为100。
获取触发数据集中的触发样本,并计算所述本地神经网络模型对于所述触发样本的模型损失,得到触发样本预测损失,具体地,获取触发数据集中的触发样本,并将触发样本输入本地神经网络模型中执行模型预测,得到触发样本预测标签,进而依据所述触发样本对应的触发样本真实标签和所述触发样本预测标签之间的相似度,计算触发样本预测损失。
步骤S213,依据所述任务样本预测损失和所述触发样本预测损失,计算所述模型预测损失。
在本实施中,依据所述任务样本预测损失和所述触发样本预测损失,计算所述模型预测损失,具体地,对所述任务样本预测损失和所述触发样本预测损失进行加权求和,得到所述模型预测损失,进而依据所述模型预测损失优化所述本地神经网络模型,实现了依据样本注入的方式,将黑盒签名嵌入本地神经网络模型,使得训练好的本地神经网络模型对于黑盒签名对应的触发样本敏感,其中,所述黑盒签名可直接设置为所述触发样本真实标签,也可以设置为文字或者图像,但该黑盒签名与所述触发样本真实标签之间存在一一对应映射关系。
另外地,所述依据所述任务样本预测损失和所述触发样本预测损失,计算所述模型预测损失的步骤还包括:
将所述触发样本预测损失作为所述任务样本预测损失的正则项,构建所述模型预测损失。
步骤S22,依据预设签名提取器,在所述本地神经网络模型的模型网络参数中的预设签名位置上提取嵌入白盒签名;
在本实施例中,将所述本地神经网络模型的模型网络参数输入预设签名提取器,以在所述本地神经网络模型的模型网络参数中的预设签名位置上提取对应的模型网络参数值组成嵌入白盒签名,例如,假设所述模型网络参数为矩阵X,则可设置预设签名提取器为由0和1组成的矩阵Y,且矩阵Y与矩阵X的大小一致,进而可在矩阵X与矩阵Y之间进行点乘,得到矩阵Z,进而将矩阵Z中不为0的比特位数值按照预设顺序排列组成向量M,进而可将向量M作为嵌入白盒签名。
步骤S23,依据所述嵌入白盒签名和所述目标白盒签名,计算白盒签名嵌入损失;
在本实施例中,计算所述嵌入白盒签名与所述目标白盒签名之间的汉明距离,进而将该汉明距离作为白盒签名嵌入损失。
步骤S24,基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型。
在本实施例中,基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型,具体地,对所述模型预测损失和所述白盒签名嵌入损失进行加权求和,得到模型总损失,进而依据所述模型总损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型。
其中,所述模型预测损失包括所述本地神经网络模型在所述触发数据集上的触发样本预测损失,
所述基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型的步骤包括:
步骤A10,基于所述模型预测损失和所述白盒签名嵌入损失,更新所述本地神经网络模型;
在本实施例中,基于所述模型预测损失和所述白盒签名嵌入损失,更新所述本地神经网络模型,具体地。对所述模型预测损失和所述白盒签名嵌入损失进行加权求和,得到模型总损失,进而依据所述模型总损失计算的模型梯度,通过预设模型更新方法更新所述本地神经网络模型,其中,所述预设模型更新方法包括梯度下降法和梯度上升法等。
步骤A20,判断更新后的本地神经网络模型是否满足预设迭代训练结束条件,以及更新后的本地神经网络模型是否在所述触发数据集上过拟合;
步骤A30,若更新后的本地神经网络模型满足预设迭代训练结束条件且在所述触发数据集上过拟合,则将当前更新的本地神经网络模型作为所述签名嵌入本地模型;
步骤A40,否则,返回执行步骤:在所述训练任务数据集中提取训练任务样本。
在本实施例中,判断更新后的本地神经网络模型是否满足预设迭代训练结束条件,以及更新后的本地神经网络模型是否在所述触发数据集上过拟合,若更新后的本地神经网络模型满足预设迭代训练结束条件且在所述触发数据集上过拟合,则证明更新后的本地神经网络模型达到可执行目标模型任务的要求,且所述本地神经网络模型对触发数据集中的触发样本的敏感程度大于预设敏感程度阈值,进而直接将当前更新的本地神经网络模型作为签名嵌入本地模型;否则,则证明更新后的本地神经网络模型未达到可执行目标模型任务的要求,或者所述本地神经网络模型对触发数据集中的触发样本的敏感程度未大于预设敏感程度阈值,进而返回执行步骤:在所述训练任务数据集中提取训练任务样本,以继续迭代训练更新所述本地神经网络模型。
本申请实施例提供了一种白盒签名嵌入的方法,也即,在所述训练任务数据集中提取训练任务样本,并依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失,进而依据预设签名提取器,在所述本地神经网络模型的模型网络参数中的预设签名位置上提取嵌入白盒签名,进而依据所述嵌入白盒签名和所述目标白盒签名,计算白盒签名嵌入损失,进而基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型,实现了将目标白盒签名嵌入签名嵌入本地模型的模型网络参数中预设签名位置的目的,且由预设签名位置可以由联邦参与方设置,进而不同联邦参与方设置不重叠的预设签名位置,实现了在分布式机器学习场景中为各联邦参与方的本地模型嵌入互不干扰的白盒签名。
进一步地,参照图3,基于本申请上述第一实施例和第二实施例,在所述基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型步骤之后,所述横向联邦学习建模优化方法还包括:
步骤B10,获取待验证模型的目标模型网络参数,并依据预设签名提取器,在所述目标模型网络参数中提取待验证白盒签名;
在本实施例中,获取待验证模型的目标模型网络参数,并依据预设签名提取器,在所述目标模型网络参数中提取待验证白盒签名,具体地,获取所述待验证模型的目标模型网络参数,进而将所述目标模型网络参数输入预设签名提取器,以在所述目标模型网络参数的预设签名位置上提取各目标模型网络参数数值,进而将各目标模型网络参数数值排列组合为待验证白盒签名。
其中,在所述获取所述待验证模型的目标模型网络参数的步骤之前,所述横向联邦学习建模优化方法还包括:
步骤C10,获取触发样本,并将所述触发样本输入所述待验证模型,得到触发样本预测输出;
在本实施例中,获取触发样本,并将所述触发样本输入所述待验证模型,得到触发样本预测输出,具体地,获取触发样本,进而将所述触发样本输入所述待验证模型中执行模型预测,得到触发样本预测输出。
步骤C20,依据所述触发样本预测输出和所述触发样本对应的目标黑盒签名,对所述目标签名嵌入模型进行黑盒验证,以验证所述目标签名嵌入模型对所述触发样本是否敏感;
在本实施例中,依据所述触发样本预测输出和所述触发样本对应的目标黑盒签名,对所述目标签名嵌入模型进行黑盒验证,以验证所述目标签名嵌入模型对所述触发样本是否敏感,具体地,计算所述触发样本预测输出与所述触发样本对应的目标黑盒签名之间的黑盒签名汉明距离,并依据所述黑盒签名汉明距离,对所述目标签名嵌入模型进行黑盒验证,以验证所述待验证模型对所述触发样本是否敏感。
其中,所述依据所述黑盒签名汉明距离,对所述目标签名嵌入模型进行黑盒验证,以验证所述待验证模型对所述触发样本是否敏感的步骤包括:
判断所述黑盒签名汉明距离是否大于预设黑盒签名汉明距离阈值,若所述黑盒签名汉明距离大于预设黑盒签名汉明距离阈值,则黑盒验证不通过,且所述待验证模型对所述触发样本不敏感;若所述黑盒签名汉明距离不大于预设黑盒签名汉明距离阈值,则黑盒验证通过,且所述待验证模型对所述触发样本敏感。
步骤C30,若所述待验证模型对所述触发样本敏感,则执行步骤:获取所述待验证模型的目标模型网络参数。
在本实施例中,若所述待验证模型对所述触发样本敏感,则证明所述待验证模型为联邦参与方的目标签名嵌入模型的概率较大,也即,拥有待验证模型的一方非法盗用联邦参与方的目标签名嵌入模型的概率较大,进而执行步骤:获取待验证模型的目标模型网络参数。
另外地,需要说明的是,由于待验证模型的目标模型网络参数通常为隐私数据,拥有待验证模型的一方可拒绝向联邦参与方提供待验证模型的目标模型网络参数,进而联邦参与方无法进行白盒签名验证,而本申请实施例中在进行白盒签名验证之前,首先进行黑盒验证,进而当确定所述待验证模型对所述触发样本敏感时,则以此为证据要求拥有待验证模型的一方提供待验证模型的目标模型网络参数,降低了获取待验证模型的目标模型网络参数的难度,进而降低了白盒签名验证的难度,所以降低了依据白盒签名验证模型所有权的难度。
步骤B20,依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果。
在本实施例中,依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果,具体地,计算所述待验证白盒签名和所述目标白盒签名之间的汉明距离,得到白盒签名汉明距离,获得白盒签名汉明距离,进而依据所述白盒签名汉明距离,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果。
其中,所述依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果的步骤包括:
步骤B21,计算所述待验证白盒签名和所述目标白盒签名之间的汉明距离,得到白盒签名汉明距离;
步骤B22,若所述白盒签名汉明距离大于预设汉明距离阈值,则所述白盒签名验证结果为验证无效;
步骤B23,若所述白盒签名汉明距离不大于预设汉明距离阈值,则所述白盒签名验证结果为验证有效。
在本实施例中,若所述白盒签名汉明距离大于预设汉明距离阈值,则所述白盒签名验证结果为验证无效,进而确定所述待验证模型不为所述目标签名嵌入模型,若所述白盒签名汉明距离不大于预设汉明距离阈值,则所述白盒签名验证结果为验证无效,进而确定所述待验证模型为所述目标签名嵌入模型,也即,确定所述待验证模型属于拥有所述目标白盒签名的联邦参与方,进而实现了确定待验证模型的所有权的目的,如图4所示为基于黑盒验证和白盒验证的模型所有权验证的流程示意图,其中,所述可疑的机器学习API为所述待验证模型对于的API,依据API可调用待验证模型执行模型预测,触发器输入为将触发样本输入待验证模型的过程,黑盒验证为黑盒签名验证,白盒验证为白盒签名验证,打开模型参数即为获取待验证模型的目标模型网络参数的过程。
本申请实施例提供了一种基于白盒签名和黑盒签名的模型所有权验证方法,也即,首先获取触发样本,并将所述触发样本输入所述待验证模型,得到触发样本预测输出;依据所述触发样本预测输出和所述触发样本对应的目标黑盒签名,对所述目标签名嵌入模型进行黑盒验证,以验证所述目标签名嵌入模型对所述触发样本是否敏感;若所述待验证模型对所述触发样本敏感,则证明所述待验证模型的所有权属于联邦参与方的概率较大,进而实现了对待验证模型的所有权属于联邦参与方的所有权证明证据的取证,进而在所有权证明证据的情况下,即可直接要求待验证模型的拥有方提供待验证模型的目标模型网络参数,实现了获取待验证模型的目标模型网络参数的目的,降低了待验证模型的目标模型网络参数的获取难度,进而依据预设签名提取器,在所述目标模型网络参数中提取待验证白盒签名,并依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,若白盒签名验证有效,则证明待验证模型的所有权属于联邦参与方,若白盒签名验证无效,则证明待验证模型的所有权不属于联邦参与方,进而实现了依据黑盒签名和白盒签名,验证分布式机器学习模型的所有权的目的,降低了验证分布式机器学习模型的所有权的难度。
参照图5,图5是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图5所示,该横向联邦学习建模优化设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该横向联邦学习建模优化设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图5中示出的横向联邦学习建模优化设备结构并不构成对横向联邦学习建模优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图5所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及横向联邦学习建模优化程序。操作系统是管理和控制横向联邦学习建模优化设备硬件和软件资源的程序,支持横向联邦学习建模优化程序以及其它软件和/或,程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与横向联邦学习建模优化系统中其它硬件和软件之间通信。
在图5所示的横向联邦学习建模优化设备中,处理器1001用于执行存储器1005中存储的横向联邦学习建模优化程序,实现上述任一项所述的横向联邦学习建模优化方法的步骤。
本申请横向联邦学习建模优化设备具体实施方式与上述横向联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种横向联邦学习建模优化装置,所述横向联邦学习建模优化装置应用于联邦参与方,所述横向联邦学习建模优化装置包括:
获取模块,用于获取训练任务数据集和目标白盒签名;
嵌入模块,用于依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;
聚合模块,用于将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;
优化模块,用于基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型。
可选地,所述嵌入模块还用于:
在所述训练任务数据集中提取训练任务样本,并依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失;
依据预设签名提取器,在所述本地神经网络模型的模型网络参数中的预设签名位置上提取嵌入白盒签名;
依据所述嵌入白盒签名和所述目标白盒签名,计算白盒签名嵌入损失;
基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型。
可选地,所述嵌入模块还用于:
计算所述本地神经网络模型对于所述训练任务样本的模型损失,得到任务样本预测损失;
获取触发数据集中的触发样本,并计算所述本地神经网络模型对于所述触发样本的模型损失,得到触发样本预测损失;
依据所述任务样本预测损失和所述触发样本预测损失,计算所述模型预测损失。
可选地,所述模型预测损失包括所述本地神经网络模型在所述触发数据集上的触发样本预测损失,所述嵌入模块还用于:
基于所述模型预测损失和所述白盒签名嵌入损失,更新所述本地神经网络模型;
判断更新后的本地神经网络模型是否满足预设迭代训练结束条件,以及更新后的本地神经网络模型是否在所述触发数据集上过拟合;
若更新后的本地神经网络模型满足预设迭代训练结束条件且在所述触发数据集上过拟合,则将当前更新的本地神经网络模型作为所述签名嵌入本地模型;
否则,返回执行步骤:在所述训练任务数据集中提取训练任务样本。
可选地,所述横向联邦学习建模优化装置还用于:
获取待验证模型的目标模型网络参数,并依据预设签名提取器,在所述目标模型网络参数中提取待验证白盒签名;
依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果。
可选地,所述横向联邦学习建模优化装置还用于:
获取触发样本,并将所述触发样本输入所述待验证模型,得到触发样本预测输出;
依据所述触发样本预测输出和所述触发样本对应的目标黑盒签名,对所述目标签名嵌入模型进行黑盒验证,以验证所述目标签名嵌入模型对所述触发样本是否敏感;
若所述待验证模型对所述触发样本敏感,则执行步骤:获取所述待验证模型的目标模型网络参数。
可选地,所述横向联邦学习建模优化装置还用于:
计算所述待验证白盒签名和所述目标白盒签名之间的汉明距离,得到白盒签名汉明距离;
若所述白盒签名汉明距离大于预设汉明距离阈值,则所述白盒签名验证结果为验证无效;
若所述白盒签名汉明距离不大于预设汉明距离阈值,则所述白盒签名验证结果为验证有效。
本申请横向联邦学习建模优化装置的具体实施方式与上述横向联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种介质,所述介质为可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的横向联邦学习建模优化方法的步骤。
本申请可读存储介质具体实施方式与上述横向联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种计算机程序产品,且所述计算机程序产品包括有一个或者一个以上计算机程序,所述一个或者一个以上计算机程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的横向联邦学习建模优化方法的步骤。
本申请计算机程序产品具体实施方式与上述横向联邦学习建模优化方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (8)
1.一种横向联邦学习建模优化方法,其特征在于,所述横向联邦学习建模优化方法应用于联邦参与方,所述横向联邦学习建模优化方法包括:
获取训练任务数据集和目标白盒签名;
依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型;
将所述签名嵌入本地模型发送至横向联邦服务器,以供所述横向联邦服务器对各所述联邦参与方发送的签名嵌入本地模型进行聚合,得到聚合签名嵌入本地模型,其中,不同联邦参与方所具备的预设签名位置不同;
基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型;
所述依据所述训练任务数据集和所述目标白盒签名,通过对本地神经网络模型进行迭代训练更新,将所述目标白盒签名嵌入所述本地神经网络模型的网络参数中的预设签名位置,得到签名嵌入本地模型的步骤包括:
在所述训练任务数据集中提取训练任务样本,并依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失;
依据预设签名提取器,在所述本地神经网络模型的模型网络参数中的预设签名位置上提取嵌入白盒签名;
依据所述嵌入白盒签名和所述目标白盒签名,计算白盒签名嵌入损失;
基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型。
2.如权利要求1所述横向联邦学习建模优化方法,其特征在于,所述依据所述训练任务样本,通过对所述本地神经网络模型进行迭代训练,计算模型预测损失的步骤包括:
计算所述本地神经网络模型对于所述训练任务样本的模型损失,得到任务样本预测损失;
获取触发数据集中的触发样本,并计算所述本地神经网络模型对于所述触发样本的模型损失,得到触发样本预测损失;
依据所述任务样本预测损失和所述触发样本预测损失,计算所述模型预测损失。
3.如权利要求1所述横向联邦学习建模优化方法,其特征在于,所述模型预测损失包括所述本地神经网络模型在触发数据集上的触发样本预测损失,
所述基于所述模型预测损失和所述白盒签名嵌入损失,优化所述本地神经网络模型,得到所述签名嵌入本地模型的步骤包括:
基于所述模型预测损失和所述白盒签名嵌入损失,更新所述本地神经网络模型;
判断更新后的本地神经网络模型是否满足预设迭代训练结束条件,以及更新后的本地神经网络模型是否在所述触发数据集上过拟合;
若更新后的本地神经网络模型满足预设迭代训练结束条件且在所述触发数据集上过拟合,则将当前更新的本地神经网络模型作为所述签名嵌入本地模型;
否则,返回执行步骤:在所述训练任务数据集中提取训练任务样本。
4.如权利要求1所述横向联邦学习建模优化方法,其特征在于,在所述基于所述聚合签名嵌入本地模型,优化所述签名嵌入本地模型,得到目标签名嵌入模型步骤之后,所述横向联邦学习建模优化方法还包括:
获取待验证模型的目标模型网络参数,并依据预设签名提取器,在所述目标模型网络参数中提取待验证白盒签名;
依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果。
5.如权利要求4所述横向联邦学习建模优化方法,其特征在于,在所述获取所述待验证模型的目标模型网络参数的步骤之前,所述横向联邦学习建模优化方法还包括:
获取触发样本,并将所述触发样本输入所述待验证模型,得到触发样本预测输出;
依据所述触发样本预测输出和所述触发样本对应的目标黑盒签名,对所述目标签名嵌入模型进行黑盒验证,以验证所述目标签名嵌入模型对所述触发样本是否敏感;
若所述待验证模型对所述触发样本敏感,则执行步骤:获取所述待验证模型的目标模型网络参数。
6.如权利要求4所述横向联邦学习建模优化方法,其特征在于,所述依据所述待验证白盒签名和所述目标白盒签名,对所述目标签名嵌入模型进行白盒签名验证,获得白盒签名验证结果的步骤包括:
计算所述待验证白盒签名和所述目标白盒签名之间的汉明距离,得到白盒签名汉明距离;
若所述白盒签名汉明距离大于预设汉明距离阈值,则所述白盒签名验证结果为验证无效;
若所述白盒签名汉明距离不大于预设汉明距离阈值,则所述白盒签名验证结果为验证有效。
7.一种横向联邦学习建模优化设备,其特征在于,所述横向联邦学习建模优化设备包括:存储器、处理器以及存储在存储器上的用于实现所述横向联邦学习建模优化方法的程序,
所述存储器用于存储实现横向联邦学习建模优化方法的程序;
所述处理器用于执行实现所述横向联邦学习建模优化方法的程序,以实现如权利要求1至6中任一项所述横向联邦学习建模优化方法的步骤。
8.一种介质,所述介质为可读存储介质,其特征在于,所述可读存储介质上存储有实现横向联邦学习建模优化方法的程序,所述实现横向联邦学习建模优化方法的程序被处理器执行以实现如权利要求1至6中任一项所述横向联邦学习建模优化方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110964074.7A CN113627086B (zh) | 2021-08-21 | 2021-08-21 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
PCT/CN2021/141275 WO2023024368A1 (zh) | 2021-08-21 | 2021-12-24 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110964074.7A CN113627086B (zh) | 2021-08-21 | 2021-08-21 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113627086A CN113627086A (zh) | 2021-11-09 |
CN113627086B true CN113627086B (zh) | 2024-03-26 |
Family
ID=78387055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110964074.7A Active CN113627086B (zh) | 2021-08-21 | 2021-08-21 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113627086B (zh) |
WO (1) | WO2023024368A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113627086B (zh) * | 2021-08-21 | 2024-03-26 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
CN114091617B (zh) * | 2021-11-29 | 2024-06-21 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、电子设备、存储介质及程序产品 |
CN115277197B (zh) * | 2022-07-27 | 2024-01-16 | 深圳前海微众银行股份有限公司 | 模型所有权验证方法、电子设备、介质及程序产品 |
CN115795416A (zh) * | 2022-11-25 | 2023-03-14 | 天翼电子商务有限公司 | 一种基于横向联邦学习的神经网络模型确权方法及系统 |
CN116522228B (zh) * | 2023-04-28 | 2024-02-06 | 哈尔滨工程大学 | 一种基于特征模仿联邦学习的射频指纹识别方法 |
CN116567652B (zh) * | 2023-05-19 | 2024-02-23 | 上海科技大学 | 全向超表面辅助的空中计算赋能垂直联邦学习方法 |
CN116741388B (zh) * | 2023-08-14 | 2023-11-21 | 中国人民解放军总医院 | 基于联邦学习构建心血管急危重症大模型的方法 |
CN117217288B (zh) * | 2023-09-21 | 2024-04-05 | 摩尔线程智能科技(北京)有限责任公司 | 大模型的微调方法、装置、电子设备和存储介质 |
CN116996235B (zh) * | 2023-09-26 | 2023-12-05 | 中电科大数据研究院有限公司 | 联合建模的安全认证方法、装置及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639759A (zh) * | 2020-06-01 | 2020-09-08 | 深圳前海微众银行股份有限公司 | 神经网络模型保护方法、装置、设备及可读存储介质 |
CN111666987A (zh) * | 2020-05-22 | 2020-09-15 | 中国电子科技集团公司电子科学研究院 | 基于联邦学习的跨域数据安全互联方法及系统 |
CN111950739A (zh) * | 2020-08-13 | 2020-11-17 | 深圳前海微众银行股份有限公司 | 基于区块链的数据处理方法、装置、设备及介质 |
WO2021022717A1 (zh) * | 2019-08-02 | 2021-02-11 | 深圳前海微众银行股份有限公司 | 联邦学习中特征相关性分析方法、装置及可读存储介质 |
CN113095512A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108712260B (zh) * | 2018-05-09 | 2021-06-25 | 曲阜师范大学 | 云环境下保护隐私的多方深度学习计算代理方法 |
US11163860B2 (en) * | 2018-06-04 | 2021-11-02 | International Business Machines Corporation | Protecting deep learning models using watermarking |
US11687623B2 (en) * | 2018-12-10 | 2023-06-27 | University Of Maryland, College Park | Anti-piracy framework for deep neural networks |
US20210042645A1 (en) * | 2019-08-06 | 2021-02-11 | doc.ai, Inc. | Tensor Exchange for Federated Cloud Learning |
US11188791B2 (en) * | 2019-11-18 | 2021-11-30 | International Business Machines Corporation | Anonymizing data for preserving privacy during use for federated machine learning |
CN111241580B (zh) * | 2020-01-09 | 2022-08-09 | 广州大学 | 一种基于可信执行环境的联邦学习方法 |
CN113627086B (zh) * | 2021-08-21 | 2024-03-26 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
-
2021
- 2021-08-21 CN CN202110964074.7A patent/CN113627086B/zh active Active
- 2021-12-24 WO PCT/CN2021/141275 patent/WO2023024368A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021022717A1 (zh) * | 2019-08-02 | 2021-02-11 | 深圳前海微众银行股份有限公司 | 联邦学习中特征相关性分析方法、装置及可读存储介质 |
CN111666987A (zh) * | 2020-05-22 | 2020-09-15 | 中国电子科技集团公司电子科学研究院 | 基于联邦学习的跨域数据安全互联方法及系统 |
CN111639759A (zh) * | 2020-06-01 | 2020-09-08 | 深圳前海微众银行股份有限公司 | 神经网络模型保护方法、装置、设备及可读存储介质 |
CN111950739A (zh) * | 2020-08-13 | 2020-11-17 | 深圳前海微众银行股份有限公司 | 基于区块链的数据处理方法、装置、设备及介质 |
CN113095512A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Non-Patent Citations (1)
Title |
---|
联邦学习安全与隐私保护研究综述;周俊;方国英;吴楠;;西华大学学报(自然科学版)(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113627086A (zh) | 2021-11-09 |
WO2023024368A1 (zh) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113627086B (zh) | 横向联邦学习建模优化方法、设备、介质及程序产品 | |
CN108416198B (zh) | 人机识别模型的建立装置、方法及计算机可读存储介质 | |
KR102138082B1 (ko) | 다수의 이미지 일치성을 바탕으로 보험클레임 사기 방지를 실현하는 방법, 시스템, 기기 및 판독 가능 저장매체 | |
CN113627085B (zh) | 横向联邦学习建模优化方法、设备、介质 | |
CN106161342B (zh) | 安全应用的动态优化 | |
EP3396625A1 (en) | Image tampering detection method and system, electronic apparatus and storage medium | |
CN109564575A (zh) | 使用机器学习模型来对图像进行分类 | |
CN111107048A (zh) | 一种钓鱼网站检测方法、装置和存储介质 | |
CN114331829A (zh) | 一种对抗样本生成方法、装置、设备以及可读存储介质 | |
CN111324440A (zh) | 自动化流程的执行方法、装置、设备及可读存储介质 | |
KR102022058B1 (ko) | 웹 페이지 위변조 탐지 방법 및 시스템 | |
CN114049568B (zh) | 基于图像比对的标的物形变检测方法、装置、设备及介质 | |
CN110909195A (zh) | 基于区块链的图片标注方法、装置及存储介质、服务器 | |
US12013930B2 (en) | Data integrity with trusted code attestation tokens | |
JP2018041442A (ja) | Webページの異常要素を検出するためのシステム及び方法 | |
CN112785002A (zh) | 模型构建优化方法、设备、介质及计算机程序产品 | |
CN114550051A (zh) | 一种车损检测方法、装置、计算机设备及存储介质 | |
US11716350B2 (en) | Systems and methods of detecting anomalous websites | |
CN116982073A (zh) | 媒体项中基于用户输入的干扰移除 | |
CN117541964A (zh) | 云端视频处理系统及其方法 | |
CN108234441A (zh) | 确定伪造访问请求的方法、装置、电子设备和存储介质 | |
CN108898067B (zh) | 确定人和物关联度的方法、装置及计算机可读存储介质 | |
KR20200072586A (ko) | 딥러닝 기반의 이미지 개인정보 가공장치 시스템, 장치 및 그 방법 | |
Tang et al. | Android malware detection based on a novel mixed bytecode image combined with attention mechanism | |
CN117473130A (zh) | 业务处理方法、装置、设备、介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |