CN117932686A - 基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 - Google Patents
基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 Download PDFInfo
- Publication number
- CN117932686A CN117932686A CN202410333409.9A CN202410333409A CN117932686A CN 117932686 A CN117932686 A CN 117932686A CN 202410333409 A CN202410333409 A CN 202410333409A CN 117932686 A CN117932686 A CN 117932686A
- Authority
- CN
- China
- Prior art keywords
- privacy
- federal learning
- disturbance
- training
- privacy risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000007246 mechanism Effects 0.000 title claims abstract description 45
- 230000005284 excitation Effects 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 101
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000012502 risk assessment Methods 0.000 claims description 8
- 230000003190 augmentative effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000002633 protecting effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 4
- 125000004122 cyclic group Chemical group 0.000 abstract 1
- 230000007123 defense Effects 0.000 abstract 1
- 230000008569 process Effects 0.000 description 15
- 238000010801 machine learning Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 6
- 238000012550 audit Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质,包括:根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练;通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标;根据隐私评估指标结合激励策略,动态调整扰动率;根据扰动率,对训练数据集进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中;循环训练,直至联邦学习模型训练达到预设训练条件。本发明的基于激励机制的元宇宙中联邦学习隐私保护方法,能够对风险进行自适应识别和防御,并结合激励机制鼓励系统参与节点以自适应地调节隐私风险保护效果。
Description
技术领域
本发明涉及虚拟现实隐私保护技术领域,具体涉及基于激励机制的元宇宙中联邦学习隐私保护方法、系统和计算机介质。
背景技术
元宇宙作为一个完全沉浸式的、超时空的、自我维持的虚拟共享空间,结合了人工智能和区块链等新兴技术,在元宇宙中,现实中的人可以创建自己的数字化身(数字人),并以数字人的形式在元宇宙生活;然而,元宇宙数字人依赖于AR和VR等技术,从而不可避免地收集大量用户数据,由于其互动和社交性质,元宇宙涉及大量的数据流和网络通信,因此对安全和隐私构成重大风险,此外,元宇宙大量整合了人工智能技术,这本质上具有多重安全漏洞,因此,元宇宙不可避免地存在与人工智能相互关联的安全风险,包括GANs和成员推断攻击等威胁。
联邦学习作为一种以隐私为中心的分布式机器学习(ML)方法,可以在不损害用户数据的情况下实现元宇宙客户端之间的知识共享,在元宇宙的背景下,联邦学习可以比传统的集中式机器学习提供多种优势;它有助于解决虚拟宇宙中一些与数据相关的挑战。在元宇宙背景下,联邦学习可以使用去中心化数据源来训练机器学习模型,而无需将大量个人数据传输到中央服务器。元宇宙的主要挑战之一是管理和处理数百万用户生成的大量数据,包括虚拟环境、设备和用户交互,这需要大量的计算能力和存储资源。然而,传统的机器学习方法依赖于集中式数据存储和处理,这可能速度缓慢、效率低下,并引发隐私和安全问题。
目前,元宇宙的用户数据包含大量敏感和私人数据,如位置信息、个人偏好信息和生物识别信息,如果直接上传到远程端,数据所有者可能会担心隐私泄露等问题,因此存在隐私泄露等相关问题,但是,完全不向外界提供个人信息将阻碍元宇宙环境和元素的形成和构建,这对元宇宙世界的健康发展不利;因此,通常在元宇宙架构中引入联邦学习技术,利用来自物联网传感器的本地数据进行模型训练,上传模型训练的相关参数而不是本地个人数据,以实现隐私计算的目的。然而,最近的研究表明,联邦学习仍然面临许多隐私风险,最新的影响隐私风险包括标签推断攻击、源推断攻击等。
因此,目前亟需一种隐私风险防御机制适应于元宇宙场景,能够对风险进行自适应识别和防御,并结合激励机制鼓励系统参与节点以自适应地调节隐私风险保护效果的联邦学习隐私保护方法。
发明内容
发明目的:为了克服以上不足,本发明的目的是提供基于激励机制的元宇宙中联邦学习隐私保护方法及系统,其针对元宇宙背景下的隐私保护,结合联邦学习技术帮助公司/机构之间进行数据协调,消除“数据孤岛”问题,同时保障元宇宙中用户的隐私及安全,同时在隐私风险审计的过程中,结合激励机制鼓励系统参与节点以自适应地调节隐私风险保护效果,达到减少隐私风险和平衡模型性能的目的。
为解决上述技术问题,本发明提供了基于激励机制的元宇宙中联邦学习隐私保护方法,包括:
步骤1:根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练;
步骤2:通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标;
步骤3:根据隐私评估指标结合激励策略,动态调整扰动率;
步骤4:根据扰动率,对训练数据集进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中;
步骤5:循环步骤1至步骤4,直至联邦学习模型训练达到预设训练条件。
作为本发明的一种优选方式,在步骤1中,所述方法还包括:
物联网传感器本地数据由增强现实、混合现实、虚拟现实扩展现实设备的传感器采集。
作为本发明的一种优选方式,在步骤2中,所述方法还包括以下步骤:
步骤20:在每一轮的联邦学习模型训练完成后,进行隐私风险评估,隐私风险评估包括:纵向联邦下的标签推断隐私风险、横向联邦下的来源推断隐私风险;
步骤21:执行隐私风险评估后,划分匹配的隐私风险等级,生成隐私评估指标,进而将包含所述隐私风险等级的隐私评估指标作为激励机制的决策输入。
作为本发明的一种优选方式,在步骤21中,所述方法还包括:
隐私风险等级划分原则包括:根据联邦学习模型的攻击准确率划分隐私风险等级,其中攻击准确率越高,表示所述联邦学习模型的隐私风险程度越高,则所述联邦学习模型的隐私风险等级越高。
作为本发明的一种优选方式,在步骤21中,所述方法还包括:
所述划分隐私风险等级为:
隐私风险成功率: 0%-39.9% ,隐私风险等级:低;
隐私风险成功率:40%-59.9%,隐私风险等级:中;
隐私风险成功率:60%-79.9%,隐私风险等级:较高;
隐私风险成功率:80%-100%,隐私风险等级:高。
作为本发明的一种优选方式,在步骤3中,所述方法还包括以下步骤:
步骤30:随机选取至少一个影响因子,其中,所述影响因子的取值范围为:0-1;
步骤31:随机选取至少两个门限值,其中,第一门限值及第二门限值的取值范围均为0-100;
步骤32:根据隐私评估指标及影响因子设置激励策略,动态调整扰动率。
作为本发明的一种优选方式,在步骤32中,所述具体激励机制方法还包括:
本发明的具体激励机制策略是将隐私评估指标与门限值进行比较:
(1)若相邻两轮的模型训练的准确率之差>第一种门限值2(上界值)同时相邻两轮模型的隐私风险成功率之差>第二种门限值2(上界值),则现扰动率=原扰动率(1-影响因子);
(2)若第一种门限值1(下界值)<相邻两轮的模型训练的准确率之差<第一种门限值2(上界值)同时第二种门限值1(下界值)<相邻两轮模型的隐私风险成功率之差<第二种门限值2(上界值),则现扰动率=原扰动率;
(3)相邻两轮的模型训练的准确率之差<第一种门限值1(下界值)同时相邻两轮模型的隐私风险成功率之差<第二种门限值1(下界值),则现扰动率=原扰动率(1+影响因子);
其中,所述原扰动率为上一轮联邦学习模型训练的扰动率,且初始扰动率是随机选取的。
作为本发明的一种优选方式,在步骤4中,所述方法还包括以下步骤:
步骤40:将训练数据集分成不同的批次进行处理;
步骤41:对预设批次,使用对抗扰动方法,根据扰动率对训练数据集进行扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中;
计算公式如下:
sign_data_grad = data_grad.sign(),
X_adv=X+epsilon sign_data_grad,
X_adv:表示加了扰动后的数据;X表示原数据;epslion:表示扰动率;sign_data_grad :使用sign符号函数,将对原数据X求了偏导的梯度进行符号化。
本发明还提供一种基于激励机制的元宇宙中联邦学习隐私保护系统,包括:
模型训练模块,用于根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练;
隐私风险审计模块,用于通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标;
激励模块,用于根据隐私评估指标,动态自适应调整扰动率;
扰动生成模块,用于根据扰动率,对训练数据集加入来进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中。
本发明还提供一种计算机介质,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现所述的基于激励机制的元宇宙中联邦学习隐私保护方法。
本发明还提供一种计算机,包括所述计算机介质。
本发明的上述技术方案相比现有技术具有以下优点:
1、引入了基于联邦学习的元宇宙架构,利用来自物联网传感器的本地数据进行联邦学习模型训练,上传模型训练的相关参数而不是本地个人数据。
2、引入威胁联邦学习中用户隐私安全的相关攻击,作为衡量联邦学习过程的风险指标,进而在每轮训练过程中(除第一轮外)计算相邻两轮模型准确率之差以及测试风险指标并将其作为激励机制的决策输入,以此自适应调整扰动生成器的扰动率,实现减少隐私风险和平衡模型性能的目的。
3、采用对抗扰动技术防御联邦学习下的元宇宙隐私风险,同时引入激励机制后可以在隐私保护和性能开销之间取得良好的平衡,使此隐私风险防御机制适应于元宇宙场景,同时能够对风险进行自适应识别和防御,并自适应地调节隐私风险保护效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明提供的基于激励机制的元宇宙中联邦学习隐私保护系统的框架示意图。
图2是本发明提供的基于激励机制的元宇宙中联邦学习隐私保护系统的模块连接示意图。
图3是本发明提供的基于激励机制的元宇宙中联邦学习隐私保护方法的流程图。
图4是本发明提供的隐私审计方法的流程图。
图5是本发明提供的激励机制方法的流程图。
图6是本发明提供的扰动生成方法的流程图。
说明书附图标记说明:
100、模型训练模块,101、隐私风险审计模块,102、激励模块,103、扰动生成模块。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
联邦学习(federated learning,FL)作为一种带有隐私保护技术的分布式机器学习技术,其允许各参与方在不共享各方原始数据的条件下共同训练一个模型,在该范式下,无需将所有分散的数据收集到一个中心节点进行模型训练,而是通过在各自的本地设备上进行模型训练并将结果上传至中心节点来改善模型效果,期间既不容易发生隐私泄露的风险也不会违反任何的法律法规。联邦学习技术能够实现设备间的信息共享,可用于在分布式的数据集中构建全局的机器学习模型,相较传统方法不仅能够保持模型具有相差不大的准确度,还能有效保证数据安全,解决了传统机器学习中数据难以采集和数据隐私安全问题。但随着对联邦学习研究的深入,发现通过多种特定方式可以获取联邦学习的用户隐私数据或训练模型信息,这种攻击者通过技术手段破坏联邦学习模型的机密性和隐私性从而威胁用户个人信息安全的攻击行为被称为隐私攻击。目前,联邦学习中的隐私攻击主要有成员推断、属性推断、数据泄漏、模型重构、模型窃听、窃取、生成对抗网络等攻击方式。统集中学习方式采用的隐私保护技术并不能有效地抵御联邦学习中的各类隐私攻击,为解决该问题,加密方法、扰动方法、可信硬件等技术应运而生。其中,加密方法主要包含同态加密、安全多方计算;扰动方法主要技术为FGSM(Fast Gradient Sign Method)。
对抗扰动:对抗扰动技术是指通过改变输入数据,使机器学习模型难以正确识别或产生错误分类的技术。在本发明中我们通过利用对抗扰动技术FGSM(Fast GradientSign Method)对数据集进行相关扰动生成扰动样本达到减少隐私风险的目的。
FGSM方法的原理是通过计算模型在输入数据点处的梯度,并将梯度的符号应用于输入数据,从而生成对抗性扰动。
在联邦学习中,许多数据所有者可能不会积极参与共享模型的培训,尤其是当数据所有者是企业而不是个人时,当参与者使用本地数据集参与联合学习时,他们往往会获得一些收入。因此,有必要评估不同数据提供者的贡献,以便适当分配学习系统获得的利润,合理的贡献评估标准可以进一步吸引更多参与者加入激励机制。现有的联邦学习的激励机制研究主要集中在提高模型准确性和学习任务完成时间方面,然而,在实践中,客户不愿意在没有获得报酬的情况下参与学习过程,因此,如何有效地激励客户积极、可靠地参与联邦学习至关重要。关于联邦学习激励机制的研究主要用于吸引高质量或网络良好的数据所有者参与联邦学习。从当前研究状况来看,目前的研究主要基于本地数据量、计算开销、通信开销等来构建联邦学习激励机制,以促进联邦学习模型质量的提升,较少的研究利用激励机制实现自适应隐私增强。
元宇宙的出现,收集个人数据的数量以及丰富程度是前所未有的,在未来极有可能是多个公司/机构一起打造一个或多个元宇宙,那么公司/机构之间如何进行数据协调消除“数据孤岛”问题以及不同元宇宙之间如何进行数据交互,保障元宇宙中用户的隐私及安全成为亟待解决的问题。因此从非密码学角度入手,采用对抗扰动方法保护隐私安全,但是添加扰动会带来模型准确性上的损失,通常需要在参与方隐私与模型准确性之间进行权衡。
针对以上,本发明引入基于联邦学习的元宇宙架构,利用来自物联网传感器的本地数据进行模型训练,上传模型训练的相关参数而不是本地个人数据,同时在本发明中引入威胁联邦学习中用户隐私安全的相关攻击,作为衡量联邦学习过程的风险指标;在联邦学习过程中客户端上传本地模型训练的参数到中央服务器,服务器聚和各客户端的参数并训练全局模型,在每轮训练过程中(除第一轮外)计算相邻两轮模型准确率之差以及测试风险指标并将其作为激励机制的决策输入,进而根据输入参数自适应调整扰动率,以实现减少隐私风险和平衡模型性能的目的。
具体而言,参考图1、图2所示,在一些实施例中,所涉及的基于激励机制的元宇宙中联邦学习隐私保护系统至少由模型训练模块、隐私风险审计模块、激励模块及扰动生成模块几个部分构成。
模型训练模块100
通过所述模型训练模块100进行联邦学习模型训练。
隐私风险审计模块101
所述隐私风险审计模块101部署在聚合服务器端,以非侵入的方式观察来自不同物联网传感器的上传信息,以分析物联网传感器当前面临的隐私风险等级;评估的隐私风险指标被发送到激励机制,作为激励模块的决策输入。
在实际实施过程中,在每一轮的本地联邦学习模型训练结束后进行推断攻击,以此来衡量模型的风险隐私等级,其中包括对横向联邦学习下的源推断攻击和纵向联邦学习下的标签推断攻击,执行相关推断攻击后,每一轮的训练模型都会得到一个隐私风险等级,此隐私风险等级会作为后续激励机制的决策输入,进行后续操作。
其中,隐私风险等级划分原则:根据联邦学习模型的攻击准确率来划分隐私风险等级,联邦学习模型的攻击率越高代表此联邦学习模型的隐私风险程度越高,则联邦学习模型的隐私风险等级就越高。
其中,隐私风险是指:在本发明中主要针对样本属性隐私,比如成员关系、样本来源、样本标签信息等,例如在元宇宙中各个数字人之间的关系、敏感信息来源于哪个数字人以及某个数字人中携带的一些独有的标签信息等隐私。其中造成这些隐私泄露的攻击主要包括成员推理攻击(MIA)、源推断攻击(SIA)、标签推理攻击(LIA)。例如联邦学习下的两种推理攻击:源推断攻击(SIA)和标签推理攻击(LIA),其中SIA主要是在横向联邦学习下服务器识别训练数据来自哪一个客户端即源客户端;在纵向联邦学习中一般是几个参与者(通常是两个)协作训练一个机器学习(ML)模型,其特征分布在他们之间,但标签仅属于其中一个参与者,因此应该保护一个参与者拥有的标签的隐私,LIA主要是在纵向联邦学习中一个客户端可以推断另一个客户端的标签。
激励模块102
所述激励模块102根据隐私风险指标调整扰动率,以实现减少隐私风险和平衡模型性能的目的。
在实际实施过程中,设置至少一个影响因子来动态调整扰动率,设置至少两个门限值,即第一种门限值、第二种门限值,来作为激励机制的决策设置,根据隐私审计模块得到模型的隐私风险等级,由隐私风险等级来动态调整扰动率,后续会根据此扰动率来对训练数据集进行相关扰动。
其中,影响因子和门限值采用随机选取,且影响因子的取值范围为:0-1,第一种门限值及第二种门限值的取值范围均为:0-100;在本申请中,优选为影响因子设0.1,第一种门限值设为5和10,其中,5为第一种门限值1(下界值)的取值,10第一种门限值2(上界值)的取值;第二种门限值设为0和10,其中,0为第二种门限值1(下界值)的取值,10第二种门限值2(上界值)的取值。
扰动生成模块103
所述扰动生成模块103在扰动生成阶段中,会根据扰动率对训练数据集加入不同程度的噪声来进行相关扰动,最后将扰动后的数据集投入到下一轮的模型训练中,以此循环进行,最终达到平衡模型性能和减少风险隐私的目的。
在实际实施过程中,扰动率的获取过程(扰动率设置决策):根据隐私风险审计模块得到模型的隐私风险等级,将隐私风险等级与选取的门限值进行比较:
(1)若相邻两轮的模型训练的准确率之差>第一种门限值2(上界值)同时相邻两轮模型的隐私风险成功率之差>第二种门限值2(上界值),则现扰动率=原扰动率(1-影响因子);
(2)若第一种门限值1(下界值)<相邻两轮的模型训练的准确率之差<第一种门限值2(上界值)同时第二种门限值1(下界值)<相邻两轮模型的隐私风险成功率之差<第二种门限值2(上界值),则现扰动率=原扰动率;
(3)相邻两轮的模型训练的准确率之差<第一种门限值1(下界值)同时相邻两轮模型的隐私风险成功率之差<第二种门限值1(下界值),则现扰动率=原扰动率(1+影响因子);
其中,原扰动率即上一轮的扰动率,初始扰动率是随机选取的。
在实际实施过程中,训练数据集的调整过程:使用对抗扰动方法,根据扰动率对训练数据集进行扰动,即首先将数据集分成不同的批次进行处理,根据扰动率只对某些批次进行FGSM扰动;示例性的,假设训练数据集一共分为100个批次,扰动率为0.1,则每隔10个批次进行一次扰动调整。
由此,参考图3所示,本发明其中一方面提出一种基于激励机制的元宇宙中联邦学习隐私保护方法,该方法包括以下步骤:
S1:根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练。
具体而言,在S1中,物联网传感器本地数据由增强现实、混合现实、虚拟现实扩展现实设备的传感器采集获得。
S2:通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标。
具体而言,参考图4所示,在S2中,所述方法还包括以下步骤:
S20:在每一轮的联邦学习模型训练完成后,进行隐私风险评估。
在实际实施过程中,我们主要对联邦学习的隐私风险情况进行评估,例如,纵向联邦下的标签推断隐私风险、横向联邦下的来源推断隐私风险等。
S21:执行隐私风险评估后,划分匹配的隐私风险等级,生成隐私评估指标,进而将包含所述隐私风险等级的隐私评估指标作为激励机制的决策输入。
具体而言,在S21中,所述隐私风险等级划分原则包括:根据联邦学习模型的攻击准确率划分隐私风险等级,其中攻击准确率越高,表示所述联邦学习模型的隐私风险程度越高,则所述联邦学习模型的隐私风险等级越高。
优选地,可以根据隐私风险成功率来划分隐私风险等级为:
隐私风险成功率:0%-39.9% ,隐私风险等级:低;
隐私风险成功率:40%-59.9%,隐私风险等级:中;
隐私风险成功率:60%-79.9%,隐私风险等级:较高;
隐私风险成功率:80%-100%,隐私风险等级:高。
S3:根据隐私评估指标,动态调整扰动率。
具体而言,参考图5所示,在S3中,所述方法还包括以下步骤:
S30:随机选取至少一个影响因子。
其中,所述影响因子的取值范围为:0-1。
S31:随机选取至少两个门限值,包括第一种门限值及第二种门限值,所述第一种门限值包括第一种门限值1(下界值)和第一种门限值2(上界值),所述第二种门限值包括第二种门限值1(下界值)和第二种门限值2(上界值)。
其中,所述第一种门限值及第二种门限值的取值范围均为0-100。
示例性的,在本申请中,优选为影响因子设0.1,第一种门限值设为5和10,其中,5为第一种门限值1(下界值)的取值,10第一种门限值2(上界值)的取值;第二种门限值设为0和10,其中,0为第二种门限值1(下界值)的取值,10第二种门限值2(上界值)的取值。
S32:根据隐私评估指标及影响因子建立相关激励策略,动态自适应调整扰动率。
在实际实施过程中,在S32中,具体激励机制策略是将隐私评估指标与门限值进行比较:
(1)若相邻两轮的模型训练的准确率之差>第一种门限值2(上界值)同时相邻两轮模型的隐私风险成功率之差>第二种门限值2(上界值),则现扰动率=原扰动率(1-影响因子);
(2)若第一种门限值1(下界值)<相邻两轮的模型训练的准确率之差<第一种门限值2(上界值)同时第二种门限值1(下界值)<相邻两轮模型的隐私风险成功率之差<第二种门限值2(上界值),则现扰动率=原扰动率;
(3)相邻两轮的模型训练的准确率之差<第一种门限值1(下界值)同时相邻两轮模型的隐私风险成功率之差<第二种门限值1(下界值),则现扰动率=原扰动率(1+影响因子);
其中,所述原扰动率为上一轮联邦学习模型训练的扰动率,且初始扰动率是随机选取的。
S4:根据扰动率,对训练数据集进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中。
具体而言,参考图6所示,在S4中,所述方法还包括以下步骤:
S40:将训练数据集分成不同的批次进行处理。
S41:对预设批次,使用对抗扰动FGSM方法,根据扰动率对不同批次的训练数据集进行扰动,生成扰动样本,进而将扰动后的样本投入至下一轮的联邦学习模型训练中。
具体扰动方法如下:
sign_data_grad = data_grad.sign(),
X_adv:表示加了扰动后的数据(扰动后的数据);X表示原数据;epslion:表示扰动率;sign_data_grad :使用sign(符号)函数,将对x(原数据)求了偏导的梯度进行符号化。
S5:循环S1至S4,直至联邦学习模型训练达到预设训练条件。
具体而言,在步骤S5中,所述预设训练条件由测试人员设置,以达到平衡模型性能和减少风险隐私的目的。
在一些实施例中,本发明还提供一种计算机介质,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现上述的基于激励机制的元宇宙中联邦学习隐私保护方法。
在一些实施例中,本发明还提供一种计算机,包括上述的一种计算机介质。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,包括以下步骤:
步骤1:根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练;
步骤2:通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标;
步骤3:根据隐私评估指标结合激励策略,动态调整扰动率;
步骤4:根据扰动率,对训练数据集进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中;
步骤5:循环步骤1至步骤4,直至联邦学习模型训练达到预设训练条件。
2.根据权利要求1所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤1中,所述方法还包括:
物联网传感器本地数据由增强现实、混合现实、虚拟现实扩展现实设备的传感器采集。
3.根据权利要求1所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤2中,所述方法还包括以下步骤:
步骤20:在每一轮的联邦学习模型训练完成后,进行隐私风险评估,
隐私风险评估包括:纵向联邦下的标签推断隐私风险、横向联邦下的来源推断隐私风险;
步骤21:执行隐私风险评估后,划分匹配的隐私风险等级,生成隐私评估指标,进而将包含所述隐私风险等级的隐私评估指标作为激励机制的决策输入。
4.根据权利要求3所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤21中,所述方法还包括:
隐私风险等级划分原则包括:根据联邦学习模型的攻击准确率划分隐私风险等级,其中攻击准确率越高,表示所述联邦学习模型的隐私风险程度越高,则所述联邦学习模型的隐私风险等级越高。
5.根据权利要求4所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤21中,所述方法还包括:
所述划分隐私风险等级为:
隐私风险成功率: 0%-39.9% ,隐私风险等级:低;
隐私风险成功率:40%-59.9%,隐私风险等级:中;
隐私风险成功率:60%-79.9%,隐私风险等级:较高;
隐私风险成功率:80%-100%,隐私风险等级:高。
6.根据权利要求1所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤3中,所述方法还包括以下步骤:
步骤30:随机选取至少一个影响因子,其中,所述影响因子的取值范围为:0-1;
步骤31:随机选取至少两个门限值,其中,第一种门限值及第二种门限值的取值范围均为0-100;
步骤32:根据隐私评估指标及影响因子设置激励策略,动态调整扰动率。
7.根据权利要求6所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤32中,具体激励策略是将隐私评估指标与门限值进行,包括:
(1)若相邻两轮的模型训练的准确率之差>第一种门限值2同时相邻两轮模型的隐私风险成功率之差>第二种门限值2,则现扰动率=原扰动率(1-影响因子);
(2)若第一种门限值1<相邻两轮的模型训练的准确率之差<第一种门限值2同时第二种门限值1<相邻两轮模型的隐私风险成功率之差<第二种门限值2,则现扰动率=原扰动率;
(3)相邻两轮的模型训练的准确率之差<第一种门限值1同时相邻两轮模型的隐私风险成功率之差<第二种门限值1,则现扰动率=原扰动率(1+影响因子);
其中,所述原扰动率为上一轮联邦学习模型训练的扰动率,且初始扰动率是随机选取的。
8.根据权利要求1所述的基于激励机制的元宇宙中联邦学习隐私保护方法,其特征在于,在步骤4中,所述方法还包括以下步骤:
步骤40:将训练数据集分成不同的批次进行处理;
步骤41:对预设批次,使用对抗扰动方法,根据扰动率对训练数据集进行扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中;
计算公式如下:
sign_data_grad = data_grad.sign(),
X_adv=X+epsilon sign_data_grad,
X_adv:表示加了扰动后的数据;X表示原数据;epslion:表示扰动率;sign_data_grad :使用sign符号函数,将对原数据X求了偏导的梯度进行符号化。
9.基于激励机制的元宇宙中联邦学习隐私保护系统,其特征在于,实现权利要求1-8中任一项所述的基于激励机制的元宇宙中联邦学习隐私保护方法,包括:
模型训练模块,用于根据包含有物联网传感器本地数据的训练数据集,进行预设条件的联邦学习模型训练;
隐私风险审计模块,用于通过非侵入的方式观察物联网传感器的本地数据,进而分析物联网传感器实时的隐私风险等级,生成隐私评估指标;
激励模块,用于根据隐私评估指标,动态自适应调整扰动率;
扰动生成模块,用于根据扰动率,对训练数据集加入来进行相关扰动,进而将扰动后的训练数据集投入至下一轮的联邦学习模型训练中。
10.一种计算机介质,其特征在于,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现根据权利要求1-8中任一项所述的基于激励机制的元宇宙中联邦学习隐私保护方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410333409.9A CN117932686B (zh) | 2024-03-22 | 基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410333409.9A CN117932686B (zh) | 2024-03-22 | 基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117932686A true CN117932686A (zh) | 2024-04-26 |
CN117932686B CN117932686B (zh) | 2024-05-31 |
Family
ID=
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329010A (zh) * | 2020-10-16 | 2021-02-05 | 深圳前海微众银行股份有限公司 | 基于联邦学习的自适应数据处理方法、装置、设备及存储介质 |
CN114266293A (zh) * | 2021-12-07 | 2022-04-01 | 浙江网商银行股份有限公司 | 一种联邦学习方法及联邦学习系统 |
CN114417421A (zh) * | 2022-01-26 | 2022-04-29 | 深圳技术大学 | 一种基于元宇宙的共享信息隐私保护方法及相关装置 |
CN115345315A (zh) * | 2022-05-16 | 2022-11-15 | 阿里巴巴(中国)有限公司 | 基于联邦学习的模型训练方法和联邦学习系统 |
CN115510482A (zh) * | 2022-09-26 | 2022-12-23 | 哈尔滨理工大学 | 融合自适应差分隐私与联邦学习的群智感知数据隐私保护 |
CN116167084A (zh) * | 2023-02-24 | 2023-05-26 | 北京工业大学 | 一种基于混合策略的联邦学习模型训练隐私保护方法及系统 |
CN116226901A (zh) * | 2022-12-05 | 2023-06-06 | 中国人民解放军战略支援部队信息工程大学 | 基于差分隐私的自适应Top-k扰动混洗联邦学习方法及系统 |
CN116528344A (zh) * | 2023-05-06 | 2023-08-01 | 大连理工大学 | 一种基于动态博弈的联邦学习激励方法 |
WO2023141809A1 (zh) * | 2022-01-26 | 2023-08-03 | 深圳技术大学 | 一种基于元宇宙的共享信息隐私保护方法及相关装置 |
US20230259812A1 (en) * | 2022-02-14 | 2023-08-17 | Accenture Global Solutions Limited | Adaptive and evolutionary federated learning system |
CN116739079A (zh) * | 2023-05-10 | 2023-09-12 | 浙江大学 | 一种自适应的隐私保护联邦学习方法 |
CN116776376A (zh) * | 2023-06-21 | 2023-09-19 | 广东工业大学 | 一种基于联邦学习的元宇宙隐私保护方法 |
CN116992980A (zh) * | 2023-09-28 | 2023-11-03 | 中国人民解放军总医院 | 一种基于超网络和联邦学习的预后预测预警模型训练方法、系统及设备 |
CN117251875A (zh) * | 2023-08-30 | 2023-12-19 | 南京博雅涵天科技有限公司 | 面向元宇宙的交互信息隐私保护方法 |
CN117454416A (zh) * | 2023-10-20 | 2024-01-26 | 西北工业大学 | 具有隐私保护激励的空中计算网络用联邦学习方法及系统 |
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329010A (zh) * | 2020-10-16 | 2021-02-05 | 深圳前海微众银行股份有限公司 | 基于联邦学习的自适应数据处理方法、装置、设备及存储介质 |
CN114266293A (zh) * | 2021-12-07 | 2022-04-01 | 浙江网商银行股份有限公司 | 一种联邦学习方法及联邦学习系统 |
WO2023141809A1 (zh) * | 2022-01-26 | 2023-08-03 | 深圳技术大学 | 一种基于元宇宙的共享信息隐私保护方法及相关装置 |
CN114417421A (zh) * | 2022-01-26 | 2022-04-29 | 深圳技术大学 | 一种基于元宇宙的共享信息隐私保护方法及相关装置 |
US20230259812A1 (en) * | 2022-02-14 | 2023-08-17 | Accenture Global Solutions Limited | Adaptive and evolutionary federated learning system |
CN115345315A (zh) * | 2022-05-16 | 2022-11-15 | 阿里巴巴(中国)有限公司 | 基于联邦学习的模型训练方法和联邦学习系统 |
CN115510482A (zh) * | 2022-09-26 | 2022-12-23 | 哈尔滨理工大学 | 融合自适应差分隐私与联邦学习的群智感知数据隐私保护 |
CN116226901A (zh) * | 2022-12-05 | 2023-06-06 | 中国人民解放军战略支援部队信息工程大学 | 基于差分隐私的自适应Top-k扰动混洗联邦学习方法及系统 |
CN116167084A (zh) * | 2023-02-24 | 2023-05-26 | 北京工业大学 | 一种基于混合策略的联邦学习模型训练隐私保护方法及系统 |
CN116528344A (zh) * | 2023-05-06 | 2023-08-01 | 大连理工大学 | 一种基于动态博弈的联邦学习激励方法 |
CN116739079A (zh) * | 2023-05-10 | 2023-09-12 | 浙江大学 | 一种自适应的隐私保护联邦学习方法 |
CN116776376A (zh) * | 2023-06-21 | 2023-09-19 | 广东工业大学 | 一种基于联邦学习的元宇宙隐私保护方法 |
CN117251875A (zh) * | 2023-08-30 | 2023-12-19 | 南京博雅涵天科技有限公司 | 面向元宇宙的交互信息隐私保护方法 |
CN116992980A (zh) * | 2023-09-28 | 2023-11-03 | 中国人民解放军总医院 | 一种基于超网络和联邦学习的预后预测预警模型训练方法、系统及设备 |
CN117454416A (zh) * | 2023-10-20 | 2024-01-26 | 西北工业大学 | 具有隐私保护激励的空中计算网络用联邦学习方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Gan enhanced membership inference: A passive local attack in federated learning | |
Lo et al. | Toward trustworthy ai: Blockchain-based architecture design for accountability and fairness of federated learning systems | |
Hu et al. | Game theoretic analysis of multiparty access control in online social networks | |
CN108140057B (zh) | 基于模拟和虚拟现实的网络行为系统 | |
Gao et al. | FGFL: A blockchain-based fair incentive governor for Federated Learning | |
Vakilinia et al. | 3-way game model for privacy-preserving cybersecurity information exchange framework | |
Coull et al. | Taming the devil: Techniques for evaluating anonymized network data | |
CN107612878A (zh) | 基于博弈论的动态窗口选择方法及无线网络信任管理系统 | |
CN107231345A (zh) | 基于ahp的网络用户行为风险评估方法 | |
Schmid et al. | Tangle ledger for decentralized learning | |
Shah et al. | A survey on game theoretic approaches for privacy preservation in data mining and network security | |
Truex et al. | Privacy-preserving inductive learning with decision trees | |
Brzhevska et al. | Analysis of the Process of Information Transfer from the Source-to-User in Terms of Information Impact | |
Rafi et al. | Fairness and privacy preserving in federated learning: A survey | |
Ratnayake et al. | A review of federated learning: taxonomy, privacy and future directions | |
Lian et al. | Privacy-preserving blockchain-based global data sharing for federated learning with non-IID Data | |
Ali-Eldin et al. | A risk evaluation approach for authorization decisions in social pervasive applications | |
Yang et al. | Gain without pain: Offsetting DP-injected noises stealthily in cross-device federated learning | |
Zhang et al. | Visual object detection for privacy-preserving federated learning | |
CN117932686B (zh) | 基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 | |
Bahri et al. | Knowledge‐based approaches for identity management in online social networks | |
Li et al. | Privacy-Preserving and Poisoning-Defending Federated Learning in Fog Computing | |
Jiao et al. | A blockchain federated learning scheme based on personalized differential privacy and reputation mechanisms | |
CN117932686A (zh) | 基于激励机制的元宇宙中联邦学习隐私保护方法和系统、介质 | |
Ozdamli et al. | Knowledge levels and attitudes toward cybercrimes of adolescents in Northern Cyprus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |