CN110084365A - 一种基于深度学习的服务提供系统及方法 - Google Patents

一种基于深度学习的服务提供系统及方法 Download PDF

Info

Publication number
CN110084365A
CN110084365A CN201910190346.5A CN201910190346A CN110084365A CN 110084365 A CN110084365 A CN 110084365A CN 201910190346 A CN201910190346 A CN 201910190346A CN 110084365 A CN110084365 A CN 110084365A
Authority
CN
China
Prior art keywords
deep learning
privacy
model
training
indicate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910190346.5A
Other languages
English (en)
Other versions
CN110084365B (zh
Inventor
裴庆祺
闫玉双
王磊
李红宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910190346.5A priority Critical patent/CN110084365B/zh
Publication of CN110084365A publication Critical patent/CN110084365A/zh
Application granted granted Critical
Publication of CN110084365B publication Critical patent/CN110084365B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明属于边缘数据信息计算领域,公开了一种基于深度学习的服务提供系统及方法,保护训练数据的隐私同时提高边缘端服务质量。在云服务器端,结合差分隐私机制生成隐私的压缩深度学习模型:在隐私稠密训练中生成具有隐私保护的全连接深度学习模型,保护训练数据的隐私;在隐私压缩训练中,通过剪切具有隐私保护的全连接深度学习模型,生成具有隐私保护的压缩深度学习模型,保护训练数据的隐私。由于隐私压缩模型大小可缩小为原模型大小的1/9,因此非常适合嵌入边缘服务器,邻近移动设备通过访问边缘服务器,提高边缘服务质量。

Description

一种基于深度学习的服务提供系统及方法
技术领域
本发明属于边缘数据信息计算领域,尤其涉及一种基于深度学习的服务提供系统及方法。
背景技术
基于神经网络的深度学习技术发展迅速,使得人工智能(AI)被广泛应用。深度学习模型广泛应用于各种服务提供系统,包括图像识别、语音识别和语言翻译。
物联网(IoT)于1999年在供应链管理中被首次提出。近年来,物联网为医疗保健、环境和运输做出重大贡献。物联网设备通常会产生巨大数量的复杂数据,特别是多媒体数据。目前的神经网络,特别是具有多个隐藏层的神经网络,擅长处理和分析这些巨大的复杂数据。因此,在物联网应用中,深度学习可以用来处理许多复杂任务。现有的基于深度学习的物联网应用的方法大部分依赖于集中式云架构,在集中式云架构中将所有计算任务放置在云服务器。由于对数据传输速度要求比较高,集中式云架构有限的网络带宽不能有效地处理和分析这些物联网数据。特别是随着用户在线活动的增加,在线学习应用对实时性要求越来越高,集中式云服务器无法满足实时性的需求。
随着物联网的发展和集中式云架构的缺陷,边缘计算已成为物联网应用的新型计算模式。边缘计算将计算任务从集中式云服务器卸载到靠近物联网设备的边缘服务器。
因此,基于深度学习的物联网应用非常适合处理边缘计算环境中的复杂任务。深度学习模型部署在边缘服务器,直接处理计算任务从而增强服务质量。但是边缘服务器的功率、处理器速度、数据存储能力和通信资源有限。深度学习模型拥有数百万甚至数十亿的参数需要较大的存储空间,内存带宽和计算成本,因此深度学习模型很难部署到边缘服务器。
深度学习模型通过裁剪低权重的网络连接后得到小规模压缩深度学习模型,很容易部署到边缘服务器中处理学习任务。压缩模型不仅节省计算时间和存储空间,而且具有良好的表现性能。物联网设备访问邻近边缘服务器进而增强服务质量。
但是攻击者可以从深度学习模型中提取有关训练数据集的敏感信息。因此,需要确保深度学习模型的隐私性,从而保护训练数据的隐私。
研究者们致力于研究k-匿名(k-anonymity)技术和安全多方计算(securemultiparty computation)技术,保护数据发布中的隐私。文章“k-anonymity:A model forprotecting privacy”提出k-匿名技术,k-匿名技术指的是通过将对象的准标识符进行泛化、压缩等处理,形成k个不可区分的对象,攻击者无法推断出隐私信息所属的具体对象,从而保护目标对象的隐私,但是,攻击者仍然能利用公布的辅助信息重新识别出个体对象的敏感信息,造成隐私泄露。文章“Protocols for secure computations”提出安全多方计算技术,安全多方计算技术是保护数据隐私的一种主要手段,多个参与方共同合作,在不泄露各自输入数据的前提下共同计算并分享输出结果,但是安全多方计算的计算效率比较低。
目前,差分隐私(differential privacy)机制应用比较广泛。文章“Differentialprivacy”提出差分隐私机制,旨在发布统计信息时保护数据库中的个体隐私,使得单条记录对数据集的影响很小。差分隐私保护与传统的隐私保护技术相比,能解决传统隐私保护技术的两个缺陷:一方面,提供了一种有效的且定义严格的,可以对隐私保护水平进行定量化的数学证明;另一方面,即使攻击者获得除目标个体对象外的其他信息,也就是掌握了最大的背景辅助信息,也无法推测出目标对象的信息。文章“Deep Learning withDifferential Privacy”通过利用差分隐私机制保护深度学习中的训练数据的隐私。
综上所述,k-匿名技术只能在一定程度上保护个体对象的敏感信息,攻击者仍然能利用公布的辅助信息重新识别出个体对象的敏感信息,造成隐私泄露;而安全多方计算的计算效率比较低。本发明与现有技术相比具有以下优点:本发明设计基于深度学习的服务提供系统和方法,采用的是一种边缘计算新型计算模式,将计算任务从云端服务器卸载到边缘端服务器,通过剪切低权重的网络连接将大规模全连接深度学习模型压缩为小规模深度学习模型,由于边缘服务器的功率、处理器速度、数据存储能力和通信资源有限,小规模的压缩深度学习模型更易部署到边缘服务器,边缘服务器直接处理计算任务,从而提高边缘端服务质量;本发明结合差分隐私机制,生成具有差分隐私保护的压缩深度学习模型,不仅能够保护深度学习过程中训练数据的隐私,并且模型的可用性也较高。
(1)现有技术在图像识别、语音识别和语言翻译的人工智能应用领域中,基于深度学习的物联网应用大都依赖于集中式云架构,即所有计算任务放置在云服务器,深度学习模型部署在云端服务器,因此集中式云架构有限的网络带宽不能有效地处理和分析这些物联网数据,尤其是在线学习应用对实时性要求极高,集中式云服务器无法满足实时性的需求。由于大量边缘设备产生大量的复杂数据,因此基于集中式云架构的现有技术不能有效分析和处理数据,从而降低服务质量。
而且现有技术深度学习模型不能解决训练数据的隐私泄露问题。
(2)现有边缘环境下基于深度学习的物联网应用缺乏考虑训练数据隐私泄露问题,大都直接将深度学习模型直接部署到服务器,但是攻击者可以通过深度学习模型提取训练数据的敏感信息,因此会导致训练数据隐私泄露问题。
解决上述技术问题的难度:由于边缘服务器的功率、处理器速度、数据存储能力和通信资源有限,大规模的深度学习模型很难部署到边缘服务器,因此需要将大规模的深度学习模型压缩为小规模的压缩深度学习模型,同时压缩深度学习模型部署到边缘服务器会带来训练数据泄露问题,因此需要结合差分隐私机制保护训练数据的隐私。但是差分隐私保护训练数据的隐私水平越高,需要在深度学习过程中添加越多的噪声,因此会降低压缩模型可用性,也就是训练数据隐私与压缩模型可用性相互矛盾,训练数据隐私保护水平越高,压缩模型可用性越低,因此如何平衡训练数据的隐私和压缩模型的可用性是技术难点。
解决上述技术问题的意义:本发明利用差分隐私机制,将大规模深度学习模型压缩为小规模的具有隐私保护的压缩深度学习模型,防止攻击者通过隐私压缩深度学习模型提取训练数据的隐私信息,同时保证隐私压缩模型的可用性。
发明内容
针对现有技术存在的问题,本发明提供了一种基于深度学习的服务提供系统及方法。
本发明是这样实现的,一种基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,一方面保护训练数据的隐私,一方面提高边缘端的服务质量。在云端服务器,结合差分隐私机制,将大规模的全连接深度学习模型通过剪切低权重的网络连接形成小规模的具有隐私保护的压缩深度学习模型,并将隐私压缩模型部署到边缘端服务器,边缘服务器为邻近设备提供服务,具体包括:
进行隐私稠密训练,在训练过程中,结合差分隐私机制,生成具有(ε1,δ)-差分隐私保护的全连接深度学习模型,保护训练数据的隐私;
进行隐私压缩训练,通过剪切具有(ε1,δ)-差分隐私保护的全连接深度学习模型的低权重的网络连接,只在最后一次剪切操作后,在重新训练过程中结合差分隐私机制,形成小规模的具有(ε2,δ)-差分隐私保护的压缩深度学习模型,保护训练数据的隐私。
进一步,所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法进一步包括:
初始化,建立两层卷积层和三层全连接层的卷积神经网络,初始化卷积神经网络的模型参数Θ0;定义输入训练数据集X={x1,x2,...,xN},第t轮迭代训练的损失函数L(Θt,X),Θt表示第t轮迭代训练的模型参数。定义梯度的约束范围G,训练样本xi的梯度值不大于G,训练样本xi经约束后的梯度取值定义为gt(xi)表示训练样本xi在第t轮迭代训练时的梯度。
进一步,进行隐私稠密训练的方法具体包括:
(a)根据公式计算其中c为常数,ld表示小批量训练样本的个数,Td表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε1表示保护全连接深度学习模型的差分隐私保护水平;
(b)每次随机选取ld个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
(c)计算第t轮样本xi的约束梯度为
(d)利用高斯机制实现差分隐私保护,对添加合适的高斯噪声,得到扰动的ld个数据样本的平均梯度其中N(0,(σd)2G2I)表示均值为0,标准方差为σd·G的高斯分布,I表示相应的单位矩阵;
(e)第t+1轮训练的模型参数更新为ηt表示学习率;
(f)重复步骤(b)到(f)Td次,进行Td轮迭代训练,得到具有(ε1,δ)-差分隐私保护的全连接深度学习模型Θd
进一步,进行隐私压缩训练的方法包括:
a)定义每次选取小批量训练样本的个数为lp,权重剪切阈值tpr,模型参数小于tpr时被剪切掉,模型剪切的总次数为k。根据tpr对模型参数进行剪切并进行模型再训练,重复以上模型剪切和模型再训练k-1次后得到性能良好的剪切模型;
b)在第k次模型剪切操作后,在模型再训练的过程中引入差分隐私机制,得到隐私的压缩深度学习模型。
进一步,步骤a)具体包括:
根据tpr对模型参数进行剪切,再训练剪切后的模型;
每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
计算第t轮训练样本xi的约束梯度为
计算第t轮lp个训练样本的平均梯度为
第t+1轮训练的模型参数更新为ηt表示学习率;
进行T轮迭代训练;
重复k-1次。
进一步,步骤b)具体包括:
根据公式计算其中c为常数,lp表示小批量训练样本的个数,Tp表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε2表示保护压缩深度学习模型的差分隐私保护水平;
每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
计算第t轮样本xi的约束梯度为
利用高斯机制实现差分隐私保护,对添加合适的高斯噪声,得到扰动的lp个训练样本的平均梯度N(0,(σp)2G2I)表示均值为0,标准方差为σp·G的高斯分布,I表示相应的单位矩阵;
第t+1轮训练的模型参数更新为ηt表示学习率;
训练Tp轮迭代训练,得到具有(ε2,δ)-差分隐私保护的压缩深度学习模型Θp
本发明的另一目的在于提供一种所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的基于深度学习的服务提供系统。
本发明的另一目的在于提供一种所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的图像识别深度学习的服务终端。
本发明的另一目的在于提供一种所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的语音识别深度学习的服务终端。
本发明的另一目的在于提供一种所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的语言翻译深度学习的服务终端
综上所述,本发明的优点及积极效果为:
本发明在云服务器端生成小规模的隐私的压缩深度学习模型的方法,生成的隐私压缩深度学习模型不仅能够较好的保护训练数据的隐私,同时具有较高的可用性,隐私压缩深度学习模型部署到边缘服务器,为邻近物联网设备提供服务,相较于集中式云架构,提高边缘端的服务质量。
本发明所设计的基于深度学习的服务提供系统,采用的是一种边缘计算新型计算模式,相对于现有的大部分依赖于集中式云架构的基于深度学习的物联网应用的方法,将计算任务由云服务器卸载到边缘服务器,物联网设备通过访问邻近边缘服务器,提高服务质量。
本发明结合差分隐私机制,生成小规模的具有隐私保护的压缩深度学习模型,相对于现有技术下直接将深度学习模型部署到服务器,缺乏考虑训练数据的隐私泄露问题,能有效保护训练数据的隐私。
附图说明
图1是本发明实施例提供的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法流程图。
图2是本发明实施例提供的不同的lp对隐私压缩深度学习模型性能的影响示意图。
图3是本发明实施例提供的不同的ηt对隐私压缩深度学习模型性能的影响示意图。
图4是本发明实施例提供的ε2=6时不同迭代次数Tp对隐私压缩深度学习模型性能的影响示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有技术在图像识别、语音识别和语言翻译的人工智能应用领域中,基于深度学习的物联网应用的方法大部分依赖于集中式云架构,在集中式云架构中将所有计算任务放置在云服务器。由于对数据传输速度要求比较高,而大量的物联网设备产生巨大的复杂物联网数据,集中式云架构有限的网络带宽不能有效地处理和分析这些数据。因此,深度学习模型需要部署在边缘服务器,缓解由于集中式云架构有限的网络带宽带来的数据传输的压力。但是一方面边缘服务器的功率、处理器速度、数据存储能力和通信资源有限,一方面深度学习模型拥有数百万甚至数十亿的参数需要较大的存储空间、内存带宽和计算成本,因此深度学习模型很难部署到边缘服务器。而且现有技术深度学习模型大都直接将深度学习模型部署到服务器,不能解决训练数据的隐私泄露问题。
为解决上述问题,下面结合具体方案对本发明作详细描述。
如图1所述,本发明实施例提供的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法包括:
(1)初始化:建立两层卷积层和三层全连接层的卷积神经网络,初始化卷积神经网络的模型参数Θ0。定义输入训练数据集X={x1,x2,...,xN},第t轮迭代训练的损失函数L(Θt,X),Θt表示第t轮迭代训练的模型参数。定义梯度的约束范围G,也就是训练样本xi的梯度值不大于G,因此训练样本xi经约束后的梯度取值定义为其中gt(xi)表示训练样本xi在第t轮迭代训练时的梯度。
(2)隐私稠密训练。
(3)隐私压缩训练。
在本发明实施例中,步骤(2)具体包括:
(2a)根据公式计算其中c为常数,ld表示小批量训练样本的个数,Td表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε1表示保护全连接深度学习模型的差分隐私保护水平。
(2b)每次随机选取ld个数据样本,数据样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数。
(2c)计算第t轮样本xi的约束梯度为
(2d)利用高斯机制实现差分隐私保护。即对添加合适的高斯噪声,得到扰动的ld个数据样本的平均梯度其中N(0,(σd)2G2I)表示均值为0,标准方差为σd·G的高斯分布,I表示相应的单位矩阵。
(2e)第t+1轮训练的模型参数更新为其中ηt表示学习率。
(2f)重复步骤(2b)到(2f)Td次,即进行Td轮迭代训练,得到具有(ε1,δ)-差分隐私保护的全连接深度学习模型Θd
在本发明实施例中,步骤(3)具体包括:
(3a)定义每次选取小批量训练样本的个数为lp,权重剪切阈值tpr,即模型参数小于tpr时被剪切掉,模型剪切的总次数为k。根据tpr对模型参数进行剪切并进行模型再训练,重复以上模型剪切和模型再训练k-1次后得到性能良好的剪切模型。需要注意的是,以上操作没有引入差分隐私机制。
(3b)在第k次模型剪切操作后,在模型重新训练的过程中引入差分隐私机制,得到隐私的压缩深度学习模型。
在本发明实施例中,步骤(3a)包括:
①根据tpr对模型参数进行剪切,通过步骤②到⑥再训练剪切后的模型。
②每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
③计算第t轮训练样本xi的约束梯度为
④计算第t轮lp个训练样本的平均梯度为
⑤第t+1轮训练的模型参数更新为其中ηt表示学习率。
⑥重复步骤①到⑤T次,即进行T轮迭代训练。
⑦重复步骤①到⑥k-1次。
在本发明实施例中,步骤(3b)包括:
①根据公式计算其中c为常数,lp表示小批量训练样本的个数,Tp表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε2表示保护压缩深度学习模型的差分隐私保护水平。
②每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数。
③计算第t轮训练样本xi的约束梯度为
④利用高斯机制实现差分隐私保护。即对添加合适的高斯噪声,得到扰动的lp个训练样本的平均梯度其中N(0,(σp)2G2I)表示均值为0,标准方差为σp·G的高斯分布,I表示相应的单位矩阵。
⑤第t+1轮训练的模型参数更新为其中ηt表示学习率。
⑥训练Tp轮迭代训练,得到具有(ε2,δ)-差分隐私保护的压缩深度学习模型Θp
下面结合具体实施例对本发明作进一步描述。
实施例
本发明实施例提供的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法包括:
步骤1:初始化。
建立两层卷积层和三层全连接层的卷积神经网络,初始化卷积神经网络的模型参数Θ0。定义输入训练数据集X={x1,x2,...,xN},第t轮迭代训练的损失函数L(Θt,X),Θt表示第t轮迭代训练的模型参数。定义梯度的约束范围G,也就是训练样本xi的梯度值不大于G,因此训练样本xi经约束后的梯度取值定义为其中gt(xi)表示训练样本xi在第t轮迭代训练时的梯度。
步骤2:隐私稠密训练。
根据公式计算其中c为常数,ld表示小批量训练样本的个数,Td表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε1表示保护全连接深度学习模型的差分隐私保护水平。
随机选取ld个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数。
计算第t轮训练样本xi的约束梯度为
利用高斯机制实现差分隐私保护。即对添加合适的高斯噪声,得到扰动的ld个训练样本的平均梯度其中N(0,(σd)2G2I)表示均值为0,标准方差为σd·G的高斯分布,I表示相应的单位矩阵。
第t+1轮训练的模型参数更新为其中ηt表示学习率。
进行Td轮迭代训练,得到具有(ε1,δ)-差分隐私保护的全连接深度学习模型Θd
步骤3:隐私压缩训练。
定义每次选取小批量训练样本的个数为lp,权重剪切阈值tpr,即模型参数小于tpr时被剪切掉,模型剪切的总次数为k。根据tpr对模型参数进行剪切并进行模型再训练,重复以上模型剪切和模型再训练k-1次后得到性能良好的剪切模型。需要注意的是,以上操作没有引入差分隐私机制。
在本发明实施例中,根据tpr对模型参数进行剪切,再训练剪切后的模型。
每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数。
计算第t轮训练样本xi的约束梯度为
计算第t轮lp个训练样本的平均梯度为
第t+1轮训练的模型参数更新为其中ηt表示学习率。
进行T轮迭代训练。
再重复k-1次。
在第k次模型剪切操作后,在模型重新训练的过程中引入差分隐私机制,得到隐私的压缩深度学习模型。
在本发明实施例中,根据公式计算其中c为常数,lp表示小批量训练样本的个数,Tp表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε2表示保护压缩深度学习模型的差分隐私保护水平。
在本发明实施例中,随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数。
计算第t轮训练样本xi的约束梯度为
利用高斯机制实现差分隐私保护。即对添加合适的高斯噪声,得到扰动的lp个训练样本的平均梯度其中N(0,(σp)2G2I)表示均值为0,标准方差为σp·G的高斯分布,I表示相应的单位矩阵。
第t+1轮训练的模型参数更新为其中ηt表示学习率。
训练Tp轮迭代训练,得到具有(ε2,δ)-差分隐私保护的压缩深度学习模型Θp
下面结合仿真对本发明的应用效果做详细的描述。
实验仿真:设计由2个卷积层和3个全连接层构成的卷积神经网络,此卷积神经网络由60000多个参数构成。通过在此卷积神经网络上测试MNIST数据集评估本发明的性能。MNIST数据集由60000个手写数字训练样例和10000个手写数字测试样例构成。实验任务目标是训练具有差分隐私保护的压缩深度学习模型,当输入无标签的样本时输出相应的类标签。
通过实验仿真测试不同参数对隐私压缩深度学习模型性能的影响。实验证明,在隐私压缩训练过程中,如图2所示当小批量样本个数lp=400,如图3所示当学习率ηt=0.01时,通过剪切(1,10-5)-差分隐私的全连接深度学习模型,结合差分隐私机制,可得到表现性能较高的具有(6,10-5)-差分隐私压缩深度学习模型,即训练正确率和测试正确率都在90%以上。
如图4所示,剪切具有(6,10-5)-差分隐私保护的全连接深度学习模型,结合差分隐私机制,得到具有(6,10-5)-差分隐私保护的压缩深度学习模型,当迭代次数Tp=60000时,隐私压缩模型性能较稳定,训练正确率和测试正确率都在96%左右。实验证明,当ε1=6,ε2=6时,隐私压缩深度学习模型不仅能够较好的保护训练数据的隐私,而且具有较高的模型可用性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,在云端服务器生成隐私压缩深度学习模型,将隐私压缩深度学习模型部署到边缘服务器,一方面保护训练数据的隐私,一方面为邻近物联网设备提供服务,其特征在于,所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,具体包括:
进行隐私稠密训练,在训练过程中,结合差分隐私机制,生成具有(ε1,δ)-差分隐私保护的全连接深度学习模型,保护训练数据的隐私;
进行隐私压缩训练,通过剪切具有(ε1,δ)-差分隐私保护的全连接深度学习模型的低权重的网络连接,只在最后一次剪切操作后,在再训练过程中结合差分隐私机制,形成小规模的具有(ε2,δ)-差分隐私保护的压缩深度学习模型,保护训练数据的隐私。
2.如权利要求1所述的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,其特征在于,所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法进一步包括:
初始化,建立两层卷积层和三层全连接层的卷积神经网络,初始化卷积神经网络的模型参数Θ0;定义输入训练数据集X={x1,x2,...,xN},第t轮迭代训练的损失函数L(Θt,X),Θt表示第t轮迭代训练的模型参数。定义梯度的约束范围G,训练样本xi的梯度值不大于G,训练样本xi经约束后的梯度取值定义为gt(xi)表示训练样本xi在第t轮迭代训练时的梯度。
3.如权利要求1所述的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,其特征在于,进行隐私稠密训练的方法具体包括:
(a)根据公式计算其中c为常数,ld表示小批量训练样本的个数,Td表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε1表示保护全连接深度学习模型的差分隐私保护水平;
(b)每次随机选取ld个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
(c)计算第t轮训练样本xi的约束梯度为
(d)利用高斯机制实现差分隐私保护,对添加合适的高斯噪声,得到扰动的ld个训练样本的平均梯度其中N(0,(σd)2G2I)表示均值为0,标准方差为σd·G的高斯分布,I表示相应的单位矩阵;
(e)第t+1轮训练的模型参数更新为ηt表示学习率;
(f)重复步骤(b)到(f)Td次,进行Td轮迭代训练,得到具有(ε1,δ)-差分隐私保护的全连接深度学习模型Θd
4.如权利要求1所述的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,其特征在于,进行隐私压缩训练的方法包括:
a)定义每次选取小批量训练样本的个数为lp,权重剪切阈值tpr,模型参数小于tpr时被剪切掉,模型剪切的总次数为k。根据tpr对模型参数进行剪切并进行模型再训练,重复以上模型参数剪切和模型再训练k-1次后得到性能良好的剪切模型;
b)在第k次模型剪切操作后,在模型再训练的过程中引入差分隐私机制,得到隐私的压缩深度学习模型。
5.如权利要求4所述的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,其特征在于,步骤a)具体包括:
根据tpr对模型参数进行剪切,再训练剪切后的模型;
每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
计算第t轮训练样本xi的约束梯度为
计算第t轮lp个训练样本的平均梯度为
第t+1轮训练的模型参数更新为ηt表示学习率;
进行T轮迭代训练;
重复k-1次。
6.如权利要求4所述的基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法,其特征在于,步骤b)具体包括:
根据公式计算其中c为常数,lp表示小批量训练样本的个数,Tp表示最大迭代训练次数,δ是一个很小的常数,表示容忍差分隐私出错的概率,N表示训练样本的总数量,ε2表示保护压缩深度学习模型的差分隐私保护水平;
每次随机选取lp个训练样本,训练样本xi在第t轮的梯度为其中L(Θt,xi)表示损失函数,Θt表示第t轮迭代训练的模型参数;
计算第t轮训练样本xi的约束梯度为
利用高斯机制实现差分隐私保护,对添加合适的高斯噪声,得到扰动的lp个训练数据样本的平均梯度N(0,(σp)2G2I)表示均值为0,标准方差为σp·G的高斯分布,I表示相应的单位矩阵;
第t+1轮训练的模型参数更新为ηt表示学习率;
训练Tp轮迭代训练,得到具有(ε2,δ)-差分隐私保护的压缩深度学习模型Θp
7.一种如权利要求1所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的基于深度学习的服务提供系统。
8.一种如权利要求1所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的图像识别深度学习的服务终端。
9.一种如权利要求1所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的语音识别深度学习的服务终端。
10.一种如权利要求1所述基于深度学习的服务提供系统的生成隐私的压缩深度学习模型的方法的语言翻译深度学习的服务终端。
CN201910190346.5A 2019-03-13 2019-03-13 一种基于深度学习的服务提供系统及方法 Active CN110084365B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910190346.5A CN110084365B (zh) 2019-03-13 2019-03-13 一种基于深度学习的服务提供系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910190346.5A CN110084365B (zh) 2019-03-13 2019-03-13 一种基于深度学习的服务提供系统及方法

Publications (2)

Publication Number Publication Date
CN110084365A true CN110084365A (zh) 2019-08-02
CN110084365B CN110084365B (zh) 2023-08-11

Family

ID=67412447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910190346.5A Active CN110084365B (zh) 2019-03-13 2019-03-13 一种基于深度学习的服务提供系统及方法

Country Status (1)

Country Link
CN (1) CN110084365B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091193A (zh) * 2019-10-31 2020-05-01 武汉大学 一种面向深度神经网络的基于差分隐私的域适应隐私保护方法
CN111177792A (zh) * 2020-04-10 2020-05-19 支付宝(杭州)信息技术有限公司 基于隐私保护确定目标业务模型的方法及装置
CN111178504A (zh) * 2019-12-17 2020-05-19 西安电子科技大学 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统
CN111339554A (zh) * 2020-02-17 2020-06-26 电子科技大学 基于移动边缘计算的用户数据隐私保护方法
CN111539012A (zh) * 2020-03-19 2020-08-14 重庆特斯联智慧科技股份有限公司 一种边缘化架构的隐私数据分布存储系统和方法
CN112269987A (zh) * 2020-09-27 2021-01-26 西安电子科技大学 一种智能模型信息泄漏程度评估方法、系统、介质、设备
CN113221981A (zh) * 2021-04-28 2021-08-06 之江实验室 一种面向边缘深度学习的数据协同处理优化方法
CN113268772A (zh) * 2021-06-08 2021-08-17 北京邮电大学 基于差分隐私的联合学习安全聚合方法及装置
CN113282960A (zh) * 2021-06-11 2021-08-20 北京邮电大学 一种基于联邦学习的隐私计算方法、装置、系统及设备
CN113468592A (zh) * 2021-06-15 2021-10-01 武汉理工大学 一种基于深度学习的差分隐私保护方法及装置
WO2022216142A1 (en) * 2021-04-07 2022-10-13 Samsung Electronics Co., Ltd. Method and system for securing neural network models
CN116150622A (zh) * 2023-02-17 2023-05-23 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置、存储介质及电子设备
WO2023143449A1 (zh) * 2022-01-26 2023-08-03 索尼集团公司 用于隐私保护的方法、装置和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447525A (zh) * 2015-12-15 2016-03-30 中国科学院软件研究所 一种数据预测分类方法及装置
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
US20170024575A1 (en) * 2015-07-22 2017-01-26 International Business Machines Corporation Obfuscation and protection of data rights
US9594741B1 (en) * 2016-06-12 2017-03-14 Apple Inc. Learning new words
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
US20180181878A1 (en) * 2016-12-28 2018-06-28 Samsung Electronics Co., Ltd. Privacy-preserving transformation of continuous data
US20180262519A1 (en) * 2017-03-09 2018-09-13 International Business Machines Corporation Preventing intersection attacks
CN109284626A (zh) * 2018-09-07 2019-01-29 中南大学 面向差分隐私保护的随机森林算法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170024575A1 (en) * 2015-07-22 2017-01-26 International Business Machines Corporation Obfuscation and protection of data rights
CN105447525A (zh) * 2015-12-15 2016-03-30 中国科学院软件研究所 一种数据预测分类方法及装置
US9594741B1 (en) * 2016-06-12 2017-03-14 Apple Inc. Learning new words
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
US20180181878A1 (en) * 2016-12-28 2018-06-28 Samsung Electronics Co., Ltd. Privacy-preserving transformation of continuous data
US20180262519A1 (en) * 2017-03-09 2018-09-13 International Business Machines Corporation Preventing intersection attacks
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
CN109284626A (zh) * 2018-09-07 2019-01-29 中南大学 面向差分隐私保护的随机森林算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MARTIN ABADI ET AL.: "Deep learning with differential privacy", 《ARXIV.ORG》 *
SONG HAN ET AL.: "DSD: DENSE-SPARSE-DENSE TRAINING FOR DEEP NEURAL NETWORKS", 《ARXIV.ORG》 *
熊平等: "差分隐私保护及其应用", 《计算机学报》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091193B (zh) * 2019-10-31 2022-07-05 武汉大学 一种面向深度神经网络的基于差分隐私的域适应隐私保护方法
CN111091193A (zh) * 2019-10-31 2020-05-01 武汉大学 一种面向深度神经网络的基于差分隐私的域适应隐私保护方法
CN111178504A (zh) * 2019-12-17 2020-05-19 西安电子科技大学 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统
CN111178504B (zh) * 2019-12-17 2023-04-07 西安电子科技大学 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统
CN111339554A (zh) * 2020-02-17 2020-06-26 电子科技大学 基于移动边缘计算的用户数据隐私保护方法
CN111539012A (zh) * 2020-03-19 2020-08-14 重庆特斯联智慧科技股份有限公司 一种边缘化架构的隐私数据分布存储系统和方法
CN111177792A (zh) * 2020-04-10 2020-05-19 支付宝(杭州)信息技术有限公司 基于隐私保护确定目标业务模型的方法及装置
CN111177792B (zh) * 2020-04-10 2020-06-30 支付宝(杭州)信息技术有限公司 基于隐私保护确定目标业务模型的方法及装置
CN112269987B (zh) * 2020-09-27 2023-01-24 西安电子科技大学 一种智能模型信息泄漏程度评估方法、系统、介质、设备
CN112269987A (zh) * 2020-09-27 2021-01-26 西安电子科技大学 一种智能模型信息泄漏程度评估方法、系统、介质、设备
WO2022216142A1 (en) * 2021-04-07 2022-10-13 Samsung Electronics Co., Ltd. Method and system for securing neural network models
CN113221981A (zh) * 2021-04-28 2021-08-06 之江实验室 一种面向边缘深度学习的数据协同处理优化方法
CN113268772A (zh) * 2021-06-08 2021-08-17 北京邮电大学 基于差分隐私的联合学习安全聚合方法及装置
CN113268772B (zh) * 2021-06-08 2022-12-20 北京邮电大学 基于差分隐私的联合学习安全聚合方法及装置
CN113282960A (zh) * 2021-06-11 2021-08-20 北京邮电大学 一种基于联邦学习的隐私计算方法、装置、系统及设备
CN113282960B (zh) * 2021-06-11 2023-02-17 北京邮电大学 一种基于联邦学习的隐私计算方法、装置、系统及设备
CN113468592A (zh) * 2021-06-15 2021-10-01 武汉理工大学 一种基于深度学习的差分隐私保护方法及装置
CN113468592B (zh) * 2021-06-15 2022-05-17 武汉理工大学 一种基于深度学习的差分隐私保护方法及装置
WO2023143449A1 (zh) * 2022-01-26 2023-08-03 索尼集团公司 用于隐私保护的方法、装置和系统
CN116150622A (zh) * 2023-02-17 2023-05-23 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置、存储介质及电子设备
CN116150622B (zh) * 2023-02-17 2023-08-11 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN110084365B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN110084365A (zh) 一种基于深度学习的服务提供系统及方法
Yao et al. Capsule network assisted IoT traffic classification mechanism for smart cities
Yu et al. Intelligent edge: Leveraging deep imitation learning for mobile edge computation offloading
Ozfatura et al. Time-correlated sparsification for communication-efficient federated learning
CN108924836B (zh) 一种基于深度神经网络的边缘侧物理层信道认证方法
CN111932386B (zh) 用户账号确定方法及装置、信息推送方法及装置、电子设备
CN107181724A (zh) 一种协同流的识别方法、系统以及使用该方法的服务器
Liu et al. Keep your data locally: Federated-learning-based data privacy preservation in edge computing
Azzouz et al. Steady state IBEA assisted by MLP neural networks for expensive multi-objective optimization problems
Wang et al. Efficient participant contribution evaluation for horizontal and vertical federated learning
Liao et al. Coronavirus pandemic analysis through tripartite graph clustering in online social networks
Hejun et al. Encrypted network behaviors identification based on dynamic time warping and k-nearest neighbor
CN110457387B (zh) 一种应用于网络中用户标签确定的方法及相关装置
Gharibi et al. Refinedfed: A refining algorithm for federated learning
Mills et al. Faster Federated Learning With Decaying Number of Local SGD Steps
Luo et al. Echo chambers and segregation in social networks: Markov bridge models and estimation
Siniosoglou et al. Post-processing fairness evaluation of federated models: An unsupervised approach in healthcare
Malmir et al. Optimization of data mining with evolutionary algorithms for cloud computing application
Gao et al. Accelerating graph mining algorithms via uniform random edge sampling
CN117272017A (zh) 异质图数据节点嵌入特征提取模型训练方法、嵌入特征提取方法、节点分类方法及装置
Wang et al. Enhanced by mobility? Effect of users’ mobility on information diffusion in coupled online social networks
WO2023203356A1 (en) Distributed mobile network traffic data decomposition and forecasting method and apparatus
Raamakirtinan et al. Identifying influential spreaders in complex networks based on weighted mixed degree decomposition method
CN116049678A (zh) 特征贡献度评估方法、装置、电子设备和存储介质
Bodine-Baron et al. Distance-dependent kronecker graphs for modeling social networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant