CN112185395B - 一种基于差分隐私的联邦声纹识别方法 - Google Patents
一种基于差分隐私的联邦声纹识别方法 Download PDFInfo
- Publication number
- CN112185395B CN112185395B CN202010920024.4A CN202010920024A CN112185395B CN 112185395 B CN112185395 B CN 112185395B CN 202010920024 A CN202010920024 A CN 202010920024A CN 112185395 B CN112185395 B CN 112185395B
- Authority
- CN
- China
- Prior art keywords
- ubm
- background model
- universal background
- initial
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000000203 mixture Substances 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0407—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the identity of one or more communicating identities is hidden
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种基于差分隐私的联邦声纹识别方法,包括一:在服务端进行通用背景模型UBM预训练得到初始通用背景模型UBM;二:客户端接收预训练后的初始通用背景模型UBM,利用本地的私有语音数据进行初始通用背景模型UBM的学习;三:客户端学习得到的统计量进行差分隐私保护;四:服务端聚合多个客户端上传的差分隐私保护后的统计量,更新初始通用背景模型UBM;五:客户端接收更新后通用背景模型UBM,借助本地私有语音数据调整得到该客户端用户的高斯混合模型GMM,利用更新后通用背景模型UBM和该用户的高斯混合模型GMM判别待验证语音是否为该客户端用户所产生。
Description
技术领域
本发明涉及一种基于差分隐私的联邦声纹识别方法,属于差分隐私和联邦学习技术在声纹识别领域的业务应用。
背景技术
声纹,是对语音中所蕴含的、能表征和标识说话人的语音特征,以及基于这些特征(参数)所建立的语音模型的总和,而声纹识别是根据待识别语音的声纹特征识别该段语音所对应的说话人的过程。与指纹识别类似,每个人在说话过程中所蕴含的语音特征和发音习惯几乎是独一无二的,即使是模仿,也难以改变说话者最本质的发音特征和声道特征。
由于语音具有使用方便、设备成本低和可远程认证等优点,声纹识别的应用场景十分广泛,可以应用于一切需要身份认证的场合,如生活中的门禁系统、金融证劵领域、公安司法领域、军事领域、安全支付领域等。总之,声纹识别逐渐发展成为日常生活与工作中最可靠的同时也是最安全的生物特征识别技术之一,拥有着无限的应用场景和巨大的发展潜力。
然而随着声纹识别技术的普及,声纹识别的声纹特征安全问题引起了国内外专家学者的广泛关注。声纹特征同其他生物信息一样,声纹特征具有唯一性,而且相伴终生,一旦声纹特征被特人盗用,会造成个人信息安全、生命财产安全等相关问题,而且会导致大量深层信息被挖掘、曝光,给使用者造成物质和精神上的极大损害。声纹识别技术同其他生物特征识别技术一样,需要大量的用户语音数据训练声纹识别模型。声纹识别是一种典型的C/S(客户端/服务器)模式,用户在使用服务提供商提供的声纹识别服务时,为了获得更好的识别准确率往往需要上传用户的语音数据到服务端,以进行模型的训练和用户声纹模型注册。由于用户的数据被存储在服务端,这会极大增加用户隐私数据泄露的风险。当服务器被恶意攻击者攻击或者由于管理问题,导致用户声纹特征泄漏时,将会给用户甚至整个生物特征识别产业带来严重的影响。为了保护用户的隐私信息,多个国家分别出台相应的隐私保护条例,如欧盟出台的《通用数据保护条例,GDPR》以及国内的《网络安全法》等。这些条例都明令禁止集中式收集并利用用户的隐私数据。因此,随着隐私保护条例的完善以及公众隐私保护意识的提升,声纹识别模型将面临数据稀缺和隐私泄漏的挑战。
现有的声纹识别的隐私保护方案是利用同态加密对声纹识别注册和验证阶段的用户隐私信息进行保护。
(1)声纹识别系统工作流程:
声纹识别是一种典型的C/S模式,不同于图片、文本等分类模型,声纹识别系统的工作过程可以分为以下三个主要阶段:
第一阶段,通用背景模型训练,声纹识别系统首先需要利用来自不同用户的大量语音数据,训练一个通用的通用背景模型,这个通用背景模型能够表征通过的说话人特征分布;
第二阶段,注册阶段,用户如果想要使用声纹识别服务,需要提供一定时长的语音数据,作为注册数据。声纹识别系统会利用用户提供的注册语音对通用背景模型进行微调,得到属于自己的声纹模型。
第三阶段,验证阶段,已经完成注册的用户,可以利用注册的声纹模型,验证某段语音是否为该用户所产生。
(2)基于GMM-UBM的声纹识别模型:
下面先介绍基于GMM-UBM(Gaussian Mixture Model-Universal BackgroundModel)的文本相关的说话人识别模型的基本工作流程。在这个框架中,使用似然估计来对说话人进行验证。在这个框架中,每个用户都被表示成一个高斯混合模型GMM(GaussianMixture Model),这个GMM是从一个能表征通用说话人的特征分布的通用背景模型UBM(Universal Background Model)中进行调整得到的。UBM本质上也是高斯混合模型,只不过需要使用来自不同用户的大量语音数据训练UBM,而GMM一般只利用某个用户的注册语音和UBM进行微调就可以得到。
(3)同态加密技术:
同态加密是一种加密形式,它允许在对密文进行特定形式的代数运算得到仍然是加密的结果,对经代数运算得到的加密结果进行解密得到的结果与对密文直接进行同样的代数运算得到的结果一样。同态加密能真正从根本上解决将数据及其操作委托给第三方时的数据保密问题,因此同态加密能很好的契合C/S服务模式的私有数据保密问题。同态加密的形式化的表示如下:
x1,x2,...,xn→[x1],[x2],...,[xn]
f([x1],[x2],...[xn])→[f(x1,x2,...xn)]
其中[·]表示加密运算,f[·]表示代数运算。
声纹识别领域的隐私保护问题处于起步阶段,因此现有的研究方案还比较单一,主要可以分为三种,第一种是基于密码学的同态加密、安全多方计算等算法来加密用户隐私数据(Manas A Pathak and Bhiksha Raj.2012.Privacy-preserving speakerverificationand identification using gaussian mixture models.IEEETransactions on Audio,Speech,and Language Processing21,2(2012),397–406);第二种是基于哈希的保护方法(Manas A Pathak and Bhiksha Raj.2012.Privacy-preservingspeaker verificationas password matching.In2012 IEEE International Conferenceon Acoustics,Speechand Signal Processing.1849–1852),这种方法使用哈希函数将用户的向量表示映射成随机序列;第三种是基于信息论的随机化技术(YogachandranRahulamathavan,Kunaraj R.Sutharsini,Indranil Ghosh Ray,Rongxing Lu,andMuttukrishnan Rajarajan.2019.Privacy-Preserving iVector-Based SpeakerVerification.IEEE/ACM Transactions on Audio,Speech,and Lan-guageProcessing27,3(2019),496–506),利用均匀分布的随机数作为密钥,来随机化私有特征表示。
现有技术存在的缺点:
(1)基于密码学的方法计算复杂度高,对设备的计算能力要求高;
(2)基于哈希的方法,会较低模型的识别准确率;
(3)基于随机论的方法,需要客户端和服务端进行多次交互,对网络的稳定性要求较高;
除此之外,现有的方法都无法在保护用户隐私数据的情况下,训练得到表示能力更好的声纹识别模型。
发明内容
本发明提出一种基于差分隐私的联邦声纹识别方法,解决如何在保护用户隐私数据的同时进行声纹识别通用背景模型的训练,具体技术方案如下:
一种基于差分隐私的联邦声纹识别方法,包括如下步骤:
步骤一:在服务端进行通用背景模型UBM的预训练得到初始通用背景模型UBM,并发送给客户端;
步骤二:客户端接收预训练后的初始通用背景模型UBM,利用本地的私有语音数据进行初始通用背景模型UBM的学习;
步骤三:客户端将步骤二学习得到的统计量进行差分隐私保护,并上传给服务端;
步骤四:服务端聚合多个客户端上传的进行差分隐私保护的统计量,对初始通用背景模型UBM进行更新,得到更新后通用背景模型UBM,并发送给客户端;
步骤五:客户端接收更新后通用背景模型UBM,并借助本地语音数据进行调整得到该客户端用户的高斯混合模型GMM;利用更新后通用背景模型UBM和该用户的高斯混合模型GMM判别待验证语音是否为该客户端用户所产生。
优选的,所述步骤一中,初始通用背景模型UBM为能够拟合通用语音特征的通用背景模型UBM,由服务端利用开源的数据集使用EM算法进行预训练得到。
优选的,所述步骤二中,初始通用背景模型UBM的学习过程如下:
定义初始通用背景模型UBM表示成λ={wj,μj,σj},j=1,...,M,M为初始通用背景模型UBM中高斯模块的个数,wj,μj和σj分别表示第j个高斯模块在UBM中的权重、均值向量以及协方差矩阵;
计算语音特征X={x1,...,xT}的第t个分量xt在初始通用背景模型UBM的第c个高斯模块上出现的概率:
利用rc,t计算统计量rc和zc:
其中[1]表示元素都为1的向量,T为语音特征X的总长度。
进一步的,所述步骤三中,客户端对学习得到的统计量进行差分隐私保护的具体方法为:使用Laplace机制的差分隐私,进行扰动添加,添加扰动Y的方式如下:
r′c,t=rc,t+Y (4)
进一步的,所述步骤四中,对初始通用背景模型UBM进行更新的方法为:利用客户端上传给服务端的统计量r′c和z′c,使用最大后验概率估计MAP对初始通用背景模型UBM进行更新,首先服务端需要将多个客户端上传的统计量r′c和z′c进行聚合:
其中,K表示参与对初始通用背景模型UBM进行更新的客户端数量,然后利用和对初始通用背景模型UBM进行更新,得到更新后通用背景模型UBM,初始通用背景模型UBM表示为UBM0,更新后通用背景模型UBM表示为对第c个高斯模块均值向量的更新过程公式如下:
其中,σ′UBM表示均值向量的先验。
进一步的,所述步骤五中,对更新后通用背景模型UBM的均值向量进行调整得到高斯混合模型GMM的公式如下:
其中,σ′SPK表示用于更新说话人的高斯混合模型GMM均值向量的先验;客户端可以直接使用高斯混合模型GMM计算似然比来判别待验证语音是否为客户端用户所产生。
本发明可以同时解决数据稀缺和隐私保护问题,计算开销小,且客户端和服务端的交互次数少。
附图说明
图1是本发明一种基于差分隐私的联邦声纹识别方法的工作流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于差分隐私的联邦声纹识别方法,该方法保证用户的语音数据不被上传到服务端,取而代之的是通过一些模型的参数交换,来保证用户的隐私信息。同时为了进一步保证用户的隐私信息,采用差分隐私技术在交换的参数上添加扰动,以保证用户的隐私数据不会被恶意攻击者通过反转攻击等攻击手段重构得到。该方法是在GMM-UBM的基础上构建实现的,本发明是受到联邦学习的启发而提出的,在联邦学习框架中有一个中心节点协调管理多个客户端节点,利用各个客户端节点的数据联合训练或者构建一个机器学习模型,该模型不会泄漏用户的隐私信息,本发明的目标是学习能表征工作环境中说话人通用语音特征的通用背景模型UBM。
如图1所示,一种基于差分隐私的联邦声纹识别方法,包括如下步骤:
步骤一:在服务端进行通用背景模型UBM预训练得到初始通用背景模型UBM,并发送给客户端;初始通用背景模型UBM为能够拟合通过语音特征的通用背景模型UBM,由服务端利用开源的数据集使用EM(Expectation Maximization)算法进行预训练得到,该数据集中的语音数据隐私属性较小。
步骤二:客户端接收预训练后的初始通用背景模型UBM,利用本地的私有语音数据进行初始通用背景模型UBM的学习;初始通用背景模型UBM的学习过程如下:
定义初始通用背景模型UBM表示成λ={wj,μj,σj},j=1,...,M,M为初始通用背景模型UBM中高斯模块的个数,wj,μj和σj分别表示第j个模块在UBM中的权重、均值向量以及协方差矩阵;
计算语音特征X={x1,...,xT}中第t个分量xt在初始通用背景模型UBM的第c个高斯模块上出现的概率:
利用rc,t计算统计量rc和zc:
其中[1]表示元素都为1的向量,T为语音特征X的长度。在不添加差分隐私保护时,可直接将rc和zc直接上传给中心节点。
步骤三:客户端节点将步骤二学习得到的统计量进行差分隐私保护,并上传给服务端;由于统计量rc和zc与用户的私有语音数据高度相关,因此直接将统计量rc和zc上传给服务端,可能会造成用户隐私信息的泄露,因此需要利用差分隐私机制对和添加扰动,以保证用户的数据不会被窃取。客户端对学习得到的统计量进行差分隐私保护的具体方法为:使用Laplace机制的差分隐私,进行扰动添加,添加扰动Y的方式如下:
r′c,t=rc,t+Y (4)
其中,rc,t的全局敏感度s(rc,t)=1;接着利用r′c,t分别计算统计量r′c和z′c,并上传给服务端。由于Y满足(ε,0)-DP,根据差分隐私的并行定理,可以得到统计量r′c和z′c都满足差分隐私保护。差分隐私保护能有效抵抗恶意攻击者从客户端上传的参数中推导出与用户相关的信息。
步骤四:服务端聚合多个客户端上传的进行差分隐私保护的统计量,对初始通用背景模型UBM进行更新,得到更新后通用背景模型UBM,并发送给客户端;对初始通用背景模型UBM进行更新的方法为:利用客户端上传给服务端的统计量r′c和z′c,使用最大后验概率估计MAP(Maximum A Posterior)对初始通用背景模型UBM进行更新,首先服务端需要将多个客户端上传的统计量r′c和z′c进行聚合:
其中,K表示参与对初始通用背景模型UBM进行更新的客户端数量,然后利用和对初始通用背景模型UBM进行更新,得到更新后通用背景模型UBM,初始通用背景模型UBM表示为UBM0,更新后通用背景模型UBM表示为对第c个高斯模块均值向量的更新过程公式如下:
步骤五:客户端接收更新后通用背景模型UBM,对更新后通用背景模型UBM的均值向量进行调整得到该客户端的高斯混合模型GMM均值的公式如下:
其中,σ′SPK表示用于更新说话人的高斯混合模型GMM均值向量的先验;说话人在客户端进行高斯混合模型GMM的学习,客户端可以直接使用高斯混合模型GMM计算似然比来判别待验证语音是否为客户端用户所产生。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于差分隐私的联邦声纹识别方法,其特征在于:包括如下步骤:
步骤一:在服务端进行通用背景模型UBM的预训练得到初始通用背景模型UBM,并发送给客户端;
步骤二:客户端接收预训练后的初始通用背景模型UBM,利用本地的私有语音数据进行初始通用背景模型UBM的学习;
步骤三:客户端将步骤二学习得到的统计量进行差分隐私保护,并上传给服务端;
步骤四:服务端聚合多个客户端上传的进行差分隐私保护的统计量,对初始通用背景模型UBM进行更新,得到更新后通用背景模型UBM,并发送给客户端;
步骤五:客户端接收更新后通用背景模型UBM,并借助本地语音数据进行调整得到该客户端用户的高斯混合模型GMM;利用更新后通用背景模型UBM和该用户的高斯混合模型GMM判别待验证语音是否为该客户端用户所产生。
2.根据权利要求1所述的一种基于差分隐私的联邦声纹识别方法,其特征在于:所述步骤一中,初始通用背景模型UBM为能够拟合通用语音特征的通用背景模型UBM,由服务端利用开源的数据集使用EM算法进行预训练得到。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010920024.4A CN112185395B (zh) | 2020-09-04 | 2020-09-04 | 一种基于差分隐私的联邦声纹识别方法 |
PCT/CN2021/084136 WO2022048143A1 (zh) | 2020-09-04 | 2021-03-30 | 一种基于差分隐私的联邦声纹识别方法 |
US17/334,790 US11170786B1 (en) | 2020-09-04 | 2021-05-30 | Federated speaker verification method based on differential privacy |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010920024.4A CN112185395B (zh) | 2020-09-04 | 2020-09-04 | 一种基于差分隐私的联邦声纹识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112185395A CN112185395A (zh) | 2021-01-05 |
CN112185395B true CN112185395B (zh) | 2021-04-27 |
Family
ID=73924173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010920024.4A Active CN112185395B (zh) | 2020-09-04 | 2020-09-04 | 一种基于差分隐私的联邦声纹识别方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11170786B1 (zh) |
CN (1) | CN112185395B (zh) |
WO (1) | WO2022048143A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112185395B (zh) * | 2020-09-04 | 2021-04-27 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于差分隐私的联邦声纹识别方法 |
CN113077798B (zh) * | 2021-04-01 | 2022-11-22 | 山西云芯新一代信息技术研究院有限公司 | 一种居家老人呼救设备 |
CN114169007B (zh) * | 2021-12-10 | 2024-05-14 | 西安电子科技大学 | 基于动态神经网络的医疗隐私数据识别方法 |
CN114662705B (zh) * | 2022-03-18 | 2024-09-24 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、电子设备和计算机可读存储介质 |
CN114628043A (zh) * | 2022-05-17 | 2022-06-14 | 中电云数智科技有限公司 | 一种保护隐私的药物临床应用频谱统计方法和装置 |
CN115905648B (zh) * | 2023-01-06 | 2023-05-23 | 北京锘崴信息科技有限公司 | 基于高斯混合模型的用户群和金融用户群分析方法及装置 |
CN117196017B (zh) * | 2023-09-28 | 2024-08-02 | 数力聚(北京)科技有限公司 | 一种轻量级隐私保护和完整性验证的联邦学习方法、系统、设备及介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270451A (zh) * | 2011-08-18 | 2011-12-07 | 安徽科大讯飞信息科技股份有限公司 | 说话人识别方法及系统 |
CN103730114A (zh) * | 2013-12-31 | 2014-04-16 | 上海交通大学无锡研究院 | 一种基于联合因子分析模型的移动设备声纹识别方法 |
CN105069874A (zh) * | 2015-07-28 | 2015-11-18 | 北京航空航天大学 | 一种移动互联网声纹门禁系统及其实现方法 |
US20150347734A1 (en) * | 2010-11-02 | 2015-12-03 | Homayoon Beigi | Access Control Through Multifactor Authentication with Multimodal Biometrics |
CN106685993A (zh) * | 2017-02-17 | 2017-05-17 | 安徽金猫数字科技有限公司 | 一种基于语音识别的安全认证系统 |
CN106847292A (zh) * | 2017-02-16 | 2017-06-13 | 平安科技(深圳)有限公司 | 声纹识别方法及装置 |
CN107222851A (zh) * | 2017-04-07 | 2017-09-29 | 南京邮电大学 | 一种利用差分隐私保护Wifi Fingerprint室内定位系统隐私的方法 |
CN108234493A (zh) * | 2018-01-03 | 2018-06-29 | 武汉大学 | 不可信服务器下隐私保护的时空众包统计数据发布方法 |
CN108922544A (zh) * | 2018-06-11 | 2018-11-30 | 平安科技(深圳)有限公司 | 通用向量训练方法、语音聚类方法、装置、设备及介质 |
CN111027715A (zh) * | 2019-12-11 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 基于蒙特卡洛的联邦学习模型训练方法及装置 |
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
CN111460494A (zh) * | 2020-03-24 | 2020-07-28 | 广州大学 | 面向多模态深度学习的隐私保护方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101997689B (zh) * | 2010-11-19 | 2012-08-08 | 吉林大学 | 基于声纹识别的usb身份认证方法及其系统 |
CN102543084A (zh) * | 2010-12-29 | 2012-07-04 | 盛乐信息技术(上海)有限公司 | 在线声纹认证系统及其实现方法 |
US9865266B2 (en) * | 2013-02-25 | 2018-01-09 | Nuance Communications, Inc. | Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system |
US9607245B2 (en) * | 2014-12-02 | 2017-03-28 | Xerox Corporation | Adapted vocabularies for matching image signatures with fisher vectors |
US10950244B2 (en) * | 2017-11-29 | 2021-03-16 | ILLUMA Labs LLC. | System and method for speaker authentication and identification |
US10984795B2 (en) * | 2018-04-12 | 2021-04-20 | Samsung Electronics Co., Ltd. | Electronic apparatus and operation method thereof |
CN110166424B (zh) * | 2019-04-03 | 2022-03-25 | 西安电子科技大学 | 面向物联网服务隐私保护声纹识别方法及系统、移动终端 |
CN110085236B (zh) * | 2019-05-06 | 2021-02-09 | 中国人民解放军陆军工程大学 | 一种基于自适应语音帧加权的说话人识别方法 |
CN110443063B (zh) * | 2019-06-26 | 2023-03-28 | 电子科技大学 | 自适性保护隐私的联邦深度学习的方法 |
CN111091199B (zh) * | 2019-12-20 | 2023-05-16 | 哈尔滨工业大学(深圳) | 一种基于差分隐私的联邦学习方法、装置及存储介质 |
CN112185395B (zh) * | 2020-09-04 | 2021-04-27 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于差分隐私的联邦声纹识别方法 |
-
2020
- 2020-09-04 CN CN202010920024.4A patent/CN112185395B/zh active Active
-
2021
- 2021-03-30 WO PCT/CN2021/084136 patent/WO2022048143A1/zh active Application Filing
- 2021-05-30 US US17/334,790 patent/US11170786B1/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150347734A1 (en) * | 2010-11-02 | 2015-12-03 | Homayoon Beigi | Access Control Through Multifactor Authentication with Multimodal Biometrics |
CN102270451A (zh) * | 2011-08-18 | 2011-12-07 | 安徽科大讯飞信息科技股份有限公司 | 说话人识别方法及系统 |
CN103730114A (zh) * | 2013-12-31 | 2014-04-16 | 上海交通大学无锡研究院 | 一种基于联合因子分析模型的移动设备声纹识别方法 |
CN105069874A (zh) * | 2015-07-28 | 2015-11-18 | 北京航空航天大学 | 一种移动互联网声纹门禁系统及其实现方法 |
CN106847292A (zh) * | 2017-02-16 | 2017-06-13 | 平安科技(深圳)有限公司 | 声纹识别方法及装置 |
CN106685993A (zh) * | 2017-02-17 | 2017-05-17 | 安徽金猫数字科技有限公司 | 一种基于语音识别的安全认证系统 |
CN107222851A (zh) * | 2017-04-07 | 2017-09-29 | 南京邮电大学 | 一种利用差分隐私保护Wifi Fingerprint室内定位系统隐私的方法 |
CN108234493A (zh) * | 2018-01-03 | 2018-06-29 | 武汉大学 | 不可信服务器下隐私保护的时空众包统计数据发布方法 |
CN108922544A (zh) * | 2018-06-11 | 2018-11-30 | 平安科技(深圳)有限公司 | 通用向量训练方法、语音聚类方法、装置、设备及介质 |
CN111027715A (zh) * | 2019-12-11 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 基于蒙特卡洛的联邦学习模型训练方法及装置 |
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
CN111460494A (zh) * | 2020-03-24 | 2020-07-28 | 广州大学 | 面向多模态深度学习的隐私保护方法及系统 |
Non-Patent Citations (4)
Title |
---|
《Differentially Private Convolutional Neural Networks with Adaptive Gradient Descent》;Xixi Huang et al.;《2019 IEEE Fourth International Conference on Data Science in Cyberspace (DSC)》;20191231;第642-648页 * |
《Privacy-Preserving Speaker Verification and Identification Using Gaussian Mixture Models》;Manas A. Pathak et al.;《IEEE Transactions on Audio, Speech, and Language Processing ( Volume: 21, Issue: 2, Feb. 2013)》;20131231;第397-406页 * |
《一种基于FIDOUAF架构的开放授权方案》;李梁磊等;《信息网络安全》;20170610;第35-42页 * |
《智能语音系统安全分析》;张笑宇等;《数据与计算发展前沿》;20190131;第98-109页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2022048143A1 (zh) | 2022-03-10 |
US11170786B1 (en) | 2021-11-09 |
CN112185395A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112185395B (zh) | 一种基于差分隐私的联邦声纹识别方法 | |
US12010212B2 (en) | Consensus-based voting for network member identification employing blockchain-based identity signature mechanisms | |
Pathak et al. | Privacy-preserving speaker verification and identification using gaussian mixture models | |
US11244146B2 (en) | Systems and methods for secure user logins with facial recognition and blockchain | |
CN114363043B (zh) | 一种对等网络中基于可验证聚合和差分隐私的异步联邦学习方法 | |
CN109802942A (zh) | 一种隐私保护的声纹认证方法及系统、移动终端 | |
CN111800252A (zh) | 基于区块链的信息审核方法、装置和计算机设备 | |
CN110674941B (zh) | 基于神经网络的数据加密传输方法及系统 | |
CN112329009B (zh) | 一种针对联合学习中噪声攻击的防御方法 | |
CN115189966A (zh) | 区块链隐私数据加解密服务系统 | |
CN117494092B (zh) | 基于生物活体识别的景区门票无感核验方法、系统及介质 | |
CN113886817A (zh) | 主机入侵检测方法及装置、电子设备、存储介质 | |
Xia et al. | SVCA: Secure and Verifiable Chained Aggregation for Privacy-Preserving Federated Learning | |
Jiao et al. | A blockchain federated learning scheme based on personalized differential privacy and reputation mechanisms | |
CN110619229A (zh) | 基于神经网络拆分的数据加密传输方法及系统 | |
CN112235787B (zh) | 一种基于生成对抗网络的位置隐私保护方法 | |
CN105678157B (zh) | 一种基于应用环境识别的数据产权保护系统和方法 | |
CN109862564A (zh) | 加密的数据共享系统 | |
CN117240607B (zh) | 一种基于安全计算机的安全认证方法 | |
CN115396225B (zh) | 一种数据平台用户身份认证方法及装置 | |
CN118172821B (zh) | 一种基于对称同态加密的隐私保护人脸识别方法 | |
CN117196017B (zh) | 一种轻量级隐私保护和完整性验证的联邦学习方法、系统、设备及介质 | |
CN117436078B (zh) | 联邦学习中双向模型投毒检测方法与系统 | |
Kong et al. | ASIA: A Federated Boosting Tree Model Against Sequence Inference Attacks in Financial Networks | |
CN117669766A (zh) | 一种联邦学习安全聚合可逆认证与投毒溯源的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518055 campus of Harbin Institute of technology, Shenzhen University Town, Taoyuan Street, Nanshan District, Shenzhen City, Guangdong Province Applicant after: Harbin Institute of Technology,Shenzhen(Shenzhen Institute of science and technology innovation Harbin Institute of Technology) Address before: 518055 campus of Harbin Institute of technology, Shenzhen University Town, Taoyuan Street, Nanshan District, Shenzhen City, Guangdong Province Applicant before: HARBIN INSTITUTE OF TECHNOLOGY (SHENZHEN) |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |