CN114398662A - 基于安全多方计算的隐私保护机器学习推理方法及系统 - Google Patents
基于安全多方计算的隐私保护机器学习推理方法及系统 Download PDFInfo
- Publication number
- CN114398662A CN114398662A CN202111489427.9A CN202111489427A CN114398662A CN 114398662 A CN114398662 A CN 114398662A CN 202111489427 A CN202111489427 A CN 202111489427A CN 114398662 A CN114398662 A CN 114398662A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- label
- machine learning
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000010801 machine learning Methods 0.000 title claims abstract description 66
- 230000008569 process Effects 0.000 claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims description 37
- 238000012795 verification Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013499 data model Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims 1
- 230000007547 defect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioethics (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Storage Device Security (AREA)
Abstract
本发明属于数据安全领域及密码学应用技术领域,公开了一种基于安全多方计算的隐私保护机器学习推理方法及系统,所述基于安全多方计算的隐私保护机器学习推理方法,包括:服务提供商对其所提供的机器学习模型进行承诺,生成标签,以保证标签和模型的一对一绑定;利用标签来限定模型,保证用户选取标签后模型不会被改变;在用户开始进行机器学习推理前,利用零知识证明来验证其所选标签是否被改变;最后利用安全计算框架来保证计算过程的安全性。本发明充分利用承诺不可更改以及零知识证明零知识的特性,在整个服务过程中,无可信第三方参与,即不会有第三方统同时掌握双方的数据,从根源上解决第三方不可信的问题。
Description
技术领域
本发明属于数据安全领域及密码学应用技术领域,尤其涉及一种基于安全多方计算的隐私保护机器学习推理方法及系统。
背景技术
目前,在信息化时代,生活离不开数据,为了更方便的处理这些数据,利用机器学习处理数据的方法应声而出。机器学习方法是计算机利用已有的数据,得出了某种模型,并利用此模型预测未来的一种方法。其作为主流的数据处理方案,在多个领域发挥着重要的作用。随着机器学习算法的不断推广,机器学习推理准确率的不断提高,成本不断下降,不仅仅是企业,很多个人也想通过机器学习推理来对自身的数据进行处理。但是一个优秀的机器学习模型的产生需要大量的数据和时间,个人或者较小的企业没有能力或者没有必要去产生属于自己的机器学习模型。在这个背景下,各种大数据处理服务的提供商也是逐渐开始扩展自己的业务,开展针对个人或者企业数据进行机器学习推理的服务,用自己的机器学习模型,对用户数据进行预测。用户根据自身需求选取相应的机器学习模型进行推理,得到推理结果。然而,用户数据对用户而言往往不想让他人知晓。对于企业而言,其耗费时间精力收集的数据也不想让其它企业知道;对于个人而言,个人数据中包含着个人的隐私信息,由这些信息可以确定个人的基本信息,包含个人的日常活动以及健康情况等,例如用电信息可以推测个人是否在家,医疗信息可以推测个人是否具有疾病等;同样的,对于服务的提供商而言,因为其耗费巨大代价所获得的模型具有商业价值,因此也会保护模型不被泄露。基于以上两点,需要同时保护用户数据隐私以及服务提供商的模型的安全。为了解决上述的问题,现有技术中存在两种方式解决这个问题:1)对原始的数据添加Pedersen承诺,基于公开可验证的安全计算。2)基于SPDZ的对称可验证性,对原始的数据添加哈希承诺。但是安全多方计算的公开可验证性能较低,哈希电路的高复杂性将会带来大的计算开销。
通过上述分析,现有技术存在的问题及缺陷为:现有技术中安全多方计算的公开可验证性能较低,哈希电路的高复杂性将会带来大的计算开销。
解决以上问题及缺陷的难度为:在于如何用更少量的资源完成安全计算前对双方数据的验证,保证计算过程的可验证性。
解决以上问题及缺陷的意义为:在充分解决上述问题后,可以保护参与方在进行数据推理的过程中双方输入数据的可信性。
发明内容
针对现有技术存在的问题,本发明提供了一种基于安全多方计算的隐私保护机器学习推理方法及系统。
本发明是这样实现的,一种基于安全多方计算的隐私保护机器学习推理方法,所述基于安全多方计算的隐私保护机器学习推理方法,包括:
服务提供商对其所提供的机器学习模型进行承诺,生成标签,以保证标签和模型的一对一绑定;
利用标签来限定模型,保证用户选取标签后模型不会被改变;
在用户开始进行机器学习推理前,利用零知识证明来验证其所选标签是否被改变;最后利用安全计算框架来保证计算过程的安全性。
进一步,所述基于安全多方计算的隐私保护机器学习推理方法,具体包括以下步骤:
步骤一,模型限定阶段,服务提供商利用承诺值限定模型,将承诺值公开作为标签,以标签来限定模型;该步可以保证服务提供商的模型与标签一一对应,保证对应关系不会被更改。
步骤二,输入限定阶段,该模块用于参与双方将参与计算的数据与全局MAC码结合后进行共享,达到锁定输入数据的目的;可以保证所输入的数据不会被恶意篡改,任意一方篡改数据将会导致后续验证的失败
步骤三,零知识证明阶段,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与标签所对应的模型数据是否相同;
步骤四,安全计算阶段,利用两方安全计算协议进行机器学习推理。可以保证计算过程的安全性。
进一步,所述模型限定阶段具体过程为:
服务提供商根据其所拥有的数据模型wk,生成相对应的生成wk的Pedersen承诺P(wk);
服务提供商将P(wk)作为标签公开,同时公开用于验证的可公开随机数g、h、p;
所述P(wk)为:
其中,wk为模型,p为大素数,g、h为有限域ZP上的本元,r为随机生成的盲因子,P(wk)为承诺值。
进一步,所述输入限定阶段,具体过程为:
Client将随机生成的素数公开,Server挑选编号为集合为m的任意个素数;Client以pi为模生成BGV的公私钥对pki,ski,其中(0≤i<n且);Server以pj为模生成BGV的公私钥对pkj,skj,其中(0≤j<n且j∈m);
Server生成随机数αs,rs;Client生成随机数αc,rc;Server将自身随机数αs,rs以及参与计算的w分别模pk,得到αs,k,rs,k与wk;Client将自身随机数αc,rc分别模pk得到αc,k,rc,k,其中0≤k<n;
Server与Client分别使用公钥pkk加密所对应的αs,k,rs,k,αc,k,rc,k以及wk;得到C(αs,k),C(rs,k),C(αc,k),C(rc,k)以及C(wk);
Server将编号为j的数据发送给Client;Client将编号为i的数据发送给Server;这样,Server得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi);Client得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi),其中(0≤i<n且),(0≤j<n且j∈m);
双方分别在本地进行计算,Server与Client分别使用自身私钥skj与ski解密所对应的数据;Server解密完成后将数据发送给Client,Client使用中国剩余定理得到Δ+rs+rc,并设Δ2=Δ+rs+rc-rc,Server端设Δ1=-rs。
进一步,所述双方分别在本地计算,具体为:
C(αk)=C(αs,k)+C(αc,k);
C(Δk)=C(αk·wk)=C(αk)·C(wk);
C(Δk+rs,k+rc,k)=C(αk·wk)+C(rs,k)+C(rc,k);
其中0≤k<n,并将结果公开。
进一步,所述零知识证明阶段具体过程为:
由于
若取:a1=1,a2=p-1,a3=0;
满足:1·x1+(p-1)·x2+0·x3=0modp;
零知识证明方案;
si=vi-C·xi;
其中C=H(g,gα,h,y,t),函数H(x)为哈希函数;将结果发送给Client;
是否成立,若结果成立,则进入安全多方计算框架进行进一步计算;
若存在n个w以及wk,则进行批量验证:
Client生成随机数ηi,判断
是否成立,其中Cj=H(g,gα,h,yj,tj),函数H(x)为哈希函数。
进一步,所述安全计算阶段具体过程为:
将参与机器学习推理的双方数据输入到SPDZ框架中,进行安全多方计算。
本发明的另一目的在于提供一种实施所述基于安全多方计算的隐私保护机器学习推理方法的基于安全多方计算的隐私保护机器学习推理系统,所述基于安全多方计算的隐私保护机器学习推理系统包括:
模型限定模块,用于服务提供商对自身模型数据进行承诺并公开承诺值作为标签,即对自身所有模型通过标签进行限定,并将限定后的标签进行公开,标签公开后,由于承诺的安全性,被承诺模型信息将不会被更改;同时,该标签值也将作为数据参与后续的验证过程,即在后续计算过程中服务提供商输入的模型数据将会与该被标签限定的模型数据进行比对;
输入限定模块,用于参与双方将参与计算的数据与全局MAC码Δ结合后生成α,并将α进行共享,达到锁定输入数据的目的,确保在后续计算的过程中数据不会发生变化,全局MAC码Δ为双方共同生成,并由双方共同掌握,任何一方都无法得到全局MAC码Δ的值,任一方更改被锁定的数据将会导致在后续验证过程中值α的恢复出错,导致验证失败;
零知识证明模块,用于零知识证明,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与服务提供商提供的模型数据是否相同;
安全计算模块,用于在验证后的安全计算,保障计算过程中双方参与计算的数据的安全;由现有的恶意模型下的安全多方计算模型实现,此处采用SPDZ框架。
本发明的另一目的在于提供一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行所述基于安全多方计算的隐私保护机器学习推理方法包括下列步骤:
服务提供商对其所提供的机器学习模型进行承诺,生成标签,以保证标签和模型的一对一绑定;
利用标签来限定模型,保证用户选取标签后模型不会被改变;
在用户开始进行机器学习推理前,利用零知识证明来验证其所选标签是否被改变;最后利用安全计算框架来保证计算过程的安全性。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述的基于安全多方计算的隐私保护机器学习推理方法。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明基于承诺值可验证以及零知识证明的思想提供了一种限定模型的机器学习推理方案,充分利用承诺不可更改以及零知识证明零知识的特性,在整个服务过程中,无可信第三方参与,即不会有第三方统同时掌握双方的数据,从根源上解决第三方不可信的问题。本发明基于承诺值可验证以及零知识证明的思想提供了一种限定模型的机器学习推理方案,为了避免服务提供商数据的泄露,对服务提供商所能提供的模型进行了承诺,生成标签,并通过公开标签的方式使得用户可以选择不同的服务,进行安全的机器学习推理,利用同态加密以及SPDZ的思想,来保证双方输入的不可篡改性。同时本发明提供一种基于承诺值可验证以及零知识证明的思想,进而提供了一种限定模型的机器学习推理方案,整个计算过程需要保证双方数据的安全性,因此引入零知识证明来保证服务提供商输入数据的有效性。本发明保证在用户在“机器学习即服务”的过程中,选定服务后,服务提供商只能使用自己公开的服务对应的模型提供服务。即保证服务提供商输入数据的真实性,不可篡改。保护用户的合法权益。
附图说明
图1是本发明实施例提供的基于安全多方计算的隐私保护机器学习推理系统结构示意图;
图1中:1、模型限定模块;2、输入限定模块;3、零知识证明模块;4、安全计算模块。
图2是本发明实施例提供的基于安全多方计算的隐私保护机器学习推理方法流程图。
图3是本发明方法模型限定模块的流程示意图。
图4是本发明方法输入限定模块的流程示意图。
图5是本发明方法零知识证明模块的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于安全多方计算的隐私保护机器学习推理方法及系统,下面结合附图对本发明作详细的描述。
本发明提供的基于安全多方计算的隐私保护机器学习推理系统业内的普通技术人员还可以采用其他的步骤实施,图1的本发明提供的基于安全多方计算的隐私保护机器学习推理系统仅仅是一个具体实施例而已。
如图1所示,本发明实施例提供的基于安全多方计算的隐私保护机器学习推理系统包括:
模型限定模块1,用于服务提供商对自身模型数据进行承诺并公开承诺值作为标签,即对自身所有模型通过标签进行限定,并将限定后的标签进行公开,标签公开后,由于承诺的安全性,被承诺模型信息将不会被更改。同时,该标签值也将作为数据参与后续的验证过程,即在后续计算过程中服务提供商输入的模型数据将会与该被标签限定的模型数据进行比对。
输入限定模块2,用于参与双方将参与计算的数据与全局MAC码Δ结合后生成α,并将α进行共享,达到锁定输入数据的目的,确保在后续计算的过程中数据不会发生变化,全局MAC码Δ为双方共同生成,并由双方共同掌握,任何一方都无法得到全局MAC码Δ的值,任一方更改被锁定的数据将会导致在后续验证过程中值α的恢复出错,导致验证失败。
零知识证明模块3,用于零知识证明,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与服务提供商提供的模型数据是否相同。
安全计算模块4,用于在验证后的安全计算,保障计算过程中双方参与计算的数据的安全;该模块的由现有的恶意模型下的安全多方计算模型实现(此处采用SPDZ框架)。
如图2所示,本发明实施例提供的基于安全多方计算的隐私保护机器学习推理方法,包括:
S101:模型限定阶段,服务提供商利用承诺值限定模型,将承诺值公开作为标签,以标签来限定模型;
S102:输入限定阶段,该模块用于参与双方将参与计算的数据与全局MAC码结合后进行共享,达到锁定输入数据的目的;
S103:零知识证明阶段,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与标签所对应的模型数据是否相同;
S104:安全计算阶段,利用两方安全计算协议进行机器学习推理。
如图3所示,本发明实施例提供的模型限定阶段具体过程为:
服务提供商根据其所拥有的数据模型wk,生成相对应的生成wk的Pedersen承诺P(wk)。其中,wk为服务商所拥有的机器学习模型,p为大素数,g、h为有限域ZP上的本元,r为随机生成的盲因子,P(wk)为承诺值。
服务提供商将P(wk)作为标签公开,同时公开用于验证的可公开随机数g、h、p。
如图4所示,本发明实施例提供的输入限定阶段,具体过程为:Client随机生成n个素数pk,n的大小与数据长度b有关(0≤k<n),HElib库中BGV最多支持加密的数据长度为32位,因此在此进行了扩展。Client将随机生成的素数公开,Server挑选编号为集合为m的任意个素数;Client以pi为模生成BGV的公私钥对pki,ski,其中(0≤i<n且);Server以pj为模生成BGV的公私钥对pkj,skj,其中(0≤j<n且j∈m)。Server生成随机数αs,rs;Client生成随机数αc,rc。Server将自身随机数αs,rs以及参与计算的w利用中国剩余定理进行秘密共享,在利用中国剩余定理中的素数为pk,得到αs,k,rs,k与wk;Client同样将自身随机数αc,rc分别利用中国剩余定理模pk得到αc,k,rc,k,其中0≤k<n。
Server与Client分别使用公钥pkk加密所对应的αs,k,rs,k,αc,k,rc,k以及wk。得到C(αs,k),C(rs,k),C(αc,k),C(rc,k)以及C(wk)。
Server将编号为j的数据发送给Client;Client将编号为i的数据发送给Server。这样,Server得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi)。Client得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi),其中(0≤i<n且),(0≤j<n且j∈m)。
双方分别在本地计算:
C(αk)=C(αs,k)+C(αc,k);
C(Δk)=C(αk·wk)=C(αk)·C(wk);
C(Δk+rs,k+rc,k)=C(αk·wk)+C(rs,k)+C(rc,k);
其中0≤k<n,并将结果公开。
Server与Client分别使用自身私钥skj与ski解密所对应的数据;Server解密完成后将数据发送给Client,Client使用中国剩余定理得到Δ+rs+rc,并设Δ2=Δ+rs+rc-rc,Server端设Δ1=-rs。
如图5所示,本发明实施例提供的零知识证明阶段具体过程为:
由于
若取:a1=1,a2=p一1,a3=0;
满足:1·x1+(p-1)·x2+0·x3=0modp;
满足零知识证明方案。
si=vi-C·xi;
其中C=H(g,gα,h,y,t),函数H(x)为哈希函数;将结果发送给Client。
是否成立,若结果成立,则进入安全多方计算框架进行进一步计算。
若存在n个w以及wk,则可以进行批量验证:
Client生成随机数ηi,判断
是否成立,其中Cj=H(g,gα,h,yj,tj),函数H(x)为哈希函数。
本发明实施例提供的安全计算阶段具体过程为:
将参与机器学习推理的双方数据输入到SPDZ框架中,进行安全多方计算。
下面结合具体实施例对本发明的技术效果作详细的描述。
1正确性与安全性
本发明使用Pedersen承诺以及零知识证明来保证安全,即在服务提供商将标签公开后,标签与模型的对应关系不会被改变。在零知识证明中,除了证明结果,用户没有获得任何关于服务提供商模型的信息。
证明:由于以下方法存在,因此可以保证在零知识的情况下进行验证:
P计算承诺值其中v1,...,vl为模q的剩余系中满足线性关系的一组随机数。P计算si=vi-cxi(i=1,...,l)并且构造(s1,...,sl,t),其中c=H(g1,g2,…gl,y,t),函数H(x)为哈希函数。
-PROOFCHECK(·)→l or0;
V通过验证以下两个等式是否成立来进行零知识证明的验证:
其中c=H(g1,g2,…gl,y,t),函数H(x)为哈希函数。若验证通过则输出1;否则输出0。
-BATCHCHECK(·)→lor0;
给出yj以及(sj,1,...,Sj,l,tj)生成随机数ηi,判断:
是否成立,其中c=H(g1,g2,…gl,y,t),函数H(x)为哈希函数。
2有效性:在计算成本方面,本发明所使用的方法是有效的。如表1为10000个128bit数据于虚拟机(Ubuntu18.04)上进行实验的结果。
表1为10000个128bit数据于虚拟机(Ubuntu18.04)上进行实验的结果
计算耗时 | |
使用Paillier实现 | 361.7s |
使用BGV实现 | 423.5s |
使用SPDZ中sha256实现 | 2250s |
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述基于安全多方计算的隐私保护机器学习推理方法,包括:
服务提供商对其所提供的机器学习模型进行承诺,生成标签,以保证标签和模型的一对一绑定;
利用标签来限定模型,保证用户选取标签后模型不会被改变;
在用户开始进行机器学习推理前,利用零知识证明来验证所选标签是否被改变;
最后利用安全计算框架来保证计算过程的安全性。
2.如权利要求1所述基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述基于安全多方计算的隐私保护机器学习推理方法,具体包括以下步骤:
步骤一,模型限定阶段,服务提供商利用承诺值限定模型,将承诺值公开作为标签,以标签来限定模型;
步骤二,输入限定阶段,该模块用于参与双方将参与计算的数据与全局MAC码结合后进行共享,达到锁定输入数据的目的;
步骤三,零知识证明阶段,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与标签所对应的模型数据是否相同;
步骤四,安全计算阶段,利用两方安全计算协议进行机器学习推理。
4.如权利要求2所述基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述输入限定阶段,具体过程为:
Client将随机生成的素数公开,Server挑选编号为集合为m的任意个素数;Client以pi为模生成BGV的公私钥对pki,ski,其中0≤i<n且Server以pj为模生成BGV的公私钥对pkj,skj,其中0≤j<n且j∈m;
Server生成随机数αs,rs;Client生成随机数αc,rc;Server将自身随机数αs,rs以及参与计算的w分别模pk,得到αs,k,rs,k与wk;Client将自身随机数αc,rc分别模pk得到αc,k,rc,k,其中0≤k<n;
Server与Client分别使用公钥pkk加密所对应的αs,k,rs,k,αc,k,rc,k以及wk;得到C(αs,k),C(rs,k),C(αc,k),C(rc,k)以及C(wk);
Server将编号为j的数据发送给Client;Client将编号为i的数据发送给Server;这样,Server得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi);Client得到C(αs,i),C(rs,i),C(αc,i),C(rc,i)以及C(wi),其中0≤i<n且0≤j<n且j∈m;
双方分别在本地进行计算,Server与Client分别使用自身私钥skj与ski解密所对应的数据;Server解密完成后将数据发送给Client,Client使用中国剩余定理得到Δ+rs+rc,并设Δ2=Δ+rs+rc-rc,Server端设Δ1=-rs。
5.如权利要求4所述基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述双方分别在本地计算,具体为:
C(αk)=C(αs,k)+C(αc,k);
C(Δk)=C(αk·wk)=C(αk)·C(wk);
C(Δk+rs,k+rc,k)=C(αk·wk)+C(rs,k)+C(rc,k);
其中0≤k<n,并将结果公开。
6.如权利要求2所述基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述零知识证明阶段具体过程为:Server计算hR其中R为随机数,Client计算分别将结果发送给对方,得到gα和gΔhR,双方得到:
由于
若取:a1=1,a2=p-1,a3=0;
满足:1·x1+(p-1)·x2+0·x3=0 mod p;
零知识证明方案;
si=vi-C·xi;
其中C=H(g,gα,h,y,t),函数H(x)为哈希函数;将结果发送给Client;
是否成立,若结果成立,则进入安全多方计算框架进行进一步计算;
若存在n个w以及wk,则进行批量验证:
Client生成随机数ηi,判断:
是否成立,其中Cj=H(g,gα,h,yj,tj),函数H(x)为哈希函数。
7.如权利要求2所述基于安全多方计算的隐私保护机器学习推理方法,其特征在于,所述安全计算阶段具体过程为:将参与机器学习推理的双方数据输入到SPDZ框架中,进行安全多方计算。
8.一种实施权利要求1~7任意一项所述基于安全多方计算的隐私保护机器学习推理方法的基于安全多方计算的隐私保护机器学习推理系统,其特征在于,所述基于安全多方计算的隐私保护机器学习推理系统包括:
模型限定模块,用于服务提供商对自身模型数据进行承诺并公开承诺值作为标签,即对自身所有模型通过标签进行限定,并将限定后的标签进行公开,标签公开后,由于承诺的安全性,被承诺模型信息将不会被更改;同时,该标签值也将作为数据参与后续的验证过程,即在后续计算过程中服务提供商输入的模型数据将会与该被标签限定的模型数据进行比对;
输入限定模块,用于参与双方将参与计算的数据与全局MAC码Δ结合后生成α,并将α进行共享,达到锁定输入数据的目的,确保在后续计算的过程中数据不会发生变化,全局MAC码Δ为双方共同生成,并由双方共同掌握,任何一方都无法得到全局MAC码Δ的值,任一方更改被锁定的数据将会导致在后续验证过程中值α的恢复出错,导致验证失败;
零知识证明模块,用于零知识证明,利用线性零知识证明方案,在零知识的情况下判断被限定的模型数据与服务提供商提供的模型数据是否相同;
安全计算模块,用于在验证后的安全计算,保障计算过程中双方参与计算的数据的安全;由现有的恶意模型下的安全多方计算模型实现,此处采用SPDZ框架。
9.一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行权利要求1~7任意一项所述基于安全多方计算的隐私保护机器学习推理方法包括下列步骤:
服务提供商对其所提供的机器学习模型进行承诺,生成标签,以保证标签和模型的一对一绑定;
利用标签来限定模型,保证用户选取标签后模型不会被改变;
在用户开始进行机器学习推理前,利用零知识证明来验证其所选标签是否被改变;最后利用安全计算框架来保证计算过程的安全性。
10.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求1~7任意一项所述的基于安全多方计算的隐私保护机器学习推理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111489427.9A CN114398662B (zh) | 2021-12-07 | 2021-12-07 | 基于安全多方计算的隐私保护机器学习推理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111489427.9A CN114398662B (zh) | 2021-12-07 | 2021-12-07 | 基于安全多方计算的隐私保护机器学习推理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114398662A true CN114398662A (zh) | 2022-04-26 |
CN114398662B CN114398662B (zh) | 2024-09-24 |
Family
ID=81227013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111489427.9A Active CN114398662B (zh) | 2021-12-07 | 2021-12-07 | 基于安全多方计算的隐私保护机器学习推理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114398662B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115333746A (zh) * | 2022-07-15 | 2022-11-11 | 方建 | 一种基于gpu的多方安全计算方法、系统及电子设备 |
CN116561789A (zh) * | 2023-07-07 | 2023-08-08 | 北京天润基业科技发展股份有限公司 | 隐私数据的处理方法、装置、电子设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4926479A (en) * | 1988-04-29 | 1990-05-15 | Massachusetts Institute Of Technology | Multiprover interactive verification system |
US8515058B1 (en) * | 2009-11-10 | 2013-08-20 | The Board Of Trustees Of The Leland Stanford Junior University | Bootstrappable homomorphic encryption method, computer program and apparatus |
CN111600707A (zh) * | 2020-05-15 | 2020-08-28 | 华南师范大学 | 一种在隐私保护下的去中心化联邦机器学习方法 |
CN112488227A (zh) * | 2020-12-07 | 2021-03-12 | 武汉大学 | 一种提供完整性验证的可审计外包机器学习服务方法 |
-
2021
- 2021-12-07 CN CN202111489427.9A patent/CN114398662B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4926479A (en) * | 1988-04-29 | 1990-05-15 | Massachusetts Institute Of Technology | Multiprover interactive verification system |
US8515058B1 (en) * | 2009-11-10 | 2013-08-20 | The Board Of Trustees Of The Leland Stanford Junior University | Bootstrappable homomorphic encryption method, computer program and apparatus |
CN111600707A (zh) * | 2020-05-15 | 2020-08-28 | 华南师范大学 | 一种在隐私保护下的去中心化联邦机器学习方法 |
CN112488227A (zh) * | 2020-12-07 | 2021-03-12 | 武汉大学 | 一种提供完整性验证的可审计外包机器学习服务方法 |
Non-Patent Citations (1)
Title |
---|
蒋瀚;刘怡然;宋祥福;王皓;郑志华;徐秋亮;: "隐私保护机器学习的密码学方法", 电子与信息学报, no. 05, 15 May 2020 (2020-05-15), pages 1068 - 1078 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115333746A (zh) * | 2022-07-15 | 2022-11-11 | 方建 | 一种基于gpu的多方安全计算方法、系统及电子设备 |
CN116561789A (zh) * | 2023-07-07 | 2023-08-08 | 北京天润基业科技发展股份有限公司 | 隐私数据的处理方法、装置、电子设备及可读存储介质 |
CN116561789B (zh) * | 2023-07-07 | 2023-09-19 | 北京天润基业科技发展股份有限公司 | 隐私数据的处理方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114398662B (zh) | 2024-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Secure optimization computation outsourcing in cloud computing: A case study of linear programming | |
JP2020515087A5 (zh) | ||
CN111917533B (zh) | 具有减少泄漏的区间统计量的隐私保护基准分析 | |
CN113222758A (zh) | 以隐私为前提的联盟链交易信息监管方法、系统、终端 | |
CN104601605A (zh) | 云存储中基于变色龙哈希函数的高效隐私保护审计方案 | |
Chaterjee et al. | 3PAA: A private PUF protocol for anonymous authentication | |
CN113193948A (zh) | 多参与方联合隐私数据统计分析方法、信息数据处理终端 | |
CN113420886B (zh) | 纵向联邦学习模型的训练方法、装置、设备及存储介质 | |
JP2022533950A (ja) | 準群演算を含む暗号化データに対して等価演算および未満演算を実行するシステムおよび方法 | |
Ren et al. | Verifiable outsourcing algorithms for modular exponentiations with improved checkability | |
Liu et al. | Lightning-fast and privacy-preserving outsourced computation in the cloud | |
CN114398662A (zh) | 基于安全多方计算的隐私保护机器学习推理方法及系统 | |
CN111835516A (zh) | 一种公钥可否认加密方法及系统 | |
Tang et al. | Secure multi-party computation protocol for sequencing problem | |
US20220345312A1 (en) | Zero-knowledge contingent payments protocol for granting access to encrypted assets | |
Alnahawi et al. | Toward next generation quantum-safe eids and emrtds: A survey | |
CN113507367A (zh) | 一种云环境下外包数据的在线/离线完整性审计方法 | |
US20220060314A1 (en) | Privacy preserving fully homomorphic encryption with circuit verification | |
Xu et al. | An efficient provable secure public auditing scheme for cloud storage | |
Jafar et al. | Empowering secure and cost-efficient blockchain electronic voting by optimized ZK-SNARK algorithm | |
CN114866228B (zh) | 一种实现软密码模块的方法、系统、存储介质及终端 | |
Fajiang et al. | An efficient anonymous remote attestation scheme for trusted computing based on improved CPK | |
Wen et al. | A new efficient authorized private set intersection protocol from Schnorr signature and its applications | |
Wang et al. | Homomorphic witness encryption and its applications | |
Liang et al. | An efficient anonymous authentication and supervision system based on blockchain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |