CN113792338A - 一种基于神经网络模型的安全多方计算方法 - Google Patents
一种基于神经网络模型的安全多方计算方法 Download PDFInfo
- Publication number
- CN113792338A CN113792338A CN202111052934.6A CN202111052934A CN113792338A CN 113792338 A CN113792338 A CN 113792338A CN 202111052934 A CN202111052934 A CN 202111052934A CN 113792338 A CN113792338 A CN 113792338A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- host
- input
- input number
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 91
- 238000004364 calculation method Methods 0.000 title claims abstract description 44
- 210000002569 neuron Anatomy 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 27
- 238000012795 verification Methods 0.000 claims description 10
- 210000002364 input neuron Anatomy 0.000 claims description 8
- 230000000694 effects Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 46
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Bioethics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及区块链技术领域,具体涉及一种基于神经网络模型的安全多方计算方法,包括:建立主持方,主持方构建神经网络模型;主持方自行生成若干组输入数;函数结果作为标签,形成样本数据;使用样本数据训练和测试神经网络模型;主持方公布神经网络模型;参与方将各自的隐私数代入加权和计算式,得到中间值,将中间值发送给主持方;主持方收到全部中间值后,将中间值求和,再与偏移值相加,获得第1层神经元的输入数;获得第1层全部神经元的输入数后,计算获得神经网络模型的输出,即为安全多方计算的结果。本发明的实质性效果是:利用神经网络模型拟合任意目标函数,获得安全多方计算的方案,扩大了安全多方计算的应用范围。
Description
技术领域
本发明涉及区块链技术领域,具体涉及一种基于神经网络模型的安全多方计算方法。
背景技术
区块链是一个分布式的共享账本和数据库,具有去中心化、不可篡改、全程留痕、可以追溯、集体维护、公开透明等特点。这些特点保证了区块链的“诚实”与“透明”,为区块链创造信任奠定基础。基于区块链能够解决信息不对称问题,实现多个主体之间的协作信任与一致行动。区块链借助分布存储,虽然提高了数据的安全性并提供了信任基础,但同时也注定了数据在区块链上是公开透明的。随着区块链应用不断扩展延伸,涉及敏感隐私数据的行业在应用区块链时,就出现了无法保持数据隐私的问题。因此隐私计算的概念被提出,隐私计算(Privacy Computing)是指一种由两个或多个参与方联合计算约定函数的技术和系统。参与方在不泄露各自数据的前提下通过协作对他们的数据进行联合机器学习和联合分析。隐私计算的参与方既可以是同一机构的不同部门,也可以是不同的机构。其中,安全多方计算是隐私计算的一种实现技术。目前进行安全多方计算的技术有不经意传输、加密布尔电路和同态加密技术。其中不经意传输和加密布尔电路的方案能够进行任意目标函数的计算,但效率十分低下。同态加密目前仅能够进行加法的安全多方计算。导致安全多方计算技术难以推广使用,限制了区块链技术的发展。因而需要进一步研究执行效率更高的安全多方计算方案。
如中国专利CN111737011A,公开日2020年10月2日,公开了一种安全多方计算的实现方法,应用在安全多方计算参与方的代表节点上,其方法包括:确定本参与方符合安全多方计算协议的密态计算任务;将密态计算任务拆分为至少两个子任务,并将子任务分发给至少两个辅助节点进行计算;接收辅助节点返回的子任务的执行结果,根据子任务的执行结果生成符合安全多方计算协议的密态计算任务的计算结果。其基于同态加密进行安全多方计算,不能解决当前安全多方计算应用范围窄的技术问题。
发明内容
本发明要解决的技术问题是:目前安全多方计算应用范围窄的技术问题。提出了一种基于神经网络模型的安全多方计算方法,借助神经网络模型拟合目标函数实现安全多方计算。
为解决上述技术问题,本发明所采取的技术方案为:一种基于神经网络模型的安全多方计算方法,包括:选定主持方,主持方构建神经网络模型;主持方根据输入数的取值范围,生成若干组输入数;将每组输入数代入目标函数,获得函数结果,函数结果作为标签,形成样本数据;主持方使用样本数据训练和测试神经网络模型,直到神经网络模型的准确度达到预设阈值;主持方公布神经网络模型,参与方验证神经网络模型的准确度,若验证通过则将验证结果签名,全部参与方验证通过后进入下一步骤;神经网络模型的第1层神经元的输入数将是输入层神经元取值的加权和与偏移值的和,参与方将各自的隐私数代入加权和计算式,得到中间值,将中间值发送给主持方;主持方收到全部中间值后,将中间值求和,再与偏移值相加,获得第1层神经元的输入数;获得第1层全部神经元的输入数后,计算获得神经网络模型的输出,所述输出即为安全多方计算的结果。
作为优选,主持方训练神经网络模型达到预设阈值后,检查第1层每个神经元涉及的连接的权重值,若存在第1层的神经元仅涉及一条权重非零的连接,则丢弃该神经网络模型,重新构建神经网络模型并重新训练。
作为优选,参与方计算第1层神经元的中间值时,若中间值仅涉及参与方的一个输入数,则参与方执行以下步骤:从其他参与方中任选至少1个参与方,作为协同方,协同计算中间值;参与方将输入数拆分为若干个加数,加数数量为协同方数量加1;参与方保留一个加数,其余加数分别发送给协同方;参与方使用保留的加数计算中间值,将中间值发送给主持方;协同方计算对应中间值时,将自身输入数和获得的加数代入中间值的计算式,获得中间值,将中间值发送给主持方。
作为优选,主持方生成若干组输入数的方法,包括以下步骤:主持方向参与方索要每个输入数的取值范围;参与方将输入数的取值范围和分布概率反馈给主持方;支持方按照分布概率在输入数的取值范围内随机生成输入数。
作为优选,参与方将输入数的取值范围划分为若干个区间,计算每个区间的分布概率;将若干个区间的分布概率发送给支持方,支持方公开每个输入数的取值范围和分布概率;参与方验证准确度时,按照输入数的分布概率生成若干组输入数;将输入数代入目标函数获得函数结果;将输入数代入神经网络模型,获得神经网络模型的输出,与函数结果对比获得损失值;计算损失值占函数结果的百分比,获得平均损失百分比,若平均损失百分比低于预设阈值,则判定神经网络模型的准确度验证通过。
作为优选,主持方根据目标函数,选择划分量,所述划分量为目标函数中涉及指数函数的输入数,主持方根据划分量的取值范围,为划分量设置若干个区间,为每个区间建立一个神经网络模型,并将神经网络模型关联对应的区间,进行安全多方计算时,由划分量对应的参与方选择对应的神经网络模型并通知其他参与方。
作为优选,主持方构建神经网络模型时,执行以下步骤:设定阈值N,N为正整数;主持方分别计算目标函数对每个输入数的1阶偏导至N阶偏导;对于输入数,若目标函数的m阶偏导非常数,则主持方添加所述输入数的m次方作为神经网络模型的输入神经元。
本发明的实质性效果是:利用神经网络模型拟合任意目标函数,获得在一定允许误差范围内的安全多方计算方案,扩大了安全多方计算的应用范围,同时也提高了安全多方计算的效率;由于神经网络模型对目标函数的拟合存在一定的误差,因而消除了准确计算带来的数据泄露问题;采用协同计算使仅有一个输入数的参与方能够在保证隐私的前提下,参与到安全多方计算中。
附图说明
图1为实施例一安全多方计算方法流程示意图。
图2为实施例一协同计算方法示意图。
图3为实施例一生成输入数方法示意图。
图4为实施例一输入数分布概率示意图。
图5为实施例一准确度验证方法示意图。
图6为实施例一神经网络模型示意图。
图7为实施例二建立神经网络模型方法示意图。
其中:10、输入数,20、输入层,30、第1层,40、输出层。
具体实施方式
下面通过具体实施例,并结合附图,对本发明的具体实施方式作进一步具体说明。
实施例一:
一种基于神经网络模型的安全多方计算方法,请参阅附图1,本方法包括以下步骤:
步骤A01)选定主持方,主持方构建神经网络模型;
步骤A02)主持方根据输入数的取值范围,生成若干组输入数;
步骤A03)将每组输入数代入目标函数,获得函数结果,函数结果作为标签,形成样本数据;
步骤A04)主持方使用样本数据训练和测试神经网络模型,直到神经网络模型的准确度达到预设阈值;
步骤A05)主持方公布神经网络模型,参与方验证神经网络模型的准确度,若验证通过则将验证结果签名,全部参与方验证通过后进入下一步骤;
步骤A06)神经网络模型的第1层神经元的输入数将是输入层神经元取值的加权和与偏移值的和,参与方将各自的隐私数代入加权和计算式,得到中间值,将中间值发送给主持方,主持方收到全部中间值后,将中间值求和,再与偏移值相加,获得第1层神经元的输入数;
步骤A07)获得第1层全部神经元的输入数后,计算获得神经网络模型的输出,输出即为安全多方计算的结果。
主持方训练神经网络模型达到预设阈值后,检查第1层每个神经元涉及的连接的权重值,若存在第1层的神经元仅涉及一条权重非零的连接,则丢弃该神经网络模型,重新构建神经网络模型并重新训练。第1层的神经元仅涉及一条权重非零的连接,对应计算出的中间值,能够直接反推出输入数,会导致隐私泄露。出现这种情况的原因是神经网络模型的结构不合理或训练出现问题。应减小神经元的数量,或者降低权重接近0时的梯度。使权重被训练为0,属于神经网络训练中,经常会出现的异常情况。通常意味着梯度函数选择不合理。本方案仅对这种训练异常的情况做排除处理。
参与方计算第1层神经元的中间值时,若中间值仅涉及参与方的一个输入数,则参与方执行以下步骤,请参阅附图2,包括:步骤B01)从其他参与方中任选至少1个参与方,作为协同方,协同计算中间值;步骤B02)参与方将输入数拆分为若干个加数,加数数量为协同方数量加1;步骤B03)参与方保留一个加数,其余加数分别发送给协同方;步骤B04)参与方使用保留的加数计算中间值,将中间值发送给主持方;步骤B05)协同方计算对应中间值时,将自身输入数和获得的加数代入中间值的计算式,获得中间值,将中间值发送给主持方。请参阅附图6,如参与方甲拥有两个输入数:x1和x2,参与方乙拥有一个输入数:x3,主持方为丙。神经网络模型通常包括一个输入层、一个输出层和若干个隐藏层,隐藏层也称为中间层,在一些简单的神经网络模型中,也可以没有隐藏层。输出层可以有一个神经元,也可以有多个神经元。较为典型的神经网络模型为全连接神经网络。即每层的神经元与上一层的神经元均连接。输入层也被称为第0层,相应的隐藏层被依次称为第1层、第2层等。图6中所示神经网络模型具有一个输入层20、一个输出层40和一个隐藏层,即第1层30。输入层10的神经元的输出即为输入数10,用于将输入数10导入神经网络模型。
其中,参与方乙因只有一个输入数而触发本步骤,参与方乙将输入数x3拆分为x3_1和x3_2,x3= x3_1+x3_2,将x3_1发送给参与方甲,保留x3_2。参与方甲计算的中间值Temp1=a11*x1+a12*x2+a13*x3_1,参与方乙计算的中间值Temp2=a13*x3_2,将Temp1和Temp2发送给主持方丙。主持方丙将Temp1和Temp2相加,获得结果即恰好为a11*x1+a12*x2+a13*x3。再加上偏移值b1,即获得第1层的一个神经元的输入值。将输入值代入激活函数即可获得该神经元的输出。虽然主持方丙能够计算出x3_2,但由于主持方丙无法从Temp1中计算出x3_1,因而无法获得输入数x3的值。同时参与方甲虽然获知了x3_1的值,但参与方甲并不知晓Temp2的值,因而也无法获得输入数x3的值,实现输入数x3的隐私保护。但应采取措施使参与方甲和主持方丙不进行合谋作恶。节点作恶不在本实施例讨论范围之内。本实施例假设节点均遵循步骤执行,不额外进行数据串通。但节点保持好奇心,即从获得的数据中,努力推算其他节点的输入数。
主持方生成若干组输入数的方法,请参阅附图3,包括以下步骤:步骤C01)主持方向参与方索要每个输入数的取值范围;步骤C02)参与方将输入数的取值范围和分布概率反馈给主持方;步骤C03)支持方按照分布概率在输入数的取值范围内随机生成输入数。请参阅附图4,为分布概率示意图。本实施例中采用的分布概率不是一个连续的函数,而是采用直方图的形式。具体而言,将输入数的取值范围划分若干个区间,计算输入数落入区间内的概率,作为该区间的分布概率。
请参阅附图5,主持方生成输入数以及参与方验证神经网络模型准确度的方法包括以下步骤:步骤D01)参与方将输入数的取值范围划分为若干个区间,计算每个区间的分布概率;步骤D02)将若干个区间的分布概率发送给支持方,支持方公开每个输入数的取值范围和分布概率;步骤D03)参与方验证准确度时,按照输入数的分布概率生成若干组输入数;步骤D04)将输入数代入目标函数获得函数结果;步骤D05)将输入数代入神经网络模型,获得神经网络模型的输出,与函数结果对比获得损失值;步骤D06)计算损失值占函数结果的百分比,获得平均损失百分比;步骤D07)若平均损失百分比低于预设阈值,则判定神经网络模型的准确度验证通过。
理论上,在已知目标函数的情况下,通过自主生成输入数,能够获得不限数量的带标签的样本。在不限定神经网络的层数、神经元数量以及神经网络的训练时间的情况下,神经网络是能够拟合出任意复杂的函数的。
进一步的,为了适当降低神经网络模型的训练时长,主持方根据目标函数,选择划分量,划分量为目标函数中涉及指数函数的输入数,主持方根据划分量的取值范围,为划分量设置若干个区间,为每个区间建立一个神经网络模型,并将神经网络模型关联对应的区间,进行安全多方计算时,由划分量对应的参与方选择对应的神经网络模型并通知其他参与方。
本实施例的有益技术效果是:利用神经网络模型拟合任意目标函数,获得在一定允许误差范围内的安全多方计算方案,扩大了安全多方计算的应用范围,同时也提高了安全多方计算的效率。由于神经网络模型对目标函数的拟合存在一定的误差,因而消除了准确计算带来的数据泄露问题。采用协同计算使仅有一个输入数的参与方能够在保证隐私的前提下,参与到安全多方计算中。
实施例二:
一种基于神经网络模型的安全多方计算方法,同样的,本实施例为了在实施例一的基础上,进一步降低神经网络拟合的难度,节省神经网络训练的时间。主持方构建神经网络模型时,执行以下步骤,请参阅附图7,包括:步骤E01)设定阈值N,N为正整数;步骤E02)主持方分别计算目标函数对每个输入数的1阶偏导至N阶偏导;步骤E03)对于输入数,若目标函数的m阶偏导非常数,则主持方添加输入数的m次方作为神经网络模型的输入神经元。如目标函数为y=x1^2+3*x2,则目标函数对于x1的一阶偏导、二阶偏导非0,三阶偏导为0,对x2的一阶偏导非0,二阶偏导为0,则为x1建立1次方输入神经元和2次方输入神经元,对x2建立1次方输入神经元。将幂运算转换为加法运算,降低神经网络的复杂度。节省神经网络的训练时长。值得注意的是,即使不建立x1的2次方输入神经元,神经网络模型也能够通过大量样本数据的训练,获得拟合x1的平方的结果。其大致原理为,与x1输入神经元连接的多个隐藏层神经元分别具有不同的权重。当x1的取值与权重相当时,x1与权重的乘积即接近x1的2次方。当这样的隐藏层神经元足够多时,其计算精度将满足要求。同样的,对于x1的3次方,当权重与x1的平方相当时,权重与x1的乘积即接近x1的3次方。
同样的,对于指数函数、三角函数、对数函数等较为复杂的函数。当隐藏层神经元数量足够多时,使得输入数在其取值范围内,总存在某个隐藏层神经元连接的权重与输入数的乘积与对应函数值接近。其他不接近的神经元可以通过激活函数的抑制而不再传播。虽然会导致神经网络模型庞大复杂,但能够实施。
同时也意味着,实施例一记载的方案适合输入数的数量多,而目标函数涉及的计算较为简单的情况。而采用本实施例记载的技术方案时,由于增加了输入数的高次项,则能够计算更为复杂的目标函数。包括含高次项的加权和计算。实际上,对应能够进行泰勒展开的函数,实施例二都能够具有较高效率的进行拟合。如e^x、lnx的泰勒展开式中,包括x的1次方至N次方,当N足够大时,能够使误差低于阈值。从而本实施例大幅的扩大了神经网络模型能够高效率拟合的目标函数的范围。扩大了本方案高效率实施的范围。
以上所述的实施例只是本发明的一种较佳的方案,并非对本发明作任何形式上的限制,在不超出权利要求所记载的技术方案的前提下还有其它的变体及改型。
Claims (7)
1.一种基于神经网络模型的安全多方计算方法,其特征在于,
包括:
选定主持方,主持方构建神经网络模型;
主持方根据输入数的取值范围,生成若干组输入数;
将每组输入数代入目标函数,获得函数结果,函数结果作为标签,形成样本数据;
主持方使用样本数据训练和测试神经网络模型,直到神经网络模型的准确度达到预设阈值;
主持方公布神经网络模型,参与方验证神经网络模型的准确度,若验证通过则将验证结果签名,全部参与方验证通过后进入下一步骤;
神经网络模型的第1层神经元的输入数将是输入层神经元取值的加权和与偏移值的和,参与方将各自的隐私数代入加权和计算式,得到中间值,将中间值发送给主持方;
主持方收到全部中间值后,将中间值求和,再与偏移值相加,获得第1层神经元的输入数;
获得第1层全部神经元的输入数后,计算获得神经网络模型的输出,所述输出即为安全多方计算的结果。
2.根据权利要求1所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
主持方训练神经网络模型达到预设阈值后,检查第1层每个神经元涉及的连接的权重值,若存在第1层的神经元仅涉及一条权重非零的连接,则丢弃该神经网络模型,重新构建神经网络模型并重新训练。
3.根据权利要求2所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
参与方计算第1层神经元的中间值时,若中间值仅涉及参与方的一个输入数,则参与方执行以下步骤:
从其他参与方中任选至少1个参与方,作为协同方,协同计算中间值;
参与方将输入数拆分为若干个加数,加数数量为协同方数量加1;
参与方保留一个加数,其余加数分别发送给协同方;
参与方使用保留的加数计算中间值,将中间值发送给主持方;
协同方计算对应中间值时,将自身输入数和获得的加数代入中间值的计算式,获得中间值,将中间值发送给主持方。
4.根据权利要求1至3任一项所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
主持方生成若干组输入数的方法,包括以下步骤:
主持方向参与方索要每个输入数的取值范围;
参与方将输入数的取值范围和分布概率反馈给主持方;
支持方按照分布概率在输入数的取值范围内随机生成输入数。
5.根据权利要求3所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
参与方将输入数的取值范围划分为若干个区间,计算每个区间的分布概率;
将若干个区间的分布概率发送给支持方,支持方公开每个输入数的取值范围和分布概率;
参与方验证准确度时,按照输入数的分布概率生成若干组输入数;
将输入数代入目标函数获得函数结果;
将输入数代入神经网络模型,获得神经网络模型的输出,与函数结果对比获得损失值;
计算损失值占函数结果的百分比,获得平均损失百分比,若平均损失百分比低于预设阈值,则判定神经网络模型的准确度验证通过。
6.根据权利要求1至3任一项所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
主持方根据目标函数,选择划分量,所述划分量为目标函数中涉及指数函数的输入数,主持方根据划分量的取值范围,为划分量设置若干个区间,为每个区间建立一个神经网络模型,并将神经网络模型关联对应的区间,进行安全多方计算时,由划分量对应的参与方选择对应的神经网络模型并通知其他参与方。
7.根据权利要求1至3任一项所述的一种基于神经网络模型的安全多方计算方法,其特征在于,
主持方构建神经网络模型时,执行以下步骤:
设定阈值N,N为正整数;
主持方分别计算目标函数对每个输入数的1阶偏导至N阶偏导;
对于输入数,若目标函数的m阶偏导非常数,则主持方添加所述输入数的m次方作为神经网络模型的输入神经元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111052934.6A CN113792338A (zh) | 2021-09-09 | 2021-09-09 | 一种基于神经网络模型的安全多方计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111052934.6A CN113792338A (zh) | 2021-09-09 | 2021-09-09 | 一种基于神经网络模型的安全多方计算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113792338A true CN113792338A (zh) | 2021-12-14 |
Family
ID=79182903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111052934.6A Pending CN113792338A (zh) | 2021-09-09 | 2021-09-09 | 一种基于神经网络模型的安全多方计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113792338A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115310055A (zh) * | 2022-06-22 | 2022-11-08 | 北京信息科技大学 | 一种基于双看门狗的软件完整性保护方法 |
CN117114059A (zh) * | 2023-05-16 | 2023-11-24 | 华为云计算技术有限公司 | 神经网络中激活函数的计算方法、装置以及计算设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110537191A (zh) * | 2017-03-22 | 2019-12-03 | 维萨国际服务协会 | 隐私保护机器学习 |
CN110751291A (zh) * | 2019-10-29 | 2020-02-04 | 支付宝(杭州)信息技术有限公司 | 实现安全防御的多方联合训练神经网络的方法及装置 |
CN110942147A (zh) * | 2019-11-28 | 2020-03-31 | 支付宝(杭州)信息技术有限公司 | 基于多方安全计算的神经网络模型训练及预测方法、装置 |
US20200228325A1 (en) * | 2017-12-14 | 2020-07-16 | Robert Bosch Gmbh | Method for Faster Secure Multiparty Inner Product with SPDZ |
CN111680322A (zh) * | 2020-05-26 | 2020-09-18 | 矩阵元技术(深圳)有限公司 | 基于安全多方计算的数据处理方法、装置及电子设备 |
CN112149171A (zh) * | 2020-10-27 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 联邦神经网络模型的训练方法、装置、设备及存储介质 |
CN112183730A (zh) * | 2020-10-14 | 2021-01-05 | 浙江大学 | 一种基于共享学习的神经网络模型的训练方法 |
CN112749790A (zh) * | 2021-01-21 | 2021-05-04 | 大连理工大学 | 一种联邦学习场景下的全连接神经网络模型聚合方法 |
CN113128697A (zh) * | 2020-01-16 | 2021-07-16 | 复旦大学 | 一种基于安全多方计算协议的可扩展机器学习系统 |
-
2021
- 2021-09-09 CN CN202111052934.6A patent/CN113792338A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110537191A (zh) * | 2017-03-22 | 2019-12-03 | 维萨国际服务协会 | 隐私保护机器学习 |
US20200242466A1 (en) * | 2017-03-22 | 2020-07-30 | Visa International Service Association | Privacy-preserving machine learning |
US20200228325A1 (en) * | 2017-12-14 | 2020-07-16 | Robert Bosch Gmbh | Method for Faster Secure Multiparty Inner Product with SPDZ |
CN110751291A (zh) * | 2019-10-29 | 2020-02-04 | 支付宝(杭州)信息技术有限公司 | 实现安全防御的多方联合训练神经网络的方法及装置 |
CN110942147A (zh) * | 2019-11-28 | 2020-03-31 | 支付宝(杭州)信息技术有限公司 | 基于多方安全计算的神经网络模型训练及预测方法、装置 |
CN113128697A (zh) * | 2020-01-16 | 2021-07-16 | 复旦大学 | 一种基于安全多方计算协议的可扩展机器学习系统 |
CN111680322A (zh) * | 2020-05-26 | 2020-09-18 | 矩阵元技术(深圳)有限公司 | 基于安全多方计算的数据处理方法、装置及电子设备 |
CN112183730A (zh) * | 2020-10-14 | 2021-01-05 | 浙江大学 | 一种基于共享学习的神经网络模型的训练方法 |
CN112149171A (zh) * | 2020-10-27 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 联邦神经网络模型的训练方法、装置、设备及存储介质 |
CN112749790A (zh) * | 2021-01-21 | 2021-05-04 | 大连理工大学 | 一种联邦学习场景下的全连接神经网络模型聚合方法 |
Non-Patent Citations (3)
Title |
---|
R. KANAGAVELU, ET AL.: "Two-Phase Multi-Party Computation Enabled Privacy-Preserving Federated Learning", 2020 20TH IEEE/ACM INTERNATIONAL SYMPOSIUM ON CLUSTER, CLOUD AND INTERNET COMPUTING (CCGRID), 11 May 2020 (2020-05-11), pages 410 - 419, XP033791506, DOI: 10.1109/CCGrid49817.2020.00-52 * |
冉鹏, 等: "可验证的安全内积计算协议的设计与实现", 通信技术, vol. 49, no. 10, 31 October 2016 (2016-10-31), pages 1369 - 1374 * |
杨诗吟: "具有隐私保护的轻量级卷积神经网络预测方案研究", 具有隐私保护的轻量级卷积神经网络预测方案研究, 15 March 2021 (2021-03-15), pages 6 - 20 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115310055A (zh) * | 2022-06-22 | 2022-11-08 | 北京信息科技大学 | 一种基于双看门狗的软件完整性保护方法 |
CN115310055B (zh) * | 2022-06-22 | 2023-08-11 | 北京信息科技大学 | 一种基于双看门狗的软件完整性保护方法 |
CN117114059A (zh) * | 2023-05-16 | 2023-11-24 | 华为云计算技术有限公司 | 神经网络中激活函数的计算方法、装置以及计算设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Privacy-preserving federated learning framework based on chained secure multiparty computing | |
CA2331442C (en) | Robust efficient distributed rsa-key generation | |
CN105095966A (zh) | 人工神经网络和脉冲神经网络的混合计算系统 | |
CN105095961A (zh) | 一种人工神经网络和脉冲神经网络的混合系统 | |
CN110399735A (zh) | 加密数据大小关系证明方法、装置、设备及存储介质 | |
Wang et al. | Enhancing privacy preservation and trustworthiness for decentralized federated learning | |
CN111342962A (zh) | 一种验证密文消息范围的方法和系统 | |
Forghani-elahabad et al. | An improved algorithm for reliability evaluation of flow networks | |
CN113761469B (zh) | 一种保护数据隐私的最高位进位计算方法 | |
CN113408001B (zh) | 多方安全确定最值的方法、装置、设备及存储介质 | |
CN113792338A (zh) | 一种基于神经网络模型的安全多方计算方法 | |
CN113343291A (zh) | 一种基于多方计算的秘密分享方法、装置及系统 | |
Huang et al. | On the completeness of an identifiability algorithm for semi-Markovian models | |
CN113780552A (zh) | 一种双向隐私保护的安全多方计算方法 | |
Zhou et al. | VDFChain: Secure and verifiable decentralized federated learning via committee-based blockchain | |
Ciobanu et al. | Bayesian networks utilization for reliability evaluation of power systems | |
Alhadad et al. | Trust evaluation of a system for an activity with subjective logic | |
CN113780530B (zh) | 一种三角式隐私计算方法 | |
Yang et al. | Zero knowledge proof for secure two-party computation with malicious adversaries in distributed networks | |
CN114358323A (zh) | 联邦学习环境中基于第三方高效皮尔森系数计算方法 | |
KR20150112315A (ko) | 묶음 검증 방법 및 장치 | |
Liu et al. | Lightweight trusted security for emergency communication networks of small groups | |
CN102546602A (zh) | 基于隐私保护信任评估进行网络交易的方法 | |
CN113901500A (zh) | 图拓扑嵌入方法、装置、系统、设备及介质 | |
Yang et al. | A general trust model based on trust algebra |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |