CN113128697A - 一种基于安全多方计算协议的可扩展机器学习系统 - Google Patents

一种基于安全多方计算协议的可扩展机器学习系统 Download PDF

Info

Publication number
CN113128697A
CN113128697A CN202010050857.XA CN202010050857A CN113128697A CN 113128697 A CN113128697 A CN 113128697A CN 202010050857 A CN202010050857 A CN 202010050857A CN 113128697 A CN113128697 A CN 113128697A
Authority
CN
China
Prior art keywords
machine learning
learning model
matrix
nodes
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010050857.XA
Other languages
English (en)
Other versions
CN113128697B (zh
Inventor
韩伟力
汤定一
吴豪奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202010050857.XA priority Critical patent/CN113128697B/zh
Publication of CN113128697A publication Critical patent/CN113128697A/zh
Application granted granted Critical
Publication of CN113128697B publication Critical patent/CN113128697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Telephonic Communication Services (AREA)
  • Small-Scale Networks (AREA)

Abstract

本发明提供一种基于安全多方计算协议的可扩展机器学习系统,用于使用户在具有三个及以上参与方时构建有效的机器学习模型训练,其特征在于,包括:用于在=三个及以上参与方中提供通信服务的通信模块;用于让用户定义机器学习模型的结构的机器学习模型表示模块;与通信模块连接并调用通信,同时与机器学习模型表示模块连接,用于训练在机器学习模型表示模块中预定义的机器学习模型的机器学习驱动模块。本发明的基于安全多方计算协议的可扩展机器学习系统将安全多方计算协议与机器学习系统结合,采用秘密共享的方法,对机器学习模型提供隐私保护的支持,使得各数据拥有方可以在其共同的数据上训练模型,而不会泄露结果之外的信息。

Description

一种基于安全多方计算协议的可扩展机器学习系统
技术领域
本发明属于网络空间安全领域,涉及一种机器学习方法,具体涉及一种基于安全多方计算协议的可扩展机器学习系统。
背景技术
机器学习(ML)在各种商业实践中被广泛应用,其中最著名的包括图像分类,模式识别和语音识别。迄今为止,训练数据已成为预测模型和分类任务中影响模型准确率的关键。现在的互联网企业利用大量可能包含个人信息的数据来获取更好的模型,以提供更好的服务,例如推荐产品和评估个人信用。但是,小型但有创新能力的公司通常处于数据共享的孤立状态。也就是说,数据分布在包括个人在内的多个参与方中。因此,隐私保护框架是研究领域的热点,该框架可以使用分布在多个源中的数据来训练具有良好性能的ML模型。
基于安全多方计算(MPC)的隐私保护机器学习提供了一种有效的解决方案,它允许各方在其共同的数据上训练模型,而不会泄露除结果之外的信息。
早期研究工作提出了基于安全多方计算的预测或训练模型,该模型公开训练数据的输入或共享模型的参数。例如,ABY框架,通过在算术、二进制和混淆电路之间切换实现两方计算;两方安全机器学习系统,通过推导梯度公式实现了随机梯度下降版线性回归和逻辑回归等方法;三方计算框架ABY3,通过在三种协议间高效切换实现了机器学习的性能提高。另外有工作介绍了面向安全多方计算的编译器,用于将目标函数转换为加密函数或电路,如布尔电路和算术电路。但是,很少提供包含用户友好的应用程式界面和统一的计算组件的通用框架,以将安全多方计算应用于机器学习训练。此外,现有的框架,例如两方安全机器学习系统或ABY3,仅分别支持两个或三个参与方而不能扩展到三台以上的服务器。
发明内容
为解决上述问题,本发明采用了如下技术方案:
本发明提供了一种基于安全多方计算协议的可扩展机器学习系统,用于使用户在具有三个及以上参与方时构建并训练机器学习模型,其特征在于,包括:通信模块,用于在三个及以上参与方中提供通信服务;机器学习模型表示模块,用于让用户定义机器学习模型的结构;以及机器学习驱动模块,与通信模块连接并调用通信,同时与机器学习模型表示模块连接,可以接收或发送矩阵,用于训练在机器学习模型表示模块中预定义的机器学习模型,其中,在通信模块中,各个参与方将本地计算结果乘以降次(Degree Reduction)矩阵后发送给相应参与方,相应参与方累加接收到的值作为秘密。各个参与方随机生成一个常数项为0且系数随机的多项式发送给其他参与方,然后各个参与方累加接收到的值使得秘密共享多项式系数随机。机器学习模型表示模块采用数据流图表示,数据流图由节点和边组成,节点表示输入矩阵或基于矩阵的运算,包括输入节点,权重节点和算子节点。采用输入节点表示输入矩阵,输入矩阵为用于训练机器学习模型的训练数据,采用权重节点表示机器学习模型中的权重矩阵,权重矩阵为机器学习模型训练的参数,在训练之前进行初始化,并在每轮训练之后进行更新,采用算子节点表示包括矩阵加法和矩阵乘法在内的运算符,对运算符定义Forward方法和Grad方法分别表示运算符在正向传播和反向传播期间需要执行的操作。边代表训练过程的数据流,具有单向性,从而构成一个有向无环图。机器学习驱动模块利用预定义的有向无环图,根据拓扑序执行前向传播,根据逆拓扑序执行反向传播。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,在通信模块中,定义加法以及乘法运算,若2个共享的秘密相加[a]+[b]或常数乘以秘密c·[a],则不需要进行通信,参与方仅在本地对共享的秘密进行运算,若2个共享的秘密相乘[a]·[b],则需要通过在参与方之间使用套接字进行通信得到计算结果。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,在需要生成秘密共享随机数时,各个参与方随机生成一个常数项随机的多项式发送给各参与方,各参与方累加接收到的值使得每方持有一个随机共享的秘密且任何一方均不知道秘密。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,机器学习驱动模块包括如下计算过程:拓扑排序,根据有向无环图中边计算拓扑顺序,前向传播,根据拓扑顺序调用算子节点的Forward方法,反向传播,根据逆拓扑序调用算子节点的Grad方法,更新权重网络,根据权重节点的梯度和学习率更新权重矩阵。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,在机器学习驱动模块中,发送矩阵操作完成后,程序可以继续运行,而不会阻塞直到接收矩阵操作完成。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,在机器学习驱动模块中,可以并行发送多个矩阵。
本发明提供的基于安全多方计算协议的可扩展机器学习系统,还可以具有这样的特征,其中,用户通过使用定义有向无环图的方式对机器学习模型表示模块进行配置,包括机器学习模型的结构以及参数的初始化。
发明作用与效果
根据本发明的提供的基于安全多方计算协议的可扩展机器学习系统,将安全多方计算协议与机器学习系统结合,采用秘密共享的方法,对机器学习模型提供隐私保护的支持,使得各数据拥有方可以在其共同的数据上训练模型,而不会泄露结果之外的信息。因此本系统可以向云服务提供商提供不泄露数据明文和模型中间过程参数的机器学习模型训练服务。根据用户的定义本系统可以被配置为相应的训练代码,并自动结合底层的安全多方计算协议,在有向无环图上根据拓扑排序进行前向传播和后向链式法则求导,免除了用户手动调整代码的困难。另外,系统中的通信模块可以用于在三个及以上参与方中提供通信服务,提高了系统的适应性。
附图说明
图1是本发明实施例的基于安全多方计算协议的可扩展机器学习系统的总体架构图;
图2是本发明实施例的降次(Degree Reduction)交互机制图;
图3是本发明实施例的数据流图定义;
图4是本发明实施例的反向传播神经网络模型的有向无环图。
具体实施方式
以下结合附图和实施例来说明本发明的具体实施方式。
<实施例>
图1是本发明实施例的基于安全多方计算协议的可扩展机器学习系统的总体架构图。
如图1所示,本实施例的基于安全多方计算协议的可扩展机器学习系统包括三个模块:通信模块、机器学习模型表示模块以及机器学习驱动模块。
本实施例中,每个参与方都拥有一个插口,绑定到配置好的IP地址和端口,每个参与方都与其他各参与方通过套接字(Socket)建立连接。
通信模块用于在三个及以上参与方中提供通信服务。
本实施例中,在通信模块中定义c·a,a+b这两个线性操作不需要在各个参与方中进行通信,a·b需要在各个参与方之间进行通信。其中,a、b为分别使用多项式f(x)、g(x)共享的2个秘密,c为常数,a,b,c∈E且c≠0。
采用h(x)=f(x)g(x)的常数项表示a·b,
图2是本发明实施例的降次(Degree Reduction)交互机制图。
如图2所示,令S=(s0,…,sn-1),其中每一个参与方持有的共享秘密si=h(αi)=f(αi)g(αi),S对应的多项式次数为2t。令R=(r0,…,rn-1),其次数为t,存在大小为n×n的矩阵A使得R=S·A。各个参与者只持有si从而可以独立计算出
Figure BDA0002369672040000061
并将其发送给对应的参与方。然后根据
Figure BDA0002369672040000062
计算得到R。
令h(x)=h0+h1x+…+h2tx2t,各个参与方选择次数为2t且常数项为0的多项式qi(x),然后在多个参与方中共享其共享的秘密从而使得h(x)的系数随机。
在还原中使用
Figure BDA0002369672040000063
代替h(x):
Figure BDA0002369672040000064
使得
Figure BDA0002369672040000065
但xi的其他系数1≤i≤t完全是随机的。
机器学习模型表示模块,与通信模块连接,用于让用户定义机器学习模型的结构。
本实施例中,机器学习模型表示模块采用由节点和边组成的数据流图表示。其中,采用节点表示输入矩阵或基于矩阵的运算,采用边表示训练过程的数据流。
节点包括输入节点、权重节点以及算子节点。采用输入节点表示输入矩阵,输入矩阵为用于训练的训练数据。采用权重节点表示机器学习模型中的权重矩阵,权重矩阵为机器学习模型训练的参数,在训练之前进行初始化,并在每轮训练之后进行更新。采用算子节点表示包括矩阵加法和矩阵乘法在内的运算符,对每个运算符定义Forward方法和Grad方法,分别表示运算符在正向传播和反向传播期间需要执行的操作。算子节点中执行的操作可以分为包含发送和接收矩阵的多个步骤。
数据流图中边具有单向性,从而使得数据流图构成一个有向无环图,在进行正向传播时可以根据拓扑顺序进行操作。
图3是本发明实施例的数据流图定义。
如图3所示,定义常数D表示输入数据的维数,定义常数B表示mini-batch大小。第3~10行定义节点的大小和类型,其中,变量input和output为输入节点,变量wst和bst为权重节点,变量mulst、addst、se以及eq属于算子节点。
在图3底部,以线性回归的数据流图为例,定义线性回归的表达式y=w×x+b,其中,x为输入数据,w为权重矩阵,y为模型的预测值。将模型的损失函数定义为均方误差,同时定义比较函数,用于对测试集中的正确估计样本进行计数。
图4是本发明实施例的反向传播神经网络模型的有向无环图。
如图4所示,本实施例中,有向无环图以反向传播神经网络为例进行说明。反向传播神经网络模型包含三层:输入层,隐藏层和输出层。输入层对应Reshape节点,是从训练数据Input中选取的大小128的mini-batch。隐藏层对应图中Relu Layer部分,为输入层经过线性变换(即输入层乘以w再加上b)后过激活函数Relu得到的结果Relu节点。输出层对应图中Linear Layer部分,为隐藏层经过线性变换(即隐藏层乘以w再加上b)后得到的结果BiasAdd节点。损失函数Mean Square Error节点计算输出层与标签Class Labels节点之间的差异。
机器学习驱动模块,与机器学习模型表示模块连接,用于训练在机器学习模型表示模块中预定义的机器学习模型。
本实施例中,机器学习驱动模块包括如下计算过程:
拓扑排序,根据有向无环图中节点之间的边计算拓扑顺序进行排序,
前向传播,根据拓扑顺序调用算子节点的forward方法,
反向传播,根据逆拓扑序调用算子节点的grad方法,
更新权重网络,根据权重节点的梯度和学习率更新权重矩阵。
机器学习驱动模块具有非阻塞性和并行性。非阻塞性表示在发送矩阵操作完成后,机器学习驱动模块中的程序可以继续运行。并行性表示机器学习驱动模块可以并行发送多个矩阵从而减少各模块间的交互次数。
本实施例中,机器学习模型训练的过程为:
步骤S1,模型设计者在机器学习模型表示模块中配置数据流图。
步骤S2,将通信模块初始化,各参与方与其他每个参与方建立点对点连接。
步骤S3,当用户数量较少(<100)时,每个用户作为一个参与方,各参与方通过通信模块将自己的数据秘密共享给其他参与方。当用户数量较多(>100)时,所有用户选举参与方,各用户通过通信模块将自己的数据秘密共享给参与方。
步骤S4,机器学习驱动模块从机器学习模型表示模块中获取模型表示,并反向求导,同时调用通信模块中秘密共享的数据训练获取的模型。
步骤S5,训练完成后,将模型结果在所有用户中公开。
实施例作用与效果
本实施例提供的基于安全多方计算协议的可扩展机器学习系统,将安全多方计算协议与机器学习系统结合,采用秘密共享的方法,对及其学习模型提供隐私保护的支持,使得各数据拥有方可以在其共同的数据上训练模型,而不会泄露结果之外的信息。因此本系统可以向云服务提供商提供不泄露数据明文和模型中间过程参数的机器学习模型训练服务。
本实施例提供的基于安全多方计算协议的可扩展机器学习系统可以根据用户的定义生成相应的训练代码,并自动结合底层的安全多方计算协议,在有向无环图上根据拓扑排序进行前向传播和后向链式法则求导,免除了用户手动调整代码的困难。
另外,本实施例中通信模块可以用于在三个及以上参与方中提供通信服务,使得在有多个参与方时本系统也能实现机器学习模型训练,提高了系统的适应性。
本实施例中由于机器学习驱动模块具有非阻塞性和并行性,使得算子节点在执行传输时可以并行发送,而不必等到收到矩阵后再进行下一个传输操作,缩短了机器学习模型训练的时间。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (7)

1.一种基于安全多方计算协议的可扩展机器学习系统,用于使用户在具有三个及以上参与方时构建并训练机器学习模型,其特征在于,包括:
通信模块,用于在所述三个及以上参与方中提供通信服务;
机器学习模型表示模块,用于让用户定义机器学习模型的结构;以及
机器学习驱动模块,与所述通信模块连接并调用通信,同时与所述机器学习模型表示模块连接,可以接收或发送矩阵,用于训练在所述机器学习模型表示模块中预定义的机器学习模型,
其中,在所述通信模块中,各个参与方将本地计算结果乘以降次矩阵后发送给相应参与方,所述相应参与方累加接收到的值作为秘密,
各个参与方随机生成一个常数项为0且系数随机的多项式发送给其他参与方,然后各个参与方累加接收到的值使得秘密共享多项式系数随机,
所述机器学习模型表示模块采用数据流图表示,所述数据流图由节点和边组成,
所述节点表示输入矩阵或基于矩阵的运算,包括输入节点,权重节点和算子节点,
采用所述输入节点表示输入矩阵,所述输入矩阵为用于训练机器学习模型的训练数据,
采用所述权重节点表示机器学习模型中的权重矩阵,所述权重矩阵为机器学习模型训练的参数,在训练之前进行初始化,并在每轮训练之后进行更新,
采用所述算子节点表示包括矩阵加法和矩阵乘法在内的运算符,对所述运算符定义Forward方法和Grad方法分别表示所述运算符在正向传播和反向传播期间需要执行的操作,
所述边代表训练过程的数据流,具有单向性,从而构成一个有向无环图,
所述机器学习驱动模块利用预定义的所述有向无环图,根据拓扑序执行前向传播,根据逆拓扑序执行反向传播。
2.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,在所述通信模块中,定义加法以及乘法运算,
若2个共享的秘密相加[a]+[b]或常数乘以秘密c·[a],则不需要进行通信,所述参与方仅在本地对共享的秘密进行运算,
若2个共享的秘密相乘[a]·[b],则需要通过在所述参与方之间使用套接字进行通信得到计算结果。
3.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,在需要生成秘密共享随机数时,各个参与方随机生成一个常数项随机的多项式发送给其他参与方,各个参与方累加接收到的值使得每个参与方持有一个随机共享的秘密且任何其他参与方均不知道秘密。
4.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,所述机器学习驱动模块包括如下计算过程:
拓扑排序,根据所述有向无环图中所述边计算拓扑顺序,
前向传播,根据所述拓扑顺序调用所述算子节点的所述Forward方法,
反向传播,根据逆拓扑序调用所述算子节点的所述Grad方法,
更新权重网络,根据所述权重节点的梯度和学习率更新所述权重矩阵。
5.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,在所述机器学习驱动模块中,所述发送矩阵操作完成后,程序可以继续运行,而不会阻塞直到接收矩阵操作完成。
6.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,在所述机器学习驱动模块中,可以并行发送多个矩阵。
7.根据权利要求1所述的基于安全多方计算协议的可扩展机器学习系统,其特征在于:
其中,所述用户通过使用定义有向无环图的方式对所述机器学习模型表示模块进行配置,包括机器学习模型的结构以及参数的初始化。
CN202010050857.XA 2020-01-16 2020-01-16 一种基于安全多方计算协议的可扩展机器学习系统 Active CN113128697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010050857.XA CN113128697B (zh) 2020-01-16 2020-01-16 一种基于安全多方计算协议的可扩展机器学习系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010050857.XA CN113128697B (zh) 2020-01-16 2020-01-16 一种基于安全多方计算协议的可扩展机器学习系统

Publications (2)

Publication Number Publication Date
CN113128697A true CN113128697A (zh) 2021-07-16
CN113128697B CN113128697B (zh) 2022-09-06

Family

ID=76772179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010050857.XA Active CN113128697B (zh) 2020-01-16 2020-01-16 一种基于安全多方计算协议的可扩展机器学习系统

Country Status (1)

Country Link
CN (1) CN113128697B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792338A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种基于神经网络模型的安全多方计算方法
WO2023207735A1 (zh) * 2022-04-25 2023-11-02 上海紫先科技有限公司 一种用硬件芯片实现安全多方计算的方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170372226A1 (en) * 2016-06-22 2017-12-28 Microsoft Technology Licensing, Llc Privacy-preserving machine learning
CN108712260A (zh) * 2018-05-09 2018-10-26 曲阜师范大学 云环境下保护隐私的多方深度学习计算代理方法
US20190073608A1 (en) * 2017-09-07 2019-03-07 Koninklijke Philips N.V. Multi-party computation system for learning a classifier
CN110537191A (zh) * 2017-03-22 2019-12-03 维萨国际服务协会 隐私保护机器学习

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170372226A1 (en) * 2016-06-22 2017-12-28 Microsoft Technology Licensing, Llc Privacy-preserving machine learning
CN110537191A (zh) * 2017-03-22 2019-12-03 维萨国际服务协会 隐私保护机器学习
US20190073608A1 (en) * 2017-09-07 2019-03-07 Koninklijke Philips N.V. Multi-party computation system for learning a classifier
CN108712260A (zh) * 2018-05-09 2018-10-26 曲阜师范大学 云环境下保护隐私的多方深度学习计算代理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VALERIE CHEN ET AL.: "Secure Computation for Machine Learning With SPDZ", 《ARXIV:1901.00329V1 [CS.CR]》 *
马顺利 等: "一种基于密秘共享的安全多方计算协议", 《理论探讨》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792338A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种基于神经网络模型的安全多方计算方法
WO2023207735A1 (zh) * 2022-04-25 2023-11-02 上海紫先科技有限公司 一种用硬件芯片实现安全多方计算的方法及系统

Also Published As

Publication number Publication date
CN113128697B (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
Koti et al. {SWIFT}: Super-fast and robust {Privacy-Preserving} machine learning
EP4136559B1 (en) System and method for privacy-preserving distributed training of machine learning models on distributed datasets
Chaudhari et al. Trident: Efficient 4pc framework for privacy preserving machine learning
Servi et al. M/M/1 queues with working vacations (m/m/1/wv)
CN113128697B (zh) 一种基于安全多方计算协议的可扩展机器学习系统
Nordholt et al. Minimising communication in honest-majority MPC by batchwise multiplication verification
CN114691167A (zh) 机器学习模型更新的方法和装置
Bogdanov et al. From input private to universally composable secure multi-party computation primitives
Gonzales et al. Bounds on instantaneous nonlocal quantum computation
Zhu et al. Superadditivity in trade-off capacities of quantum channels
Beck et al. Order-C secure multiparty computation for highly repetitive circuits
CN114429223B (zh) 异构模型建立方法及装置
Yang et al. Hash function based on quantum walks
Suresh Mpcleague: robust MPC platform for privacy-preserving machine learning
Song et al. Pmpl: A robust multi-party learning framework with a privileged party
Fu et al. Multihop nondestructive teleportation via different nonmaximally entangled channels
US6456620B1 (en) Method and apparatus for constructing a latin square matrix for network communication
CN115865323A (zh) 一种基于秘密分享和ot协议的皮尔逊相关系数计算方法
Liu et al. Quantum network coding utilizing quantum discord resource fully
Chitambar et al. Distributions attaining secret key at a rate of the conditional mutual information
CN115564447A (zh) 一种信用卡交易风险检测方法及装置
Kim et al. Deterministic network model revisited: An algebraic network coding approach
Shi et al. Distributed composite optimization over relay-assisted networks
CN117454941B (zh) 基于函数秘密共享的安全二值神经网络推理系统
de Andrade et al. Universal Quantum Walk Control Plane for Quantum Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant