CN111563262A - 一种基于可逆深度神经网络的加密方法及系统 - Google Patents
一种基于可逆深度神经网络的加密方法及系统 Download PDFInfo
- Publication number
- CN111563262A CN111563262A CN202010296911.9A CN202010296911A CN111563262A CN 111563262 A CN111563262 A CN 111563262A CN 202010296911 A CN202010296911 A CN 202010296911A CN 111563262 A CN111563262 A CN 111563262A
- Authority
- CN
- China
- Prior art keywords
- reversible
- neural network
- data
- encryption
- encryptor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002441 reversible effect Effects 0.000 title claims abstract description 107
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000003062 neural network model Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000013461 design Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种基于可逆深度神经网络的加密方法及系统。该方法包括:获取待加密数据;将待加密数据输入至加密器中进行正向计算,得到加密结果;其中加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。本发明实施例通过采用不同的可逆算子进行任意数目和顺序的组合得到可逆深度神经网络,并采用不同的随机方法进行参数初始化,使用任意训练样本和任意目标函数进行模型训练得到加密器,设计简单,且能实现无损解密,并控制加密数据展现形式,使得计算效率显著提高。
Description
技术领域
本发明涉及加密技术领域,尤其涉及一种基于可逆深度神经网络的加密方法及系统。
背景技术
深度学习技术,特别是深度神经网络技术的发展,大大促进了人工智能行业的发展,包括计算机视觉、语音识别、自然语言处理等领域。深度神经网络在多种应用场景上的成功,可以归结为其对极其复杂的函数变换的自动拟合能力,且该函数的显性数学表达形式不可解,即深度神经网络的计算是黑箱式的,不可通过定性的数学方式进行破解。
现有加密技术中,大量采用黑箱技术,即仅有输入输出是可见的,中间的处理过程是不可见,但随着加密解析破译技术的日趋完善,往往可以通过加密过程中呈现的一定规律,将加密算法进行破解,从而使得加密过程面临巨大的风险。
发明内容
本发明实施例提供一种基于可逆深度神经网络的加密方法及系统,用以解决现有技术中加密算法过于简单而容易被破解,且无法保证能无损进行解密的缺陷。
第一方面,本发明实施例提供一种基于可逆深度神经网络的加密方法,包括:
获取待加密数据;
将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
优选地,该方法还包括:
将所述加密结果输入至所述加密器进行反向计算,得到无损解密结果。
优选地,所述加密器,通过以下步骤获得:
设定所述神经网络模型的加密宽度,其中所述神经网络模型的每层维度为预设固定值;
选取具备预设形式的可逆计算单元;
将若干个所述可逆计算单元进行任意数量和任意顺序的串联;
对串联的若干个所述可逆计算单元进行网络参数设置,得到所述加密器。
优选地,所述设定所述神经网络模型的输入维度,还包括:
若判断获知所述待加密数据的数据长度大于所述加密宽度,将所述数据长度分成若干组,每组长度等于所述加密宽度。
优选地,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,具体包括:
yn,1=wn,nxn,1,
其中,w为可逆矩阵,x为所述可逆计算单元的输入,y为所述可逆计算单元的输出,n为输入维度。
优选地,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,还包括:
xa,xb=split(x),
其中,split表示将输入x分成不重叠的两部分;进一步地,
(logs,t)=NN(xb),
NN表示其余不受可逆性限制的任意复杂网络,使得ya=s*xa+t,*表示s与xa各维度分别相乘,yb=xb,将所述可逆计算单元的输入其中一部分作为输出的一部分,y=concat(ya,yb),concat表示将两部分拼接在一起。
优选地,所述对串联的若干个所述可逆计算单元进行网络参数设置,具体包括:
随机初始化所述神经网络模型的网络参数;
获取所述任意样本数据作为训练集,以所述任意目标函数为训练目标,采用预设算法对所述网络参数进行训练。
第二方面,本发明实施例提供一种基于可逆深度神经网络的加密系统,包括:
获取模块,用于获取待加密数据;
处理模块,用于将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
第三方面,本发明实施例提供一种电子设备,包括:
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述基于可逆深度神经网络的加密方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现任一项所述基于可逆深度神经网络的加密方法的步骤。
本发明实施例提供的基于可逆深度神经网络的加密方法及系统,通过采用不同的可逆算子进行任意数目和顺序的组合得到可逆深度神经网络,并采用不同的随机方法进行参数初始化,使用任意训练样本和任意目标函数进行模型训练得到加密器,设计简单,并控制加密数据展现形式,使得计算效率显著提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于可逆深度神经网络的加密方法流程图;
图2为本发明实施例提供的可逆深度神经网络加密器的加密解密过程示意图;
图3为本发明实施例提供的一种基于可逆深度神经网络的加密系统结构图;
图4为本发明实施例提供的电子设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于现有加密技术的不足,本发明实施例提出一种基于可逆深度神经网络的加密方法,利用了深度神经网络的黑箱计算、隐性的复杂变换能力以及不可解析性,为加密技术提供了一种新的手段。由于深度神经网络所包含的计算不可显性表达出来,当其作为加密工具对数据进行加密或解密时,不可能通过仅已知加密前后的内容精确复现出其加密和解密的过程。同时,神经网络计算的复杂度可以任意设置,由于不需要考虑过多的逻辑符号推理计算,神经网络加密器的设计流程将在保留复杂加密能力的同时变得非常简单。此外,神经网络的计算由简单的算子组合而成,对计算资源的要求不高,可以保证计算效率。
图1为本发明实施例提供的一种基于可逆深度神经网络的加密方法流程图,如图1所示,包括:
S1,获取待加密数据;
S2,将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
具体地,将需要加密的原始数据输入到预先设计好的可逆深度神经网络加密器中,通过神经网络的正向计算进行数据加密,将待加密数据依次通过各个可逆计算单元得到最终输出,即加密后的结果。
此处,加密器采用的是可逆深度神经网络,该加密器采用不同的可逆算子进行任意数目任意顺序的组合,不同的随机方法对参数进行初始化,选择任意的训练数据对参数进行进一步改变,并选择不同的训练目标函数使得参数的改变各有不同,以及选择不同的训练策略,包括但不限于学习率、优化方法、参与训练的机器数目等。同时还通过控制目标函数来控制加密后数据的展现形式,使其形如随机分布,如高斯分布,无规律可寻。当第三方在上述各个设计环节中任一处的设置与原加密器不同时,第三方都无法复现得到现有加密器。
本发明实施例通过采用不同的可逆算子进行任意数目和顺序的组合得到可逆深度神经网络,并采用不同的随机方法进行参数初始化,使用任意训练样本和任意目标函数进行模型训练得到加密器,设计简单,并控制加密数据展现形式,使得计算效率显著提高。
基于上述实施例,该方法还包括:
将所述加密结果输入至所述加密器进行反向计算,得到无损解密结果。
具体地,如图2所示,通过前述实施例的方式获得一个可逆深度神经网络加密器,同时也是解密器,将该加密器私密分发给数据发送方和数据接收方,作为后期加解密使用,此行为只需发生一次。数据发送方将待发送数据通过加密器进行加密,并将加密后的结果发送给接收方。数据接收方将接收的数据逆向通过同一个加密器进行解密,无损恢复为发送方想要发送的原始数据。因此既是加密器,又是解密器,其本身可以看做极为复杂的密钥系统。
本发明实施例实现的数据解密异常简单,只需要逆向神经网络计算即可,计算效率高。
基于上述任一实施例,所述加密器,通过以下步骤获得:
设定所述神经网络模型的加密宽度,其中所述神经网络模型的每层维度为预设固定值;
选取具备预设形式的可逆计算单元;
将若干个所述可逆计算单元进行任意数量和任意顺序的串联;
对串联的若干个所述可逆计算单元进行网络参数设置,得到所述加密器。
具体地,可逆神经网络加密器的设计及使用流程如下:
首先是选取加密宽度,即神经网络模型的输入维度,维度越大,计算越复杂;接下来是选取可逆计算单元,神经网络计算过程当中,每层维度始终保持不变,这是可逆的前提条件,可逆计算单元可以为任意形式;然后对多种可逆计算单元进行任意数量和顺序的串联组合,例如采用ababab、baababbaa等的排列组合形式,由于可逆变换数量任意,且存在非线性可逆变换,如具备预设算法的可逆计算单元,仍存在其他可逆非线性算子,最终形成的网络计算能力可以异常复杂;最后设置网络参数,其中对网络参数进行初始化和训练,得到加密器。
基于上述任一实施例,所述设定所述神经网络模型的输入维度,还包括:
若判断获知所述待加密数据的数据长度大于所述加密宽度,将所述数据长度分成若干组,每组长度等于所述加密宽度。
具体地,在选取加密宽度时,当所要加密的数据长度大于加密宽度时,可通过分组的方式将加密数据分成多组,其中每组长度等于加密宽度,进行加密,通常选取加密宽度与所要加密的数据长度一致。
基于上述任一实施例,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,具体包括:
yn,1=wn,nxn,1,
其中,w为可逆矩阵,x为所述可逆计算单元的输入,y为所述可逆计算单元的输出,n为输入维度。
其中,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,还包括:
xa,xb=split(x),
其中,split表示将输入x分成不重叠的两部分;进一步地,
(logs,t)=NN(xb),
NN表示其余不受可逆性限制的任意复杂网络,使得ya=s*xa+t,*表示s与xa各维度分别相乘,yb=xb,将所述可逆计算单元的输入其中一部分作为输出的一部分,y=concat(ya,yb),concat表示将两部分拼接在一起。
具体地,在选取可逆计算单元时,可逆计算单元可以为任意形式,以下列举常见的两种可逆变换基本计算单元(算子),其他可逆变换同样适用于本发明实施例:
(1)yn,1=wn,nxn,1,其中,w为可逆矩阵,x为所述可逆计算单元的输入,y为所述可逆计算单元的输出,n为输入维度;
(2)xa,xb=split(x),其中,split表示将输入x分成不重叠的两部分;进一步地,(logs,t)=NN(xb),NN表示其余不受可逆性限制的任意复杂网络,使得ya=s*xa+t,*表示s与xa各维度分别相乘,yb=xb,将所述可逆计算单元的输入其中一部分作为输出的一部分,y=concat(ya,yb),concat表示将两部分拼接在一起。
此处,以上两种示例可逆操作,在提供x的情况下可以得到y,反之,提供y的情况下可以恢复x,由于(2)算子中的NN可以任意复杂,其又是非线性计算,(2)算子的计算复杂性可大大增强。
基于上述任一实施例,所述对串联的若干个所述可逆计算单元进行网络参数设置,具体包括:
随机初始化所述神经网络模型的网络参数;
获取所述任意样本数据作为训练集,以所述任意目标函数为训练目标,采用预设算法对所述网络参数进行训练。
具体地,对于可逆神经网络模型中的网络参数,首先是随机初始化网络参数,比如每一个算子采用不同的随机种子进行参数的随机化,这使得即使第三方得知了网络结构,但仍然无法得到网络参数;然后采用训练的方式设置网络参数,即通过随机梯度下降法对网络的初始参数(可以采用随机初始化)进一步进行训练,从而改变原有参数。
由于不需要网络表现出特定功能,只需要其参数能够得到较大改变,训练模式可以是任意的,比如采用任意的数据(图片、语音、噪音等)作为训练集。
训练中用到的目标函数也可以有多种选择,比如最大化似然等,甚至人为随机设置网络训练当中的梯度计算。只要保证网络参数得到改变,训练方式可以是任意的。当采用最大化似然的目标函数时,可以限制加密后的数据满足高斯分布等简单分布,使得加密后的数据呈现的形式是高斯噪音,不包含任何显性的有用信息。
本发明实施例通过对可逆深度神经网络的网络参数进行一系列的操作,包括初始化和训练,控制加密后数据的展现形式,可以保证加密后的数据符合高斯分布,不带有任何的有用信息,保证了数据的安全性。
图3为本发明实施例提供的一种基于可逆深度神经网络的加密系统结构图,如图3所示,包括:获取模块31和处理模块32;其中:
获取模块31用于获取待加密数据;处理模块32用于将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
本发明实施例提供的系统用于执行上述对应的方法,其具体的实施方式与方法的实施方式一致,涉及的算法流程与对应的方法算法流程相同,此处不再赘述。
本发明实施例通过采用不同的可逆算子进行任意数目和顺序的组合得到可逆深度神经网络,并采用不同的随机方法进行参数初始化,使用任意训练样本和任意目标函数进行模型训练得到加密器,设计简单,并控制加密数据展现形式,使得计算效率显著提高。
图4示例了一种电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。处理器410可以调用存储器430中的逻辑指令,以执行如下方法:获取待加密数据;将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
此外,上述的存储器430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的传输方法,例如包括:获取待加密数据;将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于可逆深度神经网络的加密方法,其特征在于,包括:
获取待加密数据;
将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
2.根据权利要求1所述的基于可逆深度神经网络的加密方法,其特征在于,该方法还包括:
将所述加密结果输入至所述加密器进行反向计算,得到无损解密结果。
3.根据权利要求1或2所述的基于可逆深度神经网络的加密方法,其特征在于,所述加密器,通过以下步骤获得:
设定所述神经网络模型的加密宽度,其中所述神经网络模型的每层维度为预设固定值;
选取具备预设形式的可逆计算单元;
将若干个所述可逆计算单元进行任意数量和任意顺序的串联;
对串联的若干个所述可逆计算单元进行网络参数设置,得到所述加密器。
4.根据权利要求3所述的基于可逆深度神经网络的加密方法,其特征在于,所述设定所述神经网络模型的输入维度,还包括:
若判断获知所述待加密数据的数据长度大于所述加密宽度,将所述数据长度分成若干组,每组长度等于所述加密宽度。
5.根据权利要求3所述的基于可逆深度神经网络的加密方法,其特征在于,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,具体包括:
yn,1=wn,nxn,1,
其中,w为可逆矩阵,x为所述可逆计算单元的输入,y为所述可逆计算单元的输出,n为输入维度。
6.根据权利要求3所述的基于可逆深度神经网络的加密方法,其特征在于,所述选取具备预设算法的可逆计算单元为任意神经网络可逆算子,还包括:
xa,xb=split(x),
其中,split表示将输入x分成不重叠的两部分;进一步地,
(logs,t)=NN(xb),
NN表示其余不受可逆性限制的任意复杂网络,使得ya=s*xa+t,*表示s与xa各维度分别相乘,yb=xb,将所述可逆计算单元的输入其中一部分作为输出的一部分,y=concat(ya,yb),concat表示将两部分拼接在一起。
7.根据权利要求3所述的基于可逆深度神经网络的加密方法,其特征在于,所述对串联的若干个所述可逆计算单元进行网络参数设置,具体包括:
随机初始化所述神经网络模型的网络参数;
获取所述任意样本数据作为训练集,以所述任意目标函数为训练目标,采用预设算法对所述网络参数进行训练。
8.一种基于可逆深度神经网络的加密系统,其特征在于,包括:
获取模块,用于获取待加密数据;
处理模块,用于将所述待加密数据输入至加密器中进行正向计算,得到加密结果;其中所述加密器是基于任意样本数据和任意目标函数,通过控制所述任意目标函数来控制加密后数据的展现形式,并对采用可逆计算单元构建得到的神经网络模型进行训练所得到的。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述基于可逆深度神经网络的加密方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述基于可逆深度神经网络的加密方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010296911.9A CN111563262B (zh) | 2020-04-15 | 2020-04-15 | 一种基于可逆深度神经网络的加密方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010296911.9A CN111563262B (zh) | 2020-04-15 | 2020-04-15 | 一种基于可逆深度神经网络的加密方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563262A true CN111563262A (zh) | 2020-08-21 |
CN111563262B CN111563262B (zh) | 2024-01-23 |
Family
ID=72074314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010296911.9A Active CN111563262B (zh) | 2020-04-15 | 2020-04-15 | 一种基于可逆深度神经网络的加密方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563262B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112395636A (zh) * | 2021-01-19 | 2021-02-23 | 国网江西省电力有限公司信息通信分公司 | 电网数据加密模型训练方法、系统、存储介质及设备 |
CN112507373A (zh) * | 2020-11-02 | 2021-03-16 | 北京迅达云成科技有限公司 | 一种工业互联网中工业现场数据远程访问方法 |
WO2022105743A1 (zh) * | 2020-11-19 | 2022-05-27 | 华为技术有限公司 | 一种算子计算方法、装置、设备及系统 |
CN115994541A (zh) * | 2023-03-22 | 2023-04-21 | 金蝶软件(中国)有限公司 | 界面语义数据生成方法、装置、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109714368A (zh) * | 2019-02-28 | 2019-05-03 | 成都卫士通信息产业股份有限公司 | 报文加解密方法、装置、电子设备及计算机可读存储介质 |
CN110378138A (zh) * | 2019-07-22 | 2019-10-25 | 上海鹰瞳医疗科技有限公司 | 数据加密、解密方法和神经网络训练方法及设备 |
CN110516464A (zh) * | 2019-09-02 | 2019-11-29 | 深圳市网心科技有限公司 | 基于神经网络计算的数据保护方法及相关设备 |
US20200036510A1 (en) * | 2018-07-25 | 2020-01-30 | Sap Se | Neural network encryption system |
CN110782393A (zh) * | 2019-10-10 | 2020-02-11 | 江南大学 | 一种基于可逆网络的图像分辨率压缩及重建方法 |
CN110874484A (zh) * | 2019-10-16 | 2020-03-10 | 众安信息技术服务有限公司 | 基于神经网络和联邦学习的数据处理方法和系统 |
-
2020
- 2020-04-15 CN CN202010296911.9A patent/CN111563262B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200036510A1 (en) * | 2018-07-25 | 2020-01-30 | Sap Se | Neural network encryption system |
CN109714368A (zh) * | 2019-02-28 | 2019-05-03 | 成都卫士通信息产业股份有限公司 | 报文加解密方法、装置、电子设备及计算机可读存储介质 |
CN110378138A (zh) * | 2019-07-22 | 2019-10-25 | 上海鹰瞳医疗科技有限公司 | 数据加密、解密方法和神经网络训练方法及设备 |
CN110516464A (zh) * | 2019-09-02 | 2019-11-29 | 深圳市网心科技有限公司 | 基于神经网络计算的数据保护方法及相关设备 |
CN110782393A (zh) * | 2019-10-10 | 2020-02-11 | 江南大学 | 一种基于可逆网络的图像分辨率压缩及重建方法 |
CN110874484A (zh) * | 2019-10-16 | 2020-03-10 | 众安信息技术服务有限公司 | 基于神经网络和联邦学习的数据处理方法和系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507373A (zh) * | 2020-11-02 | 2021-03-16 | 北京迅达云成科技有限公司 | 一种工业互联网中工业现场数据远程访问方法 |
WO2022105743A1 (zh) * | 2020-11-19 | 2022-05-27 | 华为技术有限公司 | 一种算子计算方法、装置、设备及系统 |
CN112395636A (zh) * | 2021-01-19 | 2021-02-23 | 国网江西省电力有限公司信息通信分公司 | 电网数据加密模型训练方法、系统、存储介质及设备 |
CN112395636B (zh) * | 2021-01-19 | 2021-07-30 | 国网江西省电力有限公司信息通信分公司 | 电网数据加密模型训练方法、系统、存储介质及设备 |
CN115994541A (zh) * | 2023-03-22 | 2023-04-21 | 金蝶软件(中国)有限公司 | 界面语义数据生成方法、装置、计算机设备和存储介质 |
CN115994541B (zh) * | 2023-03-22 | 2023-07-07 | 金蝶软件(中国)有限公司 | 界面语义数据生成方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111563262B (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563262A (zh) | 一种基于可逆深度神经网络的加密方法及系统 | |
US11902413B2 (en) | Secure machine learning analytics using homomorphic encryption | |
CN112183730B (zh) | 一种基于共享学习的神经网络模型的训练方法 | |
CN110750801B (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
CN113239404B (zh) | 一种基于差分隐私和混沌加密的联邦学习方法 | |
CN111970277B (zh) | 基于联邦学习的流量识别方法及装置 | |
CN112862001A (zh) | 一种隐私保护下的去中心化数据建模方法 | |
CN112395643A (zh) | 一种神经网络的数据隐私保护方法及系统 | |
CN112818369B (zh) | 一种联合建模方法及装置 | |
WO2021106077A1 (ja) | ニューラルネットワークの更新方法、端末装置、計算装置及びプログラム | |
CN111046857A (zh) | 基于知识联邦的人脸识别方法、装置、设备、介质及系统 | |
CN111767411A (zh) | 知识图谱表示学习优化方法、设备及可读存储介质 | |
CN115842627A (zh) | 基于安全多方计算的决策树评估方法、装置、设备及介质 | |
CN113055153B (zh) | 一种基于全同态加密算法的数据加密方法、系统和介质 | |
CN114386071A (zh) | 去中心的联邦聚类方法、装置、电子设备及存储介质 | |
CN116502732B (zh) | 基于可信执行环境的联邦学习方法以及系统 | |
CN113935050A (zh) | 基于联邦学习的特征提取方法和装置、电子设备、介质 | |
CN113807157A (zh) | 基于联邦学习训练神经网络模型的方法、装置和系统 | |
CN117171779A (zh) | 基于交集保护的数据处理装置 | |
CN112148759A (zh) | 一种基于云平台的择偶方法及系统 | |
CN113761570B (zh) | 一种面向隐私求交的数据交互方法 | |
CN115564447A (zh) | 一种信用卡交易风险检测方法及装置 | |
Tezuka et al. | A fast privacy-preserving multi-layer perceptron using ring-lwe-based homomorphic encryption | |
CN116938455B (zh) | 基于秘密分享大小比较的数据处理方法及系统 | |
Hoefer et al. | Performance evaluation of a differentially-private neural network for cloud computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |