CN112395636A - 电网数据加密模型训练方法、系统、存储介质及设备 - Google Patents
电网数据加密模型训练方法、系统、存储介质及设备 Download PDFInfo
- Publication number
- CN112395636A CN112395636A CN202110065839.3A CN202110065839A CN112395636A CN 112395636 A CN112395636 A CN 112395636A CN 202110065839 A CN202110065839 A CN 202110065839A CN 112395636 A CN112395636 A CN 112395636A
- Authority
- CN
- China
- Prior art keywords
- power grid
- loss function
- quantum
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Complex Calculations (AREA)
- Storage Device Security (AREA)
Abstract
本发明提供一种电网数据加密模型训练方法、系统、存储介质及设备,方法包括:获取用于模型训练的加密密钥及电网明文数据;将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;计算所述量子卷积神经网络的目标损失函数;判断所述损失函数是否小于预设值;若是,则输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。本发明通过量子卷积神经网络来训练电网数据加密模型,并以损失函数最小为训练目标,使得训练得到的加密模型能够快速、可靠的对电网数据进行加密处理,满足电网大数据的安全维护需求。
Description
技术领域
本发明涉及电网数据安全维护技术领域,特别涉及一种电网数据加密模型训练方法、系统、存储介质及设备。
背景技术
由于快速的经济增长推动了对大规模电力的需求,从而产生了大量的用电数据。另外,所有信息,例如电网线的名称,数量和属性以及电力设备的图像都需要记录在数据库中。因此,电网数据的类型多种多样,但数据量也很大,这对电网数据的安全维护提出了极大的挑战。
发明内容
基于此,本发明的目的是提供一种电网数据加密模型训练方法、系统、存储介质及设备,以满足电网数据的安全维护需求。
根据本发明实施例的一种电网数据加密模型训练方法,所述方法包括:
获取用于模型训练的加密密钥及电网明文数据;
将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;
计算所述量子卷积神经网络的目标损失函数;
判断所述损失函数是否小于预设值;
若是,则输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
另外,根据本发明上述实施例的一种电网数据加密模型训练方法,还可以具有如下附加的技术特征:
进一步地,获取用于模型训练的加密密钥的步骤包括:
采用量子混沌映射生成所述加密密钥。
进一步地,所述计算所述量子卷积神经网络的目标损失函数的步骤包括:
分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数;
根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
进一步地,所述目标损失函数的计算公式为:
其中,ω A ,ω B 和ω E 分别表示通讯方Alice、通讯方Bob和窃听者Eve的超参数,EL(ω A ,ω B ,ω E )代表所述目标损失函数,EL B (ω A ,ω B )代表通讯方平均损失函数,EL E (ω A ,ω E )代表窃听者平均损失函数,|A n 〉代表第n个电网明文数据,|B n 〉代表通讯方Bob解密得到的第n个电网数据,|E n 〉代表窃听者Eve解密得到的第n个电网数据,d为距离函数,j表示电网明文数据的总数。
进一步地,采用量子混沌映射生成所述加密密钥的步骤包括:
获取经过所述量子混沌映射迭代运算得到的两个混沌序列;
分别将两个所述混沌序列转化为对应的整型数据序列;
将两个所述整型数据序列中的预设位置的序列一一对应的合成对应的所述加密密钥;
其中,所述预设位置为所述整型数据序列的后半部分。
根据本发明实施例的一种电网数据加密模型训练系统,所述系统包括:
数据获取模块,用于获取用于模型训练的加密密钥及电网明文数据;
模型训练模块,用于将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;
损失计算模块,用于计算所述量子卷积神经网络的目标损失函数;
阈值判断模块,用于判断所述损失函数是否小于预设值;
模型输出模块,用于当判断到所述损失函数小于所述预设值时,输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
另外,根据本发明上述实施例的一种电网数据加密模型训练系统,还可以具有如下附加的技术特征:
进一步地,所述数据获取模块包括:
密钥生成单元,用于采用量子混沌映射生成所述加密密钥。
进一步地,所述损失计算模块包括:
第一计算单元,用于分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数;
第二计算单元,用于根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
根据本发明实施例的一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述的电网数据加密模型训练方法。
根据本发明实施例的一种电网数据加密模型训练设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述的电网数据加密模型训练方法。
与现有技术相比:通过量子卷积神经网络来训练电网数据加密模型,并以损失函数最小为训练目标,使得训练得到的加密模型能够快速、可靠的对电网数据进行加密处理,满足电网大数据的安全维护需求。
附图说明
图1为本发明第一实施例中的电网数据加密模型训练方法的流程图;
图2 为本发明实施例提供的量子混沌映射的基本量子线路;
图3为本发明实施例提供的Alice的QCNN电路模型;
图4为本发明实施例提供的Bob的QCNN电路模型;
图5为本发明实施例提供的Eve的QCNN电路模型;
图6为本发明实施例提供的量子卷积神经网络的电路模型;
图7为本发明第二实施例中的电网数据加密模型训练方法的流程图;
图8为本发明第三实施例中的电网数据加密模型训练系统的结构示意图;
图9为本发明第四实施例中的电网数据加密模型训练设备的结构示意图。
以下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例一
请参阅图1,所示为本发明第一实施例中的电网数据加密模型训练方法,可应用于电网数据加密模型训练设备当中,所述电网数据加密模型训练设备可通过软件和/或硬件来实现所述方法,所述方法具体包括步骤S01-步骤S05。
步骤S01,获取用于模型训练的加密密钥及电网明文数据。
其中,电网明文数据即指加密前的电网数据,电网数据例如可以为电网线的名称、数量和属性以及电力设备的图像等等。此外,加密密钥Key可通过多项式及参数随机生成而来,或者从预先存储的加密密钥集合中顺序循环读出,即在加密密钥集合中按顺序挑选出一个加密密钥;或者也可以采用量子混沌映射方式生成加密密钥。
具体地,作为一种实现方式,采用量子混沌映射方式生成加密密钥的过程具体如下:
其中,量子混沌映射具有经典混沌映射的所有特性。因此,可以根据现有的经典混沌映射来设计量子混沌映射。由于混沌映射对初始值敏感,因此通常采用混沌映射来准备密钥。其中,量子混沌映射包括低维混沌映射和高维混沌映射,高维混沌映射比低维混沌映射具有更好的混沌性能。其中,1D逻辑映射是最简单的量子混沌映射,其可以改善为2D逻辑映射,2D逻辑映射的定义为:
其中,x,y是两个变量,u是控制参数。如果x,y∈(0,1), u∈(0,2.28)系统将处于混乱状态。
在构造二维逻辑映射的量子电路之前,将简要介绍一些基本的量子模块。量子减法器是基本的量子计算电路,可以计算存储在两个量子寄存器中的值之差。量子减法器表达式为:
引入了量子乘法器,可以定义为:
具体地,假定要生成的密钥流的长度为2n×2n,公式(1)将迭代2n×2n次以构造两个混沌序列,其中i=22n-1。对于每次迭代,如图2所示,首先,存储在量子寄存器中的输出x i 由第一个ADDER产生,第一个ADDER为量子加法器,其输入为x i 和0,其输出x i 给第二个ADDER。其次,第二个ADDER的输出1用于为下一次迭代,第二个ADDER为量子减法器,第二个ADDER输出1-x i 给MULER。D-ADDER用于获取y i ,并输出x i+1用于下一次迭代,DADDER是一个双输出加法器,还输出y i 给MULER。最后,一个MULER在输入为μ,1-x i 和y i 情况下被用来产生y i+1和μ用于下一次迭代。
其中,代表整型数据序列,l i 代表混沌序列。由于每个序列的初始部分的随机性不够好,因此选择两个整型数据序列的后半部分并将其转换为密钥,例如选取x i 和y i 组成k j ,选取x i-1 和y i-1 组成k j-1 ,以此类推,序列组合得到秘钥的具体组合方式包括但不限于序列拼接、异或运算、加法运算等等,例如将x i 序列排列在y i 序列的前面或后面,得到秘钥k j ,秘钥k j 的长度等于x i 和y i 的序列长度之和,或者将x i 和y i 进行异或运行得到秘钥k j 。
步骤S02,将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练。
需要说明的是,作为机器学习架构的经典卷积神经网络通常用于分类。例如,图像识别是其一种非常普遍的应用场景。卷积神经网络通常由三层组成,分别是卷积层,池化层和全连接层。平移不变的卷积层和池化层是卷积神经网络的关键属性,因为它们包含一定数量的称为超参数的可调参数矩阵。基于经典的卷积神经网络架构,卷积神经网络的量子电路模型被提出。与经典卷积神经网络通过参数矩阵对网络进行优化相比,量子卷积神经网络(QCNN)则通过量子操作运算对网络进行优化。
具体地,量子卷积神经网络的电路模型如图6所示,为了证明量子密码协议的安全性能,通常假定三个方,即Alice,Bob和Eve。同样,量子卷积神经网络也分别包括Alice,Bob和Eve。Alice和Bob实现正常沟通,而作为窃听者,Eve可能会尝试窃取信息。显然,Alice和Bob不希望第三方Eve发现他们的通信信息。因此,Alice和Bob必须训练他们的网络,以使Eve的网络无法检测到他们的通信信息。但是,Alice,Bob和Eve的电路模型与上述电路模型之间存在一些差异。输入之后是全连接层,然后是有限数量的卷积和池化层。对于Alice的QCNN电路模型,经过训练可以对明文和密钥进行加密,这与图像加密中常用的异或操作相类似。Bob的QCNN电路模型由于其加密方式而与Alice的QCNN电路模型完全相同,但是它们可以具有不同的超参数。由于Eve不知道密钥,因此其网络输入仅是Alice生成的密文。假设明文信息和密钥的量子状态为|A j 〉和|K j 〉,对应的密文信息为|C j 〉,Bob网络的输入为密文信息|C j 〉,其输出为|E j 〉。假设Eve以某种方式在没有Alice和Bob注意的情况下获取密文并输出,但是实际上这很困难。Alice,Bob和Eve的电路模型分别如图3,图4和图5所示。
可以清楚地看到,Alice,Bob和Eve的电路模型仅包含一个完全连接的层和四个卷积层。通过完全连接的层,将输入的量子位线性转换为另一个量子状态,将其作为卷积层1的输入。将产生的卷积层1的量子状态逐步输入到卷积层2、3和4中。最后,所得的量子态将被测量。但是,对于Alice,Bob和Eve而言,主要区别在于它们的输入和卷积层中的量子操作运算。由于Eve无法获取密钥,因此她的输入仅是密文。卷积层中的量子操作运算类似于经典卷积神经网络的卷积核。
步骤S03,计算所述量子卷积神经网络的目标损失函数。
具体地,首先要确定QCNN的超参数,使网络的训练结果符合预期。对于Alice、Bob和Eve的QCNN,其超参数分别表示为ω A ,ω B 和ω E 。尽管Alice和Bob拥有相同的网络框架,但它们的超参数可能不同。但是在训练网络之前,需要确定损失函数、优化方法和反向传播算法。本次仿真中用于网络超参数优化的优化方法为Adam优化器,所选择的反向传播算法为SGD(梯度下降算法)。
其中,损耗函数即指解密输出数据相对于原明文数据的误差量子位数,关于损耗函数,可以假设一个距离函数d,当输入量子态|ϕ〉和|φ〉时,两个量子态之间的距离L可以定义为:
其中|ϕ〉和|φ〉均为相同量子比特长度的量子比特序列。例如,假设|ϕ〉=|01011101〉和|φ〉=|01010001〉,则距离是2。事实上,很明显,只需要仅仅8个CNOT门作用到|ϕ〉和|φ〉相应的量子比特的位置,实现异或操作,产生量子态结果为|1〉的数量是这两个量子态距离,这是定义函数d的计算原理。
通过上述定义,可以得到两个量子态之间的距离,也可以表示Bob和Eve的QCNN解密输出相对于明文的误差量子位数(即损失函数)。因此,对于每个样本,Bob和Eve的损失函数可以分别定义为L B 和L E 。
其中,L B 代表Alice和Bob之间的损失函数(即通讯方损失函数),|A j 〉和|B j 〉分别为明文数据和Bob的解密数据。
其中,L E 代表Alice和Eve之间的损失函数(即窃听者损失函数),|A j 〉和|E j 〉分别为明文数据和Eve的解密数据。
然而,上面定义的损失函数仅表示明文和密钥分别为|A j 〉和|K j 〉时,Bob和Eve的错误比特数(即损失函数)。因此,需要对整个明文和密钥分布取平均值,定义一个损失函数。Bob和Eve的损失函数可以分别重新定义为EL B (ω A ,ω B )和EL E (ω A ,ω E )。
在这两个损失函数的基础上,定义了量子卷积神经网络的损失函数表示为:
其中,ω A ,ω B 和ω E 分别表示通讯方Alice、通讯方Bob和窃听者Eve的超参数,EL(ω A ,ω B ,ω E )代表所述目标损失函数,EL B (ω A ,ω B )代表通讯方平均损失函数,EL E (ω A ,ω E )代表窃听者平均损失函数,|An〉代表第n个电网明文数据,|Bn〉代表通讯方Bob解密得到的第n个电网数据,|En〉代表窃听者Eve解密得到的第n个电网数据,d为距离函数,j表示电网明文数据的总数。公式中表明,若想最优化(最小化)EL(ω A ,ω B ,ω E ),必须要最小化EL B (ω A ,ω B )和最大化EL E (ω A ,ω E )。
首先,训练需要在成千上万的小批量数据中进行。准确地说,它只需要获得每个卷积神经网络在最小化EL(ω A ,ω B ,ω E )时的超参数,然后根据这些超参数预测需要的结果。因为Bob一开始不知道Alice是如何加密数据的,所以即使他有密钥和密文,他也无法解密正确的信息。然而,经过一定量的训练,Bob找到了一个模式来获取他想要的信息,而Eve因为没有密钥而不知道。Alice和Bob之间的训练模式类似于GAN。其次,Alice不希望Bob对她的信息的解密是完全正确的,而Eve对她的信息的解密是完全错误的,因为如果是这样的话,Eve就可以通过比特反转成功地获得明文信息。通过不断的训练,最后得到各网络的超参数。
为了训练这些网络,对量子卷积神经网络的参数做如下设置:将minibatch的大小和pytorch的Adam优化器的学习率分别设置为512和0.0008。明文、密钥和密文的长度设置为16。由于Eve没有密钥,所以决定给Eve一定程度的计算优势。假设在Alice和Bob训练了一次之后,Eve训练了两次,这个过程交替进行。尽管如此,培训结果还是如预期的那样,由于每个错误比特的出现都是随机的,所以采用一个错误比特的平均值(即平均损伤函数EL(ω A ,ω B ,ω E ))来评价整体的训练效果。
步骤S04,判断所述损失函数是否小于预设值。
需要说明的是,所述预设值为预设的最小参考值,当判断到损失函数小于所述预设值,则默认损失函数已经达到最小,则执行步骤S05,输出训练结果,得到电网数据加密模型。当判断到损失函数不小于所述预设值时,则继续迭代运算,直至损失函数达到最小(即小于所述预设值)。
步骤S05,输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
综上,本发明上述实施例当中的电网数据加密模型训练方法,通过量子卷积神经网络来训练电网数据加密模型,并以损失函数最小为训练目标,使得训练得到的加密模型能够快速、可靠的对电网数据进行加密处理,满足电网大数据的安全维护需求。
实施例二
请参阅图7,所示为本发明第二实施例中的电网数据加密模型训练方法,可应用于电网数据加密模型训练设备当中,所述电网数据加密模型训练设备可通过软件和/或硬件来实现所述方法,所述方法具体包括步骤S11-步骤S17。
步骤S11,采用量子混沌映射生成用于模型训练的加密密钥,并获取用于模型训练的电网明文数据。
在具体实施时,采用量子混沌映射生成所述加密密钥的步骤可以按以下细化步骤进行具体实施,细化步骤具体包括:
获取经过所述量子混沌映射迭代运算得到的两个混沌序列;
分别将两个所述混沌序列转化为对应的整型数据序列;
将两个所述整型数据序列中的预设位置的序列一一对应的合成对应的所述加密密钥;
其中,所述预设位置为所述整型数据序列的后半部分。
具体地,假设每个密钥占用8个量子位的存储器,公式(1)经过迭代构造了两个混沌序列和,并将它们转换为整型数据序列和,由于每个序列的初始部分的随机性不够好,因此选择两个整型数据序列的后半部分并将其转换为密钥,例如选取x i 和y i 组成k j ,选取x i-1 和y i-1 组成k j-1 ,以此类推,序列组合得到秘钥的具体组合方式包括但不限于序列拼接、异或运算、加法运算等等,例如将x i 序列排列在y i 序列的前面或后面,得到秘钥k j ,秘钥k j 的长度等于x i 和y i 的序列长度之和,或者将x i 和y i 进行异或运行得到秘钥k j 。
步骤S12,将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练。
步骤S13,分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数。
步骤S14,根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
其中,所述目标损失函数的计算公式为:
其中,ω A ,ω B 和ω E 分别表示通讯方Alice、通讯方Bob和窃听者Eve的超参数,EL(ω A ,ω B ,ω E )代表所述目标损失函数(平均值),EL B (ω A ,ω B )代表通讯方平均损失函数,EL E (ω A ,ω E )代表窃听者平均损失函数,|A n 〉代表第n个电网明文数据,|B n 〉代表通讯方Bob解密得到的第n个电网数据,|E n 〉代表窃听者Eve解密得到的第n个电网数据,d为距离函数,j表示电网明文数据的总数。
步骤S15,判断所述损失函数是否小于预设值。
需要说明的是,所述预设值为预设的最小参考值,当判断到损失函数小于所述预设值,则默认损失函数已经达到最小,则执行步骤S16,输出训练结果,得到电网数据加密模型。当判断到损失函数不小于所述预设值时,则继续迭代运算,直至损失函数达到最小。
步骤S16,输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
在本实施例当中,在现有量子卷积神经网络电路模型的基础上,设计了一种新的量子卷积神经网络电路模型,该模型结合量子混沌映射构造了一个对称加密模型。量子混沌映射产生加密和解密的密钥流。该加密模型模拟了通信的基本过程。理论分析证明了该加密模型的有效性。此外,基于MNIST数据集的仿真实验表明,该加密模型是安全的。另外,该加密模型不仅适用于图像数据,也适用于文本数据。因此,可以利用该加密模型对电网数据进行加密。
实施例三
本发明另一方面还提供一种电网数据加密模型训练系统,请查阅图8,所示为本发明第三实施例中的电网数据加密模型训练系统,所述电网数据加密模型训练系统具体包括:
数据获取模块11,用于获取用于模型训练的加密密钥及电网明文数据;
模型训练模块12,用于将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;
损失计算模块13,用于计算所述量子卷积神经网络的目标损失函数;
阈值判断模块14,用于判断所述损失函数是否小于预设值;
模型输出模块15,用于当判断到所述损失函数小于所述预设值时,输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
进一步地,在本发明一些可选实施例当中,所述数据获取模块包括:
密钥生成单元,用于采用量子混沌映射生成所述加密密钥。
进一步地,在本发明一些可选实施例当中,所述损失计算模块包括:
第一计算单元,用于分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数;
第二计算单元,用于根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
进一步地,在本发明一些可选实施例当中,所述目标损失函数的计算公式为:
其中,ω A ,ω B 和ω E 分别表示通讯方Alice、通讯方Bob和窃听者Eve的超参数,EL(ω A ,ω B ,ω E )代表所述目标损失函数,EL B (ω A ,ω B )代表通讯方平均损失函数,EL E (ω A ,ω E )代表窃听者平均损失函数,|A n 〉代表第n个电网明文数据,|B n 〉代表通讯方Bob解密得到的第n个电网数据,|E n 〉代表窃听者Eve解密得到的第n个电网数据,d为距离函数,j表示电网明文数据的总数。
进一步地,在本发明一些可选实施例当中,所述密钥生成单元还用于获取经过所述量子混沌映射迭代运算得到的两个混沌序列;分别将两个所述混沌序列转化为对应的整型数据序列;将两个所述整型数据序列中的预设位置的序列一一对应的合成对应的所述加密密钥;其中,所述预设位置为所述整型数据序列的后半部分。
上述各模块、单元被执行时所实现的功能或操作步骤与上述方法实施例大体相同,在此不再赘述。
综上,本发明上述实施例当中的电网数据加密模型训练系统,通过量子卷积神经网络来训练电网数据加密模型,并以损失函数最小为训练目标,使得训练得到的加密模型能够快速、可靠的对电网数据进行加密处理,满足电网大数据的安全维护需求。
实施例四
本发明另一方面还提出一种电网数据加密模型训练设备,请参阅图9,所示为本发明第四实施例当中的电网数据加密模型训练设备,包括存储器20、处理器10以及存储在存储器上并可在处理器上运行的计算机程序30,所述处理器10执行所述计算机程序30时实现如上述的电网数据加密模型训练方法。
其中,处理器10在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器20中存储的程序代码或处理数据,例如执行访问限制程序等。
其中,存储器20至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器20在一些实施例中可以是电网数据加密模型训练设备的内部存储单元,例如该电网数据加密模型训练设备的硬盘。存储器20在另一些实施例中也可以是电网数据加密模型训练设备的外部存储装置,例如电网数据加密模型训练设备上配备的插接式硬盘,智能存储卡(SmartMedia Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,存储器20还可以既包括电网数据加密模型训练设备的内部存储单元也包括外部存储装置。存储器20不仅可以用于存储安装于电网数据加密模型训练设备的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
需要指出的是,图9示出的结构并不构成对电网数据加密模型训练设备的限定,在其它实施例当中,该电网数据加密模型训练设备可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
综上,本发明上述实施例当中的电网数据加密模型训练设备,通过量子卷积神经网络来训练电网数据加密模型,并以损失函数最小为训练目标,使得训练得到的加密模型能够快速、可靠的对电网数据进行加密处理,满足电网大数据的安全维护需求。
本发明实施例还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述的电网数据加密模型训练方法。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种电网数据加密模型训练方法,其特征在于,所述方法包括:
获取用于模型训练的加密密钥及电网明文数据;
将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;
计算所述量子卷积神经网络的目标损失函数;
判断所述损失函数是否小于预设值;
若是,则输出所述量子卷积神经网络的训练结果,得到电网数据加密模型;
其中,获取用于模型训练的加密密钥的步骤包括:
采用量子混沌映射生成所述加密密钥;
其中,采用量子混沌映射生成所述加密密钥的步骤包括:
获取经过所述量子混沌映射迭代运算得到的两个混沌序列;
分别将两个所述混沌序列转化为对应的整型数据序列;
将两个所述整型数据序列中的预设位置的序列一一对应的合成对应的所述加密密钥;
其中,所述预设位置为所述整型数据序列的后半部分,混沌序列转换为整型数据序列的公式为:
2.根据权利要求1所述的电网数据加密模型训练方法,其特征在于,所述计算所述量子卷积神经网络的目标损失函数的步骤包括:
分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数;
根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
4.一种电网数据加密模型训练系统,其特征在于,所述系统包括:
数据获取模块,用于获取用于模型训练的加密密钥及电网明文数据;
模型训练模块,用于将所述加密密钥及电网明文数据输入到量子卷积神经网络当中进行训练;
损失计算模块,用于计算所述量子卷积神经网络的目标损失函数;
阈值判断模块,用于判断所述损失函数是否小于预设值;
模型输出模块,用于当判断到所述损失函数小于所述预设值时,输出所述量子卷积神经网络的训练结果,得到电网数据加密模型。
5.根据权利要求4所述的电网数据加密模型训练系统,其特征在于,所述数据获取模块包括:
密钥生成单元,用于采用量子混沌映射生成所述加密密钥。
6.根据权利要求4或5所述的电网数据加密模型训练系统,其特征在于,所述损失计算模块包括:
第一计算单元,用于分别计算出所述量子卷积神经网络的通讯方损失函数和窃听者损失函数;
第二计算单元,用于根据所述通讯方损失函数和所述窃听者损失函数,计算出所述量子卷积神经网络的目标损失函数。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-3任一项所述的电网数据加密模型训练方法。
8.一种电网数据加密模型训练设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-3任一项所述的电网数据加密模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110065839.3A CN112395636B (zh) | 2021-01-19 | 2021-01-19 | 电网数据加密模型训练方法、系统、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110065839.3A CN112395636B (zh) | 2021-01-19 | 2021-01-19 | 电网数据加密模型训练方法、系统、存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112395636A true CN112395636A (zh) | 2021-02-23 |
CN112395636B CN112395636B (zh) | 2021-07-30 |
Family
ID=74625341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110065839.3A Active CN112395636B (zh) | 2021-01-19 | 2021-01-19 | 电网数据加密模型训练方法、系统、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112395636B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343270A (zh) * | 2021-06-28 | 2021-09-03 | 郑州轻工业大学 | 一种基于人工智能的加密数据重构方法与系统 |
CN116032636A (zh) * | 2023-01-06 | 2023-04-28 | 南京通力峰达软件科技有限公司 | 一种基于神经网络的车联网数据加密方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330395A (zh) * | 2017-06-27 | 2017-11-07 | 中国矿业大学 | 一种基于卷积神经网络的虹膜图像加密方法 |
CN108898028A (zh) * | 2018-07-06 | 2018-11-27 | 成都大象分形智能科技有限公司 | 涉及迭代与随机加密的神经网络模型加密保护系统及方法 |
CN110190959A (zh) * | 2019-06-28 | 2019-08-30 | 中南大学 | 基于连续变量量子神经网络的加解密方法 |
US20190294805A1 (en) * | 2018-03-22 | 2019-09-26 | Via Science, Inc. | Neural-network training using secure data processing |
CN110324147A (zh) * | 2019-08-08 | 2019-10-11 | 黑龙江大学 | 基于混沌模型的gan博弈对抗加密系统(方法) |
CN110401536A (zh) * | 2019-08-19 | 2019-11-01 | 东南大学 | 一种基于深度学习的通用加密算法 |
CN111563262A (zh) * | 2020-04-15 | 2020-08-21 | 清华大学 | 一种基于可逆深度神经网络的加密方法及系统 |
CN112163229A (zh) * | 2020-09-14 | 2021-01-01 | 长春理工大学 | 基于循环生成对抗网络的学习型数字图像加密解密方法 |
-
2021
- 2021-01-19 CN CN202110065839.3A patent/CN112395636B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330395A (zh) * | 2017-06-27 | 2017-11-07 | 中国矿业大学 | 一种基于卷积神经网络的虹膜图像加密方法 |
US20190294805A1 (en) * | 2018-03-22 | 2019-09-26 | Via Science, Inc. | Neural-network training using secure data processing |
CN108898028A (zh) * | 2018-07-06 | 2018-11-27 | 成都大象分形智能科技有限公司 | 涉及迭代与随机加密的神经网络模型加密保护系统及方法 |
CN110190959A (zh) * | 2019-06-28 | 2019-08-30 | 中南大学 | 基于连续变量量子神经网络的加解密方法 |
CN110324147A (zh) * | 2019-08-08 | 2019-10-11 | 黑龙江大学 | 基于混沌模型的gan博弈对抗加密系统(方法) |
CN110401536A (zh) * | 2019-08-19 | 2019-11-01 | 东南大学 | 一种基于深度学习的通用加密算法 |
CN111563262A (zh) * | 2020-04-15 | 2020-08-21 | 清华大学 | 一种基于可逆深度神经网络的加密方法及系统 |
CN112163229A (zh) * | 2020-09-14 | 2021-01-01 | 长春理工大学 | 基于循环生成对抗网络的学习型数字图像加密解密方法 |
Non-Patent Citations (1)
Title |
---|
叶小艳: "对一种神经网络加密方案的安全性分析", 《计算机与数字工程》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343270A (zh) * | 2021-06-28 | 2021-09-03 | 郑州轻工业大学 | 一种基于人工智能的加密数据重构方法与系统 |
CN113343270B (zh) * | 2021-06-28 | 2023-02-24 | 郑州轻工业大学 | 一种基于人工智能的加密数据重构方法与系统 |
CN116032636A (zh) * | 2023-01-06 | 2023-04-28 | 南京通力峰达软件科技有限公司 | 一种基于神经网络的车联网数据加密方法及系统 |
CN116032636B (zh) * | 2023-01-06 | 2023-10-20 | 南京通力峰达软件科技有限公司 | 一种基于神经网络的车联网数据加密方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112395636B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Multi-image encryption scheme based on quantum 3D Arnold transform and scaled Zhongtang chaotic system | |
Martins et al. | A survey on fully homomorphic encryption: An engineering perspective | |
Yang et al. | Novel image encryption/decryption based on quantum Fourier transform and double phase encoding | |
Souyah et al. | An image encryption scheme combining chaos-memory cellular automata and weighted histogram | |
Liang et al. | Quantum image encryption based on generalized affine transform and logistic map | |
Abdo et al. | A cryptosystem based on elementary cellular automata | |
Hafsa et al. | FPGA implementation of improved security approach for medical image encryption and decryption | |
JP2016035554A (ja) | 完全準同型暗号化方式を使用したコンパクトなファジープライベートマッチング | |
CN112395636B (zh) | 电网数据加密模型训练方法、系统、存储介质及设备 | |
Rahman et al. | Chaos-cryptography based privacy preservation technique for video surveillance | |
Janani et al. | A secure medical image transmission scheme aided by quantum representation | |
CN110663216A (zh) | 密码设备和方法 | |
Liu et al. | Chaos-based color image encryption using one-time keys and Choquet fuzzy integral | |
Pashakolaee et al. | Hyper-chaotic Feeded GA (HFGA): a reversible optimization technique for robust and sensitive image encryption | |
Hu et al. | Quantum image encryption algorithm based on generalized Arnold transform and Logistic map | |
Devi et al. | Entropy influenced RNA diffused quantum chaos to conserve medical data privacy | |
Gentry et al. | How to compress (reusable) garbled circuits | |
Mehmood et al. | Advances and Vulnerabilities in Modern Cryptographic Techniques: A Comprehensive Survey on Cybersecurity in the Domain of Machine/Deep Learning and Quantum Techniques | |
CN112740618A (zh) | 签名装置、验证装置、签名系统、签名方法、签名程序、验证方法以及验证程序 | |
Gafsi et al. | Improved chaos‐RSA‐based hybrid cryptosystem for image encryption and authentication | |
CN104137471A (zh) | 信息处理设备、信息处理方法以及程序 | |
Zhang et al. | Image encryption algorithm based on the Matryoshka transform and modular-inverse matrix | |
JP7233265B2 (ja) | 署名装置、検証装置、署名方法、検証方法、署名プログラム及び検証プログラム | |
US8036378B2 (en) | System and method of authentication | |
JP4528114B2 (ja) | 鍵生成装置、暗号化装置、検査装置、復号化装置並びに鍵生成プログラム、暗号化プログラム、検査プログラム、復号化プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |