CN112351151A - 基于fcn的图像信息加密方法及装置 - Google Patents
基于fcn的图像信息加密方法及装置 Download PDFInfo
- Publication number
- CN112351151A CN112351151A CN202011246286.3A CN202011246286A CN112351151A CN 112351151 A CN112351151 A CN 112351151A CN 202011246286 A CN202011246286 A CN 202011246286A CN 112351151 A CN112351151 A CN 112351151A
- Authority
- CN
- China
- Prior art keywords
- image
- preset
- neural network
- vector
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003062 neural network model Methods 0.000 claims abstract description 122
- 230000006835 compression Effects 0.000 claims abstract description 50
- 238000007906 compression Methods 0.000 claims abstract description 50
- 239000013598 vector Substances 0.000 claims description 132
- 238000012549 training Methods 0.000 claims description 121
- 239000011159 matrix material Substances 0.000 claims description 113
- 238000000354 decomposition reaction Methods 0.000 claims description 17
- 238000012360 testing method Methods 0.000 claims description 14
- 229910016285 MxNy Inorganic materials 0.000 claims description 12
- 230000003542 behavioural effect Effects 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000006467 substitution reaction Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 15
- 230000005284 excitation Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32267—Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
- H04N1/32272—Encryption or ciphering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于FCN的图像信息加密方法及装置,涉及加密端和解密端,方法包括:通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
Description
技术领域
本发明涉及信息安全技术领域,尤其涉及一种基于FCN的图像信息加密方法及装置。
背景技术
随着互联网技术的成熟和广泛使用,人们的信息交流方式同样变得越发便捷。随着用户数据在网络上的不停传输和交互,在信息交流便捷化的同时也带来了隐私信息泄露的安全隐患。
而加密是防止信息传输过程中信息泄露所采取的主要安全保密措施,是最常用的安全保密手段。加密的基本思想是利用诸如算法等一些技术方法把重要的数据变为乱码以进行加密传送,到达目的地后再用相同或不同的手段进行还原解密。
传统的信息传输方法通常是通过密钥进行加解密的方式进行信息传输,加密程度较低,如果密钥被攻击者获取的话,加密信息就很容易被攻击者所窃取,安全性较低。
发明内容
本发明提供了一种基于FCN的图像信息加密方法、系统、设备和存储介质,解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
通过所述加密端获取待加密图像Ma;
通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
可选地,所述模型训练过程包括:
采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
采用多个已标定训练样本分别组成训练集和测试集;
采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括以下步骤S1-S6:
步骤S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
步骤S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
步骤S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
步骤S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
步骤S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
步骤S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
可选地,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为 所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb的步骤,包括:
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
可选地,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为 所述通过所述解密端采用预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me的步骤,包括:
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述矩阵T′作为目标图像Me。
本发明还提供了一种基于FCN的图像信息加密装置,包括加密端和解密端,所述加密端包括:
待加密图像获取模块,用于获取待加密图像Ma;
压缩图像生成模块,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
加密图像生成模块,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
加密数据构建模块,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端包括:
解码模块,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
目标图像生成模块,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
可选地,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me。
从以上技术方案可以看出,本发明具有以下优点:
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图;
图2为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图;
图3为本发明实施例中传输加密数据Ti的流程示意图;
图4为本发明实施例提供的一种基于FCN的图像信息加密系统的结构框图。
具体实施方式
本发明实施例提供了一种基于FCN的图像信息加密方法、系统、设备和存储介质,用于解决现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
步骤101,通过所述加密端获取待加密图像Ma;
值得一提的是,待加密图像可以为单通道图像,也可以为多通道图像,例如三通道图像,本发明实施例对此不作限制。
步骤102,通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
步骤103,通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
步骤104,通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
步骤105,通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
步骤106,通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
请参阅图2,图2为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
步骤201,通过预置的模型训练过程生成目标全卷积神经网络模型;
在本发明实施例中,所述步骤201可以包括以下子步骤:
采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
采用多个已标定训练样本分别组成训练集和测试集;
采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
在本发明实施例中,其中,Nen和m均为整数,0≤m≤255;可以在事先以均匀分布随机方式产生一张尺寸为的灰度图作为一个样本数据Va,其中h为整数可根据具体应用场景而具体设置,灰度图中每一个像素的像素值均为取值范围在0到255的整数,以Va自身作为样本数据Va的已标定输出数据,则获得一个样本数据Va1。重复上述步骤k次后,获得k个样本数据Va1,Va2,Va3,…,Vak,其中k为整数且可根据具体应用场景而具体设置。将k个样本数据Va1,Va2,Va3,…,Vak组成所述训练数据集。
可选地,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括步骤S1-S6:
步骤S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
步骤S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
步骤S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
步骤S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
步骤S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
步骤S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
参加图3,在具体实现中,初始全卷积神经网络模型可以包括编码网络模型和解码网络模型,编码网络模型包括卷积模块,解码网络模型包括反卷积模块。其中,所述卷积模块的第一层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第二层为激励层,第三层为卷积层,卷积核尺寸均为3×3,padding的像素数均为1,第四层为激励层,第五层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第六层为激励层,第七层为最大池化层,池化层的步长为2,其中所有卷积层的步长均为1,所有激励层的激活函数均为ReLU;所述编码网络模型的卷积模块堆叠个数为Nen,输入层(第一层)的尺寸为nx×ny,所有卷积层的卷积核数量为整数且可根据具体应用场景而具体设置;
创建反卷积模块,所述反卷积模块的第一层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第二层为激励层,第三层为卷积层,卷积核尺寸均为3×3,padding的像素数均为1,第四层为激励层,第五层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第六层为激励层,第七层为反卷积层,卷积核尺寸均为2×2,padding的像素数均为0,步长为2,第八层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第九层为激励层,其中所有卷积层的步长均为1,所有激励层的激活函数均为ReLU;所述解码网络模型的反卷积模块堆叠个数为Nde,输出层(最后一层)的尺寸为nx×ny且卷积核数量与所述编码网络模型的输入层(第一层)的通道数一样,Nen、Nde、nx、ny、T均为整数且可根据具体应用场景而具体设置;
在本发明实施例中,可以通过选用binary_crossentropy损失函数或平方差函数等损失函数计算初始输出数据和已标定输出数据之间的误差,训练算法可以选取贝叶斯正则化算法或动量梯度下降或Adam等算法,多个初始参数可以利用高斯分布随机数仅初始化,训练次数阈值可以根据实际情况进行设置,预定误差阈值可以设置为零,或者根据具体应用场景进行设置,本发明实施例对此不作限制。
参见图3,图3示出了本发明实施例中传输加密数据Ti的流程示意图,此处的全卷积神经网络模块的编码网络模型为编码部分网络,解码网络模型为解码部分网络,通过编码部分网络输入层Input接收到3通道的尺寸为100*100的图像后,经卷积模块进行加密后输出密文(即加密数据Ti),当解码部分网络接收到密文后,经反卷积模块进行解密,在输出层Output生成3通道100*100的目标图像。
步骤202,通过所述加密端获取待加密图像Ma;
步骤203,通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
步骤205,通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
其中,所述加密数据可以按照W,V,W',V',加密图像的顺序传输至目标接收端,或对密文进行存储,本发明实施例对此不作限制。
步骤206,通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
步骤207,通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述矩阵T′作为目标图像Me。
可选地,若是需要更换目标全卷积神经网络模型的参数,可以通过以下步骤实现:
获得k′个已标定训练数据样本V′a1,V′a2,V′a3,…,V′ak′,将k′个已标定训练数据样本V′a1,V′a2,V′a3,…,V′ak′组成所述全卷积神经网络模型的训练集P′,同时将所述全卷积神经网络模型的测试集Q′设置为训练集P′,其中k′为整数且可根据具体应用场景而具体设置。
从所述训练集P′中依次选取一个所述已标定训练数据样本输入到所述全卷积神经网络模型,按照前向传播的公式计算相应的模型输出;按照误差公式计算出该所述训练数据样本输入到所述全卷积神经网络模型后的模型输出和该所述训练数据样本之间的误差,并按照反向传播算法调节更新所述全卷积神经网络模型所有参数。
所述训练集P′中所有已标定训练数据样本均输入所述全卷积神经网络模型进行训练后,利用测试集Q′计算整体误差X,若整体误差X>目标整体错误率x,则跳转到步骤N并继续执行步骤N及步骤O,直至整体误差X<=目标整体错误率x,或跳转到步骤N的次数达到最大训练次数T,所述全卷积神经网络模型训练完成,即所述训练完成的全卷积神经网络模型的参数变更完成。
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
参见图4,图4示出了本发明实施例中的一种基于FCN的图像信息加密装置的结构框图。
本发明实施例提供的一种基于FCN的图像信息加密装置,包括加密端401和解密端402,所述加密端401包括:
待加密图像获取模块4011,用于获取待加密图像Ma;
压缩图像生成模块4012,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
加密图像生成模块4013,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
加密数据构建模块4014,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端402包括:
解码模块4021,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
目标图像生成模块4022,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
可选地,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于FCN的图像信息加密方法,其特征在于,涉及加密端和解密端,所述方法包括:
通过所述加密端获取待加密图像Ma;
通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
3.根据权利要求2所述的方法,其特征在于,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括步骤S1-S6:
S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb的步骤,包括:
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
5.根据权利要求4所述的方法,其特征在于,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为所述通过所述解密端采用预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像的步骤,包括:
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述矩阵T′作为目标图像Me。
6.一种基于FCN的图像信息加密装置,其特征在于,包括加密端和解密端,所述加密端包括:
待加密图像获取模块,用于获取待加密图像Ma;
压缩图像生成模块,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb;
加密图像生成模块,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;
加密数据构建模块,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端包括:
解码模块,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md;
目标图像生成模块,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me;
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
7.根据权利要求6所述的装置,其特征在于,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
8.根据权利要求7所述的装置,其特征在于,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
9.根据权利要求6所述的装置,其特征在于,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述压缩图像生成模块包括:
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M;
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM;
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011246286.3A CN112351151B (zh) | 2020-11-10 | 2020-11-10 | 基于fcn的图像信息加密方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011246286.3A CN112351151B (zh) | 2020-11-10 | 2020-11-10 | 基于fcn的图像信息加密方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112351151A true CN112351151A (zh) | 2021-02-09 |
CN112351151B CN112351151B (zh) | 2022-09-16 |
Family
ID=74363170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011246286.3A Active CN112351151B (zh) | 2020-11-10 | 2020-11-10 | 基于fcn的图像信息加密方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112351151B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113037781A (zh) * | 2021-04-29 | 2021-06-25 | 广东工业大学 | 基于rnn的语音信息加密方法及装置 |
CN114117514A (zh) * | 2021-10-29 | 2022-03-01 | 香港理工大学深圳研究院 | 一种基于光学散斑的加密人脸识别方法和系统 |
US12019767B2 (en) | 2022-04-07 | 2024-06-25 | International Business Machines Corporation | Image encryption |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105830134A (zh) * | 2013-12-16 | 2016-08-03 | 来特荣国际有限公司 | 面向加密通信的图像压缩扩展方法及装置、程序以及存储介质 |
US20190087689A1 (en) * | 2017-09-15 | 2019-03-21 | NovuMind Limited | Methods and processes of encrypted deep learning services |
CN109614907A (zh) * | 2018-11-28 | 2019-04-12 | 安徽大学 | 基于特征强化引导卷积神经网络的行人再识别方法及装置 |
CN110378138A (zh) * | 2019-07-22 | 2019-10-25 | 上海鹰瞳医疗科技有限公司 | 数据加密、解密方法和神经网络训练方法及设备 |
CN110675326A (zh) * | 2019-07-24 | 2020-01-10 | 西安理工大学 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
CN111709867A (zh) * | 2020-06-10 | 2020-09-25 | 四川大学 | 基于新型全卷积网络的等模矢量分解图像加密分析方法 |
-
2020
- 2020-11-10 CN CN202011246286.3A patent/CN112351151B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105830134A (zh) * | 2013-12-16 | 2016-08-03 | 来特荣国际有限公司 | 面向加密通信的图像压缩扩展方法及装置、程序以及存储介质 |
US20190087689A1 (en) * | 2017-09-15 | 2019-03-21 | NovuMind Limited | Methods and processes of encrypted deep learning services |
CN109614907A (zh) * | 2018-11-28 | 2019-04-12 | 安徽大学 | 基于特征强化引导卷积神经网络的行人再识别方法及装置 |
CN110378138A (zh) * | 2019-07-22 | 2019-10-25 | 上海鹰瞳医疗科技有限公司 | 数据加密、解密方法和神经网络训练方法及设备 |
CN110675326A (zh) * | 2019-07-24 | 2020-01-10 | 西安理工大学 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
CN111709867A (zh) * | 2020-06-10 | 2020-09-25 | 四川大学 | 基于新型全卷积网络的等模矢量分解图像加密分析方法 |
Non-Patent Citations (1)
Title |
---|
朱泽烁: "基于深度学习的虹膜图像加密算法", 《数码世界》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113037781A (zh) * | 2021-04-29 | 2021-06-25 | 广东工业大学 | 基于rnn的语音信息加密方法及装置 |
CN114117514A (zh) * | 2021-10-29 | 2022-03-01 | 香港理工大学深圳研究院 | 一种基于光学散斑的加密人脸识别方法和系统 |
US12019767B2 (en) | 2022-04-07 | 2024-06-25 | International Business Machines Corporation | Image encryption |
Also Published As
Publication number | Publication date |
---|---|
CN112351151B (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112351151B (zh) | 基于fcn的图像信息加密方法及装置 | |
CN110139000B (zh) | 基于压缩感知和生命游戏置乱的图像压缩加密方法 | |
Huang et al. | Colour image encryption based on logistic mapping and double random‐phase encoding | |
Zhou et al. | Quantum image encryption based on generalized Arnold transform and double random-phase encoding | |
Lin et al. | Invertible secret image sharing with steganography | |
Chen et al. | Compression-unimpaired batch-image encryption combining vector quantization and index compression | |
Dolendro Singh et al. | Visually meaningful multi-image encryption scheme | |
CN104751401B (zh) | 一种新型的分段线性混沌映射图像加密与编码方法 | |
CN108199828B (zh) | 一种彩色图片加密方法及装置 | |
Boussif et al. | Securing DICOM images by a new encryption algorithm using Arnold transform and Vigenère cipher | |
CN107330338B (zh) | 基于双混沌交叉扩散的彩色图像加密和解密方法及系统 | |
CN110519037B (zh) | 超混沌伪随机序列的图像加密方法 | |
CN111800251A (zh) | 基于混沌源的图像压缩感知加密、解密方法、装置及系统 | |
Xiao-Qing et al. | A plaintext-related image encryption algorithm based on compressive sensing and a novel hyperchaotic system | |
CN110120079A (zh) | 基于三维Logistic映射和广义Cat映射彩色图像加密方法 | |
Liu et al. | Securely compressive sensing using double random phase encoding | |
Kanwal et al. | A new image encryption technique based on sine map, chaotic tent map, and circulant matrices | |
Huang et al. | Novel and secure plaintext‐related image encryption algorithm based on compressive sensing and tent‐sine system | |
CN112949741A (zh) | 基于同态加密的卷积神经网络图像分类方法 | |
Xie et al. | An image encryption algorithm based on novel block scrambling scheme and Josephus sequence generator | |
Fawaz et al. | Securing JPEG-2000 images in constrained environments: a dynamic approach | |
Rebollo-Neira et al. | Self-contained encrypted image folding | |
CN113973161B (zh) | 基于深度学习的压缩感知与混沌系统的图像加密方法 | |
Chiu et al. | An XOR-based progressive visual cryptography with meaningful shares | |
CN115134471A (zh) | 图像加密、解密方法以及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |