CN112351151A - 基于fcn的图像信息加密方法及装置 - Google Patents

基于fcn的图像信息加密方法及装置 Download PDF

Info

Publication number
CN112351151A
CN112351151A CN202011246286.3A CN202011246286A CN112351151A CN 112351151 A CN112351151 A CN 112351151A CN 202011246286 A CN202011246286 A CN 202011246286A CN 112351151 A CN112351151 A CN 112351151A
Authority
CN
China
Prior art keywords
image
preset
neural network
vector
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011246286.3A
Other languages
English (en)
Other versions
CN112351151B (zh
Inventor
陈达权
黄运保
李海艳
曾昭恒
黄智彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202011246286.3A priority Critical patent/CN112351151B/zh
Publication of CN112351151A publication Critical patent/CN112351151A/zh
Application granted granted Critical
Publication of CN112351151B publication Critical patent/CN112351151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • H04N1/32272Encryption or ciphering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于FCN的图像信息加密方法及装置,涉及加密端和解密端,方法包括:通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。

Description

基于FCN的图像信息加密方法及装置
技术领域
本发明涉及信息安全技术领域,尤其涉及一种基于FCN的图像信息加密方法及装置。
背景技术
随着互联网技术的成熟和广泛使用,人们的信息交流方式同样变得越发便捷。随着用户数据在网络上的不停传输和交互,在信息交流便捷化的同时也带来了隐私信息泄露的安全隐患。
而加密是防止信息传输过程中信息泄露所采取的主要安全保密措施,是最常用的安全保密手段。加密的基本思想是利用诸如算法等一些技术方法把重要的数据变为乱码以进行加密传送,到达目的地后再用相同或不同的手段进行还原解密。
传统的信息传输方法通常是通过密钥进行加解密的方式进行信息传输,加密程度较低,如果密钥被攻击者获取的话,加密信息就很容易被攻击者所窃取,安全性较低。
发明内容
本发明提供了一种基于FCN的图像信息加密方法、系统、设备和存储介质,解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
通过所述加密端获取待加密图像Ma
通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
可选地,所述模型训练过程包括:
采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
以均匀分布随机方式创建多个尺寸为
Figure BDA0002770147360000021
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;其中,Nen和m均为整数,0≤m≤255;
采用多个已标定训练样本分别组成训练集和测试集;
采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括以下步骤S1-S6:
步骤S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
步骤S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
步骤S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
步骤S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
步骤S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
步骤S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
可选地,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure BDA0002770147360000031
Figure BDA0002770147360000032
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb的步骤,包括:
按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure BDA0002770147360000033
其中
Figure BDA0002770147360000034
Figure BDA0002770147360000035
Nx、M和Ny均为正整数,
Figure BDA0002770147360000036
M≥1;
将所述向量
Figure BDA0002770147360000037
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure BDA0002770147360000038
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
采用所述向量
Figure BDA0002770147360000039
组成尺寸为M×Ny的矩阵
Figure BDA00027701473600000310
Figure BDA00027701473600000311
按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure BDA00027701473600000312
Figure BDA00027701473600000313
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure BDA0002770147360000041
Figure BDA0002770147360000042
将所述矩阵V″作为分辨率M×M的压缩图像
Figure BDA0002770147360000043
可选地,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为
Figure BDA0002770147360000044
Figure BDA0002770147360000045
所述通过所述解密端采用预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me的步骤,包括:
按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure BDA0002770147360000046
Figure BDA0002770147360000047
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure BDA0002770147360000048
Figure BDA0002770147360000049
按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure BDA0002770147360000051
其中,
Figure BDA0002770147360000052
Figure BDA0002770147360000053
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述向量
Figure BDA0002770147360000054
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure BDA0002770147360000055
将所述最优化解向量
Figure BDA0002770147360000056
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure BDA0002770147360000057
采用所述向量
Figure BDA0002770147360000058
组合成尺寸为Nx×Ny的矩阵
Figure BDA0002770147360000059
Figure BDA00027701473600000510
将所述矩阵T′作为目标图像Me
本发明还提供了一种基于FCN的图像信息加密装置,包括加密端和解密端,所述加密端包括:
待加密图像获取模块,用于获取待加密图像Ma
压缩图像生成模块,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
加密图像生成模块,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
加密数据构建模块,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端包括:
解码模块,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
目标图像生成模块,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
可选地,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
已标定训练样本生成子模块,用于以均匀分布随机方式创建多个尺寸为
Figure BDA0002770147360000061
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;其中,Nen和m均为整数,0≤m≤255;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
可选地,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure BDA0002770147360000071
Figure BDA0002770147360000072
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述压缩图像生成模块包括:
第一向量分解子模块,用于按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure BDA0002770147360000073
其中
Figure BDA0002770147360000074
Figure BDA0002770147360000075
Nx、M和Ny均为正整数,
Figure BDA0002770147360000076
M≥1;
第一代入子模块,用于将所述向量
Figure BDA0002770147360000077
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure BDA0002770147360000078
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
第一组成子模块,用于采用所述向量
Figure BDA0002770147360000079
组成尺寸为M×Ny的矩阵
Figure BDA00027701473600000710
第二向量分解子模块,用于按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure BDA00027701473600000711
Figure BDA00027701473600000712
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第二组成子模块,用于采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure BDA0002770147360000081
第一生成子模块,用于将所述矩阵V″作为分辨率M×M的压缩图像
Figure BDA0002770147360000082
Figure BDA0002770147360000083
可选地,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为
Figure BDA0002770147360000084
Figure BDA0002770147360000085
所述目标图像生成模块包括:
第三向量分解子模块,用于按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure BDA0002770147360000086
Figure BDA0002770147360000087
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
第三组成子模块,用于采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure BDA0002770147360000088
第四向量分解子模块,用于按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure BDA0002770147360000089
其中,
Figure BDA00027701473600000810
Figure BDA0002770147360000091
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
第二求解子模块,用于将所述向量
Figure BDA0002770147360000092
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure BDA0002770147360000093
第四代入子模块,用于将所述最优化解向量
Figure BDA0002770147360000094
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure BDA0002770147360000095
第四组成子模块,用于采用所述向量
Figure BDA0002770147360000096
组合成尺寸为Nx×Ny的矩阵
Figure BDA0002770147360000097
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me
从以上技术方案可以看出,本发明具有以下优点:
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图;
图2为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图;
图3为本发明实施例中传输加密数据Ti的流程示意图;
图4为本发明实施例提供的一种基于FCN的图像信息加密系统的结构框图。
具体实施方式
本发明实施例提供了一种基于FCN的图像信息加密方法、系统、设备和存储介质,用于解决现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
步骤101,通过所述加密端获取待加密图像Ma
值得一提的是,待加密图像可以为单通道图像,也可以为多通道图像,例如三通道图像,本发明实施例对此不作限制。
步骤102,通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
步骤103,通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
步骤104,通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
步骤105,通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
步骤106,通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
请参阅图2,图2为本发明实施例提供的一种基于FCN的图像信息加密方法的步骤流程图。
本发明提供的一种基于FCN的图像信息加密方法,涉及加密端和解密端,所述方法包括:
步骤201,通过预置的模型训练过程生成目标全卷积神经网络模型;
在本发明实施例中,所述步骤201可以包括以下子步骤:
采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
以均匀分布随机方式创建多个尺寸为
Figure BDA0002770147360000111
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;
采用多个已标定训练样本分别组成训练集和测试集;
采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
在本发明实施例中,其中,Nen和m均为整数,0≤m≤255;可以在事先以均匀分布随机方式产生一张尺寸为
Figure BDA0002770147360000121
的灰度图作为一个样本数据Va,其中h为整数可根据具体应用场景而具体设置,灰度图中每一个像素的像素值均为取值范围在0到255的整数,以Va自身作为样本数据Va的已标定输出数据,则获得一个样本数据Va1。重复上述步骤k次后,获得k个样本数据Va1,Va2,Va3,…,Vak,其中k为整数且可根据具体应用场景而具体设置。将k个样本数据Va1,Va2,Va3,…,Vak组成所述训练数据集。
可选地,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括步骤S1-S6:
步骤S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
步骤S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
步骤S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
步骤S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
步骤S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
步骤S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
参加图3,在具体实现中,初始全卷积神经网络模型可以包括编码网络模型和解码网络模型,编码网络模型包括卷积模块,解码网络模型包括反卷积模块。其中,所述卷积模块的第一层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第二层为激励层,第三层为卷积层,卷积核尺寸均为3×3,padding的像素数均为1,第四层为激励层,第五层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第六层为激励层,第七层为最大池化层,池化层的步长为2,其中所有卷积层的步长均为1,所有激励层的激活函数均为ReLU;所述编码网络模型的卷积模块堆叠个数为Nen,输入层(第一层)的尺寸为nx×ny,所有卷积层的卷积核数量为整数且可根据具体应用场景而具体设置;
创建反卷积模块,所述反卷积模块的第一层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第二层为激励层,第三层为卷积层,卷积核尺寸均为3×3,padding的像素数均为1,第四层为激励层,第五层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第六层为激励层,第七层为反卷积层,卷积核尺寸均为2×2,padding的像素数均为0,步长为2,第八层为卷积层,卷积核尺寸均为1×1,padding的像素数均为0,第九层为激励层,其中所有卷积层的步长均为1,所有激励层的激活函数均为ReLU;所述解码网络模型的反卷积模块堆叠个数为Nde,输出层(最后一层)的尺寸为nx×ny且卷积核数量与所述编码网络模型的输入层(第一层)的通道数一样,
Figure BDA0002770147360000131
Nen、Nde、nx、ny、T均为整数且可根据具体应用场景而具体设置;
在本发明实施例中,可以通过选用binary_crossentropy损失函数或平方差函数等损失函数计算初始输出数据和已标定输出数据之间的误差,训练算法可以选取贝叶斯正则化算法或动量梯度下降或Adam等算法,多个初始参数可以利用高斯分布随机数仅初始化,训练次数阈值可以根据实际情况进行设置,预定误差阈值可以设置为零,或者根据具体应用场景进行设置,本发明实施例对此不作限制。
参见图3,图3示出了本发明实施例中传输加密数据Ti的流程示意图,此处的全卷积神经网络模块的编码网络模型为编码部分网络,解码网络模型为解码部分网络,通过编码部分网络输入层Input接收到3通道的尺寸为100*100的图像后,经卷积模块进行加密后输出密文(即加密数据Ti),当解码部分网络接收到密文后,经反卷积模块进行解密,在输出层Output生成3通道100*100的目标图像。
步骤202,通过所述加密端获取待加密图像Ma
步骤203,通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
可选地,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure BDA0002770147360000141
Figure BDA0002770147360000142
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述步骤203可以包括以下子步骤:
按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure BDA0002770147360000143
其中
Figure BDA0002770147360000144
Figure BDA0002770147360000145
Nx、M和Ny均为正整数,
Figure BDA0002770147360000146
M≥1;
将所述向量
Figure BDA0002770147360000147
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure BDA0002770147360000148
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
采用所述向量
Figure BDA0002770147360000149
组成尺寸为M×Ny的矩阵
Figure BDA00027701473600001410
Figure BDA00027701473600001411
按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure BDA00027701473600001412
Figure BDA00027701473600001413
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure BDA00027701473600001414
Figure BDA0002770147360000151
络模型的编码网络部分,生成加密图像Mc
步骤205,通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
其中,所述加密数据可以按照W,V,W',V',加密图像的顺序传输至目标接收端,或对密文进行存储,本发明实施例对此不作限制。
步骤206,通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
步骤207,通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
可选地,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为Md
Figure BDA0002770147360000152
所述步骤207可以包括以下子步骤:
按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure BDA0002770147360000153
Figure BDA0002770147360000154
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure BDA0002770147360000161
Figure BDA0002770147360000162
按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure BDA0002770147360000163
其中,
Figure BDA0002770147360000164
Figure BDA0002770147360000165
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述向量
Figure BDA0002770147360000166
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure BDA0002770147360000167
将所述最优化解向量
Figure BDA0002770147360000168
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure BDA0002770147360000169
采用所述向量
Figure BDA00027701473600001610
组合成尺寸为Nx×Ny的矩阵
Figure BDA00027701473600001611
Figure BDA00027701473600001612
将所述矩阵T′作为目标图像Me
可选地,若是需要更换目标全卷积神经网络模型的参数,可以通过以下步骤实现:
获得k′个已标定训练数据样本V′a1,V′a2,V′a3,…,V′ak′,将k′个已标定训练数据样本V′a1,V′a2,V′a3,…,V′ak′组成所述全卷积神经网络模型的训练集P′,同时将所述全卷积神经网络模型的测试集Q′设置为训练集P′,其中k′为整数且可根据具体应用场景而具体设置。
以随机的方式选取训练完成的全卷积神经网络模型的所有参数中的
Figure BDA0002770147360000171
倍个参数,并将选出的参数设置为原来的
Figure BDA0002770147360000172
倍,其中R、r均为整数且可根据具体应用场景而具体设置。
从所述训练集P′中依次选取一个所述已标定训练数据样本输入到所述全卷积神经网络模型,按照前向传播的公式计算相应的模型输出;按照误差公式计算出该所述训练数据样本输入到所述全卷积神经网络模型后的模型输出和该所述训练数据样本之间的误差,并按照反向传播算法调节更新所述全卷积神经网络模型所有参数。
所述训练集P′中所有已标定训练数据样本均输入所述全卷积神经网络模型进行训练后,利用测试集Q′计算整体误差X,若整体误差X>目标整体错误率x,则跳转到步骤N并继续执行步骤N及步骤O,直至整体误差X<=目标整体错误率x,或跳转到步骤N的次数达到最大训练次数T,所述全卷积神经网络模型训练完成,即所述训练完成的全卷积神经网络模型的参数变更完成。
本发明通过预置的模型训练过程生成目标全卷积神经网络模型,通过加密端获取待加密图像Ma;采用预设图像压缩参数对待加密图像Ma进行图像压缩,生成压缩图像Mb;将压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc;采用加密图像Mc、预设图像压缩参数和预设图像还原参数,构建加密数据并发送到解密端;通过解密端接收加密数据并采用目标全卷积神经网络模型的解码网络部分进行解码,生成解密图像Md;采用预设图像还原参数对解密图像Md进行图像还原,生成目标图像Me。该方法解决了现有技术中由于密钥加密程度较低,导致信息传输的安全性较低的技术问题,提高信息传输的安全性。
参见图4,图4示出了本发明实施例中的一种基于FCN的图像信息加密装置的结构框图。
本发明实施例提供的一种基于FCN的图像信息加密装置,包括加密端401和解密端402,所述加密端401包括:
待加密图像获取模块4011,用于获取待加密图像Ma
压缩图像生成模块4012,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
加密图像生成模块4013,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
加密数据构建模块4014,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端402包括:
解码模块4021,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
目标图像生成模块4022,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
可选地,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
已标定训练样本生成子模块,用于以均匀分布随机方式创建多个尺寸为
Figure BDA0002770147360000181
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;其中,Nen和m均为整数,0≤m≤255;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
可选地,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
可选地,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure BDA0002770147360000191
Figure BDA0002770147360000192
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述压缩图像生成模块4012包括:
第一向量分解子模块,用于按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure BDA0002770147360000193
其中
Figure BDA0002770147360000194
Figure BDA0002770147360000195
Nx、M和Ny均为正整数,
Figure BDA0002770147360000196
M≥1;
第一代入子模块,用于将所述向量
Figure BDA0002770147360000197
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure BDA0002770147360000198
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
第一组成子模块,用于采用所述向量
Figure BDA0002770147360000199
组成尺寸为M×Ny的矩阵
Figure BDA00027701473600001910
第二向量分解子模块,用于按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure BDA0002770147360000201
Figure BDA0002770147360000202
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第二组成子模块,用于采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure BDA0002770147360000203
第一生成子模块,用于将所述矩阵V″作为分辨率M×M的压缩图像
Figure BDA0002770147360000204
Figure BDA0002770147360000205
可选地,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为
Figure BDA0002770147360000206
Figure BDA0002770147360000207
所述目标图像生成模块4022包括:
第三向量分解子模块,用于按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure BDA0002770147360000208
Figure BDA0002770147360000209
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
第三组成子模块,用于采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure BDA0002770147360000211
第四向量分解子模块,用于按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure BDA0002770147360000212
其中,
Figure BDA0002770147360000213
Figure BDA0002770147360000214
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
第二求解子模块,用于将所述向量
Figure BDA0002770147360000215
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure BDA0002770147360000216
第四代入子模块,用于将所述最优化解向量
Figure BDA0002770147360000217
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure BDA0002770147360000218
第四组成子模块,用于采用所述向量
Figure BDA0002770147360000219
组合成尺寸为Nx×Ny的矩阵
Figure BDA00027701473600002110
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于FCN的图像信息加密方法,其特征在于,涉及加密端和解密端,所述方法包括:
通过所述加密端获取待加密图像Ma
通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
通过所述加密端将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
通过所述加密端采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
通过所述解密端接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
通过所述解密端采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练过程生成。
2.根据权利要求1所述的方法,其特征在于,所述模型训练过程包括:
采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
以均匀分布随机方式创建多个尺寸为
Figure FDA0002770147350000011
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;其中,Nen和m均为整数,0≤m≤255;
采用多个已标定训练样本分别组成训练集和测试集;
采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型的步骤,包括步骤S1-S6:
S1、从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出;
S2、按照预置误差公式计算所述模型输出与所述训练样本之间的误差;
S3、按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数;
S4、当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差;
S5、若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型;
S6、若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure FDA0002770147350000021
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述通过所述加密端采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb的步骤,包括:
按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure FDA0002770147350000022
其中
Figure FDA0002770147350000023
Figure FDA0002770147350000024
Nx、M和Ny均为正整数,
Figure FDA0002770147350000025
M≥1;
将所述向量
Figure FDA0002770147350000026
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure FDA0002770147350000027
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
采用所述向量
Figure FDA0002770147350000028
组成尺寸为M×Ny的矩阵
Figure FDA0002770147350000029
Figure FDA00027701473500000210
按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure FDA0002770147350000031
Figure FDA0002770147350000032
将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure FDA0002770147350000033
Figure FDA0002770147350000034
将所述矩阵V″作为分辨率M×M的压缩图像
Figure FDA0002770147350000035
5.根据权利要求4所述的方法,其特征在于,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为
Figure FDA0002770147350000036
所述通过所述解密端采用预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像的步骤,包括:
按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure FDA0002770147350000037
Figure FDA0002770147350000038
构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure FDA0002770147350000041
Figure FDA0002770147350000042
按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure FDA0002770147350000043
其中,
Figure FDA0002770147350000044
Figure FDA0002770147350000045
构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
将所述向量
Figure FDA0002770147350000046
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure FDA0002770147350000047
将所述最优化解向量
Figure FDA0002770147350000048
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure FDA0002770147350000049
采用所述向量
Figure FDA00027701473500000410
组合成尺寸为Nx×Ny的矩阵
Figure FDA00027701473500000411
Figure FDA00027701473500000412
将所述矩阵T′作为目标图像Me
6.一种基于FCN的图像信息加密装置,其特征在于,包括加密端和解密端,所述加密端包括:
待加密图像获取模块,用于获取待加密图像Ma
压缩图像生成模块,用于采用预设图像压缩参数对所述待加密图像Ma进行图像压缩,生成压缩图像Mb
加密图像生成模块,用于将所述压缩图像Mb输入到目标全卷积神经网络模型的编码网络部分,生成加密图像Mc
加密数据构建模块,用于采用所述加密图像Mc、所述预设图像压缩参数和预设图像还原参数,构建加密数据并发送到所述解密端;
所述解密端包括:
解码模块,用于接收所述加密数据并采用所述目标全卷积神经网络模型的解码网络部分进行解码,生成所述解密图像Md
目标图像生成模块,用于采用所述预设图像还原参数对所述解密图像Md进行图像还原,生成目标图像Me
其中,所述目标全卷积神经网络模型通过预置的模型训练模块生成。
7.根据权利要求6所述的装置,其特征在于,所述模型训练模块包括:
模型初始化子模块,用于采用预置卷积模块构建预置的初始全卷积神经网络模型的编码网络部分,采用预置反卷积模块构建所述初始全卷积神经网络模型的解码网络部分,并采用高斯分布随机数初始化所述初始全卷积神经网络模型的所有模型参数;
已标定训练样本生成子模块,用于以均匀分布随机方式创建多个尺寸为
Figure FDA0002770147350000051
的灰度图作为训练样本并进行标定,生成多个已标定训练样本;其中,Nen和m均为整数,0≤m≤255;
集合构建子模块,用于采用多个已标定训练样本分别组成训练集和测试集;
训练子模块,用于采用所述训练集训练所述初始全卷积神经网络模型,得到目标全卷积神经网络模型。
8.根据权利要求7所述的装置,其特征在于,所述训练子模块包括:
模型输出单元,用于执行从所述训练集中依次选取所述已标定训练样本输入到所述初始全卷积神经网络模型,按照预置前向传播公式计算所述初始全卷积神经网络模型的模型输出的步骤S1;
误差计算单元,用于执行按照预置误差公式计算所述模型输出与所述训练样本之间的误差的步骤S2;
参数调整单元,用于执行按照预置反向传播算法调整所述所述初始全卷积神经网络模型的所有模型参数的步骤S3;
整体误差计算单元,用于执行当所述训练集的全部所述已标定训练样本都输入到所述初始全卷积神经网络模型后,采用所述测试集计算所述初始全卷积神经网络模型的整体误差的步骤S4;
第一模型确定单元,用于执行若所述整体误差小于或等于预设整体错误率,则将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S5;
第二模型确定单元,用于执行若所述整体误差大于所述预设整体错误率,则重复执行步骤S1-S5,直至重复次数达到预设最大训练次数,将所述初始全卷积神经网络模型作为所述目标全卷积神经网络模型的步骤S6。
9.根据权利要求6所述的装置,其特征在于,所述待加密图像Ma的分辨率为Nx×Ny,矩阵形式为
Figure FDA0002770147350000061
所述预设图像压缩参数包括压缩数M、第一预设高斯随机矩阵V、第二预设高斯随机矩阵V′,所述压缩图像生成模块包括:
第一向量分解子模块,用于按列为基准将所述待加密图像Ma分解为Ny个包含Nx个元素的向量
Figure FDA0002770147350000062
其中
Figure FDA0002770147350000063
Figure FDA0002770147350000064
Nx、M和Ny均为正整数,
Figure FDA0002770147350000065
M≥1;
第一代入子模块,用于将所述向量
Figure FDA0002770147350000066
分别代入到第一预设公式u=V·s中的s,得到Ny个向量
Figure FDA0002770147350000067
其中,V为尺寸为M×Nx的第一预设高斯随机矩阵;
第一组成子模块,用于采用所述向量
Figure FDA0002770147350000068
组成尺寸为M×Ny的矩阵
Figure FDA0002770147350000069
第二向量分解子模块,用于按行为基准将所述矩阵U分解为M个包含Ny个元素的向量s′1,s′2,s′3,…,s′M;其中
Figure FDA0002770147350000071
Figure FDA0002770147350000072
第二代入子模块,用于将所述向量s′1,s′2,s′3,…,s′M分别代入到第二预设公式v=V′·s′中的s′得到向量v1,v2,v3,…,vM;其中,V′为尺寸为M×Ny的第二预设高斯随机矩阵;
第二组成子模块,用于采用所述向量v1,v2,v3,…,vM组成尺寸为M×M的矩阵
Figure FDA0002770147350000073
第一生成子模块,用于将所述矩阵V″作为分辨率M×M的压缩图像
Figure FDA0002770147350000074
Figure FDA0002770147350000075
10.根据权利要求9所述的装置,其特征在于,所述预设图像还原参数包括第一预设短时傅里叶变换矩阵W和第二预设短时傅里叶矩阵W′,所述解密图像Md的矩阵表示为
Figure FDA0002770147350000076
所述目标图像生成模块包括:
第三向量分解子模块,用于按行为基准将所述解密图像Md分解为M个包含M个元素的向量v′1,v′2,v′3,…,v′M,其中
Figure FDA0002770147350000077
Figure FDA0002770147350000078
第一构建子模块,用于构建第一转换矩阵R′=V′·W′;其中,W′为尺寸为Ny×Ny的第二预设短时傅里叶矩阵;
第一求解子模块,用于将所述向量v′1,v′2,v′3,…,v′M依次代入到第三预设公式y=R′·x中的y,采用预设的两步软阈值迭代算法求解,以以x的L1范数最小化为优化目标的未知数x的最优解,得到最优化解向量x′1,x′2,x′3,…,x′M
第三代入子模块,用于将所述最优化解向量x′1,x′2,x′3,…,x′M依次代入到第四预设公式t=W′·d中的d,得到向量t1,t2,t3,…,tM
第三组成子模块,用于采用所述向量t1,t2,t3,…,tM组合成尺寸为M×Ny的矩阵
Figure FDA0002770147350000081
第四向量分解子模块,用于按列为基准将所述矩阵T分解为Ny个包含M个元素的向量
Figure FDA0002770147350000082
其中,
Figure FDA0002770147350000083
Figure FDA0002770147350000084
第二构建子模块,用于构建第二转换矩阵R=V·W;其中,W为尺寸为Nx×Nx的第二预设短时傅里叶矩阵;
第二求解子模块,用于将所述向量
Figure FDA0002770147350000085
依次代入到第五预设公式y′=R·x′中的y′,并预设的两步软阈值迭代算法求解,以x′的L1范数最小化为优化目标的未知数x′的最优解,得到最优化解向量
Figure FDA0002770147350000086
第四代入子模块,用于将所述最优化解向量
Figure FDA0002770147350000087
依次代入到第六预设公式t′=W·d′中的d′,得到向量
Figure FDA0002770147350000088
第四组成子模块,用于采用所述向量
Figure FDA0002770147350000089
组合成尺寸为Nx×Ny的矩阵
Figure FDA00027701473500000810
目标图像生成子模块,用于将所述矩阵T′作为目标图像Me
CN202011246286.3A 2020-11-10 2020-11-10 基于fcn的图像信息加密方法及装置 Active CN112351151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011246286.3A CN112351151B (zh) 2020-11-10 2020-11-10 基于fcn的图像信息加密方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011246286.3A CN112351151B (zh) 2020-11-10 2020-11-10 基于fcn的图像信息加密方法及装置

Publications (2)

Publication Number Publication Date
CN112351151A true CN112351151A (zh) 2021-02-09
CN112351151B CN112351151B (zh) 2022-09-16

Family

ID=74363170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011246286.3A Active CN112351151B (zh) 2020-11-10 2020-11-10 基于fcn的图像信息加密方法及装置

Country Status (1)

Country Link
CN (1) CN112351151B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113037781A (zh) * 2021-04-29 2021-06-25 广东工业大学 基于rnn的语音信息加密方法及装置
CN114117514A (zh) * 2021-10-29 2022-03-01 香港理工大学深圳研究院 一种基于光学散斑的加密人脸识别方法和系统
US12019767B2 (en) 2022-04-07 2024-06-25 International Business Machines Corporation Image encryption

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105830134A (zh) * 2013-12-16 2016-08-03 来特荣国际有限公司 面向加密通信的图像压缩扩展方法及装置、程序以及存储介质
US20190087689A1 (en) * 2017-09-15 2019-03-21 NovuMind Limited Methods and processes of encrypted deep learning services
CN109614907A (zh) * 2018-11-28 2019-04-12 安徽大学 基于特征强化引导卷积神经网络的行人再识别方法及装置
CN110378138A (zh) * 2019-07-22 2019-10-25 上海鹰瞳医疗科技有限公司 数据加密、解密方法和神经网络训练方法及设备
CN110675326A (zh) * 2019-07-24 2020-01-10 西安理工大学 基于U-Net网络的计算鬼成像重建恢复的方法
CN111709867A (zh) * 2020-06-10 2020-09-25 四川大学 基于新型全卷积网络的等模矢量分解图像加密分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105830134A (zh) * 2013-12-16 2016-08-03 来特荣国际有限公司 面向加密通信的图像压缩扩展方法及装置、程序以及存储介质
US20190087689A1 (en) * 2017-09-15 2019-03-21 NovuMind Limited Methods and processes of encrypted deep learning services
CN109614907A (zh) * 2018-11-28 2019-04-12 安徽大学 基于特征强化引导卷积神经网络的行人再识别方法及装置
CN110378138A (zh) * 2019-07-22 2019-10-25 上海鹰瞳医疗科技有限公司 数据加密、解密方法和神经网络训练方法及设备
CN110675326A (zh) * 2019-07-24 2020-01-10 西安理工大学 基于U-Net网络的计算鬼成像重建恢复的方法
CN111709867A (zh) * 2020-06-10 2020-09-25 四川大学 基于新型全卷积网络的等模矢量分解图像加密分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱泽烁: "基于深度学习的虹膜图像加密算法", 《数码世界》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113037781A (zh) * 2021-04-29 2021-06-25 广东工业大学 基于rnn的语音信息加密方法及装置
CN114117514A (zh) * 2021-10-29 2022-03-01 香港理工大学深圳研究院 一种基于光学散斑的加密人脸识别方法和系统
US12019767B2 (en) 2022-04-07 2024-06-25 International Business Machines Corporation Image encryption

Also Published As

Publication number Publication date
CN112351151B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN112351151B (zh) 基于fcn的图像信息加密方法及装置
CN110139000B (zh) 基于压缩感知和生命游戏置乱的图像压缩加密方法
Huang et al. Colour image encryption based on logistic mapping and double random‐phase encoding
Zhou et al. Quantum image encryption based on generalized Arnold transform and double random-phase encoding
Lin et al. Invertible secret image sharing with steganography
Chen et al. Compression-unimpaired batch-image encryption combining vector quantization and index compression
Dolendro Singh et al. Visually meaningful multi-image encryption scheme
CN104751401B (zh) 一种新型的分段线性混沌映射图像加密与编码方法
CN108199828B (zh) 一种彩色图片加密方法及装置
Boussif et al. Securing DICOM images by a new encryption algorithm using Arnold transform and Vigenère cipher
CN107330338B (zh) 基于双混沌交叉扩散的彩色图像加密和解密方法及系统
CN110519037B (zh) 超混沌伪随机序列的图像加密方法
CN111800251A (zh) 基于混沌源的图像压缩感知加密、解密方法、装置及系统
Xiao-Qing et al. A plaintext-related image encryption algorithm based on compressive sensing and a novel hyperchaotic system
CN110120079A (zh) 基于三维Logistic映射和广义Cat映射彩色图像加密方法
Liu et al. Securely compressive sensing using double random phase encoding
Kanwal et al. A new image encryption technique based on sine map, chaotic tent map, and circulant matrices
Huang et al. Novel and secure plaintext‐related image encryption algorithm based on compressive sensing and tent‐sine system
CN112949741A (zh) 基于同态加密的卷积神经网络图像分类方法
Xie et al. An image encryption algorithm based on novel block scrambling scheme and Josephus sequence generator
Fawaz et al. Securing JPEG-2000 images in constrained environments: a dynamic approach
Rebollo-Neira et al. Self-contained encrypted image folding
CN113973161B (zh) 基于深度学习的压缩感知与混沌系统的图像加密方法
Chiu et al. An XOR-based progressive visual cryptography with meaningful shares
CN115134471A (zh) 图像加密、解密方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant