CN112734622B - 一种基于Tucker分解的图像隐写分析方法及终端 - Google Patents
一种基于Tucker分解的图像隐写分析方法及终端 Download PDFInfo
- Publication number
- CN112734622B CN112734622B CN202110337203.XA CN202110337203A CN112734622B CN 112734622 B CN112734622 B CN 112734622B CN 202110337203 A CN202110337203 A CN 202110337203A CN 112734622 B CN112734622 B CN 112734622B
- Authority
- CN
- China
- Prior art keywords
- model
- image
- steganalysis
- image steganalysis
- tucker decomposition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000004458 analytical method Methods 0.000 claims abstract description 30
- 238000010845 search algorithm Methods 0.000 claims abstract description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 16
- 238000012795 verification Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000010200 validation analysis Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 4
- 230000006798 recombination Effects 0.000 description 4
- 238000005215 recombination Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/44—Secrecy systems
- H04N1/4446—Hiding of documents or document information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于Tucker分解的图像隐写分析方法及终端,所述方法包括:利用数据集进行训练得到初始图像隐写分析模型;利用预设的搜索算法对初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型并进行训练,选取性能最好的图像隐写分析模型进行图像隐写分析,判断输入的图像为载体图像还是携带有隐秘信息的隐写图像。本发明通过Tucker分解将初始图像隐写分析模型中的一个卷积层分解成三个轻量级的卷积层组成的卷积组,以达到降低模型参数量以及计算量的目的。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于Tucker分解的图像隐写分析方法及终端。
背景技术
图像隐写是信息隐藏技术的一个分支,利用了人类感官系统对于冗余信息不敏感的特点,将信息隐藏到冗余信息中依靠图像为传输载体的方式传递秘密信息。
现代隐写术通过对运输载体进行轻小改变,在人眼无法察觉到变化的前提下将隐密信息隐藏在可公开的数字媒体中进行传送,掩盖真正的通信目的和通信发生的事实,从而实现隐密通信。而与之相对的就是隐写分析,它的功能是检测隐藏在正常载体中的掩密载体。现在随着深度学习的引入,隐写分析发展速度变快,但是深度神经网络所具有的参数量巨大等弊端使得模型部署在移动终端变得困难。
因此,现有技术还有待于改进和发展。
发明内容
本发明的主要目的在于提供一种基于Tucker分解的图像隐写分析方法及终端,旨在解决现有技术中传统的深度神经网络隐写分析模型计算量大,需求内存多的问题。
为实现上述目的,本发明提供一种基于Tucker分解的图像隐写分析方法,所述基于Tucker分解的图像隐写分析方法包括如下步骤:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型;
利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;
根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型;
利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像;
其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型,具体包括:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,根据相同的训练参数来训练生成的数据集,保存每一个迭代的验证集的准确率,并选取准确率最高的模型作为初始图像隐写分析模型。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数,具体包括:
对所述初始图像隐写分析模型中的各个卷积层进行分别的搜索,每一层设定一个模型失真阈值;
当搜索到分解的模型失真度超过当前设定的模型失真阈值时,将当前搜索到的输入通道数和输出通道数作为当前层分解后核心张量的输入通道数和输出通道数。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述对所述初始图像隐写分析模型中的各个卷积层进行分别的搜索,每一层设定一个模型失真阈值,具体包括:
将所述初始图像隐写分析模型的输入通道数和输出通道数作为搜索的初始值,对输入通道数和输出通道数进行减一操作,将每次减完的结果作为Tucker分解参数进行分解,直到当前分解的模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数相等,将当前结构的模型定义为圆筒形图像隐写分析模型;
将所述圆筒形图像隐写分析模型的各个卷积层的输入通道数和输出通道数作为下一步搜索的初始值,对输入通道数和输出通道数分别执行加一减一操作,直到当前模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数不相等,将当前结构的模型定义为梯形图像隐写分析模型。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述模型失真度具体定义为:
假设搜索过程搜索到第l个卷积层,将多张图像输入到初始图像隐写分析模型和新的图像隐写分析模型中,初始图像隐写分析模型输出第l卷积层经过正则化后的特征图,新的图像隐写分析模型对应层输出的经过正则化后的特征,则模型失真度的计算公式为:,其中表示矩阵的欧氏范数;
其中,所使用的多张图像是从数据集中随机选取的原始图像。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型,具体包括:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集对新的图像隐写分析模型进行初始化训练;
保留验证集正确率最高的模型即为性能最好的图像隐写分析模型。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述数据集包括训练集、验证集和测试集。
可选地,所述的基于Tucker分解的图像隐写分析方法,其中,所述梯形图像隐写分析模型的模型参数少于所述圆筒形图像隐写分析模型的模型参数。
此外,为实现上述目的,本发明还提供一种终端,其中,所述终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于Tucker分解的图像隐写分析程序,所述基于Tucker分解的图像隐写分析程序被所述处理器执行时实现如上所述的基于Tucker分解的图像隐写分析方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有基于Tucker分解的图像隐写分析程序,所述基于Tucker分解的图像隐写分析程序被处理器执行时实现如上所述的基于Tucker分解的图像隐写分析方法的步骤。
本发明通过利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型;利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型;利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像;其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。本发明通过Tucker分解将初始图像隐写分析模型中的一个卷积层分解成三个轻量级的卷积层组成的卷积组,以达到降低模型参数量以及计算量的目的。
附图说明
图1是本发明基于Tucker分解的图像隐写分析方法的较佳实施例的流程图;
图2是本发明基于Tucker分解的图像隐写分析方法的较佳实施例中Tucker分解后的卷积示意图;
图3为本发明终端的较佳实施例的运行环境示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明较佳实施例所述的基于Tucker分解的图像隐写分析方法,如图1所示,所述基于Tucker分解的图像隐写分析方法包括以下步骤:
步骤S10、利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型。
具体地,利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,根据相同的训练参数来训练生成的数据集,保存每一个迭代(Epoch)的验证集的准确率,并选取准确率最高的模型作为初始图像隐写分析模型。
其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。所述数据集包括训练集、验证集和测试集。
例如,在本示例选取的数据集为Bossbase1.01以及BOWS2(数据集的专有名称,这是第一个数据集,是由这两个组成的联合数据集,后面有说到第二个数据集,是alaskav2)组成的联合数据集,生成对应隐写图像使用的嵌入算法为JUNIWARD,嵌入率为0.4bpnzAZ,质量因子为75。该联合数据集共有20000张图像,其中所有的图像都为灰度图像,大小均为256×256。训练时选取10000张BOWS2图像以及4000张BOSSBase图像作为模型训练集,1000张BOSSBase图像作为验证集,剩下的5000张BOSSBase图像用于训练完成的模型的测试。在训练的时候会保存每一个Epoch所对应的验证集的正确率,选取正确率最高的那一个模型作为初始图像隐写分析模型。
另一个数据集为alaskav2数据集,相较于前述的联合数据集来说,该数据集图像数量更加多(80000张),来源更加广泛,复杂度也更高。同样的,生成对应隐写图像使用的嵌入算法为JUNIWARD,嵌入率为0.4bpnzAZ,质量因子为75。Alaskav2数据集的划分为56000张图像用于模型的训练,4000张图像用作验证集,剩下的20000张图像用于测试最终训练好的模型的性能。
之后有数据集的训练使用参数都是一致的。
步骤S20、利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数。
具体地,对所述初始图像隐写分析模型中的各个卷积层进行分别的搜索,每一层设定一个模型失真阈值;当搜索到分解的模型失真度超过当前设定的模型失真阈值时,将当前搜索到的输入通道数和输出通道数作为当前层分解后核心张量的输入通道数和输出通道数。
进一步地,将所述初始图像隐写分析模型的输入通道数和输出通道数作为搜索的初始值,对输入通道数和输出通道数进行减一操作(比如说原来通道数是16,循环第一次,就将16减1,用新的通道数15去对初始图像隐写分析模型进行分解,算出失真度,然后下次循环再次减1,以此类推),将每次减完的结果作为Tucker分解参数进行分解,直到当前分解的模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数相等,将当前结构的模型定义为圆筒形图像隐写分析模型(圆筒形STD-NET)。
搜索圆筒形STD-NET:在进行搜索之前会预先训练好一个SRNetC64的模型,以及设定对应第l个卷积层的失真度量的阈值Md l ,接着在训练数据集上随机抽取一个batch的载体图像,通过这个batch图像在SRNetC64模型的前向传播,得到第l层经过正则化后的特征图。接下来执行对SRNetC64模型的分解,这个分解只分解当前第l层,得到一个重组模型通过函数CalNormDistortion计算出该重组模型与原先SRNetC64模型之间的失真度D,每次分解都会把核心张量G l 的输入以及输出通道数同比例减少,直到该失真度量D大于了预设的阈值Md l。此时核心张量G l 的输入以及输出通道数即为圆筒形STD-NET的输入通道数以及输出通道数。
进一步地,将所述圆筒形图像隐写分析模型的各个卷积层的输入通道数和输出通道数作为下一步搜索的初始值,对输入通道数和输出通道数分别执行加一减一操作(比如说第一次搜索得到的输入通道数和输出通道数是8,那么①第一次循环将输入通道数+1,即为9,将输出通道数-1,即为7,用这个输入通道数和输出通道数去分解初始图像隐写分析模型,下次循环以此类推直到失真度大于失真阈值。②反过来对输入通道数-1,输出通道数+1,一样循环到失真度大于阈值;最后选取①②中输入输出通道数乘积最小的那一组作为梯形图像隐写分析模型的输入输出通道数),直到当前模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数不相等,将当前结构的模型定义为梯形图像隐写分析模型(梯形STD-NET)。
搜索梯形STD-NET:搜索梯形STD-NET是在搜索完圆筒形STD-NET之后再进行搜索,是为了进一步减少模型的参数量。搜索前先将初始的输入通道数和输出通道数设置为圆筒形STD-NET的输入通道数和输出通道数。接着对输入通道数执行减一(加一)操作,对输出通道数执行加一(减一)操作,直到模型失真度大于了预设的模型失真阈值,分别得到两组输入通道数和输出通道数,选取其中乘积最小一组作为梯形STD-NET的输入通道数和输出通道数。
假设搜索过程搜索到第l个卷积层,将多张图像(例如40张载体图像)输入到初始图像隐写分析模型和只对第l卷积层的新的图像隐写分析模型中,初始图像隐写分析模型输出第l卷积层经过正则化后的特征图,新的图像隐写分析模型对应层输出的经过正则化后的特征图,则模型失真度的计算公式为:,其中表示矩阵的欧氏范数;其中,所使用的多张图像是从数据集中随机选取的原始图像。
对初始图像隐写分析模型行Tucker分解搜索得到分解后核心张量的输入通道数和输出通道数,本发明提出的搜索算法如下所示:
如图2所示,一个训练好的SRNetC64模型S,其中,将第l层称为L l (即第l个卷积层),它的卷积核张量称为K l ;一个batch(批,例如40张载体图像)的图像B,它是从载体图像训练集中随机选取;一个预设好的失真度量Md l ;一个失真余量ς。
搜索算法具体实现过程如下:
1: 初始化G l 的输入通道数I'和输出通道数O',令I' = J l-1,O' = J l ;
2: 将I l cylinder/O l cylinder定义为圆筒形核心张量G l 的输入通道数和输出通道数,将I l ladder/O l ladder定义为梯形核心张量G l 的输入通道数和输出通道数;
3: if I' < O' then;
4: ϵI' = 1,ϵ O' = ⌊O' / I'⌋;
5: else;
6: ϵ I' = ⌊O' / I'⌋,ϵ I' = 1;
7: end if;
9: reapeat;
10: 令I' = I' - ϵI',O' = O' - ϵO;
11: Md' = CalNormDistortion( I',O'),Md' 表示模型失真度,CalNormDistortion是指计算模型失真度的函数;
12: until Md ' > Md l;
13: if l= 2 orl=15 then ;
14: I l cylinder = I l ladder = I' ,O l cylinder = O l ladder = O',exit;
15: else;
16: I l cylinder = I' ,O l cylinder = O';
17: end if;
18: 令I'' = I''' = I',O'' = O''' = O';
19: repeat;
20:令I'' = I'' + 1,O'' = O'' – 1;
21: Md'' = CalNormDistortion( I'',O'');
22: until Md'' > Md l + ς;
23: repeat;
24:令I''' = I''' - 1,O''' = O''' + 1;
25: Md''' = CalNormDistortion( I''',O''');
26: until Md''' > Md l + ς;
27: if I'' · O'' < I''' · O''' then;
28: I l ladder = I'',O l ladder = O'';
29: else;
30: I l ladder = I''',O l ladder = O''';
31: end if;
32: function CalNormDistortion (I,O);
33:对K l 进行Tucker分解,将原模型S中的K l 替换成分解结果G l ×1T l i ×2 T l o,此处1表示按照第一个维度相乘,2表示按照第二个维度相乘;
35: return D;
36: end function。
该搜索算法最后会返回两种结构的输入以及输出通道数。具体包括有:
在搜索算法1-17行搜索得到的结构为圆筒形STD-NET,18-31行搜索得到的结构为梯形STD-NET,32-36行是计算模式失真度的函数。在该算法中第33行所说的Tucker分解具体如下:
该公式是一个卷积层的卷积过程,X是输入,Y是输出,K是卷积核,K是一个思维张量,其维度为卷积核大小×卷积核大小×输入通道数×输出通道数,由于卷积核一般比较小,对其分解无法带来太大的计算收益,所以本次Tucker分解只对后两个维度进行分解可得:
此时就用后面的三个轻量级卷积层组成的卷积组代替K卷积层。
以上便是针对卷积层进行Tucker分解的原理以及过程。
其中对圆筒形STD-NET的搜索具体过程为:
然后将需要搜索的以及初始化为初始图像隐写分析模型的输入通道数和输出通道数。接着在训练数据集上随机抽取一个batch的载体图像B,通过这个batch图像在初始图像隐写分析模型的前向传播,得到第l层经过正则化后的特征图。接下来执行对初始图像隐写分析模型的Tucker分解,这个分解只分解当前正在搜索的第l层,得到一个重组模型,该重组模型其他的卷积层不变。与初始图像隐写分析模型一样,将B输入到该重组模型中得到对应第l层经过正则化后的特征图,通过函数CalNormDistortion(搜索算法32-36行)计算出该重组模型与初始图像隐写分析模型之间的失真度量D,D的计算公式在算法中已给出。每次循环都会把核心张量的输入以及输出通道数同比例减少,直到该失真度量D大于了预设的失真度阈值。此时核心张量的输入以及输出通道数即为以及。
对梯形STD-NET的搜索过程如下:
先将第一步搜索得到的圆筒形STD-NET的输入通道数和输出通道数作为搜索梯形STD-NET的初始值。然后在循环里分别进行加一跟减一(减一跟加一),直到模型失真度量D大于了预设的模型失真阈值,这样可以得到两组输入输出通道数,最后为了得到最小的参数量,就选取这两组数里相乘结果最小的那一组,作为最终的梯形STD-NET的输入以及输出通道数。
经过算法搜索之后可以得到在两种模型结构:圆筒形STD-NET以及梯形STD-NET,并且可以对这两个模型进行训练,用于后续的对图像的隐写分析。
进一步地,所述梯形图像隐写分析模型的模型参数少于所述圆筒形图像隐写分析模型的模型参数。
梯形STD-NET的参数量会少于圆筒形STD-NET参数的证明过程如下:
对于一个给定的卷积层Ll,经过Tucker 分解之后对应层的参数量计算如下:
其中,以及分别是原先模型的输入通道数以及输出通道数,是卷积核大小。如前所述,现在已经得到了圆筒形结构,即(搜索算法中的第16行),在算法中把L2和L15(这两层是初始图像隐写分析模型里的输入通道数和输出通道数不相等的卷积层)剔除出来,不参与后续的搜索,因为从后面的证明来看,对他们进行搜索并不会带来参数量的减少。因此根据前述的SRNetC64网络结构,可以得到,。因此(1)式可变为:
因为是一个固定值,所以以及差值越大,就越小,又因为在(2)式里是一个定值,所以根据(2)式最终得到一个结论,就是随着以及的差值越大,模型的也越小,所以梯形STD-NET比圆筒形STD-NET的模型参数量要少。
下表将展示搜索得到的模型结构:
表中加粗字体是搜索得到的核心卷积层的输入通道数和输出通道数,展示的是核心卷积层的维数,分别是输入通道数×输出通道数×卷积核大小。下表更加直观的展现出通过搜索算法搜索得到的模型参数量与原先SRNet的对比:
其中params一行为参数量,flops一行为浮点运算数。
不难看出,基于Bossbase+BOWS2搜索得到的两种网络模型比原先SRNet的参数量降低了约99%,计算量降低了约80%,而基于alaskav2数据集搜索得到的模型参数量降低了约98%,降低没有基于Bossbase+BOWS2搜索得到的模型大,这是因为alaska数据集较复杂,算法判定模型冗余度相对较低。
相较于原先的SRNet来说,这三种模型结构更加紧凑,计算量更低,对计算设备要求低,更适于应用在移动终端。
步骤S30、根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型。
具体地,利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集对新的图像隐写分析模型进行初始化训练;保留验证集正确率最高的模型即为性能最好的图像隐写分析模型。
得到每一层的输入通道数和输出通道数之后就是一个新的图像隐写分析模型,选取性能最好的图像隐写分析模型是指该图像隐写分析模型训练迭代过程中在验证集上正确率最高的那一次迭代对应的图像隐写分析模型。
获得的模型的训练过程与SRNet的训练过程是一致的。并且搜索得到的模型结构是一个通用的结构,并不只是局限在初始图像隐写分析模型的数据集上,它们在检测其他数据集的时候也展现了比较好的性能。训练过程中保存每一个Epoch所对应的验证集的正确率,选取验证集正确率最高的那一个模型用于后续的隐写分析。
步骤S40、利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像。
基于Bossbase+BOWS2数据集所获得的两种训练好的STD-NET模型对图像进行隐写分析的效果。
下面将从模型的实际效果去衡量这两个STD-NET的性能。
下面两个表是模型分别在Bossbase1.01+BOWS2联合数据集以及Alaskav2数据集上的正确率对比。
模型在Bossbase1.01 + BOWS2正确率(%)
模型在Alaskav2数据集上的正确率(%)
以上两个表格说明了通过本发明提出的搜索算法得到的模型结构在参数量仅为原模型的1%的条件下,依旧可以保证输出结果的准确率。
模型在检测Alaskav2数据集上的PFA(0.5)
上边从虚警率(PFA)这个指标去衡量模型性能。在这个指标下,通过本发明提出的算法搜索到的模型性能比原来的SRNet性能更优。
由以上实施例可以看出,本发明提供的一种基于Tucker分解压缩深度学习隐写分析模型的方法以及搜索Tucker分解参数的算法是非常有效的,通过对原来卷积层进行Tucker分解搜索,寻找合适的输入输出通道数参数,建立一个新的更加轻量的深度学习隐写分析模型,该模型大大的降低了计算量,非常适合部署在移动终端中。
本发明提供的Tucker分解参数搜索算法以及根据这个算法搜索得到的网络模型的输入通道数和输出通道数可以建立一个轻量级的深度学习隐写分析模型,大大降低了模型用于图像隐写分析时候的计算量,有助于模型在移动终端的部署。
进一步地,如图3所示,基于上述基于Tucker分解的图像隐写分析方法,本发明还相应提供了一种终端,所述终端包括处理器10、存储器20及显示器30。图3仅示出了终端的部分组件,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
所述存储器20在一些实施例中可以是所述终端的内部存储单元,例如终端的硬盘或内存。所述存储器20在另一些实施例中也可以是所述终端的外部存储设备,例如所述终端上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(SecureDigital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器20还可以既包括所述终端的内部存储单元也包括外部存储设备。所述存储器20用于存储安装于所述终端的应用软件及各类数据,例如所述安装终端的程序代码等。所述存储器20还可以用于暂时地存储已经输出或者将要输出的数据。在一实施例中,存储器20上存储有基于Tucker分解的图像隐写分析程序40,该基于Tucker分解的图像隐写分析程序40可被处理器10所执行,从而实现本申请中基于Tucker分解的图像隐写分析方法。
所述处理器10在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行所述存储器20中存储的程序代码或处理数据,例如执行所述基于Tucker分解的图像隐写分析方法等。
所述显示器30在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。所述显示器30用于显示在所述终端的信息以及用于显示可视化的用户界面。所述终端的部件10-30通过系统总线相互通信。
在一实施例中,当处理器10执行所述存储器20中基于Tucker分解的图像隐写分析程序40时实现以下步骤:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型;
利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;
根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型;
利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像;
其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。
本发明还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有基于Tucker分解的图像隐写分析程序,所述基于Tucker分解的图像隐写分析程序被处理器执行时实现如上所述的基于Tucker分解的图像隐写分析方法的步骤。
综上所述,本发明提供一种基于Tucker分解的图像隐写分析方法及终端,所述方法包括:利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型;利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型;利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像;其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。本发明通过Tucker分解将初始图像隐写分析模型中的一个卷积层分解成三个轻量级的卷积层组成的卷积组,以达到降低模型参数量以及计算量的目的。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
当然,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关硬件(如处理器,控制器等)来完成,所述的程序可存储于一计算机可读取的计算机可读存储介质中,所述程序在执行时可包括如上述各方法实施例的流程。其中所述的计算机可读存储介质可为存储器、磁碟、光盘等。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.一种基于Tucker分解的图像隐写分析方法,其特征在于,所述基于Tucker分解的图像隐写分析方法包括:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型;
利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数;
根据每一层分解后核心张量的输入通道数和输出通道数建立一个新的图像隐写分析模型,并将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型;其中,性能最好的图像隐写分析模型指验证集正确率最高的图像隐写分析模型;
利用性能最好的图像隐写分析模型进行图像隐写分析,判断输入到性能最好的图像隐写分析模型中的图像为载体图像还是携带有隐秘信息的隐写图像;
其中,所述数据集中的数据包括原始图像以及经过隐写信息嵌入的图像。
2.根据权利要求1所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,将生成的数据集进行训练得到初始图像隐写分析模型,具体包括:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集,根据相同的训练参数来训练生成的数据集,保存每一个迭代的验证集的准确率,并选取准确率最高的模型作为初始图像隐写分析模型。
3.根据权利要求1所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述利用预设的搜索算法对所述初始图像隐写分析模型的各个卷积层进行Tucker分解搜索,得到每一层分解后核心张量的输入通道数和输出通道数,具体包括:
对所述初始图像隐写分析模型中的各个卷积层进行分别的搜索,每一层设定一个模型失真阈值;
当搜索到分解的模型失真度超过当前设定的模型失真阈值时,将当前搜索到的输入通道数和输出通道数作为当前层分解后核心张量的输入通道数和输出通道数。
4.根据权利要求3所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述对所述初始图像隐写分析模型中的各个卷积层进行分别的搜索,每一层设定一个模型失真阈值,具体包括:
将所述初始图像隐写分析模型的输入通道数和输出通道数作为搜索的初始值,对输入通道数和输出通道数进行减一操作,将每次减完的结果作为Tucker分解参数进行分解,直到当前分解的模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数相等,将当前结构的模型定义为圆筒形图像隐写分析模型;
将所述圆筒形图像隐写分析模型的各个卷积层的输入通道数和输出通道数作为下一步搜索的初始值,对输入通道数和输出通道数分别执行加一减一操作,直到当前模型失真度大于预设的模型失真阈值,则输入通道数和输出通道数不相等,将当前结构的模型定义为梯形图像隐写分析模型。
6.根据权利要求1所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述将新的图像隐写分析模型在数据集上进行训练,选取性能最好的图像隐写分析模型,具体包括:
利用不同图像的隐写算法和不同的信息嵌入率生成不同的数据集对新的图像隐写分析模型进行初始化训练;
保留验证集正确率最高的模型即为性能最好的图像隐写分析模型。
7.根据权利要求1所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述数据集包括训练集、验证集和测试集。
8.根据权利要求4所述的基于Tucker分解的图像隐写分析方法,其特征在于,所述梯形图像隐写分析模型的模型参数少于所述圆筒形图像隐写分析模型的模型参数。
9.一种终端,其特征在于,所述终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于Tucker分解的图像隐写分析程序,所述基于Tucker分解的图像隐写分析程序被所述处理器执行时实现如权利要求1-8任一项所述的基于Tucker分解的图像隐写分析方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有基于Tucker分解的图像隐写分析程序,所述基于Tucker分解的图像隐写分析程序被处理器执行时实现如权利要求1-8任一项所述的基于Tucker分解的图像隐写分析方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110337203.XA CN112734622B (zh) | 2021-03-30 | 2021-03-30 | 一种基于Tucker分解的图像隐写分析方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110337203.XA CN112734622B (zh) | 2021-03-30 | 2021-03-30 | 一种基于Tucker分解的图像隐写分析方法及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112734622A CN112734622A (zh) | 2021-04-30 |
CN112734622B true CN112734622B (zh) | 2021-07-20 |
Family
ID=75597099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110337203.XA Active CN112734622B (zh) | 2021-03-30 | 2021-03-30 | 一种基于Tucker分解的图像隐写分析方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734622B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642730A (zh) * | 2021-08-30 | 2021-11-12 | Oppo广东移动通信有限公司 | 卷积网络剪枝方法和装置、电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750714A (zh) * | 2012-06-28 | 2012-10-24 | 哈尔滨工业大学 | 基于快速搜寻最优核配置的张量分解截断遥感高光谱图象压缩方法 |
CN107920248A (zh) * | 2016-10-11 | 2018-04-17 | 京东方科技集团股份有限公司 | 图像编解码装置、图像处理系统、训练方法和显示装置 |
CN108961137A (zh) * | 2018-07-12 | 2018-12-07 | 中山大学 | 一种基于卷积神经网络的图像隐写分析方法及系统 |
CN111915691A (zh) * | 2019-05-07 | 2020-11-10 | 上海科技大学 | 基于神经网络的图像处理系统、方法、终端、及介质 |
CN111932461A (zh) * | 2020-08-11 | 2020-11-13 | 西安邮电大学 | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 |
CN112529758A (zh) * | 2020-12-18 | 2021-03-19 | 海南大学 | 一种基于卷积神经网络的彩色图像隐写方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10699408B2 (en) * | 2018-04-18 | 2020-06-30 | David Brown | Device and method for tree health assessment |
US11436273B2 (en) * | 2018-11-14 | 2022-09-06 | Gurunavi, Inc. | Image search apparatus, image search method, non-transitory recording medium |
-
2021
- 2021-03-30 CN CN202110337203.XA patent/CN112734622B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750714A (zh) * | 2012-06-28 | 2012-10-24 | 哈尔滨工业大学 | 基于快速搜寻最优核配置的张量分解截断遥感高光谱图象压缩方法 |
CN107920248A (zh) * | 2016-10-11 | 2018-04-17 | 京东方科技集团股份有限公司 | 图像编解码装置、图像处理系统、训练方法和显示装置 |
CN108961137A (zh) * | 2018-07-12 | 2018-12-07 | 中山大学 | 一种基于卷积神经网络的图像隐写分析方法及系统 |
CN111915691A (zh) * | 2019-05-07 | 2020-11-10 | 上海科技大学 | 基于神经网络的图像处理系统、方法、终端、及介质 |
CN111932461A (zh) * | 2020-08-11 | 2020-11-13 | 西安邮电大学 | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 |
CN112529758A (zh) * | 2020-12-18 | 2021-03-19 | 海南大学 | 一种基于卷积神经网络的彩色图像隐写方法 |
Non-Patent Citations (1)
Title |
---|
基于复杂度的自适应分层图像隐写算法;吴贤城等;《计算机应用》;20190125;第38卷(第z2期);第174-177页,第216页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112734622A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222831B (zh) | 深度学习模型的鲁棒性评估方法、装置及存储介质 | |
CN110023963A (zh) | 使用神经网络处理文本序列 | |
CN111626932B (zh) | 图像的超分辨率重建方法及装置 | |
CN111950638A (zh) | 基于模型蒸馏的图像分类方法、装置和电子设备 | |
CN108171663B (zh) | 基于特征图最近邻替换的卷积神经网络的图像填充系统 | |
CN112613581A (zh) | 一种图像识别方法、系统、计算机设备和存储介质 | |
CN110197183B (zh) | 一种图像盲去噪的方法、装置、计算机设备和存储介质 | |
EP3602419A1 (en) | Neural network optimizer search | |
CN112257578B (zh) | 人脸关键点检测方法、装置、电子设备及存储介质 | |
CN109146061A (zh) | 神经网络模型的处理方法和装置 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN114266894A (zh) | 一种图像分割方法、装置、电子设备及存储介质 | |
Huai et al. | Zerobn: Learning compact neural networks for latency-critical edge systems | |
CN112734622B (zh) | 一种基于Tucker分解的图像隐写分析方法及终端 | |
CN112348808A (zh) | 屏幕透图检测方法及装置 | |
CN115393675A (zh) | 深度学习模型的对抗鲁棒性测评方法及相关装置 | |
Pajot et al. | Unsupervised adversarial image inpainting | |
CN110210279A (zh) | 目标检测方法、装置及计算机可读存储介质 | |
CN112819848B (zh) | 抠图方法、抠图装置和电子设备 | |
CN115984949B (zh) | 一种带有注意力机制的低质量人脸图像识别方法及设备 | |
CN116186312A (zh) | 用于数据敏感信息发现模型的多模态数据增强方法 | |
CN114493971A (zh) | 媒体数据转换模型训练、数字水印嵌入方法和装置 | |
JP2022151502A (ja) | プログラム、情報処理装置、及び方法 | |
CN116361138A (zh) | 测试方法及设备 | |
CN112346126A (zh) | 低级序断层的识别方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |