CN117609962B - 一种基于特征点生成的图像式超链接生成方法 - Google Patents
一种基于特征点生成的图像式超链接生成方法 Download PDFInfo
- Publication number
- CN117609962B CN117609962B CN202410089289.2A CN202410089289A CN117609962B CN 117609962 B CN117609962 B CN 117609962B CN 202410089289 A CN202410089289 A CN 202410089289A CN 117609962 B CN117609962 B CN 117609962B
- Authority
- CN
- China
- Prior art keywords
- image
- real
- matrix
- hyperlink
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 31
- 239000002131 composite material Substances 0.000 claims abstract description 19
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 47
- 230000015572 biosynthetic process Effects 0.000 claims description 26
- 238000003786 synthesis reaction Methods 0.000 claims description 26
- 230000004913 activation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 1
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Security & Cryptography (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Technology Law (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于特征点生成的图像式超链接生成方法,所属技术领域为图像信息隐藏领域,包括:基于公共数据集进行随机抽取,获得真实数据集,对真实数据集进行处理,获得图像的真实特征点和边缘图;基于真实数据集和真实特征点以及边缘图对模型进行训练,获得预训练模型;将超链接编码成01比特串后生成消息矩阵,基于消息矩阵进行消息隐藏,获得隐含超链接的特征点矩阵;基于预训练模型和隐含超链接的特征点矩阵获取合成图像;提取合成图像的特征点,基于秘密消息提取算法恢复超链接。本发明充分利用载体合成式框架的优点和图像特征点的鲁棒性,不需要固定的载体图像来嵌入超链接,进而提高方案的安全性和对常见几何攻击的鲁棒性。
Description
技术领域
本发明属于图像信息隐藏领域,特别是涉及一种基于特征点生成的图像式超链接生成方法。
背景技术
隐写术是将秘密消息嵌入到载体中的一门技术。作为一种隐蔽通信技术,其目的是在不被第三方感知的前提下将秘密消息隐藏在数字媒体中并发送给接收方。随着深度学习的发展,使用神经网络的深度学习技术已经成功和隐写术结合并取得了不错效果,然而现有的深度数据隐藏方案大部分对几何攻击的鲁棒性较差。多数隐写方案通过模拟噪声层来提高方案的鲁棒性,然而从对抗性训练中获得的鲁棒性是特定的并且噪声层很难模拟复杂的几何扭曲。因此,实现针对几何攻击的鲁棒性仍然是基于深度学习的方法的一个挑战。同时由于对载体进行了修改,不可避免导致方案的安全性降低。
从载体修改的角度出发,基于载体生成的图像隐写术根据输入的秘密消息序列直接生成人眼不可辨的含秘图像。与直接嵌入相比,有效提高了抵抗基于统计检测的隐写分析的性能。直接将噪声和秘密消息结合一同送入网络合成隐写图像,实现秘密消息的嵌入提取,由于没有消息嵌入也没有对载体图像进行修改,因此抵抗隐写分析检测的能力较强。
图像特征点以其对多种几何扭曲的不变性而闻名,并被广泛应用于几何不变性鲁棒水印技术中,这些方案经过精心设计,以选择分布适当且鲁棒性令人满意的特征点。然而,特征点选择仍然是一项艰巨的任务,这也可能导致特征点未被充分利用。此外,在许多方案中,特征检测和水印嵌入是分开的,容量会受到特征点数量的限制。
尽管超链接隐写术在一些研究中已经实现,但是普便存在着以下几个方面的不足。一方面一些方法由于对载体图像进行了修改来实现超链接的隐藏,容易被隐写分析器检测出,方案的安全性不足;另一方面通过对噪声层的模拟实现的鲁棒性局限于特定的噪声攻击,而对复杂的几何扭曲难以模拟的问题直接导致方案对几何失真的鲁棒性较大程度的降低。目前超链接隐写术在鲁棒性和安全性方面仍然存在缺陷。
发明内容
本发明的目的是提供一种基于特征点生成的图像式超链接生成方法,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种基于特征点生成的图像式超链接生成方法,包括:
基于公共数据集进行随机抽取,获得真实数据集,对所述真实数据集进行处理,获得图像的真实特征点和边缘图;
基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型;
所述将超链接编码成01比特串后生成消息矩阵,基于所述消息矩阵在所述图像的真实特征点处进行消息隐藏,获得隐含超链接的特征点矩阵;
基于所述预训练模型和所述隐含超链接的特征点矩阵获取合成图像;
提取所述合成图像的特征点,基于秘密消息提取算法对所述合成图像的特征点的秘密信息进行提取,恢复超链接。
优选的,所述基于公共数据集进行随机抽取,获得真实数据集,对所述真实数据集进行处理,获得图像的真实特征点和边缘图的过程包括:
在COCO公共数据集中随机选取图像并进行格式调整,获得所述真实数据集;
基于SuperPoint网络模型提取所述真实数据集的真实特征点;
基于边缘检测算法提取所述真实数据集的边缘图。
优选的,基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型的过程包括:
展开所述图像的真实特征点,获得特征点矩阵;
基于生成器和鉴别器构建所述图像合成网络,将所述特征点矩阵和所述边缘图作为所述图像合成网络的输入,计算所述图像网络模型的损失函数的总值;
基于所述计算所述图像网络模型的损失函数的总值对所述图像网络模型的权重进行更新迭代直至收敛,获得所述预训练模型。
优选的,所述生成器由下采样模块、中间层、上采样模块和激活层组成;
所述下采样模块包括7个下采样子块,其中第一个下采样子块为一个二维卷积层,剩余子块由一个LeakyReLU激活函数层、二维卷积层和实例归一化层依次组成;
所述中间层由一个LeakyReLU激活函数层、二维卷积层、ReLU激活函数层、二维反卷积层和实例归一化层依次组成;
所述上采样模块包括7个上采样子块,每个子块均由一个ReLU激活函数层、二维反卷积层和实例归一化层依次组成。
优选的,所述鉴别器包括五个卷积块;
所述鉴别器的前四个卷积块由一层下采样卷积和LeakyReLU激活函数顺序组成;
所述鉴别器的最后一个卷积块由一层下采样卷积和sigmoid函数依次组成。
优选的,将所述特征点矩阵和所述边缘图作为所述图像合成网络的输入,计算所述图像网络模型的损失函数的总值的过程包括:
基于所述特征点矩阵和所述边缘图以及所述图像合成网络的输出获取六种损失函数;
对所述六种损失函数进行加权求和计算,获得所述图像网络模型的损失函数;
所述六种损失函数包括:图像差异损失函数、感知损失函数、风格差异损失函数、鉴别器损失函数、特征点损失函数和描述符损失函数。
优选的,所述将超链接编码成01比特串后生成消息矩阵,基于所述消息矩阵在所述图像的真实特征点处进行消息隐藏,获得隐含超链接的特征点矩阵的过程包括:
将超链接编码成01比特串;
构建RS码,基于所述RS码对所述01比特串进行编码和数据替换,获得修改数据;
将所述修改数据调整为所述消息矩阵;
基于所述消息矩阵对所述图像的真实特征点进行秘密消息的嵌入,获得所述隐含超链接的特征点矩阵。
优选的,基于所述预训练模型和所述隐含超链接的特征点矩阵获取合成图像的过程包括:
将所述隐含超链接的特征点矩阵和所述边缘图作为所述预训练模型的输入进行计算,获得所述合成图像。
优选的,提取所述合成图像的特征点,基于秘密消息提取算法对所述合成图像的特征点的秘密信息进行提取,恢复超链接的过程包括:
基于SuperPoint网络提取所述合成图像的特征点,同时对所述合成图像进行旋转并进行特征点提取,获得旋转特征点;
将所述合成图像的特征点和所述旋转特征点进行匹配,获得特征点集合;
基于所述特征点集合获取隐藏消息矩阵;
基于所述隐藏消息矩阵获取消息比特串;
通过RS码对所述消息比特串进行译码,恢复所述超链接。
本发明的技术效果为:
本发明充分利用载体合成式框架的优点和图像特征点的鲁棒性,不需要固定的载体图像来嵌入超链接同时将特征点对几何失真的鲁棒性迁移至本发明,显著提高了本发明对常见噪声攻击和几何失真的鲁棒性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本发明实施例中的整体流程图
图2是本发明实施例中的超链接编码流程图
图3是本发明实施例中的超链接解码流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
如图1-图2所示,本实施例中提供一种基于特征点生成的图像式超链接生成方法,包括:
基于公共数据集进行随机抽取,获得真实数据集,对所述真实数据集进行处理,获得图像的真实特征点和边缘图;
基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型;
所述将超链接编码成01比特串后生成消息矩阵,基于所述消息矩阵在所述图像的真实特征点处进行消息隐藏,获得隐含超链接的特征点矩阵;
基于所述预训练模型和所述隐含超链接的特征点矩阵获取合成图像;
提取所述合成图像的特征点,基于秘密消息提取算法对所述合成图像的特征点的秘密信息进行提取,恢复超链接。
进一步实施该方案,具体过程为:
S1、从COCO数据集中选取图像,调整图像大小为,并提取对应的真实特征点和边缘图;
S2、将选取的图像作为真实标签,对应提取的特征点和边缘图作为网络输入,训练图像合成网络模型并得到对应的预训练模型;
S3、将超链接编码成01比特串后生成消息矩阵,根据消息矩阵修改特征点信息实现消息隐藏,根据预训练的图像合成模型和修改后的图像特征点合成图像;
S4、提取合成图像的特征点,使用秘密消息提取算法提取出秘密消息,恢复超链接。
进一步的,真实图像数据集的获取,对所述真实数据集进行处理,获得图像的真实特征点和边缘图的具体操作为:
从COCO数据集中随机选取两万张图片,大小统一调整为尺寸,作为真实图像集,并使用SuperPoint网络模型提取图像的真实特征点,使用高斯滤波器标准差为2的Canny边缘检测算法提取出图像对应的边缘图,从而建立真实图像与对应特征点和边缘图像的数据集。
进一步实施该方案,基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型具体包括:
将图像特征点使用特征点处理模块展平为大小的矩阵,与图像对应的边缘图一同作为图像合成网络的输入。特征点处理模块首先创建为/>大小的值全为0的矩阵/>,根据特征点所包含的位置坐标和描述符信息,按照如下公式进行赋值:
;
和/>分别为第/>个特征点在图像的横纵坐标,/>为第/>个特征点对应的256维的描述符的值。所有特征点在/>矩阵赋值完成后,将/>矩阵修改为/>的尺寸大小,本发明中出现的所有/>和/>分别为图像的高度和宽度。
图像合成网络是由一个生成器和一个鉴别器共同组成的生成对抗网络框架。其中,生成器由下采样模块、中间层、上采样模块和激活层组成。下采样模块包括7个下采样子块,第一个子块仅为一个二维卷积层,剩余子块均由一个LeakyReLU激活函数层、二维卷积层和实例归一化层依次组成。中间层模块由一个LeakyReLU激活函数层、二维卷积层、ReLU激活函数层、二维反卷积层和实例归一化层组成。上采样模块包括7个上采样子块,每个子块均由一个ReLU激活函数层、二维反卷积层和实例归一化层组成。图像合成的具体步骤如下:将经过特征点展平模块处理后的矩阵和/>大小的边缘图在通道维进行级联,得到/>大小的输入数据/>,作为图像合成网络的输入。下采样子块顺序连接,除第一个子块外,其余子块均以上一子块的输出作为输入。/>经过下采样模块后得到深层的特征图,此特征图经过中间层模块的一次卷积和反卷积操作后得到包含特征点丰富语义的中间数据/>。随后将/>和第7个下采样子块的输出在通道处级联后送入第1个上采样子块。上采样子块顺序连接,并且添加了跳跃连接,即第/>个上采样子块的输入是第/>个上采样子块的输出和第/>个下采样子块的输出在通道处级联后的数据。为了解决训练过程中梯度消息的问题同时使输出数据符合RGB图像的数据范围,/>经过下采样模块、中间层和上采样模块操作后的数据需要通过由tanh激活函数层将数据映射到-1到1之间的范围内,使模型合成的图像更稳定。
如图3所示,鉴别器网络结构一共由五个卷积块组成。前四个卷积块由一层下采样卷积和LeakyReLU激活函数顺序组成,最后一个卷积块由一层下采样卷积和sigmoid函数组成。鉴别器使用生成器生成的图像作为输入,真实图像作为参考,经过五个卷积块处理后输出与真实图像之间的分数。通过损失函数的约束和梯度反向传播不断迭代更新生成器的参数,使生成器生成的图像质量更高,保证合成图像特征点能够正常提取进而实现超链接的解码。鉴别器损失函数为:
;
其中,表示由特征点矩阵/>和边缘图/>合成的图像数据,/>为真实图像。/>为鉴别器的输出,/>表示对数据求期望的操作。
图像合成网络以特征点和边缘图作为输入,合成图像:
在图像合成网络模型的训练过程中以六种损失作为损失函数作为约束,对于合成图像和真实图像/>,使用SuperPoint网络提取的特征点分别为/>和/>,对应描述符为/>和/>,训练模型的总损失包括:
衡量合成图像和真实图像/>之间的图像差异损失/>,使用L1距离公式计算结果。具体公式如下:
;
感知损失用于提高合成图像的感知质量,其公式如下:
;
其中表示输入在预训练的VGG-19网络中的第/>层的特征表示,/>为提取的特征层数。
合成图像和真实图像/>之间的风格差异损失/>的具体计算如下:
;
其中表示图像输入到VGG-19模型得到的各层的特征图计算出的Gram矩阵。/>数据通过VGG-19模型第/>层的输出。
为了保证合成图像和真实图像/>提取的特征点具有一致性,降低对超链接隐藏的影响程度,引入了特征点损失/>和描述符损失/>,具体公式如下:
;
;
合成模型的总损失为上述六个损失的加权和,如下:
;
其中,/>,/>,/>,/>,/>分别是各损失对应的权重因子。对于一副生成图像,通过计算模型的以上损失更新合成模型的权重,直至收敛,得到图像合成模型的预训练模型。
超链接在图像特征点处的隐藏步骤具体包括:
RS码是一类具有强纠错能力的非二进制BCH码。RS(7,3)表示利用3个信息符号得到长度为7的编码。将超链接编码成01比特串,对此比特串使用RS(7,3)进行编码后并将其中的0用-1进行替换。随后将其调整为大小的消息矩阵/>。每个特征点根据消息矩阵/>的值修改其256维描述符向量中的第61-70维,每五维嵌入1bit消息实现秘密消息的嵌入进而实现超链接的隐藏。具体修改方式为:
;
;
其中,为第/>个特征点,/>和/>分别为其横纵坐标,/>为图像的宽度。
经过大量的实验验证,在256维特征点的描述符向量中的第61-70维进行修改,对图像质量和超链接解码的准确率的影响最小。根据上述方式修改所有特征点,将修改后的特征点送入特征点展平模块展平为大小的特征点矩阵。没有特征点处的值置为0,得到隐含超链接的特征点矩阵。
根据含秘特征点合成图像的具体步骤为:
将隐含超链接的特征点矩阵和边缘图在通道处进行连接,作为预训练好的图像合成网络模型的输入,生成含超链接信息的合成图像。
超链接的恢复过程具体包括:
对合成图像使用SuperPoint网络提取对应的特征点。对合成图像进行旋转提取对应的特征点,在两组图像的特征点集进行匹配,筛选出匹配成功的特征点集合。然后使用这些特征点提取大小为的隐藏消息矩阵/>,具体的提取公式为:
;
;
其中,为第/>个特征点,/>和/>分别为其横纵坐标,/>为图像的宽度,函数返回数据的符号。其值1和-1表示提取的消息位,0表示在该位置没有关键点。将提取的消息矩阵/>调整成/>大小,调整为向量并进行逆排列得到串/>。从中的每相邻/>的系数中检测1比特消息,得到。计算方式为:
将中所有的-1值替换成0后,使用RS(7,3)算法译码出超链接对应的比特串。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (5)
1.一种基于特征点生成的图像式超链接生成方法,其特征在于,包括以下步骤:
基于公共数据集进行随机抽取,获得真实数据集,对所述真实数据集进行处理,获得图像的真实特征点和边缘图;
基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型;
将超链接编码成01比特串后生成消息矩阵,基于所述消息矩阵在所述图像的真实特征点处进行消息隐藏,获得隐含超链接的特征点矩阵;
基于所述预训练模型和所述隐含超链接的特征点矩阵获取合成图像;
提取所述合成图像的特征点,基于秘密消息提取算法对所述合成图像的特征点的秘密信息进行提取,恢复超链接;
所述基于公共数据集进行随机抽取,获得真实数据集,对所述真实数据集进行处理,获得图像的真实特征点和边缘图的过程包括:
在COCO公共数据集中随机选取图像并进行格式调整,获得所述真实数据集;
基于SuperPoint网络模型提取所述真实数据集的真实特征点;
基于边缘检测算法提取所述真实数据集的边缘图;
基于所述真实数据集和所述图像的真实特征点以及边缘图对图像合成网络模型进行训练,获得预训练模型的过程包括:
展开所述图像的真实特征点,获得特征点矩阵;
基于生成器和鉴别器构建所述图像合成网络模型,将所述特征点矩阵和所述边缘图作为所述图像合成网络模型的输入,计算所述图像合成网络模型的损失函数的总值;
基于所述计算所述图像合成网络模型的损失函数的总值对所述图像合成网络模型的权重进行更新迭代直至收敛,获得所述预训练模型;
基于所述预训练模型和所述隐含超链接的特征点矩阵获取合成图像的过程包括:
将所述隐含超链接的特征点矩阵和所述边缘图作为所述预训练模型的输入进行计算,获得所述合成图像;
提取所述合成图像的特征点,基于秘密消息提取算法对所述合成图像的特征点的秘密信息进行提取,恢复超链接的过程包括:
基于SuperPoint网络提取所述合成图像的特征点,同时对所述合成图像进行旋转并进行特征点提取,获得旋转特征点;
将所述合成图像的特征点和所述旋转特征点进行匹配,获得特征点集合;
基于所述特征点集合获取隐藏消息矩阵;
基于所述隐藏消息矩阵获取消息比特串;
通过RS码对所述消息比特串进行译码,恢复所述超链接。
2.根据权利要求1所述的基于特征点生成的图像式超链接生成方法,其特征在于:所述生成器由下采样模块、中间层、上采样模块和激活层组成;
所述下采样模块包括7个下采样子块,其中第一个下采样子块为一个二维卷积层,剩余子块由一个LeakyReLU激活函数层、二维卷积层和实例归一化层依次组成;
所述中间层由一个LeakyReLU激活函数层、二维卷积层、ReLU激活函数层、二维反卷积层和实例归一化层依次组成;
所述上采样模块包括7个上采样子块,每个子块均由一个ReLU激活函数层、二维反卷积层和实例归一化层依次组成。
3.根据权利要求1所述的基于特征点生成的图像式超链接生成方法,其特征在于,所述鉴别器包括五个卷积块;
所述鉴别器的前四个卷积块由一层下采样卷积和LeakyReLU激活函数顺序组成;
所述鉴别器的最后一个卷积块由一层下采样卷积和sigmoid函数依次组成。
4.根据权利要求1所述的基于特征点生成的图像式超链接生成方法,其特征在于,将所述特征点矩阵和所述边缘图作为所述图像合成网络模型的输入,计算所述图像合成网络模型的损失函数的总值的过程包括:
基于所述特征点矩阵和所述边缘图作为所述图像合成网络模型的输入
基于所述特征点矩阵和所述边缘图以及所述图像合成网络模型的输出获取六种损失函数;
对所述六种损失函数进行加权求和计算,获得所述图像合成网络模型的损失函数;
所述六种损失函数包括:图像差异损失函数、感知损失函数、风格差异损失函数、鉴别器损失函数、特征点损失函数和描述符损失函数。
5.根据权利要求1所述的基于特征点生成的图像式超链接生成方法,其特征在于,所述将超链接编码成01比特串后生成消息矩阵,基于所述消息矩阵在所述图像的真实特征点处进行消息隐藏,获得隐含超链接的特征点矩阵的过程包括:
将超链接编码成01比特串;
构建RS码,基于所述RS码对所述01比特串进行编码和数据替换,获得修改数据;
将所述修改数据调整为所述消息矩阵;
基于所述消息矩阵对所述图像的真实特征点进行秘密消息的嵌入,获得所述隐含超链接的特征点矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410089289.2A CN117609962B (zh) | 2024-01-23 | 2024-01-23 | 一种基于特征点生成的图像式超链接生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410089289.2A CN117609962B (zh) | 2024-01-23 | 2024-01-23 | 一种基于特征点生成的图像式超链接生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117609962A CN117609962A (zh) | 2024-02-27 |
CN117609962B true CN117609962B (zh) | 2024-05-07 |
Family
ID=89960165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410089289.2A Active CN117609962B (zh) | 2024-01-23 | 2024-01-23 | 一种基于特征点生成的图像式超链接生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117609962B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101753913A (zh) * | 2008-12-17 | 2010-06-23 | 华为技术有限公司 | 一种视频中插入超链接的方法、装置及处理器 |
JP2015136027A (ja) * | 2014-01-17 | 2015-07-27 | 株式会社日立ソリューションズ | 電子透かし埋め込み方法または電子透かし検出方法 |
CN112070648A (zh) * | 2020-09-04 | 2020-12-11 | 上海蓝书信息科技有限公司 | 水印嵌入、提取方法、装置及电子设备 |
CN112801846A (zh) * | 2021-02-09 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 一种水印嵌入、提取方法、装置、计算机设备和存储介质 |
CN113947512A (zh) * | 2021-09-26 | 2022-01-18 | 暨南大学 | 一种大容量可控无载体图像隐写方法 |
CN115131188A (zh) * | 2022-05-30 | 2022-09-30 | 南京信息工程大学 | 一种基于生成对抗网络的鲁棒图像水印方法 |
-
2024
- 2024-01-23 CN CN202410089289.2A patent/CN117609962B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101753913A (zh) * | 2008-12-17 | 2010-06-23 | 华为技术有限公司 | 一种视频中插入超链接的方法、装置及处理器 |
JP2015136027A (ja) * | 2014-01-17 | 2015-07-27 | 株式会社日立ソリューションズ | 電子透かし埋め込み方法または電子透かし検出方法 |
CN112070648A (zh) * | 2020-09-04 | 2020-12-11 | 上海蓝书信息科技有限公司 | 水印嵌入、提取方法、装置及电子设备 |
CN112801846A (zh) * | 2021-02-09 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 一种水印嵌入、提取方法、装置、计算机设备和存储介质 |
CN113947512A (zh) * | 2021-09-26 | 2022-01-18 | 暨南大学 | 一种大容量可控无载体图像隐写方法 |
CN115131188A (zh) * | 2022-05-30 | 2022-09-30 | 南京信息工程大学 | 一种基于生成对抗网络的鲁棒图像水印方法 |
Non-Patent Citations (2)
Title |
---|
Robust reversible image watermarking scheme based on spread spectrum;Ziquan Huang 等;Journal of Visual Communication and Image Representation;20230317;第1-12页 * |
具有抗几何攻击能力的盲数字图像水印算法;金聪 等;计算机学报;20070330(第03期);第140-148页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117609962A (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993678B (zh) | 一种基于深度对抗生成网络的鲁棒信息隐藏方法 | |
Fang et al. | Deep template-based watermarking | |
CN111598761B (zh) | 一种基于图像降噪的抗打印拍摄图像数字水印方法 | |
Arham et al. | Multiple layer data hiding scheme based on difference expansion of quad | |
Kang et al. | A DWT-DFT composite watermarking scheme robust to both affine transform and JPEG compression | |
CN111028308B (zh) | 一种图像中信息的隐写及读取方法 | |
CN113077377B (zh) | 一种基于生成对抗网络的彩色图像隐写方法 | |
Wei et al. | Generative steganography network | |
CN115131188A (zh) | 一种基于生成对抗网络的鲁棒图像水印方法 | |
CN115311720A (zh) | 一种基于Transformer的deepfake生成方法 | |
CN113158583A (zh) | 一种端到端的基于深度学习的文本图像水印模型建立方法 | |
CN115115500A (zh) | 一种结合水下图像增强的水印嵌入方法 | |
CN113781284A (zh) | 一种基于深度注意自编码器的零水印构造方法 | |
CN112597509A (zh) | 一种融合小波和自编码器的信息隐藏方法及系统 | |
Liao et al. | GIFMarking: The robust watermarking for animated GIF based deep learning | |
CN114157773B (zh) | 基于卷积神经网络和频域注意力的图像隐写方法 | |
CN116342362B (zh) | 深度学习增强数字水印不可感知性方法 | |
CN113298689A (zh) | 一种大容量图像隐写方法 | |
CN117609962B (zh) | 一种基于特征点生成的图像式超链接生成方法 | |
CN116452401A (zh) | 一种抗图像攻击的可逆鲁棒水印嵌入与提取模型构建方法 | |
CN114676446A (zh) | 一种基于ls-gan的图像隐写方法 | |
CN116029887A (zh) | 一种基于小波神经网络的图像大容量鲁棒水印方法 | |
CN114900701A (zh) | 一种基于深度学习的视频数字水印嵌入与提取方法及系统 | |
CN114630130A (zh) | 一种基于深度学习的换脸视频溯源方法及系统 | |
CN114493971A (zh) | 媒体数据转换模型训练、数字水印嵌入方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |