CN112132158A - 一种基于自编码网络的可视化图片信息嵌入方法 - Google Patents
一种基于自编码网络的可视化图片信息嵌入方法 Download PDFInfo
- Publication number
- CN112132158A CN112132158A CN202010918972.4A CN202010918972A CN112132158A CN 112132158 A CN112132158 A CN 112132158A CN 202010918972 A CN202010918972 A CN 202010918972A CN 112132158 A CN112132158 A CN 112132158A
- Authority
- CN
- China
- Prior art keywords
- visual
- picture
- coding
- network
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于自编码网络的可视化图片信息嵌入方法,其特点是采用深度神经网络提取可视化图表的视觉显著性特征,计算出嵌入信息的非显著区域,然后将文本信息分割并转换成二维码,利用自编码网络将二维码编码进图片非显著区域,将编码结果输入解码网络,即可恢复出原始嵌入的文本信息。本发明与现有技术相比具有保证可视化图片不失真的情况下,隐式地将用户指定的数据信息嵌入到可视化图片中,有效减小编码带来的显式视觉损失,能够在版权保护、数据存储、可视化设计风格切换等多种实际应用场景中对可视化图表嵌入大规模信息,具有较高的计算效率和良好的视觉效果。
Description
技术领域
本发明涉及自编码网络及图像隐写技术领域,尤其是一种基于自编码网络的可视化图片信息嵌入方法。
背景技术
当前,很多可视化作品都是通过代码的形式生成,然后以图片的形式进行传播,在传播的过程中,如果脱离了Web服务的支持,可视化设计图和代码很难进行关联,这增加了可视化设计传播和修改的难度。在可视化设计的场合,信息隐写有很大的用处,如果设计师能够将可视化设计的代码或数据隐写到可视化图片中,将有利于进行进一步的传播和设计修改,也利于程序员与设计师的合作,利用隐写技术,信息的传播和修订将不需要图像及文本两种媒介了。
现有技术的图像隐写主要采用统计模型和神经网络的方法,这些方法大多是基于自然图像,利用了其丰富且成熟的图像特征,而可视化图表通常背景干净,视觉元素清晰,增加了编码与解码的难度。此外,可视化图表的视觉显著性特征也与自然图像有着很大的差异。
发明内容
本发明的目的是针对现有技术的不足而设计的一种基于自编码网络的可视化图片信息嵌入方法,采用深度神经网络提取可视化图表的视觉显著性特征,计算出嵌入信息的非显著区域,利用自编码网络将文本信息以二维码编码进图片非显著区域,解码后即可恢复出原始嵌入的文本信息,方法简便、高效,可以在保证可视化图片不失真的情况下,隐式地将用户指定的数据信息嵌入到可视化图片中,有效减小编码带来的显式视觉损失,可应用于版权保护、数据存储、可视化设计风格切换等实际应用场景,具有较高的计算效率和良好的视觉效果。
本发明的目的是这样实现的:一种基于自编码网络的可视化图片信息嵌入的方法,其特点是采用深度神经网络提取可视化图表的视觉显著性特征,计算出嵌入信息的非显著区域,然后将文本信息分割并转换成二维码,利用自编码网络将二维码编码进图片非显著区域,将编码结果输入解码网络,即可恢复出原始嵌入的文本信息,其可视化图片信息的具体嵌入包括以下步骤:
步骤1:输入一张大小为h*w的可视化图片Ic,其中,h为可视化图片Ic横向每行像素数,w为图片Ic纵向每列像素数;输入待嵌入文本信息Ts。
步骤2:在可视化图表显著性数据集上训练一个卷积神经网络模型,该卷积神经网络为U-Net结构的神经网络模型,所述U-Net神经网络包括特征提取部分和上采样部分,以及线性整流函数即ReLU函数作为激活函数;
所述U-Net神经网络的特征提取部分包括五层用于提取可视化图片显著性特征的卷积层,每个卷积核都使用3×3的大小,每两次卷积之后进行最大化池化处理。
所述U-Net神经网络的上采样部分使用转置卷积在不同尺度的特征图上采样到原始分辨率,然后与特征提取部分对应的特征图进行连接,最后为一层卷积核大小为1×1的卷积层,得到所有像素点的显著性值预测结果。
步骤3:将步骤2中的U-Net神经网络模型应用到步骤1所输入的可视化图片Ic,提取显著性特征后从U-Net神经网络的最后一层输出显著性值,其输出的显著图表示为V(Ic),即为一个表示每个像素点的显著性值的矩阵,其大小为h*w。
步骤4:构造可视化图表与二维码数据集,其中,可视化图表是常见图表(如柱状图、饼图、散点图等);对于二维码采用ISO/IEC18004标准,随机生成不同长度的文本信息后,转换为相应的二维码。
步骤5:在步骤4中构造的数据集上训练一个编码-解码网络,其中,编码网络的输入为一张大小为h*w的可视化图片Ic和一张大小为h'*w'的二维码图片Is,编码网络先使用两层卷积层对两张图片提取特征,卷积核大小分别为3×3和4×4,然后将得到的两个特征向量连接在一起,经过两层卷积层(卷积核大小为3×3)和一层转置卷积层(卷积核大小为4×4)后,最后经过两层卷积核大小为3×3的卷积层和Tanh激活函数,输出一张大小为h*w的编码结果Ic',其与原始可视化图片Ic的视觉差异很小;解码网络的输入为一张大小为h*w的编码结果Ic',经过四层卷积层(卷积核大小为3×3)和一层转置卷积层(卷积核大小为3×3)后,最后为一层卷积核大小为3×3的卷积层和Tanh激活函数,输出一张大小为h'*w'的恢复二维码图片Is',其与原始二维码图片Is的存储的信息一致;
所述编码网络采用下述a式定义的损失函数进行训练:
其中:Ic为用户输入的可视化图片:V(Ic)为显著图;Ic'为编码网络输出的编码结果图;p表示上述图片中的像素值。
所述解码网络采用下述式定义的损失函数进行训练:
其中:Is为用户输入的待嵌入的文本信息Ts经过分割与转换得到的二维码图片;Is'为解码网络恢复出的二维码图片:p表示上述图片中的像素值。
所述编码-解码网络采用下述c式定义的联合损失函数进行协同训练:
Ljoint=LEnc+αLDec (c);
其中:α为解码器损失函数的权重,表示编码图像的视觉质量和解码信息准确率之间的平衡,α值越高,解码准确率越高,编码图像的视觉感知质量越低,α默认值为0.25;在训练过程中使用步骤4构造的可视化图表与二维码数据集作为训练集,联合损失函数同时考虑了编码图像的视觉质量和恢复信息的重建误差,训练编码-解码网络直至联合损失函数收敛。
步骤6:对于大规模信息嵌入的场景,首先对用户输入的文本信息Ts进行分割,接着将分割完的字符串一一转换为对应的二维码图片,再根据可视化图表的显著性特征,计算出适合嵌入信息的非显著区域,然后将用户输入的可视化图片Ic的非显著区域与二维码图片一起输入步骤5训练得到的解码网络中,输出编码结果图片集合,编码结果个数与输入的二维码图片个数相同,最后将编码结果集合替换掉原始可视化图片Ic的非显著区域,得到最终编码结果图片Ic',其与Ic视觉差异很小;
所述文本信息Ts按下述d式进行分割:
其中:LenT为文本信息Ts的字符个数;NumB表示分割得到的二维码个数;LenB表示每个二维码容纳的文本信息字符数;η为二维码容量参数,可由用户指定,η默认值为800,较大的η表示一个二维码中承载了更多文本信息。
所述步骤3得到的显著图V(Ic)中计算出NumB个显著性值最小的区域,每个区域大小为200×200,具体计算过程如下所示:
步骤7:用户可以对编码结果Ic'进行网络传输与分享,其他用户收到嵌入信息的可视化图片后,将该图片输入解码网络,即可恢复出原始嵌入的文本信息。
本发明与现有技术相比具有保证可视化图片不失真的情况下,隐式地将用户指定的数据信息嵌入到可视化图片中,有效减小编码带来的显式视觉损失,能够在版权保护、数据存储、可视化设计风格切换等多种实际应用场景中对可视化图表嵌入大规模信息,同时利用深度神经网络计算可视化图表的视觉显著性特征,将用户输入的文本信息编码进图片不显著区域,减小编码带来的显式视觉损失,具有较高的计算效率和良好的视觉效果。
附图说明
图1为本发明流程示意图;
图2为实施例示意图。
具体实施方式
参阅附图1,本发明按下述步骤进行可视化图片的信息嵌入:
步骤一:输入一张可视化图片Ic和待嵌入文本信息Ts;
步骤二:通过卷积神经网络提取显著性特征,输出显著图V(Ic);
步骤三:使用显著图V(Ic)约束编码-解码网络的训练过程;
步骤四:对文本信息Ts进行分割,并转换为二维码图片Is;
步骤五:根据显著图V(Ic)计算出适合嵌入信息的非显著区域;
步骤六:利用自编码网络将二维码编码进可视化图片Ic的非显著区域,得到编码结果Ic';
步骤七:用户对编码结果图Ic'进行网络传输与分享;
步骤八:将编码结果图Ic'输入解码网络,即可恢复出原始嵌入的文本信息。
以下以某一可视化图片版权信息的嵌入为例对本发明作进一步的详细说明。
实施例1
参阅附图2,本发明按下述步骤进行可视化图片信息嵌入:
步骤1:输入一张大小为h*w的可视化图片Ic,其中,h为可视化图片Ic横向每行像素数,w为图片Ic纵向每列像素数;输入待嵌入文本信息Ts。
步骤2:在可视化图表显著性数据集上训练一个卷积神经网络模型,该卷积神经网络为U-Net结构的神经网络模型,所述U-Net神经网络包括特征提取部分和上采样部分,以及线性整流函数即ReLU函数作为激活函数。
步骤3:将步骤2中的U-Net神经网络模型应用到步骤1中所输入的可视化图片Ic,提取显著性特征后从U-Net神经网络的最后一层输出显著性值,其输出的显著图表示为V(Ic),即为一个表示每个像素点的显著性值的矩阵,大小为h*w。
步骤4:构造可视化图表与二维码数据集,其中,对于可视化图表,从D3、ECharts等开源可视化库中选取不同类型的图表(如柱状图、饼图、散点图等);对于二维码采用ISO/IEC18004标准,随机生成不同长度的文本信息后,转换为相应的二维码。
步骤5:在步骤4中构造的数据集上训练一个编码-解码网络,其中,编码网络的输入为一张大小为h*w的可视化图片Ic和一张大小为h'*w'的二维码图片Is,编码网络先使用两层卷积层对两张图片提取特征,卷积核大小分别为3×3和4×4,然后将得到的两个特征向量连接在一起,经过两层卷积层(卷积核大小为3×3)和一层转置卷积层(卷积核大小为4×4)后,最后经过两层卷积核大小为3×3的卷积层和Tanh激活函数,输出一张大小为h*w的编码结果Ic',该编码结果Ic'与原始可视化图片Ic的视觉差异很小;解码网络的输入为一张大小为h*w的编码结果Ic',经过四层卷积层(卷积核大小为3×3)和一层转置卷积层(卷积核大小为3×3)后,最后为一层卷积核大小为3×3的卷积层和Tanh激活函数,输出一张大小为h'*w'的恢复二维码图片Is',该二维码图片Is'其与原始二维码图片Is的存储的信息一致。
步骤6:对于大规模信息嵌入的场景,首先对用户输入的文本信息Ts进行分割,接着将分割完的字符串一一转换为对应的二维码图片,再根据可视化图表的显著性特征,计算出适合嵌入信息的非显著区域,然后将用户输入的可视化图片Ic的非显著区域与二维码图片一起输入步骤5训练得到的解码网络中,输出编码结果图片集合,编码结果个数与输入的二维码图片个数相同,最后将编码结果集合替换掉原始可视化图片Ic的非显著区域,得到最终编码结果图片Ic',该Ic'其与Ic视觉差异很小;
步骤7:用户可以对编码结果Ic'进行网络传输与分享,其他用户收到嵌入信息的可视化图片后,将该图片输入解码网络,即可恢复出原始嵌入的文本信息。
以上只是对本发明作进一步的说明,并非用以限制本专利,在不背离本发明构思的精神和范围下的等效实施,均应包含于本专利的权利要求范围之内。
Claims (9)
1.一种基于自编码网络的可视化图片信息嵌入方法,其特征在于采用深度神经网络提取可视化图表的视觉显著性特征,计算出嵌入信息的非显著区域,然后将文本信息分割并转换成二维码,利用自编码网络将二维码编码进图片非显著区域,将编码结果输入解码网络,即可恢复出原始嵌入的文本信息,其可视化图片信息的具体嵌入包括以下步骤:
步骤1:输入可视化图片Ic和待嵌入文本信息Ts;
步骤2:在可视化图表显著性数据集上训练一个U-Net神经网络模型,所述U-Net神经网络包括特征提取部分、上采样部分以及Tanh激活函数;
步骤3:将可视化图片Ic输入已训练的U-Net神经网络模型,提取的显著性特征从U-Net神经网络的最后一层输出显著图V(Ic),所述显著图V(Ic)为表示每个像素点的显著性值的矩阵,其大小为h*w;
步骤4:构造可视化图表与二维码的数据集;
步骤5:在上述构造的数据集上训练一个编码-解码网络,所述编码网络的训练使用两层卷积核分别为3×3和4×4的卷积层,对输入为h*w的可视化图片Ic和h'*w'的二维码图片Is提取特征,然后将得到的两个特征向量经两层卷积核为3×3的卷积层和一层卷积核为4×4的转置卷积层连接在一起,最后经两层卷积核为3×3的卷积层和Tanh激活函数,输出与原始可视化图片Ic视觉差异很小的编码结果Ic',其大小为h*w;所述解码网络的训练将编码结果Ic'使用四层卷积核为3×3的卷积层和一层卷积核为3×3的转置卷积层,最后经一层卷积核为3×3的卷积层和Tanh激活函数,输出与原始二维码图片Is的存储的信息一致的恢复二维码图片Is',其大小为h'*w';
步骤6:对输入的文本信息Ts进行分割,将分割完的字符串一一转换为对应的二维码图片,并根据可视化图表的显著性特征,计算出适合嵌入信息的非显著区域,然后将可视化图片Ic的非显著区域与二维码图片一起输入训练得到的解码网络中,输出编码结果图片集合,其编码结果个数与输入的二维码图片个数相同,最后将编码结果集合替换掉原始可视化图片Ic的非显著区域,得到与Ic视觉差异很小的编码结果图片Ic';
步骤7:用户可以对编码结果Ic'进行网络传输与分享,其他用户收到嵌入信息的可视化图片后,将该图片输入解码网络,即可恢复出原始嵌入的文本信息。
2.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述可视化图片Ic的大小为h*w,其中:h为可视化图片Ic横向每行像素数;w为图片Ic纵向每列像素数。
3.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述U-Net神经网络的特征提取部分包括:五层用于提取可视化图片显著性特征的卷积层,每个卷积核都使用3×3的大小,每两次卷积后进行最大化池化处理;所述U-Net神经网络的上采样部分使用转置卷积在不同尺度的特征图上采样到原始分辨率,然后与特征提取部分对应的特征图进行连接,最后为一层1×1卷积核的卷积层,得到所有像素点的显著性值预测结果。
4.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述可视化图表中选取不同类型的柱状图、饼图或散点图。
5.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述二维码采用ISO/IEC 18004标准,随机生成不同长度的文本信息后转换为相应的二维码。
7.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述编码-解码网络采用下述c式定义的联合损失函数进行协同训练:
Ljoint=LEnc+αLDec (c);
其中:α为解码器损失函数的权重,表示编码图像的视觉质量和解码信息准确率之间的平衡,α值越高,解码准确率越高,编码图像的视觉感知质量越低;α默认值为0.25;在训练过程中,使用构造的可视化图表与二维码数据集作为训练集,联合损失函数同时考虑了编码图像的视觉质量和恢复信息的重建误差,训练编码-解码网络直至联合损失函数收敛。
9.根据权利要求1所述基于自编码网络的可视化图片信息嵌入方法,其特征在于所述嵌入信息的非显著区域是从显著图V(Ic)中计算出NumB个显著性值最小的区域,每个区域大小为200×200。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010918972.4A CN112132158A (zh) | 2020-09-04 | 2020-09-04 | 一种基于自编码网络的可视化图片信息嵌入方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010918972.4A CN112132158A (zh) | 2020-09-04 | 2020-09-04 | 一种基于自编码网络的可视化图片信息嵌入方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112132158A true CN112132158A (zh) | 2020-12-25 |
Family
ID=73847909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010918972.4A Pending CN112132158A (zh) | 2020-09-04 | 2020-09-04 | 一种基于自编码网络的可视化图片信息嵌入方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132158A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800261A (zh) * | 2021-02-01 | 2021-05-14 | 上海卓易科技股份有限公司 | 基于在电子图片中嵌入编码信息以存储及还原排序的方法 |
CN113726976A (zh) * | 2021-09-01 | 2021-11-30 | 南京信息工程大学 | 一种基于编码-解码网络的大容量以图藏图方法和系统 |
CN113963081A (zh) * | 2021-10-11 | 2022-01-21 | 华东师范大学 | 一种基于图卷积网络的图像图表智能合成方法 |
CN114596876A (zh) * | 2022-01-21 | 2022-06-07 | 中国科学院自动化研究所 | 声源分离方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104168484A (zh) * | 2014-08-19 | 2014-11-26 | 河海大学 | 一种基于视觉注意机制的视频水印方法 |
CN105447546A (zh) * | 2015-11-25 | 2016-03-30 | 林蔚 | 可嵌入大比例图形的二维码及其编码和解码方法和设备 |
CN106878827A (zh) * | 2017-03-22 | 2017-06-20 | 河海大学 | 一种高鲁棒性音视频交叉水印算法 |
CN111028308A (zh) * | 2019-11-19 | 2020-04-17 | 珠海涵辰科技有限公司 | 一种图像中信息的隐写及读取方法 |
-
2020
- 2020-09-04 CN CN202010918972.4A patent/CN112132158A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104168484A (zh) * | 2014-08-19 | 2014-11-26 | 河海大学 | 一种基于视觉注意机制的视频水印方法 |
CN105447546A (zh) * | 2015-11-25 | 2016-03-30 | 林蔚 | 可嵌入大比例图形的二维码及其编码和解码方法和设备 |
CN106878827A (zh) * | 2017-03-22 | 2017-06-20 | 河海大学 | 一种高鲁棒性音视频交叉水印算法 |
CN111028308A (zh) * | 2019-11-19 | 2020-04-17 | 珠海涵辰科技有限公司 | 一种图像中信息的隐写及读取方法 |
Non-Patent Citations (2)
Title |
---|
S.BALUJA: "Hiding Images in Plain Sight:Deep Steganography", 《NIPS》 * |
王恒: "基于视觉QR码的可逆数据隐藏研究", 《硕士电子期刊》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800261A (zh) * | 2021-02-01 | 2021-05-14 | 上海卓易科技股份有限公司 | 基于在电子图片中嵌入编码信息以存储及还原排序的方法 |
CN112800261B (zh) * | 2021-02-01 | 2024-01-30 | 上海卓易科技股份有限公司 | 基于在电子图片中嵌入编码信息以存储及还原排序的方法 |
CN113726976A (zh) * | 2021-09-01 | 2021-11-30 | 南京信息工程大学 | 一种基于编码-解码网络的大容量以图藏图方法和系统 |
CN113726976B (zh) * | 2021-09-01 | 2023-07-11 | 南京信息工程大学 | 一种基于编码-解码网络的大容量以图藏图方法和系统 |
CN113963081A (zh) * | 2021-10-11 | 2022-01-21 | 华东师范大学 | 一种基于图卷积网络的图像图表智能合成方法 |
CN113963081B (zh) * | 2021-10-11 | 2024-05-17 | 华东师范大学 | 一种基于图卷积网络的图像图表智能合成方法 |
CN114596876A (zh) * | 2022-01-21 | 2022-06-07 | 中国科学院自动化研究所 | 声源分离方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112132158A (zh) | 一种基于自编码网络的可视化图片信息嵌入方法 | |
CN110378334B (zh) | 一种基于二维特征注意力机制的自然场景文本识别方法 | |
CN109087258B (zh) | 一种基于深度学习的图像去雨方法及装置 | |
CN110348487B (zh) | 一种基于深度学习的高光谱图像压缩方法及装置 | |
CN111669587B (zh) | 一种视频图像的拟态压缩方法、装置、存储介质及终端 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN113096017A (zh) | 基于深度坐标注意力网络模型的图像超分辨率重建方法 | |
CN109996073B (zh) | 一种图像压缩方法、系统、可读存储介质及计算机设备 | |
CN110473151B (zh) | 基于分区卷积和关联损失的双阶段图像补全方法及系统 | |
CN113554058A (zh) | 视觉目标图像分辨率增强的方法、系统、装置及存储介质 | |
CN115131675A (zh) | 一种基于参考影像纹理迁移的遥感影像压缩方法及系统 | |
CN116233445B (zh) | 视频的编解码处理方法、装置、计算机设备和存储介质 | |
Zebang et al. | Densely connected AutoEncoders for image compression | |
CN116630131A (zh) | 屏幕隐形水印的编码、解码系统及方法 | |
CN113747163A (zh) | 基于上下文重组建模的图像编码、解码方法及压缩方法 | |
CN115908205A (zh) | 图像修复方法、装置、电子设备和存储介质 | |
CN111355965B (zh) | 一种基于深度学习的图像压缩还原方法及装置 | |
CN115294222A (zh) | 图像编码方法及图像处理方法、终端及介质 | |
CN117793371A (zh) | 一种基于Swin-Unet架构的多张高分辨率彩色图像隐藏方法 | |
CN100546386C (zh) | 编码和解码坐标内插符的关键值数据的方法和装置 | |
CN112837212A (zh) | 一种基于流形对齐的图像任意风格迁移方法 | |
CN112887722A (zh) | 一种图像无损压缩方法 | |
CN107169915A (zh) | 一种基于分块合并策略的pvo数字水印方法 | |
CN113949880B (zh) | 一种极低码率人机协同图像编码训练方法及编解码方法 | |
KR102442980B1 (ko) | Erp 기반 다시점 360도 영상의 초해상화 방법 및 영상처리장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201225 |