CN113538216A - 一种基于属性分解的图像风格迁移方法 - Google Patents
一种基于属性分解的图像风格迁移方法 Download PDFInfo
- Publication number
- CN113538216A CN113538216A CN202110667797.0A CN202110667797A CN113538216A CN 113538216 A CN113538216 A CN 113538216A CN 202110667797 A CN202110667797 A CN 202110667797A CN 113538216 A CN113538216 A CN 113538216A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- style
- style migration
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013508 migration Methods 0.000 title claims abstract description 51
- 230000005012 migration Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 15
- 238000001228 spectrum Methods 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 18
- 230000004913 activation Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于属性分解的图像风格迁移方法,首先获取一张内容图像,将该图像输入到风格迁移网络模型结构中进行风格迁移处理,输出风格迁移后的图像,所述风格迁移网络模型结构包括两部分,第一部分是基于自动编码器的风格解耦网络,第二部分是基于CGAN的特征谱生成网络。本发明提出的方法对于传统风格迁移方式有极大的创新,引入属性解耦的方法,将风格视为解耦对象,实现新图像风格的创建与迁移,同时,其中隐变量引入了随机性,实现了多种新风格的产生。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于属性分解的图像风格迁移方法。
背景技术
近年来,深度学习作为人工智能领域最热门的方向,显示出强大的学习和处理能力,甚至在部分领域超过人类的表现。图像风格迁移是深度学习的一项典型应用,也是国内外的热门研究方向。图像风格迁移是将一张图像在保持内容不变的同时换成另一种风格,使普通的人或景物图片转换为各种艺术风格效果,此技术可广泛应用于图像处理、计算机图片合成和计算机视觉等方面。
目前,还有将输入图像(将要迁移的图像)的特征谱的均值和方差和风格图像对齐,完成对于风格的迁移,之后将修改过的特征谱送入解码器网络,生成风格迁移图像,这也是目前常规的风格迁移算法,可以实现单风格的图像风格迁移,然而在多风格迁移方向的表现有限,传统的单/多风格迁移网络中,往往只能实现已有风格的迁移,或者多风格的简单融合,且效果有限,且并不能产生全新的风格,因此,亟需一种效果更好的图像风格迁移方法。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于属性分解的图像风格迁移方法,解决了上述背景技术中提到的问题。
为实现上述目的,本发明提供如下技术方案:一种基于属性分解的图像风格迁移方法,获取待风格迁移图像,将图像输入到风格迁移网络模型结构中进行风格迁移处理,输出风格迁移后的图像,所述风格迁移网络模型结构包括两部分,第一部分是基于自动编码器的风格解耦网络,第二部分是基于CGAN的特征谱生成网络。
优选的,所述的风格迁移方法具体包括如下步骤:
S1、数据集预处理,将采集的多张图像组成数据集,对数据集的图像进行裁剪;
S2、建立自动编码器Autoencoder网络,Autoencoder网络包括输入层、中间层和输出层;
S3、构建损失函数Ltotal,损失函数包括L1loss和协方差损失函数Lcov;
S4、训练Autoencoder网络,将数据集预处理后的图像输入到Autoencoder网络进行端到端的训练,使Autoencoder网络能完整的重建图像;
S5、构建特征谱生成网络CGAN,特征谱生成网络CGAN用于对特征谱分布进行采样,完成对风格分布的采样,产生全新的风格;
S6、训练特征谱生成网络CGAN,损失函数为对抗损失函数;
S7、完成训练后测试模型并进行风格迁移处理。
优选的,所述步骤S1中的图像裁剪具体是采用随机长宽比裁剪的手段,将图像尺寸大小转化为178×218,保持图像数据尺寸一致。
优选的,所述步骤S3中的L1loss损失函数衡量输入与输出的差异,用于重构输出图像,所述协方差损失函数用于风格特征解耦。
优选的,所述协方差损失函数是取出Autoencoder网络中间层特征谱,按通道分为c1,c2两部分,计算两部分的协方差。
优选的,所述通道分为c1,c2两部分具体是指等长的将通道分为c1,c2两部分。
优选的,所述步骤S5中特征谱生成网络CGAN的输入为两部分,一部分为隐变量z,另一部分为数据集预处理后的图像,输出为用于替换c1通道处的新的特征谱。
优选的,所述步骤S7中进行风格迁移处理具体是指:选定待迁移图像,从高斯分布的采样获得隐变量z,然后输入到Autoencoder网络和特征谱生成网络,保持c2处特征谱不变,用特征谱生成网络的结果替换c1处网络,获得解码器输出,即完成图像的风格迁移。
本发明的有益效果是:本发明提出的方法对于传统风格迁移方式有极大的创新,引入属性解耦的方法,将风格视为解耦对象,实现新图像风格的创建与迁移,本发明请提出的方法旨在完成对于风格分布的采样,实现方法上,GAN的生成器用于生成特征谱,利用损失函数解耦,产生全新的风格。
附图说明
图1为本发明实施例1自动编码器Autoencoder网络参数示意图;
图2为本发明实施例1风格迁移网络模型结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1-2,本发明提供一种技术方案:一种基于属性分解的图像风格迁移方法,首先获取待风格迁移图像,将图像输入到风格迁移网络模型结构中进行风格迁移处理,输出风格迁移后的图像,所述风格迁移网络模型结构包括两部分,网络模型结构如图2所示,第一部分是基于自动编码器的解耦网络,第二部分是基于CGAN的特征谱生成网络,配置环境:python3.7,Pytorch1.8.1CUDA10.2。
1.数据集预处理,将采集的多张图像组成数据集,对数据集的图像进行裁剪、混合抽样。本发明使用的数据集有CelebA人脸数据集和WikiArt数据集。CelebA的img_align_celebA中有超过200,000张真实的人脸图像,图像尺寸为178×218。WikiArt包含超过80,000副艺术作品,该数据集中的图像风格形式多样,适合用于图像风格迁移任务。
其中,WikiArt数据集的图像尺寸均大于CelebA数据集中图像的尺寸,为了在训练中保持图像数据尺寸一致,本发明采用随机长宽比裁剪的手段,将WikiArt中的图像尺寸转化为178×218,从而使之与CelebA一起参与训练。
训练时,将以上两个数据集中裁剪处理后的图像混合输入到网络中,网络可以对不同风格的图像进行混合抽样,从而实现多模态的图像风格迁移。
2.建立自动编码器Autoencoder网络,Autoencoder网络包括输入层、中间层和输出层。
3.构建损失函数,损失函数Ltotal包括L1loss损失和协方差损失函数Lcov两部分,如式(1)所示。
L1loss衡量输入与输出的差异,用于重构输出图像,定量描述如式(2)所示,其中P表示一张图像中像素点的结合,p表示其中的某个像素点,x(p)表示网络的输入图像,y(p)表示网络预测得到的输出图像,N表示一张图像中像素个数,L1损失通过约束真实输入和预测输出之间的平均误差,来保证网络能够成功重建出图像。
协方差损失用于风格特征的解耦,实现方法是取出Autoencoder的中间层特征谱,将通道等长地分为c1,c2两部分,显然c1=c2,两部分特征谱的尺寸分别为c1×H×W和c2×H×W,将这2个三维的特征谱转化成c1×HW和c2×HW2个大小相等的二维矩阵,分别记为矩阵A1和A2,计算矩阵A1和A2的协方差得到协方差损失,通过这个损失函数来保证c1、c2这两部分通道的特征不相关,协方差损失函数如式(3)所示
Ltotal=λ1L1+λ2LCOV (1)
LCOV=Cov(A1,A2)=E[A1A2 T]-E[A1]E[A2 T] (3)
4.训练Autoencoder网络,首先,对于Autoencoder网络,将数据集预处理后的图像输入到Autoencoder网络进行端到端的训练,使Autoencoder网络能完整的重建图像。训练中,对一张输入图像,网络输出一张重建图像,训练设置epoch=80,batch size=256,使用自适应学习率优化算法,初始学习率设置为0.5e-4,调整参数λ1、λ2的值使得损失函数尽可能地收敛、图像重建效果尽可能地精确,Autoencoder网络参数如图1所示。
5.构建特征谱生成网络CGAN,该网络的输入为两部分,一部分为隐变量z,另一部分为数据集预处理后得到的参考图像,输出为用于替换c1通道处的新的特征谱。特征谱生成网络CGAN用于对特征谱分布进行采样,该网络的目的在于给定输入图片的条件下,生成符合前c1通道数据分布的特征谱,其中隐变量Z引入了随机性,完成对风格分布的采样,产生全新的风格。
6.训练特征谱生成网络CGAN,它是对原始GAN网络的一个扩展,生成器和判别器都增加额外监督信息y作为条件,以此来指导G的生成过程。在本发明中,y使用预处理后的风格图像yref来作为条件信息,网络CGAN中损失函数为对抗损失函数,如式(4)所示,其中D和G分别表示GAN模型中的判别器和生成器,x表示真实的输入图像,yref表示风格图像,用作条件信息,z表示随机噪声向量,pdata(x)和pZ(z)分别表示输入图像x和随机噪声z的分布。
CGAN网络的训练分为两个方面,对于生成器网络,输入随机噪声和条件信息(本发明中,条件信息是指参考图像),输出一张尽可能与输入图像相似且逼真的伪图像;对于判别器网络,输入带有条件信息(参考图像)的真实图像以及带有条件信息的伪图像(伪图像是由生成器合成的),判别器输出一个[0,1]的概率值,描述生成图像是否为真实图像的概率大小,通过修改网络训练参数使得这一概率值尽可能地接近0.5。
CGAN网络训练的优化器使用自适应学习率优化,训练设置epoch=200,使用mini-batch norm,初始学习率设置为1e-4,随着训练进行不断缩小学习率,中间层激活函数使用LeakRelu函数,最后一层的激活函数使用tanh。
7.完成训练后测试模型并进行风格迁移处理,选定待迁移图像,从高斯分布的采样获得隐变量z,然后输入到Autoencoder网络和特征谱生成网络,保持c2处特征谱不变,用特征谱生成网络的结果替换c1处网络,获得解码器输出,即完成图像的风格迁移,重复此过程,获得多张风格迥然不同的风格迁移图像。
本发明提出的方法对于传统风格迁移方式有极大的创新,引入属性解耦的方法,将风格视为解耦对象,实现新图像风格的创建与迁移,本发明请提出的方法旨在完成对于风格分布的采样,实现方法上,GAN的生成器用于生成特征谱,利用损失函数解耦,产生全新的风格。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于属性分解的图像风格迁移方法,其特征在于,获取待风格迁移图像,将图像输入到风格迁移网络模型结构中进行风格迁移处理,输出风格迁移后的图像,所述风格迁移网络模型结构包括两部分,第一部分是基于自动编码器的风格解耦网络,第二部分是基于CGAN的特征谱生成网络。
2.根据权利要求1所述的基于属性分解的图像风格迁移方法,其特征在于,所述的风格迁移方法具体包括如下步骤:
S1、数据集预处理,将采集的多张图像组成数据集,对数据集的图像进行裁剪;
S2、建立自动编码器Autoencoder网络,Autoencoder网络包括输入层、中间层和输出层;
S3、构建损失函数Ltotal,损失函数包括L1loss和协方差损失函数Lcov;
S4、训练Autoencoder网络,将数据集预处理后的图像输入到Autoencoder网络进行端到端的训练,使Autoencoder网络能完整的重建图像;
S5、构建特征谱生成网络CGAN,特征谱生成网络CGAN用于对特征谱分布进行采样,完成对风格分布的采样,产生全新的风格;
S6、训练特征谱生成网络CGAN,损失函数为对抗损失函数;
S7、完成训练后测试模型并进行风格迁移处理。
3.根据权利要求2所述的基于属性分解的图像风格迁移方法,其特征在于:所述步骤S1中的图像裁剪具体是采用随机长宽比裁剪的手段,将图像尺寸大小转化为178×218,保持图像数据尺寸一致。
4.根据权利要求1所述的基于属性分解的图像风格迁移方法,其特征在于:所述步骤S3中的L1loss损失函数衡量输入与输出的差异,用于重构输出图像,所述协方差损失函数用于风格特征解耦。
5.根据权利要求2或4所述的基于属性分解的图像风格迁移方法,其特征在于:所述协方差损失函数是取出Autoencoder网络中间层特征谱,按通道分为c1,c2两部分,计算两部分的协方差。
6.根据权利要求5所述的基于属性分解的图像风格迁移方法,其特征在于:所述通道分为c1,c2两部分具体是指等长的将通道分为c1,c2两部分。
7.根据权利要求1所述的基于属性分解的图像风格迁移方法,其特征在于:所述步骤S5中特征谱生成网络CGAN的输入为两部分,一部分为隐变量z,另一部分为数据集预处理后的图像,输出为用于替换c1通道处的新的特征谱。
8.根据权利要求1所述的基于属性分解的图像风格迁移方法,其特征在于:所述步骤S7中进行风格迁移处理具体是指:选定待迁移图像,从高斯分布的采样获得隐变量z,然后输入到Autoencoder网络和特征谱生成网络,保持c2处特征谱不变,用特征谱生成网络的结果替换c1处网络,获得解码器输出,即完成图像的风格迁移。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110667797.0A CN113538216B (zh) | 2021-06-16 | 2021-06-16 | 一种基于属性分解的图像风格迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110667797.0A CN113538216B (zh) | 2021-06-16 | 2021-06-16 | 一种基于属性分解的图像风格迁移方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113538216A true CN113538216A (zh) | 2021-10-22 |
CN113538216B CN113538216B (zh) | 2022-03-01 |
Family
ID=78125019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110667797.0A Active CN113538216B (zh) | 2021-06-16 | 2021-06-16 | 一种基于属性分解的图像风格迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538216B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN108961198A (zh) * | 2018-07-09 | 2018-12-07 | 中国海洋大学 | 一种多风格生成对抗网络的水下图像合成方法及其应用 |
CN109447137A (zh) * | 2018-10-15 | 2019-03-08 | 聚时科技(上海)有限公司 | 一种基于分解因子的图像局部风格迁移方法 |
CN109949214A (zh) * | 2019-03-26 | 2019-06-28 | 湖北工业大学 | 一种图像风格迁移方法及系统 |
CN110458216A (zh) * | 2019-07-31 | 2019-11-15 | 中山大学 | 基于条件生成对抗网络的图像风格迁移方法 |
CN110533580A (zh) * | 2019-08-08 | 2019-12-03 | 西安交通大学 | 一种基于对抗生成神经网络的图像风格迁移方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111325661A (zh) * | 2020-02-21 | 2020-06-23 | 京工数演(福州)科技有限公司 | 一种名为msgan的图像的季节风格转换模型及方法 |
US20200311986A1 (en) * | 2019-03-27 | 2020-10-01 | GM Global Technology Operations LLC | Semantic preserved style transfer |
CN112330535A (zh) * | 2020-11-27 | 2021-02-05 | 江南大学 | 一种图片风格迁移方法 |
-
2021
- 2021-06-16 CN CN202110667797.0A patent/CN113538216B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN108961198A (zh) * | 2018-07-09 | 2018-12-07 | 中国海洋大学 | 一种多风格生成对抗网络的水下图像合成方法及其应用 |
CN109447137A (zh) * | 2018-10-15 | 2019-03-08 | 聚时科技(上海)有限公司 | 一种基于分解因子的图像局部风格迁移方法 |
CN109949214A (zh) * | 2019-03-26 | 2019-06-28 | 湖北工业大学 | 一种图像风格迁移方法及系统 |
US20200311986A1 (en) * | 2019-03-27 | 2020-10-01 | GM Global Technology Operations LLC | Semantic preserved style transfer |
CN110458216A (zh) * | 2019-07-31 | 2019-11-15 | 中山大学 | 基于条件生成对抗网络的图像风格迁移方法 |
CN110533580A (zh) * | 2019-08-08 | 2019-12-03 | 西安交通大学 | 一种基于对抗生成神经网络的图像风格迁移方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111325661A (zh) * | 2020-02-21 | 2020-06-23 | 京工数演(福州)科技有限公司 | 一种名为msgan的图像的季节风格转换模型及方法 |
CN112330535A (zh) * | 2020-11-27 | 2021-02-05 | 江南大学 | 一种图片风格迁移方法 |
Non-Patent Citations (6)
Title |
---|
PENGFEI LI等: "Semantic GAN: Application for Cross-Domain Image Style Transfer", 《2019 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》 * |
XUEXIN QU等: "Perceptual-DualGAN: Perceptual Losses for Image to Image Translation with Generative Adversarial Nets", 《2018 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 * |
彭晏飞等: "基于循环生成对抗网络的图像风格迁移", 《计算机工程与科学》 * |
李君艺等: "基于感知对抗网络的图像风格迁移方法研究", 《合肥工业大学学报(自然科学版)》 * |
杨勃等: "基于生成模型的图像风格迁移设计与实现", 《湖南理工学院学报(自然科学版)》 * |
马赫等: "基于CycleGAN的图像风格迁移", 《电脑知识与技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113538216B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
CN111145116B (zh) | 一种基于生成对抗网络的海面雨天图像样本增广方法 | |
CN111583135B (zh) | 一种核预测神经网络蒙特卡罗渲染图像去噪方法 | |
CN109584325B (zh) | 一种基于u型周期一致对抗网络的动漫图像的双向色彩化方法 | |
CN112465955B (zh) | 一种动态人体三维重建和视角合成方法 | |
CN109064507A (zh) | 一种用于视频预测的多运动流深度卷积网络模型方法 | |
CN111192211B (zh) | 一种基于单个深度神经网络的多噪声类型盲去噪方法 | |
CN110889370B (zh) | 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法 | |
CN109741247A (zh) | 一种基于神经网络的肖像漫画生成方法 | |
CN109903236A (zh) | 基于vae-gan与相似块搜索的人脸图像修复方法及装置 | |
CN108830812A (zh) | 一种基于网格结构深度学习的视频高帧率重制方法 | |
CN112967178A (zh) | 一种图像转换方法、装置、设备及存储介质 | |
CN113052814B (zh) | 基于Retinex和注意力机制的暗光图像增强方法 | |
CN111008938A (zh) | 一种基于内容和连续性引导的实时多帧比特增强方法 | |
CN112991493A (zh) | 基于vae-gan和混合密度网络的灰度图像着色方法 | |
CN112837210A (zh) | 一种基于特征图分块的多形变风格人脸漫画自动生成方法 | |
CN115829876A (zh) | 一种基于交叉注意力机制的真实退化图像盲修复方法 | |
CN114693929A (zh) | 一种rgb-d双模态特征融合的语义分割方法 | |
CN113538216B (zh) | 一种基于属性分解的图像风格迁移方法 | |
CN109658508A (zh) | 一种多尺度细节融合的地形合成方法 | |
CN115482368A (zh) | 一种利用语义图进行三维场景编辑的方法 | |
CN116977455A (zh) | 基于深度双向学习的人脸素描图像生成系统及方法 | |
CN115100044A (zh) | 基于三生成器生成对抗网络的内窥镜超分辨方法、系统 | |
CN105160664B (zh) | 基于低秩模型的压缩感知视频重构方法 | |
CN114419178A (zh) | 一种基于深度学习的壁画对应线稿生成方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |