CN109345446A - 一种基于对偶学习的图像风格转移算法 - Google Patents

一种基于对偶学习的图像风格转移算法 Download PDF

Info

Publication number
CN109345446A
CN109345446A CN201811090280.4A CN201811090280A CN109345446A CN 109345446 A CN109345446 A CN 109345446A CN 201811090280 A CN201811090280 A CN 201811090280A CN 109345446 A CN109345446 A CN 109345446A
Authority
CN
China
Prior art keywords
image
style
convolution kernel
picture
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811090280.4A
Other languages
English (en)
Other versions
CN109345446B (zh
Inventor
彭宏
陈茹
张国洲
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xihua University
Original Assignee
Xihua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xihua University filed Critical Xihua University
Priority to CN201811090280.4A priority Critical patent/CN109345446B/zh
Publication of CN109345446A publication Critical patent/CN109345446A/zh
Application granted granted Critical
Publication of CN109345446B publication Critical patent/CN109345446B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于对偶学习的图像风格转移算法,首先向预训练好的转换网络VGG19中分别输入内容图片C和风格图片S,并随机初始化一张图片Z;再在原任务中,分别计算C和Z的内容损失、S和Z的风格损失、对得到的初始转换后的图片Z进行降噪、在对偶任务中,计算复原图像C'和Z的内容损失、C'和新的风格图像S'的风格损失,对复原图像C’进行降噪、计算目标函数和梯度,最后用adam优化算法对目标函数进行优化,之后输出风格化图像Z和复原图像C'。本发明可以对带有任何内容的图片与任何风格的图片进行融合,再在对偶学习的基础上对融合了的新图片进行还原,风格转移效果优于现有技术。

Description

一种基于对偶学习的图像风格转移算法
技术领域
本发明属于图形技术领域,具体涉及一种基于对偶学习的图像风格转移算法。
背景技术
现在的图像风格转移能够将一张图片的风格转移到另一张图片上,大多是在卷积神经网络(CNN)上实现的,CNN在图像分类,人脸识别,目标探测等方面已经取得很大的成功,现在,已经有很多研究者使用CNN进行图像的生成,还有图像的着色。Gatys在2016年发表的那篇图像风格转移就是在已经训练好的CNNs网络——VGG_19上实现的,他在选定好的CNNs层级上,定义两个损失,一个是内容损失,另一个是风格损失,利用优化算法来最小化这两个损失,从而使最后得到的图片既有内容又有风格。但是,Gatys的这种方法并不能保证每次最后得到的融合了内容和风格的图片效果是我们想要的,可能得到的图片的风格会掩盖了内容,使内容不明显,甚至是扭曲了原图像中的内容。
Gatys之后,李沐等人在2016年提出了一个从优化的角度,建立一个优化模型来进行特定人脸属性转移的同时保留了输入图片里面人物的身份,随后又提出了一个改进的方案来进行人脸局部属性的转移,他们的工作其实就是进行人脸局部的风格转移,比如戴眼镜、去掉眼镜、嘴巴张开、嘴巴闭着等等,但这些方法都需要很高的计算量,也很难获得高质量的风格转移图片。
发明内容
本发明的目的是提供一种基于对偶学习的图像风格转移算法,可以对带有任何内容的图片与任何风格的图片进行融合,再在对偶学习的基础上对融合了的新图片进行还原,风格转移效果优于现有技术。
本发明采取的技术方案是:
一种基于对偶学习的图像风格转移算法,包括以下步骤:
步骤一:向预训练好的转换网络VGG19中分别输入内容图片C和风格图片S,并随机初始化一张图片Z;
步骤二:利用公式(1)计算原任务中C和Z的内容损失
其中,Lpc(C,Z,l)为第l层的内容损失,
为风格化图像Z在第l层第i个卷积核中位置j上的特征,
为内容图像C在第l层第i个卷积核中位置j上的特征;
步骤三:利用公式(3)计算原任务中S和Z风格损失
其中,Lps(S,Z,l)为第l层的风格损失,
为风格图像S在l层中第i个卷积核与第j个卷积核的内积,
为风格化图像Z在l层中第i个卷积核与第j个卷积核的内积,
Cl,Hl和Wl分别表示第l层的通道数,高度和宽度;
步骤四:利用公式(5)计算原任务中的正则项,即对得到的初始转换后的图片Z进行降噪
步骤五:利用公式(6)计算对偶任务中C'和Z的内容损失,其中,C'为复原图像,即在对偶任务中,原始图像C作为新的风格图像S',根据此风格,从风格化图像Z中复原出原图像的一个近似C',
其中,为复原图像C’在第l层第i个卷积核中位置j上的特征,
为风格化图像Z(在对偶任务中被称为内容图像)在第l层第i个卷积核中位置j上的特征;
步骤六:利用公式(7)计算对偶任务中C'和S'的风格损失
其中,为风格图像S’在l层中第i个卷积核与第j个卷积核的内积,
为复原图像C’在l层中第i个卷积核与第j个卷积核的内积,
wl为风格权重系数,用以控制各卷积层的分布,Cl,Hl和Wl分别表示第l层的通道数、高度和宽度;
步骤七:利用公式(8)计算对偶任务中的正则项,即对复原图像C’进行降噪
步骤八:利用公式(9)计算闭环损失
其中,为原始内容图像C在l层中第i个卷积核与第j个卷积核的内积,
为复原图像C’在l层中第i个卷积核与第j个卷积核的内积,wl、Cl、Hl和Wl含义同前;
步骤九:利用公式(10)计算目标函数和梯度,并对图片Z和C'进行更新,
目标函数被定义为:
f(Z,C′)=αLpc(C,Z)+βlps(S,Z)+γLTV(Z)+δLdc(Z,C′)+εLds(S′,C′)+θLTV(C′)+μLcl(C,C′) (10)
其中α,β,γ,δ,ε,θ,μ为先验的权重参数;
步骤十:用adam优化算法对公式(10)进行优化,之后输出风格化图像Z和复原图像C'。
本发明的有益效果:
本发明提出了一个对偶学习机制来进行图像的风格转移,不同于其它图像风格迁移算法,对偶学习框架是一个无监督的学习框架,仅需要一个源图像和风格图像对,避免了先前监督方法需要收集每个源图像与对应风格化图像的困难,而且源图像和风格图像之间不需要配准,而先前许多风格迁移方法需要源图像和风格图像之间的配准;本发明的对偶学习采用优化技术从一个噪声图像出发寻找在目标函数最小意义下的风格化图像Z,所以,对偶学习框架随机地生成两个噪声图像,分别作为初始的风格化图像Z和复原图像C’,同时一对任务(即主任务和对偶任务)将重复若干次;可以采用多种方式设置迭代结束条件,例如一个最大迭代次数T或者前后两次目标函数值差的绝对值小于某个预先给定的阈值。
本发明最大的特点就是只要两个风格转移任务能够形成一个闭环,就可以利用中间产生的反馈信息来调节参数,从而使得到的风格转移图像效果更好。
附图说明
图1是本发明方法的风格转换实验结果;
图2是与Gatys方法结果对比图。
具体实施方式
实施例
在实施例中,给出了本对偶学习的算法,如表1所示,
表1图像风格转移对偶学习算法
该算法中,原始的内容图像C和风格图像S分别仅输入VGG19转换网络一次,并抽取其卷积层特征用于相应损失函数的计算,在每次对偶学习任务迭代时,由于风格化图像Z和复原图像C’的不断更新,它们将分别输入到转换网络VGG19中,重新提取其卷积层特征,为了寻找最优的风格化图像Z和复原图像C’,采用了梯度下降类的算法,如ADAM算法。
整个过程为:
1)在原任务中,向预训练好的转换网络VGG19中分别输入内容图片C和风格图片S,将两者融合并随机初始化一张图片Z,该图片具有图片c的内容和图片s的风格;
要完成这个操作,需利用VGG19的卷积层来定义相应的损失。
2)利用公式(1)计算原任务中C和Z的内容损失,该原理基于有相似内容的两张图片,它们应该有相似的CNN特征;
3)利用公式(3)计算原任务中S和Z风格损失。从数学上怎么定义风格呢?CNN中的每个卷积核可以看作是图片的一种特征提取,风格在本文中被简化为任意两种特征的相关性。相关性的描述使用余弦相似性,而余弦相似性又正比于两种特征的点积,所以,风格的数学定义在这里被表示为深度神经网络层里的卷积核i和卷积核j的点积,形式地,记为一个图像X在l层中第i个卷积核与第j个卷积核的内积,即其中表示图像X在第l层第i个卷积核中位置k上的特征。记为风格图像S在l层中第i个卷积核与第j个卷积核的内积,而为风格化图像Z在l层中第i个卷积核与第j个卷积核的内积。于是,在第l层的风格损失定义为公式(4),再在公式(4)的基础上得到公式(3),进而得到风格图像S与风格化图像Z之间的风格损失;
4)为了让产生的图片Z在拥有内容和风格的小细节的同时,能够更平滑,让图片z看起来更自然,我们将使用总变分(TV)正则项,即利用公式(5)计算原任务中的正则项,对得到的初始转换后的图片Z进行降噪;
5)利用公式(6)计算对偶任务中C'和Z的内容损失,其中,C'为复原图像,即在对偶任务中,原始图像C作为新的风格图像S',根据此风格,从风格化图像Z中复原出原图像的一个近似C',
6)利用公式(7)计算对偶任务中C'和S'的风格损失,
7)利用公式(8)计算对偶任务中的正则项,即对复原图像C’进行降噪,
8)利用公式(9)计算闭环损失,单靠两个任务的内容和风格损失不能保证最后得到的图片效果是我们想要的,因此在这个任务中将给出一个闭环损失,这个损失曾被他人用过,但在本实施例中,这个闭环损失略有不同,前人是将原输入内容图片C和得到的风格内容图片Z分别作为了原输入内容图片来进行对偶操作,从而他们的闭环损失是由两部分组成的,而本实施例只将内容图片C作为了原输入内容图片,因此,我们得到的闭环损失与其他人的不同。C是原输入的代表内容的图片,C’是由对偶操作得到的图片,由于这两张图片在内容和风格上都相似,因此,它们应该有相似的特征表现,由此来定义闭环损失,即公式(9);
9)利用公式(10)计算目标函数和梯度,以得到效果更好的图像风格转移图片,并对图片Z和C'进行更新;
10)用adam优化算法对公式(10)进行优化,之后输出风格化图像Z和复原图像C'。
本实施例的实验最终得到的风格转移图片是根据原输入内容图片的大小由随机噪声图像生成的,所以,在进行实验时,并没有特定地去设置输入内容图像和风格图像的大小,所以,最后得到的内容风格图像的大小是和原输入内容图像的大小一致。
实验用到的转换网络是VGG-Face网络,从网上下载已训练好的vgg_19,因此,不需要对转换网络进行预训练;在vgg_19的各层级上分别定义损失函数,每层的参数值都设置为一样,如此,来挑选出实验结果最好的层级,实验结果证明,从网络中的低层重建的图像接近完美,但在网络的高层,细节像素信息会丢失,但高层内容会被保留下来,因此,在重建内容上,实验最终使用’conv4_2’和’conv5_2’,在风格重建上,使用'conv1_1','conv2_1','conv3_1','conv4_1','conv5_1'。
收集了六类实验用图片,分别是动物、建筑、绘画、人物、植物、房间。同时,搜集的风格图像有:抽象风格、毕加索风格、油画风格、山水画风格、立体风格、浪漫风格、莫奈风格,每类都分别进行实验。
在实验中,设置l=δ=400,α=ε=10,在对偶学习中,使用到Adam优化方法,其参数被设置为:学习率(learning_rate)为10,β1=0.9,β2=0.9。为了避免求导时除零问题,设置了参数epsilon=10-8,λ=300。在实验中,为了在更精细程度上得到风格转移,对VGG19的池化层采用了pooling=‘avg’而不是缺省的‘max’,在对偶学习中,设置最大迭代次数为T=1000次。
实验结果与分析
采用本发明方法对六类图片分别进行了不同的风格转换实验,每一类三张,左边是原输入图片,右边是生成的风格图片,如图1所示,具有较好的转换效果。
为了进一步说明本发明方法的效果,与Gatys的方法进行了对比,如图2所示,可以看到,Gatys的方法得到的图片虽然具有了风格,但里面的内容发生了变化,有部分的原内容已被扭曲,而本发明的方法明显要比Gatys方法好,在保留原内容的同时加入了风格。

Claims (1)

1.一种基于对偶学习的图像风格转移算法,其特征在于,包括以下步骤:
步骤一:向预训练好的转换网络VGG19中分别输入内容图片C和风格图片S,并随机初始化生成一张图片Z;
步骤二:利用公式(1)计算原任务中C和Z的内容损失
其中,Lpc(C,Z,l)为第l层的内容损失,
为风格化图像Z在第l层第i个卷积核中位置j上的特征,
为内容图像C在第l层第i个卷积核中位置j上的特征;
步骤三:利用公式(3)计算原任务中S和Z风格损失
其中,Lps(S,Z,l)为第l层的风格损失,
为风格图像S在l层中第i个卷积核与第j个卷积核的内积,
为风格化图像Z在l层中第i个卷积核与第j个卷积核的内积,
Cl,Hl和Wl分别表示第l层的通道数、高度和宽度;
步骤四:利用公式(5)计算原任务中的正则项,即对得到的初始转换后的图片Z进行降噪,
步骤五:利用公式(6)计算对偶任务中C′和Z的内容损失,其中,C′为复原图像,即在对偶任务中,原始图像C作为新的风格图像S′,根据此风格,从风格化图像Z中复原出原图像的一个近似C′,
其中,为复原图像C′在第l层第i个卷积核中位置j上的特征,
为风格化图像Z(在对偶任务中被称为内容图像)在第l层第i个卷积核中位置j上的特征;
步骤六:利用公式(7)计算对偶任务中C′和S′的风格损失
其中,为风格图像S′在l层中第i个卷积核与第j个卷积核的内积,
为复原图像C′在l层中第i个卷积核与第j个卷积核的内积,
wl为风格权重系数,用以控制各卷积层的分布,Cl,Hl和Wl分别表示第l层的通道数、高度和宽度;
步骤七:利用公式(8)计算对偶任务中的正则项,即对复原图像C′进行降噪
步骤八:利用公式(9)计算闭环损失
其中,为原始内容图像C在l层中第i个卷积核与第j个卷积核的内积,为复原图像C′在l层中第i个卷积核与第j个卷积核的内积,wl、Cl、Hl和Wl含义同前;
步骤九:利用公式(10)计算目标函数和梯度,并对图片Z和C′进行更新,
目标函数被定义为:
f(Z,C′)=αLpc(C,Z)+βLps(S,Z)+γLTV(Z)+δLdc(Z,C′)+εLds(S′,C′)+θLTV(C′)+μLcl(C,C′) (10)
其中α,β,γ,δ,ε,θ,μ为先验的权重参数;
步骤十:用adam优化算法对公式(10)进行优化,之后输出风格化图像Z和复原图像C′。
CN201811090280.4A 2018-09-18 2018-09-18 一种基于对偶学习的图像风格转移算法 Active CN109345446B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811090280.4A CN109345446B (zh) 2018-09-18 2018-09-18 一种基于对偶学习的图像风格转移算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811090280.4A CN109345446B (zh) 2018-09-18 2018-09-18 一种基于对偶学习的图像风格转移算法

Publications (2)

Publication Number Publication Date
CN109345446A true CN109345446A (zh) 2019-02-15
CN109345446B CN109345446B (zh) 2022-12-02

Family

ID=65305757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811090280.4A Active CN109345446B (zh) 2018-09-18 2018-09-18 一种基于对偶学习的图像风格转移算法

Country Status (1)

Country Link
CN (1) CN109345446B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458750A (zh) * 2019-05-31 2019-11-15 北京理工大学 一种基于对偶学习的无监督图像风格迁移方法
CN110473151A (zh) * 2019-07-04 2019-11-19 北京航空航天大学 基于分区卷积和关联损失的双阶段图像补全方法及系统
CN111127309A (zh) * 2019-12-12 2020-05-08 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111340745A (zh) * 2020-03-27 2020-06-26 成都安易迅科技有限公司 一种图像生成方法、装置、存储介质及电子设备
CN111583100A (zh) * 2020-05-12 2020-08-25 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN112561785A (zh) * 2020-12-21 2021-03-26 东华大学 基于风格迁移的丝绸文物图像数据扩充方法
CN113610118A (zh) * 2021-07-19 2021-11-05 中南大学 一种基于多任务课程式学习的眼底图像分类方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952224A (zh) * 2017-03-30 2017-07-14 电子科技大学 一种基于卷积神经网络的图像风格转移方法
CN107705242A (zh) * 2017-07-20 2018-02-16 广东工业大学 一种结合深度学习与深度感知的图像风格化迁移方法
US20180082715A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Artistic style transfer for videos
CN108171649A (zh) * 2017-12-08 2018-06-15 广东工业大学 一种保持焦点信息的图像风格化方法
CN108537776A (zh) * 2018-03-12 2018-09-14 维沃移动通信有限公司 一种图像风格迁移模型生成方法及移动终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082715A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Artistic style transfer for videos
CN106952224A (zh) * 2017-03-30 2017-07-14 电子科技大学 一种基于卷积神经网络的图像风格转移方法
CN107705242A (zh) * 2017-07-20 2018-02-16 广东工业大学 一种结合深度学习与深度感知的图像风格化迁移方法
CN108171649A (zh) * 2017-12-08 2018-06-15 广东工业大学 一种保持焦点信息的图像风格化方法
CN108537776A (zh) * 2018-03-12 2018-09-14 维沃移动通信有限公司 一种图像风格迁移模型生成方法及移动终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONG PENG ETAL.: "Competitive spiking neural p systems with rules on synapses", 《IEEE TRANSACTIONS ON NANOBIOSCIENCE》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458750B (zh) * 2019-05-31 2021-05-25 北京理工大学 一种基于对偶学习的无监督图像风格迁移方法
CN110458750A (zh) * 2019-05-31 2019-11-15 北京理工大学 一种基于对偶学习的无监督图像风格迁移方法
CN110473151A (zh) * 2019-07-04 2019-11-19 北京航空航天大学 基于分区卷积和关联损失的双阶段图像补全方法及系统
CN110473151B (zh) * 2019-07-04 2022-05-03 北京航空航天大学 基于分区卷积和关联损失的双阶段图像补全方法及系统
CN111127309A (zh) * 2019-12-12 2020-05-08 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111127309B (zh) * 2019-12-12 2023-08-11 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111340745A (zh) * 2020-03-27 2020-06-26 成都安易迅科技有限公司 一种图像生成方法、装置、存储介质及电子设备
CN111340745B (zh) * 2020-03-27 2021-01-05 成都安易迅科技有限公司 一种图像生成方法、装置、存储介质及电子设备
CN111583100B (zh) * 2020-05-12 2023-05-23 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN111583100A (zh) * 2020-05-12 2020-08-25 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN112561785A (zh) * 2020-12-21 2021-03-26 东华大学 基于风格迁移的丝绸文物图像数据扩充方法
CN113610118A (zh) * 2021-07-19 2021-11-05 中南大学 一种基于多任务课程式学习的眼底图像分类方法、装置、设备及介质
CN113610118B (zh) * 2021-07-19 2023-12-12 中南大学 一种基于多任务课程式学习的青光眼诊断方法、装置、设备及方法

Also Published As

Publication number Publication date
CN109345446B (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
CN109345446A (zh) 一种基于对偶学习的图像风格转移算法
Hertz et al. Prompt-to-prompt image editing with cross attention control
CN109508669B (zh) 一种基于生成式对抗网络的人脸表情识别方法
US10424087B2 (en) Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures
CN107705242B (zh) 一种结合深度学习与深度感知的图像风格化迁移方法
Nguyen et al. Lipstick ain't enough: beyond color matching for in-the-wild makeup transfer
CN106991440B (zh) 一种基于空间金字塔的卷积神经网络的图像分类方法
CN109146989B (zh) 一种通过搭建神经网络生成花鸟艺术字图像的方法
CN110175951B (zh) 基于时域一致性约束的视频风格迁移方法
CN106780367B (zh) 基于字典学习的hdr照片风格转移方法
CN107369147B (zh) 基于自我监督学习的图像融合方法
CN108182260B (zh) 一种基于语义选择的多变量时间序列分类方法
Zhang et al. Hair-GAN: Recovering 3D hair structure from a single image using generative adversarial networks
Chen et al. Face sketch synthesis with style transfer using pyramid column feature
CN112686817B (zh) 一种基于不确定性估计的图像补全方法
US20240202878A1 (en) Image Transformation Using Interpretable Transformation Parameters
Qu et al. Perceptual-DualGAN: perceptual losses for image to image translation with generative adversarial nets
Wu et al. Image style recognition and intelligent design of oiled paper bamboo umbrella based on deep learning
Öngün et al. Paired 3D model generation with conditional generative adversarial networks
CN104537694B (zh) 一种基于关键帧的在线学习的离线视频跟踪方法
Han et al. Normalization of face illumination with photorealistic texture via deep image prior synthesis
CN110288667A (zh) 一种基于结构引导的图像纹理迁移方法
Zhu et al. StyleGAN3: generative networks for improving the equivariance of translation and rotation
CN115908600A (zh) 基于先验正则化的大批量图像重建方法
CN109086868A (zh) 一种抽象图像情感识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant