CN110490791A - 基于深度学习风格迁移的服饰图像艺术化生成方法 - Google Patents

基于深度学习风格迁移的服饰图像艺术化生成方法 Download PDF

Info

Publication number
CN110490791A
CN110490791A CN201910619759.0A CN201910619759A CN110490791A CN 110490791 A CN110490791 A CN 110490791A CN 201910619759 A CN201910619759 A CN 201910619759A CN 110490791 A CN110490791 A CN 110490791A
Authority
CN
China
Prior art keywords
style
content
picture
loss
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910619759.0A
Other languages
English (en)
Other versions
CN110490791B (zh
Inventor
张九龙
马钰玺
屈晓娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201910619759.0A priority Critical patent/CN110490791B/zh
Publication of CN110490791A publication Critical patent/CN110490791A/zh
Application granted granted Critical
Publication of CN110490791B publication Critical patent/CN110490791B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习风格迁移的服饰图像艺术化生成方法,包括如下步骤:步骤1:将内容图和风格图放入训练好的19层VGG网络中得到内容表示和风格表示;步骤2:将获得的内容表示和风格表示使用VGG网络的滤波器对其进行编码得到特征映射,再通过自适应规范层对其进行归一化处理;步骤3:将归一化处理后的噪声图片的特征图分别与内容图片和风格图片的特征图作对比求差值分别计算内容图损失、风格图损失、总损失函数;步骤4:根据获得的总损失函数对网络进行训练,通过转换网络解码生成结果图。本发明一种基于深度学习风格迁移的服饰图像艺术化生成方法,解决了现有服饰图像画面风格单一、转换速度慢的问题。

Description

基于深度学习风格迁移的服饰图像艺术化生成方法
技术领域
本发明属于图像处理与识别技术领域,具体涉及一种基于深度学习风格 迁移的服饰图像艺术化生成方法。
背景技术
风格迁移是指将一幅图像的风格转移到另一幅图像上以生成该风格图 像的方法。传统上,这个问题主要通过纹理合成和纹理迁移来完成,虽然有 一定的效果,但目标图像的质量仍不能满意。
传统的图像迁移算法将随机噪声作为初始输入,通过迭代优化改变像素 值以获得目标结果图x',使这个结果图的特征表达和目标特征表达Φ(x) 相似,即像素迭代的目标为Φ(x')≈Φ(x),由于每个重建结果都要在像素 空间经过多次迭代优化,转换速度慢,同时每一个网络受约束只能转换一种 风格,近来很多研究都在尝试解决这个问题,但大多数仍然是只能作用于有 限的风格集,或者转换速度比单风格算法更慢。
发明内容
本发明的目的是提供一种基于深度学习风格迁移的服饰图像艺术化生 成方法,解决了现有服饰图像画面风格单一、转换速度慢的问题。
本发明所采用的技术方案是,基于深度学习风格迁移的服饰图像艺术化 生成方法,包括如下步骤:
步骤1:将内容图和风格图放入训练好的19层VGG网络中得到内容表 示和风格表示;
步骤2:将步骤1获得的内容表示和风格表示使用VGG网络的滤波器 对其进行编码得到特征映射,再通过自适应规范层对其进行归一化处理;
步骤3:将步骤2中归一化处理后的噪声图片的特征图分别与内容图片 和风格图片的特征图作对比求差值分别计算内容图损失、风格图损失、总损 失函数;
步骤4:根据步骤3获得的总损失函数对网络进行训练,通过转换网络 解码生成结果图。
本发明的特点还在于:
步骤2的具体过程如下:
步骤2.1:将内容图和风格图放入训练好的VGG网络中,卷积神经网络 每层使用滤波器对图像进行编码得到特征映射;
步骤2.2:将步骤2.1得到的特征映射输入到自适应实例规范层进行归一 化处理,使得内容特征的均值、方差和风格特征的均值、方差一样,产生目 标特征映射,如下公式:
μ为均值,σ为方差,x为内容图,y为风格图;
将归一化后的内容图的输入进行缩放和平移。
步骤3的具体过程如下:
步骤3.1:将内容图片输入VGG网络计算内容损失,内容损失采用平方 损失函数是每个像素的损失和:
内容图片在指定层上提取出的特征矩阵,与噪声图片在对应层上的特征 矩阵的差值的L2范数:即求两两之间的像素差值的平方,如下公式:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位 置的特征表示,P是内容图片的特征矩阵,x为要生成的目标图像;
步骤3.2:将风格图片输入网络计算风格损失:利用不同层相应的组合 表示建立一个格莱姆矩阵G表示他们的特征关联:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位 置的特征表示,G为噪音图像特征的Gram矩阵,A为风格图片特征的GRAM 矩阵,l层的损失为:
其中M是特征矩阵的长*宽,N是特征矩阵的信道数,最终的风格损失 为:每一层的风格损失加权和再对层数取平均,则风格损失函数的表示为:
Ei为在第i层的风格损失,w为每层的权重;
步骤3.3:计算最终用于训练的损失函数为内容损失和风格损失的加权 和:
λtotal=αλcontent+βλstyle (6)
α、β是控制输出图像风格化程度的参数,最小化这个感知损失函数。
步骤4的具体过程如下:
步骤4.1:利用经典的梯度下降法使内容损失函数达到最小值,内容损 失函数的导数为:
其中,F是噪声图片的特征矩阵,P是内容图片的特征矩阵,VGG使用 ReLU作为激活层,其导数为分段函数,F小于0时导数为0,Lcontent为各层 的损失和;
步骤4.2:计算风格损失函数的导数:
F是噪声图片的特征矩阵,G为噪音图像特征的Gram矩阵,A为风格 图片特征的GRAM矩阵;
步骤4.3:解码器部分的网络结构和编码器对称,使用VGG-19网络训 练解码器,将图像从特征空间转换到图像空间,具体过程如下:
初始可以随机给一些初始化参数,通过梯度下降的方法不断进行更新参 数直到达到迭代次数,以使整个损耗函数减小网络逐渐收敛,使用自适应实 例规范层输出t作为内容目标:
t=transfer(f(c),f(s)) (9)
T(c,s)=g(t) (10)
上式中的编码器f是VGG网络中的ReLU4_1,通过自适应实例规范层 的特征映射,产生目标图像t,训练随机解码器g,再将图像t映射到图像空 间,生成目标输出图片T(c,s),即为结果图。
步骤4.3中迭代次数为500次。
本发明的有益效果是:
(1)本发明服饰图像艺术生成方法是基于深度学习卷积网络对图片进 行训练和生成,能够快速对图像的整体风格进行迁移,并且最大限度地保留 原图的内容;
(2)本发明基于深度学习风格迁移的服饰图像艺术化生成方法,能够 美化传统文化元素产物,为传统文化数字化保存的后续研究提供一个很好的 预处理操作;
(3)本发明基于深度学习风格迁移的服饰图像艺术化生成方法,借用 计算机技术生成不同的风格图片,节省人力物力,提高人们的观赏兴趣,以 创新的方式对我国传统文化进行了继承,有很好的使用价值。
附图说明
图1是本发明基于深度学习风格迁移的服饰图像艺术化生成方法的流程 图;
图2是本发明基于深度学习风格迁移的服饰图像艺术化生成方法的内容 图;
图3是本发明基于深度学习风格迁移的服饰图像艺术化生成方法的风格 图;
图4是本发明基于深度学习风格迁移的服饰图像艺术化生成方法的结果 图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于深度学习风格迁移的服饰图像艺术化生成方法,如图1所示, 包括如下步骤:
步骤1:将内容图和风格图放入训练好的19层VGG网络中得到内容表 示和风格表示,其中,19层VGG网络为已知的网络结构,如图2所示的, 一种实施例的内容图,如图3所示,为该实施例中四种不同风格的风格图(具 体为a、b、c、d四种风格);
步骤2:将步骤1获得的内容表示和风格表示使用VGG网络的滤波器 对其进行编码得到特征映射,再通过自适应规范层对其进行归一化处理,其 中,步骤2的具体过程如下:
步骤2.1:将内容图和风格图放入训练好的VGG网络中,卷积神经网络 每层使用滤波器对图像进行编码得到特征映射;
步骤2.2:将步骤2.1得到的特征映射输入到自适应实例规范层进行归一 化处理,使得内容特征的均值、方差和风格特征的均值、方差一样,产生目 标特征映射,如下公式:
μ为均值,σ为方差,x为内容图,y为风格图;
将归一化后的内容图的输入进行缩放和平移;
步骤3:将步骤2中归一化处理后的噪声图片的特征图分别与内容图片 和风格图片的特征图作对比求差值分别计算内容图损失、风格图损失、总损 失函数,其中,步骤3的具体过程如下:
步骤3.1:将内容图片输入VGG网络计算内容损失,内容损失采用平方 损失函数是每个像素的损失和:
内容图片在指定层上提取出的特征矩阵,与噪声图片在对应层上的特征 矩阵的差值的L2范数:即求两两之间的像素差值的平方,如下公式:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位 置的特征表示,P是内容图片的特征矩阵,x为要生成的目标图像;
其中,对待提取内容的图片p得到该位置的内容表示P,可以构造一个 图像x在该位置的特征无限趋近于P,使得内容损失函数最小,我们的目标 就是找到这个在内容上无限接近P的x;
步骤3.2:将风格图片输入网络计算风格损失:风格损失函数理解上与 内容损失函数相同,只是利用了不同层相应的组合表示建立了一个格莱姆矩 阵G表示他们的特征关联:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位 置的特征表示,G为噪音图像特征的Gram矩阵,A为风格图片特征的GRAM 矩阵,l层的损失为:
其中M是特征矩阵的长*宽,N是特征矩阵的信道数,最终的风格损失 为:每一层的风格损失加权和再对层数取平均,则风格损失函数的表示为:
Ei为在第i层的风格损失,w为每层的权重;
步骤3.3:计算最终用于训练的损失函数为内容损失和风格损失的加权 和:
λtotal=αλcontent+βλstyle (6)
α、β是控制输出图像风格化程度的参数,最小化这个感知损失函数。
步骤4:根据步骤3获得的总损失函数对网络进行训练,通过转换网络 解码生成结果图,步骤4的具体过程如下:
步骤4.1:先利用经典的梯度下降法是内容损失函数达到最小值,内容 损失函数的导数为:
F是噪声图片的特征矩阵,P是内容图片的特征矩阵。
VGG使用ReLU作为激活层,其导数为分段函数。F小于0时导数为0。 Lcontent为各层的损失和。
步骤4.2:计算风格损失函数的导数:
F是噪声图片的特征矩阵,G为噪音图像特征的Gram矩阵,A为风格 图片特征的GRAM矩阵。
步骤4.3:解码器部分的网络结构和编码器对称,使用VGG-19网络训 练解码器,将图像从特征空间转换到图像空间。具体过程如下:
初始可以随机给一些初始化参数,通过梯度下降的方法不断进行更新参 数直到达到指定迭代次数(例如:500次),以使整个损耗函数比较小,网 络逐渐收敛。使用自适应实例规范层输出t作为内容目标,而不是内容图像 的特征响应。
t=transfer(f(c),f(s)) (9)
T(c,s)=g(t) (10)
上式中的编码器f是VGG网络中的ReLU4_1,通过自适应实例规范层 的特征映射,产生目标图像t,训练随机解码器g,再将图像t映射到图像空 间,生成目标输出图片T(c,s),即为结果图,如图4所示,其中e为图2与 图3中a生成的结果图,f为图2与图3中b生成的结果图,g为图2与图3 中c生成的结果图,h为图2与图3中d生成的结果图。

Claims (5)

1.基于深度学习风格迁移的服饰图像艺术化生成方法,其特征在于,包括如下步骤:
步骤1:将内容图和风格图放入训练好的19层VGG网络中得到内容表示和风格表示;
步骤2:将步骤1获得的内容表示和风格表示使用VGG网络的滤波器对其进行编码得到特征映射,再通过自适应规范层对其进行归一化处理;
步骤3:将步骤2中归一化处理后的噪声图片的特征图分别与内容图片和风格图片的特征图作对比求差值分别计算内容图损失、风格图损失、总损失函数;
步骤4:根据步骤3获得的总损失函数对网络进行训练,通过转换网络解码生成结果图。
2.根据权利要求1所述的基于深度学习风格迁移的服饰图像艺术化生成方法,其特征在于,所述步骤2的具体过程如下:
步骤2.1:将内容图和风格图放入训练好的VGG网络中,卷积神经网络每层使用滤波器对图像进行编码得到特征映射;
步骤2.2:将步骤2.1得到的特征映射输入到自适应实例规范层进行归一化处理,使得内容特征的均值、方差和风格特征的均值、方差一样,产生目标特征映射,如下公式:
μ为均值,σ为方差,x为内容图,y为风格图;
将归一化后的内容图的输入进行缩放和平移。
3.根据权利要求1所述的基于深度学习风格迁移的服饰图像艺术化生成方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1:将内容图片输入VGG网络计算内容损失,内容损失采用平方损失函数是每个像素的损失和:
内容图片在指定层上提取出的特征矩阵,与噪声图片在对应层上的特征矩阵的差值的L2范数:即求两两之间的像素差值的平方,如下公式:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位置的特征表示,P是内容图片的特征矩阵,x为要生成的目标图像;
步骤3.2:将风格图片输入网络计算风格损失:利用不同层相应的组合表示建立一个格莱姆矩阵G表示他们的特征关联:
F是噪声图片的特征矩阵,为噪声图片在第l层第i个卷积的第j个位置的特征表示,G为噪音图像特征的Gram矩阵,A为风格图片特征的GRAM矩阵,l层的损失为:
其中M是特征矩阵的长*宽,N是特征矩阵的信道数,最终的风格损失为:每一层的风格损失加权和再对层数取平均,则风格损失函数的表示为:
Ei为在第i层的风格损失,w为每层的权重;
步骤3.3:计算最终用于训练的损失函数为内容损失和风格损失的加权和:
λtotal=αλcontent+βλstyle (6)
α、β是控制输出图像风格化程度的参数,最小化这个感知损失函数。
4.根据权利要求1所述的基于深度学习风格迁移的服饰图像艺术化生成方法,其特征在于,所述步骤4的具体过程如下:
步骤4.1:利用经典的梯度下降法使内容损失函数达到最小值,内容损失函数的导数为:
其中,F是噪声图片的特征矩阵,P是内容图片的特征矩阵,VGG使用ReLU作为激活层,其导数为分段函数,F小于0时导数为0,Lcontent为各层的损失和;
步骤4.2:计算风格损失函数的导数:
F是噪声图片的特征矩阵,G为噪音图像特征的Gram矩阵,A为风格图片特征的GRAM矩阵;
步骤4.3:解码器部分的网络结构和编码器对称,使用VGG-19网络训练解码器,将图像从特征空间转换到图像空间,具体过程如下:
初始可以随机给一些初始化参数,通过梯度下降的方法不断进行更新参数直到达到迭代次数,以使整个损耗函数减小网络逐渐收敛,使用自适应实例规范层输出t作为内容目标:
t=transfer(f(c),f(s)) (9)
T(c,s)=g(t) (10)
上式中的编码器f是VGG网络中的ReLU4_1,通过自适应实例规范层的特征映射,产生目标图像t,训练随机解码器g,再将图像t映射到图像空间,生成目标输出图片T(c,s),即为结果图。
5.根据权利要求4所述的基于深度学习风格迁移的服饰图像艺术化生成方法,其特征在于,所述步骤4.3中迭代次数为500次。
CN201910619759.0A 2019-07-10 2019-07-10 基于深度学习风格迁移的服饰图像艺术化生成方法 Expired - Fee Related CN110490791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910619759.0A CN110490791B (zh) 2019-07-10 2019-07-10 基于深度学习风格迁移的服饰图像艺术化生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910619759.0A CN110490791B (zh) 2019-07-10 2019-07-10 基于深度学习风格迁移的服饰图像艺术化生成方法

Publications (2)

Publication Number Publication Date
CN110490791A true CN110490791A (zh) 2019-11-22
CN110490791B CN110490791B (zh) 2022-10-18

Family

ID=68545943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910619759.0A Expired - Fee Related CN110490791B (zh) 2019-07-10 2019-07-10 基于深度学习风格迁移的服饰图像艺术化生成方法

Country Status (1)

Country Link
CN (1) CN110490791B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111035387A (zh) * 2019-12-27 2020-04-21 上海交通大学 提升电阻率成像获取图片质量的方法
CN111243050A (zh) * 2020-01-08 2020-06-05 浙江省北大信息技术高等研究院 肖像简笔画生成方法、系统及绘画机器人
CN111325681A (zh) * 2020-01-20 2020-06-23 南京邮电大学 一种结合元学习机制与特征融合的图像风格迁移方法
CN111583352A (zh) * 2020-04-24 2020-08-25 天津大学 一种用于移动终端的风格化图标智能生成方法
CN111724299A (zh) * 2020-05-21 2020-09-29 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111768335A (zh) * 2020-07-02 2020-10-13 北京工商大学 一种基于cnn的用户交互式图像局部服饰风格迁移方法
CN111950608A (zh) * 2020-06-12 2020-11-17 中国科学院大学 一种基于对比损失的域自适应物体检测方法
CN111986075A (zh) * 2020-08-12 2020-11-24 兰州交通大学 一种目标边缘清晰化的风格迁移方法
CN111986302A (zh) * 2020-07-23 2020-11-24 北京石油化工学院 一种基于深度学习的图像风格迁移方法及装置
CN112861884A (zh) * 2021-03-19 2021-05-28 电子科技大学 一种基于深度学习的服饰图像外观属性修改方法
CN113033744A (zh) * 2021-03-16 2021-06-25 北京航空航天大学 一种艺术风格qr码的生成方法及系统
CN113095999A (zh) * 2021-03-29 2021-07-09 北京雷石天地电子技术有限公司 一种视频风格转置方法和系统
CN113095989A (zh) * 2021-03-31 2021-07-09 西安理工大学 一种基于图像风格迁移化的零水印版权保护算法
CN113837926A (zh) * 2021-09-05 2021-12-24 桂林理工大学 基于均值标准差的图像迁移方法
CN114493994A (zh) * 2022-01-13 2022-05-13 南京市测绘勘察研究院股份有限公司 一种用于三维场景的古画风格迁移方法
CN116309032A (zh) * 2023-05-24 2023-06-23 南昌航空大学 一种图片处理方法、系统及计算机

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705242A (zh) * 2017-07-20 2018-02-16 广东工业大学 一种结合深度学习与深度感知的图像风格化迁移方法
US20180357800A1 (en) * 2017-06-09 2018-12-13 Adobe Systems Incorporated Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180357800A1 (en) * 2017-06-09 2018-12-13 Adobe Systems Incorporated Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images
CN107705242A (zh) * 2017-07-20 2018-02-16 广东工业大学 一种结合深度学习与深度感知的图像风格化迁移方法
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
窦亚玲等: "基于卷积神经网络的图像风格迁移技术", 《现代计算机(专业版)》 *
赵丽飞等: "基于卷积神经网络的梵高作品风格转换", 《电子技术与软件工程》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111035387A (zh) * 2019-12-27 2020-04-21 上海交通大学 提升电阻率成像获取图片质量的方法
CN111243050A (zh) * 2020-01-08 2020-06-05 浙江省北大信息技术高等研究院 肖像简笔画生成方法、系统及绘画机器人
CN111243050B (zh) * 2020-01-08 2024-02-27 杭州未名信科科技有限公司 肖像简笔画生成方法、系统及绘画机器人
CN111325681A (zh) * 2020-01-20 2020-06-23 南京邮电大学 一种结合元学习机制与特征融合的图像风格迁移方法
CN111325681B (zh) * 2020-01-20 2022-10-11 南京邮电大学 一种结合元学习机制与特征融合的图像风格迁移方法
CN111583352A (zh) * 2020-04-24 2020-08-25 天津大学 一种用于移动终端的风格化图标智能生成方法
CN111583352B (zh) * 2020-04-24 2023-10-13 天津大学 一种用于移动终端的风格化图标智能生成方法
CN111724299A (zh) * 2020-05-21 2020-09-29 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111724299B (zh) * 2020-05-21 2023-08-08 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111950608B (zh) * 2020-06-12 2021-05-04 中国科学院大学 一种基于对比损失的域自适应物体检测方法
CN111950608A (zh) * 2020-06-12 2020-11-17 中国科学院大学 一种基于对比损失的域自适应物体检测方法
CN111768335A (zh) * 2020-07-02 2020-10-13 北京工商大学 一种基于cnn的用户交互式图像局部服饰风格迁移方法
CN111768335B (zh) * 2020-07-02 2023-08-04 北京工商大学 一种基于cnn的用户交互式图像局部服饰风格迁移方法
CN111986302A (zh) * 2020-07-23 2020-11-24 北京石油化工学院 一种基于深度学习的图像风格迁移方法及装置
CN111986075A (zh) * 2020-08-12 2020-11-24 兰州交通大学 一种目标边缘清晰化的风格迁移方法
CN113033744A (zh) * 2021-03-16 2021-06-25 北京航空航天大学 一种艺术风格qr码的生成方法及系统
CN113033744B (zh) * 2021-03-16 2022-05-24 北京航空航天大学 一种艺术风格qr码的生成方法及系统
CN112861884A (zh) * 2021-03-19 2021-05-28 电子科技大学 一种基于深度学习的服饰图像外观属性修改方法
CN113095999A (zh) * 2021-03-29 2021-07-09 北京雷石天地电子技术有限公司 一种视频风格转置方法和系统
CN113095999B (zh) * 2021-03-29 2023-08-25 北京雷石天地电子技术有限公司 一种视频风格转置方法和系统
CN113095989B (zh) * 2021-03-31 2023-07-07 西安理工大学 一种基于图像风格迁移化的零水印版权保护算法
CN113095989A (zh) * 2021-03-31 2021-07-09 西安理工大学 一种基于图像风格迁移化的零水印版权保护算法
CN113837926A (zh) * 2021-09-05 2021-12-24 桂林理工大学 基于均值标准差的图像迁移方法
CN114493994A (zh) * 2022-01-13 2022-05-13 南京市测绘勘察研究院股份有限公司 一种用于三维场景的古画风格迁移方法
CN114493994B (zh) * 2022-01-13 2024-04-16 南京市测绘勘察研究院股份有限公司 一种用于三维场景的古画风格迁移方法
CN116309032B (zh) * 2023-05-24 2023-07-28 南昌航空大学 一种图片处理方法、系统及计算机
CN116309032A (zh) * 2023-05-24 2023-06-23 南昌航空大学 一种图片处理方法、系统及计算机

Also Published As

Publication number Publication date
CN110490791B (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
CN110490791A (zh) 基于深度学习风格迁移的服饰图像艺术化生成方法
TWI749356B (zh) 一種圖像風格轉換方法及設備、儲存介質
CN108961350B (zh) 一种基于显著度匹配的画风迁移方法
CN106204449B (zh) 一种基于对称深度网络的单幅图像超分辨率重建方法
CN110175951B (zh) 基于时域一致性约束的视频风格迁移方法
Bhandari A logarithmic law based histogram modification scheme for naturalness image contrast enhancement
CN111986075B (zh) 一种目标边缘清晰化的风格迁移方法
CN111862294A (zh) 基于ArcGAN网络的手绘3D建筑自动上色网络结构及方法
CN112686817B (zh) 一种基于不确定性估计的图像补全方法
CN109345446A (zh) 一种基于对偶学习的图像风格转移算法
Wang et al. STNet: A style transformation network for deep image steganography
Wynen et al. Unsupervised learning of artistic styles with archetypal style analysis
Wang Research on image generation and style transfer algorithm based on deep learning
CN110276753A (zh) 基于特征空间统计信息映射的目标自适应隐藏方法
CN114581341A (zh) 一种基于深度学习的图像风格迁移方法及系统
CN107424119A (zh) 一种单图像的超分辨率方法
CN112837212B (zh) 一种基于流形对齐的图像任意风格迁移方法
CN110782408B (zh) 一种基于卷积神经网络的智能美型方法及系统
CN107833198B (zh) 一种基于大尺度分解的户外场景重光照方法
CN110298807A (zh) 基于改进Retinex及量子菌群算法的NSCT域红外图像增强方法
JP7218959B2 (ja) 差分比較学習に基づく深度マップ合成方法
CN109948517A (zh) 一种基于密集全卷积网络的高分辨率遥感图像语义分割方法
Zhang et al. New image processing: VGG image style transfer with gram matrix style features
CN115293955A (zh) 基于门控块的多样性图像风格迁移方法、计算机设备、可读存储介质和程序产品
Yu et al. Deep semantic space guided multi-scale neural style transfer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20221018