CN107464210B - 一种基于生成式对抗网络的图像风格迁移方法 - Google Patents

一种基于生成式对抗网络的图像风格迁移方法 Download PDF

Info

Publication number
CN107464210B
CN107464210B CN201710544600.8A CN201710544600A CN107464210B CN 107464210 B CN107464210 B CN 107464210B CN 201710544600 A CN201710544600 A CN 201710544600A CN 107464210 B CN107464210 B CN 107464210B
Authority
CN
China
Prior art keywords
network
image
sty
style
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710544600.8A
Other languages
English (en)
Other versions
CN107464210A (zh
Inventor
王万良
李卓蓉
朱炎亮
杨胜兰
鞠振宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Co Ltd Of Yiwu Scientific And Technical Research Institute Of Zhejiang Polytechnical University
Zhejiang University of Technology ZJUT
Original Assignee
Co Ltd Of Yiwu Scientific And Technical Research Institute Of Zhejiang Polytechnical University
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Co Ltd Of Yiwu Scientific And Technical Research Institute Of Zhejiang Polytechnical University, Zhejiang University of Technology ZJUT filed Critical Co Ltd Of Yiwu Scientific And Technical Research Institute Of Zhejiang Polytechnical University
Priority to CN201710544600.8A priority Critical patent/CN107464210B/zh
Publication of CN107464210A publication Critical patent/CN107464210A/zh
Application granted granted Critical
Publication of CN107464210B publication Critical patent/CN107464210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

一种基于生成式对抗网络的图像风格迁移方法,包括以下步骤:(1)生成随机输入;(2)构建生成网络;(3)构建判别网络;(4)输入风格图像和内容图像;(5)风格和内容的表征学习;(6)对抗训练;(7)输出合成图像。本发明的有益效果主要表现在:生成网络和判别网络的对抗训练结合了生成算法和判别算法的优点,二者的交替优化既提高了模型对高层特征的提取能力又使生成样本愈加逼真。无需手工设计特征,该方法成本较低、效率较高且生成样本质量佳,易于推广。

Description

一种基于生成式对抗网络的图像风格迁移方法
技术领域
本发明涉及一种图像风格迁移方法,具体涉及一种基于生成式对抗网络的 图像风格迁移方法,属于机器学习领域。
背景技术
图像处理是一种具有巨大的社会和经济效益的实用技术,被广泛应用于各 行各业以及人们日常生活中。图像处理中最常见的一个需求是改变图像风格, 其目标是在根据源图像合成风格的同时保留目标图像的语义内容。使用较多的 方法包括:通过目标图像中图像亮度等各种特征的映射来约束风格的合成,迁 移高频纹理信息并保留目标图像的粗尺度信息,或在纹理迁移中利用图像边缘 信息等,这些方法的共同缺点是仅利用了目标图像的低级特征,然而,理想的 图像风格迁移算法应该能够从目标图像中提取语义内容并通过一个纹理迁移过 程对目标图像中的语义内容进行渲染,图像风格迁移的关键在于获得并不依赖 于具体模型的图像语义内容以及风格特征。
发明内容
本发明针对上述现有技术的局限性,提出将生成式对抗网络(GenerativeAdversarial Networks,GANs)应用于风格和内容图像的特征学习,通过风格判 别网络和内容判别网络分别对风格图像和内容图像进行自编码学习,得到不依 赖于具体模型且可分离的风格特征和内容特征,采用深度卷积神经网络的结构 有利于对高层语义进行良好表征。生成网络通过一系列反卷积操作将随机输入 矢量映射为生成图像,通过与判别器进行对抗训练逐步提高生成图像的逼真性。
本发明解决其技术问题所采用的技术方案是:
一种基于生成式对抗网络的图像风格迁移方法,包括以下步骤:
步骤1,生成随机输入:通过对常见概率分布进行采样,得到随机输入矢量 z∈Rd
步骤2,构建生成网络:构建生成网络G(.):Rd→RWxHxC,其中,W,H和 C分别表示生成图像G(z)的宽、高和通道数量;
步骤3,构建判别网络:分别构建风格判别网络Dsty和内容判别网络Dcont, 其中,风格判别网络Dsty的输入为风格图像xsty或者生成器输出的图像G(z),内 容判别网络Dcont的输入为内容图像xcont或者G(z);风格判别网络Dsty和内容判 别网络Dcont的输出均为布尔值,即,当判别网络认为输入图像来自真实图像xsty或xcont时,输出1,反之输出0;
步骤4,输入风格图像和内容图像:向风格判别网络Dsty输入任意尺寸的风 格图像xsty,进行裁剪和去均值等图像预处理;向内容判别网络Dcont输入任意尺 寸的内容图像xcont并进行去均值处理;
步骤5,风格和内容的表征学习:利用自编码器的思想分别最小化基于风格 和基于内容的重构误差,从而学习风格和内容的有效表征;
5.1依式(1)度量层内特征图之间的相关性,从而获得输入图像的风格表征:
Figure BDA0001342742780000021
其中,hl ik
Figure BDA0001342742780000022
分别表示第l层第i和j个特征图中位置k处神经元的激活值;
5.2依式(2)计算基于风格的重构误差:
其中,wl表示第l层的权重,用于反映第l层重构误差在总重构误差中的比重; S(G(z))表示生成图像G(z)的风格表示,S(xsty)表示风格图像xsty的风格表示;
5.3依式(3)计算基于内容的重构误差,也即,像素距离:
Figure BDA0001342742780000031
步骤6,对抗训练:风格判别网络Dsty和内容判别网络Dcont分别与生成网络 G进行二元零和博弈,即,生成网络G尽可能生成逼真的图像,而风格判别网 络Dsty和内容判别网络Dcont分别从风格角度和内容角度准确区分真实图像和生 成图像;为了在博弈中胜出,生成网络与判别网络需不断提高各自的生成能力 和判别能力,训练的过程实际上是寻找二者的纳什均衡;
6.1依式(4)计算生成网络的对抗损失:
LG_adv=-∑λ1log(Dsty(G(z)))+λ2log(Dcon(G(z))) (4)
6.2依式(5)计算判别网络的对抗损失:
Figure BDA0001342742780000032
其中,第一项和第二项分别表示风格判别网络Dsty和内容判别网络Dcont的对抗 损失函数,每项中的前半部分表示判别器尽量使自己对真实图片xsty和xcont输出 1,后半部分表示尽量对生成图片输出0,从而使得区分图片来源的准确率尽可 能高;λ1和λ2分别表示基于风格的对抗网络与基于内容的对抗网络的权重;
步骤7,输出合成图像:
7.1依式(6)计算图像风格迁移的总损失函数:
L=λstyLstycontLcontadvLG_adv (6)
其中,λsty,λcont和λG_adv分别表示基于风格、内容和对抗训练的损失函数在总损 失函数中的权重;
7.2依式(7)计算对图片进行更新:
Figure BDA0001342742780000033
其中,λ是随机梯度下降的步长。
本发明的技术构思:利用深度卷积神经网络的强大表征能力学习图像风格 和内容的良好表征,通过风格判别网络和内容判别网络的并行学习使风格特征 和内容特征可分离,生成网络通过一系列反卷积操作将随机输入矢量映射为生 成图像,通过与判别器进行对抗训练逐步提高生成图像的逼真性。
本发明的有益效果:生成网络和判别网络的对抗训练结合了生成算法和判 别算法的优点,二者的交替优化既提高了模型对高层特征的提取能力又使生成 样本愈加逼真。无需手工设计特征,该方法成本较低、效率较高且生成样本质 量佳,易于推广。
附图说明
图1是本发明方法流程图。
图2是模型架构示意图。
图3(a),(f)是内容图。
图3(b)(c)(g)(h)是风格图。
图3(d)(e)是内容图(a)按照(b)(c)进行风格迁移后的效果图。
图3(i)(j)是内容图(f)按照(g)(h)进行风格迁移后的效果图。
具体实施方式
下面对本发明作进一步描述。
一种基于生成式对抗网络的图像风格迁移方法,包括以下步骤:
步骤1,生成随机输入:通过对常见概率分布进行采样,得到随机输入矢量 z∈Rd
步骤2,构建生成网络:构建生成网络G(.):Rd→RWxHxC,其中,W,H和 C分别表示生成图像G(z)的宽、高和通道数量,网络的结构如表1所示;
表1网络结构参数表
Figure BDA0001342742780000051
其中,conv表示卷积操作,conv_transpose表示卷积的转置,maxpool表示最大 池化,操作名称后面的数字分别表示卷积核的大小和数量,例如,conv3-64表 示该层的卷积核大小为3,数量为64;
步骤3,构建判别网络:分别构建风格判别网络Dsty和内容判别网络Dcont, 其中,风格判别网络Dsty的输入为风格图像xsty或者生成器输出的图像G(z),内 容判别网络Dcont的输入为内容图像xcont或者G(z);风格判别网络Dsty和内容判 别网络Dcont的输出均为布尔值,即,当判别网络认为输入图像来自真实图像xsty或xcont时,输出1,反之输出0;风格判别网络Dsty和内容判别网络Dcont的具体 结构参数如表1所示;双重判别器的生成式对抗网络的架构示意图如图2所示;
步骤4,输入风格图像和内容图像:向风格判别网络Dsty输入任意尺寸的风 格图像xsty,进行裁剪和去均值等图像预处理;向内容判别网络Dcont输入任意尺 寸的内容图像xcont并进行去均值处理;
步骤5,风格和内容的表征学习:利用自编码器的思想分别最小化基于风格 和基于内容的重构误差,从而学习风格和内容的有效表征;
5.1依式(1)度量层内特征图之间的相关性,从而获得输入图像的风格表征:
Figure BDA0001342742780000061
其中,hl ik
Figure BDA0001342742780000062
分别表示第l层第i和j个特征图中位置k处神经元的激活值;
5.2依式(2)计算基于风格的重构误差:
Figure BDA0001342742780000063
其中,wl表示第l层的权重,用于反映第l层重构误差在总重构误差中的比重; S(G(z))表示生成图像G(z)的风格表示,S(xsty)表示风格图像xsty的风格表示;
5.3依式(3)计算基于内容的重构误差,也即,像素距离:
Figure BDA0001342742780000064
步骤6,对抗训练:风格判别网络Dsty和内容判别网络Dcont分别与生成网络 G进行二元零和博弈,即,生成网络G尽可能生成逼真的图像,而风格判别网 络Dsty和内容判别网络Dcont分别从风格角度和内容角度准确区分真实图像和生 成图像;为了在博弈中胜出,生成网络与判别网络需不断提高各自的生成能力 和判别能力,训练的过程实际上是寻找二者的纳什均衡;
6.1依式(4)计算生成网络的对抗损失:
LG_adv=-∑λ1log(Dsty(G(z)))+λ2log(Dcon(G(z))) (4)
6.2依式(5)计算判别网络的对抗损失:
Figure BDA0001342742780000071
其中,第一项和第二项分别表示风格判别网络Dsty和内容判别网络Dcont的对抗 损失函数,每项中的前半部分表示判别器尽量使自己对真实图片xsty和xcont输出 1,后半部分表示尽量对生成图片输出0,从而使得区分图片来源的准确率尽可 能高;λ1和λ2分别表示基于风格的对抗网络与基于内容的对抗网络的权重;
步骤7,输出合成图像:
7.1依式(6)计算图像风格迁移的总损失函数:
L=λstyLstycontLcontadvLG_adv (6)
其中,λsty,λcont和λG_adv分别表示基于风格、内容和对抗训练的损失函数在总损 失函数中的权重;
7.2依式(7)计算对图片进行更新:
Figure BDA0001342742780000072
其中,λ是随机梯度下降的步长;得到如图3所示的风格迁移效果图。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明 的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围 也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (1)

1.一种基于生成式对抗网络的图像风格迁移方法,包括以下步骤:
步骤1,生成随机输入:通过对常见概率分布进行采样,得到随机输入矢量z∈Rd
步骤2,构建生成网络:构建生成网络G(.):Rd→RWxHxC,其中,W,H和C分别表示生成图像G(z)的宽、高和通道数量;
步骤3,构建判别网络:分别构建风格判别网络Dsty和内容判别网络Dcont,其中,风格判别网络Dsty的输入为风格图像xsty或者生成器输出的图像G(z),内容判别网络Dcont的输入为内容图像xcont或者G(z);风格判别网络Dsty和内容判别网络Dcont的输出均为布尔值,即,当判别网络认为输入图像来自真实图像xsty或xcont时,输出1,反之输出0;
步骤4,输入风格图像和内容图像:向风格判别网络Dsty输入任意尺寸的风格图像xsty,进行裁剪和图像去均值预处理;向内容判别网络Dcont输入任意尺寸的内容图像xcont并进行去均值处理;
步骤5,风格和内容的表征学习:利用自编码器的思想分别最小化基于风格和基于内容的重构误差,从而学习风格和内容的有效表征;
5.1依式(1)度量层内特征图之间的相关性,从而获得输入图像的风格表征:
Figure FDA0002165821290000011
其中,hl ik和hl jk分别表示第l层第i和j个特征图中位置k处神经元的激活值;
5.2依式(2)计算基于风格的重构误差:
其中,wl表示第l层的权重,用于反映第l层重构误差在总重构误差中的比重;
S(G(z))表示生成图像G(z)的风格表示,S(xsty)表示风格图像xsty的风格表示;
5.3依式(3)计算基于内容的重构误差,也即,像素距离:
步骤6,对抗训练:风格判别网络Dsty和内容判别网络Dcont分别与生成网络G进行二元零和博弈,即,生成网络G尽可能生成逼真的图像,而风格判别网络Dsty和内容判别网络Dcont分别从风格角度和内容角度准确区分真实图像和生成图像;为了在博弈中胜出,生成网络与判别网络需不断提高各自的生成能力和判别能力,训练的过程实际上是寻找二者的纳什均衡;
6.1依式(4)计算生成网络的对抗损失:
LG_adv=-∑λ1log(Dsty(G(z)))+λ2log(Dcon(G(z))) (4)
6.2依式(5)计算判别网络的对抗损失:
Figure FDA0002165821290000022
其中,第一项和第二项分别表示风格判别网络Dsty和内容判别网络Dcont的对抗损失函数,每项中的前半部分表示判别器尽量使自己对真实图片xsty和xcont输出1,后半部分表示尽量对生成图片输出0,从而使得区分图片来源的准确率尽可能高;λ1和λ2分别表示基于风格的对抗网络与基于内容的对抗网络的权重;
步骤7,输出合成图像:
7.1依式(6)计算图像风格迁移的总损失函数:
L=λstyLstycontLcontadvLG_adv (6)
其中,λsty,λcont和λadv分别表示基于风格、内容和对抗训练的损失函数在总损失函数中的权重;
7.2依式(7)计算对图片进行更新:
Figure FDA0002165821290000023
其中,λ是随机梯度下降的步长。
CN201710544600.8A 2017-07-06 2017-07-06 一种基于生成式对抗网络的图像风格迁移方法 Active CN107464210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710544600.8A CN107464210B (zh) 2017-07-06 2017-07-06 一种基于生成式对抗网络的图像风格迁移方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710544600.8A CN107464210B (zh) 2017-07-06 2017-07-06 一种基于生成式对抗网络的图像风格迁移方法

Publications (2)

Publication Number Publication Date
CN107464210A CN107464210A (zh) 2017-12-12
CN107464210B true CN107464210B (zh) 2020-02-21

Family

ID=60543793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710544600.8A Active CN107464210B (zh) 2017-07-06 2017-07-06 一种基于生成式对抗网络的图像风格迁移方法

Country Status (1)

Country Link
CN (1) CN107464210B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446334A (zh) * 2018-02-23 2018-08-24 浙江工业大学 一种无监督对抗训练的基于内容的图像检索方法

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256439A (zh) * 2017-12-26 2018-07-06 北京大学 一种基于循环生成式对抗网络的行人图像生成方法及系统
CN107948529B (zh) * 2017-12-28 2020-11-06 麒麟合盛网络技术股份有限公司 图像处理方法及装置
CN108304864B (zh) * 2018-01-17 2020-07-17 清华大学 深度对抗度量学习方法及装置
CN108460720A (zh) * 2018-02-01 2018-08-28 华南理工大学 一种基于生成对抗网络模型改变图像风格的方法
CN108226892B (zh) * 2018-03-27 2021-09-28 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN108897740A (zh) * 2018-05-07 2018-11-27 内蒙古工业大学 一种基于对抗神经网络的蒙汉机器翻译方法
CN110472457A (zh) * 2018-05-10 2019-11-19 成都视观天下科技有限公司 低分辨率人脸图像识别、还原方法、设备及存储介质
CN108876764A (zh) * 2018-05-21 2018-11-23 北京旷视科技有限公司 渲染图像获取方法、装置、系统和存储介质
CN108875818B (zh) * 2018-06-06 2020-08-18 西安交通大学 基于变分自编码机与对抗网络结合的零样本图像分类方法
CN108961198B (zh) * 2018-07-09 2021-06-08 中国海洋大学 一种多风格生成对抗网络的水下图像合成方法及其应用
US10789769B2 (en) 2018-09-05 2020-09-29 Cyberlink Corp. Systems and methods for image style transfer utilizing image mask pre-processing
CN109284280B (zh) * 2018-09-06 2020-03-24 百度在线网络技术(北京)有限公司 仿真数据优化方法、装置及存储介质
CN109523014B (zh) * 2018-10-22 2021-02-02 广州大学 基于生成式对抗网络模型的新闻评论自动生成方法及系统
CN109447918A (zh) * 2018-11-02 2019-03-08 北京交通大学 基于注意力机制的单幅图像去雨方法
CN109544442B (zh) * 2018-11-12 2023-05-23 南京邮电大学 基于双重对抗的生成式对抗网络的图像局部风格迁移方法
CN109658369A (zh) * 2018-11-22 2019-04-19 中国科学院计算技术研究所 视频智能生成方法及装置
CN109472764B (zh) * 2018-11-29 2020-11-10 广州市百果园信息技术有限公司 图像合成和图像合成模型训练的方法、装置、设备和介质
CN109584142A (zh) * 2018-12-05 2019-04-05 网易传媒科技(北京)有限公司 图像增强系统和方法、训练方法、介质以及电子设备
TWI696144B (zh) 2018-12-19 2020-06-11 財團法人工業技術研究院 影像生成器的訓練方法
CN109670476A (zh) * 2018-12-28 2019-04-23 网易(杭州)网络有限公司 用户头像的生成方法及装置、电子设备、存储介质
CN109919831B (zh) * 2019-02-13 2023-08-25 广州视源电子科技股份有限公司 一种用于将视网膜眼底图像在不同图像域中迁移的方法、电子设备及计算机可读存储介质
CN111612861B (zh) * 2019-02-22 2023-04-07 清华大学 一种图像合成方法及装置
US10832734B2 (en) 2019-02-25 2020-11-10 International Business Machines Corporation Dynamic audiovisual segment padding for machine learning
CN110097185B (zh) * 2019-03-29 2021-03-23 北京大学 一种基于生成对抗网络的优化模型方法及应用
CN110210549B (zh) * 2019-05-28 2022-03-29 北方民族大学 一种跨域变分对抗自编码方法
EP3970112A4 (en) * 2019-05-30 2022-08-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. SINGLEMODAL OR MULTIMODAL STYLE TRANSFER SYSTEM AND METHOD AND RANDOM STYLING SYSTEM USING THE SAME
CN110489661B (zh) * 2019-07-24 2022-04-26 武汉大学 一种基于生成对抗网络和迁移学习的社交关系预测方法
CN110443746B (zh) * 2019-07-25 2023-07-14 创新先进技术有限公司 基于生成对抗网络的图片处理方法、装置及电子设备
CN110533580A (zh) * 2019-08-08 2019-12-03 西安交通大学 一种基于对抗生成神经网络的图像风格迁移方法
CN112446190A (zh) * 2019-08-16 2021-03-05 北京大数医达科技有限公司 生成风格转化文本的方法和装置
CN110781416A (zh) * 2019-09-16 2020-02-11 上海掌门科技有限公司 一种提供风景信息的方法与设备
CN110705611A (zh) * 2019-09-17 2020-01-17 平安科技(深圳)有限公司 眼底图像样本扩展方法、装置、介质及电子设备
CN110930295B (zh) * 2019-10-25 2023-12-26 广东开放大学(广东理工职业学院) 一种图像风格迁移方法、系统、装置和存储介质
CN110796594B (zh) * 2019-10-28 2021-11-09 腾讯科技(深圳)有限公司 一种图像生成方法、装置及设备
CN111127309B (zh) * 2019-12-12 2023-08-11 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111035387A (zh) * 2019-12-27 2020-04-21 上海交通大学 提升电阻率成像获取图片质量的方法
CN111724299B (zh) * 2020-05-21 2023-08-08 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111881935B (zh) * 2020-06-19 2023-04-18 北京邮电大学 一种基于内容感知gan的对抗样本生成方法
CN112257787B (zh) * 2020-10-23 2023-01-17 天津大学 基于生成式双重条件对抗网络结构的图像半监督分类方法
CN112418310A (zh) * 2020-11-20 2021-02-26 第四范式(北京)技术有限公司 文本风格迁移模型训练方法和系统及图像生成方法和系统
CN114863527B (zh) * 2022-05-06 2024-03-19 杭州电子科技大学 一种基于fp-scgan模型的妆容风格迁移方法
CN115618452B (zh) * 2022-12-08 2023-03-10 湖南大学 具有设计师风格的服装图像智能生成系统
CN117152622B (zh) * 2023-10-30 2024-02-23 中国科学院空天信息创新研究院 边界优化模型训练、边界优化方法、装置、设备及介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886975B (zh) * 2016-11-29 2019-07-02 华南理工大学 一种可实时运行的图像风格化方法
CN106651766A (zh) * 2016-12-30 2017-05-10 深圳市唯特视科技有限公司 一种基于深度卷积神经网络的图像风格迁移方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446334A (zh) * 2018-02-23 2018-08-24 浙江工业大学 一种无监督对抗训练的基于内容的图像检索方法
CN108446334B (zh) * 2018-02-23 2021-08-03 浙江工业大学 一种无监督对抗训练的基于内容的图像检索方法

Also Published As

Publication number Publication date
CN107464210A (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN107464210B (zh) 一种基于生成式对抗网络的图像风格迁移方法
CN108717568B (zh) 一种基于三维卷积神经网络的图像特征提取与训练方法
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN109919108B (zh) 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN108509408B (zh) 一种句子相似度判断方法
CN108615010B (zh) 基于平行卷积神经网络特征图融合的人脸表情识别方法
CN105320965B (zh) 基于深度卷积神经网络的空谱联合的高光谱图像分类方法
CN109558832A (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN105046277B (zh) 特征显著性在图像质量评价中的鲁棒机理研究方法
CN111242841B (zh) 一种基于语义分割和深度学习的图片背景风格迁移方法
CN107122375A (zh) 基于图像特征的图像主体的识别方法
CN110427799B (zh) 基于生成对抗网络的人手深度图像数据增强方法
CN106504064A (zh) 基于深度卷积神经网络的服装分类与搭配推荐方法及系统
CN107977609A (zh) 一种基于cnn的指静脉身份验证方法
CN111046917B (zh) 基于深度神经网络的对象性增强目标检测方法
CN110070574B (zh) 一种基于改进PSMNet的双目视觉立体匹配方法
CN108596264A (zh) 一种基于深度学习的社区发现方法
CN109344713A (zh) 一种姿态鲁棒的人脸识别方法
CN110852935A (zh) 一种人脸图像随年龄变化的图像处理方法
CN109948575A (zh) 超声图像中眼球区域分割方法
CN111694977A (zh) 一种基于数据增强的车辆图像检索方法
CN113724354A (zh) 基于参考图颜色风格的灰度图像着色方法
CN110288667A (zh) 一种基于结构引导的图像纹理迁移方法
CN110929558B (zh) 一种基于深度学习的行人重识别方法
CN110176050B (zh) 文本生成图像的美学优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant