CN113496460B - 一种基于特征调整的神经风格迁移方法及系统 - Google Patents

一种基于特征调整的神经风格迁移方法及系统 Download PDF

Info

Publication number
CN113496460B
CN113496460B CN202010258460.XA CN202010258460A CN113496460B CN 113496460 B CN113496460 B CN 113496460B CN 202010258460 A CN202010258460 A CN 202010258460A CN 113496460 B CN113496460 B CN 113496460B
Authority
CN
China
Prior art keywords
style
content
layer
convolution
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010258460.XA
Other languages
English (en)
Other versions
CN113496460A (zh
Inventor
刘家瑛
汪文靖
许继征
张莉
王悦
郭宗明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Beijing Douyin Information Service Co Ltd
Original Assignee
Peking University
Beijing ByteDance Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University, Beijing ByteDance Technology Co Ltd filed Critical Peking University
Priority to CN202010258460.XA priority Critical patent/CN113496460B/zh
Publication of CN113496460A publication Critical patent/CN113496460A/zh
Application granted granted Critical
Publication of CN113496460B publication Critical patent/CN113496460B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于特征调整的神经风格迁移方法及系统,属于图像与视频风格化领域,训练主要由内容编码器、风格编码器、装饰器和解码器组成的神经风格迁移网络模型,输入目标内容图像或视频帧和参考风格图像,得到风格迁移结果图像或视频帧,通过调整神经网络的特征空间与通道两个维度的分布,只需要一次参数前传就可以实现效果良好的风格迁移。

Description

一种基于特征调整的神经风格迁移方法及系统
技术领域
本发明属于图像与视频风格化领域,具体设计一种基于特征调整的神经风格迁移方法及系统。
背景技术
风格迁移旨在将特定图像的风格迁移到给定目标图像或视频上,实现风格图像或视频的批量生成。近几年,风格迁移越来越受到学术界的关注。
风格迁移方法可以分为三类。基于块匹配的方法,在参考风格图像和目标内容图像之间建立块的匹配关系,通过块的迁移与融合实现风格迁移。基于迭代的深度学习方法,使用在大型数据集上预训练的分类神经网络提取特征,使用特征的均方误差作为内容损失函数项,使用特征分布的距离作为风格损失函数项,通过迭代和最小化损失函数实现风格迁移。基于前传的深度学习方法,设计具有风格迁移功能的模块,在大型数据集上训练,推理时只需要一次参数前传。
但是,基于块匹配的方法无法迁移风格的语义信息,基于迭代的深度学习方法需要漫长的迭代过程和复杂的计算量,已有的基于前传的深度学习方法风格迁移效果不佳,均无法满足实际应用的需求。
发明内容
针对上述技术问题,本发明提出了一种基于特征调整的神经风格迁移方法及系统。本发明能够将指定的参考风格图像的艺术表征迁移至目标内容图像或视频帧,实现对目标内容图像或视频帧的风格化,提升其主观视觉质量与艺术效果。
本发明采用的技术方案如下:
一种基于特征调整的神经风格迁移方法,包括以下步骤:
利用训练数据集,训练神经风格迁移网络模型;该神经风格迁移网络模型包括内容编码器、风格编码器、装饰器和解码器;内容编码器和风格编码器均包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;装饰器包括一个单样本规范化层和在后的若干个风格装饰模块;解码器包括若干个相互交替的自适应单样本规范化层和残差块,以及位于末尾的一个卷积层;
将目标内容图像或视频帧和参考风格图像输入到训练好的神经风格迁移网络模型中进行进行以下步骤的处理:
将目标内容图像或视频帧输入到内容编码器中,处理得到内容编码;
将参考风格图像输入到风格编码器中,首个卷积层和含有最大池化的卷积层分别输出风格编码;
将内容编码输入到装饰器中,同时在各个风格装饰模块中输入风格编码;
将装饰器输出的内容输入到解码器中,在各个自适应单样本规范化层中还依次输入风格编码器不同层的风格编码的均值和方差,处理得到最终的风格迁移结果图像或视频帧。
进一步地,训练数据集包括由摄影图像组成的内容数据集和由绘画图像组成的风格数据集;训练时,将内容数据集输入到内容编码器中,将风格数据集输入到风格编码器中。
进一步地,内容编码器和风格编码器的卷积层均为9个,其中第3、5、9个卷积层前使用最大池化进行下采样;装饰器的风格装饰模块为3个;解码器的自适应单样本规范化层为4个,残差块为3个,卷积层为1个。
进一步地,风格装饰模块包括至少一卷积核预测单元、若干个卷积层和一个线性整流函数,卷积核预测单元包括卷积层、全局池化层、合并层和全连接层。
进一步地,残差块包括1个上采样层、3个卷积层、2个带泄露整流函数和2个单样本规范化层。
进一步地,残差块的上采样层将输入的数据采样后,分别输出给1个卷积层和由另外2个卷积层与2个带泄露整流函数和2个单样本规范化层交替组成的多层结构,两支数据相加汇合后作为输出。
一种基于特征调整的神经风格迁移系统,包括一神经风格迁移网络模型,其经训练后,通过输入目标内容图像或视频帧和参考风格图像,处理得到风格迁移结果图像或视频帧;该神经风格迁移网络模型包括:
内容编码器,包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;用于处理目标内容图像,得到内容编码;
风格编码器,包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;用于处理参考风格图像,首个卷积层和含有最大池化的卷积层分别输出风格编码;
装饰器,包括一个单样本规范化层和在后的若干个风格装饰模块;其中单样本规范化层用于接收内容编码并处理输出给风格装饰模块,风格装饰模块用于接收上层输入的数据同时接收风格编码进行综合处理并输出给下一层;
解码器,包括若干个相互交替的自适应单样本规范化层和残差块,以及位于末尾的一个卷积层;用于处理装饰器输出的内容,其中各个自适应单样本规范化层还依次输入风格编码器不同层的风格编码的均值和方差进行,处理得到最终的风格迁移结果图像或视频帧。
本发明通过调整神经网络的特征空间与通道两个维度的分布,只需要一次参数前传就可以实现效果良好的风格迁移。与已有技术相比,本发明在对目标内容的语义结构保持、对参考风格的表征、处理速度等方面取得更好的综合效果,并特别优化了目标内容为视频时对时域连续性的保持。
附图说明
图1为本发明实施例所使用的神经风格迁移网络的结构图。
图2为本发明实施例所使用的风格装饰模块的结构图。
图3A-3C为本发明实施例的目标内容图、参考风格图和风格迁移结果图。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图作详细说明如下。需说明的是,以下实施例所给出的具体层数、模块数、函数数量以及对某些层的设置等都仅是一种较佳的实施方式,而不用于限制,本领域技术人员可以根据实际需要来选取数量和设置某些层,应可理解。
本实施例公开一种基于特征调整的神经风格迁移方法,以对目标内容图像进行风格迁移为例,具体说明如下:
步骤1:搜集大量摄影图像和大量绘画图像,摄影图像组成内容数据集,绘画图像组成风格数据集。
步骤2:搭建神经风格迁移网络模型。
网络结构如图1所示,模型分为内容编码器Ec、风格编码器Es、装饰器M和解码器D四个子网络。内容编码器Ec由连续的9个卷积层组成,每个卷积层后跟随一个线性整流函数(ReLU),第3、5、9个卷积层前使用最大池化进行下采样,最后一层的输出为内容编码L。风格编码器Es与内容编码器Ec有相同的网络结构,但是在输出最后一层结果的基础上还输出第1、3、5层的结果。
装饰器M由一个单样本规范化层(Instance Normalization)和三个风格装饰模块组成,输入为内容编码L。风格装饰模块的结果如图2所示,在输入上一层输出的基础上,输入风格编码。上一层输出与风格编码输入卷积核预测单元,具体地,将上一层输出和风格编码依次经过一卷积层和一全局池化层,合并后再输入一全连接层,得到动态卷积核。将上一层输出依次经过若干卷积层、动态卷积层与线性整流函数交替组成的模块,并与原始输入相加,得到特征风格装饰结果。
解码器D由4个自适应单样本规范化层(Adaptive Instance Normalization)、3个残差块和1个卷积层交替组成。4个自适应单样本规范化层依次输入风格编码器不同层风格编码的均值与方差。残差块如图1所示,由一个最近邻上采样层、3个卷积层、两个带泄露整流函数(Leaky ReLU)和两个单样本规范化层组成。残差块的上采样层将输入的数据采样后,分别输出给1个卷积层和由另外2个卷积层与2个带泄露整流函数和2个单样本规范化层交替组成的多层结构,两支数据相加后作为输出。解码器的最终输出为风格迁移结果O。
步骤3:训练神经风格迁移网络模型。
模型的总损失函数项为:
L=λstyleLstylecontentLcontentreconLrecontvLtvtempLtemp
式中,λstyle、λcontent、λrecon、λtv和λtemp是权重项,通常λstyle设置为20,λcontent设置为1,λrecon设置为100,λtv设置为10,λtemp设置为150。
Lstyle为风格损失函数项:
Lstyle=∑l(||Mean(Φl(S))-Mean(Φl(M(S,C)))||2+||Var(Φl(S))-Var(Φl(M(S,C)))||2),
式中,Φl为预训练的图像分类模型的特征,Mean(·)为特征的均值,Var(·)为特征的方差,l通常取VGG19模型的RELU1_1,RELU2_1,RELU3_1,RELU4_1层,S为参考风格图像,C为目标内容图像,M(S,C)为风格迁移模型M输入S与C的风格迁移结果。
Lcontent为内容损失函数项:
Lcontent=∑l(||Φl(C)-Φl(M(S,C))||2),
l通常取VGG19模型的RELU4_1层。
Lrecon为重建损失函数项:
Lrecon=||M(I,IGray)-I||,
I或者为风格图像或者为内容图像,IGray为对I进行灰度化得到。
Ltv为全变分损失函数项,记ΔX为水平方向的残差,记ΔY为垂直方向的残差,则全变分损失函数为:
Ltv=||ΔX(M(S,C))+ΔY(M(S,C))||。
Ltemp为时域连续性损失函数项:
Ltemp=||M(S,F(C)+Δ)-F(M(S,C))||,
F为随机光流,首先生成一个与C长宽尺寸相同的二通道随机噪声图,然后对其进行高斯模糊。F(C)为使用光流F对图像C进行扭曲,对于每一个C的坐标为(w,h)的像素,水平光流为fX,垂直方向光流为fY,则其新坐标为(w+fX,h+fY),使用最近邻插值完成该扭曲操作。
步骤3:推理阶段,输入参考风格图像S(见图3B)和目标内容图像或视频帧C(见图3A),最终输出想要的风格迁移结果图(见图3C)。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。

Claims (10)

1.一种基于特征调整的神经风格迁移方法,其特征在于,包括以下步骤:
利用训练数据集,训练神经风格迁移网络模型;该神经风格迁移网络模型包括内容编码器、风格编码器、装饰器和解码器;内容编码器和风格编码器均包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;装饰器包括一个单样本规范化层和在后的若干个风格装饰模块;解码器包括若干个相互交替的自适应单样本规范化层和残差块,以及位于末尾的一个卷积层;
将目标内容图像或视频帧和参考风格图像输入到训练好的神经风格迁移网络模型中进行以下步骤的处理:
将目标内容图像或视频帧输入到内容编码器中,处理得到内容编码;
将参考风格图像输入到风格编码器中,首个卷积层和含有最大池化的卷积层分别输出风格编码;
将内容编码输入到装饰器中,同时在各个风格装饰模块中输入风格编码;
将装饰器输出的内容输入到解码器中,在各个自适应单样本规范化层中还依次输入风格编码器不同层的风格编码的均值和方差,处理得到最终的风格迁移结果图像或视频帧。
2.如权利要求1所述的方法,其特征在于,训练数据集包括由摄影图像组成的内容数据集和由绘画图像组成的风格数据集;训练时,将内容数据集输入到内容编码器中,将风格数据集输入到风格编码器中。
3.如权利要求1所述的方法,其特征在于,内容编码器和风格编码器的卷积层均为9个,其中第3、5、9个卷积层前使用最大池化进行下采样;装饰器的风格装饰模块为3个;解码器的自适应单样本规范化层为4个,残差块为3个,卷积层为1个。
4.如权利要求1所述的方法,其特征在于,风格装饰模块包括若干个卷积核预测单元、若干个卷积层和一个线性整流函数,卷积核预测单元包括卷积层、全局池化层、合并层和全连接层。
5.如权利要求1所述的方法,其特征在于,残差块包括1个上采样层、3个卷积层、2个带泄露整流函数和2个单样本规范化层。
6.如权利要求5所述的方法,其特征在于,残差块的上采样层将输入的数据采样后,分别输出给1个卷积层和由另外2个卷积层与2个带泄露整流函数和2个单样本规范化层交替组成的多层结构,两支数据相加后作为输出。
7.如权利要求1所述的方法,其特征在于,在各个风格装饰模块中输入风格编码器的最后一层卷积的风格编码。
8.如权利要求1所述的方法,其特征在于,在解码器的第一个自适应单样本规范化层中输入风格编码器的最后一层卷积的风格编码的均值和方差,再在第二个自适应单样本规范化层中输入风格编码器的倒数第二个含有最大池化的层卷积的风格编码的均值和方差,如此类推。
9.如权利要求1所述的方法,其特征在于,训练神经风格迁移网络模型时,总损失函数项为:
L=λstyleLstylecontentLcontentreconLrecontvLtvtempLtemp
式中,λstyle、λcontent、λrecon、λtv和λtemp是权重项,Lstyle为风格损失函数项,Lcontent为内容损失函数项,Lrecon为重建损失函数项,Ltv为全变分损失函数项,Ltemp为时域连续性损失函数项;其中,
Lstyle=∑l(||Mean(Φl(S))-Mean(Φl(M(S,C)))||2+||Var(Φl(S))-Var(Φl(M(S,C)))||2),
式中,Mean(·)为预训练的图像分类模型VGG19的特征的均值,Var(·)为特征的方差,l取RELU1_1,RELU2_1,RELU3_1,RELU4_1层,S为参考风格图像,C为目标内容图像或视频帧,M(S,C)为风格迁移模型M输入S与C的风格迁移结果;
Lcontent=∑l(||Φl(C)-Φl(M(S,C))||2),
式中,l取预训练的图像分类模型VGG19的RELU4_1层;
Lrecon=||M(I,IGray)-I||,
式中,M(I,IGray)为使用IGray作为目标内容图像或视频帧得到的风格迁移结果,I为一内容图像或视频帧或风格图像,IGray为对I进行灰度化得到;
Ltv=||ΔX(M(S,C))+ΔY(M(S,C))||,
式中,ΔX为水平方向的残差,记ΔY为垂直方向的残差;
Ltemp=||M(S,F(C)+Δ)-F(M(S,C))||,
式中,F为随机光流,首先生成一个与目标内容图像或视频帧C长宽尺寸相同的二通道随机噪声图,然后对其进行高斯模糊;F(C)为使用随机光流F对C进行扭曲,对于每一个C的坐标为(w,h)的像素,水平光流为fX,垂直方向光流为fY,则其新坐标为(w+fX,h+fY),使用最近邻插值完成该扭曲操作。
10.一种基于特征调整的神经风格迁移系统,包括一神经风格迁移网络模型,其经训练后,通过输入目标内容图像或视频帧和参考风格图像,处理得到风格迁移结果图像或视频帧;其特征在于,该神经风格迁移网络模型包括:
内容编码器,包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;用于处理目标内容图像或视频帧,得到内容编码;
风格编码器,包括连续的若干个卷积层,每个卷积层后跟随一个线性整流函数,中间不相邻的部分卷积层和最后卷积层前使用最大池化进行下采样;用于处理参考风格图像,首个卷积层和含有最大池化的卷积层分别输出风格编码;
装饰器,包括一个单样本规范化层和在后的若干个风格装饰模块;其中单样本规范化层用于接收内容编码并处理输出给风格装饰模块,风格装饰模块用于接收上层输入的数据同时接收风格编码进行综合处理并输出给下一层;
解码器,包括若干个相互交替的自适应单样本规范化层和残差块,以及位于末尾的一个卷积层;用于处理装饰器输出的内容,其中各个自适应单样本规范化层还依次输入风格编码器不同层的风格编码的均值和方差进行处理,处理得到最终的风格迁移结果图像或视频帧。
CN202010258460.XA 2020-04-03 2020-04-03 一种基于特征调整的神经风格迁移方法及系统 Active CN113496460B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010258460.XA CN113496460B (zh) 2020-04-03 2020-04-03 一种基于特征调整的神经风格迁移方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010258460.XA CN113496460B (zh) 2020-04-03 2020-04-03 一种基于特征调整的神经风格迁移方法及系统

Publications (2)

Publication Number Publication Date
CN113496460A CN113496460A (zh) 2021-10-12
CN113496460B true CN113496460B (zh) 2024-03-22

Family

ID=77995118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010258460.XA Active CN113496460B (zh) 2020-04-03 2020-04-03 一种基于特征调整的神经风格迁移方法及系统

Country Status (1)

Country Link
CN (1) CN113496460B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989102B (zh) * 2021-10-19 2023-01-06 复旦大学 一种具有高保形性的快速风格迁移方法
CN114692733A (zh) * 2022-03-11 2022-07-01 华南理工大学 端到端的抑制时域噪声放大的视频风格迁移方法、系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651766A (zh) * 2016-12-30 2017-05-10 深圳市唯特视科技有限公司 一种基于深度卷积神经网络的图像风格迁移方法
CN107767328A (zh) * 2017-10-13 2018-03-06 上海交通大学 基于少量样本生成的任意风格和内容的迁移方法和系统
CN108470320A (zh) * 2018-02-24 2018-08-31 中山大学 一种基于cnn的图像风格化方法及系统
CN109218134A (zh) * 2018-09-27 2019-01-15 华东师范大学 一种基于神经风格迁移的测试用例生成系统
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统
WO2019137131A1 (zh) * 2018-01-10 2019-07-18 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565757B2 (en) * 2017-06-09 2020-02-18 Adobe Inc. Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651766A (zh) * 2016-12-30 2017-05-10 深圳市唯特视科技有限公司 一种基于深度卷积神经网络的图像风格迁移方法
CN107767328A (zh) * 2017-10-13 2018-03-06 上海交通大学 基于少量样本生成的任意风格和内容的迁移方法和系统
WO2019137131A1 (zh) * 2018-01-10 2019-07-18 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108470320A (zh) * 2018-02-24 2018-08-31 中山大学 一种基于cnn的图像风格化方法及系统
CN109218134A (zh) * 2018-09-27 2019-01-15 华东师范大学 一种基于神经风格迁移的测试用例生成系统
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
下采样迭代和超分辨率重建的图像风格迁移;周浩;周先军;邱书畅;;湖北工业大学学报;20200215(第01期);全文 *
数据外补偿的深度网络超分辨率重建;杨文瀚;刘家瑛;夏思烽;郭宗明;;软件学报;20171204(第04期);全文 *

Also Published As

Publication number Publication date
CN113496460A (zh) 2021-10-12

Similar Documents

Publication Publication Date Title
Yin et al. Highly accurate image reconstruction for multimodal noise suppression using semisupervised learning on big data
Gai et al. New image denoising algorithm via improved deep convolutional neural network with perceptive loss
CN113658051A (zh) 一种基于循环生成对抗网络的图像去雾方法及系统
CN111028163A (zh) 一种基于卷积神经网络的联合图像去噪与弱光增强方法
CN112307714B (zh) 一种基于双阶段深度网络的文字风格迁移方法
CN113496460B (zh) 一种基于特征调整的神经风格迁移方法及系统
CN113808032A (zh) 多阶段渐进式的图像去噪算法
CN112150354B (zh) 联合轮廓增强与去噪统计先验的单幅图像超分辨率方法
CN110349112B (zh) 一种基于自适应奇异值阈值的两阶段图像去噪方法
CN111968047A (zh) 一种基于生成式对抗网络的自适应光学图像盲复原方法
CN112435162A (zh) 一种基于复数域神经网络的太赫兹图像超分辨重建方法
CN109871790B (zh) 一种基于混合神经网络模型的视频去色方法
CN114692733A (zh) 端到端的抑制时域噪声放大的视频风格迁移方法、系统及存储介质
Yogananda et al. Graph laplacian regularization with sparse coding in secure image restoration and representation for Internet of Things.
CN112200752B (zh) 一种基于er网络多帧图像去模糊系统及其方法
CN113962905A (zh) 基于多阶段特征互补网络的单幅图像去雨方法
CN111145103B (zh) 基于细节保留神经网络模型的蒙特卡洛去噪方法
Yang et al. Learning to remove rain in video with self-supervision
CN113379641B (zh) 一种基于自编码卷积神经网络的单幅图像去雨方法及系统
CN112907456B (zh) 基于全局平滑约束先验模型的深度神经网络图像去噪方法
CN114764750A (zh) 基于自适应一致性先验深度网络的图像去噪方法
CN113450267A (zh) 可快速获取多种自然退化图像复原模型的迁移学习方法
CN113066033A (zh) 一种彩色图像的多阶段去噪系统及方法
Tian et al. A modeling method for face image deblurring
Zhou et al. Efficient Lightweight Image Denoising with Triple Attention Transformer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant