CN110177229B - 基于多任务对抗学习的视频转换方法、存储介质及终端 - Google Patents

基于多任务对抗学习的视频转换方法、存储介质及终端 Download PDF

Info

Publication number
CN110177229B
CN110177229B CN201910333132.9A CN201910333132A CN110177229B CN 110177229 B CN110177229 B CN 110177229B CN 201910333132 A CN201910333132 A CN 201910333132A CN 110177229 B CN110177229 B CN 110177229B
Authority
CN
China
Prior art keywords
generator
video
model
cyclegan
net model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910333132.9A
Other languages
English (en)
Other versions
CN110177229A (zh
Inventor
罗鸿铭
周飞
廖广森
侯贤旭
邱国平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201910333132.9A priority Critical patent/CN110177229B/zh
Publication of CN110177229A publication Critical patent/CN110177229A/zh
Application granted granted Critical
Publication of CN110177229B publication Critical patent/CN110177229B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal

Abstract

本发明提供基于多任务对抗学习的视频转换方法、存储介质及终端,其中,所述的视频转换方法通过构建了1个CycleGAN模型用于增强视频色彩对比度和1个Enhance Net模型用于增强视频分辨率,在对CycleGAN模型和Enhance Net模型进行训练之前,使得CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器之间共享网络参数,输入训练样本训练之后的CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器均能够独立的完成对视频分辨率和色彩对比度的同时增强,在对视频色彩对比度和分辨率进行转换时,节省了视频转换步骤,提高了转换效率。

Description

基于多任务对抗学习的视频转换方法、存储介质及终端
技术领域
本发明涉及视频转换技术领域,尤其涉及一种基于多任务对抗学习的视频转换方法、存储介质及终端。
背景技术
随着硬件设备的不断改进,视频的质量越来越高,人们对视频质量的要求也越来越高。在20世纪80年代,VHS(Video Home System)是当时最流行一种视频存储技术,利用这个技术,人们留下了许许多多宝贵的记忆和电影。然而这个技术是使用胶带存储模拟信号的方法,而随着时间的推移,胶带会收到损坏。当数字信号存储技术出现后,人们就把一些VHS视频转换成数字信号存储下来,但是这样转换后的视频会出现一系列的失真现象,例如会发生颜色的失真、分辨率的失真和产生一些噪声等等。这些现象都会损坏视频的质量,最终得到的视频质量远远不能满足人们的需求。
如何把老旧的视频(VHS视频)转换成高清视频(HDTV)成为了一个急需解决的技术问题,现有技术在进行老旧视频和高清视频之间转换时,要么只能进行色彩矫正,即把色彩对比度不高的老旧视频转换成色彩对比度更加丰富的高清视频。要么只能实现老旧视频和高清视频之间分辨率参数的增强,上述方法每次只能实现一个视频参数增强,视频转换过程繁琐,效率低,现有技术缺乏一种能够同时提高老旧视频色彩对比度和分辨率的技术方案。
因此,现有技术还有待于改进和发展。
发明内容
针对现有技术的上述缺陷,本发明提供一种基于多任务对抗学习的视频转换方法、存储介质及终端,旨在解决现有视频转换方法实现视频色彩对比度和分辨率增强步骤繁琐,效率低的技术问题。
本发明解决技术问题所采用的技术方案如下:
一种基于多任务对抗学习的视频转换方法,其中,包括步骤:
构建用于增强视频色彩对比度的CycleGAN模型以及用于增强视频分辨率的Enhance Net模型;
使CycleGAN模型中用于增强视频色彩对比度的第一生成器和Enhance Net模型中的用于增强视频分辨率的第二生成器之间共享网络参数;
输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练;
使用训练完成的CycleGAN模型中的第一生成器或Enhance Net模型中的第二生成器对待转换视频的分辨率和色彩对比度进行增强。
所述的基于多任务对抗学习的视频转换方法,其中,对CycleGAN模型和EnhanceNet模型进行训练之前包括:对训练样本数据进行归一化处理。
所述的基于多任务对抗学习的视频转换方法,其中,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练之前还包括:对CycleGAN模型和Enhance Net模型中的损失函数进行定义。
所述的基于多任务对抗学习的视频转换方法,其中,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练包括:使用对抗学习的方法优化CycleGAN模型和Enhance Net模型中的损失函数,并利用pytorch框架提供的BackPropagation算法进行网络参数更新。
所述的基于多任务对抗学习的视频转换方法,其中,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练使用的优化器为Adam。
所述的基于多任务对抗学习的视频转换方法,其中,CycleGAN模型中还包括有用于降低视频色彩对比度的第三生成器。
所述的基于多任务对抗学习的视频转换方法,其中,Enhance Net模型中还包括有用于对第二生成器处理后的训练样本数据进行特征提取的VGG网络。
所述的基于多任务对抗学习的视频转换方法,其中,第一生成器的结构与第二生成器的结构相同。
一种存储介质,其上存储有多条指令,其中,所述指令适于由处理器加载并执行,以实现上述任一项所述的基于多任务对抗学习的视频转换方法的步骤。
一种终端,其中,包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述任一项所述的基于多任务对抗学习的视频转换方法的步骤。
有益效果:本发明的视频转换方法通过构建了1个CycleGAN模型用于增强视频色彩对比度和1个Enhance Net模型用于增强视频分辨率,在对CycleGAN模型和Enhance Net模型进行训练之前,使得CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器之间共享网络参数,输入训练样本训练之后的CycleGAN模型中的第一生成器和EnhanceNet模型中的第二生成器均能够独立的完成对视频分辨率和色彩对比度的同时增强,在对视频色彩对比度和分辨率进行转换时,节省了视频转换步骤,提高了转换效率。
附图说明
图1是本发明一种基于多任务对抗学习的视频转换方法流程图。
图2是本发明CycleGAN模型和Enhance Net模型的结构示意图。
图3是本发明终端的功能原理框图。
具体实施方式
本发明提供了一种基于多任务对抗学习的视频转换方法、存储介质及终端,为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参见图1,本发明提供了一种基于多任务对抗学习的视频转换方法,包括步骤:
S100、构建用于增强视频色彩对比度的CycleGAN模型以及用于增强视频分辨率的Enhance Net模型;
S200、使CycleGAN模型中用于增强视频色彩对比度的第一生成器和Enhance Net模型中的用于增强视频分辨率的第二生成器之间共享网络参数;
S300、输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练;
S400、使用训练完成的CycleGAN模型中的第一生成器或Enhance Net模型中的第二生成器对待转换视频的分辨率和色彩对比度进行增强。
本发明要解决的技术问题是老旧视频转换到高清视频的问题,老旧视频存在颜色失真、分辨率不高、有噪声等问题,想要把老旧视频转换成高清视频,老旧视频转换成高清视频属于一个多任务问题。然而在老旧视频到高清视频的转换过程中,目标视频是不存在的,老旧视频没有完全对应的高清视频作为目标,进行学习。虽然高清视频可以通过下采样得到分辨率和老旧视频一致的图像,但是该视频和老旧视频在颜色上还是有很大的差别,这些都给老旧视频到高清视频的转换带来了很大的困难。本发明要解决的就是对视频进行色彩对比度的增强的同时进行超分辨率操作,使得使得低色彩对比度、低分辨率的老旧视频图像转换成高色彩对比度、高分辨率的高清视频。
本发明提出的基于多任务对抗学习的视频转换方法,设计了一个可以同时进行多任务的网络框架,该框架由两个模型组成,一个模型进行颜色矫正(即色彩对比度的提高),另一个模型进行分辨率的提高,由于缺少真实结果,两个模型只能在不同的数据中训练,为了让模型能同时处理两个任务,本发明对这两个模型中生成器进行了网络参数共享,让两个模型能处理两种不同的样本数据(即增强视频色彩对比度的样本数据以及增强视频分辨率的样本数据),使得2个模型内的生成器均能够独立的完成增强视频的色彩对比度和分辨率的任务,输入低分辨率、低色彩对比度的老旧视频后输出色彩对比度和分辨率的增强的高清视频。
在一种优选的实施方式中,所述步骤S300之前包括:设置训练参数,网络结构中的CycleGAN模型和Enhance Net模型在Pytorch框架上实现和训练,训练的优化器为Adam,其参数为β1和β2分别设为0.9和0.999,学习率为10-4,学习率衰减cosine衰减策略。VGG网络使用预训练参数,其他网络使用xavier方式初始化,批量大小为4。
在一种优选的实施方式中,所述步骤S300之前包括:对训练样本数据进行归一化处理。具体的,从老旧视频中抽样作为样本x(低分辨率、低色彩对比度的视频),从高清视频抽样作为样本y(高色彩对比度、高分辨率的视频、内容与老旧视频不同),再把样本y下采样作为样本z(高色彩对比度、低分辨率的视频,内容与老旧视频不同),同时这些数据均进行了归一化处理,把图片的数值范围从[0,255]归一化到[0,1]。
在一种优选的实施方式中,所述步骤S300之前还包括:对CycleGAN模型和EnhanceNet模型中的损失函数进行定义。具体的,把样本x输入到生成器G,输出样本Yx,再把样本Yx输入到生成器F,输出样本
Figure BDA0002038282150000071
样本x和样本
Figure BDA0002038282150000072
形成一个损失函数。同理把样本y输入生成器F,得到结果再输入生成器G,输出样本
Figure BDA0002038282150000073
样本y和样本
Figure BDA0002038282150000074
形成一个损失函数,这两个损失函数的和为
Figure BDA0002038282150000075
Figure BDA0002038282150000076
||*||1代表1范数,使用对抗学习方法,优化损失函数
Figure BDA0002038282150000077
Figure BDA0002038282150000078
Figure BDA0002038282150000079
Figure BDA00020382821500000710
其中,G(x)为生成器G内的映射函数,F(x)为生成器F内的映射函数,Dx(x)为判别器Dx内的映射函数,Dy(y)为判别器Dy内的映射函数,得生成器G生成的样本
Figure BDA00020382821500000711
更像高清视频样本y和生成器F生成的样本
Figure BDA00020382821500000716
更像老旧视频样本x,把样本z输入到生成器H(优选的,生成器H与生成器G的结构一样),输出样本Yz,样本Yx和样本y经过一个预训练好的网络VGG提取特征后形成一个损失函数,记为
Figure BDA00020382821500000712
Figure BDA00020382821500000713
||*||2代表2范数,z为y的下采样结果,同时使用对抗学习方法,优化损失函数
Figure BDA00020382821500000714
Figure BDA00020382821500000715
,使生成的样本Yz更像高清视频样本y。其中,G(z)为生成器H内的映射函数,Dz(y)为判别器Dz内的映射函数,VGG(y)为VGG网络内的映射函数。
在一种优选的实施方式中,所述步骤S300包括:使用对抗学习的方法优化CycleGAN模型和Enhance Net模型中的损失函数,并利用pytorch框架提供的BackPropagation算法进行网络参数更新。
在一种优选的实施方式中,所述步骤S300中使用的优化器为Adam。
在一种优选的实施方式中,CycleGAN模型中还包括有用于降低视频色彩对比度的第三生成器。
在一种优选的实施方式中,Enhance Net模型中还包括有用于对第二生成器处理后的训练样本数据进行特征提取的VGG网络。
在一种优选的实施方式中,第一生成器的结构与第二生成器的结构相同。
在一种优选的实施方式中,参见图2,本发明的一种视频转换网络框架结构包括有CycleGAN模型和Enhance Net模型,较佳的,CycleGAN模型内可以包含有2个生成器和2个判别器,其中生成器G(第一生成器)用于增强输入样本数据的色彩对比度,生成器F(第三生成器)用于对色彩对比度增强后样本数据的对比度进行降低,老旧视频样本x经过生成器G变成高清视频样本Yx,再经过生成器F变回老旧视频样本
Figure BDA0002038282150000081
样本x和样本
Figure BDA0002038282150000082
就能够形成一个循环一致损失函数,记为
Figure BDA0002038282150000083
而Dy和Dx分别是高清视频和老旧视频的判别器,通过对抗学习的方法,能够让生成的样本Yx更像高清视频,生成的
Figure BDA0002038282150000091
更像老旧视频,它们提供了两个对抗损失函数,分别记为
Figure BDA0002038282150000092
Figure BDA0002038282150000093
通过CycleGAN模型的训练,生成器G可以完成色彩对比度提高的任务。
参见图2,Enhance Net模型内可以包含有1个生成器、1个判别器和2个VGG网络,样本y是与待转换老旧视频内容不相同的但是分辨率高、色彩对比度高的高清视频视频,样本z是样本y下采样后的视频,即低分辨率、高色彩对比度的高清视频,样本z经过生成器H(第二生成器,其结构可以与生成器G一样)后生成的样本Yz是高分辨率的高清视频,之后样本y和样本Yz都经过VGG网络提取特征,形成另一个损失函数,记为
Figure BDA0002038282150000094
样本z为样本y的下采样结果。样本Dz是高分辨率高清视频的辨别器,也能得到一个对抗损失函数,记为
Figure BDA0002038282150000095
总的损失函数为:
Figure BDA0002038282150000096
优化后为:
Figure BDA0002038282150000097
CycleGAN模型中的生成器G和Enhance Net模型中的生成器H共享网络参数,使得对抗训练后的生成器G和生成器H均能同时处理色彩对比度和分辨率提高的任务,训练结束后,向生成器G或生成器H中输入是低分辨率低色彩对比度的老旧视频,即可输出是高分辨率高色彩对比度的高清视频。
在一种优选的实施方式中,在生成器G、F和H中,定义了七个模块,第一、二、三、五、六、七个模块均由一个3*3的卷积层、批量归一化层和Relu激活函数层组成,第四个模块为残差网络块,其是由两个3*3的卷积层、批量归一化层和Relu激活函数层组成,同时该模块的输入会跳连到输出位置并与输出相加,此外,第一个模块的输出跳连到第七个模块,并与第七个模块的输入级联在一起;第二个模块的输出跳连到第六个模块,并与第六个模块的输入级联在一起,第三个模块的输出跳连到第五个模块,并与第五个模块的输入级联在一起,其中第一、七个模块的数据张量的尺寸一样,第二、六个模块的数据张量尺寸为第一个模块的一半,第三、四、五个模块的数据张量尺寸为第二个模块的一半,各层卷积层的通道均为64,在判别器Dy、Dx和DZ中,定义了三层3*3的卷积层,两层LeakyRelu激活函数层,一层批量归一化层和一个sigmoid激活函数层,整个判别器的层均没有改变图片张量的尺寸,最终输出的是和原图的尺寸一样的通道数为一的判别结果,各卷积层的通道数为64,该判别器也被称为块判别器的一种极限形式。
基于上述实施例,本发明还公开了一种终端,如图3示,包括:处理器(processor)10、与处理器10连接的存储介质(memory)20;其中,所述处理器10用于调用所述存储介质20中的程序指令,以执行上述实施例所提供的方法,例如执行:
构建用于增强视频色彩对比度的CycleGAN模型以及用于增强视频分辨率的Enhance Net模型;
使CycleGAN模型中用于增强视频色彩对比度的第一生成器和和Enhance Net模型中的用于增强视频分辨率的第二生成器之间共享网络参数;
输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练;
使用训练完成的CycleGAN模型中的第一生成器或Enhance Net模型中的第二生成器对待转换视频的分辨率和色彩对比度进行增强。
本发明实施例还提供一种存储介质,所述存储介质上存储计算机指令,所述计算机指令使计算机执行上述各实施例所提供的方法。
综上所述,本发明的视频转换方法通过构建了1个CycleGAN模型用于增强视频色彩对比度和1个Enhance Net模型用于增强视频分辨率,在对CycleGAN模型和Enhance Net模型进行训练之前,使得CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器之间共享网络参数,输入训练样本训练之后的CycleGAN模型中的第一生成器和EnhanceNet模型中的第二生成器均能够独立的完成对视频分辨率和色彩对比度的同时增强,在对视频色彩对比度和分辨率进行转换时,节省了视频转换步骤,提高了转换效率。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (8)

1.一种基于多任务对抗学习的视频转换方法,其特征在于,包括步骤:
构建用于增强视频色彩对比度的CycleGAN模型以及用于增强视频分辨率的EnhanceNet模型;所述CycleGAN模型包括第一生成器、第三生成器和两个判别器,其中,所述第三生成器用于对色彩对比度增强后样本数据的对比度进行降低;所述Enhance Net模型包括第二生成器和两个VGG网络;
使CycleGAN模型中用于增强视频色彩对比度的第一生成器和Enhance Net模型中的用于增强视频分辨率的第二生成器之间共享网络参数;
输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练;
使用训练完成的CycleGAN模型中的第一生成器或Enhance Net模型中的第二生成器对待转换视频的分辨率和色彩对比度进行增强;
第一生成器的结构与第二生成器的结构相同;
所述第一生成器、第二生成器以及所述第三生成器均包括卷积层、批量归一化层和Relu激活函数层。
2.根据权利要求1所述的基于多任务对抗学习的视频转换方法,其特征在于,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练之前包括:对训练样本数据进行归一化处理。
3.根据权利要求1所述的基于多任务对抗学习的视频转换方法,其特征在于,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练之前还包括:对CycleGAN模型和Enhance Net模型中的损失函数进行定义。
4.根据权利要求3所述的基于多任务对抗学习的视频转换方法,其特征在于,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练包括:使用对抗学习的方法优化CycleGAN模型和Enhance Net模型中的损失函数,并利用pytorch框架提供的BackPropagation算法进行网络参数更新。
5.根据权利要求1所述的基于多任务对抗学习的视频转换方法,其特征在于,输入训练样本数据对CycleGAN模型中的第一生成器和Enhance Net模型中的第二生成器进行训练使用的优化器为Adam。
6.根据权利要求1所述的基于多任务对抗学习的视频转换方法,其特征在于,EnhanceNet模型中还包括有用于对第二生成器处理后的训练样本数据进行特征提取的VGG网络。
7.一种存储介质,其上存储有多条指令,其特征在于,所述指令适于由处理器加载并执行,以实现上述权利要求1-6任一项所述的基于多任务对抗学习的视频转换方法的步骤。
8.一种终端,其特征在于,包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述权利要求1-6任一项所述的基于多任务对抗学习的视频转换方法的步骤。
CN201910333132.9A 2019-04-24 2019-04-24 基于多任务对抗学习的视频转换方法、存储介质及终端 Active CN110177229B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910333132.9A CN110177229B (zh) 2019-04-24 2019-04-24 基于多任务对抗学习的视频转换方法、存储介质及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910333132.9A CN110177229B (zh) 2019-04-24 2019-04-24 基于多任务对抗学习的视频转换方法、存储介质及终端

Publications (2)

Publication Number Publication Date
CN110177229A CN110177229A (zh) 2019-08-27
CN110177229B true CN110177229B (zh) 2020-12-29

Family

ID=67690033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910333132.9A Active CN110177229B (zh) 2019-04-24 2019-04-24 基于多任务对抗学习的视频转换方法、存储介质及终端

Country Status (1)

Country Link
CN (1) CN110177229B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369475B (zh) * 2020-03-26 2023-06-23 北京百度网讯科技有限公司 用于处理视频的方法和装置
CN117196957B (zh) * 2023-11-03 2024-03-22 广东省电信规划设计院有限公司 基于人工智能的图像分辨率转换方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9241128B2 (en) * 2013-02-14 2016-01-19 Warner Bros. Entertainment Inc. Video conversion technology
CN107155131A (zh) * 2016-03-02 2017-09-12 王进洪 一种视频图像分辨率处理系统及方法
CN109345604B (zh) * 2018-08-01 2023-07-18 深圳大学 图片处理方法、计算机设备和存储介质
CN109299716B (zh) * 2018-08-07 2021-07-06 北京市商汤科技开发有限公司 神经网络的训练方法、图像分割方法、装置、设备及介质
CN109584162B (zh) * 2018-11-30 2023-06-13 江苏网进科技股份有限公司 一种基于生成网络的图像超分辨率重构的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于生成对抗学习的图像去雾;韩稳健;《中国优秀硕士学位论文全文数据库信息技术辑》;20190215(第02期);第1-57页 *

Also Published As

Publication number Publication date
CN110177229A (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
CN109903228B (zh) 一种基于卷积神经网络的图像超分辨率重建方法
CN106709875B (zh) 一种基于联合深度网络的压缩低分辨率图像复原方法
CN110675321A (zh) 一种基于渐进式的深度残差网络的超分辨率图像重建方法
CN109785252B (zh) 基于多尺度残差密集网络夜间图像增强方法
CN110717868B (zh) 视频高动态范围反色调映射模型构建、映射方法及装置
CN110189260B (zh) 一种基于多尺度并行门控神经网络的图像降噪方法
CN111640060A (zh) 基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法
CN110177229B (zh) 基于多任务对抗学习的视频转换方法、存储介质及终端
Luo et al. Lattice network for lightweight image restoration
CN111932461A (zh) 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统
CN112884650B (zh) 一种基于自适应纹理蒸馏的图像混合超分辨率方法
CN111369466A (zh) 一种基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN110610467A (zh) 一种基于深度学习的多帧视频去压缩噪声方法
CN112507617A (zh) 一种SRFlow超分辨率模型的训练方法及人脸识别方法
CN115063297A (zh) 基于参数重构的图像超分辨率重建方法及系统
CN112288630A (zh) 一种基于改进的广泛深度神经网络的超分辨率图像重建方法及系统
CN112308803A (zh) 一种基于深度学习的自监督低照度图像增强及去噪方法
CN115393191A (zh) 一种轻量级遥感图像超分辨率重建方法、装置及设备
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
CN112017116A (zh) 基于非对称卷积的图像超分辨率重建网络及其构建方法
CN111640061A (zh) 一种自适应图像超分辨率系统
CN115965527A (zh) 基于卷积神经网络的移动端轻量级图像超分辨率重建方法
CN116152128A (zh) 基于注意力机制的高动态范围多曝光图像融合模型及方法
CN116208812A (zh) 一种基于立体事件和强度相机的视频插帧方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant