CN111260560B - 一种融合注意力机制的多帧视频超分辨率方法 - Google Patents
一种融合注意力机制的多帧视频超分辨率方法 Download PDFInfo
- Publication number
- CN111260560B CN111260560B CN202010098595.4A CN202010098595A CN111260560B CN 111260560 B CN111260560 B CN 111260560B CN 202010098595 A CN202010098595 A CN 202010098595A CN 111260560 B CN111260560 B CN 111260560B
- Authority
- CN
- China
- Prior art keywords
- super
- frame
- resolution
- feature
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000007246 mechanism Effects 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 75
- 230000004927 fusion Effects 0.000 claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 19
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 8
- 230000006872 improvement Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000000137 annealing Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种融合注意力机制的多帧视频超分辨率方法,包括:采集视频数据并采用视频增强技术对视频数据进行训练以生成训练集及测试集;连接变形卷积特征对齐模块及特征重建模块以构成多帧超分辨率网络,采用训练集对多帧超分辨率网络进行训练;将3D卷积特征对齐模块加入多帧超分辨率网络中,采用训练集对多帧超分辨率网络进行训练;将特征融合模块加入多帧超分辨率网络中,采用训练集对多帧超分辨率网络进行训练;采用训练集对多帧超分辨率网络进行微调以生成多帧超分辨率模型;采用测试集对多帧超分辨率模型进行测试。本发明可通过对大数据的分析有效提高超分辨率效果。
Description
技术领域
本发明涉及一种大数据分析技术领域,尤其涉及一种多帧视频超分辨率方法。
背景技术
超分辨率技术广泛应用于公共安全监控识别,医疗影像,卫星遥感,虚拟现实等实际场景中。由于可视化媒体显示技术的发展,图像和视频数据迫切的需要在现有的高清晰度显示器上有更好的显示或播放效果,这也对超分辨率技术提出了更高的要求。视频超分辨率任务和单帧超分辨率相比增加了时序信息。按照利用时序信息的不同方式,基于深度学习的视频超分辨率技术可以大致分为基于多帧级联的方法,基于3D卷积的方法和基于循环结构的方法。
基于多帧级联的方法可以看作是单帧超分辨率换成多帧输入的扩展形式。DUF方法是这类方法的典型代表,它利用多帧特征估计出上采样滤波器和残差来实现超分辨率。最近Wang等人提出的EDVR网络也属于这类方法,EDVR通过多尺度的变形卷积将临帧的特征和当前帧对齐,后续再进行特征融合。这种方法虽然利用了多帧特征,但只是把特征级联到了一起,无法表示帧间的运动信息。
基于3D卷积的方法通过三维卷积核来学习帧间运动信息,Caballero等人首先提出3D卷积可以看作缓慢的帧间信息融合过程。Huang等人通过使用3D卷积提升了BRCN的效果,但他们的工作使用的网络仍然很浅层。Li等人提出的FSTRN采用了带跳跃连接的深层3D卷积网络,为了减小3D卷积的计算量,他们在网络中使用了可分离的3D卷积。
循环神经网络擅长处理序列结构,因此基于循环结构的方法通过RNN,LSTM等进行多帧超分辨率。这种方法中最早提出的是双向RNN,它的网络容量较小,也没有后续的帧间对齐步骤。Guo等人通过采用运动补偿模块和卷积LSTM层改进了双向RNN。最近,Mehdi等人提出了一个多输入多输出的RNN超分网络,该网络使用前一帧的超分结果来估计后续帧的超分结果,递归反馈层的连接能使相邻帧之间保持平滑,从而得到更好的结果。
多帧特征的对齐和融合是视频超分辨率的难点所在。视频中场景,运动复杂,甚至经常面临场景切换,这就需要超分网络自适应的处理这种情况,现存的三种方法在进行帧间对齐时都存在一定的缺陷。
因此,随着可视媒体的发展,视频超分辨率的要求越来越高,迫切需要一种效果更好的视频超分辨率方法。
发明内容
本发明所要解决的技术问题在于,提供一种融合注意力机制的多帧视频超分辨率方法,可通过对大数据进行分析以构建多帧超分辨率模型,从而提高超分辨率效果。
为了解决上述技术问题,本发明提供了一种融合注意力机制的多帧视频超分辨率方法,包括:S1,采集视频数据,并采用视频增强技术对所述视频数据进行训练以生成训练集及测试集;S2,构建变形卷积特征对齐模块及特征重建模块,并连接所述变形卷积特征对齐模块及特征重建模块以构成多帧超分辨率网络,采用所述训练集对所述多帧超分辨率网络进行训练;S3,构建3D卷积特征对齐模块,并将所述3D卷积特征对齐模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练;S4,构建特征融合模块,并将所述特征融合模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练;S5,采用所述训练集对所述多帧超分辨率网络进行微调以生成多帧超分辨率模型;S6,采用所述测试集对所述多帧超分辨率模型进行测试。
作为上述方案的改进,所述步骤S1包括:采集视频数据以构成视频数据集;将所述视频数据集中的每个视频数据切分为多个图像;打乱所述视频数据集中所有图像的顺序,选取部分图像以构成训练集,其余图像构成测试集;在所述训练集的每个图像中选取多个图像块,并分别对所述图像块进行数据增强处理。
作为上述方案的改进,所述数据增强处理包括加高斯噪声处理、翻转处理、颜色抖动处理及旋转90度处理。
作为上述方案的改进,所述步骤S2包括:将EDVR模型前端的特征对齐模块作为变形卷积特征对齐模块,所述变形卷积特征模块包括多尺度特征提取单元、特征对齐单元及时序/空间融合单元;构建特征重建模块,所述特征重建模块包括多个加入空间及通道注意力机制的残差块;将所述变形卷积特征对齐模块与特征重建模块连接以构成多帧超分辨率网络;采用L1损失函数及所述训练集对所述多帧超分辨率网络进行训练;对所述变形卷积特征对齐模块的时序/空间融合单元进行微调。
作为上述方案的改进,所述步骤S3包括:构建3D卷积特征对齐模块,所述3D卷积特征对齐模块包括三个3D残差块,第一个3D残差块与第三个3D残差块之间通过相加进行短路连接,每个3D残差块均包括一个激活函数层及三个卷积层;将所述3D卷积特征对齐模块加入所述多帧超分辨率网络的头部,并将所述3D卷积特征对齐模块与特征重建模块连接;采用L1损失函数及所述训练集对所述3D卷积特征对齐模块进行训练。
作为上述方案的改进,训练时,采用学习率调整策略。
作为上述方案的改进,每个3D残差块均包括一个激活函数层、一个1×1×1卷积层、一个1×3×3卷积层及一个3×1×1卷积层。
作为上述方案的改进,所述步骤S4包括:构建特征融合模块,所述特征融合模块包括卷积层;将3D卷积特征对齐模块及变形卷积特征对齐模块输出的特征输入到所述特征融合模块进行训练;对所述特征融合模块及特征重建模块进行微调。
作为上述方案的改进,所述特征融合模块包括一个1×1卷积层。
本发明通过对大数据进行分析以构建出由3D卷积特征对齐模块、变形卷积特征对齐模块、特征融合模块及特征重建模块组成的多帧超分辨率模型,从而通过所述多帧超分辨率模型可将低分辨率连续帧重建为分辨率扩大为原图4倍的当前帧。具体地,本发明具有以下有益效果:
1、本发明结合大数据分析技术,对海量的视频数据进行训练,以进一步完善视频样本的多样性,从而提高多帧超分辨率模型的准确性。
2、本发明采取了对变形卷积及3D卷积两种方法融合的方式来进行多帧特征对齐,可以充分利用不同对齐方法的优势,达到比单个特征对齐模块更好的多帧超分结果;
3、本发明通过在特征重建模块中将空间和通道两种注意力机制加入到了基础残差块中,增强了重建网络的表达能力,提高了超分辨率效果。
附图说明
图1是本发明融合注意力机制的多帧视频超分辨率方法的实施例流程图;
图2是本发明融合注意力机制的多帧视频超分辨率方法中特征重建模块的结构示意图;
图3是本发明融合注意力机制的多帧视频超分辨率方法中3D卷积特征对齐模块的结构示意图;
图4是本发明融合注意力机制的多帧视频超分辨率方法中多帧超分辨率模型的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
在现有的多帧视频超分辨率任务中,需要利用临近帧的信息对当前帧进行补全,并从多帧的特征中学习到从低分辨率图像到高分辨率图像的映射关系。得到良好超分辨率效果的难点是对临近帧特征的对齐和对齐后特征的有效利用。以往方法通过特征级联,三维卷积或者循环神经网络的方式提取多帧特征,但是这些方法都存在自身的不足,难以充分提取到各个临近帧的有效特征,导致超分辨率之后的视频出现帧间画面不连续的现象。在后续的特征重建阶段,以往的多帧方法没有考虑到特征图在通道维度和空间维度上重要程度的不同,导致重建结果的某些部位出现模糊。本发明提出一种融合注意力机制的多帧视频超分辨率方法,通过结合大数据分析技术,对海量的视频数据进行训练,以进一步完善视频样本的多样性,从而提高多帧超分辨率模型的准确性。
参见图1,图1显示了本发明融合注意力机制的多帧视频超分辨率方法的实施例流程图,其包括:
S1,采集视频数据,并采用视频增强技术对所述视频数据进行训练以生成训练集及测试集。
采集多帧超分辨率需要的视频数据,并使用优酷视频增强技术对视频数据进行训练和测试。具体地,所述步骤S1包括:
步骤一,采集视频数据以构成视频数据集。
步骤二,将所述视频数据集中的每个视频数据切分为多个图像。
用FFmpeg命令将视频数据集中的视频数据切分为png格式的图像,需要说明的是,FFmpeg是一套记录转换视频音频格式的开源程序,可以运行音频和视频多种格式的录影、转换、流功能。
例如,本发明中可将每个视频数据切分为100张图像,若视频数据集中共有1000段视频数据,则可得到100000个低分辨率/高分辨率图像。
步骤三,打乱所述视频数据集中所有图像的顺序,选取部分图像以构成训练集,其余图像构成测试集。
例如,将步骤二中生成的图像打乱顺序,可随机选取3/4的图像作为训练集,其余图像作为测试集。若共有100000个图像,则训练集共包括75000张图像,测试集包括25000张图像。
步骤四,在所述训练集的每个图像中选取多个图像块,并分别对所述图像块进行数据增强处理。优选地,所述数据增强处理包括加高斯噪声处理、翻转处理、颜色抖动处理及旋转90度处理,但不以此为限制。
因此,针对步骤三中生成的训练集,在每个图像中选取对应的固定大小的图像块。例如,首先,对每个图像生成10个图像块,其中,低分辨率图像块的大小为64×64,高分辨率图像块的大小为256×256;然后,对得到的图像块以0.5的概率值进行加高斯噪声、翻转、颜色抖动、旋转90度等数据增强处理,得到最终的训练集。
S2,构建变形卷积特征对齐模块及特征重建模块,并连接所述变形卷积特征对齐模块及特征重建模块以构成多帧超分辨率网络,采用所述训练集对所述多帧超分辨率网络进行训练。
具体地,所述步骤S2包括:
步骤一,将EDVR模型前端的特征对齐模块作为变形卷积特征对齐模块,所述变形卷积特征模块包括多尺度特征提取单元、特征对齐单元及时序/空间融合单元。
步骤二,构建特征重建模块,所述特征重建模块包括多个加入空间及通道注意力机制的残差块。
如图2所示,本发明的特征重建模块由20个加入空间和通道注意力机制的残差块组成。
步骤三,将所述变形卷积特征对齐模块与特征重建模块连接以构成多帧超分辨率网络。其中,多帧超分辨率网络的临近帧的个数为3,即只使用当前帧的前一帧和后一帧作为临帧,在视频的第一帧和最后一帧,用当前帧填充缺失的临帧。
步骤四,采用L1损失函数及所述训练集对所述多帧超分辨率网络进行训练。
需要说明的是,训练时采用L1损失函数,即用网络输出的图像减去真实图像,并取绝对值再对所有像素求和。具体地,所述L1损失函数为:
其中,I表示图像块,H表示图像块的宽度,W表示图像块的长度,表示多帧超分辨率网络的估计值,x,y表示像素坐标值。训练时,可将初始学习率设为1e-3,采用学习率调整/退火策略,迭代200000次,但不以此为限制。
步骤五,对所述变形卷积特征对齐模块的时序/空间融合单元进行微调。
微调时,需固定多帧超分辨率网络的其余部分,单独对变形卷积特征对齐模块的时序/空间融合单元进行微调。微调时,可将学习率设为1e-4,迭代50000次,以得到训练好的变形卷积特征对齐模块,但不以此为限制。
因此,本发明通过在特征重建模块中将空间和通道两种注意力机制加入到了基础残差块中,增强了重建网络的表达能力,提高了超分辨率效果。
S3,构建3D卷积特征对齐模块,并将所述3D卷积特征对齐模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练。
固定步骤S2中训练得到的多帧超分辨率网络,在多帧超分辨率网络的头部加入3D卷积特征对齐模块,并对3D卷积特征对齐模块进行训练。具体地,所述步骤S3包括:
步骤一,构建3D卷积特征对齐模块。
如图3所示,所述3D卷积特征对齐模块包括三个3D残差块,第一个3D残差块与第三个3D残差块之间通过相加进行短路连接,每个3D残差块均包括一个激活函数层及三个卷积层;优选地,所述三个卷积层分别为一个1×1×1的卷积层,一个1×3×3的卷积层及一个3×1×1的卷积层,经过这三个卷积层后的输出和输入相加即可得到3D残差块的输出,其中,每个卷积层的通道数均为64,但不以此为限制。
步骤二,将所述3D卷积特征对齐模块加入所述多帧超分辨率网络的头部,将所述3D卷积特征对齐模块与特征重建模块连接,并固定所述特征重建模块。
步骤三,采用L1损失函数及所述训练集对所述3D卷积特征对齐模块进行训练。
所述L1损失函数为:
因此,本发明采取了对变形卷积及3D卷积两种方法融合的方式来进行多帧特征对齐,可以充分利用不同对齐方法的优势,达到比单个特征对齐模块更好的多帧超分结果。
S4,构建特征融合模块,并将所述特征融合模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练。
训练时,需固定3D卷积特征对齐模块及变形卷积特征对齐模块,将3D卷积特征对齐模块及变形卷积特征对齐模块输出的特征输入到特征融合模块进行训练。具体地,所述步骤S4包括:
步骤一,构建特征融合模块,所述特征融合模块包括卷积层。
优选地,所述卷积层为1×1卷积,所述卷积层的输入为3D卷积特征对齐模块及变形卷积特征对齐模块输出的级联特征,共有128个通道,输出为64个通道,但不以此为限制。
步骤二,将3D卷积特征对齐模块及变形卷积特征对齐模块输出的特征输入到所述特征融合模块进行训练。
训练时,可设置学习率为1e-3,固定多帧超分辨率网络的其他部分,训练特征融合模块,共迭代10000次,以得到训练好的特征融合模块。
步骤三,对所述特征融合模块及特征重建模块进行微调。
微调时,可设置学习率为1e-4,固定3D卷积特征对齐模块及变形卷积特征对齐模块,微调特征融合模块和后续的特征重建模块。
S5,采用所述训练集对所述多帧超分辨率网络进行微调以生成多帧超分辨率模型。
训练时,多帧超分辨率模型的输入为64×64的低分辨率图像块,将图像块分别送入3D卷积特征对齐模块及变形卷积特征对齐模块中,最终经过特征融合模块和特征重建模块输出大小为256×256的高分辨率图像块;训练过程中,可将整体学习率设置为1e-4,共训练150000次迭代,但不以此为限制。
如图4所示,经过上述步骤S1-5的训练及微调后,可形成由3D卷积特征对齐模块、变形卷积特征对齐模块、特征融合模块及特征重建模块组成的多帧超分辨率模型。
S6,采用所述测试集对所述多帧超分辨率模型进行测试。
测试时,可输入一段Y4m格式的视频,先将其转化成序号相邻的Png格式图像,再将某低分辨率图像和临帧直接输入到两个特征对齐模块(3D卷积特征对齐模块、变形卷积特征对齐模块)中,在特征重建模块后端输出对当前帧4倍超分后的结果;再将输出的结果和原高分辨率图像进行比较,计算PSNR(Peak Signal to Noise Ratio,即峰值信噪比),SSIM(structural similarity index measurement,即结构相似性)等指标;然后,将输出的结果连接成Y4m格式的视频文件,和原始视频对比计算vmaf(一项由美国Netflix公司开发的开源主观视频质量评价体系Visual Multimethod Assessment Fusion)指标;最后,和其他方法进行比较,本发明的多帧超分辨率模型能达到较好的效果。
由上可知,本发明构建出由3D卷积特征对齐模块、变形卷积特征对齐模块、特征融合模块及特征重建模块组成的多帧超分辨率模型,通过所述多帧超分辨率模型可将低分辨率连续帧重建为分辨率扩大为原图4倍的当前帧。具体地,本发明具有以下有益效果:
1、本发明结合大数据分析技术,对海量的视频数据进行训练,以进一步完善视频样本的多样性,从而提高多帧超分辨率模型的准确性。
2、本发明采取了对变形卷积及3D卷积两种方法融合的方式来进行多帧特征对齐,可以充分利用不同对齐方法的优势,达到比单个特征对齐模块更好的多帧超分结果;
3、本发明通过在特征重建模块中将空间和通道两种注意力机制加入到了基础残差块中,增强了重建网络的表达能力,提高了超分辨率效果。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (7)
1.一种融合注意力机制的多帧视频超分辨率方法,其特征在于,包括:
S1,采集视频数据,并采用视频增强技术对所述视频数据进行训练以生成训练集及测试集;
S2,构建变形卷积特征对齐模块及特征重建模块,并连接所述变形卷积特征对齐模块及特征重建模块以构成多帧超分辨率网络,采用所述训练集对所述多帧超分辨率网络进行训练;所述步骤S2包括:将EDVR模型前端的特征对齐模块作为变形卷积特征对齐模块,所述变形卷积特征模块包括多尺度特征提取单元、特征对齐单元及时序/空间融合单元;构建特征重建模块,所述特征重建模块包括多个加入空间及通道注意力机制的残差块;将所述变形卷积特征对齐模块与特征重建模块连接以构成多帧超分辨率网络;采用L1损失函数及所述训练集对所述多帧超分辨率网络进行训练;对所述变形卷积特征对齐模块的时序/空间融合单元进行微调;
S3,构建3D卷积特征对齐模块,并将所述3D卷积特征对齐模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练;所述步骤S3包括:构建3D卷积特征对齐模块,所述3D卷积特征对齐模块包括三个3D残差块,第一个3D残差块与第三个3D残差块之间通过相加进行短路连接,每个3D残差块均包括一个激活函数层及三个卷积层;将所述3D卷积特征对齐模块加入所述多帧超分辨率网络的头部,并将所述3D卷积特征对齐模块与特征重建模块连接;采用L1损失函数及所述训练集对所述3D卷积特征对齐模块进行训练;
S4,构建特征融合模块,并将所述特征融合模块加入所述多帧超分辨率网络中,采用所述训练集对所述多帧超分辨率网络进行训练;所述步骤S4包括:构建特征融合模块,所述特征融合模块包括卷积层;将3D卷积特征对齐模块及变形卷积特征对齐模块输出的特征输入到所述特征融合模块进行训练;对所述特征融合模块及特征重建模块进行微调;
S5,采用所述训练集对所述多帧超分辨率网络进行微调以生成多帧超分辨率模型;
S6,采用所述测试集对所述多帧超分辨率模型进行测试。
2.如权利要求1所述的多帧视频超分辨率方法,其特征在于,所述步骤S1包括:
采集视频数据以构成视频数据集;
将所述视频数据集中的每个视频数据切分为多个图像;
打乱所述视频数据集中所有图像的顺序,选取部分图像以构成训练集,其余图像构成测试集;
在所述训练集的每个图像中选取多个图像块,并分别对所述图像块进行数据增强处理。
3.如权利要求2所述的多帧视频超分辨率方法,其特征在于,所述数据增强处理包括加高斯噪声处理、翻转处理、颜色抖动处理及旋转90度处理。
5.如权利要求1所述的多帧视频超分辨率方法,其特征在于,训练时,采用学习率调整策略。
6.如权利要求1所述的多帧视频超分辨率方法,其特征在于,每个3D残差块均包括一个激活函数层、一个1×1×1卷积层、一个1×3×3卷积层及一个3×1×1卷积层。
7.如权利要求1所述的多帧视频超分辨率方法,其特征在于,所述特征融合模块包括一个1×1卷积层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010098595.4A CN111260560B (zh) | 2020-02-18 | 2020-02-18 | 一种融合注意力机制的多帧视频超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010098595.4A CN111260560B (zh) | 2020-02-18 | 2020-02-18 | 一种融合注意力机制的多帧视频超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111260560A CN111260560A (zh) | 2020-06-09 |
CN111260560B true CN111260560B (zh) | 2020-12-22 |
Family
ID=70954506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010098595.4A Active CN111260560B (zh) | 2020-02-18 | 2020-02-18 | 一种融合注意力机制的多帧视频超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260560B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220261959A1 (en) * | 2021-02-08 | 2022-08-18 | Nanjing University Of Posts And Telecommunications | Method of reconstruction of super-resolution of video frame |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102163B (zh) * | 2020-08-07 | 2024-04-19 | 南京航空航天大学 | 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法 |
CN112991183B (zh) * | 2021-04-09 | 2023-06-20 | 华南理工大学 | 一种基于多帧注意力机制渐进式融合的视频超分辨率方法 |
CN113409190B (zh) * | 2021-05-14 | 2022-05-20 | 广东工业大学 | 一种基于多帧分组与反馈网络的视频超分辨率方法 |
CN113034370A (zh) * | 2021-05-26 | 2021-06-25 | 之江实验室 | 一种结合3d脸部结构先验的人脸超分辨方法 |
CN113487481B (zh) * | 2021-07-02 | 2022-04-12 | 河北工业大学 | 基于信息构建和多密集残差块的循环视频超分辨率方法 |
CN113469884A (zh) * | 2021-07-15 | 2021-10-01 | 长视科技股份有限公司 | 基于数据仿真的视频超分辨方法、系统、设备及存储介质 |
CN113610707B (zh) * | 2021-07-23 | 2024-02-09 | 广东工业大学 | 一种基于时间注意力与循环反馈网络的视频超分辨率方法 |
CN113610713B (zh) * | 2021-08-13 | 2023-11-28 | 北京达佳互联信息技术有限公司 | 视频超分辨模型的训练方法、视频超分辨方法及装置 |
CN115052187B (zh) * | 2022-04-26 | 2024-05-03 | 复旦大学 | 一种基于在线训练的超分辨率直播系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033410A (zh) * | 2019-03-28 | 2019-07-19 | 华中科技大学 | 图像重建模型训练方法、图像超分辨率重建方法及装置 |
CN110070511A (zh) * | 2019-04-30 | 2019-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN110738099A (zh) * | 2019-08-30 | 2020-01-31 | 中山大学 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765296B (zh) * | 2018-06-12 | 2022-04-12 | 桂林电子科技大学 | 一种基于递归残差注意力网络的图像超分辨率重建方法 |
CN109903228B (zh) * | 2019-02-28 | 2023-03-24 | 合肥工业大学 | 一种基于卷积神经网络的图像超分辨率重建方法 |
CN110136067B (zh) * | 2019-05-27 | 2022-09-06 | 商丘师范学院 | 一种针对超分辨率b超影像的实时影像生成方法 |
-
2020
- 2020-02-18 CN CN202010098595.4A patent/CN111260560B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033410A (zh) * | 2019-03-28 | 2019-07-19 | 华中科技大学 | 图像重建模型训练方法、图像超分辨率重建方法及装置 |
CN110070511A (zh) * | 2019-04-30 | 2019-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN110738099A (zh) * | 2019-08-30 | 2020-01-31 | 中山大学 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
Non-Patent Citations (2)
Title |
---|
EDVR: Video Restoration With Enhanced Deformable Convolutional Networks;Xintao Wang等;《2019 IEEE Conference on Computer Vision and Pattern Recognition》;20190507;论文第1-10页,附图1-4 * |
Learning Spatio-Temporal Representation with Pseudo-3D Residual Network;Zhaofan Qiu等;《2017 IEEE International Conference on Computer Vision (ICCV)》;20171128;论文第1-9页,附图1-4 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220261959A1 (en) * | 2021-02-08 | 2022-08-18 | Nanjing University Of Posts And Telecommunications | Method of reconstruction of super-resolution of video frame |
US11995796B2 (en) * | 2021-02-08 | 2024-05-28 | Nanjing University Of Posts And Telecommunications | Method of reconstruction of super-resolution of video frame |
Also Published As
Publication number | Publication date |
---|---|
CN111260560A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111260560B (zh) | 一种融合注意力机制的多帧视频超分辨率方法 | |
Liu et al. | End-to-End Blind Quality Assessment of Compressed Videos Using Deep Neural Networks. | |
CN109903228B (zh) | 一种基于卷积神经网络的图像超分辨率重建方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN111739082B (zh) | 一种基于卷积神经网络的立体视觉无监督深度估计方法 | |
CN111311490A (zh) | 基于多帧融合光流的视频超分辨率重建方法 | |
CN112801877B (zh) | 一种视频帧的超分辨率重构方法 | |
CN113139898B (zh) | 基于频域分析和深度学习的光场图像超分辨率重建方法 | |
CN112348766A (zh) | 一种用于监控视频增强的渐进式特征流深度融合网络 | |
CN112102163B (zh) | 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法 | |
CN111031315B (zh) | 基于注意力机制和时间依赖性的压缩视频质量增强方法 | |
CN115909160A (zh) | 深度视频插帧检测方法、装置及计算机可读存储介质 | |
CN116862773A (zh) | 一种应用于复杂场景下的视频超分辨率重建方法 | |
CN114494050A (zh) | 一种基于事件相机的自监督视频去模糊和图像插帧方法 | |
CN114119424A (zh) | 一种基于光流法和多视角场景的视频修复方法 | |
CN112862675A (zh) | 时空超分辨率的视频增强方法和系统 | |
CN113362239A (zh) | 一种基于特征交互的深度学习图像修复方法 | |
CN110443754B (zh) | 一种数字图像分辨率提升的方法 | |
WO2023185284A1 (zh) | 视频处理方法和装置 | |
CN111860363A (zh) | 一种视频图像的处理方法及装置、电子设备、存储介质 | |
CN116208812A (zh) | 一种基于立体事件和强度相机的视频插帧方法及系统 | |
CN114339030B (zh) | 一种基于自适应可分离卷积的网络直播视频稳像方法 | |
CN113034401B (zh) | 视频去噪方法及装置、存储介质及电子设备 | |
CN112016456B (zh) | 基于自适应反向投影深度学习的视频超分辨率方法及系统 | |
Evain et al. | A lightweight neural network for monocular view generation with occlusion handling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |