CN112070667A - 一种多尺度特征融合的视频超分辨率重建的方法 - Google Patents

一种多尺度特征融合的视频超分辨率重建的方法 Download PDF

Info

Publication number
CN112070667A
CN112070667A CN202010818547.8A CN202010818547A CN112070667A CN 112070667 A CN112070667 A CN 112070667A CN 202010818547 A CN202010818547 A CN 202010818547A CN 112070667 A CN112070667 A CN 112070667A
Authority
CN
China
Prior art keywords
patch
size
resolution
super
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010818547.8A
Other languages
English (en)
Inventor
朱虹
侯倩
李阳辉
王栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Huaqi Zhongxin Technology Development Co ltd
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202010818547.8A priority Critical patent/CN112070667A/zh
Publication of CN112070667A publication Critical patent/CN112070667A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种多尺度特征融合的视频超分辨率重建的方法,步骤包括:步骤1、采集超分辨率重建网络的训练样本;步骤2、重建低分辨率视频帧之间的光流;步骤3、进行运动补偿;步骤4、进行非局部均值处理;步骤5、超分辨率重建;步骤6、返回步骤2至步骤5,迭代训练,直到达到预置的训练次数,得到训练好的网络模型;步骤7、用训练好的模型进行视频的超分辨率重建,将步骤1到步骤6训练好的网络模型,输入低分辨率视频帧序列
Figure DDA0002633627360000011
能够获得放大K倍的超分辨率重建视频帧序列
Figure DDA0002633627360000012
其中的起始帧IV1 L和终止帧
Figure DDA0002633627360000013
采用插值方法放大K倍,即成。本发明的方法重建出来的视频帧序列的细节保持效果有明显的提高。

Description

一种多尺度特征融合的视频超分辨率重建的方法
技术领域
本发明属于视频超分辨率重建技术领域,涉及一种多尺度特征融合的视 频超分辨率重建的方法。
背景技术
视频超分辨率重建是指将连续的低分辨率视频帧序列,采用某种算法重 建为相对应的高分辨率视频帧序列,即得到像素密度更高、细节更加逼真、 保真度更高的高分辨率视频帧序列。高分辨率的视频帧可以保持事物更多的 细节信息,而这些细节信息在实际应用中恰巧具有重要的现实意义。
但是,现有技术由于理论及算法设计的局限,在视频超分辨率重建过程 中,仍然难以克服细节保持效果提高不明显的技术难题。
发明内容
本发明的目的是提供一种多尺度特征融合的视频超分辨率重建的方法, 解决了现有技术在视频超分辨率重建过程中,存在细节保持效果提高不明显 的问题。
本发明采用的技术方案是,一种多尺度特征融合的视频超分辨率重建的 方法,按照以下步骤实施:
步骤1、采集超分辨率重建网络的训练样本;
步骤2、重建低分辨率视频帧之间的光流;
步骤3、进行运动补偿;
步骤4、进行非局部均值处理;
步骤5、超分辨率重建;
步骤6、返回步骤2至步骤5,迭代训练,直到达到预置的训练次数, 得到训练好的网络模型;
步骤7、用训练好的模型进行视频的超分辨率重建,
将步骤1到步骤6训练好的网络模型,输入低分辨率视频帧序列
Figure BDA0002633627340000021
能够获得放大K倍的超分辨率重建视频帧序列
Figure BDA0002633627340000022
其中的起始帧IV1 L和终止帧
Figure BDA0002633627340000023
采用插值方法放大K倍, 即成。
本发明的有益效果是,在超分辨率重建网络模型中,将光流网络得到的 特征图,先经过Non_Local操作,计算特征图中所有点的相关性,从而让网 络结构近乎有全局的感受野,为后面的层带去更加丰富的细节信息;然后再 将其输出送入到重建网络中,重建部分对不同尺度的卷积特征进行了融合, 同时采用密集残差连接的方式来进行特征的复用。采用本发明方法重建出来 的视频帧序列的细节保持效果有明显的提高,在标准测试集Vid4上的测试 结果为PSNR=26.19db,SSIM=0.781。
附图说明
图1是本发明方法中的光流重建网络OFRNet的结构流程图;
图2是本发明方法中的Non_Local模块的结构流程图;
图3是本发明方法中的重建网络SRNet的结构流程图;
图4是本发明方法中的多尺度特征融合模块MSFFB的结构流程图;
图5是本发明方法中的RDB Block的结构流程图;
图6是本发明方法的整体结构流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的多尺度特征融合的视频超分辨率重建的方法,按照以下步骤具 体实施:
步骤1、采集超分辨率重建网络的训练样本,
1.1)建立训练数据集,
由于深度学习训练需要大量的训练样本,因此本步骤选择公开发表的 CVDL数据集作为训练样本,该CVDL数据集中的高分辨率视频,设为
Figure BDA0002633627340000031
(即N段视频,每个视频长度为T帧),将这 些视频帧图像序列作为高分辨率标注样本;设超分辨率重建的结果是将视频 帧放大K倍,则将这些高分辨率视频帧图像进行K倍降采样,得到的
Figure BDA0002633627340000032
作为训练样本视频帧;
1.2)对训练数据进行预处理,
为了减少训练过程中的显存消耗,在训练阶段将步骤1.1)降采样得到 的低分辨率视频帧
Figure BDA0002633627340000033
随机裁剪成一个patch的大小, (优选patch=32),即每个帧图像随机裁剪成patch×patch大小的子块;同 时,在对应的高分辨率视频帧中裁取相对应的位置上大小为 K·patch×K·patch的子块,作为低分辨率视频帧的标签;
为了提高模型的泛化能力,还可以通过旋转、镜像等方式对训练数据进 行增强,设获得的训练样本为N段视频,每个视频长度为T帧,记作
Figure BDA0002633627340000034
步骤2、重建低分辨率视频帧之间的光流,
如图1,本步骤所采用的光流重建网络基于OFRNet网络模型(该OFRNet 网络模型可在公开发表的论文及专业书籍中检索到),该OFRNet网络模型 借鉴传统光流算法中由粗到细的原理,总共分为3层,实现对低分辨率视频 帧之间光流的K倍放大重建,具体过程是,
2.1)假设OFRNet网络模型的输入为t时刻和t+1时刻的第i个视频的大 小为patch×patch低分辨率视频帧
Figure BDA0002633627340000041
Figure BDA0002633627340000042
(其 中,视频
Figure BDA0002633627340000043
起始帧t=1,即
Figure BDA0002633627340000044
和终止帧t=T,即
Figure BDA0002633627340000045
不参与重建,仅仅参 与其它帧的重建计算,因此,输入时是
Figure BDA0002633627340000046
计算时就为 i=1,2,...,N,t=2,3,...,T-1);经过网络的第一层level1时,先利用全局平 均池化对视频帧
Figure BDA0002633627340000047
Figure BDA0002633627340000048
进行2倍降采样,生成大小为0.5·patch×0.5·patch 的特征图
Figure BDA0002633627340000049
Figure BDA00026336273400000410
2.2)将特征图
Figure BDA00026336273400000411
Figure BDA00026336273400000412
按通道拼接后,送入(2·K2)@3×3×2的卷积核 进行卷积之后,获得大小为0.5·patch×0.5·patch×(2·K2)的特征图Fi,t LD
2.3)将特征图Fi,t LD经过两个RDB Block后,得到大小为 0.5·patch×0.5·patch×(2·K2)特征图Fb1i,t LD和Fb2i,t LD
2.4)将特征图Fb1i,t LD和Fb2i,t LD,按通道拼接后送入2@3×3×(4·K2)的 卷积核进行卷积之后,得到光流网络第一层的输出,即
Figure BDA00026336273400000413
Figure BDA00026336273400000414
之间的大小 为0.5·patch×0.5·patch×2的光流
Figure BDA00026336273400000415
2.5)对步骤2.4)得到的第一层输出的光流
Figure BDA00026336273400000416
进行2倍上采样,得 到大小为patch×patch×2的光流特征
Figure BDA00026336273400000417
2.6)利用光流特征
Figure BDA00026336273400000418
Figure BDA00026336273400000419
进行运动补偿,(即warp),得到大 小为patch×patch的
Figure BDA00026336273400000420
2.7)将
Figure BDA0002633627340000051
按通道拼接后作为第二层level2的输入,第 二层的操作同第一层,见步骤2.1)至步骤2.4),再将得到的输出与步骤2.5) 得到的第一层输出的光流特征
Figure BDA0002633627340000052
相加,实现第一次的两个尺度信息的融 合,作为大小为patch×patch×2的输出
Figure BDA0002633627340000053
2.8)利用输出
Figure BDA0002633627340000054
Figure BDA0002633627340000055
进行运动补偿,(称为warp),得到
Figure BDA0002633627340000056
2.9)将
Figure BDA0002633627340000057
按通道拼接后作为第三层level3的输入,第 三层的操作同第二层,见步骤2.7)至步骤2.8),再将得到的输出经过K倍 放大的亚像素卷积之后,与
Figure BDA0002633627340000058
上采样K倍得到的结果相加,得到大小为 K·patch×K·patch高分辨率的光流
Figure BDA0002633627340000059
步骤3、进行运动补偿,
3.1)计算光流序列图,
将步骤2得到的大小为K·patch×K·patch高分辨率的光流
Figure BDA00026336273400000510
通过空 间到深度映射(该深度映射space-to-depth在相关公开发表的学术论文中可 检索到),得到K2个大小为patch×patch的光流图序列
Figure BDA00026336273400000511
3.2)利用光流图序列
Figure BDA00026336273400000512
分别对视频帧
Figure BDA00026336273400000513
进行运动补偿,(即 warp),将得到的结果按通道拼接,得到大小为patch×patch×K2特征图
Figure BDA00026336273400000514
3.3)同理,对由步骤2.9)得到的t-1和t时刻的光流
Figure BDA00026336273400000515
进行与步 骤3.1)和步骤3.2)同样地操作,得到大小为patch×patch×K2特征图
Figure BDA00026336273400000516
步骤4、进行非局部均值处理,
4.1)将步骤3.2)和3.3)得到的大小为patch×patch×K2特征图
Figure BDA00026336273400000517
Figure BDA00026336273400000518
与视频帧
Figure BDA00026336273400000519
按通道拼接,得到大小为 patch×patch×(2·K2+3)的特征图
Figure BDA00026336273400000520
4.2)参照图2,将
Figure BDA0002633627340000061
设为非局部均值处理模块Non_Local的输入,设 M=[(2·K2+3)/2]取整,经过M@1×1×(2·K2+3)的卷积核θ、
Figure BDA0002633627340000062
和g进行卷积运 算后,将每个通道的patch×patch大小的矩阵,按行排成列向量,则列向量 的维数是patch2,(即patch×patch=patch2),分别得到大小为patch2×M的 特征矩阵
Figure BDA0002633627340000063
4.3)计算步骤4.2)得到的特征矩阵
Figure BDA0002633627340000064
的乘积:
Figure BDA0002633627340000065
得到的乘积
Figure BDA0002633627340000066
是大小为patch2×patch2的矩阵;
4.4)对乘积
Figure BDA0002633627340000067
进行softmax处理(softmax处理是现有技术),得到当 前位置像素与其他位置像素的归一化相关性,记为Pi,t,计算式如下:
Figure BDA0002633627340000068
4.5)计算步骤4.4)得到的矩阵Pi,t与步骤4.2)得到的特征矩阵
Figure BDA0002633627340000069
的乘 积:
Figure BDA00026336273400000610
得到的特征矩阵PWi,t大小为patch2×M;
4.6)将特征矩阵PWi,t按照每行patch个元素重新排成矩阵,得到 patch×patch×M大小的特征矩阵Vi,t,经过(2·K2+3)@1×1×M的卷积核卷积 运算之后,得到patch×patch×(2·K2+3)的特征矩阵Mai,t
4.7)将特征矩阵Mai,t与前述输入的特征矩阵
Figure BDA00026336273400000611
求和:
Figure BDA00026336273400000612
得到No_Local模块输出的特征图Zi,t
步骤5、超分辨率重建,
5.1)设置超分辨率网络结构,
对步骤4.7)得到的输出大小为patch×patch×(2·K2+3)特征图Zi,t,先经过(4·K2)@3×3×(2·K2+3)的卷积核进行卷积运算,得到大小为 patch×patch×(4·K2)的特征图Fi,t
5.2)设置多尺度特征融合结构的SRNet网络的RDB模块,
参照图3,设SRNet网络(该SRNet网络的模型结构可在公开发表的论 文及专业书籍中检索到)主要是由5个RDB Block组成的,为了使得最终重 建出来的视频帧保持更多的细节信息,本步骤提出了一种多尺度的特征融合 模块MSFFB来构成图3所示SRNet的RDB模块,具体结构如图4所示;
5.2.1)将特征图Fi,t,分别经过(2·K2)@3×3×(4·K2)和(2·K2)@5×5×(4·K2)的卷积,再将所得到的特征图通过ReLU非线性变换,得到大小为 patch×patch×(2·K2)的特征矩阵T1i,t和Q1i,t,其计算式分别如下:
T1i,t=f(w(1) 3×3*Fi,t+b1) (5)
Q1i,t=f(w(1) 5×5*Fi,t+b2) (6)
其中,f表示ReLU激活函数,参数w(1) 3×3、w(1) 5×5、b1和b2由网络训练 得到;
5.2.2)将特征矩阵T1i,t和Q1i,t按通道进行拼接,拼接后的结果记为特征 矩阵K1i,t
5.2.3)将拼接后的特征矩阵K1i,t,依次经过(4·K2)@3×3×(4·K2)和 (4·K2)@5×5×(4·K2)的卷积,分别得到大小为patch×patch×(4·K2)的特征矩阵T2i,t和Q2i,t,计算式分别如下:
T2i,t=f(w(2) 3×3*K1i,t+b3) (7)
Q2i,t=f(w(2) 5×5*T2i,t+b4) (8)
其中,f表示ReLU激活函数,参数w(2) 3×3、w(2) 5×5、b3和b4由网络训练 得到;
5.2.4)将特征矩阵Q2i,t送入(2·K2)@1×1×(4·K2)的卷积中进行降维,通 道数变为原来的一半,得到该模块的输出大小为patch×patch×(2·K2)的特征 Ai,t
5.2.5)采用如图5所示的信号连接方式,将MSFFB模块的输出进行共 享和复用,得到第一个RDB Block的输出,大小为patch×patch×(4·K2)的特 征矩阵
Figure BDA0002633627340000081
Figure BDA0002633627340000082
作为下一个RDB Block的输入,依次类推,得到每个RDB Block的输出
Figure BDA0002633627340000083
Figure BDA0002633627340000084
的大小均为patch×patch×(4·K2);
5.3)输出超分辨率放大视频帧,
将步骤5.1)得到的特征图Fi,t和步骤5.2)得到的每个RDB Block的输 出
Figure BDA0002633627340000085
按通道进行拼接,得到大小为patch×patch×(6·4·K2) 的特征图Wi,t;再将特征图Wi,t送入K2@1×1×(6·4·K2)的卷积中进行降维;最 后通过亚像素卷积进行K倍放大,得到重建后的大小为K·patch×K·patch视频 帧SRi,t,此操作使得整个网络能够捕获更多的特征信息,重建出来的视频帧 能够保持更多的细节信息;
步骤6、返回步骤2至步骤5,迭代训练,直到达到预置的训练次数, 得到训练好的网络模型;
该预置的训练次数为经验值,优选为30万代至50万代之间;
步骤7、用训练好的模型进行视频的超分辨率重建,
参照图6,将步骤1到步骤6训练好的网络模型,输入低分辨率视频帧 序列
Figure BDA0002633627340000091
能够获得放大K倍的超分辨率重建视频帧序列
Figure BDA0002633627340000092
其中的起始帧IV1 L和终止帧
Figure BDA0002633627340000093
采用插值方法(插值方法 是现有技术,可在相关文献及教材中检索到)放大K倍,即成。

Claims (6)

1.一种多尺度特征融合的视频超分辨率重建的方法,其特征在于,按照以下步骤实施:
步骤1、采集超分辨率重建网络的训练样本;
步骤2、重建低分辨率视频帧之间的光流;
步骤3、进行运动补偿;
步骤4、进行非局部均值处理;
步骤5、超分辨率重建;
步骤6、返回步骤2至步骤5,迭代训练,直到达到预置的训练次数,得到训练好的网络模型;
步骤7、用训练好的模型进行视频的超分辨率重建,
将步骤1到步骤6训练好的网络模型,输入低分辨率视频帧序列
Figure FDA0002633627330000011
能够获得放大K倍的超分辨率重建视频帧序列
Figure FDA0002633627330000012
其中的起始帧IV1 L和终止帧
Figure FDA0002633627330000013
采用插值方法放大K倍,即成。
2.根据权利要求1所述的多尺度特征融合的视频超分辨率重建的方法,其特征在于:所述的步骤1中,具体过程是,
1.1)建立训练数据集,
本步骤选择公开发表的CVDL数据集作为训练样本,该CVDL数据集中的高分辨率视频,设为
Figure FDA0002633627330000014
将这些视频帧图像序列作为高分辨率标注样本;设超分辨率重建的结果是将视频帧放大K倍,则将这些高分辨率视频帧图像进行K倍降采样,得到的
Figure FDA0002633627330000021
作为训练样本视频帧;
1.2)对训练数据进行预处理,
在训练阶段将步骤1.1)降采样得到的低分辨率视频帧
Figure FDA0002633627330000022
随机裁剪成一个patch的大小,即每个帧图像随机裁剪成patch×patch大小的子块;同时,在对应的高分辨率视频帧中裁取相对应的位置上大小为K·patch×K·patch的子块,作为低分辨率视频帧的标签;
通过旋转、镜像方式对训练数据进行增强,设获得的训练样本为N段视频,每个视频长度为T帧,记作
Figure FDA0002633627330000023
3.根据权利要求2所述的多尺度特征融合的视频超分辨率重建的方法,其特征在于:所述的步骤2中,具体过程是,
2.1)假设OFRNet网络模型的输入为t时刻和t+1时刻的第i个视频的大小为patch×patch低分辨率视频帧
Figure FDA0002633627330000024
Figure FDA0002633627330000025
经过网络的第一层level1时,先利用全局平均池化对视频帧
Figure FDA0002633627330000026
Figure FDA0002633627330000027
进行2倍降采样,生成大小为0.5·patch×0.5·patch的特征图
Figure FDA0002633627330000028
Figure FDA0002633627330000029
2.2)将特征图
Figure FDA00026336273300000210
Figure FDA00026336273300000211
按通道拼接后,送入(2·K2)@3×3×2的卷积核进行卷积之后,获得大小为0.5·patch×0.5·patch×(2·K2)的特征图Fi,t LD
2.3)将特征图Fi,t LD经过两个RDB Block后,得到大小为0.5·patch×0.5·patch×(2·K2)特征图Fb1i,t LD和Fb2i,t LD
2.4)将特征图Fb1i,t LD和Fb2i,t LD,按通道拼接后送入2@3×3×(4·K2)的卷积核进行卷积之后,得到光流网络第一层的输出,即
Figure FDA00026336273300000212
Figure FDA00026336273300000213
之间的大小为0.5·patch×0.5·patch×2的光流
Figure FDA00026336273300000214
2.5)对步骤2.4)得到的第一层输出的光流
Figure FDA00026336273300000215
进行2倍上采样,得到大小为patch×patch×2的光流特征
Figure FDA0002633627330000031
2.6)利用光流特征
Figure FDA0002633627330000032
Figure FDA0002633627330000033
进行运动补偿,得到大小为patch×patch的
Figure FDA0002633627330000034
2.7)将
Figure FDA0002633627330000035
按通道拼接后作为第二层level2的输入,第二层的操作同第一层,见步骤2.1)至步骤2.4),再将得到的输出与步骤2.5)得到的第一层输出的光流特征
Figure FDA0002633627330000036
相加,实现第一次的两个尺度信息的融合,作为大小为patch×patch×2的输出
Figure FDA0002633627330000037
2.8)利用输出
Figure FDA0002633627330000038
Figure FDA0002633627330000039
进行运动补偿,得到
Figure FDA00026336273300000310
2.9)将
Figure FDA00026336273300000311
按通道拼接后作为第三层level3的输入,第三层的操作同第二层,见步骤2.7)至步骤2.8),再将得到的输出经过K倍放大的亚像素卷积之后,与
Figure FDA00026336273300000312
上采样K倍得到的结果相加,得到大小为K·patch×K·patch高分辨率的光流
Figure FDA00026336273300000313
4.根据权利要求3所述的多尺度特征融合的视频超分辨率重建的方法,其特征在于:所述的步骤3中,具体过程是,
3.1)计算光流序列图,
将步骤2得到的大小为K·patch×K·patch高分辨率的光流
Figure FDA00026336273300000314
通过空间到深度映射,得到K2个大小为patch×patch的光流图序列
Figure FDA00026336273300000315
Figure FDA00026336273300000316
3.2)利用光流图序列
Figure FDA00026336273300000317
分别对视频帧
Figure FDA00026336273300000318
进行运动补偿,将得到的结果按通道拼接,得到大小为patch×patch×K2特征图
Figure FDA00026336273300000319
3.3)同理,对由步骤2.9)得到的t-1和t时刻的光流
Figure FDA00026336273300000320
进行与步骤3.1)和步骤3.2)同样地操作,得到大小为patch×patch×K2特征图
Figure FDA00026336273300000321
5.根据权利要求4所述的多尺度特征融合的视频超分辨率重建的方法,其特征在于:所述的步骤4中,具体过程是,
4.1)将步骤3.2)和3.3)得到的大小为patch×patch×K2特征图
Figure FDA0002633627330000041
Figure FDA0002633627330000042
与视频帧
Figure FDA0002633627330000043
按通道拼接,得到大小为patch×patch×(2·K2+3)的特征图
Figure FDA0002633627330000044
4.2)将
Figure FDA0002633627330000045
设为非局部均值处理模块Non_Local的输入,设M=[(2·K2+3)/2]取整,经过M@1×1×(2·K2+3)的卷积核θ、
Figure FDA00026336273300000414
和g进行卷积运算后,将每个通道的patch×patch大小的矩阵,按行排成列向量,则列向量的维数是patch2,分别得到大小为patch2×M的特征矩阵
Figure FDA0002633627330000046
4.3)计算步骤4.2)得到的特征矩阵
Figure FDA0002633627330000047
的乘积:
Figure FDA0002633627330000048
得到的乘积
Figure FDA0002633627330000049
是大小为patch2×patch2的矩阵;
4.4)对乘积
Figure FDA00026336273300000410
进行softmax处理,得到当前位置像素与其他位置像素的归一化相关性,记为Pi,t,计算式如下:
Figure FDA00026336273300000411
4.5)计算步骤4.4)得到的矩阵Pi,t与步骤4.2)得到的特征矩阵
Figure FDA00026336273300000412
的乘积:
Figure FDA00026336273300000413
得到的特征矩阵PWi,t大小为patch2×M;
4.6)将特征矩阵PWi,t按照每行patch个元素重新排成矩阵,得到patch×patch×M大小的特征矩阵Vi,t,经过(2·K2+3)@1×1×M的卷积核卷积运算之后,得到patch×patch×(2·K2+3)的特征矩阵Mai,t
4.7)将特征矩阵Mai,t与前述输入的特征矩阵
Figure FDA0002633627330000051
求和:
Figure FDA0002633627330000052
得到No_Local模块输出的特征图Zi,t
6.根据权利要求5所述的多尺度特征融合的视频超分辨率重建的方法,其特征在于:所述的步骤5中,具体过程是,
5.1)设置超分辨率网络结构,
对步骤4.7)得到的输出大小为patch×patch×(2·K2+3)特征图Zi,t,先经过(4·K2)@3×3×(2·K2+3)的卷积核进行卷积运算,得到大小为patch×patch×(4·K2)的特征图Fi,t
5.2)设置多尺度特征融合结构的SRNet网络的RDB模块,
设SRNet网络由5个RDB Block组成的,本步骤提出了一种多尺度的特征融合模块MSFFB来构成SRNet的RDB模块;
5.2.1)将特征图Fi,t,分别经过(2·K2)@3×3×(4·K2)和(2·K2)@5×5×(4·K2)的卷积,再将所得到的特征图通过ReLU非线性变换,得到大小为patch×patch×(2·K2)的特征矩阵T1i,t和Q1i,t,其计算式分别如下:
T1i,t=f(w(1) 3×3*Fi,t+b1) (5)
Q1i,t=f(w(1) 5×5*Fi,t+b2) (6)
其中,f表示ReLU激活函数,参数w(1) 3×3、w(1) 5×5、b1和b2由网络训练得到;
5.2.2)将特征矩阵T1i,t和Q1i,t按通道进行拼接,拼接后的结果记为特征矩阵K1i,t
5.2.3)将拼接后的特征矩阵K1i,t,依次经过(4·K2)@3×3×(4·K2)和(4·K2)@5×5×(4·K2)的卷积,分别得到大小为patch×patch×(4·K2)的特征矩阵T2i,t和Q2i,t,计算式分别如下:
T2i,t=f(w(2) 3×3*K1i,t+b3) (7)
Q2i,t=f(w(2) 5×5*T2i,t+b4) (8)
其中,f表示ReLU激活函数,参数w(2) 3×3、w(2) 5×5、b3和b4由网络训练得到;
5.2.4)将特征矩阵Q2i,t送入(2·K2)@1×1×(4·K2)的卷积中进行降维,通道数变为原来的一半,得到该模块的输出大小为patch×patch×(2·K2)的特征Ai,t
5.2.5)将MSFFB模块的输出进行共享和复用,得到第一个RDB Block的输出,大小为patch×patch×(4·K2)的特征矩阵
Figure FDA0002633627330000061
Figure FDA0002633627330000062
作为下一个RDB Block的输入,依次类推,得到每个RDB Block的输出
Figure FDA0002633627330000063
Figure FDA0002633627330000064
的大小均为patch×patch×(4·K2);
5.3)输出超分辨率放大视频帧,
将步骤5.1)得到的特征图Fi,t和步骤5.2)得到的每个RDB Block的输出
Figure FDA0002633627330000065
按通道进行拼接,得到大小为patch×patch×(6·4·K2)的特征图Wi,t;再将特征图Wi,t送入K2@1×1×(6·4·K2)的卷积中进行降维;最后通过亚像素卷积进行K倍放大,得到重建后的大小为K·patch×K·patch视频帧SRi,t
CN202010818547.8A 2020-08-14 2020-08-14 一种多尺度特征融合的视频超分辨率重建的方法 Pending CN112070667A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010818547.8A CN112070667A (zh) 2020-08-14 2020-08-14 一种多尺度特征融合的视频超分辨率重建的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010818547.8A CN112070667A (zh) 2020-08-14 2020-08-14 一种多尺度特征融合的视频超分辨率重建的方法

Publications (1)

Publication Number Publication Date
CN112070667A true CN112070667A (zh) 2020-12-11

Family

ID=73661751

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010818547.8A Pending CN112070667A (zh) 2020-08-14 2020-08-14 一种多尺度特征融合的视频超分辨率重建的方法

Country Status (1)

Country Link
CN (1) CN112070667A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115052187A (zh) * 2022-04-26 2022-09-13 复旦大学 一种基于在线训练的超分辨率直播系统
WO2023179385A1 (zh) * 2022-03-22 2023-09-28 中国科学院深圳先进技术研究院 一种视频超分方法、装置、设备及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090175552A1 (en) * 2005-11-25 2009-07-09 Stephane Mallat Method and apparatus for enhancing signals with multiscale grouping bandelets
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN108537733A (zh) * 2018-04-11 2018-09-14 南京邮电大学 基于多路径深度卷积神经网络的超分辨率重建方法
CN108537731A (zh) * 2017-12-29 2018-09-14 西安电子科技大学 基于压缩多尺度特征融合网络的图像超分辨率重建方法
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108734660A (zh) * 2018-05-25 2018-11-02 上海通途半导体科技有限公司 一种基于深度学习的图像超分辨率重建方法及装置
CN109118431A (zh) * 2018-09-05 2019-01-01 武汉大学 一种基于多记忆及混合损失的视频超分辨率重建方法
CN109146788A (zh) * 2018-08-16 2019-01-04 广州视源电子科技股份有限公司 基于深度学习的超分辨率图像重建方法和装置
CN109389556A (zh) * 2018-09-21 2019-02-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN111127325A (zh) * 2019-12-31 2020-05-08 珠海大横琴科技发展有限公司 基于循环神经网络的卫星视频超分辨率重建方法及系统
CN111311490A (zh) * 2020-01-20 2020-06-19 陕西师范大学 基于多帧融合光流的视频超分辨率重建方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090175552A1 (en) * 2005-11-25 2009-07-09 Stephane Mallat Method and apparatus for enhancing signals with multiscale grouping bandelets
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法
CN108537731A (zh) * 2017-12-29 2018-09-14 西安电子科技大学 基于压缩多尺度特征融合网络的图像超分辨率重建方法
CN108537733A (zh) * 2018-04-11 2018-09-14 南京邮电大学 基于多路径深度卷积神经网络的超分辨率重建方法
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108734660A (zh) * 2018-05-25 2018-11-02 上海通途半导体科技有限公司 一种基于深度学习的图像超分辨率重建方法及装置
CN109146788A (zh) * 2018-08-16 2019-01-04 广州视源电子科技股份有限公司 基于深度学习的超分辨率图像重建方法和装置
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN109118431A (zh) * 2018-09-05 2019-01-01 武汉大学 一种基于多记忆及混合损失的视频超分辨率重建方法
CN109389556A (zh) * 2018-09-21 2019-02-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
WO2020056791A1 (zh) * 2018-09-21 2020-03-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN111127325A (zh) * 2019-12-31 2020-05-08 珠海大横琴科技发展有限公司 基于循环神经网络的卫星视频超分辨率重建方法及系统
CN111311490A (zh) * 2020-01-20 2020-06-19 陕西师范大学 基于多帧融合光流的视频超分辨率重建方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
卢涛;章瑾;陈白帆;管英杰;: "多尺度自适应配准的视频超分辨率算法", 武汉工程大学学报, no. 02, 15 April 2016 (2016-04-15) *
戴光智;陈铁群;邱栋美;: "小波和插值结合应用于超声图像的超分辨率算法", 无损检测, no. 04, 10 April 2009 (2009-04-10) *
李金航;肖亮;韦志辉;: "基于时空相关性的视频超分辨率重建算法", 计算机与数字工程, no. 04, 20 April 2020 (2020-04-20) *
林琦;陈婧;曾焕强;朱建清;蔡灿辉;: "基于多尺度特征残差学习卷积神经网络的视频超分辨率方法", 信号处理, no. 01, 25 January 2020 (2020-01-25) *
陈书贞;解小会;杨郁池;练秋生;: "利用多尺度卷积神经网络的图像超分辨率算法", 信号处理, no. 09, 25 September 2018 (2018-09-25) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023179385A1 (zh) * 2022-03-22 2023-09-28 中国科学院深圳先进技术研究院 一种视频超分方法、装置、设备及存储介质
CN115052187A (zh) * 2022-04-26 2022-09-13 复旦大学 一种基于在线训练的超分辨率直播系统
CN115052187B (zh) * 2022-04-26 2024-05-03 复旦大学 一种基于在线训练的超分辨率直播系统

Similar Documents

Publication Publication Date Title
Wang et al. Multi-memory convolutional neural network for video super-resolution
CN111311490B (zh) 基于多帧融合光流的视频超分辨率重建方法
Yi et al. Multi-temporal ultra dense memory network for video super-resolution
CN108550115B (zh) 一种图像超分辨率重建方法
Sun et al. Learning image compressed sensing with sub-pixel convolutional generative adversarial network
Li et al. Learning a deep dual attention network for video super-resolution
CN112435191B (zh) 一种基于多个神经网络结构融合的低照度图像增强方法
CN112070667A (zh) 一种多尺度特征融合的视频超分辨率重建的方法
CN111696035A (zh) 一种基于光流运动估计算法的多帧图像超分辨率重建方法
CN115311720B (zh) 一种基于Transformer的deepfake生成方法
CN111640060A (zh) 基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法
Li et al. Deep interleaved network for image super-resolution with asymmetric co-attention
CN112767283A (zh) 一种基于多图像块划分的非均匀图像去雾方法
Purohit et al. Mixed-dense connection networks for image and video super-resolution
CN115953582B (zh) 一种图像语义分割方法及系统
Zhou et al. Image super-resolution based on dense convolutional auto-encoder blocks
Chen et al. MICU: Image super-resolution via multi-level information compensation and U-net
CN114881856A (zh) 一种人体图像超分辨率重建方法、系统、装置及存储介质
CN108924528B (zh) 一种基于深度学习的双目风格化实时渲染方法
Zhang et al. Joint image demosaicking and denoising with mutual guidance of color channels
CN113052187A (zh) 一种基于多尺度特征融合的全局特征对齐目标检测方法
Zhou et al. Deep fractal residual network for fast and accurate single image super resolution
Xu et al. Learning lightweight Multi-Scale Feedback Residual network for single image super-resolution
CN109087247B (zh) 一种对立体图像进行超分的方法
CN115330631A (zh) 一种基于堆叠沙漏网络的多尺度融合去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20240516

Address after: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant after: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

Country or region after: China

Address before: 710048 Shaanxi province Xi'an Beilin District Jinhua Road No. 5

Applicant before: XI'AN University OF TECHNOLOGY

Country or region before: China