CN109118431B - 一种基于多记忆及混合损失的视频超分辨率重建方法 - Google Patents

一种基于多记忆及混合损失的视频超分辨率重建方法 Download PDF

Info

Publication number
CN109118431B
CN109118431B CN201811031483.6A CN201811031483A CN109118431B CN 109118431 B CN109118431 B CN 109118431B CN 201811031483 A CN201811031483 A CN 201811031483A CN 109118431 B CN109118431 B CN 109118431B
Authority
CN
China
Prior art keywords
resolution
frame
image
network
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811031483.6A
Other languages
English (en)
Other versions
CN109118431A (zh
Inventor
王中元
易鹏
江奎
韩镇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201811031483.6A priority Critical patent/CN109118431B/zh
Publication of CN109118431A publication Critical patent/CN109118431A/zh
Application granted granted Critical
Publication of CN109118431B publication Critical patent/CN109118431B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

本发明公开了一种基于多记忆及混合损失的视频超分辨率重建方法,包括光流网络和图像重构网络两个部分。在光流网络中,对于输入的多帧,计算当前帧与参考帧之间的光流,并利用光流作运动补偿,将当前帧尽可能补偿到与参考帧相似。在图像重构网络中,将补偿后的多帧依次输进网络,网络采用多记忆残差块提取图像特征,使得后面输入帧能接收到前面帧的特征图信息。最后,将输出的低分辨率特征图进行亚像素放大,并与双立方插值放大后的图像相加,得到最终的高分辨率视频帧。训练过程采用一种混合损失函数,对光流网络和图像重构网络同时进行训练。本发明极大地增强了帧间信息融合的特征表达能力,能够重建出细节真实丰富的高分辨率视频。

Description

一种基于多记忆及混合损失的视频超分辨率重建方法
技术领域
本发明属于数字图像处理技术领域,涉及一种视频超分辨率重建方法,具体涉及一种多记忆的混合损失函数约束的超分辨率重建方法。
背景技术
近年来,随着高清显示设备(如HDTV)的出现以及4K(3840×2160)和8K(7680×4320)等超高清视频分辨率格式的出现,由低分辨率视频重建出高分辨率视频的需求日益增加。视频超分辨率是指从给定的低分辨率视频重建高分辨率视频的技术,广泛应用于高清电视、卫星图像、视频监控等领域。
目前,应用最广泛的超分辨率方法是基于插值的方法,如最近邻插值,双线性插值以及双三次插值。这种方法通过将固定的卷积核应用于给定的低分辨率图像输入,来计算高分辨率图像中的未知像素值。因为这种方法只需要少量的计算,所以它们的速度非常快。但是,它们的重建效果也欠佳,特别是在重构高频信息较多的图像区域。近年来,为了找到更好的方式来重建丢失的信息,研究人员们开始致力于研究基于样本的方法,也称为基于学习的方法。最近,Dong等人率先提出基于卷积神经网络的超分辨率方法,该方法具有从众多多样化图像样本中学习细节的能力,因而备受关注。
单张图像超分辨率是指利用一张低分辨率的图像,重构出其对应的高分辨率图像。与之相比,视频超分辨率则是利用多张有关联性的低分辨率视频帧,重建出它们对应的高分辨率视频帧。除了利用单张图像内部的空间相关性,视频超分辨率更重视利用低分辨率视频帧之间的时间相关性。
传统的视频超分辨率算法利用图像先验知识,来进行像素级的运动补偿和模糊核估计,以此重建高分辨率视频。然而,这些方法通常需要较多计算资源,并且难处理高倍率放大倍数或大幅帧间相对运动的情况。
最近,基于卷积神经网络的视频超分辨率方法已经出现,这种方法直接学习从低分辨率帧到高分辨率帧之间的映射关系。Tao等人提出了细节保持的深度视频超分辨率网络,他们设计出了一种亚像素运动补偿层,将低分辨率帧映射到高分辨率栅格上。然而,亚像素运动补偿层需要消耗大量显存,其效果却十分有限。Liu等人设计了一个时间自适应神经网络,来自适应地学习时间依赖性的最优尺度,但目前只是设计了一个简单的三层卷积神经网络结构,从而限制了性能。
发明内容
为了解决上述技术问题,本发明提供了一种基于多记忆残差块和混合损失函数约束的超分辨率重建方法,在图像重构网络中插入多记忆残差块,更有效地利用帧间的时间相关性和帧内的空间相关性。并利用混合损失函数,同时约束光流网络和图像重构网络,进一步提高网络的性能,提取更真实丰富的细节。
本发明所采用的技术方案是:一种基于多记忆及混合损失的视频超分辨率重建方法,其特征在于,包括以下步骤:
步骤1:选取若干视频数据作为训练样本,从每个视频帧中相同的位置截取大小为N×N像素的图像作为高分辨率学习目标,将其下采样r倍,得到大小为M×M的低分辨率图像,作为网络的输入,其中,N=M×r;
步骤2:将2n+1(n≥0)张时间连续的低分辨率视频图像输入光流网络,作为低分辨率输入帧,而处于中心位置的低分辨率图像帧作为低分辨率参考帧。依次计算每个低分辨率输入帧与低分辨率参考帧之间的光流,并使用光流对每个低分辨率输入帧作运动补偿,获得低分辨率补偿帧;
步骤3:将低分辨率补偿帧输入图像重构网络,利用多记忆残差块进行帧间信息融合,得到残差特征图;
步骤4:采用混合损失函数,对光流网络和图像重构网络同时进行约束,并进行反向传播学习;
步骤5:将步骤3中得到的残差特征图放大,获得高分辨率残差图像,并将参考帧放大,获得高分辨率插值图像;
步骤6:将步骤5中得到的高分辨插值图像与高分辨率残差图像相加,得到超分辨率视频帧。
本发明使用了多记忆残差块,极大的增强了网络的特征表达能力,同时采用混合损失函数约束网络训练,因而不仅能重构出逼真丰富的图像细节,而且网络训练过程收敛速度快。
附图说明
图1为本发明的网络整体框架简图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种卫星影像超分辨率重建方法,其特征在于,包括以下步骤:
一种基于多记忆及混合损失的视频超分辨率重建方法,其特征在于,包括以下步骤:
步骤1:选取若干视频数据作为训练样本,从每个视频帧中相同的位置截取大小为N×N像素的图像作为高分辨率学习目标,将其下采样r倍,得到大小为M×M的低分辨率图像,作为网络的输入,其中,N=M×r;
步骤2:将2n+1(n≥0)张时间连续的低分辨率视频图像输入光流网络,作为低分辨率输入帧,而处于中心位置的低分辨率图像帧作为低分辨率参考帧。依次计算每个低分辨率输入帧与低分辨率参考帧之间的光流,并使用光流对每个低分辨率输入帧作运动补偿,获得低分辨率补偿帧;
本发明采用一种采用现有的从粗粒度到细粒度的方法提取光流,并使用现有的运动补偿算子对输入帧进行运动补偿。
以四倍超分辨率为例。首先计算粗粒度光流,将双线性放大四倍后的当前帧与参考帧输入网络,使用两次步长为2的卷积,此时光流的尺寸为目标高分辨率图像的四分之一,再用亚像素放大将计算的光流放大到目标高分辨率,并进行运动补偿。然后计算细粒度光流,将双线性放大四倍后的当前帧与参考帧,以及粗粒度计算得到的光流与补偿帧输入进网络,但这次只使用一次步长为2的卷积,此时光流的尺寸为目标高分辨率的二分之一,再用亚像素放大将计算的光流放大到目标高分辨率,并进行运动补偿。
步骤3:将低分辨率补偿帧输入图像重构网络,利用多记忆残差块进行帧间信息融合,得到残差特征图;
本发明采用一种多记忆残差块,存储当前帧的特征信息,以便与下一帧进行特征信息融合。
In+l={In,On}={In,ConvLSTMn(In)} (1)
其中,ConvLSTMn表示多记忆残差块中第n个卷积记忆块,In表第n个卷积记忆块的输入,On表示对应的输出。将In与On作连结,得到In+1,即第n+1个卷积记忆块的输入。
步骤4:采用混合损失函数,对光流网络和图像重构网络同时进行约束,并进行反向传播学习;
本发明采用两种损失函数,同时约束光流网络和图像重构网络,并进行训练;
Figure BDA0001789852490000041
Figure BDA0001789852490000042
Figure BDA0001789852490000043
其中,
Figure BDA0001789852490000044
Figure BDA0001789852490000045
分别表示图像重构网络与光流网络的损失函数;公式(2)中,i表示时间步,T代表时间步的最大范围;SR(·)代表超分辨率这个过程,Ji表示输入的第i个补偿帧;
Figure BDA0001789852490000046
表示未下采样的高分辨率参考帧,λi是第i个时间步长的权重;公式(3)中,
Figure BDA0001789852490000047
是第i个低分辨率帧,
Figure BDA0001789852490000048
表示根据光流场Fi→0作用而成的补偿帧
Figure BDA0001789852490000049
表示光流场Fi→0的全变分,α是一个惩罚项约束参数;最后将
Figure BDA00017898524900000410
Figure BDA00017898524900000411
结合起来,得到公式(4)中的混合损失函数
Figure BDA00017898524900000412
β表示参数。
步骤5:将步骤3中得到的残差特征图放大,获得高分辨率残差图像,并将参考帧放大,获得高分辨率插值图像;
本发明采用亚像素放大,利用特征图的深度信息重构高分辨率图像的空间信息,不同于传统的转置卷积,能提取更丰富的图像细节;将低分辨率参考帧用双立方插值放大,获得高分辨率插值图像。
亚像素放大的过程表示如下:
Dim(I)=H×W×N0
=H×W×r×r×N1
=H×r×W×r×N1 (5)
其中,Dim(·)表示一个张量的维度,I代表输入张量,H与W分别为张量I的高和宽,N0则是张量I的特征图数量,r表示放大倍数。对该张量进行公式(5)所示的变形操作,便可得到高和宽各放大了r倍后的张量。其中,N0=N1×r×r。
步骤6:将步骤5中得到的高分辨插值图像与高分辨率残差图像相加,得到超分辨率视频帧。
本发明在光流网络中,对于输入的多帧,计算当前帧与参考帧之间的光流,并利用光流作运动补偿,将当前帧尽可能补偿到与参考帧相似。在图像重构网络中,将补偿后的多帧依次输进网络,网络采用多记忆残差块提取图像特征,使得后面输入帧能接收到前面帧的特征图信息。最后,将输出的低分辨率特征图进行亚像素放大,并与双立方插值放大后的图像相加,得到最终的高分辨率视频帧。训练过程采用一种混合损失函数,对光流网络和图像重构网络同时进行训练。本发明极大地增强了帧间信息融合的特征表达能力,能够重建出细节真实丰富的高分辨率视频。
本发明能够同时利用帧内空间相关性和帧间时间相关性来保证超分辨率重建效果。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种基于多记忆及混合损失的视频超分辨率重建方法,其特征在于,包括以下步骤:
步骤1:选取若干视频数据作为训练样本,从每个视频帧中相同的位置截取大小为N×N像素的图像作为高分辨率学习目标,将其下采样r倍,得到大小为M×M的低分辨率图像,作为网络的输入,其中,N=M×r;
步骤2:将2n+1张时间连续的低分辨率视频图像输入光流网络,作为低分辨率输入帧,而处于中心位置的低分辨率图像帧作为低分辨率参考帧;依次计算每个低分辨率输入帧与低分辨率参考帧之间的光流,并使用光流对每个低分辨率输入帧作运动补偿,获得低分辨率补偿帧;其中,n≥0;
步骤3:将低分辨率补偿帧输入图像重构网络,利用多记忆残差块进行帧间信息融合,得到残差特征图;
步骤4:采用混合损失函数,对光流网络和图像重构网络同时进行约束,并进行反向传播学习;
步骤5:将步骤3中得到的残差特征图放大,获得高分辨率残差图像,并将参考帧放大,获得高分辨率插值图像;
步骤6:将步骤5中得到的高分辨插值图像与高分辨率残差图像相加,得到超分辨率视频帧。
2.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤2中,采用从粗粒度到细粒度的方法提取光流,并使用运动补偿算子对输入帧进行运动补偿。
3.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤3中,采用多记忆残差块,存储当前帧的特征信息,以便与下一帧进行特征信息融合;
In+1={In,On}={In,ConvLSTMn(In)} (1)
其中,ConvLSTMn()表示多记忆残差块中第n个卷积记忆块,In表第n个卷积记忆块的输入,On表示对应的输出;将In与On作连结,得到In+1,即第n+1个卷积记忆块的输入。
4.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤4中,采用混合损失函数,同时约束光流网络和图像重构网络,并进行训练;
Figure FDA0001789852480000021
Figure FDA0001789852480000022
Figure FDA0001789852480000023
其中,
Figure FDA0001789852480000024
Figure FDA0001789852480000025
分别表示图像重构网络与光流网络的损失函数;公式(2)中,i表示时间步,T代表时间步的最大范围;SR(·)代表超分辨率这个过程,Ji表示输入的第i个补偿帧;
Figure FDA0001789852480000026
表示未下采样的高分辨率参考帧,λi是第i个时间步长的权重;公式(3)中,
Figure FDA0001789852480000027
是第i个低分辨率帧,
Figure FDA0001789852480000028
表示根据光流场Fi→0作用而成的补偿帧
Figure FDA0001789852480000029
Figure FDA00017898524800000210
表示光流场Fi→0的全变分,α是一个惩罚项约束参数;最后将
Figure FDA00017898524800000211
Figure FDA00017898524800000212
结合起来,得到公式(4)中的混合损失函数
Figure FDA00017898524800000213
β表示参数。
5.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤5中,对输出的残差特征图采用亚像素放大,对低分辨率参考帧采用双立方插值放大;
其中,亚像素放大的过程表示如下:
Dim(I)=H×W×N0
=H×W×r×r×N1
=H×r×W×r×N1 (5)
其中,Dim(·)表示一个张量的维度,I代表输入张量,H与W分别为张量I的高和宽,N0则是张量I的特征图数量,r表示放大倍数;对该张量进行公式(5)所示的变形操作,便得到高和宽各放大了r倍后的张量;其中,N0=N1×r×r。
CN201811031483.6A 2018-09-05 2018-09-05 一种基于多记忆及混合损失的视频超分辨率重建方法 Active CN109118431B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811031483.6A CN109118431B (zh) 2018-09-05 2018-09-05 一种基于多记忆及混合损失的视频超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811031483.6A CN109118431B (zh) 2018-09-05 2018-09-05 一种基于多记忆及混合损失的视频超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN109118431A CN109118431A (zh) 2019-01-01
CN109118431B true CN109118431B (zh) 2022-11-15

Family

ID=64858132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811031483.6A Active CN109118431B (zh) 2018-09-05 2018-09-05 一种基于多记忆及混合损失的视频超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN109118431B (zh)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949221B (zh) * 2019-01-30 2022-05-17 深圳大学 一种图像处理方法及电子设备
CN109919874B (zh) * 2019-03-07 2023-06-02 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN109819321B (zh) * 2019-03-13 2020-06-26 中国科学技术大学 一种视频超分辨率增强方法
CN110163800B (zh) * 2019-05-13 2023-01-06 南京大学 一种基于多帧图像超分辨的芯片显微相位恢复方法和装置
CN110136066B (zh) * 2019-05-23 2023-02-24 北京百度网讯科技有限公司 面向视频的超分辨率方法、装置、设备和存储介质
CN110418139B (zh) * 2019-08-01 2021-08-13 广东工业大学 一种视频超分辨修复方法、装置、设备及存储介质
CN110677651A (zh) * 2019-09-02 2020-01-10 合肥图鸭信息科技有限公司 一种视频压缩方法
CN110689509B (zh) * 2019-09-10 2024-04-19 上海大学 基于循环多列3d卷积网络的视频超分辨率重建方法
CN110706155B (zh) * 2019-09-12 2022-11-29 武汉大学 一种视频超分辨率重建方法
CN111079507B (zh) * 2019-10-18 2023-09-01 深兰科技(重庆)有限公司 一种行为识别方法及装置、计算机装置及可读存储介质
CN110753225A (zh) * 2019-11-01 2020-02-04 合肥图鸭信息科技有限公司 一种视频压缩方法、装置及终端设备
CN110913230A (zh) * 2019-11-29 2020-03-24 合肥图鸭信息科技有限公司 一种视频帧预测方法、装置及终端设备
CN110830806A (zh) * 2019-11-29 2020-02-21 合肥图鸭信息科技有限公司 一种视频帧预测方法、装置及终端设备
CN110913218A (zh) * 2019-11-29 2020-03-24 合肥图鸭信息科技有限公司 一种视频帧预测方法、装置及终端设备
CN110996108A (zh) * 2019-11-29 2020-04-10 合肥图鸭信息科技有限公司 一种视频帧重构方法、装置及终端设备
CN110969577B (zh) * 2019-11-29 2022-03-11 北京交通大学 一种基于深度双重注意力网络的视频超分辨率重建方法
CN110830808A (zh) * 2019-11-29 2020-02-21 合肥图鸭信息科技有限公司 一种视频帧重构方法、装置及终端设备
CN110913219A (zh) * 2019-11-29 2020-03-24 合肥图鸭信息科技有限公司 一种视频帧预测方法、装置及终端设备
CN111083478A (zh) * 2019-12-31 2020-04-28 合肥图鸭信息科技有限公司 一种视频帧重构方法、装置及终端设备
CN111083501A (zh) * 2019-12-31 2020-04-28 合肥图鸭信息科技有限公司 一种视频帧重构方法、装置及终端设备
CN111083479A (zh) * 2019-12-31 2020-04-28 合肥图鸭信息科技有限公司 一种视频帧预测方法、装置及终端设备
CN113132729B (zh) * 2020-01-15 2023-01-13 北京大学 一种基于多参考帧的环路滤波方法及电子装置
CN111311490B (zh) * 2020-01-20 2023-03-21 陕西师范大学 基于多帧融合光流的视频超分辨率重建方法
CN111402126B (zh) * 2020-02-15 2023-12-22 北京中科晶上科技股份有限公司 一种基于分块的视频超分辨率方法和系统
CN111402210B (zh) * 2020-03-03 2022-11-11 山东师范大学 一种单分子荧光信号图像的超分辨定位方法及系统
CN111583112A (zh) * 2020-04-29 2020-08-25 华南理工大学 视频超分辨率的方法、系统、装置和存储介质
CN111696035A (zh) * 2020-05-21 2020-09-22 电子科技大学 一种基于光流运动估计算法的多帧图像超分辨率重建方法
CN112070665B (zh) * 2020-08-03 2023-08-18 武汉大学 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法
CN112070667A (zh) * 2020-08-14 2020-12-11 西安理工大学 一种多尺度特征融合的视频超分辨率重建的方法
CN112055249B (zh) * 2020-09-17 2022-07-08 京东方科技集团股份有限公司 一种视频插帧方法及装置
CN112637604B (zh) * 2020-12-15 2022-08-16 深圳大学 低时延视频压缩方法及装置
CN113038055B (zh) * 2021-01-27 2023-06-23 维沃移动通信有限公司 图像处理方法、装置及电子设备
CN113034380B (zh) * 2021-02-09 2022-06-10 浙江大学 基于改进可变形卷积校正的视频时空超分辨率方法和装置
CN113055674B (zh) * 2021-03-24 2022-05-10 电子科技大学 一种基于两阶段多帧协同的压缩视频质量增强方法
CN113077385A (zh) * 2021-03-30 2021-07-06 上海大学 基于对抗生成网络和边缘增强的视频超分辨率方法及系统
CN114463237B (zh) * 2022-01-30 2024-04-19 武汉大学 基于全局运动补偿和帧间时域关联性的实时视频去雨方法
CN114363617A (zh) * 2022-03-18 2022-04-15 武汉大学 一种网络轻量级视频流传输方法、系统及设备
CN115546030B (zh) * 2022-11-30 2023-04-07 武汉大学 基于孪生超分辨率网络的压缩视频超分辨率方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228512A (zh) * 2016-07-19 2016-12-14 北京工业大学 基于学习率自适应的卷积神经网络图像超分辨率重建方法
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881000B (zh) * 2012-09-07 2016-05-18 华为技术有限公司 一种视频图像的超分辨率方法、装置和设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228512A (zh) * 2016-07-19 2016-12-14 北京工业大学 基于学习率自适应的卷积神经网络图像超分辨率重建方法
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法

Also Published As

Publication number Publication date
CN109118431A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
CN109118431B (zh) 一种基于多记忆及混合损失的视频超分辨率重建方法
CN111311490B (zh) 基于多帧融合光流的视频超分辨率重建方法
CN111739078B (zh) 一种基于上下文注意力机制的单目无监督深度估计方法
CN110969577B (zh) 一种基于深度双重注意力网络的视频超分辨率重建方法
CN108830790B (zh) 一种基于精简卷积神经网络的快速视频超分辨率重建方法
CN110634105B (zh) 一种光流法和深度网络结合的视频高时空分辨率信号处理方法
CN108259994B (zh) 一种提高视频空间分辨率的方法
CN106408524A (zh) 基于二维图像辅助的深度图像增强方法
CN108921783B (zh) 一种基于混合损失函数约束的卫星影像超分辨率重建方法
CN111696035A (zh) 一种基于光流运动估计算法的多帧图像超分辨率重建方法
CN107392854B (zh) 一种基于局部自适应增益因子的联合上采样方法
CN111861884A (zh) 一种基于深度学习的卫星云图超分辨率重建方法
CN112884650B (zh) 一种基于自适应纹理蒸馏的图像混合超分辨率方法
CN112102163A (zh) 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法
CN115578255A (zh) 一种基于帧间亚像素块匹配的超分辨率重建方法
CN112419150A (zh) 一种基于双边上采样网络的任意倍数图像超分辨率重建方法
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
CN116542889A (zh) 一种拥有稳定视点的全景视频增强方法
CN114202463B (zh) 面向云端融合的视频超分辨率方法及系统
CN116862773A (zh) 一种应用于复杂场景下的视频超分辨率重建方法
CN113610912B (zh) 三维场景重建中低分辨率图像单目深度估计系统及方法
Zhang et al. Optical flow reusing for high-efficiency space-time video super resolution
CN112396554A (zh) 一种基于生成对抗网络的图像超分辨率算法
CN112215140A (zh) 一种基于时空对抗的3维信号处理方法
Zhao et al. Multiframe joint enhancement for early interlaced videos

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant