CN114648446A - 视频处理方法和装置 - Google Patents
视频处理方法和装置 Download PDFInfo
- Publication number
- CN114648446A CN114648446A CN202210334768.7A CN202210334768A CN114648446A CN 114648446 A CN114648446 A CN 114648446A CN 202210334768 A CN202210334768 A CN 202210334768A CN 114648446 A CN114648446 A CN 114648446A
- Authority
- CN
- China
- Prior art keywords
- pixel
- feature map
- feature
- target frame
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 81
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 45
- 238000010586 diagram Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 20
- 239000011159 matrix material Substances 0.000 description 19
- 239000013598 vector Substances 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 13
- 238000012549 training Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000010276 construction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000005070 sampling Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
本公开公开了一种视频处理方法和装置,涉及视频处理技术领域。其中的视频处理方法包括:对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图;对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素;根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图;根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建。本公开能够提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。
Description
技术领域
本公开涉及视频处理领域,尤其涉及一种视频处理方法和装置。
背景技术
超分辨率,即通过硬件或软件的方法提高原有图像的分辨率,通过一系列低分辨率的图像来得到一幅高分辨率的图像过程就是超分辨率重建。超分辨率重建的核心思想是用时间带宽(获取同一场景的多帧图像序列)换取空间分辨率,实现时间分辨率向空间分辨率的转换。
相关技术中,可通过卷积神经网络进行超分辨率处理,以恢复低分辨率视频中的图像细节。这类方法主要通过融合相邻帧的局部细节以填补低分辨率视频帧中缺失的细节,其存在以下不足:第一、相关技术在融合相邻帧的布局细节之前,需要依靠光流法等方式计算视频帧之间的图像对应关系,这会导致在视频中有较大运动的情况下计算准确性不佳,以及对计算资源要求高,速度慢等问题;第二、由于可以参考的相邻帧也是低分辨率的,对增强关键帧的清晰度贡献很小。
发明内容
本公开要解决的一个技术问题是,提供一种视频处理方法和装置,能够提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。
根据本公开一方面,提出一种视频处理方法,包括:对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图;对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素;根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图;根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建。
在一些实施例中,根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建包括:根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建,其中,所述第二参考特征图融合了通用像素特征。
在一些实施例中,确定所述相邻帧的特征图中与所述像素相关度最大的像素包括:确定所述像素与其在所述相邻帧的特征图中的邻域像素的相关度;根据所述相关度,从所述邻域像素中选取出相关度最大的像素。
在一些实施例中,根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图包括:根据所述相邻帧的特征图中与所述像素相关度最大的像素的特征,以及对应的相关度,确定所述像素对应的第一参考特征;根据所述像素对应的第一参考特征,构建第一参考特征图。
在一些实施例中,视频处理方法还包括:确定所述目标帧的特征图中的像素与多个通用像素特征的相关度;按照所述相关度对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征;根据所述像素对应的第二参考特征,构建所述第二参考特征图。
在一些实施例中,按照所述相关度对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征包括:对所述相关度进行归一化;将归一化后的相关度作为权重,对所述多个通用像素特征进行加权平均运算,并将加权平均运算的结果作为所述像素对应的第二参考特征。
在一些实施例中,根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建包括:将所述目标帧的特征图、所述第一参考特征图以及第二参考特征图输入特征解码网络模型,以输出第一重建图像;对所述第一重建图像,以及,对所述目标帧的特征图进行双线性插值处理得到的特征图,进行叠加,以得到第二重建图像。
在一些实施例中,特征编码所用的网络模型包括多层ResNet模块。
在一些实施例中,所述特征解码网络模型包括多层ResNet模块、以及上采样模块。
根据本公开的另一方面,还提出一种视频处理装置,包括:特征编码模块,被配置为对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图;第一构建模块,被配置为对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素,和,根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图;以及重建模块,被配置为根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建。
在一些实施例中,所述重建模块被配置为:根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建,其中,所述第二参考特征图融合了通用像素特征。
在一些实施例中,所述第一构建模块被配置为:确定所述像素与其在所述相邻帧的特征图中的邻域像素的相关度;根据所述相关度,从所述邻域像素中选取出相关度最大的像素。
在一些实施例中,所述第一构建模块被配置为:根据所述相邻帧的特征图中与所述像素相关度最大的像素的特征,以及对应的相关度,确定所述像素对应的第一参考特征;根据所述像素对应的第一参考特征,构建第一参考特征图。
在一些实施例中,视频处理装置还包括第二构建模块,所述第二构建模块被配置为:确定所述目标帧的特征图中的像素与多个通用像素特征的相关度;按照所述相关度,对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征;根据所述像素对应的第二参考特征,构建所述第二参考特征图。
在一些实施例中,所述第二构建模块被配置为:对所述相关度进行归一化;将归一化后的相关度作为权重,对所述多个通用像素特征进行加权平均运算,并将加权平均运算的结果作为所述像素对应的第二参考特征。
在一些实施例中,所述第二构建模块被配置为:将所述目标帧的特征图、所述第一参考特征图以及第二参考特征图输入特征解码网络模型,以输出第一重建图像;对所述第一重建图像,以及,对所述目标帧的特征图进行双线性插值处理得到的特征图,进行叠加,以得到第二重建图像。
在一些实施例中,所述特征编码网络模型包括多层ResNet模块。
在一些实施例中,所述特征解码网络模型包括多层ResNet模块、以及上采样模块。
根据本公开的另一方面,还提出一种视频处理装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器的指令执行如上述的视频处理方法。
根据本公开的另一方面,还提出一种计算机可读存储介质,其上存储有计算机程序指令,该指令被处理器执行时实现上述的视频处理方法。
与相关技术相比,本公开实施例中,在融合相邻帧的图像细节时,引入了跨帧注意力机制实现相邻帧与目标帧在像素级别的匹配,具体体现在,确定相邻帧的特征图中与目标帧的像素相关度最大的像素,根据相邻帧的特征图中与目标帧的特征图中像素相关度最大的像素构建第一参考特征图。这样一来,本公开无需基于光流法等方式显式计算视频帧之间的像素对应关系,从而解决了相关技术中由于依靠光流法等方式计算视频帧之间的图像对应关系所导致地计算准确性不佳,以及对计算资源要求高,速度慢等问题,有助于提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。进一步,在本公开实施例中,在视频超分辨重建时不仅融合了相邻帧的图像细节,还融合了通用像素的图像细节,从而能够在一定程度上增加图像细节,提高超分辨重建出的视频质量。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1为本公开的视频处理方法的一些实施例的流程示意图。
图2为本公开的视频处理方法的另一些实施例的流程示意图。
图3为本公开的构建第二参考特征图的一些实施例的流程示意图。
图4为本公开实施例与相关技术的视频帧处理效果对比图。
图5为本公开的视频处理装置的一些实施例的结构示意图。
图6为本公开的视频处理装置的另一些实施例的结构示意图。
图7a为本公开的特征编码网络模型的一些实施例的结构示意图。
图7b为本公开的特征解码网络模型的一些实施例的结构示意图。
图8为本公开的视频处理装置的另一些实施例的结构示意图。
图9为本公开的视频处理装置的另一些实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
图1为本公开的视频处理方法的一些实施例的流程示意图。
在步骤110,对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图。
其中,目标帧为待超分辨率处理的视频帧,相邻帧为与待超分辨率处理的视频帧相邻的一帧或多帧视频帧。例如,取与目标帧相邻的前3帧和后3帧作为相邻帧,或者,取与目标帧相邻的前2帧作为相邻帧,或者,取与目标帧相邻的后4帧作为相邻帧,等等。
在一些实施例中,取视频中的关键帧作为目标帧,取与关键帧相邻的一帧或多帧视频帧作为相邻帧。例如,采用滑动窗口的方式对视频进行超分辨率处理,每次取待超分辨率处理的关键帧及其相邻的前3帧和后3帧,按照图1所示流程进行处理,以得到该关键帧的超分辨率重建图像。
在步骤110中,采用特征编码网络模型对目标帧及其相邻帧进行特征编码,以得到目标帧的特征图、以及相邻帧的特征图。其中,编码得到的特征图的特征维度大于原始视频帧的特征维度。例如,在一具体示例中,将三通道RGB视频帧输入特征编码网络模型,得到了128通道的特征图。
示例性地,特征编码网络模型为由多层残差网络(ResNet)模块组成的网络模型,比如由5层ResNet模块组成的网络模型。本领域技术人员可以理解,在不影响本公开实施的情况下,本公开所用的特征编码网络除了可以采用5层ResNet模块组成的网络模型之外,还可以采用其他网络模型结构,比如自编码器(autoencoder)、或者残差密集网络(RDN,全称为Residual Dense Network)等等。
在本公开实施例中,通过设置特征编码网络模型对目标帧及其相邻帧进行特征编码,能够实现特征升维,提取出更丰富的图像细节信息,进而有助于提高图像超分辨处理的效果。
在步骤120中,对于目标帧的特征图中的每个像素,确定相邻帧的特征图中与该像素相关度最大的像素。
在一些实施例中,对于目标帧的特征图中的每个像素,确定该像素与其在相邻帧的特征图中的邻域像素的相关度,根据相关度从邻域像素中选取出相关度最大的像素。在这些实施例中,通过只计算目标帧中的像素与其在相邻帧中的邻域像素的相关度,相比另一些实施例中逐一计算目标帧与相邻帧的像素相关度,大大减少了计算量。
其中,像素在其相邻帧的特征图中的邻域像素是指:在相邻帧的特征图中,与目标帧的像素在空间位置上相邻的像素。示例性地,将以像素a为中心的9*9像素区域作为该像素的邻域,则像素a在某一相邻帧上的邻域像素为9*9个。
其中,像素的相关度描述了像素之间的相似程度。示例性地,可根据如下方式计算两个像素的相关度:将像素a的特征向量与像素b的特征向量的内积作为像素a与像素b的相关度。
例如,假设目标帧为视频中的第4帧,目标帧的相邻帧为视频中的第1、2、3、5、6、7帧;对于第4帧特征图中的像素a,分别计算其与6个相邻帧特征图中的9*9个邻域像素的相关度,则可以得到6*9*9个相关度值;按照相关度,从6*9*9个邻域像素中选取出与像素a相关度最大的像素;对目标帧特征图中的每个像素分别执行上述过程,从而可从这6个相邻帧的特征图中找到与目标帧特征图中的每个像素相关度最大的像素。
在步骤130中,根据相邻帧的特征图中与该像素相关度最大的像素,构建第一参考特征图。
在一些实施例中,对于目标帧的特征图中的每个像素,根据从相邻帧的特征图中选取出的与该像素相关度最大的像素的特征,以及对应的相关度,确定该像素对应的第一参考特征;根据目标帧的特征图中每个像素对应的第一参考特征,构建第一参考特征图。
在一个可选实施方式中,对于目标帧的特征图中的每个像素,将从相邻帧的特征图中选取出的相关度最大的像素的特征,以及对应的相关度的乘积,作为该像素对应的第一参考特征。这样一来,可得到目标帧的特征图中各个像素对应的第一参考特征,进而,可得到第一参考特征图。其中,第一参考特征图中的像素特征,为目标帧的特征图中像素对应的第一参考特征。
本领域技术人员可以理解的是,将相关度最大的像素特征以及对应相关度的乘积作为第一参考特征,仅用于举例。在不影响本发明实施的情况下,也可采用其他根据相关度最大的像素特征以及对应相关度确定第一参考特征的具体实施方式。
在本公开实施例中,在融合相邻帧的图像细节时,通过步骤120和步骤130引入了跨帧注意力机制实现相邻帧与目标帧在像素级别的匹配。这样一来,本公开实施例无需基于光流法等方式显式计算视频帧之间的像素对应关系,从而解决了相关技术中由于依靠光流法等方式计算视频帧之间的图像对应关系所导致地计算准确性不佳,以及对计算资源要求高,速度慢等问题,有助于提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。
在步骤140中,根据目标帧的特征图和第一参考特征图,进行超分辨率重建。
在一些实施例中,将目标帧的特征图和第一参考特征图输入特征解码网络模型,并将模型输出的图像作为超分辨重建的图像,即最终重建出的目标帧对应的高分辨率图像。其中,解码网络模型的作用是对目标帧的特征图和第一参考特征图进行融合,并将融合后的图像从高维的特征空间重新映射至低维特征空间,以得到高分辨率的重建图像。例如,在一具体示例中,将128通道的目标帧特征图、以及128通道的第一参考特征图输入特征解码网络模型,得到了高分辨率的三通道RGB图像。
示例性地,特征解码网络模型为由多层ResNet模块和上采样模块组成的网络模型,比如由40层ResNet模块和上采样模块组成的网络模型。在一些实施例中,ResNet模块的详细组成如图7a所示,上采样模块的详细组成如图7b所示。其中,ResNet模块包括卷积层、ReLu激活层以及卷积层。上采样模块包括卷积层、Pixel Shuffle以及Leaky ReLu处理层、Leaky ReLu处理层。ResNet模块负责对目标帧的特征图和第一参考特征图进行融合,得到融合后的高维度低分辨率图像;上采样模块负责将高维度的低分辨率图像特征重组为低维度的高分辨率图像特征,比如将128通道低分辨率特征重组为3通道高分辨率的RGB图像特征,此过程采用的是业界通用的Pixel Shuffle操作。Pixel Shuffle是一种上采样方法,可以对缩小后的特征图进行有效的放大,该方法可以替代插值或解卷积的方法实现上采样。Leaky ReLu和ReLu为深度学习中两种常用的激活函数。
本领域技术人员可以理解,在不影响本公开实施的情况下,本公开所用的特征解码网络除了可以采用由40层ResNet模块和上采样模块组成的网络模型之外,还可以采用其他网络模型结构,比如RDN等等。
在另一些实施例中,将目标帧的特征图和第一参考特征图输入特征解码网络模型,以输出第一重建图像;将对目标帧的特征图进行双线性插值处理得到的特征图与第一重建图像进行叠加,以得到第二重建图像,并将第二重建图像作为最终重建出的目标帧对应的高分辨率图像。在这些实施例中,在通过特征解码网络模型得到高分辨率的重建图像后,通过将其与对目标帧的特征图进行双线性插值得到的特征图进行叠加,能够进一步提高重建出的图像的分辨率。
在本公开实施例中,通过以上步骤实现了对视频的目标帧的超分辨处理。与相关技术相比,不仅能够提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,而且能够提高超分辨重建出的视频质量。
图2为本公开的视频处理方法的另一些实施例的流程示意图。
在步骤210中,对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图。
在该实施例中,采用特征编码网络模型对目标帧及其相邻帧进行特征编码,以得到目标帧的特征图、以及相邻帧的特征图。其中,编码得到的特征图的特征维度大于原始视频帧的特征维度。例如,在一具体示例中,将三通道RGB视频帧输入特征编码网络模型,得到了128通道的特征图。
在该实施例中,通过设置特征编码网络模型对目标帧及其相邻帧进行特征编码,能够实现特征升维,提取出更丰富的图像细节信息,进而有助于提高图像超分辨处理的效果。
在步骤220中,对于目标帧的特征图中的每个像素,确定相邻帧的特征图中与该像素相关度最大的像素。
在该实施例中,对于目标帧的特征图中的每个像素,确定该像素与其在相邻帧的特征图中的邻域像素的相关度,根据相关度从邻域像素中选取出相关度最大的像素。在该实施例中,通过只计算目标帧中的像素与其在相邻帧中的邻域像素的相关度,相比逐一计算目标帧与相邻帧的像素相关度,大大减少了计算量。
在步骤230中,根据相邻帧的特征图中与像素相关度最大的像素,构建第一参考特征图。
在该实施例中,对于目标帧的特征图中的每个像素,将从相邻帧的特征图中选取出的与该像素相关度最大的像素的特征,以及对应的相关度的乘积,作为该像素对应的第一参考特征。这样一来,可得到目标帧的特征图中各个像素对应的第一参考特征,进而,可据此得到第一参考特征图。其中,第一参考特征图中的像素特征,为目标帧的特征图中像素对应的第一参考特征。
在步骤240中,构建第二参考特征图。其中,第二参考特征图融合了通用像素特征。
其中,通用像素特征为从已知的高分辨率视频图像和其对应的低分辨率图像中学习到的图像细节信息。在一些实施例中,以二维矩阵的形式存储通用像素特征。例如,采用256*128的二维矩阵,该二维矩阵由256个128通道的特征向量组成,每个特征向量存储了训练过程中从已知高分辨率视频图像和其对应的低分辨率图像中学习到的最具代表性的通用像素特征。在这些实施例中,根据该二维矩阵构建第二参考特征图。
在步骤250中,根据目标帧的特征图、第一参考特征图以及第二参考特征图,进行超分辨率重建。
在一些实施例中,将目标帧的特征图、第一参考特征图、以及第二参考特征图输入特征解码网络模型,并将模型输出的图像作为超分辨重建的图像。其中,解码网络模型的作用是对目标帧的特征图和第一参考特征图、以及第二参考特征图进行融合,并将融合后的图像从高维的特征空间重新映射至低维特征空间,以得到高分辨率的重建图像。例如,在一具体示例中,将128通道的目标帧特征图、以及128通道的第一参考特征图、以及128通道的第二参考特征图输入特征解码网络模型,得到了高分辨率的三通道RGB图像。
在另一些实施例中,将目标帧的特征图、第一参考特征图以及第二参考特征图输入特征解码网络模型,以输出第一重建图像;将对目标帧的特征图进行双线性插值处理得到的特征图与第一重建图像进行叠加,以得到第二重建图像,并将第二重建图像作为最终超分辨重建的图像。在这些实施例中,在通过特征解码网络模型得到高分辨率的重建图像后,通过将其与对目标帧的特征图进行双线性插值得到的特征图进行叠加,能够进一步提高图像分辨率。
具体实施时,基于学术界公认的数据集Vimeo90K-Test和Vid4测试验证了本公开实施例的方法在一般小位移的视频超分辨率处理上具有很好的性能。同时,基于Parkour数据集测试验证了本公开实施例的方法在大位移视频超分辨率处理上也具有很好的性能。其中,在测量超分辨率的结果和正确标注的(ground truth)高分辨率视频的视觉差异时,量化标准为学术界公认的峰值信噪比(PSNR)和结构相似性(SSIM)。
在本公开实施例中,通过以上步骤实现了对视频的目标帧的超分辨处理。与相关技术相比,通过在融合相邻帧的图像细节时,引入了跨帧注意力机制实现相邻帧与目标帧在像素级别的匹配,使得本公开无需基于光流法等方式显式计算视频帧之间的像素对应关系,从而解决了相关技术中由于依靠光流法等方式计算视频帧之间的图像对应关系所导致地计算准确性不佳,以及对计算资源要求高,速度慢等问题,有助于提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。进一步,在本公开实施例中,通过根据目标帧的特征图、第一参考特征图以及第二参考特征图进行超分辨率重建,使得在针对目标帧进行超分辨重建时不仅融合了相邻帧的图像细节,还融合了通用像素的图像细节,从而能够在一定程度上增加图像细节,提高超分辨重建出的视频质量。
图3为本公开的构建第二参考特征图的一些实施例的流程示意图。以下结合图3对上一实施例中的步骤240进行详细说明。
在步骤241中,确定目标帧的特征图中的像素与多个通用像素特征的相关度。
在一些实施例中,以二维矩阵的形式存储通用像素特征,该二维矩阵由多个特征向量组成,每个特征向量存储了训练过程中从已知高分辨率视频图像和其对应的低分辨图像中学习到的最具代表性的通用像素特征。对于目标帧的特征图中的每个像素,计算该像素与二维矩阵中各个特征向量之间的相关度。
在一些实施例中,上述二维矩阵通过预训练得到。在进行预训练过程中,该二维矩阵由初始的随机值逐渐收敛为最终结果。在视频超分辨率处理过程中,上述二维矩阵是固定的。通过在预训练阶段学习通常视频中的一些图像特征,形成该二维矩阵,使得在对当前视频进行超分辨率处理时能够参考该二维矩阵,改善视频超分辨率处理的质量。
在步骤242中,按照相关度对多个通用像素特征进行融合处理,以得到目标帧的特征图中的像素对应的第二参考特征。
在一些实施例中,对步骤241得出的相关度进行归一化;将归一化后的相关度作为权重,对多个通用像素特征进行加权平均运算,并将加权平均运算的结果作为所述像素对应的第二参考特征。
例如,采用256*128的二维矩阵,该二维矩阵由256个128通道的特征向量组成,每个特征向量存储了训练过程中从已知的高分辨率视频图像和其对应的低分辨图像中学习到的最具代表性的通用像素特征。对于目标帧的特征图中的每个像素,计算其与该二维矩阵中256个特征向量之间的相关度,得到256个相关度值。将这256个相关度值进行归一化后,将归一化后的相关度值作为权重,对256个特征向量进行加权平均运算,并将加权平均运算的结果作为该像素对应的第二参考特征。
在步骤243中,根据目标帧的特征图中的像素对应的第二参考特征,构建第二参考特征图。
其中,第二参考特征图中的像素特征,为目标帧的特征图中像素对应的第二参考特征。
在本公开实施例中,通过以上步骤很好地构建了第二参考特征图。在对目标帧进行超分辨率重建时,通过引入第一参考特征图以及经由上述步骤重建的第二参考特征图,使得在针对目标帧进行超分辨重建时不仅融合了相邻帧的图像细节,还融合了通用像素的图像细节,从而能够在一定程度上增加图像细节,提高超分辨重建出的视频质量。
图4为本公开实施例与相关技术的视频帧处理效果对比图。如图4所示,包括三行四列图像,由左至右第一列为示例视频帧,第二至第四列为示例视频帧中矩形框所选区域的放大图像。其中,第二列为低分辨率视频帧经双三次插值放大的结果,第三列为低分辨率视频帧经过本公开实施例的视频处理方法处理得到的结果,最后一列为低分辨率视频帧经过当前业内领先的超分辨率处理方法处理得到的结果。第一横行中,由于光流法对重复的局部图像(如吉他琴弦)的计算不准确,采用业内领先的方法进行超分辨率处理容易产生错误的纹路,而本公开由于不需要计算视频帧之间的像素对应关系,可以较好的恢复重复的纹理。第二横行中,采用业内领先方法进行超分辨率处理得到的图像不够清晰,因为图像的很多细节在低分辨率视频中已经永久丢失,无法仅从本视频的其他帧中获取有用的信息,而本公开在训练过程中保存了来自其他视频中总结出的图像细节信息,因此具有一定程度上增加图像细节的能力。第三横行展示的是一个运动视频的例子,此类视频内物体位移较大,采用当前业内领先的方法一般不能在此类视频中恢复高分辨率的细节,而本公开经测试证明在此类大位移视频中也能保持很好的超分辨处理性能。
图5为本公开的视频处理装置的一些实施例的结构示意图。如图5所示,本公开实施例中的视频处理装置包括:特征编码模块510、第一构建模块520、重建模块530。
特征编码模块510,被配置为对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图。
其中,目标帧为待超分辨率处理的视频帧,相邻帧为与待超分辨率处理的视频帧相邻的一帧或多帧视频帧。例如,取与目标帧相邻的前3帧和后3帧作为相邻帧,或者,取与目标帧相邻的前2帧作为相邻帧,或者,取与目标帧相邻的后4帧作为相邻帧,等等。
在一些实施例中,特征编码模块510采用特征编码网络模型对目标帧及其相邻帧进行特征编码,以得到目标帧的特征图、以及相邻帧的特征图。其中,编码得到的特征图的特征维度大于原始视频帧的特征维度。例如,在一具体示例中,将三通道RGB视频帧输入特征编码网络模型,得到了128通道的特征图。
示例性地,特征编码网络模型为由多层ResNet(残差网络)模块组成的网络模型,比如由5层ResNet模块组成的网络模型。本领域技术人员可以理解,在不影响本公开实施的情况下,本公开所用的特征编码网络除了可以采用5层ResNet模块组成的网络模型之外,还可以采用其他网络模型结构,比如自编码器(autoencoder)、或者残差密集网络(RDN,全称为Residual Dense Network)等等。
在本公开实施例中,通过特征编码模块对目标帧及其相邻帧进行特征编码,能够实现特征升维,提取出更丰富的图像细节信息,进而有助于提高图像超分辨处理的效果。
第一构建模块520,被配置为对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素,和,根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图。
在一些实施例中,对于目标帧的特征图中的每个像素,第一构建模块520确定该像素与其在相邻帧的特征图中的邻域像素的相关度,根据相关度从邻域像素中选取出相关度最大的像素。在这些实施例中,第一构建模块520通过只计算目标帧中的像素与其在相邻帧中的邻域像素的相关度,相比另一些实施例中逐一计算目标帧与相邻帧的像素相关度,大大减少了计算量。
在一些实施例中,对于目标帧的特征图中的每个像素,第一构建模块520根据从相邻帧的特征图中选取出的与该像素相关度最大的像素的特征,以及对应的相关度,确定该像素对应的第一参考特征;根据目标帧的特征图中每个像素对应的第一参考特征,构建第一参考特征图。
在一个可选实施方式中,对于目标帧的特征图中的每个像素,第一构建模块520将从相邻帧的特征图中选取出的相关度最大的像素的特征,以及对应的相关度的乘积,作为该像素对应的第一参考特征。这样一来,可得到目标帧的特征图中各个像素对应的第一参考特征,进而,可得到第一参考特征图。其中,第一参考特征图中的像素特征,为目标帧的特征图中像素对应的第一参考特征。
本领域技术人员可以理解的是,将相关度最大的像素特征以及对应相关度的乘积作为第一参考特征,仅用于举例。在不影响本发明实施的情况下,第一构建模块520也可采用其他根据相关度最大的像素特征以及对应相关度确定第一参考特征的具体实施方式。
在本公开实施例中,通过第一构建模块计算目标帧与相邻帧特征图的像素相关度,根据从相邻帧特征图中选取出的相关度最大的像素构建第一特征图,使得本公开无需基于光流法等方式显式计算视频帧之间的像素对应关系,从而解决了相关技术中由于依靠光流法等方式计算视频帧之间的图像对应关系所导致地计算准确性不佳,以及对计算资源要求高,速度慢等问题,有助于提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。
重建模块530,被配置为根据目标帧的特征图和第一参考特征图,进行超分辨率重建。
在一些实施例中,重建模块530将目标帧的特征图和第一参考特征图输入特征解码网络模型,并将模型输出的图像作为超分辨重建的图像,即最终重建出的目标帧对应的高分辨率图像。其中,解码网络模型的作用是对目标帧的特征图和第一参考特征图进行融合,并将融合后的图像从高维的特征空间重新映射至低维特征空间,以得到高分辨率的重建图像。例如,在一具体示例中,将128通道的目标帧特征图、以及128通道的第一参考特征图输入特征解码网络模型,得到了高分辨率的三通道RGB图像。
示例性地,特征解码网络模型为由多层ResNet模块和上采样模块组成的网络模型,比如由40层ResNet模块和上采样模块组成的网络模型。本领域技术人员可以理解,在不影响本公开实施的情况下,本公开所用的特征解码网络除了可以采用由40层ResNet模块和上采样模块组成的网络模型之外,还可以采用其他网络模型结构,比如RDN等等。
在另一些实施例中,重建模块530将目标帧的特征图和第一参考特征图输入特征解码网络模型,以输出第一重建图像;将对目标帧的特征图进行双线性插值处理得到的特征图与第一重建图像进行叠加,以得到第二重建图像,并将第二重建图像作为最终重建出的目标帧对应的高分辨率图像。在这些实施例中,在通过特征解码网络模型得到高分辨率的重建图像后,通过将其与对目标帧的特征图进行双线性插值得到的特征图进行叠加,能够进一步提高重建出的图像的分辨率。
在本公开实施例中,通过以上装置实现了对视频的目标帧的超分辨处理。与相关技术相比,不仅能够提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,而且能够提高超分辨重建出的视频质量。
图6为本公开的视频处理装置的另一些实施例的结构示意图。如图6所示,本公开实施例中的视频处理装置包括:特征编码模块610、第一构建模块620、第二构建模块630、重建模块640。
特征编码模块610,被配置为对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图。
在该实施例中,特征编码模块610采用特征编码网络模型对目标帧及其相邻帧进行特征编码,以得到目标帧的特征图、以及相邻帧的特征图。其中,编码得到的特征图的特征维度大于原始视频帧的特征维度。例如,在一具体示例中,将三通道RGB视频帧输入特征编码网络模型,得到了128通道的特征图。
在该实施例中,通过特征编码模块610对目标帧及其相邻帧进行特征编码,能够实现特征升维,提取出更丰富的图像细节信息,进而有助于提高图像超分辨处理的效果。
第一构建模块620,被配置为对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素,和,根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图。
在一些实施例中,对于目标帧的特征图中的每个像素,第一构建模块620确定该像素与其在相邻帧的特征图中的邻域像素的相关度,根据相关度从邻域像素中选取出相关度最大的像素。通过只计算目标帧中的像素与其在相邻帧中的邻域像素的相关度,相比逐一计算目标帧与相邻帧的像素相关度,大大减少了计算量。
在一些实施例中,对于目标帧的特征图中的每个像素,第一构建模块620将从相邻帧的特征图中选取出的与该像素相关度最大的像素的特征,以及对应的相关度的乘积,作为该像素对应的第一参考特征。这样一来,可得到目标帧的特征图中各个像素对应的第一参考特征,进而,可据此得到第一参考特征图。其中,第一参考特征图中的像素特征,为目标帧的特征图中像素对应的第一参考特征。
第二构建模块630,被配置为构建第二参考特征图。其中,第二参考特征图融合了通用像素特征。
其中,通用像素特征为从高分辨率视频中学习到的图像细节信息。在一些实施例中,以二维矩阵的形式存储通用像素特征。例如,采用256*128的二维矩阵,该二维矩阵由256个128通道的特征向量组成,每个特征向量存储了训练过程中从高分辨率视频中学习到的最具代表性的通用像素特征。在这些实施例中,根据该二维矩阵构建第二参考特征图。
在一些实施例中,第二构建模块630确定目标帧的特征图中的像素与多个通用像素特征的相关度,按照所述相关度对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征,根据所述像素对应的第二参考特征,构建所述第二参考特征图。
在一些实施例中,第二构建模块630对得到的相关度进行归一化,将归一化后的相关度作为权重,对多个通用像素特征进行加权平均运算,并将加权平均运算的结果作为目标帧的特征图中的像素对应的第二参考特征。例如,采用256*128的二维矩阵,该二维矩阵由256个128通道的特征向量组成,每个特征向量存储了训练过程中从已知高分辨率视频图像和其对应的低分辨图像中学习到的最具代表性的通用像素特征。对于目标帧的特征图中的每个像素,计算其与该二维矩阵中256个特征向量之间的相关度,得到256个相关度值。将这256个相关度值进行归一化后,将归一化后的相关度值作为权重,对256个特征向量进行加权平均运算,并将加权平均运算的结果作为该像素对应的第二参考特征。
重建模块640,被配置为根据目标帧的特征图、第一参考特征图以及第二参考特征图,进行超分辨率重建。
在一些实施例中,重建模块640将目标帧的特征图、第一参考特征图、以及第二参考特征图输入特征解码网络模型,并将模型输出的图像作为超分辨重建的图像。其中,解码网络模型的作用是对目标帧的特征图和第一参考特征图、以及第二参考特征图进行融合,并将融合后的图像从高维的特征空间重新映射至低维特征空间,以得到高分辨率的重建图像。例如,在一具体示例中,将128通道的目标帧特征图、以及128通道的第一参考特征图、以及128通道的第二参考特征图输入特征解码网络模型,得到了高分辨率的三通道RGB图像。
在另一些实施例中,重建模块640将目标帧的特征图、第一参考特征图以及第二参考特征图输入特征解码网络模型,以输出第一重建图像;将对目标帧的特征图进行双线性插值处理得到的特征图与第一重建图像进行叠加,以得到第二重建图像,并将第二重建图像作为最终超分辨重建的图像。在这些实施例中,在通过特征解码网络模型得到高分辨率的重建图像后,通过将其与对目标帧的特征图进行双线性插值得到的特征图进行叠加,能够进一步提高图像分辨率。
可选地,本公开实施例还包括:在基于视频处理装置对当前视频进行超分辨率处理之前,对视频处理装置中的各个模块进行训练。总体上来说,训练过程可采用end-to-end(端到端)的方式进行,整个网络训练过程如下:首先断开第二构建模块,只训练其他三个模块,损失函数为输出高分辨率图像预正确标注的高分辨率样本图像的L1距离;接下来,固定其他三个模块,仅训练第二构建模块所用的二维矩阵,损失函数为训练二维矩阵所用网络模型的输入与输出间的L1距离;然后,对视频处理装置中的所有模块进行训练,损失函数为输出高分辨率图像与正确标注的高分辨率样本图像的L1距离。
在本公开实施例中,通过以上装置实现了对视频的目标帧的超分辨处理。与相关技术相比,通过在融合相邻帧的图像细节时,引入了跨帧注意力机制实现相邻帧与目标帧在像素级别的匹配,使得本公开无需基于光流法等方式显式计算视频帧之间的像素对应关系,从而解决了相关技术中由于依靠光流法等方式计算视频帧之间的图像对应关系所导致地计算准确性不佳,以及对计算资源要求高,速度慢等问题,有助于提高视频超分辨处理效率,降低视频超分辨处理对计算资源的要求,提高超分辨重建出的视频质量。进一步,在本公开实施例中,通过根据目标帧的特征图、第一参考特征图以及第二参考特征图进行超分辨率重建,使得在针对目标帧进行超分辨重建时不仅融合了相邻帧的图像细节,还融合了通用像素的图像细节,从而能够在一定程度上增加图像细节,提高超分辨重建出的视频质量。
图8为本公开的视频处理装置的另一些实施例的结构示意图。该装置包括存储器810和处理器820,其中:存储器810可以是磁盘、闪存或其它任何非易失性存储介质。存储器用于存储图1-4所对应实施例中的指令。处理器820耦接至存储器810,可以作为一个或多个集成电路来实施,例如微处理器或微控制器。该处理器820用于执行存储器中存储的指令。
在一些实施例中,还可以如图9所示,该装置900包括存储器910和处理器920。处理器920通过BUS总线930耦合至存储器910。该装置900还可以通过存储接口940连接至外部存储装置950以便调用外部数据,还可以通过网络接口960连接至网络或者另外一台计算机系统(未标出),此处不再进行详细介绍。
在该实施例中,通过存储器存储数据指令,再通过处理器处理上述指令,能够提高视频处理效率。
在另一些实施例中,一种计算机可读存储介质,其上存储有计算机程序指令,该指令被处理器执行时实现图1-3所对应实施例中的方法的步骤。本领域内的技术人员应明白,本公开的实施例可提供为方法、装置、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
至此,已经详细描述了本公开。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改。本公开的范围由所附权利要求来限定。
Claims (15)
1.一种视频处理方法,包括:
对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图;
对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素;
根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图;
根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建。
2.根据权利要求1所述的视频处理方法,其中,根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建包括:
根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建,其中,所述第二参考特征图融合了通用像素特征。
3.根据权利要求1或2所述的视频处理方法,其中,确定所述相邻帧的特征图中与所述像素相关度最大的像素包括:
确定所述像素与其在所述相邻帧的特征图中的邻域像素的相关度;
根据所述相关度,从所述邻域像素中选取出相关度最大的像素。
4.根据权利要求1或2所述的视频处理方法,其中,根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图包括:
根据所述相邻帧的特征图中与所述像素相关度最大的像素的特征,以及对应的相关度,确定所述像素对应的第一参考特征;
根据所述像素对应的第一参考特征,构建第一参考特征图。
5.根据权利要求2所述的视频处理方法,还包括:
确定所述目标帧的特征图中的像素与多个通用像素特征的相关度;
按照所述相关度对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征;
根据所述像素对应的第二参考特征,构建所述第二参考特征图。
6.根据权利要求5所述的视频处理方法,其中,按照所述相关度对所述多个通用像素特征进行融合处理,以得到所述像素对应的第二参考特征包括:
对所述相关度进行归一化;
将归一化后的相关度作为权重,对所述多个通用像素特征进行加权平均运算,并将加权平均运算的结果作为所述像素对应的第二参考特征。
7.根据权利要求2所述的视频处理方法,其中,根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建包括:
将所述目标帧的特征图、所述第一参考特征图以及第二参考特征图输入特征解码网络模型,以输出第一重建图像;
对所述第一重建图像,以及,对所述目标帧的特征图进行双线性插值处理得到的特征图,进行叠加,以得到第二重建图像。
8.根据权利要求1所述的视频处理方法,其中,特征编码所用的网络模型包括多层ResNet模块。
9.根据权利要求7所述的视频处理方法,其中,所述特征解码网络模型包括多层ResNet模块、以及上采样模块。
10.一种视频处理装置,包括:
特征编码模块,被配置为对视频的目标帧及其相邻帧进行特征编码,以得到目标帧及其相邻帧的特征图;
第一构建模块,被配置为
对于所述目标帧的特征图中的每个像素,确定所述相邻帧的特征图中与所述像素相关度最大的像素,和
根据所述相邻帧的特征图中与所述像素相关度最大的像素,构建第一参考特征图;以及
重建模块,被配置为根据所述目标帧的特征图和所述第一参考特征图,进行超分辨率重建。
11.根据权利要求10所述的视频处理装置,其中,所述重建模块被配置为:
根据所述目标帧的特征图、所述第一参考特征图以及第二参考特征图,进行超分辨率重建,其中,所述第二参考特征图融合了通用像素特征。
12.根据权利要求10或11所述的视频处理装置,其中,所述第一构建模块被配置为:
确定所述像素与其在所述相邻帧的特征图中的邻域像素的相关度;
根据所述相关度,从所述邻域像素中选取出相关度最大的像素。
13.根据权利要求10或11所述的视频处理装置,其中,所述第一构建模块被配置为:
根据所述相邻帧的特征图中与所述像素相关度最大的像素的特征,以及对应的相关度,确定所述像素对应的第一参考特征;
根据所述像素对应的第一参考特征,构建第一参考特征图。
14.一种视频处理装置,包括:
存储器;以及
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器的指令执行如权利要求1至9任一项所述的视频处理方法。
15.一种计算机可读存储介质,其上存储有计算机程序指令,该指令被处理器执行时实现权利要求1至9任一项所述的视频处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210334768.7A CN114648446A (zh) | 2022-03-31 | 2022-03-31 | 视频处理方法和装置 |
PCT/CN2023/075906 WO2023185284A1 (zh) | 2022-03-31 | 2023-02-14 | 视频处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210334768.7A CN114648446A (zh) | 2022-03-31 | 2022-03-31 | 视频处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114648446A true CN114648446A (zh) | 2022-06-21 |
Family
ID=81995198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210334768.7A Pending CN114648446A (zh) | 2022-03-31 | 2022-03-31 | 视频处理方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114648446A (zh) |
WO (1) | WO2023185284A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023185284A1 (zh) * | 2022-03-31 | 2023-10-05 | 网银在线(北京)科技有限公司 | 视频处理方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583112A (zh) * | 2020-04-29 | 2020-08-25 | 华南理工大学 | 视频超分辨率的方法、系统、装置和存储介质 |
CN112700392A (zh) * | 2020-12-01 | 2021-04-23 | 华南理工大学 | 一种视频超分辨率处理方法、设备及存储介质 |
CN113570606B (zh) * | 2021-06-30 | 2023-09-05 | 北京百度网讯科技有限公司 | 目标分割的方法、装置及电子设备 |
CN114648446A (zh) * | 2022-03-31 | 2022-06-21 | 网银在线(北京)科技有限公司 | 视频处理方法和装置 |
-
2022
- 2022-03-31 CN CN202210334768.7A patent/CN114648446A/zh active Pending
-
2023
- 2023-02-14 WO PCT/CN2023/075906 patent/WO2023185284A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023185284A1 (zh) * | 2022-03-31 | 2023-10-05 | 网银在线(北京)科技有限公司 | 视频处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2023185284A1 (zh) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047516B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
Wang et al. | Deep video super-resolution using HR optical flow estimation | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN112862689B (zh) | 一种图像超分辨率重建方法及系统 | |
CN110490082B (zh) | 一种有效融合神经网络特征的道路场景语义分割方法 | |
CN112070670A (zh) | 全局-局部分离注意力机制的人脸超分辨率方法及系统 | |
CN113538243B (zh) | 基于多视差注意力模块组合的超分辨图像重建方法 | |
CN109191511A (zh) | 一种基于卷积神经网络的双目立体匹配方法 | |
CN112767247A (zh) | 图像超分辨率重建方法、模型蒸馏方法、装置及存储介质 | |
WO2023185284A1 (zh) | 视频处理方法和装置 | |
US20240062347A1 (en) | Multi-scale fusion defogging method based on stacked hourglass network | |
CN113362239A (zh) | 一种基于特征交互的深度学习图像修复方法 | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN116778165A (zh) | 基于多尺度自适应语义分割的遥感影像灾害检测方法 | |
CN116797456A (zh) | 图像超分辨率重建方法、系统、设备和存储介质 | |
CN116091319A (zh) | 基于长距离上下文依赖的图像超分辨率重建方法及系统 | |
CN116012272A (zh) | 一种基于重建流场的压缩视频质量增强方法 | |
CN113379667B (zh) | 脸部图像生成方法、装置、设备及介质 | |
CN115330631A (zh) | 一种基于堆叠沙漏网络的多尺度融合去雾方法 | |
CN114219738A (zh) | 单幅图像多尺度超分辨重建网络结构及方法 | |
CN112016456A (zh) | 基于自适应反向投影深度学习的视频超分辨率方法及系统 | |
CN115631115B (zh) | 基于递归Transformer的动态图像复原方法 | |
CN116939248A (zh) | 视频画质提升方法、装置及设备 | |
CN114782863B (zh) | 基于i-p帧特征融合的视频目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |