CN107613299A - 一种利用生成网络提高帧速率上转换效果的方法 - Google Patents
一种利用生成网络提高帧速率上转换效果的方法 Download PDFInfo
- Publication number
- CN107613299A CN107613299A CN201710902237.2A CN201710902237A CN107613299A CN 107613299 A CN107613299 A CN 107613299A CN 201710902237 A CN201710902237 A CN 201710902237A CN 107613299 A CN107613299 A CN 107613299A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- frame
- mfrac
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
Abstract
本发明公开了一种利用生成网络提高帧速率上转换效果的方法。本发明包括如下步骤:1:将原始视频通过JM18.6进行压缩,得到压缩后的视频,然后将压缩后的视频通过保留单数帧,对双数帧进行重构,利用基于方向选择运动估计的帧速率上转换算法得到双数帧的重构帧;2:构造生成网络G,将重构帧IE输入到神经网络中并训练,将原始的视频中的对应帧IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果;3:反复执行步骤(1)(2),直至误差变化率不变或小于设定阈值;4:应用训练好的网络,将经过帧速率上转换的重构帧输入网络,得到高质量的图像。本发明提高重构帧的psnr值和质量,使得帧率上转化效果提高。
Description
技术领域
本发明涉及深度神经网络领域和帧速率上转换领域,尤其涉及CNN 结构网络和残差结构。
技术背景
视频信息是人类最重要的信息源之一,在信号处理领域占有很大的比重。现存的视频源其实质为活动的三维场景投影到二维平面后再对其进行空间时间采样的结果。帧速率上转换也称作时间内插,是视频格式转换技术中的重要组成部分。它主要是用来实现不同帧速率显示格式之间的转换。例如,将以24帧/秒拍摄得到的电影胶片在60帧/秒以上高清晰度电视上播放,必须采用帧速率上转换实现两种格式之间的转换。在低比特率视频通信中,常需要降低传输帧率(降至每秒10或15帧), 帧速率上转换作为必要的后处理工具负责在接收端恢复原帧速率。此外, 在无线视频通信中,缺失帧的重构以及液晶显示中为减小运动拖尾也需要进行帧率转换。基于以上原因及应用,帧速率上转换技术已经成为当前视频格式转换研究领域的一个新热点。目前基于方向选择的运动向量估计算法在帧率上转化方面有非常好的效果,该算法解决了传统的重构帧方法中的一些失真问题如:空洞,重叠等,另外它缓解了物体遮挡问题,即当画面中有两个物体重叠被遮挡的部分无法计算出运动矢量。该算法使用的双向(即前后向)运动估计使得重构效果更好,并使用了新的度量方法使得到的向量的更可靠。该算法主要由下4个步骤组成1. 利用运动估计方法得出前向最优运动矢量vf和后向的最优运动矢量vb。 2.利用双向加权运动矢量平滑化算法找出运动矢量中的异常值并纠正得到vfc和vbc。3.利用精化算法得到精化后的运动矢量,解决了向量换位导致的残差问题4.在前后向精化后的运动向量中选择SBAD值小的矢量作为最后的运动矢量。
另外,最近新发明的深度残差学习结构能够解决深度神经网络在训练过程中准确度随网络层数增加而下降的问题,使得网络层数增加的同时错误率减小,也因此提高了网络提取特征的水平。残差网络中最革新的一点是--它没有选择去拟合原始的函数H(x),而是拟合H(x)的残差函数--F(x)=H(x)-x,这样做能使得拟合过程更简单,解决了梯度问题,最后实现空前的效果。
在神经网络领域,基于对抗生成神经网络的图像超分辨率技术可以得到良好的效果,在《Photo-Realistic Single Image Super-Resolution Using a GenerativeAdversarial Network》这篇论文中,作者构造了SRGAN(超辨率生成对抗神经网络模型),并且通过大量的数据集,使网络学会了将一张低分辨率的图象提高为高分辨率图象,与一般的超分辨率技术相比SRGAN生成图象的PSNR(峰值信噪比) 更高,这意味着图片的质量更高。另外传统的以MSE(均方误差)为损失函数的技术所得到的图象像素过于平滑,局部纹理细节较少,虽然在 PSNR上较低画质图象有很大提升,但在视觉感受上并没有期望的区别,而在SRGAN中构造了一个对抗鉴别模型,并抛弃了传统的损失函数转而将内容损失函数和对抗损失函数结合为感知损失函数,使得生成的图象纹理细节更多,让人们在视觉感知上有了更强的感受。运用了其中生成网络G被构造成一个前传的CNN网络,将数据集中的高分辨率图象IHR经过高斯滤波之后再经过下采样得到一个对应的低分辨率的图像ILR。将该图像首先经过了一个卷积层,这里用到64个大小为3*3的卷积核,且卷积核的步长为1,得到了64个特征图.接着在经过激活层后,将得到的数据命名为x,传统的网络直接将x输入后面的网络中得到H(x),但是论文的作者在网络中加入了残差结构,转而将残差F(x)=H(x)-x 输入到后续网络中,并定义损失函数,反向传递误差调整并得到最优的 F(x),然后将F(x)与x相加得到H(x),经过后续一系列的操作后得到了高分辨率的图象。值得注意的是,在提高图像的PSNR上,单独使用生成网络G比使用对抗生成网络的效果要好。这创新的模型启发了我们借鉴SRGAN中的生成网络G来提高帧速率上转换后的图像的质量。
发明内容
虽然传统的帧速率上转换算法能够得到较好的重构帧,使其在很大程度上与真实图像相似,但是对于经过压缩后的视频使用帧速率上转换得到的重构图像的质量并没有像人们所期待的那样高,因此我们决定在基于H.264压缩后的基础之上,并对间隔帧进行帧速率上转换,然后通过构造一个CNN结构的网络G,将重构帧经过G处理以实现提高其PSNR 的目的。另外我们在G网络中将输入图像直接映射到输出图像之前,将其与网络拟合的残差相加,得到最终的输出,这样做有利于收敛,更快更好地训练网络。值得注意的是本方法只针对H.264标准,不适合其他视频编码标准。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:将原始视频通过JM18.6进行压缩,得到压缩后的视频,然后将压缩后的视频通过保留单数帧,对双数帧进行重构,利用传统的帧速率上转换算法得到双数帧的重构帧。重构帧生成方法如下:
1-1.利用运动估计方法得出最优前向运动矢量vf和最优后向运动矢量vb。即在候选前向运动矢量中找到使得式(1)SADf值最小的矢量并作为最优前向运动矢量,同理在候选后向运动矢量中找到使式(3) SADb值最小的矢量并作为最优后向运动矢量。
上式中SADf和SADb分别表示前后向运动矢量对应像素值的差的绝对值之和(即sums of the absolute differences)。fN-1(S)和fN(S)分别表示前一帧(N-1帧)中点“s”处的像素值,和当前帧(N帧)中点“s”处的像素值,Bi,j表示第i列第j行的块,vc表示候选运动矢量,vf与vb在运动估计方向和参考帧的选取有区别。
1-2.利用双向加权运动矢量平滑化算法找出运动矢量中的异常值并纠正得到vfc和vbc。该算法在运动矢量域中使用一个3*3窗口来寻找异常值,如图1(a)和(b)所示,其中v0是待处理的运动矢量,v1→v8与之相邻。这个窗口会遍历整个矢量域并找到所有的异常值。可以将该方法的原理理解为,将一个窗口中的9个运动矢量映射到直角坐标系中如图1(b)所示,其中vx和vy分别代表运动矢量的x轴和y轴分量,求八个邻近的运动矢量坐标的平均值,得到一个大致位于他们中心的点vm如式(5)所示。接着计算八个邻近的运动矢量到中心点的平均距离Dm如式(6)所示,并以vm作圆心,Dm作半径画圆。若v0与vm之间的距离D0小于Dm则判定v0为正常值不做处理,反之判为异常值并进行纠正操作,即将处在圆内的相邻向量加权平均得到v0c如式(9)所示,并将其代替原来的v0。每个圆内相邻运动矢量的权重与其到v0的距离成反比,如式 (8)所示。
D0=||v0-vm|| (7)
1-3.利用精化算法得到精化后的运动矢量,解决了向量换位导致的残差问题。每个运动矢量的精化过程中利用了双向差分绝对值SBAD (sum of the bidirectionalabsolute differences),该值在式(10) 中得到定义:
其中Bi,j表示第i列第j行的块,vr表示确定的参考运动矢量,寻找使得SBAD值最小的候选前向或后向运动矢量,并将其作为精化后的前向 vfr或后向运动矢量vbr。vfc和vbc表示在步骤1-2中修正后的前向和后向运动矢量。另外,在重构帧上将待处理块加上-vfc或vbc得到在前一帧或后一帧中对应的块,并在其周围创建一个小的搜寻范围命名为Rs,如图2所示。
1-4.在精化后的前后向运动向量中选择SBAD值小的矢量作为最后的运动矢量,如式(13)所示。
其中cf和cb分别是vfr和vbr的可靠性指标,cf和cb的值越低相对应的运动矢量的可靠性就越高。vfc和vbc分别表示在步骤1-2中修正后的前向和后向运动矢量。vfr和vbr分别表示1-3中精化后的前向和后向双向运动矢量。
步骤2:构造生成网络G,将重构帧IE输入到神经网络中并训练,将原始的视频中的对应帧IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果。具体步骤如下:
2-1.构造一个CNN网络G。
在最开始我们将输入图像映射到网络中最后一个卷积层之后,将其与最后的卷积层元素相加,得到最后的输出。因此,接下来的一个卷积层和激活函数层所处理的并不是输入图像,而是原始宏块与输出宏块的残差。在第一个卷积层我们用64个大小为3*3的卷积核,将卷积核的步长设为1,得到了64个特征图.接着在经过激活层后,我们构造了残差板块,板块中含有十六个残差网络结构,每一个结构中有六层,分别是卷积层、批量归一化层、激活函数层、卷积层、批量归一化层、元素相加层,在每一次数据通过一个残差网络结构前,先将数据映射到结构中的元素相加层,将其与之前层拟合的残差进行元素相加。另外进入残差板块之前,我们也进行映射,先将数据映射到板块后的元素相加层,将残差板块拟合的残差经过卷积和归一化之后与之元素相加。然后再将相加后的结果通过卷积,得到16*16*3的卷积层,在这里我们将其与输入图象相加,就得到了输出。
2-2.定义损失函数LG,该函数所得结果是原始帧IR和经过网络处理后的重构帧G(IE)的均方误差,如式(1)所示:
其中m、n分别表示输出帧的长和高,和分别表示未损坏帧在(x,y)点的像素值和经过网络处理后的重构帧在(x,y)点的像素值。
2-3.根据损失函数反向传播误差并调整网络参数θG,这里θG={W1:L;b1:L}表示一层的权重和偏移量,N表示网络中输入的帧数,即:
步骤3:反复执行步骤(1)(2),直至误差变化率不变或小于设定阈值。
步骤4:应用训练好的网络,将经过帧速率上转换的重构帧输入网络,得到高质量的图像。
本发明有益效果如下:
1.在创建重构帧时我们使用了双向运动向量估计并采用了更加可靠的度量方法,使得到的最终运动向量可靠性更高,缓解了帧率上转化中的“遮盖”问题。
2.利用深度残差神经网络提高重构帧的psnr值,提高重构帧的质量,使得帧率上转化效果提高。另外在训练网络时,我们在输入图象和最终图象之间建立了跨层连接,在网络中训练输入图象与输出图象的残差,这样能解决梯度消失问题,加速训练收敛速度,提高训练效果。
附图说明
图1(a)和(b)为运动向量异常值寻找窗口和修正异常值原理图。
图2为运动向量精化过程示意图。
图3为本发明生成神经网络结构示意图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
如图1-3所示,一种利用生成网络提高帧速率上转换效果的方法,具体步骤如下:
步骤1:将原始视频通过JM18.6进行压缩,得到压缩后的视频,然后将压缩后的视频通过保留单数帧,对双数帧进行重构,利用传统的帧速率上转换算法得到双数帧的重构帧。重构帧生成方法如下:
1-1.利用运动估计方法得出最优前向运动矢量vf和最优后向运动矢量vb。即在候选前向运动矢量中找到使得式(1)SADf值最小的矢量并作为最优前向运动矢量,同理在候选后向运动矢量中找到使式(3) SADb值最小的矢量并作为最优后向运动矢量。
上式中SADf和SADb分别表示前后向运动矢量对应像素值的差的绝对值之和(即sums of the absolute differences)。fN-1(S)和fN(S)分别表示前一帧(N-1帧)中点“s”处的像素值,和当前帧(N帧)中点“s”处的像素值,Bi,j表示第i列第j行的块,vc表示候选运动矢量,vf与vb在运动估计方向和参考帧的选取有区别。
1-2.利用双向加权运动矢量平滑化算法找出运动矢量中的异常值并纠正得到vfc和vbc。该算法在运动矢量域中使用一个3*3窗口来寻找异常值,如图1(a)和(b)所示,其中v0是待处理的运动矢量,v1→v8与之相邻。这个窗口会遍历整个矢量域并找到所有的异常值。可以将该方法的原理理解为,将一个窗口中的9个运动矢量映射到直角坐标系中如图1(b)所示,其中vx和vy分别代表运动矢量的x轴和y轴分量,求八个邻近的运动矢量坐标的平均值,得到一个大致位于他们中心的点vm如式(5)所示。接着计算八个邻近的运动矢量到中心点的平均距离Dm如式(6)所示,并以vm作圆心,Dm作半径画圆。若v0与vm之间的距离D0小于Dm则判定v0为正常值不做处理,反之判为异常值并进行纠正操作,即将处在圆内的相邻向量加权平均得到v0c如式(9)所示,并将其代替原来的v0。每个圆内相邻运动矢量的权重与其到v0的距离成反比,如式 (8)所示。
D0=||v0-vm|| (7)
1-3.利用精化算法得到精化后的运动矢量,解决了向量换位导致的残差问题。每个运动矢量的精化过程中利用了双向差分绝对值SBAD (sum of the bidirectionalabsolute differences),该值在式(10) 中得到定义:
其中Bi,j表示第i列第j行的块,vr表示确定的参考运动矢量,寻找使得SBAD值最小的候选前向或后向运动矢量,并将其作为精化后的前向 vfr或后向运动矢量vbr。vfc和vbc表示在步骤1-2中修正后的前向和后向运动矢量。另外,在重构帧上将待处理块加上-vfc或vbc得到在前一帧或后一帧中对应的块,并在其周围创建一个小的搜寻范围命名为Rs,如图2所示。
1-4.在精化后的前后向运动向量中选择SBAD值小的矢量作为最后的运动矢量,如式(13)所示。
其中cf和cb分别是vfr和vbr的可靠性指标,cf和cb的值越低相对应的运动矢量的可靠性就越高。vfc和vbc分别表示在步骤1-2中修正后的前向和后向运动矢量。vfr和vbr分别表示1-3中精化后的前向和后向双向运动矢量。
步骤2:构造生成网络G,将重构帧IE输入到神经网络中并训练,将原始的视频中的对应帧IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果。具体步骤如下:
2-1.构造一个CNN网络G。
在最开始我们将输入图像映射到网络中最后一个卷积层之后,将其与最后的卷积层元素相加,得到最后的输出。因此,接下来的一个卷积层和激活函数层所处理的并不是输入图像,而是原始宏块与输出宏块的残差。在第一个卷积层我们用64个大小为3*3的卷积核,将卷积核的步长设为1,得到了64个特征图.接着在经过激活层后,我们构造了残差板块,板块中含有十六个残差网络结构,每一个结构中有六层,分别是卷积层、批量归一化层、激活函数层、卷积层、批量归一化层、元素相加层,在每一次数据通过一个残差网络结构前,先将数据映射到结构中的元素相加层,将其与之前层拟合的残差进行元素相加。另外进入残差板块之前,我们也进行映射,先将数据映射到板块后的元素相加层,将残差板块拟合的残差经过卷积和归一化之后与之元素相加。然后再将相加后的结果通过卷积,得到16*16*3的卷积层,在这里我们将其与输入图象相加,就得到了输出。
2-2.定义损失函数LG,该函数所得结果是原始帧IR和经过网络处理后的重构帧G(IE)的均方误差,如式(1)所示:
其中m、n分别表示输出帧的长和高,和分别表示未损坏帧在(x,y)点的像素值和经过网络处理后的重构帧在(x,y)点的像素值。
2-3.根据损失函数反向传播误差并调整网络参数θG,这里θG={W1:L;b1:L}表示一层的权重和偏移量,N表示网络中输入的帧数,即:
步骤3:反复执行步骤(1)(2),直至误差变化率不变或小于设定阈值。
步骤4:应用训练好的网络,将经过帧速率上转换的重构帧输入网络,得到高质量的图像。
Claims (4)
1.一种利用生成网络提高帧速率上转换效果的方法,其特征在于包括如下步骤:
步骤1:将原始视频通过JM18.6进行压缩,得到压缩后的视频,然后将压缩后的视频通过保留单数帧,对双数帧进行重构,利用基于方向选择运动估计的帧速率上转换算法得到双数帧的重构帧;
步骤2:构造生成网络G,将重构帧IE输入到神经网络中并训练,将原始的视频中的对应帧IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果;
步骤3:反复执行步骤(1)(2),直至误差变化率不变或小于设定阈值;
步骤4:应用训练好的网络,将经过帧速率上转换的重构帧输入网络,得到高质量的图像。
2.根据权利要求1所述的一种利用生成网络提高帧速率上转换效果的方法,其特征在于步骤1中所述的帧速率上转化算法具体步骤如下:
1-1.利用运动估计方法得出最优前向运动矢量vf和最优后向运动矢量vb;即在候选前向运动矢量中找到使得式(1)SADf值最小的向量并作为最优前向运动向量,同理在候选后向运动矢量中能找到使式(3)SADb值最小的向量并作为最优后向运动矢量;
<mrow>
<msub>
<mi>SAD</mi>
<mi>f</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>&Element;</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</munder>
<mo>|</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>f</mi>
<mi>N</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mi>f</mi>
</msub>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>&Element;</mo>
<mi>R</mi>
</mrow>
</munder>
<mo>{</mo>
<msub>
<mi>SAD</mi>
<mi>f</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>SAD</mi>
<mi>f</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>&Element;</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</munder>
<mo>|</mo>
<msub>
<mi>f</mi>
<mi>N</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mi>b</mi>
</msub>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>&Element;</mo>
<mi>R</mi>
</mrow>
</munder>
<mo>{</mo>
<msub>
<mi>SAD</mi>
<mi>b</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
上式中SADf和SADb分别表示前后向运动矢量估计中的对应像素值的差的绝对值之和;fN-1(S)和fN(S)分别表示前一帧(N-1帧)中点“s”处的像素值,和当前帧(N帧)中点“s”处的像素值,Bi,j表示第i列第j行的块,vc表示候选运动矢量,vf与vb在运动估计方向和参考帧的选取有区别;
1-2.利用双向加权运动矢量平滑化算法找出运动向量中的异常值并纠正得到vfc和vbc;在运动矢量域中使用一个3*3窗口来寻找异常值,其中v0是待处理的向量v1→v8与之相邻,这个窗口会遍历整个矢量域,并找到所有的异常值;将该方法的原理理解为:将一个窗口中的9个运动矢量映射到直角坐标系中,用vx和vy分别代表运动矢量的x轴和y轴分量,求八个邻近的运动矢量坐标的平均值以此得到一个大致位于他们中心的点vm如式(5)所示;接着计算八个邻近的运动矢量到中心点的平均距离Dm,如式(6)所示,并以vm作圆心,Dm作半径画圆;若v0与vm之间的距离D0小于Dm则判定v0为正常值不做处理,反之判为异常值并进行纠正操作,即将处在圆内的邻近的运动矢量加权平均得到v0c如式(9)所示,并将其代替原来的v0;每个圆内相邻向量的权重与其到v0的距离成反比,如式(8)所示;
<mrow>
<msub>
<mi>v</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>8</mn>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>8</mn>
</munderover>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>D</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>8</mn>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>8</mn>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>v</mi>
<mi>m</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
D0=||v0-vm|| (7)
<mrow>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>2</mn>
<mo>,</mo>
<mn>4</mn>
<mo>,</mo>
<mn>5</mn>
<mo>,</mo>
<mn>7</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mfrac>
<mn>1</mn>
<msqrt>
<mn>2</mn>
</msqrt>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>3</mn>
<mo>,</mo>
<mn>6</mn>
<mo>,</mo>
<mn>8</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mn>0</mn>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>i</mi>
<mi>n</mi>
<mi>l</mi>
<mi>i</mi>
<mi>e</mi>
<mi>r</mi>
<mi>s</mi>
</mrow>
</munder>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<mo>&times;</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
</mrow>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>i</mi>
<mi>n</mi>
<mi>l</mi>
<mi>i</mi>
<mi>e</mi>
<mi>r</mi>
<mi>s</mi>
</mrow>
</munder>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
1-3.利用精化算法得到精化后的运动向量,解决了向量换位导致的残差问题;每个运动矢量的精化过程中利用了双向差分绝对值SBAD,该值在式(10)中得到定义:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>S</mi>
<mi>B</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>r</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>&Element;</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</munder>
<mo>|</mo>
<msub>
<mi>f</mi>
<mi>N</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mi>r</mi>
</msub>
<mo>+</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>+</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>R</mi>
<mi>s</mi>
</msub>
</mrow>
</munder>
<mo>{</mo>
<mi>S</mi>
<mi>B</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<mo>-</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>+</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>R</mi>
<mi>s</mi>
</msub>
</mrow>
</munder>
<mo>{</mo>
<mi>S</mi>
<mi>B</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Bi,j表示第i列第j行的块,vr表示确定的参考运动矢量,寻找使得SBAD值最小的候选前向或后向运动矢量,并将其作为精化后的前向运动矢量vfr或后向运动矢量vbr;vfc和vbc表示在步骤1-2中修正后的前向和后向运动矢量;另外,在重构帧上将待处理块加上-vfc或vbc得到在前一帧或后一帧中对应的块,并在其周围创建一个小的搜寻范围命名为Rs;
1-4.在前后向精化后的运动矢量中选择SBAD值小的矢量作为最后的运动矢量,如式(13)所示;
<mrow>
<msub>
<mi>c</mi>
<mi>f</mi>
</msub>
<mo>=</mo>
<mi>S</mi>
<mi>B</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<mo>-</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>c</mi>
<mi>b</mi>
</msub>
<mo>=</mo>
<mi>S</mi>
<mi>B</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mi>f</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<msub>
<mi>c</mi>
<mi>f</mi>
</msub>
<mo><</mo>
<msub>
<mi>c</mi>
<mi>b</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>v</mi>
<mrow>
<mi>b</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>13</mn>
<mo>)</mo>
</mrow>
</mrow>
其中cf和cb分别是vfr和vbr的可靠性指标,cf和cb的值越低相对应的运动矢量的可靠性就越高;vfc和vbc分别表示在步骤1-2中修正后的前向和后向运动矢量;vfr和vbr分别表示在步骤1-3中精化后的前向和后向双向运动矢量。
3.根据权利要求2所述的一种利用生成网络提高帧速率上转换效果的方法,其特征在于步骤2具体步骤如下:
2-1.构造一个CNN网络G;
在最开始将输入图像映射到网络中最后一个卷积层之后,将其与最后的卷积层元素相加,得到最后的输出;因此,接下来的一个卷积层和激活函数层所处理的并不是输入图像,而是原始宏块与输出宏块的残差;在第一个卷积层我们用64个大小为3*3的卷积核,将卷积核的步长设为1,得到了64个特征图;接着在经过激活层后,构造残差板块,板块中含有十六个残差网络结构,每一个结构中有六层,分别是卷积层、批量归一化层、激活函数层、卷积层、批量归一化层、元素相加层,在每一次数据通过一个残差网络结构前,先将数据映射到结构中的元素相加层,将其与之前层拟合的残差进行元素相加;另外进入残差板块之前,先将数据映射到板块后的元素相加层,将残差板块拟合的残差经过卷积和归一化之后与之元素相加;然后再将相加后的结果通过卷积,得到16*16*3的卷积层,在这里将其与输入图象相加,就得到了输出;
2-2.定义损失函数LG,该函数所得结果是原始帧IR和经过网络处理后的重构帧G(IE)的均方误差,如式(14)所示:
<mrow>
<msubsup>
<mi>l</mi>
<mrow>
<mi>M</mi>
<mi>S</mi>
<mi>E</mi>
</mrow>
<mi>G</mi>
</msubsup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mi>m</mi>
<mo>&times;</mo>
<mi>n</mi>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mi>R</mi>
</msubsup>
<mo>-</mo>
<msub>
<mi>G</mi>
<msub>
<mi>&theta;</mi>
<mi>G</mi>
</msub>
</msub>
<msub>
<mrow>
<mo>(</mo>
<msup>
<mi>I</mi>
<mi>E</mi>
</msup>
<mo>)</mo>
</mrow>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>14</mn>
<mo>)</mo>
</mrow>
</mrow>
其中m、n分别表示输出帧的长和高,和分别表示未损坏帧在(x,y)点的像素值和经过网络处理后的重构帧在(x,y)点的像素值;
2-3.根据损失函数反向传播误差并调整网络参数θG,这里θG={W1:L;b1:L}表示一层的权重和偏移量,N表示网络中输入的帧数,即:
<mrow>
<mover>
<msub>
<mi>&theta;</mi>
<mi>G</mi>
</msub>
<mo>^</mo>
</mover>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<msub>
<mi>&theta;</mi>
<mi>G</mi>
</msub>
</munder>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msup>
<mi>l</mi>
<mi>G</mi>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>G</mi>
<msub>
<mi>&theta;</mi>
<mi>G</mi>
</msub>
</msub>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>E</mi>
</msubsup>
<mo>)</mo>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>R</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
4.根据权利要求2所述的一种利用生成网络提高帧速率上转换效果的方法,其特征在于步骤3所述的直至误差变化率不变或小于设定阈值,然后计算PSNR:
<mrow>
<mi>P</mi>
<mi>S</mi>
<mi>N</mi>
<mi>R</mi>
<mo>=</mo>
<mn>10</mn>
<mo>&times;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mo>&lsqb;</mo>
<mfrac>
<msup>
<mn>255</mn>
<mn>2</mn>
</msup>
<mrow>
<mi>M</mi>
<mi>S</mi>
<mi>E</mi>
</mrow>
</mfrac>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>16</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710902237.2A CN107613299A (zh) | 2017-09-29 | 2017-09-29 | 一种利用生成网络提高帧速率上转换效果的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710902237.2A CN107613299A (zh) | 2017-09-29 | 2017-09-29 | 一种利用生成网络提高帧速率上转换效果的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107613299A true CN107613299A (zh) | 2018-01-19 |
Family
ID=61059434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710902237.2A Pending CN107613299A (zh) | 2017-09-29 | 2017-09-29 | 一种利用生成网络提高帧速率上转换效果的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107613299A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068083A (zh) * | 2018-09-10 | 2018-12-21 | 河海大学 | 一种基于正方形的自适应运动矢量场平滑技术 |
CN110351561A (zh) * | 2018-04-03 | 2019-10-18 | 朱政 | 一种用于视频编码优化的高效强化学习训练方法 |
CN110351558A (zh) * | 2018-04-03 | 2019-10-18 | 朱政 | 一种基于强化学习的视频图像编码压缩效率提升方法 |
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111915545A (zh) * | 2020-08-06 | 2020-11-10 | 中北大学 | 一种多波段图像的自监督学习融合方法 |
WO2021104381A1 (en) * | 2019-11-27 | 2021-06-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and device for stylizing video and storage medium |
EP3745347A4 (en) * | 2018-01-26 | 2021-12-15 | BOE Technology Group Co., Ltd. | IMAGE PROCESSING METHOD, PROCESSING APPARATUS AND PROCESSING DEVICE |
US11375152B2 (en) * | 2020-05-20 | 2022-06-28 | Fujitsu Limited | Video frame interpolation apparatus and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103220488A (zh) * | 2013-04-18 | 2013-07-24 | 北京大学 | 一种视频帧率上转换装置及方法 |
CN106210767A (zh) * | 2016-08-11 | 2016-12-07 | 上海交通大学 | 一种智能提升运动流畅性的视频帧率上变换方法及系统 |
CN106686472A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
CN107122826A (zh) * | 2017-05-08 | 2017-09-01 | 京东方科技集团股份有限公司 | 用于卷积神经网络的处理方法和系统、和存储介质 |
-
2017
- 2017-09-29 CN CN201710902237.2A patent/CN107613299A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103220488A (zh) * | 2013-04-18 | 2013-07-24 | 北京大学 | 一种视频帧率上转换装置及方法 |
CN106210767A (zh) * | 2016-08-11 | 2016-12-07 | 上海交通大学 | 一种智能提升运动流畅性的视频帧率上变换方法及系统 |
CN106686472A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
CN107122826A (zh) * | 2017-05-08 | 2017-09-01 | 京东方科技集团股份有限公司 | 用于卷积神经网络的处理方法和系统、和存储介质 |
Non-Patent Citations (4)
Title |
---|
CHRISTIAN LEDIG ET.AL: "Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
DONG GON YOO ET.AL: "Directiona-Select Motion Estimation for Motion-Compensated Frame Rate Up-Conversion", 《JOURNAL OF DISPLAY TECHNOLOGY》 * |
XIANGLING DING ET AL.: "Identification of Motion-Compensated Frame Rate Up-Conversion Based on Residual Signals", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
姜肇海: "基于运动矢量场平滑约束的帧率上转换技术研究", 《中国优秀硕士论文全文数据库信息科技辑》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3745347A4 (en) * | 2018-01-26 | 2021-12-15 | BOE Technology Group Co., Ltd. | IMAGE PROCESSING METHOD, PROCESSING APPARATUS AND PROCESSING DEVICE |
CN110351561A (zh) * | 2018-04-03 | 2019-10-18 | 朱政 | 一种用于视频编码优化的高效强化学习训练方法 |
CN110351558A (zh) * | 2018-04-03 | 2019-10-18 | 朱政 | 一种基于强化学习的视频图像编码压缩效率提升方法 |
CN110351561B (zh) * | 2018-04-03 | 2021-05-07 | 杭州微帧信息科技有限公司 | 一种用于视频编码优化的高效强化学习训练方法 |
CN110351558B (zh) * | 2018-04-03 | 2021-05-25 | 杭州微帧信息科技有限公司 | 一种基于强化学习的视频图像编码压缩效率提升方法 |
CN109068083A (zh) * | 2018-09-10 | 2018-12-21 | 河海大学 | 一种基于正方形的自适应运动矢量场平滑技术 |
CN109068083B (zh) * | 2018-09-10 | 2021-06-01 | 河海大学 | 一种基于正方形的自适应运动矢量场平滑方法 |
WO2021104381A1 (en) * | 2019-11-27 | 2021-06-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and device for stylizing video and storage medium |
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
US11375152B2 (en) * | 2020-05-20 | 2022-06-28 | Fujitsu Limited | Video frame interpolation apparatus and method |
CN111915545A (zh) * | 2020-08-06 | 2020-11-10 | 中北大学 | 一种多波段图像的自监督学习融合方法 |
CN111915545B (zh) * | 2020-08-06 | 2022-07-05 | 中北大学 | 一种多波段图像的自监督学习融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107613299A (zh) | 一种利用生成网络提高帧速率上转换效果的方法 | |
CN109118431B (zh) | 一种基于多记忆及混合损失的视频超分辨率重建方法 | |
CN111739078B (zh) | 一种基于上下文注意力机制的单目无监督深度估计方法 | |
CN106683067B (zh) | 一种基于残差子图像的深度学习超分辨率重建方法 | |
WO2020037965A1 (zh) | 一种用于视频预测的多运动流深度卷积网络模型方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN109767386A (zh) | 一种基于深度学习的快速图像超分辨率重建方法 | |
CN110889895B (zh) | 一种融合单帧重建网络的人脸视频超分辨率重建方法 | |
CN107274347A (zh) | 一种基于深度残差网络的视频超分辨率重建方法 | |
CN104574336B (zh) | 基于自适应亚模字典选择的超分辨率图像重建系统 | |
CN107730451A (zh) | 一种基于深度残差网络的压缩感知重建方法和系统 | |
CN107734333A (zh) | 一种利用生成网络提高视频错误隐藏效果的方法 | |
CN107341776A (zh) | 基于稀疏编码与组合映射的单帧超分辨率重建方法 | |
CN108830790A (zh) | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 | |
CN102902961A (zh) | 基于k近邻稀疏编码均值约束的人脸超分辨率处理方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN110060286B (zh) | 一种单目深度估计方法 | |
CN109035146A (zh) | 一种基于深度学习的低质量图像超分方法 | |
CN111008938A (zh) | 一种基于内容和连续性引导的实时多帧比特增强方法 | |
CN110136067B (zh) | 一种针对超分辨率b超影像的实时影像生成方法 | |
CN106952226A (zh) | 一种f‑msa超分辨率重建方法 | |
CN109118428A (zh) | 一种基于特征增强的图像超分辨率重建方法 | |
CN116934592A (zh) | 一种基于深度学习的图像拼接方法、系统、设备及介质 | |
WO2020001046A1 (zh) | 一种基于自适应层次化运动建模的视频预测方法 | |
CN108460723A (zh) | 基于邻域相似性的双边全变分图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Yan Chenggang Inventor after: Chen Lixin Inventor after: Zhang Yongbing Inventor after: Zhu Aoyu Inventor before: Chen Lixin Inventor before: Yan Chenggang Inventor before: Zhang Yongbing Inventor before: Zhu Aoyu |
|
CB03 | Change of inventor or designer information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180119 |
|
RJ01 | Rejection of invention patent application after publication |