CN110751597B - 基于编码损伤修复的视频超分辨方法 - Google Patents
基于编码损伤修复的视频超分辨方法 Download PDFInfo
- Publication number
- CN110751597B CN110751597B CN201910967743.9A CN201910967743A CN110751597B CN 110751597 B CN110751597 B CN 110751597B CN 201910967743 A CN201910967743 A CN 201910967743A CN 110751597 B CN110751597 B CN 110751597B
- Authority
- CN
- China
- Prior art keywords
- image
- video
- resolution
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000005070 sampling Methods 0.000 claims abstract description 15
- 238000013139 quantization Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000003321 amplification Effects 0.000 abstract description 6
- 238000003199 nucleic acid amplification method Methods 0.000 abstract description 6
- 238000004088 simulation Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明提出了一种基于编码损伤修复的视频超分辨方法,其实现步骤为:构建深度卷积神经网络;生成训练数据集;训练深度卷积神经网络;对视频图像进行下采样;对低分辨率视频进行编解码;对重建视频进行图像超分辨处理。本发明解决了现有视频图像超分辨方法中存在的无法达到实时处理要求、针对图像编码损伤的修复不足与放大尺度不足的问题,增强了网络针对编码损伤的学习能力,提升了图像超分辨的处理范围、处理速度与解码后的视频质量。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及视频图像处理技术领域中的一种基于编码损伤修复的视频超分辨方法。本发明可用于修复视频压缩编解码后低码率视频图像编码损伤进而提升图像分辨率。
背景技术
目前最新的高效视频编码标准HEVC/H.265是一种在传输视频过程中降低视频冗余数据的有效手段,可减少传输压力,适应更为广泛的传输条件。在采用低码率编码视频图像时,编解码后的图像与原始视频图像相比具有视频压缩编码损伤,主观上表征为较明显的图像失真,具体体现为方块效应、振铃效应等视觉失真。且经低码率编码得到的低清晰度视频经放大后,其图像失真也会被放大,主观上图像质量更差。视频图像超分辨技术作为图像的后处理技术,在视频的压缩编码传输应用场景中,可用于低带宽传输条件时低清晰度视频的图像质量增强。作为深度学习网络中的一种,残差卷积神经网络由于具有卷积层和残差连接等结构,能够很好地提取图像特征,可在保留图像细节的前提下完成低清晰度视频图像的编码损伤修复,进而完成视频图像超分辨的功能。
Lai W.S.,Huang J.B.,Ahuja N.等人在其发表的论文“Deep Laplacian PyramidNetworks for Fast and Accurate Super-Resolution”(IEEE Conference on ComputerVision and Pattern Recognition(CVPR),2017:5835-5843.)中公开了一种基于深度学习网络的单张图像超分辨处理办法。该方法使用了基于拉普拉斯金字塔构架的一种残差式卷积神经网络结构,生成原低分辨率图像对应的高分辨率图像。该方法在进行图像超分辨处理时不需要上采样插值操作,并可以提供端到端的渐进式图像超分辨功能。但是,该方法仍然存在的不足之处是:在训练深度神经网络模型时使用的训练集对编码损伤针对不足,且采用的深度神经网络结构庞大,使得该方法不能很好地修复重建图像的视频编码损伤,同时无法达到实时处理的要求。
西安电子科技大学在其申请的专利文献“基于图像重构卷积神经网络的低码率视频编解码方法”(专利申请号:201910182160.5,公开号:CN 110087092 A)中提出了一种基于图像重构卷积神经网络的低码率视频编解码方法。该方法对输入视频通过下采样操作后得到低分辨率的视频,再使用标准x265编解码器对低分辨率视频进行视频编解码,得到解码后的低分辨率视频,将解码后的低分辨率视频输入到训练好的图像重构卷积神经网络,然后得到与输入视频相同分辨率的重构视频。该方法能够解决传统方法中低码率下视频编解码后视频有严重压缩失真的问题,较好地保留图像细节。但是,该方法仍然存在的不足之处是:对输入视频仅进行了一次下采样,所以仅能处理单一放大倍数的视频图像超分辨问题,而不能兼顾同等条件下,多个倍数的图像超分辨问题,即在图像超分辨处理上的尺度不足。
发明内容
本发明的目的在于克服上述现有技术存在的不足,提出了一种基于编码损伤修复的视频超分辨方法,用于解决现有视频图像超分辨方法中存在的无法达到实时处理要求、针对图像编码损伤的修复不足与放大尺度不足的问题。
实现本发明目的的具体思路是:首先获得视频编码图像的损伤特征与视频原始图像的高频信息,然后利用深度学习的方法,完成对目标视频图像的编码损伤和高频信息的估计,可适用于低清晰度视频编码图像的损伤修复与图像超分辨。
实现本发明目的的具体步骤如下:
步骤1,构建深度卷积神经网络:
第一步,搭建一个46层的第一子网络,其结构依次为:第一卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层,每个卷积块由一个第二卷积层与一个ReLU激活层串联组成;
第二步,搭建一个由两个第二反卷积层串联组成的第二子网络;
第三步,将第三卷积层的一端跨接在第一子网络中的ReLU激活层和10个级联的卷积块间,另一段跨接在第二子网络的第二反卷积层和第二反卷积层间,组成深度卷积神经网络;
第四步,设置深度卷积神经网络的各层参数:
将第一、第二、第三卷积层的卷积核均设置为3,输入通道数分别为1、48、48,输出通道数分别为48、48、1,步长均为1;
将第一和第二反卷积层的卷积核均设置为4,输入通道数分别为48、1,输出通道数分别为48、1,步长均为2;
步骤2,生成训练数据集:
随机选取至少700幅高清自然图像,每幅图像的长至少为1280像素,宽至少为720像素,且长和宽分别为8的倍数;将所选的每幅图像转换成YUV420p数据格式图像;对每幅转换格式后的YUV420p数据格式图像进行2倍下采样,得到多幅中分辨率图像;对每幅YUV420p数据格式图像进行4倍下采样,得到多幅低分辨率图像;
将每幅低分辨率图像输入到视频编码器中进行编码,得到编码后的图像编码码流;将编码后的图像编码码流输入到解码器中进行解码,得到多幅解码后的低分辨率重建图像;
将所有YUV420p数据格式图像、中分辨率图像、低分辨率重建图像构成一个训练集;
步骤3,训练深度卷积神经网络:
初始化深度卷积神经网络,将训练集输入到深度卷积神经网络中,在网络中遍历训练集,采用随机梯度下降法,对深度卷积神经网络的参数进行迭代更新,直到图像损失loss值的均值收敛后终止迭代,得到训练好的深度卷积神经网络;
步骤4,对视频图像进行下采样:
依次从输入的由多幅高分辨图像序列组成的视频中提取一幅未选择过的图像;
对所提取的每一幅图像进行4倍下采样,将所有下采样后的低分辨率视频图像依序组成一个低分辨率视频;
步骤5,对低分辨率视频进行编解码:
将低分辨率视频输入到编码器中进行编码,得到编码后的视频码流;
将编码后视频码流输入到解码器中进行解码,得到解码后的重建视频;
步骤6,对重建视频进行图像超分辨处理:
依次从解码后的重建视频中提取一幅未选择过的图像;将所提取的每一幅图像输入训练好的深度卷积神经网络中,将所有图像分别经一次2倍放大和两次2倍放大后得到的中分辨率视频图像与高分辨率视频图像依序组成一个中分辨率视频和一个高分辨率视频,输出两个视频。
与现有技术相比本发明有以下优点:
第一,由于本发明构建并训练了由46层的第一子网络、2层的第二子网络和2层的跨接捷径组成的深度卷积神经网络,扩展了网络图像超分辨处理的尺度结构并调整了网络的通道数,克服了现有技术在图像超分辨处理上尺度不足和无法达到实时处理的要求的问题,使得本发明提升了图像超分辨的处理范围和处理速度。
第二,由于本发明利用生成的训练集训练了深度卷积神经网络,针对视频图像特有的编码损伤生成数据集,克服了现有技术网络使用的训练集对视频编码损伤针对不足,导致网络不能很好地修复重建图像的视频编码损伤的问题,使得本发明能够增强网络针对编码损伤的学习能力,提升解码后的视频质量。
附图说明
图1是本发明的流程图;
图2是本发明的深度卷积网络的结构图;
图3是本发明的仿真图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,对本发明实现的具体步骤做进一步的详细描述。
步骤1,构建深度卷积神经网络。
第一步,搭建一个46层的第一子网络,其结构依次为:第一卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层,每个卷积块由一个第二卷积层与一个ReLU激活层串联组成。
第二步,搭建一个由两个第二反卷积层串联组成的第二子网络。
第三步,将第三卷积层的一端跨接在第一子网络中的ReLU激活层和10个级联的卷积块间,另一段跨接在第二子网络的第二反卷积层和第二反卷积层间,组成深度卷积神经网络。
参照图2对所搭建的深度卷积神经网络的结构做进一步的描述:图2中的1表示第一卷积层,2表示ReLU激活层,3表示10个级联的卷积块,4表示第一反卷积层,5表示第二反卷积层,6表示第三卷积层。
第四步,设置深度卷积神经网络的各层参数。
将第一、第二、第三卷积层的卷积核均设置为3,输入通道数分别为1、48、48,输出通道数分别为48、48、1,步长均为1。
将第一和第二反卷积层的卷积核均设置为4,输入通道数分别为48、1,输出通道数分别为48、1,步长均为2。
步骤2,生成训练数据集。
选取DIV2K数据集中训练类别的800幅高清自然图像,每幅图像均为2K分辨率。YUV颜色编码将亮度信息Y与色度信息U和V分离,利用人眼对亮度的敏感超过色度的特征,将图像特征集中在Y分量,在对深度卷积神经网络进行训练时可仅对视频图像的Y分量进行训练,所以将所选的每幅图像转换成YUV420p数据格式图像;对每幅转换格式后的YUV420p数据格式图像进行2倍下采样,得到多幅中分辨率图像;对每幅YUV420p数据格式图像进行4倍下采样,得到多幅低分辨率图像。
将每幅低分辨率图像输入到视频编码器中进行编码,得到编码后的图像编码码流;将编码后的图像编码码流输入到解码器中进行解码,得到多幅解码后的低分辨率重建图像。
所述编码方法如下:
根据目前最新的高效视频编码标准,利用x265编码器,采用固定量化参数QP对每幅低分辨率图像进行帧内预测编码,其量化参数QP取值范围为[0,51]。
将所有YUV420p数据格式图像、中分辨率图像、低分辨率重建图像构成一个训练集。
步骤3,训练深度卷积神经网络。
初始化深度卷积神经网络,将训练集输入到深度卷积神经网络中,在网络中正向遍历训练集,采用随机梯度下降法,对深度卷积神经网络的参数进行迭代更新,直到图像损失loss值的均值收敛后终止迭代,得到训练好的深度卷积神经网络。
所述正向遍历训练集方法如下:
参照图2,总输入分别输入1和2,前端的5与6的输出采取相加操作后传入末端的5,末端的5与6的输出采取相加操作后作为网络总输出。
所述迭代更新深度卷积网络参数的方法如下:
第一步,将深度卷积神经网络的参数均初始化为高斯随机数,所述高斯随机数的均值为0,方差为1。
第二步,按照下式,计算所有图像损失loss值的均值:
其中,表示所有视频图像损失值的均值,表示深度卷积神经网络生成的所有中分辨率、高分辨率视频图像,y表示所有上述图像对应的训练集中的标签图像,∑表示求和操作,θ表示深度卷积神经网络中需要被迭代更新的参数,N表示批处理的大小,为Charbonnier惩罚函数,表示深度卷积神经网络生成的第i幅被放大s次的图像,s=1与s=2时分别生成中分辨率与高分辨率视频图像,表示与上述图像对应的训练集中的标签图像。
第三步,按照下式,更新深度卷积神经网络中的每一个参数值,直至图像损失loss值的均值收敛:
步骤4,对视频图像进行下采样。
依次从输入的由多幅高分辨图像序列组成的测试视频中提取一幅未选择过的图像;
对所提取的每一幅图像进行4倍下采样,将所有下采样后的低分辨率视频图像依序组成一个低分辨率视频。
步骤5,对低分辨率视频进行编解码。
将低分辨率视频输入到编码器中进行编码,得到编码后的视频码流。
将编码后视频码流输入到解码器中进行解码,得到解码后的重建视频。
所述编码方法如下:
利用x265编码器,采用与步骤2中相同的量化参数QP值对低分辨率视频进行帧内预测编码。
步骤6,对重建视频进行图像超分辨处理。
依次从解码后的重建视频中提取一幅未选择过的图像;将所提取的每一幅图像输入训练好的深度卷积神经网络中,将所有图像分别经一次2倍放大和两次2倍放大后得到的中分辨率视频图像与高分辨率视频图像依序组成一个中分辨率视频和一个高分辨率视频,输出两个视频。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel i7-7280 CPU,主频为3.60GHz,内存16GB。显卡为Nvidia GeForce 2080Ti GPU,显存为11GB。
本发明的仿真实验的软件平台为:Windows 10操作系统,Python3.6,Tensorflow1.14以及x265编码器。
本发明仿真实验所使用用以制作训练集的图像数据集为DIV2K的高清晰度自然图像,该数据集为2017年NTIRE图像超分辨竞赛公布所公布的数据集,涵盖具有丰富的自然纹理信息的1000张2K分辨率图片,均为RGB格式。选取其中已公开的800张训练类别图片。
本发明仿真实验所采用的测试序列为ITU-T视频编码专家组提供的HEVC测试序列中的B类的Kimono,其分辨率为1920×1080,编码器采用的量化参数QP取27。
2.仿真内容及其结果分析:
本发明仿真实验采用本发明和一个现有技术(H.265/HEVC视频编码方法),先利用现有技术对输入的下采样过后的视频进行编解码处理,再利用本发明中训练好的深度卷积神经网络,对编解码后的视频进行视频图像超分辨处理,获得2倍超分辨和4倍超分辨的放大结果。
在仿真实验中,采用的一个现有技术是指:
现有技术H.265/HEVC视频编码方法是指,Wien,Mathias在《High EfficiencyVideo Coding》(2015,10.1007/978-3-662-44276-0.)一书中公开的基于新一代高效视频编码国际标准的编码方法,简称H.265/HEVC视频编码方法。
下面结合图3的仿真图对本发明的效果做进一步的描述:
图3(a)为Kimono测试视频中提取的第1帧图像经4倍下采样并利用现有技术编码后的低清重建图像,其大小为540×270个像素,图3(b)和图3(c)分别为利用本发明的方法对低清重建图像进行2倍放大和4倍放大的结果图,其大小分别为960×540和1920×1080个像素。
由图3(a)、图3(b)和图3(c)可以看出,图像由于下采样和编码操作导致的块效应明显减轻,部分图像细节纹理得到恢复,且图像较为平滑。
利用目前通常采用的峰值信噪比PSNR值作为客观评价指标对本发明的图像超分辨处理效果进行评价。利用下述公式,分别计算本发明的仿真实验中PSNR值,包括网络输出的2倍放大图像与第1帧图像经2倍下采样后再用x265编解码的图像的PSNR值,和网络输出的4倍放大图像与第1帧利用x265进行编解码的图像的PSNR值:
其中,In为第一幅图像的第n个像素值,Pn为第二幅图像的第n个像素值。
结合PSNR值的计算结果和图3可以看出,在2倍放大和4倍放大的条件下,相比较于x265编码的结果,PSNR值和主观评价分别有所提升,计算结果PSNR值越高说明图像质量越相近,图像的质量越高,证明本发明可以得到质量更好的编解码后的视频图像。
以上仿真实验表明:本发明方法利用搭建的深度卷积神经网络,能够学习到视频图像编码损伤,并有针对性地对低分辨率重建进行编码损伤修复和图像超分辨处理,结合网络所提取到高清晰度图像的细节特征,显著地改善了由于视频图像编码损伤导致的图像失真,主观和客观上均提升了图像质量,解决了现有技术方法中仅利用高清晰度图像的细节特征,导致不能良好地修复视频编码损伤的问题。同时,本发明也进一步提升了图像超分辨处理的速度,是一种非常实用的视频图像超分辨方法。
Claims (3)
1.一种基于编码损伤修复的视频超分辨方法,其特征在于,通过构建深度卷积神经网络,生成训练集并训练,用于对低码率低清晰度视频图像进行图像超分辨率处理,该方法的具体步骤包括如下:
步骤1,构建深度卷积神经网络:
第一步,搭建一个46层的第一子网络,其结构依次为:第一卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层→10个级联的卷积块→第一反卷积层→ReLU激活层,每个卷积块由一个第二卷积层与一个ReLU激活层串联组成;
第二步,搭建一个由两个第二反卷积层串联组成的第二子网络;
第三步,将第三卷积层的一端跨接在第一子网络中的ReLU激活层和10个级联的卷积块间,另一段跨接在第二子网络的第二反卷积层和第二反卷积层间,组成深度卷积神经网络;
第四步,设置深度卷积神经网络的各层参数:
将第一、第二、第三卷积层的卷积核均设置为3,输入通道数分别为1、48、48,输出通道数分别为48、48、1,步长均为1;
将第一和第二反卷积层的卷积核均设置为4,输入通道数分别为48、1,输出通道数分别为48、1,步长均为2;
步骤2,生成训练数据集:
随机选取至少700幅高清自然图像,每幅图像的长至少为1280像素,宽至少为720像素,且长和宽分别为8的倍数;将所选的每幅图像转换成YUV420p数据格式图像;对每幅转换格式后的YUV420p数据格式图像进行2倍下采样,得到多幅中分辨率图像;对每幅YUV420p数据格式图像进行4倍下采样,得到多幅低分辨率图像;
将每幅低分辨率图像输入到视频编码器中进行编码,得到编码后的图像编码码流;将编码后的图像编码码流输入到解码器中进行解码,得到多幅解码后的低分辨率重建图像;
将所有YUV420p数据格式图像、中分辨率图像、低分辨率重建图像构成一个训练集;
步骤3,训练深度卷积神经网络:
初始化深度卷积神经网络,将训练集输入到深度卷积神经网络中,在网络中遍历训练集,采用随机梯度下降法,对深度卷积神经网络的参数进行迭代更新,直到图像损失loss值的均值收敛后终止迭代,得到训练好的深度卷积神经网络;
步骤4,对视频图像进行下采样:
依次从输入的由多幅高分辨图像序列组成的视频中提取一幅未选择过的图像;
对所提取的每一幅图像进行4倍下采样,将所有下采样后的低分辨率视频图像依序组成一个低分辨率视频;
步骤5,对低分辨率视频进行编解码:
将低分辨率视频输入到编码器中进行编码,得到编码后的视频码流;
将编码后视频码流输入到解码器中进行解码,得到解码后的重建视频;
步骤6,对重建视频进行图像超分辨处理:
依次从解码后的重建视频中提取一幅未选择过的图像;将所提取的每一幅图像输入训练好的深度卷积神经网络中,将所有图像分别经一次2倍放大和两次2倍放大后得到的中分辨率视频图像与高分辨率视频图像依序组成一个中分辨率视频和一个高分辨率视频,输出两个视频。
2.根据权利要求1所述的基于编码损伤修复的视频超分辨方法,其特征在于,步骤2和步骤5中所述编码方法如下:
采用固定量化参数QP对步骤2中的每幅低分辨率图像进行帧内预测编码,其量化参数QP取值范围为[0,51];
采用与上述相同的量化参数QP值对步骤5中的低分辨率视频进行帧内预测编码。
3.根据权利要求1所述的基于编码损伤修复的视频超分辨方法,其特征在于,步骤3中所述迭代更新深度卷积神经网络参数的方法如下:
第一步,将深度卷积神经网络的参数均初始化为高斯随机数,所述高斯随机数的均值为0,方差为1。
第二步,按照下式,计算所有图像损失loss值的均值:
其中,表示所有视频图像损失值的均值,表示深度卷积神经网络生成的所有中分辨率、高分辨率视频图像,y表示所有上述图像对应的训练集中的标签图像,∑表示求和操作,θ表示深度卷积神经网络中需要被迭代更新的参数,N表示批处理的大小,为Charbonnier惩罚函数,表示深度卷积神经网络生成的第i幅被放大s次的图像,s=1与s=2时分别生成中分辨率与高分辨率视频图像,表示与上述图像对应的训练集中的标签图像;
第三步,按照下式,更新深度卷积神经网络中的每一个参数值,直至图像损失loss值的均值收敛:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910967743.9A CN110751597B (zh) | 2019-10-12 | 2019-10-12 | 基于编码损伤修复的视频超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910967743.9A CN110751597B (zh) | 2019-10-12 | 2019-10-12 | 基于编码损伤修复的视频超分辨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751597A CN110751597A (zh) | 2020-02-04 |
CN110751597B true CN110751597B (zh) | 2023-03-28 |
Family
ID=69278157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910967743.9A Active CN110751597B (zh) | 2019-10-12 | 2019-10-12 | 基于编码损伤修复的视频超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751597B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4107692A4 (en) * | 2020-02-17 | 2023-11-29 | INTEL Corporation | SUPER-RESOLUTION USING A CONVOLUTIONAL NEURAL NETWORK |
CN111784571A (zh) * | 2020-04-13 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 一种提高图像分辨率的方法、装置 |
CN113920010A (zh) * | 2020-07-10 | 2022-01-11 | 华为技术有限公司 | 图像帧的超分辨率实现方法和装置 |
CN112019846A (zh) * | 2020-07-26 | 2020-12-01 | 杭州皮克皮克科技有限公司 | 基于深度学习的自适应编码方法及系统、设备、介质 |
CN112261415B (zh) * | 2020-10-23 | 2022-04-08 | 青海民族大学 | 基于过拟合卷积自编码网络的图像压缩编码方法 |
CN112565628B (zh) * | 2020-12-01 | 2022-03-29 | 合肥工业大学 | 一种卡通视频重制方法及系统 |
US20220398696A1 (en) * | 2020-12-24 | 2022-12-15 | Boe Technology Group Co., Ltd. | Image processing method and device, and computer-readable storage medium |
CN113313776B (zh) * | 2021-05-27 | 2024-07-05 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
CN113724136B (zh) * | 2021-09-06 | 2024-09-06 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种视频修复方法、设备及介质 |
CN115409716B (zh) * | 2022-11-01 | 2023-02-07 | 杭州网易智企科技有限公司 | 视频处理方法、装置、存储介质及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11676247B2 (en) * | 2017-07-31 | 2023-06-13 | Institut Pasteur | Method, device, and computer program for improving the reconstruction of dense super-resolution images from diffraction-limited images acquired by single molecule localization microscopy |
CN108961186B (zh) * | 2018-06-29 | 2022-02-15 | 福建帝视信息科技有限公司 | 一种基于深度学习的老旧影片修复重制方法 |
CN110087092B (zh) * | 2019-03-11 | 2020-06-05 | 西安电子科技大学 | 基于图像重构卷积神经网络的低码率视频编解码方法 |
CN110288537A (zh) * | 2019-05-20 | 2019-09-27 | 湖南大学 | 基于自注意力的深度生成式对抗网络的人脸图像补全方法 |
-
2019
- 2019-10-12 CN CN201910967743.9A patent/CN110751597B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110751597A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751597B (zh) | 基于编码损伤修复的视频超分辨方法 | |
CN110087092B (zh) | 基于图像重构卷积神经网络的低码率视频编解码方法 | |
CN107018422B (zh) | 基于深度卷积神经网络的静止图像压缩方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN107463989B (zh) | 一种基于深度学习的图像去压缩伪影方法 | |
CN108830790B (zh) | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 | |
CN110290387A (zh) | 一种基于生成模型的图像压缩方法 | |
CN108900848A (zh) | 一种基于自适应可分离卷积的视频质量增强方法 | |
CN112381866B (zh) | 一种基于注意力机制的视频比特增强方法 | |
CN109903351B (zh) | 基于卷积神经网络和传统编码相结合的图像压缩方法 | |
CN109949217B (zh) | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 | |
CN113066022B (zh) | 一种基于高效时空信息融合的视频比特增强方法 | |
CN111031315B (zh) | 基于注意力机制和时间依赖性的压缩视频质量增强方法 | |
CN109361919A (zh) | 一种联合超分辨率和去压缩效应的图像编码性能提升方法 | |
Maleki et al. | Blockcnn: A deep network for artifact removal and image compression | |
CN109922339A (zh) | 结合多采样率下采样和超分辨率重建技术的图像编码框架 | |
CN114757828A (zh) | 基于Transformer的视频时空超分辨率方法 | |
CN114202463B (zh) | 面向云端融合的视频超分辨率方法及系统 | |
Mali et al. | Neural JPEG: End-to-end image compression leveraging a standard JPEG encoder-decoder | |
CN115442613A (zh) | 一种利用gan的基于帧间信息的噪声去除方法 | |
CN116485651A (zh) | 一种图像超分辨率重建方法 | |
CN113691817B (zh) | 一种跨帧信息融合的屏幕内容视频质量增强方法 | |
CN115665413A (zh) | 图像压缩最优量化参数的估计方法 | |
CN112261415B (zh) | 基于过拟合卷积自编码网络的图像压缩编码方法 | |
Yang et al. | Graph-convolution network for image compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |