CN110930327A - 基于级联深度残差网络的视频去噪方法 - Google Patents

基于级联深度残差网络的视频去噪方法 Download PDF

Info

Publication number
CN110930327A
CN110930327A CN201911127489.8A CN201911127489A CN110930327A CN 110930327 A CN110930327 A CN 110930327A CN 201911127489 A CN201911127489 A CN 201911127489A CN 110930327 A CN110930327 A CN 110930327A
Authority
CN
China
Prior art keywords
input
image
conv
residual error
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911127489.8A
Other languages
English (en)
Other versions
CN110930327B (zh
Inventor
陈卫刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN201911127489.8A priority Critical patent/CN110930327B/zh
Publication of CN110930327A publication Critical patent/CN110930327A/zh
Application granted granted Critical
Publication of CN110930327B publication Critical patent/CN110930327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于级联深度残差网络的视频去噪方法,该方法可处理亮度或色度分量,以多帧图像为输入,采用两个级联的深度残差网络抑制视频噪声。两个深度残差网络具有相同的结构,按输入样本前向传播时的数据流向,该方法的每级深度残差网络结构依次为输入模块,残差模块和融合模块。对第一级深度残差网络和第二级深度残差网络训练完成后,得到视频图像去噪的模型,将图像序列输入到视频图像去噪模型可对视频进行去燥处理,提高视频图像质量,将其作为编码器的预处理步骤,可有效的提高编码器的性能;或将其作为目标检测器的预处理步骤,则能有效的提高检测器的准确率,降低误检率。

Description

基于级联深度残差网络的视频去噪方法
技术领域
本发明涉及计算机视觉领域,特别涉及一种基于级联深度残差网络的视频去噪方法。
背景技术
视频监控系统的摄像机在视频采集过程中会引入各种类型的噪声,视频噪声不仅会降低视觉意义上的图像质量,而且会对后续视频编码系统施加很大的压力。从叠加了噪声的视频信号中去除或者抑制噪声信号,恢复出未受噪声污染的理想视频信号,对于HEVC、H.264等编码系统和目标检测、跟踪、识别系统而言具有重要意义。所以,视频噪声去除或者抑制一直受到学术界和产业界的广泛关注。
近年来,随着深度学习在基于图像的目标检测、识别、超分辨率分析等各个领域取得极大的成功,启发了人们将其应用于图像去噪,文献“Beyond a Gaussian Denoiser:Residual Learning of Deep CNN for Image Denoising”(Zhang Kai et al,IEEETransactions on Image Processing,2017.6)提出了一种用于单帧图像去噪的卷积神经网络模型:DnCNN,针对加性高斯噪声训练权值参数。中国专利201610729038.1提供了的基于深度递归神经网络的视频去噪模型包含两层递归神经网络,分别获取初级和高级特征,最后由输出层解码重构这些特征输出估计所得的去噪视频。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提供一种基于级联深度残差网络的视频去噪方法。
本发明具体采用的技术方案如下:一种基于级联深度残差网络的视频去噪方法,包括以下步骤:
(1)获取待去噪的视频,设待去噪的视频中的第t帧图像为It,得到图像序列{It-K,…,It,…,It+K},其中It-i和It+i分别为位于t时刻之前和之后,与第t帧图像相隔i帧的图像,K可取值为1、2或3;
(2)构建第一级和第二级深度残差网络;第一级和第二级深度残差网络具有相同的网络结构,第一级和第二级深度残差网络均包括输入模块、残差模块和融合模块;所述输入模块包括一个卷积层,该卷积层具有Ninput个3×3×(2K+1)大小的卷积核;所述残差模块包含Nblock个残差块,每个残差块中包含卷积层Conv_k01、PReLU层和卷积层Conv_k02;所述融合模块包含卷积层Conv_B01、卷积层Conv_B02和卷积层Conv_B03;
(3)将步骤(1)中的图像序列输入到第一级深度残差网络,图像序列中的每幅图像被当作一个二维矩阵,依次排列这些矩阵形成一个三阶张量,与输入模块中的Ninput个卷积核进行步长为1的卷积运算,产生包含Ninput个通道的特征图,输入到残差模块中;
(4)残差模块中的第一残差块的输入为输入模块输出的特征图,除第一残差块之外的任意第k个残差块以第k-1个残差块的输出为输入,设某个残差块的输入为x,前向传播时的数据流向依次为卷积层Conv_k01、PReLU层、卷积层Conv_k02,通过卷积层Conv_k01、PReLU层和卷积层Conv_k02将输入x映射为F(x),最后以F(x)和输入x之和F(x)+x作为残差块的输出;
(5)融合模块有两个输入,其中的一个来自残差模块的输出,将其输入到融合模块的卷积层Conv_B01,经卷积运算后产生一个包含4Dout个通道的特征图,其中Dout为输出图像的通道数目;融合模块的另一个输入来自于步骤(3)中依次排列输入图像对应的矩阵所形成的三阶张量,将其输入到融合模块的卷积层Conv_B02,经卷积运算后产生一个包含4Dout个通道的特征图;
(6)将融合模块的卷积层Conv_B01和Conv_B02的输出经像素重排,将特征图变换成长宽方向分别为输入图像长和宽的2倍,通道数等于输出图像通道数目的特征图;
(7)将融合模块两个经像素重排后的特征图进行加运算,运算结果作为卷积层Conv_B03的输入,经步长为2的卷积运算后得到第一级深度残差网络的输出结果为图像序列
Figure BDA0002277303730000021
其中与第t帧图像It对应的输出结果为
Figure BDA0002277303730000022
(8)将第一级深度残差网络输出的结果图像序列作为第二级深度残差网络中输入模块的输入,重复步骤(3)-(7)的过程,输出最终的结果图像。
进一步地,所述第一级深度残差网络各个层次的参数以学习的方式确定,包括如下步骤:
步骤a、准备训练样本:采集用于训练的视频,设f是其中的一帧图像,按下式叠加幅度值符合高斯分布、泊松分布或者均匀分布的噪声信号z,形成包含噪声的图像g:
g=f+z
分别对原始视频中的图像和对应的加噪后的图像依次标号,形成参考图像序列和对应的含噪图像序列,作为训练样本集;
训练样本集中的一个样本可表示为(ui,vi),若vi∈RM×N为来自参考图像序列的第t帧ft的图像块,且左上角点位于像素(m,n),图像块大小为M×N,则ui∈RM×N×(2K+1)是一个由2K+1个图像块组成的三阶张量,其中的第1、2、...、2K+1个图像块依次来自含噪图像序列g的第t-K、t-K+1、...、t+K帧,K取值为1、2或3,每个图像块的大小均为M×N,左上角点坐标位于各自对应图像的像素(m,n)位置;
步骤b、初始化参数:第一级深度残差网络中的所有卷积层,其参数被初始化为符合均值为0,标准差为
Figure BDA0002277303730000031
的正态分布,其中nl为卷积层中卷积核的数目;PReLU层的参数被初始化为0;
步骤c、训练:批量加载训练样本集中的样本,对每个训练样本(ui,vi)按下式计算损失函数:
Figure BDA0002277303730000032
其中M和N是训练样本集中图像的高和宽,
Figure BDA0002277303730000033
是与输入ui对应的输出;
以最小化所有训练样本的损失函数累加和为目标,以Adam优化算法更新深度残差网络各层的权值,学习率的初始值可置为0.005~0.01之间的值,以分段下降的方式调整学习率,具体地,将总的训练周期数分为四个阶段,后一个阶段的学习率等于前一个阶段的学习率的三分之一。
进一步地,第一级深度残差网络的训练完成以后,再进行第二级深度残差网络的训练;
用与第一级深度残差网络相同的方式形成参考图像序列f和含噪图像序列g,对于含噪图像序列g中的任一帧图像gk由训练所得的第一级深度残差网络输出对应的去噪后图像
Figure BDA0002277303730000034
替换,从而获得去噪图像序列
Figure BDA0002277303730000035
将去噪图像序列
Figure BDA0002277303730000036
和参考图像序列f作为第二级深度残差网络训练样本集;并采用与训练第一级深度残差网络相同的方法训练第二级深度残差网络。
进一步地,所述的输入模块中卷积核的数量Ninput可取值32。
进一步地,所述的残差模块中残差块的数量Nblock可取介于8到16之间的整数;所述第k个残差块中的卷积层Conv_k01具有4倍于卷积层Conv_k02的卷积核数量,Conv_k01的卷积核数目可取为128,Conv_k02的卷积核数目可取为32;Conv_k01的卷积核大小为3×3×C1,Conv_k02的卷积核大小为3×3×C2,C1和C2分别为输入到对应卷积层的特征图的通道数目;为了保证去噪后图像具有与输入图像相同的尺寸,残差模块中的所有卷积层的卷积步长为1。
进一步地,所述融合模块中的卷积层Conv_B01的卷积核大小为3×3×C3,Conv_B02的卷积核大小为3×3×C4,C3和C4分别为输入到对应卷积层的特征图的通道数目,为了保证去噪后图像具有与输入图像相同的尺寸,两个卷积层的卷积步长都为1。
进一步地,所述融合模块中的卷积层Conv_B01和Conv_B02的输出经像素重排,将特征图变换成长宽方向分别为输入图像长和宽的2倍,通道数等于输出图像通道数目的特征图,具体为:设输出图像的通道数为Dout,卷积层Conv_B01和Conv_B02分别输出一个通道数目为4Dout、大小为H×W的特征图,依次取这些通道(m,n)位置的值形成一个2×2×Dout的三阶张量,将其置于(2m,2n)位置,将形成一个大小为2H×2W,通道数为Dout的输出特征图。
进一步地,所述输入和输出图像,可为视频图像的亮度分量、红色或蓝色色度分量。
本发明的有益效果:本发明采用级联的两个深度残差网络能够有效的对视频图像的噪声去除或抑制,提高视频图像质量,将其作为编码器的预处理步骤,可有效的提高编码器的性能;或将其作为目标检测器的预处理步骤,则能有效的提高检测器的准确率,降低误检率。
附图说明
图1为本发明级联深度残差网络结构示意图;
图2为残差块网络结构示意图;
图3为融合模块示意图;
图4为像素重排上采样示意图;
图5为应用本发明级联深度残差网络进行视频去噪的结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步阐述,以便本领域技术人员更好地理解本发明的实质。
如图1所示,本发明提供的一种基于级联深度残差网络的视频去噪方法,包括以下步骤:
(1)获取待去噪的视频图像,设待去噪的视频中的第t帧图像为It,得到图像序列{It-K,…,It,…,It+K},其中It-i和It+i分别为位于t时刻之前和之后,与第t帧图像相隔i帧的图像,K可取值为1、2或3;
(2)构建第一级和第二级深度残差网络;第一级和第二级深度残差网络具有相同的网络结构,第一级和第二级深度残差网络均包括输入模块、残差模块和融合模块;所述输入模块包括一个卷积层,该卷积层具有Ninput个3×3×(2K+1)大小的卷积核;所述残差模块包含Nblock个依次相连的残差块,残差块的数量Nblock可取介于8到16之间的整数,每个残差块中包含卷积层Conv_k01、PReLU层和卷积层Conv_k02;所述融合模块包含卷积层Conv_B01、卷积层Conv_B02和卷积层Conv_B03;
(3)所述第一级深度残差网络各个层次的参数以学习的方式确定,包括如下步骤:
步骤a、准备训练样本:采集用于训练的视频,设f是其中的一帧图像,按下式叠加幅度值符合高斯分布、泊松分布或者均匀分布的噪声信号z,形成包含噪声的图像g:
g=f+z
分别对原始视频中的图像和对应的加噪后的图像依次标号,形成参考图像序列和对应的含噪图像序列,作为训练样本集;
训练样本集中的一个样本可表示为(ui,vi),若vi∈RM×N为来自参考图像序列的第t帧ft的图像块,且左上角点位于像素(m,n),图像块大小为M×N,则ui∈RM×N×(2K+1)是一个由2K+1个图像块组成的三阶张量,其中的第1、2、...、2K+1个图像块依次来自含噪图像序列g的第t-K、t-K+1、...、t+K帧,K取值为1、2或3,每个图像块的大小均为M×N,左上角点坐标位于各自对应图像的像素(m,n)位置;
步骤b、初始化参数:第一级深度残差网络中的所有卷积层,其参数被初始化为符合均值为0,标准差为
Figure BDA0002277303730000051
的正态分布,其中nl为卷积层中卷积核的数目;PReLU层的参数被初始化为0;
步骤c、训练:批量加载训练样本集中的样本,对每个训练样本(ui,vi)按下式计算损失函数:
Figure BDA0002277303730000052
其中M和N是训练样本集中图像的高和宽,
Figure BDA0002277303730000053
是与输入ui对应的输出;
以最小化所有训练样本的损失函数累加和为目标,以Adam优化算法更新深度残差网络各层的权值,学习率的初始值可置为0.005~0.01之间的值,以分段下降的方式调整学习率,具体地,将总的训练周期数分为四个阶段,后一个阶段的学习率等于前一个阶段的学习率的三分之一。
(4)第一级深度残差网络的训练完成以后,再进行第二级深度残差网络的训练;
用与第一级深度残差网络相同的方式形成参考图像序列f和含噪图像序列g,对于含噪图像序列g中的任一帧图像gk由训练所得的第一级深度残差网络输出对应的去噪后图像
Figure BDA0002277303730000054
替换,从而获得去噪图像序列
Figure BDA0002277303730000055
将去噪图像序列
Figure BDA0002277303730000056
和参考图像序列f作为第二级深度残差网络训练样本集;并采用与训练第一级深度残差网络相同的方法训练第二级深度残差网络。
(5)将步骤(1)中的图像序列输入到第一级深度残差网络,图像序列中的每幅图像被当作一个二维矩阵,依次排列这些矩阵形成一个三阶张量,与输入模块中的Ninput个卷积核进行步长为1的卷积运算,产生包含Ninput个通道的特征图,输入到残差模块中;所述的输入模块中卷积核的数量Ninput可取值32。
(6)残差模块中的第一残差块的输入为输入模块输出的特征图,除第一残差块之外的任意第k个残差块以第k-1个残差块的输出为输入,如图2所示,设某个残差块的输入为x,前向传播时的数据流向依次为卷积层Conv_k01、PReLU层、卷积层Conv_k02,通过卷积层Conv_k01、PReLU层和卷积层Conv_k02将输入x映射为F(x),最后以F(x)和输入x之和F(x)+x作为残差块的输出;所述第k个残差块中的卷积层Conv_k01具有4倍于卷积层Conv_k02的卷积核数量,Conv_k01的卷积核数目可取为128,Conv_k02的卷积核数目可取为32;Conv_k01的卷积核大小为3×3×C1,Conv_k02的卷积核大小为3×3×C2,C1和C2分别为输入到对应卷积层的特征图的通道数目;为了保证去噪后图像具有与输入图像相同的尺寸,残差模块中的所有卷积层的卷积步长为1。
(7)如图3所示,融合模块有两个输入,其中的一个来自残差模块的输出,将其输入到融合模块的卷积层Conv_B01,经卷积运算后产生一个包含4Dout个通道的特征图,其中Dout为输出图像的通道数目;融合模块的另一个输入来自于步骤(5)中依次排列输入图像对应的矩阵所形成的三阶张量,将其输入到融合模块的卷积层Conv_B02,经卷积运算后产生一个包含4Dout个通道的特征图;所述融合模块中的卷积层Conv_B01的卷积核大小为3×3×C3,Conv_B02的卷积核大小为3×3×C4,C3和C4分别为输入到对应卷积层的特征图的通道数目,为了保证去噪后图像具有与输入图像相同的尺寸,两个卷积层的卷积步长都为1。输入和输出的图像,可为视频图像的亮度分量、红色或蓝色色度分量,本发明的实施例对亮度和色度图像分别处理,所以Dout=1;
(8)所述融合模块中的卷积层Conv_B01和Conv_B02的输出经像素重排上采样,如图4所示,将特征图变换成长宽方向分别为输入图像长和宽的2倍,通道数等于输出图像通道数目特征图,具体为:设输出图像的通道数为Dout,卷积层Conv_B01和Conv_B02分别输出一个通道数目为4Dout、大小为H×W的特征图,依次取这些通道(m,n)位置的值形成一个2×2×Dout的三阶张量,将其置于(2m,2n)位置,将形成一个大小为2H×2W,通道数为Dout的输出特征图;
(9)将融合模块两个经像素重排上采样后的特征图进行加运算,运算结果作为卷积层Conv_B03的输入,其中Conv_B03的卷积核数目等于Dout,卷积核大小为3×3×4Dout,卷积步长为2,经卷积运算后得到第一级深度残差网络的输出结果为图像序列
Figure BDA0002277303730000071
其中与第t帧图像It对应的输出结果为
Figure BDA0002277303730000072
(10)将第一级深度残差网络输出的结果图像序列作为第二级深度残差网络中输入模块的输入,重复步骤(5)-(9)的过程,输出最终的结果图像。
如图5所示,为本发明实施例提供的方法对添加了高斯噪声的HEVC标准测试视频RaceHorses进行去噪的结果,图5第一行中从左到右依次为原始视频中的第30、40、50和60帧;第二行为上述各帧叠加了均值为0,方差为大于24.0小于50.0之间的随机值的高斯噪声后形成的图像;第三行则为采用本发明提供的方法去噪处理后形成的结果图像。通过原始视频图像、含有噪声的图像以及采用本发明方法进行去噪处理后的视频图像之间的对比可知,本发明方法能够明显去除或抑制视频中的噪声,提高视频图像的质量,为后续的视频编码具有重要意义。
以上所述仅为本发明的较佳实施例,但本发明的保护范围并不局限于此,凡在本发明的精神和原则之内,所做的任何修改或替换等,都应涵盖在本发明的保护范围内。

Claims (8)

1.一种基于级联深度残差网络的视频去噪方法,其特征在于,包括以下步骤:
(1)获取待去噪的视频,设待去噪的视频中的第t帧图像为It,得到图像序列{It-K,…,It,…,It+K},其中It-i和It+i分别为位于t时刻之前和之后,与第t帧图像相隔i帧的图像,K可取值为1、2或3;
(2)构建第一级和第二级深度残差网络;第一级和第二级深度残差网络具有相同的网络结构,第一级和第二级深度残差网络均包括输入模块、残差模块和融合模块;所述输入模块包括一个卷积层,该卷积层具有Ninput个3×3×(2K+1)大小的卷积核;所述残差模块包含Nblock个残差块,每个残差块中包含卷积层Conv_k01、PReLU层和卷积层Conv_k02;所述融合模块包含卷积层Conv_B01、卷积层Conv_B02和卷积层Conv_B03;
(3)将步骤(1)中的图像序列输入到第一级深度残差网络,图像序列中的每幅图像被当作一个二维矩阵,依次排列这些矩阵形成一个三阶张量,与输入模块中的Ninput个卷积核进行步长为1的卷积运算,产生包含Ninput个通道的特征图,输入到残差模块中;
(4)残差模块中的第一残差块的输入为输入模块输出的特征图,除第一残差块之外的任意第k个残差块以第k-1个残差块的输出为输入,设某个残差块的输入为x,前向传播时的数据流向依次为卷积层Conv_k01、PReLU层、卷积层Conv_k02,通过卷积层Conv_k01、PReLU层和卷积层Conv_k02将输入x映射为F(x),最后以F(x)和输入x之和F(x)+x作为残差块的输出;
(5)融合模块有两个输入,其中的一个来自残差模块的输出,将其输入到融合模块的卷积层Conv_B01,经卷积运算后产生一个包含4Dout个通道的特征图,其中Dout为输出图像的通道数目;融合模块的另一个输入来自于步骤(3)中依次排列输入图像对应的矩阵所形成的三阶张量,将其输入到融合模块的卷积层Conv_B02,经卷积运算后产生一个包含4Dout个通道的特征图;
(6)将融合模块的卷积层Conv_B01和Conv_B02的输出经像素重排,将特征图变换成长宽方向分别为输入图像长和宽的2倍,通道数等于输出图像通道数目的特征图;
(7)将融合模块两个经像素重排后的特征图进行加运算,运算结果作为卷积层Conv_B03的输入,经步长为2的卷积运算后得到第一级深度残差网络的输出结果为图像序列
Figure FDA0002277303720000011
其中与第t帧图像It对应的输出结果为
Figure FDA0002277303720000012
(8)将第一级深度残差网络输出的结果图像序列作为第二级深度残差网络中输入模块的输入,重复步骤(3)-(7)的过程,输出最终的结果图像。
2.根据权利要求1所述的基于级联深度残差网络的视频去噪方法,其特征在于,所述第一级深度残差网络各个层次的参数以学习的方式确定,包括如下步骤:
步骤a、准备训练样本:采集用于训练的视频,设f是其中的一帧图像,按下式叠加幅度值符合高斯分布、泊松分布或者均匀分布的噪声信号z,形成包含噪声的图像g:
g=f+z
分别对原始视频中的图像和对应的加噪后的图像依次标号,形成参考图像序列和对应的含噪图像序列,作为训练样本集;
训练样本集中的一个样本可表示为(ui,vi),若vi∈RM×N为来自参考图像序列的第t帧ft的图像块,且左上角点位于像素(m,n),图像块大小为M×N,则ui∈RM×N×(2K+1)是一个由2K+1个图像块组成的三阶张量,其中的第1、2、...、2K+1个图像块依次来自含噪图像序列g的第t-K、t-K+1、...、t+K帧,K取值为1、2或3,每个图像块的大小均为M×N,左上角点坐标位于各自对应图像的像素(m,n)位置;
步骤b、初始化参数:第一级深度残差网络中的所有卷积层,其参数被初始化为符合均值为0,标准差为
Figure FDA0002277303720000021
的正态分布,其中nl为卷积层中卷积核的数目;PReLU层的参数被初始化为0;
步骤c、训练:批量加载训练样本集中的样本,对每个训练样本(ui,vi)按下式计算损失函数:
Figure FDA0002277303720000022
其中M和N是训练样本集中图像的高和宽,
Figure FDA0002277303720000023
是与输入ui对应的输出;
以最小化所有训练样本的损失函数累加和为目标,以Adam优化算法更新深度残差网络各层的权值,学习率的初始值可置为0.005~0.01之间的值,以分段下降的方式调整学习率,具体地,将总的训练周期数分为四个阶段,后一个阶段的学习率等于前一个阶段的学习率的三分之一。
3.根据权利要求1所述的基于级联深度残差网络的视频去噪方法,其特征在于,第一级深度残差网络的训练完成以后,再进行第二级深度残差网络的训练;
用与第一级深度残差网络相同的方式形成参考图像序列f和含噪图像序列g,对于含噪图像序列g中的任一帧图像gk由训练所得的第一级深度残差网络输出对应的去噪后图像
Figure FDA0002277303720000031
替换,从而获得去噪图像序列
Figure FDA0002277303720000032
将去噪图像序列
Figure FDA0002277303720000033
和参考图像序列f作为第二级深度残差网络训练样本集;并采用与训练第一级深度残差网络相同的方法训练第二级深度残差网络。
4.根据权利要求1所述的基于深度残差网络的视频去噪方法,其特征在于,所述的输入模块中卷积核的数量Ninput可取值32。
5.根据权利要求1所述的基于深度残差网络的视频去噪方法,其特征在于,所述的残差模块中残差块的数量Nblock可取介于8到16之间的整数;所述第k个残差块中的卷积层Conv_k01具有4倍于卷积层Conv_k02的卷积核数量,Conv_k01的卷积核数目可取为128,Conv_k02的卷积核数目可取为32;Conv_k01的卷积核大小为3×3×C1,Conv_k02的卷积核大小为3×3×C2,C1和C2分别为输入到对应卷积层的特征图的通道数目;为了保证去噪后图像具有与输入图像相同的尺寸,残差模块中的所有卷积层的卷积步长为1。
6.根据权利要求1所述的基于深度残差网络的视频去噪方法,其特征在于,所述融合模块中的卷积层Conv_B01的卷积核大小为3×3×C3,Conv_B02的卷积核大小为3×3×C4,C3和C4分别为输入到对应卷积层的特征图的通道数目,为了保证去噪后图像具有与输入图像相同的尺寸,两个卷积层的卷积步长都为1。
7.根据权利要求1所述的基于深度残差网络的视频去噪方法,其特征在于,所述融合模块中的卷积层Conv_B01和Conv_B02的输出经像素重排,将特征图变换成长宽方向分别为输入图像长和宽的2倍,通道数等于输出图像通道数目的特征图,具体为:设输出图像的通道数为Dout,卷积层Conv_B01和Conv_B02分别输出一个通道数目为4Dout、大小为H×W的特征图,依次取这些通道(m,n)位置的值形成一个2×2×Dout的三阶张量,将其置于(2m,2n)位置,将形成一个大小为2H×2W,通道数为Dout的输出特征图。
8.根据权利要求1所述的基于深度残差网络的视频去噪方法,其特征在于,所述输入和输出图像,可为视频图像的亮度分量、红色或蓝色色度分量。
CN201911127489.8A 2019-11-18 2019-11-18 基于级联深度残差网络的视频去噪方法 Active CN110930327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911127489.8A CN110930327B (zh) 2019-11-18 2019-11-18 基于级联深度残差网络的视频去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911127489.8A CN110930327B (zh) 2019-11-18 2019-11-18 基于级联深度残差网络的视频去噪方法

Publications (2)

Publication Number Publication Date
CN110930327A true CN110930327A (zh) 2020-03-27
CN110930327B CN110930327B (zh) 2022-09-23

Family

ID=69853315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911127489.8A Active CN110930327B (zh) 2019-11-18 2019-11-18 基于级联深度残差网络的视频去噪方法

Country Status (1)

Country Link
CN (1) CN110930327B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866521A (zh) * 2020-07-09 2020-10-30 浙江工商大学 一种运动补偿和生成式对抗网络结合的视频图像压缩伪影去除方法
CN113034401A (zh) * 2021-04-08 2021-06-25 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN113256528A (zh) * 2021-06-03 2021-08-13 中国人民解放军国防科技大学 基于多尺度级联深度残差网络的低照度视频增强方法
CN114173137A (zh) * 2020-09-10 2022-03-11 北京金山云网络技术有限公司 视频编码方法、装置及电子设备
WO2022178834A1 (zh) * 2021-02-26 2022-09-01 深圳市大疆创新科技有限公司 一种图像处理的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018018470A1 (zh) * 2016-07-27 2018-02-01 华为技术有限公司 一种去除图像噪声的方法、装置、设备及卷积神经网络
CN109191444A (zh) * 2018-08-29 2019-01-11 广东工业大学 基于深度残差网络的视频区域移除篡改检测方法及装置
CN110223234A (zh) * 2019-06-12 2019-09-10 杨勇 基于级联收缩扩张的深度残差网络图像超分辨率重建方法
WO2019190017A1 (ko) * 2018-03-26 2019-10-03 아주대학교 산학협력단 저 해상도 이미지 보정을 위한 잔차 네트워크 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018018470A1 (zh) * 2016-07-27 2018-02-01 华为技术有限公司 一种去除图像噪声的方法、装置、设备及卷积神经网络
WO2019190017A1 (ko) * 2018-03-26 2019-10-03 아주대학교 산학협력단 저 해상도 이미지 보정을 위한 잔차 네트워크 시스템
CN109191444A (zh) * 2018-08-29 2019-01-11 广东工业大学 基于深度残差网络的视频区域移除篡改检测方法及装置
CN110223234A (zh) * 2019-06-12 2019-09-10 杨勇 基于级联收缩扩张的深度残差网络图像超分辨率重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WUZHEN SHI 等: "Hierarchical residual learning for image denoising", 《SIGNAL PROCESSING: IMAGE COMMUNICATION》 *
李婷 等: "基于深度残差网络的强辐照图像去噪方法研究", 《仪表技术与传感器》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866521A (zh) * 2020-07-09 2020-10-30 浙江工商大学 一种运动补偿和生成式对抗网络结合的视频图像压缩伪影去除方法
CN114173137A (zh) * 2020-09-10 2022-03-11 北京金山云网络技术有限公司 视频编码方法、装置及电子设备
WO2022178834A1 (zh) * 2021-02-26 2022-09-01 深圳市大疆创新科技有限公司 一种图像处理的方法和装置
CN113034401A (zh) * 2021-04-08 2021-06-25 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN113034401B (zh) * 2021-04-08 2022-09-06 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN113256528A (zh) * 2021-06-03 2021-08-13 中国人民解放军国防科技大学 基于多尺度级联深度残差网络的低照度视频增强方法
CN113256528B (zh) * 2021-06-03 2022-05-27 中国人民解放军国防科技大学 基于多尺度级联深度残差网络的低照度视频增强方法

Also Published As

Publication number Publication date
CN110930327B (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN110930327B (zh) 基于级联深度残差网络的视频去噪方法
US20240193723A1 (en) Channel attention-based swin-transformer image denoising method and system
CN107123094B (zh) 一种混合泊松、高斯和脉冲噪声的视频去噪方法
CN111028177A (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111462019A (zh) 基于深度神经网络参数估计的图像去模糊方法及系统
CN116797488A (zh) 一种基于特征融合与注意力嵌入的低照度图像增强方法
CN111091503A (zh) 基于深度学习的图像去失焦模糊方法
CN110610467B (zh) 一种基于深度学习的多帧视频去压缩噪声方法
CN102243711A (zh) 一种基于邻域嵌套的图像超分辨率重建方法
CN114821449B (zh) 一种基于注意力机制的车牌图像处理方法
CN111145102A (zh) 一种基于卷积神经网络的合成孔径雷达图像去噪方法
CN110458784A (zh) 一种基于图像感知质量的去压缩噪声方法
CN117274059A (zh) 基于图像编码-解码的低分辨率图像重构方法及其系统
Liu et al. Image reconstruction using deep learning
CN109871790A (zh) 一种基于混合神经网络模型的视频去色方法
CN117422653A (zh) 一种基于权重共享和迭代数据优化的低光照图像增强方法
CN117333398A (zh) 一种基于自监督的多尺度图像去噪方法及装置
CN115953784A (zh) 基于残差和特征分块注意力的激光打码字符分割方法
CN109003247B (zh) 彩色图像混合噪声的去除方法
CN115034973A (zh) 一种基于纹理稳定性的零件图像增强方法
CN110545414B (zh) 一种图像锐化方法
CN101742088B (zh) 非局部均值空域时变视频滤波方法
CN106780398B (zh) 一种基于噪声预测的图像去噪方法
CN110648291B (zh) 一种基于深度学习的无人机运动模糊图像的复原方法
Choi et al. Fast super-resolution algorithm using ELBP classifier

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant