CN112019704A - 一种基于先验信息和卷积神经网络的视频去噪方法 - Google Patents

一种基于先验信息和卷积神经网络的视频去噪方法 Download PDF

Info

Publication number
CN112019704A
CN112019704A CN202011100020.8A CN202011100020A CN112019704A CN 112019704 A CN112019704 A CN 112019704A CN 202011100020 A CN202011100020 A CN 202011100020A CN 112019704 A CN112019704 A CN 112019704A
Authority
CN
China
Prior art keywords
video
noise
frame
denoising
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011100020.8A
Other languages
English (en)
Other versions
CN112019704B (zh
Inventor
朱树元
申屠敏健
王忠荣
曾辽原
王正宁
刘光辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011100020.8A priority Critical patent/CN112019704B/zh
Publication of CN112019704A publication Critical patent/CN112019704A/zh
Application granted granted Critical
Publication of CN112019704B publication Critical patent/CN112019704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/213Circuitry for suppressing or minimising impulsive noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

本发明属于视频处理领域,尤其涉及视频增强技术,具体提供一种基于先验信息和卷积神经网络的视频去噪方法。本发明基于卷积神经网络对噪声视频进行去噪,构建由两个部分连接构成的去噪神经网络,其中,第一部分为依次连接的4层1×1卷积核,每个卷积核后均连接ReLU激活函数;第二部分为依次连接的15层3×3 Octave卷积核,第1到14层卷积核后均连接批标准化及ReLU激活函数;同时,充分在训练集构建及待处理噪声视频数据预处理过程中,充分利用前后帧信息。综上所述,本发明与传统方法相比,无需人工手动调整参数,去噪效果好,能很好的保持视频中纹理细节,使用方便,运行速度快,鲁棒性高。

Description

一种基于先验信息和卷积神经网络的视频去噪方法
技术领域
本发明属于视频处理领域,尤其涉及视频增强技术,具体提供一种基于先验信息和卷积神经网络的视频去噪方法。
背景技术
在日常生活中,由于拍摄条件的限制以及发送设备、传输设备、接收设备的影响,视频经常受到噪声干扰,使视频质量下降,从而影响视频的视觉效果,妨碍视频的进一步处理。因此,为了获取高质量数字图像,必须对图像和视频进行去噪处理同时尽可能得保持原始信息。
传统的图像视频去噪方法会在滤除噪声颗粒时引入人工噪声或大大模糊图像,因此存在很大的局限性;而另有一些方法具有更好的去噪效果,但是一些图像边缘信息却在去噪时丢失,或者由于计算量太复杂,导致算法效率低下。经典的图像质量增强方法已经十分成熟,但是面对日益增加的需求,其性能无法满足如今面临各种更加复杂的问题;新型的高效图像质量增强方法得到了充分的关注。卷积神经网络是近段时间比较流行的方法;神经网络通过卷积层来提取信息,通过损失函数来测量输出特征和标签之间的差异,反向传播之后更新网络参数,通过不断迭代以达到最佳网络参数,神经网络不需要人工手调参数即可学习到理想最优参数以达到最好性能;同时,由于视频的信息冗余性,充分利用好当前噪声帧的前后帧可以有效提升当前噪声帧的去噪效果;因此,本发明提供一种基于先验信息和卷积神经网络的视频去噪方法。
发明内容
本发明的目的在于针对上述现有视频去噪方法的不足,提供一种基于先验信息和卷积神经网络的视频去噪方法;该方法充分利用前后帧信息,结合卷积神经网络实现视频去噪,大幅提升去噪性能,并在运行速度、计算量和内存使用上有一定优势。
为实现上述目的,本发明采用的技术方案为:
一种基于先验信息和卷积神经网络的视频去噪方法,包括以下步骤:
步骤S1、构建训练集;
S11、将无噪声视频进行抽帧得到无噪声视频片段,并对无噪声视频片段中每个视频帧依次进行滤波、降采样、颜色空间转换、归一化的数据预处理;并且,对预处理后视频帧加入高斯噪声形成噪声帧,得到与无噪声视频片段对应的噪声视频片段;
S12、对噪声视频片段进行拼接,将噪声视频片段的噪声帧进行分组,每组包括:前一噪声帧
Figure 948847DEST_PATH_IMAGE001
、当前噪声帧
Figure 624679DEST_PATH_IMAGE002
以及后一噪声帧
Figure 472549DEST_PATH_IMAGE003
,并按照该顺序依次连接构成噪声图像块
Figure 132200DEST_PATH_IMAGE004
S13、采用DnCNN对每一个噪声图像块
Figure 90929DEST_PATH_IMAGE004
中的前一噪声帧
Figure 621267DEST_PATH_IMAGE001
与后一噪声帧
Figure 640039DEST_PATH_IMAGE003
进行预去噪,对应得到预去噪后前一噪声帧
Figure 786987DEST_PATH_IMAGE005
与后一噪声帧
Figure 549406DEST_PATH_IMAGE006
,构成预去噪后噪声图像块
Figure 465410DEST_PATH_IMAGE007
S14、针对每一个预去噪后噪声图像块
Figure 389503DEST_PATH_IMAGE007
,对前一噪声帧
Figure 23747DEST_PATH_IMAGE005
与当前噪声帧
Figure 58699DEST_PATH_IMAGE002
之间、后一噪声帧
Figure 94788DEST_PATH_IMAGE006
与当前噪声帧
Figure 189783DEST_PATH_IMAGE002
之间分别进行块匹配,并重构成新的前一噪声帧
Figure 311323DEST_PATH_IMAGE008
及后一噪声帧
Figure 415545DEST_PATH_IMAGE009
,进而得到新的噪声图像块
Figure 774982DEST_PATH_IMAGE010
S15、将噪声图像块
Figure 306458DEST_PATH_IMAGE010
及其对应的无噪声视频帧
Figure 649715DEST_PATH_IMAGE011
组成训练数据对
Figure 557628DEST_PATH_IMAGE012
,按M×N大小截取子图像块,形成若干子图像块对
Figure 568309DEST_PATH_IMAGE013
;将所有视频片段形成的子图像块对随机打乱顺序,构成训练集;
S2、构建及训练去噪神经网络;
S21、构建去噪神经网络结构,由两个部分连接构成:
第一部分为依次连接的4层1×1卷积核,每个卷积核后均连接ReLU激活函数;
第二部分为依次连接的15层3×3 Octave卷积核,其中,第1到14层3×3卷积核后均连接批标准化及ReLU激活函数;
S22、设置MSE函数为去噪神经网络训练中的损失函数:
Figure 2177DEST_PATH_IMAGE014
其中,
Figure 832730DEST_PATH_IMAGE015
表示去噪网络输出,
Figure 278754DEST_PATH_IMAGE016
表示子图像块
Figure 878363DEST_PATH_IMAGE017
中的当前帧;M表示子图像块的长度、N表示子图像块的宽度;
S23、使用Adam优化器训练得到训练好的去噪神经网络;
S3、采用训练好的去噪神经网络对噪声视频进行去噪;具体包括:
S31、将待处理噪声视频的每一帧提取出来,并对每一个视频帧进行归一化处理;
S32、并对经过步骤S31的所有视频帧进行分组,每组包括:前一视频帧、当前视频帧以及后一视频帧,并按照该顺序依次连接构成待处理图像块;其中,当第一个视频帧作为当前视频帧时、采用第三个视频帧作为其前一视频帧,当最后一个视频帧作为当前帧时、采用倒数第三个视频帧作为其后一视频帧,其余视频帧均按照顺序依次构成待处理图像块;
S33、以步骤S32构成的待处理图像块为输入,采用去噪神经网络进行去噪得到去噪后的当前视频帧,完成噪声视频去噪。
进一步的,所述步骤S11的具体过程为:
S111、将无噪声视频按照等间隔时间抽取视频片段、作为无噪声视频片段,每个视频片段包含连续的T帧视频帧
Figure 751641DEST_PATH_IMAGE018
S112、对每个视频帧使用抗锯齿滤波器进行滤波处理;
S113、对每个视频帧进行降采样,降采样后的分辨率为原来的一半;
S114、对每个视频帧进行颜色空间转换,当进行彩色视频去噪时,将视频帧的RGB通道同时训练;当进行灰度视频去噪时,将视频帧转换成YCbCr格式,将得到的YCbCr图像进行通道分离,得到Y通道进行训练;
S115、对每个视频帧进行归一化;
S116、在经过步骤S112~S115处理的无噪声视频片段的每一视频帧加入高斯噪声形成噪声视频片段。
基于上述技术方案,本发明的有益效果在于:
本发明提供一种基于先验信息和卷积神经网络的视频去噪方法,本发明基于卷积神经网络对噪声视频进行去噪,充分利用了前后帧信息;与传统方法相比,在网络训练之后,不需要人工手动调整参数,去噪效果好,能很好得保持视频中纹理细节,使用方便,运行速度快,鲁棒性高。
附图说明
图1为本发明中去噪神经网络结构。
图2为本发明中块匹配示意图。
具体实施方式
下面结合附图和实施例,对本发明具体实施方式作进一步详细描述。
本实施例提供一种基于先验信息和卷积神经网络的视频去噪方法,具体包括以下步骤:
S1、将无噪声视频进行抽帧得到无噪声视频片段,并对无噪声视频片段中每个视频帧依次进行滤波、降采样、颜色空间转换、归一化的数据预处理;并且,对预处理后视频帧加入高斯噪声形成噪声帧,得到与无噪声视频片段对应的噪声视频片段;具体包括:
S11、将无噪声视频每隔2s抽取一次视频片段、作为无噪声视频片段,每个视频片段包含连续的T帧视频帧
Figure 69490DEST_PATH_IMAGE018
(本实施例中,T=16);
S12、对每个视频帧使用抗锯齿滤波器进行滤波处理;
S13、对每个视频帧进行降采样,降采样后的分辨率为原来的一半;
S14、对每个视频帧进行颜色空间转换,当进行彩色视频去噪时,不需要转换,将视频的RGB通道同时训练;当进行灰度视频去噪时,将RGB图像块利用OpenCV将其转换成YCbCr格式,将得到的YCbCr图像块进行通道分离,得到Y通道进行训练;
S15、对每个视频帧进行归一化,由于视频帧的像素值是在[0,255]范围内,将每个像素值除以255,使得每个像素值介于[0,1]之间,得到归一化的视频帧;
S16、在经过步骤S12~S15处理的无噪声视频片段的每一视频帧加入高斯噪声形成噪声视频片段;高斯噪声分为两种:一种是标准高斯噪声、即高斯水平固定,另一种是盲高斯噪声、即高斯水平在[0,50]之间随机取值形成不同水平的高斯噪声;
S2、对噪声视频片段进行拼接,将噪声视频片段的16帧视频帧进行分组,每组包括:前一噪声帧
Figure 788047DEST_PATH_IMAGE001
、当前噪声帧
Figure 507742DEST_PATH_IMAGE002
以及后一噪声帧
Figure 551921DEST_PATH_IMAGE003
,并按照该顺序依次连接构成3D图像块
Figure 357066DEST_PATH_IMAGE019
,即噪声图像块;其中,第一个视频帧和最后一个视频帧作为当前帧时无法构成图像块,故本实施例中共构成14个图像块;
S3、采用DnCNN对每一个噪声图像块
Figure 144893DEST_PATH_IMAGE004
中的前一噪声帧
Figure 719094DEST_PATH_IMAGE001
与后一噪声帧
Figure 934175DEST_PATH_IMAGE003
进行预去噪,对应得到预去噪后前一噪声帧
Figure 961037DEST_PATH_IMAGE005
与后一噪声帧
Figure 286976DEST_PATH_IMAGE006
,即得到预去噪后噪声图像块
Figure 715683DEST_PATH_IMAGE007
S4、针对每一个预去噪后噪声图像块
Figure 101665DEST_PATH_IMAGE007
,对前一噪声帧
Figure 881402DEST_PATH_IMAGE005
与当前噪声帧
Figure 11032DEST_PATH_IMAGE002
之间、后一噪声帧
Figure 294246DEST_PATH_IMAGE006
与当前噪声帧
Figure 116709DEST_PATH_IMAGE002
之间分别进行块匹配,并重构成新的前一噪声帧
Figure 118163DEST_PATH_IMAGE008
及后一噪声帧
Figure 785904DEST_PATH_IMAGE009
,进而得到新的噪声图像块
Figure 923625DEST_PATH_IMAGE010
所述块匹配的具体过程如图2所示,即以当前帧为参考帧分别在前后帧中搜索最相似的宏块,提取宏块的中心像素的值重构成前后帧;
S5、构建及训练去噪神经网络;具体包括:
S51、构建去噪神经网络结构,如图1所示,由两个部分连接构成:
第一部分为依次连接的4层1×1卷积核,每个卷积核后均连接ReLU激活函数,激活函数公式如下所示:
Figure 916988DEST_PATH_IMAGE020
第二部分为依次连接的15层3×3 Octave卷积核,其中,第1到14层3×3卷积核后均连接批标准化(BN, Batch Normalization)及ReLU激活函数,第15层3×3卷积核后没有激活函数和批标准化;
S52、构建训练集:将噪声图像块
Figure 405739DEST_PATH_IMAGE010
及其对应的无噪声视频帧
Figure 877171DEST_PATH_IMAGE011
组成训练数据对
Figure 134977DEST_PATH_IMAGE012
,按M×N大小截取子图像块,形成若干子图像块对
Figure 296313DEST_PATH_IMAGE021
;其中,
Figure 6780DEST_PATH_IMAGE022
K表示单个训练数据对截取得子图像块总数;
将所有视频片段形成的子图像块对随机打乱,按照比例分割成训练集以及验证集;
S53、使用MSE函数作为视频去噪网络训练中的损失函数,MSE函数如下所示:
Figure 281903DEST_PATH_IMAGE023
其中,
Figure 659795DEST_PATH_IMAGE024
表示去噪网络输出,
Figure 463803DEST_PATH_IMAGE025
表示子图像块
Figure 927145DEST_PATH_IMAGE026
中的当前帧;M表示子图像块的长度、N表示子图像块的宽度;
S54、使用Adam优化器训练20个周期,在第12和17个周期时,去噪网络的学习率从10-3降到10-4和10-6
S6、采用训练好的去噪神经网络对噪声视频进行去噪;具体包括:
S61、将噪声视频的每一帧提取出来,并对每一个视频帧进行步骤S15相同的归一化处理;
S62、并对经过步骤S61的所有视频帧进行分组,每组包括:前一视频帧、当前视频帧以及后一视频帧,并按照该顺序依次连接构成3D图像块;其中,当第一个视频帧作为当前视频帧时、采用第三个视频帧作为其前一视频帧、采用第二个视频帧作为其后一视频帧,当最后一个视频帧作为当前帧时、采用倒数第三个视频帧作为其后一视频帧、采用倒数第二个视频帧作为其前一视频帧,其余视频帧均按照顺序依次构成3D图像块;
S63、以步骤S62构成的图像块为输入,采用去噪神经网络进行去噪得到去噪后的当前视频帧,将所有完成去噪的视频帧拼接构成去噪后视频,即完成噪声视频去噪。
本实施例所记载的方法,充分利用了前后帧信息,对前后帧信息进行预去噪能够减少噪声的影响,也对后续的块匹配提高精度,而块匹配能够将前后帧移动的物体移动到统一位置,最后利用神经网络去噪,不需要人工手动调整参数,运行速度快,使用方便,去噪效果好,具有很高的鲁棒性。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。

Claims (2)

1.一种基于先验信息和卷积神经网络的视频去噪方法,其特征在于,包括以下步骤:
步骤S1、构建训练集;
S11、将无噪声视频进行抽帧得到无噪声视频片段,并对无噪声视频片段中每个视频帧依次进行滤波、降采样、颜色空间转换、归一化的数据预处理;并且,对预处理后视频帧加入高斯噪声形成噪声帧,得到与无噪声视频片段对应的噪声视频片段;
S12、对噪声视频片段进行拼接,将噪声视频片段的噪声帧进行分组,每组包括:前一噪声帧
Figure 579736DEST_PATH_IMAGE001
、当前噪声帧
Figure 52306DEST_PATH_IMAGE002
以及后一噪声帧
Figure 369018DEST_PATH_IMAGE003
,并按照该顺序依次连接构成噪声图像块
Figure 294249DEST_PATH_IMAGE004
S13、采用DnCNN对每一个噪声图像块
Figure 846453DEST_PATH_IMAGE004
中的前一噪声帧
Figure 907950DEST_PATH_IMAGE001
与后一噪声帧
Figure 192300DEST_PATH_IMAGE003
进行预去噪,对应得到预去噪后前一噪声帧
Figure 198303DEST_PATH_IMAGE005
与后一噪声帧
Figure 226301DEST_PATH_IMAGE006
,构成预去噪后噪声图像块
Figure 611146DEST_PATH_IMAGE007
S14、针对每一个预去噪后噪声图像块
Figure 800819DEST_PATH_IMAGE007
,对前一噪声帧
Figure 700642DEST_PATH_IMAGE005
与当前噪声帧
Figure 860228DEST_PATH_IMAGE002
之间、后一噪声帧
Figure 161896DEST_PATH_IMAGE006
与当前噪声帧
Figure 354761DEST_PATH_IMAGE002
之间分别进行块匹配,并重构成新的前一噪声帧
Figure 741880DEST_PATH_IMAGE008
及后一噪声帧
Figure 111682DEST_PATH_IMAGE009
,进而得到新的噪声图像块
Figure 471119DEST_PATH_IMAGE010
S15、将噪声图像块
Figure 268174DEST_PATH_IMAGE010
及其对应的无噪声视频帧
Figure 204906DEST_PATH_IMAGE011
组成训练数据对
Figure 378398DEST_PATH_IMAGE012
,按M×N大小截取子图像块,形成若干子图像块对
Figure 857921DEST_PATH_IMAGE013
;将所有视频片段形成的子图像块对随机打乱顺序,构成训练集;
步骤S2、构建及训练去噪神经网络;
S21、构建去噪神经网络结构,由两个部分连接构成:
第一部分为依次连接的4层1×1卷积核,每个卷积核后均连接ReLU激活函数;
第二部分为依次连接的15层3×3 Octave卷积核,其中,第1到14层3×3卷积核后均连接批标准化及ReLU激活函数;
S22、设置MSE函数为去噪神经网络训练中的损失函数:
Figure 825877DEST_PATH_IMAGE014
其中,
Figure 922009DEST_PATH_IMAGE015
表示去噪网络输出,
Figure 961509DEST_PATH_IMAGE016
表示子图像块
Figure 826697DEST_PATH_IMAGE017
中的当前帧;M表示子图像块的长度、N表示子图像块的宽度;
S23、使用Adam优化器训练得到训练好的去噪神经网络;
步骤S3、采用训练好的去噪神经网络对噪声视频进行去噪;具体包括:
S31、将待处理噪声视频的每一帧提取出来,并对每一个视频帧进行归一化处理;
S32、并对经过步骤S31的所有视频帧进行分组,每组包括:前一视频帧、当前视频帧以及后一视频帧,并按照该顺序依次连接构成待处理图像块;其中,当第一个视频帧作为当前视频帧时、采用第三个视频帧作为其前一视频帧,当最后一个视频帧作为当前帧时、采用倒数第三个视频帧作为其后一视频帧,其余视频帧均按照顺序依次构成待处理图像块;
S33、以步骤S32构成的待处理图像块为输入,采用去噪神经网络进行去噪得到去噪后的当前视频帧,完成噪声视频去噪。
2.按权利要求1所述基于先验信息和卷积神经网络的视频去噪方法,其特征在于,所述步骤S11的具体过程为:
S111、将无噪声视频按照等间隔时间抽取视频片段、作为无噪声视频片段,每个视频片段包含连续的T帧视频帧
Figure 293450DEST_PATH_IMAGE018
S112、对每个视频帧使用抗锯齿滤波器进行滤波处理;
S113、对每个视频帧进行降采样,降采样后的分辨率为原来的一半;
S114、对每个视频帧进行颜色空间转换,当进行彩色视频去噪时,将视频帧的RGB通道同时训练;当进行灰度视频去噪时,将视频帧转换成YCbCr格式,将得到的YCbCr图像进行通道分离,得到Y通道进行训练;
S115、对每个视频帧进行归一化;
S116、在经过步骤S112~S115处理的无噪声视频片段的每一视频帧加入高斯噪声形成噪声视频片段。
CN202011100020.8A 2020-10-15 2020-10-15 一种基于先验信息和卷积神经网络的视频去噪方法 Active CN112019704B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011100020.8A CN112019704B (zh) 2020-10-15 2020-10-15 一种基于先验信息和卷积神经网络的视频去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011100020.8A CN112019704B (zh) 2020-10-15 2020-10-15 一种基于先验信息和卷积神经网络的视频去噪方法

Publications (2)

Publication Number Publication Date
CN112019704A true CN112019704A (zh) 2020-12-01
CN112019704B CN112019704B (zh) 2021-02-05

Family

ID=73527316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011100020.8A Active CN112019704B (zh) 2020-10-15 2020-10-15 一种基于先验信息和卷积神经网络的视频去噪方法

Country Status (1)

Country Link
CN (1) CN112019704B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034401A (zh) * 2021-04-08 2021-06-25 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN114219820A (zh) * 2021-12-08 2022-03-22 苏州工业园区智在天下科技有限公司 神经网络的生成方法、去噪方法及其装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063728A (zh) * 2018-06-20 2018-12-21 燕山大学 一种火灾图像深度学习模式识别方法
CN110610467A (zh) * 2019-09-11 2019-12-24 杭州当虹科技股份有限公司 一种基于深度学习的多帧视频去压缩噪声方法
CN110751649A (zh) * 2019-10-29 2020-02-04 腾讯科技(深圳)有限公司 视频质量评估方法、装置、电子设备及存储介质
CN110930334A (zh) * 2019-11-26 2020-03-27 浙江大学 一种基于神经网络的网格去噪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063728A (zh) * 2018-06-20 2018-12-21 燕山大学 一种火灾图像深度学习模式识别方法
CN110610467A (zh) * 2019-09-11 2019-12-24 杭州当虹科技股份有限公司 一种基于深度学习的多帧视频去压缩噪声方法
CN110751649A (zh) * 2019-10-29 2020-02-04 腾讯科技(深圳)有限公司 视频质量评估方法、装置、电子设备及存储介质
CN110930334A (zh) * 2019-11-26 2020-03-27 浙江大学 一种基于神经网络的网格去噪方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034401A (zh) * 2021-04-08 2021-06-25 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN113034401B (zh) * 2021-04-08 2022-09-06 中国科学技术大学 视频去噪方法及装置、存储介质及电子设备
CN114219820A (zh) * 2021-12-08 2022-03-22 苏州工业园区智在天下科技有限公司 神经网络的生成方法、去噪方法及其装置

Also Published As

Publication number Publication date
CN112019704B (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN108876735B (zh) 一种基于深度残差网络的真实图像盲去噪方法
CN110599409B (zh) 基于多尺度卷积组与并行的卷积神经网络图像去噪方法
CN109872288A (zh) 用于图像去噪的网络训练方法、装置、终端及存储介质
CN112019704B (zh) 一种基于先验信息和卷积神经网络的视频去噪方法
CN108830812B (zh) 一种基于网格结构深度学习的视频高帧率重制方法
CN114066747B (zh) 一种基于光照和反射互补性的低照度图像增强方法
CN112270654A (zh) 基于多通道gan的图像去噪方法
CN114463218B (zh) 一种基于事件数据驱动的视频去模糊方法
CN111145102A (zh) 一种基于卷积神经网络的合成孔径雷达图像去噪方法
CN113628152A (zh) 一种基于多尺度特征选择性融合的暗光图像增强方法
CN114219722A (zh) 一种利用时频域层级处理的低光照图像增强方法
CN113191995A (zh) 一种基于深度学习的视频图像自动曝光校正方法
CN114170286A (zh) 一种基于无监督深度学习的单目深度估计方法
CN112419163B (zh) 一种基于先验知识和深度学习的单张图像弱监督去雾方法
CN112529813A (zh) 图像去雾处理方法、装置及计算机存储介质
CN116363036A (zh) 基于视觉增强的红外与可见光图像融合方法
CN117994167B (zh) 融合并行多卷积注意力的扩散模型去雾方法
CN110728643A (zh) 一种基于卷积神经网络的低照度带噪声图像优化方法
CN117422653A (zh) 一种基于权重共享和迭代数据优化的低光照图像增强方法
CN116977809A (zh) 一种基于深度学习的端到端多模态图像融合框架
CN116579940A (zh) 一种基于卷积神经网络的实时低照度图像增强方法
CN113724139B (zh) 基于二重判别器生成对抗网络的无监督红外单图超分方法
CN116797468A (zh) 基于软边重建的自校准深度曲线估计的低光照图像增强方法
CN113469998A (zh) 基于主观和客观特征融合的全参考图像质量评价方法
CN112819707A (zh) 一种端到端抗块效应低照度图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant