CN106331433B - 基于深度递归神经网络的视频去噪方法 - Google Patents
基于深度递归神经网络的视频去噪方法 Download PDFInfo
- Publication number
- CN106331433B CN106331433B CN201610729038.1A CN201610729038A CN106331433B CN 106331433 B CN106331433 B CN 106331433B CN 201610729038 A CN201610729038 A CN 201610729038A CN 106331433 B CN106331433 B CN 106331433B
- Authority
- CN
- China
- Prior art keywords
- video
- neural network
- recurrent neural
- deep
- denoising
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000306 recurrent effect Effects 0.000 title claims abstract description 62
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000003062 neural network model Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 230000014509 gene expression Effects 0.000 claims abstract description 7
- 239000000203 mixture Substances 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- NVNSXBXKNMWKEJ-UHFFFAOYSA-N 5-[[5-(2-nitrophenyl)furan-2-yl]methylidene]-1,3-diphenyl-2-sulfanylidene-1,3-diazinane-4,6-dione Chemical compound [O-][N+](=O)C1=CC=CC=C1C(O1)=CC=C1C=C1C(=O)N(C=2C=CC=CC=2)C(=S)N(C=2C=CC=CC=2)C1=O NVNSXBXKNMWKEJ-UHFFFAOYSA-N 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
- H04N5/213—Circuitry for suppressing or minimising impulsive noise
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明提供一种基于深度递归神经网络的视频去噪方法,所述方法采用端到端的深度神经网络模型,所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;本发明利用时间域的递归结构端到端地进行视频去噪,无须通过其他复杂算法获取视频的运动信息;利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射;能够延展并应用在各种不同类型的噪声中,如高斯噪声、泊松‑高斯混合噪声等。
Description
技术领域
本发明涉及的是一种视频图像处理技术领域的方法,具体是一种基于深度递归神经网络的视频去噪方法。
背景技术
视频去噪是一个视频图像处理技术领域的典型问题,同时也是像素级视频处理方法评价方法。因此该问题在学术界和工业界一直受到广泛的关注。视频去噪过程是输入一个加噪视频Y=X+N,其中X表示为是Y的原始视频,通过特定方法以后,输出一个去噪视频。
在过去十多年间,许多方法都在图像去噪和视频去噪取得了巨大的进步,如稀疏编码(sparse coding)、条件随机域(conditional random fields)、变换技术 (variationtechniques)、块方法(patch based methods)等。视频去噪技术与图像去噪技术最大的不同在于视频有大量运动信息和时间域冗余信息可以用于去噪过程。一种通用的方法是将图像去噪通过在时间轴的不同帧中查找相似块的方法,然后利用图像去噪的方法,如小波压缩(wavelet shrinkage)或是维纳滤波等方法在三维变换域进行去噪,如VBM3D(Block-matching and 3D filtering (BM3D))。VBM4D在VBM3D方法中做了改进并成为目前最为先进的图像去噪技术。VBM4D去噪的方法是查找相似3维时空立体块而不是2维平面块然后将3维立体块堆栈形成一个四维结构。然后利用协同滤波去除该四维结构的相关性,最后利用压缩(shrinkage)和反变换完成视频去噪。
目前,深度学习得利于其深度神经网络结构的强大表达能力和GPU (GraphicsProcessing Units)的快速运算能力,在计算机视觉和模式识别领域取得了巨大进步(如图像分类)。如何将其应用在视频图像处理领域成了人们重点关注和研究的方向。递归神经网络作为具有反馈能力的一种神经网络,能够在时间轴上传递运动信息,是处理序列的强有力工具,并在语音、文字等多个领域得到较好的应用。递归神经网络最先被用在语言处理问题上,如语音识别、图像描述(image description)。在视频处理领域,Nitish Srivastava在《Unsupervised learning of video representations using LSTMs》一文中证实了递归神经网络能够从视频中学习到运动信息和轮廓特征,并在文中成功将特征表示应用于模式识别问题。
发明内容
本发明在现有技术的基础上,提出一种基于深度递归神经网络的视频去噪方法,采用深度递归网络模型用于视频序列去噪,无须通过其他复杂算法获取视频的运动信息。
为实现上述目的,本发明采用以下技术方案:
本发明提供一种基于深度递归神经网络的视频去噪方法,所述方法采用端到端的深度神经网络模型,利用时间域的递归结构端到端地进行视频去噪;
所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归神经网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;
所述深度神经网络模型,具体表示如下:
其中,x(t)表示输入数据,表示深度递归神经网络第一层t时刻和t-1 的状态,即视频在t和t-1时刻的初级特征;表示深度递归神经网络第二层t时刻、t-1时刻的状态,即视频在t和t-1时刻的高级特征;y(t)表示输出数据;σ() 是指激活函数;Wyh、by均为模型的参数,通过BPTT(back propagationthrough time)算法最小化损失函数获得;t表示视频图像的时间序列索引。
本发明中,所述深度神经网络模型将视频噪声模型与深度递归网络结合,利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射,对于一段时长为T有噪的视频序列其中t表示视频图像的时间序列索引,在视频序列中任意t时刻的图像xt看作是干净图像yt和噪声nt的叠加:
xt=yt+nt
L=||F(X;Θ)-Y||.
本发明中,为了降低深度递归神经网络的计算复杂度,采用基于块 (patch-based)的方法来进行去噪:
生成训练集时,切割视频成为m×n×T的连续图像块作为一个训练样本,其中m、n分别表示每张图像小块的长、宽,T表示视频连续的T张图像,其对应的第(T+1)/2张图像作为去噪的目标,并将原始的对应第(T+1)/2张图像作为训练时的标注值(groundtruth);
测试时,将给定的有噪视频逐帧有重叠地(overlapping)分解为m×n×T的视频立体块(cubes),即用一个m×n×T的三维立体滑窗划过视频,分解后的视频小块通过训练好的深度递归神经网络模型得到对应的去噪图像小块,这些视频小块重新按原位置拼接得到降噪后的视频图像。
本发明所述方法能够通过模拟不同的视频噪声nt,训练不同的模型以除去不同类型、不同程度的视频噪声,比如:
高斯噪声,表示为nt~N(0,σ2I),其中σ表示高斯分布的标准差,N()表示高斯分布,I表示单位矩阵;
与现有技术相比,本发明具有以下有益效果:
本发明利用深度递归神经网络设计一种适合于视频去噪的回归模型,通过训练大量含有原始视频的加噪视频,最终能够有效地去除视频噪声,其中:1)利用时间域的递归结构端到端地进行视频去噪,无须通过其他复杂算法获取视频的运动信息;2)利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射;3)能够延展并应用在各种不同类型的噪声中,如高斯噪声、泊松-高斯混合噪声等。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例中深度递归神经网络的去噪示意图;
图2为本发明一实施例中涉及的深度递归神经网络结构图;
图3为本发明一实施例去除高斯噪声效果示意图;
图4为本发明一实施例去除泊松-高斯混合噪声效果示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明提出一种端到端的深度神经网络模型用来视频去噪,该模型包含两层的递归网络如图1所示,在模型中输入设定长度的加噪视频立体块,输出的目标是无噪图像块,即该模型利用视频前后多帧的信息作为输入,对某一帧特定图像进行降噪。
递归神经网络是一类强大的神经网络模型,它能通过图模型中的循环来获取时间动态信息。一个简单的神经网络单元如图2(a)所示。在t时刻,隐藏单元h(t)接收到来自当前时刻的输入x(t)和前一时刻隐藏层状态h(t-1)的激活值。输出y(t)由当前时刻t的隐藏层状态h(t)计算得到:
h(t)=σ(Whxx(t)+Whhh(t-1)+bh)
y(t)=σ(Wyhh(t)+by)
权值矩阵Whx,Whh,Wyh以及偏差bh,by均为递归神经网络的参数,σ()是激活函数(如tanh或sigmoid函数)。在所述的深度神经网络模型中,激活函数除输出层采用线性函数外,均采用双曲正弦函数。递归神经网络和普通神经网络最大的区别在于递归隐藏单元的状态受到当前时刻输入和上一时刻输出两方面的影响。于是,递归隐藏单元可以看作是一个带有时间信息的容器。
深度递归神经网络是普通神经网络的延拓,由一个输入层,多个隐藏层和一个输出层的叠加构成。这种叠加方式与多层感知机(Multi-Layer Perceptions)相似,如果除去每层的延迟节点,即为多层感知机,也可认为是多层的普通神经网络结构。图2(b)展示了一个两层的递归神经网络。在多层递归神经网络中,隐藏层同时接收到低层隐藏层当前时刻的状态信息和该层上一时刻隐藏层的状态信息:
xt=yt+nt
为了降低模型的训练复杂度,本发明采用块方法(patch-based method),即将视频分割为特定时长特定大小的立体块。这里的立体块指的是多张连续时间相同位置的二维图片小块的叠加,如图1(a)下方input处显示的立体块。该深度递归神经网络的目标是建立一个映射,使得模型能够从带噪视频立体块(cube)得到去噪的图像块(patch),且该图像块表示的是立体块最中间的那幅图像:其中Θ表示模型参数。参数通过BPTT更新,损失函数为去噪图像块和实际无噪图像块的平方差:
L=||F(X;Q)-Y||
该深度递归神经网络的视频去噪流程直观解释如下:带噪立体块作为输入数据,第一层递归隐藏层读取到输入数据以后将特征表示传输给第二个隐藏层。第二个隐藏层尝试从第一个隐藏层输入的信息中提取高层特征以及更强大的表达方式。由于递归神经网络能够保持物体的外观信息和视频的运动信息,故最后输出层能够从这些特征表示中得到去噪的图像块。
基于上述原理表述,提供基于深度神递归神经网络的视频去噪模型的训练和测试方法,具体实施细节如下,以下实施例没有详细说明的部分参照发明内容进行:
(1).获取训练集:
a)获取大量原始视频(如UCF-101视频集);
b)在视频集中加入给定噪声(如加性高斯白噪声、泊松-高斯混合噪声);
c)切割视频成为17×17×7的连续图像块作为一个训练样本,其中17、17 分别表示每张图像小块的长、宽,7表示视频连续的7张图像,其对应的第4张图像作为去噪的目标,并将原始的对应第4张图像作为训练时的标注值(groundtruth)。该方法大概需要10,000,000个训练样本;
d)将训练样本随机分为两部分,80%作为训练集用于模型训练,20%作为验证集用于检验模型以防止过拟合。
利用python编程建立上述深度递归神经网络模型。
L=||F(X;Q)-Y||
(3).训练模型:利用BPTT算法最小化损失函数,在训练过程中采用以下学习策略。学习率(learning rate)初始化为0.03,随着训练循环次数的增加最终降低至0.0001,同时冲量(momentum)初始化为0.9,最终下降至0.999。同时为了方式过拟合,设定停机机制,当最新的200次循环中验证误差(validation error) 不再提升后,便停止训练并保存最好的验证误差时的模型。
(4).对有噪视频进行去噪:将给定的有噪视频逐帧有重叠地(overlapping) 分解为17×17×7的视频立体块(cubes),即用一个17×17×7的三维立体滑窗划过视频,其中时间域步长为1,空间步长为3。分解后的视频小块通过训练好的深度递归神经网络模型得到对应的去噪图像小块。这些视频小块重新按原位置拼接得到降噪后的视频图像。
实施效果
依据上述步骤,对由互联网上提供的公开视频去噪测试序列进行实验。运用该发明方法在不同的噪声中做降噪测试,结果如下。
1.高斯噪声
高斯噪声表示为nt~N(0,σ2I),其中σ表示高斯分布的标准差。本实验中训练了去除高斯噪声σ=35的深度递归神经网络模型,测试序列利用训练好的深度递归神经网络(deep RNNs,简称DRNNs)得到的定量分析结果。量化分析的指标为去噪后视频和原始视频的信噪比(Peak Signal to Noise Ratio):
在8bit图像中,n=8,MSE表示原图像和处理图像之间的均方误差。PSNR越大,表示去噪后的图像越接近原图。VBM3D(《Video denoising by sparse 3d transform-domaincollaborative filtering》)是目前的先进去噪算法,将其作为参考。图3是利用训练好的深度递归神经网络(deep RNNs,简称DRNNs)去除σ=35的高斯白噪声后的定性分析的结果。VBM3D的对三个视频去噪PSNR均值为 30.79dB,35.87dB,30.56dB,DRNNs方法去噪均值分布为30.41dB,35.88dB, 30.09dB,表明该深度递归神经网络模型具有良好的去噪效果,其PSNR值和视觉结果均与VBM3D相当。
2.泊松-高斯混合噪声
泊松-高斯混合噪声可以表示为:
表示零均值标准差nt~N(0,σ2I)的高斯噪声,表示零均值方差为λ=kyt的泊松噪声。在本实验中,取σ=25,k=15。由于目前没有针对泊松- 高斯混合噪声的视频去噪模型,同样采用VBM3D方法作为参照。
图4显示测试视频salesman中间帧(第25帧)利用不同方法的去噪结果, (b)到(d)的PSNR值依次为16.33dB,21.50dB,30.09dB。结果表明该发明的混合噪声去噪效果在视觉上和PSNR值上均有良好表现。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (3)
1.一种基于深度递归神经网络的视频去噪方法,其特征在于:所述方法采用端到端的深度神经网络模型,利用时间域的递归结构端到端地进行视频去噪;
所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归神经网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;
所述深度神经网络模型,具体表示如下:
其中,x(t)表示输入数据,表示第一层递归神经网络t时刻和t-1的状态,即视频在t和t-1时刻的初级特征;表示第二层递归神经网络t时刻、第t-1时刻的状态,即视频在t和t-1时刻的高级特征;y(t)表示输出数据;σ()是指激活函数;Wyh、by均为模型的参数,通过BPTT算法最小化损失函数获得;t表示视频图像的时间序列索引;
所述深度神经网络模型将视频噪声模型与深度递归网络结合,利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射;
xt=yt+nt
L=||F(X;Θ)-Y||。
2.根据权利要求1所述的基于深度递归神经网络的视频去噪方法,其特征在于,为了降低深度递归神经网络的计算复杂度,采用基于块的方法来进行去噪:
生成训练集时,切割视频成为m×n×T的连续图像块作为一个训练样本,其中m、n分别表示每张图像小块的长、宽,T表示视频连续的T张图像,其对应的第(T+1)/2张图像作为去噪的目标,并将原始的对应第(T+1)/2张图像作为训练时的标注值;
测试时,将给定的有噪视频逐帧有重叠地分解为m×n×T的视频立体块,即用一个m×n×T的三维立体滑窗划过视频,分解后的视频小块通过训练好的深度递归神经网络模型得到对应的去噪图像小块,这些视频小块重新按原位置拼接得到降噪后的视频图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610729038.1A CN106331433B (zh) | 2016-08-25 | 2016-08-25 | 基于深度递归神经网络的视频去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610729038.1A CN106331433B (zh) | 2016-08-25 | 2016-08-25 | 基于深度递归神经网络的视频去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106331433A CN106331433A (zh) | 2017-01-11 |
CN106331433B true CN106331433B (zh) | 2020-04-24 |
Family
ID=57791850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610729038.1A Active CN106331433B (zh) | 2016-08-25 | 2016-08-25 | 基于深度递归神经网络的视频去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106331433B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106911930A (zh) * | 2017-03-03 | 2017-06-30 | 深圳市唯特视科技有限公司 | 一种基于递归卷积神经网络进行压缩感知视频重建的方法 |
CN108304755B (zh) * | 2017-03-08 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 用于图像处理的神经网络模型的训练方法和装置 |
CN107123094B (zh) * | 2017-03-23 | 2020-07-17 | 四川精目科技有限公司 | 一种混合泊松、高斯和脉冲噪声的视频去噪方法 |
CN107423290A (zh) * | 2017-04-19 | 2017-12-01 | 厦门大学 | 一种基于层次结构的神经网络机器翻译模型 |
US11557022B2 (en) | 2017-07-27 | 2023-01-17 | Nvidia Corporation | Neural network system with temporal feedback for denoising of rendered sequences |
US11861811B2 (en) | 2017-07-27 | 2024-01-02 | Nvidia Corporation | Neural network system with temporal feedback for denoising of rendered sequences |
US11475542B2 (en) | 2017-07-27 | 2022-10-18 | Nvidia Corporation | Neural network system with temporal feedback for adaptive sampling and denoising of rendered sequences |
WO2019075669A1 (zh) * | 2017-10-18 | 2019-04-25 | 深圳市大疆创新科技有限公司 | 视频处理方法、设备、无人机及计算机可读存储介质 |
CN108257105B (zh) * | 2018-01-29 | 2021-04-20 | 南华大学 | 一种针对视频图像的光流估计与去噪联合学习深度网络模型 |
CN108447019B (zh) * | 2018-02-07 | 2022-10-18 | 杭州电子科技大学 | 一种基于对偶图的图像超分辨率方法 |
CN110213462B (zh) * | 2019-06-13 | 2022-01-04 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备、图像处理电路及存储介质 |
CN110866913A (zh) * | 2019-11-21 | 2020-03-06 | 桂林电子科技大学 | 一种深度递归心血管图像显示方法 |
CN111539879B (zh) * | 2020-04-15 | 2023-04-14 | 清华大学深圳国际研究生院 | 基于深度学习的视频盲去噪方法及装置 |
CN111738932A (zh) * | 2020-05-13 | 2020-10-02 | 合肥师范学院 | 一种车载摄像头拍照图像自动去雨方法 |
CN111738952B (zh) * | 2020-06-22 | 2023-10-10 | 京东方科技集团股份有限公司 | 一种图像修复的方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609549A (zh) * | 2009-07-24 | 2009-12-23 | 河海大学常州校区 | 视频模糊图像的多尺度几何分析超分辨处理方法 |
CN104113789A (zh) * | 2014-07-10 | 2014-10-22 | 杭州电子科技大学 | 一种基于深度学习的视频摘要在线生成方法 |
CN104751172A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于去噪自动编码的极化sar图像的分类方法 |
CN104820974A (zh) * | 2015-05-14 | 2015-08-05 | 浙江科技学院 | 基于elm的图像去噪方法 |
CN104966097A (zh) * | 2015-06-12 | 2015-10-07 | 成都数联铭品科技有限公司 | 一种基于深度学习的复杂文字识别方法 |
CN105574820A (zh) * | 2015-12-04 | 2016-05-11 | 南京云石医疗科技有限公司 | 一种基于深度学习的自适应超声图像增强方法 |
CN105681628A (zh) * | 2016-01-05 | 2016-06-15 | 西安交通大学 | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8369417B2 (en) * | 2006-05-19 | 2013-02-05 | The Hong Kong University Of Science And Technology | Optimal denoising for video coding |
WO2011143223A2 (en) * | 2010-05-10 | 2011-11-17 | Board Of Regents, The University Of Texas System | Determining quality of an image or a video using a distortion classifier |
CN102289715A (zh) * | 2011-06-08 | 2011-12-21 | 东南大学 | 基于前向线性预测的自适应小波神经网络去噪建模方法 |
US9953246B2 (en) * | 2014-12-16 | 2018-04-24 | The Regents Of The University Of California | Feature-preserving noise removal |
-
2016
- 2016-08-25 CN CN201610729038.1A patent/CN106331433B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609549A (zh) * | 2009-07-24 | 2009-12-23 | 河海大学常州校区 | 视频模糊图像的多尺度几何分析超分辨处理方法 |
CN104113789A (zh) * | 2014-07-10 | 2014-10-22 | 杭州电子科技大学 | 一种基于深度学习的视频摘要在线生成方法 |
CN104751172A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于去噪自动编码的极化sar图像的分类方法 |
CN104820974A (zh) * | 2015-05-14 | 2015-08-05 | 浙江科技学院 | 基于elm的图像去噪方法 |
CN104966097A (zh) * | 2015-06-12 | 2015-10-07 | 成都数联铭品科技有限公司 | 一种基于深度学习的复杂文字识别方法 |
CN105574820A (zh) * | 2015-12-04 | 2016-05-11 | 南京云石医疗科技有限公司 | 一种基于深度学习的自适应超声图像增强方法 |
CN105681628A (zh) * | 2016-01-05 | 2016-06-15 | 西安交通大学 | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 |
Non-Patent Citations (1)
Title |
---|
Training and analyzing deep recurrent neural networks;Michiel Hermans;《International Conference on Neural Information Processing Systems》;20131231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN106331433A (zh) | 2017-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106331433B (zh) | 基于深度递归神经网络的视频去噪方法 | |
US11361546B2 (en) | Action recognition in videos using 3D spatio-temporal convolutional neural networks | |
Tian et al. | Designing and training of a dual CNN for image denoising | |
Zhang et al. | FFDNet: Toward a fast and flexible solution for CNN-based image denoising | |
Anantrasirichai et al. | Artificial intelligence in the creative industries: a review | |
Kim et al. | Fully deep blind image quality predictor | |
Chen et al. | Deep rnns for video denoising | |
Gai et al. | New image denoising algorithm via improved deep convolutional neural network with perceptive loss | |
CN110580704A (zh) | 基于卷积神经网络的et细胞图像自动分割方法及系统 | |
CN110148088B (zh) | 图像处理方法、图像去雨方法、装置、终端及介质 | |
CN105046664A (zh) | 一种基于自适应epll算法的图像去噪方法 | |
CN113362250B (zh) | 一种基于双树四元小波与深度学习的图像去噪方法及系统 | |
CN110599443A (zh) | 一种使用双向长短期记忆网络的视觉显著性检测方法 | |
CN113920581A (zh) | 一种时空卷积注意力网络用于视频中动作识别的方法 | |
CN112164130A (zh) | 基于深度对抗网络的视频-动画风格迁移方法 | |
Uddin et al. | A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss | |
CN115131218A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
Pei et al. | Continuous affect recognition with weakly supervised learning | |
CN114331895A (zh) | 一种基于生成对抗网络的蒙特卡罗渲染图去噪方法 | |
CN107239827B (zh) | 一种基于人工神经网络的空间信息学习方法 | |
Cai et al. | Combination of temporal‐channels correlation information and bilinear feature for action recognition | |
Wang et al. | Lightweight image denoising network with four-channel interaction transform | |
CN114841887A (zh) | 一种基于多层次差异学习的图像恢复质量评价方法 | |
CN113160081A (zh) | 一种基于感知去模糊的深度人脸图像修复方法 | |
Kaplun et al. | Using Artificial Neural Networks and Wavelet Transform for Image Denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |