CN112348766A - 一种用于监控视频增强的渐进式特征流深度融合网络 - Google Patents
一种用于监控视频增强的渐进式特征流深度融合网络 Download PDFInfo
- Publication number
- CN112348766A CN112348766A CN202011230728.5A CN202011230728A CN112348766A CN 112348766 A CN112348766 A CN 112348766A CN 202011230728 A CN202011230728 A CN 202011230728A CN 112348766 A CN112348766 A CN 112348766A
- Authority
- CN
- China
- Prior art keywords
- convolution
- layer
- feature
- module
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 142
- 230000000750 progressive effect Effects 0.000 title claims abstract description 20
- 230000002708 enhancing effect Effects 0.000 claims abstract description 5
- 238000005286 illumination Methods 0.000 claims abstract description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 56
- 230000006870 function Effects 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 25
- 238000010586 diagram Methods 0.000 claims description 20
- 230000014509 gene expression Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 8
- 230000008447 perception Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000001965 increasing effect Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000008602 contraction Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 9
- 230000007246 mechanism Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012907 on board imaging Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种用于监控视频增强的渐进式特征流深度融合网络,包括用于对监控视频进行亮度增强的多级特征流融合网络;所述多级特征流融合网络包括U形融合模块UFM,输入与所述U形融合模块UFM的输出连接的跨尺度融合模块CFM;所述U形融合模块UFM的输入连接第一基本卷积层的输出,所述跨尺度融合模块CFM的输出第二基本卷积层的输入;所述第一基本卷积层的输入与输入侧结合一卷积层的渗漏整流线性单元的输出连接,所述第二基本卷积层的输出连接帧重建模块的输入。本发明能解决监控视频中存在的低光照的问题。
Description
技术领域
本发明涉及监控视频增强技术领域,特别是涉及一种用于监控视频增强的渐进式特征流深度融合网络。
背景技术
监控视频增强技术旨在将原始监控场景采集的视频增强。由于原始监控视频的采集场景复杂,采集到的视频通常包含噪声、模糊等退化,且当监控视频采集场景的光照强度较低时,噪声和模糊的程度会更加严重。监控视频增强技术在现实中有着广泛的需求,如实时增强视频质量辅助监控分析,提升人脸识别、车辆和文字检测等高层次视觉任务的精度。通常从同一帧中恢复出清晰的帧有多个可能的解,因此视频增强是典型的不适定问题,需要根据先验约束找出最优的退化帧到基准帧(Ground Truth,GT)间的映射关系,达到更好视频增强效果。
传统低光照增强技术主要有基于直方图均衡化的方法和基于Retinex理论的方法。基于直方图均衡化的方法通过扩大图像的动态范围进而增强图像对比度,但可能会导致过度增强。基于Retinex的方法依赖于人工选择参数,并且会放大噪声。基于深度学习的方法主要是通过从大量的数据集中学习低对比度单帧图像到高对比度单帧图像的映射。一些研究采用卷积神经网络模拟Retinex算法的处理过程,首先将输入的单帧图像分解成光照图和反射图,然后对这两个分量分别处理,最后重建出增强后的单帧图像。为了解决黑暗区域的大量存在的伪影和噪声,一些研究使用多分支卷积神经网络对不同深度的特征进行重建,最后融合这些重建特征,进而得到亮度增强后的单帧图像。尽管这些方法在合成数据集上取得了较好的效果,但在真实世界的数据中往往会产生伪影和色彩偏移。基于生成对抗网络的深度学习模型可以使用未配对的数据集进行训练。生成对抗网络模型中包含两个网络进行对抗训练。一是判别网络,目标是尽可能准确判断一个样本是来自于真实数据还是生成网络产生的;另一个是生成网络,目标是尽量生成判别网络无法区分来源的样本。这两个目标相反的网络进行交替训练,直到判别网络无法区分数据来源。尽管其在真实场景下取得了较好的结果,但需要精心地挑选未配对的图像,以达到良好的亮度增强效果。
早期的视频去模糊方法通常假设视频中存在锐利图像结构,并通过对其进行插值恢复中间帧。这种方法利用了相邻帧中存在的锐利图像结构信息来恢复中间帧,但往往会产生过于平滑的效果,因为视频中不总是存在足够的锐利结构信息。基于变分法的视频去模糊算法通过建立各种先验来约束中间帧和光流进行视频去模糊。这种基于光流的运动模糊估计方法的性能通常受限于光流估计的准确性。为了改善这种缺陷,一些研究使用具有强大表示能力的卷积神经网络估计光流,然后通过传统反卷积算法来恢复中间帧。
卷积神经网络具有强大的表示能力,可以从大量的数据中建立模糊图像到清晰图像之间的映射。基于编码器和解码器架构的卷积神经网络被成功应用于视频去模糊中。为了利用相邻帧之间的冗余信息,基于深度递归神经网络的模型被提出用于视频去模糊。这类模型通过反复利用前一帧的信息来帮助恢复中间帧,但其对相邻帧信息的利用还不够充分。由于相邻帧之间存在一定抖动,必须先将输入帧序列对齐才能进一步融合,针对这个问题基于光流对齐的深度学习模型被提出。这类模型通过光流来描述运动并做出运动补偿从而达到对齐的目的。还有一些模型使用3D卷积捕获相邻帧之间的时间和空间信息,从而更好地恢复中间帧图像,但这些模型对时间和空间冗余信息的利用不够充分。一些模型提出时间和空间注意力机制,来更好地融合对齐后的图像。这些模型在特定的公开数据集上取得了良好的效果,但这些数据集是由移动设备采集,再经人工合成的较为理想的数据集。然而监控场景下,视频质量受多种因素干扰,并且退化复杂,使得两者的数据分布差异很大,因此在监控场景下这些模型是不适用的。
发明内容
本发明的目的是为了更好地解决监控视频中存在的低光照和运动模糊的问题,而提供一种用于监控视频增强的渐进式特征流深度融合网络,提出了一个多级特征流融合网络对监控视频进行亮度增强和一个三阶段特征流融合网络来消除监控视频中的运动模糊。
为实现本发明的目的所采用的技术方案是:
一种用于监控视频增强的渐进式特征流深度融合网络,包括:
用于对监控视频进行亮度增强的多级特征流融合网络;所述多级特征流融合网络包括U形融合模块UFM,输入与所述U形融合模块UFM的输出连接的跨尺度融合模块CFM;所述U形融合模块UFM的输入连接第一基本卷积层的输出,所述跨尺度融合模块CFM的输出第二基本卷积层的输入;
所述第一基本卷积层的输入与输入侧结合一卷积层的渗漏整流线性单元的输出连接,所述第二基本卷积层的输出连接帧重建模块的输入,所述帧重建模块用于将所述渗漏整流线性单元的输出的浅层特征以及第二基本卷积层的输出的深层融合特征跳跃连接后形成的深层特征映射成亮度增强后的单帧图像。
其中,所述U形融合模块UFM包括由多个残差组RG构成的U形的编码解码网络,并在编码侧与解码侧之间设置有通道注意力模块CA,通道注意力模块CA与解码侧的残差组RG之间布置有卷积层;
从第一阶段开始逐渐对特征图进行下采样;在收缩路径中,在每个级别使用残差组RG提取特征;使用一层卷积对特征图下采样后,特征的小尺度信息将传到下一阶段的残差组RG再次提取特征;第一阶段通道数不变,其他两个阶段的第一层卷积会将通道数扩充一倍,以提取更加丰富的特征信息;
在扩展路径中,使用反卷积进行上采样操作,同上一阶段经过通道注意力模块CA加权的特征图在通道维度进行拼接,然后使用一层卷积将通道数缩减一倍,再使用残差组RG进一步处理;
其中,所述通道注意力模块CA包括:依次顺序连接的全局均值池化层、第一全连接层FC、修正线性单元ReLU、第二全连接层FC、Sigmoid激活层;通过全局均值池化操作得到C×1×1大小的初始权重张量后,通过Sigmoid激活层输最后的权重张量FM:
FM=f(FC2(δ(FC1(z))))
其中,f(·)表示Sigmoid门函数,FC1和FC2表示两个全连接层,δ(·)表示修正线性单元ReLU激活函数,C表示通道数。
其中,所述残差组RG包括四个顺序布置的增强残差块ERB,前三个增强残差块ERB提取的特征连接到最后一个增强残差块ERB的后端,并与最后一个增强残差块ERB的输出在通道维度拼接;其特征提取方式表示如下:
FERB0表示输入到残差组RG的特征图,FERB1,FERB2,FERB3,FERB4分别表示四个增强残差块ERB的输出,FC表示聚合后的残差特征图;经过一层卷积缩减通道数后,再与残差组RG的输入做一个残差连接,最后输出:
FRG=FERB0+HConv(FC)
其中FRG表示残差组RG的输出,HConv(·)表示恢复通道数的卷积操作。
其中,所述增强残差块ERB由一个卷积层、一个修正线性单元ReLU、另一个卷积层和一个增强空间注意力模块ESA顺次连接构成。
其中,所述增强空间注意力模块ESA依次包括用于缩减通道数的一层卷积层,用于扩大感受野的一层卷积加池化层,所述卷积加池化层后连接卷积组RG,所述卷积组RG后连接用于将特征上采样到到初始大小的上采样层,然后同初始缩减通道后的特征做残差连接;表达式如下:
Frf=Herf(F1)+F1
其中Herf表示卷积、池化、卷积组RG、上采样层顺次连接的特征提取操作,Frf表示提取的感兴趣区域;
做残差连接后,再经一层卷积恢复通道数,最后经过Sigmoid激活后得到注意力掩膜;初始的特征图同这个注意力掩膜做哈达玛积,得到加权后的特征图;表达式如下:
FESA=HS(HC2(Frf))e F0
其中FESA表示增强空间注意力(ESA)模块输出的特征图,HC2(·)表示恢复通道数的卷积操作,HS(·)表示Sigmoid激活,e表示哈达玛积。
其中,所述的跨尺度融合模块CFM包括多层结构,每层包括多个残差块RB,分别用于提取、融合不同分辨率的特征;不同尺度的特征融合前先经过上采样和\或下采样调整到相同尺度,经过上采样和\或下采样后将相同尺度的特征图在通道维度进行拼接,进而融合特征图;所述残差块RB的主体是一层卷积、实例正则化层、渗漏整流线性单元LreLU和一层卷积的顺次连接。
其中,所述多级特征流融合网络的整体损失可表示如下:
lMFFN=λ1LContent+λ2LMS-SSIM+λ3LPerceptual+λ4LColor
其中λ1,λ2,λ3,λ4是表示各项损失权重的超参数,
其中HMFFN(·)表示多级特征流融合网络MFFN函数,IL表示低亮度视频的单帧图像,IGT表示基准视频的单帧图像;
多层级结构相似性通过在不同尺度下多次计算结构相似性后得到最终评价分数,因此使用多层级结构相似性损失能恢复出更加接近人主观感知的图像;图像的宽高以2M-1为缩小因子,例如当M=2时表示图像缩小一半,表达式如下:
其中αM,βj,γj表示可调节超参数,lM(x,y),cj(x,y),sj(x,y)分别表示不同尺度重建图像和基准图像之间的亮度、内容和结构相似度,LMS-SSIM表示多层级结构相似性损失;
感知损失度量首先通过预训练好的VGG-19网络提取深层特征,再度量重建视频的单帧图像同基准视频的单帧图像的深层特征之间的L1范数:
颜色损失的提出是为了减少重建视频和基准视频之间的色差,首先使用相同的高斯核处理重建后的视频单帧图像和基准视频单帧图像,然后计算二者L1范数:
其中G(·)表示高斯核,颜色损失促使减小重建单帧图像同基准单帧图像亮度和对比度的差异,忽略纹理和内容的差异,从而提高低光照单帧图像的亮度和对比度。
所述用于监控视频增强的渐进式特征流深度融合网络,还包括一个三阶段特征流融合网络TFFN,包括由顺序连接的多尺度融合模块MFM、跨尺度融合模块CFM和空洞卷积模块ACM构成的深层特征提取模块;多尺度融合模块MFM的前端布置有一层卷积加渗漏整流线性单元LreLU,用于提取浅层特征:提取的浅层特征输入到深层特征提取模块中处理;
其中,多尺度融合模块MFM通过残差连接对多尺度的信息进行融合,随后进入跨尺度融合模块CFM进一步提取和融合特征,最后由空洞卷积模块ACM中包含的并行空洞卷积进行特征提取,并使用一个通道注意力模块CA辅助特征融合,最后重建出的去除模糊后的单帧图像ID;表示如下:
ID=FMSB+IE,
FMSB=HMSB(FDFB)
FDFB=HACM(HCFM(HMFM(FOB)))
其中HMSB(·)表示由渗漏整流线性单元LReLU加卷积层组成的深层特征融合重建结构,FMSB表示重建得到的三通道特征,重建的深层特征与原始图片输入做残差连接后作为网络输出,即去除模糊后的单帧图像:
其中,FDFB表示提取到的深层次特征,HMFM(·)、HCFM(·)和HACM(·)分别表示多尺度融合模块MFM、跨尺度融合模块CFM和空洞卷积模块ACM。
其中,所述多尺度融合模块MFM包括多个特征提取模块,每个特征提取模块包括由一层卷积Conv、批归一化层BN和修正线性单元ReLU顺次连接形成的卷积块;从第一个阶段开始逐渐对特征图下采样,在收缩路径中使用两层卷积块以提取特征,在使用一层的两个卷积块进行下采样后,提取的特征将输入到下一阶段的特征提取模块,第一阶段卷积操作不会改变通道的数量,其他两个阶段第一个卷积操作会将通道数扩充一倍,特征在第二阶段使用三个卷积块以提取特征,第三个阶段使用五个卷积块以提取更加精细的小尺度特征;
在扩展路径中将特征图上采样,以便使用残差连接相同尺度的特征图,然后使用若干卷积块加一层卷积融合组合后的特征图,扩展路径的最终输出同该模块的输入做残差连接,从而得到该模块的最终输出。
其中,所述空洞卷积融合模块ACM包括四种不同扩张率的空洞卷积层,所述四种不同扩张率的空洞卷积层后布置有连接层;
输入特征Fin被同时输入到四种不同扩张率的空洞卷积层,然后将得到的特征图在通道维度拼接,表达式如下:
FAR=(HAR1(Fin),HAR2(Fin),HAR3(Fin),HAR4(Fin))
其中HAR1(·),HAR2(·),HAR3(·),HAR4(·),分别表示四种不同扩张率的空洞卷积,(·)表示通道维度的特征图拼接,随后FAR经过通道注意力模块CA对每个通道赋予学习到的权重,再经顺次连接的渗漏整流线性单元LReLU和卷积层融合特征并缩减通道数;空洞卷积融合模块ACM的输出表示为:
Fout=Fin+Hf(FAR)
其中Hf(·)表示特征融合函数,Fout表示空洞卷积融合模块ACM的输出特征。
其中,所述的三阶段特征流融合网络TFFN采用内容损失与感知损失组合形成的目标函数进行优化;
其中IR表示消除模糊后的单帧图像,Igt表示对应的基准视频的单帧图像,lContent表示内容损失,lPerceptual表示感知损失,α和β表示两项损失的权重参数,lTFFN表示多三阶段特征流融合网络TFFN的整体损失。
本发明构建了一个U形融合模块,以充分利用不同尺度的空间信息,同时引入通道注意力机制,以更有效地融合特征。
本发明提出了一个跨尺度融合模块,通过融合多种尺度的特征,进而达到更有效利用上下文信息的目的。
本发明提出了一个多尺度融合模块,并使用残差连接对不同尺度的特征进行融合。
为了更好地利用不同空间位置的信息并提升感受野大小,提出一个空洞卷积模块,使用四个并行的、不同扩张率的空洞卷积提取特征,并通过通道注意力机制辅助融合这些特征。
另外,本发明提出了多种损失函数组合的目标函数,从而促进网络恢复出更多细节和纹理信息。
附图说明
图1是本发明的亮度增强的多级特征流融合网络的结构示意图;
图2是本发明的U形融合模块UFM的结构示意图;
图3是本发明的增强残差块ERB的结构示意图;
图4是本发明的增强空间注意力模块ESA的结构示意图;
图5是本发明的跨尺度融合模块CFM的结构示意图;
图6是本发明的三阶段特征流融合网络的结构示意图;
图7是本发明的多尺度融合模块MFM的结构示意图;
图8是本发明的空洞卷积模块ACM的结构示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出两个用于监控视频增强的深度特征融合网络:其一是用于亮度增强的多级特征流融合网络(Multi-level Feature-Flow Fusion Network,MFFN),其二是用于运动模糊消除的三阶段特征流融合网络。
本发明设计了四个特征融合模块,以更好地利用空间特征信息,提升视频重建质量。凭借对空间特征信息的有效利用,本发明提出的两个网络在监控视频增强方面取得了良好的效果。
本发明用于监控视频增强的渐进式特征流深度融合网络,包括一个多级特征流融合网络(Multi-level Feature-Flow Fusion Network,MFFN),如图1所示,MFFN网络由U形融合模块(U-shaped Fusion Module,UFM)和跨尺度融合模块(Cross-Scale FusionModule,CFM)构成。
本发明用IL表示初始的退化图片,IE表示亮度增强后的输出。本发明使用一层卷积结合渗漏整流线性单元(Leaky Rectified Linear Unit,LReLU)提取浅层特征F0:
F0=HSFA(IL) (1)
其中HSFA(·)表示卷积加LReLU激活操作。随后,提取到的浅层特征F0被输入到深层特征提取模块,用于深层特征的提取与融合。因此,可以进一步得到以下表达式:
FMSA=HConv2(HCFM(HUFM(HConv1(F0)))) (2)
其中,HConv1(·)和HConv2(·)均表示卷积层,HUFM(·),HCFM(·)分别表示UFM和CFM两个特征提取融合模块。其中UFM使用残差组(Residual Group,RG)提取丰富的多尺度信息,并且通过通道注意力机制对多尺度信息进行融合,增加有效特征的权重。CFM增加了不同尺度信息的融合,进而更有效地利用不同尺度的空间特征信息。经过卷积层进一步融合特征后,通过跳跃连接与浅层特征F0连接,得到深层特征:
FDFA=FMSA+IL (3)
最后通过帧重建模块将深层特征映射成亮度增强后的单帧图像IE:
IE=HRMA(FDFA)=HMFFN(IL) (4)
其中HRMA(·)表示帧重建模块,HMFFN(·)表示整个MFFN网络函数。
本发明提出的U形融合模块(UFM),如图2所示。其中图2右侧为通道注意力(Channel Attention,CA)模块。U形融合模块(UFM)引入通道注意力(CA)机制增加不同尺度的有效特征的权重,进而帮助提升视频重建质量。基本的U形融合模块(UFM)本质上是一种编码解码网络,其中的收缩路径和对称扩展路径通过一系列的跳跃连接进行连接。
为了捕获更大感受野的空间特征信息,U形融合模块(UFM)从第一阶段(图2左侧第一个残差组(RG)开始逐渐对特征图进行下采样。在收缩路径中,在每个阶段使用残差组(RG)提取特征。使用一层卷积对特征图下采样后,特征的小尺度信息将传到下一阶段的残差组(RG)(图2左侧第二个残差组RG)再次提取特征。第一阶段通道数不变,其他两个阶段的第一层卷积会将通道数扩充一倍,以提取更加丰富的特征信息。在扩展路径中使用反卷积进行上采样操作,同上一阶段经过通道注意力(CA)加权的特征图在通道维度进行拼接,然后使用一层卷积将通道数缩减一倍,再使用残差组(RG)进一步处理。表示第m阶段的编码部分的残差模块的输出,表示(m+1)阶段的解码部分的残差组(RG)输出。第m级的输出可表示为:
通道注意力(CA)模块的结构如图2右侧所示,对输入到该模块的特征图进行全局均值池化操作得到C×1×1(C表示通道数)大小的初始权重张量,如下式所示(以第c个通道为例):
其中H、W分别表示特征图的长和宽。而后经过全连接层(Fully Connected Layer,FC)、修正线性单元(Rectified Linear Unit,ReLU)、全连接层(FC)和Sigmoid激活后得到最终的权重张量FM:
FM=f(FC2(δ(FC1(z)))) (7)
其中f(·)表示Sigmoid门函数,FC1和FC2表示两个全连接层,δ(·)表示修正线性单元(ReLU)激活函数。
U形融合模块(UFM)中的残差组(RG)模块如图3所示,上半部是残差组(RG)的主干部分,下半部分是主干中增强残差块(Enhanced Residual Block,ERB)的结构。为了更好地利用局部残差特征,该模块将前三个增强残差块(ERB)提取的特征连接到第四个增强残差块(ERB)的后端,并与最后一个增强残差块(ERB)的输出在通道维度拼接,表达式如下:
其中FERB0表示输入到残差组(RG)模块的特征图,FERB1,FERB2,FERB3,FERB4分别表示四个增强残差块(ERB)的输出,FC表示聚合后的残差特征图。经过一层卷积缩减通道数后,再与残差组(RG)模块的输入做一个残差连接,表达式如下:
FRG=FERB0+HConv(FC) (9)
其中FRG表示残差组(RG)模块的输出,HConv(·)表示恢复通道数的卷积操作。
增强残差块(ERB)的结构如图3下半部分所示,由卷积、修正线性单元(ReLU)、卷积和增强空间注意力(Enhanced Spatial Attention,ESA)模块顺次连接构成。增强空间注意力(ESA)模块的结构如图4所示。该模块首先通过一层卷积缩减通道数:
F1=HC1(F0)(10)
其中F0表示输入增强空间注意力(ESA)模块的特征,HC1(·)表示缩减通道数的卷积操作,F1表示缩减通道数之后的特征图。然后使用一层卷积加池化来扩大感受野。经过一个卷积组(Conv Group,CG)处理后将特征上采样到初始大小,然后同初始缩减通道后的特征做残差连接,表达式如下:
Frf=Herf(F1)+F1 (11)
其中Herf表示卷积、池化、卷积组(CG)、上采样模块顺次连接的特征提取操作,Frf表示提取的感兴趣区域。然后再经一层卷积恢复通道数。最后经过Sigmoid激活后得到注意力掩膜。初始的特征图同这个注意力掩膜做哈达玛积,从而得到加权后的特征图。表达式如下:
FESA=HS(HC2(Frf))e F0 (12)
其中FESA表示增强空间注意力(ESA)模块输出的特征图,HC2(·)表示恢复通道数的卷积操作,HS(·)表示Sigmoid激活,e表示哈达玛积。
本发明提出的跨尺度融合模块(CFM),如图5所示。左侧为跨尺度融合模块(CFM)的整体架构,右侧为其中残差块(Residual Block,RB)的结构。跨尺度融合模块(CFM)通过更多的残差块(RB)提取、融合不同分辨率的特征。不同尺度的特征融合前需要先经过上采样或下采样调整到相同尺度。经过上采样或下采样后将相同尺度的特征图在通道维度进行拼接,进而融合特征图。
所述的跨尺度融合模块(CFM)由三层结构的残差块(RB)组成,每层包括多个顺序布置的残差块(RB),第一层的通道数不变,第二、三层的通道数对应扩充,第二、三层的残差块(RB)相应减少,如各自比上一层少两个;上一层的每个残差块(RB)处理后,经下采样后再由下一层的残差块(RB)以及同一层后续所连接的残差块(RB)处理,以提取融合不同分辨率特征,在每层的中间部分加强不同分辨率特征的融合。其中在中间部分每一层的每个残差块(RB),经上采样或下采样后再由每层的后续的残差块(RB)处理,实现融合了所有尺度的特征信息。这样的结构设计大大促进了不同尺度的深度特征信息融合,更加有效地利用了不同尺度的上下文信息。
所述的跨尺度融合模块(CFM)中的残差块(RB)结构如图5右侧所示。该结构的主体是一层卷积、实例正则化层、渗漏整流线性单元(LReLU)和一层卷积的顺次连接,然后在该结构主体的基础上引入残差连接。已证明残差连接可以防止模型退化,同时加快模型收敛速度。该模块可表示如下:
FRBO=HRB(FRBI)+FRBI (13)
其中FRBI、FRBO分别表示残差块(RB)的输入和输出,HRB(·)表示残差块(RB)主干特征提取函数。
本发明针对多级特征流融合网络(MFFN)提出了内容损失、多层级结构相似性损失、基于预训练VGG网络的感知损失和颜色损失组合的目标函数。
内容损失用于评估重建视频的单帧图像和基准视频的单帧图像之间的L1范数。通过减小平均像素差来加快模型收敛。表达式如下:
其中HMFFN(·)表示多级特征流融合网络(MFFN)函数,IL表示低亮度视频的单帧图像,IGT表示基准视频的单帧图像。
多层级结构相似性通过在不同尺度下多次计算结构相似性后得到最终评价分数。因此使用多层级结构相似性损失可以帮助恢复出更加接近人主观感知的图像。图像的宽高以2M-1为缩小因子,例如当M=2时表示图像缩小一半,表达式如下:
其中αM,βj,γj表示可调节超参数,lM(x,y),cj(x,y),sj(x,y)分别表示不同尺度重建图像和基准图像之间的亮度、内容和结构相似度,LMS-SSIM表示多层级结构相似性损失。
感知损失度量首先通过预训练好的VGG-19网络提取深层特征,再度量重建视频的单帧图像同基准视频的单帧图像的深层特征之间的L1范数:
颜色损失的提出是为了减少重建视频和基准视频之间的色差。首先使用相同的高斯核处理重建后的视频单帧图像和基准视频单帧图像,然后计算二者L1范数:
其中G(·)表示高斯核。这部分损失促使减小重建单帧图像同基准单帧图像亮度和对比度的差异,忽略纹理和内容的差异,从而提高低光照单帧图像的亮度和对比度。
亮度增强网络的整体损失可表示如下:
lMFFN=λ1LContent+λ2LMS-SSIM+λ3LPerceptual+λ4LColor (18)
其中λ1,λ2,λ3,λ4是表示各项损失权重的超参数。
本发明还提出一个三阶段特征流融合网络(Three-Stage Feature-Flow FusionNetwork,TFFN)。如图6所示。三阶段特征流融合网络(TFFN)主要由多尺度融合模块(Multi-Scale Fusion Module,MFM)、跨尺度融合模块(CFM)和空洞卷积模块(AtrousConvolutional Module,ACM)组成。初始阶段,本发明采用一层卷积加渗漏整流线性单元(LReLU)提取浅层特征:
FOB=HSFB(IE) (19)
其中HSFB(·)表示特征提取模块,FOB为提取的浅层特征。紧接着将浅层特征输入深层特征提取模块,表达式如下:
FDFB=HACM(HCFM(HMFM(FOB))) (20)
其中FDFB表示提取到的深层次特征,HMFM(·)、HCFM(·)和HACM(·)分别表示多尺度融合模块(MFM)、跨尺度融合模块(CFM)和空洞卷积模块(ACM)。这三个模块是网络的核心部分。多尺度融合模块(MFM)通过残差连接对多尺度的信息进行融合,随后进入跨尺度融合模块(CFM)模块进一步提取和融合特征,最后由空洞卷积模块(ACM)中包含的并行空洞卷积进行特征提取,并使用通道注意力(CA)机制辅助特征融合。并行空洞卷积使得无需下采样就可以获得更大的感受野,从而提取到更加精细的深层特征。进一步引出以下深层特征融合表达式:
FMSB=HMSB(FDFB) (21)
其中HMSB(·)表示由渗漏整流线性单元(LReLU)加卷积层组成的深层特征融合重建结构,FMSB表示重建得到的三通道特征。重建的深层特征与原始图片输入做残差连接后作为网络输出:
ID=FMSB+IE (22)
其中ID表示最终重建出的去除模糊后的单帧图像。这种残差连接可以使训练更稳定,同时加快模型收敛速度。
本发明提出的多尺度融合模块(MFM),如图7所示。该结构采用与U形融合模块(UFM)相似的设计理念,但是不同尺度特征的融合方式由通道维度的特征图拼接变更为残差连接。这样可以减少参数量,同时增加特征融合方式的多样性。特征提取的基本模块变更为一层卷积、批归一化层(Batch Normalization,BN)和修正线性单元(ReLU)的顺次连接(为叙述简便,以下称卷积块)。批归一化层(BN)的引入可以解决网络参数训练时内部协方差的偏移,进而使得网络更加容易训练。
为了获取更大的感受野,多尺度融合模块(MFM)从第一个阶段(图7中左起第1至第2个方框)开始逐渐对特征图下采样。在收缩路径中使用两个卷积层以提取特征。使用一层卷积进行下采样后,提取的特征将输入到下一阶段的卷积层特征提取模块。第一阶段卷积操作不会改变通道的数量,其他两个阶段第一个卷积操作会将通道数扩充一倍。特征在第二阶段使用三个卷积块(图7中左起第3至第5个方框)以提取特征,第三个阶段使用五个卷积块(图7中左起第6至第10个方框,第11个方框(Conv)用于融合这一尺度的特征)以提取更加精细的小尺度特征。
在扩展路径中将特征图上采样,以便使用残差连接相同尺度的特征图。然后使用若干卷积块加一层卷积融合组合后的特征图。扩展路径的最终输出同该模块的输入做残差连接,从而得到该模块的最终输出。
具体的,第三阶段的输出经过上采样后同第二阶段的输出作残差连接,然后进入两个卷积块和一层卷积,再经上采样后,同第一阶段的输出作残差连接,然后送入一个卷积块加一层卷积处理,输出同MFM模块初始输入作残差连接后作为本模块的最终输出。
本发明提出的空洞卷积融合模块(ACM),如图8所示。为了进一步扩大感受野,提取更丰富的上下文信息,本发明引入空洞卷积。使用空洞卷积的好处在于可以以较少的参数量获得更大的感受野。以扩张率为2时为例,其感受野与普通的5×5卷积感受野相同,而参数量和计算量与普通的3×3卷积相同。因此使用空洞卷积就可以提取更大范围的空间特征信息,而不必进行下采样操作,以防止信息丢失。
空洞卷积融合模块(ACM)的输入特征Fin被同时输入到四种不同扩张率的空洞卷积层,然后将得到的特征图在通道维度拼接,表达式如下:
FAR=(HAR1(Fin),HAR2(Fin),HAR3(Fin),HAR4(Fin)) (23)
其中HAR1(·),HAR2(·),HAR3(·),HAR4(·),分别表示四种不同扩张率的空洞卷积,(·)表示通道维度的特征图拼接。随后FAR经过通道注意力(CA)机制对每个通道赋予学习到的权重。再经顺次连接的渗漏整流线性单元(LReLU)和卷积层融合特征并缩减通道数。具体的,种扩张率的空洞卷积输出的特征拼接后会输入到全局池化(Global Pooling),全连接(FC),渗漏整流线性单元(LReLU),全连接(FC),Sigmoid的顺次连接的模块,输出为4C×1(C表示初始进入ACM模块特征的通道数)的权重,然后同前面提到的拼接后的特征做乘积,从而对拼接后的特征每个通道赋予一定的权重。加权后的特征图经渗漏整流线性单元(LReLU)处理后,再经一层卷积缩减通道数到C,然后同输入这一模块的初始输入作残差连接后作为ACM模块的最终输出。
空洞卷积融合模块(ACM)的输出可表示为:
Fout=Fin+Hf(FAR) (24)
其中Hf(·)表示特征融合函数,Fout表示空洞卷积融合模块(ACM)的输出特征。
本发明针对三阶段特征流融合网络(TFFN)提出了内容损失与感知损失组合的目标函数对网络进行优化。
其中IR表示消除模糊后的单帧图像,Igt表示对应的基准视频的单帧图像。lContent表示内容损失,lPerceptual表示感知损失,α和β表示两项损失的权重参数,lTFFN表示多三阶段特征流融合网络(TFFN)的整体损失。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (12)
1.用于监控视频增强的渐进式特征流深度融合网络,其特征在于,包括用于对监控视频进行亮度增强的多级特征流融合网络;所述多级特征流融合网络包括U形融合模块UFM,输入与所述U形融合模块UFM的输出连接的跨尺度融合模块CFM;所述U形融合模块UFM的输入连接第一基本卷积层的输出,所述跨尺度融合模块CFM的输出第二基本卷积层的输入;
所述第一基本卷积层的输入与输入侧结合一卷积层的渗漏整流线性单元的输出连接,所述第二基本卷积层的输出连接帧重建模块的输入,所述帧重建模块用于将所述渗漏整流线性单元的输出的浅层特征以及第二基本卷积层的输出的深层融合特征跳跃连接后形成的深层特征映射成亮度增强后的单帧图像。
2.根据权利要求1所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述U形融合模块UFM包括由多个残差组RG构成的U形的编码解码网络,并在编码侧与解码侧之间设置有通道注意力模块CA,通道注意力模块CA与解码侧的残差组RG之间布置有卷积层;
从第一阶段开始逐渐对特征图进行下采样;在收缩路径中,在每个级别使用残差组RG提取特征;使用一层卷积对特征图下采样后,特征的小尺度信息将传到下一阶段的残差组RG再次提取特征;第一阶段通道数不变,其他两个阶段的第一层卷积会将通道数扩充一倍,以提取更加丰富的特征信息;
在扩展路径中,使用反卷积进行上采样操作,同上一阶段经过通道注意力模块CA加权的特征图在通道维度进行拼接,然后使用一层卷积将通道数缩减一倍,再使用残差组RG进一步处理;
3.根据权利要求2所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述通道注意力模块CA包括:依次顺序连接的全局均值池化层、第一全连接层FC、修正线性单元ReLU、第二全连接层FC、Sigmoid激活层;通过全局均值池化操作得到C×1×1大小的初始权重张量后,通过Sigmoid激活层输最后的权重张量FM:
FM=f(FC2(δ(FC1(z))))
其中,f(·)表示Sigmoid门函数,FC1和FC2表示两个全连接层,δ(·)表示修正线性单元ReLU激活函数,C表示通道数。
4.根据权利要求2所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述残差组RG包括四个顺序布置的增强残差块ERB,前三个增强残差块ERB提取的特征连接到最后一个增强残差块ERB的后端,并与最后一个增强残差块ERB的输出在通道维度拼接;其特征提取方式表示如下:
FERB0表示输入到残差组RG的特征图,FERB1,FERB2,FERB3,FERB4分别表示四个增强残差块ERB的输出,FC表示聚合后的残差特征图;经过一层卷积缩减通道数后,再与残差组RG的输入做一个残差连接,最后输出:
FRG=FERB0+HConv(FC)
其中FRG表示残差组RG的输出,HConv(·)表示恢复通道数的卷积操作。
5.根据权利要求4所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述增强残差块ERB由一个卷积层、一个修正线性单元ReLU、另一个卷积层和一个增强空间注意力模块ESA顺次连接构成。
6.根据权利要求5所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述增强空间注意力模块ESA依次包括用于缩减通道数的一层卷积层,用于扩大感受野的一层卷积加池化层,所述卷积加池化层后连接卷积组RG,所述卷积组RG后连接用于将特征上采样到到初始大小的上采样层,然后同初始缩减通道后的特征做残差连接;表达式如下:
Frf=Herf(F1)+F1
其中Herf表示卷积、池化、卷积组RG、上采样层顺次连接的特征提取操作,Frf表示提取的感兴趣区域;
做残差连接后,再经一层卷积恢复通道数,最后经过Sigmoid激活后得到注意力掩膜;初始的特征图同这个注意力掩膜做哈达玛积,得到加权后的特征图;表达式如下:
FESA=HS(HC2(Frf))e F0
其中FESA表示增强空间注意力(ESA)模块输出的特征图,HC2(·)表示恢复通道数的卷积操作,HS(·)表示Sigmoid激活,e表示哈达玛积。
7.根据权利要求5所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述的跨尺度融合模块CFM包括多层结构,每层包括多个残差块RB,分别用于提取、融合不同分辨率的特征;不同尺度的特征融合前先经过上采样和\或下采样调整到相同尺度,经过上采样和\或下采样后将相同尺度的特征图在通道维度进行拼接,进而融合特征图;所述残差块RB的主体是一层卷积、实例正则化层、渗漏整流线性单元LreLU和一层卷积的顺次连接。
8.根据权利要求5所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,多级特征流融合网络的整体损失可表示如下:
lMFFN=λ1LContent+λ2LMS-SSIM+λ3LPerceptual+λ4LColor
其中λ1,λ2,λ3,λ4是表示各项损失权重的超参数,
其中HMFFN(·)表示多级特征流融合网络MFFN函数,IL表示低亮度视频的单帧图像,IGT表示基准视频的单帧图像;
多层级结构相似性通过在不同尺度下多次计算结构相似性后得到最终评价分数,因此使用多层级结构相似性损失能恢复出更加接近人主观感知的图像;图像的宽高以2M-1为缩小因子,例如当M=2时表示图像缩小一半,表达式如下:
其中αM,βj,γj表示可调节超参数,lM(x,y),cj(x,y),sj(x,y)分别表示不同尺度重建图像和基准图像之间的亮度、内容和结构相似度,LMS-SSIM表示多层级结构相似性损失;
感知损失度量首先通过预训练好的VGG-19网络提取深层特征,再度量重建视频的单帧图像同基准视频的单帧图像的深层特征之间的L1范数:
颜色损失的提出是为了减少重建视频和基准视频之间的色差,首先使用相同的高斯核处理重建后的视频单帧图像和基准视频单帧图像,然后计算二者L1范数:
其中G(·)表示高斯核,颜色损失促使减小重建单帧图像同基准单帧图像亮度和对比度的差异,忽略纹理和内容的差异,从而提高低光照单帧图像的亮度和对比度。
9.根据权利要求1-8任一项所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,还包括一个三阶段特征流融合网络TFFN,包括由顺序连接的多尺度融合模块MFM、跨尺度融合模块CFM和空洞卷积模块ACM构成的深层特征提取模块;多尺度融合模块MFM的前端布置有一层卷积加渗漏整流线性单元LreLU,用于提取浅层特征:提取的浅层特征输入到深层特征提取模块中处理;
其中,多尺度融合模块MFM通过残差连接对多尺度的信息进行融合,随后进入跨尺度融合模块CFM进一步提取和融合特征,最后由空洞卷积模块ACM中包含的并行空洞卷积进行特征提取,并使用一个通道注意力模块CA辅助特征融合,最后重建出的去除模糊后的单帧图像ID;表示如下:
ID=FMSB+IE,
FMSB=HMSB(FDFB)
FDFB=HACM(HCFM(HMFM(FOB)))
其中HMSB(·)表示由渗漏整流线性单元LReLU加卷积层组成的深层特征融合重建结构,FMSB表示重建得到的三通道特征,重建的深层特征与原始图片输入做残差连接后作为网络输出,即去除模糊后的单帧图像:
其中,FDFB表示提取到的深层次特征,HMFM(·)、HCFM(·)和HACM(·)分别表示多尺度融合模块MFM、跨尺度融合模块CFM和空洞卷积模块ACM。
10.根据权利要求9所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述多尺度融合模块MFM包括多个特征提取模块,每个特征提取模块包括由一层卷积Conv、批归一化层BN和修正线性单元ReLU顺次连接形成的卷积块;从第一个阶段开始逐渐对特征图下采样,在收缩路径中使用两层卷积块以提取特征,在使用一层的两个卷积块进行下采样后,提取的特征将输入到下一阶段的特征提取模块,第一阶段卷积操作不会改变通道的数量,其他两个阶段第一个卷积操作会将通道数扩充一倍,特征在第二阶段使用三个卷积块以提取特征,第三个阶段使用五个卷积块以提取更加精细的小尺度特征;
在扩展路径中将特征图上采样,以便使用残差连接相同尺度的特征图,然后使用若干卷积块加一层卷积融合组合后的特征图,扩展路径的最终输出同该模块的输入做残差连接,从而得到该模块的最终输出。
11.根据权利要求10所述用于监控视频增强的渐进式特征流深度融合网络,其特征在于,所述空洞卷积融合模块ACM包括四种不同扩张率的空洞卷积层,所述四种不同扩张率的空洞卷积层后布置有连接层;
输入特征Fin被同时输入到四种不同扩张率的空洞卷积层,然后将得到的特征图在通道维度拼接,表达式如下:
FAR=(HAR1(Fin),HAR2(Fin),HAR3(Fin),HAR4(Fin))
其中HAR1(·),HAR2(·),HAR3(·),HAR4(·),分别表示四种不同扩张率的空洞卷积,(·)表示通道维度的特征图拼接,随后FAR经过通道注意力模块CA对每个通道赋予学习到的权重,再经顺次连接的渗漏整流线性单元LReLU和卷积层融合特征并缩减通道数;空洞卷积融合模块ACM的输出表示为:
Fout=Fin+Hf(FAR)
其中Hf(·)表示特征融合函数,Fout表示空洞卷积融合模块ACM的输出特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011230728.5A CN112348766B (zh) | 2020-11-06 | 2020-11-06 | 一种用于监控视频增强的渐进式特征流深度融合网络 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011230728.5A CN112348766B (zh) | 2020-11-06 | 2020-11-06 | 一种用于监控视频增强的渐进式特征流深度融合网络 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112348766A true CN112348766A (zh) | 2021-02-09 |
CN112348766B CN112348766B (zh) | 2023-04-18 |
Family
ID=74429511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011230728.5A Active CN112348766B (zh) | 2020-11-06 | 2020-11-06 | 一种用于监控视频增强的渐进式特征流深度融合网络 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348766B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034413A (zh) * | 2021-03-22 | 2021-06-25 | 西安邮电大学 | 一种基于多尺度融合残差编解码器的低照度图像增强方法 |
CN113052188A (zh) * | 2021-03-26 | 2021-06-29 | 大连理工大学人工智能大连研究院 | 一种遥感图像目标检测方法、系统、设备以及存储介质 |
CN113052180A (zh) * | 2021-03-23 | 2021-06-29 | 中国人民解放军战略支援部队信息工程大学 | 融合语义流场的编解码网络港口影像分割方法 |
CN113284064A (zh) * | 2021-05-24 | 2021-08-20 | 西安理工大学 | 一种基于注意力机制跨尺度上下文低照度图像增强方法 |
CN113673559A (zh) * | 2021-07-14 | 2021-11-19 | 南京邮电大学 | 一种基于残差网络的视频人物时空特征提取方法 |
CN113781312A (zh) * | 2021-11-11 | 2021-12-10 | 深圳思谋信息科技有限公司 | 视频增强方法、装置、计算机设备和存储介质 |
CN114118199A (zh) * | 2021-09-01 | 2022-03-01 | 济宁安泰矿山设备制造有限公司 | 一种用于智能泵腔体内窥镜故障诊断的图像分类方法及系统 |
CN114581318A (zh) * | 2022-01-24 | 2022-06-03 | 广东省科学院智能制造研究所 | 一种低照明度图像增强方法及系统 |
CN114663654A (zh) * | 2022-05-26 | 2022-06-24 | 西安石油大学 | 一种改进YOLOv4网络模型及小目标检测方法 |
CN114677412A (zh) * | 2022-03-18 | 2022-06-28 | 苏州大学 | 一种光流估计的方法、装置以及设备 |
CN114724022A (zh) * | 2022-03-04 | 2022-07-08 | 大连海洋大学 | 融合SKNet与YOLOv5的养殖鱼群检测方法、系统和介质 |
CN117152162A (zh) * | 2023-11-01 | 2023-12-01 | 贵州健易测科技有限公司 | 一种用于食品分拣的图像处理方法、设备和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376392A (zh) * | 2018-01-30 | 2018-08-07 | 复旦大学 | 一种基于卷积神经网络的图像运动模糊去除方法 |
CN109343692A (zh) * | 2018-09-18 | 2019-02-15 | 河南大学 | 基于图像分割的移动设备显示器省电方法 |
CN109360171A (zh) * | 2018-10-26 | 2019-02-19 | 北京理工大学 | 一种基于神经网络的视频图像实时去模糊方法 |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
CN110084108A (zh) * | 2019-03-19 | 2019-08-02 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于gan神经网络的行人重识别系统及方法 |
CN110276753A (zh) * | 2019-06-20 | 2019-09-24 | 兰州理工大学 | 基于特征空间统计信息映射的目标自适应隐藏方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111179167A (zh) * | 2019-12-12 | 2020-05-19 | 天津大学 | 一种基于多阶段注意力增强网络的图像超分辨方法 |
CN111311490A (zh) * | 2020-01-20 | 2020-06-19 | 陕西师范大学 | 基于多帧融合光流的视频超分辨率重建方法 |
CN111489372A (zh) * | 2020-03-11 | 2020-08-04 | 天津大学 | 基于级联卷积神经网络的视频前背景分离方法 |
CN111833246A (zh) * | 2020-06-02 | 2020-10-27 | 天津大学 | 基于注意力级联网络的单帧图像超分辨方法 |
US20210174170A1 (en) * | 2018-11-30 | 2021-06-10 | Tencent Technology (Shenzhen) Company Limited | Sequence model processing method and apparatus |
-
2020
- 2020-11-06 CN CN202011230728.5A patent/CN112348766B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376392A (zh) * | 2018-01-30 | 2018-08-07 | 复旦大学 | 一种基于卷积神经网络的图像运动模糊去除方法 |
CN109343692A (zh) * | 2018-09-18 | 2019-02-15 | 河南大学 | 基于图像分割的移动设备显示器省电方法 |
CN109360171A (zh) * | 2018-10-26 | 2019-02-19 | 北京理工大学 | 一种基于神经网络的视频图像实时去模糊方法 |
US20210174170A1 (en) * | 2018-11-30 | 2021-06-10 | Tencent Technology (Shenzhen) Company Limited | Sequence model processing method and apparatus |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
CN110084108A (zh) * | 2019-03-19 | 2019-08-02 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于gan神经网络的行人重识别系统及方法 |
CN110276753A (zh) * | 2019-06-20 | 2019-09-24 | 兰州理工大学 | 基于特征空间统计信息映射的目标自适应隐藏方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111179167A (zh) * | 2019-12-12 | 2020-05-19 | 天津大学 | 一种基于多阶段注意力增强网络的图像超分辨方法 |
CN111311490A (zh) * | 2020-01-20 | 2020-06-19 | 陕西师范大学 | 基于多帧融合光流的视频超分辨率重建方法 |
CN111489372A (zh) * | 2020-03-11 | 2020-08-04 | 天津大学 | 基于级联卷积神经网络的视频前背景分离方法 |
CN111833246A (zh) * | 2020-06-02 | 2020-10-27 | 天津大学 | 基于注意力级联网络的单帧图像超分辨方法 |
Non-Patent Citations (2)
Title |
---|
MINGXING TAN ET AL.: "EfficientDet: Scalable and Efficient Object Detection", 《IEEE》 * |
马永杰等: "多尺度特征融合与极限学习机结合的交通标志识别", 《液晶与显示》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034413A (zh) * | 2021-03-22 | 2021-06-25 | 西安邮电大学 | 一种基于多尺度融合残差编解码器的低照度图像增强方法 |
CN113034413B (zh) * | 2021-03-22 | 2024-03-05 | 西安邮电大学 | 一种基于多尺度融合残差编解码器的低照度图像增强方法 |
CN113052180A (zh) * | 2021-03-23 | 2021-06-29 | 中国人民解放军战略支援部队信息工程大学 | 融合语义流场的编解码网络港口影像分割方法 |
CN113052188A (zh) * | 2021-03-26 | 2021-06-29 | 大连理工大学人工智能大连研究院 | 一种遥感图像目标检测方法、系统、设备以及存储介质 |
CN113284064A (zh) * | 2021-05-24 | 2021-08-20 | 西安理工大学 | 一种基于注意力机制跨尺度上下文低照度图像增强方法 |
CN113673559A (zh) * | 2021-07-14 | 2021-11-19 | 南京邮电大学 | 一种基于残差网络的视频人物时空特征提取方法 |
CN113673559B (zh) * | 2021-07-14 | 2023-08-25 | 南京邮电大学 | 一种基于残差网络的视频人物时空特征提取方法 |
CN114118199A (zh) * | 2021-09-01 | 2022-03-01 | 济宁安泰矿山设备制造有限公司 | 一种用于智能泵腔体内窥镜故障诊断的图像分类方法及系统 |
CN113781312A (zh) * | 2021-11-11 | 2021-12-10 | 深圳思谋信息科技有限公司 | 视频增强方法、装置、计算机设备和存储介质 |
CN114581318A (zh) * | 2022-01-24 | 2022-06-03 | 广东省科学院智能制造研究所 | 一种低照明度图像增强方法及系统 |
CN114724022A (zh) * | 2022-03-04 | 2022-07-08 | 大连海洋大学 | 融合SKNet与YOLOv5的养殖鱼群检测方法、系统和介质 |
CN114724022B (zh) * | 2022-03-04 | 2024-05-10 | 大连海洋大学 | 融合SKNet与YOLOv5的养殖鱼群检测方法、系统和介质 |
CN114677412A (zh) * | 2022-03-18 | 2022-06-28 | 苏州大学 | 一种光流估计的方法、装置以及设备 |
CN114663654A (zh) * | 2022-05-26 | 2022-06-24 | 西安石油大学 | 一种改进YOLOv4网络模型及小目标检测方法 |
CN117152162B (zh) * | 2023-11-01 | 2023-12-26 | 贵州健易测科技有限公司 | 一种用于食品分拣的图像处理方法、设备和存储介质 |
CN117152162A (zh) * | 2023-11-01 | 2023-12-01 | 贵州健易测科技有限公司 | 一种用于食品分拣的图像处理方法、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112348766B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348766B (zh) | 一种用于监控视频增强的渐进式特征流深度融合网络 | |
CN109064507B (zh) | 一种用于视频预测的多运动流深度卷积网络模型方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN111028163A (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
CN111179167A (zh) | 一种基于多阶段注意力增强网络的图像超分辨方法 | |
CN111260560A (zh) | 一种融合注意力机制的多帧视频超分辨率方法 | |
CN111681166A (zh) | 一种堆叠注意力机制编解码单元的图像超分辨率重建方法 | |
CN116152120B (zh) | 一种融合高低频特征信息的低光图像增强方法及装置 | |
CN112001843B (zh) | 一种基于深度学习的红外图像超分辨率重建方法 | |
CN112734644A (zh) | 一种多个注意力结合光流的视频超分辨模型及方法 | |
CN114972134B (zh) | 一种提取并融合局部和全局特征的低光图像增强方法 | |
CN114170286B (zh) | 一种基于无监督深度学习的单目深度估计方法 | |
CN114463218A (zh) | 一种基于事件数据驱动的视频去模糊方法 | |
CN113610707B (zh) | 一种基于时间注意力与循环反馈网络的视频超分辨率方法 | |
CN117408924A (zh) | 一种基于多重语义特征融合网络的低光照图像增强方法 | |
CN116389912B (zh) | 脉冲相机融合普通相机重构高帧率高动态范围视频的方法 | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
CN116433516A (zh) | 一种基于注意力机制的低照度图像去噪增强方法 | |
CN113487481B (zh) | 基于信息构建和多密集残差块的循环视频超分辨率方法 | |
CN114821438A (zh) | 一种基于多路径激励的视频人体行为识别方法及系统 | |
CN114897768A (zh) | 一种基于语义细化的空间金字塔人群计数方法 | |
CN117853340B (zh) | 基于单向卷积网络和降质建模的遥感视频超分辨率重建方法 | |
CN116128768B (zh) | 一种带有去噪模块的无监督图像低照度增强方法 | |
CN117078540A (zh) | 基于多阶段串并联的上下文细节渐进式图像去噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |