CN113256528B - 基于多尺度级联深度残差网络的低照度视频增强方法 - Google Patents
基于多尺度级联深度残差网络的低照度视频增强方法 Download PDFInfo
- Publication number
- CN113256528B CN113256528B CN202110617901.5A CN202110617901A CN113256528B CN 113256528 B CN113256528 B CN 113256528B CN 202110617901 A CN202110617901 A CN 202110617901A CN 113256528 B CN113256528 B CN 113256528B
- Authority
- CN
- China
- Prior art keywords
- scale
- low
- network
- enhancement
- residual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 230000009467 reduction Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开基于多尺度级联深度残差网络的低照度视频增强方法,首先构建低照度视频增强数据集,然后构建用于低照度视频增强的多尺度级联深度残差网络模型,该模型由一个粗尺度增强网络和一个细尺度增强网络构成,其中粗尺度增强网络和细尺度增强网络均由一个去噪深度残差网络和一个相应的对比度拉伸深度残差网络级联构成,在此基础上基于低照度视频增强数据集对多尺度级联深度残差网络模型进行训练,最后将待处理的低照度视频图像序列输入训练完成的网络模型,快速进行视频增强,生成增强后的视频图像。本发明的方法利用多尺度级联深度残差网络充分挖掘低照度视频图像中的多维特征,能够有效提高视频增强效果。
Description
技术领域
本发明涉及视频图像处理技术,具体指基于多尺度级联深度残差网络的低照度视频增强方法。
背景技术
尽管相机传感器技术在近年来获得了快速发展,但在低照度环境下视频图像质量会受到噪声和对比度降低问题的影响,并影响后续的目标检测、目标识别、目标跟踪和语义分割等视频内容智能分析过程。相比于单幅图像而言,视频图像序列因为具有较高的捕获率,成像质量往往更差,信噪比更低;与此同时,视频图像序列又具备显著的时空冗余性,其中包含的场景信息更加丰富,也为视频图像增强提供了更有利的条件。
传统的低照度视频增强方法主要缺点在于:(1)无法从多个尺度层次上对低照度视频图像进行感知,因此不能充分挖掘低照度视频图像中的丰富信息;(2)低照度视频增强算法复杂度不够,无法充分模拟低照度视频增强的复杂函数关系,算法鲁棒性差,增强效果受到制约。提出更加高效的低照度视频增强方法,能够进一步抑制低照度视频图像中存在的噪声,有效提升对比度,并为后续智能分析过程提供更高质量的数据源。
发明内容
本发明为克服上述问题,旨在提供一种基于多尺度级联深度残差网络的低照度视频增强方法,利用数据集中的大量样本,从多个尺度层次自动学习低照度视频图像特征,利用多尺度级联深度残差网络模型出色的学习能力抑制低照度视频图像中的噪声,并有效提升对比度。
一种基于多尺度级联深度残差网络的低照度视频增强方法,包括以下步骤:
步骤一:构建低照度视频增强数据集,并将该数据集划分为训练集和测试集两部分;
所述步骤一中低照度视频增强数据集的样本数量不少于11000个,其中每个样本包含2k+1帧(k=1,2,3,...,)低照度视频图像序列和其中第k+1帧视频图像所对应的增强图像。训练集和测试集的样本数量比约为10:1。
步骤二:构建用于低照度视频增强的多尺度级联深度残差网络模型;该模型输入为低照度视频图像序列,输出为增强后的视频图像;该模型由一个粗尺度增强网络和一个细尺度增强网络构成,其中粗尺度增强网络和细尺度增强网络均由一个去噪深度残差网络和一个相应的对比度拉伸深度残差网络级联构成;
所述步骤二中多尺度级联深度残差网络模型的输入是2k+1帧(k=1,2,3,...,)低照度视频图像序列,输出为第k+1帧低照度视频图像所对应的增强图像,其中低照度视频图像序列分辨率为h×w,其中h和w分别为视频图像的高度和宽度;多尺度级联深度残差网络模型包括粗尺度增强网络和细尺度增强网络两个子网络;粗尺度增强网络从低分辨率层次上对低照度视频图像进行初步增强处理,包括粗尺度去噪网络和粗尺度对比度提升网络;细尺度增强网络从高分辨率层次上对低照度视频图像进行进一步增强处理,包括细尺度去噪网络和细尺度对比度提升网络。
所述粗尺度去噪网络的输入为2k+1帧低照度视频图像序列,首先通过池化层将输入视频图像序列的分辨率降低为然后通过1个输入卷积层、4个残差单元和1个输出卷积层对低分辨率的低照度视频图像序列进行卷积处理,生成第k+1帧低照度视频图像所对应的低分辨率去噪图像;粗尺度对比度提升网络的输入为低分辨率去噪图像,通过1个输入卷积层、4个残差单元和1个输出卷积层对低分辨率去噪图像进行卷积处理,生成第k+1帧低照度视频图像所对应的低分辨率增强图像;在此基础上,通过1个反卷积层对粗尺度对比度提升网络最后一个残差单元输出的特征图进行处理,生成分辨率为h×w的粗尺度增强特征图。进而利用细尺度去噪网络进行处理,首先通过1个连接层将2k+1帧低照度视频图像序列和粗尺度增强特征图连接,在此基础上通过1个输入卷积层、4个残差单元和1个输出卷积层对连接后的特征图进行处理,最终输出第k+1帧低照度视频图像所对应的高分辨率去噪图像;细尺度对比度提升网络的输入为高分辨率去噪图像,通过1个输入卷积层、4个残差单元和1个输出卷积层对高分辨率去噪图像进行卷积处理,最终生成第k+1帧低照度视频图像所对应的高分辨率增强图像;细尺度增强网络的输入卷积层、残差单元与输出卷积层和粗尺度网络中的对应部分具有相同结构,残差单元包括2个卷积层和1个残差连接。
步骤三:利用步骤一中的训练集对多尺度级联深度残差网络模型进行训练,得到训练完成的网络模型;
所述步骤三中多尺度级联深度残差网络模型的训练过程可使用Caffe,Tensorflow或PyTorch深度学习框架。
步骤四:将待处理的低照度视频图像序列输入训练完成的多尺度级联深度残差网络,快速进行视频增强,生成增强后的视频图像。
本发明有益效果:与现有技术中的低照度视频增强方法相比,本发明的方法利用多尺度级联深度残差网络来自动学习低照度视频图像的特征,能够从多个尺度层面充分挖掘低照度视频图像中的多维特征,更加准确地模拟从低照度视频图像到增强视频图像的复杂函数关系,有效提高视频增强效果。
附图说明
图1是本发明方法的流程图;
图2是用于低照度视频增强的多尺度级联深度残差网络;
图3是输入的低照度视频图像序列;
图4是基于多尺度级联深度残差网络的低照度视频增强后的视频图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本实施例提供的基于多尺度级联深度残差网络的低照度视频增强方法,包括如下步骤:
步骤一:构建低照度视频增强数据集,并将该数据集划分为训练集和测试集两部分。低照度视频增强数据集中每个样本包含3帧低照度视频图像序列和其中第2帧视频图像所对应的增强图像。在具体实施过程中,低照度视频增强数据集的样本数量不少于11000个,训练集和测试集的样本数量比为10:1。
通过对正常照度视频图像序列进行对比度降低和增加噪声的方式,生成低照度视频图像序列。其中对比度降低比例为[0.2,0.5]。增加高斯噪声和脉冲噪声,其中高斯噪声标准差取值范围是[20,50],被脉冲噪声破坏的像素比例范围是[0.1,0.3],脉冲噪声服从[0,255]均匀分布。在构建数据集过程中,可以采用多种方法进行数据扩增,包括图像缩放、旋转、平移等方式,进一步提高网络模型性能。
步骤二:构建用于低照度视频增强的多尺度级联深度残差网络模型,网络模型具体结构如图2所示,输入为低照度视频图像序列,输出为增强后的视频图像。该模型由一个粗尺度增强网络和一个细尺度增强网络构成,其中粗尺度增强网络在低分辨率层次上对低照度视频图像进行初步处理,细尺度增强网络在高分辨率层次上进一步提升增强效果。粗尺度增强网络和细尺度增强网络均由一个去噪深度残差网络和一个相应的对比度拉伸深度残差网络级联构成。多尺度级联深度残差网络模型的输入是3帧低照度视频图像序列,输出为第2帧低照度视频图像所对应的增强图像,其中低照度视频图像序列分辨率为256×256;多尺度级联深度残差网络模型包括粗尺度增强网络和细尺度增强网络两个子网络;粗尺度增强网络从低分辨率层次上对低照度视频图像进行初步增强处理,包括粗尺度去噪网络和粗尺度对比度提升网络;细尺度增强网络从高分辨率层次上对低照度视频图像进行进一步增强处理,包括细尺度去噪网络和细尺度对比度提升网络。
粗尺度去噪网络的输入为3帧低照度视频图像序列,首先通过池化层将输入视频图像序列的分辨率降低为128×128,然后通过1个输入卷积层、4个残差单元和1个输出卷积层对低分辨率的低照度视频图像序列进行卷积处理,生成第2帧低照度视频图像所对应的低分辨率去噪图像,其中输入卷积层和残差单元均产生64个特征图,卷积核尺寸均为3×3;粗尺度对比度提升网络的输入为低分辨率去噪图像,通过1个输入卷积层、3个残差单元和1个输出卷积层对低分辨率去噪图像进行卷积处理,生成第2帧低照度视频图像所对应的低分辨率增强图像,其中输入卷积层和残差单元均产生64个特征图,卷积核尺寸均为3×3。在此基础上,通过1个反卷积层对粗尺度对比度提升网络最后一个残差单元输出的特征图进行处理,生成分辨率为256×256的粗尺度增强特征图,然后通过1个连接层将3帧低照度视频图像序列和粗尺度增强特征图连接,在此基础上通过1个输入卷积层、4个残差单元和1个输出卷积层对连接后的特征图进行处理,最终输出第2帧低照度视频图像所对应的高分辨率去噪图像;细尺度对比度提升网络的输入为高分辨率去噪图像,通过1个输入卷积层、4个残差单元和1个输出卷积层对高分辨率去噪图像进行卷积处理,最终生成第2帧低照度视频图像所对应的高分辨率增强图像。细尺度增强网络的输入卷积层、残差单元与输出卷积层和粗尺度网络中的对应部分具有相同结构,残差单元包括2个卷积层和1个残差连接。通过采用残差连接,减小梯度消失和梯度爆炸的风险,进一步提升网络的收敛速度,提升网络训练效果。
步骤三:利用步骤一中的训练集对多尺度级联深度残差网络模型进行训练,得到训练完成的网络模型。利用安装在Ubuntu系统上的Caffe环境训练该深度学习模型,其中Ubuntu系统版本为16.04。采用ADAM优化算法进行训练,该算法具有优秀性能,在深度网络模型训练方面应用广泛。初始学习率可设为0.001,该参数取值过大可能造成网络训练过程不收敛,过小可能造成网络模型性能较差,在实际训练过程中应根据经验和尝试进行调整。训练次数为500000次,其中,在训练次数为300000和400000时,学习率分别除以10。通过逐步降低学习率,可以逐步收敛到最终的网络模型。
步骤四:将图3所示待处理的低照度视频图像序列输入训练完成的多尺度级联深度残差网络,快速进行视频增强,生成增强后的视频图像,如图4所示。所提出方法能够充分利用运动边界所包含的结构信息,在滤除噪声、提升对比度的同时保留更多图像细节信息,提升低照度视频增强效果,并为后续的目标检测、识别、跟踪和分割等任务提供质量更高的输入视频图像。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (3)
1.基于多尺度级联深度残差网络的低照度视频增强方法,其特征在于,包括以下步骤:
步骤一:构建低照度视频增强数据集,并将该数据集划分为训练集和测试集两部分;
步骤二:构建用于低照度视频增强的多尺度级联深度残差网络模型;该模型输入为低照度视频图像序列,输出为增强后的视频图像;该模型由一个粗尺度增强网络和一个细尺度增强网络构成,其中,粗尺度增强网络和细尺度增强网络均由一个去噪深度残差网络和一个相应的对比度提升深度残差网络级联构成;
步骤三:利用步骤一中的训练集对多尺度级联深度残差网络模型进行训练,得到训练完成的网络模型;
步骤四:将待处理的噪声视频图像序列输入训练完成的多尺度级联深度残差网络,快速进行视频增强,生成增强后的视频图像;
其中,所述步骤二中多尺度级联深度残差网络模型的输入是2k+1帧低照度视频图像序列,输出为第k+1帧低照度视频图像所对应的增强图像,其中k=1,2,3,...,低照度视频图像序列分辨率为h×w,h和w分别为视频图像的高度和宽度;多尺度级联深度残差网络模型包括粗尺度增强网络和细尺度增强网络两个子网络;粗尺度增强网络从低分辨率层次上对低照度视频图像进行初步增强处理,包括粗尺度去噪网络和粗尺度对比度提升网络;细尺度增强网络从高分辨率层次上对低照度视频图像进行进一步增强处理,包括细尺度去噪网络和细尺度对比度提升网络;
所述粗尺度去噪网络的输入为2k+1帧低照度视频图像序列,首先通过池化层将输入视频图像序列的分辨率降低为然后通过1个输入卷积层、4个残差单元和1个输出卷积层对低分辨率的低照度视频图像序列进行卷积处理,生成第k+1帧低照度视频图像所对应的低分辨率去噪图像;粗尺度对比度提升网络的输入为低分辨率去噪图像,通过1个输入卷积层、3个残差单元和1个输出卷积层对低分辨率去噪图像进行卷积处理,生成第k+1帧低照度视频图像所对应的低分辨率增强图像;在此基础上,通过1个反卷积层对粗尺度对比度提升网络最后一个残差单元输出的特征图进行处理,生成分辨率为h×w的粗尺度增强特征图;进而利用细尺度去噪网络进行处理,首先通过1个连接层将2k+1帧低照度视频图像序列和粗尺度增强特征图连接,在此基础上通过1个输入卷积层、4个残差单元和1个输出卷积层对连接后的特征图进行处理,最终输出第k+1帧低照度视频图像所对应的高分辨率去噪图像;细尺度对比度提升网络的输入为高分辨率去噪图像,通过1个输入卷积层、3个残差单元和1个输出卷积层对高分辨率去噪图像进行卷积处理,最终生成第k+1帧低照度视频图像所对应的高分辨率增强图像;细尺度增强网络的输入卷积层、残差单元与输出卷积层和粗尺度网络中的对应部分具有相同结构,残差单元包括2个卷积层和1个残差连接。
2.根据权利要求1所述的基于多尺度级联深度残差网络的低照度视频增强方法,其特征在于:所述步骤一中低照度视频增强数据集的样本数量不少于11000个,其中每个样本包含2k+1帧低照度视频图像序列和其中第k+1帧视频图像所对应的增强图像,训练集和测试集的样本数量比为10:1,k=1,2,3,...。
3.根据权利要求1所述的基于多尺度级联深度残差网络的低照度视频增强方法,其特征在于:所述步骤三中多尺度级联深度残差网络模型的训练过程可使用Caffe,Tensorflow或PyTorch深度学习框架。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110617901.5A CN113256528B (zh) | 2021-06-03 | 2021-06-03 | 基于多尺度级联深度残差网络的低照度视频增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110617901.5A CN113256528B (zh) | 2021-06-03 | 2021-06-03 | 基于多尺度级联深度残差网络的低照度视频增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113256528A CN113256528A (zh) | 2021-08-13 |
CN113256528B true CN113256528B (zh) | 2022-05-27 |
Family
ID=77186112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110617901.5A Active CN113256528B (zh) | 2021-06-03 | 2021-06-03 | 基于多尺度级联深度残差网络的低照度视频增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113256528B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612347B (zh) * | 2022-05-11 | 2022-08-16 | 北京科技大学 | 一种多模块级联的水下图像增强方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN110930327A (zh) * | 2019-11-18 | 2020-03-27 | 浙江工商大学 | 基于级联深度残差网络的视频去噪方法 |
CN111080688A (zh) * | 2019-12-25 | 2020-04-28 | 左一帆 | 一种基于深度卷积神经网络的深度图增强方法 |
CN111784582A (zh) * | 2020-07-08 | 2020-10-16 | 桂林电子科技大学 | 一种基于dec_se的低照度图像超分辨率重建方法 |
CN111915526A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 一种基于亮度注意力机制低照度图像增强算法的摄影方法 |
CN111915525A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 基于改进深度可分离生成对抗网络的低照度图像增强方法 |
CN111986084A (zh) * | 2020-08-03 | 2020-11-24 | 南京大学 | 一种基于多任务融合的多相机低光照图像质量增强方法 |
CN112381897A (zh) * | 2020-11-16 | 2021-02-19 | 西安电子科技大学 | 基于自编码网络结构的低照度图像增强方法 |
CN112435191A (zh) * | 2020-11-25 | 2021-03-02 | 西安交通大学 | 一种基于多个神经网络结构融合的低照度图像增强方法 |
CN112767286A (zh) * | 2021-03-08 | 2021-05-07 | 中南大学 | 一种基于密集深度学习的暗光图像自适应增强方法 |
CN112801904A (zh) * | 2021-02-01 | 2021-05-14 | 武汉大学 | 一种基于卷积神经网络的混合退化图像增强方法 |
CN112862688A (zh) * | 2021-03-08 | 2021-05-28 | 西华大学 | 基于跨尺度注意力网络的图像超分辨率重建模型及方法 |
-
2021
- 2021-06-03 CN CN202110617901.5A patent/CN113256528B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN110930327A (zh) * | 2019-11-18 | 2020-03-27 | 浙江工商大学 | 基于级联深度残差网络的视频去噪方法 |
CN111080688A (zh) * | 2019-12-25 | 2020-04-28 | 左一帆 | 一种基于深度卷积神经网络的深度图增强方法 |
CN111784582A (zh) * | 2020-07-08 | 2020-10-16 | 桂林电子科技大学 | 一种基于dec_se的低照度图像超分辨率重建方法 |
CN111986084A (zh) * | 2020-08-03 | 2020-11-24 | 南京大学 | 一种基于多任务融合的多相机低光照图像质量增强方法 |
CN111915526A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 一种基于亮度注意力机制低照度图像增强算法的摄影方法 |
CN111915525A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 基于改进深度可分离生成对抗网络的低照度图像增强方法 |
CN112381897A (zh) * | 2020-11-16 | 2021-02-19 | 西安电子科技大学 | 基于自编码网络结构的低照度图像增强方法 |
CN112435191A (zh) * | 2020-11-25 | 2021-03-02 | 西安交通大学 | 一种基于多个神经网络结构融合的低照度图像增强方法 |
CN112801904A (zh) * | 2021-02-01 | 2021-05-14 | 武汉大学 | 一种基于卷积神经网络的混合退化图像增强方法 |
CN112767286A (zh) * | 2021-03-08 | 2021-05-07 | 中南大学 | 一种基于密集深度学习的暗光图像自适应增强方法 |
CN112862688A (zh) * | 2021-03-08 | 2021-05-28 | 西华大学 | 基于跨尺度注意力网络的图像超分辨率重建模型及方法 |
Non-Patent Citations (2)
Title |
---|
结合深度残差学习和感知损失的图像去噪;吴从中等;《中国图象图形学报》;20181016;第23卷(第10期);第1483-1491页 * |
超低照度下微光图像的深度卷积自编码网络复原;刘超等;《光学精密工程》;20180415;第26卷(第04期);第951-961页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113256528A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Single image defogging based on multi-channel convolutional MSRCR | |
CN109493303B (zh) | 一种基于生成对抗网络的图像去雾方法 | |
CN109934200B (zh) | 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统 | |
CN109241982B (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN113033570B (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN112926552B (zh) | 基于深度神经网络的遥感影像车辆目标识别模型及方法 | |
CN111401293A (zh) | 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法 | |
CN111145102A (zh) | 一种基于卷积神经网络的合成孔径雷达图像去噪方法 | |
CN113052775B (zh) | 一种图像去阴影方法及装置 | |
CN107729885B (zh) | 一种基于多重残差学习的人脸增强方法 | |
CN114926734B (zh) | 基于特征聚合和注意融合的固体废弃物检测装置及方法 | |
CN116363361A (zh) | 基于实时语义分割网络的自动驾驶方法 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN117557774A (zh) | 一种基于改进YOLOv8的无人机图像小目标检测方法 | |
CN113256528B (zh) | 基于多尺度级联深度残差网络的低照度视频增强方法 | |
CN117952883A (zh) | 一种基于双边网格和显著性引导的逆光图像增强方法 | |
CN117853735A (zh) | 一种单幅图像混合雨水去除方法 | |
CN116977204A (zh) | 一种基于选择性信息融合生成对抗网络的遥感图像去云方法 | |
CN112991398B (zh) | 基于协同深度神经网络的运动边界指导的光流滤波方法 | |
CN113222016B (zh) | 一种基于高层和低层特征交叉增强的变化检测方法及装置 | |
CN112651926A (zh) | 一种基于递归注意力机制的裂纹检测的方法及装置 | |
CN113012072A (zh) | 一种基于注意力网络的图像运动去模糊方法 | |
CN115393491A (zh) | 一种基于实例分割和参考帧的水墨视频生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |