CN112365428B - 一种基于dqn的高速公路监测视频去雾方法和系统 - Google Patents

一种基于dqn的高速公路监测视频去雾方法和系统 Download PDF

Info

Publication number
CN112365428B
CN112365428B CN202011413159.8A CN202011413159A CN112365428B CN 112365428 B CN112365428 B CN 112365428B CN 202011413159 A CN202011413159 A CN 202011413159A CN 112365428 B CN112365428 B CN 112365428B
Authority
CN
China
Prior art keywords
defogging
image
action
dqn
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011413159.8A
Other languages
English (en)
Other versions
CN112365428A (zh
Inventor
袁烨
张煜
董云龙
唐秀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202011413159.8A priority Critical patent/CN112365428B/zh
Publication of CN112365428A publication Critical patent/CN112365428A/zh
Application granted granted Critical
Publication of CN112365428B publication Critical patent/CN112365428B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于DQN的高速公路监测视频去雾方法和系统,属于图像处理领域。由于强化学习本身性质,可灵活扩充去雾动作空间,获得更好的去雾效果;基于强化学习本身特性,是一种通过进行一系列序列决策,通过反复、多次从简单去雾图像处理动作集合中选取多个图像处理动作叠加式地完成图像去雾任务,符合人类专家进行修图的过程。本发明采用实际高速公路监测视频在不同能见度下进行训练,仅需当时当地能见度实况数值即可对去雾质量计算模型进行训练。并且通过去雾质量模型即可计算经过去雾处理后的图片对应的奖励值,进而引导强化学习去雾策略达到更好的去雾效果,无需带雾‑无雾图像真实数据集即可进行训练,大大降低了对数据集的要求。

Description

一种基于DQN的高速公路监测视频去雾方法和系统
技术领域
本发明属于图像处理领域,更具体地,涉及一种基于DQN(Deep Q Networks,深度Q网络)的高速公路监测视频去雾方法和系统。
背景技术
近年来,计算机视觉作为人工智能领域的重要组成部分发展迅速,图像去雾是图像处理与机器视觉领域的一个经典问题。由于雾霾的原因,由户外图像采集设备获取的图像信息往往存在视觉效果较差的情况。在高速公路视频图像监测领域,雾霾的存在对于后续视频监测、车辆监控、道路异物检测等任务均造成了不利影响。因此,通过对高速公路监测图像进行去雾操作,能够在提高图像能见度和清晰度的情况下,对后续的车辆监测、道路异物监测等任务提供有力帮助。
现有的图像去雾方法通常采用基于手工统计的先验知识通过大气散射模型计算出清晰图像,或者采用端对端的深度学习模型完成带雾图像到清晰图像的域迁移。这些方法尝试通过单一模型拟合任意雾霾浓度的图像到清晰图像的映射关系,不仅计算参数量大并且常常出现过拟合现象,在实际环境中效果较差。同时,端对端的深度学习模型需要成对的带雾和无雾图像进行训练,难以获得真实数据集,在合成数据集中训练的效果难以迁移到真实环境中。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种基于DQN的高速公路监测视频去雾方法和系统,其目的在于有效地获得高速公路无雾监测画面。
为实现上述目的,按照本发明的第一方面,提供了一种基于DQN的高速公路监测视频去雾方法,该方法包括:
训练阶段:
(S1)设定动作集,所述动作是对高速公路监测图像进行去雾处理,动作集中不同动作对应的去雾处理方式不同,定义奖励函数,初始化DQN的网络参数;
(S2)从高速公路监测视频中随机选择一帧图像,经过特征提取,将提取到的特征作为当前状态;
(S3)当前状态输入到DQN中,DQN输出针对动作集中每个动作对应的Q值;
(S4)根据Q值,采用ε贪心策略选择动作,若选出的动作为停止动作,则结束该图像的训练,再进一步判断是否满足整个DQN训练停止的条件,若是,则整个DQN训练过程结束,否则,转入步骤(S2);若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像,并根据定义的奖励函数计算相应的奖励值,进入步骤(S5);
(S5)根据时序差分方法计算损失函数,根据损失函数梯度回传更新DQN网络参数;
(S6)提取动作处理后图像的特征来更新当前状态,转入步骤(S3);
应用阶段:
对于高速公路监测视频中每一帧图像做以下处理:
(t1)对该图像进行特征提取,将提取到的特征作为当前状态;
(t2)当前状态输入到训练好的DQN中,训练好的DQN输出针对动作集中每个动作对应的Q值;
(t3)采用贪心策略选择使Q值最大的动作,若选出的动作为停止动作,则输出当前状态对应的图像,进入下一帧图像的处理;若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像;
(t4)提取动作处理后图像的特征来更新当前状态,转入步骤(t2)。
优选地,所述动作集包括四种类型的动作:图像对比度增强类型动作、基于先验信息去雾类型动作、小型去雾神经网络类型动作和停止动作。
有益效果:本发明通过多种类型的动作从不同角度实现去雾效果,其中,图像对比度增强类型动作通过提高图像全局对比度的方式实现去雾效果;基于先验信息处理动作通过人工统计的无雾图像与带雾图像的统计学差异实现去雾效果;小型去雾神经网络通过多次处理实现对不同浓度雾霾图像的去雾效果。停止动作用于终止所述强化学习去雾动作选择序列,输出经过多次去雾处理动作后的最终清晰图像结果。
优选地,所述图像对比度增强类型动作包括:伽马变换、色彩均衡和对比度增强;所述基于先验信息去雾类型动作包括:暗通道先验、色彩线先验和颜色衰减先验。
有益效果:伽马变换动作对灰度过高或过低的图片基于人类视觉特性进行补偿;色彩均衡动作基于图像全局色彩信息对图像中的细节部分进行模拟;对比度增强动作通过提高图像画面从黑到白的渐变层次,丰富图像色彩表现,提高图像的清晰度从而达到视觉去雾效果。暗通道先验指的是在无雾图像中每个局部区域中至少一个颜色通道会有很低的数值,从而根据这个理论预估出用于计算大气成像模型;色彩线先验指的是在自然图像中小块像素在RGB空间中呈现一维分布,从而根据这个理论估计传输函数,即光在散射介质中传输经过衰减后到达监测系统的比例来恢复出原始清晰图像;颜色衰减先验指的是带雾图像的亮度和饱和度之差与雾的浓度呈正相关,因此可以通过降低亮度和饱和度之差来进行图像去雾。
优选地,所述奖励函数为:
r=V(x)-α*Naction
其中,V(·)表示去雾质量计算模型,V(x)表示将图像经过特征提取模块后得到特征x输入去雾质量计算模型后计算出对应的质量数值,Naction表示去雾处理次数,α表示去雾处理次数的权重系数,0<α<1;
所述去雾质量计算模型采用训练集训练好的全连接神经网络模型,所述训练集中训练样本为高速公路监测图像-能见度数值的自然对数。
有益效果:本发明通过计算奖励值的去雾质量计算模型引导去雾策略模型收敛到最优,去雾质量计算模型计算得到的质量数值越高,表示雾霾浓度越低、图像越清晰,图像质量越高,奖励值越大。已采取处理动作的次数越多表示耗费时间约多、计算量越大,奖励值应减小以避免浪费计算资源,加入这一项可以引导算法选择尽量少的处理动作。
优选地,通过语义特征和颜色空间特征拼接,作为提取到的特征。
有益效果:本发明通过采用预训练的ResNet-50模型的特征提取部分实现语义特征的提取,由于经过ResNet-50模型后感受野变大,得到的特征信息越来越抽象,在一定程度上描述了图像的语义含义,有助于后续的图像处理动作选择。
优选地,所述颜色空间特征是将高速公路监测图像从RGB颜色空间转换到Lab颜色空间,计算其在Lab颜色空间的颜色直方图得到。
有益效果:本发明通过采用Lab颜色空间直方图作为图像的颜色空间特征,由于Lab空间基于生理特征,用于描述人的视觉感受,符合人眼对带雾与无雾图像的分类认知,从而实现了对图像全局颜色信息表征的作用。
为实现上述目的,按照本发明的第二方面,提供了一种基于DQN的高速公路监测视频去雾系统,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行第一方面所述的基于DQN的高速公路监测视频去雾方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)本发明提出一种基于DQN的高速公路监测图像去雾方法,由于强化学习本身性质,可灵活地扩充去雾动作空间,对新提出且具有一定去雾效果的方法,可简单快捷地纳入去雾动作空间,获得更好的去雾效果;基于强化学习本身特性,是一种通过进行一系列序列决策,通过反复、多次从简单去雾图像处理动作集合中选取多个图像处理动作叠加式地完成图像去雾任务,符合人类专家进行修图的过程,算法可解释性强,中间结果清晰明了,具有一定的逻辑性;本发明的动作是离散的,采用DQN强化学习方法实现更为简单。
(2)本发明采用实际高速公路监测视频在不同能见度天气下进行训练,仅需简单易得的当时当地能见度实况数值即可对去雾质量计算模型进行训练。并且通过去雾质量模型即可计算经过去雾处理后的图片对应的奖励值,进而引导强化学习去雾策略达到更好的去雾效果,无需难以获得的带雾-无雾图像真实数据集即可进行训练,大大降低了对数据集的要求;本发明在真实监控视频环境下即可进行训练,相对于在人工合成数据集上训练好模型再迁移到真实环境中的方法而言,泛化能力强,不易陷入过拟合状态,模型鲁棒性强,实际效果好。
附图说明
图1为本发明提供的DQN过程示意图;
图2为本发明提供的基于DQN的高速公路监测视频去雾方法训练阶段流程图;
图3为本发明提供的能见度划分标准图;
图4为本发明提供的基于DQN的高速公路监测视频去雾方法应用阶段流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明是根据输入状态序列迭代式地从预先设定好的动作集合中选择合适的动作,获得相应的实时奖励,强化学习的目的在于获得最大的累计奖励值。针对高速公路监测视频去雾这一具体任务,需要依次解决所需的输入状态表征问题、去雾动作集合选择问题以及实时奖励计算问题从而获得强化学习去雾策略模型。
本发明提供了一种基于如图1所示的DQN的高速公路监测视频去雾方法,该方法包括:
训练阶段如图2所示:
(S1)设定动作集,所述动作是对高速公路监测图像进行去雾处理,动作集中不同动作对应的去雾处理方式不同,定义奖励函数,初始化DQN的网络参数。
(S2)从高速公路监测视频中随机选择一帧图像,经过特征提取,将提取到的特征作为当前状态。
(S3)当前状态输入到DQN中,DQN输出针对动作集中每个动作对应的Q值。
(S4)根据Q值,采用ε贪心策略选择动作,若选出的动作为停止动作,则结束该图像的训练,再进一步判断是否满足整个DQN训练停止的条件,若是,则整个DQN训练过程结束,否则,转入步骤(S2);若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像,并根据定义的奖励函数计算相应的奖励值,进入步骤(S5)。
整个DQN训练停止的条件可以是迭代次数,也可以是训练一段时间后,使用测试集计算奖励值均值,若奖励值均值对应的能见度数值符合如图3所示的能见度划分标准中的“能见度良好”等级,则停止。
(S5)根据时序差分方法计算损失函数,根据损失函数梯度回传更新DQN网络参数。
采用强化学习中的时序差分方法对强化学习去雾策略进行优化,计算强化学习状态-动作价值函数误差值,采用神经网络反向传播方式对去雾策略进行更新,以获得最优去雾策略。
优选地,本实例中对去雾策略进行更新的时序差分方法的公式为:
Figure BDA0002814531470000071
其中,θi表示强化学习去雾策略网络的参数,Li(·)表示损失函数,
Figure BDA0002814531470000072
表示对DQN的参数θi的梯度,γ表示折扣因子,r表示采取动作后获得的对应奖励值,Q值为强化学习策略网络输出神经元表示的动作价值函数值。s表示当前状态,a表示当前动作,s’表示下一时刻状态,a’表示下一动作,下标i和i-1是用来表示是现在网络的参数,还是上一次更新前网络的参数。
(S6)提取动作处理后图像的特征来更新当前状态,转入步骤(S3)。
应用阶段如图4所示:
对于高速公路监测视频中每一帧图像做以下处理:
(t1)对该图像进行特征提取,将提取到的特征作为当前状态;
(t2)当前状态输入到训练好的DQN中,训练好的DQN输出针对动作集中每个动作对应的Q值;
(t3)采用贪心策略选择使Q值最大的动作,若选出的动作为停止动作,则输出当前状态对应的图像,进入下一帧图像的处理;若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像;
(t4)提取动作处理后图像的特征来更新当前状态,转入步骤(t2)。
高速公路监测视频由高空远望高清RGB摄像头采集得到,将采集到的视频信息经过通过路由器接入网络,之后通过网络接入到后端视频处理设备。
优选地,所述动作集包括四种类型的动作:图像对比度增强类型动作、基于先验信息去雾类型动作、小型去雾神经网络类型动作和停止动作。
优选地,所述图像对比度增强类型动作包括:伽马变换、色彩均衡和对比度增强;所述基于先验信息去雾类型动作包括:暗通道先验、色彩线先验和颜色衰减先验。
小型去雾神经网络动作,采用简单的图到图模型例如编码-解码器模型完成薄雾图像到清晰图像的映射,可通过处理次数的不同完成不同浓度雾霾的去雾任务。
停止动作,用于终止所述强化学习去雾动作序列,经过上述动作集中动作多次处理后根据输出图像智能地选择停止,表示去雾过程完成。对不同雾霾浓度的图像可自动选择结束而无需人工判定是否完成去雾过程。
优选地,所述奖励函数为:
r=V(x)-α*Naction
其中,V(·)表示去雾质量计算模型,V(x)表示将图像经过特征提取模块后得到特征x输入去雾质量计算模型后计算出对应的质量数值,Naction表示去雾处理次数,α表示去雾处理次数的权重系数,0<α<1。
所述去雾质量计算模型采用训练集训练好的全连接神经网络模型,所述训练集中训练样本为高速公路监测图像-能见度数值的自然对数。
所述能见度数值来自当地气象台数据。本实施例中,α=0.001。
所述去雾质量计算模型,其训练优化方法为:获取不同浓度雾霾时段的视频,经过采样截图后得到原始监测图像信息,与当时当地发布的能见度实况数值一起,作为成对的训练集;利用所述的图片与能见度二元组训练集对所述的去雾质量计算模型进行训练,使得去雾质量计算模型能够更精确地评价图像的去雾质量。
根据能见度数值表示雾霾浓度,雾霾浓度越高图像质量越差,浓度越低图像质量越高,具体计算如下公式,将计算结果作为训练去雾质量计算模型的真实输出数值标签。
gt=ln(dis)
其中,gt表示去雾质量,dis表示能见度数值,能见度越高表示雾霾程度越低,图像质量越好,gt越大。
采用神经网络拟合从图像特征向量到去雾质量的回归模型。训练过程为监督学习,利用由图像中提取的特征向量输入神经网络中进行前向传播计算出对去雾质量估计值,用均方误差描述估计值与真实标签之间的误差,误差反向传播,通过梯度下降法不断调整去雾质量计算模型神经元参数权值,直至收敛到预设估测精度。
优选地,通过语义特征和颜色空间特征拼接,作为提取到的特征。对语义特征向量和色彩特征向量进行拼接,得到新的特征向量,将新的特征向量作为当前的状态表示。
语义特征提取是为了获得图像高维特征信息。本实施例中,利用深度卷积神经网络对高速公路监测视频的截图进行语义特征提取,获得语义特征向量。具体地,采用在ImageNet数据集中预训练完成后的ResNet-50模型的特征提取部分,对待处理带雾图像进行语义特征提取。
优选地,所述颜色空间特征是将高速公路监测图像从RGB颜色空间转换到Lab颜色空间,计算其在Lab颜色空间的颜色直方图得到。
Lab颜色空间是一种与设备无关的颜色系统,它基于生理特性,用数字化的方法描述人的视觉感应,符合人眼对带雾和清晰图像的分类认知。得到转换后的Lab色彩空间表示图像后,计算其颜色直方图,从而提取其色彩特征。
本发明提供了一种基于DQN的高速公路监测视频去雾系统,包括:计算机可读存储介质和处理器;所述计算机可读存储介质用于存储可执行指令;所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行上述基于DQN的高速公路监测视频去雾方法。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于DQN的高速公路监测视频去雾方法,其特征在于,该方法包括:
训练阶段:
(S1)设定动作集,所述动作是对高速公路监测图像进行去雾处理,动作集中不同动作对应的去雾处理方式不同,定义奖励函数,初始化DQN的网络参数;
(S2)从高速公路监测视频中随机选择一帧图像,经过特征提取,将提取到的特征作为当前状态;
(S3)当前状态输入到DQN中,DQN输出针对动作集中每个动作对应的Q值;
(S4)根据Q值,采用ε贪心策略选择动作,若选出的动作为停止动作,则结束该图像的训练,再进一步判断是否满足整个DQN训练停止的条件,若是,则整个DQN训练过程结束,否则,转入步骤(S2);若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像,并根据定义的奖励函数计算相应的奖励值,进入步骤(S5);
(S5)根据时序差分方法计算损失函数,根据损失函数梯度回传更新DQN网络参数;
(S6)提取动作处理后图像的特征来更新当前状态,转入步骤(S3);
应用阶段:
对于高速公路监测视频中每一帧图像做以下处理:
(t1)对该图像进行特征提取,将提取到的特征作为当前状态;
(t2)当前状态输入到训练好的DQN中,训练好的DQN输出针对动作集中每个动作对应的Q值;
(t3)采用贪心策略选择使Q值最大的动作,若选出的动作为停止动作,则输出当前状态对应的图像,进入下一帧图像的处理;若选出的动作不为停止动作,则将选出的动作应用于当前状态对应的图像;
(t4)提取动作处理后图像的特征来更新当前状态,转入步骤(t2);
所述奖励函数为:
r=V(x)-α*Naction
其中,V(·)表示去雾质量计算模型,V(x)表示将图像经过特征提取模块后得到特征x输入去雾质量计算模型后计算出对应的质量数值,Naction表示去雾处理次数,α表示去雾处理次数的权重系数,0<α<1。
2.如权利要求1所述的方法,其特征在于,所述动作集包括四种类型的动作:图像对比度增强类型动作、基于先验信息去雾类型动作、小型去雾神经网络类型动作和停止动作。
3.如权利要求2所述的方法,其特征在于,所述图像对比度增强类型动作包括:伽马变换、色彩均衡和对比度增强;所述基于先验信息去雾类型动作包括:暗通道先验、色彩线先验和颜色衰减先验。
4.如权利要求1至3任一项所述的方法,其特征在于,
所述去雾质量计算模型采用训练集训练好的全连接神经网络模型,所述训练集中训练样本为高速公路监测图像-能见度数值的自然对数。
5.如权利要求1至3任一项所述的方法,其特征在于,通过语义特征和颜色空间特征拼接,作为提取到的特征。
6.如权利要求5所述的方法,其特征在于,所述颜色空间特征是将高速公路监测图像从RGB颜色空间转换到Lab颜色空间,计算其在Lab颜色空间的颜色直方图得到。
7.一种基于DQN的高速公路监测视频去雾系统,其特征在于,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行权利要求1至6任一项所述的基于DQN的高速公路监测视频去雾方法。
CN202011413159.8A 2020-12-03 2020-12-03 一种基于dqn的高速公路监测视频去雾方法和系统 Active CN112365428B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011413159.8A CN112365428B (zh) 2020-12-03 2020-12-03 一种基于dqn的高速公路监测视频去雾方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011413159.8A CN112365428B (zh) 2020-12-03 2020-12-03 一种基于dqn的高速公路监测视频去雾方法和系统

Publications (2)

Publication Number Publication Date
CN112365428A CN112365428A (zh) 2021-02-12
CN112365428B true CN112365428B (zh) 2022-04-01

Family

ID=74535957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011413159.8A Active CN112365428B (zh) 2020-12-03 2020-12-03 一种基于dqn的高速公路监测视频去雾方法和系统

Country Status (1)

Country Link
CN (1) CN112365428B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688041B2 (en) * 2021-03-02 2023-06-27 International Business Machines Corporation System and method of automatic image enhancement using system generated feedback mechanism
CN113343592B (zh) * 2021-07-28 2023-11-17 辽宁锐翔通用飞机制造有限公司 一种新能源飞机的永磁同步电机dqn智能控制方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120303B2 (en) * 2018-12-17 2021-09-14 King Fahd University Of Petroleum And Minerals Enhanced deep reinforcement learning deep q-network models
CN111489305B (zh) * 2020-03-31 2023-05-30 天津大学 基于强化学习的图像增强方法
CN111539896B (zh) * 2020-04-30 2022-05-27 华中科技大学 一种基于域自适应的图像去雾方法及系统
CN111861939B (zh) * 2020-07-30 2022-04-29 四川大学 一种基于无监督学习的单张图像去雾方法
CN111951207B (zh) * 2020-08-25 2022-06-14 福州大学 基于深度增强学习和语义损失的图像质量增强方法

Also Published As

Publication number Publication date
CN112365428A (zh) 2021-02-12

Similar Documents

Publication Publication Date Title
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN109754015B (zh) 用于画作多标签识别的神经网络及相关方法、介质和设备
CN111444878B (zh) 一种视频分类方法、装置及计算机可读存储介质
KR102641116B1 (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
CN110363716B (zh) 一种基于条件生成对抗网络复合降质图像高质量重建方法
Zhao et al. Dd-cyclegan: Unpaired image dehazing via double-discriminator cycle-consistent generative adversarial network
CN111292264A (zh) 一种基于深度学习的图像高动态范围重建方法
CN112365428B (zh) 一种基于dqn的高速公路监测视频去雾方法和系统
CN111652231B (zh) 一种基于特征自适应选择的铸件缺陷语义分割方法
CN112200736B (zh) 基于强化学习的图像处理方法及模型训练方法、装置
CN111724400A (zh) 视频自动抠像方法及系统
CN101207697A (zh) 一种融合多模糊算子的数字图像模糊增强方法
CN112396042A (zh) 实时更新的目标检测方法及系统、计算机可读存储介质
Ko et al. Learning lightweight low-light enhancement network using pseudo well-exposed images
CN111242911A (zh) 一种基于深度学习算法确定图像清晰度的方法及系统
CN112053378A (zh) 一种改进的pso优化pcnn模型的图像分割算法
CN108665455B (zh) 图像显著性预测结果的评价方法和装置
CN116452472A (zh) 基于语义知识引导的低照度图像增强方法
CN114387484B (zh) 一种基于yolov4改进的口罩佩戴检测方法及系统
CN115471831B (zh) 一种基于文本增强学习的图像显著性检测方法
CN116433920A (zh) 一种基于深度特征引导的图像生成方法、装置及存储介质
Yu et al. Low light combining multiscale deep learning networks and image enhancement algorithm
CN114549842A (zh) 基于不确定性知识域自适应的半监督图像分割方法及系统
CN114529899A (zh) 用于训练卷积神经网络的方法和系统
CN113744166A (zh) 一种用于浑浊水下鱼类图像增强的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant