CN112508814A - 一种基于无人机低空视角下的图像色调修复型去雾增强方法 - Google Patents
一种基于无人机低空视角下的图像色调修复型去雾增强方法 Download PDFInfo
- Publication number
- CN112508814A CN112508814A CN202011437927.3A CN202011437927A CN112508814A CN 112508814 A CN112508814 A CN 112508814A CN 202011437927 A CN202011437927 A CN 202011437927A CN 112508814 A CN112508814 A CN 112508814A
- Authority
- CN
- China
- Prior art keywords
- image
- fog
- model
- map
- enhanced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000003044 adaptive effect Effects 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 14
- 239000002131 composite material Substances 0.000 claims abstract description 7
- 230000004044 response Effects 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 3
- 238000005286 illumination Methods 0.000 claims description 47
- 238000003062 neural network model Methods 0.000 claims description 12
- 238000002834 transmittance Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 3
- 238000005316 response function Methods 0.000 claims description 3
- 230000002441 reversible effect Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 5
- 238000013461 design Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 18
- 230000008439 repair process Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000005034 decoration Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于无人机低空视角下的图像色调修复型去雾增强方法,属于图像处理技术领域。该方法中的去雾算法采用了简化的大气散射物理模型,设计多尺度特征提取网络结构,采用复合损失函数提升了网络生成图的质量;然后通过训练网络得到合适的模型权重,使用该权重下的网络模型和简化的大气散射物理模型恢复出无雾图像;接下来针对自然雾图去雾后图像色调偏低的问题,本发明采用使用相机响应模型和自适应直方图均衡化来分别对去雾后图像的全局与局部对比度进行增强;再根据增强图的特征设计增强图融合算法得到融合图像;最后引入线性拉伸得到色调修复的去雾图像。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于无人机低空视角下的图像色调修复型去雾增强方法。
背景技术
无人车控制策略可分为基于雷达的控制与基于视频图像的控制。其中视频图像提供的信息更为直观且更易于进行二次处理,但图像受环境因素影响较大,因此为了进一步提升协同控制的质量,需要对无人机与无人车的视频图像质量进行改善。作为无人车协同控制项目的辅助无人设备,无人机采集的视频图像包含更多环境信息,因此可以通过处理无人机采集的视频图像为无人车提供丰富优质的道路信息。在航拍图像采集任务中,景深雾与自然雾霾会大幅降低图像的成像质量,而低质量的图像无法进一步提取足够的路面环境信息。为了解决这一问题,需要对该环境下无人机采集的图像进行去雾处理,增强图像的视觉效果并强化图像中的特征信息以便于后续高级计算机视觉系统进行二次处理。
目前的图像去雾清晰化算法有很多,主要可以分为两种:一种是利用大气散射物理模型了解雾霾使图像降质的机制,通过设计不同的复原算法计算出正确的大气光值以及透射率,将其数值带入大气散射模型复原出无雾图像,由于参数值固定,因此该方法通常只适用于雾霾浓度固定的图像,在雾霾浓度不均或者白色区域过多的图像上表现并不是特别理想。第二种是结合大气散射物理模型,针对未知的大气光值和透射率两个参数设计神经网络模型,通过雾霾图像数据集对神经网络进行训练,得到雾图与无雾图像之间的映射关系,这种方法去雾速度快而且鲁棒性比前者更好。无论是基于传统算法还是基于深度学习方式设计的去雾模型,去雾后的图像一般会出现图像亮度损失的问题,因此需要设计合适的低色值增强模型来提升去雾后图片的色值以达到令人舒适的视觉体验。
图像增强技术可以有效地修复图像的光照强度,反映出图像内更多的信息。目前主流的图像增强方法大致可分为以下几种:一是基于直方图的增强方法,通过对直方图进行加工来提高图像亮度,但这种方法无法考虑像素的空间分布,很容易导致去雾图像部分区域被过度增强。二是基于Retinex理论的增强方法,该方法通过从原图中提取亮度图并对亮度图独立进行处理,这种方法更适用于不同特点的图像,但是难以顾及多个方面。三是基于融合的增强方法,将通过不同方式增强的图像进行融合,保留各自的优点,从而能够有效修复去雾图像的亮度值以及对比度。
发明内容
有鉴于此,本发明的目的在于提供一种基于无人机低空视角下的图像色调修复型去雾增强方法。
为达到上述目的,本发明提供如下技术方案:
一种基于无人机低空视角下的图像色调修复型去雾增强方法,该方法包括以下步骤:
S1,去雾模块的设计;
S11,为了减少大气散射模型的运算量,选择简化的大气散射模型作为待训练模型,经过变形,原本需要分别计算的大气光值与透射率被完美整合在一个未知参数K(x)中,公式的变形过程如下:
I(x)=J(x)t(x)+A(1-t(x)) (1)
J(x)-d=K(x)I(x)-K(x) (2)
其中:
其中式中I(x)为雾气图像,J(x)为清晰无雾图像,d为修正的恒定偏差,值为1,K(x)为大气光值A(x)和透射率t(x)的整合;
S12,搭建多尺度神经网络模型,模型采用的标准4层多尺度卷积神经网络模型;每一层网络层均采用的逐点卷积与不同大小的池化层的组合进行特征提取;
在该神经网络模型的训练中,输入图像均选用的128×128的正方形雾图;每一层的特征图的大小均为128×128,整个网络的结构中每一层的特征图的大小均不会改变,最终得到的输出图为K(x);
S13,训练图像的选择均选用合成雾图,合成雾图的生成参考逆向大气散射物理模型,公式如下:
I(x)=(J(x)-A)t(x)+A (4)
其中I(x)为合成雾气图像,J(x)为清晰图像,A(x)为大气光值,t(x)为透射率;
合成雾图的大小为128×128,训练数据集中的图片至少为4000张不同雾气浓度的合成图;
S14,训练模型设计的损失函数为复合损失函数,采用的是均方误差损失函数与L1范数构建复合损失函数L(x),如下式所示:
用该损失函数计算训练生成图与标注图的误差,缩小生成图与标注图之间的差距,式中N表示无雾-有雾训练样本个数,Ii表示训练样本中第i个雾霾图像,Ji表示与Ii对应的标注清晰图,x代表K(x)模块参数,Jk(Ii,x)代表在该参数下的去雾生成图;
训练时选择的损失函数权重设置为α=0.7,β=0.3;该损失函数训练的神经网络模型相较于传统单一的均方差损失函数训练的模型能生成更贴近于原图的去雾图像;
S2,模型的训练需要至少4000张合成雾图,将图像数据集的图片数量按1:1:8的比例分别生成测试集、验证集和训练集;训练后的模型可以学到有雾图和K(x)的映射规律;
S3,所获得的无雾图像需要色调修正补足,为保证恢复图的亮度与对比度,设计增强修复模块;
S4,无人机视频与本地主机图像处理模型的通信链接采用socket进行图像与信息的传输,图像的socket传输协议为TCP,数值回传时采用TCP协议进行精确传输;采用C#搭建简易的GUI展示界面。
可选的,所述清晰无雾图像的获取步骤为:
通过摄像头获取原始雾图;
将原始雾图输入给训练好的多尺度去雾神经网络,得到雾图对应的K(x);
采用简化后的大气散射模型重塑出清晰无雾图像。
可选的,所述S3包括以下步骤:
S31,借助HSV色彩空间模型提取出图像的初始照度图:
其中,I为图像照度,S为原图,c为图像色彩通道;
采用HSV色彩空间中求取V分量即“Value”分量的方式来计算照度图,将图像三个色彩通道中的最大值设定为图像的照度;所有图像像素值均经过归一化处理;
在得到图像的初始照度图后,通过Retinex模型得到图像的反射图:
Rc(x,y)=Sc(x,y)/I(x,y) (7)
其中R为图像的反射图分量;
采用将原图像拆分成三个色彩通道,再分别与初始的照度图进行计算的方法来获取三个不同色彩通道的去除光照影响的图像即反射图;
S32,对照度图进行两种不同的增强操作;首先,使用相机响应模型来增强图像的全局亮度:
式中L为上述的图像照度,g()表示相机响应函数,k为曝光比,a与b表示相机内置参数,L1为使用相机响应模型得到的全局对比度增强照度图;
采用设定k为一个定值得方式来减少算法的运行时间,经过多次对比实验,在本方法中将曝光比k设定为5,a设置为-0.3293,b设置为1.1258;
其次,使用限制对比度自适应直方图均衡化对原始照度图进行增强,得到局部对比度显著提高的第二幅增强照度图;
L2=CLAHE(L) (9)
式中CLAHE()表示限制对比度自适应直方图均衡化操作,L2为使用限制对比度自适应直方图均衡化得到的局部对比度增强照度图;
S33,在得到两幅不同的增强照度图后,根据增强照度图的特征,设计出像素级别的权重并对不同的增强照度图进行融合,如公式(8)所示:
为使亮度更为自然,赋予接近中间值的亮度更大的权重,上式用高斯曲线来衡量像素值与中间值的贴近度,并将其设置为权重;其中k取1和2,表示第k个增强图像;
将权重进行正则化:
通过正则化的方法将不同权重映射到0~1的范围内,使不同的照度图在同样的尺度下进行融合;
将两幅照度图与对应的权重进行融合,得到最终的增强照度图:
S34,根据Retinex模型,使用最终的增强照度图得到增强后的图像:
其中S表示增强后图像,R为反射图,c代表r、g和b三个色彩通道;
采用的是将增强后照度图与反射图进行点乘的方式来获取整体的效果图;
S34,使用线性拉伸来调节增强后图像的照度与色调:
式中mean与σ分别表示图像的全局均值与方差,D为自适应因子,c代表r、g和b三个色彩通道;
考虑到去雾后图像亮度降低的程度以及雾图原本的色彩,将自适应因子D设置为6,以获取最佳的视觉效果。
本发明的有益效果在于:本发明提出了一种基于无人机低空视角下的图像色调修复型去雾增强方法。这种方法将图像去雾神经网络模型与低照度图像增强模型结合,既保证了较高去雾的速度与较低的模型复杂度,又通过改良的损失函数保证了生成图的细节质量。同时,采用了一种基于融合手段的图像增强方法,因可以很好地解决去雾后图像色调偏暗的问题,极大地提升了图像整体的视觉效果,可为后续无人车协同控制中的高级视觉任务提供具有丰富特征信息的高质量去雾增强图像。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所提供的基于无人机低空视角下的图像色调修复型去雾增强方法的流程示意图;
图2为本发明去雾部分所设计的神经网络结构图;
图3为本发明增强修复部分的模型结构图;
图4为本发明对合成雾图的去雾修复结果与对应的像素直方图;(a)为合成物图,(b)为去雾图,(c)为修复增强图,(d)原图;
图5为本发明的低空航拍视角下的真实雾图的去雾修复结果与对应的像素直方图;(a)为自然雾图,(b)为去雾图,(c)为修复增强图;
图6为本发明辅助无人车协同控制中无人机定点降落的流程示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
下面将结合发明实施例中的附图,对本发明实施例中的技术方案以及细节部分进行更为完整清晰的描述。
请参考图1,为本发明的整体流程框图,可以简要概括为去雾图生成模块与去雾图的色调修复模块,请注意,若需要获得本发明附图中所示的去雾效果,需要正确按照图1的顺序流程完成去雾修复模型。在实际处理时,可将两个模块分开设计,但要保证在执行算法模块时,修复模块的执行需要紧跟在雾模块之后。
S1,去雾模块的设计
S11,为了减少大气散射模型的运算量,选择简化的大气散射模型作为待训练模型,经过变形,原本需要分别计算的大气光值与透射率被完美整合在一个未知参数K(x)中,公式的变形过程如下:
I(x)=J(x)t(x)+A(1-t(x)) (1)
J(x)-d=K(x)I(x)-K(x) (2)
其中:
其中式中I(x)为雾气图像,J(x)为清晰无雾图像,d为修正的恒定偏差,值为1,K(x)为大气光值A(x)和透射率t(x)的整合;
S12,搭建如图2所示的多尺度神经网络模型,模型采用的标准4层多尺度卷积神经网络模型。不同于以往的卷积神经网络,本发明中的每一层网络层均采用的逐点卷积与不同大小的池化层的组合进行特征提取;
需要说明的是,在该神经网络的训练中,输入图像均选用的128×128的正方形雾图;每一层的特征图的大小均为128×128,整个网络的结构中每一层的特征图的大小均不会改变,最终得到的输出图为K(x)。
S13,训练图像的选择均选用合成雾图,合成雾图的生成参考了逆向大气散射物理模型,公式如下:
I(x)=(J(x)-A)t(x)+A (4)
其中I(x)为合成雾气图像,J(x)为清晰图像,A(x)为大气光值,t(x)为透射率。
需要说明的是,合成雾图的大小需要保证在128×128,要达去雾效果,训练数据集中的图片至少需要4000张不同雾气浓度的合成图。
S14,训练模型设计的损失函数为复合损失函数,本发明采用的是均方误差损失函数与L1范数构建复合损失函数L(x),如下式所示:
用该损失函数计算训练生成图与标注图的误差,缩小生成图与标注图之前的差距,式中N表示无雾-有雾训练样本个数,Ii表示训练样本中第i个雾霾图像,Ji表示与Ii对应的标注清晰图,x代表K(x)模块参数,Jk(Ii,x)代表在该参数下的去雾生成图;
在本说明书实施例中,训练时本发明选择的损失函数权重设置为α=0.7,β=0.3。该损失函数训练的神经网络模型相较于传统单一的均方差损失函数训练的模型能生成更贴近于原图的去雾图像,具体去雾效果参考图4和图5。图4为本发明对合成雾图的去雾修复结果与对应的像素直方图;(a)为合成物图,(b)为去雾图,(c)为修复增强图,(d)原图;图5为本发明的低空航拍视角下的真实雾图的去雾修复结果与对应的像素直方图;(a)为自然雾图,(b)为去雾图,(c)为修复增强图。
S2,模型的训练需要至少4000张合成雾图,将图像数据集的图片数量按1:1:8的比例分别生成测试集、验证集和训练集。训练后的模型可以学到有雾图和K(x)的映射规律。
进一步地,得到清晰无雾图像的步骤简要概括为:
通过摄像头获取原始雾图;
将原始雾图输入给训练好的多尺度去雾神经网络,得到雾图对应的K(x);
采用简化后的大气散射模型重塑出清晰无雾图像;
S3,所获得的无雾图像需要色调修正补足,为了保证恢复图的亮度与对比度,设计如图3所示的增强修复模块。
S31,借助HSV色彩空间模型提取出图像的初始照度图:
其中,I为图像照度,S为原图,c为图像色彩通道;
在本说明书实施例中,采用HSV色彩空间中求取V分量即“Value”分量的方式来计算照度图,将图像三个色彩通道中的最大值设定为图像的照度;此外,本方法涉及的所有图像像素值均经过归一化处理;
在得到图像的初始照度图后,通过Retinex模型得到图像的反射图:
Rc(x,y)=Sc(x,y)/I(x,y) (7)
其中R为图像的反射图分量;
在本说明书实施例中,采用了将原图像拆分成三个色彩通道,再分别与初始的照度图进行计算的方法来获取三个不同色彩通道的去除光照影响的图像即反射图;
S32,对照度图进行两种不同的增强操作。首先,使用相机响应模型来增强图像的全局亮度:
式中L为上述的图像照度,g()表示相机响应函数,k为曝光比,a与b表示相机内置参数,L1为使用相机响应模型得到的全局对比度增强照度图;
在本说明书实施例中,考虑到全局增强的效果以及本发明色调修复型去雾增强方法的快速性,采用设定k为一个定值得方式来减少算法的运行时间,经过多次对比实验,在本方法中将曝光比k设定为5,a设置为-0.3293,b设置为1.1258;
其次,使用限制对比度自适应直方图均衡化对原始照度图进行增强,得到局部对比度显著提高的第二幅增强照度图;
L2=CLAHE(L) (9)
式中CLAHE()表示限制对比度自适应直方图均衡化操作,L2为使用限制对比度自适应直方图均衡化得到的局部对比度增强照度图;
在本说明书实施例中,采用一种快速性的方式来增强图像的局部对比度
S33,在得到了两幅不同的增强照度图后,根据增强照度图的特征,设计出像素级别的权重并对不同的增强照度图进行融合,如下式所示:
为了使亮度更为自然,需要赋予接近中间值的亮度更大的权重,上式用高斯曲线来衡量像素值与中间值的贴近度,并将其设置为权重;其中k取1和2,表示第k个增强图像;
将权重进行正则化:
在本说明书实施例中,通过正则化的方法将不同权重映射到0~1的范围内,使不同的照度图在同样的尺度下进行融合;
进一步地,将两幅照度图与对应的权重进行融合,得到最终的增强照度图:
S34,根据Retinex模型,使用最终的增强照度图得到增强后的图像:
其中S表示增强后图像,R为反射图,c代表r、g和b三个色彩通道;
在本说明书实施例中,采用的是将增强后照度图与反射图进行点乘的方式来获取整体的效果图;
S34,使用线性拉伸来调节增强后图像的照度与色调:
式中mean与σ分别表示图像的全局均值与方差,D为自适应因子,c代表r、g和b三个色彩通道。
在本说明书实施例中,考虑到去雾后图像亮度降低的程度以及雾图原本的色彩,将自适应因子D设置为6,以获取最佳的视觉效果。
如图4、图5中(b)到(c)的变化过程所示,修复增强后图像的整体亮度与色调得到了明显的改善,图像中更多的信息得到了呈现,且修复增强后图像与(a)的自然雾图的像素分布直方图整体形状保持相似,并未破坏图像原本的像素分布特征;图4中将自然雾图替换为合成雾图进行了实验,实验结果与使用自然雾图时的结果相同,此外,我们将修复增强后图像与图4(d)的原图进行了对比,相比于图4(b)的去雾图,修复增强后图像与图4(d)的原图在像素分布上更为接近,证明了本方法的有效性。
采用本发明所公开的基于无人机低空视角下的图像色调修复型去雾增强方法,将图像去雾神经网络模型与低照度图像增强算法结合,既保证了较高去雾的速度与较低的模型复杂度,又通过改良的损失函数保证了生成图的细节特征质量;同时,采用了一种基于融合手段的图像增强方法,因可以很好地解决去雾后图像色调偏暗的问题,极大地提升了图像整体的视觉效果,可为后续高级视觉任务提供具有丰富特征信息的高质量去雾增强图像,通过YOLOV5对增强前后的航拍雾图像中物体检测的数值的上升来体现本发明的实用性。
S4,本发明中的无人机视频与本地主机图像处理模型的通信链接采用socket进行图像与信息的传输,图像的socket传输协议为TCP,数值回传时也采用TCP协议进行精确传输。此外本发明还采用C#搭建了简易的GUI展示界面。在本发明所参与的无人车协同控制项目中,修复增强的去雾图能让目标检测算法准确地找出无人机离目标降落地点的偏差值,借此偏差数据,无人机能够修正自身位置到目标点正上方垂直降落,修正流程及实验所用无人机如图6所示。
需要说明的是,无人机模块采集的视频均切割成单帧图,以图片而非视频流的形式通过socket传输给地面工作站,需要处理时可开启去雾模块对单帧图进行去雾修复增强处理。本发明所展示的实验中后续对增强去雾后的车顶目标区域进行了识别,可见识别的效果较为准确。需要额外说明的是,当原始图像的整体图像较亮且色调偏高的情况下,为了提升模型的实时性,可以根据需要自行选择是否添加修复增强模块。
本说明书中的每个模块均采用顺序递进的方式进行叙述,实验参数与数据准备仅作参考,具体参数优化可根据服务器以及硬件设备进行适当的调整,本领域普通技术人员可以将上述实施例的全部或者部分步骤通过集成在硬件设备上来完成,也可以通过程序指令来控制相关的硬件完成,所述程序可以存储于一种计算机可读介质中。
以上去雾流程描述为本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在本发明原理的基础上,还可以做出一定的改进和润饰,只要这些改动不脱离本发明的实施原理,那么这些改进和润饰也将视为本发明的保护范围。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.一种基于无人机低空视角下的图像色调修复型去雾增强方法,其特征在于:该方法包括以下步骤:
S1,去雾模块的设计;
S11,为了减少大气散射模型的运算量,选择简化的大气散射模型作为待训练模型,经过变形,原本需要分别计算的大气光值与透射率被完美整合在一个未知参数K(x)中,公式的变形过程如下:
I(x)=J(x)t(x)+A(1-t(x)) (1)
J(x)-d=K(x)I(x)-K(x) (2)
其中:
其中式中I(x)为雾气图像,J(x)为清晰无雾图像,d为修正的恒定偏差,值为1,K(x)为大气光值A(x)和透射率t(x)的整合;
S12,搭建多尺度神经网络模型,模型采用的标准4层多尺度卷积神经网络模型;每一层网络层均采用的逐点卷积与不同大小的池化层的组合进行特征提取;
在该神经网络模型的训练中,输入图像均选用的128×128的正方形雾图;每一层的特征图的大小均为128×128,整个网络的结构中每一层的特征图的大小均不会改变,最终得到的输出图为K(x);
S13,训练图像的选择均选用合成雾图,合成雾图的生成参考逆向大气散射物理模型,公式如下:
I(x)=(J(x)-A)t(x)+A (4)
其中I(x)为合成雾气图像,J(x)为清晰图像,A(x)为大气光值,t(x)为透射率;
合成雾图的大小为128×128,训练数据集中的图片至少为4000张不同雾气浓度的合成图;
S14,训练模型设计的损失函数为复合损失函数,采用的是均方误差损失函数与L1范数构建复合损失函数L(x),如下式所示:
用该损失函数计算训练生成图与标注图的误差,缩小生成图与标注图之前的差距,式中N表示无雾-有雾训练样本个数,Ii表示训练样本中第i个雾霾图像,Ji表示与Ii对应的标注清晰图,x代表K(x)模块参数,Jk(Ii,x)代表在该参数下的去雾生成图;
训练时选择的损失函数权重设置为α=0.7,β=0.3;该损失函数训练的神经网络模型相较于传统单一的均方差损失函数训练的模型能生成更贴近于原图的去雾图像;
S2,模型的训练需要至少4000张合成雾图,将图像数据集的图片数量按1:1:8的比例分别生成测试集、验证集和训练集;训练后的模型可以学到有雾图和K(x)的映射规律;
S3,所获得的无雾图像需要色调修正补足,为保证恢复图的亮度与对比度,设计增强修复模块;
S4,无人机视频与本地主机图像处理模型的通信链接采用socket进行图像与信息的传输,图像的socket传输协议为TCP,数值回传时采用TCP协议进行精确传输;采用C#搭建简易的GUI展示界面。
2.根据权利要求1所述的一种基于无人机低空视角下的图像色调修复型去雾增强方法,其特征在于:所述清晰无雾图像的获取步骤为:
通过摄像头获取原始雾图;
将原始雾图输入给训练好的多尺度去雾神经网络,得到雾图对应的K(x);
采用简化后的大气散射模型重塑出清晰无雾图像。
3.根据权利要求2所述的一种基于无人机低空视角下的图像色调修复型去雾增强方法,其特征在于:所述S3包括以下步骤:
S31,借助HSV色彩空间模型提取出图像的初始照度图:
其中,I为图像照度,S为原图,c为图像色彩通道;
采用HSV色彩空间中求取V分量即“Value”分量的方式来计算照度图,将图像三个色彩通道中的最大值设定为图像的照度;所有图像像素值均经过归一化处理;
在得到图像的初始照度图后,通过Retinex模型得到图像的反射图:
Rc(x,y)=Sc(x,y)/I(x,y) (7)
其中R为图像的反射图分量;
采用将原图像拆分成三个色彩通道,再分别与初始的照度图进行计算的方法来获取三个不同色彩通道的去除光照影响的图像即反射图;
S32,对照度图进行两种不同的增强操作;首先,使用相机响应模型来增强图像的全局亮度:
式中L为上述的图像照度,g()表示相机响应函数,k为曝光比,a与b表示相机内置参数,L1为使用相机响应模型得到的全局对比度增强照度图;
采用设定k为一个定值得方式来减少算法的运行时间,经过多次对比实验,在本方法中将曝光比k设定为5,a设置为-0.3293,b设置为1.1258;
其次,使用限制对比度自适应直方图均衡化对原始照度图进行增强,得到局部对比度显著提高的第二幅增强照度图;
L2=CLAHE(L) (9)
式中CLAHE()表示限制对比度自适应直方图均衡化操作,L2为使用限制对比度自适应直方图均衡化得到的局部对比度增强照度图;
S33,在得到两幅不同的增强照度图后,根据增强照度图的特征,设计出像素级别的权重并对不同的增强照度图进行融合,如公式(8)所示:
为使亮度更为自然,赋予接近中间值的亮度更大的权重,上式用高斯曲线来衡量像素值与中间值的贴近度,并将其设置为权重;其中k取1和2,表示第k个增强图像;
将权重进行正则化:
通过正则化的方法将不同权重映射到0~1的范围内,使不同的照度图在同样的尺度下进行融合;
将两幅照度图与对应的权重进行融合,得到最终的增强照度图:
S34,根据Retinex模型,使用最终的增强照度图得到增强后的图像:
其中S表示增强后图像,R为反射图,c代表r、g和b三个色彩通道;
采用的是将增强后照度图与反射图进行点乘的方式来获取整体的效果图;
S34,使用线性拉伸来调节增强后图像的照度与色调:
式中mean与σ分别表示图像的全局均值与方差,D为自适应因子,c代表r、g和b三个色彩通道;
考虑到去雾后图像亮度降低的程度以及雾图原本的色彩,将自适应因子D设置为6,以获取最佳的视觉效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011437927.3A CN112508814B (zh) | 2020-12-07 | 2020-12-07 | 一种基于无人机低空视角下的图像色调修复型去雾增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011437927.3A CN112508814B (zh) | 2020-12-07 | 2020-12-07 | 一种基于无人机低空视角下的图像色调修复型去雾增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112508814A true CN112508814A (zh) | 2021-03-16 |
CN112508814B CN112508814B (zh) | 2022-05-20 |
Family
ID=74970681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011437927.3A Active CN112508814B (zh) | 2020-12-07 | 2020-12-07 | 一种基于无人机低空视角下的图像色调修复型去雾增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508814B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139922A (zh) * | 2021-05-31 | 2021-07-20 | 中国科学院长春光学精密机械与物理研究所 | 图像去雾方法及去雾装置 |
CN114298935A (zh) * | 2021-12-27 | 2022-04-08 | 重庆港宇高科技开发有限公司 | 图像增强方法、装置及计算机可读存储介质 |
CN115760641A (zh) * | 2022-12-06 | 2023-03-07 | 二十一世纪空间技术应用股份有限公司 | 基于多尺度特征注意力网络的遥感影像去云雾方法和设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105122302A (zh) * | 2013-04-15 | 2015-12-02 | 高通股份有限公司 | 无重影高动态范围图像的产生 |
CN106875352A (zh) * | 2017-01-17 | 2017-06-20 | 北京大学深圳研究生院 | 一种低照度图像增强方法 |
KR20180050832A (ko) * | 2016-11-07 | 2018-05-16 | 한국과학기술원 | Cnn을 이용한 이미지 디헤이징 방법 및 그 시스템 |
CN108269244A (zh) * | 2018-01-24 | 2018-07-10 | 东北大学 | 一种基于深度学习和先验约束的图像去雾系统 |
CN108460743A (zh) * | 2018-03-19 | 2018-08-28 | 西安因诺航空科技有限公司 | 一种基于暗通道的无人机航拍图像去雾算法 |
CN109345538A (zh) * | 2018-08-30 | 2019-02-15 | 华南理工大学 | 一种基于卷积神经网络的视网膜血管分割方法 |
CN109978799A (zh) * | 2019-04-15 | 2019-07-05 | 武汉理工大学 | 一种基于深度学习的海事无人机视频图像去雾方法 |
CN109978764A (zh) * | 2019-03-11 | 2019-07-05 | 厦门美图之家科技有限公司 | 一种图像处理方法及计算设备 |
CN110211052A (zh) * | 2019-03-29 | 2019-09-06 | 北京工业大学 | 一种基于特征学习的单幅图像去雾方法 |
CN110223359A (zh) * | 2019-05-27 | 2019-09-10 | 浙江大学 | 一种基于生成对抗网络的双阶段多配色线稿上色模型及其构建方法和应用 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
CN111161160A (zh) * | 2019-12-04 | 2020-05-15 | 新奇点企业管理集团有限公司 | 一种雾天障碍物检测方法、装置、电子设备和存储介质 |
CN111223068A (zh) * | 2019-11-12 | 2020-06-02 | 西安建筑科技大学 | 基于Retinex的自适应非均匀低照度图像增强的方法 |
CN111340732A (zh) * | 2020-02-28 | 2020-06-26 | 新疆大学 | 一种低照度视频图像增强方法及装置 |
-
2020
- 2020-12-07 CN CN202011437927.3A patent/CN112508814B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105122302A (zh) * | 2013-04-15 | 2015-12-02 | 高通股份有限公司 | 无重影高动态范围图像的产生 |
KR20180050832A (ko) * | 2016-11-07 | 2018-05-16 | 한국과학기술원 | Cnn을 이용한 이미지 디헤이징 방법 및 그 시스템 |
CN106875352A (zh) * | 2017-01-17 | 2017-06-20 | 北京大学深圳研究生院 | 一种低照度图像增强方法 |
CN108269244A (zh) * | 2018-01-24 | 2018-07-10 | 东北大学 | 一种基于深度学习和先验约束的图像去雾系统 |
CN108460743A (zh) * | 2018-03-19 | 2018-08-28 | 西安因诺航空科技有限公司 | 一种基于暗通道的无人机航拍图像去雾算法 |
CN109345538A (zh) * | 2018-08-30 | 2019-02-15 | 华南理工大学 | 一种基于卷积神经网络的视网膜血管分割方法 |
CN109978764A (zh) * | 2019-03-11 | 2019-07-05 | 厦门美图之家科技有限公司 | 一种图像处理方法及计算设备 |
CN110211052A (zh) * | 2019-03-29 | 2019-09-06 | 北京工业大学 | 一种基于特征学习的单幅图像去雾方法 |
CN109978799A (zh) * | 2019-04-15 | 2019-07-05 | 武汉理工大学 | 一种基于深度学习的海事无人机视频图像去雾方法 |
CN110223359A (zh) * | 2019-05-27 | 2019-09-10 | 浙江大学 | 一种基于生成对抗网络的双阶段多配色线稿上色模型及其构建方法和应用 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
CN111223068A (zh) * | 2019-11-12 | 2020-06-02 | 西安建筑科技大学 | 基于Retinex的自适应非均匀低照度图像增强的方法 |
CN111161160A (zh) * | 2019-12-04 | 2020-05-15 | 新奇点企业管理集团有限公司 | 一种雾天障碍物检测方法、装置、电子设备和存储介质 |
CN111340732A (zh) * | 2020-02-28 | 2020-06-26 | 新疆大学 | 一种低照度视频图像增强方法及装置 |
Non-Patent Citations (7)
Title |
---|
JING ZHANG等: "FAMED-Net: A Fast and Accurate Multi-scale End-to-end Dehazing Network", 《JOURNAL OF LATEX CLASS FILES》 * |
SOURYA DIPTA DAS等: "Fast Deep Multi-patch Hierarchical Network for Nonhomogeneous Image Dehazing", 《PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) WORKSHOPS》 * |
XUEYANGFU等: "A fusion-basedenhancingmethodforweaklyilluminatedimages", 《SIGNAL PROCESSING》 * |
YURUI REN等: "LECARM: Low-Light Image Enhancement Using the Camera Response Model", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
冯壮: "暗光条件下单张图像增强算法研究", 《万方在线》 * |
寇大磊等: "基于多尺度卷积网络的快速图像去雾算法", 《计算机工程与应用》 * |
殷莹等: "基于道路监控的图像增强算法研究", 《新疆大学学报(自然科学版)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139922A (zh) * | 2021-05-31 | 2021-07-20 | 中国科学院长春光学精密机械与物理研究所 | 图像去雾方法及去雾装置 |
CN113139922B (zh) * | 2021-05-31 | 2022-08-02 | 中国科学院长春光学精密机械与物理研究所 | 图像去雾方法及去雾装置 |
CN114298935A (zh) * | 2021-12-27 | 2022-04-08 | 重庆港宇高科技开发有限公司 | 图像增强方法、装置及计算机可读存储介质 |
CN115760641A (zh) * | 2022-12-06 | 2023-03-07 | 二十一世纪空间技术应用股份有限公司 | 基于多尺度特征注意力网络的遥感影像去云雾方法和设备 |
CN115760641B (zh) * | 2022-12-06 | 2024-01-23 | 二十一世纪空间技术应用股份有限公司 | 基于多尺度特征注意力网络的遥感影像去云雾方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112508814B (zh) | 2022-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508814B (zh) | 一种基于无人机低空视角下的图像色调修复型去雾增强方法 | |
CN110889813B (zh) | 基于红外信息的低光图像增强方法 | |
Jiang et al. | Image dehazing using adaptive bi-channel priors on superpixels | |
CN104217404A (zh) | 雾霾天视频图像清晰化处理方法及其装置 | |
CN109509156B (zh) | 一种基于生成对抗模型的图像去雾处理方法 | |
CN109255758A (zh) | 基于全1*1卷积神经网络的图像增强方法 | |
CN115223004A (zh) | 基于改进的多尺度融合生成对抗网络图像增强方法 | |
CN110827218A (zh) | 基于图像hsv透射率加权校正的机载图像去雾方法 | |
CN113159043A (zh) | 基于语义信息的特征点匹配方法及系统 | |
CN106023108A (zh) | 基于边界约束和上下文正则化的图像去雾算法 | |
Tang et al. | A local flatness based variational approach to retinex | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
Wei et al. | An image fusion dehazing algorithm based on dark channel prior and retinex | |
Bartani et al. | An adaptive optic-physic based dust removal method using optimized air-light and transfer function | |
CN116883868A (zh) | 基于自适应图像去雾的无人机智能巡航检测方法 | |
CN110930343A (zh) | 基于sr-mdcnn的遥感图像融合方法 | |
CN110189262A (zh) | 基于神经网络以及直方图匹配的图像去雾算法 | |
CN107301625B (zh) | 基于亮度融合网络的图像去雾方法 | |
Zhang et al. | A compensation textures dehazing method for water alike area | |
CN108564535A (zh) | 一种基于深度学习的图像去雾方法 | |
CN114882346A (zh) | 一种基于视觉的水下机器人目标自主识别方法 | |
CN112949389A (zh) | 一种基于改进目标检测网络的雾霾图像目标检测方法 | |
Tang et al. | NDPC-Net: A dehazing network in nighttime hazy traffic environments | |
CN113724168B (zh) | 一种飞机图像去雾方法及系统 | |
TWI804001B (zh) | 具時序平滑性之破碎深度圖補正系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |