CN111626960A - 图像去雾方法、终端及计算机存储介质 - Google Patents
图像去雾方法、终端及计算机存储介质 Download PDFInfo
- Publication number
- CN111626960A CN111626960A CN202010472428.1A CN202010472428A CN111626960A CN 111626960 A CN111626960 A CN 111626960A CN 202010472428 A CN202010472428 A CN 202010472428A CN 111626960 A CN111626960 A CN 111626960A
- Authority
- CN
- China
- Prior art keywords
- image
- processed
- defogging
- model
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 119
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 76
- 238000000889 atomisation Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 135
- 238000012360 testing method Methods 0.000 claims description 98
- 238000012549 training Methods 0.000 claims description 71
- 238000013527 convolutional neural network Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 28
- 238000004458 analytical method Methods 0.000 claims description 20
- 238000013135 deep learning Methods 0.000 description 31
- 230000000694 effects Effects 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000013461 design Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000012938 design process Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本申请实施例公开了一种图像去雾方法、终端及计算机存储介质,图像去雾方法包括:在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;根据尺寸参数确定待处理图像对应的预处理策略;其中,预处理策略用于对图像尺寸进行限制;若预处理策略为划分待处理图像,则划分待处理图像,获得待处理图像对应的子图像;根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像;根据图像拼接模型对去雾后子图像进行拼接处理,获得待处理图像对应的去雾后图像。
Description
技术领域
本申请实施例涉及终端技术领域,尤其涉及一种图像去雾方法、终端及计算机存储介质。
背景技术
随着计算机视觉的发展及其在交通、安全监控领域的应用,图像去雾已成为计算机视觉的重要研究领域。目前,图像去雾的方法主要有非物理模型去雾方法和物理模型去雾方法这两大类。其中,非物理模型的去雾方法本质上是增强图像的对比度与颜色;物理模型去雾方法是利用大气物理散射规律来建立图像还原模型。
然而,非物理模型去雾方法仅能改善视觉效果,并不能提高雾化图像的质量,甚至可能丢失图像的某些信息;物理模型去雾方法处理时间长,处理效率较低。可见,现有的图像去雾方法仍不够成熟,无法兼顾去雾处理的效果和效率。
发明内容
本申请实施例提供一种图像去雾方法、终端及计算机存储介质,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供了一种图像去雾方法,所述方法包括:
在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;
根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
第二方面,本申请实施例提供了一种终端,所述终端包括:确定单元,划分单元,去雾单元,划分单元,
所述确定单元,用于在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;以及根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
所述划分单元,用于若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
所述去雾单元,用于根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
所述划分单元,用于根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
第三方面,本申请实施例提供了一种终端,所述终端包括处理器、存储有所述处理器可执行指令的存储器,当所述指令被所述处理器执行时,实现如上所述的图像去雾方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有程序,应用于终端中,所述程序被处理器执行时,实现如上所述的图像去雾方法。
本申请实施例提供一种图像去雾方法、终端及计算机存储介质,终端在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;根据尺寸参数确定待处理图像对应的预处理策略;其中,预处理策略用于对图像尺寸进行限制;若预处理策略为划分待处理图像,则划分待处理图像,获得待处理图像对应的子图像;根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像;根据图像拼接模型对去雾后子图像进行拼接处理,获得待处理图像对应的去雾后图像。由此可见,在本申请的实施例中,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
附图说明
图1为目前的图像去雾处理方法的示意图;
图2为图像去雾方法的实现流程示意图一;
图3为图像去雾方法的实现流程示意图二;
图4为图像去雾方法的实现流程示意图三;
图5为图像去雾方法的实现流程示意图四;
图6为常规卷积处理的示意图;
图7为Depthwise卷积处理的示意图;
图8为Pointwise卷积处理的示意图;
图9为图像去雾方法的实现流程示意图五;
图10为图像去雾方法的实现流程示意图六;
图11为终端的组成结构示意图一;
图12为终端的组成结构示意图二。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅仅用于解释相关申请,而非对该申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关申请相关的部分。
由于受到大气中漂浮水滴对光的折射、反射、自身吸收和自身成像等影响,使得在雾天时所捕获图像的对比度较低,并引起色彩失真,甚至会导致机器视觉系统无法正常工作。在雾霾天气导致能见度较低的恶劣气象条件下,采集到的图片受大气中悬浮颗粒物(如雾、霾等)的影响,导致图片质量不佳,难以辨别图片中的物体特征,甚至影响例如室外监控、目标识别和交通导航中图片的质量。因此,有雾图像特征清晰化有着极为重要的意义。
随着计算机视觉的发展及其在交通、安全监控领域的应用,图像去雾已成为计算机视觉的重要研究领域。目前主要是利用传统图像处理方法或者物理模型去雾方法将雾化图像输入,输出得到清晰图像。其中,传统图像处理方法本质上是增强图像的对比度与颜色,仅能改善视觉效果,并不能提高雾化图像的质量,甚至可能丢失图像的某些信息;物理模型去雾方法是利用大气物理散射规律来建立图像还原模型,但处理时间长,处理效率较低。
具体地,一方面,图像增强类算法直接从图像处理角度出发,通过增强含雾图像的对比度,突出图片的特征或有效信息,一定程度上改善图片的视觉效果。但是该类方法忽略了图像降质的真正原因,所以对于场景复杂的图片无法提高图片的质量,甚至可能丢失图像的某些信息。另一方面,模型去雾类算法通过建立大气散射模型,研究图像退化的物理原理,得出大气中悬浮颗粒物对光的散射作用以及对图片的影响,复原出更真实的图片,且在复杂场景中去雾效果较好,图像信息较完整。该算法对非天空区域的图片有着良好的去雾效果,而对于有天空的这类的亮区域结果并不理想,且该算法计算量太大,效率较低。
图1为目前的图像去雾处理方法的示意图,如图1所示,现有的技术方案主要是将雾化图像输入至去雾算法模型中,输出得到去雾后的清晰图像。其中,机器学习的模型是基于传统算法生成的。可见,现有技术是利用传统算法对整幅雾化图像进行处理,主要有以下缺点:
1、传统手工设计算法泛化性比较差,在环境变化比较大的情况下,效果不好。
2、对整幅图像直接进行去雾处理时,如果输入图像非常大,比如3000×4000时,处理速度非常慢。
也就是说,现有技术中,由于缺少相关利用深度学习算法进行图像去雾的算法,复杂场景下的去雾效果并不理想;且现有的去雾处理方法存在处理效率低的问题。
在人工智能(Artificial Intelligence,AI)领域日益发展的今天,深度学习对图像去雾的效果越来越好,因此,本申请提出的图像去雾方法,利用AI进行图像去雾模型的搭建,同时,还可以通过构建的图像拼接模型辅助大尺寸图像的去雾处理,从而可以同时对去雾处理的效果和效率进行提升。进一步对,在本申请中,图像去雾模型和图像拼接模型均是在卷积神经网络(Convolutional Neural Networks,CNN)网络结构的基础上简化设计获得的,可以以较低的乘积累加运算(Multiply-Accumulates,MACs)在移动终端中运行,从而实现了端到端的实时图像去雾。
具体地,为了解决上述缺陷,本申请提出的图像去雾算法,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本申请一实施例提供了一种图像去雾方法,图2为图像去雾方法的实现流程示意图一,如图2所示,在本申请的实施例中,终端进行图像去雾处理的方法可以包括以下步骤:
步骤101、在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数。
在本申请的实施例中,终端在确定待处理图像为雾化图像之后,可以先对待处理图像的尺寸参数进行确定。
需要说明的是,在本申请的实施例中,上述终端可以为任何具备通信和存储功能的终端,例如:平板电脑、手机、电子阅读器、遥控器、个人计算机(Personal Computer,PC)、笔记本电脑、车载设备、网络电视、可穿戴设备、个人数字助理(Personal DigitalAssistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置等终端。
进一步地,在本申请的实施例中,待处理图像可以为终端预先存储的图像,例如,待处理图像可以为手机相册中的图像;待处理图像也可以为终端实时采集的图像,例如,待处理图像可以为手机拍摄获得的预览图像;待处理图像还可以为终端实时录制的视频中的一帧图像,例如,待处理图像可以为监控设备录制的监控视频中的一帧图像。
也就是说,在本申请的实施例中,待处理图像可以为终端预先存储的,也可以为终端实时采集的,还可以为终端接收其它设备发送的,本申请不做具体限定。
步骤102、根据尺寸参数确定待处理图像对应的预处理策略;其中,预处理策略用于对图像尺寸进行限制。
在本申请的实施例中,终端在确定待处理图像的尺寸参数之后,可以进一步根据尺寸参数确定待处理图像对应的预处理策略。
需要说明的是,在本申请的实施例中,预处理策略可以用于对图像尺寸进行限制。也就是说,对于不同的尺寸参数的图像,终端所确定的预处理策略是不相同。
示例性的,在本申请的实施例中,对于尺寸较大的图像,终端确定的与其对应的预处理策略可以为先对该图像进行图像划分的预处理,然后再进行去雾处理;对于尺寸较小的图像,终端确定的与其对应的预处理策略可以为直接进行去雾处理。
由此可见,在本申请的实施例中,对于不同尺寸参数的待处理图像,终端确定的预处理策略是不同的。具体地,根据尺寸参数的大小,预处理策略可以包括不划分处理和划分处理。
可以理解的是,在本申请的实施例中,待处理图像的尺寸参数可以包括图像的长度与宽度,其中,图像的长度和宽度可以是以像素为单位的,也可以是以厘米为单位。
进一步地,在本申请的实施例中,终端可以预先设置一个用于确定待处理图像的预处理策略的尺寸参数,即预设尺寸阈值。
示例性的,在本申请的实施例中,终端在根据尺寸参数确定待处理图像对应的预处理策略时,可以将待处理图像的尺寸参数与预设尺寸阈值进行比较,从而可以根据比较结果进一步确定待处理图像的预处理策略。
进一步地,在本申请的实施例中,终端在将待处理图像的尺寸参数与预设尺寸阈值进行比较之后,如果比较结果为尺寸参数大于或者等于预设尺寸阈值,那么终端便可以确定预处理策略为划分待处理图像;如果比较结果为尺寸参数小于预设尺寸阈值,那么终端便可以确定预处理策略为不划分待处理图像。
需要说明的是,在本申请的实施例中,终端可以对待处理图像的高度进行限制,也可以对待处理图像的宽度进行限制,还可以对待处理图像的高度和宽度进行限制;相应地,预设尺寸阈值可以为高度尺寸上限值,也可以为宽度尺寸上限值,还可以为高度和宽度的尺寸上限值。
示例性的,在本申请中,终端可以将预设尺寸阈值确定为2048×1536,从而可以按照2048×1536的尺寸阈值对待处理图像的高度和宽度进行限制。
步骤103、若预处理策略为划分待处理图像,则划分待处理图像,获得待处理图像对应的子图像。
在本申请的实施例中,终端在根据尺寸参数确定待处理图像对应的预处理策略之后,如果预处理策略为划分待处理图像,那么终端可以对待处理图像进行划分,获得待处理图像对应的子图像。
进一步地,在本申请的实施例中,为了提高去雾处理的效率,对于尺寸较大的待处理图像,终端可以先将待处理图像划分为大小相等的多个子图像,然后在对划分后的子图像进行去雾处理,便可以加速去雾处理。
需要说明的是,在本申请的实施例中,终端在划分待处理图像时,可以根据待处理图像的尺寸参数确定划分获得的子图像的个数,即对于不同的尺寸参数,划分待处理图像后获得的子图像的个数也可能不同。例如,将尺寸参数为a1的待处理图像划分为6个子图像,将尺寸参数为a2的待处理图像划分为9个子图像,其中,a1小于a2。
进一步地,在本申请的实施例中,终端在划分待处理图像时,还可以预先设置划分个数,即对于不同的尺寸参数,划分待处理图像后获得的子图像的个数是相同的。例如,将尺寸参数为a1的待处理图像划分为9个子图像,将尺寸参数为a2的待处理图像划分为9个子图像,其中,a1小于a2。
可以理解的是,在本申请的实施例中,如果预处理策略为划分待处理图像,那么终端可以将待处理图像划分为n个尺寸相同的子图像,其中,n为大于1的整数。
步骤104、根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像。
在本申请的实施例中,如果待处理图像对应的预处理策略为划分待处理图像,那么终端在划分待处理图像,获得待处理图像对应的子图像之后,便可以根据图像去雾模型对子图像进行去雾处理,从而便可以获得子图像对应的去雾后子图像。
可以理解的是,在本申请的实施例中,由于终端将待处理图像划分为n个尺寸相同的子图像,对应的,终端在对分别对每一个子图像进行去雾处理之后,可以获得n个子图像对应的n个去雾后子图像,其中,一个子图像对应一个去雾后子图像。
需要说明的是,在本申请的实施例中,为了提高图像去雾的处理效果,终端可以利用深度学习的图像去雾模型来分别对多个子图像进行去雾处理。其中,图像去雾模型可以为终端基于AI所构建的图像去雾算法。
进一步地,在本申请的实施例中,图像去雾模型可以是终端基于卷积神经网络CNN进行训练获得的。具体地,在本申请中,终端可以利用CNN中的MobileNet-V2来确定图像去雾模型。
深度CNN网络如ResNet和DenseNet,已经极大地提高了图像分类的准确度。但是除了准确度外,计算复杂度也是CNN网络要考虑的重要指标,过复杂的网络可能速度很慢。为了满足终端所需要的既准确又高效的小模型,一些轻量级的CNN网络如MobileNet被提出,它们在速度和准确度之间做了很好地平衡。
示例性的,在本申请的实施例中,终端在第一轻量化卷积神经网络的基础上,可以将部分卷积层修改为Depthwise卷积+Pointwise卷积,从而可以在保证处理效果的同时提高图像处理效率。其中,第一轻量化卷积神经网络可以为CNN中的MobileNet-V2网络。
MobileNet-V2是对MobileNet-V1的改进,同样是一个轻量化卷积神经网络,是适用于移动端的深度学习网络,其中,由于MobileNet-V2采用深度可分离的卷积(DepthwiseSeparable Convolution)代替传统卷积方式,将原始卷积分为Depthwise卷积+Pointwise卷积两部分,因此具有参数少、模型小、准确率相比一些传统卷积损失少等有点。
Depthwise,即不同的channel使用不同的卷积核卷积提取特征;Pointwise,即对某一点,某一像素的卷积。
Depthwise卷积与Pointwise卷积,合起来被称作Depthwise SeparableConvolution,该结构和常规卷积操作类似,可用来提取特征,但相比于常规卷积操作,其参数量和运算成本较低,所以这种结构更适用于轻量级网络中,如MobileNet。
可以理解的是,在本申请的实施例中,终端在根据图像去雾模型对子图像进行去雾处理时,为了提高处理效率,终端可以基于图像去雾模型,同时对每一个子图像进行去雾处理。
可以理解的是,在本申请的实施例中,终端在根据图像去雾模型对子图像进行去雾处理之后,便可以获得每一个子图像对应的一个去雾后子图像。
需要说明的是,在本申请的实施例中,终端在构建图像去雾模型时,可以先对第一图像样本集进行划分,获得第一训练数据和第一测试数据;其中,第一图像样本集包括雾化图像和雾化图像对应的清晰图像;然后基于第一轻量化卷积神经网络构建第一网络模型,并根据第一训练数据对第一网络模型进行训练处理,获得初始去雾模型;最后根据第一测试数据对初始去雾模型进行测试处理,便可以获得图像去雾模型。
步骤105、根据图像拼接模型对去雾后子图像进行拼接处理,获得待处理图像对应的去雾后图像。
在本申请的实施例中,终端在根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像之后,终端可以根据图像拼接模型对全部去雾后子图像进行拼接处理,从而可以获得待处理图像对应的清晰图像,即去雾后图像。
可以理解的是,在本申请的实施例中,终端在对分别对待处理图像的多个子图像进行去雾处理之后,可以获得多个子图像对应的多个去雾后子图像,进而,终端需要通过将多个去雾后子图像进行拼接,最终获得一帧与待处理图像对应的去雾后图像。
需要说明的是,在本申请的实施例中,为了提高图像拼接的处理效果,终端可以利用深度学习的图像拼接模型来将多个去雾后子图像拼接成对应的去雾后图像。其中,图像拼接模型可以为终端基于人工智能AI所构建的图像拼接算法。
进一步地,在本申请的实施例中,图像拼接模型可以是终端基于CNN进行训练获得的。具体地,在本申请中,终端可以利CNN中的ShuffleNet-V2来确定图像拼接模型。
除MobileNet以外,轻量化卷积神经网络CNN还包括ShuffleNet,ShuffleNet在速度和准确度之间也能达到很好地平衡。
示例性的,在本申请的实施例中,终端在第二轻量化卷积神经网络的基础上,可以去掉部分卷积层,通过将部分卷积层修改为Depthwise卷积+Pointwise卷积的方式进行网络加速,从而可以基于这种对CNN进行了极小网络设计,实现在保证拼接效果的同时提高图像处理效率。其中,第二轻量化卷积神经网络可以为CNN中的ShuffleNet-V2网络。
ShuffleNet-V2是ShuffleNet-V1的升级版本,在同等复杂度下,ShuffleNet-V2比ShuffleNet-V1和MobileNet-V2更准确。
为了改善ShuffleNet-V1的缺陷,ShuffleNet-V2版本引入了一种新的运算:Channel Split,将module的输入channels分为两部分,一部分直接向下传递,另外一部分则进行真正的向后计算。到了module的末尾,直接将两分支上的output channels数目级连起来,从而规避了ShuffleNet-V1中Element-wise sum的操作。然后我们再对最终输出的output feature maps进行Random Shuffle操作,从而使得各channels之间的信息相互交通。
具体来说,在开始时先将输入特征图在通道维度分成两个分支:通道数分别为c’和c-c’,实际实现时c’=c/2。左边分支做同等映射,右边的分支包含3个连续的卷积,并且输入和输出通道相同,这符合G1原则(相同的通道宽度可最小化内存访问成本)。而且两个1x1卷积不再是组卷积,这符合G2原则(过度的组卷积会增访问成本),另外两个分支相当于已经分成两组。两个分支的输出不再是Add元素,而是concat在一起,紧接着是对两个分支concat结果进行channle shuffle,以保证两个分支信息交流。其实concat和channelshuffle可以和下一个模块单元的channel split合成一个元素级运算,这符合原则G4。
需要说明的是,在本申请的实施例中,终端在构建图像拼接模型时,可以先对第二图像样本集进行划分,获得第二训练数据和第二测试数据;其中,第二图像样本集包括原始图像和原始图像对应的多个分解图像;然后基于第二轻量化卷积神经网络构建第二网络模型,并根据第二训练数据对第二网络模型进行训练处理,获得初始拼接模型;最后根据第二测试数据对初始拼接模型进行测试处理,便可以获得图像拼接模型。
由此可见,在本申请中,如果预处理策略为划分待处理图像,那么终端可以先划分待处理图像,获得待处理图像对应的子图像;然后根据图像去雾模型对子图像进行去雾处理,从而获得子图像对应的去雾后子图像;最后便可以基于图像拼接模型对去雾后子图像进行拼接处理,进而获得去雾后图像。
图3为图像去雾方法的实现流程示意图二,如图3所示,在本申请的实施例中,终端在根据尺寸参数确定待处理图像对应的预处理策略之后,即步骤102之后,那么终端进行图像去雾处理的方法还可以包括以下步骤:
步骤106、若预处理策略为不划分待处理图像,则直接根据图像去雾模型对待处理图像进行去雾处理,获得去雾后图像。
在本申请的实施例中,终端在根据尺寸参数确定待处理图像对应的预处理策略之后,便可以基于预处理测策略,根据图像去雾模型对待处理图像进行去雾处理,从而获得待处理图像对应的清晰图像,即去雾后图像。其中,如果预处理策略为不划分待处理图像,那么终端可以利用图像去雾模型对待处理图像进行去雾处理。
示例性的,在本申请的实施例中,如果预处理策略为不划分待处理图像,那么终端便不需要对待处理图像进行划分处理,因此,终端可以直接根据图像去雾模型对待处理图像进行去雾处理,从而获得待处理图像对应的去雾后图像。
由此可见,本申请提出的图像去雾方法,对于不同尺寸参数的待处理图像,终端可以选择不同的预处理策略来对待处理图像进行去雾处理,从而可以提升去雾处理的处理效率。
图4为图像去雾方法的实现流程示意图三,如图4所示,在本申请的实施例中,终端在确定待处理图像的尺寸参数之前,即步骤101之前,终端进行图像去雾处理的方法还可以包括以下步骤:
步骤107、对待处理图像进行分析处理,获得分析结果。
在本申请的实施例中,终端在获取待处理图像之后,可以先对待处理图像进行分析处理,获得分析结果。
可以理解的是,在本申请的实施例中,终端在对待处理图像进行分析处理时,可以检测待处理图像中的特征信息,然后基于特征信息获得待处理图像的分析结果。其中,分析结果可以用于对待处理图像是否有雾或待处理图像的雾化程度进行表征。
示例性的,在本申请的实施例中,终端可以利用预先学习的识别模型对待处理图像进行分析处理,即终端将待处理图像输入值识别模型中,输出待处理图像的分析结果。
步骤108、根据分析结果判断待处理图像是否为雾化图像。
在本申请的实施例中,终端在对待处理图像进行分析处理,获得分析结果以后,便可以根据分析结果判断待处理图像是否为雾化图像,即判断是否需要对待处理图像进行去雾处理。
进一步地,在本申请的实施例中,由于待处理图像的分析结果可以表征待处理图像是否有雾,也可以表征待处理图像的雾化程度,因此,终端根在据分析结果判断待处理图像是否为雾化图像是,既可以直接将有雾的待处理图像确定为雾化图像,而将没雾的待处理图像确定为非雾化图像;也可以将雾化程度较高的图像确定为雾化图像,而将雾化程度较低的图像确定为非雾化图像。
进一步地,在本申请的另一示例中,终端在确定待处理图像的尺寸参数之前,即步骤101之前,终端可以先对待处理图像进行提取处理,获得待处理图像的每个像素RGB分量的最小分量值,将其存入到一个和待处理图像相同大小的灰度图中,然后将灰度图划分为多个像素为15×15的窗口,并对每个窗口进行最小值滤波,用窗口的最小像素值替代该窗口的所有像素后,得到的暗通道图。接着,终端可以将暗通道图的所有像素值与待处理图像分别作差,将所有差值累加得到差值总和,然后将差值总和与差值阈值进行比较,如果差值总和小于差值阈值,那么终端可以任认为不需要对待处理图像进行去雾处理;如果差值总和大于或者等于差值阈值,那么终端可以任认为需要对待处理图像进行去雾处理,则将待处理图像判定为雾化图像。
由此可见,在本申请的实施例中,基于上述步骤101至步骤108所提出的图像去雾方法,利用AI进行图像去雾模型的搭建,同时,还可以通过构建的图像拼接模型辅助大尺寸图像的去雾处理,从而可以同时对去雾处理的效果和效率进行提升。
进一步地,本申请提出的图像去雾方法包括通过AI图像去雾算法精确地对图像进行去雾处理,大大提高去雾处理的效果;还包括通过AI图像拼接算法对图像进行拼接处理,对多角度,多场景下的图像都有较好的拼接效果。经过实验对比,本申请提出的利用深度学习的图像去雾方法,比传统算法精度要高2倍以上,同时,由于可以将大尺寸图像划分为多个子图像进行并行处理,然后将处理结果拼接起来,因此对大尺寸图像的处理速度可以提升5倍以上。
可以理解的是,本申请提出的图像去雾方法可以在视频监控、图像美化等领域有广泛应用。比如在监控领域,当出现雾气比较大的情况下,摄像头很难拍清楚目标对象,经过对图像去雾之后,能清晰的看到目标任务。在图像美化方面,在使用手机进行自拍时,如果是天气不好,或者拍的比较模糊时,利用图像去雾算法可以自动对图像进行去雾处理,使图像比较清晰。
本申请提出了一种图像去雾方法,终端在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;根据尺寸参数确定待处理图像对应的预处理策略;其中,预处理策略用于对图像尺寸进行限制;若预处理策略为划分待处理图像,则划分待处理图像,获得待处理图像对应的子图像;根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像;根据图像拼接模型对去雾后子图像进行拼接处理,获得待处理图像对应的去雾后图像。由此可见,在本申请的实施例中,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
基于上述实施例,在本申请的再一实施例中,图5为图像去雾方法的实现流程示意图四,如图5所示,在本申请的实施例中,终端在根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像之前,即步骤104之前,终端进行图像去雾处理的方法还可以包括以下步骤:
步骤109、对第一图像样本集进行划分,获得第一训练数据和第一测试数据;其中,第一图像样本集包括雾化图像和雾化图像对应的清晰图像。
步骤1010、基于第一轻量化卷积神经网络构建第一网络模型,并根据第一训练数据对第一网络模型进行训练处理,获得初始去雾模型。
步骤1011、根据第一测试数据对初始去雾模型进行测试处理,获得图像去雾模型。
在本申请的实施例中,终端在利用图像去雾模型对待处理图像进行去雾处理之前,可以先构建该图像去雾模型。
进一步地,在本申请的实施例中,终端可以基于第一轻量化卷积神经网络构建第一网络模型,通过修改处理来提升速度。具体地,在第一轻量化卷积神经网络MobileNet-V2网络的基础上,可以将部分卷积层修改为Depthwise卷积+Pointwise卷积,通过这种的方式所设计的图像去雾模型,可以在不降低精度的情况下来提升速度,且能够在终端中实时运行。
Depthwise Separable Convolution是将一个完整的卷积运算分解为两步进行,即分解为Depthwise卷积与Pointwise卷积。
图6为常规卷积处理的示意图,如图6所示,对于一张5×5像素、三通道彩色输入图片(shape为5×5×3)。经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3。
具体地,不同于常规卷积操作,Depthwise卷积的一个卷积核负责一个通道,一个通道只被一个卷积核卷积,而常规卷积每个卷积核是同时操作输入图片的每个通道。图7为Depthwise卷积处理的示意图,如图7所示,对于一张5×5像素、三通道彩色输入图片(shape为5×5×3),Depthwise卷积首先经过第一次卷积运算,不同于常规卷积,Depthwise完全是在二维平面内进行。卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。所以一个三通道的图像经过运算后生成了3个Feature map(如果有same padding则尺寸与输入层相同为5×5)。
Depthwise卷积完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise卷积来将这些Feature map进行组合生成新的Feature map。
图8为Pointwise卷积处理的示意图,如图8所示,Pointwise卷积的运算与常规卷积运算非常相似,它的卷积核的尺寸为1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的Feature map在深度方向上进行加权组合,生成新的Feature map。其中,有几个卷积核就有几个输出Feature map。例如,4个卷积核对应输出4个Feature map。
MobileNet-V1与MobileNet-V2相比:
MobileNet-V1:Depthwise+Pointwise,然后线性整流函数(Rectified LinearUnit,ReLU)激活;MobileNet-V2:先进行1×1的Pointwise通道扩张,Depthwise+Pointwise通道压缩,然后Linear激活。其中,Depthwise是对单个通道做卷积,前面通道数增大对它的计算量影响不会太大。
MobileNet-V2与ResNet相比:
ResNet的残差网络(Residual block):原始ResNet的连线里是两个卷积,ResNet瓶颈结构连线里是1×1通道压缩+卷积+1×1通道扩张;MobileNet-V2的倒残块(InvertedResidual block):1×1通道扩张+卷积+1×1通道缩小。
具体地,MobileNet-V2的网络结构如表1所示:
表1
Input | Operator | t | c | n | s |
224<sup>2</sup>×3 | conv2d | - | 32 | 1 | 2 |
112<sup>2</sup>×32 | bottleneck | 1 | 16 | 1 | 1 |
112<sup>2</sup>×16 | bottleneck | 6 | 24 | 2 | 2 |
56<sup>2</sup>×24 | bottleneck | 6 | 32 | 3 | 2 |
28<sup>2</sup>×32 | bottleneck | 6 | 64 | 4 | 2 |
14<sup>2</sup>×64 | bottleneck | 6 | 96 | 3 | 1 |
14<sup>2</sup>×96 | bottleneck | 6 | 160 | 3 | 2 |
7<sup>2</sup>×160 | bottleneck | 6 | 320 | 1 | 1 |
7<sup>2</sup>×320 | conv2d 1×1 | - | 1280 | 1 | 1 |
7<sup>2</sup>×1280 | avgpool 7×7 | - | - | 1 | - |
1×1×1280 | conv2d 1×1 | - | k | - |
其中,t是输入通道的倍增系数,即表示“扩张”倍数,c是输出通道数,n是该模块重复次数,s表示步长stride。
进一步地,在本申请的实施例中,终端可以先利用卷积神经网络CNN中的MobileNet-V2网络构建第一网络模型,然后通过对第一网络模型的训练和测试获得图像去雾模型。
可以理解的是,在本申请的实施例中,终端可以先获取第一图像样本集,其中,第一图像样本集包括雾化图像和雾化图像对应的清晰图像。也就是说,在第一图像样本集中,存储有一一对应的雾化图像和清晰图像。
示例性的,在本申请的实施例中,第一图像样本集包括100个不同场景对应的雾化图像和清晰图像,即第一图像样本集中存储有200帧图像。
需要说明的是,在本申请的实施例中,第一图像样本集可以为终端采集获得的,也可以为终端接收其他图像采集装置发送的,本申请不作具体限定。
进一步地,在本申请的实施例中,终端在获取第一图像样本集之后,可以对第一图像样本集进行划分,获得第一训练数据和第一测试数据。其中,第一训练数据用于对第一网络模型进行训练,第一测试数据用于对初始去雾模型进行测试。
可以理解的是,在本申请的实施例中,第一训练数据和第一测试数据中均包括有一一对应的雾化图像和清晰图像,然而,第一训练数据和第一测试数据中的图像是不相同,即第一图像样本集中的任意一组雾化图像和清晰图像,只能被划分为第一训练数据或者第一测试数据,不可以同时作为第一训练数据中的训练图像和第一测试数据中的测试图像。
进一步地,在本申请的实施例中,终端在基于第一轻量化卷积神经网络构建第一网络模型,且划分第一图像样本集获得第一训练数据和第一测试数据之后,终端便可以先使用第一训练数据对第一网络模型进行训练处理,获得初始去雾模型;然后利用第一测试数据对初始去雾模型进行测试处理,以获得最终的图像去雾模型。
需要说明的是,在本申请的实施例中,终端在使用第一训练数据对第一网络模型进行训练处理时,可以标注第一训练数据,经过反复迭代第一训练数据最终得到了识别精度较高的初始去雾模型。
具体地,在本申请的实施例中,终端在利用第一训练数据训练获得初始去雾模型,并利用第一测试数据集获得图像去雾模型的过程中,可以采用多种损失函数进行联合处理,示例性的,在本申请中,终端可以采用Softmax loss和focal loss进行联合训练,
Softmax loss是最常用的损失函数之一,在图像分类和分割任务中都被广泛使用。Softmax loss是由softmax和交叉熵(cross-entropy loss)loss组合而成,所以全称是Softmax with cross-entropy loss,在caffe,tensorflow等开源框架的实现中,直接将两者放在一个层中,而不是分开不同层,可以让数值计算更加稳定,因为正指数概率可能会有非常大的值。
Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。
需要说明的是,在本申请的实施例中,终端在根据第一测试数据对初始去雾模型进行测试处理,获得图像去雾模型时,可以先根据第一测试数据对初始去雾模型进行测试处理,生成第一测试结果;然后按照第一测试结果修正初始去雾模型,获得图像去雾模型。
也就是说,在本申请中,终端在采用第一训练数据训练获得的初始去雾模型之后,可以基于第一测试数据对初始去雾模型的去雾处理效果进行测试。具体地,终端可以将第一测试数据中的雾化图像输入至初始去雾模型中,输出去雾图像,然后将该去雾图像与对应的清晰图像进行图像信息的比较,便可以获得第一测试结果。
可以理解的是,在本申请的实施例中,终端在获得第一测试结果之后,可以基于第一测试结果对训练获得的初始去雾模型进行修正,从而可以提升去雾处理的效果,获得优化后的模型,即图像去雾模型。
由此可见,在本申请的实施例中,在CNN网络结构设计过程中,终端通过裁剪网络和优化网络,可使得图像去雾模型以非常低的MACs来实现在终端中快速运行,能够完全满足终端的实时检测要求。在设计算法的过程中,还可以针对多种图像场景进一步进行优化,从而提升去雾算法的效果。
本申请提出了一种图像去雾方法,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
基于上述实施例,在本申请的另一实施例中,图9为图像去雾方法的实现流程示意图五,如图9所示,在本申请的实施例中,终端在根据图像拼接模型对去雾后子图像进行拼接处理,获得待处理图像对应的去雾后图像之前,即步骤105之前,终端进行图像去雾处理的方法还可以包括以下步骤:
步骤1012、对第二图像样本集进行划分,获得第二训练数据和第二测试数据;其中,第二图像样本集包括原始图像和原始图像对应的多个分解图像。
步骤1013、基于第二轻量化卷积神经网络构建第二网络模型,并根据第二训练数据对第二网络模型进行训练处理,获得初始拼接模型。
步骤1014、根据第二测试数据对初始拼接模型进行测试处理,获得图像拼接模型。
在本申请的实施例中,终端在利用图像拼接模型对待处理图像对应的多个去雾后子图像进行拼接处理之前,可以先构建该图像拼接模型。
进一步地,在本申请的实施例中,终端可以基于第二轻量化卷积神经网络构建第二网络模型,通过修改处理来提升速度。具体地,在第二轻量化卷积神经网络ShuffleNet-V2网络的基础上,可以将部分卷积层去掉,并将部分卷积层修改为Depthwise卷积+Pointwise卷积,通过这种的方式所设计的图像拼接模型,可以获得更好的图像拼接效果,且能够在终端中实时运行。
由于ShuffleNet-V1大量使用了1x1组卷积,违背了G2原则(过度的组卷积会增访问成本),另外,ShuffleNet-V1采用了类似ResNet中的瓶颈层(bottleneck layer),输入和输出通道数不同,违背了G1原则(相同的通道宽度可最小化内存访问成本);同时使用过多的组,也违背了G3原则(网络碎片化会降低并行度);短路连接中存在大量的元素级Add运算,违背了G4原则(元素级运算不可忽视)。
ShuffleNet-V2通过channel split的引进,改善了ShuffleNet-V1的缺陷。ShuffleNet-V2对于下采样模块,不再有channel split,而是每个分支都是直接copy一份输入,每个分支都有stride=2的下采样,最后concat在一起后,特征图空间大小减半,但是通道数翻倍。
ShuffleNet-V2整体的网络结构和ShuffleNet-V1很相似。一个额外的1x1卷积层用在GlobalPool层之前是为了混合通道特征,在每个块中的通道数按比例缩放得到不同FLOPS的网络,即设定每个block的channel数,如0.5x,1x,从而可以调整模型的复杂度。
具体地,ShuffleNet-V2的网络结构如表2所示:
表2
进一步地,在本申请的实施例中,终端可以先利用卷积神经网络CNN中的ShuffleNet-V2网络构建第二网络模型,然后通过对第二网络模型的训练和测试获得图像拼接模型。
可以理解的是,在本申请的实施例中,终端可以先获取第二图像样本集,其中,第二图像样本集包括分解前的原始图像,以及该原始图像被划分后所对应的多个分解图像。也就是说,在第二图像样本集中,存储有对应的分解前的大尺寸图像和分解后的小尺寸图像。
示例性的,在本申请的实施例中,第二图像样本集包括100个不同场景对应的原始图像和分解图像,其中,一帧原始图像可以对应m帧分解图像,m为大于1的整数。
可以理解的是,在本申请的实施例中,第二图像样本集中的不同原始图像所对应的分解图像的数量可能不同,例如,原始图像A对应有6个分解图像a1-a6,即对原始图像A进行划分处理后获得的分解图像a1-a6;原始图像B对应有9个分解图像b1-b9,即对原始图像B进行划分处理后获得的分解图像b1-b9。
需要说明的是,在本申请的实施例中,第二图像样本集可以为终端采集并划分获得的,也可以为终端接收其他图像采集装置发送的,本申请不作具体限定。
进一步地,在本申请的实施例中,终端在获取第二图像样本集之后,可以对第二图像样本集进行划分,获得第二训练数据和第二测试数据。其中,第二训练数据用于对第二网络模型进行训练,第二测试数据用于对初始拼接模型进行测试。
可以理解的是,在本申请的实施例中,第二训练数据和第二测试数据中均包括有对应的原始图像和分解图像,然而,第二训练数据和第二测试数据中的图像是不相同,即第二图像样本集中的任意一组原始图像和对应的分解图像,只能被划分为第二训练数据或者第二测试数据,不可以同时作为第二训练数据中的训练图像和第二测试数据中的测试图像。
进一步地,在本申请的实施例中,终端在基于第二轻量化卷积神经网络构建第二网络模型,且划分第二图像样本集获得第二训练数据和第二测试数据之后,终端便可以先使用第二训练数据对第二网络模型进行训练处理,获得初始拼接模型;然后利用第二测试数据对初始拼接模型进行测试处理,以获得最终的图像拼接模型。
需要说明的是,在本申请的实施例中,终端在使用第二训练数据对第二网络模型进行训练处理时,可以标注第二训练数据,经过反复迭代第二训练数据最终得到了识别精度较高的初始拼接模型。
具体地,在本申请的实施例中,终端在利用第二训练数据训练获得初始拼接模型,并利用第二测试数据集获得图像拼接模型的过程中,可以采用多种损失函数进行联合处理,示例性的,在本申请中,终端可以采用Softmax loss和focal loss进行联合训练,
需要说明的是,在本申请的实施例中,终端在根据第二测试数据对初始拼接模型进行测试处理,获得图像拼接模型时,可以先根据第二测试数据对初始拼接模型进行测试处理,生成第二测试结果;然后按照第二测试结果修正初始拼接模型,获得图像拼接模型。
也就是说,在本申请中,终端在采用第二训练数据训练获得的初始拼接模型之后,可以基于第二测试数据对初始拼接模型的拼接处理效果进行测试。具体地,终端可以将第二测试数据中的分解图像输入至初始拼接模型中,输出拼接后图像,然后将该拼接后图像与对应的原始图像进行图像信息的比较,便可以获得第二测试结果。
可以理解的是,在本申请的实施例中,终端在获得第二测试结果之后,可以基于第二测试结果对训练获得的初始拼接模型进行修正,从而可以提升拼接处理的效果,获得优化后的模型,即图像拼接模型。
由此可见,在本申请的实施例中,在CNN网络结构设计过程中,终端通过裁剪网络和优化网络,可使得图像拼接模型以非常低的MACs来实现在终端中快速运行,能够完全满足终端的实时检测要求。在设计算法的过程中,还可以针对多种图像场景进一步进行优化,从而提升拼接算法的效果。
本申请提出了一种图像去雾方法,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
基于上述实施例,在本申请的又一实施例中,图10为图像去雾处理的处理流程图六,如图10所示,终端对待处理图像进行去雾处理的方法可以包括以下步骤:
步骤201、判断待处理图像是否为雾化图像,如果是,执行步骤202,否则执行步骤207。
在本申请的实施例中,终端在获取待处理图像之后,可以先判断待处理图像是否为雾化图像。具体地,终端可以对待处理图像进行分析处理,获得分析结果,然后根据分析结果来判断待处理图像是否为雾化图像。
步骤202、确定待处理图像的尺寸参数。
在本申请的实施例中,如果判定待处理图像为雾化图像,那么终端便需要对待处理图像执行去雾处理流程,首先,终端需要先确定待处理图像的图像大小,即确定待处理图像的尺寸参数。
步骤203、待处理图像的尺寸参数是否大于或者等于预设尺寸阈值,是则执行步骤204,否则执行步骤208。
在本申请的实施例中,终端可以根据尺寸参数确定待处理图像对应的预处理策略,具体地,终端可以将待处理图像的尺寸参数与预设尺寸阈值进行比较,从而根据比较结果进一步确定对应的预处理策略。其中,预处理策略可以用于对图像尺寸进行限制。也就是说,对于不同的尺寸参数的图像,终端所确定的预处理策略是不相同。
示例性的,在本申请的实施例中,对于尺寸较大的图像,终端确定的与其对应的预处理策略可以为先对该图像进行图像划分的预处理,然后再进行去雾处理;对于尺寸较小的图像,终端确定的与其对应的预处理策略可以为直接进行去雾处理。
步骤204、划分待处理图像,获得待处理图像对应的子图像。
在本申请的实施例中,如果待处理图像的尺寸参数大于或者等于预设尺寸阈值,即预处理策略为划分待处理图像,那么终端可以对待处理图像进行划分,获得待处理图像对应的子图像。
为了提高去雾处理的效率,对于尺寸较大的待处理图像,终端可以先将待处理图像划分为大小相等的多个子图像,然后在对划分后的子图像进行去雾处理,便可以加速去雾处理。
步骤205、基于图像去雾模型获得子图像对应的去雾后子图像。
在本申请的实施例中,终端根据图像去雾模型对子图像进行去雾处理,获得子图像对应的去雾后子图像。其中,为了提高图像去雾的处理效果,终端可以利用深度学习的图像去雾模型来分别对多个子图像进行去雾处理。
示例性的,在本申请的实施例中,终端在MobileNet-V2网络的基础上,可以将部分卷积层修改为Depthwise卷积+Pointwise卷积,从而可以在保证处理效果的同时提高图像处理效率。
步骤206、利用图像拼接模型拼接去雾后子图像,获得去雾后图像。
在本申请的实施例中,终端可以根据图像拼接模型对全部去雾后子图像进行拼接处理,从而可以获得待处理图像对应的清晰图像,即去雾后图像。其中,为了提高图像拼接的处理效果,终端可以利用深度学习的图像拼接模型来将多个去雾后子图像拼接成对应的去雾后图像。
示例性的,在本申请的实施例中,终端在ShuffleNet-V2网络的基础上,可以去掉部分卷积层,通过将部分卷积层修改为Depthwise卷积+Pointwise卷积的方式进行网络加速,从而可以基于这种对CNN进行了极小网络设计,实现在保证拼接效果的同时提高图像处理效率。
步骤207、跳过去雾处理流程。
在本申请的实施例中,如果判定待处理图像不为雾化图像,那么终端便不需要对待处理图像执行去雾处理流程。
步骤208、基于图像去雾模型获得待处理图像对应的去雾后图像。
在本申请的实施例中,如果待处理图像的尺寸参数小于预设尺寸阈值,即预处理策略为不划分待处理图像,那么终端可以直接根据图像去雾模型对待处理图像进行去雾处理,获得待处理图像对应的去雾后图像。
进一步地,在本申请的实施例中,终端在执行步骤205或步骤208之前,终端对待处理图像进行去雾处理的方法还可以包括以下步骤:
步骤209、基于第一图像样本集进行深度学习,获得图像去雾模型。
在本申请的实施例中,第一图像样本集包括雾化图像和雾化图像对应的清晰图像。终端将第一图像样本集划分为第一训练数据和第一测试数据,利用第一训练数据进行模型训练,获得初始去雾模型,再利用第一测试数据对初始去雾模型进行测试,获得图像去雾模型。
进一步地,在本申请的实施例中,终端在执行步骤206之前,终端对待处理图像进行去雾处理的方法还可以包括以下步骤:
步骤2010、基于第二图像样本集进行深度学习,获得图像拼接模型。
在本申请的实施例中,第二图像样本集包括原始图像和原始图像对应的多个分解图像。终端将第二图像样本集划分为第二训练数据和第二测试数据,利用第二训练数据进行模型训练,获得初始拼接模型,再利用第二测试数据对初始拼接模型进行测试,获得图像拼接模型。
可以理解的是,本申请提出的图像去雾方法不仅仅可用于手机相册中的图像美化,还可以用于视频监控领域,改进人脸识别等场景下。比如在视频监控中,当雾比较大时,监控设备拍摄得到的图像质量非常差,很难在视频中清晰的看到目标人物,经过图像去雾后,可以较好的还原目标人物的面貌。
进一步地,本申请提出的图像去雾方法也可以在人脸识别中作为辅助手段,提高人脸识别效果,当人脸识别摄像头处于逆光或者其他天气不好的情况时,使用去雾算法可以显著的提高识别效果。
本申请提出了一种图像去雾方法,终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
基于上述实施例,在本申请的另一实施例中,图11为终端的组成结构示意图一,如图11所示,本申请实施例提出的终端10可以包括确定单元11,划分单元12,去雾单元13,拼接单元14,分析单元15,判断单元16,获取单元17。
所述确定单元11,用于在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;以及根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
所述划分单元12,用于若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
所述去雾单元13,用于根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
所述拼接单元14,用于根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
进一步地,在本申请的实施例中,所述分析单元15,用于所述确定待处理图像的尺寸参数之前,对所述待处理图像进行分析处理,获得分析结果;
所述判断单元16,用于根据所述分析结果判断所述待处理图像是否为雾化图像。
进一步地,在本申请的实施例中,所述确定单元11,具体用于若所述尺寸参数大于或者等于预设尺寸阈值,则确定所述预处理策略为划分所述待处理图像;若所述尺寸参数小于所述预设尺寸阈值,则确定所述预处理策略为不划分所述待处理图像。
进一步地,在本申请的实施例中,所述获取单元17,用于所述根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像之前,对第一图像样本集进行划分,获得第一训练数据和第一测试数据;其中,所述第一图像样本集包括雾化图像和所述雾化图像对应的清晰图像;以及基于第一轻量化卷积神经网络构建第一网络模型,并根据所述第一训练数据对所述第一网络模型进行训练处理,获得初始去雾模型;以及根据所述第一测试数据对所述初始去雾模型进行测试处理,获得所述图像去雾模型。
进一步地,在本申请的实施例中,所述获取单元17,具体用于根据所述第一测试数据对所述初始去雾模型进行测试处理,生成第一测试结果;以及按照所述第一测试结果修正所述图像去雾模型,获得所述图像去雾模型。
进一步地,在本申请的实施例中,所述获取单元17,还用于根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像之前,对第二图像样本集进行划分,获得第二训练数据和第二测试数据;其中,所述第二图像样本集包括原始图像和所述原始图像对应的多个分解图像;以及基于第二轻量化卷积神经网络构建第二网络模型,并根据所述第二训练数据对所述第二网络模型进行训练处理,获得初始拼接模型;以及根据所述第二测试数据对所述初始拼接模型进行测试处理,获得所述图像拼接模型。
进一步地,在本申请的实施例中,所述获取单元17,具体用于根据所述第二测试数据对所述初始拼接模型进行测试处理,生成第二测试结果;以及按照所述第二测试结果修正所述初始拼接模型,获得所述图像拼接模型。
进一步地,在本申请的实施例中,所述去雾单元13,还用于所述根据所述尺寸参数确定待处理图像对应的预处理策略之后,若所述预处理策略为不划分所述待处理图像,则直接根据所述图像去雾模型对所述待处理图像进行去雾处理,获得所述去雾后图像。
图12为终端的组成结构示意图二,如图12所示,本申请实施例提出的终端10还可以包括处理器18、存储有处理器18可执行指令的存储器19,进一步地,终端10还可以包括通信接口110,和用于连接处理器18、存储器19以及通信接口110的总线111。
在本申请的实施例中,上述处理器18可以为特定用途集成电路(ApplicationSpecific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(ProgRAMmable Logic Device,PLD)、现场可编程门阵列(Field ProgRAMmable GateArray,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本申请实施例不作具体限定。终端10还可以包括存储器19,该存储器19可以与处理器18连接,其中,存储器19用于存储可执行程序代码,该程序代码包括计算机操作指令,存储器19可能包含高速RAM存储器,也可能还包括非易失性存储器,例如,至少两个磁盘存储器。
在本申请的实施例中,总线111用于连接通信接口110、处理器18以及存储器19以及这些器件之间的相互通信。
在本申请的实施例中,存储器19,用于存储指令和数据。
进一步地,在本申请的实施例中,上述处理器18,用于在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
在实际应用中,上述存储器19可以是易失性存储器(volatile memor),例如随机存取存储器(Random-Access Memory,RAM);或者非易失性存储器(non-volatile memory),例如只读第一存储y器(Read-Only Memory,ROM),快闪存储器(flash memory),硬盘(HardDisk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器18提供指令和数据。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例提出的一种终端,该终端可以利用深度学习获得的图像去雾模型对待处理图像进行去雾处理,同时,对于尺寸较大的待处理图像,终端还可以在利用图像去雾模型对待处理图像划分后的子图像进行去雾处理之后,使用深度学习获得的图像拼接模型进行拼接处理,以在保证处理精度的同时提高处理速度。进一步地,图像去雾模型和图像拼接模型是终端对CNN进行了极小网络设计而获得的,因此上述图像去雾方法可以在终端中实时运行。也就是说,在本申请中,基于深度学习获得的图像去雾模型和图像拼接模型进行图像去雾处理,能够在提高处理精度的同时,大大提升处理速度,从而实现高质量、高效率的图像去雾处理。
本申请实施例提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如上所述的图像去雾方法。
具体来讲,本实施例中的一种图像去雾方法对应的程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种图像去雾方法对应的程序指令被一电子设备读取或被执行时,包括如下步骤:
在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;
根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
本领域内的技术人员应明白,本申请的实施例可提供为方法、终端、或计算机程序产品。因此,本申请可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的实现流程示意图和/或方框图来描述的。应理解可由计算机程序指令实现流程示意图和/或方框图中的每一流程和/或方框、以及实现流程示意图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在实现流程示意图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在实现流程示意图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在实现流程示意图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。
Claims (11)
1.一种图像去雾方法,其特征在于,所述方法包括:
在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;
根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
2.根据权利要求1所述的方法,其特征在于,所述确定待处理图像的尺寸参数之前,所述方法还包括:
对所述待处理图像进行分析处理,获得分析结果;
根据所述分析结果判断所述待处理图像是否为雾化图像。
3.根据权利要求1所述的方法,其特征在于,所述根据所述尺寸参数确定待处理图像对应的预处理策略,包括:
若所述尺寸参数大于或者等于预设尺寸阈值,则确定所述预处理策略为划分所述待处理图像;
若所述尺寸参数小于所述预设尺寸阈值,则确定所述预处理策略为不划分所述待处理图像。
4.根据权利要求1所述的方法,其特征在于,所述根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像之前,所述方法还包括:
对第一图像样本集进行划分,获得第一训练数据和第一测试数据;其中,所述第一图像样本集包括雾化图像和所述雾化图像对应的清晰图像;
基于第一轻量化卷积神经网络构建第一网络模型,并根据所述第一训练数据对所述第一网络模型进行训练处理,获得初始去雾模型;
根据所述第一测试数据对所述初始去雾模型进行测试处理,获得所述图像去雾模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一测试数据对所述初始去雾模型进行测试处理,获得所述图像去雾模型,包括:
根据所述第一测试数据对所述初始去雾模型进行测试处理,生成第一测试结果;
按照所述第一测试结果修正所述图像去雾模型,获得所述图像去雾模型。
6.根据权利要求1所述的方法,其特征在于,所述根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像之前,所述方法还包括:
对第二图像样本集进行划分,获得第二训练数据和第二测试数据;其中,所述第二图像样本集包括原始图像和所述原始图像对应的多个分解图像;
基于第二轻量化卷积神经网络构建第二网络模型,并根据所述第二训练数据对所述第二网络模型进行训练处理,获得初始拼接模型;
根据所述第二测试数据对所述初始拼接模型进行测试处理,获得所述图像拼接模型。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二测试数据对所述初始拼接模型进行测试处理,获得所述图像拼接模型,包括:
根据所述第二测试数据对所述初始拼接模型进行测试处理,生成第二测试结果;
按照所述第二测试结果修正所述初始拼接模型,获得所述图像拼接模型。
8.根据权利要求3所述的方法,其特征在于,所述根据所述尺寸参数确定待处理图像对应的预处理策略之后,所述方法还包括:
若所述预处理策略为不划分所述待处理图像,则直接根据所述图像去雾模型对所述待处理图像进行去雾处理,获得所述去雾后图像。
9.一种终端,其特征在于,所述终端包括:确定单元,划分单元,去雾单元,拼接单元,
所述确定单元,用于在判定待处理图像为雾化图像之后,确定待处理图像的尺寸参数;以及根据所述尺寸参数确定待处理图像对应的预处理策略;其中,所述预处理策略用于对图像尺寸进行限制;
所述划分单元,用于若所述预处理策略为划分所述待处理图像,则划分所述待处理图像,获得所述待处理图像对应的子图像;
所述去雾单元,用于根据图像去雾模型对所述子图像进行去雾处理,获得所述子图像对应的去雾后子图像;
所述拼接单元,用于根据图像拼接模型对所述去雾后子图像进行拼接处理,获得所述待处理图像对应的去雾后图像。
10.一种终端,其特征在于,所述终端包括处理器、存储有所述处理器可执行指令的存储器,当所述指令被所述处理器执行时,实现如权利要求1-8任一项所述的方法。
11.一种计算机可读存储介质,其上存储有程序,应用于终端中,其特征在于,所述程序被处理器执行时,实现如权利要求1-8任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010472428.1A CN111626960A (zh) | 2020-05-29 | 2020-05-29 | 图像去雾方法、终端及计算机存储介质 |
PCT/CN2021/085694 WO2021238420A1 (zh) | 2020-05-29 | 2021-04-06 | 图像去雾方法、终端及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010472428.1A CN111626960A (zh) | 2020-05-29 | 2020-05-29 | 图像去雾方法、终端及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626960A true CN111626960A (zh) | 2020-09-04 |
Family
ID=72260094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010472428.1A Pending CN111626960A (zh) | 2020-05-29 | 2020-05-29 | 图像去雾方法、终端及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111626960A (zh) |
WO (1) | WO2021238420A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183366A (zh) * | 2020-09-29 | 2021-01-05 | 重庆大学 | 一种高压电力线鸟巢检测方法、系统及机器可读介质 |
WO2021238420A1 (zh) * | 2020-05-29 | 2021-12-02 | Oppo广东移动通信有限公司 | 图像去雾方法、终端及计算机存储介质 |
CN115511735A (zh) * | 2022-09-20 | 2022-12-23 | 北京拙河科技有限公司 | 一种雪场灰度画面优化方法及装置 |
CN115937144A (zh) * | 2022-12-08 | 2023-04-07 | 郑州大学 | 一种胸腔镜术中图像处理方法及系统 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114529464A (zh) * | 2022-01-14 | 2022-05-24 | 电子科技大学 | 一种基于深度学习的水下图像恢复方法 |
CN116935289B (zh) * | 2023-09-13 | 2023-12-19 | 长江信达软件技术(武汉)有限责任公司 | 一种基于视频监控的明渠漫堤检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898562A (zh) * | 2018-06-22 | 2018-11-27 | 大连海事大学 | 一种基于深度学习的移动设备图像去雾方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN109934781A (zh) * | 2019-02-27 | 2019-06-25 | 合刃科技(深圳)有限公司 | 图像处理方法、装置、终端设备及计算机可读存储介质 |
CN110322419A (zh) * | 2019-07-11 | 2019-10-11 | 广东工业大学 | 一种遥感图像去雾方法及系统 |
CN110544216A (zh) * | 2019-08-29 | 2019-12-06 | 北京理工大学 | 基于深度学习的视频去雾系统 |
WO2019233166A1 (zh) * | 2018-06-04 | 2019-12-12 | 杭州海康威视数字技术股份有限公司 | 一种表面缺陷检测方法、装置及电子设备 |
CN110930320A (zh) * | 2019-11-06 | 2020-03-27 | 南京邮电大学 | 一种基于轻量化卷积神经网络的图像去雾方法 |
CN111047513A (zh) * | 2019-11-27 | 2020-04-21 | 中国人民解放军国防科技大学 | 一种用于柱面全景拼接的鲁棒性图像对齐方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870600B2 (en) * | 2015-01-06 | 2018-01-16 | The Regents Of The University Of California | Raw sensor image and video de-hazing and atmospheric light analysis methods and systems |
CN111626960A (zh) * | 2020-05-29 | 2020-09-04 | Oppo广东移动通信有限公司 | 图像去雾方法、终端及计算机存储介质 |
-
2020
- 2020-05-29 CN CN202010472428.1A patent/CN111626960A/zh active Pending
-
2021
- 2021-04-06 WO PCT/CN2021/085694 patent/WO2021238420A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019233166A1 (zh) * | 2018-06-04 | 2019-12-12 | 杭州海康威视数字技术股份有限公司 | 一种表面缺陷检测方法、装置及电子设备 |
CN108898562A (zh) * | 2018-06-22 | 2018-11-27 | 大连海事大学 | 一种基于深度学习的移动设备图像去雾方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN109934781A (zh) * | 2019-02-27 | 2019-06-25 | 合刃科技(深圳)有限公司 | 图像处理方法、装置、终端设备及计算机可读存储介质 |
CN110322419A (zh) * | 2019-07-11 | 2019-10-11 | 广东工业大学 | 一种遥感图像去雾方法及系统 |
CN110544216A (zh) * | 2019-08-29 | 2019-12-06 | 北京理工大学 | 基于深度学习的视频去雾系统 |
CN110930320A (zh) * | 2019-11-06 | 2020-03-27 | 南京邮电大学 | 一种基于轻量化卷积神经网络的图像去雾方法 |
CN111047513A (zh) * | 2019-11-27 | 2020-04-21 | 中国人民解放军国防科技大学 | 一种用于柱面全景拼接的鲁棒性图像对齐方法及装置 |
Non-Patent Citations (2)
Title |
---|
XIANGYU ZHANG 等: "ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, pages 6848 - 6856 * |
魏伟航;马乾力;高治良;赵锦成;: "改进卷积神经网络在图像烟雾检测的应用", 智能计算机与应用, no. 03 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021238420A1 (zh) * | 2020-05-29 | 2021-12-02 | Oppo广东移动通信有限公司 | 图像去雾方法、终端及计算机存储介质 |
CN112183366A (zh) * | 2020-09-29 | 2021-01-05 | 重庆大学 | 一种高压电力线鸟巢检测方法、系统及机器可读介质 |
CN115511735A (zh) * | 2022-09-20 | 2022-12-23 | 北京拙河科技有限公司 | 一种雪场灰度画面优化方法及装置 |
CN115937144A (zh) * | 2022-12-08 | 2023-04-07 | 郑州大学 | 一种胸腔镜术中图像处理方法及系统 |
CN115937144B (zh) * | 2022-12-08 | 2023-08-25 | 郑州大学 | 一种胸腔镜术中图像处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2021238420A1 (zh) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626960A (zh) | 图像去雾方法、终端及计算机存储介质 | |
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN108664981B (zh) | 显著图像提取方法及装置 | |
CN111046821B (zh) | 一种视频行为识别方法、系统及电子设备 | |
CN108875821A (zh) | 分类模型的训练方法和装置、移动终端、可读存储介质 | |
CN108389224B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112132156A (zh) | 多深度特征融合的图像显著性目标检测方法及系统 | |
CN105100640A (zh) | 一种局部配准并行视频拼接方法及系统 | |
CN112907530B (zh) | 基于分组反向注意力的伪装物体检测方法及系统 | |
CN111368790A (zh) | 细粒度人脸识别模型的构建方法、识别方法以及构建装置 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
CN111597920A (zh) | 一种自然场景下的全卷积单阶段的人体实例分割方法 | |
Fan et al. | Multiscale cross-connected dehazing network with scene depth fusion | |
CN110852199A (zh) | 一种基于双帧编码解码模型的前景提取方法 | |
CN114663309A (zh) | 一种基于多尺度信息选择注意机制的图像去雾方法及系统 | |
CN116757986A (zh) | 一种红外与可见光图像融合方法及装置 | |
CN111914596B (zh) | 车道线检测方法、装置、系统及存储介质 | |
CN116342953A (zh) | 基于残差收缩注意力网络的双模态目标检测模型及方法 | |
CN111461211A (zh) | 一种用于轻量级目标检测的特征提取方法及相应检测方法 | |
CN114241344A (zh) | 一种基于深度学习的植物叶片病虫害严重程度评估方法 | |
CN110738624B (zh) | 一种区域自适应的图像去雾系统及方法 | |
CN116681636A (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN115345801B (zh) | 一种基于图像去噪思想的图像压缩及滤镜去除方法及系统 | |
Wang et al. | A multi-scale attentive recurrent network for image dehazing | |
CN114038044A (zh) | 人脸性别年龄识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |