CN112070703B - 一种仿生机器鱼水下视觉图像增强方法及系统 - Google Patents

一种仿生机器鱼水下视觉图像增强方法及系统 Download PDF

Info

Publication number
CN112070703B
CN112070703B CN202010975838.8A CN202010975838A CN112070703B CN 112070703 B CN112070703 B CN 112070703B CN 202010975838 A CN202010975838 A CN 202010975838A CN 112070703 B CN112070703 B CN 112070703B
Authority
CN
China
Prior art keywords
image
network
target image
original target
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010975838.8A
Other languages
English (en)
Other versions
CN112070703A (zh
Inventor
汪明
张宜阳
常征
卫正
逯广浩
谢浩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Jianzhu University
Original Assignee
Shandong Jianzhu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Jianzhu University filed Critical Shandong Jianzhu University
Priority to CN202010975838.8A priority Critical patent/CN112070703B/zh
Publication of CN112070703A publication Critical patent/CN112070703A/zh
Application granted granted Critical
Publication of CN112070703B publication Critical patent/CN112070703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种仿生机器鱼水下视觉图像增强方法及系统,包括:利用仿生机器鱼获取原始目标图像;对原始目标图像采用非线性映射的方式进行预处理;将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像。

Description

一种仿生机器鱼水下视觉图像增强方法及系统
技术领域
本申请涉及图像增强技术领域,特别是涉及一种仿生机器鱼水下视觉图像增强方法及系统。
背景技术
本部分的陈述仅仅是提到了与本申请相关的背景技术,并不必然构成现有技术。
近年来,随着陆地资源匮乏日益严重,人们越来越多的关注到丰富的海洋资源。由于原有的水下检测、作业、运载装置难以满足复杂水下作业任务的需求,因此加速了水下机器人的研发工作。仿生机器鱼作为鱼类推进机理和机器人技术的结合点,为研制新型的水下航行器提供了一种新思路,具有重要的研究价值和应用前景。
在进行水下检测、作业等任务时,需要用到机器鱼视觉来满足进行复杂情况的任务需求。发明人发现,现阶段仿生机器鱼视觉,由于受到水下光照、水下环境、水体质量等因素影响,尚不能很好的将摄像头获取到的画面清晰的呈现出来,导致仿生机器鱼视觉效果不好。
发明内容
为了解决现有技术的不足,本申请提供了一种仿生机器鱼水下视觉图像增强方法及系统;
第一方面,本申请提供了一种仿生机器鱼水下视觉图像增强方法;
一种仿生机器鱼水下视觉图像增强方法,包括:
利用仿生机器鱼获取原始目标图像;
对原始目标图像采用非线性映射的方式进行预处理;
将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像。
第二方面,本申请提供了一种仿生机器鱼水下视觉图像增强系统;
一种仿生机器鱼水下视觉图像增强系统,包括:
获取模块,其被配置为:利用仿生机器鱼获取原始目标图像;
预处理模块,其被配置为:对原始目标图像采用非线性映射的方式进行预处理;
输出模块,其被配置为:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像。
第三方面,本申请还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的方法。
第四方面,本申请还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
第五方面,本申请还提供了一种控制器,其采用上述第一方面中的步骤,对仿生机器鱼进行水下视觉的增强。
第六方面,本申请还提供了一种仿生机器鱼,其包括第五方面的控制器。
与现有技术相比,本申请的有益效果是:
该方法利用具有U-Net结构的深度卷积生成对抗网络(Deep Convolutional GAN,DCGAN),通过利用低照度的图像生成的图像与真实照度图像拟合的方法,实现了图像的增强。
让仿生机器鱼能够在对图像对摄像头所获取的视觉图像进行优化,从而精细准确地输出仿生机器鱼当前所获取的视觉信息,提高了机器鱼视觉系统的可靠性与适用性,从而准确地输出水下仿生机器鱼获取的画面,更好地观察水下环境,执行复杂任务。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本公开实施例一的具有U-Net结构的深度卷积生成对抗网络结构图;
图2(a)和图2(b)为本公开实施例一的生成网络的两种结构模型;
图3(a)和图3(b)为本公开实施例一的采用的深度卷积生成对抗网络的生成网络与判别网络结构图;
图4为本公开实施例一的仿生机器鱼水下视觉图像增强方法流程图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
仿生机器鱼在真实水域水下游动时视觉获取的水下图像,受光衰减、光散射、水下环境、水体质量等因素影响,图像照度低且不清晰,具体表现在仿生机器鱼获取的图像颜色失真,细节模糊,不易辨认图像内容。以上问题导致仿生机器鱼在水下游动时不能很好的将摄像头获取到的画面清晰的呈现出来。
为了解决上述问题,本公开的提供一种仿生机器鱼水下视觉图像增强方法。该方法利用U-Net结构和深度卷积生成对抗网络(Deep Convolutional GAN,DCGAN),通过利用低照度的图像生成的图像与真实照度图像拟合的方法,实现了图像的增强。让仿生机器鱼能够在水下环境光线不好的环境下对图像对摄像头所获取的视觉图像进行优化,从而精细准确地输出仿生机器鱼当前所获取的视觉信息,更好地实现对复杂情况下的任务需求。
实施例一
本实施例提供了一种仿生机器鱼水下视觉图像增强方法;
如图4所示,一种仿生机器鱼水下视觉图像增强方法,包括:
S101:利用仿生机器鱼获取原始目标图像;
S102:对原始目标图像采用非线性映射的方式进行预处理;
S103:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像。
作为一个或多个实施例,所述方法还包括:
S104:将增强后的初始目标图像与原始目标图像进行融合,得到最终增强后的目标图像。
作为一个或多个实施例,所述S101:利用仿生机器鱼获取原始目标图像;是利用搭载在仿生机器鱼身上的摄像头采集原始目标图像。
作为一个或多个实施例,所述S102中,对原始目标图像采用非线性映射的方式进行预处理;具体步骤包括:
S1021:对原始目标图像进行卷积运算处理;
S1022:使用群组归一化将卷积结果进行规范化操作;
S1023:使用激活函数对规范化后的卷积结果进行处理。
作为一个或多个实施例,所述S103:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;其中,预先训练好的深度卷积生成对抗网络DCGAN的训练步骤包括:
构建深度卷积生成对抗网络DCGAN;所述深度卷积生成对抗网络DCGAN为具有U-Net结构的深度卷积生成对抗网络DCGAN;
构建训练集,利用训练集对深度卷积生成对抗网络DCGAN进行训练,在训练的过程中,生成网络生成图像,生成网络将生成图像输入到判别网络中,同时还将正常照度的图像也输入到判别网络中,判别网络对图像的真假进行判断,当损失函数达到最小值时,得到训练好的深度卷积生成对抗网络。
进一步地,所述训练集,构建过程包括:
从COCO数据库中选取N张正常照度的图像;对N张正常照度的图像进行雾化、添加噪声或高斯模糊处理得到N张低照度图像;将N张正常照度的图像与N张低照度的图像进行标签化处理,然后按比例划分为训练集、测试集和验证集。
进一步地,训练结束的标准为深度卷积生成对抗网络DCGAN的总损失函数达到最小值时,停止训练;否则,继续训练。
进一步地,所述深度卷积生成对抗网络DCGAN的总损失函数,包括:
均方误差MSE损失函数、生成网络的重建损失函数adv和判别网络的对抗损失函数。
作为一个或多个实施例,所述S103:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;具体步骤包括:
将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN的生成网络中,生成网络输出生成图像;
利用自动色彩增强算法对生成网络输出的生成图像进行色彩增强处理;将色彩增强处理后的图像作为增强后的初始目标图像。
进一步地,所述S104:将增强后的初始目标图像与原始目标图像进行融合,得到最终增强后的目标图像;具体步骤包括:
将增强后的初始目标图像与原始目标图像,采用主成分变换PCA算法进行图像融合;得到最终增强后的目标图像。
应理解的,S104的步骤好处是,可以突出主要信息,抑制噪声,达到图像进一步增强的目的。
进一步地,所述生成网络中,除网络最后的输出层使用tanh激活函数外,其余激活层均使用ReLU函数激活。
进一步地,判别网络中,激活函数除最后一层外均使用LeakyReLU函数,最后一层激活函数使用sigmoid全连接层。
利用U-Net结构和深度卷积生成对抗网络,通过利用低照度的图像生成的图像与真实照度图像拟合的方法,提高了仿生机器鱼水下视觉图像的照度和对比度,实现了图像的增强。
本公开提出的具有U-Net结构的深度卷积生成对抗网络结构如图1所示。
生成对抗网络(Generative Adversarial Networks)由两个互相博弈的网络构成,它们分别是生成网络(G)和判别网络(D)。其中,生成网络的作用是抓取真实数据的潜在分布;判别网络的作用是判断输入的数据是否是真实的数据,还是生成网络生成的数据,判别网络的本质是一个二分类器。
生成对抗网络可视为一个求极大极小的零和博弈问题。
其中,E表示期望;x~Pdata(x)表示数据是真实数据;z为服从某种先验分布P(z)的随机噪声,一般为高斯分布、均匀分布等。
深度卷积生成对抗网络的提出,解决了生成对抗网络的一些缺点,比如训练不稳定、生成过程不可控等问题。深度卷积生成对抗网络的判别网络是使用卷积神经网络来代替生成对抗网络的多层感知机,去掉了卷积神经网络中的池化层,减轻了计算量并使得整个网络可微。生成网络使用转置卷积进行上采样,能够使网络使用最佳方式进行上采样。
本公开使用的深度卷积生成对抗网络目标函数为:
一般在深度卷积生成对抗网络中,生成网络结构为编码解码(encode-decode)结构。其结构示意图如图2(a)所示。
在编码解码的过程中,首先将图像进行编码,然后将处理后的图像的全部信息压缩成瓶颈层向量,随后通过解码操作得到结果图。但是这种网络结构会产生图像信息在瓶颈层丢失的问题,导致网络输入和输出之间的信息大量丢失。U-Net网络结构在编码解码相对应的层之间添加一个映射,在编码过程中将数据映射到对应的解码过程中。其映射过程如图2(b)所示。这样可以避免生成网络在处理信息时出现信息丢失的问题。
在本公开的具有U-Net结构的深度卷积生成对抗网络中,将输入图像采用非线性映射的方法处理,然后输入图像。
一个非线性映射的流程为:首先对输入的图像进行卷积运算处理,然后使用群组归一化(Group Normalization)将卷积结果进行规范化操作,最后使用激活函数对规范化的卷积结果进行处理。
在生成网络中,除网络最后的输出层使用tanh激活函数外,其余激活层均使用ReLU函数激活,目标是最小化判别网络的判别准确率,且能使输出的均值为0,且稳定性较强。
在判别网络中,激活函数除最后一层外均使用LeakyReLU函数,目标是最大化判别网络的判别准确率,加快了计算速度,解决了训练过程中梯度消失的问题。这样设置激活函数,能够使得非线性映射结构对整个网络结构更好地提取输入的图像特征。最后一层激活函数使用sigmoid全连接层,完成判别过程的二分类。群组归一化是将分散数据统一的做法,经常用来优化神经网络,因为统一规格数据的存在,深度卷积生成对抗网络能够减少冗杂多余的图像信息,加快整个网络的训练速度,增强网络的稳定性。
在生成网络的最后,利用自动色彩增强算法(Automatic Color Enhancement,ACE)增强生成网络输出的图像的色彩,以加强整个网络的图像增强的能力。自动色彩增强算法分别对生成网络生成图像进行重构调整,重构调整后的图像能够完成图像的色差修正。自动色彩增强算法对对比度低、噪声有雾的图像处理效果明显。自动色彩增强算法的方法如下:
首先对生成网络生成的彩色图像进行RGB三通道的单独处理,计算图像中每一个像素的Y(x)值,即:
其中Y(x)为中间结果,Sl(*)为亮度函数,其本质为坡道函数,B(x)-B(y)为两个点之间的亮度差值,||x-y||表示两个点之间的距离。然后对矫正过的图像进行线性扩展,利用O(x)将Y(x)的值归一化到[0,225]之间,得到整张图片的白平衡。最后求解最优解,即:
本公开采用的深度卷积生成对抗网络的生成网络与判别网络结构,如图3(a)和图3(b)所示。
设gF(x)为非线性映射单元,gF(x)=x,即:
其中,αii为GN的重构参数。若G0(x)=dim为生成网络的输入,Gi(x)为生成网络中卷积层的输出,则:
leap(x)=gFi,2[gFi,1(Gi-1(x))],
Gi(x)=max pooling{leap(x)},0<i≤3
其中,leap(x)表示U-Net结构的特征图跳跃操作。生成网络的瓶颈卷积层由两个非线性映射构成,记为G4(x)。生成网络的解码操作需要在网络进行特征提取前完成,并且需要对特征图进行放大,与跳跃的特征图进行连接,因此有:
up(x)=concat(resize(x),leap(x)),
Gi(x)=gFi,2{gFi,2[up(Gi-1(x))]},4<i≤7
最后,生成网络的输出层为:
判别网络的结构使用步长(stride)为2的卷积层取代池化层。第一个非线性映射不使用群组归一化操作。设dF(x)为D的非线性映射单元,dF0(x)=G(dim)或rgb,则:
dFj(x)=max(αH(x),H(x)),α=0.2,
设Di(x)为判别网络中卷积单元的输出,且D0(x)=0,则:
Di(x)=dFi,2[dFi,1(Di-1(x))],0<i≤5
然后用1×1的卷积层对D5(x)进行通道压缩,在用两个全连接成将结果映射到一个值,并且用tanh函数将其映射到(-1,1)的取值范围,由此得到输出D(G(dim))和D(rgb)。
均方误差(mean-square error,MSE)损失是处理计算机视觉常用到的损失函数,它在图像内容增强表现较好,因此本公开在仿生机器鱼水下视觉图像增强过程中采用均方误差损失。均方误差损失能够反映判别网络的判伪能力,它能够使生成的图像视觉效果更接近于目标图像。
本公开采用的具有U-Net结构的深度卷积生成对抗网络的损失函数如下:
Ltotal=λ1*LMSE2*Ladv3*LL1
为了更好地实现仿生机器鱼的水下低照度图像增强,本公开将LMSE、Ladv和LL1的比例和作为损失函数,使得仿生机器鱼水下低照度图像的增强结果保留更多的细节从而得到更好的水下视觉效果。
其中,λ1、λ2、λ3为各个损失函数的权重,通过实验验证得出具体数值。单个的LMSE损失能够起到不错的增强效果,但是结果较为平滑,视觉效果上的表现并不好;LL1损失能够有效地提升图像均匀区域的平滑度和对比度。LL1相对于LMSE拥有较少的噪声干扰,这个特征应用在仿生机器鱼的水下低照度图像的处理上,能够使得像素暗区的到效果更好地增强。
由于水下真实环境的局限性,要同时获取同一个水下场景的低照度图像和正常图像的操作难度极大,直接导致网络训练所用到的数据集难以获取。因此,本公开利用COCO数据库中选取4000张照度正常的图像,通过对图像进行雾化、添加噪声、高斯模糊等操作来模拟水下采集到的低照度图像。然后用数据集中的图像制作20200对正常照度和低照度的图像,其中20000对图像作为网络训练时所用的训练集,200对作图像为网络训练时所用的测试集。
深度卷积生成对抗网络的训练方法和生成对抗网络的训练方法相同,训练时每次使用低照度图像与正常照度图像对生成网络和判别网络进行交替的训练直至损失收敛,网络即训练完毕。
本实施例利用具有U-Net结构的深度卷积生成对抗网络,最终实现了仿生机器鱼的视觉图像增强,通过利用低照度的图像生成的图像与真实照度图像拟合的方法,实现了图像的增强。
本公开采用的图像拟合方法为基于主成分变换(PCA)图像融合,主要步骤为:首先对参加融合的图像进行匹配校准,计算出多光谱图像的主成分变换矩阵;然后将全色图像与主分量图像进行直方图匹配,用全色图像替换主分量图像;最后对图像做逆主分量变换,得到最终的融合图像。采用PCA图像融合,新生成的图像光谱特性保持较好,且突出了主要信息,抑制了噪音,达到了图像增强的目的。
本公开实现的最终效果是提高了仿生机器鱼在水下使用视觉的适用性与准确性,能令使用者更好地观察和理解水下情况,进行复杂的作业。
使用了具有U-Net结构的深度卷积生成对抗网络,通过利用低照度的图像生成后经过自动色彩增强算法处理过的图像与真实照度图像拟合的方法,实现了图像的增强,完成了整个仿生机器鱼水下视觉增强的过程。
使用了U-Net结构和深度卷积生成对抗网络结合起来共同对机器鱼的水下视觉进行增强。
所用的具有U-Net结构的深度卷积生成对抗网络中的生成网络与U-Net结构相结合,避免了生成网络在处理信息时出现信息丢失的问题。
所用的具有U-Net结构的深度卷积生成对抗网络中的生成网络除最后一层均使用ReLU激活函数,使得判别网络中的判别准确率最小化。
所用的具有U-Net结构的深度卷积生成对抗网络的生成网络使用自动色彩增强算法对其生成的图像进行处理。
所用的具有U-Net结构的深度卷积生成对抗网络中的对抗网络除最后一层均使用LeakyReLU激活函数,使得判别网络中的判别准确率最大化。
所用的具有U-Net结构的深度卷积生成对抗网络输入使用非线性映射单元,能够使得非线性映射结构对整个网络结构更好地提取输入的图像特征。
所用的具有U-Net结构的深度卷积生成对抗网络采用均方误差损失,能够使生成的图像视觉效果更接近于目标图像。
所用的具有U-Net结构的深度卷积生成对抗网络使用LMSE、Ladv和LL1的比例和作为损失函数,使得仿生机器鱼水下低照度图像的增强结果保留更多的细节从而得到更好的水下视觉效果。
所用的具有U-Net结构的深度卷积生成对抗网络使用PCA图像融合,将低照度那个的图像与真实照度的图像进行图像拟合,达到了图像增强的目的。
构建具有U-Net结构的深度卷积生成对抗网络,利用生成对抗网络的特性,通过利用低照度的图像生成的图像与真实照度图像拟合的方法,实现了图像的增强。让仿生机器鱼能够在对图像对摄像头所获取的视觉图像进行优化,从而精细准确地输出仿生机器鱼当前所获取的视觉信息,提高了机器鱼视觉系统的可靠性与适用性,从而准确地输出水下仿生机器鱼获取的画面,更好地观察水下环境,执行复杂任务。
实施例二
本实施例提供了一种仿生机器鱼水下视觉图像增强系统;
一种仿生机器鱼水下视觉图像增强系统,包括:
获取模块,其被配置为:利用仿生机器鱼获取原始目标图像;
预处理模块,其被配置为:对原始目标图像采用非线性映射的方式进行预处理;
输出模块,其被配置为:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像。
此处需要说明的是,上述获取模块、预处理模块和输出模块对应于实施例一中的步骤S101至S103,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
实施例五
一种控制器,其采用上述所述一种仿生机器鱼水下视觉图像增强方法中的步骤,对仿生机器鱼进行水下视觉的增强。
实施例六
本公开的第六个方面提供一种仿生机器鱼,其包括实施例五的控制器。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (13)

1.一种仿生机器鱼水下视觉图像增强方法,包括:
利用仿生机器鱼获取原始目标图像;
对原始目标图像采用非线性映射的方式进行预处理;
将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;
其中,将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;具体步骤包括:
将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN的生成网络中,生成网络输出生成图像;
利用自动色彩增强算法对生成网络输出的生成图像进行色彩增强处理;将色彩增强处理后的图像作为增强后的初始目标图像;
自动色彩增强算法分别对生成网络生成图像进行重构调整,其中,自动色彩增强算法如下:
首先对生成网络生成的彩色图像进行RGB三通道的单独处理,计算图像中每一个像素的Y(x)值,即:
其中Y(x)为中间结果,Sl(*)为亮度函数,其本质为坡道函数,B(x)-B(y)为两个点之间的亮度差值,||x-y||表示两个点之间的距离;然后对矫正过的图像进行线性扩展,利用O(x)将Y(x)的值归一化,得到整张图片的白平衡;最后求解最优解,即:
将增强后的初始目标图像与原始目标图像进行融合,得到最终增强后的目标图像。
2.如权利要求1所述的方法,其特征是,对原始目标图像采用非线性映射的方式进行预处理;具体步骤包括:
对原始目标图像进行卷积运算处理;
使用群组归一化将卷积结果进行规范化操作;
使用激活函数对规范化后的卷积结果进行处理。
3.如权利要求1所述的方法,其特征是,将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;其中,预先训练好的深度卷积生成对抗网络DCGAN的训练步骤包括:
构建深度卷积生成对抗网络DCGAN;所述深度卷积生成对抗网络DCGAN为具有U-Net结构的深度卷积生成对抗网络DCGAN;
构建训练集,利用训练集对深度卷积生成对抗网络DCGAN进行训练,在训练的过程中,生成网络生成图像,生成网络将生成图像输入到判别网络中,同时还将正常照度的图像也输入到判别网络中,判别网络对图像的真假进行判断,当损失函数达到最小值时,得到训练好的深度卷积生成对抗网络。
4.如权利要求3所述的方法,其特征是,所述训练集,构建过程包括:
从COCO数据库中选取N张正常照度的图像;对N张正常照度的图像进行雾化、添加噪声或高斯模糊处理得到N张低照度图像;将N张正常照度的图像与N张低照度的图像进行标签化处理,然后按比例划分为训练集、测试集和验证集。
5.如权利要求3所述的方法,其特征是,训练结束的标准为深度卷积生成对抗网络DCGAN的总损失函数达到最小值时,停止训练;否则,继续训练;
所述深度卷积生成对抗网络DCGAN的总损失函数,包括:
均方误差MSE损失函数、生成网络的重建损失函数adv和判别网络的对抗损失函数。
6.如权利要求3所述的方法,其特征是,所述生成网络中,除网络最后的输出层使用tanh激活函数外,其余激活层均使用ReLU函数激活。
7.如权利要求3所述的方法,其特征是,判别网络中,激活函数除最后一层外均使用LeakyReLU函数,最后一层激活函数使用sigmoid全连接层。
8.如权利要求1所述的方法,其特征是,将增强后的初始目标图像与原始目标图像进行融合,得到最终增强后的目标图像;具体步骤包括:
将增强后的初始目标图像与原始目标图像,采用主成分变换PCA算法进行图像融合;得到最终增强后的目标图像。
9.一种仿生机器鱼水下视觉图像增强系统,其特征是,包括:
获取模块,其被配置为:利用仿生机器鱼获取原始目标图像;
预处理模块,其被配置为:对原始目标图像采用非线性映射的方式进行预处理;
输出模块,其被配置为:将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;
其中,将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN中,输出增强后的初始目标图像;具体步骤包括:
将原始目标图像输入到预先训练好的深度卷积生成对抗网络DCGAN的生成网络中,生成网络输出生成图像;
利用自动色彩增强算法对生成网络输出的生成图像进行色彩增强处理;将色彩增强处理后的图像作为增强后的初始目标图像;
自动色彩增强算法分别对生成网络生成图像进行重构调整,其中,自动色彩增强算法如下:
首先对生成网络生成的彩色图像进行RGB三通道的单独处理,计算图像中每一个像素的Y(x)值,即:
其中Y(x)为中间结果,Sl(*)为亮度函数,其本质为坡道函数,B(x)-B(y)为两个点之间的亮度差值,||x-y||表示两个点之间的距离;然后对矫正过的图像进行线性扩展,利用O(x)将Y(x)的值归一化,得到整张图片的白平衡;最后求解最优解,即:
将增强后的初始目标图像与原始目标图像进行融合,得到最终增强后的目标图像。
10.一种电子设备,其特征是,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述权利要求1-8任一项所述的方法。
11.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-8任一项所述的方法。
12.一种控制器,其特征是,其采用权利要求1-8任一项所述的方法,对仿生机器鱼进行水下视觉的增强。
13.一种仿生机器鱼,其特征是,其包括权利要求12的控制器。
CN202010975838.8A 2020-09-16 2020-09-16 一种仿生机器鱼水下视觉图像增强方法及系统 Active CN112070703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010975838.8A CN112070703B (zh) 2020-09-16 2020-09-16 一种仿生机器鱼水下视觉图像增强方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010975838.8A CN112070703B (zh) 2020-09-16 2020-09-16 一种仿生机器鱼水下视觉图像增强方法及系统

Publications (2)

Publication Number Publication Date
CN112070703A CN112070703A (zh) 2020-12-11
CN112070703B true CN112070703B (zh) 2024-05-03

Family

ID=73696924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010975838.8A Active CN112070703B (zh) 2020-09-16 2020-09-16 一种仿生机器鱼水下视觉图像增强方法及系统

Country Status (1)

Country Link
CN (1) CN112070703B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950497A (zh) * 2021-02-22 2021-06-11 上海商汤智能科技有限公司 图像处理方法、装置、电子设备及存储介质
CN117575943A (zh) * 2023-12-13 2024-02-20 四川新视创伟超高清科技有限公司 一种对比度增强与降噪相结合的4k暗光图像增强方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932708A (zh) * 2018-06-13 2018-12-04 中国科学院光电研究院 基于超分辨增强的星载多光谱遥感图像融合方法
CN109118445A (zh) * 2018-07-27 2019-01-01 杭州电子科技大学 一种基于多分支生成对抗网络的水下图像增强方法
CN110363720A (zh) * 2019-07-04 2019-10-22 北京奇艺世纪科技有限公司 一种图像的色彩增强方法、装置、设备和存储介质
CN111062880A (zh) * 2019-11-15 2020-04-24 南京工程学院 一种基于条件生成对抗网络的水下图像实时增强方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2924254B1 (fr) * 2007-11-23 2010-01-01 Gen Electric Procede de traitement d'images en radioscopie interventionnelle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932708A (zh) * 2018-06-13 2018-12-04 中国科学院光电研究院 基于超分辨增强的星载多光谱遥感图像融合方法
CN109118445A (zh) * 2018-07-27 2019-01-01 杭州电子科技大学 一种基于多分支生成对抗网络的水下图像增强方法
CN110363720A (zh) * 2019-07-04 2019-10-22 北京奇艺世纪科技有限公司 一种图像的色彩增强方法、装置、设备和存储介质
CN111062880A (zh) * 2019-11-15 2020-04-24 南京工程学院 一种基于条件生成对抗网络的水下图像实时增强方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
一种基于 U-Net 生成对抗网络的低照度图像增强方法;江泽涛 等;《电子学报》;第258-265页 *
一种基于U-Net生成对抗网络的低照度图像增强方法;江泽涛;覃露露;;电子学报(02);第258-265页 *
多源图像融合算法综述及融合质量分析;袁月玲;万仁勇;;信息技术与信息化(08);第86-88页 *
江泽涛 等.一种基于 U-Net 生成对抗网络的低照度图像增强方法.《电子学报》.2020,第258-265页. *
潘洁晨 等.《基于遥感影像矿山环境信息提取方法研究》.黄河水利出版社,2019,第61-63页. *

Also Published As

Publication number Publication date
CN112070703A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN111798400B (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
Li et al. Underwater image enhancement via medium transmission-guided multi-color space embedding
CN113284054B (zh) 图像增强方法以及图像增强装置
CN110197229B (zh) 图像处理模型的训练方法、装置及存储介质
CN110675328B (zh) 基于条件生成对抗网络的低照度图像增强方法及装置
US20230214976A1 (en) Image fusion method and apparatus and training method and apparatus for image fusion model
US20230080693A1 (en) Image processing method, electronic device and readable storage medium
CN110276767A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN111915525B (zh) 基于改进深度可分离生成对抗网络的低照度图像增强方法
CN112614077A (zh) 一种基于生成对抗网络的非监督低照度图像增强方法
CN114399431B (zh) 一种基于注意力机制的暗光图像增强方法
CN112070703B (zh) 一种仿生机器鱼水下视觉图像增强方法及系统
CN109003297A (zh) 一种单目深度估计方法、装置、终端和存储介质
Wang et al. MAGAN: Unsupervised low-light image enhancement guided by mixed-attention
CN110674759A (zh) 一种基于深度图的单目人脸活体检测方法、装置及设备
CN116681636B (zh) 基于卷积神经网络的轻量化红外与可见光图像融合方法
CN102667865A (zh) 用于生成环境地图的方法
Fan et al. Multiscale cross-connected dehazing network with scene depth fusion
CN114627034A (zh) 一种图像增强方法、图像增强模型的训练方法及相关设备
CN116563693A (zh) 基于轻量级注意力机制的水下图像色彩复原方法
CN116310046A (zh) 图像处理方法、装置、计算机及存储介质
CN116740261A (zh) 图像重建方法和装置、图像重建模型的训练方法和装置
CN116055895B (zh) 图像处理方法及其装置、芯片系统和存储介质
CN112734649A (zh) 一种基于轻量级神经网络的图像退化方法及退化系统
Kumar et al. Underwater image enhancement using deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant