CN111340901A - 基于生成式对抗网络的复杂环境下输电网图片的压缩方法 - Google Patents

基于生成式对抗网络的复杂环境下输电网图片的压缩方法 Download PDF

Info

Publication number
CN111340901A
CN111340901A CN202010102775.5A CN202010102775A CN111340901A CN 111340901 A CN111340901 A CN 111340901A CN 202010102775 A CN202010102775 A CN 202010102775A CN 111340901 A CN111340901 A CN 111340901A
Authority
CN
China
Prior art keywords
picture
network
channels
convolution
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010102775.5A
Other languages
English (en)
Other versions
CN111340901B (zh
Inventor
姚一杨
聂礼强
战新刚
郑晓云
宋雪萌
刘波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
State Grid Zhejiang Electric Power Co Ltd
Quzhou Power Supply Co of State Grid Zhejiang Electric Power Co Ltd
Zhiyang Innovation Technology Co Ltd
Original Assignee
Shandong University
State Grid Zhejiang Electric Power Co Ltd
Quzhou Power Supply Co of State Grid Zhejiang Electric Power Co Ltd
Zhiyang Innovation Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University, State Grid Zhejiang Electric Power Co Ltd, Quzhou Power Supply Co of State Grid Zhejiang Electric Power Co Ltd, Zhiyang Innovation Technology Co Ltd filed Critical Shandong University
Priority to CN202010102775.5A priority Critical patent/CN111340901B/zh
Publication of CN111340901A publication Critical patent/CN111340901A/zh
Application granted granted Critical
Publication of CN111340901B publication Critical patent/CN111340901B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,把图片输入到通过生成对抗网络训练的模型中,得到图片的特征编码,对特征编码进行传输、保存,然后再将特征编码恢复成图片。本发明在每个卷积后使用了Instance_norm进行归一化处理,对每一层特征图都求均值和方差,使得模型更好的学习输电网中图片的特征;将输电网图片通过训练的模型得到了图片的特征编码,对特征编码进行传输、保存,节省了数据传输的时间、减少了存储成本、降低了传输的带宽成本;通过多个DenseBlock和Transition_Layer使得最后传输的数据仅为原图像大小的1/96。

Description

基于生成式对抗网络的复杂环境下输电网图片的压缩方法
技术领域
本发明公开一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法。
背景技术
近年来,随着电力行业的高速发展,输电网规模越来越大,对于输电网中故障检测的要求越来越高。目前输电网中图片的主要获取方式是通过无人机拍摄。在无人机设备发展初期,无人机拍摄的照片分辨率都比较低,所占的内存也较少。随着摄像头分辨率的不断提高,无人机拍摄的照片质量有了大幅度提升。但这些高质量的图片会影响存储成本和图片的传输速度,也会使无人机每次拍摄的图片数量减少,浪费一定的财力、物力,而且各个应用平台也要为传输海量的高质量图片付出巨大的带宽成本。为了能够减少高质量图片带来的巨大存储成本和带宽成本,并且提高图片的传输速度,对图片进行压缩是最有效的途径。目前对图片的压缩技术主要有无损压缩和有损压缩。
无损压缩技术是删除图片中的重复数据,对于相同的颜色信息只保存一次,以减少图片的尺寸。虽然无损压缩技术可以更好的保存图片的质量,但是无损压缩技术的压缩率受图片中数据冗余度的限制,传输效率还是比较低。
有损压缩技术是保持图片中颜色的逐渐变化,删除图片中颜色的突然变化,也就是去除一些不敏感的信息。利用有损压缩技术压缩率比较高,但会影响图片的质量,无法更好的保留图片中的部件特征。
例如,中国专利文献CN107018422B公开一种基于深度卷积神经网络的静止图像压缩方法。主要包括以下步骤:在编码端对原始图像进行下采样并利用JPEG2000标准编解码;利用深度卷积神经网络对解码图像进行抑制压缩效应;采用超分辨率方法对抑制压缩效应图像进行重建;将原始图像与解码的高分辨率图像相减得到残差图像并针对性编码;将编码的低分辨率图像、残差图像与辅助信息形成比特流并传输;解码端解码得到解码的低分辨率图像、残差图像与辅助信息;对解码的低分辨率图像进行处理得到解码的高分辨率图像,并与解码的残差图像相叠加便得到最终解码的高分辨率图像。相比之下本发明所述的静止图像压缩方法具有比JPEG2000标准更好的率失真性能。该专利文献的技术对原始图像进行下采样,会缺少部分像素值的信息,再进行后续的操作时有可能会导致输电网图像中部件特征的丢失。
中国专利文献CN109903351A公开一种基于卷积神经网络和传统编码相结合的图像压缩方法,包括:利用卷积神经网络decCNN减少图像的高频信息分量;利用传统编码模块对图像进行压缩,得到用于存储以及传输的图像编码;将得到的编码数据进行解码,得到重构图像;利用卷积神经网络enhCNN对解码后的图像进行增强,提升重构效果。目前,输电网中图片的大小在20M左右。根据该专利文献所述方法将图片设置为481X321进行训练,这样图片的缩放比例过大,缩放的图片已经有一定的失真。输电网图片中环境复杂、部件大小不一、部件的特征信息比较敏感,将一个大图划分为若干个小图有可能会导致部件的不完整,就无法保证部件的整体特征性。
中国专利文献CN110348487A公开了一种基于深度学习的高光谱图像压缩方法,首先,选取训练图像,将训练图像的尺寸大小随机裁剪为32×32大小作为训练集,然后将训练集输入到搭建好的压缩网络模型中进行训练,得到包含编码网络、量化网络和解码网络的压缩模型。通过将待压缩的图像输入到编码网络中,根据编码网络的计算结果得到编码后的特征图,然后将得到的特征图输入到量化网络中进行量化计算,得到码流,最后将量化后的结果输入到解码网络,通过解码网络模型的计算得到重建后的图像。该专利文献中的损失函数只考虑了原图像和恢复图像的像素点差值。该文献所述技术将图像经编码网络得到只有原图像1/8大小的特征图。
中国专利文献CN110634167A一种神经网络训练方法及装置和图像生成方法及装置,所述方法包括:将第一随机向量输入生成网络,获得第一生成图像;将第一生成图像和第一真实图像输入判别网络,获得第一判别分布与第二判别分布;根据第一判别分布、第二判别分布、第一目标分布、第二目标分布,确定判别网络的第一网络损失;根据第一判别分布和第二判别分布,确定生成网络的第二网络损失;根据第一网络损失和第二网络损失,对抗训练生成网络和判别网络。根据本公开的实施例的神经网络训练方法,判别网络可针对输入图像输出判别分布,以概率分布的形式描述输入图像的真实性,可从多个方面考量输入图像的真实性,减少信息丢失,提高训练精度。该专利文献所述方法直接将第一个随机向量输入生成网络,获得第一生成图像。第一随机向量可通过随机采样的方式获得,随机向量可以是各元素为随机数的向量。这样输入到生成网络的随机向量不稳定,得到的生成图像随机性很大。该专利文献所述方法只有图像生成部分,没有包含图像压缩,只是通过一个随机向量生成一张图片。
发明内容
针对现有技术存在的技术问题,本发明公开一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,从而实现了高效率传输的同时还保留了图片中的部件特征。
发明概述:
本发明把图片输入到通过生成对抗网络训练的模型中,得到图片的特征编码,对特征编码进行传输、保存,然后再将特征编码恢复成图片。
本发明的技术方案如下:
一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,包括:
S1:获取输电网环境下的图片,对图片进行图像增强;现在输电网环境下的图片大都是通过无人机采集获得;
S2:将输入的图片大小设置为512*1024,用DenseNet作为特征提取的网络,加强特征的重用;网络中使用多个DenseBlock和Transition_Layer提取图片的特征;本发明将图片设为512*1024,然后使用DenseNet提取特征、生成图片,本发明对特征有更好的传递,保存了图片中的部件特征。
S3:将得到的特征编码通过生成网络生成图片;
S4:将原图片和S3恢复的图片输入到判别网络,在训练过程中,生成网络尽量生成真实的图片使判别网络分不清真实的图片和生成的图片,而判别网络要尽量辨别出生成的假图像和真实的图像;这样生成网络和判别网络构成了动态的对抗训练;本发明将原图通过DenseNet网络提取特征,然后经量化器得到特征编码,这样的特征编码保留了原图中的特征信息;然后输入到生成网络中生成图像,这样的生成图像和原图像就尽可能的相似,生成网络和判别网络进行对抗训练;
S5:将步骤S4得到的模型保存:对于输入的输电网图片通过模型得到特征编码,然后对特征编码进行传输、保存;最后通过模型的生成网络将特征编码恢复为图片。
根据本发明优选的,所述步骤S1中图像增强的方法具体包括:
S11:当所述图片昏暗时,则使用Gamma校正,所述Gamma是指幂律变换,使得图像的高光部分被扩展而暗调部分被压缩,对图片进行提亮;优选的,设置Gamma参数为0.3-0.6;进一步优选的,设置Gamma参数为0.45;其中图片是指无人机巡检得到的比较昏暗图片,比较昏暗的原因是天气原因或者傍晚时分拍摄;
当所述图片曝光较高时,则使用Gamma校正,图像的高光部分被压缩而暗调部分被扩展,将图片变暗;优选的,设置Gamma参数为1.3-1.7;优选的,设置Gamma参数为1.5;其中图片是指无人机巡检得到的因受太阳影响曝光比较高图片;
当所述图片为正常图片时,则直接进行S12步骤;其中图片是指无人机巡检得到的既没有受太阳影响曝光影响,也没有昏暗影响的图片,称之为正常图片;
S12:令I1为S11得到的图片,获取I1的宽和高;将I1的短边设置为原来的2倍,长边保持不变得到I2;将I1的长边设置为原来的1/2,短边保持不变得到I3;保存I1、I2、I3;此步骤增加图片的数量,输入一张图片经过不同缩放比得到三张图片,增加了不同场景下的图片。
根据本发明优选的,所述步骤S2中提取特征的详细步骤为:
S21:将输入的图片大小设置为512*1024,输入到DenseNet网络中;
S22:设置DenseNet的grouth_rate为12,将S21中输入的图片进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;然后通过Instance_norm计算每个batch的均值μ和方差σ2,具体计算公式如下:
Figure BDA0002387425220000041
其中H代表图片的高,W代表图片的宽,xlm为图片的l、m维度的数据;
对图片x进行归一化操作:
Figure BDA0002387425220000042
加入缩放变量γ和平移变量β,归一化后的值为:
y=γx'+β
在后续的卷积操作中,同样类似地引入Instance_norm进行归一化处理;
S23:通过第一个DenseBlock对步骤S22得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S24:通过第一个Transition_Layer对步骤S23得到的结果进行1*1卷积,通道数为72,并设置缩放因子α为0.9;然后进行Average_Pooling,在减少维度的同时将有利信息传到下一个模块进行特征提取,此时对S21输入的图片已经缩放了4倍;
S25:重复步骤S23和S244次,将步骤S21传入的图片缩放至256倍,此时通道数为162;
S26:经过DenseBlock对步骤S25得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复4次,此时总通道数为210;
S27:使用一个1*1的卷积过滤器将得到的特征图降维至8通道,此时的特征图大小为原来图片大小的1/96;
S28:通过量化器将S27得到的特征图中的float类型通过四舍五入转换为int类型,得到最终的特征编码。本发明可以得到具有原图像1/96大小的特征图,大大降低了图像数据在存储、传输等过程中所占据的资源;本发明还将该特征编码输入到生成网络中生成图片进行后续的使用。
根据本发明优选的,所述步骤S3中将得到的特征编码通过生成网络生成图片的详细步骤为:
S31:设置DenseNet的grouth_rate为12,将S27得到的特征编码进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;
然后使用Instance_norm进行归一化处理,归一化的详细步骤与步骤S22一致,在后续的卷积操作中,同样类似地引入Instance_norm;
S32:经过第一个DenseBlock对步骤S31得到的结果进行1*1卷积,通道数为48,随后接上3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S33:通过第一个Transition_Layer对步骤S32得到的结果进行1*1卷积,通道数为72,缩放因子设置为0.9,此时通道数为64;然后对特征图进行反卷积扩大特征图尺寸,还原步骤S21输入的图像;其中反卷积的卷积核kernel尺寸为3*3,步长strides为2,填充padding为‘same’;
S34:重复步骤S33和S344次,将S27得到的特征编码扩大了256倍,与S21输入的图片尺寸相同,此时通道数162;
S35:经过DenseBlock对步骤S34得到的特征图进行1*1卷积,通道数为48,然后进行3*3卷积,通道数为grouth_rate;此时通道数为210;
S36:使用1*1的卷积过滤器将步骤S35得到的结果降维至3通道,将步骤S28得到的特征编码还原为图片。
根据本发明优选的,所述步骤S4中判别网络的具体步骤为:
S41:将步骤S21输入的图片和步骤S36恢复的图片输入到判别器中:
(1)对输入的图片进行卷积,kernel_size=4,filters=64,strides=2,padding=‘same’,activation=leaky_relu,得到c1;
(2)将c1进行卷积,kernel_size=4,filters=128,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c2;
(3)将c2进行卷积,kernel_size=4,filters=256,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c3;
(4)将c3进行卷积,kernel_size=4,filters=512,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c4;
(5)将c4经kernel_size=4,filters=1,strides=1,padding=‘same’进行卷积,得到单个特征矩阵c5;
(6)将c5通过逻辑回归输出对图片的预测值;
通过卷积操作后,输出对图片的预测值,判断真假;希望真实的图片输出1,生成的图片输出0;
S42:令x为步骤S21输入的图片,
Figure BDA0002387425220000061
为步骤S36生成的图片;对x和
Figure BDA0002387425220000062
通过下面的损失函数计算结果:
Figure BDA0002387425220000071
其中E为编码器,G为生成器,D为判别器;λ>0平衡了网络的损失,
Figure BDA0002387425220000074
为图片x和图片
Figure BDA0002387425220000075
的均方误差;f(y)=y2,g(y)=(y-1)2
首先固定编码器E和生成器G,不更新编码器E和生成器G的参数,然后训练判别器D:
Figure BDA0002387425220000072
(1)训练判别器的目的是使上述式子输出值最大,使得真实图片通过判别器输出1,生成图片通过判别器输出0;
(2)如果有真实图片被分错,那么输出值f(y)=0,期望也为0;
(3)如果有生成图片被分错,那么输出值g(y)=0,期望也为0;
训练结束后,判别器D已经可以正确的分辨真实图片和生成图片,固定判别器D,训练编码器E和生成器G:
Figure BDA0002387425220000073
训练编码器和生成器的目的是使上述式子输出值最小,使得输入的图片和生成的图片尽可能相似;
本发明的损失函数考虑了生成网络中生成图片的真实性和判别网络中对图片判断的正确性,同时还考虑了原图像和恢复图像的均方误差;
S43:对步骤S21输入的图片和步骤S36生成的图片通过softmax进行二分类,如果输出结果都在0.5附近,则代表判别网络已经无法分辨生成的图像和真实的图像,从而实现了通过生成器生成图片来保留原图片的特征。
根据本发明优选的,所述步骤S5的详细步骤为:
S51:将步骤S4中训练的模型保存;
S52:将无人机巡检得到的图片输入到步骤S2步骤中,通过生成对抗网络模型的编码器得到图片的特征编码;
S53:对步骤S52得到的特征编码经过量化器把各个像素点通过四舍五入转化为整数,此时的特征编码大小为原图大小的1/96,可以用于传输或保存;
S54:将步骤S53保存的特征编码输入到生成网络中,经过模型得到了对特征编码恢复的图片,该图片保留了原图像中部件的特征,尺寸大小和原图一致。
本发明的有益效果如下:
1)本发明在每个卷积后使用了Instance_norm进行归一化处理,对每一层特征图都求均值和方差,使得模型更好的学习输电网中图片的特征。
2)针对现有技术中,以ResNet提取特征的方法参数较多,也不能更好的保证特征的传递,因此如何减少网络的参数和提升训练速度是需要解决的技术问题,本发明将输电网图片通过训练的模型得到了图片的特征编码,对特征编码进行传输、保存,节省了数据传输的时间、减少了存储成本、降低了传输的带宽成本。
3)如何利用生成对抗网络增加压缩倍数并且保持原图的部件特征是本发明需要解决的重点,本发明通过多个DenseBlock和Transition_Layer使得最后传输的数据仅为原图像大小的1/96。
4)本发明可以将特征编码恢复为图像,恢复的图像保留了原图像中的部件特征。
5)针对现有技术中,无人机巡检拍摄的照片有的受太阳光影响曝光度太高或在不好的天气拍摄,如何充分应用这些低质量的图片数据也是亟待解决的重要问题,本发明通过数据增强技术,调节了图片在恶劣环境下的亮度、增加了不同场景下的图片,使得模型有更好的泛化能力。
附图说明
图1是本发明中训练阶段的流程图;
图2是本发明中传输、使用阶段的流程图;
图3-a较为昏暗图片;
图3-b为调整亮度后的图片;
图4是原始图片;
图5是经过本发明所述方法处理后所还原的图片;
图6是JPEG压缩后的重构图片。
具体实施方式
下面结合实施例和说明书附图对本发明做详细的说明,但不限于此。
实施例、
一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,包括:
S1:获取输电网环境下的图片,对图片进行图像增强;
S2:将输入的图片大小设置为512*1024,用DenseNet作为特征提取的网络,加强特征的重用;网络中使用多个DenseBlock和Transition_Layer提取图片的特征;
S3:将得到的特征编码通过生成网络生成图片;
S4:将原图片和S3恢复的图片输入到判别网络,
S5:将步骤S4得到的模型保存:对于输入的输电网图片通过模型得到特征编码,然后对特征编码进行传输、保存;最后通过模型的生成网络将特征编码恢复为图片。
所述步骤S1中图像增强的方法具体包括:
S11:当所述图片昏暗时,则使用Gamma校正,使得图像的高光部分被扩展而暗调部分被压缩,对图片进行提亮;优选的,设置Gamma参数为0.3-0.6;进一步优选的,设置Gamma参数为0.45;
当所述图片曝光较高时,则使用Gamma校正,图像的高光部分被压缩而暗调部分被扩展,将图片变暗;优选的,设置Gamma参数为1.3-1.7;优选的,设置Gamma参数为1.5;
当所述图片为正常图片时,则直接进行S12步骤;
S12:令I1为S11得到的图片,获取I1的宽和高;将I1的短边设置为原来的2倍,长边保持不变得到I2;将I1的长边设置为原来的1/2,短边保持不变得到I3;保存I1、I2、I3。
所述步骤S2中提取特征的详细步骤为:
S21:将输入的图片大小设置为512*1024,输入到DenseNet网络中;
S22:设置DenseNet的grouth_rate为12,将S21中输入的图片进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;然后通过Instance_norm计算每个batch的均值μ和方差σ2,具体计算公式如下:
Figure BDA0002387425220000101
其中H代表图片的高,W代表图片的宽,xlm为图片的l、m维度的数据;
对图片x进行归一化操作:
Figure BDA0002387425220000102
加入缩放变量γ和平移变量β,归一化后的值为:
y=γx'+β
在后续的卷积操作中,同样类似地引入Instance_norm进行归一化处理;
S23:通过第一个DenseBlock对步骤S22得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S24:通过第一个Transition_Layer对步骤S23得到的结果进行1*1卷积,通道数为72,并设置缩放因子α为0.9;然后进行Average_Pooling,在减少维度的同时将有利信息传到下一个模块进行特征提取,此时对S21输入的图片已经缩放了4倍;
S25:重复步骤S23和S244次,将步骤S21传入的图片缩放至256倍,此时通道数为162;
S26:经过DenseBlock对步骤S25得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复4次,此时总通道数为210;
S27:使用一个1*1的卷积过滤器将得到的特征图降维至8通道,此时的特征图大小为原来图片大小的1/96;
S28:通过量化器将S27得到的特征图中的float类型通过四舍五入转换为int类型,得到最终的特征编码。
所述步骤S3中将得到的特征编码通过生成网络生成图片的详细步骤为:
S31:设置DenseNet的grouth_rate为12,将S27得到的特征编码进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;
然后使用Instance_norm进行归一化处理,归一化的详细步骤与步骤S22一致,在后续的卷积操作中,同样类似地引入Instance_norm;
S32:经过第一个DenseBlock对步骤S31得到的结果进行1*1卷积,通道数为48,随后接上3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S33:通过第一个Transition_Layer对步骤S32得到的结果进行1*1卷积,通道数为72,缩放因子设置为0.9,此时通道数为64;然后对特征图进行反卷积扩大特征图尺寸,还原步骤S21输入的图像;其中反卷积的卷积核kernel尺寸为3*3,步长strides为2,填充padding为‘same’;
S34:重复步骤S33和S344次,将S27得到的特征编码扩大了256倍,与S21输入的图片尺寸相同,此时通道数162;
S35:经过DenseBlock对步骤S34得到的特征图进行1*1卷积,通道数为48,然后进行3*3卷积,通道数为grouth_rate;此时通道数为210;
S36:使用1*1的卷积过滤器将步骤S35得到的结果降维至3通道,将步骤S28得到的特征编码还原为图片。
所述步骤S4中判别网络的具体步骤为:
S41:将步骤S21输入的图片和步骤S36恢复的图片输入到判别器中:
(1)对输入的图片进行卷积,kernel_size=4,filters=64,strides=2,padding=‘same’,activation=leaky_relu,得到c1;
(2)将c1进行卷积,kernel_size=4,filters=128,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c2;
(3)将c2进行卷积,kernel_size=4,filters=256,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c3;
(4)将c3进行卷积,kernel_size=4,filters=512,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c4;
(5)将c4经kernel_size=4,filters=1,strides=1,padding=‘same’进行卷积,得到单个特征矩阵c5;
(6)将c5通过逻辑回归输出对图片的预测值;
通过卷积操作后,输出对图片的预测值,判断真假;希望真实的图片输出1,生成的图片输出0;
S42:令x为步骤S21输入的图片,
Figure BDA0002387425220000126
为步骤S36生成的图片;对x和
Figure BDA0002387425220000127
通过下面的损失函数计算结果:
Figure BDA0002387425220000121
其中E为编码器,G为生成器,D为判别器;λ>0平衡了网络的损失,
Figure BDA0002387425220000124
为图片x和图片
Figure BDA0002387425220000125
的均方误差;f(y)=y2,g(y)=(y-1)2
首先固定编码器E和生成器G,不更新编码器E和生成器G的参数,然后训练判别器D:
Figure BDA0002387425220000122
(4)训练判别器的目的是使上述式子输出值最大,使得真实图片通过判别器输出1,生成图片通过判别器输出0;
(5)如果有真实图片被分错,那么输出值f(y)=0,期望也为0;
(6)如果有生成图片被分错,那么输出值g(y)=0,期望也为0;
训练结束后,判别器D已经可以正确的分辨真实图片和生成图片,固定判别器D,训练编码器E和生成器G:
Figure BDA0002387425220000123
训练编码器和生成器的目的是使上述式子输出值最小,使得输入的图片和生成的图片尽可能相似;
S43:对步骤S21输入的图片和步骤S36生成的图片通过softmax进行二分类,如果输出结果都在0.5附近,则代表判别网络已经无法分辨生成的图像和真实的图像,从而实现了通过生成器生成图片来保留原图片的特征。
所述步骤S5的详细步骤为:
S51:将步骤S4中训练的模型保存;
S52:将无人机巡检得到的图片输入到步骤S2步骤中,通过生成对抗网络模型的编码器得到图片的特征编码;
S53:对步骤S52得到的特征编码经过量化器把各个像素点通过四舍五入转化为整数,此时的特征编码大小为原图大小的1/96,可以用于传输或保存;
S54:将步骤S53保存的特征编码输入到生成网络中,经过模型得到了对特征编码恢复的图片,该图片保留了原图像中部件的特征,尺寸大小和原图一致。
应用例:
按照实施例所述的方法对实际输电网络中的图片进行处理,处理步骤和处理结果如下记载:
1)用4000张输电网中的图片训练网络,首先将图片进行一定的处理。对于较暗和较亮的图片通过Gamma校正(幂律变换);如图3-a较为昏暗,通过Gamma校正设置参数为0.45,将图3-a调整为图3-b。然后将图片通过不同比例缩放得到12000张图片,再将图片设置为512*1024。生成网络和判别网络的初始学习率为0.0002,经过60个epoch之后变为0.00002;
2)使用DenNet作为特征提取的网络,对图片进行特征提取,然后通过量化器转化为特征编码。将特征编码通过生成器生成图片,经判别网络判断该图片的真假;
训练时生成网络和判别网络交替训练:首先固定编码器和生成器的参数,训练判别网络。最大化判别网络的损失函数,使得真实图片通过判别器输出1,生成图片通过判别器输出0。然后再固定判别网络的参数,训练生成网络。最小化生成网络的损失函数,使得输入的图片和生成的图片尽可能相似,让判别网络识别不出生成的图片和真实的图片。
3)测试时,将图片设置为512*1024,输入到训练好的模型中,通过编码器得到输入图片的特征编码。该特征编码为原图的1/96,用于传输和保存。然后将特征编码通过生成器生成图片,该图片和输入的图片大小一致。
其中,图4为电力场景中均压环图片的原始图片,图5是经过实施例和应用例所述方法处理后所还原的图片,图6为JPEG压缩后的重构图片。通过对比可知,图6中有很多地方已经失真,而图5并没有这样的失真,因此,证明本发明所述的方法实现了高效率传输的同时还保留了图片中的部件特征。

Claims (6)

1.一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,包括:
S1:获取输电网环境下的图片,对图片进行图像增强;
S2:将输入的图片大小设置为512*1024,用DenseNet作为特征提取的网络,加强特征的重用;网络中使用多个DenseBlock和Transition_Layer提取图片的特征;
S3:将得到的特征编码通过生成网络生成图片;
S4:将原图片和S3恢复的图片输入到判别网络;
S5:将步骤S4得到的模型保存:对于输入的输电网图片通过模型得到特征编码,然后对特征编码进行传输、保存;最后通过模型的生成网络将特征编码恢复为图片。
2.根据权利要求1所述的一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,所述步骤S1中图像增强的方法具体包括:
S11:当所述图片昏暗时,则使用Gamma校正,使得图像的高光部分被扩展而暗调部分被压缩,对图片进行提亮;优选的,设置Gamma参数为0.3-0.6;进一步优选的,设置Gamma参数为0.45;
当所述图片曝光较高时,则使用Gamma校正,图像的高光部分被压缩而暗调部分被扩展,将图片变暗;优选的,设置Gamma参数为1.3-1.7;优选的,设置Gamma参数为1.5;
当所述图片为正常图片时,则直接进行S12步骤;
S12:令I1为S11得到的图片,获取I1的宽和高;将I1的短边设置为原来的2倍,长边保持不变得到I2;将I1的长边设置为原来的1/2,短边保持不变得到I3;保存I1、I2、I3。
3.根据权利要求1所述的一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,所述步骤S2中提取特征的详细步骤为:
S21:将输入的图片大小设置为512*1024,输入到DenseNet网络中;
S22:设置DenseNet的grouth_rate为12,将S21中输入的图片进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;然后通过Instance_norm计算每个batch的均值μ和方差σ2,具体计算公式如下:
Figure FDA0002387425210000021
其中H代表图片的高,W代表图片的宽,xlm为图片的l、m维度的数据;
对图片x进行归一化操作:
Figure FDA0002387425210000022
加入缩放变量γ和平移变量β,归一化后的值为:
y=γx'+β
在后续的卷积操作中,同样类似地引入Instance_norm进行归一化处理;
S23:通过第一个DenseBlock对步骤S22得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S24:通过第一个Transition_Layer对步骤S23得到的结果进行1*1卷积,通道数为72,并设置缩放因子α为0.9;然后进行Average_Pooling;
S25:重复步骤S23和S244次;
S26:经过DenseBlock对步骤S25得到的特征图进行1*1卷积,通道数为48;然后进行3*3卷积,通道数为grouth_rate,重复4次,此时总通道数为210;
S27:使用一个1*1的卷积过滤器将得到的特征图降维至8通道,此时的特征图大小为原来图片大小的1/96;
S28:通过量化器将S27得到的特征图中的float类型通过四舍五入转换为int类型,得到最终的特征编码。
4.根据权利要求1所述的一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,所述步骤S3中将得到的特征编码通过生成网络生成图片的详细步骤为:
S31:设置DenseNet的grouth_rate为12,将S27得到的特征编码进行3*3卷积,通道数为2*grouth_rate,此时通道数为24;
然后使用Instance_norm进行归一化处理,归一化的详细步骤与步骤S22一致,在后续的卷积操作中,同样类似地引入Instance_norm;
S32:经过第一个DenseBlock对步骤S31得到的结果进行1*1卷积,通道数为48,随后接上3*3卷积,通道数为grouth_rate,重复上述步骤4次,此时通道数为72;
S33:通过第一个Transition_Layer对步骤S32得到的结果进行1*1卷积,通道数为72,缩放因子设置为0.9,此时通道数为64;然后对特征图进行反卷积扩大特征图尺寸,还原步骤S21输入的图像;其中反卷积的卷积核kernel尺寸为3*3,步长strides为2,填充padding为‘same’;
S34:重复步骤S33和S344次,将S27得到的特征编码扩大了256倍,与S21输入的图片尺寸相同,此时通道数162;
S35:经过DenseBlock对步骤S34得到的特征图进行1*1卷积,通道数为48,然后进行3*3卷积,通道数为grouth_rate;此时通道数为210;
S36:使用1*1的卷积过滤器将步骤S35得到的结果降维至3通道,将步骤S28得到的特征编码还原为图片。
5.根据权利要求1所述的一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,所述步骤S4中判别网络的具体步骤为:
S41:将步骤S21输入的图片和步骤S36恢复的图片输入到判别器中:
(1)对输入的图片进行卷积,kernel_size=4,filters=64,strides=2,padding=‘same’,activation=leaky_relu,得到c1;
(2)将c1进行卷积,kernel_size=4,filters=128,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c2;
(3)将c2进行卷积,kernel_size=4,filters=256,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c3;
(4)将c3进行卷积,kernel_size=4,filters=512,strides=2,padding=‘same’,然后接上Instance_norm,进行归一化处理再放入leaky_relu中得到c4;
(5)将c4经kernel_size=4,filters=1,strides=1,padding=‘same’进行卷积,得到单个特征矩阵c5;
(6)将c5通过逻辑回归输出对图片的预测值;
S42:令x为步骤S21输入的图片,
Figure FDA0002387425210000041
为步骤S36生成的图片;对x和
Figure FDA0002387425210000042
通过下面的损失函数计算结果:
Figure FDA0002387425210000043
其中E为编码器,G为生成器,D为判别器;λ>0平衡了网络的损失,
Figure FDA0002387425210000044
为图片x和图片
Figure FDA0002387425210000045
的均方误差;f(y)=y2,g(y)=(y-1)2
首先固定编码器E和生成器G,不更新编码器E和生成器G的参数,然后训练判别器D:
Figure FDA0002387425210000046
(1)使得真实图片通过判别器输出1,生成图片通过判别器输出0;
(2)如果有真实图片被分错,那么输出值f(y)=0,期望也为0;
(3)如果有生成图片被分错,那么输出值g(y)=0,期望也为0;
训练结束后,固定判别器D,训练编码器E和生成器G:
Figure FDA0002387425210000047
使得输入的图片和生成的图片尽可能相似;
S43:对步骤S21输入的图片和步骤S36生成的图片通过softmax进行二分类,从而实现了通过生成器生成图片来保留原图片的特征。
6.根据权利要求1所述的一种基于生成式对抗网络的复杂环境下输电网图片的压缩方法,其特征在于,所述步骤S5的详细步骤为:
S51:将步骤S4中训练的模型保存;
S52:将无人机巡检得到的图片输入到步骤S2步骤中,通过生成对抗网络模型的编码器得到图片的特征编码;
S53:对步骤S52得到的特征编码经过量化器把各个像素点通过四舍五入转化为整数,此时的特征编码大小为原图大小的1/96;
S54:将步骤S53保存的特征编码输入到生成网络中,经过模型得到了对特征编码恢复的图片。
CN202010102775.5A 2020-02-19 2020-02-19 基于生成式对抗网络的复杂环境下输电网图片的压缩方法 Active CN111340901B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010102775.5A CN111340901B (zh) 2020-02-19 2020-02-19 基于生成式对抗网络的复杂环境下输电网图片的压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010102775.5A CN111340901B (zh) 2020-02-19 2020-02-19 基于生成式对抗网络的复杂环境下输电网图片的压缩方法

Publications (2)

Publication Number Publication Date
CN111340901A true CN111340901A (zh) 2020-06-26
CN111340901B CN111340901B (zh) 2023-08-11

Family

ID=71184234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010102775.5A Active CN111340901B (zh) 2020-02-19 2020-02-19 基于生成式对抗网络的复杂环境下输电网图片的压缩方法

Country Status (1)

Country Link
CN (1) CN111340901B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505774A (zh) * 2021-07-14 2021-10-15 青岛全掌柜科技有限公司 一种新型保单识别模型尺寸压缩方法
WO2022213843A1 (zh) * 2021-04-08 2022-10-13 华为技术有限公司 一种图像处理方法、训练方法及装置
CN116994309A (zh) * 2023-05-06 2023-11-03 浙江大学 一种公平性感知的人脸识别模型剪枝方法
KR20240030176A (ko) * 2022-08-30 2024-03-07 주식회사 사이버네틱스이미징시스템즈 Gan 기반 인공지능 고품질 이미지 압축 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN109495744A (zh) * 2018-10-29 2019-03-19 西安电子科技大学 基于联合生成对抗网络的大倍率遥感影像压缩方法
CN109801230A (zh) * 2018-12-21 2019-05-24 河海大学 一种基于新编码器结构的图像修复方法
CN110062125A (zh) * 2019-04-18 2019-07-26 西安万像电子科技有限公司 图像传输方法及装置
CN110225350A (zh) * 2019-05-30 2019-09-10 西安电子科技大学 基于生成式对抗网络的自然图像压缩方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN109495744A (zh) * 2018-10-29 2019-03-19 西安电子科技大学 基于联合生成对抗网络的大倍率遥感影像压缩方法
CN109801230A (zh) * 2018-12-21 2019-05-24 河海大学 一种基于新编码器结构的图像修复方法
CN110062125A (zh) * 2019-04-18 2019-07-26 西安万像电子科技有限公司 图像传输方法及装置
CN110225350A (zh) * 2019-05-30 2019-09-10 西安电子科技大学 基于生成式对抗网络的自然图像压缩方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022213843A1 (zh) * 2021-04-08 2022-10-13 华为技术有限公司 一种图像处理方法、训练方法及装置
CN113505774A (zh) * 2021-07-14 2021-10-15 青岛全掌柜科技有限公司 一种新型保单识别模型尺寸压缩方法
CN113505774B (zh) * 2021-07-14 2023-11-10 众淼创新科技(青岛)股份有限公司 一种保单识别模型尺寸压缩方法
KR20240030176A (ko) * 2022-08-30 2024-03-07 주식회사 사이버네틱스이미징시스템즈 Gan 기반 인공지능 고품질 이미지 압축 시스템
KR102645760B1 (ko) * 2022-08-30 2024-03-08 주식회사 사이버네틱스이미징시스템즈 Gan 기반 인공지능 고품질 이미지 압축 시스템
CN116994309A (zh) * 2023-05-06 2023-11-03 浙江大学 一种公平性感知的人脸识别模型剪枝方法
CN116994309B (zh) * 2023-05-06 2024-04-09 浙江大学 一种公平性感知的人脸识别模型剪枝方法

Also Published As

Publication number Publication date
CN111340901B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN111340901B (zh) 基于生成式对抗网络的复杂环境下输电网图片的压缩方法
Hui et al. Fast and accurate single image super-resolution via information distillation network
Syu et al. Learning deep convolutional networks for demosaicing
Toderici et al. Variable rate image compression with recurrent neural networks
CN110348487B (zh) 一种基于深度学习的高光谱图像压缩方法及装置
CN110751597B (zh) 基于编码损伤修复的视频超分辨方法
CN110225350B (zh) 基于生成式对抗网络的自然图像压缩方法
Setyaningsih et al. Survey of hybrid image compression techniques
CN113554720A (zh) 一种基于多方向卷积神经网络的多光谱图像压缩方法及系统
WO2019186407A1 (en) Systems and methods for generative ensemble networks
CN112465727A (zh) 基于HSV色彩空间和Retinex理论的无正常光照参考的低照度图像增强方法
CN112734867A (zh) 一种基于空谱特征分离提取的多光谱图像压缩方法及系统
CN113450290A (zh) 基于图像修补技术的低照度图像增强方法及系统
CN113658057A (zh) 一种Swin Transformer微光图像增强方法
CN115131675A (zh) 一种基于参考影像纹理迁移的遥感影像压缩方法及系统
Punnappurath et al. A little bit more: Bitplane-wise bit-depth recovery
Nyeem Reversible data hiding with image bit-plane slicing
CN112991169B (zh) 基于图像金字塔和生成对抗网络的图像压缩方法及系统
Zafari et al. Attention-based generative neural image compression on solar dynamics observatory
CN113962882A (zh) 一种基于可控金字塔小波网络的jpeg图像压缩伪影消除方法
US7406204B2 (en) Image processing method for facilitating data transmission
Omrani et al. High dynamic range image reconstruction using multi-exposure Wavelet HDRCNN
CN115512199A (zh) 一种基于图注意和非对称卷积网络的图像压缩模型
CN117425013B (zh) 一种基于可逆架构的视频传输方法和系统
RAJAONARISOA et al. Super Resolution Generative Adversarial Network Model parameter optimization to improve the quality of geostationary meteorological satellite images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant