CN108334941A - 一种基于生成式对抗网络的桥梁裂缝图像生成模型 - Google Patents

一种基于生成式对抗网络的桥梁裂缝图像生成模型 Download PDF

Info

Publication number
CN108334941A
CN108334941A CN201810182146.0A CN201810182146A CN108334941A CN 108334941 A CN108334941 A CN 108334941A CN 201810182146 A CN201810182146 A CN 201810182146A CN 108334941 A CN108334941 A CN 108334941A
Authority
CN
China
Prior art keywords
layer
submodel
convolutional layer
convolution kernel
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810182146.0A
Other languages
English (en)
Other versions
CN108334941B (zh
Inventor
李良福
胡敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201810182146.0A priority Critical patent/CN108334941B/zh
Publication of CN108334941A publication Critical patent/CN108334941A/zh
Application granted granted Critical
Publication of CN108334941B publication Critical patent/CN108334941B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于生成式对抗网络的桥梁裂缝图像生成模型,包括判别子模型和生成子模型,所述判别子模型采用六层卷积层,且顺次的第一至第五层卷积层每层卷积层均采用大小为5*5的卷积核,第六层卷积层采用大小为1*1的卷积核;所述桥梁裂缝生成模型的生成子模型包括五层反卷积层,且每层卷积层均采用大小为5*5的卷积核。本发明使用多重卷积核在实施卷积操作时,避免了卷积核过小图片的整体信息缺乏连续性的情况和卷积核过大造成图片细节大量丢失这一问题,将各通道学习到的特征进行融合,可以改善各个特征图之间信息不联系的问题,同时,提升了图像后续处理的修复效果。

Description

一种基于生成式对抗网络的桥梁裂缝图像生成模型
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于生成式对抗网络的桥梁裂缝图像生成模型。
背景技术
随着交通运输业的发展,公路的养护工作变得十分的重要。桥梁作为当今社会交通枢纽的重要组成部分,不仅承担着运输重任还关系着运输人员的安危,但由于桥梁结构在长期使用中难免产生各种各样的损坏,造成桥梁结构抗力衰减和安全隐患,因此定期的检查和维护是必不可少的。裂缝是桥梁最常见的缺陷。桥梁裂缝产生的原因多种多样,主要是由于沥青路面的疲劳,同时还有不利的大气条件,可能导致材料收缩,或由于沥青混合物质量差或由于沥青混合料的弱点结构路面阻力。桥梁路面缺陷的检测是后续维护和修理的前提。为了进行桥梁裂缝的检测和修补,需要定期地拍摄桥梁缺陷图像。
对于桥梁裂缝图像的处理,由于受桥梁周围环境及采集条件如光照、相机拍摄角度及分辨率等因素的影响,采集到的图像中有很多障碍物会影响到裂缝的检测,因而取材难度大大增加。在图像处理的过程中需要对裂缝重新生成并进行判别后从而得到有效的数据。
使用深度卷积神经网络对图像进行生成,既采用了卷积神经网络的识别率高的有点,使得网络具有很好的学习能力,同时取得较好的生成效果。生成式对抗网络有两部分组成,分别是生成网络和判别网络,但是将传统的深度卷积生成式对抗网络模型用于裂缝图像的生成时,由于仅靠少量裂缝图片,生成的裂缝图像会产生模糊现象,且生成图片带有明显的网格特征,这使生成图像缺乏真实性。
判别子模型与生成裂缝图像的真伪相关。判别子模型过于简单则网络特征学习不到位,判别器性能差,生成的裂缝图像会有明显的网格现象以及失真等问题。判别子模型过于复杂则模型训练大大增加,同时由于对抗式生成网络较难训练可能会造成模型不收敛等问题.现有的深度卷积生成式对抗网络模型中的判别网络结构直接应用在裂缝图像生成方向时,由于结构过于简单从而造成了判别器性能低,识别图片是真实的图片还是生成器生成的图片的能力差,经过整个网络生成的裂缝图片严重失真,无法运用于后续裂缝识别的研究方向。
生成子模型的好坏,直接影响着整个生成式对抗网络的性能。生成子模型过于复杂会出现生成过程中的过拟合现象,使得网络的使用价值降低。在数据集数量少,数据的形态差异小的情况下,训练完成的网络只能识别特定种类特定形状的物体,即网络在生成图像后无法高效进行修复、分类等任务。反之,生成子模型过于简单则会出现生成器性能差,无法生成可用的真实度高的图片。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于生成式对抗网络的桥梁裂缝图像生成模型,使用多重卷积核在实施卷积操作时,避免了卷积核过小图片的整体信息缺乏连续性的情况和卷积核过大造成图片细节大量丢失这一问题,将各通道学习到的特征进行融合,可以改善各个特征图之间信息不联系的问题,同时,提升了图像后续处理的修复效果。本发明要解决的技术问题通过以下技术方案实现:一种基于生成式对抗网络的桥梁裂缝图像生成模型,包括判别子模型和生成子模型,所述判别子模型采用六层卷积层,且顺次的第一至第五层卷积层每层卷积层均采用大小为5*5的卷积核,第六层卷积层采用大小为1*1的卷积核;
所述生成子模型包括五层反卷积层,且每层卷积层均采用大小为5*5 的卷积核。
进一步的,所述判别子模型的第五层卷积层和第六层卷积层后分别接入一批量归一化层。
进一步的,所述生成子模型的噪声向量维数为32768。
与现有技术相比,本发明的有益效果:本发明使用多重卷积核在实施卷积操作,5*5大小的卷积核在实施卷积操作时,避免了卷积核过小图片的整体信息缺乏连续性的情况和卷积核过大造成图片细节大量丢失这一问题,取得了相对较好的效果。1*1卷积核具有对各特征通道信息进行非线性融合的特性,将各通道学习到的特征进行融合,可以改善各个特征图之间信息不联系的问题。因此,本发明采用5*5和1*1两种卷积核,可使网络更好的学习目标图像的不同特征区域的特性,同时在加深网络的情况下,相比较5*5核大小的卷积层,参数大大减少,节约了时间成本。
本发明判别子模型的卷积层后都接入了批量归一化层,使得梯度可以传播到每一层,从一定程度上避免了训练失败的发生,防止新增卷积层在网络的反向传播过程中造成的梯度消失或者梯度爆炸。
本发明的生成子模型提升了裂缝图像后续处理中图像生成和修复的效果。
附图说明
图1是本发明的判别子模型结构示意图。
图2a是本发明判别子模型的归一化结果后添加1*1卷积核的卷积层生成的不同裂缝图像。
图2b是Alec Radford等人2015年提出并于2016年收入国际表征会议 (ICLR)的文献unsupervised representation learning with deep convolutional generativeadversarial networks中的生成网络结构生成的不同的裂缝图像。
图2c是Alec Radford等人2015年提出并于2016年收入国际表征会议 (ICLR)的文献unsupervised representation learning with deep convolutional generativeadversarial networks中的生成网络结构判别模型添加5*5卷积核的卷积层生成的不同裂缝图像。
图2d是本发明的判别子模型判别后生成的不同裂缝图像。
图3a和图3d是结构相似的两张裂缝图像。
图3b和图3e是本发明生成子模型添加5*5卷积核的卷积层的修复效果图。
图3c和图3f是本发明生成子模型修复效果图。
图4是本发明的生成子模型结构示意图。
图5a是本发明的生成子模型添加1*1卷积核的6层卷积层生成的不同裂缝图像。
图5b是Alec Radford等人2015年提出并于2016年收入国际表征会议 (ICLR)的文献unsupervised representation learning with deep convolutional generativeadversarial networks中的生成网络结构生成的不同裂缝图像。
图5c是本发明的生成子模型生成的不同裂缝图像。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
在本发明创造的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明创造和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明创造的限制。
此外,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明创造的描述中,除非另有说明,“多个”的含义是两个或两个以上。
术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明创造中的具体含义。
本发明使用Alec Radford等人2015年提出并于2016年收入国际表征会议(ICLR)的文献unsupervised representation learning with deep convolutional generativeadversarial networks中的网络结构为原型,并在其基础上做了改进。
本实施例提供一种基于生成式对抗网络的桥梁裂缝图像生成模型,包括判别子模型和生成子模型,判别子模型采用六层卷积层,且顺次的第一至第五层卷积层每层卷积层均采用大小为5*5的卷积核,第六层卷积层采用大小为1*1的卷积核。即本发明的判别子模型在文献unsupervised representation learning with deep convolutionalgenerative adversarial networks 的判别模型基础上增加了5*5卷积核的第五层卷积层和1*1卷积核的第六层卷积层。
(1)使用多重卷积核:5*5作为基础卷积层中卷积窗口的尺寸,本发明在试验过程中输入网络的裂缝图片统一为128*128*3大小,5*5大小的卷积核在实施卷积操作时,避免了卷积核过小图片的整体信息缺乏连续性的情况和卷积核过大造成图片细节大量丢失这一问题,取得了相对较好的效果。1*1卷积核具有对各特征通道信息进行非线性融合的特性,将各通道学习到的特征进行融合,可以改善各个特征图之间信息不联系的问题。因此,本发明采用5*5和1*1两种卷积核,可使网络更好的学习目标图像的不同特征区域的特性。判别子模型的具体实现模型如图1所示。第五层5*5卷积核的卷积层和第六层1*1卷积核的卷积层的特征图大小均为4*4,特征图的数量均为1024个。
(2)在加深网络的情况下,相比较文献unsupervised representation learningwith deep convolutional generative adversarial networks中5*5核大小的卷积层,参数大大减少,节约了时间成本。
网络越深,学习的特征则越多,将判别网络的结构应用与桥梁裂缝的生成方向而言,即生成的裂缝越逼真。在所给现有文献unsupervised representation learning withdeep convolutional generative adversarial networks 的判别网络模型基础上,添加了卷积核为5*5大小的1024个特征映射图 (featuremap),生成的裂缝效果如图2c所示得到了明显的改善,但是经观察发现整个对抗网络在生成形状较为粗大、深色像素在图像中所占比例较大的裂缝图像时,有些失真。因此,在此改进的基础上再添加卷积核为 1*1大小的1024个特征映射图,既加深了网络的层数,又大大减少了增加网络深度带来的时间,同时使得上述失真问题得到了大幅度的改善。本发明采用上述添加了5*5卷积核大小的卷积层和核1*1卷积核大小的卷积层作为桥梁裂缝图像生成模型中的判别网络结构,并分别对改进前的深度卷积生成式对抗网络(如图2b)、添加5*5卷积核大小的卷积层(如图2c)、本发明判别子模型(如图2d)、本发明基础上再添加1*1卷积核大小的卷积层(如图2a)的模型在裂缝图像生成方向进行了对比。经实验,在文献基础上再添加1*1卷积核的卷积层生成效果没有得到明显的效果改善,而时间成本有所提高。
(3)添加批量归一化层:为了防止新增卷积层在网络的反向传播过程中造成的梯度消失或者梯度爆炸等问题,本发明在新增的第五层卷积层和第六层卷积层后都接入了批量归一化层,使得梯度可以传播到每一层,从一定程度上避免了训练失败的发生。
桥梁裂缝图像生成模型的生成子模型包括五层反卷积层,且每层卷积层均采用大小为5*5的卷积核。即本发明的生成子模型在文献unsupervised representationlearning with deep convolutional generative adversarial networks 的生成模型基础上去掉一层反卷积层。
(1)5个反卷积层:本发明采用了5层生成网络。经实验本发明中的生成网络的五个反卷积层结构得到的生成效果优于改进前的6个反卷积层结构效果,且防止了网络学习过程中出现过拟合现象,故选择5个反卷积层结构的生成网络模型。
(2)设置噪声向量维数:因为生成式对抗网络中的两个网络为相互影响相互牵制的关系,判别网络最终学习得到了16384维的全连接向量,生成网络采用不同的维数,增加了生成网络的灵活性,避免了生成网络对判别网络的过分依赖。本文经实验分别用100个16384维的噪声向量来模拟生成裂缝和100个本发明提出的32768维的噪声向量来模拟生成裂缝,并用文献unsupervised representation learning with deep convolutionalgenerative adversarial networks的深度卷积神经网络分别修复图像中具有部分像素丢失的残缺图像。实验结果表明,就生成效果来看,两种结构的生成网络最终生成的裂缝图像差别不是很大,但将整个网络应用与图像修复领域发现,本发明中给出的噪声向量维数具有更好的修复性能。情况如图所示,图3a 和图3d为结构相似的两张裂缝图片,图3b和图3e为生成子模型加深时的修复效果图,图3c和图3f为本发明修复效果图,对比发现生成子模型的泛化能力随着模型结构的复杂化变差。因此,本文分别对本发明的生成子模型(如图5c)、文献unsupervised representation learning with deep convolutionalgenerative adversarial networks中6个反卷积层的生成模型(如图5b)以及本发明的生成子模型加入1*1单卷积核后的6层生成子模型(如图5a)进行图像的生成和修复,经比较本文生的成模型具有更好的图像生成和修复效果,对比结果如图5a-5c所示,本发明的生成子模型的卷积层结构如图4 所示。
本发明的具体工作过程如下:
本发明具体的运行操作环境分为两部分:硬件部分和软件环境。(1)硬件部分:本发明的图像采集装置采用日本Panasonic公司的wv-BP330相机。计算机硬件采用Inter(R)Core(TM)i5-6600中央处理器,主频为3.31GHZ,主机内存为8G,硬盘大小为1024G。(2)软件环境:本发明的软件开发环境具体为:采用的操作系统为Ubuntu14.04,采用的深度学习框架为 tensorflow1.0,开发语言为shell语言,python2.7、C++以及matlab,采用的开源图像计算机视觉处理库为OpenCv2.4.9。
(1)利用图像采集设备采集不同背景纹理、不同材质且不含落叶等其他物体的桥梁裂缝图片,采集的图片总数为10235张,并且将所有的图片调整为128*128大小,将统一大小的图片进行90°、180°、270°的翻转,共得到30705张裂缝图片。
(2)设置真实图片的数据标签为1,生成器生成图片的数据标签为0,并设置整个文献unsupervised representation learning with deep convolutional generativeadversarial networks的深度卷积神经网络训练参数epoch=25, batchsize=64。
(3)将裂缝图片输入到本发明桥梁裂缝图像生成模型中的判别模型中进行特征的学习,并输出判别结果,0对应假,1对应真。
(4)构造值在[-1,1]区间内随机分布的100维随机向量Z,其中每一个随机向量的维度为32768。
(5)根据图片的数据标签与判别器输出结果做差,生成器依据计算得出的差值作为损失在进行反向回传,并采用adam优化算法对随机向量Z的分布进行调整。
(6)采用训练一次判别网络后训练两次生成网络的方法进行交叉训练。
(7)不断的重复步骤3)至步骤6),直至25个epoch后完成迭代,生成桥梁裂缝图像。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (3)

1.一种基于生成式对抗网络的桥梁裂缝图像生成模型,其特征在于:包括判别子模型和生成子模型,所述判别子模型采用六层卷积层,且顺次的第一至第五层卷积层每层卷积层均采用大小为5*5的卷积核,第六层卷积层采用大小为1*1的卷积核;
所述生成子模型包括五层反卷积层,且每层反卷积层均采用大小为5*5的卷积核。
2.根据权利要求1所述的一种基于生成式对抗网络的桥梁裂缝图像生成模型,其特征在于:所述判别子模型的第五层卷积层和第六层卷积层后分别接入一批量归一化层。
3.根据权利要求1或2所述的一种基于生成式对抗网络的桥梁裂缝图像生成模型,其特征在于:所述生成子模型的噪声向量维数为32768。
CN201810182146.0A 2018-03-06 2018-03-06 一种基于生成式对抗网络的桥梁裂缝图像生成模型 Expired - Fee Related CN108334941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810182146.0A CN108334941B (zh) 2018-03-06 2018-03-06 一种基于生成式对抗网络的桥梁裂缝图像生成模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810182146.0A CN108334941B (zh) 2018-03-06 2018-03-06 一种基于生成式对抗网络的桥梁裂缝图像生成模型

Publications (2)

Publication Number Publication Date
CN108334941A true CN108334941A (zh) 2018-07-27
CN108334941B CN108334941B (zh) 2022-09-09

Family

ID=62928872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810182146.0A Expired - Fee Related CN108334941B (zh) 2018-03-06 2018-03-06 一种基于生成式对抗网络的桥梁裂缝图像生成模型

Country Status (1)

Country Link
CN (1) CN108334941B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214422A (zh) * 2018-08-02 2019-01-15 深圳先进技术研究院 基于dcgan的停车数据修补方法、装置、设备及存储介质
CN109829856A (zh) * 2019-01-30 2019-05-31 西安电子科技大学 一种桥梁裂缝信息融合方法
WO2020024206A1 (zh) * 2018-08-02 2020-02-06 深圳先进技术研究院 基于dcgan的停车数据修补方法、装置、设备及存储介质
CN113592000A (zh) * 2021-08-03 2021-11-02 成都理工大学 基于卷积对抗神经网络的裂缝识别技术

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160055392A1 (en) * 2014-08-19 2016-02-25 International Business Machines Corporation Estimating degree of deterioration of road surface
CN106910185A (zh) * 2017-01-13 2017-06-30 陕西师范大学 一种基于cnn深度学习的dbcc分类模型及构建方法
CN106991666A (zh) * 2017-02-24 2017-07-28 中国科学院合肥物质科学研究院 一种适用于多尺寸图片信息的病害图像识别方法
CN107133960A (zh) * 2017-04-21 2017-09-05 武汉大学 基于深度卷积神经网络的图像裂缝分割方法
CN107358626A (zh) * 2017-07-17 2017-11-17 清华大学深圳研究生院 一种利用条件生成对抗网络计算视差的方法
CN107590774A (zh) * 2017-09-18 2018-01-16 北京邮电大学 一种基于生成对抗网络的车牌清晰化方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160055392A1 (en) * 2014-08-19 2016-02-25 International Business Machines Corporation Estimating degree of deterioration of road surface
CN106910185A (zh) * 2017-01-13 2017-06-30 陕西师范大学 一种基于cnn深度学习的dbcc分类模型及构建方法
CN106991666A (zh) * 2017-02-24 2017-07-28 中国科学院合肥物质科学研究院 一种适用于多尺寸图片信息的病害图像识别方法
CN107133960A (zh) * 2017-04-21 2017-09-05 武汉大学 基于深度卷积神经网络的图像裂缝分割方法
CN107358626A (zh) * 2017-07-17 2017-11-17 清华大学深圳研究生院 一种利用条件生成对抗网络计算视差的方法
CN107590774A (zh) * 2017-09-18 2018-01-16 北京邮电大学 一种基于生成对抗网络的车牌清晰化方法及装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ALEC RADFORD等: "UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS", 《ARXIV:1511.06434V2》 *
DOMINIC MONN: "Deep convolutional generative adversarial networks with TensorFlow", 《HTTPS://WWW.OREILLY.COM/CONTENT/DEEP-CONVOLUTIONAL-GENERATIVE-ADVERSARIAL-NETWORKS-WITH-TENSORFLOW/》 *
JIANDANJINXIN: "卷积神经网络中用1*1 卷积有什么作用或者好处呢?", 《HTTPS://WWW.JIANSHU.COM/P/04C2A9CCAA75》 *
刘洪公等: "基于卷积神经网络的桥梁裂缝检测与识别", 《河北科技大学学报》 *
莫凌飞等: "基于深度学习的视频预测研究综述", 《智能系统学报》 *
西方失败9527: "DCGAN深度卷积生成对抗神经网络", 《HTTPS://WWW.JIANSHU.COM/P/B6387A27616E》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214422A (zh) * 2018-08-02 2019-01-15 深圳先进技术研究院 基于dcgan的停车数据修补方法、装置、设备及存储介质
WO2020024206A1 (zh) * 2018-08-02 2020-02-06 深圳先进技术研究院 基于dcgan的停车数据修补方法、装置、设备及存储介质
CN109214422B (zh) * 2018-08-02 2020-05-22 深圳先进技术研究院 基于dcgan的停车数据修补方法、装置、设备及存储介质
CN109829856A (zh) * 2019-01-30 2019-05-31 西安电子科技大学 一种桥梁裂缝信息融合方法
CN109829856B (zh) * 2019-01-30 2022-09-20 西安电子科技大学 一种桥梁裂缝信息融合方法
CN113592000A (zh) * 2021-08-03 2021-11-02 成都理工大学 基于卷积对抗神经网络的裂缝识别技术

Also Published As

Publication number Publication date
CN108334941B (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
CN108334941A (zh) 一种基于生成式对抗网络的桥梁裂缝图像生成模型
CN109544555B (zh) 基于生成式对抗网络的细小裂缝分割方法
CN108492281A (zh) 一种基于生成式对抗网络的桥梁裂缝图像障碍物检测与去除的方法
Wu et al. Physical adversarial attack on vehicle detector in the carla simulator
CN109671071A (zh) 一种基于深度学习的地下管道缺陷定位及等级判定方法
CN108460760A (zh) 一种基于生成式对抗网络的桥梁裂缝图像判别修复方法
CN108305239A (zh) 一种基于生成式对抗网络的桥梁裂缝图像的修复方法
Ni et al. A Generative adversarial learning strategy for enhanced lightweight crack delineation networks
CN113409314A (zh) 高空钢结构腐蚀的无人机视觉检测与评价方法及系统
CN110197517A (zh) 基于多域循环一致性对抗生成网络的sar图像上色方法
CN110689495A (zh) 一种深度学习的图像修复方法
CN111368742B (zh) 基于视频分析的双黄交通标线的重建识别方法及系统
CN109087294A (zh) 一种产品缺陷检测方法、系统及计算机可读存储介质
Zou et al. Automatic segmentation, inpainting, and classification of defective patterns on ancient architecture using multiple deep learning algorithms
Li et al. A model for surface defect detection of industrial products based on attention augmentation
CN110276747B (zh) 一种基于图像分析的绝缘子故障检测和故障评级方法
CN111652243A (zh) 基于显著性融合的红外与可见光图像融合方法
Hsu et al. Object detection using structure-preserving wavelet pyramid reflection removal network
CN117173526A (zh) 一种自适应特征融合与轻量化YOLOv5s的绝缘子缺陷检测方法
CN113205502A (zh) 一种基于深度学习的绝缘子缺陷检测方法及其系统
CN107180427A (zh) 基于自回归局部图像描述的3d合成图像质量评价方法
CN113284232B (zh) 一种基于四叉树的光流跟踪方法
Zhang et al. Geometry-Aware Video Quality Assessment for Dynamic Digital Human
CN114359255A (zh) 一种基于改进Yolov5s的公路路面修补检测方法
Li et al. Quality assessment of polarization analysis images in foggy conditions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220909