CN111223087B - 一种基于生成对抗网络的桥梁裂缝自动检测方法 - Google Patents

一种基于生成对抗网络的桥梁裂缝自动检测方法 Download PDF

Info

Publication number
CN111223087B
CN111223087B CN202010044919.6A CN202010044919A CN111223087B CN 111223087 B CN111223087 B CN 111223087B CN 202010044919 A CN202010044919 A CN 202010044919A CN 111223087 B CN111223087 B CN 111223087B
Authority
CN
China
Prior art keywords
network
training
discrimination
layer
countermeasure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010044919.6A
Other languages
English (en)
Other versions
CN111223087A (zh
Inventor
张建
何至立
倪富陶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010044919.6A priority Critical patent/CN111223087B/zh
Publication of CN111223087A publication Critical patent/CN111223087A/zh
Application granted granted Critical
Publication of CN111223087B publication Critical patent/CN111223087B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的桥梁裂缝自动检测方法。本发明的方法包括:步骤一:搭建基于生成对抗网络的卷积神经网络框架:步骤二:搭建数据库,采集桥梁裂缝信息,形成数据集;步骤三:基于全体数据集对分支网络进行预训练,同时保留每个训练批次的训练模型;步骤四:对步骤三的训练模型中选择效果最好的训练模型,将该效果最好的训练模型权重复原到整体网络的对应网络中;然后将全体数据集一分为二,开始对抗训练,每轮对抗训练中分支网络和判别网络2交替各训练1次,并交替更新分支网络和判别网络2的参数,使得判别网路1和判别网络2的损失函数最小化,更新网络权重。本发明具有网络参数少、处理速度快和识别精度高的优点。

Description

一种基于生成对抗网络的桥梁裂缝自动检测方法
技术领域:
本发明涉及一种基于生成对抗网络的桥梁裂缝自动检测方法,属于结构健康监测与图像处理领域。
背景技术:
桥梁结构在服役期限内,由于其使用环境的影响,性能不断退化,降低其使用寿命。近年来,仍在使用年限内的桥梁发生倒塌的事故屡见不鲜。桥梁结构的规律性健康监测和养护对于延迟桥梁使用寿命,保证桥梁安全性至关重要。裂缝是反映结构安全性和耐久性的重要特征,也是桥梁安全检测中的重要一环。根据表观裂缝的形态可以给结构整体安全性评估提供指导。传统的裂缝检测方法主要是基于人工拍照检测,这种检测方式费时费力,效率低下,同时检测盲区较大,人力成本较高。因此,桥梁结构裂缝的快速自动检测具有重大的工程需求和广阔的前景。
随着深度学习技术的发展,其在计算机视觉领域得到了广泛的应用。越来越多的专家学者也将深度学习技术引到土木工程结构检测领域当中。有很多专家学者都提出使用卷积神经网络来检测裂缝,在实验室环境下也得到了较好的测试结果,但是距离实际工程落地还有很长的路。究其根本原因,一方面是模型体量较大,难以实现实时检测,未考虑到自动检测设备的机载计算机的算力的局限性,难以有机结合;另一方面,所提模型的鲁棒性和泛化能力较差,特别是对于图像中的细微模糊裂缝,检测能力有限。因此,具备轻量化的、高检测精度和较好的泛化能力特点的模型,才能满足工程应用的需要。目前来看,这种模型由于构建难度较大,还有待进一步的研究。
发明内容
本发明的目的是提供一种基于生成对抗网络的桥梁裂缝自动检测方法,在保证检测精度的同时,兼顾检测速度。同时,具有较好的泛化能力以及工程适用性。
上述的目的通过以下技术方案实现:
一种基于生成对抗网络的桥梁裂缝自动检测方法,该方法包括如下步骤:
步骤一:搭建基于生成对抗网络的卷积神经网络框架:所述卷积神经网络框架由生成网络1、判别网络1和判别网络2组成,将生成网络1和判别网络1合称为“分支网络”,将生成网络1、判别网络1和判别网络2这三个子网络统称为“整体网络”,其中,生成网络1 用于提取图像特征,判别网络1用于预测裂缝,判别网络2用于增强判别网络1对裂缝的检测效果;
步骤二:搭建数据库,采集桥梁裂缝信息,形成数据集;
步骤三:基于全体数据集对分支网络进行预训练,同时保留每个训练批次的训练模型;
步骤四:对步骤三的训练模型中选择效果最好的训练模型,将该效果最好的训练模型权重复原到整体网络的对应网络中,即三个子网络中,其中判别网络2模型的参数进行随机初始化;然后将全体数据集一分为二,开始对抗训练,每轮对抗训练中分支网络和判别网络2 交替各训练1次,并交替更新分支网络和判别网络2的参数,使得判别网路1和判别网络2 的损失函数最小化,更新网络权重。
进一步地,步骤一中所述的卷积神经网络框架中,生成网络1为一种编码-解码网络,包括密集连接块、下采样层和上采样层三个个基本组成模块;所述密集连接块由多层卷积经过多次连接组成;所述下采样层由卷积层和最大池化层组成,每通过一次下采样,张量的x和 y维度均缩小1倍;所述上采样层由转置卷积构成,每通过一次上采样,张量的x和y维度均扩大1倍;所述卷积神经网络框架中,密集连接块有4个,层数分别为4、4、5和5层,所述下采样层和上采样层各有3个;所述判别网络1输出深度为1的张量,为模型预测结果;所述判别网络2输出为预测裂缝结果和真值在经过判别网络2映射后的差异。
进一步地,步骤一中所述的卷积神经网络框架中,生成网络1:每一个密集连接块中,张量通过每一个卷积层之前,都会先进行批标准操作和线性激活处理;每一个下采样层,张量都会经过批标准化→线性激活→卷积层→dropout操作→最大池化层;
判别网络1:张量的基本操作为:批标准化→线性激活→卷积层;
判别网络2:张量的基本操作为:批标准化→Leakyrelu函数→卷积层,最后为全连接层;
批标准化层的使得每层的神经网络的神经元输入值分布满足标准正态分布,其基本公式如下所示:
Figure BDA0002367633680000021
Figure BDA0002367633680000022
Figure BDA0002367633680000023
Figure BDA0002367633680000024
式中:xi表示输入数据,μB表示均值,σB表示标准差,
Figure BDA0002367633680000025
为符合标准正态分布的结果,γ和β为可学习重构参数。
线性激活公式如下所示:
Figure BDA0002367633680000031
LeakyRelu是线性激活的一种变式,可以避免在x<0时,不能学习的情况,其公式如下,α通常为非常小的正数,网络中取α=0.2:
f(x)=max(αx,x)
Dropout操作是指训练过程中,随机将一部分神经网络单元暂时从网络中丢弃,削弱神经元节点之间的联合适应性,防止过拟合,网络中,神经元暂时丢弃的比例为20%。
进一步地,步骤二中所述采集桥梁裂缝信息,形成数据集的过程中,首先对采样图像进行x和y方向的平移裁剪图像增强数据集,然后对50%的训练和测试图像进行均值滤波模糊处理,均值滤波的卷积核尺寸为4×4,下式中M(xa+i,yb+j)表示(xa+i,yb+j)处的滤波前的像素值,M1(xa,yb)表示(xa,yb)处的滤波后的像素值,F(i,j)则表示卷积核系数:
Figure BDA0002367633680000032
进一步地,步骤三中所述预训练阶段,判别网络1通过交叉熵损失函数来衡量网络预测结果在统计意义上的精度,首先通过sigmoid非线性激活函数,将变量映射到(0,1)区间内, Sigmoid激活函数如下所示:
Figure BDA0002367633680000033
交叉熵损失函数表示如下:
Figure BDA0002367633680000034
其中,qt表示样本的真实标签,
Figure BDA0002367633680000035
表示判别网络1的预测结果。
进一步地,步骤四中所述对抗训练阶段,判别网络2通过生成器的损失函数来衡量预测结果和真实结果在网络映射下的差异,使得二者在形态上更加接近,从而达到增加判别网络 1预测结果的,判别器损失函数如下:
Figure BDA0002367633680000036
其中,D2(x)表示判别器,G(z)表示判别网络1的预测结果,G(z)=D1(G1(z)),a=1,b=0;
生成器的损失函数如下:
Figure BDA0002367633680000041
Figure BDA0002367633680000042
其中,c=1,λ也取为1,W为图片宽度,H为图像高度。其他参数的定义和取值与之前相同,因为对抗网络有判别器的存在,因此与原始网络相比,额外考虑了生成样本与标签之间的相似性,因此,具有更高的检测精度。
与现有技术相比,本发明具有下列技术效果:
1.本发明与传统语义分割模型相比,具有网络参数少、处理速度快和识别精度高的优点。对于模糊图片、细裂缝图片以及复杂背景图片均有较高的检测精度。还可以与无人机等自动化检测设备有机结合,进行结构裂缝的实时拍摄、处理和传输。
2.本发明的模型还可以与无人机等自动化检测设备有机结合,进行结构裂缝的实时拍摄、处理和传输。提高裂缝特别是模糊裂缝的检测效果,意味着可以有效的增大检测的视场,提高检测效率,可以有效减少检测盲区、降低检测过程中的操作难度和危险性,在提高检测效率的同时可以节省大量人力成本。本发明所提方法具有广阔的工程应用前景。
附图说明
图1本发明的整体框架示意图;
图2本发明的分支网络示意图;
图3本发明的判别网络2示意图;
图4本发明的框架细节表;
图5模糊前后图片示意图;
图6本发明的框架与FCN网络评价指标对比表;
图7本发明的框架与FCN网络测试结果对比表。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
一种基于生成对抗网络的桥梁裂缝自动检测方法,该方法包括如下步骤:
步骤一:搭建基于生成对抗网络的卷积神经网络框架:所述卷积神经网络框架由生成网络1、判别网络1和判别网络2组成,将生成网络1和判别网络1合称为“分支网络”,将生成网络1、判别网络1和判别网络2这三个子网络统称为“整体网络”,其中,生成网络1 用于提取图像特征,判别网络1用于预测裂缝,判别网络2用于增强判别网络1对裂缝的检测效果;
步骤二:搭建数据库,采集桥梁裂缝信息,形成数据集;
步骤三:基于全体数据集对分支网络进行预训练,同时保留每个训练批次的训练模型;
步骤四:对步骤三的训练模型中选择效果最好的训练模型,将该效果最好的训练模型权重复原到整体网络的对应网络中,即三个子网络中,其中判别网络2模型的参数进行随机初始化;然后将全体数据集一分为二,开始对抗训练,每轮对抗训练中分支网络和判别网络2 交替各训练1次,并交替更新分支网络和判别网络2的参数,使得判别网路1和判别网络2 的损失函数最小化,更新网络权重。
进一步地,步骤一中所述的卷积神经网络框架中,生成网络1为一种编码-解码网络,包括密集连接块、下采样层和上采样层三个个基本组成模块;所述密集连接块由多层卷积经过多次连接组成;所述下采样层由卷积层和最大池化层组成,每通过一次下采样,张量的x和 y维度均缩小1倍;所述上采样层由转置卷积构成,每通过一次上采样,张量的x和y维度均扩大1倍;所述卷积神经网络框架中,密集连接块有4个,层数分别为4、4、5和5层,所述下采样层和上采样层各有3个;所述判别网络1输出深度为1的张量,为模型预测结果;所述判别网络2输出为预测裂缝结果和真值在经过判别网络2映射后的差异。
进一步地,步骤一中所述的卷积神经网络框架中,生成网络1:每一个密集连接块中,张量通过每一个卷积层之前,都会先进行批标准操作和线性激活处理;每一个下采样层,张量都会经过批标准化→线性激活→卷积层→dropout操作→最大池化层;
判别网络1:张量的基本操作为:批标准化→线性激活→卷积层;
判别网络2:张量的基本操作为:批标准化→Leakyrelu函数→卷积层,最后为全连接层;
批标准化层的使得每层的神经网络的神经元输入值分布满足标准正态分布,其基本公式如下所示:
Figure BDA0002367633680000051
Figure BDA0002367633680000052
Figure BDA0002367633680000053
Figure BDA0002367633680000054
式中:xi表示输入数据,μB表示均值,σB表示标准差,
Figure BDA0002367633680000055
为符合标准正态分布的结果,γ和β为可学习重构参数。
线性激活公式如下所示:
Figure BDA0002367633680000056
LeakyRelu函数是线性激活的一种变式,可以避免在x<0时,不能学习的情况,其公式如下,α通常为非常小的正数,本发明的网络中取α=0.2:
f(x)=max(αx,x)
Dropout操作是指训练过程中,随机将一部分神经网络单元暂时从网络中丢弃,削弱神经元节点之间的联合适应性,防止过拟合,网络中,神经元暂时丢弃的比例为20%。
进一步地,步骤二中所述采集桥梁裂缝信息,形成数据集的过程中,首先对采样图像进行x 和y方向的平移裁剪图像增强数据集,然后对50%的训练和测试图像进行均值滤波模糊处理,均值滤波的卷积核尺寸为4×4,下式中M(xa+i,yb+j)表示(xa+i,yb+j)处的滤波前的像素值, M1(xa,yb)表示(xa,yb)处的滤波后的像素值,F(i,j)则表示卷积核系数:
Figure BDA0002367633680000061
进一步地,步骤三中所述预训练阶段,判别网络1通过交叉熵损失函数来衡量网络预测结果在统计意义上的精度,首先通过sigmoid非线性激活函数,将变量映射到(0,1)区间内, Sigmoid激活函数如下所示:
Figure BDA0002367633680000062
交叉熵损失函数表示如下:
Figure BDA0002367633680000063
其中,qt表示样本的真实标签,
Figure BDA0002367633680000064
表示判别网络1的预测结果。
进一步地,步骤四中所述对抗训练阶段,判别网络2通过生成器的损失函数来衡量预测结果和真实结果在网络映射下的差异,使得二者在形态上更加接近,从而达到增加判别网络 1预测结果的,判别器损失函数如下:
Figure BDA0002367633680000065
其中,D2(x)表示判别器,G(z)表示判别网络1的预测结果,G(z)=D1(G1(z)),a=1,b=0;
生成器的损失函数如下:
Figure BDA0002367633680000066
Figure BDA0002367633680000067
其中,c=1,λ也取为1,W为图片宽度,H为图像高度。其他参数的定义和取值与之前相同,因为对抗网络有判别器的存在,因此与原始网络相比,额外考虑了生成样本与标签之间的相似性,因此,具有更高的检测精度。
实施例1
采集桥梁裂缝图像,采用图片水平变换和模糊图像的混合增强方法得到尺寸为128×96 像素的桥梁结构表面裂缝数据共7500张,其中训练图片有6000张,测试图片有1500张。图片均值滤波前后的对比图如附图5所示。基于我们的模型和广泛使用的FCN-VGG-19模型,分别进行训练和测试。
语义分割场景中,要对模型综合评价,广泛使用通过F_measure来评价模型。首先逐像素点计算每张测试结果的TP(True Positives),FN(False Negatives)and FP(FalsePositives),然后计算1500张测试结果平均的TP,FN and FP。然后根据这三个参数计算出Precision and Recall,根据Precision and Recall计算出F_measure,以评估每一个卷积神经网络模型的性能。 F_measure与模型的识别效果正相关。相关计算公式如下。
Figure BDA0002367633680000071
Figure BDA0002367633680000072
Figure BDA0002367633680000073
两个模型参数对比结果如附图6所示,显然,本发明的模型在参数的得分上和用时上均优于传统的FCN-VGG-19语义分割网络。
两个模型的测试结果对比如附图7所示。可以看到,本发明模型对模糊图片、复杂背景图片和粗细不同的裂缝图片都有非常好的检测效果。效果全方位优于传统的FCN网络。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,该方法包括如下步骤:
步骤一:搭建基于生成对抗网络的卷积神经网络框架:所述卷积神经网络框架由生成网络1、判别网络1和判别网络2组成,将生成网络1和判别网络1合称为“分支网络”,将生成网络1、判别网络1和判别网络2这三个子网络统称为整体网络,其中,生成网络1用于提取图像特征,判别网络1用于预测裂缝,判别网络2用于增强判别网络1对裂缝的检测效果;
步骤二:搭建数据库,采集桥梁裂缝信息,形成数据集;
步骤三:基于全体数据集对分支网络进行预训练,同时保留每个训练批次的训练模型;
步骤四:对步骤三的训练模型中选择效果最好的训练模型,将该效果最好的训练模型权重复原到整体网络的对应网络中,即三个子网络中,其中判别网络2模型的参数进行随机初始化;然后将全体数据集一分为二,开始对抗训练,每轮对抗训练中分支网络和判别网络2交替各训练1次,并交替更新分支网络和判别网络2的参数,使得判别网路1和判别网络2的损失函数最小化,更新网络权重。
2.根据权利要求1所述的基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,步骤一中所述的卷积神经网络框架中,生成网络1为一种编码-解码网络,包括密集连接块、下采样层和上采样层三个个基本组成模块;所述密集连接块由多层卷积经过多次连接组成;所述下采样层由卷积层和最大池化层组成,每通过一次下采样,张量的x和y维度均缩小1倍;所述上采样层由转置卷积构成,每通过一次上采样,张量的x和y维度均扩大1倍;所述卷积神经网络框架中,密集连接块有4个,层数分别为4、4、5和5层,所述下采样层和上采样层各有3个;所述判别网络1输出深度为1的张量,为模型预测结果;所述判别网络2输出为预测裂缝结果和真值在经过判别网络2映射后的差异。
3.根据权利要求2所述的基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,步骤一中所述的卷积神经网络框架中,生成网络1:每一个密集连接块中,张量通过每一个卷积层之前,都会先进行批标准操作和线性激活处理;每一个下采样层,张量都会经过批标准化→线性激活→卷积层→dropout操作→最大池化层;
判别网络1:张量的基本操作为:批标准化→线性激活→卷积层;
判别网络2:张量的基本操作为:批标准化→Leakyrelu函数→卷积层,最后为全连接层;
批标准化层的使得每层的神经网络的神经元输入值分布满足标准正态分布,其基本公式如下所示:
Figure FDA0002367633670000021
Figure FDA0002367633670000022
Figure FDA0002367633670000023
Figure FDA0002367633670000024
式中:xi表示输入数据,μB表示均值,σB表示标准差,
Figure FDA0002367633670000025
为符合标准正态分布的结果,γ和β为可学习重构参数,
线性激活公式如下所示:
Figure FDA0002367633670000026
LeakyRelu函数是线性激活的一种变式,用于避免在x<0时,不能学习的情况,其公式如下,α通常为非常小的正数,网络中取α=0.2:
f(x)=max(αx,x)
Dropout操作是指训练过程中,随机将一部分神经网络单元暂时从网络中丢弃,削弱神经元节点之间的联合适应性,防止过拟合,网络中,神经元暂时丢弃的比例为20%。
4.根据权利要求1所述的基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,步骤二中所述采集桥梁裂缝信息,形成数据集的过程中,首先对采样图像进行x和y方向的平移裁剪图像增强数据集,然后对50%的训练和测试图像进行均值滤波模糊处理,均值滤波的卷积核尺寸为4×4,下式中M(xa+i,yb+j)表示(xa+i,yb+j)处的滤波前的像素值,M1(xa,yb)表示(xa,yb)处的滤波后的像素值,F(i,j)则表示卷积核系数:
Figure FDA0002367633670000027
5.根据权利要求1所述的基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,步骤三中所述预训练阶段,判别网络1通过交叉熵损失函数来衡量网络预测结果在统计意义上的精度,首先通过sigmoid非线性激活函数,将变量映射到(0,1)区间内,Sigmoid激活函数如下所示:
Figure FDA0002367633670000028
交叉熵损失函数表示如下:
Figure FDA0002367633670000031
其中,qt表示样本的真实标签,
Figure FDA0002367633670000032
表示判别网络1的预测结果。
6.根据权利要求1所述的基于生成对抗网络的桥梁裂缝自动检测方法,其特征在于,步骤四中所述对抗训练阶段,判别网络2通过生成器的损失函数来衡量预测结果和真实结果在网络映射下的差异,使得二者在形态上更加接近,从而达到增加判别网络1预测结果的,判别器损失函数如下:
Figure FDA0002367633670000033
其中,D2(x)表示判别器,G(z)表示判别网络1的预测结果,G(z)=D1(G1(z)),a=1,b=0;
生成器的损失函数如下:
Figure FDA0002367633670000034
Figure FDA0002367633670000035
其中,c=1,λ也取为1,W为图像宽度,H为图像高度,其他参数的定义和取值与之前相同。
CN202010044919.6A 2020-01-15 2020-01-15 一种基于生成对抗网络的桥梁裂缝自动检测方法 Active CN111223087B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010044919.6A CN111223087B (zh) 2020-01-15 2020-01-15 一种基于生成对抗网络的桥梁裂缝自动检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010044919.6A CN111223087B (zh) 2020-01-15 2020-01-15 一种基于生成对抗网络的桥梁裂缝自动检测方法

Publications (2)

Publication Number Publication Date
CN111223087A CN111223087A (zh) 2020-06-02
CN111223087B true CN111223087B (zh) 2022-11-15

Family

ID=70826090

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010044919.6A Active CN111223087B (zh) 2020-01-15 2020-01-15 一种基于生成对抗网络的桥梁裂缝自动检测方法

Country Status (1)

Country Link
CN (1) CN111223087B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436169B (zh) * 2021-06-25 2023-12-19 东北大学 一种基于半监督语义分割的工业设备表面裂纹检测方法及系统
CN114657513B (zh) * 2022-05-23 2022-09-20 河南银金达新材料股份有限公司 一种抗菌再生聚酯膜的制备方法
CN117274817B (zh) * 2023-11-15 2024-03-12 深圳大学 裂缝自动化识别方法、装置、终端设备及存储介质
CN117436350B (zh) * 2023-12-18 2024-03-08 中国石油大学(华东) 基于深度卷积生成对抗网络的压裂水平井压力预测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108711138A (zh) * 2018-06-06 2018-10-26 北京印刷学院 一种基于生成对抗网络的灰度图片彩色化方法
CN108765319A (zh) * 2018-05-09 2018-11-06 大连理工大学 一种基于生成对抗网络的图像去噪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765319A (zh) * 2018-05-09 2018-11-06 大连理工大学 一种基于生成对抗网络的图像去噪方法
CN108711138A (zh) * 2018-06-06 2018-10-26 北京印刷学院 一种基于生成对抗网络的灰度图片彩色化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多尺寸卷积与残差单元的快速收敛GAN胸部X射线图像数据增强;于贺等;《信号处理》;20191225(第12期);全文 *

Also Published As

Publication number Publication date
CN111223087A (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN111223087B (zh) 一种基于生成对抗网络的桥梁裂缝自动检测方法
CN108647655B (zh) 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法
CN113436169B (zh) 一种基于半监督语义分割的工业设备表面裂纹检测方法及系统
CN112733950A (zh) 一种基于图像融合与目标检测结合的电力设备故障诊断方法
Li et al. Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing
CN116485717B (zh) 一种基于像素级深度学习的混凝土坝表面裂缝检测方法
CN111161224A (zh) 基于深度学习的铸件内部缺陷分级评估系统及方法
Savino et al. Automated classification of civil structure defects based on convolutional neural network
CN115937774A (zh) 一种基于特征融合和语义交互的安检违禁品检测方法
CN116152678A (zh) 小样本条件下基于孪生神经网络的海洋承灾体识别方法
Xu et al. Vision-based multi-level synthetical evaluation of seismic damage for RC structural components: a multi-task learning approach
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
CN114998251A (zh) 一种基于联邦学习的空中多视觉平台地面异常检测方法
CN115147439A (zh) 基于深度学习与注意力机制的混凝土裂缝分割方法及系统
CN115170816A (zh) 多尺度特征提取系统、方法和风机桨叶缺陷检测方法
CN111160100A (zh) 一种基于样本生成的轻量级深度模型航拍车辆检测方法
CN114332075A (zh) 基于轻量化深度学习模型的结构缺陷快速识别与分类方法
CN112837281B (zh) 基于级联卷积神经网络的销钉缺陷识别方法、装置和设备
CN112132839B (zh) 一种基于深度卷积级联网络的多尺度快速人脸分割方法
Meng et al. A modified fully convolutional network for crack damage identification compared with conventional methods
CN116519710A (zh) 一种用于复合绝缘子表面污秽状态的检测方法及系统
CN115880660A (zh) 一种基于结构表征和全局注意力机制的轨道线检测方法和系统
CN115527118A (zh) 一种融合注意力机制的遥感图像目标检测方法
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法
Li et al. Multi-scale Feature Extraction and Fusion Net: Research on UAVs Image Semantic Segmentation Technology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant