CN108305239B - 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 - Google Patents
一种基于生成式对抗网络的桥梁裂缝图像的修复方法 Download PDFInfo
- Publication number
- CN108305239B CN108305239B CN201810182446.9A CN201810182446A CN108305239B CN 108305239 B CN108305239 B CN 108305239B CN 201810182446 A CN201810182446 A CN 201810182446A CN 108305239 B CN108305239 B CN 108305239B
- Authority
- CN
- China
- Prior art keywords
- image
- damaged
- damaged image
- mask
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 38
- 230000008439 repair process Effects 0.000 claims abstract description 37
- 230000002441 reversible effect Effects 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000008447 perception Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 4
- 239000010426 asphalt Substances 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于生成式对抗网络的桥梁裂缝图像的修复方法。
背景技术
随着交通运输业的发展,公路的养护工作变得十分的重要。桥梁作为当今社会交通枢纽的重要组成部分,不仅承担着运输重任还关系着运输人员的安危,但由于桥梁结构在长期使用中难免产生各种各样的损坏,造成桥梁结构抗力衰减和安全隐患,因此定期的检查和维护是必不可少的。裂缝是桥梁最常见的缺陷。桥梁裂缝产生的原因多种多样,主要是由于沥青路面的疲劳,同时还有不利的大气条件,可能导致材料收缩,或由于沥青混合物质量差或由于沥青混合料的弱点结构路面阻力。桥梁路面缺陷的检测是后续维护和修理的前提。为了进行桥梁裂缝的检测和修补,需要定期地拍摄桥梁缺陷图像。
近几年,在物体检测和识别方向上取得重要成果的深度学习也逐渐被用到了桥梁裂缝的检测中。要训练一个对各种形式的裂缝识别精度都很高的神经网络,前期需要大量的数据作为支撑。受桥梁周围环境及采集条件如光照、相机拍摄角度及分辨率等因素的影响,采集到的图像中有很多障碍物会影响到裂缝的检测,因而取材难度大大增加。因此对原图像去除遮挡物变得十分有意义。由于人工手动对图像中含障碍物的区域擦除后再进行图像缺失部分补全的方式效率低,因此研究采用计算机视觉的方式自动进行障碍物图像的补全具有重要的应用前景。使用深度卷积生成式对抗网络对受损部分呈大型区域型、离散型或噪声点型的图像进行修复对比传统的修复方法可以达到很好的修复效果。由RaymondYeh等人发表于2016的文章Semantic Image Inpainting with Per-ceptual andContextual Losses给出一种二进制掩膜,待修复图像的受损区域对应值为0,未受损区域对应值为1,在加掩膜后的生成样本G(z)中搜索,寻找到与待修复图像未受损区域最接近的生成图像进行补全。然而这种方法没有考虑到位置信息,默认待修复区域距离不同的像素对补全所做的贡献相同,这可能导致生成器只注意到距离修复区域远的像素信息,而忽略修复区域的边缘信息,造成修复的不连贯。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于生成式对抗网络的桥梁裂缝图像的修复方法,提高了修复时的补全图像边缘的连续性。本发明要解决的技术问题通过以下技术方案实现:一种基于生成式对抗网络的桥梁裂缝图像的修复方法,包括以下步骤:
步骤一、获取多张无障碍物的裂缝图像,通过多张无障碍物的裂缝图像对深度卷积对抗式生成网络进行训练;
获取多张含有障碍物的裂缝图像,并通过二进制掩膜M对含有障碍物的裂缝图像中的障碍物进行擦除,得到受损图像;
步骤二、随机向量Z通过已训练完成的深度卷积对抗式生成网络的生成器G生成多个随机的生成向量G(z),根据公式(1)计算所述生成向量G(z)各个向量的感知损失:
Lp=log(1-D(G(z))) (1)
其中D为判别器;
步骤三、将生成向量G(z)和所述受损图像均覆盖相同的距离加权修复掩膜Md,Md通过公式(2)计算得到:
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点;
步骤四、根据公式(4)计算所述覆盖距离加权修复掩膜Md后的生成向量G(z)各个向量的加权语义损失Ls:
Ls=||Md⊙(G(z)-x)||1 (4)
Md为距离加权修复掩膜,x为受损图像;
步骤五、根据公式(5)计算联合损失,联合损失最小的向量为最优补全向量;然后重复步骤二至步骤五,通过Adam优化算法不断迭代3000次后得到最终补全图;
L=λLp+μLs (5)
其中,L为联合损失,λ为感知参数,μ为语义参数;
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点。
与现有技术相比,本发明的有益效果:本发明的修复掩膜加入了距离权重。由于待修复区域边缘的像素对应权值更大,在图像修复过程中占更加重要的地位,及与待修复图像的像素分布存在差异时惩罚力度更大,因此当搜索到的补全图像与受损图像的像素分布差值(加权语义损失)为同一值时,待修复区域边缘的像素分布与最优向量的形态分布更加逼近受损图像,从而提高了补全图像边缘的连续性。
附图说明
图1是本发明含有障碍物的裂缝图片障碍物位置标定流程图。
图2是本发明和Raymond Yeh等人发表于2016的文章Semantic Image Inpaintingwith Per-ceptual and Contextual Losses的修复对比图;(1)为原图,(2)为受损图像,(3)为Semantic Image Inpainting with Per-ceptual and Contextual Losses掩膜修复效果图,(4)为本发明修复效果图。
图3是本发明的流程图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
在本发明创造的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明创造和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明创造的限制。
此外,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明创造的描述中,除非另有说明,“多个”的含义是两个或两个以上。
术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明创造中的具体含义。
本发明是基于由Raymond Yeh等人发表于2016的文章Semantic ImageInpainting with Per-ceptual and Contextual Losses中的深度卷积对抗式生成网络为基础进行的改进。
本实施例提供一种基于生成式对抗网络的桥梁裂缝图像的修复方法,包括以下步骤:
步骤一、获取多张无障碍物的裂缝图像,通过多张无障碍物的裂缝图像对深度卷积对抗式生成网络进行训练;
获取多张含有障碍物的裂缝图像,并通过二进制掩膜M对含有障碍物的裂缝图像中的障碍物进行擦除,得到受损图像。
步骤一的具体步骤为:
1.1通过图像采集装置采集多张障碍物图像后,将障碍物图像添加标签后输入Faster-RCNN中进行训练;
1.2另采集多张含有障碍物的裂缝图像,通过训练完成的Faster-RCNN对多张含有障碍物的裂缝图像进行障碍物位置标定,并记录单张含有障碍物的裂缝图片的识别率。
Faster-RCNN是目标识别中识别精度比较高的网络,本发明是在将裂缝图像中的障碍物进行擦除后对受损图像进行修补。当采集的裂缝图像中含有障碍物的图像占大多数,人为手动标记会造成大量的人力消耗。因此使用特定方法来执行障碍物位置的标定变得十分有意义。裂缝图像中的障碍物可以为落叶、石子、电线等,本实施例对落叶作为障碍物的情况进行说明。
考虑到障碍物不能识别标记矩形完全包含的情形,故设置特定阈值,对障碍物标记矩形框进行校准。障碍物位置标定的障碍物标记矩形框的校准阈值为:其中accuracy为Faster-RCNN的单张图片识别准确率,当T(θ)=1时,则获取障碍物标记矩形框顶点坐标,当T(θ)=0.5时,则对障碍物标记矩形框上下左右均向外扩展10个像素点,当T(θ)=0表示标定失败,则人工进行碍物标定。具体实现过程如图1所示。
1.3通过图像采集装置采集多张无障碍物的裂缝图片,通过将每张图片翻转后以扩增无障碍物的裂缝图片的数据集;
1.4将扩增后的无障碍物的裂缝图片输入深度卷积生成式对抗网络中进行生成模型的训练。
1.5依据识别率的大小确定标定位置是否准确或是否需要人为位置标定,含有障碍物的裂缝图片的障碍物所在位置采用二进制掩膜M进行信息擦除,得到受损图像。掩膜创建方法为根据标定的位置信息,创建对标定区域像素值置零,其余像素值置一的二进制掩膜。每张图片得到一个二进制掩膜和一个对标定区域像素值置一其余像素值置零的反向掩膜。
步骤二、通过已训练完成的深度卷积对抗式生成网络的生成器G生成多个随机的生成向量G(z),将所述生成向量G(z)输入已训练完成的深度卷积对抗式生成网络的判别器D,根据公式(1)计算所述生成向量G(z)各个向量的感知损失:
Lp=log(1-D(G(z))) (1)
其中D为判别器。
步骤三、将生成向量G(z)和受损图像均覆盖相同的距离加权修复掩膜Md,Md通过公式(2)计算得到:
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点。
步骤四、根据公式(4)计算所述覆盖距离加权修复掩膜Md后的生成向量G(z)各个向量的加权语义损失:
Ls=||Md⊙(G(z)-x)||1 (4)
MD为距离加权修复掩膜,x为受损图像;
步骤五、根据公式(5)计算联合损失,联合损失最小的向量为最优补全向量;然后重复步骤二至步骤五,通过Adam优化算法不断迭代3000次后得到最终补全图;
L=λLp+μLs (5)
其中,L为联合损失,λ为感知参数,μ为语义参数;
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点。
因此,本发明的修复掩膜加入了距离权重,提出了一种基于距离的距离加权修复掩膜MD,以及反向距离加权修复掩膜由于待修复区域边缘的像素对应权值更大,在图像修复过程中占更加重要的地位,及与待修复图像的像素分布存在差异时惩罚力度更大,因此当搜索到的补全图像与受损图像的像素分布差值(加权语义损失)为同一值时,待修复区域边缘的像素分布与最优向量的形态分布更加逼近受损图像,从而提高了了补全图像边缘的连续性。对比实验结果如图2所示。本发明的方法流程如图3所示。
本发明具体工作过程如下:
本发明具体的开发环境分为两部分:硬件部分和软件环境。(1)硬件部分:本发明的图像采集装置采用日本Panasonic公司的wv-BP330相机。计算机硬件采用Inter(R)Core(TM)i5-6600中央处理器,主频为3.31GHZ,主机内存为8G,硬盘大小为1024G。(2)软件环境:本发明的软件开发环境具体为:采用的操作系统为Ubuntu14.04,采用的深度学习框架为tensorflow1.0,开发语言为shell语言,python2.7、C++以及matlab,采用的开源图像计算机视觉处理库为OpenCv2.4.9。
(1)利用图像采集设备采集1059张形态不同的落叶图片,并对采集到的落叶图片加leaf类标签。
(2)将加好标签的落叶图片作为输入数据放入Faster-RCNN中进行训练。另采集100张含有落叶的裂缝图像,并送入训练好的Faster-RCNN网络中进行测试,将网络标记好的落叶位置和单张图片的识别率写入配置文件。
(3)利用图像采集设备采集不同背景纹理、不同材质且不含落叶等其他物体的桥梁裂缝图片,采集的图片总数为10235张,并且将所有的图片调整为128*128大小,将统一大小的图片进行90°、180°、270°的翻转,共得到30705张扩增裂缝图片。
(4)将扩增裂缝图片输入到文章Semantic Image Inpainting with Per-ceptualand Contextual Losses的深度卷积生成式对抗网络中,设置epoch=25,batchsize=64后开始深度卷积生成式对抗网络生成模型的训练。
(5)将采集到的100张含有落叶的裂缝图像从配置文件中读入落叶的位置信息以及对应的识别率,依据识别率的大小确定标定位置是否准确或是否需要人为位置标定,并确认最终标定的障碍物位置采用二进制掩膜进行信息擦除,并将擦除后的图片作为实验用到的受损图像。
(6)构造值在[-1,1]区间内随机分布的100维随机向量Z,并送入步骤4)中已经训练好的网络中,生成128*128*3大小的生成向量G(z)。
(7)随后将向量G(z)输入到判别器中判别真伪,并将判别损失记为感知损失回传。
(8)将生成向量G(z)的生成的图像以及擦除信息后的受损图像覆盖相同的距离加权修复掩膜,在区别是否需要修复的同时考虑到距离对修复效果的影响,待修复区域值置零,其他位置则采取类似近大远小的修复思想将受损图像中的有效像素点和到待修复区域中心的像素差值按照公式(2)进行计算,并将求出的当前像素点的影响因子写入受损图像对应的权值矩阵,图像矩阵与其对应的权值矩阵实施点乘操作,获得点乘结果即完成了距离加权掩膜修复操作(相同的覆盖与受损图像相同的掩膜)。
(9)将生成图像对应的点乘矩阵分别和受损图像对应的点乘矩阵做减法,将差值的绝对值记为加权语义损失回传。
(10)根据公式(5)计算各个向量的联合损失,联合损失最小的向量为最优补全向量;
(11)然后重复步骤(7)至步骤(10),通过Adam优化算法不断迭代3000次后得到最终补全图;
(12)对最终补全图覆盖反向距离加权修复掩膜,掩膜结构如公式(3)所示,覆盖方法如步骤(8),与受损图像拼接完成修复操作。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (1)
1.一种基于生成式对抗网络的桥梁裂缝图像的修复方法,其特征在于:包括以下步骤:
步骤一、获取多张无障碍物的裂缝图像,通过多张无障碍物的裂缝图像对深度卷积对抗式生成网络进行训练;
获取多张含有障碍物的裂缝图像,并通过二进制掩膜M对含有障碍物的裂缝图像中的障碍物进行擦除,得到受损图像;
步骤二、随机向量Z通过已训练完成的深度卷积对抗式生成网络的生成器G生成多个随机的生成向量G(z),根据公式(1)计算所述生成向量G(z)各个向量的感知损失:
Lp=log(1-D(G(z))) (1)
其中D为判别器;
步骤三、将生成向量G(z)和所述受损图像均覆盖相同的距离加权修复掩膜Md,Md通过公式(2)计算得到:
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点;
步骤四、根据公式(4)计算所述覆盖距离加权修复掩膜Md后的生成向量G(z)各个向量的加权语义损失Ls:
Ls=||Md⊙(G(z)-x)||1 (4)
Md为距离加权修复掩膜,x为受损图像;
步骤五、根据公式(5)计算联合损失,联合损失最小的向量为最优补全向量;然后重复步骤二至步骤五,通过Adam优化算法不断迭代3000次后得到最终补全图;
L=λLp+μLs (5)
其中,L为联合损失,λ为感知参数,μ为语义参数;
其中,x为受损图像,i表示受损图像矩阵对应行,j表示受损图像矩阵对应列,点p表示受损图像受损区域的中心点位置,xij为受损图像当前像素点位置,Mij为二进制掩膜M矩阵内位置为(i,j)的对应点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810182446.9A CN108305239B (zh) | 2018-03-06 | 2018-03-06 | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810182446.9A CN108305239B (zh) | 2018-03-06 | 2018-03-06 | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108305239A CN108305239A (zh) | 2018-07-20 |
CN108305239B true CN108305239B (zh) | 2020-08-11 |
Family
ID=62849194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810182446.9A Active CN108305239B (zh) | 2018-03-06 | 2018-03-06 | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108305239B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109131348B (zh) * | 2018-07-24 | 2020-02-18 | 大连理工大学 | 一种基于生成式对抗网络的智能车驾驶决策方法 |
CN109360159A (zh) * | 2018-09-07 | 2019-02-19 | 华南理工大学 | 一种基于生成对抗网络模型的图像补全方法 |
CN109410123B (zh) * | 2018-10-15 | 2023-08-18 | 深圳市能信安科技股份有限公司 | 基于深度学习的去除马赛克的方法、装置及电子设备 |
CN109544555B (zh) * | 2018-11-26 | 2021-09-03 | 陕西师范大学 | 基于生成式对抗网络的细小裂缝分割方法 |
CN109727209B (zh) * | 2018-12-13 | 2021-03-02 | 北京爱奇艺科技有限公司 | 一种确定残缺文物完整图像的方法及装置 |
CN110827213B (zh) * | 2019-10-11 | 2023-03-31 | 西安工程大学 | 一种基于生成式对抗网络的超分辨率图像修复方法 |
CN111724327A (zh) * | 2020-06-29 | 2020-09-29 | 成都数之联科技有限公司 | 图像修复模型训练方法及系统及图像修复方法 |
CN112488942A (zh) * | 2020-12-02 | 2021-03-12 | 北京字跳网络技术有限公司 | 修复图像的方法、装置、设备和计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN106910186A (zh) * | 2017-01-13 | 2017-06-30 | 陕西师范大学 | 一种基于cnn深度学习的桥梁裂缝检测定位方法 |
CN106934795A (zh) * | 2017-01-23 | 2017-07-07 | 陕西师范大学 | 一种混凝土桥梁裂缝的自动检测方法和预测方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN107423701A (zh) * | 2017-07-17 | 2017-12-01 | 北京智慧眼科技股份有限公司 | 基于生成式对抗网络的人脸非监督特征学习方法及装置 |
-
2018
- 2018-03-06 CN CN201810182446.9A patent/CN108305239B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106910186A (zh) * | 2017-01-13 | 2017-06-30 | 陕西师范大学 | 一种基于cnn深度学习的桥梁裂缝检测定位方法 |
CN106934795A (zh) * | 2017-01-23 | 2017-07-07 | 陕西师范大学 | 一种混凝土桥梁裂缝的自动检测方法和预测方法 |
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN107423701A (zh) * | 2017-07-17 | 2017-12-01 | 北京智慧眼科技股份有限公司 | 基于生成式对抗网络的人脸非监督特征学习方法及装置 |
Non-Patent Citations (4)
Title |
---|
Context Encoders: Feature Learning by Inpainting;Deepak Pathak等;《2016 IEEE Conference on Computer Vision and Pattern Recognition》;20161231;第2536-2544页 * |
Deep Structured Energy-Based Image Inpainting;Fazil Altinel等;《arXiv》;20180124;第1-6页 * |
Semantic Image Inpainting with Deep Generative Models;Raymond A.Yeh等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20170713;第6882-6890页 * |
Semantic Image Inpainting with Perceptual and Contextual Losses;Raymond Yeh等;《arXiv》;20160726;第1-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108305239A (zh) | 2018-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108305239B (zh) | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 | |
CN108492281B (zh) | 一种基于生成式对抗网络的桥梁裂缝图像障碍物检测与去除的方法 | |
CN108460760B (zh) | 一种基于生成式对抗网络的桥梁裂缝图像判别修复方法 | |
CN110378879B (zh) | 一种桥梁裂缝检测方法 | |
US11615519B2 (en) | Method and apparatus for identifying concrete crack based on video semantic segmentation technology | |
CN107543828B (zh) | 一种工件表面缺陷检测方法及系统 | |
CN108230344B (zh) | 一种隧道渗漏水病害自动识别方法 | |
Li et al. | Long-distance precision inspection method for bridge cracks with image processing | |
CN109948684B (zh) | 激光雷达点云数据标注质量的质检方法、装置及设备 | |
CN107239742B (zh) | 一种仪表指针刻度值计算方法 | |
CN110008947B (zh) | 一种基于卷积神经网络的粮仓粮食数量监测方法及装置 | |
CN105427324B (zh) | 基于二值化阈值自动搜索的磁光成像缺陷检测方法 | |
CN104700395A (zh) | 一种构造物外观裂缝检测方法及系统 | |
CN114089330B (zh) | 一种基于深度图像修复的室内移动机器人玻璃检测与地图更新方法 | |
CN111080631A (zh) | 一种拼接影像楼面缺陷检测的故障定位方法及系统 | |
CN111046950A (zh) | 一种图像处理方法、装置、存储介质和电子装置 | |
CN113850749A (zh) | 训练缺陷侦测器的方法 | |
CN107808524A (zh) | 一种基于无人机的道路交叉口车辆检测方法 | |
Ioli et al. | UAV photogrammetry for metric evaluation of concrete bridge cracks | |
CN115937518A (zh) | 一种基于多源图像融合的路面病害识别方法及系统 | |
Lang et al. | Pavement cracking detection and classification based on 3d image using multiscale clustering model | |
CN115457044B (zh) | 基于类激活映射的路面裂缝分割方法 | |
CN116958837A (zh) | 基于无人机的市政设施故障检测系统 | |
CN113920140B (zh) | 一种基于深度学习的铁路货车管盖脱落故障识别方法 | |
CN114384073B (zh) | 一种地铁隧道裂纹检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |