CN107133960A - 基于深度卷积神经网络的图像裂缝分割方法 - Google Patents
基于深度卷积神经网络的图像裂缝分割方法 Download PDFInfo
- Publication number
- CN107133960A CN107133960A CN201710267789.0A CN201710267789A CN107133960A CN 107133960 A CN107133960 A CN 107133960A CN 201710267789 A CN201710267789 A CN 201710267789A CN 107133960 A CN107133960 A CN 107133960A
- Authority
- CN
- China
- Prior art keywords
- layer
- convolutional
- convolutional layer
- batch
- mrow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度卷积神经网络的图像裂缝分割方法,包括:将原始图像输入深层卷积神经网络,经卷积、池化和激活层学习特征,获得特征图;对特征图进行上采样得到与原始图像大小相同的特征图;对与原始图像大小相同的特征图进行softmax预测,获得对应位置所属类别,从而实现裂缝区域分割。本发明可学习由低到高的多层次特征,可快速实现高精度的裂缝区域分割,尤其适用于桥梁结构裂缝检测。
Description
技术领域
本发明涉及裂缝检测技术领域,特别涉及一种基于深度卷积神经网络的图像裂缝分割方法。
背景技术
随着我国经济发展、城市化进程加快、高铁等国家工程飞速发展,在公路、铁路或是城市农村水利建设中,修建的跨越障碍的各类桥梁数目日益激增,桥梁在国民经济发展中起着举足轻重的作用,同时也是我国综合实力的一种体现。由于桥梁的普遍存在性,桥体结构的安全性和持久性不容忽视。裂缝作为一种主要的桥体结构病害特征,对桥体结构的耐久性和安全性产生的危害最大,因此,裂缝是其健康状况的主要评价指标之一。
目前的检测方法仍然以人工检测为主,存在很多不足之处:
(1)检测效率低:耗时,需要安装或拆卸手架等设备;
(2)检测精度低:主要以人眼进行观察检测,容易受到人的主观因素的影响;
(3)劳动强度大:桥梁多,检测工作量大,单纯依靠人工完成,强度很大;
(4)安全性低:检测人员需要下到桥梁底下进行检测,安全没有保障;
(5)成本高:使用大量的人力、物力进行检测,花费高;
(6)信息化程度低:无法精确建立桥梁裂缝历史数据,不便于危险桥梁的管理和维护,亦无法给政府管理部门提供决策支撑信息。
上述不足导致目前的检测现状完全不能适应当下的桥梁建设与发展。
近几年,基于图像视觉方法检测盒提取道路裂缝的算法相继被提出,这使得道路裂缝的自动化、智能化检测上有了较大的发展。桥梁结构裂缝与道路路面裂缝检测相类似,但前者更为复杂,主要表现为两个方面:第一,桥梁结构的复杂性导致基于视觉图像方法在获取数据时难度极大增加,桥梁结构上表面与道路基本一致,数据相对容易获取,目前也有实用化的系统投入生产,但是,至今都未出现有效的数据获取与处理系统针对其下表面。第二,道路路面纹理特征相对简单、单一,裂缝特征一般具有一致性,而桥梁底部表面纹理相对复杂,存在大量的斑点、污迹、水渍、检测标志线等大量“噪声”,裂缝检测与提取的难度更大。这两点极大限制了桥梁结构裂缝自动化检测与智能化结构安全监测。
对裂缝特征的不同理解,使得人们提出的裂缝检测方法也各种各样,大部分算法利用的基本特征是一致的,而且算法的流程也大致相同:预处理,裂缝区域检测与分割,后处理与特征描述。裂缝作为一种看似简单,却因为其背景及本身结构特征而具有多变性和复杂性的目标,现有的道路裂缝检测算法仍存在较多缺陷,远不能满足其需求。
简言之,用于检测裂缝的特征多种多样,但是简单而又高效的检测还是一个难点,如何将纷杂多样的裂缝与背景特征较好的分割开,如何快速提取裂缝特征快速重建裂缝结构特征都是非常具有挑战性的问题。
发明内容
针对现有技术中存在的不足,本发明提供了一种基于深度卷积神经网络的图像裂缝分割方法,该方法基于深度学习法,利用深度卷积神经网络学习到的由低到高的多层次特征,可实现高效和高精度的裂缝区域分割。
本发明思路为:
本发明基于全卷积神经网络(Fully Convolutional Networks,FCN)和深度监督网络(Deeply-Supervised Nets,DSN),提供了一种学习层次特征的深度卷积神经网络,能够自动地学习多种尺度、多种级别的多层次裂缝特征,从而实现端到端、像素级的预测。由于深度卷积神经网络整体、直接地监督学习策略,因此可应用于处理多种场景和尺度的裂缝图像。
为解决上述技术问题,本发明采用如下技术方案:
基于深度卷积神经网络的图像裂缝分割方法,包括:
所采用的深度卷积神经网络包括5个卷积阶段,其中,第一个卷积阶段包括卷积层Conv1_1和卷积层Conv1_2,卷积层Conv1_1和卷积层Conv1_2分别使用64个卷积核;第二个卷积阶段包括卷积层Conv2_1和卷积层Conv2_2,卷积层Conv2_1和卷积层Conv2_2分别使用128个卷积核;第三个卷积阶段包括卷积层Conv3_1、卷积层Conv3_2和卷积层Conv3_3,卷积层Conv3_1、卷积层Conv3_2和卷积层Conv3_3分别使用256个卷积核;第四个卷积阶段包括卷积层conv4_1、卷积层conv4_2和卷积层conv4_3,卷积层conv4_1、卷积层Conv4_2和卷积层Conv4_3分别使用512个卷积核;第五个卷积阶段包括卷积层Conv5_1、卷积层Conv5_2和卷积层Conv5_3,卷积层conv5_1、卷积层conv5_2和卷积层conv5_3分别使用512个卷积核;卷积层conv1_2、卷积层conv2_2、卷积层conv3_3和卷积层conv4_3后均依次紧跟批标准化层、非线性激活层、池化层;其他卷积层后均依次紧跟批标准化层、非线性激活层;
将卷积层conv1_1后紧跟的批标准化层、非线性激活层记为第一批标准化层、第一非线性激活层;将卷积层conv1_2后紧跟的批标准化层、非线性激活层、池化层记为第二批标准化层、第二非线性激活层、第一池化层;
将卷积层conv2_1后紧跟的批标准化层、非线性激活层记为第三批标准化层、第三非线性激活层;将卷积层conv2_2后紧跟的批标准化层、非线性激活层、池化层记为第四批标准化层、第四非线性激活层、第二池化层;
将卷积层conv3_1后紧跟的批标准化层、非线性激活层记为第五批标准化层、第五非线性激活层;将卷积层conv3_2后紧跟的批标准化层、非线性激活层记为第六批标准化层、第六非线性激活层;将卷积层conv3_3后紧跟的批标准化层、非线性激活层、池化层记为第七批标准化层、第七非线性激活层、第三池化层;
将卷积层conv4_1后紧跟的批标准化层、非线性激活层记为第八批标准化层、第八非线性激活层;将卷积层conv4_2后紧跟的批标准化层、非线性激活层记为第九批标准化层、第九非线性激活层;将卷积层conv4_3后紧跟的批标准化层、非线性激活层、池化层记为第十批标准化层、第十非线性激活层、第四池化层;
将卷积层conv5_1后紧跟的批标准化层、非线性激活层记为第十一批标准化层、第十一非线性激活层;将卷积层conv5_2后紧跟的批标准化层、非线性激活层记为第十二批标准化层、第十二非线性激活层;将卷积层conv5_3后紧跟的批标准化层、非线性激活层、池化层记为第十三批标准化层、第十三非线性激活层;
原始图像从卷积层conv1_1输入;第一个卷积阶段中,原始图像顺次经卷积层conv1_1、第一批标准化层、第一非线性激活层、卷积层conv1_2、第二批标准化层、第二非线性激活层输出第一特征图;第一特征图经第一池化层后输入第二个卷积阶段,顺次经卷积层conv2_1、第三批标准化层、第三非线性激活层、卷积层conv2_2、第四批标准化层、第四非线性激活层输出第二特征图;第二特征图经第二池化层后输入第三个卷积阶段,顺次经卷积层conv3_1、第五批标准化层、第五非线性激活层、卷积层conv3_2、第六批标准化层、第六非线性激活层、卷积层conv3_3、第七批标准化层、第七非线性激活层输出第三特征图;第三特征图经第三池化层后输入第四个卷积阶段,顺次经卷积层conv4_1、第八批标准化层、第八非线性激活层、卷积层conv4_2、第九批标准化层、第九非线性激活层、卷积层conv4_3、第十批标准化层、第十非线性激活层输出第四特征图;第四特征图经第四池化层后输入第四个卷积阶段,顺次经卷积层conv5_1、第十一批标准化层、第十一非线性激活层、卷积层conv5_2、第十二批标准化层、第十二非线性激活层、卷积层conv5_3、第十三批标准化层、第十三非线性激活层输出第五特征图;
对第一特征图、第二特征图、第三特征图、第四特征图、第五特征图分别经过卷积层Conv1、卷积层Conv2、卷积层Conv3、卷积层Conv4、卷积层Conv5,Conv1、卷积层Conv2、卷积层Conv3、卷积层Conv4、卷积层Conv5的输出特征图分别经去卷积层Deconv2、Deconv3、Deconv4、Deconv5依次进行去卷积、上采样,获得与原始图像大小相同的特征图;将五个与原始图像大小相同的特征图通过连接层融合,连接层的输出依次通过卷积层Conv-1-2降维、通过softmax函数获得各像素对应的裂缝和非裂缝的预测概率,记为融合预测概率,从而实现原始图像的图像裂缝分割;
将第二非线性激活层、去卷积层Deconv2、Deconv3、Deconv4、Deconv5的输出记为侧边输出;
所述的深度卷积神经网络采用如下方法进行样本训练:
采集训练样本集Ii表示第i张训练样本,Gi表示Ii对应的人工标注,分别统计各训练样本中非裂缝像素和裂缝像素的数量,分别记为C0和C1;
以损失代价函数L(I,G,Q)=Lside(I,G,Q,q)+Lfuse(I,G,Q)最小,优化深度卷积神经网络的参数;其中:
Lside(I,G,W,w)表示侧边损失代价,
ω0和ω1是类平衡权值,ω0=1,ω1=C0/C1;I(k)和G(k)是分别指I和G的第k个像素对应的值,logPr(*)指softmax函数;
Lfuse(I,G,Q)表示融合损失代价,
进一步的,所有卷积层均使用大小为3×3的卷积核窗口。
进一步的,所有的池化层采用大小为2×2的卷积核窗口进行最大值池化。
进一步的,所有的批标准化层均采用公式对卷积层处理后的特征图进行批标准化操作,其中,BNγ,β(x)表示批标准化操作的结果;β=E[x],ε为一个趋近于0的常数;Var[·]表示求方差,E[·]表示求均值。
进一步的,所述的非线性激活层采用非线性函数f(x)=max(0,x)。
和现有技术相比,本发明具有以下优点和有益效果:
本发明可学习由低到高的多层次特征,可快速实现高精度的裂缝区域分割,尤其适用于桥梁结构裂缝检测。
附图说明
图1为本发明深度卷积神经网络示意图;
图2为本发明深度卷积神经网络的输出示意图;
图3为卷积核窗口示意图,其中,图(a)所示为图像外围不补0的情况,图(b)所示为图像外围补0的情况。
具体实施方式
下面将结合附图对本发明技术方案进行详细说明。
将本发明深度卷积神经网络简记为DeepCrack,其为一种学习层次特征的深度卷积神经网络,基于全卷积神经网络(Fully Convolutional Networks,FCN)和深度监督网络(Deeply-Supervised Nets,DSN)实现,在训练阶段可对裂缝和非裂缝的预测结果的损失代价进行平衡。
本发明包括:将原始图像输入深层卷积神经网络,经卷积、池化和激活层学习特征,获得特征图;对特征图进行上采样得到与原始图像大小相同的特征图;对与原始图像大小相同的特征图进行softmax预测,获得对应位置所属类别,从而实现裂缝区域分割。本发明的特征学习和裂缝区域分割,都是通过深度卷积神经网络自主实现,见图1。
全卷积神经网络是指利用深度卷积网络学习有效的图像语义特征,最终生成与原始图像大小相同的预测图。深度监督网络是指通过监督各卷积阶段学习到的特征和各卷积阶段融合后的特征,见图2所示的侧边输出,统计学习到的特征进行语义预测的损失代价,从而形成整体监督。本发明中原始图像经过深度卷积神经网络直接得到预测结果,预测结果与原始图像上各像素点对应。这里预测结果即同时得到各像素点属于裂缝和非裂缝的概率值。
本发明学习层次特征的深度卷积神经网络,具有多层卷积层(Convolutionallayer),各层卷积层后都紧跟着批标准化层(Batch Normalization,BN)和非线性激活层(Rectified Linear Units,ReLu)。卷积分为5个卷积阶段,第一卷积阶段包括conv1_1卷积层和conv1_2卷积层;第二卷积阶段包括conv2_1卷积层和conv2_2卷积层;第三卷积阶段包括conv3_1卷积层、conv3_2卷积层和conv3_3卷积层;第四卷积阶段包括conv4_1卷积层、conv4_2卷积层和conv4_3卷积层,第五卷积阶段包括conv5_1卷积层、conv5_2卷积层和conv5_3卷积层。各卷积阶段均使用3×3大小的卷积核窗口,卷积核窗口的移动步距为1。在前4个卷积阶段的最后,即conv1_2卷积层、conv2_2卷积层、conv3_3卷积层和conv4_3卷积层后,除了紧接着BN批标准化层、ReLu非线性激活层外,还有池化层(Pooling)。池化层使用2×2的卷积核窗口对卷积阶段的特征图进行降采样。对各卷积阶段的最后一层学习到的特征,即conv1_2卷积层、conv2_2卷积层、conv3_3卷积层、conv4_3卷积层和conv5_3卷积层,分别上采样0、2、4、8、16倍,得到与原始图像大小一样的特征图。再分别通过一层卷积层降低特征图维度,将得到的五个特征图通过连接层Concat层融合在一起,再通过一层卷积层降维,并通过Softmax后得到每个像素对应的裂缝和非裂缝的预测概率。
在卷积阶段通过池化层,使得在不同卷积阶段卷积窗口对应在原始图像上的感受野大小呈现逐级增大的特点,conv1_2卷积层、conv2_2卷积层、conv3_3卷积层、conv4_3卷积层和conv5_3对应在原始图像上的感受野分别为5、14、40、92、196。这一特点使得不同卷积阶段学习得到的图像特征呈现由浅到深、由低级到抽象的特点,即可自动学习的多尺度、多种级别的裂缝特征。
下面将结合表1描述深度卷积神经网络的数据处理过程。见表1,Conv<a_b>-<c>-<d>中,a表示卷积阶段,b表示卷积阶段的卷积层编号,c表示卷积核大小,d表示卷积核数量。例如,Conv1_1-3-64表示卷积层conv1_1,其使用64个卷积核,所使用的卷积核大小为3×3(即卷积窗口大小为3×3)。BN表示批标准化层,ReLU表示非线性激活层,Pool1、Pool2、Pool3、Pool4表示池化层。Conv<a>-<c>-<d>其中a,c,d与前面的字符含义一样,例如,Conv1-3-1表示使用1个大小为3×3的卷积核窗口的卷积层。Deconv<a>-<e>表示去卷积层,e表示上采样的倍数,Crop表示对上采样结果进行裁剪,使得输出的特征图尺寸保持一致。Conv1表示卷积层Conv1-3-1的输出,Deconv2、Deconv3、Deconv4、Deconv5分别表示去卷积层Deconv2-2、Deconv3-4、Deconv4-8、Deconv5-16的输出。
本发明中,卷积阶段均使用大小为3×3的卷积核,在图像外围补充一圈0,见图3。其中,灰色表示卷积核窗口,在图像外围不补0的情况下,见图3(a),卷积核窗口中心不能位于图像边缘像素位置,以左上角边缘像素为例,起始卷积核窗口中心只能达到(1,1),若输入图像的高度和宽度分别是M和N,则输出图像数据的高度和宽度只能为M-2和N-2。在图像外围补0的情况下,见图3(b),卷积核窗口中心能位于图像边缘像素位置。仍然以左上角为例,起始卷积核窗口中心能达到(0,0),若输入图像的高度和宽度分别是M和N,则输出图像的高度和宽度也分别为M和N。
表1深度卷积神经网络的数据处理过程示意表
本发明包括训练阶段和测试阶段,训练阶段,对每个softmax的输出进行损失统计,其中Conv1、Deconv2、…DeConv5部分统计的损失代价为侧边输出的损失代价,Conv-1-2对应得softmax是融合后的损失代价。测试阶段,去掉侧边输边的softmax,其余部分保留。
本发明中,对于大小为N×N的卷积核窗口,其权值矩阵记为设卷积核窗口滑动到某一位置时对应的图像像素特征集为x,则卷积操作结果y为:
式(1)中:
xi,j表示卷积核窗内第i行第j列像素的特征值;
wi,j表示权值矩阵w中第i行第j列的元素,即xi,j对应的权值;
b为偏置量。
本发明中,w和b为待优化参数。
本发明中,批标准化层用来进行批标准化操作,批标准化操作是一种归一化方法,记每次输入深度卷积神经网络的K张图像为{pk|k=1,2,...K},对第k张图像像素位置(i,j)上卷积层输出的特征值xi,j,k进行批标准化操作:
式(2)中:
BNγ,β(xi,j,k)表示批标准化操作结果;
γ和β的初始值分别为:β0=E[xi,j],训练过程中,采用梯度下降法对γ和β进行优化;
ε为一个趋近于0的常数,一般在(1e-10,1e-3)范围取值;
E[·]表示求均值,
Var[·]表示求方差,
本实施例中,非线性激活层ReLu采用非线性函数进行非线性激活处理,所采用的非线性函数f(x)=max(0,x)。
本实施例中,池化层采用最值池化,对于大小为N×N的卷积核窗口中的像素特征值,仅保留图像像素特征集合x中的最大值,即:
f(x)=max(x) (3)
式(3)中,f(x)表示池化操作结果。
本发明中,连接层用来合并数据,用来将特征矩阵 进行融合,连接层的操作公式如下:
式(4)中,W、H、c分别指特征矩阵的宽度、高度和通道数。
本发明中,采用softmax方法计算各像素所属类别的概率值。对D维的特征向量x和权值向量Q,则特征向量x属于类别a的预测概率为:
本发明中类别只有两类,非裂缝类和裂缝类,即a=0或1。
根据监督各个卷积阶段学习到的特征,统计各个卷积阶段的预测结果的损失代价和融合后的预测结果的损失代价。本发明中对裂缝和非裂缝预测结果的损失代价进行平衡,首先,采集训练样本集其中,R表示训练样本数,Ir指输入训练的第r张原始图像,即第r个训练样本;Gr是Ir对应的人工标注。将深度卷积神经网络的所有参数记为W,W包括深度卷积神经网络中所有卷积层的权值矩阵和偏置量;深度监督部分的参数为w={(w(1),w(2),...,w(M))},M为索引总数,m表示索引号,w(m)分别对应侧边输出部分的网络参数,因此,侧边深度监督部分的损失代价函数为:
式(6)中:
lside(I,G,W,w(m))表示深度监督部分的图像级损失函数;
表示深度监督部分输出的预测结果DSN-side,即裂缝与非裂缝的概率图;
am为常数系数,默认值为1.0;
Δ(·)表示交叉熵损失函数,考虑到一张图像中90%以上都是非裂缝像素,因此,Δ(·)被定义为:
式(7)中:
ω0和ω1是类平衡权值;
|I|表示训练样本图像I的像素数;
I(k)和G(k)是分别指I和G中第k个像素对应的值;
logPr(*)指softmax函数Pr(*)的结果取对数。
对于一张训练样本,统计其中的非裂缝像素与裂缝像素的数量,分别记为C0和C1,本发明中,ω0=1,ω1=C0/C1。
除了侧边输出部分的监督外,最终的融合预测部分在训练过程中也会统计损失,记该部分的损失函数Lfuse(I,G,W)为:
因此,整体损失代价函数L(I,G,W)记为:
L(I,G,W)=Lside(I,G,W,w)+Lfuse(I,G,W) (9)
本发明的整体化优化目标即获取使整体损失代价值L(I,G,W)最小的参数:
Claims (6)
1.基于深度卷积神经网络的图像裂缝分割方法,其特征是:
所采用的深度卷积神经网络包括5个卷积阶段,其中,第一个卷积阶段包括卷积层Conv1_1和卷积层Conv1_2,卷积层Conv1_1和卷积层Conv1_2分别使用64个卷积核;第二个卷积阶段包括卷积层Conv2_1和卷积层Conv2_2,卷积层Conv2_1和卷积层Conv2_2分别使用128个卷积核;第三个卷积阶段包括卷积层Conv3_1、卷积层Conv3_2和卷积层Conv3_3,卷积层Conv3_1、卷积层Conv3_2和卷积层Conv3_3分别使用256个卷积核;第四个卷积阶段包括卷积层conv4_1、卷积层conv4_2和卷积层conv4_3,卷积层conv4_1、卷积层Conv4_2和卷积层Conv4_3分别使用512个卷积核;第五个卷积阶段包括卷积层Conv5_1、卷积层Conv5_2和卷积层Conv5_3,卷积层conv5_1、卷积层conv5_2和卷积层conv5_3分别使用512个卷积核;卷积层conv1_2、卷积层conv2_2、卷积层conv3_3和卷积层conv4_3后均依次紧跟批标准化层、非线性激活层、池化层;其他卷积层后均依次紧跟批标准化层、非线性激活层;
将卷积层conv1_1后紧跟的批标准化层、非线性激活层记为第一批标准化层、第一非线性激活层;将卷积层conv1_2后紧跟的批标准化层、非线性激活层、池化层记为第二批标准化层、第二非线性激活层、第一池化层;
将卷积层conv2_1后紧跟的批标准化层、非线性激活层记为第三批标准化层、第三非线性激活层;将卷积层conv2_2后紧跟的批标准化层、非线性激活层、池化层记为第四批标准化层、第四非线性激活层、第二池化层;
将卷积层conv3_1后紧跟的批标准化层、非线性激活层记为第五批标准化层、第五非线性激活层;将卷积层conv3_2后紧跟的批标准化层、非线性激活层记为第六批标准化层、第六非线性激活层;将卷积层conv3_3后紧跟的批标准化层、非线性激活层、池化层记为第七批标准化层、第七非线性激活层、第三池化层;
将卷积层conv4_1后紧跟的批标准化层、非线性激活层记为第八批标准化层、第八非线性激活层;将卷积层conv4_2后紧跟的批标准化层、非线性激活层记为第九批标准化层、第九非线性激活层;将卷积层conv4_3后紧跟的批标准化层、非线性激活层、池化层记为第十批标准化层、第十非线性激活层、第四池化层;
将卷积层conv5_1后紧跟的批标准化层、非线性激活层记为第十一批标准化层、第十一非线性激活层;将卷积层conv5_2后紧跟的批标准化层、非线性激活层记为第十二批标准化层、第十二非线性激活层;将卷积层conv5_3后紧跟的批标准化层、非线性激活层、池化层记为第十三批标准化层、第十三非线性激活层;
原始图像从卷积层conv1_1输入;第一个卷积阶段中,原始图像顺次经卷积层conv1_1、第一批标准化层、第一非线性激活层、卷积层conv1_2、第二批标准化层、第二非线性激活层输出第一特征图;第一特征图经第一池化层后输入第二个卷积阶段,顺次经卷积层conv2_1、第三批标准化层、第三非线性激活层、卷积层conv2_2、第四批标准化层、第四非线性激活层输出第二特征图;第二特征图经第二池化层后输入第三个卷积阶段,顺次经卷积层conv3_1、第五批标准化层、第五非线性激活层、卷积层conv3_2、第六批标准化层、第六非线性激活层、卷积层conv3_3、第七批标准化层、第七非线性激活层输出第三特征图;第三特征图经第三池化层后输入第四个卷积阶段,顺次经卷积层conv4_1、第八批标准化层、第八非线性激活层、卷积层conv4_2、第九批标准化层、第九非线性激活层、卷积层conv4_3、第十批标准化层、第十非线性激活层输出第四特征图;第四特征图经第四池化层后输入第四个卷积阶段,顺次经卷积层conv5_1、第十一批标准化层、第十一非线性激活层、卷积层conv5_2、第十二批标准化层、第十二非线性激活层、卷积层conv5_3、第十三批标准化层、第十三非线性激活层输出第五特征图;
对第一特征图、第二特征图、第三特征图、第四特征图、第五特征图分别经过卷积层Conv1、卷积层Conv2、卷积层Conv3、卷积层Conv4、卷积层Conv5,Conv1、卷积层Conv2、卷积层Conv3、卷积层Conv4、卷积层Conv5的输出特征图分别经去卷积层Deconv2、Deconv3、Deconv4、Deconv5依次进行去卷积、上采样,获得与原始图像大小相同的特征图;将五个与原始图像大小相同的特征图通过连接层融合,连接层的输出依次通过卷积层Conv-1-2降维、通过softmax函数获得各像素对应的裂缝和非裂缝的预测概率,记为融合预测概率,从而实现原始图像的图像裂缝分割;
将第二非线性激活层、去卷积层Deconv2、Deconv3、Deconv4、Deconv5的输出记为侧边输出;
所述的深度卷积神经网络采用如下方法进行训练:
采集训练样本集将训练样本集输入深度卷积神经网络,其中,Ir表示第r张训练样本,Gr为Ir对应的人工标注,统计各训练样本中非裂缝像素和裂缝像素的数量,分别记为C0和C1;
以损失代价值最小作为目标优化深度卷积神经网络的参数,所述的损失代价函数为:
L(I,G,W)=Lside(I,G,W,w)+Lfuse(I,G,W)
其中:
Lside(I,G,W,w)表示侧边损失代价,
<mrow>
<mi>&Delta;</mi>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mo>|</mo>
<mi>I</mi>
<mo>|</mo>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mo>|</mo>
<mi>I</mi>
<mo>|</mo>
</mrow>
</munderover>
<mo>{</mo>
<msub>
<mi>&omega;</mi>
<mn>0</mn>
</msub>
<mi>log</mi>
<mi> </mi>
<mi>Pr</mi>
<mrow>
<mo>(</mo>
<mi>G</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>=</mo>
<mn>0</mn>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>;</mo>
<mi>W</mi>
<mo>,</mo>
<msup>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>+</mo>
<msub>
<mi>&omega;</mi>
<mn>1</mn>
</msub>
<mi>log</mi>
<mi> </mi>
<mi>Pr</mi>
<mrow>
<mo>(</mo>
<mi>G</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>=</mo>
<mn>1</mn>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>;</mo>
<mi>W</mi>
<mo>,</mo>
<msup>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
ω0和ω1是类平衡权值,ω0=1,ω1=C0/C1;
I(k)和G(k)是分别指I和G的第k个像素对应的值,logPr(*)指softmax函数;
Lfuse(I,G,Q)表示融合损失代价,
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>f</mi>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>,</mo>
<mi>G</mi>
<mo>,</mo>
<mi>W</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mo>|</mo>
<mi>I</mi>
<mo>|</mo>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mo>|</mo>
<mi>I</mi>
<mo>|</mo>
</mrow>
</munderover>
<mo>{</mo>
<msub>
<mi>&omega;</mi>
<mn>0</mn>
</msub>
<mi>log</mi>
<mi> </mi>
<mi>Pr</mi>
<mrow>
<mo>(</mo>
<mi>G</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>=</mo>
<mn>0</mn>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>;</mo>
<mi>W</mi>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>+</mo>
<msub>
<mi>&omega;</mi>
<mn>1</mn>
</msub>
<mi>log</mi>
<mi> </mi>
<mi>Pr</mi>
<mrow>
<mo>(</mo>
<mi>G</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>=</mo>
<mn>1</mn>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>;</mo>
<mi>W</mi>
<mo>)</mo>
</mrow>
<mo>}</mo>
<mo>.</mo>
</mrow>
2.如权利要求1所述的基于深度卷积神经网络的图像裂缝分割方法,其特征是:
卷积层conv1_1和卷积层conv1_2分别使用64个卷积核,卷积层conv2_1和卷积层conv2_2分别使用128个卷积核,卷积层conv3_1、卷积层conv3_2和卷积层conv3_3分别使用256个卷积核,卷积层conv4_1、卷积层conv4_2和卷积层conv4_3分别使用512个卷积核,卷积层conv5_1、卷积层conv5_2和卷积层conv5_3分别使用512个卷积核。
3.如权利要求1所述的基于深度卷积神经网络的图像裂缝分割方法,其特征是:
所有的卷积层均使用大小为3×3的卷积核窗口。
4.如权利要求1所述的基于深度卷积神经网络的图像裂缝分割方法,其特征是:
所有的池化层采用大小为2×2的卷积核窗口进行最大值池化。
5.如权利要求1所述的基于深度卷积神经网络的图像裂缝分割方法,其特征是:
所有的批标准化层均采用公式对卷积层处理后的特征图进行批标准化操作,其中,BNγ,β(xi,j,k)表示批标准化操作的结果;ε为趋近于0的常数,β=E[x],记每次卷积层的图像有K张,这里卷积层指批标准化层前的卷积层,xi,j,k表示卷积层输出的第k张图像像素位置(i,j)的特征值。
6.如权利要求1所述的基于深度卷积神经网络的图像裂缝分割方法,其特征是:
所述的非线性激活层采用非线性函数f(x)=max(0,x),其中,x表示批标准化层的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710267789.0A CN107133960A (zh) | 2017-04-21 | 2017-04-21 | 基于深度卷积神经网络的图像裂缝分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710267789.0A CN107133960A (zh) | 2017-04-21 | 2017-04-21 | 基于深度卷积神经网络的图像裂缝分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107133960A true CN107133960A (zh) | 2017-09-05 |
Family
ID=59715282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710267789.0A Withdrawn CN107133960A (zh) | 2017-04-21 | 2017-04-21 | 基于深度卷积神经网络的图像裂缝分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107133960A (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871327A (zh) * | 2017-10-23 | 2018-04-03 | 武汉大学 | 基于特征点线的单目相机位姿估计和优化方法及系统 |
CN107909564A (zh) * | 2017-10-23 | 2018-04-13 | 昆明理工大学 | 一种基于深度学习的全卷积网络图像裂纹检测方法 |
CN107945161A (zh) * | 2017-11-21 | 2018-04-20 | 重庆交通大学 | 基于纹理特征提取的道路表面缺陷检测方法 |
CN108010031A (zh) * | 2017-12-15 | 2018-05-08 | 厦门美图之家科技有限公司 | 一种人像分割方法及移动终端 |
CN108053456A (zh) * | 2017-11-13 | 2018-05-18 | 深圳先进技术研究院 | 一种pet重建图像优化方法及系统 |
CN108062543A (zh) * | 2018-01-16 | 2018-05-22 | 中车工业研究院有限公司 | 一种面部识别方法及装置 |
CN108122265A (zh) * | 2017-11-13 | 2018-06-05 | 深圳先进技术研究院 | 一种ct重建图像优化方法及系统 |
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
CN108318101A (zh) * | 2017-12-26 | 2018-07-24 | 北京市水利自动化研究所 | 基于深度学习算法的水尺水位视频智能监测方法及系统 |
CN108334941A (zh) * | 2018-03-06 | 2018-07-27 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像生成模型 |
CN108520516A (zh) * | 2018-04-09 | 2018-09-11 | 陕西师范大学 | 一种基于语义分割的桥梁路面裂缝检测和分割方法 |
CN108537221A (zh) * | 2018-03-29 | 2018-09-14 | 陕西师范大学 | 基于兴趣区域的桥梁或路面裂缝检测方法和评价方法 |
CN108710919A (zh) * | 2018-05-25 | 2018-10-26 | 东南大学 | 一种基于多尺度特征融合深度学习的裂缝自动化勾画方法 |
CN108961270A (zh) * | 2018-06-26 | 2018-12-07 | 陕西师范大学 | 一种基于语义分割的桥梁裂缝图像分割模型 |
CN109001211A (zh) * | 2018-06-08 | 2018-12-14 | 苏州赛克安信息技术有限公司 | 基于卷积神经网络的长输管道焊缝检测系统及方法 |
CN109033521A (zh) * | 2018-06-25 | 2018-12-18 | 中南大学 | 一种新建铁路限制坡度优化决策方法 |
CN109064461A (zh) * | 2018-08-06 | 2018-12-21 | 长沙理工大学 | 一种基于深度学习网络的钢轨表面缺陷检测方法 |
CN109886125A (zh) * | 2019-01-23 | 2019-06-14 | 青岛慧拓智能机器有限公司 | 一种构建道路检测模型的方法及道路检测方法 |
CN110021069A (zh) * | 2019-04-15 | 2019-07-16 | 武汉大学 | 一种基于网格形变的三维模型重建方法 |
CN110349122A (zh) * | 2019-06-10 | 2019-10-18 | 长安大学 | 一种基于深度卷积融合神经网络的路面裂缝识别方法 |
CN110390228A (zh) * | 2018-04-20 | 2019-10-29 | 北京四维图新科技股份有限公司 | 基于神经网络的交通标志图片识别方法、装置及存储介质 |
CN110533629A (zh) * | 2019-07-10 | 2019-12-03 | 湖南交工智能技术有限公司 | 一种桥梁裂缝的检测方法及检测装置 |
CN110766662A (zh) * | 2019-09-26 | 2020-02-07 | 湖北三环锻造有限公司 | 一种基于多尺度和多层特征学习的锻件表面裂纹检测方法 |
CN110908566A (zh) * | 2018-09-18 | 2020-03-24 | 珠海格力电器股份有限公司 | 信息处理方法及装置 |
CN111127449A (zh) * | 2019-12-25 | 2020-05-08 | 汕头大学 | 一种基于编码器-解码器的自动化裂缝检测方法 |
CN112215819A (zh) * | 2020-10-13 | 2021-01-12 | 中国民航大学 | 基于深度特征融合的机场道面裂缝检测方法 |
CN112330593A (zh) * | 2020-10-10 | 2021-02-05 | 南京理工大学 | 基于深度学习网络的建筑物表面裂缝检测方法 |
CN112446353A (zh) * | 2020-12-14 | 2021-03-05 | 浙江工商大学 | 基于深度卷积神经网络的视频图像道线检测方法 |
CN112489023A (zh) * | 2020-12-02 | 2021-03-12 | 重庆邮电大学 | 一种基于多尺度和多层次的路面裂缝检测方法 |
CN114239814A (zh) * | 2022-02-25 | 2022-03-25 | 杭州研极微电子有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
CN115147439A (zh) * | 2022-07-11 | 2022-10-04 | 南京工业大学 | 基于深度学习与注意力机制的混凝土裂缝分割方法及系统 |
US11551341B2 (en) | 2018-01-03 | 2023-01-10 | Southeast University | Method and device for automatically drawing structural cracks and precisely measuring widths thereof |
WO2024092968A1 (zh) * | 2022-11-01 | 2024-05-10 | 中公高科养护科技股份有限公司 | 一种路面裂缝检测方法、介质及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023220A (zh) * | 2016-05-26 | 2016-10-12 | 史方 | 一种基于深度学习的车辆外观部件图像分割方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
CN106250931A (zh) * | 2016-08-03 | 2016-12-21 | 武汉大学 | 一种基于随机卷积神经网络的高分辨率图像场景分类方法 |
-
2017
- 2017-04-21 CN CN201710267789.0A patent/CN107133960A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023220A (zh) * | 2016-05-26 | 2016-10-12 | 史方 | 一种基于深度学习的车辆外观部件图像分割方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
CN106250931A (zh) * | 2016-08-03 | 2016-12-21 | 武汉大学 | 一种基于随机卷积神经网络的高分辨率图像场景分类方法 |
Non-Patent Citations (1)
Title |
---|
SAINING XIE ET.AL: "Holistically-Nested Edge Detection", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871327A (zh) * | 2017-10-23 | 2018-04-03 | 武汉大学 | 基于特征点线的单目相机位姿估计和优化方法及系统 |
CN107909564A (zh) * | 2017-10-23 | 2018-04-13 | 昆明理工大学 | 一种基于深度学习的全卷积网络图像裂纹检测方法 |
CN107909564B (zh) * | 2017-10-23 | 2021-04-09 | 昆明理工大学 | 一种基于深度学习的全卷积网络图像裂纹检测方法 |
CN108053456A (zh) * | 2017-11-13 | 2018-05-18 | 深圳先进技术研究院 | 一种pet重建图像优化方法及系统 |
CN108122265A (zh) * | 2017-11-13 | 2018-06-05 | 深圳先进技术研究院 | 一种ct重建图像优化方法及系统 |
CN107945161A (zh) * | 2017-11-21 | 2018-04-20 | 重庆交通大学 | 基于纹理特征提取的道路表面缺陷检测方法 |
CN107945161B (zh) * | 2017-11-21 | 2020-10-23 | 重庆交通大学 | 基于纹理特征提取的道路表面缺陷检测方法 |
CN108010031A (zh) * | 2017-12-15 | 2018-05-08 | 厦门美图之家科技有限公司 | 一种人像分割方法及移动终端 |
CN108318101A (zh) * | 2017-12-26 | 2018-07-24 | 北京市水利自动化研究所 | 基于深度学习算法的水尺水位视频智能监测方法及系统 |
US11551341B2 (en) | 2018-01-03 | 2023-01-10 | Southeast University | Method and device for automatically drawing structural cracks and precisely measuring widths thereof |
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
CN108229461B (zh) * | 2018-01-16 | 2021-12-28 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
CN108062543A (zh) * | 2018-01-16 | 2018-05-22 | 中车工业研究院有限公司 | 一种面部识别方法及装置 |
CN108334941A (zh) * | 2018-03-06 | 2018-07-27 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像生成模型 |
CN108334941B (zh) * | 2018-03-06 | 2022-09-09 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像生成模型 |
CN108537221A (zh) * | 2018-03-29 | 2018-09-14 | 陕西师范大学 | 基于兴趣区域的桥梁或路面裂缝检测方法和评价方法 |
CN108520516A (zh) * | 2018-04-09 | 2018-09-11 | 陕西师范大学 | 一种基于语义分割的桥梁路面裂缝检测和分割方法 |
CN110390228B (zh) * | 2018-04-20 | 2022-05-10 | 北京四维图新科技股份有限公司 | 基于神经网络的交通标志图片识别方法、装置及存储介质 |
CN110390228A (zh) * | 2018-04-20 | 2019-10-29 | 北京四维图新科技股份有限公司 | 基于神经网络的交通标志图片识别方法、装置及存储介质 |
CN108710919A (zh) * | 2018-05-25 | 2018-10-26 | 东南大学 | 一种基于多尺度特征融合深度学习的裂缝自动化勾画方法 |
CN109001211A (zh) * | 2018-06-08 | 2018-12-14 | 苏州赛克安信息技术有限公司 | 基于卷积神经网络的长输管道焊缝检测系统及方法 |
CN109033521A (zh) * | 2018-06-25 | 2018-12-18 | 中南大学 | 一种新建铁路限制坡度优化决策方法 |
CN109033521B (zh) * | 2018-06-25 | 2021-04-20 | 中南大学 | 一种新建铁路限制坡度优化决策方法 |
CN108961270A (zh) * | 2018-06-26 | 2018-12-07 | 陕西师范大学 | 一种基于语义分割的桥梁裂缝图像分割模型 |
CN109064461A (zh) * | 2018-08-06 | 2018-12-21 | 长沙理工大学 | 一种基于深度学习网络的钢轨表面缺陷检测方法 |
CN110908566A (zh) * | 2018-09-18 | 2020-03-24 | 珠海格力电器股份有限公司 | 信息处理方法及装置 |
CN109886125A (zh) * | 2019-01-23 | 2019-06-14 | 青岛慧拓智能机器有限公司 | 一种构建道路检测模型的方法及道路检测方法 |
CN110021069A (zh) * | 2019-04-15 | 2019-07-16 | 武汉大学 | 一种基于网格形变的三维模型重建方法 |
CN110021069B (zh) * | 2019-04-15 | 2022-04-15 | 武汉大学 | 一种基于网格形变的三维模型重建方法 |
CN110349122A (zh) * | 2019-06-10 | 2019-10-18 | 长安大学 | 一种基于深度卷积融合神经网络的路面裂缝识别方法 |
CN110533629A (zh) * | 2019-07-10 | 2019-12-03 | 湖南交工智能技术有限公司 | 一种桥梁裂缝的检测方法及检测装置 |
CN110766662A (zh) * | 2019-09-26 | 2020-02-07 | 湖北三环锻造有限公司 | 一种基于多尺度和多层特征学习的锻件表面裂纹检测方法 |
CN110766662B (zh) * | 2019-09-26 | 2022-10-04 | 湖北三环锻造有限公司 | 一种基于多尺度和多层特征学习的锻件表面裂纹检测方法 |
CN111127449B (zh) * | 2019-12-25 | 2023-06-02 | 汕头大学 | 一种基于编码器-解码器的自动化裂缝检测方法 |
CN111127449A (zh) * | 2019-12-25 | 2020-05-08 | 汕头大学 | 一种基于编码器-解码器的自动化裂缝检测方法 |
CN112330593A (zh) * | 2020-10-10 | 2021-02-05 | 南京理工大学 | 基于深度学习网络的建筑物表面裂缝检测方法 |
CN112215819A (zh) * | 2020-10-13 | 2021-01-12 | 中国民航大学 | 基于深度特征融合的机场道面裂缝检测方法 |
CN112215819B (zh) * | 2020-10-13 | 2023-06-30 | 中国民航大学 | 基于深度特征融合的机场道面裂缝检测方法 |
CN112489023A (zh) * | 2020-12-02 | 2021-03-12 | 重庆邮电大学 | 一种基于多尺度和多层次的路面裂缝检测方法 |
CN112446353A (zh) * | 2020-12-14 | 2021-03-05 | 浙江工商大学 | 基于深度卷积神经网络的视频图像道线检测方法 |
CN112446353B (zh) * | 2020-12-14 | 2023-05-02 | 浙江工商大学 | 基于深度卷积神经网络的视频图像道线检测方法 |
CN114239814B (zh) * | 2022-02-25 | 2022-07-08 | 杭州研极微电子有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
CN114239814A (zh) * | 2022-02-25 | 2022-03-25 | 杭州研极微电子有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
CN115147439A (zh) * | 2022-07-11 | 2022-10-04 | 南京工业大学 | 基于深度学习与注意力机制的混凝土裂缝分割方法及系统 |
CN115147439B (zh) * | 2022-07-11 | 2023-12-29 | 南京工业大学 | 基于深度学习与注意力机制的混凝土裂缝分割方法及系统 |
WO2024092968A1 (zh) * | 2022-11-01 | 2024-05-10 | 中公高科养护科技股份有限公司 | 一种路面裂缝检测方法、介质及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133960A (zh) | 基于深度卷积神经网络的图像裂缝分割方法 | |
CN106650913B (zh) | 一种基于深度卷积神经网络的车流密度估计方法 | |
CN104992223B (zh) | 基于深度学习的密集人数估计方法 | |
CN105184312B (zh) | 一种基于深度学习的文字检测方法及装置 | |
CN107016405A (zh) | 一种基于分级预测卷积神经网络的害虫图像分类方法 | |
CN109063728A (zh) | 一种火灾图像深度学习模式识别方法 | |
CN107610123A (zh) | 一种基于深度卷积神经网络的图像美学质量评价方法 | |
CN107977671A (zh) | 一种基于多任务卷积神经网络的舌象分类方法 | |
CN110321923A (zh) | 不同尺度感受野特征层融合的目标检测方法、系统及介质 | |
CN109977918A (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
CN101916365B (zh) | 对考试作弊事件进行智能视频识别的方法 | |
CN106203331A (zh) | 一种基于卷积神经网络的人群密度估算方法 | |
CN107564025A (zh) | 一种基于深度神经网络的电力设备红外图像语义分割方法 | |
CN106874956A (zh) | 图像分类卷积神经网络结构的构建方法 | |
CN108509976A (zh) | 动物的识别装置和方法 | |
CN108596757A (zh) | 一种智能组合的个人信用评估方法及系统 | |
CN106778682A (zh) | 一种卷积神经网络模型的训练方法及其设备 | |
CN107154048A (zh) | 一种脉冲耦合神经网络模型的遥感图像分割方法及装置 | |
CN114842208B (zh) | 一种基于深度学习的电网危害鸟种目标检测方法 | |
CN106156765A (zh) | 基于计算机视觉的安全检测方法 | |
CN106991666A (zh) | 一种适用于多尺寸图片信息的病害图像识别方法 | |
CN110321862B (zh) | 一种基于紧致三元损失的行人再识别方法 | |
CN110287882A (zh) | 一种基于深度学习的大菊品种图像识别方法 | |
CN109948501A (zh) | 一种监控视频中人员和安全帽的检测方法 | |
CN106997475A (zh) | 一种基于并行卷积神经网络的害虫图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170905 |