CN111738324B - 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 - Google Patents
一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 Download PDFInfo
- Publication number
- CN111738324B CN111738324B CN202010540560.1A CN202010540560A CN111738324B CN 111738324 B CN111738324 B CN 111738324B CN 202010540560 A CN202010540560 A CN 202010540560A CN 111738324 B CN111738324 B CN 111738324B
- Authority
- CN
- China
- Prior art keywords
- frequency
- convolution
- neural network
- output
- extraction module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Immunology (AREA)
- Biophysics (AREA)
- Biochemistry (AREA)
- Chemical & Material Sciences (AREA)
- Signal Processing (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Analytical Chemistry (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,所述方法包括:创建基于深度学习的道路裂缝图像的训练集和测试集;创建分频卷积模块和分频转置模块;创建多频率分层特征提取模块;利用训练集和测试集训练深度卷积深度神经网络;将深度卷积神经网络中多频率分层特征提取模块的结果叠加,并输出裂缝图像。本发明方法具有检测过程简单,检测效率高,劳动强度低,便于携带,可操作性强等优点。
Description
技术领域
本发明涉及结构健康检测与评估领域,尤其是涉及一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法。
背景技术
随着全国范围内公路路网的建成,全国公路建设得到了快速的发展。汽车在公路上行驶过程中,路面的完好率和平整度是确保行车安全的重要因素。裂缝是判断道路受损和寿命的重要标志,如果路面出现凹凸和裂缝等情况,会严重影响道路的寿命以及行车的安全,因此对道路和桥梁裂缝进行检测有着至关重要的作用。
目前,道路桥梁的裂缝检测方法主要是基于传统的图像处理算法和人眼识别。利用人眼进行裂缝检测与识别,效率不高而且成本大。采用图像处理方法,主要是针对同一类型的图像进行裂缝检测,无法对彩色图像直接进行裂缝检测。基于深度学习框架的道路裂缝检测可以实现彩色图像的裂缝检测,通过神经网络端到端的图像处理,无需卷积神经网路的滑块处理,获得输入和输出相同尺度的大小。因此,基于深度学习框架的道路裂缝检测方法,可以实现道路裂缝的自动化检测。因此,如何提高路面裂缝检测的监测效率和效果,是路面裂缝检测领域需要攻克的技术难题。
发明内容
基于此,本发明的目的是提供一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法。该方法可解决人眼观察和图像处理裂缝检测中定位精度不高,误差大等问题。
为了解决上述现有技术问题,本发明实施例提供了一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,该方法具体包括以下步骤:
S1、创建基于深度学习的道路裂缝图像的训练集和测试集;
S2、创建分频卷积模块和分频转置模块;
S3、创建多频率分层特征提取模块;
S4、利用训练集和测试集训练深度卷积神经网络;
S5、将深度卷积神经网络中多频率分层特征提取模块的结果叠加,并输出裂缝图像。
进一步地,所述步骤S1具体包括:
S11、利用公共的裂缝图像数据集CFD和AigleRN以及其它的裂缝图像数据集,将裂缝图像分为训练集和测试集;
S12、利用智能终端采集到的不同结构表面裂缝图像,构建裂缝图像数据库,对构建的裂缝图像库进行数据增强,将数据增强后的裂缝图像库中的裂缝图像的裂缝区域实施标签标注,然后将裂缝图像库中的图像分为训练集和测试集。
更进一步地,所述步骤S2具体包括:
S21、搭建深度神经网络结构模型:确定所述深度卷积神经网络卷中编码器和解码器层数,以及每个分频卷积层中高频率和低频率中所含有的特征图的数量、池化层的层数、池化层中采样核的大小和训练步长、分频转置卷积层的层数和每个反卷积层中高频率和低频率中所含有的特征图数量;
S22、选择深度神经网络的训练策略:所述深度神经网络训练中代价函数的选择为交叉熵损失函数、平方损失函数等,以及激活函数的选择Relu,softmax,sigmoid等,在损失代价函数中加入权值衰减正则化项,同时在卷积层中加入dropout来减少过拟合,所述深度神经网络中训练使用优化算法包括SGD,Adam等其它优化算法;
优化算法;
S23、所述的搭建分频卷积层X={XH,XL}和Y={YH,YL}表示输入和输出,其中YL=YH →L+YL→L,和YH=YH→H+YL→H表示输出频率的变化,
WH=[WH→H,WL→H],WL=[WH→L,WL→L]表示卷积核频率的变化,分频卷积操作中高低频率的变化用下面公式表示:
其中(p,q)表示像素点位置,k表示卷积核大小,σ(·)表示激活函数,b表示偏值变化,XH,XL分别表示输入特征图的高频率(High frequency,简写H)和低频率(lowfrequency,简写L)特征图,YH,YL分别表示输出特征图的高频率(Highfrequency,简写H)和低频率(low frequency,简写L)特征图,H→L表示特征图由高频率转换到低频率,H→H表示特征图由高频率转换到高频率,L→L表示特征图由低频率转换到低频率,L→H表示特征图由低频率转换到高频率,m和n用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围;
S24、所述的搭建分频转置卷积层X={XH,XL}和表示输入和输出,其中/>和/>表示分频转置输出的变化,WH=[WH→H,WL→H],WL=[WH→L,WL→L]表示卷积高低频率的变化,分频转置卷积操作中高低频率的变化用下面公式表示:
和/>分别表示分频转置卷积输出特征图的高频率(High frequency,简写H)和低频率(low frequency,简写L)特征图,H→L表示特征图由高频率转换到低频率,H→H表示特征图由高频率转换到高频率,L→L表示特征图由低频率转换到低频率,L→H表示特征图由低频率转换到高频率,m和n的取值用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围,k表示卷积核大小。
更进一步地,所述步骤S3具体包括:
S31、创建多频率分层特征提取模块,确定高频率和低频率中所含有的特征图的数量、卷积核的大小以及反卷积层的卷积核大小;
S32、所述的多频率分层特征提取模块,其输入是对应的编码器一层的输入和上一个解码器的输出,其输出包含用于当前解码器的输入和用于最后多频率分层特征提取模块融合两部分;
S33、所述深度卷积神经网络中编码器与解码器,需要通过多频率分层特征提取模块实现连接,获得其输出结果。
S34、所述深度卷积神经网络中使用深度学习的库包括Caffe、Tensorflow实现以上所述深度神经网络结构,根据划分好的训练集和验证集进行模型训练,通过不断地降低损失函数的函数值来学习深度神经网络的参数,确定深度神经网络模型中的参数值。
更进一步地,所述步骤S4具体包括:
S41、根据所述步骤S21、S22、S23、S24、S31、S32、S33、和S34,利用训练集和测试集训练深度卷积神经网络,深度卷积神经网络中的卷积层所采用的激活函数为ReLU,分层特征提取模块最后一层输出中采用sigmoid激活函数来输出logit,其中每层损失函数公式为;
其中α和β是超参数,yi是标签数据的真实值,是原始图像经过深度网络预测值;
S42、分层特征提取模块最后融合损失函数L_fuse=L_side,N表示图像像素的数目;
S43、所述深度卷积神经网络中最后总的损失函数是,每个解码器层的输出损失函数和分层特征提取模块输出损失函数相加融合得到损失函数:表示多频率分层特征提取模块的数量。
更进一步地,所述步骤S4具体包括:
S51、根据所述步骤S41,S42和S43,所述深度卷积神经网络中融合多频率分层特征提取模块,其输入的特征图是每个多频率分层特征提取模块的特征图通过叠加融合后得到的特征图,其输出是融合后得到的特征图通过过卷积和反卷积操作得到的;
S52、所述深度卷积神经网络中,多频率分层特征提取模块融合最后的输出结果是神经网络最后的输出裂缝分割图像。
附图说明
图1是本发明一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法的流程图;
图2是本发明一实施例的深度卷积神经网络模型流程图;
图3是本发明一实施例的分频卷积模型流程图;
图4是本发明一实施例的分频转置卷积模型流程图;
图5是本发明一实施例的多频率分层特征提取模块流程图;
图6是本发明一实施例的深度卷积神经网络输出结果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
本发明实施例的实验环境为某实验楼、墙壁以及某条公路中的路面,均为室外环境。在本实施例中,裂缝图像的选取为室外环境的公开区域。
本实施例中使用含有Nvidia显卡的PC。所采用的实施方法为Ubuntu方法,并搭建Tensorflow方法平台,采用Tensorflow中的开源软件库。
请参阅图1,本发明实施例提供的一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,包括如下步骤:
S1、创建基于深度学习的道路裂缝图像的训练集和测试集。
本发明实例中采用公共的数据集CFD,此数据集含有118张原始彩色图像和118张标签数据图像,将数据集划分为训练集合测试集,其中训练集中,每份含有100张原始彩色图像和相对应的100张标签数据图像,测试集中含有18张原始彩色图像和相对应的18张标签数据图像。
同时,为了扩充图像数据量,对CFD数据集中的裂缝图像进行数据增强,本发明实例中对已分好的每份数据中的原始彩色图像和标签数据图像进行旋转、剪切来增加裂缝图像的数量。
S2、创建分频卷积模块和分频转置模块。
本发明实施例中所采用的深度卷积神经网络模型基础为U-net架构模型,对此网络模型进行改进。本发明实施例所使用的深度卷积神经网络模型流程图请参阅图2。
该深度神经网络大模型结构建立包括确定所述深度卷积神经网络卷中编码器和解码器层数,以及每个分频卷积层中高频率和低频率中所含有的特征图的数量、池化层的层数、池化层中采样核的大小和训练步长、分频转置卷积层的层数和每个反卷积层中高频率和低频率中所含有的特征图数量。
本发明实施例中深度神经网络大模型中的卷积层所采用的激活函数为ReLU,最后一层输出中采用sigmoid激活函数来输出logit,本发明实施例使用的损失函数公式为:
其中α和β是超参数,yi是标签数据的真实值,是原始图像经过深度网络的预测值。同时本发明实施例使用Adam优化算法进行优化,学习率为0.001,来最小化损失函数。
本发明实施例中所述的分频卷积层X={XH,XL}和Y={YH,YL}表示输入和输出,其中YL=YH→L+YL→L和YH=YH→H+YL→H表示输出频率的变化,WH=[WH→HWL→H],WL=[WH→L,WL→L]表示卷积核频率的变化,分频卷积操作中高低频率(如图3)的变化用下面公式表示:
其中(p,q)表示像素点位置,k表示卷积核大小,σ(·)表示激活函数,b表示偏值变化;XH,XL分别表示输入特征图的高频率和低频率特征图,YH,YL分别表示输出特征图的高频率和低频率特征图,H→L表示特征图由高频率转换到低频率,L→H表示特征图由低频率转换到高频率,H→H表示特征图由高频率转换到高频率,L→L表示特征图由低频率转换到低频率,m和n用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围。
本发明实施例中所述的分频转置卷积层X={XH,XL}和表示输入和输出,其中/>和/>表示分频转置输出的变化,WH=[WH→H,WL→H],WL=[WH→L,WL→L]表示卷积高低频率的变化,分频转置卷积操作中高低频率(如图4)的变化用下面公式表示:
和/>分别表示分频转置卷积输出特征图的高频率和低频率特征图,H→L表示特征图由高频率转换到低频率,H→H表示特征图由高频率转换到高频率,L→L表示特征图由低频率转换到低频率,L→H表示特征图由低频率转换到高频率,m和n的取值用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围,k表示卷积核大小。
S3、创建多频率分层特征提取模块。
本发明实施例中创建多频率分层特征提取模块(如图5),确定高频率和低频率中所含有的特征图的数量、卷积核的大小以及反卷积层的卷积核大小;
本发明实施例中创建的多频率分层特征提取模块,其输入是对应的编码器一层的输入和上一个解码器的输出,其输出包含用于当前解码器的输入和用于最后多频率分层特征提取模块融合两部分;
本发明实施例中所述深度卷积神经网络中编码器与解码器,需要通过多频率分层特征提取模块实现连接,获得其输出结果。
本发明实施例中所述深度卷积神经网络中使用深度学习的库包括Caffe、Tensorflow实现以上所述深度神经网络结构,根据划分好的训练集和验证集进行模型训练,通过不断地降低损失函数的函数值来学习深度神经网络的参数,确定深度神经网络模型中的参数值。
S4、利用训练集和测试集训练深度卷积深度神经网络。
在训练过程中,深度卷积神经网络中的卷积层所采用的激活函数为ReLU,分层特征提取模块最后一层输出中采用sigmoid激活函数来输出logit,其中每层损失函数公式为;
N表示图像像素的数目。
其中α和β是超参数,yi是标签数据的真实值,是原始图像经过深度网络预测值。分层特征提取模块最后融合损失函数L_fuse=L_side。
深度卷积神经网络中最后总的损失函数是,每个解码器层的输出损失函数和分层特征提取模块输出损失函数相加融合得到损失函数:
M表示多频率分层特征提取模块的数量。
S5、将深度卷积神经网络中多频率分层特征提取模块的结果叠加,并输出裂缝图像。
深度卷积神经网络中融合多频率分层特征提取模块,其输入的特征图是每个多频率分层特征提取模块的特征图通过叠加融合后得到的特征图,其输出是融合后得到的特征图通过过卷积和反卷积操作得到的;
本实例中所述深度卷积神经网络中,多频率分层特征提取模块融合最后的输出结果是神经网络最后的输出裂缝分割图像,请参阅图6,图中从左到右依次为:真实图像,标签,预测结果。
以上该实施例仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,其特征在于,所述方法具体包括以下步骤:
S1、创建基于深度学习的道路裂缝图像的训练集和测试集;
S2、创建分频卷积模块和分频转置模块;
S3、创建多频率分层特征提取模块,使用所述分频卷积模块和分频转置模块和多频率分层特征提取模块组成深度卷积神经网络;所述创建多频率分层特征提取模块,确定高频率和低频率中所含有的特征图的数量、卷积核的大小以及反卷积层的卷积核大小;所述多频率分层特征提取模块,其输入是对应的编码器一层的输入和上一个解码器的输出,其输出包含用于当前解码器的输入和用于最后多频率分层特征提取模块融合两部分,所述深度卷积神经网络中编码器与解码器,通过多频率分层特征提取模块实现连接,获得其输出结果;所述深度卷积神经网络中使用深度学习的库包括Caffe 、Tensorflow实现以上所述深度神经网络结构,根据划分好的训练集和验证集进行模型训练,通过不断地降低损失函数的函数值来学习深度神经网络的参数,确定深度神经网络模型中的参数值;
S4、利用训练集和测试集训练所述深度卷积神经网络;
S5、所述深度卷积神经网络中融合多频率分层特征提取模块,其输入的特征图是每个多频率分层特征提取模块的特征图通过叠加融合后得到的特征图,其输出是融合后得到的特征图通过卷积和反卷积操作得到的;所述深度卷积神经网络中,多频率分层特征提取模块融合最后的输出结果是神经网络最后的输出裂缝分割图像。
2.根据权利要求1所述的一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,其特征在于,所述步骤S1具体包括:
利用包括公共的裂缝图像数据集CFD和AigleRN的裂缝图像数据集,将裂缝图像分为训练集和测试集。
3.根据权利要求1所述的一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,其特征在于,所述步骤S1具体包括:
利用智能终端采集到的不同结构表面裂缝图像,构建裂缝图像数据库,对构建的裂缝图像库进行数据增强,将数据增强后的裂缝图像库中的裂缝图像的裂缝区域实施标签标注,然后将裂缝图像库中的图像分为训练集和测试集。
4.根据权利要求2或3所述的一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,其特征在于,所述步骤S2具体包括:
S21、搭建深度神经网络结构模型:确定所述深度卷积神经网络卷中编码器和解码器层数,以及每个分频卷积层中高频率和低频率中所含有的特征图的数量、池化层的层数、池化层中采样核的大小和训练步长、分频转置卷积层的层数和每个反卷积层中高频率和低频率中所含有的特征图数量;
S22、选择深度神经网络的训练策略:所述深度神经网络训练中代价函数的选择为交叉熵损失函数或平方损失函数,以及激活函数的选择Relu,softmax,sigmoid之一,在损失代价函数中加入权值衰减正则化项,同时在卷积层中加入dropout用于减少过拟合,所述深度神经网络中训练使用优化算法包括SGD,Adam之一的优化算法;
S23、所述创建分频卷积模块使用和/>表示输入和输出,其中和/>表示输出频率的变化,
表示卷积核频率的变化,分频卷积操作中高低频率的变化用下面公式表示:
其中(p,q)表示像素点位置,k表示卷积核大小,表示激活函数,b表示偏值变化,XH ,XL分别表示输入特征图的高频率和低频率特征图,YH ,YL分别表示输出特征图的高频率和低频率特征图,/>表示特征图由高频率转换到低频率,/>表示特征图由低频率转换到高频率, />表示特征图由高频率转换到高频率,/>表示特征图由低频率转换到低频率,m和n用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围;
S24、所述创建分频转置模块和/>表示输入和输出,其中和/>表示分频转置输出的变化,表示卷积高低频率的变化,分频转置卷积操作中高低频率的变化用下面公式表示:
和/>分别表示分频转置卷积输出特征图的高频率和低频率特征图,m和n的取值用于决定以(p,q)为像素中心点的局部感受野在输入X上的范围,k表示卷积核大小。
5.根据权利要求4所述的一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法,其特征在于,所述步骤S4具体包括:
S41、根据所述步骤S21、S22、S23、S24、S31、S32、S33和S34,利用训练集和测试集训练深度卷积神经网络,深度卷积神经网络中的卷积层所采用的激活函数为ReLU,多频率分层特征提取模块最后一层输出中采用sigmoid激活函数来输出logit,其中每层损失函数公式为;
L_side= +/>
其中和/>是超参数,/>是标签数据的真实值,/>是原始图像经过深度网络预测值;
S42、多频率分层特征提取模块最后融合损失函数L_fuse=L_side;
S43、所述深度卷积神经网络中最后总的损失函数是,每个多频率分层特征提取模块输出损失函数相加融合得到损失函数:
,其中M表示多频率分层特征提取模块的数量,L_sidem 表示第m个多频率分层特征提取模块的损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010540560.1A CN111738324B (zh) | 2020-06-12 | 2020-06-12 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010540560.1A CN111738324B (zh) | 2020-06-12 | 2020-06-12 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738324A CN111738324A (zh) | 2020-10-02 |
CN111738324B true CN111738324B (zh) | 2023-08-22 |
Family
ID=72649188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010540560.1A Active CN111738324B (zh) | 2020-06-12 | 2020-06-12 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738324B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113315954B (zh) * | 2021-06-08 | 2023-04-07 | 北京市智慧水务发展研究院 | 一种基于深度学习的水尺智能识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619638A (zh) * | 2019-08-22 | 2019-12-27 | 浙江科技学院 | 一种基于卷积块注意模块的多模态融合显著性检测方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
CN111080646A (zh) * | 2019-11-25 | 2020-04-28 | 杭州电子科技大学 | 一种基于宽激活卷积神经网络的改进图像分割方法 |
CN111080511A (zh) * | 2019-11-18 | 2020-04-28 | 杭州时光坐标影视传媒股份有限公司 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
CN111127449A (zh) * | 2019-12-25 | 2020-05-08 | 汕头大学 | 一种基于编码器-解码器的自动化裂缝检测方法 |
CN111179244A (zh) * | 2019-12-25 | 2020-05-19 | 汕头大学 | 一种基于空洞卷积的自动化裂缝检测方法 |
CN111242288A (zh) * | 2020-01-16 | 2020-06-05 | 浙江工业大学 | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101947782B1 (ko) * | 2017-02-22 | 2019-02-13 | 한국과학기술원 | 열화상 영상 기반의 거리 추정 장치 및 방법. 그리고 이를 위한 신경망 학습 방법 |
-
2020
- 2020-06-12 CN CN202010540560.1A patent/CN111738324B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619638A (zh) * | 2019-08-22 | 2019-12-27 | 浙江科技学院 | 一种基于卷积块注意模块的多模态融合显著性检测方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
CN111080511A (zh) * | 2019-11-18 | 2020-04-28 | 杭州时光坐标影视传媒股份有限公司 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
CN111080646A (zh) * | 2019-11-25 | 2020-04-28 | 杭州电子科技大学 | 一种基于宽激活卷积神经网络的改进图像分割方法 |
CN111127449A (zh) * | 2019-12-25 | 2020-05-08 | 汕头大学 | 一种基于编码器-解码器的自动化裂缝检测方法 |
CN111179244A (zh) * | 2019-12-25 | 2020-05-19 | 汕头大学 | 一种基于空洞卷积的自动化裂缝检测方法 |
CN111242288A (zh) * | 2020-01-16 | 2020-06-05 | 浙江工业大学 | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 |
Non-Patent Citations (1)
Title |
---|
基于分频卷积神经网络的视网膜血管分割;莫嘉杰;《万方数据知识服务平台》;第1-71页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111738324A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127449B (zh) | 一种基于编码器-解码器的自动化裂缝检测方法 | |
CN110136170B (zh) | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 | |
CN110929607B (zh) | 一种城市建筑物施工进度的遥感识别方法和系统 | |
CN111179244B (zh) | 一种基于空洞卷积的自动化裂缝检测方法 | |
CN107944450A (zh) | 一种车牌识别方法及装置 | |
CN112488025B (zh) | 基于多模态特征融合的双时相遥感影像语义变化检测方法 | |
CN113688836A (zh) | 一种基于深度学习的实时性道路图像语义分割方法及系统 | |
CN110751644B (zh) | 道路表面裂纹检测方法 | |
Ren et al. | YOLOv5s-M: A deep learning network model for road pavement damage detection from urban street-view imagery | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN114022770A (zh) | 基于改进自注意力机制与迁移学习的山体裂缝检测方法 | |
CN111815576B (zh) | 金属部件腐蚀状况检测方法、装置、设备和存储介质 | |
CN111242026A (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN113420619A (zh) | 一种遥感影像建筑物提取方法 | |
CN111199539A (zh) | 一种基于集成神经网络的裂缝检测方法 | |
CN111797920A (zh) | 门控特征融合的深度网络不透水面遥感提取方法及系统 | |
CN115439750A (zh) | 道路病害检测方法、装置、电子设备及存储介质 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN111738324B (zh) | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 | |
CN113158954B (zh) | 交通非现场的基于ai技术的斑马线区域自动检测方法 | |
CN112597996B (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
CN112085001B (zh) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 | |
CN113516652A (zh) | 电池表面缺陷和粘合剂检测方法、装置、介质和电子设备 | |
CN111721770A (zh) | 一种基于分频卷积的自动化裂缝检测方法 | |
CN116468994A (zh) | 一种基于街景数据的村镇收缩模拟方法、系统和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |