CN112001359B - 基于模式识别和最优分配的启发式多叉线修补方法 - Google Patents
基于模式识别和最优分配的启发式多叉线修补方法 Download PDFInfo
- Publication number
- CN112001359B CN112001359B CN202010940074.9A CN202010940074A CN112001359B CN 112001359 B CN112001359 B CN 112001359B CN 202010940074 A CN202010940074 A CN 202010940074A CN 112001359 B CN112001359 B CN 112001359B
- Authority
- CN
- China
- Prior art keywords
- crack
- affinity
- image
- subgraph
- trunk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000003909 pattern recognition Methods 0.000 title claims abstract description 9
- 238000005259 measurement Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 9
- 238000005520 cutting process Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000008439 repair process Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000031702 trunk segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于模式识别和最优分配的启发式多叉线修补方法,该方法包括:对裂缝图像进行语义提取,提取裂缝图像中的裂缝,得到主干裂缝二值图像及分叉线裂缝二值图像;对主干裂缝二值图像、分叉线裂缝二值图像进行连通域分析,分别针对主干裂缝二值图像中各连通域以及分叉线裂缝二值图像中各连通域执行裂缝子图切割操作、亲和度度量;计算待分析裂缝子图与待连接裂缝子图的连接亲和度,将连接亲和度大于设定阈值的两个裂缝子图在裂缝图像中距离最近的裂缝端点连接。本发明提高了裂缝连接的准确率。
Description
技术领域
本发明涉及计算机视觉、人工智能、裂缝提取技术领域,具体涉及一种基于模式识别和最优分配的启发式多叉线修补方法。
背景技术
裂缝的背景复杂多样,一般的人力检测不仅消耗严重而且时效性和可靠性都比较差,因此采用计算机自动检测裂缝的技术成为该技术领域的研究热点之一。现有裂缝检测容易受到光照、阴影等因素的影响,且裂缝的提取通常为断续的多条曲线,这对于裂缝的检测存在很大的影响。对于以往方法检测裂缝存在的裂缝中断现象需要一种方法来修补,以减少其对裂缝分析所带来的影响。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷,提出一种基于模式识别和最优分配的启发式多叉线修补方法。
一种基于模式识别和最优分配的启发式多叉线修补方法,该方法包括:
步骤1,采集裂缝图像,对裂缝图像进行语义提取,提取裂缝图像中的裂缝,得到主干裂缝二值图像及分叉线裂缝二值图像;
步骤2,对主干裂缝二值图像、分叉线裂缝二值图像进行连通域分析,分别针对主干裂缝二值图像中各连通域以及分叉线裂缝二值图像中各连通域执行以下操作:
步骤2a,计算裂缝二值图像中各连通域的最小外接矩形;
步骤2b,按照最小外接矩形将各连通域图像切割出来,得到多个裂缝子图,对多个裂缝子图按照裂缝轮廓面积进行降序排序;
步骤2c,从排序序列中依次取待分析裂缝子图;
步骤2d,计算待分析裂缝子图的图像中心点,选取距离中心点距离最近的K个待连接裂缝子图;
步骤2e,对待分析裂缝子图、待连接裂缝子图Pi进行亲和度度量;
步骤2f,计算待分析裂缝子图与待连接裂缝子图的连接亲和度,若连接亲和度大于设定阈值,则将两个裂缝子图在裂缝图像中距离最近的裂缝端点连接,否则,若i<K,返回步骤2e,若i=K,返回步骤2c直到所有裂缝子图均被处理完成。
进一步地,所述亲和度度量基于亲和度度量网络计算,亲和度度量网络包括:
亲和度度量编码器,用于对输入的图像进行特征提取,输出亲和度特征图;
第一全连接网络,用于将展开后的亲和度特征图映射到高维向量空间,输出亲和度度量;
第二全连接层,用于将亲和度度量映射到样本标记空间。
进一步地,所述亲和度度量网络包括主干裂缝亲和度度量网络、分叉线裂缝亲和度度量网络。
进一步地,所述主干裂缝亲和度度量网络的训练方法如下:
将连续的主干裂缝图像进行分段切分,将分段后得到的主干裂缝子图作为样本图像,并对分段后的主干裂缝子图赋予相同的样本标记;
收集若干张主干裂缝图像进行分段切分、标记,得到标记过的样本图像集;
将样本图像集以及标记数据输入主干裂缝亲和度度量网络进行训练。
进一步地,所述分叉线裂缝亲和度度量网络的训练方法如下:
将连续的分叉线裂缝图像进行分段切分,将分段后得到的分叉线裂缝子图作为样本图像,并对分段后的分叉线裂缝子图赋予相同的标记;
收集若干张分叉线裂缝图像进行分段切分、标记,得到标记过的样本图像集;
将样本图像集以及标记数据输入分叉线裂缝亲和度度量网络进行训练。
进一步地,所述选取距离中心点距离最近的Top-K个裂缝子图的方法如下:
计算图像中心点与各待连接裂缝子图中连通域点的距离,将最短距离作为图像中心点与待连接裂缝子图的距离D;
选取距离图像中心点距离最近的Top-K个裂缝子图,K为选择的裂缝子图的个数。
进一步地,所述连接亲和度的计算方法如下:
计算待分析裂缝子图与待连接裂缝子图亲和度度量的余弦相似度,作为连接亲和度。
进一步地,所述连接亲和度的计算方法如下:
计算待分析裂缝子图与待连接裂缝子图Pi亲和度度量的余弦相似度,作为初始连接亲和度AF′i;
计算待分析裂缝子图与带链接裂缝子图Pi的连接亲和度AFi:
其中,w1、w2为权重系数,Di为待分析裂缝子图图像中心点与待连接裂缝子图Pi的距离。
进一步地,针对主干裂缝二值图像、分叉线裂缝二值图像,K的数值不同。
进一步地,所述步骤1中的语义提取采用语义分割深度卷积神经网络。
本发明与现有技术相比,具有以下有益效果:
1.基于计算机视觉技术,提取主干裂缝、分叉线裂缝,分别针对主干裂缝、分叉线裂缝,结合度量学习技术度量裂缝之间的亲和程度,相比于传统的不区分裂缝类型、直接进行连接的方法,提高了裂缝连接的准确率。度量学习的输入为二值化裂缝图像,其训练数据可基于画图等模拟器快速实现,具有样本量充足、数据容易获取、容易标记的特点。根据距离以及亲和度设置合理、有效、准确的连接亲和度的计算方式,进一步提高了连接准确率。
2.基于轮廓面积、距离来遍历裂缝之间的亲和程度,具有速度快、计算简单的特点。针对主干裂缝、分叉线裂缝设计不同的K值,进一步提高了连接准确度。
附图说明
图1为本发明的流程图。
图2为样本数据集采集方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于模式识别和最优分配的启发式多叉线修补方法。图1为本发明的流程图。下面通过具体实施例来进行说明。
实施例1:
基于模式识别和最优分配的启发式多叉线修补方法:
裂缝识别及度量是对拍摄的图像进行裂缝主干线及分叉线的提取,并度量裂缝图像的余弦相似程度。
步骤1,采集裂缝图像,对裂缝图像进行语义提取,提取裂缝图像中的裂缝,得到主干裂缝二值图像及分叉线裂缝二值图像。
首先对裂缝图像进行裂缝提取,最终得到二值化图像。裂缝的提取方法属于常见技术,此步不做约束,也可基于DNN卷积神经网络来进行裂缝提取。本发明以语义分割DNN来举例:其标签通过人为标注,针对多叉线型裂缝图像进行标注其主干、分叉线,通过像素值1表示,0则代表背景。最终一张多叉线型裂缝图像得到两张裂缝图像,一张为主干线裂缝二值图像,一张为分叉线裂缝二值图像,作为标签数据。
然后训练DNN卷积神经网络,其训练过程如下:将图像数据进行归一化处理,将其值域归到[0,1]区间,有助于网络的收敛。然后将裂缝图像与标签数据(要经过one-hot编码)送入到网络中进行训练。其中语义提取编码器是对图像数据进行特征提取,输入为裂缝图像,输出为特征图;语义提取解码器起到上采样与特征提取的作用,输入为编码器产生的特征图,输出为裂缝主干分割的概率图及裂缝多叉线分割的概率图。损失函数采用交叉熵,考虑到检测中,裂缝不是经常存在的,因此实施者也可采用改进的损失函数,如Focalloss、加权交叉熵等,解决样本类别不均衡的问题。分割的概率图再经过Argmax操作就可以得到对应的分割图像,该分割图像为二值化图像。
语义提取的编码器解码器,推荐采用跳级连接结构,并结合ShuffleNet、MobileNet等轻量级网络的block设计,以便更快速、更准确地对目标进行分割。最终,实施者也可套用常见的语义分割模型,如GSCNN、Deeplab、Unet等。
步骤2,对主干裂缝二值图像、分叉线裂缝二值图像进行连通域分析,分别针对主干裂缝二值图像中各连通域以及分叉线裂缝二值图像中各连通域执行步骤2a-2f。
对于步骤1得到的图像,包括主干裂缝二值图像、分叉线裂缝二值图像进行连通域分析得到连通域轮廓集合。
步骤2a,计算裂缝二值图像中各连通域的最小外接矩形。对于每一个轮廓,求得其最小外接矩形,并切割出来进行后续的裂缝亲和度量。
步骤2b,按照最小外接矩形将各连通域图像切割出来,得到多个裂缝子图,对多个裂缝子图按照裂缝轮廓面积进行降序排序。如此可以得到主干裂缝子图集合、分叉线裂缝子图集合。
步骤2c,从排序序列中依次取待分析裂缝子图。
步骤2d,计算待分析裂缝子图的图像中心点,选取距离中心点距离最近的K个待连接裂缝子图。
选取距离中心点距离最近的Top-K个裂缝子图的方法:计算图像中心点与各待连接裂缝子图中连通域点的距离,将最短距离作为图像中心点与待连接裂缝子图的距离D;选取距离图像中心点距离最近的Top-K个裂缝子图,K为选择的裂缝子图的个数。
步骤2e,对待分析裂缝子图、待连接裂缝子图Pi进行亲和度度量。
裂缝亲和度量采用度量学习技术,该网络的形态为编码器Encoder+全连接。亲和度度量基于亲和度度量网络计算,亲和度度量网络包括:亲和度度量编码器,用于对输入的图像进行特征提取,输出亲和度特征图;第一全连接网络,用于将展开后的亲和度特征图映射到高维向量空间,输出亲和度度量;第二全连接层,用于将亲和度度量映射到样本标记空间。亲和度度量网络包括主干裂缝亲和度度量网络、分叉线裂缝亲和度度量网络。
主干裂缝亲和度度量网络的训练方法如下:将连续的主干裂缝图像进行分段切分,将分段后得到的主干裂缝子图作为样本图像,并对分段后的主干裂缝子图赋予相同的样本标记收集若干张主干裂缝图像进行分段切分、标记,得到标记过的样本图像集;将样本图像集以及标记数据输入主干裂缝亲和度度量网络进行训练。
分叉线裂缝亲和度度量网络的训练方法如下:将连续的分叉线裂缝图像进行分段切分,将分段后得到的分叉线裂缝子图作为样本图像,并对分段后的分叉线裂缝子图赋予相同的标记;收集若干张分叉线裂缝图像进行分段切分、标记,得到标记过的样本图像集;将样本图像集以及标记数据输入分叉线裂缝亲和度度量网络进行训练。
下面对亲和度度量网络的训练网络进行详细说明。首先进行数据采集,该采集由于输入图像为二值图像,因此可以人为地制作图像数据,利用画图等模拟器软件进行画线,该线为连续的、单条的,属于单个轮廓。然后对于该分叉线进行分段切分,作为训练数据集。以某一分叉线裂缝为例,其数据分段切分如下图2所示。由于用到度量学习,需要对标签进行类别划分,对于类别可以人为地进行主观划分,如上述图2可划分一个类别。通过上述原理,采集大量分叉线裂缝图像,进行分段切分,同一分叉线裂缝应当具有相同的标记。采集的裂缝分叉线图像应当包括尽量多的裂缝类型。例如根据裂缝的方向、裂缝的弯折方向等划分不少于8个类别。
网络输入的训练数据即上述图像中分段切分图像。然后对亲和度量网络进行训练,其训练的细节如下:网络训练方法是使用AM-softmax损失函数进行分类训练,把训练好的网络去掉最后一层分类层,选取最后一个隐藏层输出作为一个数据的特征。两个数据特征使用余弦相似度进行计算。损失函数也可参考其他的,如CosFace、ArcFace等,最终以余弦相似度进行度量。由于输入图像为二值图像,因此此处不做图像预处理,直接输入到网络中。输入图像的大小,经验为64*64。
然后端到端地训练亲和度度量编码器、第一全连接网络FC1、全连接层FC2。亲和度量编码器对图像进行特征提取,输入为二值化图像数据,输出为Feature map;然后对Feature map进行Flatten操作,得到展平的张量;FC1作用是将展平的张量映射到高维空间,其输入为展平的张量,输出为一个高维张量;最终FC2将高维张量映射到样本标记空间,输入为高维向量,输出为各个类别概率。对于高维张量,经验维数为128维。
训练完毕后,对于该网络的推理,只需要亲和度量编码器、第一全连接网络,最终对每一张图片推理获得一个高维张量,作为亲和度度量。相比距离度量,余弦相似度更加注重在方向上的差异,而非距离或长度上,因而更适用于度量裂缝分叉的亲和度。
步骤2f,计算待分析裂缝子图与待连接裂缝子图的连接亲和度,若连接亲和度大于设定阈值,则将两个裂缝子图在裂缝图像中距离最近的裂缝端点连接,否则,若i<K,返回步骤2e,若i=K,返回步骤2c直到所有裂缝子图均被处理完成。
连接亲和度的计算方法包括以下两种。一种实施方式是计算待分析裂缝子图与待连接裂缝子图亲和度度量的余弦相似度,作为连接亲和度。另一种实施方式是计算待分析裂缝子图与待连接裂缝子图Pi亲和度度量的余弦相似度,作为初始连接亲和度AF′i;计算待分析裂缝子图与带链接裂缝子图Pi的连接亲和度AFi:
其中,w1、w2为权重系数,Di为待分析裂缝子图图像中心点与待连接裂缝子图Pi的距离,w1、w2之和应为1。此外,还可以使用以下计算方式:
对于每一个裂缝子图进行连接亲和度分析,以主干裂缝为例:对于主干裂缝图像,可获取每一个轮廓的最小外接矩形切割图像,每一张裂缝子图图像表示每一个主干裂缝。首先在主干裂缝二值图像中选取最大轮廓面积的主干裂缝进行分析,先求得所有轮廓最小外接矩形的中心点,即w,h分别表示最小外接矩形的长和宽,然后选取中心点距离最近的Top-K主干裂缝进行度量。K为超参数,可基于图像分析来人为决定。此步选取距离最近的裂缝轮廓也可做进一步约束,如选取垂直距离最近的裂缝轮廓。
以K=3为例,则主干裂缝与距离最接近三条裂缝进行连接亲和度分析,分别计算主干裂缝与三条裂缝的亲和度度量,按照连接亲和度公式计算连接亲和度。若连接亲和度大于阈值G时,认定裂缝亲和度大,选取该两条裂缝在原图像中距离最近的端点进行连接,形成一条完整、不间断的裂缝。阈值G通常需要人为调试。对于分叉线裂缝来说,通常数量上比主干裂缝多,因此超参数K可选择较大的值。然后选取第二连通域面积的图像进行上述步骤,如果一个裂缝图像已经连接两条裂缝,则该轮廓不再参与亲和度量。
多叉线修补利用上述裂缝提取技术、裂缝度量技术进行主干线、分叉线的修补,最终形成一条完整的裂缝。基于上述原理,将图像中主干裂缝与主干裂缝,分叉裂缝和分叉裂缝进行亲和度量并进行连接,最终形成一条完整的裂缝二值图像。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于模式识别和最优分配的启发式多叉线修补方法,其特征在于,该方法包括:
步骤1,采集裂缝图像,对裂缝图像进行语义提取,提取裂缝图像中的裂缝,得到主干裂缝二值图像及分叉线裂缝二值图像;
步骤2,对主干裂缝二值图像、分叉线裂缝二值图像进行连通域分析,分别针对主干裂缝二值图像中各连通域以及分叉线裂缝二值图像中各连通域执行以下操作:
步骤2a,计算裂缝二值图像中各连通域的最小外接矩形;
步骤2b,按照最小外接矩形将各连通域图像切割出来,得到多个裂缝子图,对多个裂缝子图按照裂缝轮廓面积进行降序排序;
步骤2c,从排序序列中依次取待分析裂缝子图;
步骤2d,计算待分析裂缝子图的图像中心点,选取距离中心点距离最近的K个待连接裂缝子图;
步骤2e,对待分析裂缝子图、待连接裂缝子图Pi进行亲和度度量;
步骤2f,计算待分析裂缝子图与待连接裂缝子图的连接亲和度,若连接亲和度大于设定阈值,则将两个裂缝子图在裂缝图像中距离最近的裂缝端点连接,否则,若i<K,返回步骤2e,若i=K,返回步骤2c直到所有裂缝子图均被处理完成;
所述连接亲和度的计算方法如下:
计算待分析裂缝子图与待连接裂缝子图亲和度度量的余弦相似度,作为连接亲和度;
计算待分析裂缝子图与待连接裂缝子图Pi亲和度度量的余弦相似度,作为初始连接亲和度AFi′;
计算待分析裂缝子图与带链接裂缝子图Pi的连接亲和度AFi:
其中,w1、w2为权重系数,Di为待分析裂缝子图图像中心点与待连接裂缝子图Pi的距离。
2.如权利要求1所述的方法,其特征在于,所述亲和度度量基于亲和度度量网络计算,亲和度度量网络包括:
亲和度度量编码器,用于对输入的图像进行特征提取,输出亲和度特征图;
第一全连接网络,用于将展开后的亲和度特征图映射到高维向量空间,输出亲和度度量;
第二全连接层,用于将亲和度度量映射到样本标记空间。
3.如权利要求1所述的方法,其特征在于,亲和度度量网络包括主干裂缝亲和度度量网络、分叉线裂缝亲和度度量网络。
4.如权利要求1所述的方法,其特征在于,主干裂缝亲和度度量网络的训练方法如下:
将连续的主干裂缝图像进行分段切分,将分段后得到的主干裂缝子图作为样本图像,并对分段后的主干裂缝子图赋予相同的样本标记;
收集若干张主干裂缝图像进行分段切分、标记,得到标记过的样本图像集;
将样本图像集以及标记数据输入主干裂缝亲和度度量网络进行训练。
5.如权利要求3所述的方法,其特征在于,所述分叉线裂缝亲和度度量网络的训练方法如下:
将连续的分叉线裂缝图像进行分段切分,将分段后得到的分叉线裂缝子图作为样本图像,并对分段后的分叉线裂缝子图赋予相同的标记;
收集若干张分叉线裂缝图像进行分段切分、标记,得到标记过的样本图像集;
将样本图像集以及标记数据输入分叉线裂缝亲和度度量网络进行训练。
6.如权利要求1所述的方法,其特征在于,所述选取距离中心点距离最近的Top-K个裂缝子图的方法如下:
计算图像中心点与各待连接裂缝子图中连通域点的距离,将最短距离作为图像中心点与待连接裂缝子图的距离D;
选取距离图像中心点距离最近的Top-K个裂缝子图,K为选择的裂缝子图的个数。
7.如权利要求1所述的方法,其特征在于,针对主干裂缝二值图像、分叉线裂缝二值图像,K的数值不同。
8.如权利要求1所述的方法,其特征在于,所述步骤1中的语义提取采用语义分割深度卷积神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010940074.9A CN112001359B (zh) | 2020-09-09 | 2020-09-09 | 基于模式识别和最优分配的启发式多叉线修补方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010940074.9A CN112001359B (zh) | 2020-09-09 | 2020-09-09 | 基于模式识别和最优分配的启发式多叉线修补方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001359A CN112001359A (zh) | 2020-11-27 |
CN112001359B true CN112001359B (zh) | 2023-07-18 |
Family
ID=73469101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010940074.9A Active CN112001359B (zh) | 2020-09-09 | 2020-09-09 | 基于模式识别和最优分配的启发式多叉线修补方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001359B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115576B (zh) * | 2023-10-17 | 2024-03-26 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种基于图像的路面裂缝能量分析方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
CN110163842A (zh) * | 2019-04-15 | 2019-08-23 | 深圳高速工程检测有限公司 | 建筑裂缝检测方法、装置、计算机设备和存储介质 |
CN110298802A (zh) * | 2019-06-28 | 2019-10-01 | 广东诚泰交通科技发展有限公司 | 路面裂缝检测方法及装置 |
JP2020038132A (ja) * | 2018-09-04 | 2020-03-12 | 大成建設株式会社 | コンクリート表面上のひび割れ特定方法、ひび割れ特定装置、ひび割れ特定システム及びプログラム |
-
2020
- 2020-09-09 CN CN202010940074.9A patent/CN112001359B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
JP2020038132A (ja) * | 2018-09-04 | 2020-03-12 | 大成建設株式会社 | コンクリート表面上のひび割れ特定方法、ひび割れ特定装置、ひび割れ特定システム及びプログラム |
CN110163842A (zh) * | 2019-04-15 | 2019-08-23 | 深圳高速工程检测有限公司 | 建筑裂缝检测方法、装置、计算机设备和存储介质 |
CN110298802A (zh) * | 2019-06-28 | 2019-10-01 | 广东诚泰交通科技发展有限公司 | 路面裂缝检测方法及装置 |
Non-Patent Citations (4)
Title |
---|
Curve-Like Structure Extraction Using Minimal Path Propagation With Backtracking;Yang Chen等;《IEEE Transactions on Image Processing》;第25卷(第2期);988 - 1003 * |
Lining seam elimination algorithm and surface crack detection in concrete tunnel lining;Zhong Qu等;《Journal of Electronic Imaging》;第25卷(第6期);1-17 * |
基于Prim最小生成树的路面裂缝连接算法;任亮等;《计算机工程》;第41卷(第1期);31-43 * |
基于无人机视觉的桥梁裂缝检测技术研究;张帅;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》(第06期);C034-463 * |
Also Published As
Publication number | Publication date |
---|---|
CN112001359A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108492272B (zh) | 基于注意力模型及多任务神经网络的心血管易损斑块识别方法及系统 | |
CN105931253B (zh) | 一种基于半监督学习相结合的图像分割方法 | |
CN107392141B (zh) | 一种基于显著性检测和lsd直线检测的机场提取方法 | |
CN109190626A (zh) | 一种基于深度学习的多路径特征融合的语义分割方法 | |
CN104298992B (zh) | 一种基于数据驱动的自适应尺度行人重识别方法 | |
CN112651969B (zh) | 结合多信息融合网络和区域增长的气管树分级提取方法 | |
CN113011509B (zh) | 肺部支气管的分类方法、装置、电子设备和存储介质 | |
CN112419452B (zh) | 一种胃癌pd-l1数字病理切片图像快速合并系统及方法 | |
CN113240623B (zh) | 一种路面病害检测方法及装置 | |
CN108537169A (zh) | 一种基于中心线和路宽检测算法的高分辨率遥感影像道路提取方法 | |
CN112949408A (zh) | 一种过鱼通道目标鱼类实时识别方法和系统 | |
CN115546605A (zh) | 一种基于图像标注和分割模型的训练方法及装置 | |
CN114266881A (zh) | 一种基于改进型语义分割网络的指针式仪表自动读数方法 | |
CN111126143A (zh) | 一种基于深度学习的运动评判指导方法及系统 | |
CN114973116A (zh) | 一种自注意力特征嵌入夜间机场跑道异物检测方法与系统 | |
CN112001359B (zh) | 基于模式识别和最优分配的启发式多叉线修补方法 | |
CN116229265A (zh) | 一种自动无损提取大豆植株表型的方法 | |
CN114897790A (zh) | 基于深度学习的钢筋混凝土构件表面裂缝的快速识别方法 | |
CN113591850A (zh) | 基于计算机视觉鲁棒性目标检测的两阶段商标检测法 | |
KR101849933B1 (ko) | 공분산 기술자와 퍼지 모델을 이용한 심볼 인식장치 | |
CN114947751A (zh) | 基于深度学习的移动端智能舌诊方法 | |
CN104764402A (zh) | 柑橘体积的视觉检测方法 | |
CN111046861B (zh) | 识别红外影像的方法、构建识别模型的方法及应用 | |
CN110084125B (zh) | 一种基于深度学习的农业保险查勘技术方法 | |
CN113269195A (zh) | 读数表图像字符识别方法和装置以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |