CN113610060B - 一种结构体裂缝亚像素检测方法 - Google Patents
一种结构体裂缝亚像素检测方法 Download PDFInfo
- Publication number
- CN113610060B CN113610060B CN202111146919.8A CN202111146919A CN113610060B CN 113610060 B CN113610060 B CN 113610060B CN 202111146919 A CN202111146919 A CN 202111146919A CN 113610060 B CN113610060 B CN 113610060B
- Authority
- CN
- China
- Prior art keywords
- crack
- image
- gray
- pixel
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000010586 diagram Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 238000011161 development Methods 0.000 claims abstract description 8
- 230000018109 developmental process Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000003702 image correction Methods 0.000 claims abstract description 5
- 238000007670 refining Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000012937 correction Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种结构体裂缝亚像素检测方法,包括以下步骤:一、获取结构体的多张表面图像,并记录拍摄每张图像时相机的位置姿态信息;二、根据拍摄时相机的镜头参数和位置姿态信息对所拍摄的图像进行图像校正和图像标定,以获取相机到拍摄平面距离的标定系数;三、对所拍摄的多张图像进行拼接,获取结构体表面展开图;四、基于训练好的裂缝图像训练模型,对结构体表面展开图进行区域分割,并分区域进行裂缝提取;五、对提取得到的裂缝二值化图像进行细化,获取裂缝骨架图,计算裂缝的起始点位置信息、结束点位置信息、分叉点位置信息,并计算裂缝的亚像素宽度、长度。本发明兼顾效率和精度,能够检测到0.1像素的裂缝参数。
Description
技术领域
本发明涉及结构体裂缝亚像素检测技术领域,特别是涉及一种结构体裂缝亚像素检测方法。
背景技术
任何建筑结构都会受到自然环境和人类活动的影响,产生不同程度的退化和衰变,随着时间的推移,这些可见或细微的变化可能影响到结构的安全性和持久性。在某些特殊领域,如水利工程中,裂缝会危及到大坝的安全;在核电站里,反应堆的混凝土外壳上的缺陷可能导致辐射泄漏,空气冷却塔的缺陷会影响生产。对于一些大型现代建筑结构如体育馆,航站楼和大剧院,结构的衰退直接关系到人身安全。
目前国内对于人所不能及的结构体表面检测主要采用借助外围手段,如桥梁车、高空作业车、搭建脚手架、船舶平台等,将远距离结构体缺陷检测转化为近距离接触式检测。常用检测的方法包括:塞尺或比对卡、裂缝放大镜、智能裂缝测宽仪。其特点是需要近距离接触到裂缝表面观测,测量精度高。接触式测量,最大的问题就是测量效率低,成本高,只能对结构体表面局部裂缝进行抽检,获取单一位置裂缝的宽度信息,无法对结构体进行全面检测,同时无法获取结构体整体信息。
目前非接触测量主要利用望远镜,长焦照相机等进行定性观测。传统对于结构体裂缝图像的边缘提取方法,一般先进行裂缝边缘检测,然后计算裂缝2条边缘之间的宽度。而传统边缘检测算法只能实现整像素检测,即只能检测到单位像素级别的边缘。采用传统方式仅能识别出裂缝宽度等于或大于2像素的裂缝图像,若裂缝宽度小于2个像素,则该方法无法识别出裂缝,也无法实现对亚像素裂缝图像的识别。
发明内容
本发明要解决的技术问题是提供一种结构体裂缝亚像素检测方法,以解决背景技术中所提到的问题。
本发明提供一种结构体裂缝亚像素检测方法,包括以下步骤:
S1,图像获取:获取结构体的多张表面图像,并记录拍摄每张图像时相机的位置姿态信息;
S2,图像校正:根据拍摄时相机的镜头参数和位置姿态信息对所拍摄的图像进行图像畸变校正、图像倾斜校正和图像标定,并获取相机到拍摄平面距离d的标定系数g(d);
S3,图像拼接:对所拍摄的多张图像依次进行图像粗拼接和图像细拼接,以获取结构体表面展开图;
S4,图像裂缝提取:
S4-1,模型训练:采集不同类别结构体的裂缝图像,建立裂缝图像数据集,对所述裂缝图像数据集进行模型训练,以得到训练好的裂缝图像训练模型;
S4-2,区域图像裂缝提取:对所述结构体表面展开图进行区域分割,并将分割后的区域图像输入至所述裂缝图像训练模型中进行分割,以初步划分出裂缝位置和背景位置,根据分割结果生成裂缝二值图像;
S5,图像裂缝计算:
S5-1,对所述裂缝二值图像进行细化,以获取裂缝骨架图;
S5-2,对裂缝骨架图进行遍历,获取每条裂缝的起始点位置信息、结束点位置信息和分叉点位置信息;
S5-3,裂缝灰度值计算:
将所述区域图像转化为灰度图像,对所述灰度图像进行归一化处理,得到归一化区域灰度图像;
在所述归一化区域灰度图像上计算所述裂缝骨架图上对应裂缝上每个位置坐标点的灰度值。对每个骨架图上位置坐标点分别计算其在区域灰度图像上多个延伸方向上的灰度值,并选取最小灰度值作为该位置坐标点处的裂缝灰度值,以此完成该条裂缝上的所有位置坐标点的灰度计算;
S5-4,构建标准条纹图像亚像素值的数据集,其中,所述标准条纹图像亚像素值的数据集包括:模拟不同单一底色背景下,各个亚像素的纯黑色条纹,并依次进行拍摄,得到标准图片集,将所述标准图片集输入至训练好的裂缝图像训练模型中,以输出二值图像集,并对二值图像集进行细化,按照S5-3,依次获取每个单一底色下、不同像素所对应纯黑色条纹的裂缝灰度值,构建纯黑色条纹像素值的数据集、纯黑色条纹像素值所对应裂缝灰度值的数据集,将上述两个数据集进行对应拟合,以构建标准条纹亚像素值与其灰度计算值的对应关系;
S5-5,通过所述归一化区域灰度图像上裂缝的位置信息和灰度值信息,从而获知所检测的结构体裂缝所对应像素下结构体裂缝的各项裂缝参数。
优选的是,S1中,所述结构体表面图像以S形路径采集,所述S形路径按照从左到右、从下向上的顺序开始,所述相机的位置姿态包括相机的俯仰角度α、水平角度β和相机到拍摄平面的距离d。
在上述任一方案优选的是,S2中,所述图像标定包括如下步骤:预先选定尺寸为定值的目标物,计算相机到目标物的拍摄距离为1米时,该目标物的实际尺寸为L,在图像上的像素值t,以得到相机到目标物的拍摄距离为1米时的标定系数、相机到拍摄平面距离为d的标定系数;
其中,所述相机到目标物的拍摄距离为1米时标定系数fscale的计算公式为:
所述相机到拍摄平面距离为d时标定系数g(d)的计算公式为:
在上述任一方案优选的是,S4-1中,对训练样本中各裂缝图像中的裂缝进行标记,以得到裂缝图像样本集,将所述裂缝图像样本集输入至U-Net网络中,通过U-Net网络输出实际图像特征,并与预设图像中的裂缝特征比较,并根据比较结果调整连接权,直至测试样本裂缝自动提取满足规定比例,则该数据集下训练模型完成。
在上述任一方案优选的是,S5-3中,计算所述归一化区域灰度图像(n×m)的平均灰度值avg_gray;
其中,所述归一化区域灰度图像的平均灰度值的计算公式为:
i为X轴的坐标点,i=1,2,…n;j为Y轴的坐标点,j=1,2,…m。
在上述任一方案优选的是,S5-3中,对每个匹配的位置坐标点采用如下方式计算灰度值:
设当前位置坐标点为(Xi,Yj),计算该位置坐标点的灰度值,即Gray(i,j),以该所述位置坐标点为计算中心,选取多个延伸方向,即γk,再分别计算每个延伸方向的灰度值,即Grayγk,并对各个延伸方向的灰度值进行比较,选取最小灰度值作为该位置坐标点处的裂缝灰度值,即Gray=Min(Grayγk);
其中,i为X轴的坐标点,j为Y轴的坐标点,k为延伸方向个数。
在上述任一方案优选的是,S5-3中,对每个延伸方向采用如下方式计算灰度值:
设每个延伸方向分别向X方向延伸-p个像素到q个像素,向Y方向延伸-s个像素到t个像素,并分别记录对应的位置坐标点,即(Xi-p,Yj-s)、(Xi+q,Yj+t),再分别计算对应位置坐标点的灰度值,即Gray(i-p,j-s)、Gray(i+q,j+t),则平均灰度值分别与延伸各点灰度值差值总和即为每个延伸方向上所对应的灰度值,即:
其中,x为X方向延伸的像素个数, y为Y方向延伸的像素个数;
每个对应位置坐标点的灰度值需满足以下条件:
avg_gray为平均灰度值。
在上述任一方案优选的是,S5-4中,对于所构建的所述纯黑色条纹像素值的数据集、纯黑色条纹像素值所对应裂缝灰度值的数据集,利用多项式拟合方法,构建标准条纹亚像素值与裂缝灰度值一一对应的拟合曲线,并获取相应函数关系式,即,
H(x)=ax3+bx2+cx+e
其中,a、b、c、e为拟合系数,x为灰度值。
在上述任一方案优选的是,所述裂缝参数包括裂缝宽度,所述裂缝宽度采用如下方式计算:
将S5-3中所获得的每个位置坐标点所对应的裂缝灰度值,代入裂缝宽度计算公式,以得到每个点的裂缝宽度,结合每个点的裂缝宽度进一步得到整个裂缝的平均裂缝宽度、最大裂缝宽度和最小裂缝宽度;
其中,所述裂缝宽度计算公式为:
Crack_width=(ax3+bx2+cx+e)•g(d)
在上述任一方案优选的是,所述裂缝参数包括裂缝长度,所述裂缝长度采用如下方式计算:
在裂缝骨架图上获取单条裂缝的起始点位置坐标、结束点位置坐标以及裂缝骨架图上单条裂缝所有点的位置坐标,并将各位置坐标代入裂缝长度计算公式,以得到每条裂缝长度;
其中,所述裂缝长度计算公式为:
i为X轴的坐标点,i=1,2,…n;j为Y轴的坐标点,j=1,2,…m。
与现有技术相比,本发明所具有的优点和有益效果为:
1、本发明结构体裂缝检测原理与传统裂缝检测原理不同,本发明的结构体裂缝检测能够实现结构体裂缝亚像素检测,例如,0.1像素、0.15像素、0.2像素…。
2、本发明通过对结构体图像依次进行校正、拼接、裂缝提取、归一化处理后,得到归一化区域灰度图像,将归一化区域灰度图像与裂缝骨架图上对应裂缝进行匹配,以获取该条裂缝上多个匹配的位置坐标点,并对该条裂缝上的所有位置坐标点的灰度进行计算,并将所计算得到的灰度值代入构建的裂缝灰度值与像素之间的连续函数,能够获知该条裂缝所对应的像素,从而能够获知该像素下结构体裂缝的每个裂缝点的宽度、每条裂缝长度。进而,本发明通过所构建的裂缝灰度值与亚像素之间的连续函数,使裂缝分辨率能够达到亚像素级别,其中,分辨率为0.1像素,能够检测出0.1个像素的细微裂缝,极大地提升了裂缝检测分辨率,提高裂缝检测精度。而且,与传统裂缝检测方法相比,在相同的检测精度下,画幅至少扩大20倍,对于相同检测面积,大大降低拍摄图像张数,提高检测效率。
3、本发明通过结构体整体依次拍摄图像,然后按照顺序对拍摄的图像进行校正、拼接获取结构体整体的图像,实现对结构体整体的检测。
下面结合附图对本发明的一种结构体裂缝亚像素检测方法作进一步说明。
附图说明
图1为本发明一种结构体裂缝亚像素检测方法的原理图;
图2为本发明一种结构体裂缝亚像素检测方法中相机采集图像的路径示意图;
图3(a)为本发明一种结构体裂缝亚像素检测方法中所拍摄实际裂缝图;
图3(b)为本发明一种结构体裂缝亚像素检测方法中所输出的二值区域图像;
图4为本发明一种结构体裂缝亚像素检测方法中的裂缝骨架图;
图5为本发明一种结构体裂缝亚像素检测方法中裂缝上单点灰度计算流程图;
图6为本发明一种结构体裂缝亚像素检测方法中底色为白色的标准像素图。
具体实施方式
如图1所示,本发明提供一种结构体裂缝亚像素检测方法,包括以下步骤:
S1,图像获取
获取结构体的多张表面图像,并记录所拍摄每张图像时相机的位置姿态信息。
其中,如图2所示,结构体表面图像以S形路径采集,S形路径按照从左到右、从下向上的顺序开始,相机的位置姿态包括相机的俯仰角度α、水平角度β和相机到拍摄平面的距离d。
S2,图像校正
根据拍摄时相机的镜头参数和位置姿态信息对所拍摄的图像进行图像畸变校正、图像倾斜校正和图像标定,并获取相机到拍摄平面距离d的标定系数,即g(d)。
其中,图像畸变校正、图像倾斜校正和图像标定可采用以下顺序:
(1)图像畸变校正、图像倾斜校正和图像标定;
(2)图像标定、图像畸变校正和图像倾斜校正;
(3)图像畸变校正、图像倾斜校正依次进行,图像标定可同时进行。
图像畸变校正的具体方法为,预先对相机的每个焦段进行相机内参标定,获取相机内参系数,根据相机拍摄的图像文件,读取拍摄时所选用的焦距参数,并根据焦距参数,对图像进行畸变校正,相机内参系数为镜头参数,其中,相机内参系数的公式为:
图像倾斜校正的具体方法为,
原始图像的像素坐标为(u1,v1,1),距离,校正图像的像素坐标为(u2,v2,1),距离;
图像的像素坐标系到世界坐标系的转换公式为:
其中:A为相机内参系数,R为旋转矩阵;
旋转矩阵的计算公式为:
其中:α为原始图像的俯仰角度,β为原始图像的水平角度;
图像校正前后的世界坐标系不变,倾斜校正公式为:
将上述各参数代入倾斜校正公式中,以得到校正图像的像素坐标,校正图像的像素坐标即为图像需要倾斜校正的坐标。
图像标定的具体方法为,预先选定尺寸为定值的目标物,计算相机到目标物的正对拍摄距离为1米时,该目标物的实际尺寸为L,在图像上的像素值t,以得到相机到目标物的拍摄距离为1米时的标定系数、相机到拍摄平面距离为d米的标定系数;
其中,相机到目标物的拍摄距离为1米时标定系数fscale的计算公式为:
如,所选目标物为20cm长的尺子,计算出尺子在图像上的像素值为t,则可以得到相机到目标物的拍摄距离为1米时标定系数fscale=200/t(mm/pixel)。
相机到拍摄平面距离为当前距离时标定系数g(d)的计算公式为:
S3,图像拼接
对所拍摄的多张图像依次进行图像粗拼接和图像细拼接,以获取结构体表面展开图。
图像粗拼接的具体方法为,根据前后两幅图像拍摄的的位置姿态信息,计算出两幅图像相对应的位置信息,以此作为图像拼接的粗定位。
具体的,假设第一幅图像的参数为:相机俯仰角度α1、相机水平角度β1和相机到图像距离,第二幅图像的参数为:相机俯仰角度α2、相机水平角度β2和相机到图像距离;
则,第二幅图像相对第一幅图像的平移位置为:
图像细拼接的具体方法为,寻找两幅图像的重叠部分的目标特征点,即,在第一幅图像中,选择结构体上具有明显特征的点A、B、C、D作为参考目标(如结构体上的钉子、坑点、文字等),且要求每个目标点不在同一直线上,在第二幅图像中,分别对上述所选定的参考目标进行模板匹配搜索,获取目标特征点A’、B’、C’、D’,以作为匹配目标,再依次计算A与A’, B与B’ ,C与C’, D与D’之间的相对位移,以此来进行细定位,实现图像中的两两拼接。
S4,图像裂缝提取
S4-1,模型训练:采集不同类别结构体的裂缝图像,建立裂缝图像数据集,对所述裂缝图像数据集进行模型训练,以得到训练好的裂缝图像训练模型。
具体为,采集不同类别结构体的裂缝图像10000张,并制作成标准的480*320图像,人工对训练样本中各裂缝图像中的裂缝进行标记,以得到裂缝图像样本集,将裂缝图像样本集输入至U-Net网络中,通过U-Net网络输出实际图像特征,并与预设图像中的裂缝特征比较,并根据比较结果调整连接权,直至测试样本裂缝自动提取满足规定比例,则该数据集下训练模型完成。在本实施例中,建立该数据集下90%满足裂缝自动提取要求的训练模型,以得到训练好的裂缝图像训练模型。
S4-2,区域图像裂缝提取:对结构体表面展开图进行区域分割,并将分割后的区域图像(如图3(a))输入至裂缝图像训练模型中进行分割,以初步划分出裂缝位置和背景位置,根据分割结果生成裂缝二值图像(如图3(b))。具体为,所生成裂缝二值图像的裂缝像素值为1、背景色像素值为0。
S5,图像裂缝计算
S5-1,对裂缝二值图像进行细化,以获取裂缝骨架图(如图4)。
S5-2,对裂缝骨架图进行遍历,获取裂缝骨架图上像素值为1的任意一个像素点作为基点,以基点为种子进行树连通生长,获取每条单条裂缝的起始点位置信息、结束点位置信息和分叉点位置信息。
5-3,裂缝灰度值计算
将区域图像转化为灰度图像,对灰度图像进行归一化处理,得到归一化区域灰度图像,并计算归一化区域灰度图像(n×m)的平均灰度值avg_gray;
其中,归一化区域灰度图像的平均灰度值的计算公式为:
i为X轴的坐标点,i=1,2,…n;j为Y轴的坐标点,j=1,2,…m。
在归一化区域灰度图像上计算裂缝骨架图上对应裂缝上每个位置坐标点的灰度值。对每个骨架图上位置坐标点分别计算其在区域灰度图像上多个延伸方向上的灰度值,并选取最小灰度值作为该位置坐标点处的裂缝灰度值,以此完成该条裂缝上的所有位置坐标点的灰度计算;
具体的,对每个匹配的位置坐标点采用如下方式计算灰度值:
设当前位置坐标点为(Xi,Yj),计算该位置坐标点的灰度值,即Gray(i,j),以该所述位置坐标点为计算中心,选取多个延伸方向,即γk,再分别计算每个延伸方向的灰度值,即Grayγk,并对各个延伸方向的灰度值进行比较,由于单点裂缝宽度是单点垂直于裂缝走向线方向上的裂缝宽度,因此选取最小灰度值作为该位置坐标点处的裂缝灰度值,即Gray=Min(Grayγk);
其中,i为X轴的坐标点,j为Y轴的坐标点,k为延伸方向个数。
优选的,k=4,即每个位置坐标点计算4个延伸方向的裂缝灰度值,分别为0度方向,90度方向,45度方向和-45度方向。
如图5所示,对每个延伸方向采用如下方式计算灰度值:
设每个延伸方向分别向X方向延伸-p个像素到q个像素,向Y方向延伸-s个像素到t个像素,并分别记录对应的位置坐标点,即(Xi-p,Yj-s)、(Xi+q,Yj+t),再分别计算对应位置坐标点的灰度值,即Gray(i-p,j-s)、Gray(i+q,j+t),则平均灰度值分别与延伸各点灰度值差值总和即为每个延伸方向上所对应的灰度值,即:
其中,x为X方向延伸的像素个数, y为Y方向延伸的像素个数;
每个对应位置坐标点的灰度值需满足以下条件:
以0度方向为例,设0度方向分别向左延伸p个像素,向右延伸q个像素,并分别记录对应的位置坐标点,即(Xi-p,Yj)、(Xi+q,Yj),再分别计算对应位置坐标点的灰度值,即Gray(i-p,j)、Gray(i+q,j),则平均灰度值分别与该点灰度值差值总和即为每个延伸方向上所对应的灰度值,即:
每个对应位置坐标点的灰度值需满足以下条件:
S5-4,构建标准条纹图像亚像素值的数据集,其中,标准条纹图像亚像素值的数据集包括:不同背景下亚像素值的标准条纹图像,利用S4-2到S5-3步骤获取每一条标准条纹图像的灰度值,将两者分别进行对应拟合,以构建标准条纹亚像素值与其灰度计算值的对应关系。
具体的,裂缝灰度值与像素值对应关系
如图6所示,模拟不同单一底色背景下,各个亚像素的纯黑色条纹,如,0.1个像素至2个像素的纯黑色条纹,并依次进行拍摄,得到标准图片集,将标准图片集输入至训练好的裂缝图像训练模型中,以输出二值图像集,并对二值图像集进行细化,按照S5-3,依次获取每个单一底色下、不同像素所对应纯黑色条纹的裂缝灰度值,构建纯黑色条纹像素的数据集、纯黑色条纹像素所对应裂缝灰度值的数据集,如,x=(Gray_0.1,Gray_0.2…Gray_2.0),Y=(0.1,0.2,0.3…2.0),利用多项式拟合方法,构建标准条纹亚像素值与裂缝灰度值一一对应的拟合曲线,并获取相应函数关系式,即,
H(x)=ax3+bx2+cx+e
其中,a、b、c、e为拟合系数,x为灰度值。
S5-5,通过归一化区域灰度图像上裂缝的位置信息和灰度值信息,从而获知所检测的结构体裂缝所对应像素下结构体裂缝的各项裂缝参数。
具体的,裂缝参数包括裂缝宽度,裂缝宽度采用如下方式计算:
将S5-3中所获得的每个位置坐标点所对应的裂缝灰度值,代入裂缝宽度计算公式,以得到每个点的裂缝宽度,结合每个点的裂缝宽度进一步得到整个裂缝的平均裂缝宽度、最大裂缝宽度和最小裂缝宽度;
其中,所述裂缝宽度计算公式为:
Crack_width=(ax3+bx2+cx+e)•g(d)
裂缝参数包括裂缝长度,裂缝长度采用如下方式计算:
在裂缝骨架图上获取单条裂缝的起始点位置坐标、结束点位置坐标以及裂缝骨架图上单条裂缝所有点的位置坐标,并将各位置坐标代入裂缝长度计算公式,以得到单条裂缝长度;
其中,所述裂缝长度计算公式为:
其中 : i为X轴的坐标点,i=1,2,…n;j为Y轴的坐标点,j=1,2,…m。
本发明所具有的优点和有益效果为:
1、本发明结构体裂缝检测原理与传统裂缝检测原理不同,本发明的结构体裂缝检测能够实现结构体裂缝亚像素检测,例如,0.1像素、0.15像素、0.2像素…。
2、本发明通过对结构体图像依次进行校正、拼接、裂缝提取、归一化处理后,得到归一化区域灰度图像,将归一化区域灰度图像与裂缝骨架图上对应裂缝进行匹配,以获取该条裂缝上多个匹配的位置坐标点,并对该条裂缝上的所有位置坐标点的灰度进行计算,并将所计算得到的灰度值代入构建的裂缝灰度值与像素之间的连续函数,能够获知该条裂缝所对应的像素,从而能够获知该像素下结构体裂缝的每个裂缝点的宽度、每条裂缝长度。进而,本发明通过所构建的裂缝灰度值与亚像素之间的连续函数,使裂缝分辨率能够达到亚像素级别,其中,优选分辨率为0.1像素,能够检测出0.1个像素的细微裂缝,极大地提升了裂缝检测分辨率,提高裂缝检测精度。而且,与传统裂缝检测方法相比,在相同的检测精度下,画幅至少扩大20倍,对于相同检测面积,大大降低拍摄图像张数,提高检测效率。
3、本发明通过结构体整体依次拍摄图像,然后按照顺序对拍摄的图像进行校正、拼接获取结构体整体的图像,实现对结构体整体的检测。
此外,利用本发明的结构体裂缝检测原理还能够实现结构体裂缝整像素的检测。
实施例1
针对结构裂缝宽度已知,为0.1mm到1mm,将拍摄相机位置调整到标定系数为g(d)=1(mm/pixel)情况下,并通过调整拍摄相机到拍摄平面(即结构裂缝)的距离,以调整所拍摄的结构裂缝在图像上的像素值,使结构裂缝的宽度与像素值一一对应,即0.1宽度的裂缝所对应的像素值为0.1,0.2宽度的裂缝所对应的像素值为0.2......依次类推。
通过采用本发明结构体裂缝亚像素检测方法,得到实际测的宽度值与已知宽度的对比图表如下。其中,裂缝宽度单位:mm。表一为标样1~标样15的实际测的宽度值与已知宽度的对比图表,表二为标样1~标样15的实际测的宽度值与已知宽度的误差值图表。
表一
表二
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (10)
1.一种结构体裂缝亚像素检测方法,其特征在于:包括以下步骤:
S1,图像获取:获取结构体的多张表面图像,并记录拍摄每张图像时相机的位置姿态信息;
S2,图像校正:根据拍摄时相机的镜头参数和位置姿态信息对所拍摄的图像进行图像畸变校正、图像倾斜校正和图像标定,并获取相机到拍摄平面距离d的标定系数g(d);
S3,图像拼接:对所拍摄的多张图像依次进行图像粗拼接和图像细拼接,以获取结构体表面展开图;
S4,图像裂缝提取:
S4-1,模型训练:采集不同类别结构体的裂缝图像,建立裂缝图像数据集,对所述裂缝图像数据集进行模型训练,以得到训练好的裂缝图像训练模型;
S4-2,区域图像裂缝提取:对所述结构体表面展开图进行区域分割,并将分割后的区域图像输入至所述裂缝图像训练模型中进行分割,以初步划分出裂缝位置和背景位置,根据分割结果生成裂缝二值图像;
S5,图像裂缝计算:
S5-1,对所述裂缝二值图像进行细化,以获取裂缝骨架图;
S5-2,对裂缝骨架图进行遍历,获取每条裂缝的起始点位置信息、结束点位置信息和分叉点位置信息;
S5-3,裂缝灰度值计算:
将所述区域图像转化为灰度图像,对所述灰度图像进行归一化处理,得到归一化区域灰度图像;
在所述归一化区域灰度图像上计算所述裂缝骨架图上对应裂缝上每个位置坐标点的灰度值,对每个骨架图上位置坐标点分别计算其在区域灰度图像上多个延伸方向上的灰度值,并选取最小灰度值作为该位置坐标点处的裂缝灰度值,以此完成该条裂缝上的所有位置坐标点的灰度计算;
S5-4,构建标准条纹图像亚像素值的数据集,其中,所述标准条纹图像亚像素值的数据集包括:模拟不同单一底色背景下,各个亚像素的纯黑色条纹,并依次进行拍摄,得到标准图片集,将所述标准图片集输入至训练好的裂缝图像训练模型中,以输出二值图像集,并对二值图像集进行细化,按照S5-3,依次获取每个单一底色下、不同像素所对应纯黑色条纹的裂缝灰度值,构建纯黑色条纹像素值的数据集、纯黑色条纹像素值所对应裂缝灰度值的数据集,将上述两个数据集进行对应拟合,以构建标准条纹亚像素值与其灰度计算值的对应关系;
S5-5,通过所述归一化区域灰度图像上裂缝的位置信息和灰度值信息,从而获知所检测的结构体裂缝所对应像素下结构体裂缝的各项裂缝参数。
2.根据权利要求1所述的一种结构体裂缝亚像素检测方法,其特征在于:S1中,所述结构体表面图像以S形路径采集,所述S形路径按照从左到右、从下向上的顺序开始,所述相机的位置姿态包括相机的俯仰角度α、水平角度β和相机到拍摄平面的距离d。
4.根据权利要求1所述的一种结构体裂缝亚像素检测方法,其特征在于:S4-1中,对训练样本中各裂缝图像中的裂缝进行标记,以得到裂缝图像样本集,将所述裂缝图像样本集输入至U-Net网络中,通过U-Net网络输出实际图像特征,并与预设图像中的裂缝特征比较,并根据比较结果调整连接权,直至测试样本裂缝自动提取满足规定比例,则该数据集下训练模型完成。
6.根据权利要求1所述的一种结构体裂缝亚像素检测方法,其特征在于:S5-3中,对每个匹配的位置坐标点采用如下方式计算灰度值:
设当前位置坐标点为(Xi,Yj),计算该位置坐标点的灰度值,即Gray(i,j),以该所述位置坐标点为计算中心,选取多个延伸方向,即γk,再分别计算每个延伸方向的灰度值,即Grayγk,并对各个延伸方向的灰度值进行比较,选取最小灰度值作为该位置坐标点处的裂缝灰度值,即Gray=Min(Grayγk);
其中,i为X轴的坐标点,j为Y轴的坐标点,k为延伸方向个数。
8.根据权利要求1所述的一种结构体裂缝亚像素检测方法,其特征在于:S5-4中,对于所构建的所述纯黑色条纹像素值的数据集、纯黑色条纹像素值所对应裂缝灰度值的数据集,利用多项式拟合方法,构建标准条纹亚像素值与裂缝灰度值一一对应的拟合曲线,并获取相应函数关系式,即,
H(x)=ax3+bx2+cx+e
其中,a、b、c、e为拟合系数,x为灰度值。
9.根据权利要求8所述的一种结构体裂缝亚像素检测方法,其特征在于:所述裂缝参数包括裂缝宽度,所述裂缝宽度采用如下方式计算:
将S5-3中所获得的每个位置坐标点所对应的裂缝灰度值,代入裂缝宽度计算公式,以得到每个点的裂缝宽度,结合每个点的裂缝宽度进一步得到整个裂缝的平均裂缝宽度、最大裂缝宽度和最小裂缝宽度;
其中,所述裂缝宽度计算公式为:
Crack_width=(ax3+bx2+cx+e)•g(d) 。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111146919.8A CN113610060B (zh) | 2021-09-29 | 2021-09-29 | 一种结构体裂缝亚像素检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111146919.8A CN113610060B (zh) | 2021-09-29 | 2021-09-29 | 一种结构体裂缝亚像素检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610060A CN113610060A (zh) | 2021-11-05 |
CN113610060B true CN113610060B (zh) | 2022-01-04 |
Family
ID=78343267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111146919.8A Active CN113610060B (zh) | 2021-09-29 | 2021-09-29 | 一种结构体裂缝亚像素检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610060B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114111602B (zh) * | 2021-11-22 | 2023-07-25 | 招商局重庆交通科研设计院有限公司 | 一种基于图像技术的桥梁表面裂缝宽度计算方法 |
CN115619741B (zh) * | 2022-10-19 | 2024-08-23 | 中国石油大学(北京) | 一种裂缝宽度确定方法、装置、计算机设备及存储介质 |
CN117274240B (zh) * | 2023-11-17 | 2024-01-23 | 资阳建工建筑有限公司 | 一种承台基础混凝土表面裂缝识别方法 |
CN118294638B (zh) * | 2024-06-04 | 2024-08-20 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 基于图像-冲击回波的混凝土内部裂缝检测方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102680480A (zh) * | 2012-05-03 | 2012-09-19 | 中南大学 | 一种混凝土结构裂缝智能化检测方法 |
CN108364280B (zh) * | 2018-01-03 | 2022-04-15 | 东南大学 | 结构裂缝自动化描绘及宽度精准测量方法与设备 |
CN109580657B (zh) * | 2019-01-23 | 2021-08-20 | 郑州工程技术学院 | 一种桥梁质量检测中的裂缝检测方法 |
CN110378879B (zh) * | 2019-06-26 | 2021-03-02 | 杭州电子科技大学 | 一种桥梁裂缝检测方法 |
CN111242851B (zh) * | 2020-04-10 | 2020-08-04 | 北京思莫特科技有限公司 | 一种混凝土结构表面裂缝检测方法及系统 |
CN112419250B (zh) * | 2020-11-13 | 2023-06-16 | 湖北工业大学 | 路面裂缝数字图像提取、裂缝修补及裂缝参数计算方法 |
-
2021
- 2021-09-29 CN CN202111146919.8A patent/CN113610060B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113610060A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113610060B (zh) | 一种结构体裂缝亚像素检测方法 | |
US20200364849A1 (en) | Method and device for automatically drawing structural cracks and precisely measuring widths thereof | |
CN106485751B (zh) | 应用于基桩检测中的无人机摄影成像及数据处理方法及系统 | |
CN111932504B (zh) | 一种基于边缘轮廓信息的亚像素定位方法及装置 | |
CN109409290B (zh) | 一种温度表检定读数自动识别系统及方法 | |
CN111738229B (zh) | 一种指针表盘刻度的自动读取方法 | |
CN109360144B (zh) | 一种基于手机平台的图像实时校正改进方法 | |
CN113947638B (zh) | 鱼眼相机影像正射纠正方法 | |
CN115578315A (zh) | 一种基于无人机图像的桥梁应变近景摄影测量方法 | |
CN113888641A (zh) | 一种基于机器视觉和深度学习的立木胸径测量方法 | |
CN113554667A (zh) | 一种基于图像识别的三维位移检测方法及装置 | |
CN118328881A (zh) | 一种基于视觉识别的桥梁变形监测方法及系统 | |
CN105115443B (zh) | 基于视觉测量技术的水平全视角高精度三维测量方法 | |
CN117635898A (zh) | 面向作物动态表型提取的近景图像拼接方法 | |
CN116824079A (zh) | 基于全信息摄影测量的三维实体模型构建方法和装置 | |
CN115937326A (zh) | 一种适用于复杂工况的大视场相机现场快速标定方法 | |
CN112164118A (zh) | 一种地理图像处理系统及方法 | |
CN113870120B (zh) | 一种基于pq-mean分布的加工表面纹理倾斜校正方法 | |
CN116958833B (zh) | 一种gf4数据几何精校正的方法 | |
CN117784160B (zh) | 一种基于深度学习的预埋件位置检查方法及检查设备 | |
CN112967372B (zh) | 基于互联网场景的矿物、岩石标本教学展示方法及系统 | |
CN117670795A (zh) | 基于深度学习的核安全壳缺陷检测定位方法及系统 | |
CN109143213B (zh) | 一种双相机长距离检测方法及装置 | |
CN117541639A (zh) | 基于计算机视觉识别的风机净空距离计算系统及方法 | |
CN118135011A (zh) | 一种基于视觉识别技术的气象站周边障碍物仰角的测定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |