CN118230147A - 坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 - Google Patents
坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 Download PDFInfo
- Publication number
- CN118230147A CN118230147A CN202410643518.0A CN202410643518A CN118230147A CN 118230147 A CN118230147 A CN 118230147A CN 202410643518 A CN202410643518 A CN 202410643518A CN 118230147 A CN118230147 A CN 118230147A
- Authority
- CN
- China
- Prior art keywords
- leakage
- particle
- underwater
- velocity
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 239000002245 particle Substances 0.000 claims abstract description 106
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000009826 distribution Methods 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims abstract description 24
- 239000012530 fluid Substances 0.000 claims abstract description 20
- 238000010586 diagram Methods 0.000 claims abstract description 13
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000009877 rendering Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 44
- 230000010349 pulsation Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000006073 displacement reaction Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 12
- 230000000877 morphologic effect Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 238000005286 illumination Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000011049 filling Methods 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000004040 coloring Methods 0.000 claims description 2
- 238000007636 ensemble learning method Methods 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000000917 particle-image velocimetry Methods 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012502 risk assessment Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013049 sediment Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/05—Underwater scenes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M3/00—Investigating fluid-tightness of structures
- G01M3/02—Investigating fluid-tightness of structures by using fluid or vacuum
- G01M3/04—Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/45—Analysis of texture based on statistical description of texture using co-occurrence matrix computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/24—Fluid dynamics
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Physics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了坝下涵洞洞身接缝接触渗漏的水下检测方法及系统,通过水下机器人获取涵洞的水下图像序列;对水下图像序列进行预处理和配准;基于配准后的水下图像序列,提取出现在水下图像序列中的颗粒信息;基于颗粒信息构建三维流体速度分布图,根据三维流体速度分布图,判断渗漏情况;将三维流体速度分布图叠加在预配置的三维涵洞模型中,并渲染和显示。本发明能适应涵洞内部复杂多变的水下环境,对深层细小渗漏有很高的灵敏度,能实现渗漏量的精确测量和趋势预测,检测过程自动化,降低人工依赖。
Description
技术领域
本发明涉及水下检测技术,尤其是一种坝下涵洞洞身接缝接触渗漏的水下检测方法及系统。
背景技术
大坝安全非常重要,为此,工程师提出了很多检测方法。
目前的坝下涵洞渗漏检测主要包括:①、人工目视检查,这种方法效率低,容易遗漏,对深水区渗漏无能为力。②、流量计法,这种方法只能测量总渗漏量,难以定位局部渗漏点。③、声学检测,这种方法易受环境噪声干扰,定位精度不高。④、红外成像,这种方法对表层渗漏敏感,难以发现深层渗漏。⑤、电磁法,这种方法设备笨重,现场部署困难,分辨率有限。总之,现有技术还存在诸多技术难题需要解决,包括难以准确定位深层局部的细小渗漏;受检测环境限制大,适用性差;缺乏定量分析和趋势预测能力;自动化、智能化程度不高,依赖人工判读等问题。
近年来,水下机器人技术得到快速发展,为涵洞内部检测提供了新的手段。但在湍流等复杂水流环境下,机器人携带的光学视频很难观察到真实的渗漏状态。
综上,亟需开发一种能够克服水流干扰,实现高精度定位、定量分析的新型涵洞水下渗漏检测方法。
发明内容
发明目的,提供一种坝下涵洞洞身接缝接触渗漏的水下检测方法及系统,以解决现有技术存在的上述问题。
技术方案,坝下涵洞洞身接缝接触渗漏的水下检测方法,包括如下步骤:
步骤S1、通过水下机器人获取涵洞的水下图像序列;
步骤S2、对水下图像序列进行预处理和配准;
步骤S3、基于配准后的水下图像序列,提取出现在水下图像序列中的颗粒信息;
步骤S4、基于颗粒信息构建三维流体速度分布图,根据三维流体速度分布图,判断渗漏情况;
步骤S5、将三维流体速度分布图叠加在预配置的三维涵洞模型中,并渲染和显示。
根据本申请的另一个方面,还提供一种坝下涵洞洞身接缝接触渗漏的水下检测系统,其特征在于,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述任一项技术方案所述的坝下涵洞洞身接缝接触渗漏的水下检测方法。
有益效果,利用水下机器人获取图像数据,可以在不干扰涵洞正常运行的情况下,对坝体进行长时间、动态化的巡航监测,大幅提升检测效率和安全性。通过机器视觉和人工智能技术,可实现渗漏隐患的自动识别和告警,减少人力投入和主观判断失误。相关技术效果将在下文进行具体描述。
附图说明
图1是本发明的流程图。
图2是本发明步骤S1的流程图。
图3是本发明步骤S2的流程图。
图4是本发明步骤S3的流程图。
图5是本发明步骤S4的流程图。
图6是本发明步骤S5的流程图。
具体实施方式
如图1所示,根据本申请的一个方面,坝下涵洞洞身接缝接触渗漏的水下检测方法,包括如下步骤:
步骤S1、通过水下机器人获取涵洞的水下图像序列;
步骤S2、对水下图像序列进行预处理和配准;
步骤S3、基于配准后的水下图像序列,提取出现在水下图像序列中的颗粒信息;
步骤S4、基于颗粒信息构建三维流体速度分布图,根据三维流体速度分布图,判断渗漏情况;
步骤S5、将三维流体速度分布图叠加在预配置的三维涵洞模型中,并渲染和显示。
在本实施例中,采用了一系列图像预处理和配准措施,包括畸变校正、滤波增强、直方图均衡化等,有效改善了图像质量。利用ORB特征点匹配和RANSAC算法实现图像配准,可消除由于机器人运动引起的画面抖动和偏移。即使在复杂多变的水下环境下,也能准确捕捉渗漏引起的动态纹理变化,具有很强的环境适应性。引入了基于颗粒图像测速(PIV)的流场分析方法。通过跟踪动态纹理中的颗粒运动,可以准确重构局部速度场。结合流体力学反演和湍流脉动修正,得到真实可靠的三维速度分布。在此基础上提取高速区和速度梯度,并结合渗漏物理机理设定合理阈值,可定位疑似渗漏点。进一步分析渗漏点的流速、流量、形态特征等,可定量评估渗漏的严重程度。该方法直接建立了图像信息与渗流物理量之间的对应关系,比纯视觉分析更加准确可靠。将三维点云数据与已有的BIM模型相结合,实现了渗漏场景的三维可视化。通过将速度场映射到BIM模型中,并进行伪彩渲染,可直观呈现整个涵洞的渗流分布状态。将定量的物理参数与定性的视觉信息相融合,能够实现对渗漏全局和细节的立体化把控,为风险评估和维修决策提供更丰富、更精准的依据。
如图2所示,根据本申请的一个方面,所述步骤S1进一步为:
步骤S11、设置水下机器人的移动轨迹,将水下机器人移动至涵洞中;
步骤S12、水下机器人上配置的摄像装置以预定的速率、帧率和分辨率拍摄图像,获得图像帧;其中运动速率与拍摄帧率相互匹配,以使相邻帧之间有30%以上的重叠;
步骤S13、将采集到的图像帧连同水下机器人位置和姿态数据传输至控制系统。
在一个实施例中,水下机器人携带高速高清摄像机,在涵洞内部按预设轨迹巡航;摄像机以60帧/秒速率连续拍摄1920×1080分辨率彩色图像;控制机器人运动速度与拍摄帧率匹配,确保相邻帧之间有30%~50%重叠;将采集到的图像连同位置、姿态等元数据实时传输到岸基控制中心。
可以在机器人上集成声呐、惯导、光学等多源传感器,实现自主定位、避障和轨迹跟踪控制。即使在复杂地形条件和外界干扰下,也能精确执行预定航线。自主导航使机器人摆脱了对人工遥控的依赖,大幅提高作业效率,并降低人员进入涵洞的安全风险。高分辨率成像使得微小的渗漏痕迹和细节纹理都能清晰成像,便于渗漏的早期检出。同时,在弱光环境下可通过摄像参数的自适应调节维持图像恰当的亮度和对比度,克服光照不足导致的图像质量退化。利用视觉传感器的硬件触发机制,可在图像采集的同时对状态数据打时间戳,并将图像和状态数据一一对应,实现多源异构传感器数据的时空同步。在将同步数据回传至地面控制系统后,可根据机器人的实时位姿,将图像帧序列与涵洞三维空间相联系。通过视觉测量与惯性测量的互补融合,可实现图像拍摄位置的高精度估计,从而确定渗漏发生的准确空间坐标,便于后续定位和分析。
如图3所示,所述步骤S2进一步为:
步骤S21、依序获取图像帧,采用畸变修正模型进行径向畸变和切向畸变校正,得到校正后图像帧;
步骤S22、对校正后图像帧进行局部均值滤波,获得滤波后图像帧;
步骤S23、对滤波后的图像帧进行对数变换,得到变换后图像帧;
步骤S24、采用ORB特征提取和RANSAC算法,估计两个变换后图像帧的单应性变换矩阵,并基于单应性变换矩阵进行图像配准,获得配准后图像帧;由配准后图像帧组成配准图像序列。
在本实施例中,受制造工艺和光学透镜特性的影响,机器人摄像机采集的原始图像往往存在径向畸变(桶形/枕形失真)和切向畸变。若不加校正,会导致图像点位置偏移,影响后续的图像拼接、几何测量和运动估计精度。该步骤利用广泛使用的Brown-Conrady模型,对径向畸变和切向畸变进行显式建模,并通过摄像机标定过程获取畸变系数。将原始图像坐标代入模型即可计算无畸变图像坐标,完成图像校正。畸变校正后,图像点与空间点满足严格的线性投影关系,测量精度显著提升。由于水下环境光照条件差,成像信噪比普遍较低,图像质量受随机噪声影响较大。该步骤选用局部均值滤波器对图像进行平滑,可有效去除高频噪声,同时较好地保护边缘等纹理细节。值得一提的是,该方案采用了自适应窗口尺寸控制策略。即根据图像局部区域的灰度方差动态调整滤波窗口大小,在平坦区域选用较大窗口以获得更强的平滑效果,而在边缘区域选用较小窗口以减少边缘模糊。自适应滤波在去噪的同时最大限度地保留了渗漏迹象的纹理特征。
受光散射和吸收的影响,水下图像普遍存在对比度低、亮度不均的问题,直方图主要集中在低灰度区域。对数变换通过对灰度值取对数,可将狭窄的低灰度值范围映射到宽广的动态范围内,从而拉伸图像直方图,使暗部细节得以增强。尤其对于渗漏区域这类对比度较弱的纹理,经过对数变换后视觉质量和可辨性大为改善。值得注意的是,对数变换的效果取决于底数的选取,因此该方案根据图像平均亮度自适应地确定最佳底数,在提升对比度的同时避免了过度增强导致的细节丢失。
由于机器人水下运动过程中姿态和距离目标场景的变化,连续采集的图像帧之间存在尺度、旋转和视角的差异。为准确分析同一区域的纹理变化,必须进行配准校正。ORB特征结合了FAST关键点和BRIEF描述子的优点,对图像旋转、尺度变换具有较好的不变性,且计算效率高,非常适合实时图像配准任务。基于ORB匹配点对,利用RANSAC算法可稳健地估计出图像变换的单应性矩阵,剔除错误匹配点的干扰。将估计的单应性矩阵作用于图像坐标,即可将不同视角的图像统一到共同的坐标框架下,为图像拼接和运动分析做好准备。
在本实施例中,设原始图像为I(x,y),采用Brown-Conrady畸变模型,像素坐标(x,y)经过畸变校正后的理想坐标(x',y')满足:
x'=x(1+k1r2+k2r4+k3r6)+[p1(r2+2x2)+2p2xy][1+p3r2+...];
y'=y(1+k1r2+k2r4+k3r6)+[p2(r2+2y2)+2p1xy][1+p3r2+...];
其中r=sqrt(x2+y2),k1,k2,k3为径向畸变系数,p1,p2,p3为切向畸变系数。标定摄像机得到畸变系数,代入公式完成图像校正。设校正后图像为I'(x,y),其非局部均值滤波输出的图像I''(x,y)=(1/C(x,y))*sum(a,b)w(x,y,a,b)*I'(a,b);其中(a,b)为I'(x,y)的邻域像素坐标,w(x,y,a,b)为(x,y)与(a,b)的相似度权重:w(x,y,a,b)=exp(-||I'(Nx,Ny)-I'(Na,Nb)||2/h2);Nx,Ny和Na,Nb分别为(x,y)和(a,b)的局部邻域窗口,h为平滑参数。C(x,y)为归一化系数。
设滤波后图像I''(x,y),对数变换输出的图像I'''(x,y)=c*log(1+I''(x,y));其中c为尺度因子,控制变换后图像对比度。采用ORB特征提取和RANSAC算法,估计两帧图像I1'''和I2'''的单应性变换矩阵H:[x2,y2,1]'=H*[x1,y1,1]';利用H完成图像配准,校正相机运动引起的位置偏差。
具体地,采用ORB特征提取和RANSAC算法,估计两帧图像I1'''和I2'''的单应性变换矩阵H。这个过程具体为:
输入:两帧图像I1'''和I2'''
提取ORB特征
对I1'''和I2'''分别进行ORB特征提取。ORB(Oriented FAST and RotatedBRIEF)是一种融合了FAST特征点检测和BRIEF特征描述的算法。
FAST特征点检测。将图像I转换为灰度图,并选取合适的阈值T。对每个像素p,考察其周围半径为3的16个像素点。如果有连续N个像素点的灰度值都大于p的灰度值+T或者都小于p的灰度值-T,则p被认为是一个特征点。通常取N=12,T=20。
特征点方向估计。对每个检测到的特征点p,计算其邻域内(如15*15窗口)灰度质心C。将向量p->C的方向θ作为该特征点的主方向。
生成BRIEF描述子。以特征点p为中心,取SS的邻域窗口(如3131),在其中随机选择M对像素点。对每一对像素点(xi,yi),比较其灰度值的大小。如果I(xi)<I(yi),则第i位描述子为1,否则为0。最终得到M位的二进制串作为p的BRIEF描述子。
根据特征点的主方向θ,利用旋转矩阵R=[cosθ-sinθ;sinθcosθ]对BRIEF描述子进行旋转,得到具有旋转不变性的描述子,称为RotatedBRIEF。
对I1'''和I2'''重复上述步骤,得到两帧图像的ORB特征点集F1和F2,以及对应的描述子集D1和D2。
特征点匹配:
对于F1中的每个特征点pi,遍历F2中的所有特征点{qj},计算pi的描述子dpi与每个qj的描述子dqj之间的Hamming距离H(dpi,dqj),即两个等长二进制串中对应位置不同的个数。
选择Hamming距离最小的qj作为pi的潜在匹配点,记为qmin。次小的记为qmin2。
如果H(dpi,dqmin)/H(dpi,dqmin2)<α,则确认pi和qmin是一对匹配点,否则认为pi没有找到匹配。α是个经验阈值,通常取0.8。
遍历所有pi,得到初始的特征点匹配集P0。
RANSAC估计单应性矩阵:
从P0中随机抽取4对匹配点(共8个点的坐标),计算它们之间的透视变换矩阵H0。这是因为透视变换有8个自由度,需要4对点才能确定。
S32.利用H0,对P0中的每对匹配点(pi,qi),计算变换误差:
ei=||qi-H0*pi||2;
其中pi和qi均为齐次坐标。
设定误差阈值ε,统计ei<ε的匹配点对数n0,作为H0的支持内点数。
重复K次,每次随机抽取4对不同的匹配点,得到K个单应矩阵H1,H2,...,HK和对应的内点数n1,n2,...,nK。K的大小根据内点率w估计:
K=log(1-p)/log[1-(1-w)4];
其中p是算法成功的期望概率,一般取p=0.99。
选出内点数最大的单应矩阵Hbest,以其内点集Pbest为基础,进一步优化单应矩阵。采用Levenberg-Marquardt算法最小化重投影误差:minsumi||qi-H*pi||2;
H即为优化后的最终单应性矩阵。
输出图像I1'''和I2'''之间的单应性变换矩阵H。
具有以下优点:ORB特征结合了FAST和BRIEF两种算法的优势,兼顾了速度和旋转不变性,对光照、视角变化有较好的适应性。RANSAC是一种鲁棒估计方法,能有效剔除错误匹配的干扰,得到可靠的变换模型。
如图4所示,所述步骤S3进一步为:
步骤S31、获取配准图像序列,逐一读取配准后图像帧,从配准后图像帧中识别出大小和形状相似的颗粒物团簇,将颗粒物团簇作为速度测量的粒子;
步骤S32、基于配准后图像帧之间的粒子质心位移和摄像机拍摄间隔,计算每个粒子的瞬时速度矢量;
步骤S33、将配准后图像帧划分为预定个网格,统计每个网格内粒子速度矢量的均值和方差;
步骤S34、采用流体力学反演算法,并考虑颗粒特性和湍流脉动影响,修正粒子速度场;
步骤S35、调取摄像机内外参数,将粒子速度场从像素坐标系转换到世界坐标系,得到世界坐标系的粒子速度场。
在本实施例中,由于水体中普遍存在着泥沙、气泡等干扰因素,准确识别速度示踪粒子是PIV测速的关键。本实施例中,该步骤提出了一种基于形状和尺度相似性的颗粒聚类方法。首先利用图像阈值分割提取出疑似颗粒区域,再通过分析连通域的形状特征(如面积、周长、圆度等)进行自适应过滤,最后将形状和大小相近的颗粒归为一个团簇。该方法能有效剔除背景噪声和孤立杂点,获得可靠的速度示踪粒子,为速度场估计提供了高质量的输入。
粒子位移是速度计算的直接依据,其估计精度很大程度上决定了速度测量结果的可靠性。该步骤利用局部最大灰度加权法计算粒子质心坐标,将质心位置作为粒子位移的度量,结合摄像机拍摄间隔即可估计瞬时速度矢量。相比常用的整像素匹配方法,亚像素定位使位移估计不再受像素尺寸的限制,大大提高了速度分辨能力。即使对于运动缓慢的渗漏区域,也能检测到亚像素量级的位移变化,实现微小渗漏的早期发现。
将图像划分为若干互不重叠的网格区域,可将散乱的粒子速度离散化为规则的矢量场。但网格尺寸的选择需要权衡分辨率和鲁棒性。该方案提出一种基于速度梯度的自适应网格划分方法。即根据网格内速度的局部变化率来动态调整网格大小,在速度梯度大的区域(如剪切层、涡核)采用密集的小网格,保证高分辨表征;在速度梯度小的区域采用稀疏的大网格,提高鲁棒性。这种自适应的多尺度分析方法,能够在不增加计算负担的同时,捕捉到渗流的精细结构。
基于流体力学反演的速度修正方法,可在一定程度上消除湍流脉动影响。通过引入雷诺分解,将瞬时速度看作平均速度和脉动速度的叠加。在估计平均速度场的基础上,利用连续性方程和动量守恒方程,对脉动分量进行修正,使其满足流体力学基本约束。同时还考虑了示踪粒子的惯性效应和追随特性,进一步提高了速度估计的物理合理性。湍流修正后的速度场更加平滑、连续,细节结构也更加清晰,为渗漏分析提供了可靠的定量依据。
通过对水下机器人相机进行一次离线标定,可准确建立像素坐标系与世界坐标系之间的映射关系。将二维图像平面上估计的粒子位移代入摄像机模型,结合深度信息即可解算出空间位移矢量,进而得到空间速度矢量。这种基于成像几何的三维重建方法,克服了传统二维PIV难以表征空间流场的局限性,真实再现了渗漏的立体流场。基于物理尺度的速度描述,也更便于工程人员理解和应用。
在本实施例中,对配准后图像序列It'''(t=1,2,...)应用高斯混合背景建模,提取前景运动区域Rt:Rt(x,y)=1,当It'''(x,y)-sumi=1 Komegai*eta(It'''(x,y)|mui,sigmai 2)>tau;
否则Rt(x,y)=0,其中omegai,mui,sigmai 2为第i个高斯分量的权重、均值和方差,eta为高斯概率密度函数,tau为前景判决阈值。对Rt进行连通域分析和形态学滤波,得到候选粒子区域Pt i。
假设第i个粒子在第t帧和t+1帧的质心坐标为(xt i,yt i)和(xt+1 i,yt+1 i),则其瞬时位移速度为:vt i=[(xt+1 i-xt i)/deltat,(yt+1 i-yt i)/deltat];其中deltat为帧间隔。
考虑到湍流引起的速度脉动,引入卡尔曼滤波模型对速度估计进行平滑:
vt i=A*vt-1 i+wt;zt i=H*vt i+et;
其中A为状态转移矩阵,H为观测矩阵,wt和et分别为过程噪声和观测噪声。
将整个图像划分为M*N个网格,对第(m,n)个网格Gmn内所有粒子的速度矢量取平均,得到网格速度:Vmn=1/Kmn*sumiinGmnvt i;其中Kmn为网格内粒子数。
采用Fincham-Spedding方法,结合连续性方程和Navier-Stokes方程,对网格速度场Vmn进行修正:nabla2psi=-nabla×Vmn;V'mn=Vmn+nabla×psi;
其中psi为势函数,nabla为梯度算子。求解泊松方程得到修正后的速度场V'mn。
设摄像机内参数矩阵为K,外参数矩阵为[R|t],则像素坐标系到真实世界坐标系的变换关系为:s[u,v,1]'=K*[R|t]*[X,Y,Z,1]';其中s为尺度因子,[X,Y,Z]为真实世界坐标。对每个网格的速度矢量V'mn进行坐标变换,得到以涵洞为参考系的三维速度场。
如图5所示,所述步骤S4进一步为:
步骤S41、从至少3个配准后图像帧中获取粒子速度场数据,并进行叠加,获得三维流体速度分布图;
步骤S42、从三维流体速度分布图中提取粒子速度大于预设阈值的区域,即局部高速区域,并记录空间坐标,基于局部高速区域,查找疑似渗漏点;
步骤S43、根据疑似渗漏点附近的流速分布,估算渗漏流量及变化趋势;
步骤S44、针对每一疑似渗漏点,提取疑似渗漏点附近图像,基于疑似渗漏点附近图像提取灰度共生矩阵特征,获取渗漏通道的形态特征;
步骤S45、综合分析渗漏位置、流量和渗漏通道形态,给出渗漏程度指标。
在本实施例中,由于渗漏发生与发展是一个动态过程,单一时刻的速度测量结果往往不足以全面刻画渗流的时空演化规律。该步骤利用三维拉格朗日粒子跟踪算法,将不同时刻的速度矢量场在空间上进行融合,形成时间连续、空间连贯的动态流场。三维速度分布图直观展现了渗流的空间形态和时间变化趋势,为渗漏的精确定位和趋势预测提供了丰富的数据支持。速度时空分布也从流体力学角度反映了渗透通道的结构特征,是渗漏成因分析和机理研究的重要依据。
与经验阈值法不同,该步骤根据速度统计直方图自适应地确定分割阈值。首先对三维速度幅值进行直方图统计,然后通过迭代优化求解双峰直方图的最佳分割阈值,使阈值两侧的类间方差最大。自适应阈值能够有效应对不同渗漏工况下速度分布模式的变化,大大提高了渗漏定位的适应性和鲁棒性。在此基础上,进一步通过形态学滤波消除高速噪声区域,并通过连通域分析提取疑似渗漏区域的空间坐标。由于高速区域与渗漏点在空间上高度相关,该定位结果可为后续渗漏量化分析提供可靠的初始位置。
通过对疑似渗漏点邻域内的速度场进行插值重构,得到精细的局部流场模型。在此基础上,利用流体力学中的连续性方程和动量守恒方程,估算渗漏断面的流速分布,并通过数值积分计算渗漏体积流量。相比简单的控制体积法,该方法充分利用了邻域速度的空间相关性,考虑了流场的连续性和光滑性,估计结果更加准确可靠。通过对不同时刻的渗漏流量进行趋势分析,还可实现渗漏发展趋势的中长期预测,为溢洪风险评估和调度决策提供定量依据。
GLCM通过统计图像在某方向和距离上的灰度共现概率,可以有效反映纹理的粗糙度、规律性、对比度等特点。将渗漏区域的GLCM特征与常见渗透通道(如裂缝、溶洞、接缝等)的特征模板进行模式匹配,即可识别出渗漏通道的类型。进一步结合渗漏通道的形态参数(如长度、宽度、迂曲度等),可实现渗透通道的精细三维重建。渗透通道的几何结构信息与渗漏的成因机理密切相关,是开展渗流路径分析和渗透稳定性评价的关键依据。
综合考虑了渗漏的空间位置、渗漏流量、变化趋势、渗透通道特征等多个关键因素,构建了包括渗漏检出率、渗漏指数、风险等级等在内的综合评价指标。采用层次分析法确定各评价指标的权重,通过加权融合得到渗漏程度的定量评分。在此基础上,结合经验阈值对渗漏程度进行等级划分(如轻度、中度、严重等),直观表征渗漏的危害性。定量的渗漏程度指标从工程风险角度直接刻画了渗漏的安全隐患,便于管理人员快速评判渗漏问题的轻重缓急,及时采取针对性的防控措施。
在本实施例中,将连续K帧速度场按时间序列拼接,构建四维时空速度场V(X,Y,Z,t)。设定速度阈值Vth,提取满足|V(X,Y,Z,t)|>Vth的区域为疑似渗漏区R(X,Y,Z)。对R进行三维形态学滤波,得到渗漏区域L。假设渗漏区域L内速度场服从泊肃叶分布,则局部渗漏流量Q可近似为:Q=A*Vc*(2/pi)1/2*exp(-Vc 2/2sigma2);
其中A为渗漏区截面积,Vc为特征流速,sigma为湍流脉动强度,可根据L内速度统计特性估计。将各局部渗漏流量累加,得到总渗漏量。
对疑似渗漏区L附近图像提取灰度共生矩阵(GLCM)特征:
p(i,j,d,theta)=#[(x1,y1),(x2,y2)],I(x1,y1)=i,I(x2,y2)=j,sqrt((x1-x2)2+(y1-y2)2)=d,arctg((y1-y2)/(x1-x2))=theta#R;
其中I为灰度图像,#为计数算子。从共生矩阵计算对比度、相关性、能量等纹理指标,构成特征向量。将各渗漏区纹理特征输入预训练的SVM分类器,识别渗漏通道形态。
构建渗漏危险度评估模型,输入参数包括:渗漏位置、渗透流量、渗漏通道几何形态、渗漏流量变化趋势等。模型采用模糊综合评判法,通过隶属度函数将各输入指标映射到[0,1]区间内,建立模糊评判矩阵R:
R=[r11,r12,...,r1n;
r21,r22,...,r2n;
...,...,...,...;
rm1,rm2,...,rmn]
其中rij表示第i个评价对象对第j个评语的隶属度。将专家经验转化为权重向量w,通过矩阵乘法运算得到综合评判向量B=w⊙R=[b1,b2,...,bm];根据最大隶属度原则确定渗漏危险等级。
在进一步的实施例中,步骤S42进一步包括:
在三维速度分布图V(x,y,z)上,计算速度幅值的局部均值图Vmean和标准差图Vstd:Vmean(x,y,z)=1/(n3)Σi,j,k∈[-n/2,n/2]V(x+i,y+j,z+k)Vstd(x,y,z)=sqrt(1/(n3)Σi,j,k∈[-n/2,n/2](V(x+i,y+j,z+k)-Vmean(x,y,z))2)其中n为局部立方邻域的边长。
计算全局速度幅值均值Vglob和标准差Vglobstd:Vglob=1/(XYZ)ΣΣΣV(x,y,z)Vglobstd=sqrt(1/(XYZ)ΣΣΣ(V(x,y,z)-Vglob)2)其中X,Y,Z为速度场的三维尺寸。
自适应阈值分割,提取疑似高速区H(x,y,z):
如果V(x,y,z)>max(Vmean(x,y,z)+k1V std (x,y,z),V glob +k2Vglobstd),则H(x,y,z)=1否则,H(x,y,z)=0;
其中k1,k2为阈值系数,可根据先验知识设定,也可通过试错法优化。k1控制局部阈值,k2控制全局阈值。
对H进行三维形态学处理,消除小的噪声区域、填充孔洞:H'=close(open(H));
对H'进行三维连通域分析,提取连通的高速区域Ri,计算其体积Vi和长径比Li/Wi。
设定体积阈值Vmin和长径比阈值rmax。保留满足条件的高速区R'j:
如果Vi>Vmin且Li/Wi<rmax,则R'j=Ri。较大的体积阈值可排除湍流引起的小尺度高速结构,长径比接近1的区域更可能是渗漏引起的。对R'j提取形心Cj、速度均值vj和方向dj(主特征向量),作为疑似渗漏点。
在本实施例中,步骤所述44进一步包括:
以疑似渗漏点Cj为中心,在三维图像数据I(x,y,z)上提取局部邻域块Bj,块尺寸须覆盖完整的渗漏通道。
对Bj计算灰度共生矩阵特征(对比度、相关性、能量、熵等),记为fGLCM。
将Bj二值化得到渗漏通道掩膜Mj:
如果I(x,y,z)<Imin,或▽2I(x,y,z)>gth,则Mj(x,y,z)=0;
否则,Mj(x,y,z)=1。
其中Imin为灰度阈值,▽2为拉普拉斯算子,gth为边缘阈值。阈值可根据图像直方图和先验知识自适应确定。
对Mj提取LBP(局部二值模式)特征,用于描述渗漏通道的纹理模式:
LBPP,R(x,y,z)=Σp=0 P-1s(gp-gc)2p;
其中P为采样点数,R为邻域半径,gc为中心像素灰度,gp为邻域采样点灰度。
s(x)=1如果x>=0,
s(x)=0如果x<0;
对LBP特征计算直方图fLBP,作为纹理特征向量。
对Mj进行三维细化,提取渗漏通道的骨架线Sj。
对Sj提取形状特征,包括骨架线长度lj、平均曲率cj、平均扭曲度tj等,记为fshape。
融合多种特征构成总的形态特征向量:
Fj=[fGLCM,fLBP,lj/Lj,cj,tj];
其中Lj为渗漏区R'j的长度,用于对骨架线长度归一化。
对所有训练样本的Fj进行聚类分析(如k-means),得到K个渗漏通道形态类别。
训练SVM多分类器,以Fj为输入,渗漏类别为输出,用于识别未知渗漏点的通道形态。
如图6所示,所述步骤S5进一步为:
步骤S51、调用预配置的三维涵洞模型;
步骤S52、将三维流体速度分布图、渗漏程度指标叠加在三维涵洞模型中,将渗漏点按危险度等级着色,并叠加局部的粒子速度流场,生成三维渗漏分布热度图;
步骤S53、提取关键渗漏参数,包括位置坐标、渗透流量、变化趋势和危险度等级,填入预设的报告模板,形成渗漏检测报告。
在本实施例中,在涵洞BIM模型上,将渗漏区L按危险度等级着色,生成三维渗漏分布热度图。叠加流线显示局部渗透流场,直观表现渗漏态势。提取关键渗漏参数,包括位置坐标、渗透流量、变化趋势、危险度等级,自动填入预设的报告模板,形成渗漏检测报告,以表格和图表形式呈现分析结果。将渗漏危险度指数与预设的警戒值、危险值比较,若超过警戒值,则在监控界面弹出黄色警示框并伴有语音提示;若超过危险值,则弹出红色警报框,并连续发出报警声,同时向运维人员手机推送警情信息。按规范格式封装原始图像数据、渗漏参数、分析报告等,加时间戳存入规划好的分布式文件系统中。在数据库中为每个涵洞建立健康档案,记录渗漏检测数据,供后续大数据分析使用。
在实际场景下,还发现一些难点,包括涡流、湍流引起的粒子运动混乱,速度场非常杂乱,位移矢量方向随机变化,难以准确估计真实流场。多个渗漏点相互干扰,局部流场叠加在一起,很难分辨单个渗漏点的位置和流量。狭小空间内光照不均匀、画面抖动频繁,对粒子图像质量和配准精度影响大。
为此,给出如下实施例:
根据本申请的一个方面,步骤S31还包括:结合颜色、纹理、光流等更多特征设计粒子分割算法,对疑似粒子区域再进行形态学滤波,剔除伪粒子。以解决仅根据颗粒物的大小、形状相似性提取粒子,易引入误判的问题。
具体如下:
S311对水下图像进行颜色空间转换(如RGB到HSV),提取饱和度S和明度V分量,设计自适应阈值分割算法提取疑似粒子区域:
如果饱和度S(x,y)>Sth且Vmin<明度V(x,y)<Vmax,否则(x,y)∈ROI;
其中Sth为饱和度阈值,Vmin和Vmax为明度上下限,ROI为感兴趣区。阈值可根据图像直方图自适应确定。
S312对初步分割结果进行形态学处理,先腐蚀后膨胀,去除小块噪声区域:ROI'=Dilate(Erode(ROI));
S313基于灰度共生矩阵(GLCM)提取ROI'内区域的纹理特征,包括对比度、相关性、能量、熵等。对每个候选区域计算纹理特征向量F=[Con,Cor,Asm,Ent]。
S314估计各候选区域的光流矢量(u,v),用于表征区域的运动特性。可采用Lucas-Kanade、Horn-Schunck等经典光流算法。
S315构建粒子特征向量P=[Smean,Vmean,A,C,F,u,v],其中Smean、Vmean为区域内饱和度和明度均值,A为面积,C为圆度,(u,v)为光流矢量。
将每个候选区的特征向量输入SVM分类器,识别出真正的粒子区域。
根据本申请的一个方面,所述步骤S32还包括筛选并优化位移矢量异常的粒子的过程,包括如下步骤:
步骤S321、针对位移矢量异常的粒子,获取配准后图像帧,提取光照变化大于阈值的区域,并利用直方图均衡化增强局部细节;
步骤S322、通过卡尔曼滤波预测每个粒子的运动趋势,并根据预测位置进行搜索匹配,使粒子链接成功率高于阈值;
步骤S323、构建至少两个不同尺度的检测窗口,并采用每一检测窗口提取粒子位移矢量,基于集成学习方法加权聚合各个窗口的输出;
步骤S324、将位移矢量异常的粒子重新初始化并放入到全局优化过程中,通过迭代优化使整个速度场最大程度符合物理约束。
在本实施例中,在光照变化明显的区域,自适应调整图像对比度,利用直方图均衡化增强局部细节,提高粒子识别率。引入卡尔曼滤波预测每个粒子的运动趋势,即使某帧图像质量下降导致粒子丢失,也能根据预测位置搜索匹配,提高粒子链接成功率。设计多尺度融合策略,用不同大小的检测窗口提取粒子位移矢量,然后用集成学习方法(如Stacking)加权聚合不同窗口的输出,既能捕捉大尺度结构化流动,又不丢失小尺度随机速度分量。对位移矢量异常的粒子重新初始化并放入到全局优化过程中,通过迭代优化使整个速度场最大程度符合物理约束(如速度光滑性、连续性等),提高整体估计鲁棒性。
具体地,粒子跟踪优化的过程进一步为:
在初始帧(t=1)提取粒子位置Z1={xi,yi|i=1,2,...,N},N为粒子数。初始化每个粒子的卡尔曼滤波器,状态变量为位置和速度X=[x,y,u,v],观测变量为位置Z=[x,y]。
预测第t帧粒子状态分布p(Xt|Z1:t-1)=N(Xt;X't,P't);
其中X't=FX{t-1},P't=FP{t-1}F'+Q,F为状态转移矩阵,Q为过程噪声。
在第t帧图像上,以X't为中心搜索候选粒子位置Zt={xj,yj|j=1,2,...,M},M为候选粒子数。计算候选粒子与状态预测值的Mahalanobis距离:
dj=(Zj-HX't)'S-1(-HX't),S=HP'tH'+R;
其中H为观测矩阵,R为观测噪声。
选择距离最小的候选粒子Zt作为第t帧的观测值,并用Zt更新滤波估计值:
Kt=P'tH'(HP'tH'+R)-1;Xt=X't+Kt(Zt-HX't);Pt=(I-KtH)P't;
若Zt与X't的距离超过阈值,则判断为粒子丢失,根据上一帧位置和速度外推当前粒子位置,并增大过程噪声Q。
如果dt>dth,则Zt=Zt-1+Xt-1(3:4),Q=k*Q;
重复上述步骤,直至处理完所有帧,得到每个粒子的运动轨迹{Z1,Z2,...,ZT}。
根据本申请的一个方面,所述步骤S33还包括自适应网格的划分过程,具体如下:
步骤S331、根据网格内的粒子速度矢量,计算粒子速度变化量,记为速度梯度,获取粒子速度变化量大于阈值的区域;
步骤S332、根据速度梯度调整分割尺度,使速度梯度与网格分辨率成正相关;
步骤S333、对分割后的每个网格块,统计其内部速度幅值、方向的均值和方差,将方差大于阈值的网格块进一步划分为多个子块;网格划分后,在每个网格内部做局部平滑,同时在网格边界处保留速度跳变。
在本实施例中,用SLIC超像素分割,根据速度梯度自适应调整分割尺度,在速度变化剧烈的区域自动采用更高的网格分辨率。对分割后的每个网格块,统计其内部速度幅值、方向的均值和方差,将方差大于阈值的网格块进一步划分为多个子块。进行自适应网格划分后,在每个网格内部做局部平滑,而在网格边界处保留速度跳变,既能平滑噪声,又能保留精细结构。后续渗漏量估计、形态分析等步骤与之前类似,只是在自适应网格下进行离散化计算,不再赘述。
根据本申请的一个方面,所述步骤S34中,考虑湍流脉动影响,分析修正粒子速度场的过程进一步为:
步骤S341、在连续的至少三帧粒子图像上做时间平均,消除脉动分量,得到稳定的背景速度场;
步骤S342、采用LES模拟方法,通过SGS应力模型,对脉动流场进行数值求解,得到湍流脉动速度时空分布;
步骤S343、用解析出的平均流场和湍流脉动对原始速度场进行补偿校正,还原真实的湍流速度矢量分布。
在本实施例中,假设湍流脉动流场u'(x,y,t)与平均流场U(x,y)可分离,即:u(x,y,t)=U(x,y)+u'(x,y,t);式中x,y为空间坐标,t为时间。在连续K帧粒子图像上做时间平均,消除脉动分量u',得到稳定的背景速度场U。采用大涡模拟(LES)方法,引入亚格子尺度(SGS)应力模型,对脉动流场u'进行数值求解,得到湍流脉动速度时空分布。用解析出的平均流场U和湍流脉动u'对原始速度场进行补偿,还原真实的湍流速度矢量分布。
具体地,包括如下步骤:
计算时间平均流场:
假设在时间段T内共采集到K帧粒子图像,每帧对应的瞬时速度场为u(x,y,tk),其中k=1,2,...,K,tk为第k帧的采集时刻。
对K帧速度场在时间维度上做算术平均,得到时间平均流场U(x,y):
U(x,y)=(1/K)*sumk=Ku(x,y,tk);
根据雷诺分解原理,瞬时速度场u可以分解为时均速度U和脉动速度u':
u(x,y,t)=U(x,y)+u'(x,y,t);
将u代入上式并利用u'的时间平均为零,可得:
(1/K)*sumk=Ku'(x,y,tk)=0;即时间平均操作可以从瞬时速度中消除脉动分量。
采用LES方法求解湍流脉动速度
LES方法直接求解大尺度湍流脉动,而对小尺度脉动用亚格子尺度(Sub-GridScale)模型来描述。
将瞬时速度场u(x,y,t)在空间上做低通滤波,得到滤波后的速度场u~(x,y,t):
u~(x,y,t)=∫G(x-ξ,y-η)u(ξ,η,t)dξdη;
其中G为滤波函数,常用高斯滤波或Top-hat滤波。
滤波后的速度场u只包含大尺度(网格尺度)的湍流脉动,小尺度(亚格子尺度)脉动被滤除。u满足滤波后的N-S方程:
u/t+(u·▽)u=-▽p/ρ+ν▽2u-▽·τ;其中p为滤波后的压力,ν为动力黏度,τ为SGS应力张量。
SGS应力张量τ表示小尺度脉动对大尺度运动的影响,需要用模型来封闭方程。最常用的是Smagorinsky模型:τ=-2(CsΔ)2|S|S≈-2νtS;
其中Δ为网格尺度,S为应变率张量,Cs为Smagorinsky常数(一般取0.1~0.2),νt=(CsΔ)2|S|为湍流黏度。
将τ代入滤波后的N-S方程,得到LES控制方程: u~/t+(u~·▽)u~=-▽p~/ρ+▽·[(ν+νt)▽u];在求解域上对LES方程进行数值离散和求解,得到大尺度速度场u~(x,y,tk)在离散时空点上的数值解。Initial和boundary条件根据具体问题设置。
从瞬时速度场u中减去滤波速度u,得到小尺度(SGS)脉动速度u':
u'(x,y,t)≈u(x,y,t)-u~(x,y,t);
S27.将大尺度脉动u和小尺度脉动u'叠加,得到完整的湍流脉动速度场u'(x,y,t):
u'(x,y,t)=[u(x,y,t)-U(x,y)]+[u(x,y,t)-u~(x,y,t)];至此,通过对连续K帧粒子图像进行时间平均以及LES求解,就可以得到背景速度场U(x,y)和湍流脉动速度u'(x,y,t)的时空分布。
LES方法通过直接求解大尺度湍流结构、模型化小尺度湍流效应,在工程应用中取得了较好的平衡。相比直接数值模拟(DNS),LES大大减少了计算量;相比雷诺平均方法(RANS),LES能够捕捉湍流的非定常特性和相干结构。
在进一步的实施例中,分析湍流脉动的过程进一步为:
在原始图像序列上,提取感兴趣的流场区域ROI,对ROI内的像素位置(x,y)和灰度值I(x,y)进行网格化采样,得到三维数据点云{xi,yi,Ii|i=1,2,...,K}。
构建LES控制方程组:
u/t+(u·▽)u=-▽p+▽·[ν(▽u+(▽u)T)-τ],▽·u=0
其中u为速度矢量,p为压力,ν为动力黏度,τ为亚格子应力张量。
τ采用Smagorinsky-Lilly模型:τ=-2(CsΔ)2|S|(S-1/3tr(S)I),S=0.5(▽u+(▽u)T)
其中Δ为滤波尺度,Cs为Smagorinsky常数,S为应变率张量,I为单位张量。
对LES方程组进行数值离散化。时间导数采用显式欧拉格式,空间导数采用二阶中心差分。
un+1=un-Δt[(un·▽)un+▽pn-▽·(ν▽un)+▽·τn];pn+1=pn-ρ(▽·un+1);
给定初始条件和边界条件,采用分步投影法求解离散方程组。
由tn时刻的速度场un预测tn+1时刻的中间速度场u*。
利用u*求解压力泊松方程,得到tn+1时刻的压力场pn+1。
利用pn+1修正u*,得到tn+1时刻的速度场un+1。
重复上述步骤,直至求解收敛或达到设定的时间步数。提取大涡结构对应的速度脉动u',计算各点的脉动强度、脉动频率等统计量。
将脉动分量u'叠加到平均速度场U上,得到修正后的速度场V=U+u'。
根据本申请的一个方面,所述步骤S43还包括分离多个渗漏点的过程,具体为:
步骤S431、针对补偿校正后的速度场,提取局部速度矢量方向梯度大于某阈值的区域,识别为潜在的渗漏区;
步骤S432、对初步识别出的所有疑似渗漏区,基于区域生长法进行三维聚类,将空间邻近且速度方向一致的区域合并,形成独立的渗漏簇;
步骤S433、对每个渗漏簇分别估算其流量和方向,将渗漏断面积替换为渗漏簇的截面积;若两个渗漏簇的夹角和距离均小于阈值,则将其合并为同一个渗漏点。
在本实施例中,在校正后的速度场上,提取局部速度矢量方向梯度大于某阈值的区域,识别为潜在的渗漏区。对初步识别出的所有疑似渗漏区,基于区域生长法进行三维聚类,将空间邻近且速度方向一致的区域合并,形成独立的渗漏簇。对每个渗漏簇Ci(i=1,2,...)分别估算其流量Qi和方向Di。Qi的计算上述步骤,将渗漏断面积A替换为Ci的截面积。Di取Ci内所有速度矢量的加权平均方向。若两个渗漏簇Ci和Cj的夹角arccos(Di·Dj)<theta,且距离min(|xi-xj|,|yi-yj|,|zi-zj|)<d,则将其合并为同一个渗漏点,theta和d为预设阈值。迭代该过程直到所有渗漏簇无法再合并。
在本申请的另一实施例中,S432还包括将错误合并的渗漏点分离的步骤:
对修正后的速度场V进行三维阈值分割,提取高速区域Ri:
如果|V(x,y,z)|>vth,则(x,y,z)∈Ri,i=1,2,...
式中vth为速度阈值,Ri为第i个高速区。
对每个高速区域Ri计算其矩心位置Ci,将其作为疑似渗漏点。
Ci=(Σxj/Ni,Σyj/Ni,Σzj/Ni),(xj,yj,zj)∈Ri
其中Ni为Ri内点的数量。
计算高速区域Ri的主方向di,即对应最大特征值的特征向量。
计算高速区域Ri内的平均速度幅值vi、平均压强pi(由Bernoulli方程估算)以及体积通量qi。
初始化聚类集合S0={R1,R2,...,RM},M为初始疑似渗漏点数。
对于i,j∈[1,M],i≠j:
如果|Ci-Cj|<dc且cos-1(di·dj)<θc且|qi-qj|<eq,合并Ri,Rj;
其中dc为距离阈值,θc为夹角阈值,eq为流量差阈值。
重复上述步骤,直至聚类结果不再变化,得到K个合并后的渗漏点区域L1,L2,...,LK。
对每个Lk,取其内部速度最大处作为渗漏核心C'k。将Lk内的速度场插值到C'k处,估算渗漏流速Vk、渗透系数Kk。
根据本申请的另一个方面,还提供一种坝下涵洞洞身接缝接触渗漏的水下检测系统,其特征在于,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述任一项技术方案所述的坝下涵洞洞身接缝接触渗漏的水下检测方法。
需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。
Claims (10)
1.坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,包括如下步骤:
步骤S1、通过水下机器人获取涵洞的水下图像序列;
步骤S2、对水下图像序列进行预处理和配准;
步骤S3、基于配准后的水下图像序列,提取出现在水下图像序列中的颗粒信息;
步骤S4、基于颗粒信息构建三维流体速度分布图,根据三维流体速度分布图,判断渗漏情况;
步骤S5、将三维流体速度分布图叠加在预配置的三维涵洞模型中,并渲染和显示。
2.如权利要求1所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,所述步骤S1进一步为:
步骤S11、设置水下机器人的移动轨迹,将水下机器人移动至涵洞中;
步骤S12、水下机器人上配置的摄像装置以预定的速率、帧率和分辨率拍摄图像,获得图像帧;其中运动速率与拍摄帧率相互匹配,以使相邻帧之间有30%以上的重叠;
步骤S13、将采集到的图像帧连同水下机器人位置和姿态数据传输至控制系统。
3.如权利要求2所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,所述步骤S2进一步为:
步骤S21、依序获取图像帧,采用畸变修正模型进行径向畸变和切向畸变校正,得到校正后图像帧;
步骤S22、对校正后图像帧进行局部均值滤波,获得滤波后图像帧;
步骤S23、对滤波后的图像帧进行对数变换,得到变换后图像帧;
步骤S24、采用ORB特征提取和RANSAC算法,估计两个变换后图像帧的单应性变换矩阵,并基于单应性变换矩阵进行图像配准,获得配准后图像帧;由配准后图像帧组成配准图像序列。
4.如权利要求3所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,所述步骤S3进一步为:
步骤S31、获取配准图像序列,逐一读取配准后图像帧,从配准后图像帧中识别出大小和形状相似的颗粒物团簇,将颗粒物团簇作为速度测量的粒子;
步骤S32、基于配准后图像帧之间的粒子质心位移和摄像机拍摄间隔,计算每个粒子的瞬时速度矢量;
步骤S33、将配准后图像帧划分为预定个网格,统计每个网格内粒子速度矢量的均值和方差;
步骤S34、采用流体力学反演算法,并考虑颗粒特性和湍流脉动影响,修正粒子速度场;
步骤S35、调取摄像机内外参数,将粒子速度场从像素坐标系转换到世界坐标系,得到世界坐标系的粒子速度场。
5.如权利要求4所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,所述步骤S4进一步为:
步骤S41、从至少3个配准后图像帧中获取粒子速度场数据,并进行叠加,获得三维流体速度分布图;
步骤S42、从三维流体速度分布图中提取粒子速度大于预设阈值的区域,即局部高速区域,并记录空间坐标,基于局部高速区域,查找疑似渗漏点;
步骤S43、根据疑似渗漏点附近的流速分布,估算渗漏流量及变化趋势;
步骤S44、针对每一疑似渗漏点,提取疑似渗漏点附近图像,基于疑似渗漏点附近图像提取灰度共生矩阵特征,获取渗漏通道的形态特征;
步骤S45、综合分析渗漏位置、流量和渗漏通道形态,给出渗漏程度指标。
6.如权利要求5所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,
所述步骤S5进一步为:
步骤S51、调用预配置的三维涵洞模型;
步骤S52、将三维流体速度分布图、渗漏程度指标叠加在三维涵洞模型中,将渗漏点按危险度等级着色,并叠加局部的粒子速度流场,生成三维渗漏分布热度图;
步骤S53、提取关键渗漏参数,包括位置坐标、渗透流量、变化趋势和危险度等级,填入预设的报告模板,形成渗漏检测报告。
7.如权利要求6所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,
所述步骤S32还包括筛选并优化位移矢量异常的粒子的过程,包括如下步骤:
步骤S321、针对位移矢量异常的粒子,获取配准后图像帧,提取光照变化大于阈值的区域,并利用直方图均衡化增强局部细节;
步骤S322、通过卡尔曼滤波预测每个粒子的运动趋势,并根据预测位置进行搜索匹配,使粒子链接成功率高于阈值;
步骤S323、构建至少两个不同尺度的检测窗口,并采用每一检测窗口提取粒子位移矢量,基于集成学习方法加权聚合各个窗口的输出;
步骤S324、将位移矢量异常的粒子重新初始化并放入到全局优化过程中,通过迭代优化使整个速度场最大程度符合物理约束。
8.如权利要求6所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,
所述步骤S33还包括自适应网格的划分过程,具体如下:
步骤S331、根据网格内的粒子速度矢量,计算粒子速度变化量,记为速度梯度,获取粒子速度变化量大于阈值的区域;
步骤S332、根据速度梯度调整分割尺度,使速度梯度与网格分辨率成正相关;
步骤S333、对分割后的每个网格块,统计其内部速度幅值、方向的均值和方差,将方差大于阈值的网格块进一步划分为多个子块;网格划分后,在每个网格内部做局部平滑,同时在网格边界处保留速度跳变。
9.如权利要求6所述的坝下涵洞洞身接缝接触渗漏的水下检测方法,其特征在于,
所述步骤S34中,考虑湍流脉动影响,分析修正粒子速度场的过程进一步为:
步骤S341、在连续的至少三帧粒子图像上做时间平均,消除脉动分量,得到稳定的背景速度场;
步骤S342、采用LES模拟方法,通过SGS应力模型,对脉动流场进行数值求解,得到湍流脉动速度时空分布;
步骤S343、用解析出的平均流场和湍流脉动对原始速度场进行补偿校正,还原真实的湍流速度矢量分布;
所述步骤S43还包括分离多个渗漏点的过程,具体为:
步骤S431、针对补偿校正后的速度场,提取局部速度矢量方向梯度大于某阈值的区域,识别为潜在的渗漏区;
步骤S432、对初步识别出的所有疑似渗漏区,基于区域生长法进行三维聚类,将空间邻近且速度方向一致的区域合并,形成独立的渗漏簇;
步骤S433、对每个渗漏簇分别估算其流量和方向,将渗漏断面积替换为渗漏簇的截面积;若两个渗漏簇的夹角和距离均小于阈值,则将其合并为同一个渗漏点。
10.一种坝下涵洞洞身接缝接触渗漏的水下检测系统,其特征在于,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现权利要求1至9任一项所述的坝下涵洞洞身接缝接触渗漏的水下检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410643518.0A CN118230147B (zh) | 2024-05-23 | 2024-05-23 | 坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410643518.0A CN118230147B (zh) | 2024-05-23 | 2024-05-23 | 坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118230147A true CN118230147A (zh) | 2024-06-21 |
CN118230147B CN118230147B (zh) | 2024-08-06 |
Family
ID=91498210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410643518.0A Active CN118230147B (zh) | 2024-05-23 | 2024-05-23 | 坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118230147B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104749655A (zh) * | 2015-04-15 | 2015-07-01 | 长江勘测规划设计研究有限责任公司 | 水库深水渗漏综合检测方法 |
CN111754475A (zh) * | 2020-06-18 | 2020-10-09 | 常州信息职业技术学院 | 一种水下涵洞内壁图像缺陷的视觉检测方法 |
CN115323989A (zh) * | 2022-08-18 | 2022-11-11 | 交通运输部公路科学研究所 | 适用于深水大坝渗漏病害的封堵设备及其方法 |
CN115641534A (zh) * | 2022-10-24 | 2023-01-24 | 北京太阳宫燃气热电有限公司 | 一种设备渗漏的图像识别方法 |
CN116416270A (zh) * | 2023-03-24 | 2023-07-11 | 北京城市轨道交通咨询有限公司 | 一种监测地下作业面渗漏水的方法及装置 |
-
2024
- 2024-05-23 CN CN202410643518.0A patent/CN118230147B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104749655A (zh) * | 2015-04-15 | 2015-07-01 | 长江勘测规划设计研究有限责任公司 | 水库深水渗漏综合检测方法 |
CN111754475A (zh) * | 2020-06-18 | 2020-10-09 | 常州信息职业技术学院 | 一种水下涵洞内壁图像缺陷的视觉检测方法 |
CN115323989A (zh) * | 2022-08-18 | 2022-11-11 | 交通运输部公路科学研究所 | 适用于深水大坝渗漏病害的封堵设备及其方法 |
CN115641534A (zh) * | 2022-10-24 | 2023-01-24 | 北京太阳宫燃气热电有限公司 | 一种设备渗漏的图像识别方法 |
CN116416270A (zh) * | 2023-03-24 | 2023-07-11 | 北京城市轨道交通咨询有限公司 | 一种监测地下作业面渗漏水的方法及装置 |
Non-Patent Citations (1)
Title |
---|
杜家佳;杜国平;曹建辉;宋晓峰;杜家力;杜广林;: "高坝大库声纳渗流检测可视化成像研究", 大坝与安全, no. 02, 8 April 2016 (2016-04-08) * |
Also Published As
Publication number | Publication date |
---|---|
CN118230147B (zh) | 2024-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN105550678B (zh) | 基于全局显著边缘区域的人体动作特征提取方法 | |
CN114693615A (zh) | 一种基于域适应的深度学习混凝土桥梁裂缝实时检测方法 | |
CN105373135B (zh) | 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统 | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和系统 | |
CN110689562A (zh) | 一种基于生成对抗网络的轨迹回环检测优化方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN111161160A (zh) | 一种雾天障碍物检测方法、装置、电子设备和存储介质 | |
CN110298271A (zh) | 基于关键点检测网络和空间约束混合模型的海水区域检测方法 | |
CN116758421A (zh) | 一种基于弱监督学习的遥感图像有向目标检测方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN116188417A (zh) | 基于slam和图像处理的裂缝检测及其三维定位方法 | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
CN114677531A (zh) | 一种融合多模态信息的水面无人艇目标检测与定位方法 | |
CN114463624A (zh) | 一种应用于城市管理监督的违章建筑物检测方法及装置 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
CN117334040A (zh) | 一种跨域路侧感知多车辆关联方法及系统 | |
CN118230147B (zh) | 坝下涵洞洞身接缝接触渗漏的水下检测方法及系统 | |
Bharathi et al. | A Conceptual Real-Time Deep Learning Approach for Object Detection, Tracking and Monitoring Social Distance using Yolov5 | |
CN111127355A (zh) | 一种对缺损光流图进行精细补全的方法及其应用 | |
CN112989997A (zh) | 一种基于多信息融合的3d目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |