CN113901920B - 结构模态参数识别方法、装置、计算机设备及存储介质 - Google Patents

结构模态参数识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN113901920B
CN113901920B CN202111179748.9A CN202111179748A CN113901920B CN 113901920 B CN113901920 B CN 113901920B CN 202111179748 A CN202111179748 A CN 202111179748A CN 113901920 B CN113901920 B CN 113901920B
Authority
CN
China
Prior art keywords
matrix
structural
target
motion
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111179748.9A
Other languages
English (en)
Other versions
CN113901920A (zh
Inventor
陈太聪
周洲
邓达彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111179748.9A priority Critical patent/CN113901920B/zh
Publication of CN113901920A publication Critical patent/CN113901920A/zh
Application granted granted Critical
Publication of CN113901920B publication Critical patent/CN113901920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种结构模态参数识别方法、装置、计算机设备及存储介质,方法包括:获取无人机拍摄的结构振动视频,并进行相机标定;针对标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。本发明使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数,通过时空边缘自适应检测算法,修正图像尺度变化的大小,运用随机子空间法直接分析结构的响应数据,可以将数据不相关的噪声信号剔除,方便快捷地获取结构的动力特性。

Description

结构模态参数识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及一种结构模态参数识别方法、装置、计算机设备及存储介质,属于结构健康监测领域。
背景技术
结构动力特性识别以其方便、快捷、易实现等特点在土木工程结构领域得到了广泛应用。结构动力特性是结构本身所固有的动力性能,结构破坏将导致其物理特性(刚度,质量和阻尼)发生变化,然后导致其模态参数发生变化[1]。而模态辨识是基于一组结构响应数据获得动力特效系统模型的过程。在模态辨识实践中,结构响应通常使用传感器获取,但是其通常需要繁琐的安装和昂贵的设备。
近些年来,随着图像数据采集和计算机视觉技术发展,基于视频监测的方法已经成为结构系统参数识别的一种简便方法[2]-[8]。目前基于视觉技术系统辨识大部分选择固定相机作为拍摄设备,但这些方法也忽略了相机运动引起的误差。研究人员已尝试通过在背景中使用固定物体(例如建筑物和山脉)来补偿相机运动引起的误差[9][10]。此外这些方法通常需要将摄像机固定在与被测物体距离适当的位置上。而在实际工程中,很难找到合适的位置放置摄像。而放置在远距离拍摄时,相机镜头角度产生微小变化将引起较大的测量误差[11]
基于此,研究人员尝试使用无人机替代固定摄像机获取结构动力特性[12][13]。由于无人机容易受到风的影响,在获取结构响应过程中存在相机运动问题,因此测得结构位移是相对于无人机位移,而不是结构振动的绝对位移,此外无人机沿Z方向运动会影响图像尺度变化。Khuc[14]通过背景中已知固定物体来补偿无人机的运动位移,结合特征点匹配算法获取结构动力特性。Yoon[15]使用光流法直接从无人机的视频图像直接获得的相对位移进行系统识别。值得说明的是,上述研究都是在理想的测量条件下应用,需要稳定的光照环境和气流环境,未考虑光照和有风环境等干扰对测量结果的影响。
此外,基于已知结构系统输入输出信号的实验模态分析方法可以获取准确的模态参数,对大体量实际工程结构进行人为激励来获取其响应信号的难度较大。因此基于输入输出信号数据的实验模态分析方法在实际工程中难以广泛应用。
参考文献如下:
[1]Feng D,Feng M Q.Computer vision for SHM of civil infrastructure:From dynamic response measurement to damage detection–A review[J].EngineeringStructures,2018,156: 105-117.
[2]Spencer Jr B F,Hoskere V,Narazaki Y.Advances in computer vision-based civil infrastructure inspection and monitoring[J].Engineering,2019,5(2):199-222.
[3]Kim H,Shin S.Reliability verification of a vision-based dynamicdisplacement measurement for system identification[J].Journal of WindEngineering and Industrial Aerodynamics,2019,191:22-31.
[4]Narazaki,Yasutaka,Hoskere,et al.Free vibration-based systemidentification using temporal cross-correlations[J].Structural Control andHealth Monitoring,2018,25(8): e2207.
[5]Cha Y J,Chen J G,
Figure GDA0003769219850000021
O.Output-only computer vision baseddamage detection using phase-based optical flow and unscented Kalman filters[J].Engineering Structures,2017,132:300-313.
[6]Yang Y,Dorn C,Mancini T,et al.Blind identification of full-fieldvibration modes of output-only structures from uniformly-sampled,possiblytemporally-aliased (sub-Nyquist),video measurements[J].Journal of Sound andVibration,2017,390:232-256.
[7]Feng D,Feng M Q.Experimental validation of cost-effective vision-based structural health monitoring[J].Mechanical Systems and SignalProcessing,2017,88:199-211.
[8]Feng D,Feng M Q.Vision-based multi-point displacement measurementfor structural health monitoring[J].Structural Control and Health Monitoring,2016,23(5): 876-890.
[9]Kim S W,Jeon B G,Kim N S,et al.Vision-based monitoring system forevaluating cable tensile forces on a cable-stayed bridge[J].Structural HealthMonitoring,2013,12(5-6): 440-456.
[10]Chen J G,Davis A,Wadhwa N,et al.Video camera–based vibrationmeasurement for civil infrastructure applications[J].Journal ofInfrastructure Systems,2017,23(3): B4016013.
[11]Lee J,Lee K C,Jeong S,et al.Long-term displacement measurement offull-scale bridges using camera ego-motion compensation[J].Mechanical Systemsand Signal Processing,2020,140:106651.
[12]Hoskere V,Park J W,Yoon H,et al.Vision-based modal survey ofcivil infrastructure using unmanned aerial vehicles[J].Journal of StructuralEngineering,2019, 145(7):04019062.
[13]Yoon H,Shin J,Spencer Jr B F.Structural displacement measurementusing an unmanned aerial system[J].Computer-Aided Civil and InfrastructureEngineering,2018, 33(3):183-192.
[14]Khuc T,Nguyen T A,Dao H,et al.Swaying displacement measurementfor structural monitoring using computer vision and an unmanned aerialvehicle[J]. Measurement,2020,159:107769.
[15]Yoon H,Hoskere V,Park J W,et al.Cross-correlation-basedstructural system identification using unmanned aerial vehicles[J].Sensors,2017,17(9):2075.
发明内容
有鉴于此,本发明提供了一种结构模态参数识别方法、装置、计算机设备及存储介质,其使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数,通过时空边缘自适应检测算法,修正图像尺度变化的大小,运用随机子空间法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方便快捷地获取结构的动力特性。
本发明的第一个目的在于提供一种结构模态参数识别方法。
本发明的第二个目的在于提供一种结构模态参数识别装置。
本发明的第三个目的在于提供一种计算机设备。
本发明的第四个目的在于提供一种存储介质。
本发明的第一个目的可以通过采取如下技术方案达到:
一种结构模态参数识别方法,所述方法包括:
获取无人机拍摄的结构振动视频,并进行相机标定;
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
进一步的,所述针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移,具体包括:
根据首帧照片的图像强度,以及预定义的目标位置,计算上下文先验概率P(c(z)|o),如下式:
P(c(z)|o)=I(z)ωσ(z-x*)
其中,ωσ定义为加权高斯函数:
Figure GDA0003769219850000041
σ=(sw+sh)/2
其中,a为归一化系数,以保证P(c(z)|o)在0~1间变化;σ为加权高斯函数的尺度参数,sw和sh分别为目标区域的长度和宽度;
利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵;
定义条件概率函数P(x|c(z),o)为:
P(x|c(z),o)=h(x-z)*m(z)
其中,h(x-z)为空间上下文模型函数,取决于目标位置x和局部上下文位置z之间的相对距离和方向,且设置为非径向对称函数;
将定义条件概率函数P(x|c(z),o)、影响系数
Figure GDA0003769219850000047
上下文先验概率P(c(z)|o)代入置信度函数,得到下式:
Figure GDA0003769219850000042
Figure GDA0003769219850000043
Figure GDA0003769219850000044
其中,
Figure GDA0003769219850000046
表示卷积运算符,
Figure GDA0003769219850000045
表示逆傅里叶变换,c(x)表示置信度函数。
进一步的,所述利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵,具体包括:
获得第(t-1)帧图像的强度It-1(x,y)和第t帧图像的强度It(x,y);
使用最小二乘法方法计算各像素点的速度和方向,如下式:
Figure GDA0003769219850000051
其中,所有的偏微分数值通过一阶微分值估计;
计算上下文中目标中心与每个像素点之间的速度差,如下式:
Figure GDA0003769219850000052
对于上下文区域中的每个像素,用负指数函数转换相应的速度差以生成影响系数,如下式:
Figure GDA0003769219850000053
其中,γ是比例参数。
进一步的,所述目标位置通过极大化以下置信度函数来追踪,如下式:
Figure GDA0003769219850000054
其中,x∈R2为目标位置;o为场景中的目标;x*为目标区域中心点位置;b为归一化系数,以保证p(x|o)在0~1间变化;α和β分别为尺度参数和形状参数。
进一步的,所述采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息,具体包括:
获取第t帧目标对象区域图像It(x,y);
利用Canny边缘检测算法获取目标边缘图,并计算第t帧目标对象边缘距离集合
Figure GDA0003769219850000055
计算目标对象图像像素距离,如下式:
Figure GDA0003769219850000056
计算目标对象图像像素距离和在世界坐标中的距离之间的比率,作为比例因子,如下式:
Figure GDA0003769219850000057
其中,Δimage是目标对象图像像素距离,Δword是目标对象在世界坐标中的距离,St是第t帧比例因子;
对第t帧比例因子进行加权处理,并对每帧中加权处理得到的比例因子进行更新,如下式:
Figure GDA0003769219850000061
其中,
Figure GDA0003769219850000062
为权值。
进一步的,所述采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数,具体包括:
将测量数据构造Hankel矩阵,按矩阵行数的不同将Hankel矩阵分为“过去”和“将来”,构造新矩阵Y=Yp/Yf;
根据矩阵Y,运用空间投影理论计算投影矩阵Pi,如下式:
Figure GDA0003769219850000063
对投影矩阵Pi进行SVD奇异值分解得到扩展观测矩阵Oi和卡尔曼滤波状态序列
Figure GDA0003769219850000064
Figure GDA0003769219850000065
通过最小二乘法计算出系统的状态矩阵A、输出矩阵C;
求解状态矩阵A的特征值,得到系统的模态参数,如下式:
A=φΛφ-1
其中,φ、Λ分别为状态空间矩阵A的特征向量和特征值构成的对角矩阵,Λ中对角元素即为离散的特征值λi,i=1,2,…,n。
进一步的,所述离散的特征值λi与连续的特征值λci的关系有:
Figure GDA0003769219850000066
其中,Δt为采样间隔,系统的模态固有频率和振型分别为:
Figure GDA0003769219850000067
本发明的第二个目的可以通过采取如下技术方案达到:
一种结构模态参数识别装置,所述装置包括:
标定模块,用于获取无人机拍摄的结构振动视频,并进行相机标定;
提取模块,用于针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
计算模块,用于采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
估算模块,用于采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
本发明的第三个目的可以通过采取如下技术方案达到:
一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的结构模态参数识别方法。
本发明的第四个目的可以通过采取如下技术方案达到:
一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的结构模态参数识别方法。
本发明相对于现有技术具有如下的有益效果:
本发明结合运动增强时空上下文、时空边缘检测方法和随机子空间法,使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数,通过时空上下文边缘检测算法,修正图像尺度变化的大小,运用随机子空间法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方便快捷地获取结构的动力特性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例1的结构模态参数识别方法的简易流程图。
图2为本发明实施例1的结构模态参数识别方法的具体流程图。
图3为本发明实施例1的目标与其局部上下文空间关系的图形模型图。
图4为本发明实施例1的上下文区域和影响矩阵图。
图5为本发明实施例1的MSTC算法流程图。
图6为本发明实施例1的Canny边缘检测图。
图7为本发明实施例1的实验装置图。
图8a~图8b为本发明实施例1的光照变化对比图。
图9为本发明实施例1的风速测量传感器示意图。
图10为本发明实施例1的初始目标定义图。
图11为本发明实施例1的无干扰情况下无人机中目标1和目标2比例因子变化时程图。
图12为本发明实施例1的无干扰情况下固定相机中目标1和目标2比例因子变化时程图。
图13为本发明实施例1的无干扰因素情况下目标1的位移时程与局部放大图。
图14为本发明实施例1的无干扰因素情况下目标2的位移时程与局部放大图。
图15a为本发明实施例1的无干扰情况下含尺度更新振型图。
图15b为本发明实施例1的无干扰情况下不含尺度更新振型图。
图16为本发明实施例1的光照变化情况下目标1和目标2比例因子变化时程图。
图17为本发明实施例1的光照变化情况下目标1的位移时程与局部放大图。
图18为本发明实施例1的光照变化情况下目标2的位移时程与局部放大图。
图19a为本发明实施例1的光照变化情况下含尺度更新振型图。
图19b为本发明实施例1的光照变化情况下不含尺度更新振型图。
图20为本发明实施例1的风干扰情况下目标1和目标2比例因子变化时程图。
图21为本发明实施例1的风干扰情况下目标1的位移时程与局部放大图。
图22为本发明实施例1的风干扰情况下目标2的位移时程与局部放大图。
图23a为本发明实施例1的风干扰情况下含尺度更新振型图。
图23b为本发明实施例1的风干扰情况下不含尺度更新振型图。
图24为本发明实施例2的结构模态参数识别装置的结构框图。
图25为本发明实施例3的计算机设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本实施例结合运动增强时空上下文、时空边缘检测方法和随机子空间法,提出了一种结构模态参数识别方法,基于无人机视频技术来实现,定义为基于时空边缘检测的运动增强时空上下文算法,用于从无人机拍摄的结构振动视频中提取结构模态参数。首先使用运动增强时空上下文算法获取结构基于无人机相机运动的相对运动位移,随后引入一种时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息。最后使用工作模态分析(Operational Modal Analysis,OMA,也称为环境激励下模态分析)——随机子空间法(Stochastic Subspace Identification,SSI),直接分析视觉技术获取位移数据,估算结构模态的固有频率和振型。
如图1和图2所示,本实施例的结构模态参数识别方法包括以下步骤:
S201、获取无人机拍摄的结构振动视频,并进行相机标定。
本实施例中,在现实环境中通过无人机拍摄的结构振动视频,并进行相机标定。
S202、针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移。
本实施例中,对相机标定后的视频使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数。
该运动增强时空上下文矩阵算法通过以下置信度函数来追踪目标位置:
Figure GDA0003769219850000091
其中,x∈R2为目标位置;o为场景中的目标;x*为目标区域中心点位置;b为归一化系数,以保证P(x|o)在0~1间变化;α和β分别为尺度参数和形状参数。
当前帧照片中,目标区域的局部上下文特征集定义为:
Xc={c(z)=(I(z),z)|z∈ΩC(x*)} (2)
其中,I(z)为位置z处的图像强度;ΩC(x*)为目标点x*周围的局部上下文区域。
依据贝叶斯概率公式,式(1)中的置信度函数可展开为:
Figure GDA0003769219850000092
Figure GDA0003769219850000101
其中,P(x,c(z)|o)为联合概率函数;P(x|c(z),o)为条件概率函数,表示目标位置与其局部上下文之间的空间关系;P(c(z)|o)为上下文先验概率函数,表示局部上下文的外观特征。
首先,根据首帧照片的图像强度,以及预定义的目标位置,可计算上下文先验概率P(c(z)|o),如下式:
P(c(z)|o)=I(z)ωσ(z-x*) (4)
其中,ωσ定义为加权高斯函数,如下式:
Figure GDA0003769219850000102
σ=(sw+sh)/2 (6)
其中,a为归一化系数,以保证P(c(z)|o)在0~1间变化;σ为加权高斯函数的尺度参数,sw和sh分别为目标区域的长度和宽度。
其次,定义上下文影响矩阵,上下文影响矩阵是基于上下文不同区域内的像素点与跟踪目标之间的运动趋势相似性来构建数学模型,目标与其局部上下文空间关系的图形模型如图3所示,上下文区域和影响矩阵如图4所示。在本实施例中,利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵,步骤如下:
(1)获得第(t-1)帧图像的强度It-1(x,y)和第t帧图像的强度It(x,y)。
(2)使用最小二乘法方法计算各像素点的速度和方向,如下式:
Figure GDA0003769219850000103
其中,所有的偏微分数值通过一阶微分值估计,即:
Figure GDA0003769219850000104
Figure GDA0003769219850000105
Figure GDA0003769219850000111
(3)计算上下文中目标中心与每个像素点之间的速度差,如下式:
Figure GDA0003769219850000112
(4)对于上下文区域中的每个像素,用负指数函数转换相应的速度差以生成影响系数,如下式:
Figure GDA0003769219850000113
其中,γ是比例参数。可以观察出,两个速度越相似,即速度差越小,影响系数将取更大的值。
最后,定义条件概率函数P(x|c(z),o)为:
P(x|c(z),o)=h(x-z)*m(z) (13)
其中,h(x-z)为空间上下文模型函数,取决于目标位置x和局部上下文位置z之间的相对距离和方向,且设置为非径向对称函数,该设置有助于解决距离和背景相似带来的歧义。
将公式(13)、(12)和(4)代入公式(3),可得:
Figure GDA0003769219850000114
Figure GDA0003769219850000115
Figure GDA0003769219850000116
其中,
Figure GDA0003769219850000118
代表卷积运算符,
Figure GDA0003769219850000117
表示逆傅里叶变换(IFFT)。
每一帧图片中的像素点数量众多,公式(15)的卷积运算效率低且计算复杂。已知在时域中进行卷积运算的结果与其在频域的乘积运算结果一致,因此,为了提高计算效率,MSTC算法结合快速傅里叶算法(FFT),将卷积运算转换成乘积运算,可大幅提高运算效率。
MSTC算法将目标跟踪任务转换为对置信度函数c(x)的最大值搜索任务。在第t 帧照片中,通过公式(16)计算得当前帧照片的空间上下文模型ht(x),继而根据下式更新下一帧照片的时空上下文模型Ht+1(x),如下式:
Ht+1(x)=(1-ρ)Ht(x)+ρht(x) (17)
式中,ρ为学习速率因子;Ht+1(x)定义为前一帧照片的时空上下文模型和空间上下文模型的加权和,这种加权处理可以有效地抑制物体外观强度突变引起的噪声干扰。
获得m(x)之后,要使以下置信度函数最大化来跟踪目标位置,如下式:
Figure GDA0003769219850000121
其中,Mt+1(x)与公式(17)Ht+1(x)更新方法相同,利用第t帧影响矩阵mt(x)更新获得,这种加权处理不仅可以充分利用时间上下文信息,还可以有效地抑制物体外观强度突变引起的噪声干扰。
Mt+1(x)=(1-η)Mt(x)+ηmt(x) (19)
其中,η为学习速率因子,初始权值矩阵M1(x)定义为所有元素均相等的规则化矩阵。
为了达到稳健的跟踪效果,在MSTC跟踪算法中的若干关键计算参数,取为:α=2.25,β=1,ρ=0.075,γ=4,η=0.3,MSTC算法流程图如图5所示。
S203、采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息。
本实施例中,对于基于固定相机计算机视觉监测方法是假设结构运动为平面运动为前提,在这种情况下,不需要在每一帧都确定比例因子来估计固有频率和模式形状。然而,无人机在拍摄过程中与结构的距离变化很大,而比例因子随着相机与结构之间距离的变化而变化,因此基于平面运动位移测量的方法不再成立。因此通过时空边缘自适应检测算法,修正图像尺度变化的大小。
比例因子是依据同一对象图像像素距离和世界坐标中的距离之间的比率构件数学模型,目标对象的像素距离主要通过canny边缘检测算法生成像素距离函数。
该步骤S203具体包括:
(1)获取第t帧目标对象区域图像It(x,y)。
(2)利用Canny边缘检测算法获取目标边缘图,如图6所示。并计算第t帧目标对象边缘距离集合
Figure GDA0003769219850000122
(3)计算目标对象图像像素距离,如下式:
Figure GDA0003769219850000131
(4)计算目标对象图像像素距离和在世界坐标中的距离之间的比率,其中St是第t帧比例因子,Δimage是对象在图像坐标(像素)中的尺寸,Δword是同一对象在世界坐标中的尺寸(毫米)。Δword可以通过对象的蓝图(即螺栓的大小,型钢的宽度,板的厚度等)来测量,通过该方法为每个图像帧确定St值:
Figure GDA0003769219850000132
(5)使用加权处理方式计算第t帧比例因子,加权处理不仅可以充分利用时间上下文信息,还可以有效地抑制物体外观强度突变引起的噪声干扰。因此需要对每帧中得到的比例因子模型都要持续不断地进行在线更新:
Figure GDA0003769219850000133
S204、采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
无人机获取的结构振动响应实测数据是离散的,其既包括结构运动也包含无人机运动;此外,在干扰环境中难免存在噪声信号,因此为了获得更接近结构真实系统模态参数,本发明运用随机子空间算法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方便快捷地获取结构的动力特性。
随机子空间算法主要是通过求解状态空间矩阵A的特征值问题获得系统的码模态参数,该方法的简要过程如下:
(1)将测量数据构造Hankel矩阵,按矩阵行数的不同将其分为“过去”和“将来”构造新矩阵Y=Yp/Yf。
(2)运用空间投影理论计算投影矩阵Pi,如下式:
Figure GDA0003769219850000134
(3)对上述投影矩阵进行SVD奇异值分解得到扩展观测矩阵Oi和卡尔曼滤波状态序列
Figure GDA0003769219850000135
如下式:
Figure GDA0003769219850000136
(4)通过最小二乘法可进一步计算出系统的状态矩阵A、输出矩阵C。
(5)求解状态矩阵A的特征值即可得系统的模态参数,如下式:
A=φΛφ-1 (25)
其中,φ、Λ分别为状态空间矩阵A的特征向量和特征值构成的对角矩阵。Λ中对角元素即为离散的特征值λi(i=1,2,…,n),离散特征值λi与连续的特征值λci的关系有:
Figure GDA0003769219850000141
其中,Δt为采样间隔。因此,系统的模态固有频率和振型分别为:
Figure GDA0003769219850000142
本实施例将在小型地震模拟振动台Quanser上进行框架结构模型的动力实验,以验证所提出的方法在模拟现实环境中的光照变化和风干扰情况下,能否利用无人机直接获取结构固有频率和振型。实验将以加速度计测量结果为参考值,分别对比无人机和固定相机测量效果,以及本实施例方法与LK-Harris算法的效果。
实验装置如图7所示,二层钢框架模型固定连接在Quanser单向振动台上,每层模型安装了加速度传感器,记录模型的加速度时程,并由数据采集卡和电脑进行自动采集。实验使用了商业无人机DJ Phantom4通过悬停模式录制模型振动视频,无人机的相机分辨率为3840*2160像素,帧率为29.97fps。此外,无人机的云台相机还嵌入了加速度和陀螺仪以抵抗无人机3轴旋转从而保持相机稳定。作为对比,同时使用了固定相机录制模型振动视频,固定相机(商业智能手机)安装在距离振动台2m处,视频记录分辨率为1920*1080像素,帧率为29.97fps。
实验中,为了激发结构的各阶振动模式,将带限白噪声(BLWN)用作输入信号。此外,为了考查方法在真实背景环境下的应用效果,没有对钢框架模型背后的复杂背景进行遮挡。
为了考查方法在不同环境下的应用效果,特设计四组对比实验:
(1)场景一,在框架模型振动过程中,无任何干扰因素。
(2)场景二,在框架模型振动过程中模拟光照变化。在设备旁放置一台照明设备,并在振动过程中多次打开/关闭它。如图8a中的所示为关闭灯时的情况,如图8b中所示为打开灯时的情况,可以观察到图像亮度的显着差异。
(3)场景三,框架模型振动过程中模拟风干扰。在无人机侧方放置电风扇,并在振动过程中将其打开以模拟有风的环境。并使用风速传感器测量风速变化,风扇开启情况下,风速可达3.34m/s。如图9所示,这一风速接近大疆无人机实际使用中的建议风速限值(三级风)。
为了便于与加速度传感器的测量结果进行直接对比,选择图中与加速度传感器同一高度的两个目标作为跟踪目标。如图10所示,在第一帧图像中,用蓝色十字标记表示两个目标点,其中分别用红色和绿色框表示相应的目标区域。
首先使用通过相机标定获取无人机相机的所有校准参数和畸变系数,随后将无人机拍摄的原始振动视频校准更新为新视频,再将新视频应用于两种基于视觉的测量方法,即MSTC方法和特征LK-Harris方法,并分别考察不引入和引入自适应比例因子的两种情况,以得到相应的位移时程数据。最后,使用随机子空间算法获取模型的动态特性。其中,作为对比分析用的常用LK-Harris算法,采用的是Lucas-Kanade光流与Harris角点相结合的跟踪算法
在对比研究中,使用两种类型的评估指标,即模态置信度准则(Modal AssuranceCriterion,MAC)和频率相对误差,以评估基于视觉的测量方法的性能。其中模态置信度也称为振型相关系数,用于判断两个模型之间的模态振型相似程度,其表达式如下:
Figure GDA0003769219850000151
其中,若φ1和φ2属于同一个振型,则MAC接近于1。而频率相对误差指的是测量所造成的绝对误差与被测量(约定)真值之比乘以100%所得的数值,以百分数表示,其用于判断使用视觉方法获得的频率与加速度传感器获取的频率的误差,表达式如下:
Figure GDA0003769219850000152
图11~图23和表1~表6中显示并比较了所有三种场景情况下的测量结果,其中,S1和S2 分别代表第一目标点和第二目标点比例因子的计算结果;EMSTC-1和EMSTC-2表示含比例因子更新变化的MSTC方法获取的目标一和目标二的测量结果;MSTC-1和MSTC-2表示不含比例因子更新变化的MSTC测量结果;ELK-1和ELK-2表示含比例因子更新变化的LK-Harris测量结果;LK-1 和LK-2表示不含比例因子更新变化的LK-Harris测量结果;camera-1和camera-2表示由固定相机视频和MSTC方法获得的测量结果;Sensor表示基于加速度计的测量结果。
下面将对测量结果进行详细说明:
A、干扰环境
从图11~图15和表1~表2中可以看出:
(1)在无干扰环境下,基于固定相机的结构模态识别结果的精度要优于基于无人机的结果,表明无人机悬停时的微小运动会给测量结果带来不利影响。
(2)在无干扰环境下,由于无人机悬停时在Z方向的微小运动变化,导致比例因子在每帧图像中都发生了变化。目标1的比例因子在0.78~0.82间变化,目标2的比例因子在0.70~0.78间变化,表明不同帧的像素位移之间存在着最大约10%的偏差。作为对比,通过固定相机视频识别得到的比例因子在帧间几乎无变化,也进一步印证了本文比例因子识别算法的有效性。
(3)在无干扰环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。不同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果的误差均小于1%。
(4)在无干扰环境下,是否考虑尺度更新对于结构振型的识别影响较大。虽然不同方法测量结果的MAC都具有99%以上的精度,但考虑尺度更新的MSTC和LK-Harris 结果都比不考虑的情况精度更高,其中,MSTC结果更优于LK-Harris结果。
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度都优于高阶情况,表明通过视频识别得到的位移响应结果,有利于结构低阶振动模态的高精度识别,这与常规位移传感器的应用特点相符。
表1无干扰因素情况下的模态参数识别对比(含比例因子更新)
Figure GDA0003769219850000161
表2无干扰因素情况下的模态参数识别对比(不含比例因子更新)
Figure GDA0003769219850000162
B、光照变化环境
从图16~图19和表3~表4中可以看出:
(1)在光照变化环境下,基于固定相机的结构模态识别结果的精度要优于基于无人机的结果,表明无人机悬停时的微小运动会给测量结果带来不利影响。
(2)在光照变化环境下,由于无人机悬停时在Z方向的微小运动变化,导致比例因子在每帧图像中都发生了变化。目标1的比例因子在0.75~0.80间变化,目标2的比例因子在0.71~0.77间变化,表明不同帧的像素位移之间存在着最大约10%的偏差。
(3)在光照变化环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。不同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果的误差均小于1%。
(4)在光照变化环境下,是否考虑尺度更新对于结构振型的识别影响较大。考虑尺度更新的MSTC结果的MAC具有99%以上的精度,不考虑尺度更新的MSTC结果精度均有所下降,其中二阶振型的MAC降到99%以下。而LK-Harris方法对于光照变化的适应性较差,容易导致测量位移发生偏移,虽然考虑尺度更新相对于不考虑尺度更新的表现较好,但识别结果的MAC都小于72%,二阶结果更小于49%。
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度都优于高阶情况。
表3光照变化情况下的模态参数识别对比(含比例因子更新)
Figure GDA0003769219850000171
表4光照变化情况下的模态参数识别对比(不比例因子更新)
Figure GDA0003769219850000172
C、风环境
从图20~图23和表5~表6中可以看出:
(1)在风干扰环境下,基于固定相机的结构模态识别结果的精度要优于基于无人机的结果,表明风干扰下的无人机较大幅运动会给测量结果带来不利影响。
(2)在风干扰环境下,由于无人机的较大幅运动变化,导致比例因子在每帧图像中都发生了大幅变化。目标1的比例因子在0.84~1.02间变化,目标2的比例因子在 0.75~0.93间变化,表明不同帧的像素位移之间存在着最大约25%的偏差。
(3)在风干扰环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。不同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果的误差均小于1%。
(4)在风干扰环境下,是否考虑尺度更新对于结构振型的识别影响较大。考虑尺度更新的MSTC结果的MAC具有99%以上的精度,不考虑尺度更新的MSTC结果精度均有所下降,其中二阶振型的MAC降到98%以下。而LK-Harris方法对于大幅相机运动的适应性较差,容易导致测量位移发生偏移,虽然考虑尺度更新相对于不考虑尺度更新的表现较好,但识别结果的MAC都小于96%,二阶结果更小于86%。
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度基本优于高阶情况。
表5风干扰情况下的模态参数识别对比(含比例因子更新)
Figure GDA0003769219850000173
表6风干扰情况下的模态参数识别对比(不含比例因子更新)
Figure GDA0003769219850000181
D、实验结果总结
综合上述三种实验场景结果,可得到如下一般结论:
(1)要评估不同视觉方法辨识结构模态的性能优劣,当涉及环境干扰时,结构振型指标相比结构频率指标更为关键。
(2)在基于无人机视觉技术的工程振动测量中,尺度更新对于获取结构频率影响较小,但是对于获取准确的结构振型至关重要。
(3)相较于LK-Harris方法,MSTC方法对于光照变化和大幅相机运动干扰的适应性更好,目标运动跟踪的鲁棒性增强;进一步引入尺度更新后,可以更准确地得到目标的实际物理位移,有助于识别准确的结构振型。
本领域技术人员可以理解,实现上述实施例的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2:
如图24所示,本实施例提供了一种结构模态参数识别装置,其包括标定模块2401、提取模块2402、计算模块2403和估算模块2404,各个模块的具体功能如下:
标定模块2401,用于获取无人机拍摄的结构振动视频,并进行相机标定。
提取模块2402,用于针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移。
计算模块2403,用于采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息。
估算模块2404,用于采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
本实施例中各个模块的具体实现可以参见上述实施例1,在此不再一一赘述;需要说明的是,本实施例提供的系统仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
实施例3:
本实施例提供了一种计算机设备,该计算机设备为计算机,如图25所示,其包括通过系统总线2501连接的处理器2502、存储器、输入装置2503、显示器2504和网络接口2505,该处理器用于提供计算和控制能力,该存储器包括非易失性存储介质2506 和内存储器2507,该非易失性存储介质2506存储有操作系统、计算机程序和数据库,该内存储器2507为非易失性存储介质中的操作系统和计算机程序的运行提供环境,处理器2502执行存储器存储的计算机程序时,实现上述实施例1的结构模态参数识别方法,如下:
获取无人机拍摄的结构振动视频,并进行相机标定;
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
实施例4:
本实施例提供了一种存储介质,该存储介质为计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时,实现上述实施例1的结构模态参数识别方法,如下:
获取无人机拍摄的结构振动视频,并进行相机标定;
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
需要说明的是,本实施例的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
综上所述,本发明结合运动增强时空上下文、时空边缘检测方法和随机子空间法,使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数,通过时空上下文边缘检测算法,修正图像尺度变化的大小,运用随机子空间法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方便快捷地获取结构的动力特性;为了验证方法的可行性,开展在白噪声激励下振动试验,使用无人机对振动台进行拍摄,通过实验模拟光照变化和风干扰,对比考查本发明方法与特征光流算法(Lucas-Kanada Optical Flow&Harris,LK-Harris)算法、固定相机和加速度传感器的测量结果。实验结果表明,传统的特征光流算法在光照环境和风环境中误差较大,而本发明方法对于现实环境的有更优的适应性和识别鲁棒性。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,凡未脱离本发明专利利用交直流相对关系与时序构造结构模态参数识别的等效实施或变更,包括图、公式、预设阈值等,都属于本发明专利的保护范围。

Claims (9)

1.一种结构模态参数识别方法,其特征在于,所述方法包括:
获取无人机拍摄的结构振动视频,并进行相机标定;
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数;
所述采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息,具体包括:
获取第t帧目标对象区域图像It(x,y);
利用Canny边缘检测算法获取目标边缘图,并计算第t帧目标对象边缘距离集合
Figure FDA0003781288260000011
计算目标对象图像像素距离,如下式:
Figure FDA0003781288260000012
计算目标对象图像像素距离和在世界坐标中的距离之间的比率,作为比例因子,如下式:
Figure FDA0003781288260000013
其中,Δimage是目标对象图像像素距离,Δword是目标对象在世界坐标中的距离,St是第t帧比例因子;
对第t帧比例因子进行加权处理,并对每帧中加权处理得到的比例因子进行更新,如下式:
Figure FDA0003781288260000014
其中,
Figure FDA0003781288260000015
为权值。
2.根据权利要求1所述的结构模态参数识别方法,其特征在于,所述针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移,具体包括:
根据首帧照片的图像强度,以及预定义的目标位置,计算上下文先验概率P(c(z)|o),如下式:
P(c(z)|o)=I(z)ωσ(z-x*)
其中,o为场景中的目标;x*为目标区域中心点位置,I(z)为位置z处的图像强度,ωσ定义为加权高斯函数:
Figure FDA0003781288260000021
σ=(sw+sh)/2
其中,a为归一化系数,以保证P(c(z)|o)在0~1间变化;σ为加权高斯函数的尺度参数,sw和sh分别为目标区域的长度和宽度;
利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵;
定义条件概率函数P(x|c(z),o)为:
P(x|c(z),o)=h(x-z)*m(z)
其中,h(x-z)为空间上下文模型函数,取决于目标位置x和局部上下文位置z之间的相对距离和方向,且设置为非径向对称函数;
将定义条件概率函数P(x|c(z),o)、影响系数
Figure FDA0003781288260000027
上下文先验概率P(c(z)|o)代入置信度函数,得到下式:
Figure FDA0003781288260000022
Figure FDA0003781288260000023
Figure FDA0003781288260000024
其中,
Figure FDA0003781288260000025
表示卷积运算符,
Figure FDA0003781288260000026
表示逆傅里叶变换,c(x)表示置信度函数,α和β分别为尺度参数和形状参数。
3.根据权利要求2所述的结构模态参数识别方法,其特征在于,所述利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵,具体包括:
获得第(t-1)帧图像的强度It-1(x,y)和第t帧图像的强度It(x,y);
使用最小二乘法方法计算各像素点的速度和方向,如下式:
Figure FDA0003781288260000031
其中,所有的偏微分数值通过一阶微分值估计;
计算上下文中目标中心与每个像素点之间的速度差,如下式:
Figure FDA0003781288260000032
对于上下文区域中的每个像素,用负指数函数转换相应的速度差以生成影响系数,如下式:
Figure FDA0003781288260000033
其中,γ是比例参数。
4.根据权利要求2所述的结构模态参数识别方法,其特征在于,所述目标位置通过极大化以下置信度函数来追踪,如下式:
Figure FDA0003781288260000034
其中,x∈R2为目标位置;o为场景中的目标;x*为目标区域中心点位置;b为归一化系数,以保证P(x|o)在0~1间变化;α和β分别为尺度参数和形状参数。
5.根据权利要求1-4任一项所述的结构模态参数识别方法,其特征在于,所述采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数,具体包括:
将测量数据构造Hankel矩阵,按矩阵行数的不同将Hankel矩阵分为“过去”和“将来”,构造新矩阵Y=Yp/Yf;
根据矩阵Y,运用空间投影理论计算投影矩阵Pi,如下式:
Figure FDA0003781288260000035
对投影矩阵Pi进行SVD奇异值分解得到扩展观测矩阵Oi和卡尔曼滤波状态序列
Figure FDA0003781288260000036
Figure FDA0003781288260000037
通过最小二乘法计算出系统的状态矩阵A、输出矩阵C;
求解状态矩阵A的特征值,得到系统的模态参数,如下式:
A=φΛφ-1
其中,φ、Λ分别为状态空间矩阵A的特征向量和特征值构成的对角矩阵,Λ中对角元素即为离散的特征值λi,i=1,2,…,n。
6.根据权利要求5所述的结构模态参数识别方法,其特征在于,所述离散的特征值λi与连续的特征值λci的关系有:
Figure FDA0003781288260000041
其中,Δt为采样间隔,系统的模态固有频率和振型分别为:
Figure FDA0003781288260000042
7.一种结构模态参数识别装置,其特征在于,所述装置包括:
标定模块,用于获取无人机拍摄的结构振动视频,并进行相机标定;
提取模块,用于针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构基于无人机相机运动的相对运动位移;
计算模块,用于采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
估算模块,用于采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数;
所述采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息,具体包括:
获取第t帧目标对象区域图像It(x,y);
利用Canny边缘检测算法获取目标边缘图,并计算第t帧目标对象边缘距离集合
Figure FDA0003781288260000043
计算目标对象图像像素距离,如下式:
Figure FDA0003781288260000044
计算目标对象图像像素距离和在世界坐标中的距离之间的比率,作为比例因子,如下式:
Figure FDA0003781288260000051
其中,Δimage是目标对象图像像素距离,Δword是目标对象在世界坐标中的距离,St是第t帧比例因子;
对第t帧比例因子进行加权处理,并对每帧中加权处理得到的比例因子进行更新,如下式:
Figure FDA0003781288260000052
其中,
Figure FDA0003781288260000053
为权值。
8.一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1-6任一项所述的结构模态参数识别方法。
9.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-6任一项所述的结构模态参数识别方法。
CN202111179748.9A 2021-10-11 2021-10-11 结构模态参数识别方法、装置、计算机设备及存储介质 Active CN113901920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111179748.9A CN113901920B (zh) 2021-10-11 2021-10-11 结构模态参数识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111179748.9A CN113901920B (zh) 2021-10-11 2021-10-11 结构模态参数识别方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN113901920A CN113901920A (zh) 2022-01-07
CN113901920B true CN113901920B (zh) 2022-10-25

Family

ID=79190944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111179748.9A Active CN113901920B (zh) 2021-10-11 2021-10-11 结构模态参数识别方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN113901920B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114858226B (zh) * 2022-07-05 2022-10-25 武汉大水云科技有限公司 一种无人机山洪流量测量方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045726A (zh) * 2017-04-27 2017-08-15 南京航空航天大学 一种改良的基于时空上下文模型的目标跟踪方法
CN107492114A (zh) * 2017-06-12 2017-12-19 杭州电子科技大学 单目长时视觉跟踪方法的跟踪失败时的使用的重检方法
CN110413943A (zh) * 2019-08-06 2019-11-05 海洋石油工程股份有限公司 海洋平台结构模态参数的识别方法
CN111735523A (zh) * 2020-08-27 2020-10-02 湖南大学 基于视频识别的车重检测方法、装置及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952294B (zh) * 2017-02-15 2019-10-08 北京工业大学 一种基于rgb-d数据的视频跟踪方法
CN106989812B (zh) * 2017-05-03 2020-11-03 湖南科技大学 基于摄影测量技术的大型风机叶片模态测试方法
CN108593087A (zh) * 2018-03-29 2018-09-28 湖南科技大学 一种薄壁件工作模态参数确定方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045726A (zh) * 2017-04-27 2017-08-15 南京航空航天大学 一种改良的基于时空上下文模型的目标跟踪方法
CN107492114A (zh) * 2017-06-12 2017-12-19 杭州电子科技大学 单目长时视觉跟踪方法的跟踪失败时的使用的重检方法
CN110413943A (zh) * 2019-08-06 2019-11-05 海洋石油工程股份有限公司 海洋平台结构模态参数的识别方法
CN111735523A (zh) * 2020-08-27 2020-10-02 湖南大学 基于视频识别的车重检测方法、装置及存储介质

Also Published As

Publication number Publication date
CN113901920A (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
US20210201010A1 (en) Pedestrian re-identification method based on spatio-temporal joint model of residual attention mechanism and device thereof
Tian et al. Noncontact cable force estimation with unmanned aerial vehicle and computer vision
Yoon et al. Target‐free approach for vision‐based structural system identification using consumer‐grade cameras
Weng et al. Homography‐based structural displacement measurement for large structures using unmanned aerial vehicles
Narazaki et al. Efficient development of vision-based dense three-dimensional displacement measurement algorithms using physics-based graphics models
US11783457B2 (en) Multispectral camera dynamic stereo calibration algorithm based on saliency features
EP2901236B1 (en) Video-assisted target location
Zhang et al. Complex image background segmentation for cable force estimation of urban bridges with drone‐captured video and deep learning
CN112050806B (zh) 一种移动车辆的定位方法及装置
CN104680554B (zh) 基于surf的压缩跟踪方法和系统
CN113505643B (zh) 违章目标物检测方法及相关装置
CN113901920B (zh) 结构模态参数识别方法、装置、计算机设备及存储介质
Havaran et al. Markers tracking and extracting structural vibration utilizing Randomized Hough transform
CN113012215A (zh) 一种空间定位的方法、系统及设备
Guo et al. Damage identification for frame structures using vision-based measurement
CN112036381A (zh) 视觉跟踪方法、视频监控方法及终端设备
Wang et al. Completely non-contact modal testing of full-scale bridge in challenging conditions using vision sensing systems
CN113607321A (zh) 索结构的索力测试方法、装置、计算机设备和存储介质
CN111948658A (zh) 水底地貌影像识别匹配的深水区定位方法
CN109271865B (zh) 基于散射变换多层相关滤波的运动目标跟踪方法
CN112669382B (zh) 一种基于图像的距离确定方法及装置
CN101149803A (zh) 点源目标检测的小虚警率的试验估计方法
Choi et al. Automated region-of-interest selection for computer-vision-based displacement estimation of civil structures
Cai et al. Vision-based automatic structural motion estimation in presence of 3D camera motion effects
Zhao et al. Nodes2STRNet for structural dense displacement recognition by deformable mesh model and motion representation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant