CN116046303B - 一种挠度智能检测系统、方法及装置 - Google Patents

一种挠度智能检测系统、方法及装置 Download PDF

Info

Publication number
CN116046303B
CN116046303B CN202310323360.4A CN202310323360A CN116046303B CN 116046303 B CN116046303 B CN 116046303B CN 202310323360 A CN202310323360 A CN 202310323360A CN 116046303 B CN116046303 B CN 116046303B
Authority
CN
China
Prior art keywords
deflection
marker
images
identification
intelligent detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310323360.4A
Other languages
English (en)
Other versions
CN116046303A (zh
Inventor
张冠华
崔凯华
王超
刘志远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Transportation Investment Co ltd
Liaoning Institute Of Transportation Planning And Design Co ltd
Original Assignee
Liaoning Transportation Investment Co ltd
Liaoning Institute Of Transportation Planning And Design Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Transportation Investment Co ltd, Liaoning Institute Of Transportation Planning And Design Co ltd filed Critical Liaoning Transportation Investment Co ltd
Priority to CN202310323360.4A priority Critical patent/CN116046303B/zh
Publication of CN116046303A publication Critical patent/CN116046303A/zh
Application granted granted Critical
Publication of CN116046303B publication Critical patent/CN116046303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0041Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining deflection or stress
    • G01M5/005Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining deflection or stress by means of external apparatus, e.g. test benches or portable test systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及挠度检测技术领域,公开了一种挠度智能检测系统、方法及装置,包括:挠度智能检测设备、一个或多个标识器,其中,所述挠度智能检测设备包括:设备外壳;相机,用于依次拍摄多张标识图像,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;处理器,所述处理器与所述相机电连接,包括挠度智能检测模型模块,所述挠度智能检测模型模块是基于深度学习算法建立的模型模块,用于根据在多种场景所获取的标识图像,计算一个或多个挠度数值;操作屏幕显示器,所述操作屏幕显示器与所述处理器电连接,用于操作挠度检测程序,并显示一个或多个挠度数值。通过该系统,能够提高挠度检测的精准率和效率。

Description

一种挠度智能检测系统、方法及装置
技术领域
本发明涉及挠度检测技术领域,尤其涉及一种挠度智能检测系统、方法及装置。
背景技术
挠度是指建筑物或其构件在水平方向或竖直方向上的弯曲值,挠度检测是指通过一定的技术、仪器或方法对这种弯曲的程度进行测量和分析。挠度检测是结构性能试验中的一个重要检测项目,在正常使用短期荷载检验值的情况下,依据挠度数值能够判断构件的挠度检验指标是否合格。同时,也可以根据挠度增长的快慢,来判定构件是否有开裂等危险因素。因此,挠度智能检测技术对建筑工程和结构安全具备积极意义。
目前,挠度检测的方法包括,激光准直感光法、重力传感器测量法以及光电测量法等。然而,上述测量方法存在一些不足。比如,激光准直感光法只能测量最终的挠度数值,无法体现动态的挠度数值的变化过程;光电测量法的挠度数值受光电成像时环境的影响,检测的数值不够稳定,不能一直保持高精准率,挠度检测效率较低。
发明内容
本发明提供了一种挠度智能检测系统、方法及装置,以解决现有技术中,挠度检测精准率及效率较低的技术问题。
第一方面,提供了一种挠度智能检测系统,包括:挠度智能检测设备、一个或多个标识器,其中,所述挠度智能检测设备包括:
设备外壳;
相机,用于依次获取多张标识图像,所述标识图像包括一个或多个标识器图像;
处理器,所述处理器与所述相机电连接,包括挠度智能检测模型模块,所述挠度智能检测模型模块是基于深度学习算法建立的模型模块,用于根据在多种场景所获取的标识图像,计算一个或多个挠度数值,其中,所述处理器被配置为执行以下方法,包括:
依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项;
依次输出一个或多个挠度数值;
操作屏幕显示器,所述操作屏幕显示器与所述处理器电连接,用于操作挠度智能检测程序,并显示一个或多个挠度数值。
在一种可能的实现方式中,所述标识器包括:电源板和背光板,所述背光板和所述电源板电连接,所述背光板用于发射一种或多种波段的光线;
所述相机包括镜头,所述镜头前端设有滤光片,所述滤光片用于过滤所述背光板发射光线之外的波段范围的光线。
在一种可能的实现方式中,所述标识器和所述挠度检测设备均包括无线通信模块,用于同步所述相机的曝光时间和所述背光板的发光时间。
在一种可能的实现方式中,多个所述标识器为不同类型的标识器,用于标识不同的建筑物或者同一建筑物的不同部位。
第二方面,提供了一种挠度智能检测方法,包括:
依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项;
依次输出一个或多个挠度数值。
在一种可能的实现方式中,所述依次获取标识图像之前,还包括:
获取多种场景类型的标识图像样本,其中,所述标识图像样本包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
根据第一种场景类型的标识图像样本,并基于深度学习算法,训练构建出第一种场景类型的标识器图像的特征信息;
根据第二种场景类型的标识图像样本,并基于深度学习算法,训练构建出第二种场景类型的标识器图像的特征信息;
依次类推,根据最后一种场景类型的标识图像样本,并基于深度学习算法,训练构建出最后一种场景类型的标识器图像的特征信息,建立形成挠度智能检测模型。
在一种可能的实现方式中,所述深度学习算法为FCN算法,所述将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,包括:
基于FCN算法,依次提取第一标识图像中的标识器图像,并得到第一标识图像中的标识器图像的特征点位置信息;
基于FCN算法,依次提取第二标识图像中的标识器图像,并得到第二标识图像中的标识器图像的特征点位置信息;
根据第一标识图像中的标识器图像的特征点位置信息和第二标识图像中的标识器图像的特征点位置信息,依次计算得到一个或多个挠度数值。
在一种可能的实现方式中,所述依次获取标识图像之前,还包括:
将标识器的背光板闪烁频率值和占空比值通过无线通信方式发送给一个或多个标识器。
第三方面,提供了一种挠度智能检测装置,包括:
标识图像获取模块:用于依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
挠度数值计算模块:用于将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项;
挠度数值输出模块:用于依次输出一个或多个挠度数值。
上述挠度智能检测系统、方法及装置,通过利用多种场景类型的标识图像样本信息,训练构建形成挠度智能检测模型,使得挠度智能检测模型能够在不同场景的标识图像中,快速、精准地识别出一个或多个标识器,并根据标识图像信息,计算得到并输出一个或多个挠度数值。与此同时,本申请中的挠度智能检测系统通过在标识器上设置背光板、在相机的镜头上安装滤光片,并且,所述滤光片能够过滤所述背光板发射光线之外的波段范围的光线,使得挠度检测模型能够快速、准确地识别出标识图像中的一个或多个标识器,进一步提高了标识器的识别率,从而进一步提高了挠度检测的精准率和效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是挠度现场检测时所拍摄的标识图像;
图2是本发明一实施例中挠度智能检测方法的一流程示意图;
图3是本发明一实施例中挠度智能检测模型建立的方法的一流程示意图;
图4是本发明一实施例中第一种场景类型的标识图像样本示意图;
图5是本发明一实施例中第二种场景类型的标识图像样本示意图;
图6是本发明一实施例中第三种场景类型的标识图像样本示意图;
图7是本发明一实施例中第四种场景类型中的第一标识图像样本示意图;
图8是本发明一实施例中第四种场景类型中的第二标识图像样本示意图;
图9是本发明一实施例中第四种场景类型中的第三标识图像样本示意图;
图10是图2中步骤S20的一具体实施方式流程示意图;
图11是本发明一实施例中FCN算法与传统卷积网络算法的网络结构示意图;
图12是本发明一实施例中挠度数值的输出示意图;
图13是本发明一实施例中挠度数值的另一种输出示意图;
图14是本发明一实施例中挠度智能检测装置的一结构示意图;
图15是本发明一实施例中挠度智能检测装置的另一结构示意图;
图16是本发明一实施例中挠度智能检测系统的示意图;
图17是本发明一实施例中通过带有滤光片的镜头所拍摄的标识器图像;
图18是本发明一实施例中第一种类型的标识器的示意图;
图19是本发明一实施例中第二种类型的标识器的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在对本申请实施例进行详细的解释说明之前,先对本申请实施例涉及的应用场景予以介绍。
请参阅图1所示,图1是挠度现场检测时所拍摄的标识图像。为了控制图像数据量的大小,进一步节约图像的存储空间,本申请实施例中的标识图像及标识图像样本是通过黑白相机拍摄的。在其它实施方式中,也可以通过彩色相机进行拍摄,本申请对图像参数不作限制。桥梁挠度检测过程中,首先将挠度智能检测设备置于桥下一固定位置,然后在桥梁底板的检测点布置标识器,如图1所示。当桥梁因为加载发生下挠时,被测点就会发生垂直上下的位移,此时挠度检测设备会实时采集图1所示的标识图像,根据图像相似度匹配的算法,计算出挠度值。
然而,在现场检测过程中,由于检测时间长、环境多变,挠度检测设备所采集的标识图像中,标识器图像清晰度不一致。比如,早上太阳升起时,由于阳光充足,标识器图像很清晰。然而,晚上太阳下山时,由于光照不足,标识器图像十分模糊,导致在图像相似度匹配的算法过程中,标识器丢失的现象。此时挠度检测设备实时采集的图像就不可用,也就无法测出挠度数值。又比如,检测时,云朵把太阳遮住了,光线的明暗发生变化。此时,挠度检测设备,不能稳定的测出一组连续的挠度数值,测出来的挠度数值存在误差,精准率较低。同时,如果挠度检测设备进行多个检测点的挠度同步检测时,多个标识器由于和挠度检测设备的距离、角度存在差异,造成实时采集的图像中,一些标识器过小,角度偏差较大,进而导致所检测的一些挠度数值误差较大,精准率较低。本申请正是基于上述场景所发现的问题,提出的技术方案。
请参阅图2所示,图2是本发明一实施例中挠度智能检测方法一流程示意图,包括如下步骤:
S10:依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息。
本申请实施例中,标识图像是实时获取的,比如,获取标识图像的时间可以设置为每秒10张。在标识图像中,包括一个或多个标识器图像,标识器可以是圆形、三角形或者不规则形状,本申请对此不作限制。在挠度现场检测时,标识器会被布置在某一建筑物的固定位置,或者将多个标识器布置在同一建筑物的多个部位,用于测量挠度数值。在图1所示的标识图像中,包括两个标识器,并分别被布置在不同的桥梁底板处。当桥梁出现弯曲变形时,标识器的位置也会发生变化,通过计算标识器的位移,即可得到桥梁的挠度数值。
S20:将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项。
正如上文所言,由于检测时间长、环境多变,挠度检测设备所采集的标识图像中,标识器图像清晰度不一致。那么,如何在标识器图像清晰度不够的情况下,精准地识别出标识器?本申请实施例采取人工智能技术,通过深度学习算法构建挠度智能检测模型,所建立的挠度智能检测模型,能够适应环境的变化以及标识器图像的明暗、大小、角度等变化,进而精准地识别出标识器的位置。请参阅图3所示,图3是本发明一实施例中挠度智能检测模型建立的方法的一流程示意图,包括如下步骤:
S201:获取多种场景类型的标识图像样本,其中,所述标识图像样本包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
S202:根据第一种场景类型的标识图像样本,并基于深度学习算法,训练构建出第一种场景类型的标识器图像的特征信息;
S203:根据第二种场景类型的标识图像样本,并基于深度学习算法,训练构建出第二种场景类型的标识器图像的特征信息;
S204:依次类推,根据最后一种场景类型的标识图像样本,并基于深度学习算法,训练构建出最后一种场景类型的标识器图像的特征信息,建立形成挠度智能检测模型。
请参阅图4至图9所示,图4至图9是本发明一实施例中多种场景类型的标识图像样本示意图。其中,图4为光照充足时,所拍摄的标识图像;图5为光照不足时,所拍摄的标识图像;图6为光线明暗交接处,所拍摄的标识图像;图7至图9为所拍摄的不同角度的标识图像。由此可见,光照环境的变化以及标识器的角度变化,均会导致所拍摄标识图像中的标识器图像呈现不一致。同样地,当标识器的大小不一致时,所拍摄标识图像中的标识器图像呈现也不一样。因此,本申请通过输入大量的多种场景类型的标识图像样本,让机器基于深度学习算法,自我学习标识图像样本中的标识器图像的特征信息,构建挠度智能检测模型。进而,在挠度现场检测时,能够利用挠度智能检测模型,更精准地识别出标识图像中标识器的位置信息,从而提高挠度检测的精准率和效率。
在一种实施方式中,所述深度学习算法为FCN(Fully Convolutional Networksfor Semantic Segmentation)算法,所述将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,请参阅图10所示,图10是图2中步骤S20的一具体实施方式流程示意图,包括如下步骤:
S21: 基于FCN算法,依次提取第一标识图像中的标识器图像,并得到第一标识图像中的标识器图像的特征点位置信息;
S22: 基于FCN算法,依次提取第二标识图像中的标识器图像,并得到第二标识图像中的标识器图像的特征点位置信息。
S23: 根据第一标识图像中的标识器图像的特征点位置信息和第二标识图像中的标识器图像的特征点位置信息,依次计算得到一个或多个挠度数值。
需要说明的是,FCN算法将传统卷积网络后面的全连接层换成了卷积层,这样网络输出不再是类别而是图像。请参阅图11所示,图11是本发明一实施例中FCN算法与传统卷积网络算法的网络结构示意图。传统卷积网络后面的三个全连接层换成了卷积层之后,模型的输出就不是一个概率数值,而是与输入尺寸相同的图像,并且所输出的图像上包含了具体类别的物体。如此,通过FCN算法,所提取的标识器图像保留了原始输入图像中的空间信息,能够更精准的提取到标识器图像。
同时,传统卷积网络算法是图像级别的分类,需要根据每个像素使用的图像块的大小滑动窗口,然后进行判别分类。由于,相邻的像素块基本上是重复的,针对每个像素块逐个计算卷积,这种计算也有很大程度上的重复。因此,传统卷积网络算法中,所需的存储空间根据滑动窗口的次数和大小会急剧上升。然而,FCN算法是从抽象的特征中恢复出每个像素所属的类别,避免了由于窗口重叠而造成的多余计算,相对于传统卷积网络算法,可以更高效地检测大图像中的所有对象并生成精确的边界框。也就是说,本申请实施例,基于FCN算法,能够更高效、更精准地提取标识器图像,进而提高挠度检测的精准率和效率。
基于FCN算法,分别提取第一标识图像和第二标识图像中的标识器图像后,那么根据两张标识图像中的标识器的相对位移,就可以计算得到挠度数值。其中,标识器的相对位移可以根据标识器图像的特征点位置信息进行计算得到,特征点可以是标识器图像的上边界特征点或下边界特征点。在一种实施方式中,特征点也可以是标识器的质心,通过标识器图像质心点的位移,计算得到挠度数值。
S30:依次输出一个或多个挠度数值。
请参阅图12所示,图12是本发明一实施例中挠度数值的输出示意图。本申请实施例中,挠度数值的输出是一个动态变化的过程,由于车辆的行驶是一个动态的过程,那么桥梁所承受的压力也是一个动态变化的过程,这就导致挠度数值的变化。与此同时,本申请实施例,能够同时对不同建筑物或同一建筑物的不同部件进行挠度检测与挠度数值的动态输出。如图12所示,输出的是3个桥梁的挠度变化数值。
请参阅图13所示,图13是本发明一实施例中挠度数值的另一种输出示意图。在挠度智能检测设备的操作屏幕显示器上,将建筑物上的两个固定目标位置处的最大位移量作为挠度数值进行输出。
在一种实施方式中,所述依次获取标识图像之前,还包括:
将标识器的背光板频率值和占空比值通过无线通信方式发送给一个或多个标识器。
本申请实施例中,标识器上带有背光板,背光板可以发射一种或多种波段的光线,那么当背光板发出光线的时候,所拍摄到的标识器图像也就更清晰。由于相机在固定的时间具备固定的曝光次数,为了进一步节约背光板的电源能耗,背光板采取闪频的方式发出光线,即固定时间内固定次数的频闪。那么,背光板发出光线的时间,就需要在相机的曝光的时间内,相机是通过曝光的方式采集获取图像,也就是说相机采集标识图像的频率值与背光板闪烁频率值是相同的。因此,在相机采集获取标识图像,将所述标识图像依次输入到所述挠度智能检测模型之前,将标识器的背光板闪烁频率值和占空比值通过无线通信方式发送给一个或多个标识器,一方面能够确保背光板光线闪烁的频率值和标识图像采集频率值一致,另一方通过占空比调整背光板的发光亮度,从而确保所采集获取的标识图像中的标识器图像的清晰度,进一步提高标识器识别的精准率,进而提高挠度检测的精准率。
可见,本申请实施例通过利用多种场景类型的标识图像样本信息,训练构建形成挠度智能检测模型,使得挠度智能检测模型能够在不同场景的标识图像中,快速、精准地识别出一个或多个标识器,并根据标识图像信息,计算得到并输出一个或多个挠度数值。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,
各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。此外,术语“包括”及其变体要被解读为“包括但不限于”的开放式术语。
在第二个实施例中,提供一种挠度智能检测装置,该挠度智能检测装置与上述实施例中挠度智能检测方法一一对应。如图14所示,该挠度智能检测装置包括:标识图像获取模块301、挠度数值计算模块302和挠度数值输出模块303。各功能模块详细说明如下:
标识图像获取模块301:用于依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息。
挠度数值计算模块302:用于将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项。
挠度数值输出模块303:用于依次输出一个或多个挠度数值。
本申请实施例中提供了一种可能的实现方式,如图15所示,上文图14的挠度智能检测装置还可以包括挠度智能检测模型构建模块401和无线信号发送模块402。其中挠度智能检测模型构建模块401,用于:
获取多种场景类型的标识图像样本,其中,所述标识图像样本包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
根据第一种场景类型的标识图像样本,并基于深度学习算法,训练构建出第一种场景类型的标识器图像的特征信息;
根据第二种场景类型的标识图像样本,并基于深度学习算法,训练构建出第二种场景类型的标识器图像的特征信息;
依次类推,根据最后一种场景类型的标识图像样本,并基于深度学习算法,训练构建出最后一种场景类型的标识器图像的特征信息,建立形成挠度智能检测模型。
无线信号发送模块402,用于:
将标识器的背光板闪烁频率值和占空比值通过无线通信方式发送给一个或多个标识器。
本申请实施例中提供了一种可能的实现方式,所述深度学习算法为FCN算法,上述挠度数值计算模块302,还用于:
基于FCN算法,依次提取第一标识图像中的标识器图像,并得到第一标识图像中的标识器图像的特征点位置信息;
基于FCN算法,依次提取第二标识图像中的标识器图像,并得到第二标识图像中的标识器图像的特征点位置信息;
根据第一标识图像中的标识器图像的特征点位置信息和第二标识图像中的标识器图像的特征点位置信息,依次计算得到一个或多个挠度数值。
本申请实施例提供了一种挠度智能检测装置,通过利用多种场景类型的标识图像样本信息,训练构建形成挠度智能检测模型,使得挠度智能检测模型能够在不同场景的标识图像中,快速、精准地识别出一个或多个标识器,并根据标识图像信息,计算得到并输出一个或多个挠度数值。
关于挠度智能检测装置的具体限定可以参见上文中挠度智能检测方法的限定,在此不再赘述。上述挠度智能检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在第三个实施例中,请参阅图16所示,图16是本发明一实施例中挠度智能检测系统的示意图。挠度智能检测系统包括挠度智能检测设备和标识器。其中,所述挠度智能检测设备包括:设备外壳;相机,用于依次获取多张标识图像,所述标识图像包括一个或多个标识器图像;处理器,所述处理器与所述相机电连接,包括挠度智能检测模型模块,所述挠度智能检测模型模块是基于深度学习算法建立的模型模块,用于根据在多种场景所获取的标识图像,计算一个或多个挠度数值;操作屏幕显示器,所述操作屏幕显示器与所述处理器电连接,用于操作挠度检测程序,并显示一个或多个挠度数值。
在一种实施方式中,所述标识器包括:电源板和背光板,所述背光板和所述电源板电连接,所述背光板用于发射一种或多种波段的光线;
所述相机包括镜头,所述镜头前端设有滤光片,所述滤光片用于过滤所述背光板发射光线之外的波段范围的光线。
比如,本申请实施例中的相机由于对500nm波段的光线感光敏感,那么背光板可以选取为发射500nm波段的光线的背光板,并且,安装在镜头的滤光片就可以将500nm之外的波段光线进行过滤。如此,带有滤光片的镜头所拍摄的标识器图像将会十分清晰,请参阅图17所示,图17是本发明一实施例中通过带有滤光片的镜头所拍摄的标识器图像。
因此,本申请实施例中的挠度智能检测系统通过在标识器上设置背光板、在相机的镜头上安装滤光片,并且,所述滤光片能够过滤所述背光板发射光线之外的波段范围的光线,使得挠度智能检测模型能够快速、准确地识别出标识图像中的一个或多个标识器,进一步提高了标识器的识别率,从而进一步提高了挠度检测的精准率和效率。
在一种实施方式中,所述标识器和所述挠度检测设备均包括无线通信模块,用于同步所述相机的曝光时间和所述背光板的发光时间。
如前所述,为了进一步节约背光板的电源能耗,背光板采取闪频的方式发出光线,即固定时间内固定次数的频闪。那么,为了让相机非常清晰地拍到标识器,标识器上的背光板发出光线的时间,就需要在相机的曝光时间内。因此,在相机拍摄标识图像之前,所述挠度智能检测设备的无线通信模块将标识器的背光板闪烁频率值和占空比值通过无线方式发送给一个或多个标识器的无线通信模块,能够确保相机采集标识图像的频率与背光板闪烁频率保持一致。
在一种实施方式中,多个所述标识器为不同类型的标识器,用于标识不同的建筑物或者同一建筑物的不同部位。
请参阅图18至图19所示,图18至图19是本发明一实施例中不同类型的标识器的示意图,通过不同类型的标识器标识不同的建筑物或者同一建筑物的不同部位,能够帮助挠度检测模型更快地计算出不同的建筑物或者同一建筑物的不同部位的挠度数值,提高挠度检测的效率。
在一种实施方式中,所述挠度智能检测设备的处理器被配置为执行以下方法,包括:
依次获取标识图像,其中,所述标识图像包括一个或多个标识器图像,所述标识器用于标识建筑物的位置信息;
将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景、不同标识器角度的场景中的一项或多项;
依次输出一个或多个挠度数值。
关于挠度智能检测设备处理器执行方法的具体限定可以参见上文中挠度智能检测方法的限定,在此不再赘述。
本申请实施例提供了一种挠度智能检测系统,通过利用多种场景类型的标识图像样本信息,训练构建形成挠度智能检测模型,使得挠度智能检测模型能够在不同场景的标识图像中,快速、精准地识别出一个或多个标识器,并根据标识图像信息,计算得到并输出一个或多个挠度数值。与此同时,挠度智能检测系统通过在标识器上设置背光板、在相机的镜头上安装滤光片,并且,所述滤光片能够过滤所述背光板发射光线之外的波段范围的光线,使得挠度智能检测模型能够快速、准确地识别出标识图像中的一个或多个标识器,进一步提高了标识器的识别率,从而进一步提高了挠度检测的精准率和效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (8)

1.一种挠度智能检测系统,其特征在于,包括:挠度智能检测设备、多个标识器,其中,所述标识器包括:电源板和背光板,所述背光板和所述电源板电连接,所述背光板用于发射一种或多种波段的光线;
所述挠度智能检测设备包括:
设备外壳;
相机,用于依次拍摄多张标识图像,所述标识图像包括多个标识器图像,所述标识器用于标识建筑物的位置信息,所述相机包括镜头,所述镜头前端设有滤光片,所述滤光片用于过滤所述背光板发射光线之外的波段范围的光线;
处理器,所述处理器与所述相机电连接,包括挠度智能检测模型模块,所述挠度智能检测模型模块是基于深度学习算法建立的模型模块,用于根据在多种场景所获取的标识图像,计算多个挠度数值,其中,所述处理器被配置为执行以下方法,包括:
依次获取标识图像,其中,所述标识图像包括多个标识器图像,所述标识器用于标识建筑物的位置信息;
将所述标识图像依次输入到挠度智能检测模型中,计算得到多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景和不同标识器角度的场景,所述深度学习算法为FCN算法;
依次输出多个挠度数值;
操作屏幕显示器,所述操作屏幕显示器与所述处理器电连接,用于操作挠度检测程序,并显示多个挠度数值。
2.根据权利要求1所述的挠度智能检测系统,其特征在于,所述标识器和所述挠度智能检测设备均包括无线通信模块,用于同步所述相机的曝光时间和所述背光板的发光时间。
3.根据权利要求1所述的挠度智能检测系统,其特征在于,多个所述标识器为不同类型的标识器,用于标识不同的建筑物或者同一建筑物的不同部位。
4.一种挠度智能检测方法,其特征在于,包括:
依次获取标识图像,其中,所述标识图像包括多个标识器图像,所述标识器用于标识建筑物的位置信息;
将所述标识图像依次输入到挠度智能检测模型中,计算得到多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景和不同标识器角度的场景,所述深度学习算法为FCN算法;
依次输出多个挠度数值。
5.根据权利要求4所述的方法,其特征在于,所述依次获取标识图像之前,还包括:
获取多种场景类型的标识图像样本,其中,所述标识图像样本包括多个标识器图像,所述标识器用于标识建筑物的位置信息;
根据第一种场景类型的标识图像样本,并基于深度学习算法,训练构建出第一种场景类型的标识器图像的特征信息;
根据第二种场景类型的标识图像样本,并基于深度学习算法,训练构建出第二种场景类型的标识器图像的特征信息;
依次类推,根据最后一种场景类型的标识图像样本,并基于深度学习算法,训练构建出最后一种场景类型的标识器图像的特征信息,建立形成挠度智能检测模型。
6.根据权利要求5所述的方法,其特征在于,所述将所述标识图像依次输入到挠度智能检测模型中,计算得到一个或多个挠度数值,包括:
基于FCN算法,依次提取第一标识图像中的标识器图像,并得到第一标识图像中的标识器图像的特征点位置信息;
基于FCN算法,依次提取第二标识图像中的标识器图像,并得到第二标识图像中的标识器图像的特征点位置信息;
根据第一标识图像中的标识器图像的特征点位置信息和第二标识图像中的标识器图像的特征点位置信息,依次计算得到一个或多个挠度数值。
7.根据权利要求4所述的方法,其特征在于,所述依次获取标识图像之前,还包括:
将标识器的背光板闪烁频率值和占空比值通过无线通信方式发送给一个或多个标识器。
8.一种挠度智能检测装置,其特征在于,包括:
标识图像获取模块:用于依次获取标识图像,其中,所述标识图像包括多个标识器图像,所述标识器用于标识建筑物的位置信息;
挠度数值计算模块:用于将所述标识图像依次输入到挠度智能检测模型中,计算得到多个挠度数值,其中,所述挠度智能检测模型是基于深度学习算法建立的模型,用于根据在多种场景所获取的标识图像,自学习得到多种场景类型的标识器图像的特征信息,所述场景类型包括:不同明暗环境的场景、不同标识器大小的场景和不同标识器角度的场景,所述深度学习算法为FCN算法;
挠度数值输出模块:用于依次输出多个挠度数值。
CN202310323360.4A 2023-03-30 2023-03-30 一种挠度智能检测系统、方法及装置 Active CN116046303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310323360.4A CN116046303B (zh) 2023-03-30 2023-03-30 一种挠度智能检测系统、方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310323360.4A CN116046303B (zh) 2023-03-30 2023-03-30 一种挠度智能检测系统、方法及装置

Publications (2)

Publication Number Publication Date
CN116046303A CN116046303A (zh) 2023-05-02
CN116046303B true CN116046303B (zh) 2023-07-04

Family

ID=86124111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310323360.4A Active CN116046303B (zh) 2023-03-30 2023-03-30 一种挠度智能检测系统、方法及装置

Country Status (1)

Country Link
CN (1) CN116046303B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2019122828A3 (zh) * 2019-07-19 2021-01-19
CN114037002A (zh) * 2021-10-12 2022-02-11 东南大学 基于深度学习模型的斜拉桥主梁异常挠度监测方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04309696A (ja) * 1991-04-05 1992-11-02 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワークを用いた小口径トンネルロボットの方向制御知識の獲得法
CN107588913B (zh) * 2017-08-03 2020-06-26 长安大学 一种桥梁挠度检测系统及检测方法
CN109870279A (zh) * 2017-12-01 2019-06-11 中国科学院沈阳自动化研究所 基于数字图像处理技术的桥梁挠度检测系统和检测方法
CN111460729A (zh) * 2020-03-20 2020-07-28 淮阴工学院 一种桥梁变形智能检测系统
CN112179467B (zh) * 2020-11-27 2021-04-02 湖南大学 一种基于视频测量动挠度的桥梁动态称重方法和系统
CN112784336A (zh) * 2020-12-31 2021-05-11 杭州鲁尔物联科技有限公司 一种基于深度学习lstm网络的桥梁静态位移预测技术
CN114548375B (zh) * 2022-02-23 2024-02-13 合肥工业大学 基于双向长短期记忆神经网络的斜拉桥主梁动挠度监测方法
CN114926588A (zh) * 2022-05-20 2022-08-19 武汉市华光交通工程有限公司 一种基于深度学习lstm网络的桥梁静态位移预测方法
CN115147408B (zh) * 2022-08-30 2022-12-13 广东省有色工业建筑质量检测站有限公司 危房智能检测鉴定方法
CN115601672B (zh) * 2022-12-14 2023-04-14 广州市玄武无线科技股份有限公司 一种基于深度学习的vr智能巡店方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2019122828A3 (zh) * 2019-07-19 2021-01-19
CN114037002A (zh) * 2021-10-12 2022-02-11 东南大学 基于深度学习模型的斜拉桥主梁异常挠度监测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
用人工神经网络方法估计桥梁在温度作用下的挠度行为;陈德伟;荆国强;黄峥;;结构工程师(第04期);全文 *

Also Published As

Publication number Publication date
CN116046303A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN113468967B (zh) 基于注意力机制的车道线检测方法、装置、设备及介质
CN105608417A (zh) 交通信号灯检测方法及装置
CN109074408B (zh) 一种地图加载的方法、装置、电子设备和可读存储介质
CN113344852A (zh) 一种电力场景通用物品的目标检测方法、装置及存储介质
CN113255797B (zh) 一种基于深度学习模型的危险品检测方法和系统
CN104065863A (zh) 图像处理方法及处理装置
CN113095114A (zh) 液压系统漏油检测方法、装置和设备
CN116046303B (zh) 一种挠度智能检测系统、方法及装置
CN117197789A (zh) 基于多尺度边界特征融合的幕墙框识别方法及系统
CN111476314B (zh) 一种融合光流算法与深度学习的模糊视频检测方法
CN113128422A (zh) 一种深度神经网络的图像烟火检测方法及系统
CN110210401B (zh) 一种弱光下的目标智能检测方法
CN113505724B (zh) 基于YOLOv4的交通标志识别模型训练方法及系统
CN115909347A (zh) 仪表示数识别方法、装置、设备及介质
CN114882490A (zh) 一种基于点引导定位的无受限场景车牌检测分类方法
CN111640109B (zh) 模型检测方法及系统
CN114359891A (zh) 一种三维车辆检测方法、系统、装置及介质
CN113450385A (zh) 一种夜间工作工程机械视觉跟踪方法、装置及存储介质
CN112730449A (zh) 自动对焦液晶模组围观三维立体检测光学方法
CN115880323B (zh) 一种热成像定位的区域密度人口的绿化环保方法及设备
CN117611929B (zh) 基于深度学习的led光源识别方法、装置、设备及介质
CN117456369B (zh) 智能化红树林生长情况的视觉识别方法
CN110910379A (zh) 一种残缺检测方法及装置
CN110059746A (zh) 一种创建目标检测模型的方法、电子设备及存储介质
CN115632704B (zh) 一种线激光的能量分布测试方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant