CN117036399A - 一种非接触式标贯或动探试验数据获取方法及终端设备 - Google Patents

一种非接触式标贯或动探试验数据获取方法及终端设备 Download PDF

Info

Publication number
CN117036399A
CN117036399A CN202310882669.7A CN202310882669A CN117036399A CN 117036399 A CN117036399 A CN 117036399A CN 202310882669 A CN202310882669 A CN 202310882669A CN 117036399 A CN117036399 A CN 117036399A
Authority
CN
China
Prior art keywords
frame
drop
target frame
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310882669.7A
Other languages
English (en)
Inventor
姚爱欢
房晓亮
唐志政
莫东霖
李曼懿
蒋正文
刘洋
卢毓伟
叶锐
白治军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PowerChina Zhongnan Engineering Corp Ltd
Original Assignee
PowerChina Zhongnan Engineering Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PowerChina Zhongnan Engineering Corp Ltd filed Critical PowerChina Zhongnan Engineering Corp Ltd
Priority to CN202310882669.7A priority Critical patent/CN117036399A/zh
Publication of CN117036399A publication Critical patent/CN117036399A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种非接触式标贯或动探试验数据获取方法及终端设备,利用施工现场的视频图像数据,通过目标检测网络和目标跟踪器实现落锤的目标检测和跟踪,对落锤的运动轨迹进行分析,计算出试验过程中的极低点,试验视频结束后统计极低点个数N,则撞击次数为N‑1,贯入深度为两个极低点间纵坐标的差值转换为实际物理值后的深度。本发明能够实现标贯或动探试验过程中落锤撞击次数和钻杆贯入深度的自动化统计,既可以确保标贯或动探试验数据获取的有效执行,又极大地提高工作效率,进一步提高数据准确性,对作业过程中的多种情况适应性强,满足实际工程需要。

Description

一种非接触式标贯或动探试验数据获取方法及终端设备
技术领域
本发明涉及勘探工程领域,尤其涉及一种非接触式标贯或动探试验数据获取方法及终端设备。
背景技术
标准贯入试验(简称标贯试验)是动力触探试验(简称动探试验)的一种,动探试验是在现场测定砂或粘性土的地基承载力的一种方法。该方法利用一定的落锤质量,按照规定的落距(76cm)自由下落,将标准规格的贯入器或圆锥形探头打入土层,根据贯入器或圆锥形探头在贯入一定深度得到的锤击数来判定土层的变化和土的工程性质。在实际的工程勘察过程中,岩土层的标贯动探击数对于判定该层工程性质具有重要的指导意义。
通常,勘察单位通过按进尺计价和按日计价这两种计价方式将钻探作业承包给钻机队伍,钻探队伍通过人工计数和在钻杆上做标记的方法,来确认试验过程中的撞击次数和贯入地层的深度。然而,本申请发明人在研发过程中发现,标贯试验一般是由钻探队伍免费做的,且操作辛苦,费时费力,影响钻探队伍每日的进尺量。同时撞击次数和贯入深度均是人工统计,特别是贯入深度通过在钻杆上做标记来确定,测量误差大,易受干扰,因此有必要对工程勘察现场的标贯动探试验进行监测。
目前,关于标贯或动探试验数据获取的方法普遍采用接触式手段,将监测装置固定在落锤或触探杆上,借助震动波等方式实现落锤撞击钻杆的精确计数,该方法存在装备繁琐、对工人作业影响较大等问题。
申请号为202211418875.4的中国发明专利申请公开了一种基于LSTM的工程勘察标贯击数统计方法,其采用YOLO目标检测算法检测标贯锤的存在区域,再利用训练好的LSTM运动状态分类网络判断标贯锤处于上升或下降状态,进而计算标贯锤的撞击次数,该方法需要事先确定该视频帧率下标贯锤单次下降所需要的总帧数M,以固定LSTM分类网络的输入大小。然而,在实际操作过程中,总帧数M并不是固定不变的,环境、设备和人为因素均会影响标贯锤单次下降所需要的总帧数。因此设定一个固定的M值会影响后续标贯锤运动状态判断的准确性,可能导致标贯锤上升帧和下降帧出现错位,使得标贯击数统计结果出现较大误差。
发明内容
本发明旨在提供一种非接触式标贯或动探试验数据获取方法及终端设备,解决工程勘察现场标贯或动探试验数据不准确的问题。
为解决上述技术问题,本发明所采用的技术方案是:一种非接触式标贯或动探试验数据获取方法,其特征在于,包括以下步骤:
S1,获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标,将首帧图像内落锤目标框的纵坐标对应的点记作第一个极低点,并持续记录后续帧图像内落锤目标框的纵坐标;
S2,当前帧图像内落锤目标框的运动方向为向下运动,且后一帧图像内落锤目标框的运动方向为向上运动时,则将当前帧图像内落锤目标框的纵坐标对应的点记作极低点;其中,当前帧图像内落锤目标框的纵坐标对应的点低于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标对应的点高于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动;
S3,标贯或动探试验视频结束后统计极低点个数N,则撞击次数为N-1,贯入深度为两个极低点间纵坐标的差值转换为实际物理值后的深度。
本发明利用施工现场的视频图像数据,获取落锤的坐标信息,在具体实施时,可通过对图像进行提取、滤波、灰度化和边缘检测等现有技术,识别目标并计算目标的坐标参数,再根据落锤运动状态的改变判断落锤是否下降到极低点,进而统计落锤下降到极低点的次数,完成撞击次数的统计和贯入深度的计算,无需设置固定变量以固定神经网络的输入,能够适应作业过程中的多种情况。
优选地,步骤S2中,所述落锤目标框的坐标以左上角为原点,当前帧图像内落锤目标框的纵坐标大于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标小于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动。
优选地,步骤S1获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标的具体实现过程包括,将试验视频输入目标检测网络,输出首帧图像内落锤目标框的坐标以及像素高度、像素宽度,同时根据首帧图像内落锤目标框的坐标初始化目标跟踪器,利用目标跟踪器持续跟踪落锤,持续输出落锤目标框的坐标以及像素高度、像素宽度;当目标跟踪器跟踪失败或跟踪帧数超过固定帧数时,再次利用目标检测网络检测落锤目标并输出落锤目标框的坐标以及像素高度、像素宽度,重新初始化跟踪器;重复上述过程,输出每一帧图像内落锤目标框的坐标以及像素高度、像素宽度。
在标贯或动探试验中,获取落锤的坐标信息时,传统的落锤图像识别一般采用YOLO目标检测网络,由于施工现场环境复杂,试验视频中背景多样,运动目标杂乱,落锤特征不突出等因素,采用单一算法不利于感兴趣目标的精确定位,另外,目标检测网络虽然能够获取目标位置但缺乏对视频帧感兴趣目标运动信息的连续性,存在一定的局限性;常见的目标跟踪器如KCF目标跟踪器在跟踪过程中,当目标大小发生变化时,会造成目标框漂移,从而导致跟踪失败;而将两种算法结合多应用于车辆监控领域,为了解决监控视频中车辆姿态变化的问题。本发明将目标检测网络和目标跟踪器相结合应用于标贯或动探试验领域,两者交替完成对视频序列中落锤的检测跟踪,解决试验过程中的目标丢失和跟踪偏移问题,避免跟丢或跟错目标,持续输出落锤的坐标以进行后续的计算。
进一步,目标跟踪器跟踪失败的具体判定过程包括,当Δw<Δw且Δr<Δr且Δx<Δx时,目标跟踪器跟踪成功,当Δw≥Δw且Δw≥Δw且Δw≥Δw时,目标跟踪器跟踪失败;
其中,Δw=|w-w1|,Δr=|r-r1|,Δx=|x-x1|,w为首帧图像内落锤目标框的宽度,r为首帧图像内落锤目标框的横纵比,x为首帧图像内落锤目标框的横坐标范围,w1为后续输出的每一帧图像内落锤目标框的宽度,r1为后续输出的每一帧图像内落锤目标框的横纵比,x1为后续输出的每一帧图像内落锤目标框的横坐标范围,Δw为预设的目标框宽度的误差阈值,Δr为预设的目标框横纵比的误差阈值,Δx为预设的目标框横坐标范围的误差阈值。
为了避免目标跟踪器跟踪失败或误检对撞击次数统计结果造成影响,本发明根据首帧检测结果和落锤的运动规律,设置了目标框的宽度、横纵比和横坐标范围对检测结果进行筛选。
进一步,为了保证记录的极低点的准确性,步骤S2还包括,所述极低点还满足约束条件,所述约束条件为:当前帧图像内落锤目标框的纵坐标与上一个极高点的纵坐标的差值大于或等于阈值H,且上一个极高点的图像帧到当前帧的运动过程中,存在落锤的最大运动速度v超过阈值V;其中,所述极高点为当前帧图像内落锤目标框的运动方向为向上运动,且后一帧图像内落锤目标框的运动方向为向下运动,且当前帧图像内落锤目标框的纵坐标与前一个极低点的差值大于阈值H时,当前帧图像内落锤目标框的纵坐标所对应的点, s为实际落距,t为落锤自由落体的时间,height为落锤实际高度,h为落锤目标框的像素高度。
进一步,步骤S3的贯入深度包括:将试验过程中钻杆的贯入像素数换算成实际物理深度,计算试验过程中钻杆实际贯入深度:其中,Δp为两个极低点间的纵坐标的差值,height为落锤实际高度,h为落锤目标框的像素高度。
借由上述方法,将试验过程中钻杆的贯入像素数换算成实际物理深度,统计试验过程中钻杆的贯入深度,克服现有接触式方法装备繁琐、易损坏、人工测量误差大的缺陷。
进一步,当所述试验视频为标贯试验时,试验视频结束后,当总贯入深度大于或等于设定值时,判断为符合规范并返回最后设定深度的撞击次数和每预设深度的撞击次数;当总贯入深度小于设定值时,判断为不符合规范,仅返回此次试验过程的总撞击次数和总贯入深度;
当所述试验视频为动探试验时,返回试验过程中每贯入预设深度时的撞击次数。
作为一个发明构思,本发明还提供了一种终端设备,包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现本发明上述方法的步骤。
一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现本发明上述方法的步骤。
与现有技术相比,本发明所具有的有益效果为:
(1)本发明将目标检测网络和目标跟踪器相结合,两者交替完成对视频序列中落锤的检测跟踪,解决试验过程中的目标丢失和跟踪偏移问题,避免跟丢或跟错目标,确保标贯或动探试验数据获取有效执行;
(2)本发明通过分析落锤的运动轨迹,定位试验过程中落锤运动的极低点,统计落锤下降到极低点的次数,完成撞击次数的统计和贯入深度的计算,实现标贯或动探试验过程中撞击次数和贯入深度的自动化统计,极大地提高工作效率,降低人工成本,进一步提高数据准确性,实现落锤撞击钻杆的精确计数以及钻杆贯入深度的精准计算;
(3)本发明无需设置固定变量以固定神经网络的输入,能够适应作业过程中的多种情况,鲁棒性强,满足实际工程需要。
附图说明
图1是本发明实施例的标贯或动探试验数据获取方法流程图;
图2是本发明实施例的软件架构实现流程图。
具体实施方式
实施例1
如图1所示,本发明实施例1提供一种非接触式标贯或动探试验数据获取方法,包括以下步骤:
S1、获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标,将首帧图像内落锤目标框的纵坐标对应的点记作第一个极低点,并持续记录后续帧图像内落锤目标框的纵坐标。
在步骤S1之前,可以在标贯或动探试验施工现场的合适位置架设并固定摄像头,确保在试验过程中摄像头不会晃动,且落锤在运动过程中始终处于视频中心位置,同时为了减少复杂背景对后续目标检测和跟踪造成干扰,本发明实施例1对获取到的视频进行裁剪处理,将原始视频图像(1920×1080)裁剪出视频中心大小为640×920的部分作为试验视频。
步骤S1中,获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标的具体实现过程包括,将试验视频输入目标检测网络,输出首帧图像内落锤目标框的坐标以及像素高度、像素宽度,同时根据首帧图像内落锤目标框的坐标初始化目标跟踪器,利用目标跟踪器持续跟踪落锤,持续输出落锤目标框的坐标以及像素高度、像素宽度;当目标跟踪器跟踪失败或跟踪帧数超过固定帧数时,再次利用目标检测网络检测落锤目标并输出落锤目标框的坐标以及像素高度、像素宽度,重新初始化跟踪器;重复上述过程,输出每一帧图像内落锤目标框的坐标以及像素高度、像素宽度。
需要说明的是,本发明实施例1采用的目标检测网络为基于YOLO v7的目标检测网络,属于一阶段目标检测网络,将待检测的图像视频帧按比例缩放到长边为640大小,输入到主干特征提取网络Backbone中,然后经head层网络输出三层不同尺寸大小的特征图,接着调整通道数并利用1×1卷积预测结果。
本发明实施例1采用的目标追踪器为KCF目标跟踪器,根据YOLO v7目标检测网络的检测结果初始化目标模板,使用循环矩阵在目标周围区域采集正负样本并训练目标检测器,利用检测器对下一帧图像的预测区域采样并计算响应,选择响应最大的区域作为跟踪结果;重复上述过程,实现落锤的持续跟踪。
为了避免KCF目标跟踪器跟踪失败或误检对撞击次数统计结果造成影响,本发明实施例1设置目标跟踪器跟踪失败的具体判定过程包括,当Δw<Δw且Δr<Δr且Δx<Δx时,目标跟踪器跟踪成功;当Δw≥Δw且Δw≥Δw且Δw≥Δw时,目标跟踪器跟踪失败;
其中,Δw=|w-w1|,Δr=|r-r1|,Δx=|x-x1|,w为首帧图像内落锤目标框的宽度,r为首帧图像内落锤目标框的横纵比,x为首帧图像内落锤目标框的横坐标范围,w1为后续输出的每一帧图像内落锤目标框的宽度,r1为后续输出的每一帧图像内落锤目标框的横纵比,x1为后续输出的每一帧图像内落锤目标框的横坐标范围,Δw为预设的目标框宽度的误差阈值,Δr为预设的目标框横纵比的误差阈值,Δx为预设的目标框横坐标范围的误差阈值。
S2、当前帧图像内落锤目标框的运动方向为向下运动,且后一帧图像内落锤目标框的运动方向为向上运动时,则将当前帧图像内落锤目标框的纵坐标对应的点记作极低点;其中,当前帧图像内落锤目标框的纵坐标对应的点低于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标对应的点高于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动。
步骤S2中,假如落锤目标框的坐标以左上角为原点,则当前帧图像内落锤目标框的纵坐标大于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标小于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动;假如落锤目标框的坐标以左下角为原点,则当前帧图像内落锤目标框的纵坐标小于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标大于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动。
步骤S2中,极低点还满足约束条件:当前帧图像内落锤目标框的纵坐标与上一个极高点的纵坐标的差值大于或等于阈值H,且上一个极高点的图像帧到当前帧的运动过程中,存在落锤的最大运动速度v超过阈值V;其中,极高点为当前帧图像内落锤目标框的运动方向为向上运动,且后一帧图像内落锤目标框的运动方向为向下运动,且当前帧图像内落锤目标框的纵坐标与前一个极低点的差值大于阈值H时,当前帧图像内落锤目标框的纵坐标所对应的点,s为实际落距,t为落锤自由落体的时间,height为落锤实际高度,h为落锤目标框的像素高度。
需要说明的是,由于标贯试验规定落距为76cm,且现场勘察经验中质量为63.5kg的落锤高度一般为26.5cm,因此,阈值H要小于76cm,满足考虑到可能存在高点漏检、钻探杆倾斜等情况,本发明实施例1取阈值H为2h;考虑落锤从76cm高处自由下落,根据v=gt计算理想情况下的最大速度,在存在摩擦阻力的情况下,本发明实施例1取阈值V为3m/s,其中,s为实际落距,t为落锤自由落体的时间。
S3、标贯或动探试验视频结束后统计极低点个数N,则撞击次数为N-1,贯入深度为两个极低点间纵坐标的差值转换为实际物理值后的深度。
步骤S3中的贯入深度还包括:基于落锤实际高度这一先验信息,本发明实施例1结合落锤目标框的像素高度,将试验过程中钻杆的贯入像素数换算成实际物理深度,由此计算试验过中钻杆实际贯入深度:
其中,Δp为两个极低点间的纵坐标的差值,height为落锤实际高度,h为落锤目标框的像素高度。
当试验视频为标贯试验时,试验视频结束后,根据总贯入深度是否大于设定值判断此次标贯试验是否符合规范,本发明实施例1取设定值为30cm。当总深度大于或等于30cm时,判断为符合规范并返回最后30cm的撞击次数和每预设深度的撞击次数,本发明实施例1取预设深度为10cm;当总深度小于30cm时,判断为不符合规范,仅返回此次试验过程的总撞击次数和总贯入深度。
当试验视频为动探试验时,返回试验过程中每贯入地层10cm的撞击次数。
同时,保存录制视频段内多个极低点、极高点以及极低点到上一个极高点中间位置处的关键视频帧图像,还包括撞击次数、贯入深度,和钻孔编号、杆长、起止深度等信息,以便后续查阅。
图2为本发明实施例1的软件架构实现流程图,包括以下步骤:
步骤1,运行算法,打开应用界面。
步骤2,选择标贯或动探试验,输入当前试验点的钻孔编号,钻杆长度,重锤尺寸和试验起深等先验信息,以便后续智能分析。
步骤3,选择对实时录制视频或者本地视频进行分析,若选择对实时录制视频进行处理,点击预览按钮,根据右侧图像框显示的视频画面,调整摄像头位置和角度,确保落锤运动过程中始终处于图像中间640(宽)×920(高)的位置,画面中有落锤提示定位框;若选择对本地视频进行处理,上传待处理的本地文件。
步骤4,点击开始按钮,代码开始运行,应用界面右侧图像框中实时显示视频中落锤的检测跟踪效果,应用界面左侧文本框记录落锤每次撞击的详细信息,并将结果反馈给“锤击次数”和“深度”指标。
步骤5,试验视频结束后点击结束按钮,并将分析结果显示在“智能判断结果”文本框内。
当试验视频为标贯试验时,试验视频结束后,根据总贯入深度是否大于30cm判断此次标贯试验是否符合规范。当总深度大于或等于30cm时,判断为符合规范并返回最后30cm的撞击次数和每10cm的撞击次数;当总深度小于30cm时,判断为不符合规范,仅返回此次试验过程的总撞击次数和贯入深度。
当试验视频为动探试验时,返回试验过程中每贯入地层10cm的撞击次数。
步骤6,选择是否进行下一次试验监测,或者退出应用。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是局限性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护范围之内。
实施例2
本发明实施例2提供一种对应上述实施例1的终端设备,终端设备可以是用于客户端的处理设备,例如手机、笔记本电脑、平板电脑、台式机电脑等,以执行上述实施例的方法。
本实施例的终端设备包括存储器、处理器及存储在存储器上的计算机程序;处理器执行存储器上的计算机程序,以实现上述实施例1方法的步骤。
在一些实现中,存储器可以是高速随机存取存储器(RAM:Random AccessMemory),也可能还包括非不稳定的存储器(non volatile memory),例如至少一个磁盘存储器。
在另一些实现中,处理器可以为中央处理器(CPU)、数字信号处理器(DSP)等各种类型通用处理器,在此不做限定。
实施例3
本发明实施例3提供了一种对应上述实施例1的计算机可读存储介质,其上存储有计算机程序/指令。计算机程序/指令被处理器执行时,实现上述实施例1方法的步骤。
计算机可读存储介质可以是保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意组合。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本申请实施例中的方案可以采用各种计算机语言实现,例如,计算机编程语言python和直译式脚本语言JavaScript等。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (9)

1.一种非接触式标贯或动探试验数据获取方法,其特征在于,包括以下步骤:
S1.获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标,将首帧图像内落锤目标框的纵坐标对应的点记作第一个极低点,并持续记录后续帧图像内落锤目标框的纵坐标;
S2.当前帧图像内落锤目标框的运动方向为向下运动,且后一帧图像内落锤目标框的运动方向为向上运动时,则将当前帧图像内落锤目标框的纵坐标对应的点记作极低点;其中,当前帧图像内落锤目标框的纵坐标对应的点低于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标对应的点高于前一帧图像内落锤目标框的纵坐标对应的点时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动;
S3.标贯或动探试验视频结束后统计极低点个数N,则撞击次数为N-1,贯入深度为两个极低点间纵坐标的差值转换为实际物理值后的深度。
2.根据权利要求1所述的非接触式标贯或动探试验数据获取方法,其特征在于,步骤S2中,所述落锤目标框的坐标以左上角为原点,当前帧图像内落锤目标框的纵坐标大于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向下运动,当前帧图像内落锤目标框的纵坐标小于前一帧图像内落锤目标框的纵坐标时,判断视频中当前帧图像内落锤目标框的运动方向为向上运动。
3.根据权利要求1所述的非接触式标贯或动探试验数据获取方法,其特征在于,步骤S1获取标贯或动探试验视频中每一帧图像内落锤目标框的坐标的具体实现过程包括,将试验视频输入目标检测网络,输出首帧图像内落锤目标框的坐标以及像素高度、像素宽度,同时根据首帧图像内落锤目标框的坐标初始化目标跟踪器,利用目标跟踪器持续跟踪落锤,持续输出落锤目标框的坐标以及像素高度、像素宽度;当目标跟踪器跟踪失败或跟踪帧数超过固定帧数时,再次利用目标检测网络检测落锤目标并输出落锤目标框的坐标以及像素高度、像素宽度,重新初始化跟踪器;重复上述过程,输出每一帧图像内落锤目标框的坐标以及像素高度、像素宽度。
4.根据权利要求3所述的非接触式标贯或动探试验数据获取方法,其特征在于,目标跟踪器跟踪失败的具体判定过程包括,当Δw<Δw且Δr<Δr且Δx<Δx时,目标跟踪器跟踪成功;当Δw≥Δw且Δw≥Δw且Δw≥Δw时,目标跟踪器跟踪失败;
其中,Δw=|w-w1|,Δr=|r-r1|,Δx=|x-x1|,w为首帧图像内落锤目标框的宽度,r为首帧图像内落锤目标框的横纵比,x为首帧图像内落锤目标框的横坐标范围,w1为后续输出的每一帧图像内落锤目标框的宽度,r1为后续输出的每一帧图像内落锤目标框的横纵比,x1为后续输出的每一帧图像内落锤目标框的横坐标范围,Δw为预设的目标框宽度的误差阈值,Δr为预设的目标框横纵比的误差阈值,Δx为预设的目标框横坐标范围的误差阈值。
5.根据权利要求1所述的非接触式标贯或动探试验数据获取方法,其特征在于,步骤S2还包括,所述极低点还满足约束条件,所述约束条件为:当前帧图像内落锤目标框的纵坐标与上一个极高点的纵坐标的差值大于或等于阈值H,且上一个极高点的图像帧到当前帧的运动过程中,存在落锤的最大运动速度v超过阈值V;其中,所述极高点为当前帧图像内落锤目标框的运动方向为向上运动,且后一帧图像内落锤目标框的运动方向为向下运动,且当前帧图像内落锤目标框的纵坐标与前一个极低点的差值大于阈值H时,当前帧图像内落锤目标框的纵坐标所对应的点,s为实际落距,t为落锤自由落体的时间,height为落锤实际高度,h为落锤目标框的像素高度。
6.根据权利要求1所述的非接触式标贯或动探试验数据获取方法,其特征在于,步骤S3的贯入深度包括:将试验过程中钻杆的贯入像素数转换为实际物理深度,计算试验过中钻杆实际贯入深度:其中,Δp为两个极低点间的纵坐标的差值,height为落锤实际高度,h为落锤目标框的像素高度。
7.根据权利要求6所述的非接触式标贯或动探试验数据获取方法,其特征在于,当所述试验视频为标贯试验时,试验视频结束后,当总贯入深度大于或等于设定值时,判断为符合规范并返回最后设定深度的撞击次数和每预设深度的撞击次数;当总贯入深度小于设定值时,判断为不符合规范,仅返回此次试验过程的总撞击次数和总贯入深度;
当所述试验视频为动探试验时,返回试验过程中每贯入预设深度时的撞击次数。
8.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1~7任一项所述方法的步骤。
9.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1~7任一项所述方法的步骤。
CN202310882669.7A 2023-07-18 2023-07-18 一种非接触式标贯或动探试验数据获取方法及终端设备 Pending CN117036399A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310882669.7A CN117036399A (zh) 2023-07-18 2023-07-18 一种非接触式标贯或动探试验数据获取方法及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310882669.7A CN117036399A (zh) 2023-07-18 2023-07-18 一种非接触式标贯或动探试验数据获取方法及终端设备

Publications (1)

Publication Number Publication Date
CN117036399A true CN117036399A (zh) 2023-11-10

Family

ID=88643882

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310882669.7A Pending CN117036399A (zh) 2023-07-18 2023-07-18 一种非接触式标贯或动探试验数据获取方法及终端设备

Country Status (1)

Country Link
CN (1) CN117036399A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117554217A (zh) * 2023-12-07 2024-02-13 北京理工大学 一种穿刺实验执行与穿刺数据采集、分析方法及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117554217A (zh) * 2023-12-07 2024-02-13 北京理工大学 一种穿刺实验执行与穿刺数据采集、分析方法及设备

Similar Documents

Publication Publication Date Title
CN103164706B (zh) 基于视频信号分析的对象计数方法与装置
US9576199B2 (en) Method and device for calculating number and moving direction of pedestrians
CN107798272A (zh) 快速多目标检测与跟踪系统
CN105785411A (zh) 一种基于区域划分的异常轨迹检测方法
CN110259438B (zh) 一种煤矿探放水智能监控方法、装置及终端设备
CN107710280A (zh) 对象可视化方法
CN109934170B (zh) 一种基于计算机视觉的矿山资源统计方法
CN106650446A (zh) 基于系统调用的恶意程序行为识别方法和系统
CN111640135A (zh) 一种基于硬件前端的tof摄像头行人计数方法
CN111476160A (zh) 损失函数优化方法、模型训练方法、目标检测方法及介质
CN110674680A (zh) 活体识别的方法、装置、存储介质
Zhang et al. Deep learning‐based automatic detection of muck types for earth pressure balance shield tunneling in soft ground
CN106679627B (zh) 一种基于物联网的通信铁塔垂直度问题判断方法及系统
CN109460724A (zh) 基于对象检测的停球事件的分离方法和系统
CN117036399A (zh) 一种非接触式标贯或动探试验数据获取方法及终端设备
CN105208402B (zh) 一种基于运动对象与图像分析的视频帧复杂度测度方法
CN112001320A (zh) 一种基于视频的闸门检测方法
JP2008276613A (ja) 移動体判定装置、コンピュータプログラム及び移動体判定方法
CN116245838A (zh) 一种岩土勘探行为的监测方法、监测装置、设备及介质
CN116385485A (zh) 一种长条形塔吊吊物的视频跟踪方法及系统
US6373897B1 (en) Moving quantity detection apparatus and method
CN114240928B (zh) 板卡质量的分区检测方法、装置、设备及可读存储介质
CN109211607A (zh) 一种采样方法、装置、设备、系统及可读存储介质
CN106919889A (zh) 对视频图像中的人头进行检测的方法和装置
CN113239727A (zh) 一种人物的检测和识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination