CN113205025A - 基于机器视觉和时序模式的强夯夯锤运动状态判别方法 - Google Patents

基于机器视觉和时序模式的强夯夯锤运动状态判别方法 Download PDF

Info

Publication number
CN113205025A
CN113205025A CN202110451556.2A CN202110451556A CN113205025A CN 113205025 A CN113205025 A CN 113205025A CN 202110451556 A CN202110451556 A CN 202110451556A CN 113205025 A CN113205025 A CN 113205025A
Authority
CN
China
Prior art keywords
rammer
dynamic compaction
state
ram
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110451556.2A
Other languages
English (en)
Other versions
CN113205025B (zh
Inventor
张宏阳
刘全
赵越良
金银龙
高乔裕
李飞羽
游川
王浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110451556.2A priority Critical patent/CN113205025B/zh
Publication of CN113205025A publication Critical patent/CN113205025A/zh
Application granted granted Critical
Publication of CN113205025B publication Critical patent/CN113205025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法。包括如下步骤:首先,训练可识别强夯夯锤的目标检测模型;其次,针对连续的强夯施工影像序列进行强夯夯锤目标检测,并记录每帧图像中的夯锤目标位置;最后,对比连续的影像序列数据中的夯锤位置,分析其位置变化过程,匹配对应的时序模式,智能判定强夯夯锤运动状态。本发明针对目前强夯施工过程中,采用人工记录方式的夯次计量方法存在的人力成本较高、从业人员劳动保障程度低且监管力度低时存在数据造假的风险。基于机器视觉的强夯夯锤目标运动检测技术,可智能判断强夯施工过程中的夯锤运动状态,实现自动化夯次无人计量,在强夯施工监管领域有较大的应用和推广价值。

Description

基于机器视觉和时序模式的强夯夯锤运动状态判别方法
技术领域
本发明涉及机器视觉技术与土木工程施工技术及工程管理、建设技术领域,具体涉及基于机器视觉和模式识别的强夯夯锤运动状态判别方法。
背景技术
强力夯实法(简称强夯法,又称动力固结法)是将8~30t的钢或钢筋混凝土重锤,起吊到高6~30m的空中,让其自由落下冲击地面,用巨大的冲击能量使地基土产生强烈的振动和很高的应力,进而促使地基土壤固结压密,提高地基基础的承载能力。强夯法作为一种处理软弱地基土的基础处理工艺,由法国工程师梅那于1969年首创,自1979年潘千里著文介绍这项新技术后,国内开始推广使用。由于具有的设备简单、适用面广、快速、经济、效果好等优点,强夯法现今已广泛的应用于水利水电等大型土建工程的地基加固。
根据《强夯地基处理技术规程》等相关技术规程,强夯施工过程质量控制指标主要为夯沉量、夯击次数、夯坑位置。其中,夯击次数主要由现场施工人员进行人工记录,人力成本较高,且强夯施工现场环境复杂,从业人员劳动保障程度低。同时在缺乏有效监管的情况下,人工计次方式的可信度取决于施工人员自身素质,往往会带来施工记录不可信,施工质量失控的风险。目前,虽有一些学者对夯次计量自动化做了一些研究,但是仍存在需对强夯机械设备进行改造且改造难度大或方案布设复杂等问题。
故提出一种普适性更强的强夯施工夯次自动计量方法,有效降低强夯施工的人力成本,提高从业人员劳动保障水平及强夯施工夯次数据的可靠性,其中对夯锤运动状态的判断是实现强夯施工夯次自动计量的关键。
发明内容
为解决当前强夯施工夯次计量监测方法的不足,智能判断夯锤运动状态进而实现实时夯次计量的目的。因此,本发明提出一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法,利用机器视觉领域中的目标检测算法高精度地提取出夯锤位置,并结合强夯施工的施工过程,分析强夯施工过程中夯锤运动的时空规律,根据连续的夯锤位置信息变化趋势实时判断夯锤运动状态,为强夯施工智能化监控提供了更加便捷且稳定可靠的技术方法。
本发明提供一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法,通过进行夯锤运动状态的智能判断实现强夯施工自动化夯次计量。该方法基于成像原理,利用目标检测技术,通过实现对夯锤目标的实时捕捉,跟踪,从而完成无接触式的强夯施工夯次自动化计量。为实现上述目的,本发明提供如下技术方案:
一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法,包括以下步骤:
步骤S1,在强夯施工现场布设图像或视频采集设备以获取连续的强夯施工影像序列,
步骤S2,利用训练好的强夯夯锤检测模型对连续的强夯施工影像序列进行夯锤目标检测处理,自动识别框选出每帧影像中的夯锤;
步骤S3,提取连续的强夯施工影像序列中夯锤识别框的中心点像素坐标,并将得到的中心点坐标按时间顺序记录到夯锤位置信息序列中;
步骤S4,基于影像采集点与夯锤的相对空间关系和S3得到夯锤位置信息序列数据,分析得到每帧影像上夯锤的运动状态,基于影像序列夯锤的运动轨迹和变化过程,匹配相应的夯锤运动时序模式,判断夯锤当前时段的运动状态。
进一步的,所述图像或影像采集设备设置在强夯机驾驶室顶部。
进一步的,步骤S2中,利用训练好的YOLO-tiny模型进行夯锤目标检测处理。
进一步的,训练YOLO-tiny模型的具体实现方式如下;
(21)利用yolo_mark软件对强夯施工图像进行夯锤目标标注,生成包含标注信息的txt文件,然后转换为YOLO-tiny模型训练所需数据格式,由强夯施工图像和目标类别与位置信息构成训练所需数据集;
(22)利用深度学习框架darknet搭建YOLO-tiny神经网络模型;
(23)将数据集输入YOLO-tiny模型进行训练,在模型loss值收敛后得到对应的权值文件,基于OpenCv机器视觉库载入YOLO-tiny模型训练得到的权值文件,即可对强夯夯锤目标进行识别。
进一步的,步骤S3中,设立一个空的时序队列,将强夯施工影像时序数据中夯锤目标识别框的中心点像素坐标按时间顺序存储到时序队列中,若影像数据中无夯锤目标,则存储坐标缺省值,坐标缺省值为双负值坐标。
进一步的,步骤S4中,所述强夯施工过程中夯锤的运动可分为夯锤上升、夯锤下降、夯锤稳定、夯锤平移。
进一步的,步骤S4中得到每帧影像上夯锤的运动状态的具体实现方式如下:
首先,建立长度为n的状态判别值队列S=[S1,S2…Sn],初始化状态判别值队列S,计算连续两帧图像中夯锤目标中心点的像素距离
Figure BDA0003038887800000021
并进行当前帧状态值判别,输出判别值St,状态判别输出结果St及规则如下:
(1)夯锤静止状态:若连续两帧图像中夯锤目标中心点变化距离L小于等于距离阈值T,则状态判别结果St=0;
(2)夯锤上升状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt<yt-1和|xt-xt-1|<Tx,Tx为水平距离阈值,则状态判别结果St=1;
(3)夯锤下降状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt>yt-1和|xt-xt-1|<Tx,Tx为水平距离阈值,则状态判别结果St=-1;
(4)夯锤平移状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足|xt-xt-1|>Tx,Tx为水平距离阈值,则状态判别结果St=2;
(5)夯锤不在相机视野范围内:此时影像中无夯锤目标,夯锤位置信息为缺省值;根据夯锤位置队列数据变化情况,分为两大类情况:一是夯锤上升至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果为St=31,其前置条件为前几帧影像状态判别值为1或31;另一是夯锤平移至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果St=32,其前置条件为前几帧影像状态判别值为2或32。
进一步的,步骤S4中夯锤运动时序模式的定义如下;
设夯锤静止为S、夯锤上升为R、夯锤下降为F、夯锤平移为M、夯锤移出相机视野范围为O,其中夯锤移出相机视野范围细分为由夯锤上升引起的超出相机视野范围为RO、由夯锤平移引起的超出相机视野范围为MO;
(41)夯锤静止的时序模式:夯锤静止时,连续两帧图像检测到夯锤目标且夯锤目标中心点像素坐标不变,夯锤静止时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…F,S,S,S…];
(42)夯锤上升的时序模式:连续的强夯施工影像序列中,夯锤目标检测结果的中心点像素坐标呈现上升变化,直至夯锤运动出相机视野范围之外且长时间持续地不在相机视野范围内,夯锤上升时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…R,R,RO,RO,RO…],其中,RO状态的前置触发条件为R或RO;
(43)夯锤下落的时序模式:夯锤下落速度快,下落时间短,影像采集设备很难拍摄到多张夯锤下落的影像数据,故连续的强夯施工影像序列中,会在长时间内影像中无夯锤目标之后突然检测到带有夯锤目标的影像数据,夯锤下落时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…RO,RO,RO,F,S…],其中因为夯锤下落速度很快,故F状态持续时间短,甚至捕捉不到;
(44)夯锤平移的时序模式:夯机转场触发夯锤平移运动状态,夯锤在相机视野范围内会发生大的水平向位移,且频繁超出视野,夯锤目标中心点像素坐标会出现水平方向的变化且在短时间内出现正值坐标和双负值坐标的频繁切换;夯锤平移时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…M,M,MO,MO,M…],其中,MO状态的前置触发条件为M或MO。
进一步的,距离阈值T和水平距离阈值Tx根据图像分辨率大小和实验进行设定。
与现有技术相比,本发明具有如下优点:
(1)本发明提出强夯施工过程中不同夯锤运动状态的空间位置变化的时序模式。根据强夯施工过程的施工状态持续时长和夯锤运动状态空间位置变化规律,对夯锤运动各状态下的夯锤位置时序模式进行了阐述。
(2)本发明基于机器视觉领域的目标检测技术,主要利用影像采集设备和车载工控机硬件设备完成,只需对成套的硬件设备进行固定布设即可,不需对强夯机械的设备结构进行改造。该方法的装备布设简单、改造难度和维护成本低,具有良好的费效比。
(3)本发明所设计的算法,经试验验证,解算结果稳定,且保存了每个夯次过程的影像序列,便于施工监管人员复查审核。
附图说明
为了更清楚地说明本发明实例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要用到的附图作简要的介绍,显而易见地,下面描述的附图是本发明的一些实例,对于本领域的普通技术人员来说,在不付出创造性劳动的前提下,还可以依据这些附图获得其他的附图。
图1为基于机器视觉和时序模式的强夯夯锤运动状态判别方法流程图;
图2为本发明中夯锤目标检测效果图;
图3为本发明实施例中夯锤运动状态智能判断结果,(a)夯锤稳定状态结果图(Stable),(b)夯锤上升状态结果图(Rising),(c)夯锤下降状态结果图(Falling),(d)夯锤平移状态结果图(Moving)。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本发明普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了提供一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法,利用强夯施工过程中夯锤运动的时空变化规律,智能判断夯锤运动状态进而实现强夯施工夯次自动化计量,本发明的主要构思如下:
提供一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法。该方法利用经过专门训练的目标检测网络提取出强夯施工影像中的夯锤目标,再分析夯锤位置变化过程,匹配相应的时序模式,进行夯锤运动状态判断。下面具体阐述本发明提供的基于机器视觉和时序模式的强夯夯锤运动状态判别方法的具体实现流程。
本实例提供了一种基于机器视觉和时序模式的强夯夯锤运动状态判别方法的应用实例;该方法具体包括:
步骤S1:在强夯施工现场布设图像或视频采集设备以获取连续的强夯施工影像序列,一般设置在强夯机顶部以获得稳定的影像采集点。
具体来说,影像采集设备一般布设在强夯机驾驶室顶部,强夯机驾驶室顶部较为平坦,方便固定影像采集设备,使得影像采集设备与夯机保持相对稳定。同时,影像采集设备固定在驾驶室顶部,不易被干扰物(如夯机吊具钢绳、夯机吊臂)遮挡,视野开阔。
步骤S2:利用专门训练的强夯夯锤检测模型对连续的强夯施工影像序列进行夯锤目标检测处理,识别框选出每帧影像数据中的夯锤目标。
具体来说,目前基于不同基础模型的目标检测深度学习模型在模型精度、训练速度和识别速度等方面各有侧重,强夯夯锤目标检测模型可根据现场施工需求和实际应用情况及硬件设备情况灵活选择。本实例采用YOLO-tiny模型作为基础训练模型。强夯夯锤目标识别模型的具体训练过程为:
(1)利用yolo_mark软件对对强夯施工照片进行夯锤目标标注,生成包含标注信息的txt文件,然后转换为YOLO模型训练所需数据格式,由强夯施工照片和目标类别与位置信息构成训练所需数据集;
(2)利用深度学习框架darknet搭建YOLO神经网络模型;
(3)将数据集输入YOLO模型进行训练,在模型loss值收敛后得到对应的权值文件。基于OpenCv机器视觉库载入YOLO模型训练得到的权值文件即可对强夯夯锤目标进行识别。
利用训练好的YOLO模型对连续的强夯施工影像序列进行强夯夯锤目标识别,效果见图2,本具体实施例中强夯施工影像数据采集频率为0.5Hz。
步骤S3:提取连续的强夯施工影像序列中夯锤识别框的中心点像素坐标,并将得到的中心点坐标按时间顺序记录到夯锤位置信息队列中。
具体来说,在S2中利用夯锤目标检测模型对连续的强夯施工影像序列进行夯锤目标检测。建立长度为n的夯锤位置信息队列P=[P1,P2…Pi…Pn],初始化夯锤位置信息队列P,使得Pi=(0,0),(i=1,2,3…n)。提取当前影像中夯锤目标识别矩形框的中心点像素坐标Ct(xt,yt),并按照先入先出的规则完成夯锤位置信息队列的入队出队操作,即将强夯施工影像时序数据中夯锤目标框的中心点像素坐标按时间顺序存储到时序队列中。若影像数据中无夯锤目标,则存储坐标缺省值,坐标缺省值为双负值坐标,例如Pn=(-100,-100)。
步骤S4:基于影像采集点与夯锤的相对空间关系和S3得到夯锤位置信息队列,分析得到每帧影像上夯锤的运动状态,基于影像序列夯锤的运动轨迹和变化过程,匹配相应的夯锤运动时序模式,判断夯锤当前时段的运动状态,包括夯锤上升、夯锤下降、夯锤静止、夯锤平移。
本发明中要求影像采集设备测站点与夯机尽可能保持相对稳定,即把夯锤运动相对于强夯机的空间关系转化为夯锤相对于测站点的空间关系,通过成像原理,夯锤与测站点的三维空间关系转化到二维像素空间关系。分析强夯施工过程中夯锤识别框中心点像素坐标运动变化情况,匹配相应的时序模式,对夯锤运动状态进行判断。所述时序模式是强夯施工过程中处在不同运动状态下的夯锤空间位置随时间变化的变化规律,夯锤运动的时序模式根据强夯施工过程建立。强夯施工过程中夯锤运动状态可分为由强夯机在不同夯点间转场触发的夯锤平移状态以及在单个夯点施工过程中的夯锤运动状态,具体包括夯锤上升、夯锤下降、夯锤平稳。强夯施工过程中,单次夯击的周期约为1-2分钟,其中夯锤上升至指定夯程高度的时长约为30s,夯锤下落时长约为2-3s,夯锤下落稳定至下一次夯锤提升的时间间隔约为1分钟(包含现场施工人员进行夯沉量测量时间)。不同运动状态下的夯锤运动持续时长及空间位置变化规律结合形成的时空关系即夯锤运动的时序模式。
下面简述夯锤运动时序模式规则如下:
根据成像原理,夯锤运动反映到连续两帧的施工影像中的变化结果可归纳为夯锤静止(S)、夯锤上升(R)、夯锤下降(F)、夯锤平移(M)、夯锤移出相机视野范围(O),其中夯锤移出相机视野范围可细分为由夯锤上升引起的超出相机视野范围(RO)、由夯锤平移引起的超出相机视野范围(MO)。
(1)夯锤静止的时序模式:夯锤静止时,连续两帧图像可检测到夯锤目标且夯锤目标中心点像素坐标基本不变。一般情况下,夯锤静止时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…F,S,S,S…]。
(2)夯锤上升的时序模式:连续的强夯施工影像序列中,夯锤目标检测结果的中心点像素坐标呈现上升变化(主要为竖直方向上的变化,水平方向上坐标变化幅度较小),直至夯锤运动出相机视野范围之外且较长时间持续地不在相机视野范围内(由S3知,此时夯锤目标中心点像素坐标为双负值)。一般情况下,夯锤上升时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…R,R,RO,RO,RO…],其中,RO状态的前置触发条件为R或RO。
(3)夯锤下落的时序模式:夯锤下落速度快,下落时间短,影像采集设备往往很难拍摄到多张夯锤下落的影像数据。故连续的强夯施工影像序列中,会在较长一段时间内影像中无夯锤目标之后突然检测到带有夯锤目标的影像数据。一般情况下,夯锤下落时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…RO,RO,RO,F,S…],其中因为夯锤下落速度很快,故F状态持续时间较短,甚至可能捕捉不到。
(4)夯锤平移的时序模式:夯机转场触发夯锤平移运动状态,夯锤在相机视野范围内会发生较大的水平向位移,且可能频繁超出视野。夯锤目标中心点像素坐标会出现水平向的较大变化且在短时间内可能出现正值坐标和双负值坐标的频繁切换。一般情况下,夯锤平移时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…M,M,MO,MO,M…],其中,MO状态的前置触发条件为M或MO。夯锤平移状态下,夯锤移动规律更加复杂,除上诉一般举例外还存在更多的状态变化情况,在此不一一列举。
不同运动状态下的夯锤运动时序模式,在前文发明内容中已有阐述。具体来说,基于采集频率为0.5Hz的强夯施工影像数据,S3建立了长度为n的夯锤位置信息队列,即2n秒内的夯锤目标位置信息序列。通过分析2n秒内的夯锤位置变化过程,匹配夯锤运动时序模式,进行夯锤运动状态判断进而实现强夯夯次自动化计量。
在本具体实施例中,取n=10,研究20s内的夯锤运动变化情况。首先,建立长度n=10的状态判别值队列S=[S1,S2…Sn],初始化状态判别值队列S。计算连续两帧图像中夯锤目标中心点的像素距离
Figure BDA0003038887800000081
并进行当前帧状态值判别,输出判别值St。状态判别规则及输出结果St如下:
(1)夯锤静止状态:若连续两帧图像中夯锤目标中心点变化距离L小于等于距离阈值T,则状态判别结果St=0。
(2)夯锤上升状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt<yt-1和|xt-xt-1|<Tx(Tx为水平距离阈值),则状态判别结果St=1。
(3)夯锤下降状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt>yt-1和|xt-xt-1|<Tx(Tx为水平距离阈值),则状态判别结果St=-1。
(4)夯锤平移状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足|xt-xt-1|>Tx(Tx为水平距离阈值),则状态判别结果St=2。
(5)夯锤不在相机视野范围内:由S3知,此时影像中无夯锤目标,夯锤位置信息为Pn=(-100,-100)。根据夯锤位置队列数据变化情况,可分为两大类情况:一是夯锤上升至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果为St=31,其前置条件为前几帧影像状态判别值为1或31;另一是夯锤平移至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果St=32,其前置条件为前几帧影像状态判别值为2或32。
其中,距离阈值T和水平距离阈值Tx需根据图像分辨率大小和实验进行设定,本实例中,强夯施工影像分辨率大小为3360×2240,T=50(pixel),Tx=200(pixel),Sn=St=31的前置规则为Sn-1=31或Sn-1=Sn-2=1,Sn=St=32的前置规则为Sn-1=32或Sn-1=2。完成当前帧图像状态判别之后,进行状态判别值队列赋值,Sj=Sj+1,(j=1,2…n-1),Sn=St
根据前文所述的夯锤运动时序模式,进行夯锤运动状态智能判断结果如图3。本实例中,当[…,S9=0,S10=0]时,输出夯锤运动状态判断结果为夯锤静止(Stable);当[…,S8=31,S9=31,S10=-1]时,输出夯锤运动状态判断结果为夯锤下降(Falling);当夯锤状态判别值队列满足[…,S10=1]或[…,S10=31],输出夯锤运动状态判断结果为夯锤上升(Rising),强夯施工过程中夯锤需提升至设计高度才能满足地基加固夯实要求,根据现场实验,一般只有在夯机将夯锤提升至设计高度的工况下,夯锤上升状态持续时间才会超过10s,故当状态判断队列为[…,S6=1,S7=31,S8=31,S9=31,S10=31]时,判定夯锤进入有效夯击夯程范围,当前夯点位置上夯次数量增加1;当[…,S10=2]或[…,S10=32]时,输出夯锤运动状态判断结果为夯锤平移(Moving),强夯机在不同夯点位置间进行转移,夯次数量重新归零。
尽管已描述了本发明的优选实例,但本领域的技术人员一旦得知了基本的创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围所有的变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其同等技术的范围之类,则本发明也意图包含这些改动和变型在内。
其它未详细说明的部分均为现有技术。

Claims (9)

1.基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于,包括如下步骤:
步骤S1,在强夯施工现场布设图像或视频采集设备以获取连续的强夯施工影像序列,
步骤S2,利用训练好的强夯夯锤检测模型对连续的强夯施工影像序列进行夯锤目标检测处理,自动识别框选出每帧影像中的夯锤;
步骤S3,提取连续的强夯施工影像序列中夯锤识别框的中心点像素坐标,并将得到的中心点坐标按时间顺序记录到夯锤位置信息序列中;
步骤S4,基于影像采集点与夯锤的相对空间关系和S3得到夯锤位置信息序列数据,分析得到每帧影像上夯锤的运动状态,基于影像序列夯锤的运动轨迹和变化过程,匹配相应的夯锤运动时序模式,判断夯锤当前时段的运动状态。
2.如权利要求1所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:所述图像或影像采集设备设置在强夯机驾驶室顶部。
3.如权利要求1所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:步骤S2中,利用训练好的YOLO-tiny模型进行夯锤目标检测处理。
4.如权利要求3所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:训练YOLO-tiny模型的具体实现方式如下;
(21)利用yolo_mark软件对强夯施工图像进行夯锤目标标注,生成包含标注信息的txt文件,然后转换为YOLO-tiny模型训练所需数据格式,由强夯施工图像和目标类别与位置信息构成训练所需数据集;
(22)利用深度学习框架darknet搭建YOLO-tiny神经网络模型;
(23)将数据集输入YOLO-tiny模型进行训练,得到对应的权值文件,基于OpenCv机器视觉库载入YOLO-tiny模型训练得到的权值文件,即可对强夯夯锤目标进行识别。
5.如权利要求1所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:步骤S3中,设立一个空的时序队列,将强夯施工影像时序数据中夯锤目标识别框的中心点像素坐标按时间顺序存储到时序队列中,若影像数据中无夯锤目标,则存储坐标缺省值,坐标缺省值为双负值坐标。
6.如权利要求1所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:步骤S4中,所述强夯施工过程中夯锤的运动状态分为夯锤上升、夯锤下降、夯锤稳定、夯锤平移四种。
7.如权利要求1所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:步骤S4中得到每帧影像上夯锤的运动状态的具体实现方式如下:
首先,建立长度为n的状态判别值队列S=[S1,S2…Sn],初始化状态判别值队列S,计算连续两帧图像中夯锤目标中心点的像素距离
Figure FDA0003038887790000021
并进行当前帧状态值判别,输出判别值St,状态判别输出结果St及规则如下:
(1)夯锤静止状态:若连续两帧图像中夯锤目标中心点变化距离L小于等于距离阈值T,则状态判别结果St=0;
(2)夯锤上升状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt<yt-1和|xt-xt-1|<Tx,Tx为水平距离阈值,则状态判别结果St=1;
(3)夯锤下降状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足yt>yt-1和|xt-xt-1|<Tx,Tx为水平距离阈值,则状态判别结果St=-1;
(4)夯锤平移状态:若连续两帧图像中夯锤目标中心点变化距离L大于距离阈值T,且当前帧图像中的Ct(xt,yt)较前一帧图像中的Ct-1(xt-1,yt-1)的变化满足|xt-xt-1|>Tx,Tx为水平距离阈值,则状态判别结果St=2;
(5)夯锤不在相机视野范围内:此时影像中无夯锤目标,夯锤位置信息为缺省值;根据夯锤位置队列数据变化情况,分为两大类情况:一是夯锤上升至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果为St=31,其前置条件为前几帧影像状态判别值为1或31;另一是夯锤平移至超出视野导致相机视野范围内无夯锤目标,此时状态判别结果St=32,其前置条件为前几帧影像状态判别值为2或32。
8.如权利要求7所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:步骤S4中夯锤运动时序模式的定义如下;
设夯锤静止为S、夯锤上升为R、夯锤下降为F、夯锤平移为M、夯锤移出相机视野范围为O,其中夯锤移出相机视野范围细分为由夯锤上升引起的超出相机视野范围为RO、由夯锤平移引起的超出相机视野范围为MO;
(41)夯锤静止的时序模式:夯锤静止时,连续两帧图像检测到夯锤目标且夯锤目标中心点像素坐标不变,夯锤静止时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…F,S,S,S…];
(42)夯锤上升的时序模式:连续的强夯施工影像序列中,夯锤目标检测结果的中心点像素坐标呈现上升变化,直至夯锤运动出相机视野范围之外且长时间持续地不在相机视野范围内,夯锤上升时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…R,R,RO,RO,RO…],其中,RO状态的前置触发条件为R或RO;
(43)夯锤下落的时序模式:夯锤下落速度快,下落时间短,影像采集设备很难拍摄到多张夯锤下落的影像数据,故连续的强夯施工影像序列中,会在长时间内影像中无夯锤目标之后突然检测到带有夯锤目标的影像数据,夯锤下落时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…RO,RO,RO,F,S…],其中因为夯锤下落速度很快,故F状态持续时间短,甚至捕捉不到;
(44)夯锤平移的时序模式:夯机转场触发夯锤平移运动状态,夯锤在相机视野范围内会发生大的水平向位移,且频繁超出视野,夯锤目标中心点像素坐标会出现水平方向的变化且在短时间内出现正值坐标和双负值坐标的频繁切换;夯锤平移时序模式下的连续的强夯施工影像序列中夯锤状态变化情况为[…M,M,MO,MO,M…],其中,MO状态的前置触发条件为M或MO。
9.如权利要求7所述的基于机器视觉和时序模式的强夯夯锤运动状态判别方法,其特征在于:距离阈值T和水平距离阈值Tx根据图像分辨率大小和实验进行设定。
CN202110451556.2A 2021-04-26 2021-04-26 基于机器视觉和时序模式的强夯夯锤运动状态判别方法 Active CN113205025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110451556.2A CN113205025B (zh) 2021-04-26 2021-04-26 基于机器视觉和时序模式的强夯夯锤运动状态判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110451556.2A CN113205025B (zh) 2021-04-26 2021-04-26 基于机器视觉和时序模式的强夯夯锤运动状态判别方法

Publications (2)

Publication Number Publication Date
CN113205025A true CN113205025A (zh) 2021-08-03
CN113205025B CN113205025B (zh) 2022-04-29

Family

ID=77028857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110451556.2A Active CN113205025B (zh) 2021-04-26 2021-04-26 基于机器视觉和时序模式的强夯夯锤运动状态判别方法

Country Status (1)

Country Link
CN (1) CN113205025B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116399302A (zh) * 2023-06-08 2023-07-07 中交天津港湾工程研究院有限公司 基于双目视觉和神经网络模型实时监测强夯夯沉量的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102032897A (zh) * 2010-11-03 2011-04-27 电子科技大学 一种基于双目测距原理的强夯工程自动监测方法
CN105184324A (zh) * 2015-09-18 2015-12-23 北京中企卓创科技发展有限公司 一种强夯施工夯击自动计数方法及系统
CN205139949U (zh) * 2015-09-18 2016-04-06 北京中企卓创科技发展有限公司 一种强夯施工夯击自动计数系统
US20160379346A1 (en) * 2013-03-14 2016-12-29 Drs Rsta, Inc. System and method for fast digital signal dynamic range reduction using adaptive histogram compaction and stabilization
CN107165154A (zh) * 2017-05-23 2017-09-15 徐工集团工程机械有限公司 强夯机自动控制系统、方法及强夯机
CN110210621A (zh) * 2019-06-06 2019-09-06 大连理工大学 一种基于残差网络改进的目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102032897A (zh) * 2010-11-03 2011-04-27 电子科技大学 一种基于双目测距原理的强夯工程自动监测方法
US20160379346A1 (en) * 2013-03-14 2016-12-29 Drs Rsta, Inc. System and method for fast digital signal dynamic range reduction using adaptive histogram compaction and stabilization
CN105184324A (zh) * 2015-09-18 2015-12-23 北京中企卓创科技发展有限公司 一种强夯施工夯击自动计数方法及系统
CN205139949U (zh) * 2015-09-18 2016-04-06 北京中企卓创科技发展有限公司 一种强夯施工夯击自动计数系统
CN107165154A (zh) * 2017-05-23 2017-09-15 徐工集团工程机械有限公司 强夯机自动控制系统、方法及强夯机
CN110210621A (zh) * 2019-06-06 2019-09-06 大连理工大学 一种基于残差网络改进的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王素英: "强夯法在城市快速路复合通道路基中的应用", 《城市道桥与防洪》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116399302A (zh) * 2023-06-08 2023-07-07 中交天津港湾工程研究院有限公司 基于双目视觉和神经网络模型实时监测强夯夯沉量的方法
CN116399302B (zh) * 2023-06-08 2024-03-22 中交天津港湾工程研究院有限公司 基于双目视觉和神经网络模型实时监测强夯夯沉量的方法

Also Published As

Publication number Publication date
CN113205025B (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
CN102032896B (zh) 一种基于激光测距与图像识别的强夯工程自动监测方法
CN104294810B (zh) 一种强夯地基加固随夯诊断实时处理方法及强夯实时诊断装置
CN103033253B (zh) 一种塔式起重机结构的非接触振动检测方法
CN107119657B (zh) 一种基于视觉测量基坑监测方法
CN109448326B (zh) 一种基于快速图像识别的地质灾害智能群防监测系统
CN113205025B (zh) 基于机器视觉和时序模式的强夯夯锤运动状态判别方法
CN110342153A (zh) 一种基于三维点云的垃圾桶识别抓取方法
CN102032897B (zh) 一种基于双目测距原理的强夯工程自动监测方法
CN114332749B (zh) 一种基于深度学习的采砂船采砂监控方法
Depeng et al. Monitoring slope deformation using a 3-D laser image scanning system: a case study
CN111259770A (zh) 一种基于无人机平台和深度学习的复杂背景下索力快速测试系统及方法
CN103322928B (zh) 基于网格点阵的相似模型位移场测量系统及方法
CN113847948A (zh) 强夯自动化监测与分析方法及数字化集成系统
CN117288094B (zh) 基于激光传感器的掘进机实时定位系统
CN115019254A (zh) 一种输电区域异物入侵检测方法、装置、终端及存储介质
CN103267498B (zh) 铁矿石粗糙度自动数字量化测量方法
CN116399302B (zh) 基于双目视觉和神经网络模型实时监测强夯夯沉量的方法
CN104007047B (zh) 一种颗粒体系动力链的识别方法
CN105184324A (zh) 一种强夯施工夯击自动计数方法及系统
CN114943904A (zh) 一种基于无人机巡检的作业监测方法
CN112284287B (zh) 一种基于结构表面灰度特征的立体视觉三维位移测量方法
CN114791767B (zh) 一种基于虚拟现实的强夯地基可视化管理系统
Li et al. Research on the application of digital construction in dynamic compaction of the foundation
CN110533698A (zh) 一种基于视觉检测的基坑施工桩检测控制方法
CN205139949U (zh) 一种强夯施工夯击自动计数系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant