CN117132947B - 基于监控视频的危险区域人员识别方法 - Google Patents

基于监控视频的危险区域人员识别方法 Download PDF

Info

Publication number
CN117132947B
CN117132947B CN202311402120.XA CN202311402120A CN117132947B CN 117132947 B CN117132947 B CN 117132947B CN 202311402120 A CN202311402120 A CN 202311402120A CN 117132947 B CN117132947 B CN 117132947B
Authority
CN
China
Prior art keywords
image
frame image
target
frame
wire rope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311402120.XA
Other languages
English (en)
Other versions
CN117132947A (zh
Inventor
庄奎斌
逄志明
张楠
杜兆鹏
廉海啸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Tuoxin Electric Co ltd
Original Assignee
Shandong Tuoxin Electric Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Tuoxin Electric Co ltd filed Critical Shandong Tuoxin Electric Co ltd
Priority to CN202311402120.XA priority Critical patent/CN117132947B/zh
Publication of CN117132947A publication Critical patent/CN117132947A/zh
Application granted granted Critical
Publication of CN117132947B publication Critical patent/CN117132947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,具体涉及基于监控视频的危险区域人员识别方法,包括:获取亮度估计参数,获取人员目标的深度估计值,获取帧图像中钢丝绳目标块的深度估计值,获取光流矩阵和危险区域宽度,根据危险区域宽度和光流矩阵得到危险区域的最短距离,获取危险程度评价参数,根据危险程度评价参数对作业时危险状况进行预警。本发明通过量化人员目标与钢丝绳的三维空间内的位置及形态变化,导致距离与光照状况的改变对光流获取准确程度的影响,提升多项式拟合结果准确度,从而使获得的光流矩阵可以准确预测表示人员的运动方向,最终得到运动场中人员与钢丝绳在危险区域的事故发生危险程度。

Description

基于监控视频的危险区域人员识别方法
技术领域
本发明涉及图像处理技术领域,具体涉及基于监控视频的危险区域人员识别方法。
背景技术
双速绞车工作场景中,操作双速绞车对相关设备进行拖拽、搬运、牵引等的过程中,存在有可能对人员、财物造成损害的危险区域,因此对于双速绞车作业工程中的危险区域进行人员识别是保护相关作业人员生命财产安全的重要措施,其中往往通过视频监控获取帧图像进行危险区域检测的方式进行的。
通过监控视频获取时序关键帧图像,利用稀疏光流算法进行场景区域内的相关设备、人员的光流场中的运动状况的提取,构建出运动场完成人员运动危险程度的检测,实现及时的预警与相关紧急处理措施。因此关键点在于稀疏光流算法对于双速绞车的钢丝绳与人员运动轨迹的跟踪与预测,其中运动物体的形态变化会影响稀疏光流算法的准确程度。
发明内容
本发明提供基于监控视频的危险区域人员识别方法,以解决现有的问题。
本发明的基于监控视频的危险区域人员识别方法采用如下技术方案:
包括以下步骤:
获取作业监控视频的图像序列,所述图像序列包含若干帧图像,利用语义分割神经网络获取图像序列中每一帧图像中的人员目标与钢丝绳目标;
建立帧图像的坐标系,根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异得到帧图像的亮度估计参数,根据相邻帧图像上人员目标的面积差异、人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值;
将帧图像中的钢丝绳目标均匀分割,得到若干钢丝绳目标块,根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值;
根据帧图像中钢丝绳目标块的深度估计值、帧图像的亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的运动幅度,根据运动幅度得到危险区域宽度;
根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,根据修正系数得到修正后的帧图像,根据修正后的帧图像得到帧图像的光流矩阵;
根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,获取帧图像中钢丝绳目标的紧绷程度,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数;
根据危险程度评价参数对作业时危险状况进行预警。
进一步地,所述建立帧图像的坐标系,包括的具体步骤如下:
以图像序列中每一帧图像的水平中线为横坐标,水平向右为正方向,以竖直中心为纵坐标/>,竖直向上为正方向,以双速绞车中钢丝绳水平牵引方向为深度坐标/>,水平向后为正方向,构建三维坐标系。
进一步地,所述根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异得到帧图像的亮度估计参数,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为图像序列中帧图像的总个数,/>为帧图像的亮度估计参数。
进一步地,所述根据相邻帧图像上人员目标的面积差异、人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为人员目标在图像序列中第i帧图像上的面积,为人员目标在图像序列中第i+1帧图像上的面积,/>为帧图像的亮度估计参数,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小纵坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大纵坐标,/>为图像序列中第i+1帧图像中人员目标的深度估计值。
进一步地,所述根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值,包括的具体步骤如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的灰度均值,为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的灰度均值,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的面积,/>为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的面积,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值。
进一步地,所述根据帧图像中钢丝绳目标块的深度估计值、帧图像的亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的运动幅度,根据运动幅度得到危险区域宽度,包括的具体步骤如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块在/>轴上的运动幅度;
获取图像序列中所有帧图像中所有钢丝绳目标块在轴上的运动幅度,将运动幅度最大值记为最小危险区域宽度/>,危险区域宽度/>,其中/>为超参数。
进一步地,所述根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为帧图像的亮度估计参数,/>为高斯函数,/>获取方法如下:以图像序列中第i+1帧图像上第j个像素点为中心,建立的窗口,tn为预设窗口的大小,将窗口中第j个像素点与窗口中除中心像素点之外所有像素点之间的平均欧式距离记为/>,/>为图像序列中第i+1帧图像上第j个像素点的修正系数。
进一步地,所述根据修正系数得到修正后的帧图像,根据修正后的帧图像得到帧图像的光流矩阵,包括的具体步骤如下:
获得图像序列中第i+1帧图像上所有像素点的修正系数,并进行线性归一化处理,将第i+1帧图像上像素点的修正系数加一后与第i+1帧图像对应位置像素点的灰度值进行相乘,得到修正后的第i+1帧图像,将图像序列中第i帧图像和修正后的第i+1帧图像中像素点的灰度值利用最小二乘法进行多项式拟合,并将拟合结果输入到Farneback光流算法中,得到第i+1帧图像的光流矩阵。
进一步地,所述根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,包括的具体步骤如下:
其中,为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为危险区域宽度,/>为第i帧图像上人员目标区域任意一个像素点的横坐标,/>为第i帧图像上人员目标区域任意一个像素点的纵坐标,/>为第i帧图像中人员目标的深度估计值,/>为第i+1帧图像的光流矩阵中对应位置的横坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的纵坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的深度坐标位移特征量,/>为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离。
进一步地,所述获取帧图像中钢丝绳目标的紧绷程度,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数,包括的具体步骤如下:
将图像序列中第i+1帧图像中所有钢丝绳目标块在轴上的运动幅度相加得到图像序列中第i+1帧图像中钢丝绳目标的紧绷程度,记为/>
其中,为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离,/>为以自然常数e为底的指数函数,/>为图像序列中第i+1帧图像中钢丝绳目标的紧绷程度,/>为图像序列中第i+1帧图像中人员目标的危险程度评价参数。
本发明的技术方案的有益效果是:本发明通过量化人员目标与钢丝绳的三维空间内的位置及形态变化,导致距离与光照状况的改变对光流获取准确程度的影响,提升多项式拟合结果准确度,从而使获得的光流矩阵可以准确预测表示人员的运动方向,最终得到运动场中人员与钢丝绳在危险区域的事故发生危险程度;其相较于常规算法,本发明通过亮度估计得到的三维空间运动方向预测可以对人员危险程度的估计更加准确,有效避免了生产安全事故的发生。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于监控视频的危险区域人员识别方法的步骤流程图;
图2为本发明一个实施例所提供的基于监控视频的危险区域人员识别方法的三维坐标系示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于监控视频的危险区域人员识别方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于监控视频的危险区域人员识别方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的基于监控视频的危险区域人员识别方法的步骤流程图,该方法包括以下步骤:
步骤S001、获取作业监控视频的图像序列,获取图像序列中每一帧图像中的人员目标与钢丝绳目标,获取图像序列中每一帧图像的灰度图像。
需要说明的是,本实施例是基于监控视频的危险区域人员识别,首先需要获取作业监控视频的图像序列。
具体的,利用监控摄像头采集双速绞车的作业监控视频,并提取作业监控视频的每一帧图像,得到作业监控视频的图像序列,所述图像序列包含若干帧图像,需要说明的是,监控摄像头布置在双速绞车钢丝绳牵引处。
进一步地,对于获得的图像序列可由神经网络来进行人员、双速绞车、钢丝绳及牵引物体的识别。因此,将图像序列输入到语义分割神经网络,训练完成后,利用语义分割神经网络,识别每一帧图像中的各种物体,得到对应的语义分割图像,而后通过像素的类别标签,得到图像序列中每一帧图像中的人员目标与钢丝绳目标。
具体的,获取图像序列中每一帧图像的灰度图像,为便于说明后文的帧图像代指帧图像的灰度图像。
至此,获取作业监控视频的图像序列,获取图像序列中每一帧图像中的人员目标与钢丝绳目标,获取图像序列中每一帧图像的灰度图像。
需要说明的是,由于双速绞车作业过程中,捕捉的钢丝绳和作业人员会与双速绞车发生相对位移,运动物体由于相对位移的影响,在获得的前后帧图像上呈现出大小和图像亮度变化,不符合Farneback光流算法对于图像亮度恒定的设定,影响对于运动物体的运动轨迹的拟合。因此,通过量化运动物体运动过程中对前后帧图像造成的亮度变化影响,对Farneback光流算法获取图像光流的过程进行调整,得到图像的光流矩阵,从而根据光流矩阵获得运动物体的运动方向与当前的危险区域靠近距离,构建出危险程度评价参数,便于后续的危险状况预警与紧急处理。
步骤S002、获取亮度估计参数,根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值,根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值,获取危险区域宽度。
需要说明的是,运动物体在运动的过程中,在成像条件不变的前提下,人靠近与远离相机,会产生人员在图像上成像的面积与亮度变化;钢丝绳从弯曲状态到受力的绷直状态,同样会因为发生形态变化产生与相机的相对位移,因此通过量化运动物体的形态变化与亮度变化的相关关系,获得亮度估计参数,便于后续对于Farneback光流算法处理过程的调整。
具体的,当光照条件一定,光源与摄像位置不变的情况下,物体成像的大小与亮度变化只与物距变化量有关,以图像序列中每一帧图像的水平中线为横坐标,水平向右为正方向,以竖直中心为纵坐标/>,竖直向上为正方向,以双速绞车中钢丝绳水平牵引方向为深度坐标/>,水平向后为正方向,构建三维坐标系,需要说明的是,形成的/>面与地面垂直,面与地面平行,构建深度坐标目的是将图像序列中相邻帧图像上运动物体在物距上的变化可以表现在深度坐标/>上,请参阅图2,图2为本实施例的三维坐标系示意图,其中包括物体、钢丝缆绳、相机以及双速绞车,X、Y、Z为三维坐标系的三个方向。
进一步地,获取图像序列中相邻帧图像上的人员目标,以任意一个人员目标为例,获取人员目标在第i帧图像和第i+1帧图像上的面积,记为和/>,以及获取人员目标在第i帧图像和第i+1帧图像上的灰度均值,记为/>和/>,获取帧图像中人员目标的最小外接矩形,及最小外接矩形四个顶点在帧图像上的坐标,记为,其中/>,根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异得到亮度估计参数,具体如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为图像序列中帧图像的总个数,/>为帧图像的亮度估计参数,其反映当前环境下图像中物体的亮度值随距离变化的程度,是与前后帧图像的面积及灰度变化程度相关联的。
需要说明的是,运动物体在运动的过程中,在成像条件不变的前提下,人靠近与远离相机,会产生人员在图像上成像的面积与亮度变化;钢丝绳从弯曲状态到受力的绷直状态,同样会因为发生形态变化产生与相机的相对位移,因此通过量化运动物体的形态变化与亮度变化的相关关系,获得亮度估计参数,本实施是根据深度信息来进行分析的,在得到亮度估计参数后,根据亮度估计参数得到人员目标的深度估计值和钢丝绳目标块的深度估计值。
具体的,根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值,具体如下:
其中,为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为人员目标在图像序列中第i帧图像上的面积,为人员目标在图像序列中第i+1帧图像上的面积,/>为帧图像的亮度估计参数,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小纵坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大纵坐标,/>为图像序列中第i+1帧图像中人员目标的深度估计值。
具体的,获取图像序列中第i+1帧图像中的钢丝绳目标,对一帧图像上的钢丝绳目标而言,存在深度坐标对于钢丝绳部分的影响,因此,将第i+1帧图像中的钢丝绳目标沿着轴方向均匀分割,将第i+1帧图像中的钢丝绳目标分割成m块,本实施例中m为一个超参数,可由实施者根据实施场景设置,将第i+1帧图像中的钢丝绳目标分割成m块后任意一块记为第i+1帧图像中的钢丝绳目标块,获取第i+1帧图像中的钢丝绳目标块的最小外接矩形,及最小外接矩形四个顶点在帧图像上的坐标,记为/>,其中/>,获取第i+1帧图像中的所有钢丝绳目标块的面积和灰度均值,根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值,具体如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的灰度均值,为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的灰度均值,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的面积,/>为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的面积,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值。
需要说明的是,由于钢丝绳在受力过程中会发生形变,因此可将钢丝绳在轴上的最大运动幅度作为最小危险区域宽度/>,在获得的钢丝绳在x轴上的最大运动幅度后,由于钢丝绳目标块位于不同的深度,即不同深度的宽度是不同的,距离近宽度会变大,距离远宽度会变小,因此需要引入钢丝绳目标块的深度估计值和帧图像的亮度估计参数来进行修正。
具体的,根据帧图像中钢丝绳目标块的深度估计值、帧图像的亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块在轴上的运动幅度,具体如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块在/>轴上的运动幅度。
进一步地,获取图像序列中所有帧图像中所有钢丝绳目标块在轴上的运动幅度,将运动幅度最大值记为最小危险区域宽度/>
进一步地,根据最小危险区域宽度得到危险区域宽度,/>,其中/>为超参数,本实施例中以/>进行叙述,可由实施者根据具体实施场景设置。
至此,得到了亮度估计参数和危险区域宽度。
步骤S003、根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,获取光流矩阵。
需要说明的是,由于Farneback光流算法在对帧图像中像素点灰度值进行多项式拟合时,需要将相邻帧图像灰度值(亮度)近似恒定,即相邻帧图像灰度值相近,因此需要对帧图像进行灰度值修正,维持图像亮度的近似恒定,消除物体运动的亮度影响,提高光流估计精确度,修正之后进行最小二乘法多项式拟合,最终利用Farneback光流算法得到光流矩阵。
具体的,根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,具体如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为帧图像的亮度估计参数,/>为高斯函数,/>获取方法如下:以图像序列中第i+1帧图像上第j个像素点为中心,建立的窗口,tn为预设窗口的大小,本实施例中以/>为例进行说明,将窗口中第j个像素点与窗口中除中心像素点之外所有像素点之间的平均欧式距离记为/>,/>为图像序列中第i+1帧图像上第j个像素点的修正系数。同理获得图像序列中第i+1帧图像上所有像素点的修正系数,并进行线性归一化处理。
进一步地,利用第i+1帧图像上像素点的修正系数加一后与第i+1帧图像对应位置像素点的灰度值进行相乘,得到修正后的第i+1帧图像,需要说明的是,此处所述像素点的修正系数是指线性归一化后的修正系数。
进一步地,将图像序列中第i帧图像和修正后的第i+1帧图像中像素点的灰度值利用最小二乘法进行多项式拟合,并将拟合结果输入到Farneback光流算法中,得到第i+1帧图像的光流矩阵。
至此,得到了光流矩阵。
步骤S004、根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,根据帧图像中钢丝绳目标块在轴上的运动幅度得到帧图像中钢丝绳目标的紧绷程度,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数。
需要说明的是,光流矩阵中的每一个元素值是第i帧图像与第i+1帧图像上坐标的位移特征量,具体指的是第i帧图像上点,在第i+1帧图像上对应的坐标,所以人员目标的运动方向向量应该是所有点位移的均值表示即每个维度的运动特征量均值衡量物体的运动方向,其中/>是等于帧图像中人员目标的深度估计值,获取人员目标距离钢丝绳危险区域的运动方向上的最短距离,与钢丝绳紧绷程度,构建出危险程度评价参数/>,具体如下:
具体的,根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,具体如下:
其中,为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为危险区域宽度,关于坐标轴/>对称,因此这里求取最短距离时取二分之一,/>为第i帧图像上人员目标区域任意一个像素点的横坐标,/>为第i帧图像上人员目标区域任意一个像素点的纵坐标,/>为第i帧图像中人员目标的深度估计值,即深度坐标,/>为第i+1帧图像的光流矩阵中对应位置的横坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的纵坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的深度坐标位移特征量,/>为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离。
具体的,根据帧图像中钢丝绳目标块在轴上的运动幅度得到帧图像中钢丝绳目标的紧绷程度,具体如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块在/>轴上的运动幅度,s为图像序列中第i+1帧图像中钢丝绳目标块的总个数,/>为图像序列中第i+1帧图像中钢丝绳目标的紧绷程度。
进一步地,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数,具体如下:
其中,为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离,/>为以自然常数e为底的指数函数,/>为图像序列中第i+1帧图像中钢丝绳目标的紧绷程度,/>为图像序列中第i+1帧图像中人员目标的危险程度评价参数。
至此,得到了帧图像中人员目标的危险程度评价参数。
步骤S005、根据危险程度评价参数对作业时危险状况进行预警。
具体的,步骤S004中获得了帧图像中人员目标的危险程度评价参数,预设危险等级阈值,本实施例中以预设危险等级阈值为0.5进行叙述,当帧图像中人员目标的危险程度评价参数大于危险等级阈值时进行危险状况预警提示。
至此,本实施例完成。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.基于监控视频的危险区域人员识别方法,其特征在于,该方法包括以下步骤:
获取作业监控视频的图像序列,所述图像序列包含若干帧图像,利用语义分割神经网络获取图像序列中每一帧图像中的人员目标与钢丝绳目标;
建立帧图像的坐标系,根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异得到帧图像的亮度估计参数,根据相邻帧图像上人员目标的面积差异、人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值;
将帧图像中的钢丝绳目标均匀分割,得到若干钢丝绳目标块,根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值;
根据帧图像中钢丝绳目标块的深度估计值、帧图像的亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的运动幅度,根据运动幅度得到危险区域宽度;
根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,根据修正系数得到修正后的帧图像,根据修正后的帧图像得到帧图像的光流矩阵;
根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,获取帧图像中钢丝绳目标的紧绷程度,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数;
根据危险程度评价参数对作业时危险状况进行预警;
所述根据亮度估计参数、相邻帧图像上人员目标的面积差异以及人员目标的灰度均值差异得到帧图像上像素点的修正系数,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为帧图像的亮度估计参数,/>为高斯函数,获取方法如下:以图像序列中第i+1帧图像上第j个像素点为中心,建立/>的窗口,tn为预设窗口的大小,将窗口中第j个像素点与窗口中除中心像素点之外所有像素点之间的平均欧式距离记为/>,/>为图像序列中第i+1帧图像上第j个像素点的修正系数;
所述获取帧图像中钢丝绳目标的紧绷程度,根据帧图像中钢丝绳目标的紧绷程度和帧图像中人员目标距离钢丝绳危险区域的最短距离,得到危险程度评价参数,包括的具体步骤如下:
将图像序列中第i+1帧图像中所有钢丝绳目标块在轴上的运动幅度相加得到图像序列中第i+1帧图像中钢丝绳目标的紧绷程度,记为/>
其中,为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离,/>为以自然常数e为底的指数函数,/>为图像序列中第i+1帧图像中钢丝绳目标的紧绷程度,为图像序列中第i+1帧图像中人员目标的危险程度评价参数。
2.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述建立帧图像的坐标系,包括的具体步骤如下:
以图像序列中每一帧图像的水平中线为横坐标,水平向右为正方向,以竖直中心为纵坐标/>,竖直向上为正方向,以双速绞车中钢丝绳水平牵引方向为深度坐标/>,水平向后为正方向,构建三维坐标系。
3.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据相邻帧图像上人员目标的面积差异和人员目标的灰度均值差异得到帧图像的亮度估计参数,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为图像序列中帧图像的总个数,/>为帧图像的亮度估计参数。
4.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据相邻帧图像上人员目标的面积差异、人员目标的灰度均值差异、亮度估计参数以及人员目标的最小外接矩形顶点在帧图像上的坐标,得到人员目标的深度估计值,包括的具体步骤如下:
其中,为人员目标在图像序列中第i帧图像上的灰度均值,/>为人员目标在图像序列中第i+1帧图像上的灰度均值,/>为人员目标在图像序列中第i帧图像上的面积,/>为人员目标在图像序列中第i+1帧图像上的面积,/>为帧图像的亮度估计参数,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大横坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最小纵坐标,/>为第i+1帧图像中人员目标的最小外接矩形顶点的最大纵坐标,为图像序列中第i+1帧图像中人员目标的深度估计值。
5.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据相邻钢丝绳目标块的面积差异和灰度均值差异、亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的深度估计值,包括的具体步骤如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的灰度均值,/>为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的灰度均值,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的面积,/>为图像序列中第i+1帧图像中第q-1个钢丝绳目标块的面积,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大纵坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值。
6.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据帧图像中钢丝绳目标块的深度估计值、帧图像的亮度估计参数以及钢丝绳目标块的最小外接矩形顶点在帧图像上的坐标,得到帧图像中钢丝绳目标块的运动幅度,根据运动幅度得到危险区域宽度,包括的具体步骤如下:
其中,为图像序列中第i+1帧图像中第q个钢丝绳目标块的深度估计值,/>为帧图像的亮度估计参数,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最大横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块的最小外接矩形顶点的最小横坐标,/>为图像序列中第i+1帧图像中第q个钢丝绳目标块在轴上的运动幅度;
获取图像序列中所有帧图像中所有钢丝绳目标块在轴上的运动幅度,将运动幅度最大值记为最小危险区域宽度/>,危险区域宽度/>,其中/>为超参数。
7.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据修正系数得到修正后的帧图像,根据修正后的帧图像得到帧图像的光流矩阵,包括的具体步骤如下:
获得图像序列中第i+1帧图像上所有像素点的修正系数,并进行线性归一化处理,将第i+1帧图像上像素点的修正系数加一后与第i+1帧图像对应位置像素点的灰度值进行相乘,得到修正后的第i+1帧图像,将图像序列中第i帧图像和修正后的第i+1帧图像中像素点的灰度值利用最小二乘法进行多项式拟合,并将拟合结果输入到Farneback光流算法中,得到第i+1帧图像的光流矩阵。
8.根据权利要求1所述基于监控视频的危险区域人员识别方法,其特征在于,所述根据危险区域宽度和帧图像的光流矩阵得到帧图像中人员目标距离钢丝绳危险区域的最短距离,包括的具体步骤如下:
其中,为第i+1帧图像中人员目标的最小外接矩形顶点的最小横坐标,/>为危险区域宽度,/>为第i帧图像上人员目标区域任意一个像素点的横坐标,/>为第i帧图像上人员目标区域任意一个像素点的纵坐标,/>为第i帧图像中人员目标的深度估计值,/>为第i+1帧图像的光流矩阵中对应位置的横坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的纵坐标位移特征量,/>为第i+1帧图像的光流矩阵中对应位置的深度坐标位移特征量,/>为第i+1帧图像中人员目标距离钢丝绳危险区域的最短距离。
CN202311402120.XA 2023-10-27 2023-10-27 基于监控视频的危险区域人员识别方法 Active CN117132947B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311402120.XA CN117132947B (zh) 2023-10-27 2023-10-27 基于监控视频的危险区域人员识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311402120.XA CN117132947B (zh) 2023-10-27 2023-10-27 基于监控视频的危险区域人员识别方法

Publications (2)

Publication Number Publication Date
CN117132947A CN117132947A (zh) 2023-11-28
CN117132947B true CN117132947B (zh) 2024-01-26

Family

ID=88851220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311402120.XA Active CN117132947B (zh) 2023-10-27 2023-10-27 基于监控视频的危险区域人员识别方法

Country Status (1)

Country Link
CN (1) CN117132947B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117541627B (zh) * 2024-01-10 2024-04-16 山东师范大学 一种基于vr技术的用户运动指导系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083204A2 (en) * 2006-01-20 2007-07-26 Nokia Corporation Method for optical flow field estimation using adaptive filtering
CN110123334A (zh) * 2019-05-15 2019-08-16 中国矿业大学(北京) 一种煤矿井下人体姿态监测系统
CN110697532A (zh) * 2019-10-22 2020-01-17 付京涛 电梯运行的后台监控方法
CN114155439A (zh) * 2021-12-07 2022-03-08 河南鑫安利安全科技股份有限公司 基于视觉感知的化工企业安全风险预警方法与系统
CN114418983A (zh) * 2022-01-14 2022-04-29 河南鑫安利安全科技股份有限公司 基于智能物联网的设备风险检测方法
CN114612866A (zh) * 2022-05-12 2022-06-10 东营固泰尔建筑科技有限责任公司 一种建筑场地内安全性智能识别方法、装置及设备
CN114894091A (zh) * 2022-05-09 2022-08-12 上海倍肯智能科技有限公司 一种双目视觉测距功能的线路监控装置及系统
CN115690660A (zh) * 2022-11-08 2023-02-03 山东省地质矿产勘查开发局第一地质大队(山东省第一地质矿产勘查院) 一种架空索道脱索检测方法及系统
CN115880784A (zh) * 2023-02-22 2023-03-31 武汉商学院 基于人工智能的景区多人动作行为监测方法
CN116363600A (zh) * 2023-06-01 2023-06-30 深圳恒邦新创科技有限公司 一种动车组检修作业风险预测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI355615B (en) * 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083204A2 (en) * 2006-01-20 2007-07-26 Nokia Corporation Method for optical flow field estimation using adaptive filtering
CN110123334A (zh) * 2019-05-15 2019-08-16 中国矿业大学(北京) 一种煤矿井下人体姿态监测系统
CN110697532A (zh) * 2019-10-22 2020-01-17 付京涛 电梯运行的后台监控方法
CN114155439A (zh) * 2021-12-07 2022-03-08 河南鑫安利安全科技股份有限公司 基于视觉感知的化工企业安全风险预警方法与系统
CN114418983A (zh) * 2022-01-14 2022-04-29 河南鑫安利安全科技股份有限公司 基于智能物联网的设备风险检测方法
CN114894091A (zh) * 2022-05-09 2022-08-12 上海倍肯智能科技有限公司 一种双目视觉测距功能的线路监控装置及系统
CN114612866A (zh) * 2022-05-12 2022-06-10 东营固泰尔建筑科技有限责任公司 一种建筑场地内安全性智能识别方法、装置及设备
CN115690660A (zh) * 2022-11-08 2023-02-03 山东省地质矿产勘查开发局第一地质大队(山东省第一地质矿产勘查院) 一种架空索道脱索检测方法及系统
CN115880784A (zh) * 2023-02-22 2023-03-31 武汉商学院 基于人工智能的景区多人动作行为监测方法
CN116363600A (zh) * 2023-06-01 2023-06-30 深圳恒邦新创科技有限公司 一种动车组检修作业风险预测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于图像处理的人员异常行为监测设计;王帅鹏;赵凯;;现代电子技术(06);全文 *
基于纹理约束和参数化运动模型的光流估计;杨波, 徐光;中国图象图形学报(06);全文 *
基于背景配准的矿井危险区域视频目标检测算法;屈凡非;王智峰;田建军;;工矿自动化(03);全文 *

Also Published As

Publication number Publication date
CN117132947A (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
CN117132947B (zh) 基于监控视频的危险区域人员识别方法
CN110929566B (zh) 基于可见光和近红外双目摄像头的人脸活体检测方法
CN108229475B (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN107347151A (zh) 双目摄像头遮挡检测方法及装置
CN110717934B (zh) 一种基于strcf的抗遮挡目标跟踪方法
Moradi et al. Real-time defect detection in sewer closed circuit television inspection videos
CN111860143B (zh) 一种面向巡检机器人的火焰实时检测方法
CN115082849B (zh) 基于深度学习的模板支架安全智能监测方法
CN116758528B (zh) 基于人工智能的丙烯酸乳液颜色变化识别方法
CN111460917B (zh) 基于多模态信息融合的机场异常行为检测系统及方法
CN115639248A (zh) 一种用于建筑外墙质量检测的系统及方法
CN115564710A (zh) 基于lk光流法的火灾烟雾检测方法、装置及存储介质
CN109658441B (zh) 基于深度信息的前景检测方法及装置
CN109671084B (zh) 一种工件形状的测量方法
CN115108466A (zh) 一种集装箱吊具智能定位的方法
CN117495918A (zh) 基于光照自适应orb算子的河流水面光流估计方法
JP2022133870A (ja) 舗装健全度評価方法
KR101173786B1 (ko) 신경망을 이용한 이동 물체의 혼잡도 측정 시스템 및 방법
Jinlan et al. A method of fire and smoke detection based on surendra background and gray bitmap plane algorithm
CN113221603A (zh) 一种检测监控设备被异物遮挡的方法及装置
CN116452976A (zh) 一种煤矿井下安全检测方法
CN105844671A (zh) 一种变光照条件下的快速背景减除法
Zheng et al. Measurement of laser welding pool geometry using a closed convex active contour model
CN117422679B (zh) 一种基于时序图像和稠密光流估计的裂缝变化监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant