CN116503957B - 一种燃气入户作业行为识别方法 - Google Patents

一种燃气入户作业行为识别方法 Download PDF

Info

Publication number
CN116503957B
CN116503957B CN202310753998.1A CN202310753998A CN116503957B CN 116503957 B CN116503957 B CN 116503957B CN 202310753998 A CN202310753998 A CN 202310753998A CN 116503957 B CN116503957 B CN 116503957B
Authority
CN
China
Prior art keywords
representing
rectangular frame
operator
operation behavior
circumscribed rectangular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310753998.1A
Other languages
English (en)
Other versions
CN116503957A (zh
Inventor
鄢章发
朱炼
王孜
刘勋
常关羽
彭大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Qianjia Technology Co Ltd
Original Assignee
Chengdu Qianjia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Qianjia Technology Co Ltd filed Critical Chengdu Qianjia Technology Co Ltd
Priority to CN202310753998.1A priority Critical patent/CN116503957B/zh
Publication of CN116503957A publication Critical patent/CN116503957A/zh
Application granted granted Critical
Publication of CN116503957B publication Critical patent/CN116503957B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

本发明涉及一种燃气入户作业行为识别方法,包括步骤:采集作业人员的第一视角作业视频;使用YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,使用MoveNet模型对第一视角作业视频中的作业人员手部进行识别;采用DeepSORT目标跟踪算法对识别得到的作业仪器目标和作业人员手部进行跟踪,获取时序坐标序列,以作业仪器目标和作业人员手部的中心坐标序列形成时序特征;将得到的时序特征与规定作业行为的时序特征进行相似度计算,若相似度大于阈值,则判定作业人员为规范作业行为。本发明识别出燃气入户安全检测规范中的规定作业行为,监督作业人员完成规定作业,保障燃气安全隐患的排查。

Description

一种燃气入户作业行为识别方法
技术领域
本发明涉及图像识别技术领域,特别涉及一种燃气入户作业行为识别方法。
背景技术
燃气安全作业行为识别通常使用视频监控、智能感知等技术,对工人的作业行为进行实时监测和分析,以识别出不安全的行为并预防事故发生。目前,安全作业行为识别方法已经在工业、化工、冶金等领域得到了广泛应用,在提高生产安全水平、降低事故发生率方面取得了良好的效果。
现有的燃气安全作业行为识别通常是通过全局监控视频,利用姿态监测模型识别出作业人员的人体关键点,再通过目标跟踪算法提取时序动作特征,识别出异常行为或者违规行为,进而约束作业人员的行为,防止安全事故的发生。
现有的技术中,首要的问题是通过识别异常行为或违规行为来约束作业人员的方法,不能对标准作业或者规范作业进行识别,也就不能监督作业人员是否按照流程完成规定的作业行为。其次,通过监控视频对作业行为进行全程监测,则将作业行为的监测局限于工厂、车间等固定场所,对于需要户外作业甚至上门服务的作业来说,无法做到有效的识别和监管。
发明内容
本发明的目的在于识别出燃气入户安全检测规范中的规定作业行为,包括压力检测、软管检测和泄漏检测等作业行为,进而监督作业人员完成规定作业,保障燃气安全隐患的排查,完善燃气公司的监管工作,提供一种燃气入户作业行为识别方法。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
一种燃气入户作业行为识别方法,包括以下步骤:
步骤1,采集作业人员的第一视角作业视频;
步骤2,基于第一视角作业视频,使用YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,使用MoveNet模型对第一视角作业视频中的作业人员手部进行识别;
步骤3,采用DeepSORT目标跟踪算法对步骤2识别得到的作业仪器目标和作业人员手部进行跟踪,获取时序坐标序列,以作业仪器目标和作业人员手部的中心坐标序列形成时序特征;
步骤4,将步骤3得到的时序特征与规定作业行为的时序特征进行相似度计算,若相似度大于阈值,则判定作业人员为规范作业行为。
与现有技术相比,本发明的有益效果:
本发明能够识别出燃气入户安全规范中的规定作业行为,包括压力检测、软管检测和泄漏检测等作业行为,进而监督作业人员完成规定作业,保障燃气安全隐患的排查,完善燃气公司的监管工作。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明方法流程图;
图2为本发明实施例YOLO V5s模型的网络结构示意图;
图3为本发明实施例交并比计算示意图;
图4为本发明实施例识别结果示意图;
图5为本发明实施例轨迹示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性,或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。另外,术语“相连”、“连接”等可以是元件之间直接相连,也可以是经由其他元件的间接相连。
实施例1:
本发明通过下述技术方案实现,如图1所示,一种燃气入户作业行为识别方法,包括以下步骤:
步骤1,采集作业人员的第一视角作业视频。
作业人员户外作业或者上门服务作业时,使用可穿戴摄像设备,如智慧安全帽,即在安全帽上安装有摄像仪,最好安装在安全帽的正前方,用于采集作业人员的第一视角作业视频。
步骤2,基于第一视角作业视频,使用YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,使用MoveNet模型对第一视角作业视频中的作业人员手部进行识别。
请参见图2为YOLO V5s模型的网络结构,所述YOLO V5s模型包括骨干网络、颈部网络、检测器(Detect),所述骨干网络包括多个卷积层(Conv)、多个残差层(C3),最后由金字塔池化层(SPFF)结尾;所述颈部网络也包括多个卷积层(Conv)、多个残差层(C3),使用跳跃连接层(Concat)将不同卷积层的输出特征进行连接;最后由检测器融合特征后输出。
使用训练好的YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,并标注出作业仪器目标的最大外接矩形框,后续简称为矩形框,输出该矩形框在当前帧的坐标信息(cx,cy,w,h),其中(cx,cy)表示矩形框的中心点坐标,(w,h)表示矩形框的宽和高。
所述YOLO V5s模型在训练时的总损失函数由三个部分组成:位置损失函数、置信度损失函数、类别损失函数。其总损失函数为:
其中,K表示输出特征图的数量,k表示第k张输出特征图;S2表示网格(cell)的数量,i表示i个网格;B表示每个网格上矩形框(anchor)的数量,j表示第j个矩形框;LCIoU表示位置损失函数,表示位置损失函数的权重,取/>;Lobj表示置信度损失函数,表示置信度损失函数的权重,取/>;Lcls表示类别损失函数,/>表示类别损失函数的权重,取/>;/>表示第k张输出特征图的第i个网格中第j个矩形框是否为正样本,若是正样本,则/>,反之/>;tp表示预测向量,tgt表示真实向量;/>用于平衡每个尺度的输出特征图的权重,默认取值[4.0,1.0,0.4],依次对应尺度为40*40、20*20、10*10的输出特征图。
所述位置损失函数LCIoU为:
其中。IoU表示交并比,即预测矩形框和真实矩形框的重叠部分面积与并集区域面积的比值;CIoU是IoU的一种改进表征方式,CIoU还表示了矩形框中心点距离和矩形框的对角线之间的关系;v为中间参数;表示两个相交矩形框的中心点距离,/>表示矩形框对角线距离;wgt表示真实矩形框的宽,hgt表示真实矩形框的高;bw表示预测矩形框中心和真实矩形框中心在宽度上的偏移量,bh表示预测矩形框中心和真实矩形框中心在高度上的偏移量。
在进一步的方案中,对位置损失函数LCIoU进行改进,改进后的位置损失函数LWIoU为:
其中,如图3所示,(xa1,ya1)、(xa2,ya2)分别表示预测矩形框的左上、右下两个对角点坐标;(xb1,yb1)、(xb2,yb2)分别表示真实预矩形框的左上、右下两个对角点坐标;S表示预测最大外接矩形框面积,Sgt表示真实最大外接矩形框面积;Wg、Hg分别表示预测矩形框和真实矩形框有重叠区域时,该重叠矩形框的宽和高;x、y分别表示预测矩形框中心点的横坐标、纵坐标;xgt、ygt分别表示真实矩形框中心点的横坐标、纵坐标。
因此,改进后的总损失函数为:
由于训练数据中难以避免地包含低质量样本,如距离、纵横比之类的几何度量都会加剧对低质量样本的惩罚,从而使YOLO V5s模型的泛化能力下降。因此在改进损失函数时,增加的注意力机制能够在预测矩形框与真实矩形框较好的重合时,削弱几何度量的惩罚,不过多的干预训练,使YOLO V5s模型具有更好的泛化能力。
使用训练好的MoveNet模型对第一视角作业视频中的作业人员手部进行识别,并标注出作业人员手部的最大外接矩形框,后续简称为矩形框,输出该矩形框在当前帧的坐标信息(cx`,cy`,w`,h`),其中(cx`,cy`)表示矩形框的中心点坐标,(w`,h`)表示矩形框的宽和高。
所述MoveNet模型在训练时采用均方差损失函数(MSE,Mean Squared ErrorLoss):
其中,n表示样本数量,i表示第i个样本;表示样本i的预测值,/>表示样本i的真实值。
由于存在类别不均衡和难易样本区分的问题,本方案采用加权均方差损失(WMSE),引入了权重和调节因子:
其中,表示调节因子,用于降低易分类样本权重;/>表示可调节的聚焦参数,聚焦于困难样本的训练,参考取值[0,5];/>为权重因子,用于协调类别不均衡。
步骤3,采用DeepSORT目标跟踪算法对步骤2识别得到的作业仪器目标和作业人员手部进行跟踪,获取时序坐标序列,以作业仪器目标和作业人员手部的中心坐标序列形成时序特征。
DeepSORT目标跟踪算法可描述为:假如目标在当前帧的坐标信息为X0=[u,v,s,r]T,其中,u、v分别表示目标中心的水平和垂直像素位置,s、r分别表示目标的边界框的刻度(面积)和纵横比。通过卡尔曼滤波预测目标在下一帧的位置,其中,/>、/>分别表示下一帧预测的目标中心的水平和垂直像素位置,/>表示下一帧预测的目标的边界框的刻度,并将预测的位置于下一帧实际检测到的位置做识别目标区域的交并比(IoU)计算,得到相邻两帧目标的相似度。如果检测与目标相关联,检测到的边界框用于更新目标状态;如果检测与目标非相关联,则使用线速度模型预测其状态,而不进行校正。最后,利用匈牙利算法匹配得到相邻两帧的对应目标,将前一帧中的跟踪框与当前帧的检测框进行关联,通过IoU来计算代价矩阵,输出目标的时序坐标信息。
由于每张图片中目标所占图片大小和所在位置完全不同,因此不能直接以图片左上角为原点去记录目标的坐标,因此需要对坐标信息做归一化处理。利用某个关键部位作为原点(x0,y0),如手腕中心点坐标作为原点,图像大小为(w0,h0),则第1个时刻手腕中心点(x1,y1)的相对坐标为=(x1`,y1`)。
作业仪器目标和作业人员手部的中心坐标序列形成时序特征:
R={(x1`,y1`),(x2`,y2`),...,(xn`,yn`)}
其中,n表示n个时刻;(xn`,yn`)表示第n个时刻的中心坐标。
步骤4,将步骤3得到的时序特征与规定作业行为的时序特征进行相似度计算,若相似度大于阈值,则判定作业人员为规范作业行为。
采用改进的基于斜率表示的时间序列相似性度量方法,对斜率距离的计算进行改进,计算时间序列的关联度。基于斜率表示的时间序列相似性度量方法可以描述为:
(1)首先对检测到的作业人员手部轨迹的相对坐标时间序列R={(x1`,y1`),(x2`,y2`),...,(xn`,yn`)}和规定作业行为轨迹的相对坐标时间序列D={(m1,c1),(m2,c2),...,(mn,cn)}进行斜率表示:
其中,R`为R的斜率表示序列,D`为D的斜率表示序列;ri为R`中第i个时刻的斜率,,di为D`中第i个时刻的斜率,/>,i=1,2,...,n。
(2)对斜率表示的序列进行绝对距离计算:
其中,tn为结束时刻,ti-ti-1表示当前时间段的时长。当S(R,D)=0时两个序列表现为完全相似,实际上这种情况出现的概率很低,或者不存在,因此S(R,D)值越小,表明两序列相似度越高。因此,在本方案中,用表示将步骤3得到的时序特征与规定作业行为的时序特征的相似度。
可设定阈值T`,当时,表示判定作业人员为规范作业行为;否则,作业人员为不规范作业行为。
实施例2:
本实施例在实施例1的基础上给出实验数据。
利用本方案的YOLO V5s模型、MoveNet模型进行作业仪器目标和作业人员手部识别,准确率能达到95%以上。请参见图4,YOLO V5s模型识别到的作业仪器目标包括窗口window、可燃气体检测仪instrument以及放散软管base;MoveNet模型能够准确识别出作业人员手部hand,并且分别输出矩形框的相对坐标位置,如表1所示。
表1 识别矩形框相对坐标
记录hand的轨迹信息,与规定作业行为的轨迹信息进行相似度计算,图5显示了5个作业行为的动作与规定作业行为的hand轨迹变化对比,表2相似度计算结果。
表2 相似度计算结果
从图5的动作轨迹可以看出,动作1和动作4与规定作业行为接近,在相似度计算中,相似度分别为0.7257、0.7001,因此将相似度阈值T`设为0.7时,动作1和动作4判定为规范作业行为,动作2、动作3和动作5则为不规范作业行为。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种燃气入户作业行为识别方法,其特征在于:包括以下步骤:
步骤1,采集作业人员的第一视角作业视频;
步骤2,基于第一视角作业视频,使用YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,使用MoveNet模型对第一视角作业视频中的作业人员手部进行识别;
步骤3,采用DeepSORT目标跟踪算法对步骤2识别得到的作业仪器目标和作业人员手部进行跟踪,获取时序坐标序列,以作业仪器目标和作业人员手部的中心坐标序列形成时序特征;
步骤4,将步骤3得到的时序特征与规定作业行为的时序特征进行相似度计算,若相似度大于阈值,则判定作业人员为规范作业行为。
2.根据权利要求1所述的一种燃气入户作业行为识别方法,其特征在于:所述步骤2中,使用YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别的步骤,包括:
使用训练好的YOLO V5s模型对第一视角作业视频中的作业仪器目标进行识别,并标注出作业仪器目标的最大外接矩形框,输出该最大外接矩形框在当前帧的坐标信息(cx,cy,w,h),其中(cx,cy)表示最大外接矩形框的中心点坐标,(w,h)表示最大外接矩形框的宽和高。
3.根据权利要求1所述的一种燃气入户作业行为识别方法,其特征在于:所述YOLO V5s模型的总损失函数为:
其中,K表示输出特征图的数量,k表示第k张输出特征图;S2表示网格的数量,i表示i个网格;B表示每个网格上的最大外接矩形框的数量,j表示第j个最大外接矩形框;LWIoU表示位置损失函数,表示位置损失函数的权重;Lobj表示置信度损失函数,/>表示置信度损失函数的权重;Lcls表示类别损失函数,/>表示类别损失函数的权重;/>表示第k张输出特征图的第i个网格中第j个最大外接矩形框是否为正样本,若是正样本,则/>,反之/>;tp表示预测向量,tgt表示真实向量;/>用于平衡每个尺度的输出特征图的权重。
4.根据权利要求3所述的一种燃气入户作业行为识别方法,其特征在于:所述位置损失函数LWIoU为:
其中,(xa1,ya1)、(xa2,ya2)分别表示预测最大外接矩形框的左上、右下两个对角点坐标;(xb1,yb1)、(xb2,yb2)分别表示真实最大外接预矩形框的左上、右下两个对角点坐标;S表示预测最大外接矩形框面积,Sgt表示真实最大外接矩形框面积;Wg、Hg分别表示预测最大外接矩形框和真实最大外接矩形框有重叠区域时,该重叠矩形框的宽和高;x、y分别表示预测最大外接矩形框中心点的横坐标、纵坐标;xgt、ygt分别表示真实最大外接矩形框中心点的横坐标、纵坐标。
5.根据权利要求1所述的一种燃气入户作业行为识别方法,其特征在于:所述步骤2中,使用MoveNet模型对第一视角作业视频中的作业人员手部进行识别的步骤,包括:
使用训练好的MoveNet模型对第一视角作业视频中的作业人员手部进行识别,并标注出作业人员手部的最大外接矩形框,输出该最大外接矩形框在当前帧的坐标信息(cx`,cy`,w`,h`),其中(cx`,cy`)表示最大外接矩形框的中心点坐标,(w`,h`)表示最大外接矩形框的宽和高。
6.根据权利要求1所述的一种燃气入户作业行为识别方法,其特征在于:所述MoveNet模型的损失函数为:
其中,表示调节因子,用于降低易分类样本权重;/>表示可调节的聚焦参数,聚焦于困难样本的训练;/>为权重因子,用于协调类别不均衡。
7.根据权利要求1所述的一种燃气入户作业行为识别方法,其特征在于:所述步骤3具体包括以下步骤:选择作业仪器目标和作业人员手部的某个关键部位作为坐标原点(x0,y0),图像大小为(w0,h0),作业仪器目标和作业人员手部的中心坐标序列形成时序特征:
R={(x1`,y1`),(x2`,y2`),...,(xn`,yn`)}
其中,n表示n个时刻;(xn`,yn`)表示第n个时刻中心坐标(xn,yn)的相对坐标,(xn`,yn`)=
8.根据权利要求7所述的一种燃气入户作业行为识别方法,其特征在于:所述步骤4具体包括以下步骤:
对检测到的作业仪器目标和作业人员手部轨迹的相对坐标时间序列R={(x1`,y1`),(x2`,y2`),...,(xn`,yn`)}和规定作业行为轨迹的相对坐标时间序列D={(m1,c1),(m2,c2),...,(mn,cn)}进行斜率表示:
其中,R`为R的斜率表示序列,D`为D的斜率表示序列;ri为R`中第i个时刻的斜率,;(xi`,yi`)表示第i个时刻中心坐标(xi,yi)的相对坐标;di为D`中第i个时刻的斜率,/>,i=1,2,...,n;
对斜率表示的序列进行绝对距离计算:
其中,tn为结束时刻,ti-ti-1表示当前时间段的时长;
设定阈值T`,当时,判定作业人员为规范作业行为;否则,作业人员为不规范作业行为。
CN202310753998.1A 2023-06-26 2023-06-26 一种燃气入户作业行为识别方法 Active CN116503957B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310753998.1A CN116503957B (zh) 2023-06-26 2023-06-26 一种燃气入户作业行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310753998.1A CN116503957B (zh) 2023-06-26 2023-06-26 一种燃气入户作业行为识别方法

Publications (2)

Publication Number Publication Date
CN116503957A CN116503957A (zh) 2023-07-28
CN116503957B true CN116503957B (zh) 2023-09-15

Family

ID=87326970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310753998.1A Active CN116503957B (zh) 2023-06-26 2023-06-26 一种燃气入户作业行为识别方法

Country Status (1)

Country Link
CN (1) CN116503957B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197728B (zh) * 2023-11-07 2024-01-23 成都千嘉科技股份有限公司 通过可穿戴摄像设备进行实时燃气放散作业识别的方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276409A (zh) * 2019-06-27 2019-09-24 腾讯科技(深圳)有限公司 一种时间序列异常检测方法、装置、服务器和存储介质
CN111726586A (zh) * 2020-06-29 2020-09-29 上海药明生物技术有限公司 一种生产体系操作规范监测提醒系统
EP3739356A1 (en) * 2019-05-12 2020-11-18 Origin Wireless, Inc. Method, apparatus, and system for wireless tracking, scanning and monitoring
CN112491877A (zh) * 2020-11-26 2021-03-12 中孚安全技术有限公司 一种用户行为序列异常检测方法、终端及存储介质
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113435319A (zh) * 2021-06-25 2021-09-24 重庆邮电大学 一种联合多目标跟踪和行人角度识别的分类方法
EP3910437A1 (en) * 2020-05-12 2021-11-17 Kabushiki Kaisha Toshiba Monitoring apparatus, monitoring method, and computer-readable medium
CN113762685A (zh) * 2020-12-28 2021-12-07 京东城市(北京)数字科技有限公司 异常用户的检测方法、装置及电子设备
CN114997284A (zh) * 2022-05-19 2022-09-02 南京南瑞继保工程技术有限公司 水电站故障解列装置异常行为报警方法及系统
CN115661698A (zh) * 2022-08-31 2023-01-31 浙江大华技术股份有限公司 扶梯乘客异常行为检测方法、系统、电子设备及存储介质
CN115937975A (zh) * 2022-12-08 2023-04-07 哈尔滨工业大学(深圳) 一种基于多模态序列融合的动作识别方法及系统
CN116311361A (zh) * 2023-03-02 2023-06-23 北京化工大学 一种基于像素级标注的危险源室内工作人员定位方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3739356A1 (en) * 2019-05-12 2020-11-18 Origin Wireless, Inc. Method, apparatus, and system for wireless tracking, scanning and monitoring
CN110276409A (zh) * 2019-06-27 2019-09-24 腾讯科技(深圳)有限公司 一种时间序列异常检测方法、装置、服务器和存储介质
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
EP3910437A1 (en) * 2020-05-12 2021-11-17 Kabushiki Kaisha Toshiba Monitoring apparatus, monitoring method, and computer-readable medium
CN111726586A (zh) * 2020-06-29 2020-09-29 上海药明生物技术有限公司 一种生产体系操作规范监测提醒系统
CN112491877A (zh) * 2020-11-26 2021-03-12 中孚安全技术有限公司 一种用户行为序列异常检测方法、终端及存储介质
CN113762685A (zh) * 2020-12-28 2021-12-07 京东城市(北京)数字科技有限公司 异常用户的检测方法、装置及电子设备
CN113435319A (zh) * 2021-06-25 2021-09-24 重庆邮电大学 一种联合多目标跟踪和行人角度识别的分类方法
CN114997284A (zh) * 2022-05-19 2022-09-02 南京南瑞继保工程技术有限公司 水电站故障解列装置异常行为报警方法及系统
CN115661698A (zh) * 2022-08-31 2023-01-31 浙江大华技术股份有限公司 扶梯乘客异常行为检测方法、系统、电子设备及存储介质
CN115937975A (zh) * 2022-12-08 2023-04-07 哈尔滨工业大学(深圳) 一种基于多模态序列融合的动作识别方法及系统
CN116311361A (zh) * 2023-03-02 2023-06-23 北京化工大学 一种基于像素级标注的危险源室内工作人员定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TdmTracker: Multi-Object Tracker Guided by Trajectory Distribution Map;Yuxuan Gao 等;《electronics》;第11卷(第7期);1-17 *
基于时空注意力机制的群组行为识别方法研究;王传旭 等;《青岛科技大学学报(自然科学版)》;第44卷(第3期);118-126 *
基于深度学习的机动车典型交通安全违法行为识别研究;宋路浩;《中国 优秀硕士学位论文全文数据库工程科技Ⅰ辑》(第01期);B026-219 *
基于计算机视觉的物流仓储安全智能监控管理系统的研究;张鑫鑫;《中国优秀硕士学位论文全文数据库信息科技辑》(第07期);I136-354 *

Also Published As

Publication number Publication date
CN116503957A (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
Fang et al. Detecting non-hardhat-use by a deep learning method from far-field surveillance videos
CN111445524B (zh) 基于场景理解的施工现场工人不安全行为识别方法
CN108009515B (zh) 一种基于fcn的无人机航拍图像的输电线定位识别方法
CN110889339B (zh) 基于头肩检测的危险区域分级预警方法与系统
CN116503957B (zh) 一种燃气入户作业行为识别方法
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN108010025B (zh) 基于rcnn的屏柜的开关与指示灯定位和状态识别方法
CN113158752A (zh) 一种电力员工进场作业智能安全管控系统
CN114155601A (zh) 一种基于视觉的作业人员危险行为检测方法及系统
CN108564069A (zh) 一种工业佩戴安全帽视频检测方法
CN113076899B (zh) 一种基于目标跟踪算法的高压输电线路异物检测方法
CN116152863B (zh) 一种人员信息识别方法、装置、电子设备及存储介质
Mei et al. Human intrusion detection in static hazardous areas at construction sites: Deep learning–based method
CN111881970A (zh) 一种基于深度学习的外破图像智能识别方法
CN114842560B (zh) 基于计算机视觉的建筑工地人员危险行为识别方法
CN114373162B (zh) 用于变电站视频监控的危险区域人员入侵检测方法及系统
CN111062364A (zh) 一种基于深度学习的监测装配操作的方法和装置
CN110428579A (zh) 基于图像识别的室内监控系统、方法及装置
CN111967323A (zh) 一种基于深度学习算法的电力带电作业安全检测方法
CN113554682B (zh) 一种基于目标跟踪的安全帽检测方法
CN115761803A (zh) 一种电力作业区域外围行人安全预警方法
CN114529869A (zh) 违章动火检测模型的训练方法及利用该模型的检测方法
CN117291430B (zh) 一种基于机器视觉的安全生产检测方法及装置
CN117132942B (zh) 一种基于区域分割的室内人员实时分布监测方法
Yunefri et al. Implementation of Object Detection With You Only Look Once Algorithm in Limited Face-To-Face Times in Pandemic

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant