CN110796051A - 基于货柜场景下的实时存取行为检测方法和系统 - Google Patents

基于货柜场景下的实时存取行为检测方法和系统 Download PDF

Info

Publication number
CN110796051A
CN110796051A CN201910996476.8A CN201910996476A CN110796051A CN 110796051 A CN110796051 A CN 110796051A CN 201910996476 A CN201910996476 A CN 201910996476A CN 110796051 A CN110796051 A CN 110796051A
Authority
CN
China
Prior art keywords
hand
wrist
key points
key point
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910996476.8A
Other languages
English (en)
Other versions
CN110796051B (zh
Inventor
王素玉
郑光辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910996476.8A priority Critical patent/CN110796051B/zh
Publication of CN110796051A publication Critical patent/CN110796051A/zh
Application granted granted Critical
Publication of CN110796051B publication Critical patent/CN110796051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于货柜场景下的实时存取行为检测方法和系统,所述方法包括:采集俯视的手部视频图像,采用预设计的网络模型检测图像中的手腕关键点、手部掌心关键点;根据所述每一帧的手部关键点确定手部区域图像,采用预设的分类网络模型对手部区域有无物体进行分类识别;根据所述每一帧的手腕关键点来记录手部运动轨迹,通过运动轨迹来判断手部的运动方向;基于所述手部的运动方向和手部物体有无的分类识别信息,采用预设计的规则来对所述手部信息进行判别,输出存取行为检测的结果。本发明在实施上具有成本低、实时检测、高准确性、高鲁棒性等优点。

Description

基于货柜场景下的实时存取行为检测方法和系统
技术领域
本发明涉及深度学习中人体关键点识别技术领域、图像分类识别技术领域和一套行为检测规则方法和系统。
背景技术
目前,在视频行为理解的技术条件下,人体行为检测技术可用于货柜场景下存取行为检测技术方案主要如下几种:
(1)基于双流的方法,单帧RGB作为输入的CNN(卷积神经网络)来处理空间维度的信息,使用以多帧密度光流场作为输入的CNN来处理时间维度的信息,最后通过空间维度信息和光流信息来进行行为识别。
(2)基于C3D(三维卷积)的方法,采用3D卷积深度网络对整段视频进行时空建模,直接进行行为识别。
(3)基于CNN-LSTM(卷积神经网络-长短时记忆神经网络)的方法,使用CNN提取视频中每帧的特征信息,将每帧的特征信息使用LSTM进行处理,最终识别出行为。
(4)基于目标检测-跟踪-识别方法,使用目标检测来对每一帧中的ROI进行跟踪,然后对检测到的动作进行行为识别。
(5)基于关键点技术的LSTM或者GCN(图卷积神经网络)方法,使用关键点检测网络提取关键点坐标,然后使用LSTM或者GCN对关键点坐标进行时空建模,最终检测出行为。
但是,现有的人体动作识别技术,存在着以下的缺点:
(1)以上所述的(1)、(2)、(3)、(4)的方法虽然在不同程度上提高了人体行为检测/识别的准确率,但由于算法时空复杂度高,所以很难达到实时检测,货柜场景下需要检测人的存取行为需要一定的实时性。
(2)以上所述的方法(5)在实时性和准确性方面都有很好的提升,但是有俯视场景下并不能完整的检测人体的所有关节点,能够鲁棒检测的只有手腕关键点和手掌关键点,而(5)通常需要较多的关键点来,所以在应用上存在一定的困难。
(3)以上所述的算法模型相对复杂,在普通PC设备上部署困难。
发明内容
本发明提供一种可以在货柜平台俯视角度的场景下检测人体存取行为的方法和系统,该方法具有成本低、高鲁棒、高实时等优点,很容易部署到PC设备中。
本发明使用关键点检测网络、手部物体有无分类网络。关键点检测网络接收视频图像,检测手掌关键点和手腕关键点信息。分类网络接收手部ROI区域(感兴趣区域Regionof Interesting),检测手部物体有无信息。使用存取行为规则接收两个网络输出的信息来进行判别手部行为。
为实现上述目的,本发明提供一种实时的存取行为方法,所述实时的存取行为方法包括以下步骤:
获取采集的人体视频图像,逐帧送入预设的手部关键点检测网络中,得到手腕关键点、手部掌心关键点;
记录手腕关键点的轨迹信息,每一帧的关键点与起始的关键点可以推理手部的运动信息;
手腕关键点和手掌关键点可以推测手部ROI区域,然后将手部ROI区域送入预设的分类模型,执行手部是否有无物体的二分类;
利用手部运动信息和手部物体有无分类信息按照预设的规则进行存取行为的判别。
与现有技术相比较,本发明具有如下技术效果。
可以从技术原理和本方法实施的角度考虑下,本发明的技术特色以及技术优势所在之处。
1.本发明的算法时间复杂度和空间复杂很低,可以做到实时检测。
2.本发明具有较高的鲁棒性,能够很好适应货柜场景。
3.本发明仅仅依赖手部信息就可以取得很好的检测结果。
4.本发明可以很方便的在本地PC机上部署,不需要高性能服务器。
附图说明
图1是本发明人货柜场景下存取行为识别方法的流程示意图;
图2是本发明人预测手部关键点的流程示意图;
图3是本发明人预测手部运动信息的流程示意图;
图4是本发明人预测手部物体有无信息的流程示意图;
具体实施方式
应当理解,此处所描述的具体实例仅仅用以解释本发明,并不用于限定本发明。本发明经过了算法验证,基于货柜场景下的实时存取行为检测系统包括:GPU、CPU、内存卡、RGB广角摄像头和显示屏。GPU为英伟达GTX1050Ti,CPU为英特尔第8代酷睿i5;
实施过程:RGB广角摄像头部署在货柜正上方,确保能够拍到进入货柜的人手。RGB广角摄像头与PC机相连,PC机通过RGB广角摄像头逐帧采集图像,采集图像后送入内存卡,之后通过PC机的GPU和CPU系统执行整个算法流程,存取结果将显示在显示屏上。采集图像、图像处理、逻辑运算等计算需要CPU进行处理,神经网络的计算需要使用GPU。
算法框架参考如下:
请参照图1,图1是本发明提出的基于货柜场景下的存取行为检测实例的流程示意图。
如图1所示,本发明实施里提出一种基于货柜场景下的存取行为检测方法,所述的人体行为检测总体上包括以下步骤:
步骤S1,在线获取人体视频图像,对所述的手部视频图像使用关键点检测的网络进行特征提取,获得手腕关键点,手部掌心关键点。
步骤S2,记录并且分析手腕关键点运动信息;
步骤S3,将手部ROI送入到分类模型中,识别手部物体有无。
步骤S4,使用规则对手部关键点运动信息和手部物体有无进行行为检测。
具体的算法参考如下:
步骤S1具体算法如图2所示,使用DHRnet-Lite网络对视频图像逐帧检测,得到手腕关键点概率图、手掌心关键点概率图,计算关键点概率图中的最大概率点的坐标,然后这个最大概率值与设置的阈值α(α>0.5)作比较,若这个概率值超过阈值α,则取得该点的坐标有效,否则丢弃这个预测,视为没有预测到相应的坐标。有效的手腕关键点和手掌关键点会存入到一个先进先出的队列Q中,队列为有限长,根据实际场景设置合适的长度。
其中,关键点的检测模块的基础网络参考DHRnet,针对原始冗余的DHRnet网络进行减枝,分别从原始网络的分支数量、通道宽度、网络深度进行裁剪,构成轻量版本的DHRnet-Lite。根据需要求解的关键点来对DHRnet-Lite网络进行有监督的训练,得到DHRnet-Lite网络模型。
步骤S2具体算法如图3所示,得到手腕关键点坐标后,计算关键点的运动信息,求解手部的伸缩信息。首先从队列Q中连续取出两个时间点的手腕关键点坐标,先取出来的为当前帧的关键点坐标,后取出来的为前一帧的关键点坐标,计算运动方向时我们仅仅使用手腕关键点信息,然后计算前一帧的关键点和当前关键点的关键点之间的矢量,假设前一帧手腕关键点的坐标为p1=(x1,y1),x1表示手腕关键点在图像中的横坐标,y1表示手腕关键点在图像中的纵坐标,在图像当前帧手腕关键点的坐标p2=(x2,y2),x2表示手腕关键点在图像中的横坐标,y2表示手腕关键点在图像中的纵坐标,则瞬时运动矢量为s=(x2-x1,y2-y1)=(x3,y3),而s的大小就是手在前后两帧的位移距离为 若L>β,β是根据具体场景所设计的运动矢量大小阈值,则认为前后两帧手腕发生了一次有效的运动,否则,认为前后两帧手腕发生了一次抖动,需要丢弃该结果并且重新执行S2。假定纵方向单位向量为p3=(0,1),则运动方向与纵方向的夹角为θ=cos(s,p3)=(s*p3)/(|s|*|p3|),若45°<θ<135°,则判定当前的手部运动方向为伸展,若-135°<θ<-45°,则可判定当前手部运动方向为缩回,若θ为其他角度则可以判别为犹豫状态不做任何预测,丢弃该结果并且重新执行S2。同时保存有效的手腕关键点H1,和手掌关键点H2。
步骤S3具体算法如图4所示,得到手部关键点信息后,计算手部ROI区域,求解手部物体有无信息。首先从步骤S2得到对应的手腕关键点H1和手掌关键点H2,根据检测到的掌心关键点坐标和手腕关键点坐标计算ROI区域,所述的ROI区域为正方形区域,使用手掌关键点作为ROI区域的形心,使用手掌到手腕的距离的2倍作为ROI区域的边长,其中ROI区域的下边与图像的下边保持平行。在得到ROI区域后,将ROI区域使用线性变换映射到预设的图像尺寸(根据实际场景定制图像尺寸),使用Resnet6网络进行分类,识别手部物体有无。
其中,分类模块参考Resent网络,堆叠6个Residual Block,最后全连接层作为预测层,得到Resnet6网络,预测手部物体有无两种信息。使用固定尺寸大小的图像对Resnet6网络进行有监督的训练。
步骤S4具体算法规则,根据手部物体有无信息和手部运动信息来判别手部行为信息。手缩回时,若手中有物体,则判定为存物体。手伸展时,若手中有物体,则判定为取物体。

Claims (8)

1.基于货柜场景下的实时存取行为检测系统,其特征在于:包括GPU、CPU、内存卡、RGB广角摄像头和显示屏;
RGB广角摄像头部署在货柜正上方,确保能够拍到进入货柜的人手;RGB广角摄像头与PC机相连,PC机通过RGB广角摄像头逐帧采集图像,采集图像后送入内存卡,之后通过PC机的GPU和CPU系统执行整个算法流程,存取结果将显示在显示屏上;采集图像、图像处理、逻辑运算等计算需要CPU进行处理,神经网络的计算需要使用GPU。
2.利用权利要求1所述系统进行的基于货柜场景下的实时存取行为检测方法,其特征在于:所述方法包括以下步骤,
步骤S1,在线获取人体视频图像,对所述的手部视频图像使用关键点检测的网络进行特征提取,获得手腕关键点,手部掌心关键点;
步骤S2,记录分析手腕关键点运动信息;
步骤S3,将手部ROI送入到分类模型中,识别手部物体有无;
步骤S4,使用规则对手部关键点运动信息和手部物体有无进行行为检测。
3.根据权利要求2所述的基于货柜场景下的实时存取行为检测方法,其特征在于:
步骤S1中,使用DHRnet-Lite网络对视频图像逐帧检测,得到手腕关键点概率图、手掌心关键点概率图,计算手腕关键点概率图中的最大概率点的坐标,然后这个最大概率值与设置的阈值α(α>0.5)作比较,若这个概率值超过阈值α,则取得该点的坐标有效,否则丢弃这个预测,视为没有预测到相应的坐标;有效的手腕关键点和手掌关键点会存入到一个先进先出的队列Q中,队列为有限长,根据实际场景设置合适的长度。
4.根据权利要求3所述的基于货柜场景下的实时存取行为检测方法,其特征在于:关键点的检测模块的基础网络参考DHRnet,针对原始冗余的DHRnet网络进行减枝,分别从原始网络的分支数量、通道宽度、网络深度进行裁剪,构成轻量版本的DHRnet-Lite;根据需要求解的关键点来对DHRnet-Lite网络进行有监督的训练,得到DHRnet-Lite网络模型。
5.根据权利要求2所述的基于货柜场景下的实时存取行为检测方法,其特征在于:得到手腕关键点坐标后,计算关键点的运动信息,求解手部的伸缩信息;首先从队列Q中连续取出两个时间点的手腕关键点坐标,先取出来的为当前帧的关键点坐标,后取出来的为前一帧的关键点坐标,计算运动方向时我们仅仅使用手腕关键点信息,然后计算前一帧的关键点和当前关键点的关键点之间的矢量,假设前一帧手腕关键点的坐标为p1=(x1,y1),x1表示手腕关键点在图像中的横坐标,y1表示手腕关键点在图像中的纵坐标,在图像当前帧手腕关键点的坐标p2=(x2,y2),x2表示手腕关键点在图像中的横坐标,y2表示手腕关键点在图像中的纵坐标,则瞬时运动矢量为s=(x2-x1,y2-y1)=(x3,y3),而s的大小就是手在前后两帧的位移距离为
Figure FDA0002239868110000021
若L>β,β是根据具体场景所设计的运动矢量大小阈值,则认为前后两帧手腕发生了一次有效的运动,否则,认为前后两帧手腕发生了一次抖动,需要丢弃该结果并且重新执行S2;假定纵方向单位向量为p3=(0,1),则运动方向与纵方向的夹角为θ=cos(s,p3)=(s*p3)/(|s|*|p3|),若45°<θ<135°,则判定当前的手部运动方向为伸展,若-135°<θ<-45°,则可判定当前手部运动方向为缩回,若θ为其他角度则可以判别为犹豫状态不做任何预测,丢弃该结果并且重新执行S2;同时保存有效的手腕关键点H1,和手掌关键点H2。
6.根据权利要求2所述的基于货柜场景下的实时存取行为检测方法,其特征在于:得到手部关键点信息后,计算手部ROI区域,求解手部物体有无信息;首先从步骤S2得到对应的手腕关键点H1和手掌关键点H2,根据检测到的手掌关键点坐标和手腕关键点坐标计算ROI区域,所述的ROI区域为正方形区域,使用掌心关键点作为ROI区域的形心,使用掌心到手腕的距离的2倍作为ROI区域的边长,其中ROI区域的下边与图像的下边保持平行;在得到ROI区域后,将ROI区域使用线性变换映射到预设的图像尺寸,使用Resnet6网络进行分类,识别手部物体有无。
7.根据权利要求6所述的基于货柜场景下的实时存取行为检测方法,其特征在于:分类模块参考Resent网络,堆叠6个Residual Block,最后全连接层作为预测层,得到Resnet6网络,预测手部物体有无两种信息;使用固定尺寸大小的图像对Resnet6网络进行有监督的训练。
8.根据权利要求7所述的基于货柜场景下的实时存取行为检测方法,其特征在于:根据手部物体有无信息和手部运动信息来判别手部行为信息;手缩回时,若手中有物体,则判定为存物体;手伸展时,若手中有物体,则判定为取物体。
CN201910996476.8A 2019-10-19 2019-10-19 基于货柜场景下的实时存取行为检测方法和系统 Active CN110796051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910996476.8A CN110796051B (zh) 2019-10-19 2019-10-19 基于货柜场景下的实时存取行为检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910996476.8A CN110796051B (zh) 2019-10-19 2019-10-19 基于货柜场景下的实时存取行为检测方法和系统

Publications (2)

Publication Number Publication Date
CN110796051A true CN110796051A (zh) 2020-02-14
CN110796051B CN110796051B (zh) 2024-04-26

Family

ID=69439403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910996476.8A Active CN110796051B (zh) 2019-10-19 2019-10-19 基于货柜场景下的实时存取行为检测方法和系统

Country Status (1)

Country Link
CN (1) CN110796051B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339883A (zh) * 2020-02-19 2020-06-26 国网浙江省电力有限公司 复杂场景下基于人工智能的变电站内异常行为识别与检测方法
CN112132020A (zh) * 2020-09-22 2020-12-25 深兰科技(上海)有限公司 手部紧握判断方法和装置
CN112633207A (zh) * 2020-12-29 2021-04-09 杭州拓深科技有限公司 一种基于智能算法的消防通道阻塞视频识别方法
CN112750222A (zh) * 2020-12-29 2021-05-04 杭州拓深科技有限公司 一种基于智能算法的消防值班室人员在岗识别方法
CN112016528B (zh) * 2020-10-20 2021-07-20 成都睿沿科技有限公司 行为识别方法、装置、电子设备及可读存储介质
CN113468926A (zh) * 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 一种取放行为的识别方法、装置及电子设备
CN113947770A (zh) * 2021-12-13 2022-01-18 广州微林软件有限公司 一种识别物体放置于智能箱柜不同区域的方法
CN115564358A (zh) * 2022-11-17 2023-01-03 华清科盛(北京)信息技术有限公司 基于启发式算法用于生产线输送原料的排柜方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427942A (zh) * 2018-04-22 2018-08-21 广州麦仑信息科技有限公司 一种基于深度学习的手掌检测与关键点定位方法
CN109447619A (zh) * 2018-09-20 2019-03-08 华侨大学 基于开放环境的无人结算方法、装置、设备和系统
CN109558775A (zh) * 2017-09-27 2019-04-02 九阳股份有限公司 一种冰箱食材管理方法
CN109840504A (zh) * 2019-02-01 2019-06-04 腾讯科技(深圳)有限公司 物品取放行为识别方法、装置、存储介质及设备
CN109977896A (zh) * 2019-04-03 2019-07-05 上海海事大学 一种超市智能售货系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558775A (zh) * 2017-09-27 2019-04-02 九阳股份有限公司 一种冰箱食材管理方法
CN108427942A (zh) * 2018-04-22 2018-08-21 广州麦仑信息科技有限公司 一种基于深度学习的手掌检测与关键点定位方法
CN109447619A (zh) * 2018-09-20 2019-03-08 华侨大学 基于开放环境的无人结算方法、装置、设备和系统
CN109840504A (zh) * 2019-02-01 2019-06-04 腾讯科技(深圳)有限公司 物品取放行为识别方法、装置、存储介质及设备
CN109977896A (zh) * 2019-04-03 2019-07-05 上海海事大学 一种超市智能售货系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JOUNGHOON BEH 等: "Rule-based trajectory segmentation for modeling hand motion trajectory", 《PATTERN RECOGNITION》, 25 November 2013 (2013-11-25) *
毛礼建;盛庆华;李竹;谢军;: "基于历史运动轨迹的自适应手势识别算法", 杭州电子科技大学学报(自然科学版), no. 05, 15 September 2017 (2017-09-15) *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339883A (zh) * 2020-02-19 2020-06-26 国网浙江省电力有限公司 复杂场景下基于人工智能的变电站内异常行为识别与检测方法
CN113468926A (zh) * 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 一种取放行为的识别方法、装置及电子设备
WO2021197195A1 (zh) * 2020-03-31 2021-10-07 阿里巴巴集团控股有限公司 一种取放行为的识别方法、装置及电子设备
CN112132020A (zh) * 2020-09-22 2020-12-25 深兰科技(上海)有限公司 手部紧握判断方法和装置
CN112016528B (zh) * 2020-10-20 2021-07-20 成都睿沿科技有限公司 行为识别方法、装置、电子设备及可读存储介质
CN112633207A (zh) * 2020-12-29 2021-04-09 杭州拓深科技有限公司 一种基于智能算法的消防通道阻塞视频识别方法
CN112750222A (zh) * 2020-12-29 2021-05-04 杭州拓深科技有限公司 一种基于智能算法的消防值班室人员在岗识别方法
CN113947770A (zh) * 2021-12-13 2022-01-18 广州微林软件有限公司 一种识别物体放置于智能箱柜不同区域的方法
CN113947770B (zh) * 2021-12-13 2022-03-08 广州微林软件有限公司 一种识别物体放置于智能箱柜不同区域的方法
CN115564358A (zh) * 2022-11-17 2023-01-03 华清科盛(北京)信息技术有限公司 基于启发式算法用于生产线输送原料的排柜方法和系统
CN115564358B (zh) * 2022-11-17 2023-03-31 华清科盛(北京)信息技术有限公司 基于启发式算法用于生产线输送原料的排柜方法和系统

Also Published As

Publication number Publication date
CN110796051B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN110796051B (zh) 基于货柜场景下的实时存取行为检测方法和系统
Lu et al. A real-time object detection algorithm for video
WO2021042547A1 (zh) 行为识别方法、装置及计算机可读存储介质
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
CN112597941B (zh) 一种人脸识别方法、装置及电子设备
WO2016183766A1 (en) Method and apparatus for generating predictive models
US10242294B2 (en) Target object classification using three-dimensional geometric filtering
CN112530019B (zh) 三维人体重建方法、装置、计算机设备和存储介质
CN114220176A (zh) 一种基于深度学习的人体行为的识别方法
US20160078287A1 (en) Method and system of temporal segmentation for gesture analysis
CN112464807A (zh) 视频动作识别方法、装置、电子设备和存储介质
CN110705463A (zh) 基于多模态双流3d网络的视频人体行为识别方法及系统
Slama et al. Grassmannian representation of motion depth for 3D human gesture and action recognition
CN109711344B (zh) 一种前端智能化的特定异常行为检测方法
CN112115775A (zh) 一种基于计算机视觉的监控场景下的吸烟行为检测方法
Lee et al. 3-D human behavior understanding using generalized TS-LSTM networks
WO2022156317A1 (zh) 视频帧处理方法及装置、电子设备和存储介质
CN114241379A (zh) 一种乘客异常行为识别方法、装置、设备及乘客监控系统
CN112487844A (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
Zhou et al. A study on attention-based LSTM for abnormal behavior recognition with variable pooling
CN106778576B (zh) 一种基于sehm特征图序列的动作识别方法
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
Delibasoglu et al. Motion detection in moving camera videos using background modeling and FlowNet
Mucha et al. Depth and thermal images in face detection-a detailed comparison between image modalities
CN113792700B (zh) 一种电瓶车入箱检测方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant