CN112001347B - 一种基于人体骨架形态与检测目标的动作识别方法 - Google Patents

一种基于人体骨架形态与检测目标的动作识别方法 Download PDF

Info

Publication number
CN112001347B
CN112001347B CN202010894682.0A CN202010894682A CN112001347B CN 112001347 B CN112001347 B CN 112001347B CN 202010894682 A CN202010894682 A CN 202010894682A CN 112001347 B CN112001347 B CN 112001347B
Authority
CN
China
Prior art keywords
information
action
model
human skeleton
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010894682.0A
Other languages
English (en)
Other versions
CN112001347A (zh
Inventor
易军
庞一然
汪彦
宋光磊
郭鑫
周伟
黄麟
王波
刘玉成
袁余民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN202010894682.0A priority Critical patent/CN112001347B/zh
Publication of CN112001347A publication Critical patent/CN112001347A/zh
Application granted granted Critical
Publication of CN112001347B publication Critical patent/CN112001347B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供了一种基于人体骨架形态与目标检测技术结合的动作识别办法,首先对监控区域的视频流进行初步的预处理,将视频流的帧数、码率、分辨率进行调整;然后利用YOLOv4模型对行人和物品种类进行检测,将检测到的物品种类和行人的位置信息记录保存,接着使用OpenPose提取人体骨架信息,后将人体骨架信息根据所需检测动作制作成正负样本数据集并训练动作分类器模型;分类器输出的动作信息和物品信息进行关联度匹配后输出最终的动作置信度。将模型运用于监控视频流中,当检测到设定动作时,发送动作信息和行人坐标信息至后台管理处,从而提高监控的智能化水平。

Description

一种基于人体骨架形态与检测目标的动作识别方法
技术领域
本发明涉及属于计算机智能学习领域,具体地说,涉及一种基于 OpenPose和YOLOv4结合地人体动作识别方法。
背景技术
通过人工智能地方法来检测人们正在干的事或者检测人们的动 作含义是近年来的热点话题。在计算机智能学习领域中,通过人体姿 态来识别人体动作是目前的主流方法。人体姿态算法中CPN(Cascaded PyramidNetwork)检测速度过慢,实际运用中有滞后性,poseNet虽 然检测速度快但是准确率较低,只有OpenPose是速度与准确率二者兼得,所以本发明基于OpenPose来做人体的动作识别。
目前基于人体姿态识别动作的技术有很多,通过OpenPose将人 体骨架信息提取后用于动作识别模型是较为常见的一种方法, OpenPose不需要太高大上的硬件来支撑,相对于深度体感相机,如 Kinect有着较大的普适性。更容易受到更多人的使用,只需要简单的具有摄像功能的机器都可以运用到OpenPose。但是如今的视频流 大多是不是从理想角度拍摄得到,有时人体会太小或者角度不正而导 致精度的下降和误报率上升。单纯基于OpenPose的动作识别技术, 例如一种基于OpenPose的吃东西行为识别方法CN201911150648.6, 基于OpenPose的击剑动作获取方法及计算机存储介质CN201810338998.4等,上述两篇专利都是基于只基于OpenPose来提 取信息就完成了动作识别的模型训练,一方面采集动作姿态训练样本 要求过大,执行层面较为困难,另一方面在不同的运用环境模型的检测精度会有所下降,难以广泛运用。
因此一个可在多数场景可以被运用到的人体动作识别方法是非 常有市场且有必要的。本专利在不同的角度下都可以利用环境中的物 品信息和人体信息的双重检测来对人体动作进行更精确的识别,在提 高了检测的精度的同时,对检测端的硬件资源要求也不高,可运用范 围较广。
发明内容
本发明基于目前动作识别模型大多都是单调的OpenPose或者价 格高昂的深度学习相机并且还存在精确度不够等问题,提供了一种基 于人体骨架形态与目标检测技术结合的动作识别办法,在基于 OpenPose提取到人体骨架特征信息后,再加入YOLOv4的目标检测技 术,二者相互结合,不需要高昂的硬件设备也可以提高检测精度。
本发明具体内容如下:一种基于人体骨架形态与检测目标的动作 识别方法,包括了视频流的预处理、行人和物品检测、骨架信息提取 及其模型训练、置信度判断和决策警告五个步骤:
步骤S1:构建图像采集模块采集需监控区域的视频流,并进行 视频流预处理;
步骤S2:利用YOLOv4模型检测出监控区域视频流内的行人和物 体种类,并记录物体种类名称;
步骤S3:通过OpenPose将视频流内识别到的人体目标图像进行 人体骨架特征提取、正负样本制作和训练动作分类器模型;
步骤S4:训练好的动作分类器模型对视频流内的人体动作进行 初步识别,YOLOv4识别到的物体和所识别动作进行匹配,根据二者 的匹配相关度调整动作的置信度。
步骤S5:决策警告,当检测到所需检测动作时,将信息发送至 后台管理;
为了更好的实现本发明,进一步的,所述步骤S1,具体还包括 以下步骤:
步骤S1.1:为了满足动作检测的准确性和实时性,视频流的好坏 是第一步也是十分重要的一步,本发明需要用到YOLOv4和OpenPose 两个模型,这两个模型对视频流的要求都不低,所以需要将视频流进行统一的设定。本发明将视频流按照图1视频质量和码率、分辨率的 关系设定,将常见的几种分辨率做了如下设定:1920x1080分辨率的 序列需要约7000kbps的码率,640x480分辨率的序列需要约1900kbps 的码率,352x288分辨率的序列需要约800kbps的码率。
为了更好的实现本发明,进一步的,所述步骤S2,具体还包括 以下步骤:
步骤S2.1:物体数据集的建立:对需检测动作中所包含除人体 以外的物体数据集进行收集分类。如:将需识别的动作设为M,则和 动作M相关的物品设为M1、M2依次排列,可以从多种不同视频或图 片中收集物品M1、M2的信息,并将其制作成标准VOC数据集。
步骤S2.2:将上述步骤S2.1中制作好的物品VOC数据集输入到 标准的YOLOv4模型中进行训练。
在本专利使用的模型YOLOv4模型中,拥个卷积层个全连接层, 运用了卷积的级联结构,网络的输入层设计为448*448,卷积级联结 构用于图像的特征提取,全连接层用于预测类概率和边框。其中逻辑回归的代价函数为:
其中hθ是sigmoid函数,作为激活函数在网络中。当物品检测的 准确率达到95%以上时,模型训练完毕,随即可以用于检测视频流中 的物品和行人信息并记录下来。
步骤S2.3:利用上述步骤S2.2训练好的YOLOv4模型对传入的 视频流进行检测,当检测到动作包含物体M1、M2时,将物体名称纪 录。
为了更好的实现本发明,进一步的,所述步骤S3,具体还包括 以下步骤:
步骤S3.1:收集所需检测动作的正负样本数据集,并用OpenPose 将正负样本数据集的骨架特征信息提取出来。在本专利中,骨架特征 通过前馈网络预测出图片中人体部位置信度S,同时预测出部位的亲 和力向量场L(人体骨骼各个关节的关系),集合S=(S1,S2,SJ)J 表示每个骨骼关节点有J个身体部位置信图。集合L(L1,L2,LC)每 个肢体有C个部位亲和力向量场。得到集合J和L后使用Greedy algorithm算法将人体骨骼关节点信息找出。在Greedy algorithm 算法将人体关节部位找出之后需要记录这些关节的信息,并将重复此 步骤湖,获取大量的信息以作为训练数据集。
步骤S3.2:使用步骤S3.1中制作的正负样本数据集训练基于 ResNet-56动作分类器模型。
步骤S3.3:利用训练好的动作识别分类模型对视频流进行检测。 当识别到有所需检测动作的时候,将动作名称记录下来,并将 ResNet-56动作分类器模型给出的动作置信度记录,设为X1。其中, ResNet-56的卷积层采用3*3的卷积核,步幅为2完成下采样。
为了更好的实现本发明,进一步的,所述步骤S4,具体还包括 以下步骤:
步骤S4.1:将步骤S3.3所记录的动作信息和步骤S2.3记录物 品信息进行关联度匹配,得到物品权重Wj最终输出的动作置信度为:其中x(i)是OpenPose输出的动作置信度,Oj是YOLOv4检测出的第j个物体,wj (i)是物品j所对应的权重。
步骤S4.2:当步骤S3.3检测处动作后,将X(i)传入所述步骤S4.1 的公式中,输出最终的动作识别置信度。
为了更好的实现本发明,进一步的,所述步骤S5,具体还包括 以下步骤:
步骤S5.1:设定一个置信度X和时间T为报警阈值,当步骤S4.2 输出的所识别动作置信度X达到阈值后,开始计时,如果连续时间超 过设定时间T,则将当前帧前后10帧图片进行保存。
本发明与现有技术相比有以下有点和有益效果:
1):对检测端和数据采集端的硬件要求不高;
2):可适应不同视频流大小并调整至最契合模型的视频码率;
3):检测精度相对单调的OpenPose动作识别模型有所提高。
附图说明
图1为识别动作的整体流程图;
图2检测和所需识别动作相关物品的流程;
图3为OpenPose提取人体骨架信息流程
图4为基于OpenPose的动作识别流程图;
具体实施方式:
为了更清楚地说明本发明实施例的技术方案,下面将结合本发明 实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描 述,应当理解,所描述的实施例仅仅是本发明的一部分实施例,而不是 全部的实施例,因此不应被看作是对保护范围的限定。基于本发明中 的实施例,本领域普通技术工作人员在没有做出创造性劳动前提下所 获得的所有其他实施例,都属于本发明保护的范围。
实施例1:(以识别人在玩手机为例)
一种基于人体骨架形态与检测目标的动作识别方法,结合图1, 图2,图3,图4所示,包括了视频的预处理、行人和物品检测、骨 架信息提取及其模型训练和决策警告4个步骤:
步骤S1:将视频流按照图1视频质量和码率、分辨率的关系设 定,将常见的几种分辨率做了如下设定:1920x1080分辨率的序列需 要约7000kbps的码率,640x480分辨率的序列需要约1900kbps的码 率,352x288分辨率的序列需要约800kbps的码率。
步骤S2:对手机的各种不同远近角度和多种手机型号的图片收 集、同时联想到玩手机可能会戴上耳机,也对耳机的图像进行收集。 将手机和耳机分别设定为数据集M1和M2,后将其分别制作成标准的 VOC数据集。而后用制作好的数据集训练最新的YOLOv4模型,当模 型可以对手机和耳机的识别率达到95%的时候结束训练。
步骤S3:对人在玩手机的图片、视频进行收集并作为正样本, 相应的收集人没有玩手机的负样本。当样本收集完成后利用OpenPose 将正负样本数据集的骨架特征信息提取出来。如图4所示,输入一幅 数据集中的图像,经过卷积网络提取特征,得到一组特征图,然后分 成两个岔路,分别使用CNN网络提取Part Confidence Maps和Part AffinityFields;得到这两个信息后,使用Bipartite Matching(偶匹配)求出Part Association,将同一个人的关节点连接起来, 由于PAF自身的矢量性,使得生成的偶匹配很正确,最终合并为一个 人的整体骨架,并得到人体骨架信息,整理成得到人体骨架信息数据集,将其传入ResNet-56模型中训练,当检测到人体在玩手机的准确 率到达较好程度之后训练结束;
步骤S4:将步骤S2和S3中训练好的模型一起用于需要监测的 视频中,当模型S3检测到视频中人玩手机但S2模型没有没有检测到 手机和耳机则直接输出S3的玩手机置信度,若S2检测到手机和耳机 且S3检测到人体玩手机则最终输出该动作的置信度为其中x(i)是OpenPose输出的玩手机置信度, Oj是YOLOv4检测出和玩手机相关的第j个物体,wj (i)是物品j所对 应的权重。
以本案例来看,若单独使用OpenPose来判断人体是否在玩手机 有可能会出现一定的误差,检测效果可能不太明显,当加入了相关物 品检测之后可以增加动作识别的准确率,在特定的场合,该检测方法 更加的精确、减少误报率。

Claims (2)

1.一种基于人体骨架形态与目标检测的动作识别方法,其特征在于,包括:
步骤S1:构建图像采集模块采集需监控区域的视频流,并进行视频流预处理,将视频流的比特率和帧率调整为契合所选深度学习模型的帧率,将分辨率做了如下设定:1920x1080分辨率的序列需要7000kbps的码率,640x480分辨率的序列需要1900kbps的码率,352x288分辨率的序列需要800kbps的码率;
步骤S2:利用YOLOv4模型检测出监控区域视频流内的行人和物体种类,并记录物体种类名称,具体步骤如下:
S2.1:物体数据集的建立:对需检测动作中所包含除人体以外的物体数据集进行收集分类;设定动作设为M,则和动作M相关的物体设为Oi M依次排列,并将物体信息将其制作成标准VOC数据集;
S2.2:将上述步骤S2.1中制作好的物体VOC数据集输入到标准的YOLOv4模型中进行训练;YOLOv4模型中,运用了卷积的级联结构,网络的输入层设计为448*448;在神经网络中逻辑回归的代价函数为:
其中hθ是sigmoid函数,作为激活函数在网络中;当物体检测的准确率达到95%以上时,模型训练完毕;
S2.3:使用上述步骤S2.2训练好的YOLOv4模型对传入的视频流进行检测,当检测到步骤S2.1中物体时,将物体信息保存记录;
步骤S3:通过OpenPose将视频流内识别到的人体目标图像进行人体骨架特征提取、正负样本制作和训练动作分类器模型;
步骤S4:训练好的动作分类器模型对视频流内的人体动作进行检测,当识别到有设定检测动作的时候,将设定动作信息M、动作置信度x(i)保存记录,并与步骤S2.3记录的物体信息进行关联度匹配,得到物体权重Wj,最终输出的动作置信度为:其中x(i)是OpenPose输出的动作置信度,Oj是步骤S2.3里YOLOv4检测出的第j个物体,wj (i)是物体j所对应的权重;
步骤S5:决策警告,当检测到所需检测动作时,将信息发送至后台管理。
2.根据权利要求1所述的一种基于人体骨架形态与目标检测的动作识别方法,其主要特征在于步骤S3所述的人体骨架特征提取、正负样本制作和训练动作分类器模型方法,其具体步骤如下:
步骤S3.1:收集所需检测动作的正负样本数据集,并用OpenPose将正负样本数据集的骨架特征信息提取出来;骨架特征通过前馈网络预测出图片中人体部位置信度S,同时预测出部位的亲和力向量场L(人体骨骼各个关节的关系),集合S=(S1,S2,SJ)J表示每个骨骼关节点有J个身体部位置信图;集合L(L1,L2,LC)每个肢体有C个部位亲和力向量场,得到集合J和L后使用Greedyalgorithm算法将人体骨骼关节点信息找出;
步骤S3.2:使用步骤S3.1中制作的人体骨架特征数据集训练基于卷积神经网络的ResNet-56动作分类器模型,当正确识别率达到90%以上时,训练结束。
CN202010894682.0A 2020-08-31 2020-08-31 一种基于人体骨架形态与检测目标的动作识别方法 Active CN112001347B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010894682.0A CN112001347B (zh) 2020-08-31 2020-08-31 一种基于人体骨架形态与检测目标的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010894682.0A CN112001347B (zh) 2020-08-31 2020-08-31 一种基于人体骨架形态与检测目标的动作识别方法

Publications (2)

Publication Number Publication Date
CN112001347A CN112001347A (zh) 2020-11-27
CN112001347B true CN112001347B (zh) 2023-07-21

Family

ID=73465485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010894682.0A Active CN112001347B (zh) 2020-08-31 2020-08-31 一种基于人体骨架形态与检测目标的动作识别方法

Country Status (1)

Country Link
CN (1) CN112001347B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560618B (zh) * 2020-12-06 2022-09-16 复旦大学 基于骨架和视频特征融合的行为分类方法
CN113076683B (zh) * 2020-12-08 2023-08-08 国网辽宁省电力有限公司锦州供电公司 用于变电站行为监测的卷积神经网络模型的建模方法
CN112381068B (zh) * 2020-12-25 2022-05-31 四川长虹电器股份有限公司 一种检测人“玩手机”的方法及系统
CN112966563B (zh) * 2021-02-04 2022-09-20 同济大学 一种基于人体骨骼检测和跟踪算法的行为识别方法
CN113191228A (zh) * 2021-04-20 2021-07-30 上海东普信息科技有限公司 快件抛投的识别方法、装置、设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2704060A2 (en) * 2012-09-03 2014-03-05 Vision Semantics Limited Crowd density estimation
CN109508661A (zh) * 2018-10-31 2019-03-22 上海交通大学 一种基于物体检测和姿态估计的举手者检测方法
CN109902628A (zh) * 2019-02-28 2019-06-18 广州大学 一种基于视觉物联网的图书馆座位管理系统
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN110490109A (zh) * 2019-08-09 2019-11-22 郑州大学 一种基于单目视觉的在线人体康复动作识别方法
WO2020023930A1 (en) * 2018-07-26 2020-01-30 Standard Cognition, Corp. Deep learning-based shopper statuses in a cashier-less store
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法
CN110852303A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于OpenPose的吃东西行为识别方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149784A1 (en) * 2005-01-03 2006-07-06 Rob Tholl System and method for operating modules of a claims adjudication engine
US10335091B2 (en) * 2014-03-19 2019-07-02 Tactonic Technologies, Llc Method and apparatus to infer object and agent properties, activity capacities, behaviors, and intents from contact and pressure images
US11017547B2 (en) * 2018-05-09 2021-05-25 Posture Co., Inc. Method and system for postural analysis and measuring anatomical dimensions from a digital image using machine learning
CN109005409B (zh) * 2018-07-27 2021-04-09 浙江工业大学 一种基于目标检测与跟踪的智能视频编码方法
TWI662514B (zh) * 2018-09-13 2019-06-11 緯創資通股份有限公司 跌倒偵測方法以及使用此方法的電子系統
CN110072119B (zh) * 2019-04-11 2020-04-10 西安交通大学 一种基于深度学习网络的内容感知视频自适应传输方法
CN110210323B (zh) * 2019-05-09 2021-06-15 浙江大学 一种基于机器视觉的溺水行为在线识别方法
CN110751063A (zh) * 2019-09-29 2020-02-04 四川工商学院 一种基于深度学习的幼儿防踢被子识别装置及方法
CN111144263B (zh) * 2019-12-20 2023-10-13 山东大学 一种建筑工人高坠事故预警方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2704060A2 (en) * 2012-09-03 2014-03-05 Vision Semantics Limited Crowd density estimation
WO2020023930A1 (en) * 2018-07-26 2020-01-30 Standard Cognition, Corp. Deep learning-based shopper statuses in a cashier-less store
CN109508661A (zh) * 2018-10-31 2019-03-22 上海交通大学 一种基于物体检测和姿态估计的举手者检测方法
CN109902628A (zh) * 2019-02-28 2019-06-18 广州大学 一种基于视觉物联网的图书馆座位管理系统
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110490109A (zh) * 2019-08-09 2019-11-22 郑州大学 一种基于单目视觉的在线人体康复动作识别方法
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法
CN110852303A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于OpenPose的吃东西行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lei Shi等.Two-Stream Adaptive Graph Convolutional Networks for Skeleton-Based Action Recognition.《IEEE Conference on Computer Vision and Pattern Recognition》.2019,第12026–12035页. *
常颖.基于时空特征的视频行为识别.《中国优秀硕士学位论文全文数据库 信息科技辑》.2020,(第undefined期),第I138-841页. *

Also Published As

Publication number Publication date
CN112001347A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN112001347B (zh) 一种基于人体骨架形态与检测目标的动作识别方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN111079646A (zh) 基于深度学习的弱监督视频时序动作定位的方法及系统
CN114220176A (zh) 一种基于深度学习的人体行为的识别方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN110287825B (zh) 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN110490109B (zh) 一种基于单目视觉的在线人体康复动作识别方法
CN109934127B (zh) 基于视频图像与无线信号的行人识别与跟踪方法
CN113516005B (zh) 一种基于深度学习和姿态估计的舞蹈动作评价系统
CN111967433A (zh) 一种基于自监督学习网络的动作识别办法
CN111310728B (zh) 基于监控相机和无线定位的行人重识别系统
CN111160307A (zh) 一种人脸识别方法及人脸识别打卡系统
CN110796074A (zh) 一种基于时空数据融合的行人再识别方法
CN110555408A (zh) 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法
CN113486690A (zh) 一种用户身份识别方法、电子设备及介质
CN111680660B (zh) 基于多源异构数据流的人体行为检测方法
CN112287777A (zh) 基于边缘智能的学生状态课堂监测方法
CN110852214A (zh) 面向边缘计算的轻量级面部识别方法
CN107688828B (zh) 一种基于手机传感器的公交车拥挤程度估测方法
CN116561649B (zh) 基于多源传感器数据的潜水员运动状态识别方法和系统
WO2024012367A1 (zh) 视觉目标跟踪方法、装置、设备以及存储介质
Hadji et al. Region of interest and redundancy problem in migratory birds wild life surveillance
CN111414886A (zh) 一种人体动态特征的智能识别系统
CN112966563B (zh) 一种基于人体骨骼检测和跟踪算法的行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant