CN117315791B - 骨骼动作识别方法、设备及存储介质 - Google Patents

骨骼动作识别方法、设备及存储介质 Download PDF

Info

Publication number
CN117315791B
CN117315791B CN202311599865.XA CN202311599865A CN117315791B CN 117315791 B CN117315791 B CN 117315791B CN 202311599865 A CN202311599865 A CN 202311599865A CN 117315791 B CN117315791 B CN 117315791B
Authority
CN
China
Prior art keywords
information
bone
target object
skeleton
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311599865.XA
Other languages
English (en)
Other versions
CN117315791A (zh
Inventor
李德财
张海涛
马子昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huacheng Software Technology Co Ltd
Original Assignee
Hangzhou Huacheng Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Huacheng Software Technology Co Ltd filed Critical Hangzhou Huacheng Software Technology Co Ltd
Priority to CN202311599865.XA priority Critical patent/CN117315791B/zh
Publication of CN117315791A publication Critical patent/CN117315791A/zh
Application granted granted Critical
Publication of CN117315791B publication Critical patent/CN117315791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种骨骼动作识别方法、设备及存储介质,该骨骼动作识别方法包括:获取待识别图像,待识别图像中含有目标对象;对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。通过将不规则的骨骼姿态信息转换为规则的、紧凑的网格映射结果,便于进行特征学习,提高骨骼特征交互的效率以及动作识别精度。

Description

骨骼动作识别方法、设备及存储介质
技术领域
本申请涉及行为分析技术领域,特别是涉及一种骨骼动作识别方法、设备及存储介质。
背景技术
动作识别是指对给定的动作序列数据进行分析,从中识别并判断出其包含的动作类别,被广泛应用于视频监控、人机交互、增强现实、自动驾驶等领域。随着3D动作捕捉系统的快速发展和先进的实时2D/3D姿态估计算法,基于骨骼的动作识别越来越受到工业界和学术界的关注。
目前的骨骼动作识别方法仍存在识别精度不高的问题,因此,如何提高骨骼动作识别的精度和鲁棒性,成为了本领域技术人员亟待解决的技术问题。
发明内容
本申请至少提供一种骨骼动作识别方法、设备及存储介质。
本申请第一方面提供了一种骨骼动作识别方法,方法包括:获取待识别图像,待识别图像中含有目标对象;对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。
在一实施例中,待识别图像由多帧视频帧组成,关键点检测结果含有多个关键点,骨骼姿态信息包括骨骼点信息、骨骼信息、骨骼点运动信息或骨骼运动信息中的一种或多种;基于关键点检测结果得到目标对象的骨骼姿态信息,包括:从多个关键点中提取出骨骼点,对每个骨骼点进行组合,得到目标对象的骨骼点信息;和/或,对相邻骨骼点进行连接得到多条骨骼连接线,对每条骨骼连接线进行组合,得到目标对象的骨骼信息;和/或,计算相邻视频帧的骨骼点信息之间的差异,得到骨骼点运动信息;和/或,计算相邻视频帧的骨骼信息之间的差异,得到骨骼运动信息。
在一实施例中,将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:对骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息;将扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果。
在一实施例中,对骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息,包括:利用邻接矩阵计算骨骼姿态信息对应的插值数据,邻接矩阵含有目标对象的骨骼的拓扑结构信息;组合骨骼姿态信息和骨骼姿态信息对应的插值数据,得到扩充骨骼姿态信息。
在一实施例中,扩充骨骼姿态信息由多个待映射元素组成,待映射元素的数量与二维网格表达式中网格的数量相等;将扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:将扩充骨骼姿态信息中的待映射元素一一映射至二维网格表达式的网格中,得到网格映射结果。
在一实施例中,待识别图像由多帧视频帧组成;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,包括:对每个视频帧对应的网格映射结果进行空间特征提取,得到每个视频帧分别对应的空间特征;对每个空间特征进行时间特征提取,得到目标对象对应的时空特征;对时空特征进行动作识别,得到动作识别结果。
在一实施例中,目标对象对应有多种类型的骨骼姿态信息;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,包括:对每种类型的骨骼姿态信息的网格映射结果进行动作识别,得到每种类型的网格映射结果分别对应的初始识别结果;对每个初始识别结果进行融合,得到待识别图像对应的动作识别结果。
在一实施例中,对每个初始识别结果进行融合,得到待识别图像对应的动作识别结果,包括:获取每种类型的骨骼姿态信息对应的权重参数;利用权重参数,对每个初始识别结果进行加权求和,得到待识别图像对应的动作识别结果。
本申请第二方面提供了一种骨骼动作识别装置,装置包括:图像获取模块,用于获取待识别图像,待识别图像中含有目标对象;关键点检测模块,用于对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;网格映射模块,用于将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果;动作识别模块,用于基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。
本申请第三方面提供了一种电子设备,包括存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现上述骨骼动作识别方法。
本申请第四方面提供了一种计算机可读存储介质,其上存储有程序指令,程序指令被处理器执行时实现上述骨骼动作识别方法。
上述方案,通过获取待识别图像,待识别图像中含有目标对象;对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,以将不规则的骨骼姿态信息转换为规则的、紧凑的网格表达;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,提高骨骼特征交互的效率以及动作识别精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。
图1是本申请的一示例性实施例示出的骨骼动作识别方法涉及的一种实施环境的示意图;
图2是本申请的一示例性实施例示出的骨骼动作识别方法的流程图;
图3是本申请的一示例性实施例示出的关键点检测的示意图;
图4是本申请的一示例性实施例示出的获取骨骼点信息、骨骼信息、骨骼点运动信息以及骨骼运动信息的示意图;
图5是本申请的一示例性实施例示出的对骨骼点信息进行插值的示意图;
图6是本申请的一示例性实施例示出的动作识别网络模型的示意图;
图7是本申请的一示例性实施例示出的空间重构单元的示意图;
图8是本申请的一示例性实施例示出的通道重构单元的示意图;
图9是本申请的一示例性实施例示出的MB-TCN的示意图;
图10是本申请的一示例性实施例示出的动作识别的示意图;
图11是本申请的一示例性实施例示出的骨骼动作识别装置的框图;
图12是本申请的一示例性实施例示出的电子设备的结构示意图;
图13是本申请的一示例性实施例示出的计算机可读存储介质的结构示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“和/或”,仅仅是一种描述关联对象的关联信息,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
当前基于深度学习的骨骼动作识别方法主要分为四类,基于卷积神经网络(Convolutional Neural Network,CNN)的骨骼动作识别、基于循环神经网络(RecurrentNeural Network,RNN)的骨骼动作识别、基于图卷积神经网络(Graph ConvolutionNetwork,GCN)的骨骼动作识别以及基于Transformer的骨骼动作识别。
其中,人体或动物的骨骼结构天然的就可以表示为一个图,故基于GCN的方法成为骨骼动作识别的主流方法。然而,GCN依赖于不规则的骨骼拓扑结构,被迫逐节点学习不同形状和独立的卷积核,在表述上缺乏类似CNN的特征聚合的性质。此外,GCN的感受野通常覆盖一组与目标节点具有预定义距离的相邻节点,无法交互动作上接近但拓扑结构较远的动作,如握手、拥抱等,这降低了骨骼动作识别特征交互的效率、精度以及适用性。
为了解决上述问题,本申请提供一种骨骼动作识别方法、电子设备及计算机可读存储介质。
下面对本申请实施例所提供的骨骼动作识别方法进行说明。
请参考图1,其示出了本申请一个实施例提供的方案实施环境的示意图。该方案实施环境可以包括终端110和服务器120,终端110和服务器120之间相互通信连接。
终端110的数量可以是一个或多个。终端110可以是摄像机、智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一个示例中,服务器120可以为从终端110中获取到的含有目标对象的待识别图像进行动作识别处理,得到目标对象的动作识别结果,然后,服务器120可以将动作识别结果存储在本地、回传至终端110或者传输至其他终端110。
在一个示例中,终端110中安装运行有目标应用程序的客户端,如该目标应用程序可以是提供动作识别功能的应用程序。服务器120可以是该目标应用程序的后台服务器,用于为该目标应用程序的客户端提供后台服务。
本申请实施例提供的骨骼动作识别方法,各步骤的执行主体可以是终端110,如终端110中安装运行的目标应用程序的客户端,也可以是服务器120,或者由终端110和服务器120交互配合执行,即将方法的一部分步骤交由终端110执行而另一部分步骤则交由服务器120执行,本申请对此不进行限定。
可以理解的是,在本申请的具体实施方式中,涉及到待识别图像、人体图像等相关的数据,当本申请的实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要守相关国家和地区的相关法律法规和标准。
请参阅图2,图2是本申请的一示例性实施例示出的骨骼动作识别方法的流程图。该骨骼动作识别方法可以应用于图1所示的实施环境,并由该实施环境中的服务器具体执行。应理解的是,该方法也可以适用于其它的示例性实施环境,并由其它实施环境中的设备具体执行,本实施例不对该方法所适用的实施环境进行限制。
如图2所示,骨骼动作识别方法至少包括步骤S210至步骤S240,详细介绍如下:
步骤S210:获取待识别图像,待识别图像中含有目标对象。
其中,待识别图像中含有目标对象,目标对象可以是行人、动物、机器人等,本申请对此不进行限定。
可以是数据库中预先存储有待识别图像,通过查询数据库得到待识别图像;也可以是终端实时采集视频流,并将视频流发送给服务器,服务器将接收到的视频流中的图像帧作为待识别图像,本申请不对待识别图像的获取方式进行限定。
示例性地,监控摄像头对预设区域实时进行图像采集,并将采集到的视频流发送给服务器。服务器对接收到的视频流中的图像帧进行目标检测,以检测预设区域内是否存在目标对象,若存在目标对象,则将含有目标对象的图像帧作为待识别图像,以对待识别图像进行动作识别处理。
示例性地,待识别图像是对目标视频数据进行采样后得到的。具体地,获取需要识别的动作类别,获取该动作类别对应的采样间隔,如对于运动速度较快、时间短的动作类别,设置较短的采样间隔,比如间隔为2秒,对于运动平缓、时间较长的动作类别,设置较长的采样间隔,如采集间隔为5秒;然后,基于该动作类别对应的采样间隔,对目标视频数据进行采样,得到待识别图像。
步骤S220:对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息。
其中,关键点是指能够表征目标对象姿态信息的点,如人的关节、头部位置等。
对待识别图像中的目标对象进行关键点检测,得到待识别图像中目标对象的关键点检测结果,该关键点检测结果由目标对象的多个关键点组成。
例如,请参阅图3,图3为本申请一示例性实施例示出的关键点检测的示意图,如图3所示,待识别图像中含有行人,将待识别图像输入至关键点检测模块对行人进行关键点检测,得到N个关键点,将这些关键点作为该行人的关键点检测结果,i的取值为1到N的正整数,优选N的取值为17,其中,/>表示第i个关键点的坐标,/>表示第i个关键点的置信度。
其中,关键点检测模块可以采用Harris角点检测算法、尺度不变特征转换(ScaleInvariant Feature Transform,SIFT)算法、加速稳健特征(Speeded Up RobustFeatures,SURF)算法等进行关键点检测,本申请对此不进行限定。
进一步地,根据关键点检测结果得到目标对象的骨骼姿态信息,骨骼姿态信息用于体现目标对象在待识别图像中的姿态。其中,骨骼姿态信息包括但不限于单个图像帧内目标对象的骨骼点信息、骨骼信息、骨骼点运动信息或骨骼运动信息中的一种或多种。
步骤S230:将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果。
由图3示出的关键点检测结果可知,检测得到的关键点是不规则的,其对应得到的骨骼姿态信息也是不规则的,若采用现有技术中的图卷积方法,无法交互动作上接近但拓扑结构较远的动作,降低了骨骼特征交互的效率。
因此,本申请将骨骼姿态信息映射至预设尺寸的二维网格表达式中,该二维网格表达式用于整合不规则的骨骼姿态信息,以将不规则的骨骼姿态信息转换为规则的、紧凑的网格表达,得到网格映射结果,该网格映射结果由多个排列整齐网格元素组成,每个网格元素中存储有映射的骨骼姿态信息。
其中,可根据实际使用场景确定二维网格表达式的尺寸,例如,在高性能需求时可以提高网格尺寸大小,以提高动作识别精度;而在高效率需求时可以选择与骨骼姿态信息中信息数量最接近的网格尺寸大小,提高动作识别推理速度。
步骤S240:基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。
根据网格映射结果对目标对象进行动作特征提取,以得到目标对象在待识别图像中的动作特征,进而根据动作特征进行动作识别,得到动作识别结果。
其中,可以根据预先训练完成的神经网络模型进行动作特征提取以及动作识别。
例如,预先训练完成的神经网络模型含有卷积网络层和全连接层,将网格映射结果输入至卷积网络层中进行网格卷积处理,得到卷积网络层输出的动作特征,然后,将动作特征输入至全连接层进行动作识别,得到全连接层输出的属于各个动作的概率,将概率最高的动作作为目标对象的动作识别结果。
接下来对本申请的部分实施例进行进一步详细说明。
在一些实施方式中,待识别图像由多帧视频帧组成,关键点检测结果含有多个关键点,骨骼姿态信息包括骨骼点信息、骨骼信息、骨骼点运动信息或骨骼运动信息中的一种或多种;步骤S220中基于关键点检测结果得到目标对象的骨骼姿态信息,包括:
从关键点中提取出骨骼点,对每个骨骼点进行组合,得到目标对象的骨骼点信息;和/或,
对相邻关键点进行连接得到多条骨骼连接线,对每条骨骼连接线进行组合,得到目标对象的骨骼信息;和/或,
计算相邻视频帧的骨骼点信息之间的差异,得到骨骼点运动信息;和/或,
计算相邻视频帧的骨骼信息之间的差异,得到骨骼运动信息。
示例性地,请参阅图4,图4为本申请一示例性实施例示出的获取骨骼点信息、骨骼信息、骨骼点运动信息以及骨骼运动信息的示意图,如图4所示,对获取的关键点检测结果中的关键点进行预处理,得到骨骼点信息、骨骼信息、骨骼点运动信息以及骨骼运动信息。
以目标对象为人为例进行举例说明。
获取骨骼点信息:以人体结构为基础,从多个关键点中提取出预设数量的骨骼点,并对每个骨骼点进行组合,得到目标对象的骨骼点信息。
获取骨骼信息:以人体结构为基础,将相邻骨骼点连接,得到预设数量的骨骼连接线,对每条骨骼连接线进行组合,得到目标对象的骨骼信息。
获取骨骼点运动信息:将相邻视频帧的骨骼点按照时间顺序进行相减,得到骨骼点运动信息。
获取骨骼运动信息:将相邻视频帧的骨骼连接线按照时间顺序进行相减,得到骨骼运动信息。
将上述的骨骼点信息、骨骼信息、骨骼点运动信息、骨骼运动信息中的一种或多种作为骨骼姿态信息,以将该骨骼姿态信息映射至预设尺寸的二维网格表达式中。需要说明的是,若骨骼姿态信息含有多种类型,如同时含有骨骼点信息、骨骼信息、骨骼点运动信息、骨骼运动信息,则分别对骨骼点信息、骨骼信息、骨骼点运动信息、骨骼运动信息进行映射,得到骨骼点信息的网格映射结果、骨骼信息的网格映射结果、骨骼点运动信息的网格映射结果、骨骼运动信息的网格映射结果。
在一些实施方式中,步骤S230中将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:
步骤S231:对骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息。
由图4可知,骨骼姿态信息是由多个骨骼姿态元素组成,如骨骼点信息由多个骨骼点组成,骨骼信息由多个骨骼连接线组成。
但是,二维网格表达式中含有的网格的数量和骨骼姿态元素的数量可能并不相等,为了避免从骨骼姿态信息到二维网格表达式的转换过程中信息丢失,二维网格表达式中网格的数量应该设置为不少于骨骼姿态元素的数量。
以及,为了提升网格映射结果的信息表达能力,若二维网格表达式中网格的数量大于骨骼姿态元素的数量,则对骨骼姿态信息进行信息扩充,以使得最终骨骼姿态信息中骨骼姿态元素的数量与二维网格表达式中网格的数量相等。
示例性地,对骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息,包括:利用邻接矩阵计算骨骼姿态信息对应的插值数据,邻接矩阵含有目标对象的骨骼的拓扑结构信息;组合骨骼姿态信息和骨骼姿态信息对应的插值数据,得到扩充骨骼姿态信息。
其中,邻接矩阵含有目标对象的骨骼的拓扑结构信息,能有效避免无序的插值数据,可以约束信息矩阵根据现有骨骼姿态信息,使用相邻骨骼姿态元素插入新的骨骼姿态元素,有助于骨骼姿态信息到网格映射结果与拓扑先验的关联,以提升动作识别精度。
具体地,以骨骼姿态信息为骨骼点信息为例进行举例说明:
请参阅图5,图5为本申请一示例性实施例示出的对骨骼点信息进行插值的示意图,如图5所示,骨骼点信息含有17个骨骼点,二维网格表达式的大小应大于17,而由于常规卷积特征图都为正方形,因此选择二维网格表达式的尺寸为5*5,但5*5二维网格表达式的网格数量大于骨骼点数量,因此对额外的网格单元进行插值。
例如,将邻接矩阵A和信息矩阵S相乘,得到扩充矩阵,并针对扩充矩阵进行插值处理,得到插值数据,相关公式可以如下述公式(1):
公式(1)
其中,是信息扩充后的骨骼点信息;/>是原始的骨骼点信息;是信息矩阵,表征扩充前后的骨骼中间信息;/>是邻接矩阵,表征人体骨骼的拓扑结构信息;HW是二维网格表达式的宽和高,大小为/>,N是骨骼点数量,共17个,C是通道数,表示骨骼点的位置坐标和置信度。
扩充结果如图5所示,结合原始的骨骼点信息和骨骼点信息对应的插值数据,得到扩充骨骼点信息。
步骤S232:将扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果。
在信息扩充之后,骨骼姿态信息中骨骼姿态元素的数量与二维网格表达式的网格数量统一,将扩充后的骨骼姿态信息映射到二维网格表达式中,即将HW个骨骼姿态元素转换成的二维网格。
示例性地,将扩充骨骼姿态信息中的每个骨骼姿态元素作为待映射元素组成,待映射元素的数量与二维网格表达式中网格的数量相等;将扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:将扩充骨骼姿态信息中的待映射元素一一映射至二维网格表达式的网格中,得到网格映射结果。
具体地,使用下述公式(2)将扩充骨骼姿态信息映射至二维网格表达式的网格中:
公式(2)
其中,为二维网格表达式;/>为二值映射矩阵,大小为HW×HW,每个矩阵元素值为0或1,每一行都是独热编码,只有一个矩阵元素值为1,值为1的索引就是骨骼姿态信息中所选骨骼姿态元素的索引。/>是信息扩充骨骼姿态信息,HW是二维网格表达式的宽和高,即/>大小, C是通道数,表示骨骼姿态元素的位置坐标和置信度。
以骨骼姿态信息为骨骼点信息为例,其映射过程如图5所示,将扩充骨骼点信息中的各个骨骼点分别一一映射至二维网格表达式的网格中,得到网格映射结果。
通过信息映射将骨骼姿态信息映射到一个规则的网格表示中,使得骨骼信息可以通过常规卷积操作进行特征学习,实现高效的特征建模,提高骨骼特征提取能力。
通过将骨骼姿态信息映射到一个规则的二维网格表达式中,在保持骨骼信息的拓扑结构的前提下,将不规则的骨骼姿态信息映射到规则的网格表示中,便于后续进行特征学习,扩大骨骼姿态信息的连接,增强骨骼姿态信息的交互。
得到网格映射结果后,根据网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。
在一些实施方式中,待识别图像由多帧视频帧组成;步骤S240中基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,包括:
步骤S241:对每个视频帧对应的网格映射结果进行空间特征提取,得到每个视频帧分别对应的空间特征。
空间特征是指同一视频帧内含有的骨骼姿态特征。
示例性地,对网格映射结果进行卷积处理,以对同一视频帧内的骨骼姿态信息进行融合,得到该视频帧的空间特征。
步骤S242:对每个空间特征进行时间特征提取,得到目标对象对应的时空特征。
时间特征是指多个视频帧含有的骨骼姿态特征之间的变化。
示例性地,对每个视频帧的空间特征进行维度变化、对齐等处理,然后对每个视频帧的空间特征进行时序建模,以从多个视频帧中提取得到目标对象对应的时空特征。
步骤S243:对时空特征进行动作识别,得到动作识别结果。
根据时空特征进行动作识别,以得到动作识别结果。
可选地,上述动作识别是基于预先训练完成的动作识别网络模型实现的,对进行动作识别的动作识别网络模型进行举例说明。
请参阅图6,图6为本申请一示例性实施例示出的动作识别网络模型的示意图,如图6所示,动作识别网络模型含有批量归一化(Batch Normalization,BN)层、空间通道重建卷积(Spatial and Channel reconstruction Convolution,SCConv)层、时域卷积(Multiple branches Temporal Convolutional Network,MB-TCN)层、全连接(FullyConnected ,FC)层。该动作识别网络模型的输入大小为的网格映射结果,通过BN层将网格映射结果机械能归一化,然后将归一化结果输入至SCConv层中以对同一视频帧内的骨骼姿态信息进行融合,得到视频帧的空间特征,之后对空间特征进行维度变换、对齐,然后将其输入到MB-TCN层中进行时序建模,并提取多个视频帧的骨骼姿态信息的时空特征,还可以通过添加残差连接进一步提高特征提取能力,最后通过全连接层,得到动作识别结果。
可选地,上述动作识别网络模型含有十层网格卷积,每次网格卷积由一个SCConv层和MB-TCN层组成,随着网络的加深,特征的通道数不断加深,时序维度不断降采样,其中L1-L4的通道数为64,时序长度不变,L5-L7的通道数为128,时序长度变为1/2,L8-L10的通道数为256,时序长度变为1/4。
对SCConv层进行详细说明:
SCConv层含有空间重构单元(Spatial Reconstruction Unit,SRU)和通道重构单元(Channel Reconstruction Unit,CRU)。在计算机视觉任务中,深度神经网络存在相当大的冗余,特征图的空间和通道维度具有高度相似性,冗余度较高,为了降低特征图的空间和通道冗余度,使用空间重构单元和通道重构单元来缓解特征冗余,并减少模型参数量和计算量,增强特征表示能力。
针对空间重构单元SRU,请参阅图7,图7为本申请一示例性实施例示出的空间重构单元的示意图,如图7所示,SRU包含分离和重构两个部分,分离操作可以将信息量大的特征图和信息量小的特征图分离出来,与空间内容相对应。
具体地,针对输入的网格映射结果,即输入特征X,先使用批量归一化GN里的缩放因子来评估不同特征图中的信息含量,然后对缩放因子进行归一化,得到归一化的相关权重/>,之后通过sigmoid函数将/>权重值映射到(0, 1)范围内,并通过阈值门控,将高于阈值的权重设置为1以获得信息权重/>,将低于阈值的权重设置为0以获得非信息权重/>。获得W的具体过程参见下述公式(3):
公式(3)
最后,将输入特征X分别乘以和/>,得到两个加权特征:/>和/>。其中/>具有信息性和富有表现力的空间内容,而/>信息很少,是冗余信息。
为了减少空间冗余,将信息量较多的特征和信息量较少的特征相加,生成信息更丰富的特征并节省空间。
具体地,采用交叉重建操作来充分组合加权两个不同的信息特征并加强它们之间的信息流,之后,将得到的交叉重构特征和/>连接起来获得空间细化的特征/>
针对通道重构单元CRU,请参阅图8,图8为本申请一示例性实施例示出的通道重构单元的示意图,如图8所示,CUR包含分割操作、转换操作和融合操作三个部分。
分割操作将输入的空间细化特征分割为两部分,一部分的通道数是/>,另一部分的通道数是/>。随后对两组特征的通道数使用/>卷积进行压缩,分别得到/>和/>
转换操作将输入的进行特征提取,分别进行分组卷积和逐点卷积,然后相加得到输出/>。将输入/>作为特征提取的补充,进行逐点卷积,得到的结果和原来的输入取并集得到/>
融合操作将和/>进行自适应的合并。具体来说,首先使用全局平均池化技术,将全局空间信息和通道信息结合起来,得到/>和/>。然后对其进行Softmax激活操作得到特征权重向量/>和/>,再将特征权重向量/>和/>与转换输出向量/>和/>相乘,最后将相乘结果相加得到通道提炼的特征Y。
通过卷积的特征聚合提高骨骼姿态信息特征交互能力,并通过减少标准卷积中广泛存在的空间和通道冗余来提高卷积的性能,降低计算成本。
对MB-TCN层进行详细说明:
传统的TCN是卷积核为9的大核单分枝卷积,大核卷积大大增加了网络的计算量、参数量和硬件需求。而本申请采用多分枝的结构可以增强网络的时序建模能力,并节省计算量和参数量。
请参阅图9,图9为本申请一示例性实施例示出的MB-TCN的示意图,如图9所示,首先将SCConv层中获得的特征Y通过卷积,将通道均分成六个部分,构造六个分枝的时域卷积,前四个分枝卷积核大小为3,但扩张率不同,扩张率从1逐步增加到4,感受野逐步增大,提高网络的时序特征提取能力,剩下的两个分枝,一个是恒等映射,一个是最大池化,最后将多个分枝时域卷积结果拼接在一起通过/>卷积,得到最后的时空特征。
通过使用多分枝时域卷积替换大核单分枝时域卷积,以增强网络的时序建模能力,节省计算量和参数量,实现了动作识别的精度和效率提升。
在一些实施方式中,目标对象对应有多种类型的骨骼姿态信息;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,包括:对每种类型的骨骼姿态信息的网格映射结果进行动作识别,得到每种类型的网格映射结果分别对应的初始识别结果;对每个初始识别结果进行融合,得到待识别图像对应的动作识别结果。
例如,请参阅图10,图10为本申请一示例性实施例示出的动作识别的示意图,如图10所示,骨骼姿态信息包括骨骼点信息、骨骼信息、骨骼点运动信息和骨骼运动信息,对每个类型的骨骼姿态信息分别进行动作识别,得到骨骼点信息对应的初始识别结果、骨骼信息对应的初始识别结果、骨骼点运动信息对应的初始识别结果和骨骼运动信息对应的初始识别结果。
然后,对每个初始识别结果进行融合,得到待识别图像对应的动作识别结果。
示例性地,对每个初始识别结果进行融合,得到待识别图像对应的动作识别结果,包括:获取每种类型的骨骼姿态信息对应的权重参数;利用权重参数,对每个初始识别结果进行加权求和,得到待识别图像对应的动作识别结果。
不同类型的骨骼姿态信息对动作识别的结果重要性不同,获取每种类型的骨骼姿态信息对应的权重参数,利用权重参数,对每个初始识别结果进行加权求和,得到待识别图像对应的动作识别结果。
示例地,不同类型的骨骼姿态信息对应的权重参数可以是预先设定的,如设定骨骼点信息、骨骼信息、骨骼点运动信息和骨骼运动信息分别对应的权重参数的比例为2:2:1:1。
示例地,可以根据实际应用情况灵活选择不同类型的骨骼姿态信息对应的权重参数。
例如,获取待识别图像中目标对象的图像内容质量,如根据图像清晰度、是否存在遮挡物等得到目标对象的图像内容质量,根据图像内容质量确定各个类型的骨骼姿态信息对应的权重参数。如当图像内容质量较高时,可以为骨骼点信息、骨骼信息对应的识别结果分配更高的权重;当图像内容质量较低时,可以为骨骼点运动信息和骨骼运动信息对应的识别结果分配更高的权重。
又例如,还可以根据目标对象所属的对象类型、目标对象的身高、需要识别的动作的类型等信息确定各个类型的骨骼姿态信息对应的权重参数。
通过上述实施例中对多种类型骨骼姿态信息的初始识别结果进行融合,可以有效利用骨骼信息,提高识别结果的精度。
本申请提供的骨骼动作识别方法,通过获取待识别图像,待识别图像中含有目标对象;对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,以将不规则的骨骼姿态信息转换为规则的、紧凑的网格表达;基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果,提高骨骼特征交互的效率以及动作识别精度,缓解了传统图卷积无法有效表述动作上接近但拓扑结构较远的动作的问题。
图11是本申请的一示例性实施例示出的骨骼动作识别装置的框图。如图11所示,该示例性的骨骼动作识别装置1100包括:图像获取模块1110、关键点检测模块1120、网格映射模块1130和动作识别模块1140。具体地:
图像获取模块1110,用于获取待识别图像,待识别图像中含有目标对象;
关键点检测模块1120,用于对待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到目标对象的骨骼姿态信息;
网格映射模块1130,用于将骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果;
动作识别模块1140,用于基于网格映射结果对目标对象进行动作特征提取,利用提取到的动作特征进行动作识别,得到动作识别结果。
需要说明的是,上述实施例所提供的骨骼动作识别装置与上述实施例所提供的骨骼动作识别方法属于同一构思,其中各个模块和单元执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。上述实施例所提供的骨骼动作识别装置在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能,本处不对此进行限制。
请参阅图12,图12是本申请电子设备一实施例的结构示意图。电子设备1200包括存储器1201和处理器1202,处理器1202用于执行存储器1201中存储的程序指令,以实现上述任一骨骼动作识别方法实施例中的步骤。在一个具体的实施场景中,电子设备1200可以包括但不限于:微型计算机、服务器,此外,电子设备1200还可以包括笔记本电脑、平板电脑等移动设备,在此不做限定。
具体而言,处理器1202用于控制其自身以及存储器1201以实现上述任一骨骼动作识别方法实施例中的步骤。处理器1202还可以称为中央处理单元(Central ProcessingUnit,CPU)。处理器1202可能是一种集成电路芯片,具有信号的处理能力。处理器1202还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器1202可以由集成电路芯片共同实现。
请参阅图13,图13是本申请计算机可读存储介质一实施例的结构示意图。计算机可读存储介质1300存储有能够被处理器运行的程序指令1310,程序指令1310用于实现上述任一骨骼动作识别方法实施例中的步骤。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种骨骼动作识别方法,其特征在于,包括:
获取待识别图像,所述待识别图像中含有目标对象,所述待识别图像由多帧视频帧组成;
对所述待识别图像中的目标对象进行关键点检测,基于关键点检测结果得到所述目标对象的骨骼姿态信息;
将所述骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果;其中,所述二维网格表达式用于将不规则的骨骼姿态信息转换为规则的、紧凑的网格映射结果,所述网格映射结果由多个排列整齐的网格元素组成,每个网格元素中存储有映射的骨骼姿态信息;
对所述待识别图像中每个视频帧对应的网格映射结果进行空间特征提取,得到所述每个视频帧分别对应的空间特征;
对每个空间特征进行时空特征提取,得到所述目标对象对应的时空特征;
对所述时空特征进行动作识别,得到动作识别结果。
2.根据权利要求1所述的方法,其特征在于,所述待识别图像由多帧视频帧组成,所述关键点检测结果含有多个关键点,所述骨骼姿态信息包括骨骼点信息、骨骼信息、骨骼点运动信息或骨骼运动信息中的一种或多种;所述基于关键点检测结果得到所述目标对象的骨骼姿态信息,包括:
从所述多个关键点中提取出骨骼点,对每个骨骼点进行组合,得到所述目标对象的骨骼点信息;和/或,
对相邻骨骼点进行连接得到多条骨骼连接线,对每条骨骼连接线进行组合,得到所述目标对象的骨骼信息;和/或,
计算相邻视频帧的骨骼点信息之间的差异,得到骨骼点运动信息;和/或,
计算相邻视频帧的骨骼信息之间的差异,得到骨骼运动信息。
3.根据权利要求1所述的方法,其特征在于,所述将所述骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:
对所述骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息;
将所述扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果。
4.根据权利要求3所述的方法,其特征在于,所述对所述骨骼姿态信息进行信息扩充,得到扩充骨骼姿态信息,包括:
利用邻接矩阵计算所述骨骼姿态信息对应的插值数据,所述邻接矩阵含有所述目标对象的骨骼的拓扑结构信息;
组合所述骨骼姿态信息和所述骨骼姿态信息对应的插值数据,得到扩充骨骼姿态信息。
5.根据权利要求3所述的方法,其特征在于,所述扩充骨骼姿态信息由多个待映射元素组成,所述待映射元素的数量与所述二维网格表达式中网格的数量相等;所述将所述扩充骨骼姿态信息映射至预设尺寸的二维网格表达式中,得到网格映射结果,包括:
将所述扩充骨骼姿态信息中的待映射元素一一映射至所述二维网格表达式的网格中,得到网格映射结果。
6.根据权利要求1所述的方法,其特征在于,预先训练有动作识别网络模型,所述动作识别网络模型包括批量归一化层、空间通道重建卷积层、时域卷积层;所述对所述待识别图像中每个视频帧对应的网格映射结果进行空间特征提取,得到所述每个视频帧分别对应的空间特征,包括:
将所述网格映射结果输入至所述批量归一化层进行归一化处理,得到归一化处理结果;
将所述归一化结果输入至所述空间通道重建卷积层中对同一视频帧内的骨骼姿态信息进行融合,得到所述每个视频帧的空间特征;
所述对每个空间特征进行时空特征提取,得到所述目标对象对应的时空特征,包括:
对所述每个视频帧的空间特征进行维度变换、对齐后输入至所述时域卷积层中进行时序建模,提取得到时空特征。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述目标对象对应有多种类型的骨骼姿态信息;所述方法还包括:
对每种类型的骨骼姿态信息的网格映射结果进行动作识别,得到所述每种类型的网格映射结果分别对应的初始识别结果;
对每个初始识别结果进行融合,得到所述待识别图像对应的动作识别结果。
8.根据权利要求7所述的方法,其特征在于,所述对每个初始识别结果进行融合,得到所述待识别图像对应的动作识别结果,包括:
获取所述每种类型的骨骼姿态信息对应的权重参数;
利用所述权重参数,对所述每个初始识别结果进行加权求和,得到所述待识别图像对应的动作识别结果。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现如权利要求1-8任一项所述方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有程序指令,所述程序指令能够被处理器执行以实现如权利要求1-8任一项所述方法中的步骤。
CN202311599865.XA 2023-11-28 2023-11-28 骨骼动作识别方法、设备及存储介质 Active CN117315791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311599865.XA CN117315791B (zh) 2023-11-28 2023-11-28 骨骼动作识别方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311599865.XA CN117315791B (zh) 2023-11-28 2023-11-28 骨骼动作识别方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN117315791A CN117315791A (zh) 2023-12-29
CN117315791B true CN117315791B (zh) 2024-02-20

Family

ID=89250244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311599865.XA Active CN117315791B (zh) 2023-11-28 2023-11-28 骨骼动作识别方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117315791B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021057027A1 (zh) * 2019-09-27 2021-04-01 北京市商汤科技开发有限公司 人体检测方法、装置、计算机设备及存储介质
WO2021169839A1 (zh) * 2020-02-29 2021-09-02 华为技术有限公司 一种基于骨骼关键点的动作还原方法以及装置
CN113361352A (zh) * 2021-05-27 2021-09-07 天津大学 基于行为识别的学生课堂行为分析的监控方法及系统
CN114202804A (zh) * 2022-02-15 2022-03-18 深圳艾灵网络有限公司 行为动作识别方法、装置、处理设备及存储介质
CN114613013A (zh) * 2022-03-18 2022-06-10 长沙理工大学 一种基于骨骼节点的端到端人类行为识别方法与模型
CN114724241A (zh) * 2022-03-29 2022-07-08 平安科技(深圳)有限公司 基于骨骼点距离的动作识别方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102577472B1 (ko) * 2018-03-20 2023-09-12 한국전자통신연구원 동작 인식을 위한 가상 학습 데이터를 생성하는 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021057027A1 (zh) * 2019-09-27 2021-04-01 北京市商汤科技开发有限公司 人体检测方法、装置、计算机设备及存储介质
WO2021169839A1 (zh) * 2020-02-29 2021-09-02 华为技术有限公司 一种基于骨骼关键点的动作还原方法以及装置
CN113361352A (zh) * 2021-05-27 2021-09-07 天津大学 基于行为识别的学生课堂行为分析的监控方法及系统
CN114202804A (zh) * 2022-02-15 2022-03-18 深圳艾灵网络有限公司 行为动作识别方法、装置、处理设备及存储介质
CN114613013A (zh) * 2022-03-18 2022-06-10 长沙理工大学 一种基于骨骼节点的端到端人类行为识别方法与模型
CN114724241A (zh) * 2022-03-29 2022-07-08 平安科技(深圳)有限公司 基于骨骼点距离的动作识别方法、装置、设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于人体骨骼点检测与多层感知机的人体姿态识别;段俊臣;梁美祥;王瑞;;电子测量技术(12);全文 *
基于骨骼关节点投影特征的人体行为识别方法;黄潇逸;;现代计算机(第36期);全文 *
基于骨骼线的三维网格编辑;马占国;刘波;张鸿宾;;北京工业大学学报(01);全文 *

Also Published As

Publication number Publication date
CN117315791A (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
CN110135319B (zh) 一种异常行为检测方法及其系统
CN110334779B (zh) 一种基于PSPNet细节提取的多聚焦图像融合方法
EP4156017A1 (en) Action recognition method and apparatus, and device and storage medium
CN113095370B (zh) 图像识别方法、装置、电子设备及存储介质
CN114255238A (zh) 一种融合图像特征的三维点云场景分割方法及系统
CN111797983A (zh) 一种神经网络构建方法以及装置
Chen et al. Local patch network with global attention for infrared small target detection
CN110222718B (zh) 图像处理的方法及装置
CN112861575A (zh) 一种行人结构化方法、装置、设备和存储介质
KR20180004898A (ko) 딥러닝 기반의 이미지 처리 기술 및 그 방법
CN108875555B (zh) 基于神经网络的视频兴趣区域和显著目标提取与定位系统
CN110532959B (zh) 基于双通道三维卷积神经网络的实时暴力行为检测系统
CN111833360B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN112085088A (zh) 图像处理方法、装置、设备及存储介质
CN116152611B (zh) 一种多级多尺度点云补全方法、系统、设备及存储介质
CN112037228A (zh) 一种基于双倍注意力的激光雷达点云目标分割方法
CN114419570A (zh) 一种点云数据识别方法、装置、电子设备及存储介质
CN112560865A (zh) 一种室外大场景下点云的语义分割方法
CN111985414B (zh) 一种关节点位置确定方法及装置
CN113807232B (zh) 基于双流网络的伪造人脸检测方法、系统及存储介质
CN114677611B (zh) 数据识别方法、存储介质及设备
CN117953581A (zh) 动作识别的方法、装置、电子设备及可读存储介质
CN113822134A (zh) 一种基于视频的实例跟踪方法、装置、设备及存储介质
CN117315791B (zh) 骨骼动作识别方法、设备及存储介质
CN110826469B (zh) 一种人物检测方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant