CN113537148B - 人体动作识别方法及装置、可读存储介质、电子设备 - Google Patents
人体动作识别方法及装置、可读存储介质、电子设备 Download PDFInfo
- Publication number
- CN113537148B CN113537148B CN202110917799.0A CN202110917799A CN113537148B CN 113537148 B CN113537148 B CN 113537148B CN 202110917799 A CN202110917799 A CN 202110917799A CN 113537148 B CN113537148 B CN 113537148B
- Authority
- CN
- China
- Prior art keywords
- human
- action
- image
- data
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims abstract description 184
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000013145 classification model Methods 0.000 claims abstract description 72
- 210000000988 bone and bone Anatomy 0.000 claims description 116
- 238000012545 processing Methods 0.000 claims description 92
- 230000036544 posture Effects 0.000 claims description 57
- 238000001514 detection method Methods 0.000 claims description 42
- 238000010606 normalization Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 23
- 230000017105 transposition Effects 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 16
- 238000012706 support-vector machine Methods 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000013215 result calculation Methods 0.000 claims description 8
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013075 data extraction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 206010000117 Abnormal behaviour Diseases 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 206010042772 syncope Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开是关于一种人体动作识别方法及装置、可读存储介质、电子设备,涉及图像识别技术领域,该方法包括:提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。本公开提高了人体动作类别的识别结果的准确率。
Description
技术领域
本公开实施例涉及图像识别技术领域,具体而言,涉及一种人体动作识别方法、人体动作识别装置、计算机可读存储介质以及电子设备。
背景技术
随着人口老龄化的加剧,居家养老服务的需求愈加增长,通过居家机器人对老年人的行为监测是排查老人异常行为的重要方式。由于生活环境的确定性和机器人视角的局限性,通过图像进行动作识别更加容易实现。
现有的动作识别方法中,可以先提取图像中的骨骼点信息进行人体姿态估计,进而根据骨骼点数据进行动作分类。
但是,该方法受限于骨骼点特征,会使得动作分类结果的准确率较低。
基于此,需要提供一种新的人体动作识别方法及装置。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种人体动作识别方法、人体动作识别装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的分类结果的准确率较低的问题。
根据本公开的一个方面,提供一种人体动作识别方法,包括:
提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;
将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
在本公开的一种示例性实施例中,所述骨骼点分类模型包括第一归一化层、第二归一化层、深度图网络模块、第一池化层、第二池化层、第一拼接层、第一全连接层以及支持向量机分类模型;
其中,将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果,包括:
利用所述第一归一化层以及第二归一化层分别对所述人体骨骼点数据以及人体骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;
利用所述深度图网络模块对所述归一化的骨骼点数据以及归一化的骨骼数据进行处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;
利用所述第一池化层以及第二池化层对第一关联特征以及第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;
通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到所述第一动作分类结果。
在本公开的一种示例性实施例中,利用所述深度图网络模块对所述归一化的骨骼点数据以及归一化的骨骼数据进行处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征,包括:
利用所述深度图网络模块中包括第一爱因斯坦求和模块以及第二爱因斯坦求和模块对归一化的骨骼点数据以及归一化的骨骼数据进行求和运算,得到第一和运算结果以及第二和运算结果;
利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;
对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征。
在本公开的一种示例性实施例中,所述动作分类模块包括主干网络、颈部网络以及检测网络;
其中,将所述待识别图像输入至图像分类模型中,得到第二动作分类结果,包括:
利用所述主干网络中包括的聚集层对所述待识别图像进行下采样,并利用所述主干网络中包括的第一卷积层对下采样结果进行卷积处理,得到所述待识别图像的局部特征;
利用所述颈部网络对所述局部特征进行卷积处理、上采样处理以及拼接处理,得到所述待识别图像的全局特征;
利用所述检测网络对所述全局特征进行卷积处理以及激活处理,得到所述第二动作分类结果。
在本公开的一种示例性实施例中,所述人体动作识别方法还包括:
获取历史人体姿态图像,并根据所述历史人体姿态图像以及所述历史人体姿态图像的实际姿态标签,构建数据集;其中,所述人体姿态图像包括跌倒姿态以及除跌倒姿态以外的其他姿态;
提取所述数据集中的历史人体姿态图像的姿态骨骼点,并将所述姿态骨骼点输入至图卷积神经网络模型中,得到第一预测姿态标签;
根据所述第一预测姿态标签以及实际姿态标签构建交叉熵损失函数,并利用所述交叉熵损失函数对所述图卷积神经网络模型进行训练,得到所述骨骼点分类模型。
在本公开的一种示例性实施例中,所述人体动作识别方法还包括:
对所述数据集中的历史人体姿态图像的实际姿态标签进行格式转换,并将所述数据集中的历史人体姿态图像输入至目标检测模型中,得到第二预测姿态标签;
根据所述第二预测姿态标签以及格式转换后的实际姿态标签构建边框回归损失函数以及类别和置信度损失函数;
利用所述边框回归损失函数以及类别和置信度损失函数对所述目标检测模型进行训练,得到所述图像分类模型。
在本公开的一种示例性实施例中,对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别,包括:
为所述第一动作分类结果以及第二动作分类结果配置第一权重以及第二权重;
对所述第一动作分类结果、第一权重、第二动作分类结果以及第二权重进行加权求和,得到所述目标对象的人体动作分类结果。
根据本公开的一个方面,提供一种人体动作识别装置,包括:
骨骼点数据提取模块,用于提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
第一分类结果计算模块,用于将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;
第二分类结果计算模块,用于将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
动作类别确定模块,用于对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的人体动作识别方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的人体动作识别方法。
本公开实施例提供的一种人体动作识别方法,一方面,通过提取待识别图像中包括的目标对象的人体骨骼点数据,并根据人体骨骼点数据计算人体骨骼数据;再将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;然后将待识别图像输入至图像分类模型中,得到第二动作分类结果;最后对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别,由于在对人体动作类别进行识别时,同时考虑到了图像分类以及骨骼点分类,进而解决了现有技术中由于受限于骨骼点特征,会使得动作分类结果的准确率较低的问题;另一方面,在图像分类的基础上,同时考虑到了人体骨骼数据以及人体骨骼点数据,避免了由于仅通过图像分类对人体动作识别进而导致的场景适用性较低的问题;再一方面,由于在根据骨骼数据进行分类时,同时考虑到了骨骼数据以及骨骼点数据,进而避免了由于仅根据骨骼点数据进行分类导致的第一动作分类结果的准确率低的问题,进一步的提升了分类结果的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出根据本公开示例实施例的一种人体动作识别方法的流程图。
图2示意性示出根据本公开示例实施例的一种骨骼点分类模型的结构示例图。
图3示意性示出根据本公开示例实施例的一种深度图网络模块的结构示例图。
图4示意性示出根据本公开示例实施例的一种骨骼点分类模型的训练方法的流程图。
图5示意性示出根据本公开示例实施例的一种目标检测模型的结构示例图。
图6示意性示出根据本公开示例实施例的一种目标检测模型的训练方法的流程图。
图7示意性示出根据本公开示例实施例的一种将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果的方法流程图。
图8示意性示出根据本公开示例实施例的另一种人体动作识别方法的流程图。
图9以及图10分别示意性示出根据本公开示例实施例的一种人体骨骼点数据的场景示例图。
图11以及图12分别示意性示出根据本公开示例实施例的一种第一动作分类结果的场景示例图。
图13以及图14分别示意性示出根据本公开示例实施例的一种第二动作分类结果的场景示例图。
图15示意性示出根据本公开示例实施例的一种人体动作识别装置的框图。
图16示意性示出根据本公开示例实施例的一种用于实现上述人体动作识别方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
随着计算机视觉的不断发展,对人体的动作分类一直受到人们的关注。根据人体动作识别的类别不同,可以将人体动作识别分为视频识别和图像识别两种。其中,基于视频的动作识别通过动作序列进行检测,而利用图像进行识别的方法,仅通过识别单张图像中的动作信息,进行图像的动作识别。
其中,通过图像识别实现动作分类可以通过目标检测、图卷积神经网络两种方法实现。在实验中发现,两种方法各有利弊,目标检测直接对原图像进行特征的提取,因而在动作分类的准确率更高,但同时目标检测也依赖于场景,场景的变化对目标检测的影响较大。第二种方式首先对人体进行姿态估计,即提取人体的骨骼点信息,然后基于骨骼点数据进行动作分类,这种方式对场景的变化影响很小,但受限于骨骼点特征,动作分类的准确率会有所下降。
基于此,本示例实施方式中首先提供了一种人体动作识别方法,该方法可以运行于服务器、服务器集群或云服务器等;当然,本领域技术人员也可以根据需求在其他平台运行本公开的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该人体动作识别方法可以包括以下步骤:
步骤S110.提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
步骤S120.将所述人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;
步骤S130.将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
步骤S140.对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
上述人体动作识别方法中,一方面,通过提取待识别图像中包括的目标对象的人体骨骼点数据,并根据人体骨骼点数据计算人体骨骼数据;再将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;然后将待识别图像输入至图像分类模型中,得到第二动作分类结果;最后对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别,由于在对人体动作类别进行识别时,同时考虑到了图像分类以及骨骼点分类,进而解决了现有技术中由于受限于骨骼点特征,会使得动作分类结果的准确率较低的问题;另一方面,在图像分类的基础上,同时考虑到了人体骨骼数据以及人体骨骼点数据,避免了由于仅通过图像分类对人体动作识别进而导致的场景适用性较低的问题;再一方面,由于在根据骨骼数据进行分类时,同时考虑到了骨骼数据以及骨骼点数据,进而避免了由于仅根据骨骼点数据进行分类导致的第一动作分类结果的准确率低的问题,进一步的提升了分类结果的准确率。
以下,将结合附图对本公开示例实施例人体动作识别方法进行详细的解释以及说明。
首先,对本公开示例实施例的发明目的以及应用场景进行解释以及说明。
具体的,本公开结合图卷积神经网络和目标检测两个任务的结果,共同实现居家机器人对老人异常行为的监测,比如排查跌倒、昏厥等异常行为。本公开示例实施例所提供的人体动作识别方法,可以用于居家服务机器人,并通过居家服务机器人实现对老人的行为监测,进而通过融合骨骼点分类和目标检测的结果,更加准确监测老人的异常为。
本公开示例实施例所提供的人体动作识别方法,通过对室内图像进行目标检测和骨骼点的提取和分类,识别人体的异常情况,提高了动作分类任务的适用性和分类准确性。同时,利用图像目标检测实现动作分类能够准确捕捉人体的信息,但由于目标检测的场景局限性,目标检测对变化的场景适应性不高,为了提高动作分类的适用性,可以根据提取的骨骼数据进行动作分类,融合两者的结果共同判断动作类型,也可以有效提高分类的准确性。
其次,对本公开示例实施例所涉及到的骨骼点分类模型以及图像分类模型进行解释以及说明。
具体的,首先,参考图2所示,骨骼点分类模型可以包括第一归一化层210、第二归一化层220、深度图网络模块230、第一池化层240、第二池化层250、第一拼接层260、第一全连接层270以及支持向量机分类模型280。其中,第一归一化层以及第二归一化层与深度图网络模块连接后与第一拼接层连接,支持向量机分类模型通过第一全连接层与第一拼接层连接。
其中,参考图3所示,深度图网络模块可以包括第一爱因斯坦求和模块301、第二爱因斯坦求和模块302、第二拼接层303、第一重构维度模块304、第一维度换位模块305、第二全连接层306、第二维度换位模块307、第三归一化层308以及第一激活层309。同时有,第一爱因斯坦求和模块和第二爱因斯坦求和模块分别与第二拼接层连接,第二拼接层、第一重构维度模块、第一维度换位模块、第二全连接层、第二维度换位模块、第三归一化层以及第一激活层依次连接。
其次,参考图4所示,上述骨骼点分类模型的具体训练方法可以包括以下步骤:
步骤S410,获取历史人体姿态图像,并根据所述历史人体姿态图像以及所述历史人体姿态图像的实际姿态标签,构建数据集;其中,所述人体姿态图像包括跌倒姿态以及除跌倒姿态以外的其他姿态;
步骤S420,提取所述数据集中的历史人体姿态图像的姿态骨骼点,并将所述姿态骨骼点输入至图卷积神经网络模型中,得到第一预测姿态标签;
步骤S430,根据所述第一预测姿态标签以及实际姿态标签构建交叉熵损失函数,并利用所述交叉熵损失函数对所述图卷积神经网络模型进行训练,得到所述骨骼点分类模型。
以下,将结合图2以及图3对步骤S410-步骤S430进行解释以及说明。
首先,本公开示例实施例采用普遍使用的RGB摄像头采集RGB图像,供图像分类使用;同时,由于利用图像目标检测进行图像分类是视觉领域的重要任务之一,实际运用中也建立了大量数据集,比如ImageNet、Pascal、coco等,这些数据集的共同点是规模大,涵盖了各种场景,为了形成场景的适用性,可以从上述数据库中获取满足条件的历史人体姿态图像;其中,该条件为历史人体姿态图像中需要包括跌倒姿态的图像以及除开跌倒姿态以外的其他姿态,进而对各历史人体姿态图像进行标注得到实际姿态标签(其中,实际姿态标签中,跌倒的标签为1,其他标签为0),再根据历史人体姿态图像以及实际姿态标签构建数据集;其中,数据集可以按照7:3的比例分配训练集和验证集。在标注的过程中,可以将人体动作分类16类,具体可以如下表1所示:
表1
跌倒-显示部分身体-全部着地 | 1_0_1 |
跌倒-显示部分身体-上半身着地 | 1_0_2 |
跌倒-显示部分身体-下半身着地 | 1_0_3 |
跌倒-显示完整身体-全部着地 | 1_1_1 |
跌倒-显示完整身体-上半身着地 | 1_1_2 |
跌倒-显示完整身体-下半身着地 | 1_1_3 |
站立-显示部分身体 | 2_0 |
站立-显示全部身体 | 2_1 |
坐-显示部分身体 | 3_0 |
坐-显示全部身体 | 3_1 |
蹲-显示部分身体 | 4_0 |
蹲-显示全部身体 | 4_1 |
其他-显示部分身体 | 0_0 |
其他-显示全部身体 | 0_1 |
跌倒中-显示部分身体 | 5_0 |
跌倒中-显示全部身体 | 5_1 |
标注结果以目标“人”为单位,训练集:正样本:7821个,负样本:14988个;验证集:正样本:192个,负样本:682个。
其次,当得到数据集以后,可以通过openpose提取数据集中的历史人体姿态图像的姿态骨骼点(18个骨骼点信息),再根据姿态骨骼点计算姿态骨骼数据,最后将姿态骨骼点以及姿态骨骼数据一起输入至图卷积神经网络模型中,得到第一预测姿态标签。其中,图卷积神经网络对姿态骨骼点以及姿态骨骼数据的具体处理过程可以如下所示:
首先,利用所述第一归一化层以及第二归一化层分别对所述姿态骨骼点以及姿态骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;利用所述深度图网络模块中包括第一爱因斯坦求和模块以及第二爱因斯坦求和模块对归一化的骨骼点数据以及归一化的骨骼数据进行求和运算,得到第一和运算结果以及第二和运算结果;
其次,利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并通过第一重构维度模块以及第一维度换位模块对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;
然后,利用第二全连接层以及第二维度换位模块对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并利用第三归一化层以及第一激活层对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;
进一步的,利用所述第一池化层以及第二池化层对第一关联特征以及第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;
最后,通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到第一预测姿态标签。
进一步的,当得到第一预测姿态标签以后,即可根据第一预测姿态标签以及实际姿态标签构建交叉熵损失函数L1(pytorch中的Cross Entropy Loss()),具体可以如下公式(1)所示:
其中,n为样本的数量,yi'为第一预测姿态标签,yi为实际姿态标签。
进一步的,参考图5所示,目标检测模型可以包括主干网络510、颈部网络520以及检测网络530。其中,主干网络、颈部网络以及检测网络依次连接。同时,主干网络包括聚集层511以及多个第一卷积层512;颈部网络可以包括多个第二卷积层521、多个上采样层522以及多个第三拼接层523;检测网络中包括多个第三卷积层531以及多个第二激活层532。
最后,参考图6所示,上述图像分类模型的具体训练方法可以包括以下步骤:
步骤S610,对所述数据集中的历史人体姿态图像的实际姿态标签进行格式转换,并将所述数据集中的历史人体姿态图像输入至目标检测模型中,得到第二预测姿态标签;
步骤S620,根据所述第二预测姿态标签以及格式转换后的实际姿态标签构建边框回归损失函数以及类别和置信度损失函数;
步骤S630,利用所述边框回归损失函数以及类别和置信度损失函数对所述目标检测模型进行训练,得到所述图像分类模型。
以下,结合图5对步骤S610-步骤S630进行解释以及说明。首先,将待训练图像的标注信息(实际姿态标签)按yolov5所需要的标注格式进行转换,并修改标注种类信息。然后,将数据集中的历史人体姿态图像输入至目标检测模型中,得到第二预测姿态标签。其中,第二预测姿态标签的具体处理过程可以如下所示:
首先,利用所述主干网络中包括的聚集层对所述历史人体姿态图像进行下采样,并利用所述主干网络中包括的第一卷积层对下采样结果进行卷积处理,得到所述历史人体姿态图像的局部特征;
其次,利用所述颈部网络中包括的第二卷积层、上采样层以及第三拼接层对所述局部特征进行卷积处理、上采样处理以及拼接处理,得到所述历史人体姿态图像的全局特征;
最后,利用所述检测网络中包括的第三卷积层以及第三激活层对所述全局特征进行卷积处理以及激活处理,得到所述第二预测姿态标签。
进一步的,当得到第二预测姿态标签以后,即可根据第二预测姿态标签以及格式转换后的实际姿态标签构建边框回归损失函数(GIOU_Loss)以及类别和置信度损失函数(nn.BCEWithLogitsLoss),再基于该边框回归损失函数以及类别和置信度损失函数对目标检测模型(yolov5)进行训练,进而得到图像分类模型。
此处需要补充说明的是,yolov5中的聚集层(Focus)和第一卷积层(Conv)的参数为(c_in,c_out,kernel_size,stride),颈部网络的参数为(c_in,c_out,[kernel_size1,kernel_size2,kernel_size3]),检测网络的参数(c_in,c_out);并且,图中所示出的第三拼接层是axes=1时的合并,上采样层的scale_factor为2:输出图像为输入图像的2倍。
至此,已经完成了对骨骼点分类模型以及图像分类模型的训练过程。以下,将结合上述骨骼点分类模型以及图像分类模型,对图1中示出的人体动作识别方法中包括的步骤进行解释以及说明。
在步骤S110中,提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据。
在本示例实施例中,首先,需要从视觉模态信息中选取待识别图像;其中,视觉模态信息可以包括RGB图像、深度图像、光流图、红外图像等,RGB图像是最直观的视觉信息,是最常见的识别对象;因此,此处采用普遍使用的RGB摄像头采集RGB图像,进行人体动作识别;其次,需要通过openpose对待识别图像进行处理,进而得到人体18个骨骼点的数据;进一步的,根据人体骨骼点数据计算人体骨骼数据,具体的计算方法可以包括:将人体骨骼点数据依次连接,进而得到人体骨骼数据。通过该方法,使得最终的第一动作分类结果无需受限于骨骼点特征,在提高第一动作分类结果的准确率的基础上,进而提高最终的人体动作识别结果的准确率。
在步骤S120中,将所述人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果。
在本示例实施例中,参考图7所示,将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果,可以包括以下步骤:
步骤S710,利用所述第一归一化层以及第二归一化层分别对所述人体骨骼点数据以及人体骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;
步骤S720,利用所述深度图网络模块对所述归一化的骨骼点数据以及归一化的骨骼数据进行处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;
具体的,首先,利用所述深度图网络模块中包括第一爱因斯坦求和模块以及第二爱因斯坦求和模块对归一化的骨骼点数据以及归一化的骨骼数据进行求和运算,得到第一和运算结果以及第二和运算结果;其次,利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;然后,对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征。
步骤S730,利用所述第一池化层以及第二池化层对第一关联特征以及第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;
步骤S740,通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到所述第一动作分类结果。
以下,将对步骤S710-步骤S740进行解释以及说明。具体的,将人体骨骼点数据以及人体骨骼数据作为两个分支,每条分支经过归一化处理,即经过BatchNormalize,得到归一化的骨骼点数据以及归一化的骨骼数据;然后,将归一化后的骨骼点数据以及归一化的骨骼数据经过10个深度图网络模块得到第一关联特征以及第二关联特征;进一步的,经过深度图网络模块处理后的骨骼点数据以及骨骼数据(第一关联特征以及第二关联特征)分别经过池化处理后,再经过拼接连接,然后经过第一全连接层,最后经过支持向量机模型训练,得到第一动作分类结果。
在步骤S130中,将所述待识别图像输入至图像分类模型中,得到第二动作分类结果。
在本示例实施例中,首先,利用所述主干网络中包括的聚集层对所述待识别图像进行下采样,并利用所述主干网络中包括的第一卷积层对下采样结果进行卷积处理,得到所述待识别图像的局部特征;其次,利用所述颈部网络对所述局部特征进行卷积处理、上采样处理以及拼接处理,得到所述待识别图像的全局特征;最后,利用所述检测网络对所述全局特征进行卷积处理以及激活处理,得到所述第二动作分类结果。
此处需要补充说明的是,在进行骨骼识别的基础上,同时加入了对图像中的目标进行检测,进而得到第二动作分类结果,可以进一步的提高人体动作识别结果的准确率。
在步骤S140中,对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
在本示例实施例中,首先,为所述第一动作分类结果以及第二动作分类结果配置第一权重以及第二权重;其次,对所述第一动作分类结果、第一权重、第二动作分类结果以及第二权重进行加权求和,得到所述目标对象的人体动作分类结果。其中,具体的计算过程可以如下公式(2)所示:
Fout=α*Yout+β*Gout; 公式(2)
其中,Fout为最终得到的人体动作类别,Yout为第一动作分类结果,Gout为第二动作分类结果;α为第一权重,β为第二权重,并且有:α+β=1。进一步的,α的取值分别取0.45,0.5,0.55,0.6,0.65,0.7,0.75,0.8,0.85,0.9,0.95。以0.55为分类阈值对18502个标记样本进行准确率统计,可以得出当α的取值为0.45时,准确率最高,因此选定α为0.45,则β为0.55。
以下,结合图8对本公开示例实施例人体动作识别方法进行进一步的解释以及说明。
参考图8所示,该人体动作识别方法可以包括以下步骤:
步骤S801,构建数据集,并标注出数据集中的历史人体姿态图像中的人体框位置及当前人体对应的动作分类,跌倒标记为1,未跌倒标记为0;
步骤S802,提取骨骼点:将数据集通过openpose提取骨骼点,将检测到的骨骼点与标注文件进行对应,得到不同人体骨骼点的动作分类;
步骤S803,对图卷积神经网络进行训练:将骨骼点数据及对应的标注数据送入图卷积神经网络进行跌倒检测模型训练得到基于骨骼点数据的跌倒检测模型(骨骼点分类模型);
步骤S804,利用数据集对目标检测模型进行训练:将原图像和标注文件送入youlov5进行跌倒检测模型训练得到基于图像的跌倒检测模型(图像分类模型);
步骤S805,计算人体骨骼数据:提取待识别图像的人体骨骼点,并根据人体骨骼点计算人体骨骼数据;其中,openpose提取的骨骼点具体可以参考图9以及图10所示;
步骤S806,计算第一动作分类结果:将人体骨骼数据以及人体骨骼点数据输入到以上训练得到的骨骼点分类模型,得到第一动作分类结果,具体可以参考图11以及图12所示;
步骤S807,计算第二动作分类结果:将待识别的图像经过训练后的图像分类模型,得到第二动作分类结果,具体可以参考图13以及图14所示;
步骤S808,分类结果融合:将两种分类结果进行融合,跌倒的可能性:
Fout1=0.45*0+(1-0.45)*0.52=0.28
Fout2=0.45*0.87+(1-0.45)*1=0.94(α取值0.45)
设置跌倒阈值为0.55,由于0.94>0.55,因此图像9中检出一个人体有跌倒;
Fout3=0.45*0+(1-0.45)*1=0.55(α取值0.45);
因此图像10将未跌倒的阈值设置为0.55,图像中未检测出跌倒。
基于此,可以毫无疑问的得出,本公开示例实施例提供的人体动作识别方法,通过利用图像的目标检测进行动作分类,提高识别的准确率;同时,图像基于openpose提取的骨骼点数据经过图卷积神经网络进行动作分类,该方法的不依赖与场景,适用范围更广;进一步的,该方法运用RGB图像进行动作分类,RGB图像相较于深度图像、光流图、红外图像等更易获取;而且,融合目标检测和图卷积神经网络,两种算法互相补偿,融合后的分类结果更加准确。
本公开示例实施例还提供了一种人体动作识别装置。参考图15所示,该人体动作识别装置可以包括骨骼点数据提取模块1510、第一分类结果计算模块1520、第二分类结果计算模块1530以及动作类别确定模块1540。其中:
骨骼点数据提取模块1510可以用于提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
第一分类结果计算模块1520可以将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;
第二分类结果计算模块1530可以用于将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
动作类别确定模块1540可以用于对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
在本公开的一种示例性实施例中,所述骨骼点分类模型包括第一归一化层、第二归一化层、深度图网络模块、第一池化层、第二池化层、第一拼接层、第一全连接层以及支持向量机分类模型;
其中,将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果,包括:
利用所述第一归一化层以及第二归一化层分别对所述人体骨骼点数据以及人体骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;
利用所述深度图网络模块对所述归一化的骨骼点数据以及归一化的骨骼数据进行处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;
利用所述第一池化层以及第二池化层对第一关联特征以及第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;
通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到所述第一动作分类结果。
在本公开的一种示例性实施例中,利用所述深度图网络模块对所述归一化的骨骼点数据以及归一化的骨骼数据进行处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征,包括:
利用所述深度图网络模块中包括第一爱因斯坦求和模块以及第二爱因斯坦求和模块对归一化的骨骼点数据以及归一化的骨骼数据进行求和运算,得到第一和运算结果以及第二和运算结果;
利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;
对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征。
在本公开的一种示例性实施例中,所述动作分类模块包括主干网络、颈部网络以及检测网络;
其中,将所述待识别图像输入至图像分类模型中,得到第二动作分类结果,包括:
利用所述主干网络中包括的聚集层对所述待识别图像进行下采样,并利用所述主干网络中包括的第一卷积层对下采样结果进行卷积处理,得到所述待识别图像的局部特征;
利用所述颈部网络对所述局部特征进行卷积处理、上采样处理以及拼接处理,得到所述待识别图像的全局特征;
利用所述检测网络对所述全局特征进行卷积处理以及激活处理,得到所述第二动作分类结果。
在本公开的一种示例性实施例中,所述人体动作识别装置还包括:
数据集构建模块,可以用于获取历史人体姿态图像,并根据所述历史人体姿态图像以及所述历史人体姿态图像的实际姿态标签,构建数据集;其中,所述人体姿态图像包括跌倒姿态以及除跌倒姿态以外的其他姿态;
第一预测姿态标签确定模块,用于提取所述数据集中的历史人体姿态图像的姿态骨骼点,并将所述姿态骨骼点输入至图卷积神经网络模型中,得到第一预测姿态标签;
第一训练模块,用于根据所述第一预测姿态标签以及实际姿态标签构建交叉熵损失函数,并利用所述交叉熵损失函数对所述图卷积神经网络模型进行训练,得到所述骨骼点分类模型。
在本公开的一种示例性实施例中,所述人体动作识别装置还包括:
第二预测姿态标签确定模块,可以用于对所述数据集中的历史人体姿态图像的实际姿态标签进行格式转换,并将所述数据集中的历史人体姿态图像输入至目标检测模型中,得到第二预测姿态标签;
构建模块,可以用于根据所述第二预测姿态标签以及格式转换后的实际姿态标签构建边框回归损失函数以及类别和置信度损失函数;
第二训练模块,可以用于利用所述骨骼点以及骨骼的关联特征对所述目标检测模型进行训练,得到所述图像分类模型。
在本公开的一种示例性实施例中,对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别,包括:
为所述第一动作分类结果以及第二动作分类结果配置第一权重以及第二权重;
对所述第一动作分类结果、第一权重、第二动作分类结果以及第二权重进行加权求和,得到所述目标对象的人体动作分类结果。
上述人体动作识别装置中各模块的具体细节已经在对应的人体动作识别方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图16来描述根据本公开的这种实施方式的电子设备1600。图16显示的电子设备1600仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图16所示,电子设备1600以通用计算设备的形式表现。电子设备1600的组件可以包括但不限于:上述至少一个处理单元1610、上述至少一个存储单元1620、连接不同系统组件(包括存储单元1620和处理单元1610)的总线1630以及显示单元1640。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1610执行,使得所述处理单元1610执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1610可以执行如图1中所示的步骤S110:提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;步骤S120:将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;步骤S130:将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;步骤S140:对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别。
存储单元1620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)16201和/或高速缓存存储单元16202,还可以进一步包括只读存储单元(ROM)16203。
存储单元1620还可以包括具有一组(至少一个)程序模块16205的程序/实用工具16204,这样的程序模块16205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1600也可以与一个或多个外部设备1700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1600交互的设备通信,和/或与使得该电子设备1600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1650进行。并且,电子设备1600还可以通过网络适配器1660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1660通过总线1630与电子设备1600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里发明的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未发明的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (8)
1.一种人体动作识别方法,其特征在于,包括:
提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;其中,所述骨骼点分类模型包括第一归一化层、第二归一化层、深度图网络模块、第一池化层、第二池化层、第一拼接层、第一全连接层以及支持向量机分类模型;
将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别;
其中,将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果,包括:
利用所述第一归一化层以及第二归一化层分别对所述人体骨骼点数据以及人体骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;利用所述深度图网络模块中包括的第一爱因斯坦求和模块对归一化的骨骼点数据进行求和运算,得到第一和运算结果,利用所述深度图网络模块中包括的第二爱因斯坦求和模块对归一化的骨骼数据进行求和运算,得到第二和运算结果;利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;利用所述第一池化层对第一关联特征进行降维处理,利用所述第二池化层对第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到所述第一动作分类结果。
2.根据权利要求1所述的人体动作识别方法,其特征在于,所述图像分类模型包括主干网络、颈部网络以及检测网络;
其中,将所述待识别图像输入至图像分类模型中,得到第二动作分类结果,包括:
利用所述主干网络中包括的聚集层对所述待识别图像进行下采样,并利用所述主干网络中包括的第一卷积层对下采样结果进行卷积处理,得到所述待识别图像的局部特征;
利用所述颈部网络对所述局部特征进行卷积处理、上采样处理以及拼接处理,得到所述待识别图像的全局特征;
利用所述检测网络对所述全局特征进行卷积处理以及激活处理,得到所述第二动作分类结果。
3.根据权利要求1所述的人体动作识别方法,其特征在于,所述人体动作识别方法还包括:
获取历史人体姿态图像,并根据所述历史人体姿态图像以及所述历史人体姿态图像的实际姿态标签,构建数据集;其中,所述历史人体姿态图像包括跌倒姿态以及除跌倒姿态以外的其他姿态;
提取所述数据集中的历史人体姿态图像的姿态骨骼点,并将所述姿态骨骼点输入至图卷积神经网络模型中,得到第一预测姿态标签;
根据所述第一预测姿态标签以及实际姿态标签构建交叉熵损失函数,并利用所述交叉熵损失函数对所述图卷积神经网络模型进行训练,得到所述骨骼点分类模型。
4.根据权利要求3所述的人体动作识别方法,其特征在于,所述人体动作识别方法还包括:
对所述数据集中的历史人体姿态图像的实际姿态标签进行格式转换,并将所述数据集中的历史人体姿态图像输入至目标检测模型中,得到第二预测姿态标签;
根据所述第二预测姿态标签以及格式转换后的实际姿态标签构建边框回归损失函数以及类别和置信度损失函数;其中,所述类别和置信度损失函数为nn.BCEWithLogitsLoss;
利用所述边框回归损失函数以及类别和置信度损失函数对所述目标检测模型进行训练,得到所述图像分类模型。
5.根据权利要求1所述的人体动作识别方法,其特征在于,对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别,包括:
为所述第一动作分类结果以及第二动作分类结果配置第一权重以及第二权重;
对所述第一动作分类结果、第一权重、第二动作分类结果以及第二权重进行加权求和,得到所述目标对象的人体动作分类结果。
6.一种人体动作识别装置,其特征在于,包括:
骨骼点数据提取模块,用于提取待识别图像中包括的目标对象的人体骨骼点数据,并根据所述人体骨骼点数据计算人体骨骼数据;
第一分类结果计算模块,用于将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果;其中,所述骨骼点分类模型包括第一归一化层、第二归一化层、深度图网络模块、第一池化层、第二池化层、第一拼接层、第一全连接层以及支持向量机分类模型;
第二分类结果计算模块,用于将所述待识别图像输入至图像分类模型中,得到第二动作分类结果;
动作类别确定模块,用于对第一动作分类结果以及第二动作分类结果进行融合,得到目标对象的人体动作类别;
其中,将人体骨骼点数据以及人体骨骼数据输入至骨骼点分类模型中,得到第一动作分类结果,包括:
利用所述第一归一化层以及第二归一化层分别对所述人体骨骼点数据以及人体骨骼数据进行归一化处理,得到归一化的骨骼点数据以及归一化的骨骼数据;利用所述深度图网络模块中包括的第一爱因斯坦求和模块对归一化的骨骼点数据进行求和运算,得到第一和运算结果,利用所述深度图网络模块中包括的第二爱因斯坦求和模块对归一化的骨骼数据进行求和运算,得到第二和运算结果;利用所述深度图网络模块中包括的第二拼接层对所述第一和运算结果以及第二和运算结果进行拼接得到第二拼接特征,并对所述第二拼接特征进行重构维度处理以及维度换位处理,得到骨骼点以及骨骼的关联特征;对所述骨骼点以及骨骼的关联特征进行全连接处理以及维度换位处理,并对处理后的骨骼点以及骨骼的关联特征进行归一化处理以及激活处理,得到骨骼点与骨骼之间的第一关联特征以及骨骼与骨骼点之间的第二关联特征;利用所述第一池化层对第一关联特征进行降维处理,利用所述第二池化层对第二关联特征进行降维处理,并通过所述第一拼接层对降维处理后的第一关联特征以及第二关联特征进行拼接得到第一拼接特征;通过所述第一全连接层将第一拼接特征映射至预设的动作类别上,并通过所述支持向量机分类模型确定每一个动作类别的概率,根据动作类别的概率,得到所述第一动作分类结果。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-5任一项所述的人体动作识别方法。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-5任一项所述的人体动作识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110917799.0A CN113537148B (zh) | 2021-08-11 | 2021-08-11 | 人体动作识别方法及装置、可读存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110917799.0A CN113537148B (zh) | 2021-08-11 | 2021-08-11 | 人体动作识别方法及装置、可读存储介质、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537148A CN113537148A (zh) | 2021-10-22 |
CN113537148B true CN113537148B (zh) | 2024-04-19 |
Family
ID=78090844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110917799.0A Active CN113537148B (zh) | 2021-08-11 | 2021-08-11 | 人体动作识别方法及装置、可读存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537148B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724254B (zh) * | 2022-05-16 | 2022-12-30 | 北京百度网讯科技有限公司 | 确定动作类别的方法、装置、设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580559A (zh) * | 2020-12-25 | 2021-03-30 | 山东师范大学 | 基于骨架特征和视频表征结合的双流视频行为识别方法 |
CN112906604A (zh) * | 2021-03-03 | 2021-06-04 | 安徽省科亿信息科技有限公司 | 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9208554B2 (en) * | 2012-01-16 | 2015-12-08 | Intelliview Technologies Inc. | Apparatus for detecting humans on conveyor belts using one or more imaging devices |
-
2021
- 2021-08-11 CN CN202110917799.0A patent/CN113537148B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580559A (zh) * | 2020-12-25 | 2021-03-30 | 山东师范大学 | 基于骨架特征和视频表征结合的双流视频行为识别方法 |
CN112906604A (zh) * | 2021-03-03 | 2021-06-04 | 安徽省科亿信息科技有限公司 | 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113537148A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108171260B (zh) | 一种图片识别方法及系统 | |
EP3637317A1 (en) | Method and apparatus for generating vehicle damage information | |
EP3637310A1 (en) | Method and apparatus for generating vehicle damage information | |
CN112488073A (zh) | 目标检测方法、系统、设备及存储介质 | |
CN110555405B (zh) | 目标跟踪方法及装置、存储介质和电子设备 | |
CN110175528B (zh) | 人体跟踪方法及装置、计算机设备及可读介质 | |
US11048917B2 (en) | Method, electronic device, and computer readable medium for image identification | |
CN113901911B (zh) | 图像识别、模型训练方法、装置、电子设备及存储介质 | |
CN112270246B (zh) | 视频行为识别方法及装置、存储介质、电子设备 | |
CN110781970A (zh) | 分类器的生成方法、装置、设备及存储介质 | |
CN113052295A (zh) | 一种神经网络的训练方法、物体检测方法、装置及设备 | |
CN113537148B (zh) | 人体动作识别方法及装置、可读存储介质、电子设备 | |
CN114943937A (zh) | 行人重识别方法、装置、存储介质及电子设备 | |
CN116959099B (zh) | 一种基于时空图卷积神经网络的异常行为识别方法 | |
WO2020215682A1 (zh) | 眼底图像样本扩展方法、装置、电子设备及计算机非易失性可读存储介质 | |
CN115273148B (zh) | 行人重识别模型训练方法、装置、电子设备及存储介质 | |
CN114783597B (zh) | 多类疾病诊断的诊断方法及装置、电子设备和存储介质 | |
CN113591709B (zh) | 动作识别方法、装置、设备、介质和产品 | |
CN113657022B (zh) | 一种芯片故障识别方法及相关设备 | |
CN113191364B (zh) | 车辆外观部件识别方法、装置、电子设备和介质 | |
CN113792569B (zh) | 对象识别方法、装置、电子设备及可读介质 | |
CN112530554B (zh) | 一种扫描定位方法、装置、存储介质及电子设备 | |
CN114299539A (zh) | 一种模型训练方法、行人重识别方法和装置 | |
CN113887414A (zh) | 目标检测方法、装置、电子设备和存储介质 | |
CN114332993A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |