CN111914796A - 基于深度图和骨骼点的人体行为识别方法 - Google Patents
基于深度图和骨骼点的人体行为识别方法 Download PDFInfo
- Publication number
- CN111914796A CN111914796A CN202010823992.3A CN202010823992A CN111914796A CN 111914796 A CN111914796 A CN 111914796A CN 202010823992 A CN202010823992 A CN 202010823992A CN 111914796 A CN111914796 A CN 111914796A
- Authority
- CN
- China
- Prior art keywords
- action
- cuboid
- point cloud
- sub
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度图和骨骼点的人体行为识别方法,使用时间金字塔对行为序列进行不同尺度的分割,保留了行为内部的时序信息;只使用对行为贡献大的重要部位的相关数据进行特征提取,去除了不同行为中较为相似的数据,特征“纯度”高;通过划分空间子格的方式,较为精确的表达了人体重要部位的运动轨迹在空间中的分布情况。实际应用情况表明,该方法提取的特征,对于人体行为识别具有较好的区分度。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于深度图和骨骼点的人体行为识别方法。
背景技术
人体行为识别是指根据传感器采集到的信息,对人体的行为进行分类和识别;按照所使用的传感器的不同,可将人体行为识别方法分为基于视觉的和基于非视觉的方法;本发明关注的是基于视觉的人体行为识别。
早期的行为识别使用RGB传感器采集到的彩色图像序列,基于颜色提取了如梯度直方图、光流直方图和稠密轨迹等特征;这些特征来源于颜色,因此易受到环境中复杂背景和光照变化带来的影响,导致识别效果较差。
随着深度传感器的发展,获取深度数据的成本大大降低,研究人员开始使用深度数据进行人体行为识别的研究,包括深度图和从中恢复出来的三维人体骨骼坐标;深度数据较好的避免了复杂环境和光照变化带来的影响,但在行为识别中简单地应用深度数据,识别的效果较差。
现有的人体行为识别存在的难点和挑战主要有:(1)容易忽略人体行为的执行顺序;(2)容易丢失人体各部位之间的空间信息;(3)行为执行过程中位移量很小的部位也参与特征构成,导致特征的“纯度”不高。
为了更好地实现人体行为识别,本发明提供了一种基于深度图和骨骼点的人体行为识别方法,使用时间金字塔来保留行为内部时序信息,通过筛选重要部位附近的点云生成运动轨迹,表达了重要部位在空间中的分布情况,可以较好地区分不同的人体动作。
发明内容
基于深度图和骨骼点的人体行为识别方法,其特征在于,包含以下步骤。
步骤1,获得单个行为的人体行为数据序列。
所述人体行为数据序列包括深度图序列和人体骨骼点三维坐标序列;所述数据序列也称数据帧或帧,类似于数字视频中的帧的概念。
步骤2,将深度图序列按帧转化为三维点云,只保留重要部位附近的点云。
所述将深度图序列按帧转化为三维点云,包括:
将深度图中像素的xy坐标作为三维点的xy坐标,将代表深度数据的像素值作为三维点的z坐标,从而形成三维点云,简称点云。
所述重要部位,包括:
重要部位是指参与绝大部分行为的身体部位,这些部位的动作幅度相比于其他部位更大;
人体重要部位可以根据经验指定,可用一个或一组人体骨骼点对其进行表示和定位。
所述重要部位附近点云,包括;
以表示重要部位的一个或一组骨骼点为中心,取一适当大小的长方体,被该长方体包含的三维点云的集合即为该重要部位附近点云。
步骤3,使用时间金字塔模型,对整个人体行为序列进行动作片段的划分。
所述时间金字塔模型,包括:
时间金字塔是一种通过划分尺度大小不同的时间段从而保留内部时序信息的方式,可用来对不同时间长度的行为序列进行比较,其特点是对时间序列进行不断的二分,从而构成不同的金字塔层;即每层采用平均分割,内部时间段不相交。
如第一层金字塔为原动作序列,第二层按时间均匀划分为2个动作片段;第三层再在第二层的基础上均分为4个动作片段;这样划分后一共有1+2+4共7个动作片段。
设某行为的总时长为T,设时间金字塔划一共划分为H层,则第h层有2(h-1)个时长均为T/(2(h-1))的动作片段;h∈[1,H],这样划分后一共有2H-1个动作片段;设H为3,一共有7个动作片段。
步骤4,在每个动作片段中,将重要部位的三维点云每帧叠加,得到重要部位的运动轨迹。
所述将重要部位的点云每帧叠加,得到重要部位的运动轨迹,包括:
对每个动作片段中,步骤2保留下来的重要部位的点云,每帧叠加,形成重要部位的点云运动轨迹,其实质是该动作片段中点云的历史轨迹。
步骤5,在单个行为的完整动作中人体所在的空间中划分子格,统计每个子格所包含三维点云的点数量并形成一个特征向量。
所述在单个行为的完整动作中人体所在的空间中划分网格,包括:
在单个行为的完整动作中人体所在的空间外,选取一个大小合适的外部长方体,使得该行为的全部动作的空间范围,均包含在该长方体中;对样本集中的所有行为都得到这个外部长方体,取一个平均值作为最终的外部长方体;然后对该长方体划分成w*h*d个大小相同的长方体子格。
所述统计每个子格所包含三维点云的点数量并形成一个特征向量,包括:
重要部位附近的点云运动轨迹绝大部分会落在不同区域的子格内,统计每个子格包含的三维点数,构成 (w*h*d)的特征向量;
落在外部长方体外的点云运动轨迹,按就近原则统计,或者忽略。
步骤6,将所有动作片段的特征向量值归一化到[0,1]区间,并按照相同的动作片段顺序拼接成历史运动轨迹特征向量。
所述归一化到[0,1]区间,包括:
将每个子格中的三维点云的点数量,除以该动作片段外部长方体包含的全部三维点云的点数量,转化为每个子格出现三维点的频率。
所述按照相同的动作片段顺序拼接成历史运动轨迹特征向量,包括:
将每个动作片段的特征向量拼接,且每个样本的拼接顺序需要相同,得到(w*h*d*2H-1)的历史运动轨迹特征向量。
步骤7,使用分类算法对历史运动轨迹特征进行训练和分类。
所述使用分类算法对历史运动轨迹特征进行训练和分类,包括:
针对包含多个志愿者和多种行为的人体行为数据序列数据集,对每个样本计算历史运动轨迹特征,分成训练集和测试集,使用分类算法对训练集进行分类训练,对测试集进行效果测试,从而获得最佳的特征参数和分类器参数,如外部长方体大小、划分子格数量等,以实现对人体行为的识别。
与现有技术相比,本发明具有如下优点:(1)本发明使用时间金字塔对行为序列进行不同尺度大小的分割,保留了行为内部的时序信息;(2)本发明只使用对行为贡献大的重要部位的相关数据进行特征提取,去除了不同行为中较为相似的数据,特征“纯度”高;(3)本发明通过划分空间子格的方式,较为精确的表达了人体重要部位的运动轨迹在空间中的分布情况。实际应用情况表明,该方法提取的特征,对于人体行为识别具有较好的区分度。
附图说明
图1是本发明方法的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施例中对本发明的技术方案进行更加详细和完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。
一种基于深度图和骨骼点的人体行为识别方法,如图1所示,包含以下步骤。
步骤1,获得或选择人体行为数据集,数据集应包含深度图和骨骼数据;得到单个行为的人体行为数据序列。
如可用采用公开的UTD-MHAD数据集,该数据集共861个样本,每个样本的每帧可以提供320*240的深度图和20个骨骼关节点的三维坐标。
步骤2,将深度图序列按帧转化为三维点云,利用骨骼关节点数据保留重要部位附近的点云。
将深度图中像素的xy坐标作为三维点的xy坐标,将代表深度数据的像素值作为三维点的z坐标,从而形成三维点云。
手和脚部是参与绝大部分行为的身体部位,且动作幅度相比于身体其他部位更大,可使用人体骨骼关节点中的手腕、手肘、膝盖和脚踝左右共8个关节点确定手和脚部的位置;即手和脚为重要部位,但取8个骨骼点。
取8个适当大小的长方体,使得上述8个重要部位的骨骼关节点分别位于8个长方体的中心位置,长方体的大小可设置为21*21*21。
利用上述8个骨骼关节点和长方形,对整个人体动作序列中每帧的点云,去掉8个长方体外部的点云。
步骤3,使用时间金字塔模型,对整个人体行为序列进行动作片段的划分。
设行为总时长为T,划分成4层,每层采用平均分割,时间段长度分别为T,T/2,T/4和T/8,共有1+2+4+8=15个时间片段。
步骤4,将每个动作片段中重要部位的三维点云每帧叠加,得到重要部位的运动轨迹。
对每个动作片段序列中的全部点云叠加,形成点云运动轨迹,即该运动轨迹包含的是上述8个骨骼点附近的点云。
步骤5,将单个行为的完整动作中人体所在的空间中划分子格,统计每个子格所包含三维点云的点数量并形成一个特征向量。
对样本集中的每一个人体行为,取所有三维点云中三个坐标方向的最大值和最小值,对应相减后得到的三个值即为该人体行为外部长方体的尺寸,再对样本集中的所有样本的外接长方形取平均值,得到最终的外部长方体,如175*90*130。
将外部长方体在三个方向上平均划分成w*h*d个大小相同的长方体子格,如可划分为7*6*5个长方体。
步骤4得到的每个动作片段的运动轨迹包含的任一三维点,或在外部长方体内,此时必定属于某一个子格,对应子格的计数器值加1;或在长方体外,此时该点不属于任何子格,直接丢弃;最后得到形成7*6*5的向量。
步骤6,归一化后将不同动作片段的向量拼接起来。
将每个子格的计数器值,除以当前所属时间段所有计数器值的和,得到三维点在子格中出现的频率,很好的表达了某个时间段内人体重要部位在空间中的分布情况。
最后将不同动作片段的归一化向量,按照相同的顺序拼接成历史运动轨迹特征,最后形成7*6*5*15的特征向量。
步骤7,使用分类算法进行模型训练和测试。
选择一半的数据作为训练集,另一半作为测试集,按照上述步骤,求出各个样本的历史运动轨迹特征,对训练集训练出模型,使用该模型对测试集测试。
所述分类算法可使用支持向量机(SVM: Support Vector Machine)。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的描述,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或者替换,并不使相应的技术方案的本质脱离本发明的各实施例技术方案的方范围。
Claims (7)
1.基于深度图和骨骼点的人体行为识别方法,其特征在于,包括以下步骤:
步骤1,获得单个行为的人体行为数据序列;
步骤2,将深度图序列按帧转化为三维点云,只保留重要部位附近的点云;
步骤3,使用时间金字塔模型,对整个人体行为序列进行动作片段的划分;
步骤4,在每个动作片段中,将重要部位的三维点云每帧叠加,得到重要部位的运动轨迹;
步骤5,将单个行为的完整动作中人体所在的空间中划分子格,统计每个子格所包含三维点云的点数量并形成一个特征向量;
步骤6,将所有动作片段的特征向量值归一化到[0,1]区间,并按照相同的动作片段顺序拼接成历史运动轨迹特征向量;
步骤7,使用分类算法对历史运动轨迹特征进行训练和分类。
2.基于权利要求1所述的方法,其特征在于,步骤2包括:
将深度图中像素的xy坐标作为三维点的xy坐标,将代表深度数据的像素值作为三维点的z坐标,从而形成三维点云;三维点云也称点云;
所述重要部位附近点云,指以表示重要部位的一个或一组骨骼点为中心,取一适当大小的长方体,被该长方体包含的三维点云的集合即为该重要部位附近点云。
3.基于权利要求1所述的方法,其特征在于,步骤3包括:
时间金字塔模型是一种通过划分尺度大小不同的时间段从而保留内部时序信息的方式,可用来对不同时间长度的行为序列进行比较,其特点是对时间序列进行不断的二分,从而构成不同的金字塔层;即每层采用平均分割,内部时间段不相交。
4.基于权利要求1所述的方法,其特征在于,步骤4包括:
对每个动作片段中,将步骤2保留下来的重要部位的点云,每帧叠加,形成重要部位的点云运动轨迹,其实质是该动作片段中点云的历史轨迹。
5.基于权利要求1所述的方法,其特征在于,步骤5包括:
在单个行为的完整动作中人体所在的空间外,选取一个大小合适的外部长方体,使得该行为的全部动作的空间范围,均包含在该长方体中;对样本集中的所有行为都得到这个外部长方体,取一个平均值作为最终的外部长方体;然后对该长方体划分成w*h*d个大小相同的长方体子格。
6.重要部位附近的点云运动轨迹会落在不同区域的子格内,统计每个子格包含的三维点数,构成(w*h*d)的特征向量。
7.基于权利要求1所述的方法,其特征在于,步骤6包括:
将每个子格中的三维点云的点数量,除以该动作片段外部长方体包含的全部三维点云的点数量,转化为每个子格出现三维点的频率;
将每个动作片段的特征向量拼接,且每个样本的拼接顺序需要相同,得到(w*h*d*2H-1)的历史运动轨迹特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010823992.3A CN111914796B (zh) | 2020-08-17 | 2020-08-17 | 基于深度图和骨骼点的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010823992.3A CN111914796B (zh) | 2020-08-17 | 2020-08-17 | 基于深度图和骨骼点的人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914796A true CN111914796A (zh) | 2020-11-10 |
CN111914796B CN111914796B (zh) | 2022-05-13 |
Family
ID=73279140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010823992.3A Active CN111914796B (zh) | 2020-08-17 | 2020-08-17 | 基于深度图和骨骼点的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914796B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749671A (zh) * | 2021-01-19 | 2021-05-04 | 澜途集思生态科技集团有限公司 | 一种基于视频的人体行为识别方法 |
CN116602664A (zh) * | 2023-07-17 | 2023-08-18 | 青岛市胶州中心医院 | 一种神经外科患者综合诊疗护理系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150287043A1 (en) * | 2014-04-02 | 2015-10-08 | Avaya Inc. | Network-based identification of device usage patterns that can indicate that the user has a qualifying disability |
CN105912991A (zh) * | 2016-04-05 | 2016-08-31 | 湖南大学 | 基于3d点云与关键骨骼节点的行为识别 |
CN108846348A (zh) * | 2018-06-07 | 2018-11-20 | 四川大学 | 一种基于三维骨骼特征的人体行为识别方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
CN110263720A (zh) * | 2019-06-21 | 2019-09-20 | 中国民航大学 | 基于深度图像和骨骼信息的动作识别方法 |
-
2020
- 2020-08-17 CN CN202010823992.3A patent/CN111914796B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150287043A1 (en) * | 2014-04-02 | 2015-10-08 | Avaya Inc. | Network-based identification of device usage patterns that can indicate that the user has a qualifying disability |
CN105912991A (zh) * | 2016-04-05 | 2016-08-31 | 湖南大学 | 基于3d点云与关键骨骼节点的行为识别 |
CN108846348A (zh) * | 2018-06-07 | 2018-11-20 | 四川大学 | 一种基于三维骨骼特征的人体行为识别方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
CN110263720A (zh) * | 2019-06-21 | 2019-09-20 | 中国民航大学 | 基于深度图像和骨骼信息的动作识别方法 |
Non-Patent Citations (3)
Title |
---|
CHIEN-HAO KUO 等: "Behavior Recognition Using Multiple Depth Cameras Based on a Time-Variant Skeleton Vector Projection", 《IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTATIONAL INTELLIGENCE》 * |
冉宪宇: "自适应骨骼中心的人体行为识别研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
黄潇逸: ""基于骨骼关节点投影特征的人体行为识别方法 "", 《现代计算机》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749671A (zh) * | 2021-01-19 | 2021-05-04 | 澜途集思生态科技集团有限公司 | 一种基于视频的人体行为识别方法 |
CN116602664A (zh) * | 2023-07-17 | 2023-08-18 | 青岛市胶州中心医院 | 一种神经外科患者综合诊疗护理系统 |
CN116602664B (zh) * | 2023-07-17 | 2023-09-22 | 青岛市胶州中心医院 | 一种神经外科患者综合诊疗护理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111914796B (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111126272B (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
KR101640998B1 (ko) | 화상 처리 장치 및 화상 처리 방법 | |
WO2022001571A1 (zh) | 一种基于超像素图像相似度的计算方法 | |
CN110689025B (zh) | 图像识别方法、装置、系统及内窥镜图像识别方法、装置 | |
CN110570352B (zh) | 图像标注方法、装置、系统及细胞标注方法 | |
CN108596102B (zh) | 基于rgb-d的室内场景物体分割分类器构造方法 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN113240691A (zh) | 一种基于u型网络的医学图像分割方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN108416266A (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
CN103914699A (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN111914796B (zh) | 基于深度图和骨骼点的人体行为识别方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN110807775A (zh) | 基于人工智能的中医舌像分割装置、方法及存储介质 | |
CN110827304B (zh) | 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN112101262A (zh) | 一种多特征融合手语识别方法及网络模型 | |
Reddy et al. | Novel algorithm based on region growing method for better image segmentation | |
Liao et al. | An edge-based approach to improve optical flow algorithm | |
CN113822323A (zh) | 脑部扫描图像的识别处理方法、装置、设备及存储介质 | |
Huang et al. | Skin lesion segmentation based on deep learning | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
Schenk et al. | Automatic glottis segmentation from laryngeal high-speed videos using 3D active contours |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |