CN106073793A - 基于微惯性传感器的姿态跟踪与识别方法 - Google Patents
基于微惯性传感器的姿态跟踪与识别方法 Download PDFInfo
- Publication number
- CN106073793A CN106073793A CN201610414379.XA CN201610414379A CN106073793A CN 106073793 A CN106073793 A CN 106073793A CN 201610414379 A CN201610414379 A CN 201610414379A CN 106073793 A CN106073793 A CN 106073793A
- Authority
- CN
- China
- Prior art keywords
- prime
- tend
- action
- data
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于微惯性传感器的姿态跟踪与识别方法,使用穿戴式微惯性传感器采集人体姿态数据并进行姿态数据处理,跟踪并识别用户的动作和行为,并依据预设标准动作对用户动作的规范程度进行评判并提出相应修正意见。本发明使用的技术方案包括基于差分原理的姿态数据处理及特征提取、基于角度阈值变化与起点检测的连续动作分割以及目标动作的识别提取与评判标准。本发明不仅克服了传统人体姿态跟踪与识别技术中光照、背景环境等外界因素对识别准确度的影响,降低了实现复杂度及设备成本,同时提升了跟踪及识别的可靠性。
Description
技术领域
本发明涉及人体姿态跟踪与识别技术领域,特别是一种基于微惯性传感器的姿态跟踪与识别方法。
背景技术
姿态跟踪与识别技术是近年来新兴的一种人机交互技术,可用于运动健身及体育锻炼、康复医疗、动画游戏及影视制作等领域,具有良好的市场应用前景。利用人体姿态跟踪与识别技术,在运动健身及体育锻炼领域,可以实现对用户动作姿态的实时跟踪识别,并参考该类别下的标准动作做出矫正建议,为用户提供更好的训练指导方案。在康复医疗领域,可用于辅助因意外或疾病导致肢体运动功能障碍患者的康复治疗,协助患者进行特定动作的肌肉训练。在动画游戏及影视制作领域,通过模仿实际人物动作控制虚拟人物动作,可以提升动画的真实度,用于游戏制作也可以增强互动性及娱乐性。
经典的人体姿态跟踪及识别技术的实现主要依靠计算机视觉,人们利用视频、图像,或者是关键位置标记光学点的方式对用户姿态进行捕捉,获得相关运动数据并从中提取出关键特征值,从而对用户行为进行处理及分析。但是基于计算机视觉技术实现人体姿态跟踪及识别的方法,受光照、背景条件、人物衣着影响较大,实施条件的局限性大,实现方案较复杂,设备成本较高,难以满足大众需求。
限于传统人体姿态识别方式的局限性,国内外研究机构转而将研究重点转向基于穿戴式设备的人体姿态识别与跟踪,尤其是基于惯性传感器的人体姿态识别与跟踪。基于穿戴式设备的人体姿态识别,是指将肢体视为刚体,将连接肢体的关节视为球铰,则人体可视为刚体—球铰模型,人体姿态的变化可视为刚体围绕球铰的变化,通过在待检测的肢体部分布置如表面肌电传感器、惯性传感器等可检测肢体行为状态变化的传感器,可检测人体的肢体实时动作姿态变化序列,通过一定的数据分析处理手段,从中提取姿态特征值,从而进行人体的姿态检测与识别。然而目前的研究多数在于人体姿态检测以及重构方面,研究重点主要集中在对人体姿态行为的捕捉及三维重构,而对采集得到的运动特征数据利用率较低,在运动标准化指导方面的研究较少。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种基于微惯性传感器的姿态跟踪与识别方法,克服传统人体姿态跟踪与识别技术存在的弊端,利用穿戴式的微惯性传感器采集人体姿态数据,克服光照、背景环境等因素对识别准确度的影响,并降低实现复杂度及设备成本,提升跟踪及识别的可靠性。
为解决上述技术问题,本发明所采用的技术方案是:一种基于微惯性传感器的姿态跟踪与识别方法,包括以下步骤:
1)定义标准动作行为库为:
其中,behavior0,behavior1,...,behaviorb∈BE,BE为人体行为库,T为点的变化趋势集合;0<l1<l2,...,lb-1<lb<+∞;i′0表示特征点为4×h维数据中的第i′0维数据,tend′1为特征点的变化趋势数据,表示特征点的数值大小,以此类推;h为用于采集人体的姿态四元数数据的惯性传感器个数;
2)提取每一个标准行为behaviori的起点、终点的姿态特征,并设集合B={begin1,begin2,...,begini,...,beginb}为待检测基础动作的起始姿态特征点集合,集合E={end1,end2,...,endi,...,endb}为待检测基础动作的结束姿态特征点集合;0≤i≤b;定义识别结果集合
R={(result1,dtw1),(result2,dtw2),...,(resultw,dtww)...,(resultx,dtwx)}用于存放本次动作识别的结果,元组(resultw,dtww)表示用户在动作检测过程中检测得到的每一种可能的行为结果,其中1≤w≤x,resultw为可能的动作行为名称,且满足result1,result2,result3,…,resultw,…,resultx,,dtww为用户动作与标准动作的距离差;
3)用户开始进行动作姿态变化,检测用户的动作序列特征点,并检测用户动作特征序列中满足待检测基础动作的起始姿态特征点集合B中各点条件的特征点;当检测得到用户动作特征序列满足B中的某个起始特征点beginm条件时,认为与起始特征点beginm相对应的行为动作开始,并取len长度作为本次检测的最大长度,进行行为动作behaviorm的检测,将behaviorm检测结果存入R;在len长度内,继续检测满足集合B中各点条件的特征点,当检测得到beginy时,认为behaviory开始,同样取len长度作为该检测的最大长度,并进行behaviory的检测,将behaviory检测结果存入R;依次类推,直至最后一个识别动作的len长度内,无新动作检测结果产生;0≤m≤b;0≤y≤b;
4)取集合R中dtw距离最小的元祖,该元祖对应的动作行为作为本次动作检测的结果。
步骤3)中,检测用户的动作序列特征点的实现过程包括以下步骤:
1)采集n个人体姿态一维数据,并将该n个一维数据表示为序列{q0,q1,...,qi,...,qn};对序列{q0,q1,...,qi,...,qn}进行一阶差分运算并将差分
运算的结果标准化,第t个数据qt的标准化数据q_dft为:
其中,threshold表示为了实现标准化所设置的阈值;0≤t≤n;
2)对一阶差分运算结果序列{q_df0,q_df1,...,q_dft,...,q_dfn}进行均值滤波:
其中,q_dmeant表示第t个一阶差分运算结果均值滤波后的标准化输出;
3)对均值滤波后的标准化输出结果{q_dmean1,q_dmean2,...q_dmeant,...,q_dmenn}进行二次差分运算,第t个数据q_dmeant的二次差分运算输出结果为:
4)引入tendt表示第t个检测点qt的变化趋势:tendt=3×q_meant-q_tdft;定义序列{q0,q1,...,qi,...,qn}的变化趋势集合为T={-5,-3,-2,-1,0,1,2,3,5};tendt∈T;
5)判断某点qt是否为特征点的判断标准为:
使用h个惯性传感器采集人体的姿态四元数数据,每一时刻每个传感器采集得到数据均为四维数据,故全部数据为4×h维,则对于第k个惯性传感器而言,当采样频率为1hz且系统从0时刻开始采集用户的姿态数据时,第Ti时刻惯性传感器传回的姿态数据表示为[qTi,4k-3,qTi,4k-2,qTi,4k-1,qTi,4k],则0至Ti时刻内,由第k个惯性传感器传回的全部姿态数据为:
其中,0<e<Ti;
6)由步骤2)、步骤3),对每一维姿态数据分别进行差分标准化运算,得到新的四维数据:
7)由步骤4)计算姿态变化趋势数据为:
8)由步骤5)完成对数据的筛选,从筛选的数据中提取出特征数据,即用户动作特征序列为:
其中,0≤j≤r<Ti,0≤i0,i1,...,ir≤4×h,tend0,tend1,...tendr∈T,ij表示第j个特征点是传感器传回的4×h维数据中的第j维数据,tendj为第j个特征点的变化趋势数据,表述第j个特征点数值的大小;r=p; 0<p<b,p∈{l1,l2,l3,…lb}。
检测结果R的计算过程包括:
1)利用权利要求2的步骤,构建模板动作的特征数据序列:
其中,0≤i′j<4h,tend′j∈T;
设置起点为待检测动作的起始姿态特征点,为待检测动作的结束姿态特征点,l为模板动作特征序列的长度,l∈{l1,l2,l3,…lb};
2)取用户动作特征序列中的点以及模板动作特征序列中的点定义判断条件:
当Value值为1时,认为满足的条件,即认为与匹配,否则认为不满足的匹配条件;
3)采用下述步骤进行指定动作行为的识别:
3a)利用步骤2)所述匹配条件,在用户的动作特征序列中检测满足集合BE中各个begin匹配条件的特征点;当检测得到begin,即begin判断条件值为1时,认为该动作已经开始,并从检测得到begin的特征点处起,取len长度作为检测的最大长度,依次进行其后续特征点的检测;
3b)当检测到end时,认为该动作结束,动作完整,将动作完整的动作特征点保存为用户动作特征数据序列;当未检测到end时,认为该动作结束,但动作不完整,将该动作不完整的动作特征点保存为用户动作特征数据序列;当未检测得到end,但检测得到新的begin时,认为该动作结束,但动作不完整,将动作结束但不完整的动作特征点保存为用户动作特征数据序列,并开始新的动作检测;
3c)将保存的用户动作特征数据序列与模板特征数据序列进行比较,使用用户特征数据序列与模板动作特征数据序列之间的dtw距离来表示用户动作序列与模板动作特征序列的匹配程度:
3d)得到的动作匹配程度与动作名称共同组成本次动作识别的识别结果(result,dtw),其中result为模板动作名称。
与现有技术相比,本发明所具有的有益效果为:本发明针对现有人体姿态跟踪与识别方法的不足,使用微惯性传感器采集人体姿态数据,实时采集用户的姿态数据并进行数据分析;结合人体运动学原理,使用姿态四元数进行数据分析,简化了数据运算。本发明可以实时跟踪和识别用户的姿态,并针对部分特定动作增加了行为矫正建议功能,便于用户自行对动作进行标准化训练。
附图说明
图1为人体行为结构分析图;
图2为运动数据七种基本变化趋势示意图
图3为动作检测流程图。
具体实施方式
本发明使用穿戴式微惯性传感器采集人体姿态数据并进行数据处理,跟踪并识别用户的动作行为,依据预设标准动作对用户动作规范程度进行评判并提出相应修正意见。
为实现所述姿态跟踪与识别。首先需要对姿态数据采集装置传入的运动数据进行去噪和姿态融合处理,并从处理之后的数据中提取出用户的动作特征序列,得到连续动作序列,并从中分析和提取出待识别的动作序列。另外,由于用户的动作过程是连续的,本发明要解决的问题还包括如何在连续动作中提取和分割出目标动作序列。
本发明使用的技术方案主要包括:本发明首先设计动作行为层次划分方法并用以确定检测,继而使用基于差分原理的姿态数据处理及特征提取方法进行数据处理,再基于起点检测的指定动作分割识别方法,对用户连续未指定动作进行分割与识别,完成基于姿态角变化的连续动作分割与识别。
一、动作行为层次划分方法,其原理描述如下:
通过人体动作行为层次进行划分可以确定进行人体动作识别时的检测对象。结合人体解剖学及人体运动学原理,可将人的动作和行为分为四个不同层次:行为、动作、基本动作和姿态。
所述行为,是指人为实现一定目的所完成的一系列动作组合,如踢足球、打篮球等,行为的种类是相对无限的,不同的动作由不同的一系列动作组成;所述动作,是指人有一定周期性或规律的肢体变化,如向前走,后退等,人体的动作种类是有限的,不同的动作由特定的基础动作序列组成;所述基础动作,是指一系列的有序的姿态变化,如抬腿、低头等,人体的基础动作是有限的,是动作的基本组成单位,特定的基础动作可由相应的姿态序列组成;所述姿态,是人体在某一瞬间状态的肢体特征数据,通过捕获肢体的姿态角、加速度、空间位置等,可以计算并获得人体姿态表征从而进行人体姿态分析,因此人体的姿态是可测的。
由上文可知,用户的行为可以表示成为相应的动作序列,动作可以由相应的基础动作序列表示,而基础动作可以由姿态序列表示,故用户的行为最终可以表示成为人体姿态序列,因此,对人行为的检测,最终可以表示成为对姿态序列的检测。
本发明建立标准行为库的实现原理如下:
a)建立人体行为库BE:
BE={behavior1,behavior2,..,behaviorb}
其中,b为人体行为库中的行为种类数目,behavior1表示行为库中的第一种行为,以此类推。
b)建立人体动作库M:
M={Motion0,Motion1,...,Motiono}
其中,Motion0,Motion1,...,Motiono代表了每一种动作,本发明定义动作的种类数目为o。为不同的行为存储不同的动作序列:
其中,motion表示动作,且满足motion1,motion2,...,motion_sb∈M
c)建立基础动作库BM:
BM={B_motion1,B_motion2,…,B_motionbm}
其中,B_motion1,B_motion2,…,B_motionbm代表了各种基础动作,本发明定义的基础动作的种类数目为bm。
为不同的动作存储不同的基础序列:
其中,bmotion表示基础动作,且满足
d)基础动作由姿态序列组成。
而姿态是指用户在某一时刻的姿势,属于瞬时采集的数据,而用户在完成特定的动作时,其时间长度直接影响了姿态序列的长度,当运行时间较长时,其数据量将十分庞大。因此,本发明需要解决从姿态数据序列中提取出有效的特征数据,减小数据处理量的问题。
本发明所使用的微惯性传感器是由微加速度计、微陀螺仪、电子罗盘组成的测量元件,可用于待检测物品在任意时刻的加速度值、角加速度值和磁感应强度值,经姿态融合算法处理,可以得到待检测物品在任意时刻的姿态值。
本发明参照Hanavan模型进行人体建模,将肢体视为刚体,并将关节视为球铰,在不考虑组织变形或者器官不对称的情况下降人体视为刚体和球铰组成的模型。人体的动作变化时可由模型的变化替代。通过对不同动作的姿态变化进行分析,可以发现用户在表现某一动作时,其姿态序列中临近姿态的差异主要体现在姿态角度的变化上,而由于人在进行同一动作时的速度不能保证相同,因此其速度变化差值不能保证相同,而姿态角度的变化基本相同,因此本文选择基于姿态角的变化方式对用户进行动作识别。
表示姿态角变化的方式有欧拉角、旋转矩阵和四元数三种方式,出于运算复杂度和测量范围方面的考虑,本发明使用四元数来表示人体的姿态角度变化。本发明所述采集人体姿态数据的微惯性传感器型号为MPU9250,由MPU9250内集成的数字运动处理器(DMP)可完成四元数的计算及信号滤波,并依照设定采样频率输出四元数。使用h个惯性传感器采集人体的姿态四元数数据,每一时刻每个传感器采集得到数据均为四维数据,故全部数据为4×h维,则对于第k个惯性传感器而言,当采样频率为1hz且系统从0时刻开始采集用户的姿态数据时,第Ti时刻惯性传感器传回的姿态数据表示为[qTi,4k-3,qTi,4k-2,qTi,4k-1,qTi,4k]
二、基于差分原理的姿态数据处理及特征提取方法,其实现原理如下:
本发明使用基于差分原理的姿态数据处理方式对采集得到的姿态数据进行姿态数据处理,通过一阶差分运算将数据转化为变化方向,使用均值滤波剔除扰动,并将原始数据转化为对其变化趋势的描述,使得姿态数据信息更为直观,也是接下来进行各种动作识别的通用数据预处理方法。
所述基于差分原理的姿态数据处理算法描述如下:
(1)采集n个人体姿态一维数据,并将该n个一维数据表示为序列{q0,q1,...,qi,...,qn};对序列{q0,q1,...,qi,...,qn}进行一阶差分运算并将差分运算的结果标准化,第t个数据qt的标准化数据q_dft为:
其中,threshold表示为了实现标准化所设置的阈值;0≤t≤n;
其中,q_dft表示对原始数据进行一阶差分运算之后的输出值,threshold表示为了实现标准化所设置的阈值,n表示数据序列的长度。首先对原始数据进行差值预算,并比较其与阈值之间的关系,将输出结果标准化为{0,1,-1}。
(2)对一阶差分运算结果序列{q_df0,q_df1,...,q_dft,...,q_dfn}进行均值滤波,滤波模板为设置1×3,并对滤波结果进行标准化,以第t(0≤t≤n)个数据为例:
q_dmeant表示均值滤波后的标准化输出。
(3)对均值滤波后的标准化输出结果{q_dmean1,q_dmean2,...q_dmeant,...,q_dmenn}进行二次差分运算,以第t个数据q_dmeant为例:
其中,q_tdft表示其二次差分运算的输出结果。
(4)观察序列{q0,q1,...,qi,...,qn}曲线,发现其随时间变化的曲线在某一时刻前后的变化趋势均可分为表1所示八种情况。
表1曲线变化趋势分类
为准确地描述表1所述的九种曲线趋势变化,引入tendt表示第t个检测点qt的变化趋势:
tendt=3×q_meant-q_tdft
观察表1可以发现,由于曲线只有九种变化趋势,故tendt的取值范围仅有九种情况,定义各点的趋势变化集合为T={-5,-3,-2,-1,0,1,2,3,5},任意数据点的tendt∈T
引入变量tendt后,对于一维数据而言,某一时刻数据it的数值及变化趋势可以由qt和tendt唯一地表示,即由qt和tendt可以唯一地表示qt。对于多维数据,增加其维数i即可唯一表示该数据。
(5)如表1可看出,当数据处于状态⑦-⑨时为“平稳点”,即其数据时间变化曲线此时此刻保持平稳或平稳上升、平稳下降状态,当处于状态①-⑥时是数据时间变化曲线的“拐点”,即数据在此时将由先前的变化状态变至另一种状态。使用拐点可以更加直观地表示数据改变情况,本发明选取处于①-⑥状态的数据点作为描述姿态数据的特征点。
由此,判断某点qt是否为特征点的判断标准可定义为:
当feature=1时,保存其对应点的变化趋势和数值并作为序列的特征点,并将其存入该动作的特征序列中,由此,完成一维序列的特征提取工作。
上述步骤可完成一维数据序列的特征提取,本发明使用h个惯性传感器采集人体的姿态四元数数据,每一时刻每个传感器采集得到数据均为四维数据。以第k(0<k≤h)个惯性传感器为例,当采样频率为1hz且系统从0时刻开始采集用户的姿态数据时,Ti时刻该惯性传感器传回的姿态数据可表示为[qTi,4k-3,qTi,4k-2,qTi,4k-1,qTi,4k]。
则0至Ti时刻内,由第k个惯性传感器传回的全部姿态数据为:
其中,0<e<Ti;
(6)由步骤(2)(3),对每一维姿态数据分别进行差分标准化运算,得到新的四维数据:
其中,0<e<Ti;
(7)由步骤(4)可计算姿态变化趋势数据为:
其中,0<e<Ti;
(8)由步骤(5)完成对步骤(7)所获得数据序列的精炼和筛选,并从中提取出特征数据为:
其中,0≤j≤r<Ti,0≤i0,i1,...,ir≤4×h,tend0,tend1,...tendr∈T,ij表示第j个特征点是传感器传回的全部四维数据中的第j维数据,tendj为第j个特征点的变化趋势数据,表述第j个特征点数值的大小,由此完成对原始数据的姿态数据处理及特征提取。
三、所述基于起点检测的指定动作识别方法,其基本实现原理如下:
现有连续动作的分割方法过于复杂,不适用于应用层面。此外,针对如何提取不完整的动作数据,本发明提出一种基于角度阈值变化与起点检测的连续动作分割方法,将行为分割为若干基础子动作的序列,并最终转化为对姿态特征点序列的检测,通过起点匹配的方法,从用户的动作数据流中分割出用户的目标动作。
由第一节可知,用户的行为最终可以表示成为基础动作的序列,因此,对行为的检测,最终成为对姿态特征序列的检测;由第二节可知,用户每一时刻每一维的姿态数据均可由“维度—变化趋势—数值”表示,故用户的动作实际可以变为动作特征点的序列。
当待检测的动作被指定时,其动作识别的实现原理如下:
(1)对指定行为的检测可以认为是对指定动作序列的检测,而对指定动作的检测可以认为是对指定基础动作序列的检测,基础动作由特定的姿态序列组成。
由于构成不同动作的基础子动作序列均不同,而构成每一项子动作的姿态特征序列均不同,故可以通过对其起点、终点的是否满足标准序列的判断条件确定。并设置最大检测长度len,当用户在检测到起点动作的len帧之内,通过检查其是否依次满足各关键点动作条件并最终满足终点的动作条件,从而判断用户是否完整地完成了目标动作。
用户完成指定的待检测动作,经第二节所述特征提取方法处理后,得到了特征序列如下:
其中,0≤j≤r<Ti,0≤i0,i1,...,ir≤4×h,tend0,tend1,...tendr∈T
len为设定的待识别姿态序列的检测长度,又因本发明以固定频率采集姿态数据,故len长度可用设定的时间长度来表示,len<Ti。
(2)待识别的模板动作特征序列如下:
设置起点为待检测动作的起始姿态特征点,为待检测动作的结束姿态特征点,l为模板动作的长度,l∈{l1,l2,l3,…lb}。
(3)定义判断特征点是否满足基础动作特征点的判断条件如下:
取用户动作特征序列中点以及模板动作特征序列中的点定义判断条件:
当Value值为1时,认为满足的条件,即认为其与匹配,否则认为不满足的匹配条件。
(4)当待检测的动作为指定的动作时,其识别过程可表示为:
a)在用户特征序列中检测满足begin条件的特征点,当检测得到begin时,认为某动作已经开始,取len长度作为检测的最大长度,并依次进行其后续特征点检测;
b)当检测到end时,认为该动作结束,动作完整;
c)当未检测到end时,认为该动作结束,但动作不完整;
d)当未检测得到end,但检测到新的begin时,认为该动作结束,但动作不完整,开始新的动作检测。
(5)使用用户序列与模板之间的DTW距离来表示用户动作序列与模板动作序列的匹配程度:
测量所得的dtw可以表示用户动作的标准程度。
(6)得到的动作匹配程度与动作名称共同组成本次动作识别的识别结果(result,dtw),其中result为模板动作名称。
四、基于姿态角变化的连续动作分割与识别,其基本实现原理如下:
上节介绍了当待识别动作行为被指定动作时的用户动作识别,而在实际的检测过程中,用户的行为是连续并且非指定的。在此定义待识别的数据均由事先定义的行为模式连接组成,不包含未定义的行为。并定义用户的不同行为不会连续进行,即不同行为之间必有时间的间隔。
(1)由第一节可知,用户的行为最终可以表示成为姿态特征序列。定义标准动作行为库为:
其中,behavior0,behavior1,...,behaviorb∈BE,BE为人体行为库;
T为点的变化趋势集合;0<l1<l2,...,lb-1<lb<+∞;i′0表示特征点为4×h维数据中的第i′0维数据,tend′1为特征点的变化趋势数据,表示特征点的数值大小,以此类推;h为用于采集人体的姿态四元数数据的惯性传感器个数;
(2)由第三节基于起点检测的指定动作识别方法,提取每一个标准行为behaviori的起点、终点的姿态特征,并设集合B={begin1,begin2,...,begini,...,beginb}为待检测基础动作的起始姿态特征点集合,集合E={end1,end2,...,endi,...,endb}为待检测基础动作的结束姿态特征点集合。len为待识别姿态序列的最大长度,由于惯性传感器以一定的采频率采集姿态数据,故len可以用时间表示,如180s,代表采样频率为20hz时,识别单个动作的最大长度为3600帧;
R={(result1,dtw1),(result2,dtw2),...,(resultw,dtww)...,(resultx,dtwx)}用于存放本次动作识别的结果,元组(resultw,dtww)表示用户在动作检测过程中检测得到的每一种可能的行为结果,其中1≤w≤x,resultw为可能的动作行为名称,且满足result1,result2,result3,…,resultw,…,resultx,,dtww为用户动作与标准动作的距离差;
(3)整个识别过程可以表示为:
a)检测满足B中各点条件的特征点,当检测得到beginm时,认为motionm开始,取len长度作为该检测的最大长度,并进行motionm的检测,将motionm检测结果存入R;0≤m≤b;
b)在len长度内,继续检测满足B中各点条件的特征点,当检测得到beginy时,认为behaviory开始,同样取len长度作为该检测的最大长度,并进行behaviory的检测,将behaviory检测结果存入R;0≤y≤b;
c)依次类推,直至最后一个识别动作的len长度内,无新动作检测结果产生;
d)取集合R中,dtw距离值最小的元素,作为本次动作检测的结果。
e)所述用户行为标准的评判标准的定义如下:
计算检测得到的特征点序列与模板序列的DTW距离,定义其到动作规范程度的模糊集,表示用户动作整体规范程度;用户在每一特征点的实际角度、加速度与标准库的比较,可以作为用户在动作幅度、动作时间方面的评判标准。
本发明研究基于微惯性传感器的姿态跟踪与识别方法,主要设计人体姿态跟踪与识别的软件实现方法,所涉及具体的硬件选型及设计、UI设计不在本发明研究设计范围之内。
实施例1:以疾行跳远为例,运动员实现这一行为所需完成的动作序列为:
疾行跳远={跑步,跳,身体腾空,下蹲落地}
对于不同的行为而言,某一项具体的动作可以重复出现。以实现跑步的动作为例,所需完成的基础动作序列为:
跑步={左脚向前迅速跃进、右脚保持着地且右臂弯曲向前自然摆动,
右脚向前迅速跃进、左脚保持着地同时左臂弯曲向前自然摆动,
左脚向前迅速跃进、右脚保持着地且右臂弯曲向前自然摆动,
右脚向前迅速跃进、左脚保持着地同时左臂弯曲向前自然摆动
……}
为构建姿态与基础动作之间的关系,采集两个跑步周期中左脚角度的变化曲线如图1,其中,动作A——动作B之间的数据表示基础动作“左脚向前迅速跃进、右脚保持着地且右臂弯曲向前自然摆动”,动作B——动作C之间的数据表示基础动作“右脚向前迅速跃进、左脚保持着地且左臂弯曲向前自然摆动”。
实施例2:以用户使用本发明检测“右手掌翻转弯曲复位”动作为例,具体的实施过程如下:
将所述微惯性传感器装置固定于腰部、头部、左手、右手、左脚、右脚六个部位。打开微惯性传感器的供电开关,对各个微惯性传感器进行上电,同时完成硬件的自检,若自检成功,则进行各部分硬件的时钟同步及初始化设置,否则需检查硬件设备是否正常。
用户打开客户端,选择检测的目标动作为“右手掌翻折弯曲复位动作”,系统确定标准动作模板为“右手掌翻折弯曲复位动作”,动作检测开始。
用户做出动作,各微惯性传感器实时采集用户的姿态数据,并将用户的姿态数据实时发送至数据处理中心;
所述数据处理中心分析用户姿态数据,分析并提取出目标动作序列,存储目标动作序列,并进行计数。同时将每一段目标动作序列与标准动作序列匹配,分析用户的动作标准程度及动作纠正建议,并将动作序列与相应的分析结果存储至文件。
动作结束后,所述客户端读取动作分析结果文件,将用户的运动分析结果反馈给用户。所述运动分析结果包括,用户完成目标动作次数,每一次完成目标动作的整体评分、时长、动作角度姿态是否符合要求、力度是否符合要求、速度是否符合要求及偏差范围。并将分析结果反馈给用户。
实施例3:以用户使用本发明检测“右手掌翻转弯曲复位”动作为例,具体的姿态跟踪及识别方法如下:
本发明结合人体运动学原理,并分析待检测数据特征,将右手位置穿戴的微惯性传感器数据作为主要的参考数据。分析曲线特征,可得到8个特征检测位,即将原动作分割为9个基础动作。所述8个特征检测位如下表所示:
所述阈值为提升大众用户的姿态检测识别率,设置阈值范围为±20,即满足阈值±20范围的特征点均认为其满足阈值条件。用户在进行动作检测时,当且仅当待检测动作的数据达到阈值范围同时变化方向同时满足关键点要求时,才认定待检测的姿态特征位置满足相应目标姿态特征位置条件。
Claims (3)
1.一种基于微惯性传感器的姿态跟踪与识别方法,其特征在于,包括以下步骤:
1)定义标准动作行为库为:
其中,behavior0,behavior1,...,behaviorb∈BE,BE为人体行为库,T为点的变化趋势集合;0<l1<l2,...,lb-1<lb<+∞;i′0表示特征点为4×h维数据中的第i′0维数据,tend′1为特征点的变化趋势数据,表示特征点的数值大小,以此类推;h为用于采集人体的姿态四元数数据的惯性传感器个数;
2)提取每一个标准行为behaviori的起点、终点的姿态特征,并设集合B={begin1,begin2,...,begini,...,beginb}为待检测基础动作的起始姿态特征点集合,集合E={end1,end2,...,endi,...,endb}为待检测基础动作的结束姿态特征点集合;0≤i≤b;定义识别结果集合R={(result1,dtw1),(result2,dtw2),…,(resultw,dtww)…,(resultx,dtwx)}用于存放本次动作识别的结果,元组(resultw,dtww)表示用户在动作检测过程中检测得到的每一种可能的行为结果,其中1≤w≤x,resultw为可能的动作行为名称,且满足result1,result2,result3,…,resultw,…,resultx,,dtww为用户动作与标准动作的距离差;
3)用户开始进行动作姿态变化,检测用户的动作序列特征点,并检测用户动作特征序列中满足待检测基础动作的起始姿态特征点集合B中各点条件的特征点;当检测得到用户动作特征序列满足B中的某个起始特征点beginm条件时,认为与起始特征点beginm相对应的行为动作开始,并取len长度作为本次检测的最大长度,进行行为动作behaviorm的检测,将behaviorm检测结果存入R;在len长度内,继续检测满足集合B中各点条件的特征点,当检测得到beginy时,认为behaviory开始,同样取len长度作为该检测的最大长度,并进行behaviory的检测,将behaviory检测结果存入R;依次类推,直至最后一个识别动作的len长度内,无新动作检测结果产生;0≤m≤b;0≤y≤b;
4)取集合R中dtw距离最小的元祖,该元祖对应的动作行为作为本次动作检测的结果。
2.根据权利要求1所述的基于微惯性传感器的姿态跟踪与识别方法,其特征在于,步骤3)中,检测用户的动作序列特征点的实现过程包括以下步骤:
1)采集n个人体姿态一维数据,并将该n个一维数据表示为序列{q0,q1,...,qi,...,qn};对序列{q0,q1,...,qi,...,qn}进行一阶差分运算并将差分运算的结果标准化,第t个数据qt的标准化数据q_dft为:
其中,threshold表示为了实现标准化所设置的阈值;0≤t≤n;
2)对一阶差分运算结果序列{q_df0,q_df1,...,q_dft,...,q_dfn}进行均值滤波:
其中,q_dmeant表示第t个一阶差分运算结果均值滤波后的标准化输出;
3)对均值滤波后的标准化输出结果{q_dmean1,q_dmean2,...q_dmeant,...,q_dmenn}进行二次差分运算,第t个数据q_dmeant的二次差分运算输出结果为:
4)引入tendt表示第t个检测点qt的变化趋势:tendt=3×q_meant-q_tdft;定义序列{q0,q1,...,qi,...,qn}的变化趋势集合为T={-5,-3,-2,-1,0,1,2,3,5};tendt∈T;
5)判断某点qt是否为特征点的判断标准为:
使用h个惯性传感器采集人体的姿态四元数数据,每一时刻每个传感器采集得到数据均为四维数据,故全部数据为4×h维,则对于第k个惯性传感器而言,当采样频率为1hz且系统从0时刻开始采集用户的姿态数据时,第Ti时刻惯性传感器传回的姿态数据表示为[qTi,4k-3,qTi,4k-2,qTi,4k-1,qTi,4k],则0至Ti时刻内,由第k个惯性传感器传回的全部姿态数据为:
其中,0<e<Ti;
6)由步骤2)、步骤3),对每一维姿态数据分别进行差分标准化运算,得到新的四维数据:
7)由步骤4)计算姿态变化趋势数据为:
8)由步骤5)完成对数据的筛选,从筛选的数据中提取出特征数据,即用户动作特征序列为:
其中,0≤j≤r<Ti,0≤i0,i1,...,ir≤4×h,tend0,tend1,...tendr∈T,ij表示第j个特征点是传感器传回的4×h维数据中的第j维数据,tendj为第j个特征点的变化趋势数据,表述第j个特征点数值的大小;r=p;
0<p<b,
p∈{l1,l2,l3,…lb}。
3.根据权利要求2所述的基于微惯性传感器的姿态跟踪与识别方法,其特征在于,检测结果R的计算过程包括:
1)利用权利要求2的步骤,构建模板动作的特征数据序列:
其中,0≤i′j<4h,tend′j∈T;
设置起点为待检测动作的起始姿态特征点,为待检测动作的结束姿态特征点,l为模板动作特征序列的长度,l∈{l1,l2,l3,…lb};
2)取用户动作特征序列中的点以及模板动作特征序列中的点定义判断条件:
当Value值为1时,认为满足的条件,即认为与匹配,否则认为不满足的匹配条件;
3)采用下述步骤进行指定动作行为的识别:
3a)利用步骤2)所述匹配条件,在用户的动作特征序列中检测满足集合BE中各个begin匹配条件的特征点;当检测得到begin,即begin判断条件值为1时,认为该动作已经开始,并从检测得到begin的特征点处起,取len长度作为检测的最大长度,依次进行其后续特征点的检测;
3b)当检测到end时,认为该动作结束,动作完整,将动作完整的动作特征点保存为用户动作特征数据序列;当未检测到end时,认为该动作结束,但动作不完整,将该动作不完整的动作特征点保存为用户动作特征数据序列;当未检测得到end,但检测得到新的begin时,认为该动作结束,但动作不完整,将动作结束但不完整的动作特征点保存为用户动作特征数据序列,并开始新的动作检测;
3c)将保存的用户动作特征数据序列与模板特征数据序列进行比较,使用用户特征数据序列与模板动作特征数据序列之间的dtw距离来表示用户动作序列与模板动作特征序列的匹配程度:
3d)得到的动作匹配程度与动作名称共同组成本次动作识别的识别结果(result,dtw),其中result为模板动作名称。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610414379.XA CN106073793B (zh) | 2016-06-13 | 2016-06-13 | 基于微惯性传感器的姿态跟踪与识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610414379.XA CN106073793B (zh) | 2016-06-13 | 2016-06-13 | 基于微惯性传感器的姿态跟踪与识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106073793A true CN106073793A (zh) | 2016-11-09 |
CN106073793B CN106073793B (zh) | 2019-03-15 |
Family
ID=57845995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610414379.XA Expired - Fee Related CN106073793B (zh) | 2016-06-13 | 2016-06-13 | 基于微惯性传感器的姿态跟踪与识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106073793B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414479A (zh) * | 2019-08-08 | 2019-11-05 | 燕山大学 | 一种饮水行为感知方法、连续和非连续动作分割识别方法 |
CN110866417A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置及电子设备 |
CN113663312A (zh) * | 2021-08-16 | 2021-11-19 | 东南大学 | 一种基于微惯性的无器械健身动作质量评估方法 |
CN114546135A (zh) * | 2022-03-15 | 2022-05-27 | 杭州虚现科技股份有限公司 | 基于惯性传感器进行虚拟行走的方法及系统 |
WO2022193851A1 (zh) * | 2021-03-19 | 2022-09-22 | 深圳市韶音科技有限公司 | 识别用户动作的方法和系统 |
CN118015710A (zh) * | 2024-04-09 | 2024-05-10 | 浙江深象智能科技有限公司 | 一种智能体育运动的识别方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060004299A1 (en) * | 2004-06-30 | 2006-01-05 | Honda Motor Co., Ltd. | Motion measurement method, motion measurement system, and motion measurement program |
CN103961109A (zh) * | 2014-05-05 | 2014-08-06 | 北京航空航天大学 | 基于加速度信号和角速度信号的人体姿态检测装置 |
CN104147770A (zh) * | 2014-07-24 | 2014-11-19 | 燕山大学 | 基于惯性传感器可穿戴式偏瘫康复设备及捷联姿态算法 |
CN105184325A (zh) * | 2015-09-23 | 2015-12-23 | 歌尔声学股份有限公司 | 一种人体动作识别方法和移动智能终端 |
-
2016
- 2016-06-13 CN CN201610414379.XA patent/CN106073793B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060004299A1 (en) * | 2004-06-30 | 2006-01-05 | Honda Motor Co., Ltd. | Motion measurement method, motion measurement system, and motion measurement program |
CN103961109A (zh) * | 2014-05-05 | 2014-08-06 | 北京航空航天大学 | 基于加速度信号和角速度信号的人体姿态检测装置 |
CN104147770A (zh) * | 2014-07-24 | 2014-11-19 | 燕山大学 | 基于惯性传感器可穿戴式偏瘫康复设备及捷联姿态算法 |
CN105184325A (zh) * | 2015-09-23 | 2015-12-23 | 歌尔声学股份有限公司 | 一种人体动作识别方法和移动智能终端 |
Non-Patent Citations (1)
Title |
---|
SHENGLI ZHOU ET AL: "2D Human Gesture Tracking and Recognition by the Fusion of MEMS Inertial and Vision Sensors", 《IEEE SENSORS JOURNAL》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866417A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置及电子设备 |
CN110414479A (zh) * | 2019-08-08 | 2019-11-05 | 燕山大学 | 一种饮水行为感知方法、连续和非连续动作分割识别方法 |
CN110414479B (zh) * | 2019-08-08 | 2021-11-16 | 燕山大学 | 一种饮水行为感知方法、连续和非连续动作分割识别方法 |
WO2022193851A1 (zh) * | 2021-03-19 | 2022-09-22 | 深圳市韶音科技有限公司 | 识别用户动作的方法和系统 |
CN113663312A (zh) * | 2021-08-16 | 2021-11-19 | 东南大学 | 一种基于微惯性的无器械健身动作质量评估方法 |
CN113663312B (zh) * | 2021-08-16 | 2022-05-13 | 东南大学 | 一种基于微惯性的无器械健身动作质量评估方法 |
CN114546135A (zh) * | 2022-03-15 | 2022-05-27 | 杭州虚现科技股份有限公司 | 基于惯性传感器进行虚拟行走的方法及系统 |
CN118015710A (zh) * | 2024-04-09 | 2024-05-10 | 浙江深象智能科技有限公司 | 一种智能体育运动的识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106073793B (zh) | 2019-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yadav et al. | Real-time Yoga recognition using deep learning | |
CN106073793A (zh) | 基于微惯性传感器的姿态跟踪与识别方法 | |
Tabrizi et al. | Comparative study of table tennis forehand strokes classification using deep learning and SVM | |
CN103970271B (zh) | 融合运动和生理传感数据的日常活动识别方法 | |
CN102640085B (zh) | 用于识别手势的系统和方法 | |
CN110334573B (zh) | 一种基于密集连接卷积神经网络的人体运动状态判别方法 | |
CN105912991B (zh) | 基于3d点云与关键骨骼节点的行为识别 | |
Avola et al. | Deep temporal analysis for non-acted body affect recognition | |
Nagalakshmi Vallabhaneni | The analysis of the impact of yoga on healthcare and conventional strategies for human pose recognition | |
Du et al. | RETRACTED: Research on the intelligent model of progress in physical education training based on motion sensor | |
CN111401435A (zh) | 一种基于运动手环的人体运动模式识别方法 | |
TWI664550B (zh) | 高爾夫球運動員揮桿姿勢檢測系統 | |
Akhter | Automated posture analysis of gait event detection via a hierarchical optimization algorithm and pseudo 2D stick-model | |
CN114881079A (zh) | 面向穿戴式传感器的人体运动意图异常检测方法及系统 | |
Sharma et al. | iYogacare: real-time Yoga recognition and self-correction for smart healthcare | |
Mekruksavanich et al. | Badminton activity recognition and player assessment based on motion signals using deep residual network | |
Pan et al. | OrsNet: A hybrid neural network for official sports referee signal recognition | |
Javeed et al. | Automated gestures recognition in Exergaming | |
Almasi et al. | Investigating the application of human motion recognition for athletics talent identification using the head-mounted camera | |
Abdullah et al. | Recognition and Evaluation of Stability Movements in Gymnastics Based on Deep Learning | |
Sharma et al. | Various approaches of human activity recognition: a review | |
Jiang et al. | Deep learning algorithm based wearable device for basketball stance recognition in basketball | |
Portaz et al. | Exploring raw data transformations on inertial sensor data to model user expertise when learning psychomotor skills | |
Yadav et al. | Ms-kard: A benchmark for multimodal karate action recognition | |
Convertini et al. | Sit-to-Stand Test for Neurodegenerative Diseases Video Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190315 Termination date: 20200613 |