CN110458033B - 一种基于可穿戴位置传感器的人体行为序列识别方法 - Google Patents

一种基于可穿戴位置传感器的人体行为序列识别方法 Download PDF

Info

Publication number
CN110458033B
CN110458033B CN201910644318.6A CN201910644318A CN110458033B CN 110458033 B CN110458033 B CN 110458033B CN 201910644318 A CN201910644318 A CN 201910644318A CN 110458033 B CN110458033 B CN 110458033B
Authority
CN
China
Prior art keywords
data
segmentation
level
human body
reference level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910644318.6A
Other languages
English (en)
Other versions
CN110458033A (zh
Inventor
王慧强
佟佳伟
王欣悦
吕宏武
郭方方
冯光升
李冰洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910644318.6A priority Critical patent/CN110458033B/zh
Publication of CN110458033A publication Critical patent/CN110458033A/zh
Application granted granted Critical
Publication of CN110458033B publication Critical patent/CN110458033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于可穿戴位置传感器的人体行为序列识别方法,具体步骤包括:数据采集、数据分割、识别。解决了使用可穿戴传感器进行人体行为识别中,对运动序列进行划分时步骤繁琐、模型复杂度较高的问题,通过结合参考传感器标签的高程和水平信息的变化,在识别前,对数据预先进行0级、1级、2级三个参考级别的分割,而不依赖于复杂的模型,实现了高效的对运动序列的划分以及识别,降低分割过程模型复杂度。

Description

一种基于可穿戴位置传感器的人体行为序列识别方法
技术领域
本发明涉及一种人体行为序列识别方法,尤其涉及一种一种基于可穿戴位置传感器的人体行为序列识别方法,属于模式识别领域。
背景技术
基于可穿戴传感器的人类行为识别是模式识别领域的研究热点。最初的行为识别研究大都是基于视频设备的,然而,这种方式由于需要长时间的拍摄,而且这一类的设备通常部署困难,导致了其大大受到使用场景的限制,不适用于长期、持续性的记录人的行为动作。与其相比,随着传感器制造业的发展,使得在行为识别中基于可穿戴传感器的研究受到研究者的青睐。在基于可穿戴传感器的行为识别研究中,大多数都集中在对简单孤立的行为的研究上,对人体行为序列识别的研究相对较少且存在着不足,如何高效且准确的对人体序列进行分割以及识别,是一个很有意义的研究课题。
目前对于人体序列的分割和适别的研究中,大都集中在如何提高分割准确率和识别精度上,San-Segundo等人(Segmenting human activities based on HMMs usingsmartphone inertial sensors[J].Pervasive and Mobile Computing,2016,30:84-96.)提出了一种活动序列模型,通过将此模型与隐式马尔科夫模型结合,实现了人体行为序列的精确分割和识别。但由于模型复杂,计算效率较低,忽略了识别效率的问题,不能实现对人体序列的高效识别。Trabelsi等人(An unsupervised approach for automaticactivity recognition based on hidden Markov model regression[J].IEEETransactions on automation science and engineering,2013,10(3):829-835.)提出了一种改进的隐式马尔科夫模型,此模型将行为序列分割问题表示为多维时间序列的联合分割,每个行为用回归模型表示,通过马尔科夫模型控制行为间的切换。但由于改进后的模型较为复杂,需要大量的计算时间,在识别效率上表现较差。
综上所述,本发明提出一种基于可穿戴位置传感器的人体行为序列识别方法。依靠位置传感器可实时获得传感器标签的位置信息的优势,而不依赖于复杂的模型,通过设置参考标签,考察参考标签高程及水平信息的变化,实现了对人体行为序列准确高效的分割和识别。
发明内容
本发明的目的是为了解决使用可穿戴传感器进行人体行为识别中,对运动序列进行划分时步骤繁琐、模型复杂度较高的问题而提供一种基于可穿戴位置传感器的人体行为序列识别方法。
本发明的目的是这样实现的:具体步骤如下:
步骤一:数据采集,采用时间轴对齐及缺失填充方法,对数据预处理;
步骤二:进行数据分割;
步骤三:对分割后的动作序列段进行识别并输出结果。
本发明还包括以下特征:
1、步骤一具体为:所述的数据采集在人体的胸部、右大臂、右小臂及左大腿四个位置布置用于识别的位置信息传感器标签,另外在左肩部位置布置参考标签;使用包括参考标签在内的五个传感器标签同时进行数据采集;所述的数据采集中采集到的数据首先按照标签的不同划分成多组数据;其次,对由于遮挡或其他信号干扰等原因产生的少量数据缺失,自动按上一条数据进行缺失填充,将各位置信息传感器标签采集到的数据时间轴对齐。
2、步骤二所述的数据分割是按照参考标签采集到的数据对整体数据进行三个层次的分割,分别为0级参考级别分割、1级参考级别分割和2级参考级别分割;所述的数据分割采用滑动窗口法,设置的时间窗口大小为0.5s-10s,采取12个采样间隔作为一个窗,同时采用前后30%的窗口覆盖。
3、所述的0级参考级别分割是考察参考标签的高程信息,按照高程信息变化ΔH大于0.4m 的时刻,将整体数据分割成若干数据段;所述的1级参考级别分割是考察0级参考级别分割后数据的Y轴信息的变化,按照Y轴信息变化ΔY保持在0m到0.2m的时间段,对0级参考级别分割后的数据进行进一步的精细分割;所述的2级参考级别分割是考察1级参考级别分割后数据的X轴信息的变化,按照X轴信息变化ΔX保持在0m到0.2m的时间段,对1级参考级别分割后的数据段进行最终分割。
4、步骤三是采用SVM分类模型,在训练好的模型上,对分割后的动作序列段进行识别并输出结果。
5、所述的SVM分类模型是对动作序列可能包含的所有单一动作进行训练,在对SVM分类模型进行训练时,判断是否继续训练的因素是否满足评估指标,如果不满足则继续训练,如果满足则可得到最好的行为识别精度时的SVM分类模型参数。
与现有技术相比,本发明的有益效果是:通过结合参考传感器标签的高程和水平信息的变化,在识别前,对数据预先进行0级、1级、2级三个参考级别的分割,而不依赖于复杂的模型,实现了高效的对运动序列的划分以及识别,降低分割过程模型复杂度。
附图说明
图1是一种基于可穿戴位置传感器的人体行为序列识别方法流程图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
本发明提出了一种基于可穿戴位置传感器的人体行为序列识别方法,可以解决对运动序列进行划分时步骤繁琐、模型复杂度较高的问题,提出的一种基于可穿戴位置传感器的人体行为序列识别方法,通过结合参考传感器标签的高程和水平信息的变化,降低分割过程模型复杂度,实现高效的对运动序列的划分以及识别。本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法,是一种基于监督的行为识别方法。本发明的整个过程分为数据采集,数据分割以及识别三个阶段。数据采集阶段,需在测试者胸部、右大臂、右小臂及左大腿四个位置布置用于识别的位置信息传感器标签(分别命名为Tag_1、Tag_2、Tag_3、Tag_4),此外,需要在测试者的左肩部位置布置辅助参考标签(命名为Tag_0)。使用包括参考标签在内的五个传感器标签同时进行数据采集。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法,在数据分割阶段,按照参考标签Tag_0采集到的数据对整体数据进行三个层次的分割,分别称为0级参考级别分割、1级参考级别分割和2级参考级别分割。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法的0级参考级别分割,仅考查参考标签Tag_0的高程信息,认为标签高程信息发生明显变化一定是由于产生了不同动作导致的,按照高程信息变化ΔH大于0.4m的时刻T0,将数据分割成若干数据段。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法的1级参考级别分割,仅考察分段后数据的Y轴信息的变化,按照Y轴信息变化ΔY保持在0m到0.2m的时间段(Tsi,Tei),对数据进行进一步的精细分割。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法的2级参考级别分割,仅考查标签X轴信息变化,按照X轴信息变化ΔX保持在0m到0.2m的时间段(Tsi,Tei),对1级参考级别分割后的数据段进行最终分割。
结合图1,本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法,具体流程如下:
(1)采用时间轴对齐及缺失填充方法,对数据预处理。
(2)对数据进行0级参考级别分割。
(3)对步骤(2)产生的序列段的每一段,进行1级参考级别分割。
(4)对步骤(3)产生的序列段的每一段进行2级参考级别分割。
(5)对于(4)产生的动作序列段,采用滑动窗口法进行最终划分。
(6)采用SVM模型,在训练好的模型上,对分割后的动作序列段进行识别并输出结果。
(7)结束。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法流程的步骤(1)具体特征还包括,由于使用基于位置信息的传感器,采集到的数据实质上是传感器在每次采样时刻的位置信息,首先按照标签的不同划分成多组数据。其次,由于遮挡或其他信号干扰等原因,会产生少量的数据缺失,导致两条连续的采样数据间隔超过一次采样间隔,但采样频率较高,可以认为在短时间内标签的位置变化不大,自动按上一条数据进行缺失填充,按照此方法将各标签数据做到时间轴对齐。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法流程的步骤(2) 具体特征还包括,ΔH表示为:
ΔH=Ht2-Ht1
其中,Ht1、Ht2为4倍采样间隔的两条数据的高程信息。T0表示为:
Figure RE-GDA0002213820350000041
由于采样频率较高,考虑到短时间内高程信息可能不会发生明显变化,所以这里选择4 倍采样间隔。按照上述的每个T0时间点将数据初步分割成若干数据段,表示为:
λ=(λ01,λ02,λ03,...,λ0i,...,λ0n)
其中λ表示初始数据序列,λ0i(i=1,2,3...)代表进行0级参考级别分割后的数据序列。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法流程的步骤(3)具体特征还包括,在步骤(2)的基础上,对于0级参考级别分割后的每一段数据,进行1级参考级别分割,1级参考级别分割的具体分割方式同与0级参考级别所采用的思想一致,但由于Y 轴信息可能在4倍采样时间内会发生明显连续变化,而这些连续的变化可能是由于同一动作导致的,例如走。因而此阶段仅考查Y轴信息基本不发生明显变化的时间段,时间段的开始时间点表示为Tsi,结束时间点表示为Tei,按照(Tsi,Tei)(i=1,2,3...)对序列段进行再次分割。步骤(4)按照(3)的方式考查X轴信息变化,对序列进行继续分割。进行步骤(4)后,保证了不同动作产生的数据一定被分在不同的数据组中。分割后的数据表示为:
λ0i=(λ11,λ12,λ13,...,λ1n)
λ1i=(λ21,λ22,λ23,...,λ2n)
其中λ1i(i=1,2,3...)表示1级参考级别分割后的数据,λ2i(i=1,2,3...)代表进行2级参考级别分割后的数据序列。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法流程的步骤(5) 具体特征还包括,采用的是当前的行为识别研究中最常见的数据分割方法是滑动窗口法,通常设置的时间窗口大小为0.5s~10s,由于基于位置信息传感器的采样频率较高,为保证一个时间窗口内包含完整动作,此处采取12个采样间隔作为一个窗口,同时为减少无效数据的影响,采用前后30%的窗口覆盖。
本发明提出的一种基于可穿戴位置传感器的人体行为序列识别方法流程的步骤(6)具体特征还包括,是将识别和模型训练分开为两个阶段来进行,首先采用SVM模型对动作序列可能包含的所有单一动作进行训练,然后用训练好的模型对分割后的动作序列进行识别。该过程选择Gaussian kernel作为行为识别的核函数,表示为:
Figure RE-GDA0002213820350000051
并设置参数σ=0.1。然后,对SVM分类模型进行训练,判断是否继续训练的因素是否满足评估指标,如果不满足则继续训练,如果满足则可得到最好的行为识别精度时的SVM模型参数。最后,将待分类数据测试模型的识别结果输出。

Claims (4)

1.一种基于可穿戴位置传感器的人体行为序列识别方法,其特征在于:具体步骤如下:
步骤一:数据采集,采用时间轴对齐及缺失填充方法,对数据预处理;
步骤二:进行数据分割;
所述的数据分割是按照参考标签采集到的数据对整体数据进行三个层次的分割,分别为0级参考级别分割、1级参考级别分割和2级参考级别分割;所述的数据分割采用滑动窗口法,设置的时间窗口大小为0.5s-10s,采取12个采样间隔作为一个窗,同时采用前后30%的窗口覆盖;所述的0级参考级别分割是考察参考标签的高程信息,按照高程信息变化ΔH大于0.4m的时刻,将整体数据分割成若干数据段;所述的1级参考级别分割是考察0级参考级别分割后数据的Y轴信息的变化,按照Y轴信息变化ΔY保持在0m到0.2m的时间段,对0级参考级别分割后的数据进行进一步的精细分割;所述的2级参考级别分割是考察1级参考级别分割后数据的X轴信息的变化,按照X轴信息变化ΔX保持在0m到0.2m的时间段,对1级参考级别分割后的数据段进行最终分割;
步骤三:对分割后的动作序列段进行识别并输出结果。
2.根据权利要求1所述的一种基于可穿戴位置传感器的人体行为序列识别方法,其特征在于:步骤一具体为:所述的数据采集在人体的胸部、右大臂、右小臂及左大腿四个位置布置用于识别的位置信息传感器标签,另外在左肩部位置布置参考标签;使用包括参考标签在内的五个传感器标签同时进行数据采集;所述的数据采集中采集到的数据首先按照标签的不同划分成多组数据;其次,对于少量数据缺失,自动按上一条数据进行缺失填充,将各位置信息传感器标签采集到的数据时间轴对齐。
3.根据权利要求2所述的一种基于可穿戴位置传感器的人体行为序列识别方法,其特征在于:步骤三是采用SVM分类模型,在训练好的模型上,对分割后的动作序列段进行识别并输出结果。
4.根据权利要求3所述的一种基于可穿戴位置传感器的人体行为序列识别方法,其特征在于:所述的SVM分类模型是对动作序列可能包含的所有单一动作进行训练,在对SVM分类模型进行训练时,判断是否继续训练的因素是否满足评估指标,如果不满足则继续训练,如果满足则可得到最好的行为识别精度时的SVM分类模型参数。
CN201910644318.6A 2019-07-17 2019-07-17 一种基于可穿戴位置传感器的人体行为序列识别方法 Active CN110458033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910644318.6A CN110458033B (zh) 2019-07-17 2019-07-17 一种基于可穿戴位置传感器的人体行为序列识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910644318.6A CN110458033B (zh) 2019-07-17 2019-07-17 一种基于可穿戴位置传感器的人体行为序列识别方法

Publications (2)

Publication Number Publication Date
CN110458033A CN110458033A (zh) 2019-11-15
CN110458033B true CN110458033B (zh) 2023-01-03

Family

ID=68481714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910644318.6A Active CN110458033B (zh) 2019-07-17 2019-07-17 一种基于可穿戴位置传感器的人体行为序列识别方法

Country Status (1)

Country Link
CN (1) CN110458033B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886323A (zh) * 2013-09-24 2014-06-25 清华大学 基于移动终端的行为识别方法及移动终端
CN104268577A (zh) * 2014-06-27 2015-01-07 大连理工大学 一种基于惯性传感器的人体行为识别方法
CN105118236A (zh) * 2015-09-25 2015-12-02 广东乐源数字技术有限公司 瘫倒监测和预防装置及其处理方法
CN105640500A (zh) * 2015-12-21 2016-06-08 安徽大学 基于独立分量分析的扫视信号特征提取方法和识别方法
CN105678222A (zh) * 2015-12-29 2016-06-15 浙江大学 一种基于移动设备的人体行为识别方法
CN106056061A (zh) * 2016-05-26 2016-10-26 南京大学 一种基于可穿戴设备的日常抽烟行为检测方法
CN107644229A (zh) * 2017-08-31 2018-01-30 浙江工业大学 基于多传感器信息融合的室内异常行为检测方法
CN107886061A (zh) * 2017-11-02 2018-04-06 华南理工大学 基于多模态深度玻尔兹曼机的人体行为识别方法及系统
CN108132053A (zh) * 2017-11-24 2018-06-08 北京工商大学 一种行人轨迹构建方法、系统及惯性测量装置
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106237604A (zh) * 2016-08-31 2016-12-21 歌尔股份有限公司 可穿戴设备及利用其监测运动状态的方法
US20180089586A1 (en) * 2016-09-29 2018-03-29 Stmicroelectronics S.R.L. Artificial neural networks for human activity recognition
BR102017026251A2 (pt) * 2017-12-05 2019-06-25 Samsung Eletrônica da Amazônia Ltda. Método e sistema de reconhecimento de dados de sensor utilizando o enriquecimento de dados para o processo de aprendizagem

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886323A (zh) * 2013-09-24 2014-06-25 清华大学 基于移动终端的行为识别方法及移动终端
CN104268577A (zh) * 2014-06-27 2015-01-07 大连理工大学 一种基于惯性传感器的人体行为识别方法
CN105118236A (zh) * 2015-09-25 2015-12-02 广东乐源数字技术有限公司 瘫倒监测和预防装置及其处理方法
CN105640500A (zh) * 2015-12-21 2016-06-08 安徽大学 基于独立分量分析的扫视信号特征提取方法和识别方法
CN105678222A (zh) * 2015-12-29 2016-06-15 浙江大学 一种基于移动设备的人体行为识别方法
CN106056061A (zh) * 2016-05-26 2016-10-26 南京大学 一种基于可穿戴设备的日常抽烟行为检测方法
CN107644229A (zh) * 2017-08-31 2018-01-30 浙江工业大学 基于多传感器信息融合的室内异常行为检测方法
CN107886061A (zh) * 2017-11-02 2018-04-06 华南理工大学 基于多模态深度玻尔兹曼机的人体行为识别方法及系统
CN108132053A (zh) * 2017-11-24 2018-06-08 北京工商大学 一种行人轨迹构建方法、系统及惯性测量装置
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别系统

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
Adaptive sliding window segmentation for physical activity recognition using a single tri-axial accelerometer;Mohd Halim MohdNoor等;《Pervasive and Mobile Computing》;20170531;1-49 *
Analysis of multi-sensor fusion for mobile and wearable sensor based human activity recognition;Henry Friday Nweke等;《ICDPA 2018》;20180512;22-26 *
基于3D人体骨架的动作识别;张友梅等;《电子学报》;20170415(第04期);906-911 *
基于SVM的人体运动分析与防跌倒检测技术;任宇飞;《信息技术》;20190620(第06期);56-59+68 *
基于可穿戴传感器的人体活动识别研究综述;郑增威等;《计算机应用》;20180108(第05期);正文1223页右栏第二段,1224页左栏第一段,1224页左栏图1,1224页"原始数据获取"部分 *
基于可穿戴传感器的人体行为识别方法研究;佟佳伟;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210515(第05期);I138-843 *
基于无线体域网的囚犯异常行为实时分析;杨璐璐等;《计算机科学》;20150315(第03期);47-50 *
基于极限学习机的老人防摔倒系统设计;沈雪微等;《物联网技术》;20150520(第05期);55-58 *
基于长短时记忆网络的人体姿态检测方法;郑毅等;《计算机应用》;20180610(第06期);1568-1574 *
波形形态特征建模下的MEMS运动模式识别;韩国川;《电子测量技术》;20180708(第13期);84-88 *

Also Published As

Publication number Publication date
CN110458033A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
CN107784293B (zh) 一种基于全局特征和稀疏表示分类的人体行为识别方法
CN104123545B (zh) 一种实时表情特征提取及表情识别方法
CN105069434B (zh) 一种视频中人体动作行为识别方法
CN110353673B (zh) 一种基于标准互信息的脑电通道选择方法
CN111401270A (zh) 一种人体运动姿态识别评价方法及其系统
CN105046197A (zh) 基于聚类的多模板行人检测方法
CN111199202B (zh) 基于循环注意力网络的人体动作识别方法及识别装置
CN112052772A (zh) 一种人脸遮挡检测算法
CN111723662B (zh) 一种基于卷积神经网络的人体姿态识别方法
CN113554110B (zh) 一种基于二值胶囊网络的脑电情绪识别方法
CN113050797A (zh) 一种通过毫米波雷达实现手势识别的方法
CN111461201A (zh) 基于相空间重构的传感器数据分类方法
CN111898526B (zh) 基于多流卷积神经网络的肌电手势识别方法
CN105930770A (zh) 一种基于高斯过程隐变量模型的人体动作识别方法
CN111709284B (zh) 基于cnn-lstm的舞蹈情感识别方法
CN103577804A (zh) 基于sift流和隐条件随机场的人群异常行为识别方法
CN115497143A (zh) 一种基于自监督和终身学习的非接触式多模态生理信号检测方法
CN113014923B (zh) 一种基于压缩域表征运动向量的行为识别方法
CN108509861A (zh) 一种基于样本学习和目标检测结合的目标跟踪方法和装置
CN110458033B (zh) 一种基于可穿戴位置传感器的人体行为序列识别方法
Zhang [Retracted] Sports Action Recognition Based on Particle Swarm Optimization Neural Networks
CN105893967B (zh) 基于时序保留性时空特征的人体行为分类检测方法及系统
CN110163142B (zh) 实时手势识别方法及系统
CN111914724A (zh) 基于滑动窗口分割的连续中国手语识别方法及其系统
CN115188080A (zh) 基于骨架识别和门控循环网络的交警手势识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant