CN113342166A - 基于耳机的保护隐私的颈椎运动识别方法及系统 - Google Patents

基于耳机的保护隐私的颈椎运动识别方法及系统 Download PDF

Info

Publication number
CN113342166A
CN113342166A CN202110605523.9A CN202110605523A CN113342166A CN 113342166 A CN113342166 A CN 113342166A CN 202110605523 A CN202110605523 A CN 202110605523A CN 113342166 A CN113342166 A CN 113342166A
Authority
CN
China
Prior art keywords
signal
neck
component
privacy
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110605523.9A
Other languages
English (en)
Other versions
CN113342166B (zh
Inventor
毕红亮
刘家佳
孙媛媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110605523.9A priority Critical patent/CN113342166B/zh
Publication of CN113342166A publication Critical patent/CN113342166A/zh
Application granted granted Critical
Publication of CN113342166B publication Critical patent/CN113342166B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioethics (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了基于耳机的保护隐私的颈椎运动识别方法及系统,该系统可以识别用户在休息或行走状态下的12种颈部运动。提出了颈椎病预防系统CSEar。在用户端,智能手机打开一个隐私保护区域,接收来自耳机的数据,分析用户的状态,删除用户的私人信息。在云端,系统使用定制的卷积神经网络(CNN)识别颈部运动。最后,我们通过大量实验证明了系统的有效性和鲁棒性,其识别精度可达93%。该系统无论在行走还是休息中均可以实现颈椎动作的识别,以预防颈椎病发生。

Description

基于耳机的保护隐私的颈椎运动识别方法及系统
技术领域
本发明属于机辅助颈椎病预防技术领域,特别涉及基于耳机的保护隐私的颈椎运动识别方法及系统。
背景技术
颈椎在人们的生活中起着重要的作用,然而随着社会节奏的加快,低头族和办公族的流行,颈椎病发生呈上升趋势。而通过检测和识别颈部运动,加以提醒干预,可以辅助预防颈椎病。
首先,考虑到不同的颈部运动导致头部产生不同的震动方式,这种震动可以被现有商用耳机搭载的加速度计捕捉到,从而检测识别颈部运动。以此为基础,本发明提出了一个新的系统,CSEar,使用耳机的内置加速计来识别颈部运动。如图1所示,12种颈椎动作包括伸展NE和伸展恢复RNE、屈曲NF和屈曲恢复NFR、右倾RI和右倾恢复RRI、左倾LI和左倾恢复RLI、右旋RR和右旋恢复RRR、左旋LR和左旋恢复RLR。然而现有工作没有提出一个完整的方案识别包括走路和休息状态下的这12种颈部运动,同时也没有考虑到用户的隐私保护等问题。因此现有工作并不充分。
发明内容
本发明的目的在于提供基于耳机的保护隐私的颈椎运动识别方法及系统,以解决上述问题。
为实现上述目的,本发明采用以下技术方案:
基于耳机的保护隐私的颈椎运动识别方法,包括以下步骤:
耳机内设置加速计,通过加速计采集加速度信号,设置隐私隔离区,区分当前为步行或休息状态;
处于静止状态使用子窗口合并算法来检测颈部运动,处于行动状态时通过PCA的分量提取、漂移消除、基于信号斜率的包络计算、分量选择和子窗口合并来确定颈部运动的边界;
通过数据扩充来增加样本量,避免过拟合,然后将数据输入CNN以识别颈部运动。
进一步的,区分当前为步行或休息状态:
首先,利用高通滤波器消除重力和随机噪声的影响,然后根据均方根RMSI阈值确定用户的状态;如果用户处于步行状态,则通过低通滤波器去除原始信号中的步态信息,没有用户隐私的数据传输到云端;如果用户处于静止状态,原始数据将与去掉重力信息的高通滤波数据一起发送到云端;
Figure BDA0003093968430000021
进一步的,使用子窗口合并算法来检测颈部运动,如公式:
Figure BDA0003093968430000022
处于行动状态时,计算如下:
D=[LX′,LY′,LZ′,RX′,RY′,RZ′] (2)
Figure BDA0003093968430000023
C=D*×(D*)T (4)
Y=R×D(R为C的特征向量矩阵) (5)
Y′k=Yk-fk,k∈{1,2,…N} (6)
yk=|ΔY′k(t)=Y′k(t)-Y′k(t-1)| (7)
Figure BDA0003093968430000024
Figure BDA0003093968430000025
Figure BDA0003093968430000026
进一步的,耳机内置加速度传感器采集数据;设置隐私隔离区,通过滤波去除步态信息,保护用户隐私。
进一步的,分量提取:
首先利用主成分分析(PCA)方法将六轴数据重组为不相关的成分;在进行PCA分析前,对六轴数据进行归一化处理,以抵消不同维度的影响;
D=[LX′,LY′,LZ′,RX′,RY′,RZ′]
Figure BDA0003093968430000031
式中LX′,LY′,LZ′,RX′,RY′,RZ′表示巴特沃思低通滤波器处理的六轴数据;D是这六个列向量的矩阵;D*是D的一个归一化矩阵,其维数为Len×6,其中Len表示采样点数;根据公式C=D*×(D*)T计算D的相关系数矩阵C;求解出C的特征向量,并将特征向量按行放入矩阵R中;通过公式Y=R×D可以得到每个PCA分量;在Y中,每一行表示原始数据在每个分量上的投影。
进一步的,漂移去除:首先,基于最小二乘法得到各分量线性拟合的趋势项;然后从成分中减去趋势项,以集中分析数据本身的波动;
Y′k=Yk-fk,k∈{1,2,…N}
其中,Y′k是去除漂移后的分量,fk是分量Yk的趋势项。N是分量的总数。
进一步的,包络计算:通过下面的公式放大这个斜率差来区分随机噪声中的每个分量;
yk=|ΔY′k(t)=Y′k(t)-Y′k(t-1)|
其中yk为求解的分量信号斜率的绝对值,通过希尔伯特变换提取斜率信号yk的包络Ak,抑制噪声信号的干扰,平滑各分量信号;
Figure BDA0003093968430000032
其中H为斜率信号yk经过希尔伯特变换后的值,N是分量的总数。
进一步的,分量选择:对于不同的颈部运动,信噪比最大的包络对应的分量也不同,需要选择信噪比最大的包络进行分析:
Figure BDA0003093968430000033
Figure BDA0003093968430000034
其中SNRk为包络Ak的信噪比,
Figure BDA0003093968430000035
为信噪比最大的包络的分量数;N是分量的总数;利用子窗口合并算法,对选定的包络信号进行分割,确定颈部运动信号边界后,再将边界内的低通滤波后的六轴加速度信号输入颈部运动识别模块进行分类。
进一步的,基于耳机的保护隐私的颈椎运动识别系统,包括:
隐私隔离区设置模块用于通过加速计采集加速度信号,设置隐私隔离区,区分当前为步行或休息状态;
颈部运动检测模块用于处于静止状态使用子窗口合并算法来检测颈部运动,处于行动状态时通过PCA的分量提取、漂移消除、基于信号斜率的包络计算、分量选择和子窗口合并来确定颈部运动的边界;
颈部运动识别模块用于通过数据扩充来增加样本量,避免过拟合,然后将数据输入CNN以识别颈部运动。
与现有技术相比,本发明有以下技术效果:
本发明设计了两种不同的有效提取颈部运动的算法,根据用户的不同状态来检测颈部运动。尤其在走路中,由于步态信号和颈部动作信号严重混叠在一起,导致颈部动作信号难以检测和提取,而以往的基于可穿戴的颈椎运动识别并没有完全解决这个问题。因此,本文设计了颈部运动检测算法,实现了无论在走路还是休息时都可以检测12种不同的颈部运动。同时,为了减少过度拟合,本发明使用数据增强,利用定制的卷积神经网络建立颈部运动识别模型。从而实现在现有商业耳机上完成颈部动作的识别。
附图说明
图1为颈部的12种运动示意图;(伸展NE和恢复RNE、屈曲NF和恢复NFR、右倾RI和恢复RRI、左倾LI和恢复RLI、右旋RR和恢复RRR、左旋和LR恢复RLR。)
图2颈部运动的原始加速信号;
图3系统的流程图;
图4利用高通滤波器对线性加速度信号进行滤波;
图5行走过程中颈部运动检测算法的技术流程;
图6颈部运动识别的网络结构;
图7 12种颈部运动,包括行走状态和静息状态的假阳性率和假阴性率;
图8不同核大小和层数下的精度比较;
图9 12种颈部运动的混淆概率矩阵;
图10系统的鲁棒性评价;
具体实施方式
以下结合附图对本发明进一步说明:
智能手机隐私隔离区
如图2所示,颈部运动的加速度数据受到重力和行走的影响。本发明不能通过窗口函数直接检测颈部运动信号。利用傅立叶变换在频域对信号进行分析。步态信号分量的频率相对于重力分量处于一个高频频段。因此,可以使用巴特沃斯滤波器来分离这两种混合成分。过程如下。
首先用高通滤波器去除低频重力分量。如图4所示,在消除重力的干扰后,本发明使用固定宽度窗口提取噪声信号,根据噪声信号的均方根值RMS分析用户状态。
Figure BDA0003093968430000051
其中LX,LY,LZ为左耳机的三个轴加速度。RX,RY,RZ为右耳机的三轴加速度。本发明可以设定一个阈值来区分散步和休息。
当用户处于行走状态时,将六轴原始加速度信号通过低通滤波器进行滤波,去除步态信号,避免身份信息泄露。没有步态信息的数据被传输到云端。如果用户处于静止状态,原始数据和高通过滤后的数据一起被发送到云端。所有的滤波器都使用截止频率为0.45Hz的二阶巴特沃思滤波器。
2.颈部运动检测
2.1静息状态颈部运动检测
根据线性加速度信号,利用窗函数提取静息状态下的颈部运动。然而,传统的固定滑动窗口算法,通常具有一个固定的窗宽。如果窗宽设置不合理,容易发生截断和包含冗余信号。因此,本发明基于子窗合并算法,使用小尺寸子窗的连续检测并合并,以覆盖整个脖颈动作信号。如果子窗口颈部运动的RMS大于随机噪声的RMS,子窗口将被保留。考虑到子窗口重叠率为50%,每个子窗口只保留前
Figure BDA0003093968430000061
个采样点。
Figure BDA0003093968430000062
其中E是合并后的窗口中的信号。通过该算法,确定动作信号的边界。然后将该边界内的六轴原始加速度数据提取出来,用于后续的分类建模。
2.2行走状态下颈部运动检测
由于重力方向是垂直向下的,当用户移动颈部时,重力方向与加速度计设备坐标系的夹角会发生变化。因此,重力分量对加速度信号有影响。而对于颈部运动LR、RLR、RR和RRR,重力分量对加速度信号的三个轴影响不大,步态分量起主要作用。角度的变化也非常小。去除步态信号也会导致颈部运动信号严重失真。在行走过程中很难检测到颈部LR、RLR、RR和RRR的运动。为了解决这一问题,本发明设计了一种行走时颈部运动的检测算法。算法流程如图5所示。
分量提取:颈部的不同运动对加速度信号的各轴有不同程度的影响。本算法的目标是找到受脖颈动作影响最大的轴进行轴。首先利用主成分分析(PCA)方法将六轴数据重组为不相关的成分。在进行PCA分析前,对六轴数据进行归一化处理,以抵消不同维度的影响。
D=[LX′,LY′,LZ′,RX′,RY′,RZ′]
Figure BDA0003093968430000063
式中LX′,LY′,LZ′,RX′,RY′,RZ′表示巴特沃思低通滤波器处理的六轴数据;D是这六个列向量的矩阵;D*是D的一个归一化矩阵,其维数为Len×6,其中Len表示采样点数。根据公式C=D*×(D*)T计算D的相关系数矩阵C。求解出C的特征向量,并将特征向量按行放入矩阵R中。通过公式Y=R×D可以得到每个PCA分量。在Y中,每一行表示原始数据在每个分量上的投影。
漂移去除:由于检测时间的增加和噪声的干扰,计算出的分量会出现漂移。因此需要去除每个分量的趋势项,以消除漂移。首先,基于最小二乘法得到各分量线性拟合的趋势项;然后从成分中减去趋势项,以集中分析数据本身的波动。
Y′k=Yk-fk,k∈{1,2,…N}
其中,Y′k是去除漂移后的分量,fk是分量Yk的趋势项。N是分量的总数。
包络计算:与随机噪声相比,颈部运动引起的加速度信号波动更大,导致斜率更大。尤其对于左旋和右旋等颈部动作LR、RLR、RR和RRR,由于颈部旋转的平面很难严格垂直于重力的方向,重力分量在信号中仍然起作用,信号中也会有一个斜率。因此颈部运动信号相对于噪声信号具有更大的斜率。本算法可以通过下面的公式放大这个斜率差来区分随机噪声中的每个分量。
yk=|ΔY′k(t)=Y′k(t)-Y′k(t-1)|
其中yk为求解的分量信号斜率的绝对值,即使如此,噪声信号的斜率也有较大的波动。为了更方便地检测颈部运动信号,本算法通过希尔伯特变换提取斜率信号yk的包络Ak,抑制噪声信号的干扰,平滑各分量信号。
Figure BDA0003093968430000071
其中H为斜率信号yk经过希尔伯特变换后的值。N是分量的总数。
分量选择:但同一颈部运动时,各分量包络信号的信噪比(SNR)是不同的。对于不同的颈部运动,信噪比最大的包络对应的分量也不同。为了更有效地检测信号,需要选择信噪比最大的包络进行分析。
Figure BDA0003093968430000072
Figure BDA0003093968430000073
其中SNRk为包络Ak的信噪比,
Figure BDA0003093968430000074
为信噪比最大的包络的分量数。N是分量的总数。最后,本算法利用子窗口合并算法,对选定的包络信号进行分割。确定颈部运动信号边界后,再将边界内的低通滤波后的六轴加速度信号输入颈部运动识别模块进行分类。
3.颈部运动识别
在颈部运动检测后,本发明首先扩展训练样本以避免过拟合,然后建立基于CNN的颈部运动识别模型。
3.1数据增强
由于时间和成本的限制,不可能收集到涵盖所有人的动作数据样本。所以,本发明使用数据增强方法生成更多的样本,提升模型泛化性。为了模拟颈部在不同速度下的运动,使用时间扭曲处理来变换信号的时域位置。为了模拟不同力下的颈部运动,使用振幅失真处理来随机改变数据的振幅。为了模拟不同振幅的颈部运动,使用时间缩放来改变信号的宽度。旋转处理可以模拟耳机在不同角度下的数据采集。为了模拟颈部在不同噪声环境下的运动,在数据中加入随机噪声。为了模拟不同段的信号,使用置换来改变信号在窗口中的时间位置。最后,将扩展后的数据输入定制的CNN网络。
3.2分类
数据准备:在将数据输入到CNN网络进行模型训练之前,需要将过滤后的信号映射为一个H×W张量的二维数据格式。H为数据通道数,因有六轴数据,此处设置为6。W为每个通道上颈部运动的时域宽度。由于大部分人脖颈动作都在6秒以内完成,将其设置为600(频率为100hz)。对于超过6秒的实例样本,将其截断为6秒。对于不足6秒的样本,用0来补充至6秒。张量数据标签以one-hot方式进行编码。采用z分数标准化方法对二维张量进行预处理,消除数据量纲的影响。
网络结构:如图6所示,网络结构包括四个卷积层,四个池化层,一个完全连接层和一个softmax层。每个卷积层有800个卷积核,用于特征提取。每个卷积核的大小是1×4。每个卷积核的移动步长为1×1。激活函数Relu对卷积层的输出进行处理,以提高模型的表达能力。然后提取1×4移动窗口内的最大值进行特征降维。除最后一个卷积层的移动步长设置为1×2之外,其他卷积层的移动步长均设置为1×4。将最后一个卷积层输出的数据进行平坦化后,再通过全连接层和softmax层输出每个类的预测概率。基于预测的脖颈姿势类别与真实类别求解根均方误差RMSE,并将该误差反向传播回网络中,使用Adam梯度下降法更新网络参数,其中学习率设置为0.0001。
4.评价
本发明根据用户的状态设计了两种不同的信号检测算法,然后利用CNN建立了颈部运动识别模型。最后,本发明设计实验,从不同的方面对颈部运动检测识别模块进行评估,验证模型的有效性和鲁棒性。本发明使用精度,准确率,召回率,F1值,混淆概率矩阵评价模型性能。
有效性:如图7所示,实验结果显示,静息状态下颈部运动的平均假阳性率为3.71%,平均假阴性率为3.08%。行走状态下颈部运动的平均假阳性率为7.59%,平均假阴性率为6.46%。
如图8所示,当卷积核尺寸为4时,层数为4(2个卷积层+2个池化层)、6层、8层和10层模型的准确率分别为79%、86%、93%和92%。模型性能可以随着网络层数量的增加而提高。当层数为8时,卷积核尺寸为2、4、8和16的模型的准确率分别为83%、93%、92%和88%。随着卷积核大小的增大,模型的识别性能先增大后减小。因此,本发明选择8层的CNN,卷积核尺寸为4来获得最好的性能。
如图9所示,脖颈动作RR与RRR的错误率分别为6.9%和3.5%。脖颈动作LR与RLR的错误率分别为6.6%和6.7%。这些错误率相对较高,因为它们彼此相似。然而模型的平均识别准确率超过93%。其中行走W的识别准确率为93.2%。证明了即使在行走过程中存在假阳性率,仍然可以通过分类模型很好地区分行走和颈部运动。因此,模型具有良好的颈部运动识别性能。
鲁棒性:如图10(a)所示,模型的准确率为91.7%,召回率为91.8%,F1值为92%。分别比模型在平坦的地面上行走时略低。当坡度较大时,身体摇晃得更剧烈。这使得颈部运动信号更难被检测到。而坡度对识别性能的影响较小,说明该模型对地面坡度具有较好的鲁棒性。
如图10(b)所示,通过比较不同比例的训练集大小的性能,可以发现,当每个类5个样本训练模型时,准确率为73.1%,召回率为73.3%,F1值为73.4%。当训练集大小为20时,模型的性能最好。当训练集大小超过15时,模型的性能趋于稳定。因此,本发明收集的数据足够构建CSEar模型。
结果如图10(c)所示。未进行数据增强处理的模型精密度为86.3%,查全率为86.4%,F1值为86.6%。结果表明,有数据增强的模型比没有数据增强的模型性能提高了7%。因此,即使不能获得大量的训练样本,也可以使用数据增强的方法来覆盖颈部运动的变化,避免过拟合。

Claims (9)

1.基于耳机的保护隐私的颈椎运动识别方法,其特征在于,包括以下步骤:
耳机内设置加速计,通过加速计采集加速度信号,设置隐私隔离区,区分当前为步行或休息状态;
处于静止状态使用子窗口合并算法来检测颈部运动,处于行动状态时通过PCA的分量提取、漂移消除、基于信号斜率的包络计算、分量选择和子窗口合并来确定颈部运动的边界;
通过数据扩充来增加样本量,避免过拟合,然后将数据输入CNN以识别颈部运动。
2.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,区分当前为步行或休息状态:
首先,利用高通滤波器消除重力和随机噪声的影响,然后根据均方根RMSI阈值确定用户的状态;如果用户处于步行状态,则通过低通滤波器去除原始信号中的步态信息,没有用户隐私的数据传输到云端;如果用户处于静止状态,原始数据将与去掉重力信息的高通滤波数据一起发送到云端;
Figure FDA0003093968420000011
3.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,使用子窗口合并算法来检测颈部运动,如公式:
Figure FDA0003093968420000012
处于行动状态时,计算如下:
D=[LX′,LY′,LZ′,RX′,RY′,RZ′] (2)
Figure FDA0003093968420000013
C=D*×(D*)T (4)
Y=R×D(R为C的特征向量矩阵) (5)
Y′k=Yk-fk,k∈{1,2,…N} (6)
yk=|ΔY′k(t)=Y′k(t)-Y′k(t-1)| (7)
Figure FDA0003093968420000014
Figure FDA0003093968420000021
Figure FDA0003093968420000022
4.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,耳机内置加速度传感器采集数据;设置隐私隔离区,通过滤波去除步态信息,保护用户隐私。
5.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,分量提取:
首先利用主成分分析(PCA)方法将六轴数据重组为不相关的成分;在进行PCA分析前,对六轴数据进行归一化处理,以抵消不同维度的影响;
D=[LX′,LY′,LZ′,RX′,RY′,RZ′]
Figure FDA0003093968420000023
式中LX′,LY′,LZ′,RX′,RY′,RZ′表示巴特沃思低通滤波器处理的六轴数据;D是这六个列向量的矩阵;D*是D的一个归一化矩阵,其维数为Len×6,其中Len表示采样点数;根据公式C=D*×(D*)T计算D的相关系数矩阵C;求解出C的特征向量,并将特征向量按行放入矩阵R中;通过公式Y=R×D可以得到每个PCA分量;在Y中,每一行表示原始数据在每个分量上的投影。
6.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,漂移去除:首先,基于最小二乘法得到各分量线性拟合的趋势项;然后从成分中减去趋势项,以集中分析数据本身的波动;
Y′k=Yk-fk,k∈{1,2,…N}
其中,Y′k是去除漂移后的分量,fk是分量Yk的趋势项;N是分量的总数。
7.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,包络计算:通过下面的公式放大这个斜率差来区分随机噪声中的每个分量;
yk=|ΔY′k(t)=Y′k(t)-Y′k(t-1)|
其中yk为求解的分量信号斜率的绝对值,通过希尔伯特变换提取斜率信号yk的包络Ak,抑制噪声信号的干扰,平滑各分量信号;
Figure FDA0003093968420000024
其中H为斜率信号yk经过希尔伯特变换后的值,N是分量的总数。
8.根据权利要求1所述的基于耳机的保护隐私的颈椎运动识别方法,其特征在于,分量选择:对于不同的颈部运动,信噪比最大的包络对应的分量也不同,需要选择信噪比最大的包络进行分析:
Figure FDA0003093968420000031
Figure FDA0003093968420000032
其中SNRk为包络Ak的信噪比,
Figure FDA0003093968420000033
为信噪比最大的包络的分量数;N是分量的总数;利用子窗口合并算法,对选定的包络信号进行分割,确定颈部运动信号边界后,再将边界内的低通滤波后的六轴加速度信号输入颈部运动识别模块进行分类。
9.基于耳机的保护隐私的颈椎运动识别系统,其特征在于,包括:
隐私隔离区设置模块用于通过加速计采集加速度信号,设置隐私隔离区,区分当前为步行或休息状态;
颈部运动检测模块用于处于静止状态使用子窗口合并算法来检测颈部运动,处于行动状态时通过PCA的分量提取、漂移消除、基于信号斜率的包络计算、分量选择和子窗口合并来确定颈部运动的边界;
颈部运动识别模块用于通过数据扩充来增加样本量,避免过拟合,然后将数据输入CNN以识别颈部运动。
CN202110605523.9A 2021-05-31 2021-05-31 基于耳机的保护隐私的颈椎运动识别方法及系统 Active CN113342166B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110605523.9A CN113342166B (zh) 2021-05-31 2021-05-31 基于耳机的保护隐私的颈椎运动识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110605523.9A CN113342166B (zh) 2021-05-31 2021-05-31 基于耳机的保护隐私的颈椎运动识别方法及系统

Publications (2)

Publication Number Publication Date
CN113342166A true CN113342166A (zh) 2021-09-03
CN113342166B CN113342166B (zh) 2023-07-07

Family

ID=77473602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110605523.9A Active CN113342166B (zh) 2021-05-31 2021-05-31 基于耳机的保护隐私的颈椎运动识别方法及系统

Country Status (1)

Country Link
CN (1) CN113342166B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116098613A (zh) * 2023-02-21 2023-05-12 北京家康众智科技有限公司 一种颈椎测量和远程诊断的康复系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170188895A1 (en) * 2014-03-12 2017-07-06 Smart Monitor Corp System and method of body motion analytics recognition and alerting
CN107103219A (zh) * 2017-04-10 2017-08-29 南京大学 基于步态的可穿戴设备用户识别方法及系统
WO2017167518A1 (en) * 2016-03-31 2017-10-05 Fotonation Limited Biometric recognition system
CN108549856A (zh) * 2018-04-02 2018-09-18 上海理工大学 一种人体动作和路况识别方法
CN108577852A (zh) * 2018-04-18 2018-09-28 杭州市萧山区中医院 颈椎活动提示方法及颈椎活动检测系统
CN109506611A (zh) * 2017-09-15 2019-03-22 桂林电子科技大学 一种基于矩阵秩运算的面轮廓度评定方法
CN110490143A (zh) * 2019-08-21 2019-11-22 西安工程大学 一种自适应模式的动作识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170188895A1 (en) * 2014-03-12 2017-07-06 Smart Monitor Corp System and method of body motion analytics recognition and alerting
WO2017167518A1 (en) * 2016-03-31 2017-10-05 Fotonation Limited Biometric recognition system
CN107103219A (zh) * 2017-04-10 2017-08-29 南京大学 基于步态的可穿戴设备用户识别方法及系统
CN109506611A (zh) * 2017-09-15 2019-03-22 桂林电子科技大学 一种基于矩阵秩运算的面轮廓度评定方法
CN108549856A (zh) * 2018-04-02 2018-09-18 上海理工大学 一种人体动作和路况识别方法
CN108577852A (zh) * 2018-04-18 2018-09-28 杭州市萧山区中医院 颈椎活动提示方法及颈椎活动检测系统
CN110490143A (zh) * 2019-08-21 2019-11-22 西安工程大学 一种自适应模式的动作识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ESPOSITO,D等: "《Improvements of a Simple Piezoresistive Array Armband for Gesture Recognition》", 《2020 INTERNATIONAL CONFERENCE ON E-HEALTH AND BIOENGINEERING(EHB)》 *
陈法权等: "基于卷积神经网络的人体步态识别算法研究", 《机床与液压》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116098613A (zh) * 2023-02-21 2023-05-12 北京家康众智科技有限公司 一种颈椎测量和远程诊断的康复系统

Also Published As

Publication number Publication date
CN113342166B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN108693973B (zh) 一种融合脑电信号和环境信息的紧急状况检测系统
Billah et al. Recognizing distractions for assistive driving by tracking body parts
CN105807935B (zh) 一种基于WiFi的手势控制人机交互系统
CN103605969B (zh) 一种人脸录入的方法及装置
CN110287825B (zh) 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN111616718B (zh) 基于姿态特征的驾驶员疲劳状态检测方法和系统
US20080137950A1 (en) System and method for analyzing of human motion based on silhouettes of real time video stream
CN111089604B (zh) 基于可穿戴传感器的健身运动识别方法
Charfi et al. Optimised spatio-temporal descriptors for real-time fall detection: comparison of SVM and Adaboost based classification
CN106981174A (zh) 一种基于智能手机的老人跌倒检测方法
CN109009125A (zh) 基于移动终端音频的驾驶员细粒度呼吸监测方法及系统
CN108446690A (zh) 一种基于多视角动态特征的人脸活体检测方法
EP3437005A1 (en) Biometric recognition system
JP2008009728A (ja) 表情認識方法及び表情認識装置
CN113342166B (zh) 基于耳机的保护隐私的颈椎运动识别方法及系统
CN100495427C (zh) 复杂背景下的人耳检测及多信息融合的人耳识别方法
KR20200053171A (ko) 동작 상상 뇌-컴퓨터 인터페이스를 위한 시간-주파수 최적 공간 패턴 기반 뇌파 분석 방법
CN111144174A (zh) 利用神经网络与传统算法识别视频中老人跌倒行为的系统
CN106971203B (zh) 基于走路特征数据的身份识别方法
CN106446822B (zh) 基于圆拟合的眨眼检测方法
EP2313814B1 (en) A method, device, and computer program product for event detection while preventing misclassification
CN110688969A (zh) 视频帧人体行为识别方法
Baranwal et al. Indian sign language gesture recognition using discrete wavelet packet transform
CN109993118B (zh) 一种动作的识别方法及其识别系统
CN109620241B (zh) 一种可穿戴设备及基于其的动作监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant