CN109316192B - 基于移动网络信道状态信息的坐姿检测方法及装置 - Google Patents

基于移动网络信道状态信息的坐姿检测方法及装置 Download PDF

Info

Publication number
CN109316192B
CN109316192B CN201811067093.4A CN201811067093A CN109316192B CN 109316192 B CN109316192 B CN 109316192B CN 201811067093 A CN201811067093 A CN 201811067093A CN 109316192 B CN109316192 B CN 109316192B
Authority
CN
China
Prior art keywords
sitting posture
mobile network
angle
state information
sight distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811067093.4A
Other languages
English (en)
Other versions
CN109316192A (zh
Inventor
喻涛
王继龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shuimu Wangjing Technology Co ltd
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201811067093.4A priority Critical patent/CN109316192B/zh
Publication of CN109316192A publication Critical patent/CN109316192A/zh
Application granted granted Critical
Publication of CN109316192B publication Critical patent/CN109316192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种基于移动网络信道状态信息的坐姿检测方法及装置,其中,方法包括:正常坐姿情况时,在不同视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据;采集根据第一幅度数据训练得到的不同无线信道类型下,正常、前倾、倚靠、左倾斜和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据;在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过无线信道分类模型识别无线路由和被监测人员之间的无线信道类型;根据当前移动网络信道状态信息幅度数据通过根据第二幅度数据训练得到坐姿分类模型识别被监测人员的坐姿状态。该方法有效提高了检测的准确性、适用性和可靠性,简单易实现。

Description

基于移动网络信道状态信息的坐姿检测方法及装置
技术领域
本发明涉及坐姿检测技术领域,特别涉及一种基于移动网络信道状态信息的坐姿检测方法及装置。
背景技术
相关技术,检测室内人员坐姿有以下几种方法:(1)利用无线信号到达两根天线的相位差来区分摔倒和疑似摔倒的动作,实现对摔倒动作的准确判别;(2)利用人类活动重建无线信号传播模型,并结合SVM实现室内人员摔倒检测的识别方法;(3)利用无线信号的信道频率响应(CFR)来检测室内人员睡眠时的姿势和呼吸情况。
然而,相关技术的方法只能够识别有较大幅度的动作,不能够对小幅度的动作做出准确判断,并且易受到周围环境因素的影响,不能够普遍适用于室内人员的活动识别,且动作识别准确率不高。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于移动网络信道状态信息的坐姿检测方法,该方法有效提高了检测的准确性、适用性和可靠性,简单易实现。
本发明的另一个目的在于提出一种基于移动网络信道状态信息的坐姿检测装置。
为达到上述目的,本发明一方面实施例提出了一种基于移动网络信道状态信息的坐姿检测方法,包括以下步骤:步骤S1:正常坐姿情况时,在不同视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据;步骤S2:根据所述第一幅度数据训练得到基于多层神经网络的无线信道分类模型;步骤S3:采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据;步骤S4:根据所述第二幅度数据训练得到基于多层神经网络的坐姿分类模型;步骤S5:在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过所述无线信道分类模型识别无线路由和被监测人员之间的无线信道类型;步骤S6:根据所述当前移动网络信道状态信息幅度数据通过所述坐姿分类模型识别所述被监测人员的坐姿状态。
本发明实施例的基于移动网络信道状态信息的坐姿检测方法,根据不同视距下不同方位的移动网络信道状态信息和不同坐姿下的无线信道状态信息检测被检测人员坐姿,从而可以不仅可以是被较大幅度的动作,也能够对小幅度的动作做出准确判断,且不易受到周围环境的影响,能够普遍适用于室内人员的活动识别,进而有效提高了检测的准确性、适用性和可靠性,简单易实现。
另外,根据本发明上述实施例的基于移动网络信道状态信息的坐姿检测方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述步骤S1包括:将所述移动网络设备和所述被监测人员之间的无线信道分为视距情况和非视距情况;以所述被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为所述移动网络设备的摆放位置;根据所述移动网络设备和所述被监测人员之间的无线信道的不同视距情况和所述移动网络设备相对被监测人员的方位将所述无线信道分为16种类型;在所述正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
进一步地,在本发明的一个实施例中,所述步骤S2的执行过程包括:根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;根据所述输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到所述无线信道分类模型。
进一步地,在本发明的一个实施例中,所述步骤S4包括:依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照所述步骤S2的执行过程进行处理得到训练样本;根据所述按照所述步骤S2的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到所述坐姿分类模型。
进一步地,在本发明的一个实施例中,所述步骤S5包括:检测当前移动网络信道状态信息的幅度数据;根据所述当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,所述无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
为达到上述目的,本发明另一方面实施例提出了一种基于移动网络信道状态信息的坐姿检测装置,包括:第一采集模块,用于正常坐姿情况时,在不同视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据;第一训练模块,用于根据所述第一幅度数据训练得到基于多层神经网络的无线信道分类模型;第二采集模块,用于采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据;第二训练模块,用于根据所述第二幅度数据训练得到基于多层神经网络的坐姿分类模型;第一识别模块,用于在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过所述无线信道分类模型识别无线路由和被监测人员之间的无线信道类型;第二识别模块,用于根据所述当前移动网络信道状态信息幅度数据通过所述坐姿分类模型识别所述被监测人员的坐姿状态。
本发明实施例的基于移动网络信道状态信息的坐姿检测装置,根据不同视距下不同方位的移动网络信道状态信息和不同坐姿下的无线信道状态信息检测被检测人员坐姿,从而可以不仅可以是被较大幅度的动作,也能够对小幅度的动作做出准确判断,且不易受到周围环境的影响,能够普遍适用于室内人员的活动识别,进而有效提高了检测的准确性、适用性和可靠性,简单易实现。
另外,根据本发明上述实施例的基于移动网络信道状态信息的坐姿检测装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述第一采集模块进一步用于将所述移动网络设备和所述被监测人员之间的无线信道分为视距情况和非视距情况;并以所述被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为所述移动网络设备的摆放位置;且根据所述移动网络设备和所述被监测人员之间的无线信道的不同视距情况和所述移动网络设备相对被监测人员的方位将所述无线信道分为16种类型;在所述正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
进一步地,在本发明的一个实施例中,所述第一训练模块进一步用于根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;根据所述输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到所述无线信道分类模型。
进一步地,在本发明的一个实施例中,所述第二训练模块进一步用于依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照所述第一训练模块的执行过程进行处理得到训练样本;根据所述按照所述第一训练模块的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到所述坐姿分类模型。
进一步地,在本发明的一个实施例中,所述第一识别模块进一步用于检测当前移动网络信道状态信息的幅度数据;根据所述当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,所述无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于移动网络信道状态信息的坐姿检测方法的流程图;
图2为根据本发明一个具体实施例的基于移动网络信道状态信息的坐姿检测方法的流程图;
图3为根据本发明一个实施例的基于移动网络信道状态信息的坐姿检测装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于移动网络信道状态信息的坐姿检测方法及装置,首先将参照附图描述根据本发明实施例提出的基于移动网络信道状态信息的坐姿检测方法。
图1是本发明一个实施例的基于移动网络信道状态信息的坐姿检测方法的流程图。
如图1所示,该基于移动网络信道状态信息的坐姿检测方法包括以下步骤:
步骤S1:正常坐姿情况时,在不同视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据。
可以理解的是,如图2所示,正常坐姿情形时,测量在不同视距情况下,移动网络设备相对被检测人员处于不同方位的移动网络信道状态信息的幅度数据,既得到第一幅度数据。
进一步地,在本发明的一个实施例中,步骤S1包括:将移动网络设备和被监测人员之间的无线信道分为视距情况和非视距情况;以被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为移动网络设备的摆放位置;根据移动网络设备和被监测人员之间的无线信道的不同视距情况和移动网络设备相对被监测人员的方位将无线信道分为16种类型;在正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
具体而言,进一步地,步骤S1可以包括:
首先,将移动网络设备和被监测人员之间的无线信道分为视距和非视距两种情况,其中移动网络设备可以是WiFi路由器、移动通信基站、便携式电脑和手机,并且被监测人员一般位于某个移动网络设备附近;
接着,在每种情况下,以被监测人员为中心,右侧为起始位置,45度角为间隔,按逆时针方向确定8个坐标为移动网络设备的摆放位置;
然后,根据移动网络设备和被监测人员之间的无线信道的不同视距情况和移动网络设备相对被监测人员的方位,可以将无线信道分为16种类型;
最后,在正常坐姿情况下,测量在不同无线信道类型下的移动网络信道状态信息幅度数据。
步骤S2:根据第一幅度数据训练得到基于多层神经网络的无线信道分类模型。
可以理解的是,如图2所示,本发明实施例利用步骤S1得到的数据,训练得出基于多层神经网络的无线信道类型的分类模型。
进一步地,在本发明的一个实施例中,步骤S2的执行过程包括:根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;根据输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到无线信道分类模型。
具体而言,进一步地,步骤S2可以包括:
S21、训练模型时,输入多层神经网络的样本由原始数据经过以下几个步骤处理得到:
首先,以100个数据包为单位,将正常坐姿下的数据分为若干组,其中每个数据包包含30个子载波的幅度和相位信息;
然后,先取这100个数据包中的1号子载波幅度值,计算其平均值记为
Figure BDA0001798571210000051
再依次计算2,3,4,…,30号子载波幅度的平均值,分别记为
Figure BDA0001798571210000052
最后,将每组数据包计算得出的子载波幅度平均值
Figure BDA0001798571210000053
作为多层神经网络的一个输入样本;
S22、对于每个样本的标签值,系统规定:当输入样本表示的无线信道类型为“视距,0度角”、“视距,45度角”、“视距,90度角”、“视距,135度角”、“视距,180度角”、“视距,225度角”、“视距,270度角”、“视距,315度角”、“非视距,0度角”、“非视距,45度角”、“非视距,90度角”、“非视距,135度角”、“非视距,180度角”、“非视距,225度角”、“非视距,270度角”或“非视距,315度角”时,设置的标签数据分别为“1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0”,“0 10 0 0 0 0 0 0 0 0 0 0 0 0 0”“0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0”,“0 0 0 1 0 0 00 0 0 0 0 0 0 0 0”,“0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0”,“0 0 0 0 0 1 0 0 0 0 0 00 0 0 0”,“0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0”,“0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0”,“0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0”,“0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0”,“0 0 0 00 0 0 0 0 0 1 0 0 0 0 0”,“0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0”,“0 0 0 0 0 0 0 0 00 0 0 1 0 0 0”,“0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0”,“0 0 0 0 0 0 0 0 0 0 0 0 0 01 0”,“0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1”;
S23、对于模型的训练:
首先,每个样本经过多层神经网络都会有一组相应的输出,将该输出与样本的标签数据作比较会得出偏差,建立用于表示偏差的目标函数Ed;
接着,使用反向传播算法,依次对各层的推导公式进行梯度求解,分别计算每层节点的误差项δj
然后,权值按照梯度下降法进行更新;
最后,当所有的样本数据均重复上述步骤,直到对于整个样本集而言误差不超过规定值,则可以确定整个网络中的连接权值,就能够得到一个基于多层神经网络的无线信道类型的分类模型。
步骤S3:采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据。
可以理解的是,本发明实施例测量在不同无线信道类型下,正常、前倾、倚靠、左倾斜和右倾斜五种坐姿状态下的海量无线信道状态信息的幅度数据。
具体而言,进一步地,步骤S3可以包括:
分别在16种不同的无线信道类型下,测量并记录正常、前倾、倚靠、左倾斜和右倾斜五种坐姿状态的海量无线信道状态信息的幅度数据。
步骤S4:根据第二幅度数据训练得到基于多层神经网络的坐姿分类模型。
可以理解的是,本发明实施例利用步骤S3得到的数据,训练出基于多层神经网络的坐姿分类模型。
进一步地,在本发明的一个实施例中,步骤S4包括:依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照步骤S2的执行过程进行处理得到训练样本;根据按照步骤S2的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到坐姿分类模型。
具体而言,进一步地,步骤S4可以包括:
S41、依次将不同无线信道类型下的正常、前倾、倚靠、左倾斜和右倾斜五种坐姿状态下测量的海量无线信道状态信息的幅度数据,按照步骤S21所描述的过程进行处理得到训练样本;
S42、对于每个样本的标签值,系统规定:当输入样本表示正常坐姿、前倾坐姿、倚靠坐姿、左倾斜坐姿或右倾斜坐姿时,对应的标签数据分别为“1 0 0 0 0”,“0 1 0 0 0”,“0 0 1 0 0”,“0 0 0 1 0”,“0 0 0 0 1”:
S43、每个样本经过多层神经网络都会有一组相应的输出,将该输出与样本的标签数据作比较会得出偏差,根据这个偏差调整网络中各层之间的连接权值,当所有的样本数据均重复上述步骤,直到对于整个样本集而言误差不超过规定值,则可以确定整个网络中的连接权值,就能够得到一个完整的基于多层神经网络的坐姿分类模型。
步骤S5:在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过无线信道分类模型识别无线路由和被监测人员之间的无线信道类型。
可以理解的是,如图2所示,在正常坐姿情况下,根据实时测量得到的移动网络信道状态信息幅度数据,利用步骤S2的分类模型,判断无线路由和被监测人员之间的无线信道类型。
进一步地,在本发明的一个实施例中,步骤S5包括:检测当前移动网络信道状态信息的幅度数据;根据当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
具体而言,进一步地,步骤S5可以包括:
S51、要求被监测人员保持正常坐姿,实时测量移动网络信道状态信息幅度数据;
S52、根据测量的数据,判断无线信道状态类型:
首先,判断16个输出值中的最大值记为out_1max,记录最大值out_1max在16个输出值中的顺序m;
然后,设定误差上限ξ1,若|out_1max-1|>ξ1,则表明分类模型识别不精准,需要重新训练;
最后,根据最大值out_1max在16个输出值中的顺序m确定坐姿,如果m=1,2,3,…,16,则分别代表的无线信道状态类型为“视距,0度角”、“视距,45度角”、“视距,90度角”、“视距,135度角”、“视距,180度角”、“视距,225度角”、“视距,270度角”、“视距,315度角”、“非视距,0度角”、“非视距,45度角”、“非视距,90度角”、“非视距,135度角”、“非视距,180度角”、“非视距,225度角”、“非视距,270度角”和“非视距,315度角”。
步骤S6:根据当前移动网络信道状态信息幅度数据通过坐姿分类模型识别被监测人员的坐姿状态。
可以理解的是,本发明实施例根据实时测量得到的移动网络信道状态信息幅度数据,利用步骤S4的分类模型,识别被监测人员的坐姿状态。
具体而言,进一步地,步骤S6可以包括:
在监测记录阶段,系统实时测量一组样本数据,利用步骤S4得出的模型来判别当前的坐姿状态,具体的判别过程如下:
首先,判断5个输出值中的最大值记为out_2max,记录最大值out_2max在5个输出值中的顺序n;
然后,设定误差上限ξ2,若|out_2max-1|>ξ1,则表明分类模型识别不精准,需要重新训练;
最后,根据最大值out_2max在5个输出值中的顺序n确定坐姿,如果n=1,2,3,4,5则分别代表正常坐姿、前倾坐姿,倚靠坐姿,左倾斜坐姿,右倾斜坐姿。
根据本发明实施例提出的基于移动网络信道状态信息的坐姿检测方法,根据不同视距下不同方位的移动网络信道状态信息和不同坐姿下的无线信道状态信息检测被检测人员坐姿,从而可以不仅可以是被较大幅度的动作,也能够对小幅度的动作做出准确判断,且不易受到周围环境的影响,能够普遍适用于室内人员的活动识别,进而有效提高了检测的准确性、适用性和可靠性,简单易实现。
其次参照附图描述根据本发明实施例提出的基于移动网络信道状态信息的坐姿检测装置。
图3是本发明一个实施例的基于移动网络信道状态信息的坐姿检测装置的结构示意图。
如图3所示,该基于移动网络信道状态信息的坐姿检测装置10包括:第一采集模块100、第一训练模块200、第二采集模块300、第二训练模块400、第一识别模块500和第二识别模块600。
其中,第一采集模块100用于正常坐姿情况时,在不同视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据。第一训练模块200用于根据第一幅度数据训练得到基于多层神经网络的无线信道分类模型。第二采集模块300用于采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据。第二训练模块400用于根据第二幅度数据训练得到基于多层神经网络的坐姿分类模型。第一识别模块500用于在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过无线信道分类模型识别无线路由和被监测人员之间的无线信道类型。第二识别模块600用于根据当前移动网络信道状态信息幅度数据通过坐姿分类模型识别被监测人员的坐姿状态。本发明实施例的装置10根据不同视距下不同方位的移动网络信道状态信息和不同坐姿下的无线信道状态信息检测被检测人员坐姿,从而有效提高了检测的准确性、适用性和可靠性,简单易实现。
进一步地,在本发明的一个实施例中,第一采集模块进一步用于将移动网络设备和被监测人员之间的无线信道分为视距情况和非视距情况;并以被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为移动网络设备的摆放位置;且根据移动网络设备和被监测人员之间的无线信道的不同视距情况和移动网络设备相对被监测人员的方位将无线信道分为16种类型;在正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
进一步地,在本发明的一个实施例中,第一训练模块进一步用于根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;根据输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到无线信道分类模型。
进一步地,在本发明的一个实施例中,第二训练模块进一步用于依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照第一训练模块的执行过程进行处理得到训练样本;根据按照第一训练模块的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到坐姿分类模型。
进一步地,在本发明的一个实施例中,第一识别模块进一步用于检测当前移动网络信道状态信息的幅度数据;根据当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
需要说明的是,前述对基于移动网络信道状态信息的坐姿检测方法实施例的解释说明也适用于该实施例的基于移动网络信道状态信息的坐姿检测装置,此处不再赘述。
根据本发明实施例提出的基于移动网络信道状态信息的坐姿检测装置,根据不同视距下不同方位的移动网络信道状态信息和不同坐姿下的无线信道状态信息检测被检测人员坐姿,从而可以不仅可以是被较大幅度的动作,也能够对小幅度的动作做出准确判断,且不易受到周围环境的影响,能够普遍适用于室内人员的活动识别,进而有效提高了检测的准确性、适用性和可靠性,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于移动网络信道状态信息的坐姿检测方法,其特征在于,包括以下步骤:
步骤S1:正常坐姿情况时,在视距与非视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据;
步骤S2:根据所述第一幅度数据训练得到基于多层神经网络的无线信道分类模型;
步骤S3:采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据;
步骤S4:根据所述第二幅度数据训练得到基于多层神经网络的坐姿分类模型;
步骤S5:在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过所述无线信道分类模型识别无线路由和被监测人员之间的无线信道类型;以及
步骤S6:根据所述当前移动网络信道状态信息幅度数据通过所述坐姿分类模型识别所述被监测人员的坐姿状态。
2.根据权利要求1所述的基于移动网络信道状态信息的坐姿检测方法,其特征在于,所述步骤S1包括:
将所述移动网络设备和所述被监测人员之间的无线信道分为视距情况和非视距情况;
以所述被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为所述移动网络设备的摆放位置;
根据所述移动网络设备和所述被监测人员之间的无线信道的不同视距情况和所述移动网络设备相对被监测人员的方位将所述无线信道分为16种类型;
在所述正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
3.根据权利要求1所述的基于移动网络信道状态信息的坐姿检测方法,其特征在于,所述步骤S2的执行过程包括:
根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;
根据所述输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到所述无线信道分类模型。
4.根据权利要求3所述的基于移动网络信道状态信息的坐姿检测方法,其特征在于,所述步骤S4包括:
依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照所述步骤S2的执行过程进行处理得到训练样本;
根据所述按照所述步骤S2的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到所述坐姿分类模型。
5.根据权利要求1所述的基于移动网络信道状态信息的坐姿检测方法,其特征在于,所述步骤S5包括:
检测当前移动网络信道状态信息的幅度数据;
根据所述当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,所述无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
6.一种基于移动网络信道状态信息的坐姿检测装置,其特征在于,包括:
第一采集模块,用于正常坐姿情况时,在视距与非视距下,采集移动网络设备相对被监测人员处于不同方位的移动网络信道状态信息的第一幅度数据;
第一训练模块,用于根据所述第一幅度数据训练得到基于多层神经网络的无线信道分类模型;
第二采集模块,用于采集在不同无线信道类型下,正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下的无线信道状态信息的第二幅度数据;
第二训练模块,用于根据所述第二幅度数据训练得到基于多层神经网络的坐姿分类模型;
第一识别模块,用于在正常坐姿情况下,根据当前移动网络信道状态信息的幅度数据通过所述无线信道分类模型识别无线路由和被监测人员之间的无线信道类型;以及
第二识别模块,用于根据所述当前移动网络信道状态信息幅度数据通过所述坐姿分类模型识别所述被监测人员的坐姿状态。
7.根据权利要求6所述的基于移动网络信道状态信息的坐姿检测装置,其特征在于,所述第一采集模块进一步用于将所述移动网络设备和所述被监测人员之间的无线信道分为视距情况和非视距情况;并以所述被监测人员为中心,且右侧为起始位置,45度角为间隔,按逆时针方向,分别在视距情况和非视距情况下确定8个坐标为所述移动网络设备的摆放位置;且根据所述移动网络设备和所述被监测人员之间的无线信道的不同视距情况和所述移动网络设备相对被监测人员的方位将所述无线信道分为16种类型;在所述正常坐姿情况下,监测在不同无线信道类型下的移动网络信道状态信息的幅度数据。
8.根据权利要求6所述的基于移动网络信道状态信息的坐姿检测装置,其特征在于,所述第一训练模块进一步用于根据正常坐姿下的多组数据包获取每组数据包的子载波幅度平均值,以得到输入多层神经网络的样本;根据所述输入多层神经网络的样本获取每个样本的第一标签值,并训练模型,以得到所述无线信道分类模型。
9.根据权利要求8所述的基于移动网络信道状态信息的坐姿检测装置,其特征在于,所述第二训练模块进一步用于依次将不同无线信道类型下的正常坐姿状态、前倾坐姿状态、倚靠坐姿状态、左倾斜坐姿状态和右倾斜坐姿状态下测量的无线信道状态信息的幅度数据,按照所述第一训练模块的执行过程进行处理得到训练样本;根据所述按照所述第一训练模块的执行过程进行处理得到训练样本获取每个样本的第二标签值,并训练模型,以得到所述坐姿分类模型。
10.根据权利要求6所述的基于移动网络信道状态信息的坐姿检测装置,其特征在于,所述第一识别模块进一步用于检测当前移动网络信道状态信息的幅度数据;根据所述当前移动网络信道状态信息的幅度数据判断无线信道状态类型,其中,所述无线信道状态类型包括视距-0度角、视距-45度角、视距-90度角、视距-135度角、视距-180度角、视距-225度角、视距-270度角、视距-315度角、非视距-0度角、非视距-45度角、非视距-90度角、非视距-135度角、非视距-180度角、非视距-225度角、非视距-270度角和非视距-315度角。
CN201811067093.4A 2018-09-13 2018-09-13 基于移动网络信道状态信息的坐姿检测方法及装置 Active CN109316192B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811067093.4A CN109316192B (zh) 2018-09-13 2018-09-13 基于移动网络信道状态信息的坐姿检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811067093.4A CN109316192B (zh) 2018-09-13 2018-09-13 基于移动网络信道状态信息的坐姿检测方法及装置

Publications (2)

Publication Number Publication Date
CN109316192A CN109316192A (zh) 2019-02-12
CN109316192B true CN109316192B (zh) 2020-07-17

Family

ID=65265959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811067093.4A Active CN109316192B (zh) 2018-09-13 2018-09-13 基于移动网络信道状态信息的坐姿检测方法及装置

Country Status (1)

Country Link
CN (1) CN109316192B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363143A (zh) * 2019-07-16 2019-10-22 珠海格力电器股份有限公司 监控方法、装置和系统
CN110598585A (zh) * 2019-08-27 2019-12-20 南京理工大学 基于卷积神经网络的起坐动作识别方法
CN115669047A (zh) * 2020-05-29 2023-01-31 Oppo广东移动通信有限公司 一种信道状态信息处理方法、电子设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8090048B2 (en) * 2007-02-12 2012-01-03 Broadcom Corporation Method and system for an alternating channel delta quantizer for MIMO pre-coders with finite rate channel state information feedback
US9735940B1 (en) * 2012-04-12 2017-08-15 Tarana Wireless, Inc. System architecture for optimizing the capacity of adaptive array systems
CN102707259A (zh) * 2012-06-15 2012-10-03 广州市香港科大霍英东研究院 基于信号强度的动态环境中多物体定位方法
CN102831638B (zh) * 2012-07-06 2014-11-26 南京大学 一种采用手绘草图的三维人体多姿态建模方法
CN103532647B (zh) * 2013-10-14 2015-04-29 无锡清华信息科学与技术国家实验室物联网技术中心 基于WiFi物理层时域特征的视距传播路径判断方法
CN104267439A (zh) * 2014-08-20 2015-01-07 哈尔滨工程大学 一种无监督人体检测与定位的方法
WO2016032218A2 (ko) * 2014-08-27 2016-03-03 엘지전자 주식회사 무선 통신 시스템에서 참조 신호 수신 방법 및 이를 위한 장치
CN104168650A (zh) * 2014-09-03 2014-11-26 广州市香港科大霍英东研究院 基于动态无线接入点的室内定位方法
CN104467990B (zh) * 2014-11-26 2016-11-30 清华大学 一种识别无线信号的视距传播路径的方法及装置
CN104615244A (zh) * 2015-01-23 2015-05-13 深圳大学 手势自动识别方法及系统
CN104812061B (zh) * 2015-03-24 2019-03-22 成都希盟泰克科技发展有限公司 一种基于mimo-ofdm信道状态信息的室内测距及定位方法
KR20190087292A (ko) * 2015-06-15 2019-07-24 시리트 엘엘씨 빔형성 안테나를 이용한 통신을 위한 방법 및 시스템
CN105353881B (zh) * 2015-12-04 2018-11-16 深圳大学 基于rfid的手势识别方法及系统
CN105933080B (zh) * 2016-01-20 2020-11-03 北京大学 一种跌倒检测方法和系统
CN106211319B (zh) * 2016-07-20 2019-10-01 西北大学 一种基于wi-fi信号的非指纹被动式定位方法
US10361887B2 (en) * 2016-10-25 2019-07-23 Apple Inc. Time of arrival estimation
CN106792808A (zh) * 2016-12-08 2017-05-31 南京邮电大学 一种基于信道状态信息的室内环境下视距路径识别方法
CN106803769A (zh) * 2016-12-08 2017-06-06 浙江工业大学 一种基于wifi的无源‑无设备人体朝向检测方法
CN107067031B (zh) * 2017-03-29 2020-10-23 西北大学 一种基于Wi-Fi信号的书法姿态自动识别方法
CN107331136A (zh) * 2017-05-11 2017-11-07 深圳市斑点猫信息技术有限公司 基于WiFi的室内人体活动检测方法和系统
CN107241696B (zh) * 2017-06-28 2020-05-26 中国科学院计算技术研究所 基于信道状态信息的多径效应辨别方法和距离估计方法
CN108242946A (zh) * 2018-01-05 2018-07-03 中国矿业大学 一种基于mimo-ofdm技术的煤矿井下巷道目标定位方法
CN108268894A (zh) * 2018-01-10 2018-07-10 浙江工业大学 一种基于网络可视图的人体朝向检测方法

Also Published As

Publication number Publication date
CN109316192A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
Muaaz et al. WiWeHAR: Multimodal human activity recognition using Wi-Fi and wearable sensing modalities
Zhou et al. Device-free presence detection and localization with SVM and CSI fingerprinting
Clemente et al. Smart seismic sensing for indoor fall detection, location, and notification
CN109316192B (zh) 基于移动网络信道状态信息的坐姿检测方法及装置
Zhang et al. Anti-fall: A non-intrusive and real-time fall detector leveraging CSI from commodity WiFi devices
Wang et al. RT-Fall: A real-time and contactless fall detection system with commodity WiFi devices
CN110337066B (zh) 基于信道状态信息室内人员活动识别方法、人机交互系统
Gu et al. Paws: Passive human activity recognition based on wifi ambient signals
Wittenburg et al. A system for distributed event detection in wireless sensor networks
CN110475221B (zh) 一种基于信道状态信息的人员动作识别和位置估计方法
CN103606248B (zh) 一种人体摔倒自动检测方法及系统
CN103874200B (zh) 一种楼层识别方法及系统
CN112153736A (zh) 一种基于信道状态信息的人员动作识别和位置估计方法
CN109672485B (zh) 基于信道状态信息室内人员实时入侵及运动速度检测方法
CN105101408A (zh) 基于分布式ap选择策略的室内定位方法
US20150224362A1 (en) Automatic Recognition, Learning, Monitoring, and Management of Human Physical Activities
Chen et al. SWIM: Speed-aware WiFi-based passive indoor localization for mobile ship environment
Zhu et al. NotiFi: A ubiquitous WiFi-based abnormal activity detection system
CN108662728A (zh) 信息处理方法、信息处理装置以及程序
CN108200644A (zh) 一种基于网络可视图的无源室内定位方法
CN104394588A (zh) 基于Wi-Fi指纹和多维尺度分析的室内定位方法
Li et al. Location-free CSI based activity recognition with angle difference of arrival
CN106934773A (zh) 视频运动目标与Mac地址匹配方法
Hao et al. CSI‐HC: A WiFi‐Based Indoor Complex Human Motion Recognition Method
CN102521475A (zh) 一种运动设备的运动轨迹描绘方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240116

Address after: Room 211, 2nd Floor, Building 6, Bitongyuan, Haidian District, Beijing, 100049

Patentee after: Beijing Shuimu Wangjing Technology Co.,Ltd.

Address before: 100084 Tsinghua Yuan, Beijing, Haidian District

Patentee before: TSINGHUA University