CN113229806A - 可穿戴人体步态检测及导航系统及其运行方法 - Google Patents

可穿戴人体步态检测及导航系统及其运行方法 Download PDF

Info

Publication number
CN113229806A
CN113229806A CN202110527187.0A CN202110527187A CN113229806A CN 113229806 A CN113229806 A CN 113229806A CN 202110527187 A CN202110527187 A CN 202110527187A CN 113229806 A CN113229806 A CN 113229806A
Authority
CN
China
Prior art keywords
motion
human
human body
jump
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110527187.0A
Other languages
English (en)
Inventor
张帆
许德新
廖子铮
杨振东
胡文彬
王显峰
张智萍
张立伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202110527187.0A priority Critical patent/CN113229806A/zh
Publication of CN113229806A publication Critical patent/CN113229806A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种可穿戴人体步态检测及导航系统及其运行方法,包括:九个运动检测模块、单片机和上位机;运动检测模块分别安装在人体的前后脚掌,小腿,大腿以及腰部处,每个运动检测模块上都设置MPU9250用于测出人体此时的姿态,运动检测模块都连接单片机,并将人体姿态数据传回给单片机,单片机通过zigbee通信传回给上位机,上位机结合收到的人体姿态数据进行人体姿态分析。本发明优点是:通过对身体关键部位的运动解算支持在卫星导航信号弱的场景完成对运动方向的导航以及对运动姿态的记录同时发送到特定的上位机上进行解算和记录,同时具有低功耗,低成本,相对高精度的优点,具有对大量人群的普及可行性,以及长时间使用的可能性。

Description

可穿戴人体步态检测及导航系统及其运行方法
技术领域
本发明涉及人体步态检测技术领域,特别涉及一种可穿戴人体步态检测及导航系统及其运行方法。
背景技术
骨骼、关节等手术后的需要进行运动康复训练,由于不同患者的运动标准及部位不同且需要实时反映使用者的运动方式、活动频率和活动角度,所以如何科学正确的进行运动康复训练成为了一个亟待解决的问题。
老年人由于行动不便容易摔倒,有可能引起骨折、拉伤甚至更为严重的后果。因此,如何做到提前预警正是步态分析技术所要解决的问题。步态分析技术可以应用于实时监测老人是否跌倒,并在老人无法发出求救信息的情况下,借助远程通讯自主告知其子女或医院。除此之外,步态分析技术也可以预知老人的下肢运动在未来可能出现的疾病。
但是目前还没有可穿戴人体步态检测及导航系统的问世。
发明内容
本发明针对现有技术的缺陷,提供了一种可穿戴人体步态检测及导航系统及其运行方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种可穿戴人体步态检测及导航系统,包括:九个运动检测模块、单片机和上位机;
九个运动检测模块分别安装在人体的前后脚掌,小腿,大腿以及腰部处,每个运动检测模块上都设置四个MPU9250用于测出人体此时的姿态,九个运动检测模块都连接单片机,并将人体姿态数据传回给单片机,单片机通过zigbee通信传回给上位机,上位机结合收到的人体姿态数据进行人体姿态分析。
本发明还公开了一种可穿戴人体步态检测及导航运行方法,包括以下步骤:
步骤1、通过MPU9250的加速度计、陀螺仪、磁强计测量出人体姿态数据;
步骤2、将人体姿态数据传输至单片机,单片机通过zigbee通信传回给上位机;
步骤3、上位机完成人体姿态分析;
步骤3的具体过程:
通过神经网络来对安装在人体上的陀螺仪采集到的数据进行分析,从而将运动状态分成多种运动状态,包括:正常行走、跑步、跳跃。首先在不同人的各个运动状态下每隔10ms采集一次人体上陀螺仪的数据来构建数据集,然后进行网络搭建。因为人的运动数据其实属于一种相关信息间隔比较长的时间序列,所以用tensorflow框架搭建一个多变量LSTM(Long Short Term)分类网络,包括两层LSTM层和四层全连接层,LSTM(Long ShortTerm)网络是RNN(循环神经网络)的一种特殊类型,可以学习长期依赖信息。该网络模型的大小允许其能够在嵌入式设备中部署。再之后在电脑上进行网络训练,其预测结果准确率可以达到91%,再结合计算出来的横向速度与纵向速度,判断运动姿态。
步骤4、单片机结合上位机发送的运动状态分类,通过多传感器信息进行人体姿态与运动数据检测并通过静态与准静态的判断完成误差的修正和消除。
步骤4的具体过程:
人体各关节上的IMU可以完成对应肢体结构的角速度以及加速度的参数测量,系统利用获得的运动参数完成机械编排,得到各关节的角度以及速度、位移信息。通过这些信息并结合上位机发送的运动状态分类能进一步完成行人肢体姿态判断,得到各关节之间的夹角、相对运动、相对转动等信息,并利用肢体姿态完成脚步探测、步长估计、航向估计(不同运动状态下肢体姿态和运动参数的对应关系不同,且肢体姿态与人体整体运动量的对应关系不同),结合这三者,通过计步完成行人导航PDR。
基于不同的运动状态对应着传感器所获得的不同运动参数的不同噪声水平,结合运动状态分类可以更加有效地进行卡尔曼滤波,以获得更优的姿态结算结果。
进一步地,步骤3中结合计算出来的横向速度与纵向速度,判断运动姿态具体为:正常人步行的速度约为1.5m/s,若横向速度大于1.5m/s且网络输出为跑步,并且模型分类输出和横向速度稳定10个周期,便可认定为跑步,步行则相反。而跳跃则与纵向速度大小相结合判断,若大于2m/s,且模型判断为跳跃,便可认定为跳跃,并结合横向速度而划分为行进中跳跃和原地跳跃。
进一步地,基于惯性器件和姿态分析的导航依旧存在误差随时间累计的弊端,通过检测陀螺姿态是否发生超过随机噪声和零偏的变化可以判断陀螺是否处于静态或准静态,完成对积分带来的累积误差进行修正,避免上一时段的累积误差对下一时段的姿态结算带来影响。
与现有技术相比,本发明的优点在于:
通过对身体关键部位的运动解算支持在卫星导航信号弱的场景(例如房屋内部)完成对运动方向的导航以及对运动姿态的记录同时发送到特定的上位机上进行解算和记录,同时本项目具有低功耗,低成本,相对高精度的优点,具有对大量人群的普及可行性,以及长时间使用的可能性。在提供某一特定人群足量的神经网络训练样本后,便可具有对该大量人群的普适性,能够提供更为合适的训练康复建议,方向更为准确的导航记录。
附图说明
图1是本发明实施例标定算法流程图;
图2是本发明实施例机械编排流程图;
图3是本发明实施例航迹推算流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
可穿戴人体步态检测及导航系统包括:九个运动检测模块,分装在人体的前后脚掌,小腿,大腿以及腰部处,每个运动检测模块上都设置四个MPU9250用于测出人体此时的姿态,将此时的数据传回给对应的单片机KEA,单片机再通过zigbee通信传回给上位机,上位机结合收到的九个数据进行人体姿态分析。KEA下位机完成了IMU数据采集,并结合上位机发送的运动状态分类,通过多传感器信息进行人体姿态与运动数据检测。通过静态与准静态的判断完成误差的修正和消除。
本发明中所使用的是MPU9250。MPU9250是一个9轴运动跟踪设备,结合了一个3轴陀螺仪、3轴加速度计、3轴磁强计和一个数字运动处理器。通过专用的I2C传感器总线,MPU9250直接提供完整的9轴MotionFusion输出。MPU9250具有三个16位模数转换器(adc),用于对陀螺仪输出进行数字化;三个16位adc,用于对加速度计输出进行数字化和对磁强计输出进行数字化。
本发明采用微处理器Kinetis EA系列S9KEAZ128AMLK作为处理器。它的内核基于32位ARMCortex-M0+,具有高度可扩展性。单片机KEA具备低功耗且稳定可靠等特性,且包含一系列强大的模拟、通信、定时和控制外设。
本发明采用Zigbee进行各关节IMU的组网和通讯。ZigBee是一项新型的无线通信技术,适用于传输范围短数据传输速率低的一系列电子元器件设备之间。
本发明中所需电路图如图3所示,九个模块分装在人体的前后脚掌,小腿,大腿以及腰部处,每个模块上的四个MPU9250测出人体此时的姿态,将此时的数据传回给对应的单片机KEA,单片机KEA再通过zigbee通信传回给上位机,上位机结合收到的九个数据进行人体姿态分析。
本发明采用一下算法实现人体姿态分析。
如图1所示,标定算法:
本发明为了做到能够在低成本且没有高精度设备提供的参考输入的情况下进行标定,采用了与传统惯性传感器不同的标定方法。这种标定方法可以在不依赖外部设备的条件下估计陀螺误差参数,具体过程如下:
首先利用伪观测获取第一层先验信息。利用了IMU两次采样的间隔内其位置和线速度变化范围有限这一现象,可以将r=常数以及v=0分别作为伪位置观测和伪速度观测,这种方法可以在行人的各种运动状态中使用而不需要外部设备或者事先训练。实际导航过程中IMU的位置和速度变化在卡尔曼滤波的量测噪声阵R中体现。
第二层约束是直接使用加速度计和磁强计的输出构造的量测向量。由于没有采用计算出的姿态角因此可以确保不会出现俯仰角接近±90°时的计算奇异问题;同时,可将磁强计量测与加速度计信息完全独立开来。
在实际环境中磁场信息往往会受周围磁环境的巨大影响,但是标定陀螺只需要知道相对航向变化信息,因此在相对稳定的磁环境中,尽管不一定能够获取正确的磁偏角,但是磁力计可以提供可靠的航向变化情况,进而用于标定陀螺仪。反之,当判断某一时段内磁环境为静态后,可以对磁环境进行标定。
同时磁强计和加速度计信息可能会出现因为噪声或者其他原因导致信息不可用,因此引入叉乘向量来加以消除影响。两个不平行的向量的叉乘向量与这两个向量均正交,而加速度向量和磁场向量通常不平行,所以若构造加速度计和磁强计量测的叉乘向量,则该叉乘向量与加速度计、磁强计量测均包含不同的量测信息。因此,当判断加速度过大时,可使用磁强计向量和叉乘向量;反之,磁强计不可用时,可同时使用加速度计向量和叉乘向量。
航迹推算DR
基于传感器的航迹推算(DR)算法有两种即机械编排(INS)和基于行人的航迹推算(PDR)。
机械编排即导航数据处理单元利用陀螺仪和加速度计获取的测量值,结合初始导航状态不断预测IMU导航状态。机械编排首先使用陀螺测量的角速度向量进行姿态更新,然后,利用姿态信息将加速度计测量的比力向量从b系转换到n系。在n系内将重力向量加入比力构成加速度向量,再对加速度进行积分并结合上一时刻速度求得当前时刻的速度;之后对速度进行积分并结合上一时刻位置求得当前时刻的位置。
如图2所示,机械编排(INS);
基于行人的航迹推算(PDR)即通过上一脚步的位置,结合传感器测量或计算出的航向和步长信息,来推算下一脚步的位置,具体由脚步探测、步长估计及航向估计三部分构成。脚步探测可以通过加速度计和陀螺仪采得的信号得到。步长估计通过用户参数设定以及脚步IMU的机械编排得到。而航向估计由腰部传感器的机械编排、人身姿态建模以及腰部磁强计磁偏角判断融合获取,其中磁强计获取地磁偏角的过程又在磁场稳定的情况下通过航向进行标定。
基于行人的航迹推算(PDR)如图3所示。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (4)

1.一种可穿戴人体步态检测及导航系统,其特征在于,包括:九个运动检测模块、单片机和上位机;
九个运动检测模块分别安装在人体的前后脚掌,小腿,大腿以及腰部处,每个运动检测模块上都设置四个MPU9250用于测出人体此时的姿态,九个运动检测模块都连接单片机,并将人体姿态数据传回给单片机,单片机通过zigbee通信传回给上位机,上位机结合收到的人体姿态数据进行人体姿态分析。
2.根据权利要求1所述的可穿戴人体步态检测及导航系统的运行方法,其特征在于,包括以下步骤:
步骤1、通过MPU9250的加速度计、陀螺仪、磁强计测量出人体姿态数据;
步骤2、将人体姿态数据传输至单片机,单片机通过zigbee通信传回给上位机;
步骤3、上位机完成人体姿态分析;
步骤3的具体过程:
通过神经网络来对安装在人体上的陀螺仪采集到的数据进行分析,从而将运动状态分成多种运动状态,包括:正常行走、跑步、跳跃;首先在不同人的各个运动状态下每隔10ms采集一次人体上陀螺仪的数据来构建数据集,然后进行网络搭建;用tensorflow框架搭建一个多变量LSTM(Long Short Term)分类网络,包括两层LSTM层和四层全连接层,再之后在电脑上进行网络训练,再结合计算出来的横向速度与纵向速度,判断运动姿态;
步骤4、单片机结合上位机发送的运动状态分类,通过多传感器信息进行人体姿态与运动数据检测并通过静态与准静态的判断完成误差的修正和消除;
步骤4的具体过程:
人体各关节上的IMU可以完成对应肢体结构的角速度以及加速度的参数测量,系统利用获得的运动参数完成机械编排,得到各关节的角度以及速度、位移信息;通过这些信息并结合上位机发送的运动状态分类能进一步完成行人肢体姿态判断,得到各关节之间的夹角、相对运动、相对转动等信息,并利用肢体姿态完成脚步探测、步长估计和航向估计,结合这三者,通过计步完成行人导航PDR;基于不同的运动状态对应着传感器所获得的不同运动参数的不同噪声水平,结合运动状态分类可以更加有效地进行卡尔曼滤波,以获得更优的姿态结算结果。
3.根据权利要求2所述的运行方法,其特征在于:步骤3中结合计算出来的横向速度与纵向速度,判断运动姿态具体为:正常人步行的速度约为1.5m/s,若横向速度大于1.5m/s且网络输出为跑步,并且模型分类输出和横向速度稳定10个周期,便可认定为跑步,步行则相反;而跳跃则与纵向速度大小相结合判断,若大于2m/s,且模型判断为跳跃,便可认定为跳跃,并结合横向速度而划分为行进中跳跃和原地跳跃。
4.根据权利要求2所述的运行方法,其特征在于:基于惯性器件和姿态分析的导航依旧存在误差随时间累计的弊端,通过检测陀螺姿态是否发生超过随机噪声和零偏的变化可以判断陀螺是否处于静态或准静态,完成对积分带来的累积误差进行修正,避免上一时段的累积误差对下一时段的姿态结算带来影响。
CN202110527187.0A 2021-05-14 2021-05-14 可穿戴人体步态检测及导航系统及其运行方法 Pending CN113229806A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110527187.0A CN113229806A (zh) 2021-05-14 2021-05-14 可穿戴人体步态检测及导航系统及其运行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110527187.0A CN113229806A (zh) 2021-05-14 2021-05-14 可穿戴人体步态检测及导航系统及其运行方法

Publications (1)

Publication Number Publication Date
CN113229806A true CN113229806A (zh) 2021-08-10

Family

ID=77134323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110527187.0A Pending CN113229806A (zh) 2021-05-14 2021-05-14 可穿戴人体步态检测及导航系统及其运行方法

Country Status (1)

Country Link
CN (1) CN113229806A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114028784A (zh) * 2021-11-25 2022-02-11 深圳先进技术研究院 应用于链球训练的穿戴式运动生物信息监测系统及方法
WO2024044252A1 (en) * 2022-08-23 2024-02-29 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for detecting and monitoring gait using a portable gait biofeedback system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980228A (zh) * 2010-09-01 2011-02-23 张辉 人体信息监测与处理系统及方法
CN103976739A (zh) * 2014-05-04 2014-08-13 宁波麦思电子科技有限公司 穿戴式摔倒动态实时检测方法和装置
CN104316025A (zh) * 2014-10-16 2015-01-28 哈尔滨工程大学 一种基于船体姿态信息估计海浪浪高的系统
CN105588567A (zh) * 2016-01-25 2016-05-18 北京航空航天大学 一种自动电子罗盘校准辅助式的航姿参考系统及方法
CN106945046A (zh) * 2017-04-24 2017-07-14 华南理工大学 基于变刚度弹性驱动器的机械臂控制系统及其控制方法
CN108720841A (zh) * 2018-05-22 2018-11-02 上海交通大学 基于云检测的可穿戴下肢运动矫正系统
CN109846487A (zh) * 2019-02-26 2019-06-07 浙江理工大学 基于MIMU/sEMG融合的大腿运动姿态测量方法和装置
AU2019101220A4 (en) * 2019-10-05 2020-01-16 Dai, Jingwei MR Gesture recognition based smart home control system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980228A (zh) * 2010-09-01 2011-02-23 张辉 人体信息监测与处理系统及方法
CN103976739A (zh) * 2014-05-04 2014-08-13 宁波麦思电子科技有限公司 穿戴式摔倒动态实时检测方法和装置
CN104316025A (zh) * 2014-10-16 2015-01-28 哈尔滨工程大学 一种基于船体姿态信息估计海浪浪高的系统
CN105588567A (zh) * 2016-01-25 2016-05-18 北京航空航天大学 一种自动电子罗盘校准辅助式的航姿参考系统及方法
CN106945046A (zh) * 2017-04-24 2017-07-14 华南理工大学 基于变刚度弹性驱动器的机械臂控制系统及其控制方法
CN108720841A (zh) * 2018-05-22 2018-11-02 上海交通大学 基于云检测的可穿戴下肢运动矫正系统
CN109846487A (zh) * 2019-02-26 2019-06-07 浙江理工大学 基于MIMU/sEMG融合的大腿运动姿态测量方法和装置
AU2019101220A4 (en) * 2019-10-05 2020-01-16 Dai, Jingwei MR Gesture recognition based smart home control system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
夏颖著: "《面向移动终端用户的WLAN定位技术》", 31 July 2018 *
陈董锴等: "基于IMU设备的室内行人航位推算", 《计算机测量与控制》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114028784A (zh) * 2021-11-25 2022-02-11 深圳先进技术研究院 应用于链球训练的穿戴式运动生物信息监测系统及方法
CN114028784B (zh) * 2021-11-25 2023-01-31 深圳先进技术研究院 应用于链球训练的穿戴式运动生物信息监测系统及方法
WO2024044252A1 (en) * 2022-08-23 2024-02-29 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for detecting and monitoring gait using a portable gait biofeedback system

Similar Documents

Publication Publication Date Title
CN109579853B (zh) 基于bp神经网络的惯性导航室内定位方法
CN104757976B (zh) 一种基于多传感器融合的人体步态分析方法和系统
Yan et al. Ronin: Robust neural inertial navigation in the wild: Benchmark, evaluations, and new methods
KR101751760B1 (ko) 하지 관절 각도를 이용한 보행 인자 추정 방법
US20150149104A1 (en) Motion Tracking Solutions Using a Self Correcting Three Sensor Architecture
Qiu et al. Body sensor network-based gait quality assessment for clinical decision-support via multi-sensor fusion
CN104296750A (zh) 一种零速检测方法和装置以及行人导航方法和系统
CN113229806A (zh) 可穿戴人体步态检测及导航系统及其运行方法
Bessone et al. Validation of a new inertial measurement unit system based on different dynamic movements for future in-field applications
CN110974242B (zh) 一种用于可穿戴式设备的步态异常程度评价方法及该设备
CN110274592B (zh) 一种腰部脚部惯性测量单元信息融合的零速区间确定方法
CN108836344A (zh) 步长步频估算方法和装置及步态检测仪
Hamdi et al. Lower limb motion tracking using IMU sensor network
CN115655265A (zh) 一种基于惯性传感的行人导航室内定位方法
Scapellato et al. In-use calibration of body-mounted gyroscopes for applications in gait analysis
Garimella et al. Capturing joint angles of the off-site human body
CN206121113U (zh) 一种基于多传感器的瑜伽评估系统
Akhavanhezaveh et al. Diagnosing gait disorders based on angular variations of knee and ankle joints utilizing a developed wearable motion sensor
KR101301462B1 (ko) 저가형 관성 센서를 이용한 보행자 관성 항법 장치 및 그 항법
WO2024124638A1 (zh) 一种用于腿部姿态估计的可穿戴单节点设备及测量方法
Chen et al. A method to calibrate installation orientation errors of inertial sensors for gait analysis
Widodo et al. Artificial neural network based step-length prediction using ultrasonic sensors from simulation to implementation in shoe-type measurement device
CN114096193A (zh) 用于运动分析的系统和方法
Madrigal et al. Hip and lower limbs 3D motion tracking using a double-stage data fusion algorithm for IMU/MARG-based wearables sensors
Barraza-Madrigal et al. Instantaneous position and orientation of the body segments as an arbitrary object in 3D space by merging gyroscope and accelerometer information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210810

RJ01 Rejection of invention patent application after publication