CN113143256A - 步态特征提取方法、下肢评估、控制方法、设备及介质 - Google Patents
步态特征提取方法、下肢评估、控制方法、设备及介质 Download PDFInfo
- Publication number
- CN113143256A CN113143256A CN202110117565.8A CN202110117565A CN113143256A CN 113143256 A CN113143256 A CN 113143256A CN 202110117565 A CN202110117565 A CN 202110117565A CN 113143256 A CN113143256 A CN 113143256A
- Authority
- CN
- China
- Prior art keywords
- lower limb
- gait
- calculating
- feature extraction
- inertial sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Dentistry (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Physiology (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Geometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明公开了一种步态特征提取方法、下肢评估、控制方法、设备及介质,所述步态特征提取方法包括:通过所述惯性传感器采集监测对象的下肢运动参数;根据所述下肢运动参数获取所述监测对象的关节角度;根据所述关节角度计算骨盆高度。本发明基于佩戴在用户身上的惯性传感器可以获得下肢运动参数,基于下肢运动参数可以计算出关节角度,并且基于关节角度可以进一步计算出包括步频、步幅及骨盆高度等重要的步态特征数据,一方面,有利于嵌入式的开发,节省了开发成本,提高了开发效率,另一方面,也提高了计算的精确度,便于后续对步态特征数据进行进一步的处理。
Description
技术领域
本发明涉及计算机技术与应用技术领域,特别涉及一种步态特征提取方法、下肢评估、控制方法、设备及介质。
背景技术
世界范围内,人口老龄化正逐渐成为一个不可忽略的重大课题,随着人口老龄化程度的加剧,伴随发生的高龄人口疾病发生率也日益增加,以其中最为严重的脑卒中为例,根据数据显示,到2019年我国因脑卒中发病死亡的认数已经达到140.3/10万,即使得到及时的救治,大约75%患者依然会在脑卒中在发病后留下许多不同程度的后遗症,这些后遗症会极大降低患者的生活自理能力,严重影响患者及其家人的生活质量。在如此众多的后遗症中,患者发生偏瘫概率最高,临床表明,科学的运动康复训练配合手术治疗和药物治疗,能够显著提高脑卒中偏瘫患者肢体功能恢复的概率,进行及时的重复康复运动训练可以修复患者在脑卒中发病过程中受损的神经系统,并对肌肉骨骼等运动系统进行强化,有助于患者患侧肢运动机能的恢复。
随着芯片技术的发展,协作机器人在小型化、智能化上也取得了长足的发展,康复机器人由于其灵活并且完善的康复模式,交互性、趣味性高等特点正在逐步取代传统以康复治疗师主导的康复训练。伴随着康复训练过程中机器人技术的引入,监测对象状态的评估,康复治疗进展的评估也逐渐从由康复治疗师直接的主观判断转变成更加自动化、智能化的基于数据分析的模式。在下肢康复训练中,为了实现对监测对象下肢康复状态的评估,需要获取下肢的步态数据。
如何实现对人体下肢步态数据的获取一直以来都是康复科学及机器人领域的热门研究课题,从基础技术原理上来看,主要可以分为两类,基于光学传感器的图像步态识别技术和基于惯性传感器的运动参数步态识别技术。哈尔滨工程大学在2017年和2019年分别公开了题为“一种多角度的步态周期检测方法”和“一种基于卷积神经网络的步态周期检测方法”两个基于视频图像的人体下肢步态周期划分的专利,这两个专利通过对视频逐帧进行分割,然后对行人轮廓提取和质心归一化的图像预处理操作,然后将归一化得到的下肢步态图像的特征值进行计算或者输入提前训练的卷积神经网络,即可对人下肢步态进行周期分割。中国科学院深圳先进技术研究院公开了题为“基于惯性传感器的步态特征提取和步态识别方法”,通过惯性传感器放置在人体下肢的左右小腿中部捕捉步态信息,从而提取相应的加速度和角速度步态特征。
现有的人体下肢步态特征提取算法主要问题有:一方面,基于光学传感器的下肢步态特征提取技术需要的传感器价格昂贵,使用过程中数据规模大,需要的控制系统计算力要求高,并且下肢康复训练过程中,由于康复机器人的存在会对人体下肢产生一定程度上的遮挡,影响计算精度;另一方面,基于惯性元件的人体下肢步态特征提取算法对传感器输出的加速度、角速度等参数进行处理,或仅对传感器采集的数据进行简单划分和提取,这种方式只能得到简单的步态特征,并且提取数据的精确度有限。
发明内容
本发明要解决的技术问题是为了克服现有技术中步态特征提取的精确度低、成本高且提取的参数有限的缺陷,提供一种低成本、精确度高且能获得多种重要参数的步态特征提取方法、下肢评估、控制方法、设备及介质。
本发明是通过下述技术方案来解决上述技术问题:
本发明提供了一种基于惯性传感器的步态特征提取方法,所述步态特征提取方法包括:
通过所述惯性传感器采集监测对象的下肢运动参数;
根据所述下肢运动参数获取所述监测对象的关节角度;
根据所述关节角度计算骨盆高度。
较佳地,所述下肢运动参数包括关节角速度和/或关节加速度,所述关节角度包括髋关节角度;
所述根据所述关节角度计算骨盆高度的步骤包括:
将所述下肢运动参数、所述关节角度、所述步态特征及对象特征参数输入至骨盆高度预测模型中以获取预测的骨盆高度,其中,所述骨盆高度预测模型为将预先采集的若干标准下肢运动参数及对应的标准关节角度、标准对象特征参数及标准步态特征作为输入,对应的骨盆高度作为输出训练神经网络模型所得到的模型。
较佳地,所述对象特征参数包括对应对象的骨盆高度占身高的比例和/或对象的身高,所述步态特征还包括步频、步幅、步速及步态周期中的至少一种。
较佳地,通过Vicon(一种人机动作捕捉系统)运动捕捉系统预先获取的若干若干标准下肢运动参数及对应的标准关节角度。
较佳地,所述步态特征提取方法还包括:根据所述关节角度计算步频。
较佳地,所述下肢运动参数包括关节角速度,所述关节角度包括髋关节角度,所述根据所述关节角度计算步频的步骤包括:
根据获取的预设时间范围内的若干髋关节角速度,计算髋关节角速度平均值;
根据所述髋关节角速度平均值及预设系数计算角速度触发阈值;
当采集的两次髋关节的角速度均触发所述角速度触发阈值,且两次髋关节角速度的变化率同时为正或同时为负时,将对应的时间点作为时间截点,且将相邻时间截点的时间间隔作为步态周期;
根据所述步态周期计算所述步频。
较佳地,所述根据所述髋关节角速度平均值及预设系数计算角速度触发阈值的步骤包括:
根据所述髋关节角速度平均值、预设系数及预设延时时间计算角速度触发阈值。
较佳地,所述步态特征提取方法还包括:根据所述关节角度计算步幅。
较佳地,所述关节角度包括髋关节角度及膝关节角度,所述根据所述关节角度计算步幅的步骤包括:
根据所述髋关节角度计算所述监测对象的大腿在地面的大腿投影;
根据所述膝关节角度计算所述监测对象的小腿在地面的小腿投影;
根据所述大腿投影及所述小腿投影计算步幅。
较佳地,当运动的下肢位于监测对象身体前侧时,所述根据所述大腿投影及所述小腿投影计算步幅的步骤包括:根据所述大腿投影与所述小腿投影的差计算步幅;当运动的下肢位于监测对象身体前侧时,所述根据所述大腿投影及所述小腿投影计算步幅的步骤包括:根据所述大腿投影与所述小腿投影的和计算步幅。
本发明还提供了一种下肢状态的评估方法,所述评估方法包括:
获取监测对象的监测数据,所述监测数据包括下肢运动参数、关节角度、骨盆高度、步频及步幅中的至少一种,且所述监测数据根据如上所述的基于惯性传感器的步态特征提取方法获得;
判断获取的监测数据与是否位于标准数据的预设范围内,若是,则确认所述监测对象为康复状态,若否,则确认所述监测对象为未康复状态。
本发明还提供了一种下肢康复机器人的控制方法,所述控制方法包括:
获取用户的步态特征,所述步态特征根据如上所述的基于惯性传感器的步态特征提取方法获得;
根据所述步态特征控制所述下肢康复机器人在不同方向的自由度。
较佳地,所述步态特征包括步速及骨盆高度;
所述根据所述步态特征控制所述下肢康复机器人在不同方向的自由度的步骤包括:
根据所述步速控制所述下肢康复机器人在水平方向的自由度;
根据所述骨盆高度控制所述下肢康复机器人在竖直方向的自由度。
本发明还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的方法。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法的步骤。
本发明的积极进步效果在于:本发明基于佩戴在用户身上的惯性传感器可以获得下肢运动参数,基于下肢运动参数可以计算出关节角度,并且基于关节角度可以进一步计算出包括步频、步幅及骨盆高度等重要的步态特征数据,一方面,有利于嵌入式的开发,节省了开发成本,提高了开发效率,另一方面,也提高了计算的精确度,便于后续对步态特征数据进行进一步的处理。
本发明可以利用根据关节角度计算出的步态特征,对监测对象康复状态进行追踪和评估,可以在不增加康复机器人系统复杂程度的前提下实现对监测对象康复状态的准确评估。
本发明可以利用计算出的步态特征作为控制康复机器人运动的输入信号,即通过骨盆高度控制康复机器人在竖直方向的运动自由度,通过步幅、步速等控制康复机器人在水平方向的运动自由度,可以减少康复机器人系统内编码器、力矩传感器的使用,可降低机器人控制系统复杂度,提高控制系统的鲁棒性。
附图说明
图1为本发明实施例1中的步态特征提取方法的流程图。
图2为实施例1中定义的坐标系的位置关系示意图。
图3为实施例1中下肢坐标系的关节角度的示意图。
图4为实施例1中在一种具体场景下BP神经网络的结构示意图。
图5为实施例1中根据关节角度计算步频的方法的流程图。
图6为实施例1中在一种具体场景下通过滑动矩形窗截取实时下肢髋关节角度的示意图。
图7为实施例1中具体场景下角速度变化示意图。
图8为实施例1中根据关节角度计算步幅的方法的流程图。
图9为实施例1中监测对象在行走时下肢模型的示意图。
图10为实施例1中得到的髋关节角度与标准髋关节角度对比示意图。
图11为实施例1中得到的膝关节角度与标准膝关节角度对比示意图。
图12为实施例1中得到的骨盆高度与标准骨盆高度对比示意图。
图13为实施例1中得到的步幅与标准步幅对比示意图。
图14为本发明实施例2中的下肢状态的评估方法的流程图。
图15为本发明实施例3中的下肢康复机器人的控制方法的流程图。
图16为实施例3中在一种具体场景下下肢康复机器人与监测对象的位置关系示意图。
图17为实施例3中整体数据处理的流程示意图。
图18为本发明实施例4中的电子设备的模块示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供了一种基于惯性传感器的步态特征提取方法,其中,惯性传感器佩戴在用户的小腿上、大腿上以及骨盆处,如图1所示,本实施例中的步态特征提取方法包括:
步骤101、通过惯性传感器采集监测对象的下肢运动参数。
步骤102、根据下肢运动参数获取监测对象的关节角度。
步骤103、根据关节角度计算骨盆高度。
本实施例基于佩戴在用户身上的惯性传感器可以获得的包括关节角度的关节数据,并且基于关节数据可以进一步计算出包括骨盆高度的步态特征数据,一方面,有利于嵌入式的开发,节省了开发成本,提高了开发效率,另一方面,也提高了计算的精确度,便于后续对步态特征数据进行进一步的处理。
其中,惯性传感器(IMU)是测量物体三轴姿态角(或角速率)以及加速度的装置。一般情况下,一个IMU由一个三轴的陀螺仪、一个三轴加速度计和一个三轴磁力计组成,可以用来测量物体在三维空间中各个方向上的角速度和加速度,并以此解算出物体的四元数,从而确定物体在三维空间中的姿态。
为了更好的理解本实施例,下面通过一具体的例子对监测对象一侧下肢的关节角度的获取方法进行简单说明:
如图2所示,可以根据右手定则定义全局坐标系:其中,X轴指向侧面;Y轴向前,Z轴向上,并且将第一个IMU坐标系,也就是髋关节坐标系 (XG,YG,ZG)作为基准的全局坐标系,假设第二个IMU坐标系,也就是最初大腿参考坐标系(XH,YH,ZH)和第三个坐标系,也就是小腿参考坐标系 (XF,YF,ZF)与全局坐标系(XG,YG,ZG)重合,因此,根据上述三个坐标系,能够确定旋转矩阵和其中R表示旋转矩阵,上标“i”表示初始位置,下标“G”、“H”和“F”分别表示全局参考坐标系(骨盆)、大腿参考坐标系和小腿参考坐标系。旋转矩阵RMN表示参考坐标系“N”相对于参考坐标系“M”的姿态。列向量XMN,YMN,ZMN表示用参考坐标系“M”表示坐标系“N”的坐标轴方向的单位向量,XMN, YMN,ZMN∈R3×1。
大腿坐标系相对于第1个IMU坐标系和小腿坐标系相对于第2个IMU 坐标系的取向分别表示如下:
其中,下标U表示佩戴在大腿上的IMU2坐标系,下标L表示佩戴在小腿上的IMU3的坐标系,IMU1表示佩戴在骨盆上的坐标系。
当监测对象将下肢移动到新的姿势时,全局坐标系中的大腿和小腿的相对于骨盆坐标系的转换关系可以由以下旋转矩阵描述:
其中,上标f表示监测对象新的姿势。
从IMU获得四元数q=[x,y,z,w]T,其中(x,y,z)是向量,w是标量。
q=xi+yj+zk+w
大腿在全局坐标系中的姿态可以通过四元数表示如下:
下肢坐标系的关节角度图示见图3。考虑小腿坐标系和大腿坐标系之间的3个欧拉角,即γ、β、α,分别表示与x、y、z轴的角度,即分别表示目标参考系的回转角、俯仰角和偏转角。
首先大腿坐标系与骨盆坐标系重合,然后大腿坐标系绕x轴旋转γ弧度,然后绕y轴旋转β弧度,最后绕z轴旋转α弧度。因此大腿坐标系旋转矩阵可以写成如下形式:
其中,cβ是cosβ的简写,sβ是sinβ的简写。
从IMU1和IMU2输出的四元数,可以对监测对象大腿相对于骨盆相对运动角度进行计算。对上述旋转矩阵联立计算可得,3个方向上的相对运动角度为:
α=Atan2(r23/sβ,r13/sβ)
γ=Atan2(r32/sβ,-r31/sβ)
其中,γ、α和β分别代表髋关节的回转角、偏转角和俯仰角。同理,通过IMU1和IMU3的四元数输出可以算出监测对象的膝关节的回转角、偏转角和俯仰角。
同理,监测对象的另一侧下的肢运动参数可以同样通过分别位于骨盆、对应的大腿、对应的小腿处的IMU处采集,从而得到对应下肢的髋关节角度及膝关节角度。通过这种方式,可以确定监测对象两侧下肢的膝关节的角度及髋关节的角度,并且可以基于确定的关节角度得到监测对象的姿态。
本实施例中,在步骤102得到监测对象的关节角度后,则可以通过步骤 103预测下肢特征,其中,骨盆高度可以作为一种具体的下肢特征,具体的,骨盆高度可以通过预先训练的骨盆高度预测模型来获得,其中,骨盆高度预测模型可以通过下述方式获得:
神经网络在模式识别中应用较广泛,具有自学习、自适应的能力和高速寻找优化解的能力。BP(back propagation反向传播)神经网络是一种多层前馈网络,其特点是信号向前传播和误差反向传播,其结构包括输入层、隐含层以及输出层,因此本实施例采用BP神经网络作为分类器进行模型训练,将提取的人体下肢两侧的关节角度、角速度,人体骨盆高度占身高比例,步态周期长度等特征值作为模型的输入,骨盆高度作为输出,根据经验式来训练模型,其中,n为隐含层,m为输入层数,k为输出层数, a为1~10之间的调节常数。具体的,如图4所示,在一种具体的场景下,输入层Input的层数为3,隐藏层Hidden的层数为4,输出层Output的层数为1,选取隐藏层节点数为10。
在训练神经网络之前,采集了健康人的3000组标准动作的特征值作为样本空间,其中70%作为训练样本,15%作为验证样本,15%作为测试样本。经过测试与调整,设定网络目标误差为0.001,训练迭代次数为20,学习速率为0.3步频计算。
由于,骨盆高度预测模型是建在步态周期上的数据预测模型。首先使用标准步态数据采集系统,如Vicon运动捕捉系统,采集正常人行走时的下肢运动参数、关节角度、步态特征,其中,下肢运动参数包括髋关节的角速度和加速度,步态特征包括骨盆高度、步态周期、角速度、骨盆所占身高的比例等反应人行走时姿态的特征,将上述除骨盆高度以外的参数作为BP神经网络模型的输入数据,将骨盆高度作为输出数据来训练BP神经网络模型。
为了保证模型的鲁棒性、加快模型训练梯度下降速度,对于神经网络的训练数据需要进行归一化处理,将髋关节角度、角速度和加速度映射位于[0,1] 的区间qn,区间qn的定义为:
其中,qn表示映射后的数据,q表示映射前的数据,qmax表示映射前的最大数据,qmin表示映射前的最小数据。根据上述方式训练数据,根据寻峰算法和数据采样率等间隔划分步态周期区间,根据数据在步态周期的位置进行标签赋值。
本实施例中,为了针对身高和行走速度引起的骨盆高度输出变化,可以进一步采集反应人体特征的参数作为对象特征数据,如人的身高、行走的速度等等,在一种具体的场景下,召集10名受试者,身高分布范围是 1.56m~1.86m,数据采集环境为Vicon运动捕捉系统,测试速度为0.3m/s、 0.5m/s、0.7m/s,模型库总体量为30来进一步训练神经网络模型。
在模型训练完成后,即得到骨盆高度预测模型,将当前的下肢运动参数、关节角度、步态特征及对象特征参数输入至骨盆高度预测模型中则可以获取预测的骨盆高度。
本实施例中,可以根据惯性传感器获得的关节角度,通过骨盆高度预测模型实时预测监测对象的骨盆高度,一方面,提高了骨盆高度预测的精确性,可以得到更加准确的监测对象的运动姿态,另一方面,也可以减少康复机器人系统内编码器、力矩传感器的使用,可降低机器人控制系统复杂度。
本实施例中,还可以根据预测的骨盆高度控制下肢康复机器人在竖直方向的自由度,从而达到通过下肢康复机器人来自动且智能地训练监测对象的下肢的目的。
本实施例中的步频、步幅以及基于步频或步幅计算得到的其他步态特征,如步速,既可以通过现有技术中的计算方法得出,也可以基于本实施例步骤102中计算得到的关节角度得出,当通过后一种方式得出时,具体步骤如下:
具体根据关节角度计算步频的方法如图5所示,包括:
步骤201、根据获取的预设时间范围内的若干髋关节角速度,计算髋关节角速度平均值。
具体的,在步骤102中得到监测对象下肢运动的关节角度后,即可通过差分的方法计算得到双侧关节运动的角速度,具体为后一次计算的髋关节的角速度减去前一次计算的髋关节的角速度的差除以两次计算的时间差即可得到角速度。根据预设时间范围内若干髋关节角速度之和除以该时间范围内计算的角速度的次数即可得到髋关节角速度平均值。
步骤202、根据髋关节角速度平均值及预设系数计算角速度触发阈值。
为了进一步防止噪声干扰下述计算步态周期的过程,本实施例中,步骤 202可以进一步包括根据髋关节角速度平均值、预设系数及预设延时时间计算角速度触发阈值。
步骤203、当采集的两次髋关节的角速度均触发角速度触发阈值,且两次髋关节角速度的变化率同时为正或同时为负时,将对应的时间点作为时间截点,且将相邻时间截点的时间间隔作为步态周期。
步骤204、根据步态周期计算步频。
为了更好的理解本实施例中计算步频的原理,下面通过一具体场景下的实例对步频的计算进行进一步的说明:
如图6所示,该场景下使用大小为250的滑动矩形窗(即窗内包括250 个数据点)截取当前实时的下肢髋关节角度,计算当前窗内的髋关节角速度平均值Aver_Hip_Angle,并设置角速度的触发阈值Thre_Val,即, Thre_Val=1.5*Aver_Hip_Angle,其中,1.5作为该场景下的预设系数,该预设系数可以根据实际需求进行设置。
接着判断当前髋关节角度是否同时满足以下条件:
①Hip_Angle∈[Thre_Val-3,Thre_Val+3];
此处,3作为延时时间,在实际操作过程中,也可以根据不同的情况,预设不同的延时时间。
②Vel_Hip_Angle>0;
在另一种情况下,此处也可以设置前后两次角速度的值同时为负。
图7示出了该具体场景下角速度的变化情况图,其中a1及a2分别代表前后两次变化率均为正值的角速度触发阈值,a1及a2之间的时间T即为一次运动的步态周期,步频Stride_Fre=1/T。
应当理解,上述场景仅以监测对象一侧的下肢作为示例进行举例说明,监测对象另一侧的下肢的步频的计算方法的原理与上述方法的原理相同,此处便不再赘述。
本实施例中,可以根据髋关节角度计算出步态周期,根据步态周期可以计算出监测对象对应侧的频率,因此,可以得得到精确的步频,并且可以在步频的基础上对监测对象的康复情况进行进一步的评估,或者对监测对象的对应侧下肢进行进一步训练。
进一步的,具体根据关节角度计算步幅的方法如图8所示,包括:
步骤301、根据髋关节角度计算监测对象的大腿在地面的大腿投影;
步骤302、根据膝关节角度计算监测对象的小腿在地面的小腿投影;
步骤303、根据大腿投影及小腿投影计算步幅。
其中,在步骤303中,当运动的下肢位于监测对象身体前侧时,根据大腿投影与小腿投影的差计算对应下肢的步幅;当运动的下肢位于监测对象身体前侧时,根据大腿投影与小腿投影的和计算对应下肢的步幅。
下面以通过一具体实例来说明本实施例中的步幅计算原理:
图9示出了监测对象在行走时下肢模型和三角形定理,对于位于监测对象身体后侧的运动的下肢而言可以由下肢大腿长度thigh、小腿长度shank和后侧髋关节角度hip_l、后侧膝关节角度knee_l计算后侧脚跟与骨盆间在在地面的投影stride_l=abs(thigh*sin(hip_l))+(shank*sin(knee_l-hip_l))。
对于位于监测对象身体前侧的运动的下肢而言,可以由下肢大腿长度 thigh、小腿长度shank和前侧髋关节角度hip_r、前侧膝关节角度knee_r计算前侧脚跟与骨盆间在地面的投影stride_r=abs(thigh*sin(hip_r))-(shank* sin(knee_r-hip_r)),
后侧脚的投影与前侧脚的投影之和便是监测对象行走时的步幅,即 stride=stride_r+stride_l。
本实施例中,可以根据膝关节及髋关节角度计算出前侧脚的步幅及后侧脚的步幅,并且根据前侧脚的步幅和后侧脚的步幅可以计算出监测对象的整体步幅,因此,可以得得到精确的步步幅,并且可以在步幅的基础上对监测对象的康复情况进行进一步的评估,或者对监测对象的对应侧下肢进行进一步训练。
通过本实施例中的基于惯性传感器的步态特征提取方法可以得到近乎标准的步态特征,即,可以得到准确的髋关节角度、膝关节角度,并且前述关节角度可以得到准确的骨盆高度及步幅,图10、11、12及13分别示出了在具体场景下基于标准Vicon运动捕捉系统采集的数据与基于本实施例中的步态特征提取方法提取得到的数据的对比图,四幅图的横坐标均表示时间的变化,其中,图10的纵坐标表示髋关节角度、图11的纵坐标表示膝关节角度、图12的纵坐标表示骨盆高度、图13的纵坐标表示步幅,曲线R1、R2、 R3及R4分别表示通过本实施例中的步态特征提取方法提取到的髋关节角度变换曲线、膝关节角度变换曲线、骨盆高度变换曲线及步幅变换曲线,曲线T1、T2、T3及T 4分别表示通过标准Vicon运动捕捉系统的对应的髋关节角度变换曲线、对应的膝关节角度变换曲线、对应的骨盆高度变换曲线及对应的步幅变换曲线,可以观察得到,根据本发明的惯性传感器计算得到的髋关节角度、膝关节角度、骨盆高度及步幅与标准的髋关节角度、膝关节角度、骨盆高度及步幅相比,误差较小,误差基本可以控制在5%之内。
本实施例采用的可穿戴惯性传感器具有体积小、重量轻、成本低、隐私保密性好、便携性高等优点,惯性传感器包含三轴加速度计、三轴陀螺仪和三轴磁力计,可以采集或获取患者在康复训练过程中的关节角度、角速度、运动意图和髋关节位置、速度,一方面可以对病人康复状态进行追踪和评估,另一方面,还能够作为机器人控制系统的输入信号,可以减少康复机器人系统内编码器、力矩传感器的使用,可降低机器人控制系统复杂度,提高控制系统的鲁棒性。
本实施例中,可以基于计算得到的关节角度、步频、步幅等特征对监测对象的下肢康复状态进行评估,也可以基于前述数据进一步对监测对象进行下肢康复训练。
实施例2
本实施例提供了一种下肢状态的评估方法,本实施例基于实施例1,如图14所示,该评估方法包括:
步骤401、获取监测对象的监测数据。
其中,监测数据包括下肢运动参数、关节角度及步态特征,其中,下肢运动参数及关节角度可以参考实施例1中对于运动参数及关节角度的定义,此处便不再赘述。步态特征包括骨盆高度、步频及步幅,步态特征基于实施例1中的基于惯性传感器的步态特征提取方法获得。
步骤402、判断获取的监测数据与是否位于标准数据的预设范围内,若是,则执行步骤403,若否,则执行步骤404。
步骤403、确认监测对象为康复状态。
步骤404、确认监测对象为未康复状态。
本实施例中,可以利用惯性传感器采集的下肢运动参数计算关节角度,可以利用关节角度计算出的步态特征对监测对象康复状态进行追踪和评估,可以在不增加康复机器人系统复杂程度的前提下实现对监测对象康复状态的准确评估。
实施例3
本实施例提供了一种下肢康复机器人的控制方法,本实施例基于实施例 1或实施例2,如图15所示,该控制方法包括:
步骤501、获取用户的步态特征。
其中,步态特征包括骨盆高度、步频及步幅,步态特征基于实施例1中的基于惯性传感器的步态特征提取方法获得。
步骤502、根据步态特征控制下肢康复机器人在不同方向的自由度。
其中,步骤502具体可以包括:根据步速控制下肢康复机器人在水平方向的自由度,以及根据骨盆高度控制下肢康复机器人在竖直方向的自由度。
为了更好的理解本实施例,下面通过一具体场景对本实施例中的控制方法进行举例说明:
理疗师将惯性测量传感器通过绑带机构固定在病人下肢各个活动单元 (骨盆、左右大腿、左右小腿)等部位,传感器数量参考不同应用场景可以进行增减,如当用户仅需要训练左大腿时,则可以仅使用两个惯性传感器,一个绑在骨盆上,一个绑在左大腿上,当用户需要训练左右大小腿时,则将惯性传感器分别绑在骨盆上、左大腿上、右大腿上、左小腿上及右小腿上,其中,根据用户的不同需求,可以选择2-5个惯性传感器。
理疗师将下肢康复机器人切换至某一个康复训练模式,例如,“跑台跟随”模式,确定例如康复训练减重比例,跟随启动力等训练必须的参数,然后开始训练。
理疗师通过开启训练功能,使下肢康复机器人主控模块调用按照实施例 1中的步态特征提取方法进行编写的程序功能模块,使系统打开下肢运动步态特征提取功能,对病人下肢康复过程中的骨盆高度,康复病人两侧下肢的髋、膝关节角度、步速、步频、步幅等信息进行提取。同时将骨盆高度、步速这两个作为控制跑台和立柱运动的电机的输入信号,主控程序通过调用相关控制程序对跑台和立柱运动进行控制,从而使下至康复机器人完成对病人的跟随训练,其中跑台用于控制下肢康复机器人在水平方向的自由度,立柱用于控制下肢康复机器人在竖直方向的自由度,具体的跑台、立柱及下肢康复机器人中的其他构件的具体结构以及各个结构相互连接关系都可以根据现有技术获得。患者根据训练系统中的提示、游戏等完成康复训练。
如果需要更换训练的病人,则重复上述步骤直至设定的康复训练结束。训练时间到或点击“结束”,结束康复训练过程;
理疗师将病人训练过程中记录的病人骨盆高度,康复病人两侧下肢的髋、膝关节角度、步速、步频、步幅等信息导出,医生可以通过这些信息对病人康复状态进行进一步评估和规划病人接下来的康复计划。
图16示出了在一种具体场景下下肢康复机器人与监测对象的位置关系示意图,其中,为了增加用户观感、提高用户体验度,下肢康复机器人可以进一步包括VR(虚拟现实)设备,用户可以通过VR来进行游戏,获取提示。
图17示出了从惯性传感器采集数据,到计算步态特征,以及对下肢康复机器人进行训练的整体数据处理示意图,其中通过对惯性传感器获取的自然步态下监测对象的三轴加速度、三轴角速度及三周磁场强度进行滤波和数据融合可以得到四元素,通过四元素可以得到下肢运动参数以及关节角度,通过下肢运动参数及关节角度可以具体计算出监测对象的步频、步幅及骨盆高度,从而可以通过骨盆高度和步频、步幅分别控制监测对象在竖直方向及在水平方向的自由度。
本实施例可以利用计算出的步态特征作为控制康复机器人运动的输入信号,即通过骨盆高度控制康复机器人在竖直方向的运动自由度,通过步幅、步速等控制康复机器人在水平方向的运动自由度,可以减少康复机器人系统内编码器、力矩传感器的使用,可降低机器人控制系统复杂度,提高控制系统的鲁棒性。
应当理解,本发明实施例中下肢康复机器人包括在竖直方向的控制结构,如立柱,及在水平方向的控制结构,本实施例中的下肢康复机器人可以选择现有技术中的用于训练下肢的下肢康复机器人,本实施例并不对下肢康复机器人的类型、结构做具体限定。
实施例4
本实施例提供一种电子设备,电子设备可以通过计算设备的形式表现 (例如可以为服务器设备),包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中处理器执行计算机程序时可以实现实施例1 中基于惯性传感器的步态特征提取方法、实施例2中下肢状态的评估方法或实施例3中下肢康复机器人的控制方法。
图18示出了本实施例的硬件结构示意图,如图18所示,电子设备9具体包括:
至少一个处理器91、至少一个存储器92以及用于连接不同系统组件(包括处理器91和存储器92)的总线93,其中:
总线93包括数据总线、地址总线和控制总线。
存储器92包括易失性存储器,例如随机存取存储器(RAM)921和/或高速缓存存储器922,还可以进一步包括只读存储器(ROM)923。
存储器92还包括具有一组(至少一个)程序模块924的程序/实用工具 925,这样的程序模块924包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器91通过运行存储在存储器92中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1中基于惯性传感器的步态特征提取方法、实施例2中下肢状态的评估方法或实施例3中下肢康复机器人的控制方法。
电子设备9进一步可以与一个或多个外部设备94(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口95进行。并且,电子设备9还可以通过网络适配器96与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器96通过总线93与电子设备9的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备9使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例5
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现实施例1中基于惯性传感器的步态特征提取方法、实施例2中下肢状态的评估方法或实施例3中下肢康复机器人的控制方法的步骤。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1中基于惯性传感器的步态特征提取方法、实施例2中下肢状态的评估方法或实施例3中下肢康复机器人的控制方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (15)
1.一种基于惯性传感器的步态特征提取方法,其特征在于,所述步态特征提取方法包括:
通过所述惯性传感器采集监测对象的下肢运动参数;
根据所述下肢运动参数获取所述监测对象的关节角度;
根据所述关节角度计算骨盆高度。
2.如权利要求1所述的基于惯性传感器的步态特征提取方法,其特征在于,所述下肢运动参数包括关节角速度和/或关节加速度,所述关节角度包括髋关节角度;
所述根据所述关节角度计算骨盆高度的步骤包括:
将所述下肢运动参数、所述关节角度、所述步态特征及对象特征参数输入至骨盆高度预测模型中以获取预测的骨盆高度,其中,所述骨盆高度预测模型为将预先采集的若干标准下肢运动参数及对应的标准关节角度、标准对象特征参数及标准步态特征作为输入,对应的骨盆高度作为输出训练神经网络模型所得到的模型。
3.如权利要求2所述的基于惯性传感器的步态特征提取方法,其特征在于,所述对象特征参数包括对应对象的骨盆高度占身高的比例和/或对象的身高,所述步态特征还包括步频、步幅、步速及步态周期中的至少一种。
4.如权利要求3所述的基于惯性传感器的步态特征提取方法,其特征在于,通过Vicon运动捕捉系统预先获取的若干若干标准下肢运动参数及对应的标准关节角度。
5.如权利要求1所述的基于惯性传感器的步态特征提取方法,其特征在于,所述步态特征提取方法还包括:根据所述关节角度计算步频。
6.如权利要求5所述的基于惯性传感器的步态特征提取方法,其特征在于,所述下肢运动参数包括关节角速度,所述关节角度包括髋关节角度,所述根据所述关节角度计算步频的步骤包括:
根据获取的预设时间范围内的若干髋关节角速度,计算髋关节角速度平均值;
根据所述髋关节角速度平均值及预设系数计算角速度触发阈值;
当采集的两次髋关节的角速度均触发所述角速度触发阈值,且两次髋关节角速度的变化率同时为正或同时为负时,将对应的时间点作为时间截点,且将相邻时间截点的时间间隔作为步态周期;
根据所述步态周期计算所述步频。
7.如权利要求6所述的基于惯性传感器的步态特征提取方法,其特征在于,所述根据所述髋关节角速度平均值及预设系数计算角速度触发阈值的步骤包括:
根据所述髋关节角速度平均值、预设系数及预设延时时间计算角速度触发阈值。
8.如权利要求1所述的基于惯性传感器的步态特征提取方法,其特征在于,所述步态特征提取方法还包括:根据所述关节角度计算步幅。
9.如权利要求8所述的基于惯性传感器的步态特征提取方法,其特征在于,所述关节角度包括髋关节角度及膝关节角度,所述根据所述关节角度计算步幅的步骤包括:
根据所述髋关节角度计算所述监测对象的大腿在地面的大腿投影;
根据所述膝关节角度计算所述监测对象的小腿在地面的小腿投影;
根据所述大腿投影及所述小腿投影计算步幅。
10.如权利要求9所述的基于惯性传感器的步态特征提取方法,其特征在于,当运动的下肢位于监测对象身体前侧时,所述根据所述大腿投影及所述小腿投影计算步幅的步骤包括:根据所述大腿投影与所述小腿投影的差计算步幅;当运动的下肢位于监测对象身体前侧时,所述根据所述大腿投影及所述小腿投影计算步幅的步骤包括:根据所述大腿投影与所述小腿投影的和计算步幅。
11.一种下肢状态的评估方法,其特征在于,所述评估方法包括:
获取监测对象的监测数据,所述监测数据包括下肢运动参数、关节角度、骨盆高度、步频及步幅中的至少一种,且所述监测数据根据如权利要求1-10任意一项所述的基于惯性传感器的步态特征提取方法获得;
判断获取的监测数据与是否位于标准数据的预设范围内,若是,则确认所述监测对象为康复状态,若否,则确认所述监测对象为未康复状态。
12.一种下肢康复机器人的控制方法,其特征在于,所述控制方法包括:
获取用户的步态特征,所述步态特征根据如权利要求1-10任意一项所述的基于惯性传感器的步态特征提取方法获得;
根据所述步态特征控制所述下肢康复机器人在不同方向的自由度。
13.如权利要求12所述的下肢康复机器人的控制方法,其特征在于,所述步态特征包括步速及骨盆高度;
所述根据所述步态特征控制所述下肢康复机器人在不同方向的自由度的步骤包括:
根据所述步速控制所述下肢康复机器人在水平方向的自由度;
根据所述骨盆高度控制所述下肢康复机器人在竖直方向的自由度。
14.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13任一项所述的方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117565.8A CN113143256B (zh) | 2021-01-28 | 2021-01-28 | 步态特征提取方法、下肢评估、控制方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117565.8A CN113143256B (zh) | 2021-01-28 | 2021-01-28 | 步态特征提取方法、下肢评估、控制方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113143256A true CN113143256A (zh) | 2021-07-23 |
CN113143256B CN113143256B (zh) | 2023-09-26 |
Family
ID=76878950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110117565.8A Active CN113143256B (zh) | 2021-01-28 | 2021-01-28 | 步态特征提取方法、下肢评估、控制方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113143256B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113768760A (zh) * | 2021-09-08 | 2021-12-10 | 中国科学院深圳先进技术研究院 | 助行器的控制方法、系统和驱动设备 |
CN113876316A (zh) * | 2021-09-16 | 2022-01-04 | 河南翔宇医疗设备股份有限公司 | 下肢屈伸活动异常检测系统、方法、装置、设备及介质 |
CN114041782A (zh) * | 2021-07-26 | 2022-02-15 | 南宁师范大学 | 一种多通道人体下肢运动信息采集系统及方法 |
CN114587346A (zh) * | 2022-03-25 | 2022-06-07 | 中电海康集团有限公司 | 一种基于imu的人体下肢运动监测方法及系统 |
CN115005812A (zh) * | 2022-05-30 | 2022-09-06 | 哈尔滨工业大学(威海) | 人体动作检测方法、基于空间三角形的人体上肢动作检测方法及一致性评价方法 |
Citations (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4051558A (en) * | 1976-06-30 | 1977-10-04 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Mechanical energy storage device for hip disarticulation |
EP1260201A1 (en) * | 2001-05-24 | 2002-11-27 | Argo Medical Technologies Ltd. | Gait-locomotor apparatus |
JP2004197253A (ja) * | 2002-12-17 | 2004-07-15 | Norikazu Suzuki | サポートスーツ |
US20050010139A1 (en) * | 2002-02-07 | 2005-01-13 | Kamiar Aminian | Body movement monitoring device |
KR20070072314A (ko) * | 2005-12-31 | 2007-07-04 | 고려대학교 산학협력단 | 신경망을 이용하는 로봇의 자세 제어 방법 및 그 기록매체, 신경망을 이용하는 로봇의 자세 제어 장치 및 그장치를 구비한 로봇 |
US20080262772A1 (en) * | 2007-03-15 | 2008-10-23 | Xsens-Technologies B.V. | Sytem and a Method for Motion Tracking Using a Calibration Unit |
US20100094174A1 (en) * | 2007-03-13 | 2010-04-15 | Yong Jae Choi | Method for three-dimensional biomechanical data and parameter analysis and system using the same method |
CN102944200A (zh) * | 2012-11-01 | 2013-02-27 | 沈阳工业大学 | 一种获取髋关节角度及髋关节中心到平台位移的方法 |
WO2015008937A1 (ko) * | 2013-07-15 | 2015-01-22 | 서울대학교산학협력단 | 모션 데이터 생성 방법 및 장치 |
JP2015062654A (ja) * | 2013-08-28 | 2015-04-09 | 日本電信電話株式会社 | 歩容推定装置とそのプログラム、転倒危険度算出装置とそのプログラム |
CN104613963A (zh) * | 2015-01-23 | 2015-05-13 | 南京师范大学 | 基于人体运动学模型的行人导航系统与导航定位方法 |
CN104921851A (zh) * | 2015-05-25 | 2015-09-23 | 河北工业大学 | 主动型膝上假肢膝关节的预测控制方法 |
WO2015164421A1 (en) * | 2014-04-21 | 2015-10-29 | The Trustees Of Columbia University In The City Of New York | Human movement research, therapeutic, and diagnostic devices, methods, and systems |
US20160095538A1 (en) * | 2014-10-07 | 2016-04-07 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing gait motion |
WO2016057521A1 (en) * | 2014-10-06 | 2016-04-14 | Inmotion, Llc | Systems, devices and methods relating to motion data |
KR20160089791A (ko) * | 2015-01-20 | 2016-07-28 | 한국생산기술연구원 | 보행 단계 인식 시스템, 및 방법 |
WO2017014294A1 (ja) * | 2015-07-23 | 2017-01-26 | 国立大学法人北海道大学 | 歩行解析方法および歩行解析システム |
CN106815857A (zh) * | 2015-11-27 | 2017-06-09 | 财团法人工业技术研究院 | 行动辅助机器人的姿态估测方法 |
CN106821391A (zh) * | 2017-03-23 | 2017-06-13 | 北京精密机电控制设备研究所 | 基于惯性传感器信息融合的人体步态采集分析系统及方法 |
WO2017156617A1 (en) * | 2016-03-15 | 2017-09-21 | Laboratoire Victhom Inc. | Biomechanical analysis and validation system and method |
US20170296115A1 (en) * | 2009-02-02 | 2017-10-19 | Joint Vue, LLC | Motion Tracking System with Inertial-Based Sensing Units |
US20180116897A1 (en) * | 2016-11-02 | 2018-05-03 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling balance |
US20180235831A1 (en) * | 2017-02-21 | 2018-08-23 | Samsung Electronics Co., Ltd. | Method and apparatus for walking assistance |
US20180289579A1 (en) * | 2017-04-11 | 2018-10-11 | The Trustees Of Columbia University In The City Of New York | Powered Walking Assistant and Associated Systems and Methods |
CN108697377A (zh) * | 2016-01-25 | 2018-10-23 | 贝泰米亚公司 | 步态分析器系统和方法 |
CN108836346A (zh) * | 2018-04-16 | 2018-11-20 | 大连理工大学 | 一种基于惯性传感器的人体步态分析方法和系统 |
CN109521771A (zh) * | 2018-11-22 | 2019-03-26 | 西北工业大学 | 一种六足机器人运动控制算法 |
CN110021398A (zh) * | 2017-08-23 | 2019-07-16 | 陆晓 | 一种步态分析、训练方法及系统 |
CN110215648A (zh) * | 2019-06-28 | 2019-09-10 | 华中科技大学 | 基于人体步态运动协调特性的外骨骼协调步态控制方法 |
CN110420029A (zh) * | 2019-08-03 | 2019-11-08 | 苏州自如医疗器械有限公司 | 一种基于多传感器融合的行走步态无线检测系统 |
US20200008712A1 (en) * | 2017-03-29 | 2020-01-09 | Honda Motor Co., Ltd. | Walking support system, walking support method, and walking support program |
US20200008745A1 (en) * | 2018-07-09 | 2020-01-09 | V Reuben F. Burch | Wearable Flexible Sensor Motion Capture System |
CN110969114A (zh) * | 2019-11-28 | 2020-04-07 | 四川省骨科医院 | 一种人体动作功能检测系统、检测方法及检测仪 |
CN111142378A (zh) * | 2020-01-07 | 2020-05-12 | 四川省桑瑞光辉标识系统股份有限公司 | 一种双足机器人神经网络控制器的神经网络优化方法 |
CN111631727A (zh) * | 2020-06-11 | 2020-09-08 | 国家康复辅具研究中心 | 一种假肢适配效果的评估方法及评估装置 |
CN111904793A (zh) * | 2020-08-13 | 2020-11-10 | 上海电气集团股份有限公司 | 一种基于并联机构的下肢康复机器人及控制系统 |
US20200384312A1 (en) * | 2019-06-07 | 2020-12-10 | Toyota Jidosha Kabushiki Kaisha | Walking training system, display method, and display program |
-
2021
- 2021-01-28 CN CN202110117565.8A patent/CN113143256B/zh active Active
Patent Citations (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4051558A (en) * | 1976-06-30 | 1977-10-04 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Mechanical energy storage device for hip disarticulation |
EP1260201A1 (en) * | 2001-05-24 | 2002-11-27 | Argo Medical Technologies Ltd. | Gait-locomotor apparatus |
US20050010139A1 (en) * | 2002-02-07 | 2005-01-13 | Kamiar Aminian | Body movement monitoring device |
JP2004197253A (ja) * | 2002-12-17 | 2004-07-15 | Norikazu Suzuki | サポートスーツ |
KR20070072314A (ko) * | 2005-12-31 | 2007-07-04 | 고려대학교 산학협력단 | 신경망을 이용하는 로봇의 자세 제어 방법 및 그 기록매체, 신경망을 이용하는 로봇의 자세 제어 장치 및 그장치를 구비한 로봇 |
US20100094174A1 (en) * | 2007-03-13 | 2010-04-15 | Yong Jae Choi | Method for three-dimensional biomechanical data and parameter analysis and system using the same method |
US20080262772A1 (en) * | 2007-03-15 | 2008-10-23 | Xsens-Technologies B.V. | Sytem and a Method for Motion Tracking Using a Calibration Unit |
US20080285805A1 (en) * | 2007-03-15 | 2008-11-20 | Xsens Technologies B.V. | Motion Tracking System |
US20170296115A1 (en) * | 2009-02-02 | 2017-10-19 | Joint Vue, LLC | Motion Tracking System with Inertial-Based Sensing Units |
CN102944200A (zh) * | 2012-11-01 | 2013-02-27 | 沈阳工业大学 | 一种获取髋关节角度及髋关节中心到平台位移的方法 |
WO2015008937A1 (ko) * | 2013-07-15 | 2015-01-22 | 서울대학교산학협력단 | 모션 데이터 생성 방법 및 장치 |
JP2015062654A (ja) * | 2013-08-28 | 2015-04-09 | 日本電信電話株式会社 | 歩容推定装置とそのプログラム、転倒危険度算出装置とそのプログラム |
WO2015164421A1 (en) * | 2014-04-21 | 2015-10-29 | The Trustees Of Columbia University In The City Of New York | Human movement research, therapeutic, and diagnostic devices, methods, and systems |
WO2016057521A1 (en) * | 2014-10-06 | 2016-04-14 | Inmotion, Llc | Systems, devices and methods relating to motion data |
US20160095538A1 (en) * | 2014-10-07 | 2016-04-07 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing gait motion |
KR20160089791A (ko) * | 2015-01-20 | 2016-07-28 | 한국생산기술연구원 | 보행 단계 인식 시스템, 및 방법 |
CN104613963A (zh) * | 2015-01-23 | 2015-05-13 | 南京师范大学 | 基于人体运动学模型的行人导航系统与导航定位方法 |
CN104921851A (zh) * | 2015-05-25 | 2015-09-23 | 河北工业大学 | 主动型膝上假肢膝关节的预测控制方法 |
WO2017014294A1 (ja) * | 2015-07-23 | 2017-01-26 | 国立大学法人北海道大学 | 歩行解析方法および歩行解析システム |
CN106815857A (zh) * | 2015-11-27 | 2017-06-09 | 财团法人工业技术研究院 | 行动辅助机器人的姿态估测方法 |
CN108697377A (zh) * | 2016-01-25 | 2018-10-23 | 贝泰米亚公司 | 步态分析器系统和方法 |
WO2017156617A1 (en) * | 2016-03-15 | 2017-09-21 | Laboratoire Victhom Inc. | Biomechanical analysis and validation system and method |
US20180116897A1 (en) * | 2016-11-02 | 2018-05-03 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling balance |
US20180235831A1 (en) * | 2017-02-21 | 2018-08-23 | Samsung Electronics Co., Ltd. | Method and apparatus for walking assistance |
CN106821391A (zh) * | 2017-03-23 | 2017-06-13 | 北京精密机电控制设备研究所 | 基于惯性传感器信息融合的人体步态采集分析系统及方法 |
US20200008712A1 (en) * | 2017-03-29 | 2020-01-09 | Honda Motor Co., Ltd. | Walking support system, walking support method, and walking support program |
US20180289579A1 (en) * | 2017-04-11 | 2018-10-11 | The Trustees Of Columbia University In The City Of New York | Powered Walking Assistant and Associated Systems and Methods |
CN110021398A (zh) * | 2017-08-23 | 2019-07-16 | 陆晓 | 一种步态分析、训练方法及系统 |
CN108836346A (zh) * | 2018-04-16 | 2018-11-20 | 大连理工大学 | 一种基于惯性传感器的人体步态分析方法和系统 |
US20200008745A1 (en) * | 2018-07-09 | 2020-01-09 | V Reuben F. Burch | Wearable Flexible Sensor Motion Capture System |
CN109521771A (zh) * | 2018-11-22 | 2019-03-26 | 西北工业大学 | 一种六足机器人运动控制算法 |
US20200384312A1 (en) * | 2019-06-07 | 2020-12-10 | Toyota Jidosha Kabushiki Kaisha | Walking training system, display method, and display program |
CN110215648A (zh) * | 2019-06-28 | 2019-09-10 | 华中科技大学 | 基于人体步态运动协调特性的外骨骼协调步态控制方法 |
CN110420029A (zh) * | 2019-08-03 | 2019-11-08 | 苏州自如医疗器械有限公司 | 一种基于多传感器融合的行走步态无线检测系统 |
CN110969114A (zh) * | 2019-11-28 | 2020-04-07 | 四川省骨科医院 | 一种人体动作功能检测系统、检测方法及检测仪 |
CN111142378A (zh) * | 2020-01-07 | 2020-05-12 | 四川省桑瑞光辉标识系统股份有限公司 | 一种双足机器人神经网络控制器的神经网络优化方法 |
CN111631727A (zh) * | 2020-06-11 | 2020-09-08 | 国家康复辅具研究中心 | 一种假肢适配效果的评估方法及评估装置 |
CN111904793A (zh) * | 2020-08-13 | 2020-11-10 | 上海电气集团股份有限公司 | 一种基于并联机构的下肢康复机器人及控制系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114041782A (zh) * | 2021-07-26 | 2022-02-15 | 南宁师范大学 | 一种多通道人体下肢运动信息采集系统及方法 |
CN113768760A (zh) * | 2021-09-08 | 2021-12-10 | 中国科学院深圳先进技术研究院 | 助行器的控制方法、系统和驱动设备 |
CN113876316A (zh) * | 2021-09-16 | 2022-01-04 | 河南翔宇医疗设备股份有限公司 | 下肢屈伸活动异常检测系统、方法、装置、设备及介质 |
CN113876316B (zh) * | 2021-09-16 | 2023-10-10 | 河南翔宇医疗设备股份有限公司 | 下肢屈伸活动异常检测系统、方法、装置、设备及介质 |
CN114587346A (zh) * | 2022-03-25 | 2022-06-07 | 中电海康集团有限公司 | 一种基于imu的人体下肢运动监测方法及系统 |
CN114587346B (zh) * | 2022-03-25 | 2024-07-12 | 中电海康集团有限公司 | 一种基于imu的人体下肢运动监测方法及系统 |
CN115005812A (zh) * | 2022-05-30 | 2022-09-06 | 哈尔滨工业大学(威海) | 人体动作检测方法、基于空间三角形的人体上肢动作检测方法及一致性评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113143256B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113143256B (zh) | 步态特征提取方法、下肢评估、控制方法、设备及介质 | |
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
Yin et al. | FootSee: an interactive animation system. | |
CN108338791B (zh) | 失稳运动数据的检测装置及检测方法 | |
US20210401324A1 (en) | Method for recognizing a motion pattern of a limb | |
Kim et al. | StrokeTrack: wireless inertial motion tracking of human arms for stroke telerehabilitation | |
JP5604249B2 (ja) | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム | |
Liu et al. | A new IMMU-based data glove for hand motion capture with optimized sensor layout | |
Ren et al. | Multivariate analysis of joint motion data by Kinect: application to Parkinson’s disease | |
Jiang et al. | Deep learning algorithm based wearable device for basketball stance recognition in basketball | |
Hao et al. | Cromosim: A deep learning-based cross-modality inertial measurement simulator | |
Gutiérrez et al. | Human stability assessment and fall detection based on dynamic descriptors | |
WO2023035457A1 (zh) | 助行器的控制方法、系统和驱动设备 | |
CN116206358A (zh) | 一种基于vio系统的下肢外骨骼运动模式预测方法及系统 | |
CN114052725B (zh) | 基于人体关键点检测的步态分析算法设定方法以及装置 | |
Niu et al. | A survey on IMU-and-vision-based human pose estimation for rehabilitation | |
WO2014129917A2 (en) | System and method for evaluating the motion of a subject | |
Lueken et al. | Using synthesized imu data to train a long-short term memory-based neural network for unobtrusive gait analysis with a sparse sensor setup | |
Zeng et al. | Research status of data application based on optical motion capture technology | |
KR20230120341A (ko) | 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법 및 시스템 | |
Li et al. | 3d knee and hip angle estimation with reduced wearable imus via transfer learning during yoga, golf, swimming, badminton, and dance | |
Nergui et al. | Human gait behavior interpretation by a mobile home healthcare robot | |
Kun et al. | Shoulder joint rehabilitation training system based on virtual reality technology | |
CN116098611B (zh) | 肢体运动康复的评估生成系统、方法及介质 | |
CN116214511B (zh) | 外肢体控制方法、装置、电子设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20210723 Assignee: SHANGHAI ELECTRIC INTELLIGENT REHABILITATION MEDICAL TECHNOLOGY Co.,Ltd. Assignor: Shanghai Electric Group Co.,Ltd. Contract record no.: X2023310000146 Denomination of invention: Gait feature extraction method, lower limb evaluation, control method, equipment and medium License type: Exclusive License Record date: 20230919 |