CN114404214B - 一种外骨骼步态辨识装置 - Google Patents
一种外骨骼步态辨识装置 Download PDFInfo
- Publication number
- CN114404214B CN114404214B CN202011176382.5A CN202011176382A CN114404214B CN 114404214 B CN114404214 B CN 114404214B CN 202011176382 A CN202011176382 A CN 202011176382A CN 114404214 B CN114404214 B CN 114404214B
- Authority
- CN
- China
- Prior art keywords
- motion
- motion data
- dictionary
- data
- gait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005021 gait Effects 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012360 testing method Methods 0.000 claims abstract description 25
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 12
- 230000001174 ascending effect Effects 0.000 claims description 10
- 230000000386 athletic effect Effects 0.000 claims description 10
- 244000309466 calf Species 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 9
- 210000000689 upper leg Anatomy 0.000 claims description 9
- 210000004394 hip joint Anatomy 0.000 claims description 7
- 210000000629 knee joint Anatomy 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 210000002414 leg Anatomy 0.000 claims description 3
- 230000009192 sprinting Effects 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 5
- 238000000354 decomposition reaction Methods 0.000 description 12
- 230000006872 improvement Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
- A61H1/0237—Stretching or bending or torsioning apparatus for exercising for the lower limbs
- A61H1/0255—Both knee and hip of a patient, e.g. in supine or sitting position, the feet being moved together in a plane substantially parallel to the body-symmetrical plane
- A61H1/0262—Walking movement; Appliances for aiding disabled persons to walk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/164—Feet or leg, e.g. pedal
- A61H2201/1642—Holding means therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5061—Force sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5069—Angle sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5071—Pressure sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5084—Acceleration sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2205/00—Devices for specific parts of the body
- A61H2205/10—Leg
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rehabilitation Tools (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种外骨骼步态辨识装置,属于机器人技术领域,解决现有模型复杂,辨识准确度低、实时性差和分析处理效率低的问题。外骨骼步态辨识方法包括:离线采集多个穿戴式助力机器人在多个运动模式下的运动数据;对运动数据进行预处理并将预处理后的运动数据划分为训练数据集和测试数据集;利用训练数据集和测试数据集进行离线字典学习和测试以获得运动行走字典;以及基于预处理后的待辨识运动数据在运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于线性表示系数辨识运动模式和步态相位。多人多模式数据提高辨识准确度、实时性和分析处理效率。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种外骨骼步态辨识装置。
背景技术
下肢外骨骼机器人是一种人机耦合的穿戴式助力机器人,能够给人提供保护、额外的动力或能力,增强人体机能,可辅助人完成超出自身能力的任务或者降低人体负荷,在军民领域均有广阔的应用前景。下肢外骨骼机器人助力技术的关键在于识别人体步态,尤其是不同人、不同运动模态、不同环境下的行走具有很强的随机性,如何进行准确可靠的辨识运动状态,为不同步态下实施相应的控制策略提供可靠信息,是需要解决的关键问题。
现有技术中,传统的基于阈值和规则的辨识方法难以适应人体运动的多样性、随机性以及多变的外界环境和行走模态,因而扩展能力不强、适应性不好。例如,通过采集足底压力结合集成学习方法识别行走相位,但是单纯使用足底压力,行走信息不够丰富难以保证对不同运动模态的辨识适应能力;利用了足部多源信息识别行走相位,但是缺少髋膝关节运动信息;或者利用了足底压力和关节角等多源信息,基于阈值和规则进行辨识,存在扩展性差适应能力不强等问题。另外,也有利用其它监督学习方法处理多源数据的进行步态识别的方法,但是模型普遍复杂计算量大,不适用于穿戴式系统的实时计算需求。外骨骼运动数据是由关节角度、足底压力、惯性参数等传感器采集的数据,具有典型的高维时序数据特征,具有很强的结构性,普通工具进行分析处理效率低。
发明内容
鉴于上述的分析,本发明实施例旨在提供一种外骨骼步态辨识装置,用以解决现有模型复杂,计算量大,实时性差和分析处理效率低的问题。
一方面,本发明实施例提供了一种外骨骼步态辨识方法包括:离线采集多个穿戴式助力机器人在多个运动模式下的运动数据;对所述运动数据进行预处理并将预处理后的所述运动数据划分为训练数据集和测试数据集;利用所述训练数据集和所述测试数据集进行离线字典学习和测试以获得运动行走字典;以及基于预处理后的待辨识运动数据在所述运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于所述线性表示系数辨识运动模式和步态相位。
上述技术方案的有益效果如下:从不同运动模式下、不同动作的大量数据中学习信号范式,离线阶段通过迭代学习形成行走字典,在线阶段利用稀疏分解进行步态辨识。而且这种多人多模式数据提高辨识准确度,可适用于不同行走速度,从而为外骨骼控制器提供稳定可靠信息。
基于上述方法的进一步改进,所述多个运动模式包括平地行走、上台阶、下台阶、上坡、下坡、站立、慢跑、快跑和蹲起。
基于上述方法的进一步改进,离线采集多个穿戴式助力机器人在多个运动模式下的运动数据进一步包括:在所述多个穿戴式助力机器人中的每个穿戴式助力机器人的运动模式分别为所述平地行走、所述上台阶、所述下台阶、所述上坡、所述下坡、所述站立、所述慢跑、所述快跑和所述蹲起时离线采集多维运动数据。
基于上述方法的进一步改进,离线采集多维运动数据包括:利用角度传感器分别采集左膝关节角度、右膝关节角度、左髋关节角度和右髋关节角度;利用压力传感器分别采集多个左足底压力和多个右足底压力;利用加速度传感器采集大腿和小腿部位的三维加速度;利用角速度传感器分别采集左小腿旋转角速度、右小腿旋转角速度、左大腿旋转角速度和右大腿旋转角速度;以及利用力传感器采集腿部人机交互力或背部人机交互力。
基于上述方法的进一步改进,所述运动行走字典D包括多个运动模式,其中,通过以下公式表示所述运动行走字典D:
D=[D1 D2 ... DN],
其中,字典D1、D2、…DN中的任一个对应于所述多个运动模式中的一个运动模式,以及N为所述运动模式的数量。
基于上述方法的进一步改进,字典Di中的每个元素为运动行走字典D的基,
Di=[dmi-m+1 dmi-m+2 ... dmi],
其中,m为Di中基向量的个数,每个基向量的长度由所采集的多维运动数据所决定,以及i为1至N之间的整数。
基于上述方法的进一步改进,对所述运动数据进行预处理进一步包括:对所述运动数据进行滑动平均滤波;将滤波后的运动数据规范化为在区间[0,1]或[-1,1]之间的运动数据;以及按照步态周期内的步态相位对规范化的运动数据进行标注。
基于上述方法的进一步改进,所述步态相位包括在一只脚着地到下一次着地之间的步态周期内的多个细分阶段,其中,所述多个细分阶段包括支撑前期、支撑中期、支撑后期、摆动前期和摆动后期。
基于上述方法的进一步改进,基于预处理后的待辨识运动数据在所述运动行走字典上求解最佳稀疏表示以获取线性表示系数:在所述穿戴式助力机器人运动的过程中,在线采集待辨识运动数据;对所述待辨识运动数据行滑动平均滤波;将滤波后的待辨识运动数据规范化为在区间[0,1]或[-1,1]之间的待辨识运动数据y;以及通过以下公式求解所述线性表示系数:
min||x||0s.t.y=Dx,
其中,D为运动行走字典,x为线性表示系数,以及min||x||0为0范数的最小值。
另一方面,本发明实施例提供了一种外骨骼步态辨识装置,包括:数据获取模块,用于离线采集多个穿戴式助力机器人在多个运动模式下的运动数据;预处理及数据划分模块,用于对所述运动数据进行预处理并将预处理后的所述运动数据划分为训练数据集和测试数据集;运动行走字典构建模块,用于利用所述训练数据集和所述测试数据集进行离线字典学习和测试以获得运动行走字典;以及求解及辨识模块,用于基于预处理后的待辨识运动数据在所述运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于所述线性表示系数辨识运动模式和步态相位。
与现有技术相比,本发明至少可实现如下有益效果之一:
1、本申请从不同运动模式下、不同动作的大量数据中学习信号范式,离线阶段通过迭代学习形成行走字典,在线阶段利用稀疏分解进行步态辨识。
2、本申请可以高效处理高维时序运动数据,得到冗余字典上的简洁表示,在线应用过程中计算量小适用于实时处理。
3、本申请可同时建模不同运动模态和不同行走速度,因此能够为外骨骼控制提供模式切换、行走步态等可靠数据,具备良好的扩展能力和适应能力。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为根据本发明实施例的外骨骼步态辨识方法的流程图。
图2为根据本发明实施例的基于字典学习与稀疏分解的外骨骼步态辨识工作流程。
图3为根据本发明实施例的外骨骼步态辨识装置的流程图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的一个具体实施例,公开了一种外骨骼步态辨识方法。参考图1,外骨骼步态辨识方法包括:步骤S102,离线采集多个穿戴式助力机器人在多个运动模式下的运动数据;步骤S104,对运动数据进行预处理并将预处理后的运动数据划分为训练数据集和测试数据集;步骤S106,利用训练数据集和测试数据集进行离线字典学习和测试以获得运动行走字典;以及步骤S108,基于预处理后的待辨识运动数据在运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于线性表示系数辨识运动模式和步态相位。
与现有技术相比,本实施例提供的外骨骼步态辨识方法,从不同运动模式下、不同动作的大量数据中学习信号范式,离线阶段通过迭代学习形成行走字典,在线阶段利用稀疏分解进行步态辨识,以提高辨识准确度,可适用于不同行走速度,从而为外骨骼控制器提供稳定可靠信息。
下文中,参考图1,对外骨骼步态辨识方法进行详细描述。
参考图1,外骨骼步态辨识方法包括:步骤S102,离线采集多个穿戴式助力机器人在多个运动模式下的运动数据。具体地,多个运动模式可以包括平地行走、上台阶、下台阶、上坡、下坡、站立、慢跑、快跑和蹲起。在具体实施例中,离线采集多个穿戴式助力机器人在多个运动模式下的运动数据进一步包括:在多个穿戴式助力机器人中的每个穿戴式助力机器人的运动模式分别为平地行走、上台阶、下台阶、上坡、下坡、站立、慢跑、快跑和蹲起等时离线采集多维运动数据。离线采集多维运动数据包括:利用角度传感器分别采集左膝关节角度、右膝关节角度、左髋关节角度和右髋关节角度;利用压力传感器分别采集多个左足底压力和多个右足底压力;利用加速度传感器采集大腿和小腿部位的三维加速度;利用角速度传感器分别采集左小腿旋转角速度、右小腿旋转角速度、左大腿旋转角速度和右大腿旋转角速度;以及利用力传感器采集腿部人机交互力或背部人机交互力。
在离线采集多个穿戴式助力机器人在多个运动模式下的运动数据之后,进入步骤S104,对运动数据进行预处理并将预处理后的运动数据划分为训练数据集和测试数据集。具体地,对运动数据进行预处理进一步包括:对运动数据进行滑动平均滤波;将滤波后的运动数据规范化为在区间[0,1]或[-1,1]之间的运动数据;以及按照步态周期内的步态相位对规范化的运动数据进行标注。即以步态周期内的步态相位相对应的时间段对规范化的运动数据进行标注,以便于进行离线字典学习和测试。例如,在线采集的运动数据为以时间为自变量的数值,步态相位的支撑前期、支撑中期、支撑后期、摆动前期、摆动后期等与步态周期内第一时间段、第二时间段、第三时间段、第四时间段和第五时间段相对应,因此,按照步态周期内第一时间段、第二时间段、第三时间段、第四时间段和第五时间段对规范化的运动数据进行标注。在实施例中,步态相位包括在一只脚着地到下一次着地之间的步态周期内的多个细分阶段,其中,多个细分阶段包括支撑前期、支撑中期、支撑后期、摆动前期和摆动后期。具体地,将一只脚着地至该脚抬起的阶段细分为支撑前期、支撑中期和支撑后期。将一只脚抬起至该脚着地的阶段细分为摆动前期和摆动后期。
在将预处理后的运动数据划分为训练数据集和测试数据集之后,进入步骤S106,利用训练数据集和测试数据集进行离线字典学习和测试以获得运动行走字典。学习方法包括K-SVD、近似K-SVD或者贪婪自适应字典(GAD)等。具体地,其中K-SVD通过迭代程序完成,包括初始化、系数编码和字典更新等过程。例如,字典训练算法为K-SVD,依据误差最小原则,对误差项进行SVD分解,选择使误差最小的分解项作为更新的字典原子和对应的原子系数,经过不断的迭代从而得到优化的解。采用运动行走字典D包括多个运动模式,其中,通过以下公式表示运动行走字典D:
D=[D1 D2 ... DN],
其中,字典D1、D2、…DN中的任一个对应于多个运动模式中的一个运动模式,以及N为运动模式的数量。字典Di中的每个元素为运动行走字典D的基,
Di=[dmi-m+1 dmi-m+2 ... dmi],
其中,m为Di中基向量的个数,每个基向量的长度由所采集的多维运动数据所决定,以及i为1至N之间的整数。
在获得运动行走字典之后,进入步骤S108,基于预处理后的待辨识运动数据在运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于线性表示系数辨识运动模式和步态相位。基于预处理后的待辨识运动数据在运动行走字典上求解线性表示系数:在穿戴式助力机器人运动的过程中,在线采集待辨识运动数据;对待辨识运动数据进行滑动平均滤波;将滤波后的待辨识运动数据规范化为在区间[0,1]或[-1,1]之间的待辨识运动数据y;以及通过以下公式求解线性表示系数:
min||x||0s.t.y=Dx,
其中,D为运动行走字典,x为线性表示系数,以及min||x||0为0范数的最小值。通过系数分布获得运动模态和步态相位,即,根据系数最大元素i=1,2,…,lend,其中,lend为向量d的长度,n所对应的运动模态和步态相位即为当前人体和外骨骼所处的状态。举例来说,已知向量/>中共有lend个元素,对Di的子字典来说,有m个向量。假设/>中的数值最大的元素下标处于1至m之间,说明状态对应字典的D1部分,也就是第一个运动模式;假设/>中的数值最大的元素下标处于m+1至2m之间,说明状态对应字典的D2部分,也就是第二个运动模式。
本发明提供了一种基于字典学习与稀疏分解的外骨骼步态辨识方法,提供可同时辨识运动模式和行走相位的辨识框架。利用多人多模式数据提高辨识准确度,可适用于不同行走速度,从而为外骨骼控制器提供稳定可靠信息。因此,采用字典学习方法处理训练数据,可同时建模运动模式和行走相位,具备良好的扩展能力和适应能力;利用稀疏分解可以获得冗余字典上的简洁表示,在线应用时计算量小。
下文中,参考图2,以具体实例的方式,对外骨骼步态辨识进行详细描述。
基于字典学习与稀疏分解的外骨骼步态辨识方法,包含离线训练阶段和在线应用阶段,流程如图2所示,包括以下步骤:
第一步:运动数据准备,包括数据预处理和数据集准备。
采集多人在N个运动模式下的M维传感数据(参考图2的步骤S202),每种模式下采集L种运动速度下的运动数据,数据经过滤波和标度变化后,按照支撑前期、支撑中期、支撑后期、摆动前期、摆动后期等不同的步态相位进行数据标注。将数据分为训练数据(Data_Train)和测试数据(Data_Test)两组(参考图2的步骤S204)。具体地,运动模式为平地行走、上台阶、下台阶、上坡、下坡、站立、慢跑、快跑和蹲起等活动方式。步态相位为一个步态周期内的不同细分阶段,例如支撑前期、支撑中期、支撑后期、摆动前期、摆动后期等。步态周期为从一只脚着地到下一次着地之间的时间。
第二步:离线训练得到行走运动字典。
利用训练数据集Data_Train学习(参考图2的步骤S206)形成运动行走字典D(参考图2的步骤S208),学习方法可采用K-SVD、近似K-SVD或者贪婪自适应字典(GAD)等常用方法。运动行走字典D实际上是一个超完备空间,其每个元素di为超完备空间D的基。字典Di对应一种行走模式,其m个基为{dmi-m+1,dmi-m+2,...,dmi},如下式所示:
D=[D1 D2 ... DN],Di=[dmi-m+1 dmi-m+2 ... dmi]
第三步:在线求解。
在线采集的数据(参考图2的步骤S210)经过滤波和标度变换后,在行走运动字典上求解线性表示系数,求解最佳的稀疏表示或者稀疏逼近的过程,即求解式
min||x||0s.t.y=Dx,
其中D为第二步中训练的行走字典,y为在线采集的传感器数据经过滤波和标度变换之后的数据,x为y在字典D上的系数,||x||0为系数x的0-范数,min||x||0表示对系数x求稀疏解通过系数分布获得运动模态和步态相位(参考图2的步骤S212),即根据系数最大元素/>i=1,2,…,lend,其中,lend为向量d的长度,n所对应的运动模态和步态相位即为当前人体和外骨骼所处的状态。举例来说,已知向量/>中共有lend个元素,对Di的子字典来说,有m个向量。假设/>中的数值最大的元素下标处于1至m之间,说明状态对应字典的D1部分,也就是第一个运动模式;假设/>中的数值最大的元素下标处于m+1至2m之间,说明状态对应字典的D2部分,也就是第二个运动模式。
由于在线采集到传感器数据含有噪声等波动,无法通过求逆进行矩阵乘法获得,而且由于字典D是一个冗余字典,即字典的维数远大于原子的长度,所以求解min||x||0s.t.y=Dx是一个NP-hard问题,一般采用MOP、L1-magic等方法进行求解。
本发明构建了基于字典学习与稀疏分解的外骨骼步态辨识方法框架,从不同运动模式下、不同动作的大量数据中学习信号范式,离线阶段通过迭代学习形成行走字典,在线阶段利用稀疏分解进行步态辨识。本发明的方法可以高效处理高维时序运动数据,得到冗余字典上的简洁表示,在线应用过程中计算量小适用于实时处理。而且,本发明可同时建模不同运动模态和不同行走速度,因此能够为外骨骼控制提供模式切换、行走步态等可靠数据,具备良好的扩展能力和适应能力。
本发明的另一个具体实施例,公开了一种外骨骼步态辨识装置。参考图3,外骨骼步态辨识装置包括:数据获取模块302,用于离线采集多个穿戴式助力机器人在多个运动模式下的运动数据;预处理及数据划分模块304,用于对运动数据进行预处理并将预处理后的运动数据划分为训练数据集和测试数据集;运动行走字典构建模块306,用于利用训练数据集和测试数据集进行离线字典学习和测试以获得运动行走字典;以及求解及辨识模块308,用于基于预处理后的待辨识运动数据在运动行走字典上求解最佳稀疏表示以获取线性表示系数,并基于线性表示系数辨识运动模式和步态相位。
与现有技术相比,本发明至少可实现如下有益效果之一:
1、本申请从不同运动模式下、不同动作的大量数据中学习信号范式,离线阶段通过迭代学习形成行走字典,在线阶段利用稀疏分解进行步态辨识。
2、本申请可以高效处理高维时序运动数据,得到冗余字典上的简洁表示,在线应用过程中计算量小适用于实时处理。
3、本申请可同时建模不同运动模态和不同行走速度,因此能够为外骨骼控制提供模式切换、行走步态等可靠数据,具备良好的扩展能力和适应能力。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种外骨骼步态辨识装置,其特征在于,用于执行外骨骼步态辨识方法,包括:
数据获取模块,用于离线采集多个穿戴式助力机器人在多个运动模式下的运动数据,其中,离线采集多维运动数据包括:利用角度传感器分别采集左膝关节角度、右膝关节角度、左髋关节角度和右髋关节角度;利用压力传感器分别采集多个左足底压力和多个右足底压力;利用加速度传感器采集大腿和小腿部位的三维加速度;利用角速度传感器分别采集左小腿旋转角速度、右小腿旋转角速度、左大腿旋转角速度和右大腿旋转角速度;以及利用力传感器采集腿部人机交互力或背部人机交互力;
预处理及数据划分模块,用于对所述运动数据进行预处理并将预处理后的所述运动数据划分为训练数据集和测试数据集,其中,对所述运动数据进行预处理包括按照步态周期内的步态相位对规范化的运动数据进行标注,所述步态相位包括在一只脚着地到下一次着地之间的步态周期内的多个细分阶段,所述多个细分阶段包括支撑前期、支撑中期、支撑后期、摆动前期和摆动后期;所述步态相位的支撑前期、支撑中期、支撑后期、摆动前期、摆动后期与步态周期内第一时间段、第二时间段、第三时间段、第四时间段和第五时间段相对应,按照步态周期内第一时间段、第二时间段、第三时间段、第四时间段和第五时间段对规范化的运动数据进行标注;
运动行走字典构建模块,用于利用所述训练数据集和所述测试数据集进行离线字典学习和测试以获得运动行走字典,其中,离线阶段通过迭代学习形成行走字典;以及
求解及辨识模块,用于基于预处理后的待辨识运动数据在所述运动行走字典上在线求解最佳稀疏表示以获取线性表示系数,并基于所述线性表示系数辨识运动模式和步态相位,其中,基于预处理后的待辨识运动数据在所述运动行走字典上求解线性表示系数包括:
在所述穿戴式助力机器人运动的过程中,在线采集待辨识运动数据;
对所述待辨识运动数据行滑动平均滤波;
将滤波后的待辨识运动数据规范化为在区间[0,1]或[-1,1]之间的待辨识运动数据y;以及
通过以下公式求解所述线性表示系数:
min||x||0s.t.y=Dx,
其中,D为运动行走字典,x为线性表示系数,以及min||x||0为0范数的最小值。
2.根据权利要求1所述的外骨骼步态辨识装置,其特征在于,所述多个运动模式包括平地行走、上台阶、下台阶、上坡、下坡、站立、慢跑、快跑和蹲起。
3.根据权利要求2所述的外骨骼步态辨识装置,其特征在于,离线采集多个穿戴式助力机器人在多个运动模式下的运动数据进一步包括:在所述多个穿戴式助力机器人中的每个穿戴式助力机器人的运动模式分别为所述平地行走、所述上台阶、所述下台阶、所述上坡、所述下坡、所述站立、所述慢跑、所述快跑和所述蹲起时离线采集多维运动数据。
4.根据权利要求3所述的外骨骼步态辨识装置,其特征在于,所述运动行走字典D包括多个运动模式,其中,通过以下公式表示所述运动行走字典D:
D=[D1 D2 ... DN],
其中,字典D1、D2、…DN中的任一个对应于所述多个运动模式中的一个运动模式,以及N为所述运动模式的数量。
5.根据权利要求3所述的外骨骼步态辨识装置,其特征在于,字典Di中的每个元素为运动行走字典D的基,
Di=[dmi-m+1 dmi-m+2 ... dmi],
其中,m为Di中基向量的个数,每个基向量的长度由所采集的多维运动数据所决定,以及i为1至N之间的整数。
6.根据权利要求1所述的外骨骼步态辨识装置,其特征在于,对所述运动数据进行预处理进一步包括:
对所述运动数据进行滑动平均滤波;
将滤波后的运动数据规范化为在区间[0,1]或[-1,1]之间的运动数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011176382.5A CN114404214B (zh) | 2020-10-28 | 2020-10-28 | 一种外骨骼步态辨识装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011176382.5A CN114404214B (zh) | 2020-10-28 | 2020-10-28 | 一种外骨骼步态辨识装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114404214A CN114404214A (zh) | 2022-04-29 |
CN114404214B true CN114404214B (zh) | 2024-02-13 |
Family
ID=81260575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011176382.5A Active CN114404214B (zh) | 2020-10-28 | 2020-10-28 | 一种外骨骼步态辨识装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114404214B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103876756A (zh) * | 2014-04-18 | 2014-06-25 | 南京工程学院 | 下肢助力外骨骼机器人步态模式识别方法及系统 |
WO2015165260A1 (zh) * | 2014-04-29 | 2015-11-05 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
CN106821680A (zh) * | 2017-02-27 | 2017-06-13 | 浙江工业大学 | 一种基于下肢步态的上肢康复外骨骼控制方法 |
CN108921062A (zh) * | 2018-06-21 | 2018-11-30 | 暨南大学 | 一种联合多步态特征协同字典的步态识别方法 |
CN109753935A (zh) * | 2019-01-09 | 2019-05-14 | 中南大学 | 一种基于生成对抗图像补全网络的步态识别方法 |
CN110859629A (zh) * | 2019-10-29 | 2020-03-06 | 北京机械设备研究所 | 一种外骨骼步态辨识方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9163946B2 (en) * | 2009-07-28 | 2015-10-20 | CSR Technology Holdings Inc. | Methods and applications for motion mode detection for personal navigation systems |
US9314393B2 (en) * | 2011-04-08 | 2016-04-19 | Yonsei University Wonju Industry-Academic Cooperation Foundation | Active robotic gait-training system and method |
-
2020
- 2020-10-28 CN CN202011176382.5A patent/CN114404214B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103876756A (zh) * | 2014-04-18 | 2014-06-25 | 南京工程学院 | 下肢助力外骨骼机器人步态模式识别方法及系统 |
WO2015165260A1 (zh) * | 2014-04-29 | 2015-11-05 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
CN106821680A (zh) * | 2017-02-27 | 2017-06-13 | 浙江工业大学 | 一种基于下肢步态的上肢康复外骨骼控制方法 |
CN108921062A (zh) * | 2018-06-21 | 2018-11-30 | 暨南大学 | 一种联合多步态特征协同字典的步态识别方法 |
CN109753935A (zh) * | 2019-01-09 | 2019-05-14 | 中南大学 | 一种基于生成对抗图像补全网络的步态识别方法 |
CN110859629A (zh) * | 2019-10-29 | 2020-03-06 | 北京机械设备研究所 | 一种外骨骼步态辨识方法和装置 |
Non-Patent Citations (3)
Title |
---|
吴建宁 等.基于块稀疏贝叶斯学习的人体运动模式识别.《计算机应用》.2016,第36卷(第4期),第1040-1043页. * |
基于肌电信号稀疏特征的手势识别方法研究;李赵春;顾权;王玉成;;电子技术应用(第04期);全文 * |
李赵春 ; 顾权 ; 王玉成 ; .基于肌电信号稀疏特征的手势识别方法研究.电子技术应用.2020,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114404214A (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109953761B (zh) | 一种下肢康复机器人运动意图推理方法 | |
CN105320944B (zh) | 一种基于人体骨架运动信息的人体行为预测方法 | |
Zhou et al. | Hierarchical aligned cluster analysis for temporal clustering of human motion | |
CN107423730A (zh) | 一种基于语义折叠的人体步态行为主动检测识别系统和方法 | |
CN102819863B (zh) | 一种三维人体运动的实时在线获取方法及其系统 | |
CN105184767B (zh) | 一种运动人体姿态相似性度量方法 | |
CN101241600B (zh) | 一种运动捕捉技术中的链状骨骼匹配方法 | |
Kim et al. | Semi-supervised gait generation with two microfluidic soft sensors | |
CN106210269A (zh) | 一种基于智能手机的人体动作识别系统及方法 | |
CN106548194B (zh) | 二维图像人体关节点定位模型的构建方法及定位方法 | |
Wu et al. | Recognizing activities of the elderly using wearable sensors: A comparison of ensemble algorithms based on boosting | |
Yang et al. | Inertial sensing for lateral walking gait detection and application in lateral resistance exoskeleton | |
CN109086667A (zh) | 基于智能终端的相似活动识别方法 | |
CN112101242A (zh) | 一种基于姿势序列状态链的肢体动作识别方法 | |
Tu et al. | A Review of Human Motion Monitoring Methods using Wearable Sensors. | |
CN112487902B (zh) | 面向外骨骼的基于tcn-hmm的步态相位分类方法 | |
CN114404214B (zh) | 一种外骨骼步态辨识装置 | |
Dindo et al. | Hankelet-based action classification for motor intention recognition | |
CN116502069B (zh) | 一种基于深度学习的触觉时序信号识别方法 | |
CN105046193B (zh) | 一种基于融合稀疏表示矩阵的人体动作识别方法 | |
CN111539364A (zh) | 基于特征融合和多分类器投票的多体感人体行为识别算法 | |
Jiang et al. | Deep learning algorithm based wearable device for basketball stance recognition in basketball | |
Wang | Data feature extraction method of wearable sensor based on convolutional neural network | |
CN115019393A (zh) | 一种基于卷积神经网络的外骨骼机器人步态识别系统及方法 | |
Yu et al. | Walking simulation of biped robot on inclined plane based on gait recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |