CN111568432A - 基于模糊推理的全方位步行训练机器人的跌倒检测方法 - Google Patents

基于模糊推理的全方位步行训练机器人的跌倒检测方法 Download PDF

Info

Publication number
CN111568432A
CN111568432A CN202010378046.2A CN202010378046A CN111568432A CN 111568432 A CN111568432 A CN 111568432A CN 202010378046 A CN202010378046 A CN 202010378046A CN 111568432 A CN111568432 A CN 111568432A
Authority
CN
China
Prior art keywords
displacement
theta
fuzzy
moment
training robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010378046.2A
Other languages
English (en)
Other versions
CN111568432B (zh
Inventor
王义娜
熊文秋
杨俊友
刘中亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang University of Technology
Original Assignee
Shenyang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang University of Technology filed Critical Shenyang University of Technology
Publication of CN111568432A publication Critical patent/CN111568432A/zh
Application granted granted Critical
Publication of CN111568432B publication Critical patent/CN111568432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Remote Sensing (AREA)
  • Mathematical Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Optimization (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Fuzzy Systems (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Manipulator (AREA)

Abstract

基于模糊推理的全方位步行训练机器人的跌倒检测方法,(1)、采集实际的用户双脚距离激光传感器的位移数据,左脚位移记为,右脚位移记为;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为;(2)、对采集的数据进行预处理;(3)、将(2)步骤中得出预处理后的数据输入模糊规则知识库,计算安全状态下输出变量的模糊子集,得到安全状态下的输出变量,并根据该安全状态下的输出变量计算安全状态的隶属度;(4)、通过(3)步骤中隶属度来判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人。在使用步行训练机器人的时候,一旦检测到即将发生摔倒,步行训练机器人会立马检测到会停止,有效的避免了二次伤害的发生。

Description

基于模糊推理的全方位步行训练机器人的跌倒检测方法
技术领域
本方法是一种全方位步行训练机器人(WTR)跌倒检测设计方法,此方法通过用模糊推理法来检测人在行走过程中的状态,通过控制WTR的速度从而避免用户发生跌倒。
背景技术
人口老龄化是现代社会的一个重要人口特征,疾病和交通事故也导致残疾人数量增加,越来越多的人使用WTR训练下肢使之恢复行走能力。由于下肢肌肉无力,人们在使用WTR进行步行训练时容易摔倒,造成二次伤害。
发明内容
发明目的:本发明针对现有WTR跌倒检测技术的不足,提出一种改进模糊推理的方法检测人的跌倒,目的是防止老人或残疾人行走时受到二次伤害,使WTR的功能性和可靠性得到了有效的提升。
技术方案:本发明是按照以下技术方案实施的:
一种基于模糊推理的全方位步行训练机器人的跌倒检测方法,该步骤如下:
(1)、采集实际的用户双脚距离激光传感器的位移数据,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(2)、对(1)步骤中采集的数据进行预处理(Ll,、Lr和θx都处理);
(3)、将(2)步骤中得出预处理后的数据输入模糊规则知识库,计算安全状态下输出变量的模糊子集,得到安全状态下的输出变量,并根据该安全状态下的输出变量计算安全状态的隶属度;
(4)、通过(3)步骤中隶属度来判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人。
(1)步骤中采集的用户双脚距离激光传感器的位移使用2D激光传感器检测,其安装在WTR的底部、能够检测到用户双脚距离2D激光传感器的位移。
(3)步骤中的模糊规则知识库的建立方法如下:
(3-1)、收集历史的用户双脚距离激光传感器的位移,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(3-2)、对(3-1)步骤中采集的数据进行预处理;
(3-3)、利用预处理的数据,确定行走时Ll,Lr和θx的安全范围;
(3-4)、确定Ll,Lr和θx的隶属度函数;
(3-5)、建立模糊规则;
(3-6)、确定安全状态下的模糊规则的隶属度。
(3-3)步骤确定的安全范围为:当θx∈[70.4,87.8)更安全,当θx∈[87.8,+∞)时更危险;当Ll∈[316.9,552.8)时更安全,Ll∈[552.8,+∞)时更危险;Lr∈[322.3,554.8)时更安全,Lr∈[554.8,+∞)时更危险。
(3-4)步骤中确定Ll,Lr和θx的隶属度函数:
θx的隶属度函数:
Figure BDA0002475463210000021
Ll的隶属度函数:
Figure BDA0002475463210000022
Lr的隶属度函数:
Figure BDA0002475463210000031
模糊分布满足正态分布形式的隶属度函数为:
Figure BDA0002475463210000032
其中e就是自然对数函数的底数,是常数。
(3-5)、步骤中的模糊规则为:θs∈[70.4,87.8],θd∈[87.8,+∞];Ls∈[316.9,552.8],Ld∈[552.8,+∞];Rs∈[322.3,554.8],Rd∈[554.8,+∞]。
确定安全状态下的模糊规则的隶属度为:
Figure BDA0002475463210000033
(2)步骤、(3-2)步骤中的预处理就是对数据进行预处理:
ΔLt=Lt+1-Lt (1)
式中:ΔLt为单位时间距离差,Lt+1为第t+1秒的移动距离,Lt为第t秒的移动距离;
Δθt=θt+1t (2)
式中:Δθt为单位时间姿态角度差,θt+1为第t+1秒的偏移角度,θt为第t秒的姿态角度;
Figure BDA0002475463210000034
Figure BDA0002475463210000035
式中:Ll为标准化处理后左脚位移值;Llt为左脚在t时刻移动的位移值;Ll(t+1)为左脚在t+1时刻移动的位移值;ΔLlt为左脚在t时刻与t-1时刻移动的位移差值;Ll(t+1)为左脚在t+1时刻与t时刻移动的位移差值;ΔLl1 2为右脚第1秒移动位移的平方;ΔLl(t+1) 2为左脚t+1时刻与t时刻步行位移差值的平方;Lr为标准化处理后右脚位移值;Lrt为右脚在t时刻移动的位移值;Lr(t+1)为右脚在t+1时刻移动的位移值;ΔLlt为右脚在t时刻与t-1时刻移动的位移差值;ΔLr(t+1)右脚在t+1时刻与t时刻移动的位移差值;ΔLr1 2为右脚第1秒移动位移的平方;ΔLr(t+1) 2为右脚t+1时刻与t时刻步行位移差值的平方;n为步行总时间;
Figure BDA0002475463210000041
式中:θx为标准化处理后的姿态角度;θt为t时刻的姿态角度;θ(t+1)为t+1时刻的姿态角度;Δθt为t时刻与t-1时刻的姿态角度差值;Δθ(t+1)为t+1时刻与t时刻的姿态角度差值;Δθ1 2为姿态角第1秒变化角度的平方;Δθ(t+1) 2为姿态角第t+1秒变化角度的平方;n为姿态角变化总时间。
(3)步骤中计算安全状态下输出变量的模糊子集,得到安全状态的输出变量:
安全状态的模糊矩阵为:
R=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (6)
安全状态输出变量U的模糊子集Ui通过推理合成规则计算,通过计算得到安全状态输出变量U的输出:(输出就是安全状态的输出变量U,它是所有模糊规则的输出,用U表示)
U=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (7)
安全状态的输出变量U包含所有模糊子集Ui的输出,用U表示。
(4)、通过安全状态输出变量,计算安全状态的隶属度,并根据隶属度判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人:
通过加权平均法获得安全状态隶属度函数:
Figure BDA0002475463210000051
式中:R是安全状态的模糊矩阵;UT是安全状态的输出变量U的转置;U1j是安全状态的每一个输出变量;μ(x)是用户处于安全状态下的隶属度。
因此,当μ(x)≥0.7,判断用户处于安全状态。为了避免摔倒,根据使用者的状态来控制助行器的速度。
优点及效果:
针对目前所存在的问题,为防止二次伤害,本申请提出一种基于模糊推理的全方位步行训练机器人的跌倒检测方法,模糊推理的跌倒检测方法主要利用WTR作为跌倒检测研究实验平台,WTR的信息采集模块为姿态传感器和激光传感器。WTR的传动机构由4个万向轮组成。具体而言,姿态传感器和2D激光传感器用于检测用户的上身姿态和步态信息,基于两个传感器的信息融合,建立了区分正常行走状态和一种跌倒状态的模糊知识库。最后,通过实验验证了该方法的有效性。
综上,本发明是在建立知识库时,需要利用历史数据确定安全范围至建立模糊规则,然后实际控制中,至需要将采集的实际数据代入知识库中确定安全状态下的模糊规则隶属度,并最终利用模糊子集用加权平均法计算安全状态隶属度。
通过本发明的实施,助行训练机器人可以准确的检测到用户在使用步行训练机器人时的状态,并且识别率较高,用户也大大降低了造成二次伤害的概率,机器人的性能得到了提高。在使用步行训练机器人的时候,一旦检测到即将发生摔倒,步行训练机器人会立马检测到会停止,有效的避免了二次伤害的发生。
附图说明
图1为本发明助行器实验平台示意图。
图2为本发明激光扫描坐标建模示意图。
图3为本发明姿态传感器穿戴位置示意图。
图4为本发明用户在使用WTR从正常行走到向前摔倒示意图。
图5为本发明模糊推理流程示意图。
图6为本发明标准化处理的θx,Ll,Lr示意图。
图7为本发明步态信息示意图。
图8为本发明角度信息示意图。
图9为本发明θx,Ll,Lr的隶属函数图示意图。
图10为本发明跌倒检测控制流程示意图。
图11为本发明试验者A的检测结果示意图。
图12为本发明试验者B的检测结果示意图。
具体实施方式
一种基于模糊推理的全方位步行训练机器人的跌倒检测方法,该方法步骤如下:
(1)、采集实际的用户双脚距离激光传感器的位移数据,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(2)、对(1)步骤中采集的数据进行预处理(Ll,、Lr和θx都处理);
(3)、将(2)步骤中得出预处理后的数据输入模糊规则知识库,计算安全状态下输出变量的模糊子集,得到安全状态下的输出变量,并根据该安全状态下的输出变量计算安全状态的隶属度;
(4)、通过(3)步骤中隶属度来判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人。
(1)步骤中采集的用户双脚距离激光传感器的位移使用2D激光传感器检测,其安装在全方位步行训练机器人的底部、能够检测到用户双脚距离2D激光传感器的位移。
(3)步骤中的模糊规则知识库的建立方法如下:
(3-1)、收集历史的用户双脚距离激光传感器的位移,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(3-2)、对(3-1)步骤中采集的数据进行预处理;
(3-3)、利用预处理的数据,确定行走时Ll,Lr和θx的安全范围;
(3-4)、确定Ll,Lr和θx的隶属度函数;
(3-5)、建立模糊规则;
(3-6)、确定安全状态下的模糊规则的隶属度。
(3-3)步骤确定的安全范围为:当θx∈[70.4,87.8)更安全,当θx∈[87.8,+∞)时更危险;当Ll∈[316.9,552.8)时更安全,Ll∈[552.8,+∞)时更危险;Lr∈[322.3,554.8)时更安全,Lr∈[554.8,+∞)时更危险。
(3-4)步骤中确定Ll,Lr和θx的隶属度函数:
θx的隶属度函数:
Figure BDA0002475463210000071
Ll的隶属度函数:
Figure BDA0002475463210000081
Lr的隶属度函数:
Figure BDA0002475463210000082
模糊分布满足正态分布形式的隶属度函数为:
Figure BDA0002475463210000083
其中e就是自然对数函数的底数,是常数。
(3-5)、步骤中的模糊规则为:θs∈[70.4,87.8],θd∈[87.8,+∞];Ls∈[316.9,552.8],Ld∈[552.8,+∞];Rs∈[322.3,554.8],Rd∈[554.8,+∞]。
确定安全状态下的模糊规则的隶属度为:
Figure BDA0002475463210000084
(2)步骤、(3-2)步骤中的预处理就是对数据进行预处理:
ΔLt=Lt+1-Lt (1)
式中:ΔLt为单位时间距离差,Lt+1为第t+1秒的移动距离,Lt为第t秒的移动距离;
Δθt=θt+1t (2)
式中:Δθt为单位时间姿态角度差,θt+1为第t+1秒的偏移角度,θt为第t秒的姿态角度;
Figure BDA0002475463210000091
Figure BDA0002475463210000092
式中:Ll为标准化处理后左脚位移值;Llt为左脚在t时刻移动的位移值;Ll(t+1)为左脚在t+1时刻移动的位移值;ΔLlt为左脚在t时刻与t-1时刻移动的位移差值;Ll(t+1)为左脚在t+1时刻与t时刻移动的位移差值;ΔLl1 2为右脚第1秒移动位移的平方;ΔLl(t+1) 2为左脚t+1时刻与t时刻步行位移差值的平方;Lr为标准化处理后右脚位移值;Lrt为右脚在t时刻移动的位移值;Lr(t+1)为右脚在t+1时刻移动的位移值;ΔLlt为右脚在t时刻与t-1时刻移动的位移差值;ΔLr(t+1)右脚在t+1时刻与t时刻移动的位移差值;ΔLr1 2为右脚第1秒移动位移的平方;ΔLr(t+1) 2为右脚t+1时刻与t时刻步行位移差值的平方;n为步行总时间;
Figure BDA0002475463210000093
式中:θx为标准化处理后的姿态角度;θt为t时刻的姿态角度;θ(t+1)为t+1时刻的姿态角度;Δθt为t时刻与t-1时刻的姿态角度差值;Δθ(t+1)为t+1时刻与t时刻的姿态角度差值;Δθ1 2为姿态角第1秒变化角度的平方;Δθ(t+1) 2为姿态角第t+1秒变化角度的平方;n为姿态角变化总时间。
(3)步骤中计算安全状态下输出变量的模糊子集,得到安全状态的输出变量:
安全状态的模糊矩阵为:
R=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (6)
安全状态输出变量U的模糊子集Ui通过推理合成规则计算,通过计算得到安全状态输出变量U的输出:(输出就是安全状态的输出变量U,它是所有模糊规则的输出,用U表示)
U=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (7)
安全状态的输出变量U包含所有模糊子集Ui的输出,用U表示。
(4)、通过安全状态输出变量,计算安全状态的隶属度,并根据隶属度判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人:
通过加权平均法获得安全状态隶属度函数:
Figure BDA0002475463210000101
式中:R是安全状态的模糊矩阵;UT是安全状态的输出变量U的转置;U1j是安全状态的每一个输出变量;μ(x)是用户处于安全状态下的隶属度。
因此,当μ(x)≥0.7,判断用户处于安全状态。为了避免摔倒,根据使用者的状态来控制助行器的速度。
下面结合附图对本发明做进一步详细说明:
本发明使用了全向轮步行训练机器人作为实验平台、2D激光传感器和姿态传感器用于采集数据。安装在助行器底部的2D激光传感器用于检测用户双脚离开2D激光传感器的位移,左脚位移记为Ll,右脚位移记为Lr。姿态传感器穿戴在人的胸脯位置,根据多次实验可知,人在行走到向前跌倒过程中,Roll绕地球坐标系X旋转的角度变化最明显。因此,选择Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
对特征点的观察发现,正常行走过程中用户的和的数据符合正态分布。对实验数据进行标准化处理:
ΔLt=Lt+1-Lt (1)
式中:ΔLt为单位时间距离差,Lt+1为第t+1秒的移动距离,Lt为第t秒的移动距离;
Δθt=θt+1t (2)
式中:Δθt为单位时间姿态角度差,θt+1为第t+1秒的偏移角度,θt为第t秒的姿态角度;
Figure BDA0002475463210000111
Figure BDA0002475463210000112
式中:Ll为标准化处理后左脚位移值;Llt为左脚在t时刻移动的位移值;Ll(t+1)为左脚在t+1时刻移动的位移值;ΔLlt为左脚在t时刻与t-1时刻移动的位移差值;Ll(t+1)为左脚在t+1时刻与t时刻移动的位移差值;ΔLl1 2为右脚第1秒移动位移的平方;ΔLl(t+1) 2为左脚t+1时刻与t时刻步行位移差值的平方;Lr为标准化处理后右脚位移值;Lrt为右脚在t时刻移动的位移值;Lr(t+1)为右脚在t+1时刻移动的位移值;ΔLlt为右脚在t时刻与t-1时刻移动的位移差值;ΔLr(t+1)右脚在t+1时刻与t时刻移动的位移差值;ΔLr1 2为右脚第1秒移动位移的平方;ΔLr(t+1) 2为右脚t+1时刻与t时刻步行位移差值的平方;n为步行总时间;
Figure BDA0002475463210000113
式中:θx为标准化处理后的姿态角度;θt为t时刻的姿态角度;θ(t+1)为t+1时刻的姿态角度;Δθt为t时刻与t-1时刻的姿态角度差值;Δθ(t+1)为t+1时刻与t时刻的姿态角度差值;Δθ1 2为姿态角第1秒变化角度的平方;Δθ(t+1) 2为姿态角第t+1秒变化角度的平方;n为姿态角变化总时间。
对于用户从正常行走到跌倒的过程,由于过程具有突发性和不确定性,通过有限的实验获得的安全范围并不具有代表性。因此,我们采用模糊推理的方法来判断人的当前状态,模糊推理是一种用于解决模糊现象的推理方法,是基于行为的仿生推理过程,并建立合理的模糊规则知识库来更准确有效地判断人的行走状态,避免老人或者残疾人在行走过程中发生跌倒。
对所测的θx,Ll,Lr进行标准化处理如图6所示,处理后的数据集中在0左右,方差为1。用户向前移动时,对提取的步态和角度数据进行处理,步态信息如图7所示,角度信息如图8所示。通过公式(3),(4),(5)获得
θx,Ll,Lr的隶属函数如下表所示:
表1 θx的隶属度函数
Figure BDA0002475463210000121
表2 Ll的隶属度函数
Figure BDA0002475463210000122
表3 Lr的隶属度函数
Figure BDA0002475463210000123
根据表1、2和3,绘制如图9所示的隶属函数图。可以看出,当θx∈[70.4,87.8),μ(x)安全>μ(x)危险,当θx∈[87.8,+∞),μ(x)安全<μ(x)危险。因此,根据最大隶属度原则可知当θx∈[70.4,87.8)更安全,当θx∈[87.8,+∞)时更危险。同理,当Ll∈[316.9,552.8)时更安全,Ll∈[552.8,+∞)时更危险;Lr∈[322.3,554.8)时更安全,Lr∈[554.8,+∞)时更危险。
根据隶属函数建立模糊规则来判断用户的行走状态,为了更好地描述规则,我们规定:θs∈[70.4,87.8],θd∈[87.8,+∞];Ls∈[316.9,552.8],Ld∈[552.8,+∞];Rs∈[322.3,554.8],Rd∈[554.8,+∞]。因此,可以建立8种模糊规则如表4所示,通过大量实验,每个规则下的安全状态隶属度如下:
表4安全状态下模糊规则的隶属度
Figure BDA0002475463210000131
根据表4,安全状态的模糊矩阵为:
R=[1 0.7 0.7 0.3 0.7 0.3 0.3 0]
安全行走的模糊矩阵R通过表获得,安全状态输出变量U的模糊子集通过推理合成规则计算,安全状态下的输出如表所示:
U=[1 0.7 0.7 0.3 0.7 0.3 0.3 0]
通过加权平均法获得:
Figure BDA0002475463210000132
因此,当μ(x)≥0.7,判断用户处于安全状态。为了避免摔倒,根据使用者的状态来控制助行器的速度,控制框图如图10所示;具体的说:当μ(x)>0.7时,控制全方位步行训练机器人保持行进速度,当μ(x)等于0.7时,控制全方位步行训练机器人减速,减速至μ(x)>0.7后继续保持,当μ(x)<0.7时,控制全方位步行训练机器人减速至停止。
摔倒检测实验中,为了验证所提出方法的有效性,我们招募了两个健康受试者(一男一女),记为A、B。受试者的平均年龄为24岁,平均身高为170cm,平均体重为61.5kg,所有受试者都有相似的行走习惯,实验环境相似。受试者A实验结果如图11所示,在9s时,θx已经超出了安全范围,但Ll和Lr仍然在安全范围内。查询模糊规则表,μ(x)=0.7,受试者没有摔倒。在9.4s时,Ll和Lr超出了安全范围。查询模糊规则表,μ(x)=0,检测到试验者A摔倒。受试者B实验结果如图12所示,在8.6s时,θx和Ll超出了安全范围,但Lr没有超出安全范围。查询模糊规则表,μ(x)=0.3,检测到试验者B摔倒。
通过以上两组实验,可以得出结论,在相似实验环境的前提下,本研究可以检测不同安全等级的用户行走时的跌倒情况,同时本研究也适用于一般人群,选择10名不同年龄的人作为研究对象,他们的身体状况不同。每个人都被要求在使用WTR时模拟7次向前跌落,一共有66次检测到摔倒状态,故识别率为:
Figure BDA0002475463210000141
由此可见,这种基于模糊推理的全方位步行训练机器人的跌倒检测方法能将摔倒检测率提高到94.3%。

Claims (10)

1.一种基于模糊推理的全方位步行训练机器人的跌倒检测方法,该方法步骤如下:
(1)、采集实际的用户双脚距离激光传感器的位移数据,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(2)、对(1)步骤中采集的数据进行预处理;
(3)、将(2)步骤中得出预处理后的数据输入模糊规则知识库,计算安全状态下输出变量的模糊子集,得到安全状态下的输出变量,并根据该安全状态下的输出变量计算安全状态的隶属度;
(4)、通过(3)步骤中隶属度来判断用户的安全状态。
2.根据权利要求1所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:
(1)步骤中采集的用户双脚距离激光传感器的位移使用2D激光传感器检测,其安装在全方位步行训练机器人的底部、能够检测到用户双脚距离2D激光传感器的位移。
3.根据权利要求1所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:(3)步骤中的模糊规则知识库的建立方法如下:
(3-1)、收集历史的用户双脚距离激光传感器的位移,左脚位移记为Ll,右脚位移记为Lr;采集Roll绕地球坐标系X旋转的角度作为目标变量,记为θx
(3-2)、对(3-1)步骤中采集的数据进行预处理;
(3-3)、利用预处理的数据,确定行走时Ll,Lr和θx的安全范围;
(3-4)、确定Ll,Lr和θx的隶属度函数;
(3-5)、建立模糊规则;
(3-6)、确定安全状态下的模糊规则的隶属度。
4.根据权利要求3所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:(3-3)步骤确定的安全范围为:当θx∈[70.4,87.8)更安全,当θx∈[87.8,+∞)时更危险;当Ll∈[316.9,552.8)时更安全,Ll∈[552.8,+∞)时更危险;Lr∈[322.3,554.8)时更安全,Lr∈[554.8,+∞)时更危险。
5.根据权利要求3所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:(3-4)步骤中确定Ll,Lr和θx的隶属度函数:
θx的隶属度函数:
Figure FDA0002475463200000021
Ll的隶属度函数:
Figure FDA0002475463200000022
Lr的隶属度函数:
Figure FDA0002475463200000031
6.根据权利要求5所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:(3-5)、步骤中的模糊规则为:θs∈[70.4,87.8],θd∈[87.8,+∞];Ls∈[316.9,552.8],Ld∈[552.8,+∞];Rs∈[322.3,554.8],Rd∈[554.8,+∞]。
7.根据权利要求5所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:确定安全状态下的模糊规则的隶属度为:
Figure FDA0002475463200000032
8.根据权利要求1或3所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:
(2)步骤、(3-2)步骤中的预处理就是对数据进行预处理:
ΔLt=Lt+1-Lt (1)
式中:ΔLt为单位时间距离差,Lt+1为第t+1秒的移动距离,Lt为第t秒的移动距离;
Δθt=θt+1t (2)
式中:Δθt为单位时间姿态角度差,θt+1为第t+1秒的偏移角度,θt为第t秒的姿态角度;
Figure FDA0002475463200000041
Figure FDA0002475463200000042
式中:Ll为标准化处理后左脚位移值;Llt为左脚在t时刻移动的位移值;Ll(t+1)为左脚在t+1时刻移动的位移值;ΔLlt为左脚在t时刻与t-1时刻移动的位移差值;ΔLl(t+1)为左脚在t+1时刻与t时刻移动的位移差值;ΔLl1 2为右脚第1秒移动位移的平方;ΔLl(t+1) 2为左脚t+1时刻与t时刻步行位移差值的平方;Lr为标准化处理后右脚位移值;Lrt为右脚在t时刻移动的位移值;Lr(t+1)为右脚在t+1时刻移动的位移值;ΔLlt为右脚在t时刻与t-1时刻移动的位移差值;ΔLr(t+1)右脚在t+1时刻与t时刻移动的位移差值;ΔLr1 2为右脚第1秒移动位移的平方;ΔLr(t+1) 2为右脚t+1时刻与t时刻步行位移差值的平方;n为步行总时间;
Figure FDA0002475463200000043
式中:θx为标准化处理后的姿态角度;θt为t时刻的姿态角度;θ(t+1)为t+1时刻的姿态角度;Δθt为t时刻与t-1时刻的姿态角度差值;Δθ(t+1)为t+1时刻与t时刻的姿态角度差值;Δθ1 2为姿态角第1秒变化角度的平方;Δθ(t+1) 2为姿态角第t+1秒变化角度的平方;n为姿态角变化总时间。
9.根据权利要求1所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:(3)步骤中计算安全状态下输出变量的模糊子集,得到安全状态的输出变量:
安全状态的模糊矩阵为:
R=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (6)
安全状态输出变量U的模糊子集Ui通过推理合成规则计算,通过计算得到安全状态输出变量U的输出:
U=[1 0.7 0.7 0.3 0.7 0.3 0.3 0] (7) 。
10.根据权利要求9所述的基于模糊推理的全方位步行训练机器人的跌倒检测方法,其特征在于:
通过安全状态输出变量,计算安全状态的隶属度,并根据隶属度判断用户的安全状态,进而根据所述安全状态控制全方位步行训练机器人:
通过加权平均法获得安全状态隶属度函数:
Figure FDA0002475463200000051
式中:R是安全状态的模糊矩阵;UT是安全状态的输出变量U的转置;U1j是安全状态的每一个输出变量;μ(x)是用户处于安全状态下的隶属度;
因此,当μ(x)≥0.7,判断用户处于安全状态;为了避免摔倒,根据使用者的状态来控制助行器的速度。
CN202010378046.2A 2020-04-06 2020-04-30 基于模糊推理的全方位步行训练机器人的跌倒检测方法 Active CN111568432B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2020102623784 2020-04-06
CN202010262378 2020-04-06

Publications (2)

Publication Number Publication Date
CN111568432A true CN111568432A (zh) 2020-08-25
CN111568432B CN111568432B (zh) 2023-04-07

Family

ID=72126297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010378046.2A Active CN111568432B (zh) 2020-04-06 2020-04-30 基于模糊推理的全方位步行训练机器人的跌倒检测方法

Country Status (1)

Country Link
CN (1) CN111568432B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112842277A (zh) * 2021-02-08 2021-05-28 上海理工大学 一种基于多序贯概率比检验的跌倒检测方法及装置
CN117171606A (zh) * 2023-09-04 2023-12-05 北京泛源时空科技有限公司 一种基于自适应模糊推理的行人多步态模式识别方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120018A (ja) * 1991-10-24 1993-05-18 Matsushita Electric Ind Co Ltd フアジイ推論装置
JPH09276255A (ja) * 1996-04-18 1997-10-28 Mitsuhiko Hasegawa 逆解析手法による多関節筋力特性の測定法
CN104217107A (zh) * 2014-08-27 2014-12-17 华南理工大学 一种基于多传感器信息仿人机器人跌倒状态检测方法
US20140375461A1 (en) * 2008-06-27 2014-12-25 Neal T. RICHARDSON Autonomous Fall Monitor
CN105476640A (zh) * 2015-12-21 2016-04-13 青岛中科慧康科技有限公司 智能手表健康安全检测算法
CN108247630A (zh) * 2017-12-01 2018-07-06 西安电子科技大学 基于贝叶斯网络模型的移动机器人避障方法
CN108635182A (zh) * 2018-05-31 2018-10-12 广东智爱机器人科技有限公司 步行训练装置及步行训练系统
CN109069066A (zh) * 2015-09-28 2018-12-21 卡斯西部储备大学 可穿戴和连接的步态分析系统
CN110327187A (zh) * 2019-07-10 2019-10-15 河北工业大学 一种外骨骼的带先验力矩无模型控制方法
CN110464315A (zh) * 2019-07-23 2019-11-19 闽南理工学院 一种融合多传感器的老年人摔倒预测方法和装置
US20190358821A1 (en) * 2018-05-25 2019-11-28 Panasonic Corporation Walking training robot

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120018A (ja) * 1991-10-24 1993-05-18 Matsushita Electric Ind Co Ltd フアジイ推論装置
JPH09276255A (ja) * 1996-04-18 1997-10-28 Mitsuhiko Hasegawa 逆解析手法による多関節筋力特性の測定法
US20140375461A1 (en) * 2008-06-27 2014-12-25 Neal T. RICHARDSON Autonomous Fall Monitor
CN104217107A (zh) * 2014-08-27 2014-12-17 华南理工大学 一种基于多传感器信息仿人机器人跌倒状态检测方法
CN109069066A (zh) * 2015-09-28 2018-12-21 卡斯西部储备大学 可穿戴和连接的步态分析系统
CN105476640A (zh) * 2015-12-21 2016-04-13 青岛中科慧康科技有限公司 智能手表健康安全检测算法
CN108247630A (zh) * 2017-12-01 2018-07-06 西安电子科技大学 基于贝叶斯网络模型的移动机器人避障方法
US20190358821A1 (en) * 2018-05-25 2019-11-28 Panasonic Corporation Walking training robot
CN108635182A (zh) * 2018-05-31 2018-10-12 广东智爱机器人科技有限公司 步行训练装置及步行训练系统
CN110327187A (zh) * 2019-07-10 2019-10-15 河北工业大学 一种外骨骼的带先验力矩无模型控制方法
CN110464315A (zh) * 2019-07-23 2019-11-19 闽南理工学院 一种融合多传感器的老年人摔倒预测方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KWOLEK, BOGDAN: "Fuzzy inference-based fall detection using kinect and body-worn accelerometer", 《APPLIED SOFT COMPUTING》 *
RAMOS, FERNANDO: "Simulator for Learning Symbolically about the Behavior of Motion in Bipedal Robots", 《INTERNATIONAL JOURNAL OF ENGINEERING EDUCATION》 *
赵东辉: "基于规则进化模糊系统的步行方向意图识别", 《仪器仪表学报》 *
骆俊文: "智能家居监控机器人", 《中国优秀硕士学位论文全文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112842277A (zh) * 2021-02-08 2021-05-28 上海理工大学 一种基于多序贯概率比检验的跌倒检测方法及装置
CN112842277B (zh) * 2021-02-08 2022-08-09 上海理工大学 一种基于多序贯概率比检验的跌倒检测方法及装置
CN117171606A (zh) * 2023-09-04 2023-12-05 北京泛源时空科技有限公司 一种基于自适应模糊推理的行人多步态模式识别方法
CN117171606B (zh) * 2023-09-04 2024-05-28 北京泛源时空科技有限公司 一种基于自适应模糊推理的行人多步态模式识别方法

Also Published As

Publication number Publication date
CN111568432B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN111568432B (zh) 基于模糊推理的全方位步行训练机器人的跌倒检测方法
Han et al. Gait phase detection for normal and abnormal gaits using IMU
Begg et al. Support vector machines for automated gait classification
Li et al. Pre-impact fall detection based on a modified zero moment point criterion using data from Kinect sensors
CN109166275B (zh) 一种基于加速度传感器的人体跌倒检测方法
CN108509897A (zh) 一种人体姿态识别方法和系统
US20020028003A1 (en) Methods and systems for distinguishing individuals utilizing anatomy and gait parameters
KR102107379B1 (ko) 3축 동작측정기를 이용한 노쇠 예측 방법, 3축 동작측정기를 이용한 노쇠 예측 시스템 및 웨어러블 노쇠 예측 장치
CN103800016B (zh) 基于视触觉结合的人体身份步态识别系统及其识别方法
CN106887115A (zh) 一种老人跌倒监测装置及跌倒风险评估方法
CN108629304B (zh) 一种冻结步态在线检测方法
CN112115827A (zh) 基于人体姿态动态特征的跌倒行为识别方法
CN110946585A (zh) 一种基于数据融合和bp神经网络的跌倒检测系统及方法
CN113850104A (zh) 用于肢体的运动模式识别方法
Tao et al. A real-time intelligent shoe system for fall detection
CN110313918A (zh) 一种基于足底压力的步态相位识别方法及系统
CN107169512A (zh) Hmm‑svm跌倒模型的构建方法及基于该模型的跌倒检测方法
Lou et al. IMU-based gait phase recognition for stroke survivors
Song et al. Adaptive neural fuzzy reasoning method for recognizing human movement gait phase
CN114881079A (zh) 面向穿戴式传感器的人体运动意图异常检测方法及系统
CN114224326A (zh) 一种穿戴式步态相位和动作识别装置及方法
Choi et al. Gait type classification using smart insole sensors
Wang et al. A new fall detection method based on fuzzy reasoning for an omni-directional walking training robot
Novak et al. Early recognition of gait initiation and termination using wearable sensors
JP2010207485A (ja) 運動強度推定システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant