CN104217107B - 一种基于多传感器信息仿人机器人跌倒状态检测方法 - Google Patents
一种基于多传感器信息仿人机器人跌倒状态检测方法 Download PDFInfo
- Publication number
- CN104217107B CN104217107B CN201410428085.3A CN201410428085A CN104217107B CN 104217107 B CN104217107 B CN 104217107B CN 201410428085 A CN201410428085 A CN 201410428085A CN 104217107 B CN104217107 B CN 104217107B
- Authority
- CN
- China
- Prior art keywords
- robot
- information
- fuzzy
- zmp
- attitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Manipulator (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了基于多传感器仿人机器人跌倒状态检测方法,该方法包括:通过融合机器人当前的步行状态,姿态信息和ZMP点位置信息,利用模糊决策系统对机器人当前稳定性进行判定。判定结果包括9种状态:可控状态,向前跌倒,向后跌倒,向左跌倒,向右跌倒,向左前跌倒,向左后跌倒,向右前跌倒和向右后跌倒。该方法适用于仿人机器人在快要摔倒的时候,判断仿人机器人是否处于可控状态,并在机器人不可控时获得仿人机器人摔倒的方向,从而为仿人机器人产生相应的保护动作提供依据。本发明能够真实的反映出机器人运动的稳定情况,可靠性和判定准确率较高。
Description
技术领域
本发明涉及仿人机器人状态检测技术领域,具体涉及一种基于多传感器信息仿人机器人跌倒状态检测方法。
背景技术
在仿人机器人步行的时候,需要时刻对仿人机器人的稳定状态进行判定。当机器人有跌倒的倾向的时候,需要通过反馈控制相应的关节来阻止机器人摔倒。当机器人已经快要摔倒时,此时机器人的状态已超出了可控的范围,需要让机器人以损伤最小的姿态倒地。
只有获得机器人跌倒时的真实运动状态,才能实施有效的控制策略来防止机器人跌倒或在跌倒时采取保护措施来防止机器人损伤。判定机器人当前的状态是否可控,即是否要跌倒以及机器人跌倒的方向,需要一个复杂的判定过程。目前也有一些研究对机器人摔倒状态进行了研究。
由于机器人在行走过程中会影响姿态传感器信息,所以只利用姿态信息来进行机器人稳定性和可控性的判定是不全面的。如果只依据ZMP点位置信息也不可行,因为只有机器人的脚底和地面完全接触,才能利用FSR传感器得到有效的ZMP信息。因此,采用一个综合的判定方法能大大增加判定的准确率,加快整个判定过程。
发明内容
为解决上述相关技术的不足,本发明提出了基于多传感器信息仿人机器人跌倒状态检测方法,利用机器人的步行阶段信息,姿态信息和ZMP点位置信息综合判定机器人稳定性的方法。使用该方法能够实时地融合机器人步态阶段信息,姿态信息和ZMP点位置信息,并利用模糊决策系统对机器人当前稳定性和可控性进行快速判定,即可实现机器人在活动状态或静止状态下的稳定性和可控性判定,机器人使用这种检测方法可以快速判定机器人是否可控,即是否要跌倒和将要跌倒的方向,为机器人下一步动作提供参考。
本发明提供一种分层式的仿人机器人多传感器信息融合模型,该系统能判定机器人综合的稳定性,包含如下步骤:
(1)通过对姿态传感器信息、零力矩点ZMP传感器信息和机器人步行阶段信息进行融合,建立分层结构的传感器信息融合模型,从而实现仿人机器人稳定性判定;
(2)利用模糊决策系统将输入的步行阶段、姿态信息、ZMP点位置信息进行融合分析,得出最终的对机器人稳定状态的判定;其中,把机器人步行阶段作为模糊决策系统输入之一;把仿人机器人姿态信息作为模糊决策系统输入之一;把ZMP点位置信息作为模糊决策系统输入之一。
进一步的,步骤(1)所述分层结构的传感器信息融合模型包括低层数据层信息融合模型和高层决策层融合模型,其中低层数据层信息融合模型分别是步行阶段融合模型、姿态传感器信息融合模型和FSR传感器信息计算模型;高层决策层融合模型完成对机器人稳定性进行综合判定:根据融合后的姿态信息、ZMP信息和机器人行走的步行阶段数据共同建立模糊决策系统,模糊决策系统用来判定机器人是否处于不可控的状态,从而为机器人控制提供决策的依据。
进一步的,步骤(2)所述的模糊决策系统的判定过程是:将步行阶段信息、姿态信息和ZMP点位置信息作为模糊决策的输入,通过模糊决策后得到5种判定结果作为输出:可控状态,向左倒下,向右倒下,向前倒下,向后倒下;由于判定机器人是否前后倒下,主要和前后方向的姿态信息和前后方向的ZMP点位置信息有关,和左右方向的数据没有太大关系;同理左右方向上的姿态信息和左右方向上的ZMP点位置和前后方向的数据也没有太大关系;所以前后方向倒和左右方向倒的判定,分用前后模糊决策系统和左右模糊决策系统来完成。
进一步的,所述前后模糊决策系统判定机器人在前后方向的稳定性,具体步骤如下:
①根据机器人支撑脚和地面之间的接触情况与离线步态规划确定机器人步行阶段;
②利用模糊推理算法对ZMP点位置信息进行模糊化;
③利用模糊推理算法对机器人的俯仰角进行模糊化;
④确定输出隶属函数;
⑤根据步骤①~步骤④确定模糊推理规则;
⑥去模糊化;
所述左右模糊决策系统判定机器人在左右方向的稳定性,具体步骤如下:
①根据机器人支撑脚和地面之间的接触情况与离线步态规划确定机器人步行阶段;
②利用模糊推理算法对ZMP点位置信息进行模糊化;
③利用模糊推理算法对机器人的绕x轴滚动角进行模糊化;
④确定输出隶属函数;
⑤根据步骤①~步骤④确定模糊推理规则;
⑥去模糊化。
进一步的,步骤(2)所述机器人步行阶段根据离线步态规划和力传感记录单元FSR(force sensing register)传感器信息来确定。
进一步的,步骤(2)中的仿人机器人姿态信息由姿态传感器采集得到,其中仿人机器人姿态信息是通过加速度传感器和角速度传感器共同获得。
进一步的,步骤(2)中的ZMP点位置信息由FSR传感器采集得到,根据安装在机器人脚底FSR传感器计算出机器人双脚支撑阶段和单脚支撑阶段的ZMP位置。
与现有技术相比,本发明具有以下优点:
(1)针对仿人机器人稳定行走提供一种分层的多传感器信息融合框架,根据各种传感器数据的特点进行数据层、特征层和决策层的数据融合,能够真实的反映出机器人运动的稳定情况。
(2)采用模糊决策系统对机器人稳定性进行判定,提高可靠性。
(3)融合了多种机器人相关状态信息进行判定,提高判定准确率。
附图说明
图1为仿人机器人稳定判定整体流程图。
图2为仿人机器人模糊决策判定图。
图3为仿人机器人步行阶段确定流程流程图。
图4为支撑脚尺寸示意图。
图5为双脚支撑8个FSR传感器安装位置示意图。
图6为隶属函数图形。
图7为θ隶属函数图形。
图8为隶属函数图形。
图9为φ隶属函数图形。
图10为前后推倒仿人机器人姿态曲线。
图11为前后推倒仿人机器人曲线。
图12为前后推倒机器人实验判定结果图。
图13为仿人机器人前进摔倒姿态曲线图。
图14为仿人机器人前进摔倒曲线。
图15为前进摔倒机器人实验判定结果图。
图16为实施方式中卡尔曼滤波整个过程的示意图。
具体实施方式
下面结合附图详细说明本发明的具体实施方式,但本发明的实施和保护不限于此,需指出的是,以下若有未特别详细说明的符号或过程,均是本领域技术人员可参照现有技术实现的。
(1)在仿人机器人步行过程中建立一个机器人多传感器信息融合模型,为机器人的控制提供信息和判定结果,从而能使控制器控制仿人机器人稳定的行走及在倒地时可以做出保护动作。根据传感器信息融合的特点,本发明提出一种分层结构的传感器信息融合模型实现对仿人机器人步行过程稳定性判定。见附图1。
其中加速度传感器和角速度传感器安装在机器人髋关节处。FSR传感器安装在机器人脚底,其中每只脚底安装4个FSR传感器,共8片FSR传感器。
(2)建立低层数据层传感器信息融合模型,其中包括步行阶段融合模型、姿态传感器信息融合模型和FSR传感器信息计算模型。
1)步行阶段融合模型。仿人机器人步行阶段确定的过程具体如下:首先根据离线的步态规划确定出机器人是处于单脚支撑阶段还是双脚支撑阶段。如果是处于单脚支撑阶段,判定支撑脚上的4个FSR传感器的数据是否有为0的情况,如果有FSR数据为0,则说明支撑脚和地没有进行面接触,定义这种情况为单脚非面接触支撑阶段;如果支撑脚上所有FSR的数据都不为0,则说明支撑脚和地是面接触,定义这种情况为单脚面接触支撑阶段。如果是处于双脚支撑阶段,判定支撑脚上4个外侧点的FSR传感器数据是否有数据为0,若有数据为0,则说明支撑脚和地没有进行面接触,定义这种情况为双脚非面接触支撑阶段;如果所有的外侧点的FSR传感器数据都不为0,则说明支撑脚和地是面接触,定义这种情况为双脚面接触支撑阶段。具体的流程可见附图3。
2)姿态传感器信息融合模型。针对姿态传感器信息融合方法,选择加速度传感器ADXL204和角速度传感器IDG300作为仿人机器人的姿态传感器。并建立了加速度传感器和角速度传感器的卡尔曼滤波方程。整个卡尔曼滤波方法过程描述如下(以下仅仅为举例):
①被估计的过程信号
卡尔曼滤波器用于估计离散时间过程的状态变量x∈Rn。这个离散时间过程可由离散的随机差分方程来进行描述:
Xk=Φk,k-1Xk-1+Γk,k-1Wk-1
观测方程描述如下:
Zk=HkXk+Vk
其中,Xk是系统的n维状态向量,Φk,k-1为n×n维非奇异状态转移矩阵;Γk,k-1是n×p维系统过程噪声输入矩阵;Hk是m×n维观测矩阵;随机信号Wk和Vk分别表示随机过程系统过程噪声序列和随机过程系统观测噪声序列。它们为相互独立,正态分布的白色噪声:
Wk-N(0,Qk)
Vk-N(0,Rk)
其中,Qk是系统过程噪声Wk的n×p维方差矩阵,Rk是系统观测噪声Vk的m×n维方差阵。
关于系统过程噪声和观测噪声的统计特性,我们假定如下:
其中δkj是克罗尼克(Kronecker)δ函数。
②离散卡尔曼滤波器算法
卡尔曼滤波器用反馈控制的方法估计过程状态:滤波器估计过程某一时刻的状态,然后以(含噪声的)测量变量的方式获得反馈。因此卡尔曼滤波器可分为两个部分:时间更新方程和测量更新方程。时间更新方程负责及时向前推算当前状态变量和误差协方差估计的值,以便为下一个时间状态构造先验估计。测量更新方程负责反馈——也就是说,它将先验估计和新的测量变量结合以构造改进的后验估计。时间更新方程也可视为预测方程,测量更新方程可视为校正方程。最后的估计算法成为一种具有数值解的预测-校正算法。
下面直接给出随机线性离散系统基本的卡尔曼滤波方程:
状态预测
状态估计
滤波增益矩阵
预测误差方差阵
更新误差方差阵
卡尔曼滤波整个过程如图16所示。
计算完预测方程和校正方程后,整个过程再次重复。上一次计算得到的后验估计被作为下一次计算的先验估计。这种递归推算是卡尔曼滤波器最吸引人的特性之一—它比其它滤波器更容易实现:例如维纳滤波器,每次估计必须直接计算全部数据,而卡尔曼滤波器每次只根据以前的测量变量递归计算当前的状态估计。
③姿态传感器卡尔曼滤波信息融合
对芯片在转动过程中由加速度传感器得到的角度信息和由角速度传感器得到的角速度信息,利用卡尔曼滤波进行信息融合,来获得姿态信息。
设第k时刻转过的角度为θk,角速度为同时设在从第k-1时刻到第k时刻之间的角加速度为且使用角加速度的误差作为系统的白噪声Wk;设第k时刻与第k-1时刻的时间差为Δt。
则系统第k个时刻的状态向量Xk为根据随机差分方程和运动学方程,可得该系统状态方程为:
其中,其中Wk为系统过程噪声向量,且Wk-N(0,Qk)Δt是传感器数据采集的时间间隔。
在姿态传感器信息卡尔曼融合的过程中,观测到的是角度信息和角速度信息,则观测向量Zk记为根据随机过程的观测方程可得:
其中Vk为二维的观测噪声向量,且Vk-N(0,Rk)。
在卡尔曼滤波中由于Qk,Rk不变,分别记为Q和R。则通过初始化向量X0、初始方差阵P0、系统过程噪声方差阵Q和系统测量噪声方差阵R就可以在迭代中得出最优估计值由于这些初值尤其是Q和R的设定,直接影响卡尔曼滤波的效果,所以对X0、P0、Q和R的设定进行了研究。
(a)初始值X0的确定。
对于X0,即最初的最优估计,直接根据起初的观测值Z0得出。
(b)初始值P0的确定。
对于P0,设该系统最初的实际状态值为X,则初始残差为:
由观测方程可得:
则:
整理得:
若初始残差则由上式可知:
又因为为初始时刻加速度误差,即本模型定义的系统误差,则所以有
因为和Q=E(wwT),所以只要确定Q和R即可确定P0。
(c)Q和R的确定。
对于确定Q和R,从概率统计的角度看,就必须先分别收集到对应的Vk,Wk序列,这又必须先确定第k时刻实际的系统状态值,难度较大。
考虑到以下三个因素:
a)在本模型中要确定Q和R,只需确定三个未知变量E(wwT)、和
b)Q和R同乘以一个常数对应的滤波增益K值不变这个特性,即Q和R的作用反映在其元素相互间的比例而非具体数值上。
c)由于卡尔曼滤波器是基于线性最小误差方差估计的,理论上最优的状态估计值曲线对实际值曲线符合最小二乘估计。
因此这里采用对三个未知变量E(wwT)、和进行枚举的方式,利用前N个观测到的样本数据,采用卡尔曼滤波方法,最终得到和真实曲线最符合最小二乘法的这三个变量值。在具体的操作中,由于这里的枚举估计是粗略的,为了降低枚举的时间复杂度,同时扩大变量间的取值空间,采用开方后再枚举的方法。
令
对q,r1,r2分别从1~10每间隔1进行枚举,每一次枚举结合测量到的300个数据(N=300),通过卡尔曼滤波得到这300个样本数据的曲线,最终找出和真实曲线最符合最小二乘法的曲线,并确定对应的E(wwT)、和数值。最终得出q=10,r1=1,r2=1最好,因此确定出Q和R。
④针对姿态传感器信息融合的Sage-husa卡尔曼自适应滤波简化算法。
由于在本模型中E[Wk]=qk=0,E[Vk]=rk=0,则传统的Sage-husa自适应滤波算法可简化为:
dk=(1-b)/(1-bk+1)
其中0<b<1为遗忘因子,通常在0.95-0.99之间选取。由上面的式子可知,简化的Sage-husa自适应卡尔曼滤波跟传统卡尔曼滤波的区别在于,利用每次得到的信息在每一步的迭代中加入了对Qk和Rk的动态估计,从而达到滤波自适应的效果。
⑤针对姿态传感器信息融合的Sage-husa卡尔曼自适应滤波改进算法。
(a)Qk和Rk估计的改进方法。
Sage-husa自适应卡尔曼滤波算法本身也存在着缺点,就是在系统噪声方差阵和观测噪声方差阵均未知的情况下,不能同时对两者进行估计,否则将会引起滤波器的发散,因此不能对Qk和Rk同时进行估计。
通过实验与分析发现,由于系统噪声方差阵Qk在通过传感器模型初始化时的补偿后,在滤波过程中变化不大;而测量噪声方差阵Rk对滤波的影响最为明显。因此在利用Sage-husa自适应卡尔曼滤波方法时,对测量噪声方差阵Rk进行调整,而不对系统噪声Qk进行调整。
(b)自适应滤波起作用的条件。
为了减少计算量,提高算法的实时性,本文设定了自适应滤波起作用的条件。
在滤波正常的情况下,即Rk-1=Rk,可得:
则
由于Vk是观测误差与预测误差相互独立,则有
所以在滤波正常情况下:
若滤波情况异常,实际的观测误差的方差必然会与上式差别较大。
因此采用判别式判断滤波是否异常。
其中η为常数可自己设定,tr为表示矩阵的迹。若k时刻成立,说明实际误差将超过理论预计值的η倍,滤波发散,此时需要启动Sage-husa自适应卡尔曼滤波方法来预测出新的R。当η=1,为最严格的收敛判据条件;本实验设定η=5。
3)FSR传感器信息融合。
①单脚支撑阶段ΔZMP
在单脚支撑阶段ΔZMP通过一个脚上4个FSR传感器测量到的力信息计算出ΔZMP的值。单脚作为支撑脚时,FSR传感器安装位置见附图4。
其中,dxA,dyA,dxB,dyB,dxC,dyC,dxD,dyD是安装点位置A,B,C,D距离脚边沿x轴,y轴方向的距离(其中x轴为机器人前进方向,y轴为机器人向左摆动方向)。FW表示脚宽,FL表示脚长。
建立以O点为原点的x,y坐标系,A点、B点、C点和D点的坐标为 和M为支撑多边形的支撑中心点。其中:
根据FSR传感器测出的力大小,可以求出单脚支撑时ZMP点坐标(xZMP,yZMP)。
其中,fA、fB、fC和fD是支撑脚上4个FSR传感器测到的力数据。
中心M的坐标
所以
②双脚支撑阶段ΔZMP
在双脚支撑阶段ΔZMP通过每个脚上4个FSR传感器,共8个FSR传感器测量脚底安装点的力,计算出ΔZMP的值。双脚作为支撑脚时,FSR传感器安装位置,见附图5。
其中,dxA1,dyA1,dxB1,dyB1,dxC1,dyC1,dxD1,dyD1是在左脚安装点位置A1,B1,C1,D1距离脚边沿x轴,y轴方向的距离。dxA2,dyA2,dxB2,dyB2,dxC2,dyC2,dxD2,dyD2是在右脚安装点位置A2,B2,C2,D2距离脚边沿x轴,y轴方向的距离。M点为双足支撑时的几何中心。
建立以O点为原点的x,y坐标系,A1点、B1点、C1点、D1点和A2点、B2点、C2点、D2点的坐标为和 其中,
根据FSR传感器测出的力大小,可以求出双脚支撑时ZMP点坐标(xZMP,yZMP)。
其中,fA1、fB1、fC1、fD1、fA2、fB2、fC2和fD2是支撑脚上8个FSR传感器测到的力数据。
中心M的坐标
所以
(3)通过仿人机器人当前的步行状态、姿态信息和ZMP点位置信息,共同实现对机器人稳定可控性的判定。提出模糊决策方法对步行阶段、姿态信息和ZMP点位置信息进行融合,从而得到最终判定。步行阶段、姿态信息和ZMP点位置信息作为模糊决策的输入,通过模糊决策后得到5种判定结果作为输出:可控状态,向左倒下,向右倒下,向前倒下,向后倒下。由于判定机器人是否前后倒下,主要和前后方向的姿态信息和前后方向的ZMP点位置信息有关,和左右方向的数据没有太大关系;同理左右方向上的姿态信息和左右方向上的ZMP点位置和前后方向的数据也没有太大关系。所以前后方向倒和左右方向倒的判定,分两个判定部分来完成,这样就大大的简化了判定方法和处理过程。整个框架如附图2。
1)前后模糊决策系统
①输入函数隶属函数确定
a)机器人步行阶段(GS)
根据仿人机器人支撑脚和地面接触情况和离线步态规划把机器人步行阶段(GS)分为4种状态,分别为双脚面接触支撑阶段Stage1,双脚非面接触支撑阶段Stage2,单脚面接触支撑阶段Stage3,单脚非面接触支撑阶段Stage4。
由于机器人的步行阶段可以根据离线步态规划和脚底的8个FSR传感器信息来确定,所以对机器人的步行状态不用进行模糊化,用下式来表示步行阶段GS。
b)ZMP点位置信息
对输入进行模糊化,把分为5种状态:NB、NS、Z、PS、PB;根据多次实验的数据,设定每种状态隶属函数如附图6。
其中Z的隶属函数采用三角隶属函数;NS和PS隶属函数采用梯形隶属函数;NB和PB的隶属函数采用半梯形隶属函数。
c)绕y轴俯仰角θ
对θ输入进行模糊化,把θ分为5种状态:NB、NS、Z、PS、PB;根据多次实验的数据,设定每种状态隶属函数如附图7所示。其中NS、Z和PS的隶属函数采用三角隶属函数,NB和PB的隶属函数采用半梯形隶属函数。
②输出隶属函数确定
由于决策系统的输出是一个确定的结果,由Fuzzyfb表示,采用Sugeno模糊系统。Sugeno模糊系统的输出是一个常数或是输入的函数,在本系统中,输出是一个常数,设输出为常数-1时,表示要向前倒下FF;输出为常数0时,表示稳定可控NF;输出为常数1时,表示要向后倒下BF。
③模糊推理
根据多次实验的经验,设计出推理规则,见表1(前后方向模糊决策系统的推理规则)。
表1
④去模糊化
去模糊化的方法采用隶属度最大的方法。
2)左右模糊决策系统
①输入函数隶属函数确定
a)机器人步行阶段GS
机器人步行阶段(GS)的设定和前后模糊决策系统设定的一样,一共分为4种状态:双脚面接触支撑阶段Stage1,双脚非面接触支撑阶段Stage2,单脚面接触支撑阶段Stage3,单脚非面接触支撑阶段Stage4。
b)ZMP点位置信息隶属函数设定。
ZMP点位置信息隶属函数和前后模糊决策系统中的隶属函数一样。把分为5种状态:NB、NS、Z、PS和PB;每种状态隶属函数如附图8所示。
c)绕x轴滚动角φ隶属函数。
对绕x轴旋转角φ输入进行模糊化,把φ分为5种状态:NB、NS、Z、PS、PB;隶属函数的选择和俯仰角θ类似,根据多次实验的数据,设定每种状态隶属函数如附图9所示。
②输出隶属函数确定
输出用Fuzzylr表示,和前后模糊决策系统类似,输出是一个常数,设输出为常数-1时,表示要向左倒下LF;输出为常数0时,表示稳定可控NF;输出为常数1时,表示要向右倒下RF。
③模糊推理
根据多次实验的经验,设计出推理规则见表2(左右方向模糊决策系统的推理规则)。
表2
④去模糊化
去模糊化的方法和前后模糊决策系统类似,采用隶属度最大的方法。
3)综合模糊决策
根据前后模糊决策系统可以得到机器人前后方向的稳定性状态,根据左右模糊决策系统可以得到机器人左右方向的稳定性状态,把两者组合成一个二维向量来表示这个向量代表了机器人综合稳定性状态。例如,表示机器人处于可控状态;表示机器人倒向后方;表示机器人倒向前右方。一共有9种可能的输出结果,分别是:可控,向前方跌倒,向后方跌倒,向左方跌倒,向右方跌倒,向前左方跌倒,前右方跌倒,向后左方跌倒,向后右方跌倒。
(4)稳定可控性综合判定实验
通过仿人机器人的实验,来对提出的稳定可控性综合判定方法进行测试。
1)机器人静态测试
把站立的仿人机器人向前推倒,接着用手扶起,再向后推倒,最后用手扶起来,来对提出的机器人行走稳定可控性的判定方法进行验证。采集到姿态传感器数据见附图10和ΔZMP[-1 1]数据见附图11。
其中在附图10中,由于实验过程中在机器人倒地的时候,还没有和地接触前都被我们用手接住,所以前后方向绕y轴俯仰角度θ在正负60度左右的时候,就表示机器人已经倒地了,若是机器人在倒地的时候完全和地面接触时,这时姿态角度接近正负90度。根据文中的前后模糊决策系统得到仿人机器人的稳定可控性综合判定输出结果,见附图12。和仿人机器人实际动作进行比较,附图12中仿人机器人的稳定可控性综合判定输出是正确的。
2)机器人动态测试
控制仿人机器人前进,机器人在前进的过程中向前摔倒来对本文提出的机器人行走稳定可控性的判定方法进行验证。采集到姿态传感器数据见附图13和ΔZMP[-1 1]数据见附图14。
其中在附图13中,由于实验过程中机器人向前倒地的时候,还没有和地接触前就被我们用手接住,所以前后方向绕y轴俯仰角度θ在-80度左右的时候,就表示机器人已经倒地了,若是机器人在倒地的时候完全和地面接触时,这时姿态角度接近正负90度。根据前后模糊决策系统得到仿人机器人的稳定可控性综合判定输出结果,见附图15。和仿人机器人实际动作进行比较,附图15中仿人机器人的稳定可控性综合判定输出是正确的。
通过控制仿人机器人向前向后摔倒和在向前行走时向前摔倒2个实验来验证基于模糊决策的机器人行走稳定可控性判定方法的有效性。
如上即可较好的实现本发明并取得前述的技术效果。
Claims (5)
1.基于多传感器信息仿人机器人跌倒状态检测方法,其特征在于包含如下步骤:
(1)通过对姿态传感器信息、零力矩点ZMP传感器信息和机器人步行阶段信息进行融合,建立分层结构的传感器信息融合模型,从而实现仿人机器人稳定性判定;
(2)利用模糊决策系统将输入的步行阶段、姿态信息、ZMP点位置信息进行融合分析,得出最终的对机器人稳定状态的判定;其中,把机器人步行阶段作为模糊决策系统输入之一;把仿人机器人姿态信息作为模糊决策系统输入之一;把ZMP点位置信息作为模糊决策系统输入之一;所述的模糊决策系统的判定过程是:将步行阶段信息、姿态信息和ZMP点位置信息作为模糊决策的输入,通过模糊决策后得到5种判定结果作为输出:可控状态,向左倒下,向右倒下,向前倒下,向后倒下;由于判定机器人是否前后倒下,主要和前后方向的姿态信息和前后方向的ZMP点位置信息有关,和左右方向的数据没有关系;同理左右方向上的姿态信息和左右方向上的ZMP点位置和前后方向的数据也没有关系;所以前后方向倒和左右方向倒的判定,分用前后模糊决策系统和左右模糊决策系统来完成;所述前后模糊决策系统判定机器人在前后方向的稳定性,具体步骤如下:
①根据机器人支撑脚和地面之间的接触情况与离线步态规划确定机器人步行阶段;
②利用模糊推理算法对ZMP点位置信息进行模糊化;
③利用模糊推理算法对机器人的俯仰角进行模糊化;
④确定输出隶属函数;
⑤根据步骤①~步骤④确定模糊推理规则;
⑥去模糊化;
所述左右模糊决策系统判定机器人在左右方向的稳定性,具体步骤如下:
①根据机器人支撑脚和地面之间的接触情况与离线步态规划确定机器人步行阶段;
②利用模糊推理算法对ZMP点位置信息进行模糊化;
③利用模糊推理算法对机器人的绕x轴滚动角进行模糊化;
④确定输出隶属函数;
⑤根据步骤①~步骤④确定模糊推理规则;
⑥去模糊化。
2.根据权利要求1所述的基于多传感器信息仿人机器人跌倒状态检测方法,其特征在于步骤(1)所述分层结构的传感器信息融合模型包括低层数据层信息融合模型和高层决策层融合模型,其中低层数据层信息融合模型分别是步行阶段融合模型、姿态传感器信息融合模型和FSR传感器信息计算模型;高层决策层融合模型完成对机器人稳定性进行综合判定:根据融合后的姿态信息、ZMP信息和机器人行走的步行阶段数据共同建立模糊决策系统,模糊决策系统用来判定机器人是否处于不可控的状态,从而为机器人控制提供决策的依据。
3.根据权利要求1所述的基于多传感器信息仿人机器人跌倒状态检测方法,其特征在于步骤(2)所述机器人步行阶段根据离线步态规划和力传感记录单元FSR传感器信息来确定。
4.根据权利要求1所述的基于多传感器信息仿人机器人跌倒状态检测方法,其特征在于步骤(2)中的仿人机器人姿态信息由姿态传感器采集得到,其中仿人机器人姿态信息是通过加速度传感器和角速度传感器共同获得。
5.根据权利要求1所述的基于多传感器信息仿人机器人跌倒状态检测方法,其特征在于步骤(2)中的ZMP点位置信息由FSR传感器采集得到,根据安装在机器人脚底FSR传感器计算出机器人双脚支撑阶段和单脚支撑阶段的ZMP位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410428085.3A CN104217107B (zh) | 2014-08-27 | 2014-08-27 | 一种基于多传感器信息仿人机器人跌倒状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410428085.3A CN104217107B (zh) | 2014-08-27 | 2014-08-27 | 一种基于多传感器信息仿人机器人跌倒状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104217107A CN104217107A (zh) | 2014-12-17 |
CN104217107B true CN104217107B (zh) | 2017-04-19 |
Family
ID=52098589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410428085.3A Active CN104217107B (zh) | 2014-08-27 | 2014-08-27 | 一种基于多传感器信息仿人机器人跌倒状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104217107B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112405568A (zh) * | 2020-10-20 | 2021-02-26 | 同济大学 | 一种仿人机器人跌倒预测方法 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104932254B (zh) * | 2015-05-12 | 2017-07-21 | 北京理工大学 | 一种仿人机器人的前摔保护控制策略 |
CN105279316B (zh) * | 2015-09-29 | 2018-12-28 | 大连楼兰科技股份有限公司 | 基于模糊推理的碰撞位置判断方法 |
CN107219466A (zh) * | 2017-06-12 | 2017-09-29 | 福建工程学院 | 一种混合扩展卡尔曼滤波的锂电池soc估算方法 |
GB2564167B (en) * | 2017-11-17 | 2019-05-22 | August Int Ltd | Improvements in or relating to fall detectors and fall detection |
CN108549900A (zh) * | 2018-03-07 | 2018-09-18 | 浙江大学 | 基于移动设备佩戴位置的人体跌倒检测方法 |
CN108594672B (zh) * | 2018-03-16 | 2020-04-10 | 中国地质大学(武汉) | 一种基于意图理解的饮水服务机器人主动服务方法 |
CN108549237B (zh) * | 2018-05-16 | 2020-04-28 | 华南理工大学 | 基于深度增强学习的预观控制仿人机器人步态规划方法 |
CN109091151B (zh) * | 2018-09-06 | 2021-07-16 | 中国人民解放军战略支援部队信息工程大学 | 一种基于mimu的行人跌倒检测方法及装置 |
CN109048916A (zh) * | 2018-09-12 | 2018-12-21 | 遂昌睿丰科技有限公司 | 基于多维传感器实时数据反馈融合的便捷式工业机器人 |
CN109605364A (zh) * | 2018-10-31 | 2019-04-12 | 北京理工大学 | 一种仿人机器人摔倒检测和稳定控制方法 |
CN111113412B (zh) * | 2019-12-11 | 2023-04-14 | 桂林凯歌信息科技有限公司 | 基于运动姿态防摔保护的机器人及其控制方法 |
CN111257592B (zh) * | 2020-03-05 | 2022-04-12 | 广东零偏科技有限公司 | 一种用于检测装置的静态判别的方法 |
CN111291831B (zh) * | 2020-03-06 | 2023-12-08 | 北京理工大学 | 一种仿人机器人摔倒预测方法 |
CN111568432B (zh) * | 2020-04-06 | 2023-04-07 | 沈阳工业大学 | 基于模糊推理的全方位步行训练机器人的跌倒检测方法 |
CN117171606B (zh) * | 2023-09-04 | 2024-05-28 | 北京泛源时空科技有限公司 | 一种基于自适应模糊推理的行人多步态模式识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1914009A (zh) * | 2004-01-28 | 2007-02-14 | 丰田自动车株式会社 | 腿式机器人以及腿式机器人的行走控制方法 |
CN101414190A (zh) * | 2008-10-28 | 2009-04-22 | 北京理工大学 | 基于有效稳定区域仿人机器人稳定行走的控制方法和系统 |
CN102672719A (zh) * | 2012-05-10 | 2012-09-19 | 浙江大学 | 一种仿人机器人手臂作业动态稳定控制方法 |
-
2014
- 2014-08-27 CN CN201410428085.3A patent/CN104217107B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1914009A (zh) * | 2004-01-28 | 2007-02-14 | 丰田自动车株式会社 | 腿式机器人以及腿式机器人的行走控制方法 |
CN101414190A (zh) * | 2008-10-28 | 2009-04-22 | 北京理工大学 | 基于有效稳定区域仿人机器人稳定行走的控制方法和系统 |
CN102672719A (zh) * | 2012-05-10 | 2012-09-19 | 浙江大学 | 一种仿人机器人手臂作业动态稳定控制方法 |
Non-Patent Citations (7)
Title |
---|
仿人机器人步态规划反馈控制研究综述;毕盛 等;《计算机工程与应用》;20110731;第47卷(第7期);第30-33页 * |
仿人机器人运动规划与稳定控制方法研究;陈阳祯;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120215;第2012年卷(第2期);I140-356 * |
基于三维陀螺仪姿态反馈的仿人机器人步行方法研究;陈杜勇;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110315;第2011年卷(第3期);I140-232 * |
基于改进粒子群算法的仿人机器人步态多目标优化;陈强;《中国优秀硕士学位论文全文数据库 信息科技辑》;20111215;第2011年卷(第12期);正文第四章第4.4节,图4-8 * |
基于模糊决策法的移动机器人路径规划方法;吕永刚 等;《机床与液压》;20050901;第2005年卷(第6期);第54-56页 * |
基于模糊决策的机器人路径规划研究;田丰;《中国优秀硕士学位论文全文数据库 信息科技辑》;20111215;第2011年卷(第S2期);I140-514 * |
零力矩点与两足机器人动态行走稳定性的关系;刘志远 等;《哈尔滨工业大学学报》;19940228;第26卷(第1期);第38-41页 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112405568A (zh) * | 2020-10-20 | 2021-02-26 | 同济大学 | 一种仿人机器人跌倒预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104217107A (zh) | 2014-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104217107B (zh) | 一种基于多传感器信息仿人机器人跌倒状态检测方法 | |
CN108237532B (zh) | 多足机器人的步态控制方法、装置和机器人 | |
Flayols et al. | Experimental evaluation of simple estimators for humanoid robots | |
Chatterjee et al. | A Geese PSO tuned fuzzy supervisor for EKF based solutions of simultaneous localization and mapping (SLAM) problems in mobile robots | |
CN102853836B (zh) | 一种基于航迹质量的反馈加权融合方法 | |
CN102156484A (zh) | 四足机器人对角步态的自适应控制方法 | |
CN104462015B (zh) | 处理非高斯Lévy噪声的分数阶线性离散系统状态更新方法 | |
CN106441300A (zh) | 一种具有自适应的协同导航滤波方法 | |
CN112577496B (zh) | 一种基于自适应选权的多源融合定位方法 | |
Ordonez et al. | Terrain identification for RHex-type robots | |
Ho et al. | A near-to-far non-parametric learning approach for estimating traversability in deformable terrain | |
JP6804908B2 (ja) | 推定装置、推定方法及びコンピュータプログラム | |
CN106094817B (zh) | 基于大数据方式的强化学习仿人机器人步态规划方法 | |
US7437214B2 (en) | Robot device and method of controlling the same | |
Wang et al. | A neural network and Kalman filter hybrid approach for GPS/INS integration | |
CN114021376A (zh) | 一种四足机器人地形坡度估计方法 | |
JP6270334B2 (ja) | ロボット制御装置及び方法 | |
CN108903947A (zh) | 步态分析方法、步态分析装置以及可读存储介质 | |
Zhang et al. | INS/GPS integrated navigation for wheeled agricultural robot based on sigma-point Kalman filter | |
Poddar et al. | Tuning of GPS aided attitude estimation using evolutionary algorithms | |
JP6631954B2 (ja) | 運転者状態判定装置 | |
Malleswaran et al. | CNN based GPS/INS data integration using new dynamic learning algorithm | |
Brandenburger et al. | Mapless Humanoid Navigation Using Learned Latent Dynamics | |
Samperio et al. | A hybrid approach to fast and accurate localization for legged robots | |
CN108088498A (zh) | 一种航向角与转动阻力系统联合估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |