CN109579853A - 基于bp神经网络的惯性导航室内定位方法 - Google Patents

基于bp神经网络的惯性导航室内定位方法 Download PDF

Info

Publication number
CN109579853A
CN109579853A CN201910067512.2A CN201910067512A CN109579853A CN 109579853 A CN109579853 A CN 109579853A CN 201910067512 A CN201910067512 A CN 201910067512A CN 109579853 A CN109579853 A CN 109579853A
Authority
CN
China
Prior art keywords
data
neural network
ankle
paces
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910067512.2A
Other languages
English (en)
Other versions
CN109579853B (zh
Inventor
童凯
谢正威
刘刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201910067512.2A priority Critical patent/CN109579853B/zh
Publication of CN109579853A publication Critical patent/CN109579853A/zh
Application granted granted Critical
Publication of CN109579853B publication Critical patent/CN109579853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation

Abstract

本发明公开了基于BP神经网络的惯性导航室内定位方法,包括运动数据采集与预处理阶段、离线训练阶段和实时定位阶段。数据采集是通过左、右脚腕可穿戴设备采集人员两脚腕处运动数据、人员身高和步长;数据预处理是利用多传感器信息融合处理得到7个神经网络输入数据‑左、右腿部姿态角变化量θ1和θ2、脚腕处加速度均值average、方差variance、左、右脚步伐持续时间time1和time2以及身高stature;离线训练阶段包括:建立神经网络步长估计模型;将7个输入数据和步长数据输入神经网络进行训练;实时定位阶段包括:右脚腕可穿戴设备内部进行步伐识别、实时预测步长以及利用步长和方向角通过航位推算实现实时定位。本发明提高了室内定位的精度、实时性,增强了可靠性。

Description

基于BP神经网络的惯性导航室内定位方法
技术领域
本发明涉及室内定位领域,尤其涉及到一种基于BP神经网络的惯性导航室内定位方法。
背景技术
现有的室内定位技术解决方案主要为Wi-Fi定位技术、红外线定位技术、超声波定位技术、可见光定位技术、UWB技术、ZigBee技术、射频标签识别技术,以及计算机视觉定位技术等。由于这些技术需要搭建设备进行辅助定位,定位精确度越高对辅助设备的数量要求越多,因此这些技术不具备普遍适用性和快速性。Wi-Fi定位技术需要通过在室内架设Wi-Fi网络,实现接收器位置的估算。可见光定位技术需要提前明确可见光源的位置,若室内光线昏暗或者没有光线的区域则无法实现接收器的定位。在实际定位环境中,这些方案在投入大量辅助设备资源的情况下能够实现精度较高的室内定位,但是在未知环境内则失效,因此这些方案很难实现对未知环境内定位人员的高精度、实时性以及普遍适用的定位。
随着MEMS的快速发展,惯性导航系统成为室内定位领域的研究热点。惯性导航是一种相对定位技术。惯性导航系统(INS)由多个惯性测量单元(IMU)组成,一个IMU由三个相互正交的加速度计和三个正交的角速度计组成。利用加速度计和角速度计测量定位人员的加速度和角速度数据,并计算获得定位人员的位置和运动方向。在惯性导航室内定位领域,根据定位人员的航位推算系统(PDR)对定位人员进行室内定位,该系统根据上一运动位移结束时刻的位置推算当前位移结束时刻的位置。PDR系统无需外接设备辅助设备,在短时间内可以获得高精度高、可靠性的室内定位,该系统定位的准确度依赖于步伐长度检测的准确度,在定位时,仅需对定位人员的初始位置进行设定。目前采用的捷联惯导系统采用加速度数据积分得到步伐长度,由于MEMS测量到的加速度精度不高,因此惯导定位误差会迅速累积。
神经网络(NN)是一种分布式并行信息处理的数学模型,对于非线性输入输出映射很有效,具有强大的学习能力和计算能力,在不同层次上可模仿人脑系统进行信息处理。
发明内容
针对上述技术问题,本发明的目的在于提供一种在未知环境中实现高精度、低成本、普遍适用性强的基于BP神经网络的惯性导航室内定位方法。
一种基于BP神经网络的惯性导航室内定位方法,包括运动数据采集与预处理阶段、离线训练阶段和实时定位阶段,所述数据采集与预处理阶段采用多传感器信息融合采集定位人员的左右脚腕处运动数据,结合四元素与卡尔曼滤波算法处理所述运动数据,获取定位人员的左、右腿部姿态角变化量θ1和θ2、脚腕处加速度均值average、方差variance、左、右脚步伐持续时间time1和time2以及测量得到定位人员的身高stature作为7个神经网络输入数据,并降低惯性测量单元的测量噪声;所述离线训练阶段通过构建一个BP神经网络模型,采用所述7个神经网络输入数据和步长数据进行训练,获得步伐长度预测模型;所述实时定位阶段根据两腿数据协同进行步伐识别,将识别到的步伐周期内的数据进行预处理并传输至上位机进行实时步长预测,然后根据预测的步长和预处理得到的方位角进行航位推断实现定位。
优选地,所述数据采集与处理阶段包括以下步骤:
S11,室内定位人员佩戴左脚腕可穿戴设备和右脚腕可穿戴设备,进行左右脚腕处的运动数据采集;S12,记录定位人员行走的实际步伐长度及其身高;S13,基于四元素与卡尔曼滤波,左脚腕可穿戴设备和右脚腕可穿戴设备的嵌入式处理器对所述S11采集到的原始数据进行处理,左脚腕可穿戴设备将处理之后的数据通过内部蓝牙发送至右脚腕可穿戴设备中,右脚腕可穿戴设备将左右脚腕处预处理之后的数据进行软件同步处理,获得定位人员每一段完整的步伐所对应的左、右腿部姿态角变化量θ1和θ2、脚腕处加速度均值average、方差variance、左、右脚步伐持续时间time1和time2以及身高stature。
优选地,所述离线训练阶段包括以下步骤:
S21,建立BP神经网络的步长估计模型,具体为设置BP神经网络的网络层数和每一层的神经元个数以及训练函数,构建一个7个神经网络输入数据和单个输出的BP神经网络模型,输出为步伐长度;S22,进行BP神经网络模型训练,对于BP神经网络的步长估计模型进行训练,确定模型的训练参数,得到步长估计的BP神经网络模型,并保存。
优选地,所述实时定位阶段包括如下步骤:
S31,进行运动数据采集,具体为室内定位人员佩戴左脚腕可穿戴设备和右脚腕可穿戴设备,进行左右脚腕处的运动数据采集,并需测量定位人员的身高;S32,进行步伐识别,获得定位人员的运动数据后,将左脚腕可穿戴设备内采集到的数据传输至右脚腕可穿戴设备内,对两组数据进行同步处理,获得左、右脚腕处的角度;对左、右脚腕处的姿态角数据分析判断是否产生步伐,如果产生了步伐则进行下一步处理,否则继续检测;S33,进行运动数据预处理,两可穿戴设备内部嵌入式处理器将采集到的运动数据分别处理,然后将两可穿戴设备的数据进行多传感器信息融合处理,利用卡尔曼滤波器降低传感器的测量噪声,获取准确的运动数据;最后将预处理完成的数据通过MESH自组网发送至电脑并保存;S34,进行步伐长度预测,将7个神经网络输入数据输入到已训练好的BP神经网络模型中,进行步长预测,输出为当前步伐的步伐长度;S35,进行实时定位,根据定位人员的运动方向角,以及所述S34得到的步伐长度进行实时定位,根据步行者航位推算系统PDR为定位人员进行室内定位,系统根据上一位移结束时刻的位置,利用航向角和步伐长度推算当前位移结束时刻的位置。
优选地,所述S11和S31中所选用的采集方法为通过两组脚腕可穿戴设备中的三轴加速度传感器和三轴角速度传感器以及三轴磁力计实时获取三个维度上的数据和时间序列。
优选地,所述S32中通过对左、右脚腕处的姿态角数据分析判断是否产生步伐;记录下定位人员站立时腿部倾角初始值,判断左、右脚腕处角度数据波形是否符合运动规律;对左、右脚腕处的角度数据进行波峰波谷检测,再将波峰波谷对应的角度数值与阈值比较判断是否满足阈值条件;其中一个角度数据波形达到峰谷值时,将另一波形对应的数值与阈值进行比较,判断定位人员是否产生了步伐。
优选地,所述S33中可穿戴设备内部的嵌入式处理器将采集到的运动数据根据四元素法确立捷联矩阵,利用三轴角速度传感器得到的角速度信息建立运动过程方程,结合三轴磁力计信息建立测量方程;滤除测量信号的随机噪声,并获得准确的腿部姿态角数据以及定位人员运动方向角数据;根据捷联矩阵消除加速度在重力方向上的分量,得到准确的脚腕处的加速度数据;计算步伐结束时的一个步伐时间段内脚腕处Z轴加速度均值和方差。
与现有技术相比,本发明具有以下有益技术效果:
1、采用多传感器信息融合处理,以及四元素结合卡尔曼滤波,有效降低了惯性测量单元的测量噪声,可获取更精确的运动数据。
2、提出了一种新的步伐识别方法,根据腿部姿态数据判断位移是否产生,而传统的惯性导航定位系统根据加速度信息进行步伐识别容易产生误判,本方法极大提高了步伐识别的准确度。
3、采用新的数据类型来训练BP神经网络模型,将定位人员腿部姿态信息和脚腕处加速度信息以及身高作为训练输入,采集大量数据来训练基于BP神经网络的步长估计模型,从而得到高精度的步长预测,根据高精度的步长预测,改善惯性导航室内定位精度。
附图说明
图1是本发明的基于BP神经网络的惯性导航室内定位方法的整体框图;
图2是本发明的步伐识别的流程框图。
具体实施方式
为使本发明实施例的目的、方法和优点更加清楚,下面结合附图对本发明的基于BP神经网络的惯性导航室内定位方法做进一步的描述。
本发明以定位人员穿戴脚腕可穿戴设备在室内行走为具体实例进行说明,利用可穿戴设备内部三轴加速度传感器、三轴角速度传感器和三轴磁力计记录人员行走的数据进行室内定位。如图1所示,本发明的基于BP神经网络的惯性导航室内定位方法包括运动数据采集与预处理阶段,离线训练阶段和实时定位阶段:
1,数据采集和预处理阶段,包括以下具体步骤:
步骤S1,定位人员在其左右脚腕处分别绑定一个可穿戴设备进行行走,左右脚腕处可穿戴设备内部嵌入式处理器记录下设备内部的三轴加速度传感器、三轴角速度传感器和三轴磁力计的数据。传感器输出数据的频率设置为100HZ。
步骤S2,左、右脚腕处可穿戴设备内部嵌入式处理器对采集到的数据进行四元素法确立捷联矩阵,利用三轴角速度传感器得到的角速度信息,建立过程方程,根据三轴加速度传感器和磁力计信息建立测量方程,如式(1)所示,通过这种卡尔曼滤波器来滤除传感器存在的随机噪声,并且解算出定位人员行走时脚腕处的消除重力影响后的加速度信息和腿部姿态角信息以及定位人员的运动方向角信息,即定位人员行走航向角α。最后通过左脚腕可穿戴设备内部蓝牙与右脚腕可穿戴设备内部蓝牙通信,将左脚腕处运动数据发送至右脚腕穿戴设备嵌入式处理器中,然后右脚腕可穿戴设备内部嵌入式处理器对左、右脚腕处运动数据进行软件同步处理,让定位人员在行走时左右脚腕处运动数据达到在时间上的一一对应。软件同步算法具体过程是:若硬件保持同步,则20个采样点均为该次中断转换结果,若出现硬件不同步,则20个采样点中将会插入前一次中断的最后一个采样点。
其中卡尔曼滤波器过程方程和离散化的测量方程如下:
其中,Q为四元素矩阵,Φ为三轴角速度矩阵,T为上一时刻四元素矩阵与传感器采样周期的乘积,过程方程是根据四元素微分方程的矩阵形式离散化并去除高阶量得到,W为陀螺仪的噪音,将其近似为均值为零的独立高斯白噪声,并且协方差矩阵式为非负定常值对角阵;g为重力加速度;为三轴加速度传感器的测量值;Mx、My、Mz为地磁场在该地理坐标上的分量;为三轴磁力计测量值;V是磁力计测量噪声。左、右脚腕穿戴设备将传感器原始数据采集之后根据四元素法和离散型卡尔曼滤波结合求解出姿态角。
步骤S3,在步骤S2的基础上,右脚腕可穿戴设备内部嵌入式处理器对定位人员每一段完整的步伐时间段内的左、右脚腕处运动数据进行处理,得到每一个步伐所对应的左、右腿部姿态角变换量,通过记录定位人员站立时腿部姿态角度为初始姿态角,然后记录下一个步伐完成时的腿部姿态角,二者求差值并去绝对值得到腿部姿态角变化量、通过采集到的角速度数据个数除以角速度传感器输出频率得到步伐持续时间、通过记录一个步伐周期内Z轴加速度的所有数据,并根据求平均值和计算方差的数学公式计算得到脚腕处加速度均值和方差以及定位人员运动方向角变换量。
步骤S4,测量定位人员的身高,将定位人员的身高和步骤S3得到的数据作为训练BP神经网络模型的输入样本数据。定位人员行走的实际步伐长度作为训练BP神经网络模型的输出样本数据。
2,离线训练阶段,包括以下具体步骤:
步骤S1,建立一个BP神经网络的步长估计模型。设置BP神经网络的网络层数为三层,即一个输入层、一个隐藏层和一个输出层,构建一个7个输入和单个输出的BP神经网络模型,输入为每一个步伐完成时刻两腿倾角变化量θ1和θ2、脚腕处加速度均值average和方差variance、定位人员身高stature以及步伐持续时间(左、右脚从离地到落地阶段角速度数据个数除以传感器采样频率得到time1和time2),输出为步伐长度。
设置激励函数为tansig,输出层默认的传递函数为purlin,训练函数为trainbr。其中tansig的数学表达式:tansig(n)=2/(1+exp(-2*n))-1;purlin数学表达式:purelin(n)=n;trainbr是贝叶斯正则化算法。并设置隐藏层的神经元个数为6。
步骤S2,BP神经网络模型训练。通过采集大量的不同行走状态下的每一个步伐持续时间段内的三轴加速度传感器数据(ax,ay,az),三轴角速度传感器数据(ωx,ωy,ωz)以及三轴磁力计数据(mx,my,mz)。为了训练BP神经网络模型,将上述数据经过数据预处理阶段得到处理之后的数据作为BP神经网络的输入数据组,同时采集步伐长度作为输出数据组。对于BP神经网络的步长估计模型进行训练,确定模型的各训练参数。设置神经网络训练次数epochs为1000,学习速率lr为0.01,训练目标最小误差goal为0.00004。BP神经网络为前向传播神经网络,通过预测出结果与真实结果比较并反馈到神经元,更新神经元之间的参数,在一系列的训练之后让输出达到收敛,得到步长估计的BP神经网络模型,并保存供实时定位阶段调用该网络进行实时定位。
3,实时定位阶段包括如下步骤:
步骤S1,运动数据采集。定位人员左右脚腕处分别穿戴脚腕可穿戴设备,可穿戴设备内部传感器分别获取实时的三轴加速度传感器数据(ax,ay,az),三轴角速度传感器数据(ωx,ωy,ωz)以及三轴磁力计数据(mx,my,mz),并将数据保存为时序信号。测量得到定位人员的身高数据。
步骤S2,数据预处理与步伐识别。在采集到运动数据后,左、右脚腕可穿戴设备对数据进行预处理,预处理方法同数据预处理阶段。然后将左脚腕可穿戴设备内采集到的数据传输至右脚腕可穿戴设备内,对左、右脚腕可穿戴设备采集到的数据进行软件同步处理。再根据同步处理后的数据对左、右脚腕处的角度数据进行判断。
步伐识别的流程如图2所示。因为人在行走时腿会做周期性的倒立摆运动,即腿部倾角会从零到负最小值,再从负最小值到正最大值,最后从正最大值回到零。因此步伐识别首先需要判断两腿部倾角变化是否符合此规律。然后通过左、右脚腕处采集到的两个腿部倾角数据对应的两个波形进行波谷(负最小值)、波峰(正最大值)检测。记录下定位人员站立时的腿部倾角初始值,然后用腿部倾角波形中检测到的波峰、波谷数值与初始值求差值。利用差值与阈值(波峰阈值为10、波谷阈值为-10)进行比较,并且通过其中一个波形到达峰、谷值时另一个波形对应的数值与阈值(-5和5)进行比较来检测是否产生了步伐。例如,如果左、右腿倾角数据波形符合倒立摆运动规律,且左腿数据波形对应的波峰、波谷值满足阈值要求,并且右腿倾角数据波形在左腿倾角数据波形的峰谷值时对应的数值也符合阈值要求,即判断产生了一步,如果产生了步伐则进行下一步处理,否则继续检测。
现有的惯性导航定位系统大多根据加速度信息进行步伐识别容易产生误判,本方法是根据腿部姿态数据判断位移是否产生,极大提高了步伐识别的准确度。
在检测到有完整的步伐时将处理得到的7个神经网络输入数据,通过MESH自组网发送至电脑并保存,供实时预测时作为BP神经网络的输入数据使用。
步骤S3,步伐长度预测。将通过步骤S2得到的数据输入训练好的BP神经网络模型进行步长预测,输出即为预测得到的当前步伐的步伐长度L。
步骤S4,实时定位。根据传输至电脑的预处理后得到的定位人员运动方向角α以及步骤S4得到的步伐长度L进行实时定位。根据步行者航位推算系统(PDR)为定位人员进行室内定位,该系统根据上一位移结束时刻的位置(X0,Y0),利用航向角α和步伐长度L推算当前位移结束时刻的位置(X1,Y1)。具体公式如下:
在对室内定位精度测试时,记录每次神经网络预测得到的定位人员所行走的位移,运用matlab软件进行数据分析。
在matlab软件上进行模型训练,利用500个输入数据组训练BP神经网络步长估计模型,数据组包含了慢速、正常速度与快速移动的运动数据,以及每一步的实际移动步长。训练得到步长估计模型,在matlab上调用模型进行步长预测,经过多次测试,随机选取一次测试结果进行说明。调用训练好的神经网络,将待预测的步伐长度特征数据输入神经网络,其中输入数据如表1所示:
表1 7个神经网络输入数据
根据表格数据预测每一步的步伐长度值(单位cm)分别为:117.28;136.21;159.81;153.99;169.15;115.68;147.51;122.99;144.21;138.13,实际的每一步的步伐长度(单位cm)为:118;140;161;157;169.50;116.50;140.5;124;141.50;137。绝对误差为:0.95%。说明本发明极大提高了室内定位精度。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (7)

1.一种基于BP神经网络的惯性导航室内定位方法,包括运动数据采集与预处理阶段、离线训练阶段和实时定位阶段,其特征在于,
所述数据采集与预处理阶段采用多传感器信息融合采集定位人员的左右脚腕处运动数据,结合四元素与卡尔曼滤波算法处理所述运动数据,获取定位人员的左、右腿部姿态角变化量θ1和θ2、脚腕处加速度均值average、方差variance、左、右脚步伐持续时间time1和time2以及测量得到定位人员的身高stature作为7个神经网络输入数据,并降低惯性测量单元的测量噪声;
所述离线训练阶段通过构建一个BP神经网络模型,采用所述7个神经网络输入数据和步长数据进行训练,获得步伐长度预测模型;
所述实时定位阶段根据两腿数据协同进行步伐识别,将识别到的步伐周期内的数据进行预处理并传输至上位机进行实时步长预测,然后根据预测的步长和预处理得到的方位角进行航位推断实现定位。
2.根据权利要求1所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述数据采集与处理阶段包括以下步骤:
S11,室内定位人员佩戴左脚腕可穿戴设备和右脚腕可穿戴设备,进行左右脚腕处的运动数据采集;
S12,记录定位人员行走的实际步伐长度及其身高;
S13,基于四元素与卡尔曼滤波,左脚腕可穿戴设备和右脚腕可穿戴设备的嵌入式处理器对所述S11采集到的原始数据进行处理,左脚腕可穿戴设备将处理之后的数据通过内部蓝牙发送至右脚腕可穿戴设备中,右脚腕可穿戴设备将左右脚腕处预处理之后的数据进行软件同步处理,获得定位人员每一段完整的步伐所对应的左、右腿部姿态角变化量θ1和θ2、脚腕处加速度均值average、方差variance、左、右脚步伐持续时间time1和time2以及身高stature。
3.根据权利要求1所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述离线训练阶段包括以下步骤:
S21,建立BP神经网络的步长估计模型,具体为设置BP神经网络的网络层数和每一层的神经元个数以及训练函数,构建一个7个神经网络输入数据和单个输出的BP神经网络模型,输出为步伐长度;
S22,进行BP神经网络模型训练,对于BP神经网络的步长估计模型进行训练,确定模型的训练参数,得到步长估计的BP神经网络模型,并保存。
4.根据权利要求1所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述实时定位阶段包括如下步骤:
S31,进行运动数据采集,具体为室内定位人员佩戴左脚腕可穿戴设备和右脚腕可穿戴设备,进行左右脚腕处的运动数据采集,并需测量定位人员的身高;
S32,进行步伐识别,获得定位人员的运动数据后,将左脚腕可穿戴设备内采集到的数据传输至右脚腕可穿戴设备内,对两组数据进行同步处理,获得左、右脚腕处的角度;对左、右脚腕处的姿态角数据分析判断是否产生步伐,如果产生了步伐则进行下一步处理,否则继续检测;
S33,进行运动数据预处理,两可穿戴设备内部嵌入式处理器将采集到的运动数据分别处理,然后将两可穿戴设备的数据进行多传感器信息融合处理,利用卡尔曼滤波器降低传感器的测量噪声,获取准确的运动数据;最后将预处理完成的数据通过MESH自组网发送至电脑并保存;
S34,进行步伐长度预测,将7个神经网络输入数据输入到已训练好的BP神经网络模型中,进行步长预测,输出为当前步伐的步伐长度;
S35,进行实时定位,根据定位人员的运动方向角,以及所述S34得到的步伐长度进行实时定位,根据步行者航位推算系统PDR为定位人员进行室内定位,系统根据上一位移结束时刻的位置,利用航向角和步伐长度推算当前位移结束时刻的位置。
5.根据权利要求2或4所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述S11和S31中所选用的采集方法为通过两组脚腕可穿戴设备中的三轴加速度传感器和三轴角速度传感器以及三轴磁力计实时获取三个维度上的数据和时间序列。
6.根据权利要求4所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述S32中通过对左、右脚腕处的姿态角数据分析判断是否产生步伐;记录下定位人员站立时腿部倾角初始值,判断左、右脚腕处角度数据波形是否符合运动规律;对左、右脚腕处的角度数据进行波峰波谷检测,再将波峰波谷对应的角度数值与阈值比较判断是否满足阈值条件;其中一个角度数据波形达到峰谷值时,将另一波形对应的数值与阈值进行比较,判断定位人员是否产生了步伐。
7.根据权利要求4所述的基于BP神经网络的惯性导航室内定位方法,其特征在于,所述S33中可穿戴设备内部的嵌入式处理器将采集到的运动数据根据四元素法确立捷联矩阵,利用三轴角速度传感器得到的角速度信息建立运动过程方程,结合三轴磁力计信息建立测量方程;滤除测量信号的随机噪声,并获得准确的腿部姿态角数据以及定位人员运动方向角数据;根据捷联矩阵消除加速度在重力方向上的分量,得到准确的脚腕处的加速度数据;计算步伐结束时的一个步伐时间段内脚腕处Z轴加速度均值和方差。
CN201910067512.2A 2019-01-24 2019-01-24 基于bp神经网络的惯性导航室内定位方法 Active CN109579853B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910067512.2A CN109579853B (zh) 2019-01-24 2019-01-24 基于bp神经网络的惯性导航室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910067512.2A CN109579853B (zh) 2019-01-24 2019-01-24 基于bp神经网络的惯性导航室内定位方法

Publications (2)

Publication Number Publication Date
CN109579853A true CN109579853A (zh) 2019-04-05
CN109579853B CN109579853B (zh) 2021-02-26

Family

ID=65917327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910067512.2A Active CN109579853B (zh) 2019-01-24 2019-01-24 基于bp神经网络的惯性导航室内定位方法

Country Status (1)

Country Link
CN (1) CN109579853B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263870A (zh) * 2019-06-26 2019-09-20 深圳市悦动天下科技有限公司 运动状态识别方法、装置、智能终端和存储介质
CN110426031A (zh) * 2019-06-19 2019-11-08 中国矿业大学 基于bp神经网络与普氏分析的室内地磁定位方法
CN111079603A (zh) * 2019-12-06 2020-04-28 青岛歌尔智能传感器有限公司 步长预测方法、控制器、定位设备和可读存储介质
CN111174780A (zh) * 2019-12-31 2020-05-19 同济大学 盲人道路惯导定位系统
CN111267912A (zh) * 2020-03-12 2020-06-12 兰州交通大学 基于多源信息融合的列车定位方法和系统
CN113124884A (zh) * 2021-04-16 2021-07-16 智道网联科技(北京)有限公司 基于lstm神经网络模型的车辆定位方法及装置
CN113686335A (zh) * 2021-06-10 2021-11-23 上海奥欧智能科技有限公司 通过一维卷积神经网用imu数据进行精确室内定位的方法
CN113779166A (zh) * 2021-08-20 2021-12-10 上海瑾盛通信科技有限公司 地理围栏控制方法、装置、存储介质及电子设备
CN113891243A (zh) * 2021-11-10 2022-01-04 中国电信股份有限公司 终端室内定位方法、装置和系统、存储介质
CN113899362A (zh) * 2021-09-09 2022-01-07 武汉大学 一种基于残差网络的带不确定性评估的行人航迹推算方法
CN113916221A (zh) * 2021-09-09 2022-01-11 北京理工大学 一种融合视觉里程计和bp网络的自适应行人航迹推算方法
CN114485647A (zh) * 2022-01-29 2022-05-13 宁波诺丁汉大学 一种运动轨迹确定方法、装置及系统
CN114577206A (zh) * 2022-03-08 2022-06-03 宁波诺丁汉大学 一种基于超声波的室内惯导建图方法和系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI811733B (zh) * 2021-07-12 2023-08-11 台灣智慧駕駛股份有限公司 交通載具的姿態量測方法、導航方法及其系統

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
WO2017090493A1 (ja) * 2015-11-27 2017-06-01 東京電力ホールディングス株式会社 追尾支援情報生成装置及び追尾支援情報生成システム
CN106933100A (zh) * 2017-03-19 2017-07-07 北京工业大学 一种基于人体运动捕捉数据的仿人机器人步态规划方法
CN108549863A (zh) * 2018-04-11 2018-09-18 腾讯科技(深圳)有限公司 人体姿态预测方法、装置、设备及存储介质
CN108613674A (zh) * 2018-03-25 2018-10-02 哈尔滨工程大学 一种基于自适应差分进化bp神经网络的姿态误差抑制方法
CN108827312A (zh) * 2018-08-08 2018-11-16 清华大学 一种基于神经网络和人工势场的协同博弈路径规划方法
CN109084763A (zh) * 2018-08-21 2018-12-25 燕山大学 基于姿态角度测量的穿戴式三维室内定位装置及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090493A1 (ja) * 2015-11-27 2017-06-01 東京電力ホールディングス株式会社 追尾支援情報生成装置及び追尾支援情報生成システム
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
CN106933100A (zh) * 2017-03-19 2017-07-07 北京工业大学 一种基于人体运动捕捉数据的仿人机器人步态规划方法
CN108613674A (zh) * 2018-03-25 2018-10-02 哈尔滨工程大学 一种基于自适应差分进化bp神经网络的姿态误差抑制方法
CN108549863A (zh) * 2018-04-11 2018-09-18 腾讯科技(深圳)有限公司 人体姿态预测方法、装置、设备及存储介质
CN108827312A (zh) * 2018-08-08 2018-11-16 清华大学 一种基于神经网络和人工势场的协同博弈路径规划方法
CN109084763A (zh) * 2018-08-21 2018-12-25 燕山大学 基于姿态角度测量的穿戴式三维室内定位装置及方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110426031A (zh) * 2019-06-19 2019-11-08 中国矿业大学 基于bp神经网络与普氏分析的室内地磁定位方法
CN110426031B (zh) * 2019-06-19 2024-01-16 中国矿业大学 基于bp神经网络与普氏分析的室内地磁定位方法
CN110263870A (zh) * 2019-06-26 2019-09-20 深圳市悦动天下科技有限公司 运动状态识别方法、装置、智能终端和存储介质
CN110263870B (zh) * 2019-06-26 2023-04-18 深圳市悦动天下科技有限公司 运动状态识别方法、装置、智能终端和存储介质
CN111079603A (zh) * 2019-12-06 2020-04-28 青岛歌尔智能传感器有限公司 步长预测方法、控制器、定位设备和可读存储介质
CN111174780A (zh) * 2019-12-31 2020-05-19 同济大学 盲人道路惯导定位系统
CN111267912A (zh) * 2020-03-12 2020-06-12 兰州交通大学 基于多源信息融合的列车定位方法和系统
CN113124884A (zh) * 2021-04-16 2021-07-16 智道网联科技(北京)有限公司 基于lstm神经网络模型的车辆定位方法及装置
CN113686335A (zh) * 2021-06-10 2021-11-23 上海奥欧智能科技有限公司 通过一维卷积神经网用imu数据进行精确室内定位的方法
CN113779166B (zh) * 2021-08-20 2024-02-13 上海瑾盛通信科技有限公司 地理围栏控制方法、装置、存储介质及电子设备
CN113779166A (zh) * 2021-08-20 2021-12-10 上海瑾盛通信科技有限公司 地理围栏控制方法、装置、存储介质及电子设备
CN113899362A (zh) * 2021-09-09 2022-01-07 武汉大学 一种基于残差网络的带不确定性评估的行人航迹推算方法
CN113916221A (zh) * 2021-09-09 2022-01-11 北京理工大学 一种融合视觉里程计和bp网络的自适应行人航迹推算方法
CN113916221B (zh) * 2021-09-09 2024-01-09 北京理工大学 一种融合视觉里程计和bp网络的自适应行人航迹推算方法
CN113899362B (zh) * 2021-09-09 2023-09-22 武汉大学 一种基于残差网络的带不确定性评估的行人航迹推算方法
CN113891243A (zh) * 2021-11-10 2022-01-04 中国电信股份有限公司 终端室内定位方法、装置和系统、存储介质
CN114485647A (zh) * 2022-01-29 2022-05-13 宁波诺丁汉大学 一种运动轨迹确定方法、装置及系统
CN114577206B (zh) * 2022-03-08 2023-10-31 宁波诺丁汉大学 一种基于超声波的室内惯导建图方法和系统
CN114577206A (zh) * 2022-03-08 2022-06-03 宁波诺丁汉大学 一种基于超声波的室内惯导建图方法和系统

Also Published As

Publication number Publication date
CN109579853B (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN109579853A (zh) 基于bp神经网络的惯性导航室内定位方法
CN106821391B (zh) 基于惯性传感器信息融合的人体步态采集分析系统及方法
Luinge et al. Measuring orientation of human body segments using miniature gyroscopes and accelerometers
CN105934654B (zh) 用于确定加速度计的取向的方法和装置
CN108703760A (zh) 基于九轴传感器的人体运动姿态识别系统及方法
JP6183716B2 (ja) 運動支援装置及び運動支援方法、運動支援プログラム
Edel et al. An advanced method for pedestrian dead reckoning using BLSTM-RNNs
WO2014117252A1 (en) Method and system for varying step length estimation using nonlinear system identification
CN108245880A (zh) 基于多穿戴环带传感器融合的体感检测可视化方法和系统
CN108338791A (zh) 失稳运动数据的检测装置及检测方法
CN109470238A (zh) 一种定位方法、装置和移动终端
CN107330240A (zh) 一种基于双手环传感器的智能远程特护监控系统及方法
JP2016010562A (ja) データ解析装置及びデータ解析方法、データ解析プログラム
CN108827290A (zh) 一种人体运动状态反演装置及方法
CN103499354B (zh) 一种基于内曼‑皮尔逊准则的零速检测方法
Brzostowski Toward the unaided estimation of human walking speed based on sparse modeling
CN109115224A (zh) 一种九轴传感器的高动态轨迹处理方法及装置
CN115655265A (zh) 一种基于惯性传感的行人导航室内定位方法
CN106767890B (zh) 基于加速度传感器的深度网络自适应步长估计方法及装置
WO2019047410A1 (zh) 一种步数的统计方法及装置
CN109084763A (zh) 基于姿态角度测量的穿戴式三维室内定位装置及方法
CN108051001A (zh) 一种机器人移动控制方法、系统及惯性传感控制装置
JP2019122609A (ja) 動作の滑らかさ分析システム及び方法
CN112741617A (zh) 一种基于csi的全方向步态检测算法
CN109061215A (zh) 一种基于可穿戴设备的速度检测方法及可穿戴设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant