CN109405832A - 一种目标步长估计方法 - Google Patents

一种目标步长估计方法 Download PDF

Info

Publication number
CN109405832A
CN109405832A CN201811212035.6A CN201811212035A CN109405832A CN 109405832 A CN109405832 A CN 109405832A CN 201811212035 A CN201811212035 A CN 201811212035A CN 109405832 A CN109405832 A CN 109405832A
Authority
CN
China
Prior art keywords
acceleration
acceleration information
moment
main peak
peak value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811212035.6A
Other languages
English (en)
Other versions
CN109405832B (zh
Inventor
马宁
黄炎焱
吴佳瑶
王名扬
邹涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201811212035.6A priority Critical patent/CN109405832B/zh
Publication of CN109405832A publication Critical patent/CN109405832A/zh
Application granted granted Critical
Publication of CN109405832B publication Critical patent/CN109405832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开一种目标步长估计方法,所述方法包括:获取微惯性测量单元测量的目标初始加速度数据;采用零偏补偿方法对所述目标初始加速度数据进行零偏补偿;根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度;根据所述起始点加速度采用BP神经网络算法估计目标步长。本申请中的上述方法能够适用多种运动状态的步长估计,提高步长估计精度。

Description

一种目标步长估计方法
技术领域
本发明涉及步长估计领域,特别是涉及一种目标步长估计方法。
背景技术
在现有的基于惯性测量的室内定位技术中,步态周期和步长估计检测是首要解决的问题。
为了对目标的室内位置进行解算,需要确定目标每一步的长度。目前常用的步长估计方法有:伪常数步长模型,线性步长模型和非线性步长模型。伪常数步长模型的方法虽然实现简单,计算复杂度低,但是这种方法的精确度不够,且仅仅适用于同一种稳定步态下行走的情况。线性步长模型和非线性步长模型很大程度上改进了精确度不足的缺点,但是在步长判断时考虑的影响因素不够全面,较为单一。尤其是在复杂的火灾现场环境中,消防员面对的情况复杂多变,做出的反应和运动状态也有很大的随机性和不确定性,且变化幅度大,因此,只考虑过于单一的影响因素可能导致某种特定情况下对步长的误判,从而导致定位的错误。此外,线性步长模型和非线性步长模型的参数的具体值因人而异,然而这两种方法不能够针对使用设备的消防员的更换而智能地学习和改变具体的模型参数,需要人工的采集大量数据计算后写入设备,在环境复杂形势紧张的火灾现场,使用这两种模型方法的定位设备必须与不同的消防员一一对应,而应急地交换或者更替设备都将导致模型参数不适用,从而导致消防员的定位误差很大。
发明内容
本发明的目的是提供一种目标步长估计方法,能够适用多种运动状态的步长估计,提高步长估计精度。
为实现上述目的,本发明提供了如下方案:
一种目标步长估计方法,所述方法包括:
获取微惯性测量单元测量的目标初始加速度数据;
采用零偏补偿方法对所述目标初始加速度数据进行零偏补偿;
根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度;
根据所述起始点加速度采用BP神经网络算法估计目标步长。
可选的,采用以下公式对所述目标初始加速度数据进行零偏补偿:
其中fi为零偏补偿后的加速度数据,为采集到的第l个数据样本的初始加速度值,fb0为加速度静态偏移,为初始时刻载体系到导航系的方向余弦矩阵,p为采集的数据样本。
可选的,所述根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度具体包括:
判断所述零偏补偿后的K时刻的加速度数据是否处于零速度稳定值;
若所述K时刻的加速度数据处于所述零速度稳定值,则判断K时刻加速度数据的前n个零偏补偿后的加速度数据是否处于零速度稳定值;其中,n为静态阶段的加速度数据个数;
若所述前n个零偏补偿后的加速度数据处于零速度稳定值,则判断K时刻加速度数据的后m个零偏补偿后的加速度数据是否依次增加;其中,m为抬脚阶段的加速度数据个数;
若后m个零偏补偿后的加速度数据依次增加,则取K时刻的加速度数据为起始点加速度。
可选的,所述静态阶段的加速度数据个数n的取值为:
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔小于0.8s时,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔大于0.95s时,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差在[1.2,4]之间,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差不在[1.2,4]之间,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率。
可选的,所述根据所述起始点加速度采用BP神经网络算法估计目标步长具体包括:
获取目标加速度标准差、步频、加速度主峰值以及加速度次峰值,将所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值输入至PB神经网络的输入层节点;
根据所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值计算BP神经网络的隐含层和输出层的各节点的输出;
根据所述各节点的输出计算所述各节点的输出与目标值的偏差;
根据所述偏差对BP神经网络进行训练,得到目标步长。
可选的,所述BP神经网络的隐含层和输出层的各节点的输出具体采用以下公式获得:
Oj=f(∑wij×Xi-qj),其中,Oj为隐含层节点的输出,f为非线性可微非递减函数,wij为输入层的神经元i与隐含层的神经元j的权系数,Xi为输入层输入向量的第i个分量,qj为阈值;
Yk=f(∑Tjk×Oj-qk),其中,Yk为输出层节点的输出,f为非线性可微非递减函数,Tjk为隐含层的神经元j与输出层的神经元k的权系数,Oj为隐含层输入向量的第j个分量,qk为阈值。
可选的,所述隐含层节点采用Sigmoid作为传递函数,所述Sigmoid传递函数为其中x为隐含层一神经元的综合输入量;
所述输出层采用双曲正切s型函数作为传递函数。
可选的,所述偏差具体采用以下公式获得:
其中tpi为隐含层第i个节点的期望输出,Opi为输出层第i个节点的期望输出。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明中的上述方法,采用零偏补偿法对微惯性测量单元采集的数据进行补偿,解决了微惯性测量单元的零偏问题,大大提高了采集精度,进而提高的步长的估计精度;采用迈步起始点判断法,解决了现有的步频检测法在运动状态改变或者在跑步状态下失效的问题;采用BP神经网络估计步长,解决的现有技术中的步长估计模型只适用于某一种运动状态的步长估计的缺陷。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例目标步长估计方法流程图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种目标步长估计方法,能够适用多种运动状态的步长估计,提高步长估计精度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例目标步长估计方法流程图,如图1所示,所述方法包括:
步骤101:获取微惯性测量单元测量的目标初始加速度数据。
步骤102:采用零偏补偿方法对所述目标初始加速度数据进行零偏补偿。
加速度静态零偏可以定义为系统安装后,人还未开始行走,脚部处于静止状态时的系统加速度的输出。采用以下公式对所述目标初始加速度数据进行零偏补偿:
其中fi为零偏补偿后的加速度数据,为采集到的第l个数据样本的初始加速度值,fb0为加速度静态偏移,为初始时刻载体系到导航系的方向余弦矩阵,p为采集的数据样本。
步骤103:根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度。
迈步起始点判断法主要是根据不同的运动状态,如正常行走、跑步状态时静止阶段维持的时长(加速度数据中的两个相邻主峰值的时间间隔)和加速度数据中的主次峰之差的不同(正常行走时间间隔不小于0.8s,跑步状态时间间隔再0.25~0.95s之间;正常行走主次峰值之差于[1.5,1.9],跑步状态主次峰值之差于[0.2,1.2]或[4.0,6.5])来自适应改变需要判断的静止阶段参考点个数n这一参数,然后以该采样点的加速度数据同时满足在零速度稳定值(约1g,g为重力加速度)附近、之前的n个采样数据均在零速度稳定值附近、之后的m个采样数据依次增加这三个条件作为采样点是否为起始点的判断标准,通过判断采样的加速度数据确定采样的加速度数据是否可用。具体判断标准如下:
判断所述零偏补偿后的K时刻的加速度数据是否处于零速度稳定值;
若所述K时刻的加速度数据处于所述零速度稳定值,则判断K时刻加速度数据的前n个零偏补偿后的加速度数据是否处于零速度稳定值;其中,n为静态阶段的加速度数据个数;
若所述前n个零偏补偿后的加速度数据处于零速度稳定值,则判断K时刻加速度数据的后m个零偏补偿后的加速度数据是否依次增加;其中,m为抬脚阶段的加速度数据个数;
若后m个零偏补偿后的加速度数据依次增加,则取K时刻的加速度数据为起始点加速度。
其中,静态阶段的加速度数据个数n的取值为:
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔小于0.8s时,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔大于0.95s时,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差在[1.2,4]之间,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差不在[1.2,4]之间,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率。
步骤104:根据所述起始点加速度采用BP神经网络算法估计目标步长。
具体包括:
获取目标加速度标准差、步频、加速度主峰值以及加速度次峰值,将所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值输入至PB神经网络的输入层节点;其中所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值是通过微惯性测量单元测得的。
根据所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值计算BP神经网络的隐含层和输出层的各节点的输出,其中隐含层的输出主要是用于获得更高的步长估计精度,输出层的输出为所估计的目标步长。
所述BP神经网络的隐含层和输出层的各节点的输出具体采用以下公式获得:
Oj=f(∑wij×Xi-qj),其中,Oj为隐含层节点的输出,f为非线性可微非递减函数,wij为输入层的神经元i与隐含层的神经元j的权系数,Xi为输入层输入向量的第i个分量,qj为阈值;
Yk=f(∑Tjk×Oj-qk),其中,Yk为输出层节点的输出,f为非线性可微非递减函数,Tjk为隐含层的神经元j与输出层的神经元k的权系数,Oj为隐含层输入向量的第j个分量,qk为阈值。
根据所述各节点的输出计算所述各节点的输出与目标值的偏差;
所述偏差具体采用以下公式获得:
其中tpi为隐含层第i个节点的期望输出,Opi为输出层第i个节点的期望输出。
根据所述偏差对BP神经网络进行训练,得到目标步长。
所述的BP神经网络步长估计模型包括输入输出模型、作用函数模型、误差计算模型和自学习模型。
(1)节点输出模型
隐节点输出模型:Oj=f(∑wij×Xi-qj)
输出节点输出模型:Yk=f(∑Tjk×Oj-qk)
(2)作用函数模型
作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称刺激函数,一般取为(0,1)内连续取值Sigmoid函数,
(3)误差计算模型
误差计算模型是反映神经网络期望输出与计算输出之间误差大小的函数:
其中tpi为隐含层第i个节点的期望输出,Opi为输出层第i个节点的期望输出。
(4)自学习模型
神经网络的学习过程,即连接上层节点和下层节点之间的权重矩阵Wij的设定和误差修订过程。自学习模型为:ΔWij(n+1)=h×φi×Oj+aΔWijn,其中h为学习因子,φi为输出节点i的计算误差,Oj输出节点j的计算输出,a为动量因子。
具体的,本发明选用单隐层网络结构,隐含层节点数设置为15个,将加速度标准差、步频、加速度的主峰值和次峰值作为输入,传递函数采用双曲正切s形函数,训练方法采用LM算法,训练阶段数据采集方法采用在实验者鞋面上粘一块印泥用于标记实验者自然的各运动状态下的每一个步态周期,同时记录下MIMU采集的数据。用卷尺测量每一个步态周期的步长,结合自适应迈步起始点判断算法,与MIMU采集到的每一个步态周期的加速度和时间数据一一对应,计算每一步态周期的加速度标准差,步频,以及加速度主次峰值作为输入,将其对应的每一个步长作为期望输出,训练神经网络。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种目标步长估计方法,其特征在于,所述方法包括:
获取微惯性测量单元测量的目标初始加速度数据;
采用零偏补偿方法对所述目标初始加速度数据进行零偏补偿;
根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度;
根据所述起始点加速度采用BP神经网络算法估计目标步长。
2.根据权利要求1所述的目标步长估计方法,其特征在于,采用以下公式对所述目标初始加速度数据进行零偏补偿:
其中fi为零偏补偿后的加速度数据,为采集到的第l个数据样本的初始加速度值,fb0为加速度静态偏移,为初始时刻载体系到导航系的方向余弦矩阵,p为采集的数据样本。
3.根据权利要求1所述的目标步长估计方法,其特征在于,所述根据所述零偏补偿后的加速度数据通过迈步起始点判断法获取起始点加速度具体包括:
判断所述零偏补偿后的K时刻的加速度数据是否处于零速度稳定值;
若所述K时刻的加速度数据处于所述零速度稳定值,则判断K时刻加速度数据的前n个零偏补偿后的加速度数据是否处于零速度稳定值;其中,n为静态阶段的加速度数据个数;
若所述前n个零偏补偿后的加速度数据处于零速度稳定值,则判断K时刻加速度数据的后m个零偏补偿后的加速度数据是否依次增加;其中,m为抬脚阶段的加速度数据个数;
若后m个零偏补偿后的加速度数据依次增加,则取K时刻的加速度数据为起始点加速度。
4.根据权利要求3所述的目标步长估计方法,其特征在于,所述静态阶段的加速度数据个数n的取值为:
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔小于0.8s时,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔大于0.95s时,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差在[1.2,4]之间,此时运动状态为跑步,n=F/50,其中F为所述微惯性测量单元的频率;
当K时刻的加速度数据主峰值与K-1时刻的加速度数据主峰值的时间间隔在[0.8s,0.95s]之间,且主峰值与次峰值之差不在[1.2,4]之间,此时运动状态为步行,n=F/10,其中F为所述微惯性测量单元的频率。
5.根据权利要求1所述的目标步长估计方法,其特征在于,所述根据所述起始点加速度采用BP神经网络算法估计目标步长具体包括:
获取目标加速度标准差、步频、加速度主峰值以及加速度次峰值,将所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值输入至PB神经网络的输入层节点;
根据所述目标加速度标准差、步频、加速度主峰值以及加速度次峰值计算BP神经网络的隐含层和输出层的各节点的输出;
根据所述各节点的输出计算所述各节点的输出与目标值的偏差;
根据所述偏差对BP神经网络进行训练,得到目标步长。
6.根据权利要求5所述的目标步长估计方法,其特征在于,所述BP神经网络的隐含层和输出层的各节点的输出具体采用以下公式获得:
Oj=f(∑wij×Xi-qj),其中,Oj为隐含层节点的输出,f为非线性可微非递减函数,wij为输入层的神经元i与隐含层的神经元j的权系数,Xi为输入层输入向量的第i个分量,qj为第一阈值;
Yk=f(∑Tjk×Oj-qk),其中,Yk为输出层节点的输出,f为非线性可微非递减函数,Tjk为隐含层的神经元j与输出层的神经元k的权系数,Oj为隐含层输入向量的第j个分量,qk为第二阈值。
7.根据权利要求5所述的目标步长估计方法,其特征在于,所述隐含层节点采用Sigmoid作为传递函数,所述Sigmoid传递函数为其中x为隐含层一神经元的综合输入量;
所述输出层采用双曲正切s型函数作为传递函数。
8.根据权利要求5所述的目标步长估计方法,其特征在于,所述偏差具体采用以下公式获得:
其中tpi为隐含层第i个节点的期望输出,Opi为输出层第i个节点的期望输出。
CN201811212035.6A 2018-10-18 2018-10-18 一种目标步长估计方法 Active CN109405832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811212035.6A CN109405832B (zh) 2018-10-18 2018-10-18 一种目标步长估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811212035.6A CN109405832B (zh) 2018-10-18 2018-10-18 一种目标步长估计方法

Publications (2)

Publication Number Publication Date
CN109405832A true CN109405832A (zh) 2019-03-01
CN109405832B CN109405832B (zh) 2020-06-09

Family

ID=65468497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811212035.6A Active CN109405832B (zh) 2018-10-18 2018-10-18 一种目标步长估计方法

Country Status (1)

Country Link
CN (1) CN109405832B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113514665A (zh) * 2021-05-28 2021-10-19 成都工业职业技术学院 一种乏燃料组件运输容器加速度监测系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105783923A (zh) * 2016-01-05 2016-07-20 山东科技大学 基于rfid和mems惯性技术的人员定位方法
US20160290807A1 (en) * 2010-11-25 2016-10-06 Texas Instruments Incorporated Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
CN106705968A (zh) * 2016-12-09 2017-05-24 北京工业大学 基于姿态识别和步长模型的室内惯性导航算法
CN106813676A (zh) * 2017-02-21 2017-06-09 北京邮电大学 一种计步、定位方法及装置
CN108225304A (zh) * 2018-01-26 2018-06-29 青岛美吉海洋地理信息技术有限公司 基于多源传感器室内快速定位方法与系统
CN108362289A (zh) * 2018-02-08 2018-08-03 浙江大学城市学院 一种基于多传感器融合的移动智能终端pdr定位方法
CN108444473A (zh) * 2018-03-20 2018-08-24 南京华苏科技有限公司 一种行人室内轨迹定位方法
CN108519105A (zh) * 2018-03-09 2018-09-11 天津大学 一种基于差分统计的零速校正定位方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160290807A1 (en) * 2010-11-25 2016-10-06 Texas Instruments Incorporated Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems
CN105783923A (zh) * 2016-01-05 2016-07-20 山东科技大学 基于rfid和mems惯性技术的人员定位方法
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
CN106705968A (zh) * 2016-12-09 2017-05-24 北京工业大学 基于姿态识别和步长模型的室内惯性导航算法
CN106813676A (zh) * 2017-02-21 2017-06-09 北京邮电大学 一种计步、定位方法及装置
CN108225304A (zh) * 2018-01-26 2018-06-29 青岛美吉海洋地理信息技术有限公司 基于多源传感器室内快速定位方法与系统
CN108362289A (zh) * 2018-02-08 2018-08-03 浙江大学城市学院 一种基于多传感器融合的移动智能终端pdr定位方法
CN108519105A (zh) * 2018-03-09 2018-09-11 天津大学 一种基于差分统计的零速校正定位方法
CN108444473A (zh) * 2018-03-20 2018-08-24 南京华苏科技有限公司 一种行人室内轨迹定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHENG ZHONG 等: "AN ACCURATE AND ADAPTIVE PEDOMETER INTEGRATED IN MOBILE HEALTH APPLICATION", 《IET INTERNATIONAL CONFERENCE ON WIRELESS SENSOR NETWORK 2010 (IET-WSN 2010)》 *
陈小娟: "《高校本科专业设置预测模型构建》", 30 April 2015, 广东高等教育出版社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113514665A (zh) * 2021-05-28 2021-10-19 成都工业职业技术学院 一种乏燃料组件运输容器加速度监测系统及方法

Also Published As

Publication number Publication date
CN109405832B (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
Wahlström et al. Fifteen years of progress at zero velocity: A review
CN109579853B (zh) 基于bp神经网络的惯性导航室内定位方法
CN108645413A (zh) 一种移动机器人的同时定位与地图创建的动态纠正方法
Guignard et al. Behavioral dynamics in swimming: The appropriate use of inertial measurement units
Grün et al. A real-time tracking system for football match and training analysis
CN104964685B (zh) 一种手机运动姿态的判定方法
CN106548475A (zh) 一种适用于空间非合作自旋目标运动轨迹的预测方法
Bird et al. Closing the loop in dynamic soaring
CN104613965B (zh) 一种基于双向滤波平滑技术的步进式行人导航方法
CN109029435B (zh) 提高惯性-地磁组合动态定姿精度的方法
Sun et al. Adaptive sensor data fusion in motion capture
CN108332771A (zh) 一种在复杂环境中计算运动距离的方法及系统
Balas et al. Predictions of missing wave data by recurrent neuronets
Kuzdeuov et al. Neural network augmented sensor fusion for pose estimation of tensegrity manipulators
CN109540133B (zh) 基于微惯性技术的自适应步态划分方法、系统
CN108917755B (zh) 一种成像导引头视线角零位误差估计方法及装置
CN107677267A (zh) 基于mems‑imu的室内行人导航航向反馈修正方法
CN108592907A (zh) 一种基于双向滤波平滑技术的准实时步进式行人导航方法
CN113091768A (zh) 一种mimu整体动态智能标定补偿方法
CN109405832A (zh) 一种目标步长估计方法
CN108759846B (zh) 自适应扩展卡尔曼滤波噪声模型建立方法
CN109188352B (zh) 一种组合导航相对定位方法
CN108460731A (zh) 一种消除联网飞行仿真中视景图像抖动的方法
CN109471192A (zh) 一种全自动重力测试仪高精度动态数据处理方法
CN108648214A (zh) 一种基于宽度学习滤波的视觉slam算法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant