CN108362289B - 一种基于多传感器融合的移动智能终端pdr定位方法 - Google Patents

一种基于多传感器融合的移动智能终端pdr定位方法 Download PDF

Info

Publication number
CN108362289B
CN108362289B CN201810129685.8A CN201810129685A CN108362289B CN 108362289 B CN108362289 B CN 108362289B CN 201810129685 A CN201810129685 A CN 201810129685A CN 108362289 B CN108362289 B CN 108362289B
Authority
CN
China
Prior art keywords
pedestrian
data
micro
scene
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810129685.8A
Other languages
English (en)
Other versions
CN108362289A (zh
Inventor
孙霖
郑增威
徐龙阳
吴剑钟
霍梅梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University City College ZUCC
Original Assignee
Zhejiang University City College ZUCC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University City College ZUCC filed Critical Zhejiang University City College ZUCC
Priority to CN201810129685.8A priority Critical patent/CN108362289B/zh
Publication of CN108362289A publication Critical patent/CN108362289A/zh
Application granted granted Critical
Publication of CN108362289B publication Critical patent/CN108362289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Abstract

本发明涉及一种基于多传感器融合的移动智能终端PDR定位方法,包括:神经网络模型预测行人移动距离阶段、微航向角融合算法估计行人移动方向阶段、行人移动轨迹计算阶段。本发明的有益效果是:由实验结果可以看出本发明在降低PDR算法累计误差方面取得了比较理想的结果,通过BP神经网络预测行人移动距离,有效避免传统方法中利用步数检测和步长估计带来的计算误差。设计的微航向角融合算法能有效降低传感器漂移影响,从而使定位精度满足室内位置需求,是一种精确、低成本、普适性高的室内定位方法。

Description

一种基于多传感器融合的移动智能终端PDR定位方法
技术领域
本发明涉及一种定位方法,更具体的说,它涉及一种基于多传感器融合的移动智能终端PDR定位方法。
背景技术
室内定位技术已经受到人们普遍关注,各种室内定位技术不断涌现,如红外线定位、超声波定位、WIFI定位、射频识别定位、超宽带定位、移动传感器定位等,然而这些定位技术普遍依赖于特定设备支持,各自具有一定局限性,难以实现广泛推广应用。
随着智能手机和微传感器技术发展,利用智能手机内嵌的多传感器进行PDR(Pedestrian Dead Reckoning,步行者航位推算)定位技术,已经成为国内外学者重点关注的研究方向之一。然而该技术目前仍存在传感器不精确测量、误差累积等问题。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于多传感器融合的移动智能终端PDR定位方法。
这种基于多传感器融合的移动智能终端PDR定位方法,包括如下步骤:
步骤1、神经网络模型预测行人移动距离阶段
步骤1.1、对三轴加速度计传感器采集的数据进行归一化预处理,我们将每条路线数据用m×n的二维矩阵表示,每一行数据表示为一个样本;将每一行数据分别归一化到区间[-1,1]内,当矩阵每一行值都不全相等时,归一化计算公式是:
y=(ymax-ymin)*(x-xmin)/(xmax-xmin)+ymin
当某行的数据全部相同,此时xmax=xmin,除数为0,则y=ymin;其中,x为需要归一化的数据,y是处理后的结果,ymax、ymin默认值为-1和1;
步骤1.2、将归一化的加速度计传感数据和对应行人每秒真实移动距离数据按4/5、1/5数据量划分训练集和测试集;
步骤1.3、用训练集、测试集数据对BP神经网络进行训练和测试;BP神经网络模型结构分为三层的网络结构,即输入层i、隐层j和输出层l;输入层输入是每秒内三轴加速度计在x、y、z轴上采集的归一化加速度数据xi、yi、zi和对应的行人真实移动距离数据si,输出层输出每秒移动距离预测值li,隐层的神经元数目用试触法确定合适的神经元个数,输入层到隐层的连接权值为wij,隐层到输出层的连接权值为wjl,输出层的阈值δl,隐层阈值δj;在训练网络之前,初始化权值取[-1,1]之间的随机数,阈值取[0,1]之间的随机数,α为学习率取0.1;
误差反向传播过程阈值计算和权值更新如下:
(1)对于输出层的每个神经元l,计算阈值:
δl=li(1-li)(Si-li)
(2)对于隐层的每个神经元j,计算阈值:
Figure GDA0002591426380000021
(3)权值更新
wij=wij+αδjxi
步骤2、微航向角融合算法估计行人移动方向阶段
步骤2.1、计算初始三种微航向角,设行人t-1时刻初始方向角
Figure GDA0002591426380000022
分别利用陀螺仪和磁力计计算t时刻方向角
Figure GDA0002591426380000023
步骤3、行人移动轨迹计算阶段
步骤3.1、设行人t时刻的初始位置(Xt,Yt)为(0,0),利用行人移动的距离St+1和方向角
Figure GDA0002591426380000024
得到t+1时刻的位置,具体计算公式如下:
Figure GDA0002591426380000025
Figure GDA0002591426380000026
步骤3.2、重复步骤3.1,直到计算完行人所有位置坐标,得到一条行人移动轨迹信息。
作为优选:所述步骤2还包括:
步骤2.2、通过将行走过程分为四类微场景,四类微场景分类标准计算公式如下:
η=10°,θ=40°
Figure GDA0002591426380000027
Figure GDA0002591426380000031
Figure GDA0002591426380000032
Figure GDA0002591426380000033
时,为场景一,直线行走,陀螺仪、磁力计有相似输出;
Figure GDA0002591426380000034
Figure GDA0002591426380000035
时,为场景二,拐弯行走,陀螺仪、磁力计有相似输出;
Figure GDA0002591426380000036
Figure GDA0002591426380000037
时,为场景三,直线行走,陀螺仪、磁力计无相似输出;
Figure GDA0002591426380000038
Figure GDA0002591426380000039
时,为场景四,拐弯行走,陀螺仪、磁力计无相似输出;
步骤2.3、根据分类的四种微场景,选择合适的传感器源,设计出微航向角融合算法,利用三种微航向角进行分类加权融合估算行人行走方向角
Figure GDA00025914263800000310
计算公式如下:
场景一:
Figure GDA00025914263800000311
场景二:
Figure GDA00025914263800000312
场景三:
Figure GDA00025914263800000313
场景四:
Figure GDA00025914263800000314
其中三种微航向角权值参数为wp:wg:wm=2:1:2,公式中参数计算如下:
wpgm=(wp+wm+wg)-1
wpg=(wp+wg)-1
wgm=(wg+wm)-1
本发明的有益效果是:由实验结果可以看出本发明在降低PDR算法累计误差方面取得了比较理想的结果,通过BP神经网络预测行人移动距离,有效避免传统方法中利用步数检测和步长估计带来的计算误差。设计的微航向角融合算法能有效降低传感器漂移影响,从而使定位精度满足室内位置需求,是一种精确、低成本、普适性高的室内定位方法。
附图说明
图1是定位方法流程图;
图2是神经网络模型图;
图3是分类微场景传感器源选择示意图。
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
一、本发明的整体思想:
我们主要考虑以下两个方面:如何利用BP神经网络模型精确预测行人移动距离;如何有效地利用设计的微航向角融合算法,降低陀螺仪、磁力计的不精确测量和误差累积的影响。
二、本发明所述的这种在室内环境中基于多传感器融合的移动智能终端PDR定位方法分为三个阶段:
1、神经网络模型预测行人移动距离阶段
该阶段其步骤如下:
1)对三轴加速度计传感器采集的数据进行归一化预处理,我们将每条路线数据用m×n的二维矩阵表示,每一行数据表示为一个样本。将每一行数据分别归一化到区间[-1,1]内,当矩阵每一行值都不全相等时,归一化计算公式是:
y=(ymax-ymin)*(x-xmin)/(xmax-xmin)+ymin
当某行的数据全部相同,此时xmax=xmin,除数为0,则y=ymin。其中,x为需要归一化的数据,y是处理后的结果,ymax、ymin默认值为-1和1。
2)将归一化的加速度计传感数据和对应行人每秒真实移动距离数据按4/5、1/5数据量划分训练集和测试集。
3)用训练集、测试集数据对BP神经网络进行训练和测试。BP神经网络是一种通过误差逆向传播算法进行训练的多层前馈神经网络,算法包括信号的前向传播和误差的反向传播两个过程,信号的前向传播过程计算出输入与输的误差。误差的反向传播过程将计算的误差分摊到各层神经元,通过不断反复调整各层之间的连接权值和阈值,达到修正误差的目的。该模型具有很强的非线性映射能力,是目前应用最广泛的神经网络之一。本文BP神经网络模型结构(如图2所示),分为三层的网络结构,即输入层i、隐层j和输出层l。输入层输入是每秒内三轴加速度计在x、y、z轴上采集的归一化加速度数据xi、yi、zi和对应的行人真实移动距离数据si,输出层输出每秒移动距离预测值li,隐层的神经元数目用试触法确定合适的神经元个数,输入层到隐层的连接权值为wij,隐层到输出层的连接权值为wjl,输出层的阈值δl,隐层阈值δj。在训练网络之前,初始化权值取[-1,1]之间的随机数,阈值取[0,1]之间的随机数,α为学习率取0.1。
误差反向传播过程阈值计算和权值更新如下:
(1)对于输出层的每个神经元l,计算阈值:
δl=li(1-li)(Si-li)
(2)对于隐层的每个神经元j,计算阈值:
Figure GDA0002591426380000051
(3)权值更新:
wij=wij+αδjxi
2、微航向角融合算法估计行人移动方向阶段
该阶段其步骤如下:
1)计算初始三种微航向角,设行人t-1时刻初始方向角
Figure GDA0002591426380000052
分别利用陀螺仪和磁力计计算t时刻方向角
Figure GDA0002591426380000053
2)通过将行走过程分为四类微场景,四类微场景分类标准计算公式如下:
η=10°,θ=40°
Figure GDA0002591426380000054
Figure GDA0002591426380000055
Figure GDA0002591426380000056
Figure GDA0002591426380000057
时,为场景一,直线行走,陀螺仪、磁力计有相似输出。
Figure GDA0002591426380000058
Figure GDA0002591426380000059
时,为场景二,拐弯行走,陀螺仪、磁力计有相似输出。
Figure GDA00025914263800000510
Figure GDA00025914263800000511
时,为场景三,直线行走,陀螺仪、磁力计无相似输出。
Figure GDA00025914263800000512
Figure GDA00025914263800000513
时,为场景四,拐弯行走,陀螺仪、磁力计无相似输出。
3)根据分类的四种微场景,选择合适的传感器源(如图3所示),设计出微航向角融合算法,利用三种微航向角进行分类加权融合估算行人行走方向角
Figure GDA0002591426380000061
计算公式如下:
场景一:
Figure GDA0002591426380000062
场景二:
Figure GDA0002591426380000063
场景三:
Figure GDA0002591426380000064
场景四:
Figure GDA0002591426380000065
其中三种微航向角权值参数为wp:wg:wm=2:1:2,公式中参数计算如下:
wpgm=(wp+wm+wg)-1
wpg=(wp+wg)-1
wgm=(wg+wm)-1
3、行人移动轨迹计算阶段
该阶段步骤如下:
1)设行人t时刻的初始位置(Xt,Yt)为(0,0),利用行人移动的距离St+1和方向角
Figure GDA0002591426380000066
得到t+1时刻的位置,具体计算公式如下:
Figure GDA0002591426380000067
Figure GDA0002591426380000068
2)重复1)步骤,直到计算完行人所有位置坐标,得到一条行人移动轨迹信息。
三、验证结果:
为了验证该方法的效果,数据集来自2015年在日本大阪举行的“UbiComp/ISWC2015 PDRhallenge”大赛,设计两种方案:方案一是用同一种手机与不同的人之间采集的数据来训练、测试,手机是Nexus5。方案二是用不同的手机和不同的人之间采集的数据来训练、测试。方案一、二里分别用50、8和55、8条路线数据来训练、测试BP神经网络。在移动距离预测里,将测试集数据测试已训练好的BP神经网络模型,得到行人每秒距离预测,预测结果如下表1、2所示,总体上,两种方案平均误差只有0.0928m,其中方案一总体平均误差达到0.0899m,方案二是0.1016m。两个方案里最高平均误差也仅有0.1268m,表明了BP神经网络预测方法的可靠性。在移动方向估计里,分别用陀螺仪、磁力计以及微航向角融合算法计算行人行走的方向角。在行人移动轨迹计算里,统一用BP神经预测的移动距离和分别用移动方向估计实验得到方向角计算行人移动轨迹。
表1方案一行人每秒移动距离预测误差
不同人的ID 平均误差/m
01 0.1033
02 0.1021
03 0.0856
04 0.0637
05 0.1032
06 0.0834
07 0.0632
08 0.1147
总体 0.0899
表2方案二行人每秒移动距离预测误差
不同人的ID 平均误差/m
09 0.1268
10 0.0855
11 0.1659
12 0.0886
13 0.1011
14 0.0805
15 0.0872
16 0.0778
总体 0.1016
两个方案测试人数为16位,有75%的人定位误差保持在1~4m范围内,最好的定位精度平均误差仅有2.16m,表明提出的定位方法能够有效降低传感器累计误差,提高定位精度,两个方案具体定位结果分别如表3、4所示:
表3方案一不同方法的定位误差
Figure GDA0002591426380000071
Figure GDA0002591426380000081
表4方案二不同方法的定位误差
ID(人) PDR(BP+陀螺仪)/m PDR(BP+磁力计)/m PDR(BP+微航向角融合)/m
09 1.8 5.76 3.75
10 4.31 4.82 3.73
11 11.34 12.06 10.54
12 5.53 4.92 3.7
13 3.54 4.22 3.27
14 5.2 3.2 2.99
15 7.92 5.09 2.49
16 8.02 4.25 4.14

Claims (1)

1.一种基于多传感器融合的移动智能终端PDR定位方法,其特征在于,包括如下步骤:步骤1、神经网络模型预测行人移动距离阶段
步骤1.1、对三轴加速度计传感器采集的数据进行归一化预处理,将每条路线数据用m×n的二维矩阵表示,每一行数据表示为一个样本;将每一行数据分别归一化到区间[-1,1]内,当矩阵每一行值都不全相等时,归一化计算公式是:
y=(ymax-ymin)*(x-xmin)/(xmax-xmin)+ymin
当某行的数据全部相同,此时xmax=xmin,除数为0,则y=ymin;其中,x为需要归一化的数据,y是处理后的结果,ymax、ymin默认值为-1和1;
步骤1.2、将归一化的加速度计传感数据和对应行人每秒真实移动距离数据按4/5、1/5数据量划分训练集和测试集;
步骤1.3、用训练集、测试集数据对BP神经网络进行训练和测试;BP神经网络模型结构分为三层的网络结构,即输入层、隐层和输出层;输入层输入是每秒内三轴加速度计在x、y、z轴上采集的归一化加速度数据xi、yi、zi和对应的行人真实移动距离数据si,输出层输出每秒移动距离预测值li,隐层的神经元数目用试触法确定合适的神经元个数,输入层到隐层的连接权值为wij,隐层到输出层的连接权值为wjl,输出层的阈值δl,隐层阈值δj;在训练网络之前,初始化权值取[-1,1]之间的随机数,阈值取[0,1]之间的随机数,学习率取0.1;
误差反向传播过程阈值计算和权值更新如下:
(1)对于输出层的每个神经元l,计算阈值;
(2)对于隐层的每个神经元j,计算阈值;
(3)权值更新;
步骤2、微航向角融合算法估计行人移动方向阶段
步骤2.1、计算初始三种微航向角,设行人t-1时刻初始方向角
Figure FDA0002739053210000011
分别利用陀螺仪和磁力计计算t时刻方向角
Figure FDA0002739053210000012
步骤2.2、通过将行走过程分为四类微场景,四类微场景分类标准计算公式如下:
η=10°,θ=40°
Figure FDA0002739053210000021
Figure FDA0002739053210000022
Figure FDA0002739053210000023
Figure FDA0002739053210000024
时,为场景一,直线行走,陀螺仪、磁力计有相似输出;
Figure FDA0002739053210000025
Figure FDA0002739053210000026
时,为场景二,拐弯行走,陀螺仪、磁力计有相似输出;
Figure FDA0002739053210000027
Figure FDA0002739053210000028
时,为场景三,直线行走,陀螺仪、磁力计无相似输出;
Figure FDA0002739053210000029
Figure FDA00027390532100000210
时,为场景四,拐弯行走,陀螺仪、磁力计无相似输出;
步骤2.3、根据分类的四种微场景,选择合适的传感器源,设计出微航向角融合算法,利用三种微航向角进行分类加权融合估算行人行走方向角
Figure FDA00027390532100000211
计算公式如下:
场景一:
Figure FDA00027390532100000212
场景二:
Figure FDA00027390532100000213
场景三:
Figure FDA00027390532100000214
场景四:
Figure FDA00027390532100000215
其中三种微航向角权值参数为wp:wg:wm=2:1:2,公式中参数计算如下:
wpgm=(wp+wm+wg)-1
wpg=(wp+wg)-1
wgm=(wg+wm)-1
步骤3、行人移动轨迹计算阶段
步骤3.1、设行人t时刻的初始位置(Xt,Yt)为(0,0),利用行人移动的距离St+1和方向角
Figure FDA00027390532100000216
得到t+1时刻的位置,具体计算公式如下:
Figure FDA00027390532100000217
Figure FDA00027390532100000218
步骤3.2、重复步骤3.1,直到计算完行人所有位置坐标,得到一条行人移动轨迹信息。
CN201810129685.8A 2018-02-08 2018-02-08 一种基于多传感器融合的移动智能终端pdr定位方法 Active CN108362289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810129685.8A CN108362289B (zh) 2018-02-08 2018-02-08 一种基于多传感器融合的移动智能终端pdr定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810129685.8A CN108362289B (zh) 2018-02-08 2018-02-08 一种基于多传感器融合的移动智能终端pdr定位方法

Publications (2)

Publication Number Publication Date
CN108362289A CN108362289A (zh) 2018-08-03
CN108362289B true CN108362289B (zh) 2020-12-08

Family

ID=63005156

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810129685.8A Active CN108362289B (zh) 2018-02-08 2018-02-08 一种基于多传感器融合的移动智能终端pdr定位方法

Country Status (1)

Country Link
CN (1) CN108362289B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109405832B (zh) * 2018-10-18 2020-06-09 南京理工大学 一种目标步长估计方法
CN109538208A (zh) * 2018-12-21 2019-03-29 冀中能源峰峰集团有限公司 一种掘进机截割头复合定位系统及方法
CN110345939B (zh) * 2019-07-02 2021-03-19 山东科技大学 一种融合模糊逻辑判断及地图信息的室内定位方法
CN110595464A (zh) * 2019-08-19 2019-12-20 北京数研科技发展有限公司 一种imu与视觉传感器融合定位方法和装置
CN113390418A (zh) * 2021-07-02 2021-09-14 河海大学 一种基于bp神经网络的行人航迹推算定位方法
CN114018267B (zh) * 2021-11-04 2023-07-07 国网新源控股有限公司 基于可穿戴式室内巡检定位装置的融合定位方法
CN115112121B (zh) * 2022-03-28 2023-03-03 浙江德清知路导航科技有限公司 基于数据与模型结合的多源融合定位方法、系统及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104748735A (zh) * 2013-12-25 2015-07-01 北京神州泰岳软件股份有限公司 基于智能终端的室内定位方法和设备
EP3112969A1 (en) * 2015-07-03 2017-01-04 Korea Advanced Institute of Science and Technology Method and apparatus for relocation of mobile robot in indoor environment
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
CN107339990A (zh) * 2017-06-27 2017-11-10 北京邮电大学 多模式融合定位系统及方法
CN107635204A (zh) * 2017-09-27 2018-01-26 深圳大学 一种运动行为辅助的室内融合定位方法及装置、存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104748735A (zh) * 2013-12-25 2015-07-01 北京神州泰岳软件股份有限公司 基于智能终端的室内定位方法和设备
EP3112969A1 (en) * 2015-07-03 2017-01-04 Korea Advanced Institute of Science and Technology Method and apparatus for relocation of mobile robot in indoor environment
CN106643715A (zh) * 2016-11-17 2017-05-10 天津大学 一种基于bp神经网络改善的室内惯性导航方法
CN107339990A (zh) * 2017-06-27 2017-11-10 北京邮电大学 多模式融合定位系统及方法
CN107635204A (zh) * 2017-09-27 2018-01-26 深圳大学 一种运动行为辅助的室内融合定位方法及装置、存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于智能手机的行人航位推算室内定位方法;徐龙阳;《电脑知识与技术》;20121231;第13卷(第36期);全文 *
多微型传感器自适应信息融合姿态估计方法;陈江等;《计算机研究与发展》;20101231(第47期);全文 *

Also Published As

Publication number Publication date
CN108362289A (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
CN108362289B (zh) 一种基于多传感器融合的移动智能终端pdr定位方法
CN110118560B (zh) 一种基于lstm和多传感器融合的室内定位方法
CN107396321B (zh) 基于手机传感器和iBeacon的无监督式室内定位方法
CN104215238A (zh) 一种智能手机室内定位方法
CN110401978B (zh) 基于神经网络和粒子滤波多源融合的室内定位方法
CN104394588B (zh) 基于Wi‑Fi指纹和多维尺度分析的室内定位方法
CN110536245B (zh) 一种基于深度学习的室内无线定位方法及系统
CN106597363A (zh) 一种室内wlan环境下的行人定位方法
CN106767828A (zh) 一种手机室内定位解决方法
CN108534779A (zh) 一种基于轨迹纠正和指纹改进的室内定位地图构建方法
CN110388926B (zh) 一种基于手机地磁和场景图像的室内定位方法
CN112367614B (zh) 一种基于LSTM的Wi-Fi与地磁场融合的室内定位算法
CN103428850A (zh) 基于压缩感知的分布式多区域定位方法
CN103369466A (zh) 一种地图匹配辅助室内定位方法
CN105444763A (zh) 一种imu室内定位方法
CN105674989A (zh) 一种基于手机内置传感器的室内目标运动轨迹估计方法
CN103152745A (zh) 一种强自适应性移动节点定位的方法
CN103152820B (zh) 一种无线传感器网络声源目标迭代定位方法
CN104748735A (zh) 基于智能终端的室内定位方法和设备
CN106970379A (zh) 基于泰勒级数展开对室内目标的测距定位方法
Wang et al. Spatiotemporal co-attention hybrid neural network for pedestrian localization based on 6D IMU
CN102595309A (zh) 一种基于无线传感器网络的穿墙跟踪方法
CN108668254B (zh) 基于改进BP神经网络的WiFi信号特征的区域定位方法
CN110572772B (zh) 基于GRNN-AdaBoost的多设备融合定位方法
Tong et al. Smartphone-based vehicle tracking without GPS: Experience and improvements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant