CN104965190B - 基于位置指纹的轴向解耦室内定位方法 - Google Patents
基于位置指纹的轴向解耦室内定位方法 Download PDFInfo
- Publication number
- CN104965190B CN104965190B CN201510260753.0A CN201510260753A CN104965190B CN 104965190 B CN104965190 B CN 104965190B CN 201510260753 A CN201510260753 A CN 201510260753A CN 104965190 B CN104965190 B CN 104965190B
- Authority
- CN
- China
- Prior art keywords
- msub
- mtd
- mrow
- mover
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000012706 support-vector machine Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 22
- 238000012843 least square support vector machine Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 8
- 238000002790 cross-validation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
Abstract
本发明提出了一种基于位置指纹的轴向解耦室内定位方法,包括离线训练阶段和在线定位阶段,离线训练阶段步骤如下:(1)将室内定位区域进行网格划分,采集各个网格中各AP的RSS值,构建网格的RSS特征向量并形成X轴、Y轴样本集;(2)对X轴和Y轴样本进行归一化处理;(3)利用归一化的X轴和Y轴样本独立地训练分类器。在线定位阶段步骤如下:(4)利用训练好的分类器对待定位区域的RSS指纹进行预测,独立地形成X轴、Y轴的决策结果;(5)组合两轴决策结果,得到定位结果。本发明通过对X轴和Y轴独立地进行定位决策,极大地减少了分类器数目;相应地,定位时间也得到减小,同时提高了定位精度。
Description
技术领域
本发明属于信号处理与模式识别技术领域,涉及位置指纹、室内定位、轴向解耦技术,尤其涉及一种基于位置指纹的轴向解耦室内定位方法。
背景技术
随着无线网络、移动通信和普适计算技术的日趋成熟和快速发展,基于位置的无线定位服务显得越来越重要。目前全球定位系统(GPS)是应用较为成功的无线定位技术,在室外宽敞环境下具有定位迅速且准确稳定等优点。但对于室内环境和高楼密布的城市,GPS系统因为卫星信号被阻隔导致定位精度严重下降甚至无法定位。因此近年来基于无线接入点(Access Point,AP)的位置指纹室内定位技术已成为国内外研究的热点。
基于位置指纹的定位技术就是利用在感兴趣区域(ROI)接收到的来自AP的RSS值来推断观察者或场景内物体的位置,且事先不需知道AP的位置。此外基于位置指纹的定位技术不需要添加额外的硬件支持可以方便的应用在移动设备中,定位成本低,可以更好的保护用户的安全隐私。艾浩军等在《一种基于Wi-Fi指纹的室内定位方法》中公开了基于RSS直方图的设备校准方法和时间平均法,仿真结果表明,该方法能精确定位到3米。黄正勇等在《基于指纹聚类的新型室内定位方法》中公开了一种基于相似性传播聚类算法以及最近邻居法相结合的分层的室内定位方法,仿真结果表明,基于指纹聚类的新型室内定位方法的最大定位误差可达5.1928米,平均定位误差为2.4088米,所需的定位时间为2.49秒。尽管位置指纹定位有诸多优点并提出了一些定位方法,但是依然存在以下问题:
(1)位置指纹定位的一种常见思路是将其看成一个模式分类问题,目前使用较多的基于模式分类器有K近邻(K-Nearest Neighbors,K-NN)、神经网络(Neural Networks,NN)和支持向量机(Support Vector Machines,SVM)等。上述模分类的主要问题是计算量大且所需的分类器多。如何改进定位算法来减少分类器数目,从而减少计算代价。
(2)更进一步地,如何确保在减少计算代价的同时还能提高定位精度。为了得到较高的定位精度,在离线阶段需要收集足够多的可以代表定位区域内时间和空间覆盖的位置指纹样本。而大量的训练样本必然会导致定位系统的训练时间变长、计算代价增大。现有的定位技术不能在减少计算代价的同时提高定位精度,而只能取其一,所以大多数定位技术都以牺牲计算代价来获取较高的定位精度。
因此,有必要提供一种定位方法,既能减少了分类器数目,以此减少计算代价和定位时间,又能同时提高定位精度。
发明内容
为了克服现有技术的上述缺点与不足,本发明提出一种基于位置指纹的轴向解耦室内定位方法,通过对X轴和Y轴独立地进行定位决策,极大的减少了分类器数目,相应的定位时间也得到减少,同时提高了室内定位系统的精度。
本发明的技术方案为:
一种基于位置指纹的轴向解耦室内定位方法,该定位方法包括离线训练阶段和在线定位阶段,离线训练阶段包括以下步骤:
S1.将所需定位区域按XY坐标轴划分为lx×ly个网格,在各网格中,采集移动终端接收到的各无线AP的RSS值【接收信号强度】,将得到的网格的RSS指纹作为样本,记为其中w为样本总数,i为样本编号;表示第i个样本中的第n个无线AP的RSS值,n=1,2,...,N,N为可用的无线AP的总数;样本的RSS特征向量表示为其中mi和ni分别为第i个样本对应的网格在X轴和Y轴上的类别号,且mi=1,2,...,lx,ni=1,2,...,ly;再将按坐标轴拆分为X轴和Y轴样本,分别表示为:
S2.对X轴和Y轴样本进行归一化处理;
S3.利用归一化的X轴样本和Y轴样本分别训练基于模式的分类器,分别得到X轴分类器与Y轴分类器;
所述的在线定位阶段包括以下步骤:
S4.采集移动终端在待定位区域接收到的各无线AP的RSS值,得到待定位区域的RSS指纹将分别作为离线训练阶段训练好的X轴分类器与Y轴分类器的输入,独立地形成X轴和Y轴的决策结果;
S5.组合X轴和Y轴决策结果,确定待定位区域所属网格,得到定位结果。
【所述S1中的网格并不局限于矩形,可以是非规则网格。所述S1采集各网格的RSS指纹是在持续的一段时间内进行,以避免各网格的RSS指纹采集时间不同,带来的计算误差。】
所述步骤S3中,基于模式的分类器为最小二乘支持向量机(Least SquaresSupport Vector Machines,LS-SVM)分类器、支持向量机(Support Vector Machines,SVM)分类器或K近邻(K-Nearest Neighbors,K-NN)分类器。【本发明采用的基于模式分类器有多重选择,各分类器只是构造的函数不一样,虽然本发明中只以LS-SVM分类器为例来构造X轴,Y轴分类器,但应该注意的是,使用其它基于模式分类器来实现本发明的技术方案,也属于本发明的保护范围。】
所述X轴分类器的决策函数为:
其中,为待定位区域的RSS指纹;bx为阈值,是拉格朗日乘子;是满足Mercer条件的核函数;
由于与X轴上的类别号mi对应,若函数sign(·)括号中的数值是正数,则判断待定位区域在X轴上属于第mi类;否则若函数sign(·)括号中的数值是负数,则判断待定位区域在X轴上不属于第mi类;
满足Mercer条件的核函数可以是多项式函数、径向基函数(RBF)和Sigmoid函数等,选择不同的核函数构造的分类器不同,本发明以RBF核函数、LS-SVM分类器为例进行说明。
所述的计算方法为:
其中gx为核宽度,它决定了样本特征子空间分布的复杂程度;||·||是向量的2-范数,
所述阈值bx与由下式确定:
其中cx为正则化参数。
所述未知参数对(cx,gx)的取值方法为:先采用网格搜索法(grid search)选择参数对,然后采用交叉验证法(Cross Validation)进行寻优,将使得分类准确率最高的参数对作为(cx,gx)的取值;所述cx,gx取值范围均为[2-10,210],步距为1。
所述Y轴分类器的决策函数为:
其中,为待定位区域的RSS指纹;by为阈值,是拉格朗日乘子;是满足Mercer条件的核函数:
由于与Y轴上的类别号ni对应,若函数sign(·)括号中的数值是正数,则判断待定位区域在Y轴上属于第ni类;否则若函数sign(·)括号中的数值是负数,则判断待定位区域在Y轴上不属于第ni类;
满足Mercer条件的核函数可以是多项式函数、径向基函数(RBF)和Sigmoid函数等,选择不同的核函数构造的分类器不同,本发明以RBF核函数、LS-SVM分类器为例进行说明。
所述的计算方法为:
其中;其中gy为核宽度,它决定了样本特征子空间分布的复杂程度;
所述阈值by与由下式确定:
其中cy为正则化参数。
所述未知参数对(cy,gy)的取值方法为:先采用网格搜索法(grid search)选择参数对,然后采用交叉验证法(Cross Validation)进行寻优,将使得分类准确率最高的参数对作为(cy,gy)的取值。所述cy,gy取值范围均为[2-10,210],步距为1。
本发明的性能分析如下:
传统的位置指纹定位法是将区域划分为若干个子区域,每个子区域代表一类,再应用多类分类器进行决策。如果将所需定位的二维定位区域划分为lx×ly的网格。其中每个网格对应于一个类别,那么有lx·ly个类别,并且位置坐标为网格的中心,将这种方法称为网格法。而本发明提出的轴向解耦定位法不是同时估计X轴和Y轴坐标,而是同时独立地估计两轴坐标。因此,对于X维,将所需定位划分为lx个相等的列条纹,且每一列代表一类;类似地,将Y维划分为ly个相等的行条纹,且每一行代表一类。由此,可以得出轴向解耦法有lx+ly个类别,远远小于lx×ly。即分类器数目很大程度上得到减少,同时相应的训练时间也得到减少。
与现有技术相比,本发明具有以下优点和有益效果:
本发明提出的轴向解耦室内定位方法是通过对X轴和Y轴独立地进行定位决策,大大减少了分类器数目,根据大量的计算机仿真证实,相应的训练时间也得到减少,而且也提高了定位精度。此外,本发明拥有位置指纹定位的优点:可以很好的集成在移动终端且不需要添加额外的硬件设备,降低了定位成本;用户在定位过程中不需要知道无线AP的位置,提高了系统的实用性。这种低复杂度的计算处理以及高精度的定位方法使在移动终端上的实时定位成为可能。
附图说明
图1:基于位置指纹的轴向解耦室内定位框架;
图2:实施例中测试区域的地图;
图3:LS-SVM、SVM在解耦与非解耦情况下定位误差与定位时间比较;其中图3(a)为LS-SVM、SVM在解耦与非解耦情况下不同网格大小时的定位误差;图3(b)为LS-SVM、SVM在解耦与非解耦情况下不同网格大小时的所需时间。
具体实施方式
下面结合具体实施例对本发明进行详细说明,以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明,应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,如步骤S1中的网格不使用矩形网格,而使用非规则网格;核函数和分类器使用其它形式的核函数和分类器,这些都应属于本发明的保护范围。
如图1所示,本发明分为离线训练阶段和在线定位阶段。离线训练阶段主要是建立所需定位区域的RSS指纹数据库。首先将所需定位区域进行网格划分,收集每个网格中无线AP的RSS值,构建该网格的RSS特征向量并依此形成X轴、Y轴样本集;根据X轴和Y轴样本集独立地训练得到X轴和Y轴分类器。在线定位阶段主要是用户手持移动终端进入待定位区域,采集当前位置各个AP的RSS值,再将采集到的RSS指纹分别输入X轴和Y轴分类器进行匹配。最后根据匹配结果确定待定位区域所属网格,该网格的质心即为定位结果。
本发明通过对X轴和Y轴独立地进行定位决策,一方面可以有效的减少分类器数目,减少相应的训练时间,同时提高了定位精度。
实施例1:
如图2所示,本实施例测试的实验环境是Wi-Fi覆盖下的一个办公区域(包括走廊、教室和楼梯),区域大小为30m×25m。其中,菱形代表了6个无线AP的位置。本次实验共采集了257个样本,每个样本由6个不同AP的RSS值组成。根据网格划分的大小不同,RSS样本的类别数目也不一样。传统的网格法是将定位区域划分为lx×ly的网格,其中每个网格对应于一个类别,共有lx·ly个类别,并且位置坐标为网格的中心。而本发明提出的轴向解耦定位法不是同时估计X轴和Y轴坐标的,而是同时独立地估计两轴坐标。因此,对于X维,将定位区域划分为lx个相等的列条纹,且每一列代表一类;类似地,将Y维划分为ly个相等的行条纹,且每一行代表一类。由此,可以得出轴向解耦法有lx+ly个类别,远远小于lx·ly。即分类器数目在很大程度上得到减少,同时相应的训练时间也得到减少。
本实施例实验的运行环境为windows XP操作系统,CPU G645,内存3.47G,MATLABR2009a。在仿真及其实验过程中,将本发明与传统网格定位方法相比较。将LS-SVM、SVM等模式分类器应用到位置指纹定位框架中,以此来验证轴向解耦方法的有效性。为了表示方便,将本发明轴向解耦定位框架下的分类器分别表示为:AD-LS-SVM、AD-SVM。
本实施例中选取网格大小参数为lx×ly∈{7×7,8×8,...,15×15},利用LS-SVM和SVM分类器进行轴向解耦定位或者传统网格定位,得到各种分类方法的定位误差和所需时间并进行比较。图3(a)和3(b)是LS-SVM、SVM分类器在解耦与非解耦情况下得到的实验结果。从图中可以明显的看出,对于LS-SVM和SVM,在轴向解耦情况下的定位精度和计算代价都明显优于非解耦情况。就定位精度来说(如图3(a)所示):网格大小对解耦定位方法的影响并不明显,随着网格密度的逐次递增,基于解耦分类器的定位方法在精度上变化相对平缓,定位精度较高,如当网格大小为15×15时,AD-LS-SVM获得相对较高的定位精度;反过来,基于非解耦分类器的变化幅度相对剧烈得多,定位精度和稳定性较差。就计算代价来说(如图3(b)所示):解耦分类器所需的时间远远低于非解耦分类器。随着网格密度的逐次增加,两种条件下分类方法所需的时间也相应的增加,但非解耦情况下的增长速度远远快于本发明提出的解耦定位策略。因此,轴向解耦的位置指纹定位方法较传统非解耦方法的定位精度更高,且计算代价更低。
本发明方法中定位误差A的计算方法为:(1)测试样本作为X轴和Y轴分类器的输入,经过X轴、Y轴分类器得到两轴的决策结果,即预测类别为
(2)根据预测类别判定所属网格,该网格的质心即为预测坐标
(3)采用2-范数计算测试样本的预测坐标与实际坐标的偏差,即定位误差A为:
其中,Pk是测试样本的实际坐标,即Pk=(xk,yk);||·||是向量的2-范数,即
当网格大小参数为7×7时,具体实验结果如下表所示:
表1不同方法的定位误差(m)和计算代价(s)
以上对本发明的具体实施例进行了描述。应当理解的是,本发明并不局限于上述特定实施方式,凡在本发明的精神实质与原理之内所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (6)
1.一种基于位置指纹的轴向解耦室内定位方法,其特征在于,该定位方法包括离线训练阶段和在线定位阶段;
所述的离线训练阶段包括以下步骤:
S1.将所需定位区域按XY坐标轴划分为lx×ly个网格,在各网格中,采集移动终端接收到的各无线AP的RSS值,将得到的各网格的RSS指纹作为样本,记为其中w为样本总数,i为样本编号;表示第i个样本中的第n个无线AP的RSS值,n=1,2,...,N,N为可用的无线AP的总数;样本的RSS特征向量表示为其中mi和ni分别为第i个样本对应的网格在X轴和Y轴上的类别号,且mi=1,2,...,lx,ni=1,2,...,ly;再将按坐标轴拆分为X轴和Y轴样本,分别表示为:
S2.对X轴和Y轴样本进行归一化处理;
S3.利用归一化的X轴样本和Y轴样本分别训练基于模式的分类器,分别得到X轴分类器与Y轴分类器;
所述的在线定位阶段包括以下步骤:
S4.采集移动终端在待定位区域接收到的各无线AP的RSS值,得到待定位区域的RSS指纹将分别作为离线训练阶段训练好的X轴分类器与Y轴分类器的输入,独立地形成X轴和Y轴的决策结果;
S5.组合X轴和Y轴决策结果,确定待定位区域所属网格,得到定位结果。
2.根据权利要求1所述的基于位置指纹的轴向解耦室内定位方法,其特征在于,所述步骤S3中,基于模式的分类器为最小二乘支持向量机分类器、支持向量机分类器或K近邻分类器。
3.根据权利要求1所述的基于位置指纹的轴向解耦室内定位方法,其特征在于,所述X轴分类器的决策函数为:
<mrow>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>s</mi>
<mi>i</mi>
<mi>g</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</msub>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>x</mi>
</msub>
<mo>)</mo>
</mrow>
其中,为待定位区域的RSS指纹;bx为阈值,是拉格朗日乘子;是满足Mercer条件的核函数;
由于与X轴上的类别号mi对应,若函数sign(·)括号中的数值是正数,则判断待定位区域在X轴上属于第mi类;否则若函数sign(·)括号中的数值是负数,则判断待定位区域在X轴上不属于第mi类;
所述的计算方法为:
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>-</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>/</mo>
<mo>(</mo>
<mrow>
<mn>2</mn>
<msup>
<msub>
<mi>g</mi>
<mi>x</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>w</mi>
<mo>;</mo>
</mrow>
其中gx为核宽度,它决定了样本特征子空间分布的复杂程度;||·||是向量的2-范数,
所述阈值bx与拉格朗日乘子由下式确定:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>x</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>b</mi>
<mi>x</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>x</mi>
<mi>w</mi>
</msub>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mn>1</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中cx为正则化参数。
4.根据权利要求3所述的基于位置指纹的轴向解耦室内定位方法,其特征在于,由未知参数cx和gx组成未知参数对(cx,gx),其取值方法为:先采用网格搜索法选择参数对,然后采用交叉验证法进行寻优,将使得分类准确率最高的参数对作为(cx,gx)的取值;所述cx和gx的取值范围均为[2-10,210],步距为1。
5.根据权利要求4所述的基于位置指纹的轴向解耦室内定位方法,其特征在于,所述Y轴分类器的决策函数为:
<mrow>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>s</mi>
<mi>i</mi>
<mi>g</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
</msub>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
</mrow>
其中,为待定位区域的RSS指纹;by为阈值,是拉格朗日乘子;是满足Mercer条件的核函数:
由于与Y轴上的类别号ni对应,若函数sign(·)括号中的数值是正数,则判断待定位区域在Y轴上属于第ni类;否则若函数sign(·)括号中的数值是负数,则判断待定位区域在Y轴上不属于第ni类;
所述的计算方法为:
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mo>-</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>/</mo>
<mo>(</mo>
<mrow>
<mn>2</mn>
<msup>
<msub>
<mi>g</mi>
<mi>y</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<mi>w</mi>
<mo>;</mo>
</mrow>
其中gy为核宽度,它决定了样本特征子空间分布的复杂程度;
所述阈值by与拉格朗日乘子由下式确定:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>K</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>f</mi>
<mo>&OverBar;</mo>
</mover>
<mi>w</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>c</mi>
<mi>y</mi>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>b</mi>
<mi>y</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>y</mi>
<mn>2</mn>
</msub>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&alpha;</mi>
<msub>
<mi>y</mi>
<mi>w</mi>
</msub>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mn>1</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>m</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中cy为正则化参数。
6.根据权利要求5所述的基于位置指纹的轴向解耦室内定位方法,其特征在于,由未知参数cy和gy组成未知参数对(cy,gy),其取值方法为:先采用网格搜索法选择参数对,然后采用交叉验证法进行寻优,将使得分类准确率最高的参数对作为(cy,gy)的取值;所述cy和gy的取值范围均为[2-10,210],步距为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510260753.0A CN104965190B (zh) | 2015-05-21 | 2015-05-21 | 基于位置指纹的轴向解耦室内定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510260753.0A CN104965190B (zh) | 2015-05-21 | 2015-05-21 | 基于位置指纹的轴向解耦室内定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104965190A CN104965190A (zh) | 2015-10-07 |
CN104965190B true CN104965190B (zh) | 2017-09-29 |
Family
ID=54219231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510260753.0A Active CN104965190B (zh) | 2015-05-21 | 2015-05-21 | 基于位置指纹的轴向解耦室内定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104965190B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772232B (zh) * | 2016-12-26 | 2019-07-19 | 重庆金瓯科技发展有限责任公司 | 一种基于分区编码的室内定位方法 |
CN109121081B (zh) * | 2018-09-11 | 2020-12-29 | 电子科技大学 | 一种基于位置候选集与em算法的室内定位方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1920593A (zh) * | 2005-08-25 | 2007-02-28 | 广州天润信息科技有限公司 | 一种位置指纹识别定位方法 |
CN101883424B (zh) * | 2010-04-23 | 2012-11-21 | 哈尔滨工业大学 | 基于近邻点数优化的wlan室内knn定位方法 |
CN103200678B (zh) * | 2013-04-09 | 2016-01-13 | 南京信息工程大学 | 基于位置指纹识别算法的安卓设备WiFi室内定位方法 |
-
2015
- 2015-05-21 CN CN201510260753.0A patent/CN104965190B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104965190A (zh) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110012428B (zh) | 一种基于WiFi的室内定位方法 | |
CN104703143B (zh) | 一种基于wifi信号强度的室内定位方法 | |
CN112887902B (zh) | 一种基于高斯聚类与混合度量的WiFi指纹的室内定位方法 | |
CN102821465B (zh) | 基于分区信息熵增益的wlan室内定位方法 | |
CN104635203B (zh) | 一种基于粒子滤波算法的无线电干扰源测向定位方法 | |
CN105813194B (zh) | 基于指纹数据库二次校正的室内定位方法 | |
CN107703480B (zh) | 基于机器学习的混合核函数室内定位方法 | |
CN104869641B (zh) | 基于AP优化的Wi‑Fi室内定位方法 | |
Lee et al. | A novel clustering-based approach of indoor location fingerprinting | |
CN107948930A (zh) | 基于位置指纹算法的室内定位优化方法 | |
CN108924756B (zh) | 基于WiFi双频带的室内定位方法 | |
Koo et al. | PDR/fingerprinting fusion indoor location tracking using RSS recovery and clustering | |
CN107367277B (zh) | 基于二次K-Means聚类的室内位置指纹定位方法 | |
CN107087256A (zh) | 一种基于WiFi室内定位的指纹聚类方法及装置 | |
JP6696859B2 (ja) | 品質推定装置及び品質推定方法 | |
CN104965190B (zh) | 基于位置指纹的轴向解耦室内定位方法 | |
CN101977436A (zh) | 基于wlan室内定位的移动用户位置坐标修正方法 | |
Dong et al. | A wifi fingerprint augmentation method for 3-d crowdsourced indoor positioning systems | |
CN106921978B (zh) | 一种位置分布确定方法及装置 | |
CN108445443B (zh) | 一种基于knn的指纹点聚类方法 | |
Chen et al. | DeepMetricFi: Improving Wi-Fi fingerprinting localization by deep metric learning | |
CN111757257B (zh) | 一种克服设备差异的动态模糊匹配室内定位方法 | |
CN111669702A (zh) | 基于wifi地址与场强的粗精匹配定位方法 | |
CN109459723B (zh) | 一种基于元启发算法的纯方位被动定位方法 | |
CN111885700B (zh) | 一种结合支撑向量机的移动终端定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |