CN108989988B - 基于机器学习的室内定位方法 - Google Patents

基于机器学习的室内定位方法 Download PDF

Info

Publication number
CN108989988B
CN108989988B CN201810598087.5A CN201810598087A CN108989988B CN 108989988 B CN108989988 B CN 108989988B CN 201810598087 A CN201810598087 A CN 201810598087A CN 108989988 B CN108989988 B CN 108989988B
Authority
CN
China
Prior art keywords
sight
data
machine learning
line
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810598087.5A
Other languages
English (en)
Other versions
CN108989988A (zh
Inventor
王闻今
吴驰
严格
侯宏卫
黄清
高西奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810598087.5A priority Critical patent/CN108989988B/zh
Publication of CN108989988A publication Critical patent/CN108989988A/zh
Application granted granted Critical
Publication of CN108989988B publication Critical patent/CN108989988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/006Locating users or terminals or network equipment for network management purposes, e.g. mobility management with additional information processing, e.g. for direction or speed determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明公开了一种基于机器学习的室内定位方法,通过设置大量的基站,确保了系统能够获取足够多的视距的数据。对于非视距的数据的识别以及丢弃,能够极大的提高定位算法的精度。本发明使用非参数描述的机器学习算法,通过经验数据来进行学习而不确定任何具体模型,所建立的模型能够应对产生误差的各类场景。训练样本包含了各个位置下的各类情况,使得当环境发生改变时,这些模型依然能够适应这些变化并发挥作用。

Description

基于机器学习的室内定位方法
技术领域
本发明涉及室内无线定位领域,特别是涉及一种基于机器学习的室内定位方法。
背景技术
一种常见的室内定位方法是基于测距的定位算法:通过测量目标点与各个已知基站间的距离,从而计算出目标点的坐标。其中的测距方案包括:基于到达时间(TOA,Time ofArrival),基于接收信号强度(RSS,Received Signal Strength),基于到达时间差(TDOA,Time Difference of Arrival)以及利用信道脉冲响应的信息(例如平均超额延迟,最大超额延迟,RMS延迟扩展,上升时间和峰度等)来估算距离。到达时间与接收信号强度作为最常用的测距手段,均存在着各自的缺陷:基于到达时间的测距需要基站与用户之间的时钟同步,但当用户数巨大时,这种同步变得相当复杂;不同设备获取的信号强度存在差异,同时由于环境的影响,基于接收信号强度的测距精度并不高。因此,仅需要基站间相互同步的到达时间差测量成为一个更好的选择。
基于信号到达时间差的测距过程:用户在某一时刻发出的信号,到达不同基站的时刻是不同的,根据这个时间差,可以计算出用户到基站间的距离差。Chan-算法可以将距离差映射为目标用户的坐标,在视距(LOS,Line of Sight)环境下,它通过两次的加权的线性LS估计,能够使坐标的估计值达到克拉美罗下限(CRLB,Cramer-Rao bound)。但在非视距(NLOS,Not Line of Sight)环境下,此算法计算出的坐标具有较大的偏差。
第一类方法可以通过分析连续距离估计值之间的变化来实现,前提是假设非视距情况下测量值通常具有比视距情况下的测量值更大的方差。然而,因为这种方法需要大量的测量,将会导致非常高的延迟。第二类方法认为非视距情况下的测距误差的分布取决于散射体的空间分布,可以通过对这些散射体建模来实现减轻。然而,由于环境的复杂几何形状以及可能存在的动态障碍,这种方法通常是不可行的。另外一类机器学习方法基于支持向量机(SVM,Support Vector Machine)的方法,利用信道冲击响应的信息,来对单个的非视距数据进行辨别以及误差减轻。但大量的信道冲激响应的信息获取存在问题,因为成本的限制,大部分的室内定位装置都无法满足这种要求。诸如此类的方法还有很多,但这些方法的实现受到了极大制约,因此在室内定位中非视距情况依然是一个严峻的问题。
发明内容
发明目的:本发明的目的是提供一种能够解决现有技术中存在的缺陷的基于机器学习的室内定位方法。
技术方案:为达到此目的,本发明采用以下技术方案:
本发明所述的基于机器学习的室内定位方法,包括以下步骤:
S1:在室内定位区域布置多个坐标已知的基站;
S2:将室内空间分为多个小区域,对于每一个小区域,取其中心点测得其视距以及非视距环境下的基于到达时间差的测距值;
S3:在步骤S2得到的测距值的实测数据的基础上,利用计算机模拟出视距以及非视距环境下的基于到达时间差的测距值;
S4:构建机器学习分类器网络,混合使用步骤S2得到的测距值的实测数据与步骤S3得到的测距值的模拟数据作为训练样本,训练出基于测距值的分类模型;
S5:在目标点进行定位时,首先将基于到达时间差的测距值输入到训练好的分类模型中,分辨出视距与非视距数据,并舍弃非视距数据;
S6:使用一种基于到达时间差测距的定位算法,在视距情况下此算法能得到坐标估算值,将S5辨别出的视距数据及其对应的基站坐标作为此算法的输入,得到目标点的三维坐标估算值。
进一步,所述步骤S1中的基站个数大于等于4,且任意的4个基站不处于同一个平面。
进一步,所述步骤S2中的各个小区域之间均不重叠,且小区域的大小规格通过定位精度确定。
进一步,所述步骤S3的详细过程为:采集大量的实验数据,包含视距以及非视距环境下的基于到达时间差的测距值及其对应的真实距离值,进行误差统计建模。
进一步,所述步骤S4中的机器学习分类网络采用机器学习分类器,机器学习分类器采用支持向量机分类器,支持向量机在特征空间中根据不同类别数据分布情况构建一个超平面,使不同类别之间存在最大间隔。
进一步,所述机器学习分类器的输入为一组基站的基于到达时间差的测距值,通过分析测距值之间的相关性,将这组测距值分类成两种情况:全部为视距情况下的数据、包含至少一个非视距情况下的数据。
进一步,所述步骤S1中的基站个数大于等于4,步骤S4中的机器学习分类器的总数为
Figure GDA0002572749560000021
N为基站的总数。
进一步,所述步骤S5中分辨视距与非视距数据的过程如下:在得到目标点的全部基于到达时间差的测距值之后,首先判断个数为N的基站组合是否包含非视距数据,N≥4,如果有,则继续判断个数为N-1的基站组合是否包含非视距数据;如此逐层的使用分类器,直到找出测距值全部为视距情况下获得的基站组合;如果所有的个数为4的基站组合中仍包含非视距的数据,那么使用全部的N个基站的测距数据作为步骤S6中定位算法的输入。
有益效果:本发明公开了一种基于机器学习的室内定位方法,与现有技术相比,具有如下有益效果:
1)通过设置大量的基站,确保了系统能够获取足够多的视距的数据。对于非视距的数据的识别以及丢弃,能够极大的提高定位算法的精度。
2)使用非参数描述的机器学习算法,通过经验数据来进行学习而不确定任何具体模型,所建立的模型能够应对产生误差的各类场景。训练样本包含了各个位置下的各类情况,使得当环境发生改变时,这些模型依然能够适应这些变化并发挥作用。
3)相较于基于机器学习利用信道信息来对非视距情况进行辨别,本方案利用机器学习的方法,挖掘测距值之间的相互关系,来实现对非视距情况的辨别,降低了设备成本,因为信道信息的获取需要频谱仪等辅助设备,这对于广泛的大量布置的室内定位装置是相当昂贵的要求。
4)基于到达时间差的定位,仅需要基站之间的相互同步。当用户数量巨大时,这会带来两类好处:基站间的同步过程不受用户数的影响;相较于其他测距方案仅需要用户向基站发射一次定位信号,用户与基站之间的通信更加高效,。
5)模拟数据可以大量产生,使得在实测数据训练样本较少的情况下依旧能够达到较好的训练效果。
附图说明
图1为本发明具体实施方式中基于机器学习的室内定位流程图;
图2为本发明具体实施方式中基于实测数据与模拟数据结合的支持向量机训练流程图;
图3为本发明具体实施方式中6基站基于测距值的非视距情况识别过程图。
具体实施方式
下面结合具体实施方式对本发明的技术方案作进一步的介绍。
本具体实施方式公开了一种基于机器学习的室内定位方法,如图1所示,包括以下步骤:
S1:在室内定位区域布置多个坐标已知的基站;基站个数大于等于4,且任意的4个基站不处于同一个平面;
S2:将室内空间分为多个小区域,对于每一个小区域,取其中心点测得其视距以及非视距环境下的基于到达时间差的测距值;各个小区域之间均不重叠,且小区域的大小规格通过定位精度确定;
S3:在步骤S2得到的测距值的实测数据的基础上,利用计算机模拟出视距以及非视距环境下的基于到达时间差的测距值;详细过程为:采集大量的实验数据,包含视距以及非视距环境下的基于到达时间差的测距值及其对应的真实距离值,进行误差统计建模;
S4:构建机器学习分类器网络,如图2所示,混合使用步骤S2得到的测距值的实测数据与步骤S3得到的测距值的模拟数据作为训练样本,训练出基于测距值的分类模型;
S5:在目标点进行定位时,首先将基于到达时间差的测距值输入到训练好的分类模型中,分辨出视距与非视距数据,并舍弃非视距数据,将视距数据及其对应的基站坐标作为基于到达时间差测距的定位算法的输入,得到目标点的三维坐标估算值,如图3所示。
步骤S4中的机器学习分类网络采用机器学习分类器,机器学习分类器的总数为
Figure GDA0002572749560000041
机器学习分类器采用支持向量机分类器,支持向量机在特征空间中根据不同类别数据分布情况构建一个超平面,使不同类别之间存在最大间隔。机器学习分类器的输入为一组基站的基于到达时间差的测距值,通过分析测距值之间的相关性,将这组测距值分类成两种情况:全部为视距情况下的数据、包含至少一个非视距情况下的数据。
步骤S5中分辨视距与非视距数据的过程如下:在得到目标点的全部基于到达时间差的测距值之后,首先判断个数为N的基站组合是否包含非视距数据,N≥4,如果有,则继续判断个数为N-1的基站组合是否包含非视距数据;如此逐层的使用分类器,直到找出测距值全部为视距情况下获得的基站组合;如果所有的个数为4的基站组合中仍包含非视距的数据,那么使用全部的N个基站的测距数据作为定位算法的输入。
视距情况下的基于信号到达时间差测距的算法:
S11:基站的总数记为M,目标点坐标(x,y,z),第i个基站的坐标为(xi,yi,zi),
Figure GDA0002572749560000051
为基站i到目标点之间距离的测量值,di,i=1,2,...,M为基站i到目标点之间距离的真实值,。基站i与基站j之间的基于信号到达时间差的距离的测量值
Figure GDA0002572749560000052
可以表示为:
Figure GDA0002572749560000053
距离的测量值存在误差:
Figure GDA0002572749560000054
其中,di,j为基站i与基站j到目标点的真实距离的差值,
Figure GDA0002572749560000055
为基站j到目标点之间距离的测量值,ni,j=ni-nj代表视距环境下由于噪声产生的测距的误差值,其中ni,nj的可以是满足0均值的高斯分布,也可以由实际测量结果获得经验模型。定义噪声矢量n=[n2,1,n3,1,...,nM,1]T,它的协方差矩阵记为Q=E{nnT}。
Figure GDA0002572749560000056
Figure GDA0002572749560000057
其中:
Figure GDA0002572749560000058
将上面两式分别代入到
Figure GDA0002572749560000059
中,可以得到:
di,1 2+2di,1d1=-2xi,1x-2yi,1y-2zi,1z+Ki-K1 (5)
其中:
xi,1=xi-x1
yi,1=yi-y1
zi,1=zi-z1
S12:当基站的个数为4时,即M=4:
有如下方程组:
Figure GDA0002572749560000061
求解方法:
(1)以测量值
Figure GDA0002572749560000062
代替真实值di,1,i=2,3,4。
(2)此时方程中还剩下四个未知量x,y,z,d1,联立方程的前两项,使用d1表示出x,y,z。
(3)将(2)中的结果代入到第四个方程中,得到只含有d1的方程,从而求解出d1
S13:当基站的个数大于4时:
S13.1:定义:
θa=[θT,d1]T,θ=[x,y,z]T
定义误差向量
Figure GDA0002572749560000063
Figure GDA0002572749560000064
其中:
Figure GDA0002572749560000065
Figure GDA0002572749560000066
在LOS下,
Figure GDA0002572749560000067
是一个高斯随机矢量,它的协方差矩阵记为:
Figure GDA0002572749560000068
其中:B=diag{d2,d3,...,dM},Q是噪声矢量n的协方差矩阵,c为光速。
此时,使用最大似然的方法可以估计出θa,即:
Figure GDA0002572749560000071
由于
Figure GDA0002572749560000072
是一个高斯随机分布的矢量,所以上述结果也可以用广义的最小二乘法求得。在(8)中,ψ是未知的,因为B包含了目标点到基站的真实值。因此需要更进一步的近似。当目标点远离基站阵列时,每个di都可以近似为d0,此时B=d0I。I是大小为M-1单位矩阵。由于ψ的缩放对于结果没有影响,此时(8a)的近似的表达式为:
Figure GDA0002572749560000073
当目标点离基站阵列较近时,可以首先使用(9b)获得一个初步的结果去估计B。最后的结果通过计算(9a)获得。迭代一次就足够获得精确结果。
Figure GDA0002572749560000074
的协方差矩阵记为:
Figure GDA0002572749560000075
其中:
Figure GDA0002572749560000076
在这里,可以用Ga来近似的替代
Figure GDA0002572749560000077
使用(9b)来近似的计算B。
S13.2:得到(9a)和(9b)的前提之一是我们假设x,y,z,d1是三个独立的分量。事实上,x,y,z,d1满足如下的关系式:
d1 2=(x-x1)2+(y-y1)2+(z-z1)2
因此,可以在(9a)和(9b)的基础上,利用x,y,z,d1之间的相互关联性,得到更精确的坐标估计。
Figure GDA0002572749560000078
是一个随机变量,它的协方差在(9)中给出,我们用e1,e2,e3,e4来表示估计值
Figure GDA0002572749560000079
相对于真实值θa的误差,那么有:
Figure GDA00025727495600000710
另外一组误差矢量:
Figure GDA0002572749560000081
其中:
Figure GDA0002572749560000082
Figure GDA0002572749560000083
Figure GDA0002572749560000084
Figure GDA0002572749560000085
的协方差矩阵ψ'记为:
Figure GDA0002572749560000086
其中B'=diag{x-x1,y-y1,z-z1,d1}。
因为
Figure GDA0002572749560000087
也是高斯分布的,所以使用最大似然估计的方法可以估计出θ'a
Figure GDA0002572749560000088
ψ'是未知的,因为B'中包含着真实值。此时,可以使用估计值
Figure GDA0002572749560000089
来计算B'。当目标点远离基站阵列时,
Figure GDA00025727495600000810
此时(14a)简化为:
Figure GDA00025727495600000811
Figure GDA00025727495600000812
的协方差矩阵为:
Figure GDA00025727495600000813
最终坐标的估计值为:
Figure GDA00025727495600000814
Figure GDA0002572749560000092
S22:支持向量机分类的过程:
使用预先准备的训练集来训练出支持向量机分类器。xk代表输入,由基站间的测距差值
Figure GDA0002572749560000093
构成,相应的标签为lk,+1标志这组测距值全部为LOS的,-1标志为这组测距值包含非视距情况下的数据。使用二分类的线性模型:
y(x)=wTφ(x)+b (16)
其中,φ(x)代表固定的特征空间转换,w与b是分类器位置的参数,需要通过训练去得到。使用sign函数将y(x)从Rn映射到{+1,-1}上:
l(x)=sign(y(x)) (17)
训练集用
Figure GDA0002572749560000094
来表示,xk∈Rn代表输入,lk∈{+1,-1}代表标签,样本的总个数记为N。考虑到实际情况,可能会出现些许未分离开的类,因此引入松弛变量。支持向量机的参数求解问题变成以下的优化问题:
Figure GDA0002572749560000095
其中,ξk代表松弛变量,C代表松弛变量与最大间隔之间的权衡。使用SMO算法可以求解此优化问题,得到具体的支持向量机模型。

Claims (8)

1.基于机器学习的室内定位方法,其特征在于:包括以下步骤:
S1:在室内定位区域布置多个坐标已知的基站;
S2:将室内空间分为多个小区域,对于每一个小区域,取其中心点测得其视距以及非视距环境下的基于到达时间差的测距值;
S3:在步骤S2得到的测距值的实测数据的基础上,利用计算机模拟出视距以及非视距环境下的基于到达时间差的测距值;
S4:构建机器学习分类器网络,混合使用步骤S2得到的测距值的实测数据与步骤S3得到的测距值的模拟数据作为训练样本,训练出基于测距值的分类模型;
S5:在目标点进行定位时,首先将测量得到的测距值输入到训练好的分类模型中,分辨出视距与非视距数据,并舍弃非视距数据;
S6:使用一种基于到达时间差测距的定位算法,在视距情况下此算法能得到坐标估算值,将S5辨别出的视距数据及其对应的基站坐标作为此算法的输入,得到目标点的三维坐标估算值。
2.根据权利要求1所述的基于机器学习的室内定位方法,其特征在于:所述步骤S1中的基站个数大于等于4,且任意的4个基站不处于同一个平面。
3.根据权利要求1所述的基于机器学习的室内定位方法,其特征在于:所述步骤S2中的各个小区域之间均不重叠,且小区域的大小规格通过定位精度确定。
4.根据权利要求1所述的基于机器学习的室内定位方法,其特征在于:所述步骤S3的详细过程为:采集大量的实验数据,包含视距以及非视距环境下的基于到达时间差的测距值及其对应的真实距离值,进行误差统计建模。
5.根据权利要求1所述的基于机器学习的室内定位方法,其特征在于:所述步骤S4中的机器学习分类网络采用机器学习分类器,机器学习分类器采用支持向量机分类器,支持向量机在特征空间中根据不同类别数据分布情况构建一个超平面,使不同类别之间存在最大间隔。
6.根据权利要求5所述的基于机器学习的室内定位方法,其特征在于:所述机器学习分类器的输入为一组基站的基于到达时间差的测距值,通过分析测距值之间的相关性,将这组测距值分类成两种情况:全部为视距情况下的数据、包含至少一个非视距情况下的数据。
7.根据权利要求5所述的基于机器学习的室内定位方法,其特征在于:所述步骤S1中的基站个数大于等于4,步骤S4中的机器学习分类器的总数为
Figure FDA0002534930910000011
N为基站的总数。
8.根据权利要求1所述的基于机器学习的室内定位方法,其特征在于:所述步骤S5中分辨视距与非视距数据的过程如下:在得到目标点的全部基于到达时间差的测距值之后,首先判断个数为N的基站组合是否包含非视距数据,N≥4,如果有,则继续判断个数为N-1的基站组合是否包含非视距数据;如此逐层的使用分类器,直到找出测距值全部为视距情况下获得的基站组合;如果所有的个数为4的基站组合中仍包含非视距的数据,那么使用全部的N个基站的测距数据作为步骤S6中定位算法的输入。
CN201810598087.5A 2018-06-12 2018-06-12 基于机器学习的室内定位方法 Active CN108989988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810598087.5A CN108989988B (zh) 2018-06-12 2018-06-12 基于机器学习的室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810598087.5A CN108989988B (zh) 2018-06-12 2018-06-12 基于机器学习的室内定位方法

Publications (2)

Publication Number Publication Date
CN108989988A CN108989988A (zh) 2018-12-11
CN108989988B true CN108989988B (zh) 2020-08-21

Family

ID=64541107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810598087.5A Active CN108989988B (zh) 2018-06-12 2018-06-12 基于机器学习的室内定位方法

Country Status (1)

Country Link
CN (1) CN108989988B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113709B (zh) * 2019-04-24 2020-07-24 南京邮电大学 一种基于支持向量机的超宽带室内定位误差消除算法
CN110824421A (zh) * 2019-11-15 2020-02-21 广东博智林机器人有限公司 一种位置信息处理方法、装置、存储介质及电子设备
CN117241221B (zh) * 2023-11-14 2024-01-19 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于不确定性学习的室内定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105491659A (zh) * 2015-11-17 2016-04-13 北京邮电大学 一种室内定位的非视距补偿方法
CN105979583A (zh) * 2016-07-06 2016-09-28 浙江工业大学 一种基于边长残差的nlos传输基站识别与定位方法
CN107037402A (zh) * 2017-05-24 2017-08-11 南京图贝斯韦智能技术有限公司 一种基于uwb测距的室内非视距环境下的定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720069B2 (en) * 2012-10-10 2017-08-01 Lg Electronics Inc. Apparatus and method for measuring location of user equipment located indoors in wireless network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105491659A (zh) * 2015-11-17 2016-04-13 北京邮电大学 一种室内定位的非视距补偿方法
CN105979583A (zh) * 2016-07-06 2016-09-28 浙江工业大学 一种基于边长残差的nlos传输基站识别与定位方法
CN107037402A (zh) * 2017-05-24 2017-08-11 南京图贝斯韦智能技术有限公司 一种基于uwb测距的室内非视距环境下的定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LOS-NLOS idetification Algorithm for Indoor;Chuanxi HUANG等;《The 20th International Symposium on Wireless Personal Multimedia Communications (WPMC2017)》;20171231;575-578 *

Also Published As

Publication number Publication date
CN108989988A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
CN107371129B (zh) 基于高度辅助修正的室内定位的tdoa定位方法
CN107659893B (zh) 一种误差补偿方法、装置、电子设备及可读存储介质
CN108989988B (zh) 基于机器学习的室内定位方法
KR102116824B1 (ko) 딥러닝 기반 측위 시스템 및 이의 구축 방법
CN106851821B (zh) 一种基于无线通信基站的室内三维定位方法
US7050652B2 (en) Methods and arrangements to enhance correlation
WO2020010558A1 (zh) 检测方法和检测装置
CN111157943B (zh) 在异步网络中基于toa的传感器位置误差抑制方法
CN110536257A (zh) 一种基于深度自适应网络的室内定位方法
Stefanski Asynchronous time difference of arrival (ATDOA) method
Molnár et al. Development of an UWB based indoor positioning system
CN105259533B (zh) 基于多维标度法子空间分析的三阶段到达时间差定位方法
RU2668214C2 (ru) Способ отождествления отметок целей, полученных двумя пространственно-совмещенными рлс
Stefanski Asynchronous wide area multilateration system
Li et al. Robust kernel-based machine learning localization using NLOS TOAs or TDOAs
de Sousa et al. Localization of UAV in urban scenario using multipath exploiting TDoA fingerprints
Jespersen et al. An indoor multipath-assisted single-anchor UWB localization method
Xu et al. An improved algorithm based on reference selection for time difference of arrival location
CN110673088B (zh) 混合视距和非视距环境中基于到达时间的目标定位方法
JP6819797B2 (ja) 位置推定装置、位置推定方法とプログラム、並びに、位置推定システム
Wan et al. Enhanced linear estimator for mobile location using range difference measurements
Hu et al. The nlos localization algorithm based on the linear regression model of extended kalman filter
Kim et al. A study on the implementation of a 3-dimensional positioning system on indoor environments
KR20200013543A (ko) 가상 공장 구축 장치 및 방법
CN111970641B (zh) 一种基于tdoa的定位追踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant