CN116437290A - 一种基于csi指纹定位的模型融合方法 - Google Patents
一种基于csi指纹定位的模型融合方法 Download PDFInfo
- Publication number
- CN116437290A CN116437290A CN202310411495.6A CN202310411495A CN116437290A CN 116437290 A CN116437290 A CN 116437290A CN 202310411495 A CN202310411495 A CN 202310411495A CN 116437290 A CN116437290 A CN 116437290A
- Authority
- CN
- China
- Prior art keywords
- model
- fingerprint
- positioning
- catboost
- csi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 32
- 230000004927 fusion Effects 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 230000009466 transformation Effects 0.000 claims abstract description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 48
- 238000007781 pre-processing Methods 0.000 claims description 17
- 238000003066 decision tree Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000012804 iterative process Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明属于室内定位技术领域,尤其为一种基于CSI指纹定位的模型融合方法,主要包括离线阶段与在线阶段两个部分;在离线阶段,首先收集CSI数据并分别对CSI幅值与相位采用卡尔曼滤波和线性变换以获得准确的指纹信息,将处理后的CSI幅值与相位构成联合指纹,最后通过CatBoost‑KNN融合模型训练指纹数据;在在线阶段,通过训练好的CatBoost‑KNN模型预测经过预处理后的待测点的坐标。本发明摒弃了传统的单一模型定位方法而将融合模型的思想用于指纹定位,保证指纹信息完整性的同时确保了指纹特征的准确性,解决了单一模型性能受限的问题,使得定位精度有了进一步提高的可能。
Description
技术领域
本发明涉及室内定位技术领域,具体为一种基于CSI指纹定位的模型融合方法。
背景技术
近年来,无线Wi-Fi指纹定位被广泛应用于室内定位中。基于Wi-Fi指纹定位技术主要采集的是空间不同位置接收到的接受信号强度(RSSI)。此方法被广泛应用的原因是基于RSSI的Wi-Fi指纹定位方法对硬件设备的要求较低。但是,在接收端接收到的RSSI信息是一个复杂信号信息,其中夹杂着多径信号。多径信号是信号经过多次反射、折射形成的,对信号本身影响较大。也就是说,使用此信号信息会干扰定位结果,使误差增大。随着各种硬件技术的不断迭代,逐步发展出能够获取物理层信道状态信息(CSI)的设备。和RSSI相比,CSI提供的信息更为确切,同时也不易受到多径效应的影响,包含此信息的信号变化特征更为稳定。所以,将CSI运用于室内指纹定位中可以获得更好的效果。
基于CSI的指纹定位主要分为离线和在线两个阶段,在离线阶段,首先需要设置一定数量的参考点,并采集每个参考点的位置指纹信息,建立离线指纹数据库;在在线阶段,通过匹配算法把待测点的指纹信息与指纹数据库中的指纹信息进行匹配,从而估计出待测点的实际位置。由此可见指纹特征的建立与匹配算法的选择很大程度上影响着最终模型的定位精度。
现有的主流匹配定位算法到目前已有很多,如KNN、支持向量机(SVM)、随机森林(RF)、GBDT等,其中KNN为指纹定位的经典算法,其算法简单易懂、参数少、实现较为简单,但是定位精度低。GBDT是在决策树的基础上搭建的模型,隶属于集成学习中的Boosting一族,能够很好的解决一些回归的问题,精度往往高于KNN算法。尽管GBDT已经实现了不错的定位精度,但是单一模型的性能容易达到瓶颈,这样就会导致定位精度难以进一步提升。
因此我们提出了一种基于CSI指纹定位的模型融合方法来解决上述问题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于CSI指纹定位的模型融合方法,解决了现有的基于CSI的指纹定位方法其单一模型性能受限,定位精度低,准确性不高的问题。
(二)技术方案
本发明为了实现上述目的具体采用以下技术方案:
一种基于CSI指纹定位的模型融合方法,包括以下步骤:
S1、构建指纹定位模型;
定位模型包括离线阶段和在线阶段,离线阶段包括指纹数据预处理、指纹数据库的建立与CatBoost-KNN模型融合算法的指纹训练,在线阶段包括指纹数据预处理、CatBoost-KNN模型融合算法的实时匹配;
S2、采集CSI数据集和数据预处理:对整个指纹定位模型使用采集的室内数据集进行训练,并对所有数据集进行预处理,使之得到更为准确的指纹特征;
S3、分别训练CatBoost模型与K近邻(KNN)模型:将步骤2中准备好的数据集输入到CatBoost模型与KNN模型中进行预训练,得到两个模型的最佳回归模型并保存;
S4、构建CatBoost-KNN融合定位模型:CatBoost-KNN融合定位模型以KNN模型为基础,选取目标的近邻节点,然后在CatBoost建立好的模型上进行预测,完成对CatBoost-KNN模型的搭建;
S5、融合模型实时定位:将待测位置的指纹数据带入到CatBoost-KNN融合定位模型中,从而得到最终的坐标预测值。
进一步地,所述步骤1中指纹数据库为CSI幅值与相位构成的联合指纹,预处理包括幅值滤波与相位校正,CatBoost-KNN模型融合算法为CatBoost模型与KNN模型的加权融合。
进一步地,所述步骤2中采集的CSI数据包括CSI幅值与CSI相位,所述预处理包括对幅值采用的卡尔曼滤波与对相位采用的线性变换两个部分。
进一步地,所述步骤3中CatBoost算法是梯度提升决策树(GBDT)框架下的新型改进算法,是以对称决策树作为基学习器,在树的整层上应用相同的分割法则;在每一步的决策树运算过程中,均根据上一个决策树的残差调整权重,使得本次计算是在上一次计算的最小残差方向上进行,经过多次迭代后得到最优的回归模型;所述新型改进算法在算法训练中采用排序提升方法来避免标准GBDT模型所存在的梯度偏差问题,进而提升算法的准确性和泛化能力。
进一步地,所述步骤3中KNN模型是机器学习领域的一种用于分类和回归的算法,应用在指纹定位中时,其原理为每当进入定位区域的目标节点接收到一组新的指纹数据时,会将该组数据与已经构建的指纹库中的数据进行比对,并且找出与之最为接近K组指纹,再对这K组指纹进行定位计算处理,输出最终位置即为预测的当前目标节点的真实位置。
进一步地,所述步骤4中CatBoost-KNN融合定位模型的具体搭建过程为:将步骤3中保存的CatBoost模型与KNN模型在测试数据集中进行预测,从而得到两种模型的训练误差,根据训练误差对两种模型进行加权,最终得到CatBoost-KNN融合定位模型,其中两种模型的权值通过训练误差的倒数计算求得。
(三)有益效果
与现有技术相比,本发明提供了一种基于CSI指纹定位的模型融合方法,具备以下有益效果:
1、本发明提出采用卡尔曼滤波与线性变换的方法处理CSI幅值与相位,并将处理后的幅值与相位结合构成联合指纹,保证指纹信息完整性的同时确保了指纹特征的准确性。
2、本发明将CatBoost模型应用到指纹定位中,该模型提出了采用排序提升方法来解决了GBDT的梯度偏差问题,在提升算法准确性和泛化能力的同时,防止了过拟合现象。
3、本发明提出了CatBoost-KNN模型融合方法,解决了单一模型性能受限的问题,使得定位精度有了进一步提高的可能。
附图说明
图1为本发明一种基于CSI指纹定位的模型融合方法的流程图;
图2为本发明模型融合算法流程图;
图3为本发明融合模型与单一模型的定位误差CDF示意图;
图4为本发明不同算法的定位误差CDF示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1-4所示,本发明一个实施例提出的基于CSI指纹定位的模型融合方法,包括以下步骤:
步骤1,构建指纹定位模型:整个定位模型分为离线阶段和在线定位阶段。在离线阶段,首先收集CSI数据并分别对CSI幅值与相位采取滤波和相位校正的处理方法,接下来将处理后的CSI幅值与相位构成联合指纹共同存入指纹数据库并用CatBoost-KNN模型训练指纹数据;在在线阶段,通过训练好的CatBoost-KNN模型实时预测预处理过的待测点的坐标。
步骤2,采集数据集和数据预处理:对整个指纹定位模型使用采集的室内数据集进行训练,其中采集的CSI数据包括CSI的幅值与相位;对所有数据集进行预处理,其中预处理分为两部分,分别是对幅值采用的卡尔曼滤波与对相位采用的线性变换,通过预处理可以获得更为准确的指纹特征从而提高定位精度。
CSI数据采集:CSI描述了无线信号在发射端和接收端之间的传播过程,揭示了信号在传输过程中的环境衰减、信号散射、距离衰减等信息。CSI可从时域和频域两个角度描述,在窄带平坦衰落信道中,OFDM系统的频域模型可以表示为:
Y=HX+N
其中,Y和X分别表示接收信号向量和发射信号向量,H和N分别表示信道矩阵和加性高斯白噪声。则每个子载波的CSI可以被描述为:
Hk=||Hk||exp(j∠Hk)
式中,Hk表示第k个子载波的CSI,||Hk||表示第k个子载波的幅度,∠Hk表示第k个子载波的相位。
实验选用一台单天线的TP-Link路由器作为AP发射端,一台装有三天线Intel5300网卡的微型主机作为接收端。此外,网卡驱动程序的内核已被修改为使用Linux802.11n CSI Tools接收原始CSI数据。为了验证本文方法在实际环境中的效果,选择在10m×10m的实验室环境中进行,房间内有很多遮挡物且不限制人的活动,因此可将其视为非视距环境。实验选取大小为6m×5.5m的区域布设102个指纹点,每个指纹点采集600个数据包,相邻样本之间的间距为0.5m。利用交叉验证的方法对样本进行分割,得到71个训练数据和31个实验室环境测试数据。
CSI幅值预处理:卡尔曼滤波的基本原理是根据前一时刻的值来纠正当前时刻的测量值以此得到当前时刻的实际状态。卡尔曼滤波主要分为两个步骤,分别是预测和更新。
卡尔曼滤波的预测公式:
卡尔曼滤波的更新公式:
式中,A表示上一状态到当前状态的转换矩阵,B表示控制输入到当前状态的转换矩阵,H表示当前状态到测量的转换矩阵,Q和R分别表示过程噪声协方差矩阵和观测噪声,表示k时刻状态的先验状态估计,/>表示根据测量值k-1时刻状态的后验状态估计,/>表示k时刻先验状态估计的误差协方差矩阵,Pk-1表示k-1时刻后验状态估计的误差协方差矩阵。
CSI相位预处理:由于硬件设备的限制,信号采集过程中会产生内部误差,因此实际获得的第i个子载波测得的CSI的相位信息为:
结合上式,采用线性变换的方法进行相位校正。首先,定义斜率o和偏移量m的两项等式:
则校正后的CSI相位为:
步骤3,分别训练CatBoost模型与KNN模型:将步骤2中准备好的数据集输入到CatBoost模型与KNN模型中进行预训练,得到两个模型的最佳回归模型并保存起来。其中CatBoost算法是GBDT框架下的新型改进算法,它以对称决策树作为基学习器,在每一步决策树运算过程中,均根据上一个决策树的残差调整权重,使得本次计算是在上一次计算的最小残差方向上进行。并且在算法训练中采用排序提升方法来避免标准GBDT模型所存在的梯度偏差问题,进而提升了算法的准确性和泛化能力。KNN(K-Nearest Neighbor),是机器学习领域的一种用于分类和回归的算法。应用在指纹定位中时,每当进入定位区域的目标节点接收到一组新的指纹数据时,会将该组数据与已经构建的指纹库中的数据进行比对,并且找出与之最为接近K组指纹,再对这K组指纹进行定位计算处理,输出最终位置即为预测的当前目标节点的真实位置。
CatBoost模型:
CatBoost算法的迭代过程:
假设各参考点处采集到的CSI指纹数据集为T={(CSI1,l1),(CSI2,l2),...,(CSIk,lk)}k=1,2,...,n,其中是第k个位置点的CSI指纹特征向量,vk=(xk,yk)为坐标,n为总样本数,则最终的训练目标是分别构造坐标x和y与CSI指纹特征向量的函数fx和fy。在CatBoost算法的迭代过程中,若经过前一轮训练得到的强学习器是Ft-1(CSIk),则本轮训练的目标就是从CART回归树集合H中得到目标函数ht,使得损失函数L[lk,Ft-1(CSIk)]的期望最小,其中对于fx回归lk为x坐标,对于fy回归lk为y坐标,即
式中:E为期望函数。
随后,得到本轮迭代的强学习器为:
Ft=Ft-1+αht
式中:α为学习率,即模型更新的步长。
CatBoost排序提升:
在迭代过程中,传统的GBDT框架算法使用的是当前模型中相同的数据点进行估计,因此,这导致根据训练样本计算得到的梯度分布gt(CSIk,lk)∣CSIk与数据空间中梯度的真实分布gt(CSI,l)∣CSI相比存在偏差。这样由目标函数和近似拟合的ht的公式产生了偏差,进而影响最终模型的准确性和泛化能力。CatBoost算法采用了排序提升方法来进行梯度的无偏计算,其基本原理为:对于每一个样本(CSIk,lk),都使用不包含样本(CSIk,lk)的训练集单独训练一个模型Mk,并使用模型Mk来计算样本(CSIk,lk)上的梯度。
CatBoost整体建模流程:
1)把指纹数据集T={(CSI1,l1),(CSI2,l2),...,(CSIk,lk)}k=1,2,...,n中每个指纹样本(CSIk,lk),去掉(CSIk,lk)的指纹数据集独自训练一个模型Mk;
2)用模型Mk计算样本(CSIk,lk)上的梯度估计;
3)提取新模型重新对样本(CSIk,lk)估测,从而得出基学习器;
4)对基学习器加权反复计算,从而获得强学习器。
KNN模型:在用于指纹定位中时,它的基本流程为:当有目标节点进入到定位区域内时,会接收到一组指纹数据,将接收到的数据与建立的指纹数据库中的数据进行比较,找出与之最为接近k组指纹,再对这k组指纹对应的坐标进行平均处理,处理后输出的结果即为预测的当前目标节点的真实位置,坐标计算公式为:
步骤4,构建CatBoost-KNN融合定位模型:以KNN模型为基础,选取目标的近邻节点,然后在CatBoost建立好的模型上进行预测,完成对CatBoost-KNN模型的搭建。具体操作为将步骤3中保存的CatBoost模型与KNN模型在测试数据集中进行预测,从而得到两种模型的训练误差,根据训练误差的倒数对两种模型进行加权,最终得到CatBoost-KNN融合定位模型。
如图2所示的CatBoost-KNN模型搭建过程为:
Step 1在离线阶段收集指纹数据集{(CSI1,l1),(CSI2,l2),...,(CSIk,lk)}k=1,2,...,n建立指纹数据库。
Step 2对收集到的指纹数据进行预处理。
Step 3将测试数据集分别在CatBoost回归模型上和KNN回归模型上进行预测,得到两个模型的预测结果(xCp,yCp),(xKp,yKp)。
Step 4通过下面的公式求出两种模型的训练误差。
Step 5根据上面求得训练误差在由下面公式式计算出两种模型的权重值ωC,ωK。
Step 6保存加权后的CatBoost-KNN融合定位模型。
步骤5,融合模型实时定位:将待测位置的指纹数据带入到CatBoost-KNN融合定位模型中,从而得到最终的坐标预测值。
本发明通过构建一种基于CSI指纹定位的模型融合方法,可以解决单一模型定位精度受限的问题。在相同条件下,通过计算不同情况下的平均定位误差和定位误差累积分布函数(Cumulative Distribution Function,CDF)评估定位性能。
融合模型与子模型的比较如图3所示。从图3可以看出KNN算法在1.3m以内的定位误差累计概率为58.1%,CatBoost算法在1.3m以内的定位误差累计概率为67.7%,而本发明算法在1.3m以内的定位误差累计概率为77.4%,分别比KNN、CatBoost提高了19.3%和9.7%,且本发明算法可以将93.5%的数据的定位误差控制在2m以内。可见本发明所提算法在定位精度方面比单一模型算法有优势。
不同算法的性能比较如图4所示。从图4中可以看出GBDT、RF、SVM算法在1.3m以内的定位误差累计概率分别为51.6%、48.3%、51.6%,与本发明的77.4%相比明显不足。并且本文还统计了上述几种算法的平均定位误差,其中本发明算法的平均定位误差为0.96m,GBDT、SVM、RF算法的平均定位误差分别为1.33m、1.51m、1.41m,相比于其它几种算法的平均定位精度分别提升了27.8%、36.4%、31.9%,可见本发明的优势。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于CSI指纹定位的模型融合方法,其特征在于:包括以下步骤:
S1、构建指纹定位模型;
定位模型包括离线阶段和在线阶段,离线阶段包括指纹数据预处理、指纹数据库的建立与CatBoost-KNN模型融合算法的指纹训练,在线阶段包括指纹数据预处理、CatBoost-KNN模型融合算法的实时匹配;
S2、采集CSI数据集和数据预处理:对整个指纹定位模型使用采集的室内数据集进行训练,并对所有数据集进行预处理,使之得到更为准确的指纹特征;
S3、分别训练CatBoost模型与K近邻(KNN)模型:将步骤2中准备好的数据集输入到CatBoost模型与KNN模型中进行预训练,得到两个模型的最佳回归模型并保存;
S4、构建CatBoost-KNN融合定位模型:CatBoost-KNN融合定位模型以KNN模型为基础,选取目标的近邻节点,然后在CatBoost建立好的模型上进行预测,完成对CatBoost-KNN模型的搭建;
S5、融合模型实时定位:将待测位置的指纹数据带入到CatBoost-KNN融合定位模型中,从而得到最终的坐标预测值。
2.根据权利要求1所述的一种基于CSI指纹定位的模型融合方法,其特征在于:所述步骤1中指纹数据库为CSI幅值与相位构成的联合指纹,预处理包括幅值滤波与相位校正,CatBoost-KNN模型融合算法为CatBoost模型与KNN模型的加权融合。
3.根据权利要求1所述的一种基于CSI指纹定位的模型融合方法,其特征在于:所述步骤2中采集的CSI数据包括CSI幅值与CSI相位,所述预处理包括对幅值采用的卡尔曼滤波与对相位采用的线性变换两个部分。
4.根据权利要求1所述的一种基于CSI指纹定位的模型融合方法,其特征在于:所述步骤3中CatBoost算法是梯度提升决策树(GBDT)框架下的新型改进算法,是以对称决策树作为基学习器,在树的整层上应用相同的分割法则;在每一步的决策树运算过程中,均根据上一个决策树的残差调整权重,使得本次计算是在上一次计算的最小残差方向上进行,经过多次迭代后得到最优的回归模型;所述新型改进算法在算法训练中采用排序提升方法来避免标准GBDT模型所存在的梯度偏差问题,进而提升算法的准确性和泛化能力。
5.根据权利要求1所述的一种基于CSI指纹定位的模型融合方法,其特征在于:所述步骤4中CatBoost-KNN融合定位模型的具体搭建过程为:将步骤3中保存的CatBoost模型与KNN模型在测试数据集中进行预测,从而得到两种模型的训练误差,根据训练误差对两种模型进行加权,最终得到CatBoost-KNN融合定位模型,其中两种模型的权值通过训练误差的倒数计算求得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310411495.6A CN116437290A (zh) | 2023-04-18 | 2023-04-18 | 一种基于csi指纹定位的模型融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310411495.6A CN116437290A (zh) | 2023-04-18 | 2023-04-18 | 一种基于csi指纹定位的模型融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116437290A true CN116437290A (zh) | 2023-07-14 |
Family
ID=87079394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310411495.6A Pending CN116437290A (zh) | 2023-04-18 | 2023-04-18 | 一种基于csi指纹定位的模型融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116437290A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116980824A (zh) * | 2023-07-29 | 2023-10-31 | 江西师范大学 | 一种轻量化的加权集成学习室内csi定位方法 |
-
2023
- 2023-04-18 CN CN202310411495.6A patent/CN116437290A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116980824A (zh) * | 2023-07-29 | 2023-10-31 | 江西师范大学 | 一种轻量化的加权集成学习室内csi定位方法 |
CN116980824B (zh) * | 2023-07-29 | 2024-03-26 | 江西师范大学 | 一种轻量化的加权集成学习室内csi定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104469942B (zh) | 一种基于隐马尔科夫模型的室内定位方法 | |
CN106599368B (zh) | 基于改进粒子提议分布和自适应粒子重采样的FastSLAM方法 | |
CN111985093A (zh) | 一种带噪声估计器的自适应无迹卡尔曼滤波状态估计方法 | |
CN101975575B (zh) | 基于粒子滤波的被动传感器多目标跟踪方法 | |
CN109951807A (zh) | 基于WiFi信号的融合RSS和CSI室内定位方法 | |
CN105120479B (zh) | 终端间Wi-Fi信号的信号强度差异修正方法 | |
CN114449452B (zh) | 一种基于CNN-RNN的Wi-Fi室内定位方法 | |
CN109195110B (zh) | 基于层次聚类技术和在线极限学习机的室内定位方法 | |
CN109460539B (zh) | 一种基于简化容积粒子滤波的目标定位方法 | |
CN108152812B (zh) | 一种调整网格间距的改进agimm跟踪方法 | |
CN105182311A (zh) | 全向雷达数据处理方法及系统 | |
CN108650626A (zh) | 一种基于泰森多边形的指纹定位算法 | |
CN116437290A (zh) | 一种基于csi指纹定位的模型融合方法 | |
CN108871365B (zh) | 一种航向约束下的状态估计方法及系统 | |
CN116541732A (zh) | 基于超声波数据与最优化算法的气象监测系统 | |
CN116047494A (zh) | 通感一体背景下基于多距离划分的多扩展目标的跟踪方法 | |
CN101977436A (zh) | 基于wlan室内定位的移动用户位置坐标修正方法 | |
CN104821854B (zh) | 一种基于随机集的多主用户多维频谱感知方法 | |
Tariq et al. | WSN Localization Method Based on Hybrid PSO-GRNN Approach. | |
CN105373805A (zh) | 一种基于最大熵准则的多传感器机动目标跟踪方法 | |
CN105657653A (zh) | 一种基于指纹数据压缩的室内定位方法 | |
CN109766969B (zh) | 基于异步优势动作评价的rfid室内定位算法 | |
CN115226027A (zh) | 一种WiFi室内指纹定位方法及装置 | |
CN110572875B (zh) | 一种基于改进的机器学习算法的无线定位方法 | |
CN109493065A (zh) | 一种基于行为增量更新的欺诈交易检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |