CN117528769A - 基于注意力增强机制及深度可分卷积的指纹室内定位方法 - Google Patents
基于注意力增强机制及深度可分卷积的指纹室内定位方法 Download PDFInfo
- Publication number
- CN117528769A CN117528769A CN202311480483.5A CN202311480483A CN117528769A CN 117528769 A CN117528769 A CN 117528769A CN 202311480483 A CN202311480483 A CN 202311480483A CN 117528769 A CN117528769 A CN 117528769A
- Authority
- CN
- China
- Prior art keywords
- layer
- attention
- convolution
- indoor positioning
- fingerprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000007246 mechanism Effects 0.000 title claims abstract description 20
- 238000012512 characterization method Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 83
- 230000004913 activation Effects 0.000 claims description 55
- 238000010606 normalization Methods 0.000 claims description 19
- 238000011176 pooling Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 7
- 238000009472 formulation Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 102100037182 Cation-independent mannose-6-phosphate receptor Human genes 0.000 description 4
- 101001028831 Homo sapiens Cation-independent mannose-6-phosphate receptor Proteins 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,旨在解决现有指纹室内定位方法中存在的位置表征提取能力不足、过度复杂化的模型堆叠卷积层以及未能采用合适的注意力机制以提升有效感受野的问题,该方法包括:首先,将采集的CSI指纹图像数据输入由逐点卷积与逐层卷积构成的深度可分卷积模块,以提取浅层特征;接着,将得到的浅层特征输入到注意力增强模块,在通道和空间两个维度上依次计算相应的注意力得分,从而获得位置表征。最后,通过多层感知机得到室内定位结果。本发明相比传统的机器学习方法有着更高的精度,相比同样应用卷积的指纹定位方法有着更好的性能。
Description
技术领域
本发明属于机器学习领域,具体涉及一种基于注意力增强机制及深度可分卷积的指纹室内定位方法。
背景技术
在指纹定位中,参考信号接收功率(Reference Signal Receiving Power,RSRP)测量作为可观察参数之一广泛用于室内定位。然而,考虑到RSRP是粗粒度信息,在实际应用中实现高精度定位往往需要相当大的部署成本,严重降低了商业可行性。由于与RSRP相比,基于信道状态信息(Channel State Information,CSI)指纹采集的时间分辨率、频率分辨率和稳定性更好,在人员追踪、室内导航和信息推送等领域得到了广泛应用。
目前,在工程实践中有所应用的室内指纹定位方法主要可分作以下两类:
(1)K近邻法(K-Nearest Neighbor,KNN)等机器学习方法,如专利“一种分方向熵加权WKNN的位置指纹室内定位方法(CN114845388A)”,该类方法缺乏对位置表征的提取能力,对高分辨率的处理能力,难以在大数据样本中捕捉CSI图像与空间信息的关联性。
(2)卷积神经网络模型(Convolutional Neural Networks,CNN)、循环神经网络模型(RecurrentNeural Network,RNN)等深度学习方法,如专利“基于卷积神经网络与高维5G观测特征的室内定位方法(CN114189809A)”,“一种基于CNN-RNN的Wi-Fi室内定位方法(CN114449452A)”,深度学习方法能够更好地处理大规模、高维数据,但存在着时间与内存开销过大,在设备上部署困难的问题,同时当前的神经网络模型都把重心放在卷积的应用上,盲目地通过堆叠卷积层数量去提升理论感受野(Receptive Field,RF),这不仅使得有效感受野提升速度缓慢,还极大地增加网络的复杂度。另一方面,现有的深度学习方法对不同维度上的位置信息采取的是平均关注策略,这进一步限制了有效感受野的提升。
发明内容
本发明的目的在于提出一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,用于解决现有的指纹室内定位方法中存在的对位置表征提取能力不足,盲目堆叠卷积层导致模型过于复杂化以及未能采用合适的注意力机制来提升有效感受野的问题。
为实现上述目的,本发明所采取的技术方案如下:
一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,包括步骤:
步骤1,生成源域样本集;
步骤2,构建深度可分卷积模块、注意力增强模块和MLP层,将深度可分卷积模块、注意力增强模块和MLP层组成指纹室内定位网络;
步骤3,训练指纹室内定位网络;
步骤4,生成目标域样本集,将目标域样本输入到指纹室内定位网络中,输出移动设备的预测位置坐标。
进一步地,所述生成源域样本集具体包括:
步骤1-1,对待定位的室内区域进行二维矩形网格划分得到参考点;
步骤1-2,将目标设备推到未观测的参考点;
步骤1-3,通过基站(Base Station,BS)发送到目标设备的信道状态信息导频(Channel State Information-Reference Signal,CSI-RS)进行CSI估计;
步骤1-4,重复步骤1-2、1-3直至遍历所有参考点;
步骤1-5,通过添加高斯噪声对采集的CSI指纹图像数据进行数据增强,所有参考点的所有CSI指纹图像数据即构成原始指纹数据库。
进一步地,所述深度可分卷积模块,结构依次为:第一二维卷积层,第一激活函数层,第一归一化层,第二二维卷积层,第二激活函数层,第二归一化层,其中第一二维卷积层的卷积核大小为3×3,输入通道数为原始样本通道数,输出通道数为1,第二二维卷积层的卷积核大小为1×1,输入通道数为1,输出通道数为原始样本通道数,第一、第二激活函数层均为GELU函数;
进一步地,所述注意力增强模块包括通道注意力残差增强模块和空间注意力残差增强模块。
进一步地,所述通道注意力残差增强模块,结构依次为:第三二维卷积层、第三激活函数层、第三归一化层、通道注意力模块的残差块、第四激活函数层和第四归一化层。
进一步地,所述第三二维卷积层为分组卷积,其输出通道数等于输入通道数,卷积核大小为9×9,组数等于输入通道数。第三激活函数层、第四激活函数层均为GELU函数;
进一步地,所述通道注意力模块的结构依次为:第一最大池化层、第一平均池化层、第一全连接层、第二全连接层、第七激活函数层、第八激活函数层。其中第一全连接层输入通道数为原始通道数,输出通道数为原始通道数/2(结果向下取整),第二全连接层输入通道数为第一全连接层输出通道数,输出通道数为第一全连接层输出通道数×2,第七激活函数层为RELU函数,第八激活函数层为Sigmoid函数;
进一步地,所述空间注意力残差增强模块,结构依次为:第四二维卷积层、第五激活函数层、第五归一化层、空间注意力模块的残差块、第六激活函数层和第六归一化层;
进一步地,所述第四二维卷积层的输出通道数等于输入通道数,卷积核大小为1×1,组数等于输入通道数。第五激活函数层、第六激活函数层均为GELU函数;
进一步地,所述空间注意力模块的结构依次为:第二最大池化层、第二平均池化层、第五二维卷积层和第九激活函数层。其中第五二维卷积层的输入通道数为2,输出通道数为1,卷积核大小为11×11,第九激活函数层为Sigmoid函数;
进一步地,所述MLP层,结构依次为:第三平均池化层、第三全连接层。其中第三全连接层的输入通道数等于通道注意力模块的输出通道数,输出通道数为3。
进一步地,训练指纹室内定位网络具体包括:
步骤3-1,将源域样本集输入到搭建好的网络中,深度可分离卷积模块输出定位信息的浅层特征;再将浅层特征输入到注意力增强模块中提取增强后的定位表征,最后输入MLP层得到预测位置坐标;
步骤3-2,利用MSE损失函数,计算每个源域样本的预测位置坐标与该样本真实坐标间的损失,通过反向传播算法迭代更新网络参数,直到MSE损失函数收敛为止,得到训练好的指纹室内定位网络;
进一步地,所述生成目标域样本集包括:使用移动设备在不同的参考点上采集CSI信息,对数据包组进行数据增强操作,将预处理后的数据组成目标域样本集,并为目标域样本添加域标签;
与现有技术相比,本发明具有如下有益的技术效果:
第一,由于本发明利用深度可分卷积模块,不再使用深度堆叠的卷积神经网络,而是使用一层逐点逐层卷积去提取浅层信息,使得本发明方法相比其现有的基于深度学习的指纹定位方法更为轻量化;
第二,由于本发明利用注意力增强模块,不同于现有的应用卷积的指纹定位方法所采用的平均关注策略,通过引入了通道、空间注意力机制,从不同维度上计算相应的注意力,从而给不同的通道和空间像素赋予不同权重,让网络更加关注与定位结果有关的基站和子载波信息,从而提升了网络的有效感受野占比,使得本发明方法在轻量化的前提下保持高预测精度。
附图说明
图1是本发明方法流程图。
图2是为实施例二维网格点采集过程示意图。
图3是本发明中仿真实验环境平面图。
图4是本发明方法所提出的指纹室内定位网络架构图。
图5是本发明仿真实验预测过程的逐点误差图示意图。
具体实施方式
为了使本技术领域人员更好地理解本发明所述方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行补充,从而让方案具有更为清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。本发明提供一种基于注意力增强机制及深度可分卷积的指纹室内定位方法包括以下具体步骤:
步骤S1生成源域样本集;
步骤S1.1在待定位的室内区域设置n台BS,n≥3,对待定位的室内区域进行二维矩形网格划分得到参考点;
步骤S1.2将目标设备推到未观测的参考点;
步骤S1.3通过BS发送到目标设备的CSI-RS进行CSI估计;
步骤S1.4重复步骤(1.2)、(1.3)直至遍历所有参考点;
步骤S1.5收集由BS生成的每一个进行存储,并记录下每个观测值矩阵组对应的参考点坐标loci:(xi,yi,zi),对观测值矩阵V数据进行预处理,剔除存在缺失值的行,并通过添加高斯噪声进行数据增强,所有参考点的所有观测值矩阵组V与其对应的参考点坐标即构成原始CSI指纹数据库;
步骤S2构建深度可分卷积模块,结构依次为:第一二维卷积层,第一激活函数层,第一归一化层,第二二维卷积层,第二激活函数层,第二归一化层,其中第一二维卷积层的卷积核大小为3×3,输入通道数为原始样本通道数,输出通道数为1,第一二维卷积层的卷积核大小为1×1,输入通道数为1,输出通道数为原始样本通道数,第一、第二激活函数层均为GELU函数;
所述深度可分卷积模块执行流程公式化如下:
其中lc为输入的CSI图像样本数据,BN(·)为归一化层,GELU(·)为激活函数层,Conv2d1(·)为第一二维卷积层,Conv2d2(·)为第二二维卷积层;
步骤S3构建注意力增强模块,注意力增强模块依次由通道注意力残差增强模块、空间注意力残差增强模块两部分构成;
步骤S3.1构建通道注意力残差增强模块,结构依次为:第三二维卷积层、第三激活函数层、第三归一化层、通道注意力模块的残差块、第四激活函数层和第四归一化层;
所述通道注意力残差增强模块执行流程公式化如下:
其中CAEB(·)为通道注意力模块;
步骤S3.2其中第三二维卷积层为分组卷积,其输出通道数等于输入通道数,卷积核大小为9×9,组数等于输入通道数。第三激活函数层、第四激活函数层均为GELU函数;
步骤S3.3其中通道注意力模块的结构依次为:第一最大池化层、第一平均池化层、第一全连接层、第二全连接层、第七激活函数层、第八激活函数层。其中第一全连接层输入通道数为原始样本通道数,输出通道数为原始通道数/2(结果向下取整),第二全连接层输入通道数为第一全连接层输出通道数,输出通道数为第一全连接层输出通道数×2,第七激活函数层为RELU函数,第八激活函数层为Sigmoid函数;
所述通道注意力模块执行流程公式化如下:
CAEB(·)=Sigmoid(FC2(RELU(FC1(AvgPool(fn-1))))+FC2(RELU(FC1(MaxPool(fn-1)))))
其中AvgPool(·)为第一平均池化层,MaxPool(·)为第一最大池化层,FC1(·)为第一全连接层,FC2(·)为第二全连接层,RELU(·)、Sigmoid(·)均为激活函数层;
步骤S3.4构建空间注意力残差增强模块,结构依次为:第四二维卷积层、第五激活函数层、第五归一化层、空间注意力模块的残差块、第六激活函数层和第六归一化层;
所述空间注意力残差增强模块执行流程公式化如下:
其中SAEB(·)为通道注意力模块;
步骤S3.5其中第四二维卷积层的输出通道数等于输入通道数,卷积核大小为1×1,组数等于输入通道数。第五激活函数层、第六激活函数层均为GELU函数;
步骤S3.6其中空间注意力模块的结构依次为:第二最大池化层、第二平均池化层、第五二维卷积层和第九激活函数层。其中第五二维卷积层的输入通道数为2,输出通道数为1,卷积核大小为11×11,第九激活函数层为Sigmoid函数;
所述通道注意力模块执行流程公式化如下:
其中Concat(·)为拼接操作的指示函数,Conv2d(·)为二维卷积层;
步骤S4构建MLP层,结构依次为:第三平均池化层、第三全连接层。其中第三全连接层的输入通道数等于通道注意力模块的输出通道数,输出通道数为3;
所述MLP层执行流程公式化如下:
其中Flatten(·)为展平操作的指示函数,FC(·)为全连接层;
步骤S5将深度可分卷积模块、注意力增强模块和MLP层组成指纹室内定位网络;
步骤S6训练指纹室内定位网络;
步骤S6.1将源域样本集输入到搭建好的网络中,深度可分离卷积模块输出定位信息的浅层特征;再将浅层特征输入到注意力增强模块中提取增强后的定位表征,最后输入MLP层得到预测位置坐标;
步骤S6.2利用MSE损失函数,计算每个源域样本的预测位置坐标与该样本真实坐标间的损失,通过反向传播算法迭代更新网络参数,直到MSE损失函数收敛为止,得到训练好的指纹室内定位网络;
所述MSE损失函数计算公式如下:
其中,所述loci为第i个样本的真实坐标,第i个样本的预测位置坐标,I为样本的总数。
步骤S7生成目标域样本集pc:使用移动设备在不同的参考点上采集CSI信息,对数据包组进行数据增强操作,将预处理后的数据组成目标域样本集,并为目标域样本添加域标签;
步骤S8进行位置估计:将目标域样本输入到指纹室内定位网络中,输出移动设备的预测位置坐标。
所述预测指纹室内定位网络流程公式如下:
(x′,y′,z′)=PositionNet(pc)
其中PositionNet(·)为本发明方法所提出的指纹室内定位网络,(x′,y′,z′)为预测结果。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真内容以其结果分析:
本发明仿真实验室数据集源自在北京中国科学院新实验楼的室内空间收集的三个真实的5G场景数据集,整个室内空间的大小为20m×60m×4m如图3所示,在3.5GHz下使用集成的感测和通信部署5个带宽为100MHz,功率为40W的5G基站,以获取CSI信息。基站安装在塑料支架上,在地面以上2.4米的高度。接收点被安装在一个高度为1.2米的小车上,模拟一个身高为1.8米的人使用通信设备进行定位的场景。所获得的数据集包括4816个定位样本,其中三个数据集对应于SNR10、SNR20和SNR50处的程度由轻到重的加噪处理后的CSI数据。
每个数据集包含4816个定位样本。本发明将这4816个CSI与真实位置对按比例划分为训练、验证和测试集,比例为6:2:2。每个CSI的分辨率为5×16×193。训练使用了RTX3090Ti进行,使用PyTorch代码编写。我们将初始学习率设置为1×10-4,在100个训练轮次之后,每25轮减半一次。所有训练的总训练轮次为300轮次,批量大小为16。
实验过程中采用的两种评价标准分别为平均绝对误差(Mean Absolute Error,MAE),标准差(Standard Deviation,SD):
其中yi为预测值,为真实值,N为测试集样本个数。
本发明采用了指纹室内定位领域的多种方法用以对比,包括:CLNet(出自于“CLNet:Complex input lightweight neural network designed for massive MIMO CSIfeedback”)、CSINet(出自于“Deep learning for massive MIMO CSI feedback”)、CRNet(出自于“Multi-resolution CSI feedback with deep learning in massive MIMOsystem”)、MPRI(出自于“Toward 5G NR high-precision indoor positioning viachannel frequency response:Anew paradigm and dataset generation method”)。其中CLNet、CRNet根据堆叠层数的不同可分为多种变体,对比实验结果如表1所示。
表1不同方法在不同加噪数据集上的误差结果(米)
测试过程中每个参考点的定位误差如图5所示,通过分析表1及图2,可以得出以下结果:
1)本发明相比CLNet、CRNet、CSINet、MPRI方法,大幅降低了误差大小,有效提高了指纹室内定位精度,在实际应用中具有可行性。
2)本发明相比CLNet、CRNet、CSINet、MPRI方法,具有强抗干扰性,当噪声逐步加大后,CLNet、CSINet、MPRI方法出现了误差增加的情况,而CRNet与本发明方法却表现出误差下降的情况,这说明了本发明方法在进行加噪的数据增强处理后的数据集上表现出了更好的效果,具有更强的鲁棒性。
3)如图5所示,本发明方法在预测定位结果中,极少出现误差大于3米的极值点,结合表1,本发明方法有着更小的标准差,可以提供更加稳定的定位效果。
综上所述,以上仅为本发明的较佳实施例,并非对本发明作出任何形式上的限制。因此,只要不脱离本发明技术方案的内容,并且依据本发明技术实质对以上实施例进行的任何简单修改、等同变化或修饰,均仍属于本发明技术方案的范围内。
Claims (10)
1.一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,包括步骤:
采集源域数据,生成源域样本集;
构建指纹室内定位网络,包括深度可分卷积模块、注意力增强模块和MLP层,所述深度可分离卷积模块输出定位信息的浅层特征至注意力增强模块;所述注意力增强模块用于提取增强后的定位表征输出至MLP层,所述MLP层输出预测位置坐标;
采用源域样本集训练指纹室内定位网络,得到收敛的指纹室内定位网络;
采集目标域数据,生成目标域样本集,将目标域样本输入到训练好的指纹室内定位网络中,输出预测位置坐标。
2.根据权利要求1所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述采集源域数据,生成源域样本集具体包括:
步骤1-1,在待定位的室内区域设置n台基站,n≥3,对待定位的室内区域进行二维矩形网格划分得到参考点;
步骤1-2,将目标设备推到未观测的参考点;
步骤1-3,对通过基站发送到目标设备的信道状态信息导频进行CSI估计,获取该参考点CSI指纹图像数据;
步骤S1-4,重复步骤1-2、1-3直至遍历所有参考点;
步骤S1-5,通过添加高斯噪声对采集的CSI指纹图像数据进行数据增强,所有参考点的所有CSI指纹图像数据即构成源域样本集。
3.根据权利要求1所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述深度可分卷积模块依次包括第一二维卷积层、第一激活函数层、第一归一化层、第二二维卷积层、第二激活函数层和第二归一化层,其中第一二维卷积层的卷积核大小为3×3,输入通道数为原始样本通道数,输出通道数为1,第二二维卷积层的卷积核大小为1×1,输入通道数为1,输出通道数为原始样本通道数,第一、第二激活函数层均为GELU函数。
4.根据权利要求1所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述注意力增强模块包括通道注意力残差增强模块和空间注意力残差增强模块,所述通道注意力残差增强模块依次包括第三二维卷积层、第三激活函数层、第三归一化层、通道注意力模块的残差块、第四激活函数层和第四归一化层;所述空间注意力残差增强模块依次包括第四二维卷积层、第五激活函数层、第五归一化层、空间注意力模块的残差块、第六激活函数层和第六归一化层。
5.根据权利要求4所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述第三二维卷积层为分组卷积,其输出通道数等于输入通道数,卷积核大小为9×9,组数等于输入通道数,第三激活函数层、第四激活函数层均为GELU函数;所述第四二维卷积层的输出通道数等于输入通道数,卷积核大小为1×1,组数等于输入通道数,第五激活函数层、第六激活函数层均为GELU函数。
6.根据权利要求4所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述通道注意力模块依次包括第一最大池化层、第一平均池化层、第一全连接层、第二全连接层、第七激活函数层、第八激活函数层,其中第一全连接层输入通道数为原始样本通道数,输出通道数为原始通道数/2,结果向下取整,第二全连接层输入通道数为第一全连接层输出通道数,输出通道数为第一全连接层输出通道数×2,第七激活函数层为RELU函数,第八激活函数层为Sigmoid函数。
7.根据权利要求4所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述空间注意力模块依次包括第二最大池化层、第二平均池化层、第五二维卷积层和第九激活函数层,其中第五二维卷积层的输入通道数为2,输出通道数为1,卷积核大小为11×11,第九激活函数层为Sigmoid函数。
8.根据权利要求1所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述MLP层依次包括第三平均池化层、第三全连接层,其中第三全连接层的输入通道数等于通道注意力模块的输出通道数,输出通道数为3。
9.根据权利要求1所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,采用源域样本集训练指纹室内定位网络时,利用MSE损失函数,计算每个源域样本的预测位置坐标与该样本真实坐标间的损失,通过反向传播算法迭代更新网络参数,直到MSE损失函数收敛为止,得到训练好的指纹室内定位网络。
10.根据权利要求9所述的一种基于注意力增强机制及深度可分卷积的指纹室内定位方法,其特征在于,所述MSE损失函数为:
其中,所述loci为第i个样本的真实坐标,第i个样本的预测位置坐标,I为样本的总数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311480483.5A CN117528769A (zh) | 2023-11-07 | 2023-11-07 | 基于注意力增强机制及深度可分卷积的指纹室内定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311480483.5A CN117528769A (zh) | 2023-11-07 | 2023-11-07 | 基于注意力增强机制及深度可分卷积的指纹室内定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117528769A true CN117528769A (zh) | 2024-02-06 |
Family
ID=89741194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311480483.5A Pending CN117528769A (zh) | 2023-11-07 | 2023-11-07 | 基于注意力增强机制及深度可分卷积的指纹室内定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117528769A (zh) |
-
2023
- 2023-11-07 CN CN202311480483.5A patent/CN117528769A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766199B (zh) | 基于自适应多尺度特征提取模型的高光谱图像分类方法 | |
CN103413151B (zh) | 基于图正则低秩表示维数约简的高光谱图像分类方法 | |
CN111160108A (zh) | 一种无锚点的人脸检测方法及系统 | |
CN114564982B (zh) | 雷达信号调制类型的自动识别方法 | |
CN113705580B (zh) | 基于深度迁移学习的高光谱图像分类方法 | |
Zhang et al. | An efficient machine learning approach for indoor localization | |
CN107680116A (zh) | 一种监测视频图像中运动目标的方法 | |
CN112818969A (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN110933633B (zh) | 一种基于csi指纹特征迁移的船载环境室内定位方法 | |
CN111832228B (zh) | 基于cnn-lstm的振动传递系统 | |
CN112799128A (zh) | 一种地震信号检测和震相提取的方法 | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN107392863A (zh) | 基于亲和矩阵融合谱聚类方法的sar图像变化检测方法 | |
CN113838107A (zh) | 一种基于稠密连接的异源图像自动配准方法 | |
CN112149502A (zh) | 一种基于卷积神经网络的不良地质定位预报方法 | |
CN117079132A (zh) | 基于高斯距离损失的遥感图像目标检测方法 | |
CN111832404A (zh) | 一种基于特征生成网络的小样本遥感地物分类方法及系统 | |
CN116704363B (zh) | 一种基于深度学习模型的土地覆盖分类方法及装置 | |
CN112766381A (zh) | 有限样本下属性引导的sar图像生成方法 | |
CN107766858A (zh) | 一种应用合成孔径雷达图像进行船舶检测的方法 | |
CN116778341A (zh) | 一种雷达图像多视角特征提取与鉴别方法 | |
CN114724245B (zh) | 基于csi的增量学习人体动作识别方法 | |
CN117528769A (zh) | 基于注意力增强机制及深度可分卷积的指纹室内定位方法 | |
CN115834161A (zh) | 一种人工智能四层架构的电网假数据注入攻击检测方法 | |
CN117062002B (zh) | 一种基于轻量级transformer的5g nr室内定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |