CN111935629A - 一种基于环境特征迁移的自适配定位方法 - Google Patents

一种基于环境特征迁移的自适配定位方法 Download PDF

Info

Publication number
CN111935629A
CN111935629A CN202010748534.8A CN202010748534A CN111935629A CN 111935629 A CN111935629 A CN 111935629A CN 202010748534 A CN202010748534 A CN 202010748534A CN 111935629 A CN111935629 A CN 111935629A
Authority
CN
China
Prior art keywords
network
domain
fingerprint
library
adaptation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010748534.8A
Other languages
English (en)
Other versions
CN111935629B (zh
Inventor
刘震宇
梁进杰
谭维易
万祥
陈泽伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202010748534.8A priority Critical patent/CN111935629B/zh
Publication of CN111935629A publication Critical patent/CN111935629A/zh
Application granted granted Critical
Publication of CN111935629B publication Critical patent/CN111935629B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于环境特征迁移的自适配定位方法。其主要步骤如下:S1:映射网络和坐标分类网络的预训练;S2:适配系数的计算和分析;S3:适配网络的训练;S4:坐标分类网路的自适应微调;S5:适配目标域环境的定位模型的构建;S6:进行定位。本发明提供的方法,可以在原有定位模型的基础上,适配出一个适应目标环境特征的定位模型,通过利用源环境特征和目标环境特征的RSS指纹样本进行适配网络训练,使定位模型适配目标环境的特征表达,提高定位模型的坐标匹配的精确度和鲁棒性,节省重新训练定位模型的成本。

Description

一种基于环境特征迁移的自适配定位方法
技术领域
本发明涉及室内定位技术领域,更具体地,涉及一种基于环境特征迁移的自适配定位方法。
背景技术
通信技术的发展,为我们的生活带来便利的同时,也把万物互联这个主题推上新的高度。位置信息的获取已经成为工业领域和社会生活中不可或缺的一部分,它为人民的生活带来了巨大的便利,因此基于位置信息的业务逐渐成为了物联网应用的基本要求。
随着无线局域网的逐渐普及,Wi-Fi信号在生活中随处可见,基于Wi-Fi的室内定位技术由于设备布置成本低成为了近年来研究的热点,展现出广阔的发展前景和商业价值。
公开日为2014年7月9日,中国专利CN103913720A提供一种室内定位方法,面向非特定Wi-Fi设备,在室内环境中设置参考点,在参考点以及参考点周围的多个相关点,使用第一Wi-Fi设备检测来自所有Wi-Fi接入点的接收信号强度,以构建Wi-Fi位置指纹库;在待定位处使用第二Wi-Fi设备,采集来自所有Wi-Fi接入点的接收信号强度数据,并进行数据处理;计算待定位处附近接收信号强度数据空间分布与每个参考点接收信号强度数据空间分布的相似性,估计待定位处的位置坐标。然而基于Wi-Fi的室内定位技术非常容易受到环境因素的影响。在定位区域内,人流的走动会使RSS信号产生严重的波动;由于天气原因,潮湿的环境会使RSS信号的传播能力衰减。除此之外,Wi-Fi室内定位的定位精度在一定程度上取决于环境中存在的AP。一旦环境中一些AP的发射功率发生变化,这将对RSS指纹特征产生严重影响;定位区域内AP的数量和其信号的发射位置的改变也会在一定程度上使RSS指纹特征发生变化。以上各种不可控的因素最终会导致在线阶段采集的RSS指纹无法正确匹配离线指纹库的RSS指纹,从而使定位服务产生偏差。
综合以上的多种因素,定位模型在复杂的环境下很难长期保持定位的精准度。虽然通过重新训练定位模型可以解决这个问题,但是我们需要为此重新构建radiomap并且耗费大量的时间进行训练。这种效率低下的方法是我们所希望避免的。
发明内容
本发明提供一种基于环境特征迁移的自适配定位方法,克服定位模型在复杂环境下泛化能力不足的缺陷。
为解决上述技术问题,本发明的技术方案如下:
一种基于环境特征迁移的自适配定位方法,包括以下步骤:
S1:映射网络和坐标分类网络的预训练:构建源域指纹库和目标域指纹库,利用源域指纹库和目标域指纹库的指纹数据对映射网络和坐标分类网络进行训练,所述映射网络用于对源域指纹库的指纹数据进行特征映射,所述坐标分类网络用于构建定位模型;
S2:适配系数的计算和分析:计算源域指纹库和目标域指纹库的适配系数,并对计算获得的适配系数进行适配检验;
S3:适配网络的训练:利用源域指纹库和目标域指纹库的指纹数据进行适配网络的训练,所述适配网络用于对目标域指纹库进行特征适配;
S4:坐标分类网路的自适应微调:利用目标域指纹库的指纹数据对坐标分类网络新增的隐藏层参数进行微调;
S5:适配目标域环境的定位模型的构建:根据适配系数分析的结果构建适配目标域环境的定位模型;
S6:利用S5得到的定位模型进行定位。
上述方案对原有定位模型进行迁移,形成一个适配新radiomap的定位模型。只需要在新的环境因素下采集适量的指纹,就可以对原有定位模型进行迁移。新的定位模型将会识别出新的环境因素下的指纹特征,从而在保证训练效率的同时,有效提高区域匹配定位的精确度。
优选地,步骤S1具体包括以下步骤:
S1.1:源域指纹库和目标指纹库的采集:
在待定位空间中,划分K个不同的待定位坐标,分别为其构建源域指纹库和目标域指纹库,在每个定位坐标上采集RSS指纹,构建源域指纹库XS={xS1,xS2......xSQ},并且记录其对应的源域指纹标签库YS={yS1,yS2......ySQ},在目标环境下对每个定位坐标采集RSS指纹,构建目标域指纹库XT={xT1,xT2......xTQ},其中q=1,2......Q为所有RSS指纹样本的数量,ySq∈{y1,y2......yK},yk为定位坐标k的标签并且k=1,2......K;
S1.2:利用源域指纹库XS和目标域指纹库XT,训练映射网络NM
S1.3:利用预训练完成的映射网络NM对源域指纹库XS的指纹数据进行特征映射,获取源域映射定位特征库FS
S1.4:构建坐标分类网络NC并利用源域指纹标签库YS和源域映射定位特征库FS对坐标分类网络NC进行有监督预训练。
优选地,步骤S1.2具体包括以下步骤:
S1.2.1:构建映射映射网络NM和重构网络NR
S1.2.2:利用源域指纹库XS和目标域指纹库XT,构建联合指纹库Xunion={XS,XT};
S1.2.3:利用映射网络NM提取联合指纹库Xunion的联合定位特征,形成联合定位特征库Funion={fS1,fT1,fS2,fT2......fSQ,fTQ};
S1.2.4:利用重构网络NR对Funion的定位特征进行定位特征重构,获得重构指纹库
Figure BDA0002609229930000031
S1.2.5:利用联合指纹库Xunion和重构指纹库
Figure BDA0002609229930000032
进行
Figure BDA0002609229930000035
次映射重构计算,在每次迭代过程中计算重构损失LossRMR)并利用其调整映射网络NM的重构网络NR的网络参数,重构损失表示为
Figure BDA0002609229930000033
其中θMR={WM,bM,WR,bR}为映射网络和重构网络的所有权重偏置参数,ErrorR为重构误差,
Figure BDA0002609229930000034
为相对熵惩罚项,MMDST为源域和目标域指纹库的最大平均差异;
S1.2.6:设置
Figure BDA0002609229930000037
作为NM训练达到收敛的最佳迭代次数,如果映射网络NM的训练次数没有达到
Figure BDA0002609229930000036
则返回步骤S1.2.3,否则执行步骤S13。
优选地,步骤S2具体包括以下步骤:
S2.1:计算源域指纹库XS的源域适配系数VS
S2.2:计算目标域指纹库XT的目标域适配系数VT
S2.3:利用VT进行域适配检验,获得适配门限ε′A
S2.4:判断目标域适配系数VT是否超过适配门限ε′A,如果超过ε′A则执行步骤S4,否则执行步骤S3。
优选地,步骤S2.1具体包括以下步骤:
S2.1.1:计算源域指纹库XS的极差RangeS
S2.1.2:计算源域指纹库XS的平均值
Figure BDA0002609229930000041
S2.1.3:计算源域指纹库XS的方差VarS
S2.1.4:计算源域指纹库XS的标准差差StdS
S2.1.5:计算源域指纹库XS的稀疏度SparseS
S2.1.6:构建源域适配向量
Figure BDA0002609229930000042
S2.1.7:计算源域适配系数VS=||VectorS||。
优选地,步骤S2.2具体包括以下步骤:
S2.2.1:计算源域指纹库XT的极差RangeT
S2.2.2:计算源域指纹库XT的平均值;
S2.2.3:计算源域指纹库XT的方差VarT
S2.2.4:计算源域指纹库XT的标准差差StdT
S2.2.5:计算源域指纹库XT的稀疏度SparseT
S2.2.6:构建源域适配向量
Figure BDA0002609229930000043
S2.2.7:计算源域适配系数VT=||VectorT||。
优选地,步骤S2.3具体包括以下步骤:
S2.3.1:设置加性噪声An,目标阈值Thr和误警概率α,其中An服从
Figure BDA0002609229930000048
Thr为常数,α∈[0,1];
S2.3.2:作出域适配假设
Figure BDA0002609229930000044
其中D0为假设适配系数V与VS相似,D1为假设适配系数V与VS不相似;
S2.3.3:根据假设推导出源域似然函数p(V|D0),其中p(V|D0)服从
Figure BDA0002609229930000045
源域似然函数表示为
Figure BDA0002609229930000046
S2.3.4:通过误警概率α和源域似然函数p(V|D0)计算判决门限εA,其中误警概率α表示为
Figure BDA0002609229930000047
S2.3.5:设置权值β1和β2,计算适配门限ε′A=β1·εA2·Thr,其中β1,β2∈[0,1]。
优选地,步骤S3具体包括以下步骤:
S3.1:复制映射网络NM的网络权值参数,构建域适配网络NA
S3.2:分别为源域指纹库XS和目标域指纹库XT添加域标签ξ,源域标签ξSq=[0],目标域标签ξTq=[1];
S3.3:利用映射网络NM对添加域标签后的源域指纹库XS进行特征映射,获取源域映射定位特征库F′S
S3.4:利用适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库F′T
S3.5:构建决策网络ND并利用其对源域映射定位特征库FS和适配定位特征库F′T的定位特征进行域标签判别;
S3.6:判断当前的指纹数据的域标签ξ是否经过逆转,如果域标签没有经过逆转,则执行步骤S3.7,如果域标签已经过逆转,则执行步骤S3.9;
S3.7:通过计算域标签决策损失
Figure BDA0002609229930000051
优化决策网络ND的网络参数,其中θD={WD,bD}为决策网络ND的网络权值和偏置,p(ζSq|fSq;θD)表示为fSq经过决策网络判别,获得的域标签为ζSq的预测概率,p(ζTq|f′Tq;θD)表示f′Tq经过决策网络判别,获得的域标签为ζTq的预测概率;
S3.8:逆转指纹数据的域标签ξ,令源域标签ξSq=[1],目标域标签ξTq=[0];
S3.9:通过计算域标签适配损失
Figure BDA0002609229930000056
优化适配网络NA的网络参数,其中θA={WA,bA}为适配网络NA的网络权值和偏置;
S3.10:设置
Figure BDA0002609229930000052
作为NA训练达到收敛的最佳迭代次数,如果训练次数小于
Figure BDA0002609229930000053
则返回步骤S3.2,否则执行步骤S4。
优选地,步骤S4具体包括以下步骤:
S4.1:从步骤S1.8获取训练完成的坐标分类网络NC
S4.2:加深坐标分类网络NC的隐藏层权值参数,构建深度坐标分类网络
Figure BDA0002609229930000054
S4.3:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤S4.4.1,否则执行步骤S4.5.1;
S4.4.1:利用训练完成的适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库F″T
S4.4.2:利用深度坐标分类网络
Figure BDA0002609229930000055
对适配定位特征库F″T的定位特征进行坐标预测;
S4.4.3:根据坐标预测的结果,对深度坐标分类网络
Figure BDA0002609229930000061
新增的隐藏层权值参数进行微调,获得适配坐标分类网络
Figure BDA0002609229930000062
S4.5.1:利用映射网络NM对源域指纹库XT进行特征映射,获取目标域映射定位特征库FT
S4.5.2:利用深度坐标分类网络
Figure BDA0002609229930000063
对目标域映射定位特征库FT的定位特征进行坐标预测。
优选地,步骤S5具体包括以下步骤:
S5.1:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤S5.2,否则执行步骤S5.3;
S5.2:采用域适配网络NA和适配坐标分类网络
Figure BDA0002609229930000064
构建定位模型;
S5.3:采用映射网络NM和映射坐标分类网络
Figure BDA0002609229930000065
构建定位模型。
与现有技术相比,本发明技术方案的有益效果是:
(1)本发明通过特征迁移的方法,综合源环境特征和目标环境特征的指纹样本,在继承原有定位模型的网络知识的基础上,适配出一个适应目标环境的定位模型,有利于在节省重新训练定位模型的成本;
(2)本发明通过特征迁移的方法,综合源环境特征和目标环境特征的指纹样本进行域适配网络训练,使定位模型适配目标环境的特征表达,提出的基于环境特征迁移的自适配定位方法,有利于提高坐标匹配定位的精确度。
(3)本发明通过数据域适配的方法,在继承原有定位模型的网络知识的基础上,适配出一个适应目标环境特征的定位模型。此定位模型的适配不针对于特定一种环境特征,而是适配任意多种环境特征的改变对指纹特征的影响,包括信号传播阻挡,AP的信号质量下降等多方面的影响,定位模型存在较强的鲁棒性。
(4)本发明通过源域和目标域指纹数据的适配系数分析,综合衡量目标环境对指纹特征提取过程产生影响的大小,决定定位模型适配的程度。适应于不同环境的变化情况,有效避免负迁移现象对定位模型的影响。
附图说明
图1为实施例中的方法流程示意图。
图2为实施例中映射网络和坐标分类网络的预训练的具体方法流程示意图。
图3为实施例中训练映射网络的具体方法流程示意图。
图4为实施例中适配系数的计算和分析的具体方法流程示意图。
图5为实施例中计算源域指纹库的源域适配系数的具体方法流程示意图。
图6为实施例中计算目标域指纹库的目标域适配系数的具体方法流程示意图。
图7为实施例中获得适配门限的具体方法流程示意图。
图8为实施例中适配网络的训练的具体方法流程示意图。
图9为实施例中坐标分类网路的自适应微调的具体方法流程示意图。
图10为实施例中定位模型的构建的具体方法流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于环境特征迁移的自适配定位方法,如图1,包括以下步骤:
步骤1:映射网络和坐标分类网络的预训练,如图2,其中包括以下步骤。
步骤11:源域指纹库和目标指纹库的采集
本实例在待定位空间中,分别构建源域指纹库和目标指纹库。采集RSS指纹并构建源域指纹库XS={xS1,xS2......xSQ},并且记录对应RSS指纹的源域指纹标签库YS={yS1,yS2......ySQ},采集目标环境的RSS指纹,构建目标域指纹库XT={xT1,xT2......xTQ},其中q=1,2......Q为RSS指纹样本数量。
例如在待定位空间中,待定位的区域的数量为K=9,总共能检测到12个AP的RSS值,则第i个RSS指纹样本表示为xq=[rssq1,rssq2......rssqL]。如果xq是在标签为k的区域采集,则对应的RSS指纹标签表示为yq=[k]。在空气干燥,人员流动程度小的条件下,为每个定位区域采集100个RSS指纹样本,则指纹样本总数为Q=900,源域指纹库表示为XS={xS1,xS2......xS900},对应的RSS指纹标签库表示为YS={yS1,yS2......yS900},其中在空气潮湿,人员流动程度大的条件下,为每个定位区域采集100个RSS指纹样本,则目标域指纹库表示为XT={xT1,xT2......xT900}。
步骤12:利用源域指纹库XS和目标域指纹库XT,训练映射映射网络NM,如图3,其中包括以下步骤。
步骤12_1:构建映射映射网络NM和重构网络NR。例如第i层映射子网的网络参数为NM(i)={WM(i),bM(i)},则构建的映射网络表示为NM={NM(1),NM(2)......NM(I)},其中i=1,2......I,I为映射网络的最大层数。第i层重构子网的网络参数为NR(i)={WR(i),bR(i)},则构建的重构网络表示为NR={NR(1),NR(2)......NR(I)},其中i=1,2......I,I为重构网络的最大层数。
步骤12_2:利用源域指纹库XS和目标域指纹库XT,构成联合指纹库Xunion={XS,XT}。例如获取取源域指纹库XS={xS1,xS2......xSQ}与目标域指纹库XT={xT1,xT2......xTQ}的并集,构建联合指纹库Xunion={xS1,xT1,xS2,xT2......xSQ,xTQ}。
步骤12_3:利用NM提取联合指纹库Xunion的联合定位特征,形成联合定位特征库Funion。例如对指纹数据xSq进行特征提取,第1层映射子网输出的定位特征为fSq(1)=NM(1)(xSq)=ELU(WM(1)xSq+bM(1)),其中
Figure BDA0002609229930000081
经过I层映射子网的特征提取,输出的定位特征表示为fSq=NM(I)(fSq(I-1))=ELU(WM(I)fSq(I-1)+bM(I))。对Xunion的所有指纹样本进行特征映射,获得联合定位特征库表示为Funion={fS1,fT1,fS2,fT2......fSQ,fTQ}。
步骤12_4:利用NR对Funion的定位特征进行定位特征重构,获得重构指纹库
Figure BDA0002609229930000082
例如对定位特征fSq进行特征重构,第1层重构子网输出的重构指纹为
Figure BDA0002609229930000083
其中
Figure BDA0002609229930000084
经过I层重构子网的特征重构,输出的重构指纹表示为
Figure BDA0002609229930000085
对Xunion的所有指纹样本进行特征重构,获得联合重构指纹库表示为
Figure BDA0002609229930000086
步骤12_5:利用联合指纹库Xunion和重构指纹库
Figure BDA0002609229930000087
进行次映射重构计算,在每次迭代过程中计算重构损失LossRMR)并利用其调整映射网络NM和重构网络NR的网络参数。例如联合指纹库表示为Xunion={xS1,xT1,xS2,xT2......xSQ,xTQ},最大的迭代次数为
Figure BDA0002609229930000089
则第
Figure BDA00026092299300000810
次迭代的重构误差为
Figure BDA00026092299300000811
Figure BDA00026092299300000812
次迭代的相对熵惩罚项表示为
Figure BDA0002609229930000091
其中ρ预设的活跃度参数,平均神经元活跃度表示为
Figure BDA0002609229930000092
Figure BDA0002609229930000093
次迭代中最大平均值差异表示为
Figure BDA0002609229930000094
Figure BDA0002609229930000095
次迭代重构损失表示为
Figure BDA0002609229930000096
Figure BDA0002609229930000097
次迭代结束后,对
Figure BDA0002609229930000098
进行随机梯度下降,并且调整映射网络和重构网络的网络参数,获得
Figure BDA0002609229930000099
为第
Figure BDA00026092299300000910
次迭代使用的映射网络和重构网络的网络参数。
步骤12_6:设置
Figure BDA00026092299300000911
作为NM训练达到收敛的最佳迭代次数。例如在实验的过程中,经过
Figure BDA00026092299300000912
次迭代之后,获得的重构损失
Figure BDA00026092299300000913
小于0.00083,则认为映射网络NM在第
Figure BDA00026092299300000914
次迭代后到达收敛。如果映射网络NM的训练次数没有达到
Figure BDA00026092299300000915
则返回步骤13,否则执行步骤17。
步骤13:利用预训练完成的映射网络NM对源域指纹库XS的指纹数据进行特征映射,获取源域映射定位特征库FS。例如训练完成的映射网络表示为NM={NM(1),NM(2)......NM(I)},则对源域指纹xSq进行特征提取,获得映射定位特征fSq=NM(xSq)。对XS的所有指纹样本进行特征映射,获得的源域映射定位特征库表示为FS={fS1,fS2......fSQ}。
步骤14:构建坐标分类网络NC并利用源域指纹标签库YS和源域映射定位特征库FS对坐标分类网络NC进行有监督预训练。例如第i层定位子网的网络参数为NC(j)={WC(j),bC(j)},则构建的坐标分类网络表示为NC={NC(1),NC(2)......NC(J)},其中j=1,2......J,J为坐标分类网络的最大层数。对源域映射特征fSq进行坐标分类,则第1层分类子网输出的定位特征为fC(1)=NC(1)(fSq)=ELU(WC(1)fSq+bC(1)),其中
Figure BDA00026092299300000916
经过J层分类子网的特征解析,输出的分类特征向量表示为fC=NC(J)(fC(C-1))=[u1,u2......uK],其中uk为分类特征向量的第k个元素。假设坐标概率预测表示为{p(y1),p(y2)......p(yK)},则坐标标签k的分类概率通过计算
Figure BDA0002609229930000101
获得,其中p(yk)为标签为k的概率。最终NC输出的坐标标签预测结果表示为
Figure BDA0002609229930000102
通过坐标预测结果和其真实标签计算出交叉熵
Figure BDA0002609229930000103
利用交叉熵对分类网络的参数进行优化,其具体过程为
Figure BDA0002609229930000104
其中
Figure BDA00026092299300001010
为第hC次迭代中坐标分类网络的所有网络参数。
步骤2:适配系数的计算和分析,如图4,其中包括以下步骤。
步骤21:计算源域指纹库XS的源域适配系数VS,如图5,其中包括以下步骤。
步骤21_1:计算源域指纹库XS的极差RangeS。例如源域指纹库表示为XS={xS1,xS2......xSQ},其中指纹数据表示为xSq=[rssSq1,rssSq2......rssSqL],rssSql为源域指纹库中第q个样本检测到APl的RSS值。因此源域指纹库表示为一个Q×L的源域指纹矩阵
Figure BDA0002609229930000105
L为指纹数据检测到的AP数量。计算源域指纹矩阵matrixS的极差RangeS=rssmax-rssmin
步骤21_2:计算源域指纹库XS的平均值
Figure BDA0002609229930000106
例如计算源域指纹矩阵matrixS的平均值
Figure BDA0002609229930000107
步骤21_3:计算源域指纹库XS的方差VarS。例如计算源域指纹矩阵matrixS的方差
Figure BDA0002609229930000108
步骤21_4:计算源域指纹库XS的标准差差StdS。例如计算源域指纹矩阵matrixS的标准差
Figure BDA0002609229930000109
步骤21_5:计算源域指纹库XS的稀疏度SparseS。例如计算源域指纹矩阵matrixS的稀疏度
Figure BDA0002609229930000111
步骤21_6:构建源域适配向量VectorS。例如将源域指纹矩阵matrixS的极差,平均值,方差,标准差和稀疏度的计量结果组成源域适配向量
Figure BDA0002609229930000112
步骤21_7:计算源域适配系数VS。例如对源域适配向量VectorS计算其二范数,则获得的源域适配系数表示为VS=||VectorS||。
步骤22:计算目标域指纹库XT的源域适配系数VT,如图6,其中包括以下步骤。
步骤22_1:计算目标域指纹库XT的极差RangeT。例如目标域指纹库表示为XT={xT1,xT2......xTQ},其中指纹数据表示为xTq=[rssTq1,rssTq2......rssTqL],rssTql为源域指纹库中第q个样本检测到APl的RSS值。因此源域指纹库表示为一个Q×L的目标域指纹矩阵
Figure BDA0002609229930000113
L为指纹数据检测到的AP数量。计算目标域指纹矩阵matrixT的极差RangeT=rssmax-rssmin
步骤22_2:计算目标域指纹库XT的平均值
Figure BDA0002609229930000114
例如计算目标域指纹矩阵matrixT的平均值
Figure BDA0002609229930000115
步骤22_3:计算目标域指纹库XT的方差VarT。例如计算目标域指纹矩阵matrixT的方差
Figure BDA0002609229930000116
步骤22_4:计算目标域指纹库XT的标准差差StdT。例如计算目标域指纹矩阵matrixT的标准差
Figure BDA0002609229930000117
步骤22_5:计算目标域指纹库XT的稀疏度SparseT。例如计算目标域指纹矩阵matrixT的稀疏度
Figure BDA0002609229930000118
步骤22_6:构建目标域适配向量VectorT。例如将目标域指纹矩阵matrixT的极差,平均值,方差,标准差和稀疏度的计量结果组成源域适配向量
Figure BDA0002609229930000121
步骤22_7:计算目标域适配系数VT。例如对目标域适配向量VectorT计算其二范数,则获得的目标域适配系数表示为VT=||VectorT||。
步骤23:利用VS进行域适配检验,获得适配门限ε′A,如图7,其中包括以下步骤:
步骤23_1:设置加性噪声An,目标阈值Thr和误警概率α。其中An服从
Figure BDA0002609229930000125
Thr为常数,α∈[0,1]。例如设置An服从N(0,1),目标阈值Thr=3,和误警概率α=0.1。
步骤23_2:作出域适配假设
Figure BDA0002609229930000122
例如其中D1为假设适配系数V与VS相似,D0为假设适配系数V与VS不相似。其中随机变量An+Thr服从N(3,1)。
步骤23_3:根据假设推导出源域似然函数p(V|D0)。例如源域适配系数为VS=2,则其中p(V|D0)服从N(5,1),源域似然函数表示为
Figure BDA0002609229930000123
步骤23_4:通过误警概率α和源域似然函数p(V|D0)计算判决门限εA。例如误警概率α表示为
Figure BDA0002609229930000124
通过查表得到判决门限εA=-3.72
步骤23_5:设置调和权值β1和β2,计算适配门限ε′A=β1·εA2·Thr。例如设置设置调和权值β1=0.3和β2=0.7,则计算适配门限ε′A=0.2·(-3.72)+0.8·3=1.656。
步骤24:判断目标域适配系数VT是否超过适配门限ε′A,如果超过ε′A则执行步骤4,否则执行步骤3。例如目标域适配系数VT=1.8,适配门限ε′A=1.656,则获得VT>ε′A,执行步骤4。
步骤3:利用源域指纹库XS和目标域指纹库XT,在源域映射网络的基础上进行训练,获取适应目标域环境的适配网络NA,如图8,包括以下步骤:
步骤31:复制映射网络NM的网络权值参数,作为域适配网络NA的初始化参数。例如θM={WM,bM}为映射网络NM的网络参数,构建域适配网络NA并令θA={WA,bA}={WM,bM}。
步骤32:分别为源域指纹库XS和目标域指纹库XT添加域标签ξ。例如源域指纹库表示为XS={xS1,xS2......xSQ},则其域标签集合表示为ΨS={ξS1S2......ξSQ}。其中ξSq为xSq对应的域标签。并且源域指纹库域标签为ξSq=[0],目标域指纹库域标签为ξg=[1]。
步骤33:利用映射网络NM对源域指纹库XS进行特征映射,获取源域映射定位特征库F′S。例如第i层映射子网的网络参数为NM(i)={WM(i),bM(i)},则构建的映射网络表示为NM={NM(1),NM(2)......NM(I)},其中i=1,2......I,I为映射网络的最大层数。xSq为源域指纹库XS的一个指纹数据,对指纹数据xSq进行特征提取,则第1层映射子网输出的定位特征为fSq(1)=NM(1)(x)=ELU(WM(1)xSq+bM(1)),其中
Figure BDA0002609229930000131
经过I层映射子网的特征提取,输出的定位特征表示为fSq=NM(I)(fSq(I-1))=ELU(WM(I)fSq(I-1)+bM(I))。对XS的所有指纹样本进行特征映射,获得源域映射定位特征库FS={fS1,fS2......fSQ}。
步骤34:利用适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库FT′。例如第i层适配子网的网络参数为NA(i)={WA(i),bA(i)},则域适配网络表示为NA={NA(1),NA(2)......NA(I)},其中i=1,2......I,I为域适配网络的最大层数。xTq为目标域指纹库XT的一个指纹数据,对指纹数据xTq进行特征提取,第1层适配子网输出的定位特征为f′Tq(1)=NA(1)(xTq)=ELU(WA(1)xTq+bA(1)),其中
Figure BDA0002609229930000132
经过I层适配子网的特征适配,输出的定位特征表示为f′Tq=NA(I)(f′Tq(I-1))=ELU(WA(I)f′Tq(I-1)+bA(I))。对XT的所有指纹样本进行特征适配,获得适配定位特征库F′T={f′T1,f′T2......f′TQ}。
步骤35:构建决策网络ND并利用其对源域映射定位特征库FS和适配定位特征库F′T的定位特征进行域标签判别。例如第i层决策子网的网络参数为ND(p)={WD(p),bD(p)},则构建的决策网络表示为ND={ND(1),ND(2)......ND(P)}。其中p=1,2......P,P为坐标分类网络的最大层数。对定位特征f进行域标签判别,则第1层决策子网输出的定位特征为fD(1)=ND(1)(f)=ELU(WD(1)f+bD(1)),其中
Figure BDA0002609229930000141
经过P层决策子网的特征解析,输出的决策特征向量表示为fD=ND(P)(fD(P-1))=[uS,uT],其中uS和uT分别为决策特征向量的两个元素。假设域标签的决策概率为{p(ζS),p(ζT)},则源域标签的决策概率通过计算
Figure BDA0002609229930000142
获得。最终决策网络输出的域标签预测结果表示为
Figure BDA0002609229930000143
步骤36:判断当前的指纹数据的域标签ξ是否经过逆转。例如设置标志位
Figure BDA0002609229930000144
如果flag=0,则执行步骤37,否则执行步骤39。
步骤37:通过计算域标签决策损失,优化决策网络的网络参数。例如在第
Figure BDA0002609229930000145
次迭代的过程中,分别对源域映射定位特征库FS和适配定位特征库F′T的定位特征进行域标签判别。对于源域映射定位特征fS,计算源域决策损失
Figure BDA0002609229930000146
其中p(ζSq|fSq;θD)为fSq域标签判断正确的概率。对于适配定位特征f′T,计算目标域决策损失
Figure BDA0002609229930000147
其中p(ζTq|fTq;θD)为fTq域标签判断正确的概率。因此决策损失表示为LadvDD)=LossS+LossT,决策网路ND的网络参数为θD={WD,bD},运用梯度下降的方法调整决策网络D的网络参数,具体过程为
Figure BDA0002609229930000148
步骤38:逆转指纹数据的域标签ξ。例如flag=0,则设置域标签为ζSq=[1],ζTq=[0]。如果flag=1,则设置域标签为ζSq=[0],ζTq=[1]。
步骤39:通过计算域标签适配损失,优化适配网络NA的网络参数。例如在第
Figure BDA00026092299300001410
次迭代的过程中,分别对映射定位特征库FS和适配定位特征库F′T的定位特征进行域标签判别。对于适配定位特征f′Tq,计算适配损失
Figure BDA0002609229930000149
其中p(ζTq|f′Tq;θD)为f′Tq域标签判断正确的概率。适配网络NA的网络参数为θA={WA,bA}。运用梯度下降的方法调整适配网络NA的网络参数,具体过程为
Figure BDA00026092299300001511
步骤310:设置
Figure BDA0002609229930000151
作为NA训练达到收敛的最佳迭代次数。例如在实验的过程中,经过
Figure BDA0002609229930000152
次迭代之后,获得的适配损失函数
Figure BDA0002609229930000153
小于0.00083,则认为适配网络NA在第
Figure BDA0002609229930000154
次迭代后收敛。如果训练次数小于E2,则返回步骤32,否则执行步骤4。
步骤4:扩充坐标分类网络的隐藏层,利用目标域数据对新增的隐藏层参数进行微调,如图9,包括以下步骤:
步骤41:从步骤18获取训练完成的坐标分类网络NC
步骤42:加深坐标分类网络NC的隐藏层权值参数,构建深度坐标分类网络
Figure BDA0002609229930000155
例如第j层定位子网的网络参数为NC(j)={WC(j),bC(j)},其中j=1,2......J,则坐标分类网络表示为NC={NC(1),NC(2)......NC(J)}。J为坐标分类网络的最大层数。为坐标分类网络NC添加输出层NC(J+1)和NC(J+2)。因此深度坐标分类网络
Figure BDA0002609229930000156
表示为
Figure BDA0002609229930000157
步骤43:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤44_1,否则执行步骤45_1。
步骤44_1:利用适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库F′T。例如第i层适配子网的网络参数为NA(i)={WA(i),bA(i)},其中i=1,2......I,则域适配网络表示为NA={NA(1),NA(2)......NA(I)}。I为域适配网络的最大层数。xTq为目标域指纹库XT的一个指纹数据,对指纹数据xTq进行特征提取,第1层适配子网输出的定位特征为f′Tq(1)=NA(1)(xTq)=ELU(WA(1)xTq+bA(1)),其中
Figure BDA0002609229930000158
经过I层适配子网的特征适配,输出的定位特征表示为f′Tq=NA(I)(f′Tq(I-1))=ELU(WA(I)f′Tq(I-1)+bA(I))。对XT的所有指纹样本进行特征适配,获得适配定位特征库F′T={f′T1,f′T2......f′TQ}。
步骤44_2:利用深度坐标分类网络
Figure BDA0002609229930000159
对适配定位特征库F′T的定位特征进行坐标预测。例如第i层定位子网的网络参数为NC(j)={WC(j),bC(j)},则构建的深度坐标分类网络表示为
Figure BDA00026092299300001510
其中j=1,2......J+2,J+2为坐标分类网络的最大层数。例对适配定位特征f′Tq进行坐标分类,则第1层分类子网输出的定位特征为
Figure BDA00026092299300001617
其中
Figure BDA0002609229930000161
经过J层分类子网的特征解析,输出的分类特征向量表示为
Figure BDA0002609229930000162
其中uk为分类特征向量的第k个元素。假设坐标概率预测表示为{p(y1),p(y2)......p(yK)},则坐标标签k的分类概率通过计算
Figure BDA0002609229930000163
获得,其中p(yk)为f′Tq的标签为k的概率。最终
Figure BDA0002609229930000164
输出的坐标标签预测结果表示为
Figure BDA0002609229930000165
步骤44_3:根据坐标预测的结果,对深度坐标分类网络
Figure BDA0002609229930000166
新增的隐藏层权值参数进行微调,获得适配坐标分类网络
Figure BDA0002609229930000167
例如在第
Figure BDA0002609229930000168
次迭代的过程中,通过坐标预测结果和其真实标签计算出交叉熵
Figure BDA0002609229930000169
利用交叉熵对深度坐标分类网络
Figure BDA00026092299300001610
扩展的输出层网络参数进行微调,其具体过程为
Figure BDA00026092299300001611
其中
Figure BDA00026092299300001612
为深度标分类网络
Figure BDA00026092299300001613
扩展的输出层网络参数。
步骤45_1:利用映射网络NM对源域指纹库XT进行特征映射,获取目标域映射定位特征库FT。例如第i层映射子网的网络参数为NM(i)={WM(i),bM(i)},则构建的映射网络表示为NM={NM(1),NM(2)......NM(I)},其中i=1,2......I,I为映射网络的最大层数。xTq为源域指纹库XS的一个指纹数据,对指纹数据xSq进行特征映射,则第1层映射子网输出的定位特征为fTq(1)=NM(1)(xTq)=ELU(WM(1)xTq+bM(1)),其中
Figure BDA00026092299300001614
经过I层映射子网的特征映射,输出的定位特征表示为fTq=NM(I)(fTq(I-1))=ELU(WM(I)fTq(I-1)+bM(I))。对XT的所有指纹样本进行特征映射,获得目标域域映射定位特征库FT={fT1,fT2......fTQ}。
步骤45_2:利用深度坐标分类网络
Figure BDA00026092299300001615
对目标域映射定位特征库FT的定位特征进行坐标预测。例如第i层定位子网的网络参数为NC(j)={WC(j),bC(j)},则构建的深度坐标分类网络表示为
Figure BDA00026092299300001616
其中j=1,2......J+2,J+2为坐标分类网络的最大层数。例对目标域映射定位特征fTq进行坐标分类,则第1层分类子网输出的定位特征为
Figure BDA0002609229930000171
其中
Figure BDA0002609229930000172
经过J层分类子网的特征解析,输出的分类特征向量表示为
Figure BDA0002609229930000173
其中uk为分类特征向量的第k个元素。假设坐标概率预测表示为{p(y1),p(y2)......p(yK)},则坐标标签k的分类概率通过计算
Figure BDA0002609229930000174
获得,其中p(yk)为fTq的标签为k的概率。最终
Figure BDA0002609229930000175
输出的坐标标签预测结果表示为
Figure BDA0002609229930000176
步骤45_3:根据坐标预测的结果,对深度坐标分类网络
Figure BDA0002609229930000177
新增的隐藏层权值参数进行微调,获得映射坐标分类网络
Figure BDA0002609229930000178
例如在第
Figure BDA0002609229930000179
次迭代的过程中,通过坐标预测结果和其真实标签计算出交叉熵
Figure BDA00026092299300001710
利用交叉熵对深度坐标分类网络
Figure BDA00026092299300001711
扩展的输出层网络参数进行微调,其具体过程为
Figure BDA00026092299300001712
其中
Figure BDA00026092299300001713
为深度标分类网络
Figure BDA00026092299300001714
扩展的输出层网络参数。
步骤5:根据源域和目标域指纹库适配系数分析的结果,构建适配目标域环境的定位模型,如图10所示,包括以下步骤:
步骤51:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤52,否则执行步骤53。
步骤52:采用域适配网络NA和适配坐标分类网络
Figure BDA00026092299300001715
构建适配定位模型。例如利用适配定位模型对指纹样本xTq进行定位。首先利用适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征f′Tq,然后利用适配坐标分类网络
Figure BDA00026092299300001716
对f′Tq进行坐标预测。
步骤53:采用映射网络NM和映射坐标分类网络
Figure BDA00026092299300001717
构建映射定位模型。例如利用映射定位模型对指纹样本xTq进行定位。首先利用映射网络NM对目标域指纹库XT进行特征映射,获取源域映射定位特征fTq,然后利用映射坐标分类网络
Figure BDA0002609229930000181
对fTq进行坐标预测。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于环境特征迁移的自适配定位方法,其特征在于,包括以下步骤:
S1:映射网络和坐标分类网络的预训练:构建源域指纹库和目标域指纹库,利用源域指纹库和目标域指纹库的指纹数据对映射网络和坐标分类网络进行训练,所述映射网络用于对源域指纹库的指纹数据进行特征映射,所述坐标分类网络用于构建定位模型;
S2:适配系数的计算和分析:计算源域指纹库和目标域指纹库的适配系数,并对计算获得的适配系数进行适配检验;
S3:适配网络的训练:利用源域指纹库和目标域指纹库的指纹数据进行适配网络的训练,所述适配网络用于对目标域指纹库进行特征适配;
S4:坐标分类网路的自适应微调:利用目标域指纹库的指纹数据对坐标分类网络新增的隐藏层参数进行微调;
S5:适配目标域环境的定位模型的构建:根据适配系数分析的结果构建适配目标域环境的定位模型;
S6:利用S5得到的定位模型进行定位。
2.根据权利要求1所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S1具体包括以下步骤:
S1.1:源域指纹库和目标指纹库的采集:
在待定位空间中,划分K个不同的待定位坐标,分别为其构建源域指纹库和目标域指纹库,在每个定位坐标上采集RSS指纹,构建源域指纹库XS={xS1,xS2......xSQ},并且记录其对应的源域指纹标签库YS={yS1,yS2......ySQ},在目标环境下对每个定位坐标采集RSS指纹,构建目标域指纹库XT={xT1,xT2......xTQ},其中q=1,2......Q为所有RSS指纹样本的数量,ySq∈{y1,y2......yK},yk为定位坐标k的标签并且k=1,2......K;
S1.2:利用源域指纹库XS和目标域指纹库XT,训练映射网络NM
S1.3:利用预训练完成的映射网络NM对源域指纹库XS的指纹数据进行特征映射,获取源域映射定位特征库FS
S1.4:构建坐标分类网络NC并利用源域指纹标签库YS和源域映射定位特征库FS对坐标分类网络NC进行有监督预训练。
3.根据权利要求2所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S1.2具体包括以下步骤:
S1.2.1:构建映射映射网络NM和重构网络NR
S1.2.2:利用源域指纹库XS和目标域指纹库XT,构建联合指纹库Xunion={XS,XT};
S1.2.3:利用映射网络NM提取联合指纹库Xunion的联合定位特征,形成联合定位特征库Funion={fS1,fT1,fS2,fT2......fSQ,fTQ};
S1.2.4:利用重构网络NR对Funion的定位特征进行定位特征重构,获得重构指纹库
Figure FDA0002609229920000021
S1.2.5:利用联合指纹库Xunion和重构指纹库
Figure FDA0002609229920000022
进行
Figure FDA0002609229920000028
次映射重构计算,在每次迭代过程中计算重构损失LossRMR)并利用其调整映射网络NM的重构网络NR的网络参数,重构损失表示为
Figure FDA0002609229920000023
其中θMR={WM,bM,WR,bR}为映射网络和重构网络的所有权重偏置参数,ErrorR为重构误差,
Figure FDA0002609229920000024
为相对熵惩罚项,MMDST为源域和目标域指纹库的最大平均差异;
S1.2.6:设置
Figure FDA0002609229920000025
作为NM训练达到收敛的最佳迭代次数,如果映射网络NM的训练次数没有达到
Figure FDA0002609229920000026
则返回步骤S1.2.3,否则执行步骤S13。
4.根据权利要求1所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S2具体包括以下步骤:
S2.1:计算源域指纹库XS的源域适配系数VS
S2.2:计算目标域指纹库XT的目标域适配系数VT
S2.3:利用VT进行域适配检验,获得适配门限ε′A
S2.4:判断目标域适配系数VT是否超过适配门限ε′A,如果超过ε′A则执行步骤S4,否则执行步骤S3。
5.根据权利要求4所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S2.1具体包括以下步骤:
S2.1.1:计算源域指纹库XS的极差RangeS
S2.1.2:计算源域指纹库XS的平均值
Figure FDA0002609229920000027
S2.1.3:计算源域指纹库XS的方差VarS
S2.1.4:计算源域指纹库XS的标准差差StdS
S2.1.5:计算源域指纹库XS的稀疏度SparseS
S2.1.6:构建源域适配向量
Figure FDA0002609229920000031
S2.1.7:计算源域适配系数VS=||VectorS||。
6.根据权利要求4所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S2.2具体包括以下步骤:
S2.2.1:计算源域指纹库XT的极差RangeT
S2.2.2:计算源域指纹库XT的平均值;
S2.2.3:计算源域指纹库XT的方差VarT
S2.2.4:计算源域指纹库XT的标准差差StdT
S2.2.5:计算源域指纹库XT的稀疏度SparseT
S2.2.6:构建源域适配向量
Figure FDA0002609229920000032
S2.2.7:计算源域适配系数VT=||VectorT||。
7.根据权利要求5所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S2.3具体包括以下步骤:
S2.3.1:设置加性噪声An,目标阈值Thr和误警概率α,其中An服从
Figure FDA0002609229920000033
Thr为常数,α∈[0,1];
S2.3.2:作出域适配假设
Figure FDA0002609229920000034
其中D0为假设适配系数V与VS相似,D1为假设适配系数V与VS不相似;
S2.3.3:根据假设推导出源域似然函数p(V|D0),其中p(V|D0)服从
Figure FDA0002609229920000035
源域似然函数表示为
Figure FDA0002609229920000036
S2.3.4:通过误警概率α和源域似然函数p(V|D0)计算判决门限εA,其中误警概率α表示为
Figure FDA0002609229920000037
S2.3.5:设置权值β1和β2,计算适配门限ε′A=β1·εA2·Thr,其中β1,β2∈[0,1]。
8.根据权利要求3所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S3具体包括以下步骤:
S3.1:复制映射网络NM的网络权值参数,构建域适配网络NA
S3.2:分别为源域指纹库XS和目标域指纹库XT添加域标签ξ,源域标签ξSq=[0],目标域标签ξTq=[1];
S3.3:利用映射网络NM对添加域标签后的源域指纹库XS进行特征映射,获取源域映射定位特征库F′S
S3.4:利用适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库F′T
S3.5:构建决策网络ND并利用其对源域映射定位特征库FS和适配定位特征库F′T的定位特征进行域标签判别;
S3.6:判断当前的指纹数据的域标签ξ是否经过逆转,如果域标签没有经过逆转,则执行步骤S3.7,如果域标签已经过逆转,则执行步骤S3.9;
S3.7:通过计算域标签决策损失
Figure FDA0002609229920000041
优化决策网络ND的网络参数,其中θD={WD,bD}为决策网络ND的网络权值和偏置,p(ζSq|fSq;θD)表示为fSq经过决策网络判别,获得的域标签为ζSq的预测概率,p(ζTq|f′Tq;θD)表示f′Tq经过决策网络判别,获得的域标签为ζTq的预测概率;
S3.8:逆转指纹数据的域标签ξ,令源域标签ξSq=[1],目标域标签ξTq=[0];
S3.9:通过计算域标签适配损失
Figure FDA0002609229920000042
优化适配网络NA的网络参数,其中θA={WA,bA}为适配网络NA的网络权值和偏置;
S3.10:设置
Figure FDA0002609229920000043
作为NA训练达到收敛的最佳迭代次数,如果训练次数小于
Figure FDA0002609229920000044
则返回步骤S3.2,否则执行步骤S4。
9.根据权利要求8所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S4具体包括以下步骤:
S4.1:从步骤S1.8获取训练完成的坐标分类网络NC
S4.2:加深坐标分类网络NC的隐藏层权值参数,构建深度坐标分类网络
Figure FDA0002609229920000045
S4.3:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤S4.4.1,否则执行步骤S4.5.1;
S4.4.1:利用训练完成的适配网络NA对目标域指纹库XT进行特征适配,获取适配定位特征库F″T
S4.4.2:利用深度坐标分类网络
Figure FDA0002609229920000046
对适配定位特征库F″T的定位特征进行坐标预测;
S4.4.3:根据坐标预测的结果,对深度坐标分类网络
Figure FDA0002609229920000051
新增的隐藏层权值参数进行微调,获得适配坐标分类网络
Figure FDA0002609229920000052
S4.5.1:利用映射网络NM对源域指纹库XT进行特征映射,获取目标域映射定位特征库FT
S4.5.2:利用深度坐标分类网络
Figure FDA0002609229920000053
对目标域映射定位特征库FT的定位特征进行坐标预测。
10.根据权利要求9所述的基于环境特征迁移的自适配定位方法,其特征在于,步骤S5具体包括以下步骤:
S5.1:判断是否存在训练完成的域适配网络NA,如果存在,执行步骤S5.2,否则执行步骤S5.3;
S5.2:采用域适配网络NA和适配坐标分类网络
Figure FDA0002609229920000054
构建定位模型;
S5.3:采用映射网络NM和映射坐标分类网络
Figure FDA0002609229920000055
构建定位模型。
CN202010748534.8A 2020-07-30 2020-07-30 一种基于环境特征迁移的自适配定位方法 Active CN111935629B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010748534.8A CN111935629B (zh) 2020-07-30 2020-07-30 一种基于环境特征迁移的自适配定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010748534.8A CN111935629B (zh) 2020-07-30 2020-07-30 一种基于环境特征迁移的自适配定位方法

Publications (2)

Publication Number Publication Date
CN111935629A true CN111935629A (zh) 2020-11-13
CN111935629B CN111935629B (zh) 2023-01-17

Family

ID=73315183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010748534.8A Active CN111935629B (zh) 2020-07-30 2020-07-30 一种基于环境特征迁移的自适配定位方法

Country Status (1)

Country Link
CN (1) CN111935629B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132931A (zh) * 2021-04-16 2021-07-16 电子科技大学 一种基于参数预测的深度迁移室内定位方法
CN113344212A (zh) * 2021-05-14 2021-09-03 香港中文大学(深圳) 模型训练方法、装置、计算机设备及可读存储介质
CN114501329A (zh) * 2021-12-15 2022-05-13 厦门智小金智能科技有限公司 一种基于1d-cnn的室内定位模型的环境自适应训练方法及装置
CN116233747A (zh) * 2023-03-09 2023-06-06 江苏亨鑫科技有限公司 一种基于迁移学习更新指纹库的ble定位方法、装置
CN117368847A (zh) * 2023-12-07 2024-01-09 深圳市好兄弟电子有限公司 基于麦克风射频通信网络的定位方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110234085A (zh) * 2019-05-23 2019-09-13 深圳大学 基于对抗迁移网络的室内位置指纹地图生成方法及系统
CN110536257A (zh) * 2019-08-21 2019-12-03 成都电科慧安科技有限公司 一种基于深度自适应网络的室内定位方法
CN110691319A (zh) * 2019-09-03 2020-01-14 东南大学 一种使用领域自适应实现异构设备高精度室内定位的方法
US10716089B1 (en) * 2019-06-03 2020-07-14 Mapsted Corp. Deployment of trained neural network based RSS fingerprint dataset

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110234085A (zh) * 2019-05-23 2019-09-13 深圳大学 基于对抗迁移网络的室内位置指纹地图生成方法及系统
US10716089B1 (en) * 2019-06-03 2020-07-14 Mapsted Corp. Deployment of trained neural network based RSS fingerprint dataset
CN110536257A (zh) * 2019-08-21 2019-12-03 成都电科慧安科技有限公司 一种基于深度自适应网络的室内定位方法
CN110691319A (zh) * 2019-09-03 2020-01-14 东南大学 一种使用领域自适应实现异构设备高精度室内定位的方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132931A (zh) * 2021-04-16 2021-07-16 电子科技大学 一种基于参数预测的深度迁移室内定位方法
CN113132931B (zh) * 2021-04-16 2022-01-28 电子科技大学 一种基于参数预测的深度迁移室内定位方法
CN113344212A (zh) * 2021-05-14 2021-09-03 香港中文大学(深圳) 模型训练方法、装置、计算机设备及可读存储介质
CN113344212B (zh) * 2021-05-14 2024-01-19 香港中文大学(深圳) 模型训练方法、装置、计算机设备及可读存储介质
CN114501329A (zh) * 2021-12-15 2022-05-13 厦门智小金智能科技有限公司 一种基于1d-cnn的室内定位模型的环境自适应训练方法及装置
CN116233747A (zh) * 2023-03-09 2023-06-06 江苏亨鑫科技有限公司 一种基于迁移学习更新指纹库的ble定位方法、装置
CN116233747B (zh) * 2023-03-09 2023-12-22 江苏亨鑫科技有限公司 一种基于迁移学习更新指纹库的ble定位方法、装置
CN117368847A (zh) * 2023-12-07 2024-01-09 深圳市好兄弟电子有限公司 基于麦克风射频通信网络的定位方法及系统
CN117368847B (zh) * 2023-12-07 2024-03-15 深圳市好兄弟电子有限公司 基于麦克风射频通信网络的定位方法及系统

Also Published As

Publication number Publication date
CN111935629B (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
CN111935629B (zh) 一种基于环境特征迁移的自适配定位方法
CN110569901B (zh) 一种基于通道选择的对抗消除弱监督目标检测方法
CN105608471B (zh) 一种鲁棒直推式标签估计及数据分类方法和系统
Han et al. A combined online-learning model with K-means clustering and GRU neural networks for trajectory prediction
CN107241700B (zh) 基于csi空频特性和参考点位置聚类算法的室内定位方法
CN110072186B (zh) 基于属性独立的加权朴素贝叶斯室内定位方法
CN110224862B (zh) 基于多层感知器的多智能体系统网络容侵能力评估方法
CN109581339B (zh) 一种基于头脑风暴自动调整自编码网络的声呐识别方法
CN110942091A (zh) 寻找可靠的异常数据中心的半监督少样本图像分类方法
CN108171119B (zh) 基于残差网络的sar图像变化检测方法
CN113076920B (zh) 一种基于非对称域对抗自适应模型的智能故障诊断方法
Siyang et al. WKNN indoor Wi-Fi localization method using k-means clustering based radio mapping
CN113125440A (zh) 物件的瑕疵判断方法及装置
CN113518307A (zh) 基于csi与众包迁移自校准更新的位置指纹定位方法
CN115278520A (zh) 一种基于指纹库迁移重构的5g室内定位方法
CN115311205A (zh) 一种基于图神经网络联邦学习的工业设备故障检测方法
CN109121081B (zh) 一种基于位置候选集与em算法的室内定位方法
CN117237902B (zh) 基于深度学习的机器人物体识别系统
CN108919182B (zh) 一种wifi环境下基于支撑集及期望最大化的目标定位方法
CN113132931B (zh) 一种基于参数预测的深度迁移室内定位方法
CN114048546A (zh) 一种基于图卷积网络和无监督域自适应的航空发动机剩余使用寿命预测方法
Di et al. [Retracted] Image Defect Recognition Method Based on Deep Learning Network
Chen et al. An Anomaly Detection Scheme with K-means aided Extended Isolation Forest in RSS-based Wireless Positioning System
KR102333893B1 (ko) 실내위치인식 시스템 성능유지를 위한 크라우드소싱 기반 무선신호세기 데이터베이스 갱신 알림 방법 및 장치
CN112465253B (zh) 一种城市路网中的链路预测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant