CN117270692A - 一种视线状态预测方法、装置及应用 - Google Patents

一种视线状态预测方法、装置及应用 Download PDF

Info

Publication number
CN117270692A
CN117270692A CN202311324096.2A CN202311324096A CN117270692A CN 117270692 A CN117270692 A CN 117270692A CN 202311324096 A CN202311324096 A CN 202311324096A CN 117270692 A CN117270692 A CN 117270692A
Authority
CN
China
Prior art keywords
state
sight
line
probability
receiving point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311324096.2A
Other languages
English (en)
Other versions
CN117270692B (zh
Inventor
刘洋
顾成远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN202311324096.2A priority Critical patent/CN117270692B/zh
Publication of CN117270692A publication Critical patent/CN117270692A/zh
Application granted granted Critical
Publication of CN117270692B publication Critical patent/CN117270692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种视线状态预测方法,包括获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;基于待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;令接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入,得到状态概率,获取预测视线状态。

Description

一种视线状态预测方法、装置及应用
技术领域
本发明涉及视线状态预测技术领域,尤其是指一种视线状态预测方法、装置及应用。
背景技术
基于位置的服务是工业互联网的重要组成部分,它可以为用户提供他们的位置和相关服务,如导航、仓库定位和获取附近信息。近年来,智能城市、智能工厂、无人机和无人驾驶等场景对高精度定位的需求迅速兴起。定位系统可以对工厂的机器人,传感器,人员和物资等进行实时跟踪,实现生产和管理的数字化,智能化。全球定位系统(GPS)由于建筑结构引起的多路径效应和GPS信号衰减,它在室内环境中并不适用。不同的视距和非视距状态明显影响了室内定位精度。而且,室内定位系统针对视距和非视距状态通常采用不同的定位方法。
目前,室内定位系统大致可分为两种类型:基于参数估计的定位(PBPE)和基于指纹的定位(FBP)。PBPE估计传播延迟和入射角的参数,并根据测距参数计算设备的位置。PBPE系统通常需要发射器和接收器之间的视线路径。当没有LoS路径时,信号由于障碍物而反射和散射,导致定位参数估计误差偏差较大。PBPE系统的定位性能较差,不适合在这种情况下进行定位。为了解决这个问题,一般使用FBP系统。FBP系统根据无线信号和定位点之间的相关性估计设备的位置。FBP系统受环境影响较小,在非视距环境中具有更高的鲁棒性。
综上所述,室内环境的视线状态预测比室外环境更为复杂,室内环境的信号传播路径更加曲折,受到的干扰也更多,因此,室内环境的视线状态预测存在预测误差大、精度低的问题。视线状态预测误差,导致无法为室内环境不同的视线状态选择相对应的定位算法,从而导致室内定位的预测误差大、定位精度低。
发明内容
为此,本发明所要解决的技术问题在于克服现有技术中视线状态预测误差大、精度低的问题。
为解决上述技术问题,本发明提供了一种视线状态预测方法,包括:
获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
在本发明的一个实施例中,所述获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵,包括:
将待预测室内场景的射线追踪仿真结果,基于预设网格分辨率,划分为m*n个接收点,生成接收点集合;
对每个接收点的视距数据或非视距数据进行预处理,获取所述待预测室内场景中每个接收点的信息,构成接收点矩阵Qmn,表示为:
其中,m表示待预测室内场景的长度除以预设网格分辨率的值,n表示待预测室内场景的宽度除以预设网格分辨率的值;qαβ表示第α行第β列个接收点的信息,其包括接收点的坐标及对应的真实视线状态,1≤α≤m,1≤β≤n。
在本发明的一个实施例中,所述令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵,包括:
令所述接收点集合中的样本接收点按照不同的预设方向v与预设距离d移动;
获取所述样本接收点移动后的视距状态LoS与非视距状态NLoS转换的单步转换概率;
利用基于频率的方法,计算所述样本接收点的视距状态与非视距状态转换的经验转变概率;
基于所述经验转变概率,获取所述样本接收点的视距状态与非视距状态转换的状态转移概率,构建包含视距状态转换为视距状态的经验转变概率、视距状态转换为非视距状态的经验转变概率、非视距状态转换为视距状态的经验转变概率与非视距状态转换为非视距状态的经验转变概率的状态转移矩阵。
在本发明的一个实施例中,所述单步转换概率pij(d,v),表示为:
pij(d,v)=Pr(Xk+1=j|Xk=i);
其中,d表示接收点的移动距离,v表示接收点的移动方向;Xk=i表示当前视线状态为i,Xk+1=j表示移动后的视线状态为j,Pr(Xk+1=j|Xk=i)表示当前视线状态由i转换为j的概率,i,j∈{LoS,NLoS}。
在本发明的一个实施例中,所述经验转变概率表示为:
其中,表示视线状态由i转换为j所用的转移次数,表示视线状态由i转换为j的过程中状态i出现的总次数。
在本发明的一个实施例中,所述状态转移矩阵P(d,v),表示为:
其中,表示移动后视线状态由视距状态转换为视距状态的经验转变概率,/>表示移动后视线状态由视距状态转换为非视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为非视距状态的经验转变概率;
在本发明的一个实施例中,所述基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程,包括:
将由视距状态转换为视距状态的所有经验转变概率进行曲线拟合,获取第一概率预测拟合方程P1(LoS→LoS)=a1*exp(-b1*d)+c1
将由视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第二概率预测拟合方程P2(LoS→NLoS)=a2*exp(-b2*d)+c2
将由非视距状态转换为视距状态的经验转变概率进行曲线拟合,获取第三概率预测拟合方程P3(NLoS→LoS)=a3*exp(-b3*d)+c3
将由非视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第四概率预测拟合方程P4(NLoS→NLoS)=a4*exp(-b4*d)+c4
其中,a1、a2、a3、a4、b1、b2、b3、b4、c1、c2、c3、c4为对应的概率预测拟合方程的拟合参数,d表示接收点的移动距离。
在本发明的一个实施例中,所述获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态,包括:
若待定位接收点的初始视线状态为视距状态,则选择所述第一概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态;
若待定位接收点的初始视线状态为非视距状态,则选择所述第三概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态。
本发明实施例还提供了一种视线状态预测装置,包括:
预处理模块,用于获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
模型构建模块,用于基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
状态转移矩阵构建模块,用于令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
方程拟合模块,用于基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
预测模块,用于获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
本发明实施例还提供了一种如上述所述的视线状态预测方法在室内定位领域的应用。
本发明的上述技术方案相比现有技术具有以下优点:
本发明所述的视线状态预测方法通过构建由视距状态LoS环境和非视距状态NLoS环境组成的两态马尔可夫模型,令样本接收点按照不同的预设方向与预设距离进行移动,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵,对每种状态下的状态转移概率进行曲线拟合,来计算每个状态发生的状态概率,从而根据状态概率预测移动后的视线状态,实现对待定位接收点视线状态的准确预测。
本发明用马尔可夫模型表达LoS和NLoS环境的多状态模型能够更好地预测场景中接收点的视线状态,准确的视线状态预测可以有效区分环境中是否存在视距路径,从而根据其视线状态选择合适的定位算法,以提高定位的精度和效率。
附图说明
为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明,其中
图1是本发明所提供的视线状态预测的步骤流程图;
图2是本发明所提供的两态马尔可夫模型的模型图;
图3是本发明所提供的室内工厂场景3D示意图;
图4是本发明所提供的室内工厂场景的射线追踪仿真结果图;
图5是本发明所提供的目标在仿真高度的二维平面上以方向向量v移动距离d的示意图;
图6是本发明所提供的第一概率预测拟合方程的拟合曲线示意图;
图7是本发明所提供的第四概率预测拟合方程的拟合曲线示意图;
图8是本发明所提供的预测精确度对比步骤流程图;
图9是本发明所提供的预测精确度对比结果图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
参照图1所示,本发明的视线状态预测方法的步骤流程图,具体步骤包括:
S101:获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
基于预设网格分辨率,将待预测室内场景的射线追踪仿真结果划分为m*n个接收点,生成接收点集合;
所述接收点矩阵Qmn,表示为:
其中,m表示待预测室内场景的长度除以预设网格分辨率的值,n表示待预测室内场景的宽度除以预设网格分辨率的值;qαβ表示第α行第β列个接收点的信息,其包括接收点的坐标及对应的真实视线状态,1≤α≤m,1≤β≤n。
S102:基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
S103:令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
S104:基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
S105:获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
具体地,参照图2所示,为所述两态马尔可夫模型的模型结构图,所述模型包括由视距状态LoS转换为视距状态LoS的过程、由视距状态LoS转换为非视距状态NLoS的过程、由非视距状态NLoS转换为视距状态LoS的过程、由非视距状态NLoS转换为非视距状态NLoS的过程。
具体地,步骤S103中具体包括:
S103-1:令所述接收点集合中的样本接收点按照不同的预设方向v与预设距离d移动;
S103-2:获取所述样本接收点移动后的视距状态LoS与非视距状态NLoS转换的单步转换概率pij(d,v),表示为:
pij(d,v)=Pr(Xk+1=j|Xk=i);
其中,d表示接收点的移动距离,v表示接收点的移动方向;Xk=i表示当前视线状态为i,Xk+1=j表示移动后的视线状态为j,Pr(Xk+1=j|Xk=i)表示当前视线状态由i转换为j的概率,i,j∈{LoS,NLoS};
S103-3:利用基于频率的方法,计算所述样本接收点的视距状态与非视距状态转换的经验转变概率表示为:
其中,表示视线状态由i转换为j所用的转移次数,表示视线状态由i转换为j的过程中状态i出现的总次数;
S103-4:基于所述经验转变概率,获取所述样本接收点的视距状态与非视距状态转换的状态转移概率,构建包含视距状态转换为视距状态的经验转变概率、视距状态转换为非视距状态的经验转变概率、非视距状态转换为视距状态的经验转变概率与非视距状态转换为非视距状态的经验转变概率的状态转移矩阵P(d,v),表示为:
其中,表示移动后视线状态由视距状态转换为视距状态的经验转变概率,/>表示移动后视线状态由视距状态转换为非视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为非视距状态的经验转变概率;
具体地,在步骤S104中,拟合的对应的概率预测拟合方程包括:
将由视距状态转换为视距状态的所有经验转变概率进行曲线拟合,获取第一概率预测拟合方程P1(LoS→LoS)=a1*exp(-b1*d)+c1
将由视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第二概率预测拟合方程P2(LoS→NLoS)=a2*exp(-b2*d)+c2
将由非视距状态转换为视距状态的经验转变概率进行曲线拟合,获取第三概率预测拟合方程P3(NLoS→LoS)=a3*exp(-b3*d)+c3
将由非视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第四概率预测拟合方程P4(NLoS→NLoS)=a4*exp(-b4*d)+c4
其中,a1、a2、a3、a4、b1、b2、b3、b4、c1、c2、c3、c4为对应的概率预测拟合方程的拟合参数,d表示接收点的移动距离。
具体地,在步骤S105中,选择目标概率预测拟合方程进行状态概率的计算,具体包括:
若待定位接收点的初始视线状态为视距状态,则选择所述第一概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态;
若待定位接收点的初始视线状态为非视距状态,则选择所述第三概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态。
同理,当待定位接收点的初始视线状态为视距状态时,可以选用第二概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
同理,当待定位接收点的初始视线状态为非视距状态,可以选择所述第四概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态。
本发明所述的视线状态预测方法通过构建由视距状态LoS环境和非视距状态NLoS环境组成的两态马尔可夫模型,令样本接收点按照不同的预设方向与预设距离进行移动,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵,对每种状态下的状态转移概率进行曲线拟合,来计算每个状态发生的状态概率,从而根据状态概率预测移动后的视线状态,实现对待定位接收点视线状态的准确预测。
具体地,基于上述实施例,在本实施例中,基于如图3所示的室内工厂场景3D示意图进行视线状态预测,具体包括:
S201:基于射线追踪仿真结果对视距和非视距数据进行预处理,其中,视距和非视距数据结果由射线追踪软件Altair Feko进行仿真,对应的仿真结果如图4所示,其中浅色为LoS条件,深色及阴影部分为NLoS条件。
预处理时,设置视距和非视距数据网格分辨率为0.1米。利用m*n的矩阵Q表示场景中所有接收点,其中m和n分别是场景长度和宽度除以仿真分辨率。每个数据点qmn都包含了接收器的坐标及对应的视距或非视距状态。根据仿真结果可以很容易的计算出单个接收点与其他接收点的距离,能够分析接收点之间的视线状态转变。
S202:为了获得视距和非视距状态的马尔可夫状态转移概率,假设目标在仿真高度的二维平面上以方向向量v移动距离d,如图5所示。定义了状态i在下一步中转变为j的任何单步转换概率(接收器从k到k+1),表示为:
pij(d,v)=Pr(Xk+1=j|Xk=i);
其中,d表示接收点的移动距离,v表示接收点的移动方向;Xk=i表示当前视线状态为i,Xk+1=j表示移动后的视线状态为j,Pr(Xk+1=j|Xk=i)表示当前视线状态由i转换为j的概率,i,j∈{LoS,NLoS}。
使用基于频率的方法来计算转移概率,创建一个接收器之间的距离相关的状态转移概率。假设每个视线状态i,i∈{视距LoS,非视距NLoS},在移动距离d方向v的所有结果中计算从i状态到j状态的转移次数状态i可能转移后仍为i。然后,将这个数字除以从i状态到所有可能状态的转变的总数,即i的出现总数/>以获得经验转变概率:
状态转移矩阵P描述了在目标移动前后视距和非视距状态互相转变的概率,表示为状态转移矩阵P(d,v):
其中,表示移动后视线状态由视距状态转换为视距状态的经验转变概率,/>表示移动后视线状态由视距状态转换为非视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为非视距状态的经验转变概率;
S203:为了提供一个易于处理的模型,对状态转移矩阵中的转移概率进行了曲线拟合,方程采用指数的形式,具体包括:
将由视距状态转换为视距状态的所有经验转变概率进行曲线拟合,获取第一概率预测拟合方程P1(LoS→LoS)=a1*exp(-b1*d)+c1
将由视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第二概率预测拟合方程P2(LoS→NLoS)=a2*exp(-b2*d)+c2
将由非视距状态转换为视距状态的经验转变概率进行曲线拟合,获取第三概率预测拟合方程P3(NLoS→LoS)=a3*exp(-b3*d)+c3
将由非视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第四概率预测拟合方程P4(NLoS→NLoS)=a4*exp(-b4*d)+c4
其中,a1、a2、a3、a4、b1、b2、b3、b4、c1、c2、c3、c4为对应的概率预测拟合方程的拟合参数,d表示接收点的移动距离。
参照图6所示,是本发明对模型参数进行曲线拟合得到的目标从LoS状态到LoS状态的概率的数值结果折线图,即第一概率预测拟合方程的拟合曲线,接收点移动距离d越大,越难以维持LoS状态。参照图7所示,是本发明对模型参数进行曲线拟合得到的目标从NLoS状态到NLoS状态的概率的数值结果折线图,即第四概率预测拟合方程的拟合曲线,接收点移动距离d越大,越难以维持NLoS状态。
S204:从模拟区域的矩阵Q中随机选择一个样本A。该样本包含100个点,起始状态可以是LoS或NLoS。在A移动d和v之后,从Q中得到A(d,v),它代表真实的LoS/NLoS状态。为了生成相应的状态概率,即MarkovProb(d,v),利用S203中拟合得到的概率预测拟合方程。通过MarkovProb(d,v)计算预测视线状态ApreM。
具体地,参照图8所示,在获取预测视线状态后,本实施例比较预测视线状态ApreM和真实视线状态A(d,v)的LoS状态的一致性和统计正确性,结果如图9所示,预测结果与真实结果高度重合,表明发明所拟合的概率预测拟合方程的预测视线状态准确度高。
本发明通过提出的两态马尔可夫传播模型,该模型由LoS和NLoS环境组成,并考虑了每个状态的发生概率。对于模拟场景,用马尔可夫模型表达LoS和NLoS环境的多状态模型可以很好地预测场景中接收点的LoS状态。
本发明实施例还提供了一种视线状态预测装置,包括:
预处理模块100,用于获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
模型构建模块200,用于基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
状态转移矩阵构建模块300,用于令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
方程拟合模块400,用于基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
预测模块500,用于获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
基于上述实施例,本发明实施例的视线状态预测装置用于实现前述的视线状态预测方法,因此视线状态预测装置中的具体实施方式可见前文中的视线状态预测方法的实施例部分,例如,预处理模块100,模型构建模块200,状态转移矩阵模块300,方程拟合模块400,预测模块500,分别用于实现上述视线状态预测方法中步骤S101,S102,S103,S104和S105,所以,其具体实施方式可以参照相应的各个部分实施例的描述,在此不再赘述。
目前,室内定位系统大致可分为两种类型:基于参数估计的定位(PBPE)和基于指纹的定位(FBP)。PBPE估计传播延迟和入射角的参数,并根据测距参数计算设备的位置。PBPE系统通常需要发射器和接收器之间的视线路径。当没有LoS路径时,信号由于障碍物而反射和散射,导致定位参数估计误差偏差较大。PBPE系统的定位性能较差,不适合在这种情况下进行定位。为了解决这个问题,一般使用FBP系统。FBP系统根据无线信号和定位点之间的相关性估计设备的位置。FBP系统受环境影响较小,在非视距环境中具有更高的鲁棒性。
具体地,基于上述实施例,本发明实施例还提供了一种如上述所述的视线状态预测方法在室内定位领域的应用,具体包括:
获取所述待定位接收点移动后的预测视线状态后,通过预测视线状态分别选择适用于视距或非视距状态的定位算法;
若所述预测视线状态为视距状态,则利用基于参数估计的定位算法PBPE进行室内定位;
若所述预测视线状态为非视距状态,则利用基于指纹的定位算法FBP进行室内定位。
本发明所述的视线状态预测方法通过构建由视距状态LoS环境和非视距状态NLoS环境组成的两态马尔可夫模型,令样本接收点按照不同的预设方向与预设距离进行移动,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵,对每种状态下的状态转移概率进行曲线拟合,来计算每个状态发生的状态概率,从而根据状态概率预测移动后的视线状态,实现对待定位接收点视线状态的准确预测。
本发明用马尔可夫模型表达LoS和NLoS环境的多状态模型能够更好地预测场景中接收点的视线状态,准确的视线状态预测可以有效区分环境中是否存在视距路径,从而根据其视线状态选择合适的定位算法,以提高定位的精度和效率。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种视线状态预测方法,其特征在于,包括:
获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
2.根据权利要求1所述的视线状态预测方法,其特征在于,所述获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵,包括:
将待预测室内场景的射线追踪仿真结果,基于预设网格分辨率,划分为m*n个接收点,生成接收点集合;
对每个接收点的视距数据或非视距数据进行预处理,获取所述待预测室内场景中每个接收点的信息,构成接收点矩阵Qmn,表示为:
其中,m表示待预测室内场景的长度除以预设网格分辨率的值,n表示待预测室内场景的宽度除以预设网格分辨率的值;qαβ表示第α行第β列个接收点的信息,其包括接收点的坐标及对应的真实视线状态,1≤α≤m,1≤β≤n。
3.根据权利要求1所述的视线状态预测方法,其特征在于,所述令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵,包括:
令所述接收点集合中的样本接收点按照不同的预设方向v与预设距离d移动;
获取所述样本接收点移动后的视距状态LoS与非视距状态NLoS转换的单步转换概率;
利用基于频率的方法,计算所述样本接收点的视距状态与非视距状态转换的经验转变概率;
基于所述经验转变概率,获取所述样本接收点的视距状态与非视距状态转换的状态转移概率,构建包含视距状态转换为视距状态的经验转变概率、视距状态转换为非视距状态的经验转变概率、非视距状态转换为视距状态的经验转变概率与非视距状态转换为非视距状态的经验转变概率的状态转移矩阵。
4.根据权利要求3所述的视线状态预测方法,其特征在于,所述单步转换概率pij(d,v),表示为:
pij(d,v)=Pr(Xk+1=j|Xk=i);
其中,d表示接收点的移动距离,v表示接收点的移动方向;Xk=i表示当前视线状态为i,Xk+1=j表示移动后的视线状态为j,Pr(Xk+1=j|Xk=i)表示当前视线状态由i转换为j的概率,i,j∈{LoS,NLoS}。
5.根据权利要求4所述的视线状态预测方法,其特征在于,所述经验转变概率表示为:
其中,表示视线状态由i转换为j所用的转移次数,/>表示视线状态由i转换为j的过程中状态i出现的总次数。
6.根据权利要求5所述的视线状态预测方法,其特征在于,所述状态转移矩阵P(d,v),表示为:
其中,表示移动后视线状态由视距状态转换为视距状态的经验转变概率,表示移动后视线状态由视距状态转换为非视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为视距状态的经验转变概率,表示移动后视线状态由非视距状态转换为非视距状态的经验转变概率;
7.根据权利要求6所述的视线状态预测方法,其特征在于,所述基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程,包括:
将由视距状态转换为视距状态的所有经验转变概率进行曲线拟合,获取第一概率预测拟合方程P1(LoS→LoS)=a1*exp(-b1*d)+c1
将由视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第二概率预测拟合方程P2(LoS→NLoS)=a2*exp(-b2*d)+c2
将由非视距状态转换为视距状态的经验转变概率进行曲线拟合,获取第三概率预测拟合方程P3(NLoS→LoS)=a3*exp(-b3*d)+c3
将由非视距状态转换为非视距状态的经验转变概率进行曲线拟合,获取第四概率预测拟合方程P4(NLoS→NLoS)=a4*exp(-b4*d)+c4
其中,a1、a2、a3、a4、b1、b2、b3、b4、c1、c2、c3、c4为对应的概率预测拟合方程的拟合参数,d表示接收点的移动距离。
8.根据权利要求7所述的视线状态预测方法,其特征在于,所述获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态,包括:
若待定位接收点的初始视线状态为视距状态,则选择所述第一概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态;
若待定位接收点的初始视线状态为非视距状态,则选择所述第三概率预测拟合方程为目标概率预测拟合方程,计算状态概率:
若状态概率大于预设阈值,则所述待定位接收点移动后的预测视线状态为视距状态;
若状态概率不大于预设阈值,则所述待定位接收点移动后的预测视线状态为非视距状态。
9.一种视线状态预测装置,其特征在于,包括:
预处理模块,用于获取待预测室内场景的射线追踪仿真结果,划分为预设个数的接收点,生成接收点集合;获取每个接收点的坐标与真实视线状态进行预处理,构成接收点矩阵;
模型构建模块,用于基于所述待预测室内场景的视距环境与非视距环境,构建两态马尔可夫模型;
状态转移矩阵构建模块,用于令所述接收点集合中的样本接收点按照不同的预设方向与预设距离进行移动,利用所述两态马尔可夫模型,计算并获取移动后的样本接收点的视距状态与非视距状态之间切换的状态转移概率,构成状态转移矩阵;
方程拟合模块,用于基于所述状态转移矩阵,分别将每种状态下的状态转移概率进行曲线拟合,获取对应的概率预测拟合方程;
预测模块,用于获取待定位接收点的初始视线状态,选择目标概率预测拟合方程,将其移动方向与距离输入所述目标概率预测拟合方程,得到状态概率,获取所述待定位接收点移动后的预测视线状态。
10.一种如权利要求1至8任一项所述的视线状态预测方法在室内定位领域的应用。
CN202311324096.2A 2023-10-12 2023-10-12 一种视线状态预测方法、装置及应用 Active CN117270692B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311324096.2A CN117270692B (zh) 2023-10-12 2023-10-12 一种视线状态预测方法、装置及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311324096.2A CN117270692B (zh) 2023-10-12 2023-10-12 一种视线状态预测方法、装置及应用

Publications (2)

Publication Number Publication Date
CN117270692A true CN117270692A (zh) 2023-12-22
CN117270692B CN117270692B (zh) 2024-06-07

Family

ID=89212108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311324096.2A Active CN117270692B (zh) 2023-10-12 2023-10-12 一种视线状态预测方法、装置及应用

Country Status (1)

Country Link
CN (1) CN117270692B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080129598A1 (en) * 2005-01-11 2008-06-05 Baptiste Godefroy Positioning Method and Device
CN101483805A (zh) * 2009-02-11 2009-07-15 江苏大学 一种视距和非视距混合环境下的无线定位方法
CN101509969A (zh) * 2009-03-31 2009-08-19 江苏大学 联合非视距误差消除和运动状态估计的无线定位方法
US20180348351A1 (en) * 2015-11-13 2018-12-06 Huawei Technologies Co., Ltd. Indoor Positioning Method and Device
CN109141427A (zh) * 2018-08-29 2019-01-04 上海理工大学 在非视距环境下基于距离和角度概率模型的ekf定位方法
CN113573335A (zh) * 2021-07-12 2021-10-29 昆明理工大学 一种室内信号跟踪方法
US20220245494A1 (en) * 2019-06-26 2022-08-04 Nippon Telegraph And Telephone Corporation Parameter estimation device, parameter estimation method, and parameter estimation program
US20220343199A1 (en) * 2019-10-02 2022-10-27 Nippon Telegraph And Telephone Corporation Parameter estimation device, parameter estimation method, and parameter estimation program
CN115866744A (zh) * 2022-10-10 2023-03-28 东南大学 基于反射信号的单基站室内uwb优化定位方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080129598A1 (en) * 2005-01-11 2008-06-05 Baptiste Godefroy Positioning Method and Device
CN101483805A (zh) * 2009-02-11 2009-07-15 江苏大学 一种视距和非视距混合环境下的无线定位方法
CN101509969A (zh) * 2009-03-31 2009-08-19 江苏大学 联合非视距误差消除和运动状态估计的无线定位方法
US20180348351A1 (en) * 2015-11-13 2018-12-06 Huawei Technologies Co., Ltd. Indoor Positioning Method and Device
CN109141427A (zh) * 2018-08-29 2019-01-04 上海理工大学 在非视距环境下基于距离和角度概率模型的ekf定位方法
US20220245494A1 (en) * 2019-06-26 2022-08-04 Nippon Telegraph And Telephone Corporation Parameter estimation device, parameter estimation method, and parameter estimation program
US20220343199A1 (en) * 2019-10-02 2022-10-27 Nippon Telegraph And Telephone Corporation Parameter estimation device, parameter estimation method, and parameter estimation program
CN113573335A (zh) * 2021-07-12 2021-10-29 昆明理工大学 一种室内信号跟踪方法
CN115866744A (zh) * 2022-10-10 2023-03-28 东南大学 基于反射信号的单基站室内uwb优化定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张汝云等: "一种基于隐马尔可夫模型的目标轨迹跟踪算法", 计算机应用研究, no. 05, 15 May 2013 (2013-05-15) *

Also Published As

Publication number Publication date
CN117270692B (zh) 2024-06-07

Similar Documents

Publication Publication Date Title
CN111429574B (zh) 基于三维点云和视觉融合的移动机器人定位方法和系统
US11423785B2 (en) Multi satellite detection and tracking of moving objects
CN109116349B (zh) 多传感器协同跟踪联合优化决策方法
CN111896914A (zh) 一种协同定位方法、装置、设备和存储介质
CN111736145B (zh) 一种基于高斯混合概率假设密度滤波的多机动目标多普勒雷达跟踪方法
CN102752855A (zh) 基于路径规则和预测的室内人员定位系统及方法
KR102548282B1 (ko) 고정밀도 맵 작성 방법 및 장치
KR101888295B1 (ko) 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
CN111279209B (zh) 用于改进定位模型的指纹数据预处理方法
US20160259043A1 (en) Method for determining trajectories of moving physical objects in a space on the basis of sensor data of a plurality of sensors
Xie et al. An improved algorithm based on particle filter for 3D UAV target tracking
CN112699765A (zh) 评估视觉定位算法的方法、装置、电子设备及存储介质
Bauer et al. Evaluation of shadow maps for non-line-of-sight detection in urban GNSS vehicle localization with VANETs-The GAIN approach
CN115841031A (zh) 一种基于分数差分自回归和移动平均模型的星历预测方法及装置
CN111597987A (zh) 用于生成信息的方法、装置、设备和存储介质
CN117270692B (zh) 一种视线状态预测方法、装置及应用
CN112308917A (zh) 一种基于视觉的移动机器人定位方法
CN110795519A (zh) 基于Markov模型和概率统计的位置预测方法及可读存储介质
CN106885567B (zh) 一种惯导协作定位方法及定位设备
Aghapour et al. Outlier accommodation in moving‐horizon state estimation: A risk‐averse performance‐specified approach
Obst et al. Probabilistic multipath mitigation for GNSS-based vehicle localization in urban areas
CN107516007B (zh) 一种气团停留时长计算方法
Pale-Ramon et al. Improving visual object tracking using general ufir and kalman filters under disturbances in bounding boxes
CN109115219B (zh) 一种基于场景系数的室内三维定位方法
Wang et al. A Model Stacking Algorithm for Indoor Positioning System using WiFi Fingerprinting.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant