CN115235455B - 一种基于智能手机pdr与视觉修正的行人定位方法 - Google Patents
一种基于智能手机pdr与视觉修正的行人定位方法 Download PDFInfo
- Publication number
- CN115235455B CN115235455B CN202211133744.1A CN202211133744A CN115235455B CN 115235455 B CN115235455 B CN 115235455B CN 202211133744 A CN202211133744 A CN 202211133744A CN 115235455 B CN115235455 B CN 115235455B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- pdr
- positioning
- visual
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000012937 correction Methods 0.000 title claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims abstract description 81
- 230000008569 process Effects 0.000 claims description 31
- 230000001133 acceleration Effects 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 5
- 238000012886 linear function Methods 0.000 claims description 5
- 230000008520 organization Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000011160 research Methods 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 9
- 230000005021 gait Effects 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于智能手机PDR与视觉修正的行人定位方法,包括:建立待测区域的视觉特征地图;基于视觉特征地图的全局定位确定行人的初始位置与航向角;在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;以视觉定位结果为定位参考,对PDR定位结果进行修正。本发明应用于行人导航领域,通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
Description
技术领域
本发明涉及行人导航技术领域,具体是一种基于智能手机PDR与视觉修正的行人定位方法。
背景技术
随着人们对位置服务需求的提高,室内定位技术成为一个研究热点。由于信号的遮挡与干扰,卫星导航系统在大多数情况下无法满足用户室内定位服务的需求。为了解决在复杂室内环境下卫星信号遮挡的问题,研究人员提出了许多室内定位方法。典型的室内定位技术包括Wi-Fi指纹、蓝牙、射频识别、超宽带、视觉、航位推算等。随着微电子技术的发展,基于移动智能终端MEMS传感器的行人航位推算(Pedestrian dead recking, PDR)因其具有极强自主性、连续性和不需要事先部署基站的便捷性而得到研究者的青睐。
目前,绝大多数的智能手机中内置有加速度计、陀螺仪、磁力计等传感器。行人航位推算是利用智能手机的惯性传感器对行人位置进行估计的一种自主相对定位算法,通过对行人进行步态检测、步长估计和航向计算来推算出行人的行走路线和位置。然而,由于智能手机内置的MEMS传感器精度有限且惯性传感器件自身存在累积误差,导致PDR在长时间进行位置估算时定位误差会越来越大。另外,传统的PDR方法只能实现在二维平面的行人位置估计,当行人发生上下楼高度位置变化时,PDR则无法进行准确的定位。
为了解决PDR误差累积的问题,许多学者提出将PDR与其他室内定位手段融合的解决方案,如利用Wi-Fi、蓝牙、地磁等额外信息对PDR定位结果进行修正,从而减小PDR的定位误差累积。但是,借助Wi-Fi和蓝牙等外部信号的辅助手段需要预先在室内场景中部署大量的基础设施,且依赖外部信号,易受环境中信号的干扰。基于室内磁场特征辅助的PDR方法需要在离线阶段花费大量时间和精力构建细粒度的信号指纹数据库,基于地图信息约束的PDR定位方法则对高精度室内地图的绘制提出了较高的要求。上述方案利用绝对位置定位技术与PDR算法进行融合,虽然可以解决PDR误差累积的问题,但是需要额外布设基础设施,增加了定位系统的成本,也在一定程度上削弱了惯性导航的自主性和连续性的优势,在实际应用中缺乏明显的局限性。因此,研究一种低成本的、不依赖外部设施的辅助PDR进行精确鲁棒的行人室内定位技术有着重要的应用价值。
近年来,计算机视觉技术迅速发展,视觉SLAM算法也不断发展成熟。基于视觉特征地图的全局定位技术与SLAM的回环检测原理相同,本质上是一种信息检索的方法,利用视觉特征匹配的方式对用户的位置进行估计。基于视觉定位技术的实施不受外部环境限制,只需要用户提供一个摄像头来获取当前图像即可,并且当前智能手机中均内置有摄像头传感器。因此,在行人航位推算过程中可以借助智能手机内置的摄像头传感器进行视觉定位,来辅助修正PDR方法的累积误差,从而达到提高定位精度的目的。但是,虽然传统的视觉匹配方法可以得到定位信息,但是图像查询与匹配效率较低,无法满足实时性要求,难以得到实际应用部署。
发明内容
针对上述现有技术中的不足,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
为实现上述目的,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,其过程为:采用视觉传感器在待测区域采集场景图像,基于视觉SLAM算法进行同步定位与建图,将SLAM建图结果以关键帧为基本组织形式保存为地图数据库,用于后续在线视觉定位使用。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离,其过程为:通过分析智能手机加速度计的输出数据进行行人步态检测,当检测出行人一步发生后,根据加速度值计算行人此步的步长,通过陀螺仪输出的角速率信息计算行人前进的方向。在已知起始位置和初始航向的前提下,根据得到的步长和航向角便可推算出行人每一时刻的位置。
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,其过程为:利用PDR方法推算行人的行走距离达到设定阈值后,采用智能手机的摄像头拍摄当前场景图像,并检测当前帧的特征点与描述子信息。利用PDR的先验位置信息,将其与离线建立好的特征地图进行特征匹配寻找候选关键帧,然后建立当前帧与候选帧间2D-3D匹配,从而获得当前时刻的全局定位信息。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。其中,采用基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合。PDR是一种相对定位方法,在定位过程中存在累积误差的问题,需要借助绝对位置信息来进行修正。而基于视觉特征地图的视觉定位结果是一种绝对位置信息且无误差漂移,因此可间接性地利用视觉定位结果来修正PDR的累积误差,不仅可以提高定位精度,同时可将传统PDR的应用场景从二维平面拓展至三维空间中。
本发明提供的一种基于智能手机PDR与视觉修正的行人定位方法,该方法利用智能手机内置的加速度计、陀螺仪传感器实现行人航位推算,同时借助手机的摄像头传感器拍摄场景图像,基于词袋模型进行视觉特征匹配定位,将PDR与视觉定位结果采用扩展卡尔曼滤波算法(EKF)进行松组合融合,得到行人位置的融合定位结果。通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中基于智能手机PDR与视觉修正的行人定位方法的流程图;
图2为本发明实施例中单帧关键帧所包含的信息示意图;
图3为本发明实施例中PDR定位的流程图;
图4为本发明实施例中视觉定位的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示为本实施例公开的一种基于智能手机PDR与视觉修正的行人定位方法,其主要包括如下步骤1-步骤5。
步骤1,建立待测区域的视觉特征地图
视觉特征地图的建立技术是指利用一定的传感器信息,将不同时刻视觉信息中的视觉特征转化为统一的、可用于全局定位的特征地图,建立视觉特征地图本质上是一个同步建图与定位(SLAM)的过程。
考虑到视觉定位的实时性以及视觉特征的尺度不变性和旋转不变性要求,本实施例采用基于ORB特征的视觉SLAM算法在待测区域离线建立视觉特征地图。局部地图的建立采用局部BA优化算法,通过最小化相机的重投影误差同时优化各相机位姿和各特征点的空间位置。
SLAM建图得到的视觉特征地图以关键帧为基本组织形式保存为地图数据。参考图2,在每个关键帧中,包含了关键帧在地图坐标系下的位姿、特征点的像素坐标及三维空间位置、特征点的特征描述子,完整的视觉特征地图由建图区域的所有关键帧组成。在具体实施过程为,关键帧的筛选/确定过程采用两个标准:
1)当前帧与上一个关键帧的平均视差大于设定阈值keyframe_parallax,通常设置为10左右;
2)当前帧跟踪到的特征点数目低于设定阈值track_num,一般设置为50左右。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角
在具体实施过程中,当行人初次进入待测区域时,可以调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果,即可以将该视觉全局定位结果作为行人的初始位置与航向角。其中,视觉全局定位结果的获取过程与步骤4相同,在此先不赘述。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离
基于PDR对行人航位进行推算的过程为:通过分析智能手机加速度计输出数据进行步态检测,在检测到行人一步发生后,根据加速度值计算该步的步长,根据陀螺仪的角速率数据计算行人的航向角。在已知行人前一时刻位置的基础上,根据计算得到的步长和航向信息便可推算出行人当前时刻的位置,因此位置更新过程为:
参考图3,基于PDR对行人航位进行推算的过程具体为:
行人的行走过程具有周期性的变化规律。根据行人行走过程中的运动特点,通过分析加速度计的三轴加速度变化规律可精确推算出行走步数。由于行人行走过程中身体的抖动以及传感器的误差等原因,在获取原始加速度数据后需要采用平滑滤波的方法对其进行预处理,即:
判定一步发生的具体准则为:
在具体实施过程中,基于陀螺仪的航向估计只能为PDR提供一个相对航向估计值,在已知初始航向信息的前提下,对陀螺仪输出的角速率进行积分计算得到当前时刻的航向,为:
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息
当采用PDR方法推算行人的行走距离达到设定阈值后,调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果。视觉位置识别与视觉SLAM中回环检测原理相同,全局定位的第一步可以看作是闭环检测的过程。首先提取当前帧的ORB特征点和特征描述子,基于词袋模型(Bag-of-Words, BoW)计算当前帧的词袋向量信息。然后在由关键帧组成的视觉特征地图中,利用PDR推算的位置先验信息,通过计算不同图像的词袋向量之间的距离(即图像间的相似度)寻找与当前帧相似的地图中的关键帧,这些关键帧会作为候选帧用于进一步的精定位过程。
参考图4,基于视觉特征地图的进行全局定位的过程具体包括:
建立视觉特征地图的字典:视觉SLAM中特征描述子的字典是通过对大量图像的特征进行聚类得到的,步骤1的视觉特征地图是已建立好的,可以通过对视觉特征地图中出现的所有特征点进行聚类,生成专门针对此视觉特征地图的ORB字典。
字典的训练是基于K-means算法得到N个单词(Word):。为了提高图像匹配和查询的效率,使用K叉树来表达字典,叶子层即为所谓的单词。构建完K叉树字典后,采用TF-IDF(Term Frequency-Inverse Document Frequency)方法为每个单词赋予权值。IDF的思想是,某单词在字典中出现的频率越低,分类图像的区分度就越高:
对于某幅图像A,它的特征点对应到多个单词,计算IF-IDF值得到描述该幅图像的词袋向量,为:
获取智能手机上摄像头采集的当前帧图像,计算出当前帧与视觉特征地图中PDR推算位置附近所有关键帧的相似度后,选择相似度最高的若干帧作为候选帧,进行特征匹配与PnP位姿求解,得到精确的全局定位信息,其具体实施过程为:
基于汉明距离的特征相似度度量方法,采用快速近似最近邻(FLANN)对特征点进行匹配。考虑到可能会出现误匹配的问题,使用随机采样一致性(RANSC)对匹配进行筛选,剔除一些错误匹配的点对。
在获得当前帧与候选帧的特征匹配关系之后,由于视觉特征地图中已知候选帧特征点的三维坐标,采用PnP(Perspective-n-Point)方法求解当前帧相对于地图的位姿。PnP是利用3D-2D点对求解位姿的方法,3D点由视觉特征地图中得到,2D点是当前帧的特征点。采用非线性优化的方式,把PnP问题构建成一个关于最小化重投影误差的非线性最小而成问题。
考虑有个三维空间点及投影点,待求相机的位姿,它的李群表示为。假设某空间点坐标为,其投影的像素坐标为。由于相机的位姿未知及观测点噪声的影响,3D点的投影位置与观测位置存在一个误差。将所有的重投影误差求和,构建一个最小二乘问题,迭代求解最优的相机位姿,使其最小化,即:
在计算出每个候选帧与当前帧之间的平移与旋转后,通过RANSAC方法剔除一些异常的候选帧。最后将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,如果匹配的数目大于设置阈值,则接收相机位姿结果,否则不进行视觉修正,跳过后面步骤5的滤波融合步骤。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。
在具体实施过程中,基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合,以视觉位置识别结果作为定位参考,不仅可以修正PDR的累积误差,提高定位精度,同时可解决PDR在三维空间中行人定位问题。
其中,为第步的状态预测向量,即通过行人航位推算PDR得到的行人第步的位置坐标和航向角;为通过扩展卡尔曼滤波方法EFK对第步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第步的位置坐标和航向角、、;初始值设置为PDR的初始位置和航向角,即;表示状态转移方程中的非线性函数;表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;为过程噪声向量;
其中,表示采用扩展卡尔曼滤波方法EKF对第步状态最优估计值的协方差矩阵,其初始值设为;表示预测模型本身所带来的过程噪声矩阵,由行人航位推算方法PDR各要素的平均误差组成,其中、表示位置平均误差,表示航向角平均误差。
在扩展卡尔曼滤波方法EKF的更新阶段,系统的观测方程为:
其中,为观测矩阵;表示在第步由视觉定位识别得到的观测向量,、为第k步时视觉定位的位置信息,为第k步时视觉定位的航向角;为观测误差向量;表示在第步由PDR定位识别得到的观测向量,、为第k步时PDR定位的位置信息,为第k步时PDR定位的航向角。
同时更新状态最优估计值的协方差矩阵,用于下次卡尔曼滤波方法EKF计算,为:
在具体计算过程中,对于行人的高度位置,可以直接采用视觉定位结果中的高度值,从而实现行人在三维空间中的室内定位。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (5)
1.一种基于智能手机PDR与视觉修正的行人定位方法,其特征在于,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,所述视觉特征地图以关键帧为基本组织形式保存为地图数据库,键帧的确定过程采用两个标准,为:
当前帧与上一个关键帧的平均视差大于设定阈值keyframe_parallax;
当前帧跟踪到的特征点数目低于设定阈值track_num;
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角;
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5;
步骤3中,所述基于PDR对行人航位进行推算,具体为:
获取智能手机中加速度计的原始加速度数据,并采用平滑滤波对其进行预处理,为:
将滤波后的原始加速度数据的三轴分量合成,得到合成加速度acc,为:
检测一步发生后,对该步的步长和航向进行估计,为:
最后根据步长和航向进行位置更新,为:
2.根据权利要求1所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤4中,所述基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,具体为:
通过智能手机的摄像头采集当前帧图像,提取当前帧的ORB特征点和特征描述子,计算当前帧的词袋向量;
基于不同图像的词袋向量之间的距离在视觉特征地图寻找与当前帧相似的关键帧,作为侯选帧;
建立当前帧与侯选帧之间的2D-3D点对匹配,采用RANSAC方法剔除异常的候选帧后,将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,将所有的重投影误差求和构建一个最小二乘问题,再采用PnP方法求解得到相机的位姿;
最后将相机的姿态矩阵转换为欧拉角,即得到行人当前位置的航向角。
3.根据权利要求1所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,基于扩展卡尔曼滤波方法将PDR定位结果与视觉定位结果松组合融合,以视觉定位结果作为定位参考修正PDR定位结果的累积误差。
4.根据权利要求3所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,所述以视觉定位结果作为定位参考修正PDR定位结果的累积误差,具体为:
其中,为第步的状态预测向量,即通过PDR得到的行人第步的位置坐标和航向角、、;为通过扩展卡尔曼滤波方法对第步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第步的位置坐标和航向角、、;为非线性函数;表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;为过程噪声向量,为第i步的步长,为第i步的航向角,为第i步的航向角变化量;
在扩展卡尔曼滤波方法的更新阶段,系统的观测方程为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211133744.1A CN115235455B (zh) | 2022-09-19 | 2022-09-19 | 一种基于智能手机pdr与视觉修正的行人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211133744.1A CN115235455B (zh) | 2022-09-19 | 2022-09-19 | 一种基于智能手机pdr与视觉修正的行人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115235455A CN115235455A (zh) | 2022-10-25 |
CN115235455B true CN115235455B (zh) | 2023-01-13 |
Family
ID=83681806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211133744.1A Active CN115235455B (zh) | 2022-09-19 | 2022-09-19 | 一种基于智能手机pdr与视觉修正的行人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115235455B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116681935B (zh) * | 2023-05-31 | 2024-01-23 | 国家深海基地管理中心 | 一种深海热液喷口自主识别定位方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109405829A (zh) * | 2018-08-28 | 2019-03-01 | 桂林电子科技大学 | 基于智能手机音视频多源信息融合的行人自定位方法 |
CN112129281A (zh) * | 2019-06-25 | 2020-12-25 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN112637762A (zh) * | 2020-12-11 | 2021-04-09 | 武汉科技大学 | 一种基于改进pdr算法的室内融合定位方法 |
CN113029148A (zh) * | 2021-03-06 | 2021-06-25 | 西南交通大学 | 一种基于航向角准确修正的惯性导航室内定位方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090082711A (ko) * | 2008-01-28 | 2009-07-31 | 삼성전자주식회사 | 보행자 항법 시스템에서의 보폭 추정 방법 및 시스템 |
EP2386828B1 (en) * | 2010-05-12 | 2013-12-11 | Technische Universität Graz | Method and system for detection of a zero velocity state of an object |
CN104215238A (zh) * | 2014-08-21 | 2014-12-17 | 北京空间飞行器总体设计部 | 一种智能手机室内定位方法 |
KR101713496B1 (ko) * | 2016-09-02 | 2017-03-07 | 유치헌 | 가속도 센서를 이용한 무지연 실시간 걸음검출 시스템 및 방법 |
CN111595344B (zh) * | 2020-06-01 | 2023-02-24 | 中国矿业大学 | 一种基于地图信息辅助的多姿态下行人行位推算方法 |
CN114111784A (zh) * | 2021-10-26 | 2022-03-01 | 杭州电子科技大学 | 一种基于众包的室内走廊地图自动构建方法及系统 |
-
2022
- 2022-09-19 CN CN202211133744.1A patent/CN115235455B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109405829A (zh) * | 2018-08-28 | 2019-03-01 | 桂林电子科技大学 | 基于智能手机音视频多源信息融合的行人自定位方法 |
CN112129281A (zh) * | 2019-06-25 | 2020-12-25 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN112637762A (zh) * | 2020-12-11 | 2021-04-09 | 武汉科技大学 | 一种基于改进pdr算法的室内融合定位方法 |
CN113029148A (zh) * | 2021-03-06 | 2021-06-25 | 西南交通大学 | 一种基于航向角准确修正的惯性导航室内定位方法 |
Non-Patent Citations (1)
Title |
---|
基于图像检索和航位推算的室内定位方法研究;朱会平;《中国优秀硕士学位论文全文数据库信息科技辑》;20200615(第06期);第I138-790页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115235455A (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993113B (zh) | 一种基于rgb-d和imu信息融合的位姿估计方法 | |
CN110125928B (zh) | 一种基于前后帧进行特征匹配的双目惯导slam系统 | |
Wang et al. | Pedestrian dead reckoning based on walking pattern recognition and online magnetic fingerprint trajectory calibration | |
CN105241445B (zh) | 一种基于智能移动终端的室内导航数据获取方法及系统 | |
CN105761242B (zh) | 一种基于计算机双目视觉与惯性测量的盲人行走定位方法 | |
CN110579207B (zh) | 基于地磁信号结合电脑视觉的室内定位系统及方法 | |
CN110553648A (zh) | 一种用于室内导航的方法和系统 | |
CN112197770A (zh) | 一种机器人的定位方法及其定位装置 | |
Wang et al. | Pedestrian heading estimation based on spatial transformer networks and hierarchical LSTM | |
CN106056075A (zh) | 基于无人机的社区网格化中重点人员识别及跟踪系统 | |
CN111595344B (zh) | 一种基于地图信息辅助的多姿态下行人行位推算方法 | |
KR20210026795A (ko) | Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템 | |
CN108549376A (zh) | 一种基于信标的导航定位方法及系统 | |
CN108446710A (zh) | 室内平面图快速重建方法及重建系统 | |
CN110533719A (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
CN110032965A (zh) | 基于遥感图像的视觉定位方法 | |
CN117739972B (zh) | 一种无全球卫星定位系统的无人机进近阶段定位方法 | |
CN115574816A (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN115235455B (zh) | 一种基于智能手机pdr与视觉修正的行人定位方法 | |
US20230304802A1 (en) | Passive combined indoor positioning system and method based on intelligent terminal sensor | |
CN114076596A (zh) | 一种基于星敏感器的自主星跟踪方法、系统及存储介质 | |
CN116007609A (zh) | 一种多光谱图像和惯导融合的定位方法和计算系统 | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
Shu et al. | Accurate indoor 3d location based on mems/vision by using a smartphone | |
CN113114850B (zh) | 一种基于监控视频和pdr在线融合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |