CN115235455A - 一种基于智能手机pdr与视觉修正的行人定位方法 - Google Patents

一种基于智能手机pdr与视觉修正的行人定位方法 Download PDF

Info

Publication number
CN115235455A
CN115235455A CN202211133744.1A CN202211133744A CN115235455A CN 115235455 A CN115235455 A CN 115235455A CN 202211133744 A CN202211133744 A CN 202211133744A CN 115235455 A CN115235455 A CN 115235455A
Authority
CN
China
Prior art keywords
pedestrian
pdr
positioning
visual
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211133744.1A
Other languages
English (en)
Other versions
CN115235455B (zh
Inventor
潘献飞
陈宗阳
陈昶昊
褚超群
涂哲铭
张礼廉
胡小平
吴文启
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202211133744.1A priority Critical patent/CN115235455B/zh
Publication of CN115235455A publication Critical patent/CN115235455A/zh
Application granted granted Critical
Publication of CN115235455B publication Critical patent/CN115235455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

本发明公开了一种基于智能手机PDR与视觉修正的行人定位方法,包括:建立待测区域的视觉特征地图;基于视觉特征地图的全局定位确定行人的初始位置与航向角;在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;以视觉定位结果为定位参考,对PDR定位结果进行修正。本发明应用于行人导航领域,通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。

Description

一种基于智能手机PDR与视觉修正的行人定位方法
技术领域
本发明涉及行人导航技术领域,具体是一种基于智能手机PDR与视觉修正的行人定位方法。
背景技术
随着人们对位置服务需求的提高,室内定位技术成为一个研究热点。由于信号的遮挡与干扰,卫星导航系统在大多数情况下无法满足用户室内定位服务的需求。为了解决在复杂室内环境下卫星信号遮挡的问题,研究人员提出了许多室内定位方法。典型的室内定位技术包括Wi-Fi指纹、蓝牙、射频识别、超宽带、视觉、航位推算等。随着微电子技术的发展,基于移动智能终端MEMS传感器的行人航位推算(Pedestrian dead recking, PDR)因其具有极强自主性、连续性和不需要事先部署基站的便捷性而得到研究者的青睐。
目前,绝大多数的智能手机中内置有加速度计、陀螺仪、磁力计等传感器。行人航位推算是利用智能手机的惯性传感器对行人位置进行估计的一种自主相对定位算法,通过对行人进行步态检测、步长估计和航向计算来推算出行人的行走路线和位置。然而,由于智能手机内置的MEMS传感器精度有限且惯性传感器件自身存在累积误差,导致PDR在长时间进行位置估算时定位误差会越来越大。另外,传统的PDR方法只能实现在二维平面的行人位置估计,当行人发生上下楼高度位置变化时,PDR则无法进行准确的定位。
为了解决PDR误差累积的问题,许多学者提出将PDR与其他室内定位手段融合的解决方案,如利用Wi-Fi、蓝牙、地磁等额外信息对PDR定位结果进行修正,从而减小PDR的定位误差累积。但是,借助Wi-Fi和蓝牙等外部信号的辅助手段需要预先在室内场景中部署大量的基础设施,且依赖外部信号,易受环境中信号的干扰。基于室内磁场特征辅助的PDR方法需要在离线阶段花费大量时间和精力构建细粒度的信号指纹数据库,基于地图信息约束的PDR定位方法则对高精度室内地图的绘制提出了较高的要求。上述方案利用绝对位置定位技术与PDR算法进行融合,虽然可以解决PDR误差累积的问题,但是需要额外布设基础设施,增加了定位系统的成本,也在一定程度上削弱了惯性导航的自主性和连续性的优势,在实际应用中缺乏明显的局限性。因此,研究一种低成本的、不依赖外部设施的辅助PDR进行精确鲁棒的行人室内定位技术有着重要的应用价值。
近年来,计算机视觉技术迅速发展,视觉SLAM算法也不断发展成熟。基于视觉特征地图的全局定位技术与SLAM的回环检测原理相同,本质上是一种信息检索的方法,利用视觉特征匹配的方式对用户的位置进行估计。基于视觉定位技术的实施不受外部环境限制,只需要用户提供一个摄像头来获取当前图像即可,并且当前智能手机中均内置有摄像头传感器。因此,在行人航位推算过程中可以借助智能手机内置的摄像头传感器进行视觉定位,来辅助修正PDR方法的累积误差,从而达到提高定位精度的目的。但是,虽然传统的视觉匹配方法可以得到定位信息,但是图像查询与匹配效率较低,无法满足实时性要求,难以得到实际应用部署。
发明内容
针对上述现有技术中的不足,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
为实现上述目的,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,其过程为:采用视觉传感器在待测区域采集场景图像,基于视觉SLAM算法进行同步定位与建图,将SLAM建图结果以关键帧为基本组织形式保存为地图数据库,用于后续在线视觉定位使用。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离,其过程为:通过分析智能手机加速度计的输出数据进行行人步态检测,当检测出行人一步发生后,根据加速度值计算行人此步的步长,通过陀螺仪输出的角速率信息计算行人前进的方向。在已知起始位置和初始航向的前提下,根据得到的步长和航向角便可推算出行人每一时刻的位置。
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,其过程为:利用PDR方法推算行人的行走距离达到设定阈值后,采用智能手机的摄像头拍摄当前场景图像,并检测当前帧的特征点与描述子信息。利用PDR的先验位置信息,将其与离线建立好的特征地图进行特征匹配寻找候选关键帧,然后建立当前帧与候选帧间2D-3D匹配,从而获得当前时刻的全局定位信息。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。其中,采用基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合。PDR是一种相对定位方法,在定位过程中存在累积误差的问题,需要借助绝对位置信息来进行修正。而基于视觉特征地图的视觉定位结果是一种绝对位置信息且无误差漂移,因此可间接性地利用视觉定位结果来修正PDR的累积误差,不仅可以提高定位精度,同时可将传统PDR的应用场景从二维平面拓展至三维空间中。
本发明提供的一种基于智能手机PDR与视觉修正的行人定位方法,该方法利用智能手机内置的加速度计、陀螺仪传感器实现行人航位推算,同时借助手机的摄像头传感器拍摄场景图像,基于词袋模型进行视觉特征匹配定位,将PDR与视觉定位结果采用扩展卡尔曼滤波算法(EKF)进行松组合融合,得到行人位置的融合定位结果。通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中基于智能手机PDR与视觉修正的行人定位方法的流程图;
图2为本发明实施例中单帧关键帧所包含的信息示意图;
图3为本发明实施例中PDR定位的流程图;
图4为本发明实施例中视觉定位的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示为本实施例公开的一种基于智能手机PDR与视觉修正的行人定位方法,其主要包括如下步骤1-步骤5。
步骤1,建立待测区域的视觉特征地图
视觉特征地图的建立技术是指利用一定的传感器信息,将不同时刻视觉信息中的视觉特征转化为统一的、可用于全局定位的特征地图,建立视觉特征地图本质上是一个同步建图与定位(SLAM)的过程。
考虑到视觉定位的实时性以及视觉特征的尺度不变性和旋转不变性要求,本实施例采用基于ORB特征的视觉SLAM算法在待测区域离线建立视觉特征地图。局部地图的建立采用局部BA优化算法,通过最小化相机的重投影误差同时优化各相机位姿和各特征点的空间位置。
假设相机的位姿为
Figure 810872DEST_PATH_IMAGE001
,对应的李群为
Figure 92817DEST_PATH_IMAGE002
,特征点的空间位置为
Figure 214357DEST_PATH_IMAGE003
,观测数据为像素坐标
Figure 849738DEST_PATH_IMAGE004
,构建关于观测误差的最小二乘问题,为:
Figure 412437DEST_PATH_IMAGE005
其中,
Figure 740651DEST_PATH_IMAGE006
为在相机位姿
Figure 5279DEST_PATH_IMAGE007
处观察路标
Figure 975509DEST_PATH_IMAGE008
所产生的数据;
Figure 720611DEST_PATH_IMAGE009
为观测方程,
Figure 95091DEST_PATH_IMAGE010
为与当前帧共视的关键帧个数,
Figure 722382DEST_PATH_IMAGE011
为共视的地图点个数。
SLAM建图得到的视觉特征地图以关键帧为基本组织形式保存为地图数据。参考图2,在每个关键帧中,包含了关键帧在地图坐标系下的位姿、特征点的像素坐标及三维空间位置、特征点的特征描述子,完整的视觉特征地图由建图区域的所有关键帧组成。在具体实施过程为,关键帧的筛选/确定过程采用两个标准:
1)当前帧与上一个关键帧的平均视差大于设定阈值keyframe_parallax,通常设置为10左右;
2)当前帧跟踪到的特征点数目低于设定阈值track_num,一般设置为50左右。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角
在具体实施过程中,当行人初次进入待测区域时,可以调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果,即可以将该视觉全局定位结果作为行人的初始位置与航向角
Figure 824199DEST_PATH_IMAGE012
。其中,视觉全局定位结果的获取过程与步骤4相同,在此先不赘述。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离
基于PDR对行人航位进行推算的过程为:通过分析智能手机加速度计输出数据进行步态检测,在检测到行人一步发生后,根据加速度值计算该步的步长,根据陀螺仪的角速率数据计算行人的航向角。在已知行人前一时刻位置的基础上,根据计算得到的步长和航向信息便可推算出行人当前时刻的位置,因此位置更新过程为:
Figure 486124DEST_PATH_IMAGE013
式中,
Figure 31506DEST_PATH_IMAGE014
为行人在第k步时的位置,
Figure 146093DEST_PATH_IMAGE015
为行人在第k-1步时的位置,
Figure 887538DEST_PATH_IMAGE016
为在第k步时的航向角,
Figure 669550DEST_PATH_IMAGE017
为第k步的步长。
参考图3,基于PDR对行人航位进行推算的过程具体为:
行人的行走过程具有周期性的变化规律。根据行人行走过程中的运动特点,通过分析加速度计的三轴加速度变化规律可精确推算出行走步数。由于行人行走过程中身体的抖动以及传感器的误差等原因,在获取原始加速度数据后需要采用平滑滤波的方法对其进行预处理,即:
Figure 385833DEST_PATH_IMAGE018
其中,
Figure 987716DEST_PATH_IMAGE019
t时刻滤波后的加速度,
Figure 775543DEST_PATH_IMAGE020
为第
Figure 271115DEST_PATH_IMAGE021
时刻的加速度,M为滑动窗口的大小。在具体实施过程中,滑动窗口大小的选择与加速度数据的采集频率和步频有关,一般设置为5左右可取得较好的步态检测效果。
将原始加速度数据平滑滤波后便可进行步态检测。由于行人持有手机的姿态并不固定,如果采用单轴加速度值进行步态检测会遇到周期特征不明显的问题,因此将三轴的合成加速度
Figure 548513DEST_PATH_IMAGE022
作为步态检测的判定依据,其大小计算为:
Figure 247479DEST_PATH_IMAGE023
其中,
Figure 838997DEST_PATH_IMAGE024
Figure 64442DEST_PATH_IMAGE025
Figure 637375DEST_PATH_IMAGE026
分别代表平滑滤波后的加速度在
Figure 213849DEST_PATH_IMAGE027
轴、
Figure 15583DEST_PATH_IMAGE028
轴、
Figure 95535DEST_PATH_IMAGE029
轴的分量;
再根据合成加速度
Figure 839369DEST_PATH_IMAGE030
的大小以及连续两个待定步之间的时间间隔来判断一步是否发生:
假设
Figure 637560DEST_PATH_IMAGE031
时刻的合成加速度
Figure 305302DEST_PATH_IMAGE032
为第
Figure 380706DEST_PATH_IMAGE033
步时间内的峰值,记为
Figure 436386DEST_PATH_IMAGE034
。则
Figure 580929DEST_PATH_IMAGE035
应满足:
Figure 317940DEST_PATH_IMAGE036
其中,
Figure 372484DEST_PATH_IMAGE037
t-1时刻的合成加速度,
Figure 208853DEST_PATH_IMAGE038
t+1时刻的合成加速度;
判定一步发生的具体准则为:
Figure 981637DEST_PATH_IMAGE039
其中,
Figure 256761DEST_PATH_IMAGE040
为加速度峰值阈值;
Figure 556024DEST_PATH_IMAGE041
为相邻峰值的时间间隔,即第
Figure 687928DEST_PATH_IMAGE042
步的持续时间,
Figure 885691DEST_PATH_IMAGE043
Figure 636609DEST_PATH_IMAGE044
为时间间隔的阈值下限和上限。
考虑到行人行走速度快慢的影响,需要对加速度峰值阈值
Figure 931324DEST_PATH_IMAGE045
和时间间隔阈值
Figure 171813DEST_PATH_IMAGE046
Figure 309402DEST_PATH_IMAGE047
作进一步的动态设置。峰值阈值
Figure 723066DEST_PATH_IMAGE048
限定在
Figure 809971DEST_PATH_IMAGE049
m/s2之间,并根据当前加速度峰值与前两个时刻加速度峰值的均值之比进行动态调整如下:
Figure 159043DEST_PATH_IMAGE050
其中,
Figure 128136DEST_PATH_IMAGE051
为第k步计算时的峰值阈值,
Figure 470125DEST_PATH_IMAGE052
为第k+1步计算时的峰值阈值,
Figure 208274DEST_PATH_IMAGE053
为第
Figure 728248DEST_PATH_IMAGE054
步合成加速度峰值与前三步合成加速度平均峰值的比值。对于最初三步计算时的峰值阈值设置为12左右。
时间间隔阈值
Figure 184637DEST_PATH_IMAGE055
Figure 143366DEST_PATH_IMAGE056
的设置需要结合行人在正常行走时的频率范围0.5-5Hz进行考虑。具体动态调整如下:
Figure 126234DEST_PATH_IMAGE057
在检测到行人一步发生后,对该步的步长和航向进行估计。采用Weinbeng步长模型估计第
Figure 941743DEST_PATH_IMAGE058
步的步长
Figure 495216DEST_PATH_IMAGE059
,即:
Figure 319952DEST_PATH_IMAGE060
其中,
Figure 235956DEST_PATH_IMAGE061
是步长系数,对于不同的行人取值不同,与每个人的身高、步频等因素有关;
Figure 347000DEST_PATH_IMAGE062
Figure 43561DEST_PATH_IMAGE063
是第
Figure 344092DEST_PATH_IMAGE064
步过程中合成加速度的最大值和最小值。
在具体实施过程中,基于陀螺仪的航向估计只能为PDR提供一个相对航向估计值,在已知初始航向信息的前提下,对陀螺仪输出的角速率进行积分计算得到当前时刻的航向,为:
Figure 786706DEST_PATH_IMAGE065
其中,
Figure 209597DEST_PATH_IMAGE066
为初始航向角;
Figure 65557DEST_PATH_IMAGE067
为陀螺仪相对于导航坐标系Z轴的角速率测量值,
Figure 91151DEST_PATH_IMAGE068
为第
Figure 44064DEST_PATH_IMAGE069
步的航向角变化量,
Figure 247643DEST_PATH_IMAGE070
为航位推算的初始时刻,
Figure 387637DEST_PATH_IMAGE071
为第
Figure 29971DEST_PATH_IMAGE064
步时所对应的时刻。
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息
当采用PDR方法推算行人的行走距离达到设定阈值
Figure 696445DEST_PATH_IMAGE072
后,调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果。视觉位置识别与视觉SLAM中回环检测原理相同,全局定位的第一步可以看作是闭环检测的过程。首先提取当前帧的ORB特征点和特征描述子,基于词袋模型(Bag-of-Words, BoW)计算当前帧的词袋向量信息。然后在由关键帧组成的视觉特征地图中,利用PDR推算的位置先验信息,通过计算不同图像的词袋向量之间的距离(即图像间的相似度)寻找与当前帧相似的地图中的关键帧,这些关键帧会作为候选帧用于进一步的精定位过程。
参考图4,基于视觉特征地图的进行全局定位的过程具体包括:
建立视觉特征地图的字典:视觉SLAM中特征描述子的字典是通过对大量图像的特征进行聚类得到的,步骤1的视觉特征地图是已建立好的,可以通过对视觉特征地图中出现的所有特征点进行聚类,生成专门针对此视觉特征地图的ORB字典。
字典的训练是基于K-means算法得到N个单词(Word):
Figure 461138DEST_PATH_IMAGE073
。为了提高图像匹配和查询的效率,使用K叉树来表达字典,叶子层即为所谓的单词。构建完K叉树字典后,采用TF-IDF(Term Frequency-Inverse Document Frequency)方法为每个单词赋予权值。IDF的思想是,某单词在字典中出现的频率越低,分类图像的区分度就越高:
Figure 291691DEST_PATH_IMAGE074
其中,
Figure 409820DEST_PATH_IMAGE075
为单词
Figure 337325DEST_PATH_IMAGE076
IDF值,
Figure 131974DEST_PATH_IMAGE077
为字典中所有特征数量,
Figure 184244DEST_PATH_IMAGE078
为单词
Figure 496276DEST_PATH_IMAGE079
中的特征数量;
TF的思想是,某单词在一幅图像中出现的次数越多,它的区分度越高。假设图像
Figure 888075DEST_PATH_IMAGE080
中单词
Figure 932254DEST_PATH_IMAGE081
出现了
Figure 534137DEST_PATH_IMAGE082
次,一共出现的单词次数为
Figure 243335DEST_PATH_IMAGE083
,则单词
Figure 817536DEST_PATH_IMAGE084
TF
Figure 94934DEST_PATH_IMAGE085
为:
Figure 59479DEST_PATH_IMAGE086
最终得到单词
Figure 385418DEST_PATH_IMAGE087
的权值
Figure 142021DEST_PATH_IMAGE088
为:
Figure 528003DEST_PATH_IMAGE089
对于某幅图像A,它的特征点对应到多个单词,计算IF-IDF值得到描述该幅图像的词袋向量,为:
Figure 963533DEST_PATH_IMAGE090
其中,
Figure 155480DEST_PATH_IMAGE091
为字典的所有单词个数,
Figure 704273DEST_PATH_IMAGE092
为单词
Figure 198839DEST_PATH_IMAGE093
TF-IDF值,
Figure 997031DEST_PATH_IMAGE094
为图像A的词袋向量。
图像之间的相似度计算一般利用词袋向量距离的
Figure 851723DEST_PATH_IMAGE095
范数形式,即:
Figure 255023DEST_PATH_IMAGE096
式中,
Figure 45124DEST_PATH_IMAGE097
为图像A与图像B之间的相似度,
Figure 533874DEST_PATH_IMAGE098
为图像B的词袋向量,
Figure 942990DEST_PATH_IMAGE099
为词袋向量
Figure 263113DEST_PATH_IMAGE100
的第
Figure 161799DEST_PATH_IMAGE101
个分量,
Figure 59217DEST_PATH_IMAGE102
为词袋向量
Figure 396657DEST_PATH_IMAGE103
的第
Figure 181073DEST_PATH_IMAGE104
个分量,
Figure 516240DEST_PATH_IMAGE105
Figure 776320DEST_PATH_IMAGE106
表示词袋向量
Figure 776506DEST_PATH_IMAGE107
Figure 743325DEST_PATH_IMAGE108
的第i个分量,也就是每个视觉单词
Figure 311709DEST_PATH_IMAGE109
的权重值,与
Figure 668872DEST_PATH_IMAGE110
Figure 285799DEST_PATH_IMAGE111
表示的含义相同;
获取智能手机上摄像头采集的当前帧图像,计算出当前帧与视觉特征地图中PDR推算位置附近所有关键帧的相似度后,选择相似度最高的若干帧作为候选帧,进行特征匹配与PnP位姿求解,得到精确的全局定位信息,其具体实施过程为:
特征匹配是指判断不同图像的特征点之间的对应关系,特征点之间的相似度通常采用特征描述子距离进行度量。对于ORB特征的BRIEF二进制描述子,通常采用汉明距离
Figure 435020DEST_PATH_IMAGE112
来表述相似度,即:
Figure 33361DEST_PATH_IMAGE113
其中,
Figure 205716DEST_PATH_IMAGE114
表示异或运算;
Figure 423071DEST_PATH_IMAGE115
Figure 302165DEST_PATH_IMAGE116
分别表示两幅图像中ORB特征点的BRIEF描述子。
基于汉明距离的特征相似度度量方法,采用快速近似最近邻(FLANN)对特征点进行匹配。考虑到可能会出现误匹配的问题,使用随机采样一致性(RANSC)对匹配进行筛选,剔除一些错误匹配的点对。
在获得当前帧与候选帧的特征匹配关系之后,由于视觉特征地图中已知候选帧特征点的三维坐标,采用PnP(Perspective-n-Point)方法求解当前帧相对于地图的位姿。PnP是利用3D-2D点对求解位姿的方法,3D点由视觉特征地图中得到,2D点是当前帧的特征点。采用非线性优化的方式,把PnP问题构建成一个关于最小化重投影误差的非线性最小而成问题。
考虑有
Figure 946773DEST_PATH_IMAGE117
个三维空间点
Figure 606424DEST_PATH_IMAGE118
及投影点
Figure 752104DEST_PATH_IMAGE119
,待求相机的位姿
Figure 610338DEST_PATH_IMAGE120
,它的李群表示为
Figure 35635DEST_PATH_IMAGE121
。假设某空间点坐标为
Figure 182582DEST_PATH_IMAGE122
,其投影的像素坐标为
Figure 741740DEST_PATH_IMAGE123
。由于相机的位姿未知及观测点噪声的影响,3D点的投影位置与观测位置存在一个误差。将所有的重投影误差求和,构建一个最小二乘问题,迭代求解最优的相机位姿
Figure 579114DEST_PATH_IMAGE124
,使其最小化,即:
Figure 831104DEST_PATH_IMAGE125
其中,
Figure 199769DEST_PATH_IMAGE126
表示尺度因子;
Figure 172404DEST_PATH_IMAGE127
为相机内参矩阵。
在计算出每个候选帧与当前帧之间的平移与旋转后,通过RANSAC方法剔除一些异常的候选帧。最后将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,如果匹配的数目大于设置阈值
Figure 270810DEST_PATH_IMAGE128
,则接收相机位姿结果,否则不进行视觉修正,跳过后面步骤5的滤波融合步骤。
计算得到相机的位姿结果后,相机的位置
Figure 631384DEST_PATH_IMAGE129
作为行人当前时刻的位置参考信息,将相机的姿态矩阵
Figure 674295DEST_PATH_IMAGE130
转换为欧拉角,可得到行人当前时刻的参考航向角信息
Figure 575255DEST_PATH_IMAGE131
,为:
Figure 465851DEST_PATH_IMAGE132
其中,
Figure 935009DEST_PATH_IMAGE133
为姿态矩阵R中第2行第1列位置的元素,
Figure 75004DEST_PATH_IMAGE134
为姿态矩阵R中第1行第1列位置的元素。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。
在具体实施过程中,基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合,以视觉位置识别结果作为定位参考,不仅可以修正PDR的累积误差,提高定位精度,同时可解决PDR在三维空间中行人定位问题。
在扩展卡尔曼滤波方法EKF的预测阶段,第
Figure 717338DEST_PATH_IMAGE135
步时行人的状态转移方程如下:
Figure 649390DEST_PATH_IMAGE136
其中,
Figure 148505DEST_PATH_IMAGE137
为第
Figure 979058DEST_PATH_IMAGE138
步的状态预测向量,即通过行人航位推算PDR得到的行人第
Figure 362766DEST_PATH_IMAGE139
步的位置坐标和航向角;
Figure 759112DEST_PATH_IMAGE140
为通过扩展卡尔曼滤波方法EFK对第
Figure 632390DEST_PATH_IMAGE141
步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第
Figure 137189DEST_PATH_IMAGE141
步的位置坐标和航向角
Figure 183643DEST_PATH_IMAGE142
Figure 637758DEST_PATH_IMAGE143
Figure 619620DEST_PATH_IMAGE144
;初始值设置为PDR的初始位置和航向角,即
Figure 221503DEST_PATH_IMAGE145
Figure 9331DEST_PATH_IMAGE146
表示状态转移方程中的非线性函数;
Figure 504903DEST_PATH_IMAGE147
表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;
Figure 782300DEST_PATH_IMAGE148
为过程噪声向量;
将状态转移方程中的非线性函数
Figure 74741DEST_PATH_IMAGE149
Figure 338364DEST_PATH_IMAGE150
附近进行线性化处理,舍去高阶部分后得到第
Figure 563809DEST_PATH_IMAGE151
步所对应的状态矩阵
Figure 215370DEST_PATH_IMAGE152
,为:
Figure 916478DEST_PATH_IMAGE153
其中,
Figure 46108DEST_PATH_IMAGE154
表示将非线性函数
Figure 391639DEST_PATH_IMAGE155
Figure 886206DEST_PATH_IMAGE156
附近进行线性化处理;
之后对预测变量
Figure 684397DEST_PATH_IMAGE157
的协方差矩阵
Figure 617718DEST_PATH_IMAGE158
进行更新,为:
Figure 207968DEST_PATH_IMAGE159
其中,
Figure 935753DEST_PATH_IMAGE160
表示采用扩展卡尔曼滤波方法EKF对第
Figure 221241DEST_PATH_IMAGE161
步状态最优估计值的协方差矩阵,其初始值设为
Figure 630357DEST_PATH_IMAGE162
Figure 684900DEST_PATH_IMAGE163
表示预测模型本身所带来的过程噪声矩阵,由行人航位推算方法PDR各要素的平均误差组成,其中
Figure 849165DEST_PATH_IMAGE164
Figure 12162DEST_PATH_IMAGE165
表示位置平均误差,
Figure 21707DEST_PATH_IMAGE166
表示航向角平均误差。
在扩展卡尔曼滤波方法EKF的更新阶段,系统的观测方程为:
Figure 196336DEST_PATH_IMAGE167
其中,
Figure 203606DEST_PATH_IMAGE168
为观测矩阵;
Figure 666949DEST_PATH_IMAGE169
表示在第
Figure 276922DEST_PATH_IMAGE170
步由视觉定位识别得到的观测向量,
Figure 696270DEST_PATH_IMAGE171
Figure 999076DEST_PATH_IMAGE172
为第k步时视觉定位的位置信息,
Figure 684135DEST_PATH_IMAGE173
为第k步时视觉定位的航向角;
Figure 238744DEST_PATH_IMAGE174
为观测误差向量;
Figure 325649DEST_PATH_IMAGE175
表示在第
Figure 799356DEST_PATH_IMAGE176
步由PDR定位识别得到的观测向量,
Figure 158662DEST_PATH_IMAGE177
Figure 313699DEST_PATH_IMAGE178
为第k步时PDR定位的位置信息,
Figure 317428DEST_PATH_IMAGE179
为第k步时PDR定位的航向角。
计算第
Figure 102981DEST_PATH_IMAGE180
步的EKF增益矩阵
Figure 559370DEST_PATH_IMAGE181
,为:
Figure 518099DEST_PATH_IMAGE182
其中,
Figure 500967DEST_PATH_IMAGE183
为第
Figure 519739DEST_PATH_IMAGE184
步对应的观测噪声协方差矩阵,通过下式计算:
Figure 463424DEST_PATH_IMAGE185
其中,
Figure 163527DEST_PATH_IMAGE186
为窗口长度,
Figure 876268DEST_PATH_IMAGE187
为第
Figure 800362DEST_PATH_IMAGE188
步时视觉位置识别得到的观测向量,
Figure 621556DEST_PATH_IMAGE189
为第
Figure 718825DEST_PATH_IMAGE190
步时PDR推算得到的状态向量。
计算行人第
Figure 754914DEST_PATH_IMAGE191
步状态的最优估计值
Figure 787592DEST_PATH_IMAGE192
,为:
Figure 909132DEST_PATH_IMAGE193
同时更新状态最优估计值的协方差矩阵,用于下次卡尔曼滤波方法EKF计算,为:
Figure 810092DEST_PATH_IMAGE194
其中,
Figure 645496DEST_PATH_IMAGE195
为单位矩阵。
在具体计算过程中,对于行人的高度位置,可以直接采用视觉定位结果中的高度值,从而实现行人在三维空间中的室内定位。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (8)

1.一种基于智能手机PDR与视觉修正的行人定位方法,其特征在于,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,所述视觉特征地图以关键帧为基本组织形式保存为地图数据库;
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角;
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。
2.根据权利要求1所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤3中,所述基于PDR对行人航位进行推算,具体为:
获取智能手机中加速度计的原始加速度数据,并采用平滑滤波对其进行预处理,为:
Figure 314129DEST_PATH_IMAGE001
其中,
Figure 762428DEST_PATH_IMAGE002
t时刻滤波后的加速度,
Figure 214269DEST_PATH_IMAGE003
为第
Figure 343899DEST_PATH_IMAGE004
时刻的加速度,M为滑动窗口的大小;
将滤波后的原始加速度数据的三轴分量合成,得到合成加速度acc,为:
Figure 955009DEST_PATH_IMAGE005
其中,
Figure 433264DEST_PATH_IMAGE006
Figure 434718DEST_PATH_IMAGE007
Figure 430356DEST_PATH_IMAGE008
分别代表平滑滤波后的加速度在
Figure 505759DEST_PATH_IMAGE009
轴、
Figure 233544DEST_PATH_IMAGE010
轴、
Figure 519031DEST_PATH_IMAGE011
轴的分量;
根据加速度
Figure 177415DEST_PATH_IMAGE012
的大小以及连续两个待定步之间的时间间隔来判断一步是否发生,一步发生的准则为:
Figure 435221DEST_PATH_IMAGE013
其中,
Figure 661803DEST_PATH_IMAGE014
为第
Figure 309953DEST_PATH_IMAGE015
步时间内合成加速度的峰值,
Figure 116235DEST_PATH_IMAGE016
为加速度峰值阈值;
Figure 494126DEST_PATH_IMAGE017
为第
Figure 485085DEST_PATH_IMAGE018
步的持续时间,
Figure 10744DEST_PATH_IMAGE019
Figure 823980DEST_PATH_IMAGE020
为时间间隔的阈值下限和上限;
检测一步发生后,对该步的步长和航向进行估计,为:
Figure 728482DEST_PATH_IMAGE021
其中,
Figure 296866DEST_PATH_IMAGE022
为第
Figure 903297DEST_PATH_IMAGE023
步的步长,
Figure 520223DEST_PATH_IMAGE024
是步长系数,
Figure 669445DEST_PATH_IMAGE025
Figure 346414DEST_PATH_IMAGE026
是第
Figure 190873DEST_PATH_IMAGE027
步过程中合成加速度的最大值和最小值;
Figure 408228DEST_PATH_IMAGE028
其中,
Figure 536590DEST_PATH_IMAGE029
为第
Figure 384460DEST_PATH_IMAGE030
步的航向角,
Figure 840849DEST_PATH_IMAGE031
为初始航向角;
Figure 737261DEST_PATH_IMAGE032
为陀螺仪相对于导航坐标系Z轴的角速率测量值,
Figure 533179DEST_PATH_IMAGE033
为第
Figure 348688DEST_PATH_IMAGE030
步的航向角变化量,
Figure 682586DEST_PATH_IMAGE034
为航位推算的初始时刻,
Figure 445006DEST_PATH_IMAGE035
为第
Figure 423326DEST_PATH_IMAGE036
步时所对应的时刻;
最后根据步长和航向进行位置更新,为:
Figure 19524DEST_PATH_IMAGE037
式中,
Figure 653767DEST_PATH_IMAGE038
为行人在第k步时的位置,
Figure 751036DEST_PATH_IMAGE039
为行人在第k-1步时的位置。
3.根据权利要求2所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,考虑到行人行走速度快慢的影响,对加速度峰值阈值
Figure 974076DEST_PATH_IMAGE040
进行动态设置,为:
Figure 69071DEST_PATH_IMAGE041
其中,
Figure 252928DEST_PATH_IMAGE042
为第k步计算时的峰值阈值,
Figure 29254DEST_PATH_IMAGE043
为第k+1步计算时的峰值阈值,
Figure 654270DEST_PATH_IMAGE044
为第
Figure 248062DEST_PATH_IMAGE045
步合成加速度峰值与前三步合成加速度平均峰值的比值。
4.根据权利要求3所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,考虑到行人行走速度快慢的影响,对时间间隔阈值
Figure 512691DEST_PATH_IMAGE046
Figure 420604DEST_PATH_IMAGE047
进行动态设置,为:
若当前步计算时的峰值阈值小于12,则
Figure 228023DEST_PATH_IMAGE048
若当前步计算时的峰值阈值大于或等于12且小于13.5,则
Figure 602503DEST_PATH_IMAGE049
若当前步计算时的峰值阈值大于或等于13.5,则
Figure 433056DEST_PATH_IMAGE050
5.根据权利要求1至4任一项所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤4中,所述基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,具体为:
通过智能手机的摄像头采集当前帧图像,提取当前帧的ORB特征点和特征描述子,计算当前帧的词袋向量;
基于不同图像的词袋向量之间的距离在视觉特征地图寻找与当前帧相似的关键帧,作为侯选帧;
建立当前帧与侯选帧之间的2D-3D点对匹配,采用RANSAC方法剔除异常的候选帧后,将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,将所有的重投影误差求和构建一个最小二乘问题,再采用PnP方法求解得到相机的位姿;
最后将相机的姿态矩阵转换为欧拉角,即得到行人当前位置的航向角。
6.根据权利要求1至4任一项所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,基于扩展卡尔曼滤波方法将PDR定位结果与视觉定位结果松组合融合,以视觉定位结果作为定位参考修正PDR定位结果的累积误差。
7.根据权利要求6所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,所述以视觉定位结果作为定位参考修正PDR定位结果的累积误差,具体为:
在扩展卡尔曼滤波方法的预测阶段,建立第
Figure 941398DEST_PATH_IMAGE051
步时行人的状态转移方程,为:
Figure 485815DEST_PATH_IMAGE052
其中,
Figure 359094DEST_PATH_IMAGE053
为第
Figure 739259DEST_PATH_IMAGE054
步的状态预测向量,即通过PDR得到的行人第
Figure 395500DEST_PATH_IMAGE055
步的位置坐标和航向角
Figure 115194DEST_PATH_IMAGE056
Figure 221690DEST_PATH_IMAGE057
Figure 948207DEST_PATH_IMAGE058
Figure 736034DEST_PATH_IMAGE059
为通过扩展卡尔曼滤波方法对第
Figure 372552DEST_PATH_IMAGE060
步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第
Figure 259736DEST_PATH_IMAGE061
步的位置坐标和航向角
Figure 286598DEST_PATH_IMAGE062
Figure 940434DEST_PATH_IMAGE063
Figure 290512DEST_PATH_IMAGE064
Figure 676494DEST_PATH_IMAGE065
为非线性函数;
Figure 252969DEST_PATH_IMAGE066
表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;
Figure 320282DEST_PATH_IMAGE067
为过程噪声向量,
Figure 400234DEST_PATH_IMAGE068
为第i步的步长,
Figure 222696DEST_PATH_IMAGE069
为第i步的航向角,
Figure 145522DEST_PATH_IMAGE070
为第i步的航向角变化量;
将非线性函数
Figure 141160DEST_PATH_IMAGE071
Figure 278880DEST_PATH_IMAGE072
附近进行线性化处理,舍去高阶部分后得到第
Figure 209927DEST_PATH_IMAGE073
步所对应的状态矩阵
Figure 495415DEST_PATH_IMAGE074
,为:
Figure 966847DEST_PATH_IMAGE075
基于状态矩阵
Figure 411604DEST_PATH_IMAGE076
对预测变量
Figure 372607DEST_PATH_IMAGE077
的协方差矩阵
Figure 83074DEST_PATH_IMAGE078
进行更新,为:
Figure 295880DEST_PATH_IMAGE079
其中,
Figure 673772DEST_PATH_IMAGE080
表示采用扩展卡尔曼滤波方法对第
Figure 540097DEST_PATH_IMAGE081
步状态最优估计值的协方差矩阵,
Figure 190390DEST_PATH_IMAGE082
表示过程噪声矩阵;
在扩展卡尔曼滤波方法的更新阶段,系统的观测方程为:
Figure 3625DEST_PATH_IMAGE083
其中,
Figure 32761DEST_PATH_IMAGE084
为观测矩阵,
Figure 945353DEST_PATH_IMAGE085
表示在第
Figure 958309DEST_PATH_IMAGE086
步由视觉定位识别得到的观测向量,
Figure 575235DEST_PATH_IMAGE087
Figure 849090DEST_PATH_IMAGE088
Figure 526059DEST_PATH_IMAGE089
为第k步时视觉定位的位置信息与航向角,
Figure 760732DEST_PATH_IMAGE090
为观测误差向量;
计算第
Figure 587873DEST_PATH_IMAGE091
步的EKF增益矩阵
Figure 591601DEST_PATH_IMAGE092
,为:
Figure 173892DEST_PATH_IMAGE093
其中,
Figure 20495DEST_PATH_IMAGE094
为第
Figure 979223DEST_PATH_IMAGE095
步对应的观测噪声协方差矩阵;
计算行人第
Figure 103037DEST_PATH_IMAGE096
步状态的最优估计值
Figure 793913DEST_PATH_IMAGE097
,为:
Figure 940860DEST_PATH_IMAGE098
其中,
Figure 500017DEST_PATH_IMAGE099
即为修正后的PDR定位结果。
8.根据权利要求7所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,状态最优估计值的协方差矩阵的更新过程为:
Figure 416021DEST_PATH_IMAGE100
其中,
Figure 527065DEST_PATH_IMAGE101
为第
Figure 223626DEST_PATH_IMAGE102
步状态最优估计值的协方差矩阵,
Figure 196261DEST_PATH_IMAGE103
为单位矩阵。
CN202211133744.1A 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法 Active CN115235455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211133744.1A CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211133744.1A CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Publications (2)

Publication Number Publication Date
CN115235455A true CN115235455A (zh) 2022-10-25
CN115235455B CN115235455B (zh) 2023-01-13

Family

ID=83681806

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211133744.1A Active CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Country Status (1)

Country Link
CN (1) CN115235455B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116681935A (zh) * 2023-05-31 2023-09-01 国家深海基地管理中心 一种深海热液喷口自主识别定位方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090192708A1 (en) * 2008-01-28 2009-07-30 Samsung Electronics Co., Ltd. Method and system for estimating step length pedestrian navigation system
EP2386828A1 (en) * 2010-05-12 2011-11-16 Technische Universität Graz Method and system for detection of a zero velocity state of an object
CN104215238A (zh) * 2014-08-21 2014-12-17 北京空间飞行器总体设计部 一种智能手机室内定位方法
WO2018043934A1 (ko) * 2016-09-02 2018-03-08 유치헌 가속도 센서를 이용한 무지연 실시간 걸음검출 시스템 및 방법
CN109405829A (zh) * 2018-08-28 2019-03-01 桂林电子科技大学 基于智能手机音视频多源信息融合的行人自定位方法
CN111595344A (zh) * 2020-06-01 2020-08-28 中国矿业大学 一种基于地图信息辅助的多姿态下行人行位推算方法
CN112129281A (zh) * 2019-06-25 2020-12-25 南京航空航天大学 一种基于局部邻域地图的高精度图像导航定位方法
CN112637762A (zh) * 2020-12-11 2021-04-09 武汉科技大学 一种基于改进pdr算法的室内融合定位方法
CN113029148A (zh) * 2021-03-06 2021-06-25 西南交通大学 一种基于航向角准确修正的惯性导航室内定位方法
CN114111784A (zh) * 2021-10-26 2022-03-01 杭州电子科技大学 一种基于众包的室内走廊地图自动构建方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090192708A1 (en) * 2008-01-28 2009-07-30 Samsung Electronics Co., Ltd. Method and system for estimating step length pedestrian navigation system
EP2386828A1 (en) * 2010-05-12 2011-11-16 Technische Universität Graz Method and system for detection of a zero velocity state of an object
CN104215238A (zh) * 2014-08-21 2014-12-17 北京空间飞行器总体设计部 一种智能手机室内定位方法
WO2018043934A1 (ko) * 2016-09-02 2018-03-08 유치헌 가속도 센서를 이용한 무지연 실시간 걸음검출 시스템 및 방법
CN109405829A (zh) * 2018-08-28 2019-03-01 桂林电子科技大学 基于智能手机音视频多源信息融合的行人自定位方法
CN112129281A (zh) * 2019-06-25 2020-12-25 南京航空航天大学 一种基于局部邻域地图的高精度图像导航定位方法
CN111595344A (zh) * 2020-06-01 2020-08-28 中国矿业大学 一种基于地图信息辅助的多姿态下行人行位推算方法
CN112637762A (zh) * 2020-12-11 2021-04-09 武汉科技大学 一种基于改进pdr算法的室内融合定位方法
CN113029148A (zh) * 2021-03-06 2021-06-25 西南交通大学 一种基于航向角准确修正的惯性导航室内定位方法
CN114111784A (zh) * 2021-10-26 2022-03-01 杭州电子科技大学 一种基于众包的室内走廊地图自动构建方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
包川: "多传感器融合的移动机器人三维地图构建", 《中国优秀硕士学位论文全文数据库基础科学辑》 *
揭云飞等: "视觉SLAM系统分析", 《电脑知识与技术》 *
朱会平: "基于图像检索和航位推算的室内定位方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
李弋星等: "基于改进关键帧选择的RGB-D SLAM算法", 《大连理工大学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116681935A (zh) * 2023-05-31 2023-09-01 国家深海基地管理中心 一种深海热液喷口自主识别定位方法及系统
CN116681935B (zh) * 2023-05-31 2024-01-23 国家深海基地管理中心 一种深海热液喷口自主识别定位方法及系统

Also Published As

Publication number Publication date
CN115235455B (zh) 2023-01-13

Similar Documents

Publication Publication Date Title
CN112014857B (zh) 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam系统
JP7326720B2 (ja) 移動体位置推定システムおよび移動体位置推定方法
CN105371847B (zh) 一种室内实景导航方法及系统
CN105241445B (zh) 一种基于智能移动终端的室内导航数据获取方法及系统
CN105761242B (zh) 一种基于计算机双目视觉与惯性测量的盲人行走定位方法
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
CN110553648A (zh) 一种用于室内导航的方法和系统
CN110579207B (zh) 基于地磁信号结合电脑视觉的室内定位系统及方法
CN108549376A (zh) 一种基于信标的导航定位方法及系统
CN111595344B (zh) 一种基于地图信息辅助的多姿态下行人行位推算方法
CN110631578B (zh) 一种无地图下室内行人定位与追踪方法
CN110032965A (zh) 基于遥感图像的视觉定位方法
KR101985344B1 (ko) 관성 및 단일 광학 센서를 이용한 슬라이딩 윈도우 기반 비-구조 위치 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
CN115235455B (zh) 一种基于智能手机pdr与视觉修正的行人定位方法
CN116007609A (zh) 一种多光谱图像和惯导融合的定位方法和计算系统
CN112985392B (zh) 基于图优化框架的行人惯性导航方法和装置
CN113155126A (zh) 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN112798020B (zh) 一种用于评估智能汽车定位精度的系统及方法
Liu et al. Integrated velocity measurement algorithm based on optical flow and scale-invariant feature transform
CN113114850B (zh) 一种基于监控视频和pdr在线融合定位方法
WO2020076263A2 (en) A system for providing position determination with high accuracy
Chen et al. ReLoc-PDR: Visual Relocalization Enhanced Pedestrian Dead Reckoning via Graph Optimization
CN115574816B (zh) 仿生视觉多源信息智能感知无人平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant