CN112325883B - 一种WiFi和视觉多源融合的移动机器人室内定位方法 - Google Patents

一种WiFi和视觉多源融合的移动机器人室内定位方法 Download PDF

Info

Publication number
CN112325883B
CN112325883B CN202011121060.0A CN202011121060A CN112325883B CN 112325883 B CN112325883 B CN 112325883B CN 202011121060 A CN202011121060 A CN 202011121060A CN 112325883 B CN112325883 B CN 112325883B
Authority
CN
China
Prior art keywords
positioning
wifi
information
visual
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011121060.0A
Other languages
English (en)
Other versions
CN112325883A (zh
Inventor
孙炜
唐晨俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202011121060.0A priority Critical patent/CN112325883B/zh
Publication of CN112325883A publication Critical patent/CN112325883A/zh
Application granted granted Critical
Publication of CN112325883B publication Critical patent/CN112325883B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]

Abstract

本发明提供一种WiFi和视觉多源融合的移动机器人室内定位方法,包括如下步骤:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建立WiFi地图和视觉SLAM地图;对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹配算法利用所述视觉SLAM地图进行视觉SLAM定位;将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定位;以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。本发明提供的定位方法定位精度高。

Description

一种WiFi和视觉多源融合的移动机器人室内定位方法
技术领域
本发明涉及室内定位技术领域,尤其涉及一种WiFi和视觉多源融合的 移动机器人室内定位方法。
背景技术
移动机器人在完成接待、搬运、巡逻等多种任务时必然离不开自主导 航系统,然而自主导航系统中最关键的技术是精准定位技术。近年来,移 动机器人的室内定位技术得到了飞速的发展,以相机、超声波、地磁场、 蓝牙等为主的室内定位技术不断涌出,但是目前没有任何一种室内定位技 术被广泛应用于市场中,仅被局部使用。由于室内环境复杂多变,存在光 照强度,人为活动,室内温度等多重干扰,最终影响室内定位的精度。同 时不同的传感器存在各自的局限性,获取的特征信息单一,被应用在不同 场景中。目前还没有设计出具备高精度、低成本、高实时性的室内定位系 统应用于多种大型室内环境中。
相关技术中,单一的WiFi定位和视觉SLAM定位被广泛应用于室内 定位技术之中。在大型室内环境中,WiFi定位虽然实时性高、部署简单、 成本低,但是定位精度较低;视觉SLAM虽然具有较高的定位精度,但是 存在实时性低、鲁棒性差的问题。
因此,有必要提供一种WiFi和视觉多源融合的移动机器人室内定位方 法及系统来解决上述问题。
发明内容
本发明针对上述要解决的技术问题,提供一种在大型室内定位空间中 定位精度高、实时性高的一种WiFi和视觉多源融合的移动机器人室内定位 方法。
本发明提供一种WiFi和视觉多源融合的移动机器人室内定位方法,包 括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建 立WiFi地图和视觉SLAM地图;
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中 的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地 图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的 KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹 配算法利用所述视觉SLAM地图进行视觉SLAM定位;
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定 位;
S5:以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。
优选的,所述步骤S1包括如下步骤:
S11:在室内定位空间中布置M个网指纹网格点,每个所述指纹网格 点获取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个 样本数据;同时获取每个所述指纹网格点周围的图像信息;
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异 常值则剔除,反之则保留;
S13:对室内定位空间中的所有无线接入点计算其信息增益,并根据信 息增益的大小对所述无线接入点进行排序,以信息增益从大到小的顺序筛 选出前NAP个无线接入点,依次表示为:
Figure BDA0002730170270000021
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,...,M, 其中,
Figure BDA0002730170270000022
表示在第i个指纹网格点上所采集的NAP个无线 接入点信号强度的信息向量,
Figure BDA0002730170270000023
是第i个指纹网格点上测得第NAP个无线 接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹 网格点的图像信息构建视觉SLAM地图。
优选的,所述图像信息包括彩色图像信息和深度图像信息。
优选的,所述步骤S12包括如下步骤:
S121:通过n个所述数据样本选定明显水平a,查找格拉布斯表获取临 界值T(n,a);
S122:计算样本数据的平均值Xavg和标准差σ,计算过程如下:
Figure BDA0002730170270000031
Figure BDA0002730170270000032
S123:对每个数据样本计算统计量T,计算过程如下:
Figure BDA0002730170270000033
S124:针对任意数据样本,当T≥T(n,a)时,则该数据为异常值需要被 剔除,当T<T(n,a)时为正常数据进行保留。
优选的,所述步骤S2具体为:
在所述指纹网格点中随机选择若干个作为地标,得到所述地标在世界 坐标系下的位置信息,通过视觉图像计算得到相应地标在机器人坐标系下 的位置信息,世界坐标系和机器人坐标系的位置转化表示如下:
Figure BDA0002730170270000034
其中,Loc和Loc′分别表示世界坐标系和机器人坐标系下的位置,RT表 示平移矩阵。
优选的,所述步骤S3包括如下步骤:
在WiFi定位中,计算移动机器人所处的位置与指纹网格点的欧式距 离:
Figure BDA0002730170270000035
定义距离信息为
Figure BDA0002730170270000041
且满足d1<d2<…<dM,式 中
Figure BDA0002730170270000042
表示相应指纹网格点的位置信息,取前K个距离信息
Figure BDA0002730170270000043
采用基于信息增益的KNN指纹定位算法,将前K个距离值进行权重值 计算,得到权重值信息:
Figure RE-GDA0002827809260000044
最终依据权重值估计移动机 器人所处的位置:
Figure RE-GDA0002827809260000045
优选的,所述步骤S3包括如下步骤:
在视觉SLAM定位中,先筛选步骤S1中采集到的图像信息得到关键 帧图像信息,然后采用ORB特征提取算法得到相似度值信息,以特征点对 为中心建立3*3的核,并对这9个灰度值信息取平均值得到领域灰度信息, 依据该信息得到新相似度值信息:
Figure BDA0002730170270000046
其中,N1表示视觉词袋中关键帧总数,Si,i=1,2,...N1表示当前移动机器 人所处的位置的图像信息与关键帧图像信息的相似度值,s1>s2>…>sN1,通 过相似度来估计移动机器人所处的位置。
优选的,所述步骤S4包括如下步骤:
建立一个得分机制score(i)(j)=score1(i)+score2(i)+score3(i)(j),其中score1(i),i=1,2,…,K为K个WiFi指纹距离得分;score2(j),j=1,2,...,NK为NK个图 像相似度得分;
将K个WiFi指纹位置与NK个图像位置采用欧氏距离进行两两组合, 得到K*NK个组合位置距离
Figure BDA0002730170270000047
score3(i)(j),i=1,2,...,K;j=1,2,...,NK为K*NK个组合位置距离得分;
通过得分机制得到任意点与各个指纹网格点的得分值score(i)(j),从中 选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位位置, 粗定位位置表示为:
Figure BDA0002730170270000051
Figure BDA0002730170270000052
Figure BDA0002730170270000053
分别表示从中选出得分值最高所对应的WiFi指纹位置信息和 图像位置信息。
优选的,所述步骤S5包括如下步骤:
通过WiFi定位与视觉SLAM定位融合得到的粗定位位置om,以om为 圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围,以粗定位 范围为限制条件,采用自适应蒙特卡洛定位算法,进行视觉SLAM精定位, 实现最终定位结果。
与相关技术相比,本发明中应用WiFi和视觉SLAM中的视觉词袋技 术实现粗定位,最后在粗定位的约束下采用视觉SLAM定位技术从而实现 最终定位结果。本发明有效的将WiFi和视觉SLAM进行融合,并在定位 准确率、定位精度、定位时间等性能上得到显著提升。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述 中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅 是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性 劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为本发明提供的一种WiFi和视觉多源融合的移动机器人室内定位 方的步骤流程图;
图2为图1所示的一种WiFi和视觉多源融合的移动机器人室内定位方 的流程简图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进 行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例, 而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没 有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的 范围。
请结合参阅图1及图2,本发明提供了本发明提供一种WiFi和视觉多 源融合的移动机器人室内定位方法,包括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建 立WiFi地图和视觉SLAM地图。
所述步骤S1具体为:
S11:在室内定位空间中布置M个指纹网格点,每个所述指纹网格点获 取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个样本 数据;同时获取每个所述指纹网格点位置周围的图像信息。所述图像信息 包括彩色图像信息和深度图像信息。
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异 常值则剔除,反之则保留。
所述步骤S12具体为:
S121:通过n个所述数据样本选定明显水平a,查找格拉布斯表获取临 界值T(n,a);
S122:计算样本数据的平均值Xavg和标准差σ,计算过程如下:
Figure BDA0002730170270000061
Figure BDA0002730170270000062
S123:对每个数据样本计算统计量T,计算过程如下:
Figure BDA0002730170270000063
S124:针对任意数据样本,当T≥T(n,a)时,则该数据为异常值需要被 剔除,当T<T(n,a)时为正常数据进行保留。
格拉布斯准则置信概率为95%,可以有效的剔除偶然误差,提高自适 应速度及样本数据精度。
S13:对室内定位空间中的所有无线接入点计算其信息增益,并根据信 息增益的大小对所述无线接入点进行排序,以信息增益从大到小的顺序筛 选出前NAP个无线接入点,依次表示为:
Figure BDA0002730170270000071
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,…,M, 其中,
Figure BDA0002730170270000072
表示在第i个指纹网格点上所采集的NAP个无线 接入点信号强度的信息向量,
Figure BDA0002730170270000073
是第i个指纹网格点上测得第NAP个无线 接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹 网格点的图像信息构建视觉SLAM地图。
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中 的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地 图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合。
所述步骤S2具体为:
在所述指纹网格点中随机选择若干个作为地标,得到所述地标在世界 坐标系下的位置信息,通过视觉图像计算得到相应地标在机器人坐标系下 的位置信息,世界坐标系和机器人坐标系的位置转化表示如下:
Figure BDA0002730170270000074
其中,Loc和Loc′分别表示世界坐标系和机器人坐标系下的位置,RT表 示平移矩阵。
将机器人坐标系与世界坐标系设定在同一原点,此时平移矩阵RT为0, 从表达式可知两地图的映射关系取决于角度θ,选择任一已知的地标,将 其在世界坐标系和机器人坐标系中的位置分别代入代入表达式可以计算得 到角度θ。其中所述WiFi地图对应的是世界坐标系,所述视觉SLAM地图 对应的是机器人坐标系。
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹 配算法利用所述视觉SLAM地图进行视觉SLAM定位。
在WiFi定位中,对所筛选的NAP个无线接入点依据不同的信息增益分 别赋予不同的权重值,通过不同权重值的无线接入点来估算所述移动机器 人所处的位置。具体的,计算移动机器人所处的位置与指纹网格点的欧式 距离:
Figure BDA0002730170270000081
定义距离信息为
Figure BDA0002730170270000082
且满足d1<d2<…<dM,式 中
Figure BDA0002730170270000083
表示相应指纹网格点的位置信息,取前K个距离信息
Figure BDA0002730170270000084
采用基于信息增益的KNN指纹定位算法,将 前K个距离值进行权重值计算,得到相应权重值信息:
Figure BDA0002730170270000085
最终依据权重值估计移动机器人所处的位置:
Figure BDA0002730170270000086
在视觉SLAM定位中,先筛选步骤S1中采集到的图像信息得到关键 帧图像信息,然后采用ORB特征提取算法从而得到相似度值信息,同时为 提高特征点的匹配率,一方面加入图像预处理,采用小波变换对图像进行 降噪处理,另一方面在BRIEF算法中提出一种基于领域灰度信息的特征描 述子作为特征点匹配的评估标准,以特征点对为中心建立3*3的核,并对 这9个灰度值信息取平均值得到领域灰度信息,依据该信息得到新相似度 值信息:
Figure BDA0002730170270000087
N1表示视觉词袋中关键帧总数, Si,i=1,2,...N1表示当前移动机器人所处的位置的图像信息与关键帧图像信 息的相似度值,其中s1>s2>…>sN1。通过相似度来估计移动机器人所处的位 置。
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定 位。
改进的KNN指纹定位算法,在定位准确率上有了显著提升,但是仍 存在一定的定位失败。同时人员流动会导致WiFi信号变化大,一天之内, 白天和黑夜也有一定的信号差异,这都将导致定位精度的降低。为进一步 提高粗定位的正确率,采用WiFi定位与视觉SLAM定位融合实现定位的 方式,其具体的步骤如下:
建立一个得分机制score(i)(j)=score1(i)+score2(i)+score3(i)(j),其中score1(i),i=1,2,...,K为K个WiFi指纹距离得分;score2(j),j=1,2,...,NK为NK个图像相似度得分;将K个WiFi指纹位置与NK个图像位置采用欧氏距离进行 两两组合,得到K*NK个组合位置距离
Figure BDA0002730170270000091
score3(i)(j),i=1,2,...,K;j=1,2,...,NK为K*NK个组合位置距离得分。该机制分为三 个部分,在WiFi定位中,距离越近表示当前估计位置与该指纹网格点位置 越近,因此前K个WiFi指纹距离得分score1(i),i=1,2,...,K就越高;在视觉 SLAM定位中,两图像相似度越高,则当前图像信息的估计位置与该关键 帧图像信息位置越近,因此前NK个图像相似度得分score2(j),j=1,2,...,NK就 越高。将K个WiFi指纹位置信息与NK个图像位置采用欧氏距离进行两两 组合,得到K*NK个位置距离
Figure BDA0002730170270000092
WiFi指纹 位置与关键帧位置之间距离越近,则移动机器人所在位置的概率越大,得 分score3(i)(j)越高;通过得分机制得到任意点与各个指纹网格点的得分值, 从中选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位 位置,粗定位位置表示为:
Figure BDA0002730170270000093
Figure BDA0002730170270000094
Figure BDA0002730170270000095
分别表示从中选出得 分值最高所对应的WiFi指纹位置信息和图像位置信息。
S5:以粗定位的范围作为约束条件采用视觉SLAM最终实现精确定位。
通过WiFi与视觉SLAM图像数据融合得到融合定位位置om,以om为 圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围。以粗定位 范围为限制条件,进行视觉SLAM精定位,即采用自适应蒙特卡洛定位算 法,最终实现定位结果。
与相关技术相比,本发明中应用WiFi和视觉SLAM中的视觉词袋技 术实现粗定位,最后在粗定位的约束下采用视觉SLAM定位技术从而实现 最终定位结果。本发明有效的将WiFi和视觉SLAM进行融合,并在定位 准确率、定位精度、定位时间等性能上得到显著提升。
以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普 通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进, 但这些均属于本发明的保护范围。

Claims (8)

1.一种WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,包括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建立WiFi地图和视觉SLAM地图;
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹配算法利用所述视觉SLAM地图进行视觉SLAM定位;
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定位,具体包括如下步骤:
建立一个得分机制score(i)(j)=score1(i)+score2(j)+score3(i)(j),其中score1(i),i=1,2,K,K为K个WiFi指纹距离得分;score2(j),j=1,2,K,NK为NK个图像相似度得分;
将K个WiFi指纹位置与NK个图像位置采用欧氏距离进行两两组合,得到K*NK个组合位置距离
Figure FDA0003632142050000011
score3(i)(j),i=1,2,...,K;j=1,2,...,NK为K*NK个组合位置距离得分;
通过得分机制得到任意点与各个指纹网格点的得分值score(i)(j),从中选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位位置,粗定位位置表示为:
Figure FDA0003632142050000012
Figure FDA0003632142050000013
Figure FDA0003632142050000014
分别表示从中选出得分值最高所对应的WiFi指纹位置信息和图像位置信息;
S5:以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。
2.根据权利要求1所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S1包括如下步骤:
S11:在室内定位空间中布置M个指纹网格点,每个所述指纹网格点获取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个样本数据;同时获取每个所述指纹网格点周围的图像信息;
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异常值则剔除,反之则保留;
S13:对室内定位空间中的所有无线接入点计算其信息增益,并根据信息增益的大小对所述无线接入点进行排序,以信息增益从大到小的顺序筛选出前NAP个无线接入点,依次表示为:
Figure FDA0003632142050000021
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,K,M,其中,
Figure FDA0003632142050000022
表示在第i个指纹网格点上所采集的NAP个无线接入点信号强度的信息向量,
Figure FDA0003632142050000023
是第i个指纹网格点上测得第NAP个无线接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹网格点的图像信息构建视觉SLAM地图。
3.根据权利要求2所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述图像信息包括彩色图像信息和深度图像信息。
4.根据权利要求2所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S12包括如下步骤:
S121:通过n个所述样本数据选定明显水平a,查找格拉布斯表获取临界值T(n,a);
S122:计算样本数据的平均值Xavg和标准差σ,计算过程如下:
Figure FDA0003632142050000024
Figure FDA0003632142050000025
S123:对每个数据样本计算统计量T,计算过程如下:
Figure FDA0003632142050000031
S124:针对任意数据样本,当T≥T(n,a)时,则该数据为异常值需要被剔除,当T<T(n,a)时为正常数据进行保留。
5.根据权利要求2所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S2具体为:
在所述指纹网格点中随机选择若干个作为地标,得到所述地标在世界坐标系下的位置信息,通过视觉图像计算得到相应地标在机器人坐标系下的位置信息,世界坐标系和机器人坐标系的位置转化表示如下:
Figure FDA0003632142050000032
其中,Loc和Loc′分别表示世界坐标系和机器人坐标系下的位置,RT表示平移矩阵。
6.根据权利要求2所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S3包括如下步骤:
在WiFi定位中,计算移动机器人所处的位置与指纹网格点的欧式距离:
Figure FDA0003632142050000033
定义距离信息为
Figure FDA0003632142050000034
且满足d1<d2<L<dM,式中
Figure FDA0003632142050000035
表示相应指纹网格点的位置信息,取前K个距离信息
Figure FDA0003632142050000036
采用基于信息增益的KNN指纹定位算法,将前K个距离值进行权重值计算,得到权重值信息:
Figure FDA0003632142050000037
最终依据权重值估计移动机器人所处的位置:
Figure FDA0003632142050000041
7.根据权利要求6所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S3包括如下步骤:
在视觉SLAM定位中,先筛选步骤S1中采集到的图像信息得到关键帧图像信息,然后采用ORB特征提取算法得到相似度值信息,以特征点对为中心建立3*3的核,并对这9个灰度值信息取平均值得到领域灰度信息,依据该信息得到新相似度值信息:
Figure FDA0003632142050000042
其中,N1表示视觉词袋中关键帧总数,Si,i=1,2,...N1表示当前移动机器人所处的位置的图像信息与关键帧图像信息的相似度值,s1>s2>L>sN1,通过相似度来估计移动机器人所处的位置。
8.根据权利要求1所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S5包括如下步骤:
通过WiFi定位与视觉SLAM定位融合得到的粗定位位置om,以om为圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围,以粗定位范围为限制条件,采用自适应蒙特卡洛定位算法,进行视觉SLAM精定位,实现最终定位结果。
CN202011121060.0A 2020-10-19 2020-10-19 一种WiFi和视觉多源融合的移动机器人室内定位方法 Active CN112325883B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011121060.0A CN112325883B (zh) 2020-10-19 2020-10-19 一种WiFi和视觉多源融合的移动机器人室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011121060.0A CN112325883B (zh) 2020-10-19 2020-10-19 一种WiFi和视觉多源融合的移动机器人室内定位方法

Publications (2)

Publication Number Publication Date
CN112325883A CN112325883A (zh) 2021-02-05
CN112325883B true CN112325883B (zh) 2022-06-21

Family

ID=74310438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011121060.0A Active CN112325883B (zh) 2020-10-19 2020-10-19 一种WiFi和视觉多源融合的移动机器人室内定位方法

Country Status (1)

Country Link
CN (1) CN112325883B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113382376B (zh) * 2021-05-08 2022-05-10 湖南大学 一种基于wifi和视觉集成的室内定位方法
CN113490146B (zh) * 2021-05-08 2022-04-22 湖南大学 一种基于WiFi与视觉融合的SLAM方法
CN113490137B (zh) * 2021-05-08 2022-05-03 湖南大学 一种基于WiFi与视觉融合室内定位方法
CN113484889A (zh) * 2021-07-07 2021-10-08 中国人民解放军国防科技大学 基于移动终端的增强现实和卫星定位的沉浸式导航系统
CN113628272A (zh) * 2021-07-12 2021-11-09 中国科学院自动化研究所 室内定位方法、装置、电子设备及存储介质
CN114025320A (zh) * 2021-11-08 2022-02-08 易枭零部件科技(襄阳)有限公司 一种基于5g信号的室内定位方法
CN114543816B (zh) * 2022-04-25 2022-07-12 深圳市赛特标识牌设计制作有限公司 一种基于物联网的导视方法、装置以及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080153516A1 (en) * 2006-12-20 2008-06-26 Via Technologies, Inc. Visual Positioning System and Method for Mobile User Equipment
CN106470478B (zh) * 2015-08-20 2020-03-24 西安云景智维科技有限公司 一种定位数据处理方法、装置和系统
CN106899935B (zh) * 2017-01-18 2018-08-14 深圳大学 一种基于无线接收设备和摄像头的室内定位方法及系统
EP3460400B1 (en) * 2017-09-22 2021-12-22 Softbank Robotics Europe Improved localization of a mobile device based on image and radio words
US10739784B2 (en) * 2017-11-29 2020-08-11 Qualcomm Incorporated Radar aided visual inertial odometry initialization
CN108680175A (zh) * 2017-12-12 2018-10-19 安徽工程大学 基于啮齿类动物模型的同步定位与地图构建方法及装置
CN110360999B (zh) * 2018-03-26 2021-08-27 京东方科技集团股份有限公司 室内定位方法、室内定位系统和计算机可读介质
US10834532B2 (en) * 2018-08-23 2020-11-10 NEC Laboratories Europe GmbH Method and system for wireless localization data acquisition and calibration with image localization
CN110856112B (zh) * 2019-11-14 2021-06-18 深圳先进技术研究院 一种群智感知的多源信息融合室内定位方法及系统

Also Published As

Publication number Publication date
CN112325883A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN112325883B (zh) 一种WiFi和视觉多源融合的移动机器人室内定位方法
CN106793086B (zh) 一种室内定位方法
CN110856112B (zh) 一种群智感知的多源信息融合室内定位方法及系统
CN105792353B (zh) 群智感知式WiFi信号指纹辅助的图像匹配室内定位方法
CN108171131B (zh) 基于改进MeanShift的Lidar点云数据道路标识线提取方法
CN107451593B (zh) 一种基于图像特征点的高精度gps定位方法
CN111912416B (zh) 用于设备定位的方法、装置及设备
CN111882612A (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
CN108521627B (zh) 基于HMM的wifi和地磁融合的室内定位系统及方法
CN110631588B (zh) 一种基于rbf网络的无人机视觉导航定位方法
CN112488061B (zh) 一种联合ads-b信息的多航空器检测与跟踪方法
CN111698774B (zh) 基于多源信息融合的室内定位方法及装置
CN112731371B (zh) 一种激光雷达与视觉融合的集成化目标跟踪系统及方法
CN112085003A (zh) 公共场所异常行为自动识别方法及装置、摄像机设备
CN111811502B (zh) 一种运动载体多源信息融合导航方法及系统
CN112862881A (zh) 基于众包多车摄像头数据的道路地图构建与融合的方法
CN114222240A (zh) 一种基于粒子滤波的多源融合定位方法
CN114413909A (zh) 一种室内移动机器人定位方法及系统
CN113988228B (zh) 一种基于rfid和视觉融合的室内监控方法及系统
CN108921896B (zh) 一种融合点线特征的下视视觉罗盘
CN116192822A (zh) 一种屏显通讯控制方法、装置、5g消防对讲手机及介质
CN115471526A (zh) 基于多源异构信息融合的自动驾驶目标检测与跟踪方法
CN114973195A (zh) 基于多信息融合的车辆追踪方法、装置及系统
CN110631591A (zh) 一种基于室内地图与虚拟路标辅助的行人室内导航方法
Lee et al. A feasibility study on smartphone localization using image registration with segmented 3d building models based on multi-material classes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant