CN112325883B - 一种WiFi和视觉多源融合的移动机器人室内定位方法 - Google Patents
一种WiFi和视觉多源融合的移动机器人室内定位方法 Download PDFInfo
- Publication number
- CN112325883B CN112325883B CN202011121060.0A CN202011121060A CN112325883B CN 112325883 B CN112325883 B CN 112325883B CN 202011121060 A CN202011121060 A CN 202011121060A CN 112325883 B CN112325883 B CN 112325883B
- Authority
- CN
- China
- Prior art keywords
- positioning
- wifi
- information
- visual
- fingerprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/10—Small scale networks; Flat hierarchical networks
- H04W84/12—WLAN [Wireless Local Area Networks]
Abstract
本发明提供一种WiFi和视觉多源融合的移动机器人室内定位方法,包括如下步骤:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建立WiFi地图和视觉SLAM地图;对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹配算法利用所述视觉SLAM地图进行视觉SLAM定位;将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定位;以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。本发明提供的定位方法定位精度高。
Description
技术领域
本发明涉及室内定位技术领域,尤其涉及一种WiFi和视觉多源融合的 移动机器人室内定位方法。
背景技术
移动机器人在完成接待、搬运、巡逻等多种任务时必然离不开自主导 航系统,然而自主导航系统中最关键的技术是精准定位技术。近年来,移 动机器人的室内定位技术得到了飞速的发展,以相机、超声波、地磁场、 蓝牙等为主的室内定位技术不断涌出,但是目前没有任何一种室内定位技 术被广泛应用于市场中,仅被局部使用。由于室内环境复杂多变,存在光 照强度,人为活动,室内温度等多重干扰,最终影响室内定位的精度。同 时不同的传感器存在各自的局限性,获取的特征信息单一,被应用在不同 场景中。目前还没有设计出具备高精度、低成本、高实时性的室内定位系 统应用于多种大型室内环境中。
相关技术中,单一的WiFi定位和视觉SLAM定位被广泛应用于室内 定位技术之中。在大型室内环境中,WiFi定位虽然实时性高、部署简单、 成本低,但是定位精度较低;视觉SLAM虽然具有较高的定位精度,但是 存在实时性低、鲁棒性差的问题。
因此,有必要提供一种WiFi和视觉多源融合的移动机器人室内定位方 法及系统来解决上述问题。
发明内容
本发明针对上述要解决的技术问题,提供一种在大型室内定位空间中 定位精度高、实时性高的一种WiFi和视觉多源融合的移动机器人室内定位 方法。
本发明提供一种WiFi和视觉多源融合的移动机器人室内定位方法,包 括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建 立WiFi地图和视觉SLAM地图;
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中 的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地 图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的 KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹 配算法利用所述视觉SLAM地图进行视觉SLAM定位;
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定 位;
S5:以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。
优选的,所述步骤S1包括如下步骤:
S11:在室内定位空间中布置M个网指纹网格点,每个所述指纹网格 点获取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个 样本数据;同时获取每个所述指纹网格点周围的图像信息;
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异 常值则剔除,反之则保留;
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,...,M, 其中,表示在第i个指纹网格点上所采集的NAP个无线 接入点信号强度的信息向量,是第i个指纹网格点上测得第NAP个无线 接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹 网格点的图像信息构建视觉SLAM地图。
优选的,所述图像信息包括彩色图像信息和深度图像信息。
优选的,所述步骤S12包括如下步骤:
S121:通过n个所述数据样本选定明显水平a,查找格拉布斯表获取临 界值T(n,a);
S122:计算样本数据的平均值Xavg和标准差σ,计算过程如下:
S123:对每个数据样本计算统计量T,计算过程如下:
S124:针对任意数据样本,当T≥T(n,a)时,则该数据为异常值需要被 剔除,当T<T(n,a)时为正常数据进行保留。
优选的,所述步骤S2具体为:
在所述指纹网格点中随机选择若干个作为地标,得到所述地标在世界 坐标系下的位置信息,通过视觉图像计算得到相应地标在机器人坐标系下 的位置信息,世界坐标系和机器人坐标系的位置转化表示如下:
其中,Loc和Loc′分别表示世界坐标系和机器人坐标系下的位置,RT表 示平移矩阵。
优选的,所述步骤S3包括如下步骤:
在WiFi定位中,计算移动机器人所处的位置与指纹网格点的欧式距 离:
优选的,所述步骤S3包括如下步骤:
在视觉SLAM定位中,先筛选步骤S1中采集到的图像信息得到关键 帧图像信息,然后采用ORB特征提取算法得到相似度值信息,以特征点对 为中心建立3*3的核,并对这9个灰度值信息取平均值得到领域灰度信息, 依据该信息得到新相似度值信息:
其中,N1表示视觉词袋中关键帧总数,Si,i=1,2,...N1表示当前移动机器 人所处的位置的图像信息与关键帧图像信息的相似度值,s1>s2>…>sN1,通 过相似度来估计移动机器人所处的位置。
优选的,所述步骤S4包括如下步骤:
建立一个得分机制score(i)(j)=score1(i)+score2(i)+score3(i)(j),其中score1(i),i=1,2,…,K为K个WiFi指纹距离得分;score2(j),j=1,2,...,NK为NK个图 像相似度得分;
通过得分机制得到任意点与各个指纹网格点的得分值score(i)(j),从中 选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位位置, 粗定位位置表示为:
优选的,所述步骤S5包括如下步骤:
通过WiFi定位与视觉SLAM定位融合得到的粗定位位置om,以om为 圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围,以粗定位 范围为限制条件,采用自适应蒙特卡洛定位算法,进行视觉SLAM精定位, 实现最终定位结果。
与相关技术相比,本发明中应用WiFi和视觉SLAM中的视觉词袋技 术实现粗定位,最后在粗定位的约束下采用视觉SLAM定位技术从而实现 最终定位结果。本发明有效的将WiFi和视觉SLAM进行融合,并在定位 准确率、定位精度、定位时间等性能上得到显著提升。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述 中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅 是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性 劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为本发明提供的一种WiFi和视觉多源融合的移动机器人室内定位 方的步骤流程图;
图2为图1所示的一种WiFi和视觉多源融合的移动机器人室内定位方 的流程简图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进 行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例, 而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没 有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的 范围。
请结合参阅图1及图2,本发明提供了本发明提供一种WiFi和视觉多 源融合的移动机器人室内定位方法,包括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建 立WiFi地图和视觉SLAM地图。
所述步骤S1具体为:
S11:在室内定位空间中布置M个指纹网格点,每个所述指纹网格点获 取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个样本 数据;同时获取每个所述指纹网格点位置周围的图像信息。所述图像信息 包括彩色图像信息和深度图像信息。
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异 常值则剔除,反之则保留。
所述步骤S12具体为:
S121:通过n个所述数据样本选定明显水平a,查找格拉布斯表获取临 界值T(n,a);
S122:计算样本数据的平均值Xavg和标准差σ,计算过程如下:
S123:对每个数据样本计算统计量T,计算过程如下:
S124:针对任意数据样本,当T≥T(n,a)时,则该数据为异常值需要被 剔除,当T<T(n,a)时为正常数据进行保留。
格拉布斯准则置信概率为95%,可以有效的剔除偶然误差,提高自适 应速度及样本数据精度。
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,…,M, 其中,表示在第i个指纹网格点上所采集的NAP个无线 接入点信号强度的信息向量,是第i个指纹网格点上测得第NAP个无线 接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹 网格点的图像信息构建视觉SLAM地图。
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中 的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地 图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合。
所述步骤S2具体为:
在所述指纹网格点中随机选择若干个作为地标,得到所述地标在世界 坐标系下的位置信息,通过视觉图像计算得到相应地标在机器人坐标系下 的位置信息,世界坐标系和机器人坐标系的位置转化表示如下:
其中,Loc和Loc′分别表示世界坐标系和机器人坐标系下的位置,RT表 示平移矩阵。
将机器人坐标系与世界坐标系设定在同一原点,此时平移矩阵RT为0, 从表达式可知两地图的映射关系取决于角度θ,选择任一已知的地标,将 其在世界坐标系和机器人坐标系中的位置分别代入代入表达式可以计算得 到角度θ。其中所述WiFi地图对应的是世界坐标系,所述视觉SLAM地图 对应的是机器人坐标系。
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹 配算法利用所述视觉SLAM地图进行视觉SLAM定位。
在WiFi定位中,对所筛选的NAP个无线接入点依据不同的信息增益分 别赋予不同的权重值,通过不同权重值的无线接入点来估算所述移动机器 人所处的位置。具体的,计算移动机器人所处的位置与指纹网格点的欧式 距离:
在视觉SLAM定位中,先筛选步骤S1中采集到的图像信息得到关键 帧图像信息,然后采用ORB特征提取算法从而得到相似度值信息,同时为 提高特征点的匹配率,一方面加入图像预处理,采用小波变换对图像进行 降噪处理,另一方面在BRIEF算法中提出一种基于领域灰度信息的特征描 述子作为特征点匹配的评估标准,以特征点对为中心建立3*3的核,并对 这9个灰度值信息取平均值得到领域灰度信息,依据该信息得到新相似度 值信息:N1表示视觉词袋中关键帧总数, Si,i=1,2,...N1表示当前移动机器人所处的位置的图像信息与关键帧图像信 息的相似度值,其中s1>s2>…>sN1。通过相似度来估计移动机器人所处的位 置。
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定 位。
改进的KNN指纹定位算法,在定位准确率上有了显著提升,但是仍 存在一定的定位失败。同时人员流动会导致WiFi信号变化大,一天之内, 白天和黑夜也有一定的信号差异,这都将导致定位精度的降低。为进一步 提高粗定位的正确率,采用WiFi定位与视觉SLAM定位融合实现定位的 方式,其具体的步骤如下:
建立一个得分机制score(i)(j)=score1(i)+score2(i)+score3(i)(j),其中score1(i),i=1,2,...,K为K个WiFi指纹距离得分;score2(j),j=1,2,...,NK为NK个图像相似度得分;将K个WiFi指纹位置与NK个图像位置采用欧氏距离进行 两两组合,得到K*NK个组合位置距离 score3(i)(j),i=1,2,...,K;j=1,2,...,NK为K*NK个组合位置距离得分。该机制分为三 个部分,在WiFi定位中,距离越近表示当前估计位置与该指纹网格点位置 越近,因此前K个WiFi指纹距离得分score1(i),i=1,2,...,K就越高;在视觉 SLAM定位中,两图像相似度越高,则当前图像信息的估计位置与该关键 帧图像信息位置越近,因此前NK个图像相似度得分score2(j),j=1,2,...,NK就 越高。将K个WiFi指纹位置信息与NK个图像位置采用欧氏距离进行两两 组合,得到K*NK个位置距离WiFi指纹 位置与关键帧位置之间距离越近,则移动机器人所在位置的概率越大,得 分score3(i)(j)越高;通过得分机制得到任意点与各个指纹网格点的得分值, 从中选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位 位置,粗定位位置表示为: 和分别表示从中选出得 分值最高所对应的WiFi指纹位置信息和图像位置信息。
S5:以粗定位的范围作为约束条件采用视觉SLAM最终实现精确定位。
通过WiFi与视觉SLAM图像数据融合得到融合定位位置om,以om为 圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围。以粗定位 范围为限制条件,进行视觉SLAM精定位,即采用自适应蒙特卡洛定位算 法,最终实现定位结果。
与相关技术相比,本发明中应用WiFi和视觉SLAM中的视觉词袋技 术实现粗定位,最后在粗定位的约束下采用视觉SLAM定位技术从而实现 最终定位结果。本发明有效的将WiFi和视觉SLAM进行融合,并在定位 准确率、定位精度、定位时间等性能上得到显著提升。
以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普 通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进, 但这些均属于本发明的保护范围。
Claims (8)
1.一种WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,包括如下步骤:
S1:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建立WiFi地图和视觉SLAM地图;
S2:对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;
S3:移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹配算法利用所述视觉SLAM地图进行视觉SLAM定位;
S4:将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定位,具体包括如下步骤:
建立一个得分机制score(i)(j)=score1(i)+score2(j)+score3(i)(j),其中score1(i),i=1,2,K,K为K个WiFi指纹距离得分;score2(j),j=1,2,K,NK为NK个图像相似度得分;
通过得分机制得到任意点与各个指纹网格点的得分值score(i)(j),从中选出得分值最高所对应的指纹网格点的相关信息,作为定位的粗定位位置,粗定位位置表示为:
S5:以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。
2.根据权利要求1所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S1包括如下步骤:
S11:在室内定位空间中布置M个指纹网格点,每个所述指纹网格点获取N个无线接入点所发出的WiFi信息,每个所述无线接入点采集n个样本数据;同时获取每个所述指纹网格点周围的图像信息;
S12:对所述样本数据采用格拉布斯准则进行异常值检测,若检测为异常值则剔除,反之则保留;
S14:每个所述指纹网格点的WiFi信息表示为Li={RSSIi,oi},i=1,2,K,M,其中,表示在第i个指纹网格点上所采集的NAP个无线接入点信号强度的信息向量,是第i个指纹网格点上测得第NAP个无线接入点的信号强度,oi={xi,yi}表示第i个指纹网格点的位置信息,其中xi和yi分别是第i个指纹网格点在世界坐标系下的x轴和y轴坐标;
S15:通过所述指纹网格点的WiFi信息构建WiFi地图,通过所述指纹网格点的图像信息构建视觉SLAM地图。
3.根据权利要求2所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述图像信息包括彩色图像信息和深度图像信息。
8.根据权利要求1所述的WiFi和视觉多源融合的移动机器人室内定位方法,其特征在于,所述步骤S5包括如下步骤:
通过WiFi定位与视觉SLAM定位融合得到的粗定位位置om,以om为圆心,以距离阈值dt为半径,所形成的圆形区域为粗定位范围,以粗定位范围为限制条件,采用自适应蒙特卡洛定位算法,进行视觉SLAM精定位,实现最终定位结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011121060.0A CN112325883B (zh) | 2020-10-19 | 2020-10-19 | 一种WiFi和视觉多源融合的移动机器人室内定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011121060.0A CN112325883B (zh) | 2020-10-19 | 2020-10-19 | 一种WiFi和视觉多源融合的移动机器人室内定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112325883A CN112325883A (zh) | 2021-02-05 |
CN112325883B true CN112325883B (zh) | 2022-06-21 |
Family
ID=74310438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011121060.0A Active CN112325883B (zh) | 2020-10-19 | 2020-10-19 | 一种WiFi和视觉多源融合的移动机器人室内定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112325883B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113382376B (zh) * | 2021-05-08 | 2022-05-10 | 湖南大学 | 一种基于wifi和视觉集成的室内定位方法 |
CN113490146B (zh) * | 2021-05-08 | 2022-04-22 | 湖南大学 | 一种基于WiFi与视觉融合的SLAM方法 |
CN113490137B (zh) * | 2021-05-08 | 2022-05-03 | 湖南大学 | 一种基于WiFi与视觉融合室内定位方法 |
CN113484889A (zh) * | 2021-07-07 | 2021-10-08 | 中国人民解放军国防科技大学 | 基于移动终端的增强现实和卫星定位的沉浸式导航系统 |
CN113628272A (zh) * | 2021-07-12 | 2021-11-09 | 中国科学院自动化研究所 | 室内定位方法、装置、电子设备及存储介质 |
CN114025320A (zh) * | 2021-11-08 | 2022-02-08 | 易枭零部件科技(襄阳)有限公司 | 一种基于5g信号的室内定位方法 |
CN114543816B (zh) * | 2022-04-25 | 2022-07-12 | 深圳市赛特标识牌设计制作有限公司 | 一种基于物联网的导视方法、装置以及系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080153516A1 (en) * | 2006-12-20 | 2008-06-26 | Via Technologies, Inc. | Visual Positioning System and Method for Mobile User Equipment |
CN106470478B (zh) * | 2015-08-20 | 2020-03-24 | 西安云景智维科技有限公司 | 一种定位数据处理方法、装置和系统 |
CN106899935B (zh) * | 2017-01-18 | 2018-08-14 | 深圳大学 | 一种基于无线接收设备和摄像头的室内定位方法及系统 |
EP3460400B1 (en) * | 2017-09-22 | 2021-12-22 | Softbank Robotics Europe | Improved localization of a mobile device based on image and radio words |
US10739784B2 (en) * | 2017-11-29 | 2020-08-11 | Qualcomm Incorporated | Radar aided visual inertial odometry initialization |
CN108680175A (zh) * | 2017-12-12 | 2018-10-19 | 安徽工程大学 | 基于啮齿类动物模型的同步定位与地图构建方法及装置 |
CN110360999B (zh) * | 2018-03-26 | 2021-08-27 | 京东方科技集团股份有限公司 | 室内定位方法、室内定位系统和计算机可读介质 |
US10834532B2 (en) * | 2018-08-23 | 2020-11-10 | NEC Laboratories Europe GmbH | Method and system for wireless localization data acquisition and calibration with image localization |
CN110856112B (zh) * | 2019-11-14 | 2021-06-18 | 深圳先进技术研究院 | 一种群智感知的多源信息融合室内定位方法及系统 |
-
2020
- 2020-10-19 CN CN202011121060.0A patent/CN112325883B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112325883A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112325883B (zh) | 一种WiFi和视觉多源融合的移动机器人室内定位方法 | |
CN106793086B (zh) | 一种室内定位方法 | |
CN110856112B (zh) | 一种群智感知的多源信息融合室内定位方法及系统 | |
CN105792353B (zh) | 群智感知式WiFi信号指纹辅助的图像匹配室内定位方法 | |
CN108171131B (zh) | 基于改进MeanShift的Lidar点云数据道路标识线提取方法 | |
CN107451593B (zh) | 一种基于图像特征点的高精度gps定位方法 | |
CN111912416B (zh) | 用于设备定位的方法、装置及设备 | |
CN111882612A (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN108521627B (zh) | 基于HMM的wifi和地磁融合的室内定位系统及方法 | |
CN110631588B (zh) | 一种基于rbf网络的无人机视觉导航定位方法 | |
CN112488061B (zh) | 一种联合ads-b信息的多航空器检测与跟踪方法 | |
CN111698774B (zh) | 基于多源信息融合的室内定位方法及装置 | |
CN112731371B (zh) | 一种激光雷达与视觉融合的集成化目标跟踪系统及方法 | |
CN112085003A (zh) | 公共场所异常行为自动识别方法及装置、摄像机设备 | |
CN111811502B (zh) | 一种运动载体多源信息融合导航方法及系统 | |
CN112862881A (zh) | 基于众包多车摄像头数据的道路地图构建与融合的方法 | |
CN114222240A (zh) | 一种基于粒子滤波的多源融合定位方法 | |
CN114413909A (zh) | 一种室内移动机器人定位方法及系统 | |
CN113988228B (zh) | 一种基于rfid和视觉融合的室内监控方法及系统 | |
CN108921896B (zh) | 一种融合点线特征的下视视觉罗盘 | |
CN116192822A (zh) | 一种屏显通讯控制方法、装置、5g消防对讲手机及介质 | |
CN115471526A (zh) | 基于多源异构信息融合的自动驾驶目标检测与跟踪方法 | |
CN114973195A (zh) | 基于多信息融合的车辆追踪方法、装置及系统 | |
CN110631591A (zh) | 一种基于室内地图与虚拟路标辅助的行人室内导航方法 | |
Lee et al. | A feasibility study on smartphone localization using image registration with segmented 3d building models based on multi-material classes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |