CN112146660B - 一种基于动态词向量的室内地图定位方法 - Google Patents

一种基于动态词向量的室内地图定位方法 Download PDF

Info

Publication number
CN112146660B
CN112146660B CN202011021069.4A CN202011021069A CN112146660B CN 112146660 B CN112146660 B CN 112146660B CN 202011021069 A CN202011021069 A CN 202011021069A CN 112146660 B CN112146660 B CN 112146660B
Authority
CN
China
Prior art keywords
vector
encoder
decoder
map
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011021069.4A
Other languages
English (en)
Other versions
CN112146660A (zh
Inventor
阎波
张丽佳
吴沛航
肖卓凌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011021069.4A priority Critical patent/CN112146660B/zh
Publication of CN112146660A publication Critical patent/CN112146660A/zh
Application granted granted Critical
Publication of CN112146660B publication Critical patent/CN112146660B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于动态词向量的室内地图定位方法,根据惯性传感器数据与地图信息,设计并搭建了基于动态词向量的深度学习框架,完成地图信息的智能提取,实现室内地图匹配定位技术,具有能充分利用地图信息、场景泛化性强的优点,尤其适用于室内空间较为复杂的场景。

Description

一种基于动态词向量的室内地图定位方法
技术领域
本发明涉及室内定位方法领域,具体涉及一种基于动态词向量的室内地图定位方法。
背景技术
随着人们对室内位置服务的的需求日益增加,精准高效的室内定位技术的作用越来越成为室内位置服务的刚需。在室外环境下,球导航卫星系统(GNSS)为用户提供米级的位置服务,基本解决了在室外空间中进行准确定位的问题,并在日常生活中得到了广泛的应用。然而,受到建筑物的遮挡和多径效应的影响,GNSS定位精度急剧降低,无法满足室内位置服务需要,但室内定位在一些特定场合的迫切需求已经日趋显著,因此,室内定位技术成为专家学者的研究重点。
室内定位技术在传感器基础大类上分可以分为两类:基于部署的室内定位技术和无部署的室内定位技术。其中基于部署的室内定位技术包括,Wi-Fi技术、蓝牙技术、ZigBee技术、射频识别(RFID)技术、超宽带(UWB)技术、超声波技术等;无部署的室内定位技术主要基于惯性导航系统和视觉、激光、雷达等传感器,依靠融合惯性传感器信息与不需要部署的传感器信息实现室内定位技术。无部署的室内定位技术具有适用范围更广且成本低廉的优点,但如何将其他信息与惯导信息融合,并充分利用辅助信息成为亟待解决的问题。
文献“Particle Filter Networks with Application to Visual Localization(Karkus P,Hsu D,Lee W S.PMLR 87:169-178,2018.)”提供了基于粒子滤波算法的深度学习室内定位方法。该方法将依据粒子的当前状态(位移与方向)得到粒子的局部视野,并将其作为更新粒子权重的重要数据,从而充分的利用了信息,并提高了室内地图匹配的精度。但该方法需要将粒子的地图局部视野与粒子当前的摄像信息通过卷积神经网络进行匹配,依据图像的相似度进行粒子权重的计算,其使用场景需要与相机配合,持续摄像,在实际的室内地图匹配定位场景中并不方便。除此之外,该地图匹配方式存在以下缺点:二维平面图与实际摄像图片匹配难,仅适用于简单场景,辅助信息需要依靠地图与视频并没有达到充分提取地图信息的目的。
现有的室内地图匹配技术主要依靠概率模型算法,一部分以经验推断的理论来将惯导数据与地图信息进行匹配,在一定程度上削弱了对地图信息的利用,造成地图信息提取不充分的问题;另一部分将视频信息融合,采用深度学习的方法来实现地图匹配,虽提高了信息的融合度但使用场景较为单一,且对于常规的行人室内定位场景来说不够灵活。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于动态词向量的室内地图定位方法解决了现有技术对地图信息的提取不充分和室内定位场景不够灵活的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于动态词向量的室内地图定位方法,包括以下步骤:
S1、将室内二维平面地图抽象为顶点集;
S2、采用顶点集对应的邻接点集训练动态词向量模型ELMo,得到训练完成的动态词向量模型ELMo;
S3、采集行人在室内行走的惯导数据;
S4、将惯导数据对应的大地定位坐标转换为室内地图上的像素坐标;
S5、采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理,得到当前时刻的粒子状态;
S6、采用训练完成的动态词向量模型ELMo对粒子状态进行向量表示,得到当前时刻的粒子状态向量;
S7、将当前时刻的粒子状态向量与前几个历史时刻的粒子状态向量输入变分自编码器网络模型中,得到当前时刻的预测位置的向量;
S8、将预测位置的向量与顶点集进行匹配,得到修正后的定位坐标。
进一步地,步骤S1具体为:将室内二维平面地图的各个顶点进行编号,并记录该顶点的像素坐标,将顶点编号和顶点的像素坐标组合,得到顶点集。
进一步地,步骤S5中采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理的公式为:
Figure BDA0002700612280000031
Figure BDA0002700612280000032
其中,(xt,yt)为粒子在t时刻在地图上所处的像素坐标,即粒子状态,lt为在t时刻粒子移动的位移,ht为在t时刻粒子移动的方向,
Figure BDA0002700612280000033
为方向的固有偏置,
Figure BDA0002700612280000034
为位移的固有偏置。
进一步地,步骤S7中变分自编码器网络模型包括:编码器、多个全连接层、隐向量模块和解码器;
所述编码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个编码器-cell单元;
每个所述编码器-cell单元的第一输入端共同作为编码器或变分自编码器网络模型的输入端;
所述解码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个解码器-cell单元;
除第一个编码器-cell单元外的剩余每个编码器-cell单元的第二输入端与上一个编码器-cell单元的第一输出端连接;
每个所述编码器-cell单元的第二输出端分别与两个全连接层的输入端连接;
每个所述全连接层的输出端与隐向量模块的输入端连接;
所述隐向量模块的输出端与第一个解码器-cell单元的第一输入端连接;
剩余的每个所述解码器-cell单元的第一个输入端分别与上一个解码器-cell单元的输出端连接,最后一个解码器-cell单元的输出端作为解码器或变分自编码器网络模型的输出端;
每个所述解码器-cell单元的第二输入端用于输入一个历史时刻的粒子状态向量。
进一步地,步骤S7包括以下分步骤:
S71、将当前时刻的粒子状态向量进行划分,得到几组向量数据;
S72、将几组向量数据与编码器-cell单元进行一一匹配,输入每一个编码器-cell单元的第一输入端;
S73、将每一个编码器-cell单元第二输出端的输出分别经过两个全连接层进行分类处理,得到向量数据的均值和方差;
S74、将所有全连接层输出的向量数据的均值和方差输入隐向量模块,得到向量数据的隐向量;
S75、将向量数据的隐向量输入第一个解码器-cell单元的第一输入端,将每个历史时刻的粒子状态向量依次输入每个解码器-cell单元的第二输入端,得到当前时刻的预测位置的向量。
上述进一步方案的有益效果为:
(1)利用地图邻接顶点集作为动态词向量模型ELMo的训练数据,再通过ELMo模型将粒子状态表示为携带方向及位移信息的状态向量,实现地图信息的智能提取与嵌入,从而提高提高地图信息与惯导数据的融合程度,进一步提高室内定位精度。
(2)本方案将粒子滤波算法与变分自编码器算法相结合,利用变分自编码器作为生成模型的特点,通过编码器学习输入数据的特征表示,解码器生成可能的预测信息,将粒子滤波算法的概率推导与变分自编码器特征学习的优点融合,使得预测结果更有依据。
综上,本发明的有益效果为:
(1)、一种基于动态词向量的室内地图定位方法,根据惯性传感器数据与地图信息,设计并搭建了基于动态词向量的深度学习框架,完成地图信息的智能提取,实现室内地图匹配定位技术,具有能充分利用地图信息、场景泛化性强的优点,尤其适用于室内空间较为复杂的场景。
(2)、摒弃了传统用概率模型算法将惯导数据和地图信息结合推断的方式,使用神经网络的方法实现地图匹配算法,加大了地图信息的提取;着眼于现有地图匹配技术地图信息利用不充分的问题,提出了利用动态词向量模型表示地图顶点的方法,解决地图匹配中地图信息利用不充分,且计算量大的问题;最后,利用变分自编码器生成模型的特性,加强数据的表示方式与特征学习,完成最终轨迹修正任务。
附图说明
图1为一种基于动态词向量的室内地图定位方法流程图;
图2为地图处理部分展示图;
图3为地图的邻接点集数据存储表示;
图4为顶点集的数据;
图5为粒子状态转为状态向量的示意图;
图6为变分自编码器网络模型的结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于动态词向量的室内地图定位方法,包括以下步骤:
S1、将室内二维平面地图抽象为顶点集;
步骤S1具体为:将室内二维平面地图的各个顶点进行编号,并记录该顶点的像素坐标,将顶点编号和顶点的像素坐标组合,得到顶点集。
顶点表示地图中可达到的位置,对每个顶点进行编号,并记录该顶点的像素坐标和与该顶点相邻的两层邻接点的编号。
如图2中虚线框内所示,将地图的额可达区域抽象成顶点集的形式,其中浅色点为中心点的第一层邻接点,最外层深色点为中心点的第二层邻接点,顶点在竖直与平行方向上之间的距离为0.8m;地图的顶点数据存储如图3所示,即邻接点集为顶点编号构成的集合,最后一列为中心点的编号,其余列为中心点的邻接点编号。其中每一行数据为中心点在上、下、左、右方向上的邻接信息。图4所示为地图上每个顶点及其在地图上的像素坐标,便于查找顶点信息。
S2、采用顶点集对应的邻接点集训练动态词向量模型ELMo,得到训练完成的动态词向量模型ELMo;
S3、采集行人在室内行走的惯导数据;
S4、将惯导数据对应的大地定位坐标转换为室内地图上的像素坐标;
研究人员于脚上佩戴惯导设备在楼道与房间中行走,将采集到的数据保存至终端中。研究期间采用的为行人在行走过程中的相对大地坐标,并根据地图的比例尺数据转换成为地图像素坐标,且仅考虑二维平面数据,即x、y方向。
S5、采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理,得到当前时刻的粒子状态(即粒子在地图上的顶点编号表示);
步骤S5中采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理的公式为:
Figure BDA0002700612280000071
Figure BDA0002700612280000072
其中,(xt,yt)为粒子在t时刻在地图上所处的像素坐标,即粒子状态,lt为在t时刻粒子移动的位移,ht为在t时刻粒子移动的方向,
Figure BDA0002700612280000073
为方向的固有偏置,
Figure BDA0002700612280000074
为位移的固有偏置。
S6、采用训练完成的动态词向量模型ELMo对粒子状态进行向量表示,得到当前时刻的粒子状态向量,如图5所示,以此方式将地图固有信息嵌入至粒子状态中;
采用动态词向量模型ELMo将粒子状态根据不同的方向来源,以向量的形式表示,粒子状态向量携带有地图顶点之间存在的距离与方向信息。
S7、将当前时刻的粒子状态向量与前几个历史时刻的粒子状态向量输入变分自编码器网络模型中,得到当前时刻的预测位置的向量;
如图6所示,步骤S7中变分自编码器网络模型包括:编码器、多个全连接层、隐向量模块和解码器;
所述编码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个编码器-cell单元;
每个所述编码器-cell单元的第一输入端共同作为编码器或变分自编码器网络模型的输入端;
所述解码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个解码器-cell单元;
除第一个编码器-cell单元外的剩余每个编码器-cell单元的第二输入端与上一个编码器-cell单元的第一输出端连接;
每个所述编码器-cell单元的第二输出端分别与两个全连接层的输入端连接;
每个所述全连接层的输出端与隐向量模块的输入端连接;
所述隐向量模块的输出端与第一个解码器-cell单元的第一输入端连接;
剩余的每个所述解码器-cell单元的第一个输入端分别与上一个解码器-cell单元的输出端连接,最后一个解码器-cell单元的输出端作为解码器或变分自编码器网络模型的输出端;
每个所述解码器-cell单元的第二输入端用于输入一个历史时刻的粒子状态向量。
步骤S7包括以下分步骤:
S71、将当前时刻的粒子状态向量进行划分,得到几组向量数据;
S72、将几组向量数据与编码器-cell单元进行一一匹配,输入每一个编码器-cell单元的第一输入端;
S73、将每一个编码器-cell单元第二输出端的输出分别经过两个全连接层进行分类处理,得到向量数据的均值和方差;
S74、将所有全连接层输出的向量数据的均值和方差输入隐向量模块,得到向量数据的隐向量;
根据均值与方差得出的隐向量表示(zi),最终将每个zi隐向量连接得到最终的隐向量(Z)。
S75、将向量数据的隐向量输入第一个解码器-cell单元的第一输入端,将每个历史时刻的粒子状态向量依次输入每个解码器-cell单元的第二输入端,得到当前时刻的预测位置的向量。
在本实施例中,可采用4个历史时刻的粒子状态向量和最终的隐向量(Z)作为解码器的输入,则解码器-cell单元的数量也为4个。
S8、将预测位置的向量与顶点集进行匹配,得到修正后的定位坐标。

Claims (5)

1.一种基于动态词向量的室内地图定位方法,其特征在于,包括以下步骤:
S1、将室内二维平面地图抽象为顶点集;
顶点表示地图中可达到的位置,对每个顶点进行编号,并记录该顶点的像素坐标和与该顶点相邻的两层邻接点的编号;
S2、采用顶点集对应的邻接点集训练动态词向量模型ELMo,得到训练完成的动态词向量模型ELMo;
S3、采集行人在室内行走的惯导数据;
S4、将惯导数据对应的大地定位坐标转换为室内地图上的像素坐标;
S5、采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理,得到当前时刻的粒子状态;
S6、采用训练完成的动态词向量模型ELMo对粒子状态进行向量表示,得到当前时刻的粒子状态向量;
S7、将当前时刻的粒子状态向量与前几个历史时刻的粒子状态向量输入变分自编码器网络模型中,得到当前时刻的预测位置的向量;
S8、将预测位置的向量与顶点集进行匹配,得到修正后的定位坐标。
2.根据权利要求1所述的基于动态词向量的室内地图定位方法,其特征在于,所述步骤S1具体为:将室内二维平面地图的各个顶点进行编号,并记录该顶点的像素坐标,将顶点编号和顶点的像素坐标组合,得到顶点集。
3.根据权利要求1所述的基于动态词向量的室内地图定位方法,其特征在于,所述步骤S5中采用粒子滤波的转移模块对基于室内地图像素坐标的惯导数据进行处理的公式为:
Figure FDA0003556672810000011
Figure FDA0003556672810000021
其中,(xt,yt)为粒子在t时刻在地图上所处的像素坐标,即粒子状态,lt为在t时刻粒子移动的位移,ht为在t时刻粒子移动的方向,
Figure FDA0003556672810000022
为方向的固有偏置,
Figure FDA0003556672810000023
为位移的固有偏置。
4.根据权利要求1所述的基于动态词向量的室内地图定位方法,其特征在于,所述步骤S7中变分自编码器网络模型包括:编码器、多个全连接层、隐向量模块和解码器;
所述编码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个编码器-cell单元;
每个所述编码器-cell单元的第一输入端共同作为编码器或变分自编码器网络模型的输入端;
所述解码器包括:多个长短时记忆网络LSTM的一个cell单元,即多个解码器-cell单元;
除第一个编码器-cell单元外的剩余每个编码器-cell单元的第二输入端与上一个编码器-cell单元的第一输出端连接;
每个所述编码器-cell单元的第二输出端分别与两个全连接层的输入端连接;
每个所述全连接层的输出端与隐向量模块的输入端连接;
所述隐向量模块的输出端与第一个解码器-cell单元的第一输入端连接;
剩余的每个所述解码器-cell单元的第一个输入端分别与上一个解码器-cell单元的输出端连接,最后一个解码器-cell单元的输出端作为解码器或变分自编码器网络模型的输出端;
每个所述解码器-cell单元的第二输入端用于输入一个历史时刻的粒子状态向量。
5.根据权利要求4所述的基于动态词向量的室内地图定位方法,其特征在于,所述步骤S7包括以下分步骤:
S71、将当前时刻的粒子状态向量进行划分,得到几组向量数据;
S72、将几组向量数据与编码器-cell单元进行一一匹配,输入每一个编码器-cell单元的第一输入端;
S73、将每一个编码器-cell单元第二输出端的输出分别经过两个全连接层进行分类处理,得到向量数据的均值和方差;
S74、将所有全连接层输出的向量数据的均值和方差输入隐向量模块,得到向量数据的隐向量;
S75、将向量数据的隐向量输入第一个解码器-cell单元的第一输入端,将每个历史时刻的粒子状态向量依次输入每个解码器-cell单元的第二输入端,得到当前时刻的预测位置的向量。
CN202011021069.4A 2020-09-25 2020-09-25 一种基于动态词向量的室内地图定位方法 Active CN112146660B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011021069.4A CN112146660B (zh) 2020-09-25 2020-09-25 一种基于动态词向量的室内地图定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011021069.4A CN112146660B (zh) 2020-09-25 2020-09-25 一种基于动态词向量的室内地图定位方法

Publications (2)

Publication Number Publication Date
CN112146660A CN112146660A (zh) 2020-12-29
CN112146660B true CN112146660B (zh) 2022-05-03

Family

ID=73896949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011021069.4A Active CN112146660B (zh) 2020-09-25 2020-09-25 一种基于动态词向量的室内地图定位方法

Country Status (1)

Country Link
CN (1) CN112146660B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114001736A (zh) * 2021-11-09 2022-02-01 Oppo广东移动通信有限公司 定位方法、定位装置、存储介质与电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109959377A (zh) * 2017-12-25 2019-07-02 北京东方兴华科技发展有限责任公司 一种机器人导航定位系统及方法
CN111024066A (zh) * 2019-12-10 2020-04-17 中国航空无线电电子研究所 一种无人机视觉-惯性融合室内定位方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010024521A (ko) * 1998-08-17 2001-03-26 이데이 노부유끼 음성 인식 장치 및 방법, 내비게이션 장치, 휴대 전화장치 및 정보 처리 장치
CN103994765B (zh) * 2014-02-27 2017-01-11 北京工业大学 一种惯性传感器的定位方法
WO2018145611A1 (en) * 2017-02-10 2018-08-16 The Hong Kong University Of Science And Technology Effective indoor localization using geo-magnetic field
US10791420B2 (en) * 2017-02-22 2020-09-29 Sony Corporation Information processing device and information processing method
CN107346133B (zh) * 2017-07-04 2020-12-04 武汉视览科技有限公司 一种室内移动机器人的自主建图方法和装置
CN108519615B (zh) * 2018-04-19 2021-11-26 河南科技学院 基于组合导航和特征点匹配的移动机器人自主导航方法
CN109115209B (zh) * 2018-07-20 2022-03-11 湖南格纳微信息科技有限公司 一种管廊内人员定位方法及装置
CN109186618B (zh) * 2018-08-31 2022-11-29 平安科技(深圳)有限公司 地图构建方法、装置、计算机设备及存储介质
CN110298912B (zh) * 2019-05-13 2023-06-27 深圳市易恬技术有限公司 三维场景的复现方法、系统、电子装置及存储介质
CN110388926B (zh) * 2019-07-12 2021-10-29 杭州电子科技大学 一种基于手机地磁和场景图像的室内定位方法
CN110401978B (zh) * 2019-07-19 2020-10-09 中国电子科技集团公司第五十四研究所 基于神经网络和粒子滤波多源融合的室内定位方法
CN110530371B (zh) * 2019-09-06 2021-05-18 电子科技大学 一种基于深度强化学习的室内地图匹配方法
CN110619299A (zh) * 2019-09-12 2019-12-27 北京影谱科技股份有限公司 基于网格的对象识别slam方法和装置
CN110807782B (zh) * 2019-10-25 2021-08-20 中山大学 一种视觉机器人的地图表示系统及其构建方法
CN110827415B (zh) * 2019-11-11 2022-08-23 吉林大学 一种全天候未知环境无人自主工作平台
CN111123340A (zh) * 2020-02-10 2020-05-08 腾讯科技(深圳)有限公司 物流配送导航方法及系统、近场定位导航装置、存储介质
CN111340882B (zh) * 2020-02-20 2024-02-20 盈嘉互联(北京)科技有限公司 基于图像的室内定位方法及装置
CN111651973B (zh) * 2020-06-03 2023-11-07 拾音智能科技有限公司 一种基于句法感知的文本匹配方法
CN111680666B (zh) * 2020-06-30 2023-03-24 西安电子科技大学 欠采样跳频通信信号深度学习恢复方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109959377A (zh) * 2017-12-25 2019-07-02 北京东方兴华科技发展有限责任公司 一种机器人导航定位系统及方法
CN111024066A (zh) * 2019-12-10 2020-04-17 中国航空无线电电子研究所 一种无人机视觉-惯性融合室内定位方法

Also Published As

Publication number Publication date
CN112146660A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
US11361470B2 (en) Semantically-aware image-based visual localization
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
CN111213155A (zh) 图像处理方法、设备、可移动平台、无人机及存储介质
CN110530371B (zh) 一种基于深度强化学习的室内地图匹配方法
CN110968711B (zh) 一种基于序列图像特征的自主无人系统位置识别定位方法
CN116222577B (zh) 闭环检测方法、训练方法、系统、电子设备及存储介质
Shi et al. An improved lightweight deep neural network with knowledge distillation for local feature extraction and visual localization using images and LiDAR point clouds
CN112146660B (zh) 一种基于动态词向量的室内地图定位方法
Seymour et al. Semantically-aware attentive neural embeddings for image-based visual localization
CN117036300A (zh) 基于点云-rgb异源图像多级配准映射的路面裂缝识别方法
Seymour et al. Semantically-aware attentive neural embeddings for long-term 2D visual localization
CN116385761A (zh) 一种融合rgb与红外信息的3d目标检测方法
Zhao et al. Boundary regularized building footprint extraction from satellite images using deep neural network
CN114743139A (zh) 视频场景检索方法、装置、电子设备及可读存储介质
CN115035599A (zh) 一种融合装备与行为特征的武装人员识别方法和系统
US20220164595A1 (en) Method, electronic device and storage medium for vehicle localization
CN111144239A (zh) 一种利用词汇树引导的无人机倾斜影像特征匹配方法
Xia et al. Convolutional cross-view pose estimation
Wilson et al. Image and Object Geo-Localization
CN114202701A (zh) 一种基于物体语义的无人机视觉重定位方法
CN114943766A (zh) 重定位方法、装置、电子设备及计算机可读存储介质
CN115187614A (zh) 一种基于stdc语义分割网络的实时同时定位与建图方法
Miao et al. A Survey on Monocular Re-Localization: From the Perspective of Scene Map Representation
Zhao et al. Place recognition with deep superpixel features for brain-inspired navigation
Qiao et al. Visual localization based on sequence matching using ConvNet features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant