CN105444766B - 基于深度学习的室内导航方法 - Google Patents
基于深度学习的室内导航方法 Download PDFInfo
- Publication number
- CN105444766B CN105444766B CN201510944286.3A CN201510944286A CN105444766B CN 105444766 B CN105444766 B CN 105444766B CN 201510944286 A CN201510944286 A CN 201510944286A CN 105444766 B CN105444766 B CN 105444766B
- Authority
- CN
- China
- Prior art keywords
- picture
- user
- gray
- deep learning
- indoor navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本发明提出一种基于深度学习的室内导航方法,包括:在预设区域内进行图像采集,并记录采集到的图片的当前位置信息;对图片进行处理以得到预设尺寸的灰度图;对预设尺寸的灰度图进行训练,以得到深度自动编码器;对得到的所有预设尺寸的灰度图进行编码,得到第一编码结果;获取新采集的图片,并处理成预设尺寸的灰度图;对新采集的图片对应的预设尺寸的灰度图进行编码,得到第二编码结果;将第二编码结果和第一编码结果进行匹配,得到匹配程度最高的编码对应的目标图片,获取目标图片的目标位置信息;比对目标位置信息和当前位置信息,并根据比对结果确定用户的行进路线。本发明的方法具有成本低和易用性高的优点。
Description
技术领域
本发明涉及深度学习及定位技术领域,特别涉及一种基于深度学习的室内导航方法。
背景技术
移动互联网的迅猛发展使得基于位置的服务成为可能。传统的定位方式主要是通过移动设备上配备的全球定位系统(Global Positioning System,GPS)进行定位,或者通过移动电信运营商的网络,即全球移动通讯网络(Global System for MobileCommunications,GSM)进行定位,这两种定位方式现在已广泛使用在室外定位和导航领域。然而,全球定位系统在大型建筑物内部信号极弱,因此定位效果不理想,对于在复杂的建筑物内部导航来说,其功能几乎失效;另一方面,运营商网络定位本身定位精度就比较差,因此在室内的定位精度更差。
目前大型建筑物(如大型商场)内部还没有广泛应用的在的定位和导航技术。目前相关的室内定位技术方案大致有以下三种,但都处在尝试阶段。第一种是Wi-Fi定位,通过测量移动设备端连接无线局域网后接收到的信号强度来计算其距离接入点的距离从而实现定位;第二种是蓝牙低功耗(Bluetooth Low Energy,BLE)技术进行定位,当配备有BLE功能的移动设备靠近其它具备BLE功能的设备时,可以互相传输信息,达到定位的目的;第三种是通过在室内安装特定功能的传感器,再在移动设备上安装与之相对应的传感器,通过互相之间的感应达到定位的目的。然而,对于以上三种室内导航技术,一方面需要大量物理设备的投入,另一方面也提高了对用户移动设备的要求,这些问题都使得这些技术不能投入到大量实际使用中。
发明内容
本发明旨在至少在一定程度上解决上述相关技术中的技术问题之一。
为此,本发明的目的在于提出一种基于深度学习的室内导航方法,该方法以直观的图片作为输入,通过深度学习算法的匹配,得到当前位置,再通过计算目标位置的方向和距离,得出导航路径,具有成本低和易用性高的优点。
为了实现上述目的,本发明的实施例提出了一种基于深度学习的室内导航方法,包括以下步骤:S1:在预设区域内进行图像采集,并记录采集到的图片对应的当前位置信息;S2:对采集到的图片进行处理以得到预设尺寸的灰度图;S3:对所述预设尺寸的灰度图进行训练,以得到深度自动编码器;S4:根据所述深度自动编码器对得到的所有所述预设尺寸的灰度图进行编码,得到第一编码结果;S5:获取所述预设区域内新采集的图片,并将所述新采集的图片处理成预设尺寸的灰度图;S6:根据所述深度自动编码器对所述新采集的图片对应的预设尺寸的灰度图进行编码,得到第二编码结果;S7:将所述第二编码结果和所述第一编码结果进行匹配,得到所述第一编码结果中匹配程度最高的编码对应的目标图片,并获取所述目标图片对应的目标位置信息;以及S8:比对所述目标位置信息和所述当前位置信息,并根据比对结果确定用户的行进路线。
根据本发明实施例的基于深度学习的室内导航方法,以直观的图片作为输入,通过深度学习算法的匹配,得到当前位置,再通过计算目标位置的方向和距离,得出导航路径。因此,该方法避免了大量物理设备的投入,降低了成本及对用户移动设备的要求,同时以图片作为输入更加直观,也避免了传统的导航中基于地图的东南西北方位的描述,提高了易用性。
另外,根据本发明上述实施例的基于深度学习的室内导航方法还可以具有如下附加的技术特征:
在一些示例中,所述对采集到的图片进行处理包括:对采集到的图片进行缩放和灰度处理。
在一些示例中,所述预设尺寸为256*256。
在一些示例中,所述深度自动编码器包括输入层、隐藏层和输出层,其中,所述输入层包括256*256个单元,所述隐藏层包括16384个单元,所述输出层包括256*256个单元。
在一些示例中,在所述步骤S4中,所述第一编码结果为所述采集到的图片对应的特征向量集,所述特征向量集为:
Si=(s1,s2,…,sk,…,s16384),
其中,i为采集到的图片的数量。
在一些示例中,在所述步骤S6中,所述第二编码结果为所述新采集的图片对应的特征向量,所述特征向量为:
I=(i1,i2,…,ik,…,i16384)。
在一些示例中,所述步骤S7进一步包括:计算所述新采集的图片对应的特征向量I与所述采集到的图片对应的特征向量集Si的余弦相似度,其中,所述余弦相似度的计算公式如下:
(similarity)=cos(I,Sik)=I*Sik/(|I|*|Sik|),
其中,Sik为特征向量集Si中的第k个特征向量;
获取所述特征向量集Si中与所述特征向量I相似度最大的特征向量Sim,并得到所述Sim对应的图片的四元组(Pm,x,y,z),其中,Pm表示所述Sim对应的图片,(x,y,z)表示所述Pm在三维空间中的位置坐标。
在一些示例中,在所述步骤S8中,如果所述目标位置信息为(a,b,c),所述当前位置信息为(x,y,z),则所述根据比对结果确定用户的行进路线,进一步包括:如果c>z,则提示所述用户向上移动;如果c<z,则提示所述用户向下移动;如果c=z,则:当x<a且y<b时,提示用户向东北方向移动;当x>a且y<b时,提示所述用户向西北方向移动;当x<a且y>b时,提示所述用户向西南方向移动;当x<a且y>b时,提示所述用户向东南方向移动;当x=a且y<b时,提示所述用户向正北方向移动;当x=a且y>b时,提示所述用户向正南方向移动;当x<a且y=b时,提示所述用户向正东方向移动;当x>a且y=b时,提示所述用户向正西方向移动;以及当x=a,且y=b时,提示所述用户不移动。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一个实施例的基于深度学习的室内导航方法的流程图;
图2是本发明一个实施例的单层深度自动编码器的结构示意图;以及
图3是本发明一个实施例的三层深度自动编码器的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
以下结合附图描述根据本发明实施例的基于深度学习的室内导航方法。
图1是根据本发明一个实施例的基于深度学习的室内导航方法的流程图。如图1所示,该方法包括以下步骤:
步骤S1:在预设区域内进行图像采集,并记录采集到的图片对应的当前位置信息。
作为具体地示例,预设区域例如为建筑物内部,则以门店为最小粒度对建筑物内部进行拍照,并记录所拍摄照片所表示的当前位置信息,例如用三维空间中的一个点的坐标表示,其中z坐标轴根据楼层建立,x、y平面平行于每一个楼层,从而最终形成一个四元组,例如(Pi,10,20,30),其中Pi表示采集到的第i张图片。
步骤S2:对采集到的图片进行处理以得到预设尺寸的灰度图。其中,在本发明的一个实施例中,该步骤中对采集到的图片进行处理包括:对采集到的图片进行缩放和灰度处理。预设尺寸例如为256*256。例如,对步骤S1中采集到的图片Pi进行缩放和灰度处理,得到尺寸为256*256的图片Qi。
步骤S3:对预设尺寸的灰度图进行训练,以得到深度自动编码器。其中,深度自动编码器例如包括三个隐含层,分别为输入层、隐藏层和输出层,并分别得到每个隐含层中的相关参数。
具体地,首先建立单层深度自动编码器,其输入层包括256*256个单元,隐藏层包括16384个单元,输出层与输入层一致,也包括256*256个单元,单层深度自动编码器的结构例如图2所示。
在具体计算过程中,涉及到的损失函数例如采用互熵损失函数(cross-entropycost function),具体为:
其中,上式中x表示训练样本图片的值,z为经编码器编码后的值。
进一步地,每个单元的激活函数为sigmoid函数,具体为:
a(z)=1/(1+e-z),
其中,关于学习速率和迭代次数可根据具体情况设定,此处不做特定设置。
进一步地,对于输入层的256*256个单元,每次随机的将其中40%的单元置为零,这样可以使得训练处的编码器具有一定程度的降噪功能。
在训练完第一个单层深度自动编码器之后,去掉其输出层,再以该深度自动编码器的隐藏层的输出作为下一个同样结构的深度自动编码器的输入,训练第二个深度自动编码器,其结构为输入层包括16384个单元,隐藏层包括4096个单元,输出层包括16384个单元,训练方法和过程类似于上述第一个深度自动编码器的训练过程。
最后再在第二个深度自动编码器的基础上,采用与训练第二个深度自动编码器同样的方法,得到第三个深度自动编码器,其结构为输入层包括4096个单元,输出层包括16384个单元。
进一步地,将这三个自动编码器的输出层全部去掉,将前一个编码器隐藏层的输出作为下一个编码器的输入,最后一个编码器隐藏层的输出作为整个深度自动编码器的输出,得到所需的三层深度自动编码器,其结构例如图3所示。
步骤S4:根据深度自动编码器对得到的所有预设尺寸的灰度图进行编码,得到第一编码结果。
例如,对于步骤S2中得到的图片Qi,将其输入深度自动编码器后,得到的第一编码结果为采集到的图片对应的一个16384维的特征向量集Si,且:
Si=(s1,s2,…,sk,…,s16384),
其中,i为采集到的图片的数量。
步骤S5:获取预设区域内新采集的图片,并将新采集的图片处理成预设尺寸的灰度图。也即,对于用户新拍摄的图片,对其进行缩放和灰度处理,得到尺寸为256*256的灰度图。
步骤S6:根据深度自动编码器对新采集的图片对应的预设尺寸的灰度图进行编码,得到第二编码结果。也即,将步骤S5中得到的尺寸为256*256的灰度图输入深度自动编码器中进行编码,得到的第二编码结果例如为新采集的图片对应的一个16384维的特征向量I,且:
I=(i1,i2,…,ik,…,i16384)。
步骤S7:将第二编码结果和第一编码结果进行匹配,得到第一编码结果中匹配程度最高的编码对应的目标图片,并获取目标图片对应的目标位置信息。
在本发明的一个实施例中,步骤S7进一步包括:
计算新采集的图片对应的特征向量I与采集到的图片对应的特征向量集Si的余弦相似度,其中,余弦相似度的计算公式如下:
(similarity)=cos(I,Sik)=I*Sik/(|I|*|Sik|),
其中Sik为特征向量集Si中的第k个特征向量。
进一步地,获取特征向量集Si中与特征向量I相似度最大的特征向量Sim,并得到Sim对应的图片的四元组(Pm,x,y,z),其中,Pm表示Sim对应的图片,(x,y,z)表示Pm在三维空间中的位置坐标。
步骤S8:比对目标位置信息和当前位置信息,并根据比对结果确定用户的行进路线。也即,根据目标位置信息与当前位置信息的关系,指示用户应该向当前位置的什么方向前进。
在本发明的一个实施例中,步骤S8进一步包括:
如果目标位置信息为(a,b,c),当前位置信息为(x,y,z),则根据目标位置信息为(a,b,c)和当前位置信息为(x,y,z)的比对结果确定用户的行进路线,具体包括:
如果c>z,则提示用户向上移动。
如果c<z,则提示用户向下移动。
如果c=z,则:
当x<a且y<b时,提示用户向东北方向移动;
当x>a且y<b时,提示用户向西北方向移动;
当x<a且y>b时,提示用户向西南方向移动;
当x<a且y>b时,提示用户向东南方向移动;
当x=a且y<b时,提示用户向正北方向移动;
当x=a且y>b时,提示用户向正南方向移动;
当x<a且y=b时,提示用户向正东方向移动;
当x>a且y=b时,提示用户向正西方向移动;以及
当x=a,且y=b时,提示用户不移动,此时已到达目标位置。
综上,根据本发明实施例的基于深度学习的室内导航方法,以直观的图片作为输入,通过深度学习算法的匹配,得到当前位置,再通过计算目标位置的方向和距离,得出导航路径。因此,该方法避免了大量物理设备的投入,无需任何外部设备,如蓝牙,专用传感器等,降低了成本及对用户移动设备的要求,同时以图片作为输入更加直观,也避免了传统的导航中基于地图的东南西北方位的描述,提高了易用性。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于深度学习的室内导航方法,其特征在于,包括以下步骤:
S1:在预设区域内进行图像采集,并记录采集到的图片对应的当前位置信息;
S2:对采集到的图片进行处理以得到预设尺寸的灰度图;
S3:对所述预设尺寸的灰度图进行训练,以得到深度自动编码器;
S4:根据所述深度自动编码器对得到的所有所述预设尺寸的灰度图进行编码,得到第一编码结果;
S5:获取所述预设区域内新采集的图片,并将所述新采集的图片处理成预设尺寸的灰度图;
S6:根据所述深度自动编码器对所述新采集的图片对应的预设尺寸的灰度图进行编码,得到第二编码结果;
S7:将所述第二编码结果和所述第一编码结果进行匹配,得到所述第一编码结果中匹配程度最高的编码对应的目标图片,并获取所述目标图片对应的目标位置信息;以及
S8:比对所述目标位置信息和所述当前位置信息,并根据比对结果确定用户的行进路线。
2.根据权利要求1所述的基于深度学习的室内导航方法,其特征在于,所述对采集到的图片进行处理包括:对采集到的图片进行缩放和灰度处理。
3.根据权利要求2所述的基于深度学习的室内导航方法,其特征在于,所述预设尺寸为256*256。
4.根据权利要求3所述的基于深度学习的室内导航方法,其特征在于,所述深度自动编码器包括输入层、隐藏层和输出层,其中,所述输入层包括256*256个单元,所述隐藏层包括16384个单元,所述输出层包括256*256个单元。
5.根据权利要求3所述的基于深度学习的室内导航方法,其特征在于,在所述步骤S4中,所述第一编码结果为所述采集到的所有图片对应的特征向量集其中,N是采集到的图片总数,第i张图片对应的特征向量为:
Si=(si,1,si,2,…,si,k,…,si,16384),
其中,si,k为特征向量Si中第k个维度的值。
6.根据权利要求5所述的基于深度学习的室内导航方法,其特征在于,在所述步骤S6中,所述第二编码结果为所述新采集的图片对应的特征向量,所述特征向量为:
I=(i1,i2,…,ik,…,i16384)。
7.根据权利要求6所述的基于深度学习的室内导航方法,其特征在于,所述步骤S7进一步包括:
计算所述新采集的图片对应的特征向量I与所述采集到的图片对应的特征向量集中每一个特征向量的余弦相似度,其中,所述余弦相似度的计算公式如下:
(similarity)=cos(I,Si)=I·Si/(|I|×|Si|),
获取所述特征向量集中与所述特征向量I相似度最大的特征向量Sm,并得到所述Sm对应的图片的四元组(Pm,x,y,z),其中,Pm表示所述Sm对应的图片,(x,y,z)表示所述Pm在三维空间中的位置坐标。
8.根据权利要求1所述的基于深度学习的室内导航方法,其特征在于,在所述步骤S8中,如果所述目标位置信息为(a,b,c),所述当前位置信息为(x,y,z),则所述根据比对结果确定用户的行进路线,进一步包括:
如果c>z,则提示所述用户向上移动;
如果c<z,则提示所述用户向下移动;
如果c=z,则:
当x<a且y<b时,提示用户向东北方向移动;
当x>a且y<b时,提示所述用户向西北方向移动;
当x<a且y>b时,提示所述用户向西南方向移动;
当x<a且y>b时,提示所述用户向东南方向移动;
当x=a且y<b时,提示所述用户向正北方向移动;
当x=a且y>b时,提示所述用户向正南方向移动;
当x<a且y=b时,提示所述用户向正东方向移动;
当x>a且y=b时,提示所述用户向正西方向移动;以及
当x=a,且y=b时,提示所述用户不移动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510944286.3A CN105444766B (zh) | 2015-12-16 | 2015-12-16 | 基于深度学习的室内导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510944286.3A CN105444766B (zh) | 2015-12-16 | 2015-12-16 | 基于深度学习的室内导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105444766A CN105444766A (zh) | 2016-03-30 |
CN105444766B true CN105444766B (zh) | 2018-04-10 |
Family
ID=55555237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510944286.3A Active CN105444766B (zh) | 2015-12-16 | 2015-12-16 | 基于深度学习的室内导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105444766B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107621265A (zh) * | 2016-07-14 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 一种用于进行室内导航的方法和装置 |
CN106548645B (zh) * | 2016-11-03 | 2019-07-12 | 济南博图信息技术有限公司 | 基于深度学习的车辆路径寻优方法及系统 |
CN107131883B (zh) * | 2017-04-26 | 2021-02-12 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
CN107610235B (zh) * | 2017-08-21 | 2020-11-10 | 北京精密机电控制设备研究所 | 一种基于深度学习的移动平台导航方法和装置 |
CN108460399B (zh) * | 2017-12-29 | 2021-10-15 | 华南师范大学 | 一种儿童积木搭建辅助方法及系统 |
CN109238277B (zh) * | 2018-08-01 | 2020-10-27 | 清华大学 | 视觉惯性数据深度融合的定位方法及装置 |
CN110954108A (zh) * | 2019-12-04 | 2020-04-03 | 宁波羽声海洋科技有限公司 | 一种基于海流的水下匹配导航定位方法、装置及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
CN103489203A (zh) * | 2013-01-31 | 2014-01-01 | 清华大学 | 基于字典学习的图像编码方法及系统 |
CN103424113B (zh) * | 2013-08-01 | 2014-12-31 | 毛蔚青 | 移动终端基于图像识别技术的室内定位与导航方法 |
CN104881685B (zh) * | 2015-05-27 | 2019-04-02 | 清华大学 | 基于捷径深度神经网络的视频分类方法 |
CN105137967B (zh) * | 2015-07-16 | 2018-01-19 | 北京工业大学 | 一种深度自动编码器与q学习算法相结合的移动机器人路径规划方法 |
-
2015
- 2015-12-16 CN CN201510944286.3A patent/CN105444766B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105444766A (zh) | 2016-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105444766B (zh) | 基于深度学习的室内导航方法 | |
KR20180079428A (ko) | 자동 로컬리제이션을 위한 장치 및 방법 | |
JP5927735B2 (ja) | 地図データ作成装置、自律移動システムおよび自律移動制御装置 | |
CN105004340B (zh) | 结合惯性导航技术和指纹定位技术的定位误差修正方法 | |
WO2020224305A1 (zh) | 用于设备定位的方法、装置及设备 | |
US9420275B2 (en) | Visual positioning system that utilizes images of a working environment to determine position | |
CN105973236A (zh) | 室内定位或导航方法、装置以及地图数据库生成方法 | |
CN108303103A (zh) | 目标车道的确定方法和装置 | |
CN104197934B (zh) | 一种基于地磁的定位方法、装置及系统 | |
CN108226938A (zh) | 一种agv小车的定位系统和方法 | |
CN108225327A (zh) | 一种顶标地图的构建与定位方法 | |
Ye et al. | 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features | |
KR101501160B1 (ko) | 하수관로 시설물 조사 장치 및 방법 | |
CN106133553A (zh) | 用于确定利用gnss定位的空间分辨的误差程度的方法 | |
KR20160070874A (ko) | 모바일 기기를 이용한 위치기반 시설물 관리 시스템 | |
CN111104861B (zh) | 用于确定电线位置的方法和设备以及存储介质 | |
CN112446915B (zh) | 一种基于图像组的建图方法及装置 | |
Chiang et al. | Semantic proximity update of GNSS/INS/VINS for seamless vehicular navigation using smartphone sensors | |
CN112651991B (zh) | 视觉定位方法、装置及计算机系统 | |
CN111862146B (zh) | 一种目标对象的定位方法及装置 | |
TW201621273A (zh) | 行動定位裝置及其定位方法 | |
Taylor et al. | Smart phone-based Indoor guidance system for the visually impaired | |
CN116704042A (zh) | 定位方法、装置、电子设备及存储介质 | |
JP2019168226A (ja) | プラント設備ナビゲーションシステムおよびプラント設備ナビゲーション方法 | |
WO2022193193A1 (zh) | 数据处理方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |