CN106568435A - 一种室内定位方法及系统 - Google Patents
一种室内定位方法及系统 Download PDFInfo
- Publication number
- CN106568435A CN106568435A CN201610988861.4A CN201610988861A CN106568435A CN 106568435 A CN106568435 A CN 106568435A CN 201610988861 A CN201610988861 A CN 201610988861A CN 106568435 A CN106568435 A CN 106568435A
- Authority
- CN
- China
- Prior art keywords
- frame diagrams
- indoor
- maps
- frame
- diagrams
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种室内定位方法及系统,该方法包括获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。获取表征有室内至少部分特征目标的3D框架图,利用3D框架表征需要用于定位的特征目标的3D形状,将3D框架图与室内的3D地图进行匹配定位时需要匹配的数据量被减少,进而提高匹配定位的速度。
Description
技术领域
本发明涉及视觉特征匹配定位技术领域,尤其涉及一种室内定位方法及系统。
背景技术
随着信息技术的不断发展,位置服务逐渐受到越来越多的关注。目前,基于位置服务的各种应用已逐渐渗透到生活中的各个方面。例如,为出行提供方便的电子地图,为驾驶提供帮助的导航系统等等。这些应用主要基于全球卫星定位系统。其中,GPS系统、GLONASS导航系统、伽利略导航系统和北斗导航系统是目前使用较为广泛的卫星定位系统。但是,全球卫星定位系统仅能够为室外场景中的用户提供位置信息服务。由于室内环境因素的影响,卫星定位信号无法直接满足室内位置服务的需求。因此,不依赖于卫星信号的室内定位技术越来越受到关注。
目前,基于WIFI、UWB和RFID技术的室内定位方法是目前室内定位领域较常用的方法。但基于以上技术的室内定位方法均需要在前期进行大量的设备和基础设施投入,而且对定位场景的要求也较为严格。
发明内容
本发明的目的在于提供一种室内定位方法及系统,能够在保证室内定位的准确度的同时,且提高定位速度。
为实现上述目的,本发明提供一种室内定位方法,该室内定位方法包括:
获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;
将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。
其中,所述将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位,包括:
在所述3D地图中查找到与所述3D框架图中表征的特征目标部分匹配的第一部分;
在所述查找到的第一部分中查找到与所述3D框架图中表征的特征目标全部匹配的第二部分;
将所述3D框架图定位于所述3D地图的第二部分中。
其中,所述获取所述室内的3D框架图,包括:
获取室内的深度图像;
提取所述深度图像的深度值,根据所述深度值构建与所述深度图像对应的3D框架图。
其中,在所述根据所述深度值构建与所述深度图像对应的3D框架图之后,还包括:
根据所述3D框架图获取所述深度图像在所述3D地图中的姿态视角。
其中,所述在所述3D地图中查找到与所述3D框架图中表征的特征目标部分匹配的第一部分,还包括:
在所述3D地图中查找与所述姿态视角一致,且与所述3D框架图中表征的特征目标部分匹配的第一部分。
其中,所述3D框架图中表征的特征目标由网格构成。
其中,所述提取所述深度图像的深度值,根据所述深度值构建与所述深度图像对应的3D框架图,包括:
提取所述深度图像中的深度值呈规则变化的平面和/或线条;
以所述平面和/或线条构建与所述深度图像对应的3D框架图。
其中,在所述将所述3D框架图定位于所述3D地图的第二部分中之后,包括:
确定所述3D地图的第二部分中已标识的标志物;
判断所述3D框架图中表征的特征目标中是否存在所述标志物;
若是,则在所述3D框架图中对所述表征的特征目标进行标记。
其中,还包括:
若所述3D框架图中表征的特征目标中不存在所述标志物,则在所述3D框架图中与所述标志物的位置相同处标示出所述标志物。
另一方面,本发明提出了一种室内定位系统,该室内定位系统包括:
第一框架图获取模块,用于获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;
第一匹配定位模块,用于将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。
有益效果:区别于现有技术的情况,本发明通过获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。通过构建表征有室内至少部分特征目标的3D框架图,利用3D框架表征需要用于定位的特征目标的3D形状,减少定位过程中需要匹配的数据量;将该3D框架图与该室内的3D地图进行匹配,从而在该室内的3D地图中实现室内定位。由于3D框架图中包含了用于定位的特征目标的3D形状,使得定位时需要匹配的数据量大大减少,进而加快匹配速度,提高定位效率。
附图说明
图1是本发明室内定位方法第一实施例的流程示意图;
图2是图1所示的室内定位方法第一实施例中的步骤S101的流程示意图;
图3a是室内3D地图的示意图;
图3b是根据图3a所示的3D地图构建的3D框架图的示意图;
图4是图1所示的室内定位方法第一实施例中的步骤S102的流程示意图;
图5是本发明室内定位方法第二实施例的流程示意图;
图6是图5所示的室内定位方法第一实施例中的步骤S201的流程示意图;
图7是图5所示的室内定位方法第一实施例中的步骤S202的流程示意图;
图8是本发明室内定位系统第一实施例的功能模块图;
图9是图8所示的室内定位系统第一实施例中的第一框架图获取模块的功能模块图;
图10是图8所示的室内定位系统第一实施例中的第一匹配定位模块的功能模块图;
图11是本发明室内定位系统第二实施例的功能模块图;
图12是图11所示的室内定位系统第二实施例中的第二框架图获取模块的功能模块图;
图13是图11所示的室内定位系统第二实施例中的第二匹配定位模块的功能模块图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明所提供的一种室内定位生成方法及系统做进一步详细描述。
请参照图1,图1是本发明室内定位方法第一实施例的流程示意图,该定位方法包括如下步骤:
S101、获取室内的3D框架图。
获取室内的3D框架图,该3D框架图中表征了室内至少部分特征目标的几何形状。
为了使在获取的3D框架图中的特征目标被表征得更加清楚,在3D框架图中令表征的特征目标由网格构成,使3D框架图能够清晰的表征出特征目标的框架轮廓的同时,也能够清晰的表征出特征目标的3D形状,避免混淆相邻的特征目标。因此,本实施例中获取的室内的3D框架图也为3D框架网格图。
S102、将3D框架图与室内的3D地图进行匹配,以完成室内定位。
由于构建的3D框架图中表征了至少部分特征目标的3D形状,将3D框架图与对应的室内的3D地图进行匹配即为将获取的3D框架图中表征的特征目标与对应的室内的3D地图中标识的标志物进行匹配,能够迅速的得到匹配结果,从而将获取的3D框架图在相应的3D地图中进行定位。由于定位过程中时仅仅是用特征目标的3D形状进行匹配,减少了定位过程中需要匹配的数据量,进而提高定位效率。
本实施例通过构建表征有室内至少部分特征目标的3D框架图,利用3D框架表征需要用于定位的特征目标的3D形状,减少在定位过程中用于与室内的3D地图进行匹配的数据量;将该3D框架图与该室内的3D地图进行匹配,从而实现室内定位。由于3D框架图中包含了特征目标的3D形状的信息,使得定位时需要匹配的数据量减少,进而加快匹配速度,提高定位效率。
进一步的,如图2所示,步骤S101包括以下步骤:
S1011、获取室内的深度图像。
深度图像包含了特征目标的色彩信息和深度信息,能够准确的表示特征目标表面的三维深度信息。通过获取室内的深度图像,能够从该深度图像中获取特征目标的3D形状。
本实施例中,通过深度相机拍摄获取深度图像。深度相机即为深度成像传感器,该深度成像传感器可以为主动式或被动式。其中,主动式深度成像传感器主要是向目标发射能量束(激光、电磁波或超声波),并检测其回波;而被动式深度成像传感器主要利用周围环境条件成像。
由于拍摄的深度图像已经包含了特征目标的深度信息,则可以从深度图像中直接获取特征目标的深度值。
S1012、提取深度图像的深度值,根据深度值构建与深度图像对应的3D框架图。
深度图像的深度值即为深度图像中像素点到深度相机之间的距离。从深度图像中能够获得深度图像中像素点的深度信息。根据深度图像中的深度值能够得到深度图像中特征目标的3D形状。
从深度图像中提取深度值,根据深度值的变化构建出与该深度图像对应的3D框架图。该3D框架图能够利用平面和/或线条表征出深度图像中的特征目标的3D形状。其中,构建的3D框架图表征有室内的至少部分特征目标的3D形状。其中,特征目标为深度图像中包含的具有特定形状的物体,例如,墙面、柱子、横梁、窗户、门等,可选的,特征目标为深度图像中包含的具有规则几何形状的物体,如墙面、圆柱、方柱、台阶等。可以理解的是,构建的3D框架图中可以不标识出表征的特征目标为墙面、圆柱、门或窗等,而是近表征了这些特征目标的3D形状。
可以理解的是,由于构建的3D框架图与深度图像对应,则3D框架图在表征特征目标的3D形状的同时,也表征了各自位置以及各个特征目标之间的相对位置。
本步骤中提取深度图像的深度值,并根据提取的深度值构建与深度图像对应的3D框架图具体为提取深度图像中的深度值呈规则变化的平面和/或线条;以平面和/或线条构建与深度图像对应的3D框架图。
由于在3D框架图中表征的特征目标为深度图像中包含的具有规则几何形状的物体,则通过提取的深度图像的深度值对深度图像中具有规则几何形状的物体进行提取。在深度图像中,具有规则几何形状的物体的面或轮廓线上的深度值变化是规则的,则深度值的提取规则具体为,提取深度图像中深度值呈规则变化的平面和/或线条,例如平整的墙面,由于在深度图像中该墙面所对应的平面和/或该墙面的四边到深度相机之间的距离是规则变化的,则提取该墙面对应的平面和/或该墙面的四边的线条。其中,规则变化包括线性变化。
本实施例中,提取深度图像中深度值呈规则变化的平面和/或线条,根据提取的平面和/或线条构建相应的3D框架,最终形成与深度图像对应的3D框架图。深度图像中的深度值呈不规则变化的平面和/或线条则被忽略,即对应忽略了这些平面和/或线条对应的物体,例如深度图像中能够看到的椅子、盆栽等几何形状不规则的物体。根据提取出的平面和/或线条构建出与深度图像对应的3D框架图,3D框架中能够表征出深度图像中具有规则几何形状的特征目标的3D形状。
如图3a至3b所示,图3a是室内3D地图的示意图,图3b为根据图3a所示的3D地图的示意图构建的3D框架图的示意图。如图3a所示,室内的3D地图包括了柜子、柜子上摆放的各类物品、办公桌、办公桌之间的隔板、办公椅以及办公桌上放置的各类物品,再根据图3a所示的3D地图构建3D框架图时,由于柜子上摆放的各类物品、办公椅以及办公桌上放置的各类物品的空间坐标呈不规则变化,柜子、办公桌以及办公桌之间的隔板的空间坐标呈规则变化,因此将柜子上摆放的各类物品、办公椅以及办公桌上放置的各类物品忽略,提取构成柜子、办公桌以及办公桌之间的隔板的平面和/或线条,以构建柜子、办公桌以及办公桌之间的隔板的3D框架,从而构建与图3a所示的3D地图对应的3D框架图。可以理解的是,图3a所示的室内3D地图中柜子上绘制的长方体仅仅用于对放置在柜子上的各类物品进行表示,不表示放置在柜子上的各类物品的形状为长方体。
进一步的,如图4所示,步骤S102包括以下步骤:
S1021、在3D地图中查找到与3D框架图中表征的特征目标部分匹配的第一部分。
由于获取的3D框架图中表征了室内至少部分特征目标的3D形状,则可以根据表征的特征目标的3D形状在对应的3D地图中查找与3D框架图中表征的特征目标部分匹配的第一部分,从而缩小匹配检索范围。可以理解的是,根据特征目标进行匹配时,特征目标的3D形状、各自的位置以及各个特征目标之间的相对位置均需要匹配。例如,获取的3D框架图中表征的特征目标包括圆柱、窗、门和台阶,同时也表征了这些特征目标各自的位置和各个特征目标之间的相对位置;则在3D地图中查找到与3D框架图中表征的圆柱和窗的3D形状相同,且位置一致的第一部分,进而缩小匹配的检索范围。
S1022、在查找到的第一部分中查找到与3D框架图中表征的特征目标全部匹配的第二部分。
再在查找到的与3D框架图中表征的特征目标部分匹配的第一部分中,进一步针对3D框架图中所有被表征特征目标进行匹配,从而查找到与3D框架图中表征的特征目标全部匹配的第二部分。例如,步骤S1021中已经查找到了与3D框架图中表征的圆柱和窗的3D形状相同,且位置一致的第一部分,再在第一部分中查找与3D框架图中表征的圆柱、窗、门和台阶的3D形状相同,且位置一致的第二部分,此时,第二部分能够包含3D框架图中表征的全部特征目标。
S1023、将3D框架图定位于3D地图的第二部分中。
通过步骤S1022查找到了与3D框架图对应的第二部分,但可以理解的是,查找到的第二部分是3D地图中包含有3D框架图的空间,查找到的第二部分的空间范围大于3D框架图的范围,并不能完成定位。要达到准确定位,还需要根据3D框架图的边界处的特征目标的3D形状进一步将3D框架图定位于3D地图的第二部分中,进而实现准确定位。
此外,本实施例在步骤S1023中以将3D框架图定位于3D地图的第二部分中之后,还可以进一步确定室内的3D地图中已标识的标志物,判断3D框架图中表征的特征目标中是否存在标志物。若是,则在3D框架图中对表征的特征目标进行标记。若否,则在3D框架图中与标志物的位置相同处标示出标志物。
本实施例中,可以对室内的3D地图中包含了完整的物体的信息,且包含物体可能具有已有的标识,将具有标识的物体定义为标志物,例如在3D地图中显示的墙面和/或横梁上会使用文字在相应的位置上进行标识,类似于现有的2D地图中会有相应的文字标识。由于3D地图中标识的标志物不一定和3D框架图中的特征目标完全一致,可能会出现3D框架图中表征的特征目标不是3D地图中标识的标志物的情况。因此,可以根据3D框架图中表征的特征目标和3D地图中标识的标志物进行判断,若3D框架图中表征的特征目标中存在3D地图中标识的标志物,则在3D框架图中对表征的特征目标进行标记。若3D框架图中表征的特征目标中不存在3D地图中标识的标志物,则在3D框架图中与标志物的位置相同处标示出标志物。
可以理解的是,由于3D框架图中表征的特征目标可能为多个,且3D地图中标识的标志物也可能为多个,则可能出现3D框架图中表征的特征目标中一部分存在3D地图中标识的标志物,而另一部分不存在3D地图中标识的标志物的情况。例如3D框架图中表征了特征目标墙面、柱子和横梁,而3D地图中标识的标志物为墙面、柱子和椅子;此时,3D框架图中表征的特征目标中存在3D地图中标识的墙面和柱子,且3D框架图不存在3D地图中标识的椅子;则在3D框架图中对表征墙面和柱子的3D形状进行标记,和/或在3D框架图中与椅子的位置相同的地方标示出椅子。
请参照图5,图5是本发明室内定位方法第二实施例的流程示意图,该定位方法包括如下步骤:
S201、获取室内的3D框架图。
进一步的,如图6所示,步骤S201包括如下步骤:
S2011、获取室内的深度图像。
S2012、提取深度图像的深度值,根据深度值构建与深度图像对应的3D框架图。
本实施例中,步骤S2011和步骤S2012分别与图2所示的步骤S1011和步骤S1012相同,此处不再赘述。
S2013、根据3D框架图获取深度图像在3D地图中的姿态视角。
通过深度相机拍摄获取深度图像时,深度图像会具有其在3D地图中的姿态视角,即通过深度图像的姿态视角能够体现出深度相机拍摄时的角度、广角大小和空间位置。深度相机拍摄时的角度、广角大小和空间位置能够反映出用户在室内的具体的位置信息。
可以理解的是,3D框架图是有获取的深度图像构建得到的。因此,本实施例中获取的室内的3D框架图是与深度图像的姿态视角对应的室内的3D框架图。
因此,在根据获取的深度图像构建3D框架图之后,进一步获取深度图像在3D地图中的姿态视角,能够在将3D框架图与室内的3D地图进行匹配时,将姿态视角也作为匹配条件,能够提高定位的准确性。
S202、将3D框架图与室内的3D地图进行匹配,以完成室内定位。
进一步的,如图7所示,步骤S202包括如下步骤:
S2021、在3D地图中查找与姿态视角一致,且与3D框架图中表征的特征目标部分匹配的第一部分。
由于获取的3D框架图中表征了室内至少部分特征目标的3D形状,且通过3D框架图获得了深度图像对应的姿态视角。则可以根据表征的特征目标的3D形状以及姿态视角在对应的3D地图中进行查找与该姿态视角一致,且与3D框架图中表征的特征目标部分匹配的第一部分,从而缩小匹配检索范围。
本实施例不仅通过特征目标与3D地图进行匹配,同时通过姿态视角与3D地图进行匹配,在得到该3D框架图在3D地图中的位置的同时,也能得到该3D框架图对应的深度图像在3D地图中的空间角度,进一步提高的定位的准确度。
S2022、在查找到的第一部分中查找到与3D框架图中表征的特征目标全部匹配的第二部分。
S2023、将3D框架图定位于3D地图的第二部分中。
本实施例中,步骤S2022和步骤S2023分别与图4所示的步骤S1022和步骤S1023相同,此处不再赘述。
此外,在步骤S2023将3D框架图定位于3D地图的第二部分中之后,也可以进一步确定室内的3D地图中已标识的标志物,判断3D框架图中表征的特征目标中是否存在标志物。若是,则在3D框架图中对表征的特征目标进行标记。若否,则在3D框架图中与标志物的位置相同处标示出标志物。
请参照图8,图8是本发明室内定位系统第一实施例的功能模块图,该定位系统包括:
第一框架图获取模块101,用于获取室内的3D框架图。
第一匹配定位模块102,用于将3D框架图与室内的3D地图进行匹配,以完成室内定位。
进一步的,如图9所示,第一框架图获取模块101包括:
第一深度图像获取单元1011,用于获取室内的深度图像。
第一框架图构建单元1012,用于提取深度图像的深度值,根据深度值构建与深度图像对应的3D框架图。
进一步的,如图10所示,第一匹配定位模块102包括:
第一查找单元1021,用于在3D地图中查找到与3D框架图中表征的特征目标部分匹配的第一部分。
第二查找单元1022,用于在查找到的第一部分中查找到与3D框架图中表征的特征目标全部匹配的第二部分。
第一定位单元1023,用于将3D框架图定位于3D地图的第二部分中。
图8至图10所示的本发明定位系统第一实施例中的模块/单元分别与图1至图2,以及图4所示的定位方法第一实施例的步骤相对应,此处不再赘述。
请参照图11,图11是本发明室内定位系统第二实施例的功能模块图,该定位系统包括:
第二框架图获取模块201,用于获取室内的3D框架图。
第二匹配定位模块202,用于将3D框架图与室内的3D地图进行匹配,以完成室内定位。
进一步的,如图12所示,第二框架图获取模块201包括:
第二深度图像获取单元2011,用于获取室内的深度图像。
第二框架图构建单元2012,用于提取深度图像的深度值,根据深度值构建与深度图像对应的3D框架图。
姿态视角获取单元2013,用于根据3D框架图获取深度图像在3D地图中的姿态视角。
进一步的,如图13所示,第二匹配定位模块202包括:
第三查找单元2021,用于在3D地图中查找与姿态视角一致,且与3D框架图中表征的特征目标部分匹配的第一部分。
第四查找单元2022,用于在查找到的第一部分中查找到与3D框架图中表征的特征目标全部匹配的第二部分。
第二定位单元2023,用于将3D框架图定位于3D地图的第二部分中。
图11至图13所示的本发明定位系统第二实施例中的模块/单元分别与图5至图7所示的定位方法第一实施例的步骤相对应,此处不再赘述。
本发明通过构建表征有室内至少部分特征目标的3D框架图,利用3D框架表征需要用于定位的特征目标的几何形状,减少了图片的数据量;将该3D框架图与该室内的3D地图进行匹配,从而在该室内的3D地图中实现室内定位。由于3D框架图中包含了用于定位的特征目标的框架信息,使得定位时需要匹配的数据量大大减少,进而达到加快匹配速度,提高定位效率的目的。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围。
Claims (10)
1.一种室内定位方法,其特征在于,包括:
获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;
将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。
2.根据权利要求1所述的室内定位方法,其特征在于,所述将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位,包括:
在所述3D地图中查找到与所述3D框架图中表征的特征目标部分匹配的第一部分;
在所述查找到的第一部分中查找到与所述3D框架图中表征的特征目标全部匹配的第二部分;
将所述3D框架图定位于所述3D地图的第二部分中。
3.根据权利要求2所述的室内定位方法,其特征在于,所述获取所述室内的3D框架图,包括:
获取室内的深度图像;
提取所述深度图像的深度值,根据所述深度值构建与所述深度图像对应的3D框架图。
4.根据权利要求3所述的室内定位方法,其特征在于,在所述根据所述深度值构建与所述深度图像对应的3D框架图之后,还包括:
根据所述3D框架图获取所述深度图像在所述3D地图中的姿态视角。
5.根据权利要求4所述的室内定位方法,其特征在于,所述在所述3D地图中查找到与所述3D框架图中表征的特征目标部分匹配的第一部分,还包括:
在所述3D地图中查找与所述姿态视角一致,且与所述3D框架图中表征的特征目标部分匹配的第一部分。
6.根据权利要求2所述的室内定位方法,其特征在于,所述3D框架图中表征的特征目标由网格构成。
7.根据权利要求3所述的室内定位方法,其特征在于,所述提取所述深度图像的深度值,根据所述深度值构建与所述深度图像对应的3D框架图,包括:
提取所述深度图像中的深度值呈规则变化的平面和/或线条;
以所述平面和/或线条构建与所述深度图像对应的3D框架图。
8.根据权利要求2所述的室内定位方法,其特征在于,在所述将所述3D框架图定位于所述3D地图的第二部分中之后,包括:
确定所述3D地图的第二部分中已标识的标志物;
判断所述3D框架图中表征的特征目标中是否存在所述标志物;
若是,则在所述3D框架图中对所述表征的特征目标进行标记。
9.根据权利要求8所述的室内定位方法,其特征在于,还包括:
若所述3D框架图中表征的特征目标中不存在所述标志物,则在所述3D框架图中与所述标志物的位置相同处标示出所述标志物。
10.一种室内定位系统,其特征在于,包括:
第一框架图获取模块,用于获取室内的3D框架图,其中,所述3D框架图用于表征室内至少部分特征目标的3D形状;
第一匹配定位模块,用于将所述3D框架图与所述室内的3D地图进行匹配,以完成室内定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610988861.4A CN106568435B (zh) | 2016-11-09 | 2016-11-09 | 一种室内定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610988861.4A CN106568435B (zh) | 2016-11-09 | 2016-11-09 | 一种室内定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106568435A true CN106568435A (zh) | 2017-04-19 |
CN106568435B CN106568435B (zh) | 2019-05-31 |
Family
ID=58541003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610988861.4A Active CN106568435B (zh) | 2016-11-09 | 2016-11-09 | 一种室内定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106568435B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111189440A (zh) * | 2019-12-31 | 2020-05-22 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于空间信息模型与实时图像比对的定位导航方法 |
CN111854755A (zh) * | 2020-06-19 | 2020-10-30 | 深圳宏芯宇电子股份有限公司 | 室内定位方法、设备及计算机可读存储介质 |
CN112182279A (zh) * | 2020-12-03 | 2021-01-05 | 武大吉奥信息技术有限公司 | 一种基于离散网格与影像匹配的室内自定位方法及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096713A (zh) * | 2011-01-29 | 2011-06-15 | 广州都市圈网络科技有限公司 | 一种基于网格化二三维地图匹配方法及系统 |
CN102419631A (zh) * | 2010-10-15 | 2012-04-18 | 微软公司 | 虚拟内容到现实内容中的融合 |
CN103123727A (zh) * | 2011-11-21 | 2013-05-29 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN104599314A (zh) * | 2014-06-12 | 2015-05-06 | 深圳奥比中光科技有限公司 | 三维模型重建方法与系统 |
CN105674991A (zh) * | 2016-03-29 | 2016-06-15 | 深圳市华讯方舟科技有限公司 | 一种机器人定位方法和装置 |
-
2016
- 2016-11-09 CN CN201610988861.4A patent/CN106568435B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102419631A (zh) * | 2010-10-15 | 2012-04-18 | 微软公司 | 虚拟内容到现实内容中的融合 |
CN102096713A (zh) * | 2011-01-29 | 2011-06-15 | 广州都市圈网络科技有限公司 | 一种基于网格化二三维地图匹配方法及系统 |
CN103123727A (zh) * | 2011-11-21 | 2013-05-29 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN104599314A (zh) * | 2014-06-12 | 2015-05-06 | 深圳奥比中光科技有限公司 | 三维模型重建方法与系统 |
CN105674991A (zh) * | 2016-03-29 | 2016-06-15 | 深圳市华讯方舟科技有限公司 | 一种机器人定位方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111189440A (zh) * | 2019-12-31 | 2020-05-22 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于空间信息模型与实时图像比对的定位导航方法 |
CN111854755A (zh) * | 2020-06-19 | 2020-10-30 | 深圳宏芯宇电子股份有限公司 | 室内定位方法、设备及计算机可读存储介质 |
CN112182279A (zh) * | 2020-12-03 | 2021-01-05 | 武大吉奥信息技术有限公司 | 一种基于离散网格与影像匹配的室内自定位方法及设备 |
CN112182279B (zh) * | 2020-12-03 | 2021-03-19 | 武大吉奥信息技术有限公司 | 一种基于离散网格与影像匹配的室内自定位方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN106568435B (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102126724B1 (ko) | 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치 | |
US11360216B2 (en) | Method and system for positioning of autonomously operating entities | |
CN105279750B (zh) | 一种基于ir-uwb和图像矩的装备展示导览系统 | |
US11395100B2 (en) | Indoor positioning method, indoor positioning system, indoor positioning apparatus and computer readable medium | |
Liang et al. | Image based localization in indoor environments | |
Chen et al. | City-scale landmark identification on mobile devices | |
CN107709930B (zh) | 用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 | |
CN110226186B (zh) | 表示地图元素的方法和装置以及定位的方法和装置 | |
CN105143907B (zh) | 定位系统和方法 | |
US10127667B2 (en) | Image-based object location system and process | |
CN103703758A (zh) | 移动增强现实系统 | |
WO2013016258A1 (en) | Variable density depthmap | |
CN104221031A (zh) | 将影像特征与参考特征相匹配之方法及其所用集成电路 | |
CN103530881A (zh) | 适用于移动终端的户外增强现实无标志点跟踪注册方法 | |
CN103198473A (zh) | 一种深度图生成方法及装置 | |
US20170039450A1 (en) | Identifying Entities to be Investigated Using Storefront Recognition | |
CN106568435A (zh) | 一种室内定位方法及系统 | |
US20180247122A1 (en) | Method and system of providing information pertaining to objects within premises | |
Zhang et al. | Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired | |
Xue et al. | A fast visual map building method using video stream for visual-based indoor localization | |
CN113902802A (zh) | 视觉定位方法及相关装置、电子设备和存储介质 | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
CN103236083A (zh) | 基于立体影像库的实时三维测量方法 | |
CN110796706A (zh) | 视觉定位方法及系统 | |
Huang et al. | Multi-view and multi-scale localization for intelligent vehicles in underground parking lots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: 518057 Guangdong city of Shenzhen province Nanshan District Hing Road three No. 8 China University of Geosciences research base in building A808 Patentee after: Obi Zhongguang Technology Group Co., Ltd Address before: 518057 Guangdong city of Shenzhen province Nanshan District Hing Road three No. 8 China University of Geosciences research base in building A808 Patentee before: SHENZHEN ORBBEC Co.,Ltd. |