CN111595342B - 一种可大规模部署的室内定位方法及系统 - Google Patents
一种可大规模部署的室内定位方法及系统 Download PDFInfo
- Publication number
- CN111595342B CN111595342B CN202010340248.8A CN202010340248A CN111595342B CN 111595342 B CN111595342 B CN 111595342B CN 202010340248 A CN202010340248 A CN 202010340248A CN 111595342 B CN111595342 B CN 111595342B
- Authority
- CN
- China
- Prior art keywords
- matrix
- mobile terminal
- posture
- image
- terminal equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 239000011159 matrix material Substances 0.000 claims description 119
- 230000008569 process Effects 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 7
- 238000010276 construction Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000272814 Anser sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C1/00—Measuring angles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明实施例公开了一种可大规模部署的室内定位方法及系统,在定位场景中多个特征位置部署编码标定点,通过移动终端设备中的图像采集器采集定位场景图像,识别图像中的编码标定点,并通过姿态识别得到第一姿态矩阵,通过视觉惯性里程计得到第二姿态矩阵,计算获得移动终端设备的初始绝对位置及姿态,最后计算获得移动终端设备的当前绝对位置及姿态。综合采用了机器视觉和视觉惯性里程计结合的方法,定位精度为0.54m,定位精度高,对设备要求低,测试成本低,可进行大规模的部署和应用。
Description
技术领域
本发明实施例涉及室内定位技术领域,具体涉及一种可大规模部署的室内定位方法及系统。
背景技术
室内定位是指在室内环境中实现位置定位,主要采用无线通讯、基站定位、惯导定位等多种技术集成形成一套室内位置定位体系,从而实现人员、物体等在室内空间中的位置监控。现有的室内定位方法主要是基于无线信号(蓝牙/wifi)定位,或是基于激光雷达/深度图像采集器的SLAM方法,SLAM(simultaneous localization and mapping),也称为CML(Concurrent Mapping and Localization)是指即时定位与地图构建,或并发建图与定位,问题可以描述为:将一个机器人放入未知环境中的未知位置,是否有办法让机器人一边移动一边逐步描绘出此环境完全的地图,所谓完全的地图(a consistent map)是指不受障碍行进到房间可进入的每个角落。现有的基于无线信号的定位方法,业界定位精度约为1m,精度较差,且大规模部署时需要较长的校准时间;而基于SLAM的方法通常需要专业器材,部署成本较高,且对环境的要求较高。
发明内容
为此,本发明实施例提供一种可大规模部署的室内定位方法及系统,以解决现有的室内定位方法大规模部署时成本高、精度较差的问题。
为了实现上述目的,本发明实施例提供如下技术方案:
根据本发明实施例的第一方面,提出了一种可大规模部署的室内定位方法,所述方法包括:
选取定位场景中的多个特征位置并分别部署编码标定点,记录所述编码标定点在定位场景中的真实三维坐标;
通过设置于移动终端设备中的图像采集器在移动过程中采集真实定位场景图像;
识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵;
在视觉惯性里程计中,根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵;
根据识别到的初始位置图像中的编码标定点,获取初始位置图像中编码标定点的真实三维坐标,并结合所述第一姿态矩阵,计算获得所述移动终端设备在真实定位场景中的初始绝对位置及姿态;
根据所述移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态。
进一步地,所述方法还包括:
在移动过程中,如果图像采集器视野内出现编码标记点,自动进行位置校准,具体包括:
识别编码标记点,获取当前移动位置图像中编码标定点的真实三维坐标,并结合计算获得的移动终端设备的当前绝对位置及姿态,估算移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到预估姿态矩阵;
对当前移动位置图像中识别的编码标定点进行姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第三姿态矩阵;
根据预估姿态矩阵和第三姿态矩阵进行校准获得第四姿态矩阵;
根据当前移动位置图像中编码标定点的真实三维坐标以及第四姿态矩阵,计算获得校正后的初始绝对位置及姿态;
根据校正后的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备的当前绝对位置及姿态。
进一步地,根据预估姿态矩阵和第三姿态矩阵进行校正获得第四姿态矩阵,具体包括:
将所述预估姿态矩阵和第三姿态矩阵通过刚体变换计算分别拆分为位置矩阵和旋转矩阵,并按照如下公式进行校准:
对于旋转角度的校准:R=R1*α+R2*(1-α),0.8<α<1;
对于位置的校准:P=P1*β+P2*(1-β),0<β≤0.2;
其中,R为第四姿态矩阵的旋转矩阵,P为第四姿态矩阵的位置矩阵,R1为预估姿态矩阵的旋转矩阵,P1为预估姿态矩阵的位置矩阵,R2为第三姿态矩阵的旋转矩阵,P2为第三姿态矩阵的位置矩阵。
进一步地,识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵,具体还包括:
识别过程为1秒使用低通滤波和滑动窗口均值滤波增加姿态识别准确率。
进一步地,所述方法还包括:
将采集到的真实定位场景图像和预先创建的与编码标定点对应的3D虚拟物体进行融合构建AR场景,其中,所述3D虚拟物体中赋值有所述编码标定点的ID和真实三维坐标;
当识别到图像中的编码标定点时,解码获取编码标定点的ID,并根据识别到的编码标定点的ID以及对应的3D虚拟物体,在所述AR场景中查询获得初始位置图像中编码标定点的真实三维坐标。
进一步地,选取定位场景中的多个特征位置并分别部署编码标定点,具体包括:
获取定位场景的平面建筑图,选取平面建筑图中的多个特征位置在真实定位场景中进行编码标定点部署。
进一步地,所述特征位置包括支柱、墙角、门框位置。
进一步地,所述编码标定点采用ArUco DICT_6×6_250编码方式。
根据本发明实施例的第二方面,提出了一种可大规模部署的室内定位系统,所述系统包括:
多个编码标定点,所述编码标定点分别部署在所选取的定位场景中的多个特征位置处,记录所述编码标定点在定位场景中的真实三维坐标;
图像采集器,所述图像采集器设置在移动终端设备中,用于在移动过程中采集真实定位场景图像;
图像感知器,用于识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵;
视觉惯性里程计,用于根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵;
定位处理器,用于根据识别到的初始位置图像中编码标定点,获取初始位置图像中编码标定点的真实三维坐标,并结合所述第一姿态矩阵,计算获得所述移动终端设备在真实定位场景中的初始绝对位置及姿态;
根据所述移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态。
进一步地,所述移动终端设备包括手机。
本发明实施例具有如下优点:
本发明实施例提出的一种可大规模部署的室内定位方法及系统,在定位场景中多个特征位置部署编码标定点,通过移动终端设备中的图像采集器采集定位场景图像,识别图像中的编码标定点,通过姿态识别得到第一姿态矩阵,通过视觉惯性里程计得到第二姿态矩阵,计算获得移动终端设备的初始绝对位置及姿态,最后计算获得移动终端设备的当前绝对位置及姿态。综合采用了机器视觉和视觉惯性里程计结合的方法,定位精度为0.54m,定位精度高,对设备要求低,测试成本低,可进行大规模的部署和应用。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
图1为本发明实施例1提供的一种可大规模部署的室内定位方法的流程示意图;
图2为本发明实施例1提供的一种可大规模部署的室内定位系统的结构示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明实施例提出了一种可大规模部署的室内定位方法,具体如图1所示,该方法包括以下步骤:
步骤110、选取定位场景中的多个特征位置并分别部署编码标定点,记录编码标定点在定位场景中的真实三维坐标。
具体的,首先获取定位场景的平面建筑图,选取平面建筑图中的多个特征位置在真实定位场景中进行编码标定点部署,特征位置包括支柱、墙角、门框等多个特征点。编码标定点采用ArUco DICT_6×6_250编码方式,每个编码标定点具有其特定的ID,将打印的编码标定点图像贴在特征位置处,标定点图像的大小为10*10cm。
步骤120、通过设置于移动终端设备中的移动终端设备在移动过程中采集真实定位场景图像。
具体的,可以通过手持手机等移动终端设备上的图像采集器,一边移动一边在定位场景中进行拍摄。图像采集器为摄像头。不需要对手机的图像采集器进行校准。
具体的,可以通过在移动终端设备中安装AR应用程序实现AR场景的构建,本实施例中,AR应用程序为goole ARcore应用程序。在安装ARcore之前,基于Unity3D开发平台,导入用于Unity的ARCore软件开发包,在开发平台的虚拟场景中创建编码标定点对应的3D虚拟物体,将编码标定点的ID和真实三维坐标赋值到对应的3D虚拟物体中,生成ARCore应用程序包,最后将ARCore应用程序包导出并安装至支持ARCore服务的移动终端设备中。通过将采集到的真实定位场景图像与预先创建的与编码标定点对应的3D虚拟物体进行融合构建AR场景,3D虚拟物体中赋值有编码标定点的ID和真实三维坐标,在计算过程中可以在运行的AR场景中查询到编码标定点的真实三维坐标。
步骤130、识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵。
首先采用通过机器视觉方法识别编码标定点来获取移动终端设备设备在室内场景中的初始绝对位置。具体的,首先进行标记点识别,从CPU读取图像并使用基于OpenCV的图像感知器结合边缘检测算法对图像进行分割、旋转和去畸变处理,然后使用图像感知器识别图像中的编码标定点,解码获取编码标定点的ID,并通过姿态识别获得编码标定点相对于终端设备的相对位置和相对旋转信息,并在姿态识别过程为1秒使用低通滤波和滑动窗口均值滤波增加姿态识别准确率,得到第一姿态矩阵T0。
步骤140、在视觉惯性里程计中,根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵。
具体的,基于ARcore应用搭载的视觉惯性里程计VIO SLAM方法,对图像采集器采集的图像经预处理后进行特征点提取,结合惯性测量单元IMU采集的姿态角及加速度数据进行姿态估计,基于扩展卡尔曼滤波方法最终获得移动终端设备在当前位置于初始位置的相对位置和相对旋转信息,得到第二姿态矩阵B。
步骤150、根据识别到的初始位置图像中编码标定点,获得初始位置图像中编码标定点的真实三维坐标,并结合第一姿态矩阵,计算获得移动终端设备在真实定位场景中的初始绝对位置及姿态。
具体的,通过图像感知器识别到初始位置图像中的编码标定点,解码获取初始位置图像中编码标定点的ID,根据编码标定点的ID可以在APP运行时的AR场景中查找对应标定点的真实三维坐标,转换为姿态矩阵A,则移动终端设备的初始绝对位置姿态矩阵I=T0 -1*A。
步骤160、根据移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态。
具体的,移动终端设备的当前绝对位置及姿态矩阵C=I*B。
移动终端设备在移动的过程中,由于陀螺仪的漂移,随着相对初始位置移动距离的增加,误差也会不断累积。在移动过程中,如果图像采集器视野内出现编码标记点,自动进行位置校准,具体包括:
识别编码标记点,获取当前移动位置图像中编码标定点的真实三维坐标(绝对位置),并结合系统计算获得的移动终端设备的当前绝对位置及姿态,估算移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到预估姿态矩阵T1;
再通过基于OpenCV的图像感知器对当前移动位置图像中识别的编码标定点进行姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第三姿态矩阵T2;
根据预估姿态矩阵T1和第三姿态矩阵T2进行校准获得第四姿态矩阵T,具体包括:
将预估姿态矩阵T1和第三姿态矩阵T2通过刚体变换计算分别拆分为位置矩阵和旋转矩阵,由于T1矩阵对设备姿态的角度预估准确率要高于T2矩阵,因此按照如下公式进行校准:
对于旋转角度的校准:R=R1*α+R2*(1-α),0.8<α<1;
对于位置的校准:P=P1*β+P2*(1-β),0<β≤0.2;
其中,α、β的值可根据实际环境进行调节,一般取值为α=0.9,β=0.2,R为第四姿态矩阵的旋转矩阵,P为第四姿态矩阵的位置矩阵,R1为预估姿态矩阵的旋转矩阵,P1为预估姿态矩阵的位置矩阵,R2为第三姿态矩阵的旋转矩阵,P2为第三姿态矩阵的位置矩阵;
然后按照以上的定位计算过程获得校准后的位置及姿态信息,具体为:根据当前移动位置图像中编码标定点的真实三维坐标以及第四姿态矩阵,计算获得校正后的初始绝对位置及姿态;
根据校正后的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备的当前绝对位置及姿态。
最后,读取CPU中当前采集的图像,使用移动终端设备的当前绝对位置及姿态对采集到的当前移动位置图像进行命名并存储,其中姿态信息采用四元数形式表示,将图像存储在应用根目录文件中。
为了测试该方法,选取G教学楼为测试点,并在G楼的2楼和3楼各部署了12个标定点,并在2楼和3楼内选取了40个点,用人工测量的方式获取到这40个点的准确坐标,并让十五名被试者持设备在通过这40个点的两条路线上以不同的方向、不同的行走速度以及不同的光照条件和校准频率的情况下进行数据采集,通过对实验数据进行分析,且α设置为0.9,β设置为0.1,得到在不同情况下的误差值。经测试,该方法的定位精度平均值为0.54m。
本发明实施例提出的一种可大规模部署的室内定位方法,在定位场景中多个特征位置部署编码标定点,通过移动终端设备中的图像采集器采集定位场景图像,识别图像中的编码标定点,通过姿态识别得到第一姿态矩阵,通过视觉惯性里程计得到第二姿态矩阵,计算获得移动终端设备的初始绝对位置及姿态,最后计算获得移动终端设备的当前绝对位置及姿态。综合采用了机器视觉和视觉惯性里程计结合的方法,定位精度为0.54m,定位精度高,对设备要求低,测试成本低,可进行大规模的部署和应用。
实施例2
本发明实施例2提出了一种可大规模部署的室内定位系统,具体如图2所示,该系统包括:
多个编码标定点,编码标定点分别部署在所选取的定位场景中的多个特征位置处,记录编码标定点在定位场景中的真实三维坐标;
图像采集器,图像采集器设置在移动终端设备中,用于在移动过程中采集真实定位场景图像;
图像感知器,用于识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵;
视觉惯性里程计,用于根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵;
定位处理器,用于根据识别到的初始位置图像中编码标定点,获取初始位置图像中编码标定点的真实三维坐标,并结合第一姿态矩阵,计算获得移动终端设备在真实定位场景中的初始绝对位置及姿态;
根据移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态。
进一步地,移动终端设备包括手机。
本发明实施例提供的一种可大规模部署的室内定位系统中各部件所执行的功能均已在实施例1所提供的一种可大规模部署的室内定位方法中做了详细说明,这里将不再赘述。
本发明实施例提出的一种可大规模部署的室内定位系统,在定位场景中多个特征位置部署编码标定点,通过移动终端设备中的图像采集器采集定位场景图像,识别图像中的编码标定点,通过姿态识别得到第一姿态矩阵,通过视觉惯性里程计得到第二姿态矩阵,计算获得移动终端设备的初始绝对位置及姿态,最后计算获得移动终端设备的当前绝对位置及姿态。综合采用了机器视觉和视觉惯性里程计结合的方法,定位精度为0.54m,定位精度高,对设备要求低,测试成本低,可进行大规模的部署和应用。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (9)
1.一种可大规模部署的室内定位方法,其特征在于,所述方法包括:选取定位场景中的多个特征位置并分别部署编码标定点,记录所述编码标定点在定位场景中的真实三维坐标;通过设置于移动终端设备中的图像采集器在移动过程中采集真实定位场景图像;识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵;在视觉惯性里程计中,根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵;根据识别到的初始位置图像中的编码标定点,获取初始位置图像中编码标定点的真实三维坐标,并结合所述第一姿态矩阵,计算获得所述移动终端设备在真实定位场景中的初始绝对位置及姿态;根据所述移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态;
所述方法还包括:在移动过程中,如果图像采集器视野内出现编码标记点,自动进行位置校准,具体包括:识别编码标记点,获取当前移动位置图像中编码标定点的真实三维坐标,并结合计算获得的移动终端设备的当前绝对位置及姿态,估算移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到预估姿态矩阵;对当前移动位置图像中识别的编码标定点进行姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第三姿态矩阵;根据预估姿态矩阵和第三姿态矩阵进行校准获得第四姿态矩阵;根据当前移动位置图像中编码标定点的真实三维坐标以及第四姿态矩阵,计算获得校正后的初始绝对位置及姿态;根据校正后的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备的当前绝对位置及姿态。
2.根据权利要求1所述的一种可大规模部署的室内定位方法,其特征在于,根据预估姿态矩阵和第三姿态矩阵进行校正获得第四姿态矩阵,具体包括:将所述预估姿态矩阵和第三姿态矩阵通过刚体变换计算分别拆分为位置矩阵和旋转矩阵,并按照如下公式进行校准:对于旋转角度的校准:R=R1*α+R2*(1-α),0.8<α<1;对于位置的校准:P=P1*β+P2*(1-β),0<β≤0.2;其中,R为第四姿态矩阵的旋转矩阵,P为第四姿态矩阵的位置矩阵,R1为预估姿态矩阵的旋转矩阵,P1为预估姿态矩阵的位置矩阵,R2为第三姿态矩阵的旋转矩阵,P2为第三姿态矩阵的位置矩阵。
3.根据权利要求1所述的一种可大规模部署的室内定位方法,其特征在于,识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵,具体还包括:在1秒的滑动时间窗口内,使用低通滤波和滑动窗口均值滤波增加姿态识别准确率。
4.根据权利要求1所述的一种可大规模部署的室内定位方法,其特征在于,所述方法还包括:将采集到的真实定位场景图像和预先创建的与编码标定点对应的3D虚拟物体进行融合构建AR场景,其中,所述3D虚拟物体中赋值有所述编码标定点的ID和真实三维坐标;当识别到图像中的编码标定点时,解码获取编码标定点的ID,并根据识别到的编码标定点的ID以及对应的3D虚拟物体,在所述AR场景中查询获得初始位置图像中编码标定点的真实三维坐标。
5.根据权利要求1所述的一种可大规模部署的室内定位方法,其特征在于,选取定位场景中的多个特征位置并分别部署编码标定点,具体包括:获取定位场景的平面建筑图,选取平面建筑图中的多个特征位置在真实定位场景中进行编码标定点部署。
6.根据权利要求5所述的一种可大规模部署的室内定位方法,其特征在于,所述特征位置包括支柱、墙角、门框位置。
7.根据权利要求1所述的一种可大规模部署的室内定位方法,其特征在于,所述编码标定点采用ArUco DICT_6×6_250编码方式。
8.一种可大规模部署的室内定位系统,其特征在于,所述系统包括:多个编码标定点,所述编码标定点分别部署在所选取的定位场景中的多个特征位置处,记录所述编码标定点在定位场景中的真实三维坐标;图像采集器,所述图像采集器设置在移动终端设备中,用于在移动过程中采集真实定位场景图像;图像感知器,用于识别采集到的图像中的编码标定点,并通过姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第一姿态矩阵;视觉惯性里程计,用于根据采集的图像以及IMU测得的数据,计算获取移动终端设备在移动过程中当前位置及姿态相对于初始位置及姿态的相对位置和相对旋转信息,得到第二姿态矩阵;定位处理器,用于根据识别到的初始位置图像中编码标定点,获取初始位置图像中编码标定点的真实三维坐标,并结合所述第一姿态矩阵,计算获得所述移动终端设备在真实定位场景中的初始绝对位置及姿态;根据所述移动终端设备的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备在真实定位场景中的当前绝对位置及姿态;
在移动过程中,如果图像采集器视野内出现编码标记点,自动进行位置校准,具体包括:识别编码标记点,获取当前移动位置图像中编码标定点的真实三维坐标,并结合计算获得的移动终端设备的当前绝对位置及姿态,估算移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到预估姿态矩阵;对当前移动位置图像中识别的编码标定点进行姿态识别获取移动终端设备相对于编码标定点的相对位置和相对旋转信息,得到第三姿态矩阵;根据预估姿态矩阵和第三姿态矩阵进行校准获得第四姿态矩阵;根据当前移动位置图像中编码标定点的真实三维坐标以及第四姿态矩阵,计算获得校正后的初始绝对位置及姿态;根据校正后的初始绝对位置及姿态和第二姿态矩阵,计算获得移动终端设备的当前绝对位置及姿态。
9.根据权利要求8所述的一种可大规模部署的室内定位系统,其特征在于,所述移动终端设备包括手机。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020102557532 | 2020-04-02 | ||
CN202010255753 | 2020-04-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111595342A CN111595342A (zh) | 2020-08-28 |
CN111595342B true CN111595342B (zh) | 2022-03-18 |
Family
ID=72187667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010340248.8A Active CN111595342B (zh) | 2020-04-02 | 2020-04-26 | 一种可大规模部署的室内定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111595342B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112118436A (zh) * | 2020-09-18 | 2020-12-22 | 联想(北京)有限公司 | 一种基于增强现实装置的图像呈现方法、装置及系统 |
CN112304305A (zh) * | 2020-10-31 | 2021-02-02 | 中环曼普科技(南京)有限公司 | 一种结合marker图像的车辆初始定位方法及系统 |
CN112785530B (zh) * | 2021-02-05 | 2024-05-24 | 广东九联科技股份有限公司 | 用于虚拟现实的图像渲染方法、装置、设备及vr设备 |
CN114693754B (zh) * | 2022-05-30 | 2022-08-19 | 湖南大学 | 一种基于单目视觉惯导融合的无人机自主定位方法与系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108225375A (zh) * | 2018-01-08 | 2018-06-29 | 哈尔滨工程大学 | 一种基于中值滤波的抗外速度野值的优化粗对准方法 |
CN110411476A (zh) * | 2019-07-29 | 2019-11-05 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计标定适配及评价方法和系统 |
CN110794955A (zh) * | 2018-08-02 | 2020-02-14 | 广东虚拟现实科技有限公司 | 定位跟踪方法、装置、终端设备及计算机可读取存储介质 |
-
2020
- 2020-04-26 CN CN202010340248.8A patent/CN111595342B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108225375A (zh) * | 2018-01-08 | 2018-06-29 | 哈尔滨工程大学 | 一种基于中值滤波的抗外速度野值的优化粗对准方法 |
CN110794955A (zh) * | 2018-08-02 | 2020-02-14 | 广东虚拟现实科技有限公司 | 定位跟踪方法、装置、终端设备及计算机可读取存储介质 |
CN110411476A (zh) * | 2019-07-29 | 2019-11-05 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计标定适配及评价方法和系统 |
Non-Patent Citations (3)
Title |
---|
"Concurrent Estimation of Robot Pose and Landmark Locations in Underwater Robot";Tae Gyun Kim;《2013 13th International Conference on Control, Automation and Systems (ICCAS 2013)》;20131023;正文第195-197页 * |
"MEMS IMU Based Pedestrian Indoor Navigation";Md Abid Hasan;《Wireless Pers Commun (2018)》;20181231;正文第287-302页 * |
视觉和IMU融合的移动机器人运动解耦估计;路丹晖等;《浙江大学学报(工学版)》;20120630(第06期);正文第1021-1026页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111595342A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111595342B (zh) | 一种可大规模部署的室内定位方法及系统 | |
CN110009681B (zh) | 一种基于imu辅助的单目视觉里程计位姿处理方法 | |
US11704833B2 (en) | Monocular vision tracking method, apparatus and non-transitory computer-readable storage medium | |
CN107888828B (zh) | 空间定位方法及装置、电子设备、以及存储介质 | |
WO2018142900A1 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
JP5832341B2 (ja) | 動画処理装置、動画処理方法および動画処理用のプログラム | |
CN110310362A (zh) | 基于深度图及imu的高动态场景三维重建方法、系统 | |
CN109461208B (zh) | 三维地图处理方法、装置、介质和计算设备 | |
US20150235367A1 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
CN108871311B (zh) | 位姿确定方法和装置 | |
CN111197984A (zh) | 一种基于环境约束下的视觉-惯性运动估计方法 | |
CN107449444A (zh) | 一种多星图姿态关联的星敏感器内参数标定方法及其装置 | |
CN111665512A (zh) | 基于3d激光雷达和惯性测量单元的融合的测距和绘图 | |
CN113701750A (zh) | 一种井下多传感器的融合定位系统 | |
CN110675455A (zh) | 一种基于自然场景的车身环视相机自标定方法和系统 | |
CN115371665A (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
TW201830336A (zh) | 位置姿勢推定裝置以及位置姿勢推定方法 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
JP4132068B2 (ja) | 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム | |
EP4332631A1 (en) | Global optimization methods for mobile coordinate scanners | |
CN116202511B (zh) | 长巷道超宽带一维约束下的移动装备位姿确定方法及装置 | |
CN111862146A (zh) | 一种目标对象的定位方法及装置 | |
CN107883979B (zh) | 用于统一惯性传感器坐标系和参考坐标系的方法和系统 | |
CN116203976A (zh) | 变电站室内巡检方法、装置、无人机和存储介质 | |
CN115560744A (zh) | 机器人以及基于多传感器的三维建图方法、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |