CN116295406A - 一种室内三维定位方法及系统 - Google Patents

一种室内三维定位方法及系统 Download PDF

Info

Publication number
CN116295406A
CN116295406A CN202310139826.5A CN202310139826A CN116295406A CN 116295406 A CN116295406 A CN 116295406A CN 202310139826 A CN202310139826 A CN 202310139826A CN 116295406 A CN116295406 A CN 116295406A
Authority
CN
China
Prior art keywords
positioning
dimensional
visual
target person
indoor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310139826.5A
Other languages
English (en)
Inventor
陈国良
束明聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202310139826.5A priority Critical patent/CN116295406A/zh
Priority to GBGB2308523.6A priority patent/GB202308523D0/en
Publication of CN116295406A publication Critical patent/CN116295406A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本发明公开一种室内三维定位方法及系统,涉及室内定位领域。该方法包括构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;基于视觉定位可信度,判断所述视觉定位结果是否可信;若是,输出所述视觉定位结果;若否,输出所述相对定位结果。本发明能够实现大范围场景下的实时、不间断定位。

Description

一种室内三维定位方法及系统
技术领域
本发明涉及室内三维定位领域,特别是涉及一种室内三维定位方法及系统。
背景技术
室内视觉定位技术主要分为视觉同时定位和映射(SimultaneousLocalizationAnd Mapping,SLAM)与基于先验地图的定位方法。基于视觉SLAM的定位技术已经普遍应用于当前的室内机器人定位与导航,特别是扫地机器人与服务机器人,而视觉SLAM技术无法直接应用于智能终端的定位与导航,主要难题是视觉特征连续追踪存在失效,特别是行人手持相机时的突然姿态变动,导致推算失败,同时视觉SLAM的累积误差无法避免,这就造成基于手机端的视觉SLAM技术无法为行人提供稳定连续的定位结果。与视觉SLAM不同的是,基于先验地图信息的视觉定位技术可以获取行人的全局三维位置信息,适用于行人在复杂室内场景下的三维定位。
基于先验地图信息的视觉定位方法中的依赖的地图信息分为两种,一种是图像标签信息,另一种是精确的三维模型(点云)信息。为了精准的获取行人三维位置,基于三维模型的视觉定位方法是当前应用较为广泛技术。基于先验三维模型的视觉定位分为两个阶段:离线三维模型构建和在线视觉特征匹配与位姿求解。当前基于先验地图信息的视觉定位方法依赖的先验信息是三维地图模型,相比于基于图像标签方法更准确,可以获得载体的6自由度位姿,实现行人精准三维位置估计。但仅通过视觉定位存在视觉偏差或匹配失效,导致无法连续定位,不能满足用户在大范围场景下的实时、不间断定位。
发明内容
本发明的目的是提供一种室内三维定位方法及系统,以解决无法连续定位,不能满足用户在大范围场景下的实时、不间断定位的问题。
为实现上述目的,本发明提供了如下方案:
一种室内三维定位方法,包括:
构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征;
当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果;
获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据;
基于视觉定位可信度,判断所述视觉定位结果是否可信;
若是,输出所述视觉定位结果;
若否,输出所述相对定位结果。
可选的,根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库,具体包括:
针对大范围室内场景,根据所述先验信息分段式重构小范围的三维模型;
对所述小范围的三维模型通过全站仪进行尺度校正,基于手工测绘与迭代最近点法将各个尺度校正后的三维模型进行拼接,形成所述定位区域的局部三维模型;
根据所述局部三维模型存储各个所述二维图像特征和3D点云特征,形成视觉定位先验数据库。
可选的,根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿,具体包括:
获取所述当前场景图像的2D特征;
将所述2D特征与所述3D点云特征进行对比关联,利用随机抽样一致算法确定所述2D特征与所述3D点云特征的特征匹配对;
利用PnP算法对所述特征匹配对的内点进行求解,确定相机位姿。
可选的,根据所述传感器数据确定相对定位结果,具体包括:
根据所述目标人员一步之内的加速度数据确定当前时刻步长;
获取所述目标人员的当前位置点,并根据所述当前位置点以及所述传感器数据确定所述目标人员当前时刻的位姿;
根据所述当前时刻步长、所述当前时刻的位姿以及上一时刻的航位确定所述目标人员的相对定位结果。
可选的,当所述目标人员为搜救人员时,根据递推公式确定所述搜救人员当前时刻的位姿。
可选的,所述递推公式为:
Figure BDA0004088052720000031
其中,
Figure BDA0004088052720000032
为k时刻目标人员的位置,/>
Figure BDA0004088052720000033
为k时刻目标人员的速度,/>
Figure BDA0004088052720000034
为k时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000035
为k-1时刻目标人员的位置,/>
Figure BDA0004088052720000036
为k-1时刻目标人员的速度,/>
Figure BDA0004088052720000037
为k-1时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000038
为k时刻目标人员的加速度数据,/>
Figure BDA0004088052720000039
为k时刻目标人员的角加速度数据,ba为采集所述加速度数据的加速度数据计的零偏,bg为采集所述角加速度数据的陀螺仪零偏,Δt为时间间隔,gn为导航坐标系重力向量,Ω为反对称矩阵。
一种室内三维定位系统,包括:
视觉定位先验数据库形成模块,用于构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征;
相机位姿确定模块,用于当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果;
基于MEMS的相对定位模块,用于获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据;
判断模块,用于基于视觉定位可信度,判断所述视觉定位结果是否可信;
视觉定位结果输出模块,用于输出所述视觉定位结果;
相对定位结果输出模块,用于输出所述相对定位结果。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供了一种室内三维定位方法及系统,利用手机内置MEMS惯性元件辅助视觉定位过程,通过获得的先验信息构建所述定位区域的三维模型,获得特征匹配子地图,形成视觉定位先验数据库,无需在全局地图下进行匹配,提高视觉定位时匹配效率,同时当视觉定位失效时,将基于MEMS的相对定位结果作为定位系统输出,保证定位的连续性。本发明基于手机内置MEMS以及相机进行融合,从而实现大范围场景下的实时、不间断定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为室内三维定位方法流程图;
图2为室内三维定位系统结构图;
图3为基于智能手机的三维地图模型构建示意图;
图4为基于视觉与惯性信息的松耦合流程图;
图5为具体应用展示图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种室内三维定位方法及系统,能够实现大范围场景下的实时、不间断定位。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,一种室内三维定位方法,包括:
步骤101:构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征。
构建先验地图,当确定定位区域后,测量人员手持智能手机并打开相机,对场景信息以30Hz帧率拍摄场景视频,保证构建模型的准确性,针对大范围室内场景,通过分段式重构三维模型;利用基于图像的三维重建软件,如Meshroom、Colmap、VisualSFM等;分段构建的三维模型通过全站仪进行尺度校正,并基于手动与迭代最近点法(IterativeClosestPoint,ICP)相结合的方式将各个小范围尺度校正过后的三维模型进行拼接,同时存储各二维图像特征和3D点云特征描述,形成视觉定位先验数据库。
步骤102:当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果。
在视觉定位阶段,用户发出定位请求,相机开启,并拍摄当前位置的场景图像,智能手机将当前场景图像上传至云端处理器,处理器提取当前场景图像的2D特征,并与视觉定位先验数据库中二维图像特征和3D点云特征进行对比关联;利用RANSAC方法确定当前图像2D特征与3D点云特征的可靠的特征匹配对,并通过匹配的内点进行PnP算法,获得相机位姿,并传输给用户。
步骤103:获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据。
步骤103具体包括:根据所述目标人员一步之内的加速度数据确定当前时刻步长;获取所述目标人员的当前位置点,并根据所述当前位置点以及所述传感器数据确定所述目标人员当前时刻的位姿;根据所述当前时刻步长、所述当前时刻的位姿以及上一时刻的航位确定所述目标人员的相对定位结果。
当所述目标人员为搜救人员时,根据递推公式确定所述搜救人员当前时刻的位姿。
所述递推公式为:
Figure BDA0004088052720000061
其中,
Figure BDA0004088052720000062
为k时刻目标人员的位置,/>
Figure BDA0004088052720000063
为k时刻目标人员的速度,/>
Figure BDA0004088052720000064
为k时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000065
为k-1时刻目标人员的位置,/>
Figure BDA0004088052720000066
为k-1时刻目标人员的速度,/>
Figure BDA0004088052720000067
为k-1时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000068
为k时刻目标人员的加速度数据,/>
Figure BDA0004088052720000069
为k时刻目标人员的角加速度数据,ba为采集所述加速度数据的加速度数据计的零偏,bg为采集所述角加速度数据的陀螺仪零偏,Δt为时间间隔,gn为导航坐标系重力向量,Ω为反对称矩阵。
步骤104:基于视觉定位可信度,判断所述视觉定位结果是否可信,若是,执行步骤105,若否,执行步骤106。
步骤105:输出所述视觉定位结果。
步骤106:输出所述相对定位结果。
本发明通过智能手机端的内置相机与MEMS实现行人精准三维定位方法,无须额外布置信号发射装置,适用于所有室内场景,视觉定位与惯性定位相结合,将全局定位与相对定位优势互补,实现三维空间下的分米级定位精度,在大范围的室内场景具有很好可行性与适用性,提升用户在室内大范围场景下的位置服务体验。
如图2所示,本发明还提供一种室内三维定位系统,包括:
视觉定位先验数据库形成模块,用于构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征。
相机位姿确定模块,用于当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果。
如图2所示,基于视觉的全局定位模块包括视觉定位先验数据库形成模块和相机位姿确定模块,用于测量人员利用智能手机相机或专业相机对定位区域的三维模型进行构建,采用运动恢复结构(Structure FromMotion,SFM)方法构建定位区域的先验信息,包括点云位置以及其对应的二维图像特征描述,其过程就是构建定位区域图像特征数据与点云信息数据的相互关联,即2D-3D数据映射。当用户发出定位请求时,手机相机打开,获取场景图像信息,同时提取图像ORB(Oriented FAST and RotatedBRIEF)特征,并将图像特征与局部三维模型特征进行匹配;为避免避免错误匹配,使用随机抽样一致算法(Random SampleConsensus,RANSAC)获得准确2D-3D的匹配,设定的迭代次数为500;匹配内点数达到阈值后,通过图像存储的可交换图像文件格式,获得相机内参,并通过解决N点透视问题(Perspective-n-Point,PnP)问题来PnP求解相机6自由度位姿。
基于MEMS的相对定位模块,用于获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据。
通过行人航迹推算获取二维定位结果,包括对行人行走步频、步长以及航向进行估计。利用基于内置MEMS的行人航迹推算定位方法可以快速获取用户平面位置信息,短时间内可以提供可靠的二维定位结果。
基于MEMS的相对定位模块是利用手机惯性组件,包括陀螺仪、加速度计与磁力计,进行用户运动状态信息采集,依据行人航迹推算与INS相结合获取相对三维位置。
基于MEMS的相对定位模块包括步态探测单元、步长确定单元、航向确定单元和航位确定单元。
所述步态探测单元用于根据所述目标人员的加速度数据,采用波峰检测和过零检测确定行走一步。
所述步长确定单元用于根据所述目标人员一步之内的加速度数据确定当前时刻步长。
所述航向确定单元用于根据所述目标人员当前位置点、所述传感器数据中的所述地磁场强度数据、所述角加速度数据、所述加速度数据确定当前时刻的所述目标人员的姿态。
所述航位确定单元用于根据当前时刻的所述目标人员的步长、姿态以及上一时刻的航位确定当前时刻的所述目标人员的航位,即相对定位结果。
当所述目标人员为搜救人员时,所述相对定位模块包括位姿编排单元、零速探测单元和零速修正单元。
所述位姿编排单元用于根据递推公式确定当前时刻的所述目标人员的位姿,所述递推公式表示为:
Figure BDA0004088052720000081
其中,
Figure BDA0004088052720000082
为k时刻目标人员的位置,/>
Figure BDA0004088052720000083
为k时刻目标人员的速度,/>
Figure BDA0004088052720000084
为k时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000085
为k-1时刻目标人员的位置,/>
Figure BDA0004088052720000086
为k-1时刻目标人员的速度,/>
Figure BDA0004088052720000087
为k-1时刻目标人员的姿态矩阵,/>
Figure BDA0004088052720000088
表示k时刻目标人员的加速度数据,/>
Figure BDA0004088052720000089
表示k时刻目标人员的角加速度数据,ba表示采集所述加速度数据的加速度计的零偏,bg表示采集所述角加速度数据的陀螺仪零偏,Δt为时间间隔,gn为导航坐标系重力向量,Ω为反对称矩阵。总体来说,就是用户利用智能手机内部MEMS组件,获得基于相对定位模块的定位结果。
判断模块,用于基于视觉定位可信度,判断所述视觉定位结果是否可信;
视觉定位结果输出模块,用于输出所述视觉定位结果。
相对定位结果输出模块,用于输出所述相对定位结果。
整个判断过程由松耦合融合定位模块进行判断,通过视觉定位可信度进行评估,判定视觉匹配是否失效,本申请中将常用的内点数作为阈值指标,当内点数小于12时,视觉定位结果不可信,即选择相信基于MEMS的相对定位结果,否则相信视觉定位结果。
室内场景模型如图3所示;在视觉定位阶段,用户发出定位请求,相机开启,并拍摄当前位置的场景图像,智能手机将图像上传至云端处理器,处理器将图像特征提取,并与数据库特征进行对比关联;利用RANSAC方法确定当前查询图像2D特征与3D点云信息的可信匹配,并通过匹配的内点进行PnP算法,获得相机位姿,并传输给用户。
如图4所示,为保证定位方法的实时性,用于大范围室内场景下的位置服务对定位效率要求较高,采用松耦合融合方式;具体为优先考虑视觉定位结果作为定位方法的输出,通断视觉定位过程中的特征匹配内点数判定视觉定位是否失效;当利用RANSAC方法进行2D-3D匹配时,迭代500次,内点数小于12时,匹配失败,无法获得可信视觉定位结果,那么选择使用基于MEMS的相对定位结果作为整个定位方法的输出,否则一直选择视觉定位的结果。
如图5所示,用户手持智能手机,通过本申请的定位方法,实现对行人的三维位置进行实时输出,并可为用户提供跨楼层的定位与导航服务。
本发明包括先验数据采集与三维模型的构建、基于MEMS相对定位、基于视觉的全局定位和视觉、松耦合的融合定位四个部分。
先验数据采集包括惯性数据与图像数据采集,用于感知用户当前位置的传感器数据;三维模型构建是通过智能手机的相机拍摄定位区域的分段视频,并利用运动恢复结构以及人工全站仪测量相结合的手段,获得定位区域的准确三维模型。
基于MEMS相对定位用于根据内置MEMS传感器数据获得用户相对运动过程,实现相对定位。
基于视觉的全局定位用于利用图像信息感知用户所处环境的图像信息,通过查询图像特征与先验地图数据库特征建立匹配并对相机位姿进行求解,获得用户精准三维位置。
松耦合的融合定位是实现整个定位方法的结果输出,为用户提供实时、准确、可靠、连续的三维定位结果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (7)

1.一种室内三维定位方法,其特征在于,包括:
构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征;
当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果;
获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据;
基于视觉定位可信度,判断所述视觉定位结果是否可信;
若是,输出所述视觉定位结果;
若否,输出所述相对定位结果。
2.根据权利要求1所述的室内三维定位方法,其特征在于,根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库,具体包括:
针对大范围室内场景,根据所述先验信息分段式重构小范围的三维模型;
对所述小范围的三维模型通过全站仪进行尺度校正,基于手工测绘与迭代最近点法将各个尺度校正后的三维模型进行拼接,形成所述定位区域的局部三维模型;
根据所述局部三维模型存储各个所述二维图像特征和3D点云特征,形成视觉定位先验数据库。
3.根据权利要求1所述的室内三维定位方法,其特征在于,根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿,具体包括:
获取所述当前场景图像的2D特征;
将所述2D特征与所述3D点云特征进行对比关联,利用随机抽样一致算法确定所述2D特征与所述3D点云特征的特征匹配对;
利用PnP算法对所述特征匹配对的内点进行求解,确定相机位姿。
4.根据权利要求1所述的室内三维定位方法,其特征在于,根据所述传感器数据确定相对定位结果,具体包括:
根据所述目标人员一步之内的加速度数据确定当前时刻步长;
获取所述目标人员的当前位置点,并根据所述当前位置点以及所述传感器数据确定所述目标人员当前时刻的位姿;
根据所述当前时刻步长、所述当前时刻的位姿以及上一时刻的航位确定所述目标人员的相对定位结果。
5.根据权利要求4所述的室内三维定位方法,其特征在于,当所述目标人员为搜救人员时,根据递推公式确定所述搜救人员当前时刻的位姿。
6.根据权利要求5所述的室内三维定位方法,其特征在于,所述递推公式为:
Figure FDA0004088052690000021
其中,
Figure FDA0004088052690000022
为k时刻目标人员的位置,/>
Figure FDA0004088052690000023
为k时刻目标人员的速度,/>
Figure FDA0004088052690000024
为k时刻目标人员的姿态矩阵,/>
Figure FDA0004088052690000025
为k-1时刻目标人员的位置,/>
Figure FDA0004088052690000026
为k-1时刻目标人员的速度,/>
Figure FDA0004088052690000027
为k-1时刻目标人员的姿态矩阵,/>
Figure FDA0004088052690000028
为k时刻目标人员的加速度数据,/>
Figure FDA0004088052690000029
为k时刻目标人员的角加速度数据,ba为采集所述加速度数据的加速度数据计的零偏,bg为采集所述角加速度数据的陀螺仪零偏,Δt为时间间隔,gn为导航坐标系重力向量,Ω为反对称矩阵。
7.一种室内三维定位系统,其特征在于,包括:
视觉定位先验数据库形成模块,用于构建室内场景中定位区域的先验信息,并根据所述先验信息构建所述定位区域的局部三维模型,形成视觉定位先验数据库;所述先验信息包括点云位置以及二维图像特征;所述视觉定位先验数据库包括二维图像特征和3D点云特征;
相机位姿确定模块,用于当目标人员发出定位请求时,利用手机相机获取当前场景图像,并根据所述当前场景图像以及所述视觉定位先验数据库确定相机位姿;所述相机位姿为视觉定位结果;
基于MEMS的相对定位模块,用于获取手机内置MEMS惯性元件的传感器数据,并根据所述传感器数据确定相对定位结果;所述传感器数据包括磁场强度数据、角加速度数据以及加速度数据;
判断模块,用于基于视觉定位可信度,判断所述视觉定位结果是否可信;
视觉定位结果输出模块,用于输出所述视觉定位结果;
相对定位结果输出模块,用于输出所述相对定位结果。
CN202310139826.5A 2023-02-20 2023-02-20 一种室内三维定位方法及系统 Pending CN116295406A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202310139826.5A CN116295406A (zh) 2023-02-20 2023-02-20 一种室内三维定位方法及系统
GBGB2308523.6A GB202308523D0 (en) 2023-02-20 2023-06-08 Indoor three-dimensional (3D) localization method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310139826.5A CN116295406A (zh) 2023-02-20 2023-02-20 一种室内三维定位方法及系统

Publications (1)

Publication Number Publication Date
CN116295406A true CN116295406A (zh) 2023-06-23

Family

ID=86795262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310139826.5A Pending CN116295406A (zh) 2023-02-20 2023-02-20 一种室内三维定位方法及系统

Country Status (2)

Country Link
CN (1) CN116295406A (zh)
GB (1) GB202308523D0 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580099A (zh) * 2023-07-14 2023-08-11 山东艺术学院 一种基于视频与三维模型融合的林地目标定位方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580099A (zh) * 2023-07-14 2023-08-11 山东艺术学院 一种基于视频与三维模型融合的林地目标定位方法

Also Published As

Publication number Publication date
GB202308523D0 (en) 2023-07-26

Similar Documents

Publication Publication Date Title
CN108230379B (zh) 用于融合点云数据的方法和装置
CN107990899B (zh) 一种基于slam的定位方法和系统
CN107888828B (zh) 空间定位方法及装置、电子设备、以及存储介质
CN111199564B (zh) 智能移动终端的室内定位方法、装置与电子设备
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
Chen et al. Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing
KR20190082070A (ko) 지도 생성 및 운동 객체 위치 결정 방법 및 장치
CN110553648A (zh) 一种用于室内导航的方法和系统
CN110335317B (zh) 基于终端设备定位的图像处理方法、装置、设备和介质
KR20220028042A (ko) 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN113406682B (zh) 一种定位方法、装置、电子设备及存储介质
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
KR102564430B1 (ko) 차량의 제어 방법, 장치 및 차량
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
EP2715667A1 (en) Planar mapping and tracking for mobile devices
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
WO2013006534A1 (en) Mobile augmented reality system
CN112556685B (zh) 导航路线的显示方法、装置和存储介质及电子设备
CN110335351B (zh) 多模态ar处理方法、装置、系统、设备及可读存储介质
CN112819860A (zh) 视觉惯性系统初始化方法及装置、介质和电子设备
CN112348887A (zh) 终端位姿确定方法以及相关装置
CN116295406A (zh) 一种室内三维定位方法及系统
CN112731503B (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN113063421A (zh) 导航方法及相关装置、移动终端、计算机可读存储介质
CN112985394A (zh) 定位方法和装置、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination