CN112529962A - 一种基于视觉算法的室内空间关键定位技术方法 - Google Patents

一种基于视觉算法的室内空间关键定位技术方法 Download PDF

Info

Publication number
CN112529962A
CN112529962A CN202011542365.9A CN202011542365A CN112529962A CN 112529962 A CN112529962 A CN 112529962A CN 202011542365 A CN202011542365 A CN 202011542365A CN 112529962 A CN112529962 A CN 112529962A
Authority
CN
China
Prior art keywords
imu
frame
image
coordinate system
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011542365.9A
Other languages
English (en)
Inventor
王涛
蔡东健
岳顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd
Original Assignee
Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd filed Critical Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd
Priority to CN202011542365.9A priority Critical patent/CN112529962A/zh
Publication of CN112529962A publication Critical patent/CN112529962A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉算法的室内空间关键定位技术方法,步骤如下:S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;S2、选取视频流的关键帧;S3、IMU预积分;S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。本发明具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。

Description

一种基于视觉算法的室内空间关键定位技术方法
技术领域
本发明属于空间定位技术领域,具体涉及一种基于视觉算法的室内空间关键定位技术方法。
背景技术
目前,室内定位与导航需求强烈,已成为导航与位置服务领域的研究热点。美国、欧洲、澳大利亚、日本等国家和地区积极开展了室内定位技术和标准研究。国内外研究机构、高等院校在商场、机场等大型公共场所开展了多场景室内定位的研究与室内导航、应急救援等应用示范。与此同时,谷歌、苹果、微软、百度和阿里巴巴等互联网巨头投入大量经费用于研发室内导航与位置服务系统,提供基于大数据和云计算技术的室内商业化增值位置服务。
现有主流室内定位系统有Wi-Fi、蓝牙和超宽带UWB(Ultra Wideband)、射频识别技术(RFID)等等,均以数据传输为主要目的。由于所述射频信号的载波频率、信号场强以及信号有效传输距离不同,其室内定位的方法也有所区别。Wi-Fi定位技术是基于IEEE802.11系列通信协议的无线局域网技术。利用Wi-Fi信号进行室内定位,主要采用测距交会与指纹匹配两种方式。其中,测距交会方式由于室内环境复杂、易变和非视距现象严重,很难准确估计信道衰减模型,精度较差的信道衰减模型会影响最终定位精度。指纹匹配定位方式包括训练过程和定位过程。其缺点在于其信号容易受环境干扰,在空旷空间误配率高,并且构建及更新指纹数据库需要耗费大量的时间和人力。
蓝牙定位技术是基于无线个域网WPAN(wireless personal area network)IEEE802.15.1协议的短称射频信号,低功耗和支持短距离通信。其工作频率在2.4GHz。蓝牙信号传输距离通常为10m左右,新的BLE4.0协议支持最大传输距离可达100m。基于RSSI的测距方式,定位精度可达2~3m。蓝牙定位也可以采用指纹匹配方式,在典型办公室环境下定位精度为约为4m,缺点是稳定性差、受环境干扰大,且指纹采集工作量较大。
UWB(Ultra Wideband)是一种无载波通信技术,利用纳秒至微秒级的非正弦波窄脉冲传输数据。UWB调制采用脉冲宽度在纳秒级的快速上升和下降脉冲,脉冲覆盖的频谱从直流至GHz,不需常规窄带调制所需的RF频率变换,脉冲成型后可直接送至天线发射。频谱形状可通过甚窄持续单脉冲形状和天线负载特征来调整定位精度最好可达15cm,缺点是成本很高。
射频识别技术(RFID)是一种利用射频信号实现对物体的自动识别并获得相关信息的技术。其具有辐射距离远、可以绕过障碍物传输、设备低成本、高可携性、易维护性、定位精度高等特点,但是作用距离短、接收信号强度不稳定。
上述几种方法虽然能达到一定结果的定位精度,但是存在普适性、成本、维护工作量大和信号不稳定等问题。现有的基于双目、多目或者RGB相机进行室内空间定位,需要用到两个或两个以上摄像头,存在定位成本高,普适性低的问题。
发明内容
本发明针对现有技术中的不足,提供一种基于视觉算法的室内空间关键定位技术方法。
为实现上述目的,本发明采用以下技术方案:
一种基于视觉算法的室内空间关键定位技术方法,包括如下步骤:
S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;
S2、选取视频流的关键帧;
s3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化;
S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
为优化上述技术方案,采取的具体措施还包括:
进一步地,步骤S1中,包括通过稀疏光流算法对图像中的特征点进行跟踪。
进一步地,步骤S2中,选取关键帧的方法包括:
1)若在当前帧和关键帧之间跟踪的特征点的平均视差超出第一阈值,则将当前帧作为新的关键帧;
2)若跟踪的特征点数量低于第二阈值,则将当前帧视为新的关键帧。
进一步地,步骤S3中,IMU预积分包括:将参考坐标系从世界坐标系转变为局部坐标系,对线性的加速度
Figure BDA0002853676870000021
和角速度
Figure BDA0002853676870000022
相关的部分进行预积分;IMU的原始陀螺仪和加速度计测量结果
Figure BDA0002853676870000023
Figure BDA0002853676870000024
如下:
Figure BDA0002853676870000025
Figure BDA0002853676870000026
其中,at为加速度计的实际真实值,
Figure BDA0002853676870000031
为从世界坐标系转变为局部坐标系旋转矩阵,gw是世界坐标系的重力向量,wt是陀螺仪的实际真实值,ba为加速度偏置,bw为陀螺仪偏置,
Figure BDA0002853676870000032
进一步地,步骤S4中,传感器估计值初始化具体为,采用松耦合的传感器融合方法得到初始值,利用纯视觉SLAM从运动中恢复特征结构SfM,对齐IMU预积分与纯视觉SfM的结果,恢复测量距离的度量尺度,手机相机的重力,IMU的速度。
进一步地,步骤S5包括,采用基于滑动窗口的紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计,视频流中完整状态向量定义:
Figure BDA0002853676870000033
Figure BDA0002853676870000034
Figure BDA0002853676870000035
其中,χ指活动窗口内所有状态量,x0,x1,...xn指的是每帧图像,λi,i∈(0,m)是第i个特征点与其第一个观测值距离的倒数,xk是捕获第k帧图像时的IMU状态,
Figure BDA0002853676870000036
依次代表IMU在k时刻下的平移值、速度值、旋转值,ba,bg分别代表加速度偏置值、陀螺仪偏置值,n是关键帧的总数,m是滑动窗口中的特征点总数,
Figure BDA0002853676870000037
表示相机在IMU坐标系下的位姿,
Figure BDA0002853676870000038
Figure BDA0002853676870000039
分别表示从参考坐标系到IMU坐标系的平移和旋转。
进一步地,其特征在于,步骤六中,回环检测利用DBoW2,在时间和空间一致性检查后返回回环检测候选帧,保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
本发明的有益效果是:本发明针对视觉SLAM结合惯性单元的定位解算技术,通过单目相机提供概略特征位置信息,对IMU测量值预处理,预积分IMU数据和校正IMU偏置,然后跟踪视觉图像特征和估计相机尺度位姿,最后校准融合后的视觉惯性测量值,通过多个特征的多个观测值不断重定位,具有普适性、精度高的优点看,不仅能够具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。
附图说明
图1是本发明的基于视觉算法的室内空间关键定位技术方法流程图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
如图1所示,本发明提供了一种基于视觉算法的室内空间关键定位技术方法,包括如下步骤:
S1、使用单目相机(手机单个摄像头)采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪。
将视频数据分解成每一帧图像,检测每一帧图像中所有图形的角点,这些角点即为特征点,选取特征点的位置分布是按照通过设置两个相邻特征点之间像素的最小间隔来执行的。特征点个数要保证每帧图像200个左右,否则特征点个数过多或者过少都会影响效率。
利用稀疏光流算法(稀疏光流算法是一类专门针对图像上稀疏的点进行图像配准的方法,也就是在参考图上给定若干个点,一般为角点,找到其在当前图像中的对应点)对图像中的特征点进行跟踪。因为图像会存在失真情况(由于相机原因),所以要对特征点进行平面矫正,矫正过程中会剔除一些失真的外点,上述过程完成后再投影到一个单位球面上。
上述步骤中的外点剔除方法采用的是RANSAC算法(随机抽样一致算法,采用迭代的方式从一组包含离群的被观测数据中估算出数学模型的参数。RANSAC算法假设数据中包含正确数据和异常数据(或称为噪声)。正确数据记为内点,异常数据记为外点)。
S2、选取视频流的关键帧。
关键帧选择标准有两个,第一是与上一个关键帧的平均视差。如果在当前帧和最新关键帧之间跟踪的特征点的平均视差超出某个特定阈值,则将该帧视为新的关键帧。计算视差时使用陀螺仪测量值的短时积分来补偿旋转。另一个标准是跟踪质量。如果跟踪的特征数量低于某一阈值,则将此帧视为新的关键帧,避免跟踪特征完全丢失。
S3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化。
利用连续时间的IMU误差状态动力学推导协方差传递函数,通过引入IMU偏置校正,提高IMU预积分效果。IMU的原始陀螺仪和加速度计测量结果
Figure BDA0002853676870000041
Figure BDA0002853676870000042
如下:
Figure BDA0002853676870000043
Figure BDA0002853676870000044
IMU测量值是在本体坐标系中测量的,它是平衡重力和平台动力的合力,并受到加速度偏置ba陀螺仪偏置bw和附加噪声的影响。假设加速度计和陀螺仪测量值中的附加噪声为高斯噪声,
Figure BDA0002853676870000051
加速度计偏置和陀螺仪偏置被建模为随机游走,其导数为高斯性的,
Figure BDA0002853676870000052
at为t时刻的加速度计的实际真实值,
Figure BDA0002853676870000053
为从世界坐标系转变为局部坐标系旋转矩阵,gw是世界坐标系的重力向量,wt是指t时刻陀螺仪的实际真实值。
IMU状态传递需要某一时刻坐标系的旋转、位置和速度。当这些起始状态改变时,我们需要重新传递IMU测量值。特别是在基于优化的算法中,每次调整位姿时,都需要在它们之间重新传递IMU测量值。这种传递策略在计算上要求很高。为了避免重新传递,采用了预积分算法。将参考坐标系从世界坐标系转变为局部坐标系后,对线性的加速度
Figure BDA0002853676870000054
和角速度
Figure BDA0002853676870000055
相关的部分进行预积分。
s4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配。
由于单目相机无法直接观测到尺度,因此,如果没有良好的初始值,很难直接将这两种传感器测量结果融合在一起。当IMU测量结果被大偏置破坏时,算法会启动一个鲁棒的初始化过程以确保系统的适用性。采用松耦合的传感器融合方法得到初始值。利用纯视觉SLAM从运动中恢复特征结构(SfM),具有良好的初始化性质。纯视觉系统可以通过从相对运动方法,如八点法或五点法或估计单应性矩阵,导出初始值来引导自己。通过对齐IMU预积分与纯视觉SfM的结果,粗略地恢复测量距离的度量尺度、单目相机(手机相机)的重力、IMU的速度,甚至偏置。
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计。
在估计器初始化后,采用基于滑动窗口的紧耦合单目视觉惯性里程计对手机进行高精度和鲁棒性的状态估计。视频流中完整状态向量定义:
Figure BDA0002853676870000056
Figure BDA0002853676870000058
Figure BDA0002853676870000057
其中,χ指活动窗口内所有状态量,x0,x1,...xn指的是每帧图像,λi,i∈(0,m)是第i个特征点与其第一个观测值距离的倒数,xk是捕获第k图像时的IMU状态,它包含了IMU在世界坐标系中的位置、速度和方向,以及在IMU本体坐标系中的加速度计偏置和陀螺仪偏置;
Figure BDA0002853676870000061
依次代表IMU在k时刻下的平移值、速度值、旋转值,ba,bg分别代表加速度偏置值、陀螺仪偏置值。n是关键帧的总数,m是滑动窗口中的特征点总数,λ1是第一次观测到第1个特征点的逆深度。
Figure BDA0002853676870000062
表示相机在IMU坐标系下的位姿。
Figure BDA0002853676870000063
Figure BDA0002853676870000064
分别表示从参考坐标系到IMU坐标系的平移和旋转。手机的计算能力较低,非线性优化的计算要求很高,紧耦合单目视觉惯性里程计无法实现摄像机速率输出。由于本发明实施例针对的是手机传感器(相机和IMU),为此采用了一种轻量级的纯运动视觉惯性光束法平差,来处理视觉加IMU数据,以提升状态估计速率到相机速率(30Hz)。IMU测量的速度远高于视觉测量。虽然视觉惯性里程计频率受到图像捕获频率的限制,但是仍然可以通过最近的IMU测量值来直接传递最新的视觉惯性里程计估计,以达到IMU速率的性能。
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接。
由于滑动窗口和边缘化计算复杂性,给系统带来了累积漂移。漂移发生在全局三维位置(x,y,z)和围绕重力方向的旋转。为了消除漂移,提出了一种与单目视觉里程计无缝集成的紧耦合重定位模块。重定位过程从一个循环检测模块开始,该模块识别已经访问过的地方,即图像特征匹配和图像回环检测。然后建立回环检测候选帧和当前帧之间的特征连接。多个特征的多个观测直接用于重定位,从而提高了定位的精度和状态估计的平滑性。回环检测利用DBoW2,一种最先进的词袋位置识别方法来进行回环检测。DBoW2在时间和空间一致性检查后返回回环检测候选帧。保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
本发明针对视觉SLAM结合惯性单元的定位解算技术,基于手机摄像头和惯性传感器信息数据,利用视觉惯性里程计算法,通过单目相机提供概略特征位置信息;利用图像实时特征匹配算法,利用检索描述好的特征点获取精确位置信息;针对IMU测量值预处理,预积分IMU数据和校正IMU偏置,然后跟踪视觉图像特征和估计相机尺度位姿,最后校准融合后的视觉惯性测量值,通过多个特征的多个观测值不断重定位,不仅能够具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (7)

1.一种基于视觉算法的室内空间关键定位技术方法,其特征在于,包括如下步骤:
S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;
S2、选取视频流的关键帧;
S3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化;
S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
2.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S1中,包括通过稀疏光流算法对图像中的特征点进行跟踪。
3.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S2中,选取关键帧的方法包括:
1)若在当前帧和关键帧之间跟踪的特征点的平均视差超出第一阈值,则将当前帧作为新的关键帧;
2)若跟踪的特征点数量低于第二阈值,则将当前帧视为新的关键帧。
4.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S3中,IMU预积分包括:将参考坐标系从世界坐标系转变为局部坐标系,对线性的加速度
Figure FDA0002853676860000011
和角速度
Figure FDA0002853676860000012
相关的部分进行预积分;IMU的原始陀螺仪和加速度计测量结果
Figure FDA0002853676860000013
Figure FDA0002853676860000014
如下:
Figure FDA0002853676860000015
Figure FDA0002853676860000016
其中,at为加速度计的实际真实值,
Figure FDA0002853676860000017
为从世界坐标系转变为局部坐标系旋转矩阵,gw是世界坐标系的重力向量,wt是陀螺仪的实际真实值,ba为加速度偏置,bw为陀螺仪偏置,
Figure FDA0002853676860000018
5.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S4中,传感器估计值初始化具体为,采用松耦合的传感器融合方法得到初始值,利用纯视觉SLAM从运动中恢复特征结构SfM,对齐IMU预积分与纯视觉SfM的结果,恢复测量距离的度量尺度,手机相机的重力,IMU的速度。
6.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S5包括,采用基于滑动窗口的紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计,视频流中完整状态向量定义:
Figure FDA0002853676860000021
Figure FDA0002853676860000022
Figure FDA0002853676860000023
其中,χ指活动窗口内所有状态量,x0,x1,...xn指的是每帧图像,λi,i∈(0,m)是第i个特征点与其第一个观测值距离的倒数,xk是捕获第k帧图像时的IMU状态,
Figure FDA0002853676860000024
依次代表IMU在k时刻下的平移值、速度值、旋转值,ba,bg分别代表加速度偏置值、陀螺仪偏置值,n是关键帧的总数,m是滑动窗口中的特征点总数,
Figure FDA0002853676860000025
表示相机在IMU坐标系下的位姿,
Figure FDA0002853676860000026
Figure FDA0002853676860000027
分别表示从参考坐标系到IMU坐标系的平移和旋转。
7.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤六中,回环检测利用DBoW2,在时间和空间一致性检查后返回回环检测候选帧,保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
CN202011542365.9A 2020-12-23 2020-12-23 一种基于视觉算法的室内空间关键定位技术方法 Pending CN112529962A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011542365.9A CN112529962A (zh) 2020-12-23 2020-12-23 一种基于视觉算法的室内空间关键定位技术方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011542365.9A CN112529962A (zh) 2020-12-23 2020-12-23 一种基于视觉算法的室内空间关键定位技术方法

Publications (1)

Publication Number Publication Date
CN112529962A true CN112529962A (zh) 2021-03-19

Family

ID=74975981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011542365.9A Pending CN112529962A (zh) 2020-12-23 2020-12-23 一种基于视觉算法的室内空间关键定位技术方法

Country Status (1)

Country Link
CN (1) CN112529962A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177971A (zh) * 2021-05-07 2021-07-27 中德(珠海)人工智能研究院有限公司 一种视觉跟踪方法、装置、计算机设备及存储介质
CN113790726A (zh) * 2021-09-07 2021-12-14 中国科学院合肥物质科学研究院 一种融合相机、轮速计和单uwb信息的机器人室内定位方法
CN114485623A (zh) * 2022-02-16 2022-05-13 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN114995651A (zh) * 2022-06-15 2022-09-02 Oppo广东移动通信有限公司 时空对齐方法、装置、电子设备及存储介质
CN116188536A (zh) * 2023-04-23 2023-05-30 深圳时识科技有限公司 视觉惯性里程计方法与装置、电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108731700A (zh) * 2018-03-22 2018-11-02 东南大学 一种视觉惯性里程计中的加权欧拉预积分方法
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN111932674A (zh) * 2020-06-30 2020-11-13 博雅工道(北京)机器人科技有限公司 一种线激光视觉惯性系统的优化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108731700A (zh) * 2018-03-22 2018-11-02 东南大学 一种视觉惯性里程计中的加权欧拉预积分方法
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN111932674A (zh) * 2020-06-30 2020-11-13 博雅工道(北京)机器人科技有限公司 一种线激光视觉惯性系统的优化方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177971A (zh) * 2021-05-07 2021-07-27 中德(珠海)人工智能研究院有限公司 一种视觉跟踪方法、装置、计算机设备及存储介质
CN113790726A (zh) * 2021-09-07 2021-12-14 中国科学院合肥物质科学研究院 一种融合相机、轮速计和单uwb信息的机器人室内定位方法
CN113790726B (zh) * 2021-09-07 2024-03-29 中国科学院合肥物质科学研究院 一种融合相机、轮速计和单uwb信息的机器人室内定位方法
CN114485623A (zh) * 2022-02-16 2022-05-13 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN114485623B (zh) * 2022-02-16 2024-02-23 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN114995651A (zh) * 2022-06-15 2022-09-02 Oppo广东移动通信有限公司 时空对齐方法、装置、电子设备及存储介质
CN116188536A (zh) * 2023-04-23 2023-05-30 深圳时识科技有限公司 视觉惯性里程计方法与装置、电子设备

Similar Documents

Publication Publication Date Title
CN112529962A (zh) 一种基于视觉算法的室内空间关键定位技术方法
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam系统
AU2017233539B2 (en) Estimating locations of mobile devices in a wireless tracking system
US20210278549A1 (en) Lane-level navigation system for ground vehicles with lidar and cellular signals
CN111880207B (zh) 一种基于小波神经网络的视觉惯性卫星紧耦合定位方法
CN112461210B (zh) 一种空地协同建筑测绘机器人系统及其测绘方法
CN113758488B (zh) 一种基于uwb与vio的室内定位方法及设备
CN104700408A (zh) 一种基于摄像机网络的室内单目标定位方法
US11195297B2 (en) Method and system for visual localization based on dual dome cameras
CN111366153A (zh) 一种激光雷达与imu紧耦合的定位方法
Kao et al. Indoor navigation with smartphone-based visual SLAM and Bluetooth-connected wheel-robot
CN113763548A (zh) 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统
CN116468786A (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN114264297B (zh) Uwb和视觉slam融合算法的定位建图方法及系统
CN115218906A (zh) 面向室内slam的视觉惯性融合定位方法及系统
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
Xiang et al. Crowdsourcing-based indoor localization with knowledge-aided fingerprint transfer
CN113916221B (zh) 一种融合视觉里程计和bp网络的自适应行人航迹推算方法
CN103905826A (zh) 一种自适应全局运动估计方法
CN116027266A (zh) Uwb与视觉紧耦合slam算法的定位方法及系统
Merino et al. Data fusion in ubiquitous networked robot systems for urban services
CN116380079A (zh) 一种融合前视声呐与orb-slam3的水下slam方法
CN112837374B (zh) 一种空间定位方法及系统
CN115112123A (zh) 基于视觉-imu融合的多移动机器人协同定位方法及系统
CN111239761B (zh) 一种用于室内实时建立二维地图的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant after: Yuance Information Technology Co.,Ltd.

Address before: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant before: SUZHOU INDUSTRIAL PARK SURVEYING MAPPING AND GEOINFORMATION Co.,Ltd.