CN112529962A - 一种基于视觉算法的室内空间关键定位技术方法 - Google Patents
一种基于视觉算法的室内空间关键定位技术方法 Download PDFInfo
- Publication number
- CN112529962A CN112529962A CN202011542365.9A CN202011542365A CN112529962A CN 112529962 A CN112529962 A CN 112529962A CN 202011542365 A CN202011542365 A CN 202011542365A CN 112529962 A CN112529962 A CN 112529962A
- Authority
- CN
- China
- Prior art keywords
- imu
- frame
- image
- coordinate system
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 title claims abstract description 18
- 238000005259 measurement Methods 0.000 claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 230000010354 integration Effects 0.000 claims abstract description 13
- 230000008878 coupling Effects 0.000 claims abstract description 4
- 238000010168 coupling process Methods 0.000 claims abstract description 4
- 238000005859 coupling reaction Methods 0.000 claims abstract description 4
- 238000005516 engineering process Methods 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 238000012423 maintenance Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉算法的室内空间关键定位技术方法,步骤如下:S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;S2、选取视频流的关键帧;S3、IMU预积分;S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。本发明具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。
Description
技术领域
本发明属于空间定位技术领域,具体涉及一种基于视觉算法的室内空间关键定位技术方法。
背景技术
目前,室内定位与导航需求强烈,已成为导航与位置服务领域的研究热点。美国、欧洲、澳大利亚、日本等国家和地区积极开展了室内定位技术和标准研究。国内外研究机构、高等院校在商场、机场等大型公共场所开展了多场景室内定位的研究与室内导航、应急救援等应用示范。与此同时,谷歌、苹果、微软、百度和阿里巴巴等互联网巨头投入大量经费用于研发室内导航与位置服务系统,提供基于大数据和云计算技术的室内商业化增值位置服务。
现有主流室内定位系统有Wi-Fi、蓝牙和超宽带UWB(Ultra Wideband)、射频识别技术(RFID)等等,均以数据传输为主要目的。由于所述射频信号的载波频率、信号场强以及信号有效传输距离不同,其室内定位的方法也有所区别。Wi-Fi定位技术是基于IEEE802.11系列通信协议的无线局域网技术。利用Wi-Fi信号进行室内定位,主要采用测距交会与指纹匹配两种方式。其中,测距交会方式由于室内环境复杂、易变和非视距现象严重,很难准确估计信道衰减模型,精度较差的信道衰减模型会影响最终定位精度。指纹匹配定位方式包括训练过程和定位过程。其缺点在于其信号容易受环境干扰,在空旷空间误配率高,并且构建及更新指纹数据库需要耗费大量的时间和人力。
蓝牙定位技术是基于无线个域网WPAN(wireless personal area network)IEEE802.15.1协议的短称射频信号,低功耗和支持短距离通信。其工作频率在2.4GHz。蓝牙信号传输距离通常为10m左右,新的BLE4.0协议支持最大传输距离可达100m。基于RSSI的测距方式,定位精度可达2~3m。蓝牙定位也可以采用指纹匹配方式,在典型办公室环境下定位精度为约为4m,缺点是稳定性差、受环境干扰大,且指纹采集工作量较大。
UWB(Ultra Wideband)是一种无载波通信技术,利用纳秒至微秒级的非正弦波窄脉冲传输数据。UWB调制采用脉冲宽度在纳秒级的快速上升和下降脉冲,脉冲覆盖的频谱从直流至GHz,不需常规窄带调制所需的RF频率变换,脉冲成型后可直接送至天线发射。频谱形状可通过甚窄持续单脉冲形状和天线负载特征来调整定位精度最好可达15cm,缺点是成本很高。
射频识别技术(RFID)是一种利用射频信号实现对物体的自动识别并获得相关信息的技术。其具有辐射距离远、可以绕过障碍物传输、设备低成本、高可携性、易维护性、定位精度高等特点,但是作用距离短、接收信号强度不稳定。
上述几种方法虽然能达到一定结果的定位精度,但是存在普适性、成本、维护工作量大和信号不稳定等问题。现有的基于双目、多目或者RGB相机进行室内空间定位,需要用到两个或两个以上摄像头,存在定位成本高,普适性低的问题。
发明内容
本发明针对现有技术中的不足,提供一种基于视觉算法的室内空间关键定位技术方法。
为实现上述目的,本发明采用以下技术方案:
一种基于视觉算法的室内空间关键定位技术方法,包括如下步骤:
S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;
S2、选取视频流的关键帧;
s3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化;
S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
为优化上述技术方案,采取的具体措施还包括:
进一步地,步骤S1中,包括通过稀疏光流算法对图像中的特征点进行跟踪。
进一步地,步骤S2中,选取关键帧的方法包括:
1)若在当前帧和关键帧之间跟踪的特征点的平均视差超出第一阈值,则将当前帧作为新的关键帧;
2)若跟踪的特征点数量低于第二阈值,则将当前帧视为新的关键帧。
进一步地,步骤S4中,传感器估计值初始化具体为,采用松耦合的传感器融合方法得到初始值,利用纯视觉SLAM从运动中恢复特征结构SfM,对齐IMU预积分与纯视觉SfM的结果,恢复测量距离的度量尺度,手机相机的重力,IMU的速度。
进一步地,步骤S5包括,采用基于滑动窗口的紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计,视频流中完整状态向量定义:
其中,χ指活动窗口内所有状态量,x0,x1,...xn指的是每帧图像,λi,i∈(0,m)是第i个特征点与其第一个观测值距离的倒数,xk是捕获第k帧图像时的IMU状态,依次代表IMU在k时刻下的平移值、速度值、旋转值,ba,bg分别代表加速度偏置值、陀螺仪偏置值,n是关键帧的总数,m是滑动窗口中的特征点总数,表示相机在IMU坐标系下的位姿,和分别表示从参考坐标系到IMU坐标系的平移和旋转。
进一步地,其特征在于,步骤六中,回环检测利用DBoW2,在时间和空间一致性检查后返回回环检测候选帧,保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
本发明的有益效果是:本发明针对视觉SLAM结合惯性单元的定位解算技术,通过单目相机提供概略特征位置信息,对IMU测量值预处理,预积分IMU数据和校正IMU偏置,然后跟踪视觉图像特征和估计相机尺度位姿,最后校准融合后的视觉惯性测量值,通过多个特征的多个观测值不断重定位,具有普适性、精度高的优点看,不仅能够具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。
附图说明
图1是本发明的基于视觉算法的室内空间关键定位技术方法流程图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
如图1所示,本发明提供了一种基于视觉算法的室内空间关键定位技术方法,包括如下步骤:
S1、使用单目相机(手机单个摄像头)采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪。
将视频数据分解成每一帧图像,检测每一帧图像中所有图形的角点,这些角点即为特征点,选取特征点的位置分布是按照通过设置两个相邻特征点之间像素的最小间隔来执行的。特征点个数要保证每帧图像200个左右,否则特征点个数过多或者过少都会影响效率。
利用稀疏光流算法(稀疏光流算法是一类专门针对图像上稀疏的点进行图像配准的方法,也就是在参考图上给定若干个点,一般为角点,找到其在当前图像中的对应点)对图像中的特征点进行跟踪。因为图像会存在失真情况(由于相机原因),所以要对特征点进行平面矫正,矫正过程中会剔除一些失真的外点,上述过程完成后再投影到一个单位球面上。
上述步骤中的外点剔除方法采用的是RANSAC算法(随机抽样一致算法,采用迭代的方式从一组包含离群的被观测数据中估算出数学模型的参数。RANSAC算法假设数据中包含正确数据和异常数据(或称为噪声)。正确数据记为内点,异常数据记为外点)。
S2、选取视频流的关键帧。
关键帧选择标准有两个,第一是与上一个关键帧的平均视差。如果在当前帧和最新关键帧之间跟踪的特征点的平均视差超出某个特定阈值,则将该帧视为新的关键帧。计算视差时使用陀螺仪测量值的短时积分来补偿旋转。另一个标准是跟踪质量。如果跟踪的特征数量低于某一阈值,则将此帧视为新的关键帧,避免跟踪特征完全丢失。
S3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化。
IMU测量值是在本体坐标系中测量的,它是平衡重力和平台动力的合力,并受到加速度偏置ba陀螺仪偏置bw和附加噪声的影响。假设加速度计和陀螺仪测量值中的附加噪声为高斯噪声,加速度计偏置和陀螺仪偏置被建模为随机游走,其导数为高斯性的,at为t时刻的加速度计的实际真实值,为从世界坐标系转变为局部坐标系旋转矩阵,gw是世界坐标系的重力向量,wt是指t时刻陀螺仪的实际真实值。
IMU状态传递需要某一时刻坐标系的旋转、位置和速度。当这些起始状态改变时,我们需要重新传递IMU测量值。特别是在基于优化的算法中,每次调整位姿时,都需要在它们之间重新传递IMU测量值。这种传递策略在计算上要求很高。为了避免重新传递,采用了预积分算法。将参考坐标系从世界坐标系转变为局部坐标系后,对线性的加速度和角速度相关的部分进行预积分。
s4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配。
由于单目相机无法直接观测到尺度,因此,如果没有良好的初始值,很难直接将这两种传感器测量结果融合在一起。当IMU测量结果被大偏置破坏时,算法会启动一个鲁棒的初始化过程以确保系统的适用性。采用松耦合的传感器融合方法得到初始值。利用纯视觉SLAM从运动中恢复特征结构(SfM),具有良好的初始化性质。纯视觉系统可以通过从相对运动方法,如八点法或五点法或估计单应性矩阵,导出初始值来引导自己。通过对齐IMU预积分与纯视觉SfM的结果,粗略地恢复测量距离的度量尺度、单目相机(手机相机)的重力、IMU的速度,甚至偏置。
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计。
在估计器初始化后,采用基于滑动窗口的紧耦合单目视觉惯性里程计对手机进行高精度和鲁棒性的状态估计。视频流中完整状态向量定义:
其中,χ指活动窗口内所有状态量,x0,x1,...xn指的是每帧图像,λi,i∈(0,m)是第i个特征点与其第一个观测值距离的倒数,xk是捕获第k图像时的IMU状态,它包含了IMU在世界坐标系中的位置、速度和方向,以及在IMU本体坐标系中的加速度计偏置和陀螺仪偏置;依次代表IMU在k时刻下的平移值、速度值、旋转值,ba,bg分别代表加速度偏置值、陀螺仪偏置值。n是关键帧的总数,m是滑动窗口中的特征点总数,λ1是第一次观测到第1个特征点的逆深度。表示相机在IMU坐标系下的位姿。和分别表示从参考坐标系到IMU坐标系的平移和旋转。手机的计算能力较低,非线性优化的计算要求很高,紧耦合单目视觉惯性里程计无法实现摄像机速率输出。由于本发明实施例针对的是手机传感器(相机和IMU),为此采用了一种轻量级的纯运动视觉惯性光束法平差,来处理视觉加IMU数据,以提升状态估计速率到相机速率(30Hz)。IMU测量的速度远高于视觉测量。虽然视觉惯性里程计频率受到图像捕获频率的限制,但是仍然可以通过最近的IMU测量值来直接传递最新的视觉惯性里程计估计,以达到IMU速率的性能。
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接。
由于滑动窗口和边缘化计算复杂性,给系统带来了累积漂移。漂移发生在全局三维位置(x,y,z)和围绕重力方向的旋转。为了消除漂移,提出了一种与单目视觉里程计无缝集成的紧耦合重定位模块。重定位过程从一个循环检测模块开始,该模块识别已经访问过的地方,即图像特征匹配和图像回环检测。然后建立回环检测候选帧和当前帧之间的特征连接。多个特征的多个观测直接用于重定位,从而提高了定位的精度和状态估计的平滑性。回环检测利用DBoW2,一种最先进的词袋位置识别方法来进行回环检测。DBoW2在时间和空间一致性检查后返回回环检测候选帧。保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
本发明针对视觉SLAM结合惯性单元的定位解算技术,基于手机摄像头和惯性传感器信息数据,利用视觉惯性里程计算法,通过单目相机提供概略特征位置信息;利用图像实时特征匹配算法,利用检索描述好的特征点获取精确位置信息;针对IMU测量值预处理,预积分IMU数据和校正IMU偏置,然后跟踪视觉图像特征和估计相机尺度位姿,最后校准融合后的视觉惯性测量值,通过多个特征的多个观测值不断重定位,不仅能够具有良好的精度和稳定效果,还有效地降低室内定位系统的建设周期和维护成本。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (7)
1.一种基于视觉算法的室内空间关键定位技术方法,其特征在于,包括如下步骤:
S1、使用手机单个摄像头采集视频流,对视频流中的每一帧图像提取特征点并进行跟踪;
S2、选取视频流的关键帧;
S3、通过IMU预积分,将当前帧与关键帧的特征点的欧拉角的旋转误差参数化;
S4、手机传感器估计值初始化:将手机IMU测量结果与视觉SfM结果的时间戳匹配;
S5、采用紧耦合单目视觉惯性里程计对摄像头进行高精度和鲁棒性的状态估计;
S6、紧耦合重定位:进行图像特征匹配和图像回环检测,建立回环检测候选帧和当前帧之间的特征连接;
S7、通过特征匹配和回环检测获得手机运行的路线轨迹,以及路线轨迹的坐标信息。
2.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S1中,包括通过稀疏光流算法对图像中的特征点进行跟踪。
3.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S2中,选取关键帧的方法包括:
1)若在当前帧和关键帧之间跟踪的特征点的平均视差超出第一阈值,则将当前帧作为新的关键帧;
2)若跟踪的特征点数量低于第二阈值,则将当前帧视为新的关键帧。
5.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤S4中,传感器估计值初始化具体为,采用松耦合的传感器融合方法得到初始值,利用纯视觉SLAM从运动中恢复特征结构SfM,对齐IMU预积分与纯视觉SfM的结果,恢复测量距离的度量尺度,手机相机的重力,IMU的速度。
7.根据权利要求1所述的室内空间关键定位技术方法,其特征在于,步骤六中,回环检测利用DBoW2,在时间和空间一致性检查后返回回环检测候选帧,保留所有用于特征检索的特征点,丢弃原始图像以减少内存消耗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011542365.9A CN112529962A (zh) | 2020-12-23 | 2020-12-23 | 一种基于视觉算法的室内空间关键定位技术方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011542365.9A CN112529962A (zh) | 2020-12-23 | 2020-12-23 | 一种基于视觉算法的室内空间关键定位技术方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112529962A true CN112529962A (zh) | 2021-03-19 |
Family
ID=74975981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011542365.9A Pending CN112529962A (zh) | 2020-12-23 | 2020-12-23 | 一种基于视觉算法的室内空间关键定位技术方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529962A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177971A (zh) * | 2021-05-07 | 2021-07-27 | 中德(珠海)人工智能研究院有限公司 | 一种视觉跟踪方法、装置、计算机设备及存储介质 |
CN113790726A (zh) * | 2021-09-07 | 2021-12-14 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN114485623A (zh) * | 2022-02-16 | 2022-05-13 | 东南大学 | 一种聚焦距离的相机-imu-uwb融合精准定位方法 |
CN114995651A (zh) * | 2022-06-15 | 2022-09-02 | Oppo广东移动通信有限公司 | 时空对齐方法、装置、电子设备及存储介质 |
CN116188536A (zh) * | 2023-04-23 | 2023-05-30 | 深圳时识科技有限公司 | 视觉惯性里程计方法与装置、电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108731700A (zh) * | 2018-03-22 | 2018-11-02 | 东南大学 | 一种视觉惯性里程计中的加权欧拉预积分方法 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
-
2020
- 2020-12-23 CN CN202011542365.9A patent/CN112529962A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108731700A (zh) * | 2018-03-22 | 2018-11-02 | 东南大学 | 一种视觉惯性里程计中的加权欧拉预积分方法 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177971A (zh) * | 2021-05-07 | 2021-07-27 | 中德(珠海)人工智能研究院有限公司 | 一种视觉跟踪方法、装置、计算机设备及存储介质 |
CN113790726A (zh) * | 2021-09-07 | 2021-12-14 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN113790726B (zh) * | 2021-09-07 | 2024-03-29 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN114485623A (zh) * | 2022-02-16 | 2022-05-13 | 东南大学 | 一种聚焦距离的相机-imu-uwb融合精准定位方法 |
CN114485623B (zh) * | 2022-02-16 | 2024-02-23 | 东南大学 | 一种聚焦距离的相机-imu-uwb融合精准定位方法 |
CN114995651A (zh) * | 2022-06-15 | 2022-09-02 | Oppo广东移动通信有限公司 | 时空对齐方法、装置、电子设备及存储介质 |
CN116188536A (zh) * | 2023-04-23 | 2023-05-30 | 深圳时识科技有限公司 | 视觉惯性里程计方法与装置、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112529962A (zh) | 一种基于视觉算法的室内空间关键定位技术方法 | |
CN110125928B (zh) | 一种基于前后帧进行特征匹配的双目惯导slam系统 | |
AU2017233539B2 (en) | Estimating locations of mobile devices in a wireless tracking system | |
US20210278549A1 (en) | Lane-level navigation system for ground vehicles with lidar and cellular signals | |
CN111880207B (zh) | 一种基于小波神经网络的视觉惯性卫星紧耦合定位方法 | |
CN112461210B (zh) | 一种空地协同建筑测绘机器人系统及其测绘方法 | |
CN113758488B (zh) | 一种基于uwb与vio的室内定位方法及设备 | |
CN104700408A (zh) | 一种基于摄像机网络的室内单目标定位方法 | |
US11195297B2 (en) | Method and system for visual localization based on dual dome cameras | |
CN111366153A (zh) | 一种激光雷达与imu紧耦合的定位方法 | |
Kao et al. | Indoor navigation with smartphone-based visual SLAM and Bluetooth-connected wheel-robot | |
CN113763548A (zh) | 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统 | |
CN116468786A (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN114264297B (zh) | Uwb和视觉slam融合算法的定位建图方法及系统 | |
CN115218906A (zh) | 面向室内slam的视觉惯性融合定位方法及系统 | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
Xiang et al. | Crowdsourcing-based indoor localization with knowledge-aided fingerprint transfer | |
CN113916221B (zh) | 一种融合视觉里程计和bp网络的自适应行人航迹推算方法 | |
CN103905826A (zh) | 一种自适应全局运动估计方法 | |
CN116027266A (zh) | Uwb与视觉紧耦合slam算法的定位方法及系统 | |
Merino et al. | Data fusion in ubiquitous networked robot systems for urban services | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
CN112837374B (zh) | 一种空间定位方法及系统 | |
CN115112123A (zh) | 基于视觉-imu融合的多移动机器人协同定位方法及系统 | |
CN111239761B (zh) | 一种用于室内实时建立二维地图的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Yuance Information Technology Co.,Ltd. Address before: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: SUZHOU INDUSTRIAL PARK SURVEYING MAPPING AND GEOINFORMATION Co.,Ltd. |