CN111307146B - 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 - Google Patents

一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 Download PDF

Info

Publication number
CN111307146B
CN111307146B CN202010135110.4A CN202010135110A CN111307146B CN 111307146 B CN111307146 B CN 111307146B CN 202010135110 A CN202010135110 A CN 202010135110A CN 111307146 B CN111307146 B CN 111307146B
Authority
CN
China
Prior art keywords
imu
eye
image
camera
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010135110.4A
Other languages
English (en)
Other versions
CN111307146A (zh
Inventor
郭犇
乔洋洋
于洋
牛建伟
任涛
王平平
姚立群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Research Institute Of Beihang University
Original Assignee
Qingdao Research Institute Of Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Research Institute Of Beihang University filed Critical Qingdao Research Institute Of Beihang University
Priority to CN202010135110.4A priority Critical patent/CN111307146B/zh
Publication of CN111307146A publication Critical patent/CN111307146A/zh
Application granted granted Critical
Publication of CN111307146B publication Critical patent/CN111307146B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures

Abstract

本申请公开了一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:包括双目相机单元和设置于头戴显示设备内的IMU、数据处理服务端;所述双目相机单元包括左目相机和右目相机,采用前向平视的空间分布方式设置;IMU包括用于获得加速度的三轴陀螺仪和用于获得角速度的三轴加速度计,三轴陀螺仪和三轴加速度计设置于双目相机单元上;所述双目相机单元的左目相机和右目相机分别位于IMU的两侧,双目相机单元的输出端、惯性测量单元的输出端与双目视觉定位装置电连接。本发明的优点在于它能克服现有技术的弊端,结构设计合理新颖。

Description

一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统
技术领域
本发明涉及一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,属于计算机视觉、虚拟现实(VR)技术领域。
背景技术
近年来,随着虚拟现实(Virtual Reality,VR)产业的火热发展,各类虚拟现实设备层出不穷。对于虚拟现实设备来说,实时追踪定位是最基本的问题之一,它可以使虚拟现实的体验更加真实。但虚拟现实头戴显示设备的定位技术发展相对缓慢。现阶段的VR设备大都依赖外部套件,采用Outside-In(由外向内)的技术方案进行追踪,但外部套件对于移动的VR头戴显示设备来说并不是一个合理的解决方案,因为这些外部套件会使移动的VR头戴显示设备失去便携性。一些厂商针对移动设备开发了双目摄像头,SLAM(simultaneouslocalization and mapping,同步定位与建图)等追踪方案,但是存在成本较高,计算复杂的问题。当前,VR场景下的追踪定位方法主要有红外光学定位、激光定位、低功耗蓝牙定位、视觉定位四种,这几种定位方法主要有以下缺点:
1)激光定位:基本原理就是利用定位光塔,对定位空间发射横竖两个方向扫射的激光,在被定位物体上放置多个激光感应接收器,通过计算两束光线到达定位物体的角度差,解算出待测定位节点的坐标。但激光定位价格高,不利用VR产品的大面积推广。
2)红外光学定位:利用多个红外摄像头对室内空间进行覆盖,还需要在被追踪物体上放置红外反光点,通过捕捉这些反光点来确定物体在空间中的位置信息。这种定位系统定位精度较高,但造价昂贵,供货量很小,不适合消费级的虚拟现实设备。
3)蓝牙定位:即利用低功耗蓝牙设备向周围发送自己特有的ID,接收到该ID的应用软件会根据其信息采取一些动作。缺点是定位精度很低且设备要求较高,不适用于VR应用。
4)视觉定位:视觉定位方案利用摄像头采集信息,并提取图像中的特征来进行定位,该方法的精度没有激光定位、红外光学定位等方案高,但其算法简单、价格便宜、且容易扩展,使它成为了目前VR市场上相对主流的定位方案。但纯视觉定位算法存在以下问题:尺度不确定性、三角化算法退化、不能与重力对齐、对环境干扰敏感等问题。因此可以利用惯性传感器(Inertial Measurement Unit,IMU)等额外的传感器来提高算法的精度和鲁棒性。
当前虚拟现实领域中,大多数的视觉定位方法不能重复利用建好的地图,而大量的虚拟现实应用位于室内,地图重复率非常高,如何利用已建好的地图值得思考。
发明内容
本发明提供一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,利用视觉信息和IMU信息来确定设备在空间中的三维坐标和朝向信息,该系统部署简单、功耗低、硬件成本小、不会产生对人体有害的电磁波谱、实用性好。
本发明采取的技术方案是,一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,包括双目相机单元和设置于头戴显示设备内的IMU、数据处理服务端;所述双目相机单元包括左目相机和右目相机,采用前向平视的空间分布方式设置;IMU包括用于获得加速度的三轴陀螺仪和用于获得角速度的三轴加速度计,三轴陀螺仪和三轴加速度计设置于双目相机单元上;所述双目相机单元的左目相机和右目相机分别位于IMU的两侧,双目相机单元的输出端、惯性测量单元的输出端与双目视觉定位装置电连接;所述数据处理服务端接收左目相机、右目相机和IMU传输的数据,数据处理服务端将接收到的左目相机、右目相机和IMU传输的数据进行解析后计算出VR设备的具体坐标位置值,数据处理服务端将解析后计算出的VR设备的具体坐标位置值反馈给相应的VR头戴显示设备;
数据服务端包括双目图像获取模块、IMU信息读取与预处理模块、图像特征提取模块、立体匹配模块、位姿估计模块;
双目图像获取模块获得左目相机、右目相机中的双目图像,并完成左目相机图像、右目相机图像之间的时间同步;
IMU信息读取与预处理模块读取IMU传感器中的加速度数据和角速度数据,利用预积分完成IMU数据与双目相机之间的同步;
图像特征提取模块对通过左目相机、右目相机获取图像进行处理,提取左目相机图像、右目相机图像中的特征点,并利用左目相机图像、右目相机图像恢复特征点的深度信息;
立体匹配模块对左目相机图像、右目相机图像提取出的特征点进行匹配,得到特征点的对应匹配关系;根据三角化原理对从左目相机图像、右目相机图像中提取出的特征匹配点对计算对应特征点的深度,得到特征点的空间位置;
位姿估计模块利用图像中提取的特征对应关系和IMU信息计算位姿估计及效果。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,头戴显示设备启动时,数据处理服务端对双目相机单元和IMU的内部参数和外部参数进行标定,IMU需要标定的内部参数包括加速度计的随机游走和噪声密度、陀螺仪的随机游走和噪声密度;双目相机需要标定的内部参数包括各个摄像头的畸变系数、投影矩阵和时间戳信息;需要标定的外部参数包括IMU与左目相机之间、IMU与右目相机之间的转换矩阵。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,双目图像获取模块获得左目相机、右目相机中的左目图像、右目图像,利用左目图像、右目图像携带中的时间戳信息完成右目图像序列、右目图像序列之间的对齐,得到时间一致的图像配对序列;
IMU信息读取与预处理模块读取IMU传感器中的加速度计数据和陀螺仪的角速度数据,IMU信息读取与预处理模块对加速度计数据和角速度数据进行预积分以完成图像配对序列与IMU数据在时间上的同步;
图像特征提取模块根据左目相机、右目相机获取的左目图像、右目图像的平移量和旋转量计算左目图像前后两帧间、右目图像前后两帧间的平均视差,并且根据图像特征提取模块内存储的预定阈值判断平均视差是否符合关键帧提取条件,提取图像配对序列中的符合关键帧提取条件的左目图像、右目图像作为关键帧,利用ORB算子提取关键帧中的特征点;所述立体匹配模块对左目图像、右目图像的关键帧中提取出的特征点进行匹配,得到特征点的对应匹配关系;立体匹配模块根据三角化原理对从左目图像、右目图像中提取出的特征匹配点对计算对应特征点的深度,得到特征点的空间位置;
位姿估计模块根据匹配好的3D特征点计算前后两帧间的位姿变换矩阵,得到图像间初步的位姿变换矩阵;利用IMU预积分结果作为运动的初步约束,再由各特征点对计算得出位姿变换矩阵进行初步筛选,保存与IMU预积分结果相近的变换;最后再上一步的基础上,利用RANSAC算法排除离群点,得到与大部分特征点变化相吻合的位姿估计矩阵。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,IMU信息读取与预处理模块利用滤波算法对IMU传感器中的加速度计数据和陀螺仪的角速度数据进行噪声过滤;图像特征提取模块提取图像配对序列中的符合关键帧提取条件的左目图像、右目图像作为关键帧,并利用左目图像、右目图像的时间戳记进行左目图像关键帧、右目图像关键帧的配对;利用ORB算子提取左目图像关键帧、右目图像关键帧中的特征点,并将配对的左目图像关键帧、右目图像关键帧中的特征点作为特征匹配点对。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,数据服务端还包括局部建图模块、局部优化模块、闭环检测模块;
局部建图模块根据立体匹配模块的结果,对提取出的图像特征点建立局部地图;
局部优化模块利用L-M算法对建立的局部地图和相机位姿序列进行优化,优化局部地图和位姿变换信息;
闭环检测模块检测局部地图中已出现过的相同场景,利用闭环减少IMU和视觉估计位姿变换的累积误差,得到更加准确的相机位置和相机姿态。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,局部建图模块将立体匹配模块的结果中计算得到的三维特征点参数化到地图数据库中,通过对地图中重复的特征点进行融合建立局部地图;
局部优化模块将位姿估计模块计算结果中得到的位姿变换矩阵和局部地图中的3D特征点更新到系统状态向量中,根据公式计算包含图像特征点重投影误差和IMU误差项的总误差,再利用高斯牛顿法优化状态变量,得到优化的地图特征点和位姿变换矩阵。
闭环检测模块检测到闭环后就,对全局的相机位姿进行优化,消除漂移并将消除漂移均匀地分配到整个场景中。
优化的,上述基于双目相机和IMU的虚拟现实头戴显示设备定位系统,局部建图模块根据立体匹配模块的处理结果,对地图中跟踪质量不佳的特征点进行剔除;对地图中的冗余关键帧进行剔除。
本发明提供的虚拟现实设备定位系统有如下优点:利用相机和IMU可以在室内没有GPS的环境下对虚拟现实头戴显示设备进行追踪定位;与现有的基于视觉定位的方法相比能够利用IMU提高输出频率;不需要外部设备的辅助就能完成定位;相机模组和IMU传感器的组合具有体积小、低功耗、安全便携、对人体没有危害的优点,并且硬件设备便宜,实现成本低,因此可以提高产品在消费级市场的竞争力。
附图说明
图1为本发明的虚拟现实定位系统流程图;
图2为本发明的双目相机单元与IMU结构示意图;
图3为双目相机的数学几何模型。
具体实施方式
下面结合附图与具体实施例进一步阐述本发明的技术特点。
一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,包括双目相机单元和设置于头戴显示设备内的IMU、数据处理服务端;所述双目相机单元包括左目相机和右目相机,采用前向平视的空间分布方式设置;IMU包括用于获得加速度的三轴陀螺仪和用于获得角速度的三轴加速度计,三轴陀螺仪和三轴加速度计设置于双目相机单元上;所述双目相机单元的左目相机和右目相机分别位于IMU的两侧,双目相机单元的输出端、惯性测量单元的输出端与双目视觉定位装置电连接;所述数据处理服务端接收左目相机、右目相机和IMU传输的数据,数据处理服务端将接收到的左目相机、右目相机和IMU传输的数据进行解析后计算出VR设备的具体坐标位置值,数据处理服务端将解析后计算出的VR设备的具体坐标位置值反馈给相应的VR头戴显示设备;
数据服务端包括双目图像获取模块、IMU信息读取与预处理模块、图像特征提取模块、立体匹配模块、位姿估计模块、局部优化模块、局部建图模块、闭环检测模块。
头戴显示设备定位系统的定位操作包括以下步骤:
头戴显示设备定位系统在定位开始前需要标定双目相机单元和IMU的内部参数和外部参数。其中,IMU需要标定的内部参数包括三轴加速度计的随机游走和噪声密度、三轴陀螺仪的随机游走和噪声密度;双目相机单元需要标定的内部参数包括左目相机、右目相机的畸变系数、投影矩阵和时间戳信息;需要标定的外部参数包括IMU与左目相机之间、IMU与右目相机之间的转换矩阵。
双目图像获取模块获得左目相机、右目相机中的左目图像、右目图像,利用左目图像、右目图像携带中的时间戳信息完成右目图像序列、右目图像序列之间的对齐,得到时间一致的图像配对序列。具体实施过程中,可以利用时间戳信息把拍摄时间偏差在一定范围内的照片认为是同步的,在条件允许的情况下,可采用较高帧率的相机来减少同步时间偏差,例如把相机帧率从25fps增加到50fps时,就可把最大同步偏差20ms减少到10ms。
IMU信息读取与预处理模块包括:读取IMU传感器中的加速度计数据和陀螺仪的角速度数据/>利用滤波算法对IMU数据进行噪声过滤。由于IMU采样率较高,一般都在100hz以上,因此需要对加速度计数据和角速度数据进行预积分以完成图像配对序列与IMU数据在时间上的同步以便于后续步骤。具体实施过程中:IMU传感器的数学模型为:
其中,是t时刻IMU角速度的观测值,wt是t时刻真实的角速度,/>是t时刻的角速度偏差向量,nw是影响角速度的高斯白噪声,满足/>是t时刻IMU加速度的观测值,αt是t时刻真实的加速度向量,/>是t时刻的加速度偏差向量,gw是当地的重力加速度,/>是t时刻的转换矩阵,nα是影响加速度的高斯白噪声,满足假设时间序列tk和tk+1对应的两个关键帧bk和bk+1之间存在多个IMU数据。则其预积分公式为:
其中,
图像特征提取模块包括:首先根据左目相机、右目相机获取的左目图像、右目图像的平移量和旋转量计算左目图像前后两帧间、右目图像前后两帧间的平均视差,根据图像特征提取模块内存储的预定阈值判断平均视差是否符合关键帧提取条件,提取图像配对序列中的符合关键帧提取条件的左目图像、右目图像作为关键帧,利用ORB算子提取关键帧中的特征点。
立体匹配模块对左目图像、右目图像的关键帧中提取出的特征点进行匹配,得到特征点的对应匹配关系;立体匹配模块根据三角化原理对从左目图像、右目图像中提取出的特征匹配点对计算对应特征点的深度,得到特征点的空间位置。
基于双目相机的几何模型如附图3所示,其中空间中的点P的深度为z,f为焦距,由相似原理,可得到特征点P的深度的计算公式为:
d=uL-uR
其中d表示左右图的横坐标之差。PL和PR分别是点P在左目相机和右目相机的投影点,对应的坐标分别是uL和uR
位姿估计模块包括:根据匹配好的特征点计算前后两帧间的位姿变换矩阵,得到图像间初步的位姿变换矩阵;利用IMU预积分结果作为运动的初步约束,再由各特征点对计算得出位姿变换矩阵进行初步筛选,保存与IMU预积分结果相近的变换;最后再上一步的基础上,利用RANSAC算法排除离群点,得到与大部分特征点变化相吻合的位姿估计矩阵。
具体地,该系统根据匹配好的一组3D特征点P={p1,...pn},P'={p1',...p'n},利用ICP算法来计算两帧图像之间的旋转矩阵R和平移向量t,使得:
本系统采用非线性优化的方法求解该ICP问题,具体步骤如下:
计算两组点的质心位置P,P′,然后计算每个点的去质心坐标:
qi=pi-p,q′i=p′i-p
根据以下优化问题计算旋转矩阵:
根据第二步的R,计算t:
t′=p-Rp′
具体地,RANSAC算法的具体步骤如下:
1)选择出可以估计出模型的最小数据集;
2)使用这个数据集来计算出数据模型;
3)将所有数据带入这个模型,计算出“内点”的数目;
4)比较当前模型和之前推出的最好的模型的“内点“的数量,记录最大“内点”数的模型参数和“内点”数;
重复1)至4)步,直到迭代结束或者当前模型达到预定要求(“内点数目大于一定数量”)。
通过以后RANSAC算法就可以处理带有错误匹配的数据。
局部建图模块包括:把立体匹配模块计算得到的三维特征点参数化到地图数据库中;对地图中重复的特征点进行融合;对地图中跟踪质量不佳的特征点进行剔除;对地图中的冗余关键帧进行剔除。
具体地,我们使用逆深度的方法即图像坐标u,v和深度值的倒数来参数化三维特征点。
局部优化模块包括:把得到的位姿变换矩阵和局部地图中的特征点更新到系统状态向量中,根据公式计算包含图像特征点重投影误差和IMU误差项的总误差;再利用高斯牛顿法优化状态变量,得到更加精准的地图特征点和位姿变换矩阵。
滑动窗口中的状态向量如下所示:
其中,xk是第k帧图片捕获时IMU的状态向量。则待优化的重投影误差如下表示:
其中,ρ(s)是Huber范数,计算方法如下:
s<1时,ρ(s)=s;s>1时,
其中,和/>分别是IMU和视觉测量值的残差项。e表示观测到的特征x集合。{rp,Hp}边缘化的先验信息。本系统的实现中使用了Ceres solver来优化该目标函数,具体使用了高斯牛顿法进行优化。给定一个待解的线性最小二乘问题:
高斯牛顿法的算法具体步骤描述如下:
《1》.给定初始值x0
《2》.对于第k次迭代,求出当前的雅可比矩阵J(xk)和误差f(xk)。
《3》.求解增量方程:H△xk=g.
《4》.若△xk足够小,则停止。否则,令xk+1=xk+△xk,返回步骤《2》并重复步骤《2》至步骤《4》的过程。
有别于位姿估计模块仅考虑相邻帧间的投影误差,在局部优化阶段,需要综合考虑局部地图内一系列关键帧间的投影误差和,通过求解多帧间误差和的最小值,以调整局部地图中的相机位姿和路标点位置,从而得到更精确的结果。
闭环检测模块主要是为了解决IMU漂移和视觉累积误差的问题。室内环境又是地图重复利用率非常高的场景,因此需要闭环检测以得到全局一致的轨迹和地图,闭环检测还可用于解决重定位的问题。通常依赖视觉词袋的构建和图像间的相似性计算来实现。当系统检测到闭环后就可以对全局的相机位姿进行优化,从而消除漂移并将误差均匀地分配到整个场景中,最终形成全局一致的三维地图。
具体地,视觉词袋模型的构建包括如下步骤:
在根节点,用k-means把所有样本聚成k类(实际中为保证聚类均匀性会使用k-means++)。这样得到了第一层。
对第一层的每个节点,把属于该节点的样本再聚成k类,得到下一层。
依此类推,最后得到叶子层。叶子层即为所谓的Words。
其中涉及的k-means聚类方法包括如下步骤:
随机选取k个中心点:c1,...ck
对每一个样本,计算与每个中心点之间的距离,取最小的作为它的归类;
重新计算每个类的中心点。
如果每个中心点变化都很小,则算法收敛,退出;否则返回1。
通过以上步骤即可建立视觉词袋模型。
本系统利用TF-IDF来描述视觉单词的权重。具体地,设图像A中单词wi出现了ni次,而一共出现的单词数为n,则该视觉单词的权重为:
ηi=TFi×IDFi
其中,
而图像A的描述向量
νA={(W11),(W22),...(WNN)}。
对于两个图像A和B的描述向量νA和νB,两帧图像之间的相似度通过下式计算:
经过上述各模块之后,由局部优化模块输出六维的位姿变换结果q=[p,q]。
在本发明的实施例中,提供了一种融合双目视觉和IMU的定位系统。该系统包括:双目摄像头、惯性测量单元;如附图2所示:所述双目相机单元包括左目相机和右目相机;所述IMU设置在所述双目相机单元上,且所述左目相机和所述右目相机对称位于所述惯性测量单元的两侧;所述双目相机单元和所述惯性测量单元分别与所述双目视觉定位装置连接。
本发明实施例提供的技术方案中,联合双目相机单元和惯性测量单元来进行位姿估计,引入惯性测量单元不但能提高输出率,还可减少仅根据双目相机单元进行位姿估计的误差;并且,在双目相机单元运动剧烈时、受到周围环境噪声影响时或是处于特征纹理较少的区域时,还可根据惯性测量单元采集到的数据进行位姿估计,显著提高稳定性,避免因双目相机单元受环境影响导致的无法进行位姿估计等问题。此外,使用通用的图优化算法来对位姿估计结果和局部地图进行优化。可有效减少数据处理时间,提高实时性。
当然,上述说明并非是对本发明的限制,本发明也并不限于上述举例,本技术领域的普通技术人员,在本发明的实质范围内,作出的变化、改型、添加或替换,都应属于本发明的保护范围。

Claims (6)

1.一种基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:包括双目相机单元和设置于头戴显示设备内的IMU、数据处理服务端;所述双目相机单元包括左目相机和右目相机,采用前向平视的空间分布方式设置;IMU包括用于获得加速度的三轴陀螺仪和用于获得角速度的三轴加速度计,三轴陀螺仪和三轴加速度计设置于双目相机单元上;所述双目相机单元的左目相机和右目相机分别位于IMU的两侧,双目相机单元的输出端、惯性测量单元的输出端与双目视觉定位装置相连接;所述数据处理服务端接收左目相机、右目相机和IMU传输的数据,数据处理服务端将接收到的左目相机、右目相机和IMU传输的数据进行解析后计算出VR设备的具体坐标位置值,数据处理服务端将解析后计算出的VR设备的具体坐标位置值反馈给相应的VR头戴显示设备;
数据服务端包括双目图像获取模块、IMU信息读取与预处理模块、图像特征提取模块、立体匹配模块、位姿估计模块;
双目图像获取模块获得左目相机、右目相机中的双目图像,并完成左目相机图像、右目相机图像之间的时间同步;
IMU信息读取与预处理模块读取IMU传感器中的加速度数据和角速度数据,利用预积分完成IMU数据与双目相机之间的同步;
图像特征提取模块对通过左目相机、右目相机获取图像进行处理,提取左目相机图像、右目相机图像中的特征点,并利用左目相机图像、右目相机图像恢复特征点的深度信息;
立体匹配模块对左目相机图像、右目相机图像提取出的特征点进行匹配,得到特征点的对应匹配关系;根据三角化原理,利用从左目相机图像、右目相机图像中提取出的特征匹配点对计算对应特征点的深度,得到特征点的空间位置;
位姿估计模块利用图像中提取的特征点对应关系和IMU信息计算位姿估计及效果;
双目图像获取模块获得左目相机、右目相机中的左目图像、右目图像,利用左目图像、右目图像携带中的时间戳信息完成右目图像序列、右目图像序列之间的对齐,得到时间一致的图像配对序列;
IMU信息读取与预处理模块读取IMU传感器中的加速度计数据和陀螺仪的角速度数据,IMU信息读取与预处理模块对加速度计数据和角速度数据进行预积分以完成图像配对序列与IMU数据在时间上的同步;
图像特征提取模块根据左目相机、右目相机获取的左目图像、右目图像的平移量和旋转量计算左目图像前后两帧间、右目图像前后两帧间的平均视差,并且根据图像特征提取模块内存储的预定阈值判断平均视差是否符合关键帧提取条件,提取图像配对序列中的符合关键帧提取条件的左目图像、右目图像作为关键帧,利用ORB算子提取关键帧中的特征点;所述立体匹配模块对左目图像、右目图像的关键帧中提取出的特征点进行匹配,得到特征点的对应匹配关系;立体匹配模块根据三角化原理对从左目图像、右目图像中提取出的特征匹配点对计算对应特征点的深度,得到特征点的空间位置;
位姿估计模块根据匹配好的3D特征点计算前后两帧间的位姿变换矩阵,得到图像间初步的位姿变换矩阵;利用IMU预积分结果作为运动的初步约束,再由各特征点对计算得出位姿变换矩阵进行初步筛选,保存与IMU预积分结果相近的变换;最后再上一步的基础上,利用RANSAC算法排除离群点,得到与大部分特征点变化相吻合的位姿估计矩阵。
2.根据权利要求1所述的基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:头戴显示设备启动时,数据处理服务端对双目相机单元和IMU的内部参数和外部参数进行标定,IMU需要标定的内部参数包括加速度计的随机游走和噪声密度、陀螺仪的随机游走和噪声密度;双目相机需要标定的内部参数包括各个摄像头的畸变系数、投影矩阵和时间戳信息;需要标定的外部参数包括IMU与双目相机各摄像头之间的转换矩阵。
3.根据权利要求1所述的基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:IMU信息读取与预处理模块利用滤波算法对IMU传感器中的加速度计数据和陀螺仪的角速度数据进行噪声过滤;图像特征提取模块提取图像配对序列中的符合关键帧提取条件的左目图像、右目图像作为关键帧,并利用左目图像、右目图像的时间戳记进行左目图像关键帧、右目图像关键帧的配对;利用ORB算子提取左目图像关键帧、右目图像关键帧中的特征点,并将配对的左目图像关键帧、右目图像关键帧中的特征点作为特征匹配点对。
4.根据权利要求1所述的基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:数据服务端还包括局部建图模块、局部优化模块、闭环检测模块;
局部建图模块根据立体匹配模块的结果,对提取出的图像特征点建立局部地图;
局部优化模块利用L-M算法对建立的局部地图和相机位姿序列进行优化,优化局部地图和位姿变换信息;
闭环检测模块检测局部地图中已出现过的相同场景,利用闭环减少IMU和视觉估计位姿变换的累积误差,得到更加准确的相机位置和相机姿态。
5.根据权利要求4所述的基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:局部建图模块将立体匹配模块的结果中计算得到的三维特征点参数化到地图数据库中,通过对地图中重复的特征点进行融合建立局部地图;
局部优化模块将位姿估计模块计算结果中得到的位姿变换矩阵和局部地图中的3D特征点更新到系统状态向量中,根据公式计算包含图像特征点重投影误差和IMU误差项的总误差,再利用高斯牛顿法优化状态变量,得到优化的地图特征点和位姿变换矩阵;
闭环检测模块检测到闭环后就,对全局的相机位姿进行优化,消除漂移并将消除漂移均匀地分配到整个场景中。
6.根据权利要求4所述的基于双目相机和IMU的虚拟现实头戴显示设备定位系统,其特征在于:局部建图模块根据立体匹配模块的处理结果,对地图中跟踪质量不佳的特征点进行剔除;对地图中的冗余关键帧进行剔除。
CN202010135110.4A 2020-03-02 2020-03-02 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 Active CN111307146B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010135110.4A CN111307146B (zh) 2020-03-02 2020-03-02 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010135110.4A CN111307146B (zh) 2020-03-02 2020-03-02 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统

Publications (2)

Publication Number Publication Date
CN111307146A CN111307146A (zh) 2020-06-19
CN111307146B true CN111307146B (zh) 2023-07-18

Family

ID=71156946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010135110.4A Active CN111307146B (zh) 2020-03-02 2020-03-02 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统

Country Status (1)

Country Link
CN (1) CN111307146B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112130660B (zh) * 2020-08-14 2024-03-15 青岛小鸟看看科技有限公司 一种基于虚拟现实一体机的交互方法和系统
WO2022040921A1 (zh) * 2020-08-25 2022-03-03 南京翱翔信息物理融合创新研究院有限公司 一种分布式增强现实的定位终端、定位装置及定位系统
CN112734843B (zh) * 2021-01-08 2023-03-21 河北工业大学 一种基于正十二面体的单目6d位姿估计方法
CN115100276B (zh) * 2022-05-10 2024-01-19 北京字跳网络技术有限公司 处理虚拟现实设备的画面图像的方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108489482A (zh) * 2018-02-13 2018-09-04 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统
CN110726406A (zh) * 2019-06-03 2020-01-24 北京建筑大学 一种改进的非线性优化单目惯导slam的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107747941B (zh) * 2017-09-29 2020-05-15 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN107909614B (zh) * 2017-11-13 2021-02-26 中国矿业大学 一种gps失效环境下巡检机器人定位方法
CN108665540A (zh) * 2018-03-16 2018-10-16 浙江工业大学 基于双目视觉特征和imu信息的机器人定位与地图构建系统
CN110044354B (zh) * 2019-03-28 2022-05-20 东南大学 一种双目视觉室内定位与建图方法及装置
CN110455301A (zh) * 2019-08-01 2019-11-15 河北工业大学 一种基于惯性测量单元的动态场景slam方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108489482A (zh) * 2018-02-13 2018-09-04 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统
CN110726406A (zh) * 2019-06-03 2020-01-24 北京建筑大学 一种改进的非线性优化单目惯导slam的方法

Also Published As

Publication number Publication date
CN111307146A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN111307146B (zh) 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统
CN109029433B (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
US11285613B2 (en) Robot vision image feature extraction method and apparatus and robot using the same
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN110296691B (zh) 融合imu标定的双目立体视觉测量方法与系统
CN106017463B (zh) 一种基于定位传感装置的飞行器定位方法
CN108253963B (zh) 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统
CN109506642B (zh) 一种机器人多相机视觉惯性实时定位方法及装置
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
US20220146267A1 (en) System, methods, device and apparatuses for preforming simultaneous localization and mapping
CN112634451A (zh) 一种融合多传感器的室外大场景三维建图方法
CN112734841B (zh) 一种用轮式里程计-imu和单目相机实现定位的方法
CN111156998A (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN112649016A (zh) 一种基于点线初始化的视觉惯性里程计方法
WO2018134686A2 (en) Systems, methods, device and apparatuses for performing simultaneous localization and mapping
CN103983263A (zh) 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN108413917B (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
CN110319772A (zh) 基于无人机的视觉大跨度测距方法
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN113012224B (zh) 定位初始化方法和相关装置、设备、存储介质
CN111609868A (zh) 一种基于改进光流法的视觉惯性里程计方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN111105467B (zh) 一种图像标定方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant