CN114581517A - 一种针对复杂光照环境的改进型vins方法 - Google Patents
一种针对复杂光照环境的改进型vins方法 Download PDFInfo
- Publication number
- CN114581517A CN114581517A CN202210123895.2A CN202210123895A CN114581517A CN 114581517 A CN114581517 A CN 114581517A CN 202210123895 A CN202210123895 A CN 202210123895A CN 114581517 A CN114581517 A CN 114581517A
- Authority
- CN
- China
- Prior art keywords
- camera
- equation
- image
- vins
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000005286 illumination Methods 0.000 title claims abstract description 15
- 230000008569 process Effects 0.000 claims abstract description 43
- 230000003287 optical effect Effects 0.000 claims abstract description 25
- 230000008859 change Effects 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000005316 response function Methods 0.000 claims abstract description 12
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000013461 design Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 claims 1
- 238000002474 experimental method Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004377 microelectronic Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种针对复杂光照环境的改进型VINS方法,首先通过初始化过程估计相机响应函数,这一过程可以对相机成像过程进行建模和标定,之后利用该函数将光流过程从位姿与灰度的关系拆解为位姿与曝光参数以及辐照度的关系,从而能够在这一过程中估计曝光参数对于位姿估计带来的影响。通过这种方法可以将复杂光照引发的相机参数的变化整合到整体的VINS系统位姿估计中,从而使系统适应环境。最后通过真实实验使用本发明算法和传统VIINS算法对比,证明了本算法的可行性和有效性,从而完成了对基于传统VINS算法的复杂光照环境下的改进型SLAM系统的实现。
Description
技术领域
针对传统VINS算法在复杂光照环境中位姿估计不准确的问题,本发明设计了一种基于传统VINS系统的、对于复杂光照环境更鲁棒的改进型VINS系统。该方法通过估计相机成像响应函数,将传统光流中的灰度误差进一步拆分为辐照度误差,同时将相机将现实中真实的场景采集成为视觉信息过程中的曝光参数加入视觉数据关联过程,同时进行数据关联与估计曝光信息,改善了视觉信号在复杂光照环境下的质量,从而使得整体改进型VINS系统在复杂光照环境中更鲁棒。
背景技术
导航就是正确地引导载体沿着预定的航线、以要求的精度、在指定的时间内将载体引导至目的地的过程。多年以来,惯性导航单元已经十分成熟并成功的应用于诸如导弹舰艇航空航天等多方面应用,特别是在GPS信号受到较大影响是尤为重要。惯性导航系统是一种自主式的导航系统,在工作时不依靠外界信息,也不向外界辐射任何能量,隐蔽性好、抗干扰性强,能够全天时、全天候为载体提供完备的运动信息。然而大多数高精度惯性导航,精度较高的同时占地面积较大且成本较高。
近些年来,随着微电子技术的发展,通过微电子技术实现的低成本陀螺仪和加速度计单元使得惯性导航单元更多的应用与各个领域。然而,低成本惯性单元在测量中更容易受到噪声的干扰。为了弥补惯性导航单元低成本化带来的精度损失,许多解决方案选择了采用视觉测量模块对惯性单元进行一定的补偿和纠正,视觉测量模块成本低体积小,能够很好的与惯性模块集成在一起。单目视觉slam和低成本惯性slam相融合可以很好的弥补对方的缺陷。
通过视觉传感器获取机体位姿信息的实现方法主要分为直接法与特征点法两类。直接法通过假设视觉传感器获取的图像流中对应点的灰度不变,从而优化对应点的光度误差来获取机体的位姿变化。这种方法具有恢复稠密地图的可能,但是通常需要计算量大耗时较长。特征点法通过计算图像梯度等方式选取关键点,通过对应关键点匹配得到机体的位姿变化。然而仅有关键点很多时候无法描述复杂的图像信息。为此,引入了描述子描述特征点周围图像特征,如著名的SIFT、SURF、ORB、FAST。但是描述子的匹配计算过程其精度与速度无法兼得。
目前的主流视觉惯性SLAM方法中,为了充分利用IMU信息高帧率的优势,也为了能够满足现有图像流的实时帧率,多采用半直接法处理图像数据关联问题。该方法只进行角点检测计算关键点不计算描述子,用光流追踪关键点的运动。这种方法的好处在于光流计算通常较描述子的计算耗时更短,使得整体系统实时性更好并能够将更多的计算资源放在整体优化层面提高整体系统位姿估计精度。然而光流法对图像灰度变化鲁棒性较差,光照和相机曝光等会对图像灰度产生影响的因素极大的影响了视觉信息的精度。由于传统VINS系统采用该方法进行前端数据关联,所以在光照复杂环境中系统的精度和稳定性都会受到极大的影响。
发明内容
本发明为了解决现有系统对于复杂光照环境不适应这一问题,对灰度变化进行估计并补偿,提高机体搭载的系统在该环境中的鲁棒性。许多研究者提出采用光度标定算法用来解决这个问题。但是现行的光度标定算法主要针对直接法设计,由于要同时计算曝光时间与每个像素的辐照度导致优化向量很大,从而导致曝光时间计算速度略慢。对于的相机帧率30Hz左右的VINS算法,很难满足在线运行的需求。本文提出的针对机体行进过程中图像出现不正常的灰度变化的补偿方案对于机体在光照变化的环境中运行的稳定性有着极大的提高且运行速度能够满足相机帧率要求。
1.系统初始化过程中标定相机响应函数模型
相机的成像过程一般分为图像获取部分和图像后处理部分,场景物体吸收光能并遵循光学原理反射到镜头中,通过各种传感器与光学器件转化为一组图像序列。会对位姿估计产生不良影响的主要是第二部分图像后处理部分,该部分中相机传感器或光学元件的性能和设置会直接影响到图像亮度,与直接法匹配过程中的灰度不变假设相冲突,极大的影响了位姿估计的质量。
为了矫正并估计相机成像过程,本发明提出的算法需要在初始化过程中对相机成像模型进行标定,以提高系统运行过程中在线光学补偿的运算速度。
相机成像过程可以抽象为:(1)场景中的物体吸收光能后反射出一部分光能,称为辐照度B(x)(2)场景辐照度B(x)通过镜头被相机中成像阵列所吸收(传统相机的感光元件是胶卷,数码相机的感光元件一般是CCD、CMOS传感器)(3)通过曝光时间等参数控制成像阵列吸收的能量总量。于是,为了估计相机对图像的影响,引入相机成像模型:
I(x)=f(tV(x)B(x)) (1)
其中,t是相机曝光时间,整张图像具有相同的曝光时间,y(x)表示镜头畸变,与镜头上的透镜形态以及折射率有关,B(x)表示成像平面对应的场景中的辐照度,仅与场景中具体物质自身的性质有关,在光源不变的情况下辐照度B(x)不会发生变化。f()代表映射过程,该过程是一个非线性过程,包含了不同相机个体之间的差异或者相机制造工艺带来的对曝光过程的影响,I(x)是输出的图像,x点的像素灰度值。
标定相机响应函数模型的过程就是估计f()(或是f-1())的过程。在相机模型中,V(x)是镜头固有属性,仅与镜头的物理属性有关,不会随着相机曝光参数改变而改变。因此,在模型设计中令B(x)吸收V(x),得到宽松的辐照度B′(x),假设B′(x)=V(x)B(x),相机模型变为:
I(x)=f(tB′(x)) (2)
对于第i张图像,有一个假设的f-1(),可以得出以下等式:
因此,可以构造一个最小二乘问题估计函数f-1()如下:
由于I(x)的函数值范围是0到255的离散整数值,f-1(Ii(x))对应有限个映射关系(总共256个),待解的未知变量是每个场景点的辐照度和256个映射关系f-1()。在响应函数的校准过程中,应使相机保持不动,通过拍摄一系列不同曝光时间的图像,可以得到最优解。该过程中输出的图像流,每一个都已知曝光时间ti,并且相机保持不动,图像中的每一个像素x对应的场景点不变,每一个等式中每一个场景点的辐照度B′(x)不变,因此未知量仅仅是f-1()与场景点的辐照度。对于实际图像来说,未知量个数等于像素数量加256个,采集足够多不同曝光时间的图像可以构建超定方程用以解得最接近真实值的相机响应函数f-1()。
2.运行过程中估计曝光时间
本发明提供了一种在系统运行过程中同步估计相机曝光时间的算法,该算法是基于LK光流进行针对性改进而来的。
光流法是一种描述像素随时间在图像之间运动的方法。其中,以LK光流为代表的仅追踪部分像素运动的稀疏光流能很好的用于特征点跟踪。为使其算法成立,LK光流需要满足三个假设:
1灰度不变假设,即被用于光流法求解过程中的像素点其灰度值不随时间发生变化。
2微动假设,即相邻两帧图像中被追踪像素不会出现剧烈位置变化。
3空间一致假设,即被追踪像素的邻域像素在下一帧仍是其邻域像素。
在满足这三个假设的情况下,有两帧连续一维图像:
其中,F(x)代表上一帧图像点x,F(x+h)代表下一帧图像中的x点在这一帧中的灰度,h代表位移,x与h代表着图像中的位置信息,F′(x)代表图像梯度。当相邻两帧图像之间没有剧烈变化的时候,即满足微动假设,h足够小的时候,上式成立,使得系统能够将图像梯度与相机机体运动建立联系。
当被追踪图像点x在被追踪过程中灰度值不变,即满足灰度不变假设时,有F(x+h)=G(x),上式变为:
将方程变形,突出未知量h,有:
利用上述方法可以求解两幅图像对应点的位移。
当被追踪图像点x周围的图像点运动一致时,即满足空间一致假设时,有:
通过超定方程可解出最符合实际的h。
因为微动假设,上述方程的右端可以被泰勒展开:
当运动较小时,可忽略高阶无穷小,将方程4带入方程3,建立等式如下:
Ixu+Iyv=-It (14)
其中u和v是连续的光流。Ix和Iy是点处沿x和y方向的图像梯度。根据空间一致性假设,图像上对应像素周围的区域之间的光流值为常数。假设该区域大小为m×m,其包含的像素数为n=m×m,建立等式如下:
构造超定方程有:
最优解可由上述方程求解,即该邻域内最有可能的光流值。
在传统VINS系统运行过程中由于其图像序列来自于机体运动,后两项假设一般较为容易满足,但是同样由于传统vINS系统运行过程中的机体运动,机体移动过程中光照环境常常会出现变化,因此灰度不变假设常常会受各种因素影响而不能满足。
由11式
将机体运动与图像灰度联系起来。同时,由3式4式可求出一个符合条件的f-1()使得f-1(Ii(x))≈tiB′(x) (17)
利用17式展开图像流I(x,y,t)可得
f-1(I(x,y,t))≈eB′(x,y,t) (18)
式中,为了区分图像流时间戳t,使用e表示曝光时间。利用18式展开11式
eB′(x,y,t)=(eΔexp)B′(x+Δx,y+Δy,t+Δt) (19)
式中,Δexp是两个相邻帧之间曝光时间的变化。令B′e=eB′时,泰勒展开公式19的右侧,得到如下方程:
将20式带入19式,得到形如13式的21式:
其中u和v是光流,τ与曝光时间直接相关。通过上述公式,可以同时估计出曝光时间的变化量和在这个变化量下的姿势变化量。考虑到位姿估计的速度,它还可以为后端优化提供更高质量的图像,以解决构建地图时可能出现的问题。其中,由于状态τ仅与曝光时间变化有关,通过22式可同步解得相机运行过程中的曝光信息。
附图说明
图1:相机成像过程流程图;
图2:系统流程图;
图3:曝光补偿图像流对比图;
图4:实验结果对比图;
具体实施方式
步骤1:搭建信息数据采集系统
依据各传感器之间的信息采集和传输方式,构建载有GPS,相机,IMU等传感器的多传感器的信息数据采集系统。
步骤2:系统初始化
启动并初始化系统,标定载体相机内参、IMU偏置、IMU坐标系(机体坐标系)与相机坐标系之间的转换矩阵等基本信息。
步骤3:相机初始化
在机体相同位姿状态下连续采集多组不同曝光时间的图像,并对采集到的图像进行处理,建立相机响应函数的代价函数,建立非线性优化过程。
通过上述方程求解f-1()与B′(x),分别求解代价函数对于两组未知量的偏导并令偏导等于零以得到局部最小值,有:
解得最优的f-1()与B′(x)
步骤4:机体运动过程中曝光参数估计
读取相邻两帧图片,将数据导入22式
同时求解曝光参数τ与补偿后的光流估计u,u。
增益验证
为了评价文中提出的改进型VINS算法的性能,设计了一个在校园教学楼附近采集实际数据的装置,并利用改进型VINS算法和传统的VINS算法进行处理,然后对两者进行比较,说明本文提出的算法的优缺点。
为了验证算法在复杂光照变化情况下对系统精度的提高,选取了下午学校最高建筑周围采集数据。数据集周围的主建筑基本上对应于几种不同的光强度,构成了一个光照较为复杂的环境,在该环境中机体一共运行了两圈作为实验数据。
为了验证本发明对图像的补偿效果,本文选取图像流中存在明显问题的相邻图像分别进行灰度校正。从实验的视觉数据可以看出,摄像机自身的参数设置对图像流的获取确实有很大的影响。图像流中相邻两帧图像的灰度值存在显著差异,这是VINS算法无法估计的。这种差异导致视觉信息的可信度显著降低,本文提出的补偿方法后,图像中的这种差异被显著消除。
为了验证本发明对于整个视觉惯性SLAM系统位姿估计精度的提升,设计实验同时使用传统VINS系统与改进型VINS系统处理上述方法中采集的数据集。由于传统的VINS没有考虑其他问题引起的图像干扰,基于传统LK光流的视觉处理方法无法解决光线急剧变化时的一些问题。与传统方法相比,本文提出的算法减小了位姿估计的漂移,提高了位姿估计的精度。改进后的算法与传统算法相比,整体姿态估计更接近实际GPS值。与传统算法相比,三轴平均定位误差分别降低了9.3%、11.9%和1.6%。三轴稳定性分别提高了10.3%、9.5%、2.7%。
Claims (2)
1.一种针对复杂光照环境的改进型VINS方法,其特征在于:
为了估计相机对图像的影响,引入相机成像模型:
I(x)=f(tV(x)B(x)) (1)
其中,t是相机曝光时间,整张图像具有相同的曝光时间,V(x)表示镜头畸变,与镜头上的透镜形态以及折射率有关,B(x)表示成像平面对应的场景中的辐照度,仅与场景中具体物质自身的性质有关,在光源不变的情况下辐照度B(x)不会发生变化;f()代表映射过程,I(x)是输出的图像,x点的像素灰度值;
标定相机响应函数模型的过程就是估计f()或是f-1()过程;在相机模型中,V(x)是镜头固有属性,在模型设计中令B(x)吸收V(x),得到宽松的辐照度B′(x),假设B′(x)=V(x)B(x),相机模型变为:
I(x)=f(tB′(x)) (2)
对于第i张图像,有一个假设的f-1(),可以得出以下等式:
因此,可以构造一个最小二乘问题估计函数f-1()如下:
由于I(x)的函数值范围是0到255的离散整数值,f-1(Ii(x))对应有限个映射关系,待解的未知变量是每个场景点的辐照度和256个映射关系f-1();在响应函数的校准过程中,应使相机保持不动,通过拍摄一系列不同曝光时间的图像,可以得到最优解;该过程中输出的图像流,每一个都已知曝光时间ti,并且相机保持不动,图像中的每一个像素x对应的场景点不变,每一个等式中每一个场景点的辐照度B′(x)不变,因此未知量仅仅是f-1()与场景点的辐照度;对于实际图像来说,未知量个数等于像素数量加256个,采集足够多不同曝光时间的图像可以构建超定方程用以解得最接近真实值的相机响应函数f-1();
应用初始化过程中估计的相机响应函数f-1(),可以得到在系统运行过程中同步估计相机曝光时间的算法,该算法是基于LK光流进行针对性改进而来的;
光流法建立等式如下:
因为微动假设,上述方程的右端可以被泰勒展开:
当运动较小时,可忽略高阶无穷小,将方程4带入方程3,建立等式如下:
Ixu+Iyv=-It (14)
其中u和v是连续的光流;Ix和Iy是点处沿x和y方向的图像梯度;根据空间一致性假设,图像上对应像素周围的区域之间的光流值为常数;假设该区域大小为m×m,其包含的像素数为n=m×m,建立等式如下:
构造超定方程有:
最优解可由上述方程求解,即该邻域内最有可能的光流值;
在传统vINS系统运行过程中由于其图像序列来自于机体运动,后两项假设一般较为容易满足,但是同样由于传统VINS系统运行过程中的机体运动,机体移动过程中光照环境常常会出现变化,因此灰度不变假设常常会受各种因素影响而不能满足;
由11式
将机体运动与图像灰度联系起来;同时,由3式4式可求出一个符合条件的f-1()使得
f-1(Ii(x))≈tiB′(x) (17)
利用17式展开图像流I(x,y,t)可得
f-1(I(x,y,t))≈eB′(x,y,t) (18)
式中,为了区分图像流时间戳t,使用e表示曝光时间;利用18式展开11式
eB′(x,y,t)=(eΔexp)B′(x+Δx,y+Δy,t+Δt) (19)
式中,Δexp是两个相邻帧之间曝光时间的变化;令B′e=eB′时,泰勒展开公式19的右侧,得到如下方程:
将20式带入19式,得到形如13式的21式:
其中u和v是光流,τ与曝光时间直接相关;通过上述公式,可以同时估计出曝光时间的变化量和在这个变化量下的姿势变化量;考虑到位姿估计的速度,它还可以为后端优化提供更高质量的图像,以解决构建地图时可能出现的问题;其中,由于状态τ仅与曝光时间变化有关,通过22式可同步解得相机运行过程中的曝光信息。
2.根据权利要求1所述的一种针对复杂光照环境的改进型VINS方法,其特征在于:该方法的具体步骤如下:
步骤1:搭建信息数据采集系统
依据各传感器之间的信息采集和传输方式,构建载有GPS,相机,IMU等传感器的多传感器的信息数据采集系统;
步骤2:系统初始化
启动并初始化系统,标定载体相机内参、IMU偏置、IMU坐标系与相机坐标系之间的转换矩阵等基本信息;
步骤3:相机初始化
在机体相同位姿状态下连续采集多组不同曝光时间的图像,并对采集到的图像进行处理,建立相机响应函数的代价函数,建立非线性优化过程;
通过上述方程求解f-1()与B′(x),分别求解代价函数对于两组未知量的偏导并令偏导等于零以得到局部最小值,有:
解得最优的f-1()与B′(x)
步骤4:机体运动过程中曝光参数估计
读取相邻两帧图片,将数据导入下式
同时求解曝光参数τ与补偿后的光流估计u,v。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210123895.2A CN114581517A (zh) | 2022-02-10 | 2022-02-10 | 一种针对复杂光照环境的改进型vins方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210123895.2A CN114581517A (zh) | 2022-02-10 | 2022-02-10 | 一种针对复杂光照环境的改进型vins方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114581517A true CN114581517A (zh) | 2022-06-03 |
Family
ID=81770948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210123895.2A Pending CN114581517A (zh) | 2022-02-10 | 2022-02-10 | 一种针对复杂光照环境的改进型vins方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581517A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303732A (zh) * | 2008-04-11 | 2008-11-12 | 西安交通大学 | 基于车载单目相机的运动目标感知与告警方法 |
CN104318569A (zh) * | 2014-10-27 | 2015-01-28 | 北京工业大学 | 基于深度变分模型的空间显著性区域提取方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN105574922A (zh) * | 2015-12-16 | 2016-05-11 | 浙江大学 | 一种鲁棒的三维模型高质量纹理映射方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN113108771A (zh) * | 2021-03-05 | 2021-07-13 | 华南理工大学 | 一种基于闭环直接稀疏视觉里程计的移动位姿估计方法 |
-
2022
- 2022-02-10 CN CN202210123895.2A patent/CN114581517A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303732A (zh) * | 2008-04-11 | 2008-11-12 | 西安交通大学 | 基于车载单目相机的运动目标感知与告警方法 |
CN104318569A (zh) * | 2014-10-27 | 2015-01-28 | 北京工业大学 | 基于深度变分模型的空间显著性区域提取方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN105574922A (zh) * | 2015-12-16 | 2016-05-11 | 浙江大学 | 一种鲁棒的三维模型高质量纹理映射方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN113108771A (zh) * | 2021-03-05 | 2021-07-13 | 华南理工大学 | 一种基于闭环直接稀疏视觉里程计的移动位姿估计方法 |
Non-Patent Citations (1)
Title |
---|
李琦;蒋蓁;: "考虑特征误匹配的双目视觉里程计", 工业控制计算机, no. 08, 25 August 2018 (2018-08-25), pages 59 - 61 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3679549B1 (en) | Visual-inertial odometry with an event camera | |
CN109993113B (zh) | 一种基于rgb-d和imu信息融合的位姿估计方法 | |
Zuo et al. | Lic-fusion: Lidar-inertial-camera odometry | |
CN109540126B (zh) | 一种基于光流法的惯性视觉组合导航方法 | |
EP3028252B1 (en) | Rolling sequential bundle adjustment | |
CN112598757B (zh) | 一种多传感器时间空间标定方法及装置 | |
CN105352509B (zh) | 地理信息时空约束下的无人机运动目标跟踪与定位方法 | |
CN112749665B (zh) | 一种基于图像边缘特征的视觉惯性slam方法 | |
CN111665512B (zh) | 基于3d激光雷达和惯性测量单元的融合的测距和绘图 | |
CN111623773B (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
CN109520476B (zh) | 基于惯性测量单元的后方交会动态位姿测量系统及方法 | |
CN112669354A (zh) | 一种基于车辆非完整约束的多相机运动状态估计方法 | |
CN114964276A (zh) | 一种融合惯导的动态视觉slam方法 | |
CN116576850B (zh) | 一种位姿确定方法、装置、计算机设备及存储介质 | |
CN113345032A (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN117434294A (zh) | 一种用于无人机的多孔径纯视觉光流测速方法 | |
JP2017059998A (ja) | 画像処理装置およびその方法、並びに、撮像装置 | |
CN117073720A (zh) | 弱环境与弱动作控制下快速视觉惯性标定与初始化方法及设备 | |
KR101996169B1 (ko) | 카메라 변위를 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치 | |
CN114581517A (zh) | 一种针对复杂光照环境的改进型vins方法 | |
CN116500595A (zh) | 激光雷达、相机和惯性传感器相互约束的外参标定方法 | |
Liu et al. | Integrated velocity measurement algorithm based on optical flow and scale-invariant feature transform | |
JP2018116147A (ja) | 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム | |
KR101996168B1 (ko) | Cmos 센서의 롤링 셔터 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치 | |
CN113379911A (zh) | Slam方法、slam系统及智能机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |