CN105865462B - 带有深度增强视觉传感器的基于事件的三维slam方法 - Google Patents

带有深度增强视觉传感器的基于事件的三维slam方法 Download PDF

Info

Publication number
CN105865462B
CN105865462B CN201510024833.6A CN201510024833A CN105865462B CN 105865462 B CN105865462 B CN 105865462B CN 201510024833 A CN201510024833 A CN 201510024833A CN 105865462 B CN105865462 B CN 105865462B
Authority
CN
China
Prior art keywords
event
depth
visual sensor
particle
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510024833.6A
Other languages
English (en)
Other versions
CN105865462A (zh
Inventor
廖鸿宇
孙放
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Zecheng Intelligent Technology Co.,Ltd.
Original Assignee
Beijing Thunderous Yun He Intellectual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Thunderous Yun He Intellectual Technology Co Ltd filed Critical Beijing Thunderous Yun He Intellectual Technology Co Ltd
Priority to CN201510024833.6A priority Critical patent/CN105865462B/zh
Publication of CN105865462A publication Critical patent/CN105865462A/zh
Application granted granted Critical
Publication of CN105865462B publication Critical patent/CN105865462B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种带有深度增强视觉传感器的基于事件的三维SLAM方法,该方法首先使用嵌入式动态视觉传感器直接生成动态变化的稀疏事件流,然后将嵌入式动态视觉传感器和一个单独活动的深度感应传感器相结合得到具有深度信息并被增强的像素事件;将上述像素事件作为基于事件的三维SLAM方法的唯一输入,通过选取粒子增量模型、离散概率稀疏体素网格建模生成局部地图、迭代更新局部地图生成全景地图。该方法无需使用特定硬件,能以比实时速度快20倍速度处理,以百赫兹的频率进行位置更新,并产生良好的效果,具有低内存需求、低功耗及高效的计算率等优点。

Description

带有深度增强视觉传感器的基于事件的三维SLAM方法
技术领域
本发明涉及一种带有深度增强视觉传感器的基于事件的三维SLAM(simultaneouslocalization and mapping)方法,属于移动机器人同步定位与地图创建(SLAM)领域。
背景技术
SLAM(同步定位与地图构建)算法是机器人和计算机视觉领域的核心任务之一,它可以使机器人在未知的和不受约束的环境中去探索。传统的2D和2.5D SLAM算法可以构建鸟瞰图,另外,近年来也提出了一些3D SLAM算法,这些算法大都是通过组合颜色和深度传感器(RGB-D)如PrimeSense设备实现的。现有的比较典型的三维SLAM方法是KinectFusion,它是一种密集三维SLAM方法,采用迭代的最近点去匹配深度图像和一个带符号的距离量来得到三维地图。另一种是由Bylow等人提出的方法,该方法是在KinectFusion算法的基础上,通过使用一种更复杂的带符号的距离公式的表示法和一种更好的优化策略进行的改进。Kerl等人提出了另一种密集视觉SLAM方法,这种算法采用测光和深度误差来优化现有的位置估计。然而,现有的这些密集三维SLAM方法有一个很严重的缺点,即它们都非常耗费资源,而且要使用专门的GPU硬件,这种硬件不仅昂贵而且功率耗费很大。
为了解决传统三维SLAM算法存在的问题,本专利提出了一种新的方法,使用低成本的嵌入式动态视觉传感器(eDVS),这种处理器能减少处理跟踪和映射的数据量。eDVS的每个像素单独且异步的监测感知照明的变化,当这种变化超过一定阈值之后就会生成像素位置事件。因此,这种事件主要在类似于边缘的图像特征突出的地方生成,例如几何形状或纹理的边缘等。另外,对于三维SLAM算法,深度信息也是一项重要的需求,由于eDVS不是一个深度传感器,因此,通过将eDVS和一个单独活动的深度感应摄像机如PrimseSense传感器组合起来,来得到深度信息从而增强像素事件,从而在摄像机坐标中生成一个三维点事件的稀疏矩阵,这个矩阵直接给出在三维场景中突出边缘的位置。
发明内容
本发明的目的在于针对上述技术存在的缺陷,提出了一种带有深度增强视觉传感器的基于事件的三维SLAM方法,该方法通过D-eDVS(通过将eDVS和一个单独活动的深度感应摄像机如PrimseSense传感器组合起来)得到具有深度信息并被增强的像素事件;将上述像素事件作为基于事件的三维SLAM方法的唯一输入,通过选取粒子增量模型、离散概率稀疏体素网格建模得到局部地图、迭代更新局部地图生成全景地图。该方法无需使用像GPU这种特定硬件的前提下,能以比实时速度快20倍的速度进行处理,以百赫兹的频率进行位置更新,并产生良好的效果,具有低内存需求、低功耗、高效的计算率的优点。
本发明是通过如下方式实现的:一种带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:该方法包括如下步骤:
步骤1:输入数据流的生成:
步骤1.1:动态视觉传感器(eDVS)生成稀疏事件流:使用嵌入式动态视觉传感器直接生成动态变化的稀疏事件流,该过程只需要硬件支持而无需软件进行预处理。
步骤1.2:D-eDVS获取深度信息增强像素事件:将嵌入式动态视觉传感器(eDVS)和一个单独活动的深度感应传感器RGB-D相结合,对两个传感器上对应像素进行校准;深度感应传感器能够获取动态视觉传感器上每个生成事件的对应像素位置的深度信息,从而得到带有深度信息并被增强的像素事件。
步骤1.3:深度图像增强逆操作:对于深度图像的增强事件来说逆操作是必须的,通过为每个新的深度帧更新一个固定尺寸的深度地图;对于每个新的事件,在深度地图中进行一次查找,为最小深度值检索出一个像素邻域作为事件深度。
所述的新的深度帧为动态视觉传感器中所看到的场景中的当前深度映射值。
步骤2:基于事件的三维SLAM:
步骤2.1:选取粒子增量模型:
步骤2.1.1:使用动态的贝叶斯网络颗粒滤波方法,跟踪摄像机当前的位置和方向,具体过程如下:把当前的系统状态建模成一个时间的随机变量值Xk,Xk只使用当前的电量测量Zk来推断;概率密度通过N个颗粒(pi,si)的集合实现,其中每个颗粒表示一个可能的系统状态pi以及一个相应的得分sisi预示如何更好的表示最新的观测计算,下一帧的颗粒选取基于这个得分,这个步骤称为重采样,该过程是迭代的;
其中,当前的摄像机姿态用特殊的欧几里德组表示,pi=(ti,qi)∈SE(3),位置方向为qi∈SE(3);
最后的测量状态Zk使用马尔科夫假设,基于帧的摄像机作为一个完整的图像来为得到高分的粒子提供足够的证据,马尔科夫假设适用于这种摄像机,这个测量状态替代整个的测量历史记录如公式所示:
其中,传感器模型P(Zk|Xk)定义了一个给定状态得到当前测量值的可能性;运动模型P(Xk|Xt-1)描述系统中的动态变化,在上述过程中,没有使用额外的传感器,因此运动模型是个简单的随机扩散过程;
步骤2.1.2:对于基于事件的情况,个别事件是非常模糊的同时也没有携带足够的信息来评价颗粒,由于这些原因,马尔科夫假设不再适用,需要选择一个增量模型,在这个增量模型中,粒子的评估不仅依赖于当前的电量测量,同时也依赖于近期的测量结果;对于每个新的事件ek粒子分数si通过使用指数递减模型进行更新,公式如下:
si=(1-α)si+αP(Zk=ek|Xk=pi) (6)
其中,衰减常数α为当前事件与之前的事件对比的影响,α直观的推导为α=1-(1-β)1/k,其在最后的K个事件的衰减常数对整个粒子得分si的影响为β∈[0,1];
步骤2.1.3:为了提高运算性能,减少运动模型中粒子扩散所耗费的时间,首先通过两个正态分布的协方差的和来求两个正态分布的和,然后在B事件的小批次中收集事件,即B=3,把它们当作一个信息包,这使得每一小批的标准差乘以根号B执行一次正常的扩散,如以下公式所示:
步骤2.2:离散概率稀疏体素网格建模生成局部地图:地图地图中的每个像素标明当摄像机移动时这个点会生成一个事件的可能性,因此传感器模型公式如下:
其中,常数是尺寸坐标中的体素的大小,它的标准值是0.01米;
步骤2.3:为每个事件进行迭代局部地图更新,生成全景地图;更新方式如下:
此处p*∈SO(3)是当前最新粒子的姿态,表示最接近的整数。
为了获得深度信息,需要对动态视觉传感器上的对应像素进行校准,校准过程如下:
(1)摄像机将被建模成常规的针孔摄像机K(f,c),其中f是焦距,投影中心;点到图像点的映射被定义为u=K Tx,T表示变换矩阵的旋转和平移;对于真实的透镜,有必要接近径向,简单的模型如以下公式所示,k1和κ2表示失真参数,当摄像机出现失真问题时可使用硬件进行补救:
L(u)=u(1+κ1γ+κ2γ2),γ=||u|| (1)
如果深度信息是投影的倒数,那么这对光线来说是唯一的反投影图像点,因而对于深度感应传感器,通过计算点ud的深度图像点;
(2)建立深度感应传感器和在基于事件传感器上对应像素位置的关系,计算相应的eDVS图像坐标ue
计算内部摄像机参数Ke和Kd以及相对平移矩阵T,记录两个传感器的对应像素位置的集合,找到最小平方问题,公式如下:
摄像机的内部参数是已知的且不需要优化,使用局部优化进行初始化来求解。
所述的对应像素的位置是通过如下方式查找的:使用一个二极管,二极管以一个固定且已知的频率发射光脉冲,通过在基于事件的数据流中使用频率迭代检测到二极管的位置,舍弃某些像素的位置特征。
所述舍弃某些像素的位置特征是事件间的时间间隔与脉冲频率不匹配;
所述的二极管放置在主板之间并需要在深度图像中进行检测。
所述的局部地图更新方式也可以使用分数加权的所有粒子进行更新。
本发明有益效果:
1、该方使用一种修正的颗粒滤波方法来跟踪当前的位置和方向,并为每个事件更新位置和地图相关的内部状态,从而能够提供延迟率低的姿态估计。
2、该方法无需使用像GPU这种特定硬件的前提下,能以比实时速度快20倍的速度进行处理,以百赫兹的频率进行位置更新,并产生良好的效果,具有低内存需求、低功耗、高效的计算率的优点。
本发明之所以有上述的有益效果原因在于:嵌入式动态视觉传感器像(eDVS)是一种新型的灰度图像传感器,它完全抛弃了基于帧的视觉的概念。所有的eDVS操作器的像素同步且独立的随时间生成测量的光强度。当一个像素累计的变化量超过阈值时就形成一个像素事件,然后插入到事件流中。因此,这种事件主要在类似于边缘的图像特征突出的地方生成,例如几何形状或纹理的边缘等。这样的像素事件组成传感器中的像素位置在本发明中,像素的分辨率为128×128,指示事件发生时间的时间戳的精确度为毫秒级。另外,还支持奇偶校验位来表示照明的增加和减少。
D-eDVS是PrimeSense RGB-D传感器和一个嵌入式动态视觉传感器的组合,动态视觉传感器只对动态对比变化和以表示单独像素位置的事件的稀疏流的形式生成的输出数据作出反应。基于事件的动态视觉传感器被一个经典的基于这帧的RGB-D传感器所融合以产生一个深度增强的三维点的稀疏流。一个基于事件的稀疏流有很多优势,生成的数据流比较小,资源利用率比较高,允许连续性的表示滞后跟踪的运动。传统的基于帧的传感器每秒需要对数百帧进行操作处理才能达到同样的效果。eDVS直接生成动态变化的稀疏流来去除冗余数据的过程只需要硬件支持而无需软件进行预处理。
附图说明
图1是本发明所述的方法流程图。
其中,eDVS表示嵌入式动态视觉传感器,D-eDVS表示RGB-D传感器和eDVS传感器的结合。
具体实施方式
下面结合附图对本发明作进一步的描述。
一种带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:该方法包括如下步骤:
步骤1:输入数据流的生成:
步骤1.1:eDVS生成稀疏事件流:使用嵌入式动态视觉传感器(eDVS)直接生成动态变化的稀疏事件流,该过程只需要硬件支持而无需软件进行预处理。
步骤1.2:D-eDVS获取深度信息增强像素事件:结合一个嵌入式动态视觉传感器(eDVS)和一个单独活动的深度感应传感器RGB-D Asus Xtion Pro Live,分辨率为320*240,频率为69Hz,对两个传感器上对应像素进行校准;深度感应传感器RGB-D能够获取动态视觉传感器(eDVS)上每个生成事件的对应像素位置的深度信息,从而得到带有深度信息并被增强的像素事件。
其中对应像素校准过程如下:
(1)摄像机将被建模成常规的针孔摄像机K(f,c),其中f是焦距,投影中心;点到图像点的映射被定义为u=K Tx,T表示变换矩阵的旋转和平移;对于真实的透镜,有必要接近径向,简单的模型如以下公式所示,κ1和κ2表示失真参数,当摄像机出现失真问题时可使用硬件进行补救:
L(u)=u(1+κ1γ+κ2γ2),γ=||u|| (1)
一般而言,如果深度信息是投影的倒数,那么这对光线来说可能是唯一的反投影图像点,因而对于深度感应传感器,通过计算点ud的深度图像点;
(2)建立深度感应传感器和在基于事件传感器上对应像素位置的关系,计算相应的eDVS图像坐标ue
计算内部摄像机参数Ke和Kd以及相对平移矩阵T,记录两个传感器的对应像素位置的集合,找到最小平方问题,公式如下:
摄像机的内部参数是已知的且不需要优化,使用局部优化进行初始化来求解。
对应像素的位置是通过如下方式查找的:使用一个二极管,二极管放置在主板之间并需要在深度图像中进行检测,二极管以一个固定且已知的频率发射光脉冲,通过在基于事件的数据流中使用频率迭代检测到二极管的位置,舍弃所有在某些像素的位置特征,舍弃某些像素的位置特征是事件间的时间间隔与脉冲频率不匹配;
步骤1.3:深度图像增强逆操作:对于深度图像的增强事件来说逆操作是必须的,通过为每个新的深度帧更新一个128*128像素的深度地图;对于每个新的事件,在深度地图中进行一次查找,为最小深度值检索出一个像素邻域作为事件深度。
所述的新的深度帧为eDVS中所看到的场景中的当前深度映射值。
由于深度帧的深度在事件生成时获取不到,本专利采取基于帧和基于事件的折中方法,通过使用来自一个邻近像素的最新帧的最小深度值。
步骤2:基于事件的三维SLAM:
步骤2.1:选取粒子增量模型:
步骤2.1.1:使用动态的贝叶斯网络颗粒滤波方法,来跟踪摄像机当前的位置和方向,具体过程如下:把当前的系统状态建模成一个时间的随机变量值Xk,Xk只使用当前的电量测量Zk来推断;概率密度通过N个颗粒(pi,si)的集合实现,其中每个颗粒表示一个可能的系统状态pi以及一个相应的得分sisi预示如何更好的表示最新的观测计算,下一帧的颗粒选取基于这个得分,这个步骤称为重采样,该过程是迭代的;
其中,当前的摄像机姿态用特殊的欧几里德组表示,pi=(ti,qi)∈SE(3),位置方向为qi∈SE(3);
最后的测量状态Zk使用马尔科夫假设,基于帧的摄像机作为一个完整的图像来为得到高分的粒子提供足够的证据,马尔科夫假设适用于这种摄像机,这个测量状态替代整个的测量历史记录如公式所示:
其中,传感器模型P(Zk|Xk)定义了一个给定状态得到当前测量值的可能性;运动模型P(Xk|Xt-1)描述系统中的动态变化,在上述过程中,没有使用额外的传感器,因此运动模型是个简单的随机扩散过程;
步骤2.1.2:对于基于事件的情况,个别事件是非常模糊的同时也没有携带足够的信息来评价颗粒,由于这些原因,马尔科夫假设不再适用,需要选择一个增量模型,在这个增量模型中,粒子的评估不仅依赖于当前的电量测量,同时也依赖于近期的测量结果;对于每个新的事件ek粒子分数si通过使用指数递减模型进行更新,公式如下:
si=(1-α)si+αP(Zk=ek|Xk=pi) (6)
其中,衰减常数α为当前事件与之前的事件对比的影响,α直观的推导为α=1-(1-β)1/k,其在最后的K个事件的衰减常数对整个粒子得分si的影响为β∈[0,1];
步骤2.1.3:为了提高运算性能,减少运动模型中粒子扩散所耗费的时间,首先通过两个正态分布的协方差的和来求两个正态分布的和,然后在B事件的小批次中收集事件,即B=3,把它们当做一个信息包,这使得每一小批的标准差乘以根号B执行一次正常的扩散,如以下公式所示:
步骤2.2:离散概率稀疏体素网格建模生成局部地图:地图地图中的每个像素标明当摄像机移动时这个点会生成一个事件的可能性,因此传感器模型公式如下:
其中,常数是尺寸坐标中的体素的大小,它的标准值是0.01米;
步骤2.3:为每个事件进行迭代局部地图更新,生成全景地图;更新方式如下:
此处p*∈SO(3)是当前最新粒子的姿态,表示最接近的整数。
局部地图更新方式也可以使用分数加权的所有粒子进行更新。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内的所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:该方法包括如下步骤:
步骤1:输入数据流的生成:
步骤1.1:动态视觉传感器(eDVS)生成稀疏事件流:使用嵌入式动态视觉传感器直接生成动态变化的稀疏事件流,该过程只需要硬件支持而无需软件进行预处理;
步骤1.2:D-eDVS获取深度信息增强像素事件:所谓D-eDVS是将嵌入式动态视觉传感器和一个单独活动的深度感应传感器(RGB-D)相结合,对两个传感器上对应像素进行校准;深度感应传感器能够获取动态视觉传感器上每个生成事件的对应像素位置的深度信息,从而得到带有深度信息并被增强的像素事件;
步骤1.3:深度图像增强逆操作:对于深度图像的增强事件来说逆操作是必须的,通过为每个新的深度帧更新一个固定尺寸的深度地图;对于每个新的事件,在深度地图中进行一次查找,为最小深度值检索出一个像素邻域作为事件深度;
所述的新的深度帧为动态视觉传感器中所看到的场景中的当前深度映射值;
步骤2:基于事件的三维SLAM:
步骤2.1:选取粒子增量模型:
步骤2.1.1:使用动态的贝叶斯网络颗粒滤波方法,跟踪摄像机当前的位置和方向,具体过程如下:把当前的系统状态建模成一个时间的随机变量值Xk,Xk只使用当前的电量测量Zk来推断;概率密度通过N个颗粒(pi,si)的集合实现,其中每个颗粒表示一个可能的系统状态pi以及一个相应的得分sisi预示如何更好的表示最新的观测计算,下一帧的颗粒选取基于这个得分,这个步骤称为重采样,该过程是迭代的;
其中,当前的摄像机姿态用特殊的欧几里德组表示,pi=(ti,qi)∈SE(3),位置方向为qi∈SE(3);
最后的测量状态Zk使用马尔科夫假设,基于帧的摄像机作为一个完整的图像来为得到高分的粒子提供足够的证据,马尔科夫假设适用于这种摄像机,这个测量状态替代整个的测量历史记录Zk=(Z1,......,Zk),如公式所示:
P(Xk|zk)∝P(Zk|Xk)∫P(Xk|Xt-1)P(Xt-1|Zt-1)dXt-1
其中,传感器模型P(Zk|Xk)定义了一个给定状态得到当前测量值的可能性;运动模型P(Xk|Xt-1)描述系统中的动态变化,在上述过程中,没有使用额外的传感器,因此运动模型是个简单的随机扩散过程;
步骤2.1.2:对于基于事件的情况,个别事件是非常模糊的同时也没有携带足够的信息来评价颗粒,由于这些原因,马尔科夫假设不再适用,需要选择一个增量模型,在这个增量模型中,粒子的评估不仅依赖于当前的电量测量,同时也依赖于近期的测量结果;对于每个新的事件ek粒子分数si通过使用指数递减模型进行更新,公式如下:
si=(1-α)si+αP(Zk=ek|Xk=pi)
其中,衰减常数α为当前事件与之前的事件对比的影响,α直观的推导为α=1-(1-β)1/k,其在最后的K个事件的衰减常数对整个粒子得分si的影响为β∈[0,1];
步骤2.1.3:为了提高运算性能,减少运动模型中粒子扩散所耗费的时间,首先通过两个正态分布的协方差的和来求两个正态分布的和,然后在B事件的小批次中收集事件,即B=3,把它们当作一个信息包,这使得每一小批的标准差乘以根号B执行一次正常的扩散,如以下公式所示:
步骤2.2:离散概率稀疏体素网格建模生成局部地图:地图M:地图M中的每个像素标明当摄像机移动时这个点会生成一个事件的可能性,因此传感器模型公式如下:
其中,常数是尺寸坐标中的体素的大小,它的标准值是0.01米;
步骤2.3:为每个事件进行迭代局部地图更新,生成全景地图;更新方式如下:
此处p*∈SO(3)是当前最新粒子的姿态,表示最接近的整数。
2.根据权利要求1所述的带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:步骤1.2中,所述对应像素的校准过程包括如下步骤:
(1)摄像机将被建模成常规的针孔摄像机K(f,引,其中f是焦距,投影中心;占到图像点的映射被定义为u=KTx,T表示变换矩阵的旋转和平移;对于真实的透镜,有必要接近径向,简单的模型如以下公式所示,κ1和κ2表示失真参数,当摄像机出现失真问题时可使用硬件进行补救:
L(u)=u(1+κ1γ+κ2γ2),γ=||u||
如果深度信息是投影的倒数,那么这对光线来说是唯一的反投影图像点,因而对于深度感应传感器,通过计算点ud的深度图像点;
(2)建立深度感应传感器和在基于事件传感器上对应像素位置的关系,计算相应的动态视觉传感器图像坐标ue
计算内部摄像机参数Ke和Kd以及相对平移矩阵T,记录两个传感器的对应像素位置的集合,找到最小平方问题,公式如下:
摄像机的内部参数是已知的且不需要优化,使用局部优化进行初始化来求解。
3.根据权利要求1所述的带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:步骤1.2中,所述对应像素的位置是通过如下方式查找的:使用一个二极管,二极管以一个固定且已知的频率发射光脉冲,通过在基于事件的数据流中使用频率迭代检测到二极管的位置,舍弃某些像素的位置特征;
所述舍弃某些像素的位置特征是事件间的时间间隔与脉冲频率不匹配;
所述的二极管放置在主板之间并需要在深度图像中进行检测。
4.根据权利要求1所述的带有深度增强视觉传感器的基于事件的三维SLAM方法,其特征在于:步骤2.3中,所述局部地图更新方式使用分数加权的所有粒子进行更新。
CN201510024833.6A 2015-01-19 2015-01-19 带有深度增强视觉传感器的基于事件的三维slam方法 Active CN105865462B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510024833.6A CN105865462B (zh) 2015-01-19 2015-01-19 带有深度增强视觉传感器的基于事件的三维slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510024833.6A CN105865462B (zh) 2015-01-19 2015-01-19 带有深度增强视觉传感器的基于事件的三维slam方法

Publications (2)

Publication Number Publication Date
CN105865462A CN105865462A (zh) 2016-08-17
CN105865462B true CN105865462B (zh) 2019-08-06

Family

ID=56622686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510024833.6A Active CN105865462B (zh) 2015-01-19 2015-01-19 带有深度增强视觉传感器的基于事件的三维slam方法

Country Status (1)

Country Link
CN (1) CN105865462B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108076338B (zh) * 2016-11-14 2022-04-08 北京三星通信技术研究有限公司 图像视觉处理方法、装置及设备
EP3570253B1 (en) * 2017-02-17 2021-03-17 SZ DJI Technology Co., Ltd. Method and device for reconstructing three-dimensional point cloud
US10948297B2 (en) * 2018-07-09 2021-03-16 Samsung Electronics Co., Ltd. Simultaneous location and mapping (SLAM) using dual event cameras
CN109579852A (zh) * 2019-01-22 2019-04-05 杭州蓝芯科技有限公司 基于深度相机的机器人自主定位方法及装置
CN113316755B (zh) * 2019-01-25 2024-04-23 索尼高级视觉传感股份公司 使用基于事件的视觉传感器的环境模型保持
CN110148159B (zh) * 2019-05-20 2021-03-26 厦门大学 一种基于事件相机的异步目标跟踪方法
CN110704562B (zh) * 2019-09-27 2022-07-19 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN112383715B (zh) * 2020-12-07 2022-05-17 Oppo(重庆)智能科技有限公司 图像获取装置、终端和图像获取方法
CN112800860B (zh) * 2021-01-08 2023-10-17 中电海康集团有限公司 一种事件相机和视觉相机协同的高速抛撒物检测方法和系统
CN113408671B (zh) * 2021-08-18 2021-11-16 成都时识科技有限公司 一种对象识别方法及装置、芯片及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法
CN103813156A (zh) * 2012-11-02 2014-05-21 三星电子株式会社 运动传感器阵列装置和深度感测系统及使用其的方法
CN103824080A (zh) * 2014-02-21 2014-05-28 北京化工大学 动态稀疏环境下机器人slam物体状态检测方法
CN103901895A (zh) * 2014-04-18 2014-07-02 江苏久祥汽车电器集团有限公司 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法
US8873831B2 (en) * 2010-12-21 2014-10-28 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8873831B2 (en) * 2010-12-21 2014-10-28 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法
CN103813156A (zh) * 2012-11-02 2014-05-21 三星电子株式会社 运动传感器阵列装置和深度感测系统及使用其的方法
CN103824080A (zh) * 2014-02-21 2014-05-28 北京化工大学 动态稀疏环境下机器人slam物体状态检测方法
CN103901895A (zh) * 2014-04-18 2014-07-02 江苏久祥汽车电器集团有限公司 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于RGB-D相机的移动机器人三维SLAM;贾松敏,等;《华中科学大学学报(自然科学版)》;20140131;第42卷(第1期);103-108页

Also Published As

Publication number Publication date
CN105865462A (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
CN105865462B (zh) 带有深度增强视觉传感器的基于事件的三维slam方法
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及系统
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
CN111275750B (zh) 基于多传感器融合的室内空间全景图像生成方法
EP1550083B1 (en) Method for blending plurality of input images into output image
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
US20190035150A1 (en) Resolution adaptive mesh for performing 3-d metrology of an object
CN107038717A (zh) 一种基于立体栅格自动分析3d点云配准误差的方法
CN112233179B (zh) 一种视觉里程计测量方法
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
CN109087394A (zh) 一种基于低成本rgb-d传感器的实时室内三维重建方法
CN103903263B (zh) 一种基于Ladybug全景相机图像的360度全方位测距方法
US20190035148A1 (en) Resolution adaptive mesh that is generated using an intermediate implicit representation of a point cloud
CN113711276A (zh) 尺度感知单目定位和地图构建
CN108305277A (zh) 一种基于直线段的异源图像匹配方法
CN110120093A (zh) 一种多元特征混合优化的rgb-d室内三维测图方法及系统
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
CN110428461B (zh) 结合深度学习的单目slam方法及装置
CN116091724A (zh) 一种建筑数字孪生建模方法
CN104537668A (zh) 一种快速视差图像计算方法及装置
CN112132950B (zh) 一种基于众包图像的三维点云场景更新方法
Freundlich et al. Exact bias correction and covariance estimation for stereo vision
CN113670268B (zh) 基于双目视觉的无人机和电力杆塔距离测量方法
CN115131504A (zh) 一种宽视场大场景下的多人三维重建方法
CN104200469A (zh) 一种视觉智能数控系统的数据融合方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200804

Address after: Room b1-317, building 1, No. 88, Nongda South Road, Ningde City, Fujian Province

Patentee after: Deng Weixiao

Address before: 100084, building 88, No. 1, Nongda South Road, Beijing, Haidian District, B1-317

Patentee before: BEIJING ROBOTLEO INTELLIGENT TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20201105

Address after: 200135 Shanghai City, Pudong New Area Chinese (Shanghai) free trade zone fanchun Road No. 400 Building 1 layer 3

Patentee after: Shanghai Quli Information Technology Co.,Ltd.

Address before: Room b1-317, building 1, No. 88, Nongda South Road, Ningde City, Fujian Province

Patentee before: Deng Weixiao

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240510

Address after: Room 503, Building 3, No. 6, Xicheng Xi'an North Road, Xinluo District, Longyan City, Fujian Province, 364000

Patentee after: Xie Xinyong

Country or region after: China

Address before: 3 / F, building 1, No. 400 Fangchun Road, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai, 200135

Patentee before: Shanghai Quli Information Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240529

Address after: Room A516-10, Bangning Electronic Information Industry Park, No. 1188 Chang'an Road, Jiangling Street, Wujiang District, Suzhou City, Jiangsu Province, 215200

Patentee after: Suzhou Zecheng Intelligent Technology Co.,Ltd.

Country or region after: China

Address before: Room 503, Building 3, No. 6, Xicheng Xi'an North Road, Xinluo District, Longyan City, Fujian Province, 364000

Patentee before: Xie Xinyong

Country or region before: China

TR01 Transfer of patent right