CN109708658A - 一种基于卷积神经网络的视觉里程计方法 - Google Patents

一种基于卷积神经网络的视觉里程计方法 Download PDF

Info

Publication number
CN109708658A
CN109708658A CN201910031577.1A CN201910031577A CN109708658A CN 109708658 A CN109708658 A CN 109708658A CN 201910031577 A CN201910031577 A CN 201910031577A CN 109708658 A CN109708658 A CN 109708658A
Authority
CN
China
Prior art keywords
data
point
characteristic point
convolutional neural
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910031577.1A
Other languages
English (en)
Other versions
CN109708658B (zh
Inventor
潘赟
陈佳平
包瑶琦
杨哲
惠思琦
吴筱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910031577.1A priority Critical patent/CN109708658B/zh
Publication of CN109708658A publication Critical patent/CN109708658A/zh
Application granted granted Critical
Publication of CN109708658B publication Critical patent/CN109708658B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于卷积神经网络的视觉里程计方法,包括以下步骤:步骤1,通过移动机器人所携带的摄像头采集原始环境数据,训练基于卷积神经网络的特征点检测器A;步骤2,移动机器人执行待估算里程的运动,通过所携带的摄像头采集待估算的原始数据;步骤3,对摄像头所采集到的待估算数据进行数据采样、剪裁预处理操作,获得待处理数据;步骤4,利用特征点检测器A对待检测数据进行筛选,得到特征点信息;步骤5,利用特征点信息结合对极约束法求解移动主体的运动估算矩阵,并进行里程坐标推算。本发明能够联系过滤前后帧环境之间的变化从而获得更加稳定的特征点,以增强匹配的准确率,从而减少视觉里程计的估算误差。

Description

一种基于卷积神经网络的视觉里程计方法
技术领域
本发明涉及导航定位技术领域,尤其涉及一种基于卷积神经网络的视觉里程计方法。
背景技术
视觉里程计技术主要用于机器人定位和导航中。近年来随着自动驾驶领域的研究热潮,视觉里程计技术得到了广泛的研究与应用。视觉里程计的方法克服了传统GPS里程计在室内环境或者部分室外环境尤其是受到建筑物遮挡的环境中GPS信号会受到干扰甚至阻断而无法提供稳定、准确的定位导航的问题。
传统的视觉里程计方法大都基于传统的特征点检测方法,而这些方法往往只关注单独一幅图片中局部区域的特征点,而不会关注前后相连帧之间的环境背景的变化与联系,因此往往会受到其影响,所以会存在许多的误匹配点对或者发生匹配到的点对不足的情况,最终导致无法避免的里程计估算误差。
发明内容
为了克服已有视觉里程计方法估算误差较大的不足,本发明提供了一种基于卷积神经网络的视觉里程计方法,能够联系过滤前后帧环境之间的变化从而获得更加稳定的特征点,以增强匹配的准确率,从而减少视觉里程计的估算误差。
本发明解决其技术问题所采用的技术方案是:
一种基于卷积神经网络的视觉里程计方法,包括以下步骤:
步骤1,通过移动机器人所携带的摄像头采集原始环境数据,训练基于卷积神经网络的特征点检测器A;
步骤2,移动机器人执行待估算里程的运动,通过所携带的摄像头采集待估算的原始数据;
步骤3,对摄像头所采集到的待估算数据进行数据采样、剪裁预处理操作,获得待处理数据;
步骤4,利用特征点检测器A对待检测数据进行筛选,得到特征点信息;
步骤5,利用特征点信息结合对极约束法求解移动主体的运动估算矩阵,并进行里程坐标推算。
进一步,在所述步骤1中,特征点检测器的训练步骤如下:
步骤1-1,将摄像头放置在机器人上,放置高度尽可能保持距离地面一定距离以上,方向正对着主体的移动方向;利用摄像头分别采集直行、转弯、上下坡移动画面数据,并尽可能在场景中行走较长的距离以保证采集到的原始数据的丰富性;
步骤1-2,对原始数据的每一帧图片使用角点、斑点等检测方法标记出其中的特征点,根据连续多帧中同一特征点出现的频率将所检测到的所有特征点分为正样本点、负样本点以及垃圾点,并将正样本点以及负样本点在原图中的局部像素块提取出来组成原始的训练数据集
步骤1-3,对原始训练数据集进行预处理操作,包括像素值从彩色空间到灰度空间的转换操作、像素块的水平及垂直翻转操作以及像素块的小角度旋转操作,得到预处理后的训练数据集
步骤1-4,将经过预处理操作的训练数据集作为输入,训练特征点检测器A,得到特征点检测器A的最优参数解。
再进一步,在所述步骤1-4中,特征点检测器A是一种基于卷积神经网络的模型,其中结构包括卷积层、池化层、全连接层、softmax层,其输入为一个或多个像素块,输出为各类概率所组成的向量,优化方法采用随机梯度下降法。
更进一步,在所述步骤2中,移动机器人执行待估算里程的运动,将摄像头放置在距离地面一定距离以上的位置,且方向保持在水平方向上,得到待估算的原始数据Sraw
在所述步骤3中,对待估算的原始数据Sraw进行预处理获得待检测数据Sp的步骤如下:
步骤3-1,对Sraw中的每一帧图片fraw进行水平以及垂直方向的剪裁,得到f′raw
步骤3-2,对得到的f′raw进行彩色空间转灰度空间的转换,然后利用不同尺寸的滑动窗口以一定步长依次扫描剪裁出待检测的像素块,得到多尺度数据Smp={pat,pos,scl},其中pat为每个待检测点周围的像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤3-3,对Smp进行尺度归一化操作,得到统一尺寸的待检测数据Sp={pat,pos,scl},其中pat为经过尺寸归一化操作后的待检测点像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸。
在所述步骤4中,利用特征点检测器A对待检测数据进行筛选的步骤如下:
步骤4-1,将待检测数据Sp作为特征点检测器A的输入进行前向计算得到每个待检测点是特征点的可能性得分,并将该得分合并到Sp中得到待筛选特征点数据P={scr,pos,scl},其中scr为每个待筛选特征点的得分,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤4-2,利用双阈值法结合非局部极大值抑制法对待筛选的特征点数据P进行筛选后得到筛选后的特征点数据Pnms={scr,pos,scl};
步骤4-3,对Pnms中的每个点利用特征描述方法生成其对应的描述子,将其合并到数据中得到所有特征点的完整信息Pk={scr,pos,scl,des},其中des为每个点所对应的描述子向量。
在所述步骤5中,利用特征点信息求解主体里程估计的步骤如下:
步骤5-1,利用特征点信息Pk中的描述子信息计算两帧之间特征点的相似度,然后使用过滤匹配方法筛选出两帧之间的匹配点对信息;
步骤5-2,利用两帧之间的匹配点对信息结合相机内部参数,使用对极约束方法求解出相机的运动矩阵;
步骤5-3,根据从初始点开始的帧间连续的运动矩阵结合初始点的空间坐标,通过矩阵递推计算得出每一帧当前所在的里程坐标。
本发明的有益效果主要表现在:能够通过训练的方式学习适合于使用场景的特征点检测器,并且该视觉里程计方法可以过滤移动过程中环境变化引起的噪声,从而获得更加稳健的特征点,以得到更加精确的里程或位姿估计。
附图说明
图1为本发明的训练特征点检测器的流程图。
图2位本发明的特征点检测器的网络结构图。
图3为本发明的基于卷积神经网络的视觉里程计方法的流程图。
图4为本发明实施例中检测出点的重复率的实验结果图。
图5为本发明实施例中视觉里程计的转换矩阵估算误差的实验结果图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图5,一种基于卷积神经网络的视觉里程计方法,包括以下步骤:
步骤1,通过移动机器人所携带的摄像头采集原始环境数据,训练基于卷积神经网络的特征点检测器A;
步骤2,移动机器人执行待估算里程的运动,通过所携带的摄像头采集待估算的原始数据;
步骤3,对摄像头所采集到的待估算数据进行数据采样、剪裁预处理操作,获得待处理数据;
步骤4,利用特征点检测器A对待检测数据进行筛选,得到特征点信息;
步骤5,利用特征点信息结合对极约束法求解移动主体的运动估算矩阵,并进行里程坐标推算。
进一步,在所述步骤1的流程如图1所示,特征点检测器的训练步骤如下:
步骤1-1,将摄像头放置在机器人上,放置高度尽可能保持距离地面一定距离以上,方向正对着主体的移动方向;利用摄像头分别采集直行、转弯、上下坡移动画面数据,并尽可能在场景中行走较长的距离以保证采集到的原始数据的丰富性;
步骤1-2,对原始数据的每一帧图片使用角点、斑点等检测方法标记出其中的特征点,根据连续多帧中同一特征点出现的频率将所检测到的所有特征点分为正样本点、负样本点以及垃圾点,并将正样本点以及负样本点在原图中的局部像素块提取出来组成原始的训练数据集
步骤1-3,对原始训练数据集进行预处理操作,包括像素值从彩色空间到灰度空间的转换操作、像素块的水平及垂直翻转操作以及像素块的小角度旋转操作,得到预处理后的训练数据集
步骤1-4,将经过预处理操作的训练数据集作为输入,训练特征点检测器A,得到特征点检测器A的最优参数解。
再进一步,在所述步骤1-4中,特征点检测器A是一种基于卷积神经网络的模型,其具体网络结构如图2所示,其中结构包括卷积层(conv)、池化层(maxpool)、全连接层(fc)、softmax层等相关的神经网络结构,其输入为一个或多个像素块,输出为各类概率所组成的向量,优化方法采用随机梯度下降法。
所述步骤2至步骤5的流程图如图3所示。
更进一步,在所述步骤2中,移动机器人执行待估算里程的运动,将摄像头放置在距离地面一定距离以上的位置,且方向保持在水平方向上,得到待估算的原始数据Sraw
在所述步骤3中,对待估算的原始数据Sraw进行预处理获得待检测数据Sp的步骤如下:
步骤3-1,对Sraw中的每一帧图片fraw进行水平以及垂直方向的剪裁,得到f′raw
步骤3-2,对得到的f′raw进行彩色空间转灰度空间的转换,然后利用不同尺寸的滑动窗口以一定步长依次扫描剪裁出待检测的像素块,得到多尺度数据Smp={pat,pos,scl},其中pat为每个待检测点周围的像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤3-3,对Smp进行尺度归一化操作,得到统一尺寸的待检测数据Sp={pat,pos,scl},其中pat为经过尺寸归一化操作后的待检测点像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸。
在所述步骤4中,利用特征点检测器A对待检测数据进行筛选的步骤如下:
步骤4-1,将待检测数据Sp作为特征点检测器A的输入进行前向计算得到每个待检测点是特征点的可能性得分,并将该得分合并到Sp中得到待筛选特征点数据P={scr,pos,scl},其中scr为每个待筛选特征点的得分,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤4-2,利用双阈值法结合非局部极大值抑制法对待筛选的特征点数据P进行筛选后得到筛选后的特征点数据Pnms={scr,pos,scl};
步骤4-3,对Pnms中的每个点利用特征描述方法生成其对应的描述子,将其合并到数据中得到所有特征点的完整信息Pk={scr,pos,scl,des},其中des为每个点所对应的描述子向量。
在所述步骤5中,利用特征点信息求解主体里程估计的步骤如下:
步骤5-1,利用特征点信息Pk中的描述子信息计算两帧之间特征点的相似度,然后使用过滤匹配方法筛选出两帧之间的匹配点对信息;
步骤5-2,利用两帧之间的匹配点对信息结合相机内部参数,使用对极约束方法求解出相机的运动矩阵;
步骤5-3,根据从初始点开始的帧间连续的运动矩阵结合初始点的空间坐标,通过矩阵递推计算得出每一帧当前所在的里程坐标。
本实施例,使用amos固定视角场景数据集、kitti动态视角场景数据集、以及使用移动机器人上搭载的摄像头采集的实地场景数据作为训练集。
首先,对训练数据集中的图片进行彩色空间转灰度空间操作,然后使用SIFT、ORB、HARRIS方法对其进行检测,将连续多帧中都被某种或多种方法检测出的点作为正样本,并将其信息提取出来包括其在图像中的坐标,检出时所属的尺度空间(如果存在的话)。同时将连续多帧中出现但被任意一种方法检出次数少于一定比例的点作负样本,并将其信息保存下来。对保存下来的正样本和负样本按照其信息提取出它们的局部像素块,大小为16x16的像素分辨率,如果存在尺度空间信息的话以该信息为尺度从原图中剪裁然后放缩回16x16的分辨率,然后在正样本与负样本的数据中分别添加上+1、-1的类别标签。
使用得到的训练数据对特征检测器模型进行训练,训练中在数据输入之前对其进行翻转、旋转等数据增强操作以提高模型的通用性,并使用dropout、BN等方法防止模型的过拟合。
在测试时,使用kitti数据集进行检出特征点的重复率测试。首先,使用三种分辨率的窗口在原图上扫描取出待检测的像素块然后将其放缩到16x16分辨率的大小再经过特征点检测器得到该点的得分,首先通过得分阈值法对初筛出一部分点,然后通过非局部极大值抑制法对特征点进行第二次的筛选,然后通过截取法选出所要的固定数量的特征点。从kitti数据集中选取city0005、city0014、city0104这三个子数据集进行测试,每一个子数据集中有近200帧图片,暂且以英文字母a、b来命名相邻两帧。实验时,首先检测出a中的特征点,然后检测出b中的特征点,将两帧中的特征点经过初步筛选后,使用最邻近距离的方法进行点对的匹配,通过两倍最小阈值法来判断匹配结果的好坏,即仅保留相似性距离小于所有点对中相似性距离最小值两倍的点对,计算得到的点对数量占初筛出点对的数量的比重,由此得到检出特征点的重复率,以检出点的数量为自变量,对比传统的SIFT、ORB等方法,多次实验的平均结果如图4所示,可以发现本方法检出特征点的重复率要高于其他方法。
另外,在测试里程计位姿转换矩阵估算误差时,使用的是Oxford数据集。首先将截取出的固定数量的特征点信息保存到数据缓冲区。然后,从数据缓冲区中取出相邻两帧的特征点数据,通过阈值、KNN、RANSAC等方法相结合进行特征点对的过滤与匹配。之后,根据得到的匹配点对使用8点法计算出两帧之间的位姿转换矩阵。实验中使用的是Oxford中的bikes、leuven、ubc这3个子数据集,其中每个子数据集都有5幅图,并提供了其中4对图之间的单应性映射矩阵的真实值。由此可以计算出本发明方法得到的转换矩阵和其真实值之间的误差,以检出点的数量为自变量,对比传统的SIFT、ORB两种方法,多次实验的平均结果如图5所示,为方便显示图5中的误差值为实际数值误差的平方和取对数之后值,可以发现本发明方法的估算误差较小,结果较优。
以上实施方式仅用于说明本发明,而非对本发明的限制。尽管参照实施例对本发明进行了详细说明,本领域的技术人员应当理解,对本发明的技术方案进行各种组合、修改或者等同替换,都不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种基于卷积神经网络的视觉里程计方法,其特征在于,所述方法包括以下步骤:
步骤1,通过移动机器人所携带的摄像头采集原始环境数据,训练基于卷积神经网络的特征点检测器A;
步骤2,移动机器人执行待估算里程的运动,通过所携带的摄像头采集待估算的原始数据;
步骤3,对摄像头所采集到的待估算数据进行数据采样、剪裁预处理操作,获得待处理数据;
步骤4,利用特征点检测器A对待检测数据进行筛选,得到特征点信息;
步骤5,利用特征点信息结合对极约束法求解移动主体的运动估算矩阵,并进行里程坐标推算。
2.如权利要求1所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤1中,特征点检测器的训练步骤如下:
步骤1-1,将摄像头放置在机器人上,放置高度尽可能保持距离地面一定距离以上,方向正对着主体的移动方向;利用摄像头分别采集直行、转弯、上下坡移动画面数据,并尽可能在场景中行走较长的距离以保证采集到的原始数据的丰富性;
步骤1-2,对原始数据的每一帧图片使用角点、斑点等检测方法标记出其中的特征点,根据连续多帧中同一特征点出现的频率将所检测到的所有特征点分为正样本点、负样本点以及垃圾点,并将正样本点以及负样本点在原图中的局部像素块提取出来组成原始的训练数据集
步骤1-3,对原始训练数据集进行预处理操作,包括像素值从彩色空间到灰度空间的转换操作、像素块的水平及垂直翻转操作以及像素块的小角度旋转操作,得到预处理后的训练数据集
步骤1-4,将经过预处理操作的训练数据集作为输入,训练特征点检测器A,得到特征点检测器A的最优参数解。
3.如权利要求2所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤1-4中,特征点检测器A是一种基于卷积神经网络的模型,其中结构包括卷积层、池化层、全连接层、softmax层,其输入为一个或多个像素块,输出为各类概率所组成的向量,优化方法采用随机梯度下降法。
4.如权利要求1~3之一所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤2中,移动机器人执行待估算里程的运动,将摄像头放置在距离地面一定距离以上的位置,且方向保持在水平方向上,得到待估算的原始数据Sraw
5.如权利要求1~3之一所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤3中,对待估算的原始数据Sraw,进行预处理获得待检测数据Sp的步骤如下:
步骤3-1,对Sraw中的每一帧图片fraw进行水平以及垂直方向的剪裁,得到f′raw
步骤3-2,对得到的f′raw进行彩色空间转灰度空间的转换,然后利用不同尺寸的滑动窗口以一定步长依次扫描剪裁出待检测的像素块,得到多尺度数据Smp={pat,pos,scl},其中pat为每个待检测点周围的像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤3-3,对Smp进行尺度归一化操作,得到统一尺寸的待检测数据Sp={pat,pos,scl},其中pat为经过尺寸归一化操作后的待检测点像素块数据,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸。
6.如权利要求1~3之一所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤4中,利用特征点检测器A对待检测数据进行筛选的步骤如下:
步骤4-1,将待检测数据Sp作为特征点检测器A的输入进行前向计算得到每个待检测点是特征点的可能性得分,并将该得分合并到Sp中得到待筛选特征点数据P={scr,pos,scl},其中scr为每个待筛选特征点的得分,pos为该点在原图中的坐标,scl为提取该点时的滑窗尺寸;
步骤4-2,利用双阈值法结合非局部极大值抑制法对待筛选的特征点数据P进行筛选后得到筛选后的特征点数据Pnms={scr,pos,scl};
步骤4-3,对Pnms中的每个点利用特征描述方法生成其对应的描述子,将其合并到数据中得到所有特征点的完整信息Pk={scr,pos,scl,des},其中des为每个点所对应的描述子向量。
7.如权利要求1~3之一所述的一种基于卷积神经网络的视觉里程计方法,其特征在于,在所述步骤5中,利用特征点信息求解主体里程估计的步骤如下:
步骤5-1,利用特征点信息Pk中的描述子信息计算两帧之间特征点的相似度,然后使用过滤匹配方法筛选出两帧之间的匹配点对信息;
步骤5-2,利用两帧之间的匹配点对信息结合相机内部参数,使用对极约束方法求解出相机的运动矩阵;
步骤5-3,根据从初始点开始的帧间连续的运动矩阵结合初始点的空间坐标,通过矩阵递推计算得出每一帧当前所在的里程坐标。
CN201910031577.1A 2019-01-14 2019-01-14 一种基于卷积神经网络的视觉里程计方法 Active CN109708658B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910031577.1A CN109708658B (zh) 2019-01-14 2019-01-14 一种基于卷积神经网络的视觉里程计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910031577.1A CN109708658B (zh) 2019-01-14 2019-01-14 一种基于卷积神经网络的视觉里程计方法

Publications (2)

Publication Number Publication Date
CN109708658A true CN109708658A (zh) 2019-05-03
CN109708658B CN109708658B (zh) 2020-11-24

Family

ID=66261196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910031577.1A Active CN109708658B (zh) 2019-01-14 2019-01-14 一种基于卷积神经网络的视觉里程计方法

Country Status (1)

Country Link
CN (1) CN109708658B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503684A (zh) * 2019-08-09 2019-11-26 北京影谱科技股份有限公司 相机位姿估计方法和装置
CN110516731A (zh) * 2019-08-20 2019-11-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110766024A (zh) * 2019-10-08 2020-02-07 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN112070175A (zh) * 2020-09-04 2020-12-11 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
WO2021098766A1 (zh) * 2019-11-20 2021-05-27 北京影谱科技股份有限公司 基于图像序列的orb特征视觉里程计学习方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106658023A (zh) * 2016-12-21 2017-05-10 山东大学 一种基于深度学习的端到端视觉里程计及方法
CN106780546A (zh) * 2016-12-06 2017-05-31 南京航空航天大学 基于卷积神经网络的运动模糊编码点的身份识别方法
CN107038710A (zh) * 2017-02-15 2017-08-11 长安大学 一种以纸张为目标的视觉跟踪算法
US20170356756A1 (en) * 2016-06-14 2017-12-14 Kabushiki Kaisha Toshiba Information processing device and method
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108648216A (zh) * 2018-04-19 2018-10-12 长沙学院 一种基于光流与深度学习的视觉里程计实现方法和系统
CN108986166A (zh) * 2018-07-20 2018-12-11 山东大学 一种基于半监督学习的单目视觉里程预测方法及里程计

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170356756A1 (en) * 2016-06-14 2017-12-14 Kabushiki Kaisha Toshiba Information processing device and method
CN106780546A (zh) * 2016-12-06 2017-05-31 南京航空航天大学 基于卷积神经网络的运动模糊编码点的身份识别方法
CN106658023A (zh) * 2016-12-21 2017-05-10 山东大学 一种基于深度学习的端到端视觉里程计及方法
CN107038710A (zh) * 2017-02-15 2017-08-11 长安大学 一种以纸张为目标的视觉跟踪算法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108280856A (zh) * 2018-02-09 2018-07-13 哈尔滨工业大学 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN108648216A (zh) * 2018-04-19 2018-10-12 长沙学院 一种基于光流与深度学习的视觉里程计实现方法和系统
CN108986166A (zh) * 2018-07-20 2018-12-11 山东大学 一种基于半监督学习的单目视觉里程预测方法及里程计

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YUJIN CHEN等: "Indoor Visual Positioning Aided by CNN-Based Image Retrieval: Training-Free, 3D Modeling-Free", 《SENSORS》 *
乔明起: "基于深度神经网络的视觉位姿估计方法研究", 《万方学位论文数据库》 *
卢晓东: "基于卷积神经网络的特征点匹配", 《万方学位论文数据库》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503684A (zh) * 2019-08-09 2019-11-26 北京影谱科技股份有限公司 相机位姿估计方法和装置
CN110516731A (zh) * 2019-08-20 2019-11-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110516731B (zh) * 2019-08-20 2022-04-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110766024A (zh) * 2019-10-08 2020-02-07 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
WO2021098766A1 (zh) * 2019-11-20 2021-05-27 北京影谱科技股份有限公司 基于图像序列的orb特征视觉里程计学习方法和装置
CN112070175A (zh) * 2020-09-04 2020-12-11 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN112070175B (zh) * 2020-09-04 2024-06-07 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN109708658B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN109708658A (zh) 一种基于卷积神经网络的视觉里程计方法
CN104392468B (zh) 基于改进视觉背景提取的运动目标检测方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN109800629A (zh) 一种基于卷积神经网络的遥感图像目标检测方法
CN108334847A (zh) 一种真实场景下的基于深度学习的人脸识别方法
CN108961312A (zh) 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统
CN111986099A (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN110287849A (zh) 一种适用于树莓派的轻量化深度网络图像目标检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106446930A (zh) 基于深层卷积神经网络的机器人工作场景识别方法
CN110276269A (zh) 一种基于注意力机制的遥感图像目标检测方法
CN106683091A (zh) 一种基于深度卷积神经网络的目标分类及姿态检测方法
CN109087328A (zh) 基于计算机视觉的羽毛球落点位置预测方法
CN103426179B (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN110889844B (zh) 一种基于深度聚类分析的珊瑚分布及健康状况评估方法
CN103093198B (zh) 一种人群密度监测方法及装置
CN105654516B (zh) 基于目标显著性的卫星图像对地面弱小运动目标检测方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN105404857A (zh) 一种基于红外的夜间智能车前方行人检测方法
CN110084165A (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN105512618B (zh) 视频跟踪方法
Lei et al. End-to-end change detection using a symmetric fully convolutional network for landslide mapping
CN108564085A (zh) 一种自动读取指针式仪表读数的方法
CN109145803A (zh) 手势识别方法及装置、电子设备、计算机可读存储介质
CN110378232A (zh) 改进的ssd双网络的考场考生位置快速检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant