CN110516731A - 一种基于深度学习的视觉里程计特征点检测方法及系统 - Google Patents
一种基于深度学习的视觉里程计特征点检测方法及系统 Download PDFInfo
- Publication number
- CN110516731A CN110516731A CN201910770820.1A CN201910770820A CN110516731A CN 110516731 A CN110516731 A CN 110516731A CN 201910770820 A CN201910770820 A CN 201910770820A CN 110516731 A CN110516731 A CN 110516731A
- Authority
- CN
- China
- Prior art keywords
- frame image
- characteristic point
- data
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于深度学习的视觉里程计特征点检测方法及系统,在本申请提供的方法中,首先开启视觉里程计获取原始训练集视频流,将视频流中的RGB图像帧灰度化,得到预处理图像信息,再计算图像信息中的任意相邻帧图像相对尺寸因子,获取多个具有指定像素分辨率的像素块数据的训练数据,并对其进行训练,筛选出每帧图像中的多个特征点数据,最后利用特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,从而计算相邻帧之间的特征点匹配度。基于本申请提供的基于深度学习的视觉里程计特征点检测方法及系统,利用神经网络的方法对视角变化的特征点检测方法进行了优化,从而提升在视角变化时特征点检测的性能。
Description
技术领域
本申请涉及计算机视觉领域,特别是涉及一种基于深度学习的视觉里程计特征点检测方法及系统。
背景技术
数字图像的特征点检测是计算机视觉研究中的重要组成部分,现有的研究中图像匹配问题通常使用传统的特征点检测方法来处理,而传统的视觉里程计特征点检测方法通常考虑图片中的像素灰度值信息和梯度信息进行匹配,该方法在发生空间视角变幻时即传感器发生旋转、平移时,选择的特征点及其邻域的像素块会发生透视形变,随着图像区域的变化会丢失一些特征点,并检出新的特征点,在对两帧图像进行匹配的过程中由于特征点的不同导致在视角变化时该方法选取的特征点容易存在误差。通过将神经网络应用于特征点的检测实现了端到端操作,能够自动提取图像特征。然而,在计算机硬件受限的情况下,已有的应用卷积神经网络的方法难以获得较好的训练结果,不能很好的发挥作用。
发明内容
本申请的目的在于克服上述问题或者至少部分地解决或缓减解决上述问题。
根据本申请的一个方面,提供了一种基于深度学习的视觉里程计特征点检测方法,包括:
开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
将所述训练数据输入神经网络进行训练,筛选出所述相邻帧图像中每帧图像中的多个特征点数据;
利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度。
可选地,所述开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息之后,还包括:
保存所述预处理图像信息,并对所述预处理图像信息进行直方图均衡化。
可选地,所述计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据,包括:
在所述预处理图像信息中选取两帧相邻帧图像,使用ORB方法计算所述相邻帧图像的相对尺寸因子;
对于所述相邻帧图像中的每一帧图像,截取所述相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,分别得到包括多个具有指定像素分辨率的像素块数据的训练数据。
可选地,所述将所述训练数据输入神经网络进行训练,筛选出多个特征点数据,包括:
将所述训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;
通过得分函数计算方法结合设定的训练得分在所述多个像素数据块中选取一定数量的像素数据块作为特征点数据。
可选地,所述利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度,包括:
基于预设AlexNet网络结构结合所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子;
通过所述相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度。
根据本申请的另一个方面,提供了一种基于深度学习的视觉里程计特征点检测系统,包括:
图像预处理模块,其配置成开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
训练数据获取模块,其配置成计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
特征点筛选模块,其配置成将所述训练数据输入神经网络进行训练,筛选出所述相邻帧图像中每帧图像中的多个特征点数据;
特征点匹配模块,其配置成利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度。
可选地,还包括:
直方图均衡化模块,其配置成保存所述预处理图像信息,并对所述预处理图像信息进行直方图均衡化。
可选地,所述训练数据获取模块,其还配置成:
在所述预处理图像信息中选取两帧相邻帧图像,使用ORB方法计算所述相邻帧图像的相对尺寸因子;
对于所述相邻帧图像中的每一帧图像,截取所述相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,分别得到包括多个具有指定像素分辨率的像素块数据的训练数据。
可选地,所述特征点筛选模块,其还配置成:
将所述训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;
通过得分函数计算方法结合设定的训练得分在所述多个像素数据块中选取一定数量的像素数据块作为特征点数据。
可选地,所述特征点匹配模块,其还配置成:
基于预设AlexNet网络结构结合所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子;
通过所述相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度。
本申请提供了一种基于深度学习的视觉里程计特征点检测方法及系统,在本申请提供的方法中,首先开启视觉里程计获取原始训练集视频流,将视频流中的RGB图像帧灰度化,得到预处理图像信息,再计算图像信息中的任意相邻帧图像相对尺寸因子,获取多个具有指定像素分辨率的像素块数据的训练数据,并对其进行训练,筛选出每帧图像中的多个特征点数据,最后利用特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,从而计算相邻帧之间的特征点匹配度。
基于本申请提供的基于深度学习的视觉里程计特征点检测方法及系统,利用神经网络的方法对视角变化的特征点检测方法进行了优化,从而提升在视角变化时特征点检测的性能。
根据下文结合附图对本申请的具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述以及其他目的、优点和特征。
附图说明
后文将参照附图以示例性而非限制性的方式详细描述本申请的一些具体实施例。附图中相同的附图标记标示了相同或类似的部件或部分。本领域技术人员应该理解,这些附图未必是按比例绘制的。附图中:
图1是根据本申请实施例的基于深度学习的视觉里程计特征点检测方法流程示意图;
图2是根据本申请实施例的ORB方法获取像素块数据流程示意图;
图3是根据本申请实施例的基于深度学习的视觉里程计特征点检测系统结构示意图;
图4是根据本申请优选实施例的基于深度学习的视觉里程计特征点检测系统结构示意图;
图5是根据本申请实施例的计算设备结构示意图;
图6是根据本申请实施例的计算机可读存储介质示意图。
具体实施方式
图1是根据本申请实施例的基于深度学习的视觉里程计特征点检测方法流程示意图。参见图1所知,本申请实施例提供的基于深度学习的视觉里程计特征点检测方法可以包括:
步骤S101:开启视觉里程计获取原始训练集视频流,并将原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
步骤S102:计算上述预处理图像信息的任意相邻帧图像相对尺寸因子,基于相对尺寸因子在上述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
步骤S103:将训练数据输入神经网络进行训练,筛选出相邻帧图像中每帧图像中的多个特征点数据;
步骤S104:利用每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于特征描述子计算相邻帧图像之间的特征点的匹配度。
随着人工智能的兴起和深度学习的发展,基于卷积神经网络进行研究成为了计算机视觉领域的研究热点。本申请实施例提供了一种基于深度学习的视觉里程计特征点检测方法及系统,在本申请提供的方法中,首先开启视觉里程计获取原始训练集视频流,将视频流中的RGB图像帧灰度化,得到预处理图像信息,再计算图像信息中的任意相邻帧图像相对尺寸因子,获取多个具有指定像素分辨率的像素块数据的训练数据,并对其进行训练,筛选出每帧图像中的多个特征点数据,最后利用特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,从而计算相邻帧之间的特征点匹配度。
对于传统的特征点检测方法,如尺度不变特征转换方法(Scale-invariantfeature transform,SIFT),它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量。该方法实时性不高,仅能在小型特征数据库的条件下获得了较好的匹配效果。另外,加速鲁棒性特征方法(Speeded Up Robust Features,SURF)。该方法通过利用森海行列式的斑点检测方法在不同的二维空间尺度进行近似哈尔小波值计算,提高了整体的特征检测效率。随后,提出了对SIFT、SURF的有效替代方法(Oriented FAST and Rotated BRIEF,ORB)该方法结合加速分段式检测特征(Fatures from Accelerated Segment Test,FEST)与二值鲁棒独立基础特征法(Binary Robust Independent Elementary Features,BRIEF)引入了方向的计算方法,使用贪婪搜索方法来挑选区分性较强的点对来进行对比判断从而生成二进制的描述子,取得了较好的结果,是目前比较普遍使用的方法。
因而,本申请提供的基于深度学习的视觉里程计特征点检测方法,相比较传统的特征点检测方法而言,利用神经网络的方法对视角变化的特征点检测方法进行了优化,从而提升在视角变化时特征点检测的性能。
具体地,本申请的图像特征点检测器是基于AlexNet之上修改而来。本模型所采用的实验数据集为KITTI数据集,是目前最大的自动驾驶场景下的计算机视觉算法评测数据集。该数据集对不同的光线、通透度、泛着条件、背景杂乱程度、焦距下的相似物体的追踪,符合实际情况对视角变化的特征点检测的要求。
参见上述步骤S101,首先要开启视觉里程计获取原始训练集视频流,将其中的相邻帧RGB图像帧灰度化,得到预处理图像信息。进一步地,保存获得的预处理图像信息之后,还可以对预处理图像信息进行直方图均衡化。
视觉里程计就是一个通过分析处理相关图像序列来确定机器人的位置和姿态。实际应用中,原始训练集视频流是拍摄对象的一组图像序列,包括在不同时间、不同方位对目标依序连续获取的系列图像。在原始训练集视频流中的选取两帧相邻帧的彩色图像进行灰度化处理,得到只保留灰度空间梯度信息的预处理图像信息。通过将灰度化后的预处理图像信息再进行直方图均衡化,可以提高图像的对比度和灰度色调,使图像像素均匀分布,从而获取预处理图像信息。
将原始训练集视频流中图像信息预处理之后,就可以执行步骤S102,计算其相邻帧图像的相对尺度因子,从而获取包括多个具有指定像素分辨率的像素块数据的训练数据。具体执行上述步骤S102时,可以包括:在预处理图像信息中任意选取两帧相邻帧图像,使用ORB方法计算所选取的相邻帧图像的相对尺寸因子;然后对于该相邻帧图像中的每一帧图像,截取相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,得到包括多个具有指定像素分辨率的像素块数据,作为后续的训练数据。
ORB全称Oriented FAST and Rotated BRIEF,是一种快速特征点提取和描述的算法。它分为特征点提取和特征点描述两部分,其特征是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化。
使用ORB方法获取像素块数据,具体如图2所示:
S201:使用ORB方法先计算上述两帧相邻帧的相对尺寸因子,即相邻帧绝对尺度的比;
S202:截取相对尺寸因子固定倍数的局部像素;
S203:将局部像素进行降采样,获得指定像素分辨率的图像;
S204:对指定像素分辨率的图像进行尺度归一化,得到多个像素块数据。
归一化是统一在0-1之间的统计概率分布,使得所有样本的输入信号其均值接近于0或与其均方差相比很小。
然后参照步骤S103,将训练数据输入神经网络进行训练,筛选出相邻帧图像中每帧图像中的多个特征点数据。
可选地,将训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;然后通过得分函数计算方法结合设定的训练得分在多个像素数据块中选取一定数量的像素数据块作为特征点数据。
得分函数的计算公式如下:
其中:xi和yi表示原图像素坐标;
w,h为原图的宽度和高度;
表示筛选点距图中心的距离;
是通过尺度归一化到[0,1]区间;
pi为通过神经网络后得到的特征概率;
βc,βp为设置的比例系数。
最后执行步骤S104,利用每帧图像中的特征点数据和局部像素计算得到每帧图像的特征描述子,从而计算相邻帧图像之间的特征点的匹配度。具体包括,基于预设AlexNet网络结构结合每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,从而通过相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度,满足了视觉里程计对于实时性的需求。
也就是说,假设从原始训练集视频流任意选取的相邻的两帧图像A和图像B,使用ORB方法计算图像A和图像B的相对尺寸因子(即图像A和图像B的绝对尺度的比)。
对于图像A,截取相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,得到包括多个具有指定像素分辨率的像素块数据,作为后续的训练数据X。
对于图像B,截取相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,得到包括多个具有指定像素分辨率的像素块数据,作为后续的训练数据Y。其中,指定倍数以及指定像素分辨率可根据不同的需求进行设置,本发明不做限定。实际应用中,由于分辨率过大影响计算处理速度,因此,本发明实施例可分别将所提取的图片A和图片B降采样到指定像素分辨率(如16*16),以提升后续对图片的计算处理速度。
进一步地,可将训练数据X和训练数据Y分别输入神经网络进行训练,以筛选出图像A的特征点数据并生成特征描述子M,以及图像B的特征点数据以及特征描述子N,进而基于特征描述子M和特征描述子N进行特征匹配,实现图像A和图像B的匹配度。该神经网络可以是预先构建并训练的主要用于进行生成特征描述的网络模型。
其中,特征描述子可以为LBP(Local Binary Pattern,局部二值模式),用于描述图像局部特征的算子,其具备灰度不变性和旋转不变性。HOG(Histogram of OrientedGradient,方向梯度直方图),其对图像几何的和光学的形变都能保持很好的不变性。Haar-like特征描述子。SIFT(Scale-invariant feature transform,尺度不变特征变换),当然,还可以是基于其他方式对图像特征点进行提取以获得的图像的特征描述子,本发明不做限定。在本实施例中,特征描述子的获取基于预设AlexNet网络结构,此网络结构为修改过的AlexNet网络结构,参考GoogLeNet使用更小的卷积核使识别准确率变得更加优秀,同时使用LeakyReLU作为激活函数改进AlexNet框架,在每个卷积层和全连接层后激活,将特征图像参数与0进行比较,使每个数据都能得到保留:
当特征图像参数大于0时,输出结果为特征图像参数本身;
当特征图像参数小于或等于0,输出结果为特征图像参数与一个设定好的较小的参数的乘积。
其中,修改过的AlexNet网络结构,用5x5,3x3卷积核的叠加替换原11x11的卷积核,放弃原Alex的LRN层,获取更显著的特征。同时为了提高模型的泛化能力,将dropout层设置为0.5。使用修改过的高效的AlexNet网络结构,是为了针对视角变化的特征点检测时,提高计算机视觉类应用实时性。
基于同一发明构思,本申请实施例还提供了一种基于深度学习的视觉里程计特征点检测系统300,如图3所示,该系统可以包括:
图像预处理模块310,其配置成开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
训练数据获取模块320,其配置成计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
特征点筛选模块330,其配置成将所述训练数据输入神经网络进行训练,筛选出所述相邻帧图像中每帧图像中的多个特征点数据;
特征点匹配模块340,其配置成利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度。
在本发明一可选实施例中,上述系统还可以包括:
直方图均衡化模块350,其配置成保存所述预处理图像信息,并对所述预处理图像信息进行直方图均衡化。
在本发明一可选实施例中,训练数据获取模块320,其还可以配置成:
在所述预处理图像信息中选取两帧相邻帧图像,使用ORB方法计算所述相邻帧图像的相对尺寸因子;
对于所述相邻帧图像中的每一帧图像,截取所述相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,分别得到包括多个具有指定像素分辨率的像素块数据的训练数据。
在本发明一可选实施例中,特征点筛选模块330,其还可以配置成:
将所述训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;
通过得分函数计算方法结合设定的训练得分在所述多个像素数据块中选取一定数量的像素数据块作为特征点数据。
在本发明一可选实施例中,特征点匹配模块340,其还可以配置成:
基于预设AlexNet网络结构结合所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子;
通过所述相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度。
本申请提供了一种基于深度学习的视觉里程计特征点检测方法及系统,在本申请提供的方法中,首先开启视觉里程计获取原始训练集视频流,将视频流中的RGB图像帧灰度化,得到预处理图像信息,再计算图像信息中的任意相邻帧图像相对尺寸因子,获取多个具有指定像素分辨率的像素块数据的训练数据,并对其进行训练,筛选出每帧图像中的多个特征点数据,最后利用特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,从而计算相邻帧之间的特征点匹配度。
基于本申请提供的基于深度学习的视觉里程计特征点检测方法及系统,利用神经网络的方法对视角变化的特征点检测方法进行了优化,从而提升在视角变化时特征点检测的性能。
根据下文结合附图对本申请的具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述以及其他目的、优点和特征。
本申请实施例还提供了一种计算设备,参照图5,该计算设备包括存储器520、处理器510和存储在所述存储器520内并能由所述处理器510运行的计算机程序,该计算机程序存储于存储器520中的用于程序代码的空间530,该计算机程序在由处理器510执行时实现用于执行任一项根据本发明的方法步骤531。
本申请实施例还提供了一种计算机可读存储介质。参照图6,该计算机可读存储介质包括用于程序代码的存储单元,该存储单元设置有用于执行根据本发明的方法步骤的程序531′,该程序被处理器执行。
本申请实施例还提供了一种包含指令的计算机程序产品。当该计算机程序产品在计算机上运行时,使得计算机执行根据本发明的方法步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、获取其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令处理器完成,所述的程序可以存储于计算机可读存储介质中,所述存储介质是非短暂性(英文:non-transitory)介质,例如随机存取存储器,只读存储器,快闪存储器,硬盘,固态硬盘,磁带(英文:magnetic tape),软盘(英文:floppy disk),光盘(英文:optical disc)及其任意组合。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种基于深度学习的视觉里程计特征点检测方法,包括:
开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
将所述训练数据输入神经网络进行训练,筛选出所述相邻帧图像中每帧图像中的多个特征点数据;
利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度。
2.根据权利要求1所述的方法,其中,所述开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息之后,还包括:
保存所述预处理图像信息,并对所述预处理图像信息进行直方图均衡化。
3.根据权利要求1所述的方法,其中,所述计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据,包括:
在所述预处理图像信息中选取两帧相邻帧图像,使用ORB方法计算所述相邻帧图像的相对尺寸因子;
对于所述相邻帧图像中的每一帧图像,截取所述相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,分别得到包括多个具有指定像素分辨率的像素块数据的训练数据。
4.根据权利要求3所述的方法,其中,所述将所述训练数据输入神经网络进行训练,筛选出多个特征点数据,包括:
将所述训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;
通过得分函数计算方法结合设定的训练得分在所述多个像素数据块中选取一定数量的像素数据块作为特征点数据。
5.根据权利要求4所述的方法,其中,所述利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度,包括:
基于预设AlexNet网络结构结合所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子;
通过所述相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度。
6.一种基于深度学习的视觉里程计特征点检测系统,包括:
图像预处理模块,其配置成开启视觉里程计获取原始训练集视频流,并将所述原始训练集视频流中的RGB图像帧灰度化,得到预处理图像信息;
训练数据获取模块,其配置成计算所述预处理图像信息的任意相邻帧图像相对尺寸因子,基于所述相对尺寸因子在所述相邻帧图像中分别获取包括多个具有指定像素分辨率的像素块数据的训练数据;
特征点筛选模块,其配置成将所述训练数据输入神经网络进行训练,筛选出所述相邻帧图像中每帧图像中的多个特征点数据;
特征点匹配模块,其配置成利用所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子,基于所述特征描述子计算所述相邻帧图像之间的特征点的匹配度。
7.根据权利要求6所述的系统,其特征在于,还包括:
直方图均衡化模块,其配置成保存所述预处理图像信息,并对所述预处理图像信息进行直方图均衡化。
8.根据权利要求6所述的系统,其特征在于,所述训练数据获取模块,其还配置成:
在所述预处理图像信息中选取两帧相邻帧图像,使用ORB方法计算所述相邻帧图像的相对尺寸因子;
对于所述相邻帧图像中的每一帧图像,截取所述相对尺寸因子指定倍数的局部像素并降采样到指定像素分辨率,进行尺度归一化后,分别得到包括多个具有指定像素分辨率的像素块数据的训练数据。
9.根据权利要求8所述的系统,其特征在于,所述特征点筛选模块,其还配置成:
将所述训练数据输入神经网络训练,通过神经网络的待筛选点筛选出满足指定特征点概率的多个像素数据块;
通过得分函数计算方法结合设定的训练得分在所述多个像素数据块中选取一定数量的像素数据块作为特征点数据。
10.根据权利要求9所述的系统,其特征在于,所述特征点匹配模块,其还配置成:
基于预设AlexNet网络结构结合所述每帧图像中的特征点数据和对应帧图像的局部像素计算得到每帧图像的特征描述子;
通过所述相邻帧的特征描述子结合快速近似最近邻的方法计算相邻两帧之间的特征点的匹配度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910770820.1A CN110516731B (zh) | 2019-08-20 | 2019-08-20 | 一种基于深度学习的视觉里程计特征点检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910770820.1A CN110516731B (zh) | 2019-08-20 | 2019-08-20 | 一种基于深度学习的视觉里程计特征点检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110516731A true CN110516731A (zh) | 2019-11-29 |
CN110516731B CN110516731B (zh) | 2022-04-29 |
Family
ID=68626856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910770820.1A Active CN110516731B (zh) | 2019-08-20 | 2019-08-20 | 一种基于深度学习的视觉里程计特征点检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110516731B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968189A (zh) * | 2020-08-27 | 2020-11-20 | 常州钛电科技有限公司 | 基于深度学习的视觉里程计特征点检测系统及方法 |
CN112560776A (zh) * | 2020-12-25 | 2021-03-26 | 福建海电运维科技有限责任公司 | 一种基于图像识别的智能风机定检方法及系统 |
WO2021164615A1 (en) * | 2020-02-19 | 2021-08-26 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Motion blur robust image feature matching |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899834A (zh) * | 2015-03-04 | 2015-09-09 | 苏州大学 | 基于sift算法的模糊图像识别方法及装置 |
CN105426884A (zh) * | 2015-11-10 | 2016-03-23 | 佛山科学技术学院 | 一种基于全幅特征提取的快速文档类型识别方法 |
CN106780484A (zh) * | 2017-01-11 | 2017-05-31 | 山东大学 | 基于卷积神经网络特征描述子的机器人帧间位姿估计方法 |
CN108416801A (zh) * | 2018-02-28 | 2018-08-17 | 哈尔滨工程大学 | 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 |
CN109708658A (zh) * | 2019-01-14 | 2019-05-03 | 浙江大学 | 一种基于卷积神经网络的视觉里程计方法 |
-
2019
- 2019-08-20 CN CN201910770820.1A patent/CN110516731B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899834A (zh) * | 2015-03-04 | 2015-09-09 | 苏州大学 | 基于sift算法的模糊图像识别方法及装置 |
CN105426884A (zh) * | 2015-11-10 | 2016-03-23 | 佛山科学技术学院 | 一种基于全幅特征提取的快速文档类型识别方法 |
CN106780484A (zh) * | 2017-01-11 | 2017-05-31 | 山东大学 | 基于卷积神经网络特征描述子的机器人帧间位姿估计方法 |
CN108416801A (zh) * | 2018-02-28 | 2018-08-17 | 哈尔滨工程大学 | 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 |
CN109708658A (zh) * | 2019-01-14 | 2019-05-03 | 浙江大学 | 一种基于卷积神经网络的视觉里程计方法 |
Non-Patent Citations (1)
Title |
---|
杨帆: "《数字图像处理与分析》", 31 January 2019 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021164615A1 (en) * | 2020-02-19 | 2021-08-26 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Motion blur robust image feature matching |
CN111968189A (zh) * | 2020-08-27 | 2020-11-20 | 常州钛电科技有限公司 | 基于深度学习的视觉里程计特征点检测系统及方法 |
CN112560776A (zh) * | 2020-12-25 | 2021-03-26 | 福建海电运维科技有限责任公司 | 一种基于图像识别的智能风机定检方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110516731B (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Luo et al. | Non-local deep features for salient object detection | |
Zeng et al. | Image splicing localization using PCA-based noise level estimation | |
CN112036395B (zh) | 基于目标检测的文本分类识别方法及装置 | |
EP3333768A1 (en) | Method and apparatus for detecting target | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
Sirmacek et al. | Urban-area and building detection using SIFT keypoints and graph theory | |
US20150227810A1 (en) | Visual saliency estimation for images and video | |
CN106981077B (zh) | 基于dce和lss的红外图像和可见光图像配准方法 | |
CN109154978A (zh) | 用于检测植物疾病的系统和方法 | |
Gong et al. | Advanced image and video processing using MATLAB | |
JP6341650B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110689021A (zh) | 一种基于深度学习的低可见度环境下实时目标检测方法 | |
CN110516731A (zh) | 一种基于深度学习的视觉里程计特征点检测方法及系统 | |
CN112101386B (zh) | 文本检测方法、装置、计算机设备和存储介质 | |
JP2011508323A (ja) | 不変の視覚場面及び物体の認識 | |
Liu et al. | Interactive geospatial object extraction in high resolution remote sensing images using shape-based global minimization active contour model | |
US20230326173A1 (en) | Image processing method and apparatus, and computer-readable storage medium | |
CN110414571A (zh) | 一种基于特征融合的网站报错截图分类方法 | |
WO2021027329A1 (zh) | 基于图像识别的信息推送方法、装置、及计算机设备 | |
Zhao et al. | Automatic blur region segmentation approach using image matting | |
Vayssade et al. | Pixelwise instance segmentation of leaves in dense foliage | |
CN104268550B (zh) | 特征提取方法及装置 | |
JP2009123234A (ja) | オブジェクト識別方法および装置ならびにプログラム | |
JP4285640B2 (ja) | オブジェクト識別方法および装置ならびにプログラム | |
Kartika et al. | Combining of Extraction Butterfly Image using Color, Texture and Form Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Method and System for Visual Odometer Feature Point Detection Based on Deep Learning Effective date of registration: 20230713 Granted publication date: 20220429 Pledgee: Bank of Jiangsu Limited by Share Ltd. Beijing branch Pledgor: BEIJING MOVIEBOOK SCIENCE AND TECHNOLOGY Co.,Ltd. Registration number: Y2023110000278 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |