CN108564120B - 基于深度神经网络的特征点提取方法 - Google Patents

基于深度神经网络的特征点提取方法 Download PDF

Info

Publication number
CN108564120B
CN108564120B CN201810299459.4A CN201810299459A CN108564120B CN 108564120 B CN108564120 B CN 108564120B CN 201810299459 A CN201810299459 A CN 201810299459A CN 108564120 B CN108564120 B CN 108564120B
Authority
CN
China
Prior art keywords
neural network
training
deep neural
data set
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810299459.4A
Other languages
English (en)
Other versions
CN108564120A (zh
Inventor
高成英
张泽昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201810299459.4A priority Critical patent/CN108564120B/zh
Publication of CN108564120A publication Critical patent/CN108564120A/zh
Application granted granted Critical
Publication of CN108564120B publication Critical patent/CN108564120B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络的特征点提取方法,包括:数据生成,利用OpenCV随机生成不同基础图形,同时对于有角点的图形记录角点的位置作为后续训练的标签;训练深度神经网络,利用数据生成的训练集训练网络模型,来检测角点的产生;测试,利用深度神经网络训练好的模型,对OpenCV生成的数据集和互联网上下载到的真实数据集进行测试,评估该算法的性能表现。本发明减少了深度学习标注特征点数据集的难度,同时用良好的深度神经网络结构提高了提取的稳定性。

Description

基于深度神经网络的特征点提取方法
技术领域
本发明涉及一种基于深度神经网络的特征点提取方法。
背景技术
随着技术的发展和科技的进步,计算机视觉算法在人类的日常生活中起到的作用越来越大。而特征点提取,作为计算机视觉研究中的基础模块,被应用到很多视觉相关的算法中,比如特征匹配、图片相似度检测、三维重建、视觉里程计、目标跟踪等等。现有的特征点方法大多是一些人工特征,在理想情况下表现良好,但是在噪声、模糊等情况下鲁棒性则没那么高,受影响较大。
而随着移动设备的普及,越来越多的照片来源于移动设备的摄像头,同样,计算机视觉算法的应用,也越来越需要考虑在移动端上的性能和表现情况。移动设备采用的一般是卷帘相机,这会导致在运动的时候拍摄的照片会产生一定的运动模糊。同时由于感光芯片面积小,在光照强度不够的环境下拍摄,更容易产生大量噪声。这时候传统的特征提取算法容易受到这些情况的干扰,导致提取特征点准确性下降,继而影响后续算法的准确性。
近年来,深度学习在计算机视觉方面取得显著的成果,包括不限于图片分类、实例分割、视觉定位、目标跟踪等。而利用深度学习提取特征点的方法较少,原因是:特征点没有明确定义导致真实图片标注特征点困难。所以与分类、跟踪、实例分割这些不同,深度学习没办法直接应用在特征点提取上。现有的特征点提取方法,根据每种方法定义的特征点不同而不同,比如fast定义周围连续一定个数的像素值和中心点相差大于一个阙值就是特征点,而sift则需要对输入图片生成尺度空间,并且在尺度空间上寻找像素点极值。但是总体来讲流程比较简单,就是输入图片,然后预处理,按照定义提取特征,非极大值抑制,得到最后的特征点。
发明内容
本发明的首要目的是提供一种基于深度神经网络的特征点提取方法,以提高移动设备特征提取的稳定性。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于深度神经网络的特征点提取方法,包括以下步骤:
数据生成,利用OpenCV随机生成不同基础图形,同时对于有角点的图形记录角点的位置作为后续训练的标签;
训练深度神经网络,利用数据生成的训练集训练网络模型,来检测角点的产生;
测试,利用深度神经网络训练好的模型,对OpenCV生成的数据集和互联网上下载到的真实数据集进行测试,评估该算法的性能表现。
优选的,所述数据生成包括以下步骤:
尺度规定,限制基础图形生成的边界,以此来实现多尺度的图形生成,然后在尺度规定的基础上,生成不同尺度和不同形状的基础图形;
利用随机噪声加平滑滤波生成不包含信息的背景;
利用生成的基础图形和背景合成,生成合成图;
分别给合成图添加模糊和添加噪声,最后对于每张合成图得到一组三张图片,分别是合成图即原图、模糊图和噪声图。
优选的,所述训练深度神经网络步骤中,利用数据生成提供的图片数据集和对应标签,放入网络中进行训练,直到收敛;同时通过提取后的不同通道信息把降低分辨率的图片还原成原图分辨率的特征点概率图,以此来达到特征点提取的功能。
优选的,所述训练深度神经网络步骤中,采用基于ResNet的网络结构来进行特征的提取。
优选的,所述测试步骤中,首先经过深度神经网络,得到提取特征图,其中最后一个通道代表该图片块没有特征点的概率,其他通道代表对应像素是特征点的概率,选取概率最高的作为图片块提取特征点的结果,同时将对应概率置为1,然后删除掉没有特征点的通道信息,最后再还原成原图尺寸的特征点概率图,概率为1的像素对应原图同样位置存在特征点。
本发明提供的基于深度神经网络的特征点提取方法通过深度神经网络训练,对比传统方法在模糊和噪声这样的极端情况下有了更好的稳定性,同时对于尺度、旋转和图形的灰度值的特征点稳定性也有提升。本发明提供的方法减少了深度学习标注特征点数据集的难度,同时用良好的深度神经网络结构提高了提取的稳定性。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例系统模块图示意图;
图2为本发明实施例数据生成模块流程图;
图3为本发明实施例生成的合成图、模糊图和噪声图;
图4为本发明实施例深度神经网络结构图;
图5为本发明实施例Residual Block结构;
图6为本发明实施例Convolution Layer结构;
图7为本发明实施例特征点提取流程图;
图8为本发明实施例多图形结果;
图9为本发明实施例抗模糊噪声结果
图10为本发明实施例真实图片结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
系统由数据生成模块,深度神经网络模块和测试模块三个模块构成,总体框架如图1所示。首先在测试生成模块,即通过生成数据集,解决了特征提取的标注问题。利用OpenCV生成多种基础图形,如三角形、四边形、椭圆、直线等等,同时对于存在角点的图形标注角点所在的位置。然后是训练模块,搭建基于ResNet的深度卷积神经网络,利用OpenCV生成的图片作为输入,角点概率图作为期望输出,训练模型,希望训练神经网络使得他对基础图形的角点做出相应。输出的是一个同图片大小的概率图,对应每个像素是角点的概率。最后是测试模块,测试模块用于评估,评估两种图片:一种是同样由OpenCV生成的不同于训练集的测试集,第二种是真实图片,挑选计算机视觉的图片公开数据集,主要包括建筑、风景、旅游、城市等等日常见的场景。计算特征点提取的定位误差以及识别率等评价指标。
数据生成模块主要负责解决对一般图片标注特征点非常困难的原因,利用OpenCV随机生成不同基础图形,同时对于有角点的图形记录角点的位置作为后续训练的标签。
该模块主要分成四个部分:尺度规定、生成基础图形、添加背景以及添加模糊和噪声结果。四部分的功能简要介绍如下:(1)首先是尺度规定,这部分用于生成不同大小的基础图形,在生成基础图形前起限制边界的作用。尺度不变性是特征点提取算法的一个良好特性,所以在训练集的生成中也需要生成不同尺度的基础图形,使得训练集能覆盖图形尺度的变化。(2)其次是基础图形的生成,数据集主要选择了四种基础图形,分别是:三角形、四边形、椭圆和线段,其中三角形和四边形的边的交点认为是角点,椭圆认为没有角点的,线段认为两个端点是角点。在这部分需要确定图形的颜色和坐标的位置,其中颜色采用随机值是为了应对不同颜色的物体,即主要是训练模型认识图形而对图形的颜色不敏感;坐标的位置主要针对三角形和四边形,直接随机生成三个点或者四个点不一定能组成三角形和四边形,所以对于四边形来说,分别对左上、右上、左下、右下四个块范围内生成随机值,然后在判断是否符合构成四边形的条件,以此来生成四边形,而三角形则在四边形的基础上随机选取三个点即可。(3)然后是添加背景,考虑到最后应用在真实场景中,而真实场景的背景往往是杂乱无章的而不是一片相同颜色,所以在数据集生成的时候,加入了随机背景。真实场景中的背景信息往往是没规律的、没角点信息的非图形,相当于是随机噪声,而随机噪声又显得太尖锐不够平滑,所以背景图的生成采取随机噪声加平滑滤波器这样的组合,得到最后的随机背景(4)最后是添加模糊和噪声,即本专利的主要目的,为了提取更加抗噪声、模糊的特征点,所以为了让神经网络能在一定模糊和一定噪声的情况下仍能正确识别,对于生成的基础图形,都会添加噪声和模糊,即每一张基础图形图片生成一组三张的图片,分别包含:原图、模糊图和噪声图,其中为了增加鲁棒性,噪声和模糊的程度采取了随机值。
数据生成模块四部分:尺度规定、生成基础图形、添加背景以及添加模糊和噪声,之间的工作流程如图2所示。首先是尺度规定,它的功能是限制基础图形生成的边界,以此来实现多尺度的图形生成;然后在尺度规定的基础上,生成不同尺度和不同形状的基础图形;同时添加背景部分利用随机噪声加平滑滤波生成不包含信息的背景;接下来利用生成的基础图形和背景合成,生成合成图;最后是分别给合成图添加模糊和添加噪声,最后对于每张合成图得到一组三张图片,分别是合成图即原图、模糊图和噪声图,如图3所示。
深度神经网络模块主要负责训练深度神经网络,利用数据生成模块产生的训练集,训练网络模型,来检测角点的产生。
为了提取能够更加稳定、抗噪声、抗模糊的特征点,不能像传统特征点一样利用局部的特征,采用深度神经网络能够提取高层的语义特征,语义特征具有更好的稳定性。该模块需要利用数据生成模块提供的图片数据集和对应标签,放入网络中进行训练,直到收敛。同时因为深度神经网络提取特征后会降低图片的分辨率,本专利通过提取后的不同通道信息把降低分辨率的图片还原成原图分辨率的特征点概率图,以此来达到特征点提取的功能。
为了能够让神经网络拥有更广的感受视野,同时又不会因为网络过深而变得很难训练,本专利采用基于ResNet的网络结构来进行特征的提取,具体的网络结构如图4所示。
其中Residual Block和Convolution Layer包含不仅一层,这两个块的具体结构如图5、图6所示。Residual Block有两个参数,一个是layer即层数,另一个是通道数,按图5所示,Residual Block的一层指的是一个Residual Layer,其中每一个Residual Layer自底向上依次是Convolution层、Batch Norm层、ReLu层、Convolution层和Batch Norm层。这里对于Residual Block的第一个Residual Layer的第一个Convolution层的stride=2,即在这里对图片产生了降低一半分辨率。Convolution Layer有三个参数,比如图6所示,7x7代表卷积核大小、stride=2代表卷积的步幅是2,64代表提取64通道的特征;包含三层,分别是Convolution层、Batch Norm层和ReLu层。
测试模块利用深度神经网络模块训练好的模型,对OpenCV生成的数据集和互联网上下载到的真实数据集进行测试,评估该算法的性能表现。
测试模块首先需要利用深度神经网络得到特征点的分布图,流程如图7所示。首先经过深度神经网络,得到提取特征图。其中最后一个通道代表该图片块没有特征点的概率,其他通道代表对应像素是特征点的概率,选取概率最高的作为图片块提取特征点的结果,同时将对应概率置为1。然后删除掉没有特征点的通道信息,最后再还原成原图尺寸的特征点概率图,概率为1的像素对应原图同样位置存在特征点。
对OpenCV生成的测试集,多图形测试的结果如图8所示,左上角是正方形,右上角是,左下角是线段,右下角是椭圆,可以看到对于带角的图形或者线段的端点都能准确识别出特征点,对于有弧度的图形认为是没有特征点的。模糊、噪声的测试如图9所示,图9展示的一组三张,即原图、模糊图、噪声图的测试图片结果,可以看到在多尺度、模糊、噪声下,能准确识别出。
对于真实图片的测试集,如图10所示,从左到右分别是原图、模糊图、噪声图。模糊图和噪点图的结果对比原图,基本不会发生太大的变动,大部分原图的特征点在模糊图、噪声图对应位置能提取出来。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于深度神经网络的特征点提取方法,其特征在于包括以下步骤:
数据生成,利用OpenCV随机生成不同基础图形,同时对于有角点的图形记录角点的位置作为后续训练的标签;
其中,所述数据生成包括以下步骤:
尺度规定,限制基础图形生成的边界,以此来实现多尺度的图形生成,然后在尺度规定的基础上,生成不同尺度和不同形状的基础图形;
利用随机噪声加平滑滤波生成不包含信息的背景;
利用生成的基础图形和背景合成,生成合成图;
分别给合成图添加模糊和添加噪声,最后对于每张合成图得到一组三张图片,分别是合成图即原图、模糊图和噪声图;
另外,数据生成所选用的数据集主要选择四种基础图形,分别是:三角形、四边形、椭圆和线段;
训练深度神经网络,利用所述不同基础图形和标签作为训练集训练网络模型,来检测角点的产生;
其中,所述训练深度神经网络步骤中,利用数据生成提供的图片数据集和对应标签,放入网络中进行训练,直到收敛;同时通过提取后的不同通道信息把降低分辨率的图片还原成原图分辨率的特征点概率图,以此来达到特征点提取的功能;
所述训练深度神经网络步骤中,采用基于ResNet的网络结构来进行特征的提取;
测试,利用深度神经网络训练好的模型,对OpenCV生成的数据集和互联网上下载到的真实数据集进行测试,评估特征点提取方法的性能表现。
CN201810299459.4A 2018-04-04 2018-04-04 基于深度神经网络的特征点提取方法 Active CN108564120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810299459.4A CN108564120B (zh) 2018-04-04 2018-04-04 基于深度神经网络的特征点提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810299459.4A CN108564120B (zh) 2018-04-04 2018-04-04 基于深度神经网络的特征点提取方法

Publications (2)

Publication Number Publication Date
CN108564120A CN108564120A (zh) 2018-09-21
CN108564120B true CN108564120B (zh) 2022-06-14

Family

ID=63534126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810299459.4A Active CN108564120B (zh) 2018-04-04 2018-04-04 基于深度神经网络的特征点提取方法

Country Status (1)

Country Link
CN (1) CN108564120B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858325B (zh) * 2018-12-11 2021-07-02 科大讯飞股份有限公司 一种表格检测方法和装置
CN109712128B (zh) * 2018-12-24 2020-12-01 上海联影医疗科技有限公司 特征点检测方法、装置、计算机设备和存储介质
CN109740237B (zh) * 2018-12-28 2020-04-17 乔丽莉 一种基于蒙特卡洛的建筑机电点位布置方法
CN109800537B (zh) * 2019-02-20 2022-11-18 大连理工大学 一种基于深度神经网络和蒙特卡洛法的机床热误差模型可靠度计算方法
CN110163193B (zh) * 2019-03-25 2021-08-06 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN110766024B (zh) * 2019-10-08 2023-05-23 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN111429533B (zh) * 2020-06-15 2020-11-13 上海海栎创微电子有限公司 一种相机镜头畸变参数估计装置及方法
US11769256B2 (en) * 2021-02-16 2023-09-26 Avanade Holdings Llc Image creation for computer vision model training

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
CN105957095B (zh) * 2016-06-15 2018-06-08 电子科技大学 一种基于灰度图像的Spiking角点检测方法
CN106127789A (zh) * 2016-07-04 2016-11-16 湖南科技大学 结合神经网络与虚拟靶标的立体视觉标定方法
CN106778737B (zh) * 2016-11-24 2019-06-18 北京文安智能技术股份有限公司 一种车牌矫正方法、装置和一种视频采集装置
CN107808136B (zh) * 2017-10-31 2020-06-12 Oppo广东移动通信有限公司 图像处理方法、装置、可读存储介质和计算机设备

Also Published As

Publication number Publication date
CN108564120A (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
CN108564120B (zh) 基于深度神经网络的特征点提取方法
JP6926335B2 (ja) 深層学習における回転可変物体検出
Christlein et al. An evaluation of popular copy-move forgery detection approaches
US20180012411A1 (en) Augmented Reality Methods and Devices
JP2019514123A (ja) 地理的領域におけるコンテナ内に格納された量の遠隔決定
Gong et al. Advanced image and video processing using MATLAB
CN105335725A (zh) 一种基于特征融合的步态识别身份认证方法
CN108681711A (zh) 一种面向移动机器人的自然路标提取方法
CN112733711B (zh) 基于多尺度场景变化检测的遥感影像损毁建筑物提取方法
CN110390228A (zh) 基于神经网络的交通标志图片识别方法、装置及存储介质
CN110941996A (zh) 一种基于生成对抗网络的目标及轨迹增强现实方法和系统
CN106780546A (zh) 基于卷积神经网络的运动模糊编码点的身份识别方法
CN109360179A (zh) 一种图像融合方法、装置及可读存储介质
CN102147867A (zh) 一种基于主体的国画图像和书法图像的识别方法
CN111767854B (zh) 一种结合场景文本语义信息的slam回环检测方法
CN110458128A (zh) 一种姿态特征获取方法、装置、设备及存储介质
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
CN108154066A (zh) 一种基于曲率特征递归神经网络的三维目标识别方法
CN110930384A (zh) 基于密度信息的人群计数方法、装置、设备以及介质
CN103593639A (zh) 嘴唇检测和跟踪方法及设备
CN113436251B (zh) 一种基于改进的yolo6d算法的位姿估计系统及方法
CN117037049B (zh) 基于YOLOv5深度学习的图像内容检测方法及系统
CN114155556A (zh) 一种基于加入通道混洗模块的堆叠沙漏网络的人体姿态估计方法及系统
CN117994573A (zh) 一种基于超像素和可形变卷积的红外弱小目标检测方法
Gunawan et al. Semantic segmentation of aerial imagery for road and building extraction with deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant