CN110378307A - 基于深度学习的纹理图像方向场估计方法 - Google Patents

基于深度学习的纹理图像方向场估计方法 Download PDF

Info

Publication number
CN110378307A
CN110378307A CN201910674843.2A CN201910674843A CN110378307A CN 110378307 A CN110378307 A CN 110378307A CN 201910674843 A CN201910674843 A CN 201910674843A CN 110378307 A CN110378307 A CN 110378307A
Authority
CN
China
Prior art keywords
texture
image
deep learning
network
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910674843.2A
Other languages
English (en)
Other versions
CN110378307B (zh
Inventor
刘洪�
杨超
蓝赠美
刘晓晖
王日凤
李厚君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201910674843.2A priority Critical patent/CN110378307B/zh
Publication of CN110378307A publication Critical patent/CN110378307A/zh
Application granted granted Critical
Publication of CN110378307B publication Critical patent/CN110378307B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明基于深度学习的纹理图像方向场估计方法,包括以下步骤:步骤1:样本采集:采集将进行方向场评价的纹理图像;步骤2:样本处理与标注,将纹理方向离散为N个方向,分别为各个方向采集纹理子图像,作为训练样本:步骤3:建立深度学习网络;步骤4:准备输入样本并编码标签,同时设置训练参数进行训练;步骤5:给出方向场估计。本发明方法将纹理的方向场估计问题转化为纹路图像的识别问题,利用深度学习算法对图像的纹理特征进行学习和归纳,得到高分类精度的深度网络,通过对输入局部图像的块进行方向预测,最终得到整个纹理图像的方向场。

Description

基于深度学习的纹理图像方向场估计方法
技术领域
本发明涉及纹理图像方向场估计领域,特别涉及一种基于深度学习的纹理图像方向场估计方法。
背景技术
图像纹理的方向表征了同一灰度强度或颜色延展的角度或趋势,是纹理的基本属性,对于图像的分析和识别具有重要参考价值,通常是图像增强、图像特征提取、图像识别等的前置处理,一直以来都是图像处理中的研究热点。
图像的方向场估计是图像预处理阶段的重要步骤,对图像后期的增强、分析和识别都具有重要的参考价值。目前最为常用的方向场估计方法是基于纹理图像的局部水平、垂直差分信息进行梯度的方向计算,并以此方向的垂直方向作为该局部或局部中心点的方向。该方法对于清晰纹理区域具有较好的估计效果,且计算速度快,但对于有干扰纹理或纹理信息缺失的区域容易得到错误的结果。基于局部图像方向投影分析的方法在一定程度上可以对抗干扰纹理和纹理缺失的影响,但这种方法对于纹理方向转变的区域很难分析得到正确的结果。基于方向相关特征参数结合机器识别的方法是一种有别于传统图像处理的新思路,但目前该类方法设计的特征参数通常较多,计算复杂,且无法保证其可分性,得到的效果仍有很大提升空间。所以,对于纹理方向场的估计目前仍然没有在鲁棒性和实时性同时得到满足的方法。
发明内容
本发明的目的是针对上述现有技术存在的缺陷,提供一种基于深度学习的纹理图像方向场估计方法,该方法不需要对原始纹理图像做预处理,将纹理的方向场估计问题转化为纹路图像的识别问题,利用深度学习算法对图像的纹理特征进行学习和归纳,得到高分类精度的深度网络,通过对输入局部图像的块进行方向预测,并最终组合得到整个纹理图像的方向场。
本发明为实现上述目的采用的技术方案是:基于深度学习的纹理图像方向场估计方法,包括以下步骤:
步骤1:样本采集:采集将进行方向场评价的纹理图像,包括待分析处理的目标纹理区域前景和非目标纹理区域的背景;
步骤2:样本处理与标注:通过下面两种方法的任一种方法进行,方法一:将纹理方向离散为N个方向,分别为各个方向采集m×m尺寸的纹理子图像pn例,作为训练样本;方法二,将纹理方向场离散为N个方向,建立与纹理图像具有相同尺寸的方向图,方向图以N个不同的值表示N个不同的离散方向,其中m为取样样本的像素尺寸:
步骤3:建立深度学习网络:根据步骤2所选方法分别按照下面两种方法进行,方法-:对于步骤2中利用方法一得到的标注样本,建立N分类深度学习网络;方法二:对于步骤2中利用方法二得到的标注样本,建立端到端分类器,实现像素的方向等级预测;
步骤4:为两种深度学习网络编码相应样本并作为网络输入,设置网络的每一层属性和参数,及训练停止条件等,开始训练;
步骤5:给出方向场估计:利用学习到的深度网络对待处理纹理图像块进行预测分类,对于步骤3选用方法二得到的网络,可以直接输出得到其方向场预测图像;对于对于步骤3选用方法一得到的二分类器网络,还需要经过步骤5.1-5.4的处理;
步骤5.1:初始化方向场图;
步骤5.2:从纹理图像左上角开始,设定取样窗口为m×m像素,每次平移[m/a],依次取图像块作为分类器输入,其中a是平移系数,控制取样窗口每次移动的像素大小;
步骤5.3:分类每一图像块,方法是:将m×m图像块输入深度分类网络,若预测结果为类别k,则赋值方向标注图相应区域的中心[m/a]×[m/a]区域为k。
步骤5.4:最终将方向标注图转化为相应的方向图。
本发明基于深度学习的纹理图像方向场估计方法具有如下有益效果:本发明提出了一种利用深度学习算法解决纹理图像方向场估计的方法,将传统的纹理方向估计问题转化为图像分类问题,为此类问题的解决提供了新思路;该方法不需要对原始纹理图像做预处理,将纹理的方向场估计问题转化为纹路图像的识别问题,利用深度学习算法对图像的纹理特征进行学习和归纳,得到高分类精度的深度网络,通过对输入局部图像的块进行方向预测,并最终组合得到整个纹理图像的方向场。
下面结合附图和实施例对本发明基于深度学习的纹理图像方向场估计方法作进一步的说明。
附图说明
图1是本发明基于深度学习的纹理图像方向场估计方法的图像分块示意图;
图2是本发明基于深度学习的纹理图像方向场估计方法中基于深度学习的方向分类器学习示意图;
图3是本发明基于深度学习的纹理图像方向场估计方法中基于深度学习网络的方向场估计示意图(方法一);
图4是本发明基于深度学习的纹理图像方向场估计方法中基于深度学习网络的方向场估计示意图(方法二);
图5是纹理方向划分示意图。
具体实施方式
本发明基于深度学习的纹理图像方向场估计方法,如图1至4所示,本实施例以指纹图像为例,说明具体实施方式:
本发明基于深度学习的纹理图像方向场估计方法,对于方法一:包括以下步骤:
步骤1:样本采集:采集将进行方向场评价的纹理图像,包括待分析处理的目标纹理区域前景和非目标纹理区域的背景;本实施例,利用NIST SD4/27和FVC等指纹数据库,分别采集64×64的指纹前景和背景样本,其中首先将0°~360°的方向区间压缩和均匀离散,由于一般情况只关心指纹的纹理角度,并不关心起止的指向,所以方向区间压缩为[-90°~90°),即可覆盖所有可能的角度,然后,指纹方向离散为[-90,-67.5,-45,-22.5,0,22.5,45,67.5]八个方向,对每个方向采集相应纹理取向范围的子图像样本数据分别为4000例,同样对于非指纹背景图像也采集4000例,前景样本由纹理取向较为明显的样本组成;背景样本,要求不包括明显指纹区域。
步骤2:样本处理与标注:将纹理方向离散为N个方向,分别为各个方向采集m×m尺寸的纹理子图像pn例,作为训练样本,对于N,设定纹理方向范围为[-90°~90°),不在此范围的方向可以通过角的变换公式变换到此范围,如当纹理取向θ∈[90°,270°)时,通过θ=θ-180°将其变换至区间[-90°~90°);将此方向范围均匀划分为N个小区间,则每个小区间大小为180°/N,N越大方向离散的精度越大,N可根据需要设定,示意图如图5所示;其中m为取样样本的像素尺寸,单位为像素,建议取值[32,64];在本实施例,样本标注的具体方法是:
步骤2.1:设定纹理取向的有效范围为[-90°~90°),若纹理取向θ∈[90°,270°)时,通过θ=θ-180°将其变换至区间[-90°~90°);
步骤2.2:均匀分割[-90°~90°)为8个区间,并定义每个区间的取值依次为θk=-90,-67.5,-45,-22.5,0,22.5,45,67.5,k=1,2,...,8,对8个方向值依次标注为其下标k;
步骤2.3:基于样本梯度信息计算样本的方向,其计算公式如下:
②方向:
其中,为图像(u,v)处的水平梯度和垂直梯度,用下式求解,
其中f(x,y)为(x,y)处像素;w取值为64,与样本尺寸一致,θ为样本方向。步骤2.4:按照邻近原则,将样本标注为其纹理方向θ最接近的方向标注,如θ=23°,则该样本标注为6。
步骤2.5:人工检查方向标注,剔除或改正标注明显错误的样本。
步骤3:建立深度学习网络:建立N分类深度学习网络;在本实施例如图2所示,学习9类深度分类网络,调用Caffe深度学习框架搭建LeNet深度学习网络;
步骤4:为两种深度学习网络编码相应样本并作为网络输入,设置网络的每一层属性和参数,及训练停止条件等,开始训练,本实施例将图像文件及其对应标注写入文本文件,并转化成深度网络能高效处理的.mdb数据格式,设置相应的分类类别数为9,输入图像归一化尺寸为64×64,动量因子0.9,最大迭代次数2000等参数,启用GPU进行学习,训练得到最终准确率为99.1%。
步骤5:给出方向场估计:利用学习到的深度网络对待处理纹理图像块进行预测分类,本实施例如图3所示,利用训练好的深度分类网络对待处理指纹图像进行预测,所述步骤5的具体方法是:
步骤5.1:初始化方向场图:初始化方向标注图为0。
步骤5.2:从纹理图像左上角开始,设定取样窗口为m×m像素,每次平移[m/a],依次取图像块作为分类器输入,其中a是平移系数,控制取样窗口每次移动的像素大小,a越大,窗口每次移动的像素越小,否则越大;在本实施例,从指纹图像左上角开始,依次取64×64尺寸的图像块,相邻图像块每次的偏移为64/4=16像素;
步骤5.3:分类每一图像块,方法是:将m×m图像块输入深度分类网络,若预测结果为类别k,则赋值方向标注图相应区域的中心[m/a]×[m/a]区域为k。在本实施例中,m=64,a=4,将64×64图像块输入深度分类网络,若预测结果为类别k,则赋值方向标注图相应区域的中心16×16区域为k。
步骤5.4:最终将方向标注图转化为相应的方向图。
本发明基于深度学习的纹理图像方向场估计方法,对于方法二:包括以下步骤:
步骤1:样本采集:采集将进行方向场评价的纹理图像,包括待分析处理的目标纹理区域前景和非目标纹理区域的背景;本实施例,由基于NIST SD4/27和FVC等指纹数据库等,取整张图像作为样本。
步骤2:样本处理与标注:将纹理方向场离散为N个方向,建立与纹理图像具有相同尺寸的方向图,方向图以N个不同的值表示N个不同的离散方向:本实施例,以64×64尺寸为处理窗逐像素移动计算其中心点方向:
②中心像素点的方向:
其中,为图像(u,v)处的水平梯度和垂直梯度,用下式求解,
其中f(x,y)为(x,y)处像素,θ为样本方向。
③根据θ所处的[0°,45°)、[45°,90°)、[90°,135°)、[135°,180°)区间,分别标注为1、2、3、4,背景用0标注。
④同样用64×64尺寸的窗滑动处理标注图,统计窗内的离散方向直方图,若中心像素所属方向的直方图的值小于最大方向直方图值的0.2,则改用8×8窗口统计方向直方图,并赋值中心像素点的方向标注值为方向直方图中的最大值对应的方向。
步骤3:建立深度学习网络:建立端到端分类器,实现像素的方向等级预测,在本实施例调用Caffe深度学习框架建立FNC深度学习网络;
步骤4:为两种深度学习网络编码相应样本并作为网络输入,设置网络的每一层属性和参数,及训练停止条件等,开始训练;在本实施例,默认其重要参数,设定分割目标为5,设置迭代次数为5000,启用GPU进行学习。训练得到最终准确率为98.8%。
步骤5:给出方向场估计:利用学习到的深度网络对待处理纹理图像块进行预测分类,本实施例如图4所示,将待分割指纹图像输入训练好的深度网络,得到预测的方向场等级预测图像。
以上实施例仅为本发明的较佳实施例,本发明并不限于上述实施例列举的形式,凡在本发明的精神和原则之内所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。

Claims (1)

1.基于深度学习的纹理图像方向场估计方法,其特征在于,包括以下步骤:
步骤1:样本采集:采集将进行方向场评价的纹理图像,包括待分析处理的目标纹理区域前景和非目标纹理区域的背景;
步骤2:样本处理与标注:通过下面两种方法的任一种方法进行,方法一:将纹理方向离散为N个方向,分别为各个方向采集m×m尺寸的纹理子图像p n 例,作为训练样本;方法二,将纹理方向场离散为N个方向,建立与纹理图像具有相同尺寸的方向图,方向图以N个不同的值表示N个不同的离散方向,其中m为取样样本的像素尺寸:
步骤3:建立深度学习网络:根据步骤2所选方法分别按照下面两种方法进行,方法-:对于步骤2中利用方法一得到的标注样本,建立N分类深度学习网络;方法二:对于步骤2中利用方法二得到的标注样本,建立端到端分类器,实现像素的方向等级预测;
步骤4:为两种深度学习网络编码相应样本并作为网络输入,设置网络的每一层属性和参数,及训练停止条件等,开始训练;
步骤5:给出方向场估计:利用学习到的深度网络对待处理纹理图像块进行预测分类,对于步骤3选用方法二得到的网络,可以直接输出得到其方向场等级预测图像;对于对于步骤3选用方法一得到的二分类器网络,还需要经过步骤5.1-5.4的处理;
步骤5.1:初始化方向场图;
步骤5.2:从纹理图像左上角开始,设定取样窗口为m×m像素,每次平移[m/a],依次取图像块作为分类器输入,其中a是平移系数,控制取样窗口每次移动的像素大小;
步骤5.3:分类每一图像块,方法是:将m×m图像块输入深度分类网络,若预测结果为类别k,则赋值方向标注图相应区域的中心[m/a]×[m/a]区域为k。
步骤5.4:最终将方向标注图转化为相应的方向图。
CN201910674843.2A 2019-07-25 2019-07-25 基于深度学习的纹理图像方向场估计方法 Active CN110378307B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910674843.2A CN110378307B (zh) 2019-07-25 2019-07-25 基于深度学习的纹理图像方向场估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910674843.2A CN110378307B (zh) 2019-07-25 2019-07-25 基于深度学习的纹理图像方向场估计方法

Publications (2)

Publication Number Publication Date
CN110378307A true CN110378307A (zh) 2019-10-25
CN110378307B CN110378307B (zh) 2022-05-03

Family

ID=68255879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910674843.2A Active CN110378307B (zh) 2019-07-25 2019-07-25 基于深度学习的纹理图像方向场估计方法

Country Status (1)

Country Link
CN (1) CN110378307B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414595A (zh) * 2019-07-25 2019-11-05 广西科技大学 具有方向一致性的纹理图像的方向场估计方法
CN113988957A (zh) * 2021-12-27 2022-01-28 苏州优鲜信网络生活服务科技有限公司 基于元素识别的图像自动化评分方法与评分系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228645A1 (en) * 2016-02-05 2017-08-10 Nec Laboratories America, Inc. Accelerating deep neural network training with inconsistent stochastic gradient descent
CN108563999A (zh) * 2018-03-19 2018-09-21 特斯联(北京)科技有限公司 一种面向低质量视频图像的人物身份识别方法与装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228645A1 (en) * 2016-02-05 2017-08-10 Nec Laboratories America, Inc. Accelerating deep neural network training with inconsistent stochastic gradient descent
CN108563999A (zh) * 2018-03-19 2018-09-21 特斯联(北京)科技有限公司 一种面向低质量视频图像的人物身份识别方法与装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘洪: ""开发基于移动互联网的普适家庭医疗系统——远程尿液检查数据采集和处理子系统原理和实现 "", 《广西科技大学学报》 *
杨超: ""面向人群监管的人脸检测及海量对象检索 "", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414595A (zh) * 2019-07-25 2019-11-05 广西科技大学 具有方向一致性的纹理图像的方向场估计方法
CN110414595B (zh) * 2019-07-25 2022-04-08 广西科技大学 具有方向一致性的纹理图像的方向场估计方法
CN113988957A (zh) * 2021-12-27 2022-01-28 苏州优鲜信网络生活服务科技有限公司 基于元素识别的图像自动化评分方法与评分系统

Also Published As

Publication number Publication date
CN110378307B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
US11971726B2 (en) Method of constructing indoor two-dimensional semantic map with wall corner as critical feature based on robot platform
CN105740945B (zh) 一种基于视频分析的人群计数方法
CN103810503B (zh) 一种基于深度学习的自然图像中显著区域的检测方法
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN105825502B (zh) 一种基于显著性指导的词典学习的弱监督图像解析方法
CN104156693B (zh) 一种基于多模态序列融合的动作识别方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN105574527B (zh) 一种基于局部特征学习的快速物体检测方法
CN107423760A (zh) 基于预分割和回归的深度学习目标检测方法
CN111127499A (zh) 一种基于语义轮廓信息的安检图像刀具检测分割方法
CN113780259A (zh) 一种路面缺陷检测方法、装置、电子设备和可读存储介质
CN107527054B (zh) 基于多视角融合的前景自动提取方法
CN110288538A (zh) 一种多特征融合的运动目标阴影检测及消除方法
CN110598030A (zh) 一种基于局部cnn框架的甲骨拓片分类方法
CN111401426A (zh) 基于伪标签学习的小样本高光谱图像分类方法
CN110378307A (zh) 基于深度学习的纹理图像方向场估计方法
CN115331119A (zh) 一种固体废弃物识别方法
Rajeswari et al. Automatic road extraction based on level set, normalized cuts and mean shift methods
CN105426924A (zh) 一种基于图像中层特征的场景分类方法
CN110400335B (zh) 基于深度学习的纹理图像质量估计方法
CN110516527B (zh) 一种基于实例分割的视觉slam回环检测改进方法
CN106650629A (zh) 一种基于核稀疏表示的快速遥感目标检测识别方法
CN103455798A (zh) 基于最大几何流向直方图的人体检测方法
CN109300150A (zh) 一种用于骨龄评估的手骨x光图像纹理特征提取方法
CN108764311A (zh) 一种遮挡目标检测方法、电子设备、存储介质及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant