CN105550708B - 基于改进surf特征的视觉词袋模型构建方法 - Google Patents

基于改进surf特征的视觉词袋模型构建方法 Download PDF

Info

Publication number
CN105550708B
CN105550708B CN201510927757.XA CN201510927757A CN105550708B CN 105550708 B CN105550708 B CN 105550708B CN 201510927757 A CN201510927757 A CN 201510927757A CN 105550708 B CN105550708 B CN 105550708B
Authority
CN
China
Prior art keywords
image
surf
words
bag
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510927757.XA
Other languages
English (en)
Other versions
CN105550708A (zh
Inventor
汪友生
金铭
边航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201510927757.XA priority Critical patent/CN105550708B/zh
Publication of CN105550708A publication Critical patent/CN105550708A/zh
Application granted granted Critical
Publication of CN105550708B publication Critical patent/CN105550708B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

基于改进SURF特征的视觉词袋模型构建方法,使用添加渐变信息的盒子滤波模板代替高斯滤波,该模板与高斯二阶微分模板更加接近;在SURF特征表达时,减少了时间上的开销,并在保证旋转不变性的同时将SURF描述子降为32维;构建词袋时,使用上述改进SURF算法提取图像库中所有改进SURF特征,采用k‑means聚类方法将所有SURF特征聚类成为视觉单词,这样每幅图像表示为各个视觉单词出现频率的高维向量。本方法包含了图像更丰富的渐变信息,并且省略了一次Haar小波计算步骤;与直接使用SURF特征相比,可以很好地解决不同图像提取出的特征数量不统一的问题,并且词袋模型能将多幅图像用一定量的视觉单词表示,节约空间,处理方便,可扩展性强。

Description

基于改进SURF特征的视觉词袋模型构建方法
技术领域
本发明涉及基于改进SURF特征的视觉词袋模型构建方法,属于计算机视觉技术领域。
背景技术
与图像的全局特征相比,图像的局部特征在面对复杂背景、噪声干扰较大、光照条件变化、存在多个事物和语义复杂等场景时都能更好地描述图像,近年来广泛用于图像配准、识别、检索、分类等领域中。直接使用局部特征进行图像分类、图像检索时,由于图像库中每一幅图像所检测到的特征点数目不统一,并且常用局部特征如SIFT、SURF、DAISY特征等都是高维特征,每幅图像都由不同数量的高维特征表示,导致计算相似性时效率很低。为了解决上述问题,斯坦福大学的LI.Fei-fei等学者首先将视觉词袋模型(BoVW,Bag ofVisual Words)运用到图像处理领域。视觉词袋模型将图像库中所有图像特征提取后聚类成为k个视觉单词,将每幅图像以各个单词出现频率表示为k维向量。这样的模型可以很好地解决不同图像提取出的局部特征不统一的问题,并且能将多幅图像用一定量的视觉单词表示,节约空间,处理方便,可扩展性强,可以很大程度上提高图像分类、图像检索的效率。
视觉词袋模型的好坏根本上在于图像特征的选取。常用构建词袋模型的图像特征有SIFT、SURF等。SIFT算法于1999年由David Lowe首先发表于计算机视觉国际会议(International Conference on Computer Vision,ICCV),2004年再次经整理完善后发表于International journal ofcomputer vision(IJCV)。SIFT特征是基于物体上的一些局部外观的兴趣点提取出的高鲁棒性特征,与影像的大小和旋转无关,对于光线、噪声、微视角改变的容忍度也相当高,但是计算也比较复杂,效率相对较低。许多学者对SIFT算法进行了改进,SURF就是一种SIFT的改进算法,SURF中积分图像和盒子滤波器的使用大大提高了算法效率,处理速度比SIFT提高了三倍左右,然而SURF算法还是有一定缺点:用积分图像和盒子滤波代替高斯滤波,虽然提高了速度,但也不免损失了图像中的渐变信息;SURF描述子生成时,需要先计算一次圆形邻域的Haar小波响应得到特征点的主方向,再计算一次方形邻域的Haar小波响应以得到64维向量,这样的重复计算过程对SURF的效率有一定影响。针对以上两个问题,本方法对SURF算法进行改进,基于改进的SURF特征建立视觉词袋模型。该词袋模型建立速度比基于SURF的词袋模型快,并且保留了更多图像细节信息,鲁棒性较高,可以运用在图像检索、图像分类领域中。
发明内容
本发明的目的是要提供一种基于改进SURF特征的视觉词袋模型构建方法,该方法针对SURF算法的两个缺点,对SURF算法进行改进后,提取改进的SURF特征建立词袋模型。
具体的实现步骤如下:
Step 1:对图像库中所有图像,提取改进SURF特征:
Step 1.1:对图像I,计算积分图像IΣ
Step 1.2:使用添加了渐变信息的盒子滤波模板对积分图像IΣ进行盒子滤波计算,构建尺度空间;
Step 1.3:在尺度空间中,在每个3×3×3的局部区域里,使用非最大值抑制(Non-maximum Suppression)检测极值点,并记下极值点的位置作为特征点;
Step 1.4:以特征点为圆心,以10S为半径作圆形邻域,其中S为样本所处空间的尺度值。在邻域内以尺寸为4S的Haar小波模板对图像进行处理,计算邻域内所有特征点在x,y方向的Haar小波响应,并赋给每个向量不同的高斯权重,越靠近圆心,贡献值越大,特征点赋值权重就越大;
Step 1.5:以一个圆心角为的扇形旋转遍历整个圆形邻域,共有8个窗口;每一次滑动到图3中的窗口内时,计算该窗口内Haar小波响应值的和。设dx,dy分别代表水平和垂直方向的Haar小波响应,mω为方向矢量,θω为方向矢量的角度,则:
Vi=(∑dx,∑dy,∑|dx|,∑|dy|),i=1,2,...,8
Step 1.6:比较8个窗口的mω值,对8个mω按从大到小的顺序排序,以最大的mω的方向为特征点的主方向;
Step 1.7:按照mω值由大到小的顺序,将对应的8个Vi按顺序排列,得到8×4=32维改进SURF特征描述子。
Step 2:对所有提取出的改进SURF特征,用k-means算法聚类成为k个视觉单词,表示为K=(k1,k2,k3,...,kk)。其中聚类中心k的选择应依据不同图像库的特点而确定,k越大词袋模型对图像的代表能力越强,但同时k越大计算时间越长;
Step 3:将图像库中每一幅图像,按照每个视觉单词出现的频率表示为k维向量,在图像P中,视觉单词k1出现1次,k2出现2次,kk-1出现k-1次,kk出现k次,则将图像P表示为向量P=(1,2,...,k-1,k)。每幅图像用词袋模型表示成的向量都不同,越相似的图像之间,向量距离肯定越小,依照这样的方式实现图像分类和图像检索。
在本方法中,改进的SURF特征提取时保留了图像更多的细节信息,且只计算一次Haar小波响应,使特征提取更快;改进后的SURF特征由64维降为32维,降低了计算复杂度。以改进的SURF特征构建的词袋模型对图像库有更好的代表性,且提取时间较短,可以有效地运用在图像检索和图像分类中。
附图说明
图1是基于改进SURF特征的视觉词袋模型构建框图;
图2是改进SURF特征尺度空间构建时使用的添加了渐变信息的盒子滤波模板;
图3是改进SURF特征描述子生成时的计算示意图。
具体实施方式
本发明是采用以下技术手段实现的:
基于改进SURF特征的视觉词袋模型构建方法。先提取改进SURF特征:先使用添加了渐变信息的盒子滤波器构建尺度空间,使用非最大值抑制(Non-maximum Suppression)检测极值点,并记下极值点的位置;再计算极值点圆形邻域的Haar小波响应,使用圆心角为的扇形旋转遍历极值点圆形邻域,得到8个扇形区域内Haar小波响应和,与SURF原算法相比只计算一次Haar小波响应,并在保证旋转不变性的同时将SURF描述子降为32维。再基于提取的改进SURF特征构建视觉词袋模型:先用k-means聚类算法将所有SURF特征聚类成为k个视觉单词;最后将每幅图像表示为各个视觉单词出现频率的k维向量。
上述基于改进SURF特征的视觉词袋模型构建方法,包括下述步骤:
Step 1:对图像库中所有图像,提取改进SURF特征:
Step 1.1:对图像I,计算积分图像IΣ
Step 1.2:使用添加了渐变信息的盒子滤波模板对积分图像IΣ进行盒子滤波计算,构建尺度空间;
Step 1.3:在尺度空间中,在每个3×3×3的局部区域里,使用非最大值抑制(Non-maximumSuppression)检测极值点,并记下极值点的位置作为特征点;
Step 1.4:以特征点为圆心,以10S为半径作圆形邻域,其中S为样本空间的尺度值。在邻域内以尺寸为4S的Haar小波模板对图像进行处理,计算邻域内所有特征点在x,y方向的Haar小波响应,并赋给每个向量不同的高斯权重,越靠近圆心,贡献值越大,的特征点赋值权重就越大;
步骤1.5:以一个圆心角为的扇形旋转遍历整个圆形邻域,共有8个窗口;每一次滑动到图3中的窗口内时,计算该窗口内Haar小波响应值的和。设dx,dy分别代表水平和垂直方向的Haar小波响应,mω为方向矢量,θω为方向矢量的角度,则:
Vi=(∑dx,∑dy,∑|dx|,∑|dy|),i=1,2,...,8
Step 1.6:比较8个窗口的mω值,对8个mω按从大到小的顺序排序,以最大的mω的方向为特征点的主方向;
Step 1.7:按照mω值由大到小的顺序,将对应的8个Vi按顺序排列,得到8×4=32维改进SURF特征描述子。
Step 2:对所有提取出的改进SURF特征,用k-means算法聚类成为k个视觉单词,表示为K=(k1,k2,k3,...,kk)。其中聚类中心k的选择应依据不同图像库的特点而确定,k越大词袋模型对图像的代表能力越强,但同时k越大计算时间越长;
Step 3:将图像库中每一幅图像,按照每个视觉单词出现的频率表示为k维向量,在图像P中,视觉单词k1出现1次,k2出现2次,kk-1出现k-1次,kk出现k次,则将图像P表示为向量P=(1,2,...,k-1,k)。每幅图像用词袋模型表示成的向量都不同,越相似的图像之间,向量距离肯定越小,依照这样的方式实现图像分类和图像检索。

Claims (1)

1.基于改进SURF特征的视觉词袋模型构建方法,其特征在于:该方法具体的实现步骤如下,
Step1:对图像库中所有图像,提取改进SURF特征:
Step1.1:对图像I,计算积分图像IΣ
Step1.2:使用添加了渐变信息的盒子滤波模板对积分图像IΣ进行盒子滤波计算,构建尺度空间;
Step1.3:在尺度空间中,在每个3×3×3的局部区域里,使用非最大值抑制检测极值点,并记下极值点的位置作为特征点;
Step1.4:以特征点为圆心,以10S为半径作圆形邻域,S为样本所处空间的尺度值;在邻域内以尺寸为4S的Haar小波模板对图像进行处理,计算邻域内所有特征点在x,y方向的Haar小波响应,并赋给每个向量不同的高斯权重,越靠近圆心,贡献值越大,特征点赋值权重越大;
Step1.5:以一个圆心角为的扇形旋转遍历整个圆形邻域,共有8个窗口;每一次滑动到图3中的窗口内时,计算该窗口内Haar小波响应值的和;设dx,dy分别代表水平和垂直方向的Haar小波响应,mω为方向矢量,θω为方向矢量的角度,则:
Vi=(∑dx,∑dy,∑|dx|,∑|dy|),i=1,2,...,8
Step1.6:比较8个窗口的mω值,对8个mω按从大到小的顺序排序,以最大的mω的方向为特征点的主方向;
Step1.7:按照mω值由大到小的顺序,将对应的8个Vi按顺序排列,得到8×4=32维改进SURF特征描述子;
Step2:对所有提取出的改进SURF特征,用k-means算法聚类成为k个视觉单词,表示为K=(k1,k2,k3,...,kk);其中聚类中心k的选择应依据不同图像库的特点而确定,k越大词袋模型对图像的代表能力越强,但同时k越大计算时间越长;
Step3:将图像库中每一幅图像,按照每个视觉单词出现的频率表示为k维向量,在图像P中,视觉单词k1出现1次,k2出现2次,kk-1出现k-1次,kk出现k次,则将图像P表示为向量P=(1,2,...,k-1,k);每幅图像用词袋模型表示成的向量都不同,越相似的图像之间,向量距离肯定越小,依照这样的方式实现图像分类和图像检索。
CN201510927757.XA 2015-12-14 2015-12-14 基于改进surf特征的视觉词袋模型构建方法 Expired - Fee Related CN105550708B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510927757.XA CN105550708B (zh) 2015-12-14 2015-12-14 基于改进surf特征的视觉词袋模型构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510927757.XA CN105550708B (zh) 2015-12-14 2015-12-14 基于改进surf特征的视觉词袋模型构建方法

Publications (2)

Publication Number Publication Date
CN105550708A CN105550708A (zh) 2016-05-04
CN105550708B true CN105550708B (zh) 2018-12-07

Family

ID=55829891

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510927757.XA Expired - Fee Related CN105550708B (zh) 2015-12-14 2015-12-14 基于改进surf特征的视觉词袋模型构建方法

Country Status (1)

Country Link
CN (1) CN105550708B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564111A (zh) * 2018-03-26 2018-09-21 太原理工大学 一种基于邻域粗糙集特征选择的图像分类方法
CN112395901A (zh) * 2019-08-12 2021-02-23 天津大学青岛海洋技术研究院 一种改进型复杂环境下人脸检测定位识别方法
CN112966715B (zh) * 2021-02-02 2021-09-07 哈尔滨商业大学 一种基于多尺度视觉词包模型的商品图像特征描述方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142625A3 (ko) * 2010-05-13 2012-02-02 엘지전자 주식회사 무선 통신 시스템에서 참조 신호 시퀀스 생성 방법 및 장치
CN102629328A (zh) * 2012-03-12 2012-08-08 北京工业大学 融合颜色的显著特征概率潜在语义模型物体图像识别方法
CN102930292A (zh) * 2012-10-17 2013-02-13 清华大学 一种基于p-SIFT特征的物体识别方法
CN103136751A (zh) * 2013-02-05 2013-06-05 电子科技大学 一种改进型sift图像特征匹配算法
CN104008379A (zh) * 2014-06-16 2014-08-27 河南科技大学 一种基于surf特征的物体识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142625A3 (ko) * 2010-05-13 2012-02-02 엘지전자 주식회사 무선 통신 시스템에서 참조 신호 시퀀스 생성 방법 및 장치
CN102629328A (zh) * 2012-03-12 2012-08-08 北京工业大学 融合颜色的显著特征概率潜在语义模型物体图像识别方法
CN102930292A (zh) * 2012-10-17 2013-02-13 清华大学 一种基于p-SIFT特征的物体识别方法
CN103136751A (zh) * 2013-02-05 2013-06-05 电子科技大学 一种改进型sift图像特征匹配算法
CN104008379A (zh) * 2014-06-16 2014-08-27 河南科技大学 一种基于surf特征的物体识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于词袋模型的图像分类技术研究;刘程;《中国优秀硕士学位论文全文数据库·信息科技辑》;20140915;I138-948 *

Also Published As

Publication number Publication date
CN105550708A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
CN103207898B (zh) 一种基于局部敏感哈希的相似人脸快速检索方法
CN105046197B (zh) 基于聚类的多模板行人检测方法
Shi et al. Context-driven moving vehicle detection in wide area motion imagery
JP5604256B2 (ja) 人物動作検出装置およびそのプログラム
CN107392141B (zh) 一种基于显著性检测和lsd直线检测的机场提取方法
Xu et al. Automatic building rooftop extraction from aerial images via hierarchical RGB-D priors
CN103473551A (zh) 基于sift算子的台标识别方法及系统
Wang et al. Traffic sign detection using a cascade method with fast feature extraction and saliency test
JP2013196682A (ja) 人の集団検出方法、及び人の集団検出装置
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN111079785A (zh) 一种图像识别方法、装置及终端设备
CN102236901A (zh) 基于图论聚类和色彩不变空间的目标跟踪方法
CN103400384A (zh) 结合区域匹配和点匹配的大视角图像匹配方法
CN110263712A (zh) 一种基于区域候选的粗精行人检测方法
CN105550708B (zh) 基于改进surf特征的视觉词袋模型构建方法
CN107358189B (zh) 一种基于多视目标提取的室内环境下物体检测方法
CN104376334A (zh) 一种多尺度特征融合的行人比对方法
CN103020614A (zh) 基于时空兴趣点检测的人体运动识别方法
Pahwa et al. Locating 3D object proposals: A depth-based online approach
Meus et al. Embedded vision system for pedestrian detection based on HOG+ SVM and use of motion information implemented in Zynq heterogeneous device
CN108985375B (zh) 考虑粒子权值空间分布的多特征融合跟踪方法
CN106683116A (zh) 一种基于支持向量机的粒子滤波联合跟踪方法
Liu et al. Obstacle recognition for ADAS using stereovision and snake models
CN115880325A (zh) 基于点云维度和空间距离聚类的建筑物轮廓自动提取方法
Liu et al. Background priors based saliency object detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181207

Termination date: 20211214