CN103886314A - 一种物体识别中基于sift特征尺度分量的两级匹配方法 - Google Patents
一种物体识别中基于sift特征尺度分量的两级匹配方法 Download PDFInfo
- Publication number
- CN103886314A CN103886314A CN201210555887.1A CN201210555887A CN103886314A CN 103886314 A CN103886314 A CN 103886314A CN 201210555887 A CN201210555887 A CN 201210555887A CN 103886314 A CN103886314 A CN 103886314A
- Authority
- CN
- China
- Prior art keywords
- ratio
- point
- matching
- level
- variance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明提供了一种物体识别中基于SIFT特征尺度分量的两级匹配方法,属于计算机视觉领域。本发明包括第一级初匹配部分和第二级精匹配两部分,第一级初匹配部分先提取出两幅图像的SIFT特征点,然后分别以两组特征向量为基准,利用基于比值的准则对其进行判定,计算匹配点对集合,最后对两个集合取并集,得到初步的匹配点对提供给下一级继续匹配;第二级精匹配部分先对上一级匹配得到的点对进行处理,即计算各点对的尺度比值,然后计算这个尺度比值集合的均值和方差,制定新的匹配准则对筛选匹配点对,得到最终的匹配结果。本发明提供了两级匹配步骤,第一步选择出较多的匹配点对,再利用SIFT特征的尺度分量特征,经过第二步筛选精选出匹配点对,剔除误匹配点对,能够提高同类物体间的识别率和不同类物体间的区分性,因此适合与物体识别的应用中。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种物体识别中基于SIFT特征尺度分量的两级匹配方法。
背景技术
人类百分之八十的信息是靠视觉获得的,人们通过视觉系统对成千上万的物体进行识别和分类,这个看似简单的过程其实蕴含着一个极为复杂且庞大的处理过程,计算机视觉就是用计算机来模拟人的视觉系统获取和处理视频信息。
物体识别是计算机视觉领域一个极富挑战的课题,其过程会受到光线、环境如背景、遮挡、尺度、视角变化以及图像传输噪声的影响,从而对识别结果造成影响。因此需要提取出能够较好描述物体的特征,利用有效的匹配准则对物体进行识别,目前对匹配方法的研究较少,与一般的图像配准不同,物体识别更要求特征之间的区域相似性。
SIFT特征作为一种局部不变特征,具有优异的性能而受到广泛的应用。可以概括为四个步骤:(1)尺度空间极值检测;(2)关键点定位;(3)关键点方向确定;(4)生成关键点描述子。在计算过程中由于关键点位置的确定和关键点的方向的计算,还有 关键点描述子的产生等步骤而使得其具有旋转不变性。SIFT特征描述符为128维向量,常用的方法是以欧氏距离 为测度来评价两个SIFT关键点和的相似性,如下:
现有的几种匹配准则主要包括:
1.最近邻准则。最近邻准则即直接把对应的特征点作为对应点。这个准则确保无论如何,任一特征点总可以找到一个匹配点。但他的缺陷是一个候选关键点即使不存在对应点,也能找到一个最近邻,这个时候的最近邻实际上相似度也极低,也就是距离仍然很大,这个时候实际上是一个无匹配关键点的情况。
2.最近邻阈值准则
3.比值准则
比值法由于计算简便、正确率高,很多学者都采用它作为SIFT特征点的匹配准则。这一准则作为以同一物体的识别中,比如在复杂的场景中寻找物体,利用配准对应点的空间分布关系聚类,能取得非常高的识别率,因为候选点很多,可以采用这种严格的准则。但是这一算法抛弃了物体的自相似特性,物体自身就存在很多SIFT特征相似的关键点,因此也存在一些不足。
本发明在分析了现有匹配算法的基础上,针对物体识别的应用需求,提出一种基于尺度分量的两级匹配算法。
发明内容
本发明的目的在于解决上述现有技术中存在的难题,提供一种针对物体识别的基于SIFT特征尺度分量的两级匹配方法,利用两级分别匹配,首先初步选取候选匹配点,再通过精匹配筛选匹配点,最后计算匹配结果。
本发明是通过以下技术方案实现的:
一种物体识别中基于SIFT特征尺度分量的两级匹配方法,其特征在于,所述方法包括:
(1)第一级初匹配部分:首先分别提取两幅图像1和2的SIFT特征,以图像1为基准,利用基于比值的准则求其中每个SIFT特征点在图像2中的匹配点,将点与点匹配的序号索引记录下来,再以图像2为基准重复上述步骤,最后将两次的索引结合起来取并集,即得到第一级匹配的点对。
(2)第二级精匹配部分:首先计算第一级匹配点对的比值,再计算比值的方差,如果方差大于某个阈值就直接认为两者不匹配,反之再判定各匹配点对的比值是否在一个比值区间内,如果在该区间内则保留该匹配点,反之去除该匹配点,最后计算剩余的匹配点数作为匹配结果。
其中,所述第一级初匹配部分包括以下步骤:
所述步骤(1)中基于比值的计算步骤如下:
所述第二级精匹配部分包括以下步骤:
(1)对第一级初匹配得到的结合进行处理,计算每两个点的尺度比值,得到集合。
(2)计算集合的均值和方差,并通过指定的新准则进行判定:若尺度比值的方差大于某一阈值时可以直接认定两个物体不匹配,当方差在接受范围以内时,则通过尺度比值在某一范围内对初匹配得到的匹配点对进行筛选,在规定范围内的认为是匹配正确的点,否则将其剔除,即必须满足式如下:
其中是两幅图片的匹配点尺度比值的方差,分别是最大尺度比值、某个匹配点的尺度比值和最小尺度比值。经过精匹配后的精度会随阈值和的不同而发生变化,增大两个阈值的区间,会同时增加同类物体和不同类物体间的匹配率,反之亦然,所以必须找到一个平衡点,使得同类物体的匹配率尽量高,不同物体间的匹配率尽量低。
与现有技术相比,本发明的有益效果是:本发明提供了两级匹配步骤,第一步选择出较多的匹配点对,再经过第二步筛选精选出匹配点对,剔除误匹配点对,能够提高同类物体间的识别率和不同类物体间的区分性,因此适合与物体识别的应用中。
附图说明
下面结合附图对本发明作进一步详细描述:
图1 是本发明中的两级匹配方法流程图。
具体实施方式
一种物体识别中基于SIFT特征尺度分量的两级匹配方法,所述方法包括以下步骤:
1,第一级初匹配部分:如图1所示。首先分别提取两幅图像1和2的SIFT特征,以图像1为基准,利用基于比值的准则求其中每个SIFT特征点在图像2中的匹配点,将点与点匹配的序号索引记录下来,再以图像2为基准重复上述步骤,最后将两次的索引结合起来取并集,即得到第一级匹配的点对。
2,第二级精匹配部分:如图1所示,首先计算第一级匹配点对的比值,再计算比值的方差,如果方差大于某个阈值就直接认为两者不匹配,反之再判定各匹配点对的比值是否在一个比值区间内,如果在该区间内则保留该匹配点,反之去除该匹配点,最后计算剩余的匹配点数作为匹配结果。
其中,所述第一级初匹配部分具体包括以下步骤:
所述步骤(1)中基于比值的计算步骤如下:
所述第二级精匹配部分具体包括以下步骤:
(2)计算集合的均值和方差,并通过指定的新准则进行判定:若尺度比值的方差大于某一阈值时可以直接认定两个物体不匹配,当方差在接受范围以内时,则通过尺度比值在某一范围内对初匹配得到的匹配点对进行筛选,在规定范围内的认为是匹配正确的点,否则将其剔除,即必须满足式如下:
(3.12)
其中是两幅图片的匹配点尺度比值的方差,分别是最大尺度比值、某个匹配点的尺度比值和最小尺度比值。经过精匹配后的精度会随阈值和的不同而发生变化,增大两个阈值的区间,会同时增加同类物体和不同类物体间的匹配率,反之亦然,所以必须找到一个平衡点,使得同类物体的匹配率尽量高,不同物体间的匹配率尽量低。
上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是优选,但并不具有限制性的意义。
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210555887.1A CN103886314A (zh) | 2012-12-20 | 2012-12-20 | 一种物体识别中基于sift特征尺度分量的两级匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210555887.1A CN103886314A (zh) | 2012-12-20 | 2012-12-20 | 一种物体识别中基于sift特征尺度分量的两级匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103886314A true CN103886314A (zh) | 2014-06-25 |
Family
ID=50955197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210555887.1A Pending CN103886314A (zh) | 2012-12-20 | 2012-12-20 | 一种物体识别中基于sift特征尺度分量的两级匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103886314A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513075A (zh) * | 2015-12-09 | 2016-04-20 | 深圳市华和瑞智科技有限公司 | 一种基于sift特征实现多点分层支撑描述的图像匹配方法 |
CN107967477A (zh) * | 2017-12-12 | 2018-04-27 | 福州大学 | 一种改进的sift特征联合匹配方法 |
CN108334644A (zh) * | 2018-03-30 | 2018-07-27 | 百度在线网络技术(北京)有限公司 | 图像识别方法和装置 |
CN109816051A (zh) * | 2019-02-25 | 2019-05-28 | 北京石油化工学院 | 一种危化品货物特征点匹配方法及系统 |
-
2012
- 2012-12-20 CN CN201210555887.1A patent/CN103886314A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513075A (zh) * | 2015-12-09 | 2016-04-20 | 深圳市华和瑞智科技有限公司 | 一种基于sift特征实现多点分层支撑描述的图像匹配方法 |
CN107967477A (zh) * | 2017-12-12 | 2018-04-27 | 福州大学 | 一种改进的sift特征联合匹配方法 |
CN107967477B (zh) * | 2017-12-12 | 2021-06-01 | 福州大学 | 一种改进的sift特征联合匹配方法 |
CN108334644A (zh) * | 2018-03-30 | 2018-07-27 | 百度在线网络技术(北京)有限公司 | 图像识别方法和装置 |
CN108334644B (zh) * | 2018-03-30 | 2019-03-15 | 百度在线网络技术(北京)有限公司 | 图像识别方法和装置 |
US10762373B2 (en) | 2018-03-30 | 2020-09-01 | Baidu Online Network Technology (Beijing) Co., Ltd. | Image recognition method and device |
CN109816051A (zh) * | 2019-02-25 | 2019-05-28 | 北京石油化工学院 | 一种危化品货物特征点匹配方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574505B (zh) | 一种多摄像机间人体目标再识别的方法及系统 | |
Lynen et al. | Placeless place-recognition | |
CN103207898B (zh) | 一种基于局部敏感哈希的相似人脸快速检索方法 | |
JP5818327B2 (ja) | 三次元物体認識用画像データベースの作成方法および作成装置 | |
CN101145196B (zh) | 基于奇异的拓扑结构的快速指纹识别方法 | |
CN104036287A (zh) | 一种基于人类运动显著轨迹的视频分类方法 | |
CN104200495A (zh) | 一种视频监控中的多目标跟踪方法 | |
CN110309770B (zh) | 一种基于四元组损失度量学习的车辆再辨识方法 | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
Zhou et al. | Progressive large scale-invariant image matching in scale space | |
CN104794451B (zh) | 基于分块匹配结构的行人比对方法 | |
Fotouhi et al. | SC-RANSAC: spatial consistency on RANSAC | |
CN102236901A (zh) | 基于图论聚类和色彩不变空间的目标跟踪方法 | |
Yi et al. | Motion keypoint trajectory and covariance descriptor for human action recognition | |
CN103853794B (zh) | 一种基于部件关联的行人检索方法 | |
Mursi et al. | An improved SIFT-PCA-based copy-move image forgery detection method | |
CN103886314A (zh) | 一种物体识别中基于sift特征尺度分量的两级匹配方法 | |
CN105809678B (zh) | 一种短基线条件下两视图间线段特征全局匹配方法 | |
CN111382602A (zh) | 一种跨域人脸识别算法、存储介质及处理器 | |
He et al. | Detector-free structure from motion | |
Lin et al. | Multi-motion segmentation via co-attention-induced heterogeneous model fitting | |
CN106023184A (zh) | 一种基于各向异性中心环绕差异的深度显著性检测方法 | |
CN111914912B (zh) | 一种基于孪生条件对抗网络的跨域多视目标识别方法 | |
Xiao et al. | Trajectories-based motion neighborhood feature for human action recognition | |
JP2016171558A (ja) | マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140625 |