CN113963179A - 一种基于sift的图像特征纹理追踪识别算法 - Google Patents

一种基于sift的图像特征纹理追踪识别算法 Download PDF

Info

Publication number
CN113963179A
CN113963179A CN202111565962.8A CN202111565962A CN113963179A CN 113963179 A CN113963179 A CN 113963179A CN 202111565962 A CN202111565962 A CN 202111565962A CN 113963179 A CN113963179 A CN 113963179A
Authority
CN
China
Prior art keywords
feature
feature point
matching
angle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111565962.8A
Other languages
English (en)
Inventor
宋学安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Shijue Aviation Technology Co ltd
Original Assignee
Shenzhen Shijue Aviation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Shijue Aviation Technology Co ltd filed Critical Shenzhen Shijue Aviation Technology Co ltd
Priority to CN202111565962.8A priority Critical patent/CN113963179A/zh
Publication of CN113963179A publication Critical patent/CN113963179A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像识别技术领域,尤其涉及一种基于SIFT的图像特征纹理追踪识别算法。包括:使用SIFT算法对第一图像和第二图像进行特征点提取;对特征点进行距离计算筛选匹配,获得元素互为对应的第一匹配特征点集合和第二匹配特征点集合;分别计算两个匹配特征点集合中的特征点之间的角度关系,获得第一角度集合和第二角度集合;计算两个角度集合中对应角度的差值,统计所有差值中未超过预设差值阈值的匹配数;计算匹配数与差值的个数的比值。本发明通过排除干扰特征点和计算特征点之间的角度关系实现图像特征纹理追踪识别,解决了SIFT算法提供的特征点误匹配问题,有效地将两张图像之间的匹配度进行量化,提高了图像识别效率和精准度,增强了实用性。

Description

一种基于SIFT的图像特征纹理追踪识别算法
技术领域
本发明属于图像识别技术领域,尤其涉及一种基于SIFT的图像特征纹理追踪识别算法。
背景技术
SIFT(Scale-invariant feature transform 尺度不变特征变换)图像特征匹配算法,用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量,在图像搜索、特征匹配、图像分类检测等方面应用十分广泛,常被应用于物体辨识、机器人地图感知与导航、影像缝合、3D模型建立、手势辨识、影像追踪和动作比对等领域。虽然SIFT算法能够输出图像的特征点集合,但是存在特征点误匹配的问题,匹配的特征点精准度较低,且没有给出如何使用输出的特征点集合来量化两张图像之间的匹配度。
因此,亟需一种能够根据SIFT算法输出的图像特征点集合来判断两张图像的匹配度的图像特征纹理追踪识别算法。
发明内容
本发明的目的在于针对现有技术的不足,提供一种图像特征纹理追踪识别算法,可实现根据SIFT算法输出的图像特征点集合来判断两张图像的匹配度,能够应用于摄像头人脸识别、刷脸身份认证等需要进行图像识别的场景,具有使用场景广、运算效率高、匹配精度高、实用性强的特点。
为了实现上述目的,本发明采用了以下技术方案:
一种基于SIFT的图像特征纹理追踪识别算法,包括:
特征点提取:使用SIFT算法对第一图像和第二图像进行特征点提取;
距离计算筛选:对所述特征点进行距离计算筛选匹配,保留预设距离阈值内的多组特征点对,形成元素互为对应的第一匹配特征点集合和第二匹配特征点集合;
特征点角度计算:计算所述第一匹配特征点集合中所述特征点之间的角度关系,获得第一角度集合,计算所述第二匹配特征点集合中所述特征点之间的角度关系,获得第二角度集合;
匹配数统计:计算所述第一角度集合和所述第二角度集合中对应角度的差值,统计所有所述差值中未超过预设差值阈值的匹配数;
匹配度计算:计算所述匹配数与所述差值的个数的比值。
进一步的,所述特征点角度计算步骤包括:
向量计算:分别计算所述第一匹配特征点集合的多个所述特征点之间、所述第二匹配特征点集合中与所述第一匹配特征点集合相对应的多个所述特征点之间的特征向量;
夹角计算:计算所述特征向量之间的特征向量夹角,获得所述第一角度集合和所述第二角度集合。
进一步的,所述特征点角度计算步骤中,所述第一匹配特征点集合和所述第二匹配特征点集合的元素互相对应,均为n个,且n≥3;
所述特征向量夹角指的是所述第一匹配特征点集合或所述第二匹配特征点集合中的第i个所述特征点到第j个所述特征点之间的向量、第j个所述特征点到第k个所述特征点之间的向量所形成的夹角;
其中,i、j、k的取值范围为1~n,且i≠j≠k。
进一步的,所述特征点角度计算步骤中:
i的取值范围为1~n;
j=i mod n + 1;
k= ( i + 1 ) mod n + 1;
其中,mod为取余数运算符。
优选的,其特征在于,所述夹角计算步骤中采用反正切函数atan2()来计算所述特征向量夹角。
进一步的,所述距离计算筛选步骤包括:
欧氏距离筛选:使用欧氏距离算法对所述特征点进行筛选。
进一步的,所述欧氏距离算法的所述预设距离阈值的取值范围为0.7-0.8。
进一步的,在使用所述欧氏距离算法对所述特征点进行筛选之前,还包括:
最近邻匹配:使用FLANN算法对所述特征点进行最近邻匹配。
进一步的,所述匹配数统计步骤中,当所述差值的单位为“度”时,所述预设差值阈值为2度;当所述差值的单位为“弧度”时,所述预设差值阈值为π/90。
进一步的,所述匹配度计算步骤之后,还包括:
同源判定:若所述匹配数与所述差值的个数的比值大于或等于95%,则判定所述第一图像和所述第二图像同源。
本发明的有益效果:
本发明通过使用SIFT算法提取特征点,具有良好的旋转不变性和尺度不变性;通过使用FLANN算法对特征点进行最近邻匹配和使用欧氏距离对特征点进行筛选,排除从SIFT算法中所提取的特征点中的无效特征点;通过对多个特征点进行向量计算和夹角计算,能够获得特征点之间的角度关系;通过统计未超过预设差值阈值的匹配数与差值总数的比值来确定两张图像之间的匹配度;通过判断图像的匹配度来确定两张图像是否同源;本发明通过排除干扰特征点和计算特征点之间的角度关系实现图像特征纹理追踪识别,解决了SIFT算法提供的特征点误匹配问题,有效地将两张图像之间的匹配度进行量化,扩大了使用场景,提高了图像识别效率和精准度,增强了实用性。
附图说明
附图1是本发明的基于SIFT的图像特征纹理追踪识别算法的流程图;
附图2是本发明的基于SIFT的图像特征纹理追踪识别算法中使用SIFT算法进行特征点提取的流程图;
附图3是本发明的实施例中,原图像与同源图像1在欧氏距离筛选阈值为0.8时的特征识别效果图;
附图4是本发明的实施例中,原图像与同源图像2在欧氏距离筛选阈值为0.8时的特征识别效果图;
附图5是本发明的实施例中,原图像与同源图像3在欧氏距离筛选阈值为0.8时的特征识别效果图;
附图6是本发明的实施例中,原图像与同源图像4在欧氏距离筛选阈值为0.8时的特征识别效果图;
附图7是本发明的实施例中,原图像与非同源图像1在欧氏距离筛选阈值为0.8时的特征识别效果图;
附图8是本发明的实施例中,原图像与非同源图像2在欧氏距离筛选阈值为0.7时的特征识别效果图;
附图9是本发明的实施例中,原图像与非同源图像2在欧氏距离筛选阈值为0.8时的特征识别效果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明实施例中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
参阅附图1和附图2,图示为本发明所提供一种基于SIFT的图像特征纹理追踪识别算法的一个具体实施例。
参阅附图1,基于SIFT的图像特征纹理追踪识别算法包括:
步骤S100,特征点提取:使用SIFT算法对第一图像和第二图像进行特征点提取,获得第一特征点集合和第二特征点集合;
步骤S200,距离计算筛选:对特征点进行距离计算筛选匹配,保留预设距离阈值内的多组特征点对,形成元素互为对应的第一匹配特征点集合和第二匹配特征点集合;
步骤S300,特征点角度计算:计算第一匹配特征点集合中特征点之间的角度关系,获得第一角度集合,计算第二匹配特征点集合中特征点之间的角度关系,获得第二角度集合;
步骤S400,匹配数统计:计算第一角度集合和第二角度集合中对应角度的差值,统计所有差值中未超过预设差值阈值的匹配数;
步骤S500,匹配度计算:计算匹配数与差值的个数的比值;
步骤S600,同源判定:若匹配数与差值的个数的比值大于或等于95%,则判定第一图像和第二图像同源。
上述实施例中,通过上述步骤,有效地将两张图像之间的匹配度进行量化,提高了图像识别效率和精准度,增强了实用性。
参阅附图2,在特征点提取步骤S100中,包括如下步骤:
步骤S110,尺度空间极值检测,包括:
步骤S111,高斯滤波:分别对第一图像和第二图像进行高斯卷积运算,确保图像特征具有尺度不变性;
步骤S112,高斯差分:构建高斯差分金字塔,凸显图像特征;
步骤S113,选取极值点:选取高斯差分金字塔中的极值点作为代表图像特征的关键点;
步骤S120,关键点精准定位与过滤:对步骤S113所提取的关键点进行二阶泰勒展开,若结果值小于0.03,则剔除该关键点;
步骤S130,关键点方向指派:采用步长为10度共计36个梯度方向的梯度直方图来统计特征点邻域窗口的梯度方向,将梯度方向直方图中最高的柱所对应的方向确定为该关键点的主方向,若存在一个方向的幅值大于主方向幅值的80%时,则将该方向确定为该关键点的辅方向,此时将获得每个关键点的二维位置、尺度位置、主方向三个信息。
步骤S140,关键点描述子生成:根据步骤S130获得的关键点二维位置、尺度位置和主方向生成对应的128维向量特征数据,该128维向量特征数据即该点的特征描述子,并从中提取到特征点;
步骤S150,输出特征点:将从第一图像中提取到的特征点输出到第一特征点集合,将从第二图像中提取到的特征点输出到第二特征点集合。
在距离计算筛选步骤S200中,包括如下步骤:
步骤S210,最近邻匹配:使用FLANN算法对第一特征点集合和第二特征点集合的特征点进行最近邻匹配,其中,FLANN算法的预设距离阈值为采用默认值;
在最近邻匹配步骤S210中,FLANN算法(Fast Library for Approximate NearestNeighbors)是针对大规模高维数据集进行快速最近邻搜索的优化算法库,对于SIFT算法提取的第一特征点集合和第二特征点集合,第一特征点集合中的任意一个特征点P1,在经由FLANN算法计算得出的第二特征点集合中的最邻近的两个特征点P2a和P2b,若特征点P1与特征点P2a的邻近距离和特征点P1与特征点P2b的邻近距离的比值不超过预设距离阈值,此处采用默认值,则认为特征点P1和特征点P2a是互相匹配的两个特征点;其中,FLANN算法的SearchParams参数指定了索引被递归遍历的次数,递归遍历次数越高则准确度越高,但计算耗时也更久,在本实施例中,SearchParams字典所指定的递归遍历次数采用默认值。
步骤S220,欧氏距离筛选:使用欧氏距离算法对经过最近邻匹配步骤S210匹配之后的第一特征点集合和第二特征点集合的特征点进行筛选,其中,欧氏距离算法的预设距离阈值的取值范围为0.7-0.8;
在欧氏距离筛选步骤S220中,对于经过最近邻匹配步骤S210匹配之后的第一特征点集合和第二特征点集合,第一特征点集合中的任意一个特征点P1,第二特征点集合中与特征点P1的欧氏距离最小的两个特征点P2a和P2b,P1 与P2a的欧氏距离为da,P1 与P2b的欧氏距离为db,且da<db,则当da、db与欧氏距离算法的预设距离阈值th之间满足da<db*th时,特征点P1和特征点P2a是互相匹配的两个特征点;
实施例中,欧氏距离算法的预设距离阈值th的取值范围为0.7-0.8,其中,欧氏距离算法的预设距离阈值th的取值对同源图像的影响较小,对非同源图像的影响较大,一般的,预设距离阈值th的取值越大,说明匹配的要求越宽松,因此产生的误匹配的特征点对就越多;预设距离阈值th的取值越小,说明匹配的要求越严格,经过筛选后的特征点对就会相应地较少,当特征点对的数量过少时,如低于10组特征点对,则认为两张图像不同源,匹配度为0。
具体的,欧氏距离算法的预设距离阈值th的取值对原图像与同源图像、原图像与非同源图像的特征点的筛选和匹配的影响如表1所示,其中,原图像指的是上述的第一图像,同源图像和非同源图像指的是对比图像,即上述的第二图像,附图3、附图4、附图7-附图9为表1中部分实验项的特征识别效果图。
Figure 884404DEST_PATH_IMAGE001
从表1可看出,随着预设距离阈值th的降低,在经过筛选之后,同源图像的特征点对数量减少,但对匹配度的影响较低,对同源判定没有影响,在耗时上也有所降低,运算效率提高,对于非同源图像,有着较为明显的影响,其中,预设距离阈值th越小,匹配的特征点越少,如表1中同源图像1的测试项,当预设距离阈值th的取值为0.1时,由于匹配要求过于严格,经过欧氏距离筛选后,明显降低了同源图像和非同源图像中互为匹配的特征点的数量,对匹配度的运算有些许影响;如表1中非同源图像2的测试项,当预设距离阈值th的取值为0.7-0.9时,筛选出了较多的特征点,由于所筛选的特征点在后续步骤中均会用于运算,筛选出过多的特征点将导致运算效率降低,对于运算后所得到的匹配度影响较大;因此,如果为了确保筛选结果的准确性和提高整体的运算效率,可以将欧氏距离算法的预设距离阈值th的取值设定在0.2-0.4之间,本发明则是为了便于对第一图像和第二图像之间的匹配度进行量化,包括原图像与非同源图像之间的匹配度的量化,因此本发明将欧氏距离算法的预设距离阈值th的取值设定在0.7-0.8。
在表1中所体现的本发明的算法的耗时中,主要耗时是SIFT算法对图片进行特征点提取时产生的,即步骤S100产生的耗时占了较大的比重,而非特征点提取后进行运算比较的过程;步骤S100运算耗时与图片尺寸正相关,图片尺寸越大,耗时越长;表1中的耗时一列主要是为了体现欧氏距离算法中预设距离阈值th的大小对运算耗时的影响,是在同一个测试环境中产生的结果。
实施例中,可以将经过欧氏距离筛选步骤S220得到的多个P1依次存储进第一匹配特征点集合,将与P1对应的P2a依次存储进第二匹配特征点集合中,以便于进行后续的特征点角度计算步骤S300;可选的,也可以将P1和P2a成对存储进同一个集合中,形成一个二维数组,其第一维的数量为特征点对的数量,其第二维存储的是特征点P1和特征点P2a的坐标信息。
在一些实施例中,也可以通过da和db反向计算th,以th从小到大的方式对互为匹配的特征点对进行排序,选取前m组特征点对作为结果输出到第一匹配特征点集合和第二匹配特征点集合,但是由于没有对th的取值进行限制,对于非同源图像可能因此产生较多的误匹配的特征点对;因此,该实施例也能够与上一个实施例结合,即将预设距离阈值th的取值范围设定为0.7-0.8进行筛选,并依照th从小到大对互为匹配的特征点对进行排序,选取前m组特征点对作为结果输出到第一匹配特征点集合和第二匹配特征点集合,该实施例对于非同源图像没有明显影响,但是对于匹配出的特征点对多于m组的同源图像,能够将输出的结果限制在m组,在后续的特征点角度计算步骤S300中可以减少循环计算的次数,提高运算效率;具体的,m的取值可以为100。
在特征点角度计算步骤S300中,包括如下步骤:
步骤S310,向量计算:分别计算第一匹配特征点集合的多个特征点之间、第二匹配特征点集合中与第一匹配特征点集合相对应的多个特征点之间的特征向量;
步骤S320,夹角计算:分别计算特征向量之间的特征向量夹角,获得第一角度集合和第二角度集合,在该步骤中,采用反正切函数atan2(y,x)来计算特征向量夹角。
在特征点角度计算步骤S300中,第一匹配特征点集合和第二匹配特征点集合的元素互相对应,均为n个,且n≥3;特征向量夹角指的是第一匹配特征点集合或第二匹配特征点集合中的第i个特征点到第j个特征点之间的向量、第j个特征点到第k个特征点之间的向量所形成的夹角;其中,i、j、k的取值范围为1~n,且i≠j≠k;当经过距离计算筛选步骤S200之后的获得的第一匹配特征点集合和第二匹配特征点集合的元素少于3个,则无法计算,在本实施例中,第一匹配特征点集合和第二匹配特征点集合的元素少于10个时,认为匹配度为0。
在本实施例中,特征点角度计算步骤S300以如下方法计算特征点角度:
i的取值范围为1~n;
j=i mod n + 1;
k=(i+1) mod n + 1;
其中,mod为取余数运算符,在编程中以“%”表示。
即:
当i≤n-2时,j=i+1,k=i+2;
当i=n-1时,j=n,k=1;
当i=n时,j=1,k=2。
具体的,当i≤n-2时,特征向量夹角指的是第一匹配特征点集合或第二匹配特征点集合中的第i个特征点到第i+1个特征点之间的向量、第i+1个特征点到第i+2个特征点之间的向量所形成的夹角;
当i=n-1时,特征向量夹角指的是第一匹配特征点集合或第二匹配特征点集合中的第n-1个特征点到第n个特征点之间的向量、第n个特征点到第1个特征点之间的向量所形成的夹角;
当i=n时,特征向量夹角指的是第一匹配特征点集合或第二匹配特征点集合中的第n个特征点到第1个特征点之间的向量、第1个特征点到第2个特征点之间的向量所形成的夹角;
实施例中,由3个连续的图像特征元素分别构成向量再形成夹角,通过计算多个特征点之间的位置信息和角度信息,实现图像特征的纹理追踪识别。
具体的,若将第一匹配特征点集合视为首尾元素相连的结构,将3个连续的元素分别定义为i1、j1、k1,则3个特征点的坐标分别为i1 (xi, yi)、j1 (xj, yj)、k1 (xk, yk);
由特征点i1、j1构成特征向量VT1ij(xj – xi, yj – yi),由特征点j1、k1构成特征向量VT1jk(xk – xj, yk – yj);
由特征向量VT1ij和特征向量VT1jk所构成的夹角ANG1ijk = atan2(VT1jk.y,VT1jk.x)- atan2(VT1ij.y, VT1ij.x) = atan2((yk – yj), (xk – xj))- atan2((yj – yi),(xj – xi));
在本实施例中,atan2(y,x)函数返回的是原点至点(x,y)的方位角,即与x轴的夹角,实施例中,atan2(y,x)函数用于计算特征向量VT1ij与x轴间的夹角和特征向量VT1jk与x轴间的夹角,二者相减将得到特征向量VT1ij和特征向量VT1jk之间的夹角,其中atan2(y,x)函数的返回值的单位为弧度,因此此处所计算得到的夹角的单位为弧度;
相同的,第二匹配特征点集合中与第一匹配特征点集合的i1、j1、k1相对应的特征点i2、j2、k2,通过由特征点i2、j2构成特征向量VT2ij、由特征点j2、k2构成特征向量VT2jk,由特征向量VT2ij和特征向量VT2jk构成夹角ANG2ijk,通过atan2(y,x)函数计算夹角ANG2ijk的弧度值,由此获得特征夹角互为对应的ANG1ijk和ANG2ijk;通过遍历第一匹配特征点集合第二匹配特征点集合,计算所有的夹角以进行后续的运算。
在一个可选的实施例中,特征点角度计算步骤S300中的向量计算步骤S310,从第一匹配特征点集合所选用的3个特征点i1、j1、k1也可以是不连续的,如特征点i1、j1、k1所对应的是第一匹配特征点集合中的第1、2、4个元素或第1、3、5个元素,第二匹配特征点集合中的特征点i2、j2、k2只需与特征点i1、j1、k1相对应即可;与本实施例相区别的,在上一个实施例中,选用3个连续的元素而非其他类似于本实施例的随机元素,能够确保每一个特征点都能有一个以该特征点为顶点的角纳入计算,避免遗漏特征点导致匹配精度下降,同时能够减少计算步骤和循环次数,提高该步骤的运算效率。
在一个可选的实施例中,特征点角度计算步骤S300也可以将向量计算步骤S310和夹角计算步骤S320分别运算,具体的,在向量计算步骤S310中,从第一匹配特征点集合和第二匹配特征点集合中选取多个互为对应的特征点构成多个互为对应的特征向量分别存储到第一特征向量集合和第二特征向量集合中, 再对第一特征向量集合和第二特征向量集合进行夹角计算步骤S320的运算,以获得第一角度集合和第二角度集合;该实施例在逻辑上较为清晰,但由于引入中间变量且循环数翻倍,虽然循环次数不多,但依旧会在一定程度上降低运算效率。
在上述实施例中,夹角计算步骤S320所使用的反正切函数atan2(y, x)函数的返回值的取值如下:
当x>0时,atan2(y, x) = arctan(y/x);
当x<0,y≥0时,atan2(y, x) = arctan(y/x) +π;
当x<0,y<0时,atan2(y, x) = arctan(y/x) –π;
当x=0,y>0时,atan2(y, x) = π/2;
当x=0,y<0时,atan2(y, x) = -π/2;
因此,atan2(y, x)函数的返回值的取值范围为(-π, π]。
在匹配数统计步骤S400中,计算第一角度集合和第二角度集合中对应角度的差值,即上述实施例中多组互为对应的夹角ANG1ijk与夹角ANG2ijk的差值,统计所有差值中未超过预设差值阈值的匹配数;由于在特征点角度计算步骤S300中,采用atan2(y, x)函数进行浮点数计算时会产生误差,此处的预设差值阈值即为所允许的精度误差范围,允许精度误差过大或对精度要求过高会导致误判,因此在本实施例中,当差值的单位为“度”时,预设差值阈值为2度 ,当差值的单位为“弧度”时,预设差值阈值为π/90;实施例中,atan2(y, x)函数的返回值的单位为“弧度”,当ANG1ijk减去ANG2ijk的绝对值不超过π/90时,则认为夹角ANG1ijk与夹角ANG2ijk是相互匹配的,当该差值以“度”为单位时,若ANG1ijk减去ANG2ijk的绝对值不超过2度,则认为夹角ANG1ijk与夹角ANG2ijk是相互匹配的,即第一匹配特征点集合的特征点i1、j1、k1与第二匹配特征点集合的特征点i2、j2、k2是互相匹配的。
在实际应用中,特征点角度计算步骤S300和匹配数统计步骤S400是可以在同一个循环体中完成的,具体的,在经过距离计算筛选步骤S200之后,第一图像的特征点与第二图像的特征点是互为对应的,则特征点对的数量即为循环次数,在循环体中,同时计算第一匹配特征点集合和第二匹配特征点集合中的两个特征点之间的向量,再计算两个向量之间的夹角,再计算第一匹配特征点集合的夹角与第二匹配特征点集合的夹角之间的差值并统计未超过预设差值阈值的差值的数量,实现在一个循环体中完成特征点角度计算步骤S300和匹配数统计步骤S400,以此减少引入的中间变量和循环体数量,提高运算效率;对于其他动辄上千次循环的算法,本算法较为明显地提高了运算效率;在上述的实施例中,引入的中间变量第一特征点集合、第二特征点集合、第一匹配特征点集合、第二匹配特征点集合、第一角度集合、第二角度集合等,是为了便于对整体算法流程步骤进行分解说明,而不能理解为明示或暗示本算法的各个步骤中经计算获得的数据必须存储到集合、数组或其他特定变量中。
在匹配度计算步骤S500中,计算经由匹配数统计步骤S400所计算得出的匹配数与差值的个数的比值;由于第一匹配特征点集合与第二匹配特征点集合的元素是相互对应的,经由特征点角度计算步骤S300计算后得到多组互为对应的夹角,在匹配数统计步骤S400中对互为对应的夹角进行比对,总夹角组数为totalNum,预设差值阈值范围内的匹配夹角组数为matchNum,则第一图像和第二图像之间的匹配度N% = matchNum / totalNum。
在同源判定步骤S600中,若匹配数matchNum与差值的个数totalNum的比值大于或等于95%,则判定第一图像和第二图像同源;
具体的,当欧氏距离设置为0.8、预设差值阈值为2度时,对于多张同源图像与非同源图像,本发明的匹配度计算和同源判定结果如表2所示,其中,原图像指的是上述的第一图像,同源图像和非同源图像指的是对比图像,即上述的第二图像,附图3-附图7、附图9为表2中部分实验项的特征识别效果图。
Figure 561505DEST_PATH_IMAGE002
如表2,非同源图像3的测试项,由于总特征点对数不超过10个,即在距离计算筛选步骤S200中,经过筛选后的特征点对的数量不超过10个,直接认定为非同源图像,匹配度为0%,不参与后续运算;在多次实际运算中,同源图像的匹配度都在97%以上,而非同源图像的匹配度都在90%以下,且同源判定的准确率为100%,因此,作为一个更加严格的同源判定结论为,当匹配度大于或等于97%时,第一图像和第二图像同源;当匹配度小于90%时,第一图像和第二图像非同源。
作为本发明的一个较优的实施例,具体实施步骤如下:
步骤S100,特征点提取:使用SIFT算法对第一图像和第二图像进行特征点提取,获得第一特征点集合和第二特征点集合;
步骤S200,距离计算筛选:使用FLANN算法和欧氏距离算法对第一特征点集合和第二特征点集合进行筛选匹配,其中,FLANN算法采用默认值,欧氏距离算法的预设距离阈值的取值范围为0.7-0.8,获得元素互为对应的第一匹配特征点集合和第二匹配特征点集合,元素个数均为n个;
步骤S300,特征点角度计算:遍历第一匹配特征点集合,取出第i、j、k个特征点,其中i的取值范围为1~n,j = i mod n + 1,k = ( i + 1 ) mod n + 1;若i、j、k所表示的是数组下标,则i的取值范围为0~(n-1),j = (i+1) mod n,k = ( i + 2 ) mod n;
对于第一匹配特征点集合第i、j、k个特征点i1 (xi, yi)、j1 (xj, yj)、k1 (xk, yk)所构成的夹角为ANG1ijk = atan2((yk – yj), (xk – xj))- atan2((yj – yi), (xj – xi)),遍历计算后获得元素个数为n的第一角度集合;由于第一匹配特征点集合和第二匹配特征点集合的元素互为对应,因此可以计算出与ANG1ijk 相对应的ANG2ijk ,遍历计算后获得元素个数为n且与第一角度集合互为对应的第二角度集合;
步骤S400,匹配数统计:遍历计算第一角度集合的第i个元素与第二角度集合的第i个元素的差值,其中i的取值范围为1~n,若差值的绝对值不超过2度(π/90),则认为是匹配的,经统计后的匹配数为matchNum个;
步骤S500,匹配度计算:由于第一角度集合和第二角度集合的元素互为对应,均为n个,经过步骤S400统计后的总数也是n个,此处用totalNum表示,则第一图像和第二图像之间的匹配度N% = matchNum / totalNum。
步骤S600,同源判定:步骤S500计算的得出匹配度N%,若N≥95,即匹配度在95%以上,则判定第一图像和第二图像同源。
综上所述,本实施例提供一种基于SIFT的图像特征纹理追踪识别算法,通过使用SIFT算法提取特征点,具有良好的旋转不变性和尺度不变性;通过使用FLANN算法对特征点进行最近邻匹配和使用欧氏距离对特征点进行筛选,排除从SIFT算法中所提取的特征点中的无效特征点;通过对多个特征点进行向量计算和夹角计算,能够获得特征点之间的角度关系;通过统计未超过预设差值阈值的匹配数与差值总数的比值来确定两张图像之间的匹配度;通过判断图像的匹配度来确定两张图像是否同源;本实施例通过排除干扰特征点和计算特征点之间的角度关系实现图像特征纹理追踪识别,解决了SIFT算法提供的特征点误匹配问题,有效地将两张图像之间的匹配度进行量化,能够应用于摄像头人脸识别、刷脸身份认证等需要进行图像识别的场景,具有使用场景广、运算效率高、匹配精度高、实用性强的优点。
以上所述的实施例,只是本发明的较优选的具体方式之一,本领域的技术员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。

Claims (10)

1.一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,包括:
特征点提取:使用SIFT算法对第一图像和第二图像进行特征点提取;
距离计算筛选:对所述特征点进行距离计算筛选匹配,保留预设距离阈值内的多组特征点对,形成元素互为对应的第一匹配特征点集合和第二匹配特征点集合;
特征点角度计算:计算所述第一匹配特征点集合中所述特征点之间的角度关系,获得第一角度集合,计算所述第二匹配特征点集合中所述特征点之间的角度关系,获得第二角度集合;
匹配数统计:计算所述第一角度集合和所述第二角度集合中对应角度的差值,统计所有所述差值中未超过预设差值阈值的匹配数;
匹配度计算:计算所述匹配数与所述差值的个数的比值。
2.根据权利要求1所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述特征点角度计算步骤包括:
向量计算:分别计算所述第一匹配特征点集合的多个所述特征点之间、所述第二匹配特征点集合中与所述第一匹配特征点集合相对应的多个所述特征点之间的特征向量;
夹角计算:计算所述特征向量之间的特征向量夹角,获得所述第一角度集合和所述第二角度集合。
3.根据权利要求2所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述特征点角度计算步骤中,所述第一匹配特征点集合和所述第二匹配特征点集合的元素互相对应,均为n个,且n≥3;
所述特征向量夹角指的是所述第一匹配特征点集合或所述第二匹配特征点集合中的第i个所述特征点到第j个所述特征点之间的向量、第j个所述特征点到第k个所述特征点之间的向量所形成的夹角;
其中,i、j、k的取值范围为1~n,且i≠j≠k。
4.根据权利要求3所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述特征点角度计算步骤中:
i的取值范围为1~n;
j = i mod n + 1;
k = ( i + 1 ) mod n + 1;
其中,mod为取余数运算符。
5.根据权利要求2-4任意一项所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述夹角计算步骤中采用反正切函数atan2()来计算所述特征向量夹角。
6.根据权利要求1所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述距离计算筛选步骤包括:
欧氏距离筛选:使用欧氏距离算法对所述特征点进行筛选。
7.根据权利要求6所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述欧氏距离算法的所述预设距离阈值的取值范围为0.7-0.8。
8.根据权利要求6或7所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,在使用所述欧氏距离算法对所述特征点进行筛选之前,还包括:
最近邻匹配:使用FLANN算法对所述特征点进行最近邻匹配。
9.根据权利要求1所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述匹配数统计步骤中,当所述差值的单位为“度”时,所述预设差值阈值为2度;当所述差值的单位为“弧度”时,所述预设差值阈值为π/90。
10.根据权利要求1所述的一种基于SIFT的图像特征纹理追踪识别算法,其特征在于,所述匹配度计算步骤之后,还包括:
同源判定:若所述匹配数与所述差值的个数的比值大于或等于95%,则判定所述第一图像和所述第二图像同源。
CN202111565962.8A 2021-12-21 2021-12-21 一种基于sift的图像特征纹理追踪识别算法 Pending CN113963179A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111565962.8A CN113963179A (zh) 2021-12-21 2021-12-21 一种基于sift的图像特征纹理追踪识别算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111565962.8A CN113963179A (zh) 2021-12-21 2021-12-21 一种基于sift的图像特征纹理追踪识别算法

Publications (1)

Publication Number Publication Date
CN113963179A true CN113963179A (zh) 2022-01-21

Family

ID=79473329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111565962.8A Pending CN113963179A (zh) 2021-12-21 2021-12-21 一种基于sift的图像特征纹理追踪识别算法

Country Status (1)

Country Link
CN (1) CN113963179A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116109915A (zh) * 2023-04-17 2023-05-12 济宁能源发展集团有限公司 一种集装箱箱门状态智能识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0300167A2 (en) * 1987-05-28 1989-01-25 Thumbscan Inc. Apparatus and method for matching image characteristics such as fingerprint minutiae
US20100124354A1 (en) * 2008-11-20 2010-05-20 Workshare Technology, Inc. Methods and systems for image fingerprinting
CN106023187A (zh) * 2016-05-17 2016-10-12 西北工业大学 一种基于sift特征和角度相对距离的图像配准方法
CN111340109A (zh) * 2020-02-25 2020-06-26 深圳市景阳科技股份有限公司 图像匹配方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0300167A2 (en) * 1987-05-28 1989-01-25 Thumbscan Inc. Apparatus and method for matching image characteristics such as fingerprint minutiae
US20100124354A1 (en) * 2008-11-20 2010-05-20 Workshare Technology, Inc. Methods and systems for image fingerprinting
CN106023187A (zh) * 2016-05-17 2016-10-12 西北工业大学 一种基于sift特征和角度相对距离的图像配准方法
CN111340109A (zh) * 2020-02-25 2020-06-26 深圳市景阳科技股份有限公司 图像匹配方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔺守臣 等: "《高等数学(上)》", 30 September 2015 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116109915A (zh) * 2023-04-17 2023-05-12 济宁能源发展集团有限公司 一种集装箱箱门状态智能识别方法

Similar Documents

Publication Publication Date Title
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
Guo et al. 3D object recognition in cluttered scenes with local surface features: A survey
Zhong Intrinsic shape signatures: A shape descriptor for 3D object recognition
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
CN111553409B (zh) 一种基于体素形状描述符的点云识别方法
US8994723B2 (en) Recognition and pose determination of 3D objects in multimodal scenes
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
Tsai et al. Simultaneous 3D object recognition and pose estimation based on RGB-D images
CN110930456A (zh) 基于pcl点云库的钣金零件的三维立体识别及定位方法
CN107862708A (zh) 一种sar与可见光图像配准方法
US11501462B2 (en) Multi-view three-dimensional positioning
CN106682700A (zh) 一种基于关键点描述算子的分块快速匹配算法
CN109086350B (zh) 一种基于WiFi的混合图像检索方法
Hao et al. Geometric feature statistics histogram for both real-valued and binary feature representations of 3D local shape
KR101789979B1 (ko) 그래디언트 방향 정보에 기반한 하우스도르프 거리 계산 방법
Chen et al. Robust feature matching via local consensus
Chen et al. Multi-neighborhood guided Kendall rank correlation coefficient for feature matching
Ekekrantz et al. Adaptive iterative closest keypoint
CN113963179A (zh) 一种基于sift的图像特征纹理追踪识别算法
CN114358166B (zh) 一种基于自适应k均值聚类的多目标定位方法
Liu et al. Deep learning of directional truncated signed distance function for robust 3D object recognition
CN116823816B (zh) 一种基于安防监控静态存储器的检测设备及检测方法
Li et al. Multi-level Pyramid Feature Extraction and Task Decoupling Network for SAR Ship Detection
CN117745780A (zh) 一种基于孤立簇去除的室外大场景3d点云配准方法
Svedman et al. Structure from stereo vision using unsynchronized cameras for simultaneous localization and mapping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220121