CN115187791A - 一种融合颜色和尺度特征的orb图像匹配方法 - Google Patents
一种融合颜色和尺度特征的orb图像匹配方法 Download PDFInfo
- Publication number
- CN115187791A CN115187791A CN202210957903.3A CN202210957903A CN115187791A CN 115187791 A CN115187791 A CN 115187791A CN 202210957903 A CN202210957903 A CN 202210957903A CN 115187791 A CN115187791 A CN 115187791A
- Authority
- CN
- China
- Prior art keywords
- image
- color
- matching
- algorithm
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
针对传统ORB算法因忽略图像颜色信息,对光照变化的鲁棒性较差,易造成误匹配的情况,本发明公开了一种融合颜色和尺度特征的ORB图像匹配方法。所述方法包括:首先使用颜色不变量模型对彩色图像进行预处理,求出图像的颜色不变量,以颜色不变量作为输入信息,建立积分图像,采用盒式滤波器建立尺度空间,使用快速Hession矩阵检测极值点,提取具有尺度不变性的特征点,然后使用rBRIEF算法得到特征描述符,最后采用汉明距离和改进RANSAC算法去除误匹配点。本发明在保证ORB算法特点的基础上,改善了ORB算法在颜色不同而对应灰度值相同区域正确匹配率低的问题,并且使算法具备尺度不变性,解决了特征点分布不均匀的情况,提高了图像发生尺度变化时匹配精度。
Description
技术领域
本发明属于机器人视觉技术领域,尤其涉及一种融合颜色和尺度特征的ORB图像匹配方法。
背景技术
图像匹配技术是机器人视觉的基础,已广泛应用于视觉SLAM、目标跟踪等多个领域。图像匹配算法可以分为:基于变换域的方法、基于灰度的方法和基于特征的方法。基于特征的图像配准具有很好的鲁棒性,计算量小,速度快,成为研究的主流方向。图像中提取到的特征点需要对图像的光照变换、尺度变换、旋转变换等具有一定的鲁棒性,才能有效保证特征点的精确匹配。现有的特征点提取和匹配算法在匹配精度和匹配效率上仍存在不足,随着图像处理技术的发展,对特征点提取和匹配算法的准确性和实时性提出了更高的要求。
在视觉SLAM中,特征点的提取和准确的特征匹配对机器人的位姿推断具有重要作用。目前,ORB(Oriented FAST and Rotated BRIEF)算法因特征点提取速度快,具有良好的稳定性,被广泛应用于视觉SLAM中。然而,为了降低复杂度,ORB算法的第一步是将彩色图转化为灰度图,在灰度图上进行特征提取,没有考虑到原始彩色图像的颜色信息,而颜色信息是图像的重要组成部分,在对彩色图像的检测、识别、跟踪过程中有着非常重要的意义,由于颜色信息的缺失,降低了彩色图像的对比度,就会导致在颜色不同而对应灰度值相同的区域内无法提取出特征点、正确匹配率低等问题;而且传统的ORB算法使用FAST角点进行特征点提取,所提取到的特征点不具有尺度不变性,对发生尺度变化的图像配准,鲁棒性较低。
针对上述问题,文献《结合颜色不变量和ORB特征的图像匹配算法》提出将颜色不变量与ORB特征描述子相结合,形成C-ORB算法,存在如下问题:ORB算法采用FAST角点检测算法来对特征点进行检测,所得到的特征点分布不均匀、存在冗余,且不具有尺度不变性的特点,对发生尺度变化的图像,匹配性能较差。
中国专利CN 111784576 A《一种基于改进ORB特征算法的图像拼接方法》提出通过多尺度空间理论,构建Hession矩阵和高斯金字塔对ORB算法进行改进,达到尺度不变的目的。但由于缺少图像的颜色信息,就会导致在颜色不同而对应灰度值相同的区域内无法提取出特征点且正确匹配率低。
发明内容
针对现有方法的不足,本发明提供一种融合颜色和尺度特征的ORB图像匹配方法,目的是为了解决传统ORB算法在颜色不同而对应灰度值相同区域正确匹配率低的问题,在图像匹配过程中即体现了ORB算法的快速性,又充分利用了图像的颜色信息,并且提高了算法在发生尺度变化时的正确匹配率。首先使用颜色不变量模型对彩色图像进行预处理,求出图像的颜色不变量,以颜色不变量作为输入信息,建立积分图像,采用盒式滤波器建立尺度空间,使用快速Hession矩阵检测极值点,提取具有尺度不变性的特征点,然后使用rBRIEF算法得到特征描述符,最后采用汉明距离和改进RANSAC算法去除误匹配点。本发明在保证ORB算法特点的基础上,通过引入颜色不变量模型,充分利用图像的颜色信息,改善了ORB算法在颜色不同而对应灰度值相同区域正确匹配率低的问题,采用盒式滤波的方法来构建尺度空间,在不同尺度下搜索特征点,该方法在获取特征点的数量上和质量上都有着较好的稳定性,使得ORB算法具备了尺度不变性,解决了ORB算法特征点分布不均匀的情况,提高了匹配精度。一种融合颜色和尺度特征的ORB图像匹配方法包括以下步骤:
S1、使用颜色不变量模型对待匹配的前后两帧彩色图像进行预处理,求出图像各位置的颜色不变量;
S2、对待匹配的前后两帧彩色图像,将计算得到的颜色不变量作为输入信息,建立积分图像,采用盒式滤波器代替二阶高斯微分,通过不断增大盒式滤波器的窗口大小构建图像尺度空间;
S3、对图像进行高斯滤波,构建Hession矩阵,在尺度空间上对使用快速Hessian矩阵局部极值来确定图像的特征点;
S4、使用带有旋转不变特性的rBRIEF算法提取特征描述符;
S5、使用汉明距离剔除部分错误匹配点对,完成对特征点的粗匹配;
S6、使用改进RANSAN算法进一步去除图像中的误匹配点对,对特征点进行精匹配,提高匹配精度;
所述的S1中,使用颜色不变量模型对图像进行预处理:
Kubelka-Munk理论的物体光谱辐射模型表达式为:
E(λ,x)=e(λ,x)[1-ρf(x)]2R∞(λ,x)+e(λ,x)ρf(x) (1)
式中:λ表示波长;x为图像的二维平面位置;e(λ,x)表示光谱强度;ρf(x)表示x处的Fresnel反射系数;R∞(λ,x)表示反射率;E(λ,x)为光谱反射的成像结果。
通常,e(λ,x)在各波长上保持不变而与位置有关,所以可将e(λ,x)改写为位置函数i(x),则式(1)变为:
E(λ,x)=i(x)[1-ρf(x)]2R∞(λ,x)+i(x)ρf(x) (2)
对式(2)中λ分别进行一阶微分和二阶微分相除,可得:
H为颜色不变量的一种表述,同观察位置、表面朝向、光强大小、反射系数均无关。
彩色图像的RGB分量和(E,Eλ,Eλλ)的关系近似为:
根据下式可求得彩色图像的颜色不变量H为:
所述的S2中,对待匹配的前后两帧彩色图像,将计算得到的颜色不变量H作为输入信息,建立积分图像,采用盒式滤波器代替二阶高斯微分,建立尺度空间具体包括以下步骤:
对于参考图像I1(x,y)和待匹配图像I2(x,y),分别求出颜色不变量H1(x,y)和H2(x,y)后,以H1、H2作为输入信息,采用盒式滤波器取代二阶高斯微分,采用积分图提高计算速度,通过不断增大盒式滤波器的窗口大小构建不同尺度的图像金字塔。
定义图像f(x,y),图像上任意一点I(x,y),对其进行高斯滤波,如下式所示:
L(x,y,σ)=G(x,y,σ)*I(x,y) (6)
式中:σ为尺度信息,G(x,y,σ)为固定的高斯核函数,*为高斯核函数卷积运算,I(x,y)表示输入图像(相当于H1(x,y)或H2(x,y))。
然后对高斯滤波后的图像中的每个像素进行拉普拉斯运算,拉普拉斯运算结果用Hession矩阵表示,如下式所示:
式中:Lxx(x,y,σ)、Lxy(x,y,σ)、Lyx(x,y,σ)、Lyy(x,y,σ)分别代表在x方向的二阶导数,在x和y方向依次求偏导数,在y和x方向依次求偏导数,在y方向求二阶导数高斯滤波窗口。
所述的S3中,构建Hession矩阵,利用近似Hession矩阵的局部极大值计算不同尺度下特征点的位置,具体包括以下步骤:
利用盒式滤波器求出图像中每个像素的Hession矩阵后,接着求Hession矩阵的决定值,Hessian矩阵的判别式可以解析为,水平方向的二阶导和垂直方向二阶导相乘,然后减去水平和垂直二阶偏导相乘,如下式所示:
Det(H)=Lxx·Lyy-Lxy·Lyx (8)
为了降低特征点提取过程的复杂度,提高实时性,采用盒子滤波和积分图像的概念,对Lxx、Lxy、Lyy进行简化和加速,采用Fast-Hession矩阵,把高斯二阶偏导数近似化处理,得到盒式滤波器估计值Dxx、Dxy、Dyy,考虑到使用盒式滤波器近似可能带来的误差,需设置一个大小为0.9的补偿系数,进而可求得Fast-Hession矩阵的近似行列式表达式,即:
Det(H)=Dxx·Dyy-(0.9Dxy)2 (9)
式中:Dxx、Dxy、Dyy为图像卷积结果。
通过矩阵的行列式和特征值来判别是否为极值点,若Fast-Hessian矩阵的行列式值为正,且两个特征值不同时为正或为负,则认定为极值点。
所述的S4中,使用带有旋转不变特性的rBRIEF算法提取特征描述符具体包括以下步骤:
ORB算法使用改进的BRIEF算法计算一个特征点的描述子。BRIEF是一种二进制描述子,其描述向量由许多个0和1组成,这里的0和1编码了关键点附近两个随机像素(比如p和q)的大小关系,如果p比q大,则取1,反之取0。BRIEF使用随机选点的比较,速度快,使用二进制表达,存储也十分方便,适用于实时的图像匹配。
定义操作τ:
式中:p(x)和p(y)分别为随机点x和y的像素值。
对于任意特征点,在31x31邻域内位置为(xi,yi)的n对特征点集,可以用2×n的矩阵来表示:
利用特征点主方向θ和对应的旋转矩阵Rθ,计算出Sθ来表示S:
这样就得到了具有方向性的描述子:
gn(p,θ)=fn(p)|(xi,yi)∈Sθ (13)
所述的S5中,使用汉明距离对特征点粗匹配具体步骤包括以下内容:
汉明距离的主要思想是待匹配的两幅图像中选取两个二进制描述子g1、g2,将其进行异或运算,计算g1、g2之间的汉明距离Hdis12,如下式所示:
将Hdis12与预设定的阈值Hth进行比较,若大于预设阈值,则表示匹配成功,否则匹配失败。由于计算汉明距离所设定阈值的不同会产生误匹配,所以要去除误匹配点对。
所述S6中使用汉明距离粗匹配后,再采用改进RANSAC算法,对特征点进一步配准,其具体步骤为:
RANSAC算法去除误配点的核心是求出单应矩阵,它描述的是图像之间几何变化关系,任意点(x,y)通过变换得到(x1,y1),如下式所示:
通常情况下,RANSAC算法的迭代次数的多少体现了该算法的运行效率,设定最大迭代的次数N需满足下式条件:
式中:w是从随机选取任意一点且该点为内点的概率,采样得到一组点均为内点的概率为p,m为最小匹配点对数目。
然而当含有较多误匹配点对时,RANSAC算法的计算时间将呈指数上升,通过减小外点样本数量,提高内点的比例,可以达到去除误匹配点和缩短运行时间的目的。
改进的RANSAC算法为:
求出前后两帧待匹配图像最近邻匹配对(Ai,Bi)、(Aj,Bj)中特征点的匹配距离l,利用前一帧图像A和后一帧图像B中匹配对与最近邻匹配对距离关系相似性来评价距离两点对应关系,评价函数如下式:
式中:c为内点个数;R(i,j)为(Ai,Bi)与对应特征点距离相对差异;Y(i,j)为(Ai,Bi)与相对应特征点的平均距离。计算评价函数F(i)的平均值,记为利用评价函数F(i)对选取的匹配距离l做判断,若则将匹配点保留,组成新的样本集C。从中随机抽取4个匹配对作为内点集Ci,用这4个样本数据拟合出单应矩阵。
利用当前计算的单应矩阵去验证样本集中剩余的内点集,如果某个点对适合,且误差小于阈值μ,则认为该点为局内点,将其加入内点集Ci。如果内点集Ci中元素个数大于阈值θ,则更新内点集,重新计算当前模型。
本发明具有如下有益效果:
1.颜色信息是区分图像的重要特征,本发明通过引入彩色图像的颜色不变量模型,以颜色不变量作为输入信息,在保留ORB算法优点的基础上,能够将图像的颜色信息应用到图像匹配过程中,改善了传统ORB算法在颜色不同而对应灰度值相同区域正确匹配率低的问题。
2.本发明通过使用积分图和盒式滤波器构建尺度空间,使用快速Hession矩阵,在不同的尺度空间下提取具有尺度不变性的特征点,解决了当图像发生尺度变化后,ORB算法匹配性能差的问题。
3.当含有较多误匹配点对时,RANSAC算法的计算时间将呈指数上升,通过减小外点样本数量,提高内点的比例,可以达到去除误匹配点和缩短运行时间的目的。
附图说明
图1一种融合颜色和尺度特征的ORB图像匹配方法流程图;
图2盒式滤波器;
图3传统ORB算法的匹配结果;
图4本发明的匹配结果;
图5传统ORB算法在尺度变化下的匹配结果;
图6本发明在尺度变化下的匹配结果;
图7传统ORB算法在旋转变化下的匹配结果;
图8本发明在旋转变化下的匹配结果。
具体实施方式
下面结合附图及具体实施方式对本发明做进一步描述。
本发明提供一种融合颜色和尺度特征的ORB图像匹配方法,如图1所示,包括以下步骤:
S1、使用颜色不变量模型对待匹配的前后两帧彩色图像进行预处理,求出图像各位置的颜色不变量;
S2、对待匹配的前后两帧彩色图像,将计算得到的颜色不变量作为输入信息,建立积分图像,采用盒式滤波器代替二阶高斯微分,通过不断增大盒式滤波器的窗口大小构建图像尺度空间;
S3、对图像进行高斯滤波,构建Hession矩阵,在尺度空间上对使用快速Hessian矩阵局部极值来确定图像的特征点;
S4、使用带有旋转不变特性的rBRIEF算法提取特征描述符;
S5、使用汉明距离剔除部分错误匹配点对,完成对特征点的粗匹配;
S6、使用改进RANSAN算法进一步去除图像中的误匹配点对,对特征点进行精匹配,提高匹配精度;
所述的S1中,使用颜色不变量模型对图像进行预处理:
Kubelka-Munk理论的物体光谱辐射模型表达式为:
E(λ,x)=e(λ,x)[1-ρf(x)]2R∞(λ,x)+e(λ,x)ρf(x) (1)
式中:λ表示波长;x为图像的二维平面位置;e(λ,x)表示光谱强度;ρf(x)表示x处的Fresnel反射系数;R∞(λ,x)表示反射率;E(λ,x)为光谱反射的成像结果。
通常,e(λ,x)在各波长上保持不变而与位置有关,所以可将e(λ,x)改写为位置函数i(x),则式(1)可改写为:
E(λ,x)=i(x)[1-ρf(x)]2R∞(λ,x)+i(x)ρf(x) (2)
对式(2)中λ分别进行一阶微分和二阶微分:
将上两式相除,可得:
H为颜色不变量的一种表述,同观察位置、表面朝向、光强大小、反射系数均无关。
通过RGB空间的线性变换得到光谱微分(E,Eλ,Eλλ),就可以在RGB空间中计算这些不变量。在符合人眼视觉系统和CIE-1964-XYZ标准的条件下,彩色图像的RGB分量和(E,Eλ,Eλλ)的关系近似为:
式中:R(x,y)、G(x,y)、B(x,y)分别为待匹配彩色图像中坐标为(x,y)的像素R、G、B三个颜色分量,E(x,y)为颜色空间中待匹配彩色图像的亮度分量,Eλ(x,y)为颜色空间中待匹配的彩色图像的蓝色-黄色的颜色分量,Eλλ(x,y)为颜色空间中待匹配的彩色图像的绿色-红色的颜色分量。
选择的颜色不变性描述特征为Eλy、Eλx、Eλλx、Eλλy、Eλ、Eλλ,所以根据式(5)可求得彩色图像的颜色不变量H为:
所述的S2中,对待匹配的前后两帧彩色图像,将计算得到的颜色不变量H作为输入信息,建立积分图像,采用盒式滤波器代替高斯核函数,建立尺度空间具体包括以下步骤:
传统的ORB算法采用FAST算法进行特征点检测,在改进的ORB算法中,结合了盒式滤波器算法提取特征点的思想,使得图像能够适应尺度变化的同时,检测到更多的特征点,并且检测得到的特征点在图像中分布更加均匀,提高特征点的匹配成功率。
对于参考图像I1(x,y)和待匹配图像I2(x,y),分别求出颜色不变量H1(x,y)和H2(x,y)后,以H1、H2作为输入信息,采用盒式滤波器取代二阶高斯微分,采用积分图提高计算速度,通过不断增大盒式滤波器的窗口大小构建不同尺度的图像金字塔。
定义图像f(x,y),图像上任意一点I(x,y),对其进行高斯滤波,如下式所示:
L(x,y,σ)=G(x,y,σ)*I(x,y) (8)
式中:σ为尺度信息,G(x,y,σ)为固定的高斯核函数,*为高斯核函数卷积运算,I(x,y)表示输入图像(相当于H1(x,y)或H2(x,y))。
然后对高斯滤波后的图像中的每个像素进行拉普拉斯运算,拉普拉斯运算结果用Hession矩阵表示,如下式所示:
式中:Lxx(x,y,σ)、Lxy(x,y,σ)、Lyx(x,y,σ)、Lyy(x,y,σ)分别代表在x方向的二阶导数,在x和y方向依次求偏导数,在y和x方向依次求偏导数,在y方向求二阶导数高斯滤波窗口。
使用不同尺寸的盒式滤波器,在滤波的过程中完成尺度变化,生成图像金字塔即是尺度空间。
所述的S3中,构建Hession矩阵,利用近似Hession矩阵的局部极大值计算不同尺度下特征点的位置,具体包括以下步骤:
利用盒式滤波器求出图像中每个像素的Hession矩阵后,接着求Hession矩阵的决定值,Hessian矩阵的判别式可以解析为,水平方向的二阶导和垂直方向二阶导相乘,然后减去水平和垂直二阶偏导相乘,如下式所示:
Det(H)=Lxx·Lyy-Lxy·Lyx (10)
为了降低特征点提取过程的复杂度,提高实时性,采用盒子滤波和积分图像的概念,对Lxx、Lxy、Lyy进行简化和加速,采用Fast-Hession矩阵,把高斯二阶偏导数近似化处理,得到盒式滤波器估计值Dxx、Dxy、Dyy,考虑到使用盒式滤波器近似可能带来的误差,需设置一个大小为0.9的补偿系数,进而可求得Fast-Hession矩阵的近似行列式表达式,即:
Det(H)=Dxx·Dyy-(0.9Dxy)2 (11)
式中:Dxx、Dxy、Dyy为图像卷积结果。
这种滤波窗口有3种形状,分别是x方向二阶导形、y方向二阶导形和x、y混合导形,如图2的左半部分所示。窗口中的不同亮度表示不同的加权系数,可以看到这些窗口中加权系数较多,计算起来耗时。所以采用盒式滤波器来近似这些窗口,将一定区域的不同加权系数统一起来用某个固定值表示,如图2右半部分所示。
将处理后的像素点与其三维邻域内像素点进行比较,将结果与预先设定阈值进行对比,去除不满足条件的特征点,通过改变尺度大小,获得不同尺度上的响应点图像特征点的尺度性由改变不同滤波窗口的尺存来确定。通过矩阵的行列式和特征值来判别是否为极值点,若Fast-Hessian矩阵的行列式值为正,且两个特征值不同时为正或为负,则认定为极值点。
确定特征点方向,使其具有旋转不变性的特征。在一个小的图像块B中,定义图像块的矩:
式中:I(x,y)表示输入图像(相当于H1(x,y)或H2(x,y))。
通过图像块的矩可以找到图像块的质心:
式中:m00为0阶矩,m10和m01为1阶矩。
θ=atan2(m01,m10) (14)
式中:atan2是arctan的象限相关函数。
所述的S4中,使用带有旋转不变特性的rBRIEF算法提取特征描述符具体包括以下步骤:
将检测到的极值点定位到由原图变换成的灰度图像中,利用灰度图的信息生成特征描述子。在提取到特征点后,需对每一个关键点计算其描述子。BRIEF是一种二进制描述子,其描述向量由许多个0和1组成,这里的0和1编码了关键点附近两个随机像素(比如p(x)和p(y))的大小关系。
定义操作τ:
式中:p(x)和p(y)分别为随机点x和y的像素值。
为了便于描述,挑选出4个点,记作:
p1(x,y)、p2(x,y)、p3(x,y)、p4(x,y)。
分别对随机选取的点进行τ操作,将得到的计算结果进行组合:
则最终得到的描述子为:1001。
为解决BRIEF算法不具有旋转不变性的问题,ORB算法中使用了steered BRIEF算法,对于任意特征点,在31x31邻域内位置为(xi,yi)的n对特征点集,可以用2×n的矩阵来表示:
利用特征点主方向θ和对应的旋转矩阵Rθ,计算出Sθ来表示S:
这样就得到了具有方向性的描述子:
gn(p,θ)=fn(p)|(xi,yi)∈Sθ (19)
所述的S5中,使用汉明距离对特征点粗匹配的具体步骤包括以下内容:
汉明距离的主要思想是待匹配的两幅图像中选取两个二进制描述子g1、g2,将其进行异或运算,计算g1、g2之间的汉明距离Hdis12,公式如下:
将Hdis12与预设定的阈值Hth进行比较,若大于预设阈值,则表示匹配成功,否则匹配失败。由于计算汉明距离所设定阈值的不同会产生误匹配,所以要去除误匹配点对。
所述的S6中,在利用汉明距离粗匹配后,使用改进RANSAN算法进一步去除图像中的误匹配点对,其具体步骤为:
随机采样一致性(RANSAC)算法能够在匹配集中存在大量误匹配的情况下,求出正确的特征点匹配关系并且有效去除误匹配点,从而保证图像配准的高精度。算法主要思想是从一组存在异常数据的数据集中进行参数估计,其本质是寻找一个包含最优参数的单应性矩阵。
RANSAC算法去除误配点的核心是求出单应矩阵,它描述的是图像之间几何变化关系,任意点(x,y)通过变换得到(x1,y1),如下式所示:
通常情况下,RANSAC算法的迭代次数的多少体现了该算法的运行效率,设定最大迭代的次数N需满足下式条件:
式中:w是随机选取任意一点且该点为内点的概率,p为采样得到一组点均为内点的概率,m为最小匹配点对数目。
在置信度p不变的情况下,w变小,N增大;w变大,N减小。因此,为了更好的提升计算最优内点集的效率,缩短算法运行时间,可以通过提高内点在数据集中所占的比例从而减小迭代次数。
然而当含有较多误匹配点对时,RANSAC算法的计算时间将呈指数上升,通过减小外点样本数量,提高内点的比例,可以达到去除误匹配点和缩短运行时间的目的。
改进的RANSAC算法步骤为:
求出前后两帧待匹配图像最近邻匹配对(Ai,Ai)、(Bj,Bj)中特征点的匹配距离l,l满足l∈[Lmin,λ·Lmax],其中Lmin,Lmax分别为匹配距离的最大和最小值,λ∈[0,1]为比例因子,一般取值0.7。利用前一帧图像A和后一帧图像B中匹配对与最近邻匹配对距离关系相似性来评价距离两点对应关系,评价函数如下式:
式中:c为内点个数;R(i,j)为(Ai,Bi)与对应特征点距离相对差异;Y(i,j)为(Ai,Bi)与相对应特征点的平均距离。计算评价函数F(i)的平均值,记为利用评价函数F(i)对选取的匹配距离l做判断,若则将匹配点保留,组成新的样本集C。从中随机抽取4个匹配对作为内点集Ci,用这4个样本数据拟合出单应矩阵。
利用当前计算的单应矩阵去验证样本集中剩余的内点集,如果某个点对适合,且误差小于阈值μ,则认为该点为局内点,将其加入内点集Ci。如果内点集Ci中元素个数大于阈值θ,则更新内点集,重新计算当前模型。
本发明先通过汉明距离进行特征粗匹配,得到匹配点集,初步完成匹配对的筛选,然后使用改进RANSAC算法再次剔除误匹配,最后完成图像特征点的匹配。
以下结合实验结果对本发明进行验证,图3和图4为图像正常情况下使用传统ORB算法和本发明算法的匹配效果对比,图5和图6为当图像发生尺度变化时使用传统ORB算法和本发明算法的匹配效果对比,图7和图8为当图像发生旋转变化时,使用传统ORB算法和本发明算法的匹配效果对比。传统ORB算法所提取到的特征点数量少且主要集中在一些特征较为明显的地方,而且存在几处错误匹配对。对比本发明算法所提取到的特征点分布更为均匀,在对一些形状不同而对应灰度值相同区域也能提取到一定数量的特征点并完成正确的匹配,当图片发生尺度或旋转变化时,本发明算法也可以提取出较多的特征点并完成匹配,解决了传统ORB算法存在提取出特征点少且密集的问题,利用改进的RANSAN算法通过增加内点的比例,当提取到较多数量的特征点时,保证了正确匹配的成功率。
最后应说明的是:以上所述具体实施方案,对本发明的发明目的、技术方案和有益效果进行了进一步说明,以上实施例仅用于说明本发明的技术方案,而非对本发明创造保护范围的限制,本领域的普通技术人员应当理解,凡在本发明的技术方案进行修改、等同替换,均包含在本发明的保护范围内。
Claims (1)
1.一种融合颜色和尺度特征的ORB图像匹配方法,其特征在于,包括以下步骤:
S1、使用颜色不变量模型对待匹配的前后两帧彩色图像进行预处理,求出图像各位置的颜色不变量;
S2、对待匹配的前后两帧彩色图像,将计算得到的颜色不变量作为输入信息,建立积分图像,采用盒式滤波器代替二阶高斯微分,通过不断增大盒式滤波器的窗口大小构建图像尺度空间;
S3、对图像进行高斯滤波,构建Hession矩阵,在尺度空间上对使用快速Hessian矩阵局部极值来确定图像的特征点;
S4、使用带有旋转不变特性的rBRIEF算法提取特征描述符;
S5、使用汉明距离剔除部分错误匹配点对,完成对特征点的粗匹配;
S6、使用改进RANSAN算法进一步去除图像中的误匹配点对,对特征点进行精匹配,提高匹配精度;
所述的S1中,根据颜色不变量模型,对待匹配的前后两帧彩色图像进行预处理,得到彩色图像的颜色不变量H,具体步骤为:
式中:E为光谱反射的成像结果,Eλ、Eλλ分别为物体光谱辐射模型的一阶微分和二阶微分,λ表示波长,R∞(λ,x)表示反射率;
彩色图像的RGB分量和(E,Eλ,Eλλ)的关系近似为:
彩色图像的颜色不变量H为:
所述的S2中,以颜色不变量作为输入,采用盒式滤波器建立尺度空间,具体步骤为:
定义图像f(x,y),图像上任意一点I(x,y),对其进行高斯滤波,如下式所示:
L(x,y,σ)=G(x,y,σ)*I(x,y) (4)
式中:σ为尺度信息,G(x,y,σ)为固定的高斯核函数,*为高斯核函数卷积运算,I(x,y)表示输入图像(相当于H1(x,y)或H2(x,y));
对高斯滤波后的图像中的每个像素进行拉普拉斯运算,拉普拉斯运算结果用Hession矩阵表示,如下式所示:
式中:Lxx(x,y,σ)、Lxy(x,y,σ)、Lyx(x,y,σ)、Lyy(x,y,σ)分别代表在x方向的二阶导数,在x和y方向依次求偏导数,在y和x方向依次求偏导数,在y方向求二阶导数的高斯滤波窗口,使用不同尺寸的盒式滤波器,在滤波的过程中完成尺度变化,生成图像金字塔即是尺度空间;
所述的S3中,构建Hession矩阵,利用近似Hession矩阵的局部极大值计算不同尺度下特征点的位置,具体步骤为:
为了减小计算代价,采用Fast-Hession矩阵,把高斯二阶偏导数近似化处理,得到盒式滤波器估计值Dxx、Dxy、Dyy,考虑到使用盒式滤波器近似可能带来的误差,设置一个大小为0.9的补偿系数,进而可求得Fast-Hession矩阵的近似行列式表达式,即:
Det(H)=Dxx·Dyy-(0.9Dxy)2 (6)
图像特征点的尺度特征通过改变不同滤波窗口的尺寸来确定,通过矩阵的行列式和特征值来判别是否为极值点,若Fast-Hessian矩阵的行列式值为正,且两个特征值不同时为正或为负,则认定为极值点;
所述的S4中,使用带有旋转不变特性的rBRIEF算法提取特征描述符具体包括以下步骤:
对于任意特征点,在31x31邻域内位置为(xi,yi)的n对特征点集,可以用2×n的矩阵来表示:
利用特征点主方向θ和对应的旋转矩阵Rθ,计算出Sθ来表示S:
这样就得到了具有方向性的描述子:
gn(p,θ)=fn(p)|(xi,yi)∈Sθ (9)
所述的S5中,使用汉明距离对特征点粗匹配的具体步骤包括以下内容:
将待匹配的两幅图像中选取两个二进制描述子g1、g2,对其进行异或运算,计算g1、g2之间的汉明距离Hdis12,公式如下:
将Hdis12与预设定的阈值Hth进行比较,若大于预设阈值,则表示匹配成功,否则匹配失败;
所述的S6中,在利用汉明距离粗匹配后,使用改进RANSAN算法进一步去除图像中的误匹配点对,其具体步骤为:
求出前后两帧待匹配图像最近邻匹配对(Ai,Bi)、(Aj,Bj)中特征点的匹配距离l,利用前一帧图像A和后一帧图像B中匹配对与最近邻匹配对距离关系相似性来评价两点距离对应关系,评价函数如下式:
式中:c为内点个数;R(i,j)为(Ai,Bi)与对应特征点距离相对差异;Y(i,j)为(Ai,Bi)与相对应特征点的平均距离;l(Ai,Bi)为Ai和Bi的距离;
利用当前计算的单应矩阵去验证样本集C中剩余的内点集,如果某个点对适合当前单应矩阵,且误差小于阈值μ,则认为该点为局内点,将其加入内点集Ci,如果内点集Ci中元素个数大于阈值θ,则更新内点集,重新计算当前模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210957903.3A CN115187791B (zh) | 2022-08-10 | 2022-08-10 | 一种融合颜色和尺度特征的orb图像匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210957903.3A CN115187791B (zh) | 2022-08-10 | 2022-08-10 | 一种融合颜色和尺度特征的orb图像匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115187791A true CN115187791A (zh) | 2022-10-14 |
CN115187791B CN115187791B (zh) | 2023-04-28 |
Family
ID=83523370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210957903.3A Active CN115187791B (zh) | 2022-08-10 | 2022-08-10 | 一种融合颜色和尺度特征的orb图像匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115187791B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117934884A (zh) * | 2024-03-21 | 2024-04-26 | 西安云图信息技术有限公司 | 一种智能田野调查数字化记录系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784576A (zh) * | 2020-06-11 | 2020-10-16 | 长安大学 | 一种基于改进orb特征算法的图像拼接方法 |
CN112241745A (zh) * | 2020-10-29 | 2021-01-19 | 东北大学 | 一种基于光照不变颜色空间的特征点提取方法 |
-
2022
- 2022-08-10 CN CN202210957903.3A patent/CN115187791B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784576A (zh) * | 2020-06-11 | 2020-10-16 | 长安大学 | 一种基于改进orb特征算法的图像拼接方法 |
CN112241745A (zh) * | 2020-10-29 | 2021-01-19 | 东北大学 | 一种基于光照不变颜色空间的特征点提取方法 |
Non-Patent Citations (1)
Title |
---|
石雅笋等: "基于SURF 的彩色图像配准" * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117934884A (zh) * | 2024-03-21 | 2024-04-26 | 西安云图信息技术有限公司 | 一种智能田野调查数字化记录系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115187791B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960211B (zh) | 一种多目标人体姿态检测方法以及系统 | |
WO2021098083A1 (zh) | 基于显著特征的多光谱相机动态立体标定算法 | |
CN111369605B (zh) | 一种基于边缘特征的红外与可见光图像的配准方法和系统 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN111160373B (zh) | 一种变速鼓零件缺陷图像特征提取以及检测分类方法 | |
CN111310688A (zh) | 一种基于多角度成像的手指静脉识别方法 | |
CN114529593A (zh) | 红外与可见光图像配准方法、系统、设备、图像处理终端 | |
Jayaraman et al. | An efficient color and texture based iris image retrieval technique | |
CN116664892A (zh) | 基于交叉注意与可形变卷积的多时相遥感图像配准方法 | |
Guo et al. | Vehicle fingerprinting for reacquisition & tracking in videos | |
CN115187791A (zh) | 一种融合颜色和尺度特征的orb图像匹配方法 | |
CN110633691A (zh) | 一种基于可见光和近红外相机的双目活体检测方法 | |
Yao et al. | Registrating oblique SAR images based on complementary integrated filtering and multilevel matching | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN110910457B (zh) | 基于角点特征的多光谱立体相机外参计算方法 | |
CN110992301A (zh) | 一种气体轮廓识别方法 | |
CN110059651B (zh) | 一种相机实时跟踪注册方法 | |
CN113159158A (zh) | 一种基于生成对抗网络的车牌矫正与重构方法及系统 | |
CN112381747A (zh) | 基于轮廓特征点的太赫兹与可见光图像配准方法及装置 | |
Tun et al. | Gait based Human Identification through Intra-Class Variations | |
CN116246215B (zh) | 基于视觉算法的识别新进物品的方法、桶盖及智能回收桶 | |
Irijanti et al. | Fast stereo correspondence using small-color census transform | |
CN109902555B (zh) | 一种基于对象的多尺度层次表达学习的变化检测方法 | |
Jin et al. | An effective visual tracking approach under low-light environments | |
CN117115214A (zh) | 一种基于改进的piifd特征描述的多源遥感图像配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230921 Address after: 509 Kangrui Times Square, Keyuan Business Building, 39 Huarong Road, Gaofeng Community, Dalang Street, Longhua District, Shenzhen, Guangdong Province, 518000 Patentee after: Shenzhen Litong Information Technology Co.,Ltd. Address before: 150040 No. 52, Xuefu Road, Nangang District, Heilongjiang, Harbin Patentee before: HARBIN University OF SCIENCE AND TECHNOLOGY |
|
TR01 | Transfer of patent right |