CN113221914B - 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法 - Google Patents

一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法 Download PDF

Info

Publication number
CN113221914B
CN113221914B CN202110397775.7A CN202110397775A CN113221914B CN 113221914 B CN113221914 B CN 113221914B CN 202110397775 A CN202110397775 A CN 202110397775A CN 113221914 B CN113221914 B CN 113221914B
Authority
CN
China
Prior art keywords
matching
image
pair
point
pairs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110397775.7A
Other languages
English (en)
Other versions
CN113221914A (zh
Inventor
李昌利
陈晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202110397775.7A priority Critical patent/CN113221914B/zh
Publication of CN113221914A publication Critical patent/CN113221914A/zh
Application granted granted Critical
Publication of CN113221914B publication Critical patent/CN113221914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法,方法包括提取目标图像和匹配图像中的特征点,基于杰卡德距离选取目标图像中各特征点的匹配点,进而构建初始匹配对集合,以杰卡德距离为评价函数,结合构建的特征点误匹配剔除模型,过滤掉初始匹配对集合中的误匹配对,获取精准的图像匹配结果;本发明提供的方法提高了参与模型计算样本数据的质量,降低迭代次数,最后实现对误匹配的剔除,得到精准的图像匹配结果,提高图像匹配的准确率以及算法的运算速度。

Description

一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法。
背景技术
SLAM(Simultaneous Localization And Mapping,SLAM)同步定位与地图构建技术是智能机器人的关键技术之一,指的是智能机器人在未知的环境中利用自身所携带的传感器和对自身位姿的估计实现构建地图和精准定位的过程。目前,SLAM作为智能移动平台感知周围环境变化的基础技术,在机器人、自动驾驶、增强现实等领域都扮演着举足轻重的作用。由于图像或视频中拥有着丰富的环境特征信息且造价相对较低,所以大部分SLAM算法的研究都集中在视觉算法(VSALM)中。在VSLAM的各类算法中,图像匹配过程占据着各类算法极大部分时间。
图像中的特征点是能表现图像某块某方面的特征。通常表现在灰度值、色彩表现或者纹理上有着显著变化。图像特征点提取的方法有很多种,其中应用最为广泛的有SIFT、SUFT、ORB算法等。SIFT算法效果最好,SURF算法次之,但是这两种算法的计算量太大。ORB算法在旋转、模糊鲁棒性上都不如前两种算法且不具备尺度不变性,但是它的计算速度极快。在VSLAM算法中,实时性是衡量系统是否优秀的重要因素之一,所以在VSLAM的各类算法中大都使用ORB特征检测算法。
在提取特征点之后,我们还需要通过衡量特征点之间的相似性衡量两幅图像之间的相似性。相似性衡量的准确性会极大地影响移动机器人位姿估计的判断。在现有的SLAM技术中通常通过计算两个特征点之间的汉明距离或者欧氏距离来衡量两幅图像之间的相似度。
特征匹配过程中由于存在噪声,这就会导致匹配误差产生。因此,针对这种情况通常在图像匹配过程中会加入剔除误匹配点对的步骤,常用随机采样一致性算法(RandomSample Consensus,RANSAC)来剔除特征匹配过程中的误匹配对。但是算法中对数据处理的随机性导致迭代次数不稳定,效率较低。
发明内容
发明目的:本发明提供了一种有效抑制误匹配对的图像特征点匹配与误匹配剔除方法。
技术方案:本发明提供的一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法,包括如下步骤:
步骤1:采用ORB算法分别提取目标图像和匹配图像中的特征点;然后进入步骤2;
步骤2:分别针对目标图像中的各特征点,将其作为待处理特征点,执行如下操作:计算待处理特征点分别和匹配图像中各特征点之间的杰卡德距离,将匹配图像中杰卡德距离最小的特征点作为待处理特征点的匹配点;然后进入步骤3;
步骤3:将目标图像中各特征点分别与匹配图像中相应的匹配点进行关联,获取N个初始匹配对,进而获取初始匹配对集合UN;然后进入步骤4;
步骤4:使用构建的特征点误匹配剔除模型,过滤掉初始匹配对集合UN中的误匹配对,获取精准的图像匹配结果。
作为本发明的一种优选方案,在步骤4中,使用构建的特征点误匹配剔除模型过滤误匹配对的方法包括如下步骤:
步骤4.1:初始化迭代次数t=1;初始化样本匹配对个数n=n0;初始化条件参数T′n=1;初始化中间参数Tn=1;其中n0是预设个数值;
然后进入步骤4.2;
步骤4.2:判断是否满足t=T′n,n<N;
是则应用n+1更新n,并获取更新后的T′n和Tn,然后进入步骤4.3;
否则不改变n,以及T′n和Tn的值,直接进入步骤4.3;
步骤4.3:自初始匹配对集合UN中沿杰卡德距离从小到大的顺序依次选取n个匹配对,组成样本集合Un
步骤4.4:判断是否满足t≤T′n,是则从Un中随机选出s个匹配对,将选出的s个匹配对作为优选匹配对;否则从Un中选取杰卡德距离最大的匹配对,再从Un中随机选取除杰卡德距离最大的匹配对之外的s-1个的匹配对,将杰卡德距离最大的匹配对和选出的s-1个的匹配对共同作为优选匹配对;
其中,s为预设匹配对个数,s小于或等于n0
根据各优选匹配对,生成单应性矩阵H;
步骤4.5:分别针对初始匹配对集合UN中除最优配对外的各匹配对中、位于目标图像上的特征点,将其作为待计算特征点,执行如下操作以判断待计算特征点对应的匹配对是否为误匹配对,进而判断UN中除最优配对外的各匹配对是否为误匹配对:
将待计算特征点通过单应性矩阵H投影到匹配图像中,得到对应的投影点,计算投影点与待计算特征点的匹配点之间的投影点误差ε;
判断ε是否小于或等于预设的误差阈值δ,是则将该匹配对作为正确匹配对,否则将其作为误匹配对;
步骤4.6:统计初始匹配对集合UN中正确匹配对的个数,判断是否满足如下条件,是则对步骤4.5中获取的误匹配对进行过滤;否则进入步骤4.7;
其正确匹配对的个数和优选匹配对的个数总和In大于预设的正确匹配对个数阈值I;n小于算法终止长度n*
步骤4.7:判断t+1是否超过预设的迭代次数,是则对步骤4.5中获取的误匹配对进行过滤;
否则应用t+1更新t,返回步骤4.2。
作为本发明的一种优选方案,在步骤4.2中,满足t=T′n时,根据如下公式:
Figure BDA0003019206730000031
T′n+1=T′n+|Tn+1-Tn|整数
获取条件参数T′n+1和中间参数Tn+1,实现分别对T′n和Tn进行更新。
作为本发明的一种优选方案,在步骤4.5中,根据如下公式:
Figure BDA0003019206730000032
获取投影点误差ε;
其中,(xj,yj)为特征点i的匹配点位置,(x′i,y′i)为特征点i在匹配图像上的投影点的位置。
作为本发明的一种优选方案,在步骤4.6中,根据如下所示的算法终止长度计算模型k(η0,In):
Figure BDA0003019206730000041
Figure BDA0003019206730000042
获取参数k(η0,In)的取值范围,取k(η0,In)的最小整数值作为算法终止长度n*
其中,η0为设定的概率;
Figure BDA0003019206730000043
是从UN中进行采样得到的s个匹配对都是正确匹配对的概率。
作为本发明的一种优选方案,设定的概率η0=5%。
作为本发明的一种优选方案,在步骤1中,基于FAST特征点检测算法和BRIEF算法获取图像中的特征点。
作为本发明的一种优选方案,在步骤2中,根据如下公式计算待处理特征点和匹配图像中的各特征点之间的杰卡德距离dJ(A,B):
dJ(A,B)=(M01+M10)/(M01+M10+M11)
其中,A是基于BRIEF算法获取的与待处理特征点所对应的多维二元向量,B是基于BRIEF算法获取的和匹配图像中的特征点所对应的多维二元向量;A,B的每一维都只能是0或者1;M00代表向量A与向量B都是0的维度个数,M01代表向量A是0而向量B是1的维度个数,M10代表向量A是而向量B是0的维度个数,M11代表向量A和向量B都是1的维度个数。
有益效果:本发明提供的方法,以杰卡德距离去衡量匹配点对之间的距离,提高了初始匹配点集中的正确匹配率,提高了误匹配剔除的准确性。通过构建的特征点误匹配剔除模型,过滤掉初始匹配对集合UN中的误匹配对,极大地提高了迭代计算矩阵的效率,相较于现有的算法,本发明提供的方法提高了参与模型计算样本数据的质量,降低了迭代次数,最后实现对误匹配剔除,得到精准的图像匹配结果,提高图像匹配的准确率以及算法的运算速度。
附图说明
图1为本发明实施例提供的图像特征点匹配和误匹配剔除方法流程框图;
图2为本发明实施例提供的误匹配剔除算法的流程框图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
参照图1、图2,本发明提供的方法包括如下步骤:
步骤1:采用ORB算法分别提取目标图像和匹配图像中的特征点;然后进入步骤2。
具体的,通过如下方法获取图像中的特征点:
步骤1.1,使用FAST特征点检测算法方法提取特征点,具体过程:
步骤1.1.1:从目标图像/匹配图像之中选取一个像素点P,像素点P的灰度值为IP。以像素点P为中心,半径为3的圆上,有16个像素点。设定一个阈值t,计算P1和P9与中心P的像素灰度值之差的绝对值,若它们大于阈值t,那么计算P5和P13与中心P的像素灰度值之差的绝对值,若它们大于阈值t,则将这个像素点当作候选角点,否则,该点不可能是角点。若P是候选角点,则计算P和其领域内16个像素点的像素灰度值之差的绝对值,若至少有连续12个连续像素点超过阈值t,则P是角点;
步骤1.1.2:针对步骤1.1.1提取到的角点数目过多的问题,算法规定提取角点的数量N,选取前N个响应值较大的角点作为最终的特征点集合。响应函数R如下:
Figure BDA0003019206730000051
其中,Ipi表示角点P的像素灰度,Ii表示角点P领域内的像素点灰度。Sbright是中心像素P邻域内灰度值比P灰度值低的像素集合,Sdark是中心像素P邻域内灰度值比P灰度值高的像素集合。
步骤1.1.3:上述操作提取所得特征点不产生多尺度特征且不具有方向信息。尺度不变性算法通过引入图像金字塔增加特征点的尺度不变性,即利用高斯卷积函数对目标图像向下采样构建多层图像的多尺度空间,并对多尺度空间下每一层图像进行特征提取,产生在不同距离上提取特征点的效果。
步骤1.1.4,算法引入灰度质心法给特征描述子添加方向信息,选取特征点所在的图像块B,定义图像块B的矩为:
Figure BDA0003019206730000061
其中,I(x,y)是像素的灰度值,x和y分别是像素(x,y)的坐标,xp和yq分别是计算的权值。p,q={0,1}。当p=1,q=0时,当p=1,q=0时,m10为图像块x方向的加权和;当p=0,q=1时,m01为图像块y方向的加权和;当p=0,q=0时,m00为图像块B的加权和。通过式可以算出图像块B的矩,于是我们可以通过式得到图像块的灰度质心坐标,公式如下:
Figure BDA0003019206730000062
规定图像块B的几何中心为O,连接O与灰度质心C,得到一个方向向量
Figure BDA0003019206730000066
Figure BDA0003019206730000063
与x轴之间的夹角θ,我们定义θ为特征点的方向,θ为:
Figure BDA0003019206730000064
步骤1.2,采用BRIEF算法给上一步获得的特征点添加描述子,在特征点为中心的块状区域B中根据高斯分布随机选取256对像素点,比较每一对像素之间的灰度值大小并根据如下公式对描述子的每一位进行赋值。
Figure BDA0003019206730000065
其中,I(A),I(B)分别表示像素点A和点B的灰度值大小。如果I(A)<I(B),记为0,否则记为1,这个结果写入描述子的二进制位,从而生成256维的二进制向量串作为特征描述符。这就是BRIEF算法描述特征点的过程。
步骤2:分别针对目标图像中的各特征点,将其作为待处理特征点,执行如下操作:计算待处理特征点分别和匹配图像中各特征点之间的杰卡德距离,将匹配图像中杰卡德距离最小的特征点作为待处理特征点的匹配点;然后进入步骤3。
具体的,通过如下方法获取各特征点和对应匹配点之间的杰卡德距离:
在目标图像中选取一个特征点,将这个特征点与匹配图像中所有特征点进行匹配,并计算匹配对的杰卡德距离dJ(A,B):
dJ(A,B)=(M01+M10)/(M01+M10+M11)
其中,A是基于BRIEF算法获取的与待处理特征点所对应的多维二元向量,B是基于BRIEF算法获取的和匹配图像中的特征点所对应的多维二元向量;A,B的每一维都只能是0或者1;M00代表向量A与向量B都是0的维度个数,M01代表向量A是0而向量B是1的维度个数,M10代表向量A是而向量B是0的维度个数,M11代表向量A和向量B都是1的维度个数。
步骤3:将目标图像中各特征点分别与匹配图像中相应的匹配点进行关联,获取N个初始匹配对,进而获取初始匹配对集合UN;然后进入步骤4。
步骤4:使用构建的特征点误匹配剔除模型,过滤掉初始匹配对集合UN中的误匹配对,获取精准的图像匹配结果。
具体的,使用构建的特征点误匹配剔除模型过滤误匹配对的方法包括如下步骤:
步骤4.1:初始化迭代次数t=1;初始化样本匹配对个数n=n0;初始化条件参数T′n=1;初始化中间参数Tn=1;其中n0是预设个数值;
然后进入步骤4.2。
步骤4.2:判断是否满足t=T′n,n<N;
是则应用n+1更新n,并获取更新后的T′n和Tn,然后进入步骤4.3;
满足t=T′n时,根据如下公式:
Figure BDA0003019206730000071
T′n+1=T′n+|Tn+1-Tn|整数
获取条件参数T′n+1和中间参数Tn+1,实现分别对T′n和Tn进行更新。
否则不改变n的值,以及T′n和Tn,直接进入步骤4.3;
步骤4.3:自初始匹配对集合UN中沿杰卡德距离从小到大的顺序依次选取n个匹配对,组成样本集合Un
具体的,基于杰卡德距离的大小对初始匹配对集合UN中的各元素进行排序,按照杰卡德距离从小到大的顺序依次选出n个元素,构建样本集合Un
n的个数由生长函数确定,生长函数g(t)为:
g(t)=min{n:T′n≥t}
其中,t为迭代次数,T′n可以根据公式求得,公式如下:
T′n+1=T′n+|Tn+1-Tn|整数
其中,在集合UN中进行采样得TN个元素个数为4的子集合Mi,4为计算本方法模型所需的最小数据个数。Tn为子集合Mi中的数据只来自于集合Un的平均数,所以Tn为:
Figure BDA0003019206730000081
通常情况下Tn不是整数,所以额外的令
Figure BDA0003019206730000082
N=200000。本方法n的起始值为4,即:预设个数值n0等于4。根据如下公式:
Figure BDA0003019206730000083
获取Tn和Tn+1之间的递归关系,递归关系如下:
Figure BDA0003019206730000084
于是就可以得到进行第t次迭代时的生长函数,来确定第t次迭代时的样本集合Un的大小。
若t=T′n且n<n*,则n=n+1。其中n*为第t次迭代的算法终止长度,初始设为2000,在迭代过程中是不断变化的。
步骤4.4:判断是否满足t≤T′n,是则从Un中随机选出s个匹配对,将选出的s个匹配对作为优选匹配对;否则从Un中选取杰卡德距离最大的匹配对,再从Un中随机选取除杰卡德距离最大的匹配对之外的s-1个的匹配对,将杰卡德距离最大的匹配对和选出的s-1个的匹配对共同作为优选匹配对;
其中,s为预设匹配对个数,s小于或等于n0;在本实施例中,s等于4。
根据各优选匹配对,生成单应性矩阵H;其中单应性矩阵H为:
Figure BDA0003019206730000091
在计算时,需要4对匹配点(8组数据)去求解H中的8个固定参数。
步骤4.5:分别针对初始匹配对集合UN中除最优配对外的各匹配对中、位于目标图像上的特征点,将其作为待计算特征点,执行如下操作以判断待计算特征点对应的匹配对是否为误匹配对,进而判断UN中除最优配对外的各匹配对是否为误匹配对:
将待计算特征点通过单应性矩阵H投影到匹配图像中,得到对应的投影点,计算投影点与待计算特征点的匹配点之间的投影点误差ε;
判断ε是否小于或等于预设的误差阈值δ,是则将该匹配对作为正确匹配对,否则将其作为误匹配对;
根据如下公式:
Figure BDA0003019206730000092
获取投影点误差ε;
其中,(xj,yj)为特征点i的匹配点位置,(x′i,y′i)为特征点i在匹配图像上的投影点的位置。
步骤4.6:统计初始匹配对集合UN中正确匹配对的个数,判断是否满足如下条件,是则对步骤4.5中获取的误匹配对进行过滤;否则进入步骤4.7;
其正确匹配对的个数和优选匹配对的个数总和In大于预设的正确匹配对个数阈值I;n小于算法终止长度n*
根据如下所示的算法终止长度计算模型k(η0,In):
Figure BDA0003019206730000093
Figure BDA0003019206730000094
获取参数k(η0,In)的取值范围,取k(η0,In)的最小整数值作为算法终止长度n*
其中,η0为设定的概率;
Figure BDA0003019206730000101
是从UN中进行采样得到的s个匹配对都是正确匹配对的概率。
设定的概率η0=5%。
即:在步骤4.5之后,对计算结果进行非随机性和极大性验证,对满足非随机性和极大性验证的模型H和内点集合进行保留,并对外点进行筛除;对不满足的验证条件的模型进行删除,继续迭代。
非随机性验证:将目标图像中,除步骤3.3中被选中的4组匹配点以外的所有特征点(xi,yi)通过单应性矩阵H投影到匹配图像中,得投影点(x′i,y′i),计算投影点和匹配图像中的匹配点(xj,yj)的误差,得投影点误差ε;
Figure BDA0003019206730000102
δ为预设的误差阈值,若ε≤δ,判定为内点,反之则判定为外点,内点为正确的匹配点,外点为误匹配特征点。
统计集合Un中内点数量In
Figure BDA0003019206730000103
为设定的最小内点数,若内点数量In满足:
Figure BDA0003019206730000104
则完成模型非随机性验证。
极大性验证:在完成条件
Figure BDA0003019206730000105
的前提下进行。
Figure BDA0003019206730000106
是从UN中进行采样得到的4个点都是内点的概率,公式如下:
Figure BDA0003019206730000107
那么,进行k次采样,得到的数据不都是内点的概率为:
Figure BDA0003019206730000108
进而求得采样次数k为:
Figure BDA0003019206730000109
本方法设定的概率η0=5%,算法终止长度n*在满足
Figure BDA00030192067300001010
的前提条件下,可以通过对kn0)求最小值得到,根据如下公式:
Figure BDA0003019206730000111
进而获取算法终止长度n*
步骤4.7:判断t+1是否超过预设的迭代次数,是则对步骤4.5中获取的误匹配对进行过滤;
否则应用t+1更新t,返回步骤4.2。就这样遍历除被选取的4组点对以外所有的匹配点并判断其是否是内点,统计内点总数Iin。返回H并保留内点集合,对外点进行删除,完成误匹配筛除工作;否则按照上述方法继续迭代。
在特征向量匹配时,传统算法采用的是基于汉明距离的暴力匹配法去排序筛选最优匹配点,但由于噪声、数据错误关联等原因导致误匹配率过高。本发明采用杰卡德距离取代汉明距离增加数据之间的对比性来取代传统的基于汉明距离的暴力匹配,该算法相较于汉明距离只比较两个二维数据集合间异或值的大小,增加了对数据集合间同或值的考虑,本算法可以剔除初始匹配点集中更多的误匹配点对,在第二次过滤过程中保证更大的内点率,减少误匹配剔除算法的计算压力,提高匹配效率,保持高时间效率。
本发明提供的方法,以杰卡德距离代替汉明距离去衡量匹配点对之间的距离,提高了初始匹配点集中的正确匹配率,提高了后续误匹配筛除中的内点率。通过构建的特征点误匹配剔除模型,过滤掉初始匹配对集合中的误匹配对,极大的提高了迭代计算矩阵的效率,相较于现有的算法,本发明提供的方法改进评价函数提高了参与模型计算样本数据的质量降低迭代次数,最后实现对误匹配剔除,得到精准的图像匹配结果。
本发明提供的方法提高了半随机采样策略中数据点对的质量,再根据极大性和非随机性策略对计算所得模型进行验证,本算法对于内点率偏低的数据集合有较强的鲁棒性,迭代次数相较于RANSAC算法也大大减少,提高图像匹配的准确率以及算法的运算速度,提高了算法时间效率。
以上所述仅是本发明的优选实施方式,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (4)

1.一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法,其特征在于,方法包括如下步骤:
步骤1:采用ORB算法分别提取目标图像和匹配图像中的特征点;然后进入步骤2;
步骤2:分别针对目标图像中的各特征点,将其作为待处理特征点,执行如下操作:计算待处理特征点分别和匹配图像中各特征点之间的杰卡德距离,
根据如下公式计算待处理特征点和匹配图像中的各特征点之间的杰卡德距离dJ(A,B):
dJ(A,B)=(M01+M10)/(M01+M10+M11)
其中,A是基于BRIEF算法获取的与待处理特征点所对应的多维二元向量,B是基于BRIEF算法获取的和匹配图像中的特征点所对应的多维二元向量;A,B的每一维都只能是0或者1;M00代表向量A与向量B都是0的维度个数,M01代表向量A是0而向量B是1的维度个数,M10代表向量A是而向量B是0的维度个数,M11代表向量A和向量B都是1的维度个数;
将匹配图像中杰卡德距离最小的特征点作为待处理特征点的匹配点;然后进入步骤3;
步骤3:将目标图像中各特征点分别与匹配图像中相应的匹配点进行关联,获取N个初始匹配对,进而获取初始匹配对集合UN;然后进入步骤4;
步骤4:使用构建的特征点误匹配剔除模型,过滤掉初始匹配对集合UN中的误匹配对,获取精准的图像匹配结果;
使用构建的特征点误匹配剔除模型过滤误匹配对的具体方法包括如下步骤:
步骤4.1:初始化迭代次数t=1;初始化样本匹配对个数n=n0;初始化条件参数T′n=1;初始化中间参数Tn=1;其中n0是预设个数值;
然后进入步骤4.2;
步骤4.2:判断是否满足t=T′n,n<N;
是则应用n+1更新n,并获取更新后的T′n和Tn,然后进入步骤4.3;
满足t=T′n时,根据如下公式:
Figure FDA0003725832330000021
T′n+1=T′n+|Tn+1-Tn|整数
获取条件参数T′n+1和中间参数Tn+1,实现分别对T′n和Tn进行更新;
否则不改变n,以及T′n和Tn的值,直接进入步骤4.3;
步骤4.3:自初始匹配对集合UN中沿杰卡德距离从小到大的顺序依次选取n个匹配对,组成样本集合Un
步骤4.4:判断是否满足t≤T′n,是则从Un中随机选出s个匹配对,将选出的s个匹配对作为优选匹配对;否则从Un中选取杰卡德距离最大的匹配对,再从Un中随机选取除杰卡德距离最大的匹配对之外的s-1个的匹配对,将杰卡德距离最大的匹配对和选出的s-1个的匹配对共同作为优选匹配对;
其中,s为预设匹配对个数,s小于或等于n0
根据各优选匹配对,生成单应性矩阵H;
步骤4.5:分别针对初始匹配对集合UN中除最优配对外的各匹配对中、位于目标图像上的特征点,将其作为待计算特征点,执行如下操作以判断待计算特征点对应的匹配对是否为误匹配对,进而判断UN中除最优配对外的各匹配对是否为误匹配对:
将待计算特征点通过单应性矩阵H投影到匹配图像中,得到对应的投影点,计算投影点与待计算特征点的匹配点之间的投影点误差ε;
判断ε是否小于或等于预设的误差阈值δ,是则将该匹配对作为正确匹配对,否则将其作为误匹配对;
步骤4.6:统计初始匹配对集合UN中正确匹配对的个数,判断是否满足如下条件,是则对步骤4.5中获取的误匹配对进行过滤;否则进入步骤4.7;
其正确匹配对的个数和优选匹配对的个数总和In大于预设的正确匹配对个数阈值I;n小于算法终止长度n*
根据如下所示的算法终止长度计算模型k(η0,In),获得算法终止长度n*
Figure FDA0003725832330000031
Figure FDA0003725832330000032
获取参数k(η0,In)的取值范围,取k(η0,In)的最小整数值作为算法终止长度n*
其中,η0为设定的概率;
Figure FDA0003725832330000033
是从UN中进行采样得到的s个匹配对都是正确匹配对的概率;
步骤4.7:判断t+1是否超过预设的迭代次数,是则对步骤4.5中获取的误匹配对进行过滤;
否则应用t+1更新t,返回步骤4.2。
2.根据权利要求1所述的基于杰卡德距离的图像特征点匹配和误匹配剔除方法,其特征在于,在步骤4.5中,根据如下公式:
Figure FDA0003725832330000034
获取投影点误差ε;
其中,(xj,yj)为特征点i的匹配点位置,(x′i,y′i)为特征点i在匹配图像上的投影点的位置。
3.根据权利要求1所述的基于杰卡德距离的图像特征点匹配和误匹配剔除方法,其特征在于,设定的概率η0=5%。
4.根据权利要求1所述的基于杰卡德距离的图像特征点匹配和误匹配剔除方法,其特征在于,在步骤1中,基于FAST特征点检测算法和BRIEF算法获取图像中的特征点。
CN202110397775.7A 2021-04-14 2021-04-14 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法 Active CN113221914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110397775.7A CN113221914B (zh) 2021-04-14 2021-04-14 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110397775.7A CN113221914B (zh) 2021-04-14 2021-04-14 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法

Publications (2)

Publication Number Publication Date
CN113221914A CN113221914A (zh) 2021-08-06
CN113221914B true CN113221914B (zh) 2022-10-11

Family

ID=77087233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110397775.7A Active CN113221914B (zh) 2021-04-14 2021-04-14 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法

Country Status (1)

Country Link
CN (1) CN113221914B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115857413B (zh) * 2022-12-14 2023-07-21 中通建设股份有限公司 一种基于物联网的智能楼宇安全监测系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN110427966A (zh) * 2019-06-17 2019-11-08 青岛星科瑞升信息科技有限公司 一种基于特征点局部特征剔除误匹配特征点方法
CN112150520A (zh) * 2020-08-18 2020-12-29 徐州华讯科技有限公司 一种基于特征点的图像配准方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN110427966A (zh) * 2019-06-17 2019-11-08 青岛星科瑞升信息科技有限公司 一种基于特征点局部特征剔除误匹配特征点方法
CN112150520A (zh) * 2020-08-18 2020-12-29 徐州华讯科技有限公司 一种基于特征点的图像配准方法

Also Published As

Publication number Publication date
CN113221914A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN107145829B (zh) 一种融合纹理特征和尺度不变特征的掌静脉识别方法
CN111667506B (zh) 一种基于orb特征点的运动估计方法
CN109118473B (zh) 基于神经网络的角点检测方法、存储介质与图像处理系统
CN111709980A (zh) 基于深度学习的多尺度图像配准方法和装置
CN112364881B (zh) 一种进阶采样一致性图像匹配方法
CN108229500A (zh) 一种基于函数拟合的sift误匹配点剔除法
CN108537832B (zh) 基于局部不变灰度特征的图像配准方法、图像处理系统
CN111009005A (zh) 几何信息与光度信息相结合的场景分类点云粗配准方法
CN111898428A (zh) 一种基于orb的无人机特征点匹配方法
CN110738695B (zh) 一种基于局部变换模型的图像特征点误匹配剔除方法
CN113221914B (zh) 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法
CN111199558A (zh) 一种基于深度学习的图像匹配方法
CN116664892A (zh) 基于交叉注意与可形变卷积的多时相遥感图像配准方法
CN116092134A (zh) 一种基于深度学习和特征融合的指纹活体检测方法
CN110929598A (zh) 基于轮廓特征的无人机载sar图像匹配方法
CN113095385B (zh) 一种基于全局和局部特征描述的多模图像匹配方法
CN112085117B (zh) 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法
CN112652003B (zh) 一种基于ransac测度优化的三维点云配准方法
CN113128518A (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN109934298B (zh) 一种基于聚类的形变图的渐进式图匹配方法及装置
CN109146861B (zh) 一种改进的orb特征匹配方法
CN107103579A (zh) 一种面向图像拼接的ransac改进方法
CN111626325B (zh) 一种基于特征的图像匹配方法
CN111797903B (zh) 一种基于数据驱动粒子群算法的多模态遥感图像配准方法
Shen et al. A frame-based probabilistic local verification method for robust correspondence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant