CN110246168A - 一种移动巡检机器人双目图像拼接的特征匹配方法 - Google Patents
一种移动巡检机器人双目图像拼接的特征匹配方法 Download PDFInfo
- Publication number
- CN110246168A CN110246168A CN201910534549.1A CN201910534549A CN110246168A CN 110246168 A CN110246168 A CN 110246168A CN 201910534549 A CN201910534549 A CN 201910534549A CN 110246168 A CN110246168 A CN 110246168A
- Authority
- CN
- China
- Prior art keywords
- point
- pixel
- feature
- value
- circle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明提供一种移动巡检机器人双目图像拼接的特征匹配方法,在特征点检测阶段,构建尺度金字塔并使用速度极快的FAST算法提取特征点,加强尺度不变的鲁棒性;随后使用改进的CS‑LBP描述方法描述特征点,加强旋转不变的鲁棒性,同时降低特征向量维度提高了匹配效率;最后使用DDRN算法来度量特征向量的相似度完成匹配,并通过改进的RANSAC算法剔除误匹配。相较于传统算法,本算法在大幅提高实时性的同时准确的实现了对图像的特征提取与匹配,并且改进的描述方法对旋转图像的抗干扰性强,在仿射、缩放、光照等复杂变换场景依然有着较高的适应性。
Description
技术领域
本发明涉及移动巡检机器人领域,尤其涉及一种移动巡检机器人双目图像拼接的特征匹配方法。
背景技术
目前,移动巡检机器人是高危工业生产解放人工劳动力的重要手段,例如,在我国煤矿资源非常丰富,也是我国主要消耗能源,煤矿开采目前仍是高危行业之一,对煤矿现场的实时检测与开采设备的实时检测是开采正常作业的重要前提.甚至,在煤矿事故发生后,对煤矿井下进行探测也是迅速开展救援的重要保障.在恶劣环境下,工作人员的健康与生命财产得不到保证,为了避免这一状况,移动巡检机器人技术成为该环境下实时巡检的重要手段。移动巡检机器人是以移动机器人作为载体,以可见光摄像机、红外热成像仪、其它检测仪器作为载荷系统,以机器视觉-电磁场-GPS——GIS的多场信息融合作为机器人自主移动与自主巡检的导航系统,以嵌入式计算机作为控制系统的软硬件开发平台。
巡检机器人技术是解决高危工业生产环境下人工作业安全性问题的重要手段。为使机器人能够在无人或少人环境中自主行走,移动巡检机器人首先需要认知周围环境,这就需要依托于计算机视觉技术,让移动巡检机器人通过多目摄像头像人一样对环境进行识别处理分析。本文通过提出一种移动巡检机器人双目视觉图像拼接中的特征匹配方法,为移动巡检机器人在复杂环境下的路径规划提供方法依据。
图像拼接是数字图像处理中一个重要的内容,是一种将两张甚至多张图片拼接成一张视野更宽广的图片。图像拼接可以弥补摄像机广角不够的缺陷,而且可以通过设置多摄像头达到超广角视野拍摄的目的,以及拍摄全景照片。视频是由一帧一帧静态图片组成的,所以利用图像拼接同理可以达到视频拼接,广泛应用于虚拟现实、遥感视频处理,无人机航拍,医学图像,视频监控等领域。
图像拼接技术主要包括图像配准和图像融合两个关键环节。图像配准是图像拼接的核心部分,其目标是找出对齐的两幅或多幅重叠图像之间的运动情况,图像配准直接关系到图像拼接算法的成功率和运行速度。图像融合技术是用来消除由于几何校正、动态的场景或光照变化引起的相邻图像间的强度或颜色不连续问题,将两幅经过匹配确定出重叠区域的图像合并为一幅无缝图像。关于图像拼接的方法国内外已有不少的论文发表,其算法大致可分为基于模型的方法、基于变换域的方法、基于灰度相关的方法和基于特征的方法,而如何提高图像拼接的效率,减少处理时间和增强拼接系统的适应性一直是研究的重点。
图像拼接从方法上可以分为灰度相关法和特征匹配的方法。
基于灰度相关的方法是以两幅图像重叠部分所对应在或颜色系统中灰度级的相似性为准则寻找图像的配准位置。常用的算法有比值匹配法、块匹配法和网格匹配法。基于特征的方法首先从待匹配图像中提取特征集,利用特征的对应关系进行匹配。
基于特征的方法利用了图像的显著特征,具有计算量小,速度快的特点,对与图像的畸变、噪声、遮挡等具有一定的鲁棒性,但是它的匹配性能在很大程度上取决于特征提取的质量。特征匹配其中又分为基于角点匹配和基于斑点匹配的方法。基于角点常见的算法有:Harris,Fast。基于斑点的算法有:SIFT,SURF。通过二进制模式来对特征点进行编码描述,是视觉领域的热门,近年来大量应用到特征描述上。特征描述子的向量维数越多,对特征点独特性的描述更好,匹配效果也越好。但是过高的向量维数,会导致描述子生成速度慢,拖累匹配速度。传统的SIFT、SURF算法生成的描述子特征向量维度往往很高,普遍的方法是使用PCA(Principal Component Analysis)算法来降低特征描述向量维数,加快运行速度,PCA-SIFT算法正是使用了这种思想方法。但是,通过PCA算法来进行降维,势必会增加降维运算时间,整体运算时间并没有降低太多;而且粗暴的降低特征描述向量的维度,也会使得特征点的区分性变差,误匹配情况较多。
发明内容
为解决上述问题,本发明的目的提供一种移动巡检机器人双目图像拼接的特征匹配方法,针对图像拼接中传统算法运算复杂、计算量大导致匹配速度慢的问题,在特征点检测阶段,构建尺度金字塔并使用速度极快的FAST算法提取特征点,加强尺度不变的鲁棒性;随后使用改进的CS-LBP描述方法描述特征点,加强旋转不变的鲁棒性,同时降低特征向量维度提高了匹配效率;最后使用DDRN算法来度量特征向量的相似度完成匹配,并通过改进的RANSAC算法剔除误匹配。相较于传统算法,本算法在大幅提高实时性的同时准确的实现了对图像的特征提取与匹配,并且改进的描述方法对旋转图像的抗干扰性强,在仿射、缩放、光照等复杂变换场景依然有着较高的适应性。本发明提供一种移动巡检机器人双目图像拼接的特征匹配方法,所述匹配方法包括以下部分:构造尺度空间、FAST算法提取特征点、质心标定CS-LBP描述特征点、NNDR匹配策略和RANSAC剔除误匹配五个部分,所述构造尺度空间部分选择FAST算法作为视频拼接中的特征检测算法,并且采用构造高斯尺度金字塔的方法;FAST算法提取特征点部分特征点选取方式为选取图像上一个像素点,在其周围取一圆形邻域,将此圆形邻域上的所有像素点分别与中心像素求灰度值差,若中心像素点与圆形邻域上n个以上像素点的灰度差的绝对值都大于阈值t,则认定该像素点是角点,中心的像素点的灰度值比大部分周围的像素值要亮或者暗一个阈值;质心标定CS-LBP描述特征点的描述方法为通过比较中心对称的像素点对,以此取代所有像素点依次与中心点比较的方式;NNDR匹配策略为汉明距离测度,通过对比计算两个等长的字符串中对应位不同字符来确实其相似度;RANSAC剔除误匹配部分为得到两幅图像匹配的特征点对之后,采用RANSAC方法进行剔除误匹配。
进一步改进在于:所述构造高斯尺度金字塔的方法为首先使用高斯卷积核对图像进行迭代的卷积,并不断重复进行降采样,直到形成一个从上至下画面逐渐模糊、尺度逐渐增加的高斯尺度金字塔。
进一步改进在于:所述FAST角点检测算法具体为对圆形邻域上的16个像素点按顺时针从1至16进行标号,P代表中心像素点,下标数字代表邻域上对应序号的像素点;首先计算P1、P9点与中心像素点P的灰度差绝对值,若全部小于阈值t,则P点不是特征点;若存在大于阈值t的像素点,下一步就比较P1、P5、P9、P13与P点灰度差的绝对值,若存在3个及以上超过阈值t,则把点P当作候选特征点。
进一步改进在于:所述FAST角点检测算法时检测出的特征点有很多是紧挨在一起的,距离太近的特征点之间会互相影响,对匹配造成误差,需要进行非最大值抑制来消除影响;假设V代表特征点的质量,通过特征点的质量对检测到的特征点进行非最大值抑制处理,当候选特征点的周围邻域具有比它质量V更大的特征点,则把该候选特征点排除,并保留区域内具有更大质量V的候选点作为最终特征点。
进一步改进在于:所述特征点的质量V的计算方法为其中Sbright表示圆形邻域上灰度值比中心像素大的点合集,Sdark表示圆形邻域上灰度值比中心像素小的点合集。
进一步改进在于:所述特征点不仅要在每层中满足FAST特征点判定条件,还要在上下两尺度层相应位置比较中为极大值或极小值,具体算法为利用FAST9-16算法对金字塔每层进行角点检测,对D0层使用FAST5-8算法,得到每层的角点信息;对得到带有角点信息的每层图像,都进行空间上的非极大值抑制,候选特征点也就是FAST得分值要比空间上的26个邻域点都大或都小的极值点,否则被排除;接着对极值点的精确尺度和位置进行定位,首先对极值点和上下两层对应点进行对x、y方向二维二次函数差值运算,再对尺度方向进行一维差值运算,得到极值点精确的坐标位置和所在尺度。
进一步改进在于:所述质心标定CS-LBP描述特征点具体为通过求取圆形CS-LBP的质心,计算出主方向,将特征点邻域旋转至主方向上再进行CS-LBP的编码描述,以此达到旋转不变性。
进一步改进在于:所述CS-LBP算子的编码规则如下:在均匀分布在半径为R的圆上的N个像素点中,ni和hi+N/2指中心对称像素点对的灰度值,T指取值范围为[0,1]的阈值,CS-LBP描述子的维度为2N/2。进一步改进在于:以特征点为中心取半径R圆形邻域上,把圆上每个像素点的灰度值看成是质量,并将这个具有质量信息的圆根据积分学公式求取圆上的质心Q: 其中M为灰度质量,R为所取邻域圆半径,(x,y)为圆上某一像素点的坐标,I(x,y)为圆上某一像素点的灰度值;通过矩的计算得到质心Q(Qx,Qy)坐标位置,限据上述公式方法,得到了圆上质心点Q,X、Y轴为水平坐标系轴;KQ连线的方向视作是主方向,把KQ连线旋转至水平坐标轴位置,将KQ方向当做新的X坐标轴,其中顺时针旋转角度θ根据质心的象限位置而不同,计算公式为
进一步改进在于:质心标定的CS-LBP描述符生成步骤具体如下:设Pi(x,y,σ)为尺度FAST检测到的某一特征点,根据尺度σ的大小,在高斯尺度金字塔相应层上,以点Pi为中心,取点Pi为中心的7×7方形区域;分别以每个像素点Pn(n=1,2,...,49)为中心,R为半径取圆形邻域,通过圆上的像素点像素值的大小,运用积分学知识取圆上质心Q,以PQ为水平坐标轴将图像旋转到参考方向;在圆上等间隔的取8个像素点,根据CS-LBP求取原理公式,分别将8个像素点的值与中心像素进行比较编码,得到其质心标定的CS-LBP特征描述符编码向量;对特征点邻域内49个像素点均采用相同的操作,得到每个像素点的编码向量CS-LBPn;邻域点Pn与中心点Pi距离越远,对描述中心点贡献的信息量越小,因此需要对CS-LBPn加权处理,最后得到的49维向量即为特征点Pi的描述符。
进一步改进在于:NNDR匹配策略中的匹配策略方法为最近邻与次近邻比值法,具体为假设两幅图像A和B中提取出的特征点的集合为PA和PB,对于PA中任意特征点描述子向量Ai,使用最近邻搜索法从PB中搜索出与之距离最近的描述子Bm和次近的Bn,设其汉明距离分别为dm、dn,对于特定的阈值Td,当时则认为Ai点和Bm点是匹配的。进一步改进在于:RANSAC方法具体为在原始数据中随机抽取L组数据来分别估算目标函数的初始值,目标函数有所需解决的核心问题设计而得,其次,得出每组参数初始值对应的两类数据,一类为满足所属组参数初始值的数据点称为内点,另一类不满足的为外点;然后统计每组参数对应的内点数目,内点数目越多的参数模型越好,最好根据设定的评判标准找出目标函数对应的最佳参数初始值。
进一步改进在于:RANSAC方法的主要步骤为:首先从匹配对中随机抽取L个匹配对,计算出变换矩阵H所有参数,得到模型的所有参数,记为M;其次利用之前得到的已知参数的模型M去测试数据集中其他特征点对,如果符合该模型,则认为是假设的内点;接着设定一个阈值T,如果内点的数目超过阈值,保存内点则执行下一步,否则重头重新开始;最后上述过程被重复执行n次,统计每次内点数目,将数目最大的集合作为初步精确的匹配对集合,得到即为RANSAC提纯出的内点。
综合比较SITF、SURF和FAST算法,SIFT和SURF虽然特征匹配的准确度比FAST略高一些,但是其算法本身步骤繁琐,计算量巨大,不太适合视频拼接这种要求高实时性的应用场景,反而原理简单、计算量小的FAST算法更加适合。因此本文选择FAST算法作为视频拼接中的特征检测算法。
FAST算法以其出色特征提取性能和优异的运算速度得到了特别的青睐,但FAST算法本身也有很多局限性,其中之一就是其不具备尺度不变性,在面对尺度变换大的图像时无法做到准确的匹配,而视频拼接中经常会遇到尺度发生变化的图像。为使FAST算法具有尺度不变性,获得更好的适应性,本文采用构造高斯尺度金字塔的方法。首先使用高斯卷积核对图像进行迭代的卷积,并不断重复进行降采样,直到形成一个从上至下画面逐渐模糊、尺度逐渐增加的高斯尺度金字塔。尺度空间金字塔由若干个C层和D层交替组成,其中金字塔的第一层C0/D0为原图像层,第二层D1由D0通过1.5倍降采样得到,第三层C1由C0通过2倍降采样得到,第四层D2由D1通过1.5倍降采样得到,第五层C2由C1通过2倍降采样得到,至此,尺度金字塔便构建完成。
FAST算法如它的名字一样,是一种计算速度极快的特征检测算法。一般FAST算法的特征点多出现在角点位置,所以FAST特征检测算法也叫作FAST角点检测算法。
FAST角点检测算法的主要计算思想是:选取图像上一个像素点,在其周围取一圆形邻域,将此圆形邻域上的所有像素点分别与中心像素求灰度值差,若中心像素点与圆形邻域上n个以上像素点的灰度差的绝对值都大于阈值t,则认定该像素点是角点。通俗来讲就是,中心的像素点的灰度值比大部分周围的像素值要亮或者暗一个阈值。
FAST角点检测算法算法的传统步骤为:首先,以图像上任意一个像素点P为中心,取半径为3像素作圆,圆上有16个像素点。然后定义一个阈值t,分别求圆上16个像素点与中心像素点的灰度差值,若其中差值超过阈值t的点数量大于n,则认为P为一个特征点。
传统办法对于图像上每一个像素点,都需要计算全部圆形邻域上16个点与中心点的灰度差值,这样效率较低。现使用一种效率更高的改进方法:对圆形邻域上的16个像素点按顺时针从1至16进行标号,P代表中心像素点,下标数字代表邻域上对应序号的像素点。首先计算P1、P9点与中心像素点P的灰度差绝对值,若全部小于阈值t,则P点不是特征点;若存在大于阈值t的像素点,下一步就比较P1、P5、P9、P13与P点灰度差的绝对值,若存在3个及以上超过阈值t,则把点P当作候选特征点。
当FAST算法中的阈值t取30,n取9,也就是FAST9-16时,可以得到比较好的特征点提取效果。
FAST算法检测出的特征点有很多是紧挨在一起的,距离太近的特征点之间会互相影响,对匹配造成误差,此时需要进行非最大值抑制来消除这种影响。假设V代表特征点的质量,通过特征点的质量对检测到的特征点进行非最大值抑制处理。如果候选特征点的周围邻域具有比它质量V更大的特征点,则把该候选特征点排除,并保留区域内具有更大质量V的候选点作为最终特征点。关于特征点的质量V有以下三种定义方式:
让目标点P能够保持是特征点时,连续暗点或亮点个数n的最大值。让目标点P能够保持是特征点时,阈值t的最大值。
圆形邻域上的16个像素点中的每个像素点与中心像素的灰度值差的绝对值,再减去阈值t的累加和的最大值
第一种、第二种方法的定义有很高的量化特性,但是会导致很多候选特征点皆有此特性,造成特征点之间区分度差。第三种方法是个很好的选择,它能快速的计算特征点的质量V,计算公式如1,其中Sbright表示圆形邻域上灰度值比中心像素大的点合集,Sdark表示圆形邻域上灰度值比中心像素小的点合集。
非最大值抑制处理是为了获取鲁棒性更好的FAST特征点,由于视频拼接应用的特殊性需要,更多鲁棒性好的特征点可以在配准中得到更好的匹配效果,进而获得更好的拼接效果。但同时又不能让特征点过于密集,这样会破坏特征点间的独特性,而且会拖累算法的运算速度。所以,需要根据拼接的特性来将非最大值抑制区域范围设定为一个合适的值,以此达到更好的效果。
特征点不仅要在每层中满足FAST特征点判定条件,还要在上下两尺度层相应位置比较中为极大值或极小值。算法主要步骤如下:
利用FAST9-16算法对金字塔每层进行角点检测,对D0层使用FAST5-8算法,得到每层的角点信息。对得到带有角点信息的每层图像,都进行空间上的非极大值抑制,候选特征点也就是FAST得分值要比空间上的26个邻域点都大或都小的极值点,否则被排除。接着对极值点的精确尺度和位置进行定位。首先对极值点和上下两层对应点进行对x、y方向二维二次函数差值运算,再对尺度方向进行一维差值运算,得到极值点精确的坐标位置和所在尺度。
传统的旋转不变CS-LBP,无法正确标定特征点的主方向,对之后的特征匹配带来较多错误。本文在圆形CS-LBP描述符的基础上加强了对旋转的不变性,提出一种基于质心标定的改进方法:通过求取圆形CS-LBP的质心,计算出主方向,将特征点邻域旋转至主方向上再进行CS-LBP的编码描述,以此达到旋转不变性。
CS-LBP特征点描述方法,通过比较中心对称的像素点对,以此取代所有像素点依次与中心点比较的方式。对于8邻域的像素,LBP产生256个不同的二进制值。为了简化算子获得的二进制值,LBP被扩展到基于中心对称的局部二进制模式。与传统的LBP相比,CS-LBP是对基于中心对称的2个像素点的灰度值相比较,如大于等于则为1,否则为0。CS-LBP算子的编码规则如下:
在均匀分布在半径为R的圆上的N个像素点中,ni和ni+N/2指中心对称像素点对的灰度值,T指取值范围为[0,1]的阈值。显然,CS-LBP描述子的维度为2N/2。实验证明,R=2,N=8,T=0.01时,所得CS-LBP描述子的维数适中,匹配效果最佳,因此本发明算法中也使用了上述取值。
以特征点为中心取半径R圆形邻域上,把圆上每个像素点的灰度值看成是质量,并将这个具有质量信息的圆根据积分学公式求取圆上的质心Q:
式中:
M:灰度质量;
R:所取邻域圆半径;
(x,y):圆上某一像素点的坐标;
I(x,y):圆上某一像素点的灰度值;
公式6、7通过矩的计算得到质心Q(Qx,Qy)坐标位置。
根据上述公式方法,得到了圆上质心点Q,X、Y轴为水平坐标系轴。接下来,KQ连线的方向视作是主方向,把KQ连线旋转至水平坐标轴位置,将KQ方向当做新的X坐标轴。其中顺时针旋转角度θ根据质心的象限位置而不同,见公式8。
质心标定的CS-LBP描述符生成步骤具体如下:
设Pi(x,y,σ)为尺度FAST检测到的某一特征点,根据尺度σ的大小,在高斯尺度金字塔相应层上,以点Pi为中心,依照图4左图所示,取点Pi为中心的7×7方形区域。
分别以每个像素点Pn(n=1,2,...,49)为中心,R为半径取圆形邻域,通过圆上的像素点像素值的大小,运用积分学知识取圆上质心Q,以PQ为水平坐标轴将图像旋转到参考方向。
在圆上等间隔的取8个像素点,根据CS-LBP求取原理公式,分别将8个像素点的值与中心像素进行比较编码,得到其质心标定的CS-LBP特征描述符编码向量。对特征点邻域内49个像素点均采用相同的操作,得到每个像素点的编码向量CS-LBPn.
邻域点Pn与中心点Pi距离越远,对描述中心点贡献的信息量越小,因此需要对CS-LBPn加权处理。最后得到的49维向量即为特征点Pi的描述符。
利用尺度FAST特征检测和改进的质心标定CS-LBP特征描述子得到特征点的特征向量之后,为了判断对应特征点之间的特征向量是否匹配,需要匹配策略方法来确定其相似性。用来度量相似性的测度很多,本文根据二值化特征向量的特性采用的是汉明(Hamming)距离测度,其主要原理是通过对比计算两个等长的字符串中对应位不同字符来确实其相似度。
基于k-d树的匹配策略方法,虽然拥有着较高的匹配精度,但是在面对高维向量匹配时计算量过多,导致了匹配效率较低,对于要求较高实时性的视频拼接应用场景来说,并不合适。特征匹配中要求匹配结果的准确性,因此特征描述符的特征向量维数不能过低,同时又要求匹配的快速性。
综上所述选用一个兼顾性能与实时性的匹配策略方法十分重要。采用了最近邻与次近邻比值法(Nearest-Neighbor with Distance Ratio,NNDR),该方法运算简单,在保证匹配准确性同时可以显著提高匹配的效率。
假设两幅图像A和B中提取出的特征点的集合为PA和PB,对于PA中任意特征点描述子向量Ai,使用最近邻搜索法从PB中搜索出与之距离最近的描述子Bm和次近的Bn,设其汉明距离分别为dm、dn,对于特定的阈值Td,如果:
则认为Ai点和Bm点是匹配的。根据验证当Td取0.6时,匹配效果更优秀。
最近邻与次近邻比值法在使用过程中,算法原理简单,计算速度快,效果准确,非常适合视频拼接这种在短时间需要对多幅图像的大量特征点进行匹配的场景。
得到两幅图像匹配的特征点对之后,采用RANSAC(Random Sample Consensus)方法进行剔除误匹配。RANSAC算法是匹配对提纯进行参数估计得典型算法。核心思想为:首先,在原始数据中随机抽取L组数据来分别估算目标函数的初始值,目标函数有所需解决的核心问题设计而得,其次,得出每组参数初始值对应的两类数据,一类为满足所属组参数初始值的数据点称为内点,另一类不满足的为外点。然后统计每组参数对应的内点数目,内点数目越多的参数模型越好,最好根据设定的评判标准找出目标函数对应的最佳参数初始值。
RANSAC的主要步骤有:
一:从匹配对中随机抽取L个匹配对,计算出变换矩阵H所有参数,得到模型的所有参数,记为M。
二:利用一中得到的已知参数的模型M去测试数据集中其他特征点对,如果符合该模型,则认为是假设的内点。
三:设定一个阈值T,如果内点的数目超过阈值,保存内点则执行下一步,否则返回一。
四:上述过程被重复执行n次,统计每次内点数目,将数目最大的集合作为初步精确的匹配对集合,得到即为RANSAC提纯出的内点。本发明的有益效果:采用尺度FAST角点检测算法,在构建高斯尺度金字塔中使用FAST算法对每层检测极值,具有精度高、尺度不变的优点,能准确提取出足够数量的特征点,并且计算速度十分的快速;使用质心标定的CS-LBP(中心对称局部二进制模式)描述符,通过计算CS-LBP邻域上的质心,并将质心的方向作为特征点的主方向,极大的加强了旋转不变性。CS-LBP得益于其辨别力强大和计算简单,而且对灰度变换的鲁棒性强,对缩放,旋转图像有着很好匹配效果,同时会加快算法运行速度;采用从每个特征点为中心的图像计算方法,结合使用基于汉明距离的DDRN(最近邻与次近邻比值法)来确定两组关键点的匹配对,最后对于匹配的匹配对采用RANSAC剔除误匹配,大大提高了匹配精度,能获得更好的匹配效率。
附图说明
图1是本发明的图像尺度金字塔构造示意图。
图2是本发明的FAST算法检测特征点示意图。
图3是本发明的旋转不变CS-LBP示意图。
图4是本发明的描述符生成示意图。
具体实施方式
为了加深对本发明的理解,下面将结合实施例对本发明作进一步详述,该实施例仅用于解释本发明,并不构成对本发明保护范围的限定。如图1-4所示,本实施例提供一种移动巡检机器人双目图像拼接的特征匹配方法,所述匹配方法包括以下部分:构造尺度空间、FAST算法提取特征点、质心标定CS-LBP描述特征点、NNDR匹配策略和RANSAC剔除误匹配五个部分,所述构造尺度空间部分选择FAST算法作为视频拼接中的特征检测算法,并且采用构造高斯尺度金字塔的方法;FAST算法提取特征点部分特征点选取方式为选取图像上一个像素点,在其周围取一圆形邻域,将此圆形邻域上的所有像素点分别与中心像素求灰度值差,若中心像素点与圆形邻域上n个以上像素点的灰度差的绝对值都大于阈值t,则认定该像素点是角点,中心的像素点的灰度值比大部分周围的像素值要亮或者暗一个阈值;质心标定CS-LBP描述特征点的描述方法为通过比较中心对称的像素点对,以此取代所有像素点依次与中心点比较的方式;NNDR匹配策略为汉明距离测度,通过对比计算两个等长的字符串中对应位不同字符来确实其相似度;RANSAC剔除误匹配部分为得到两幅图像匹配的特征点对之后,采用RANSAC方法进行剔除误匹配。
所述构造高斯尺度金字塔的方法为首先使用高斯卷积核对图像进行迭代的卷积,并不断重复进行降采样,直到形成一个从上至下画面逐渐模糊、尺度逐渐增加的高斯尺度金字塔。
所述FAST角点检测算法具体为对圆形邻域上的16个像素点按顺时针从1至16进行标号,P代表中心像素点,下标数字代表邻域上对应序号的像素点;首先计算P1、P9点与中心像素点P的灰度差绝对值,若全部小于阈值t,则P点不是特征点;若存在大于阈值t的像素点,下一步就比较P1、P5、P9、P13与P点灰度差的绝对值,若存在3个及以上超过阈值t,则把点P当作候选特征点。
所述FAST角点检测算法时检测出的特征点有很多是紧挨在一起的,距离太近的特征点之间会互相影响,对匹配造成误差,需要进行非最大值抑制来消除影响;假设V代表特征点的质量,通过特征点的质量对检测到的特征点进行非最大值抑制处理,当候选特征点的周围邻域具有比它质量V更大的特征点,则把该候选特征点排除,并保留区域内具有更大质量V的候选点作为最终特征点。
所述特征点的质量V的计算方法为其中Sbright表示圆形邻域上灰度值比中心像素大的点合集,Sdark表示圆形邻域上灰度值比中心像素小的点合集。
所述特征点不仅要在每层中满足FAST特征点判定条件,还要在上下两尺度层相应位置比较中为极大值或极小值,具体算法为利用FAST9-16算法对金字塔每层进行角点检测,对D0层使用FAST5-8算法,得到每层的角点信息;对得到带有角点信息的每层图像,都进行空间上的非极大值抑制,候选特征点也就是FAST得分值要比空间上的26个邻域点都大或都小的极值点,否则被排除;接着对极值点的精确尺度和位置进行定位,首先对极值点和上下两层对应点进行对x、y方向二维二次函数差值运算,再对尺度方向进行一维差值运算,得到极值点精确的坐标位置和所在尺度。
所述质心标定CS-LBP描述特征点具体为通过求取圆形CS-LBP的质心,计算出主方向,将特征点邻域旋转至主方向上再进行CS-LBP的编码描述,以此达到旋转不变性。
所述CS-LBP算子的编码规则如下:在均匀分布在半径为R的圆上的N个像素点中,ni和ni+N/2指中心对称像素点对的灰度值,T指取值范围为[0,1]的阈值,CS-LBP描述子的维度为2N/2。以特征点为中心取半径R圆形邻域上,把圆上每个像素点的灰度值看成是质量,并将这个具有质量信息的圆根据积分学公式求取圆上的质心Q:其中M为灰度质量,R为所取邻域圆半径,(x,y)为圆上某一像素点的坐标,I(x,y)为圆上某一像素点的灰度值;通过矩的计算得到质心Q(Qx,Qy)坐标位置,根据上述公式方法,得到了圆上质心点Q,X、Y轴为水平坐标系轴;KQ连线的方向视作是主方向,把KQ连线旋转至水平坐标轴位置,将KQ方向当做新的X坐标轴,其中顺时针旋转角度θ根据质心的象限位置而不同,计算公式为
质心标定的CS-LBP描述符生成步骤具体如下:设Pi(x,y,σ)为尺度FAST检测到的某一特征点,根据尺度σ的大小,在高斯尺度金字塔相应层上,以点Pi为中心,取点Pi为中心的7×7方形区域;分别以每个像素点Pn(n=1,2,...,49)为中心,R为半径取圆形邻域,通过圆上的像素点像素值的大小,运用积分学知识取圆上质心Q,以PQ为水平坐标轴将图像旋转到参考方向;在圆上等间隔的取8个像素点,根据CS-LBP求取原理公式,分别将8个像素点的值与中心像素进行比较编码,得到其质心标定的CS-LBP特征描述符编码向量;对特征点邻域内49个像素点均采用相同的操作,得到每个像素点的编码向量CS-LBPn;邻域点Pn与中心点Pi距离越远,对描述中心点贡献的信息量越小,因此需要对CS-LBPn加权处理,最后得到的49维向量即为特征点Pi的描述符。
NNDR匹配策略中的匹配策略方法为最近邻与次近邻比值法,具体为假设两幅图像A和B中提取出的特征点的集合为PA和PB,对于PA中任意特征点描述子向量Ai,使用最近邻搜索法从PB中搜索出与之距离最近的描述子Bm和次近的Bn,设其汉明距离分别为dm、dn,对于特定的阈值Td,当时则认为Ai点和Bm点是匹配的。
RANSAC方法具体为在原始数据中随机抽取L组数据来分别估算目标函数的初始值,目标函数有所需解决的核心问题设计而得,其次,得出每组参数初始值对应的两类数据,一类为满足所属组参数初始值的数据点称为内点,另一类不满足的为外点;然后统计每组参数对应的内点数目,内点数目越多的参数模型越好,最好根据设定的评判标准找出目标函数对应的最佳参数初始值。
RANSAC方法的主要步骤为:首先从匹配对中随机抽取L个匹配对,计算出变换矩阵H所有参数,得到模型的所有参数,记为M;其次利用之前得到的已知参数的模型M去测试数据集中其他特征点对,如果符合该模型,则认为是假设的内点;接着设定一个阈值T,如果内点的数目超过阈值,保存内点则执行下一步,否则重头重新开始;最后上述过程被重复执行n次,统计每次内点数目,将数目最大的集合作为初步精确的匹配对集合,得到即为RANSAC提纯出的内点。
Claims (13)
1.一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述匹配方法包括以下部分:构造尺度空间、FAST算法提取特征点、质心标定CS-LBP描述特征点、NNDR匹配策略和RANSAC剔除误匹配五个部分,所述构造尺度空间部分选择FAST算法作为视频拼接中的特征检测算法,并且采用构造高斯尺度金字塔的方法;FAST算法提取特征点部分特征点选取方式为选取图像上一个像素点,在其周围取一圆形邻域,将此圆形邻域上的所有像素点分别与中心像素求灰度值差,若中心像素点与圆形邻域上n个以上像素点的灰度差的绝对值都大于阈值t,则认定该像素点是角点,中心的像素点的灰度值比大部分周围的像素值要亮或者暗一个阈值;质心标定CS-LBP描述特征点的描述方法为通过比较中心对称的像素点对,以此取代所有像素点依次与中心点比较的方式;NNDR匹配策略为汉明距离测度,通过对比计算两个等长的字符串中对应位不同字符来确实其相似度;RANSAC剔除误匹配部分为得到两幅图像匹配的特征点对之后,采用RANSAC方法进行剔除误匹配。
2.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述构造高斯尺度金字塔的方法为首先使用高斯卷积核对图像进行迭代的卷积,并不断重复进行降采样,直到形成一个从上至下画面逐渐模糊、尺度逐渐增加的高斯尺度金字塔。
3.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述FAST角点检测算法具体为对圆形邻域上的16个像素点按顺时针从1至16进行标号,P代表中心像素点,下标数字代表邻域上对应序号的像素点;首先计算P1、P9点与中心像素点P的灰度差绝对值,若全部小于阈值t,则P点不是特征点;若存在大于阈值t的像素点,下一步就比较P1、P5、P9、P13与P点灰度差的绝对值,若存在3个及以上超过阈值t,则把点P当作候选特征点。
4.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述FAST角点检测算法时检测出的特征点有很多是紧挨在一起的,距离太近的特征点之间会互相影响,对匹配造成误差,需要进行非最大值抑制来消除影响;假设V代表特征点的质量,通过特征点的质量对检测到的特征点进行非最大值抑制处理,当候选特征点的周围邻域具有比它质量V更大的特征点,则把该候选特征点排除,并保留区域内具有更大质量V的候选点作为最终特征点。
5.如权利要求4所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述特征点的质量V的计算方法为其中Sbright表示圆形邻域上灰度值比中心像素大的点合集,Sdark表示圆形邻域上灰度值比中心像素小的点合集。
6.如权利要求1或4所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述特征点不仅要在每层中满足FAST特征点判定条件,还要在上下两尺度层相应位置比较中为极大值或极小值,具体算法为利用FAST9-16算法对金字塔每层进行角点检测,对D0层使用FAST5-8算法,得到每层的角点信息;对得到带有角点信息的每层图像,都进行空间上的非极大值抑制,候选特征点也就是FAST得分值要比空间上的26个邻域点都大或都小的极值点,否则被排除;接着对极值点的精确尺度和位置进行定位,首先对极值点和上下两层对应点进行对x、y方向二维二次函数差值运算,再对尺度方向进行一维差值运算,得到极值点精确的坐标位置和所在尺度。
7.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述质心标定CS-LBP描述特征点具体为通过求取圆形CS-LBP的质心,计算出主方向,将特征点邻域旋转至主方向上再进行CS-LBP的编码描述,以此达到旋转不变性。
8.如权利要求7所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:所述CS-LBP算子的编码规则如下:在均匀分布在半径为R的圆上的N个像素点中,ni和ni+N/2指中心对称像素点对的灰度值,T指取值范围为[0,1]的阈值,CS-LBP描述子的维度为2N/2。
9.如权利要求8所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:以特征点为中心取半径R圆形邻域上,把圆上每个像素点的灰度值看成是质量,并将这个具有质量信息的圆根据积分学公式求取圆上的质心Q: 其中M为灰度质量,R为所取邻域圆半径,(x,y)为圆上某一像素点的坐标,I(x,y)为圆上某一像素点的灰度值;通过矩的计算得到质心Q(Qx,Qy)坐标位置,根据上述公式方法,得到了圆上质心点Q,X、Y轴为水平坐标系轴;KQ连线的方向视作是主方向,把KQ连线旋转至水平坐标轴位置,将KQ方向当做新的X坐标轴,其中顺时针旋转角度θ根据质心的象限位置而不同,计算公式为
10.如权利要求9所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:质心标定的CS-LBP描述符生成步骤具体如下:设Pi(x,y,σ)为尺度FAST检测到的某一特征点,根据尺度σ的大小,在高斯尺度金字塔相应层上,以点Pi为中心,取点Pi为中心的7×7方形区域;分别以每个像素点Pn(n=1,2,...,49)为中心,R为半径取圆形邻域,通过圆上的像素点像素值的大小,运用积分学知识取圆上质心Q,以PQ为水平坐标轴将图像旋转到参考方向;在圆上等间隔的取8个像素点,根据CS-LBP求取原理公式,分别将8个像素点的值与中心像素进行比较编码,得到其质心标定的CS-LBP特征描述符编码向量;对特征点邻域内49个像素点均采用相同的操作,得到每个像素点的编码向量CS-LBPn;邻域点Pn与中心点Pi距离越远,对描述中心点贡献的信息量越小,因此需要对CS-LBPn加权处理,最后得到的49维向量即为特征点Pi的描述符。
11.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:NNDR匹配策略中的匹配策略方法为最近邻与次近邻比值法,具体为假设两幅图像A和B中提取出的特征点的集合为PA和PB,对于PA中任意特征点描述子向量Ai,使用最近邻搜索法从PB中搜索出与之距离最近的描述子Bm和次近的Bn,设其汉明距离分别为dm、dn,对于特定的阈值Td,当时则认为Ai点和Bm点是匹配的。
12.如权利要求1所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:RANSAC方法具体为在原始数据中随机抽取L组数据来分别估算目标函数的初始值,目标函数有所需解决的核心问题设计而得,其次,得出每组参数初始值对应的两类数据,一类为满足所属组参数初始值的数据点称为内点,另一类不满足的为外点;然后统计每组参数对应的内点数目,内点数目越多的参数模型越好,最好根据设定的评判标准找出目标函数对应的最佳参数初始值。
13.如权利要求1或12所述的一种移动巡检机器人双目图像拼接的特征匹配方法,其特征在于:RANSAC方法的主要步骤为:首先从匹配对中随机抽取L个匹配对,计算出变换矩阵H所有参数,得到模型的所有参数,记为M;其次利用之前得到的已知参数的模型M去测试数据集中其他特征点对,如果符合该模型,则认为是假设的内点;接着设定一个阈值T,如果内点的数目超过阈值,保存内点则执行下一步,否则重头重新开始;最后上述过程被重复执行n次,统计每次内点数目,将数目最大的集合作为初步精确的匹配对集合,得到即为RANSAC提纯出的内点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910534549.1A CN110246168A (zh) | 2019-06-19 | 2019-06-19 | 一种移动巡检机器人双目图像拼接的特征匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910534549.1A CN110246168A (zh) | 2019-06-19 | 2019-06-19 | 一种移动巡检机器人双目图像拼接的特征匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110246168A true CN110246168A (zh) | 2019-09-17 |
Family
ID=67888275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910534549.1A Pending CN110246168A (zh) | 2019-06-19 | 2019-06-19 | 一种移动巡检机器人双目图像拼接的特征匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110246168A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706191A (zh) * | 2019-10-14 | 2020-01-17 | 中国空气动力研究与发展中心超高速空气动力研究所 | 一种基于红外图像拼接融合算法的高压容器检测方法 |
CN111415300A (zh) * | 2020-05-08 | 2020-07-14 | 广东申义实业投资有限公司 | 一种用于全景图像的拼接方法和系统 |
CN111506069A (zh) * | 2020-04-26 | 2020-08-07 | 吉林大学 | 一种全天候全地面起重机障碍识别系统及方法 |
CN111739081A (zh) * | 2020-08-06 | 2020-10-02 | 成都极米科技股份有限公司 | 特征点匹配方法、拼接方法、装置、电子设备及存储介质 |
CN112418300A (zh) * | 2020-11-19 | 2021-02-26 | 重庆连芯光电技术研究院有限公司 | 一种加速图像匹配的方法 |
CN112560666A (zh) * | 2020-12-11 | 2021-03-26 | 北部湾大学 | 一种机器人视觉伺服抓取目标定位方法 |
CN112686806A (zh) * | 2021-01-08 | 2021-04-20 | 腾讯科技(深圳)有限公司 | 图像拼接方法及装置、电子设备、存储介质 |
CN112819095A (zh) * | 2021-02-26 | 2021-05-18 | 吉林大学 | 特征点匹配方法、装置、智能终端及计算机可读存储介质 |
CN113658238A (zh) * | 2021-08-23 | 2021-11-16 | 重庆大学 | 一种基于改进特征检测的近红外静脉图像高精度匹配方法 |
CN116824183A (zh) * | 2023-07-10 | 2023-09-29 | 北京大学 | 基于多重特征描述符的图像特征匹配方法和装置 |
CN117011923A (zh) * | 2023-10-07 | 2023-11-07 | 达文恒业科技(深圳)有限公司 | 一种嵌入式平板电脑数据安全保护方法及系统 |
CN117055639A (zh) * | 2023-09-04 | 2023-11-14 | 珠海习坎智能科技有限公司 | 一种隧道巡检机器人自适应控速方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945111A (zh) * | 2017-11-17 | 2018-04-20 | 中国矿业大学 | 一种基于surf特征提取结合cs‑lbp描述符的图像拼接方法 |
CN108537732A (zh) * | 2018-04-10 | 2018-09-14 | 福州大学 | 基于pca-sift的快速图像拼接方法 |
-
2019
- 2019-06-19 CN CN201910534549.1A patent/CN110246168A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945111A (zh) * | 2017-11-17 | 2018-04-20 | 中国矿业大学 | 一种基于surf特征提取结合cs‑lbp描述符的图像拼接方法 |
CN108537732A (zh) * | 2018-04-10 | 2018-09-14 | 福州大学 | 基于pca-sift的快速图像拼接方法 |
Non-Patent Citations (1)
Title |
---|
程德强等: "尺度 FAST 结合改进 LBP 的特征匹配方法", 《煤炭技术》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706191A (zh) * | 2019-10-14 | 2020-01-17 | 中国空气动力研究与发展中心超高速空气动力研究所 | 一种基于红外图像拼接融合算法的高压容器检测方法 |
CN110706191B (zh) * | 2019-10-14 | 2022-09-20 | 中国空气动力研究与发展中心超高速空气动力研究所 | 一种基于红外图像拼接融合算法的高压容器检测方法 |
CN111506069A (zh) * | 2020-04-26 | 2020-08-07 | 吉林大学 | 一种全天候全地面起重机障碍识别系统及方法 |
CN111415300A (zh) * | 2020-05-08 | 2020-07-14 | 广东申义实业投资有限公司 | 一种用于全景图像的拼接方法和系统 |
CN111739081A (zh) * | 2020-08-06 | 2020-10-02 | 成都极米科技股份有限公司 | 特征点匹配方法、拼接方法、装置、电子设备及存储介质 |
CN112418300A (zh) * | 2020-11-19 | 2021-02-26 | 重庆连芯光电技术研究院有限公司 | 一种加速图像匹配的方法 |
CN112560666B (zh) * | 2020-12-11 | 2021-08-17 | 北部湾大学 | 一种机器人视觉伺服抓取目标定位方法 |
CN112560666A (zh) * | 2020-12-11 | 2021-03-26 | 北部湾大学 | 一种机器人视觉伺服抓取目标定位方法 |
CN112686806A (zh) * | 2021-01-08 | 2021-04-20 | 腾讯科技(深圳)有限公司 | 图像拼接方法及装置、电子设备、存储介质 |
CN112819095A (zh) * | 2021-02-26 | 2021-05-18 | 吉林大学 | 特征点匹配方法、装置、智能终端及计算机可读存储介质 |
CN113658238A (zh) * | 2021-08-23 | 2021-11-16 | 重庆大学 | 一种基于改进特征检测的近红外静脉图像高精度匹配方法 |
CN113658238B (zh) * | 2021-08-23 | 2023-08-08 | 重庆大学 | 一种基于改进特征检测的近红外静脉图像高精度匹配方法 |
CN116824183A (zh) * | 2023-07-10 | 2023-09-29 | 北京大学 | 基于多重特征描述符的图像特征匹配方法和装置 |
CN116824183B (zh) * | 2023-07-10 | 2024-03-12 | 北京大学 | 基于多重特征描述符的图像特征匹配方法和装置 |
CN117055639A (zh) * | 2023-09-04 | 2023-11-14 | 珠海习坎智能科技有限公司 | 一种隧道巡检机器人自适应控速方法 |
CN117055639B (zh) * | 2023-09-04 | 2024-03-29 | 珠海习坎智能科技有限公司 | 一种隧道巡检机器人自适应控速方法 |
CN117011923A (zh) * | 2023-10-07 | 2023-11-07 | 达文恒业科技(深圳)有限公司 | 一种嵌入式平板电脑数据安全保护方法及系统 |
CN117011923B (zh) * | 2023-10-07 | 2024-01-26 | 达文恒业科技(深圳)有限公司 | 一种嵌入式平板电脑数据安全保护方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110246168A (zh) | 一种移动巡检机器人双目图像拼接的特征匹配方法 | |
CN108827316B (zh) | 基于改进的Apriltag标签的移动机器人视觉定位方法 | |
CN104376548B (zh) | 一种基于改进型surf算法的图像快速拼接方法 | |
CN105335973B (zh) | 运用于带钢加工生产线的视觉处理方法 | |
CN108010045A (zh) | 基于orb的视觉图像特征点误匹配提纯方法 | |
CN109829853B (zh) | 一种无人机航拍图像拼接方法 | |
Schmidt et al. | COMPARATIVE ASSESSMENT OF POINT FEATURE DETECTORS AND DESCRIPTORS IN THE CONTEXT OF ROBOT NAVIGATION. | |
CN109961399B (zh) | 基于图像距离变换的最佳缝合线搜寻方法 | |
CN104167003A (zh) | 一种遥感影像的快速配准方法 | |
CN104933434A (zh) | 一种结合LBP特征提取和surf特征提取方法的图像匹配方法 | |
CN107240112B (zh) | 一种复杂场景下个体x角点提取方法 | |
CN104268602A (zh) | 一种基于二进制特征匹配的遮挡工件识别方法及装置 | |
CN110097596A (zh) | 一种基于opencv的目标检测系统 | |
CN112163588A (zh) | 基于智能进化的异源图像目标检测方法、存储介质及设备 | |
CN110008833B (zh) | 基于光学遥感图像的目标船只检测方法 | |
CN113012096B (zh) | 显示屏子像素定位及亮度提取方法、设备以及存储介质 | |
CN111192194A (zh) | 一种针对幕墙建筑立面的全景图像拼接方法 | |
CN106897723B (zh) | 基于特征匹配的目标实时识别方法 | |
CN108182700B (zh) | 一种基于两次特征检测的图像配准方法 | |
CN104282001A (zh) | 增强图像特征二值描述子性能的方法 | |
CN113129397B (zh) | 一种基于图形几何关系的平行四边形编码标志的解码方法 | |
Zhang et al. | A visual-inertial dynamic object tracking SLAM tightly coupled system | |
Dong et al. | Superpixel-based local features for image matching | |
CN114964206A (zh) | 一种单目视觉里程计目标位姿检测方法 | |
KR101391667B1 (ko) | 크기 변화에 강건한 범주 물체 인식을 위한 모델 학습 및 인식 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |