CN108010082A - 一种几何匹配的方法 - Google Patents

一种几何匹配的方法 Download PDF

Info

Publication number
CN108010082A
CN108010082A CN201711453410.1A CN201711453410A CN108010082A CN 108010082 A CN108010082 A CN 108010082A CN 201711453410 A CN201711453410 A CN 201711453410A CN 108010082 A CN108010082 A CN 108010082A
Authority
CN
China
Prior art keywords
pose
matching
image
collection
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711453410.1A
Other languages
English (en)
Other versions
CN108010082B (zh
Inventor
林宇
陈君钤
杨和
黄旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou Dragonfly Vision Software Technology Co Ltd
Shanghai Feel Visual Technology Co Ltd
Original Assignee
Fuzhou Dragonfly Vision Software Technology Co Ltd
Shanghai Feel Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou Dragonfly Vision Software Technology Co Ltd, Shanghai Feel Visual Technology Co Ltd filed Critical Fuzhou Dragonfly Vision Software Technology Co Ltd
Priority to CN201711453410.1A priority Critical patent/CN108010082B/zh
Publication of CN108010082A publication Critical patent/CN108010082A/zh
Application granted granted Critical
Publication of CN108010082B publication Critical patent/CN108010082B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种几何匹配的方法,根据模板图图像金字塔,训练匹配模型,在采集图的图像金字塔最顶层图像中搜索匹配位姿,将匹配位姿逐层传递给下一层图像并获取高精度匹配位姿,若图像金字塔最底层图像中匹配位姿的匹配分数大于设定阈值则匹配成功,否则匹配失败。模板图训练时,对其图像金字塔中的图像,提取一定数量的探针,采集图搜索或匹配时,利用探针的梯度信息和探针在采集图上相应位置的梯度信息计算匹配分数。采集图图像金字塔顶层搜索时,通过修改计算匹配分数的公式和改进匹配分数的计算方式,提高搜索效率,非顶层匹配时,多次迭代调整位姿中的平移、缩放、旋转,得到高精度的匹配位姿。

Description

一种几何匹配的方法
技术领域
本发明涉及一种几何匹配的方法。
背景技术
确定物体的位姿是最为常见的应用之一。当前常用的方法之一是利用归一化互相关系数(Normalized Cross-Correlation,简称NCC)判断匹配程度,从而确定物体位姿。其缺点十分明显,首先是计算量大,其次是稳定性不足。计算量巨大是因为该方法计算NCC时需要计算模板图和采集图像的卷积,关于时间复杂度的具体分析和改进可参考J.P.Lewis的论文《Fast TemplateMatching》。在实践中,可以使用图像金字塔降低时间复杂度,但依然难以达到实用性要求。稳定性不足是由于NCC使用的是二维图像本身(使用灰度值),容易受光照的影响。
另一个常用的方法是使用物体二维图像上的轮廓信息判断相关程度,从而确定物体的位姿。但当前使用的方法也存在效率低的缺点,尤其是采集图像大小远大于模板图大小时,图像金字塔层数增加虽然可以降低计算量提高效率,但图像金字塔中图像相对于原图像的缩小倍数太大,容易造成图像太模糊,从而限制了图像金字塔层数的增加。另一个存在的问题就是确定的位姿的精度太低。因为采集的图像的像素的限制,不可能得到精确的轮廓位置,所以,就难以通过轮廓信息得到精确的位姿。
发明内容
本发明要解决的技术问题,在于提供一种几何匹配的方法,提高匹配的效率以及精度,并能有效降低时间复杂度和提高匹配位姿精度,达到实时应用。
本发明是这样实现的:一种几何匹配的方法,包括如下步骤:
步骤1、建立匹配模型,获取采集图;
步骤2、建立采集图的图像金字塔,根据匹配模型进行顶层搜索,得到匹配的位姿;
步骤3、将所述匹配的位姿进行调整,之后根据该调整后的位姿进入采集图图像金字塔的下一层图像中搜索匹配分数最高的位姿,直至采集图中图像金字塔的最底层图像;
步骤4、将采集图中图像金字塔的最底层图像计算得到的最高的匹配分数与设定阈值比较,若大于等于所述设定阈值,则匹配成功;否则匹配失败。
进一步地,所述匹配模型建立方法为:输入模板图,建立模板图的图像金字塔,对每层图像金字塔进行遍历,提取复数个探针probe(xi,yi,ρi,θi),即得到每一层的匹配模型。
进一步地,所述探针的提取方法为:通过先获取模板图的图像金字塔中每层的图像中所有的轮廓点作为探针的位置,然后,根据各探针的位置,获取各自的梯度信息;轮廓图像可以通过Canny滤波得到,梯度图像可以通过Sobel滤波得到。
进一步地,所述步骤2中根据匹配模型进行顶层搜索进一步具体为:根据设定的匹配参数以及匹配模型进行顶层搜索。
进一步地,所述匹配参数包括:位姿的缩放比例、旋转角度以及平移的范围。
进一步地,所述步骤2进一步具体为:建立采集图的图像金字塔,从采集图的图像金字塔的最顶层图像中搜索匹配位姿(x,y,s,α),模板图经过训练后,共有N个探针,第i个探针的位置是(xi,yi)、梯度是(ρi,θi),对于采集图上物体的一位姿(x,y,s,α),该位姿下,第i个探针在采集图上对应的位置是:采集图的梯度图上对应于位置(x′i,y′i)的梯度是(ρ′i,θ′i),计算该位姿(x,y,s,α)匹配分数score,其计算公式为:
获取匹配分数最高的位姿。
进一步地,所述步骤2中,计算采集图的图像金字塔顶层图像的匹配分数时,将幅值删除,其梯度的计算时,角度θ通过四舍五入取整数,这样余弦函数的绝对值|cos(θ′ii+α)|改成查表AbsCosTable(θ′ii+α),预先制作余弦值表AbsCosTable,角度取值限制在一个周期内,大于等于0且小于360,即θ′i,θi-α∈[0,360),那么θ′ii+α∈(-360,360),所以AbsCosTable的长度为719,且计算公式为:
AbsCosTable[i]=|cosi|,i=-359,-358,...,359
于是顶层某个探针匹配分数的计算公式:
scorei=AbsCosTable(θ′ii+α)。
进一步地,所述步骤3中将所述匹配分数最高的位姿进行调整进一步具体为:
设定一误差值TINY,将所述匹配分数最高的位姿Pose(x,y,s,α)取出,
先进行平移,每次调整取邻近(n+1)2个像素中匹配程度最好的位姿,即(x,y)∈[x-n,x+n]×[y-n,y+n],保持Pose(x,y,s,α)中s和α不变,本次的调整得到Pose(x′,y′,s,α),调整差值deltaXY=max(|x′-x|,|y′-y|);
之后进行缩放,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s,α)中x′,y′,α不变,本次调整得到Pose(x′,y′,s′,α),调整差值deltaScale=|s-s′|;
最后进行旋转,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s′,α)中x′,y′,s′不变,本次调整得到Pose(x′,y′,s′,α′),调整差值deltaAngle=|α-α′|;
反复按顺序分别调整位姿中平移、缩放、旋转,直到调整差值deltaXY、deltaScale、deltaAngle都小于TINY。
本发明具有如下优点:本发明一种几何匹配的方法,提高查找效率和精度,能有效降低时间复杂度和提高匹配位姿精度,满足了大部分实际应用的要求。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1为本发明方法的流程图。
图2为本发明训练流程图。
图3为本发明建立图像金字塔流程图。
图4为本发明提取探针流程图。
图5为本发明提取探针模板图。
图6为本发明提取探针模板的模板训练示意图。
图7为本发明匹配位资流程图。
图8为本发明顶层搜索的流程图
图9为本发明高精度匹配流程图。
具体实施方式
如图1所示,本发明几何匹配的方法,包括如下步骤:
步骤1、建立匹配模型,所述匹配模型建立方法为:输入模板图,建立模板图的图像金字塔,对每层图像金字塔进行遍历,提取复数个探针Probe(xi,yi,ρi,θi),即得到每一层的匹配模型,所述探针的提取方法为:通过先获取模板图的图像金字塔中每层的图像中所有的轮廓点作为探针的位置,然后,根据各探针的位置,获取各自的梯度信息;轮廓图像可以通过Canny滤波得到,梯度图像可以通过Sobel滤波得到;
步骤2、建立采集图的图像金字塔,从采集图的图像金字塔的最顶层图像中根据设定的匹配参数以及匹配模型进行顶层搜索,得到匹配的位姿(x,y,s,α),模板图经过训练后,共有N个探针,第i个探针的位置是(xi,yi)、梯度是(ρi,θi),对于采集图上物体的一位姿(x,y,s,α),该位姿下,第i个探针在采集图上对应的位置是:采集图的梯度图上对应于位置(x′i,y′i)的梯度是(ρ′i,θ′i),计算该位姿(x,y,s,α)匹配分数score,其计算公式为:
获取匹配分数最高的位姿。
在计算采集图的图像金字塔顶层图像的匹配分数时,将幅值删除,其梯度的计算时,角度θ通过四舍五入取整数,这样余弦函数的绝对值|cos(θ′ii+α)|改成查表AbsCosTable(θ′ii+α),预先制作余弦值表AbsCosTable,角度取值限制在一个周期内,大于等于0且小于360,即θ′i,θi-α∈[0,360),那么θ′ii+α∈(-360,360),所以AbsCosTable的长度为719,且计算公式为:
AbsCosTable[i]=|cosi|,i=-359,-358,...,359
于是顶层某个探针匹配分数的计算公式:
scorei=AbsCosTable(θ′ii+α),
所述匹配参数包括:位姿的缩放比例、旋转角度以及平移的范围;
步骤3、设定一误差值TINY,将所述匹配分数最高的位姿Pose(x,y,s,α)取出,
先进行平移,每次调整取邻近(n+1)2个像素中匹配程度最好的位姿,即(x,y)∈[x-n,x+n]×[y-n,y+n],保持Pose(x,y,s,α)中s和α不变,本次的调整得到Pose(x′,y′,s,α),调整差值deltaXY=max(|x′-x|,|y′-y|);
之后进行缩放,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s,α)中x′,y′,α不变,本次调整得到Pose(x′,y′,s′,α),调整差值deltaScale=|s-s′|;
最后进行旋转,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s′,α)中x′,y′,s′不变,本次调整得到Pose(x′,y′,s′,α′),调整差值deltaAngle=|α-α′|;
反复按顺序分别调整位姿中平移、缩放、旋转,直到调整差值deltaXY、deltaScale、deltaAngle都小于TINY,之后根据该调整后的位姿进入采集图图像金字塔的下一层图像中搜索匹配分数最高的位姿,直至采集图中图像金字塔的最底层图像;
步骤4、将采集图中图像金字塔的最底层图像计算得到的最高的匹配分数与设定阈值比较,若大于等于所述设定阈值,则匹配成功;否则匹配失败。
术语约定
几何模板匹配:本文提出的算法的名称,简称为几何匹配。
模板、模型:给定物体的标准图像,可以是拍摄得到的照片,也可以是利用作图软件等工具制作得到的二维图像。也称为模板图或模型图。
图像金字塔:二维图像通过重采样缩小到原来的0.25倍(长宽各0.5倍),对得到的图像,重复这一重采样过程,得到的二维图像序列即称为图像金字塔。如果图像金字塔的层数是N,就需要执行重采样N-1次。
位姿(Pose):物体的位置和姿态。位置是物体相对于坐标系原点的平移,可用向量(x,y)表示。姿态包括物体相对于给定模型的的缩放比例和旋转角度,可用(scale,angle)表示,在不致歧义时,简单表示为(s,a)。位姿就可表示为(x,y,scale,angle),在不致歧义时,简单表示为(x,y,s,α),其中各分量的顺序可以是任意的。
梯度(Gradient):对二维图像(通常是灰度图)执行差分,得到梯度图。梯度可表示为(dx,dy),如果转换成极坐标,可表示为(ρ,θ),其中ρ是幅值(模),θ是角度。
sinθ:θ的三角函数正弦值
cosθ:θ的三角函数余弦值
矩阵
min(a,b):取两个数a,b的较小值。
[0,255]:闭区间,表示取值大于等于0且小于等于255
(0,255):开区间,表示取值大于0且小于255
[x1,x2]×[y1,y2]:区间的笛卡儿积,即二维区域
gray[idx]:数组下标访问
如图1所示,几何匹配算法一共由两个独立的子模块组成,训练模块和匹配模块。其运行分为两个阶段,训练阶段和匹配阶段。训练阶段可线下完成,即,可以在采集图像前利用预先采集或者制作的图像训练。匹配参数包括了物体在采集图中的位姿的缩放比例、旋转角度和平移的可能范围。
训练模块
如图2所示,模板的训练需要先建立模板图的图像金字塔,然后,遍历图像金字塔每一层的图像,对于每一层图像提取探针。图像金字塔取N层(包括模板图原图),对应于这N层图像,训练后得到了N个探针集,这N个探针集就是线上匹配时使用的匹配模型,其中N通常取大于1小于8的整数。
建立图像金字塔
如图3所示,这里使用的建立图像金字塔的方法和通用做法相同,这里只做简单说明。假设需要建立包括原图在内共5层的图像金字塔。先把原图作为图像金字塔的第1层图像,第2层图像通过对第1层图像执行缩放0.25倍(长宽各0.5倍)的重采样得到,第3层图像由第2层图像重采样得到,以此类推得到共5层的图像金字塔。
提取探针
如图4至6所示,探针用于计算匹配相关程度,包括位置(x,y)和梯度(ρ,θ),可表示为Probe(x,y,ρ,θ)。提取探针的方法是先获取模板图像(这里的模板图像是指原模板图的图像金字塔中任意一层的图像)中轮廓点作为探针的位置,然后,根据各探针的位置,获取各自的梯度信息。轮廓图像可以通过Canny滤波得到,梯度图像可以通过Sobel滤波得到。Canny滤波得到的轮廓图像及Sobel滤波得到的梯度图像和模板图像的尺寸是一样的。轮廓图像上标记为轮廓的点的位置就是模板图像上轮廓的位置,其相应的梯度信息也在梯度图像相同的位置上。
匹配模块
如图7所示,匹配主要分为三个步骤。先建立采集图的图像金字塔,其层数跟训练时的模板图图像金字塔一样。然后利用训练得到的匹配模型中图像金字塔最顶层对应的探针集在采集图的图像金字塔最顶层图像中搜索匹配位姿。最后,利用匹配模型在采集图图像金字塔除顶层外的其他层调整位姿,到了最底层就可以获得精确的匹配位姿。
顶层搜索
如图8所示,顶层搜索是指图像金字塔顶层搜索匹配位姿,是匹配主流程效率的关键。这里给出一个快速搜索到潜在匹配的方法。不致歧义时,以下图像金字塔顶层简称为顶层。
匹配物体在采集图中可能出现缩放、旋转、平移。缩放、旋转和平移的范围由输入匹配参数指定。这里不失一般地考虑单个连续的范围,即假设匹配位姿Pose(x,y,s,α)的可能范围是:
Pose(x,y,s,α)∈[1,W]×[1,H]×[smin,smax]×[rmin,rmax]
计算匹配程度的公式:
可以针对上述两个方面提升搜索效率。
位姿范围包括缩放、旋转、平移的范围。缩放倍数的步长必须使80%的探针位置的偏移不超过3个像素。若所有探针位置的几何中心是cprobe,80%的探针都落在几何中心为圆心半径cprobe的圆内,缩放倍数步长steps,则有:
rprobesteps=3
一样的原理可以得到旋转角度步长,其中stepr是弧度:
rprobestepr=3
在平移上,可以取3个像素为步长。每个点代表自身和8个邻接点,8个邻接点是指以像素为单位的上、下、左、右、左上、左下、右上、右下8个点。
顶层的位姿Pose(x,y,s,α)取值范围:
x=2,5,8,...,W
y=2,5,8,...,H
s=smin,smin+steps,...,smax
α=rmin,rmin+stepr,...,rmax
接下来针对计算某个位姿的匹配程度提高速度。
某个探针匹配分数的计算公式:
因为顶层只需要获取潜在的匹配位姿,不要求其精度,所以幅值部分可直接省去。梯度的计算时,角度θ通过四舍五入取整数,这样余弦函数的绝对值|cos(θ′ii+α)|改成查表AbsCosTable(θ′ii+α)。余弦值表AbsCosTable可线下算好并保存,线上运行时载入内存。角度取值限制在一个周期内,大于等于0且小于360,即θ′i,θi-α∈[0,360),那么θ′ii+α∈(-360,360),所以AbsCosTable的长度为719,且计算公式为:
AbsCosTable[i]=|cosi|,i=-359,-358,...,359
于是顶层某个探针匹配分数的计算公式:
scorei=AbsCosTable(θ′ii+α)。
高精度匹配
如图9所示,顶层搜索的位姿需要逐步传递到下一层图像金字塔,直到图像金字塔的最底层,从而得到采集图原图上的位姿。
将位姿传递给下一层,需要把位姿Posel(xl,yl,sl,αl)中的定位(xl,yl)乘以2,而(sl,αl)保持不变,即下一层位姿为Posel+1(xl+1,yl+1,sl+1,αl+1)=Posel(2xl,2yl,sl,αl)。因为图像金字塔相邻层之间存在模糊,上层图像的1个像素代表了下层图像的4个像素,所以,从上层获得的位姿精确度不够。高精度匹配的作用就是在每一次位姿传递时,快速提高位姿的精度。
位姿包括了缩放、旋转、平移,为提高精度,可以获取邻近所有位姿的匹配得分后取匹配程度最好的位姿,但这种方法效率太低,且精度也不理想,所以要分开处理分别调整。
对于位姿Pose(x,y,s,α),想要提高精度,使得误差达到一个很小的数TINY,通常取TINY=0.001。此时位置(x,y)取像素大小为步长,缩放比例s的步长scaleStep和旋转角度α的步长angleStep计算方式和顶层搜索时一样。
位姿包括了缩放、旋转、平移,为提高精度,可以获取邻近所有位姿的匹配得分后取匹配程度最好的位姿,但这种方法效率太低,且精度也不理想,所以要分开处理分别调整。
对于位姿Pose(x,y,s,α),想要提高精度,使得误差达到一个很小的数TINY,通常取TINY=0.001。此时位置(x,y)取像素大小为步长,缩放比例s的步长scaleStep和旋转角度α的步长angleStep计算方式和顶层搜索时一样。
对平移,每次调整取邻近(n+1)2个像素中匹配程度最好的位姿,其中n大于2且小于7的整数,即(x,y)∈[x-n,x+n]×[y-n,y+n],保持Pose(x,y,s,α)中s和α不变。本次的调整得到Pose(x′,y′,s,α),调整差值deltaXY=max(|x′-x|,|y′-y|)。
对缩放,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y',s,α)中x',y′,α不变。本次调整得到Pose(x′,y′,s′,α),调整差值deltaScale=|s-s′|。
对旋转,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即α=α-n*angleStep,α-(n-1)*angleStep,...,α+n*angleStep,保持Pose(x′,y′,s′,α)中x′,y′,s′不变。本次调整得到Pose(x′,y′,s′,α′),调整差值deltaAngle=|α-α′|。
反复按顺序分别调整位姿中平移、缩放、旋转,直到调整差值deltaXY、deltaScale、deltaAngle都小于TINY就结束此过程。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。

Claims (8)

1.一种几何匹配的方法,其特征在于:包括如下步骤:
步骤1、建立匹配模型,获取采集图;
步骤2、建立采集图的图像金字塔,根据匹配模型进行顶层搜索,得到匹配的位姿;
步骤3、将所述匹配的位姿进行调整,之后根据该调整后的位姿进入采集图图像金字塔的下一层图像中搜索匹配分数最高的位姿,直至采集图中图像金字塔的最底层图像;
步骤4、将采集图中图像金字塔的最底层图像计算得到的最高的匹配分数与设定阈值比较,若大于等于所述设定阈值,则匹配成功;否则匹配失败。
2.如权利要求1所述的一种几何匹配的方法,其特征在于:所述匹配模型建立方法为:输入模板图,建立模板图的图像金字塔,对每层图像金字塔进行遍历,提取复数个探针Probe(xi,yi,ρi,θi),即得到每一层的匹配模型。
3.如权利要求2所述的一种几何匹配的方法,其特征在于:所述探针的提取方法为:通过先获取模板图的图像金字塔中每层的图像中所有的轮廓点作为探针的位置,然后,根据各探针的位置,获取各自的梯度信息;轮廓图像可以通过Canny滤波得到,梯度图像可以通过Sobel滤波得到。
4.如权利要求1所述的一种几何匹配的方法,其特征在于:所述步骤2中根据匹配模型进行顶层搜索进一步具体为:根据设定的匹配参数以及匹配模型进行顶层搜索。
5.如权利要求4所述的一种几何匹配的方法,其特征在于:所述匹配参数包括:位姿的缩放比例、旋转角度以及平移的范围。
6.如权利要求1所述的一种几何匹配的方法,其特征在于:所述步骤2进一步具体为:建立采集图的图像金字塔,从采集图的图像金字塔的最顶层图像中搜索匹配位姿(x,y,s,α),模板图经过训练后,共有N个探针,第i个探针的位置是(xi,yi)、梯度是(ρi,θi),对于采集图上物体的一位姿(x,y,s,α),该位姿下,第i个探针在采集图上对应的位置是:采集图的梯度图上对应于位置(x′i,y′i)的梯度是(ρ′i,θ′i),计算该位姿(x,y,s,α)匹配分数score,其计算公式为:
<mrow> <mi>s</mi> <mi>c</mi> <mi>o</mi> <mi>r</mi> <mi>e</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mfrac> <msubsup> <mi>&amp;rho;</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <msub> <mi>&amp;rho;</mi> <mi>i</mi> </msub> </mfrac> <mo>,</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>|</mo> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msubsup> <mi>&amp;theta;</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>;</mo> </mrow>
获取匹配分数最高的位姿。
7.如权利要求6所述的一种几何匹配的方法,其特征在于:所述步骤2中,计算采集图的图像金字塔顶层图像的匹配分数时,将幅值删除,其梯度的计算时,角度θ通过四舍五入取整数,这样余弦函数的绝对值|cos(θi'-θi+α)|改成查表AbsCosTable(θi'-θi+α),预先制作余弦值表AbsCosTable,角度取值限制在一个周期内,大于等于0且小于360,即θi',θi-α∈[0,360),那么θi'-θi+α∈(-360,360),所以AbsCosTable的长度为719,且计算公式为:
AbsCosTable[i]=|cosi|,i=-359,-358,...,359
于是顶层某个探针匹配分数的计算公式:
scorei=AbsCosTable(θi'-θi+α)。
8.如权利要求1所述的一种几何匹配的方法,其特征在于:所述步骤3中将所述匹配分数最高的位姿进行调整进一步具体为:
设定一误差值TINY,将所述匹配分数最高的位姿Pose(x,y,s,α)取出,
先进行平移,每次调整取邻近(n+1)2个像素中匹配程度最好的位姿,即(x,y)∈[x-n,x+n]×[y-n,y+n],保持Pose(x,y,s,α)中s和α不变,本次的调整得到Pose(x′,y′,s,α),调整差值deltaXY=max(|x′-x|,|y′-y|);
之后进行缩放,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s,α)中x′,y′,α不变,本次调整得到Pose(x′,y′,s′,α),调整差值deltaScale=|s-s′|;
最后进行旋转,每次调整取邻近2n+1个步长中匹配程度最好的位姿,即s=s-n*scaleStep,s-(n-1)*scaleStep,...,s+n*scaleStep,保持Pose(x′,y′,s′,α)中x′,y′,s′不变,本次调整得到Pose(x′,y′,s′,α′),调整差值deltaAngle=|α-α′|;
反复按顺序分别调整位姿中平移、缩放、旋转,直到调整差值deltaXY、deltaScale、deltaAngle都小于TINY。
CN201711453410.1A 2017-12-28 2017-12-28 一种几何匹配的方法 Active CN108010082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711453410.1A CN108010082B (zh) 2017-12-28 2017-12-28 一种几何匹配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711453410.1A CN108010082B (zh) 2017-12-28 2017-12-28 一种几何匹配的方法

Publications (2)

Publication Number Publication Date
CN108010082A true CN108010082A (zh) 2018-05-08
CN108010082B CN108010082B (zh) 2021-07-23

Family

ID=62062011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711453410.1A Active CN108010082B (zh) 2017-12-28 2017-12-28 一种几何匹配的方法

Country Status (1)

Country Link
CN (1) CN108010082B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363235A (zh) * 2019-06-29 2019-10-22 苏州浪潮智能科技有限公司 一种高分辨率图像匹配方法及系统
CN110706285A (zh) * 2019-10-08 2020-01-17 中国人民解放军陆军工程大学 基于cad模型的物体位姿预测方法
CN110728326A (zh) * 2019-10-15 2020-01-24 易思维(杭州)科技有限公司 一种带旋转的边缘模板匹配方法
CN111161289A (zh) * 2019-12-26 2020-05-15 杭州格像科技有限公司 图像中物体轮廓精度提升方法、装置和计算机程序产品
CN112329880A (zh) * 2020-11-18 2021-02-05 德中(天津)技术发展股份有限公司 一种基于相似性度量和几何特征的模板快速匹配方法
CN113643370A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种基于ncc算法的图像定位方法与装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021389A (ja) * 1996-07-03 1998-01-23 Mitsubishi Electric Corp テンプレートマッチング方法およびその装置
CN101739658A (zh) * 2008-11-06 2010-06-16 索尼株式会社 图像处理装置、图像处理方法及程序
CN102654902A (zh) * 2012-01-16 2012-09-05 江南大学 基于轮廓向量特征的嵌入式实时图像匹配方法
CN105261012A (zh) * 2015-09-25 2016-01-20 上海瑞伯德智能系统科技有限公司 基于Sobel向量的模板匹配方法
CN103679702B (zh) * 2013-11-20 2016-08-31 华中科技大学 一种基于图像边缘矢量的匹配方法
CN105930858A (zh) * 2016-04-06 2016-09-07 吴晓军 一种带旋转、缩放的快速高精度几何模板匹配方法
CN106127261A (zh) * 2016-07-01 2016-11-16 深圳元启智能技术有限公司 一种快速多分辨率灰度图像模板匹配方法
CN107316315A (zh) * 2017-05-04 2017-11-03 佛山市南海区广工大数控装备协同创新研究院 一种基于模板匹配的目标识别定位方法
CN107657275A (zh) * 2017-09-20 2018-02-02 电子科技大学 基于改进bing算法的车牌预检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021389A (ja) * 1996-07-03 1998-01-23 Mitsubishi Electric Corp テンプレートマッチング方法およびその装置
CN101739658A (zh) * 2008-11-06 2010-06-16 索尼株式会社 图像处理装置、图像处理方法及程序
CN102654902A (zh) * 2012-01-16 2012-09-05 江南大学 基于轮廓向量特征的嵌入式实时图像匹配方法
CN103679702B (zh) * 2013-11-20 2016-08-31 华中科技大学 一种基于图像边缘矢量的匹配方法
CN105261012A (zh) * 2015-09-25 2016-01-20 上海瑞伯德智能系统科技有限公司 基于Sobel向量的模板匹配方法
CN105930858A (zh) * 2016-04-06 2016-09-07 吴晓军 一种带旋转、缩放的快速高精度几何模板匹配方法
CN106127261A (zh) * 2016-07-01 2016-11-16 深圳元启智能技术有限公司 一种快速多分辨率灰度图像模板匹配方法
CN107316315A (zh) * 2017-05-04 2017-11-03 佛山市南海区广工大数控装备协同创新研究院 一种基于模板匹配的目标识别定位方法
CN107657275A (zh) * 2017-09-20 2018-02-02 电子科技大学 基于改进bing算法的车牌预检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANISH ACHARYA: "Template Matching based Ob ject Detection Using HOG Feature Pyramid", 《ARXIV》 *
FAWAZ ALSAADE: "Fast and Accurate Template Matching Algorithm Based on Image Pyramid and Sum of Absolute Difference Similarity Measure", 《RESEARCH JOURNAL OF INFORMATION TECHNOLOGY》 *
隋龙 等: "高速启发式金字塔模板匹配算法", 《仪器仪表学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363235A (zh) * 2019-06-29 2019-10-22 苏州浪潮智能科技有限公司 一种高分辨率图像匹配方法及系统
CN110363235B (zh) * 2019-06-29 2021-08-06 苏州浪潮智能科技有限公司 一种高分辨率图像匹配方法及系统
US12062223B2 (en) 2019-06-29 2024-08-13 Inspur Suzhou Intelligent Technology Co., Ltd. High-resolution image matching method and system
CN110706285A (zh) * 2019-10-08 2020-01-17 中国人民解放军陆军工程大学 基于cad模型的物体位姿预测方法
CN110728326A (zh) * 2019-10-15 2020-01-24 易思维(杭州)科技有限公司 一种带旋转的边缘模板匹配方法
CN111161289A (zh) * 2019-12-26 2020-05-15 杭州格像科技有限公司 图像中物体轮廓精度提升方法、装置和计算机程序产品
CN111161289B (zh) * 2019-12-26 2023-08-08 杭州格像科技有限公司 图像中物体轮廓精度提升方法、装置
CN112329880A (zh) * 2020-11-18 2021-02-05 德中(天津)技术发展股份有限公司 一种基于相似性度量和几何特征的模板快速匹配方法
CN113643370A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种基于ncc算法的图像定位方法与装置
CN113643370B (zh) * 2021-08-24 2024-01-23 凌云光技术股份有限公司 一种基于ncc算法的图像定位方法与装置

Also Published As

Publication number Publication date
CN108010082B (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN108010082A (zh) 一种几何匹配的方法
CN110443836B (zh) 一种基于平面特征的点云数据自动配准方法及装置
CN108537203B (zh) 一种基于卷积神经网络的手掌关键点定位方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN106919941B (zh) 一种三维手指静脉识别方法及系统
CN102136142B (zh) 基于自适应三角形网格的非刚性医学图像配准方法
CN101398886B (zh) 一种基于双目被动立体视觉的快速三维人脸识别方法
CN102880866B (zh) 一种人脸特征提取方法
CN106780619A (zh) 一种基于Kinect深度相机的人体尺寸测量方法
CN103886611B (zh) 一种适合于航空摄影飞行质量自动检查的影像匹配方法
CN104200461B (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN104751465A (zh) 一种基于lk光流约束的orb图像特征配准方法
CN107657639A (zh) 一种快速定位目标的方法和装置
CN106919944A (zh) 一种基于orb算法的大视角图像快速识别方法
CN103136525B (zh) 一种利用广义Hough变换的异型扩展目标高精度定位方法
CN108010123A (zh) 一种保留拓扑信息的三维点云获取方法
CN103295239A (zh) 一种基于平面基准影像的激光点云数据的自动配准方法
CN106023187A (zh) 一种基于sift特征和角度相对距离的图像配准方法
CN107833250A (zh) 语义空间地图构建方法及装置
CN112163588A (zh) 基于智能进化的异源图像目标检测方法、存储介质及设备
CN107025449A (zh) 一种视角不变局部区域约束的倾斜影像直线特征匹配方法
CN103714547A (zh) 一种结合边缘区域和互相关的图像配准方法
CN109117851A (zh) 一种基于网格统计约束的视频图像匹配方法
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant