CN106919944B - 一种基于orb算法的大视角图像快速识别方法 - Google Patents

一种基于orb算法的大视角图像快速识别方法 Download PDF

Info

Publication number
CN106919944B
CN106919944B CN201710044944.2A CN201710044944A CN106919944B CN 106919944 B CN106919944 B CN 106919944B CN 201710044944 A CN201710044944 A CN 201710044944A CN 106919944 B CN106919944 B CN 106919944B
Authority
CN
China
Prior art keywords
image
point
matching
coordinate system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710044944.2A
Other languages
English (en)
Other versions
CN106919944A (zh
Inventor
陈艳
曾庆化
王云舒
刘建业
刘昇
潘鹏举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710044944.2A priority Critical patent/CN106919944B/zh
Publication of CN106919944A publication Critical patent/CN106919944A/zh
Application granted granted Critical
Publication of CN106919944B publication Critical patent/CN106919944B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于ORB算法的大视角图像快速识别方法,建立透视变换模型,模拟可能的视角变换,基于目标图像生成模拟图像集,用尺度不变ORB算法对模拟图像和基准图像进行粗匹配,当匹配点对达到要求时,停止粗匹配,用双向匹配的方法筛选粗匹配中所有匹配点对,根据筛选后的特征点对集合采用RANSAC算法求得基准图像与目标图像间的单应性矩阵,基于单应性矩阵对目标图像进行重采样,利用重采样图像与基准图像进行尺度不变ORB匹配,最终实现目标图像与基准图像的精匹配。本发明可以在大视角变换下正常工作,具备抗视角变换能力,实时性强,具有较高的工程使用价值。

Description

一种基于ORB算法的大视角图像快速识别方法
技术领域
本发明属于计算机视觉技术领域,特别涉及了一种基于ORB算法的大视角图像快速识别方法。
背景技术
图像匹配技术在很多领域都有广泛的应用,大约有40%的计算机视觉应用中都会用到图像匹配技术。人脸识别、指纹识别、笔迹识别、机器人定位等技术已经广泛应用到社会生活中,其安全性与图像匹配算法的性能有着不可分割的联系。在军事、工业和精密农业等领域中,拥有高精度优点的景象匹配技术是发展主流。巡航导弹就是应用景象匹配技术来实现匹配制导的典型例子,且制导系统的性能决定了巡航导弹的制导精度,而巡航导弹末端制导系统的重要组成部分是景象匹配技术。提高景象匹配技术的匹配性能提高工作任务系统的精确率和准确率。
经典的图像匹配算法可分为基于灰度信息的图像匹配算法、基于变换域的图像匹配算法和基于特征的图像匹配算法。基于特征的图像匹配算法是通过图像上有代表性的特征信息,如点、线、面等,进行图像间匹配的算法,主要分为特征提取、特征描述和特征匹配三部分。优秀的不变特征量至少满足三个不变性,即平移不变性、旋转不变性和缩放不变性,这样基于特征的方法具有更强的普适性和稳健性,不仅对同源图像间的匹配效果很好,对异源图像之间的匹配效果较好。基于特征的图像匹配算法操作相对简单,计算量比较少,有一定的抗噪声、抗形变能力,是当前图像匹配技术的主流方向。
目前,国内外学者对大视角图像匹配算法有着广泛而深入的研究。国外,MSER、Harris-Affine、Hessian-Affine、ASIFT等算法均实现了尺度不变性和一定程度的仿射不变性,能够在大视角差异下正常工作。国内,中国矿业大学、河南理工大学、国防科大、上海大学、长春光学精密机械与物理研究所等均提出了相关算法,可以在一定大视角情况获得较好的效果。上述算法可以在一定大视角情况获得较好的效果,但是匹配速度慢,提高匹配算法的速度就成了关键。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于ORB算法的大视角图像快速识别方法,该方法结合了透视变换模型和ORB算法,在粗匹配算法获得单应性矩阵基础上进行精匹配,有效减少了模拟次数,并提高了算法运算效率。
为了实现上述技术目的,本发明的技术方案为:
一种基于ORB算法的大视角图像快速识别方法,包括以下步骤:
(1)建立世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV,设物体平面位于世界坐标系W-XwYwZw中XwWYw平面的中心,根据相机成像原理和世界坐标系W-XwYwZw与相机坐标系C-XcYcZc的位置关系,建立透视变换模型,用于表征同一点在图像坐标系O-UV与世界坐标系W-XwYwZw中的对应关系;
(2)通过采样的方式设置透视变换模型的相机外参参数,获得不同的透视变换矩阵,对目标图像O进行透视变换,得到模拟图像集S;
(3)按顺序选择模拟图像集S中的某一子图Si,对子图Si和基准图像B进行尺度不变ORB特征提取与描述,采用最小汉明距离度量特征点间的相似性进行粗匹配,将子图Si中粗匹配点映射到目标图像O中,保存目标图像O中粗匹配点位置及其描述符至匹配点对集D1、基准图像B中粗匹配点的位置及其描述符至匹配点对集D2
(4)当子图Si与基准图像B的粗匹配点对达到设定对数N时,停止粗匹配,进入步骤(5);若子图Si不为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,重新选择模拟图像集S中的子图S′i,返回步骤(3),若子图Si为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,则算法失效;
(5)对匹配点对集D1、D2中所有特征点进行双向匹配以筛除错误匹配点对,得到筛除后的特征点对集T1、T2,根据T1和T2,利用RANSAC算法获取基准图像B和目标图像O之间的单应性矩阵H,并对目标图像O进行重采样,获得重采样图像R;
(6)对重采样图像R和基准图像B进行尺度不变ORB特征提取与描述,根据最近次临近原则,采用最小汉明距离度量特征点间的相似性完成精匹配;利用单应性矩阵H将重采样图像R和基准图像B的匹配结果投影到基准图像B和目标图像O中。
进一步地,在步骤(1)中,根据相机成像原理,同一点p在世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV的位置关系如下:
Figure BDA0001214796560000031
上式中,
Figure BDA0001214796560000032
为点p在图像坐标系O-UV上的坐标,
Figure BDA0001214796560000033
为点p在相机坐标系C-XcYcZc上的坐标,
Figure BDA0001214796560000034
为点p在世界坐标系W-XwYwZw上的坐标;sa是尺度因子;K3×3是相机内参,通过相机标定获得;
Figure BDA0001214796560000035
Figure BDA0001214796560000036
是相机外参旋转矩阵Ra的前两列,
Figure BDA0001214796560000037
是相机外参平移矩阵,由相机坐标系和世界坐标系的位置关系确定;
Figure BDA0001214796560000038
为单应性矩阵;
设相机光轴CZc在XwWZw平面的投影与WZw的夹角为θ,相机光轴CZc与XwWZw平面的夹角为
Figure BDA0001214796560000039
相机绕光轴CZc的旋转角度为γ,则相机外参旋转矩阵Ra和相机外参平移矩阵
Figure BDA00012147965600000310
Figure BDA0001214796560000041
Figure BDA0001214796560000042
上式中,Ci表示cosi,Sγ表示sini,
Figure BDA0001214796560000043
r为相机到世界坐标系原点的距离;
将式(2)、(3)代入式(1)中,得到透视变换模型
Figure BDA0001214796560000044
进一步地,在步骤(2)中,透视变换模型中相机外参参数
Figure BDA0001214796560000045
θ、γ的采样方式如下:
Figure BDA0001214796560000046
Figure BDA0001214796560000047
θ∈[0,2π),γ∈[0,2π)
上式中,b为设定的常数,决定了采样间隔。
进一步地,在步骤(3)中,建立多尺度空间,获得不同尺度下像素点的Hessian矩阵行列式,将尺度空间中的Hessian矩阵的行列式局部极值点作为特征点,依据灰度质心法获得特征点的主方向,将特征点位置与其主方向输入ORB描述符获得尺度不变ORB特征点描述符。
进一步地,利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
Figure BDA0001214796560000048
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩
Figure BDA0001214796560000049
表示该局部区域总的灰度值,局部区域一阶灰度矩
Figure BDA00012147965600000410
Figure BDA00012147965600000411
用于确定局部区域的灰度质心C:
Figure BDA0001214796560000051
特征点的主方向为:
θ=arctan(m01,m10) (6)
进一步地,设I(x,y)表示图像,(x,y)表示图像中某一点,尺度为σ的Hessian矩阵:
Figure BDA0001214796560000052
上式中,Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ)是高斯滤波后的图像点(x,y)的二阶导数,
Figure BDA0001214796560000053
Figure BDA0001214796560000054
用方框滤波器与图像I(x,y)的卷积Dxx(x,y,σ)、Dxy(x,y,σ)、Dyy(x,y,σ)近似代替Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ),将Hessian矩阵近似表示:
Figure BDA0001214796560000055
采用行列式
Figure BDA0001214796560000056
作为检测值,将每个像素点的
Figure BDA0001214796560000057
与在尺度空间邻域内所有点的
Figure BDA0001214796560000058
进行比较,将其中
Figure BDA0001214796560000059
最大的点作为特征点。
进一步地,行列式
Figure BDA00012147965600000510
其中Dxx、Dyy、Dxy即为Dxx(x,y,σ)、Dxy(x,y,σ)、Dyy(x,y,σ),ω是为补偿近似所产生的误差而设定的比例因子。
进一步地,在步骤(5)中,获取基准图像B和目标图像O之间的单应性矩阵H的过程:
在特征点对集T1中随机选取4个特征点,要求其中3个特征点为非共线的,根据这4个点及其对应的T2中的点获得变换矩阵,即初始单应性矩阵;然后将T1中的其他各点通过变换矩阵变换得到点集temp_T1,求得T2中各点与temp_T1中对应点的误差;当误差小于设定值时,该点为内点,统计初始单应性矩阵下的内点数目;重复前述过程,选择内点数最多时的初始单应性矩阵为所求的单应性矩阵H。
采用上述技术方案带来的有益效果:
本发明采用的基于球坐标系的透视变换模型,从相机成像原理出发,将相机内参带入模型中,与传统的仿射变换模型相比,更能够描述三维场景到二维图像的映射,更精确。
本发明采用基于单应性矩阵的精匹配算法,有效减少模拟视角变换的次数,加快了算法运算效率;先筛除错误匹配点对再采用RANSAC算法计算单应性矩阵,不存在由于采样间隔选取产生的图像模拟误差,更精确地描述基准图像和目标图像坐标间的对应关系,提高了匹配正确率。
附图说明
图1是本发明的整体流程示意图。
图2是摄像机成像模型。
图3是基于球坐标的透视变换模型。
图4是方框滤波器示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
一种基于ORB算法的大视角图像快速识别方法,如图1所示,利用目标图像根据透视变换模型和其采样参数生成一组模拟图像,依次对基准图像和模拟图像集中子图进行粗匹配,求解单应性矩阵,根据单应性矩阵获得重采样图像,进行精匹配。下文将具体阐述本发明的过程。
步骤1:如图2所示,建立世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV,W、C、O分别为世界坐标系、相机坐标系、图像坐标系的原点,设物体平面位于世界坐标系W-XwYwZw中XwWYw平面的中心,根据相机成像原理和世界坐标系W-XwYwZw与相机坐标系C-XcYcZc的位置关系,建立基于球坐标系的透视变换模型,用于表征同一点在图像坐标系O-UV与世界坐标系W-XwYwZw中的对应关系。
根据相机成像原理,同一点p在世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV的位置关系如下:
Figure BDA0001214796560000071
上式中,
Figure BDA0001214796560000072
为点p在图像坐标系O-UV上的坐标,
Figure BDA0001214796560000073
为点p在相机坐标系C-XcYcZc上的坐标,
Figure BDA0001214796560000074
为点p在世界坐标系W-XwYwZw上的坐标;sa是尺度因子;K3×3是相机内参,通过相机标定获得;
Figure BDA0001214796560000075
Figure BDA0001214796560000076
是相机外参旋转矩阵Ra的前两列,
Figure BDA0001214796560000077
是相机外参平移矩阵,由相机坐标系和世界坐标系的位置关系确定;
Figure BDA0001214796560000078
为单应性矩阵。
世界坐标系W-XwYwZw和相机坐标系C-XcYcZc的位置关系如图3所示。相机初始位置位于世界坐标系WZw轴上,相机光轴WZw垂直于XwWYw平面,物体中心位于世界坐标系原点。设相机光轴CZc在XwWZw平面的投影与WZw的夹角为θ,相机光轴CZc与XwWZw平面的夹角为
Figure BDA0001214796560000079
相机绕光轴CZc的旋转角度为γ,则相机外参旋转矩阵Ra和相机外参平移矩阵
Figure BDA00012147965600000710
Figure BDA00012147965600000711
Figure BDA00012147965600000712
上式中,Ci表示cosi,Sγ表示sini,
Figure BDA0001214796560000081
r为相机到世界坐标系原点的距离。
将式(2)、(3)代入式(1)中,得到透视变换模型
Figure BDA0001214796560000082
步骤2:通过采样的方式设置透视变换模型的相机外参参数,获得不同的透视变换矩阵,对目标图像O进行透视变换,得到模拟图像集S。
透视变换模型中相机外参参数
Figure BDA0001214796560000083
θ、γ的采样方式如下:
Figure BDA0001214796560000084
Figure BDA0001214796560000085
θ∈[0,2π),γ∈[0,2π)
上式中,b为设定的常数,决定了采样间隔,本实施例设定b=0.4。
步骤3:按顺序选择模拟图像集S中的某一子图Si,对子图Si和基准图像B进行尺度不变ORB特征提取与描述,采用最小汉明距离度量特征点间的相似性进行粗匹配,将子图Si中粗匹配点映射到目标图像O中,保存目标图像O中粗匹配点位置及其描述符至匹配点对集D1、基准图像B中粗匹配点的位置及其描述符至匹配点对集D2
建立多尺度空间,获得不同尺度下像素点的Hessian矩阵行列式,将尺度空间中的Hessian矩阵的行列式局部极值点作为特征点,依据灰度质心法获得特征点的主方向,将特征点位置与其主方向输入ORB描述符获得尺度不变ORB特征点描述符。
利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
Figure BDA0001214796560000086
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩
Figure BDA0001214796560000091
表示该局部区域总的灰度值,局部区域一阶灰度矩
Figure BDA0001214796560000092
Figure BDA0001214796560000093
用于确定局部区域的灰度质心C:
Figure BDA0001214796560000094
特征点的主方向为:
θ=arctan(m01,m10) (6)
设I(x,y)表示图像,(x,y)表示图像中某一点,尺度为σ的Hessian矩阵:
Figure BDA0001214796560000095
上式中,Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ)是高斯滤波后的图像点(x,y)的二阶导数,
Figure BDA0001214796560000096
Figure BDA0001214796560000097
在离散的像素点中,可以用方框滤波器近似表示
Figure BDA0001214796560000098
Figure BDA0001214796560000099
方框滤波器如图4所示,各部分的权值如图标注。用方框滤波器与图像I(x,y)的卷积Dxx(x,y,σ)、Dxy(x,y,σ)、Dyy(x,y,σ)近似代替Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ),将Hessian矩阵近似表示:
Figure BDA00012147965600000910
采用行列式
Figure BDA00012147965600000911
作为检测值,定义如下:
Figure BDA00012147965600000912
其中,ω是为补偿近似所产生的误差而设定的比例因子,本实施例设定为0.9。
将每个像素点与在尺度空间邻域内26个点的
Figure BDA00012147965600000913
进行比较,提取多尺度空间图像的局部极值点作为特征点。
步骤4:当子图Si与基准图像B的粗匹配点对达到设定对数N时,停止粗匹配,进入步骤5;若子图Si不为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,重新选择模拟图像集S中的子图S′i,返回步骤3,若子图Si为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,则算法失效。
步骤5:先将粗匹配阶段获得的匹配点对集D1和D2中所有特征点进行双向匹配,即计算出D1和D2中既满足匹配映射关系{D1→D2}又满足{D2→D1}的匹配点对集合T1、T2,特征点对集T1、T2分别对应目标图像O和基准图像B。根据T1和T2利用RANSAC算法获取基准图像B和目标图像O间的单应性矩阵H。特征点对集T1、T2将粗匹配阶段所有正确匹配点对保留,增加匹配利用率,获得更精确的单应性矩阵H;再根据H进行视角变换,消除部分变形,获得重采样图像R。
在特征点对集T1中随机选取4个特征点,要求其中3个特征点为非共线的,根据这4个点及其对应的T2中的点获得变换矩阵,即初始单应性矩阵;然后将T1中的其他各点通过变换矩阵变换得到点集temp_T1,求得T2中各点与temp_T1中对应点的误差;当误差小于设定值时,该点为内点,统计初始单应性矩阵下的内点数目;重复前述过程,选择内点数最多时的初始单应性矩阵为所求的单应性矩阵H。
步骤6:对重采样图像R和基准图像B进行尺度不变ORB特征提取与描述,根据最近次临近原则,采用最小汉明距离度量特征点间的相似性完成精匹配;利用单应性矩阵H将重采样图像R和基准图像B的匹配结果投影到基准图像B和目标图像O中。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (8)

1.一种基于ORB算法的大视角图像快速识别方法,其特征在于,包括以下步骤:
(1)建立世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV,设物体平面位于世界坐标系W-XwYwZw中XwWYw平面的中心,根据相机成像原理和世界坐标系W-XwYwZw与相机坐标系C-XcYcZc的位置关系,建立透视变换模型,用于表征同一点在图像坐标系O-UV与世界坐标系W-XwYwZw中的对应关系;
(2)通过采样的方式设置透视变换模型的相机外参参数,获得不同的透视变换矩阵,对目标图像O进行透视变换,得到模拟图像集S;
(3)按顺序选择模拟图像集S中的某一子图Si,对子图Si和基准图像B进行尺度不变ORB特征提取与描述,采用最小汉明距离度量子图Si的特征点与基准图像B的特征点之间的相似性进行粗匹配,将子图Si中粗匹配点映射到目标图像O中,保存目标图像O中粗匹配点位置及其描述符至匹配点对集D1、基准图像B中粗匹配点的位置及其描述符至匹配点对集D2
(4)当子图Si与基准图像B的粗匹配点对达到设定对数N时,停止粗匹配,进入步骤(5);若子图Si不为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,重新选择模拟图像集S中的子图S′i,返回步骤(3),若子图Si为模拟图像集S中最后一幅图像,且获得的粗匹配点对少于N时,则算法失效;
(5)对匹配点对集D1、D2中所有特征点进行双向匹配以筛除错误匹配点对,得到筛除后的特征点对集T1、T2,根据T1和T2,利用RANSAC算法获取基准图像B和目标图像O之间的单应性矩阵H,并对目标图像O进行重采样,获得重采样图像R;
(6)对重采样图像R和基准图像B进行尺度不变ORB特征提取与描述,根据最近次临近原则,采用最小汉明距离度量重采样图像R的特征点与基准图像B的特征点之间的相似性完成精匹配;利用单应性矩阵H将重采样图像R和基准图像B的匹配结果投影到基准图像B和目标图像O中。
2.根据权利要求1所述基于ORB算法的大视角图像快速识别方法,其特征在于:在步骤(1)中,根据相机成像原理,同一点p在世界坐标系W-XwYwZw、相机坐标系C-XcYcZc和图像坐标系O-UV的位置关系如下:
Figure FDA0002280681390000021
上式中,
Figure FDA0002280681390000022
为点p在图像坐标系O-UV上的坐标,
Figure FDA0002280681390000023
为点p在相机坐标系C-XcYcZc上的坐标,
Figure FDA0002280681390000024
为点p在世界坐标系W-XwYwZw上的坐标;sa是尺度因子;K3×3是相机内参,通过相机标定获得;r1 a
Figure FDA0002280681390000025
是相机外参旋转矩阵Ra的前两列,
Figure FDA0002280681390000026
是相机外参平移矩阵,由相机坐标系和世界坐标系的位置关系确定;
Figure FDA0002280681390000027
为单应性矩阵;
设相机光轴CZc在XwWZw平面的投影与WZw的夹角为θ,相机光轴CZc与XwWZw平面的夹角为
Figure FDA0002280681390000028
相机绕光轴CZc的旋转角度为γ,则相机外参旋转矩阵Ra和相机外参平移矩阵
Figure FDA0002280681390000029
Figure FDA00022806813900000210
Figure FDA00022806813900000211
上式中,Ci表示cosi,Si表示sini,
Figure FDA00022806813900000212
r为相机到世界坐标系原点的距离;
将式(2)、(3)代入式(1)中,得到透视变换模型
Figure FDA00022806813900000213
3.根据权利要求2所述基于ORB算法的大视角图像快速识别方法,其特征在于:在步骤(2)中,参数
Figure FDA0002280681390000031
θ、γ的采样方式如下:
Figure FDA0002280681390000032
Figure FDA0002280681390000033
θ∈[0,2π),γ∈[0,2π)
上式中,b为设定的常数,决定了采样间隔。
4.根据权利要求1所述基于ORB算法的大视角图像快速识别方法,其特征在于:在步骤(3)中,建立多尺度空间,获得不同尺度下像素点的Hessian矩阵行列式,将尺度空间中的Hessian矩阵的行列式局部极值点作为特征点,依据灰度质心法获得特征点的主方向,将特征点位置与其主方向输入ORB描述符获得尺度不变ORB特征点描述符。
5.根据权利要求4所述基于ORB算法的大视角图像快速识别方法,其特征在于:利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
Figure FDA0002280681390000034
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩
Figure FDA0002280681390000035
表示该局部区域总的灰度值,局部区域一阶灰度矩
Figure FDA0002280681390000036
Figure FDA0002280681390000037
用于确定局部区域的灰度质心C:
Figure FDA0002280681390000038
特征点的主方向为:
θ=arctan(m01,m10) (6)。
6.根据权利要求4所述基于ORB算法的大视角图像快速识别方法,其特征在于:设I(x,y)表示图像,(x,y)表示图像中某一点,尺度为σ的Hessian矩阵:
Figure FDA0002280681390000041
上式中,Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ)是高斯滤波后的图像点(x,y)的二阶导数,
Figure FDA0002280681390000042
Figure FDA0002280681390000043
用3个方框滤波器分别近似表示
Figure FDA0002280681390000044
则用这3个方框滤波器分别与图像I(x,y)的卷积Dxx(x,y,σ)、Dxy(x,y,σ)、Dyy(x,y,σ)近似代替Lxx(x,y,σ)、Lxy(x,y,σ)、Lyy(x,y,σ),将Hessian矩阵近似表示:
Figure FDA0002280681390000045
采用行列式
Figure FDA0002280681390000046
作为检测值,将每个像素点的
Figure FDA0002280681390000047
与在尺度空间邻域内所有点的
Figure FDA0002280681390000048
进行比较,将其中
Figure FDA0002280681390000049
最大的点作为特征点。
7.根据权利要求6所述基于ORB算法的大视角图像快速识别方法,其特征在于:行列式
Figure FDA00022806813900000410
其中Dxx、Dyy、Dxy即为Dxx(x,y,σ)、Dxy(x,y,σ)、Dyy(x,y,σ),ω是为补偿近似所产生的误差而设定的比例因子。
8.根据权利要求1所述基于ORB算法的大视角图像快速识别方法,其特征在于:在步骤(5)中,获取基准图像B和目标图像O之间的单应性矩阵H的过程:
在特征点对集T1中随机选取4个特征点,要求其中3个特征点为非共线的,根据这4个点及其对应的T2中的点获得变换矩阵,即初始单应性矩阵;然后将T1中前述4个点之外的其他各点通过变换矩阵变换得到点集temp_T1,求得T2中各点与temp_T1中对应点的误差;当误差小于设定值时,T2中的该点为内点,统计初始单应性矩阵下的内点数目;重复前述过程,选择内点数最多时的初始单应性矩阵为所求的单应性矩阵H。
CN201710044944.2A 2017-01-20 2017-01-20 一种基于orb算法的大视角图像快速识别方法 Active CN106919944B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710044944.2A CN106919944B (zh) 2017-01-20 2017-01-20 一种基于orb算法的大视角图像快速识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710044944.2A CN106919944B (zh) 2017-01-20 2017-01-20 一种基于orb算法的大视角图像快速识别方法

Publications (2)

Publication Number Publication Date
CN106919944A CN106919944A (zh) 2017-07-04
CN106919944B true CN106919944B (zh) 2020-03-24

Family

ID=59454300

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710044944.2A Active CN106919944B (zh) 2017-01-20 2017-01-20 一种基于orb算法的大视角图像快速识别方法

Country Status (1)

Country Link
CN (1) CN106919944B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952299B (zh) * 2017-03-14 2019-07-16 大连理工大学 一种适用于智能移动设备的三维光场技术实现方法
CN108520502A (zh) * 2018-04-13 2018-09-11 苏州大学 一种扫描电镜图像漂移的快速矫正方法
CN110189368B (zh) * 2019-05-31 2023-09-19 努比亚技术有限公司 图像配准方法、移动终端及计算机可读存储介质
CN110536479A (zh) * 2019-08-28 2019-12-03 维沃移动通信有限公司 对象传输方法和电子设备
CN110991501B (zh) * 2019-11-19 2023-04-07 东南大学 一种基于Hessian矩阵的改进ORB特征点匹配方法
CN110992263B (zh) * 2019-11-27 2023-07-11 国网智能科技股份有限公司 一种图像拼接方法及系统
CN111596296B (zh) * 2019-12-19 2023-09-15 上海大学 一种基于前视声呐图像的水下目标跟踪方法
CN111429493B (zh) * 2020-03-20 2023-05-05 青岛联合创智科技有限公司 一种多图像间特征点匹配方法
CN111753719A (zh) * 2020-06-24 2020-10-09 上海依图网络科技有限公司 一种指纹识别方法及装置
CN111833249A (zh) * 2020-06-30 2020-10-27 电子科技大学 一种基于双向点特征的uav图像配准与拼接方法
CN111861871A (zh) * 2020-07-17 2020-10-30 浙江商汤科技开发有限公司 一种图像匹配方法及装置、电子设备和存储介质
CN112485262B (zh) * 2020-12-22 2023-08-11 常州信息职业技术学院 一种混凝土表观裂缝宽度及其扩展演化的检测方法及装置
CN114067130B (zh) * 2021-11-12 2023-01-31 中国电子科技集团公司第三十八研究所 用于机载光电图像模板匹配的特征点提取方法及系统
CN114140365B (zh) * 2022-01-27 2022-07-22 荣耀终端有限公司 基于事件帧的特征点匹配方法及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE452379T1 (de) * 2007-10-11 2010-01-15 Mvtec Software Gmbh System und verfahren zur 3d-objekterkennung
CN103839265B (zh) * 2014-02-26 2017-05-24 西安电子科技大学 基于sift和归一化互信息的sar图像配准方法
CN104751465A (zh) * 2015-03-31 2015-07-01 中国科学技术大学 一种基于lk光流约束的orb图像特征配准方法

Also Published As

Publication number Publication date
CN106919944A (zh) 2017-07-04

Similar Documents

Publication Publication Date Title
CN106919944B (zh) 一种基于orb算法的大视角图像快速识别方法
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
He et al. Sparse template-based 6-D pose estimation of metal parts using a monocular camera
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
CN112669385B (zh) 基于三维点云特征的工业机器人工件识别与位姿估计方法
US11392787B2 (en) Method for grasping texture-less metal parts based on bold image matching
Yu et al. Robust robot pose estimation for challenging scenes with an RGB-D camera
JP2009093611A (ja) 三次元オブジェクト認識のためのシステムおよび方法
CN107818598B (zh) 一种基于视觉矫正的三维点云地图融合方法
CN111768447B (zh) 一种基于模板匹配的单目相机物体位姿估计方法及系统
CN111145232A (zh) 一种基于特征信息变化度的三维点云自动配准方法
CN113160285B (zh) 一种基于局部深度图像关键性的点云匹配方法
CN108229500A (zh) 一种基于函数拟合的sift误匹配点剔除法
CN113393524B (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN114358166B (zh) 一种基于自适应k均值聚类的多目标定位方法
CN115641367A (zh) 一种基于多级特征匹配的红外和可见光图像配准方法
CN109740591A (zh) 一种仪表识别算法
Azad et al. Accurate shape-based 6-dof pose estimation of single-colored objects
Feng et al. Research on an image mosaic algorithm based on improved ORB feature combined with surf
CN114170450A (zh) 一种基于区域一致性和gms的图像特征匹配方法
Zhang et al. An improved SLAM algorithm based on feature contour extraction for camera pose estimation
Chen et al. A Framework for 3D Object Detection and Pose Estimation in Unstructured Environment Using Single Shot Detector and Refined LineMOD Template Matching
Liu et al. Target identification and location algorithm based on SURF-BRISK operator
Zhao et al. Research on Feature Matching of an Improved ORB Algorithm
Haladová et al. Multiple instances detection in rgbd images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant