CN111047614B - 一种基于特征提取的复杂场景图像的目标角点提取方法 - Google Patents
一种基于特征提取的复杂场景图像的目标角点提取方法 Download PDFInfo
- Publication number
- CN111047614B CN111047614B CN201910956300.XA CN201910956300A CN111047614B CN 111047614 B CN111047614 B CN 111047614B CN 201910956300 A CN201910956300 A CN 201910956300A CN 111047614 B CN111047614 B CN 111047614B
- Authority
- CN
- China
- Prior art keywords
- corner
- image
- target
- points
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征提取的复杂场景图像的目标角点提取方法,首先,将图像灰度化,在此基础上对图像二值化,以避免全局二值化影响局部性质,提高了二值化的准确性,利用Harris角点检测方法检测出所有可能的角点,针对每个角点提取对应的特征,包括邻域矩阵计算结果,邻域二值化黑白像素的变化特征等,在此基础上对大量的特征进行特征分析以确定目标角点的特性,最后,利用分析所得到的相关参数过滤掉不满足要求的候选角点。本方案能够准确过滤掉不满足要求的候选角点,提取出目标角点,大大提高了目标角点提取的准确性和检测效率,能够满足复杂场景图像目标角点的提取。
Description
技术领域
本发明涉及电子信息技术领域,特别是涉及一种基于特征提取的复杂场景图像的目标角点提取方法。
背景技术
图像角点检测与提取是图像处理过程中较为常见的问题。作为图像处理中的一个基本问题,如何高效提取图像,特别是具有复杂背景图像中的目标角点是一个具有现实意义的课题。图像角点提取就是给定一张图片,提取图像中的目标角点,如图1中的角点A。
当前图像角点检测方法较多,常见的角点检测方法有harris角点检测,对harris改进的Shi-Tomasi角点检测方法,Moravec角点检测方法,以及基于SUSAN算子的FAST角点检测方法等。但这些方法对于都是识别出大量的角点,如图1中,这些方法会同时识别出类似于B点的角点,需要提取的目标点A还需要做进一步优化处理,角点检测效率较低。
在现实场景中通常会遇到更复杂的背景图像,如快速找出图2中的点A、B、C、D,直接利用诸如harris等角点检测方法会产生大量的候选点,远不能满足技术要求。
发明内容
本发明的目的在于提出一种基于特征提取的复杂场景图像的目标角点提取方法,以提升角点检测效率,且满足更复杂的背景图像中目标角点的提取。
一种基于特征提取的复杂场景图像的目标角点提取方法,包括以下步骤:
S1,对待处理图像M进行图像灰度化,并在此基础上对图像二值化,灰度化图像记为A,二值化的图像记为B;
S2,将图像B划分为5×5个小区域,记为B[i,j],(i,j∈{1,2,…,5}),对图像A也做类似的处理,记为A[i,j],(i,j∈{1,2,…,5});
S3,对步骤S2中每个子区域A[i,j],(i,j∈{1,2,…,5}),跳过明显不满足要求的子区域;
S4,对于保留的子区域,利用角点检测方法检测出所有的候选角点;
S5,对于步骤S4中的每个角点,取以角点为中心半径为R从B[i,j],(i,j∈{1,2,…,5})中得到矩形邻域;
S6,对于步骤S5中的每个矩形邻域,进行特征提取;
S7,对步骤S6中的大量数据进行数据分析,得到每个特征最优的过滤阈值参数,记为P;
S8,对于步骤S4中的每个候选角点,过滤掉所有不满足步骤S7参数条件的候选点,保留目标角点;
S9,计算目标角点在原图中的坐标。
根据本发明提供的基于特征提取的复杂场景图像的目标角点提取方法,将传统的角点检测方法与特征工程技术相结合,使得目标角点的提取更加精准,在一定程度上提高了角点检测的效率,为基于角点检测算法的后续开发提供基础,大大提高了角点检测的智能化水平,如透视变换过程的自动化等。相比传统技术,具有以下有益效果:
1、基于数据分析的角点过滤,引入矩阵技术提取角点特性,在一定的程度上提高了算法的运算过程,另一方面,传统的角点检测只是检测出所有可能的角点,本发明提出的方法通过提取的特性能够快速过滤掉多余的角点,保留目标角点,提高了角点的提取准确率,对于实际应用有一定的现实意义;
2、将图像划分为若干个小区域,并利用规则快速提出掉明显不满足要求的区域,减少了候选角点的数量,大大提高了目标角点的检测效率;
3、提取角点的矩形邻域,方便利用先进的矩阵理论方法进行进一步分析,同时许多软件对矩阵运算速度更快,提高了处理效率。
另外,根据本发明上述的基于特征提取的复杂场景图像的目标角点提取方法,还可以具有如下附加的技术特征:
进一步地,步骤S1具体包括:
S1.1,对待处理图像M灰度化,方法包括但不限于加权平均法,灰度化后的图像记为A;
S1.2,对灰度化后的图像A进行局部二值化,方法包括但不限于局部大津法、Bernsen法,局部二值化后的图像记为B。
进一步地,步骤S2具体包括:
S2.1,计算图像A的宽度W与高度H;
S2.2,计算子区域划分的垂直线与水平线的位置;
每个子区域的宽度w与高度h分别为:
其中floor往下取整,则子区域的垂直与水平分割线为:
m×w,n×h,(n,m∈{1,2,3,4,5});
S2.3,区域划分:特别地,区域A[i,j],B[i,j],(i,j∈{1,2,…,5})的截取范围为:
A[i,j]=A[(i-1)×h:i×h,(j-1)×w:j×w]
B[i,j]=B[(i-1)×h:i×h,(j-1)×w:j×w]。
进一步地,步骤S3具体包括:
S3.1,对于子区域A[i,j],(i,j∈{1,2,…,5}),选择对应的二值化子区域B[i,j];
S3.2,判断子区域A[i,j],(i,j∈{1,2,…,5})中是否同时包含至少7个连续的像素255,即“255,255,255,255,255,255,255”,且至少9个连续的像素0,即“0,0,0,0,0,0,0,0,0”;
S3.3,若不满足条件3.2,进入下一个子区域,若满足,进入步骤S4。
进一步地,步骤S4具体包括:
对满足步骤S3中子区域A[i,j],(i,j∈{1,2,…,5}),利用包括但不限于Harris灰度角点检测方法检测出A[i,j]中所有的角点;
Harris角点检测的基础是图像灰度强度的二阶导数矩阵H(p);
对于Harris角点,使用每点周围小窗口的二阶导数图像的自相关系数;
其中wi,j是归一化的权重比例,Harris角点位于图像二阶导数相关矩阵具有两个最大特征值的地方。
进一步地,步骤S5具体包括:
以角点V(xv,yv)为中心,半径为R从B[i,j]中取得到对应的二值化矩形邻域,记为N(V,R),其中(xv,yv)为V在子区域B[i,j]中的坐标
其中ai,j=0或255,i,j∈{1,2,…,2R}。
进一步地,步骤S6具体包括:
S6.1,对于步骤S5中的每个角点和其邻域矩阵,考虑点V(xv,yv)与邻域矩阵N(V,R),进行特征提取;
S6.2,黑白变化次数特性:对于邻域矩阵N(V,R),从左上角开始逆时针选取N(V,R)的外围元素PE;
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
对于每个角点找出PE中从255到0与0到255变化的个数作为角点黑白变化次数特征;
S6.3,黑白像素长度特性:对于邻域矩阵N(V,R)及6.2中的PE
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
统计PE中像素值为255与0的个数比例差的绝对值,作为黑白像素长度特性;
S6.4,矩阵运算结果特性:对于邻域矩阵N(V,R),构造长度为2R的全一向量v;
v=[1,1,…,1]2R
计算N(V,R)与v的乘积,结果即为MP;
MP=N(V,R)vT
其中vT表示v的转置,对MP进行归一化操作,记为RP;
上式表示RP为MP的每个元素除于510R的结果,对角点运算结果RP介于0.4与0.6之间的个数进行统计,并将统计结果作为角点矩阵运算特征。
进一步地,步骤S7具体包括:
分析步骤S6中提取的特征,具体具有如下特性:
黑白变化次数特性:对于步骤S6.2中的PE,找出PE中从255到0与0到255变化的个数作为角点黑白变化次数都等于2;
黑白像素长度特性:对于步骤S6.3中的PE黑白像素值为255与0的个数基本相等,设定黑白像素个数比例相差不大于0.1;
矩阵运算结果特性:对于步骤S6.4中的RP,由于矩阵N(V,R)中每行0与255的个数基本一致,设定统计RP中于0.4与0.6之间元素个数比例大于0.8。
进一步地,步骤S8具体包括:
S8.1,对于步骤S4中的每个候选角点,按照步骤S6计算角点特征;
S8.2,判断角点特征是否满足步骤S7中特性的约束条件;
S8.3,过滤掉不满足步骤S7中特性约束条件的所有角点,保留目标角点。
进一步地,步骤S9具体包括:
对于子图A[i,j]中的保留点V(xv,yv),其在原图中的坐标为:
x=xv+h×(i-1)
y=yv+w×(j-1)。
附图说明
本发明实施例的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为一种具有目标角点的图像示例;
图2为另一种具有目标角点的图像示例;
图3为本发明实施例提供的基于特征提取的复杂场景图像的目标角点提取方法的逻辑流程图;
图4为本发明实施例中待进行目标角点提取的图像。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的基于特征提取的复杂场景图像的目标角点提取方法,首先,利用加权平均法将图像灰度化,在此基础上利用但不限于局部大津法对图像二值化,以避免全局二值化影响局部性质,提高了二值化的准确性。利用Harris角点检测方法检测出所有可能的角点,针对每个角点提取对应的特征,包括邻域矩阵计算结果,邻域二值化黑白像素的变化特征等,在此基础上对大量的特征进行特征分析以确定目标角点的特性,最后,利用分析所得到的相关参数过滤掉不满足要求的候选角点。本方案能够准确过滤掉不满足要求的候选角点,提取出目标角点,大大提高了目标角点提取的准确性,
下面请结合图3,对本实施例提供的方法进行详细说明,本实施例提供的方法具体包括步骤S1~S9:
S1,对待处理图像M进行图像灰度化,并在此基础上对图像二值化,灰度化图像记为A,二值化的图像记为B;
其中,步骤S1具体包括:
S1.1,对待处理图像M灰度化,方法包括但不限于加权平均法,灰度化后的图像记为A;
S1.2,对灰度化后的图像A进行局部二值化,方法包括但不限于局部大津法、Bernsen法,局部二值化后的图像记为B。
S2,将图像B划分为5×5个小区域,记为B[i,j],(i,j∈{1,2,…,5}),对图像A也做类似的处理,记为A[i,j],(i,j∈{1,2,…,5});
其中,步骤S2具体包括:
S2.1,计算图像A的宽度W与高度H;
S2.2,计算子区域划分的垂直线与水平线的位置;
每个子区域的宽度w与高度h分别为:
其中floor往下取整,则子区域的垂直与水平分割线为:
m×w,n×h,(n,m∈{1,2,3,4,5});
S2.3,区域划分:特别地,区域A[i,j],B[i,j],(i,j∈{1,2,…,5})的截取范围为:
A[i,j]=A[(i-1)×h:i×h,(j-1)×w:j×w]
B[i,j]=B[(i-1)×h:i×h,(j-1)×w:j×w]。
S3,对步骤S2中每个子区域A[i,j],(i,j∈{1,2,…,5}),跳过明显不满足要求的子区域;
其中,步骤S3具体包括:
S3.1,对于子区域A[i,j],(i,j∈{1,2,…,5}),选择对应的二值化子区域B[i,j];
S3.2,判断子区域A[i,j],(i,j∈{1,2,…,5})中是否同时包含至少7个连续的像素255,即“255,255,255,255,255,255,255”,且至少9个连续的像素0,即“0,0,0,0,0,0,0,0,0”;
S3.3,若不满足条件3.2,进入下一个子区域,若满足,进入步骤S4。
S4,对于保留的子区域,利用角点检测方法检测出所有的候选角点;
其中,步骤S4具体包括:
对满足步骤S3中子区域A[i,j],(i,j∈{1,2,…,5}),利用包括但不限于Harris灰度角点检测方法检测出A[i,j]中所有的角点;
Harris角点检测的基础是图像灰度强度的二阶导数矩阵H(p);
对于Harris角点,使用每点周围小窗口的二阶导数图像的自相关系数;
其中wi,j是归一化的权重比例,Harris角点位于图像二阶导数相关矩阵具有两个最大特征值的地方。
S5,对于步骤S4中的每个角点,取以角点为中心半径为R从B[i,j],(i,j∈{1,2,…,5})中得到矩形邻域;
其中,步骤S5具体包括:
以角点V(xv,yv)为中心,半径为R从B[i,j]中取得到对应的二值化矩形邻域,记为N(V,R),其中(xv,yv)为V在子区域B[i,j]中的坐标
其中ai,j=0或255,i,j∈{1,2,…,2R}。
S6,对于步骤S5中的每个矩形邻域,进行特征提取;
其中,步骤S6具体包括:
S6.1,对于步骤S5中的每个角点和其邻域矩阵,考虑点V(xv,yv)与邻域矩阵N(V,R),进行特征提取;
S6.2,黑白变化次数特性:对于邻域矩阵N(V,R),从左上角开始逆时针选取N(V,R)的外围元素PE;
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
对于每个角点找出PE中从255到0与0到255变化的个数作为角点黑白变化次数特征;
S6.3,黑白像素长度特性:对于邻域矩阵N(V,R)及6.2中的PE
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
统计PE中像素值为255与0的个数比例差的绝对值,作为黑白像素长度特性;
S6.4,矩阵运算结果特性:对于邻域矩阵N(V,R),构造长度为2R的全一向量v;
v=[1,1,…,1]2R
计算N(V,R)与v的乘积,结果即为MP;
MP=N(V,R)vT
其中vT表示v的转置,对MP进行归一化操作,记为RP;
上式表示RP为MP的每个元素除于510R的结果,对角点运算结果RP介于0.4与0.6之间的个数进行统计,并将统计结果作为角点矩阵运算特征。
S7,对步骤S6中的大量数据进行数据分析,得到每个特征最优的过滤阈值参数,记为P;
其中,步骤S7具体包括:
分析步骤S6中提取的特征,例如分析类似于图4所示的角点,步骤S6中提取的特征具体具有如下三个特性:
黑白变化次数特性:对于步骤S6.2中的PE,类似于图4中的角点找出PE中从中从255到0与0到255变化的个数作为角点黑白变化次数都等于2;
黑白像素长度特性:对于步骤S6.3中的PE黑白像素值为255与0的个数基本相等,设定黑白像素个数比例相差不大于0.1;
矩阵运算结果特性:对于步骤S6.4中的RP,由于矩阵N(V,R)中每行0与255的个数基本一致,设定统计RP中于0.4与0.6之间元素个数比例大于0.8。
S8,对于步骤S4中的每个候选角点,过滤掉所有不满足步骤S7参数条件的候选点,保留目标角点;
其中,步骤S8具体包括:
S8.1,对于步骤S4中的每个候选角点,按照步骤S6计算角点特征;
S8.2,判断角点特征是否满足步骤S7中特性的约束条件;
S8.3,过滤掉不满足步骤S7中特性约束条件的所有角点,保留目标角点。
S9,计算目标角点在原图中的坐标。
其中,步骤S9具体包括:
对于子图A[i,j]中的保留点V(xv,yv),其在原图中的坐标为:
x=xv+h×(i-1)
y=yv+w×(j-1)。
需要指出的是,本实施例方法的上述各步骤可以通过python,Java,C++中任一编程语言实现。
根据本发明提供的基于特征提取的复杂场景图像的目标角点提取方法,将传统的角点检测方法与特征工程技术相结合,使得目标角点的提取更加精准,在一定程度上提高了角点检测的效率,为基于角点检测算法的后续开发提供基础,大大提高了角点检测的智能化水平,如透视变换过程的自动化等。相比传统技术,具有以下有益效果:
1、基于数据分析的角点过滤,引入矩阵技术提取角点特性,在一定的程度上提高了算法的运算过程,另一方面,传统的角点检测只是检测出所有可能的角点,本发明提出的方法通过提取的特性能够快速过滤掉多余的角点,保留目标角点,提高了角点的提取准确率,对于实际应用有一定的现实意义;
2、将图像划分为若干个小区域,并利用规则快速提出掉明显不满足要求的区域,减少了候选角点的数量,大大提高了目标角点的检测效率;
3、提取角点的矩形邻域,方便利用先进的矩阵理论方法进行进一步分析,同时许多软件对矩阵运算速度更快,提高了处理效率。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (8)
1.一种基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,包括以下步骤:
S1,对待处理图像M进行图像灰度化,并在此基础上对图像二值化,灰度化图像记为A,二值化的图像记为B;
S2,将图像B划分为5×5个小区域,记为B[i,j],(i,j∈{1,2,…,5}),对图像A也做类似的处理,记为A[i,j],(i,j∈{1,2,…,5});
S3,对步骤S2中每个子区域A[i,j],(i,j∈{1,2,…,5}),跳过明显不满足要求的子区域;
S4,对于保留的子区域,利用角点检测方法检测出所有的候选角点;
S5,对于步骤S4中的每个角点,取以角点为中心半径为R从B[i,j],(i,j∈{1,2,…,5})中得到矩形邻域;
S6,对于步骤S5中的每个矩形邻域,进行特征提取;
S7,对步骤S6中的大量数据进行数据分析,得到每个特征最优的过滤阈值参数,记为P;
S8,对于步骤S4中的每个候选角点,过滤掉所有不满足步骤S7参数条件的候选点,保留目标角点;
S9,计算目标角点在原图中的坐标;
步骤S6具体包括:
S6.1,对于步骤S5中的每个角点和其邻域矩阵,考虑点V(xv,yv)与邻域矩阵N(V,R),进行特征提取;
S6.2,黑白变化次数特性:对于邻域矩阵N(V,R),从左上角开始逆时针选取N(V,R)的外围元素PE;
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
对于每个角点找出PE中从255到0与0到255变化的个数作为角点黑白变化次数特征;
S6.3,黑白像素长度特性:对于邻域矩阵N(V,R)及6.2中的PE
PE={α1,1,…,α2R,1,…,α2R,2R,…,α1,2R,…,α1,1}
统计PE中像素值为255与0的个数比例差的绝对值,作为黑白像素长度特性;
S6.4,矩阵运算结果特性:对于邻域矩阵N(V,R),构造长度为2R的全一向量v;
v=[1,1,…,1]2R
计算N(V,R)与v的乘积,结果即为MP;
MP=N(V,R)vT
其中vT表示v的转置,对MP进行归一化操作,记为RP;
上式表示RP为MP的每个元素除于510R的结果,对角点运算结果RP介于0.4与0.6之间的个数进行统计,并将统计结果作为角点矩阵运算特征;
步骤S7具体包括:
分析步骤S6中提取的特征,具体具有如下特性:
黑白变化次数特性:对于步骤S6.2中的PE,找出PE中从255到0与0到255变化的个数作为角点黑白变化次数都等于2;
黑白像素长度特性:对于步骤S6.3中的PE黑白像素值为255与0的个数基本相等,设定黑白像素个数比例相差不大于0.1;
矩阵运算结果特性:对于步骤S6.4中的RP,由于矩阵N(V,R)中每行0与255的个数基本一致,设定统计RP中于0.4与0.6之间元素个数比例大于0.8。
2.根据权利要求1所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S1具体包括:
S1.1,对待处理图像M灰度化,方法包括但不限于加权平均法,灰度化后的图像记为A;
S1.2,对灰度化后的图像A进行局部二值化,方法包括但不限于局部大津法、Bernsen法,局部二值化后的图像记为B。
3.根据权利要求2所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S2具体包括:
S2.1,计算图像A的宽度W与高度H;
S2.2,计算子区域划分的垂直线与水平线的位置;
每个子区域的宽度w与高度h分别为:
其中floor往下取整,则子区域的垂直与水平分割线为:
m×w,n×h,(n,m∈{1,2,3,4,5});
S2.3,区域划分:特别地,区域A[i,j],B[i,j],(i,j∈{1,2,…,5})的截取范围为:
A[i,j]=A[(i-1)×h:i×h,(j-1)×w:j×w]
B[i,j]=B[(i-1)×h:i×h,(j-1)×w:j×w]。
4.根据权利要求3所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S3具体包括:
S3.1,对于子区域A[i,j],(i,j∈{1,2,…,5}),选择对应的二值化子区域B[i,j];
S3.2,判断子区域A[i,j],(i,j∈{1,2,…,5})中是否同时包含至少7个连续的像素255,即“255,255,255,255,255,255,255”,且至少9个连续的像素0,即“0,0,0,0,0,0,0,0,0”;
S3.3,若不满足条件3.2,进入下一个子区域,若满足,进入步骤S4。
5.根据权利要求4所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S4具体包括:
对满足步骤S3中子区域利用包括但不限于Harris灰度角点检测方法检测出A[i,j]中所有的角点;
Harris角点检测的基础是图像灰度强度的二阶导数矩阵H(p);
对于Harris角点,使用每点周围小窗口的二阶导数图像的自相关系数;
其中wi,j是归一化的权重比例,Harris角点位于图像二阶导数相关矩阵具有两个最大特征值的地方。
6.根据权利要求5所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S5具体包括:
以角点V(xv,yv)为中心,半径为R从B[i,j]中取得到对应的二值化矩形邻域,记为N(V,R),其中(xv,yv)为V在子区域B[i,j]中的坐标
其中ai,j=0或255,i,j∈{1,2,…,2R}。
7.根据权利要求6所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S8具体包括:
S8.1,对于步骤S4中的每个候选角点,按照步骤S6计算角点特征;
S8.2,判断角点特征是否满足步骤S7中特性的约束条件;
S8.3,过滤掉不满足步骤S7中特性约束条件的所有角点,保留目标角点。
8.根据权利要求7所述的基于特征提取的复杂场景图像的目标角点提取方法,其特征在于,步骤S9具体包括:
对于子图A[i,j]中的保留点V(xv,yv),其在原图中的坐标为:
x=xv+h×(i-1)
y=yv+w×(j-1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910956300.XA CN111047614B (zh) | 2019-10-10 | 2019-10-10 | 一种基于特征提取的复杂场景图像的目标角点提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910956300.XA CN111047614B (zh) | 2019-10-10 | 2019-10-10 | 一种基于特征提取的复杂场景图像的目标角点提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111047614A CN111047614A (zh) | 2020-04-21 |
CN111047614B true CN111047614B (zh) | 2023-09-29 |
Family
ID=70232221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910956300.XA Active CN111047614B (zh) | 2019-10-10 | 2019-10-10 | 一种基于特征提取的复杂场景图像的目标角点提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111047614B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308797B (zh) * | 2020-10-30 | 2024-02-02 | 维沃移动通信有限公司 | 角点检测方法、装置、电子设备及可读存储介质 |
CN115830049A (zh) * | 2022-07-18 | 2023-03-21 | 宁德时代新能源科技股份有限公司 | 角点检测的方法和装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070032919A (ko) * | 2005-09-20 | 2007-03-23 | 후지제롯쿠스 가부시끼가이샤 | 이차원 코드의 검출 방법, 검출 장치, 및 검출 프로그램을기억한 기억 매체 |
US8611424B2 (en) * | 2008-03-13 | 2013-12-17 | Sony Corporation | Image processing apparatus and image processing method |
CN103606146A (zh) * | 2013-11-05 | 2014-02-26 | 南京理工大学 | 一种基于圆盘靶标的角点检测方法 |
WO2017049994A1 (zh) * | 2015-09-25 | 2017-03-30 | 深圳大学 | 一种高光谱图像角点检测方法与系统 |
CN107240112A (zh) * | 2017-06-28 | 2017-10-10 | 北京航空航天大学 | 一种复杂场景下个体x角点提取方法 |
CN107633536A (zh) * | 2017-08-09 | 2018-01-26 | 武汉科技大学 | 一种基于二维平面模板的相机标定方法及系统 |
CN108428250A (zh) * | 2018-01-26 | 2018-08-21 | 山东大学 | 一种应用于视觉定位和标定的x角点检测方法 |
CN108765491A (zh) * | 2018-05-31 | 2018-11-06 | 成都信息工程大学 | 一种sar图像舰船目标检测方法 |
CN110210409A (zh) * | 2019-06-04 | 2019-09-06 | 南昌市微轲联信息技术有限公司 | 表格单据中表格框线检测方法及系统 |
-
2019
- 2019-10-10 CN CN201910956300.XA patent/CN111047614B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070032919A (ko) * | 2005-09-20 | 2007-03-23 | 후지제롯쿠스 가부시끼가이샤 | 이차원 코드의 검출 방법, 검출 장치, 및 검출 프로그램을기억한 기억 매체 |
US8611424B2 (en) * | 2008-03-13 | 2013-12-17 | Sony Corporation | Image processing apparatus and image processing method |
CN103606146A (zh) * | 2013-11-05 | 2014-02-26 | 南京理工大学 | 一种基于圆盘靶标的角点检测方法 |
WO2017049994A1 (zh) * | 2015-09-25 | 2017-03-30 | 深圳大学 | 一种高光谱图像角点检测方法与系统 |
CN107240112A (zh) * | 2017-06-28 | 2017-10-10 | 北京航空航天大学 | 一种复杂场景下个体x角点提取方法 |
CN107633536A (zh) * | 2017-08-09 | 2018-01-26 | 武汉科技大学 | 一种基于二维平面模板的相机标定方法及系统 |
CN108428250A (zh) * | 2018-01-26 | 2018-08-21 | 山东大学 | 一种应用于视觉定位和标定的x角点检测方法 |
CN108765491A (zh) * | 2018-05-31 | 2018-11-06 | 成都信息工程大学 | 一种sar图像舰船目标检测方法 |
CN110210409A (zh) * | 2019-06-04 | 2019-09-06 | 南昌市微轲联信息技术有限公司 | 表格单据中表格框线检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈洪 等.改进的自适应SUSAN 角点特征提取方法.《测绘科学》.2017,第42卷(第12期),第118-126页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111047614A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109615611B (zh) | 一种基于巡检影像的绝缘子自爆缺陷检测方法 | |
CN109978839B (zh) | 晶圆低纹理缺陷的检测方法 | |
CN110807496B (zh) | 一种密集目标检测方法 | |
CN109977997B (zh) | 基于卷积神经网络快速鲁棒的图像目标检测与分割方法 | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN109961399B (zh) | 基于图像距离变换的最佳缝合线搜寻方法 | |
CN110070557A (zh) | 一种基于边缘特征检测的目标识别与定位方法 | |
CN112084869A (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
Yuan et al. | Learning to count buildings in diverse aerial scenes | |
CN111369605A (zh) | 一种基于边缘特征的红外与可见光图像的配准方法和系统 | |
CN111047614B (zh) | 一种基于特征提取的复杂场景图像的目标角点提取方法 | |
CN113298809B (zh) | 基于深度学习和超像素分割的复材超声图像缺陷检测方法 | |
CN108961262B (zh) | 一种复杂场景下的条码定位方法 | |
CN111192194A (zh) | 一种针对幕墙建筑立面的全景图像拼接方法 | |
KR101753360B1 (ko) | 시점 변화에 강인한 특징점 정합 방법 | |
CN115937552A (zh) | 一种基于融合手工特征与深度特征的图像匹配方法 | |
CN111695373A (zh) | 斑马线的定位方法、系统、介质及设备 | |
CN113989604A (zh) | 基于端到端深度学习的轮胎dot信息识别方法 | |
CN109741306B (zh) | 应用于危险化学品库房堆垛的图像处理方法 | |
CN109785318B (zh) | 基于面线基元关联约束的遥感图像变化检测方法 | |
CN108985294B (zh) | 一种轮胎模具图片的定位方法、装置、设备及存储介质 | |
CN116503733A (zh) | 遥感图像目标检测方法、设备及存储介质 | |
CN113920140B (zh) | 一种基于深度学习的铁路货车管盖脱落故障识别方法 | |
CN116229084A (zh) | 一种对空目标的检测方法 | |
CN110674778B (zh) | 一种高分辨视频图像目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |