CN112819009A - 一种基于Harris角点检测与NCC匹配的目标识别定位方法 - Google Patents

一种基于Harris角点检测与NCC匹配的目标识别定位方法 Download PDF

Info

Publication number
CN112819009A
CN112819009A CN202110074282.XA CN202110074282A CN112819009A CN 112819009 A CN112819009 A CN 112819009A CN 202110074282 A CN202110074282 A CN 202110074282A CN 112819009 A CN112819009 A CN 112819009A
Authority
CN
China
Prior art keywords
matching
image
corner
pixel
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110074282.XA
Other languages
English (en)
Inventor
董辉
陶如梦
朱佳成
胡越
吴祥
俞立
郭方洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110074282.XA priority Critical patent/CN112819009A/zh
Publication of CN112819009A publication Critical patent/CN112819009A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Harris角点检测与NCC匹配的目标识别定位方法,首先基于NCC匹配算法进行粗定位,并在粗定位的基础上提取角点,利用提取的角点根据欧式距离进行相似度匹配,后再利用NCC匹配算法筛选出匹配角点中相似度最高的角点作为定位目标,克服了无标志点无法进行匹配定位的缺陷,且通过多次定位匹配排除了定位误差,提高匹配准确度;通过计算角点的位置变化筛选出可能性较高的角度进行相似度计算,避免对每一角点进行一一匹配,提高了匹配速度。

Description

一种基于Harris角点检测与NCC匹配的目标识别定位方法
技术领域
本申请属于视觉检测技术领域,具体涉及一种基于Harris角点检测与NCC匹配的目标识别定位方法。
背景技术
现有区域标定技术一般利用mark点的固定位置对切割目标进行定位。这种方法具有易提取特征信息,定位简单,精度高等特点,但是需要提前标志mark点位置,不适用于某些特殊情况,比如无mark点的PVC板、KT板、玻璃、晶圆等产品的定位。所以传统的定位方式已经不能工业自动化控制的需求。本申请的方法可实现自动寻找角点然后定位,相较于Mark定位Harris角点检测方法对噪声不敏感、具有平移和旋转不变性、具有高重复性和高信息量。
发明内容
本申请的目的在于提供一种基于Harris角点检测与NCC匹配的目标识别定位方法,提高定位速度以及准确度。
为实现上述目的,本申请所采取的技术方案为:
一种基于Harris角点检测与NCC匹配的目标识别定位方法,用于裁床对待处理对象的位置识别,所述基于Harris角点检测与NCC匹配的目标识别定位方法,包括:
步骤1、获取待处理对象的图像以及预采集的模板图像;
步骤2、调整待处理对象的图像的规格至与模板图像相匹配作为目标图像;
步骤3、利用基于积分图的快速NCC匹配算法对目标图像以及模板图像进行匹配,从目标图像中截取与模板图像相匹配的区域作为粗匹配图像;
步骤4、利用Harris角点检测算法分别提取模板图像以及粗匹配图像中的亚像素角点;
步骤5、采用欧式距离逐一计算模板图像中的亚像素角点以及粗匹配图像中的亚像素角点的位置变化距离,将两个位置变化距离小于变化阈值的亚像素角点作为预匹配角点组,得到多组预匹配角点组;
步骤6、逐一取预匹配角点组,采用基于积分图的快速NCC匹配算法基于预匹配角点组中两个亚像素角点的邻域的灰度空间特征计算两个亚像素角点的匹配度;
步骤7、取匹配度高于匹配阈值的预匹配角点组作为最终的匹配角点组,根据每一匹配角点组中模板图像的亚像素角点的已知坐标作为对应的匹配角点组中粗匹配图像的亚像素角点的坐标,完成对待处理对象的定位。
以下还提供了若干可选方式,但并不作为对上述总体方案的额外限定,仅仅是进一步的增补或优选,在没有技术或逻辑矛盾的前提下,各可选方式可单独针对上述总体方案进行组合,还可以是多个可选方式之间进行组合。
作为优选,所述基于积分图的快速NCC匹配算法的计算公式如下:
Figure BDA0002907008120000021
式中,R(u,v)表示在像素点(u,v)处的匹配度,T为模板图像,I为目标图像,N1为模板图像的长度,N2为模板图像的宽度。
作为优选,所述利用Harris角点检测算法分别提取模板图像以及粗匹配图像中的亚像素角点,包括:
步骤S4.1、计算模板图像以及粗匹配图像中的各像素点的相似像素数目,并筛选出候选角点,包括:
若给定灰度图像I(x,y),窗口向不同方向的位移为Δx和Δy,则窗口内的灰度变化Exy可以表示为:
Figure BDA0002907008120000022
其中,w为以像素(xi,yi)为中心的窗口函数;
若窗口内的灰度变化超过给定阈值,则定义该像素点为候选角点;
步骤S4.2、计算候选角点水平和垂直方向上的梯度,包括:
其中,Ix、Iy为灰度图像的一阶方向导数,通过求导方向上的差分近似为:
Figure BDA0002907008120000023
Figure BDA0002907008120000024
Qx和Qy为梯度模板,表示为:
Figure BDA0002907008120000031
步骤S4.3、利用水平、竖直方向上的差分算子对给定灰度图像的每个像素进行滤波,得到M矩阵;
步骤S4.4、对M矩阵的四个元素进行高斯平滑滤波,得到新的M矩阵;
步骤S4.5、利用新的M矩阵计算候选角点的角点响应函数T,对角点响应函数T进行非极大抑制,从候选角点中获取最终的角点;
步骤S4.6、采用最小化误差函数的迭代方法检测角点的亚像素坐标。
作为优选,所述M矩阵为实对称矩阵,M矩阵对角变换后表示为:
Figure BDA0002907008120000032
其中,λ1和λ2为M矩阵的两个特征值,表示自适应函数的极值曲率;
则利用新的M矩阵计算候选角点的角点响应函数T,如下:
T=Det(M)-k·Tr2(M)
Det(M)=λ1λ2
Tr(M)=λ12
其中,Det(M)表示M矩阵的行列式,Tr(M)表示M矩阵的一个迹,k是一个常数,反应了检测算子的灵敏度。
作为优选,所述变化阈值设置为所述目标图像的面积的0.015~0.040倍。
本申请提供的基于Harris角点检测与NCC匹配的目标识别定位方法,首先基于NCC匹配算法进行粗定位,并在粗定位的基础上提取角点,利用提取的角点根据欧式距离进行相似度匹配,后再利用NCC匹配算法筛选出匹配角点中相似度最高的角点作为定位目标,克服了无标志点无法进行匹配定位的缺陷,且通过多次定位匹配排除了定位误差,提高匹配准确度;通过计算角点的位置变化筛选出可能性较高的角度进行相似度计算,避免对每一角点进行一一匹配,提高了匹配速度。
附图说明
图1为本申请的基于Harris角点检测与NCC匹配的目标识别定位方法的流程图;
图2为本申请第一次NCC模板粗匹配的结果;
图3为本申请角点检测结果的一种实施例示意图;
图4为本申请待处理对象的图像以及粗匹配图像的定位角点图;
图5为本申请待处理对象的图像以及粗匹配图像的多定位角点图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
其中一个实施例中,提供一种基于Harris角点检测与NCC匹配的目标识别定位方法,用于裁床对待处理对象(例如PVC材料)的位置识别,且匹配定位速度快、准确度高。
如图1所示,本实施例的基于Harris角点检测与NCC匹配的目标识别定位方法,包括:
步骤1、获取待处理对象的图像以及预采集的模板图像。
考虑到避免对图像采集设备具有较高要求而不利于推广应用,本实施例采集分辨率为1280×960的待处理对象的图像。
步骤2、调整待处理对象的图像规格至与模板图像相匹配作为目标图像。
NCC匹配需要对象和目标具有相同尺寸和大小,仅可以接受微小的角度偏转,不具备尺度不变性和旋转不变性。所以需要对采集图像进行比例缩放。通过模板图像与实际坐标的比例、图像采集设备的成像大小与实际坐标的比例以及待处理对象在图像采集设备中的成像比例,将待处理对象的图像进行比例缩放,缩放至待处理对象的图像中与模板图像内容一致的部分的大小规格与模板图像相匹配。
步骤3、利用基于积分图的快速NCC匹配算法对目标图像以及模板图像进行匹配,从目标图像中截取与模板图像相匹配的区域作为粗匹配图像。
如图2所示,图中左侧为模板图像,右侧为目标图像(忽略两者的匹配大小),右侧目标图像中的矩形框即为匹配截取的粗匹配图像。
本实施例中使用的基于积分图的快速NCC匹配算法的计算公式如下:
Figure BDA0002907008120000051
式中,R(u,v)表示在像素点(u,v)处的匹配度,T为模板图像,I为目标图像,N1为模板图像的长度,N2为模板图像的宽度。R(u,v)越大匹配程度越高,两者的相似度越高。通过设置阈值过滤相似度小于阈值的角点,用以除去不满足匹配条件的角点。其中N1×N2同时也为窗口的大小,与模板图像大小相同,在目标图像和模板图像的匹配过程中,取N1×N2大小的子图,遍历整个目标图像,计算其与模板图像的相似度。
具体的,得到粗匹配图像的步骤如下:
步骤S3.1、为加快计算NCC匹配算法的执行本实施例使用积分图来减少计算量,预计算模板图像和目标图像的积分图,其中积分图中的任意区域的平方和可以通过三次加减法运算快速得到。
步骤S3.2、利用积分图得到互相关函数之后,按照归一化匹配算法除以分母就可以得到归一化互相关系数(即NCC匹配度),选取系数最大值作为匹配位置。
本实施例基于模板图像在目标图像中截取和模板图像相匹配的区域作为粗匹配图像,以省去不必要的角点带来的计算压力。需要说明的是,本实施例采用的基于积分图的快速NCC匹配算法为现有算法,这里不再对其具体步骤展开详述。
步骤4、利用Harris角点检测算法分别提取模板图像以及粗匹配图像中的亚像素角点。
为了便于进行角点检测和匹配,在进行角点检测时需要将粗匹配图像比例缩放至与模板图像的大小相同或趋近相同。
Harris角点检测算法为角点提取领域较为成熟的技术,本实施例可以基于任意公开的Harris角点检测算法进行计算,在一个实施例中,提供一种最为适合本申请定位匹配的角点检索方法如下:
步骤S4.1、计算模板图像以及粗匹配图像中的各像素点的相似像素数目,并筛选出候选角点,包括:
若给定灰度图像I(x,y),窗口向不同方向的位移为Δx和Δy,则窗口内的灰度变化Exy可以表示为:
Figure BDA0002907008120000061
其中,w为以像素(xi,yi)为中心的窗口,进一步推到得到:
Figure BDA0002907008120000062
若窗口内的灰度变化超过某一给定阈值,则定义该像素点为候选角点;
步骤S4.2、计算候选角点水平和垂直方向上的梯度,包括:
其中,Ix、Iy为灰度图像的一阶方向导数,通过求导方向上的差分近似为:
Figure BDA0002907008120000063
Figure BDA0002907008120000064
Qx和Qy为梯度模板,表示为:
Figure BDA0002907008120000065
步骤S4.3、利用水平、竖直方向上的差分算子对给定灰度图像的每个像素进行滤波,得到M矩阵;
步骤S4.4、因为噪点对图像提取角点的影响比较大,所以Harris角点检测器对M矩阵的四个元素进行高斯平滑滤波,得到新的矩阵M,消除一些不必要的孤立点和凸起。
其中高斯平滑滤波的窗口函数表示为:
Figure BDA0002907008120000066
将Ix、Iy和IxIy分别高斯函数进行卷积:
Figure BDA0002907008120000067
Figure BDA0002907008120000068
Figure BDA0002907008120000069
对Exy进行展开,除去无穷小项,得到:
Figure BDA00029070081200000610
Figure BDA0002907008120000071
M矩阵是一个实对称矩阵,它描述了窗口灰度变化量Exy的二阶泰勒展开式,M矩阵对角变换以后表示为:
Figure BDA0002907008120000072
式中λ1和λ2是矩阵M的两个特征值,它表示自适应函数的极值曲率。对M矩阵的特征值的分析,可以归纳为一下的情况:
如果λ1和λ2都偏小时,则该区域窗口向任意方向移动,都不会造成窗口灰度变化量有太大的变化,可以认为该点的邻域为平坦区域。
如果λ1和λ2其中一个比较小,另一个比较大时,则认为该点的邻域可以近似为屋脊形,若窗口沿着屋脊的方向移动,则不会引起窗口灰度变化量有太大变化,若窗口垂直于屋脊的方向移动,则窗口灰度变化量变化明显。
如果λ1和λ2都比较大时,则表明该点邻域的窗口灰度变化量位于临界点,向任意方向移动都会对窗口灰度变化量有较大的影响,可以认为该点为图像的角点。
步骤S4.5、利用新的M矩阵计算候选角点的角点响应函数T,对角点响应函数进行非极大抑制,获取初始角点坐标。
T=Det(M)-k·Tr2(M)
Det(M)=λ1λ2
Tr(M)=λ12
其中,Det(M)表示M矩阵的行列式,Tr(M)表示M矩阵的一个迹,k是一个常数,反应了检测算子的灵敏度,k越大检测到的角点数量越少,反之,检测到的角点数量越多。
步骤S4.6、采用最小化误差函数的迭代方法检测角点的亚像素坐标。用Harris检测器得到的角点附近可以收集很多组点的梯度和相关向量q-pi,假设每一组的向量点积设置为0,将等式组合起来形成一个系统方程,对系统方程求解就能得到更精确的亚像素角点位置。
本申请中的角点检测的一种实施例结果示意图如图3所示,由图可以看出本申请的方法能够得到较为精准的角点。需要说明的是,本实施例采用的Harris角点检测算法为现有算法,这里不再对其具体步骤展开详述。
步骤5、采用欧式距离逐一计算模板图像中的亚像素角点以及粗匹配图像中的亚像素角点的位置变化距离,将两个位置变化距离小于变化阈值的亚像素角点作为预匹配角点组,得到多组预匹配角点组。
由于变化阈值决定了角点匹配的准确度,因此变化阈值的设置对最终定位的准确具有重要的影响,在实际应用中变化阈值根据实际要求的匹配精度进行调整,经过多次试验,本实施例中设置为目标图像的面积的0.015~0.040倍,优选为0.025倍。
步骤6、逐一取预匹配角点组,采用基于积分图的快速NCC匹配算法基于预匹配角点组中两个亚像素角点的邻域的灰度空间特征计算两个亚像素角点的匹配度。
邻域越大相似度判断的准确性越高,但相应的计算压力也越大,因此在实际使用时根据匹配精度以及硬件设备的性能设置适宜的领域大小,经过多次试验,本实施例中优选设置邻域范围为20,该范围下相似度匹配的准确性高,且计算量不大。
步骤7、取匹配度高于匹配阈值的预匹配角点组作为最终的匹配角点组,根据每一匹配角点组中模板图像的亚像素角点的已知坐标作为对应的匹配角点组中粗匹配图像的亚像素角点的坐标,完成对待处理对象的定位。
本实验过程中,设置匹配相似度的匹配阈值为0.90。本申请先是采用改进的NCC模板匹配算法得到模糊定位,采用Harris算法进行角点检测,因为Harris角点检测只能检测到像素级的坐标,所以本文采用最小误差函数的迭代方法来获取亚像素坐标,实现精准定位。本申请中用到采用欧式距离和两个角点区域的灰度特征空间的相似性来比较角点的相似性。再次利用改进的NCC相似度度量,以角点的邻域进行相似度计算,NCC算法利用积分图像来降低计算的复杂程度,大大减少了计算量,提高了定位速度。
本申请中的目标图像和模板图像通过亚像素角点检测、欧式距离和相似度筛选三个流程后,最终角点匹配结果如图4所示。本申请中原图像的分辨率为1960×1080,缩小一倍以后,每个像素对应0.17mm,为满足1mm的定位精度误差,则检测到的角点的误差至少在6个像素以内,通过亚像素角点检测基本能够满足要求;同时,将粗定位过程的粗匹配图像缩放到同样大小,即980×540,然后进行角点检测和角点匹配。本申请的实验结果如图5所示,除极少数稍微偏离实际角点位置,基本都能满足6个像素误差的范围内,目标图像检测的角点都能匹配到模板图像中的正确角点位置。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种基于Harris角点检测与NCC匹配的目标识别定位方法,用于裁床对待处理对象的位置识别,其特征在于,所述基于Harris角点检测与NCC匹配的目标识别定位方法,包括:
步骤1、获取待处理对象的图像以及预采集的模板图像;
步骤2、调整待处理对象的图像的规格至与模板图像相匹配作为目标图像;
步骤3、利用基于积分图的快速NCC匹配算法对目标图像以及模板图像进行匹配,从目标图像中截取与模板图像相匹配的区域作为粗匹配图像;
步骤4、利用Harris角点检测算法分别提取模板图像以及粗匹配图像中的亚像素角点;
步骤5、采用欧式距离逐一计算模板图像中的亚像素角点以及粗匹配图像中的亚像素角点的位置变化距离,将两个位置变化距离小于变化阈值的亚像素角点作为预匹配角点组,得到多组预匹配角点组;
步骤6、逐一取预匹配角点组,采用基于积分图的快速NCC匹配算法基于预匹配角点组中两个亚像素角点的邻域的灰度空间特征计算两个亚像素角点的匹配度;
步骤7、取匹配度高于匹配阈值的预匹配角点组作为最终的匹配角点组,根据每一匹配角点组中模板图像的亚像素角点的已知坐标作为对应的匹配角点组中粗匹配图像的亚像素角点的坐标,完成对待处理对象的定位。
2.如权利要求1所述的基于Harris角点检测与NCC匹配的目标识别定位方法,其特征在于,所述基于积分图的快速NCC匹配算法的计算公式如下:
Figure FDA0002907008110000011
式中,R(u,v)表示在像素点(u,v)处的匹配度,T为模板图像,I为目标图像,N1为模板图像的长度,N2为模板图像的宽度。
3.如权利要求1所述的基于Harris角点检测与NCC匹配的目标识别定位方法,其特征在于,所述利用Harris角点检测算法分别提取模板图像以及粗匹配图像中的亚像素角点,包括:
步骤S4.1、计算模板图像以及粗匹配图像中的各像素点的相似像素数目,并筛选出候选角点,包括:
若给定灰度图像I(x,y),窗口向不同方向的位移为Δx和Δy,则窗口内的灰度变化Exy可以表示为:
Figure FDA0002907008110000021
其中,w为以像素(xi,yi)为中心的窗口函数;
若窗口内的灰度变化超过给定阈值,则定义该像素点为候选角点;
步骤S4.2、计算候选角点水平和垂直方向上的梯度,包括:
其中,Ix、Iy为灰度图像的一阶方向导数,通过求导方向上的差分近似为:
Figure FDA0002907008110000022
Figure FDA0002907008110000023
Qx和Qy为梯度模板,表示为:
Figure FDA0002907008110000024
步骤S4.3、利用水平、竖直方向上的差分算子对给定灰度图像的每个像素进行滤波,得到M矩阵;
步骤S4.4、对M矩阵的四个元素进行高斯平滑滤波,得到新的M矩阵;
步骤S4.5、利用新的M矩阵计算候选角点的角点响应函数T,对角点响应函数T进行非极大抑制,从候选角点中获取最终的角点;
步骤S4.6、采用最小化误差函数的迭代方法检测角点的亚像素坐标。
4.如权利要求3所述的基于Harris角点检测与NCC匹配的目标识别定位方法,其特征在于,所述M矩阵为实对称矩阵,M矩阵对角变换后表示为:
Figure FDA0002907008110000025
其中,λ1和λ2为M矩阵的两个特征值,表示自适应函数的极值曲率;
则利用新的M矩阵计算候选角点的角点响应函数T,如下:
T=Det(M)-k·Tr2(M)
Det(M)=λ1λ2
Tr(M)=λ12
其中,Det(M)表示M矩阵的行列式,Tr(M)表示M矩阵的一个迹,k是一个常数,反应了检测算子的灵敏度。
5.如权利要求1所述的基于Harris角点检测与NCC匹配的目标识别定位方法,其特征在于,所述变化阈值设置为所述目标图像的面积的0.015~0.040倍。
CN202110074282.XA 2021-01-20 2021-01-20 一种基于Harris角点检测与NCC匹配的目标识别定位方法 Withdrawn CN112819009A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110074282.XA CN112819009A (zh) 2021-01-20 2021-01-20 一种基于Harris角点检测与NCC匹配的目标识别定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110074282.XA CN112819009A (zh) 2021-01-20 2021-01-20 一种基于Harris角点检测与NCC匹配的目标识别定位方法

Publications (1)

Publication Number Publication Date
CN112819009A true CN112819009A (zh) 2021-05-18

Family

ID=75858392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110074282.XA Withdrawn CN112819009A (zh) 2021-01-20 2021-01-20 一种基于Harris角点检测与NCC匹配的目标识别定位方法

Country Status (1)

Country Link
CN (1) CN112819009A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187802A (zh) * 2022-09-13 2022-10-14 江苏东控自动化科技有限公司 一种用于管道巡检小车的精准控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187802A (zh) * 2022-09-13 2022-10-14 江苏东控自动化科技有限公司 一种用于管道巡检小车的精准控制方法
CN115187802B (zh) * 2022-09-13 2022-11-18 江苏东控自动化科技有限公司 一种用于管道巡检小车的精准控制方法

Similar Documents

Publication Publication Date Title
CN107543828B (zh) 一种工件表面缺陷检测方法及系统
US11403839B2 (en) Commodity detection terminal, commodity detection method, system, computer device, and computer readable medium
CN111062915B (zh) 一种基于改进YOLOv3模型的实时钢管缺陷检测方法
CN105335973B (zh) 运用于带钢加工生产线的视觉处理方法
CN111126174A (zh) 一种用于机器人抓取零件的视觉检测方法
CN107292869B (zh) 基于各向异性高斯核和梯度搜索的图像斑点检测方法
Han et al. Automatic registration of high-resolution images using local properties of features
CN109409290B (zh) 一种温度表检定读数自动识别系统及方法
CN109448059B (zh) 一种快速x角点亚像素检测方法
CN104899888A (zh) 一种基于Legendre矩的图像亚像素边缘检测方法
CN116309565B (zh) 基于计算机视觉的高强传送带跑偏检测方法
CN112634365B (zh) 一种微结构特征的位姿高精度跟踪与检测方法
CN115147418B (zh) 缺陷检测模型的压缩训练方法和装置
CN110991493A (zh) 一种协同表示和异常剔除的高光谱异常检测方法
CN112819009A (zh) 一种基于Harris角点检测与NCC匹配的目标识别定位方法
CN107808165B (zh) 一种基于susan角点检测的红外图像匹配方法
CN116740053B (zh) 一种锻造加工智能生产线的管理系统
CN116596922B (zh) 一种太阳能热水器生产质量检测方法
CN111445480B (zh) 一种基于新型模板的图像旋转角度和缩放系数测量方法
CN112446353B (zh) 基于深度卷积神经网络的视频图像道线检测方法
CN117314901A (zh) 一种尺度自适应的芯片检测神经网络系统
CN117274702A (zh) 一种基于机器视觉的手机钢化玻璃膜裂纹自动分类方法和系统
CN109191489B (zh) 一种飞行器着陆标志的检测跟踪方法与系统
CN116206139A (zh) 一种基于局部自卷积的无人机图像升尺度匹配方法
CN115511928A (zh) 多光谱图像的匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210518