CN106485284B - 一种基于模板匹配的元件定位方法 - Google Patents

一种基于模板匹配的元件定位方法 Download PDF

Info

Publication number
CN106485284B
CN106485284B CN201610911421.9A CN201610911421A CN106485284B CN 106485284 B CN106485284 B CN 106485284B CN 201610911421 A CN201610911421 A CN 201610911421A CN 106485284 B CN106485284 B CN 106485284B
Authority
CN
China
Prior art keywords
image
template
edge
template image
iteration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610911421.9A
Other languages
English (en)
Other versions
CN106485284A (zh
Inventor
杨宪强
高会军
白立飞
孙昊
刘鑫
许超
张智浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201610911421.9A priority Critical patent/CN106485284B/zh
Publication of CN106485284A publication Critical patent/CN106485284A/zh
Application granted granted Critical
Publication of CN106485284B publication Critical patent/CN106485284B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于模板匹配的元件定位方法,属于图像处理技术领域,涉及一种元件定位方法。解决了现有贴片元件定位算法通用性差和对光照的鲁棒性不高的问题。本发明采用图像处理方法建立模板图像,以模板图像的中心为原点建立直角坐标系,获得模板图像的向量场;利用工业相机,对元件进行拍照,获得元件图像;根据距离变换方法,计算元件边缘图像中的每个非边缘像素点到边缘点的距离,从而获得元件的距离图像;进而获得距离图像的梯度向量场;根据刚体力学原理对待定位元件的旋转角度进行估计,利用距离图像的梯度向量场的收敛性质,对元件在元件图像中的位置进行估计,实现对基于模板匹配的元件定位。本发明适用于进行元件定位。

Description

一种基于模板匹配的元件定位方法
技术领域
本发明属于图像处理技术领域,涉及一种元件定位方法。
背景技术
随着电子产业的发展和壮大,市场对电子产品的小型化和密集化提出了越来越高的要求。由于SMT(表面贴装技术,Surface Mount Technology)具有在精度,自动化程度,和生产效率上具有极大的优势,因此该技术现已广泛应用于电子产业。而作为其核心技术的贴片机,受到元件封装的多样化,小型化等影响,受到了广泛的研究。元件定位技术对贴片机的贴装精度具有很大的影响。
现有元件定位技术主要集中在,利用元件的二值图像,根据不同元件的特性对元件进行定位。但是现有的这些方法的通用性不高,且对光照的鲁棒性差。
发明内容
本发明是为了解决现有贴片元件定位算法通用性差和对光照的鲁棒性不高的问题,提出的一种基于模板匹配的元件定位方法。
本发明所述的一种基于模板匹配的元件定位方法,该方法的具体步骤为:
步骤一、对待定位元件建立模板图像,所述模板图像中元件的引脚边缘像素灰度值为a,背景灰度值为0;a为正整数;
步骤二、以模板图像的中心为原点建立直角坐标系,获得模板图像的向量场;
所述模板图像的信息包括模板图像的边缘点到坐标原点之间的距离和模板图像的边缘点与坐标原点之间连线与模板图像的直角坐标系X轴之间的夹角;
步骤三、利用工业相机,对元件进行拍照,获得元件图像;利用边缘提取方法提取元件的边缘图像;根据距离变换方法,计算元件边缘图像中的每个非边缘像素点到边缘点的距离,从而获得元件的距离图像;
步骤四、从元件的距离图像中提取距离图像的灰度下降方向;获得距离图像的梯度向量场GVF;
步骤五、利用步骤二和步骤四中获得的模板图像的向量场和距离图像的梯度向量场信息,根据刚体力学原理对待定位元件的旋转角度进行估计;
根据刚体力学原理获得待定位元件的旋转角度的具体方法为:利用公式(1):
Ok=Ok-1+sgn(MI(Ok-1))Os (1)
计算k次迭代时模板图像的旋转角度;其中,sgn(·)为符号函数,Os为迭代步长,MI(Ok-1)为第k-1次迭代模板图像的和力矩;
通过对所有模板边缘点处的力矩叠加获得模板图像的和力矩:
其中,UT为第k次迭代时模板边缘点集,UT=2DET(U,xk,yk,Ok),2DET为2维欧式变换,xk为第k次迭代时模板图像中心在测试图像中的X轴坐标,yk为第k次迭代时模板图像中心在测试图像中的Y轴坐标;
步骤六、利用距离图像的梯度向量场的收敛性质,计算作用于模板中心的平均梯度向量场的值,对元件在元件图像中的位置进行估计;利用迭代公式:
计算作用于模板中心的平均梯度向量场的值,实现对元件在元件图像中的位置的估计;其中,GVFX(x,y)和GVFY(x,y)分别代表距离图像梯度场GVF在X轴和Y轴上的分量;xk-1和yk-1分别为第k-1次迭代时模板图像中心在测试图像中的X轴和Y轴的坐标,n为模板图像中非零灰度值个数,即边缘点个数;
步骤七、利用模板引脚边缘最大半径作为区域搜索半径,建立元件候选搜索区域;
步骤八、针对每一个元件候选搜索区域,将步骤六公式(3)中元件的初始迭代位置设置为候选搜索区域的中心,将步骤五公式(1)中元件的初始迭代角度设置为候选搜索区域的长轴方向;
步骤九、利用步骤六所述的迭代公式(3),计算每次迭代时,位置变化幅度,建立位置终止条件;获得元件在模板图像中的坐标;
步骤十、利用距离费用函数,建立匹配费用终止条件;获得元件在模板图像中的角度,实现元件的定位。
进一步:步骤二所述的以模板图像中心为原点建立直角坐标系,提取模板图像信息,获得模板图像的向量场的方法为:
首先,利用图像处理方法获得模板元件信息:元件大小、引脚个数、引脚长度、引脚宽度、引脚种类和引脚所在位置;
其次,利用模板元件信息,建立引脚边缘图像,所述引脚边缘图中非零像素点集为U={um=(xm,ym)},其中um为点集中第m个点,(xm,ym)为第m个点的坐标,单位为像素;
然后,以模板图像中心为原点建立直角坐标系,令C为从模板图像中的一段边缘线,点A为边缘线C上的一个像素非0点;原点O到点A之间的距离为dOA,且向量与向量之间的夹角为θAOX,如图2所示,则在点A处所提取的距离信息为:
角度信息为:
其中,U为实数集合,利用求A点距离角度的方法,遍历引脚边缘图像的所有边缘点,获得模板图像的向量场。
进一步地:步骤三所述获得元件的距离图像的具体方法为:
利用边缘提取方法提取元件的边缘图像;利用3-4DT矩阵计算元件边缘图像中每个非0像素点到最近的边缘点的距离,并将元件的距离图像表示为DT(x,y)。
进一步地:步骤四所述获得距离图像的梯度向量场DTOF的具体方法为:
将[02π)均匀量化为8个离散通道:Φ={πn/4},n={0,1,…,7};建立3×3滑动窗口,距离图像中边缘点的梯度方向为DTO(x,y)等于-1;距离图中非边缘像素点的梯度方向为DTO(x,y)∈Φ;
求取距离图像的梯度方向场DTOF:
DTOF(x,y)={cos(DTO(x,y))sin(DTO(x,y))} (6)
梯度图像的梯度场GVF:
进一步地:步骤九中利用步骤六所述的位置迭代公式,计算每次迭代时,位置变化幅度,建立位置终止条件的方法为:利用公式:
其中,(xk,yk)和(xk-1,yk-1)为第k次和第k-1次迭代时模板图像中心在测试图像中坐标;dP为第k次迭代时,位置变化幅度。
进一步地:步骤十中利用距离费用函数,建立匹配费用终止条件的方法为:
利用公式:
其中,(xk,yk)为第k次迭代时模板图像中心在测试图像中坐标,Ok为第k次迭代时模板图像的旋转角度,UT为第k次迭代时,模板图像的边缘点集,DT(ui)为点ui处的距离图像中的距离值。
本发明在实现了元件的视觉定位功能的同时,更是在算法通用性和鲁棒性上达到一个比较高的水平。根据重复测试结果显示,本发明对所选取实例计算一次所需时间平均为30ms,相同外界条件下100次重复测试的重复精度也达到±0.001mm内,本发明所述的基于视觉的元件定位方法无论精度,实时性,稳定性都很高性能。
附图说明
图1为8引脚芯片模板图像;
图2为具体实施方式二所述的模板图像的信息示意图;
图3为具体实施方式二所述的3×3滑动窗口示意图;图中i、j分别为3×3滑动窗口的中心横纵坐标;
图4为具体实施方式四所述的距离图像的梯度场示意图;
图5为具体实施方式四所述的距离图像的梯度向量场示意图;
图6为本发明所述方法的流程图。
具体实施方式
具体实施方式一、结合图1说明本实施方式,本实施方式所述的一种基于模板匹配的元件定位方法,该方法的具体步骤为:
步骤一、对待定位元件建立模板图像,所述模板图像中元件的引脚边缘像素灰度值为a,背景灰度值为0;a为正整数;模板图像如图1所示;
步骤二、以模板图像的中心为原点建立直角坐标系,获得模板图像的向量场;
所述模板图像的信息包括模板图像的边缘点到坐标原点之间的距离和模板图像的边缘点与坐标原点之间连线与模板图像的直角坐标系X轴之间的夹角;
步骤三、利用工业相机,对元件进行拍照,获得元件图像;利用边缘提取方法提取元件的边缘图像;根据距离变换方法,计算元件边缘图像中的每个非边缘像素点到边缘点的距离,从而获得元件的距离图像;
步骤四、从元件的距离图像中提取距离图像的灰度下降方向;获得距离图像的梯度向量场GVF;
步骤五、利用步骤二和步骤四中获得的模板图像的向量场和距离图像的梯度向量场信息,根据刚体力学原理对待定位元件的旋转角度进行估计;
根据刚体力学原理获得待定位元件的旋转角度的具体方法为:利用公式(1):
Ok=Ok-1+sgn(MI(Ok-1))Os (1)
计算k次迭代时模板图像的旋转角度;其中:sgn(·)为符号函数,Os为迭代步长,MI(Ok-1)为第k-1次迭代模板图像的和力矩;
通过对所有模板边缘点处的力矩叠加获得模板图像的和力矩:
其中,UT为第k次迭代时模板边缘点集,UT=2DET(U,xk,yk,Ok),2DET为2维欧式变换,xk为第k次迭代时模板图像中心在测试图像中的X轴坐标,yk为第k次迭代时模板图像中心在测试图像中的Y轴坐标;
步骤六、利用距离图像的梯度向量场的收敛性质,计算作用于模板中心的平均梯度向量场的值,对元件在元件图像中的位置进行估计;利用迭代公式:
计算作用于模板中心的平均梯度向量场的值,实现对元件在元件图像中的位置的估计;其中,GVFX(x,y)和GVFY(x,y)分别代表距离图像梯度场GVF在X轴和Y轴上的分量;xk-1和yk-1分别为第k-1次迭代时模板图像中心在测试图像中的X轴和Y轴的坐标,n为模板图像中非零灰度值个数,即边缘点个数;
步骤七、利用模板引脚边缘最大半径作为区域搜索半径,建立元件候选搜索区域;
步骤八、针对每一个元件候选搜索区域,将步骤六公式(3)中元件的初始迭代位置设置为候选搜索区域的中心,将步骤五公式(1)中元件的初始迭代角度设置为候选搜索区域的长轴方向;
步骤九、利用步骤六所述的迭代公式(3),计算每次迭代时,位置变化幅度,建立位置终止条件;获得元件在模板图像中的坐标;
步骤十、利用距离费用函数,建立匹配费用终止条件;获得元件在模板图像中的角度,实现元件的定位。
本发明首先,获取待定位元件的信息,建立元件模板图像,获取元件非零像素点的距离和角度信息;其次,在线获取元件图片,利用边缘提取方法提取边缘信息,再通过距离变换得到元件的距离变换图像;然后针对距离变换图像获取元件距离图像的梯度场;再次,利用元件梯度图像建立搜索区域、初始位置和初始角度;再次利用刚体力学原理,通过迭代的方法,获取元件在图像中的位置和角度。最终实现元件的在线定位。
具体实施方式二、本实施方式是对具体实施方式一所述的一种基于模板匹配的元件定位方法的进一步说明,该方法的具体步骤为:步骤二所述的以模板图像中心为原点建立直角坐标系,提取模板图像信息,获得模板图像的向量场的方法为:
首先,利用图像处理方法获得模板元件信息:元件大小、引脚个数、引脚长度、引脚宽度、引脚种类和引脚所在位置;
其次,利用模板元件信息,建立引脚边缘图像,所述引脚边缘图中非零像素点集为U={um=(xm,ym)},其中um为点集中第m个点,(xm,ym)为第m个点的坐标,单位为像素;
然后,以模板图像中心为原点建立直角坐标系,令C为从模板图像中的一段边缘线,点A为边缘线C上的一个像素非0点;原点O到点A之间的距离为dOA,且向量与向量之间的夹角为θAOX,如图2所示,则在点A处所提取的距离信息为:
角度信息为:
其中,U为实数集合,利用求A点距离角度的方法,遍历引脚边缘图像的所有边缘点,获得模板图像的向量场。
具体实施方式三、本实施方式是对具体实施方式一所述的一种基于模板匹配的元件定位方法的进一步说明,步骤三所述获得元件的距离图像的具体方法为:
利用边缘提取方法:利用Sobel、Isotropic、SobelRoberts、Prewitt、Laplacian或Canny算子提取元件的边缘图像;
利用3-4DT矩阵计算元件边缘图像中每个非0像素点到最近的边缘点的距离,并将元件的距离图像表示为DT(x,y)。
具体实施方式四、本实施方式是对具体实施方式一、二或三所述的一种基于模板匹配的元件定位方法的进一步说明,步骤四所述获得距离图像的梯度向量场DTOF的具体方法为:
将[0 2π)均匀量化为8个离散通道:Φ={πn/4},n={0,1,…,7};建立3×3滑动窗口,距离图像中边缘点的梯度方向为DTO(x,y)等于-1;距离图中非边缘像素点的梯度方向为DTO(x,y)∈Φ;求取距离图像的梯度方向场DTOF:
DTOF(x,y)={cos(DTO(x,y)) sin(DTO(x,y))} (6)
梯度图像的梯度场GVF:
具体实施方式五、本实施方式是对具体实施方式一、二或三所述的一种基于模板匹配的元件定位方法的进一步说明,步骤九中利用步骤六所述的位置迭代公式(3),计算每次迭代时,位置变化幅度,建立位置终止条件的方法为:利用公式:
其中,(xk,yk)和(xk-1,yk-1)为第k次和第k-1次迭代时模板图像中心在测试图像中坐标;dP为第k次迭代时,位置变化幅度。
具体实施方式六、本实施方式是对具体实施方式一、二或三所述的一种基于模板匹配的元件定位方法的进一步说明,骤十中利用距离费用函数,建立匹配费用终止条件的方法为:
利用公式:
其中,(xk,yk)为第k次迭代时模板图像中心在测试图像中坐标,Ok为第k次迭代时模板图像的旋转角度,UT为第k次迭代时,模板图像的边缘点集,DT(ui)为点ui处的距离图像中的距离值。

Claims (6)

1.一种基于模板匹配的元件定位方法,其特征在于,该方法的具体步骤为:
步骤一、对待定位元件建立模板图像,所述模板图像中元件的引脚边缘像素灰度值为a,背景灰度值为0;a为正整数;
步骤二、以模板图像的中心为原点建立直角坐标系,提取模板图像的信息,获得模板图像的向量场;
所述模板图像的信息包括模板图像的边缘点到坐标原点之间的距离和模板图像的边缘点与坐标原点之间连线与模板图像的直角坐标系X轴之间的夹角;
步骤三、利用工业相机,对元件进行拍照,获得元件图像;利用边缘提取方法提取元件的边缘图像;根据距离变换方法,计算元件边缘图像中的每个非边缘像素点到边缘点的距离,从而获得元件的距离图像;
步骤四、从元件的距离图像中提取距离图像的灰度下降方向;获得距离图像的梯度向量场GVF;
步骤五、利用步骤二和步骤四中获得的模板图像的向量场和距离图像的梯度向量场信息,根据刚体力学原理对待定位元件的旋转角度进行估计;
根据刚体力学原理获得待定位元件的旋转角度的具体方法为:利用公式(1):
Ok=Ok-1+sgn(MI(Ok-1))Os (1)
计算k次迭代时模板图像的旋转角度;其中:sgn(·)为符号函数,Os为迭代步长,MI(Ok-1)为第k-1次迭代模板图像的和力矩;
通过对所有模板边缘点处的力矩叠加获得模板图像的和力矩:
其中,UT为第k次迭代时模板边缘点集,UT=2DET(U,xk,yk,Ok),2DET为2维欧式变换,xk为第k次迭代时模板图像中心在测试图像中的X轴坐标,yk为第k次迭代时模板图像中心在测试图像中的Y轴坐标,U为引脚边缘图中非零像素点集;
步骤六、利用距离图像的梯度向量场的收敛性质,计算作用于模板中心的平均梯度向量场的值,对元件在元件图像中的位置进行估计;利用迭代公式:
计算作用于模板中心的平均梯度向量场的值,实现对元件在元件图像中的位置的估计;其中,GVFX(x,y)和GVFY(x,y)分别代表距离图像梯度场GVF在X轴和Y轴上的分量;xk-1和yk-1分别为第k-1次迭代时模板图像中心在测试图像中的X轴和Y轴的坐标,n为模板图像中非零灰度值个数,即边缘点个数;
步骤七、利用模板引脚边缘最大半径作为区域搜索半径,建立元件候选搜索区域;
步骤八、针对每一个元件候选搜索区域,将步骤六公式(3)中元件的初始迭代位置设置为候选搜索区域的中心,将步骤五公式(1)中元件的初始迭代角度设置为候选搜索区域的长轴方向;
步骤九、利用步骤六所述的迭代公式(3),计算每次迭代时,位置变化幅度,建立位置终止条件;获得元件在模板图像中的坐标;
步骤十、利用距离费用函数,建立匹配费用终止条件;获得元件在模板图像中的角度,实现元件的定位。
2.根据权利要求1所述的一种基于模板匹配的元件定位方法,其特征在于,该方法的具体步骤为:步骤二所述的以模板图像中心为原点建立直角坐标系,提取模板图像信息,获得模板图像的向量场的方法为:
首先,利用图像处理方法获得模板元件信息:元件大小、引脚个数、引脚长度、引脚宽度、引脚种类和引脚所在位置;
其次,利用模板元件信息,建立引脚边缘图像,所述引脚边缘图中非零像素点集为U={um=(xm,ym)},其中um为点集中第m个点,(xm,ym)为第m个点的坐标,单位为像素;
然后,以模板图像中心为原点建立直角坐标系,令C为从模板图像中的一段边缘线,点A为边缘线C上的一个像素非0点;原点O到点A之间的距离为dOA,且向量与向量之间的夹角为θAOX,则在点A处所提取的距离信息为:
角度信息为:
其中,利用求A点距离角度的方法,遍历引脚边缘图像的所有边缘点,获得模板图像的向量场。
3.根据权利要求1所述的一种基于模板匹配的元件定位方法,其特征在于,步骤三所述获得元件的距离图像的具体方法为:
利用边缘提取方法提取元件的边缘图像;利用3-4DT矩阵计算元件边缘图像中每个非0像素点到最近的边缘点的距离,并将元件的距离图像表示为DT(x,y)。
4.根据权利要求3所述的一种基于模板匹配的元件定位方法,其特征在于,步骤四所述获得距离图像的梯度向量场DTOF的具体方法为:
将[0 2π)均匀量化为8个离散通道:Φ={πn/4},n={0,1,…,7};建立3×3滑动窗口,距离图像中边缘点的梯度方向为DTO(x,y)等于-1;距离图中非边缘像素点的梯度方向为DTO(x,y)∈Φ;求取距离图像的梯度方向场DTOF:
DTOF(x,y)={cos(DTO(x,y))sin(DTO(x,y))} (6)
梯度图像的梯度场GVF:
5.根据权利要求1、2或3所述的一种基于模板匹配的元件定位方法,其特征在于,步骤九中利用步骤六所述的位置迭代公式(3),计算每次迭代时,位置变化幅度,建立位置终止条件的方法为:利用公式:
其中,(xk,yk)和(xk-1,yk-1)为第k次和第k-1次迭代时模板图像中心在测试图像中坐标;dP为第k次迭代时,位置变化幅度。
6.根据权利要求1、2或3所述的一种基于模板匹配的元件定位方法,其特征在于,步骤十中利用距离费用函数,建立匹配费用终止条件的方法为:
利用公式:
其中,(xk,yk)为第k次迭代时模板图像中心在测试图像中坐标,Ok为第k次迭代时模板图像的旋转角度,UT为第k次迭代时,模板图像的边缘点集,DT(ui)为点ui处的距离图像中的距离值。
CN201610911421.9A 2016-10-19 2016-10-19 一种基于模板匹配的元件定位方法 Active CN106485284B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610911421.9A CN106485284B (zh) 2016-10-19 2016-10-19 一种基于模板匹配的元件定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610911421.9A CN106485284B (zh) 2016-10-19 2016-10-19 一种基于模板匹配的元件定位方法

Publications (2)

Publication Number Publication Date
CN106485284A CN106485284A (zh) 2017-03-08
CN106485284B true CN106485284B (zh) 2019-05-14

Family

ID=58269803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610911421.9A Active CN106485284B (zh) 2016-10-19 2016-10-19 一种基于模板匹配的元件定位方法

Country Status (1)

Country Link
CN (1) CN106485284B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107464240B (zh) * 2017-08-11 2020-07-24 哈尔滨工业大学 一种基于模板匹配的带矩形引脚芯片的定位算法
CN107504896B (zh) * 2017-08-11 2019-07-16 哈尔滨工业大学 一种基于点匹配的球形引脚元件的定位算法
CN108709500B (zh) * 2018-05-11 2020-08-11 佛山科学技术学院 一种电路板元件定位匹配方法
CN108810423B (zh) * 2018-06-20 2020-07-31 北京优尔博特创新科技有限公司 一种基于图像亮度梯度的光照角度调节方法及系统
CN111079723B (zh) * 2020-03-23 2020-06-30 杭州汇萃智能科技有限公司 目标物定位方法、装置、计算机设备和存储介质
CN111931786B (zh) * 2020-06-23 2022-02-01 联宝(合肥)电子科技有限公司 一种图像处理方法、装置及计算机可读存储介质
CN112419224B (zh) * 2020-07-17 2021-08-27 宁波智能装备研究院有限公司 一种球形引脚芯片定位方法及系统
CN112101379A (zh) * 2020-08-24 2020-12-18 北京配天技术有限公司 形状匹配方法、计算机设备及存储装置
CN115169276B (zh) * 2022-07-22 2023-04-07 北京云枢创新软件技术有限公司 一种基于叠放模块的引脚区域匹配方法
CN116385750B (zh) * 2023-05-30 2023-08-08 合肥图迅电子科技有限公司 芯片引脚外观识别方法、装置、计算机设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311940A (ja) * 1996-05-24 1997-12-02 Sanyo Electric Co Ltd 部品認識方法及び部品認識装置
CN101788805B (zh) * 2010-01-27 2012-10-31 暨南大学 一种基于运动伺服校正的高精度机器视觉二维定位方法
CN103217438B (zh) * 2013-04-02 2015-02-18 天津大学 一种基于图像特征的电路板元件精确定位与检测的方法
CN103745475B (zh) * 2014-01-22 2017-02-08 哈尔滨工业大学 一种用于球形引脚元件的检测与定位方法
JP6257546B2 (ja) * 2015-03-16 2018-01-10 三菱電機株式会社 アプリケーション試験装置
CN105046271B (zh) * 2015-06-25 2018-03-30 哈尔滨工业大学 基于模板匹配的melf元件定位与检测方法
CN105389818B (zh) * 2015-11-12 2018-11-27 广州视源电子科技股份有限公司 元件的定位方法和系统

Also Published As

Publication number Publication date
CN106485284A (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
CN106485284B (zh) 一种基于模板匹配的元件定位方法
Zhao et al. Image matching by normalized cross-correlation
He et al. Sparse template-based 6-D pose estimation of metal parts using a monocular camera
CN107464240B (zh) 一种基于模板匹配的带矩形引脚芯片的定位算法
Acharjya et al. A study on image edge detection using the gradients
CN105654421B (zh) 基于变换不变低秩纹理的投影变换图像匹配方法
US11676301B2 (en) System and method for efficiently scoring probes in an image with a vision system
CN107490356B (zh) 一种非合作目标旋转轴和旋转角测量方法
WO2018072333A1 (zh) 一种元件错件检测方法和装置
CN106340010A (zh) 一种基于二阶轮廓差分的角点检测方法
CN101833767A (zh) 数字图像中基于梯度与颜色特征的直线自动匹配方法
CN112991374A (zh) 基于Canny算法的边缘增强方法、装置、设备及存储介质
Miksch et al. Automatic extrinsic camera self-calibration based on homography and epipolar geometry
CN106802149B (zh) 基于高维组合特征的快速序列图像匹配导航方法
Masuzaki et al. High accuracy ellipse-specific fitting
Han et al. Harris corner detection algorithm at sub-pixel level and its application
Verma et al. Vision based object follower automated guided vehicle using compressive tracking and stereo-vision
KR101184588B1 (ko) 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치
CN111667429B (zh) 一种巡检机器人目标定位校正方法
Zhang et al. Satellite Cloud Image Registration by Combining Curvature Shape Representation with Particle Swarm Optimization.
Du et al. Optimization of stereo vision depth estimation using edge-based disparity map
Forssén et al. View matching with blob features
CN110335298B (zh) 一种基于无人机平台图像消旋方法
Li et al. Vanishing point estimation by spherical gradient
CN111192300B (zh) 一种用于局部形变测量的稀疏标志点数据配准方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant