CN113808188B - 元件的拍摄方法 - Google Patents
元件的拍摄方法 Download PDFInfo
- Publication number
- CN113808188B CN113808188B CN202110944581.4A CN202110944581A CN113808188B CN 113808188 B CN113808188 B CN 113808188B CN 202110944581 A CN202110944581 A CN 202110944581A CN 113808188 B CN113808188 B CN 113808188B
- Authority
- CN
- China
- Prior art keywords
- image
- offset
- area
- center
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种元件的拍摄方法,该方法包括以下的步骤:S10、拍摄第一图像,通过第一拍摄单元拍摄元件整体,取得第一图像;S20、根据元件关键特征区域不同于其他区域的信息,提取出包含关键特征区域信息的区域;S30、根据第一图像,分析出第一图像的中心坐标S0,第一特征区域A1的中心坐标S1和第二特征区域A2的中心坐标S2;S40、确定元件的移动量D1;S50、确定元件的移动量D2;S60、计算元件的偏移量;S70、根据元件的偏移量校正吸嘴位置;本发明的有益效果是:对元件进行识别,实现元件位置精确判定和校正。
Description
技术领域
本发明涉及元器件安装技术领域,更具体的说,本发明涉及一种元件的拍摄方法。
背景技术
贴片机只能识别限定尺寸范围的物体,对于比预定尺寸大的元件,难满足高精度贴装。通常采用硬件多次移动物体和者软件拼接分别多次采集图像的方式进行,前者造成工作头体积增大,降低空间利用率,还使得控制过程冗长,在不对运动监控和校正情况下,难以完成大尺寸元件的高精度贴装;图像拼接无法避免边缘像素误差带来的精度降低,另外,图像边缘和中心畸变标定过程繁杂。
发明内容
为了克服现有技术的不足,本发明提供一种元件的拍摄方法,该方法通过两个拍摄单元对元件进行识别,实现元件位置精确判定和校正。
本发明解决其技术问题所采用的技术方案是:一种元件的拍摄方法,其改进之处在于,该方法包括以下的步骤:
S10、拍摄第一图像,通过第一拍摄单元拍摄元件整体,取得第一图像;
S20、根据元件关键特征区域不同于其他区域的信息,提取出包含关键特征区域信息的区域,至少包括第一特征区域A1和第二特征区域A2;
S30、根据第一图像,分析出第一图像的中心坐标S0,第一特征区域A1的中心坐标S1和第二特征区域A2的中心坐标S2;
S40、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0以及第一特征区域A1的中心坐标S1确定元件的移动量D1,根据移动量D1移载元件,使第一特征区域A1的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第一特征区域A1的偏移量△S1’;
S50、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0、第一特征区域A1的中心坐标S1以及第二特征区域A2的中心坐标S2,确定元件的移动量D2,使第二特征区域A2的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第二特征区域A2的偏移量△S2’;
S60、将第一图像的中心坐标S0、第一特征区域A1的中心坐标S1、第二特征区域A2的中心坐标S2、移动量D1、移动量D2、偏移量△S1’及偏移量△S2’与设计值比较,计算元件的偏移量;
S70、根据元件的偏移量校正吸嘴位置。
进一步的,所述步骤S20中,关键特征区域信息包括灰度、形状以及颜色。
进一步的,所述步骤S30中,采用图像识别算法分析出中心坐标S0,图像识别算法包括边缘检测算子检测轮廓算法、目标轮廓检测算法、最大外接圆算法以及最大外接矩形算法。
进一步的,所述步骤S30中,根据第一特征区域A1和第二特征区域A2的区域特点分别计算出中心坐标S1和中心坐标S2;
当第一特征区域A1和第二特征区域A2截取的区域为圆形时,则计算该圆形的圆心,作为中心坐标S1和中心坐标S2。
进一步的,步骤S40中,元件初始中心坐标为K1,K1=P1,即取料后的元件位于第一拍摄单元的视野中心;
根据第一图像的中心坐标S0和第一特征区域A1的中心坐标S1导出相对位置偏移量R1=S1-S0;
将相对位置偏移量R1与第一拍摄单元对应的图像放大倍数M1相乘,得到第一特征区域A1相对于元件初始坐标的实际偏移坐标R1*M1,根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2和实际偏移坐标R1*M1,导出移动量D1=(P2-P1-R1*M1);
根据移动量D1移载元件后,元件保持位置K2=K1+D1。
进一步的,步骤S40中,第二拍摄单元进行图像采集时,进行第一特征区域A1实际坐标精确分析,其中△S1为第一特征区域A1的特征图像偏移量,第一特征区域A1的偏移量△S1’=△S1*M2,其中M2为第二拍摄单元的图像放大倍数。
进一步的,步骤S50中,根据第一图像,导出第一特征区域A1和第二特征区域A2的相对位置偏移量R2=S2-S1;
将相对位置偏移量R2乘以第一拍摄单元对应的图像放大倍数M1,得到第二特征区域A2移动到第二拍摄单元视野中心实际需要偏移坐标,即移动量D2=M1*R2;
元件从保持位置K2移动到保持位置K3,K3=K2+D2,使第二特征区域A2位于第二拍摄拍摄单元的视野范围。
进一步的,步骤S50中,第二拍摄单元进行图像采集时,进行第二特征区域A2实际坐标精确分析,其中△S2为第二特征区域A2的特征图像偏移量,第二特征区域A2的偏移量△S2’=△S2*M2,其中M2为第二拍摄单元的图像放大倍数。
进一步的,步骤S60中,计算元件的偏移量过程如下:
以K1+D1+ΔS1’和K1+D1+D2+ΔS2’作为线段L1的两个端点,根据直线方程计算线段L1的中心C1和倾斜角θ1,该倾斜角θ1即为线段L1与水平面所呈的锐角;
以K1+D1和K1+D1+D2作为线段L2的两个端点,根据直线方程计算线段L2的中心C2和倾斜角θ2,该倾斜角θ2即为线段L2与水平面所呈的锐角;
计算元件偏移量Df=[ΔC,Δθ]=[C1-D1-D2-C2,θ1-θ2]。
进一步的,所述第一特征区域A1和第二特征区域A2的面积为第二拍摄单元视野的0.3-0.8倍。
本发明的有益效果是:第一拍摄单元具备大视野和粗识别特征,缩短分析时间,第二拍摄单元识别范围小,图像质量高,可精确拍摄元件关键信息,实现元件精确判定及校正,保证贴装元件的精确性、可靠性。
附图说明
图1为本发明的一种元件的拍摄方法的原理示意图。
图2为本发明的一种元件的拍摄方法的具体实施例图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整地描述,以充分地理解本发明的目的、特征和效果。显然,所描述的实施例只是本发明的一部分实施例,而不是全部实施例,基于本发明的实施例,本领域的技术人员在不付出创造性劳动的前提下所获得的其他实施例,均属于本发明保护的范围。另外,专利中涉及到的所有联接/连接关系,并非单指构件直接相接,而是指可根据具体实施情况,通过添加或减少联接辅件,来组成更优的联接结构。本发明创造中的各个技术特征,在不互相矛盾冲突的前提下可以交互组合。
本发明揭示了一种元件的拍摄方法,具体的,在本实施例中,参照图1所示,该方法包括以下的步骤:
S10、拍摄第一图像,通过第一拍摄单元拍摄元件整体,取得第一图像;
S20、根据元件关键特征区域不同于其他区域的信息,提取出包含关键特征区域信息的区域;在实际应用中,关键区域特征数量根据元件可不同,如简单元件可根据一个特征确定定位信息,若复杂元件需要根据N个特征才能判断元件实际位置,则需要N个特征区域;在本实施例中,包括第一特征区域A1和第二特征区域A2;并且,所述的关键特征区域信息包括灰度、形状以及颜色;
S30、根据第一图像,分析出第一图像的中心坐标S0,第一特征区域A1的中心坐标S1和第二特征区域A2的中心坐标S2;
结合图1所示,所述步骤S30中,采用图像识别算法分析出中心坐标S0,图像识别算法包括边缘检测算子检测轮廓算法、目标轮廓检测算法、最大外接圆算法以及最大外接矩形算法;
根据第一特征区域A1和第二特征区域A2的区域特点分别计算出中心坐标S1和中心坐标S2;在本实施例中,结合图1所示,第一特征区域A1和第二特征区域A2截取的区域为圆形时,则计算该圆形的圆心,作为中心坐标S1和中心坐标S2;可以理解的是,当第一特征区域A1和第二特征区域A2截取的区域为正方形时,则计算正方形的中心;
S40、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0以及第一特征区域A1的中心坐标S1确定元件的移动量D1,根据移动量D1移载元件,使第一特征区域A1的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第一特征区域A1的偏移量△S1’;并且,第一特征区域A1和第二特征区域A2的面积为第二拍摄单元视野的0.5倍;需要说明的是,第一特征区域A1和第二特征区域A2的面积为第二拍摄单元视野的0.3-0.8之间最佳;
在本实施例中,其计算过程如下:
元件初始中心坐标为K1,K1=P1,即取料后的元件位于第一拍摄单元的视野中心;
根据第一图像的中心坐标S0和第一特征区域A1的中心坐标S1导出相对位置偏移量R1=S1-S0;
将相对位置偏移量R1与第一拍摄单元对应的图像放大倍数M1相乘,得到第一特征区域A1相对于元件初始坐标的实际偏移坐标R1*M1,根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2和实际偏移坐标R1*M1,导出移动量D1=(P2-P1-R1*M1);根据移动量D1移载元件后,元件保持位置K2=K1+D1。
步骤S40中,第二拍摄单元进行图像采集时,进行第一特征区域A1实际坐标精确分析,其中△S1为第一特征区域A1的特征图像偏移量,第一特征区域A1的偏移量△S1’=△S1*M2,其中M2为第二拍摄单元的图像放大倍数。
S50、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0、第一特征区域A1的中心坐标S1以及第二特征区域A2的中心坐标S2,确定元件的移动量D2,使第二特征区域A2的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第二特征区域A2的偏移量△S2’;
在本实施例中,步骤S50的计算过程如下:根据第一图像,导出第一特征区域A1和第二特征区域A2的相对位置偏移量R2=S2-S1;
将相对位置偏移量R2乘以第一拍摄单元对应的图像放大倍数M1,得到第二特征区域A2移动到第二拍摄单元视野中心实际需要偏移坐标,即移动量D2=M1*R2;
元件从保持位置K2移动到保持位置K3,K3=K2+D2,使第二特征区域A2位于第二拍摄拍摄单元的视野范围。
另外,步骤S50中,第二拍摄单元进行图像采集时,进行第二特征区域A2实际坐标精确分析,其中△S2为第二特征区域A2的特征图像偏移量,第二特征区域A2的偏移量△S2’=△S2*M2,其中M2为第二拍摄单元的图像放大倍数。
S60、将第一图像的中心坐标S0、第一特征区域A1的中心坐标S1、第二特征区域A2的中心坐标S2、移动量D1、移动量D2、偏移量△S1’及偏移量△S2’与设计值比较,计算元件的偏移量;
在本实施例中,参照图2所示,计算元件的偏移量的步骤如下:
以K1+D1+ΔS1’和K1+D1+D2+ΔS2’作为线段L1的两个端点,根据直线方程计算线段L1的中心C1和倾斜角θ1;
以K1+D1和K1+D1+D2作为线段L2的两个端点,根据直线方程计算线段L2的中心C2和倾斜角θ2;
计算元件偏移量Df=[ΔC,Δθ]=[C1-D1-D2-C2,θ1-θ2];
该步骤中,通过这种方式计算元件的偏移量,对异常元件判定效率高;不仅能使细节精细化,更重要的是保留了原始元件的特征,避免精确信息丢失,识别精度高;通过一步步达到预设的目标,使识别过程可控,便于问题分析和管理。
S70、根据元件的偏移量校正吸嘴位置。
在本实施例中国,校正吸嘴位置的过程如下:
元件安装装置开始执行安装前,CPU从管理计算机取得包含安装信息的生产作业数据并存储于HDD,另外CPU也可以预先从管理计算机接收生产作业数据并存储与HDD。
下表为存储于HDD的安装信息的表格。安装信息包含向基板安装的元件的安装顺序、元件类别、安装坐标、与保持坐标等建立了对应的信息。另外,安装坐标是表示配置元件的基板上的位置的坐标(XY坐标)。保持坐标是表示吸附并保持元件的位置的坐标(XY坐标),在本实施例中,保持坐标被预先确定为元件取料位置(元件的中心)。
步骤S60的计算结果,跟步骤S70中的校准步骤关系:步骤S60的最终计算结果反馈到控制单元,并控制元件保持单元和移载单元移动量,可以指导校正步骤中所述元件保持单元移动位置,即吸嘴上下左右前后方向的移动,使得最终元件贴装位置符合生产作业要求的贴装条件。例如,通过两点确定中心可定位的元件,从安装信息中获取安装中心坐标C2,安装角度θ2,而经过三次分析移动后元件保持位置为K1+D1+D2,偏移量计算参见步骤S60,需计算元件当前位置K3到吻合安装位置需要进行的纠正角度偏差和坐标偏差,控制单元控制元件保持单元依次旋转和移动相应的纠正角度偏差和坐标偏差。
常规矩形元件识别过程说明如下:按照常规识别装置,对超过识别视野范围的元件通常需要先拍摄矩形一个对角线部分的图像,再进行移动后识别另外对角线的图像,图像拼接后计算实际物体大小及位置偏移。该过程中像素拼接误差大,另外由于特征在图像边缘畸变大,也影响识别精度,要进行采集完整信息后判定是否贴装及贴装位置,计算过程长。采用本发明中的方法,实施过程为:先采集元件整体图像,可以判断出异常后不进行贴装,避免识别效率降低;一般正常元件中模板匹配完形状后,对关键区域(如两个对角线顶点坐标)识别计算;所识别的顶点依次位于第二拍摄单元的视野中心,能保证元件识别精度。
基于此,该方法主要应用于实现向基板上安装元件,采用第一拍摄单元和第二拍摄单元的结合,第一拍摄单元通过大视野进行元件整体图像的采集,集合元件自身特征确定第二拍摄单元分析的目标,根据采集图像中特征信息相对于工作头基准标记位置关系,计算元件实际吸附状态,进行偏差量修正后将元件安装于基板上。第一拍摄单元具备大视野和粗识别特征,缩短分析时间,第二拍摄单元识别范围小,图像质量高,可精确拍摄元件关键信息,实现元件精确判定及校正,保证贴装元件的精确性、可靠性。
上述的实施例,通过大视角镜头相机模组的第一拍摄单元对元件进行初步粗识别,缩短分析时间且保证元件信息完整性。结合元件特征和初步识别图片,确定若干局部关键区域,作为高解析低畸变镜头采集图像目标,依据二次局部区域识别及位置校正,由控制单元控制保持单元移动后进行大元件精确贴装,缩短识别步骤且能高精度实现大元件贴装,与现有设备兼容性好,元件适用范围广泛。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种元件的拍摄方法,其特征在于,该方法包括以下的步骤:
S10、拍摄第一图像,通过第一拍摄单元拍摄元件整体,取得第一图像;
S20、根据元件关键特征区域不同于其他区域的信息,提取出包含关键特征区域信息的区域,至少包括第一特征区域A1和第二特征区域A2;
S30、根据第一图像,分析出第一图像的中心坐标S0,第一特征区域A1的中心坐标S1和第二特征区域A2的中心坐标S2;
S40、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0以及第一特征区域A1的中心坐标S1确定元件的移动量D1,根据移动量D1移载元件,使第一特征区域A1的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第一特征区域A1的偏移量△S1’;
S50、根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2、第一图像的中心坐标S0、第一特征区域A1的中心坐标S1以及第二特征区域A2的中心坐标S2,确定元件的移动量D2,使第二特征区域A2的位于第二拍摄单元的中心;
第二拍摄单元进行图像采集,通过第二拍摄单元识别第二特征区域A2的偏移量△S2’;
S60、将第一图像的中心坐标S0、第一特征区域A1的中心坐标S1、第二特征区域A2的中心坐标S2、移动量D1、移动量D2、偏移量△S1’及偏移量△S2’与设计值比较,计算元件的偏移量;
S70、根据元件的偏移量校正吸嘴位置。
2.根据权利要求1所述的元件的拍摄方法,其特征在于,所述步骤S20中,关键特征区域信息包括灰度、形状以及颜色。
3.根据权利要求1所述的元件的拍摄方法,其特征在于,所述步骤S30中,采用图像识别算法分析出中心坐标S0,图像识别算法包括边缘检测算子检测轮廓算法、目标轮廓检测算法、最大外接圆算法以及最大外接矩形算法。
4.根据权利要求3所述的元件的拍摄方法,其特征在于,所述步骤S30中,根据第一特征区域A1和第二特征区域A2的区域特点分别计算出中心坐标S1和中心坐标S2;
当第一特征区域A1和第二特征区域A2截取的区域为圆形时,则计算该圆形的圆心,作为中心坐标S1和中心坐标S2。
5.根据权利要求1所述的元件的拍摄方法,其特征在于,步骤S40中,元件初始中心坐标为K1,K1=P1,即取料后的元件位于第一拍摄单元的视野中心;
根据第一图像的中心坐标S0和第一特征区域A1的中心坐标S1导出相对位置偏移量R1=S1-S0;
将相对位置偏移量R1与第一拍摄单元对应的图像放大倍数M1相乘,得到第一特征区域A1相对于元件初始坐标的实际偏移坐标R1*M1,根据第一拍摄单元的中心坐标P1、第二拍摄单元的中心坐标P2和实际偏移坐标R1*M1,导出移动量D1=(P2-P1-R1*M1);
根据移动量D1移载元件后,元件保持位置K2=K1+D1。
6.根据权利要求5所述的元件的拍摄方法,其特征在于,步骤S40中,第二拍摄单元进行图像采集时,进行第一特征区域A1实际坐标精确分析,其中△S1为第一特征区域A1的特征图像偏移量,第一特征区域A1的偏移量△S1’=△S1*M2,其中M2为第二拍摄单元的图像放大倍数。
7.根据权利要求5所述的元件的拍摄方法,其特征在于,步骤S50中,根据第一图像,导出第一特征区域A1和第二特征区域A2的相对位置偏移量R2=S2-S1;
将相对位置偏移量R2乘以第一拍摄单元对应的图像放大倍数M1,得到第二特征区域A2移动到第二拍摄单元视野中心实际需要偏移坐标,即移动量D2=M1*R2;
元件从保持位置K2移动到保持位置K3,K3=K2+D2,使第二特征区域A2位于第二拍摄拍摄单元的视野范围。
8.根据权利要求7所述的元件的拍摄方法,其特征在于,步骤S50中,第二拍摄单元进行图像采集时,进行第二特征区域A2实际坐标精确分析,其中△S2为第二特征区域A2的特征图像偏移量,第二特征区域A2的偏移量△S2’=△S2*M2,其中M2为第二拍摄单元的图像放大倍数。
9.根据权利要求8所述的元件的拍摄方法,其特征在于,步骤S60中,计算元件的偏移量过程如下:
以K1+D1+ΔS1’和K1+D1+D2+ΔS2’作为线段L1的两个端点,根据直线方程计算线段L1的中心C1和倾斜角θ1,该倾斜角θ1即为线段L1与水平面所呈的锐角;
以K1+D1和K1+D1+D2作为线段L2的两个端点,根据直线方程计算线段L2的中心C2和倾斜角θ2,该倾斜角θ2即为线段L2与水平面所呈的锐角;
计算元件偏移量Df=[ΔC,Δθ]=[C1-D1-D2-C2,θ1-θ2]。
10.根据权利要求1所述的元件的拍摄方法,其特征在于,所述第一特征区域A1和第二特征区域A2的面积为第二拍摄单元视野的0.3-0.8倍。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110944581.4A CN113808188B (zh) | 2021-08-17 | 2021-08-17 | 元件的拍摄方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110944581.4A CN113808188B (zh) | 2021-08-17 | 2021-08-17 | 元件的拍摄方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808188A CN113808188A (zh) | 2021-12-17 |
CN113808188B true CN113808188B (zh) | 2023-09-19 |
Family
ID=78893682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110944581.4A Active CN113808188B (zh) | 2021-08-17 | 2021-08-17 | 元件的拍摄方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808188B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0689341A (ja) * | 1992-09-07 | 1994-03-29 | Toshiba Corp | 部品位置検出方法 |
JPH10307920A (ja) * | 1997-05-08 | 1998-11-17 | Omron Corp | 位置ずれ量検出装置及び画像検査装置並びに位置ずれ量検出プログラムを記録した機械読み取り可能な記録媒体 |
JP2001227915A (ja) * | 2000-02-16 | 2001-08-24 | Dainippon Screen Mfg Co Ltd | 撮像装置におけるカメラの位置ずれ検出方法、撮像装置におけるカメラの傾き検出方法、および、撮像装置におけるカメラの移動量補正方法 |
JP2003028614A (ja) * | 2001-07-12 | 2003-01-29 | Toyota Industries Corp | 位置検出方法、位置検出装置、産業車両、マーク、荷役用パレット、荷役用棚、貼付用シート及び荷役システム |
JP2017139388A (ja) * | 2016-02-04 | 2017-08-10 | 富士機械製造株式会社 | 実装装置 |
WO2018019143A1 (zh) * | 2016-07-29 | 2018-02-01 | 广州康昕瑞基因健康科技有限公司 | 图像拍摄对位方法和系统 |
-
2021
- 2021-08-17 CN CN202110944581.4A patent/CN113808188B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0689341A (ja) * | 1992-09-07 | 1994-03-29 | Toshiba Corp | 部品位置検出方法 |
JPH10307920A (ja) * | 1997-05-08 | 1998-11-17 | Omron Corp | 位置ずれ量検出装置及び画像検査装置並びに位置ずれ量検出プログラムを記録した機械読み取り可能な記録媒体 |
JP2001227915A (ja) * | 2000-02-16 | 2001-08-24 | Dainippon Screen Mfg Co Ltd | 撮像装置におけるカメラの位置ずれ検出方法、撮像装置におけるカメラの傾き検出方法、および、撮像装置におけるカメラの移動量補正方法 |
JP2003028614A (ja) * | 2001-07-12 | 2003-01-29 | Toyota Industries Corp | 位置検出方法、位置検出装置、産業車両、マーク、荷役用パレット、荷役用棚、貼付用シート及び荷役システム |
JP2017139388A (ja) * | 2016-02-04 | 2017-08-10 | 富士機械製造株式会社 | 実装装置 |
WO2018019143A1 (zh) * | 2016-07-29 | 2018-02-01 | 广州康昕瑞基因健康科技有限公司 | 图像拍摄对位方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113808188A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108269255B (zh) | 一种基于机器视觉的电连接器检测方法 | |
US7805219B2 (en) | Carrier robot system and control method for carrier robot | |
EP1031812A2 (en) | Measurement apparatus | |
EP0765578A1 (en) | Method and apparatus for transforming coordinate systems in an automated video monitor alignment system | |
JP2008014940A (ja) | 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置 | |
JP2008036918A (ja) | スクリーン印刷装置および画像認識位置合わせ方法 | |
CN114220757A (zh) | 晶圆检测对位方法、装置和系统及计算机介质 | |
CN109360794B (zh) | 一种晶硅光伏太阳能电池电极二次印刷精度视觉检测方法及装置 | |
KR20010040998A (ko) | 입체 영상에 의한 자동 검사 시스템 및 그 검사 방법 | |
CN114820761A (zh) | 基于图像显微扫描平台xy方向夹角测量与运动补偿方法 | |
CN112505663A (zh) | 用于多线激光雷达与相机联合标定的标定方法 | |
KR102026163B1 (ko) | 반도체 패키지의 배선 보정방법 | |
CN111376254B (zh) | 平面测距方法及系统和机械手调校平面的方法及系统 | |
CN110911589A (zh) | 层压设备和层压方法 | |
JP4405009B2 (ja) | ラインセンサーカメラを備えた検査機のキャリブレーション方法 | |
CN113808188B (zh) | 元件的拍摄方法 | |
US6633663B1 (en) | Method and system for determining component dimensional information | |
CN110658215B (zh) | 一种基于机器视觉的pcb板自动拼接检测方法与装置 | |
JP4515814B2 (ja) | 装着精度測定方法 | |
JPH0645796A (ja) | 部品実装方法 | |
KR20070099994A (ko) | 솔더 페이스트 검사 방법 | |
JP2007327824A (ja) | 端子リード検査方法 | |
JP2000211106A (ja) | スクリ―ン印刷におけるスクリ―ンマスクの位置合わせ方法 | |
JP3857668B2 (ja) | パターンの位置合わせ方法 | |
JPH08194736A (ja) | 現物照合機能を備えたcadシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |