KR20110043593A - A method and means for measuring positions of contact elements of an electronic components - Google Patents

A method and means for measuring positions of contact elements of an electronic components Download PDF

Info

Publication number
KR20110043593A
KR20110043593A KR1020117000873A KR20117000873A KR20110043593A KR 20110043593 A KR20110043593 A KR 20110043593A KR 1020117000873 A KR1020117000873 A KR 1020117000873A KR 20117000873 A KR20117000873 A KR 20117000873A KR 20110043593 A KR20110043593 A KR 20110043593A
Authority
KR
South Korea
Prior art keywords
image
image point
contact elements
point
camera
Prior art date
Application number
KR1020117000873A
Other languages
Korean (ko)
Other versions
KR101633139B1 (en
Inventor
팅 릭 웡
치 키트 로
첸 충 유
Original Assignee
비트록스 코퍼레이션 비에이치디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비트록스 코퍼레이션 비에이치디 filed Critical 비트록스 코퍼레이션 비에이치디
Publication of KR20110043593A publication Critical patent/KR20110043593A/en
Application granted granted Critical
Publication of KR101633139B1 publication Critical patent/KR101633139B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder

Abstract

본 발명은 x, y 및 z 차원의 스케일링 인자를 이용하는 전자 부품의 접촉 요소(2,3)의 위치를 측정하는 방법 및 수단에 관한 것이다. 스케일링 인자는 시스템의 카메라간 관계를 확립하는 보정 절차 동안 결정된다. 보정은, 상이한 접촉 요소들 간의 높이 차를 결정하기 위해 제 1 이미지 포인트와 제 2 이미지 포인트 사이의 변위를 획득하기 위한 프로세스의 일부로서, 접촉 요소의 각 포인트에 대한 제 1 카메라(4)에 기록된 이미지 포인트를 제 2 및 제 3 카메라(5,6)에 기록된 대응 이미지 포인트로 맵핑한다.The present invention relates to a method and means for measuring the position of contact elements (2, 3) of an electronic component using scaling factors in x, y and z dimensions. The scaling factor is determined during the calibration procedure to establish the camera-to-camera relationship of the system. The correction is recorded in the first camera 4 for each point of the contact element as part of the process for obtaining the displacement between the first image point and the second image point to determine the height difference between the different contact elements. The captured image points into corresponding image points recorded in the second and third cameras 5 and 6.

Figure pct00001
Figure pct00001

Description

전자 부품의 접촉 요소의 각각의 위치를 측정하는 방법 및 수단{A METHOD AND MEANS FOR MEASURING POSITIONS OF CONTACT ELEMENTS OF AN ELECTRONIC COMPONENTS}A method and means for measuring the position of each of the contact elements of an electronic component TECHNICAL FIELD

본 발명은 머신 비전 검사(machine vision inspection) 및 전자 부품의 접촉 요소 위치들의 측정 분야에 관한 것이다.
FIELD OF THE INVENTION The present invention relates to the field of machine vision inspection and measurement of contact element positions of electronic components.

종래기술에서, 전자 부품의 접촉 요소들의 위치를 측정하는 방법 및 수단은 전자 장치의 바닥면에 대한 접촉 요소들의 상대적인 z-위치의 결정을 위해 제 1 및 제 2 이미지를 각각 캡쳐하도록 삼각 측량 각도에 대해 설정된 2개의 카메라를 이용한다. 접촉 요소들의 결정된 위치의 정확도는 제 1 및 제 2 이미지를 기록하도록 설정된 2개의 카메라 사이의 삼각 측량 각도에 의해 영향을 받는다. 그러나, 사용된 데이터가 2D 정보로부터 유도되기 때문에 캡쳐된 삼각 측량의 정확도에 한계가 있다. 또한, 계산된 삼각 측량 각도의 정확도는 렌즈 왜곡에 영향을 받을 수 있고, 균일하지 않은 조명이 유도된 방정식에 에러를 더할 수 있다. 따라서, 측정된 접촉 요소들의 3차원 위치를 제공하기 위해 보정(calibration) 및 측정 동안 많은 불확실한 요인들에 의해 영향을 받지 않고 보다 강인한 다른 방법을 제공하는 것이 바람직하다.
In the prior art, a method and means for measuring the position of contact elements of an electronic component are adapted to triangulation angles to capture first and second images respectively for determination of the relative z-position of the contact elements relative to the bottom surface of the electronic device. Use two cameras set up. The accuracy of the determined position of the contact elements is affected by the triangulation angle between the two cameras set up to record the first and second images. However, there is a limit to the accuracy of the captured triangulation because the data used is derived from 2D information. In addition, the accuracy of the calculated triangulation angle can be affected by lens distortion and add errors to the equations in which non-uniform illumination is induced. Thus, it is desirable to provide another method that is more robust and unaffected by many uncertain factors during calibration and measurement to provide three-dimensional positions of measured contact elements.

본 발명은 전자 부품의 접촉 요소의 각 위치를 측정하는 방법에 관한 것으로, 이 방법은 접촉 요소를 보정된 공간(a calibrated space)에 위치시키는 단계와, 접촉 요소를 조명하는 단계와, 보정면(calibration plane)에 대해 실질적으로 평행하게 연장되는 제 1 이미지 평면을 갖는 제 1 카메라로 접촉 요소의 제 1 이미지를 기록하는 단계와, 제 2 카메라로 접촉 요소의 제 2 이미지를 기록하는 단계와, 각각의 접촉 요소 상의 각각의 접촉 요소에 대한 제 1 이미지 포인트를 결정하기 위해 제 1 이미지를 처리하는 단계로서, 제 1 이미지 포인트는 각각의 접촉 요소 상에 위치하는 포인트인, 제 1 이미지 처리 단계와, 각각의 접촉 요소 상의 각각의 접촉 요소에 대한 제 2 이미지 포인트를 식별하기 위해 제 2 이미지를 처리하는 단계로서, 각각의 접촉 요소에 대한 제 1 이미지 포인트 및 제 2 이미지 포인트는 각각의 접촉 요소 상의 동일 포인트에 대응하는, 제 2 이미지 처리 단계와, 위치 맵핑 알고리즘에 의해 제 2 이미지 내에서 제 3 이미지 포인트를 결정하는 단계와, 제 2 이미지 내에서 제 2 이미지 포인트 및 제 3 이미지 포인트 사이의 변위를 결정하는 단계를 포함하며, 제 3 이미지 포인트는 상기 보정면에 대해 수직으로 투영된 제 1 이미지 포인트이다.The present invention relates to a method for measuring the angular position of a contact element of an electronic component, the method comprising positioning the contact element in a calibrated space, illuminating the contact element, recording a first image of the contact element with a first camera having a first image plane extending substantially parallel to a calibration plane, and recording a second image of the contact element with a second camera, respectively Processing a first image to determine a first image point for each contact element on a contact element of the first image processing step, wherein the first image point is a point located on each contact element; Processing the second image to identify a second image point for each contact element on each contact element, wherein the first image for each contact element is obtained. The second point and the second image point correspond to the same point on each contact element, determining a third image point in the second image by a location mapping algorithm, and Determining a displacement between the second image point and the third image point, wherein the third image point is a first image point projected perpendicular to the correction plane.

본 발명은 또한 전자 부품의 접촉 요소의 각 위치를 측정하는 수단에 관한 것으로, 보정된 공간 내에 사전 배치된 접촉 요소를 조명하는 조명 소스와, 제 1 카메라 및 제 2 카메라와, 접촉 요소의 제 1 및 제 2 이미지를 각각 기록하기 위해 제공되는 제 1 카메라 및 제 2 카메라와, 처리 장치를 포함하며, 처리 장치는 제 1 카메라 및 제 2 카메라에 연결되어, 각각의 접촉 요소에 대한 제 1 이미지 내의 제 1 이미지 포인트 및 각각의 접촉 요소에 대한 제 2 이미지 내의 제 2 이미지 포인트의 위치를 검색하고, 제 2 이미지 위치에서 위치 맵핑 알고리즘에 의해 제 3 이미지 포인트를 검색하며, 제 2 이미지 포인트와 제 3 포인트 사이의 변위를 결정하고, 각각의 접촉 요소에 대한 제 1 이미지 포인트 및 제 2 이미지 포인트는 각각의 접촉 요소 상의 동일 포인트에 대응하며, 제 3 이미지 포인트는 제 1 이미지 포인트로부터 수직으로 투영된 위치이다. The invention also relates to means for measuring the respective positions of the contact elements of the electronic component, comprising: an illumination source for illuminating a contact element pre-positioned in a calibrated space, a first camera and a second camera, and a first of the contact elements. And a first camera and a second camera provided for recording the second image, respectively, and a processing device, the processing device being connected to the first camera and the second camera, the first image for each contact element within the first image. Retrieve the position of the first image point and the second image point in the second image for each contact element, retrieve the third image point by a location mapping algorithm at the second image position, and the second image point and the third Determine the displacement between the points, and the first and second image points for each contact element are compared to the same point on each contact element. And, a third image point is a position projected vertically from the first image point.

제 2 카메라에 기록될 수 없는 제 1 카메라에 기록된 이미지 포인트를 보상하기 위해 부가적인 제 3 카메라가 포함될 수도 있다. 제 3 카메라를 포함하면 전체적인 검사 시간이 단축된다.An additional third camera may be included to compensate for image points recorded in the first camera that cannot be recorded in the second camera. Including a third camera reduces the overall inspection time.

본 발명의 상기 및 다른 특징들, 측면들 및 이점들은 첨부 도면을 참조로 한 하기의 상세한 설명을 통해 가장 잘 이해할 수 있을 것이다. 도면 전체에 걸쳐 유사한 도면 부호는 유사한 부분을 나타낸다.
These and other features, aspects, and advantages of the present invention will be best understood from the following detailed description with reference to the accompanying drawings. Like numbers refer to like parts throughout.

도 1a 및 1b는 본 발명에 따른 조명 및 카메라의 배치를 개략적으로 도시한 도면.
도 2a, 2b 및 2c는 제 1, 제 2 및 제 3 카메라에 의해 기록되는 BGA 부품의 제 1, 제 2 및 제 3 이미지의 예를 각각 도시한 도면.
도 3은 보정 수단을 위한 복수 층의 레티클의 일례를 도시한 도면.
도 4a, 4b 및 4c는 제 1, 제 2 및 제 3 카메라에 의해 기록된 보정 수단을 위한 레티클의 이미지의 일례를 도시한 도면.
도 5는 제 1 보정 이미지로부터 제 2 보정 이미지로의 좌표의 맵핑 알고리즘을 도시한 도면.
도 6은 본 발명에 따른 측정 원리를 도시한 도면.
1a and 1b schematically show the arrangement of a light and a camera according to the invention;
2A, 2B and 2C show examples of first, second and third images of BGA parts recorded by the first, second and third cameras, respectively.
3 shows an example of a multi-layered reticle for the correction means.
4A, 4B and 4C show examples of images of the reticle for the correction means recorded by the first, second and third cameras.
5 shows a mapping algorithm of coordinates from a first corrected image to a second corrected image.
6 shows a measuring principle according to the invention;

본 발명에 따른 방법은 BGA(Ball Grid Array)/CSP(Chip Scale Packaging), 플립칩 장치, 리드 디바이스(leaded devices)(QFP, TSOP) 및 리드리스 디바이스(MLP, QFN)와 같은 전자 부품의 접촉 요소들의 3차원 위치의 자동 계산을 위한 것이다. 본 발명은, 예컨대 도 1에 도시된 바와 같이 BGA/CSP 디바이스(1)와 리드 디바이스의 조합과 같은 단일 디바이스 상에서 발견되는 접촉 요소들의 결합의 3차원 위치를 자동으로 계산할 수 있다.The method according to the invention is the contact of electronic components such as Ball Grid Array (BGA) / Chip Scale Packaging (CSP), flip-chip devices, leaded devices (QFP, TSOP) and leadless devices (MLP, QFN). For automatic calculation of the three-dimensional position of the elements. The present invention can automatically calculate the three-dimensional position of the combination of contact elements found on a single device, such as a combination of a BGA / CSP device 1 and a lead device, for example as shown in FIG.

도 1은 접촉 요소들(2)이 조명 소스(7) 및 (8)에 의해 조명되는 방식으로 보정된 공간에 사전 배치된 전자 부품(1)을 도시하고 있다. 도 2a에 도시된 바와 같이, 제 1 카메라(4)는 부품의 바닥으로부터 제 1 이미지를 기록하도록 보정면에 대해 거의 직교하도록 위치된다. 제 2 카메라(5) 및 제 3 카메라(6)는 도 2b 및 2c에 각각 도시된 바와 같이 전자 부품의 측면 사시도의 제 2 및 제 3 이미지를 기록하도록 위치한다. 본 발명의 제 1 실시예에서는 전자 부품의 접촉 요소들의 3차원 위치를 결정하기 위해 2개의 카메라만이 요구된다. 제 3 카메라는 이들 접촉 요소들이 제 2 이미지로부터 볼 수 없는 경우에 전자 부품들의 접촉 요소들의 이미지를 기록하는데 사용된다. 제 3 카메라를 사용하면 전체 이미지 획득 시간이 단축될 수 있다. 제 3 카메라가 사용되는 경우, 제 1 및 제 3 카메라의 제 1 및 제 3 이미지에 기록된 다른 접촉 요소들의 위치를 측정하는 방법 및 수단은 제 1 및 제 2 카메라에 의해 사용된 방법 및 수단과 동일하다. 따라서, 본 발명의 동작은 제 1 및 제 2 카메라를 사용하는 것으로 설명한다.1 shows an electronic component 1 pre-positioned in a calibrated space in such a way that the contact elements 2 are illuminated by the illumination sources 7 and 8. As shown in FIG. 2A, the first camera 4 is positioned almost perpendicular to the correction plane to record the first image from the bottom of the part. The second camera 5 and the third camera 6 are positioned to record the second and third images of the side perspective view of the electronic component as shown in Figs. 2B and 2C, respectively. In the first embodiment of the present invention, only two cameras are required to determine the three-dimensional position of the contact elements of the electronic component. The third camera is used to record an image of the contact elements of the electronic components when these contact elements are not visible from the second image. Using a third camera can shorten the overall image acquisition time. When a third camera is used, the method and means for measuring the position of the other contact elements recorded in the first and third images of the first and third cameras may differ from the methods and means used by the first and second cameras. same. Thus, the operation of the present invention is described as using the first and second cameras.

바람직하게는, 카메라(1, 2)는 도 1a 및 1b에 도시된 바와 같이 두 카메라가 모두 전자 부품을 향하도록 하는 방식으로 서로에 대해 배치된다. 또한, 전체 전자 부품의 모든 접촉 요소들이 적어도 2개의 상이한 카메라에 의해 뷰잉될 수 있는 한, 카메라(1,2,3)는 상이한 위치에 배치될 수 있다. 예컨대, 도 1a 및 1b는 접촉 요소들의 가능한 모든 위치가 적어도 2개의 상이한 카메라의 뷰 내에 있도록 3개의 카메라가 모두 상이한 x, y, z 좌표에 위치하고 있음을 도시하고 있다.Preferably, the cameras 1, 2 are arranged relative to each other in such a way that both cameras face the electronic components, as shown in FIGS. 1A and 1B. In addition, the cameras 1, 2, 3 can be arranged in different positions as long as all the contact elements of the entire electronic component can be viewed by at least two different cameras. For example, FIGS. 1A and 1B show that all three cameras are located at different x, y, z coordinates such that all possible positions of the contact elements are within the view of at least two different cameras.

3차원 접촉 요소를 측정하는 장치는 접촉 요소들의 위치의 측정이 시작될 수 있기 전에 보정된다. 보정은 제 1 이미지 내의 위치(X1)와 제 2 이미지 내의 대응 위치(X3), 즉, 보정면에 수직으로 투영된 이미지 포인트 사이의 관계를 확립한다. 도 3에 도시된 보정 레티클 수단(9)이 보정을 위해 사용된다. 이것은 사각형으로 표현된 다수의 사전 결정된 마킹을 포함하며, 그 위치는 정확히 알려져 있다. 이 레티클(9)은, 예컨대 측정될 전자 부품을 사전 배치하기 위해 제공된 위치에 배치되는 기판으로 이루어진다. 기판은, 예컨대 베이스 유리층 상에 어레이 방식으로 배치된 복수의 유리층으로 이루어진다. 사각형은 매우 정교한 스크린 인쇄 공정을 이용하여 각각의 이들 유리층 상에 인쇄된다. 이들 유리층의 두께는 정확하며, 정교하게 인쇄된 마킹들은 카메라에 의해 쉽게 검출될 수 있도록 명확하게 정의된다. 도시되지는 않았지만, 전술한 보정 레티클 수단은 정확하게 알려진 지점으로부터 투영하는 수직 구조를 가진 레티클과 같은 다른 보정 레티클 수단으로 대체되는 것도 가능하다.The device for measuring the three-dimensional contact element is calibrated before the measurement of the position of the contact elements can be started. The correction establishes a relationship between the position X1 in the first image and the corresponding position X3 in the second image, that is, the image point projected perpendicular to the correction plane. The correction reticle means 9 shown in FIG. 3 is used for correction. This includes a number of predetermined markings represented by squares, the location of which is exactly known. This reticle 9 consists, for example, of a substrate which is placed in a position provided for prepositioning the electronic component to be measured. The substrate is composed of, for example, a plurality of glass layers arranged in an array manner on the base glass layer. Squares are printed on each of these glass layers using a very sophisticated screen printing process. The thickness of these glass layers is accurate, and the finely printed markings are clearly defined so that they can be easily detected by the camera. Although not shown, the aforementioned correction reticle means may be replaced by other correction reticle means, such as a reticle having a vertical structure that projects from precisely known points.

정확한 보정을 획득하기 위한, 보정 레티클 수단 상에 인쇄된 사각형의 위치 및 크기는 0.1 마이크론의 정밀도가 바람직한 것으로 알려져 있다. 보정 레티클 수단에 걸쳐있는 면적 및 부피는 x, y, z 방향에서 보정될 수 있는 공간을 정의한다. 따라서, 보다 큰 공간 및 영역이 x, y, z 방향에서 보정 레티클 수단에 의해 커버될 때 보다 큰 전자 부품에 대한 측정을 위해 보다 큰 공간이 이용가능하다. 측정이 나중에 수행될 때, 접촉부가 위치하는 면이 보정면(11) 상에 정확히 위치할 필요는 없다. 접촉부가 위치하는 면이 확립된 보정 공간 내에 있는 한 측정이 수행될 수 있다.In order to obtain accurate correction, it is known that the position and size of the rectangle printed on the correction reticle means is preferably a precision of 0.1 micron. The area and volume spanning the correction reticle means define a space that can be corrected in the x, y, z directions. Thus, larger spaces are available for measurement for larger electronic components when larger spaces and areas are covered by corrective reticle means in the x, y, z directions. When the measurement is performed later, the surface on which the contact is located does not need to be exactly positioned on the correction surface 11. The measurement can be performed as long as the surface on which the contact is located is within the established correction space.

도 4a, 4b, 4c는 각각 제 1, 제 2 및 제 3 카메라에 의해 기록된 보정 레티클 수단의 제 1, 제 2 및 제 3 이미지를 도시한 것이다. 보정 레티클 수단 상의 사각형과 같은 개별 마킹들이 식별될 수 있으므로, 맵핑 알고리즘은 도 5에 도시된 바와 같이 두 이미지 간의 맵핑을 가능하게 하는 보정 절차를 통해 결정된다. 도 4a 및 4b에 도시된 바와 같이, 제 1 카메라(4) 및 제 2 카메라(5)는 보정 레티클 수단의 보정 이미지를 각각 기록한다. 도 4a 및 4b에 도시된 바와 같이, 보정은 제 1 카메라(4) 및 제 2 카메라(5)에 의해 기록된 것과 같은 제 1 이미지(도 4a) 및 제 2 이미지(도 4b) 내의 동일한 사각형(10, 11) 또는 유사한 피처들의 위치의 결정을 포함한다. 위치 맵핑 알고리즘은 각각의 제 1 및 제 2 이미지에서 결정된 각각의 대응하는 피처에 대한 위치들로부터 유도된다. 예컨대, 도 5에 도시된 바와 같이, 제 1 이미지 내의 포인트(111)의 좌표는 제 2 이미지 내의 대응 포인트(111')에 맵핑된다. 따라서, 평면(11)은, 그 표면 상의 피처들이 제 1 이미지 면 내의 픽셀들을 제 2 이미지에 맵핑시키는데 사용되므로, 보정면이다.4A, 4B and 4C show the first, second and third images of the correction reticle means recorded by the first, second and third cameras, respectively. Since individual markings, such as a rectangle on the correction reticle means, can be identified, the mapping algorithm is determined through a correction procedure that enables mapping between the two images as shown in FIG. 5. As shown in Figs. 4A and 4B, the first camera 4 and the second camera 5 record the corrected images of the correcting reticle means, respectively. As shown in FIGS. 4A and 4B, the correction is performed by the same quadrangle in the first image (FIG. 4A) and the second image (FIG. 4B) as recorded by the first camera 4 and the second camera 5. 10, 11) or similar features. The position mapping algorithm is derived from the positions for each corresponding feature determined in each of the first and second images. For example, as shown in FIG. 5, the coordinates of the point 111 in the first image are mapped to the corresponding point 111 ′ in the second image. Thus, plane 11 is a correction plane since features on its surface are used to map pixels in the first image plane to the second image.

도 5에 따르면, 임의의 2개의 마킹 사이의 모든 위치에 대한 좌표를 결정하는데 양선형 보간(bilinear interpolation) 기법이 사용된다. 예컨대, 제 1 이미지 내의 포인트(X1)의 위치는 dx 및 dy로 표현되며, 제 1 이미지 상의 직교 행렬에 의해 형성되는 좌표 (111), (112), (221) 및 (222)에 대해 고려될 것이다. 제 2 이미지 내의 포인트(X3)는 제 1 이미지 내의 포인트(X1)로부터 수직으로 투영된 포인트이며 전자는 dx' 및 dy'으로 표현된다. 제 1 이미지 내의 제 1 이미지 포인트와 제 2 이미지 내의 이미지 포인트 간의 위치 맵핑 알고리즘(여기서, 제 2 이미지 내의 이미지 포인트는 제 1 이미지 포인트로부터 보정면으로의 직교 투영된 지점임)은 dx와 dx'의 관계 및 dy와 dy'의 관계를 결정함으로써 획득된다. 예컨대, 제 1 이미지 평면 내의 X1 및 제 2 이미지 평면 내의 X3에 대한 위치 맵핑 알고리즘은 x 좌표에 있어서의 dx 및 dx'에 대한 관계 및 y 좌표에 있어서의 dy 및 dy'에 대한 관계이다. 그 다음에 위치 맵핑 알고리즘은 보정면에 직각으로 투영된 제 1 이미지 포인트인 제 2 이미지 평면 내의 포인트를 결정하기 위한 측정 동안에 사용된다.According to FIG. 5, a bilinear interpolation technique is used to determine the coordinates for all positions between any two markings. For example, the position of point X1 in the first image is represented by dx and dy, and may be considered for coordinates 111, 112, 221 and 222 formed by an orthogonal matrix on the first image. will be. Point X3 in the second image is a point projected vertically from point X1 in the first image and the former is represented by dx 'and dy'. The position mapping algorithm between the first image point in the first image and the image point in the second image, where the image point in the second image is the orthogonal projection point from the first image point to the correction plane, is equal to dx and dx '. It is obtained by determining the relationship and the relationship between dy and dy '. For example, the position mapping algorithm for X1 in the first image plane and X3 in the second image plane is a relationship to dx and dx 'in the x coordinate and dy and dy' in the y coordinate. The position mapping algorithm is then used during the measurement to determine a point in the second image plane that is the first image point projected perpendicular to the correction plane.

도 3, 4a, 4b 및 5를 참조하면, 먼저 보정 레티클 수단 상에서 사각형(10)과 같은 피처에 대해 제 1 및 제 2 이미지 내의 각각의 픽셀 좌표(X1, X2)를 결정함으로써 z 스케일링 인자가 결정된다. X3은 위치 맵핑 알고리즘을 사용하여 포인트(X1)로부터 교정면으로 직각으로 투영된 포인트이다. X2와 X3 사이의 z 거리는 정확하게 알려져 있으므로, 제 2 이미지(4B)와 제 3 이미지(4C) 내의 각각의 z 스케일링 인자가 결정될 수 있다. 예컨대, X2와 X3 사이의 거리가 10mm이고 제 2 이미지 상의 대응 거리가 25 픽셀이라고 가정하면, z 스케일링 인자는 10mm/25픽셀=0.4mm/pixel이 된다.3, 4A, 4B and 5, the z scaling factor is determined by first determining the respective pixel coordinates (X1, X2) in the first and second images for features such as rectangle 10 on the correction reticle means. do. X3 is a point projected at right angles from the point X1 to the calibration plane using a position mapping algorithm. Since the z distance between X2 and X3 is known exactly, each z scaling factor in the second image 4B and the third image 4C can be determined. For example, assuming that the distance between X2 and X3 is 10 mm and the corresponding distance on the second image is 25 pixels, the z scaling factor is 10 mm / 25 pixels = 0.4 mm / pixel.

보정 절차를 완료한 후에, x-y 좌표 위치 맵핑 알고리즘 및 z 스케일링 인자가 획득되어 제 1 및 제 2 이미지 내의 성분에 대한 접촉 요소들의 위치를 결정한다. 또한, 접촉 요소들(X축, Y축 및 Z축) 사이의 거리는 각각의 x, y, z 스케일링 인자로부터 결정될 수 있다. 위치가 보정 레티클 수단에 의해 정확하게 결정되므로, 접촉 요소들의 위치 또한 마이크론 단위로 정확히 결정될 수 있다. 보정 절차는 또한 제 1 카메라(4)와 제 2 카메라(5) 사이의 관계를 확립하는 카메라간 보정이 수행될 수 있게 한다. 제 1 카메라와 제 3 카메라의 관계 또한 전술한 방식으로 확립된다.After completing the calibration procedure, an x-y coordinate position mapping algorithm and a z scaling factor are obtained to determine the position of the contact elements with respect to the components in the first and second images. In addition, the distance between the contact elements (X, Y and Z axes) can be determined from the respective x, y and z scaling factors. Since the position is determined accurately by the correction reticle means, the position of the contact elements can also be determined accurately in microns. The calibration procedure also allows inter-camera calibration to be performed to establish a relationship between the first camera 4 and the second camera 5. The relationship between the first camera and the third camera is also established in the manner described above.

이제 측정 공간이 보정되었고 제 1 및 제 2 카메라의 배치를 설명하였으므로, 본 발명에 따른 측정 원리를 도 6을 참조하여 설명한다. 제 3 카메라(6)는 제 2 카메라와 유사한 방식으로 제 1 카메라(4)에 대해 배치된다. 전자 부품이 보정된 공간에 들어오고 그 접촉 요소 중 하나가 보정면(p)에 대해 포인트(P)에 위치한다고 가정한다. 제 1 카메라는 접촉 요소들의 제 1 이미지를 기록하고 제 1 포인트(P)를 선택한다. 접촉 요소의 제 1 이미지 내의 제 1 포인트(P)에 대한 제 1 이미지 포인트(X1)의 위치가 결정된다.Now that the measurement space has been corrected and the arrangement of the first and second cameras has been described, the measuring principle according to the invention is described with reference to FIG. The third camera 6 is arranged relative to the first camera 4 in a similar manner as the second camera. Assume that the electronic component enters the calibrated space and one of its contact elements is located at point P with respect to the calibration plane p. The first camera records the first image of the contact elements and selects the first point P. The position of the first image point X1 relative to the first point P in the first image of the contact element is determined.

제 2 카메라(5)는 포인트(P)를 갖는 접촉 요소의 제 2 이미지를 기록하고 포인트(P)는 제 2 이미지 내의 제 2 이미지 포인트(X2)로서 식별된다. 포인트(P)는 위치 맵핑 알고리즘을 이용하여 보정면(p) 상에 수직으로 투영되어 제 2 포인트(P')를 제공한다. 제 2 이미지에서, 제 3 이미지 포인트(X3)는 위치(P')의 이미지 포인트이다. X3은 접촉 요소(P)가 보정면(p)에 배치된다. 제 2 이미지 내의 포인트(X3)의 위치는 위치 맵핑 알고리즘에 의해 결정된다. X2와 X3 사이의 변위는 실제 접촉 요소가 보정면 상에 정확하게 위치하지 않고 측정되는 높이 차(Δz)에 위치한다는 사실에 기인한다. 전술한 바에 따르면, 변위 Δz는 X3과 X2 사이의 거리(즉, Δz)와 제 2 이미지의 z 축에서의 z 스케일링 인자의 곱에 의해 결정된다.The second camera 5 records a second image of the contact element with the point P and the point P is identified as the second image point X2 in the second image. The point P is projected vertically on the correction plane p using a position mapping algorithm to provide a second point P '. In the second image, the third image point X3 is the image point at position P '. X3 has a contact element P disposed on the correction surface p. The position of the point X3 in the second image is determined by the position mapping algorithm. The displacement between X2 and X3 is due to the fact that the actual contact element is not located exactly on the correction plane but at the height difference Δz measured. According to the foregoing, the displacement Δz is determined by the product of the distance between X3 and X2 (ie Δz) and the z scaling factor in the z axis of the second image.

본 발명은 보정된 공간 내의 포인트의 측정들을 가능하게 하므로, 두 지점이 보정 공간 내에 위치하는 한, 본 발명을 이용하여 두 지점 사이의 거리를 측정하는 것은 당업자에게 명확할 것이다.Since the present invention enables measurements of points in the calibrated space, it will be apparent to those skilled in the art to measure the distance between two points using the present invention as long as the two points are located in the calibrated space.

따라서, 접촉 요소들이 위치해 있는 집적 회로일 수 있는, 부품의 접촉 요소들 사이의 거리 및 보정 공간 내의 보정면으로부터의 접촉 요소들의 거리를 측정하기 위한 시스템 및 방법의 실용성 및 유용성은 당업자에게 명확하다. 따라서, 이상의 설명은 예시적인 것이며, 청구범위에 청구된 본 발명 자체를 제한하는 것은 아니다.
Thus, the practicality and usefulness of the system and method for measuring the distance between the contact elements of a part and the distance of the contact elements from the calibration plane in the calibration space, which may be the integrated circuit in which the contact elements are located, is apparent to those skilled in the art. Accordingly, the above description is exemplary and does not limit the invention itself claimed in the claims.

Claims (12)

전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 방법에 있어서,
상기 접촉 요소(2,3)를 보정된 공간(a calibrated space)에 위치시키는 단계와,
상기 접촉 요소(2,3)를 조명하는 단계와,
보정면(calibration plane)에 대해 실질적으로 평행하게 연장되는 제 1 이미지 평면을 갖는 제 1 카메라로 상기 접촉 요소(2,3)의 제 1 이미지를 기록하는 단계와,
제 2 카메라(5)로 상기 접촉 요소의 제 2 이미지를 기록하는 단계와,
각각의 상기 접촉 요소(2,3) 상의 각각의 상기 접촉 요소(2,3)에 대한 제 1 이미지 포인트를 결정하기 위해 상기 제 1 이미지를 처리하는 단계로서, 상기 제 1 이미지 포인트는 각각의 상기 접촉 요소(2,3) 상에 위치하는 포인트인, 상기 제 1 이미지 처리 단계와,
각각의 상기 접촉 요소(2,3) 상의 각각의 상기 접촉 요소에 대한 제 2 이미지 포인트를 식별하기 위해 상기 제 2 이미지를 처리하는 단계로서, 각각의 상기 접촉 요소(2,3)에 대한 상기 제 1 이미지 포인트 및 상기 제 2 이미지 포인트는 각각의 상기 접촉 요소(2,3) 상의 동일 포인트에 대응하는, 상기 제 2 이미지 처리 단계와,
위치 맵핑 알고리즘에 의해 상기 제 2 이미지 내에서 제 3 이미지 포인트를 결정하는 단계와,
상기 제 2 이미지 내에서 상기 제 2 이미지 포인트 및 상기 제 3 이미지 포인트 사이의 변위를 결정하는 단계를 포함하되,
상기 제 3 이미지 포인트는 상기 보정면에 대해 수직으로 투영된 상기 제 1 이미지 포인트인
방법.
In the method for measuring the position of each of the contact elements (2, 3) of the electronic component,
Positioning the contact elements 2, 3 in a calibrated space,
Illuminating said contact elements (2, 3),
Recording a first image of the contact element (2,3) with a first camera having a first image plane extending substantially parallel to a calibration plane;
Recording a second image of the contact element with a second camera 5,
Processing the first image to determine a first image point for each of the contact elements 2, 3 on each of the contact elements 2, 3, wherein the first image point is the respective image; The first image processing step, which is a point located on the contact element (2, 3),
Processing said second image to identify a second image point for each said contact element on each said contact element (2,3), wherein said first for each said contact element (2,3) The second image processing step, wherein the first image point and the second image point correspond to the same point on each of the contact elements 2, 3;
Determining a third image point within the second image by a location mapping algorithm;
Determining a displacement between the second image point and the third image point in the second image,
The third image point is the first image point projected perpendicular to the correction plane.
Way.
제 1 항에 있어서,
상기 변위 결정 단계는 상기 제 2 이미지 포인트 및 상기 제 3 이미지 포인트의 좌표차와 z 스케일링 인자를 곱셈함으로써 행해지는
방법.
The method of claim 1,
The displacement determining step is performed by multiplying a z-scaling factor with a coordinate difference between the second image point and the third image point.
Way.
제 1 항에 있어서,
상기 제 1 카메라와 제 2 카메라(5) 사이의 특정한 상대적인 위치에 대해 상기 위치 맵핑 알고리즘을 유도하는 단계를 더 포함하는
방법.
The method of claim 1,
Deriving the position mapping algorithm for a particular relative position between the first camera and the second camera 5
Way.
제 1 항에 있어서,
상기 제 2 이미지 포인트 및 상기 수직으로 투영된 이미지 포인트의 변위를 결정하기 위한 z 스케일링 인자를 유도하는 단계를 더 포함하는
방법.
The method of claim 1,
Deriving a z scaling factor for determining displacement of the second image point and the vertically projected image point
Way.
제 1 항에 있어서,
상기 보정된 공간 내의 임의의 두 포인트 사이의 변위를 결정하는 단계를 더 포함하는
방법.
The method of claim 1,
Determining a displacement between any two points in the corrected space
Way.
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단에 있어서,
보정된 공간 내에 사전 배치된 상기 접촉 요소(2,3)를 조명하는 조명 소스(7,8)와,
제 1 카메라(4) 및 제 2 카메라(5)와,
상기 접촉 요소(2,3)의 제 1 및 제 2 이미지를 각각 기록하기 위해 제공되는 상기 제 1 카메라(4) 및 상기 제 2 카메라(5)와,
처리 장치를 포함하며,
상기 처리 장치는 상기 제 1 카메라(4) 및 상기 제 2 카메라(5)에 연결되어, 각각의 상기 접촉 요소(2,3)에 대한 상기 제 1 이미지 내의 제 1 이미지 포인트 및 각각의 상기 접촉 요소(2,3)에 대한 상기 제 2 이미지 내의 제 2 이미지 포인트의 위치를 검색하고, 상기 제 2 이미지 위치에서 위치 맵핑 알고리즘에 의해 제 3 이미지 포인트를 검색하며, 상기 제 2 이미지 포인트와 상기 제 3 포인트 사이의 변위를 결정하고,
각각의 상기 접촉 요소(2,3)에 대한 상기 제 1 이미지 포인트 및 상기 제 2 이미지 포인트는 각각의 상기 접촉 요소(2,3) 상의 동일 포인트에 대응하며,
상기 제 3 이미지 포인트는 상기 제 1 이미지 포인트로부터 수직으로 투영된 위치인
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
Means for measuring the respective positions of the contact elements 2, 3 of the electronic component,
An illumination source 7, 8 for illuminating said contact elements 2, 3 pre-positioned in a calibrated space,
The first camera 4 and the second camera 5,
The first camera 4 and the second camera 5 provided for recording the first and second images of the contact elements 2, 3, respectively;
A processing unit,
The processing device is connected to the first camera 4 and the second camera 5, so that the first image point and the respective contact element in the first image for each contact element 2, 3 respectively. Retrieve a location of a second image point in the second image relative to (2,3), retrieve a third image point by a location mapping algorithm at the second image location, and the second image point and the third Determine the displacement between points,
The first image point and the second image point for each of the contact elements 2, 3 correspond to the same point on each of the contact elements 2, 3,
The third image point is a position projected vertically from the first image point
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 6 항에 있어서,
상기 처리 장치는 상기 제 2 이미지 포인트 및 상기 제 3 이미지 포인트의 좌표 차와 z 스케일링 인자를 곱하여 상기 변위를 결정하는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method according to claim 6,
The processing device determines the displacement by multiplying a z-scaling factor with a coordinate difference between the second image point and the third image point.
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 6 항에 있어서,
상기 제 1 및 제 2 카메라(4,5)에 의한 이미지를 기록하는 보정 레티클 수단(9)을 더 포함하고,
상기 처리 장치는 상기 보정 레티클 수단의 상기 이미지로부터 상기 제 1 및 제 2 카메라(4,5) 사이의 특정한 상대적인 위치에 대한 상기 위치 맵핑 알고리즘을 유도하는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method according to claim 6,
Further comprising correction reticle means (9) for recording the images by said first and second cameras (4, 5),
The processing device derives the position mapping algorithm for a particular relative position between the first and second cameras 4, 5 from the image of the correction reticle means.
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 8 항에 있어서,
상기 보정 레티클 수단(9)은 피처들이 위에 배치되어 있는 베이스층 및 피처들을 위에 갖는 복수의 층을 포함하고, 상기 복수의 층은 정확하게 알려진 두께를 가지며 상기 베이스층 위의 상기 피처들에 대해 정확하게 배치되는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method of claim 8,
The correction reticle means 9 comprises a base layer on which the features are arranged and a plurality of layers having the features thereon, the plurality of layers having a precisely known thickness and precisely positioning the features on the base layer. felled
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 8 항에 있어서,
상기 처리 장치는 상기 제 2 이미지 포인트 및 상기 제 3 이미지 포인트의 변위를 결정하는 z 스케일링 인자를 유도하는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method of claim 8,
The processing device derives a z scaling factor that determines the displacement of the second image point and the third image point.
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 7 항에 있어서,
상기 처리 장치는 상기 보정된 공간 내의 임의의 두 포인트 사이의 변위를 결정하는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method of claim 7, wherein
The processing device determines the displacement between any two points in the calibrated space.
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
제 6 항에 있어서,
상기 처리 장치에 연결되어 상기 접촉 요소의 제 3 이미지를 기록하는 제 3 카메라(6)를 더 포함하고,
상기 제 3 이미지는 제 4 이미지 포인트 및 제 5 이미지 포인트를 가지며,
상기 제 5 이미지 포인트는 상기 제 1 이미지 포인트로부터 수직으로 투영된 포인트이고 상기 제 2 이미지 내에 기록되지 않으며,
상기 처리 장치는 상기 제 4 이미지 포인트와 상기 제 5 이미지 포인트 사이의 변위를 결정하는
전자 부품의 접촉 요소(2,3)의 각각의 위치를 측정하는 수단.
The method according to claim 6,
A third camera 6 connected to said processing device for recording a third image of said contact element,
The third image has a fourth image point and a fifth image point,
The fifth image point is a point projected vertically from the first image point and is not recorded in the second image,
The processing device determines the displacement between the fourth image point and the fifth image point.
Means for measuring the position of each of the contact elements (2, 3) of the electronic component.
KR1020117000873A 2008-07-21 2009-06-26 A method and means for measuring positions of contact elements of an electronic components KR101633139B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
MYPI20082704 2008-07-21
MYPI20082704A MY148204A (en) 2008-07-21 2008-07-21 A method and means for measuring positions of contact elements of an electronic components

Publications (2)

Publication Number Publication Date
KR20110043593A true KR20110043593A (en) 2011-04-27
KR101633139B1 KR101633139B1 (en) 2016-06-23

Family

ID=41570469

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117000873A KR101633139B1 (en) 2008-07-21 2009-06-26 A method and means for measuring positions of contact elements of an electronic components

Country Status (5)

Country Link
JP (1) JP5787258B2 (en)
KR (1) KR101633139B1 (en)
CN (1) CN102099653B (en)
MY (1) MY148204A (en)
WO (1) WO2010011124A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102213581B (en) * 2010-04-08 2016-06-08 财团法人工业技术研究院 object measuring method and system
US8691916B2 (en) 2012-05-07 2014-04-08 Dow Global Technologies Llc Retortable easy opening seals for film extrusion
WO2015181974A1 (en) * 2014-05-30 2015-12-03 ヤマハ発動機株式会社 Component-data-generating device, surface-mounting machine, and method for generating component data
JP6457295B2 (en) * 2015-02-19 2019-01-23 株式会社Fuji Parts judgment device
DE102016112197B4 (en) * 2016-07-04 2018-05-24 Asm Assembly Systems Gmbh & Co. Kg A method and apparatus for stereoscopically determining information regarding the elevation of the front of a port

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000062012A1 (en) * 1999-04-13 2000-10-19 Icos Vision Systems N.V. Measuring positions or coplanarity of contact elements of an electronic component with a flat illumination and two cameras

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3266429B2 (en) * 1994-11-08 2002-03-18 松下電器産業株式会社 Pattern detection method
US6072898A (en) * 1998-01-16 2000-06-06 Beaty; Elwin M. Method and apparatus for three dimensional inspection of electronic components
US6538750B1 (en) * 1998-05-22 2003-03-25 Cyberoptics Corporation Rotary sensor system with a single detector
EP1220596A1 (en) * 2000-12-29 2002-07-03 Icos Vision Systems N.V. A method and an apparatus for measuring positions of contact elements of an electronic component
JP3915033B2 (en) * 2003-05-15 2007-05-16 株式会社テクノホロン Measuring method and measuring apparatus using stereo optical system
JP4623657B2 (en) * 2003-05-28 2011-02-02 富士機械製造株式会社 Captured image processing apparatus and captured image processing method for electronic component mounter
CA2656163C (en) * 2005-03-11 2011-07-19 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US7400417B2 (en) * 2005-05-23 2008-07-15 Federal Mogul World Wide, Inc. Diffraction method for measuring thickness of a workpart
KR20070099398A (en) * 2006-04-03 2007-10-09 삼성전자주식회사 Apparatus for inspecting substrate and method of inspecting substrate using the same
JP2009139285A (en) * 2007-12-07 2009-06-25 Univ Nihon Solder ball inspection device, its inspection method, and shape inspection device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000062012A1 (en) * 1999-04-13 2000-10-19 Icos Vision Systems N.V. Measuring positions or coplanarity of contact elements of an electronic component with a flat illumination and two cameras

Also Published As

Publication number Publication date
KR101633139B1 (en) 2016-06-23
JP2011528800A (en) 2011-11-24
JP5787258B2 (en) 2015-09-30
CN102099653A (en) 2011-06-15
WO2010011124A1 (en) 2010-01-28
MY148204A (en) 2013-03-15
CN102099653B (en) 2012-11-14

Similar Documents

Publication Publication Date Title
JP5334835B2 (en) Method and system for measuring shape of reflecting surface
US6750899B1 (en) Solder paste inspection system
KR101158323B1 (en) Method for inspecting substrate
JPH04287943A (en) Surfae mounting device having mutual flatness evaluation device of lead wires
JP6296477B2 (en) Method and apparatus for determining the three-dimensional coordinates of an object
US20100328435A1 (en) Method and apparatus for 3-dimensional vision and inspection of ball and like protrusions of electronic components
US20070023716A1 (en) Apparatus for three dimensional measuring on an electronic component
US20210291376A1 (en) System and method for three-dimensional calibration of a vision system
KR101633139B1 (en) A method and means for measuring positions of contact elements of an electronic components
TW538231B (en) Image processing method and device, and wire-bonding device
US9594028B2 (en) Method and apparatus for determining coplanarity in integrated circuit packages
US9903712B2 (en) System and method for calibrating reference system for vehicle measurement
KR101183101B1 (en) Method of die bonding for flip chip
US20090087013A1 (en) Ray mapping
JP4969279B2 (en) Position detection method and position detection apparatus
US20100128249A1 (en) Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same
WO2021120911A1 (en) Three-dimensional coordinate calibration method for plate-like workpiece
EP1619623A1 (en) Apparatus for three dimensional measuring on an electronic component
JPH11132735A (en) Ic lead floating inspection device and inspection method
JPH116711A (en) Method for measuring calibration value of image pickup unit for measurement
KR101325634B1 (en) Method for inspecting pcb of semiconductor packages
JP2008170282A (en) Shape measuring device
CN113063352B (en) Detection method and device, detection equipment and storage medium
US20230324312A1 (en) System and method for determining contact height of a packaged chip
JP3369235B2 (en) Calibration method for measuring distortion in three-dimensional measurement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190607

Year of fee payment: 4