KR0155800B1 - Centering control method of camera for chip mounter - Google Patents

Centering control method of camera for chip mounter Download PDF

Info

Publication number
KR0155800B1
KR0155800B1 KR1019950003248A KR19950003248A KR0155800B1 KR 0155800 B1 KR0155800 B1 KR 0155800B1 KR 1019950003248 A KR1019950003248 A KR 1019950003248A KR 19950003248 A KR19950003248 A KR 19950003248A KR 0155800 B1 KR0155800 B1 KR 0155800B1
Authority
KR
South Korea
Prior art keywords
camera
nozzle
coordinate system
positions
nozzles
Prior art date
Application number
KR1019950003248A
Other languages
Korean (ko)
Other versions
KR960033189A (en
Inventor
이종호
Original Assignee
김광호
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김광호, 삼성전자주식회사 filed Critical 김광호
Priority to KR1019950003248A priority Critical patent/KR0155800B1/en
Publication of KR960033189A publication Critical patent/KR960033189A/en
Application granted granted Critical
Publication of KR0155800B1 publication Critical patent/KR0155800B1/en

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/089Calibration, teaching or correction of mechanical systems, e.g. of the mounting head
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • H05K13/0404Pick-and-place heads or apparatus, e.g. with jaws
    • H05K13/0408Incorporating a pick-up tool
    • H05K13/0409Sucking devices
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Operations Research (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

본 발명은 부품의 화상인식을 위해 사용되는 칩마운터용 카메라의 위치를 보정하는 방법에 관한 것이다.The present invention relates to a method for correcting the position of a camera for a chip mounter used for image recognition of parts.

본 발명의 칩마운터용 카메라의 위치보정방법에 따르면, 높은 정밀도로 가공된 시험편을 구비하지 않아도 카메라의 위치보정을 행할 수 있으므로 작업이 용이해질 뿐만 아니라, 노즐에 흡착된 부품을 촬상하는 카메라가 노즐에 대해 경사지게 설치되어 있는지의 여부 및 카메라가 그 광축을 중심으로 노즐에 대해 회전되어 있는지의 여부를 확인하고 그에 따라 카메라의 위치를 보정할 수 있으므로, 보다 정확한 카메라의 위치보정이 가능하다.According to the position correction method of the camera for a chip mounter of the present invention, since the position of the camera can be corrected even without the test piece processed with high precision, the camera becomes easy to work, and the camera that picks up the parts adsorbed to the nozzle is a nozzle. It is possible to check whether the camera is rotated with respect to the nozzle about its optical axis and whether the camera is rotated with respect to the optical axis and correcting the position of the camera accordingly, so that more accurate camera position correction is possible.

Description

칩마운터용 카메라의 위치보정방법Position correction method of camera for chip mounter

제1도는 칩마운터의 개략적 구성도.1 is a schematic diagram of a chip mounter.

제2도는 제1도에 도시된 카메라에 의해 인식되는 픽셀좌표계를 나타내 보이는 도면.FIG. 2 shows a pixel coordinate system recognized by the camera shown in FIG.

제3도는 카메라의 상부에 노즐이 위치한 상태의 개략적 구조도.3 is a schematic structural diagram of a state where a nozzle is located on an upper portion of a camera.

제4도는 제3도에 도시된 상태에서 카메라에 의해 촬상되어 화면 상에 나타난 시험편의 개략적 정면도.4 is a schematic front view of a test piece taken by a camera in the state shown in FIG. 3 and displayed on a screen.

제5도는 본 발명에 따른 방법을 수행하는 과정에서 노즐이 카메라의 상부에 위치하는 상태의 개략적 구조도.5 is a schematic structural diagram of a state in which a nozzle is located on the top of a camera in the process of performing the method according to the present invention.

제6도는 제5도에 도시된 상태에서 카메라에 의해 촬상되어 화면상에 나타난 노즐의 개략적 정면도.FIG. 6 is a schematic front view of the nozzle captured by the camera in the state shown in FIG. 5 and shown on the screen; FIG.

제7도는 본 발명에 따른 방법을 수행하는 과정에서 복수의 좌표값으로 이송되며 촬상되어 화면상에 나타난 노즐의 개략적 정면도.7 is a schematic front view of a nozzle which is transferred to a plurality of coordinate values in the course of performing a method according to the present invention and is captured and displayed on a screen;

제8도는 카메라의 광축이 노즐의 중심축과 소정각도를 이루고 있는 상태에서의 시야를 나타내 보이는 개략적 구조도.8 is a schematic structural diagram showing a field of view in a state where the optical axis of the camera forms a predetermined angle with the central axis of the nozzle.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1 : 로보트 2 : 헤드1: robot 2: head

3 : 노즐 5 : 컨베이어3: nozzle 5: conveyor

10 : 카메라 11 : 광축10 camera 11 optical axis

20 : 제어부 30 : 화상처리부20: control unit 30: image processing unit

31 : 노즐의 중심축31: central axis of the nozzle

본 발명은 부품의 화상인식을 위해 사용되는 카메라의 위치를 보정하는 방법에 관한 것으로서, 특히 칩마운터용 노즐에 흡착된 부품의 흡착상태를 정확히 인식할 수 있도록 개선된 칩마운터용 카메라의 위치 보정방법에 관한 것이다.The present invention relates to a method for correcting the position of a camera used for image recognition of a component, and in particular, the position correction method of an improved chip mounter camera for accurately recognizing the adsorption state of a component adsorbed to a nozzle for a chip mounter. It is about.

인쇄회로기판 상에 각종 칩부품을 자동으로 장착하는 칩마운터는 일반적으로, 제1도에 개략적으로 도시된 바와 같이, X-Y좌표계 등의 제1좌표계를 갖는 제어부(20)에 의해 구동 및 위치 제어되는 X-Y로보트(1)와, 제어부(20)에 의해 구동되는 컨베이어(5)와, 이 컨베이어(5)에 의해 이송되는 인쇄회로기판(6)에 장착할 칩부품을 흡착하는 노즐(3)을 구비하고 있다. 이 노즐(3)은, 제어부(20)에 의해 위치 제어될 수 있도록, 상기 X-Y로보트(1)에 고정된 헤드(2)에 대해 승강 가능하게 설치되어 있다. 그리고 노즐(3)에는 흡착되는 칩부품이 후술할 카메라에 의해 촬상되어 그 흡착상태가 용이하게 확인될 수 있도록 반사판(4)이 부착되어 있다.A chip mounter for automatically mounting various chip components on a printed circuit board is generally driven and controlled by a control unit 20 having a first coordinate system, such as an XY coordinate system, as schematically shown in FIG. XY robot (1), a conveyor (5) driven by the control unit 20, and a nozzle (3) for sucking the chip parts to be mounted on the printed circuit board (6) transported by the conveyor (5) Doing. The nozzle 3 is provided so that the head 2 fixed to the X-Y robot 1 can be lifted and lowered so as to be position controlled by the control unit 20. The nozzle 3 is attached with a reflecting plate 4 so that a chip component to be sucked is picked up by a camera to be described later and its suction state can be easily confirmed.

칩마운터에는 또한, 노즐(3)에 흡착된 칩부품의 크기나 흡착된 위치등의 부품 흡착상태를 인식하기 위하여, 적절한 위치에 고정 설치되는 카메라(10)와, 이 카메라(10)에 접속된 화상처리부(30)가 마련되어 있다. 화상처리부(30)는 카메라(10)로부터 송출되는 화상정보를 기초로 위치 좌표의 계산 등을 행하는 부위로서, 상기 제어부(20)의 제1좌표계와는 다른 형태의 좌표계 즉, 픽셀좌표계를 가지고 있다. 이 픽셀좌표계는, 제2도에 도시된 바와 같이 카메라(10)의 촬상소자(10a)에 형성된 픽셀(화소: 10b)의 배열에 따른 좌표계로서, 카메라(10)의 광축을 중심으로하여 촬상소자(10a)의 가로방향을 X´축으로 하고 세로방향을 Y´으로 하는 X´-Y´좌표계이다. 따라서, 카메라(10)의 위치가 상기 제어부(20)의 제1좌표계 상에서 변경되어 각 픽셀(10b)의 제1좌표계에 따른 좌표값이 변경되더라도, 화상처리부(30)의 픽셀좌표계 상에서의 각 픽셀 좌표값은 변하지 않게 된다.The chip mounter further includes a camera 10 fixedly installed at an appropriate position and connected to the camera 10 in order to recognize a component adsorption state such as the size or position of the chip component adsorbed by the nozzle 3. The image processing unit 30 is provided. The image processing unit 30 is a portion that calculates position coordinates or the like based on the image information transmitted from the camera 10 and has a coordinate system that is different from the first coordinate system of the control unit 20, that is, a pixel coordinate system. . This pixel coordinate system is a coordinate system according to the arrangement of pixels (pixels 10b) formed in the imaging device 10a of the camera 10 as shown in FIG. The X'-Y 'coordinate system in which the horizontal direction of (10a) is the X' axis and the vertical direction is the Y '. Therefore, even if the position of the camera 10 is changed on the first coordinate system of the controller 20 so that the coordinate value according to the first coordinate system of each pixel 10b is changed, each pixel on the pixel coordinate system of the image processor 30 is changed. The coordinates do not change.

한편, 노즐(3)에 흡착된 부품에 대해 정확한 화상인식이 이루어질수 있도록 하기 위하여, 후술할 카메라의 시야 및 픽셀의 상대크기 등을 설정하는 작업 즉, 픽셀좌표계를 초기화하는 작업이 필요하며, 이를 위하여 종래에는 다음과 같은 방법을 사용하였다.On the other hand, in order to achieve accurate image recognition for the components adsorbed on the nozzle 3, it is necessary to set the field of view of the camera and the relative size of the pixel to be described later, that is to initialize the pixel coordinate system, Conventionally, the following method was used.

먼저, 인쇄회로기판(6)에 장착될 칩부품이 놓여지는 부품공급부에 소정의 크기 및 형상규격의 시험편(제3도 참조:P)을 놓아둔다. 그리고, 제어부(20)를 통해 X-Y로보트(1)를 구동하여 노즐(3)을 상기 시험편(P)상으로 이동시키고, 그 시험편(P)이 노즐(3)에 흡착되도록 한다. 이처럼 시험편(P)이 노즐(3)에 흡착되면, 그 노즐(3)을 제어부(20)에 미리 입력된 제1좌표계상의 카메라 설치위치로 이송시킨 후 하강시켜, 제3도에 도시된 바와 같이, 노즐(3)이 카메라(10)의 초점거리상에 위치하도록 한다. 그 후, 노즐(3)에 흡착된 시험편(P)을 카메라(10)로 촬상하고 그 화상정보를 화상처리부(30)로 송출한다. 이에 따라, 화상처리부(30)는 그 화상정보를 기초로 인식처리연산을 행하여, 픽셀의 상대크기 및 카메라의 시야를 계산한다.First, a test piece (refer to Fig. 3) of a predetermined size and shape standard is placed in a part supplying part where a chip part to be mounted on the printed circuit board 6 is placed. Then, the X-Y robot 1 is driven through the control unit 20 to move the nozzle 3 onto the test piece P, and the test piece P is sucked by the nozzle 3. When the test piece P is attracted to the nozzle 3 in this manner, the nozzle 3 is transferred to the camera installation position on the first coordinate system previously input to the control unit 20, and then lowered, as shown in FIG. The nozzle 3 is positioned on the focal length of the camera 10. Then, the test piece P adsorbed by the nozzle 3 is imaged by the camera 10, and the image information is sent to the image processing part 30. FIG. Accordingly, the image processing unit 30 performs the recognition processing operation based on the image information to calculate the relative size of the pixels and the field of view of the camera.

여기에서, 픽셀의 상대크기는 시험편(P)의 실제크기를, 제4도에 도시된 바와 같이, 카메라(10)에 의해 촬상되어 그 카메라(10)의 촬상소자(10a)에 맺힌 시험편(P)이 차지하는 픽셀의 수로 나눈 크기를 말한다. 그리고, 카메라의 시야는 가로방향 시야와 세로방향 시야로 구분될 수 있으며, 가로방향 시야는 상기 픽셀의 상대크기에 화면을 구성하는 픽셀들 중 가로픽셀수를 곱하여 된 값이다. 마찬가지로 세로방향 시야는 픽셀의 상대크기에 세로픽셀수를 곱하여 된 값이다.Here, the relative size of the pixel is the actual size of the test piece P, as shown in Fig. 4, the test piece P captured by the camera 10 and formed on the imaging device 10a of the camera 10. ) Is the size divided by the number of pixels occupied. The field of view of the camera may be divided into a horizontal field of view and a vertical field of view. The horizontal field of view is a value obtained by multiplying the relative size of the pixels by the number of horizontal pixels among the pixels constituting the screen. Similarly, the longitudinal field of view is the product of the relative size of pixels multiplied by the number of vertical pixels.

이와 같이 하여 구해진 픽셀의 상대크기 및 카메라의 시야 등은 화상처리부(30)의 메모리에 기억되어 소정의 픽셀좌표계가 형성되고, 이를 기초로 노즐(3)에 흡착된 부품의 크기 등을 연산하도록 되어 있다.The relative sizes of the pixels and the field of view of the camera obtained in this way are stored in the memory of the image processing unit 30 to form a predetermined pixel coordinate system, and based on these, the size of the component adsorbed on the nozzle 3 is calculated. have.

그런데 이러한 종래 방법에 따르면, 그 크기가 제어부에 미리 입력되는 시험편을 필요로 하므로 그 시험편을 초고정밀도로 가공하여야 한다는 문제점이 있었다. 뿐만 아니라, 카메라가 노즐에 대해 경사지게 설치되어 있는지의 여부 즉, 카메라의 광축과 노즐의 중심축이 나란한 상태를 이루지 않고 소정각도를 이루고 있는지의 여부를 확인할 수 없으며, 상술한 방법에 의해 얻어지는 픽셀의 상대크기 및 카메라의 시야는 상기 카메라의 광축과 노즐의 중심축이 이루는 각도에 따라 달라지게 되므로, 실질적으로 상술한 종래 방법에 의해 얻어지는 픽셀의 상대크기 및 카메라의 시야에 대한 값들이 정확한 값인지 조차 확인하기 곤란하다는 문제점이 있었다. 또한, 상기 카메라가 그 광축을 중심으로 노즐에 대해 회전된 회전각도도 상기 픽셀의 상대크기 및 카메라의 시야에 영향을 미치게 되는데, 상술한 방법에 의하면 그 값들이 부정확해진다는 문제점이 있었다.However, according to this conventional method, since the size requires a test piece that is input to the control unit in advance, there is a problem that the test piece must be processed with high precision. In addition, it is not possible to determine whether the camera is inclined with respect to the nozzle, that is, whether the optical axis of the camera and the central axis of the nozzle are at a predetermined angle without forming a parallel state. Since the relative size and the field of view of the camera vary depending on the angle formed between the optical axis of the camera and the central axis of the nozzle, the values for the relative size of the pixel and the field of view of the camera obtained by the above-described conventional methods are substantially correct. There was a problem that it was difficult to confirm. In addition, the rotation angle of the camera rotated with respect to the nozzle about its optical axis also affects the relative size of the pixel and the field of view of the camera. According to the above-described method, there is a problem that the values are inaccurate.

본 발명은 이와 같은 문제점을 해결하기 위하여 안출된 것으로서, 별도의 초정밀가공이 요구되는 시험편 등을 사용하지 않고도 카메라의 위치보정 작업이 가능하며, 카메라가 노즐에 대해 경사지게 설치되어 있는지의 여부를 확인하고 이에 따라 카메라의 위치보정을 행할 수 있도록 되어, 카메라를 보다 용이하고 정확하게 위치보정할 수 있는 칩마운터용 카메라의 위치보정방법을 제공함에 목적이 있다.The present invention has been made in order to solve such a problem, it is possible to correct the position of the camera without using a test piece, such as a separate ultra-precision processing, and to check whether the camera is inclined with respect to the nozzle and Accordingly, an object of the present invention is to provide a method of correcting a position of a camera for a chip mounter, which enables the camera to be corrected in position, thereby enabling easier and accurate position correction of the camera.

본 발명의 다른 목적은 별도의 시험편 등을 사용하지 않고도 카메라의 위치보정 작업이 가능하며, 카메라가 노즐에 대해 경사지게 설치되어 있는지의 여부 및 카메라가 그 광축을 중심으로 노즐에 대해 소정각도 회전되어 있는지의 여부를 확인할 수 있을 뿐만 아니라 그에 따라 카메라의 위치를 보정할 수 있도록 되어, 카메라를 보다 용이하고 정확하게 위치보정할 수 있는 칩마운터용 카메라의 위치보정방법을 제공함에 있다.Another object of the present invention is to correct the position of the camera without using a separate test piece, and whether the camera is inclined with respect to the nozzle and whether the camera is rotated by a predetermined angle with respect to the nozzle about its optical axis. The present invention provides a method for correcting the position of a camera for a chip mounter, which can not only determine whether or not, but also correct the position of the camera accordingly, so that the camera can be easily and accurately corrected.

상기 전자의 목적을 달성하기 위하여 본 발명에 따른 칩마운터용 카메라의 위치보정방법은, 칩마운터용 노즐에 흡착된 부품의 흡착상태를 활성하기 위한 카메라를 위치보정하기 위한 방법으로, 상기 노즐은 X-Y좌표계를 갖는 제어부에 의해 위치 제어되며, 상기 카메라에는 픽셀좌표계를 가지며 그 카메라에 의해 촬상된 화상정보를 기초로 화상인식연산을 행하는 화상처리부가 접속된 것에 있어서, 상기 노즐을 상기 제어부에 미리 입력된 카메라 중심좌표로 이송시키고 그 카메라의 초점거리 상에 위치시키는 노즐 이송단계와, 상기 노즐 이송단계를 통해 이송된 노즐을 상기 카메라로 촬상하고 촬상된 노즐의 위치를 상기 화상처리부가 상기 픽셀좌표계의 좌표값으로 기억하는 제1기억단계와, 상기 제1기억단계를 행한 후 상기 노즐을 상기 제어부에 미리 입력된 복수의 위치로 이송시키면서 카메라로 촬상하고, 각 위치에서 촬상된 노즐의 위치들을 상기 화상처리부가 픽셀좌표계의 좌표값들로 기억하는 제2기억단계와, 상기 제1기억단계 및 제2기억단계에서 상기 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라의 광축과 노즐의 중심축간의 축간각도를 산출하는 축간각도 산출단계와, 상기 축간각도 산출단계에서 구한 값을 기초로 상기 카메라의 위치를 보정하는 위치보정단계를 구비한 점에 특징이 있다.In order to achieve the above object, the method of positioning a camera for a chip mounter according to the present invention is a method for positioning a camera for activating an adsorption state of a component adsorbed to a chip mounter nozzle. A position control is performed by a control unit having a coordinate system, and the camera is connected to an image processing unit having a pixel coordinate system and performing image recognition operation based on the image information picked up by the camera, wherein the nozzle is previously inputted to the control unit. A nozzle transfer step of transferring the camera to the center coordinates of the camera and positioning it on the focal length of the camera; and imaging the nozzle transferred through the nozzle transfer step with the camera, and the image processing unit coordinates the position of the imaged nozzle with the coordinates of the pixel coordinate system. After performing the first memory step of storing the value as the value, and the first memory step, the nozzle to the control unit A second memory step of photographing with a camera while transferring to a plurality of previously input positions, and storing the positions of nozzles photographed at each position as coordinate values of a pixel coordinate system, the first memory step, and the second memory step; An interaxial angle calculating step of calculating an interaxial angle between the optical axis of the camera and the central axis of the nozzle on the basis of the coordinate values of the nozzles stored in the image processing unit and the positions of the nozzles previously input to the controller in the storage step; And a position correction step of correcting the position of the camera based on the value obtained in the calculation step.

상기 후자의 목적을 달성하기 위하여 본 발명에 따른 칩마운터용 카메라의 위치보정방법은, 칩마운터용 노즐에 흡착된 부품의 흡착상태를 촬상하기 위한 카메라를 위치보정하기 위한 방법으로, 상기 노즐은 X-Y좌표계를 갖는 제어부에 의해 위치 제어되며, 상기 카메라에는 픽셀좌표계를 가지며 그 카메라에 의해 촬상된 화상정보를 기초로 화상인식연산을 행하는 화상처리부가 접속된 것에 있어서, 상기 노즐을 상기 제어부에 미리 입력된 카메라 중심좌표로 이송시키고 그 카메라의 초점거리 상에 위치시키는 노즐 이송단계와, 상기 노즐 이송단계를 통해 이송된 노즐을 상기 카메라로 촬상하고 촬상된 노즐의 위치를 상기 화상처리부가 상기 픽셀좌표계의 좌표값으로 기억하는 제1기억단계와, 상기 제1기억단계를 행한 후 상기 노즐을 상기 제어부에 미리 입력된 복수의 위치로 이송시키면서 카메라로 촬상하고 각 위치에서 촬상된 노즐의 위치들을 상기 화상처리부가 픽셀좌표계의 좌표값들로 기억하는 제2기억단계와, 상기 제1기억단계와 제2기억단계에서 상기 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라의 광축과 노즐의 중심축간의 축간각도를 산출하는 축간각도 산출단계와, 상기 제1기억단계와 제2기억단계에서 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라가 그 광축에 대해 회전된 각도를 연산하는 회전각도 산출단계와, 상기 축간각도 산출단계 및 회전각도 산출단계에서 구한 값을 기초로 상기 카메라의 위치를 보정하는 위치보정단계를 구비한 점에 특징이 있다.In order to achieve the latter object, a method of positioning a camera for a chip mounter according to the present invention is a method for positioning a camera for photographing an adsorption state of a component adsorbed to a chip mounter nozzle. A position control is performed by a control unit having a coordinate system, and the camera is connected to an image processing unit having a pixel coordinate system and performing image recognition operation based on the image information picked up by the camera, wherein the nozzle is previously inputted to the control unit. A nozzle transfer step of transferring the camera to the center coordinates of the camera and positioning it on the focal length of the camera; and imaging the nozzle transferred through the nozzle transfer step with the camera, and the image processing unit coordinates the position of the imaged nozzle with the coordinates of the pixel coordinate system. After performing the first memory step of storing the value as the value, and the first memory step, the nozzle to the control unit A second memory step of photographing with a camera while transferring to a plurality of previously input positions and storing the positions of nozzles photographed at each position as coordinate values of a pixel coordinate system; and the first memory step and the second memory. Calculating an interaxial angle between the optical axis of the camera and the central axis of the nozzle on the basis of the coordinate values of the nozzle stored in the image processing unit and the positions of the nozzles previously input to the control unit, and the first memory A rotation angle calculation step of calculating an angle at which the camera is rotated with respect to the optical axis based on the coordinate values of the nozzles stored in the image processing unit in the step and the second memory step and the positions of the nozzles previously input to the control unit; And a position correction step of correcting the position of the camera based on the values obtained in the angle calculation step and the rotation angle calculation step.

이하 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제5도는 카메라의 초점거리상에 노즐이 위치하는 상태의 개략적 구조도이며, 제6도는 제5도에 도시된 상태에서 카메라에 의해 촬상되어 화면에 나타난 노즐을 도시한 개략적 정면도이다. 제7도는 제어부에 입력된 카메라의 중심위치로부터 소정거리 이격된 복수개의 위치에서 촬상되어 화면상에 나타난 노즐을 도시한 개략적 정면도이다. 제8도는 카메라의 광축과 노즐의 중심축이 소정각도를 이루고 있는 상태를 나타낸 개략적 측면도이다.FIG. 5 is a schematic structural diagram of a state where a nozzle is located on a focal length of a camera, and FIG. 6 is a schematic front view showing a nozzle captured by a camera and displayed on a screen in the state shown in FIG. FIG. 7 is a schematic front view illustrating a nozzle captured on a plurality of positions spaced a predetermined distance from the center position of the camera input to the controller and displayed on the screen. 8 is a schematic side view showing a state in which the optical axis of the camera and the central axis of the nozzle form a predetermined angle.

상기 제5도 내지 제8도 및 제1도를 참조하면서 본 발명에 따른 칩마운터용 카메라의 위치보정방법에 대해 설명하면 다음과 같다.The position correction method of the chip mounter camera according to the present invention will be described with reference to FIGS. 5 to 8 and FIG. 1 as follows.

먼저, 부품이 흡착되어 있지 않는 노즐(3)을 X-Y로보트(1)에 의해, 제5도 및 제6도에 도시된 바와 같이, 프로그램에 의해 제어부(20)에 X-Y좌표계의 좌표값으로 미리 입력된 카메라의 중심위치(X0,Y0)로 이동시키고, 카메라(10)의 초점거리상에 위치하도록 미리 제어부(20)에 입력된 높이로 노즐(3)을 하강시키는 노즐 이송단계를 행한다.First, as shown in FIGS. 5 and 6, the nozzle 3, in which the parts are not adsorbed, is input in advance to the control unit 20 as a coordinate value of the XY coordinate system by the program. It moves to the center position (X0, Y0) of the camera, and performs the nozzle conveyance step of lowering the nozzle 3 to the height input to the control part 20 so that it may be located on the focal length of the camera 10 previously.

그 후, 카메라(10)는 그 초점거리상에 위치하는 노즐(3)을 촬상하고 촬상된 화상정보를 화상처리부(30)로 송출한다. 이 화상정보를 기초로 화상처리부(30)는, 제6도에 도시된 바와 같이 카메라(10)의 촬상소자(10a)에 맺힌 즉, 화면에 나타난 노즐(3)의 중심위치를 무게중심 검출방법에 의해 구한 후, 픽셀좌표계상의 좌표값(X0', Y0')으로 기억하는 제1기억단계를 행한다.After that, the camera 10 picks up the nozzle 3 positioned on the focal length and sends the picked-up image information to the image processing unit 30. On the basis of this image information, the image processing unit 30 is attached to the imaging device 10a of the camera 10 as shown in FIG. 6, that is, the center of gravity of the nozzle 3 shown on the screen. After the calculation, the first storage step of storing the coordinate values X0 'and Y0' on the pixel coordinate system is performed.

제1기억단계를 행한 후, 제어부(20)에 미리 입력된 X-Y좌표계 상의 복수의 위치로 노즐(3)을 이송시키면서 카메라(30)로 촬상하고, 각 위치에서 촬상된 노즐의 중심위치를 상술한 바와 마찬가지로 방법으로 구하여 화상처리부(30)의 픽셀좌표계 상에 기억시키는 제2기억단계를 행한다. 본 실시예에서는 화상인식연산을 용이하게 하기 위하여, 상기 제어부(20)에 입력되어 노즐(3)이 이송되는 복수개의 위치를, 제7도에 도시된 바와 같이 제어부(20)의 X-Y좌표계 상의 카메라 중심좌표(X0,Y0)로부터 동일한 거리상에 위치하는 즉, 제7도에서 a값, b값, c값, d값이 모두 동일한 제1위치(X1,Y1). 제2위치(X2,Y2), 제3위치(X3,Y3) 및 제4위치(X4,Y4)로 하였으며, 그 4개의 위치는 제어부(20)의 X-Y좌표계상의 X축과 Y상에 위치하도록 하였다.After performing the first storage step, the camera 30 captures images while transferring the nozzles 3 to a plurality of positions on the XY coordinate system previously input to the controller 20, and describes the center positions of the nozzles captured at each position. Similarly, a second storage step is performed which is obtained by a method and stored on the pixel coordinate system of the image processing unit 30. In this embodiment, in order to facilitate the image recognition operation, a plurality of positions input to the controller 20 and the nozzle 3 is transferred, as shown in FIG. 7, the camera on the XY coordinate system of the controller 20. The first position (X1, Y1), which is located on the same distance from the center coordinates (X0, Y0), that is, the values a, b, c, and d are the same in FIG. The second position (X2, Y2), the third position (X3, Y3) and the fourth position (X4, Y4), and the four positions are located on the X-axis and Y on the XY coordinate system of the control unit 20 It was.

이에따라 화상처리부(30)는 상기 각 노즐중심위치를, 픽셀좌표계상의 4개의 좌표값((X1,Y1'),(X2',Y2'),(X3',Y3'),(X4',Y4'))으로 기억하게 된다.Accordingly, the image processing unit 30 sets each of the nozzle center positions to four coordinate values ((X1, Y1 '), (X2', Y2 '), (X3', Y3 '), (X4', Y4) on the pixel coordinate system. ')).

그 후, 상기 제1기억단계와 상기 제2기억단계에서 화상처리부에 기억된 좌표값들((X0',Y0'),(X1',Y1'),(X2',Y2'),(X3',Y3'),(X4',Y4') 과 상기 제어부(20)에 미리 입력되어 있던 노즐의 위치들((X0,Y0),(X1,X1),(X2,Y2),(X3,Y3),(X4,Y4))을 기초로 상기 카메라(10)의 광축과 노즐(3)의 중심축이 형성하는 각도를 산출하는 축간각도 산출단계를 수행한다.Then, the coordinate values ((X0 ', Y0'), (X1 ', Y1'), (X2 ', Y2'), (X3) stored in the image processing unit in the first storage step and the second storage step. ', Y3'), (X4 ', Y4') and the positions of nozzles previously inputted to the controller 20 ((X0, Y0), (X1, X1), (X2, Y2), (X3, Y3), (X4, Y4) is performed to calculate the angle between the axis to calculate the angle formed by the optical axis of the camera 10 and the central axis of the nozzle (3).

이를 위하여 먼저, 제어부의 좌표계에 있어서 +Y방향의 픽셀의 상대크기, -Y방향의 픽셀의 상대크기, +X방향의 픽셀의 상대크기 및 -X방향의 픽셀의 상대크기를 각각 다음식에 의해 구한다.To do this, first, in the coordinate system of the control unit, the relative size of the pixel in the + Y direction, the relative size of the pixel in the -Y direction, the relative size of the pixel in the + X direction, and the relative size of the pixel in the -X direction are respectively expressed by the following equation. Obtain

상기 (식1)내지 (식4)에서 구한 값들을 기초로 상기 각 방향의 카메라의 시야를 구한다. 예를 들어, 상기 (식1) 내지 (식4)에서 각각 얻어진 값을 LX1, LX2, LY1, LY2 라 하고, 화면이 640×480개의 픽셀로 구성되면 즉, 화면의 가로방향을 구성하는 X'방향의 픽셀수가 640개, 화면의 가로방향을 구성하는 Y'방향의 픽셀수가 480개라 하면,The field of view of the camera in each direction is obtained based on the values obtained in the above formulas (1) to (4). For example, the values obtained in the above formulas (1) to (4) are referred to as LX1, LX2, LY1, and LY2, and the screen is composed of 640x480 pixels, that is, X 'constituting the horizontal direction of the screen. If the number of pixels in the direction is 640 and the number of pixels in the Y 'direction forming the horizontal direction of the screen is 480,

이 된다.Becomes

상기 (식5)와 (식6)에서 구해진 값을 각각 A, B라 하고 이를 도식화하면 제8도에 도시된 바와 같다. 제8도를 참조하면 카메라(10)는 설계시에 실선으로 도시된 바와 같이 그 광축(11)과 노즐(3)의 중심축(31)이 나란한 상태로 설치되도록 되어 있다. 따라서, 노즐(3)의 중심축(31)이 카메라(10)의 광축(11)과 일치하게 되면, 카메라의 시야는 그 광축(11)으로부터 +X방향의 시야와 -X방향의 시야가 동일한 값을 갖게 된다. 그러나, 카메라(10)의 설치시에 그 카메라(10)가 노즐(3)의 중심축(31)에 대해 기울어짐으로 인하여 카메라(10)의 광축(11)과 노즐(3)의 중심축(31)이 소정각도를 형성하게 되면, 카메라의 시야는 그 광축(11)으로부터 +X방향의 시야와 -X방향의 시야가 달라지게 된다.The values obtained in the above Equations 5 and 6 are referred to as A and B, respectively, and are shown in FIG. Referring to FIG. 8, the camera 10 is provided such that the optical axis 11 and the central axis 31 of the nozzle 3 are arranged side by side as shown by the solid line at the time of design. Therefore, when the central axis 31 of the nozzle 3 coincides with the optical axis 11 of the camera 10, the field of view of the camera is the same as the field of view in the + X direction and the field of view in the -X direction from the optical axis 11. It will have a value. However, when the camera 10 is installed, the camera 10 is inclined with respect to the central axis 31 of the nozzle 3 so that the optical axis 11 of the camera 10 and the central axis of the nozzle 3 ( When 31) forms a predetermined angle, the field of view of the camera is changed from the optical axis 11 to the field of view in the + X direction and the field of view in the -X direction.

따라서 상기 A와 B가 서로 다른 값을 갖게 되면 이는, 제8도에 점선으로 도시된 바와 같이 카메라(10)가 노즐(3)의 중심축(31)에 대해 기울어진 상태로 설치되어, 노즐(3)의 중심축(31)과 카메라(10)의 광축(11)이 X축방향에 대해 소정각도(θ1)를 이루고 있음을 의미한다. 이때, 노즐(3)의 중심축(31)과 카메라(10)의 광축(11)이 이루는 X축방향에 대한 축간각도(θ1)를, 카메라(10)의 광축(11)으로부터 +X 및 -X방향의 광각(θ)과, 카메라(10) 렌즈와 노즐(3)간의 거리(D)와, 상기 (식5)에서 얻어진 값(A) 및 (식6)에서 얻어진 값(B)을 기초로 하여 상각함수법에 의해 구한다.Therefore, when A and B have different values, the camera 10 is installed with the camera 10 inclined with respect to the central axis 31 of the nozzle 3, as shown by a dotted line in FIG. This means that the central axis 31 of 3) and the optical axis 11 of the camera 10 form a predetermined angle θ1 with respect to the X-axis direction. At this time, the interaxial angle θ1 with respect to the X-axis direction formed by the central axis 31 of the nozzle 3 and the optical axis 11 of the camera 10 is + X and − from the optical axis 11 of the camera 10. Based on the wide angle θ in the X direction, the distance D between the camera 10 lens and the nozzle 3, and the values A obtained from the above expression (5) and the values B obtained from the equation (6). It is obtained by the depreciation method.

마찬가지로, +Y방향의 시야 및 -Y방향의 시야를 다음식 (식7),(식8)에 의해 구한다.Similarly, the field of view in the + Y direction and the field of view in the -Y direction are obtained by the following equations (7) and (8).

그리고, (식7) 및 (식8)에서 얻어진 값들을 기초로 하여, 상술한 X축방향에 대한 축간각도 산출방법과 마찬가지의 방법으로, Y축방향에 대한 노즐의 중심축과 카메라의 광축이 이루는 Y축방향에 대한 축간각도를 구한다.On the basis of the values obtained in (7) and (8), the central axis of the nozzle in the Y-axis direction and the optical axis of the camera in the Y-axis direction are similar to the above-described method of calculating the interaxial angle in the X-axis direction. Find the angle between the axes in the Y-axis direction.

이와 같이 구한 X축방향에 대한 축간각도 및 Y축방향에 대한 축간각도를 기초로 하여, 노즐(3)의 중심축(31)과 카메라(10)의 광축(11)이 나란한 상태로 되도록, 카메라(10)의 위치를 보정하는 위치보정단계를 행한다.The camera is arranged such that the central axis 31 of the nozzle 3 and the optical axis 11 of the camera 10 are in parallel with each other based on the angle between the axes in the X-axis direction and the axes in the Y-axis direction thus obtained. A position correction step of correcting the position of (10) is performed.

상술한 방법에 따라 카메라(10)의 위치를 보정하게 되면, 종래 방법에서 사용되던 고정밀도로 가공된 시험편(P)을 사용할 필요가 없게 되므로 카메라(10)의 위치보정작업이 용이해질 뿐만 아니라, 카메라(10)의 광축(11)이 노즐(3)의 중심축(31)과 나란한 상태를 이루게 되므로, 노즐(3)에 흡착되어 그 카메라(10)에 의해 촬상되는 칩부품의 흡착상태를 보다 정확한 값으로 인식할 수 있게 된다.When the position of the camera 10 is corrected according to the above-described method, it is not necessary to use the test piece P processed with high precision, which is used in the conventional method. Since the optical axis 11 of (10) is in parallel with the central axis 31 of the nozzle 3, the adsorption state of the chip component adsorbed by the nozzle 3 and imaged by the camera 10 is more accurate. It can be recognized as a value.

한편, 상기 제2기억단계를 수행한 후, 제7도에 도시된 바와 같이 제어부의 X-Y좌표계에 대해 카메라(10)의 픽셀좌표계가 (X'-Y'좌표계)가 회전되어 있는 상태로 나타나게 되면, 이는 카메라(10)가 그 광축에 대해 회전되어 있음과 동시에, 보다 정확한 부품인식을 위하여, 이에 대한 카메라(10)의 위치보정이 필요함을 의미한다. 따라서, 광축에 대한 카메라(10)의 회전각도를 산출하는 회전각도 산출단계와, 이 화전각도 산출단계에서 구해진 값을 기초로 하여 카메라(10)의 위치를 보정하는 위치보정단계를 행할 필요가 있다.On the other hand, after performing the second memory step, as shown in FIG. 7, when the pixel coordinate system of the camera 10 appears to be rotated with respect to the XY coordinate system of the control unit (X'-Y 'coordinate system) This means that the camera 10 is rotated with respect to the optical axis and at the same time, the position of the camera 10 needs to be corrected for more accurate component recognition. Therefore, it is necessary to perform the rotation angle calculation step of calculating the rotation angle of the camera 10 with respect to the optical axis, and the position correction step of correcting the position of the camera 10 based on the value obtained in this conversion angle calculation step. .

이를 위하여 먼저, 카메라(10)의 회전각도를 다음식 (식9)에 의해 산출한다.To this end, first, the rotation angle of the camera 10 is calculated by the following equation (9).

(여기에서, α는 카메라의 회전각도, α1은 제어부 좌표계의 Y축과 픽셀좌표계의 Y'축이 이루는 각도, α2는 제어부 좌표계의 X축과 픽셀좌표계의 X'축이 이루는 각도이다.)(Here, α is the angle of rotation of the camera, α1 is the angle formed by the Y axis of the controller coordinate system and the Y 'axis of the pixel coordinate system, α2 is an angle formed by the X axis of the controller coordinate system and the X' axis of the pixel coordinate system.)

그리고, 상기 (식9)에서 얻어진 카메라의 회전각도(α)만큼 카메라를 회전시켜 위치를 보정한다.Then, the camera is rotated by the rotation angle α of the camera obtained in Equation 9 to correct the position.

이상에서 살펴본 바와 같이 본 발명의 칩마운터용 카메라의 위치보정방법에 따르면, 초정밀가공된 시험편을 구비하지 않아도 카메라의 위치보정을 행할 수 있으므로 작업이 용이해질 뿐만 아니라, 노즐에 흡착된 부품을 촬상하는 카메라가 노즐에 대해 경사지게 설치되어 있는지의 여부를 확인할 수 있으며, 노즐의 중심축과 카메라의 광축이 나란해지도록 그 카메라의 위치를 보정할 수 있으므로, 카메라를 정확하게 위치보정할 수 있다.As described above, according to the position correction method of the camera for a chip mounter of the present invention, since the position correction of the camera can be performed even without the ultra-precise test piece, the operation is easy and the image picked up by the nozzle is picked up. Whether the camera is inclined with respect to the nozzle can be checked, and the position of the camera can be corrected so that the center axis of the nozzle and the optical axis of the camera are parallel, so that the camera can be accurately positioned.

또한, 카메라가 그 광축을 중심으로 노즐에 대해 회전되어 있는지의 여부를 확인하고 그에 따라 카메라의 위치를 보정할 수 있으므로, 보다 정확한 카메라의 위치보정이 가능하다.In addition, it is possible to check whether the camera is rotated with respect to the nozzle about its optical axis and to correct the position of the camera accordingly, thus enabling more accurate position correction of the camera.

Claims (5)

칩마운터용 노즐에 흡착된 부품의 흡착상태를 촬상하기 위한 카메라를 위치보정하기 위한 방법으로, 상기 노즐은 X-Y좌표계를 갖는 제어부에 의해 위치 제어되며, 상기 카메라에는 픽셀좌표계를 가지며 그 카메라에 의해 촬상된 화상정보를 기초로 화상인식연산을 행하는 화상처리부가 접속된 칩마운터용 카메라의 위치보정방법에 있어서, 상기 노즐을 상기 제어부에 미리 입력된 카메라 중심좌표로 이송시키고 그 카메라의 초점거리 상에 위치시키는 노즐 이송단계와, 상기 노즐 이송단계를 통해 이송된 노즐을 상기 카메라로 촬상하고 촬상된 노즐의 위치를 상기 화상처리부가 상기 픽셀좌표계의 좌표값으로 기억하는 제1기억단계와, 상기 제1기억단계를 행한 후 상기 노즐을 상기 제어부에 미리 입력된 복수의 위치로 이송시키면서 카메라로 촬상하고 각 위치에서 촬상된 노즐의 위치들을 상기 화상처리부가 픽셀좌표계의 좌표값들로 기억하는 제2기억단계와, 상기 제1기억단계 및 제2기억단계에서 상기 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라의 광축과 노즐의 중심축간의 축간각도를 산출하는 축간각도 산출단계와, 상기 축간각도 산출단계에서 구한 값을 기초로 상기 카메라의 위치를 보정하는 위치보정단계를 구비하여 된 것을 특징으로 하는 칩마운터용 카메라의 위치보정방법.A method for positioning a camera for imaging a suction state of a component adsorbed on a chip mounter nozzle, the nozzle being positioned controlled by a control unit having an XY coordinate system, the camera having a pixel coordinate system and being picked up by the camera. A method of correcting a position of a chip mounter camera to which an image processing unit for performing image recognition operation based on the received image information, the method comprising: transferring the nozzle to a camera center coordinate previously input to the control unit and positioning the camera on a focal length of the camera; A first memory step of imaging a nozzle transferred through the nozzle transferring step with the camera and storing the position of the nozzle photographed by the image processing unit as a coordinate value of the pixel coordinate system; After performing the step, the nozzle is transferred to a plurality of positions previously input to the controller, and the image is captured by the camera. A second storage step of storing the positions of the nozzles photographed at each position as coordinate values of the pixel coordinate system, and coordinate values of the nozzles stored in the image processing unit in the first and second memory steps; And an interaxial angle calculating step of calculating an interaxial angle between the optical axis of the camera and the central axis of the nozzle based on the positions of the nozzles previously input to the controller, and correcting the position of the camera based on the values obtained in the interaxial angle calculating step. Position correction method for a chip mounter camera, characterized in that it comprises a position correction step. 제1항에 있어서, 상기 제2기억단계에서 노즐의 이송되는 복수의 위치는 상기 제어부에 미리 입력된 카메라 중심좌표로부터 동일한 거리상에 위치하는 것을 특징으로 하는 칩마운터용 카메라의 위치보정방법.The method of claim 1, wherein the plurality of positions of the nozzles transferred in the second memory step are located at the same distance from the camera center coordinates previously input to the controller. 제1항에 있어서, 상기 제2기억단계에서 노즐의 이송되는 복수의 위치는 4개소인 것을 특징으로 하는 칩마운터용 카메라의 위치보정방법.The method of claim 1, wherein the plurality of positions of the nozzles transferred in the second memory step are four locations. 제3항에 있어서, 상기 4개소의 위치는 각각 상기 제어부의 좌표계상에서 X축과 Y축상에 위치하는 것을 특징으로 하는 칩마운터용 카메라의 위치보정방법.4. The method of claim 3, wherein the four positions are located on the X-axis and the Y-axis on the coordinate system of the control unit, respectively. 칩마운터용 노즐에 흡착된 부품의 흡착상태를 촬상하기 위한 카메라를 위치보정하기 위한 방법으로, 상기 노즐은 X-Y좌표계를 갖는 제어부에 의해 위치 제어되며, 상기 카메라에는 픽셀좌표계를 가지며 그 카메라에 의해 촬상된 화상정보를 기초로 화상인식연산을 행하는 화상처리부가 접속된 칩마운터용 카메라의 위치보정방법에 있어서, 상기 노즐을 상기 제어부에 미리 입력된 카메라 중심좌표로 이송시키고 그 카메라의 초점거리상에 위치시키는 노즐 이송단계와, 상기 노즐 이송단계를 통해 이송된 노즐을 상기 카메라로 촬상하고 촬상된 노즐의 위치를 상기 화상처리부가 상기 픽셀좌표계의 좌표값으로 기억하는 제1기억단계와, 상기 제1기억단계를 행한 후 상기 노즐을 상기 제어부에 미리 입력된 복수의 위치로 이송시키면서 카메라로 촬상하고 각 위치에서 촬상된 노즐의 위치들을 상기 화상처리부가 픽셀좌표계의 좌표값들로 기억하는 제2기억단계와, 상기 제1기억단계와 제2기억단계에서 상기 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라의 광축과 노즐의 중심축간의 축간각도를 산출하는 축간각도 산출단계와, 상기 제1기억단계와 제2기억단계에서 화상처리부에 기억된 노즐의 좌표값들과 상기 제어부에 미리 입력된 노즐의 위치들을 기초로 카메라가 그 광축에 대해 회전된 각도를 연산하는 회전각도 산출단계와, 상기 축간각도 산출단계 및 회전각도 산출단계에서 구한 값을 기초로 상기 카메라의 위치를 보정하는 위치보정단계를 구비한 것을 특징으로 하는 칩마운터용 카메라의 위치보정방법.A method for positioning a camera for imaging a suction state of a component adsorbed on a chip mounter nozzle, the nozzle being positioned controlled by a control unit having an XY coordinate system, the camera having a pixel coordinate system and being picked up by the camera. A method of correcting a position of a chip mounter camera to which an image processing unit which performs image recognition operation based on the received image information, the method comprising: transferring the nozzle to a camera central coordinate previously input to the control unit and positioning the nozzle on a focal length of the camera; A first memory step of capturing a nozzle transferred through the nozzle transferring step with the camera and storing the position of the imaged nozzle as a coordinate value of the pixel coordinate system; and the first memory step After performing the above operation, the nozzle is transferred to a plurality of positions previously input to the controller, and the image is captured by the camera. A second storage step in which the image processing unit stores the positions of the nozzles photographed at each position as coordinate values of the pixel coordinate system, and coordinate values of the nozzles stored in the image processing unit in the first and second memory steps. And an interaxial angle calculating step of calculating an interaxial angle between the optical axis of the camera and the central axis of the nozzle based on the positions of the nozzles previously input to the controller, and the nozzles stored in the image processing unit in the first and second memory steps. A rotation angle calculation step of calculating an angle at which the camera is rotated with respect to the optical axis based on coordinate values of the controller and positions of the nozzles previously input to the controller, and based on values obtained in the shaft-to-axis angle calculation step and the rotation angle calculation step. And a position correction step of correcting the position of the camera.
KR1019950003248A 1995-02-20 1995-02-20 Centering control method of camera for chip mounter KR0155800B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950003248A KR0155800B1 (en) 1995-02-20 1995-02-20 Centering control method of camera for chip mounter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950003248A KR0155800B1 (en) 1995-02-20 1995-02-20 Centering control method of camera for chip mounter

Publications (2)

Publication Number Publication Date
KR960033189A KR960033189A (en) 1996-09-17
KR0155800B1 true KR0155800B1 (en) 1998-12-15

Family

ID=19408452

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950003248A KR0155800B1 (en) 1995-02-20 1995-02-20 Centering control method of camera for chip mounter

Country Status (1)

Country Link
KR (1) KR0155800B1 (en)

Also Published As

Publication number Publication date
KR960033189A (en) 1996-09-17

Similar Documents

Publication Publication Date Title
US7239399B2 (en) Pick and place machine with component placement inspection
JP4587877B2 (en) Component mounting equipment
JP2008270696A (en) Component mounting position correcting method and component mounting apparatus
US20120189188A1 (en) Component mounting system and mounting state inspection method in the component mounting system
US20080014772A1 (en) Component mounting position correcting method and component mouting apparatus
JP6190229B2 (en) Component mounting equipment
JP2008091815A (en) Mounting machine, and components imaging method thereof
JP2009117624A (en) Component mounting apparatus
JP4787694B2 (en) Mounting machine
KR102034481B1 (en) Mounting method and mounting apparatus of electronic parts
JP4405009B2 (en) Calibration method of inspection machine with line sensor camera
KR0155800B1 (en) Centering control method of camera for chip mounter
US20020030736A1 (en) Single camera alignment system using up/down optics
JP3434004B2 (en) Component recognition device and component mounting device
JP2013236011A (en) Component mounting device
JP2707548B2 (en) Coordinate correction method for visual recognition device
WO2014045437A1 (en) Component mounting device and position correction method
CN113614488B (en) Arithmetic device and input device
JPH06260794A (en) Method and equipment for recognizing position of electronic part
JP2009212166A (en) Part transfer device, and part recognizing method therefor
WO2024075252A1 (en) Imaging position determination device, imaging device, and imaging position determination method
JP3089786B2 (en) Check area setting method for multiple lands
JP2907246B2 (en) Component mounting equipment
JP2539071B2 (en) Alignment device
JP2008004657A (en) Surface mounting apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20050629

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee