KR102564247B1 - The Apparatus For Teaching Tray Image - Google Patents

The Apparatus For Teaching Tray Image Download PDF

Info

Publication number
KR102564247B1
KR102564247B1 KR1020160043141A KR20160043141A KR102564247B1 KR 102564247 B1 KR102564247 B1 KR 102564247B1 KR 1020160043141 A KR1020160043141 A KR 1020160043141A KR 20160043141 A KR20160043141 A KR 20160043141A KR 102564247 B1 KR102564247 B1 KR 102564247B1
Authority
KR
South Korea
Prior art keywords
tray
image
feature point
distance
unit
Prior art date
Application number
KR1020160043141A
Other languages
Korean (ko)
Other versions
KR20170115678A (en
Inventor
강연택
한석원
Original Assignee
한화정밀기계 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화정밀기계 주식회사 filed Critical 한화정밀기계 주식회사
Priority to KR1020160043141A priority Critical patent/KR102564247B1/en
Priority to CN201610643163.0A priority patent/CN107278121B/en
Publication of KR20170115678A publication Critical patent/KR20170115678A/en
Application granted granted Critical
Publication of KR102564247B1 publication Critical patent/KR102564247B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/673Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere using specially adapted carriers or holders; Fixing the workpieces on such carriers or holders
    • H01L21/67333Trays for chips
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • G01N2021/1772Array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws

Abstract

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 트레이 이미지 티칭 장치는 트레이를 촬영하여 영상을 획득하는 카메라; 상기 영상을 통해 상기 트레이의 정위치 이탈 여부를 판단하고, 이탈 위치를 보상하는 제어부; 상기 트레이의 상기 정위치에 대한 정보가 저장되는 저장부를 포함하되, 상기 제어부는, 상기 영상으로부터 특징점을 인식하는 특징점 인식부; 상기 추출한 특징점의 좌표를 생성하는 좌표 생성부; 상기 트레이가 상기 정위치에서 이탈한 거리 및 각도를 판단하고, 보상 거리 및 보상 각도를 추출하는 위치 보상부를 포함한다.A tray image teaching apparatus according to an embodiment of the present invention for solving the above problems includes a camera for capturing an image of a tray; a control unit that determines whether or not the tray is deviating from the normal position through the image, and compensates for the deviating position; A storage unit for storing information on the position of the tray, wherein the control unit includes: a feature point recognizing unit recognizing a feature point from the image; a coordinate generation unit generating coordinates of the extracted feature points; and a position compensator for determining a distance and an angle at which the tray deviated from the normal position and extracting a compensating distance and a compensating angle.

Description

트레이 이미지 티칭 장치{The Apparatus For Teaching Tray Image}Tray image teaching device {The Apparatus For Teaching Tray Image}

본 발명은 트레이 이미지 티칭 장치에 관한 것으로서, 보다 상세하게는 카메라의 이동 없이 트레이가 원래 팔레트에 배치되어야 할 정위치로부터 이탈되었는지를 판단할 수 있는 트레이 이미지 티칭 장치에 관한 것이다.The present invention relates to a tray image teaching device, and more particularly, to a tray image teaching device capable of determining whether a tray is deviated from an original position to be placed on a pallet without moving a camera.

일반적으로 부품 실장기(Chip Mounter)는 반도체 제조 공정을 통하여 제조되는 집적회로, 고밀도 집적회로, 다이오드, 콘덴서, 저항 등의 전자부품들을 인쇄 회로 기판 상에 실장하는 장치이다. 이와 같은 부품 실장기는 기판 상에 실장될 부품들을 공급하는 부품 공급 장치, 상기 부품 공급 장치에서 공급하는 부품들이 실장될 수 있도록 기판을 운송하는 기판 운송 장치 및 상기 부품 공급 장치로부터 공급되는 부품들을 흡착하여 기판 상에 실장하는 헤드(head)를 포함한다.In general, a chip mounter is a device for mounting electronic components such as integrated circuits, high-density integrated circuits, diodes, capacitors, and resistors manufactured through a semiconductor manufacturing process on a printed circuit board. Such a component mounting machine includes a component supply device for supplying components to be mounted on the board, a board transport device for transporting the board so that the components supplied from the component supply device can be mounted, and adsorbing the components supplied from the component supply device. It includes a head mounted on a substrate.

상기 헤드에는 상기 부품들을 흡착하기 위해 노즐(Nozzle)이 헤드의 일단에 탈부착이 가능하도록 장착된다. 따라서, 부품 공급 장치로부터 부품들이 공급되면, 헤드의 끝단에 장착된 노즐은 상기 공급된 부품들을 진공흡착 등의 방법으로 흡착한 후 기판 상으로 이동시켜 기판 상에 실장한다.A nozzle (Nozzle) is attached to one end of the head so as to be detachable in order to adsorb the parts. Therefore, when components are supplied from the component supply device, a nozzle mounted at the end of the head adsorbs the supplied components by vacuum adsorption or the like, and then moves them onto a substrate to be mounted on the substrate.

한편, 부품 공급 장치는 테이프 피더(Tape Feader) 또는 트레이 피더(Tray Feader) 등 다양한 종류가 있다. 특히, 트레이 피더는 상기 기판에 실장하고자 하는 전자 부품들이 수납되어 있는 부품 팔레트를 상기 칩 마운터의 부품공급영역으로 이송함으로써 상기 칩 마운터에 전자 부품들을 공급하게 된다. 트레이 피더에 의해 공급되는 부품들의 종류는 매우 다양하며, 부품들의 크기 또한 상기 종류에 따라 매우 다양하다. 그러므로, 부품 실장을 하기 위해서는 공급되는 부품들의 크기 및 위치를 정확히 인지하여 흡착하는 것이 중요하다. 이를 위해, 공급되는 부품들을 촬영하는 티칭 카메라(Teaching Camera)가 팔레트의 상방에 설치된다.On the other hand, there are various types of parts supply devices such as tape feeders and tray feeders. In particular, the tray feeder supplies electronic components to the chip mounter by transferring a component pallet containing electronic components to be mounted on the board to the component supply area of the chip mounter. The types of parts supplied by the tray feeder are very diverse, and the sizes of the parts are also very diverse according to the types. Therefore, in order to mount components, it is important to accurately recognize and adsorb the sizes and positions of supplied components. To this end, a teaching camera that photographs the supplied parts is installed above the pallet.

카메라는 공급되는 부품들이 수납된 트레이가 팔레트 상의 정위치에 정확히 배치되었는지, 그리고 부품의 위치가 어디인지 티칭한다. 그리고 헤드가 정확히 해당 부품의 위치를 찾아 부품을 흡착할 수 있도록, 부품의 위치 정보를 XY갠트리에 전송한다.The camera teaches whether the tray containing the supplied parts is accurately placed in the correct position on the pallet and where the parts are located. Then, the head transmits the positional information of the part to the XY gantry so that the head can accurately locate the part and adsorb the part.

그러나 종래에는 이러한 카메라의 FOV(Field Of View: 관측 시야)의 제한 때문에 트레이 전체를 한 번에 촬영할 수가 없었다. 따라서 카메라를 평행 이동시켜 트레이의 정확한 위치를 파악하였다. 구체적으로는, 트레이에는 각각의 부품을 수납하는 공간인 복수의 포켓이 마련되어 있는데, 사각형의 형상을 가진 트레이의 네 코너(Corner)에 각각 위치한 포켓들을 순차적으로 촬영하여 트레이의 전체 위치를 파악하였다. 그러나 이는 카메라가 이동하는 데에 많은 시간이 소요되었다. 또한, 트레이가 원래 팔레트 상에 배치되어야 할 정위치에서 많이 이탈한 경우에는, 카메라가 이동하는 도중에 트레이가 카메라의 FOV에서 벗어나는 문제가 있었다.However, in the prior art, the entire tray could not be photographed at once due to limitations in the FOV (Field Of View) of such a camera. Therefore, the camera was moved in parallel to determine the exact position of the tray. Specifically, the tray is provided with a plurality of pockets, which are spaces for accommodating each part, and the entire position of the tray was identified by sequentially photographing the pockets located at each of the four corners of the tray having a rectangular shape. However, it took a lot of time for the camera to move. In addition, when the tray is far away from the original position to be placed on the pallet, there is a problem that the tray is out of the FOV of the camera while the camera is moving.

카메라를 상하로 이동할 수 있는 기술도 제안되었다. 이 기술은 카메라를 상측으로 이동시킴으로써 넓은 FOV를 확보할 수 있으나, 이 또한 카메라가 이동하는 데에 불필요한 시간이 소요되었다. 또한, 카메라를 상측으로 이동시킬 공간이 마련되어야 하므로, 장치의 부피가 커지는 문제도 있었다.A technique for moving the camera up and down has also been proposed. This technology can secure a wide FOV by moving the camera upward, but this also took unnecessary time for the camera to move. In addition, since a space to move the camera upward has to be provided, there is also a problem in that the volume of the device increases.

최근에는 카메라를 고정시키고, 트레이에 마련된 포켓들의 꼭지점을 추출하고 이를 이용하여 부품의 중심위치 좌표를 계산함으로써 부품들의 위치를 티칭하는 기술이 개발되었다. 그러나, 이는 단순히 포켓들의 꼭지점들을 통해 부품의 중심 위치를 찾는 것에 그칠 뿐이고, 트레이가 팔레트 상의 정위치에서 이탈한 것을 감지할 수는 없었다.Recently, a technique for teaching the location of parts has been developed by fixing a camera, extracting vertices of pockets provided on a tray, and calculating coordinates of a center position of a part using this. However, this merely stopped at finding the center position of the part through the vertices of the pockets, and it was not possible to detect that the tray was out of position on the pallet.

한국특허등록 제 1436573 호Korean Patent Registration No. 1436573 한국특허등록 제 1157156 호Korea Patent Registration No. 1157156

본 발명이 해결하고자 하는 과제는, 카메라의 이동 없이 트레이가 원래 팔레트에 배치되어야 할 정위치로부터 이탈되었는지를 판단할 수 있는 트레이 이미지 티칭 장치를 제공하는 것이다.An object to be solved by the present invention is to provide a tray image teaching device capable of determining whether a tray is deviated from an original position to be placed on a pallet without moving a camera.

또한, 트레이의 일부만을 카메라로 촬영하여 포켓들의 크기 및 위치를 파악할 수 있는 트레이 이미지 티칭 장치를 제공하는 것이다.Another object of the present invention is to provide a tray image teaching device capable of grasping the size and location of pockets by capturing only a portion of the tray with a camera.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 트레이 이미지 티칭 장치는 트레이를 촬영하여 영상을 획득하는 카메라; 상기 영상을 통해 상기 트레이의 정위치 이탈 여부를 판단하고, 이탈 위치를 보상하는 제어부; 상기 트레이의 상기 정위치에 대한 정보가 저장되는 저장부를 포함하되, 상기 제어부는, 상기 영상으로부터 특징점을 인식하는 특징점 인식부; 상기 특징점의 좌표를 생성하는 좌표 생성부; 상기 트레이가 상기 정위치에서 이탈한 거리 및 각도를 판단하고, 보상 거리 및 보상 각도를 추출하는 위치 보상부를 포함한다.A tray image teaching apparatus according to an embodiment of the present invention for solving the above problems includes a camera for capturing an image of a tray; a control unit that determines whether or not the tray is deviating from the normal position through the image, and compensates for the deviating position; A storage unit for storing information on the position of the tray, wherein the control unit includes: a feature point recognizing unit recognizing a feature point from the image; a coordinate generation unit generating coordinates of the feature points; and a position compensator for determining a distance and an angle at which the tray deviated from the normal position and extracting a compensating distance and a compensating angle.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.According to embodiments of the present invention, at least the following effects are provided.

카메라의 이동 없이 트레이가 팔레트에 배치되어야 할 정위치로부터 이탈되었는지를 판단할 수 있다.It is possible to determine whether the tray is deviating from the position to be placed on the pallet without moving the camera.

또한, 트레이의 이탈 정도를 이용하여, 트레이의 이탈된 위치를 정위치로 보상하기 위한 보상 거리 및 보상 각도를 계산할 수 있다.In addition, a compensation distance and a compensation angle for compensating for the position of the tray to be corrected may be calculated using the degree of separation of the tray.

또한, 이러한 보상 거리 및 보상 각도를 이용하여 출력되는 트레이에 대한 영상을 보정할 수 있다.In addition, the image of the output tray may be corrected using the compensation distance and compensation angle.

또한, 트레이의 일부만을 카메라로 촬영하여 포켓들의 크기 및 위치를 파악하여 헤드가 부품의 정확한 위치를 찾을 수 있도록 티칭할 수 있다.In addition, only a part of the tray can be photographed with a camera to determine the size and position of the pockets, so that the head can be taught to find the exact location of the part.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 제어부(12)의 구성을 더 자세히 나타낸 블록도이다.
도 3은 일반적으로 팔레트(2) 상에 트레이(20)가 정위치로 배치된 모습을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 특징점 인식부(121)가 영상으로부터 특징점(210)을 인식하는 모습을 나타낸 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 좌표 생성부(122)가 좌표를 생성하고 포켓(21)의 위치를 파악하는 모습을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)가 포켓(21)의 사이즈 및 간격을 측정하는 모습을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 위치를 보상하는 모습을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 영상 보정부(124)가 트레이(20)의 위치가 보상되도록 영상을 보정한 모습을 나타낸 도면이다.
도 10은 본 발명의 다른 실시예에 따른 특징점 인식부(121)가 영상으로부터 특징점(210)을 인식하는 모습을 나타낸 도면이다.
도 11 및 도 12는 본 발명의 다른 실시예에 따른 좌표 생성부(122)가 좌표를 생성하고 포켓(21)의 위치를 파악하는 모습을 나타낸 도면이다.
도 13은 본 발명의 다른 실시예에 따른 트레이 이미지 티칭 장치(1)가 포켓(21)의 사이즈 및 간격을 측정하는 모습을 나타낸 도면이다.
도 14는 본 발명의 다른 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 거리를 보상하는 모습을 나타낸 도면이다.
도 15는 본 발명의 다른 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 각도를 보상하는 모습을 나타낸 도면이다.
도 16은 본 발명의 다른 실시예에 따른 영상 보정부(124)가 트레이(20)의 위치가 보상되도록 영상을 보정한 모습을 나타낸 도면이다.
1 is a block diagram showing the configuration of a tray image teaching device 1 according to an embodiment of the present invention.
2 is a block diagram showing the configuration of the control unit 12 according to an embodiment of the present invention in more detail.
3 is a view showing a state in which the tray 20 is generally arranged on the pallet 2 in place.
4 is a diagram showing how the feature point recognizing unit 121 recognizes a feature point 210 from an image according to an embodiment of the present invention.
5 and 6 are views showing how the coordinate generator 122 generates coordinates and determines the position of the pocket 21 according to an embodiment of the present invention.
7 is a view showing how the tray image teaching device 1 according to an embodiment of the present invention measures the size and spacing of the pockets 21 .
8 is a view showing how the position compensation unit 123 compensates for the position of the tray 20 in accordance with an embodiment of the present invention.
FIG. 9 is a diagram illustrating an image corrected by the image correction unit 124 according to an embodiment of the present invention so that the position of the tray 20 is compensated.
10 is a diagram showing how the feature point recognizing unit 121 according to another embodiment of the present invention recognizes a feature point 210 from an image.
11 and 12 are views showing how the coordinate generator 122 generates coordinates and determines the position of the pocket 21 according to another embodiment of the present invention.
13 is a view showing how the tray image teaching device 1 according to another embodiment of the present invention measures the size and spacing of the pockets 21.
FIG. 14 is a view showing how the position compensator 123 compensates for the deviation distance of the tray 20 according to another embodiment of the present invention.
15 is a view showing how the position compensation unit 123 compensates for the deviation angle of the tray 20 according to another embodiment of the present invention.
16 is a diagram showing a state in which the image correction unit 124 according to another embodiment of the present invention corrects an image so that the position of the tray 20 is compensated.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a tray image teaching device 1 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)는 트레이(20)를 촬영하여 영상을 획득하는 카메라(11), 획득한 영상을 통해 트레이(20)의 정위치 이탈 여부를 판단하는 제어부(12), 영상을 디스플레이하는 디스플레이 장치(13), 트레이(20)가 원래 배치되어야 할 정위치에 대한 정보가 저장되는 저장부(14)를 포함한다.As shown in FIG. 1, the tray image teaching apparatus 1 according to an embodiment of the present invention includes a camera 11 that acquires an image by photographing a tray 20, and a tray 20 through the obtained image. It includes a control unit 12 that determines whether or not it is out of position, a display device 13 that displays an image, and a storage unit 14 that stores information about the original position where the tray 20 is to be placed.

카메라(11)는 팔레트(2)에 배치된 트레이(20)를 촬영하여 영상을 획득한다. 카메라(11)는 이미지 센서를 활용하여 트레이(20)를 촬영함으로써 2차원의 영상을 획득하며, 일반적인 CMOS(Complementary Metal Oxide Semiconductor)소자 또는 CCD(Charge-Coupled Device)소자 등의 피사체를 촬영할 수 있는 카메라(11) 소자가 사용될 수 있다. 카메라(11)는 2차원 화상을 촬영하여 디지털 변환함으로써 동영상 또는 이미지 데이터를 출력하는 디지털카메라(11)인 것이 바람직하나, 이에 제한되지 않는다. 또한 카메라(11) 자체에서 영상을 인코딩하는 기능이 탑재되어 있어, 카메라(11)가 영상을 촬영하면 곧바로 인코딩되어 압축 영상 데이터가 생성될 수도 있다. 카메라(11)가 디지털카메라(11)가 아니라면 촬영한 영상은 RGB 아날로그 영상 신호이므로 ADC컨버터가 별도로 구비되어야 하나, 카메라(11)가 디지털카메라(11)라면 ADC컨버터는 불필요하다.The camera 11 acquires an image by photographing the tray 20 disposed on the pallet 2 . The camera 11 acquires a two-dimensional image by photographing the tray 20 using an image sensor, and can photograph a subject such as a general CMOS (Complementary Metal Oxide Semiconductor) element or CCD (Charge-Coupled Device) element. A camera 11 element may be used. The camera 11 is preferably, but not limited to, a digital camera 11 that outputs moving pictures or image data by taking a two-dimensional image and digitally converting it. In addition, since the camera 11 itself has a function of encoding an image, when the camera 11 captures an image, it may be immediately encoded and compressed image data may be generated. If the camera 11 is not a digital camera 11, the captured image is an RGB analog video signal, so an ADC converter must be provided separately. However, if the camera 11 is a digital camera 11, the ADC converter is unnecessary.

제어부(12)는 각종 입력을 수신하고, 부품 실장기의 구동을 전체적으로 제어한다. 그리고, 제어부(12)는 카메라(11)가 획득한 영상을 통해 트레이(20)의 위치를 파악하고, 트레이(20)가 팔레트(2)의 정위치에서 이탈하였는지 여부를 판단한다. 그리고 트레이(20)가 팔레트(2)의 정위치에서 이탈하였다면, 이탈한 거리 및 각도를 계산하여 보상한다. 본 발명의 일 실시예에 따른 제어부(12)로는 CPU(Central Processing Unit), MCU(Micro Controller Unit) 또는 DSP(Digital Signal Processor) 등을 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 논리 연산 프로세서가 사용될 수 있다. 제어부(12)에 대한 자세한 설명은 후술한다.The controller 12 receives various inputs and controls the driving of the component mounting machine as a whole. Then, the controller 12 determines the position of the tray 20 through the image acquired by the camera 11, and determines whether the tray 20 is out of the original position of the pallet 2. And, if the tray 20 is out of the original position of the pallet 2, the distance and angle of the deviation are calculated and compensated. It is preferable to use a central processing unit (CPU), a micro controller unit (MCU), or a digital signal processor (DSP) as the controller 12 according to an embodiment of the present invention, but is not limited thereto, and various logic operation processors are used. can be used A detailed description of the control unit 12 will be described later.

디스플레이 장치(13)는 제어부(12)의 제어에 따라, 패널을 통해 디코딩 및 영상 처리되어 복원된 영상을 시각적으로 디스플레이 함으로써 사용자가 감시할 수 있도록 한다. 디스플레이 장치(13)에 포함된 패널은 LCD, LED, OLED 등 다양한 방식이 사용될 수 있으며, 나아가 터치가 가능한 터치패널의 기능을 가질 수도 있다.Under the control of the controller 12, the display device 13 visually displays an image that has been decoded and image-processed through a panel so that the user can monitor it. The panel included in the display device 13 may use various methods such as LCD, LED, and OLED, and may further have a function of a touch panel capable of being touched.

저장부(14)는 트레이(20)가 배치되어야 할 정위치에 대한 정보가 데이터로써 저장된다. 제어부(12)가 트레이(20)의 이탈 거리 및 각도를 계산할 때, 저장부(14)에 저장된 상기 정보를 로딩하여 트레이(20)의 현 위치와 비교한다. 상기 정위치에 대한 정보의 자세한 설명은 후술한다. 저장부(14)는 부피가 크지 않은 비휘발성 메모리인 플래시 메모리를 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 메모리 장치가 사용될 수 있다.In the storage unit 14 , information on the location where the tray 20 is to be placed is stored as data. When the controller 12 calculates the separation distance and angle of the tray 20, the information stored in the storage 14 is loaded and compared with the current position of the tray 20. A detailed description of the information on the home position will be described later. It is preferable to use a flash memory, which is a non-volatile memory that is not bulky, for the storage unit 14, but various memory devices may be used without being limited thereto.

도 2는 본 발명의 일 실시예에 따른 제어부(12)의 구성을 더 자세히 나타낸 블록도이다.2 is a block diagram showing the configuration of the control unit 12 according to an embodiment of the present invention in more detail.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제어부(12)는 카메라(11)로부터 획득된 영상에서 특징점(210)을 인식하는 특징점 인식부(121), 상기 특징점(210)의 좌표를 생성하는 좌표 생성부(122), 트레이(20)가 팔레트(2)의 정위치에서 이탈한 정도를 판단하고 보상 거리 및 보상 각도(θ)를 추출하는 위치 보상부(123), 상기 추출된 거리 및 각도를 토대로 트레이(20)가 정위치에 배치된 것처럼 보여지도록 영상을 보정하는 영상 보정부(124)를 포함한다.As shown in FIG. 2 , the controller 12 according to an embodiment of the present invention includes a feature point recognizing unit 121 that recognizes a feature point 210 in an image obtained from the camera 11, A coordinate generator 122 that generates coordinates, a position compensator 123 that determines the degree of deviation of the tray 20 from the original position of the pallet 2 and extracts a compensation distance and a compensation angle θ, the extraction It includes an image correction unit 124 for correcting an image so that the tray 20 appears to be disposed in the correct position based on the obtained distance and angle.

특징점 인식부(121)는 카메라(11)로부터 획득된 영상을 전송받아 특징점(210)을 인식한다. 특징점 인식부(121)가 특징점을 인식하기 위해, 사용자가 직접 영상을 통해 해당 특징점(210)을 지정할 수도 있으나, 특징점 인식부(121)가 자동으로 지정할 수도 있다. 사용자가 직접 특징점(210)을 지정할 경우에는, 우선 카메라(11)로부터 획득된 영상이 디스플레이 장치(13)를 통해 디스플레이 된다. 그리고 사용자는 해당 영상을 보며, 직접 특징점(210)을 지정하도록 입력을 인가한다. 이 때, 디스플레이 장치(13)가 터치패널의 기능을 가지고 있다면 사용자는 손가락 등을 사용한 터치 입력을 통해 특징점(210)을 지정할 수 있다. 그러나 디스플레이 장치(13)가 터치패널의 기능을 가지고 있지 않다면 마우스와 같은 입력 장치를 이용하여 특징점(210)을 지정할 수 있다.The feature point recognizing unit 121 receives the image obtained from the camera 11 and recognizes the feature point 210 . In order for the feature point recognizer 121 to recognize the feature point, the user may directly designate the corresponding feature point 210 through an image, or the feature point recognizer 121 may automatically designate the corresponding feature point 210 . When the user directly designates the feature point 210, first, an image obtained from the camera 11 is displayed through the display device 13. Then, the user views the corresponding image and applies an input to directly designate the feature point 210 . At this time, if the display device 13 has a touch panel function, the user may designate the feature point 210 through a touch input using a finger or the like. However, if the display device 13 does not have a touch panel function, the feature point 210 may be designated using an input device such as a mouse.

특징점 인식부(121)가 자동으로 지정할 경우에는 우선 상기 획득한 영상으로부터 이미지 픽셀에 대한 엣지 정보를 추출한다. 상기 엣지 정보를 추출하기 위해서 일반적으로 사용되는 그라디언트 공식을 사용할 수 있다. 그리고 추출한 엣지 정보를 통해 영상의 트레이(20) 및 포켓(21)의 윤곽선이 드러나게 되고, 상기 윤곽선을 기준으로 특징점(210)의 위치에 대한 정보를 추출한다. 이러한 정보들을 토대로 특징점(210)을 자동으로 지정할 수 있다.In the case where the feature point recognizing unit 121 automatically designates, first, edge information about an image pixel is extracted from the obtained image. A commonly used gradient formula may be used to extract the edge information. Then, the outlines of the tray 20 and the pocket 21 of the image are revealed through the extracted edge information, and information about the position of the feature point 210 is extracted based on the outlines. Based on such information, feature points 210 may be automatically designated.

좌표 생성부(122)는 상기 지정된 특징점(210)의 좌표를 생성한다. 이 때 특징점(210)의 좌표에는, 미리 설정된 특정 좌표축을 기준으로 해당 점의 위치를 파악하는 절대 좌표, 특징점(210)을 지정할 때마다 그에 대응되는 좌표축을 새롭게 설정하여 특징점(210)들 간에 이격된 거리 및 방향 등을 토대로 점의 위치를 파악하는 상대 좌표가 있다. 본 발명의 일 실시예에 따른 특징점(210)의 좌표는, 특정 좌표축을 미리 설정하지 않으므로 상대 좌표인 것이 바람직하다. 그러나 이에 제한되지 않고, 특정한 좌표축을 미리 설정하여, 트레이(20)의 종류, 트레이(20)의 이탈 여부와는 무관하게 상기 설정한 특정 좌표축을 기준으로 점의 위치를 파악하는 절대 좌표일 수도 있다.The coordinate generator 122 generates coordinates of the designated feature point 210 . At this time, the coordinates of the feature point 210 are absolute coordinates for determining the position of the corresponding point based on a preset specific coordinate axis, and whenever the feature point 210 is designated, the corresponding coordinate axis is newly set to space the feature points 210 apart. There are relative coordinates that determine the position of a point based on the distance and direction that have been obtained. The coordinates of the feature point 210 according to an embodiment of the present invention are preferably relative coordinates because a specific coordinate axis is not set in advance. However, it is not limited thereto, and a specific coordinate axis may be set in advance, and absolute coordinates may be used to determine the position of a point based on the specific coordinate axis set above regardless of the type of the tray 20 and whether or not the tray 20 is separated. .

위치 보상부(123)는 트레이(20)의 현 위치가 팔레트(2) 상의 정위치에서 이탈한 정도를 판단하고 보상 거리 및 보상 각도(θ)를 추출한다. 상기 좌표 생성부(122)가 특징점(210)의 좌표를 생성하면, 위치 보상부(123)는 저장부(14)로부터 트레이(20)의 정위치에 대한 정보를 로딩한다. 저장부(14)에는 미리 트레이(20)가 배치되어야 할 정위치에 대한 정보가 데이터로써 저장되어 있다. 그리고 상기 획득한 특징점(210) 정보와 매칭하여 포켓(21)의 형상을 인식하고 판별할 수 있다.The position compensation unit 123 determines the extent to which the current position of the tray 20 deviated from the original position on the pallet 2 and extracts a compensation distance and a compensation angle θ. When the coordinate generating unit 122 generates the coordinates of the feature points 210, the position compensating unit 123 loads information about the proper position of the tray 20 from the storage unit 14. In the storage unit 14 , information about the location where the tray 20 is to be placed is stored as data in advance. In addition, the shape of the pocket 21 may be recognized and determined by matching with the acquired feature point 210 information.

위치 보상부(123)가 저장부(14)의 정보에서 로딩한 트레이(20)의 정위치에 대한 정보와, 좌표 생성부(122)로부터 생성된 트레이(20)의 현 위치에 대한 좌표 정보를 비교한다. 그리고 트레이(20)가 정위치에서 이탈한 정도를 계산하여, 보상 거리 및 보상 각도(θ)를 추출한다. 보상 거리 및 보상 각도(θ)를 추출하는 방법에 대한 자세한 설명은 후술한다.Information on the current position of the tray 20 loaded by the position compensator 123 from information stored in the storage unit 14 and coordinate information on the current position of the tray 20 generated by the coordinate generator 122 Compare. Then, a compensation distance and a compensation angle θ are extracted by calculating the degree of deviation of the tray 20 from the original position. A detailed description of how to extract the compensation distance and compensation angle θ will be described later.

영상 보정부(124)는 상기 위치 보상부(123)가 추출한 보상 거리 및 보상 각도(θ)를 이용하여, 카메라(11)로부터 획득한 영상을 보정한다. 트레이(20)의 현 위치가 정위치로부터 일정 거리 및 일정 각도가 이탈하였다면, 상기 일정 거리 및 일정 각도만큼, 이탈한 방향의 역방향으로 영상을 평행이동 또는 회전시킨다. 예를 들어, 트레이(20)의 현 위치가 트레이(20)의 정위치로부터 반시계 방향으로 10°회전하였다면, 영상 보정부(124)는 트레이(20)를 촬영한 영상을 시계 방향으로 10°회전시킨다. 상기 보정된 영상은 디스플레이 장치(13)에서 출력되며, 이 때 출력되는 영상에는 트레이(20)가 정위치에서 이탈하였더라도 정위치에 배치된 것으로 보여질 수 있다.The image correction unit 124 corrects the image obtained from the camera 11 using the compensation distance and compensation angle θ extracted by the position compensation unit 123 . If the current position of the tray 20 is deviated by a predetermined distance and a predetermined angle from the original position, the image is translated or rotated in a direction opposite to the deviated direction by the predetermined distance and predetermined angle. For example, if the current position of the tray 20 is rotated 10 degrees counterclockwise from the original position of the tray 20, the image correction unit 124 rotates the image of the tray 20 clockwise by 10 degrees. rotate The corrected image is output from the display device 13, and in the image output at this time, it can be seen that the tray 20 is disposed in the correct position even if it is displaced from the correct position.

도면에 도시하지는 않았으나, 제어부(12)는 영상 처리부를 더 포함한다. 카메라(11)로부터 영상 처리부로 인코딩된 압축 영상이 입력되어, 디코딩의 과정을 거친다. 영상 처리부에서는 영상의 디코딩 및 디코딩된 영상을 처리하여 해상도(Resolution), 프레임율(Frame-Rate) 또는 화질(Bit-Depth)을 변경하는 영상 처리의 전반적인 과정을 수행한다. 영상 처리부는 상기 압축 영상을 디코딩하는 디코더(미도시)를 포함할 수 있다. 디코더(미도시)는 카메라(11)로부터 인코딩된 압축 영상을 전송받아 디코딩하여 복원 영상을 생성한다. 상기 인코딩된 영상을 디코딩하기 위한 코덱 또한 상기 기술한 인코딩에서와 마찬가지로 다양한 종류가 사용될 수 있으나, 인코딩에 사용된 코덱과 동일한 종류이어야 동일한 표준에 의한 것이므로 정확히 영상이 복원된다.Although not shown in the drawing, the control unit 12 further includes an image processing unit. An encoded compressed image is input from the camera 11 to the image processing unit and undergoes a decoding process. The image processing unit performs the overall image processing process of decoding an image and processing the decoded image to change resolution, frame rate, or bit depth. The image processing unit may include a decoder (not shown) that decodes the compressed image. A decoder (not shown) receives the encoded compressed image from the camera 11 and decodes it to generate a reconstructed image. Various types of codecs for decoding the encoded video may also be used as in the encoding described above, but the same codec used for encoding is based on the same standard so that the video is accurately restored.

영상 처리부는 대기하는 영상의 프레임 데이터를 임시로 저장하는 버퍼 메모리(미도시), 영상의 렌더링(Rendering) 작업을 수행하는 그래픽 렌더러(미도시), 복합 영상을 생성하기 위해 복수의 영상의 오버레이를 수행하는 슈퍼 임포저(미도시)를 더 포함할 수도 있다. 다만, 이에 제한되지 않고, 영상의 인코딩 및 디코딩의 과정이나 기타 영상 처리가 필요하지 않은 경우에는, 영상 처리부는 상기 기술한 디코더(미도시), 버퍼 메모리(미도시), 그래픽 렌더러(미도시) 또는 슈퍼 임포저(미도시) 중에 일부를 포함하지 않을 수 있다. 즉, 카메라(11)로부터 촬영된 영상의 처리 방법에 따라, 영상 처리부는 다양하게 구성될 수 있다.The image processor includes a buffer memory (not shown) that temporarily stores frame data of a waiting image, a graphic renderer (not shown) that performs image rendering, and overlays a plurality of images to create a composite image. A super imposer (not shown) may be further included. However, it is not limited thereto, and if the process of encoding and decoding the image or other image processing is not required, the image processing unit may include the above-described decoder (not shown), buffer memory (not shown), and graphic renderer (not shown) Alternatively, some of the super imposers (not shown) may not be included. That is, the image processing unit may be configured in various ways according to the processing method of the image captured by the camera 11 .

도면에 도시하지는 않았으나, 제어부(12)는 통신부를 더 포함한다. 위치 보상부(123)가 트레이(20)의 보상 거리 및 보상 각도(θ)를 추출한 후, 상기 보상 거리 및 보상 각도(θ)를 영상 보정에만 사용하는 것이 아니라 XY갠트리에도 전송할 수 있다. XY갠트리는 상기 보상 거리 및 보상 각도(θ)를 토대로, 부품의 위치를 정확히 파악하여 부품을 흡착할 수 있다. 통신부는 XY갠트리에 상기 보상 거리 및 보상 각도(θ)를 전송하며, LAN과 같이 유선 네트워크를 사용한 유선 통신일 수도 있으나 RF, WIFI, Bluetooth 등과 같이 무선 네트워크를 사용한 무선 통신일 수도 있다.Although not shown in the drawings, the control unit 12 further includes a communication unit. After the position compensation unit 123 extracts the compensation distance and compensation angle θ of the tray 20, the compensation distance and compensation angle θ may be transmitted to the XY gantry as well as being used only for image calibration. The XY gantry can accurately detect the position of the part based on the compensation distance and the compensation angle θ and adsorb the part. The communication unit transmits the compensation distance and compensation angle (θ) to the XY gantry, and may be wired communication using a wired network such as a LAN, or may be wireless communication using a wireless network such as RF, WIFI, and Bluetooth.

도 3은 일반적으로 팔레트(2) 상에 트레이(20)가 정위치로 배치된 모습을 나타낸 도면이다.3 is a view showing a state in which the tray 20 is generally arranged on the pallet 2 in place.

일반적으로 트레이(20) 피더는 기판에 실장될 부품을 부품 실장기에 공급하는 장치로서, 부품을 수납하는 트레이(20), 트레이(20)를 지지하는 팔레트(2) 및 팔레트(2)를 격납하는 매거진을 포함한다. 매거진에 격납된 팔레트(2)를 이송 수단을 이용하여 부품 실장기의 작업 헤드가 위치한 피더부로 이송한 후, 작업 헤드는 트레이(20)에 수납된 부품을 흡착하여 기판에 실장한다.In general, the tray 20 feeder is a device for supplying components to be mounted on a board to a component mounting machine, and includes a tray 20 for storing the components, a pallet 2 supporting the tray 20, and a pallet 2 for storing the pallet 2. Includes magazine. After transferring the pallet 2 stored in the magazine to the feeder unit where the work head of the component mounting machine is located, the work head adsorbs the components stored in the tray 20 and mounts them on the board.

트레이(20)는 부품을 수납할 수 있도록 포켓(21)을 포함한다. 포켓(21)은 트레이(20)에 마련된, 부품을 수납하는 공간이고, 하나의 포켓(21)에는 하나의 부품이 수납되는 것이 바람직하다. 트레이(20)가 한 번 이송되면 부품 실장 작업을 수 회 반복할 수 있도록, 하나의 트레이(20)는 복수의 부품을 공급할 수 있다. 만약, 부품이 트레이(20) 내에서 무질서하게 수납되어 있다면, 부품 실장기의 헤드가 부품을 흡착하는 것이 용이하지 않을 것이다. 따라서, 트레이(20)에는 복수의 포켓(21)이 복수의 행과 열을 따라 나란히 정렬되도록 마련되고, 부품은 트레이(20)에 정렬된 포켓(21)에 각각 수납되어 공급된다.The tray 20 includes pockets 21 to accommodate parts. The pocket 21 is a space provided on the tray 20 for accommodating parts, and it is preferable that one part is accommodated in one pocket 21 . When the tray 20 is transported once, one tray 20 can supply a plurality of components so that the component mounting operation can be repeated several times. If the components are stored in a disorderly manner in the tray 20, it will not be easy for the head of the component mounting machine to adsorb the components. Therefore, a plurality of pockets 21 are provided on the tray 20 to be aligned side by side along a plurality of rows and columns, and parts are stored and supplied in the pockets 21 arranged on the tray 20, respectively.

한편, 도 3에 도시된 바와 같이, 트레이(20)는 팔레트(2)의 위에 배치된다. 이 때, 팔레트(2)에는 트레이(20)가 배치되어야 할 정해진 위치가 있다. 트레이(20)가 이러한 정위치에 배치되어야 부품 실장기가 부품을 용이하게 흡착할 수 있다. 그러나 팔레트(2)는 트레이(20)보다 더 넓고, 트레이(20)를 고정시킬 부재가 따로 존재하지 않는 경우가 있다. 따라서 트레이(20)를 팔레트(2)에 배치시키는 과정에서, 트레이(20)가 상기 정위치에서 이탈하는 경우가 종종 발생한다.On the other hand, as shown in FIG. 3 , the tray 20 is placed on top of the pallet 2 . At this time, the pallet 2 has a predetermined position where the tray 20 is to be placed. When the tray 20 is placed in such a position, the component mounting machine can easily adsorb the components. However, there are cases where the pallet 2 is wider than the tray 20 and there is no separate member to fix the tray 20 to. Therefore, in the process of arranging the tray 20 on the pallet 2, the tray 20 often deviates from the position.

도 4는 본 발명의 일 실시예에 따른 특징점 인식부(121)가 영상으로부터 특징점(210)을 인식하는 모습을 나타낸 도면이다.4 is a diagram showing how the feature point recognizing unit 121 recognizes a feature point 210 from an image according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)는 카메라(11)를 이용하여 팔레트(2)에 배치된 트레이(20)를 촬영한다. 이 때 트레이(20)가 팔레트(2)의 정위치에 배치되지 않고 도 4에 도시된 바와 같이 정위치로부터 이탈할 수도 있다. 이하, 본 발명의 일 실시예에서는, 트레이(20)의 현 위치가 정위치로부터 거리는 이탈하지 않고 각도만 이탈한 것으로 설명한다.A tray image teaching apparatus 1 according to an embodiment of the present invention uses a camera 11 to photograph a tray 20 disposed on a pallet 2 . At this time, the tray 20 may not be disposed at the proper position of the pallet 2 and may depart from the position as shown in FIG. 4 . Hereinafter, in one embodiment of the present invention, it will be described that the current position of the tray 20 does not deviate from the original position, but only the angle.

트레이(20)에는 복수의 포켓(21)이 복수의 행과 열을 따라 나란히 정렬되도록 마련되어 있다. 일반적으로는 행의 수가 4개, 열의 수가 10개인, 즉 10×4 배열(가로 10개, 세로 4개)로 포켓(21)이 정렬된다. 다만, 이에 제한되지 않고 상기 복수의 행과 열의 수는 다양하게 형성될 수 있다. 그러나, 이러한 포켓(21)의 배열 정보는 트레이 이미지 티칭 장치(1)에 미리 입력되어야 한다. 이하, 포켓(21)은 10×4 배열로 정렬되는 것으로 설명한다.The tray 20 is provided with a plurality of pockets 21 arranged side by side along a plurality of rows and columns. In general, the pockets 21 are arranged in a 10×4 arrangement (10 horizontally, 4 vertically) with 4 rows and 10 columns. However, the number of the plurality of rows and columns may be variously formed without being limited thereto. However, the arrangement information of the pockets 21 must be input to the tray image teaching device 1 in advance. Hereinafter, the pockets 21 will be described as being arranged in a 10×4 arrangement.

카메라(11)는 FOV의 제한 때문에 트레이(20)의 전체 포켓(21)들을 한 번에 촬영할 수 없다. 또한, 카메라(11)를 이동하여 여러 포켓(21)을 촬영하게 되면 불필요한 시간이 소요된다. 따라서 카메라(11)는 트레이(20)의 일부 포켓(21) 만을 촬영하게 된다. 예를 들어, 우선 트레이(20)의 가장 좌측 하단에 위치한 제1 포켓(21a)을 기준 포켓(21)으로 설정한다. 그리고 카메라(11)는 제1 포켓(21a)을 촬영한다. 이 때 도 4에 도시된 바와 같이, 제1 포켓(21a)의 같은 행 우측에 인접하여 위치한 제2 포켓(21b) 및 제 1 포켓(21)의 같은 열 상측에 인접하여 위치한 제3 포켓(21c)이 함께 촬영된다. 여기서 제2 및 제3 포켓(21b, 21c) 전체가 촬영될 수도 있으나, 일부만이 촬영될 수도 있다. 다만, 제2 및 제3 포켓(21b, 21c)의 일부만이 촬영되는 경우라도 특징점(21)으로 지정될 부분은 반드시 촬영되어야 한다. 본 발명의 일 실시예에서는, 트레이(20)의 가장 좌측 하단에 위치한 제1 포켓(21a)을 기준으로 트레이(20)의 정위치 배치 여부를 파악한다.The camera 11 cannot photograph the entire pockets 21 of the tray 20 at one time due to FOV limitations. In addition, moving the camera 11 to take pictures of the various pockets 21 takes unnecessary time. Accordingly, the camera 11 photographs only some pockets 21 of the tray 20 . For example, first, the first pocket 21a located at the leftmost lower end of the tray 20 is set as the reference pocket 21 . Then, the camera 11 photographs the first pocket 21a. At this time, as shown in FIG. 4, the second pocket 21b located adjacent to the right side of the same row of the first pocket 21a and the third pocket 21c located adjacent to the upper side of the same row of the first pocket 21 ) are taken together. Here, the entirety of the second and third pockets 21b and 21c may be photographed, but only some of them may be photographed. However, even when only parts of the second and third pockets 21b and 21c are photographed, the portion to be designated as the feature point 21 must be photographed. In one embodiment of the present invention, based on the first pocket 21a located at the leftmost lower end of the tray 20, it is determined whether the tray 20 is properly positioned.

카메라(11)가 촬영한 영상은 제어부(12)의 특징점 인식부(121)로 전송된다. 특징점 인식부(121)는 상기 영상에서 포켓(21)의 꼭지점을 중심으로 특징점(210)을 지정하고 이를 인식한다. 상기 기술한 바, 상기 특징점(210)은 사용자가 직접 지정할 수도 있으나, 특징점 인식부(121)가 자동으로 지정할 수도 있다.The image captured by the camera 11 is transmitted to the feature point recognizing unit 121 of the controller 12 . The feature point recognizing unit 121 designates a feature point 210 around the vertex of the pocket 21 in the image and recognizes it. As described above, the feature point 210 may be directly designated by the user, or may be automatically designated by the feature point recognizing unit 121.

특징점(210)은, 트레이 이미지 티칭 장치(1)가 포켓(21)의 가로 및 세로의 길이를 미리 알고 있다면 2개, 포켓(21)의 가로 및 세로의 길이 가운데 하나를 알고 있다면 3개, 포켓(21)의 가로 및 세로의 길이를 모두 알지 못한다면 4개 이상이 지정될 수 있다. 그러나 일반적으로는 트레이(20)마다 공급하는 부품의 종류가 상이하므로 포켓(21)의 크기가 항상 일정하지 않다. 따라서 이하 실시예에서는 특징점(210)이 4개 지정되는 것으로 설명한다.The feature points 210 are two if the tray image teaching device 1 knows the horizontal and vertical lengths of the pocket 21 in advance, three if one of the horizontal and vertical lengths of the pocket 21 is known, the pocket If both the horizontal and vertical lengths of (21) are not known, four or more can be specified. However, generally, the size of the pocket 21 is not always constant because the type of parts to be supplied for each tray 20 is different. Therefore, in the following embodiment, it will be described that four feature points 210 are designated.

본 발명의 일 실시예에서는, 제1 특징점(210a)은 제1 포켓(21a)의 좌측 하단 꼭지점, 제2 특징점(210b)은 제1 포켓(21a)의 우측 상단 꼭지점, 제3 특징점(210c)은 제2 포켓(21b)의 좌측 하단 꼭지점, 제4 특징점(210fd)은 제3 포켓(21c)의 좌측 하단 꼭지점으로 지정된다.In one embodiment of the present invention, the first feature point 210a is the lower left corner of the first pocket 21a, the second feature point 210b is the upper right corner of the first pocket 21a, and the third feature point 210c is the lower left vertex of the second pocket 21b, and the fourth feature point 210fd is designated as the lower left vertex of the third pocket 21c.

기준 포켓(21)의 설정, 지정될 특징점(210)의 개수, 특징점(210)으로 지정한 위치 등은 상기의 내용에 제한되지 않는다. 즉, 트레이(20)의 정위치 배치 여부를 파악할 수 있다면 다양한 포켓(21)을 기준으로 설정할 수 있고, 다양한 개수의 특징점(210)이 지정될 수 있으며, 다양한 위치의 점이 특징점(210)으로 지정될 수 있다.The setting of the reference pocket 21, the number of feature points 210 to be designated, and the location designated as the feature point 210 are not limited to the above. That is, if it is possible to determine whether the tray 20 is properly positioned, it can be set based on various pockets 21, various numbers of feature points 210 can be designated, and points at various positions can be designated as feature points 210. It can be.

도 5 및 도 6은 본 발명의 일 실시예에 따른 좌표 생성부(122)가 좌표를 생성하고 포켓(21)의 위치를 파악하는 모습을 나타낸 도면이다.5 and 6 are views showing how the coordinate generator 122 generates coordinates and determines the position of the pocket 21 according to an embodiment of the present invention.

특징점 인식부(121)에서 특징점(210)을 인식한 후, 상기 특징점(210)들에 대한 정보가 좌표생성부로 전송된다. 그리고 좌표 생성부(122)는, 도 5에 도시된 바와 같이 좌표를 생성한다.After the feature point recognizing unit 121 recognizes the feature point 210, information on the feature point 210 is transmitted to the coordinate generator. And the coordinate generator 122 generates coordinates as shown in FIG. 5 .

좌표를 생성하기 위해 우선, 제1 특징점(210a)을 구분한다. 제1 내지 제4 특징점(210a, 210b, 210c, 210d)을 각각 모두 연결했을 때, 대략 직각을 이루는 3개의 특징점(210)들이 구분되면, 직각이 형성된 꼭지점이 제1 특징점(210a)이다. 그리고 직각을 형성하는데 포함되지 않은 특징점(210)이 제2 특징점(210b)이다. 상기 구분된 제1 특징점(210a)과 제2 특징점(210b)을 연결하게 되면, 제1 포켓(21a)의 대각선(30a)이 형성된다.To generate coordinates, first, the first feature points 210a are identified. When all of the first to fourth feature points 210a, 210b, 210c, and 210d are connected, and three feature points 210 forming an approximate right angle are distinguished, the vertex at which the right angle is formed is the first feature point 210a. The feature point 210 not included in forming the right angle is the second feature point 210b. When the first feature point 210a and the second feature point 210b are connected, a diagonal line 30a of the first pocket 21a is formed.

그리고 제1 특징점(210a)과 나머지 2개의 특징점(210)을 연결한다. 상기 기술한 바와 같이, 이 연결선은 서로 직각을 이룬다. 이 때 상기 나머지 2개의 특징점(210)은 각각 제3 및 제4 특징점(210d)이 된다. 바람직하게는, 제1 특징점(210a)에서 제2 특징점(210b)을 향할 때 우측에 있는 특징점(210)이 제3 특징점(210c), 좌측에 있는 특징점(210)이 제4 특징점(210d)이 된다. 상기 제1 내지 제4 특징점(210a, 210b, 210c, 210d)을 구분하는 방법은, 특징점(210)을 지정하는 방법에 따라 다양할 수 있다.Then, the first feature point 210a and the remaining two feature points 210 are connected. As described above, these connecting lines are perpendicular to each other. At this time, the remaining two feature points 210 become the third and fourth feature points 210d, respectively. Preferably, when moving from the first feature point 210a to the second feature point 210b, the feature point 210 on the right is the third feature point 210c, and the feature point 210 on the left is the fourth feature point 210d. do. Methods for distinguishing the first to fourth feature points 210a, 210b, 210c, and 210d may vary depending on how the feature points 210 are designated.

제1 특징점(210a)과 제3 특징점(210c)을 연결하는 선은, 트레이(20)의 가로축(30b)이 되고, 제1 특징점(210a)과 제4 특징점(210d)을 연결하는 선은, 트레이(20)의 세로축(30c)이 된다. 여기서 가로축(30b) 및 세로축(30c)은 항상 일정하게 특정된 것이 아니라, 특징점(210)을 지정할 때마다 그에 대응되는 좌표축을 새롭게 설정하는 것이다. 따라서 좌표 생성부(122)가 생성하는 좌표는 절대 좌표가 아닌 상대 좌표이다. 다만, 이에 제한되지 않고 미리 특정 좌표축을 설정하고, 트레이(20)의 종류, 트레이(20)의 이탈 여부와는 무관하게 상기 설정한 특정 좌표축을 기준으로 점의 위치를 파악하여 특징점(210)의 좌표를 생성한다면, 절대 좌표일 수 있다.The line connecting the first feature point 210a and the third feature point 210c becomes the horizontal axis 30b of the tray 20, and the line connecting the first feature point 210a and the fourth feature point 210d, It becomes the vertical axis 30c of the tray 20. Here, the horizontal axis 30b and the vertical axis 30c are not constantly specified, but whenever the feature point 210 is designated, a corresponding coordinate axis is newly set. Therefore, the coordinates generated by the coordinate generator 122 are relative coordinates rather than absolute coordinates. However, it is not limited to this, and a specific coordinate axis is set in advance, and the location of the point is determined based on the set specific coordinate axis regardless of the type of the tray 20 and whether or not the tray 20 is separated to determine the characteristic point 210. If you create coordinates, they can be absolute coordinates.

제1 내지 제4 특징점(210a, 210b, 210c, 210d)을 모두 구분한 뒤, 도 6에 도시된 바와 같이, 제2 특징점(210b)에서 트레이(20)의 가로축(30b) 및 세로축(30c)에 각각 수선을 도시한다. 제2 특징점(210b)에서 가로축(30b)에 도시한 수선을 제1 수선(30d), 세로축(30c)에 도시한 수선을 제2 수선(30e)이라 한다. 가로축(30b), 세로축(30c), 제1 수선(30d), 제2 수선(30e)으로 이루어진 사각형이 제1 포켓(21a)의 형상이 된다.After distinguishing all of the first to fourth feature points 210a, 210b, 210c, and 210d, as shown in FIG. 6, the horizontal axis 30b and the vertical axis 30c of the tray 20 are measured from the second feature point 210b. , each perpendicular is shown. In the second feature point 210b, a perpendicular line drawn along the horizontal axis 30b is referred to as a first normal line 30d, and a perpendicular line drawn along the vertical axis 30c is referred to as a second normal line 30e. The shape of the first pocket 21a is a rectangle composed of the horizontal axis 30b, the vertical axis 30c, the first perpendicular line 30d, and the second perpendicular line 30e.

도 7은 본 발명의 일 실시예에 따른 트레이 이미지 티칭 장치(1)가 포켓(21)의 사이즈 및 간격을 측정하는 모습을 나타낸 도면이다.7 is a view showing how the tray image teaching device 1 according to an embodiment of the present invention measures the size and spacing of the pockets 21 .

도 7에 도시된 바와 같이, 트레이 이미지 티칭 장치(1)가 제1 포켓(21a)의 형상을 인지하게 되면, 포켓(21)의 사이즈와 간격을 파악할 수 있다. 구체적으로, 제1 특징점(210a)으로부터 제1 수선(30d)까지의 수직 거리는 포켓(21)의 가로 길이(H)가 된다. 그리고 제1 특징점(210a)으로부터 제2 수선(30e)까지의 수직거리는 포켓(21)의 세로 길이(V)가 된다. 또한, 제3 특징점(210c)으로부터 제1 수선(30d)까지의 수직 거리는 포켓(21) 간의 가로 간격(d1)이 된다. 그리고 제4 특징점(210d)으로부터 제2 수선(30e)까지의 수직 거리는 포켓(21) 간의 세로 간격(d2)이 된다. 상기 기술한 바와 같이, 제1 특징점(210a)과 제2 특징점(210b)의 거리는 제1 포켓(21a)의 대각선의 길이(D)가 된다.As shown in FIG. 7 , when the tray image teaching device 1 recognizes the shape of the first pocket 21a, the size and interval of the pocket 21 can be recognized. Specifically, the vertical distance from the first feature point 210a to the first perpendicular line 30d becomes the horizontal length H of the pocket 21 . And, the vertical distance from the first feature point 210a to the second perpendicular line 30e becomes the vertical length V of the pocket 21 . In addition, the vertical distance from the third feature point 210c to the first perpendicular line 30d becomes the horizontal distance d1 between the pockets 21 . Also, the vertical distance from the fourth feature point 210d to the second perpendicular line 30e becomes the vertical distance d2 between the pockets 21 . As described above, the distance between the first feature point 210a and the second feature point 210b is the length D of the diagonal of the first pocket 21a.

일반적으로 하나의 트레이(20)에 형성된 복수의 포켓(21)들은 모두 사이즈가 동일하며, 포켓(21) 간의 간격 또한 일정하다. 그리고 상기 기술한 바와 같이, 트레이(20) 상의 포켓(21)의 배열 정보는 트레이 이미지 티칭 장치(1)에 미리 입력될 수 있다. 따라서, 트레이 이미지 티칭 장치(1)는 트레이(20)에 마련된 각각의 포켓(21)들의 위치를 모두 파악할 수 있다. 예를 들어 트레이(20) 상에 포켓(21)이 10×4 배열로 정렬되어 있고, (5, 3)에 위치한 포켓(21)의 위치를 구하고자 한다. 이 경우, 상기 설정된 좌표축의 원점인 제1 특징점(210a)을 기준으로, 가로 방향으로 가로 길이(H)의 4 배 및 가로 간격(d1)의 4 배의 합, 세로 방향으로 세로 길이(V)의 2 배 및 세로 간격(d2)의 2 배의 합만큼 이동하면 구하고자 하는 (5, 3)에 위치한 포켓(21)의 좌측 하단 꼭지점을 알 수 있다.In general, all of the plurality of pockets 21 formed on one tray 20 have the same size, and the interval between the pockets 21 is also constant. And, as described above, arrangement information of the pockets 21 on the tray 20 may be input to the tray image teaching device 1 in advance. Accordingly, the tray image teaching device 1 can grasp all positions of the pockets 21 provided on the tray 20 . For example, the pockets 21 are arranged in a 10×4 array on the tray 20, and the position of the pocket 21 located at (5, 3) is sought. In this case, based on the first feature point 210a, which is the origin of the set coordinate axis, the sum of 4 times the horizontal length (H) and 4 times the horizontal distance (d1) in the horizontal direction, and the vertical length (V) in the vertical direction When moving by the sum of twice the vertical distance d2 and twice the vertical distance d2, the lower left vertex of the pocket 21 located at (5, 3) to be obtained can be known.

도 8은 본 발명의 일 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 위치를 보상하는 모습을 나타낸 도면이다.8 is a view showing how the position compensation unit 123 compensates for the position of the tray 20 in accordance with an embodiment of the present invention.

도 8에 도시된 바와 같이, 위치 보상부(123)는 트레이(20)의 이탈 거리 및 각도를 계산한다. 상기 기술한 바, 저장부(14)에는 트레이(20)의 정위치에 대한 정보가 데이터로써 저장된다. 트레이(20)의 정위치에 대한 정보란, 트레이(20)가 정위치에 배치되었을 때 제1 내지 제4 특징점(210a, 210b, 210c, 210d)을 지정한다면 생성될 좌표 정보를 말한다. 위치 보상부(123)는 저장부(14)로부터 상기 트레이(20)의 정위치에 대한 정보를 로딩한다. 그리고, 상기 생성한 트레이(20)의 현 위치에 대한 좌표와 비교한다. 본 발명의 일 실시예에서는, 트레이(20)의 현 위치가 정위치로부터 거리는 이탈하지 않고, 반시계 방향으로 각도만 이탈하였다. 이 때 각도가 이탈하였다는 것은 트레이(20)의 현 위치에서 평행이동을 할 필요없이 임의의 한 점을 중심으로 회전시킨다면 트레이(20)의 정위치에 배치될 수 있는 것을 말한다.As shown in FIG. 8 , the position compensator 123 calculates the separation distance and angle of the tray 20 . As described above, information about the proper position of the tray 20 is stored as data in the storage unit 14 . The information on the proper position of the tray 20 refers to coordinate information to be generated if the first to fourth feature points 210a, 210b, 210c, and 210d are specified when the tray 20 is placed in the correct position. The position compensation unit 123 loads information about the proper position of the tray 20 from the storage unit 14 . Then, the created coordinates of the current location of the tray 20 are compared. In one embodiment of the present invention, the current position of the tray 20 does not deviate from the original position by a distance, only by an angle in a counterclockwise direction. At this time, the deviation of the angle means that the tray 20 can be placed in the correct position of the tray 20 if it is rotated around an arbitrary point without the need to move in parallel from the current position of the tray 20 .

도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따른 트레이(20)의 현 위치와 정위치는 제1 특징점(210a)을 공유한다. 따라서 제1 특징점(210a)을 회전축으로 하여, 트레이(20)의 현 위치를 시계 방향으로 일정 각도만큼 회전하면 트레이(20)의 정위치에 배치된 것으로 보여진다. 이 때, 트레이(20)의 현 위치가 정위치에 배치되도록 회전하는 일정 각도가 보상 각도(θ)이다. 위치 보상부(123)는 상기와 같은 방법으로 보상 각도(θ)를 추출할 수 있다.As shown in FIG. 8 , the current position and the current position of the tray 20 according to an embodiment of the present invention share a first feature point 210a. Therefore, when the current position of the tray 20 is rotated clockwise by a predetermined angle using the first feature point 210a as a rotation axis, it is seen that the tray 20 is disposed at the proper position. At this time, a certain angle rotated so that the current position of the tray 20 is disposed in the correct position is the compensation angle θ. The position compensation unit 123 may extract the compensation angle θ in the same way as above.

도 9는 본 발명의 일 실시예에 따른 영상 보정부(124)가 트레이(20)의 위치가 보상되도록 영상을 보정한 모습을 나타낸 도면이다.FIG. 9 is a diagram illustrating an image corrected by the image correction unit 124 according to an embodiment of the present invention so that the position of the tray 20 is compensated.

위치 보상부(123)에서 보상해야 할 거리 및 각도를 추출하면, 영상 보정부(124)는 위치 보상부(123)가 추출한 보상 거리 및 보상 각도(θ)를 이용하여, 카메라(11)로부터 획득한 영상을 보정한다. 구체적으로, 영상 보정부(124)는 상기 보상 거리 및 보상 각도(θ)만큼, 트레이(20)의 현 위치가 정위치로부터 이탈한 방향의 역방향으로, 영상을 평행이동 또는 회전시킴으로써 보정한다. 본 발명의 일 실시예에 따르면, 트레이(20)의 현 위치가 반시계 방향으로 일정 각도만큼 회전하였으므로, 영상 보정부(124)는 상기 영상을 시계방향으로 보상 각도(θ)만큼 회전시킨다. 상기 보정된 영상은 디스플레이 장치(13)에서 출력되며, 이 때 출력되는 영상에는 트레이(20)가 정위치에서 이탈하였더라도 정위치에 배치된 것으로 보여질 수 있다.When the position compensator 123 extracts the distance and angle to be compensated for, the image compensator 124 uses the compensated distance and compensation angle θ extracted by the position compensator 123 to obtain from the camera 11. correct an image Specifically, the image correction unit 124 compensates by translating or rotating the image in the opposite direction to the direction in which the current position of the tray 20 is deviated from the original position by the compensation distance and the compensation angle θ. According to one embodiment of the present invention, since the current position of the tray 20 is rotated counterclockwise by a certain angle, the image correction unit 124 rotates the image clockwise by a compensation angle θ. The corrected image is output from the display device 13, and in the image output at this time, it can be seen that the tray 20 is disposed in the correct position even if it is displaced from the correct position.

도 10은 본 발명의 다른 실시예에 따른 특징점 인식부(121)가 영상으로부터 특징점(210)을 인식하는 모습을 나타낸 도면이다.10 is a diagram showing how the feature point recognizing unit 121 according to another embodiment of the present invention recognizes a feature point 210 from an image.

상기 도 4 내지 도 9에 도시된 본 발명의 일 실시예에서는, 트레이(20)의 현 위치가 정위치로부터 거리는 이탈하지 않고 각도만 이탈한 것으로 설명하였다. 그러나, 실제 트레이(20)는 팔레트(2) 상에서 일정 거리도 이탈할 수도 있다. 이 경우에는 각도만을 보상하는 것이 아니라, 거리도 보상하여야 한다. 나아가, 특징점(210)은 상기 일 실시예에서 설명한 지점만으로 지정되었으나, 다양한 지점이 특징점(210)으로 지정될 수 있다. 이하, 본 발명의 다른 실시예에서는, 트레이(20)의 현 위치가 정위치로부터 거리 및 각도가 함께 이탈한 것으로 설명한다. 그리고 상기 일 실시예에서 설명한 지점과는 다른 지점을 특징점(210)으로 지정한 것으로 설명한다. 다만, 이하의 본 발명의 다른 실시예의 설명에서는, 전술한 일 실시예와 동일한 구성 요소 및 내용에 대해서는 중복된 설명을 생략하고 차이점을 위주로 설명하기로 한다.In one embodiment of the present invention shown in FIGS. 4 to 9, it has been described that the current position of the tray 20 does not deviate from the original position, only the angle. However, the actual tray 20 may also deviate a certain distance from the pallet 2 . In this case, not only the angle must be compensated, but also the distance must be compensated. Furthermore, the feature points 210 are designated only as the points described in the above embodiment, but various points may be designated as the feature points 210 . Hereinafter, in another embodiment of the present invention, it will be described that the current position of the tray 20 is deviated from the original position together with the distance and angle. And it will be described that a point different from the point described in the above embodiment is designated as the feature point 210 . However, in the following description of another embodiment of the present invention, redundant descriptions of the same components and contents as those of the above-described embodiment will be omitted and description will focus on differences.

트레이 이미지 티칭 장치(1)는 카메라(11)를 이용하여 팔레트(2)에 배치된 트레이(20)를 촬영한다. 이 때 트레이(20)가 팔레트(2)의 정위치에 배치되지 않고 도 10에 도시된 바와 같이 정위치로부터 이탈할 수도 있다.The tray image teaching device 1 photographs the tray 20 disposed on the pallet 2 using the camera 11 . At this time, the tray 20 may not be disposed at the proper position of the pallet 2 and may depart from the position as shown in FIG. 10 .

카메라(11)는 트레이(20)의 일부 포켓(21) 만을 촬영하게 된다. 예를 들어, 우선 트레이(20)의 가장 좌측 하단에 위치한 제1 포켓(21a)을 기준 포켓(21)으로 설정한다. 그리고 카메라(11)는 제1 포켓(21a)을 촬영한다.The camera 11 takes pictures of only some pockets 21 of the tray 20 . For example, first, the first pocket 21a located at the leftmost lower end of the tray 20 is set as the reference pocket 21 . Then, the camera 11 photographs the first pocket 21a.

카메라(11)가 촬영한 영상은 제어부(12)의 특징점 인식부(121)로 전송된다. 특징점 인식부(121)는 상기 영상에서 포켓(21)의 꼭지점을 중심으로 특징점(210)을 지정하고 이를 인식한다. 상기 기술한 바, 상기 특징점(210)은 사용자가 직접 지정할 수도 있으나, 특징점 인식부(121)가 자동으로 지정할 수도 있다.The image captured by the camera 11 is transmitted to the feature point recognizing unit 121 of the controller 12 . The feature point recognizing unit 121 designates a feature point 210 around the vertex of the pocket 21 in the image and recognizes it. As described above, the feature point 210 may be directly designated by the user, or may be automatically designated by the feature point recognizing unit 121.

본 발명의 다른 실시예에서는, 제1 특징점(210a)은 제1 포켓(21a)의 좌측 하단 꼭지점, 제2 특징점(210b)은 제1 포켓(21a)의 우측 상단 꼭지점, 제3 특징점(210e)은 제2 포켓(21b)의 좌측 상단 꼭지점, 제4 특징점(210f)은 제3 포켓(21c)의 하단 모서리 가운데 임의의 점으로으로 지정된다.In another embodiment of the present invention, the first feature point 210a is the lower left corner of the first pocket 21a, the second feature point 210b is the upper right corner of the first pocket 21a, and the third feature point 210e is the upper left vertex of the second pocket 21b, and the fourth feature point 210f is designated as an arbitrary point among the lower edges of the third pocket 21c.

기준 포켓(21)의 설정, 지정될 특징점(210)의 개수, 특징점(210)으로 지정한 위치 등은 상기의 내용에 제한되지 않는다. 즉, 트레이(20)의 정위치 배치 여부를 파악할 수 있다면 다양한 포켓(21)을 기준으로 설정할 수 있고, 다양한 개수의 특징점(210)이 지정될 수 있으며, 다양한 위치의 점이 특징점(210)으로 지정될 수 있다.The setting of the reference pocket 21, the number of feature points 210 to be designated, and the location designated as the feature point 210 are not limited to the above. That is, if it is possible to determine whether the tray 20 is properly positioned, it can be set based on various pockets 21, various numbers of feature points 210 can be designated, and points at various positions can be designated as feature points 210. It can be.

도 11 및 도 12는 본 발명의 다른 실시예에 따른 좌표 생성부(122)가 좌표를 생성하고 포켓(21)의 위치를 파악하는 모습을 나타낸 도면이다.11 and 12 are views showing how the coordinate generator 122 generates coordinates and determines the position of the pocket 21 according to another embodiment of the present invention.

특징점 인식부(121)에서 특징점(210)을 인식한 후, 상기 특징점(210)들에 대한 정보가 좌표생성부로 전송된다. 그리고 좌표 생성부(122)는, 도 11에 도시된 바와 같이 좌표를 생성한다.After the feature point recognizing unit 121 recognizes the feature point 210, information on the feature point 210 is transmitted to the coordinate generator. Then, the coordinate generator 122 generates coordinates as shown in FIG. 11 .

좌표를 생성하기 위해 우선, 제1 특징점(210a)을 구분한다. 본 발명의 다른 실시예는 상기 일 실시예와 달리, 특징점(210)을 모두 연결하였을 때 대략 직각을 이루는 특징점(210)이 없다. 이 경우에는 각각의 특징점(210)들 간의 거리를 측정한다. 그리고 하나의 특징점(210)과 나머지 3개의 특징점(210)들 간의 거리를 각각 평균 계산한다. 이 때, 상기 계산한 평균 거리가 가장 긴 특징점(210)이 제1 특징점(210a)이다. 그리고 제1 특징점(210a)의 기준에서, 나머지 3개의 특징점(210) 중 가운데에 위치한 특징점(210)이 제2 특징점(210b)이다. 상기 구분된 제1 특징점(210a)과 제2 특징점(210b)을 연결하게 되면, 제1 포켓(21a)의 대각선(30a)이 형성된다.To generate coordinates, first, the first feature points 210a are identified. Unlike the previous embodiment, in another embodiment of the present invention, when all feature points 210 are connected, there is no feature point 210 forming a substantially right angle. In this case, the distance between each feature point 210 is measured. Further, distances between one feature point 210 and the remaining three feature points 210 are averaged. At this time, the feature point 210 having the longest average distance calculated above is the first feature point 210a. In addition, in terms of the first feature point 210a, the feature point 210 located in the middle among the remaining three feature points 210 is the second feature point 210b. When the first feature point 210a and the second feature point 210b are connected, a diagonal line 30a of the first pocket 21a is formed.

한편, 제1 특징점(210a)에서 제2 특징점(210b)을 향할 때 우측에 있는 특징점(210)이 제3 특징점(210e), 좌측에 있는 특징점(210)이 제4 특징점(210f)이 된다. 상기 제1 내지 제4 특징점(210a, 210b, 210e, 210f)을 구분하는 방법은, 특징점(210)을 지정하는 방법에 따라 다양할 수 있다.Meanwhile, when moving from the first feature point 210a to the second feature point 210b, the feature point 210 on the right becomes the third feature point 210e, and the feature point 210 on the left becomes the fourth feature point 210f. Methods for distinguishing the first to fourth feature points 210a, 210b, 210e, and 210f may vary depending on how the feature points 210 are designated.

제1 내지 제4 특징점(210a, 210b, 210e, 210f)을 모두 구분한 뒤, 도 12에 도시된 바와 같이, 제2 특징점(210b)과 제3 특징점(210e)을 연결하고, 제1 특징점(210a)이 위치하는 방향으로 연장선(30f)을 도시한다. 제1 특징점(210a)에서 상기 연장선(30f)에 수선을 도시하면, 상기 수선은 트레이(20)의 세로축(30g)이 된다. 그리고 제1 특징점(210a)에서 트레이(20)의 세로축(30g)과 수직이며, 동시에 상기 연장선(30f)과 평행인 선을 도시한다. 이 선은 트레이(20)의 가로축(30h)이 된다.After classifying all of the first to fourth feature points 210a, 210b, 210e, and 210f, as shown in FIG. 12, the second feature point 210b and the third feature point 210e are connected, and the first feature point ( An extension line 30f is shown in the direction in which 210a) is located. If a perpendicular line is drawn from the first feature point 210a to the extension line 30f, the perpendicular line becomes the vertical axis 30g of the tray 20. In addition, a line perpendicular to the vertical axis 30g of the tray 20 and parallel to the extension line 30f is shown at the first feature point 210a. This line becomes the horizontal axis 30h of the tray 20 .

제2 특징점(210b)에서 상기 가로축(30h)에 수직이며, 동시에 상기 세로축(30g)과 평행인 선을 도시한다. 이 선을 제1 평행선(30i)이라 한다. 그리고 상기 제4 특징점(210f)을 기준으로, 트레이(20)의 가로축(30h) 및 상기 연상선과 동시에 평행인 선을 도시한다. 이 선을 제2 평행선(30j)이라 한다. 가로축(30h), 세로축(30g), 연장선(30f), 제1 평행선(30i)으로 이루어진 사각형이 제1 포켓(21a)의 형상이 된다.In the second feature point 210b, a line perpendicular to the horizontal axis 30h and parallel to the vertical axis 30g is shown. This line is called the first parallel line 30i. Based on the fourth feature point 210f, a line parallel to the horizontal axis 30h of the tray 20 and the associative line is shown. This line is called the second parallel line 30j. The shape of the first pocket 21a is a rectangle composed of the horizontal axis 30h, the vertical axis 30g, the extension line 30f, and the first parallel line 30i.

도 13은 본 발명의 다른 실시예에 따른 트레이 이미지 티칭 장치(1)가 포켓(21)의 사이즈 및 간격을 측정하는 모습을 나타낸 도면이다.13 is a view showing how the tray image teaching device 1 according to another embodiment of the present invention measures the size and spacing of the pockets 21.

도 13에 도시된 바와 같이, 트레이 이미지 티칭 장치(1)가 제1 포켓(21a)의 형상을 인지하게 되면, 포켓(21)의 사이즈와 간격을 파악할 수 있다. 구체적으로, 제1 특징점(210a)으로부터 제1 평행선(30i)까지의 수직 거리는 포켓(21)의 가로 길이(H)가 된다. 그리고 제1 특징점(210a)으로부터 연장선(30f)까지의 수직거리는 포켓(21)의 세로 길이(V)가 된다. 또한, 제2 특징점(210b)으로부터 제3 특징점(210e)까지의 거리는 포켓(21) 간의 가로 간격(d1)이 된다. 그리고 제4 특징점(210f)으로부터 연장선(30f)까지의 수직 거리는 포켓(21) 간의 세로 간격(d2)이 된다. 상기 기술한 바와 같이, 제1 특징점(210a)과 제2 특징점(210b)의 거리는 제1 포켓(21a)의 대각선의 길이(D)가 된다.As shown in FIG. 13 , when the tray image teaching device 1 recognizes the shape of the first pocket 21a, the size and interval of the pocket 21 can be recognized. Specifically, the vertical distance from the first feature point 210a to the first parallel line 30i becomes the horizontal length H of the pocket 21 . And, the vertical distance from the first feature point 210a to the extension line 30f becomes the vertical length V of the pocket 21 . In addition, the distance from the second feature point 210b to the third feature point 210e is the horizontal distance d1 between the pockets 21 . And, the vertical distance from the fourth feature point 210f to the extension line 30f becomes the vertical distance d2 between the pockets 21 . As described above, the distance between the first feature point 210a and the second feature point 210b is the length D of the diagonal of the first pocket 21a.

일반적으로 하나의 트레이(20)에 형성된 복수의 포켓(21)들은 모두 사이즈가 동일하며, 포켓(21) 간의 간격 또한 일정하다. 그리고 상기 기술한 바와 같이, 트레이(20) 상의 포켓(21)의 배열 정보는 트레이 이미지 티칭 장치(1)에 미리 입력될 수 있다. 따라서, 트레이 이미지 티칭 장치(1)는 트레이(20)에 마련된 각각의 포켓(21)들의 위치를 모두 파악할 수 있다.In general, all of the plurality of pockets 21 formed on one tray 20 have the same size, and the interval between the pockets 21 is also constant. And, as described above, arrangement information of the pockets 21 on the tray 20 may be input to the tray image teaching device 1 in advance. Accordingly, the tray image teaching device 1 can grasp all positions of the pockets 21 provided on the tray 20 .

도 14는 본 발명의 다른 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 거리를 보상하는 모습을 나타낸 도면이다.FIG. 14 is a view showing how the position compensation unit 123 compensates for the distance the tray 20 deviated from according to another embodiment of the present invention.

도 14에 도시된 바와 같이, 위치 보상부(123)는 트레이(20)의 이탈 거리 및 각도를 계산한다. 위치 보상부(123)는 저장부(14)로부터 상기 트레이(20)의 정위치에 대한 정보를 로딩한다. 그리고, 상기 생성한 트레이(20)의 현 위치에 대한 좌표와 비교한다.As shown in FIG. 14 , the position compensator 123 calculates the separation distance and angle of the tray 20 . The position compensation unit 123 loads information about the proper position of the tray 20 from the storage unit 14 . Then, the created coordinates of the current location of the tray 20 are compared.

본 발명의 다른 실시예에서는, 트레이(20)의 현 위치가 정위치로부터 거리 및 각도 모두 이탈하였다. 이 때 거리가 이탈하였다는 것은 트레이(20)의 현 위치에서 2차원 평면상 평행이동을 반드시 수행하여야 정위치에 배치될 수 있는 것을 말한다. 따라서, 우선 평행이동을 하기 위하여 트레이(20)의 현 위치가 이탈한 거리부터 계산한다.In another embodiment of the present invention, the current position of the tray 20 is deviated both by distance and angle from the original position. At this time, the deviation of the distance means that the tray 20 can be placed in the correct position only when parallel movement on a two-dimensional plane is performed from the current position of the tray 20 . Therefore, first, in order to perform parallel movement, the current position of the tray 20 is calculated from the deviation distance.

본 발명의 다른 실시예에서는 이탈한 거리를 보상한 후에, 이탈한 각도도 보상하여야 한다. 즉, 추후에 보상 각도(θ)만큼 트레이(20)의 현 위치를 회전시키면 트레이(20)의 정위치에 배치된 것으로 보여야 한다. 따라서, 추후에 트레이(20)의 현 위치를 회전시킬 중심축을 설정하고, 트레이(20)의 현 위치와 트레이(20)의 정위치의 중심축이 일치하도록, 트레이(20)의 현 위치를 평행이동 하여야 한다.In another embodiment of the present invention, after the deviation distance is compensated, the deviation angle should also be compensated. That is, if the current position of the tray 20 is rotated later by the compensation angle θ, it should be seen that the tray 20 is disposed in the correct position. Therefore, the central axis to rotate the current position of the tray 20 later is set, and the current position of the tray 20 is parallel so that the central axis of the current position of the tray 20 coincides with the central axis of the original position of the tray 20. have to move

본 발명의 다른 실시예에 따르면, 도 14에 도시된 바와 같이, 제1 특징점(210a)을 중심축으로 설정한다. 그리고 트레이(20)의 현 위치의 제1 특징점(210a)과 정위치의 제1 특징점(210a)의 이격된 거리를 측정한다. 현재 트레이(20)의 현 위치는 정위치로부터 가로 방향으로는 왼쪽으로 m, 세로 방향으로는 아래쪽으로 n 만큼 이탈되어 있다. 따라서, 두 제1 특징점(210a)을 일치시키기 위해서, 트레이(20)의 현 위치를 가로 방향으로는 오른쪽으로 m, 세로 방향으로는 위쪽으로 n 만큼 평행이동을 한다. 그러면 트레이(20)의 정위치에 배치된 것으로 보여진다. 이 때, 트레이(20)의 현 위치가 정위치에 배치되도록 가로 방향 및 세로 방향으로 평행이동한 거리가 보상 거리이다. 위치 보상부(123)는 상기와 같은 방법으로 보상 거리를 추출할 수 있다.According to another embodiment of the present invention, as shown in FIG. 14 , the first feature point 210a is set as a central axis. Then, the distance between the first feature point 210a at the current location of the tray 20 and the first feature point 210a at the current location is measured. The current position of the tray 20 is deviated from the original position by m to the left in the horizontal direction and by n downward in the vertical direction. Therefore, in order to match the two first feature points 210a, the current position of the tray 20 is translated to the right by m in the horizontal direction and by n upward in the vertical direction. Then, it is seen to be placed in the proper position of the tray 20 . At this time, the compensation distance is a horizontally and vertically moved distance so that the current position of the tray 20 is disposed in the correct position. The position compensation unit 123 may extract the compensation distance in the same way as above.

본 발명의 다른 실시예에서는 제1 특징점(210a)을 중심축으로 설정하였으나, 이에 제한되지 않고 이탈한 각도를 보상할 수 있다면 다양한 지점을 중심축으로 설정할 수 있다. 만약, 트레이(20)의 현 위치가 회전하지 않고 거리만을 이탈한 경우에는, 평행이동만으로 정위치에 배치된 것으로 보여질 수 있다. 따라서, 이 경우에는 회전할 중심축을 설정할 필요 없이 트레이(20)의 현 위치와 정위치가 대응하는 임의의 점을 설정하여, 두 점 사이의 거리를 계산함으로써 보상 거리를 계산할 수 있다.In another embodiment of the present invention, the first feature point 210a is set as the central axis, but without being limited thereto, various points may be set as the central axis as long as the deviation angle can be compensated for. If the current position of the tray 20 is not rotated and only the distance is deviated, it can be seen as being placed in the correct position only by parallel movement. Therefore, in this case, the compensation distance can be calculated by setting an arbitrary point corresponding to the current position and the current position of the tray 20 and calculating the distance between the two points without setting the central axis to rotate.

도 15는 본 발명의 다른 실시예에 따른 위치 보상부(123)가 트레이(20)의 이탈한 각도를 보상하는 모습을 나타낸 도면이다.15 is a view showing how the position compensation unit 123 compensates for the deviation angle of the tray 20 according to another embodiment of the present invention.

위치 보상부(123)가 보상 거리를 추출하였다면, 보상 각도(θ)를 추출하여야 한다. 본 발명의 다른 실시예에 따르면, 상기 보상 거리를 추출하는 과정에서 중심축을 제1 특징점(210a)으로 설정하였으므로, 도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 트레이(20)의 현 위치와 정위치는 제1 특징점(210a)을 공유한다. 따라서 제1 특징점(210a)을 회전축으로 하여, 트레이(20)의 현 위치를 시계 방향으로 일정 각도만큼 회전하면 트레이(20)의 정위치에 배치된 것으로 보여진다. 이 때, 트레이(20)의 현 위치가 정위치에 배치되도록 회전하는 일정 각도가 보상 각도(θ)이다. 위치 보상부(123)는 상기와 같은 방법으로 보상 각도(θ)를 추출할 수 있다.If the position compensation unit 123 has extracted the compensation distance, it should extract the compensation angle θ. According to another embodiment of the present invention, since the central axis is set to the first feature point 210a in the process of extracting the compensation distance, as shown in FIG. 15, the tray 20 according to an embodiment of the present invention The current position and the current position share the first feature point 210a. Therefore, when the current position of the tray 20 is rotated clockwise by a predetermined angle using the first feature point 210a as a rotation axis, it is seen that the tray 20 is disposed at the proper position. At this time, a certain angle rotated so that the current position of the tray 20 is disposed in the correct position is the compensation angle θ. The position compensation unit 123 may extract the compensation angle θ in the same way as above.

도 16은 본 발명의 다른 실시예에 따른 영상 보정부(124)가 트레이(20)의 위치가 보상되도록 영상을 보정한 모습을 나타낸 도면이다.16 is a diagram showing a state in which the image correction unit 124 according to another embodiment of the present invention corrects an image so that the position of the tray 20 is compensated.

위치 보상부(123)에서 보상해야 할 거리 및 각도를 추출하면, 영상 보정부(124)는 위치 보상부(123)가 추출한 보상 거리 및 보상 각도(θ)를 이용하여, 카메라(11)로부터 획득한 영상을 보정한다. 본 발명의 다른 실시예에 따르면, 트레이(20)의 현 위치가 정위치로부터 가로 방향으로는 왼쪽으로 m, 세로 방향으로는 아래쪽으로 n 만큼 거리가 이탈되었고, 반시계 방향으로 일정 각도만큼 회전하였다. 따라서, 영상 보정부(124)는 상기 영상을 가로 방향으로는 오른쪽으로 m, 세로 방향으로는 위쪽으로 n 만큼 평행이동을 수행하고, 시계방향으로 보상 각도(θ)만큼 회전시킨다. 상기 보정된 영상은 디스플레이 장치(13)에서 출력되며, 이 때 출력되는 영상에는 트레이(20)가 정위치에서 이탈하였더라도 정위치에 배치된 것으로 보여질 수 있다.When the position compensator 123 extracts the distance and angle to be compensated for, the image compensator 124 uses the compensated distance and compensation angle θ extracted by the position compensator 123 to obtain from the camera 11. correct an image According to another embodiment of the present invention, the current position of the tray 20 is deviated from the original position by m to the left in the horizontal direction and by n downward in the vertical direction, and rotated by a certain angle in the counterclockwise direction. . Accordingly, the image compensator 124 translates the image by m to the right in the horizontal direction and by n upward in the vertical direction, and rotates the image by the compensation angle θ in the clockwise direction. The corrected image is output from the display device 13, and in the image output at this time, it can be seen that the tray 20 is disposed in the correct position even if it is displaced from the correct position.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will understand that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

1: 트레이 이미지 티칭 장치 2: 팔레트
11: 카메라 12: 제어부
13: 디스플레이 장치 14: 저장부
20: 트레이 21: 포켓
121: 특징점 인식부 122: 좌표 생성부
123: 위치 보상부 124: 영상 보정부
210: 특징점
1: tray image teaching device 2: pallet
11: camera 12: control unit
13: display device 14: storage unit
20: tray 21: pocket
121: feature point recognizing unit 122: coordinate generating unit
123: position compensation unit 124: image correction unit
210: feature point

Claims (10)

트레이를 촬영하여 영상을 획득하는 카메라;
상기 영상을 통해 상기 트레이의 정위치 이탈 여부를 판단하고, 이탈 위치를 보상하는 제어부;
상기 트레이의 상기 정위치에 대한 정보가 저장되는 저장부를 포함하되,
상기 제어부는,
상기 영상으로부터 특징점이 지정되면 상기 특징점을 인식하는 특징점 인식부;
상기 특징점의 좌표를 생성하는 좌표 생성부;
상기 트레이가 상기 정위치에서 이탈한 거리 및 각도를 판단하고, 보상 거리 및 보상 각도를 추출하는 위치 보상부를 포함하고,
상기 카메라는 고정된 위치에서 상기 트레이를 촬영하되, 설정된 기준 포켓 및 상기 기준 포켓과 인접한 위치의 포켓 또는 포켓의 일부를 포함하는 영역을 촬영하고,
상기 특징점 인식부는,
상기 영상으로부터 상기 특징점을 자동으로 지정하는, 트레이 이미지 티칭 장치.
A camera that acquires an image by photographing the tray;
a control unit that determines whether or not the tray is deviating from the normal position through the image, and compensates for the deviating position;
A storage unit for storing information about the position of the tray,
The control unit,
a feature point recognizing unit recognizing the feature point when a feature point is designated from the image;
a coordinate generation unit generating coordinates of the feature points;
A position compensator for determining a distance and an angle at which the tray is deviated from the normal position and extracting a compensating distance and compensating angle;
The camera photographs the tray at a fixed position, and photographs a set reference pocket and a pocket adjacent to the reference pocket or an area including a part of the pocket,
The feature point recognizing unit,
A tray image teaching device that automatically designates the feature point from the image.
삭제delete 제1항에 있어서,
상기 특징점 인식부는,
상기 영상으로부터 상기 특징점을 4 개 지정하는, 트레이 이미지 티칭 장치.
According to claim 1,
The feature point recognizing unit,
A tray image teaching device for designating four feature points from the image.
◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when the registration fee was paid.◈ 제3항에 있어서,
상기 특징점 인식부는,
상기 트레이의 가장 좌측 하단에 위치한 포켓의 꼭지점으로부터 상기 특징점을 2 개 지정하는, 트레이 이미지 티칭 장치.
According to claim 3,
The feature point recognizing unit,
A tray image teaching device that designates two feature points from the vertex of a pocket located at the bottom left of the tray.
제1항에 있어서,
상기 위치 보상부는,
상기 저장부로부터 상기 정위치에 대한 정보를 로딩하고, 상기 정보와 상기 트레이의 현 위치를 비교하여 상기 보상 거리 및 보상 각도를 추출하는, 트레이 이미지 티칭 장치.
According to claim 1,
The position compensation unit,
Tray image teaching apparatus for loading information on the current position from the storage unit and extracting the compensation distance and compensation angle by comparing the information with the current position of the tray.
제1항에 있어서,
상기 카메라로부터 획득된 상기 영상을 디스플레이하는 디스플레이 장치를 더 포함하는 트레이 이미지 티칭 장치.
According to claim 1,
Tray image teaching apparatus further comprising a display device for displaying the image obtained from the camera.
제6항에 있어서,
상기 제어부는,
상기 보상 거리 및 보상 각도를 이용하여 영상을 보정하는 영상 보정부를 더 포함하는, 트레이 이미지 티칭 장치.
According to claim 6,
The control unit,
The tray image teaching device further comprising an image correction unit for correcting an image using the compensation distance and the compensation angle.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned when the registration fee was paid.◈ 제7항에 있어서,
상기 영상 보정부는,
상기 보상 거리 및 보상 각도만큼, 상기 트레이가 상기 정위치로부터 이탈한 방향의 역방향으로, 영상을 평행이동하거나 회전시킴으로써 영상을 보정하는, 트레이 이미지 티칭 장치.
According to claim 7,
The image correction unit,
A tray image teaching device for correcting an image by translating or rotating an image in a direction opposite to a direction in which the tray is deviated from the original position by the compensation distance and the compensation angle.
삭제delete 삭제delete
KR1020160043141A 2016-04-08 2016-04-08 The Apparatus For Teaching Tray Image KR102564247B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160043141A KR102564247B1 (en) 2016-04-08 2016-04-08 The Apparatus For Teaching Tray Image
CN201610643163.0A CN107278121B (en) 2016-04-08 2016-08-08 Tray image teaching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160043141A KR102564247B1 (en) 2016-04-08 2016-04-08 The Apparatus For Teaching Tray Image

Publications (2)

Publication Number Publication Date
KR20170115678A KR20170115678A (en) 2017-10-18
KR102564247B1 true KR102564247B1 (en) 2023-08-07

Family

ID=60052581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160043141A KR102564247B1 (en) 2016-04-08 2016-04-08 The Apparatus For Teaching Tray Image

Country Status (2)

Country Link
KR (1) KR102564247B1 (en)
CN (1) CN107278121B (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000117592A (en) * 1998-10-12 2000-04-25 Yamagata Casio Co Ltd Part mounting device and part feeding device
JP2007003326A (en) 2005-06-23 2007-01-11 Matsushita Electric Ind Co Ltd Method and device for inspecting components on tray
JP2009162563A (en) 2007-12-28 2009-07-23 Canon It Solutions Inc Device appearance inspection apparatus and method, program
JP2011095226A (en) * 2009-11-02 2011-05-12 Saki Corp:Kk Inspection device of material to be inspected, and position correction device of electronic substrate
JP2013036815A (en) 2011-08-05 2013-02-21 Canon Inc Inspection apparatus, inspection method, computer program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157156B1 (en) 2007-03-06 2012-06-20 삼성테크윈 주식회사 Method for recognizing a direction of electronic parts and method for aligning and mounting electronic parts using the same
CN103042528A (en) * 2011-10-14 2013-04-17 鸿富锦精密工业(深圳)有限公司 Robot controlling device and circuit board picking-up method thereof
KR101436573B1 (en) 2012-11-09 2014-09-03 (주) 인텍플러스 inspection apparatus for substrate
CN104848784A (en) * 2014-02-19 2015-08-19 江苏腾世机电有限公司 Position offset correction method and system of chip mounter suction nozzle units
CN104981105B (en) * 2015-07-09 2018-07-13 广东工业大学 A kind of quickly accurate detection and method for correcting error for obtaining element central and deflection angle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000117592A (en) * 1998-10-12 2000-04-25 Yamagata Casio Co Ltd Part mounting device and part feeding device
JP2007003326A (en) 2005-06-23 2007-01-11 Matsushita Electric Ind Co Ltd Method and device for inspecting components on tray
JP2009162563A (en) 2007-12-28 2009-07-23 Canon It Solutions Inc Device appearance inspection apparatus and method, program
JP2011095226A (en) * 2009-11-02 2011-05-12 Saki Corp:Kk Inspection device of material to be inspected, and position correction device of electronic substrate
JP2013036815A (en) 2011-08-05 2013-02-21 Canon Inc Inspection apparatus, inspection method, computer program

Also Published As

Publication number Publication date
CN107278121B (en) 2021-04-13
KR20170115678A (en) 2017-10-18
CN107278121A (en) 2017-10-20

Similar Documents

Publication Publication Date Title
TWI708216B (en) Method and system for calibrating vision system in environment
JP7097691B2 (en) Teaching method
CN107813313A (en) The bearing calibration of manipulator motion and device
JP5318334B2 (en) Method and apparatus for detecting position of object
JPS61231557A (en) Method and apparatus for overlapping color decomposition film
JP2014222875A (en) Camera system for arranging elements of pcb
TW200537624A (en) Electronic component mounting apparatus and electronic component mounting method
JP2006339392A (en) Component mounting apparatus
CN108136764A (en) The transfer device of electronic equipment and the transfer method of electronic equipment
CN205749309U (en) Substrate detection equipment
JP4943300B2 (en) Component mounting equipment
CN107657642A (en) A kind of automation scaling method that projected keyboard is carried out using outside camera
JP4787694B2 (en) Mounting machine
KR101778338B1 (en) Method and arrangement for positioning electronic devices into compartments of an input medium and output medium
KR102564247B1 (en) The Apparatus For Teaching Tray Image
WO2019021365A1 (en) Component-mounting device
JP6292825B2 (en) Substrate processing equipment
JP2004281958A (en) Component mounting method and device
JP2011075289A (en) Visual inspection apparatus, visual inspection method and visual inspection program
JP6655422B2 (en) Image processing apparatus, mounting apparatus, image processing method, and program
KR20170003049U (en) Height detection device using a camera
US20200249579A1 (en) Method and exposure device for exposing at least one stored representation on a light-sensitive recording medium
JP2006260315A (en) Method and device for detecting component position
JP2004214247A (en) Component mounting device
WO2019058475A1 (en) Shape data analogy determination device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant