JP2008014684A - Method of acquiring camera scaling in component placement machine - Google Patents

Method of acquiring camera scaling in component placement machine Download PDF

Info

Publication number
JP2008014684A
JP2008014684A JP2006183980A JP2006183980A JP2008014684A JP 2008014684 A JP2008014684 A JP 2008014684A JP 2006183980 A JP2006183980 A JP 2006183980A JP 2006183980 A JP2006183980 A JP 2006183980A JP 2008014684 A JP2008014684 A JP 2008014684A
Authority
JP
Japan
Prior art keywords
camera
component
scaling
pixel
jig
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006183980A
Other languages
Japanese (ja)
Other versions
JP4829701B2 (en
Inventor
Naoki Kurita
直樹 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2006183980A priority Critical patent/JP4829701B2/en
Publication of JP2008014684A publication Critical patent/JP2008014684A/en
Application granted granted Critical
Publication of JP4829701B2 publication Critical patent/JP4829701B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of acquiring a scaling of a component recognition camera enabling to improve a component recognition precision in a component placement machine. <P>SOLUTION: Image of a tool formed with a plurality of patterns is picked up with a camera, a camera view 30 is divided into a plurality of view areas 30a-30i so as to pick up at least one of the imaged patterns within a view area. With processing a pattern image of each view area, a scaling value is calculated for each view area and stored. In this configuration, since the scaling value can be calculated with reference to each scaling value within the view area, the actual coordinate of the part can be measured at a high precision and the part recognition precision can be improved. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、電子部品をプリント基板に実装する部品実装機において、部品認識カメラのスケーリング値を取得する方法に関する。   The present invention relates to a method for acquiring a scaling value of a component recognition camera in a component mounter that mounts electronic components on a printed circuit board.

従来から、部品供給装置から供給される電子部品を搭載ヘッドの吸着ノズルで吸着し、搭載ヘッドを回路基板に移動させて、電子部品を回路基板に搭載する部品実装機が知られている。部品吸着時に吸着ズレが発生すると、精度ある搭載が行われないので、吸着された電子部品を部品認識カメラで撮像し、その画像処理により求められる部品中心と吸着角度に基づき搭載位置を補正して、部品実装を行っている。   2. Description of the Related Art Conventionally, there has been known a component mounter that mounts an electronic component on a circuit board by sucking an electronic component supplied from a component supply device with a suction nozzle of the mounting head, moving the mounting head to the circuit board. If suction displacement occurs when parts are picked up, accurate mounting is not performed, so picked up electronic parts are picked up by a part recognition camera, and the mounting position is corrected based on the part center and picking angle required by the image processing. And component mounting.

部品中心と吸着角度を求める部品認識は、部品認識カメラのスケーリング値(1画素あたりの実サイズ:ピクセルレートともいう)を求めて行われるので、正確な部品搭載には、正確なスケーリング値を取得する必要がある。   Component recognition for obtaining the component center and suction angle is performed by obtaining the scaling value of the component recognition camera (actual size per pixel: also called pixel rate), so accurate scaling values are obtained for accurate component mounting. There is a need to.

この実装装置においてカメラスケーリング値を取得する方法として、予め2つの円の芯間の距離が把握されている治具をカメラによって撮像し、その画像を処理して2つの円の芯間の画素数を求めてスケーリング値を取得する方法、あるいは、特許文献1に開示されるように、治具を上下左右4方向に移動して、画像認識を行い認識座標からスケーリング値を取得する方法が知られている。
特許第3521001号公報
As a method of acquiring the camera scaling value in this mounting apparatus, the number of pixels between the cores of the two circles is obtained by imaging a jig whose distance between the cores of the two circles is grasped in advance by the camera. Or obtaining a scaling value from the recognition coordinates by moving the jig in four directions, up and down, left and right, as disclosed in Patent Document 1. ing.
Japanese Patent No. 352001

しかしながら、従来の電子部品実装装置においてスケーリング値を取得する方法では、カメラ組み付け時の傾きやカメラCCD面のあおり等の影響を考慮していなかった。このため、視野内におけるスケーリング値に誤差が発生しているために、小型高機能化・高密度実装化の要求に応じられないという問題が生じている。   However, in the conventional method for acquiring the scaling value in the electronic component mounting apparatus, the influence of tilt at the time of camera assembly, tilting of the camera CCD surface, and the like has not been taken into consideration. For this reason, since an error has occurred in the scaling value in the field of view, there is a problem that it is not possible to meet the demands for miniaturization, high functionality, and high density mounting.

従って、本発明は、このような問題点を解決するためになされたもので、部品実装機において部品認識精度を高めることができるカメラスケーリング取得方法を提供することを課題とする。   Accordingly, the present invention has been made to solve such problems, and it is an object of the present invention to provide a camera scaling acquisition method capable of improving component recognition accuracy in a component mounter.

上記課題を解決する本発明は、
部品実装機のカメラスケーリング取得方法であって、
複数のパターンが形成された治具をカメラで撮像し、
前記撮像されたパターンの少なくとも一つのパターンが視野エリア内に撮像されるように、カメラ視野を複数の視野エリアに分割し、
各視野エリア内のパターン画像を処理して各視野エリアごとにスケーリング値を算出し、保存することを特徴とする。
The present invention for solving the above problems
A camera scaling acquisition method for a component mounter,
Take a picture of a jig with multiple patterns with a camera,
Dividing the camera field of view into a plurality of field areas such that at least one of the captured patterns is imaged within the field area;
A pattern image in each visual field area is processed, a scaling value is calculated for each visual field area, and stored.

本発明によれば、分割したカメラ視野エリア内における個々のスケーリング値を参照できるので、高精度で部品電極の実座標を測定することができ、部品の認識精度を向上させることができる。   According to the present invention, since individual scaling values within the divided camera field of view can be referred to, the actual coordinates of the component electrodes can be measured with high accuracy, and the recognition accuracy of the components can be improved.

以下、図面に示す実施の形態に基づいて本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.

図1は、本発明が用いられる部品実装機1の概略正面図で、図2は、その制御系のブロック図である。図1において、部品実装装置1には、部品供給部から供給される電子部品(不図示)を吸着する吸着ノズル3を装着した搭載ヘッドユニット2が設けられており、この搭載ヘッドユニット2は、XY駆動ユニット4によりX軸及びY軸方向に移動される。搭載ヘッドユニット2には、CCDカメラなどにより構成される基板認識カメラ5が固定されており、この基板認識カメラ5は、電子部品が搭載される基板(不図示)、あるいは、後述するように、部品実装機1のベースフレーム上設置されたカメラスケーリング取得用の治具6を撮像する。また、部品実装機1のベースには、吸着ノズル3により吸着された電子部品あるいは治具6を撮像するCCDカメラなどにより構成される部品認識カメラ8が固定される。   FIG. 1 is a schematic front view of a component mounter 1 in which the present invention is used, and FIG. 2 is a block diagram of its control system. In FIG. 1, the component mounting apparatus 1 is provided with a mounting head unit 2 equipped with a suction nozzle 3 that sucks an electronic component (not shown) supplied from a component supply unit. It is moved in the X-axis and Y-axis directions by the XY drive unit 4. A substrate recognition camera 5 constituted by a CCD camera or the like is fixed to the mounting head unit 2, and this substrate recognition camera 5 is a substrate (not shown) on which electronic components are mounted or, as described later, The jig 6 for camera scaling acquisition installed on the base frame of the component mounting machine 1 is imaged. In addition, a component recognition camera 8 constituted by an electronic component sucked by the suction nozzle 3 or a CCD camera for imaging the jig 6 is fixed to the base of the component mounting machine 1.

XY駆動ユニット4は、図2に示されたように、CPU、ROM、RAMなどで構成されるコントローラ10の制御に基づいて駆動されるX軸モータ11およびY軸モータ12を備えている。搭載ヘッドユニット2は、X軸モータ11、Y軸モータ12により駆動されてXY方向に移動する。また、搭載ヘッドユニット2に取り付けられた吸着ノズル3は、コントローラ10の制御に基づいて駆動されるZ軸モータ13により上下方向に昇降され、またθ軸モータ14により吸着軸を中心に回動する。   As shown in FIG. 2, the XY drive unit 4 includes an X-axis motor 11 and a Y-axis motor 12 that are driven based on control of a controller 10 including a CPU, a ROM, a RAM, and the like. The mounted head unit 2 is driven by the X-axis motor 11 and the Y-axis motor 12 and moves in the XY directions. Further, the suction nozzle 3 attached to the mounting head unit 2 is moved up and down by a Z-axis motor 13 driven based on the control of the controller 10 and is rotated around the suction shaft by a θ-axis motor 14. .

画像処理装置17は、CPU17a、メモリ17b、A/D変換器17cなどで構成され、基板認識カメラ5で撮像された基板の画像を処理して、基板の位置を検出し、また、部品認識カメラ8で撮像された電子部品の画像を処理して部品認識を行い、部品の中心位置や吸着傾きを取得する。   The image processing device 17 includes a CPU 17a, a memory 17b, an A / D converter 17c, and the like. The image processing device 17 processes a board image captured by the board recognition camera 5, detects the position of the board, and also recognizes a component recognition camera. The image of the electronic component imaged in step 8 is processed to recognize the component, and the center position and suction inclination of the component are acquired.

また、画像処理装置17は、基板認識カメラで撮像された治具6の画像を処理して治具6の位置を検出するとともに、吸着ノズル3で吸着された治具6の画像を処理して部品認識カメラ8のスケーリング値を取得する。   The image processing device 17 processes the image of the jig 6 captured by the substrate recognition camera to detect the position of the jig 6 and also processes the image of the jig 6 sucked by the suction nozzle 3. The scaling value of the component recognition camera 8 is acquired.

また、部品実装機1には、部品データを入力するためのキーボード15、マウス16などの入力装置が設けられ、これらの入力されたデータは、ハードディスク、フラッシュメモリなどで構成される記憶装置18に格納される。また、部品実装機1には、モニタ19が設けられ、このモニタ19の画面には、基板認識カメラ5で撮像された基板や治具、並びに部品認識カメラ8で撮像された電子部品や治具の画像などが表示できるようになっている。   In addition, the component mounter 1 is provided with input devices such as a keyboard 15 and a mouse 16 for inputting component data, and these input data are stored in a storage device 18 including a hard disk, a flash memory, and the like. Stored. In addition, the component mounter 1 is provided with a monitor 19, and on the screen of the monitor 19, the board and jig imaged by the board recognition camera 5 and the electronic component and jig imaged by the component recognition camera 8 are displayed. It is possible to display the images.

このような部品実装機1において、基板認識カメラ5により撮像された基板の画像が処理されて基板認識が行われる。また、部品供給部から供給される電子部品は、吸着ノズル3により吸着された後、部品認識カメラ8上に移動して部品認識カメラ8により撮像され、その画像が画像処理装置17により処理され、部品認識が行われる。コントローラ10は、基板認識並びに部品認識結果に基づいて、記憶装置18に記憶されている部品搭載位置を補正し、電子部品を基板上の正しい位置に搭載する。   In such a component mounting machine 1, the board image picked up by the board recognition camera 5 is processed to perform board recognition. The electronic component supplied from the component supply unit is sucked by the suction nozzle 3 and then moved onto the component recognition camera 8 and picked up by the component recognition camera 8. The image is processed by the image processing device 17. Part recognition is performed. The controller 10 corrects the component mounting position stored in the storage device 18 based on the substrate recognition and the component recognition result, and mounts the electronic component at the correct position on the substrate.

このような部品実装機を用いた部品実装において、部品認識カメラ8が、XY平面に水平に取り付けられておらず、あおり角の影響で視野内においてスケーリング値(一画素あたりの実サイズ)に誤差が生じることがある。このような場合には、高精度の部品認識が保証されないので、本発明では、治具6を用いて部品認識カメラのスケーリング値を取得して部品認識を行う。   In component mounting using such a component mounting machine, the component recognition camera 8 is not mounted horizontally on the XY plane, and an error occurs in the scaling value (actual size per pixel) within the field of view due to the tilt angle. May occur. In such a case, since high-accuracy component recognition is not guaranteed, in the present invention, the scaling value of the component recognition camera is acquired using the jig 6 to perform component recognition.

以下に、部品認識カメラのスケーリング値を取得する方法を説明する。   Below, the method to acquire the scaling value of a component recognition camera is demonstrated.

図3には、スケーリング値を取得するための冶具6が詳細に図示されている。治具6は、たとえば、矩形形状の透明な薄いガラス基板で形成されており、その面には、2つの位置決め用マーク6a、6b、それに多数の横ライン6c並びに縦ライン6dが等間隔にグリッド状のパターンとして描画され、それにより縦横のラインで形成される正方形のパターン6eが複数形成される。マーク6a、6bの位置、それに各ライン6c、6dのライン位置、各ライン幅などは、予め正確に測定されている。また、マーク6a、6bの形状は、円形状であっても十字状であってもよく、また、マーク、グリッドパターンの認識を良好に行うために、各マーク6a、6b、各ライン6c、6dは銀色で描画されている。   FIG. 3 shows the jig 6 for obtaining the scaling value in detail. The jig 6 is formed of, for example, a rectangular transparent thin glass substrate, on which two positioning marks 6a and 6b, a number of horizontal lines 6c, and vertical lines 6d are gridd at equal intervals. A plurality of square patterns 6e are formed, which are drawn as a vertical pattern, and are formed by vertical and horizontal lines. The positions of the marks 6a and 6b, the line positions of the lines 6c and 6d, the line widths, and the like are accurately measured in advance. The shapes of the marks 6a and 6b may be circular or cross-shaped, and the marks 6a and 6b and the lines 6c and 6d are used in order to recognize the mark and the grid pattern satisfactorily. Is drawn in silver.

スケーリング値の取得は、図5の流れに従って行われる。まず、スケーリング取得用冶具6を所定位置に配置し(ステップS1)、X軸モータ11およびY軸モータ12を駆動して搭載ヘッドユニット2に取り付けられた基板認識カメラ5を治具6のマーク6a上に移動する(ステップS2)。   Acquisition of the scaling value is performed according to the flow of FIG. First, the scaling acquisition jig 6 is placed at a predetermined position (step S1), and the substrate recognition camera 5 attached to the mounting head unit 2 is driven by driving the X-axis motor 11 and the Y-axis motor 12 to mark 6a on the jig 6. Move upward (step S2).

次に、基板認識カメラ5により、マーク6aを撮像し、画像処理装置17によりマーク6aの画像を処理して重心を算出する。続いて、同様にマーク6bを撮像してその重心を求め(ステップS4、S5)、各マーク6a、6bの重心から治具6の中心位置とその傾きを算出する(ステップS6)。   Next, the mark 6a is imaged by the substrate recognition camera 5, and the image of the mark 6a is processed by the image processing device 17 to calculate the center of gravity. Subsequently, the mark 6b is imaged in the same manner to determine its center of gravity (steps S4 and S5), and the center position and inclination of the jig 6 are calculated from the center of gravity of each mark 6a and 6b (step S6).

続いて、搭載ヘッドユニット2に吸着ノズル3を装着し、吸着ノズル3を算出した治具6の中心位置に移動させ、Z軸モータ13を駆動して下降させ治具6を吸着する(ステップS7)。そして、θ軸モータ14を駆動して、算出した角度に従って治具の傾きを補正し、治具6を部品認識カメラ8上に移動する(ステップS8)。   Subsequently, the suction nozzle 3 is mounted on the mounting head unit 2, the suction nozzle 3 is moved to the calculated center position of the jig 6, and the Z-axis motor 13 is driven to lower the jig 6 (step S7). ). Then, the θ-axis motor 14 is driven to correct the inclination of the jig according to the calculated angle, and the jig 6 is moved onto the component recognition camera 8 (step S8).

続いて、不図示の照明光源を点灯して治具6を照明し、部品認識カメラ8により治具6を撮像する(ステップS9)。この治具6の画像が図4に図示されており、部品認識カメラ8の視野30内に治具6の画像6’が写し出されている。6a’、6b’はマーク6a、6bの画像、6c’、6d’はライン6c、6dの画像であり、カメラ視野30は、3×3の9つの視野エリア30a〜30iに分割されている。視野30は、各分割された視野エリア内にそれぞれ少なくとも一つのパターン6eがパターン画像6e’として撮像されるように、複数の視野エリアに分割される。従って、3×3以外の分割パターンにすることもできる。重要なことは、分割された個々の視野エリアにおいて、正確なスケーリング値が取得できるように、カメラ視野を所定数の視野エリアに分割することである。   Subsequently, an illumination light source (not shown) is turned on to illuminate the jig 6, and the jig 6 is imaged by the component recognition camera 8 (step S9). An image of the jig 6 is shown in FIG. 4, and an image 6 ′ of the jig 6 is shown in the field of view 30 of the component recognition camera 8. 6a 'and 6b' are images of the marks 6a and 6b, 6c 'and 6d' are images of the lines 6c and 6d, and the camera field of view 30 is divided into nine 3x3 field areas 30a to 30i. The visual field 30 is divided into a plurality of visual field areas such that at least one pattern 6e is captured as a pattern image 6e 'in each divided visual field area. Therefore, a division pattern other than 3 × 3 can be used. What is important is that the camera field of view is divided into a predetermined number of field areas so that accurate scaling values can be obtained in the individual field areas divided.

図6に示したように、例えば、分割により得られた視野エリア30eには、2本の横ライン6cの画像6c’と、2本の縦ライン6dの画像6d’からなるパターンがパターン画像6e’として撮像されている。公知の方法を用いてこのパターン画像のX方向エッジE1、E2を検出し、各検出したエッジの平均値を求めてエッジE1、E2のX座標X1、X2から、エッジE1、E2間の画素数を求める。エッジE1、E2間の実距離は予め分かっているので、ピクセルレート、つまりスケーリング値に対応する(エッジ間距離)÷(エッジ間の画素数)を算出する。同様に、Y方向についても、パターン画像6e’のエッジE3、E4を検出し、エッジE3、E4のY座標Y1、Y2を求め、Y方向のピクセルレートを求める。   As shown in FIG. 6, for example, in the visual field area 30e obtained by the division, a pattern composed of an image 6c ′ of two horizontal lines 6c and an image 6d ′ of two vertical lines 6d is a pattern image 6e. It has been imaged as'. The X direction edges E1 and E2 of this pattern image are detected using a known method, and the average value of each detected edge is obtained to determine the number of pixels between the edges E1 and E2 from the X coordinates X1 and X2 of the edges E1 and E2. Ask for. Since the actual distance between the edges E1 and E2 is known in advance, the pixel rate, ie, (distance between edges) / (number of pixels between edges) corresponding to the scaling value is calculated. Similarly, also in the Y direction, the edges E3 and E4 of the pattern image 6e 'are detected, the Y coordinates Y1 and Y2 of the edges E3 and E4 are obtained, and the pixel rate in the Y direction is obtained.

上述の処理を、各視野エリア30a〜30d、30f〜30iについて行い、各視野エリア30a〜30iごとに求めたX方向とY方向のスケーリング値を、メモリ17bあるいは記憶装置18に保存する。   The above-described processing is performed for each of the visual field areas 30a to 30d and 30f to 30i, and the scaling values in the X direction and Y direction obtained for each of the visual field areas 30a to 30i are stored in the memory 17b or the storage device 18.

以上の処理がステップS10の処理である。   The above process is the process of step S10.

実際に、電子部品を基板に搭載する場合には、保存した視野別のスケーリング値を用いて部品認識を行う。搭載ヘッドユニット2は、XY駆動ユニット4により部品供給部に移動する。そして、部品供給部から供給される電子部品を吸着ノズル3により吸着し、その後部品認識カメラ8上に移動する。部品認識カメラ8上で、電子部品が部品認識カメラ8により撮像される。   Actually, when an electronic component is mounted on a substrate, component recognition is performed using the stored scaling value for each field of view. The mounting head unit 2 is moved to the component supply unit by the XY drive unit 4. Then, the electronic component supplied from the component supply unit is sucked by the suction nozzle 3 and then moved onto the component recognition camera 8. An electronic component is imaged by the component recognition camera 8 on the component recognition camera 8.

例えば、電極40a、40b、40cを備えた電子部品40が部品認識カメラ8により視野30内に撮像された状態が図8に示されている。電極の実座標を求めるには、画素のピクセルレートが必要となる。   For example, FIG. 8 shows a state in which the electronic component 40 including the electrodes 40a, 40b, and 40c is imaged in the field of view 30 by the component recognition camera 8. In order to obtain the actual coordinates of the electrodes, the pixel rate of the pixels is required.

図7には、任意の画素Pのピクセルレートを求める方法が図示されている。図7において、画素Pは、例えば視野エリア30aに存在しているとする。画素Pのピクセルレートを求めるとき、視野エリア30aとその近傍の3つの視野エリア30b、30d、30eのピクセルレートを参照する。なお、画素A、B、C、Dは、視野エリア30a、30b、30d、30eの中心画素で、そのピクセルレートは、保存されている各視野エリアのピクセルレート(スケーリング値)を用いる。   FIG. 7 illustrates a method for obtaining the pixel rate of an arbitrary pixel P. In FIG. 7, it is assumed that the pixel P exists in the visual field area 30a, for example. When determining the pixel rate of the pixel P, the pixel rates of the visual field area 30a and the three visual field areas 30b, 30d, and 30e in the vicinity thereof are referred to. The pixels A, B, C, and D are center pixels of the visual field areas 30a, 30b, 30d, and 30e, and the pixel rate (scaling value) of each stored visual field area is used as the pixel rate.

各中心画素間を結ぶ線AB、線AC、線ADを引き、線AB、線ACおよび線ADに、画素Pから垂線を引いて交点B’、交点C’および交点D’を求め、これら3つの交点と画素Aとの距離、画素Aと各画素B’、C’、D’との距離の比から各交点についてそれぞれピクセルレートを算出する。   Lines AB, AC, and AD connecting the central pixels are drawn, and perpendiculars are drawn from the pixel P to the lines AB, AC, and AD to obtain intersections B ′, intersections C ′, and intersections D ′. The pixel rate is calculated for each intersection from the distance between the two intersections and the pixel A and the ratio of the distances between the pixel A and the pixels B ′, C ′, and D ′.

例えば、交点B’のピクセルレートは、
(画素Aのピクセルレート)+((画素Bのピクセルレート)−(画素Aのピクセルレート))×(線分AB’間の長さ/線分AB間の長さ)
の式に従って算出する。
For example, the pixel rate of the intersection B ′ is
(Pixel rate of pixel A) + ((pixel rate of pixel B) − (pixel rate of pixel A)) × (length between line segments AB ′ / length between line segments AB)
It calculates according to the formula.

同様に、交点C’に対して画素A、Cに基づいてピクセルレートを算出し、交点D’に対して画素A、Dに基づいてピクセルレートを算出し、これら交点B’、C’、D’から得られる3つのピクセルレートの平均値を画素Pのピクセルレートとする。この画素Pのピクセルレートは、それぞれのX、Y方向について求められる。   Similarly, the pixel rate is calculated based on the pixels A and C for the intersection C ′, the pixel rate is calculated based on the pixels A and D for the intersection D ′, and the intersections B ′, C ′, and D are calculated. Let the average value of the three pixel rates obtained from 'be the pixel rate of the pixel P. The pixel rate of the pixel P is obtained for each of the X and Y directions.

このように、任意の画素のピクセルレートが算出できるので、図8に示したように、例えば電極40aの近傍の画素Pのピクセルレートを図7に示した方法で算出する。また、画素Qはカメラの視野中心の画素で、この画素を基準として実座標を算出する。画素Qのピクセルレートとしては、メモリ17に保存されている視野エリア30eのピクセルレートを用いる。そして、画素Pと画素Qの各ピクセルレートの平均値を求め、この平均値と画素PQ間のX方向画素数を乗算することにより電極40aのX方向実座標を算出し、また該平均値とPQ間のY方向画素数を乗算することにより電極40aのY方向実座標を算出する。ここで、実座標とは、例えば単位がmmなど機械で扱える座標である。   In this way, since the pixel rate of an arbitrary pixel can be calculated, as shown in FIG. 8, for example, the pixel rate of the pixel P in the vicinity of the electrode 40a is calculated by the method shown in FIG. The pixel Q is a pixel at the center of the field of view of the camera, and the actual coordinates are calculated with this pixel as a reference. As the pixel rate of the pixel Q, the pixel rate of the visual field area 30e stored in the memory 17 is used. Then, an average value of the pixel rates of the pixel P and the pixel Q is obtained, and the X direction real coordinates of the electrode 40a are calculated by multiplying the average value by the number of pixels in the X direction between the pixels PQ. The actual Y-direction coordinates of the electrode 40a are calculated by multiplying the number of Y-direction pixels between PQs. Here, the real coordinates are coordinates that can be handled by a machine, such as a unit of mm.

同様に、他の電極40b、40cについてもそのX、Y方向の実座標を求め、これら求めた電極座標から部品中心と傾きを求める。   Similarly, for the other electrodes 40b and 40c, the actual coordinates in the X and Y directions are obtained, and the component center and inclination are obtained from the obtained electrode coordinates.

なお、治具6に形成されるパターンは、図3に示したようなグリッド状のパターンではなく、サイズ、パターン間の距離が既知の複数のパターンであれば、任意のパターンとすることができる。例えば、図9に示したような複数のマーク60aからなる複数のパターン60bを描画した治具60を用いることができる。この場合には、カメラ視野は、少なくとも一つのパターン60bが分割された視野エリア内に撮像されるように分割される。各マーク60aの重心を取得し、そのマーク重心間の画素数から各視野エリア内のスケーリング値を取得する。   The pattern formed on the jig 6 is not a grid-like pattern as shown in FIG. 3, but can be any pattern as long as it is a plurality of patterns whose sizes and distances between patterns are known. . For example, a jig 60 on which a plurality of patterns 60b including a plurality of marks 60a as shown in FIG. 9 is drawn can be used. In this case, the camera field of view is divided so that an image is captured within the field of view where at least one pattern 60b is divided. The center of gravity of each mark 60a is acquired, and the scaling value in each visual field area is acquired from the number of pixels between the centers of gravity of the marks.

部品実装機の概略構成を示す正面図である。It is a front view which shows schematic structure of a component mounting machine. 部品実装機の制御系の構成を示すブロック図である。It is a block diagram which shows the structure of the control system of a component mounting machine. スケーリング取得用冶具の構成を示す平面図である。It is a top view which shows the structure of the jig for scaling acquisition. カメラ視野を分割する状態を示した説明図である。It is explanatory drawing which showed the state which divides | segments a camera visual field. カメラのスケーリング値を取得する方法を示したフローチャートである。It is the flowchart which showed the method of acquiring the scaling value of a camera. 視野エリアのスケーリング値の取得を説明するための説明図である。It is explanatory drawing for demonstrating acquisition of the scaling value of a visual field area. 任意の画素のスケーリング値の取得を説明するための説明図である。It is explanatory drawing for demonstrating acquisition of the scaling value of arbitrary pixels. 部品の電極の実座標を算出する状態を説明した説明図である。It is explanatory drawing explaining the state which calculates the real coordinate of the electrode of components. スケーリング取得用冶具の他の構成を示す一部破断した平面図である。It is the partially broken top view which shows the other structure of the jig for scaling acquisition.

符号の説明Explanation of symbols

2 搭載ヘッドユニット
3 吸着ノズル
4 XY駆動ユニット
5 基板認識カメラ
6 治具
8 部品認識カメラ
17 画像処理装置
30 カメラ視野
2 mounted head unit 3 suction nozzle 4 XY drive unit 5 substrate recognition camera 6 jig 8 component recognition camera 17 image processing device 30 camera field of view

Claims (2)

部品実装機のカメラスケーリング取得方法であって、
複数のパターンが形成された治具をカメラで撮像し、
前記撮像されたパターンの少なくとも一つのパターンが視野エリア内に撮像されるように、カメラ視野を複数の視野エリアに分割し、
各視野エリア内のパターン画像を処理して各視野エリアごとにスケーリング値を算出し、保存することを特徴とする部品実装機のカメラスケーリング取得方法。
A camera scaling acquisition method for a component mounter,
Take a picture of a jig with multiple patterns with a camera,
Dividing the camera field of view into a plurality of field areas such that at least one of the captured patterns is imaged within the field area;
A method for obtaining camera scaling of a component mounting machine, wherein a pattern image in each visual field area is processed to calculate and store a scaling value for each visual field area.
画素が存在する視野エリアでのスケーリング値と、該視野エリアの近傍に位置する視野エリアでのスケーリング値を用いて該画素のスケーリング値を算出することを特徴とする請求項1に記載の部品実装機のカメラスケーリング取得方法。   2. The component mounting according to claim 1, wherein the scaling value of the pixel is calculated by using the scaling value in the visual field area where the pixel exists and the scaling value in the visual field area located in the vicinity of the visual field area. Camera scaling acquisition method.
JP2006183980A 2006-07-04 2006-07-04 Camera scaling acquisition method for component mounters Expired - Fee Related JP4829701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006183980A JP4829701B2 (en) 2006-07-04 2006-07-04 Camera scaling acquisition method for component mounters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006183980A JP4829701B2 (en) 2006-07-04 2006-07-04 Camera scaling acquisition method for component mounters

Publications (2)

Publication Number Publication Date
JP2008014684A true JP2008014684A (en) 2008-01-24
JP4829701B2 JP4829701B2 (en) 2011-12-07

Family

ID=39071848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006183980A Expired - Fee Related JP4829701B2 (en) 2006-07-04 2006-07-04 Camera scaling acquisition method for component mounters

Country Status (1)

Country Link
JP (1) JP4829701B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325115A (en) * 1993-05-10 1994-11-25 Nippon Hoso Kyokai <Nhk> Microroute search assistance system and its profile chart generating method
JP2003028615A (en) * 2001-07-13 2003-01-29 Sony Corp Method, apparatus and reference jig for correction of coordinates
JP2005004391A (en) * 2003-06-10 2005-01-06 Mitsutoyo Corp Image data processor, image data correcting method, image measuring instrument, image data processing program, and recording medium recorded with this program
JP2007315801A (en) * 2006-05-23 2007-12-06 Matsushita Electric Ind Co Ltd Camera scale measuring method, camera scale measuring apparatus for component mounting machine, and component mounting machine using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325115A (en) * 1993-05-10 1994-11-25 Nippon Hoso Kyokai <Nhk> Microroute search assistance system and its profile chart generating method
JP2003028615A (en) * 2001-07-13 2003-01-29 Sony Corp Method, apparatus and reference jig for correction of coordinates
JP2005004391A (en) * 2003-06-10 2005-01-06 Mitsutoyo Corp Image data processor, image data correcting method, image measuring instrument, image data processing program, and recording medium recorded with this program
JP2007315801A (en) * 2006-05-23 2007-12-06 Matsushita Electric Ind Co Ltd Camera scale measuring method, camera scale measuring apparatus for component mounting machine, and component mounting machine using the same

Also Published As

Publication number Publication date
JP4829701B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
JP2007220837A (en) Method and device for mounting electronic component
JP6190229B2 (en) Component mounting equipment
JP4324442B2 (en) Component data generation device and electronic component mounting device
WO2017081773A1 (en) Image processing device and image processing method for base plate
JP6849815B2 (en) How to determine the component mounting device, shooting method, and mounting order
JP2008072058A (en) Method for detecting compensated quantity, compensated quantity detecting device and substrate processing device
JP2005228842A (en) Method and apparatus for detecting mounting error of electronic component packaging device
JP2006108457A (en) Mounting error detection method and device of electronic part mounting device
JP4829701B2 (en) Camera scaling acquisition method for component mounters
JP4707423B2 (en) Component position detection method and apparatus
JP4126503B2 (en) Positioning device
JP7253476B2 (en) Component recognition data creation method and component recognition data creation program
JP6706625B2 (en) Board position search device and component mounter
JP7090219B2 (en) Positioning method and position specifying device
JP3946502B2 (en) Component mounting method
JPWO2016185615A1 (en) Component orientation determination data creation apparatus and component orientation determination data creation method
JP6621639B2 (en) Image processing apparatus for substrates
JP2009004663A (en) Mounting coordinate generating method for electronic component
WO2019058475A1 (en) Shape data analogy determination device
JP2008171866A (en) Focus adjusting method of camera in mounting machine, and scaling acquiring method thereof
JP2019091774A (en) Area teach method and component mounting device
JP2003298293A (en) Electronic component mounter
JP2012074455A (en) Alignment unit, substrate processing apparatus, and alignment method
JP2007294624A (en) Method and apparatus for correcting sucking position of electronic component
JPH0812050B2 (en) Substrate mark position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4829701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees