JP2004235671A - Electronic component mounting device - Google Patents

Electronic component mounting device Download PDF

Info

Publication number
JP2004235671A
JP2004235671A JP2004151123A JP2004151123A JP2004235671A JP 2004235671 A JP2004235671 A JP 2004235671A JP 2004151123 A JP2004151123 A JP 2004151123A JP 2004151123 A JP2004151123 A JP 2004151123A JP 2004235671 A JP2004235671 A JP 2004235671A
Authority
JP
Japan
Prior art keywords
electronic component
component
image
lead
mounting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004151123A
Other languages
Japanese (ja)
Other versions
JP3926347B2 (en
Inventor
Eiichi Hachitani
栄一 蜂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004151123A priority Critical patent/JP3926347B2/en
Publication of JP2004235671A publication Critical patent/JP2004235671A/en
Application granted granted Critical
Publication of JP3926347B2 publication Critical patent/JP3926347B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Supply And Installment Of Electrical Components (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic component mounting device in which the mounting cycle time for an electronic component requiring a three-dimensional shape inspection is shortened at mounting. <P>SOLUTION: The electronic component mounting device comprises a tray supply part 4 for supplying an electronic component 2 to be mounted, an x-axis robot 5 and a y-axis robot 6 for moving the electronic component 2 to be mounted, a head part 7 for holding/moving the electronic component 2, a three-dimensional sensor 8, and an image memory for storing height data as three-dimensional image data. Positioning for the electronic component 2 and three-dimensional component shape inspection can be performed at the same time in one process. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、電子部品をプリント基板または液晶やプラズマディスプレイパネル基板などに自動的に実装する電子部品実装装置に関するものである。   The present invention relates to an electronic component mounting apparatus that automatically mounts electronic components on a printed circuit board, a liquid crystal display, a plasma display panel substrate, or the like.

従来から、電子部品実装装置においては、狭リードピッチ・狭リード幅のQFP・コネクターのような電子部品を実装する際には、プリント基板に装着する前に部品のリード浮きを自動検査するのが一般的である。   2. Description of the Related Art Conventionally, when mounting electronic components such as QFPs and connectors having a narrow lead pitch and a narrow lead width in an electronic component mounting apparatus, it is necessary to automatically inspect lead floating of the components before mounting them on a printed circuit board. General.

図9は従来の電子部品実装装置の実装工程図である。従来の電子部品実装装置では、図9に示すような一連の処理を経て、狭リードピッチの電子部品を実装するものが多い。
すなわち、図9(a)に示す工程ではトレー3に格納されている電子部品2を実装装置のヘッド部7が吸着してピックアップする。図9(b)に示す工程では、吸着された電子部品2の画像を位置決め用カメラ47で撮像し、画像処理装置を用いて位置決めし、その位置決め情報を得る。
FIG. 9 is a mounting process diagram of a conventional electronic component mounting apparatus. Many conventional electronic component mounting apparatuses mount an electronic component having a narrow lead pitch through a series of processes as shown in FIG.
That is, in the process shown in FIG. 9A, the electronic component 2 stored in the tray 3 is picked up by the head unit 7 of the mounting apparatus. In the step shown in FIG. 9B, an image of the sucked electronic component 2 is picked up by the positioning camera 47 and is positioned by using the image processing device to obtain the positioning information.

図9(c)に示す工程では、図9(b)の工程で得られた位置決め情報を用いて、電子部品2を透過式のリード浮きセンサー48でリード浮き検査するか、または、リード浮き検査用カメラ49でリードの先端部または先端部の影を撮像して画像処理装置でリード浮き検査をする。   In the step shown in FIG. 9C, using the positioning information obtained in the step of FIG. 9B, the electronic component 2 is inspected for lead floating by the transmission type lead floating sensor 48, or the lead floating inspection is performed. The leading end of the lead or the shadow of the leading end is imaged by the camera 49, and the lead floating inspection is performed by the image processing apparatus.

この検査の結果に異常がなければ、図9(d)に示す工程で、図9(b)の工程で得られた位置決め情報に基づいてプリント基板9および実装される電子部品2の補正計算を行い、電子部品2をプリント基板9の所定の位置に装着する。
特開平04−105341号公報 特開平07−193398号公報
If there is no abnormality in the inspection result, the correction calculation of the printed circuit board 9 and the mounted electronic component 2 is performed in the step shown in FIG. 9D based on the positioning information obtained in the step of FIG. 9B. Then, the electronic component 2 is mounted at a predetermined position on the printed circuit board 9.
JP-A-04-105341 JP-A-07-193398

しかしながら、上記のような従来の電子部品実装装置では、図9に示す工程に従って行われる一連の処理を経て部品実装すると、図9(b)に示す工程での位置決め用カメラ47と、図9(c)に示す工程でのリード浮きセンサー48やリード浮き検査用カメラ49とは、物理的に離れて設置されており、図9(b)に示す工程で得られた位置決め情報を用いて図9(c)に示す工程で部品の機械的な位置決めをする必要があることから各々の工程での処理は並列化できず、必然的にシリアル処理になり、各々の工程に対して実装部品の移動・停止・上下動などの動作を必要とする。   However, in the above-described conventional electronic component mounting apparatus, when components are mounted through a series of processes performed according to the process illustrated in FIG. 9, the positioning camera 47 in the process illustrated in FIG. The lead floating sensor 48 and the lead floating inspection camera 49 in the step shown in FIG. 9C are physically set apart from each other, and the positioning information obtained in the step shown in FIG. Since it is necessary to mechanically position components in the process shown in (c), the processes in each process cannot be parallelized, and are necessarily serial processes, and the mounted components are moved for each process.・ Operations such as stop and vertical movement are required.

そのため、結果的に、実装部品の移動・停止・上下動などの動作時間も含めて、図9(b)および(c)に示す工程の処理時間が、そのまま全体の実装時間に利いてくることになり、それらの動作時間により全体の実装時間が増大化してしまうという問題点を有していた。   Therefore, as a result, the processing time of the steps shown in FIGS. 9B and 9C, including the operation time such as movement, stop, and vertical movement of the mounted component, directly benefits the entire mounting time. Therefore, there is a problem that the total mounting time is increased by the operation time.

その上、図9(c)に示す工程のように、透過式のリード浮きセンサー48でリード浮きの検査をする際には、物理的な実装部品の4辺個別走査が必要となり、このための処理時間は通常1〜3秒程度である。この処理時間はこのような部品の実装時間を長くさせる要因となる。これは特に、QFPやコネクターを数多く実装する場合には大きなデメリットとなる。   In addition, as shown in the step shown in FIG. 9C, when the lead floating is inspected by the transmission type lead floating sensor 48, it is necessary to individually scan four sides of the physically mounted component. The processing time is usually about 1 to 3 seconds. This processing time is a factor that increases the mounting time of such components. This is a significant disadvantage particularly when a large number of QFPs and connectors are mounted.

一方、リード浮き検査用カメラ49を用いてリード浮き検査をする場合にも、そのカメラの焦点合わせや分解能不足に起因する分割画像取込などから、上記と同様に、リード浮き検査に長時間を必要とし、やはり実装タクトタイムの問題が発生する。   On the other hand, in the case where the lead floating inspection is performed using the lead floating inspection camera 49, the lead floating inspection takes a long time in the same manner as described above due to the focusing of the camera and the capture of divided images due to lack of resolution. Required, and the problem of mounting tact time also occurs.

本発明は、上記問題点に鑑み、リード浮き検査などの3次元形状の検査が必要な部品を実装する際の実装タクトタイムを短縮することができ、また、部品実装の際の撮像画像に対して水平・垂直両方向の画素サイズ(分解能)を保証することができ、さらに、QFPやコネクターなどの狭ピッチ部品の実装の際には、その実装の高速化・高分解能化(高精度化)に柔軟に対応することができる電子部品実装装置を提供することを目的とする。   The present invention has been made in view of the above problems, and can reduce a mounting tact time when mounting a component that requires a three-dimensional shape inspection such as lead floating inspection. Can guarantee the pixel size (resolution) in both horizontal and vertical directions, and when mounting narrow-pitch components such as QFPs and connectors, speed up the mounting and increase the resolution (higher accuracy). It is an object of the present invention to provide an electronic component mounting apparatus capable of flexibly responding.

本発明の電子部品実装装置は、電子部品の3次元画像データに対する画像処理を行う制御部を備え、この制御部を、3次元画像撮像手段の上を移動する電子部品の移動方向に対して垂直方向のレーザー光走査により得られる電子部品の3次元画像を画像メモリーに取り込むとともに、電子部品を移動させる移動装置の動作速度を一定とするよう構成したことを特徴としたものであり、リード浮き検査などの3次元形状の検査が必要な部品を実装する際の実装タクトタイムを短縮することができ、また、部品実装の際の撮像画像に対して水平・垂直両方向の画素サイズ(分解能)を保証することができ、さらに、QFPやコネクターなどの狭ピッチ部品の実装の際には、その実装の高速化・高分解能化(高精度化)に柔軟に対応することができる。   The electronic component mounting apparatus according to the present invention includes a control unit that performs image processing on three-dimensional image data of the electronic component, and the control unit is arranged so that the control unit is perpendicular to the moving direction of the electronic component moving on the three-dimensional image capturing unit. The three-dimensional image of the electronic component obtained by the laser beam scanning in the direction is taken into the image memory, and the operating speed of the moving device for moving the electronic component is configured to be constant. Can reduce the mounting tact time when mounting components that need to be inspected for 3D shapes, etc., and guarantee both horizontal and vertical pixel sizes (resolution) for captured images when mounting components In addition, when mounting narrow-pitch components such as QFPs and connectors, it is possible to flexibly respond to high-speed and high-resolution (high-precision) mounting. .

以上のように本発明によれば、3次元画像撮像手段を用いて高さ画像を撮像し、この3次元画像撮像手段で取り込まれた3次元画像に対する画像処理を行うことにより、一工程の中で、実装する電子部品の位置決めと、リード浮き検査に代表される3次元的な部品形状検査とを同時に行うことができる。   As described above, according to the present invention, a height image is captured by using the three-dimensional image capturing means, and image processing is performed on the three-dimensional image captured by the three-dimensional image capturing means. Thus, the positioning of the electronic component to be mounted and the three-dimensional component shape inspection represented by the lead floating inspection can be performed simultaneously.

そのため、リード浮き検査などの3次元形状の検査が必要な部品を実装する際の実装タクトタイムを短縮することができる。また、ヘッド部を移動させるヘッド部移動装置(例えばx軸またはy軸ロボット)の動作速度を一定とし、この前後の実装動作のなかでも部品移動の停止をなくすとともに、基本的に非同期な2軸(例えば移動装置の移動方向沿いの駆動軸とポリゴンモーター軸)を機械的に動作させて、3次元画像撮像手段により3次元画像を撮像することにより、水平・垂直両方向の画素サイズ(分解能)が保証可能なシステムとすることができる。   For this reason, it is possible to reduce the mounting tact time when mounting a component requiring a three-dimensional shape inspection such as a lead floating inspection. In addition, the operation speed of a head moving device (for example, an x-axis or y-axis robot) for moving the head is kept constant, and during the mounting operation before and after this, the movement of the components is not stopped, and the two-axis basically asynchronous. (For example, a driving axis and a polygon motor axis along the moving direction of the moving device) are mechanically operated to capture a three-dimensional image by the three-dimensional image capturing means, so that the pixel size (resolution) in both the horizontal and vertical directions is reduced. The system can be guaranteed.

そのため、部品実装の際の撮像画像に対して水平・垂直両方向の画素サイズ(分解能)を保証することができる。また、QFPやコネクター等の狭ピッチ部品の実装の際には、その実装部品の撮像画像において高分解能化した画像を取り込み、一方、ある程度荒い分解能で計測できる部品の実装の際には、その実装部品の撮像画像において画素の正規性を保ちつつ分解能を落として(高分解能化した場合に比べ)速い走査で撮像することができる。   Therefore, the pixel size (resolution) in both the horizontal and vertical directions with respect to the captured image at the time of component mounting can be guaranteed. In addition, when mounting a narrow pitch component such as a QFP or a connector, a high-resolution image is captured in a captured image of the mounted component, while when mounting a component that can be measured with a somewhat coarse resolution, the mounting is performed. In the captured image of the component, the resolution can be reduced while maintaining the normality of the pixel (compared to the case where the resolution is increased), and the image can be captured by fast scanning.

そのため、QFPやコネクター等の狭ピッチ部品の実装の際には、その実装の高速化・高分解能化(高精度化)に柔軟に対応することができる。   Therefore, when mounting a narrow-pitch component such as a QFP or a connector, it is possible to flexibly cope with high-speed and high-resolution (high-precision) mounting.

本発明の請求項1に記載の電子部品実装装置は、基板に実装すべき電子部品を供給する部品供給部と、前記部品供給部に供給された前記電子部品を保持して前記基板上に装着するヘッド部と、前記ヘッド部により保持された前記電子部品を前記基板上まで移動させるヘッド部移動装置と、前記ヘッド部に保持された前記電子部品にレーザー光を投光し、前記ヘッド部移動装置による前記電子部品の移動と、前記レーザー光によるライン走査によって前記電子部品の全面を走査することにより前記電子部品の高さデータを得る3次元画像撮像手段と、3次元画像撮像手段からの前記高さデータを3次元画像データとして記憶する画像メモリーと、前記3次元画像データに対する画像処理を行う制御部とを備えたことを特徴とする。   The electronic component mounting apparatus according to claim 1 of the present invention, a component supply unit that supplies an electronic component to be mounted on a substrate, and holds the electronic component supplied to the component supply unit and mounts the electronic component on the substrate. A head unit for moving the electronic component held by the head unit onto the substrate; and projecting a laser beam onto the electronic component held by the head unit to move the head unit. A three-dimensional image capturing unit that obtains height data of the electronic component by scanning the entire surface of the electronic component by moving the electronic component by a device and performing line scanning by the laser light; An image memory for storing height data as three-dimensional image data, and a control unit for performing image processing on the three-dimensional image data are provided.

この構成によると、3次元画像撮像手段にて実装部品の3次元画像を取り込み、この3次元画像に対する画像処理を行うことで、電子部品の位置決めと3次元的な部品形状の検査とを同時に行うことを可能にする。   According to this configuration, the three-dimensional image of the mounted component is captured by the three-dimensional image capturing unit, and image processing is performed on the three-dimensional image, so that positioning of the electronic component and inspection of the three-dimensional component shape are performed simultaneously. Make it possible.

これは、従来技術が図9に示すように、カメラによる位置決めとリード浮き検査のような3次元形状検査とがシリアル(別工程)の処理であったものを、図10に示すように位置決めと3次元検査の同時処理を可能とし、結果的には部品実装時間の大幅な短縮につながるものである。ここで、図10を用いて本発明と図9に示す従来技術との違いを簡単に説明する。   This is because, in the prior art, as shown in FIG. 9, the positioning by the camera and the three-dimensional shape inspection such as the lead floating inspection are serial (separate processes) processing. This enables simultaneous processing of three-dimensional inspection, and as a result, leads to a significant reduction in component mounting time. Here, the difference between the present invention and the prior art shown in FIG. 9 will be briefly described with reference to FIG.

図10において、2は実装される電子部品、3は電子部品2が載っているトレー、7は電子部品2を移動させるヘッド部、8は3次元画像を撮像する3次元画像撮像手段としての3次元センサー、9は電子部品2を実装する対象であるプリント基板である。   In FIG. 10, reference numeral 2 denotes an electronic component to be mounted, 3 denotes a tray on which the electronic component 2 is placed, 7 denotes a head for moving the electronic component 2, and 8 denotes a three-dimensional image capturing means for capturing a three-dimensional image. The dimension sensor 9 is a printed circuit board on which the electronic component 2 is mounted.

図10(a)に示す工程では、電子部品2はトレー3からヘッド部7でピックアップ(吸着)される。図10(b)に示す工程では、3次元センサー8の上を電子部品2がヘッド部7の移動動作につれて移動するとき、この移動動作と3次元センサー8から発せられるレーザー光8aによる走査とで、吸着・移動されている電子部品2の底面部2aの3次元画像を、画像処理装置G1内の画像メモリーM1に取り込み、これを画像処理することで、電子部品2の位置決めと3次元形状検査との両方を行う。図10(c)に示す工程では、画像処理装置G1の画像処理により求まった位置決め情報をもとに、プリント基板9の上に電子部品2を実装する。   In the step shown in FIG. 10A, the electronic component 2 is picked up (adsorbed) from the tray 3 by the head unit 7. In the step shown in FIG. 10B, when the electronic component 2 moves on the three-dimensional sensor 8 as the head unit 7 moves, the moving operation and the scanning by the laser light 8a emitted from the three-dimensional sensor 8 are performed. The three-dimensional image of the bottom surface portion 2a of the electronic component 2 being sucked and moved is taken into an image memory M1 in the image processing device G1, and the image is processed to perform positioning and three-dimensional shape inspection of the electronic component 2. And do both. In the step shown in FIG. 10C, the electronic component 2 is mounted on the printed circuit board 9 based on the positioning information obtained by the image processing of the image processing device G1.

本発明の請求項2に記載の電子部品実装装置は、請求項1において、前記レーザー光を、前記電子部品の移動と垂直方向に走査させるとともに、前記電子部品の移動速度を一定にするよう構成したことを特徴とする。   According to a second aspect of the present invention, in the electronic component mounting apparatus according to the first aspect, the laser beam is scanned in a direction perpendicular to the movement of the electronic component, and the moving speed of the electronic component is kept constant. It is characterized by having done.

請求項3に記載の電子部品実装装置は、請求項1または請求項2において、制御部は、前記画像処理により前記電子部品の部品形状検査を行うとともに、前記電子部品の位置決めを行うよう構成したことを特徴とする。   According to a third aspect of the present invention, in the electronic component mounting apparatus according to the first or second aspect, the control unit performs a component shape inspection of the electronic component by the image processing and performs positioning of the electronic component. It is characterized by the following.

以下、本発明の実施の形態を図面を参照しながら具体的に説明する。
図1は本発明の実施の形態の電子部品実装装置を示す。図1において、1は電子部品実装装置の実装装置本体、2は本装置で実装される電子部品(以下、部品と略記する)、3は部品2が載っているトレー、4はトレー3に載った部品2を自動供給する部品供給部としてのトレー供給部、7は実装時に部品2を吸装着するヘッド部、5はヘッド部7をx軸方向に移動させるものであって、xyロボットの一部を構成するx軸側のロボット(以下、x軸ロボットと略記する)、6aおよび6bはヘッド部7をx軸ロボット5とともにy軸方向に移動させるxyロボットの一部を構成するy軸側のロボット(以下、y軸ロボットと略記する)、8は3次元(以下、3Dと略記する)センサーであり、部品2の高さ画像を撮像する。9は部品2が実装されるプリント基板である。
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.
FIG. 1 shows an electronic component mounting apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a mounting apparatus main body of an electronic component mounting apparatus, 2 denotes an electronic component (hereinafter abbreviated as a component) mounted by the present apparatus, 3 denotes a tray on which the component 2 is mounted, and 4 denotes a tray mounted on the tray 3. A tray supply unit as a component supply unit for automatically supplying the component 2, a head unit 7 for sucking and mounting the component 2 during mounting, and a moving unit 5 for moving the head unit 7 in the x-axis direction. The robots on the x-axis (hereinafter abbreviated as x-axis robots), 6a and 6b, which constitute the unit, move the head unit 7 together with the x-axis robot 5 in the y-axis direction. Is a three-dimensional (hereinafter abbreviated as 3D) sensor, and picks up a height image of the component 2. 9 is a printed circuit board on which the component 2 is mounted.

トレー3に載っている部品2がヘッド部7で吸着され3Dセンサー8の上をx軸ロボット5に沿って移動するときに、3Dセンサー8によって部品2の3D(高さ)画像が取り込まれる。3Dセンサー8によって得られた(高さ)画像をソフトウェア処理して、部品2の位置決めおよびリード浮きなどの3D形状検査を行い、位置決め情報に従って、部品2がプリント基板9の上の所定の位置に装着される。   When the component 2 placed on the tray 3 is sucked by the head unit 7 and moves on the 3D sensor 8 along the x-axis robot 5, a 3D (height) image of the component 2 is captured by the 3D sensor 8. The (height) image obtained by the 3D sensor 8 is subjected to software processing to perform 3D shape inspection such as positioning of the component 2 and floating of the lead, and the component 2 is positioned at a predetermined position on the printed circuit board 9 according to the positioning information. Be attached.

図2は3次元画像取り込みを表している。図2において、2はx軸ロボット5の動作によって移動している部品、8は3次元センサー、44はポリゴンミラーによって走査されるレーザー光、45は部品2のリードの一つであり装着面と反対側に曲がっている(浮いている)リード、46はリード45を3Dセンサー8で撮像したときの高さデータである。   FIG. 2 illustrates the capture of a three-dimensional image. In FIG. 2, reference numeral 2 denotes a component moving by the operation of the x-axis robot 5, reference numeral 8 denotes a three-dimensional sensor, reference numeral 44 denotes a laser beam scanned by a polygon mirror, and reference numeral 45 denotes one of the leads of the component 2; Leads 46 that are bent (floating) on the opposite side are height data when the lead 45 is imaged by the 3D sensor 8.

図2(a)〜(c)は、3Dセンサー8の上を部品2を移動させ、レーザー光44を部品2の移動と垂直な方向に走査させて部品2の底面にレーザー光44を投光し、このレーザー光44の反射を半導体位置検出素子に結像させ、この半導体位置検出素子の出力を逐次高さ演算することで、部品2の3次元画像の画像メモリー35への取り込みが行われる様子を表している。   FIGS. 2A to 2C show that the component 2 is moved on the 3D sensor 8, the laser beam 44 is scanned in a direction perpendicular to the movement of the component 2, and the laser beam 44 is projected on the bottom surface of the component 2. The reflection of the laser light 44 is imaged on the semiconductor position detecting element, and the height of the output of the semiconductor position detecting element is sequentially calculated, whereby the three-dimensional image of the component 2 is taken into the image memory 35. It shows the situation.

画像メモリー35の各水平行に取り込まれるデータは、上記の方法で高さ演算された各レーザー走査線の上にある物体(この場合、部品2のリードやパッケージ部)の3Dセンサー8側からの高さデータで、X−Y断面図のごとくになる。   Data taken in each horizontal row of the image memory 35 is obtained from the 3D sensor 8 side of an object (in this case, a lead of the component 2 or a package portion) on each of the laser scanning lines whose height has been calculated by the above method. The height data is as shown in the XY sectional view.

図2(d)〜(f)は、部品2が3Dセンサー8の上を通過し終えた時点での画像メモリー35の様子を表しており、特にリード45が浮いているとすると、Z−W断面図のなかで、リード45に対応する高さデータ46は他のリードのものと比較すると大きい値となる。このデータ比較によりリードのリード浮き検査のような3次元形状の検査が可能になる。   FIGS. 2D to 2F show the state of the image memory 35 when the component 2 has finished passing over the 3D sensor 8. In particular, if the lead 45 is floating, ZW In the sectional view, the height data 46 corresponding to the lead 45 has a larger value than those of the other leads. By this data comparison, a three-dimensional shape inspection such as a lead floating inspection of a lead becomes possible.

また、画像メモリー35には、2次元的な部品2の画像データが入力されるため、この情報を画像処理すれば、輝度データと高さデータの違いはあるが、カメラなどの撮像デバイスを用いて画像処理するのと同様の方法で部品の位置決めが可能となる。   Since image data of the two-dimensional component 2 is input to the image memory 35, if this information is subjected to image processing, there is a difference between luminance data and height data. The parts can be positioned in the same manner as in image processing.

図3は実装動作を示す。図3(a)において、点Aから点B、点Bから点C、点Cから点Dの各矢印で表される軌跡は、本実施の形態の電子部品実装装置が、部品2をトレー3からピックアップして3Dセンサー8の上を通過させ、3Dセンサー8により部品2の3次元画像を撮像し、この画像データを画像処理して部品の位置決め・検査を行って装着位置の補正計算をし、プリント基板9の上の所要の位置に部品2を装着する一連の動作を表している。   FIG. 3 shows the mounting operation. In FIG. 3A, the trajectory represented by each arrow from point A to point B, point B to point C, and point C to point D indicates that the electronic component mounting apparatus of the present embodiment The 3D sensor 8 picks up and passes over the 3D sensor 8, captures a three-dimensional image of the component 2, and processes the image data to perform component positioning / inspection and calculate the mounting position correction. 3 shows a series of operations for mounting the component 2 at a required position on the printed circuit board 9.

図3(b)および(c)は、このときの図3(a)に示す部品2の軌跡に対応するx軸方向およびy軸方向の各々のロボットの移動動作の加減速の変化の様子を表わしている。ここで、点Bと点C間のx軸方向の移動の途中で3Dセンサー8の上を部品2が通過し、ここで3次元画像が撮像されるのであり、この間のx軸ロボットの動作速度は一定で、y軸ロボットについては停止させている。   FIGS. 3B and 3C show changes in acceleration and deceleration of the movement of the robot in the x-axis direction and the y-axis direction corresponding to the locus of the part 2 shown in FIG. 3A at this time. It represents. Here, the part 2 passes over the 3D sensor 8 during the movement in the x-axis direction between the point B and the point C, where a three-dimensional image is captured. Is constant, and the y-axis robot is stopped.

また、残りの動作については、トータルの実装時間を最短にするために、点Aと点B間の動作から点Bと点C間の動作、点Bと点C間の動作から点Cと点D間の動作、という速度切替点での一時停止を伴う加減速動作をなくし、機械実装の動作の高速化を図っている。   For the remaining operations, in order to minimize the total mounting time, the operation between points A and B is changed to the operation between points B and C, and the operation between points B and C is changed to points C and C. Acceleration / deceleration operations involving a temporary stop at the speed switching point, which is an operation during D, are eliminated, and the speed of the machine mounting operation is increased.

3Dセンサー8の構成と働きについて、以下に詳細に説明する。図4は3Dセンサー8をx軸方向に見た図であり、図5は3Dセンサー8をy軸方向に見た図である。図4および図5において、10はレーザー光を発光する半導体レーザー、11はこのレーザー光を集光整形する集光整形レンズ、12はミラー面に当たったレーザー光を機械的回転によって走査させるポリゴンミラー、13はレーザー光の一部を通過させ一部を反射させるハーフミラー、14は光を反射させるミラーである。   The configuration and operation of the 3D sensor 8 will be described in detail below. FIG. 4 is a view of the 3D sensor 8 viewed in the x-axis direction, and FIG. 5 is a view of the 3D sensor 8 viewed in the y-axis direction. 4 and 5, reference numeral 10 denotes a semiconductor laser that emits laser light, 11 denotes a condensing / shaping lens that condenses / shapes the laser light, and 12 denotes a polygon mirror that scans the laser light hitting the mirror surface by mechanical rotation. , 13 are half mirrors that allow a part of the laser light to pass and partially reflect the laser light, and 14 is a mirror that reflects the light.

15はポリゴンミラー12で機械的に振られたレーザー光を被写体である部品2に垂直に投射させるように光路変換させるF−θレンズ、16a,16bは部品2に当たったレーザー光の反射(散乱光)を結像させる結像レンズ、17a,17bは部品2に当たったレーザー光の反射光が結像レンズ16a、16bを通して結像される位置検出素子としての半導体位置検出素子(以下、PSDと略記する)であり、結像した光の位置と相関のある電気信号を発生する機能を有する。18a,18bはPSD17a,17bの出力信号である。   Reference numeral 15 denotes an F-θ lens for converting the optical path of the laser light mechanically shaken by the polygon mirror 12 so that the laser light is projected perpendicularly onto the component 2 which is a subject, and 16a and 16b reflect (scatter) the laser light impinging on the component 2. The imaging lens 17a, 17b is a semiconductor position detection element (hereinafter, referred to as PSD) as a position detection element in which reflected light of laser light hitting the component 2 is imaged through the imaging lenses 16a, 16b. Abbreviated) and has a function of generating an electric signal correlated with the position of the imaged light. 18a and 18b are output signals of the PSDs 17a and 17b.

ここで、半導体レーザー10で発光されたレーザー光は、集光整形レンズ11でビーム形状を集光整形された後、ハーフミラー13を通過し、ミラー14を反射して、ポリゴンミラー12に当たる。ポリゴンミラー12は定速回転運動をしており、ミラー面に当たったレーザー光は振られることとなる。更に、F−θレンズ15で光路変換されたレーザー光は部品2に垂直に当てられ、この反射光が結像レンズ16a,16bを介してPSD17a,17bに結像され、PSD17a,17bが部品2のレーザー反射面の高さを計測し得る出力信号18a,18bを発生する。   Here, the laser light emitted by the semiconductor laser 10 is condensed and shaped by a condensing and shaping lens 11, passes through a half mirror 13, reflects off a mirror 14, and impinges on a polygon mirror 12. The polygon mirror 12 is rotating at a constant speed, and the laser light hitting the mirror surface is swung. Further, the laser light whose optical path has been converted by the F-θ lens 15 is applied vertically to the component 2, and the reflected light is imaged on the PSDs 17 a and 17 b via the imaging lenses 16 a and 16 b, and the PSDs 17 a and 17 b are Output signals 18a and 18b capable of measuring the height of the laser reflecting surface of the laser beam.

図5において、19は光が入力されたことを感知する光センサー、20は光センサー19に光が入力されたことを外部に知らせる信号であり、この信号はポリゴンミラー12の各ミラー面が所定の角度に来たとき変化するもので、いわば、ポリゴンミラー12の各面の原点信号(面原点)にあたる。更に、例えば18面のポリゴンミラー12であれば一回転に18回の信号が、各々等間隔(18面であれば20度毎)の角度だけ回転したとき出力されることとなる。これをポリゴンミラー12の回転量信号と呼ぶ。   In FIG. 5, reference numeral 19 denotes an optical sensor for detecting that light has been input, and reference numeral 20 denotes a signal for notifying that light has been input to the optical sensor 19. When the angle of the polygon mirror 12 is reached, it corresponds to the origin signal of each surface of the polygon mirror 12 (surface origin). Further, for example, in the case of the polygon mirror 12 having 18 planes, the signal is output 18 times per rotation when rotated by an angle of equal intervals (every 20 degrees in the case of 18 planes). This is called a rotation amount signal of the polygon mirror 12.

本実施の形態における3Dセンサー8は、2系統のPSD回路を有しているが、これは1系統ではレーザー光が部品に当たったときに、角度的にPSDに反射光が帰ってこない場合があるため、これを補うのが主な目的で設けている。3系統以上設けるほうが有効な場合もあるが、技術的には同じことであり、ここでは2系統で説明する。   The 3D sensor 8 in the present embodiment has two PSD circuits. However, in one system, when a laser beam hits a component, reflected light may not return to the PSD in an angle when the laser beam hits a component. Therefore, the main purpose is to supplement this. In some cases, it is more effective to provide three or more systems, but it is technically the same, and here, two systems will be described.

ここで、前記の半導体位置検出素子(PSD)17a,17bによる計測対象物である部品2の上の高さの測定方法の一例を、半導体位置検出素子17aの場合について代表して、図11に基づいて説明する。   Here, an example of the method of measuring the height above the component 2 which is the measurement target by the semiconductor position detecting elements (PSDs) 17a and 17b is shown in FIG. It will be described based on the following.

図11において、F−θレンズ15から紙面に垂直方向に走査して部品2の上に投射されるレーザビームは、部品2から乱反射する。この場合、投射された点が、部品2の底面上の高さ0のA点と前記底面から高さHのB点とであるとする。 In FIG. 11, a laser beam that is scanned from the F-θ lens 15 in the direction perpendicular to the paper and projected onto the component 2 is irregularly reflected from the component 2. In this case, the point projected is assumed to be a and B 1 point height H A 1 point height 0 on the bottom surface of the component 2 from the bottom surface.

乱反射したレーザビームは結像レンズ16aによって集光され、それぞれが半導体位置検出素子17aの上のA点とB点とに結像する。その結果、A点とB点とに起電力が発生し、それぞれC点から電流I,I、D点から電流I,Iが取り出される。 Irregularly reflected laser beam is condensed by the imaging lens 16a, each of which forms an image on the two-point and B 2 points A on the semiconductor position sensitive device 17a. As a result, electromotive force is generated in a two-point two points A and B, the current I 3, I 4 is taken out from the current I 1, I 2, D points from each point C.

電流I,Iは、A2点とC点との間の距離xとA点とD点との間の距離に比例する抵抗成分によって決まり、電流I,Iは、B点とC点との間の距離xとB点とD点との間の距離とに比例する抵抗成分によって決まるので、半導体位置検出素子17aの長さをLとすると、図11のx,xは次式のようにして決まる。 Current I 1, I 3 is determined by the resistance component proportional to the distance between the distance x A and A 2 points and point D between the point A2 and point C, current I 2, I 4 is B 2 since determined by resistance components in proportion to the distance between the distance x B and B 2 points and point D between the point and the point C, and the length of the semiconductor position sensitive device 17a and L, x in FIG. 11 a, x B is determined as follows.

=LI/(I+I
=LI/(I+I
従って、図11の半導体位置検出素子17aの上でのA点とB点との間の距離H’は次式で決まる。
x A = LI 3 / (I 1 + I 3 )
x B = LI 4 / (I 2 + I 4)
Accordingly, the distance H between the two points and the B 2 points A in on the semiconductor position sensitive device 17a of FIG. 11 'is determined by the following equation.

H’=x−x
このようにして求められたPSDの上の高さH’に基づいて前記高さHが決定される。
次に、3D画像を撮像する仕組みを、図6と図7を用いて説明する。図6において、21は本電子部品実装装置の主制御部、22はx軸ロボット5上で3D画像の撮像のための基準位置を主制御部21に知らせる基準位置センサー、23はヘッド部7がこの基準位置センサー22を通過したときに、これを主制御部21に知らせる基準位置信号、24はx軸ロボット5を移動させるモーターのエンコーダー、25はエンコーダー24の出力するエンコーダー信号である。
H '= x A -x B
The height H is determined based on the height H ′ above the PSD thus obtained.
Next, a mechanism for capturing a 3D image will be described with reference to FIGS. 6, reference numeral 21 denotes a main control unit of the electronic component mounting apparatus; 22, a reference position sensor for notifying the main control unit 21 of a reference position for capturing a 3D image on the x-axis robot 5; A reference position signal notifying the main control unit 21 when the signal passes through the reference position sensor 22, an encoder 24 of a motor for moving the x-axis robot 5, and an encoder signal 25 output from the encoder 24.

トレー3からピックアップされた部品2がx軸ロボット5によってx軸の上を移動するとき、エンコーダー24は常にエンコーダー信号(AB相、Z相またはこれと等価な信号)25を主制御部21に与えており、基準位置センサー22を部品2が通過するとき、基準位置信号23が主制御部21に与えられることから、この両方の信号で部品2のx軸上の基準位置からの相対位置を主制御部21が算出できる。   When the component 2 picked up from the tray 3 moves on the x-axis by the x-axis robot 5, the encoder 24 always supplies an encoder signal (AB phase, Z phase or a signal equivalent thereto) 25 to the main control unit 21. When the component 2 passes through the reference position sensor 22, the reference position signal 23 is given to the main control unit 21, and the relative position of the component 2 from the reference position on the x-axis is mainly used by these two signals. The control unit 21 can calculate.

一方、3Dセンサー8内にあるポリゴンミラー12の回転量は、これが回転している間回転量信号20として常に主制御部21に与えられており、これと基準位置信号23とからポリゴンミラー12の基準位置通過後の回転量を算出することができる。   On the other hand, the rotation amount of the polygon mirror 12 in the 3D sensor 8 is always given to the main control unit 21 as the rotation amount signal 20 while the polygon mirror 12 is rotating. The rotation amount after passing the reference position can be calculated.

ここで、ポリゴンミラー12の回転量はその速度に比例して増加し、x軸ロボット5の移動量も同様のことが言える。一方、本実施の形態における3Dセンサー8では、ポリゴンミラー12と3D画像撮像時のx軸ロボット5は各々等速に回転・直進することを前提としている。もしも、この条件が乱れる場合には、撮像される3D画像の水平・垂直方向の一画素当たりの分解能(画素サイズ)が速度ムラに応じてバラつくこととなる。これは、計測精度上の誤差要因である。そこで本実施の形態の電子部品実装装置では、上記構成の3Dセンサー8で3D画像を主制御部21内にある画像メモリー35に取り込むとともに、基本的に等速回転運動しているポリゴンミラー12と、サーボモーターなどのモーターで駆動されているヘッド部7の間の動作の整合性を監視・制御するために、ポリゴンミラー12の回転量信号20とモーターのエンコーダー信号25とを用いるものである。   Here, the amount of rotation of the polygon mirror 12 increases in proportion to its speed, and the same can be said for the amount of movement of the x-axis robot 5. On the other hand, in the 3D sensor 8 according to the present embodiment, it is assumed that the polygon mirror 12 and the x-axis robot 5 at the time of capturing a 3D image rotate and go straight at a constant speed, respectively. If this condition is disturbed, the resolution (pixel size) per pixel in the horizontal and vertical directions of the captured 3D image varies according to the speed unevenness. This is an error factor in measurement accuracy. Therefore, in the electronic component mounting apparatus according to the present embodiment, the 3D sensor 8 having the above-described configuration captures a 3D image into the image memory 35 in the main control unit 21, and the polygon mirror 12 that basically rotates at a constant speed. In order to monitor and control the operation consistency between the head units 7 driven by a motor such as a servo motor, the rotation amount signal 20 of the polygon mirror 12 and the encoder signal 25 of the motor are used.

図7において、26はエンコーダー信号25を受けてx軸ロボット5の基準位置からの移動量(距離)を算出する移動量検出回路、27はエンコーダー信号25を受けてx軸ロボット5の各時間での移動速度を算出する移動速度検出回路、28はポリゴンミラー12の回転量信号20を受けてx軸ロボット5の基準位置からの回転量を算出する回転量検出回路、29は回転量信号20を受けてポリゴンミラー12の各時間での回転速度を算出する回転速度検出回路、30はx軸ロボットの動作とポリゴンミラー回転間の移動量の比較を行う第1の比較回路、31はx軸ロボットの動作とポリゴンミラー回転間の移動速度の比較を行う第2の比較回路、32,33は各々比較回路30,31の比較結果を格納する記憶回路、34は主制御部21の全体を制御・監視するプロセッサー回路、35は3D画像(高さ画像)を取り込みまた記憶させておくための画像メモリー、36は3Dセンサー8が送り出すPSD出力18a,18bを画像メモリー35に取り込むための各種のタイミング信号を発生するタイミング発生回路、37はPSD出力18a,18bを主制御部21が受け取るためのインターフェース回路、38はPSD出力18a,18bを高さ信号に変換・補正する高さ演算回路である。   In FIG. 7, reference numeral 26 denotes a movement amount detection circuit which receives the encoder signal 25 and calculates the movement amount (distance) of the x-axis robot 5 from the reference position, and 27 denotes each time of the x-axis robot 5 receiving the encoder signal 25. A rotation speed detection circuit that calculates the rotation speed of the x-axis robot 5 from the reference position by receiving a rotation amount signal 20 of the polygon mirror 12; A rotation speed detection circuit for calculating the rotation speed of the polygon mirror 12 at each time upon receipt, a first comparison circuit 30 for comparing the movement of the x-axis robot with the movement of the polygon mirror, and a reference numeral 31 for the x-axis robot A second comparison circuit for comparing the operation of the polygon mirror with the movement speed between the rotations of the polygon mirror; 32 and 33, storage circuits for storing the comparison results of the comparison circuits 30 and 31; A processor circuit for controlling and monitoring the whole; 35, an image memory for capturing and storing 3D images (height images); 36, for capturing PSD outputs 18a, 18b sent from the 3D sensor 8 into the image memory 35; A timing generating circuit for generating various timing signals; 37, an interface circuit for receiving the PSD outputs 18a, 18b by the main control unit 21; 38, a height calculating circuit for converting and correcting the PSD outputs 18a, 18b into height signals It is.

3Dセンサー8の発生するPSD出力18a,18bは、インターフェース回路37によって主制御部21に入力される。入力されたPSD出力18a,18bは、基本的にPSD17a,17bが出力する原信号であり、ソフトウェア的な処理を高さ画像に対して施すためには、高さ変換・補正演算などの種々の演算をPSD出力18a,18bに対して行う必要があり、高さ演算回路38でこれを行う。高さ演算回路38で演算された信号は、高さデータとして画像メモリー35に取り込まれ、プロセッサー回路34によって種々のソフトウェア処理が施される。   The PSD outputs 18a and 18b generated by the 3D sensor 8 are input to the main control unit 21 by the interface circuit 37. The input PSD outputs 18a and 18b are basically the original signals output by the PSDs 17a and 17b. In order to perform software-based processing on the height image, various types of operations such as height conversion and correction calculations are performed. The operation needs to be performed on the PSD outputs 18a and 18b, and this is performed by the height operation circuit 38. The signal calculated by the height calculation circuit 38 is taken into the image memory 35 as height data, and subjected to various software processes by the processor circuit 34.

また、画像メモリー35への高さデータの取り込みは、画像メモリー35の各水平行について逐次行われるが、ポリゴンミラー12の回転量信号20を各ポリゴン面の同期信号(基準信号)として用いるものである。   The height data is taken into the image memory 35 sequentially for each horizontal row of the image memory 35, but the rotation amount signal 20 of the polygon mirror 12 is used as a synchronization signal (reference signal) for each polygon surface. is there.

このような一連の撮像動作において、x軸ロボット5の動作(つまり撮像対象部品の移動)とポリゴンミラー12の動作は独立になされており、エンコーダー信号25を基にx軸ロボット5の移動量・速度を移動量検出回路26および移動速度検出回路27で各々算出し、ポリゴンミラー12の回転量信号20を基にポリゴンミラー12の回転量・回転速度を回転量検出回路28および回転速度検出回路29で各々算出して、x軸ロボット5およびポリゴンミラー12の移動量と移動速度とを比較回路30,31で比較し、比較結果を記憶回路32,33に記憶することで、x軸ロボット5の移動およびポリゴンミラー12の回転の両動作の同期動作の監視あるいは制御を行うものである。   In such a series of imaging operations, the operation of the x-axis robot 5 (i.e., the movement of the imaging target component) and the operation of the polygon mirror 12 are performed independently. The speed is calculated by a movement amount detection circuit 26 and a movement speed detection circuit 27, and the rotation amount / rotation speed of the polygon mirror 12 is determined based on the rotation amount signal 20 of the polygon mirror 12 by a rotation amount detection circuit 28 and a rotation speed detection circuit 29. The moving amounts and the moving speeds of the x-axis robot 5 and the polygon mirror 12 are compared by the comparison circuits 30 and 31, and the comparison results are stored in the storage circuits 32 and 33. It monitors or controls the synchronous operation of both the movement and the rotation of the polygon mirror 12.

監視の一例としては、前記比較回路30,31の各比較回路において、その比較結果として差が許容範囲内ならば、画像メモリーに記録されたデータを有効なデータとして取り扱う一方、前記差が許容範囲外ならば前記データを無効とするようにし、比較誤差が一定以上大きい場合には撮像不良として、再度撮像し直すか、あるいは比較結果を参照して、画像メモリー35内の3D画像をソフトウェアないし付加回路を設けて正規化や補正処理などが考えられる。   As an example of monitoring, if the difference between the comparison circuits 30 and 31 is within the allowable range as a result of the comparison, the data recorded in the image memory is treated as valid data while the difference is within the allowable range. If the data is outside the range, the data is invalidated. If the comparison error is larger than a certain value, it is determined that the image is defective, and the image is retaken, or the 3D image in the image memory 35 is added by software or by referring to the comparison result. Normalization and correction processing can be considered by providing a circuit.

ここで、ポリゴンミラー12の回転量を移動量に変換する一例を述べる。今、仮に、ポリゴンミラー12が12面体であり、ポリゴンミラー12が30°( = 360°÷12 )回転する間に、部品2が40μm移動するように設計されているとする。このとき、画像取り込み開始後のポリゴンミラー12の回転量を125.5回転とすると、部品2は、125.5(回転)×12(面/回転)×40(μm)=60240(μm)だけ移動していることになる。   Here, an example of converting the rotation amount of the polygon mirror 12 into the movement amount will be described. Now, it is assumed that the polygon mirror 12 is a dodecahedron, and the component 2 is designed to move by 40 μm while the polygon mirror 12 rotates by 30 ° (= 360 ° ÷ 12). At this time, assuming that the rotation amount of the polygon mirror 12 after the start of image capturing is 125.5 rotations, the component 2 has only 125.5 (rotation) × 12 (plane / rotation) × 40 (μm) = 60240 (μm) You are moving.

これを回路的に実現するには、ポリゴンミラー12からの回転量信号20のパルス数(ポリゴンミラー12の各面の基準点である面原点からの信号の数)を画像取り込み中にカウントすればよい。前記の例では、125.5回転しているとき、125.5(回転)×12(面原点数)=1506だけ面原点がカウントされることになる。   In order to realize this in a circuit, the number of pulses of the rotation amount signal 20 from the polygon mirror 12 (the number of signals from the plane origin which is the reference point of each plane of the polygon mirror 12) is counted during image capture. Good. In the above example, when the rotation is 125.5, the surface origin is counted by 125.5 (rotation) × 12 (the number of surface origins) = 1506.

よって、回転量信号20のパルス数が1506個になると、部品2が40μm移動したとみなすことができて、ポリゴンミラー12の回転量を移動量に変換することができる。
また、図8は高さ演算回路38の内部構成図であり、41はPSD出力18a,18bをA−D変換するA−D変換回路、42はクロック発生回路、43はクロック発生回路42から発生される複数のクロックから一つを選択してA−D変換回路41や画像メモリー35に一つの速さ(周波数)のクロックを与えるクロック速度変更手段としてのクロック選択回路、44はPSD出力18a,18bについて三角測量の原理で計算する高さ変換回路、45はPSD17a,17bの面上に結像する光の位置と測定対象に当たるレーザー光の位置との間の非線形関係を補正する高さ補正回路であり、ここではクロック発生回路42によって発生される2つまたはそれ以上の種類の周波数のクロックをクロック選択回路43で選択して、主制御部21の内でこの信号を必要とするA−D変換回路41や画像メモリー35などの所要の回路に選択されたクロックを与え、同時にx軸ロボットの動作速度をこのクロックの速さに反比例して加減速させることで、特別な回路を付加することなく撮像画像(3D画像)の水平・垂直方向の画素サイズを等しいものに保ちながら、分解能を変更することが可能となる。
Therefore, when the number of pulses of the rotation amount signal 20 becomes 1506, it can be considered that the component 2 has moved by 40 μm, and the rotation amount of the polygon mirror 12 can be converted into the movement amount.
FIG. 8 is a diagram showing the internal configuration of the height calculation circuit 38. Reference numeral 41 denotes an A / D conversion circuit for performing A / D conversion of the PSD outputs 18a and 18b; 42, a clock generation circuit; A clock selection circuit as a clock speed changing means for selecting one of a plurality of clocks to be supplied to the A / D conversion circuit 41 and the image memory 35 at one speed (frequency), 44 is a PSD output 18a, A height conversion circuit for calculating the position of light to be imaged on the surfaces of the PSDs 17a and 17b and a position of a laser beam which strikes the object to be measured. Here, two or more kinds of clocks generated by the clock generation circuit 42 are selected by the clock selection circuit 43 and the main control unit The selected clock is supplied to a required circuit such as the A / D conversion circuit 41 or the image memory 35 which requires this signal within 1, and at the same time, the operating speed of the x-axis robot is inversely proportional to the speed of this clock. Acceleration / deceleration makes it possible to change the resolution while keeping the horizontal and vertical pixel sizes of the captured image (3D image) equal without adding a special circuit.

例えば、4MHzでA−D変換させており、100mm/sでx軸ロボット5を移動させたとき、水平・垂直方向の画素サイズが等しく50μm画素であるとする。このとき8MHzのクロックを選択して各所要の回路に与え、50mm/sでx軸ロボットを移動させれば、取り込まれる画像の画素サイズ(分解能)は25μm画素とすることができることになる。   For example, assume that A / D conversion is performed at 4 MHz, and when the x-axis robot 5 is moved at 100 mm / s, the pixel size in the horizontal and vertical directions is equal to 50 μm. At this time, if an 8 MHz clock is selected and given to each required circuit and the x-axis robot is moved at 50 mm / s, the pixel size (resolution) of the captured image can be 25 μm pixels.

このとき、一行(水平行)当たりのデーター量は2倍になり、且つ垂直方向についても同様のことがいえる。このため、2倍の分解能の画像を同一視野サイズ分だけ得ようとすると、4倍の画像メモリー35の容量が必要になる。これについては、画像メモリー35の容量拡大を選択するか、または分解能向上時には視野サイズを限定して使用するかの選択になる。   At this time, the data amount per row (horizontal row) is doubled, and the same can be said for the vertical direction. Therefore, in order to obtain an image with double resolution for the same visual field size, the capacity of the image memory 35 is quadrupled. In this regard, the user has a choice of selecting to increase the capacity of the image memory 35 or limiting the size of the field of view when improving the resolution.

次に、主制御部21による画像取り込みから画像処理動作における各信号との関係について、図7と図8,図12と図13に基づいて説明する。部品2を吸着する前記ヘッド部7を移動させるx軸ロボット5内には前記モータが内蔵されており、前記モータに付加されたエンコーダからは通常移動距離を表すAB相信号と、ある固定位置(モータのある回転角度)を表すZ相信号とが出力される。   Next, the relationship between the image capturing by the main control unit 21 and each signal in the image processing operation will be described with reference to FIGS. 7 and 8 and FIGS. 12 and 13. The motor is built in the x-axis robot 5 that moves the head unit 7 that sucks the component 2, and an AB-phase signal indicating a normal movement distance from an encoder added to the motor and a fixed position ( And a Z-phase signal representing a certain rotation angle of the motor).

このZ相信号と、基準位置を検出する位置検出センサー(該センサーとしては、フォトセンサー、またはホール素子などが用いられる)からの位置検出センサー信号との両方が受け取られると、画像データ取り込み動作が開始される。   When both the Z-phase signal and a position detection sensor signal from a position detection sensor (a photosensor or a Hall element is used as the sensor) for detecting the reference position are received, image data capturing operation is performed. Be started.

前記Z相信号と位置検出センサー信号との両方が受け取られた後から画像データ取り込み開始までの時間は、ごく短いため、前記2種類の信号を受けて、図13のように、ポリゴンミラー12の面原点を表す回転量信号に同期して、レーザ発光と画像データ取り込みの一連の動作は、プロセッサ回路を介さないでハードウェア的に自動で行われるように、タイミング発生回路は画像データ取り込みタイミングを出力する。   Since the time from when both the Z-phase signal and the position detection sensor signal are received until the start of the image data capture is very short, the polygon mirror 12 receives the two types of signals and receives the two types of signals as shown in FIG. In synchronization with the rotation amount signal indicating the plane origin, the timing generation circuit sets the image data acquisition timing so that a series of operations of laser emission and image data acquisition are performed automatically by hardware without going through the processor circuit. Output.

この出力により、例えば1000行分の画像データを取り込む。このように、回転量信号20が取り込まれた時点をポリゴンミラー12の各面の基準位置(面原点)として取り扱い、画像データ取り込みの開始基準とする。そして、例えば1つの部品あたり1000行の画像データを取り込む場合、1000行の画像データを取り込むと、自動的に当該部品に対する画像取り込みを終了するようにする。   With this output, for example, image data for 1000 lines is captured. In this way, the point in time when the rotation amount signal 20 is captured is treated as a reference position (surface origin) of each surface of the polygon mirror 12, and is used as a reference for starting the capture of image data. Then, for example, when 1000 lines of image data are fetched per component, when 1000 lines of image data are fetched, the image fetching for the component is automatically terminated.

各PSD出力18a,18bからは前記したように2つのアナログ信号が入力され、図12に示すようにアンプ回路202で増幅されたのち、これらの2つのアナログ信号をインターフェース回路37を介して高さ演算回路38のA−D変換回路41でA−D変換する。その後、PSD出力18a,18bのデジタル化した2つの信号のそれぞれを基に前記した高さ演算を行ってリードの高さ位置を算出する。ここで、前記デジタル化した信号の値が許容範囲内ならば、正常なデータとして以後の処理を行う一方、許容範囲外ならば、異常なデータとして以後の処理を停止する。すなわち、2つのPSD出力18a,18bにおいて、一方の出力の値が許容範囲内ならば、その許容範囲内のPSD出力のみ使用し、両方の出力の値とも許容範囲内ならば両者の平均値を取る。両方の出力の値とも許容範囲外ならば両方のPSD出力についてのその後の処理は行わずに、エラーが発生したとして処理する。   As described above, two analog signals are input from the PSD outputs 18a and 18b, and are amplified by the amplifier circuit 202 as shown in FIG. The A / D conversion is performed by the A / D conversion circuit 41 of the arithmetic circuit 38. Thereafter, the height calculation described above is performed based on each of the two digitized signals of the PSD outputs 18a and 18b to calculate the height position of the lead. Here, if the value of the digitized signal is within the allowable range, the subsequent processing is performed as normal data. If the value is out of the allowable range, the subsequent processing is stopped as abnormal data. That is, if the value of one of the two PSD outputs 18a and 18b is within the allowable range, only the PSD output within the allowable range is used. take. If the values of both outputs are out of the allowable range, the subsequent processing for both PSD outputs is not performed, and processing is performed assuming that an error has occurred.

このようにしてリード高さデータを演算したのち、高さ補正回路45で高さ補正を行う。この高さ補正は、PSD17a,17bに対する入射光の位置が線形に変化しても、PSD17a,17b上での位置が線形に変化しないことに起因して行うものであり、予めテーブルや曲線式を記憶しておき、上記演算された高さデータを補正して、正確な高さデータとするものである。   After calculating the lead height data in this manner, the height correction circuit 45 performs height correction. This height correction is performed because the position on the PSDs 17a and 17b does not change linearly even if the position of the incident light with respect to the PSDs 17a and 17b changes linearly. The calculated height data is stored and corrected to obtain accurate height data.

高さ補正された高さデータは、画像メモリー回路35に入力されて、タイミング発生回路36から得たタイミングをアドレスとして記憶させる。そして、回転量検出回路28と移動量検出回路26との比較回路30での比較結果として記憶回路32に記憶されたデータから、画像データが許容範囲内のものか否か判断する。許容範囲外ならば、画像メモリ回路35に記憶された画像データを無効なものとして取り扱う。許容範囲内ならば、プロセッサー回路34から画像メモリー回路35に記憶されたデータを読み出して部品の位置決めなどの画像処理が行われる。   The height data corrected in height is input to the image memory circuit 35, and the timing obtained from the timing generation circuit 36 is stored as an address. Then, from the data stored in the storage circuit 32 as a result of the comparison between the rotation amount detection circuit 28 and the movement amount detection circuit 26 by the comparison circuit 30, it is determined whether or not the image data is within the allowable range. If it is out of the allowable range, the image data stored in the image memory circuit 35 is treated as invalid. If it is within the allowable range, the data stored in the image memory circuit 35 is read from the processor circuit 34 and image processing such as positioning of components is performed.

以下に、より詳細に前記1つの部品2に対する画像取り込み動作および取り込まれた画像の処理動作の流れの一例を、図14に基づいて説明する。まず、ステップ#60で部品2の画像取り込みを行う。   Hereinafter, an example of the flow of the image capturing operation for the one component 2 and the processing operation of the captured image will be described in more detail with reference to FIG. First, in step # 60, an image of the component 2 is captured.

次いで、ステップ#61で、画像が取り込まれた部品2のリードの位置決めを行う。この位置決めには、種々の方法(アルゴリズム)があるが、ここでは代表的なものを説明する。   Next, at step # 61, the positioning of the lead of the component 2 from which the image has been captured is performed. There are various methods (algorithms) for this positioning, but a representative one will be described here.

まず、図15(a)に示すように、QFPなどの四角形の電子部品2の1つの辺のリードの傾きを粗く検出する。次いで、図15(b)に示すように、検出されたリードの中から任意に選択された2つのリードの位置を大まかに検出する。   First, as shown in FIG. 15A, the inclination of a lead on one side of a rectangular electronic component 2 such as a QFP is roughly detected. Next, as shown in FIG. 15B, the positions of two leads arbitrarily selected from the detected leads are roughly detected.

最後に、図15(c)に示すように、大まかに検出されたリード位置を基にリード位置を精度良く検出する。このようにして、QFPのような四角形の部品の1つの辺のリードの位置が検出されれば、このリード位置を基に、他の辺のリードについては、図15(c)に示すようにリード位置を精度良く検出すればよい。   Finally, as shown in FIG. 15C, the lead position is accurately detected based on the roughly detected lead position. If the position of the lead on one side of a quadrangular component such as QFP is detected in this way, the lead on the other side is determined based on this lead position as shown in FIG. What is necessary is just to detect a lead position accurately.

次いで、#62でリードピッチが適正か否か判断する。適正であればステップ#63で前記したように各リードの高さの演算を行う。この高さの演算は、図17に示すように、ステップ#61で求められたリード位置情報から、各リードについてリード先端部204(図中、斜線部分)周辺の複数の画素(図17での小さな各四角形に相当)の高さ情報(これは画像メモリーに格納されているデータそのものである)を平均化することで、リード高さが求められる。位置決めで求められた各リードの位置に、このリード高さを加えた情報(x,y,z)が各リードの3次元位置となる。ただし、i=1,・・・,nで、nはリード本数である。次いで、ステップ#64で仮想平面(シーティング・プレーン)の計算を行う。ここで、仮想平面について説明する。 Next, it is determined at # 62 whether or not the lead pitch is appropriate. If it is appropriate, the height of each lead is calculated in step # 63 as described above. As shown in FIG. 17, the calculation of the height is based on the lead position information obtained in step # 61. For each lead, a plurality of pixels (in FIG. The lead height is obtained by averaging the height information (which is the data itself stored in the image memory) of each small square. The position of the leads obtained by the positioning information obtained by adding the lead heights (x i, y i, z i) is the three-dimensional position of each lead. Here, i = 1,..., N, and n is the number of leads. Next, in step # 64, a virtual plane (seating plane) is calculated. Here, the virtual plane will be described.

一般に、QFPなどの複数のリードを有する部品では、基板に実装されたとき、一部のリードが基板の電極部から離れる、いわゆるリード浮きの状態が生じる場合がある。部品を実装する前に部品のリードの浮きを検出するための処理がステップ#65で行うリード浮き検出であるが、この処理を部品がノズルに吸着された状態で行おうとすると、図16(a)に示すように部品2が傾いてノズル7aに吸着されている可能性もあるため、単純にリード各点の高さを求めるだけでは正確にリードの浮きを求めることができない。そこで、部品を実装したときの接地平面となる仮想平面を求めて、その仮想平面から各リードまでの距離を求めて、リード浮き量を評価する必要がある。   Generally, when a component having a plurality of leads such as a QFP is mounted on a board, a part of the leads may be separated from an electrode portion of the board, that is, a so-called lead floating state may occur. The process for detecting the floating of the lead of the component before mounting the component is the detection of the floating of the lead performed in step # 65. If this process is to be performed in a state where the component is sucked by the nozzle, FIG. Since there is a possibility that the component 2 is inclined and adsorbed to the nozzle 7a as shown in ()), simply determining the height of each point of the lead cannot accurately determine the floating of the lead. Therefore, it is necessary to obtain a virtual plane that becomes a ground plane when components are mounted, obtain a distance from the virtual plane to each lead, and evaluate the lead floating amount.

なお、図16(a)において、201は基準平面、200はノズル7aの吸着により部品2に生じた傾きによる2つのリードの高さ間の誤差(H−H)を示している。
仮想平面202は、部品2の持つ3点のリード位置から構成される平面であり、以下の2つの条件を満たす平面が仮想平面202の構成点となりえる。
In FIG. 16A, reference numeral 201 denotes a reference plane, and reference numeral 200 denotes an error (H 1 −H 2 ) between the heights of the two leads due to the inclination generated in the component 2 due to the suction of the nozzle 7a.
The virtual plane 202 is a plane composed of three lead positions of the component 2, and a plane satisfying the following two conditions can be a constituent point of the virtual plane 202.

(1) 図16(b)に示すように、すべてのリード位置が、仮想平面202より上方若しくは仮想平面上に存在すること。
(2) 図16(c)に示すように、部品2の重心を仮想平面202に投影した点(重心投影点)203が、仮想平面202を構成するリード位置の3点が生成する三角形内に存在すること。
(1) As shown in FIG. 16 (b), all lead positions exist above or on the virtual plane 202.
(2) As shown in FIG. 16C, a point 203 where the center of gravity of the component 2 is projected on the virtual plane 202 (center-of-gravity projected point) 203 is within a triangle generated by three points of the lead positions constituting the virtual plane 202. To exist.

次いで、ステップ#63で演算された高さおよびステップ#64で求められた仮想平面を基に、ステップ#65でリードの浮きが許容範囲内か否か判断する。リードの浮きは、すべてのリードについて、リードの3次元位置から求められた仮想平面までの距離を計算することにより行われる。この距離が、各リードの仮想平面からのリード浮き量であり、この値が許容範囲内ならば画像処理動作を終了する。許容範囲外ならば、ステップ#67でリード浮きエラーとして画像処理動作を終了する。また、ステップ#62でリードピッチが許容範囲外ならば、ステップ#66でピッチエラーとして画像処理動作を終了する。   Next, based on the height calculated in step # 63 and the virtual plane obtained in step # 64, it is determined in step # 65 whether the float of the lead is within an allowable range. The lifting of the leads is performed by calculating the distance from the three-dimensional position of the leads to the virtual plane determined for all the leads. This distance is the lead floating amount of each lead from the virtual plane, and if this value is within the allowable range, the image processing operation ends. If it is out of the allowable range, the image processing operation is terminated in step # 67 as a lead floating error. If the lead pitch is out of the allowable range in step # 62, the image processing operation ends as a pitch error in step # 66.

次に、画像取り込みタイミングのずれの補正処理の一例について説明する。図12は、図7の主制御部21と各装置との関係を示す図であり、検出回路26〜29、比較回路30,31、記憶回路32,33、プロセッサー回路34とを1つのポリゴンミラー制御部200として示されている。図13は画像取り込みタイミングを示すタイミングチャートである。   Next, an example of a process for correcting a shift in image capture timing will be described. FIG. 12 is a diagram showing the relationship between the main controller 21 of FIG. 7 and each device. The detection circuits 26 to 29, the comparison circuits 30, 31, the storage circuits 32, 33, and the processor circuit 34 are one polygon mirror. The control unit 200 is shown. FIG. 13 is a timing chart showing the image capture timing.

図12と図13において、ヘッド部7の移動に従って部品2が特定位置に位置したとき3次元センサー8が前記位置検出センサー信号を出力し、かつ部品を移動させるモータのエンコーダ出力の1つで一定位置を保証する、Z相が出るタイミングでポリゴンミラー制御部200は画像データ取り込みのための準備動作に入る。   12 and 13, when the component 2 is located at a specific position according to the movement of the head unit 7, the three-dimensional sensor 8 outputs the position detection sensor signal, and is constant at one of the encoder outputs of the motor for moving the component. At the timing when the Z phase comes out to guarantee the position, the polygon mirror control unit 200 starts a preparation operation for capturing image data.

この準備動作に入ったのち、実際の画像データの取り込みは、ポリゴンミラー12の面原点の検出動作に同期して1ライン毎に取り込む。すなわち、ポリゴンミラー12の面原点を示す回転量信号20が検出され、半導体レーザ10のレーザー光の発光がなされると同時的に画像取り込みが行われるようにしている。   After the preparation operation is started, the actual image data is taken in line by line in synchronization with the operation of detecting the plane origin of the polygon mirror 12. That is, when the rotation amount signal 20 indicating the surface origin of the polygon mirror 12 is detected and the laser light of the semiconductor laser 10 is emitted, the image is taken in at the same time.

このとき、図13に示すように、ヘッド部7が画像データ取り込み開始位置に位置してから、実際に画像データ取り込み動作に入るにはタイムラグがある。このタイムラグは、ヘッド部7とポリゴンミラー12の動作が非同期であることから、画像取り込みまでに部品2が移動してしまう量tと、回路的なセットアッブのために固定時間分「準備期間」として遅れが出る分とによるものである。   At this time, as shown in FIG. 13, there is a time lag from when the head unit 7 is positioned at the image data capture start position to when the image data capture operation is actually started. Since the operation of the head unit 7 and the operation of the polygon mirror 12 are asynchronous, the time lag is determined by an amount t by which the component 2 moves until image capturing and a fixed time “preparation period” due to circuit setup. This is due to the delay.

前記タイムラグ後に、1フレーム分の画像がポリゴンミラー12の同期で取り込まれる。よって、部品2が3次元センサー8の画像取り込み開始位置に位置してから、3次元センサー8のポリゴンミラー12が走査開始位置に位置するまでの時間に部品2が移動する距離を、部品を移動させているモータのエンコーダ出力(AB相)を計数回路300で回路的に計数して求め、処理回路34に出力する。そして、その結果に基づいて部品2の位置決めを行うようにすれば、タイミングのずれのバラツキに伴う位置決め精度の低下を防止することができて、位置決めをより高精度に行うことができる。   After the time lag, an image for one frame is captured in synchronization with the polygon mirror 12. Accordingly, the distance that the component 2 moves during the time from when the component 2 is located at the image capturing start position of the three-dimensional sensor 8 to when the polygon mirror 12 of the three-dimensional sensor 8 is located at the scanning start position is determined by moving the component. The encoder output (AB phase) of the motor being driven is counted and obtained in a circuit by a counting circuit 300 and output to the processing circuit 34. If the positioning of the component 2 is performed based on the result, it is possible to prevent a decrease in the positioning accuracy due to a variation in the timing shift, and to perform the positioning with higher accuracy.

上記の実施の形態では、ヘッド部7が1つの吸着ノズルで1つの電子部品2を吸着する場合について述べたが、ヘッド部7が複数のノズルを備えている場合にも本発明は適用できる。また、このように複数のノズルで複数の部品を吸着した状態で、連続的に位置決めおよび部品形状検査を行うとき、例えば、1つの部品当たり1000行の画像データを取り込むとした場合、4個のノズルでは、4000行の画像データを取り込み、1000行ごとに1つの部品の画像データとして取り扱う。   In the above embodiment, the case where the head unit 7 sucks one electronic component 2 with one suction nozzle has been described. However, the present invention can be applied to a case where the head unit 7 has a plurality of nozzles. In addition, when continuously performing positioning and component shape inspection in a state where a plurality of components are sucked by a plurality of nozzles as described above, for example, when it is assumed that image data of 1000 lines per component is taken, four The nozzle fetches 4000 lines of image data and handles it as image data of one component every 1000 lines.

タクトタイムの中に占める部品の位置決めと3次元形状の検査に関する時間は極めて大きいものである。しかしながら、本発明によれば、複数ノズルで複数の部品を連続して3Dセンサーで3次元画像を取り込み、引き続いて順次装着するとき、部品の取り出しから装着対象基板までの部品移動に関する時間は、1ノズル1部品であっても、複数ノズル複数部品であっても、ほぼ一定であり、タクトタイムの短縮の点で特に効果が大きい。   The time required for component positioning and three-dimensional shape inspection in the tact time is extremely large. However, according to the present invention, when a plurality of components are successively captured by a 3D sensor with a plurality of nozzles and a three-dimensional image is successively mounted, the time required for component movement from the removal of the component to the mounting target board is one. Regardless of whether it is a single component of a nozzle or a multiple component of a plurality of nozzles, it is substantially constant, and is particularly effective in reducing the tact time.

また、このように複数のノズルを備えたヘッド部7では、図18に示すように、電子部品2の装着順を考慮して、画像処理順を適宜変更可能とすることもできる。すなわち、例えば4本のノズル(No.1〜No.4)がこの順に部品2を吸着して画像データを画像メモリ回路35に取り込む一方、No.4〜No.1の順に4本のノズルが基板に対して実装を行うとき、各部品の画像データを取り込む毎に、取り込まれた画像データの画像処理を他の部品の画像データの画像処理よりも優先して行うべきか否か判断して、最も優先させるべき部品の画像処理を優先して行うこともできる。   Further, in the head unit 7 having a plurality of nozzles as described above, the image processing order can be appropriately changed in consideration of the mounting order of the electronic components 2 as shown in FIG. That is, for example, four nozzles (No. 1 to No. 4) suck the part 2 in this order and take in the image data into the image memory circuit 35, 4-No. When four nozzles are mounted on the board in the order of 1, every time image data of each component is captured, image processing of the captured image data is prioritized over image processing of image data of other components. It is also possible to judge whether or not to perform the process, and to prioritize the image processing of the component to be given the highest priority.

このような場合には、最も装着が早いものから順に画像処理を行うため、画像処理が終了すれば、他の部品の画像処理中であっても実装を行うことができる。また、上記の説明からも明らかなように、分解能を上げるためにはクロック速度の向上と同時に、x軸ロボット5の速度を落とす必要がある。   In such a case, since the image processing is performed in the order of earliest mounting, if image processing is completed, mounting can be performed even during image processing of another component. Further, as is apparent from the above description, in order to increase the resolution, it is necessary to reduce the speed of the x-axis robot 5 at the same time as improving the clock speed.

いずれにしても、QFPやコネクターなどの部品の狭ピッチ化に対応するためには、画像の高分解能化が不可欠であり、一方である程度荒い分解能で計測できる部品については極力速い走査で撮像したいことになる。そのような場合にこの高分解能化の手段は非常に有効である。   In any case, high resolution of the image is indispensable in order to respond to the narrow pitch of components such as QFPs and connectors. On the other hand, for components that can be measured with a somewhat coarse resolution, we want to capture images with the fastest possible scanning become. In such a case, the means for increasing the resolution is very effective.

なお、上記の実施の形態においては、ヘッド部7のx軸ロボット5上の基準位置からの相対位置を検出するためエンコーダ24の出力を用いていたが、x軸ロボット5に直接リニアスケールを適用することにより、ヘッド部7の位置を検出することもできる。   In the above embodiment, the output of the encoder 24 is used to detect the relative position of the head unit 7 from the reference position on the x-axis robot 5, but the linear scale is directly applied to the x-axis robot 5. By doing so, the position of the head unit 7 can also be detected.

本発明の実施の形態の電子部品実装装置の全体概略図Overall schematic view of an electronic component mounting apparatus according to an embodiment of the present invention. 同実施の形態における3次元画像取り込みの説明図Explanatory drawing of 3D image capture in the embodiment 同実施の形態における部品実装動作の説明図Explanatory drawing of the component mounting operation in the embodiment 同実施の形態における3Dセンサーのx軸方向の構成断面図Configuration sectional view in the x-axis direction of the 3D sensor according to the embodiment. 同実施の形態における3Dセンサーのy軸方向の構成断面図Configuration sectional view of the 3D sensor in the same embodiment in the y-axis direction 同実施の形態における3Dセンサーからの出力信号の説明図Explanatory drawing of the output signal from the 3D sensor in the embodiment 同実施の形態における主制御部の内部構成図Internal configuration diagram of main control unit in the same embodiment 同実施の形態における高さ演算回路の内部構成図Internal configuration diagram of height operation circuit in the same embodiment 従来の電子部品実装装置における実装工程図Mounting process diagram in conventional electronic component mounting equipment 本発明の実施の形態の電子部品実装装置における実装工程図Mounting process diagram in the electronic component mounting apparatus according to the embodiment of the present invention 前記実施形態における高さ測定方法の例を示す説明図Explanatory drawing which shows the example of the height measuring method in the said embodiment. 前記実施形態における主制御部と各装置との関係を示す説明図Explanatory diagram showing the relationship between the main control unit and each device in the embodiment. 前記実施形態における画像取り込みタイミングを示すタイミングチャート図FIG. 5 is a timing chart showing image capture timing in the embodiment. 前記実施形態における画像取り込みから画像処理までの動作を示すフローチャート図FIG. 4 is a flowchart showing an operation from image capture to image processing in the embodiment. 電子部品のリードの認識に関する一例としてのアルゴリズムを示す説明図Explanatory diagram showing an algorithm as an example regarding recognition of leads of electronic components 電子部品のリードの浮きの高さ測定に関する説明図Explanatory drawing about measurement of height of floating of lead of electronic component 電子部品の各リードの高さ演算の説明図Illustration of height calculation of each lead of electronic component 複数の電子部品の画像取り込みおよび画像処理を行う場合の実施形態のタイミングチャート図Timing chart of an embodiment in the case of performing image capture and image processing of a plurality of electronic components

符号の説明Explanation of reference numerals

4 トレー供給部
5 x軸ロボット
6a,6b y軸ロボット
7 ヘッド部
8 3次元センサー
10 半導体レーザー
12 ポリゴンミラー
17a,17b 半導体位置検出素子(PSD)
16a,16b 結像レンズ
21 主制御部
26 移動量検出回路
27 移動速度検出回路
28 回転量検出回路
29 回転速度検出回路
30 第1の比較回路
31 第2の比較回路
35 画像メモリー
43 クロック選択回路
Reference Signs List 4 tray supply unit 5 x-axis robot 6a, 6b y-axis robot 7 head unit 8 three-dimensional sensor 10 semiconductor laser 12 polygon mirror 17a, 17b semiconductor position detection element (PSD)
16a, 16b Imaging lens 21 Main controller 26 Moving amount detecting circuit 27 Moving speed detecting circuit 28 Rotating amount detecting circuit 29 Rotating speed detecting circuit 30 First comparing circuit 31 Second comparing circuit 35 Image memory 43 Clock selecting circuit

Claims (3)

基板に実装すべき電子部品を供給する部品供給部と、
前記部品供給部に供給された前記電子部品を保持して前記基板上に装着するヘッド部と、
前記ヘッド部により保持された前記電子部品を前記基板上まで移動させるヘッド部移動装置と、
前記ヘッド部に保持された前記電子部品にレーザー光を投光し、前記ヘッド部移動装置による前記電子部品の移動と、前記レーザー光によるライン走査によって前記電子部品の全面を走査することにより前記電子部品の高さデータを得る3次元画像撮像手段と、
3次元画像撮像手段からの前記高さデータを3次元画像データとして記憶する画像メモリーと、
前記3次元画像データに対する画像処理を行う制御部と
を備えた電子部品実装装置。
A component supply unit that supplies electronic components to be mounted on the board,
A head unit that holds the electronic component supplied to the component supply unit and mounts the electronic component on the substrate,
A head unit moving device that moves the electronic component held by the head unit onto the substrate,
The electronic component is projected by irradiating a laser beam onto the electronic component held by the head unit, and scanning the entire surface of the electronic component by moving the electronic component by the head unit moving device and line scanning by the laser beam. Three-dimensional image capturing means for obtaining height data of a part;
An image memory for storing the height data from the three-dimensional image capturing means as three-dimensional image data;
An electronic component mounting apparatus comprising: a control unit that performs image processing on the three-dimensional image data.
前記レーザー光を、前記電子部品の移動と垂直方向に走査させるとともに、前記電子部品の移動速度を一定にするよう構成した
請求項1記載の電子部品実装装置。
2. The electronic component mounting apparatus according to claim 1, wherein the laser light is scanned in a direction perpendicular to the movement of the electronic component, and the moving speed of the electronic component is made constant.
制御部は、前記画像処理により前記電子部品の部品形状検査を行うとともに、前記電子部品の位置決めを行うよう構成した
請求項1または請求項2に記載の電子部品実装装置。
The electronic component mounting apparatus according to claim 1, wherein the control unit is configured to perform a component shape inspection of the electronic component by the image processing and to perform positioning of the electronic component.
JP2004151123A 1996-04-23 2004-05-21 Electronic component mounting equipment Expired - Lifetime JP3926347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004151123A JP3926347B2 (en) 1996-04-23 2004-05-21 Electronic component mounting equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10074496 1996-04-23
JP2004151123A JP3926347B2 (en) 1996-04-23 2004-05-21 Electronic component mounting equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10557997A Division JP3578588B2 (en) 1996-04-23 1997-04-23 Electronic component mounting equipment

Publications (2)

Publication Number Publication Date
JP2004235671A true JP2004235671A (en) 2004-08-19
JP3926347B2 JP3926347B2 (en) 2007-06-06

Family

ID=32964216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004151123A Expired - Lifetime JP3926347B2 (en) 1996-04-23 2004-05-21 Electronic component mounting equipment

Country Status (1)

Country Link
JP (1) JP3926347B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008130771A (en) * 2006-11-20 2008-06-05 Matsushita Electric Ind Co Ltd Component recognition method
JP2008227069A (en) * 2007-03-12 2008-09-25 Yamaha Motor Co Ltd Component transfer equipment and surface mounting machine
JP2008267853A (en) * 2007-04-17 2008-11-06 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring instrument and method, and component mounting device
JP2008294065A (en) * 2007-05-22 2008-12-04 Juki Corp Mounting method and mounting device for electronic component
JP2009277749A (en) * 2008-05-13 2009-11-26 Panasonic Corp Height measuring device and method
US7843573B2 (en) 2005-03-29 2010-11-30 Panasonic Corporation Component shape profiling method and component mounting method
CN110174077A (en) * 2018-02-21 2019-08-27 Juki株式会社 3 dimension measuring devices, electronic component mounting apparatus and 3 dimension measurement methods
JP2019197018A (en) * 2018-05-11 2019-11-14 スミダコーポレーション株式会社 Flatness detection method, flatness detection device and flatness detection program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105075419B (en) 2013-03-12 2018-09-28 富士机械制造株式会社 The element identifying system of component mounter

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843573B2 (en) 2005-03-29 2010-11-30 Panasonic Corporation Component shape profiling method and component mounting method
JP2008130771A (en) * 2006-11-20 2008-06-05 Matsushita Electric Ind Co Ltd Component recognition method
JP4733001B2 (en) * 2006-11-20 2011-07-27 パナソニック株式会社 Component mounting apparatus, component mounting method, and program
JP2008227069A (en) * 2007-03-12 2008-09-25 Yamaha Motor Co Ltd Component transfer equipment and surface mounting machine
JP2008267853A (en) * 2007-04-17 2008-11-06 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring instrument and method, and component mounting device
JP2008294065A (en) * 2007-05-22 2008-12-04 Juki Corp Mounting method and mounting device for electronic component
JP2009277749A (en) * 2008-05-13 2009-11-26 Panasonic Corp Height measuring device and method
CN110174077A (en) * 2018-02-21 2019-08-27 Juki株式会社 3 dimension measuring devices, electronic component mounting apparatus and 3 dimension measurement methods
JP2019144137A (en) * 2018-02-21 2019-08-29 Juki株式会社 Three-dimensional measuring device, electronic component equipment device, and method for three-dimensional measurement
JP7215826B2 (en) 2018-02-21 2023-01-31 Juki株式会社 Three-dimensional measuring device, electronic component mounting device, and three-dimensional measuring method
JP2019197018A (en) * 2018-05-11 2019-11-14 スミダコーポレーション株式会社 Flatness detection method, flatness detection device and flatness detection program
JP7135418B2 (en) 2018-05-11 2022-09-13 スミダコーポレーション株式会社 FLATNESS DETECTION METHOD, FLATNESS DETECTION APPARATUS AND FLATNESS DETECTION PROGRAM

Also Published As

Publication number Publication date
JP3926347B2 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
KR100318875B1 (en) Electronic component mounting apparatus
EP1062853B1 (en) Component recognizing method and apparatus
JP4315536B2 (en) Electronic component mounting method and apparatus
JP2003519783A (en) Solder paste inspection device
WO2007129733A1 (en) Imaging position correction method, imaging method, and substrate imaging apparatus
JP3578588B2 (en) Electronic component mounting equipment
JP3926347B2 (en) Electronic component mounting equipment
JP2003035517A (en) Lead pin pitch/levelness testing device using two- dimensional laser displacement sensor
JP2003121115A (en) Visual inspection apparatus and method therefor
JP2008294065A (en) Mounting method and mounting device for electronic component
JP4546635B2 (en) Electronic component mounting method and apparatus
JP3923168B2 (en) Component recognition method and component mounting method
JP3949257B2 (en) Component recognition method, component inspection, and mounting method
JP2003315014A (en) Inspection method and inspection device
JP3883279B2 (en) Electronic component mounting method and apparatus
JP5271654B2 (en) Electronic component mounting equipment
JPH10311705A (en) Image input apparatus
JP2003130619A (en) Method and apparatus for detecting defective lead terminal of electronic parts
JP4294229B2 (en) Scanning optical system beam measuring apparatus and scanning optical system beam measuring method
JPH09167237A (en) Generating device for part recognizing standard data
JP2884581B2 (en) Teaching method of reference data in inspection device of mounted printed circuit board
JP4654693B2 (en) Inspection image imaging device
JP3399468B2 (en) Inspection device for mounted printed circuit boards
JP3203852B2 (en) Inspection device for mounted printed circuit boards
JP3055864B2 (en) Electronic component mounting method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

EXPY Cancellation because of completion of term