JP3266524B2 - Chip component position detection method and device - Google Patents
Chip component position detection method and deviceInfo
- Publication number
- JP3266524B2 JP3266524B2 JP30172396A JP30172396A JP3266524B2 JP 3266524 B2 JP3266524 B2 JP 3266524B2 JP 30172396 A JP30172396 A JP 30172396A JP 30172396 A JP30172396 A JP 30172396A JP 3266524 B2 JP3266524 B2 JP 3266524B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- chip component
- corner
- nozzle member
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Supply And Installment Of Electrical Components (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、実装機においてノ
ズル部材に吸着されたチップ部品の吸着状態を検出する
チップ部品の位置検出方法及び同装置に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for detecting a position of a chip component for detecting a suction state of a chip component sucked by a nozzle member in a mounting machine.
【0002】[0002]
【従来の技術】従来、ノズル部材を有する部品装着用の
ヘッドユニットにより、テープフィーダー等の部品供給
部からIC等の小片状のチップ部品を吸着して、位置決
めされているプリント基板上に移送し、プリント基板の
所定位置に装着するようにした実装機が一般に知られて
いる。この種の実装機では、例えば、上記ヘッドユニッ
トが平面上でX軸方向及びY軸方向に移動可能とされる
とともに、ノズル部材がZ軸方向に移動可能かつ回転可
能とされ、各方向の駆動機構が設けられている。2. Description of the Related Art Conventionally, a small chip component such as an IC is sucked from a component supply unit such as a tape feeder by a component mounting head unit having a nozzle member and is transferred onto a positioned printed circuit board. A mounting machine that is mounted at a predetermined position on a printed circuit board is generally known. In this type of mounting machine, for example, the head unit is movable in the X-axis direction and the Y-axis direction on a plane, and the nozzle member is movable and rotatable in the Z-axis direction. A mechanism is provided.
【0003】また、この種の実装機において、ノズル部
材に吸着されたチップ部品に光を照射してチップ部品の
投影を検出する光学的検知手段を設け、この光学的検知
手段による投影の検出に基づいて上記ノズル部材による
部品吸着状態、例えば部品吸着位置のずれや傾きを検出
し、それに応じて部品装着位置の補正等を行なうように
した装置も一般に知られている。Further, in this type of mounting machine, an optical detecting means for irradiating the chip component adsorbed by the nozzle member with light to detect the projection of the chip component is provided. There is also generally known an apparatus that detects a component suction state by the nozzle member, for example, a deviation or inclination of a component suction position, and corrects a component mounting position in accordance with the detected state.
【0004】光学的検知手段としては、平行光線の照射
部及び受光部をノズル部材が通過する空間を挾んで対向
配置し、ノズル部材に吸着された部品に対して照射部か
ら平行光線を照射して受光部での当該部品の投影幅を検
出するようにしたものが主流である。しかし、この検知
手段では平行光線を照射するために、レーザー発生源、
集光レンズ、ミラー及び平行光形成レンズ等を照射部に
装備する必要があり、光学的検知手段の大型化、あるい
はコスト高を招くという問題があった。As an optical detecting means, an irradiating portion and a light receiving portion of the parallel light beam are arranged opposite to each other with a space through which the nozzle member passes, and the irradiating portion irradiates the component adsorbed by the nozzle member with the parallel light beam. The mainstream is to detect the projection width of the component at the light receiving section. However, this detection means emits a parallel light beam, so a laser source,
It is necessary to equip the irradiating section with a condenser lens, a mirror, a parallel light forming lens, and the like, and there has been a problem that the size of the optical detection means is increased or the cost is increased.
【0005】そこで、本願出願人は、この問題を解決す
べく、ノズル部材に吸着されたチップ部品をノズル軸周
りに回転させながら点状の光源からチップ部品に対して
拡散光を照射し、拡散光による受光部からの投影検出デ
ータと上記照射部、受光部及びノズル部材の位置関係を
示す所定のデータとに基づいて部品吸着状態を調べる装
置を開発して出願している(平成7年 特許願 第309
494号)。In order to solve this problem, the applicant of the present application irradiates the chip component with a diffused light from a point-like light source to the chip component while rotating the chip component adsorbed on the nozzle member around the nozzle axis. We have developed and filed an application for a device that checks the component suction state based on projection detection data from a light receiving unit using light and predetermined data indicating the positional relationship between the irradiating unit, light receiving unit, and nozzle member. Request 309
494).
【0006】[0006]
【発明が解決しようとする課題】上記の装置によれば、
拡散光をそのまま用いることができるので、平行光線を
形成するためのレンズ等が不要となる。そのため、光学
的検知手段の大型化等を効果的に抑えることが可能とな
り、所期の目的を達成することができる。According to the above apparatus,
Since the diffused light can be used as it is, there is no need for a lens or the like for forming parallel rays. For this reason, it is possible to effectively suppress an increase in the size of the optical detection means, and the intended purpose can be achieved.
【0007】しかし、次の点において改良する余地があ
る。However, there is room for improvement in the following points.
【0008】すなわち、上記の装置では、受光部の基準
位置と投影端部との距離が最小となるときのノズル回転
角と前記最小距離を求める必要があり、ノズル部材を定
速で回転させながら受光部からの投影検出データやエン
コーダからの回転角データという多くのデータを逐次サ
ンプリングしながら処理することが要求される。そのた
め、部品吸着状態検出のための処理に比較的時間を要す
る場合がある。また、チップ部品を回転させながら投影
端部までの最小距離を調べるので、チップ部品の吸着状
態のバラツキに応じて部品吸着状態の検出時間にバラツ
キが生じ易い。That is, in the above-described apparatus, it is necessary to obtain the nozzle rotation angle and the minimum distance when the distance between the reference position of the light receiving section and the projection end is minimum, while rotating the nozzle member at a constant speed. It is required to process a lot of data such as projection detection data from a light receiving unit and rotation angle data from an encoder while sequentially sampling. Therefore, the processing for detecting the component suction state may take a relatively long time. Further, since the minimum distance to the projection end is checked while rotating the chip component, the detection time of the component suction state tends to vary according to the variation of the suction state of the chip component.
【0009】本発明は、上記の事情に鑑み、部品吸着状
態検出の処理効率を高めつつ、部品の吸着状態に拘らず
当該処理に要する時間を均一化することができるチップ
部品の位置検出方法及び同装置を提供することを目的と
する。SUMMARY OF THE INVENTION In view of the above circumstances, the present invention provides a chip component position detection method capable of increasing the processing efficiency of component suction state detection and making the time required for the processing uniform regardless of the component suction state. It is intended to provide the same device.
【0010】[0010]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、実装機のヘッドユニットに具備されてい
るノズル部材に吸着されたチップ部品に対して光を照射
する照射部と、上記チップ部品を挟んで上記照射部と対
向する位置で光を受光する受光部とを有する光学的検知
手段により前記チップ部品の投影を検出し、この投影に
基づいて上記ノズル部材に吸着されたチップ部品の位置
を検出する方法において、上記照射部に拡散光をそれぞ
れ照射する複数の点状光源を並べて設け、これらの光源
から選択的に上記チップ部品に拡散光を照射して上記受
光部におけるチップ部品の投影を測定し、この部品投影
測定に基づく処理として、上記受光部上での所定の基準
位置から投影の端部までの距離を検出し、この距離と、
この距離検出にかかる照射部の光源、受光部及びノズル
部材の位置関係についての既知のデータとからチップ部
品のコーナーの位置を求め、このコーナーの位置に基づ
いてノズル部材に吸着されたチップ部品の位置ずれ及び
傾きを求めるようにしたものである。To achieve the above object, the present invention provides an irradiating section for irradiating a chip component adsorbed on a nozzle member provided in a head unit of a mounting machine with light, A projection of the chip component is detected by an optical detection unit having a light receiving unit that receives light at a position facing the irradiation unit with the chip component interposed therebetween, and the chip adsorbed to the nozzle member based on the projection. In the method of detecting the position of a component, a plurality of point light sources for irradiating diffused light to the irradiating section are provided side by side, and the chip in the light receiving section is selectively irradiated with diffused light from the light sources to the chip component. Measure the projection of the component, as a process based on this component projection measurement, detect the distance from the predetermined reference position on the light receiving unit to the end of the projection, this distance,
The position of the corner of the chip component is determined from the known data about the positional relationship between the light source of the irradiation unit, the light receiving unit, and the nozzle member for the distance detection, and the position of the chip component adsorbed to the nozzle member is determined based on the position of the corner. The displacement and the inclination are determined.
【0011】この方法によると、チップ部品に対して照
射部のいずれかの光源が選択的に発光され、これにより
形成される受光部上での投影端部から基準位置までの距
離と、この距離検出にかかる光源、受光部及びノズル部
材の位置関係についての既知のデータとからチップ部品
のコーナーの位置が求められ、このコーナーの位置から
チップ部品の位置ずれ及び傾きが求められる。そのた
め、上記距離の最小値を求めるべくノズル部材を回転さ
せながら上記距離やノズル回転角の検出データを逐次サ
ンプリング、処理する従来装置に比べると、少ない検出
データでチップ部品の位置ずれ及び傾きを求めることが
可能となる。According to this method, any one of the light sources of the irradiating section selectively emits light to the chip component, and the distance from the projected end on the light receiving section formed by this to the reference position, and this distance The position of the corner of the chip component is determined from known data on the positional relationship between the light source, the light receiving unit, and the nozzle member involved in the detection, and the positional deviation and inclination of the chip component are determined from the position of the corner. Therefore, as compared with the conventional apparatus that sequentially samples and processes the detection data of the distance and the nozzle rotation angle while rotating the nozzle member to obtain the minimum value of the distance, the positional deviation and inclination of the chip component are obtained with less detection data. It becomes possible.
【0012】この方法において、上記複数の点状光源の
うちの異なる2つの光源から順次上記チップ部品に拡散
光を照射し、各光源からの拡散光に対応する上記受光部
上での基準位置から投影の端部までの距離をそれぞれ検
出し、これらの距離と、上記各光源、受光部及びノズル
部材の位置関係に基づいてチップ部品の1つのコーナー
の位置を求め、さらにこの処理を繰り返すことによりチ
ップ部品の少なくとも2つのコーナーの位置を求め、こ
れらのコーナーの位置に基づいてノズル部材に吸着され
たチップ部品の位置ずれ及び傾きを求めるようにすれ
ば、ノズル部材に吸着されたチップ部品の位置ずれ及び
傾きを容易に演算することが可能となる。In this method, the chip component is irradiated with diffused light sequentially from two different light sources among the plurality of point light sources, and a reference position on the light receiving section corresponding to the diffused light from each light source is obtained. By detecting the distances to the ends of the projections respectively, determining the position of one corner of the chip component based on these distances and the positional relationship between each of the light sources, the light receiving unit and the nozzle member, and repeating this process. If the positions of at least two corners of the chip component are obtained, and the positional deviation and inclination of the chip component adsorbed on the nozzle member are obtained based on the positions of these corners, the position of the chip component adsorbed on the nozzle member is obtained. The displacement and the inclination can be easily calculated.
【0013】また、ノズル部材を原点として上記照射部
と受光部の配置方向をX軸方向とするとともに、これに
直交する方向をY軸方向とし、第1のノズル回転角下で
上記複数の点状光源のうちの異なる2つの光源から順次
チップ部品に拡散光を照射してコーナーのY軸方向の位
置を求め、次にノズル部材を略90°回転させた第2の
ノズル回転角下で異なる2つの光源から順次チップ部品
に拡散光を照射して上記コーナーのY軸方向の位置を求
め、この第2のノズル回転角下での上記コーナーのY軸
方向の位置を第1の回転角下での上記コーナーのX軸方
向の位置として上記コーナーの位置を求めるようにすれ
ば、コーナーの位置をより精度よく求めることが可能と
なる。The direction of arrangement of the irradiating section and the light receiving section is defined as the X-axis direction with the nozzle member as the origin, and the direction orthogonal to the X-axis direction is defined as the Y-axis direction. The chip component is sequentially irradiated with diffused light from two different light sources among the two light sources to determine the position of the corner in the Y-axis direction, and then different under a second nozzle rotation angle obtained by rotating the nozzle member by approximately 90 °. The chip component is sequentially irradiated with diffused light from the two light sources to determine the Y-axis position of the corner, and the Y-axis position of the corner under the second nozzle rotation angle is determined by the first rotation angle. If the position of the corner is determined as the position of the corner in the X-axis direction, the position of the corner can be determined more accurately.
【0014】また、本発明は、実装機のヘッドユニット
に具備されているノズル部材に吸着されたチップ部品に
光を照射してチップ部品の投影を検出する光学的検知手
段を備えた実装機において、複数の点状の光源を有して
これらの光源から上記チップ部品に拡散光を照射する照
射部と、上記チップ部品を挾んで上記照射部と対向する
位置で光を受光する受光部とで上記光学的検知手段を構
成するとともに、上記照射部の各光源のうちチップ部品
のコーナーの投影に適した光源から選択的に拡散光を照
射させる手段と、上記受光部からの投影検出データと当
該投影検出データにかかる照射部の光源、受光部及びノ
ズル部材の位置関係を示す所定のデータとに基づいてチ
ップ部品の上記コーナーの位置を求め、このコーナーの
位置に基づいてノズル部材に吸着されたチップ部品の位
置ずれ及び傾きを求める演算処理手段とを設けたもので
ある。According to the present invention, there is provided a mounting machine provided with an optical detecting means for irradiating a chip component adsorbed on a nozzle member provided in a head unit of the mounting machine with light to detect a projection of the chip component. An irradiating section having a plurality of point light sources and irradiating the chip component with diffused light from these light sources; and a light receiving section receiving light at a position opposed to the irradiating section with the chip component interposed therebetween. Means for selectively irradiating diffused light from a light source suitable for projecting a corner of a chip component among the respective light sources of the irradiating section, and configuring the optical detection means, and projection detection data from the light receiving section. The position of the corner of the chip component is determined based on predetermined data indicating the positional relationship between the light source of the irradiation unit, the light receiving unit, and the nozzle member according to the projection detection data, and the position of the corner is determined based on the position of the corner. It is provided with a a processing means for determining the positional deviation and inclination of the adsorbed chip component seal member.
【0015】この装置によれば、上記のような方法に基
づいてノズル部材に吸着されたチップ部品の位置ずれ及
び傾きを自動的に求めることが可能となる。According to this apparatus, it is possible to automatically determine the displacement and the inclination of the chip component adsorbed on the nozzle member based on the above method.
【0016】[0016]
【発明の実施の形態】本発明の実施の形態を図面に基づ
いて説明する。Embodiments of the present invention will be described with reference to the drawings.
【0017】図1及び図2は、本発明の装置が具備され
る実装機の一例を示している。同図に示すように、実装
機の基台1上には、プリント基板搬送用のコンベア2が
配置され、プリント基板3が上記コンベア2上を搬送さ
れ、所定の装着作業位置で停止されるようになってい
る。上記コンベア2の側方には、部品供給部4が配置さ
れている。この部品供給部4は部品供給用のフィーダー
を備え、例えば多数列のテープフィーダー4aを備えて
いる。FIGS. 1 and 2 show an example of a mounting machine provided with the apparatus of the present invention. As shown in the figure, a conveyor 2 for transporting a printed board is arranged on a base 1 of a mounting machine, and a printed board 3 is transported on the conveyor 2 and stopped at a predetermined mounting work position. It has become. A component supply unit 4 is arranged on the side of the conveyor 2. The component supply unit 4 includes a component supply feeder, for example, a multi-row tape feeder 4a.
【0018】また、上記基台1の上方には、部品装着用
のヘッドユニット5が装備されている。このヘッドユニ
ット5は、部品供給部4とプリント基板3が位置する部
品装着部とにわたって移動可能とされ、当実施形態では
X軸方向(コンベア2の方向)及びY軸方向(水平面上
でX軸と直交する方向)に移動することができるように
なっている。Above the base 1, a head unit 5 for mounting components is provided. The head unit 5 is movable across the component supply unit 4 and the component mounting unit where the printed circuit board 3 is located. In this embodiment, the head unit 5 is in the X-axis direction (the direction of the conveyor 2) and the Y-axis direction (the X-axis on a horizontal plane). (In the direction perpendicular to the direction).
【0019】すなわち、上記基台1上には、Y軸方向の
固定レール7と、Y軸サーボモータ9により回転駆動さ
れるボールねじ軸8とが配設され、上記固定レール7上
にヘッドユニット支持部材11が配置されて、この支持
部材11に設けられたナット部分12が上記ボールねじ
軸8に螺合している。また、上記支持部材11には、X
軸方向に延びるガイド部材13と、X軸サーボモータ1
5により駆動されるボールねじ軸14とが配設され、上
記ガイド部材13にヘッドユニット5が移動可能に支持
され、かつ、このヘッドユニット5に設けられたナット
部分(図示せず)が上記ボールねじ軸14に螺合してい
る。そして、上記Y軸サーボモータ9の作動により上記
支持部材11がY軸方向に移動するとともに、X軸サー
ボモータ15の作動によりヘッドユニット5が支持部材
11に対してX軸方向に移動するようになっている。な
お、上記Y軸サーボモータ9及びX軸サーボモータ15
には、それぞれの駆動位置を検出するエンコーダ10,
16が具備されている。That is, a fixed rail 7 in the Y-axis direction and a ball screw shaft 8 driven to rotate by a Y-axis servomotor 9 are disposed on the base 1, and a head unit is mounted on the fixed rail 7. A support member 11 is provided, and a nut portion 12 provided on the support member 11 is screwed to the ball screw shaft 8. The support member 11 has X
An axially extending guide member 13 and an X-axis servomotor 1
The head unit 5 is movably supported by the guide member 13, and a nut portion (not shown) provided on the head unit 5 is attached to the ball screw shaft 14. It is screwed to the screw shaft 14. The operation of the Y-axis servomotor 9 causes the support member 11 to move in the Y-axis direction, and the operation of the X-axis servomotor 15 causes the head unit 5 to move in the X-axis direction with respect to the support member 11. Has become. The Y-axis servo motor 9 and the X-axis servo motor 15
Have encoders 10, which detect the respective drive positions,
16 are provided.
【0020】上記ヘッドユニット5には、チップ部品を
吸着するためのノズル部材21が設けられている。この
ノズル部材21は、上記ヘッドユニット5のフレームに
対してZ軸方向(上下方向)の移動及びR軸(ノズル中
心軸)回りの回転が可能に取り付けられており、Z軸サ
ーボモータ22及びR軸サーボモータ24により作動さ
れるようになっている。上記Z軸サーボモータ22及び
R軸サーボモータ24には、それぞれの駆動位置を検出
するエンコーダ23,25が具備されている。また、ノ
ズル部材21にはバルブ等を介して負圧供給手段が接続
されており、部品吸着時には所定のタイミングで負圧供
給手段からの負圧がノズル部材21の先端に供給される
ようになっている。The head unit 5 is provided with a nozzle member 21 for sucking chip components. The nozzle member 21 is attached to the frame of the head unit 5 so as to be able to move in the Z-axis direction (vertical direction) and rotate around the R-axis (nozzle center axis). It is operated by a shaft servomotor 24. The Z-axis servo motor 22 and the R-axis servo motor 24 are provided with encoders 23 and 25 for detecting respective drive positions. Further, a negative pressure supply means is connected to the nozzle member 21 via a valve or the like, so that a negative pressure from the negative pressure supply means is supplied to the tip of the nozzle member 21 at a predetermined timing during component suction. ing.
【0021】上記ヘッドユニット5の下端部には、光学
的検知手段を構成する検知ユニット30が取付けられて
いる。この検知ユニット30は、図3及び図4に示すよ
うに、ノズル部材21にチップ部品20が吸着されてい
る状態においてその部品20に光を照射し、部品20の
投影を検出するものであり、ノズル部材21が上下動す
るときに通過する空間37を挾んで相対向する位置に照
射部31及び受光部35を有している。At the lower end of the head unit 5, a detection unit 30 constituting optical detection means is mounted. As shown in FIGS. 3 and 4, the detection unit 30 irradiates light to the chip component 20 in a state where the chip component 20 is attracted to the nozzle member 21, and detects the projection of the component 20. The irradiation unit 31 and the light receiving unit 35 are provided at positions facing each other across a space 37 through which the nozzle member 21 moves up and down.
【0022】上記検知ユニット30の照射部31には、
例えばLEDからなる複数の点状の光源が設けられてい
る。図示の例では、8つの光源32a〜32h(第1光
源32a〜第8光源32h)がY軸方向に所定の間隔で
並べて設けられているとともに、これらの各光源32a
〜32hの照射方向前方(上記空間37に面する側)に
位置する壁板33に略水平に延びるスリット34が形成
されており、上記光源32からスリット34を介し、略
水平に広がる拡散光が照射されるようになっている。一
方、上記受光部35には、CCD等の受光素子を線状に
配列したラインセンサ36が設けられている。The irradiation unit 31 of the detection unit 30 includes
For example, a plurality of point light sources including LEDs are provided. In the illustrated example, eight light sources 32a to 32h (first light source 32a to eighth light source 32h) are provided side by side at predetermined intervals in the Y-axis direction.
A slit 34 extending substantially horizontally is formed in the wall plate 33 located in front of the irradiation direction (to the side facing the space 37) from the light source 32 to the diffused light that spreads substantially horizontally from the light source 32 through the slit 34. It is designed to be irradiated. On the other hand, the light receiving section 35 is provided with a line sensor 36 in which light receiving elements such as CCDs are linearly arranged.
【0023】図5は制御系統の概略構成をブロック図で
示している。この図において、実装機に装備される制御
装置40は、チップ部品吸着状態を調べる演算処理手段
としての機能を有するCPU41と、実装機の駆動のた
めのモータ制御部42と、上記検知ユニット30の受光
部35からの信号を処理するA/D変換部43及びデー
タ取込み制御部44と、メモリ45と、上記検知ユニッ
ト30の第1光源32a〜第8光源32hの各光源を選
択的に発光させる光源制御部46とを有している。FIG. 5 is a block diagram showing a schematic configuration of the control system. In this figure, a control device 40 mounted on a mounting machine includes a CPU 41 having a function as an arithmetic processing unit for checking a chip component suction state, a motor control unit 42 for driving the mounting machine, An A / D converter 43 and a data acquisition controller 44 for processing a signal from the light receiving unit 35, a memory 45, and light sources of the first light source 32a to the eighth light source 32h of the detection unit 30 are selectively made to emit light. And a light source controller 46.
【0024】上記モータ制御部42にはY軸,X軸,Z
軸及びR軸の各サーボモータ9,15,22,24が接
続され、上記CPU41からの指令に応じてモータ制御
部42により各サーボモータ9,15,22,24の駆
動が制御されるようになっている。また、上記CPU4
1からの指令に応じて光源制御部46により上記第1光
源32a〜第8光源32hが選択的に発光させられ、上
記検知ユニット30の受光部35から送られてくる測定
データがA/D変換部43を介してデータ取込み制御部
44により取り込まれ、メモリ45に記憶されるととも
に、このデータがCPU41により読み出されるように
なっている。The motor control unit 42 has a Y axis, an X axis, a Z axis,
The axis and R axis servo motors 9, 15, 22, and 24 are connected, and the drive of each servo motor 9, 15, 22, 24 is controlled by the motor control unit 42 in response to a command from the CPU 41. Has become. The CPU 4
The first light source 32a to the eighth light source 32h are selectively caused to emit light by the light source control unit 46 in response to a command from the first unit 1, and the measurement data sent from the light receiving unit 35 of the detection unit 30 is subjected to A / D conversion. The data is fetched by the data fetch control unit 44 via the unit 43 and stored in the memory 45, and this data is read by the CPU 41.
【0025】上記CPU41は、上記ヘッドユニット5
のノズル部材21による部品吸着、上記検知ユニット3
0を用いた部品吸着状態の検出、プリント基板3への部
品装着を順次行なうように、上記モータ制御部42を介
して上記各モータ9,15,22,24を制御するとと
もに、部品吸着状態の検出時には、上記光源制御部46
を介して各第1光源32a〜第8光源32hから選択的
に拡散光を照射させて上記データ取込み制御部44に上
記検知ユニット30の受光部35からの投影検出データ
の取り込みを行なわせ、この投影検出データと上記第1
光源32a〜第8光源32h、受光部35及びノズル部
材21の位置関係を示す所定のデータとに基づいて上記
ノズル部材21による部品吸着状態、すなわちノズル部
材21に対するチップ部品20の位置ずれ及び傾きを調
べる。The CPU 41 includes the head unit 5
Suction by the nozzle member 21 of the detection unit 3
The motors 9, 15, 22, 24 are controlled via the motor control unit 42 so that the detection of the component suction state using the “0” and the mounting of the components on the printed circuit board 3 are sequentially performed. At the time of detection, the light source control unit 46
The first light source 32a to the eighth light source 32h are selectively irradiated with diffused light via the light source, and the data capture control unit 44 captures the projection detection data from the light receiving unit 35 of the detection unit 30. The projection detection data and the first
Based on predetermined data indicating the positional relationship between the light sources 32a to 32h, the light receiving unit 35, and the nozzle member 21, the component suction state by the nozzle member 21, that is, the positional shift and inclination of the chip component 20 with respect to the nozzle member 21 are determined. Find out.
【0026】上記部品吸着状態の検出は、例えば、上記
検知ユニット30において、第1光源32a〜第8光源
32hのうち予め定められた2組の光源から順次拡散光
を照射して受光部35における部品の投影を測定し、上
記受光部35上で後述の基準位置から各光源による投影
の端部までの距離を検出し、この距離と照射部31の上
記2組の光源、受光部35及びノズル部材21の位置関
係についての既知のデータとからチップ部品20の1つ
のコーナーの位置を求める。そして、同様に異なる2組
の光源を順次発光させてチップ部品20の他の2つのコ
ーナーの位置を求め、合計3つのコーナーの位置に基づ
き、ノズル部材21に吸着されたチップ部品20の位置
ずれ(ノズル中心に対する部品中心のずれ)及び傾きを
調べ、それに対応した装着位置の補正量であるX方向補
正量ΔX、Y方向補正量ΔY及び回転角補正量Δθを演
算するようになっている。The detection of the component suction state is carried out, for example, by detecting light in the detection unit 30 by sequentially irradiating diffused light from two predetermined light sources among the first light source 32a to the eighth light source 32h. The projection of the component is measured, and the distance from a reference position, which will be described later, to the end of the projection by each light source is detected on the light receiving unit 35. The distance and the two sets of light sources of the irradiation unit 31, the light receiving unit 35, and the nozzle The position of one corner of the chip component 20 is determined from known data on the positional relationship of the member 21. Similarly, two different sets of light sources sequentially emit light to determine the positions of the other two corners of the chip component 20, and based on the positions of the three total corners, the displacement of the chip component 20 sucked by the nozzle member 21. The displacement of the component center with respect to the nozzle center and the inclination are checked, and the X-direction correction amount ΔX, the Y-direction correction amount ΔY, and the rotation angle correction amount Δθ, which are the corresponding correction amounts of the mounting position, are calculated.
【0027】このような処理を図6〜図12を用いて具
体的に説明する。なお、これらの図において、Cnはチ
ップ部品の回転中心であるノズル中心(ノズル部材21
の中心)、Ccはチップ部品20の中心、Oは受光部3
5上の原点(基準位置)であり図示の例では第4光源3
2dに対応している。また、Roは光源32と原点Oと
を結ぶ中心線、Rcは上記中心線Roと直交して上記ノ
ズル中心Cnを通る線である。また、これらの図に示す
例では、上記ノズル中心Cnは上記中心線Ro上に位置
している。Such a process will be specifically described with reference to FIGS. In these figures, Cn is the center of the nozzle (the nozzle member 21) which is the center of rotation of the chip component.
, Cc is the center of the chip component 20, O is the light receiving section 3
5, a fourth light source 3 in the illustrated example.
2d. Ro is a center line connecting the light source 32 and the origin O, and Rc is a line passing through the nozzle center Cn at right angles to the center line Ro. Further, in the examples shown in these figures, the nozzle center Cn is located on the center line Ro.
【0028】例えば、図6に示すようなチップ部品20
の吸着状態において、ノズル中心Cnを原点とするX−
Y座標系を考え、チップ部品20の中心Ccの座標を
(X0,Y0)、チップ部品20の対角線上のコーナー
P1,P2の座標をそれぞれ(X1,Y1),(X2,
Y2)とすると、チップ部品20の中心Ccの座標、す
なわちチップ部品20の位置ずれは次ぎのように求めら
れる。For example, as shown in FIG.
In the suction state of X, X-
Considering the Y coordinate system, the coordinates of the center Cc of the chip component 20 are (X0, Y0), and the coordinates of the diagonal corners P1, P2 of the chip component 20 are (X1, Y1), (X2,
Assuming that Y2), the coordinates of the center Cc of the chip component 20, that is, the displacement of the chip component 20 are obtained as follows.
【0029】[0029]
【数1】X0=(X1+X2)/2 Y0=(Y1+Y2)/2 また、上記コーナーP1,P2以外のコーナーP3の座
標を(X3,Y3)とすると、チップ部品20の傾きθ
(回転角)は次のように求められる。X0 = (X1 + X2) / 2 Y0 = (Y1 + Y2) / 2 If the coordinates of the corner P3 other than the corners P1 and P2 are (X3, Y3), the inclination θ of the chip component 20
(Rotation angle) is obtained as follows.
【0030】[0030]
【数2】tanθ=(Y3−Y1)/(X3−X1) 従っ
て、 θ=arc tan{(Y3−Y1)/(X3−X1)} そこで、先ず、第1光源32a及び第2光源32bから
順次拡散光を照射し、上記受光部35上での原点Oから
部品投影の端部までの距離、つまり同図に示すように原
点OからコーナーP1によって光が遮断されることによ
り形成される投影端部までの距離L,L′をそれぞれ測
定し、各光源32a,32bの光による部品投影端部の
Y座標を求める。具体的には、実測値の符号を考慮する
ことにより容易にY座標を求めることができる。Tan θ = (Y3-Y1) / (X3-X1) Therefore, θ = arc tan {(Y3-Y1) / (X3-X1)} Therefore, first, the first light source 32a and the second light source 32b The projection is formed by sequentially irradiating diffused light, and the distance from the origin O on the light receiving unit 35 to the end of the component projection, that is, the light is blocked by the corner P1 from the origin O as shown in FIG. The distances L and L 'to the ends are measured, and the Y coordinate of the end of the component projected by the light from the light sources 32a and 32b is determined. Specifically, the Y coordinate can be easily obtained by considering the sign of the actually measured value.
【0031】ここで、 Zo;各光源32a〜32hからノズル中心Cnまでの
距離 Z ;各光源32a〜32hから受光部35までの距離 Le1〜Le8;各光源32a〜32hのY座標 とし、第1光源32aの光による部品投影の端部のY座
標をL1、第2光源32bの光による投影端部のY座標
をL2とすると、以下の2式が成立する。Here, Zo: the distance from each of the light sources 32a to 32h to the nozzle center Cn Z; the distance from each of the light sources 32a to 32h to the light receiving unit 35 Le1 to Le8; the Y coordinate of each of the light sources 32a to 32h; If the Y coordinate of the end of the component projection by the light of the light source 32a is L1 and the Y coordinate of the end of the projection by the light of the second light source 32b is L2, the following two equations are established.
【0032】[0032]
【数3】 (Zo−X1)/Z=(Le1−Y1)/(Le1−L1) (Zo−X1)/Z=(Le2−Y1)/(Le2−L2) 従って、これらの式からコーナーP1の座標は次のよう
に求められる。(Zo-X1) / Z = (Le1-Y1) / (Le1-L1) (Zo-X1) / Z = (Le2-Y1) / (Le2-L2) Therefore, the corner P1 Are obtained as follows.
【0033】[0033]
【数4】Y1=(Le1・L2−Le2・L1)/{(Le1
−L1)−(Le2−L2)} X1=Zo−Z・(Le1−Le2)/{(Le1−L1)−
(Le2−L2)} また、同様にして、図7に示すように第3光源32c及
び第4光源32dから順次拡散光を照射し、受光部35
上での原点OからコーナーP2によって光が遮断される
ことにより形成される投影端部までの距離L,L′をそ
れぞれ測定して各光源32c,32dの光による投影端
部のY座標を求める。ここで、第3光源32cの光によ
る投影端部のY座標をL1、第4光源32dの光による
投影端部のY座標をL2とすると以下の2式が成立す
る。## EQU4 ## Y1 = (Le1 · L2-Le2 · L1) / {(Le1
-L1)-(Le2-L2)} X1 = Zo-Z · (Le1-Le2) / {(Le1-L1)-
(Le2-L2)} Similarly, as shown in FIG. 7, the third light source 32c and the fourth light source 32d sequentially emit diffused light, and
The distances L and L 'from the origin O above to the projection end formed by blocking the light by the corner P2 are measured to determine the Y coordinate of the projection end by the light from the light sources 32c and 32d. . Here, assuming that the Y coordinate of the projection end by the light of the third light source 32c is L1, and the Y coordinate of the projection end by the light of the fourth light source 32d is L2, the following two equations are established.
【0034】[0034]
【数5】 (Zo−X2)/Z=(Le3−Y2)/(Le3−L1) (Zo−X2)/Z=(Le4−Y2)/(Le4−L2) 従って、コーナーP2の座標は次ぎのように求められ
る。(Zo-X2) / Z = (Le3-Y2) / (Le3-L1) (Zo-X2) / Z = (Le4-Y2) / (Le4-L2) Therefore, the coordinates of the corner P2 are as follows. Is required.
【0035】[0035]
【数6】Y2=(Le3・L2−Le4・L1)/{(Le3
−L1)−(Le4−L2)} X2=Zo−Z・(Le3−Le4)/{(Le3−L1)−
(Le4−L2)} さらに、図8に示すように第5光源32e及び第6光源
32fから順次拡散光を照射し、受光部35上での原点
OからコーナーP3によって光が遮断されることにより
形成される投影端部までの距離をそれぞれ測定して各光
源32e,32fの光による投影端部のY座標を求め
る。ここで、第5光源32eの光による投影端部のY座
標をL1、第6光源32fの光による投影端部のY座標
をL2とすると以下の2式が成立する。Y2 = (Le3 · L2-Le4 · L1) / {(Le3
−L1) − (Le4-L2)} X2 = Zo−Z · (Le3-Le4) / {(Le3-L1) −
(Le4-L2)} Further, as shown in FIG. 8, the fifth light source 32e and the sixth light source 32f sequentially emit diffused light, and the light is blocked by the corner P3 from the origin O on the light receiving unit 35. The distance to the formed projection end is measured, and the Y coordinate of the projection end by the light of each of the light sources 32e and 32f is determined. Here, assuming that the Y coordinate of the projection end by the light of the fifth light source 32e is L1 and the Y coordinate of the projection end by the light of the sixth light source 32f is L2, the following two equations are established.
【0036】[0036]
【数7】 (Zo−X3)/Z=(Le5−Y3)/(Le5−L1) (Zo−X3)/Z=(Le6−Y3)/(Le6−L2) 従って、コーナーP3の座標は次ぎのように求められ
る。(Zo-X3) / Z = (Le5-Y3) / (Le5-L1) (Zo-X3) / Z = (Le6-Y3) / (Le6-L2) Therefore, the coordinates of the corner P3 are as follows. Is required.
【0037】[0037]
【数8】Y3=(Le5・L2−Le6・L1)/{(Le5
−L1)−(Le6−L2)} X3=Zo−Z・(Le5−Le6)/{(Le5−L1)−
(Le6−L2)} すなわち、Zo,Z及びLe1〜Le6は予め調べられ
た既知の値であり、従って、受光部35上での原点Oか
ら部品投影端部までの距離L,L′を検出することによ
りコーナーP1,P2及びP3の各座標が求められ、こ
れらの各コーナーP1,P2及びP3の座標と上記数1
及び数2とからチップ部品20の位置ずれ及び傾きが求
められる。そして、この位置ずれ及び傾きに基づいてX
方向補正量ΔX、Y方向補正量ΔY及び回転角補正量Δ
θが求められる。Y8 = (Le5 · L2-Le6 · L1) / {(Le5
−L1) − (Le6-L2)} X3 = Zo−Z · (Le5-Le6) / {(Le5-L1) −
(Le6−L2)} That is, Zo, Z and Le1 to Le6 are known values checked in advance, and therefore, the distances L and L ′ from the origin O on the light receiving unit 35 to the component projection end are detected. Then, the coordinates of the corners P1, P2, and P3 are obtained.
From Equation 2 and Equation 2, the displacement and inclination of the chip component 20 are obtained. Then, based on the displacement and the inclination, X
Direction correction amount ΔX, Y direction correction amount ΔY, and rotation angle correction amount Δ
θ is required.
【0038】ところで、上記のようにして各コーナーP
1,P2及びP3の各座標を求める処理では、X軸方向
の検出精度とY軸方向の検出精度に差がある。By the way, as described above, each corner P
In the process of obtaining the coordinates of 1, P2, and P3, there is a difference between the detection accuracy in the X-axis direction and the detection accuracy in the Y-axis direction.
【0039】すなわち、図12に示すようにチップ部品
20(実線に示す)をX軸方向及びY軸方向にそれぞれ
等距離(PΔX=PΔY)だけ変位させたときのコーナ
ーP1(それぞれ二点鎖線に示す)による受光部35上
での投影端部の変化量を比較した場合、αが充分に小さ
いときは、図示のようにチップ部品20をY軸方向に変
位させたときの変化量ΔLYに比べ、X軸方向に変位さ
せたときの変化量ΔLXが極めて小さくなる。That is, as shown in FIG. 12, when the chip component 20 (shown by a solid line) is displaced by the same distance (PΔX = PΔY) in the X-axis direction and the Y-axis direction, respectively, When α is sufficiently small, as compared with the variation ΔLY when the chip component 20 is displaced in the Y-axis direction as shown in FIG. , The amount of change ΔLX when displaced in the X-axis direction becomes extremely small.
【0040】そこで、X軸方向の座標をより精度良く求
める工夫として、図6〜図8に示す状態からノズル部材
21を90°回転させ、この状態で第1光源32a〜第
8光源32hから拡散光を照射して受光部35上での原
点Oから部品投影の端部までの距離を測定し、各コーナ
ーP1,P2及びP3のY軸座標を上記と同様にして求
めるようにする。つまり、チップ部品20を90°回転
させて各コーナーP1,P2及びP3のY軸座標を検出
することにより、回転前の各コーナーP1,P2及びP
3のX軸座標をY軸座標に変換して検出するようにす
る。Therefore, as a device for obtaining the coordinates in the X-axis direction with higher accuracy, the nozzle member 21 is rotated by 90 ° from the state shown in FIGS. 6 to 8, and in this state, the light is diffused from the first light source 32a to the eighth light source 32h. By irradiating light, the distance from the origin O on the light receiving unit 35 to the end of the component projection is measured, and the Y-axis coordinates of the corners P1, P2, and P3 are obtained in the same manner as described above. That is, by rotating the chip component 20 by 90 degrees and detecting the Y-axis coordinates of the corners P1, P2, and P3, the corners P1, P2, and P before rotation are detected.
The X-axis coordinate of No. 3 is converted into the Y-axis coordinate to be detected.
【0041】具体的には、図9に示すように、第5光源
32e及び第6光源32fから順次拡散光を照射し、上
記受光部35上での原点OからコーナーP1によって光
が遮断されることにより形成される部品投影の端部まで
の距離L,L′をそれぞれ測定し、これに基づいて各光
源32e,32fの光による投影端部のY座標を求め
る。そして、第5光源32eの光による投影端部のY座
標をL1、第6光源32fの光による投影端部のY座標
をL2、コーナーP1の座標を(X1′,Y1′)とす
ると、Specifically, as shown in FIG. 9, the fifth light source 32e and the sixth light source 32f sequentially emit diffused light, and the light is blocked by the corner P1 from the origin O on the light receiving section 35. The distances L and L 'to the ends of the component projections thus formed are measured, and the Y coordinates of the projection ends of the light sources 32e and 32f are obtained based on the measured distances. Then, assuming that the Y coordinate of the projection end by the light of the fifth light source 32e is L1, the Y coordinate of the projection end by the light of the sixth light source 32f is L2, and the coordinates of the corner P1 are (X1 ', Y1').
【0042】[0042]
【数9】 (Zo−X1′)/Z=(Le5−Y1′)/(Le5−L1) (Zo−X1′)/Z=(Le6−Y1′)/(Le6−L2) が成立し、これらの式からコーナーP1のY軸座標は次
のように求められる。(Zo-X1 ') / Z = (Le5-Y1') / (Le5-L1) (Zo-X1 ') / Z = (Le6-Y1') / (Le6-L2) From these equations, the Y-axis coordinate of the corner P1 is obtained as follows.
【0043】[0043]
【数10】Y1′=(Le5・L2−Le6・L1)/{(L
e5−L1)−(Le6−L2)} 従って、部品回転前のコーナーP1のX軸座標は次のよ
うになる。Y1 '= (Le5 · L2-Le6 · L1) / {(L
e5-L1)-(Le6-L2)} Accordingly, the X-axis coordinates of the corner P1 before the component rotation are as follows.
【0044】[0044]
【数11】X1=−Y1′ 同様に、図10に示すように第7光源32g及び第8光
源32hから順次拡散光を照射し、受光部35上での原
点OからコーナーP2によって光が遮断されることによ
り形成される投影端部までの距離L,L′をそれぞれ測
定して各光源32g,32hの光による投影端部のY座
標を求める。そして、第7光源32gの光による投影端
部のY座標をL1、第8光源32hの光による投影端部
のY座標をL2、コーナーP2の座標を(X2′,Y
2′)とすると、X1 = -Y1 'Similarly, as shown in FIG. 10, diffused light is sequentially emitted from the seventh light source 32g and the eighth light source 32h, and the light is blocked by the corner P2 from the origin O on the light receiving section 35. Then, the distances L and L 'to the projection end formed as a result are measured to determine the Y coordinate of the projection end by the light from the light sources 32g and 32h. Then, the Y coordinate of the projection end by the light of the seventh light source 32g is L1, the Y coordinate of the projection end by the light of the eighth light source 32h is L2, and the coordinates of the corner P2 are (X2 ', Y
2 ')
【0045】[0045]
【数12】 (Zo−X2′)/Z=(Le7−Y2′)/(Le7−L1) (Zo−X2′)/Z=(Le8−Y2′)/(Le8−L2) が成立し、これらの式からコーナーP2のY軸座標は次
ぎのように求められる。(Zo−X2 ′) / Z = (Le7−Y2 ′) / (Le7−L1) (Zo−X2 ′) / Z = (Le8−Y2 ′) / (Le8−L2) From these equations, the Y-axis coordinate of the corner P2 is obtained as follows.
【0046】[0046]
【数13】Y2′=(Le7・L2−Le8・L1)/{(L
e7−L1)−(Le8−L2)} 従って、部品回転前のコーナーP2のX軸座標は次のよ
うになる。Y2 ′ = (Le7 · L2-Le8 · L1) / {(L
e7-L1)-(Le8-L2)} Accordingly, the X-axis coordinates of the corner P2 before the component rotation are as follows.
【0047】[0047]
【数14】X2=−Y2′ さらに、図11に示すように第3光源32c及び第4光
源32dから順次拡散光を照射し、受光部35上での原
点OからコーナーP3により光が遮断されることにより
形成される投影端部までの距離L,L′をそれぞれ測定
して各光源32c,32dの光による投影端部のY座標
を求める。そして、第3光源32cの光による投影端部
のY座標をL1、第4光源32dの光による投影端部の
Y座標をL2、コーナーP3の座標を(X3′,Y
3′)とすると、X2 = -Y2 'Further, as shown in FIG. 11, the third light source 32c and the fourth light source 32d sequentially emit diffused light, and the light is blocked by the corner P3 from the origin O on the light receiving section 35. Then, the distances L and L 'to the projection end formed by the measurement are measured, and the Y coordinate of the projection end by the light from the light sources 32c and 32d is obtained. Then, the Y coordinate of the projection end of the light from the third light source 32c is L1, the Y coordinate of the projection end of the light of the fourth light source 32d is L2, and the coordinates of the corner P3 are (X3 ', Y
3 ')
【0048】[0048]
【数15】 (Zo−X3′)/Z=(Le3−Y3′)/(Le3−L1) (Zo−X3′)/Z=(Le4−Y3′)/(Le4−L2) が成立し、これらの式からコーナーP3のY軸座標は次
ぎのように求められる。(Zo-X3 ') / Z = (Le3-Y3') / (Le3-L1) (Zo-X3 ') / Z = (Le4-Y3') / (Le4-L2) From these equations, the Y-axis coordinate of the corner P3 is obtained as follows.
【0049】[0049]
【数16】Y3′=(Le3・L2−Le4・L1)/{(L
e3−L1)−(Le4−L2)} 従って、部品回転前のコーナーP3のX軸座標は次のよ
うになる。Y3 '= (Le3 · L2-Le4 · L1) / {(L
e3-L1)-(Le4-L2)} Accordingly, the X-axis coordinates of the corner P3 before the component rotation are as follows.
【0050】[0050]
【数17】X3=−Y3′ このようにしてチップ部品20の各コーナーP1,P2
及びP3のX軸座標を求めることで、X軸座標及びY軸
方向の各検出精度をほぼ等しくすることができる。X3 = -Y3 'Thus, each corner P1, P2 of the chip component 20 is obtained.
And the X-axis coordinates of P3, the detection accuracy in the X-axis coordinates and the detection accuracy in the Y-axis direction can be made substantially equal.
【0051】次に、上記制御装置40によって行なわれ
る部品実装のための制御の一例を、図13のフローチャ
ートに従って説明する。Next, an example of control for component mounting performed by the control device 40 will be described with reference to the flowchart of FIG.
【0052】図13のフローチャートに示す処理がスタ
ートすると、先ず部品供給部側へのヘッドユニット5の
X,Y方向の移動とノズル部材21の回転(θ移動)が
行なわれ(ステップS1)、所定位置まで移動するとノ
ズル部材21が下降され(ステップS2)、チップ部品
20の吸着が行なわれる(ステップS3)。次いで、チ
ップ部品20が検知ユニット30の照射部31及び受光
部35に対応する部品検出用高さ位置までノズル部材2
1が上昇させられる(ステップS4)。部品検出用高さ
位置に達すると、次に述べるような部品位置検出処理に
移る。When the process shown in the flowchart of FIG. 13 starts, first, the movement of the head unit 5 in the X and Y directions toward the component supply unit and the rotation (θ movement) of the nozzle member 21 are performed (step S1), When the nozzle member 21 is moved to the position, the nozzle member 21 is lowered (step S2), and the chip component 20 is sucked (step S3). Next, the nozzle member 2 is moved until the chip component 20 reaches a component detection height position corresponding to the irradiation unit 31 and the light receiving unit 35 of the detection unit 30.
1 is raised (step S4). Upon reaching the component detection height position, the process proceeds to a component position detection process described below.
【0053】部品位置検出処理としては、照射部31の
第1光源32a及び第2光源32bから順次拡散光が照
射されるとともに、これらの各照射に対応して上記検知
ユニット30の受光部35からの測定データが読み込ま
れ、チップ部品20のコーナーP1のY軸座標(Y1)
が求められる(ステップS5〜ステップS7)。同様に
して、第3光源32c及び第4光源32dから順次拡散
光が照射されて、これらの各照射に対応して検知ユニッ
ト30の受光部35からの測定データが読み込まれ、チ
ップ部品20のコーナーP2のY軸座標(Y2)が求め
られ、さらに、第5光源32e及び第6光源32fから
の照射にる受光部35からの測定データが読み込まれ、
チップ部品20のコーナーP3のY軸座標(Y3)が求
められる(ステップS8〜ステップS13)。In the component position detecting process, the diffused light is sequentially emitted from the first light source 32a and the second light source 32b of the irradiating section 31, and the light receiving section 35 of the detecting unit 30 is correspondingly illuminated. Is read, and the Y-axis coordinate (Y1) of the corner P1 of the chip component 20 is read.
Is obtained (steps S5 to S7). Similarly, diffused light is sequentially emitted from the third light source 32c and the fourth light source 32d, and measurement data from the light receiving unit 35 of the detection unit 30 is read in response to each of these illuminations. The Y-axis coordinate (Y2) of P2 is obtained, and the measurement data from the light receiving unit 35 for irradiation from the fifth light source 32e and the sixth light source 32f is read.
The Y-axis coordinates (Y3) of the corner P3 of the chip component 20 are obtained (Steps S8 to S13).
【0054】そして、ノズル部材21が略90°回転さ
れてから(ステップS14)、照射部31の第5光源3
2e及び第6光源32fから順次拡散光が照射され、各
照射に対応して上記検知ユニット30の受光部35から
の測定データが読み込まれ、このデータに基づいてY軸
座標(Y1′)が求められることによりノズル回転前の
チップ部品20におけるコーナーP1のX軸座標(X
1)が求められる(ステップS15〜ステップS1
7)。同様にして、第7光源32g及び第8光源32h
から順次拡散光が照射されて、これらの各照射に対応し
て検知ユニット30の受光部35からの測定データが読
み込まれ、ノズル回転前のコーナーP2のX軸座標(X
2)が求められ、さらに、第3光源32c及び第4光源
32dからの照射にる受光部35からの測定データが読
み込まれ、ノズル回転前のコーナーP3のY軸座標(X
3)が求められる(ステップS18〜ステップS2
3)。Then, after the nozzle member 21 is rotated by about 90 ° (step S14), the fifth light source 3
2e and the sixth light source 32f sequentially irradiate diffused light, read measurement data from the light receiving unit 35 of the detection unit 30 corresponding to each irradiation, and determine a Y-axis coordinate (Y1 ') based on the data. As a result, the X-axis coordinate (X
1) is obtained (step S15 to step S1)
7). Similarly, the seventh light source 32g and the eighth light source 32h
From the light receiving unit 35 of the detection unit 30 corresponding to each of these irradiations, and the X-axis coordinates (X
2) is obtained, and further, measurement data from the light receiving unit 35 for irradiation from the third light source 32c and the fourth light source 32d is read, and the Y-axis coordinates (X
3) is obtained (Steps S18 to S2)
3).
【0055】そして、これらステップS5〜S23の処
理で求められる各コーナーP1,P2及びP3の座標デ
ータに基づき補正量ΔX,ΔY,Δθが求められる(ス
テップS24)。Then, the correction amounts ΔX, ΔY, Δθ are obtained based on the coordinate data of the corners P1, P2, and P3 obtained in the processing of steps S5 to S23 (step S24).
【0056】このような部品位置検出処理が済むと、上
記補正量ΔX,ΔY,Δθによる装着位置の補正が行な
われる(ステップS25)。つまり、上記補正量ΔX,
ΔYだけ補正されたX,Y方向の目標装着位置にノズル
部材21が達するようにX軸サーボモータ15及びY軸
サーボモータ9が制御されるとともに、ノズル部材21
の回転角が上記補正量Δθだけ補正された目標回転角と
なるようにR軸サーボモータ24が制御される。それか
ら、ノズル部材21が下降されてプリント基板3上に部
品20が装着される(ステップS26)。After completion of the component position detection process, the mounting position is corrected based on the correction amounts ΔX, ΔY, and Δθ (step S25). That is, the correction amount ΔX,
The X-axis servomotor 15 and the Y-axis servomotor 9 are controlled such that the nozzle member 21 reaches the target mounting position in the X and Y directions corrected by ΔY, and the nozzle member 21 is controlled.
The R-axis servomotor 24 is controlled such that the rotation angle of the R becomes the target rotation angle corrected by the correction amount Δθ. Then, the nozzle member 21 is lowered and the component 20 is mounted on the printed board 3 (Step S26).
【0057】以上説明した上記実施形態の装置による
と、チップ部品20に対して照射部31の第1光源32
a〜第8光源32hが選択的に発光されて、これにより
形成される受光部35上での投影端部から原点Oまでの
距離の検出データと第1光源32a〜第8光源32h、
受光部35及びノズル部材21の位置関係を示す既知の
データ(光源32からノズル中心Cnまでの距離Zo、
光源32から受光部35までの距離Z及び直線Rcから
各光源32a〜32hまでの距離Le1〜Le8)とか
らチップ部品20のコーナーP1,P2及びP3の位置
が求められ、これに基づいてノズル中心位置Cnと部品
中心位置Ccとの間の位置ずれやノズル回転方向の角度
のずれに応じた補正量ΔX,ΔY,Δθが求められる。
そのため、受光部上での投影端部までの距離の最小値を
求めるべくノズル部材を回転させながら上記距離やノズ
ル回転角の検出データを逐次サンプリング、処理する従
来の装置に比べると、チップ部品の位置ずれ等を調べる
ために検出、処理すべきデータが極めて少なくてすみ、
従って、チップ部品の位置ずれ等を調べるたための処理
に要する時間を効果的に短縮することができる。According to the apparatus of the above-described embodiment, the first light source 32 of the irradiation unit 31 is
a to the eighth light source 32h are selectively emitted, and the detection data of the distance from the projection end to the origin O on the light receiving unit 35 formed by the light source and the first light source 32a to the eighth light source 32h,
Known data indicating the positional relationship between the light receiving unit 35 and the nozzle member 21 (the distance Zo from the light source 32 to the nozzle center Cn,
The positions of the corners P1, P2 and P3 of the chip component 20 are obtained from the distance Z from the light source 32 to the light receiving portion 35 and the distances Le1 to Le8 from the straight line Rc to the light sources 32a to 32h, and based on this, the nozzle center is determined. The correction amounts ΔX, ΔY, Δθ according to the positional deviation between the position Cn and the component center position Cc and the angular deviation in the nozzle rotation direction are obtained.
Therefore, compared to a conventional device that sequentially samples and processes the above-described distance and nozzle rotation angle detection data while rotating the nozzle member to obtain the minimum value of the distance to the projection end on the light receiving unit, the chip component is Very little data needs to be detected and processed to check for positional deviations, etc.
Therefore, it is possible to effectively reduce the time required for processing for examining the displacement of the chip component and the like.
【0058】特に、投影端部までの距離の最小値を求め
るべくノズル部材を回転させながら処理を行う従来の装
置では、チップ部品のずれ量に応じて上記最小値の検出
に要する時間が異なり、位置ずれ等を調べる処理に要す
る時間にバラツキが生じることになるが、上記実施形態
の装置によれば、従来のように最小値を検出する処理が
必要ないため、チップ部品のずれ量に拘らず一定の時間
でチップ部品の位置ずれ等を調べることができる。In particular, in the conventional apparatus that performs processing while rotating the nozzle member to obtain the minimum value of the distance to the projection end, the time required to detect the minimum value differs depending on the amount of displacement of the chip component. Although the time required for the processing for checking the positional deviation and the like will vary, the apparatus of the above-described embodiment does not require the processing for detecting the minimum value unlike the related art, and therefore, regardless of the amount of deviation of the chip component. It is possible to check the displacement of the chip component or the like in a fixed time.
【0059】なお、本発明の装置は、上記実施形態に限
定されるものではなく、種々変更可能である。The device of the present invention is not limited to the above embodiment, but can be variously modified.
【0060】例えば、上記検知ユニット30の照射部3
1では、第1〜第8の光源32a〜32hがY軸方向に
所定の間隔で並設されて選択的に発光させられるように
なっているが、このような光源の数、配列あるいは発光
位置等は、検出すべきチップ部品20の大きさやライン
センサ36の検出幅、あるいは許容されるチップ部品2
0の位置ずれ等に応じ、チップ部品20のコーナーP
1,P2及びP3を適切に検出できるように適宜選定す
るようにすればよい。この場合、チップ部品20のコー
ナーP1,P2及びP3の各X軸座標及びY軸座標の検
出毎に専用の光源を設けることもできるが、上記実施形
態のように、例えば、コーナーP2のY軸座標の検出
(ステップS8、S9)及びコーナーP3のX軸座標の
検出(ステップS21,S22)を共通の光源(第3光
源32c、第4光源32d)を用いて行えるような構成
を採用すれば光源の数を抑えて照射部31の構成を簡略
することができる。For example, the irradiation unit 3 of the detection unit 30
In No. 1, the first to eighth light sources 32a to 32h are arranged side by side at predetermined intervals in the Y-axis direction to selectively emit light. Are the size of the chip component 20 to be detected, the detection width of the line sensor 36, or the allowable chip component 2
Corner P of the chip component 20 according to the displacement of 0, etc.
1, P2 and P3 may be appropriately selected so that they can be appropriately detected. In this case, a dedicated light source can be provided for each detection of the X-axis coordinates and the Y-axis coordinates of the corners P1, P2, and P3 of the chip component 20, but, as in the above embodiment, for example, the Y-axis of the corner P2 If a configuration is adopted in which the coordinate detection (steps S8 and S9) and the X-axis coordinate of the corner P3 (steps S21 and S22) can be performed using a common light source (the third light source 32c and the fourth light source 32d). The configuration of the irradiation unit 31 can be simplified by reducing the number of light sources.
【0061】なお、上記実施形態では特に説明していな
いが、設置する光源の数や配列間隔等の関係で、受光部
35上に投影端部が2箇所形成されるような場合、例え
ば、コーナーP1の位置を求める場合であって、コーナ
ーP1以外の部分によって光が遮断されて受光部35上
に投影端部が形成されるような場合には、想定されるチ
ップ部品20の位置ずれ等の範囲内において、受光部3
5上に形成されるコーナーP1による投影端部の領域に
関するデータを求めておき、実測時には、このデータに
基づいてコーナーP1による投影端部を検知して原点O
から投影端部までの距離を測定するようにすればよい。
但し、2つのコーナーによる投影端部を受光部35上に
同時に形成することができる場合には、同時に2つのコ
ーナーの位置検出を行うことができるので、このような
場合には、実測時に原点Oから両投影端部までの距離を
測定するようにしてもよい。Although not particularly described in the above embodiment, in the case where two projection ends are formed on the light receiving section 35 due to the number of light sources to be installed and the arrangement interval, for example, a corner may be used. In the case where the position of P1 is obtained, if light is blocked by a portion other than the corner P1 and a projection end is formed on the light receiving unit 35, the position of the chip component 20 may be estimated. Within the range, the light receiving unit 3
The data regarding the area of the projection end by the corner P1 formed on the surface 5 is obtained in advance, and at the time of actual measurement, the projection end by the corner P1 is detected based on this data to determine the origin O.
The distance from to the projection end may be measured.
However, when the projected end portion of the two corners can be formed on the light receiving portion 35 at the same time, the positions of the two corners can be detected at the same time. Alternatively, the distance from to both projection ends may be measured.
【0062】また、上記実施形態では、チップ部品20
のコーナーP1,P2及びP3の各位置に基づいて補正
量ΔX,ΔY,Δθを求めるようにしているが、チップ
部品20の形状を予め既知のデータとして記憶し、例え
ばチップ部品20のコーナーP1及びP3の位置を求
め、このデータと部品形状を示す上記既知のデータとか
らコーナーP2を演算するようにしてもよい。In the above embodiment, the chip component 20
Correction amounts .DELTA.X, .DELTA.Y, .DELTA..theta. Are obtained based on the positions of the corners P1, P2, and P3 of the chip component 20, however, the shape of the chip component 20 is stored as known data in advance, and for example, the corners P1 and The position of P3 may be determined, and the corner P2 may be calculated from this data and the known data indicating the part shape.
【0063】さらに、上記実施形態では、チップ部品2
0のコーナーP1,P2及びP3のX軸方向の各検出精
度を高める観点から、チップ部品20を90°回転させ
て各コーナーP1,P2及びP3のY軸座標を求め、こ
れをチップ部品20の回転前のX軸座標に変換するよう
にしているが、勿論、実装精度との関係で、上記数式
4,6,8により求められるY軸座標を採用しても差し
支えない場合には、必ずしもチップ部品20を90°回
転させて各コーナーP1,P2及びP3の位置検出の処
理を行う必要はない。Further, in the above embodiment, the chip component 2
From the viewpoint of improving the detection accuracy of the corners P1, P2, and P3 of the X-axis in the X-axis direction, the chip component 20 is rotated by 90 ° to determine the Y-axis coordinates of the corners P1, P2, and P3. The conversion is made to the X-axis coordinates before rotation. Of course, in the case where the Y-axis coordinates obtained by the above formulas 4, 6, and 8 can be adopted in consideration of the mounting accuracy, the chip is not necessarily used. It is not necessary to rotate the component 20 by 90 degrees to perform the process of detecting the positions of the corners P1, P2 and P3.
【0064】[0064]
【発明の効果】本発明は、ノズル部材に吸着されたチッ
プ部品に対して拡散光を照射する照射部と、上記チップ
部品を挾んで上記照射部と対向する受光部とで光学的検
知手段を構成するとともに、上記照射部に点状の光源を
複数並べて設け、これらの光源から選択的に上記チップ
部品に拡散光を照射して上記受光部における部品の投影
を測定し、受光部上での所定の基準位置から投影の端部
までの距離と、この距離検出にかかる光源、受光部及び
ノズル部材の位置関係についての既知のデータとからチ
ップ部品のコーナーの位置を求め、このコーナーの位置
に基づいてノズル部材に吸着されたチップ部品の位置ず
れ及び傾きを求めるようにしているため、受光部上での
投影の端部までの距離の最小値を求めるべくノズル部材
を回転させながら上記距離やノズル回転角の検出データ
を逐次サンプリング、処理する従来の装置に比べると、
チップ部品の位置ずれ等を調べるために検出、処理すべ
きデータが少なくてすみ、従って、部品吸着状態検出の
処理効率を高めることができる。しかも、上記距離の最
小値を求めるための処理を不要とすることで、部品の吸
着状態に拘らず当該処理に要する時間を均一化すること
ができる。According to the present invention, an optical detecting means is provided by an irradiating section for irradiating the chip component adsorbed by the nozzle member with diffused light and a light receiving section opposed to the irradiating section with the chip component interposed therebetween. Along with the configuration, a plurality of point light sources are arranged in the irradiating section, and diffused light is selectively irradiated from these light sources to the chip component to measure the projection of the component in the light receiving section. The position of the corner of the chip component is determined from the distance from the predetermined reference position to the end of the projection and the known data on the positional relationship between the light source, light receiving unit, and nozzle member for this distance detection. Since the positional deviation and inclination of the chip component adsorbed on the nozzle member are obtained based on the nozzle member, the nozzle member is rotated while obtaining the minimum value of the distance to the end of the projection on the light receiving unit. Serial distance and sequentially samples the detection data of the nozzle rotation angle, compared to the conventional apparatus for processing,
The data to be detected and processed in order to check the displacement of the chip component and the like can be reduced, so that the processing efficiency of the component suction state detection can be improved. In addition, since the process for obtaining the minimum value of the distance is not required, the time required for the process can be made uniform irrespective of the component suction state.
【図1】本発明が適用される実装機の一例を示す概略平
面図である。FIG. 1 is a schematic plan view showing an example of a mounting machine to which the present invention is applied.
【図2】同概略正面図である。FIG. 2 is a schematic front view of the same.
【図3】本発明の一実施形態による検知ユニットの一例
を示す要部平面図である。FIG. 3 is a main part plan view showing an example of a detection unit according to one embodiment of the present invention.
【図4】同斜視図である。FIG. 4 is a perspective view of the same.
【図5】実装機の制御系統を示すブロック図である。FIG. 5 is a block diagram showing a control system of the mounting machine.
【図6】チップ部品の位置検出における特定段階(コー
ナーP1のY軸座標の検出)を示す説明図である。FIG. 6 is an explanatory diagram showing a specific stage (detection of a Y-axis coordinate of a corner P1) in detecting a position of a chip component.
【図7】チップ部品の位置検出における特定段階(コー
ナーP2のY軸座標の検出)を示す説明図である。FIG. 7 is an explanatory diagram showing a specific stage (detection of a Y-axis coordinate of a corner P2) in chip component position detection.
【図8】チップ部品の位置検出における特定段階(コー
ナーP3のY軸座標の検出)を示す説明図である。FIG. 8 is an explanatory diagram showing a specific stage (detection of Y-axis coordinates of corner P3) in position detection of a chip component.
【図9】チップ部品の位置検出における特定段階(コー
ナーP1のX軸座標の検出)を示す説明図である。FIG. 9 is an explanatory diagram showing a specific stage (detection of the X-axis coordinate of the corner P1) in the position detection of the chip component.
【図10】チップ部品の位置検出における特定段階(コ
ーナーP2のX軸座標の検出)を示す説明図である。FIG. 10 is an explanatory diagram showing a specific stage (detection of an X-axis coordinate of a corner P2) in position detection of a chip component.
【図11】チップ部品の位置検出における特定段階(コ
ーナーP3のX軸座標の検出)を示す説明図である。FIG. 11 is an explanatory view showing a specific stage (detection of the X-axis coordinate of the corner P3) in the position detection of the chip component.
【図12】チップ部品の位置検出におけるX軸方向の検
出精度とY軸方向の検出精度との相違を説明する図であ
る。FIG. 12 is a diagram illustrating the difference between the detection accuracy in the X-axis direction and the detection accuracy in the Y-axis direction in detecting the position of the chip component.
【図13】チップ部品の位置検出の処理を含む部品実装
動作を示すフローチャートである。FIG. 13 is a flowchart illustrating a component mounting operation including a process of detecting a position of a chip component.
5 ヘッドユニット 20 チップ部品 21 ノズル部材 24 R軸サーボモータ 30 検知ユニット 31 照射部 32a〜32h 第1光源〜第8光源 35 受光部 36 ラインセンサ 40 制御装置 Reference Signs List 5 head unit 20 chip component 21 nozzle member 24 R-axis servo motor 30 detection unit 31 irradiation unit 32a to 32h first light source to eighth light source 35 light receiving unit 36 line sensor 40 control device
Claims (4)
るノズル部材に吸着されたチップ部品に対して光を照射
する照射部と、上記チップ部品を挟んで上記照射部と対
向する位置で光を受光する受光部とを有する光学的検知
手段により上記チップ部品の投影を検出し、この投影に
基づいて上記ノズル部材に吸着されたチップ部品の位置
を検出する方法において、上記照射部に拡散光をそれぞ
れ照射する複数の点状光源を並べて設け、これらの光源
から選択的に上記チップ部品に拡散光を照射して上記受
光部におけるチップ部品の投影を測定し、この部品投影
測定に基づく処理として、上記受光部上での所定の基準
位置から投影の端部までの距離を検出し、この距離と、
この距離検出にかかる照射部の光源、受光部及びノズル
部材の位置関係についての既知のデータとからチップ部
品のコーナーの位置を求め、このコーナーの位置に基づ
いてノズル部材に吸着されたチップ部品の位置ずれ及び
傾きを求めることを特徴とするチップ部品の位置検出方
法。An irradiation unit for irradiating light to a chip component adsorbed on a nozzle member provided in a head unit of a mounting machine, and light at a position opposed to the irradiation unit with the chip component interposed therebetween. The projection of the chip component is detected by optical detection means having a light receiving portion for receiving light , and
A method for detecting a position of the chip component attracted to the upper Symbol nozzle member on the basis of it the diffused light to the irradiation unit
A plurality of point light sources to be illuminated and illuminated are provided side by side, and the projection of the chip component in the light receiving unit is measured by selectively irradiating the chip component with diffused light from these light sources.As a process based on the component projection measurement, Detect the distance from the predetermined reference position on the light receiving unit to the end of the projection, this distance,
The position of the corner of the chip component is determined from the known data about the positional relationship between the light source of the irradiation unit, the light receiving unit, and the nozzle member for the distance detection, and the position of the chip component adsorbed to the nozzle member is determined based on the position of the corner. What is claimed is: 1. A method for detecting a position of a chip component, comprising: obtaining a displacement and an inclination.
の光源から順次上記チップ部品に拡散光を照射し、各光
源からの拡散光に対応する上記受光部上での基準位置か
ら投影の端部までの距離をそれぞれ検出し、これらの距
離と、上記各光源、受光部及びノズル部材の位置関係に
基づいてチップ部品の1つのコーナーの位置を求め、さ
らにこの処理を繰り返すことによりチップ部品の少なく
とも2つのコーナーの位置を求め、これらのコーナーの
位置に基づいてノズル部材に吸着されたチップ部品の位
置ずれ及び傾きを求めることを特徴とする請求項1記載
のチップ部品の位置検出方法。2. A method of irradiating diffused light to the chip component sequentially from two different light sources among the plurality of point light sources, and projecting the projected light from a reference position on the light receiving unit corresponding to the diffused light from each light source. Detecting the distances to the ends, obtaining the position of one corner of the chip component based on these distances and the positional relationship between the light source, the light receiving unit and the nozzle member, and repeating this process, 2. The chip component position detecting method according to claim 1, wherein the positions of at least two corners are obtained, and the positional deviation and inclination of the chip component sucked by the nozzle member are obtained based on the positions of these corners.
光部の配置方向をX軸方向とするとともに、これに直交
する方向をY軸方向とし、第1のノズル回転角下で上記
複数の点状光源のうちの異なる2つの光源から順次チッ
プ部品に拡散光を照射してコーナーのY軸方向の位置を
求め、次にノズル部材を略90°回転させた第2のノズ
ル回転角下で異なる2つの光源から順次チップ部品に拡
散光を照射して上記コーナーのY軸方向の位置を求め、
この第2のノズル回転角下での上記コーナーのY軸方向
の位置を第1の回転角下での上記コーナーのX軸方向の
位置として上記コーナーの位置を求めることを特徴とす
る請求項2記載のチップ部品の位置検出方法。Wherein the said irradiator nozzle member as the origin the arrangement direction of the light receiving portion with the X-axis direction, a direction orthogonal to the Y-axis direction, the under first nozzle rotation angle
A chip component is irradiated with diffused light sequentially from two different light sources among a plurality of point light sources to determine a position of a corner in the Y-axis direction, and then a second nozzle rotation angle obtained by rotating the nozzle member by approximately 90 ° By irradiating the chip component sequentially with diffused light from two different light sources below, the position of the corner in the Y-axis direction is obtained,
The position of the corner is determined as the position of the corner in the Y-axis direction under the second nozzle rotation angle as the position of the corner in the X-axis direction under the first rotation angle. The method for detecting the position of a chip component described in the above.
るノズル部材に吸着されたチップ部品に光を照射してチ
ップ部品の投影を検出する光学的検知手段を備えた実装
機において、複数の点状の光源を有してこれらの光源か
ら上記チップ部品に拡散光を照射する照射部と、上記チ
ップ部品を挾んで上記照射部と対向する位置で光を受光
する受光部とで上記光学的検知手段を構成するととも
に、上記照射部の各光源のうちチップ部品のコーナーの
投影に適した光源から選択的に拡散光を照射させる手段
と、上記受光部からの投影検出データと当該投影検出デ
ータにかかる照射部の光源、受光部及びノズル部材の位
置関係を示す所定のデータとに基づいてチップ部品の上
記コーナーの位置を求め、このコーナーの位置に基づい
てノズル部材に吸着されたチップ部品の位置ずれ及び傾
きを求める演算処理手段とを設けたことを特徴とするチ
ップ部品の位置検出装置。4. A mounting machine provided with an optical detecting means for irradiating light to a chip component adsorbed on a nozzle member provided in a head unit of the mounting machine and detecting the projection of the chip component. The optical detection is performed by an irradiating section having a light source having a rectangular shape and irradiating the chip component with diffused light from these light sources, and a light receiving section receiving light at a position opposed to the irradiating section with the chip component interposed therebetween. Means for selectively irradiating diffused light from a light source suitable for projecting a corner of a chip component among light sources of the irradiation unit, and projection detection data from the light receiving unit and the projection detection data. The position of the corner of the chip component is determined based on predetermined data indicating the positional relationship between the light source, the light receiving unit, and the nozzle member of the irradiating unit, and the position of the corner is determined based on the position of the corner. A chip component position detecting device provided with arithmetic processing means for calculating the positional shift and inclination of the chip component.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30172396A JP3266524B2 (en) | 1996-03-11 | 1996-11-13 | Chip component position detection method and device |
US08/812,735 US5900940A (en) | 1995-11-28 | 1997-03-06 | Position detector for chip mounter |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8-53533 | 1996-03-11 | ||
JP5353396 | 1996-03-11 | ||
JP30172396A JP3266524B2 (en) | 1996-03-11 | 1996-11-13 | Chip component position detection method and device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09307298A JPH09307298A (en) | 1997-11-28 |
JP3266524B2 true JP3266524B2 (en) | 2002-03-18 |
Family
ID=26394241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30172396A Expired - Lifetime JP3266524B2 (en) | 1995-11-28 | 1996-11-13 | Chip component position detection method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3266524B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6346988B1 (en) | 1997-08-01 | 2002-02-12 | Hama Sensors, Inc. | Laser position array optical measuring system and method |
US6639239B2 (en) | 1998-10-30 | 2003-10-28 | Cyberoptics Corporation | Angle rejection filter |
US6490048B1 (en) * | 1998-11-03 | 2002-12-03 | Cyberoptics Corporation | Tomographic reconstruction of electronic components from shadow image sensor data |
US6909515B2 (en) | 2001-01-22 | 2005-06-21 | Cyberoptics Corporation | Multiple source alignment sensor with improved optics |
US6762847B2 (en) | 2001-01-22 | 2004-07-13 | Cyberoptics Corporation | Laser align sensor with sequencing light sources |
KR101231185B1 (en) * | 2008-02-14 | 2013-02-07 | 삼성테크윈 주식회사 | Chip mounter having apparatus for recognizing absorption condition of chip, method for mounting chip and method for recognizing absorption condition of chip |
-
1996
- 1996-11-13 JP JP30172396A patent/JP3266524B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH09307298A (en) | 1997-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2937785B2 (en) | Component state detection device for mounting machine | |
KR100318875B1 (en) | Electronic component mounting apparatus | |
JP3296968B2 (en) | Reference position determination method | |
JP2001136000A (en) | Jig for detecting attaching accuracy of attaching apparatus and method for detecting attaching accuracy | |
JPH06224285A (en) | Positioning device for wafer | |
JP3090567B2 (en) | Component recognition method and device for mounting machine | |
JP2003298294A (en) | Electronic circuit component mounting system | |
JP3266524B2 (en) | Chip component position detection method and device | |
JP3337924B2 (en) | Component adsorption state detection device for mounting machine | |
JP3417773B2 (en) | Chip component position detection method | |
JP4079471B2 (en) | Electronic component mounting machine and electronic component mounting method | |
JP3265143B2 (en) | Component mounting method and device | |
JP2000164626A (en) | Method and device for bonding components | |
JP3957839B2 (en) | Non-contact positioning method and apparatus for chip parts | |
JPH0661693A (en) | Component mounting machine | |
JP3816650B2 (en) | Component recognition method for surface mounters | |
JPH06249630A (en) | Method and device for inspecting electronic parts | |
JP3417731B2 (en) | Parts inspection equipment | |
JP3039645B1 (en) | Electronic component position recognition method and device | |
JP4298080B2 (en) | Component recognition method and apparatus for surface mounter | |
JP2000205817A (en) | Method and device for detecting position of electronic component | |
JP3929583B2 (en) | Component mounting method and apparatus | |
JP2000312100A (en) | Component recognition unit of surface-mounting machine | |
JP2001153640A (en) | Printed circuit board inspection device | |
JP3247920B2 (en) | Control method of electronic component mounting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20011211 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120111 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130111 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |