JP2009004455A - Component imaging method - Google Patents

Component imaging method Download PDF

Info

Publication number
JP2009004455A
JP2009004455A JP2007161762A JP2007161762A JP2009004455A JP 2009004455 A JP2009004455 A JP 2009004455A JP 2007161762 A JP2007161762 A JP 2007161762A JP 2007161762 A JP2007161762 A JP 2007161762A JP 2009004455 A JP2009004455 A JP 2009004455A
Authority
JP
Japan
Prior art keywords
imaging
component
head
irradiation position
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007161762A
Other languages
Japanese (ja)
Other versions
JP4750757B2 (en
Inventor
Kanki Ogura
環樹 小倉
Hirotake Nakayama
浩丈 中山
Takayuki Hatase
貴之 畑瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2007161762A priority Critical patent/JP4750757B2/en
Publication of JP2009004455A publication Critical patent/JP2009004455A/en
Application granted granted Critical
Publication of JP4750757B2 publication Critical patent/JP4750757B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a component imaging method in which a cycle time is shortened. <P>SOLUTION: The component imaging method includes an imaging step of imaging parts of components in a column A and a column B irradiated with a laser beam by detecting a beam reflected at an irradiation position of a laser beam emitted toward a head while moving the irradiation position of the laser beam in a Y direction so that the irradiation position of the laser beam passes the components in the column A and column B sucked by the head while arrayed in the Y direction, and a changing steps of changing imaging conditions used for the imaging according to whether the irradiation position is at a component in the column A or a component in the column B. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、基板に装着される部品を撮像する部品撮像方法に関する。   The present invention relates to a component imaging method for imaging a component mounted on a board.

部品実装機は、電子部品などの部品を基板に実装することにより実装基板を生産する装置である。このような部品実装機は、供給される部品を吸着して移動し、その部品を基板に装着するヘッドと、そのヘッドに吸着されている部品を撮像するカメラとを備えている(例えば、特許文献1参照)。   The component mounter is a device that produces a mounting board by mounting components such as electronic components on the board. Such a component mounting machine includes a head that picks up and moves a supplied component, mounts the component on a substrate, and a camera that images the component sucked by the head (for example, a patent). Reference 1).

上記特許文献1の部品実装機(電子部品実装装置)は、部品を吸着しているヘッドをカメラ(認識ユニット)の上方に移動させる。ヘッドは、サークル状に配列された6個のノズルを有し、それらのノズルが部品を1つずつ吸着している。このヘッドの移動によって、カメラの上方に部品が順次到達すると、カメラは、その上方にある部品の画像を取り込む。   The component mounting machine (electronic component mounting apparatus) of Patent Document 1 moves the head that is picking up the components above the camera (recognition unit). The head has six nozzles arranged in a circle, and these nozzles adsorb components one by one. When the parts sequentially reach the upper part of the camera due to the movement of the head, the camera captures an image of the part located above the part.

ここで、ヘッドの移動方向と垂直な方向(Y方向)に沿って2つのノズルが配列されていれば、カメラは、それら2つのノズルに吸着されている2つの部品の画像を同時に取り込む。   Here, if two nozzles are arranged along the direction (Y direction) perpendicular to the moving direction of the head, the camera simultaneously captures images of the two components sucked by the two nozzles.

このように、上記特許文献1の部品実装機による部品撮像方法では、2つの部品の画像を同時に取り込むため、各部品の撮像時間を抑えて、実装効率を向上しようとしている。   As described above, in the component imaging method using the component mounter disclosed in Patent Document 1, since images of two components are simultaneously captured, it is attempted to improve the mounting efficiency by suppressing the imaging time of each component.

また、上記特許文献1の部品実装機による実装条件決定方法では、同時に撮像されても適切な画像が得られるような2つの部品を選択して、Y方向に沿って配列する2つのノズルにその2つの部品を吸着させるように、実装条件を決定している。
特開2005−236315号公報
Moreover, in the mounting condition determination method by the component mounting machine of the said patent document 1, two components which can obtain a suitable image even if imaged simultaneously are selected, and the two nozzles arranged along the Y direction are connected to the two nozzles. The mounting conditions are determined so that two parts are adsorbed.
JP 2005-236315 A

しかしながら、上記特許文献1の部品撮像方法および実装条件決定方法では、1つの実装基板を生産するのに要する時間であるタクトを十分に短くすることができないという問題がある。   However, the component imaging method and the mounting condition determination method disclosed in Patent Document 1 have a problem in that the tact, which is the time required to produce one mounting board, cannot be sufficiently shortened.

つまり、部品の画像を取り込むためには、その部品に適した撮像条件で取り込む必要があり、上記特許文献1の部品実装機による部品撮像方法では、2つの部品の画像を同時に取り込むときには、1つの撮像条件でそれらの画像を取り込む。   That is, in order to capture an image of a component, it is necessary to capture the image under imaging conditions suitable for the component. In the component imaging method using the component mounter described in Patent Document 1, one image is captured when images of two components are captured simultaneously. Capture those images under the imaging conditions.

したがって、上記特許文献1の部品撮像方法および実装条件決定方法では、適切な撮像条件が互いに異なる2つの部品を、Y方向に沿って配列された2つのノズルに吸着させることができず、それらの部品のうち一方の部品の実装を後回しにしなければならないことがある。その結果、タクトが長くなってしまうのである。   Therefore, in the component imaging method and the mounting condition determination method disclosed in Patent Document 1, two components having different appropriate imaging conditions cannot be attracted to two nozzles arranged along the Y direction. It may be necessary to postpone mounting one of the components. As a result, the tact time becomes longer.

図19は、タクトが長くなってしまう場合を説明するための説明図である。
例えば、ヘッドは、2列4行に配列された8個のノズルnzを備えて、カメラの上方を移動する。
FIG. 19 is an explanatory diagram for explaining a case where the tact becomes long.
For example, the head includes eight nozzles nz arranged in two columns and four rows, and moves above the camera.

なお、列は、ヘッドの移動方向(X方向)に沿った配列を示し、行はX方向と垂直な方向(Y方向)に沿った配列を示す。例えば、列には、A列およびB列があり、行には、0行、1行、2行、および3行がある。   The columns indicate the arrangement along the head moving direction (X direction), and the rows indicate the arrangement along the direction perpendicular to the X direction (Y direction). For example, the columns include column A and column B, and the rows include row 0, row 1, row 2, and row 3.

このようなヘッドがカメラの上方を移動する場合、カメラは、レーザビームを照射してそのレーザビームによって照射される照射位置をY方向に移動させることを繰り返すことにより、2つのノズルnzに吸着された部品を同時に走査してこれらの部品の画像を同時に取り込もうとする。なお、図19中、点線の矢印は、レーザビームによって照射される照射位置の軌道(ライン)を示す。   When such a head moves above the camera, the camera is attracted to the two nozzles nz by repeatedly irradiating the laser beam and moving the irradiation position irradiated by the laser beam in the Y direction. Scan the parts simultaneously and try to capture images of these parts simultaneously. In FIG. 19, the dotted arrow indicates the trajectory (line) of the irradiation position irradiated with the laser beam.

具体的に、カメラは、A列0行およびB列0行にあるノズルnzに吸着された部品pa0,pb0の画像を同時に取り込む。このとき、カメラは、ラインごとにレーザビームを照射してその照射位置をY方向に移動させながら、部品pa0,pb0に反射されたレーザビームを検出することにより、それらの部品pa0,pb0を走査する。そして、カメラは、部品pa0,pb0を走査するときには、それらの部品pa0,pb0に適した撮像条件を示すBパラメータデータを使って走査する。そして、カメラは、その走査された結果に基づいて、部品pa0,pb0の画像を同時に取り込む。   Specifically, the camera simultaneously captures images of the parts pa0 and pb0 adsorbed to the nozzles nz in the A column 0 row and the B column 0 row. At this time, the camera scans the parts pa0 and pb0 by detecting the laser beam reflected by the parts pa0 and pb0 while irradiating the laser beam for each line and moving the irradiation position in the Y direction. To do. Then, when scanning the parts pa0 and pb0, the camera scans using B parameter data indicating imaging conditions suitable for the parts pa0 and pb0. Then, the camera captures images of the parts pa0 and pb0 at the same time based on the scanned result.

次に、カメラは、B列1行にあるノズルnzに吸着された部品pb1の画像を取り込む。このとき、カメラは、上述と同様に、その部品pb1に適した撮像条件を示すBパラメータデータを使って部品pb1の画像を取り込む。   Next, the camera captures an image of the component pb1 adsorbed by the nozzle nz in the B column and the first row. At this time, the camera captures the image of the component pb1 using the B parameter data indicating the imaging conditions suitable for the component pb1, as described above.

その後、カメラは、B列2行にあるノズルnzに吸着された部品pb2の画像を取り込む。このとき、カメラは、その部品pb2に適した撮像条件を示すDパラメータデータを使って部品pb2の画像を取り込む。   Thereafter, the camera captures an image of the component pb2 adsorbed by the nozzle nz in the B column 2 row. At this time, the camera captures the image of the component pb2 using the D parameter data indicating the imaging condition suitable for the component pb2.

さらにその後、カメラは、A列3行およびB列3行にあるノズルnzに吸着された部品pa3,pb3の画像を同時に取り込む。このとき、カメラは、それらの部品pa3,pb3に適した撮像条件を示すEパラメータデータを使ってそれらの画像を同時に取り込む。   Thereafter, the camera simultaneously captures images of the components pa3 and pb3 adsorbed by the nozzles nz in the A column 3 rows and the B column 3 rows. At this time, the camera simultaneously captures the images using E parameter data indicating imaging conditions suitable for the parts pa3 and pb3.

ところで、図19に示す例の場合、6つの部品pa0,pa3,pb0〜pb3が1つのタスクとして構成される。タスクとは、ヘッドが1つ以上の部品を吸着して移動し、その吸着した1つ以上の部品を基板に装着するという一連の動作、または、その1回あたりの一連の動作でヘッドに吸着される部品群をいう。   By the way, in the example shown in FIG. 19, six components pa0, pa3, pb0 to pb3 are configured as one task. A task is a series of actions in which the head moves by picking up one or more parts and mounting the picked up one or more parts on the board, or a series of actions per time picks up the head. This is a group of parts.

ここで、上述の部品pa0,pa3,pb0〜pb3以外に、他の2つの部品pa1,pa2も基板に実装すべき場合であっても、この2つの部品pa1,pa2を、部品pa0,pa3,pb0〜pb3と同一のタスクに含めることができないことがある。   Here, in addition to the above-described components pa0, pa3, pb0 to pb3, even when the other two components pa1 and pa2 are to be mounted on the substrate, the two components pa1 and pa2 are connected to the components pa0, pa3 and pa3. It may not be included in the same task as pb0 to pb3.

例えば、B列1行にあるノズルnzに吸着される部品pb1や、B列2行にあるノズルnzに吸着されている部品pb2が白色の部品であって、部品pa1,pa2が黒色の部品である場合には、部品pb1と部品pa1との撮像条件は互いに異なり、部品pb2と部品pa2との撮像条件も互いに異なる。   For example, the component pb1 sucked by the nozzle nz in the first row B and the component pb2 sucked by the nozzle nz in the second row B are white components, and the components pa1 and pa2 are black components. In some cases, the imaging conditions of the component pb1 and the component pa1 are different from each other, and the imaging conditions of the component pb2 and the component pa2 are also different from each other.

つまり、部品pa1の撮像には、部品pb1に適したBパラメータデータとは異なるAパラメータデータが必要であり、部品pa2の撮像には、部品pb2に適したDパラメータデータとは異なるCパラメータデータが必要である。   That is, the imaging of the part pa1 requires A parameter data different from the B parameter data suitable for the part pb1, and the imaging of the part pa2 requires C parameter data different from the D parameter data suitable for the part pb2. is necessary.

したがって、上記特許文献1の部品撮像方法および実装条件決定方法では、1つの撮像条件で同一行の2つの部品の画像を同時に取り込むため、Bパラメータデータと異なるAパラメータデータを要する部品pa1を、A列1行にあるノズルnzに吸着させることができず、同様に、Dパラメータデータと異なるCパラメータデータを要する部品pa2を、A列2行にあるノズルnzに吸着させることができない。   Therefore, in the component imaging method and the mounting condition determination method of Patent Document 1 described above, since images of two components in the same row are simultaneously captured under one imaging condition, a component pa1 that requires A parameter data different from B parameter data is Similarly, the component pa2 that requires C parameter data different from the D parameter data cannot be attracted to the nozzle nz in the A column and the 2nd row.

その結果、部品実装機は、部品pa1,pa2を、部品pa0,pa3,pb0〜pb3と同一のタスクに含めることができず、他のタスクに含めて基板に実装しなければならず、タスクの数が増えてしまい、タクトが長くなってしまうのである。   As a result, the component mounter cannot include the components pa1 and pa2 in the same task as the components pa0, pa3, pb0 to pb3, and must be included in other tasks and mounted on the board. The number will increase and the tact will become longer.

そこで、本発明は、かかる問題に鑑みてなされたものであって、タクトの短縮化を図った部品撮像方法を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and an object thereof is to provide a component imaging method in which tact time is shortened.

上記目的を達成するために、本発明に係る部品撮像方法は、移動しているヘッドに吸着されている複数の部品を撮像する部品撮像方法であって、前記ヘッドに向けて照射されたビームの照射位置が、前記ヘッドの移動方向と垂直な方向に沿って配列して前記ヘッドに吸着されている第1および第2の部品を通過するように、前記ビームの照射位置を前記垂直な方向に移動させながら、前記照射位置で反射されたビームを検出することにより、前記第1および第2の部品の前記ビームに照射された部分を撮像する撮像ステップと、前記照射位置が前記第1の部品にあるときと、前記照射位置が前記第2の部品にあるときとで、前記撮像ステップでの撮像に用いられている撮像条件を切り換える切換ステップとを含むことを特徴とする。   In order to achieve the above object, a component imaging method according to the present invention is a component imaging method for imaging a plurality of components adsorbed by a moving head, wherein a beam irradiated toward the head is captured. The irradiation position of the beam is set in the vertical direction so that the irradiation position passes through the first and second parts adsorbed by the head arranged in a direction perpendicular to the moving direction of the head. An imaging step of imaging a portion irradiated with the beam of the first and second parts by detecting a beam reflected at the irradiation position while moving, and the irradiation position is the first part And a switching step of switching an imaging condition used for imaging in the imaging step when the irradiation position is in the second part.

例えば、前記切換ステップでは、前記照射位置が第1の部品から第2の部品に移るときに、前記撮像条件を、前記第1の部品の撮像に要する第1の撮像条件から、前記第2の部品の撮像に要する第2の撮像条件に切り換え、前記撮像ステップでは、前記照射位置が第1の部品にあるときには、前記第1の撮像条件の下で前記第1の部品に反射されたビームを検出し、前記照射位置が第2の部品にあるときには、前記第2の撮像条件の下で前記第2の部品に反射されたビームを検出する。   For example, in the switching step, when the irradiation position moves from the first part to the second part, the imaging condition is changed from the first imaging condition required for imaging the first part to the second part. Switching to the second imaging condition required for imaging of the component, and in the imaging step, when the irradiation position is on the first component, the beam reflected on the first component under the first imaging condition is And when the irradiation position is on the second part, a beam reflected on the second part under the second imaging condition is detected.

これにより、ビーム(レーザビーム)の照射位置が、ヘッドの移動方向(X方向)と垂直な方向(Y方向)に沿って移動しているときに、つまり、第1および第2の部品がY方向に沿って1ラインだけ走査されているときに、撮像条件が切り換えられるため、互いに異なる撮像条件を要する第1および第2の部品がY方向に配列されていても、この第1および第2の部品をそれぞれ適切な撮像条件で同時に撮像することができる。すなわち、互いに異なる撮像条件を要する第1および第2の部品をヘッドに吸着させるときには、その第1および第2の部品をX方向だけでなくY方向にも配列することができるため、従来例のように、それらを別々のタスクに分ける必要がなく、同一のタスクに纏めることができ、タクトの短縮を図ることができる。   Thereby, when the irradiation position of the beam (laser beam) is moving along the direction (Y direction) perpendicular to the moving direction (X direction) of the head, that is, the first and second parts are Y. Since only one line is scanned along the direction, the imaging condition is switched. Therefore, even if the first and second parts that require different imaging conditions are arranged in the Y direction, the first and second parts These parts can be simultaneously imaged under appropriate imaging conditions. That is, when the first and second parts that require different imaging conditions are attracted to the head, the first and second parts can be arranged not only in the X direction but also in the Y direction. Thus, it is not necessary to divide them into separate tasks, and they can be grouped into the same task, and the tact can be shortened.

また、前記撮像ステップでは、前記第1および第2の部品に反射されたビームを複数の検出手段で検出する検出サブステップと、検出手段ごとに、当該検出手段で検出された結果に基づいて、前記第1および第2の部品における照射位置での高さを算出する高さ算出サブステップと、前記複数の検出手段で検出された前記照射位置での複数の高さから、1つの高さを決定する高さ決定サブステップと、前記高さ決定サブステップで決定された高さを含む前記第1および第2の部品の画像を生成する画像生成サブステップとを含むことを特徴としてもよい。   In the imaging step, a detection sub-step for detecting the beams reflected by the first and second components by a plurality of detection means, and for each detection means, based on a result detected by the detection means, One height is calculated from the height calculation sub-step for calculating the height at the irradiation position in the first and second parts, and the plurality of heights at the irradiation position detected by the plurality of detection means. A height determining sub-step to be determined, and an image generating sub-step for generating an image of the first and second parts including the height determined in the height determining sub-step may be included.

これにより、高さを含む第1および第2の部品の画像が生成されるため、例えば、第1および第2の部品が高い実装精度を要するような場合には、これらの部品の3次元の形状をその画像を用いて適切に確認することができ、その確認結果に基づいて高い精度でそれらの部品を実装することができる。   As a result, images of the first and second components including the height are generated. For example, when the first and second components require high mounting accuracy, the three-dimensional of these components is required. The shape can be appropriately confirmed using the image, and those components can be mounted with high accuracy based on the confirmation result.

例えば、前記撮像条件はビームの光量の下限値を示し、前記高さ算出サブステップでは、前記検出手段で検出されたビームの光量が前記撮像条件の示す下限値よりも小さい場合には、当該検出手段で検出された結果に基づく高さの算出を禁止する。または、前記撮像条件は、前記高さ算出サブステップで算出される前記照射位置での複数の高さのずれの許容値を示し、前記高さ決定サブステップでは、前記高さ算出サブステップで算出された前記照射位置での複数の高さのずれが、前記撮像条件の示す許容値よりも大きい場合には、前記複数の高さから1つの高さを決定することを禁止する。または、前記撮像条件は部品の周辺の高さを示し、前記画像生成ステップでは、前記第1および第2の部品の周辺の高さとして、前記撮像条件の示す高さを示す画像を生成する。   For example, the imaging condition indicates a lower limit value of the light amount of the beam. In the height calculation substep, if the light amount of the beam detected by the detection unit is smaller than the lower limit value indicated by the imaging condition, the detection is performed. The calculation of the height based on the result detected by the means is prohibited. Alternatively, the imaging condition indicates an allowable value of a plurality of height shifts at the irradiation position calculated in the height calculation sub-step, and the height determination sub-step calculates in the height calculation sub-step When a plurality of height shifts at the irradiated position is larger than an allowable value indicated by the imaging condition, it is prohibited to determine one height from the plurality of heights. Alternatively, the imaging condition indicates the height around the component, and in the image generation step, an image indicating the height indicated by the imaging condition is generated as the height around the first and second components.

これにより、第1および第2の部品の画像を適切に生成することができる。
また、本願に係る実装条件決定方法は、複数の部品を基板に実装するための実装条件を決定する実装条件決定方法であって、移動しているヘッドに吸着され、前記ヘッドの移動方向と垂直な方向に沿って配列している複数の部品が部品撮像装置により撮像される場合に、前記部品撮像装置が部品ごとに撮像条件を異ならせて前記複数の部品を撮像することが可能か否かを判別する判別ステップと、前記判別ステップで不可能と判別されたときには、互いに異なる撮像条件を要する部品が前記垂直な方向に沿って配列して前記ヘッドに吸着されないように、前記ヘッドに吸着される部品群を実装条件として決定する第1の決定ステップと、前記判別ステップで可能と判別されたときには、互いに異なる撮像条件を要する部品が前記垂直な方向に沿って配列して前記ヘッドに吸着されてもよいように、前記ヘッドに吸着される部品群を実装条件として決定する第2の決定ステップとを含むことを特徴とする。
Thereby, the image of the 1st and 2nd components can be generated appropriately.
Further, the mounting condition determining method according to the present application is a mounting condition determining method for determining a mounting condition for mounting a plurality of components on a substrate, which is attracted to a moving head and perpendicular to the moving direction of the head. Whether or not the component imaging device can capture the plurality of components with different imaging conditions for each component when a plurality of components arranged along different directions are captured by the component imaging device When the determination step and the determination step determine that it is impossible, the components that require different imaging conditions are adsorbed to the head so that they are arranged along the vertical direction and are not adsorbed to the head. When it is determined in the first determining step that determines a component group to be mounted as a mounting condition and in the determining step, components that require different imaging conditions are arranged in the vertical direction. As it may be adsorbed to the head by arranging I, characterized in that it comprises a second determining step of determining a component group that is attracted to the head as mounting conditions.

例えば、前記第1の決定ステップでは、同一の撮像条件を要する複数の部品が前記垂直な方向に沿って配列して前記ヘッドに吸着されるように、前記ヘッドに吸着される部品群を決定する。または、前記ヘッドには、部品を吸着する複数のノズルが前記垂直な方向に沿って配列しており、前記第1の決定ステップでは、前記複数のノズルのうち1つだけが部品を吸着するように、前記ヘッドに吸着される部品群を決定する。   For example, in the first determination step, a component group to be attracted to the head is determined so that a plurality of components that require the same imaging condition are arranged along the vertical direction and attracted to the head. . Alternatively, a plurality of nozzles for picking up components are arranged along the vertical direction in the head, and in the first determination step, only one of the plurality of nozzles picks up the components. Next, a part group to be attracted to the head is determined.

これにより、部品撮像装置(3D撮像部)が部品ごとに撮像条件を異ならせて、Y方向に配列している複数の部品を撮像することが可能であれば、互いに異なる撮像条件を要する部品がY方向に沿って配列してヘッドに吸着されてもよいように、ヘッドに吸着される部品群(タスク)が実装条件として決定される。つまり、Y方向に沿って配列する複数の部品の撮像条件を同一にしなければならないという制約を受けることなく、ヘッドに吸着されるタスクが決定される。   Accordingly, if the component imaging device (3D imaging unit) can capture a plurality of components arranged in the Y direction with different imaging conditions for each component, a component that requires different imaging conditions can be obtained. A component group (task) attracted to the head is determined as a mounting condition so that it may be arranged along the Y direction and attracted to the head. That is, the task to be attracted to the head is determined without being restricted by the fact that the imaging conditions of a plurality of parts arranged along the Y direction must be the same.

その結果、互いに異なる撮像条件を要する第1および第2の部品をY方向に沿って配列してもよいため、従来例のように、それらを別々のタスクに分ける必要がなく、同一のタスクに纏めることができ、タクトの短縮を図ることができる。   As a result, since the first and second parts that require different imaging conditions may be arranged along the Y direction, there is no need to divide them into separate tasks as in the conventional example, and the same task. The tact can be shortened.

なお、本発明は、このような部品撮像方法として実現することができるだけでなく、その方法により部品を撮像する装置やプログラム、そのプログラムを格納する記憶媒体、その部品撮像方法を用いて部品を実装する部品実装方法や、その部品実装方法により部品を実装する部品実装機としても実現することができる。また、本発明は、このような実装条件決定方法として実現することができるだけでなく、その方法により実装条件を決定する装置やプログラム、そのプログラムを格納する記憶媒体、その実装条件決定方法を用いて部品を実装する部品実装方法や、その部品実装方法により部品を実装する部品実装機としても実現することができる。   In addition, the present invention can be realized not only as such a part imaging method, but also by mounting a part using the part imaging method, an apparatus and a program for imaging the part, a storage medium storing the program, and the part imaging method. It can also be realized as a component mounting method for mounting and a component mounter for mounting components by the component mounting method. Further, the present invention can be realized not only as such a mounting condition determination method, but also by using an apparatus and a program for determining the mounting condition by the method, a storage medium for storing the program, and the mounting condition determination method. It can also be realized as a component mounting method for mounting components and a component mounter for mounting components by the component mounting method.

本発明の部品撮像方法は、タクトの短縮化を図ることができるという作用効果を奏する。   The component imaging method of the present invention has the effect of shortening tact time.

以下、本発明の実施の形態における部品実装システムについて図面を参照しながら説明する。   Hereinafter, a component mounting system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態における部品実装システムの外観図である。
本実施の形態における部品実装システム1000は、部品実装機100と、実装条件決定装置200とを備えている。
FIG. 1 is an external view of a component mounting system according to an embodiment of the present invention.
A component mounting system 1000 according to the present embodiment includes a component mounting machine 100 and a mounting condition determining device 200.

部品実装機100は、上流側から回路基板(以下、単に基板という)20を受け取り、その基板20に対して部品を実装し、その部品が実装された基板20を下流側に送り出す。なお、部品実装機100によって部品が実装された基板20を、以下、実装基板という。   The component mounter 100 receives a circuit board (hereinafter simply referred to as a board) 20 from the upstream side, mounts the component on the board 20, and sends the board 20 on which the component is mounted to the downstream side. In addition, the board | substrate 20 with which components were mounted by the component mounting machine 100 is hereafter called a mounting board.

具体的には、部品実装機100は、複数種の部品を供給する2つの部品供給部115a,115bを備え、搬入口130から挿入される基板20を部品実装機100の内部に搬送して停止させる。そして、部品実装機100は、部品供給部115a,115bから供給される部品を順次取り出し、その停止している基板20に対して、取り出した部品を実装する。また、部品実装機100は、部品供給部115a,115bから供給された部品を基板20に装着する前に、その部品を撮像してその部品の形状などを認識する。   Specifically, the component mounter 100 includes two component supply units 115a and 115b that supply a plurality of types of components, and transports the board 20 inserted from the carry-in port 130 into the component mounter 100 and stops. Let Then, the component mounting machine 100 sequentially takes out the components supplied from the component supply units 115a and 115b, and mounts the extracted components on the stopped substrate 20. In addition, the component mounter 100 recognizes the shape of the component by imaging the component before mounting the component supplied from the component supply units 115 a and 115 b on the substrate 20.

実装条件決定装置200は、部品実装機100による部品の実装条件を決定する。
図2は、部品実装機100の内部の主要な構成を示す図である。
The mounting condition determining apparatus 200 determines a mounting condition for components by the component mounting machine 100.
FIG. 2 is a diagram illustrating a main configuration inside the component mounter 100.

部品実装機100は、ヘッド112と、X軸ロボット121と、2つの基板搬送レール122と、Y軸ロボット140と、部品供給部115a,115bと、3D撮像部116aと、2D撮像部116bとを備えている。   The component mounter 100 includes a head 112, an X-axis robot 121, two board transfer rails 122, a Y-axis robot 140, component supply units 115a and 115b, a 3D imaging unit 116a, and a 2D imaging unit 116b. I have.

部品供給部115a,115bはそれぞれ、部品テープを収納する複数の部品カセット(フィーダ)114の配列からなる。なお、部品テープとは、例えば、同一部品種の複数の部品がテープ(キャリアテープ)上に並べられたものであり、リール等に巻かれた状態で供給される。また、部品テープに並べられる部品は、例えばチップ部品であって、具体的には0402チップ部品や1005チップ部品などである。   Each of the component supply units 115a and 115b includes an array of a plurality of component cassettes (feeders) 114 that store component tapes. The component tape is, for example, a plurality of components of the same component type arranged on a tape (carrier tape) and supplied in a state of being wound on a reel or the like. The parts arranged on the part tape are, for example, chip parts, specifically, 0402 chip parts and 1005 chip parts.

2つの基板搬送レール122は、基板20の幅に応じた距離だけ互いに離れて平行に配置され、部品実装機100の搬入口130から挿入された基板20が部品実装機100の内部に搬送されてその外部に搬出されるように、基板20をガイドする。   The two board transfer rails 122 are arranged in parallel and separated from each other by a distance corresponding to the width of the board 20, and the board 20 inserted from the carry-in port 130 of the component mounter 100 is transferred into the component mounter 100. The substrate 20 is guided so as to be carried out to the outside.

なお、本実施の形態では、この基板搬送レール122に沿って搬送される基板20の搬送方向を、X方向とし、水平面上でそのX方向と垂直な方向をY方向とする。   In the present embodiment, the transport direction of the substrate 20 transported along the substrate transport rail 122 is the X direction, and the direction perpendicular to the X direction on the horizontal plane is the Y direction.

X軸ロボット121はヘッド112をX方向に移動させ、Y軸ロボット140はヘッド112をY方向に移動させる。   The X-axis robot 121 moves the head 112 in the X direction, and the Y-axis robot 140 moves the head 112 in the Y direction.

ヘッド112は、それぞれ1つの部品を吸着する例えば8本のノズルnzを備えた、マルチ装着ヘッドと呼ばれるヘッドである。   The head 112 is a head called a multi-mounting head including, for example, eight nozzles nz that suck one component each.

このヘッド112は、各ノズルnzを同時又は独立して上下動させることにより、部品供給部115a,115bの各フィーダ114から供給される部品をそれらのノズルnzに吸着させる。また、ヘッド112は、各ノズルnzを同時又は独立して上下動させることにより、それらのノズルnzに吸着された部品を基板20に装着させる。したがって、ヘッド112は、部品供給部115a,115bから最大8個の部品を吸着して基板20に装着することができる。   The head 112 moves the nozzles nz up and down simultaneously or independently, thereby sucking the components supplied from the feeders 114 of the component supply units 115a and 115b to the nozzles nz. Further, the head 112 moves the nozzles nz up and down simultaneously or independently, thereby mounting the components adsorbed by the nozzles nz on the substrate 20. Therefore, the head 112 can pick up and mount a maximum of eight components from the component supply units 115 a and 115 b on the substrate 20.

2D撮像部116bは、例えばCCD(Charge Coupled Devices)を備えて、2D撮像部116bの上方を移動するヘッド112に吸着された部品を2次元的に撮像する。   The 2D imaging unit 116b includes, for example, a CCD (Charge Coupled Devices), and two-dimensionally images the components adsorbed by the head 112 that moves above the 2D imaging unit 116b.

3D撮像部116aは、3D撮像部116aの上方を移動するヘッド112に吸着された部品を3次元的に撮像する。つまり、3D撮像部116aは、レーザビームを部品に対して照射し、そのレーザビームによって照射される位置(照射位置)をY方向に移動させながら、その部品に反射されたレーザビームを検出することにより、部品の高さや厚みなどの情報を含む部品の画像を取り込む。また、このような3D撮像部116aは部品実装機100に着脱自在に備えられている。   The 3D imaging unit 116a three-dimensionally images a component adsorbed by the head 112 that moves above the 3D imaging unit 116a. That is, the 3D imaging unit 116a irradiates the component with the laser beam, and detects the laser beam reflected by the component while moving the position irradiated with the laser beam (irradiation position) in the Y direction. Thus, an image of the part including information such as the height and thickness of the part is captured. Further, such a 3D imaging unit 116a is detachably provided on the component mounter 100.

つまり、部品実装機100は、部品供給部115a,115bから供給される部品をヘッド112が吸着すると、そのヘッド112を2D撮像部116bまたは3D撮像部116aの上方へ移動させる。例えば、部品実装機100は、ヘッド112に吸着されている部品が比較的大きい部品であって、高い実装精度が必要とされていないときには、そのヘッド112を2D撮像部116bの上方へ移動させて、その2D撮像部116bに部品を撮像させる。逆に、部品実装機100は、ヘッド112に吸着されている部品が比較的小さい部品であって、高い実装精度が必要とされるときには、そのヘッド112を3D撮像部116aの上方へ移動させ、3D撮像部116aに部品を撮像させる。   That is, when the head 112 sucks the components supplied from the component supply units 115a and 115b, the component mounter 100 moves the head 112 above the 2D imaging unit 116b or the 3D imaging unit 116a. For example, the component mounting machine 100 moves the head 112 above the 2D imaging unit 116b when the component attracted by the head 112 is a relatively large component and high mounting accuracy is not required. Then, the 2D imaging unit 116b is caused to image the component. Conversely, the component mounting machine 100 moves the head 112 above the 3D imaging unit 116a when the component adsorbed by the head 112 is a relatively small component and high mounting accuracy is required. The 3D imaging unit 116a is caused to image the part.

これらの撮像結果は、ヘッド112に吸着された部品の形状や吸着状態などの認識に利用される。   These imaging results are used for recognizing the shape and suction state of the parts sucked by the head 112.

なお、3D撮像部116aおよび2D撮像部116bを区別することなく総称する場合には、これらを以下、撮像部116という。   When the 3D imaging unit 116a and the 2D imaging unit 116b are collectively referred to without distinction, these are hereinafter referred to as the imaging unit 116.

図3は、ヘッド112と部品カセット114の位置関係を示す模式図である。
例えば、ヘッド112には、8つのノズルnzが2列に分かれて並んでいる。各列では、4つのノズルnzがX方向に沿ってそれぞれ等間隔だけ離れて配置されている。また、一方の列と他方の列とでは、Y方向に所定間隔だけ離れている。
FIG. 3 is a schematic diagram showing the positional relationship between the head 112 and the component cassette 114.
For example, in the head 112, eight nozzles nz are arranged in two rows. In each row, four nozzles nz are arranged at equal intervals along the X direction. Further, one column and the other column are separated by a predetermined interval in the Y direction.

このようなヘッド112は、最大4個の部品カセット114のそれぞれから部品を同時に(1回の上下動作で)吸着することができ、Y方向に移動することで、さらに、最大4個の部品カセット114のそれぞれから部品を同時に(1回の上下動作で)吸着することができる。したがって、ヘッド112は2回の上下動作で最大8個の部品を同時に吸着することができる。   Such a head 112 can simultaneously pick up components from each of up to four component cassettes 114 (in a single up-and-down motion), and further move up in the Y direction to further up to four component cassettes. Parts can be picked up simultaneously from each of 114 (in one up-and-down motion). Therefore, the head 112 can suck up to eight parts at the same time in two vertical movements.

図4は、部品を収めた部品テープ及びリールの例を示す図である。
チップ形電子部品などの部品は、図4に示すキャリアテープ424に一定間隔で複数個連続的に形成された収納凹部424aに収納されて、この上面にカバーテープ425を貼付けて包装される。そしてこのようにカバーテープ425が貼り付けられたキャリアテープ424は、リール426に所定の数量分だけ巻回されたテーピング形態でユーザに供給される。また、このようなキャリアテープ424およびカバーテープ425によって部品テープが構成される。なお、部品テープの構成は、図4に示す構成以外の他の構成であってもよい。
FIG. 4 is a diagram illustrating an example of a component tape and a reel that contain components.
Components such as chip-type electronic components are stored in a storage recess 424a formed continuously at a predetermined interval on a carrier tape 424 shown in FIG. The carrier tape 424 to which the cover tape 425 is thus attached is supplied to the user in a taping form wound around the reel 426 by a predetermined quantity. The carrier tape 424 and the cover tape 425 constitute a component tape. The configuration of the component tape may be other than the configuration shown in FIG.

このような部品実装機100は、ヘッド112を部品供給部115aまたは部品供給部115bに移動させて、部品供給部115a,115bから供給される部品をそのヘッド112に吸着させる。そして、部品実装機100は、ヘッド112を撮像部116上に一定速度で移動させ、ヘッド112に吸着された全ての部品の画像を撮像部116に取り込ませ、部品の形状や吸着位置などを正確に認識する。さらに、部品実装機100は、ヘッド112を基板20に移動させて、吸着している全ての部品を基板20の実装点に順次装着させる。部品実装機100は、このようなヘッド112による吸着、移動、および装着という一連の動作を繰り返し実行することにより、予め定められた全ての部品を基板20に実装する。   In such a component mounting machine 100, the head 112 is moved to the component supply unit 115a or the component supply unit 115b, and the components supplied from the component supply units 115a and 115b are attracted to the head 112. Then, the component mounting machine 100 moves the head 112 onto the image pickup unit 116 at a constant speed, causes the image pickup unit 116 to capture images of all the components picked up by the head 112, and accurately determines the shape and pick-up position of the component. To recognize. Further, the component mounting machine 100 moves the head 112 to the substrate 20 and sequentially mounts all the sucked components on the mounting points of the substrate 20. The component mounter 100 mounts all predetermined components on the substrate 20 by repeatedly executing a series of operations such as suction, movement, and mounting by the head 112.

なお、上述のヘッド112による一連の動作、または、その1回あたりの一連の動作でヘッド112に吸着される部品群を、以下、タスクという。   Note that a group of components that are attracted to the head 112 by the above-described series of operations by the head 112 or a series of operations per one time is hereinafter referred to as a task.

図5は、3D撮像部116aによって部品が撮像される状態を説明するための説明図である。なお、図5の(a)は、ヘッド112と3D撮像部116aの配置を示し、図5の(b)は、3D撮像部116aから見たヘッド112を示す。   FIG. 5 is an explanatory diagram for explaining a state in which a part is imaged by the 3D imaging unit 116a. 5A shows the arrangement of the head 112 and the 3D imaging unit 116a, and FIG. 5B shows the head 112 viewed from the 3D imaging unit 116a.

ヘッド112は、図5の(a)に示すように、3D撮像部116aの上方をX方向に沿って移動する。このとき、例えば、ヘッド112の各ノズルnzは部品pを吸着している。   As shown in FIG. 5A, the head 112 moves along the X direction above the 3D imaging unit 116a. At this time, for example, each nozzle nz of the head 112 sucks the component p.

なお、ヘッド112の各ノズルnzはそれぞれ、撮像部116から出力される光やレーザビームなどを反射する反射板reを有する。   Each nozzle nz of the head 112 has a reflector plate re that reflects light output from the imaging unit 116, a laser beam, or the like.

3D撮像部116aは、図5の(a)に示すように、例えばスリット状の透光部61からレーザビームLaを照射し、そのレーザビームLaの照射位置をY方向の一方の向きに移動させることを繰り返し実行する。そして、3D撮像部116aは、部品pに反射したレーザビームLaを透光部61を介して検出する。   As shown in FIG. 5A, the 3D imaging unit 116a irradiates the laser beam La from, for example, a slit-shaped light transmitting unit 61, and moves the irradiation position of the laser beam La in one direction in the Y direction. Repeat that. Then, the 3D imaging unit 116 a detects the laser beam La reflected by the component p via the light transmitting unit 61.

ここで、ヘッド112の8つのノズルnzは、図5の(b)に示すように、2列4行に配列している。列は、ヘッドの移動方向(X方向)に沿った配列を示し、行はX方向と垂直な方向(Y方向)に沿った配列を示す。列には、A列およびB列があり、行には、0行、1行、2行、および3行がある。A列およびB列のそれぞれでは、4つのノズルnzがX方向に沿って配列し、0行や1行などの各行では、2つのノズルnzがY方向に沿って配列している。   Here, the eight nozzles nz of the head 112 are arranged in two columns and four rows as shown in FIG. The column indicates the arrangement along the head moving direction (X direction), and the row indicates the arrangement along the direction perpendicular to the X direction (Y direction). The columns include A column and B column, and the rows include 0 row, 1 row, 2 rows, and 3 rows. In each of the A column and the B column, four nozzles nz are arranged along the X direction, and in each row such as the zero row and the one row, two nozzles nz are arranged along the Y direction.

したがって、3D撮像部116aがレーザビームLaの照射位置をY方向の一方の向きに移動させることにより、図5の(b)の点線の矢印に示すように、そのレーザビームLaは、Y方向に配列している同一行(例えば0行など)に属する2つの部品p上に1つのラインを描くように当たることとなる。例えば、3D撮像部116aは、約250μsの間にレーザビームLaの照射位置をY方向の一方の向きに移動させる。3D撮像部116aは、このようなレーザビームLaの照射位置の移動を、ヘッド112がX方向に僅かに移動するごとに繰り返し、同一行のA列およびB列に属する2つの部品pのそれぞれに反射されたレーザビームLaの検出結果に基づいて、それらの部品pの画像を同時に取り込む。つまり、3D撮像部116aは、ヘッド112が3D撮像部116aの上方を移動すると、ヘッド112のY方向に配列している2つのノズルnzに吸着された2つの部品pごとに、それらの部品pを同時に走査してそれらの画像を同時に取り込む。   Therefore, when the 3D imaging unit 116a moves the irradiation position of the laser beam La in one direction in the Y direction, the laser beam La is moved in the Y direction as shown by the dotted arrow in FIG. One line is drawn on two parts p belonging to the same row (for example, 0 row) arranged. For example, the 3D imaging unit 116a moves the irradiation position of the laser beam La in one direction in the Y direction during about 250 μs. The 3D imaging unit 116a repeats such movement of the irradiation position of the laser beam La every time the head 112 slightly moves in the X direction, and each of the two parts p belonging to the A column and the B column in the same row. Based on the detection result of the reflected laser beam La, images of those parts p are simultaneously captured. That is, when the head 112 moves above the 3D image pickup unit 116a, the 3D image pickup unit 116a divides each of the two parts p adsorbed by the two nozzles nz arranged in the Y direction of the head 112 into those parts p. Are simultaneously scanned to capture these images simultaneously.

すなわち、3D撮像部116aは、まず、0行に属する2つのノズルnzに吸着された2つの部品pをレーザビームLaで同時に走査することにより、これらの部品pの画像を同時に取り込む。次に、3D撮像部116aは、1行に属する2つのノズルnzに吸着された2つの部品pをレーザビームLaで同時に走査することにより、これらの部品pの画像を同時に取り込む。このように、3D撮像部116aは、同一行に属する2つのノズルnzに吸着された2つの部品pの画像を順次同時に取り込むことにより、ヘッド112に吸着されている全て(8個)の部品p、つまり1タスク分の部品pの画像を取り込む。   That is, the 3D imaging unit 116a first captures images of these components p by simultaneously scanning the two components p adsorbed by the two nozzles nz belonging to the 0th row with the laser beam La. Next, the 3D imaging unit 116a simultaneously captures images of these components p by simultaneously scanning the two components p adsorbed by the two nozzles nz belonging to one row with the laser beam La. In this way, the 3D imaging unit 116a sequentially captures the images of the two components p adsorbed by the two nozzles nz belonging to the same row at the same time, so that all (eight) components p adsorbed by the head 112 are obtained. That is, the image of the part p for one task is captured.

図6は、3D撮像部116aの内部の機械構成を示す図である。
3D撮像部116aは、半導体レーザ62と、ポリゴンミラー63と、2つの半導体位置検出素子(Position Sensitive Detector)64と、複合レンズ65a,65bと、同期信号検出部66とを備えている。
FIG. 6 is a diagram illustrating an internal mechanical configuration of the 3D imaging unit 116a.
The 3D imaging unit 116 a includes a semiconductor laser 62, a polygon mirror 63, two semiconductor position detection elements (Position Sensitive Detectors) 64, compound lenses 65 a and 65 b, and a synchronization signal detection unit 66.

半導体レーザ62は、レーザビームLaの光源であって、半導体のいわゆる再結合発光を利用することにより、複合レンズ65bに向けてレーザビームLaを出力する。   The semiconductor laser 62 is a light source of the laser beam La, and outputs the laser beam La toward the compound lens 65b by using so-called recombination light emission of the semiconductor.

複合レンズ65bは、複数のレンズからなり、半導体レーザ62から出力されたレーザビームLaを透過させて反射し、そのレーザビームLaをポリゴンミラー63に向ける。   The compound lens 65 b includes a plurality of lenses, transmits and reflects the laser beam La output from the semiconductor laser 62, and directs the laser beam La toward the polygon mirror 63.

ポリゴンミラー63は、複合レンズ65bからレーザビームLaを受けると、そのレーザビームLaを複合レンズ65aに向けて反射する。また、ポリゴンミラー63は、XY平面上に回動することにより、複合レンズ65aに照射されるレーザビームLaをY方向の一方の向きに傾ける。   When receiving the laser beam La from the composite lens 65b, the polygon mirror 63 reflects the laser beam La toward the composite lens 65a. Further, the polygon mirror 63 tilts the laser beam La applied to the compound lens 65a in one direction in the Y direction by rotating on the XY plane.

さらに、ポリゴンミラー63は、XY平面上に回動することにより、そのレーザビームLaの向きの変化と同期したタイミングで、レーザビームLaを同期信号検出部66に向けて反射する。つまり、ポリゴンミラー63は、反射されるレーザビームLaをY方向の一方の向きに傾けて、再び、その向きを元に戻すときに、レーザビームLaを同期信号検出部66に向けて反射する。   Furthermore, the polygon mirror 63 rotates on the XY plane, and reflects the laser beam La toward the synchronization signal detection unit 66 at a timing synchronized with the change in the direction of the laser beam La. That is, the polygon mirror 63 tilts the reflected laser beam La in one direction in the Y direction and reflects the laser beam La toward the synchronization signal detection unit 66 when returning the direction again.

複合レンズ65aは、複数のレンズからなり、ポリゴンミラー63によって反射されたレーザビームLaを透過させて、透光部61から3D撮像部116aの外部に出力させる。   The compound lens 65a includes a plurality of lenses, transmits the laser beam La reflected by the polygon mirror 63, and outputs the laser beam La to the outside of the 3D imaging unit 116a.

2つの半導体位置検出素子64は、透光部61を介して、部品pに反射されたレーザビームLaを受光して、その受光結果に応じた検出信号を出力する。この検出信号は、部品pにおいてレーザビームLaが当たった部位の高さや厚みなどを示す。   The two semiconductor position detecting elements 64 receive the laser beam La reflected by the component p via the light transmitting portion 61 and output a detection signal corresponding to the light reception result. This detection signal indicates the height, thickness, and the like of the part of the component p that has been irradiated with the laser beam La.

同期信号検出部66は、ポリゴンミラー63から同期信号検出部66に向けて反射されたレーザビームLaを検出すると、その検出結果に応じた同期信号を出力する。この同期信号は、上述の検出信号の示す部品pの高さに対応するその部品pの位置を特定するために利用される。   When the synchronization signal detection unit 66 detects the laser beam La reflected from the polygon mirror 63 toward the synchronization signal detection unit 66, the synchronization signal detection unit 66 outputs a synchronization signal corresponding to the detection result. This synchronization signal is used to specify the position of the part p corresponding to the height of the part p indicated by the detection signal.

図7は、本実施の形態における部品実装機100の機能構成を示す図である。
部品実装機100は、機構部Mと、主制御部160と、上述の3D撮像部116aおよび2D撮像部116bと、通信部161と、仕様データ格納部162と、パラメータ格納部163と、取得データ格納部164とを備えている。
FIG. 7 is a diagram illustrating a functional configuration of the component mounter 100 according to the present embodiment.
The component mounter 100 includes a mechanism unit M, a main control unit 160, the above-described 3D imaging unit 116a and 2D imaging unit 116b, a communication unit 161, a specification data storage unit 162, a parameter storage unit 163, and acquired data. A storage unit 164.

機構部Mは、主制御部160による制御に応じて機械的に動作する複数の機構からなり、上述のヘッド112、X軸ロボット121、およびY軸ロボット140などを含む。   The mechanism unit M includes a plurality of mechanisms that mechanically operate in accordance with control by the main control unit 160, and includes the head 112, the X-axis robot 121, the Y-axis robot 140, and the like described above.

仕様データ格納部162は、部品実装機100に備えられている3D撮像部の仕様などを示す撮像仕様データ162aを格納する。   The specification data storage unit 162 stores imaging specification data 162a indicating the specifications of the 3D imaging unit provided in the component mounter 100.

パラメータ格納部163は、Aパラメータデータ、Bパラメータデータ、Cパラメータデータ、およびDパラメータデータなどの複数のパラメータデータを格納している。   The parameter storage unit 163 stores a plurality of parameter data such as A parameter data, B parameter data, C parameter data, and D parameter data.

複数のパラメータデータはそれぞれ、部品実装機100が実装可能な部品に対する適切な撮像条件を示す。具体的には、パラメータデータは、後述する光量下限値、高さずれ許容値、およびクリッピングレベルなどを撮像条件として示す。   Each of the plurality of parameter data indicates appropriate imaging conditions for a component that can be mounted by the component mounter 100. Specifically, the parameter data indicates a light amount lower limit value, a height deviation allowable value, a clipping level, and the like, which will be described later, as imaging conditions.

通信部161は、実装条件決定装置200と通信し、例えば、仕様データ格納部162に格納されている撮像仕様データ162aを実装条件決定装置200に出力する。また、通信部161は、実装条件決定装置200から実装条件データ164a、NCデータ164bおよび部品ライブラリ164cを取得して取得データ格納部164に格納する。   The communication unit 161 communicates with the mounting condition determination device 200 and outputs, for example, the imaging specification data 162a stored in the specification data storage unit 162 to the mounting condition determination device 200. In addition, the communication unit 161 acquires the mounting condition data 164a, the NC data 164b, and the component library 164c from the mounting condition determination device 200 and stores them in the acquired data storage unit 164.

図8は、NCデータ164bの一例を示す図である。
NCデータ164bは、基板20において装着の対象となる全ての部品の実装点に関する情報を示す。1つの実装点piは、部品種ci、X座標xi、Y座標yi、制御データφi、および実装角度θiからなる。ここで、部品種は、部品ライブラリ164cにおける部品名に相当し(図9参照)、X座標およびY座標は、実装点の座標(基板20上の特定位置を示す座標)であり、制御データは、その部品の装着に関する制約情報、例えば、使用可能なノズルnzのタイプや、ヘッド112の最高移動加速度等を示す。実装角度は、部品種ciの部品を吸着したノズルnzが回転すべき角度を示す。
FIG. 8 is a diagram illustrating an example of the NC data 164b.
The NC data 164b indicates information related to mounting points of all components to be mounted on the board 20. One mounting point pi includes a component type ci, an X coordinate xi, a Y coordinate yi, control data φi, and a mounting angle θi. Here, the component type corresponds to the component name in the component library 164c (see FIG. 9), the X coordinate and the Y coordinate are the coordinates of the mounting point (coordinates indicating a specific position on the board 20), and the control data is , The restriction information related to the mounting of the component, for example, the type of nozzle nz that can be used, the maximum movement acceleration of the head 112, and the like. The mounting angle indicates an angle at which the nozzle nz that sucks the component of the component type ci should rotate.

図9は、部品ライブラリ164cの一例を示す図である。
部品ライブラリ164cは、部品実装機100が扱うことができる全ての部品種のそれぞれについての固有の情報を集めたライブラリである。この部品ライブラリ164cは、図9に示すように、部品種(部品名)ごとに、その部品種の部品に適切な撮像条件を示すパラメータデータの種別、その部品種の部品サイズ、その部品種におけるタクト、および制約情報などからなる。
FIG. 9 is a diagram illustrating an example of the component library 164c.
The component library 164c is a library that collects unique information about each of all component types that can be handled by the component mounter 100. As shown in FIG. 9, the component library 164c includes, for each component type (component name), a parameter data type indicating an imaging condition appropriate for a component of the component type, a component size of the component type, and a component type. It consists of tact and constraint information.

また、この部品ライブラリ164cの示すタクトは、一定条件下において部品を基板20に装着するのに要する部品種固有の時間であって、制約情報は、例えば、使用可能なノズルnzのタイプ(SXや、SAなど)や、2D撮像部116bによる認識方式(反射など)、ヘッド112の最高加速度比などである。また、図9には、参考として、各部品種の部品の外観も併せて示されている。部品ライブラリ164cには、その他に、部品の色や形状などの情報が含まれていてもよい。   The tact shown in the component library 164c is a time specific to the component type required to mount the component on the substrate 20 under a certain condition, and the constraint information includes, for example, the types of usable nozzles nz (SX and , SA, etc.), a recognition method (reflection, etc.) by the 2D imaging unit 116b, the maximum acceleration ratio of the head 112, and the like. FIG. 9 also shows the appearances of the components of each component type for reference. In addition, the component library 164c may include information such as the color and shape of the component.

また、実装条件データ164aは、部品実装機100による実装条件を示し、例えば、部品の実装順序やタクトを示すとともに、そのタクトに属する部品がヘッド112に配列された8つのノズルnzのうち何れのノズルnzに吸着されるべきかを示す。   The mounting condition data 164a indicates the mounting conditions by the component mounting machine 100. For example, the mounting condition data 164a indicates the mounting order and tact of the components, and any of the eight nozzles nz in which the components belonging to the tact are arranged in the head 112. Indicates whether the nozzle nz should be adsorbed.

主制御部160は、取得データ格納部164に格納されているNCデータ164bや実装条件データ164a、部品ライブラリ164cに基づいて、予め定められた複数の部品が基板20に適切に実装されるように、機構部M、3D撮像部116a、2D撮像部116b、および通信部161を制御する。   Based on the NC data 164b, the mounting condition data 164a, and the component library 164c stored in the acquired data storage unit 164, the main control unit 160 properly mounts a plurality of predetermined components on the board 20. , The mechanism unit M, the 3D imaging unit 116a, the 2D imaging unit 116b, and the communication unit 161 are controlled.

また、主制御部160は、3D撮像部が部品実装機100に取り付けられたときには、3D撮像部と通信することによりその3D撮像部の仕様などを特定し、その仕様などを示す上述の撮像仕様データ162aを生成して仕様データ格納部162に格納する。   Further, when the 3D imaging unit is attached to the component mounter 100, the main control unit 160 specifies the specification of the 3D imaging unit by communicating with the 3D imaging unit, and the above-described imaging specification indicating the specification and the like Data 162 a is generated and stored in the specification data storage unit 162.

さらに、主制御部160は、部品ライブラリ164cを参照することにより、実装条件データ164aによって示されるタスクごとに、そのタスクに属する全ての部品の撮像に必要なパラメータデータの種別を特定する。そして、主制御部160は、タスクごとに、その特定された種別のパラメータデータをパラメータ格納部163から読み出して3D撮像部116aに出力する。   Further, the main control unit 160 refers to the component library 164c to identify the type of parameter data necessary for imaging all components belonging to the task for each task indicated by the mounting condition data 164a. Then, the main control unit 160 reads out the specified type of parameter data from the parameter storage unit 163 and outputs the parameter data to the 3D imaging unit 116a for each task.

ここで、主制御部160は、3D撮像部116aにパラメータデータを出力するときには、実装条件データ164aを参照することにより、そのパラメータデータを用いて撮像される部品を吸着するノズルnzの属する列と行(以下、対象行列という)を付して出力する。   Here, when the main control unit 160 outputs the parameter data to the 3D imaging unit 116a, the main control unit 160 refers to the mounting condition data 164a, and the column to which the nozzle nz that picks up the component imaged using the parameter data belongs. Outputs a row (hereinafter referred to as the target matrix).

例えば、Aパラメータデータに対して対象行列A[1]が付されている。ここで、A[1]のAは、Aパラメータデータを用いて撮像される部品を吸着するノズルnzの属する列がA列であることを示し、A[1]の[1]は、Aパラメータデータを用いて撮像される部品を吸着するノズルnzの属する行が1行であることを示す。   For example, the target matrix A [1] is attached to the A parameter data. Here, A in A [1] indicates that the column to which the nozzle nz that picks up the component imaged using the A parameter data belongs is the A column, and [1] in A [1] indicates the A parameter. This indicates that the row to which the nozzle nz that picks up the component imaged using the data belongs is one row.

図10は、3D撮像部116aの機能構成を示す図である。
3D撮像部116aは、第3メモリ67と、3D撮像制御部68と、レーザドライバ62aと、半導体レーザ62と、ポリゴンミラー63と、モータ制御部63aと、半導体位置検出素子64と、アンプ64aと、A/D変換部64bと、同期信号検出部66と、FPGA69とを備えている。
FIG. 10 is a diagram illustrating a functional configuration of the 3D imaging unit 116a.
The 3D imaging unit 116a includes a third memory 67, a 3D imaging control unit 68, a laser driver 62a, a semiconductor laser 62, a polygon mirror 63, a motor control unit 63a, a semiconductor position detection element 64, and an amplifier 64a. , An A / D converter 64b, a synchronization signal detector 66, and an FPGA 69.

第3メモリ67は、主制御部160から出力されて取得された複数のパラメータデータを格納している。つまり、この複数のパラメータデータは、1つのタスクに属する全ての部品に対して適切な撮像条件を示す。   The third memory 67 stores a plurality of parameter data output from the main control unit 160 and acquired. That is, the plurality of parameter data indicate appropriate imaging conditions for all parts belonging to one task.

例えば、第3メモリ67は、Aパラメータデータ、Bパラメータデータ、Cパラメータデータ、Dパラメータデータ、およびEパラメータデータを格納している。   For example, the third memory 67 stores A parameter data, B parameter data, C parameter data, D parameter data, and E parameter data.

3D撮像制御部68は、第3メモリ67に格納されているパラメータデータを、それぞれに付された対象行列に従って取り出してFPGA69に出力する。   The 3D imaging control unit 68 extracts the parameter data stored in the third memory 67 according to the target matrix attached to each of the parameter data, and outputs the parameter data to the FPGA 69.

つまり、3D撮像制御部68は、まず、ヘッド112の0行にある2つの部品pが透光部61の上方に到達すると、対象行列A[0]およびB[0]が付されたパラメータデータをFPGA69に出力する。次に、3D撮像制御部68は、ヘッド112の1行にある2つの部品pが透光部61の上方に到達すると、対象行列A[1]およびB[1]が付されたパラメータデータをFPGA69に出力する。さらに、3D撮像制御部68は、ヘッド112の2行にある2つの部品pが透光部61の上方に到達すると、対象行列A[2]およびB[2]が付されたパラメータデータをFPGA69に出力する。   In other words, when the two components p in the 0th row of the head 112 reach the upper part of the light transmitting unit 61, the 3D imaging control unit 68 first sets the parameter data to which the target matrices A [0] and B [0] are attached. Is output to the FPGA 69. Next, when the two components p in one row of the head 112 reach above the translucent unit 61, the 3D imaging control unit 68 obtains parameter data with the target matrices A [1] and B [1] attached thereto. Output to the FPGA 69. Further, when the two parts p in the two rows of the head 112 reach the upper part of the translucent unit 61, the 3D imaging control unit 68 transmits the parameter data with the target matrices A [2] and B [2] to the FPGA 69. Output to.

このように、3D撮像制御部68は、ヘッド112の同一行に属する2つの部品pが透光部61の上方に到達するごとに、必要とされるパラメータデータをFPGA69に出力する。   As described above, the 3D imaging control unit 68 outputs necessary parameter data to the FPGA 69 every time two components p belonging to the same row of the head 112 reach the upper part of the light transmitting unit 61.

さらに、3D撮像制御部68は、ヘッド112のノズルnzによって吸着された部品pがレーザビームLaで走査されるように、レーザドライバ62aおよびモータ制御部63aを制御する。   Further, the 3D imaging control unit 68 controls the laser driver 62a and the motor control unit 63a so that the component p sucked by the nozzle nz of the head 112 is scanned with the laser beam La.

つまり、3D撮像制御部68は、ノズルnzに吸着された部品pが透光部61の上方に到達すると、レーザドライバ62aに対してレーザビームLaを出力するように指示するとともに、モータ制御部63aに対してポリゴンミラー63を回動するように指示する。   That is, the 3D imaging control unit 68 instructs the laser driver 62a to output the laser beam La and the motor control unit 63a when the component p adsorbed by the nozzle nz reaches the upper part of the translucent unit 61. Is instructed to rotate the polygon mirror 63.

レーザドライバ62aは、3D撮像制御部68から出力の指示を受けると、半導体レーザ62に電力を供給してその半導体レーザ62からレーザビームLaを出力させる。   Upon receiving an output instruction from the 3D imaging control unit 68, the laser driver 62 a supplies power to the semiconductor laser 62 and causes the semiconductor laser 62 to output a laser beam La.

モータ制御部63aは、3D撮像制御部68から出力の指示を受けると、ポリゴンミラー63を回動させて、レーザビームLaの向きを変える。   Upon receiving an output instruction from the 3D imaging control unit 68, the motor control unit 63a rotates the polygon mirror 63 to change the direction of the laser beam La.

アンプ64aは、半導体位置検出素子64から検出信号Sdを受けると、その検出信号Sdを増幅してA/D変換部64bに出力する。   Upon receiving the detection signal Sd from the semiconductor position detection element 64, the amplifier 64a amplifies the detection signal Sd and outputs it to the A / D conversion unit 64b.

A/D変換部64bは、A/D変換部64bによって増幅された検出信号Sdを受けると、その検出信号Sdをアナログ信号からデジタル信号に変換し、デジタル信号の検出信号SdをFPGA69に出力する。   Upon receiving the detection signal Sd amplified by the A / D conversion unit 64b, the A / D conversion unit 64b converts the detection signal Sd from an analog signal to a digital signal, and outputs the detection signal Sd of the digital signal to the FPGA 69. .

なお、図10では、半導体位置検出素子64、アンプ64a、およびA/D変換部64bを1組だけ示しているが、3D撮像部116aは、これらを2組備えている。   In FIG. 10, only one set of the semiconductor position detection element 64, the amplifier 64a, and the A / D conversion unit 64b is shown, but the 3D imaging unit 116a includes two sets of these.

FPGA69は、Field Programmable Gate Arrayとして構成されており、A/D変換部64bから検出信号Sdを受けると、その検出信号Sdに基づいて、高さの情報を含む部品pの画像を生成して、その生成された画像を主制御部160に出力する。   The FPGA 69 is configured as a Field Programmable Gate Array. Upon receiving the detection signal Sd from the A / D conversion unit 64b, the FPGA 69 generates an image of the component p including height information based on the detection signal Sd. The generated image is output to the main control unit 160.

このようなFPGA69は、高さ計算部71と、カウンタ部72と、切換部73と、第1メモリ74と、第2メモリ75とを備えている。   Such an FPGA 69 includes a height calculation unit 71, a counter unit 72, a switching unit 73, a first memory 74, and a second memory 75.

カウンタ部72は、Xカウンタと、Yカウンタとを備えている。
Xカウンタは、同期信号検出部66から同期信号Syを受けるごとに、カウント数Xctを1つずつカウントアップする。つまり、カウント数Xctは、ヘッド112におけるレーザビームLaのX方向の照射位置を示す。
The counter unit 72 includes an X counter and a Y counter.
Each time the X counter receives the synchronization signal Sy from the synchronization signal detector 66, the X counter increments the count number Xct by one. That is, the count number Xct indicates the irradiation position of the laser beam La in the X direction in the head 112.

Yカウンタは、高さ計算部71によって1画素あたりの部品pの高さが計算されるごとに、カウント数Yctを1つずつカウントアップし、同期信号検出部66から同期信号Syを受けると、そのカウント数Yctを例えば0にリセットする。つまり、カウント数Yctは、ヘッド112におけるレーザビームLaのY方向の照射位置を示す。   Whenever the height calculator 71 calculates the height of the component p per pixel, the Y counter increments the count number Yct by one and receives the synchronization signal Sy from the synchronization signal detector 66. The count number Yct is reset to 0, for example. That is, the count number Yct indicates the irradiation position of the laser beam La in the Y direction on the head 112.

例えば、ポリゴンミラー63の回動によって、レーザビームLaの照射位置がヘッド112のA列からB列に移動する場合に、0<カウント数Yct<CNTのときには、そのカウント数Yctは、レーザビームLaがA列の部品pに当たっていることを示す。また、CNT<カウント数Yct<Ymxのときには、そのカウント数Yctは、レーザビームLaがB列の部品pに当たっていることを示す。そして、カウント数Yct=CTNのときには、そのカウント数Yctは、レーザビームLaの照射位置がA列の部品pとB列の部品pとの間にあることを示す。   For example, when the irradiation position of the laser beam La is moved from the A row to the B row of the head 112 by the rotation of the polygon mirror 63, when 0 <count number Yct <CNT, the count number Yct is equal to the laser beam La. Indicates that it corresponds to the part p in the A row. Further, when CNT <count number Yct <Ymx, the count number Yct indicates that the laser beam La hits the B-row component p. When the count number Yct = CTN, the count number Yct indicates that the irradiation position of the laser beam La is between the part p in the A row and the part p in the B row.

なお、Ymxは0より大きい整数であって、CNTは例えば1/Ymxに相当する整数である。   Ymx is an integer greater than 0, and CNT is an integer corresponding to 1 / Ymx, for example.

第1メモリ74および第2メモリ75は、同時に撮像される1つまたは2つの部品p、つまりヘッド112の同一行に属する1つまたは2つの部品pに対して、適切なパラメータデータを3D撮像制御部68から受け取って格納する。   The first memory 74 and the second memory 75 perform 3D imaging control of appropriate parameter data for one or two parts p that are simultaneously imaged, that is, one or two parts p that belong to the same row of the head 112. Received from the unit 68 and stored.

第1メモリ74は、ヘッド112のA列のノズルnzに吸着された部品に最適なパラメータデータ、つまり、対象行列としてA[n]が付されたパラメータデータを格納する。なお、nは0〜3の任意の整数を示す。第2メモリ75は、ヘッド112のB列のノズルnzに吸着された部品に適切なパラメータデータ、つまり、対象行列としてB[n]が付されたパラメータデータを格納する。したがって、第1メモリ74はA列用のパラメータデータを格納し、第2メモリ75はB列用のパラメータデータを格納する。   The first memory 74 stores parameter data that is optimal for the parts attracted to the nozzles nz in the A column of the head 112, that is, parameter data with A [n] added as a target matrix. In addition, n shows the arbitrary integer of 0-3. The second memory 75 stores parameter data appropriate for the parts sucked by the nozzles nz in the B row of the head 112, that is, parameter data with B [n] added as a target matrix. Accordingly, the first memory 74 stores the parameter data for the A column, and the second memory 75 stores the parameter data for the B column.

切換部73は、カウンタ部72のYカウンタの示すカウント数Yctに基づいて、第1メモリ74と第2メモリ75とを切り換えて高さ計算部71に接続する。例えば、切換部73は、0≦カウント数Yct<CNTのときには、第1メモリ74を高さ計算部71に接続し、CNT≦カウント数Yct≦Ymxのときには、第2メモリ75を高さ計算部71に接続する。つまり、切換部73は、カウント数Yct=CNTのときに、高さ計算部71の接続先を、第1メモリ74から第2メモリ75に切り換える。   The switching unit 73 switches between the first memory 74 and the second memory 75 based on the count number Yct indicated by the Y counter of the counter unit 72 and connects to the height calculation unit 71. For example, when 0 ≦ count number Yct <CNT, the switching unit 73 connects the first memory 74 to the height calculation unit 71, and when CNT ≦ count number Yct ≦ Ymx, the switching unit 73 sets the second memory 75 to the height calculation unit. Connect to 71. That is, the switching unit 73 switches the connection destination of the height calculation unit 71 from the first memory 74 to the second memory 75 when the count number Yct = CNT.

なお、本実施の形態では、この切換部73、第1メモリ74、第2メモリ75、およびカウンタ部72を切換手段として構成し、3D撮像部116aに含まれるこれら以外の構成要素を撮像手段として構成している。   In the present embodiment, the switching unit 73, the first memory 74, the second memory 75, and the counter unit 72 are configured as a switching unit, and other components included in the 3D imaging unit 116a are used as the imaging unit. It is composed.

高さ計算部71は、A/D変換部64bから検出信号Sdを取得し、その検出信号Sdに基づいて、レーザビームLaが当たった部品pの位置における高さ(厚み)を1画素単位で算出する。したがって、高さ計算部71は、部品pの全体がレーザビームLaで走査されると、その部品pの高さを含む部品p全体の画像を生成してその画像を主制御部160に出力する。また、高さ計算部71は、同一行に属するA列およびB列の2つの部品pがレーザビームLaで走査されると、2つの部品pの高さを含む画像を同時に生成してその画像を主制御部160に出力する。   The height calculation unit 71 obtains the detection signal Sd from the A / D conversion unit 64b, and based on the detection signal Sd, the height (thickness) at the position of the part p hit by the laser beam La is in units of one pixel. calculate. Therefore, when the entire part p is scanned with the laser beam La, the height calculation unit 71 generates an image of the entire part p including the height of the part p and outputs the image to the main control unit 160. . Further, when the two parts p in the A column and the B column belonging to the same row are scanned with the laser beam La, the height calculation unit 71 simultaneously generates an image including the heights of the two parts p and outputs the image. Is output to the main controller 160.

このように本実施の形態では、FPGA69の第1メモリ74および第2メモリ75にA列用のパラメータデータとB列用のパラメータデータとを格納しておくことにより、レーザビームLaの照射位置がA列とB列の間にある僅か数μsの間に、A列用のパラメータデータとB列用のパラメータデータとを切り換えることができる。   As described above, in the present embodiment, by storing the parameter data for the A column and the parameter data for the B column in the first memory 74 and the second memory 75 of the FPGA 69, the irradiation position of the laser beam La can be determined. The parameter data for the A column and the parameter data for the B column can be switched within a few μs between the A column and the B column.

ここで、パラメータデータにより示される撮像条件について説明する。
パラメータデータは、光量下限値、高さずれ許容値、およびクリッピングレベルなどを撮像条件として示す。
Here, imaging conditions indicated by the parameter data will be described.
The parameter data indicates the light amount lower limit value, the height deviation allowable value, the clipping level, and the like as the imaging conditions.

図11は、パラメータデータの示す光量下限値および高さずれ許容値を説明するための説明図である。   FIG. 11 is an explanatory diagram for explaining the light intensity lower limit value and the allowable height deviation value indicated by the parameter data.

上述のように、レーザビームLaは、半導体レーザ62から出力されて部品pによって反射され、2つの半導体位置検出素子64にそれぞれ検出される。そして、2つの半導体位置検出素子64はそれぞれ、その検出結果に応じた検出信号Sdをアンプ64aおよびA/D変換部64bを介して高さ計算部71に出力する。   As described above, the laser beam La is output from the semiconductor laser 62, reflected by the component p, and detected by the two semiconductor position detecting elements 64, respectively. Each of the two semiconductor position detection elements 64 outputs a detection signal Sd corresponding to the detection result to the height calculation unit 71 via the amplifier 64a and the A / D conversion unit 64b.

ここで、2つの半導体位置検出素子64は、部品pに向けて照射されるレーザビームLaを中心軸として線対称となるように配置されている。したがって、通常、部品pによって反射されたレーザビームLaは、それら2つの半導体位置検出素子64にそれぞれ等しく検出される。しかし、レーザビームLaが当てられた部品pの表面形状に応じて、何れか一方の半導体位置検出素子64に偏ってレーザビームLaが検出されてしまう場合がある。この場合には、他方の半導体位置検出素子64から出力される検出信号Sdの信頼性は低い。   Here, the two semiconductor position detecting elements 64 are arranged so as to be line symmetric with respect to the laser beam La irradiated toward the component p as a central axis. Therefore, normally, the laser beams La reflected by the component p are detected equally by the two semiconductor position detecting elements 64, respectively. However, depending on the surface shape of the component p to which the laser beam La is applied, there is a case where the laser beam La is detected biased to one of the semiconductor position detection elements 64. In this case, the reliability of the detection signal Sd output from the other semiconductor position detection element 64 is low.

そこで、高さ計算部71は、それぞれの検出信号Sdの信頼性の有無を、光量下限値を用いて判別し、信頼性がないと判別すると、信頼性がないと判別された検出信号Sdに基づく高さの算出を中止する。   Therefore, the height calculation unit 71 determines whether each detection signal Sd is reliable using the light amount lower limit value. If the height calculation unit 71 determines that the detection signal Sd is not reliable, the height calculation unit 71 determines whether the detection signal Sd is determined to be unreliable. Stop calculating the height based on.

すなわち、光量下限値は、半導体位置検出素子64からアンプ64aおよびA/D変換部64bを介して出力された検出信号Sdの出力レベルの閾値を示す。   That is, the light quantity lower limit value indicates a threshold value of the output level of the detection signal Sd output from the semiconductor position detection element 64 via the amplifier 64a and the A / D conversion unit 64b.

したがって、高さ計算部71は、半導体位置検出素子64から出力された検出信号Sdの出力レベルが光量下限値よりも小さければ、その検出信号Sdの信頼性はないと判別し、その検出信号Sdに基づく高さの算出を行わない。その結果、2つの半導体位置検出素子64から出力された検出信号Sdのうち、何れか一方の検出信号Sdの出力レベルが光量下限値よりも小さく、他方の検出信号Sdの出力レベルが光量下限値以上であれば、高さ計算部71は、その他方の検出信号Sdのみに基づいて高さを算出する。   Therefore, if the output level of the detection signal Sd output from the semiconductor position detection element 64 is smaller than the light amount lower limit value, the height calculation unit 71 determines that the detection signal Sd is not reliable, and the detection signal Sd The height is not calculated based on. As a result, of the detection signals Sd output from the two semiconductor position detection elements 64, the output level of one of the detection signals Sd is smaller than the light amount lower limit value, and the output level of the other detection signal Sd is the light amount lower limit value. If so, the height calculator 71 calculates the height based only on the other detection signal Sd.

なお、本実施の形態では、3D撮像部116aは、A列およびB列の部品に反射されたレーザビームLaを2つの半導体位置検出素子64で検出する検出サブステップと、半導体位置検出素子64ごとに、その半導体位置検出素子64で検出された結果に基づいて、A列およびB列の部品における照射位置での高さを算出する高さ算出サブステップと、2つの半導体位置検出素子64で検出された照射位置での2つの高さから、1つの高さを決定する高さ決定サブステップと、その高さ決定サブステップで決定された高さを含むA列およびB列の部品の画像を生成する画像生成サブステップとを実行している。そして、本実施の形態における3D撮像部116aは、その高さ算出サブステップにおいて、半導体位置検出素子64で検出されたレーザビームLaの光量(出力レベル)がパラメータデータの示す光量下限値よりも小さい場合には、その半導体位置検出素子64で検出された結果に基づく高さの算出を禁止する。   In the present embodiment, the 3D imaging unit 116a includes a detection sub-step for detecting the laser beams La reflected by the components in the A and B rows by the two semiconductor position detecting elements 64, and each semiconductor position detecting element 64. Further, based on the result detected by the semiconductor position detection element 64, a height calculation sub-step for calculating the height at the irradiation position in the parts of the A row and the B row and detection by the two semiconductor position detection elements 64 The height determination substep for determining one height from the two heights at the irradiated position, and the images of the parts in the A and B columns including the heights determined in the height determination substep The image generation sub-step to be generated is executed. In the 3D imaging unit 116a according to the present embodiment, the light amount (output level) of the laser beam La detected by the semiconductor position detection element 64 is smaller than the light amount lower limit value indicated by the parameter data in the height calculation substep. In this case, the height calculation based on the result detected by the semiconductor position detection element 64 is prohibited.

また、上述のように、通常では、部品pによって反射されたレーザビームLaは、それら2つの半導体位置検出素子64にそれぞれ等しく検出されるため、それら2つの半導体位置検出素子64から出力された検出信号Sdに基づいて算出される2つの高さは等しくなるはずである。したがって、これらの高さに所定量以上のずれがあると、それらの高さに信頼性がないこととなる。   Further, as described above, normally, the laser beams La reflected by the component p are detected equally by the two semiconductor position detecting elements 64, so that the detections output from the two semiconductor position detecting elements 64 are detected. The two heights calculated on the basis of the signal Sd should be equal. Therefore, if there is a deviation of a predetermined amount or more in these heights, the heights are not reliable.

すなわち、高さずれ許容値は、2つの半導体位置検出素子64から出力された検出信号Sdのそれぞれによって算出される2つの高さのずれの許容値を示す。   In other words, the height deviation allowable value indicates the two height deviation allowable values calculated by the detection signals Sd output from the two semiconductor position detection elements 64.

したがって、高さ計算部71は、2つの半導体位置検出素子64から出力された検出信号Sdのそれぞれに基づいて2つの高さを算出すると、算出された2つの高さの差が高さずれ許容値以下に収まっているか否かを判別する。そして、高さ計算部71は、収まっていると判別すると、それらの高さに信頼性があると判断し、例えば、その2つの高さの平均値を算出することにより、レーザビームLaが当てられた部品pの位置における高さを決定する。一方、高さ計算部71は、2つの高さの差が高さずれ許容値以下に収まっていないと判別すると、それらの高さに信頼性がないと判断してそれらの高さを消去する。   Therefore, when the height calculation unit 71 calculates two heights based on the detection signals Sd output from the two semiconductor position detection elements 64, the difference between the two calculated heights is the height deviation tolerance. It is determined whether or not the value is below the value. When the height calculation unit 71 determines that the heights are within the range, the height calculation unit 71 determines that the heights are reliable. For example, by calculating an average value of the two heights, the laser beam La is applied. The height at the position of the given part p is determined. On the other hand, if the height calculation unit 71 determines that the difference between the two heights is not less than or equal to the height deviation allowable value, the height calculation unit 71 determines that the heights are not reliable and deletes the heights. .

つまり、本実施の形態では、3D撮像部116aは、上述の高さ算出サブステップで算出された照射位置での2の高さのずれが、パラメータデータの示す高さずれ許容値よりも大きい場合には、その2つの高さから1つの高さを決定することを禁止している。   That is, in the present embodiment, the 3D imaging unit 116a has a case where the height deviation of 2 at the irradiation position calculated in the height calculation sub-step is larger than the height deviation allowable value indicated by the parameter data. It is prohibited to determine one height from the two heights.

図12は、パラメータデータの示すクリッピングレベルを説明するための説明図である。   FIG. 12 is an explanatory diagram for explaining the clipping level indicated by the parameter data.

クリッピングレベルは部品p周辺の高さを示す。
つまり、高さ計算部71は、検出信号Sdに応じて高さを順次算出すると、部品p周辺の極めて低い部分において、変動の激しい高さを算出することがある。このとき、高さ計算部71は、その部品p周辺の高さをクリッピングレベルにする。例えば、図12に示すように、高さ計算部71は、部品p周辺の高さをクリッピングレベル1にしたりクリッピングレベル2にしたりする。
The clipping level indicates the height around the part p.
That is, when the height calculation unit 71 sequentially calculates the height in accordance with the detection signal Sd, the height calculation unit 71 may calculate a highly fluctuating height in an extremely low part around the part p. At this time, the height calculation unit 71 sets the height around the part p to the clipping level. For example, as shown in FIG. 12, the height calculation unit 71 sets the height around the component p to clipping level 1 or clipping level 2.

その結果、高さ計算部71は、クリッピングレベルに設定された周辺を含む部品pの画像を生成して主制御部160に出力する。   As a result, the height calculation unit 71 generates an image of the component p including the periphery set to the clipping level and outputs it to the main control unit 160.

図13は、同期信号Syとカウント数Yctとパラメータデータとの関係を示す図である。   FIG. 13 is a diagram illustrating a relationship among the synchronization signal Sy, the count number Yct, and the parameter data.

例えば、時刻t1で同期信号Syが出力されると、カウンタ部72のYカウンタはカウント数Yctを0にリセットする。そしてこのとき、切換部73は、高さ計算部71にA列用の第1メモリ74を接続する。   For example, when the synchronization signal Sy is output at time t1, the Y counter of the counter unit 72 resets the count number Yct to zero. At this time, the switching unit 73 connects the first memory 74 for the A column to the height calculation unit 71.

これにより、高さ計算部71は、時刻t1以降、A列用の第1メモリ74に格納されているパラメータデータを使用して、ヘッド112のA列にある部品pの高さを1画素ごとにY方向に沿って順次算出する。さらに、Yカウンタは、時刻t1以降、1画素に対する部品pの高さが算出されるごとに、カウントアップを繰り返して行う。   As a result, the height calculation unit 71 uses the parameter data stored in the first memory 74 for the A column after the time t1, and calculates the height of the component p in the A column of the head 112 for each pixel. Are sequentially calculated along the Y direction. Furthermore, the Y counter repeats counting up every time the height of the component p for one pixel is calculated after time t1.

次に、時刻t2でYカウンタのカウント数がYct=CNTになると、切換部73は、高さ計算部71の接続先を第1メモリ74からB列用の第2メモリ75に切り換える。   Next, when the count number of the Y counter becomes Yct = CNT at time t2, the switching unit 73 switches the connection destination of the height calculation unit 71 from the first memory 74 to the second memory 75 for the B column.

これにより、高さ計算部71は、時刻t2以降、B列用の第2メモリ75に格納されているパラメータデータを使用して、ヘッド112のB列にある部品pの高さを1画素ごとにY方向に沿って順次算出する。さらに、Yカウンタは、時刻t2以降も継続して、1画素に対する部品pの高さが算出されるごとに、カウントアップを繰り返して行う。   As a result, the height calculation unit 71 uses the parameter data stored in the second memory 75 for the B column after time t2, and sets the height of the component p in the B column of the head 112 for each pixel. Are sequentially calculated along the Y direction. Further, the Y counter continues counting after time t2 and repeats counting up every time the height of the component p for one pixel is calculated.

そして、時刻t3で同期信号Syが出力されると、カウンタ部72のYカウンタはカウント数Yctを再び0にリセットする。そしてこのとき、切換部73は、高さ計算部71の接続先を、第2メモリ75からA列用の第1メモリ74に切り換える。   Then, when the synchronization signal Sy is output at time t3, the Y counter of the counter unit 72 resets the count number Yct to 0 again. At this time, the switching unit 73 switches the connection destination of the height calculation unit 71 from the second memory 75 to the first memory 74 for the A column.

これにより、高さ計算部71は、時刻t3以降、A列用の第1メモリ74に格納されているパラメータデータを使用して、ヘッド112のA列にある部品pの高さを1画素ごとにY方向に沿って順次算出する。さらに、Yカウンタは、時刻t3以降も継続して、1画素に対する部品pの高さが算出されるごとに、カウントアップを繰り返して行う。   Accordingly, the height calculation unit 71 uses the parameter data stored in the first memory 74 for the A column after time t3 to set the height of the component p in the A column of the head 112 for each pixel. Are sequentially calculated along the Y direction. Further, the Y counter continues counting after time t3 and repeats counting up every time the height of the component p for one pixel is calculated.

このように、本実施の形態における高さ計算部71は、レーザビームLaの照射位置がY方向に沿って移動している間に、カウント数Yctに基づいて、第1および第2メモリ74,75に格納されているパラメータデータを切り換えて用いる。したがって、ヘッド112の同一行に属するA列の部品pとB列の部品pとのそれぞれに適したパラメータデータが異なっていても、高さ計算部71は、レーザビームLaの照射位置の移動途中でパラメータデータを素早く切り換えることで、これらの部品pを同時に撮像することができる。   As described above, the height calculation unit 71 in the present embodiment uses the first and second memories 74, 74 based on the count number Yct while the irradiation position of the laser beam La is moving along the Y direction. The parameter data stored in 75 is switched and used. Therefore, even if the parameter data suitable for the part p of the A column and the part p of the B column belonging to the same row of the head 112 are different, the height calculation unit 71 is in the process of moving the irradiation position of the laser beam La. By switching the parameter data quickly, these parts p can be imaged simultaneously.

図14は、ヘッド112に吸着された各部品の状態を示す図である。
例えば、ヘッド112のA列0行、B列0行およびB列1行にあるノズルnzには、撮像にBパラメータデータを要する部品pa0、部品pb0および部品pb1が吸着されている。さらに、ヘッド112のA列1行にあるノズルnzには、撮像にAパラメータデータを要する部品pa1が吸着され、ヘッド112のA列2行にあるノズルnzには、撮像にCパラメータデータを要する部品pa2が吸着され、ヘッド112のB列2行にあるノズルnzには、撮像にDパラメータデータを要する部品pb2が吸着されている。また、ヘッド112のA列3行およびB列3行にあるノズルnzには、撮像にEパラメータデータを要する部品pa3および部品b3が吸着されている。
FIG. 14 is a diagram illustrating a state of each component sucked by the head 112.
For example, the components pa0, pb0, and pb1 that require B parameter data for imaging are adsorbed to the nozzles nz in the A column 0 row, the B column 0 row, and the B column 1 row of the head 112. Further, the part pa1 that requires A parameter data for imaging is adsorbed to the nozzle nz in the first column of column A of the head 112, and the C parameter data is required for imaging of the nozzle nz in the second column of column A of the head 112. The part pa2 is sucked and the part pb2 that requires D parameter data for picking up is picked up by the nozzle nz in the B column and the second row of the head 112. Further, the parts pa3 and b3 that require E parameter data for imaging are adsorbed to the nozzles nz in the A column 3 rows and the B column 3 rows of the head 112.

なお、図14中の点線の矢印は、レーザビームLaの照射位置の軌道を示す。
このようなヘッド112が移動して、ヘッド112の0行にあるノズルnzに吸着されている部品が撮像範囲に入ると、3D撮像部116aは、第1および第2メモリ74,75に格納されているBパラメータデータを用いることで、A列0行およびB列0行にあるノズルnzに吸着されている部品pa0および部品pb0の画像を同時に取り込む。
Note that the dotted arrow in FIG. 14 indicates the trajectory of the irradiation position of the laser beam La.
When such a head 112 moves and a component adsorbed by the nozzle nz in the 0th row of the head 112 enters the imaging range, the 3D imaging unit 116a is stored in the first and second memories 74 and 75. By using the B parameter data, the images of the component pa0 and the component pb0 adsorbed by the nozzle nz in the A column 0 row and the B column 0 row are captured simultaneously.

さらに、ヘッド112が移動して、ヘッド112の0行にあるノズルnzに吸着されている部品が撮像範囲から抜けると、3D撮像部116aは、第1メモリ74に格納されているBパラメータデータをAパラメータデータに置き換える。そして、ヘッド112が移動して、ヘッド112の1行にあるノズルnzに吸着されている部品が撮像範囲に入ると、3D撮像部116aは、第1および第2メモリ74,75に格納されているAパラメータデータとBパラメータデータとを切り換えて用いることで、A列1行およびB列1行にあるノズルnzに吸着されている部品pa1および部品pb1の画像を同時に取り込む。   Further, when the head 112 moves and the component adsorbed by the nozzle nz in the 0th row of the head 112 goes out of the imaging range, the 3D imaging unit 116a uses the B parameter data stored in the first memory 74. Replace with A parameter data. Then, when the head 112 moves and the parts adsorbed by the nozzles nz in one row of the head 112 enter the imaging range, the 3D imaging unit 116a is stored in the first and second memories 74 and 75. By switching between the A parameter data and the B parameter data, the images of the component pa1 and the component pb1 adsorbed by the nozzles nz in the A column 1 row and the B column 1 row are simultaneously captured.

そして、ヘッド112が移動して、ヘッド112の1行にあるノズルnzに吸着されている部品が撮像範囲から抜けると、3D撮像部116aは、第1メモリ74に格納されているAパラメータデータをCパラメータデータに置き換え、第2メモリ75に格納されているBパラメータデータをDパラメータデータに置き換える。そして、ヘッド112が移動して、ヘッド112の2行にあるノズルnzに吸着されている部品が撮像範囲に入ると、3D撮像部116aは、第1および第2メモリ74,75に格納されているCパラメータデータとDパラメータデータとを切り換えて用いることで、A列2行およびB列2行にあるノズルnzに吸着されている部品pa2および部品pb2の画像を同時に取り込む。   Then, when the head 112 moves and a component adsorbed by the nozzle nz in one row of the head 112 goes out of the imaging range, the 3D imaging unit 116a uses the A parameter data stored in the first memory 74. The B parameter data stored in the second memory 75 is replaced with the D parameter data. Then, when the head 112 moves and the components adsorbed by the nozzles nz in the two rows of the head 112 enter the imaging range, the 3D imaging unit 116a is stored in the first and second memories 74 and 75. By switching between the C parameter data and the D parameter data, the images of the component pa2 and the component pb2 adsorbed by the nozzles nz in the A column 2 rows and the B column 2 rows are simultaneously captured.

さらに、ヘッド112が移動して、ヘッド112の2行にあるノズルnzに吸着されている部品が撮像範囲から抜けると、3D撮像部116aは、第1メモリ74に格納されているCパラメータデータをEパラメータデータに置き換え、第2メモリ75に格納されているDパラメータデータをEパラメータデータに置き換える。そして、ヘッド112が移動して、ヘッド112の3行にあるノズルnzに吸着されている部品が撮像範囲に入ると、3D撮像部116aは、第1および第2メモリ74,75に格納されているEパラメータデータを用いることで、A列3行およびB列3行にあるノズルnzに吸着されている部品pa3および部品pb3の画像を同時に取り込む。   Further, when the head 112 moves and the parts adsorbed by the nozzles nz in the two rows of the head 112 come out of the imaging range, the 3D imaging unit 116a stores the C parameter data stored in the first memory 74. The D parameter data stored in the second memory 75 is replaced with the E parameter data. When the head 112 moves and the parts adsorbed by the nozzles nz in the three rows of the head 112 enter the imaging range, the 3D imaging unit 116a is stored in the first and second memories 74 and 75. By using the E parameter data, the images of the part pa3 and the part pb3 adsorbed by the nozzle nz in the A column 3 row and the B column 3 row are simultaneously captured.

したがって、本実施の形態における3D撮像部116aでは、適切なパラメータデータの異なる2つの部品の画像を同時に取り込むことができるため、図19に示すように、従来では部品pa0などと同一のタスクにできなかった部品pa1および部品pa2を同一のタスクにすることができる。その結果、タクトの短縮化を図ることができる。   Therefore, since the 3D imaging unit 116a according to the present embodiment can simultaneously capture images of two parts having different appropriate parameter data, as shown in FIG. 19, conventionally, the same task as the part pa0 can be performed. The part pa1 and the part pa2 which have not been made can be made the same task. As a result, the tact can be shortened.

図15は、3D撮像部116aの動作を示すフローチャートである。
3D撮像部116aは、まず、第1メモリ74を高さ計算部71に接続することで、第1メモリ74に格納されているA列用のパラメータデータを設定する(ステップS10)。
FIG. 15 is a flowchart showing the operation of the 3D imaging unit 116a.
First, the 3D imaging unit 116a sets the parameter data for the A column stored in the first memory 74 by connecting the first memory 74 to the height calculation unit 71 (step S10).

次に、3D撮像部116aは、レーザビームLaの走査を1ラインだけ開始する(ステップS12)。なお、この走査の開始時には、Yカウンタのカウント数YctはYct=0になっている。   Next, the 3D imaging unit 116a starts scanning only one line with the laser beam La (step S12). At the start of this scanning, the count number Yct of the Y counter is Yct = 0.

そして、3D撮像部116aは、カウント数YctがYct=CNTであるか否か、すなわち、レーザビームLaの照射位置がヘッド112のA列とB列との間にあるか否かを判別する(ステップS14)。ここで、3D撮像部116aは、照射位置がA列とB列との間にあると判別すると(ステップS14のY)、高さ計算部71に接続されている第1メモリ74を第2メモリ75に切り換えることで、A列用のパラメータデータをB列用のパラメータデータに変更する(ステップS16)。   Then, the 3D imaging unit 116a determines whether or not the count number Yct is Yct = CNT, that is, whether or not the irradiation position of the laser beam La is between the A column and the B column of the head 112 ( Step S14). Here, if the 3D imaging unit 116a determines that the irradiation position is between the A row and the B row (Y in step S14), the first memory 74 connected to the height calculation unit 71 is stored in the second memory. By switching to 75, the parameter data for the A column is changed to the parameter data for the B column (step S16).

つまり、本実施の形態における3D撮像部116aでは、ステップS16(切換ステップ)において、レーザビームLaの照射位置がA列の部品にあるときと、その照射位置がB列の部品にあるときとで、撮像に用いられている撮像条件を切り換えている。   That is, in the 3D imaging unit 116a according to the present embodiment, in step S16 (switching step), when the irradiation position of the laser beam La is in the A-row component and when the irradiation position is in the B-row component. The imaging conditions used for imaging are switched.

次に、3D撮像部116aは、1ラインの走査が終了したか否か、つまり、Yカウンタのカウント数YctがYct=Ymxになっているか否かを判別する(ステップS18)。   Next, the 3D imaging unit 116a determines whether or not scanning of one line is completed, that is, whether or not the count number Yct of the Y counter is Yct = Ymx (step S18).

つまり、本実施の形態における3D撮像部116aでは、ステップS12〜S18(撮像ステップ)において、ヘッド112に向けて照射されたレーザビームLaの照射位置が、Y方向に沿って配列してヘッド112に吸着されているA列およびB列の部品を通過するように、レーザビームLaの照射位置をY方向に移動させながら、照射位置で反射されたレーザビームLaを検出することにより、A列およびB列の部品のレーザビームLaに照射された部分を撮像している。   That is, in the 3D imaging unit 116a according to the present embodiment, the irradiation positions of the laser beam La emitted toward the head 112 are arranged along the Y direction in steps S12 to S18 (imaging step). By detecting the laser beam La reflected at the irradiation position while moving the irradiation position of the laser beam La in the Y direction so as to pass through the sucked parts of the A row and the B row, the A row and the B row are detected. The part irradiated with the laser beam La of the parts in the row is imaged.

ここで、3D撮像部116aは、Yct=Ymxになっていないと判別すると(ステップS18のN)、ステップS14からの動作を繰り返し実行する。一方、3D撮像部116aは、Yct=Ymxになっていると判別すると(ステップS18のY)、さらに、ヘッド112の行全体に対して走査が完了したか否かを判別する(ステップS20)。   If the 3D imaging unit 116a determines that Yct = Ymx is not satisfied (N in step S18), the 3D imaging unit 116a repeatedly performs the operation from step S14. On the other hand, when the 3D imaging unit 116a determines that Yct = Ymx (Y in step S18), the 3D imaging unit 116a further determines whether or not the scanning of the entire row of the heads 112 is completed (step S20).

ここで、3D撮像部116aは、完了していないと判別すると(ステップS20のN)、ステップS10からの動作を繰り返し実行し、完了したと判別すると(ステップS20のY)、さらに、ヘッド112の全ての行に対して撮像が完了したか否かを判別する(ステップS22)。なお、ヘッド112の行全体に対する走査が完了すると、その行に属する2つのノズルnzに2つの部品が吸着されていれば、それら2つの部品の画像が同時に生成されることとなる。   Here, if it is determined that the 3D imaging unit 116a is not completed (N in Step S20), the operation from Step S10 is repeatedly executed. If it is determined that the operation is completed (Y in Step S20), the 3D imaging unit 116a It is determined whether or not imaging has been completed for all rows (step S22). When scanning of the entire row of the head 112 is completed, if two components are attracted to the two nozzles nz belonging to the row, images of the two components are generated simultaneously.

そして、3D撮像部116aは、ヘッド112の全ての行に対する走査が完了していないと判別したときには(ステップS22のN)、ステップS10からの動作を繰り返し実行し、完了したと判別したときには(ステップS22のY)、1タスクにおける部品の撮像処理を終了する。   When the 3D imaging unit 116a determines that scanning of all the rows of the head 112 has not been completed (N in Step S22), the 3D imaging unit 116a repeatedly performs the operation from Step S10 and determines that the scanning has been completed (Step S22). (Y of S22) The imaging process of the component in one task is terminated.

図16は、3D撮像部116aのパラメータデータの変更動作を詳細に示すフローチャートである。   FIG. 16 is a flowchart showing in detail the parameter data changing operation of the 3D imaging unit 116a.

まず、3D撮像部116aの3D撮像制御部68は初期設定を行う(ステップS100)。すなわち、3D撮像制御部68は、カウンタ部72のXカウンタのカウント数XctをXct=0に設定し、Yカウンタのカウント数YctをYct=0に設定し、ヘッド112の行を示す変数nをn=0に設定する。   First, the 3D imaging control unit 68 of the 3D imaging unit 116a performs initial setting (step S100). That is, the 3D imaging control unit 68 sets the count number Xct of the X counter of the counter unit 72 to Xct = 0, sets the count number Yct of the Y counter to Yct = 0, and sets the variable n indicating the row of the head 112. Set n = 0.

次に、3D撮像制御部68は、A列0行にあるノズルnzに吸着される部品pに対して適切なパラメータデータ(対象行列A[0]のパラメータデータ)を第1メモリ74に格納し、B列0行にあるノズルnzに吸着される部品pに対して適切なパラメータデータ(対象行列B[0]のパラメータデータ)を第2メモリ75に格納する(ステップS102)。   Next, the 3D imaging control unit 68 stores appropriate parameter data (parameter data of the target matrix A [0]) in the first memory 74 for the component p attracted to the nozzle nz in the A column 0 row. , Appropriate parameter data (parameter data of the target matrix B [0]) is stored in the second memory 75 for the component p attracted to the nozzle nz in the B column 0 row (step S102).

そして、カウンタ部72は、同期信号Syを受信したか否かを判別する(ステップS104)。ここで、同期信号Syを受信したと判別すると(ステップS104のY)、カウンタ部72は、Xカウンタのカウント数Xctを1つだけカウントアップし、Yカウンタのカウント数Yctが0でなければ、そのカウント数Yctを0にリセットする(ステップS106)。   And the counter part 72 discriminate | determines whether the synchronous signal Sy was received (step S104). If it is determined that the synchronization signal Sy has been received (Y in step S104), the counter unit 72 increments the count number Xct of the X counter by one, and if the count number Yct of the Y counter is not 0, The count number Yct is reset to 0 (step S106).

3D撮像制御部68は、カウント数Xctがヘッド112のn行と(n+1)行との間に対応する位置Line(n)を示すか否かを判別する(ステップS108)。なお、位置Line(0)は、ヘッド112の0行と1行との間に対応する位置を示し、位置Line(1)は、ヘッド112の1行と2行との間に対応する位置を示す。   The 3D imaging control unit 68 determines whether or not the count number Xct indicates a corresponding position Line (n) between the nth row and the (n + 1) th row of the head 112 (step S108). Note that the position Line (0) indicates a position corresponding to between the 0th and 1st lines of the head 112, and the position Line (1) indicates a position corresponding to between the 1st and 2nd lines of the head 112. Show.

ここで、3D撮像制御部68は、カウント数Xctが位置Line(n)を示すと判別すると(ステップS108のY)、その変数nがヘッド112の最終行(Last_n)と等しいか否かを判別する(ステップS110)。例えば、ヘッド112の最終行(Last_n)は3である。   Here, if the 3D imaging control unit 68 determines that the count number Xct indicates the position Line (n) (Y in step S108), the 3D imaging control unit 68 determines whether or not the variable n is equal to the last row (Last_n) of the head 112. (Step S110). For example, the last row (Last_n) of the head 112 is 3.

そして、3D撮像制御部68は、変数nがヘッド112の最終行(Last_n)と等しいと判別すると(ステップS110のY)、1タスク分の全ての部品pの画像が取り込まれたと判断し、レーザドライバ62aに対してレーザビームLaの出力を停止させる。一方、3D撮像制御部68は、変数nがヘッド112の最終行(Last_n)と異なると判別すると(ステップS110のN)、変数nをインクリメントする。そして、3D撮像制御部68は、そのインクリメントされた変数nを用いて、A列n行にあるノズルnzに吸着される部品pに対して適切なパラメータデータ(対象行列A[n]のパラメータデータ)と、B列n行にあるノズルnzに吸着される部品pに対して適切なパラメータデータ(対象行列B[n]のパラメータデータ)とを第3メモリ67から取得する。さらに、3D撮像制御部68は、第1メモリ74に格納されているパラメータデータを、第3メモリ67から取得された対象行列A[n]のパラメータデータに置き換え、第2メモリ75に格納されているパラメータデータを、第3メモリ67から取得された対象行列B[n]のパラメータデータに置き換える(ステップS112)。   If the 3D imaging control unit 68 determines that the variable n is equal to the last row (Last_n) of the head 112 (Y in step S110), the 3D imaging control unit 68 determines that images of all the parts p for one task have been captured, and the laser The output of the laser beam La is stopped with respect to the driver 62a. On the other hand, when the 3D imaging control unit 68 determines that the variable n is different from the last row (Last_n) of the head 112 (N in step S110), the 3D imaging control unit 68 increments the variable n. Then, the 3D imaging control unit 68 uses the incremented variable n to set appropriate parameter data (parameter data of the target matrix A [n] for the component p attracted to the nozzle nz in the A column and the n row. ) And appropriate parameter data (parameter data of the target matrix B [n]) for the component p attracted to the nozzle nz in the B column and the n row are acquired from the third memory 67. Further, the 3D imaging control unit 68 replaces the parameter data stored in the first memory 74 with the parameter data of the target matrix A [n] acquired from the third memory 67, and is stored in the second memory 75. Is replaced with the parameter data of the target matrix B [n] acquired from the third memory 67 (step S112).

次に、ステップS104で同期信号Syを受信していないと判別されたとき(ステップS104のN)、ステップS108でカウント数Xctが位置Line(n)を示さないと判別されたとき(ステップS108のN)、または、ステップS112でパラメータデータの置き換えが行われたときには、切換部73は、カウンタ部72のYカウンタのカウント数YctがCNT以上であるか否かを判別する(ステップS114)。   Next, when it is determined in step S104 that the synchronization signal Sy is not received (N in step S104), it is determined in step S108 that the count number Xct does not indicate the position Line (n) (in step S108). N) Or, when the parameter data is replaced in step S112, the switching unit 73 determines whether or not the count number Yct of the Y counter of the counter unit 72 is greater than or equal to CNT (step S114).

ここで、切換部73は、カウント数YctがCNTよりも小さいと判別すると(ステップS114のN)、第1メモリ74を高さ計算部71に接続して、第1メモリ74に格納されているA列用のパラメータデータに基づく部品pの1画素あたりの高さの算出を高さ計算部71に実行させる(ステップS116)。一方、切換部73は、カウント数YctがCNT以上である判別すると(ステップS114のY)、第2メモリ75を高さ計算部71に接続して、第2メモリ75に格納されているB列用のパラメータデータに基づく部品pの1画素あたりの高さの算出を高さ計算部71に実行させる(ステップS118)。   Here, when the switching unit 73 determines that the count number Yct is smaller than CNT (N in Step S114), the first memory 74 is connected to the height calculation unit 71 and stored in the first memory 74. The height calculation unit 71 is caused to calculate the height per pixel of the component p based on the parameter data for the A column (step S116). On the other hand, when the switching unit 73 determines that the count number Yct is equal to or greater than CNT (Y in step S114), the second memory 75 is connected to the height calculation unit 71, and the B column stored in the second memory 75 is stored. The height calculation unit 71 is caused to calculate the height per pixel of the component p based on the parameter data for use (step S118).

その後、3D撮像制御部68は、カウンタ部72のYカウンタのカウント数Yctを1だけカウントアップさせ(ステップS120)、カウンタ部72は、ステップS104からの処理を繰り返して実行する。   Thereafter, the 3D imaging control unit 68 increments the count number Yct of the Y counter of the counter unit 72 by 1 (step S120), and the counter unit 72 repeatedly executes the processing from step S104.

図17は、本実施の形態における実装条件決定装置200の機能構成を示す図である。
実装条件決定装置200は、入力部201、表示部202、最適化部203、通信部204、第1格納部205、および第2格納部206を備えている。
FIG. 17 is a diagram showing a functional configuration of the mounting condition determining apparatus 200 in the present embodiment.
The mounting condition determination apparatus 200 includes an input unit 201, a display unit 202, an optimization unit 203, a communication unit 204, a first storage unit 205, and a second storage unit 206.

第1格納部205は、NCデータ164bと部品ライブラリ164cとを格納している。第2格納部206は、最適化部203によって生成された実装条件データ164aを格納する。   The first storage unit 205 stores NC data 164b and a part library 164c. The second storage unit 206 stores the mounting condition data 164a generated by the optimization unit 203.

入力部201は、例えばキーボードやマウスなどで構成されており、オペレータからの操作を受け付けて、その操作結果を最適化部203などに通知する。   The input unit 201 includes, for example, a keyboard and a mouse, receives an operation from an operator, and notifies the optimization unit 203 of the operation result.

表示部202は、例えば液晶ディスプレイなどで構成されており、最適化部203などの動作状態を表示したり、第1格納部205および第2格納部206などに格納されているデータを表示したりする。   The display unit 202 is configured by, for example, a liquid crystal display, and displays an operation state of the optimization unit 203 or the like, or displays data stored in the first storage unit 205, the second storage unit 206, or the like. To do.

通信部204は、部品実装機100と通信する。例えば、通信部204は、第1格納部205に格納されているNCデータ164bおよび部品ライブラリ164cと、第2格納部206に格納されている実装条件データ164aとを部品実装機100に送信することにより、それらのデータに従った部品の実装や撮像を部品実装機100に対して実行させる。また、通信部204は、部品実装機100から撮像仕様データ162aを取得して、その撮像仕様データ162aを最適化部203に出力する。   The communication unit 204 communicates with the component mounter 100. For example, the communication unit 204 transmits the NC data 164 b and the component library 164 c stored in the first storage unit 205 and the mounting condition data 164 a stored in the second storage unit 206 to the component mounting machine 100. Thus, the component mounter 100 is caused to execute component mounting and imaging according to the data. In addition, the communication unit 204 acquires the imaging specification data 162 a from the component mounting machine 100 and outputs the imaging specification data 162 a to the optimization unit 203.

最適化部203は、第1格納部205に格納されているNCデータ164bおよび部品ライブラリ164cと、通信部204を介して部品実装機100から取得した撮像仕様データ162aとに基づいて、部品実装機100の実装条件の最適化を行う。例えば、最適化部203は、タクトが最短になるような実装条件を決定する。実装条件は、上述のように、基板20に実装されるべき複数の部品の実装順序やタクトなどを示す。そして、最適化部203は、その実装条件を示す実装条件データ164aを生成して第2格納部206に格納する。   Based on the NC data 164b and the component library 164c stored in the first storage unit 205 and the imaging specification data 162a acquired from the component mounting machine 100 via the communication unit 204, the optimization unit 203 100 mounting conditions are optimized. For example, the optimization unit 203 determines mounting conditions that minimize the tact. As described above, the mounting condition indicates the mounting order, tact, and the like of a plurality of components to be mounted on the substrate 20. Then, the optimization unit 203 generates mounting condition data 164 a indicating the mounting conditions and stores the mounting condition data 164 a in the second storage unit 206.

ここで、撮像仕様データ162aは、上述のように、3D撮像部の仕様などを示す。すなわち、この撮像仕様データ162aは、部品実装機100に備えられている3D撮像部が本実施の形態における3D撮像部116aであるか否か、言い換えれば、ヘッド112の行の中でパラメータデータの切り換えが可能か否かを示す。   Here, the imaging specification data 162a indicates the specifications of the 3D imaging unit and the like as described above. That is, the imaging specification data 162a indicates whether or not the 3D imaging unit provided in the component mounter 100 is the 3D imaging unit 116a in the present embodiment, in other words, parameter data in the row of the head 112. Indicates whether switching is possible.

したがって、最適化部203は、撮像仕様データ162aが切換不可を示すときには、各タスクにおいて、互いに異なるパラメータデータを使用して撮像すべき2つの部品pがヘッド112の同一行に属するノズルnzに吸着されないように、ヘッド112による部品pの吸着態様にパラメータデータに基づく制約をつけて全てのタスクを決定する。   Therefore, when the imaging specification data 162a indicates that switching cannot be performed, the optimization unit 203 sucks two components p to be imaged using different parameter data in each task by the nozzles nz belonging to the same row of the head 112. In order not to be performed, all tasks are determined by attaching restrictions based on parameter data to the suction mode of the component p by the head 112.

一方、最適化部203は、撮像仕様データ162aが切換可能を示すときには、すなわち、本実施の形態における3D撮像部116aが部品実装機100に備えられているときには、上述のようなパラメータに基づく制約をつけずに全てのタスクを決定する。したがって、最適化部203は、各タスクにおいて、互いに異なるパラメータデータを使用して撮像すべき2つの部品pがヘッド112の同一行に属するノズルnzに吸着されてもよいように、全てのタスクを決定する。   On the other hand, when the imaging specification data 162a indicates that switching is possible, that is, when the 3D imaging unit 116a in the present embodiment is provided in the component mounter 100, the optimization unit 203 is based on the above-described parameter-based restrictions. All tasks are decided without adding. Therefore, the optimization unit 203 performs all tasks so that, in each task, two parts p to be imaged using mutually different parameter data may be attracted to the nozzles nz belonging to the same row of the head 112. decide.

図18は、本実施の形態における実装条件決定装置200の動作を示すフローチャートである。   FIG. 18 is a flowchart showing the operation of the mounting condition determining apparatus 200 in the present embodiment.

まず、実装条件決定装置200の最適化部203は、通信部204を介して、部品実装機100から撮像仕様データ162aを取得する(ステップS200)。そして、最適化部203は、その撮像仕様データ162aが切換可能を示しているか否かを判別する(ステップS202)。   First, the optimization unit 203 of the mounting condition determination apparatus 200 acquires the imaging specification data 162a from the component mounting machine 100 via the communication unit 204 (step S200). Then, the optimization unit 203 determines whether or not the imaging specification data 162a indicates that switching is possible (step S202).

つまり、本実施の形態における実装条件決定装置200は、ステップS202(判別ステップ)において、移動しているヘッド112に吸着され、Y方向に沿って配列している2つの部品が3D撮像部により撮像される場合に、その3D撮像部が部品ごとにパラメータデータを異ならせてその2つの部品を撮像することが可能か否かを判別している。   That is, in step S202 (determination step), the mounting condition determining apparatus 200 according to the present embodiment captures two components picked up by the moving head 112 and arranged along the Y direction by the 3D imaging unit. In this case, the 3D imaging unit determines whether it is possible to capture the two parts by changing the parameter data for each part.

ここで、最適化部203は、切換可能を示していると判別すると(ステップS202のY)、パラメータデータの制約を受けずに、NCデータ207aおよび部品ライブラリ207bに基づいて実装条件を決定する(ステップS204)。例えば、最適化部203は、図14に示すようなタスクを実装条件として決定する。   Here, if the optimization unit 203 determines that switching is possible (Y in step S202), the optimization unit 203 determines the mounting condition based on the NC data 207a and the component library 207b without being restricted by the parameter data ( Step S204). For example, the optimization unit 203 determines a task as illustrated in FIG. 14 as the mounting condition.

つまり、本実施の形態における実装条件決定装置200は、ステップS204(第2の決定ステップ)において、互いに異なるパラメータデータを要する部品がY方向に沿って配列してヘッド112に吸着されてもよいように、ヘッド112に吸着されるタスク(部品群)を実装条件として決定している。   In other words, the mounting condition determining apparatus 200 according to the present embodiment may arrange components requiring different parameter data in the Y direction and be attracted to the head 112 in step S204 (second determining step). In addition, a task (part group) attracted to the head 112 is determined as a mounting condition.

一方、最適化部203は、切換不可を示していると判別すると(ステップS202のN)、パラメータデータの制約の下で実装条件を決定する(ステップS206)。例えば、最適化部203は、図19に示すようなタスクを実装条件として決定する。   On the other hand, if the optimization unit 203 determines that switching is not possible (N in step S202), the optimization unit 203 determines a mounting condition under the restriction of parameter data (step S206). For example, the optimization unit 203 determines a task as illustrated in FIG. 19 as an implementation condition.

つまり、本実施の形態における実装条件決定装置200は、ステップS206(第1の決定ステップ)において、互いに異なるパラメータデータを要する部品がY方向に沿って配列してヘッド112に吸着されないように、ヘッド112に吸着されるタスク(部品群)を実装条件として決定している。   That is, the mounting condition determining apparatus 200 according to the present embodiment is configured so that in step S206 (first determining step), the heads 112 are arranged so that components requiring different parameter data are arranged along the Y direction and are not attracted to the head 112. The task (part group) attracted by 112 is determined as a mounting condition.

このとき、最適化部203は、図19に示すように、同一のパラメータデータを要する2つの部品がY方向に沿って配列してヘッド112に吸着されるように、ヘッド112に吸着されるタスクを決定する。または、最適化部203は、2つのノズルnzのうち1つだけが部品を吸着するように、ヘッド112に吸着されるタスクを決定する。   At this time, as illustrated in FIG. 19, the optimization unit 203 performs a task that is attracted to the head 112 so that two parts that require the same parameter data are arranged along the Y direction and are attracted to the head 112. To decide. Alternatively, the optimization unit 203 determines a task to be picked up by the head 112 so that only one of the two nozzles nz picks up the component.

そして、最適化部203は、ステップS204またはステップS206で決定した実装条件を示す実装条件データ164aを生成し、その実装条件データ164aを第2格納部206に格納するとともに、通信部204を介して部品実装機100に送信する(ステップS208)。   Then, the optimization unit 203 generates mounting condition data 164a indicating the mounting conditions determined in step S204 or step S206, stores the mounting condition data 164a in the second storage unit 206, and also via the communication unit 204. It transmits to the component mounting machine 100 (step S208).

以上、本発明に係る実装条件決定方法および実装条件決定装置について、上記実施の形態を用いて説明したが、本発明は、これに限定されるものではない。   As mentioned above, although the mounting condition determination method and the mounting condition determination apparatus according to the present invention have been described using the above embodiment, the present invention is not limited to this.

例えば、上記実施の形態では、実装条件決定装置200は、撮像仕様データ162aが切換不可を示している場合には、図19に示すようなタスクを決定したが、図14に示すようなタスクを決定してもよい。この場合、実装条件決定装置200は、部品実装機100に対して、ヘッド112が3D撮像部116a上でX方向に2回移動(2往復)するように指示する。つまり、3D撮像部116aは、1回目の移動のときに、ヘッド112のA列の部品のみを撮像し、2回目の移動のときに、ヘッド112のB列の部品のみを撮像する。   For example, in the above embodiment, the mounting condition determining apparatus 200 determines the task as shown in FIG. 19 when the imaging specification data 162a indicates that switching is not possible, but the task as shown in FIG. You may decide. In this case, the mounting condition determining apparatus 200 instructs the component mounting machine 100 to move the head 112 twice (two reciprocations) in the X direction on the 3D imaging unit 116a. That is, the 3D imaging unit 116a captures only the components in the A column of the head 112 during the first movement, and captures only the components in the B column of the head 112 during the second movement.

また、上記実施の形態では、パラメータデータは、撮像条件として、光量下限値、高さずれ許容値、およびクリッピングレベルを示したが、他の内容を示してもよい。例えば、パラメータデータは、部品の撮像に必要とされる、半導体レーザ62から出力されるレーザビームLaの出力(レーザ出力)を示してもよい。この場合には、撮像される部品のパラメータデータに応じて、半導体レーザ62から出力されるレーザビームLaの出力が調整される。また、パラメータデータは、CCGA(Ceramic Column Grid Array)という部品を認識するための特殊な撮像条件を示してもよい。   In the above embodiment, the parameter data indicates the light intensity lower limit value, the height deviation allowable value, and the clipping level as the imaging conditions. However, the parameter data may indicate other contents. For example, the parameter data may indicate the output (laser output) of the laser beam La output from the semiconductor laser 62 that is required for imaging of the component. In this case, the output of the laser beam La output from the semiconductor laser 62 is adjusted according to the parameter data of the component to be imaged. The parameter data may indicate special imaging conditions for recognizing a component called CCGA (Ceramic Column Grid Array).

また、上記実施の形態では、8本のノズルnzを備えたヘッド112に吸着された最大8個の部品を撮像する方法や、最大8個の部品を含むタスクを決定する方法について説明したが、9個以上の部品を含むタスクを決定し、それらの部品を撮像してもよい。また、本実施の形態では、ヘッド112の複数のノズルnzが2列に配列されていたが、3列以上に配列されていてもよい。   In the above embodiment, a method for imaging a maximum of eight parts sucked by the head 112 having eight nozzles nz and a method for determining a task including a maximum of eight parts have been described. A task including nine or more parts may be determined and those parts may be imaged. Further, in the present embodiment, the plurality of nozzles nz of the head 112 are arranged in two rows, but may be arranged in three or more rows.

また、上記実施の形態では、部品実装機として図2に示す部品実装機100を用いたが、このような部品実装機100以外の他の部品実装機を用いてもよい。例えば、部品実装機は、1枚の基板に対して複数のヘッドで交互に部品を実装する、いわゆる交互打ちの部品実装機であってもよい。   Moreover, in the said embodiment, although the component mounting machine 100 shown in FIG. 2 was used as a component mounting machine, you may use component mounting machines other than such a component mounting machine 100. FIG. For example, the component mounter may be a so-called alternating component mounter that alternately mounts components on a single board with a plurality of heads.

また、上記実施の形態では、3D撮像部116aは半導体位置検出素子64、アンプ64aおよびA/D変換部64bを2組備えたが、3組以上備えてもよい。   In the above embodiment, the 3D imaging unit 116a includes two sets of the semiconductor position detection element 64, the amplifier 64a, and the A / D conversion unit 64b, but may include three or more sets.

また、上記実施の形態では、部品実装機100と実装条件決定装置200とをそれぞれ独立に配置したが、部品実装機100が実装条件決定装置200を備えていてもよい。   Moreover, in the said embodiment, although the component mounting machine 100 and the mounting condition determination apparatus 200 were each arrange | positioned independently, the component mounting machine 100 may be provided with the mounting condition determination apparatus 200. FIG.

本発明の部品撮像方法は、タクトの短縮化を図ることができるという効果を奏し、例えば、部品実装機においてヘッドに吸着された複数の部品を撮像するカメラなどに適用することができる。   The component imaging method of the present invention has an effect that the tact can be shortened, and can be applied to, for example, a camera that images a plurality of components sucked by a head in a component mounter.

本発明の実施の形態における部品実装システムの外観図である。1 is an external view of a component mounting system in an embodiment of the present invention. 同上の部品実装機の内部の主要な構成を示す図である。It is a figure which shows the main structures inside a component mounting machine same as the above. 同上のヘッドと部品カセットの位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of a head same as the above and a component cassette. 同上の部品を収めた部品テープ及びリールの例を示す図である。It is a figure which shows the example of the component tape and the reel which accommodated the components same as the above. 同上の3D撮像部によって部品が撮像される状態を説明するための説明図である。It is explanatory drawing for demonstrating the state by which components are imaged by 3D imaging part same as the above. 同上の3D撮像部の内部の機械構成を示す図である。It is a figure which shows the machine structure inside a 3D imaging part same as the above. 同上の部品実装機の機能構成を示す図である。It is a figure which shows the function structure of a component mounting machine same as the above. 同上のNCデータの一例を示す図である。It is a figure which shows an example of NC data same as the above. 同上の部品ライブラリの一例を示す図である。It is a figure which shows an example of a component library same as the above. 同上の3D撮像部の機能構成を示す図である。It is a figure which shows the function structure of a 3D imaging part same as the above. 同上のパラメータデータの示す光量下限値および高さずれ許容値を説明するための説明図である。It is explanatory drawing for demonstrating the light quantity lower limit and height deviation allowable value which parameter data same as the above show. 同上のパラメータデータの示すクリッピングレベルを説明するための説明図である。It is explanatory drawing for demonstrating the clipping level which parameter data same as the above shows. 同上の同期信号とカウント数とパラメータデータとの関係を示す図である。It is a figure which shows the relationship between a synchronizing signal same as the above, a count number, and parameter data. 同上のヘッドに吸着された各部品の状態を示す図である。It is a figure which shows the state of each component adsorbed | sucked to the head same as the above. 同上の3D撮像部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a 3D imaging part same as the above. 同上の3D撮像部のパラメータデータの変更動作を詳細に示すフローチャートである。It is a flowchart which shows the change operation | movement of the parameter data of a 3D imaging part same as the above in detail. 同上の実装条件決定装置の機能構成を示す図である。It is a figure which shows the function structure of the mounting condition determination apparatus same as the above. 同上の実装条件決定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the mounting condition determination apparatus same as the above. 従来のタクトが長くなってしまう場合を説明するための説明図である。It is explanatory drawing for demonstrating the case where the conventional tact will become long.

符号の説明Explanation of symbols

62 半導体レーザ
62a レーザドライバ
63 ポリゴンミラー
63a モータ制御部
64 半導体位置検出素子
64a アンプ
64b A/D変換部
66 同期信号検出部
67 第3メモリ
68 3D撮像制御部
69 FPGA
71 高さ計算部
72 カウンタ部
73 切換部
74 第1メモリ
75 第2メモリ
100 部品実装機
112 ヘッド
116a 3D撮像部
116b 2D撮像部
160 主制御部
200 実装条件決定装置
201 入力部
202 表示部
203 最適化部
204 通信部
205 第1格納部
206 第2格納部
nz ノズル
62 Semiconductor Laser 62a Laser Driver 63 Polygon Mirror 63a Motor Control Unit 64 Semiconductor Position Detection Element 64a Amplifier 64b A / D Conversion Unit 66 Synchronization Signal Detection Unit 67 Third Memory 68 3D Imaging Control Unit 69 FPGA
71 Height calculation unit 72 Counter unit 73 Switching unit 74 First memory 75 Second memory 100 Component mounter 112 Head 116a 3D imaging unit 116b 2D imaging unit 160 Main control unit 200 Mounting condition determining device 201 Input unit 202 Display unit 203 Optimal Conversion unit 204 communication unit 205 first storage unit 206 second storage unit nz nozzle

Claims (10)

移動しているヘッドに吸着されている複数の部品を撮像する部品撮像方法であって、
前記ヘッドに向けて照射されたビームの照射位置が、前記ヘッドの移動方向と垂直な方向に沿って配列して前記ヘッドに吸着されている第1および第2の部品を通過するように、前記ビームの照射位置を前記垂直な方向に移動させながら、前記照射位置で反射されたビームを検出することにより、前記第1および第2の部品の前記ビームに照射された部分を撮像する撮像ステップと、
前記照射位置が前記第1の部品にあるときと、前記照射位置が前記第2の部品にあるときとで、前記撮像ステップでの撮像に用いられている撮像条件を切り換える切換ステップと
を含むことを特徴とする部品撮像方法。
A component imaging method for imaging a plurality of components adsorbed by a moving head,
The irradiation position of the beam irradiated toward the head passes through the first and second parts adsorbed on the head arranged in a direction perpendicular to the moving direction of the head. An imaging step of imaging a portion irradiated with the beam of the first and second parts by detecting the beam reflected at the irradiation position while moving the irradiation position of the beam in the vertical direction; ,
A switching step of switching an imaging condition used for imaging in the imaging step between when the irradiation position is in the first part and when the irradiation position is in the second part. A component imaging method characterized by
前記切換ステップでは、
前記照射位置が第1の部品から第2の部品に移るときに、前記撮像条件を、前記第1の部品の撮像に要する第1の撮像条件から、前記第2の部品の撮像に要する第2の撮像条件に切り換え、
前記撮像ステップでは、
前記照射位置が第1の部品にあるときには、前記第1の撮像条件の下で前記第1の部品に反射されたビームを検出し、前記照射位置が第2の部品にあるときには、前記第2の撮像条件の下で前記第2の部品に反射されたビームを検出する
ことを特徴とする請求項1記載の部品撮像方法。
In the switching step,
When the irradiation position moves from the first component to the second component, the imaging condition is changed from the first imaging condition required for imaging the first component to the second required for imaging the second component. Switch to the imaging conditions
In the imaging step,
When the irradiation position is on the first part, a beam reflected by the first part under the first imaging condition is detected, and when the irradiation position is on the second part, the second part is detected. The component imaging method according to claim 1, further comprising: detecting a beam reflected by the second component under the imaging condition of (2).
前記撮像ステップでは、
前記第1および第2の部品に反射されたビームを複数の検出手段で検出する検出サブステップと、
検出手段ごとに、当該検出手段で検出された結果に基づいて、前記第1および第2の部品における照射位置での高さを算出する高さ算出サブステップと、
前記複数の検出手段で検出された前記照射位置での複数の高さから、1つの高さを決定する高さ決定サブステップと、
前記高さ決定サブステップで決定された高さを含む前記第1および第2の部品の画像を生成する画像生成サブステップとを含む
ことを特徴とする請求項1記載の部品撮像方法。
In the imaging step,
A detection sub-step for detecting a beam reflected by the first and second parts with a plurality of detection means;
For each detection means, a height calculation substep for calculating the height at the irradiation position in the first and second components based on the result detected by the detection means;
A height determining sub-step for determining one height from a plurality of heights at the irradiation position detected by the plurality of detecting means;
The component imaging method according to claim 1, further comprising: an image generation sub-step for generating images of the first and second components including the height determined in the height determination sub-step.
前記撮像条件はビームの光量の下限値を示し、
前記高さ算出サブステップでは、
前記検出手段で検出されたビームの光量が前記撮像条件の示す下限値よりも小さい場合には、当該検出手段で検出された結果に基づく高さの算出を禁止する
ことを特徴とする請求項3記載の部品撮像方法。
The imaging condition indicates a lower limit value of the light amount of the beam,
In the height calculation sub-step,
The height calculation based on the result detected by the detection means is prohibited when the light amount of the beam detected by the detection means is smaller than a lower limit value indicated by the imaging condition. The component imaging method described.
前記撮像条件は、前記高さ算出サブステップで算出される前記照射位置での複数の高さのずれの許容値を示し、
前記高さ決定サブステップでは、
前記高さ算出サブステップで算出された前記照射位置での複数の高さのずれが、前記撮像条件の示す許容値よりも大きい場合には、前記複数の高さから1つの高さを決定することを禁止する
ことを特徴とする請求項3記載の部品撮像方法。
The imaging condition indicates an allowable value of a plurality of height deviations at the irradiation position calculated in the height calculation sub-step,
In the height determination sub-step,
When a plurality of height shifts at the irradiation position calculated in the height calculation sub-step are larger than an allowable value indicated by the imaging condition, one height is determined from the plurality of heights. The component imaging method according to claim 3, wherein the method is prohibited.
前記撮像条件は部品の周辺の高さを示し、
前記画像生成ステップでは、
前記第1および第2の部品の周辺の高さとして、前記撮像条件の示す高さを示す画像を生成する
ことを特徴とする請求項3記載の部品撮像方法。
The imaging condition indicates the height around the part,
In the image generation step,
The component imaging method according to claim 3, wherein an image indicating a height indicated by the imaging condition is generated as a height around the first and second components.
移動しているヘッドに吸着されている複数の部品を撮像する部品撮像装置であって、
前記ヘッドに向けて照射されたビームの照射位置が、前記ヘッドの移動方向と垂直な方向に沿って配列して前記ヘッドに吸着されている第1および第2の部品を通過するように、前記ビームの照射位置を前記垂直な方向に移動させながら、前記照射位置で反射されたビームを検出することにより、前記第1および第2の部品の前記ビームに照射された部分を撮像する撮像手段と、
前記照射位置が前記第1の部品にあるときと、前記照射位置が前記第2の部品にあるときとで、前記撮像手段での撮像に用いられている撮像条件を切り換える切換手段と
を備えることを特徴とする部品撮像装置。
A component imaging device for imaging a plurality of components adsorbed by a moving head,
The irradiation position of the beam irradiated toward the head passes through the first and second parts adsorbed on the head arranged in a direction perpendicular to the moving direction of the head. Imaging means for imaging the portion irradiated with the beam of the first and second parts by detecting the beam reflected at the irradiation position while moving the irradiation position of the beam in the vertical direction; ,
Switching means for switching an imaging condition used for imaging by the imaging means between when the irradiation position is in the first part and when the irradiation position is in the second part. A component imaging device characterized by
複数の部品を基板に実装する部品実装方法であって、
請求項1記載の部品撮像方法により、移動しているヘッドに吸着されている複数の部品を撮像する部品撮像ステップと、
前記部品撮像ステップで撮像された複数の部品を基板に実装する実装ステップと
を含むことを特徴とする部品実装方法。
A component mounting method for mounting a plurality of components on a board,
A component imaging step of imaging a plurality of components adsorbed by a moving head by the component imaging method according to claim 1;
A mounting step of mounting a plurality of components imaged in the component imaging step on a substrate.
複数の部品を基板に実装する部品実装機であって、
請求項7記載の部品撮像装置と、
前記部品撮像装置で撮像された複数の部品を基板に実装する実装手段と
を備えることを特徴とする部品実装機。
A component mounter for mounting a plurality of components on a board,
The component imaging device according to claim 7;
And a mounting means for mounting a plurality of components imaged by the component imaging device on a substrate.
移動しているヘッドに吸着されている複数の部品を撮像するためのプログラムであって、
前記ヘッドに向けて照射されたビームの照射位置が、前記ヘッドの移動方向と垂直な方向に沿って配列して前記ヘッドに吸着されている第1および第2の部品を通過するように、前記ビームの照射位置を前記垂直な方向に移動させながら、前記照射位置で反射されたビームを検出することにより、前記第1および第2の部品の前記ビームに照射された部分を撮像する撮像ステップと、
前記照射位置が前記第1の部品にあるときと、前記照射位置が前記第2の部品にあるときとで、前記撮像ステップでの撮像に用いられている撮像条件を切り換える切換ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program for imaging a plurality of parts adsorbed by a moving head,
The irradiation position of the beam irradiated toward the head passes through the first and second parts adsorbed on the head arranged in a direction perpendicular to the moving direction of the head. An imaging step of imaging a portion irradiated with the beam of the first and second parts by detecting the beam reflected at the irradiation position while moving the irradiation position of the beam in the vertical direction; ,
A switching step of switching an imaging condition used for imaging in the imaging step between when the irradiation position is on the first component and when the irradiation position is on the second component; A program characterized by being executed.
JP2007161762A 2007-06-19 2007-06-19 Component imaging method, component imaging apparatus, component mounting method, component mounter, and program Expired - Fee Related JP4750757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007161762A JP4750757B2 (en) 2007-06-19 2007-06-19 Component imaging method, component imaging apparatus, component mounting method, component mounter, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007161762A JP4750757B2 (en) 2007-06-19 2007-06-19 Component imaging method, component imaging apparatus, component mounting method, component mounter, and program

Publications (2)

Publication Number Publication Date
JP2009004455A true JP2009004455A (en) 2009-01-08
JP4750757B2 JP4750757B2 (en) 2011-08-17

Family

ID=40320545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007161762A Expired - Fee Related JP4750757B2 (en) 2007-06-19 2007-06-19 Component imaging method, component imaging apparatus, component mounting method, component mounter, and program

Country Status (1)

Country Link
JP (1) JP4750757B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051195A (en) * 1996-04-23 1998-02-20 Matsushita Electric Ind Co Ltd Mounting apparatus for electronic component
JPH1065400A (en) * 1997-05-28 1998-03-06 Yamaha Motor Co Ltd Part-recognizing device for mounting machine
JP2005236315A (en) * 2005-03-25 2005-09-02 Matsushita Electric Ind Co Ltd Electronic part mounting device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051195A (en) * 1996-04-23 1998-02-20 Matsushita Electric Ind Co Ltd Mounting apparatus for electronic component
JPH1065400A (en) * 1997-05-28 1998-03-06 Yamaha Motor Co Ltd Part-recognizing device for mounting machine
JP2005236315A (en) * 2005-03-25 2005-09-02 Matsushita Electric Ind Co Ltd Electronic part mounting device

Also Published As

Publication number Publication date
JP4750757B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
US7239399B2 (en) Pick and place machine with component placement inspection
CN1095624C (en) Electronic component mounting apparatus
JP5544320B2 (en) Stereoscopic robot picking device
JP4315536B2 (en) Electronic component mounting method and apparatus
JP4960311B2 (en) Component mounting method
WO2016203639A1 (en) Component mounting device, and component mounting evaluation method for component mounting device
JP6190229B2 (en) Component mounting equipment
WO2014174598A1 (en) Component mounting device, mounting head, and control device
JP2012174816A (en) Electronic component mounting device and image reading method used by electronic component mounting device
JP5054442B2 (en) Mounting condition determination method, mounting condition determination device, component mounting method, component mounter, and program
JP6849815B2 (en) How to determine the component mounting device, shooting method, and mounting order
JP6388133B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP4750757B2 (en) Component imaging method, component imaging apparatus, component mounting method, component mounter, and program
JP6258295B2 (en) Component recognition system for component mounters
JP2001127500A (en) Component image pickup device for chip mounter
JP3434004B2 (en) Component recognition device and component mounting device
JPH1051195A (en) Mounting apparatus for electronic component
JP2012033734A (en) Electronic component mounting device
WO2020003384A1 (en) Flatness acquisition system and mounting machine
JP6388134B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP6388135B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP2013096831A (en) Component mounting substrate production apparatus and three-dimensional shape measurement apparatus
JPWO2020136885A1 (en) Three-dimensional measuring device and work work device
JP7182156B2 (en) Implementation system, implementation method, and implementation program
JP2002267415A (en) Semiconductor measuring instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110519

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees