JP2011082506A - Device for inspecting or mounting component - Google Patents

Device for inspecting or mounting component Download PDF

Info

Publication number
JP2011082506A
JP2011082506A JP2010200479A JP2010200479A JP2011082506A JP 2011082506 A JP2011082506 A JP 2011082506A JP 2010200479 A JP2010200479 A JP 2010200479A JP 2010200479 A JP2010200479 A JP 2010200479A JP 2011082506 A JP2011082506 A JP 2011082506A
Authority
JP
Japan
Prior art keywords
component
unit
imaging
distance
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010200479A
Other languages
Japanese (ja)
Inventor
Yutaka Ogura
豊 小倉
Reika Morita
玲香 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2010200479A priority Critical patent/JP2011082506A/en
Priority to CN2010102797176A priority patent/CN102026536A/en
Publication of JP2011082506A publication Critical patent/JP2011082506A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce cost and burdens required for inspecting an elctronic component. <P>SOLUTION: The component inspection device 110 includes a holding part 7 for holding a component P, and an imaging part 9 for imaging the component, and inspects displacement of the component from the center of the holding part by an imaging image shot by the imaging part. In the component inspection device, the imaging part includes: a pixel data determination means 13 to capture a plurality of images having different distances to the component, and determining focused pixel data in pixels at the same location out of the plurality of shot imaging images; a distance data determination means 13 to determine the distances between the imaging parts and the component when the respective determined pixel data have been shot, on a pixel data basis; a storage means 13d to store a permissible value of the distance from a virtual line or virtual plane of a predetermined part of the component obtained from the distance data; and a determination means 13 to determine whether the distance from the virtual line or virtual plane of the predetermined part of the component exceeds the permissible value stored in the storage means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、部品検査装置及び部品実装装置に関する。   The present invention relates to a component inspection apparatus and a component mounting apparatus.

電子部品を基板に実装する電子部品実装装置が知られている。
電子部品実装装置は、電子部品を吸着ノズルで吸着し、吸着ノズルを所定の実装位置まで移動させて電子部品を基板に取り付ける。
ここで、電子部品実装装置は、電子部品を基板に実装する前に電子部品を部品認識カメラで撮像し、吸着ノズルに対する電子部品の位置ズレ量を検出する。その後、電極の状態が正常であるか否かを検査する電極検査装置に電子部品を移動させ、電極検査装置により電子部品の電極の浮きなどの不良検査を実施し、電子部品に不良がなければ基板に実装される。すなわち、電子部品の位置ズレ量の検出と電極の検査をそれぞれ専用の装置により行っていた。
また、部品認識カメラの近傍に電極検査装置を配置し、電極検査装置が部品認識カメラの上方にある電子部品の電極に向けて平行光を斜め下方から照射して電極の検査を行うものもある。このような構成とすれば、電子部品を部品認識カメラの上方に移動させておけば、同じ位置で電子部品の位置ズレと電極の検査を同じ位置で行うことができ、検査の作業効率を向上させることができる(例えば、特許文献1参照。)。
An electronic component mounting apparatus for mounting an electronic component on a substrate is known.
The electronic component mounting apparatus sucks an electronic component with a suction nozzle, moves the suction nozzle to a predetermined mounting position, and attaches the electronic component to the substrate.
Here, the electronic component mounting apparatus picks up an image of the electronic component with a component recognition camera before mounting the electronic component on the substrate, and detects the positional deviation amount of the electronic component with respect to the suction nozzle. After that, the electronic component is moved to an electrode inspection device for inspecting whether or not the state of the electrode is normal, and the defect inspection such as the floating of the electrode of the electronic component is performed by the electrode inspection device. Mounted on the board. That is, the detection of the amount of displacement of the electronic component and the inspection of the electrodes are performed by dedicated devices.
In addition, there is an electrode inspection device arranged in the vicinity of the component recognition camera, and the electrode inspection device irradiates parallel light toward the electrode of the electronic component above the component recognition camera obliquely from below to inspect the electrode. . With this configuration, if the electronic component is moved above the component recognition camera, the electronic component can be misaligned and the electrode can be inspected at the same position, improving the inspection efficiency. (For example, refer to Patent Document 1).

特許第3378077号公報Japanese Patent No. 3378077

しかし、上記のような電子部品実装装置においては、電子部品を基板に実装する前の電極検査は部品認識カメラとは別に電極検査装置を設ける必要があり、別途電極検査を実施するために斜め下方から平行光線を照射するなど電極検査装置のコストがかかるという問題があった。
また、吸着ノズルによる電子部品の位置ズレの認識時と電子部品の電極の検査時では、それぞれ別々の装置を用いているため、異なるデータを取得することになる。その結果、電極を検査する際には、位置ズレの認識時における電子部品の特徴点(例えば、リードの先端位置等)の位置の検出と、電極の検査時における電子部品の特徴点の位置の検出は別個に行わなければならず、電子部品の検査の作業に手間がかかるという問題もあった。
However, in the electronic component mounting apparatus as described above, it is necessary to provide an electrode inspection device separately from the component recognition camera for the electrode inspection before mounting the electronic component on the board. There is a problem that the cost of the electrode inspection apparatus is high, such as irradiating a parallel light beam.
Also, since different devices are used for recognizing the positional deviation of the electronic component by the suction nozzle and for inspecting the electrode of the electronic component, different data is acquired. As a result, when inspecting the electrode, the position of the feature point of the electronic component (for example, the tip position of the lead) at the time of recognizing the misalignment and the position of the feature point of the electronic component at the time of the electrode inspection are detected. The detection has to be performed separately, and there is a problem that it takes time to inspect the electronic parts.

本発明は、上記課題を解決するためになされたものであり、基板等の実装対象物に実装される部品(例えば、電子部品等)の検査にかかるコストを低減すると共に、電子部品の検査の作業にかかる手間を軽減することができる部品検査装置及び部品実装装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and reduces the cost required for inspecting a component (for example, an electronic component) mounted on an object to be mounted such as a substrate, and also inspecting the electronic component. It is an object of the present invention to provide a component inspection apparatus and a component mounting apparatus that can reduce the labor required for work.

上記課題を解決するため、請求項1に記載の発明は、
部品を保持する保持部と、前記保持部により保持された部品を撮像する撮像部とを備え、前記撮像部により撮像された撮像画像により、前記保持部の中心からの部品の位置ずれを検査する部品検査装置において、
前記撮像部は、当該撮像部から前記部品までの距離が異なる複数の画像を撮像し、
前記撮像部により撮像された複数の撮像画像の中から同一位置の画素における焦点の合った画素データを決定する画素データ決定手段と、
前記画素データ決定手段により決定された各画素データを撮像したときの前記撮像部と前記部品の距離を画素データ毎に決定する距離データ決定手段と、
前記部品が所定の基準を満たすか否かを決定づけるため、前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離の許容値を記憶する記憶手段と、
前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離が前記記憶手段に記憶された許容値を超えているか否かを判定する判定手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention described in claim 1
A holding unit that holds a component and an imaging unit that captures an image of the component held by the holding unit, and inspects the positional deviation of the component from the center of the holding unit based on a captured image captured by the imaging unit. In parts inspection equipment,
The imaging unit captures a plurality of images having different distances from the imaging unit to the component,
Pixel data determining means for determining focused pixel data in pixels at the same position from among a plurality of captured images captured by the imaging unit;
Distance data determining means for determining, for each pixel data, a distance between the imaging unit and the component when each pixel data determined by the pixel data determining means is imaged;
Storage means for storing an allowable value of a distance from a virtual straight line or a virtual plane of a predetermined part of the component obtained from the distance data in order to determine whether or not the component satisfies a predetermined criterion;
Determination means for determining whether a distance from a virtual straight line or a virtual plane of the predetermined part of the component obtained from the distance data exceeds an allowable value stored in the storage means;
It is characterized by providing.

請求項2に記載の発明は、請求項1に記載の部品検査装置において、
前記保持部と前記撮像部のうち少なくとも一方を他方に対して接離するように移動させる移動部と、
前記移動部により前記保持部や前記撮像部が所定距離移動する毎に、前記撮像部に前記部品を前記保持部と共に撮像させる撮像制御手段と、
を備えることを特徴とする。
The invention according to claim 2 is the component inspection apparatus according to claim 1,
A moving unit that moves at least one of the holding unit and the imaging unit so as to be in contact with or separated from the other; and
Imaging control means for causing the imaging unit to image the component together with the holding unit each time the holding unit and the imaging unit move by a predetermined distance by the moving unit;
It is characterized by providing.

請求項3に記載の発明は、請求項2に記載の部品検査装置において、
前記撮像部を固定し、
前記移動部は、前記保持部を前記撮像部の光学系の光軸方向に沿った方向に移動することを特徴とする。
The invention according to claim 3 is the component inspection apparatus according to claim 2,
Fixing the imaging unit;
The moving unit moves the holding unit in a direction along an optical axis direction of an optical system of the imaging unit.

請求項4に記載の発明は、部品実装装置において、
請求項1から3のいずれか一項に記載の部品検査装置と、
前記保持部を移動させて前記部品を実装位置に搬送する搬送部と、
前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離のうち、少なくとも一つが前記記憶手段に記憶された許容値を超えていると前記判定手段により判断された場合に、前記搬送部に前記部品を実装位置に搬送せずに排出させる搬送制御手段と、
を備えることを特徴とする。
The invention according to claim 4 is the component mounting apparatus,
The component inspection apparatus according to any one of claims 1 to 3,
A transport unit that moves the holding unit to transport the component to a mounting position;
When it is determined by the determination means that at least one of the distances from the virtual straight line or the virtual plane of the predetermined part of the part obtained from the distance data exceeds the allowable value stored in the storage means, A transport control means for causing the transport unit to eject the component without transporting it to a mounting position;
It is characterized by providing.

請求項5に記載の発明は、請求項4に記載の部品実装装置において、
前記撮像部が当該撮像部から前記部品までの距離が異なる複数の画像を撮像した画像データに対して、前記撮像部から前記部品までの距離に応じた画像の中心位置ずれ量を予め算出した中心位置ずれ補正テーブルにより画像データを補正する位置ずれ補正手段を備えることを特徴とする。
The invention according to claim 5 is the component mounting apparatus according to claim 4,
A center in which the center position deviation amount of the image corresponding to the distance from the imaging unit to the component is calculated in advance for image data obtained by the imaging unit capturing a plurality of images having different distances from the imaging unit to the component. It is characterized by comprising a misregistration correction means for correcting image data by a misregistration correction table.

請求項6に記載の発明は、請求項4又は5に記載の部品実装装置において、
前記撮像部が当該撮像部から前記部品までの距離が異なる複数の画像を撮像した画像データに対して、前記撮像部から前記部品までの距離に応じた画像の中心位置ずれ量を予め算出した中心位置ずれ補正テーブル又は前記撮像部から前記部品までの距離に応じた画像の大きさの変化量を予め算出した倍率補正テーブルにより画像データを補正する倍率補正手段を備えることを特徴とする。
The invention according to claim 6 is the component mounting apparatus according to claim 4 or 5,
A center in which the center position deviation amount of the image corresponding to the distance from the imaging unit to the component is calculated in advance for image data obtained by the imaging unit capturing a plurality of images having different distances from the imaging unit to the component. The image processing apparatus includes a magnification correction unit that corrects image data using a displacement correction table or a magnification correction table in which an amount of change in image size corresponding to a distance from the imaging unit to the component is calculated in advance.

請求項7に記載の発明は、請求項4から6のいずれか一項に記載の部品実装装置において、
部品を保持した前記保持部が前記撮像部に到達するまでの移動中における複数の位置で撮像を行い、その撮像による画像データに基づいて、前記画素データ決定手段が同一位置の画素における焦点の合った画素データを求めるための、前記撮像部から前記部品までの距離が異なる複数の画像の撮像を行う範囲の最適な位置を設定する前処理を行う最適環境決定手段を備えることを特徴とする。
The invention according to claim 7 is the component mounting apparatus according to any one of claims 4 to 6,
Imaging is performed at a plurality of positions during movement until the holding unit that holds the part reaches the imaging unit, and the pixel data determination unit focuses on the pixels at the same position based on image data obtained by the imaging. And an optimum environment determining unit that performs preprocessing for setting an optimum position in a range in which a plurality of images with different distances from the imaging unit to the component are obtained to obtain pixel data.

請求項1に記載の発明によれば、撮像部は、当該撮像部から部品までの距離が異なる複数の画像を撮像する。そして、画素データ決定手段は、撮像部により撮像された複数の撮像画像の中から同一位置の画素における焦点の合った画素データを決定する。
そして、距離データ決定手段は、画素データ決定手段により決定された各画素データを撮像したときの撮像部と部品の距離を画素データ毎に決定する。
そして、判定手段は、距離データから求められる部品の所定部位の仮想直線又は仮想平面からの距離が記憶手段に記憶された許容値を超えているか否かを判定する。
これにより、保持部の中心からの部品の位置ずれを検査する撮像部のみを用いて、各画素位置(位置座標)における焦点のあった画素データのみを抽出して全ての画素位置において焦点が合う全焦点画像を作成することができ、全焦点画像の各画素データの距離データを求めることで、部品のどの部分に不良があるかを検出することができる。
すなわち、撮像部が複数の画像を撮像してその画像を処理することで、保持部の中心からの部品の位置ズレと、部品自体の検査とを行うことができるようになる。
よって、従来のように、部品の位置ズレを認識するための装置と部品自体を検査する装置の双方を設ける必要がなくなるので、実装対象物に実装される部品の検査にかかるコストを低減することができる。また、一つの部品の位置ズレの検査時と部品自体の検査時における部品の特徴点の位置を同じ画像から検出することができるので、それぞれのデータの整合性をとるような作業が不要となり、部品の検査の作業にかかる手間を軽減することができる。
According to the first aspect of the present invention, the imaging unit captures a plurality of images having different distances from the imaging unit to the component. Then, the pixel data determination unit determines focused pixel data for the pixel at the same position from among a plurality of captured images captured by the imaging unit.
The distance data determining unit determines the distance between the imaging unit and the component for each pixel data when each pixel data determined by the pixel data determining unit is imaged.
Then, the determination unit determines whether or not the distance from the virtual straight line or the virtual plane of the predetermined part of the part obtained from the distance data exceeds the allowable value stored in the storage unit.
As a result, only the pixel data with focus at each pixel position (position coordinate) is extracted using only the imaging unit that inspects the positional deviation of the component from the center of the holding unit, and the focus is achieved at all pixel positions. An omnifocal image can be created, and by determining the distance data of each pixel data of the omnifocal image, it is possible to detect which part of the component has a defect.
That is, when the imaging unit captures a plurality of images and processes the images, the positional deviation of the component from the center of the holding unit and the inspection of the component itself can be performed.
Therefore, it is not necessary to provide both a device for recognizing the positional deviation of the component and a device for inspecting the component itself as in the conventional case, and thus the cost for inspecting the component mounted on the mounting target can be reduced. Can do. In addition, since the position of the feature point of the part at the time of inspection of the positional deviation of one part and at the time of inspection of the part itself can be detected from the same image, the work of taking consistency of each data becomes unnecessary, It is possible to reduce the time and labor required for parts inspection.

請求項2に記載の発明によれば、撮像制御手段は、移動部により保持部や撮像部が所定距離移動する毎に、撮像部に部品を保持部と共に撮像させる。
これにより、所定の距離間隔毎に撮像画像を取得することができ、撮像画像の画素データと撮像部までの距離との関係を把握することが容易となる。
According to the second aspect of the invention, the imaging control means causes the imaging unit to image the component together with the holding unit every time the holding unit and the imaging unit move by a predetermined distance by the moving unit.
Thereby, a captured image can be acquired for every predetermined distance interval, and it becomes easy to grasp the relationship between the pixel data of the captured image and the distance to the imaging unit.

請求項3に記載の発明によれば、撮像部を固定して、保持部を移動部により撮像部の光学系の光軸方向に移動させることで、撮像部と保持部に保持された部品との距離を変えることができる。
これにより、撮像部は、距離が異なる複数の画像を撮像することができる。また、光学系を備えているために位置決め精度が要求される撮像部を固定することで、ぶれの少ない画像を撮像することができる。
According to the third aspect of the present invention, the imaging unit is fixed, and the holding unit is moved by the moving unit in the optical axis direction of the optical system of the imaging unit, so that the imaging unit and the components held by the holding unit are The distance can be changed.
Thereby, the imaging unit can capture a plurality of images having different distances. In addition, since an optical system is provided, an image with less blur can be captured by fixing an imaging unit that requires positioning accuracy.

請求項4に記載の発明によれば、距離データから求められる部品の所定部位の仮想直線又は仮想平面からの距離のうち、少なくとも一つが記憶手段に記憶された許容値を超えていると判定手段により判断された場合には、搬送制御手段は、搬送部に部品を実装位置に搬送せずに排出させる。
これにより、距離データから求められる部品の所定部位の仮想直線又は仮想平面からの距離のうち、少なくとも一つが許容値を超えている場合には部品が正常でないと考えられるため、その部品を実装せずに排出することで、所定の実装対象物に不良部品が実装されることを防止することができる。
According to the invention of claim 4, it is determined that at least one of the distances from the virtual straight line or the virtual plane of the predetermined part of the part obtained from the distance data exceeds the allowable value stored in the storage unit. If it is determined, the conveyance control means causes the conveyance unit to discharge the component without conveying it to the mounting position.
As a result, if at least one of the distances from the virtual straight line or virtual plane of the predetermined part of the part obtained from the distance data exceeds the allowable value, the part is considered to be not normal. It is possible to prevent a defective part from being mounted on a predetermined mounting object by discharging the battery without discharging.

請求項5に記載の発明によれば、画像データの画像の中心位置のずれ量を補正するための中心位置ずれ補正テーブルにより補正を行うので、撮像部の光学系における光軸と撮像部から部品までの距離を変えて撮像する際の部品の中心位置の移動軌跡とが不一致を生じているような場合であっても、それを原因とする画像の位置ずれの影響を解消することができ、より精度の高い部品検査を行うことが可能となる。   According to the fifth aspect of the present invention, the correction is performed by the center position shift correction table for correcting the shift amount of the center position of the image of the image data. Even if there is a discrepancy between the movement trajectory of the center position of the component when imaging by changing the distance up to, it is possible to eliminate the effect of image misalignment caused by it, It becomes possible to perform component inspection with higher accuracy.

請求項6に記載の発明によれば、撮像部の光学系に非テレセントリックレンズを使用する場合でも、それを原因とする各位置での画像の大きさの変動の影響を解消することができ、より精度の高い部品検査を行うことが可能となる。   According to the invention described in claim 6, even when a non-telecentric lens is used in the optical system of the imaging unit, it is possible to eliminate the influence of fluctuations in the size of the image at each position caused by it, It becomes possible to perform component inspection with higher accuracy.

請求項7に記載の発明によれば、部品移動中において、当該撮像部から前記部品までの距離が異なる複数の画像を撮像する範囲の最適な位置を求めることができる。これにより、設定値に依存しない最適な撮像範囲を自動で設定することができる。   According to the seventh aspect of the present invention, it is possible to obtain an optimum position of a range in which a plurality of images with different distances from the imaging unit to the component are captured during component movement. Thereby, an optimal imaging range that does not depend on the set value can be automatically set.

部品検査装置を備える部品実装装置の斜視図。The perspective view of a component mounting apparatus provided with a component inspection apparatus. 制御部に関する構成を示すブロック図。The block diagram which shows the structure regarding a control part. 部品検査の流れを示すフローチャート。The flowchart which shows the flow of component inspection. 部品の撮像方法を説明する図。The figure explaining the imaging method of components. 各画素の撮像距離データで作成された画像を示す図。The figure which shows the image produced with the imaging distance data of each pixel. 最適環境決定処理の流れを示すフローチャート。The flowchart which shows the flow of the optimal environment determination process. 最適環境用の部品の撮像方法を説明する図であり、図7(A)は撮像時の部品の正面方向から見た位置変化と実行する処理の関係を示し、図7(B)は図7(A)の撮像時の部品の位置変化を平面方向から見た状態を示している。FIG. 7A is a diagram for explaining an imaging method for a component for an optimum environment. FIG. 7A shows the relationship between the position change seen from the front direction of the component at the time of imaging and the processing to be executed, and FIG. The state which looked at the position change of the components at the time of the imaging of (A) from the plane direction is shown. 最適環境決定処理による更新前(設定範囲)と更新後(最適範囲)の撮像範囲を説明する図。The figure explaining the imaging range before the update by the optimal environment determination process (setting range) and after the update (optimum range). 図9(A)〜(C)は撮像部の光軸と吸着ノズルの軸芯が一致しない場合におけるZ方向の各位置での撮像画像の位置変化を示す図である。FIGS. 9A to 9C are diagrams illustrating changes in the position of the captured image at each position in the Z direction when the optical axis of the imaging unit and the axis of the suction nozzle do not match. 補正ターゲットの部品認識カメラに向ける面を示す図である。It is a figure which shows the surface which faces a component recognition camera of a correction target. 図11(A)〜(C)は非テレセントリックレンズを使用した場合のZ方向の各位置における撮像画像の大きさの変化を示す図である。FIGS. 11A to 11C are diagrams illustrating changes in the size of a captured image at each position in the Z direction when a non-telecentric lens is used.

本発明に係る部品検査装置及び部品実装装置の実施形態について説明する。なお、部品検査装置は、部品実装装置の一部であるため、部品実装装置と併せて説明する。
<部品実装装置の構成>
図1に示すように、部品実装装置100は、部品供給装置から供給される電子部品(部品)を基板(実装対象物)に実装する装置である。
部品実装装置100は、土台となる台部1を備えている。台部1の上面には、上面中央部から少し後方でX方向に延在し、基板Bを搬送する基板搬送路2が設けられている。台部1の前方には電子部品Pを基板Bに実装するための部品供給部3が設けられている。部品供給部3には、基板Bに実装される電子部品Pが格納されている。
Embodiments of a component inspection apparatus and a component mounting apparatus according to the present invention will be described. Since the component inspection apparatus is a part of the component mounting apparatus, it will be described together with the component mounting apparatus.
<Configuration of component mounting device>
As shown in FIG. 1, the component mounting apparatus 100 is an apparatus that mounts an electronic component (component) supplied from a component supply device on a substrate (mounting object).
The component mounting apparatus 100 includes a base 1 that serves as a base. A substrate transport path 2 that transports the substrate B is provided on the upper surface of the base 1 so as to extend in the X direction slightly behind the center of the upper surface. A component supply unit 3 for mounting the electronic component P on the board B is provided in front of the base unit 1. The component supply unit 3 stores an electronic component P mounted on the board B.

台部1の上面には、X方向に延在し、ヘッド部4をX方向に往復移動自在に案内するX搬送部5(搬送部)と、Y方向に延在し、ヘッド部4をY方向に往復移動自在に案内するY搬送部6(搬送部)とが設けられている。
X搬送部5は、Y搬送部6上をY方向に沿って移動自在となるようにY搬送部6に設けられている。X搬送部5には、X方向に沿って移動自在となるようにヘッド部4が設けられている。すなわち、X搬送部5とY搬送部6により、ヘッド部4をXY方向に移動させて電子部品Pを基板Bの実装位置まで移動させることができる。
An X transport section 5 (transport section) that extends in the X direction and guides the head section 4 so as to be reciprocally movable in the X direction and an Y transport direction that extends in the Y direction. A Y transport unit 6 (transport unit) that reciprocally guides in a direction is provided.
The X transport unit 5 is provided in the Y transport unit 6 so as to be movable along the Y direction on the Y transport unit 6. The X transport unit 5 is provided with a head unit 4 so as to be movable along the X direction. In other words, the X conveyance unit 5 and the Y conveyance unit 6 can move the head unit 4 in the XY direction to move the electronic component P to the mounting position of the substrate B.

ヘッド部4には、電子部品Pを吸着により保持して基板Bの実装位置まで搬送する吸着ノズル7(保持部)と、基板Bの上方から基板Bを撮像して基板Bの存在を認識する基板認識カメラ8とが設けられている。ここで、吸着ノズル7は、ヘッド部4に設けられているので、各搬送部5,6の駆動により、電子部品Pは、基板Bの実装位置まで移動可能となっている。
吸着ノズル7は、当該吸着ノズル7を図1のZ方向に沿って移動させる移動部14(図2参照)に連結されている。移動部14は、ステッピングモータ等の移動量を制御可能なモータ、ボールねじ等を用いた機構である。
台部1の上面には、部品供給部3に隣接する部品認識カメラ9(撮像部)が設けられている。
部品認識カメラ9は、吸着ノズル7に吸着保持された電子部品Pを下方から吸着ノズル7と共に撮像するカメラである。部品認識カメラ9は、台部1の上面に直上を撮像できるような姿勢で固定されている。すなわち、部品認識カメラ9の光学系の光軸がZ軸に一致している。
従って、吸着ノズル7の移動可能な方向と、部品認識カメラ9の配置との関係から、吸着ノズル7は、移動部14によって部品認識カメラ9の光学系の光軸方向に沿った方向に上下動することができる。これにより、吸着ノズル7に保持された電子部品Pは、部品認識カメラ9に対して接離することができ、部品認識カメラ9は、電子部品Pまでの距離を変えて電子部品Pを撮像することができる。
台部1には、台部1上に設けられた各部を覆うカバー11が設けられており、このカバー11の一部には、電子部品実装装置100の操作を行うための操作パネル12が設けられている。操作パネル12は、ユーザからの指示を入力することができると共に、ユーザに報知する情報を表示することができる。
The head portion 4 holds the electronic component P by suction and picks up the suction nozzle 7 (holding portion) that conveys the electronic component P to the mounting position of the substrate B, and images the substrate B from above the substrate B to recognize the presence of the substrate B. A substrate recognition camera 8 is provided. Here, since the suction nozzle 7 is provided in the head unit 4, the electronic component P can be moved to the mounting position of the substrate B by driving the transport units 5 and 6.
The suction nozzle 7 is connected to a moving unit 14 (see FIG. 2) that moves the suction nozzle 7 along the Z direction in FIG. The moving unit 14 is a mechanism using a motor that can control the amount of movement, such as a stepping motor, a ball screw, or the like.
A component recognition camera 9 (imaging unit) adjacent to the component supply unit 3 is provided on the upper surface of the base unit 1.
The component recognition camera 9 is a camera that images the electronic component P sucked and held by the suction nozzle 7 together with the suction nozzle 7 from below. The component recognition camera 9 is fixed on the upper surface of the base unit 1 in such a posture as to be able to capture an image directly above. That is, the optical axis of the optical system of the component recognition camera 9 coincides with the Z axis.
Therefore, based on the relationship between the direction in which the suction nozzle 7 can move and the arrangement of the component recognition camera 9, the suction nozzle 7 moves up and down in the direction along the optical axis direction of the optical system of the component recognition camera 9 by the moving unit 14. can do. Thereby, the electronic component P held by the suction nozzle 7 can be moved toward and away from the component recognition camera 9, and the component recognition camera 9 changes the distance to the electronic component P and images the electronic component P. be able to.
The base part 1 is provided with a cover 11 that covers each part provided on the base part 1, and an operation panel 12 for operating the electronic component mounting apparatus 100 is provided on a part of the cover 11. It has been. The operation panel 12 can input an instruction from the user and can display information notified to the user.

台部1内には、電子部品実装装置100の各駆動部の駆動を制御する制御部13が設けられている。
制御部13は、部品認識カメラ9が撮像した撮像画像を演算処理し、吸着ノズル7の中心からの電子部品Pの位置ズレを検査する。すなわち、制御部13は、電子部品Pが吸着ノズル7に正しい状態で保持されているか否かを検査する。これは、吸着ノズル7は、基板Bの実装位置の直上に電子部品Pを搬送するため、電子部品Pが吸着ノズル7の正しい位置で保持されていなければ基板Bの実装位置に電子部品Pを実装することができないからである。
制御部13は、電子部品Pの特徴点の位置、例えば、電極の位置を演算することで、電子部品Pが正常であるか否かを検査する。これは、電子部品Pの電極が欠損していたり、曲がっていたりすると、基板Bの実装位置に電子部品Pを実装することができないからである。そして、電子部品Pの状態が不良である場合には、撮像画像において電極等が検出される位置が大きく異なってしまうため、吸着ノズル7に対する電子部品Pの位置ズレを検査する際に用いる撮像画像と同じ撮像画像を用いて電子部品Pの検査をすることができる。
A control unit 13 that controls driving of each driving unit of the electronic component mounting apparatus 100 is provided in the base unit 1.
The control unit 13 performs arithmetic processing on the captured image captured by the component recognition camera 9 and inspects the positional deviation of the electronic component P from the center of the suction nozzle 7. That is, the control unit 13 inspects whether or not the electronic component P is held in the suction nozzle 7 in a correct state. This is because the suction nozzle 7 transports the electronic component P immediately above the mounting position of the substrate B. Therefore, if the electronic component P is not held at the correct position of the suction nozzle 7, the electronic component P is placed at the mounting position of the substrate B. This is because it cannot be implemented.
The control unit 13 checks whether or not the electronic component P is normal by calculating the position of the feature point of the electronic component P, for example, the position of the electrode. This is because the electronic component P cannot be mounted at the mounting position of the substrate B if the electrodes of the electronic component P are missing or bent. And when the state of the electronic component P is defective, the position where the electrode or the like is detected in the captured image is greatly different. Therefore, the captured image used when inspecting the positional deviation of the electronic component P with respect to the suction nozzle 7. The electronic component P can be inspected using the same captured image.

図2に示すように、制御部13は、各演算処理を行うCPU13aと、CPU13aの作業スペースとなるRAM13bと、CPU13aによる演算プログラム等が記憶されたROM13cと、書き換え可能なデータ等を記憶するEEPROM13dとを備えている。   As shown in FIG. 2, the control unit 13 includes a CPU 13a that performs each arithmetic processing, a RAM 13b that is a work space for the CPU 13a, a ROM 13c that stores arithmetic programs and the like by the CPU 13a, and an EEPROM 13d that stores rewritable data and the like. And.

EEPROM13dには、電子部品Pが基板Bに実装するための所定の基準を満たすか否かを決定づけるため、各画素データを撮像したときの部品認識カメラ9と電子部品Pの所定部位までの距離データから求められる電子部品Pの所定部位(例えば、電極)の仮想直線又は仮想平面からの距離の許容値が記憶されている。従って、EEPROM13dは、記憶手段として機能する。   In the EEPROM 13d, in order to determine whether or not the electronic component P satisfies a predetermined standard for mounting on the substrate B, distance data between the component recognition camera 9 and the predetermined part of the electronic component P when each pixel data is imaged. The allowable value of the distance from the virtual straight line or virtual plane of the predetermined part (for example, electrode) of the electronic component P obtained from the above is stored. Therefore, the EEPROM 13d functions as a storage unit.

ROM13cには、CPU13aに実行されることで、移動部14により吸着ノズル7がZ方向に所定距離移動する毎に、部品認識カメラ9に電子部品Pを吸着ノズル7と共に撮像させる機能を実現する撮像制御プログラムが記憶されている。CPU13aによる撮像制御プログラムの実行により、部品認識カメラ9は、電子部品Pまでの距離が異なる複数の画像を撮像することができる。
従って、CPU13aが撮像制御プログラムを実行することで、制御部13は撮像制御手段として機能する。
The ROM 13c is executed by the CPU 13a so as to realize a function of causing the component recognition camera 9 to image the electronic component P together with the suction nozzle 7 every time the suction nozzle 7 is moved in the Z direction by the moving unit 14. A control program is stored. The component recognition camera 9 can capture a plurality of images with different distances to the electronic component P by executing the imaging control program by the CPU 13a.
Therefore, when the CPU 13a executes the imaging control program, the control unit 13 functions as an imaging control unit.

ROM13cには、CPU13aに実行されることで、部品認識カメラ9により撮像された複数の撮像画像の中から同一位置の画素における焦点の合った画素データを決定する機能を実現する画素データ決定プログラムが記憶されている。
従って、CPU13aが画素データ決定プログラムを実行することで、制御部13は画素データ決定手段として機能する。
The ROM 13c includes a pixel data determination program that, when executed by the CPU 13a, realizes a function of determining focused pixel data at a pixel at the same position from a plurality of captured images captured by the component recognition camera 9. It is remembered.
Therefore, when the CPU 13a executes the pixel data determination program, the control unit 13 functions as a pixel data determination unit.

ROM13cには、CPU13aに実行されることで、画素データ決定プログラムの実行により決定された各画素データを撮像したときの部品認識カメラ9と電子部品Pの距離を画素データ毎に決定する機能を実現する距離データ決定プログラムが記憶されている。
従って、CPU13aが距離データ決定プログラムを実行することで、制御部13は距離データ決定手段として機能する。
The ROM 13c is executed by the CPU 13a to realize a function of determining the distance between the component recognition camera 9 and the electronic component P for each pixel data when each pixel data determined by the execution of the pixel data determination program is imaged. A distance data determination program is stored.
Therefore, when the CPU 13a executes the distance data determination program, the control unit 13 functions as a distance data determination unit.

ROM13cには、距離データから求められる電子部品Pの所定部位(例えば、電極)の仮想直線又は仮想平面からの距離がEEPROM13dに記憶された許容値を超えているか否かを判定する機能を実現する判定プログラムが記憶されている。
従って、CPU13aが判定プログラムを実行することで、制御部13は判定手段として機能する。
The ROM 13c realizes a function of determining whether a distance from a virtual straight line or a virtual plane of a predetermined part (for example, an electrode) of the electronic component P obtained from the distance data exceeds an allowable value stored in the EEPROM 13d. A judgment program is stored.
Therefore, when the CPU 13a executes the determination program, the control unit 13 functions as a determination unit.

ROM13cには、距離データから求められる電子部品Pの所定部位(例えば、電極)の仮想直線又は仮想平面からの距離のうち、少なくとも一つがEEPROM13dに記憶された許容値を超えていると判定プログラムの実行により判断された場合に、X搬送部5及びY搬送部6を駆動させて、電子部品Pを基板Bの実装位置に搬送せずに排出させる機能を実現する搬送制御プログラムが記憶されている。
従って、CPU13aが搬送制御プログラムを実行することで、制御部13は搬送制御手段として機能する。
In the ROM 13c, it is determined that at least one of the distances from a virtual straight line or a virtual plane of a predetermined part (for example, an electrode) of the electronic component P obtained from the distance data exceeds the allowable value stored in the EEPROM 13d. A transfer control program that realizes a function of driving the X transfer unit 5 and the Y transfer unit 6 to discharge the electronic component P without transferring it to the mounting position of the substrate B when it is determined by execution is stored. .
Therefore, when the CPU 13a executes the conveyance control program, the control unit 13 functions as a conveyance control unit.

ROM13cには、吸着ノズル7により電子部品Pを吸着してから部品認識カメラ9の直上位置までX、Y、Z方向に吸着ノズル7を移動する間に、複数回の撮像を行い、最適な撮像範囲と最適な照明パターンとを決定する機能を実現する最適環境決定プログラムが記憶されている。
従って、CPU13aが最適環境決定プログラムを実行することで、制御部13は撮像に最適な撮像距離の範囲や最適な照明値を決定する最適環境決定手段として機能する。
The ROM 13c picks up the electronic component P by the suction nozzle 7 and then picks up a plurality of times while moving the suction nozzle 7 in the X, Y, and Z directions to the position immediately above the component recognition camera 9 to obtain an optimal image. An optimum environment determination program for realizing a function for determining a range and an optimum illumination pattern is stored.
Therefore, when the CPU 13a executes the optimum environment determination program, the control unit 13 functions as an optimum environment determination unit that determines an imaging distance range and an optimal illumination value that are optimal for imaging.

制御部13には、X搬送部5、Y搬送部6、基板認識カメラ8、部品認識カメラ9、照明部10、操作パネル12が電気的に接続されており、制御部13は、主に各部の駆動に関する制御を行う。
部品実装装置100は、上記の各構成要素を備えており、そのうち、吸着ノズル7、部品認識カメラ9、照明部10、移動部14、制御部13を備えることで部品検査装置110が構成されている。
The control unit 13 is electrically connected to the X transport unit 5, the Y transport unit 6, the board recognition camera 8, the component recognition camera 9, the lighting unit 10, and the operation panel 12. Control related to the driving of
The component mounting apparatus 100 includes each of the above-described components. Among these components, the component inspection apparatus 110 includes the suction nozzle 7, the component recognition camera 9, the illumination unit 10, the moving unit 14, and the control unit 13. Yes.

<電子部品の位置ズレ検査、不良検査の処理>
部品実装装置100により、吸着ノズル7に対する電子部品Pの位置ズレの検査、及び電子部品Pの不良検査(電極浮き検査について例示する)について説明する。
図3に示すように、最初に、ユーザにより、電極の検査を行う電子部品Pの設定、部品認識カメラ9で撮像する撮像距離(高さ)の範囲の設定、画像の撮像間隔の設定等を操作パネル12から行う(ステップS1)。
ここで、撮像距離の範囲設定とは、複数の画像を撮像する撮像距離の範囲をいい、その範囲は、部品認識カメラ9の焦点が電極に合った位置を中心として電子部品PがZ方向に沿って部品認識カメラ9に接近する方向と離間する方向に同じ距離だけとったものである。
具体的には、図4に示すように、部品認識カメラ9の焦点位置からZ方向に沿って+0.5mm(上限値)、−0.5mm(下限値)を設定する。従って、部品認識カメラ9は、Z方向に1mmの範囲内で画像を撮像することができる。
そして、撮像間隔は、このように設定された1mmの撮像範囲の中で部品認識カメラ9が撮像を行う距離の間隔である。
具体的には、距離間隔を0.05mmと設定する。これにより、部品認識カメラ9は、設定した撮像範囲の中で、21枚の画像を撮像することができる。
<Electronic component misalignment inspection and defect inspection processing>
The component mounting apparatus 100 will be described with respect to an inspection of the positional deviation of the electronic component P with respect to the suction nozzle 7 and a defect inspection of the electronic component P (exemplification of electrode floating inspection).
As shown in FIG. 3, first, the user sets the electronic component P for inspecting the electrode, sets the imaging distance (height) range captured by the component recognition camera 9, sets the imaging interval, and the like. This is performed from the operation panel 12 (step S1).
Here, the imaging distance range setting refers to an imaging distance range in which a plurality of images are captured, and the range is such that the electronic component P is in the Z direction centering on the position where the component recognition camera 9 is focused on the electrode. The same distance is taken along the direction of approaching the component recognition camera 9 and the direction of separation.
Specifically, as shown in FIG. 4, +0.5 mm (upper limit value) and −0.5 mm (lower limit value) are set along the Z direction from the focal position of the component recognition camera 9. Therefore, the component recognition camera 9 can capture an image within a range of 1 mm in the Z direction.
The imaging interval is an interval of a distance at which the component recognition camera 9 performs imaging within the 1 mm imaging range set in this way.
Specifically, the distance interval is set to 0.05 mm. Thereby, the component recognition camera 9 can capture 21 images within the set imaging range.

各設定が終了し、ユーザが操作パネル12から実装開始の旨を入力すると、制御部13は各部の駆動を制御して、電子部品Pの基板Bへの実装を開始する(ステップS2)。
電子部品Pの実装が開始されると、制御部13は、X搬送部5及びY搬送部6を駆動させ、吸着ノズル7を部品供給部3に移動させる。そして、制御部13は、移動部14を駆動させて吸着ノズル7を下降させて電子部品Pを吸着、保持させる(ステップS3)。
次いで、制御部13は、X搬送部5及びY搬送部6を駆動させ、吸着ノズル7を部品認識カメラ9の直上に移動させる(ステップS4)。
このとき、制御部13は、吸着ノズル7を部品認識カメラ9に移動する過程で、前述した最適環境決定手段としての処理(最適環境決定処理とする)を実行する。かかる処理については詳細を後述する。
When each setting is completed and the user inputs an instruction to start mounting from the operation panel 12, the control unit 13 controls driving of each unit and starts mounting the electronic component P on the board B (step S2).
When the mounting of the electronic component P is started, the control unit 13 drives the X transport unit 5 and the Y transport unit 6 to move the suction nozzle 7 to the component supply unit 3. Then, the control unit 13 drives the moving unit 14 to lower the suction nozzle 7 to suck and hold the electronic component P (step S3).
Next, the control unit 13 drives the X transport unit 5 and the Y transport unit 6 to move the suction nozzle 7 directly above the component recognition camera 9 (step S4).
At this time, the control unit 13 executes the above-described process as the optimum environment determination means (referred to as the optimum environment determination process) in the process of moving the suction nozzle 7 to the component recognition camera 9. Details of such processing will be described later.

次いで、制御部13は、移動部14を駆動させて、電子部品Pを保持している吸着ノズル7をZ方向に沿って上下動させ、部品認識カメラ9が電子部品Pの電極に焦点が合う位置まで電子部品Pを移動させる。制御部13は、焦点を電極に合わせた後、移動部14を駆動させてステップS1で設定した撮像範囲の最も高い位置(撮像距離の上限値(焦点位置から+0.5mmの位置))まで電子部品Pを上昇させる。上昇後、制御部13は、部品認識カメラ9に電子部品Pを撮像させる。   Next, the control unit 13 drives the moving unit 14 to move the suction nozzle 7 holding the electronic component P up and down along the Z direction so that the component recognition camera 9 is focused on the electrode of the electronic component P. The electronic component P is moved to the position. After the focus is set on the electrode, the control unit 13 drives the moving unit 14 to electronically reach the highest position in the imaging range set in step S1 (upper limit value of imaging distance (position +0.5 mm from the focal position)). The part P is raised. After rising, the control unit 13 causes the component recognition camera 9 to image the electronic component P.

次いで、制御部13は、移動部14を駆動させて、ステップS1で設定した撮像間隔(距離0.05mm)ずつ下降させて停止させ、停止後に部品認識カメラ9で電子部品9を撮像させる。以降、制御部13は、移動部14を駆動させて、撮像範囲の最も低い位置(撮像距離の下限値(焦点位置から−0.5mmの位置))まで0.05mmずつ電子部品Pを下降させながら、部品認識カメラ9により電子部品Pを撮像させる。このように、Z方向に1mmの撮像範囲を0.05mm毎に撮像していくと、撮像距離の異なる合計21枚の撮像画像を取得することができる。制御部13は、全ての撮像画像を撮像した後、その画像データをEEPROM13dに記憶させる(ステップS5)。   Next, the control unit 13 drives the moving unit 14 to lower and stop the imaging interval (distance 0.05 mm) set in step S <b> 1, and causes the component recognition camera 9 to image the electronic component 9 after the stop. Thereafter, the control unit 13 drives the moving unit 14 to lower the electronic component P by 0.05 mm to the lowest position of the imaging range (lower limit of imaging distance (position of −0.5 mm from the focal position)). However, the electronic component P is imaged by the component recognition camera 9. As described above, when an imaging range of 1 mm in the Z direction is imaged every 0.05 mm, a total of 21 captured images with different imaging distances can be acquired. After capturing all the captured images, the control unit 13 stores the image data in the EEPROM 13d (step S5).

次いで、制御部13は、EEPROM13dに記憶された21枚の画像から、同一位置の画素を21個分比較し、各画素において最も焦点の合った画素データを抽出し、全ての画素で焦点の合う全焦点画像を作成する(ステップS6,S7)。
ここで、焦点のあった画素データのみの抽出方法としては撮像された全ての画像に対して、例えば、公知の7×7の差分フィルターを実施し、全ての画像の同一画素位置で求められたフィルター結果が最も高い値を示す位置の画素データと位置を選択する事によるなどにより実現される。
Next, the control unit 13 compares 21 pixels at the same position from 21 images stored in the EEPROM 13d, extracts pixel data that is most focused on each pixel, and focuses on all the pixels. An omnifocal image is created (steps S6 and S7).
Here, as a method for extracting only focused pixel data, for example, a known 7 × 7 difference filter is applied to all captured images, and the pixel data is obtained at the same pixel position in all the images. This is realized by selecting the pixel data and the position of the position where the filter result shows the highest value.

次いで、制御部13は、全焦点画像及び撮像距離の位置画像の作成後(ステップS8:YES)、制御部13は、作成した全焦点画像を用い、電子部品Pの電極位置を検出する(ステップS9)。これは、周囲との画素データとの比較により、電極と何も存在しない背景との画素データが大きく異なることを利用すれば、容易に行うことができる。
次いで、制御部13は、検出した電極の位置から、電子部品Pの中心位置を算出し、吸着ノズル7に対するX軸方向及びY軸方向の位置ズレを算出する(ステップS10)。これにより、電子部品Pが吸着ノズル7に対してどの方向にどの程度傾いて吸着されているかを知ることができる。
Next, after creating the omnifocal image and the position image of the imaging distance (step S8: YES), the control unit 13 detects the electrode position of the electronic component P using the created omnifocal image (step S8). S9). This can be easily performed by using the fact that the pixel data of the electrode and the background where nothing exists are greatly different from each other by comparison with the surrounding pixel data.
Next, the control unit 13 calculates the center position of the electronic component P from the detected electrode position, and calculates the positional deviation in the X-axis direction and the Y-axis direction with respect to the suction nozzle 7 (step S10). Thereby, it is possible to know in which direction and how much the electronic component P is sucked with respect to the suction nozzle 7.

次いで、制御部13は、抽出された画素データを撮像したときの撮像距離(部品認識カメラ9からの高さ)の位置画像を作成する(ステップS11)。
ここで、撮像距離の位置画像は、図5に示すように、各画素毎に採用された画素データを取得したときの撮像距離(高さ)を各画素位置に対応させて作成したデータである。ここで、どの撮像画像においても、焦点のあった画素データがない場合には、電子部品Pが存在しないとして、データは「0」とする。また、電極を検査する際、例えば、リード部品の場合、リードの先端からどの位置までの距離を測定するのかを指定するパラメータが存在し、この位置データを参照して撮像距離(高さ位置)を検出する事になる。
次いで、制御部13は、電子部品Pの各電極の撮像距離を算出後、例えば、特開2003−130619号公報に示されるような手法で、各辺の各リード端子の仮想直線からの距離、あるいは各リード端子の仮想平面からの距離を算出する(ステップS12)。
次いで、制御部13は、ステップS12で算出した距離が許容値内にあるかどうかを判定する(ステップS13)。すなわち、算出した最小二乗直線、あるいは最小二乗平面からの距離に基づき、電極となるリードの浮き量を検出し、検出されたリードの浮き量が、EEPROM13dに記憶されているリードの浮き量の許容値を超えているか否かを判定する(ステップS13)。
Next, the control unit 13 creates a position image of the imaging distance (height from the component recognition camera 9) when the extracted pixel data is imaged (step S11).
Here, the position image of the imaging distance is data created by associating the imaging distance (height) when the pixel data adopted for each pixel is acquired with each pixel position, as shown in FIG. . Here, in any captured image, if there is no focused pixel data, the electronic component P is not present and the data is “0”. In addition, when inspecting an electrode, for example, in the case of a lead component, there is a parameter for specifying a position to measure the distance from the tip of the lead, and an imaging distance (height position) with reference to this position data Will be detected.
Next, after calculating the imaging distance of each electrode of the electronic component P, the control unit 13 uses, for example, a method as disclosed in Japanese Patent Application Laid-Open No. 2003-130619, the distance from the virtual straight line of each lead terminal of each side, Alternatively, the distance from the virtual plane of each lead terminal is calculated (step S12).
Next, the control unit 13 determines whether or not the distance calculated in step S12 is within an allowable value (step S13). That is, based on the calculated distance from the least-squares line or the least-squares plane, the amount of floating of the lead serving as an electrode is detected, and the detected amount of floating of the lead is the tolerance of the amount of floating of the lead stored in the EEPROM 13d. It is determined whether or not the value is exceeded (step S13).

ステップS13において、制御部13は、仮想直線からの距離あるいは仮想平面からの距離が許容値内にないと判定した場合(ステップS13:YES)、すなわち、制御部13が検出されたリードの浮き量が許容値を超えていると判断した場合(ステップS13:YES)、制御部13は、X搬送部5及びY搬送部6を駆動させて、吸着ノズル7に保持されている電子部品Pを基板Bに実装せずに外部の所定場所に廃棄させる(ステップS14)。   In step S13, when the control unit 13 determines that the distance from the virtual straight line or the distance from the virtual plane is not within the allowable value (step S13: YES), that is, the lead floating amount detected by the control unit 13 Is determined to exceed the allowable value (step S13: YES), the control unit 13 drives the X conveyance unit 5 and the Y conveyance unit 6 to place the electronic component P held by the suction nozzle 7 on the substrate. It is discarded in a predetermined external location without being mounted on B (step S14).

一方、制御部13は、仮想直線からの距離あるいは仮想平面からの距離が許容値内であると判定した場合(ステップS13:NO)、すなわち、制御部13が検出されたリードの浮き量が許容値を超えていないと判断した場合(ステップS13:NO)、制御部13は、吸着ノズル7に保持されている電子部品Pを基板Bに実装させる(ステップS15)。
次いで、制御部13は、電子部品Pの基板Bへの実装工程が終了したか否かを判断し(ステップS16)、制御部13は、終了したと判断すれば(ステップS16:YES)、これをもって本処理を終了させ、終了していないと判断すれば(ステップS16:NO)、制御部13はステップS2の処理に戻る。
On the other hand, when the control unit 13 determines that the distance from the virtual straight line or the distance from the virtual plane is within the allowable value (step S13: NO), that is, the lead floating amount detected by the control unit 13 is allowable. When it is determined that the value has not been exceeded (step S13: NO), the control unit 13 causes the electronic component P held by the suction nozzle 7 to be mounted on the substrate B (step S15).
Next, the control unit 13 determines whether or not the mounting process of the electronic component P on the board B has been completed (step S16), and if the control unit 13 determines that the process has been completed (step S16: YES) The control unit 13 returns to the process of step S2 if it is determined that the process is terminated and it is determined that the process has not been terminated (step S16: NO).

<最適環境決定処理>
部品実装装置100において、吸着ノズル7に対する電子部品Pの位置ズレの検査、及び電子部品Pの不良検査に最適な環境を決定する準備処理について図6のフローチャートに基づいて説明する。
最適な環境を決定する準備処理は、前述した電子部品Pの位置ズレ検査及び不良検査の処理における、吸着ノズル7による電子部品Pの吸着から部品認識カメラ9の直上への移動(図3:ステップS4)までの間に実施される。
<Optimum environment determination process>
In the component mounting apparatus 100, a preparation process for determining an optimum environment for the inspection of the positional deviation of the electronic component P with respect to the suction nozzle 7 and the defect inspection of the electronic component P will be described based on the flowchart of FIG.
The preparatory process for determining the optimum environment is the movement from the suction of the electronic component P by the suction nozzle 7 to the position immediately above the component recognition camera 9 in the above-described processing of the positional deviation inspection and the defect inspection of the electronic component P (FIG. 3: step). It is carried out until S4).

ステップS3の保持部による電子部品Pの吸着後、制御部13は、X搬送部5及びY搬送部6を駆動させ、吸着ノズル7もしくは電子部品Pの、一部ないし全体が部品認識カメラ9の撮像範囲に入る位置(最適環境のための撮像開始位置とする)まで、吸着ノズル7を移動させる(図6、ステップS201)。   After the electronic component P is sucked by the holding unit in step S3, the control unit 13 drives the X transport unit 5 and the Y transport unit 6 so that part or all of the suction nozzle 7 or the electronic component P of the component recognition camera 9 is driven. The suction nozzle 7 is moved to a position that falls within the imaging range (taken as an imaging start position for the optimum environment) (FIG. 6, step S201).

最適環境のための撮像開始位置において、制御部13は、照明部10を点灯させ、照明の強度を変更する。そして、制御部13は、部品認識カメラ9に電子部品Pを撮像させる。
次いで、制御部13は、X搬送部5及びY搬送部6を駆動させ、所定距離移動させる。また、移動部14により吸着ノズル7をZ方向に所定距離移動させる。これ以降、制御部13は、EEPROM13dに予め記憶された照明強度に変更し、移動しつつ設定した回数の撮像を繰り返す(ステップS202)。
具体的には、図7のp1、p2、p3に示すように、吸着ノズル7の位置がX方向、Y方向、Z方向にそれぞれ所定距離移動した後の位置において照明強度の変更を行い、撮像を行う。各位置p1〜p3における照明強度は、ある程度、適正と認められる三つの候補値がEEPROM13dに用意されている。
At the imaging start position for the optimum environment, the control unit 13 turns on the illumination unit 10 and changes the intensity of illumination. Then, the control unit 13 causes the component recognition camera 9 to image the electronic component P.
Next, the control unit 13 drives the X transport unit 5 and the Y transport unit 6 to move them by a predetermined distance. Further, the suction nozzle 7 is moved in the Z direction by a predetermined distance by the moving unit 14. Thereafter, the control unit 13 changes to the illumination intensity stored in advance in the EEPROM 13d, and repeats imaging for the set number of times while moving (step S202).
Specifically, as shown by p1, p2, and p3 in FIG. 7, the illumination intensity is changed at a position after the position of the suction nozzle 7 has moved by a predetermined distance in each of the X direction, the Y direction, and the Z direction, and imaging is performed. I do. Three candidate values that are recognized to be appropriate to some extent are provided in the EEPROM 13d for the illumination intensities at the respective positions p1 to p3.

次いで、制御部13は、上記ステップS202で撮像した複数枚の画像から、最適な照明強度を演算し、EEPROM13dに粗位置決めのための最適な照明強度として記憶させる(ステップS203)。
例えば、最適な照明強度を決定する照明強度演算は、複数回の撮像で得られた画像のそれぞれにおいて、電子部品Pの特徴点(例えば、リード位置)の輝度値を求め、特徴点の輝度値と予め設定されている上限輝度値とを比較し、特徴点の輝度値が上限輝度値を超えなかった画像の撮像時の照明強度を最適照明強度とする方法や、複数回の撮像で得られた画像のそれぞれにおいて、電子部品Pの特徴点付近のコントラスト値を求め、コントラストが最もはっきり出ている画像の撮像時の照明強度を最適照明強度とする方法などがある。
なお、特徴点の輝度値が上限輝度値を超えるか否かにより照明強度を決定する方法を採る場合において、上限輝度値を超えない照明強度が複数ある場合には、その中で最も低い照明強度に決定される。
Next, the control unit 13 calculates the optimum illumination intensity from the plurality of images captured in step S202, and stores the optimum illumination intensity in the EEPROM 13d as the optimum illumination intensity for rough positioning (step S203).
For example, the illumination intensity calculation for determining the optimum illumination intensity obtains the brightness value of the feature point (for example, the lead position) of the electronic component P in each of the images obtained by the multiple times of imaging, and the brightness value of the feature point And the upper limit brightness value set in advance, and the illumination intensity at the time of capturing an image where the brightness value of the feature point does not exceed the upper limit brightness value is set to the optimum illumination intensity, or obtained by multiple imaging. In each of the images, there is a method of obtaining a contrast value in the vicinity of the feature point of the electronic component P and setting the illumination intensity at the time of capturing an image with the clearest contrast as the optimum illumination intensity.
In addition, when adopting a method for determining the illumination intensity depending on whether the luminance value of the feature point exceeds the upper limit luminance value, if there are multiple illumination intensity levels that do not exceed the upper limit luminance value, the lowest illumination intensity among them To be determined.

次いで、制御部13は、照明部10を点灯させ、粗位置決めのための最適な照明強度(ステップS203で求めた照明強度)に変更する。そして、制御部13は、部品認識カメラ9に電子部品Pを撮像させる。また、制御部13は、X搬送部5及びY搬送部6を駆動させ、所定距離移動させる。さらに、移動部14により吸着ノズル7をZ方向に所定距離移動させる。(ステップS204)。
具体的には、図7のp4以上の偶数番号の位置(p4,p6,p8…)に示すように、吸着ノズル7の位置がX方向、Y方向、Z方向にそれぞれ所定距離移動した位置で撮像を行う。
Next, the control unit 13 turns on the illumination unit 10 and changes the illumination intensity to the optimum illumination intensity for the rough positioning (the illumination intensity obtained in step S203). Then, the control unit 13 causes the component recognition camera 9 to image the electronic component P. The control unit 13 drives the X transport unit 5 and the Y transport unit 6 to move them by a predetermined distance. Further, the suction nozzle 7 is moved in the Z direction by a predetermined distance by the moving unit 14. (Step S204).
Specifically, as shown by even-numbered positions (p4, p6, p8...) Of p4 or more in FIG. 7, the position of the suction nozzle 7 is a position moved by a predetermined distance in the X direction, Y direction, and Z direction, respectively. Take an image.

次いで、制御部13は、照明部10を点灯させ、照明パターンを変更する。照明パターンは予め用意された照明パターンテーブルの値を使用する。そして、制御部13は、部品認識カメラ9に電子部品Pを撮像させる。また、制御部13は、X搬送部5及びY搬送部6を駆動させ、所定距離移動させる。さらに、移動部14により吸着ノズル7をZ方向に所定距離移動させる(ステップS205)。
具体的には、図7のp5以上の奇数番号の位置(p5,p7,p9…)に示すように、吸着ノズル7の位置がX方向、Y方向、Z方向にそれぞれ所定距離移動した位置で撮像を行う。
Next, the control unit 13 turns on the illumination unit 10 and changes the illumination pattern. As the illumination pattern, the value of the illumination pattern table prepared in advance is used. Then, the control unit 13 causes the component recognition camera 9 to image the electronic component P. The control unit 13 drives the X transport unit 5 and the Y transport unit 6 to move them by a predetermined distance. Further, the suction nozzle 7 is moved in the Z direction by a predetermined distance by the moving unit 14 (step S205).
Specifically, as shown in odd-numbered positions (p5, p7, p9...) Of p5 or more in FIG. 7, the position of the suction nozzle 7 is a position moved by a predetermined distance in the X direction, Y direction, and Z direction, respectively. Take an image.

これ以降、制御部13は、ステップS204、ステップS205を、設定した回数または最適環境のための撮像終了位置(例えば、部品認識カメラ9の直上位置)に移動するまで繰り返す(ステップS206)。ステップS205の照明パターンは複数用意されており、ステップS205が行われる毎に、順番に使用していない照明パターンに変更する。   Thereafter, the control unit 13 repeats Steps S204 and S205 until it moves to the set number of times or the imaging end position for the optimum environment (for example, the position immediately above the component recognition camera 9) (Step S206). A plurality of illumination patterns are prepared in step S205, and each time step S205 is performed, the illumination pattern is changed to an unused illumination pattern.

そして、以上のステップS201、ステップS202、ステップS204、ステップS205において、全ての撮像画像は撮像した後、その画像データをEEPROM13dに記憶させる。   In step S201, step S202, step S204, and step S205 described above, after all the captured images are captured, the image data is stored in the EEPROM 13d.

次いで、制御部13は、ステップS204で撮像され、EEPROM13dに記憶された粗位置決めのための画像から最適な撮像範囲を決定し、EEPROM13dに記憶されている外部から設定されたZ軸方向の撮像範囲を、最適な撮像範囲で更新させる(ステップS207)。
具体的には、図8に示す様に、図3のステップS6以降の処理を行うために予め広く設定されていたZ軸方向の撮像範囲を、同処理を行うのにより最適な撮像範囲に更新する。
Next, the control unit 13 determines the optimum imaging range from the image for coarse positioning, which is captured in step S204 and stored in the EEPROM 13d, and the imaging range in the Z-axis direction set from the outside stored in the EEPROM 13d. Are updated in the optimum imaging range (step S207).
Specifically, as shown in FIG. 8, the imaging range in the Z-axis direction, which has been widely set in advance for performing the processing after step S6 in FIG. 3, is updated to the optimum imaging range by performing the same processing. To do.

例えば、最適な撮像範囲は、電子部品Pの特徴点を中心とした局所領域に対して、ROM13cに記憶されている画素データ決定プログラムと距離データ決定プログラムを実行し、得られた距離を中心に所定の幅を持たせた範囲を最適な撮像範囲とする方法や、電子部品Pの特徴点付近のコントラスト値を求め、コントラスト値が高い画像を撮像した位置の前後で、コントラスト値が低い画像を撮像した位置2ヶ所の間を、最適な撮像範囲とする方法などで求める。   For example, the optimum imaging range is obtained by executing the pixel data determination program and the distance data determination program stored in the ROM 13c on the local region centered on the feature point of the electronic component P, and centering on the obtained distance. A method of setting a range having a predetermined width as an optimal imaging range, or obtaining a contrast value near the feature point of the electronic component P, and images having a low contrast value before and after a position where an image having a high contrast value is captured A method for obtaining an optimum imaging range between the two imaged positions is obtained.

即ち、画素データ決定プログラムと距離データ決定プログラムによる場合には、電子部品Pの特徴点について、p4以上の偶数番号の位置(p4,p6,p8…)での各画像データから、前述した7×7の差分フィルターを使用して焦点のあった画素データを求め、当該焦点の合った画素データを撮像した時の撮像距離を算出する。そして、当該撮像距離を中心として上下に所定の幅を持たせた範囲を新たな撮像範囲とする。   That is, in the case of the pixel data determination program and the distance data determination program, the feature points of the electronic component P are calculated from the image data at the even-numbered positions (p4, p6, p8. 7 is used to obtain focused pixel data, and the imaging distance when the focused pixel data is imaged is calculated. A range having a predetermined width in the vertical direction with the imaging distance as the center is set as a new imaging range.

また、特徴点付近のコントラスト値による場合には、コントラスト値が最大となる位置を中心として当該最大値よりもある程度コントラスト値が低くなるまでの上下の位置範囲を求め、これを新たな撮像範囲とする。   Further, in the case of using the contrast value near the feature point, the upper and lower position ranges are obtained from the position where the contrast value is maximized until the contrast value becomes somewhat lower than the maximum value, and this is referred to as a new imaging range. To do.

また、制御部13は、ステップS205で撮像され、EEPROM13dに記憶された照明パターンのための複数の画像から、最適な照明パターンを決定し、EEPROM13dに記憶されている照明パターンを、最適な照明パターンで更新させる(ステップS208)。
具体的には、最適な照明パターンは、電子部品Pの特徴点付近のコントラスト値を求め、コントラスト値が予め設定した基準コントラスト値と最も近くなった画像の撮像時の照明パターンを最適な照明パターンにする方法などがある。
In addition, the control unit 13 determines an optimal illumination pattern from a plurality of images for the illumination pattern captured in step S205 and stored in the EEPROM 13d, and determines the illumination pattern stored in the EEPROM 13d as the optimal illumination pattern. (Step S208).
Specifically, the optimum illumination pattern is obtained by obtaining a contrast value near the feature point of the electronic component P, and the illumination pattern at the time of capturing an image in which the contrast value is closest to a preset reference contrast value is the optimum illumination pattern. There are ways to make it.

以上の前処理により求められた照明パターンと最適な撮像範囲とを反映して、図3のステップS5の処理が行われる。   The process of step S5 in FIG. 3 is performed reflecting the illumination pattern obtained by the above preprocessing and the optimum imaging range.

<作用効果>
以上のように、部品検査装置110及び部品実装装置100によれば、部品認識カメラ9は、部品認識カメラ9から電子部品Pまでの距離が異なる複数の画像を撮像する。そして、制御部13は、画素データ決定プログラムの実行により、部品認識カメラ9により撮像された複数の撮像画像の中から同一位置の画素における焦点の合った画素データを決定して全焦点画像を作成する。
そして、制御部13は、距離データ決定プログラムの実行により、決定された各画素データを撮像したときの部品認識カメラ9と電子部品Pの距離を画素データ毎に決定する。
そして、制御部13は、判定プログラムの実行により、距離データから求められる電子部品Pのリードの仮想直線又は仮想平面からの距離がEEPROM13dに記憶された許容値を超えているか否かを判定する。
これにより、吸着ノズル7の中心からの電子部品Pの位置ズレを検査する部品認識カメラ9のみを用いて、各画素位置(位置座標)における焦点のあった画素データのみを抽出して全ての画素位置において焦点が合う全焦点画像を作成することができ、全焦点画像の各画素データの距離データを求めることで、部品のどの部分に不良があるかを検出することができる。
すなわち、部品認識カメラ9が複数の画像を撮像してその画像を処理することで、吸着ノズル7の中心からの電子部品Pの位置ズレと、電子部品P自体の検査とを行うことができるようになる。
よって、従来のように、電子部品Pの位置ズレを認識するための装置と電子部品P自体を検査する装置の双方を設ける必要がなくなるので、基板Bに実装される電子部品Pの検査にかかるコストを低減することができる。また、一つの電子部品Pの位置ズレの検査時と電子部品P自体の検査時における電子部品Pの特徴点の位置(リードの位置等)を同じ画像から検出することができるので、それぞれのデータの整合性をとるような作業が不要となり、電子部品Pの検査の作業にかかる手間を軽減することができる。
<Effect>
As described above, according to the component inspection apparatus 110 and the component mounting apparatus 100, the component recognition camera 9 captures a plurality of images having different distances from the component recognition camera 9 to the electronic component P. And the control part 13 determines the focused pixel data in the pixel of the same position from the some captured images imaged with the components recognition camera 9 by execution of a pixel data determination program, and produces an all-focus image To do.
And the control part 13 determines the distance of the component recognition camera 9 and the electronic component P when each determined pixel data is imaged for every pixel data by execution of the distance data determination program.
And the control part 13 determines whether the distance from the virtual straight line or virtual plane of the lead | read | reed of the electronic component P calculated | required from distance data exceeds the tolerance | permissible value memorize | stored in EEPROM13d by execution of a determination program.
As a result, only the focused pixel data at each pixel position (positional coordinate) is extracted by using only the component recognition camera 9 that inspects the positional deviation of the electronic component P from the center of the suction nozzle 7, and all the pixels are extracted. It is possible to create an omnifocal image that is in focus at the position, and by determining the distance data of each pixel data of the omnifocal image, it is possible to detect which part of the component is defective.
That is, the component recognition camera 9 captures a plurality of images and processes the images, so that the positional deviation of the electronic component P from the center of the suction nozzle 7 and the inspection of the electronic component P itself can be performed. become.
Therefore, it is not necessary to provide both a device for recognizing the positional deviation of the electronic component P and a device for inspecting the electronic component P as in the prior art, so that it is necessary to inspect the electronic component P mounted on the board B. Cost can be reduced. Further, since the position of the feature point (lead position, etc.) of the electronic component P can be detected from the same image at the time of inspection of the positional deviation of one electronic component P and at the time of inspection of the electronic component P itself, each data This eliminates the need for the work of ensuring the consistency of the electronic parts P, and can reduce the labor required for the work of inspecting the electronic component P.

また、制御部13は、移動部14により吸着ノズル7や部品認識カメラ9が所定距離移動する毎に、部品認識カメラ9に電子部品Pを吸着ノズル7と共に撮像させる。
これにより、所定の距離間隔毎に撮像画像を取得することができ、撮像画像の画素データと部品認識カメラ9までの距離との関係を把握することが容易となる。
The control unit 13 causes the component recognition camera 9 to image the electronic component P together with the suction nozzle 7 every time the suction nozzle 7 and the component recognition camera 9 move by a predetermined distance by the moving unit 14.
Thereby, a captured image can be acquired for every predetermined distance interval, and it becomes easy to grasp the relationship between the pixel data of the captured image and the distance to the component recognition camera 9.

また、部品認識カメラ9を固定して、吸着ノズル7を移動部14により部品認識カメラ9の光学系の光軸方向に移動させることで、部品認識カメラ9と吸着ノズル7に保持された電子部品Pとの距離を変えることができる。
これにより、部品認識カメラ9は、距離が異なる複数の画像を撮像することができる。また、光学系を備えているために位置決め精度が要求される部品認識カメラ9を固定することで、ぶれの少ない画像を撮像することができる。
In addition, the component recognition camera 9 is fixed, and the suction nozzle 7 is moved by the moving unit 14 in the optical axis direction of the optical system of the component recognition camera 9, so that the electronic component held by the component recognition camera 9 and the suction nozzle 7. The distance from P can be changed.
Thereby, the component recognition camera 9 can capture a plurality of images having different distances. Further, by fixing the component recognition camera 9 that requires positioning accuracy because of the optical system, it is possible to capture an image with less blur.

また、制御部13による判定プログラムの実行により、距離データから求められる電子部品Pの所定部位(電極)の仮想直線又は仮想平面からの距離のうち、少なくとも一つがEEPROM13dに記憶された許容値を超えていると判定された場合には、制御部13は、搬送制御プログラムを実行することにより、X搬送部5及びY搬送部6に電子部品Pを基板Bの実装位置に搬送せずに排出させる。
これにより、距離データから求められる電子部品Pの所定部位(電極)の仮想直線又は仮想平面からの距離のうち、少なくとも一つが許容値の超えている場合には電子部品Pが正常でないと考えられるため、その電子部品Pを実装せずに排出することで、基板Bに不良の電子部品Pが実装されることを防止することができる。
Moreover, by execution of the determination program by the control unit 13, at least one of the distances from the virtual straight line or the virtual plane of the predetermined part (electrode) of the electronic component P obtained from the distance data exceeds the allowable value stored in the EEPROM 13d. If it is determined, the control unit 13 causes the X conveyance unit 5 and the Y conveyance unit 6 to discharge the electronic component P without conveying it to the mounting position of the substrate B by executing a conveyance control program. .
Thereby, it is considered that the electronic component P is not normal when at least one of the distances from the virtual straight line or the virtual plane of the predetermined part (electrode) of the electronic component P obtained from the distance data exceeds the allowable value. Therefore, it is possible to prevent the defective electronic component P from being mounted on the substrate B by discharging the electronic component P without mounting it.

また、所定部位が仮想直線又は仮想平面からの距離が許容値を超えてなく正常であったとしても、仮想平面が前記許容値とは別に、仮想平面そのものに対する許容値を予め設定しておき、これを超えた時に部品を搭載するには正常ではないと判断し排出する事も出来る。
つまり、仮想直線又は仮想平面の傾きに許容値を設定し、その適否を判断することで、不良の電子部品の実装をより厳密に排除することが可能となる。
In addition, even if the predetermined part is normal without the virtual straight line or the distance from the virtual plane exceeding the allowable value, the virtual plane is set in advance with an allowable value for the virtual plane itself separately from the allowable value, When this is exceeded, it can be judged that it is not normal to mount the part and discharged.
That is, by setting an allowable value for the inclination of the virtual straight line or the virtual plane and determining whether it is appropriate, it is possible to more strictly eliminate the mounting of defective electronic components.

<その他1>
また、図4に示す撮像部9の光軸が、前述したステップS5における撮像時において、吸着ノズル7の軸芯と一致しない場合、移動部14により吸着ノズル7が部品認識カメラ9に対してZ方向について所定距離移動する毎に、部品認識カメラ9により、電子部品Pを吸着ノズル7と共に撮像した場合、図9(A)〜(C)に示すように、撮像する対象物の中心にずれを生じる。
このずれを補正するために、図10に示すように、予め、複数の基準点(複数の円のマークの中心位置)の位置が既知である補正ターゲット100を吸着ノズル7に搭載して、Z方向に所定距離の移動毎の画像からマークの重心演算を行い、Z方向における複数の位置での各マークの重心の位置ずれ量を求め、これらをEEPROM13dに記憶した位置ずれ補正テーブルを作成する。
この位置ずれ補正テーブル量のデータを元に各画像を取得する際に、そのZ方向における撮像位置に基づいて補正を行い、全焦点画像のデータを算出する。
かかる補正を前述したステップS5における撮像持の画像データを記憶する際に、或いは、既に記憶された画像データをステップS6以降の処理で使用する際に、実施する構成としても良い。かかる補正処理を行うことにより、制御部13は位置ずれ補正手段として機能することとなる。
<Other 1>
If the optical axis of the imaging unit 9 shown in FIG. 4 does not coincide with the axis of the suction nozzle 7 at the time of imaging in step S5 described above, the suction nozzle 7 is moved Z with respect to the component recognition camera 9 by the moving unit 14. When the electronic component P is imaged together with the suction nozzle 7 by the component recognition camera 9 every time a predetermined distance is moved in the direction, as shown in FIGS. 9 (A) to 9 (C), the center of the object to be imaged is shifted. Arise.
In order to correct this deviation, as shown in FIG. 10, a correction target 100 in which the positions of a plurality of reference points (center positions of a plurality of circle marks) are known is mounted on the suction nozzle 7 in advance. The center of gravity of the mark is calculated from an image for each movement of a predetermined distance in the direction, the amount of positional deviation of the center of gravity of each mark at a plurality of positions in the Z direction is obtained, and a positional deviation correction table in which these are stored in the EEPROM 13d is created.
When each image is acquired based on the data of the misregistration correction table amount, correction is performed based on the imaging position in the Z direction, and the data of the omnifocal image is calculated.
Such a correction may be performed when storing the image data that has been picked up in step S5 described above, or when using the already stored image data in the processing after step S6. By performing such correction processing, the control unit 13 functions as a positional deviation correction unit.

また、部品認識カメラ9がテレセントリックレンズを用いる場合には、吸着ノズル7がZ方向に移動する場合でも、電子部品Pと吸着ノズル7は移動に伴い画像の大きさは変動しない。上述した部品検査装置の部品認識カメラ9はその前提により画像の大きさの変動に対する補正処理は行っていない。
しかしながら、例えば、部品認識カメラ9が非テレセントリックレンズを使用する場合には、図11の様に、移動部14により吸着ノズル7や部品認識カメラ9がZ方向に所定距離移動する毎に、部品認識カメラ9に電子部品Pを吸着ノズル7と共に撮像させた場合、画像の大きさが変化するため、全焦点を算出する際に、異なる位置での照合となってしまう。
従って、非テレセントリックレンズを用いる場合には、前述と同じ補正ターゲット100を吸着ノズル7に搭載し、Z方向における複数の位置で撮像を行い、マーク芯間距離を移動距離毎に予め算出する。そして、Z方向における各位置での倍率変化をEEPROM13dに倍率補正テーブルとして記憶する。そして、この倍率補正テーブルの値を元に各画像を取得する際に、そのZ方向における撮像位置に基づいて補正を行い、全焦点画像のデータを算出する。
かかる補正を前述したステップS5における撮像持の画像データを記憶する際に、或いは、既に記憶された画像データをステップS6以降の処理で使用する際に、実施する構成としても良い。かかる補正処理を行うことにより、制御部13は倍率補正手段として機能することとなる。
When the component recognition camera 9 uses a telecentric lens, even when the suction nozzle 7 moves in the Z direction, the size of the image does not change as the electronic component P and the suction nozzle 7 move. The component recognition camera 9 of the above-described component inspection apparatus does not perform the correction process for the variation in the image size based on the premise.
However, for example, when the component recognition camera 9 uses a non-telecentric lens, each time the suction nozzle 7 or the component recognition camera 9 moves by a predetermined distance in the Z direction by the moving unit 14 as shown in FIG. When the camera 9 causes the electronic component P to be imaged together with the suction nozzle 7, the size of the image changes, and therefore, collation is performed at different positions when calculating the omnifocal point.
Therefore, when a non-telecentric lens is used, the same correction target 100 as described above is mounted on the suction nozzle 7 and images are taken at a plurality of positions in the Z direction, and the distance between the mark centers is calculated in advance for each movement distance. Then, the magnification change at each position in the Z direction is stored in the EEPROM 13d as a magnification correction table. Then, when each image is acquired based on the value of the magnification correction table, correction is performed based on the imaging position in the Z direction, and data of the omnifocal image is calculated.
Such a correction may be performed when storing the image data that has been picked up in step S5 described above, or when using the already stored image data in the processing after step S6. By performing such correction processing, the control unit 13 functions as a magnification correction unit.

<その他2>
なお、本発明は、上記実施形態に限られるものではない。例えば、部品認識カメラでの撮像において、焦点位置から±0.5mmの範囲を0.05mm刻みで撮像距離を変えて電子部品Pを撮像していたが、撮像する範囲と高さの間隔は自由に変更可能である。
また、部品認識カメラから電子部品までの撮像距離(高さ)を検出するための仮想平面は、JEITA(社団法人 電子情報技術産業協会)規格のED−7401−4に示される仮想平面を求めて算出するようにしても良い。
また、電子部品の保持位置のズレは、特定の部分(電極等)に焦点のあった撮像画像を用いて検出しても良いし、全焦点画像を用いて検出しても良い。
また、電子部品の保持位置のズレは、全焦点画像を作成する際の撮像距離の距離データ(高さデータ)により作成された画像を用いても良い。このとき、位置ズレの認識方法として、距離データによるテンプレートとしてEEPROMに記憶させておき、作成された距離データによる画像とテンプレートとを比較してマッチングを行い、位置決めを行っても良い。
また、ボール部品の様に電極に凹凸がある様な部品においては、ボール部は距離データにより生成された画像データを用いて認識を行い、方向判別用のマークなどが付された凹凸の無い部分は全焦点画像、または焦点位置の画像を用いるなど、同一の部品においても処理対象となる部分に応じて扱う画像データを選択しても良い。
<Other 2>
The present invention is not limited to the above embodiment. For example, in imaging with a component recognition camera, the electronic part P was imaged by changing the imaging distance in a range of ± 0.5 mm from the focal position in increments of 0.05 mm, but the interval between the imaging range and the height is free Can be changed.
In addition, the virtual plane for detecting the imaging distance (height) from the component recognition camera to the electronic component is obtained as a virtual plane shown in ED-7401-4 of JEITA (Electronic Information Technology Industries Association) standard. It may be calculated.
Further, the displacement of the holding position of the electronic component may be detected using a captured image focused on a specific part (electrode or the like) or may be detected using an omnifocal image.
Further, for the shift of the holding position of the electronic component, an image created by distance data (height data) of the imaging distance when creating the omnifocal image may be used. At this time, as a method for recognizing the positional deviation, it may be stored in the EEPROM as a template based on distance data, and an image based on the created distance data may be compared with the template to perform positioning.
In addition, in parts where the electrodes are uneven, such as ball parts, the ball part is recognized using image data generated from the distance data, and there is no uneven part with a mark for direction determination etc. For example, an omnifocal image or an image of a focal position may be used, and image data to be handled may be selected according to a portion to be processed even in the same component.

5 X搬送部(搬送部)
6 Y搬送部(搬送部)
7 吸着ノズル(保持部)
9 部品認識カメラ(撮像部)
10 照明ボックス(照明部)
13 制御部(画素データ決定手段、距離データ決定手段、判定手段、撮像制御手段、搬送制御手段)
13d EEPROM(記憶手段)
14 移動部
100 部品実装装置
110 部品検査装置
B 基板
P 電子部品(部品)
5 X transport section (transport section)
6 Y transport section (transport section)
7 Suction nozzle (holding part)
9 Component recognition camera (imaging part)
10 Lighting box (lighting part)
13 Control unit (pixel data determination means, distance data determination means, determination means, imaging control means, transport control means)
13d EEPROM (storage means)
14 Moving part 100 Component mounting device 110 Component inspection device B Substrate P Electronic component (component)

Claims (7)

部品を保持する保持部と、前記保持部により保持された部品を撮像する撮像部とを備え、前記撮像部により撮像された撮像画像により、前記保持部の中心からの部品の位置ずれを検査する部品検査装置において、
前記撮像部は、当該撮像部から前記部品までの距離が異なる複数の画像を撮像し、
前記撮像部により撮像された複数の撮像画像の中から同一位置の画素における焦点の合った画素データを決定する画素データ決定手段と、
前記画素データ決定手段により決定された各画素データを撮像したときの前記撮像部と前記部品の距離を画素データ毎に決定する距離データ決定手段と、
前記部品が所定の基準を満たすか否かを決定づけるため、前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離の許容値を記憶する記憶手段と、
前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離が前記記憶手段に記憶された許容値を超えているか否かを判定する判定手段と、
を備えることを特徴とする部品検査装置。
A holding unit that holds a component and an imaging unit that captures an image of the component held by the holding unit, and inspects the positional deviation of the component from the center of the holding unit based on a captured image captured by the imaging unit. In parts inspection equipment,
The imaging unit captures a plurality of images having different distances from the imaging unit to the component,
Pixel data determining means for determining focused pixel data in pixels at the same position from among a plurality of captured images captured by the imaging unit;
Distance data determining means for determining, for each pixel data, a distance between the imaging unit and the component when each pixel data determined by the pixel data determining means is imaged;
Storage means for storing an allowable value of a distance from a virtual straight line or a virtual plane of a predetermined part of the component obtained from the distance data in order to determine whether or not the component satisfies a predetermined criterion;
Determination means for determining whether a distance from a virtual straight line or a virtual plane of the predetermined part of the component obtained from the distance data exceeds an allowable value stored in the storage means;
A component inspection device comprising:
前記保持部と前記撮像部のうち少なくとも一方を他方に対して接離するように移動させる移動部と、
前記移動部により前記保持部や前記撮像部が所定距離移動する毎に、前記撮像部に前記部品を前記保持部と共に撮像させる撮像制御手段と、
を備えることを特徴とする請求項1に記載の部品検査装置。
A moving unit that moves at least one of the holding unit and the imaging unit so as to be in contact with or separated from the other; and
Imaging control means for causing the imaging unit to image the component together with the holding unit each time the holding unit and the imaging unit move by a predetermined distance by the moving unit;
The component inspection apparatus according to claim 1, further comprising:
前記撮像部を固定し、
前記移動部は、前記保持部を前記撮像部の光学系の光軸方向に沿った方向に移動することを特徴とする請求項2に記載の部品検査装置。
Fixing the imaging unit;
The component inspection apparatus according to claim 2, wherein the moving unit moves the holding unit in a direction along an optical axis direction of an optical system of the imaging unit.
請求項1から3のいずれか一項に記載の部品検査装置と、
前記保持部を移動させて前記部品を実装位置に搬送する搬送部と、
前記距離データから求められる前記部品の所定部位の仮想直線又は仮想平面からの距離のうち、少なくとも一つが前記記憶手段に記憶された許容値を超えていると前記判定手段により判断された場合に、前記搬送部に前記部品を実装位置に搬送せずに排出させる搬送制御手段と、
を備えることを特徴とする部品実装装置。
The component inspection apparatus according to any one of claims 1 to 3,
A transport unit that moves the holding unit to transport the component to a mounting position;
When it is determined by the determination means that at least one of the distances from the virtual straight line or the virtual plane of the predetermined part of the part obtained from the distance data exceeds the allowable value stored in the storage means, A transport control means for causing the transport unit to eject the component without transporting it to a mounting position;
A component mounting apparatus comprising:
前記撮像部が当該撮像部から前記部品までの距離が異なる複数の画像を撮像した画像データに対して、前記撮像部から前記部品までの距離に応じた画像の中心位置ずれ量を予め算出した中心位置ずれ補正テーブルにより画像データを補正する位置ずれ補正手段を備えた請求項4に記載の部品実装装置。   A center in which the center position deviation amount of the image corresponding to the distance from the imaging unit to the component is calculated in advance for image data obtained by the imaging unit capturing a plurality of images having different distances from the imaging unit to the component. The component mounting apparatus according to claim 4, further comprising a positional deviation correction unit that corrects image data using a positional deviation correction table. 前記撮像部が当該撮像部から前記部品までの距離が異なる複数の画像を撮像した画像データに対して、前記撮像部から前記部品までの距離に応じた画像の中心位置ずれ量を予め算出した中心位置ずれ補正テーブル又は前記撮像部から前記部品までの距離に応じた画像の大きさの変化量を予め算出した倍率補正テーブルにより画像データを補正する倍率補正手段を備えた請求項4又は5に記載の部品実装装置。   A center in which the center position deviation amount of the image corresponding to the distance from the imaging unit to the component is calculated in advance for image data obtained by the imaging unit capturing a plurality of images having different distances from the imaging unit to the component. 6. The magnification correction unit according to claim 4 or 5, further comprising a magnification correction unit that corrects the image data using a displacement correction table or a magnification correction table in which a change amount of an image size corresponding to a distance from the imaging unit to the component is calculated in advance. Component mounting equipment. 部品を保持した前記保持部が前記撮像部に到達するまでの移動中における複数の位置で撮像を行い、その撮像による画像データに基づいて、前記画素データ決定手段が同一位置の画素における焦点の合った画素データを求めるための、前記撮像部から前記部品までの距離が異なる複数の画像の撮像を行う範囲の最適な位置を設定する前処理を行う最適環境決定手段を備えた請求項4から6のいずれか一項に記載の部品実装装置。   Imaging is performed at a plurality of positions during movement until the holding unit that holds the part reaches the imaging unit, and the pixel data determination unit focuses on the pixels at the same position based on image data obtained by the imaging. 7. An optimum environment determining unit that performs preprocessing for setting an optimum position in a range in which a plurality of images with different distances from the imaging unit to the component are obtained in order to obtain pixel data. The component mounting apparatus according to any one of the above.
JP2010200479A 2009-09-09 2010-09-08 Device for inspecting or mounting component Pending JP2011082506A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010200479A JP2011082506A (en) 2009-09-09 2010-09-08 Device for inspecting or mounting component
CN2010102797176A CN102026536A (en) 2009-09-09 2010-09-09 Component checking device and component mounting device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009207855 2009-09-09
JP2010200479A JP2011082506A (en) 2009-09-09 2010-09-08 Device for inspecting or mounting component

Publications (1)

Publication Number Publication Date
JP2011082506A true JP2011082506A (en) 2011-04-21

Family

ID=44076203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010200479A Pending JP2011082506A (en) 2009-09-09 2010-09-08 Device for inspecting or mounting component

Country Status (1)

Country Link
JP (1) JP2011082506A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013039340A2 (en) * 2011-09-15 2013-03-21 (주)인텍플러스 Method for inspecting flat panel
JP2013121285A (en) * 2011-12-08 2013-06-17 Juki Corp Linear actuator and electronic component mounting apparatus
JP2014001939A (en) * 2012-06-15 2014-01-09 Juki Corp Component checkup apparatus
WO2016147332A1 (en) * 2015-03-18 2016-09-22 富士機械製造株式会社 Recognition device
JP2017092173A (en) * 2015-11-06 2017-05-25 ヤマハ発動機株式会社 Component mounter, component recognition method
CN109257922A (en) * 2017-07-13 2019-01-22 Juki株式会社 Electronic component mounting apparatus and electronic component mounting method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683945A (en) * 1992-08-31 1994-03-25 Yamaha Motor Co Ltd Body recognizing device
JP2000329527A (en) * 1999-05-20 2000-11-30 Sony Corp Apparatus and method for measuring height, and inspecting apparatus utilizing the same
JP2002057500A (en) * 2000-08-15 2002-02-22 Nidec Copal Corp Method for recognizing electronic component
JP2003130619A (en) * 2001-10-25 2003-05-08 Juki Corp Method and apparatus for detecting defective lead terminal of electronic parts
WO2004106851A1 (en) * 2003-05-28 2004-12-09 Fuji Machine Mfg.Co., Ltd. Pickup image processing device of electronic part mounting device and pickup image processing method
JP2009164276A (en) * 2007-12-28 2009-07-23 Yamaha Motor Co Ltd Sucking position correcting method in component mounting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683945A (en) * 1992-08-31 1994-03-25 Yamaha Motor Co Ltd Body recognizing device
JP2000329527A (en) * 1999-05-20 2000-11-30 Sony Corp Apparatus and method for measuring height, and inspecting apparatus utilizing the same
JP2002057500A (en) * 2000-08-15 2002-02-22 Nidec Copal Corp Method for recognizing electronic component
JP2003130619A (en) * 2001-10-25 2003-05-08 Juki Corp Method and apparatus for detecting defective lead terminal of electronic parts
WO2004106851A1 (en) * 2003-05-28 2004-12-09 Fuji Machine Mfg.Co., Ltd. Pickup image processing device of electronic part mounting device and pickup image processing method
JP2009164276A (en) * 2007-12-28 2009-07-23 Yamaha Motor Co Ltd Sucking position correcting method in component mounting device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013039340A2 (en) * 2011-09-15 2013-03-21 (주)인텍플러스 Method for inspecting flat panel
WO2013039340A3 (en) * 2011-09-15 2013-05-10 (주)인텍플러스 Method for inspecting flat panel
US9412159B2 (en) 2011-09-15 2016-08-09 Intekplus Co., Ltd. Method for inspecting flat panel
JP2013121285A (en) * 2011-12-08 2013-06-17 Juki Corp Linear actuator and electronic component mounting apparatus
JP2014001939A (en) * 2012-06-15 2014-01-09 Juki Corp Component checkup apparatus
WO2016147332A1 (en) * 2015-03-18 2016-09-22 富士機械製造株式会社 Recognition device
EP3273762A4 (en) * 2015-03-18 2018-06-06 Fuji Machine Mfg. Co., Ltd. Recognition device
US10297039B2 (en) 2015-03-18 2019-05-21 Fuji Corporation Recognition device
JP2017092173A (en) * 2015-11-06 2017-05-25 ヤマハ発動機株式会社 Component mounter, component recognition method
CN109257922A (en) * 2017-07-13 2019-01-22 Juki株式会社 Electronic component mounting apparatus and electronic component mounting method
CN109257922B (en) * 2017-07-13 2022-06-24 Juki株式会社 Electronic component mounting apparatus and electronic component mounting method

Similar Documents

Publication Publication Date Title
JP2011082506A (en) Device for inspecting or mounting component
JP4801558B2 (en) Mounting machine and component imaging method thereof
US20080014772A1 (en) Component mounting position correcting method and component mouting apparatus
JP2008130771A (en) Component recognition method
US10869421B2 (en) Mounting device and imaging processing method
JP4701037B2 (en) Image acquisition method and apparatus for electronic components
JP4883636B2 (en) Electronic component orientation inspection apparatus, electronic component orientation inspection method, and electronic component placement machine
JP2013236011A (en) Component mounting device
JP5507378B2 (en) Electronic component mounting equipment
KR101993262B1 (en) Apparatus for micro ball mounting work
WO2016075790A1 (en) Mounter and method for inspecting suction posture of electronic component using moutner
JP7281645B2 (en) COMPONENT MOUNTING APPARATUS AND METHOD FOR MANUFACTURING COMPONENT MOUNTING BOARD USING IT
JP5254106B2 (en) Electronic component mounting equipment
CN111725086B (en) Semiconductor manufacturing apparatus and method for manufacturing semiconductor device
JP2007200990A (en) Part recognition method, part recognition apparatus and surface mounter
JP6177714B2 (en) Component recognition device, component transfer device, and component mounting device
JP2011044591A (en) Electronic component mounting device and suction position correction method therefor
JP6761477B2 (en) Component mounting device and position recognition method
JP5511143B2 (en) Mounting machine
JPH10150298A (en) Compensation angle correcting method of electronic component and electronic component using the method
JP2014003113A (en) Component inspection device
JP7313211B2 (en) Assembly machine
KR101231188B1 (en) Apparatus for recognizing parts of chip mounter and method for parts position revision thereof
JP2007103436A (en) Part mounting method and part mounting apparatus
CN109257922B (en) Electronic component mounting apparatus and electronic component mounting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140819