JP5759271B2 - Electronic component mounting equipment - Google Patents

Electronic component mounting equipment Download PDF

Info

Publication number
JP5759271B2
JP5759271B2 JP2011125156A JP2011125156A JP5759271B2 JP 5759271 B2 JP5759271 B2 JP 5759271B2 JP 2011125156 A JP2011125156 A JP 2011125156A JP 2011125156 A JP2011125156 A JP 2011125156A JP 5759271 B2 JP5759271 B2 JP 5759271B2
Authority
JP
Japan
Prior art keywords
image
electronic component
imaging
local
omnifocal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011125156A
Other languages
Japanese (ja)
Other versions
JP2012023340A (en
Inventor
玲香 森田
玲香 森田
小倉 豊
豊 小倉
美智代 石井
美智代 石井
今野 貴史
貴史 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2011125156A priority Critical patent/JP5759271B2/en
Priority to CN201110166033.XA priority patent/CN102364297B/en
Publication of JP2012023340A publication Critical patent/JP2012023340A/en
Application granted granted Critical
Publication of JP5759271B2 publication Critical patent/JP5759271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像手段により得られる2次元画像データから高さデータを生成し、3次元の部品認識を可能にする電子部品実装装置に関するものである。   The present invention relates to an electronic component mounting apparatus that generates height data from two-dimensional image data obtained by an imaging means and enables three-dimensional component recognition.

従来、撮像手段としてのカメラを用いて立体形状を検出する方法としては、カメラと被写体である立体形状との相対的な距離を変えて複数の画像データを取得し、各画像データにおいて周囲とのコントラストから焦点が合っている状態の画素を求め、補間により全ての画素における焦点距離を求めて被写体の立体形状を三次元データで取得するものが挙げられる(例えば、特許文献1参照)。   Conventionally, as a method of detecting a three-dimensional shape using a camera as an imaging means, a plurality of image data is acquired by changing the relative distance between the camera and the three-dimensional shape as a subject, and each image data is There is one that obtains a focused pixel from the contrast, obtains the focal length of all the pixels by interpolation, and obtains the three-dimensional shape of the subject as three-dimensional data (see, for example, Patent Document 1).

特許第2960684号公報Japanese Patent No. 2960684

しかしながら、上記従来技術では、立体形状の三次元データ、即ち、撮像エリア内の各画素位置での高さを求める技術であり、撮像による画像データを画像処理にかけて実装対象の電子部品の形状的な特徴(例えば、外形、中心位置等)を算出する電子部品実装装置には適用することができなかった。   However, the above-described prior art is a technique for obtaining three-dimensional three-dimensional data, that is, a height at each pixel position in the imaging area. The image data obtained by imaging is subjected to image processing to determine the shape of the electronic component to be mounted. It could not be applied to an electronic component mounting apparatus that calculates features (for example, outer shape, center position, etc.).

本発明は、撮像による画像データを用いてより高精度な実装対象の電子部品の外部情報を取得することをその目的とする。   An object of the present invention is to obtain external information of an electronic component to be mounted with higher accuracy using image data obtained by imaging.

請求項1記載の発明は、電子部品が配置される部品配置部と、前記部品配置部に配置された電子部品を撮像する撮像手段と、前記部品配置部と前記撮像手段との距離を可動調節する可動部と、前記可動部及び撮像手段を制御して、前記電子部品について前記部品配置部と前記撮像手段の距離が異なる複数の画像データを取得する撮像制御部と、前記複数の画像データの撮像範囲内の複数の画素の各々について、前記複数の画像データの同一画素におけるコントラストの対比に基づいて、当該各画素における前記撮像手段から前記部品配置部の合焦点位置を求める測距処理部と、前記撮像手段による撮像エリア内の前記各画素における合焦点位置と、前記複数の画像データにおける前記各画素の輝度値とから、前記撮像エリアの一部範囲内の画素における合焦点位置での輝度値を求め、当該合焦点位置での輝度値からなる局所全焦点画像を生成する局所全焦点画像生成部とを備えることを特徴とする。   According to the first aspect of the present invention, the component placement unit on which the electronic component is placed, the image pickup unit that takes an image of the electronic component placed on the component placement unit, and the distance between the component placement unit and the image pickup unit are movably adjusted. An imaging control unit that controls the movable unit, the movable unit, and the imaging unit to obtain a plurality of image data with different distances between the component placement unit and the imaging unit for the electronic component, and the plurality of image data A distance measurement processing unit that obtains a focal point position of the component placement unit from the imaging unit in each pixel based on contrast of contrast in the same pixel of the plurality of image data for each of the plurality of pixels in the imaging range; The image within a partial range of the imaging area from the in-focus position of each pixel in the imaging area by the imaging means and the luminance value of each pixel in the plurality of image data. Obtains the luminance values at the focused position of, characterized in that it comprises a local omnifocal image generating unit that generates a local omnifocal image made up of the brightness value at the focus position.

請求項2記載の発明は、請求項1記載の発明と同様の構成を備えると共に、前記コントラスト又は前記合焦点位置に対してその範囲に制限を設けることで前記局所全焦点画像を生成することを特徴とする。   The invention described in claim 2 has the same configuration as that of the invention described in claim 1, and generates the local omnifocal image by limiting the range of the contrast or the in-focus position. Features.

請求項3記載の発明は、請求項1又は2記載の発明と同様の構成を備えると共に、電子部品の前記局所全焦点画像のテンプレート画像である局所全焦点テンプレート画像の画像データを記憶するテンプレート画像記憶部と、前記局所全焦点画像生成部で生成した前記局所全焦点画像が局所全焦点テンプレート画像と合致しているかの判断に基づいて部品不良か否かを判定する不良検査部とを備えることを特徴とする。
局所全焦点テンプレート画像は、部品の3DCADデータから作成しても良いし、良品サンプル部品の撮像データから作成しても良い。
The invention described in claim 3 has a configuration similar to that of the invention described in claim 1 or 2, and stores a template image for storing a local omnifocal template image that is a template image of the local omnifocal image of an electronic component. A storage unit; and a defect inspection unit that determines whether the component is defective based on a determination as to whether the local omnifocal image generated by the local omnifocal image generation unit matches a local omnifocal template image. It is characterized by.
A local omnifocal template image may be created from 3D CAD data of a part, or may be created from imaging data of a non-defective sample part.

請求項1記載の発明は、複数の画像データの撮像範囲内の各画素でのコントラストから合焦点位置を取得する。即ち、部品配置部と撮像手段の距離(以下、「撮像距離」とする)が異なる複数の撮像を行い、当該各撮像に基づく画像データにおいて、各画素について周囲とのコントラストを求め、複数の画像データの同じ画素についてコントラストを比較する。その結果、コントラストの値が最大値となった画像データの撮像距離において、当該画素の焦点が合っている状態となる。
なお、一つの画素についてコントラストが最大値となった画像データは、最も合焦点に近い状態であり、合焦点位置に完全一致するとは限らないので、コントラストが最大値となった画像データの撮像時における撮像距離を近似的に合焦点位置と見なしても良いし、また、コントラストの大きさが1番目と2番目となる二つの画像データの撮像距離からより正確に合焦点位置を求めても良い。
そして、部品配置部と撮像手段の合焦点位置から、電子部品上の各画素での高さを算出することができる。
撮像エリアの一部の範囲内における各画素について、上記手法により電子部品上の複数の点までの高さを算出することで、電子部品の表面における随所の高さが求まることとなる。
そして、電子部品の表面上の各点において高さが求まると、電子部品の表面上の各点について、当該各点における合焦点位置に合致する撮像距離の画像データから、対応する画素位置の輝度値(輝度値)を取得する。なお、合焦点位置に合致する画像データが存在しない場合には、合焦点位置に近似する画像データの輝度値を採用しても良いし、合焦点位置に近似する複数の画像データの輝度値から合焦点位置における輝度値を近似的に算出しても良い。
そして、撮像エリアの一部範囲内の画素について、焦点が合っている状態の輝度値を取得することで局所全焦点画像(データ)を生成することができる。
この局所全焦点画像は、全画素での焦点が合っているため、画像全体をより鮮明とすることが可能である。
このため、かかる局所全焦点画像を得ることにより、撮像画像に基づく電子部品の特徴部位や中心位置を抽出或いは特定する場合等の画像処理や画像分析において高い精度を得ることが可能となる。
また、撮像エリアの一部の範囲に制限して全焦点画像を生成するので、撮像画像に基づく電子部品の特徴部位や中心位置を抽出或いは特定する場合等の画像処理をより迅速を行うと共に処理負担の軽減を図ることが可能となる。
According to the first aspect of the present invention, the in-focus position is acquired from the contrast at each pixel within the imaging range of the plurality of image data. That is, a plurality of images with different distances between the component placement unit and the imaging means (hereinafter referred to as “imaging distance”) are obtained, and in the image data based on each imaging, the contrast with the surroundings is obtained for each pixel. Contrast is compared for the same pixel of data. As a result, the pixel is in focus at the imaging distance of the image data having the maximum contrast value.
Note that the image data having the maximum contrast for one pixel is in the state closest to the in-focus position, and does not necessarily coincide completely with the in-focus position. Therefore, when image data having the maximum contrast is captured. The image pickup distance at may be approximately regarded as the in-focus position, and the in-focus position may be obtained more accurately from the image pickup distances of the two image data having the first and second contrast magnitudes. .
Then, the height at each pixel on the electronic component can be calculated from the focal position of the component placement unit and the imaging means.
By calculating the height of each pixel within a part of the imaging area up to a plurality of points on the electronic component by the above method, the heights at various points on the surface of the electronic component can be obtained.
Then, when the height is obtained at each point on the surface of the electronic component, for each point on the surface of the electronic component, the luminance at the corresponding pixel position is obtained from the image data of the imaging distance that matches the in-focus position at each point. Get the value (luminance value). When there is no image data that matches the in-focus position, the brightness value of the image data that approximates the in-focus position may be adopted, or from the brightness values of a plurality of image data that approximate the in-focus position. The luminance value at the in-focus position may be calculated approximately.
Then, a local omnifocal image (data) can be generated by acquiring a luminance value in a focused state for pixels within a partial range of the imaging area.
Since this local omnifocal image is in focus at all pixels, the entire image can be made clearer.
For this reason, by obtaining such a local omnifocal image, it is possible to obtain high accuracy in image processing and image analysis in the case of extracting or specifying a characteristic part or center position of an electronic component based on a captured image.
In addition, since an omnifocal image is generated by limiting to a part of the imaging area, image processing such as extracting or specifying a characteristic part or center position of an electronic component based on the captured image is performed more quickly and processed. It is possible to reduce the burden.

請求項2記載の発明は、コントラスト又は合焦点位置に対して範囲に制限を設けて局所全焦点画像を生成するので、画像内で不要となる部位、例えば電子部品の背景などを容易に排除することが可能となる。
例えば、いずれの画像データでもある程度のコントラストが得られない場合には、各画像データの撮像を行った撮像距離の範囲内に合焦点位置が含まれないこととなる。つまり、撮像手段から最も遠くなるであろう部品配置部の配置面(背景部分)は、コントラストの制限により容易に排除することができる。
また、合焦点位置を得られた場合でもあっても合焦点位置そのものに制限を設けることにより、突出している部分、窪んでいる部分など、実装作業の必要性に応じて検出すべき部位のみを抽出して全焦点画像を取得することができ、処理データ量を低減して、効率よく処理することが可能となる。
According to the second aspect of the present invention, since a local all-in-focus image is generated by limiting the range with respect to the contrast or in-focus position, an unnecessary portion in the image, for example, the background of an electronic component, etc. can be easily excluded. It becomes possible.
For example, when a certain level of contrast cannot be obtained with any image data, the in-focus position is not included in the range of the imaging distance at which each image data was captured. In other words, the arrangement surface (background portion) of the component arrangement portion that will be the farthest from the imaging means can be easily eliminated by limiting the contrast.
Even if the in-focus position is obtained, by limiting the in-focus position itself, only the parts that should be detected according to the necessity of mounting work, such as protruding parts and recessed parts, can be obtained. An omnifocal image can be obtained by extraction, and the amount of processing data can be reduced, thereby enabling efficient processing.

請求項3記載の発明は、生成される局所全焦点画像を元に、局所全焦点テンプレート画像との合致の判断を例えばマッチング処理により行い、これにより、部品の良否判定を行うので、形状に異常のある電子部品の搭載を防止することができる。
例えば、搭載しようとしている電子部品が正常な部品である場合、局所全焦点画像と局所全焦点テンプレート画像の相関度が高くなり、正常な電子部品と判別される。一方、電子部品にそりが生じている場合などは、局所全焦点画像が一部しか得られないため、相関度が低くなり、不良と判断することができる。上記不良の判断時には、例えば、部品実装の動作制御を実行する制御に対してエラー通知を発行することが望ましい。
According to the third aspect of the present invention, the matching with the local omnifocal template image is determined based on the generated local omnifocal image by, for example, matching processing, and thereby the quality of the component is determined. It is possible to prevent the mounting of certain electronic components.
For example, when the electronic component to be mounted is a normal component, the degree of correlation between the local omnifocal image and the local omnifocal template image is high, and the electronic component is determined as a normal electronic component. On the other hand, when the electronic component is warped or the like, only a part of the local omnifocal image is obtained, so that the degree of correlation becomes low and it can be determined that the electronic component is defective. At the time of determining the defect, for example, it is desirable to issue an error notification to the control for executing the operation control of component mounting.

本実施形態たる電子部品実装装置の斜視図である。It is a perspective view of the electronic component mounting apparatus which is this embodiment. 撮像装置の周辺の構成を示す斜視図である。It is a perspective view which shows the structure of the periphery of an imaging device. 電子部品実装装置の制御系を示すブロック図である。It is a block diagram which shows the control system of an electronic component mounting apparatus. 1次フィルタ演算部でコントラストを求める手法を示した説明図である。It is explanatory drawing which showed the method of calculating | requiring contrast in a primary filter calculating part. 2次フィルタ演算部で平滑化を行う手法を示した説明図である。It is explanatory drawing which showed the method of smoothing in a secondary filter calculating part. 一つの着目画素について撮像高さの異なる画像データにおける平滑化されたコントラスト値を示す線図である。It is a diagram which shows the smoothed contrast value in the image data from which imaging height differs about one focus pixel. 一つの着目画素について撮像高さの異なる画像データにおける平滑化されたコントラスト値を示す線図であって、ピークが得られない場合を示している。FIG. 5 is a diagram showing a smoothed contrast value in image data having different imaging heights for one target pixel, and shows a case where a peak cannot be obtained. 表示装置における高さ画像データの表示例である。It is an example of a display of the height image data in a display apparatus. 表示装置における局所全焦点画像データの表示例である。It is an example of a display of the local omnifocal image data in a display apparatus. 良品の電子部品の側面図である。It is a side view of a good electronic component. 図10に示す良品である電子部品の局所全焦点画像の例である。It is an example of the local omnifocal image of the electronic component which is a good product shown in FIG. 不良の電子部品の側面図である。It is a side view of a defective electronic component. 図12に示す不良である電子部品の局所全焦点画像の例である。It is an example of the local omnifocal image of the electronic component which is a defect shown in FIG. 吸着ノズルに吸着された電子部品の複数回の撮像から電子部品の姿勢、位置等の算出までの処理について示すフローチャートである。It is a flowchart shown about the process from the imaging of the electronic component attracted | sucked by the suction nozzle to the calculation of the attitude | position of an electronic component, a position, etc. in multiple times. 図14の処理に不良検査を行う処理を加えた例について示すフローチャートである。It is a flowchart shown about the example which added the process which performs a defect test | inspection to the process of FIG. 部品配置部を電子部品を載置するステージとした例を示す斜視図である。It is a perspective view which shows the example which used the component arrangement | positioning part as the stage which mounts an electronic component.

(発明の実施形態)
発明の実施形態について、図1乃至図15に基づいて説明する。図1は、本実施形態たる電子部品実装装置100の斜視図である。以下、図示のように、水平面において互いに直交する二方向をそれぞれX軸方向とY軸方向とし、これらに直交する鉛直方向をZ軸方向というものとする。
電子部品実装装置100は、基板Sに各種の電子部品Cの搭載を行うものであって、図1に示すように、搭載される電子部品Cを供給する複数の部品供給装置としての電子部品フィーダ108を複数(図1では一つのみ図示)並べて保持する設置部としてのフィーダバンク102からなる部品供給部と、X軸方向に基板を搬送する基板搬送手段103と、当該基板搬送手段103による基板搬送経路の途中に設けられた基板Sに対する電子部品搭載作業を行うための基板保持部としての基板クランプ機構104と、部品配置部としての複数の吸着ノズル105を昇降可能に保持して電子部品Cの保持を行うヘッド106と、実装動作に要する各種の情報を得るために吸着ノズル105に吸着された電子部品Cの撮像を行う撮像手段としての撮像装置1と(図3参照)、ヘッド106を部品供給部と基板クランプ機構104とを含んだ作業エリア内の任意の位置に駆動搬送する移動機構としてのX−Yガントリ107と、上記各構成を搭載支持するベースフレーム114と、上記各構成の動作制御を行う動作制御手段としてのホストコントローラ120と、撮像装置1の撮像により得られる画像データを処理する画像処理装置10を備えている。
(Embodiment of the Invention)
An embodiment of the invention will be described with reference to FIGS. FIG. 1 is a perspective view of an electronic component mounting apparatus 100 according to the present embodiment. Hereinafter, as shown in the drawing, two directions orthogonal to each other on the horizontal plane are respectively referred to as an X-axis direction and a Y-axis direction, and a vertical direction orthogonal to these directions is referred to as a Z-axis direction.
The electronic component mounting apparatus 100 mounts various electronic components C on the substrate S, and as shown in FIG. 1, an electronic component feeder as a plurality of component supply devices that supply the electronic components C to be mounted. A component supply unit composed of a feeder bank 102 as an installation unit that holds a plurality of 108 (only one is shown in FIG. 1) side by side, a substrate transfer unit 103 that transfers a substrate in the X-axis direction, and a substrate by the substrate transfer unit 103 An electronic component C is provided by holding a substrate clamping mechanism 104 as a substrate holding unit for performing an electronic component mounting operation on the substrate S provided in the middle of the transport path and a plurality of suction nozzles 105 as component placement units so as to be movable up and down. A head 106 for holding the image and an imaging means for imaging the electronic component C sucked by the suction nozzle 105 in order to obtain various information required for the mounting operation. The apparatus 1 (see FIG. 3), the XY gantry 107 as a moving mechanism that drives and conveys the head 106 to an arbitrary position in a work area including the component supply unit and the substrate clamping mechanism 104, and the above-described configurations. A base frame 114 to be mounted and supported, a host controller 120 as operation control means for performing operation control of each of the above components, and an image processing apparatus 10 for processing image data obtained by imaging by the imaging apparatus 1 are provided.

かかる電子部品実装装置100は、ホストコントローラ120が、電子部品Cの実装に関する各種の設定内容が記録された実装データを保有し、実装データから実装すべき電子部品Cと、電子部品Cの電子部品フィーダ108等の設置位置に基づく部品受け取り位置108aと、基板上の実装位置を示すデータとを読み出すと共に、X−Yガントリ107を制御してヘッド106を電子部品Cの受け取り位置108aと実装位置とに移送し、各位置においてヘッド106を制御して吸着ノズル105の昇降動作及び吸着又は解放動作を行い、電子部品Cの実装の動作制御を実行する。   In the electronic component mounting apparatus 100, the host controller 120 has mounting data in which various setting contents related to mounting of the electronic component C are recorded, and the electronic component C to be mounted from the mounting data and the electronic component C of the electronic component C The component receiving position 108a based on the installation position of the feeder 108 and the like and the data indicating the mounting position on the board are read out, and the XY gantry 107 is controlled to allow the head 106 to receive the electronic component C at the receiving position 108a and the mounting position. Then, the head 106 is controlled at each position to perform the lifting and lowering operation and the suction or release operation of the suction nozzle 105, and the operation control of mounting the electronic component C is executed.

(基板搬送手段及び基板保持部)
基板搬送手段103は、図示しない搬送ベルトを備えており、その搬送ベルトにより基板をX軸方向に沿って搬送する。
また、前述したように、基板搬送手段103による基板搬送経路の途中には、電子部品Cを基板へ搭載する際の作業位置で基板Sを固定保持するための基板クランプ機構104が設けられている。かかる基板クランプ機構104が装備されており、基板搬送方向に直交する方向における両端部で基板Sをクランプするようになっている。また、基板クランプ機構104の下方には、クランプ時に基板Sの下面側に当接して電子部品搭載時に基板Sが下方に撓まぬように支承する複数の支持棒が設けられている。基板Sはこれらにより保持された状態で安定した電子部品Cの搭載作業が行われる。
(Substrate transport means and substrate holder)
The substrate transport unit 103 includes a transport belt (not shown), and transports the substrate along the X-axis direction by the transport belt.
Further, as described above, the substrate clamp mechanism 104 for fixing and holding the substrate S at the work position when the electronic component C is mounted on the substrate is provided in the middle of the substrate transfer path by the substrate transfer means 103. . The substrate clamping mechanism 104 is provided, and the substrate S is clamped at both ends in a direction orthogonal to the substrate transport direction. Below the substrate clamping mechanism 104, there are provided a plurality of support rods that abut against the lower surface side of the substrate S during clamping and support the substrate S so that it does not bend downward when electronic components are mounted. A stable mounting operation of the electronic component C is performed while the substrate S is held by these.

(X−Yガントリ)
X−Yガントリ107は、X軸方向にヘッド106の移動を案内するX軸ガイドレール107aと、このX軸ガイドレール107aと共にヘッド106をY軸方向に案内する二本のY軸ガイドレール107bと、X軸方向に沿ってヘッド106を移動させる駆動源であるX軸モータ109と、X軸ガイドレール107aを介してヘッド106をY軸方向に移動させる駆動源であるY軸モータ110とを備えている。そして、各モータ109、110の駆動により、ヘッド106を二本のY軸ガイドレール107bの間となる領域のほぼ全体に搬送することを可能としている。
なお、各モータ109、110は、それぞれの回転量がホストコントローラ120に認識され、所望の回転量となるように制御されることにより、ヘッド106を介して吸着ノズル105の位置決めを行っている。
また、電子部品実装作業の必要上、前記した二つのフィーダバンク102,基板クランプ機構104とはいずれもX−Yガントリ107によるヘッド106の搬送可能領域内に配置されている。
(XY gantry)
The XY gantry 107 includes an X-axis guide rail 107a that guides the movement of the head 106 in the X-axis direction, and two Y-axis guide rails 107b that guide the head 106 in the Y-axis direction together with the X-axis guide rail 107a. , An X-axis motor 109 that is a drive source that moves the head 106 along the X-axis direction, and a Y-axis motor 110 that is a drive source that moves the head 106 in the Y-axis direction via the X-axis guide rail 107a. ing. By driving the motors 109 and 110, the head 106 can be transported to almost the entire region between the two Y-axis guide rails 107b.
Each of the motors 109 and 110 positions the suction nozzle 105 via the head 106 by being recognized by the host controller 120 and controlled so as to have a desired rotation amount.
Further, the two feeder banks 102 and the substrate clamping mechanism 104 are both disposed within the transportable area of the head 106 by the XY gantry 107 due to the necessity of the electronic component mounting work.

(ヘッド)
ヘッド106は、その先端部で空気吸引により電子部品Cを保持する吸着ノズル105(図1参照)と、吸着ノズル105をZ軸方向に沿って昇降させる昇降機構としてのZ軸モータ111と、吸着ノズル105を回転させて保持された電子部品CをZ軸方向回りに角度調節するためのθ軸モータ112とが設けられている。
また、上記吸着ノズル105は、Z軸方向に沿った状態で昇降可能且つ回転可能にヘッド106に支持されており、昇降による電子部品Cの受け取り又は実装及び回転による電子部品Cの角度調節が可能となっている。
(head)
The head 106 includes a suction nozzle 105 (see FIG. 1) that holds the electronic component C by air suction at the tip, a Z-axis motor 111 as a lifting mechanism that lifts and lowers the suction nozzle 105 along the Z-axis direction, A θ-axis motor 112 for adjusting the angle of the electronic component C held by rotating the nozzle 105 around the Z-axis direction is provided.
The suction nozzle 105 is supported by the head 106 so that it can be moved up and down and rotated in the state along the Z-axis direction. The electronic component C can be received or mounted by raising and lowering and the angle of the electronic component C can be adjusted by rotating. It has become.

(フィーダバンク及び電子部品フィーダ)
フィーダバンク102は、ベースフレーム114のY軸方向一端部(図1手前側)にX軸方向に沿った状態で設けられている。フィーダバンク102は、X−Y平面に沿った長尺の平坦部を備え、当該平坦部の上面に複数の電子部品フィーダ108等がX軸方向に沿って羅列して載置装備される(図1では電子部品フィーダ108を一つのみ図示しているが実際には複数の電子部品フィーダ108等が並んで装備される)。
また、フィーダバンク102は、各電子部品フィーダ108等を保持するための図示しないラッチ機構を備えており、必要に応じて、各電子部品フィーダ108等をフィーダバンク102に対して装着又は分離することを可能としている。
(Feeder bank and electronic component feeder)
The feeder bank 102 is provided at one end of the base frame 114 in the Y-axis direction (front side in FIG. 1) along the X-axis direction. The feeder bank 102 includes a long flat portion along the XY plane, and a plurality of electronic component feeders 108 and the like are arranged and mounted on the upper surface of the flat portion along the X-axis direction (see FIG. In FIG. 1, only one electronic component feeder 108 is shown, but actually, a plurality of electronic component feeders 108 and the like are mounted side by side).
Further, the feeder bank 102 includes a latch mechanism (not shown) for holding each electronic component feeder 108 and the like, and each electronic component feeder 108 and the like is attached to or separated from the feeder bank 102 as necessary. Is possible.

上述した電子部品フィーダ108は、後端部には電子部品Cが均一間隔で並んで封止されたテープを巻回したテープリールを保持し、先端上部にはヘッド106に対する電子部品Cの供給位置である受け渡し部を有している。そして、電子部品フィーダ108がフィーダバンク102に取り付けられた状態における電子部品Cの受け渡し部の位置を示すX、Y座標値は前述した実装データに記録されている。   The above-described electronic component feeder 108 holds a tape reel on which a tape with electronic components C arranged and arranged at a uniform interval is wound at the rear end, and the supply position of the electronic component C to the head 106 at the upper end. It has the delivery part which is. The X and Y coordinate values indicating the position of the transfer part of the electronic component C in a state where the electronic component feeder 108 is attached to the feeder bank 102 are recorded in the mounting data described above.

(撮像装置)
図2は撮像装置1の周辺の構成を示す斜視図である。
撮像装置1は、基板搬送手段103を挟んでフィーダバンク102の反対側においてベースフレーム114に設けられたカメラであり、その視線を垂直上方に向けて配設されている。即ち、吸着ノズル105に吸着された電子部品Cに対して下方から撮像を行うようになっている。
上記撮像手段1のカメラは、被写体画像を撮像するCCD又はCMOS撮像素子と、当該撮像素子の眼前に設けられた固定焦点レンズからなる光学系が配設されている。つまり、撮像手段1は固定焦点のカメラである。なお、この撮像装置1の撮像時に得られる画像信号は、画像処理装置10に出力される。
(Imaging device)
FIG. 2 is a perspective view showing a configuration around the imaging device 1.
The imaging device 1 is a camera provided on the base frame 114 on the opposite side of the feeder bank 102 with the substrate transport means 103 interposed therebetween, and is arranged with its line of sight facing vertically upward. That is, the electronic component C sucked by the suction nozzle 105 is imaged from below.
The camera of the image pickup means 1 is provided with an optical system including a CCD or CMOS image pickup device for picking up a subject image and a fixed focus lens provided in front of the image pickup device. That is, the imaging means 1 is a fixed focus camera. Note that an image signal obtained at the time of imaging by the imaging apparatus 1 is output to the image processing apparatus 10.

撮像手段1のすぐ上側には、照明装置2が設けられている。この照明装置2は、平面視正方形状であって内部中空の直方体のケース2aとケース内底部の四方から光照射を行う複数の発光素子2bとケース内上部の四方から光照射を行う複数の発光素子2cとから構成される。
照明装置2のケース2aは、上部と下部とが開口している。そして、上側の開口部から吸着ノズル105に吸着された電子部品CがZ軸モータ111の駆動により下降してケース2a内に侵入し、四方から光照射が行われた状態で下側の開口部を通じて撮像装置1により電子部品Cの撮像が行われる。
An illumination device 2 is provided immediately above the imaging means 1. The illumination device 2 has a square shape in a plan view, a rectangular parallelepiped case 2a, a plurality of light emitting elements 2b that irradiate light from the four sides of the bottom of the case, and a plurality of light emitting elements that irradiate light from four sides of the upper part of the case. It is comprised from the element 2c.
The case 2a of the illuminating device 2 is open at the top and bottom. The electronic component C sucked by the suction nozzle 105 from the upper opening is lowered by driving the Z-axis motor 111 and enters the case 2a, and the lower opening is irradiated with light from all sides. The electronic device C is imaged by the imaging device 1 through the above.

(電子部品実装装置の制御系)
図3は電子部品実装装置100の制御系を示すブロック図である。図示のように、X−Yガントリ107のX軸モータ109、Y軸モータ110、ヘッド106において吸着ノズル105の昇降を行うZ軸モータ111、吸着ノズル105の回転を行うθ軸モータ112は、それぞれ図示しない駆動回路を介してホストコントローラ120に接続されている。
また、撮像装置1の撮像の実行と照明装置2の光照射の実行とは、ホストコントローラ120により制御される。そして、撮像装置1の撮像による画像信号は、前述したように、画像処理装置10に入力されるようになっている。
(Control system for electronic component mounting equipment)
FIG. 3 is a block diagram showing a control system of the electronic component mounting apparatus 100. As shown, the X-axis motor 109, the Y-axis motor 110 of the XY gantry 107, the Z-axis motor 111 that moves the suction nozzle 105 up and down in the head 106, and the θ-axis motor 112 that rotates the suction nozzle 105, respectively. It is connected to the host controller 120 via a drive circuit (not shown).
The host controller 120 controls the execution of imaging by the imaging device 1 and the execution of light irradiation by the illumination device 2. And the image signal by the imaging of the imaging device 1 is input to the image processing device 10 as described above.

ホストコントローラ120は、実装対象となる電子部品Cのリスト及びその搭載の順番、各電子部品Cの基板S上における搭載位置、各電子部品Cがいずれの電子部品フィーダ108から受け取るかを示す受け取り位置等が定められた実装スケジュールデータを記憶する図示しないメモリと、実装動作制御プログラムを実行するCPU121とを主に備えている。
そして、電子部品の実装時には、実装スケジュールデータを読み込んで、X軸及びY軸モータ109,110を制御して所定の電子部品フィーダ108の受け取り位置にヘッド106を搬送し、Z軸モータ111を制御して吸着ノズル105にて電子部品Cを吸着し、撮像装置1に移動して下方から電子部品Cの撮像を行ってから実装スケジュールデータに定められた基板実装位置に電子部品Cを搬送して実装を行う。
そして、実装スケジュールデータに定められた全ての電子部品Cについて実装を行い、動作制御を終了するようになっている。
The host controller 120 has a list of electronic components C to be mounted and their mounting order, a mounting position of each electronic component C on the substrate S, and a receiving position indicating which electronic component feeder 108 each electronic component C receives from. Are mainly provided with a memory (not shown) for storing mounting schedule data, and the like, and a CPU 121 for executing a mounting operation control program.
When mounting electronic components, the mounting schedule data is read, the X-axis and Y-axis motors 109 and 110 are controlled, the head 106 is transported to a predetermined receiving position of the electronic component feeder 108, and the Z-axis motor 111 is controlled. Then, the electronic component C is picked up by the suction nozzle 105, moved to the image pickup apparatus 1 to pick up the electronic component C from below, and then transported to the board mounting position determined in the mounting schedule data. Implement the implementation.
And it mounts about all the electronic components C defined by the mounting schedule data, and operation | movement control is complete | finished.

また、ホストコントローラ120は、画像処理装置10と通信可能に接続されている。そして、電子部品Cの撮像により生成される全焦点画像の解析の結果に基づいて得られる電子部品Cの中心位置及びZ軸周りの角度の情報を画像処理装置10から受信し、吸着ノズル105に対する電子部品Cの中心位置ズレ及びZ軸周りの角度ズレをX軸及びY軸モータ109,110とθ軸モータ112の制御により補正してから基板Sへの実装動作制御を行うようになっている。   The host controller 120 is communicably connected to the image processing apparatus 10. Then, the information on the center position of the electronic component C and the angle around the Z axis obtained based on the result of the analysis of the omnifocal image generated by imaging the electronic component C is received from the image processing apparatus 10, and The mounting position of the electronic component C and the angle deviation around the Z-axis are corrected by controlling the X-axis and Y-axis motors 109 and 110 and the θ-axis motor 112, and then the mounting operation on the substrate S is controlled. .

また、ホストコントローラ120は、電子部品Cの実装時において、Z軸方向について一定の間隔で吸着ノズル105の高さを変えるようにZ軸モータ111を制御し、それぞれの高さで吸着ノズル105に吸着された電子部品Cを鉛直下方から撮像するよう撮像装置1を制御する。即ち、ホストコントローラ120は、撮像制御部として機能する。
例えば、吸着ノズル105の下端部が撮像装置1の焦点に合っている位置を起点として所定の高さまで吸着ノズル105を上昇させると共に、均一間隔ごとに電子部品Cの撮像を行うよう撮像装置1を制御する。
撮像時の吸着ノズル105の上昇移動量と撮像回数とは、図示しないメモリに記憶されており、外部から任意に設定することが可能となっている。
なお、同範囲について吸着ノズル105を下降させながら撮像を行っても良い。
In addition, the host controller 120 controls the Z-axis motor 111 so that the height of the suction nozzle 105 is changed at regular intervals in the Z-axis direction when the electronic component C is mounted. The imaging apparatus 1 is controlled so that the picked-up electronic component C is imaged from vertically below. That is, the host controller 120 functions as an imaging control unit.
For example, the imaging device 1 is configured to raise the suction nozzle 105 to a predetermined height starting from a position where the lower end portion of the suction nozzle 105 is in focus, and to capture the electronic component C at uniform intervals. Control.
The upward movement amount of the suction nozzle 105 at the time of imaging and the number of times of imaging are stored in a memory (not shown) and can be arbitrarily set from the outside.
Note that imaging may be performed while lowering the suction nozzle 105 in the same range.

(画像処理装置)
そして、画像処理装置10は、上記複数回の撮像により複数の画像データを取得し、画像を構成する各画素の位置における合焦点位置(一つの画素について焦点が合っている場合における撮像装置1と吸着ノズル105との相対的な位置又は距離)を求め、全画素について焦点のあった画像からなる全焦点画像又は電子部品Cにおける一定の高さ範囲内となる部分の画素について焦点のあった画像からなる局所全焦点画像を生成する処理を行うものである。
(Image processing device)
Then, the image processing apparatus 10 acquires a plurality of image data by performing the imaging a plurality of times, and the focal position at the position of each pixel constituting the image (with the imaging apparatus 1 in the case where one pixel is in focus) (Relative position or distance with respect to the suction nozzle 105), and an all-focus image consisting of an image focused on all pixels, or an image focused on a portion of pixels within a certain height range in the electronic component C The process which produces | generates the local omnifocal image which consists of is performed.

このため、図3に示すように、画像処理装置10は、上記撮像装置1の複数回の撮像による画像信号をA/D変換して各撮像ごとの画像データを生成するA/Dコンバータ11と、これらの画像データを格納する画像記憶部12と、各画像データから電子部品Cの高さデータ、高さ画像データ及び全焦点画像データを生成する処理部20と、高さデータを記憶する高さデータ記憶部31と高さ画像データを記憶する高さ画像記憶部32と全焦点画像データを記憶する全焦点画像記憶部33とからなる処理結果記憶部30と、全焦点画像データ及び高さデータから局所全焦点画像データを生成する局所全焦点画像生成部41と、生成された局所全焦点画像データを記憶する局所全焦点画像記憶部42と、局所全焦点画像データに対する画像処理を行って電子部品Cの姿勢や位置を算出する部品位置検出処理部13と、電子部品の局所全焦点画像のテンプレート画像である局所全焦点テンプレート画像の画像データを記憶するテンプレート画像記憶部52とテンプレート画像記憶部52に保持されている局所全焦点テンプレート画像の画像データと局所全焦点画像記憶部42に保持されている局所全焦点画像データとから不良検査を行う不良検査部51と不良検査結果を保持する検査結果記憶部53とからなる三次元形状検査部50と、各部の処理の実行及びデータの格納について制御するCPU14とを備えている。   For this reason, as shown in FIG. 3, the image processing apparatus 10 includes an A / D converter 11 that performs A / D conversion on an image signal obtained by a plurality of times of imaging by the imaging apparatus 1 and generates image data for each imaging. The image storage unit 12 that stores these image data, the processing unit 20 that generates the height data, the height image data, and the omnifocal image data of the electronic component C from each image data, and the height that stores the height data. A processing result storage unit 30 comprising a height data storage unit 31, a height image storage unit 32 for storing height image data, and an omnifocal image storage unit 33 for storing omnifocal image data, omnifocal image data and height Local omnifocal image generation unit 41 that generates local omnifocal image data from the data, local omnifocal image storage unit 42 that stores the generated local omnifocal image data, and image processing on the local omnifocal image data A component position detection processing unit 13 that calculates the posture and position of the electronic component C, a template image storage unit 52 that stores image data of a local omnifocal template image that is a template image of a local omnifocal image of the electronic component, and a template A defect inspection unit 51 for performing a defect inspection from the image data of the local omnifocal template image held in the image storage unit 52 and the local omnifocal image data held in the local omnifocal image storage unit 42, and a defect inspection result A three-dimensional shape inspection unit 50 including an inspection result storage unit 53 to be held, and a CPU 14 that controls execution of processing of each unit and storage of data are provided.

また、処理部20は、全画像データの各画素におけるコントラスト値を算出する1次フィルタ演算部21と、各画素におけるコントラスト値を平滑化する2次フィルタ演算部22と、平滑化されたコントラスト値から各画素での合焦点位置を算出する高さ算出部23と、電子部品Cの各画素位置における高さをその高さに応じた輝度値で示した高さ画像データを生成する高さ画像生成部24と、電子部品Cの各部を撮像する各画素について各々が焦点が合っている画像からなる全焦点画像データを生成する全焦点画像生成部25とを備えている。
以下、画像処理装置10の各部について順に説明する。
In addition, the processing unit 20 includes a primary filter calculation unit 21 that calculates a contrast value in each pixel of all image data, a secondary filter calculation unit 22 that smoothes the contrast value in each pixel, and a smoothed contrast value. A height calculation unit 23 that calculates a focal position at each pixel from the height, and a height image that generates height image data indicating the height at each pixel position of the electronic component C by a luminance value corresponding to the height. A generation unit 24 and an omnifocal image generation unit 25 that generates omnifocal image data including an image in which each pixel that images each part of the electronic component C is in focus are provided.
Hereinafter, each part of the image processing apparatus 10 will be described in order.

上記A/Dコンバータ11は、吸着ノズル105の1ストロークの移動における各撮像時に撮像装置1から出力される画像信号をアナログからデジタルに変換して各撮像ごとの画像データを生成する。一つの画像データは、1フレームを構成する全画素について個々に検出された輝度値を記録したものである。
各画像データは、全て、画像記憶部12に格納される。
The A / D converter 11 converts the image signal output from the imaging device 1 during each imaging in the movement of the suction nozzle 105 for one stroke to generate image data for each imaging. One image data is a record of brightness values individually detected for all pixels constituting one frame.
All the image data are stored in the image storage unit 12.

処理部20の1次フィルタ演算部21は、各撮像の画像データにおける全画素についてコントラストを算出する。
図4は、1次フィルタ演算部21でコントラストを求める手法を示した説明図である。コントラストを求める対象となる画素を着目画素(i,j)(i,jは画素位置を示すX−Y座標値)とし、その輝度値をI(i,j)とした場合に、式(1)に示すように、当該着目画素を中心に縦方向と横方向と45°斜めの二方向からなる四方向について、X軸方向については±dx、Y軸方向については±dy、斜め方向については±dx且つ±dyだけ離れて並んだ合計八つの画素と着目画素の輝度値の差分の総和を着目画素におけるコントラストLm(i,j)として求めている。
なお、コントラストLm(i,j)は、式(2)に示すように、より簡易的に、斜め方向の各画素との対比を省略して求めても良い。
The primary filter calculation unit 21 of the processing unit 20 calculates the contrast for all the pixels in the image data of each captured image.
FIG. 4 is an explanatory diagram showing a method for obtaining the contrast by the primary filter calculation unit 21. When the pixel for which the contrast is to be calculated is the pixel of interest (i, j) (i, j is an XY coordinate value indicating the pixel position) and the luminance value is I (i, j), the expression (1 As shown in (4), with respect to the four directions consisting of the 45 ° oblique direction and the vertical direction and the horizontal direction around the pixel of interest, ± dx for the X-axis direction, ± dy for the Y-axis direction, The sum of the differences between the luminance values of a total of eight pixels and the target pixel that are separated by ± dx and ± dy is obtained as the contrast Lm (i, j) in the target pixel.
The contrast Lm (i, j) may be obtained more simply by omitting the comparison with each pixel in the oblique direction, as shown in the equation (2).

なお、dx,dyは、予め定められた整数であり、一例として、画素1〜10個分程度とする場合を示すが、増減させても良い。
また、上記手法でコントラストを求める場合、厳密には平面に並んだ全画素の内、その外縁からdx列分又はdy列分の画素についてはコントラストを求めることができず、処理対象から除かれることになるが、全体からすればごくわずかの範囲なので、便宜上、「全画素のコントラスト」と記載するものとする。
Dx and dy are predetermined integers. As an example, dx and dy are about 1 to 10 pixels, but may be increased or decreased.
In addition, when the contrast is obtained by the above method, strictly speaking, it is not possible to obtain the contrast for the pixels corresponding to the dx column or the dy column from the outer edge of all the pixels arranged in a plane, and the pixels are excluded from the processing target. However, since it is a very small range from the whole, “contrast of all pixels” is described for convenience.

2次フィルタ演算部22は、各撮像の画像データにおける全画素について、1次フィルタ演算部21で算出されたコントラストLm(i,j)に基づいて次式(3)に従って平滑化を行う。
The secondary filter calculation unit 22 performs smoothing according to the following equation (3) based on the contrast Lm (i, j) calculated by the primary filter calculation unit 21 for all pixels in the image data of each captured image.

即ち、着目画素(i,j)についてコントラストの平滑化を行う場合には、着目画素を中心として、図5に示す加算領域、即ち、一辺が2N+1個の正方形の範囲内の全画素のコントラストの値を平均化することで算出される。
なお、Nは予め定められた整数であり、例えば、その値は解像度に応じて適宜選択される。
また、上記のような手法で平滑化を行うため、コントラストが算出された全画素の内、厳密には、その外縁からN列分の画素については平滑化を行うことができず、その処理対象から除かれることになるが、この場合も、全体からすればごくわずかの範囲なので、便宜上、「全画素について平滑化」と記載するものとする。
That is, when the contrast smoothing is performed on the target pixel (i, j), the contrast of all the pixels in the addition region shown in FIG. Calculated by averaging the values.
Note that N is a predetermined integer. For example, the value is appropriately selected according to the resolution.
In addition, since smoothing is performed by the above-described method, it is not possible to perform smoothing on pixels for N columns from the outer edge of all pixels for which contrast is calculated. In this case as well, since this is also a very small range from the whole, “smoothing for all pixels” is described for convenience.

高さ算出部23は、全画像データの全画素の平滑化されたコントラスト値(2次フィルタ結果)に基づいて、各画像データの同じ画素位置での平滑化されたコントラスト値を比較して、各画素における合焦点位置を取得する。即ち、高さ算出部23は、測距処理部として機能することとなる。
図6は、着目画素について、撮像高さ(吸着ノズル105の先端部から撮像装置1までの距離)の異なる画像データにおける平滑化されたコントラスト値を示す線図である。
コントラスト値(平滑化された場合も同様)は、撮像手段の焦点が合った状態に近い程、高い値を示すこととなる。
従って、着目画素について、平滑化されたコントラスト値が最大値となる高さを求めることで、当該着目画素における合焦点位置を求めることが可能となる。
なお、実際に撮像を行った撮像高さが合焦点位置に完全一致するとは限らないが、その場合には、平滑化されたコントラスト値が最大となる撮像高さを近似的に合焦点位置としても良いし、平滑化されたコントラスト値が予め定めた閾値(例えば、得られた平滑化されたコントラスト値の最大値の80%の値を閾値とする等)を超える二つの撮像高さからその平均をとって合焦点位置としても良い。
また、着目画素について、各画像データの撮像高さ(吸着ノズル105の先端部から撮像装置1までの距離)における平滑化されたコントラスト値が、正規分布曲線に近似するので、正規分布式N(μ,σ)を生成し、その平均値μを合焦点位置として算出しても良い。
上記高さ算出部23は、全画素における合焦点位置を算出し、これを高さデータとして高さデータ記憶部31に格納する。
The height calculation unit 23 compares the smoothed contrast value at the same pixel position of each image data based on the smoothed contrast value (secondary filter result) of all the pixels of all the image data, The in-focus position at each pixel is acquired. That is, the height calculation unit 23 functions as a distance measurement processing unit.
FIG. 6 is a diagram illustrating smoothed contrast values in image data having different imaging heights (distance from the tip of the suction nozzle 105 to the imaging device 1) for the pixel of interest.
The contrast value (same when smoothed) is higher as the imaging means is closer to the focused state.
Therefore, by determining the height at which the smoothed contrast value becomes the maximum value for the target pixel, it is possible to determine the in-focus position at the target pixel.
Note that the imaging height at which the image was actually captured does not necessarily exactly match the in-focus position, but in that case, the imaging height that maximizes the smoothed contrast value is approximately set as the in-focus position. The smoothed contrast value may be determined from two imaging heights exceeding a predetermined threshold value (for example, 80% of the maximum value of the obtained smoothed contrast value is set as a threshold value). An average may be taken as the in-focus position.
Also, for the pixel of interest, the smoothed contrast value at the imaging height of each image data (distance from the tip of the suction nozzle 105 to the imaging device 1) approximates a normal distribution curve, so the normal distribution formula N ( μ, σ 2 ) may be generated and the average value μ may be calculated as the in-focus position.
The height calculation unit 23 calculates a focal point position in all pixels and stores this in the height data storage unit 31 as height data.

なお、吸着ノズル105に吸着された電子部品Cを下方から撮像した場合、電子部品Cの周囲の背景は、撮像装置1に対して電子部品Cよりもずっと遠方にあり、吸着ノズル105の昇降を行っても焦点が合うことはないため、このような背景を撮像した画素については、図7に示すように、平滑化されたコントラスト値にピークが現れず、合焦点位置が求めることができないか或いは誤った撮像高さを合焦点位置と認定するおそれがある。
従って、高さ算出部23では、図7に示すように、平滑化されたコントラスト値に対して所定の閾値Kを予め定めておき、いずれの撮像高さでも当該閾値を超えない場合には、その画素については処理対象から除外する処理を行う。これにより、不要な背景領域を除外し、電子部品Cを撮像した画素のみを処理対象とすることができる。
なお、閾値Kについては、試験的に電子部品と背景とを撮像して、背景画像では得られないコントラスト値を求める等の手法により容易に取得することが可能である。
When the electronic component C sucked by the suction nozzle 105 is imaged from below, the background around the electronic component C is far from the electronic component C with respect to the imaging device 1, and the suction nozzle 105 is moved up and down. Since the image is not focused even if it is performed, as shown in FIG. 7, with respect to the pixel that has imaged such a background, a peak does not appear in the smoothed contrast value, and the in-focus position cannot be obtained. Alternatively, there is a possibility that an incorrect imaging height is recognized as the in-focus position.
Therefore, in the height calculation unit 23, as shown in FIG. 7, a predetermined threshold value K is set in advance for the smoothed contrast value, and when the imaging height does not exceed any imaging height, The pixel is excluded from the processing target. Thereby, an unnecessary background area | region can be excluded and only the pixel which imaged the electronic component C can be made into a process target.
Note that the threshold value K can be easily obtained by a technique such as taking a trial image of the electronic component and the background and obtaining a contrast value that cannot be obtained from the background image.

高さ画像生成部24は、高さデータ記憶部31に格納されている高さデータを輝度値に正規化して高さ画像を生成し、高さ画像記憶部32に格納する。
正規化の手法としては、高さデータに含まれる全画素(除外された背景画素は除く)の合焦点位置の最小値から最大値までの範囲内の各合焦点位置に対して、画素の輝度値の階調の全範囲を割り振るようにする。例えば256階調であれば最小値に輝度値255、最大値に輝度値0を割り振る。これにより、高さデータに含まれる全画素(除外された背景画素は除く)の合焦点位置が、高さに応じた輝度値に置き換えられてなる高さ画像データが生成され、高さ画像記憶部32に格納される。なお、この高さ画像データでは、電子部品Cの撮像装置1に近い点ほど高輝度となる画像が生成されることになる。
また、高さ算出部23において除外された画素については輝度値0が格納される。
The height image generation unit 24 normalizes the height data stored in the height data storage unit 31 to luminance values, generates a height image, and stores the height image in the height image storage unit 32.
As a normalization method, the luminance of the pixel for each in-focus position within the range from the minimum value to the maximum value of the in-focus position of all pixels (excluding excluded background pixels) included in the height data. Allocate the full range of value tones. For example, in the case of 256 gradations, the luminance value 255 is assigned to the minimum value, and the luminance value 0 is assigned to the maximum value. As a result, height image data in which the in-focus positions of all the pixels (excluding excluded background pixels) included in the height data are replaced with luminance values corresponding to the height is generated, and the height image is stored. Stored in the unit 32. In this height image data, an image with higher brightness is generated at a point closer to the imaging device 1 of the electronic component C.
Further, the brightness value 0 is stored for the pixels excluded by the height calculation unit 23.

また、正規化の手法としては、実際に得られた合焦点位置の最小値から最大値の範囲で正規化せずに、例えば、合焦点位置の範囲を予め定めると共に、当該範囲内の合焦点位置に対して全階調の輝度値を割り振ると共に、高さデータ記憶部31に格納されている高さデータ内の各合焦点位置データに対して、対応する輝度値に置き換えることで正規化を行っても良い。   Further, as a normalization method, for example, the range of the in-focus position is determined in advance and the in-focus position within the range is determined in advance without normalizing in the range of the minimum value to the maximum value of the in-focus position actually obtained. Normalization is performed by allocating luminance values of all gradations to positions and replacing each focused position data in the height data stored in the height data storage unit 31 with corresponding luminance values. You can go.

なお、画像処理装置10に表示装置を接続し、生成された高さ画像データの表示を行うよう制御する表示制御部を設けても良い。
図8は、表示装置における高さ画像データの表示例を示している。このように、電子部品Cの下面における撮像装置1側に近接する部位を高い明度で表示し、撮像装置1に遠い部位ほど暗く表示させることができ、立体形状を2次元画像により視覚的に容易に認識させることが可能である。なお、電子部品の遠近部位と表示画像の明度との関係は逆としても良い。また、電子部品Cの各部の高さに応じて色分けするように表示を行っても良い。
Note that a display control unit that connects the display device to the image processing apparatus 10 and controls to display the generated height image data may be provided.
FIG. 8 shows a display example of height image data on the display device. As described above, the part close to the imaging device 1 side on the lower surface of the electronic component C can be displayed with high brightness, and the part farther away on the imaging device 1 can be displayed darker, and the three-dimensional shape can be easily visually determined by the two-dimensional image. Can be recognized. Note that the relationship between the perspective portion of the electronic component and the brightness of the display image may be reversed. Further, the display may be performed so as to be color-coded according to the height of each part of the electronic component C.

全焦点画像生成部25は、高さデータ記憶部31に格納されている高さデータから全焦点画像データを生成する処理を行う。
即ち、各画素について、高さ画像データに含まれる各画素の合焦点位置に合致又は最も近似する画像データの同一画素における輝度値を画像記憶部12から読み出して各画素における輝度値とすることで、全画素が、個々に焦点の合った画像となり、全焦点画像データが生成されることとなる。
なお、画素における合焦点位置と撮像高さが完全一致する画像データが存在しない場合には、最も撮像高さが近い二つの画像データにおけるそれぞれの撮像高さと合焦点位置との距離比による重み付けをして当該各画像データの輝度値を平均化して、合焦点位置における輝度値を近似的に算出しても良い。
The omnifocal image generation unit 25 performs processing for generating omnifocal image data from the height data stored in the height data storage unit 31.
That is, for each pixel, the luminance value at the same pixel of the image data that matches or most closely approximates the focal position of each pixel included in the height image data is read from the image storage unit 12 and is used as the luminance value at each pixel. All pixels are individually focused images, and all-focus image data is generated.
In addition, when there is no image data in which the in-focus position in the pixel and the imaging height completely match, weighting is performed by the distance ratio between the imaging height and the in-focus position in the two image data with the closest imaging height. Then, the luminance value of each image data may be averaged, and the luminance value at the in-focus position may be calculated approximately.

そして、全焦点画像生成部25は、生成された全焦点画像データを全焦点画像記憶部33に格納する。
なお、この全焦点画像データについても、画像処理装置10に接続した表示装置で表示可能としても良い。
Then, the omnifocal image generation unit 25 stores the generated omnifocal image data in the omnifocal image storage unit 33.
The omnifocal image data may be displayed on a display device connected to the image processing apparatus 10.

局所全焦点画像生成部41は、高さデータ記憶部31を参照し、合焦点位置が予め設定した範囲内の高さとなる画素の座標情報を取得する。そして、これら所定の高さ範囲内となる各画素の座標情報に従って、全焦点画像記憶部33内の輝度値を抽出し、電子部品Cの所定の高さ範囲内となる部分のみの局所全焦点画像データを生成する。
そして、局所全焦点画像生成部41は、局所全焦点画像データを局所全焦点画像記憶部42内に格納する。
なお、合焦点位置が予め設定した範囲外の高さとなる画素及び既に処理対象から除外された画素については輝度値0が格納される。
The local omnifocal image generation unit 41 refers to the height data storage unit 31 and acquires the coordinate information of the pixels whose in-focus position is a height within a preset range. Then, the luminance value in the omnifocal image storage unit 33 is extracted according to the coordinate information of each pixel within the predetermined height range, and the local omnifocal of only the portion of the electronic component C within the predetermined height range is extracted. Generate image data.
The local omnifocal image generation unit 41 stores the local omnifocal image data in the local omnifocal image storage unit 42.
Note that the luminance value 0 is stored for pixels whose in-focus position is outside the preset range and pixels that have already been excluded from the processing target.

なお、局所全焦点画像生成部41において局所全焦点画像データを抽出する範囲を決定する高さ範囲については、図示しないメモリによりその設定値が記憶されている。また、このメモリ内の設定値については、入力手段を設けて任意に設定可能としても良い。
また、この局所全焦点画像データも、前述した表示装置を用いて表示可能としても良い。
図9は、表示装置における局所全焦点画像データの表示例を示している。このように、電子部品Cの下面において、所定の高さ範囲内となる部位のみについて異なる高さでありながら全点において焦点が合った画像を表示することができる。
In addition, the setting value is memorize | stored by the memory which is not shown about the height range which determines the range which extracts the local omnifocal image data in the local omnifocal image generation part 41. FIG. Further, the setting values in the memory may be arbitrarily set by providing input means.
The local omnifocal image data may also be displayed using the display device described above.
FIG. 9 shows a display example of local omnifocal image data on the display device. As described above, on the lower surface of the electronic component C, it is possible to display an image in which all the points are in focus while the height is different only for the portion within the predetermined height range.

3次元形状検査部50の不良検査部51は、局所全焦点画像記憶部42を参照し、予めテンプレート画像記憶部52に保存されている画像との相関度を検査する。そして、相関度が予め設定した範囲内であれば良品と判断し、良品であることを検査結果記憶部53に記憶させる。予め設定した範囲外であれば不良と判断し、不良であることを検査結果記憶部53に記憶させる。
なお、この不良検査結果も、前述した表示装置を用いて表示可能としても良い。
図10は電子部品Cの良品の側面図であり、図11は図10に示す局所全焦点画像生成部41で定められている所定の高さ範囲Hにおける局所全焦点画像であり、良品と判断される局所全焦点画像の例である。この図11をテンプレート画像にしても良い。
また、図12は電子部品Cに反りが生じた不良部品の側面図であり、図13は図12に示す所定の高さ範囲Hにおける局所全焦点画像である。電子部品Cに反りがあるため、局所全焦点画像を生成した場合に、全焦点画像が一部しか得ることができず、極端な場合には全く得られないこともある。そのため、テンプレート画像との相関値が低くなり、図13は不良と判断される。
The defect inspection unit 51 of the three-dimensional shape inspection unit 50 refers to the local omnifocal image storage unit 42 and inspects the degree of correlation with an image stored in the template image storage unit 52 in advance. Then, if the correlation degree is within a preset range, it is determined to be a non-defective product and the non-defective product is stored in the inspection result storage unit 53. If it is outside the preset range, it is determined as defective, and the fact that it is defective is stored in the inspection result storage unit 53.
This defect inspection result may also be displayed using the display device described above.
FIG. 10 is a side view of a non-defective product of the electronic component C, and FIG. 11 is a local omnifocal image in a predetermined height range H defined by the local omnifocal image generation unit 41 shown in FIG. It is an example of a local omnifocal image. This FIG. 11 may be a template image.
12 is a side view of a defective part in which the electronic part C is warped, and FIG. 13 is a local omnifocal image in a predetermined height range H shown in FIG. Since the electronic component C is warped, when a local omnifocal image is generated, only a part of the omnifocal image can be obtained, and in an extreme case, it may not be obtained at all. Therefore, the correlation value with the template image becomes low, and FIG. 13 is determined to be defective.

部品位置検出処理部13は、検査結果記憶部53の結果を元に、局所全焦点画像記憶部42内の局所全焦点画像データに基づいて所定の画像処理、例えば、マッチング等により電子部品の所定形状の部分の向きを求めたり、重心位置を演算して、電子部品Cの中心位置を求めたりする。
そして、これにより、吸着ノズル105の中心に対する電子部品Cの位置ズレ量、吸着ノズル105の中心に対する電子部品Cの角度、電子部品Cの姿勢などを求め、部品位置検出処理部13は、これらの情報をホストコントローラ120側に送信する。
これにより、ホストコントローラ120のCPU121は、吸着ノズル105をθ軸モータ112の回転制御により吸着された電子部品Cの向きを補正し、吸着ノズル105に対する位置ズレ量を補正して電子部品Cの基板Sに対する位置決めを行うことができる。
Based on the result of the inspection result storage unit 53, the component position detection processing unit 13 performs predetermined image processing based on the local omnifocal image data in the local omnifocal image storage unit 42, for example, predetermined electronic components by matching or the like. The direction of the shape portion is obtained, or the center position of the electronic component C is obtained by calculating the position of the center of gravity.
Thus, the positional deviation amount of the electronic component C with respect to the center of the suction nozzle 105, the angle of the electronic component C with respect to the center of the suction nozzle 105, the attitude of the electronic component C, and the like are obtained, and the component position detection processing unit 13 Information is transmitted to the host controller 120 side.
As a result, the CPU 121 of the host controller 120 corrects the orientation of the electronic component C sucked by the rotation control of the θ-axis motor 112 for the suction nozzle 105 and corrects the positional deviation amount with respect to the suction nozzle 105 to thereby correct the substrate of the electronic component C. Positioning with respect to S can be performed.

図14は、吸着ノズル105に吸着された電子部品Cの複数回の撮像から電子部品Cの姿勢、位置等の算出までの処理について示すフローチャートである。
図14に従って上記処理内容を順番に説明する。
まず、ホストコントローラ120は、メモリ内に設定されている吸着ノズル105の上昇移動量と撮像回数の読み取りを行う(ステップS1)。
そして、撮像装置1を制御して、吸着ノズル105が撮像開始位置にある状態で電子部品Cを撮像し(ステップS3)、Z軸モータ111を制御して次の撮像高さまで吸着ノズル105を上昇させる(ステップS5)。撮像装置1の撮像による画像信号は、画像処理装置10に送信され、A/D変換されて画像データとして画像記憶部12に格納される。
そして、ホストコントローラ120は、設定された撮像回数分の撮像が終了したか判定し、まだ、終了してない場合には、ステップS3に処理を戻して次の位置で撮像を行う。
また、設定された撮像回数分の撮像が終了した場合には、画像処理装置10側での処理に移行する。さらに、処理タクトを向上させるため、ホストコントローラ120と画像処理装置10が連携して、撮像、Z軸移動、画像処理を効率良く行ってもよい。
FIG. 14 is a flowchart illustrating processing from a plurality of times of imaging of the electronic component C sucked by the suction nozzle 105 to calculation of the posture, position, and the like of the electronic component C.
The processing contents will be described in order according to FIG.
First, the host controller 120 reads the upward movement amount of the suction nozzle 105 and the number of imaging operations set in the memory (step S1).
Then, the imaging apparatus 1 is controlled to image the electronic component C in a state where the suction nozzle 105 is at the imaging start position (step S3), and the Z-axis motor 111 is controlled to raise the suction nozzle 105 to the next imaging height. (Step S5). An image signal obtained by imaging by the imaging device 1 is transmitted to the image processing device 10, A / D converted, and stored in the image storage unit 12 as image data.
Then, the host controller 120 determines whether imaging for the set number of imaging has been completed. If the imaging has not yet been completed, the process returns to step S3 to perform imaging at the next position.
Further, when imaging for the set number of imaging is completed, the process proceeds to processing on the image processing apparatus 10 side. Furthermore, in order to improve the processing tact, the host controller 120 and the image processing apparatus 10 may cooperate to efficiently perform imaging, Z-axis movement, and image processing.

画像処理装置10の1次フィルタ演算部21は、各画像データの各画素についてコントラストを算出する(ステップS9)。そして、2次フィルタ演算部22は、各画素におけるコントラストの平滑化を行う(ステップS11)。
高さ算出部23は、全画像データにおける各画素の平滑化されたコントラストの値から、各画素位置においてピーク位置、即ち、合焦点位置を求め、高さデータとして高さデータ記憶部31に格納する(ステップS13)。
The primary filter calculation unit 21 of the image processing apparatus 10 calculates the contrast for each pixel of each image data (step S9). Then, the secondary filter calculation unit 22 smoothes the contrast in each pixel (step S11).
The height calculation unit 23 obtains a peak position, that is, a focal position at each pixel position from the smoothed contrast value of each pixel in all image data, and stores the peak position in the height data storage unit 31 as height data. (Step S13).

次いで、高さ画像生成部24は、高さデータを輝度値に正規化して高さ画像を生成する(ステップS15)。
また、全焦点画像生成部25は、高さデータが示す各画素位置における高さ(合焦点位置)と各画像データから全焦点画像データを生成する(ステップS17)。
Next, the height image generation unit 24 normalizes the height data to luminance values and generates a height image (step S15).
Further, the omnifocal image generation unit 25 generates omnifocal image data from the height (focus position) at each pixel position indicated by the height data and each image data (step S17).

次に、局所全焦点画像生成部41は、全焦点画像データから局所の抽出を行うための高さ範囲の設定値の読み出しを行い(ステップS19)、電子部品Cにおける設定高さ範囲内の全焦点画像データのみを抽出してなる局所全焦点画像データを生成して(ステップS21)、部品位置検出処理部13に出力する(ステップS23)。
部品位置検出処理部13では、局所全焦点画像データから電子部品Cの姿勢、向き、位置を算出し、ホストコントローラ120に送信する(ステップS25)。
これにより、ホストコントローラ120は、電子部品Cの向き及び位置補正を行って基板Sに対する実装動作を行い、制御を終了する。
Next, the local omnifocal image generation unit 41 reads the set value of the height range for performing local extraction from the omnifocal image data (step S19), and all of the electronic components C within the set height range are read out. Local omnifocal image data obtained by extracting only the focal image data is generated (step S21) and output to the component position detection processing unit 13 (step S23).
The component position detection processing unit 13 calculates the posture, orientation, and position of the electronic component C from the local omnifocal image data, and transmits it to the host controller 120 (step S25).
Thereby, the host controller 120 corrects the orientation and position of the electronic component C, performs the mounting operation on the substrate S, and ends the control.

図15は、図14に示した処理に加え、不良検査を行う処理について示すフローチャートである。
図15に従って上記検査内容を順番に説明する。まず、後に行われるマッチング処理に使用する局所全焦点テンプレート画像を作成し、テンプレート画像記憶部52に格納する(ステップS31)。
この局所全焦点テンプレート画像は、部品の3DCADデータから作成しても良いし、良品のサンプル品を撮像してその画像データから局所全焦点画像を生成し、局所全焦点テンプレート画像としても良い。
そして、図14のステップS1〜ステップS23までの処理と同様の処理を行い、局所全焦点画像を取得する(ステップS33)。
次いで、局所全焦点画像記憶部42とテンプレート画像記憶部52に格納された局所全焦点テンプレート画像を用いてマッチング処理を行う(ステップS35)。
さらに、マッチング結果に対する不良判断基準(例えば、予め設定された相関度の閾値)を取得し(ステップS37)、マッチング結果と不良判断基準から、不良判別を行い(ステップS39)、判別結果を検査結果記憶部53に格納する。
格納された検査結果が基準を満たすものであれば、前述したステップS25と同じ処理である部品認識処理を行う(ステップS41)。検査結果が基準を満たさない場合は、不良をホストコントローラ120に通知し、電子部品Cの実装動作を行わない。
FIG. 15 is a flowchart showing processing for performing a defect inspection in addition to the processing shown in FIG.
The inspection contents will be described in order according to FIG. First, a local omnifocal template image used for matching processing performed later is created and stored in the template image storage unit 52 (step S31).
The local omnifocal template image may be created from the 3D CAD data of the part, or a good sample product may be imaged to generate a local omnifocal image from the image data, thereby forming a local omnifocal template image.
And the process similar to the process to FIG.14 S1-step S23 is performed, and a local omnifocal image is acquired (step S33).
Next, a matching process is performed using the local omnifocal template images stored in the local omnifocal image storage unit 42 and the template image storage unit 52 (step S35).
Further, a defect judgment criterion (for example, a preset correlation degree threshold value) for the matching result is acquired (step S37), defect determination is performed from the matching result and the defect determination criterion (step S39), and the determination result is used as the inspection result. Store in the storage unit 53.
If the stored inspection result satisfies the criteria, a component recognition process that is the same process as step S25 described above is performed (step S41). If the inspection result does not satisfy the standard, the host controller 120 is notified of the failure and the electronic component C is not mounted.

(電子部品実装装置の技術的効果)
電子部品実装装置100は、その画像処理装置10が全画素について焦点が合っている状態の一定の高さ範囲内の局所全焦点画像データとを得ることができるので、これにより、電子部品Cの位置、姿勢、特徴形状などを画像処理で求める場合に、その処理精度を向上させることが可能となる。また、撮像エリアの一部の範囲内となる局所全焦点画像データを生成するので、その後の画像処理において、処理負担を軽減し、処理の高速化を図ることが可能となる。
(Technical effects of electronic component mounting equipment)
The electronic component mounting apparatus 100 can obtain local omnifocal image data within a certain height range in a state where the image processing apparatus 10 is in focus for all pixels. When the position, orientation, feature shape, and the like are obtained by image processing, the processing accuracy can be improved. In addition, since local omnifocal image data that falls within a part of the imaging area is generated, it is possible to reduce the processing load and increase the processing speed in the subsequent image processing.

また、画像処理装置10の高さ算出部23が、平滑化されたコントラストに対して閾値を設定し、閾値を超える範囲で高さデータを生成するので、不要となる背景画像などを処理対象から除外することができ、その結果、高さ算出部23以降の処理について処理負担を軽減し、また、処理時間を短縮することが可能となる。   Further, since the height calculation unit 23 of the image processing apparatus 10 sets a threshold value for the smoothed contrast and generates height data in a range exceeding the threshold value, an unnecessary background image or the like is processed from the processing target. As a result, it is possible to reduce the processing load for the processing after the height calculation unit 23 and to shorten the processing time.

さらに、画像処理装置10で撮られた画像により局所全焦点画像データを生成し、局所全焦点テンプレート画像とのマッチング処理のみで、3次元の形状の検査が比較的容易に且つ軽微な処理負担で行うことが可能になる。   Furthermore, local omnifocal image data is generated from an image taken by the image processing apparatus 10, and a three-dimensional shape inspection is relatively easy and with a light processing burden only by matching processing with a local omnifocal template image. It becomes possible to do.

(その他)
画像処理装置10の局所全焦点画像生成部41は、全焦点画像生成部25が生成した全焦点画像データに基づいて局所全焦点画像データを生成しているが、これに限定されない。
即ち、局所全焦点画像生成部41は、高さデータ記憶部31を参照し、合焦点位置が予め設定した範囲内の高さとなる画素の座標情報を取得すると共に、これらの画素について、高さ画像データに含まれる各画素の合焦点位置に合致又は最も近似する画像データの同一画素における輝度値を画像記憶部12から読み出して各画素における輝度値とすることで、局所全焦点画像データを生成しても良い。
これにより、全焦点画像生成部25を介することなく局所全焦点画像データを生成可能となり、全焦点画像生成部25を省略し、構成の簡略化を図ることが可能となる。
(Other)
The local omnifocal image generation unit 41 of the image processing apparatus 10 generates local omnifocal image data based on the omnifocal image data generated by the omnifocal image generation unit 25, but is not limited thereto.
That is, the local omnifocal image generation unit 41 refers to the height data storage unit 31 and acquires the coordinate information of the pixels whose in-focus position is within a preset range, and the heights of these pixels are the height. Local omnifocal image data is generated by reading out from the image storage unit 12 the luminance value at the same pixel of the image data that matches or most closely approximates the focal point position of each pixel included in the image data, and uses it as the luminance value at each pixel. You may do it.
Accordingly, local omnifocal image data can be generated without going through the omnifocal image generation unit 25, and the omnifocal image generation unit 25 can be omitted to simplify the configuration.

また、電子部品実装装置100では、吸着ノズル105を部品配置部として、当該吸着ノズル105に吸着された電子部品Cの撮像を行い、その画像データに基づいて全焦点画像データ及び局所全焦点画像データを生成し、電子部品Cの各種情報の取得を行っているが、その他の状態での電子部品Cの撮像を行い、その撮像画像から全焦点画像データ及び局所全焦点画像データを生成することも可能である。
例えば、図16に示すように、部品配置部としてのステージ201と、上方からステージ201上の電子部品Cを撮像可能な撮像装置202と、ステージ201又は撮像装置202を昇降可能とする昇降装置(図示略)とを設け、ステージ201上に電子部品Cを載置した状態で相互間距離を変えながら上方から撮像装置202により撮像を行って、高さの異なる複数の画像データを取得し、当該各画像データから全焦点画像データ及び局所全焦点画像データを生成しても良い。
例えば、このような構成を電子部品実装装置100に設けることにより、吸着ノズル105に吸着する前の電子部品Cにおける外形、向きなどの情報を得ることが可能である。
Further, in the electronic component mounting apparatus 100, the electronic component C picked up by the suction nozzle 105 is picked up using the suction nozzle 105 as a component placement unit, and omnifocal image data and local omnifocal image data are based on the image data. The electronic component C is acquired and various types of information are acquired. However, the electronic component C may be imaged in other states, and omnifocal image data and local omnifocal image data may be generated from the captured image. Is possible.
For example, as shown in FIG. 16, a stage 201 as a component placement unit, an imaging device 202 that can image an electronic component C on the stage 201 from above, and a lifting device that can move the stage 201 or the imaging device 202 up and down ( (Not shown in the figure), and taking an image with the imaging device 202 from above while changing the distance between the electronic components C on the stage 201 to obtain a plurality of image data having different heights. You may produce | generate omnifocal image data and local omnifocal image data from each image data.
For example, by providing such a configuration in the electronic component mounting apparatus 100, it is possible to obtain information such as the outer shape and orientation of the electronic component C before being sucked by the suction nozzle 105.

また、図16に示すステージ201は昇降を行わずに固定し、撮像装置202を昇降可能として、ステージ201を上方から撮像することも可能である。   In addition, the stage 201 shown in FIG. 16 can be fixed without moving up and down, and the imaging apparatus 202 can be moved up and down, and the stage 201 can be imaged from above.

1 撮像装置(撮像手段)
10 画像処理装置
23 高さ算出部(測距処理部)
25 全焦点画像生成部
41 局所全焦点画像生成部
51 不良検査部
52 テンプレート画像記憶部
100 電子部品実装装置
105 吸着ノズル(部品配置部)
106 ヘッド
111 Z軸モータ(可動部)
120 ホストコントローラ(撮像制御部)
201 ステージ(部品配置部)
202 撮像装置(撮像手段)
C 電子部品
S 基板
H 局所全焦点画像生成範囲
1 Imaging device (imaging means)
10 Image processing device 23 Height calculation unit (ranging processing unit)
25 omnifocal image generation unit 41 local omnifocal image generation unit 51 defect inspection unit 52 template image storage unit 100 electronic component mounting apparatus 105 suction nozzle (component arrangement unit)
106 Head 111 Z-axis motor (movable part)
120 Host controller (imaging controller)
201 stage (part placement section)
202 Imaging device (imaging means)
C Electronic component S Substrate H Local omnifocal image generation range

Claims (3)

電子部品が配置される部品配置部と、
前記部品配置部に配置された電子部品を撮像する撮像手段と、
前記部品配置部と前記撮像手段との距離を可動調節する可動部と、
前記可動部及び撮像手段を制御して、前記電子部品について前記部品配置部と前記撮像手段の距離が異なる複数の画像データを取得する撮像制御部と、
前記複数の画像データの撮像範囲内の複数の画素の各々について、前記複数の画像データの同一画素におけるコントラストの対比に基づいて、当該各画素における前記撮像手段から前記部品配置部の合焦点位置を求める測距処理部と、
前記撮像手段による撮像エリア内の前記各画素における合焦点位置と、前記複数の画像データにおける前記各画素の輝度値とから、前記撮像エリアの一部範囲内の画素における合焦点位置での輝度値を求め、当該合焦点位置での輝度値からなる局所全焦点画像を生成する局所全焦点画像生成部とを備えることを特徴とする電子部品実装装置。
A component placement section where electronic components are placed;
Imaging means for imaging the electronic component arranged in the component arrangement unit;
A movable part that movably adjusts the distance between the component placement part and the imaging means;
An imaging control unit that controls the movable unit and the imaging unit to obtain a plurality of image data with different distances between the component placement unit and the imaging unit for the electronic component;
For each of the plurality of pixels within the imaging range of the plurality of image data, based on the contrast of the contrast of the plurality of image data in the same pixel, the in-focus position of the component placement unit is determined from the imaging unit in each pixel. A ranging processing unit to be obtained;
The brightness value at the in-focus position in the pixels within a partial range of the imaging area from the in-focus position at each pixel in the imaging area by the imaging means and the brightness value of each pixel in the plurality of image data And a local omnifocal image generation unit that generates a local omnifocal image composed of luminance values at the in-focus position.
前記コントラスト又は前記合焦点位置に対してその範囲に制限を設けることで前記局所全焦点画像を生成することを特徴とする請求項1記載の電子部品実装装置。   The electronic component mounting apparatus according to claim 1, wherein the local omnifocal image is generated by limiting a range of the contrast or the in-focus position. 電子部品の前記局所全焦点画像のテンプレート画像である局所全焦点テンプレート画像の画像データを記憶するテンプレート画像記憶部と、
前記局所全焦点画像生成部で生成した前記局所全焦点画像が局所全焦点テンプレート画像と合致しているかの判断に基づいて部品不良か否かを判定する不良検査部とを備えることを特徴とする請求項1又は2記載の電子部品実装装置。
A template image storage unit that stores image data of a local omnifocal template image that is a template image of the local omnifocal image of an electronic component;
A defect inspection unit that determines whether or not the component is defective based on a determination as to whether the local omnifocal image generated by the local omnifocal image generation unit matches the local omnifocal template image. The electronic component mounting apparatus according to claim 1 or 2.
JP2011125156A 2010-06-15 2011-06-03 Electronic component mounting equipment Active JP5759271B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011125156A JP5759271B2 (en) 2010-06-15 2011-06-03 Electronic component mounting equipment
CN201110166033.XA CN102364297B (en) 2010-06-15 2011-06-15 Electronic component mounting apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010135750 2010-06-15
JP2010135750 2010-06-15
JP2011125156A JP5759271B2 (en) 2010-06-15 2011-06-03 Electronic component mounting equipment

Publications (2)

Publication Number Publication Date
JP2012023340A JP2012023340A (en) 2012-02-02
JP5759271B2 true JP5759271B2 (en) 2015-08-05

Family

ID=45777313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011125156A Active JP5759271B2 (en) 2010-06-15 2011-06-03 Electronic component mounting equipment

Country Status (1)

Country Link
JP (1) JP5759271B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6031265B2 (en) * 2012-06-15 2016-11-24 Juki株式会社 Parts inspection device
JP6147971B2 (en) * 2012-08-30 2017-06-14 Juki株式会社 Image processing apparatus and image processing method
JP6615438B2 (en) * 2014-07-14 2019-12-04 キヤノンマシナリー株式会社 Model registration method and model registration apparatus
JP6457245B2 (en) * 2014-11-11 2019-01-23 Juki株式会社 Electronic component mounting equipment
JP6670590B2 (en) * 2015-11-05 2020-03-25 Juki株式会社 Image generation device, mounting device, and image generation method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002057500A (en) * 2000-08-15 2002-02-22 Nidec Copal Corp Method for recognizing electronic component
JP2002310618A (en) * 2001-04-19 2002-10-23 Murata Mfg Co Ltd Size measurement device, size measurement method and inspection device for electronic component
JP3977668B2 (en) * 2002-03-01 2007-09-19 ヤマハ発動機株式会社 Component mounting equipment
JP4847295B2 (en) * 2006-11-20 2011-12-28 オリンパス株式会社 Confocal microscope

Also Published As

Publication number Publication date
JP2012023340A (en) 2012-02-02

Similar Documents

Publication Publication Date Title
JP5588331B2 (en) 3D shape recognition device
JP5759271B2 (en) Electronic component mounting equipment
KR102018070B1 (en) Component mounting device and component mounting method
JP5385010B2 (en) Electronic component mounting equipment
CN102364297B (en) Electronic component mounting apparatus
JP6522735B2 (en) Component mounting machine
JP6571163B2 (en) Recognition device
JP2011066041A (en) Electronic component mounting device
EP3281219A1 (en) Apparatus, method and computer program product for inspection of at least side faces of semiconductor devices
JP2005072046A (en) Apparatus for packaging electronic component
JPWO2017081773A1 (en) Image processing apparatus and image processing method for substrate
JP5296749B2 (en) Component recognition device and surface mounter
JP5302925B2 (en) Component mounting apparatus and component mounting method
JP6413648B2 (en) Measurement system, object extraction system, measurement method and program
JP6147971B2 (en) Image processing apparatus and image processing method
US7032299B2 (en) Apparatus for mounting electronic parts
JP6110167B2 (en) Die recognition means, die recognition method and die bonder
CN108886887B (en) Substrate working apparatus and component mounting apparatus
CN106937525B (en) Image generation device, installation device, and image generation method
JP2005340648A (en) Part recognition method, part recognition apparatus, surface mounter, and part inspection apparatus
JP2009212373A (en) Component mounting apparatus
JP2011044591A (en) Electronic component mounting device and suction position correction method therefor
WO2016143059A1 (en) Mounting device, image processing method and imaging unit
JP6507206B2 (en) Component mounting apparatus and component mounting method
JP2010282536A (en) Image processing method and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R150 Certificate of patent or registration of utility model

Ref document number: 5759271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150