JP2006208186A - Shape acceptable/unacceptable determining device and shape acceptable/unacceptable determining method - Google Patents

Shape acceptable/unacceptable determining device and shape acceptable/unacceptable determining method Download PDF

Info

Publication number
JP2006208186A
JP2006208186A JP2005020347A JP2005020347A JP2006208186A JP 2006208186 A JP2006208186 A JP 2006208186A JP 2005020347 A JP2005020347 A JP 2005020347A JP 2005020347 A JP2005020347 A JP 2005020347A JP 2006208186 A JP2006208186 A JP 2006208186A
Authority
JP
Japan
Prior art keywords
estimated
feature value
shape
defective product
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005020347A
Other languages
Japanese (ja)
Other versions
JP4583189B2 (en
Inventor
Yasuhiro Kudo
康博 工藤
Yuya Uda
祐也 宇陀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Electric Works Co Ltd
Original Assignee
Nagoya Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Electric Works Co Ltd filed Critical Nagoya Electric Works Co Ltd
Priority to JP2005020347A priority Critical patent/JP4583189B2/en
Publication of JP2006208186A publication Critical patent/JP2006208186A/en
Application granted granted Critical
Publication of JP4583189B2 publication Critical patent/JP4583189B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a shape acceptable/unacceptable determining device and shape acceptable/unacceptable determining method which determine the shape acceptance/unacceptance without preparing a sample for teaching in advance. <P>SOLUTION: The feature value F of a defective of feature values F and G is calculated from an estimated image 33b produced by estimation instead of an actually picked up image 33a, so that it is not required that many defectives are produced intentionally and actually picked up. Labor hour and cost for collecting the feature values F of the defectives are eliminated. The shape data 34d showing the shapes of the defectives can be produced infinitely within the range of the defectives. The feature values F calculated on the basis of the shape data 34d can be infinitely prepared thereby. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、検査対象の形状の良否を判定する形状良否判定装置および形状良否判定方法に関する。   The present invention relates to a shape pass / fail determination device and a shape pass / fail determination method for determining pass / fail of a shape to be examined.

従来、この種の形状良否判定装置として、予め欠陥が形成された教示用の基板を撮影し、その画像データから複数の特徴値を算出しておくものが知られている(例えば、特許文献1、参照。)。
かかる構成によれば、欠陥を有する基板を撮像した画像データの特徴値と、製品基板を撮像した画像データから得られる特徴値とを判別関数を利用して比較することができるため、製品基板を撮像した画像データと欠陥を有する基板を撮像した画像データとの類似性を判断することができた。すなわち、製品基板を撮像した画像データと欠陥を有する基板を撮像した画像データとの類似性が強い場合には、当該製品基板が欠陥を有していると判定することができ、製品基板を撮像した画像データと欠陥を有する基板を撮像した画像データとの類似性が弱い場合には当該製品基板が良品であると判定することが可能であった。
特開平11−344450号公報
2. Description of the Related Art Conventionally, as this kind of shape pass / fail judgment device, a device for photographing a teaching board on which a defect is formed in advance and calculating a plurality of feature values from the image data is known (for example, Patent Document 1). ,reference.).
According to this configuration, the feature value of the image data obtained by imaging the substrate having a defect and the feature value obtained from the image data obtained by imaging the product substrate can be compared using the discriminant function. It was possible to determine the similarity between the captured image data and the image data captured of the substrate having a defect. That is, when the similarity between the image data obtained by imaging a product substrate and the image data obtained by imaging a substrate having a defect is strong, it can be determined that the product substrate has a defect, and the product substrate is imaged. When the similarity between the obtained image data and the image data obtained by imaging the substrate having a defect is weak, it is possible to determine that the product substrate is a non-defective product.
JP 11-344450 A

上述した従来の形状良否判定装置においては、予め欠陥が形成された教示用の基板を撮影しておかなければならず、良否判定を実行する前に欠陥を有する教示用の基板を用意しておく必要があった。しかし、製品基板の歩留まりがよければ、欠陥を有する基板が作成されることは稀であり、作為的に欠陥を有する基板を作成しなければならなかった。従って、作為的に欠陥を有する基板を作成するための手間とコストが無駄となっていた。また、統計的に信頼性の高い判別関数を算出するためには大量の教示用基板を用意しなければならず、手間とコストを増大させるという問題もあった。さらに、欠陥が発生する要因が明らかでない場合には、作為的に欠陥のある基板を作成することすらできないという問題もあった。
本発明は、上記課題にかんがみてなされたもので、予め教示用のサンプルを作成しなくて良否判定が実行できる形状良否判定装置の提供を目的とする。
In the conventional shape pass / fail judgment device described above, a teaching board on which a defect is formed must be photographed in advance, and a teaching board having a defect is prepared before the pass / fail judgment is performed. There was a need. However, if the yield of the product substrate is good, a substrate having a defect is rarely produced, and a substrate having a defect must be created intentionally. Therefore, the effort and cost for creating a substrate having a defect intentionally has been wasted. In addition, in order to calculate a statistically reliable discriminant function, a large number of teaching boards must be prepared, which increases the labor and cost. Furthermore, if the cause of the defect is not clear, there is a problem that even a defective substrate cannot be created intentionally.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a shape pass / fail judgment apparatus capable of executing pass / fail judgment without preparing a teaching sample in advance.

上記目的を達成するため、請求項1にかかる発明では、検査対象物を撮像して撮像イメージを生成する撮像手段と、上記撮像イメージの特徴値を実特徴値として算出する実特徴値算出手段と、良品または不良品の形状を表す3次元データを取得する形状データ取得手段と、上記3次元データに基づいて上記良品または不良品を撮像したときの上記撮像イメージを推定した推定イメージを生成する推定手段と、同推定された上記推定イメージの上記特徴値を推定特徴値として算出する推定特徴値算出手段と、上記実特徴値と上記推定特徴値とを比較することにより上記検査対象物の良否判定を行う良否判定手段とを具備する構成としてある。   In order to achieve the above object, according to the first aspect of the present invention, an imaging means for imaging an inspection object and generating a captured image, an actual feature value calculating means for calculating a feature value of the captured image as an actual feature value, and , Shape data acquisition means for acquiring three-dimensional data representing the shape of a non-defective product or a defective product, and estimation for generating an estimated image obtained by estimating the captured image when the good product or defective product is imaged based on the three-dimensional data Means for calculating the feature value of the estimated image estimated as the estimated feature value; and comparing the actual feature value with the estimated feature value to determine pass / fail of the inspection object. And a pass / fail judgment means for performing the above.

上記のように構成した請求項1の発明において、撮像手段は検査対象物を撮像することにより、撮像イメージを生成する。実特徴値算出手段は、上記撮像イメージから同撮像イメージについての特徴値を実特徴値として算出する。形状データ取得手段は、良品または不良品の形状を表す3次元データを取得する。そして、この3次元データに基づいて、推定手段が上記良品または不良品の撮像イメージを推定することにより、推定イメージを生成する。   In the invention of claim 1 configured as described above, the imaging means generates a captured image by imaging the inspection object. The actual feature value calculation means calculates a feature value for the captured image from the captured image as an actual feature value. The shape data acquisition means acquires three-dimensional data representing the shape of a non-defective product or a defective product. Then, based on the three-dimensional data, the estimation unit estimates the captured image of the non-defective product or the defective product, thereby generating an estimated image.

さらに、推定特徴値算出手段は、上記良品または不良品についての上記推定イメージの特徴値を推定特徴値として算出する。良否判定手段は、上記実特徴値と上記推定特徴値とを比較することにより上記検査対象物の良否判定を行う。すなわち、上記良品の形状を表す3次元データに基づく上記推定特徴値に上記検査対象物を撮像して得られた上記実特徴値が近似していれば、当該検査対象物は良品であるということができる。逆に、上記不良品の形状を表す3次元データに基づく上記推定特徴値に上記検査対象物を撮像して得られた上記実特徴値が近似していれば、当該検査対象物は不良品であるということができる。   Further, the estimated feature value calculating means calculates the estimated image feature value for the non-defective product or the defective product as an estimated feature value. The pass / fail judgment means judges pass / fail of the inspection object by comparing the actual feature value with the estimated feature value. That is, if the actual feature value obtained by imaging the inspection object approximates the estimated feature value based on the three-dimensional data representing the shape of the non-defective product, the inspection object is a non-defective product. Can do. Conversely, if the actual feature value obtained by imaging the inspection object approximates the estimated feature value based on the three-dimensional data representing the shape of the defective product, the inspection object is a defective product. It can be said that there is.

かかる構成によれば、上記良品または不良品を実際に撮像しなくても上記推定特徴値を得ることができ、同推定特徴値を利用して良否判定を行うことができる。従って、上記良品または不良品を実体的に作成する必要がなくて済むため、同良品または不良品を作成するための手間とコストをなくすことができる。   According to such a configuration, the estimated feature value can be obtained without actually imaging the non-defective product or the defective product, and the quality determination can be performed using the estimated feature value. Therefore, since it is not necessary to actually create the non-defective product or the defective product, it is possible to eliminate the labor and cost for creating the non-defective product or the defective product.

さらに、請求項2にかかる発明では、上記撮像手段は、上記検査対象物を経由して入射される電磁波の状態を位置ごとに取得することにより上記撮像イメージを生成するとともに、上記推定手段は、上記撮像手段が上記検査対象物を撮像する際に同検査対象物に入射する上記電磁波の入射角度を取得する入射角度取得手段と、上記3次元データと上記入射角度に基づいて、上記電磁波が上記良品または不良品に到達する際の挙動を推定する挙動推定手段と、上記挙動に基づいて上記撮像手段に到達する上記電磁波の状態を推定する到達状態推定手段と、上記撮像手段に到達する上記電磁波の状態を示す値を位置ごとに配列させることにより上記推定イメージを生成する推定イメージ生成手段とを具備する構成としてある。   Furthermore, in the invention according to claim 2, the imaging unit generates the captured image by acquiring the state of the electromagnetic wave incident via the inspection object for each position, and the estimating unit includes: Based on the incident angle acquisition means for acquiring the incident angle of the electromagnetic wave incident on the inspection object when the imaging means images the inspection object, the electromagnetic wave is based on the three-dimensional data and the incident angle. Behavior estimating means for estimating behavior when reaching a non-defective product or a defective product, arrival state estimating means for estimating the state of the electromagnetic wave reaching the imaging means based on the behavior, and the electromagnetic wave reaching the imaging means And an estimated image generating means for generating the estimated image by arranging values indicating the state of each position for each position.

上記のように構成した請求項2の発明において、上記撮像手段は、上記検査対象物を経由して入射される電磁波の状態を位置ごとに取得することにより撮像イメージを生成する。すなわち、上記検査対象物を経由して入射される電磁波には、上記検査対象物の特徴が反映されるため、同電磁波の状態を位置ごとに取得することにより、同検査対象物の特徴が表現された撮像イメージを生成することができる。例えば、上記検査対象物にて反射させた可視光を上記撮像手段としてのカメラにて入力することにより、同検査対象物の特徴が反映された反射イメージを生成することができる。むろん、上記電磁波が上記検査対象物を透過して上記撮像手段に入射する場合であっても、同検査対象物の特徴が反映された反射イメージを生成できることはいうまでもない。   In the invention of claim 2 configured as described above, the imaging unit generates a captured image by acquiring the state of the electromagnetic wave incident via the inspection object for each position. In other words, since the characteristics of the inspection object are reflected in the electromagnetic wave incident through the inspection object, the characteristics of the inspection object are expressed by acquiring the state of the electromagnetic wave for each position. The captured image can be generated. For example, by inputting visible light reflected by the inspection object with a camera as the imaging means, a reflected image reflecting the characteristics of the inspection object can be generated. Of course, even when the electromagnetic wave passes through the inspection object and enters the imaging means, it is needless to say that a reflected image reflecting the characteristics of the inspection object can be generated.

一方、入射角度取得手段は、上記撮像手段が上記検査対象物を撮像する際に同検査対象物に入射される電磁波の入射角度を取得する。挙動推定手段は、上記電磁波が上記良品または不良品に到達する際の挙動を推定する。すなわち、上記電磁波が上記良品または不良品に到達した場合を想定し、そのときの挙動を推定する。例えば、上記電磁波が上記良品または不良品に到達したときの挙動として、反射や透過や屈折や散乱や回折等が推定される。上記挙動推定手段は、上記入射角度と、上記3次元データから上記良品または不良品の形状とを取得するため、これらから上記電磁波が上記良品または不良品に到達したときの挙動を推定することができる。   On the other hand, the incident angle acquisition means acquires the incident angle of the electromagnetic wave incident on the inspection object when the imaging means images the inspection object. The behavior estimation means estimates a behavior when the electromagnetic wave reaches the non-defective product or the defective product. That is, assuming the case where the electromagnetic wave reaches the non-defective product or the defective product, the behavior at that time is estimated. For example, reflection, transmission, refraction, scattering, diffraction, and the like are estimated as the behavior when the electromagnetic wave reaches the non-defective product or the defective product. Since the behavior estimation means acquires the incident angle and the shape of the non-defective product or defective product from the three-dimensional data, the behavior when the electromagnetic wave reaches the good product or defective product can be estimated from these. it can.

また、上記電磁波は、電波と光(赤外光,紫外光,可視光)とX線とγ線等の種々の波長のものを適用することができる。上記電磁波の波長によっては上記良品または不良品に到達したときの挙動が大きく異なることとなる。さらに、上記良品または不良品の物性等によっても上記良品または不良品に到達したときの挙動が大きく異なることとなる。従って、上記挙動推定手段は、上記入射角度と上記良品または不良品の形状のみならず、以上のような他の挙動変動要因を取得し、これらから上記電磁波が上記良品または不良品に到達したときの挙動を推定する。   Moreover, the said electromagnetic waves can apply the thing of various wavelengths, such as an electromagnetic wave, light (infrared light, ultraviolet light, visible light), an X-ray, and a gamma ray. Depending on the wavelength of the electromagnetic wave, the behavior when the non-defective product or the defective product is reached varies greatly. Furthermore, depending on the physical properties of the non-defective product or the defective product, the behavior when the non-defective product or the defective product is reached varies greatly. Therefore, the behavior estimation means acquires not only the incident angle and the shape of the non-defective product or defective product, but also other behavior fluctuation factors as described above, and when the electromagnetic wave reaches the non-defective product or defective product. Estimate the behavior of

到達状態推定手段は、推定された上記挙動に基づいて上記撮像手段に到達する上記電磁波の状態を推定する。すなわち、上記良品または不良品に到達したときの上記電磁波の挙動が得られるため、同良品または不良品を経由した上記電磁波が上記撮像手段に到達する状態を推定することができる。例えば、上記良品または不良品に到達したときの上記電磁波の挙動が上記撮像手段と異なる方向への反射なのであれば、同反射した上記電磁波が同撮像手段に到達しないという到達状態を推定することができる。反対に、上記良品または不良品に到達したときの上記電磁波の挙動が上記撮像手段に向かう方向への反射なのであれば、同反射した上記電磁波が同撮像手段にどれくらい到達するかという到達状態を推定することができる。さらに、推定イメージ生成手段は、上記撮像手段に到達する上記電磁波の状態を示す値を位置ごとに配列させることにより上記推定イメージを生成する。それぞれが上記電磁波の状態を示す値を有する複数の画素データで構成される上記推定イメージを生成することができる。   The arrival state estimation unit estimates the state of the electromagnetic wave reaching the imaging unit based on the estimated behavior. That is, since the behavior of the electromagnetic wave when it reaches the non-defective product or the defective product is obtained, it is possible to estimate the state where the electromagnetic wave that has passed through the non-defective product or the defective product reaches the imaging means. For example, if the behavior of the electromagnetic wave when reaching the non-defective product or the defective product is reflection in a direction different from that of the imaging unit, it is possible to estimate a reaching state in which the reflected electromagnetic wave does not reach the imaging unit. it can. On the other hand, if the behavior of the electromagnetic wave when it reaches the non-defective product or the defective product is a reflection in the direction toward the imaging means, the estimated state of how much the reflected electromagnetic wave reaches the imaging means is estimated. can do. Further, the estimated image generation means generates the estimated image by arranging values indicating the state of the electromagnetic wave reaching the imaging means for each position. The estimated image composed of a plurality of pixel data each having a value indicating the state of the electromagnetic wave can be generated.

さらに、請求項3にかかる発明では、上記挙動推定手段は、上記電磁波が上記良品または不良品に到達する際の反射挙動を推定する構成としてある。 上記のように構成した請求項3の発明において、上記電磁波が上記良品または不良品に到達する際の反射挙動が上記挙動推定手段によって推定される。すなわち、上記撮像手段によって上記検査対象物の撮像反射イメージが撮像される場合において、これと比較可能な上記良品または不良品の推定反射イメージを生成することができる。   Furthermore, in the invention concerning Claim 3, the said behavior estimation means is set as the structure which estimates the reflective behavior at the time of the said electromagnetic wave reaching | attaining the said non-defective product or a defective product. In the invention of claim 3 configured as described above, a reflection behavior when the electromagnetic wave reaches the non-defective product or the defective product is estimated by the behavior estimating means. That is, when the imaging reflection image of the inspection object is imaged by the imaging means, it is possible to generate an estimated reflection image of the good product or the defective product that can be compared with this.

さらに、請求項4にかかる発明では、上記挙動推定手段が上記反射挙動を推定するにあたり、鏡面反射と拡散反射とが考慮される構成としてある。
上記のように構成した請求項4の発明において、鏡面反射と拡散反射の双方を考慮した上記反射挙動を推定することができる。
Further, the invention according to claim 4 is configured such that specular reflection and diffuse reflection are taken into account when the behavior estimation means estimates the reflection behavior.
In the invention of claim 4 configured as described above, it is possible to estimate the reflection behavior in consideration of both specular reflection and diffuse reflection.

また、請求項5にかかる発明では、形状データ取得手段は、上記良品または不良品の形状にばらつきを持たせた複数の3次元データを取得する構成としてある。
上記のように構成した請求項5の発明において、形状データ取得手段が上記良品または不良品の形状にばらつきを持たせた複数の3次元データを取得するため、形状のばらつきを考慮した上記推定特徴値を算出することができる。従って、上記良否判定手段が統計的手法により上記実特徴値と上記推定特徴値とを比較して良否判定を行う場合には、信頼性を向上させることができる。むろん、上記推定特徴値の度数も容易に増大させることができるため、統計的信頼性をより向上させることができる。
In the invention according to claim 5, the shape data obtaining means obtains a plurality of three-dimensional data in which the shapes of the non-defective product or the defective product are varied.
In the invention of claim 5 configured as described above, since the shape data acquisition means acquires a plurality of three-dimensional data in which the shape of the non-defective product or the defective product has a variation, the estimation feature considering the variation of the shape A value can be calculated. Therefore, reliability can be improved when the pass / fail determination means performs pass / fail determination by comparing the actual feature value and the estimated feature value by a statistical method. Of course, since the frequency of the estimated feature value can be easily increased, the statistical reliability can be further improved.

また、請求項6にかかる発明では、上記実特徴値算出手段と上記推定特徴値算出手段は、上記撮像イメージと上記推定イメージから多種の上記実特徴値と上記推定特徴値を算出するとともに、上記良否判定手段は、多種の上記実特徴値と上記推定特徴値をそれぞれ線形結合させた判別値を比較することにより良否判定を行う構成としてある。
上記のように構成した請求項6の発明において、上記実特徴値算出手段と上記推定特徴値算出手段によって上記撮像イメージと上記推定イメージから多種の上記実特徴値と上記推定特徴値が算出される。そして、上記良否判定手段は、多種の上記実特徴値を線形結合させた判別値と、多種の上記推定特徴値を線形結合させた判別値を比較することにより良否判定を行う。単一種の上記実特徴値と上記推定特徴値のみでは正確な良否判定を行うことができない場合に、多種の上記実特徴値と上記推定特徴値を利用して正確に良否判定を行うことができる。多種の上記実特徴値と上記推定特徴値をそれぞれ線形結合する際の係数は、公知の多変量解析手法を用いて最適化することができる。
In the invention according to claim 6, the actual feature value calculating means and the estimated feature value calculating means calculate various actual feature values and estimated feature values from the captured image and the estimated image, and The pass / fail determination means is configured to perform pass / fail determination by comparing discriminant values obtained by linearly combining the various actual feature values and the estimated feature values.
In the invention of claim 6 configured as described above, various actual feature values and estimated feature values are calculated from the captured image and the estimated image by the actual feature value calculating means and the estimated feature value calculating means. . Then, the pass / fail determination means performs pass / fail determination by comparing a discriminant value obtained by linearly combining various actual feature values with a discriminant value obtained by linearly combining various estimated feature values. When it is not possible to make an accurate pass / fail judgment using only a single type of the actual feature value and the estimated feature value, it is possible to make an accurate pass / fail judgment using the various actual feature values and the estimated feature value. . The coefficients for linearly combining the various actual feature values and the estimated feature values can be optimized using a known multivariate analysis technique.

また、上述した装置は、かかる装置を実現する方法としても適用可能であり、請求項7にかかる発明においても、基本的には同様の作用となる。むろん、請求項2〜請求項6に記載された構成を請求項7の方法に対応させることも可能である。     The above-described device can also be applied as a method for realizing such a device, and the invention according to claim 7 has basically the same operation. Of course, it is also possible to make the structure described in claims 2 to 6 correspond to the method of claim 7.

以上説明したように、請求項1および請求項7にかかる発明によれば、予め教示用のサンプルを作成しなくて良否判定が実行できる形状良否判定装置および形状良否判定方法を提供することができる。
請求項2にかかる発明によれば、電磁波の挙動から推定イメージを推定することができる。
請求項3にかかる発明によれば、検査対象物の反射像を推定することができる。
請求項4にかかる発明によれば、反射像を正確に推定することができる。
請求項5にかかる発明によれば、良否判定を正確に行うことができる。
請求項6にかかる発明によれば、誤判定を防止することができる。
As described above, according to the first and seventh aspects of the invention, it is possible to provide a shape quality determination device and a shape quality determination method that can execute a quality determination without preparing a teaching sample in advance. .
According to the second aspect of the present invention, the estimated image can be estimated from the behavior of the electromagnetic wave.
According to the invention of claim 3, it is possible to estimate a reflected image of the inspection object.
According to the invention of claim 4, the reflected image can be estimated accurately.
According to the fifth aspect of the present invention, the quality determination can be performed accurately.
According to the sixth aspect of the invention, erroneous determination can be prevented.

ここでは、下記の順序に従って本発明の実施形態について説明する。
(1)形状良否判定装置の構成:
(2)不良データ蓄積処理:
(3)良データ蓄積処理:
(4)判別関数について:
(5)良否判定処理:
(6)変形例:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of shape pass / fail judgment device:
(2) Defect data accumulation processing:
(3) Good data storage processing:
(4) About discriminant function:
(5) Pass / fail judgment processing:
(6) Modification:

(1)形状良否判定装置の構成:
図1は、本発明にかかる形状良否判定装置の構成を示している。同図において、形状良否判定装置10は、相互に接続された撮像ユニット20とコンピュータ30とから構成されている。撮像ユニット20は検査対象物の実装基板50を撮像して撮像イメージを生成し、同撮像イメージをコンピュータ30に出力する。コンピュータ30は撮像イメージを入力し、同撮像イメージを解析することにより、撮像を行った実装基板50の良否を判定する。図1において、撮像ユニット20は、実装基板50が一定位置に載置されるとともに、コントローラ21の指令に基づいてX−Y(水平)方向に移動可能なX−Yステージ23を備えている。カメラ22は、所定の光学レンズからなる光学系22aを鉛直下方に配向させており、鉛直下方の像を入力することが可能となっている。カメラ22の内部にはCCD撮像板22bが備えられており、光学系22aは鉛直下方の像をCCD撮像板22bに結像することが可能となっている。
(1) Configuration of shape pass / fail judgment device:
FIG. 1 shows the configuration of a shape pass / fail judgment apparatus according to the present invention. In the figure, the shape pass / fail judgment apparatus 10 is composed of an imaging unit 20 and a computer 30 which are connected to each other. The imaging unit 20 images the mounting board 50 of the inspection object to generate a captured image, and outputs the captured image to the computer 30. The computer 30 inputs the captured image and analyzes the captured image to determine whether the mounted substrate 50 that has captured the image is acceptable. In FIG. 1, the imaging unit 20 includes an XY stage 23 on which a mounting board 50 is placed at a fixed position and movable in the XY (horizontal) direction based on a command from the controller 21. The camera 22 has an optical system 22a composed of a predetermined optical lens oriented vertically downward so that an image vertically below can be input. A CCD image pickup plate 22b is provided inside the camera 22, and the optical system 22a can form an image vertically below the CCD image pickup plate 22b.

CCD撮像板22bはドットマトリックス状に配列された複数のCCD撮像素子で構成されている。CCD撮像素子は、それぞれ入力した光に応じて電荷を発生させる光電素子であるとともに、同発生した電荷を一時的に記憶する。そして、CCD撮像素子にて生成した電荷をデジタル信号に変換しつつ、順次コントローラ21に転送する。コントローラ21は、転送された上記デジタル信号をCCD撮像板22bにおけるCCD撮像素子の個々のアドレスに対応づけながら画像メモリ(VRAM)21aに蓄積する。すなわち、VRAM21aにおいてCCD撮像素子に対応する画素ごとに上記デジタル信号の階調を有する画像データが生成される。なお、本実施形態において、上記デジタル信号はCCD撮像素子に入力された光の輝度を表現するものとする。すなわち、画素ごとに輝度値を有する画像データがVRAM21aにおいて記憶される。   The CCD imaging plate 22b is composed of a plurality of CCD imaging elements arranged in a dot matrix. The CCD image sensor is a photoelectric element that generates a charge according to each input light, and temporarily stores the generated charge. The electric charges generated by the CCD image pickup device are sequentially transferred to the controller 21 while being converted into digital signals. The controller 21 stores the transferred digital signal in an image memory (VRAM) 21a while associating it with each address of the CCD image pickup device on the CCD image pickup plate 22b. That is, image data having the gradation of the digital signal is generated for each pixel corresponding to the CCD image sensor in the VRAM 21a. In the present embodiment, the digital signal represents the luminance of light input to the CCD image sensor. That is, image data having a luminance value for each pixel is stored in the VRAM 21a.

上記のようにしてVRAM21aに記憶された画像データはコンピュータ30に対して出力される。また、カメラ22にて撮像を行うごとにVRAM21aには新たな画像データが記憶される。コントローラ21は、X−Yステージ23に対して駆動信号を出力しており、同駆動信号に応じてX−Yステージ23が水平方向に駆動される。むろん、X−Yステージ23上の一定位置に載置された実装基板50も水平移動することとなる。このようにすることにより、カメラ22を移動させることなく、実装基板50上のあらゆる位置にカメラ22の視野を移動させることが可能となる。なお、カメラ22にて撮像する際には、X−Yステージ23が停止するため、静止画像が撮像されることとなる。   The image data stored in the VRAM 21a as described above is output to the computer 30. Further, new image data is stored in the VRAM 21a every time the camera 22 performs imaging. The controller 21 outputs a drive signal to the XY stage 23, and the XY stage 23 is driven in the horizontal direction according to the drive signal. Of course, the mounting board 50 placed at a fixed position on the XY stage 23 also moves horizontally. In this way, the field of view of the camera 22 can be moved to any position on the mounting board 50 without moving the camera 22. Note that when the camera 22 captures an image, the XY stage 23 is stopped, so that a still image is captured.

X−Yステージ23から所定量上方にリングライト24が保持されている。リングライト24は発光素子としてLEDを具備している。このLEDは円環状に形成されており、その中心位置が上方視においてカメラ22の光学系22aの中心位置と一致させられている。すなわち、リングライト24はカメラ22の視野を外側から一定の角度で照射することが可能となっている。なお、カメラ22の視野は、リングライト24の大きさや実装基板50との距離よりも十分に小さいため、視野内におけるリングライト24の入射角度や光量の誤差は無視できるものとする。このようにすることにより、実装基板50のリングライト24による反射像をカメラ22にて撮像した2次元の画像データを生成することができる。なお、カメラ22にて撮像した画像データを撮像イメージというものとする。   A ring light 24 is held above the XY stage 23 by a predetermined amount. The ring light 24 includes an LED as a light emitting element. The LED is formed in an annular shape, and the center position thereof is matched with the center position of the optical system 22a of the camera 22 when viewed from above. That is, the ring light 24 can irradiate the visual field of the camera 22 from the outside at a certain angle. Since the field of view of the camera 22 is sufficiently smaller than the size of the ring light 24 and the distance from the mounting substrate 50, errors in the incident angle and light quantity of the ring light 24 in the field of view can be ignored. By doing so, it is possible to generate two-dimensional image data obtained by capturing the reflection image of the mounting board 50 by the ring light 24 with the camera 22. The image data captured by the camera 22 is referred to as a captured image.

図2は、コンピュータ30の内部構成をブロック図により示している。同図において、コンピュータ30は、主要な構成としてCPU31とRAM32とビデオメモリ(VRAM)33とハードディスク(HDD)34を備えている。CPU31は、HDD34に記憶されたオペレーティングシステム(O/S)34aや良否判定プログラム34b等に基づいた処理を実行させる演算装置であり、同処理を実行する際にRAM32をワークエリアとして使用する。VRAM33は、画像データを記憶するために特化したメモリであり、撮像イメージ33aや推定イメージ33bが記憶される。なお、撮像イメージ33aは、コントローラ21のVRAM21aから転送された画像データである。   FIG. 2 is a block diagram showing the internal configuration of the computer 30. In FIG. 1, a computer 30 includes a CPU 31, a RAM 32, a video memory (VRAM) 33, and a hard disk (HDD) 34 as main components. The CPU 31 is an arithmetic unit that executes processing based on an operating system (O / S) 34a, a pass / fail determination program 34b, and the like stored in the HDD 34, and uses the RAM 32 as a work area when executing the processing. The VRAM 33 is a memory specialized for storing image data, and stores a captured image 33a and an estimated image 33b. The captured image 33a is image data transferred from the VRAM 21a of the controller 21.

その他の構成として、コンピュータ30にはビデオインターフェイス(I/F)35と入力インターフェイス(I/F)37とI/O39が備えられている。ビデオI/F35にはディスプレイ36が接続され、入力I/F37にはキーボード38aおよびマウス38bが接続され、I/O39には撮像ユニット20のコントローラ21が接続されている。I/O39は、コントローラ21に対してX−Yステージ23を駆動させるための信号や、カメラ22にて撮像を実行させるための信号等を出力するとともに、コントローラ21から撮像イメージの入力を受け付けている。   As another configuration, the computer 30 includes a video interface (I / F) 35, an input interface (I / F) 37, and an I / O 39. A display 36 is connected to the video I / F 35, a keyboard 38 a and a mouse 38 b are connected to the input I / F 37, and the controller 21 of the imaging unit 20 is connected to the I / O 39. The I / O 39 outputs a signal for driving the XY stage 23 to the controller 21, a signal for executing imaging by the camera 22, and the like, and receives an input of a captured image from the controller 21. Yes.

図3は、コンピュータ30にて実現されるソフトウェアの構成とデータの流れを示している。CPU31およびRAM32にて、O/S34aと良否判定プログラム34bとが実行されており、そのモジュール構成が示されている。良否判定プログラムMは、主要な構成として、撮像実行部M1と形状データ取得部M2と推定部M3と特徴値算出部M4と判別関数算出部M5と良否判定部M6とから構成されている。さらに、推定部M3は、入射角度取得部M3aと反射挙動推定部M3bと到達光量推定部M3cと推定イメージ生成部M3dとから構成されている。   FIG. 3 shows the configuration of software implemented by the computer 30 and the data flow. In the CPU 31 and the RAM 32, an O / S 34a and a pass / fail determination program 34b are executed, and its module configuration is shown. The pass / fail determination program M includes, as main components, an imaging execution unit M1, a shape data acquisition unit M2, an estimation unit M3, a feature value calculation unit M4, a discriminant function calculation unit M5, and a pass / fail determination unit M6. Furthermore, the estimation unit M3 includes an incident angle acquisition unit M3a, a reflection behavior estimation unit M3b, a reaching light amount estimation unit M3c, and an estimated image generation unit M3d.

撮像実行部M1は、HDD34に記憶された基板データ34cを取得し、同基板データ34cに基づいて撮像ユニット20に撮像を実行させる。具体的に、基板データ34cには、実装基板50の大きさや実装された部品の種類や位置や大きさや形状や個数といった情報が格納されており、これらの情報に基づいてX−Yステージ23を駆動させる。従って、実装基板50上における所望の位置にカメラ22の視野を動かすことができ、実装基板50上における所望の位置について良否判定を実行することができる。   The imaging execution unit M1 acquires the board data 34c stored in the HDD 34, and causes the imaging unit 20 to execute imaging based on the board data 34c. Specifically, the board data 34c stores information such as the size of the mounting board 50, the type, position, size, shape, and number of mounted components, and the XY stage 23 is determined based on these pieces of information. Drive. Therefore, the visual field of the camera 22 can be moved to a desired position on the mounting board 50, and pass / fail judgment can be performed on the desired position on the mounting board 50.

形状データ取得部M2は、HDD34から形状データ34dを取得する。形状データ34dは、実装基板50上のはんだ形状を表した3次元データであり、例えば(X,Y,Z)の3成分で表現される複数の点ではんだの形状が特定されている。むろん、はんだの三次元形状が近似関数やベクトル等で表現されるデータ形式であってもよい。形状データ取得部M2は、形状データ34dに基づいた複数のはんだ形状の画像をディスプレイ36に出力する。そして、ディスプレイ36に表示されたはんだ形状のいずれかを使用者がマウス38bまたはキーボード38aによって選択する。選択されたはんだ形状に対応する形状データ34dは、推定部M3の反射挙動推定部M3bに出力される。   The shape data acquisition unit M2 acquires the shape data 34d from the HDD 34. The shape data 34d is three-dimensional data representing the solder shape on the mounting substrate 50. For example, the shape of the solder is specified by a plurality of points represented by three components (X, Y, Z). Of course, a data format in which the three-dimensional shape of the solder is expressed by an approximate function or a vector may be used. The shape data acquisition unit M2 outputs a plurality of solder shape images based on the shape data 34d to the display 36. Then, the user selects one of the solder shapes displayed on the display 36 with the mouse 38b or the keyboard 38a. The shape data 34d corresponding to the selected solder shape is output to the reflection behavior estimation unit M3b of the estimation unit M3.

推定部M3の入射角度取得部M3aは、撮像ユニット20からリングライト24の大きさ(径)、および、リングライト24と実装基板50との距離を入力しており、これらの値に基づいてカメラ22による視野に対してリングライト24から発光された光が入射する角度を算出する。そして、入射角度取得部M3aにて算出された入射角度は反射挙動推定部M3bに出力される。反射挙動推定部M3bは、形状データ34dと入射角度とを入力し、これらに基づいてリングライト24から発光された光が形状データ34dによって表現されたはんだ形状に入射した際の反射挙動を推定する。リングライト24から発光された光の入射角度と、その光が衝突するはんだの角度とが分かるため、光の反射挙動を推定することができる。また、基板データ34cから当該実装基板50上に形成されるはんだの反射特性も取得しており、反射挙動を推定する際には同反射特性も考慮される。反射挙動推定部M3bにて推定された反射挙動は到達光量推定部M3cに入力される。   The incident angle acquisition unit M3a of the estimation unit M3 inputs the size (diameter) of the ring light 24 and the distance between the ring light 24 and the mounting substrate 50 from the imaging unit 20, and the camera 22 uses the values based on these values. The angle at which the light emitted from the ring light 24 enters the visual field is calculated. The incident angle calculated by the incident angle acquisition unit M3a is output to the reflection behavior estimation unit M3b. The reflection behavior estimation unit M3b receives the shape data 34d and the incident angle, and estimates the reflection behavior when the light emitted from the ring light 24 enters the solder shape expressed by the shape data 34d based on these. Since the incident angle of the light emitted from the ring light 24 and the angle of the solder with which the light collides are known, the light reflection behavior can be estimated. Further, the reflection characteristics of the solder formed on the mounting board 50 are also acquired from the board data 34c, and the reflection characteristics are also taken into account when estimating the reflection behavior. The reflection behavior estimated by the reflection behavior estimation unit M3b is input to the reaching light amount estimation unit M3c.

到達光量推定部M3cは反射挙動を入力し、同反射挙動に基づいてCCD撮像板22bの各CCD撮像素子に到達する光量を推定する。反射挙動推定部M3bにて反射挙動が推定されているため、その反射光をCCD撮像板22bまでたどることにより、CCD撮像板22bがCCD撮像板22bの各CCD撮像素子に到達する光量を推定することができる。到達光量推定部M3cにて推定された各CCD撮像素子の光量は、推定イメージ生成部M3dに入力され、ここで画像データとしての推定イメージ33bが生成される。すなわち、各CCD撮像素子の光量に相応する輝度の階調が算出され、この階調が各CCD撮像素子の位置に応じて配列された2次元の推定イメージ33bが生成される。推定イメージ33bは、撮像イメージ33aと同様にVRAM33に記憶される。   The arrival light amount estimation unit M3c receives the reflection behavior, and estimates the amount of light reaching each CCD image sensor of the CCD image pickup plate 22b based on the reflection behavior. Since the reflection behavior is estimated by the reflection behavior estimation unit M3b, the amount of light that the CCD image pickup plate 22b reaches each CCD image pickup device of the CCD image pickup plate 22b is estimated by tracing the reflected light to the CCD image pickup plate 22b. be able to. The light amount of each CCD image sensor estimated by the reaching light amount estimation unit M3c is input to the estimated image generation unit M3d, where an estimated image 33b as image data is generated. In other words, a luminance gradation corresponding to the amount of light of each CCD image sensor is calculated, and a two-dimensional estimated image 33b in which this gradation is arranged according to the position of each CCD image sensor is generated. The estimated image 33b is stored in the VRAM 33 in the same manner as the captured image 33a.

特徴値算出部M4は、VRAM33から撮像イメージ33aと推定イメージ33bとを入力し、それぞれに基づいて実特徴値34e1と推定特徴値34e2とを算出する。算出された実特徴値34e1と推定特徴値34e2は、HDD34に蓄積される。判別関数算出部M5は、HDD34に蓄積された実特徴値34e1と推定特徴値34e2を取得し、これらについて多変量解析を行うことにより、判別関数34fを算出する。判別関数34fはHDD34に記憶され、良否判定部M6が良否判定を行う際に利用される。具体的には、良否判定部M6が実特徴値34e1を判別関数34fに代入して得られた値によって良または否のいずれかの判定が行われる。良否判定の結果はディスプレイ36やプリンタといった出力機器に出力してもよいし、HDD34に記憶しておいてもよい。なお、本実施形態においては、単一のコンピュータ30において全処理が行われるものとしたが、複数のコンピュータを通信可能に接続し、各コンピュータにて処理を分散させてもよい。   The feature value calculation unit M4 receives the captured image 33a and the estimated image 33b from the VRAM 33, and calculates an actual feature value 34e1 and an estimated feature value 34e2 based on each of them. The calculated actual feature value 34e1 and estimated feature value 34e2 are stored in the HDD 34. The discriminant function calculation unit M5 acquires the actual feature value 34e1 and the estimated feature value 34e2 stored in the HDD 34, and performs a multivariate analysis on these to calculate the discriminant function 34f. The discriminant function 34f is stored in the HDD 34, and is used when the pass / fail judgment unit M6 performs pass / fail judgment. Specifically, the quality determination unit M6 determines whether the quality is good or not based on the value obtained by substituting the actual feature value 34e1 into the discriminant function 34f. The result of pass / fail judgment may be output to an output device such as the display 36 or a printer, or may be stored in the HDD 34. In the present embodiment, all processes are performed by a single computer 30. However, a plurality of computers may be communicably connected, and the processes may be distributed among the computers.

(2)不良データ蓄積処理:
図4は、本発明において実行される不良データ蓄積処理の流れを示している。同図において、ステップS100において、形状データ取得部M2は、形状データ34dに基づいた複数のはんだ形状の画像をディスプレイ36に出力する。ここでは、はんだ小を不良として判定するための不良データを作成する手順を例に挙げて説明する。図5は、ステップS100でディスプレイ36に表示される画像の例を示している。同図において、予め6通り用意された形状データ34dに基づいて、チップ部品51を実装基板50に実装した際のはんだ52の中央断面形状がA〜Fの6通り示されている。形状データ34dは3次元の形状を表すデータであるが、ここでは形状を比較しやすくするために2次元画像で表現している。また、A〜Fは順にはんだ量が少なくなり、はんだの最高点の高さ(以下、はんだ高さhという。)も順に低くなる傾向を有している。
(2) Defect data accumulation processing:
FIG. 4 shows the flow of defective data storage processing executed in the present invention. In step S100, the shape data acquisition unit M2 outputs a plurality of solder shape images based on the shape data 34d to the display 36. Here, a procedure for creating defect data for determining a small solder as a defect will be described as an example. FIG. 5 shows an example of an image displayed on the display 36 in step S100. In the figure, based on the shape data 34d prepared in advance, six central cross-sectional shapes of the solder 52 when the chip component 51 is mounted on the mounting substrate 50 are shown as A to F. The shape data 34d is data representing a three-dimensional shape. Here, the shape data 34d is represented by a two-dimensional image for easy comparison of the shapes. In addition, the amount of solder decreases in order from A to F, and the height of the highest point of solder (hereinafter referred to as solder height h) tends to decrease in order.

ステップS105においては、境界形状の選択を受け付けている。すなわち、断面形状A〜Fのうち使用者がはんだ小として不良選別したい上限のものを選択する。例えば、使用者が断面形状Dを選択したものとして以下説明する。この場合、使用者が断面形状A,B,Cについては良品として選別し、断面形状D,E,Fについては不良品として選別したいということが分かる。ステップS110では、不良品となるはんだの形状について、ばらつきを設定する。使用者の意向によれば、断面形状Dよりもはんだ高さhが低いものが全て不良となる。そこで、断面形状Dのはんだ高さh1よりも低いはんだ高さhについてばらつきを設定する。 In step S105, selection of a boundary shape is accepted. That is, the upper limit of the cross-sectional shapes A to F that the user wants to select as a small solder is selected. For example, the following description will be made assuming that the user selects the cross-sectional shape D. In this case, it is understood that the user wants to sort the cross-sectional shapes A, B, and C as good products and the cross-sectional shapes D, E, and F as defective products. In step S110, variation is set for the shape of the solder that becomes a defective product. According to the intention of the user, all of the solders whose height h is lower than the cross-sectional shape D are defective. Therefore, the variation is set for the solder height h lower than the solder height h 1 of the cross-sectional shape D.

具体的には、図6に示すようにはんだ高さh1からはんだ高さh=0までを100等分し、それぞれのはんだ高さh1〜100について形状データ34dを取得する。各はんだ高さh1〜100となる形状データ34dを取得するにあたっては、予め全てのはんだ形状について形状データ34dが用意されていてもよいし、断面形状Dの形状データ34dから予測してもよい。例えば、形状データ34dを構成する全座標(X,Y,Z)に対して単純に(hn/h1)を乗算することにより、はんだ高さhnを満足する新たな形状データ34dを得ることができる。また、100通りのばらつきを設定するものに限られるものではない。 Specifically, as shown in FIG. 6, the solder height h 1 to the solder height h = 0 are equally divided into 100 , and the shape data 34d is acquired for each of the solder heights h 1 to 100 . In acquiring the shape data 34d corresponding to the respective solder heights h 1 to 100 , the shape data 34d may be prepared for all solder shapes in advance, or may be predicted from the shape data 34d of the cross-sectional shape D. . For example, new shape data 34d satisfying the solder height h n is obtained by simply multiplying all coordinates (X, Y, Z) constituting the shape data 34d by (h n / h 1 ). be able to. Further, the present invention is not limited to setting 100 variations.

ステップS115においては、nとして1が選択される。すなわち、はんだ高さh1となる形状データ34dが選択され、ステップS120では当該形状データ34dが取得される。形状データ取得部M2は、形状データ34dを取得すると、ステップS125にて形状データ34dについて画素を定義する。図7は、形状データ34dによって表現されるはんだ52を上方から見た状態を仮想的に示している。同図において、はんだ52がX,Y方向の破線によって格子状に仕切られており、同破線で囲まれた領域を画素Pa,bとして生成している。なお、a(1〜amax)はX方向の位置を示し、b(1〜bmax)はY方向の位置を示すものとする。同図において図示の簡略化のため画素Pa,bを大きく表示しているが、実際には、画素Pa,bは微小である。 In step S115, 1 is selected as n. That is, the shape data 34d corresponding to the solder height h 1 is selected, and the shape data 34d is acquired in step S120. When the shape data acquisition unit M2 acquires the shape data 34d, the pixel is defined for the shape data 34d in step S125. FIG. 7 virtually shows a state in which the solder 52 represented by the shape data 34d is viewed from above. In the figure, solder 52 is partitioned in a grid pattern by broken lines in the X and Y directions, and a region surrounded by the broken lines is generated as a pixel Pa , b . Note that a (1 to a max ) indicates the position in the X direction, and b (1 to b max ) indicates the position in the Y direction. In the figure, for the sake of simplification, the pixel Pa , b is shown large, but actually, the pixel Pa , b is very small.

ステップS130においては、各画素Pa,bにおける平均傾斜角度θa,bを算出する。図7の下段は、画素Pa,b内の曲面が平面によって近似され、同平面の傾斜角度が平均傾斜角度θa,bとして算出される様子を図示している。 In step S130, it calculates an average tilt angle theta a, b of each pixel P a, b. The lower part of FIG. 7 illustrates how the curved surface in the pixel Pa , b is approximated by a plane, and the inclination angle of the plane is calculated as the average inclination angle θa , b .

ステップS135においては、入射角度取得部M3aが入射角度を算出する。図8は、入射角度取得部M3aが入射角度を算出する様子を説明している。同図において、入射角度取得部M3aにはリングライト24の径r、および、リングライト24と実装基板50との距離dとが示されている。なお、径rと距離dは撮像ユニット20から取得される。むろん、使用者が径rと距離dをキーボード38aによって直接入力してもよい。リングライト24から発光された光が視野Sに入射する角度が入射角度γとされている。同図に示す関係から入射角度γは、径rと距離dにより下記式(1)のように表すことができる。
γ=arctan(d/r) ・・・(1)
In step S135, the incident angle acquisition unit M3a calculates the incident angle. FIG. 8 illustrates how the incident angle acquisition unit M3a calculates the incident angle. In the figure, the incident angle acquisition unit M3a shows the diameter r of the ring light 24 and the distance d between the ring light 24 and the mounting substrate 50. The diameter r and the distance d are acquired from the imaging unit 20. Of course, the user may directly input the diameter r and the distance d using the keyboard 38a. An angle at which the light emitted from the ring light 24 enters the field of view S is an incident angle γ. From the relationship shown in the figure, the incident angle γ can be expressed as the following formula (1) by the diameter r and the distance d.
γ = arctan (d / r) (1)

なお、視野Sは2cm×2cmであり、径rと距離dと比較して十分に小さいため、視野Sにおいて入射角度γは一様であると考えることができる。また、視野Sにおいてはんだが上方向に突出することとなるが、はんだの高さhも、径rと距離dと比較して十分に小さいため、はんだの高さhに依存することなく入射角度γは一様であると考えることができる。   The field of view S is 2 cm × 2 cm, which is sufficiently smaller than the diameter r and the distance d, so that the incident angle γ can be considered to be uniform in the field of view S. In addition, the solder protrudes upward in the field of view S, but the height h of the solder is also sufficiently smaller than the diameter r and the distance d, so that the incident angle does not depend on the solder height h. γ can be considered uniform.

ステップS140においては、反射挙動推定部M3bにて反射挙動の推定が行われる。図9は、リングライト24から発光された光がはんだに入射する様子を仮想的に示している。むろん、同図に示すはんだ52や光は計算上推定されるものであって、実際に、はんだ52に光を入射させているわけではない。同図において、はんだ52をCCD撮像板22bのCCD撮像素子が鉛直上方から撮像すると想定している。一方、画素Pa,bにはリングライト24から発光された入射光Ciが入射しており、同入射光Ciは画素Pa,bにおいて所定の方向に反射することが分かる。 In step S140, the reflection behavior estimation unit M3b estimates the reflection behavior. FIG. 9 virtually shows how the light emitted from the ring light 24 enters the solder. Of course, the solder 52 and light shown in the figure are estimated by calculation, and light is not actually incident on the solder 52. In the figure, it is assumed that the CCD image pickup device of the CCD image pickup plate 22b picks up the solder 52 from above. On the other hand, the pixel P a, the b are incident incident light C i emitted from the ring light 24, the incident light C i it is found that reflective pixel P a, the b in the predetermined direction.

画素Pa,bにおいて入射光Ciから鏡面反射光Csと拡散反射光Cdとが生成されると推定される。鏡面反射光Csは、入射光Ciと対称な方向のみに放射される反射光である。そして、鏡面反射光Csのうち直上のCCD撮像素子に到達する成分を到達成分Cs'とすると、到達成分Cs'の光量ls'は下記式(2)によって表すことができる。
s'=li・(1−c)・cosmβ ・・・(2)
It is estimated that specular reflection light C s and diffuse reflection light C d are generated from the incident light C i at the pixel Pa , b . The specular reflected light C s is reflected light emitted only in a direction symmetric with the incident light C i . Then, 'When, arrives component C s' components reaching the CCD imaging device directly out of the specular reflection light C s reach component C s quantity l s of' can be represented by the following formula (2).
l s ′ = l i · (1−c) · cos m β (2)

なお、上記式(2)において、βは鏡面反射光Csと到達成分Cs'とがなす角を示し、c(0〜1)ははんだ表面の粗さを示し、mは鏡面反射の局所化度合いを示し、liは入射光Ciの単位面積(画素Pa,bの面積)当たりの光量を示している。上記式(2)において、到達成分Cs'の光量ls'は、鏡面反射光Csと到達成分Cs'とがなす角βの余弦のべき乗に比例している。局所化度合いmとは、鏡面反射の輪郭の明瞭さを表す係数であり、はんだの表面状態に依存する。例えば、共晶はんだの場合は鏡面反射の輪郭がはっきりするため、局所化度合いmが高いといえる。一方、鉛フリーはんだの場合は鏡面反射の輪郭がぼやけるため、局所化度合いmが低いといえる。なお、反射挙動推定部M3bでは、基板データ34cに含まれるはんだ材料の情報から実装基板50上に形成されるはんだの反射特性として粗さcと局所化度合いmとが取得されており、リングライト24の仕様から入射光Ciの光量liが判明しているため、上記式(2)に基づいてls'を算出することができる。 In the above formula (2), β represents the angle formed between the specular reflected light C s and the reaching component C s ′, c (0 to 1) represents the roughness of the solder surface, and m represents the local specular reflection. L i represents the amount of light per unit area of the incident light C i (area of the pixels Pa , b ). In the above formula (2), 'quantity l s of' arrival component C s is proportional to a power of the cosine of the specular reflection light C s reach component C s' and the angle beta. The degree of localization m is a coefficient representing the clarity of the specular reflection contour, and depends on the surface state of the solder. For example, in the case of eutectic solder, the contour of specular reflection is clear, and it can be said that the degree of localization m is high. On the other hand, in the case of lead-free solder, it can be said that the degree of localization m is low because the contour of specular reflection is blurred. In the reflection behavior estimation unit M3b, the roughness c and the localization degree m are acquired as the reflection characteristics of the solder formed on the mounting board 50 from the information on the solder material included in the board data 34c. since the light quantity l i of the incident light C i from the specification is known, it is possible to calculate the l s' based on the equation (2).

さらに、鏡面反射光Csと到達成分Cs'とがなす角βについて、幾何学的に下記式(3),(4)の関係が成り立つ。
α=π/2−γ−θa,b ・・・(3)
β=θa,b−α=−π/2+γ+2θa,b ・・・(4)
なお、上記式(3),(4)において、αは画素Pa,bにおけるはんだ表面の法線と入射光Ciとがなす角を表している。上記式(2)に上記式(4)を代入することにより、下記式(5)を得ることができる。
s'=li・(1−c)・cosm(−π/2+γ+2θa,b) ・・・(5)
以上により、鏡面反射に由来するCCD撮像素子への到達成分Cs'の光量ls'を入射光の光量liとはんだ表面の粗さcと鏡面反射の局所化度合mと入射角度γと平均傾斜角度θa,bとから算出することができる。
Furthermore, geometrically, the following expressions (3) and (4) are established for the angle β formed between the specular reflection light C s and the arrival component C s ′.
α = π / 2−γ−θ a, b (3)
β = θ a, b −α = −π / 2 + γ + 2θ a, b (4)
In the above formulas (3) and (4), α represents an angle formed by the normal of the solder surface and incident light C i in the pixel Pa , b . By substituting the above equation (4) into the above equation (2), the following equation (5) can be obtained.
l s ′ = l i · (1−c) · cos m (−π / 2 + γ + 2θ a, b ) (5)
As described above, the light quantity l s ′ of the component C s ′ reaching the CCD image sensor derived from the specular reflection, the light quantity l i of the incident light, the roughness c of the solder surface, the localization degree m of the specular reflection, and the incident angle γ It can be calculated from the average inclination angle θ a, b .

一方、拡散反射光Cdの光量ldは、下記式(6)のように表すことができる。
d=li・c・cosα ・・・(6)
すなわち、拡散反射光Cdの光量ldは、画素Pa,bにおけるはんだ表面の法線と入射光Ciとがなす角αの余弦に比例する。また、拡散反射光Cdは、はんだ52の表面において入射光Ciが乱反射することにより生じる反射光であり、全方向一様な光量で反射すると考えることができる。従って、拡散反射に由来するCCD撮像素子への到達成分Cd'の光量ld'は、光量ldと同じとなる。さらに、上記式(6)に上記式(3)を代入すると下記式(7)を得ることができる。
d=li・c・cos(π/2−γ−θa,b) ・・・(7)
On the other hand, the light quantity l d of the diffuse reflected light C d can be expressed as the following formula (6).
l d = l i · c · cos α (6)
That is, the light quantity l d of the diffusely reflected light C d is proportional to the cosine of the angle α formed by the normal of the solder surface in the pixel Pa , b and the incident light C i . Further, the diffuse reflected light C d is a reflected light generated by the irregular reflection of the incident light C i on the surface of the solder 52, and can be considered to be reflected with a uniform light amount in all directions. Accordingly, the light amount l d ′ of the component C d ′ reaching the CCD image sensor due to diffuse reflection is the same as the light amount l d . Furthermore, the following formula (7) can be obtained by substituting the above formula (3) into the above formula (6).
l d = l i · c · cos (π / 2−γ−θ a, b ) (7)

上記式(7)において、拡散反射に由来するCCD撮像素子への到達成分Cd'の光量ld'も、入射光の光量liとはんだ表面の粗さcと入射角度γと平均傾斜角度θa,bとから算出することができる。さらに、鏡面反射に由来する光量ls'と、拡散反射に由来する光量ld'とを下記式(8)にて重畳することにより、CCD撮像素子へ到達する合計の到達光量loを算出することができる。
o=ls'+ld' ・・・(8)
In the above equation (7), the light quantity l d ′ of the component C d ′ reaching the CCD image sensor derived from diffuse reflection is also equal to the light quantity l i of the incident light, the roughness c of the solder surface, the incident angle γ, and the average tilt angle. It can be calculated from θ a, b . Furthermore, the total amount of light reaching l o reaching the CCD image sensor is calculated by superimposing the amount of light l s ′ derived from specular reflection and the amount of light l d ′ derived from diffuse reflection by the following equation (8). can do.
l o = l s '+ l d ' (8)

さらに、上記式(8)に上記式(5)と上記式(7)を代入して整理すると下記式(9)を得ることができる。
o=li・(1−c)・sinm(γ+2θa,b
+li・c・sin(γ+θa,b) ・・・(9)
Furthermore, the following formula (9) can be obtained by substituting the above formula (5) and the above formula (7) into the above formula (8).
l o = l i · (1−c) · sin m (γ + 2θ a, b )
+ L i · c · sin (γ + θ a, b ) (9)

上記式(9)において第一項が鏡面反射項であり、第二項が拡散反射項である。上記式(9)によれば、CCD撮像素子に到達する到達光量loを既知のパラメータli,c,m,γ,θa,bから正確に算出することができる。そして、ステップS145では、CCD撮像板22bに到達する光量loを上記式(9)に基づいて画素Pa,bごとに算出する。ステップS150では、全ての画素Pa,bについて到達光量loが算出されたことが確認され、全ての画素Pa,bについて算出が完了していればステップS155が実行される。 In the above formula (9), the first term is a specular reflection term, and the second term is a diffuse reflection term. According to the above formula (9), the amount of light reaching l o reaching the CCD image sensor can be accurately calculated from the known parameters l i , c, m, γ, θ a, b . In step S145, the light amount l o reaching the CCD image pickup plate 22b is calculated for each pixel Pa , b based on the above equation (9). At step S150, the all pixel P a, b can reach the light quantity l o is calculated is checked for all the pixels P a, if calculated for b is completed step S155 is executed.

ステップS155においては、推定イメージ生成部M3dが推定イメージを生成する。すなわち、全ての画素Pa,bについて到達光量loが算出されているため、これらに画素Pa,bの位置a,bに応じたアドレスを付与することにより、画素数がamax個×bmax個となる画像データとなる推定イメージを生成することができる。なお、到達光量loと輝度値は比例関係にあるため、画素Pa,bごとに輝度を有する推定イメージを生成することができる。 In step S155, the estimated image generation unit M3d generates an estimated image. That is, since the reaching light quantity l o is calculated for all the pixels P a, b , the addresses according to the positions a, b of the pixels P a, b are given to them, so that the number of pixels is a max × An estimated image serving as b max pieces of image data can be generated. In addition, since the reaching light quantity l o and the luminance value are in a proportional relationship, it is possible to generate an estimated image having luminance for each pixel Pa , b .

ところで、カメラ22にて実際に撮像を行った場合には、途中で解像度変換を行わない限り、CCD撮像板22bの有効CCD撮像素子数と同数の画素数の撮像イメージ33aが生成される。ステップS155においては、上述のようにして生成した推定イメージにおける実装基板50上の解像度が、撮像イメージ33aにおける実装基板50上の解像度と一致するように解像度変換し、同変換した推定イメージ33bをVRAM33に記憶する。この解像度変換においては、間引きや補間等の手法を適用することができる。むろん、予め推定イメージにおける実装基板50上の解像度が、撮像イメージ33aにおける実装基板50上の解像度と一致するように実装基板50上における画素Pa,bの大きさを設定しておけば、ここで解像度変換を行う必要はない。 By the way, when the camera 22 actually captures an image, a captured image 33a having the same number of pixels as the number of effective CCD image pickup elements of the CCD image pickup plate 22b is generated unless resolution conversion is performed halfway. In step S155, resolution conversion is performed so that the resolution on the mounting board 50 in the estimated image generated as described above matches the resolution on the mounting board 50 in the captured image 33a, and the converted estimated image 33b is converted into the VRAM 33. To remember. In this resolution conversion, methods such as thinning and interpolation can be applied. Of course, if the size of the pixel Pa , b on the mounting board 50 is set in advance so that the resolution on the mounting board 50 in the estimated image matches the resolution on the mounting board 50 in the captured image 33a, There is no need to perform resolution conversion.

ステップS160においては、特徴値算出部M4が推定特徴値の算出を行う。特徴値は、VRAM33に記憶された推定イメージ33bを入力し、同推定イメージ33bから多数の推定特徴値Fを算出する。推定特徴値Fは、推定イメージ33bから算出される多数のパラメータであり、数十から数百種類程度用意しておくことが望ましい。なお、本実施形態では300種類の推定特徴値Fが算出されるものとする。具体的に、推定特徴値Fとして、推定イメージ33bの平均輝度や輝度のレンジや輝度のエッジ数や輝度の分散値等を適用することができる。また、算出された推定特徴値Fは、HDD34において推定特徴値34e2として記憶される。   In step S160, the feature value calculation unit M4 calculates an estimated feature value. As the feature value, an estimated image 33b stored in the VRAM 33 is input, and a large number of estimated feature values F are calculated from the estimated image 33b. The estimated feature value F is a large number of parameters calculated from the estimated image 33b, and it is desirable to prepare about several tens to several hundreds of types. In the present embodiment, 300 types of estimated feature values F are calculated. Specifically, as the estimated feature value F, an average luminance, a luminance range, a luminance edge number, a luminance dispersion value, or the like of the estimated image 33b can be applied. The calculated estimated feature value F is stored in HDD 34 as estimated feature value 34e2.

ステップS165においては、nが100であるかどうかが確認され100でない場合には、nに(n+1)が代入され、ステップS120以降が繰り返される。すなわち、ステップS110にて設定した全はんだ形状(はんだ高さhn)について推定特徴値Fが算出されたかどうかが確認され、全て算出されていない場合には次のはんだ形状(はんだ高さhn+1)について推定特徴値Fを算出する処理が繰り返して行われる。そして、nが100になるまで繰り返されたところで、全はんだ形状(はんだ高さhn)について推定特徴値Fが算出されたとして、処理を終了させる。 In step S165, it is confirmed whether or not n is 100. If it is not 100, (n + 1) is substituted for n, and step S120 and subsequent steps are repeated. That is, it is confirmed whether or not the estimated feature value F has been calculated for all the solder shapes (solder height h n ) set in step S110, and if not all have been calculated, the next solder shape (solder height h n). The process of calculating the estimated feature value F for +1 ) is repeated. When the process is repeated until n reaches 100, the estimated feature value F is calculated for all solder shapes (solder height h n ), and the process is terminated.

これにより、はんだ小不良として選別したい100通りのはんだ形状について、それぞれ推定特徴値Fを算出し、蓄積することができる。図10は、不良データ蓄積処理によって算出された推定特徴値Fを一覧にして示している。同図において、各はんだ高さhnに対して推定特徴値F1〜F300が算出されている。また、右欄において、推定特徴値F1〜F300が不良品の特徴を示す値であることが分かるように識別されている。 As a result, the estimated feature value F can be calculated and stored for each of 100 types of solder shapes to be selected as small solder defects. FIG. 10 shows a list of estimated feature values F calculated by the defective data accumulation process. In the figure, estimated feature values F 1 to F 300 are calculated for each solder height h n . Further, in the right column, the estimated feature values F 1 to F 300 are identified so as to be understood as values indicating the characteristics of defective products.

(3)良データ蓄積処理:
次に、良データ蓄積処理について説明する。良データ蓄積処理は、不良データ蓄積処理とは別途実行される。図11は、良データ蓄積処理の流れを示している。同図において、ステップS200では、実際に作成した実装基板50の撮像をカメラ22にて行う。撮像を行う際には、リングライト24から単位面積当たりの光量liで照明が行われる。なお、実装基板50を量産する際の製造条件を適用することにより、良品である実装基板50を作成することができるため、良品である実装基板50の作成が手間となることはない。
(3) Good data storage processing:
Next, the good data accumulation process will be described. The good data accumulation process is executed separately from the defective data accumulation process. FIG. 11 shows the flow of good data storage processing. In the figure, in step S <b> 200, the camera 22 captures an image of the actually created mounting board 50. When imaging is performed, illumination is performed from the ring light 24 with a light amount l i per unit area. In addition, since the mounting substrate 50 which is non-defective can be created by applying the manufacturing conditions when mass-producing the mounting substrate 50, the creation of the non-defective mounting substrate 50 is not troublesome.

また、良品であれば製品として出荷することもできるため、実装基板50自体が無駄となることもない。上述したとおり、カメラ22にて撮像することにより、画像データとしての撮像イメージ33aが生成され、VRAM33に転送、記憶される。図12に示すように、カメラ22にて撮像する際の視野Sには、他の実装部品や他のはんだが含まれることとなるが、推定イメージ33bと同じ画角となるように実線で示すはんだ52の周辺以外をマスクしたものが、撮像イメージ33aとして記憶されるものとする。なお、視野Sに他の検査箇所が存在する場合には、当該検査箇所以外をマスクした別の撮像イメージ33aも生成される。   Further, since the non-defective product can be shipped as a product, the mounting substrate 50 itself is not wasted. As described above, by taking an image with the camera 22, a captured image 33 a as image data is generated, transferred to the VRAM 33, and stored. As shown in FIG. 12, the field of view S when the image is taken by the camera 22 includes other mounting parts and other solder, but is indicated by a solid line so as to have the same angle of view as the estimated image 33b. It is assumed that the masked area other than the periphery of the solder 52 is stored as the captured image 33a. In addition, when another inspection location exists in the visual field S, another captured image 33a masking other than the inspection location is also generated.

ステップS210においては、撮像イメージ33aに基づいて、特徴値算出部M4が実特徴値Gの算出を行う。実特徴値Gは、推定特徴値Fと同様のパラメータであり、同様の手法によって算出される。また、上述したとおり撮像イメージ33aと推定イメージ33bにおいては実装基板50上の解像度が一致させられているため、実特徴値Gと推定特徴値Fを同じ条件で算出することができる。ステップS220においては、実特徴値GをHDD34に記憶する。ステップS220が完了すると、再びステップS200に戻り、次の良品に対して実特徴値Gを算出する処理が行われる。これにより、多数の良品について実特徴値Gを蓄積することができる。そして、所定量(例えば、良品数100個まで)実特徴値Gが蓄積されたところで、良データ蓄積処理を終了させる。   In step S210, the feature value calculation unit M4 calculates the actual feature value G based on the captured image 33a. The actual feature value G is a parameter similar to the estimated feature value F, and is calculated by the same method. Further, since the resolution on the mounting substrate 50 is matched between the captured image 33a and the estimated image 33b as described above, the actual feature value G and the estimated feature value F can be calculated under the same conditions. In step S220, the actual feature value G is stored in the HDD 34. When step S220 is completed, the process returns to step S200 again, and processing for calculating the actual feature value G for the next good product is performed. Thereby, the actual feature value G can be accumulated for many good products. Then, when the actual feature value G is accumulated by a predetermined amount (for example, up to 100 non-defective products), the good data accumulation process is terminated.

図13は、良データ蓄積処理によって算出された実特徴値Gを一覧にして示している。同図において、各良品に対して実特徴値G1〜G300が算出されている。また、右欄において、実特徴値G1〜G300が良品の特徴を示す値であることが分かるように識別されている。 FIG. 13 shows a list of actual feature values G calculated by the good data storage process. In the figure, actual feature values G 1 to G 300 are calculated for each good product. Further, in the right column, the actual feature values G 1 to G 300 are identified so as to be understood to be values indicating the features of the non-defective products.

(3)判別関数について:
以上のようにして、推定特徴値F1〜F300と実特徴値G1〜G300が算出できると、これらに基づいて判別関数を算出することができる。図14は、判別関数を概念的に示している。同図において、横軸に実特徴値G1と推定特徴値F1をとり、縦軸に実特徴値G2と推定特徴値F2をとったグラフが示されており、実特徴値G1,G2と推定特徴値F1,F2の分布領域が示されている。(G1,G2)の分布は良品を撮像して得られたものであるため、良品の集合として示している。一方、(F1,F2)の分布は不良の形状データ34dから推定的に算出されたものであるため、不良品の集合として示している。(G1,G2)は製造工程のばらつきの範囲で分布することとなり、(F1,F2)はステップS110にて設定したばらつきの範囲で分布することとなる。
(3) About discriminant function:
As described above, when the estimated feature values F 1 to F 300 and the actual feature values G 1 to G 300 can be calculated, the discriminant function can be calculated based on them. FIG. 14 conceptually shows the discriminant function. In the figure, the horizontal axis and the actual feature values G 1 to estimate characteristic values F 1, the vertical axis is graph plotting the actual characteristic value G 2 the estimated feature value F 2 are shown, the actual feature values G 1 , G 2 and estimated feature values F 1 and F 2 are shown. Since the distribution of (G 1 , G 2 ) is obtained by imaging good products, it is shown as a set of good products. On the other hand, since the distribution of (F 1 , F 2 ) is estimated from the defective shape data 34d, it is shown as a set of defective products. (G 1 , G 2 ) is distributed in the range of variation in the manufacturing process, and (F 1 , F 2 ) is distributed in the range of variation set in step S110.

このように、良品と不良品はそれぞれ何らかの形状的特徴を有しているため、特徴値F,Gに異なる分布傾向を有することとなる。従って、特徴値F,Gの分布傾向を解析し適正な閾値を設定することにより、良否判定を行うことができる。しかしながら、単一種の特徴値G1,F1の度数分布のみで良否判定を行おうとすると、同図下段に示すように良品分布と不良品分布とが重なり合う場合がある。同様に、単一種の特徴値G2,F2の度数分布のみで良否判定を行おうとすると、同図左段に示すように良品分布と不良品分布とが重なり合う。かかる状態においては、良品と不良品を誤判定なく区別することが可能な閾値を設定することが不可能である。 As described above, since the non-defective product and the defective product have some shape characteristics, the feature values F and G have different distribution tendencies. Therefore, the quality determination can be performed by analyzing the distribution tendency of the feature values F and G and setting an appropriate threshold value. However, if it is determined to pass or fail only with the frequency distribution of the single kind of feature values G 1 and F 1 , the non-defective product distribution and the defective product distribution may overlap as shown in the lower part of FIG. Similarly, when it is determined that the quality is determined only by the frequency distribution of the single type of characteristic values G 2 and F 2 , the non-defective product distribution and the defective product distribution overlap as shown in the left side of the figure. In such a state, it is impossible to set a threshold value that can distinguish good products from defective products without erroneous determination.

一方、判別関数は、下記式(10)で定義される。
G=s11+s22+s3
F=s11+s22+s3 ・・・(10)
なお、上記式(10)において、HGおよびHFは判別関数を示しており、s1,s2,s3は係数を示している。すなわち、上記式(10)において、判別関数HG,HFは、実特徴値G1,G2および推定特徴値F1,F2の線形結合により与えられている。
On the other hand, the discriminant function is defined by the following equation (10).
H G = s 1 G 1 + s 2 G 2 + s 3
H F = s 1 F 1 + s 2 F 2 + s 3 (10)
In the above equation (10), H G and H F indicate discriminant functions, and s 1 , s 2 , and s 3 indicate coefficients. That is, in the above equation (10), the discriminant functions H G and H F are given by a linear combination of the actual feature values G 1 and G 2 and the estimated feature values F 1 and F 2 .

また、係数s1,s2は、良品の判別関数HGの分布と、不良品の判別関数HFの分布とができるだけ離反するように設定される。係数s1,s2によれば、特徴値(G1,G2),(F1,F2)に傾きを与えることができるため、良品の判別関数HGの分布と不良品の判別関数HFの分布と離反する傾きを設定することができる。さらに、定数項s3は、良品の判別関数HGの分布と、不良品の判別関数HFの分布の中心値が0となるように設定される。従って、判別関数HG,HFを0を閾値として分離させることができる。従って、良否が分からないはんだ52を撮像することにより得られた撮像イメージ33aから算出された実特徴値(G1,G2)を代入した判別関数HGが正となれば、当該はんだ52は良品であるということが分かる。 The coefficient s 1, s 2 is the distribution of the discriminant function H G of the good, and the distribution of the discriminant function H F of defective products are set as much as possible away. According to the coefficient s 1, s 2, feature values (G 1, G 2), (F 1, F 2) it is possible to provide an inclination to, discriminant function H discriminant function distribution and defective G of good it is possible to set the inclination of separating the distribution of the H F. Furthermore, the constant term s 3 is set so that the center value of the distribution of the non-defective product discrimination function H G and the distribution of the non-defective product discrimination function H F becomes zero. Therefore, the discriminant functions H G and H F can be separated using 0 as a threshold value. Thus, if the discrimination function H G positive obtained by substituting the actual characteristic values calculated from the image pickup image 33a obtained by capturing the solder 52 is good or bad do not know the (G 1, G 2), the solder 52 You can see that it is a good product.

図14においては、説明と図示を簡単にするために2種類の特徴値G1,G2,F1,F2を変数とした2次元の判別関数HG,HFを例示したが、実際には特徴値F,Gは、300種類算出されているため、これらから良否の分布を最も分離させることが可能な特徴値F,Gが数個選択され、同選択された特徴値F,Gを線形結合した高次元の判別関数HG,HFが算出される。なお、判別関数HG,HFを算出するにあたっては、公知の多変量解析手法を適用することができる。 In FIG. 14, two-dimensional discriminant functions H G and H F using two types of feature values G 1 , G 2 , F 1 , and F 2 as variables are illustrated for ease of explanation and illustration. Since 300 types of feature values F and G are calculated, several feature values F and G that can most isolate the quality distribution are selected from these, and the selected feature values F and G are selected. High-dimensional discriminant functions H G and H F are calculated by linearly combining. In calculating the discriminant functions H G and H F , a known multivariate analysis method can be applied.

(5)良否判定処理:
図15は、良否判定処理の流れを示している。同図において、ステップS300において、検査対象の実装基板50の撮像を行う。ここでは、良データ蓄積処理のステップS200と同様にはんだ52の周辺以外をマスクした撮像イメージ33aがVRAM33に記憶される。ステップS310においては、ステップS210と同様に特徴値算出部M4が実特徴値Gの算出を行う。ステップS320では、判別関数HGをHDD34から読み出して、同判別関数HGに実特徴値Gを代入し、判別関数HGの値を算出する。
(5) Pass / fail judgment processing:
FIG. 15 shows the flow of pass / fail judgment processing. In the figure, in step S300, the mounting substrate 50 to be inspected is imaged. Here, as in step S200 of the good data accumulation process, the captured image 33a masked except for the periphery of the solder 52 is stored in the VRAM 33. In step S310, the feature value calculation unit M4 calculates the actual feature value G as in step S210. In step S320, it reads out the discrimination function H G from HDD 34, substituting the actual characteristic value G in the discrimination function H G, to calculate the value of the discriminant function H G.

そして、ステップS330において、判別関数HGが正である場合には、ステップS340において当該実装基板50のはんだ52が良品であると判定する。一方、判別関数HGが0以下である場合には、ステップS350において当該実装基板50のはんだ52が不良品であると判定する。判別関数HGによれば、良品分布と不良品の分布とが0を挟んで離反しているため、正確な良否判定を行うことができる。 Then, in step S330, and when the discrimination function H G is positive, a solder 52 of the mounting board 50 is good in step S340. On the other hand, when the discrimination function H G is less than or equal to zero, it is determined that the solder 52 is defective the mounting board 50 at step S350. According to the discrimination function H G, because the a good distribution and defective distribution are separated across the 0, it is possible to perform accurate quality determination.

以上説明したように、一般的に良否判定においては判別関数Hのように統計的手法を用いて良否を判定することが行われる。その場合、基準となる良品または不良品について予め標本のデータを収集しておくことが要求される。統計的手法においては、標本数が多ければ多いほど推測の信頼性が増し、それに基づいて行う良否判定の精度も向上する。本実施形態においては、特徴値F,Gをできるだけ多く収集しておくことが、良否判定の精度向上の条件となる。特徴値F,Gのうち不良品の特徴値Fを実際に撮像した撮像イメージ33aではなく、推定により生成された推定イメージ33bから算出しているため、大量の不良品を作為的に作成し、実際に撮像する必要がない。   As described above, in general, in pass / fail determination, pass / fail is determined using a statistical method like the discriminant function H. In that case, it is required to collect specimen data in advance for good or defective standards. In the statistical method, as the number of samples increases, the reliability of the estimation increases, and the accuracy of the quality determination performed based on the reliability increases. In the present embodiment, collecting as many feature values F and G as possible is a condition for improving the accuracy of the pass / fail determination. Since the feature value F of the defective product among the feature values F and G is calculated from the estimated image 33b generated by the estimation instead of the captured image 33a actually captured, a large number of defective products are created intentionally, There is no need to actually take an image.

従って、不良品の特徴値Fを収集するための手間とコストをなくすことができる。また、不良品の形状を表す形状データ34dは、不良品の範囲内で無限に作成することができる。従って、形状データ34dに基づいて算出される特徴値Fも無限に用意することができる。さらに、不良品の形状を表す形状データ34dは任意に作成することができるため、ごく稀に発生するような不良モードの形状であっても、容易に形状データ34dを作成し、その特徴値Fを収集することができる。   Therefore, the labor and cost for collecting the feature value F of defective products can be eliminated. Further, the shape data 34d representing the shape of the defective product can be created infinitely within the range of the defective product. Therefore, the feature value F calculated based on the shape data 34d can be prepared infinitely. Furthermore, since the shape data 34d representing the shape of the defective product can be created arbitrarily, even if it is a shape of a defective mode that occurs very rarely, the shape data 34d can be easily created and its feature value F Can be collected.

(6)変形例:
以上説明した実施形態において、不良品の形状を表す形状データ34dに基づいて不良品の推定特徴値Fを算出するものを例示したが、良品についても推定特徴値Fを算出してもよい。例えば、図5に示した良品の断面形状A,B,Cに対応する形状データ34dに基づいて推定特徴値Fを算出してもよい。その場合、図10に示す右欄において当該推定特徴値Fが良品のものであることを識別しておき、判別関数を算出する際に、図10に示す右欄を参照して、当該推定特徴値Fを良品の分布に帰属させればよい。このようにすることにより、良品についても実際に撮像を行う必要をなくすことができる。
(6) Modification:
In the embodiment described above, the example of calculating the estimated feature value F of the defective product based on the shape data 34d representing the shape of the defective product has been exemplified. However, the estimated feature value F may be calculated for the non-defective product. For example, the estimated feature value F may be calculated based on the shape data 34d corresponding to the non-defective section shapes A, B, and C shown in FIG. In that case, it is identified in the right column shown in FIG. 10 that the estimated feature value F is non-defective, and when calculating the discriminant function, the estimated feature value F is referred to by referring to the right column shown in FIG. The value F may be attributed to the non-defective product distribution. In this way, it is possible to eliminate the need to actually perform imaging for non-defective products.

また、不良モードとしてはんだ小について良否判定されるものを例示したが、当然、他の不良モードの良否判定においても本発明を適用することができる。例えば、はんだ大や欠品やぬれ不良やはんだ流れ等の不良モードについての同様の装置構成により良否判定を行うことができる。すなわち、各不良モードに対応した形状データ34dをコンピュータ上にて用意することにより、推定特徴値Fを多数取得し、精度のよい良否判定を行うことができる。はんだ大や欠品やぬれ不良やはんだ流れ等の各不良モードは、それぞれ固有の形状的特徴を有しているため、同形状的特徴が反映された推定イメージを推定することができる。むろん、検査対象がはんだに限られるものでもなく、形状の良否を判定するものであれば本発明を適用することができる。例えば、金属、プラスチックの成型品やプリント基板の配線等の良否判定にも本発明を適用することができる。   Moreover, although what judged the quality of small solder as a failure mode was illustrated, naturally this invention is applicable also in the quality determination of another failure mode. For example, it is possible to make a pass / fail judgment by the same apparatus configuration for a defective mode such as a large solder, a missing part, a wet defect, or a solder flow. That is, by preparing the shape data 34d corresponding to each failure mode on the computer, it is possible to acquire a large number of estimated feature values F and perform a quality determination with high accuracy. Each failure mode such as solder size, missing item, wetting failure, solder flow, etc. has a unique shape feature, so that an estimation image reflecting the same shape feature can be estimated. Of course, the subject of inspection is not limited to solder, and the present invention can be applied as long as it determines the quality of the shape. For example, the present invention can also be applied to pass / fail judgments such as metal and plastic molded products and printed circuit board wiring.

さらに、上記実施形態においては、カメラ22にて反射光を撮像して良否判定を行うものを例示したが、他の撮像方式について本発明を適用することも可能である。すなわち、上記実施形態のように検査対象に電磁波としての可視光を照射するものに限られず、X線や赤外光等を検査対象に照射して、その透過光の状態を撮像するものであっても本発明を適用することができる。X線によれば、はんだのような金属に対する透過率が厚みに応じて変動するため、予め3次元の形状データを用意しておくことにより、透過像としての推定イメージを生成することができる。また、赤外光によれば、プラスチックを透過するため、同様に透過像としての推定イメージを生成することができる。   Furthermore, in the above-described embodiment, the camera 22 is used to image the reflected light and determine pass / fail, but the present invention can be applied to other imaging methods. That is, the present invention is not limited to the case where the inspection object is irradiated with visible light as an electromagnetic wave as in the above embodiment, but the inspection object is irradiated with X-rays, infrared light, or the like, and the state of the transmitted light is imaged. However, the present invention can be applied. According to X-rays, the transmittance with respect to a metal such as solder varies depending on the thickness. Therefore, an estimated image as a transmission image can be generated by preparing three-dimensional shape data in advance. In addition, since infrared light is transmitted through plastic, an estimated image as a transmission image can be generated in the same manner.

すなわち、電磁波が検査対象物を経由するときの挙動を推測することにより、推定イメージを推定することができれば、本発明を適用することができる。従って、電磁波の屈折像や散乱像や回折像等を撮像するような撮像方式であっても、良品または不良品の推定特徴値を予め用意しておくことができる。特に、透過像の推定イメージを生成するにあたっては、検査対象の厚みが推定イメージにおける光量(輝度)に対応するため、3次元の形状データから容易に推定イメージを生成することができる。さらに、透過像においては、検査対象物の内部に発生し得るボイドの径や位置を指定することにより、ボイドが介在する検査対象物の推定イメージを推定することができる。具体的には、電磁波がボイドを貫通する画素群については局所的に光量(輝度)が大きいという特徴を有する推定イメージが作成される。そして、実際に検査対象物を撮像した際の撮像イメージが上記の特徴を有する推定イメージに類似し、かつ、表面形状が平坦である場合には、当該検査対象物にボイドがあることを特定することができる。   That is, the present invention can be applied if the estimated image can be estimated by estimating the behavior when the electromagnetic wave passes through the inspection object. Therefore, it is possible to prepare in advance the estimated feature value of a good product or a defective product even in an imaging system that captures a refraction image, a scattered image, a diffraction image, or the like of an electromagnetic wave. In particular, when an estimated image of a transmission image is generated, the estimated image can be easily generated from three-dimensional shape data because the thickness of the inspection object corresponds to the light amount (luminance) in the estimated image. Furthermore, in the transmission image, an estimated image of the inspection object in which the void interposes can be estimated by designating the diameter and position of the void that can be generated inside the inspection object. Specifically, an estimated image having a feature that a light amount (luminance) is locally large is created for a pixel group through which electromagnetic waves penetrate a void. Then, if the captured image when the inspection object is actually imaged is similar to the estimated image having the above characteristics and the surface shape is flat, it is specified that the inspection object has a void. be able to.

さらに、上記実施形態においては単一のリングライトについて推定イメージを生成するものを例示したが、例えば2個や3個の複数のリングライトを想定して複数の推定イメージを生成してもよい。すなわち、複数の入射角についての推定イメージを生成するとともに、これらの推定イメージとそれぞれの入射角で実際に撮像した撮像イメージとを比較してもよい。このようにすることにより、複数組の推定イメージと撮像イメージについての比較結果を得ることができ、これらの比較結果から総合的に良否を判定することができる。従って、ある入射角において判定結果の信頼性が低くなるような条件においても、信頼性の高い他の入射角の判定結果を考慮しつつ良否判定を行うことができるため、安定性の高い良否判定を実現することができる。   Furthermore, in the above-described embodiment, an example in which an estimated image is generated for a single ring light is illustrated. However, for example, a plurality of estimated images may be generated assuming two or three ring lights. In other words, estimated images for a plurality of incident angles may be generated, and these estimated images may be compared with captured images actually captured at the respective incident angles. By doing in this way, the comparison result about several sets of presumed images and picked-up images can be obtained, and quality can be determined comprehensively from these comparison results. Therefore, even under conditions where the reliability of the determination result is low at a certain incident angle, it is possible to perform the pass / fail determination while considering the determination result of other incident angles with high reliability. Can be realized.

また、上記実施形態において判別関数を用いて良否判定を行うものを例示したが、必ずしも判別関数を用いなくてもよい。すなわち、実際に検査対象物を撮像して得られた実特徴値が不良品の推定特徴値から遠い値となっていれば、その検査対象物が良品であると判定することができるし、不良品の推定特徴値に近い値となっていれば、その検査対象物が不良品であると判定することができる。すなわち、良品または不良品の推定特徴値が予め算出されていれば、同推定特徴値と実際に検査対象物を撮像して得られた実特徴値とを比較することにより、良否判定を行うことができる。   Moreover, although what performed the quality determination using a discriminant function in the said embodiment was illustrated, it does not necessarily need to use a discriminant function. That is, if the actual feature value obtained by actually imaging the inspection object is a value far from the estimated feature value of the defective product, it can be determined that the inspection object is a non-defective product, If the value is close to the estimated feature value of the non-defective product, it can be determined that the inspection object is a defective product. That is, if an estimated feature value of a non-defective product or a defective product has been calculated in advance, pass / fail judgment is performed by comparing the estimated feature value with an actual feature value actually obtained by imaging the inspection object. Can do.

また、上記実施形態においては、はんだ小不良の上限の形状Dからはんだ高さhが均等に低くなるようなばらつきを設定したが、他の態様でばらつきを設定してもよい。すなわち、量産した際におけるはんだ高さhの分布傾向が予測できる場合には、その分布傾向に応じて重み付けを行ってもよい。例えば、上限形状D付近のはんだ高さhの分布度数が他のはんだ高さhよりも多い場合には、上限形状D付近のはんだ高さhの付近においては、はんだ高さhの偏差を細かく設定し、他のはんだ高さhよりも多数の推定特徴値が算出されるようにしてもよい。これにより、推定特徴値に重み付けをすることができる。また、ばらつきの範囲を前工程の工程能力等に基づいて設定してもよい。   Moreover, in the said embodiment, although the dispersion | variation which sets the solder height h uniformly from the upper limit shape D of a solder small defect was set, you may set dispersion | variation in another aspect. That is, when the distribution tendency of the solder height h in mass production can be predicted, weighting may be performed according to the distribution tendency. For example, when the distribution frequency of the solder height h in the vicinity of the upper limit shape D is larger than the other solder heights h, the deviation of the solder height h is fine in the vicinity of the solder height h in the vicinity of the upper limit shape D. A larger number of estimated feature values than other solder heights h may be calculated. Thereby, the estimated feature value can be weighted. Further, the range of variation may be set based on the process capability of the previous process.

さらに、形状データ34dを取得する手法も種々適用することができる。なお、上記実施形態においては、使用者が視覚的に不良となる形状データ34dを特定するものを例示している。その他の手法として、例えばはんだ形状であれば、はんだ溶融時の物理特性から形状データ34dを作成してもよい。この場合、実装部品やパッドの濡れ性と溶融はんだの表面張力や粘性と溶融温度プロファイルとはんだ量等の条件を入力することにより、3次元の形状データ34dを予測することができる。   Furthermore, various techniques for obtaining the shape data 34d can also be applied. In the embodiment described above, the user specifies the shape data 34d that is visually defective. As another method, for example, in the case of a solder shape, the shape data 34d may be created from physical characteristics at the time of melting the solder. In this case, the three-dimensional shape data 34d can be predicted by inputting conditions such as the wettability of the mounted component or pad, the surface tension or viscosity of the molten solder, the melting temperature profile, and the amount of solder.

図16と図17において3次元の形状データ34dを作成する様子を説明している。図16では、はんだ形状に影響を与えるパラメータを一覧化して示している。具体的には、はんだ量、実装部品の形状、パッドの形状、はんだ比重、はんだ接触角、重力、溶融はんだの表面張力、パッドに対する実装部品の位置等がはんだ形状に影響を与えるパラメータとして挙げられる。そして、これらのパラメータの具体的な数値を流体シミュレーションプログラムに入力し、流体シミュレーションを実行することにより、3次元の形状データ34dを作成することができる。   FIGS. 16 and 17 illustrate how the three-dimensional shape data 34d is created. FIG. 16 shows a list of parameters that affect the solder shape. Specifically, the amount of solder, the shape of the mounted component, the shape of the pad, the specific gravity of the solder, the solder contact angle, the gravity, the surface tension of the molten solder, the position of the mounted component with respect to the pad, etc. are listed as parameters that affect the solder shape. . Then, by inputting specific numerical values of these parameters into the fluid simulation program and executing the fluid simulation, the three-dimensional shape data 34d can be created.

図17では、流体シミュレーションプログラムが作成した3次元の形状データ34dをいくつか例示している。流体シミュレーションにおいては、上記したパラメータを考慮しつつ、時系列に沿って溶融はんだ表面の形状を計算していく。また、計算の途中において、適宜、ポリゴン(図中に示す3角形の単位図形)の分割や修正などを行ってもよい。例えば、パラメータとして入力されたはんだ量を少なくした場合には、同図左上に示す”はんだ小”の形状データ34dを作成することができる。反対に、パラメータとして入力されたはんだ量を多くした場合には、同図右上に示す”はんだ大”の形状データ34dを作成することができる。   FIG. 17 illustrates some of the three-dimensional shape data 34d created by the fluid simulation program. In the fluid simulation, the shape of the molten solder surface is calculated along a time series in consideration of the above parameters. Further, during the calculation, polygons (triangular unit figures shown in the figure) may be appropriately divided or corrected. For example, when the amount of solder input as a parameter is reduced, the “small solder” shape data 34d shown in the upper left of the figure can be created. On the contrary, when the amount of solder input as a parameter is increased, the shape data 34d of “solder large” shown in the upper right of the figure can be created.

さらに、パラメータとして入力された接触角を高くした場合には、同図左下に示す”濡れ不良”の形状データ34dを作成することができる。また、パッドに対する実装部品の位置を大きくずらした場合には、同図右下に示す”欠品”の形状データ34dを作成することができる。このように、流体シミュレーションを利用して形状データ34dを取得することにより、不良サンプル等を一切作成することなく大量の形状データ34dを取得することができる。なお、流体シミュレーションプログラムに対して指定するパラメータとして、溶融温度プロファイルやリフロー搬送方向やはんだ成分やフラックス成分等を指定するようにしてもよい。   Furthermore, when the contact angle input as a parameter is increased, the “wetting defect” shape data 34d shown in the lower left of the figure can be created. Further, when the position of the mounted component with respect to the pad is largely shifted, the “out of stock” shape data 34d shown in the lower right of the figure can be created. As described above, by acquiring the shape data 34d using the fluid simulation, it is possible to acquire a large amount of the shape data 34d without creating any defective sample or the like. Note that a melting temperature profile, a reflow conveyance direction, a solder component, a flux component, and the like may be specified as parameters specified for the fluid simulation program.

さらに、流体シミュレーションを利用する場合においては、上記したパラメータに対してばらつきを設定することにより、はんだ形成条件のばらつきが考慮された形状データ34dを多数得ることができる。例えば、パッド上に印刷されるはんだ量のばらつきが予め分かっている場合には、同はんだ量のばらつきを設定することにより、はんだ高さhにばらつきを持った形状データ34dを多数得ることができる。従って、上記実施形態のように均等なばらつきを設定するよりも、物理法則や工程能力に則した形状データ34dのばらつきを得ることができる。   Further, in the case of using the fluid simulation, it is possible to obtain a large number of shape data 34d in consideration of the variation in the solder formation conditions by setting the variation for the above-described parameters. For example, if the variation in the amount of solder printed on the pad is known in advance, a large number of shape data 34d having variations in the solder height h can be obtained by setting the variation in the amount of solder. . Therefore, it is possible to obtain the variation of the shape data 34d in accordance with the physical laws and the process capability, rather than setting the uniform variation as in the above embodiment.

流体シミュレーションプログラムにて作成された形状データ34dは、図4に示すステップS120にて取得され、以降の処理が前実施形態と同様に実行される。すなわち、形状データ取得部M2と推定部M3が流体シミュレーションプログラムにて作成された形状データ34dを対象に処理を行うことにより、形状データ34dに対応する推定イメージ33bを得ることができる。従って、流体シミュレーションプログラムにて作成された形状データ34dが、形状データ取得部M2と推定部M3にて取り扱い可能な形式となっている必要がある。ところで、流体シミュレーションプログラムとして、市販されている種々のCG作成用ソフトウェアを適用することができる。一方、形状データ34dに対して処理を行う形状データ取得部M2と推定部M3としても、一般的なレイトレーシング(光線追跡)ソフトウェアを適用することができ、上記実施形態と同様にリングライトの情報やはんだ面の情報などを設定することで推定イメージを作成することができる。   The shape data 34d created by the fluid simulation program is acquired in step S120 shown in FIG. 4, and the subsequent processing is executed as in the previous embodiment. That is, when the shape data acquisition unit M2 and the estimation unit M3 perform processing on the shape data 34d created by the fluid simulation program, an estimated image 33b corresponding to the shape data 34d can be obtained. Therefore, the shape data 34d created by the fluid simulation program needs to be in a format that can be handled by the shape data acquisition unit M2 and the estimation unit M3. By the way, various commercially available software for creating CG can be applied as the fluid simulation program. On the other hand, as the shape data acquisition unit M2 and the estimation unit M3 that process the shape data 34d, general ray tracing (ray tracing) software can be applied. Estimated images can be created by setting solder surface information.

このように、個別に各ソフトウェアが個別に提供され、各ソフトウェアにおける形状データ34dに互換性がない場合には、CG作成用ソフトウェアにて作成された形状データ34dをレイトレーシングソフトウェアにて取り扱い可能な形式に調整したり、両ソフトウェア間のデータや指令等の授受を実現する連携ソフトウェアを設けるようにしてもよい。   In this way, when each software is individually provided and the shape data 34d in each software is not compatible, the shape data 34d created by the CG creation software can be handled by the ray tracing software. You may make it provide the cooperation software which adjusts to a format or implement | achieves exchange of the data, command, etc. between both software.

本発明にかかる良否判定装置の全体図である。1 is an overall view of a quality determination apparatus according to the present invention. コンピュータの内部ブロック図である。It is an internal block diagram of a computer. 良否判定を行うためのソフトウェアブロック図である。It is a software block diagram for performing quality determination. 不良データ蓄積処理のフローチャートである。It is a flowchart of defective data accumulation processing. ディスプレイの表示画面である。It is a display screen of a display. ばらつき設定を説明する図である。It is a figure explaining dispersion | variation setting. 形状データにおける画素を示す図である。It is a figure which shows the pixel in shape data. 入射角度γの算出を説明する図である。It is a figure explaining calculation of incident angle γ. 反射挙動を説明する図である。It is a figure explaining reflection behavior. 推定特徴値が蓄積されたテーブルである。It is a table in which estimated feature values are accumulated. 良データ蓄積処理のフローチャートである。It is a flowchart of a good data storage process. 視野Sを示す平面図である。3 is a plan view showing a field of view S. FIG. 実特徴値が蓄積されたテーブルである。It is a table in which actual feature values are accumulated. 判別関数を説明するグラフである。It is a graph explaining a discriminant function. 良否判定処理のフローチャートである。It is a flowchart of a quality determination process. 3次元データ作成に使用されるパラメータの一覧である。It is a list of parameters used for creating three-dimensional data. 3次元データの説明図である。It is explanatory drawing of three-dimensional data.

符号の説明Explanation of symbols

10…形状良否判定装置
20…撮像ユニット
21…コントローラ
21a…画像メモリ(VRAM)
22…カメラ
22a…光学系
22b…CCD撮像板
23…X−Yステージ
24…リングライト
30…コンピュータ
31…CPU
32…RAM
33…ビデオメモリ(VRAM)
33a…撮像イメージ
33b…推定イメージ
34…ハードディスク(HDD)
34b,M…良否判定プログラム
34c…基板データ
34d…形状データ
34e1,G…実特徴値
34e2,F…推定特徴値
34f,H…判別関数
36…ディスプレイ
38a…キーボード
38b…マウス
50…実装基板
51…チップ部品
52…はんだ
A〜F…断面形状
M1…撮像実行部
M2…形状データ取得部
M3…推定部
M3a…入射角度取得部
M3b…反射挙動推定部
M3c…到達光量推定部
M3d…推定イメージ生成部
M4…特徴値算出部
M5…判別関数算出部
M6…良否判定部
P…画素
S…視野
γ…入射角度
θ…平均傾斜角度
DESCRIPTION OF SYMBOLS 10 ... Shape quality determination apparatus 20 ... Imaging unit 21 ... Controller 21a ... Image memory (VRAM)
22 ... Camera 22a ... Optical system 22b ... CCD imaging plate 23 ... XY stage 24 ... Ring light 30 ... Computer 31 ... CPU
32 ... RAM
33 ... Video memory (VRAM)
33a ... Captured image 33b ... Estimated image 34 ... Hard disk (HDD)
34b, M ... pass / fail judgment program 34c ... board data 34d ... shape data 34e1, G ... actual feature value 34e2, F ... estimated feature value 34f, H ... discriminant function 36 ... display 38a ... keyboard 38b ... mouse 50 ... mounting board 51 ... Chip part 52 ... Solder A to F ... Cross-sectional shape M1 ... Imaging execution part M2 ... Shape data acquisition part M3 ... Estimation part M3a ... Incident angle acquisition part M3b ... Reflection behavior estimation part M3c ... Amount of arrival light quantity estimation part M3d ... Estimated image generation part M4: Feature value calculation unit M5 ... Discrimination function calculation unit M6 ... Pass / fail determination unit P ... Pixel S ... Field of view γ ... Incident angle θ ... Average tilt angle

Claims (7)

検査対象物を撮像して撮像イメージを生成する撮像手段と、
上記撮像イメージの特徴値を実特徴値として算出する実特徴値算出手段と、
良品または不良品の形状を表す3次元データを取得する形状データ取得手段と、
上記3次元データに基づいて上記良品または不良品を撮像したときの上記撮像イメージを推定した推定イメージを生成する推定手段と、
同推定された上記推定イメージの上記特徴値を推定特徴値として算出する推定特徴値算出手段と、
上記実特徴値と上記推定特徴値とを比較することにより上記検査対象物の良否判定を行う良否判定手段とを具備することを特徴とする形状良否判定装置。
Imaging means for imaging an inspection object and generating a captured image;
Actual feature value calculating means for calculating the feature value of the captured image as an actual feature value;
Shape data acquisition means for acquiring three-dimensional data representing the shape of a non-defective product or a defective product;
Estimating means for generating an estimated image obtained by estimating the captured image when the good product or defective product is imaged based on the three-dimensional data;
Estimated feature value calculating means for calculating the estimated feature value of the estimated image as the estimated feature value;
A shape pass / fail judgment device comprising: pass / fail judgment means for judging pass / fail of the inspection object by comparing the actual feature value and the estimated feature value.
上記撮像手段は、上記検査対象物を経由して入射される電磁波の状態を位置ごとに取得することにより上記撮像イメージを生成するとともに、
上記推定手段は、
上記撮像手段が上記検査対象物を撮像する際に同検査対象物に入射する上記電磁波の入射角度を取得する入射角度取得手段と、
上記3次元データと上記入射角度に基づいて、上記電磁波が上記良品または不良品に到達する際の挙動を推定する挙動推定手段と、
上記挙動に基づいて上記撮像手段に到達する上記電磁波の状態を推定する到達状態推定手段と、
上記撮像手段に到達する上記電磁波の状態を示す値を位置ごとに配列させることにより上記推定イメージを生成する推定イメージ生成手段とを具備することを特徴とする請求項1に記載の形状良否判定装置。
The imaging means generates the captured image by acquiring the state of the electromagnetic wave incident via the inspection object for each position, and
The estimation means is
Incident angle acquisition means for acquiring the incident angle of the electromagnetic wave incident on the inspection object when the imaging means images the inspection object;
Based on the three-dimensional data and the incident angle, behavior estimation means for estimating behavior when the electromagnetic wave reaches the non-defective product or the defective product,
Arrival state estimation means for estimating the state of the electromagnetic wave reaching the imaging means based on the behavior;
The shape quality determination device according to claim 1, further comprising estimated image generation means for generating the estimated image by arranging values indicating the state of the electromagnetic wave reaching the imaging means for each position. .
上記挙動推定手段は、上記電磁波が上記良品または不良品に到達する際の反射挙動を推定することを特徴とする請求項2に記載の形状良否判定装置。   3. The shape pass / fail determination apparatus according to claim 2, wherein the behavior estimation means estimates a reflection behavior when the electromagnetic wave reaches the non-defective product or the defective product. 上記挙動推定手段が上記反射挙動を推定するにあたり、鏡面反射と拡散反射とが考慮されることを特徴とする請求項3に記載の形状良否判定装置。   4. The shape pass / fail judgment apparatus according to claim 3, wherein specular reflection and diffuse reflection are taken into account when the behavior estimation means estimates the reflection behavior. 形状データ取得手段は、上記良品または不良品の形状にばらつきを持たせた複数の3次元データを取得することを特徴とする請求項1から請求項4のいずれかに記載の形状良否判定装置。   5. The shape pass / fail judgment device according to claim 1, wherein the shape data acquisition unit acquires a plurality of three-dimensional data having variations in the shape of the non-defective product or the defective product. 上記実特徴値算出手段と上記推定特徴値算出手段は、上記撮像イメージと上記推定イメージから多種の上記実特徴値と上記推定特徴値を算出するとともに、
上記良否判定手段は、多種の上記実特徴値と上記推定特徴値をそれぞれ線形結合させた判別値を比較することにより良否判定を行うことを特徴とする請求項1から請求項5のいずれかに記載の形状良否判定装置。
The actual feature value calculating means and the estimated feature value calculating means calculate various actual feature values and estimated feature values from the captured image and the estimated image,
6. The quality determination unit according to claim 1, wherein the quality determination unit makes a quality determination by comparing a discrimination value obtained by linearly combining the actual feature value and the estimated feature value. The shape pass / fail judgment device described.
検査対象物を撮像して撮像イメージを生成する撮像工程と、
上記撮像イメージの特徴値を実特徴値として算出する実特徴値算出工程と、
良品または不良品の形状を表す3次元データを取得する形状データ取得工程と、
上記3次元データに基づいて上記良品または不良品を撮像したときの上記撮像イメージを推定した推定イメージを生成する推定工程と、
同推定された上記撮像イメージの上記特徴値を推定特徴値として算出する推定特徴値算出工程と、
上記実特徴値と上記推定特徴値とを比較することにより上記検査対象物の良否判定を行う良否判定工程とを具備することを特徴とする形状良否判定方法。
An imaging process for imaging an inspection object and generating a captured image;
An actual feature value calculating step of calculating the feature value of the captured image as an actual feature value;
A shape data acquisition step for acquiring three-dimensional data representing the shape of a non-defective product or a defective product;
An estimation step for generating an estimated image obtained by estimating the captured image when the non-defective product or the defective product is imaged based on the three-dimensional data;
An estimated feature value calculating step of calculating the estimated feature value of the captured image as the estimated feature value;
A shape pass / fail determination method comprising: a pass / fail determination step for determining pass / fail of the inspection object by comparing the actual feature value and the estimated feature value.
JP2005020347A 2005-01-27 2005-01-27 Shape pass / fail judgment device and shape pass / fail judgment method Expired - Fee Related JP4583189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005020347A JP4583189B2 (en) 2005-01-27 2005-01-27 Shape pass / fail judgment device and shape pass / fail judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005020347A JP4583189B2 (en) 2005-01-27 2005-01-27 Shape pass / fail judgment device and shape pass / fail judgment method

Publications (2)

Publication Number Publication Date
JP2006208186A true JP2006208186A (en) 2006-08-10
JP4583189B2 JP4583189B2 (en) 2010-11-17

Family

ID=36965214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005020347A Expired - Fee Related JP4583189B2 (en) 2005-01-27 2005-01-27 Shape pass / fail judgment device and shape pass / fail judgment method

Country Status (1)

Country Link
JP (1) JP4583189B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096004A1 (en) * 2011-01-13 2012-07-19 オムロン株式会社 Solder-attachment inspection method, solder-attachment inspection device, and pcb-inspection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04169803A (en) * 1990-11-02 1992-06-17 Hitachi Ltd Method and apparatus for inspection
JPH0535849A (en) * 1991-07-30 1993-02-12 Omron Corp Teaching data preparation method
JPH0926396A (en) * 1995-07-12 1997-01-28 Hitachi Ltd Method and apparatus for inspecting fault of foreign matter or the like
JPH11344450A (en) * 1998-06-03 1999-12-14 Hitachi Ltd Instruction data forming method and defect classifying method and apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04169803A (en) * 1990-11-02 1992-06-17 Hitachi Ltd Method and apparatus for inspection
JPH0535849A (en) * 1991-07-30 1993-02-12 Omron Corp Teaching data preparation method
JPH0926396A (en) * 1995-07-12 1997-01-28 Hitachi Ltd Method and apparatus for inspecting fault of foreign matter or the like
JPH11344450A (en) * 1998-06-03 1999-12-14 Hitachi Ltd Instruction data forming method and defect classifying method and apparatus thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096004A1 (en) * 2011-01-13 2012-07-19 オムロン株式会社 Solder-attachment inspection method, solder-attachment inspection device, and pcb-inspection system

Also Published As

Publication number Publication date
JP4583189B2 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
JP6922168B2 (en) Surface mount line quality control system and its control method
US7630539B2 (en) Image processing apparatus
TWI551855B (en) System and method for inspecting a wafer and a program storage device readble by the system
US8233041B2 (en) Image processing device and image processing method for performing three dimensional measurements
JP2019049556A (en) System and method for inspecting wafers
JP7122524B2 (en) Inspection program generation system, inspection program generation method, and inspection program generation program
EP1580691A2 (en) Automatic adjustment of acquisition of inspection image
CN1947153A (en) Systems and methods for detecting defects in printed solder paste
JP7135418B2 (en) FLATNESS DETECTION METHOD, FLATNESS DETECTION APPARATUS AND FLATNESS DETECTION PROGRAM
JP2013224833A (en) Visual inspection device, visual inspection method and computer program
JP2006276454A (en) Image correcting method and pattern defect inspecting method using same
CN105424721A (en) Metal strain gauge defect automatic detection system
US6807288B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2019100753A (en) Printed circuit board inspection device and printed circuit board inspection method
JP2006208187A (en) Shape quality decision device and method
JP4583189B2 (en) Shape pass / fail judgment device and shape pass / fail judgment method
JP2020512536A (en) System and method for 3D profile determination using model-based peak selection
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
JP2019219357A (en) Imaging apparatus, imaging method, and imaging program
US20020131633A1 (en) System and method for machine vision inspection through platen
JP4610364B2 (en) Pass / fail judgment device, pass / fail judgment method, and pass / fail judgment program
JP2012190935A (en) Chip position specification system, chip position specification device, chip position specification program, and chip position specification method
JP5205224B2 (en) Component mounting state inspection device
KR100710703B1 (en) Inspection system for a measuring plating line width of semiconductor reed frame and thereof method
JP2007072232A (en) Reference image forming apparatus, pattern inspection apparatus, reference image forming method, and reticle

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100831

R150 Certificate of patent or registration of utility model

Ref document number: 4583189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees