JPH06201338A - Outer appearance state inspection - Google Patents

Outer appearance state inspection

Info

Publication number
JPH06201338A
JPH06201338A JP35902592A JP35902592A JPH06201338A JP H06201338 A JPH06201338 A JP H06201338A JP 35902592 A JP35902592 A JP 35902592A JP 35902592 A JP35902592 A JP 35902592A JP H06201338 A JPH06201338 A JP H06201338A
Authority
JP
Japan
Prior art keywords
data
layer
appearance state
output
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35902592A
Other languages
Japanese (ja)
Inventor
Seiichi Hayashi
精一 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Denshi KK
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP35902592A priority Critical patent/JPH06201338A/en
Publication of JPH06201338A publication Critical patent/JPH06201338A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Electric Connection Of Electric Components To Printed Circuits (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To provide an inspection method of especially a soldering state after mounting an electronic part and a board flexibly corresponding to various conditions concerning an outer appearance inspection method of general parts. CONSTITUTION:An inspected article is irradiated by luminous means 11-17, its image is picked up by a sensor of an image-up camera 2 and others and converted to an electrical signal. Additionally, this electrical signal is, by picture image processing means 3, 4, formed into a pattern of a shape information code data and a pattern of a variable density contrast distribution data. It is constituted by means of a neurocomputer having a learning recognizing ability to accurately grasp, inspect and judge an outer appearance state of the inspected article.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は一般部品の外観検査方法
に係り、特に、電子部品の基板実装後のはんだ付け状態
の検査方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for inspecting the appearance of general components, and more particularly to a method for inspecting the soldering state of electronic components after they are mounted on a board.

【0002】[0002]

【従来の技術】立体形状としての被検査対象品の一例と
して、従来の装置には特開61−41906号公報に記
載のように、被検査対象であるはんだ付け部に異なった
複数の光源光を照射し、はんだ付け面に対して、その都
度得られる反射面の値の変化を、受光素子またはテレビ
カメラによりはんだ付け面の幾つかの傾斜面の画像情報
を得る(以下段差照明装置と称す)。この種々の画像情
報を数値的演算処理により判断基準を作り高度のソフト
により、はんだの状態別、例えば、はんだ付けの良、不
足、過剰、ぬれ不良、無し、リ−ド浮き、リ−ドずれ、
異常などに分類し判定をしていた。
2. Description of the Related Art As an example of an object to be inspected as a three-dimensional shape, a conventional apparatus has a plurality of different light source light sources for a soldering portion to be inspected, as described in JP-A-61-41906. Of the soldering surface, the change in the value of the reflecting surface obtained each time is obtained by a light receiving element or a television camera to obtain image information of several inclined surfaces of the soldering surface (hereinafter referred to as a step illumination device). ). A judgment standard is created by numerical calculation processing of these various image information, and advanced software is used to sort the solder state, for example, good soldering, insufficient soldering, excessive soldering, poor soldering, none, lead floating, lead deviation. ,
It was classified as abnormal and judged.

【0003】上記従来技術は、特に、立体形状としての
被検査対象品の一例として、例えばはんだ表面状態の多
様性、及びその進展性、柔軟性について考慮されていな
い。つまり、実装基板に搭載する電子部品はより一層高
密度化され、小形化され、はんだ付け技術は進歩し、ま
た、当該基板の採用先により、その都度、はんだ付けの
良否判定基準は変化する。従って、その毎に画像情報の
数値的演算処理内容を変更する必要がある。
[0003] The above-mentioned prior art does not take into consideration, for example, the variety of solder surface states, the progress thereof, and the flexibility, as an example of an object to be inspected as a three-dimensional shape. In other words, the electronic components mounted on the mounting board are further densified and miniaturized, the soldering technology is improved, and the quality standard of soldering is changed each time depending on the destination of the board. Therefore, it is necessary to change the content of the numerical calculation processing of the image information every time.

【0004】しかし、これらの検討は大変に手間の掛か
るものであり、非常に困難である。また、この判定基準
を設定することは種々のノウハウの積み重ねが必要であ
るため高度の解析判定ソフトが必要であり、また、その
判定基準の設定は大変困難であり判定も微妙である。こ
のため判定が不十分であったり、時により検査結果に大
きなバラツキが出る為に検査精度が低下するという問題
もあった。また、判定処理時間も長くなり問題であっ
た。一方、これらの問題点を解決する方法として、ニュ
ーラルネットワークを応用した検査装置が提案されてい
る。その一例として、例えば、特願平3−81206号
がある。 この発明は段差照明を使用した検査装置で、
立体形状コ−ドデ−タをニューロコンピュータ処理して
いる。このため、ニューラルネットワークによる学習機
能の効果により、微妙な判定基準の設定が可能になっ
た。
However, these studies are very time-consuming and very difficult. Further, setting this judgment criterion requires a high level of analysis know-how because various know-how needs to be accumulated, and setting the judgment criterion is very difficult and the judgment is delicate. For this reason, there is a problem that the determination is insufficient, and the inspection accuracy sometimes deteriorates due to a large variation in the inspection result from time to time. Further, the determination processing time becomes long, which is a problem. On the other hand, as a method for solving these problems, an inspection apparatus applying a neural network has been proposed. As an example thereof, there is Japanese Patent Application No. 3-81206. This invention is an inspection device using step illumination,
The three-dimensional code data is processed by a neuro computer. Therefore, the learning function of the neural network makes it possible to set delicate criteria.

【発明が解決しようとする課題】これら従来方法におい
て、より微細な平面の状態を把握することは、照明の段
数を増加させなければならず、装置の構成が複雑になる
ばかりではなく、処理時間も長くなり、実用上の問題が
多い。
In these conventional methods, grasping the state of a finer plane requires an increase in the number of stages of illumination, which not only complicates the configuration of the apparatus but also requires a longer processing time. Also becomes longer and there are many practical problems.

【0005】[0005]

【課題を解決するための手段】本発明は上記の問題を解
決するために、被検査物品のを発光手段により照射し、
撮像カメラ等のセンサにより、撮像し、電気信号に変換
する。更に、この電気信号は画像処理手段により、形状
情報コ−ドデ−タ(すなわち、立体形状のデータ)のパ
ターンと濃淡階調分布デ−タのパターンが作成される。
このそれぞれのパターンデ−タをもとに、被検査物品の
外観状態を正確に把握し、検査、判断する学習認識機能
をもったニュ−ロコンピュ−タの手段により構成され
る。
In order to solve the above problems, the present invention irradiates an article to be inspected with a light emitting means,
An image is picked up by a sensor such as an image pickup camera and converted into an electric signal. Further, a pattern of shape information code data (that is, three-dimensional shape data) and a pattern of grayscale gradation distribution data are created from this electric signal by the image processing means.
Based on the respective pattern data, it is constituted by means of a neuro computer having a learning and recognition function for accurately grasping, inspecting and judging the appearance state of the article to be inspected.

【0006】[0006]

【作用】発光手段とセンサによりえられた被検査物品の
形状情報コ−ドデ−タ(すなわち、立体形状のデータ)
のパターンと濃淡階調分布デ−タのパターンは、ニュー
ロコンピュータ内で、被検査物品の判定基準と検出デー
タとの関係を対応させながら、対象品の外観状態の各種
レベルの豊富なデ−タにより学習させニュ−ロコンピュ
−タ内のネットワ−クが最適な判断構成となるように重
み付けされ、構成される。このように、ニュ−ロコンピ
ュ−タは、形状情報と濃淡階調分布の2つデ−タにより
微妙な形状の変化にも対応し、最適に判断を行うもので
ある。
The shape information code data of the article to be inspected (that is, three-dimensional shape data) obtained by the light emitting means and the sensor.
The pattern and the grayscale distribution data pattern correspond to the relationship between the judgment standard of the article to be inspected and the detection data in the neurocomputer, and various data of various levels of the appearance state of the article to be inspected. The network in the neuro-computer is weighted and configured so as to have an optimum decision structure by learning by. As described above, the neuro computer handles the subtle change in the shape by the two data of the shape information and the gradation distribution, and makes an optimum decision.

【0007】[0007]

【実施例】以下に本発明による立体形状の被検査対象品
の一例として、はんだ付けの状態の外観検査装置の一実
施例について図面により詳細に説明する。図1は、はん
だ付けの状態検査装置の主要部簡略構成図である。同図
において、電子部品がはんだ付けされた実装基板1の上
方には被検査はんだ付け部への照射角度が変えられる光
源として複数の環状の照明装置11、13、15、17
を配置している。更に撮像カメラ2、2’を上方に配置
し、この撮像カメラ2、または2’は画像処理装置3、
4及び認識判定装置5に接続される。各照明装置は最初
に設定された一定の明るさに保持されている。尚、実装
基板1上面においては電子部品のリ−ド部21とはんだ
付け部22の側断面図を示してある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of a visual inspection apparatus in a soldered state will be described in detail below as an example of a three-dimensionally shaped object to be inspected according to the present invention. FIG. 1 is a schematic configuration diagram of a main part of a soldering state inspection device. In the figure, a plurality of annular illumination devices 11, 13, 15, 17 are provided above the mounting board 1 on which electronic components are soldered as a light source for changing the irradiation angle to the soldered portion to be inspected.
Are arranged. Further, the image pickup camera 2 or 2 ′ is arranged above, and the image pickup camera 2 or 2 ′ is the image processing device 3,
4 and the recognition determination device 5. Each lighting device is kept at a constant brightness set at the beginning. Incidentally, a side cross-sectional view of the lead portion 21 and the soldering portion 22 of the electronic component is shown on the upper surface of the mounting board 1.

【0008】図2は図1の実装基板1を拡大したはんだ
付け部側面図を示したものである。同図において、1
a、3a、5a、7aは各段各照明装置11、13、1
5、17を順次切り替えた場合の入射光、1b、3b、
5b、7bは同じく反射光である。この入射光と反射光
の関連からはんだめんの傾斜角度を求めることができ
る。
FIG. 2 is an enlarged side view of the soldering portion of the mounting board 1 shown in FIG. In the figure, 1
a, 3a, 5a, and 7a are lighting devices 11, 13, and 1 for each stage.
Incident light when switching 5 and 17 sequentially, 1b, 3b,
Similarly, 5b and 7b are reflected lights. The inclination angle of the solder noodle can be obtained from the relationship between the incident light and the reflected light.

【0009】図3は電子部品のリ−ド部21とはんだ付
け部22の平面図を示している。同図の二点鎖線であら
わしたほぼ正方形の枠23は撮像カメラ2、または2’
の撮像取り込み検査する窓枠の範囲を示す。なお、図1
から3については特願平3−81206号に詳細に説明
されている
FIG. 3 shows a plan view of the lead portion 21 and the soldering portion 22 of the electronic component. The substantially square frame 23 represented by the chain double-dashed line in the figure is the imaging camera 2 or 2 '.
The range of the window frame to be inspected for capturing images is shown. Note that FIG.
Nos. 3 to 3 are described in detail in Japanese Patent Application No. 3-81206.

【0010】図4は画像処理装置3から得たはんだ付け
状態の形状情報コ−ドと、その濃淡階調分布デ−タの例
を示す。同図において、濃淡階調分布デ−タは、多段照
明装置11、13、15、17を順次切り替え、撮像カ
メラ2、または2’から得た撮影画像を、画像処理装置
3により、相対値演算し正規化したのち、はんだ面から
の相対的に反射率の高い箇所の領域を摘出し、画像処理
装置4により、各画像データを合成して再構築し表した
ものである。各画素毎に、形状のコ−ドデ−タ番号Nc
と濃淡階調デ−タ値Mを、[Nc−M]にて表す。
FIG. 4 shows an example of the shape information code in the soldering state obtained from the image processing apparatus 3 and the grayscale gradation distribution data thereof. In the figure, for the gradation distribution data, relative values are calculated by the image processing device 3 for the photographed image obtained from the image pickup camera 2 or 2 ′ by sequentially switching the multistage lighting devices 11, 13, 15, and 17. Then, after normalization, a region of a portion having a relatively high reflectance from the solder surface is extracted, and each image data is synthesized and reconstructed by the image processing device 4. Shape code data number Nc for each pixel
And the grayscale data value M are represented by [Nc-M].

【0011】例えば、[1c−数値]は照明装置11で
照射した場合の相対的に反射率の高い箇所の領域の形状
情報コード番号とその濃淡階調デ−タ値を示し、[3c
−数値]は照明装置13で照射した場合の相対的に反射
率の高い箇所の領域の形状情報コード番号とその濃淡階
調デ−タ値を示す。このように画像処理装置4により各
照明に対応した各撮像デ−タは合成作成される。従っ
て、図4は、はんだ付け上面より見た形状情報コード番
号と濃淡階調分布デ−タ例を示していることになる。な
お、[Nc−M]の、形状情報コード番号2cは多段多
照明装置11、13の中間値コ−ド番号、4cは多段多
照明装置13、15の中間値、コ−ド番号6cは多段多
照明装置15、17の中間値を画像処理装置3、4によ
り求め設定したものである。このときの濃淡階調デ−タ
値Mはそれぞれの両者の多段多照明装置による和で表わ
されている。
For example, [1c-numerical value] indicates a shape information code number of a region having a relatively high reflectance and its grayscale data value when it is illuminated by the illuminating device 11, and [3c
[Numerical value] indicates a shape information code number of a region having a relatively high reflectance when illuminated by the illuminating device 13 and its grayscale data value. In this way, the image processing device 4 composites and creates the respective imaging data corresponding to each illumination. Therefore, FIG. 4 shows an example of the shape information code number and the grayscale gradation distribution data viewed from the upper surface of the soldering. In [Nc-M], the shape information code number 2c is the intermediate value code number of the multi-stage multi-illuminating devices 11 and 13, 4c is the intermediate value of the multi-stage multi-illuminating devices 13 and 15, and the code number 6c is the multi-stage. The intermediate values of the multi-illumination devices 15 and 17 are obtained and set by the image processing devices 3 and 4. At this time, the grayscale gradation data value M is represented by the sum of both of the multistage multiilluminators.

【0012】図5は、はんだ付け上面より示した詳細デ
−タ(すなわち、図4)の結果を入力し、認識判定処理
し、各種のはんだ付け状態別に分類し出力する認識判定
装置5の構成図を示す。同図において認識判定装置5の
構成はニュ−ラルネットワ−ク31の一種である学習形
階層式パ−セプトロンからなる、ニュ−ロコンピュ−タ
32である。
FIG. 5 shows a structure of a recognition judgment device 5 for inputting the result of detailed data (that is, FIG. 4) shown from the upper surface of soldering, performing recognition judgment processing, classifying according to various soldering states and outputting. The figure is shown. In the figure, the configuration of the recognition determination device 5 is a neuro computer 32 which is a learning type hierarchical perceptron which is a kind of the neural network 31.

【0013】入力デ−タ、すなわち、形状情報コードデ
−タと、濃淡階調分布デ−タは区分して入力される。な
お、この場合の濃淡階調分布デ−タは、多段照明装置1
3、15、17の照明・反射から得られる階調デ−タ値
(形状情報コードデ−タの3c以上に対応の)が選択さ
れ入力される。逆に、はんだ付けされていない比較的平
坦部分の特徴を捕らえているところの、真上方向からの
多段照明装置11、13の照明・反射から得られる、階
調デ−タ値(形状情報コードデ−タの3c以下に対応
の)を選択し入力されることもある。
The input data, that is, the shape information code data and the grayscale distribution data are separately input. Note that the grayscale gradation distribution data in this case is the same as the multistage lighting device 1.
The gradation data values (corresponding to 3c or more of the shape information code data) obtained from the illumination / reflection of 3, 15, and 17 are selected and input. On the contrary, the gradation data value (shape information code data) obtained from the illumination / reflection of the multi-stage illuminators 11 and 13 from directly above, which captures the characteristics of the relatively flat portion that is not soldered. -(Corresponding to 3c or less) is selected and input.

【0014】ニュ−ラルネットワ−ク31の構成は入力
層、中間層、出力層である。ここで、図5に示す各層の
ニュ−ロンユニットjが、図6に示す互いにシナプス結
合s、すなわち、各シナプスsはそれぞれ1個づつ係数
を記憶し、他のニュ−ロンユニットjからきた信号を受
けて、該係数を掛ける作用を介して接続され後、ニュ−
ロンnに取り込む。各ニュ−ロンnが出す信号は該ニュ
−ロンユニットjが取り込んだ信号の総和のレベルによ
り決まる。記憶している係数が該ニューラルネットワ−
ク31の持つ知識である。なお、ニュ−ロンユニットの
ハードウエアについては既に周知の技術であるため、こ
こでは特に説明しない。
The structure of the neural network 31 is an input layer, an intermediate layer, and an output layer. Here, the neuron unit j of each layer shown in FIG. 5 stores synaptic connections s shown in FIG. 6 with each other, that is, each synapse s stores one coefficient and stores the signal from another neuron unit j. Then, after being connected through the operation of multiplying the coefficient,
Take in Ron n. The signal output by each neuron n is determined by the level of the sum of the signals captured by the neuron unit j. The stored coefficient is the neural network.
This is the knowledge of Ku 31. Since the hardware of the neuron unit is a well-known technique, it will not be described here.

【0015】ここで、ニューラルネットワ−ク31の学
習にはバックプロパゲ−ションを用いる。すなわち(詳
細は後述)、始めに入力層Iに詳細データ(学習教示デ
ータ)を入力し、中間層Hを経て、出力層Oに回答、す
なわち、はんだ付け状態別分類を得る。ニューラルネッ
トワ−ク31はこの回答(出力)と理想回答(対象出力
のみ1、他の出力は0)とを比較しその差が小さくなる
ようにシナップス結合を出力層Oから中間層H、入力層
Iへと逆にたどり、自ら変更していく。この学習を多く
のデータを用いて繰り返すことにより、ニューラルネッ
トワ−ク31はあらゆるデータに対して正確な回答を出
力するようになる。すなわち、ニューラルネットワ−ク
31内のネットワ−クが最適な判断構成となるように結
合の重み付けを実施されるように構成される。
Here, back propagation is used for learning of the neural network 31. That is (details will be described later), first, detailed data (learning teaching data) is input to the input layer I, the intermediate layer H is passed, and the output layer O is answered, that is, classification by soldering state is obtained. The neural network 31 compares this answer (output) with the ideal answer (only the target output is 1, and other outputs are 0), and the synapse coupling is performed from the output layer O to the intermediate layer H and the input layer so that the difference becomes small. Go back to I and make your own changes. By repeating this learning using a large amount of data, the neural network 31 can output accurate answers to all data. That is, the network in the neural network 31 is configured so that the weighting of the connection is carried out so that the network has the optimum determination configuration.

【0016】以上のニューラルネットワ−ク31の動作
式を説明する。初めに、順伝播の動作は、入力層Iにパ
タ−ンPが入力さえれると、中間層Hの各ユニットjは
式(1)にで示される内部ポテンシャルUjを蓄積す
る。結合の重み値をWとし、fをシグモイド関数とす
る。 Uj=ΣWji・Ii+θj−−−−−(1) Uj:中間層Hのユニットの内部ポテンシャル Wji:入力層Iのユニットから中間層Hのユニットへ
の結合係数 Ii:入力層Iのユニットの出力 θj:中間層Hのユニットのオフセット係数 Hj=f(Uj)−−−−−−−−−(2) Hj:中間層Hのユニットの出力 これは、中間層Hのユニットの出力が、入力層Iのユニ
ットの出力と結合係数の荷重和により求められることを
表している。この内部ポテンシャルUjは、例として単
調非減少のシグモイド関数f(x)により、中間層Hの
ユニットの出力Hjとなる。同様に、出力層Oの各ユニ
ットkも次式により求められる。 Sk=ΣVkj・Hj+γk−−−−(3) Sk:出力層Oのユニットの内部ポテンシャル Vkj:中間層Hのユニットから出力層Oのユニットへ
の結合係数 γj:出力層Oのユニットのオフセット係数 Ok=f(Sk)−−−−−−−−−(4) Ok :出力層Oのユニットの出力 次に、理想回答の対象となる学習教示デ−タにもとづく
結合係数の逆伝播の動作は、出力層Oの回答する出力O
kと学習教示デ−タTkとが一致するように、結合係数
の修正値を求める。学習の評価としては、誤差関数Ep
とする。 Ep=g(Tpk−Okp)−−−−−(5) を考える。中間層と出力層の結合係数の更新値ΔVkj
は、各結合係数を微小変化させたとき、誤差関数への影
響δEp/δVkjに比例した量ずつ、最小値へ変化さ
せれば、 ΔVkj=−α・δEp/δVkj−−(6) α:定数 結合係数の誤差関数Epへの影響は δEp/δVkj=−θk・Hj−−−(7) θk:誤差 新たな結合係数Vkjは、 ΔVkj=α・θk・Hj−−−−−−(8) Vkj=Vkj(前回)+ΔVkj−−−(9) 同様に、入力層と中間層の結合係数の更新値ΔWji
は、各結合係数を微小変化させたとき、誤差関数への影
響 δEp/δWjiに比例した量ずつ、最小値へ変化
させれば、 ΔWji=−β・δEp/δWji−−(10) β:定数 結合係数の誤差関数Epへの影響は δEp/δWji=−ξj・Ii−−−(11) ξj:誤差 新たな結合係数Wijは、 ΔWji=β・ξj・Ii−−−−−−(12) Wji=Wji(前回)+ΔWji−−(13) となる。この結合の重み値の更新の動作を繰り返す事に
より、誤差を0に近付けていく学習方法である。
The operation formula of the above neural network 31 will be described. First, in the forward-propagation operation, when the pattern P is input to the input layer I, each unit j of the intermediate layer H accumulates the internal potential Uj shown in the equation (1). Let W be the weight value of the connection and f be the sigmoid function. Uj = ΣWji · Ii + θj −−−−− (1) Uj: Internal potential of unit of intermediate layer H Wji: Coupling coefficient from unit of input layer I to unit of intermediate layer H Ii: Output of unit of input layer I θj : Offset coefficient of unit of intermediate layer H Hj = f (Uj) ------------- (2) Hj: Output of unit of intermediate layer H This is because the output of the unit of intermediate layer H is the input layer. It means that it is obtained by the sum of the output of the unit I and the coupling coefficient. The internal potential Uj becomes the output Hj of the unit of the intermediate layer H by the monotonically non-decreasing sigmoid function f (x), for example. Similarly, each unit k of the output layer O is also calculated by the following equation. Sk = ΣVkj · Hj + γk --- (3) Sk: Internal potential of unit of output layer O Vkj: Coupling coefficient from unit of intermediate layer H to unit of output layer O γj: Offset coefficient of unit of output layer O Ok = F (Sk) ------- (4) Ok: Output of the unit of the output layer O Next, the back propagation operation of the coupling coefficient based on the learning teaching data that is the target of the ideal answer is , Output O that output layer O answers
The correction value of the coupling coefficient is calculated so that k matches the learning teaching data Tk. As an evaluation of learning, the error function Ep
And Consider Ep = g (Tpk-Okp) --- (5). Update value ΔVkj of the coupling coefficient between the intermediate layer and the output layer
Is an effect on the error function when each coupling coefficient is slightly changed. If it is changed to a minimum value by an amount proportional to δEp / δVkj, ΔVkj = −α · δEp / δVkj −− (6) α: constant The influence of the coupling coefficient on the error function Ep is δEp / δVkj = −θk · Hj −− (7) θk: Error The new coupling coefficient Vkj is ΔVkj = α · θk · Hj −−−−− (8) Vkj = Vkj (previous time) + ΔVkj-(9) Similarly, the updated value ΔWji of the coupling coefficient between the input layer and the intermediate layer
Is an effect on the error function when each coupling coefficient is slightly changed. If changed to the minimum value by an amount proportional to δEp / δWji, ΔWji = −β · δEp / δWji −− (10) β: constant The influence of the coupling coefficient on the error function Ep is δEp / δWji = −ξj · Ii −− (11) ξj: Error The new coupling coefficient Wij is ΔWji = β · ξj · Ii −−−−− (12) Wji = Wji (previous time) + ΔWji- (13). This is a learning method in which the error is brought closer to 0 by repeating the operation of updating the weight value of the connection.

【0017】本発明の実施例においては、図5に示すよ
うに、ニューラルネットワ−ク31の具体的構成例とし
て、中間層を二重とした入力層I、I’、中間層H、
H’、出力層Oの3層にて、ニュ−ロコンピュ−タ32
を構成している。更に、入力層I、中間層Hの一群は形
状情報コ−ドデ−タ側に結合されている。入力層I’、
中間層H’の他の一群は濃淡階調分布デ−タ側に結合さ
れている。
In the embodiment of the present invention, as shown in FIG. 5, as a concrete configuration example of the neural network 31, the input layers I, I ', the intermediate layer H, and the double intermediate layer are provided.
A neuro computer 32 with three layers of H'and output layer O.
Are configured. Further, a group of the input layer I and the intermediate layer H is connected to the shape information code data side. Input layer I ′,
The other group of the intermediate layer H'is connected to the grayscale gradation distribution data side.

【0018】ニュ−ロコンピュ−タ32の入力層I、
I’は図4に示した詳細デ−タ状態図に対応し、その画
素に対応する(冗長度が高い場合には必要に応じて、一
定間隔に間曳いた後)たてデ−タm×よこデ−タn=m
nのニュ−ロンユニットjをそれぞれ設ける。(図6は
1つのニューロンユニットの構成を示す)この入力層
I、I’に画像処理装置4からのデータが入力する。
The input layer I of the neurocomputer 32,
I'corresponds to the detailed data state diagram shown in FIG. 4, and corresponds to the pixel (after high-redundancy, if necessary, at a constant interval) fresh data m. × horizontal data n = m
n neuron units j are provided respectively. (FIG. 6 shows the configuration of one neuron unit) Data from the image processing device 4 is input to the input layers I and I '.

【0019】中間層H、H’は入力層I、I’に対応し
M、Nのニュ−ロンユニットjを実験的に設ける。
The intermediate layers H and H'corresponding to the input layers I and I'are experimentally provided with neuron units j of M and N.

【0020】出力層Oには認識判定カテゴリ結果の詳細
分類Sのニュ−ロンユニットjを設ける。例えば、予め
設定した認識判定カテゴリとして各種はんだ付けの状態
別、すなわち、a:良、b:不足、c:過剰、d:ぬれ
不良、e:無し、f:リ−ド浮き、g:リ−ドずれ、
h:異常などに、分類される。
The output layer O is provided with a neuron unit j of the detailed classification S of the recognition judgment category result. For example, as a preset recognition determination category, each soldering state is classified into: a: good, b: insufficient, c: excessive, d: poor wetting, e: none, f: lead floating, g: lead. Misalignment,
h: Classified as abnormal.

【0021】初に、学習段階においては、係数(知識)
を適切な値に修正する事になる。先ず、はんだ付け状態
の自動分類をするために、予め詳細分類が分かっている
はんだ面の特徴パラメ−タである形状傾斜角度別の形状
情報コ−ドデ−タが入力層Iと、濃淡階調分布デ−タが
入力層I’に、画素分たてデ−タn×よこデ−タm=n
mニユ−ロンユニットjに入力される。この時のはんだ
付け状態のデ−タは、はんだ付けの実面積領域、急峻
性、平坦性、リ−ド位置との対象性等の形状デ−タをふ
くんでいる。学習には、各分類の学習教示のお手本の例
題となるデ−タと正しい出力値を準備し、例題を入力層
I、I’に入力し、中間層H、H’をえて、出力層Oの
出力と正しい出力値の差(誤差)が小さくなるように、
各シナプスが記憶している係数を更新する。外部へ出力
しない中間層H、H’については、お手本に対する直接
の誤差を測定出来ないため、出力層Oに表れている誤差
を逆伝播させることによって、その誤差を修正する。具
体的には後段の層のニユ−ロンユニットjの誤差とシナ
プスsの係数を掛け算し、そのシナプスにつながる前段
の層Hのニュ−ロンユニットnにつたえ記憶している係
数を更新し学習する。すなわち、例えば、学習教示デ−
タに外観状態が“a:良”の場合の学習においては、出
力層Oの理想回答であるニュ−ロンユニットaの出力デ
−タを“1.000”とし、ニュ−ロンユニットb以降
の他の出力デ−タを“0.000”とし、入力層I、
I’のニュ−ロンユニットjの入力層mnに学習教示デ
−タに対応した多数の良品サンプルのデ−タとして、外
観状態の入力デ−タである形状情報コ−ドデ−タ(1〜
8)と濃淡階調分布デ−タ(1〜256)を入力し、中
間層H、H’をえて、出力層Oが出す検査回答の出力
(必ずしも“1.000”“0.000”とならず、0
〜1の少数点以下を含む数値デ−タとなる)と正しい出
力値の差(誤差)が小さく(≒0に)なるように、各シ
ナプスが記憶している係数を更新し学習される。他の認
識判定カテゴリも同様にして、学習教示データを多数入
力し、対応する出力値を1、他の出力を0に設定し、次
々と学習させる。
First, in the learning stage, the coefficient (knowledge)
Will be corrected to an appropriate value. First, in order to automatically classify the soldering state, shape information code data for each shape inclination angle, which is a characteristic parameter of the soldering surface whose detailed classification is known in advance, is input layer I and gray scale. The tone distribution data is input to the input layer I ', and is the vertical data of the pixels n * side data m = n.
It is input to the m-unit unit j. The data in the soldering state at this time includes shape data such as the actual area of soldering, steepness, flatness, and symmetry with respect to the lead position. For learning, prepare data that is an example of a model of learning teaching for each classification and correct output values, input the examples to input layers I and I ′, obtain intermediate layers H and H ′, and output layer O. So that the difference (error) between the output of
The coefficient stored in each synapse is updated. With respect to the intermediate layers H and H ′ that are not output to the outside, a direct error with respect to the model cannot be measured. Therefore, the error that appears in the output layer O is back-propagated to correct the error. Specifically, the error of the neuron unit j of the subsequent layer is multiplied by the coefficient of the synapse s, and the coefficient stored in the neuron unit n of the preceding layer H connected to the synapse is updated and learned. . That is, for example, the learning teaching data
In the learning when the appearance state is “a: good”, the output data of the neuron unit a, which is the ideal answer of the output layer O, is set to “1.000”, and the neuron unit b and the following ones are output. The other output data is set to "0.000" and the input layer I,
The shape information code data (1) which is the input data of the appearance state is used as the data of a number of non-defective samples corresponding to the learning teaching data in the input layer mn of the neuron unit j of I '. ~
8) and the grayscale distribution data (1 to 256) are input, the intermediate layers H and H'are obtained, and the output of the inspection response output by the output layer O (not necessarily "1.000" and "0.000"). Not 0
The coefficient stored in each synapse is updated and learned so that the difference (error) between the correct output value and the correct output value becomes small (≈0). Similarly, a large number of learning teaching data is input to other recognition determination categories, the corresponding output value is set to 1, and the other output is set to 0, and learning is successively performed.

【0022】しかるのちに、任意のはんだ付けの状態を
撮像すれば、画像処理し、認識判定し、はんだ付けの状
態の結果を抽出し明確に検査回答する。以上の実施例に
よれば、簡単な構成と、高級なソフトを使用しないで、
必要時に詳細デ−タ状態図即ち画像分布デ−タの入力の
みで、はんだ付けの状態を判定しつつ、認識判定カテゴ
リのレベルを学習し、最適な検査基準を設定できる。使
用時には極めて高速に、正確に判定検査できる。はんだ
付け状態の条件変更も学習により容易である。
After that, if an image of an arbitrary soldering state is picked up, image processing is performed, recognition judgment is performed, the result of the soldering state is extracted, and a clear inspection response is given. According to the above embodiment, without using a simple configuration and high-grade software,
When necessary, the level of the recognition determination category can be learned and the optimum inspection standard can be set by determining the soldering state only by inputting the detailed data state diagram, that is, the image distribution data. When used, it can be extremely rapidly and accurately judged. It is easy to change the soldering condition by learning.

【0023】尚、実施例では、濃淡階調分布デ−タは各
画素毎に対し、各照明装置毎によるデ−タを形状情報コ
−ドデ−タと対応して用いたが、必要に応じて濃淡階調
分布デ−タは各画素毎に対し、形状を捕らえる各照明装
置毎による濃淡階調分布デ−タの総和を用いて正規化し
ても良い。また、必要に応じて濃淡階調分布デ−タは各
画素毎に対し、形状の一部を捕らえる或る照明装置によ
る濃淡階調分布デ−タの単独、または照明装置による濃
淡階調分布デ−タ幾つかの各和を用いて正規化しても良
い。
In the embodiment, as the grayscale distribution data, the data for each illuminating device is used for each pixel in correspondence with the shape information code data. Accordingly, the grayscale distribution data may be normalized for each pixel by using the sum of the grayscale distribution data for each lighting device that captures the shape. If necessary, for each pixel, the grayscale distribution data may be a single grayscale distribution data obtained by an illumination device that captures a part of the shape, or a grayscale distribution data obtained by the illumination device. The data may be normalized by using some sums.

【0024】また、実施例では照明式で説明したがレ−
ザー光線を用いてもよい。この場合は例えば図1の撮像
カメラの位置にレ−ザー光源を置き多段照明装置のそれ
ぞれの位置に環状のセンサを設け角度又は高さの画像分
布デ−タをもとに入力しても同様の効果が得られること
が可能である。
Further, in the embodiment, the explanation was made by using the illumination type, but
The ray may be used. In this case, for example, a laser light source is placed at the position of the image pickup camera shown in FIG. 1 and an annular sensor is provided at each position of the multistage illuminating device to input the image distribution data of angle or height. It is possible to obtain the effect of.

【0025】更に、多段の照明装置は当該各段、すなわ
ち、光の各照射角度に対応して固有の色を発光させるこ
とにより、画像分布デ−タの抽出をより高速化すること
が出来る。例えば、照明手段を赤色、青色、緑色等の複
数の色相とした場合は反射光の色相の違い、変化により
照射角度が特定出来るため、時間と共に光源を切換(多
段光源の場合)たり、移動(光源を移動することにより
照射角度を変える)する必要が無い。
Furthermore, the multi-stage lighting device can accelerate the extraction of the image distribution data by emitting a unique color corresponding to each stage, that is, each irradiation angle of light. For example, when the illuminating means has a plurality of hues such as red, blue, and green, the irradiation angle can be specified by the difference or change in the hue of the reflected light. Therefore, the light source is switched (in the case of a multi-stage light source) or moved with time. It is not necessary to change the irradiation angle by moving the light source).

【0026】尚、更に図7に示されるように、認識判定
装置5のニュ−ラルネットワ−ク31にファジィ処理装
置33を併せ構成し、ニュ−ロ・ファジィコンピュ−タ
34の構成とし、立体形状の検査対象品の外観状態を正
確にファジィ認識判定検査する。すなわち、ニュ−ラル
ネットワ−ク31の出力層Oの認識判定カテゴリ結果の
詳細分類Sのニュ−ロンユニットjを細かく設けるとと
もに、この出力層Oにファジィ処理装置33が接続され
る。この場合の出力層Oは、予め設定した認識判定カテ
ゴリとして、各種はんだ付けの状態別、a:良、b:不
足、c:過剰、d:ぬれ不良、e:無し、f:リ−ド浮
き、g:リ−ドずれ、h:異常などの他に対し、更に、
多めの良:a’、少なめの良:a”、多めの不足:
b’、少なめの不足:b”、多めの過剰:c’、少なめ
の過剰:c”、多めのぬれ不良:d’、少なめのぬれ不
良:d”、多めのリ−ド浮き(未接浮き):f’、少な
めのリ−ド浮き(接合浮き):f”、多めのリ−ドず
れ:g’、少なめのリ−ドずれ:g”等に追加詳細分類
S分類される。これらの出力デ−タをファジィ処理装置
33に設けられたメンバ−シップ関数にもとずいてファ
ジィ処理され、最終設定した認識判定カテゴリとして、
各種はんだ付けの状態別、良、不足、過剰、ぬれ不良、
無し、リ−ド浮き、リ−ドずれ、異常などに判定され
る。ここで、具体例として、出力層Oのファジィ的出力
デ−タとして、良品の値は多めの良:a’(0.03
0)、良:a(0.040)、少なめの良:a”(0.
700)、不足の値は、多めの不足:b’(0.20
0)、不足:b(0.020)、少なめの不足:b”
(0.010)などのにおいて、ファジィ処理装置33
により、良品と判定される。
Further, as shown in FIG. 7, a fuzzy processing unit 33 is combined with the neural network 31 of the recognition determining unit 5 to form a neuro-fuzzy computer 34, and a three-dimensional shape is obtained. Fuzzy recognition judgment inspection of the appearance condition of the inspection target product. That is, the neuron unit j of the detailed classification S of the recognition judgment category result of the output layer O of the neural network 31 is finely provided, and the fuzzy processing unit 33 is connected to this output layer O. In this case, the output layer O has various recognition states as preset recognition classification states: a: good, b: insufficient, c: excessive, d: poor wetting, e: none, f: lead floating. , G: lead deviation, h: abnormal, etc.
More good: a ', less good: a ", more lacking:
b ', less shortage: b ", more excess: c', less excess: c", more wetting failure: d ', less wetting failure: d ", more lead floating (non-contact floating) ): F ', less lead float (joint float): f ", more lead shift: g', less lead shift: g", etc. Additional detailed classification S classification. The output data is fuzzy processed based on the membership function provided in the fuzzy processing unit 33, and the final recognition recognition category is set as
Various soldering status, good, shortage, excess, poor wetting,
It is judged as none, lead floating, lead deviation, abnormality, or the like. Here, as a specific example, as the fuzzy output data of the output layer O, the value of the non-defective product is rather good: a '(0.03
0), good: a (0.040), a little good: a ″ (0.
700), the value of the deficit is a large deficit: b '(0.20
0), shortage: b (0.020), small shortage: b "
(0.010) etc., the fuzzy processing device 33
Is determined to be non-defective.

【0027】更にまた、図8に示されるように、認識判
定装置5のニュ−ラルネットワ−ク31の中にファジィ
処理機能を併せ構成し、ニュ−ロ・ファジィコンピュ−
タ35の構成とし、立体形状の検査対象品の外観状態を
正確にファジィ認識判定検査する。すなわち、ニュ−ラ
ルネットワ−ク31の出力層Oを中間層H”に置き換え
て、もう一つの層の出力層Oを設け、入力層I、入力層
I’、中間層H、中間層H’、中間層H”、出力層Oと
される。ここで、中間層H”のニュ−ロンユニットjを
認識判定カテゴリ結果の詳細分類Sのニュ−ロンユニッ
トjを更に細かく設ける。例えば、予め設定した認識判
定カテゴリとして、各種はんだ付けの状態別、a:良、
b:不足、c:過剰、d:ぬれ不良、e:無し、f:リ
−ド浮き、g:リ−ドずれ、h:異常などを、更に、多
めの良:a’、少なめの良:a”、多めの不足:b’、
少なめの不足:b”、多めの過剰:c’、少なめの過
剰:c”、多めのぬれ不良:d’、少なめのぬれ不良:
d”、多めのリ−ド浮き:f’、少なめのリ−ド浮き:
f”、多めのリ−ドずれ:g’、少なめのリ−ドずれ:
g”等に追加詳細分類S分類される。ここで、中間層
H”と出力層Oの結合はファジィ的に結合され、出力層
Oの認識判定カテゴリ結果をa:良、b:不足、c:過
剰、d:ぬれ不良、e:無し、f:リ−ド浮き、g:リ
−ドずれ、h:異常などとし、中間層H”と出力層Oの
デ−タはファジィ的に処理判定される。具体的には、中
間層H”の良品の値はファジィ的デ−タ例として、多め
の良:a’(0.100)、良:a(0.200)、少
なめの良:a”(0.500)中間層H”の不足の値は
ファジィ的デ−タとして、多めの不足:b’(0.15
0)、不足:b(0.050)、少なめの不足:b”
(0.000)などとなり、ファジィ的に処理され出力
層Oの認識判定カテゴリ結果はa:良とされる。
Further, as shown in FIG. 8, a fuzzy processing function is additionally provided in the neural network 31 of the recognition / judgment device 5 to provide a neuro-fuzzy computer.
With the configuration of the computer 35, the appearance state of the inspection object having a three-dimensional shape is accurately inspected by the fuzzy recognition judgment. That is, the output layer O of the neural network 31 is replaced with the intermediate layer H ″, another output layer O is provided, and the input layer I, the input layer I ′, the intermediate layer H, the intermediate layer H ′, An intermediate layer H ″ and an output layer O are provided. Here, the neuron unit j of the intermediate layer H ″ is provided in more detail with the neuron unit j of the detailed classification S of the recognition determination category result. For example, as the preset recognition determination category, for each soldering state, a: good,
b: insufficient, c: excessive, d: poor wetting, e: none, f: lead floating, g: lead deviation, h: abnormal, and the like: more good: a ', less good: a ", a little lack: b ',
Less insufficient: b ", more excessive: c ', less excessive: c", more wetting failure: d', less wetting failure:
d ", more lead float: f ', less lead float:
f ", a large amount of lead shift: g ', a small amount of lead shift:
Further detailed classification S is classified into g "and the like. Here, the combination of the intermediate layer H" and the output layer O is fuzzy combined, and the recognition judgment category results of the output layer O are a: good, b: insufficient, c. : Excessive, d: Wetting failure, e: None, f: Lead floating, g: Lead deviation, h: Abnormal, etc., and the data of the intermediate layer H ″ and the output layer O are fuzzy processed Specifically, the values of non-defective products of the intermediate layer H ″ are, as fuzzy data examples, a large number of good: a ′ (0.100), a good: a (0.200), and a small number of good: The value of the shortage of the a ″ (0.500) intermediate layer H ″ is a fuzzy data and a large shortage: b ′ (0.15
0), shortage: b (0.050), small shortage: b "
(0.000) or the like, and the recognition determination category result of the output layer O processed fuzzy is a: good.

【発明の効果】以上説明したように本発明は、立体形状
の検査対象品の外観状態をを多段照明装置により照射
し、それぞれの画像を撮像カメラ等のセンサにて撮像
し、画像処理装置に成において、必要画像分布デ−タを
形状情報コ−ドデ−タと濃淡階調分布デ−タとに区分
し、認識判定装置において、ニュ−ラルネットワ−ク一
種である学習形階層式パ−セプトロンにて、入力層I、
中間層Hの一群は形状情報コ−ドデ−タ側に結合され、
入力層I’、中間層H’の他の一群は濃淡階調分布デ−
タ側に結合されて出力層Oに出力されるニュ−ロコンピ
ュ−タを構成し、立体形状の検査対象品の外観状態を高
速、正確に認識判定検査する。また、本発明に用いる認
識判定装置のニュ−ラルネットワ−クにファジィ処理装
置とを併せ構成し、ニュ−ロ・ファジィコンピュ−タの
構成とし、立体形状の検査対象品の外観状態を正確にフ
ァジィ認識判定検査する。更にまた、本発明に用いる認
識判定装置のニュ−ラルネットワ−クの中にファジィ処
理機能を併せ構成し、ニュ−ロ・ファジィコンピュ−タ
の構成とし、立体形状の検査対象品の外観状態を正確に
ファジィ認識判定検査する。
As described above, according to the present invention, the appearance state of a three-dimensional inspection target product is illuminated by a multi-stage lighting device, each image is picked up by a sensor such as an image pickup camera, and the image processing device is provided. In the composition, the necessary image distribution data is divided into shape information code data and grayscale distribution data, and in the recognition judging device, a learning type hierarchical pattern which is a kind of neural network. Input layer I,
A group of the intermediate layer H is connected to the shape information code data side,
The other group of the input layer I'and the intermediate layer H'is the grayscale gradation distribution data.
A neuro computer that is connected to the output side and is output to the output layer O is configured, and the appearance state of the inspection object having a three-dimensional shape is quickly and accurately recognized and inspected. Further, a fuzzy processing device is combined with the neural network of the recognition determination device used in the present invention to form a neuro-fuzzy computer, and the appearance state of the inspection object having a three-dimensional shape is accurately fuzzy. Check the recognition judgment. Furthermore, a fuzzy processing function is also configured in the neural network of the recognition determination apparatus used in the present invention to form a neuro-fuzzy computer, and the appearance state of the inspection object having a three-dimensional shape is accurately determined. Inspect fuzzy recognition judgment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による検査対象品であるはんだ付け状態
の外観検査装置の主要部簡略構成図。
FIG. 1 is a schematic configuration diagram of a main part of a visual inspection device in a soldered state which is an inspection target product according to the present invention.

【図2】はんだ付け部拡大側断面図。FIG. 2 is an enlarged side sectional view of a soldering portion.

【図3】電子部品のリ−ド部とはんだ付け部の平面図。FIG. 3 is a plan view of a lead portion and a soldering portion of an electronic component.

【図4】本発明によるはんだ形状情報コ−ドデ−タと、
濃淡階調デ−タとを示した詳細デ−タ状態図。
FIG. 4 is a solder shape information code data according to the present invention;
The detailed data state diagram showing the gradation data.

【図5】本発明に用いる認識判定装置のブロック構成
図。
FIG. 5 is a block configuration diagram of a recognition determination device used in the present invention.

【図6】本発明の実施例におけるニュ−ラルユニットの
説明図
FIG. 6 is an explanatory diagram of a neural unit according to an embodiment of the present invention.

【図7】本発明の他の実施例を示す主要部簡略構成図。FIG. 7 is a simplified configuration diagram of a main part showing another embodiment of the present invention.

【図8】本発明の他の実施例を示す主要部簡略構成図。FIG. 8 is a simplified configuration diagram of a main part showing another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 実装基板 11,13,15,17 照明装置 1a,3a,5a,7a 入射光 1b,3b,5b,7b 反射光 2 撮像カメラ 3,4 画像処理装置 5 認識判定装置 I、I’ 入力層 H、H’ 中間層 O 出力層 1 Mounting board 11, 13, 15, 17 Illumination device 1a, 3a, 5a, 7a Incident light 1b, 3b, 5b, 7b Reflected light 2 Imaging camera 3,4 Image processing device 5 Recognition determination device I, I'input layer H , H'Intermediate layer O Output layer

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】検査対象品を多段多照明装置により照射
し、それぞれの画像を撮像手段にて撮像し、各段より得
られた濃淡階調分布の画像配列デ−タから構成される形
状情報コ−ドデ−タのパターンと濃淡階調分布デ−タの
パターンとを、入力層、中間層、出力層により学習形階
層式パ−セプトロンが形成されるニュ−ロコンピュ−タ
手段に入力し、該手段の出力層に、前記検査対象品の外
観の状態を出力し、認識判定検査することを特徴とする
外観状態検査方法
1. Shape information composed of image array data of gray scale distribution obtained by irradiating an inspection object with a multi-stage multi-illuminating device and capturing respective images by an image pickup means. The code data pattern and the grayscale distribution data pattern are input to a neuro computer means in which a learning type hierarchical perceptron is formed by an input layer, an intermediate layer and an output layer. An appearance state inspection method characterized by outputting the appearance state of the inspection target product to an output layer of the means to perform a recognition determination inspection.
【請求項2】検査対象品をレ−ザー光線にて走査照射
し、反射光をセンサにて受光し、画像処理装置により必
要抽出画像分布の画像配列デ−タから構成される形状情
報コ−ドデ−タのパターンと濃淡階調分布デ−タのパタ
ーンとを作成し、これら2つのデータパターンを入力
層、中間層、出力層により学習形階層式パ−セプトロン
が形成されるニュ−ロコンピュ−タ手段に入力し、該手
段の出力層に、前記検査対象品の外観の状態を出力し、
認識判定検査することを特徴とする外観状態検査方法
2. A shape information code formed by scanning and irradiating an object to be inspected with a laser beam, receiving a reflected light by a sensor, and image arrangement data of a necessary extracted image distribution by an image processing device. A neurocomputer in which a data pattern and a grayscale distribution data pattern are created, and these two data patterns form a learning type hierarchical perceptron by an input layer, an intermediate layer, and an output layer. -Inputting to the output means of the means, and outputting the appearance state of the inspection object product to the output layer of the means,
Appearance state inspection method characterized by performing recognition judgment inspection
【請求項3】請求項1において、多段照明手段の各段は
互いの色相が異なり、かつ、撮像手段がカラーカメラで
あることを特徴とする外観状態検査方法
3. The appearance state inspection method according to claim 1, wherein the respective stages of the multi-stage illumination means have different hues, and the image pickup means is a color camera.
【請求項4】請求項1又は2において、認識判定手段の
出力層にファジィ処理手段を有することを特徴とする外
観状態検査方法
4. The appearance state inspection method according to claim 1 or 2, further comprising fuzzy processing means in an output layer of the recognition determining means.
【請求項5】請求項1又は2において、認識判定手段の
中間層にファジィ処理手段を有することを特徴とする外
観状態検査方法
5. The appearance state inspection method according to claim 1 or 2, further comprising fuzzy processing means in an intermediate layer of the recognition determining means.
JP35902592A 1992-12-25 1992-12-25 Outer appearance state inspection Pending JPH06201338A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35902592A JPH06201338A (en) 1992-12-25 1992-12-25 Outer appearance state inspection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35902592A JPH06201338A (en) 1992-12-25 1992-12-25 Outer appearance state inspection

Publications (1)

Publication Number Publication Date
JPH06201338A true JPH06201338A (en) 1994-07-19

Family

ID=18462359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35902592A Pending JPH06201338A (en) 1992-12-25 1992-12-25 Outer appearance state inspection

Country Status (1)

Country Link
JP (1) JPH06201338A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009655A (en) * 1998-06-25 2000-01-14 Kobe Steel Ltd Visual inspection device
WO2021199513A1 (en) * 2020-03-30 2021-10-07 オムロン株式会社 Inspection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009655A (en) * 1998-06-25 2000-01-14 Kobe Steel Ltd Visual inspection device
WO2021199513A1 (en) * 2020-03-30 2021-10-07 オムロン株式会社 Inspection device
JP2021162331A (en) * 2020-03-30 2021-10-11 オムロン株式会社 Inspection device

Similar Documents

Publication Publication Date Title
JPH09275272A (en) Soldering check device and method taking advantage of relative neuron network
US7505149B2 (en) Apparatus for surface inspection and method and apparatus for inspecting substrate
KR0176661B1 (en) Inspecting method & apparatus of soldering section
US20080285840A1 (en) Defect inspection apparatus performing defect inspection by image analysis
JP4725298B2 (en) Visual inspection method using images
CN109840900A (en) A kind of line detection system for failure and detection method applied to intelligence manufacture workshop
WO2020071234A1 (en) Image processing device, image processing method, appearance inspection system, and computer program
JPH06273346A (en) Soldered state inspection equipment
JPH06201338A (en) Outer appearance state inspection
JP4171806B2 (en) A method for determining the grade of fruits and vegetables.
JPH07333170A (en) Discrimination method for defective pattern type and device therefor
JP2969011B2 (en) Appearance inspection device for soldering condition
JPH05303627A (en) Soldering state checking device
KR102494890B1 (en) Intelligent Total Inspection System for Quality Inspection of Iron Frame Mold
CN115409977A (en) Image recognition-based full-detection information acquisition method
CN116745696A (en) Shooting condition setting system, shooting condition setting method, and program
JPH0666528A (en) Visual inspecting method and apparatus
JPH1114323A (en) Pattern inspection method and pattern inspection device
Ko et al. Solder joints inspection using neural network and fuzzy rule-based classification
US20240169514A1 (en) Defect detection in manufactured articles using multi-channel images
JP7557195B2 (en) Highly intelligent inspection system for ship wall inspection
JPH04343046A (en) Appearance inspection device
JPH05272928A (en) Soldered-part inspecting apparatus
Hueter Neural networks automate inspections
JP2992138B2 (en) Appearance inspection device