JP3384758B2 - Component position recognition device - Google Patents

Component position recognition device

Info

Publication number
JP3384758B2
JP3384758B2 JP35177598A JP35177598A JP3384758B2 JP 3384758 B2 JP3384758 B2 JP 3384758B2 JP 35177598 A JP35177598 A JP 35177598A JP 35177598 A JP35177598 A JP 35177598A JP 3384758 B2 JP3384758 B2 JP 3384758B2
Authority
JP
Japan
Prior art keywords
projection
component
electrode
projection calculation
target component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35177598A
Other languages
Japanese (ja)
Other versions
JPH11250262A (en
Inventor
伸 宮治
吉伸 中村
文夫 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP35177598A priority Critical patent/JP3384758B2/en
Publication of JPH11250262A publication Critical patent/JPH11250262A/en
Application granted granted Critical
Publication of JP3384758B2 publication Critical patent/JP3384758B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】この発明は、電極のような突出部
を少なくとも2以上有するフラットパッケージICのよ
うな部品の位置を認識する部品位置認識装置に関する。 【0002】 【従来の技術】電子部品を基板上に自動的に装着する電
子部品自動装着装置では、対象部品がカメラ等の撮像装
置で撮影され、画像処理を用いて対象部品の位置が認識
され、認識された対象部品の位置に基づいて対象部品が
基板上の所定位置へ装着される。特に、フラットパッケ
ージICなどのように電極部分が明確に識別可能な部品
の場合は、この電極位置を検出することによって部品全
体の位置を認識することが可能である。 【0003】フラットパッケージICの位置認識装置と
しては、特開昭62−86789号公報に記載されたも
のがある。この位置認識装置では、あらかじめ機械的な
手段により大まかに位置決めされた状態にあるIC部品
が撮像装置で撮像される。IC部品の各電極列の画像パ
ターンに対して、電極にほぼ直交するようにサンプル直
線が設定される。サンプル直線上での明るさの変化によ
り各電極列の電極の位置が求められ、各電極列の列方向
中心位置が求められる。そして、求められた各電極列の
列方向中心位置に基づいてIC部品の位置が求められ
る。 【0004】 【発明が解決しようとする課題】ところで、フラットパ
ッケージには、QFP(quad flat package) のようにパ
ッケージ本体の4辺から電極が突出しているもの、SO
P(small out line package)のようにパッケージ本体の
対向する2辺から電極が突出しているもの等がある。 【0005】上記従来の位置認識装置では、QFP(qua
d flat package) が実装されたICのようにパッケージ
本体の4辺から電極が突出しているものに対しては、4
つの電極列の列方向中心位置に基づいて部品の位置が求
められるため、精度の高い部品位置認識が行える。 【0006】しかしながら、SOP(small out line pa
ckage)が実装されたICのようにパッケージ本体の対向
する2辺から電極が突出しているものに対しては、2つ
の電極列の列方向中心位置しか得られないので、電極の
幅方向(電極列の列方向)に対する部品位置は正確に認
識されるが、電極の長さ方向に対する部品位置は、あら
かじめ機械的な手段により大まかに位置決めされた際の
精度しか保証されない。さらに、1辺から突出した突出
部を有するICではなおさら位置決めの精度は補償され
ない。 【0007】また、画像データを処理するので、処理時
間が多く必要である。 【0008】この発明の目的は、突出部を有する部品の
位置を高精度に且つ高速に認識できる部品位置認識装置
を提供することにある。 【0009】 【課題を解決するための手段】この発明による部品位置
認識装置は、複数の突出部を有する部品の位置を認識す
る部品位置認識装置において、上記部品の濃淡画像を格
納する部品画像記憶手段と、該部品画像記憶手段に格納
した濃淡画像における、上記部品の各突出部毎に先端部
分を含み、且つ突出方向に平行な辺を有する四角形状に
設定された領域の画像データから、上記突出方向と平行
な方向と該方向と異なる方向の射影分布を各領域毎に演
算する射影演算手段と、該射影演算手段で演算された各
領域毎の射影分布を各方向ごとに連結し、2種類の1次
元配列として格納する射影演算結果連結記憶手段と、該
射影演算結果連結記憶手段に格納した1次元配列の射影
分布から各突出部の位置を演算し求める突出部位置演算
手段と、上記突出部位置演算手段によって求められた上
記各領域内の突出部の位置に基づいて、上記部品の位置
を求める部品位置算出手段と、を備えていることを特徴
とする。 【0010】 【発明の実施の形態】以下、図面を参照してこの発明の
実施例について説明する。 【0011】図1は、部品位置認識装置の概略構成を示
している。 【0012】部品位置認識装置は、画像メモリ101、
画像データ転送手段102、水平方向射影演算手段10
3、垂直方向射影演算手段104、射影演算結果連結記
憶手段105、電極位置検出手段106および位置算出
手段107を備えている。 【0013】図示しない撮像装置から部品位置認識装置
へ入力された対象部品の濃淡画像データは画像メモリ1
01に格納される。入力データは1画素8ビットのディ
ジタルデータであり、画像サイズは512×512画素
である。そして、対象部品の全体像が1視野内に含まれ
る。 【0014】図2は、撮像装置によって撮像された対象
部品の画像を示している。対象部品1は、8ピンSOP
(small out line package)が実装されたICであり、パ
ッケージ本体の対向する2辺から4本ずつ電極2が突出
している。 【0015】画像データ転送手段102は、入力画像内
の認識対象部品の電極2の先端部分が1個ずつ含まれる
ように設定された電極本数分の射影演算対象領域S(図
2参照)内の画像データを順次、水平方向射影演算手段
103および垂直方向射影演算手段104に転送する。 【0016】各射影演算対象領域Sは、たとえば次のよ
うにして設定される。対象部品1を機械的な手段により
予め位置決めした後に撮像装置で対象部品1を撮像する
ことにより、対象部品1の各電極2の入力画像上でのお
およその位置を特定しておく。そして、特定された各電
極2のおおよその位置に基づいて、射影演算対象領域S
を予め設定する。 【0017】あるいは、対象部品1を撮像装置で撮像
し、対象部品の濃淡画像データを画像メモリ101に格
納した後に、適当な画像処理により粗位置認識を行っ
て、対象部品1の各電極2の入力画像上でのおおよその
位置を特定する。特定された各電極2のおおよその位置
に基づいて、射影演算対象領域Sを設定する。 【0018】つまり、機械的な粗位置決めによる粗位置
データまたは画像処理による粗位置認識結果データと、
対象部品の形状データとに基づいて、対象部品1の各電
極2の先端部分が各射影演算対象領域S内に含まれるよ
うに、各射影演算対象領域Sが設定される。 【0019】図2に示すように、撮像画面の水平、垂直
軸X、Yに対して対象部品1が任意の角度をもって撮像
される場合には、各射影演算対象領域Sは平行四辺形の
領域として設定される。各射影演算対象領域Sの対向す
る一方の2辺は、電極2の長さ方向に平行となるように
設定される。各射影演算対象領域Sの他方の対向する2
辺は、対象部品1の撮像画面の水平、垂直軸に対する傾
き角に応じて、撮像画面の水平軸Xまたは垂直軸Yに平
行となるように設定される。図2のように電極列の列方
向が垂直方向より水平方向に近い場合には、各射影演算
対象領域Sの一方の2辺は、撮像画面の水平軸Xに平行
となるように設定される。 【0020】図3のように電極列の列方向が水平方向よ
り垂直方向に近い場合には、各射影演算対象領域Sの一
方の2辺は、撮像画面の垂直軸Yに平行となるように設
定される。なお、対象部品が撮像画面の水平、垂直軸
X、Yに対して角度ずれがなく撮像される場合には、各
射影演算対象領域Sは水平方向に平行な2辺と垂直方向
に平行な2辺を有する矩形形状となる。 【0021】図4は、図2の射影演算対象領域Sから、
画像データ転送手段102によって画像データが読み出
される様子を示している。射影演算対象領域Sが図2に
示すすように、撮像画面の水平軸Xに平行な2辺を有す
る平行四辺形である場合には、画像データ転送方向は、
図4に矢印で示すように撮像画面の水平軸Xに平行な方
向となる。そして、図5に示すように、1ラインごとの
転送開始位置Psは、射影演算対象領域Sの電極2の長
さ方向に平行な辺に沿って、画素単位でずらされてい
く。 【0022】図6は、図3の射影演算対象領域Sから、
画像データ転送手段102によって画像データが読み出
される様子を示している。射影演算対象領域Sが図3に
示すすように、撮像画面の垂直軸Yに平行な2辺を有す
る平行四辺形である場合には、画像データ転送方向は、
図6に矢印で示すように撮像画面の垂直軸Yに平行な方
向となる。そして、1ラインごとの転送開始位置は射影
演算対象領域Sの電極2の長さ方向に平行な辺に沿っ
て、画素単位でずらされていく。 【0023】図7は、水平方向射影演算手段103およ
び垂直方向射影演算手段104による射影演算方法の説
明図である。図7(a)は図4の射影演算対象領域Sか
らの画像データ転送手段102によって画像データが読
み出される様子を示している。各射影演算対象領域S内
の画像データは、画像データ転送手段102によって、
水平方向射影演算手段103と垂直方向射影演算手段1
04に同時に転送される。 【0024】水平方向射影演算手段103では、矢印A
で示す射影方向に画素値が加算される。すなわち、射影
演算対象領域S内の画素値をf(x,y)とすると、数
式1で示されるように、水平方向の転送ラインごとに、
各1ラインに含まれる全画素の濃度値の総和H(y)が
演算される。水平方向射影演算手段103による演算結
果を図7(b)に示す。図7(b)から分かるように、
水平方向射影演算結果には、電極の長さ方向のエッジ位
置に対応して射影分布が急峻に変化する部分が現れる。 【0025】 【数1】 垂直方向射影演算手段104では、矢印Bで示す射影方
向に画素値が加算される。この射影方向Bは、射影演算
対象領域Sの電極2の長さ方向に平行な辺と平行であ
る。すなわち、数式2で示されるように、転送ライン上
の各画素ごとに、各転送ラインの矢印Bの方向に対応す
る画素値の累積加算演算が行われることにより、射影方
向Bの濃度値の総和V(x)が演算される。垂直方向射
影演算手段104による演算結果を図7(c)に示す。
図7(c)から分かるように、垂直方向射影演算結果に
は、電極の幅方向のエッジ位置に対応して2箇所の射影
分布が急峻に変化する部分が現れる。 【0026】 【数2】 射影方向Bの射影演算は、たとえば次のようにして行わ
れる。図8に示すように、1つの加算器301と、1転
送ラインの画素数に応じた数のバッファ302とを用意
し、各バッファ302には転送ライン間で対応する画素
値の加算演算の途中結果を格納する。そして、この加算
途中結果と順次転送される画素データとで転送ライン間
の対応する画素の加算演算を繰り返すことにより、射影
演算対象領域Sの全画素データの転送終了時点で射影方
向Bの射影演算結果が得られる。 【0027】このようにして、水平方向射影演算手段1
03および垂直方向射影演算手段104により、画像デ
ータ転送手段102から転送されてきた各射影演算対象
領域S内の画像データに対して、射影演算が実行され
る。水平方向射影演算手段103および垂直方向射影演
算手段104により求められた射影演算結果データは、
射影演算結果連結記憶手段105に送られる。 【0028】射影演算結果連結記憶手段105には、図
9に示すように、射影演算対象領域Sの個数分の射影演
算結果が、水平方向射影演算結果ごとおよび垂直方向射
影演算結果ごとに連結されて2種類の1次元配列として
格納される。図9(a)は、水平方向射影演算結果の連
結データを、図9(c)は垂直方向射影演算結果の連結
データをそれぞれ模式的に示している。射影演算結果連
結記憶手段105には、実際には、図2に示される8個
の射影演算対象領域Sに対応する水平方向射影演算結果
の連結データおよび垂直方向射影演算結果の連結データ
が記憶されるが、図9にはその一部、すなわち4個の水
平方向射影演算結果の連結データおよび4個の垂直方向
射影演算結果の連結データのみが示されている。 【0029】射影演算結果連結記憶手段105に、水平
方向射影演算結果の連結データおよび垂直方向射影演算
結果の連結データが記憶されると、電極位置検出手段1
06によって、各データに対してエッジ検出処理が施さ
れる。水平方向射影演算結果の連結データに対するエッ
ジ検出処理結果を図9(b)に示す。また、垂直方向射
影演算結果の連結データに対するエッジ検出処理結果を
図9(d)に示す。 【0030】つまり、電極位置検出手段106では、各
連結データに対して、たとえば1次元微分フィルタなど
の処理が行われ、射影分布が急峻に変化する部分、すな
わち電極2の長さ方向のエッジ位置(図9(b)参
照)、および電極2の幅方向の2箇所のエッジ位置(図
9(d)参照)が検出され、これらのエッジ位置から各
電極2先端の中央位置が各電極2の位置として検出され
る。 【0031】電極2の幅方向の2箇所のエッジ位置の検
出においては、射影方向Bが電極方向に平行となるの
で、エッジ位置に対応する部分の射影分布の勾配が急峻
になる。このため、電極2の幅方向の2箇所のエッジ位
置を精度良く検出することができる。 【0032】一方、電極2の長さ方向のエッジ位置の検
出においては、射影方向Aは電極方向に関係なく水平方
向(図4の場合)または垂直方向(図6の場合)とな
る。一般に、電極2の幅はその長さに比べて十分に小さ
いので、対象部品1が斜めに傾いていても電極2の長さ
方向のエッジ位置に対応する部分の射影分布の勾配変化
の鈍りは小さい。このため、電極2の長さ方向のエッジ
位置を高精度で検出することができる。 【0033】図10は、位置算出手段107による位置
算出方法を説明するための説明図である。位置算出手段
107では、電極位置検出手段106により検出された
全電極2の位置に基づいて、対象部品1の重心位置およ
び対象部品1の座標軸に対する傾き角度が計算される。
対象部品1の重心位置座標(Gx ,Gy )は、SOPま
たはQFPが実装された部品のように、n本の電極が完
全に対称に配置されている場合、電極2の総数をn、各
電極2の位置座標を(xk ,yk )(1≦k≦n)とす
ると、次の数式3に基づいて求められる。 【0034】 【数3】 すなわち、各電極位置のx座標の平均値が重心位置のx
座標Gx となり、各電極位置のy座標の平均値が重心位
置のy座標Gy となる。また、対象部品1の座標軸に対
する傾き角度は、対象部品1の1辺から1方向に出てい
る全電極2の位置を結ぶ直線Lを想定し、その直線Lの
傾きにより求めることができる。電極が対称に配置され
ていない部品に関しては、その部品の形状に応じて必要
な電極位置のデータを利用して、部品の重心位置座標お
よび部品の座標軸に対する傾き角度を計算することが可
能である。 【0035】上記実施例では、対象部品の全電極2の位
置が検出されているので、これらの電極2の位置データ
に基づいて、各電極2の2次元平面内における曲がりの
チェックを行うことも可能である。 【0036】上記実施例では、対象部品1の全電極の位
置を求めることにより、対象部品の位置が認識されてい
るが、一部の電極の位置を求めることにより、対象部品
の位置を認識することも可能である。このようにすれば
射影演算対象領域の数を減らすことができ、より高速処
理が可能となる。 【0037】図2の対象部品1を例にとると、2つの電
極列それぞれから電極列両端の電極を選択し、選択され
た4つの電極の位置を検出することにより、上記と同様
な方法で、対象部品1の重心位置座標および対象部品1
の座標軸に対する傾き角度を計算することができる。ま
た、対象部品1の任意の2つの電極の位置を検出し、検
出された2つの電極位置と、対象部品の形状データとに
基づいて、対象部品1の重心位置座標および対象部品1
の座標軸に対する傾き角度を計算することもできる。 【0038】また、射影演算対象領域Sの設定のための
対象部品の粗位置の検出精度が十分に得られない場合、
次のようにして、対象部品の粗位置の検出精度を高め
て、射影演算対象領域Sを好適な領域に設定していくこ
ともできる。すなわち、まず、上記実施例と同様な方法
によって、対象部品の数本の電極の位置を検出し、この
検出結果と対象部品の形状データとに基づいて、対象部
品の粗位置を求める。この後、求められた粗位置に基づ
いて、射影演算対象領域Sを更新する。そして、更新さ
れた射影演算対象領域Sを用いて、上記実施例と同様な
方法により、対象部品の位置を求める。このような処理
を複数回繰り返して、射影演算対象領域Sを更新してい
き、対象部品の位置認識精度を高めていくようにしても
よい。 【0039】また、まず、上記実施例と同様な方法によ
って、対象部品の任意の1方向に出ている全電極位置を
検出し、この検出結果と対象部品の形状データとに基づ
いて、他の方向に出ている全電極の位置を検出する。こ
のようにして求められた全電極の位置に基づいて、射影
演算対象領域Sを更新する。そして、更新された射影演
算対象領域Sを用いて、上記実施例と同様な方法によ
り、対象部品の位置を求める。このような処理を複数回
繰り返して、射影演算対象領域Sを更新していき、対象
部品の位置認識精度を高めていくようにしてもよい。 【0040】図11は、他の位置認識装置の概略構成を
示している。 【0041】この部品位置認識装置は、画像メモリ20
1、画像データ転送手段202、水平方向射影演算手段
203、垂直方向射影演算手段204、射影演算結果記
憶手段205、電極位置検出手段206および位置算出
手段207を備えている。 【0042】図示しない撮像装置から部品位置認識装置
へ入力された対象部品の濃淡画像データは画像メモリ2
01に格納される。図12は、撮像装置によって撮像さ
れた対象部品の画像を示している。対象部品1は、8ピ
ンSOP(small out line package)が実装されたICで
あり、パッケージ本体の対向する2辺から4本ずつ電極
2が突出している。 【0043】画像データ転送手段102は、入力画像内
の対象部品の電極が1本だけ含まれるように設定された
射影演算対象領域S(図12参照)の画像データを、水
平方向射影演算手段203および垂直方向射影演算手段
204に転送する。射影演算対象領域Sを設定するため
の方法は、図1の部品位置認識装置における射影演算対
象領域の設定方法と同じである。 【0044】また、射影演算対象領域Sの形状は、図2
の各射影演算対象領域Sの形状と同様に、電極2の長さ
方向に平行となる2辺と、撮像画面の水平軸Xに平行と
なる2辺とを有する平行四辺形である。したがって、画
像データ転送手段202による射影演算対象領域S内の
画像データの読出方向は、図4に示すように、撮像画面
の水平軸Xに平行な方向となる。そして、図5に示すよ
うに、1ラインごとの転送開始位置Psは、射影演算対
象領域Sの電極2の長さ方向に平行な辺に沿って、画素
単位でずらされていく。 【0045】水平方向射影演算手段203および垂直方
向射影演算手段204に、1つの射影演算対象領域S内
の画像データが送られてくると、各演算手段203は、
射影演算を実行する。図13(a)に射影演算対象領域
S内の画像データが読み出される様子を、図13(b)
に水平方向射影演算手段203による射影結果を、図1
3(c)に垂直方向射影演算手段204による射影結果
を、それぞれ示す。各演算手段203、204による射
影演算方法は、図7で説明した演算方法と同様であるの
でその説明を省略する。 【0046】各演算手段203によって得られた1つの
射影演算対象領域S内の画像データに対する水平射影演
算結果および垂直射影演算結果は、射影演算結果記憶手
段205に記憶される。この後、電極位置検出手段20
6によって、各データに対してエッジ検出処理が施され
る。水平方向射影演算結果に対するエッジ検出処理結果
を図13(d)に示す。また、垂直方向射影演算結果に
対するエッジ検出処理結果を図13(e)に示す。 【0047】つまり、電極位置検出手段206では、水
平射影演算結果および垂直射影演算結果に対して、たと
えば1次元微分フィルタなどの処理が行われ、射影分布
が急峻に変化する部分、すなわち電極2の長さ方向のエ
ッジ位置(図13(d)参照)、および電極2の幅方向
の2箇所のエッジ位置(図13(e)参照)が検出さ
れ、これらのエッジ位置から電極2先端の中央位置の座
標が電極2の位置として検出される。 【0048】このような、電極位置検出処理が、対象部
品1の位置検出に必要な本数の電極に対して、繰り返し
実行される。ここでは、図12の対象部品1の各電極列
の両端の電極2、すなわち4つの電極2について、電極
位置検出処理が実行されたものとする。 【0049】図14は、位置算出手段207による位置
算出方法を説明するための説明図である。位置算出手段
207では、電極位置検出手段206により検出された
4つの電極2の位置P1、P2、P3、P4に基づい
て、対象部品1の重心位置Gおよび対象部品1の座標軸
に対する傾き角度が計算される。 【0050】つまり、対象部品1の向かい合った電極2
の位置座標P1とP3、P2とP4に基づいて、対象部
品1の向かい合った電極どうしの丁度中間の位置の座標
C1、C2が求められる。この2点の座標C1、C2を
結ぶ直線Sの傾きが、対象部品1の座標軸に対する傾き
角度として求められる。また、2点の座標C1、C2の
丁度中間の位置座標が、対象部品1の重心位置Gとして
求められる。 【0051】上記実施例では、対象部品1の8本の電極
2のうち、4本の電極2の位置が検出されることによっ
て、対象部品1の重心位置および対象部品1の座標軸に
対する傾き角度が計算されているが、全ての電極の位置
を検出し、全電極位置に基づいて、対象部品1の重心位
置および対象部品1の座標軸に対する傾き角度を計算す
るようにしてもよい。 【0052】また、対象部品1の任意の2つの電極の位
置を検出し、検出された2つの電極位置と、対象部品の
形状データとに基づいて、対象部品1の重心位置座標お
よび対象部品1の座標軸に対する傾き角度を計算するこ
ともできる。 【0053】また、上記実施例と同様な方法によって、
対象部品の2本の電極の位置を検出し、この検出結果と
対象部品の形状データとに基づいて、他の2本の電極の
粗位置を求め、求められた粗位置に基づいて他の2本の
射影演算対象領域Sを設定し、設定された射影演算対象
領域Sを用いて他の2本の電極位置を求めるようにして
もよい。 【0054】上記は、フラットパッケージが実装された
部品の位置認識について説明したが、2以上の突出部を
有する部品であれば、この発明に位置認識装置によって
部品位置を認識することができる。 【0055】 【発明の効果】この発明によれば、少なくとも2つの突
出部を有する部品の位置を、高精度に且つ高速に認識す
ることができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a component position recognizing apparatus for recognizing the position of a component such as a flat package IC having at least two projections such as electrodes. 2. Description of the Related Art In an automatic electronic component mounting apparatus for automatically mounting electronic components on a substrate, a target component is photographed by an image pickup device such as a camera, and the position of the target component is recognized using image processing. The target component is mounted at a predetermined position on the board based on the recognized position of the target component. In particular, in the case of a component whose electrode portion can be clearly identified, such as a flat package IC, it is possible to recognize the position of the entire component by detecting the electrode position. As a position recognition device for a flat package IC, there is one described in Japanese Patent Application Laid-Open No. 62-86789. In this position recognition device, an IC component that is roughly positioned in advance by mechanical means is imaged by an imaging device. A sample straight line is set for the image pattern of each electrode row of the IC component so as to be substantially orthogonal to the electrodes. The position of the electrode in each electrode row is determined by the change in brightness on the sample straight line, and the center position in the column direction of each electrode row is determined. Then, the position of the IC component is determined based on the determined center position in the column direction of each electrode row. [0004] By the way, a flat package, such as a quad flat package (QFP), in which electrodes protrude from four sides of a package body, SO
There are P (small out line package) in which electrodes protrude from two opposite sides of the package body. In the above-described conventional position recognition device, QFP (qua
d flat package) for ICs with electrodes protruding from the four sides of the package body, such as ICs
Since the position of the component is determined based on the center position in the column direction of the two electrode rows, highly accurate component position recognition can be performed. However, SOP (small out line pa)
In the case where an electrode protrudes from two opposing sides of the package body, such as an IC mounted with an integrated circuit (ckage), only the center of the two electrode rows in the column direction can be obtained. The component position with respect to the length direction of the electrode is accurately recognized, but the accuracy of the component position with respect to the length direction of the electrode is only guaranteed when the position is roughly determined in advance by mechanical means. Further, in the case of an IC having a protruding portion protruding from one side, the positioning accuracy is not further compensated. Further, since image data is processed, a long processing time is required. An object of the present invention is to provide a component position recognizing device capable of recognizing the position of a component having a projecting portion with high accuracy and high speed. A component position recognizing device according to the present invention is a component position recognizing device for recognizing the position of a component having a plurality of projecting portions. means and, in the grayscale image stored in the part image storage means, look including a tip portion for each projection of the component, and in a square shape having sides parallel to the projecting direction
From the image data of the set region, parallel to the projecting direction
Calculating means for calculating, for each region, a projection distribution in a different direction and a direction different from the direction, and connecting the projection distribution for each region calculated by the projection calculating means in each direction to form two types of primary
Projecting operation result connection storage means for storing as an original array , projection position calculating means for calculating the position of each projection from the one-dimensional array projection distribution stored in the projection operation result connection storing means, and the projection position Component position calculating means for calculating the position of the component based on the position of the protruding portion in each of the regions obtained by the calculating means. Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of a component position recognition device. The component position recognition device includes an image memory 101,
Image data transfer means 102, horizontal projection calculation means 10
3. It comprises a vertical projection operation means 104, a projection operation result connection storage means 105, an electrode position detection means 106 and a position calculation means 107. The grayscale image data of the target component input from the imaging device (not shown) to the component position recognizing device is stored in the image memory 1.
01 is stored. The input data is digital data of 8 bits per pixel, and the image size is 512 × 512 pixels. Then, the entire image of the target component is included in one field of view. FIG. 2 shows an image of the target component imaged by the imaging device. Target part 1 is an 8-pin SOP
(small out line package), and four electrodes 2 protrude from two opposing sides of the package body. The image data transfer means 102 is provided in the projection calculation target area S (see FIG. 2) for the number of electrodes set so as to include the tip of the electrode 2 of the component to be recognized in the input image one by one. The image data is sequentially transferred to the horizontal projection operation unit 103 and the vertical projection operation unit 104. Each projection calculation target area S is set as follows, for example. After the target component 1 is positioned in advance by mechanical means, an approximate position of the target component 1 on the input image of each electrode 2 is specified by imaging the target component 1 with an imaging device. Then, based on the specified approximate position of each electrode 2, the projection calculation target area S
Is set in advance. Alternatively, the target part 1 is imaged by an image pickup device, and after storing the grayscale image data of the target part in the image memory 101, coarse position recognition is performed by appropriate image processing, and the position of each electrode 2 of the target part 1 is determined. Specify the approximate position on the input image. The projection calculation target area S is set based on the specified approximate position of each electrode 2. That is, coarse position data by mechanical coarse positioning or coarse position recognition result data by image processing;
Each projection calculation target area S is set based on the shape data of the target component such that the tip of each electrode 2 of the target component 1 is included in each projection calculation target area S. As shown in FIG. 2, when the target component 1 is imaged at an arbitrary angle with respect to the horizontal and vertical axes X and Y of the imaging screen, each projection calculation target region S is a parallelogram region. Is set as Two opposite sides of each projection calculation target area S are set so as to be parallel to the length direction of the electrode 2. The other opposing 2 of each projection calculation target area S
The side is set to be parallel to the horizontal axis X or the vertical axis Y of the imaging screen according to the tilt angle of the target component 1 with respect to the horizontal and vertical axes of the imaging screen. When the row direction of the electrode rows is closer to the horizontal direction than the vertical direction as shown in FIG. 2, one side of each projection calculation target area S is set to be parallel to the horizontal axis X of the imaging screen. . When the row direction of the electrode rows is closer to the vertical direction than the horizontal direction as shown in FIG. 3, one side of each projection calculation target area S is set so as to be parallel to the vertical axis Y of the image pickup screen. Is set. When the target component is imaged without an angle shift with respect to the horizontal and vertical axes X and Y of the imaging screen, each projection calculation target area S has two sides parallel to the horizontal direction and two sides parallel to the vertical direction. It has a rectangular shape with sides. FIG. 4 shows an example of the projection calculation target area S shown in FIG.
The figure shows a state in which image data is read out by the image data transfer means 102. As shown in FIG. 2, when the projection calculation target area S is a parallelogram having two sides parallel to the horizontal axis X of the imaging screen, the image data transfer direction is:
The direction is parallel to the horizontal axis X of the imaging screen as indicated by the arrow in FIG. Then, as shown in FIG. 5, the transfer start position Ps for each line is shifted in pixel units along a side parallel to the length direction of the electrode 2 in the projection calculation target area S. FIG. 6 shows an example of the projection calculation target area S shown in FIG.
The figure shows a state in which image data is read out by the image data transfer means 102. As shown in FIG. 3, when the projection calculation target area S is a parallelogram having two sides parallel to the vertical axis Y of the imaging screen, the image data transfer direction is:
The direction is parallel to the vertical axis Y of the imaging screen as indicated by the arrow in FIG. Then, the transfer start position for each line is shifted in pixel units along the side parallel to the length direction of the electrode 2 in the projection calculation target area S. FIG. 7 is an explanatory diagram of a projection calculation method by the horizontal projection calculation means 103 and the vertical projection calculation means 104. FIG. 7A shows a state in which image data is read from the projection calculation target area S in FIG. The image data in each projection calculation target area S is
Horizontal projection calculation means 103 and vertical projection calculation means 1
04 at the same time. In the horizontal projection calculating means 103, an arrow A
The pixel value is added in the projection direction indicated by. That is, assuming that a pixel value in the projection calculation target area S is f (x, y), as shown in Expression 1, for each horizontal transfer line,
The total sum H (y) of the density values of all the pixels included in each line is calculated. FIG. 7B shows a calculation result by the horizontal projection calculation means 103. As can be seen from FIG.
In the horizontal projection calculation result, a portion where the projection distribution sharply changes appears corresponding to the edge position in the length direction of the electrode. ## EQU1 ## The vertical projection calculating means 104 adds pixel values in the projection direction indicated by arrow B. The projection direction B is parallel to a side parallel to the length direction of the electrode 2 in the projection calculation target area S. That is, as shown in Expression 2, by performing a cumulative addition operation of the pixel values corresponding to the direction of the arrow B of each transfer line for each pixel on the transfer line, the total sum of the density values in the projection direction B is obtained. V (x) is calculated. FIG. 7C shows the calculation result by the vertical projection calculation means 104.
As can be seen from FIG. 7C, in the vertical projection calculation result, two portions where the projection distribution sharply changes corresponding to the edge position in the width direction of the electrode appear. ## EQU2 ## The projection calculation in the projection direction B is performed, for example, as follows. As shown in FIG. 8, one adder 301 and a number of buffers 302 corresponding to the number of pixels of one transfer line are prepared, and each buffer 302 is in the middle of the addition operation of the corresponding pixel value between the transfer lines. Store the result. By repeating the addition operation of the corresponding pixels between the transfer lines with the result of the addition and the sequentially transferred pixel data, the projection operation in the projection direction B is completed at the end of the transfer of all the pixel data in the projection operation target area S. The result is obtained. Thus, the horizontal projection calculating means 1
03 and the vertical projection operation means 104 execute a projection operation on the image data in each projection operation target area S transferred from the image data transfer means 102. The projection calculation result data obtained by the horizontal projection calculation means 103 and the vertical projection calculation means 104 is:
It is sent to the projection calculation result connection storage means 105. As shown in FIG. 9, the projection calculation result link storage means 105 links the projection calculation results for the number of the projection calculation target areas S for each horizontal projection calculation result and each vertical projection calculation result. Are stored as two types of one-dimensional arrays. FIG. 9A schematically shows linked data of the result of the horizontal projection operation, and FIG. 9C schematically shows linked data of the result of the vertical projection operation. Actually, the connection data of the horizontal projection operation results and the connection data of the vertical projection operation results corresponding to the eight projection operation target areas S shown in FIG. However, FIG. 9 shows only a part of the data, that is, only four pieces of linked data of the horizontal projection calculation results and four pieces of linked data of the vertical projection calculation results. When the connection data of the horizontal projection operation result and the connection data of the vertical projection operation result are stored in the projection operation result connection storage means 105, the electrode position detection means 1
At 06, edge detection processing is performed on each data. FIG. 9B shows the result of the edge detection processing on the concatenated data of the result of the horizontal projection operation. FIG. 9D shows an edge detection processing result for the concatenated data of the vertical projection operation result. That is, in the electrode position detecting means 106, a process such as a one-dimensional differential filter is performed on each connected data, and a portion where the projection distribution changes sharply, that is, the edge position in the length direction of the electrode 2 (See FIG. 9B) and two edge positions in the width direction of the electrode 2 (see FIG. 9D), and from these edge positions, the center position of the tip of each electrode 2 is determined. Detected as position. In the detection of two edge positions in the width direction of the electrode 2, the projection direction B is parallel to the electrode direction, so that the gradient of the projection distribution at a portion corresponding to the edge position becomes steep. Therefore, two edge positions in the width direction of the electrode 2 can be accurately detected. On the other hand, in detecting the edge position in the length direction of the electrode 2, the projection direction A is the horizontal direction (in the case of FIG. 4) or the vertical direction (in the case of FIG. 6) regardless of the electrode direction. In general, the width of the electrode 2 is sufficiently smaller than its length, so that even if the target component 1 is inclined obliquely, the slope change of the projection distribution of the portion corresponding to the edge position in the length direction of the electrode 2 becomes less sharp. small. Therefore, the edge position in the length direction of the electrode 2 can be detected with high accuracy. FIG. 10 is an explanatory diagram for explaining a position calculating method by the position calculating means 107. The position calculating unit 107 calculates the position of the center of gravity of the target component 1 and the inclination angle of the target component 1 with respect to the coordinate axis based on the positions of all the electrodes 2 detected by the electrode position detecting unit 106.
The coordinates (Gx, Gy) of the position of the center of gravity of the target component 1 are as follows. When n electrodes are completely symmetrically arranged like a component on which SOP or QFP is mounted, the total number of the electrodes 2 is n and each electrode Assuming that the position coordinates of (2) are (xk, yk) (1.ltoreq.k.ltoreq.n), they can be obtained based on the following equation (3). ## EQU3 ## That is, the average value of the x coordinate of each electrode position is x
The coordinates become Gx, and the average value of the y coordinates of each electrode position becomes the y coordinate Gy of the position of the center of gravity. In addition, the inclination angle of the target component 1 with respect to the coordinate axis can be obtained by assuming a straight line L connecting the positions of all the electrodes 2 projecting from one side of the target component 1 in one direction, and using the inclination of the straight line L. Regarding a part whose electrodes are not arranged symmetrically, it is possible to calculate the inclination angle of the part with respect to the coordinate axis of the center of gravity of the part and the coordinate axis of the part by using data of the electrode position required according to the shape of the part. . In the above embodiment, since the positions of all the electrodes 2 of the target component are detected, it is also possible to check the bending of each electrode 2 in a two-dimensional plane based on the position data of these electrodes 2. It is possible. In the above embodiment, the position of the target component is recognized by obtaining the positions of all the electrodes of the target component 1. However, the position of the target component is recognized by obtaining the positions of some of the electrodes. It is also possible. In this way, the number of projection calculation target areas can be reduced, and higher-speed processing can be performed. Taking the target part 1 of FIG. 2 as an example, the electrodes at both ends of the electrode row are selected from each of the two electrode rows, and the positions of the selected four electrodes are detected. , Coordinates of the position of the center of gravity of the target part 1 and the target part 1
Can be calculated with respect to the coordinate axis. Further, the position of any two electrodes of the target component 1 is detected, and based on the detected two electrode positions and the shape data of the target component, the coordinates of the center of gravity of the target component 1 and the position of the target component 1 are determined.
Can also be calculated with respect to the coordinate axis. If the accuracy of detecting the rough position of the target component for setting the projection calculation target region S is not sufficiently obtained,
In the following manner, the projection calculation target area S can be set as a suitable area by increasing the detection accuracy of the coarse position of the target component. That is, first, the positions of several electrodes of the target component are detected by the same method as in the above-described embodiment, and the rough position of the target component is obtained based on the detection result and the shape data of the target component. Thereafter, the projection calculation target area S is updated based on the obtained coarse position. Then, using the updated projection calculation target area S, the position of the target component is obtained by the same method as in the above embodiment. Such a process may be repeated a plurality of times to update the projection calculation target area S, thereby improving the position recognition accuracy of the target component. First, the positions of all the electrodes protruding in any one direction of the target component are detected by the same method as in the above embodiment, and other electrode positions are detected based on the detection result and the shape data of the target component. The positions of all the electrodes protruding in the direction are detected. The projection calculation target area S is updated based on the positions of all the electrodes thus obtained. Then, using the updated projection calculation target area S, the position of the target component is obtained by the same method as in the above embodiment. Such a process may be repeated a plurality of times to update the projection calculation target area S, thereby improving the position recognition accuracy of the target component. FIG. 11 shows a schematic configuration of another position recognition device. This component position recognizing device comprises an image memory 20
1, an image data transfer unit 202, a horizontal projection operation unit 203, a vertical projection operation unit 204, a projection operation result storage unit 205, an electrode position detection unit 206, and a position calculation unit 207. The grayscale image data of the target component input from the imaging device (not shown) to the component position recognizing device is stored in the image memory 2.
01 is stored. FIG. 12 illustrates an image of the target component captured by the imaging device. The target component 1 is an IC on which an 8-pin small out line package (SOP) is mounted, and four electrodes 2 protrude from two opposing sides of the package body. The image data transfer means 102 transfers the image data of the projection calculation target area S (see FIG. 12) set so as to include only one electrode of the target component in the input image to the horizontal projection calculation means 203. And to the vertical projection calculation means 204. The method for setting the projection calculation target region S is the same as the method for setting the projection calculation target region in the component position recognition device of FIG. The shape of the projection calculation target area S is shown in FIG.
Is a parallelogram having two sides parallel to the length direction of the electrode 2 and two sides parallel to the horizontal axis X of the imaging screen. Therefore, the reading direction of the image data in the projection calculation target area S by the image data transfer unit 202 is a direction parallel to the horizontal axis X of the imaging screen as shown in FIG. Then, as shown in FIG. 5, the transfer start position Ps for each line is shifted in pixel units along a side parallel to the length direction of the electrode 2 in the projection calculation target area S. When image data in one projection calculation target area S is sent to the horizontal projection calculation means 203 and the vertical projection calculation means 204, each calculation means 203
Perform a projection operation. FIG. 13A shows how image data in the projection calculation target area S is read out, as shown in FIG.
FIG. 1 shows the projection result obtained by the horizontal projection operation means 203.
3 (c) shows a projection result by the vertical projection calculation means 204. The projection calculation method by each of the calculation means 203 and 204 is the same as the calculation method described with reference to FIG. The horizontal projection calculation result and the vertical projection calculation result for the image data in one projection calculation target area S obtained by each calculation means 203 are stored in the projection calculation result storage means 205. Thereafter, the electrode position detecting means 20
6, edge detection processing is performed on each data. FIG. 13D shows an edge detection processing result with respect to the horizontal projection calculation result. FIG. 13E shows an edge detection processing result with respect to the vertical projection calculation result. That is, in the electrode position detecting means 206, processing such as a one-dimensional differential filter is performed on the horizontal projection calculation result and the vertical projection calculation result, and the portion where the projection distribution changes sharply, that is, the electrode 2 An edge position in the length direction (see FIG. 13D) and two edge positions in the width direction of the electrode 2 (see FIG. 13E) are detected, and from these edge positions, the center position of the tip of the electrode 2 is detected. Are detected as the position of the electrode 2. Such an electrode position detection process is repeatedly executed for the number of electrodes necessary for detecting the position of the target component 1. Here, it is assumed that the electrode position detection processing has been executed for the electrodes 2 at both ends of each electrode row of the target component 1 in FIG. FIG. 14 is an explanatory diagram for explaining a position calculating method by the position calculating means 207. The position calculating means 207 calculates the center of gravity position G of the target component 1 and the inclination angle of the target component 1 with respect to the coordinate axis based on the positions P1, P2, P3, P4 of the four electrodes 2 detected by the electrode position detecting means 206. Is done. That is, the electrodes 2 facing the target component 1
Based on the position coordinates P1 and P3, and P2 and P4, coordinates C1 and C2 of a position exactly intermediate between the electrodes facing the target component 1 are obtained. The inclination of the straight line S connecting the coordinates C1 and C2 of the two points is obtained as the inclination angle with respect to the coordinate axis of the target component 1. In addition, the position coordinates just intermediate between the coordinates C1 and C2 of the two points are obtained as the center of gravity position G of the target component 1. In the above embodiment, the position of the center of gravity of the target component 1 and the inclination angle of the target component 1 with respect to the coordinate axis are detected by detecting the positions of the four electrodes 2 among the eight electrodes 2 of the target component 1. Although the calculation is performed, the positions of all the electrodes may be detected, and the position of the center of gravity of the target component 1 and the inclination angle of the target component 1 with respect to the coordinate axis may be calculated based on the positions of all the electrodes. The position of any two electrodes of the target component 1 is detected, and based on the detected two electrode positions and the shape data of the target component, the coordinates of the center of gravity of the target component 1 and the target component 1 are determined. Can also be calculated with respect to the coordinate axis. Further, by the same method as in the above embodiment,
The positions of the two electrodes of the target component are detected, and the rough positions of the other two electrodes are determined based on the detection result and the shape data of the target component. The projection calculation target area S may be set, and the other two electrode positions may be obtained using the set projection calculation target area S. In the above description, the position recognition of the component on which the flat package is mounted has been described. However, if the component has two or more protruding portions, the position of the component can be recognized by the position recognition device according to the present invention. According to the present invention, the position of a component having at least two projecting portions can be recognized with high accuracy and high speed.

【図面の簡単な説明】 【図1】 部品位置認識装置の概略構成を示す電気ブロ
ック図である。 【図2】 対象部品像の電極列の列方向が垂直方向より
水平方向に近い場合の対象部品像および射影演算対象領
域を示す模式図である。 【図3】 対象部品像の電極列の列方向が水平方向より
垂直方向に近い場合の対象部品像および射影演算対象領
域を示す模式図である。 【図4】 図2に示された射影演算対象領域内の画像デ
ータの転送方向を示す模式図である。 【図5】 図2に示された射影演算対象領域内の画像デ
ータの転送時における、各転送ラインの転送開始位置を
示す模式図である。 【図6】 図3に示された射影演算対象領域内の画像デ
ータの転送方向を示す模式図である。 【図7】 水平射影演算手段および垂直射影演算手段に
よる射影演算結果を示す模式図である。 【図8】 垂直射影演算手段の具体的構成例を示す電気
ブロック図である。 【図9】 射影演算結果連結記憶手段に記憶された射影
演算結果の連結データおよび連結データに対するエッジ
処理結果を示す模式図である。 【図10】 対象部品の重心位置座標および対象部品の
座標軸に対する傾き角度の演算方法を説明するための模
式図である。 【図11】 他の部品位置認識装置の概略構成を示す電
気ブロック図である。 【図12】 対象部品像および射影演算対象領域を示す
模式図である。 【図13】 水平射影演算手段および垂直射影演算手段
による射影演算結果ならびに射影演算結果に対するエッ
ジ処理結果を示す模式図である。 【図14】 対象部品の重心位置座標および対象部品の
座標軸に対する傾き角度の演算方法を説明するための模
式図である。 【符号の説明】 1 対象部品 2 電極 101、201 画像メモリ 102、202 画像データ転送手段 103、203 水平方向射影演算手段 104、204 垂直方向射影演算手段 105 射影演算結果連結記憶手段 205 射影演算結果記憶手段 106、206 電極位置検出手段 107、207 位置算出手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an electric block diagram showing a schematic configuration of a component position recognition device. FIG. 2 is a schematic diagram showing a target component image and a projection calculation target area when the column direction of the electrode row of the target component image is closer to the horizontal direction than the vertical direction. FIG. 3 is a schematic diagram showing a target component image and a projection calculation target region when the column direction of the electrode row of the target component image is closer to the vertical direction than the horizontal direction. FIG. 4 is a schematic diagram showing a transfer direction of image data in a projection calculation target area shown in FIG. 2; FIG. 5 is a schematic diagram showing a transfer start position of each transfer line when transferring image data in a projection calculation target area shown in FIG. 2; FIG. 6 is a schematic diagram showing a transfer direction of image data in a projection calculation target area shown in FIG. 3; FIG. 7 is a schematic diagram showing the results of projection calculation by horizontal projection calculation means and vertical projection calculation means. FIG. 8 is an electric block diagram showing a specific configuration example of a vertical projection calculation unit. FIG. 9 is a schematic diagram showing connection data of the projection operation result stored in the projection operation result connection storage means and an edge processing result for the connection data. FIG. 10 is a schematic diagram for explaining a method of calculating the coordinates of the position of the center of gravity of the target component and the inclination angle of the target component with respect to the coordinate axis. FIG. 11 is an electric block diagram illustrating a schematic configuration of another component position recognition device. FIG. 12 is a schematic diagram showing a target component image and a projection calculation target region. FIG. 13 is a schematic diagram showing the results of the projection calculation by the horizontal projection calculation means and the vertical projection calculation means, and the results of the edge processing performed on the projection calculation results. FIG. 14 is a schematic diagram for explaining a method of calculating the coordinates of the position of the center of gravity of the target component and the inclination angle of the target component with respect to the coordinate axis. [Description of Signs] 1 Target part 2 Electrode 101, 201 Image memory 102, 202 Image data transfer means 103, 203 Horizontal projection operation means 104, 204 Vertical projection operation means 105 Projection operation result connection storage means 205 Projection operation result storage Means 106, 206 Electrode position detecting means 107, 207 Position calculating means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−196424(JP,A) 特開 平6−18243(JP,A) 特開 平2−91509(JP,A) 実開 昭57−28309(JP,U) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 305 G01B 11/00 H05K 13/04 H05K 13/08 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-5-196424 (JP, A) JP-A-6-18243 (JP, A) JP-A-2-91509 (JP, A) 28309 (JP, U) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 305 G01B 11/00 H05K 13/04 H05K 13/08

Claims (1)

(57)【特許請求の範囲】 【請求項1】 複数の突出部を有する部品の位置を認識
する部品位置認識装置において、上記部品の濃淡画像を
格納する部品画像記憶手段と、該部品画像記憶手段に格
納した濃淡画像における、上記部品の各突出部毎に先端
部分を含み、且つ突出方向に平行な辺を有する四角形状
に設定された領域の画像データから、上記突出方向と平
行な方向と該方向と異なる方向の射影分布を各領域毎に
演算する射影演算手段と、該射影演算手段で演算された
各領域毎の射影分布を各方向ごとに連結し、2種類の1
次元配列として格納する射影演算結果連結記憶手段と、
該射影演算結果連結記憶手段に格納した1次元配列の射
影分布から各突出部の位置を演算し求める突出部位置演
算手段と、上記突出部位置演算手段によって求められた
上記各領域内の突出部の位置に基づいて、上記部品の位
置を求める部品位置算出手段と、を備えていることを特
徴とする部品位置認識装置。
(57) [Claim 1] In a component position recognizing device for recognizing the position of a component having a plurality of protrusions, a component image storage means for storing a gray image of the component, and the component image storage in grayscale image stored in the unit, seen including a tip portion for each projection of the component, and a square shape having sides parallel to the projecting direction
From the set region image data to, and the projecting direction Rights
A projection calculation means for calculating, for each region, a projection distribution in a line direction and a direction different from the direction, and connecting the projection distribution for each region calculated by the projection calculation means for each direction, and
Projection operation result connection storage means for storing as a dimensional array ,
A projection position calculating means for calculating the position of each projection from the one-dimensional array of projection distributions stored in the projection calculation result connection storage means; and a projection within each of the regions determined by the projection position calculation means And a component position calculating means for calculating the position of the component based on the position of the component.
JP35177598A 1998-12-10 1998-12-10 Component position recognition device Expired - Fee Related JP3384758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35177598A JP3384758B2 (en) 1998-12-10 1998-12-10 Component position recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35177598A JP3384758B2 (en) 1998-12-10 1998-12-10 Component position recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP5139429A Division JP2983800B2 (en) 1993-05-17 1993-05-17 Component position recognition device

Publications (2)

Publication Number Publication Date
JPH11250262A JPH11250262A (en) 1999-09-17
JP3384758B2 true JP3384758B2 (en) 2003-03-10

Family

ID=18419536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35177598A Expired - Fee Related JP3384758B2 (en) 1998-12-10 1998-12-10 Component position recognition device

Country Status (1)

Country Link
JP (1) JP3384758B2 (en)

Also Published As

Publication number Publication date
JPH11250262A (en) 1999-09-17

Similar Documents

Publication Publication Date Title
CA1233566A (en) Image processing system
EP0957642B1 (en) Image correction apparatus for stereo camera
EP1107186B1 (en) Image processing method and system
JP3266429B2 (en) Pattern detection method
JP2983800B2 (en) Component position recognition device
JP3384758B2 (en) Component position recognition device
JP4405009B2 (en) Calibration method of inspection machine with line sensor camera
JP3516118B2 (en) Object recognition method and object recognition device
JP3349292B2 (en) Component position recognition device
JP3532014B2 (en) Threshold calculation method
JP3015641B2 (en) Component position recognition device
JP3166816B2 (en) Pattern position finding method and apparatus by image recognition
JP3342171B2 (en) Component position recognition method and position recognition device
JPH10320565A (en) Image processing method and device therefor
JPH0644360A (en) Visual inspection method and device for electronic part with lead
JP3059446B2 (en) High accuracy position measurement method
JP3111434B2 (en) Image processing device
JP2726603B2 (en) Inspection area correction method
JP2843389B2 (en) Bonding ball inspection device
JPH0674714A (en) Substrate position detecting method
JP3276817B2 (en) Component position recognition device
JP3252574B2 (en) Image processing device
JPH0942926A (en) Method for measuring coordinates
JP3562871B2 (en) Image processing device
JP3480643B2 (en) Pattern inspection method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees