JP4184511B2 - Method and apparatus for defect inspection of metal sample surface - Google Patents

Method and apparatus for defect inspection of metal sample surface Download PDF

Info

Publication number
JP4184511B2
JP4184511B2 JP33598298A JP33598298A JP4184511B2 JP 4184511 B2 JP4184511 B2 JP 4184511B2 JP 33598298 A JP33598298 A JP 33598298A JP 33598298 A JP33598298 A JP 33598298A JP 4184511 B2 JP4184511 B2 JP 4184511B2
Authority
JP
Japan
Prior art keywords
image
metal sample
defect
illumination
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33598298A
Other languages
Japanese (ja)
Other versions
JP2000162150A (en
Inventor
真史 西田
添田  正彦
林  謙太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP33598298A priority Critical patent/JP4184511B2/en
Publication of JP2000162150A publication Critical patent/JP2000162150A/en
Application granted granted Critical
Publication of JP4184511B2 publication Critical patent/JP4184511B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明が属する技術分野】
本発明は、リードフレーム等の金属製品の表面に生じている疵欠陥を検出する金属試料表面の欠陥検査方法及び装置に関する。
【0002】
【従来の技術】
近年、半導体装置の高集積化、高機能化に伴い、その電気的接続に使用するリードフレームの微細化が進んでいるために、金属製品表面の欠陥検査は目視では難しくなってきていることもあって、その検査も自動化されつつある。
【0003】
このような金属製品表面の自動検査の技術としては、例えば図17(a)に示すように、検査対象である金属試料Wの上方に配設され、制御部に接続されたエリアセンサカメラ10により、該金属試料Wの表面を撮影して得られる画像データを画像処理部で処理して欠陥部を検出し、必要に応じて該欠陥部を目視用モニタに表示させて検査する方法が知られている。
【0004】
又、その際に使用する照明としては、例えば同図(b)に示したように、光源12からの照明光Iをビームスプリッタ14のハーフミラーにより、金属試料Wの表面に垂直なカメラ10の光軸と同方向に照射するとともに、その反射光Rを該カメラ10により撮影する垂直落射方式がある。
【0005】
ところで、金属試料Wの表面欠陥の種類としては、図18に断面図を示すように、正面が平坦な(a)の良品に対して明らかに凹んでいる(b)の欠陥と、多少の凹凸があるが欠陥としなくてもよい(c)に表示するような疑似欠陥がある。
【0006】
【発明が解決しようとする課題】
しかしながら、上記のような3種類の表面状態の金属試料を前記図17(a)に示したカメラ10により、同図(b)の垂直落射照明の下で撮影する場合には以下の問題がある。
【0007】
即ち、図19(I)には、上記図18に示した各表面状態の金属試料Wの断面と、照明光I及び反射光Rとの関係を概念的に示したように、(a)の良品部では正反射であるのに対し、(b)の欠陥部と(c)の疑似欠陥部では反射光Rが乱反射しているため、撮影される画像の輝度のプロファイルをそれぞれ同図(II)に対応させて示したように、(b)の欠陥部と(c)の疑似欠陥部では共に輝度が低下している。そのため、(b)の欠陥部を検出するために、画像データを2値化して欠陥部を自動検出できるように閾値SLを設定すると、同図(III)にそれぞれ2値化画像の輝度のプロファイルを対応させて示したように、(c)の疑似欠陥部をも欠陥として検出してしまうことになる。
【0008】
そこで、本出願人は、このような問題点を解決できる技術として、金属試料表面を3つの異なる仰角から照明して同一領域を撮影し、且つ、撮影により得られた各仰角の照明による画像データに、それぞれR、G、B3色の1色を割当てて得られる3つの画像データから、RGBカラー画像を合成し、合成された画像の色合いから欠陥、疑似欠陥の判別を行う外観検査技術を、特願平9−195238により提案している。
【0009】
又、本出願人は、この技術を利用するとともに、更に、合成された画像の各画素毎に、R色成分の光強度、G色成分の光強度、B色成分の光強度から色相値を求め、求められた各画素の色相値から検査する対象の表面状態と色相値の範囲との対応づけがなされているデータベースに従い、合成された画像の各画素毎に、その色相値の分類を付与し、その結果に基づき欠陥、疑似欠陥の判別を行う外観検査技術を、特願平9−251430により既に提案している。
【0010】
以下、この後者の技術を中心に具体例を挙げて詳述する。
【0011】
図1は、本出願人が後者の特許出願により提案している外観検査装置の概略構成を示すブロック図である。
【0012】
この検査装置は、金属試料表面を3つの異なる仰角から照明して同一領域を撮影し、得られた各仰角の照明による画像データにそれぞれR、G、B3色の各1色を割当てた、3つの画像データ等を取り込むカラー画像取込部20と、これら画像データを入力するインターフェイスに当る入力部22と、該入力部22を介して入力された画像データに対し各種画像処理を施すための画像処理部24と、該画像処理部24による処理結果に基づき欠陥、疑似欠陥の判定を行う判定部26と、該判定部26による判定結果に基づき、前記3つの画像データ等を合成した画像上の欠陥箇所を表示する表示部28とを備えている。
【0013】
又、前記画像処理部24には、前記3つの画像データ乃至これら3つの画像データを画像処理して得られた画像データから合成されたカラー画像データの各画素毎に、R、G、Bの各色成分の光強度から色相値を求める色相変換部30と、該変換部30による処理結果に基づき合成した画像の各画素毎に、その色相値の分類を付与する分類付与部32とが内蔵されており、又、この分類付与部32には検査する対象の表面状態と色相値の範囲が対応づけられたデータベース34からデータが入力されるようになっている。更に、前記画像処理部24は、平滑処理や孤立小領域除去のために行う▲1▼フィルタリング処理、▲2▼2値化処理、被検査画像からの周辺部除去処理等のための▲3▼合成処理、▲4▼ラベリング処理等の各処理機能をも有している。
【0014】
この外観検査装置について、前記カラー画像取込部20の一例を具体的に示した図2を用いて更に詳述する。この取込部20は、金属試料Wの表面を撮影するモノクロカメラからなるエリアセンサカメラ10と、該表面を照明する照明装置40とを備えてる。
【0015】
この照明装置40は、図2(b)に示すように、金属試料Wの表面を3つの異なる最大、中間、最小の仰角θ1 、θ2 、θ3 の各位置に配設された円光源40A、40B、40Cを有している。ここで、仰角とは、カメラ10の撮影方向(光軸)L0 と金属試料Wの表面Sと直交する交点P0 と、各円光源40A、40B、40Cとのなす角度である。この円光源としては、サークル状の蛍光灯、照明光が照射される先端部がサークル状に配された光ファイバ、サークル状に配列されたLED等を利用することができる。
【0016】
又、上記カラー画像取込部20は、後述するマスキング画像を取り込む際に、前記金属試料Wを裏面側から照明する透過光源42と、上記照明装置40の各光源40A〜40Cの点灯を制御する点灯部44と、該取込部20全体の動作を制御する制御部46と、前記カメラ10により撮影して得られた前記照明装置40の各円光源40A〜40Cからの反射照明による画像に、ソフトウェアによりそれぞれR、G、Bのいずれかの色を割当てる画像色割当部48とを有している。
【0017】
そして、この取込部20では、モノクロの前記カメラ10により金属試料Wの表面を撮影する際、前記制御部46、点灯部44により、前記仰角位置に固定されている各円光源40A〜40Cをそれぞれ時間をずらして、所定時間ずつ点灯するようになっている。
【0018】
上述したカラー画像取込部20により取り込まれた画像データを使用することにより、欠陥部と疑似欠陥部とを識別できる原理を、便宜上ここに説明しておく。図3(a)に示すように、金属試料Wの表面の傾きにより、各仰角θ1 〜θ3 からの照明光の正反射光のカメラ10への入射光量がそれぞれ異なるため、各仰角から照明して得られる画像は、撮影される金属試料表面の傾きにより、それぞれ光強度が異なることになる。
【0019】
即ち、大きな仰角θ1 の位置からの照明では、金属試料Wの表面が平坦(傾きθ21が0°)に近いほど、その正反射光量は大きく、それより小さい仰角θ2 の位置、仰角θ3 の位置からの照明では、それぞれ金属試料表面が所定の傾きθ22、θ23に近いほど、その正反射光の量は大きくなることから、これらの各表面では対応する仰角θ1 、θ2 、θ3 からの照明による画像の輝度(光強度)がそれぞれ強くなる。
【0020】
従って、上記各仰角から照明して得られた個々の画像は、図3(b)(イ)〜(ハ)に示すように、異なる表面範囲に輝度の大きい領域を持つ。そして、例えば、θ1 、θ2 、θ3 の各仰角位置からの照明による画像に対して、それぞれB、G、Rの色を割当て、これを表示すると図3(b)(イ)〜(ハ)の各輝度(光強度)が大きい範囲が、それぞれB、G、Rの色合いになるため、これら各カラー画像を合成すると、同図(c)に示すように金属試料表面の傾きにより色が異なる合成画像が得られることになる。
【0021】
この原理を、前記図18(a)〜(c)に当る図4(I)の(a)〜(c)に示した金属試料Wの表面検査に適用すると、R、G、Bの合成画像は、同図(II)の(a)〜(c)にそれぞれ対応させて示すように、良品部は全体がB色に表示され、欠陥部は中心から外側に順にB、G、Rの色合いを持ち、疑似欠陥部はR、G、Bが不規則に混ざった色となる。通常、合成画像上では疑似欠陥部は無彩色又は黄色になることが多い。このように、合成画像では、R、G、Bの色合いが金属試料の表面状態によって異なることから、欠陥部と疑似欠陥部でも色合いが異なることになるため、両者を区別する欠陥検出ができることになる。
【0022】
前記図1に示した外観検査装置においては、上述した検出原理に基づいて、上記疑似欠陥以外の欠陥を検出するために、前記図2に示したカラー画像取込部20により、R、G、Bの各色が割り当てられた3枚の被検査画像と1枚のマスキング画像の各画像データをそれぞれ取り込み、それを入力部22を介して画像処理部24に入力し、以下の各処理が実行される。これを、検査対象がリードフレーム等の金属板に貫通部を形成して製造される金属試料である場合を例に、図5に示したフローチャートと、対応する工程のイメージを図6に示した具体例とを参照しながら説明する。
【0023】
まず、前記カラー画像取込部20により、金属試料Wの表面を3つの異なる前記仰角から照明して同一領域を撮影し、得られた各仰角の照明による画像データにそれぞれR、G、B3色の各1色を割当てて得られた3つの画像データを取り込む(ステップ1)。
【0024】
図6の具体例で(a)は、このステップ1で被検査画像として取り込まれた3つの画像データを合成したカラー画像の一部に相当する。この図6(a)の被検査画像で、Aは検査領域、Bは周辺部(背景部)、Sは金属試料Wの表面側、Eはそのエッジ部、Sa は欠陥部、Sb は疑似欠陥部、Sc はノイズ部、Sd は色合いが周辺と異なる微小領域をそれぞれ表わしている。
【0025】
次いで、画像処理部24に入力された検査用カラー画像データ(被検査画像)について、ノイズ除去処理を行う(ステップ2)。このノイズ除去処理としては、例えばフィルタリング処理により処理画像データの各画素毎に、その周辺の画素を含めた9画素の平均値(光強度の平均値)を、新たにその画素値とする平滑化処理が挙げられる。このフィルタリング処理は、処理画像データの各画素値をf(i,j)、処理後の画像データの各画素値をg(i,j)とした場合、図7の(a)に示す式により表わすことができ、同図(b)に示す3×3のフィルタh(t,l)を適用する処理に当る。
【0026】
このノイズ除去は、前記円光源40A〜40Cで照明して入力された3つの画像を合成した前記図6(a)の合成画像データに対してそれぞれ行われ、その後、この合成画像について画素単位で色相変換を行う(ステップ3)。但し、このノイズ除去は合成前の3つの画像データに対してそれぞれ行い、その後これら3つの画像を合成してもよい。
【0027】
この色相変換は、例えば次の(1)〜(3)式で与えられるHaydnの色相変換式を用いて、その色相値Hを求めると共に、該色相値を基に画像化するために、上記変換式により0〜3の間の実数として得られる色相値Hを、更に下記(4)式に適用して新たな色相値H0 を算出し、このH0 を処理上の色相値として以降の各処理が実行される。但し、この(4)式により計算される場合、少数点以下は切り捨てる。
【0028】
(R、G≧Bのとき)
H=(G−B)/(R+G−2B) …(1)
(G、B≧Rのとき)
H=(B−R)/(G+B−2R) …(2)
(R、B≧Gのとき)
H=(R−G)/(B+R−2G) …(3)
H0 =255/3H …(4)
【0029】
図6(b)は、同図(a)に示した検査画像に対し、上述したノイズ除去処理と色相変換処理とを行った後の画像のイメージを示したものである。
【0030】
以上のステップ1〜3の各処理に平行して、検査カラー画像の検査領域以外の領域をマスキングするためのマスキング用画像データを取り込んでおく(ステップ4)。このマスキング用画像データも、前記カラー画像取込部20により、前記透過光源(透過照明手段)42を使用して、金属試料Wを撮影することにより作成する。図6(c)は、このマスキング用の画像のイメージを示したものである。
【0031】
上記ステップ4により取り込まれたマスキング用画像データについては、画素単位で所定の閾値により2値化する2値化処理を行う(ステップ5)。この処理は、検査領域の周辺部が、リードフレームでは貫通した状態であるため、前記透過光源42からの照明により検査領域とその周辺部とを撮影した場合、検査領域と周辺部では透過光の強度に大きな差があることから、撮影画像データを所定のスライスレベルで2値化することにより、ほぼ検査領域とその周辺部とを画素単位で分けることができる。
【0032】
このように、透過照明による撮影により得られた画像データに対し、各画素の値(光強度)がスライスレベル(閾値)より大きいものを1、小さいものを0とすることにより、2値化画像においては大まかには周辺部に対応する領域の画素の値は1、検査領域は0になる。
【0033】
しかし、一般に、金属試料のエッジ部は、テーパ状になっているため、自動検査を行うためにはこのエッジ部は検査領域から除外する必要がある。そのため、2値化処理によって得られる2値化画像データについて、周辺部領域を数画素分だけマスク領域を膨張させる処理を必要に応じて行う(ステップ6)。
【0034】
これを図8を用いて具体的に説明する。図8(a)にテーパ状のエッジ部Eを有する金属試料の一部断面図を示したが、この金属試料Wを垂直落射照明の下で撮影した場合の反射撮影画像を同図(b)に、透過照明して撮影した透過画像を2値画像としたものを同図(c)に示し、両者の位置関係を合わせて示しておく。なお、図中S、Bはそれぞれ値0、1の領域である。
【0035】
図8(d)は、同図(b)に示した2値化画像の周辺部に相当する領域Bを膨張させて、エッジ部Eに相当する領域を含むように膨張処理した後の画像を示したもので、図中S′、B′はそれぞれ実際に使用する検査領域及びマスキング領域である。このような実際のマスキング用画像を用いることにより、金属試料のエッジ部を除いた本来平坦であるべき領域のみを検査領域として限定することができる。図6(c)は、同図(a)に示した前記被検査画像に対応するマスキング用画像に対してステップ5の2値化処理を施した2値化画像データを、同図(d)は、この2値化画像データに対してステップ6の膨張処理を施した状態を示したもので、それぞれ上記図8(c)、(d)に相当している。
【0036】
次いで、ステップ3で色相変換された画像データの領域から、ステップ6の膨張処理により得られた前記図8(d)のマスキング領域B(周辺領域、背景領域)を、以降の処理対象から除く周辺部(背景部)除去処理を行う(ステップ7)。この処理は、前記図6の具体例では、同図(b)の画像データと、同図(d)に示す画像データから同図(e)に示す検査領域Aと、検査対象外の領域(非検査領域)Bとからなる画像を得ることに相当する。以降の処理は、検査領域Aのみを対象として行われる。
【0037】
次いで、予め欠陥と色相値の範囲が分類と対応付けられている前記データベース34を参照して、色相変換された画像データについて画素単位でその色相値に対応する分類を付与する(ステップ8)。これは、例えば図9に示したように、前記(4)式で算出される色相値H0 の所定の範囲に対応してA〜Eの分類を付与する処理で、ここでは、A、Bを正常な表面、Cを疑似欠陥部、D、Eを欠陥部として分類するように設定されている。この分類付与では、便宜上、A〜Eの各分類を、それぞれ色相を代表する数値を割り振って識別する。換言すると、各分類の色相を代表する数値、例えば各分類値の最大値を各画素に持たせておく。このステップ8の処理は、図6の具体例では、同図(e)に示した前記マスク済み画像データに対し、画素単位で上記A〜Eの分類を付与した同図(f)に示す画像データにあたる。
【0038】
次いで、分類済みの画像データの中で、欠陥に分類されているが、必要以上に小さい領域(画素領域)を除去するために、孤立微小領域除去処理を行う(ステップ9)。この処理は、例えば各画素に持たせた各分類の色相を代表する数値を用いて行う。これを図10を参照して説明する。
【0039】
図10(a)に画素を1つの矩形で表わし、各中心画素を(f(i,j))とした場合、その上下左右の画素を含めた計5個の画素に対して、同図(b)の(1)式に示すように、各中心画素(f(i,j))毎に、その画素の上下左右の画素を含めた計5個の画素について、数値が最大であればその数値を新たに、その中心画素の数値とする最大フィルタリング処理、又は同図(c)の(2)式に示すように、各中心画素とその画素の上下左右の画素を含めた計5個の画素について、数値が最小である画素の数値を新たにその中心画素の数値とする最小フィルタリング処理を、必要に応じて両処理の順番を変えて順次施す。
【0040】
例えば、分類と数値が、それぞれ図10(d)のような場合には、最小フィルタリング処理を行った後に、最大フィルタリング処理を行う。なお、この最大、最小の各フィルタリング処理は、中心画素とその近傍4画素を含めた計5画素に行う場合に限らず、近傍8画素を含めた計9画素について行うようにしてもよい。
【0041】
次いで、上記のように、各カテゴリに分類された多値化データから、欠陥に分類された箇所をラベリングする(ステップ10)。このラベリング処理は、その後の処理で面積や個数を基に最終的な良否判定を行う場合等に使う。次いで、このラベリング結果を基に最終的な良否判定を行い(ステップ11)、更に判定結果を表示する(ステップ12)。図6に示した具体例で、同図(g)は同図(f)に示す画像データに対してステップ9の孤立小領域除去処理を行った結果に相当する画像データであり、同図(h)はステップ11の欠陥部を判定した後の画像に相当する。
【0042】
以上詳述した既に提案済みの金属試料表面の外観検査技術によれば、リードフレーム等の金属製品(金属試料)の表面に生じている疵欠陥を検出する際、欠陥部を確実に検出できると共に、一定の基準の基に疑似欠陥箇所を区分けでき、且つ、該区分けを自動で行うようにできるという優れた利点がある。
【0043】
しかしながら、本発明者が前記外観検査技術について、更に詳細に検討した結果、該検査技術によっては接触疵と呼ばれる、全体がほぼ平坦で且つ表面状態が通常の金属表面に比べて鏡面に近いという特徴を持つ欠陥を検出することができないという新たな問題があることが明らかになった。
【0044】
即ち、前記図18(b)に示したような通常の欠陥は、仰角が小さい、即ち低角度照明からの反射光を上方のカメラ(撮影手段)で捕らえることにより検出できるのに対し、ハンドリング中に細いもので上から叩いた場合や、引っ掻いた場合等のように、異物と接触する等により、金属表面に部分的に生じている接触疵は、凹部の深さが浅い上に、ほぼ鏡面に近いため、上記低角度照明からの反射光は正反射してカメラの方向に向かわないことになり、その結果、接触疵と製品表面との区別がつかないため検出できない。
【0045】
本発明は、上記新たな問題点を解決するべくなされたもので、金属試料表面を3つの異なる仰角から照明して同一領域を撮影し、得られた各仰角の照明による画像データにそれぞれR、G、Bを割り当てて得られた3つの画像データに基づいて、該金属試料の表面を検査する際、接触疵をも確実に検出することができる技術を提供することを課題とする。
【0046】
【課題を解決するための手段】
本発明は、金属試料表面を3つの異なる仰角から照明して上方より撮影し、得られた各仰角の画像データにそれぞれR、G、Bを割当てた3つの画像データからRGBカラー画像を合成し、該合成画像のR、G、Bの色合いから欠陥の検査を行う金属試料表面の欠陥検査方法であって、前記3つの異なる仰角のうちの最大仰角から照明して撮影した画像を抜き出し、該画像を通常の金属試料表面の輝度より高い閾値で2値化し、該2値化画像に基づいて欠陥を判定することにより、前記課題を解決したものである。
【0047】
本発明は、又、金属試料表面を3つの異なる仰角位置から照明する照明手段と、該照明手段の各位置からの反射照明による画像を上方より撮影する撮影手段と、各位置からの反射照明による撮影画像に、それぞれR、G、Bを割当て、各画像を入力する入力手段と、入力された各画像を合成した合成画像に基づいて欠陥を検出する画像処理手段とを備えた金属試料表面の欠陥検査装置であって、前記3つの異なる仰角位置のうちの最大仰角位置の照明手段により照明して、前記撮影手段により撮影した画像を抜き出す手段と、抜き出した画像を通常の金属試料表面の輝度より高い閾値で2値化する手段と、作成された2値化画像に基づいて欠陥を判定する手段とを備えたことにより、同様に前記課題を解決したものである。
【0048】
即ち、本発明においては、金属試料表面の上方に配された撮影手段により、3つの異なる仰角のうちの最大の仰角から照明して該表面を撮影した画像を、通常の表面が有する輝度より高い閾値で2値化するようにしたので、ほぼ正反射光のみを撮影できるため、通常の表面より正反射量が大きい接触疵を検出することができる。
【0049】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
【0050】
本発明に係る第1実施形態の欠陥検査装置は、前記図1に示した画像処理部24に、以下に説明する機能(手段)を備えるようにした以外は、本出願人が既に提案している前記図1、図2に示した外観検査装置と実質上同一である。従って、同一部分には同一の符号を使用して、その詳細な説明を省略する。
【0051】
本実施形態では、画像処理部(画像処理手段)24が最大仰角位置の照明手段により照明して、撮影手段により撮影した画像を抜き出す手段と、抜き出した画像を通常の金属試料表面の輝度より高い閾値で2値化する手段と、作成された2値化画像に基づいて欠陥を判定する手段とを備えていると共に、必要に応じて孤立点除去を行う手段と、欠陥部を抽出し必要に応じて面積等を計算し、その大きさから最終的な良否判断を行う手段とを備えている。これら各手段(機能)は、ソフトウェアにより構成されている。
【0052】
本実施形態においては、図11に示すフローチャートに従って接触疵の検査を行う。このフローチャートは、ステップ1の被検査画像入力と、ステップ2のノイズ除去の各処理は、前記図5に示したフローチャートの場合と同様で、このステップ2と前記ステップ3の色相変換の間に、破線で囲んだステップ21〜24の各処理工程を追加したものに相当する。従って、ステップ4以降は省略してある。
【0053】
まず、前記図5の場合と同様にステップ1で被検査画像を入力し、ステップ2でその画像からノイズ除去を行う。次いで、ステップ1で得られたカラー画像のうち、最大仰角θ1 からの照明下の撮影に対応する画像を抜き出す高角度画像抽出を行う。この場合、カメラ10(撮影手段)は、その光軸が金属試料Wの表面にほぼ垂直になるように配置され、仰角θ1 は70°以上、好ましくは70°〜90°になるように配設されている。
【0054】
次いで、抽出された上記高角度画像を2値化する(ステップ22)。上記最大仰角θ1 から金属試料Wの表面を照明した場合、図12に通常の表面Aの場合の反射と、接触疵Bの場合の反射とを対比させて示したように、通常の表面では主として正反射であるが、乱反射成分も存在するのに対して、接触疵はほぼ正反射になる。そのため、接触疵の近傍の撮影画像の画素値を0〜255の階調値で表示すると、図13(a)に示すような通常表面の中に接触疵Bが含まれている高角度照明画像における線L上のプロファイルは、同図(b)に示すように、通常の表面Aの画素値が適切な値になるように感度を調整しておくと、接触疵Bの画素値(輝度)は飽和することもある。
【0055】
そこで、本実施形態では、図13(b)に合わせて示したように、通常の金属表面Aの明るさと、接触疵(欠陥部)Bの明るさ(最大値)の間で、閾値SLを設定し2値化する。
【0056】
以上の接触疵の検出処理が終了した後、そのまま終了してもよいが、前記図11にも示したように、前記図5のフローチャートの場合と同様に、ステップ3以降の各処理を行って欠陥と疑似欠陥の検査を行うようにしてもよい。
【0057】
以上詳述した本実施形態によれば、接触疵を確実に検出することができると共に、必要に応じて欠陥と疑似欠陥を区別して、真の欠陥を検出することもできる。
【0058】
次に、本発明に係る第2実施形態について説明する。本実施形態は、カラー画像取込部20として、前記図2に示した装置に代えて、図15に示す装置を使用するようにした以外は、前記第1実施形態と実質的に同一である。
【0059】
この図15に示す画像取込部20においては、撮影手段10として同様にモノクロカメラを採用し、照明装置40として1つの円光源40Aを、3つの異なる仰角θ1 〜θ3 の位置に順次移動させる可動部50を備えているようにした以外は、前記図2(a)に示したものと同一である。
【0060】
次に、本発明に係る第3実施形態について説明する。本実施形態は、画像取込装置20として、図16に示す装置を使用するようにした以外は、同様に前記第1実施形態と実質的に同一である。
【0061】
このカラー画像取込部20では、撮影手段10としてカラーカメラを採用し、照明手段として3つの異なる仰角θ1 〜θ3 の位置に固定された円光源40A〜40CがそれぞR、G、Bの各1色を照明とするようにしたものである。
【0062】
以上、本発明について具体的に説明したが、本発明は、前記実施形態に示したものに限られるものでなく、その要旨を逸脱しない範囲で種々変更可能である。
【0063】
例えば、前記実施形態では、撮影手段がエリアセンサカメラである場合を示したが、ラインセンサカメラとしてもよい。
【0064】
又、前記実施形態では、照明手段として円光源を備えている例を示したが、これに限定されない。
【0065】
【発明の効果】
以上説明したとおり、本発明によれば、金属試料表面を3つの異なる仰角から照明して同一領域を撮影し、得られた各仰角の照明による画像データにそれぞれR、G、B3色の各1色を割り当てて、得られる3つの画像データに基づいて、該金属試料の表面を検査する際、接触疵をも確実に検出することができる。
【図面の簡単な説明】
【図1】提案済みの外観検査装置の概略構成を示すブロック図
【図2】上記外観検査装置が備えているカラー画像取込部の要部を示した説明図
【図3】金属試料表面状態と撮影画像の関係を示した説明図
【図4】金属試料表面状態と合成された画像の関係を示した説明図
【図5】前記提案済みの外観検査装置による処理手順を示したフローチャート
【図6】処理画像データの具体例を挙げて処理手順を示した説明図
【図7】ノイズ除去処理の原理を示す説明図
【図8】マスキング用画像データとその作成手順を示す説明図
【図9】分類付与の意味を示す説明図
【図10】孤立小領域除去の原理を示す説明図
【図11】本発明に係る第1実施形態による処理手順の特徴を示すフローチャート
【図12】接触疵の光学的特徴を示す説明図
【図13】撮影画像を2値化して接触疵を検出するための原理を示す説明図
【図14】接触疵をラベリングした後の2値化画像のイメージを示す説明図
【図15】第2実施形態の特徴を示す説明図
【図16】第3実施形態の特徴を示す説明図
【図17】従来の検査装置を示す説明図
【図18】金属試料表面の欠陥を示す説明図
【図19】従来の検査方法を示す説明図
【符号の説明】
W…金属試料
10…カメラ
12…光源
14…ビームスプリッタ
20…カラー画像取込部
22…入力部
24…画像処理部
26…判定部
28…表示部
30…色相変換部
32…分類付与部
34…データベース
40…照明装置
40A〜40C…円光源
42…透過光源
44…点灯部
46…制御部
48…画像割当部
50…可動部
[0001]
[Technical field to which the invention belongs]
The present invention relates to a defect inspection method and apparatus for a metal sample surface for detecting wrinkle defects generated on the surface of a metal product such as a lead frame.
[0002]
[Prior art]
In recent years, along with higher integration and higher functionality of semiconductor devices, lead frames used for electrical connection have been miniaturized, and it has become difficult to visually inspect defects on the surface of metal products. And the inspection is being automated.
[0003]
For example, as shown in FIG. 17A, an automatic inspection technique for the surface of such a metal product is provided by an area sensor camera 10 disposed above a metal sample W to be inspected and connected to a control unit. In addition, a method is known in which image data obtained by photographing the surface of the metal sample W is processed by an image processing unit to detect a defective portion and, if necessary, the defective portion is displayed on a visual monitor for inspection. ing.
[0004]
In addition, as the illumination used at that time, for example, as shown in FIG. 5B, the illumination light I from the light source 12 is irradiated by the half mirror of the beam splitter 14 and the camera 10 perpendicular to the surface of the metal sample W is used. There is a vertical epi-illumination method in which the camera 10 emits the reflected light R while irradiating in the same direction as the optical axis.
[0005]
By the way, as a kind of surface defect of the metal sample W, as shown in a cross-sectional view in FIG. 18, the defect (b) which is clearly recessed with respect to the non-defective product (a) whose front is flat, and some unevenness. There is a pseudo defect which is displayed in (c), which may not be a defect.
[0006]
[Problems to be solved by the invention]
However, when the above-described three kinds of surface state metal samples are photographed with the camera 10 shown in FIG. 17A under the vertical epi-illumination shown in FIG. 17B, there are the following problems. .
[0007]
That is, FIG. 19 (I) conceptually shows the relationship between the cross section of the metal sample W in each surface state shown in FIG. 18 and the illumination light I and the reflected light R. While the non-defective part is regular reflection, the reflected light R is irregularly reflected in the defect part (b) and the pseudo defect part (c). As shown in correspondence with (), the luminance of both the defective part (b) and the pseudo defective part (c) is lowered. Therefore, in order to detect the defective portion in (b), when the threshold value SL is set so that the image data is binarized and the defective portion can be automatically detected, the luminance profile of the binarized image is shown in FIG. As shown, the pseudo-defect portion (c) is also detected as a defect.
[0008]
Therefore, as a technology that can solve such problems, the present applicant illuminates the metal sample surface from three different elevation angles to photograph the same region, and image data obtained by illumination at each elevation angle obtained by the photographing. In addition, an appearance inspection technique for synthesizing an RGB color image from three image data obtained by assigning one of R, G, and B colors to each other, and discriminating a defect and a pseudo defect from the hue of the synthesized image, This is proposed in Japanese Patent Application No. 9-195238.
[0009]
In addition to using this technology, the applicant further calculates the hue value from the light intensity of the R color component, the light intensity of the G color component, and the light intensity of the B color component for each pixel of the synthesized image. Obtain and classify the hue value for each pixel of the synthesized image according to the database in which the surface state of the object to be inspected and the range of the hue value are associated with each other based on the obtained hue value of each pixel Japanese Patent Application No. 9-251430 has already proposed an appearance inspection technique for discriminating defects and pseudo defects based on the results.
[0010]
Hereinafter, the latter technique will be described in detail with a specific example.
[0011]
FIG. 1 is a block diagram showing a schematic configuration of an appearance inspection apparatus proposed by the applicant of the latter patent application.
[0012]
This inspection apparatus illuminates the surface of a metal sample from three different elevation angles, images the same region, and assigns each of R, G, and B3 colors to image data obtained by illumination at each elevation angle. A color image capturing unit 20 for capturing one image data, an input unit 22 corresponding to an interface for inputting these image data, and an image for performing various image processing on the image data input via the input unit 22 A processing unit 24, a determination unit 26 that determines a defect and a pseudo defect based on a processing result by the image processing unit 24, and an image on which the three image data are combined based on a determination result by the determination unit 26 And a display unit 28 for displaying a defective portion.
[0013]
The image processing unit 24 also includes R, G, and B for each pixel of color image data synthesized from the three image data or image data obtained by image processing of the three image data. A hue conversion unit 30 that obtains a hue value from the light intensity of each color component, and a classification assigning unit 32 that assigns a classification of the hue value for each pixel of the image synthesized based on the processing result by the conversion unit 30 are incorporated. In addition, data is input from the database 34 in which the surface state to be inspected and the range of hue values are associated with each other to the classification assigning unit 32. Further, the image processing unit 24 performs (1) filtering processing, (2) binarization processing, peripheral image removal processing from the image to be inspected for smoothing processing and isolated small area removal, and (3). It also has various processing functions such as composition processing and (4) labeling processing.
[0014]
This appearance inspection apparatus will be further described in detail with reference to FIG. 2 which specifically shows an example of the color image capturing unit 20. The take-in unit 20 includes an area sensor camera 10 that is a monochrome camera that photographs the surface of the metal sample W, and an illumination device 40 that illuminates the surface.
[0015]
In this illumination device 40, as shown in FIG. 2B, circular light sources 40A and 40B are arranged on the surface of the metal sample W at three different maximum, intermediate, and minimum elevation angles θ1, θ2, and θ3. , 40C. Here, the elevation angle is an angle formed between the photographing direction (optical axis) L0 of the camera 10 and the intersection P0 orthogonal to the surface S of the metal sample W and the circular light sources 40A, 40B, and 40C. As the circular light source, a circle-shaped fluorescent lamp, an optical fiber in which a tip portion irradiated with illumination light is arranged in a circle shape, an LED arranged in a circle shape, or the like can be used.
[0016]
The color image capturing unit 20 controls lighting of the transmission light source 42 that illuminates the metal sample W from the back side and the light sources 40A to 40C of the illumination device 40 when capturing a masking image to be described later. The lighting unit 44, the control unit 46 that controls the operation of the entire capture unit 20, and the reflected illumination from the circular light sources 40 </ b> A to 40 </ b> C of the lighting device 40 obtained by photographing with the camera 10, And an image color assigning unit 48 for assigning any one of R, G, and B colors by software.
[0017]
And in this taking-in part 20, when the surface of the metal sample W is image | photographed with the monochrome camera 10, each circular light source 40A-40C currently fixed to the said elevation angle position by the said control part 46 and the lighting part 44 is used. The lights are lit for a predetermined period of time at different times.
[0018]
The principle that the defect portion and the pseudo defect portion can be identified by using the image data captured by the color image capturing unit 20 described above will be described here for convenience. As shown in FIG. 3A, the amount of light incident on the camera 10 of specularly reflected illumination light from each elevation angle θ1 to θ3 varies depending on the inclination of the surface of the metal sample W. The obtained images have different light intensities depending on the inclination of the surface of the metal sample to be photographed.
[0019]
That is, in illumination from a position with a large elevation angle θ1, the closer the surface of the metal sample W is to be flat (the inclination θ21 is 0 °), the greater the amount of specular reflection, and the smaller the elevation angle θ2 and the elevation angle θ3. In this illumination, the closer the metal sample surface is to the predetermined inclinations θ22 and θ23, the greater the amount of specular reflection light.Therefore, on each of these surfaces, the images of the images by illumination from the corresponding elevation angles θ1, θ2, and θ3 Luminance (light intensity) increases.
[0020]
Therefore, the individual images obtained by illuminating from the above elevation angles have regions with high luminance in different surface ranges, as shown in FIGS. Then, for example, colors B, G, and R are assigned to images obtained by illumination from the respective elevation positions of θ1, θ2, and θ3, and when these are displayed, the images shown in FIGS. 3B, 3A, and 3C are displayed. Since the range where each luminance (light intensity) is large becomes the shades of B, G, and R, when these color images are combined, as shown in FIG. An image will be obtained.
[0021]
When this principle is applied to the surface inspection of the metal sample W shown in (a) to (c) of FIG. 4 (I) corresponding to FIGS. 18 (a) to (c), a composite image of R, G and B is obtained. Are shown in B color as a whole, and defective parts are displayed in B, G, and R colors in order from the center to the outside as shown in FIGS. The pseudo defect portion has a color in which R, G, and B are irregularly mixed. Usually, the pseudo defect portion is often achromatic or yellow on the composite image. In this way, in the composite image, since the hues of R, G, and B differ depending on the surface state of the metal sample, the hues of the defective portion and the pseudo-defect portion are also different. Become.
[0022]
In the appearance inspection apparatus shown in FIG. 1, in order to detect defects other than the pseudo defects based on the detection principle described above, the color image capturing unit 20 shown in FIG. Each image data of three inspection images to which each color of B is assigned and one masking image is fetched and input to the image processing unit 24 via the input unit 22, and the following processes are executed. The This is an example in which the object to be inspected is a metal sample manufactured by forming a through-hole in a metal plate such as a lead frame, and the flowchart shown in FIG. 5 and the image of the corresponding process are shown in FIG. This will be described with reference to specific examples.
[0023]
First, the color image capturing unit 20 illuminates the surface of the metal sample W from three different elevation angles to photograph the same region, and the obtained image data obtained by illumination at each elevation angle is R, G, B3 colors, respectively. The three image data obtained by assigning each of the colors are taken in (step 1).
[0024]
In the specific example of FIG. 6, (a) corresponds to a part of a color image obtained by synthesizing the three image data captured as the image to be inspected in Step 1. 6A, A is an inspection area, B is a peripheral portion (background portion), S is a surface side of a metal sample W, E is an edge portion thereof, Sa is a defective portion, and Sb is a pseudo defect. Part, Sc represents a noise part, and Sd represents a minute area having a different hue from the surroundings.
[0025]
Next, noise removal processing is performed on the color image data for inspection (inspected image) input to the image processing unit 24 (step 2). As this noise removal processing, for example, for each pixel of the processed image data, for example, filtering processing, smoothing is performed by newly setting the average value of nine pixels including the surrounding pixels (average value of light intensity) as the pixel value. Processing. In this filtering process, when each pixel value of the processed image data is f (i, j) and each pixel value of the processed image data is g (i, j), the expression shown in FIG. This corresponds to the process of applying the 3 × 3 filter h (t, l) shown in FIG.
[0026]
This noise removal is performed on the combined image data in FIG. 6A obtained by combining the three images input by illumination with the circular light sources 40A to 40C, and then the combined image is pixel by pixel. Hue conversion is performed (step 3). However, this noise removal may be performed on each of the three image data before synthesis, and then these three images may be synthesized.
[0027]
For example, the hue conversion uses the Haydn hue conversion formula given by the following equations (1) to (3) to obtain the hue value H and to convert the image into an image based on the hue value. The hue value H obtained as a real number between 0 and 3 according to the equation is further applied to the following equation (4) to calculate a new hue value H0. Executed. However, when it is calculated by the equation (4), the decimal point is rounded down.
[0028]
(When R, G ≧ B)
H = (GB) / (R + G-2B) (1)
(When G, B ≧ R)
H = (BR) / (G + B-2R) (2)
(When R, B ≧ G)
H = (RG) / (B + R-2G) (3)
H0 = 255 / 3H (4)
[0029]
FIG. 6B shows an image after the above-described noise removal processing and hue conversion processing are performed on the inspection image shown in FIG.
[0030]
In parallel with the processes in steps 1 to 3, masking image data for masking areas other than the inspection area of the inspection color image is captured (step 4). This masking image data is also created by photographing the metal sample W by the color image capturing unit 20 using the transmission light source (transmission illumination means) 42. FIG. 6C shows an image of this masking image.
[0031]
The masking image data captured in step 4 is subjected to a binarization process for binarizing with a predetermined threshold in pixel units (step 5). In this process, since the periphery of the inspection area is penetrated by the lead frame, when the inspection area and its periphery are photographed by illumination from the transmissive light source 42, transmitted light is transmitted in the inspection area and the periphery. Since there is a large difference in intensity, by binarizing the captured image data at a predetermined slice level, it is possible to divide the inspection region and its peripheral portion in units of pixels.
[0032]
In this way, with respect to image data obtained by imaging with transmitted illumination, a binary image is obtained by setting the value (light intensity) of each pixel to 1 when the value is greater than the slice level (threshold) and 0 when it is smaller. In general, the pixel value of the region corresponding to the peripheral portion is 1 and the inspection region is 0.
[0033]
However, in general, since the edge portion of the metal sample is tapered, it is necessary to exclude the edge portion from the inspection region in order to perform automatic inspection. Therefore, a process for expanding the mask area by several pixels in the peripheral area is performed as necessary for the binarized image data obtained by the binarization process (step 6).
[0034]
This will be specifically described with reference to FIG. FIG. 8 (a) shows a partial cross-sectional view of a metal sample having a tapered edge portion E. FIG. 8 (b) shows a reflection image when the metal sample W is photographed under vertical epi-illumination. FIG. 6C shows a binary image obtained by transmitting a transmission image obtained by transmission illumination, and shows the positional relationship between the two. In the figure, S and B are areas of values 0 and 1, respectively.
[0035]
FIG. 8D shows an image after the region B corresponding to the peripheral portion of the binarized image shown in FIG. 8B is expanded and expanded so as to include the region corresponding to the edge portion E. In the figure, S ′ and B ′ in the figure are an inspection area and a masking area that are actually used, respectively. By using such an actual masking image, it is possible to limit only an area that should originally be flat except for an edge portion of the metal sample as an inspection area. FIG. 6C shows binary image data obtained by performing the binarization processing in step 5 on the masking image corresponding to the image to be inspected shown in FIG. Shows the state in which the expansion processing of step 6 has been performed on the binarized image data, and corresponds to FIGS. 8 (c) and 8 (d), respectively.
[0036]
Next, the masking area B (peripheral area and background area) in FIG. 8D obtained by the expansion process in step 6 is excluded from the subsequent processing objects from the area of the image data subjected to hue conversion in step 3. Part (background part) removal processing is performed (step 7). In the specific example of FIG. 6, this processing is performed by the image data of FIG. 6B, the inspection data A shown in FIG. 5E from the image data shown in FIG. This corresponds to obtaining an image composed of the non-inspection area (B). The subsequent processing is performed only for the inspection area A.
[0037]
Next, with reference to the database 34 in which the range of the defect and the hue value is associated with the classification in advance, the classification corresponding to the hue value is given to the image data subjected to the hue conversion in units of pixels (step 8). For example, as shown in FIG. 9, this is a process of assigning A to E classifications corresponding to a predetermined range of the hue value H0 calculated by the equation (4). The normal surface, C is set as a pseudo defect portion, and D and E are set as a defect portion. In this classification assignment, for convenience, each classification of A to E is identified by assigning a numerical value representative of the hue. In other words, each pixel has a numerical value representing the hue of each classification, for example, the maximum value of each classification value. In the specific example of FIG. 6, the processing of step 8 is the image shown in FIG. 6F in which the classifications A to E are assigned to the masked image data shown in FIG. It corresponds to data.
[0038]
Next, in order to remove an area (pixel area) that is classified as a defect in the classified image data but is smaller than necessary, an isolated minute area removal process is performed (step 9). This process is performed using, for example, a numerical value representing the hue of each classification given to each pixel. This will be described with reference to FIG.
[0039]
When the pixel is represented by one rectangle in FIG. 10A and each central pixel is (f (i, j)), the same figure ( As shown in equation (1) of b), for each central pixel (f (i, j)), if the numerical value is maximum for a total of five pixels including the upper, lower, left, and right pixels of the pixel, As shown in the maximum filtering process in which the numerical value is newly set to the numerical value of the central pixel, or the expression (2) in FIG. For the pixel, a minimum filtering process is performed in which the numerical value of the pixel having the smallest numerical value is newly set as the numerical value of the central pixel, changing the order of both processes as necessary.
[0040]
For example, when the classification and numerical value are as shown in FIG. 10D, the maximum filtering process is performed after the minimum filtering process. Note that the maximum and minimum filtering processes are not limited to a total of 5 pixels including the central pixel and 4 neighboring pixels, but may be performed for a total of 9 pixels including the 8 neighboring pixels.
[0041]
Next, as described above, the locations classified as defects are labeled from the multilevel data classified into the respective categories (step 10). This labeling process is used when the final pass / fail judgment is made based on the area and the number in the subsequent processes. Next, a final pass / fail determination is performed based on the labeling result (step 11), and the determination result is further displayed (step 12). In the specific example shown in FIG. 6, FIG. 6G is image data corresponding to the result of performing the isolated small region removal processing in step 9 on the image data shown in FIG. h) corresponds to the image after the defective portion in step 11 is determined.
[0042]
According to the already proposed metal surface inspection technology described in detail above, when detecting defects on the surface of a metal product (metal sample) such as a lead frame, the defect portion can be reliably detected. There is an excellent advantage that the pseudo defect portion can be classified based on a certain standard, and the division can be automatically performed.
[0043]
However, as a result of further detailed examination of the appearance inspection technique by the present inventor, the feature is that the entire surface is almost flat and the surface state is closer to a mirror surface than a normal metal surface, depending on the inspection technique. It became clear that there was a new problem that it was not possible to detect defects with.
[0044]
That is, the normal defect as shown in FIG. 18B has a small elevation angle, that is, it can be detected by capturing the reflected light from the low-angle illumination with the upper camera (photographing means), while being handled. The contact flaws that are partially formed on the metal surface due to contact with a foreign object, such as when it is struck from above with a thin object, or scratched, etc., have a shallow recess and a mirror surface. Therefore, the reflected light from the low-angle illumination is regularly reflected and does not go in the direction of the camera. As a result, the contact rod and the product surface cannot be distinguished and cannot be detected.
[0045]
The present invention has been made to solve the above-mentioned new problems. The same area is photographed by illuminating the surface of the metal sample from three different elevation angles, and the obtained image data by illumination at each elevation angle is R, It is an object of the present invention to provide a technique capable of reliably detecting contact wrinkles when inspecting the surface of the metal sample based on three image data obtained by assigning G and B.
[0046]
[Means for Solving the Problems]
The present invention illuminates the surface of a metal sample from three different elevation angles and photographs from above, and synthesizes an RGB color image from the three image data obtained by assigning R, G, and B to the obtained image data of each elevation angle. , A defect inspection method on the surface of a metal sample for inspecting defects from the shades of R, G, B of the composite image, Of the three different elevation angles An image taken by illuminating from the maximum elevation angle is extracted, the image is binarized with a threshold value higher than the brightness of the normal metal sample surface, and the defect is determined based on the binarized image, thereby solving the above-mentioned problem. Is.
[0047]
The present invention is also based on illumination means for illuminating the surface of a metal sample from three different elevation positions, photographing means for photographing an image of reflected illumination from each position of the illumination means from above, and reflected illumination from each position. R, G, and B are assigned to each of the captured images, and an input unit that inputs each image and an image processing unit that detects a defect based on a composite image obtained by synthesizing the input images. A defect inspection device, Of the three different elevation positions Illumination by illumination means at the maximum elevation angle position, means for extracting the image captured by the imaging means, means for binarizing the extracted image with a threshold higher than the brightness of the normal metal sample surface, and the generated binary The above problem is similarly solved by providing a means for determining a defect based on the digitized image.
[0048]
That is, in the present invention, the photographing means arranged above the metal sample surface, Of three different elevation angles Since the image obtained by illuminating from the maximum elevation angle and photographing the surface is binarized with a threshold value higher than the brightness of the normal surface, almost only specular reflection light can be imaged, so regular reflection from the normal surface is possible. A large amount of contact wrinkles can be detected.
[0049]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0050]
The defect inspecting apparatus according to the first embodiment of the present invention has already been proposed by the present applicant, except that the image processing unit 24 shown in FIG. 1 has functions (means) described below. The visual inspection apparatus shown in FIGS. 1 and 2 is substantially the same. Therefore, the same reference numerals are used for the same parts, and detailed description thereof is omitted.
[0051]
In the present embodiment, the image processing unit (image processing unit) 24 illuminates with the illumination unit at the maximum elevation angle position, extracts the image captured by the imaging unit, and the extracted image is higher than the brightness of the normal metal sample surface. A means for binarizing with a threshold value, a means for determining a defect based on the created binarized image, a means for removing isolated points as necessary, and a defect part are extracted and necessary Accordingly, a means for calculating the area and the like and making a final pass / fail judgment from the size is provided. Each of these means (functions) is configured by software.
[0052]
In the present embodiment, contact wrinkles are inspected according to the flowchart shown in FIG. In this flowchart, each process of inputting an image to be inspected in step 1 and noise removal in step 2 are the same as those in the flowchart shown in FIG. 5, and during the hue conversion in step 2 and step 3, This corresponds to the addition of each processing step of steps 21 to 24 surrounded by a broken line. Therefore, step 4 and subsequent steps are omitted.
[0053]
First, as in the case of FIG. 5, an image to be inspected is input in step 1, and noise is removed from the image in step 2. Next, high-angle image extraction is performed to extract an image corresponding to photographing under illumination from the maximum elevation angle θ1 from the color image obtained in step 1. In this case, the camera 10 (imaging means) is arranged so that its optical axis is substantially perpendicular to the surface of the metal sample W, and the elevation angle θ1 is 70 ° or more, preferably 70 ° to 90 °. Has been.
[0054]
Next, the extracted high-angle image is binarized (step 22). When the surface of the metal sample W is illuminated from the maximum elevation angle θ1, the reflection on the normal surface A is compared with the reflection on the contact rod B in FIG. Although regular reflection is present, irregular reflection components are also present, whereas the contact rod is almost regular reflection. Therefore, when the pixel value of the captured image in the vicinity of the contact rod is displayed with a gradation value of 0 to 255, a high-angle illumination image in which the contact rod B is included in the normal surface as shown in FIG. As shown in FIG. 5B, the profile on the line L in FIG. 5B is obtained by adjusting the sensitivity so that the pixel value of the normal surface A becomes an appropriate value. May be saturated.
[0055]
Therefore, in the present embodiment, as shown in FIG. 13B, the threshold SL is set between the brightness of the normal metal surface A and the brightness (maximum value) of the contact defect (defect portion) B. Set and binarize.
[0056]
After the above-described contact wrinkle detection process is completed, the process may be terminated as it is. However, as shown in FIG. 11, each process after step 3 is performed as in the case of the flowchart of FIG. A defect and a pseudo defect may be inspected.
[0057]
According to this embodiment described above in detail, it is possible to reliably detect contact defects, and to detect true defects by distinguishing defects from pseudo defects as required.
[0058]
Next, a second embodiment according to the present invention will be described. This embodiment is substantially the same as the first embodiment except that the color image capturing unit 20 uses the apparatus shown in FIG. 15 instead of the apparatus shown in FIG. .
[0059]
In the image capturing section 20 shown in FIG. 15, a monochrome camera is similarly employed as the photographing means 10, and a single circular light source 40A as the illuminating device 40 is sequentially moved to three different elevation angles θ1 to θ3. Except for the provision of the portion 50, it is the same as that shown in FIG.
[0060]
Next, a third embodiment according to the present invention will be described. The present embodiment is substantially the same as the first embodiment, except that the apparatus shown in FIG. 16 is used as the image capturing apparatus 20.
[0061]
In this color image capturing unit 20, a color camera is adopted as the photographing means 10, and circular light sources 40A to 40C fixed at three different elevation angles θ1 to θ3 as illumination means are respectively R, G, and B. One color is used for illumination.
[0062]
Although the present invention has been specifically described above, the present invention is not limited to that shown in the above embodiment, and various modifications can be made without departing from the scope of the invention.
[0063]
For example, in the above-described embodiment, the case where the photographing unit is an area sensor camera is shown, but a line sensor camera may be used.
[0064]
Moreover, in the said embodiment, although the example provided with the circular light source as an illumination means was shown, it is not limited to this.
[0065]
【The invention's effect】
As described above, according to the present invention, the same area is photographed by illuminating the surface of the metal sample from three different elevation angles, and each of the obtained image data obtained by illumination at each elevation angle is 1 each of R, G, and B3 colors. When the surface of the metal sample is inspected based on the three image data obtained by assigning colors, it is possible to reliably detect contact wrinkles.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a proposed appearance inspection apparatus.
FIG. 2 is an explanatory diagram showing a main part of a color image capturing unit provided in the appearance inspection apparatus.
FIG. 3 is an explanatory diagram showing the relationship between the surface state of a metal sample and a photographed image.
FIG. 4 is an explanatory diagram showing the relationship between the surface state of the metal sample and the synthesized image.
FIG. 5 is a flowchart showing a processing procedure by the proposed appearance inspection apparatus.
FIG. 6 is an explanatory diagram showing a processing procedure by giving a specific example of processed image data.
FIG. 7 is an explanatory diagram showing the principle of noise removal processing.
FIG. 8 is an explanatory diagram showing image data for masking and a creation procedure thereof.
FIG. 9 is an explanatory diagram showing the meaning of class assignment
FIG. 10 is an explanatory diagram showing the principle of isolated small region removal.
FIG. 11 is a flowchart showing characteristics of a processing procedure according to the first embodiment of the present invention.
FIG. 12 is an explanatory view showing optical characteristics of the contact rod.
FIG. 13 is an explanatory diagram showing the principle for binarizing a captured image and detecting contact wrinkles
FIG. 14 is an explanatory diagram showing an image of a binarized image after labeling a contact rod
FIG. 15 is an explanatory diagram showing features of the second embodiment.
FIG. 16 is an explanatory diagram showing features of the third embodiment.
FIG. 17 is an explanatory view showing a conventional inspection apparatus.
FIG. 18 is an explanatory diagram showing defects on the surface of a metal sample.
FIG. 19 is an explanatory view showing a conventional inspection method.
[Explanation of symbols]
W ... Metal sample
10 ... Camera
12 ... Light source
14 ... Beam splitter
20 ... Color image capture unit
22 ... Input section
24. Image processing unit
26: Determination unit
28 ... Display section
30 ... Hue conversion section
32 ... Classification part
34 ... Database
40 ... Lighting device
40A-40C ... Circular light source
42: Transmitted light source
44 ... Lighting part
46. Control unit
48. Image allocation unit
50 ... Moving part

Claims (15)

金属試料表面を3つの異なる仰角から照明して上方より撮影し、得られた各仰角の画像データにそれぞれR、G、Bを割当てた3つの画像データからRGBカラー画像を合成し、該合成画像のR、G、Bの色合いから欠陥の検査を行う金属試料表面の欠陥検査方法であって、
前記3つの異なる仰角のうちの最大仰角から照明して撮影した画像を抜き出し、
該画像を通常の金属試料表面の輝度より高い閾値で2値化し、
該2値化画像に基づいて欠陥を判定することを特徴とする金属試料表面の欠陥検査方法。
The surface of the metal sample is illuminated from three different elevation angles and photographed from above, and an RGB color image is synthesized from the three image data obtained by assigning R, G, and B to the obtained image data at each elevation angle. A defect inspection method for a metal sample surface for inspecting defects from the shades of R, G, and B,
Extract an image taken by illuminating from the maximum of the three different elevation angles ,
The image is binarized with a threshold higher than the brightness of the normal metal sample surface,
A defect inspection method for a surface of a metal sample, wherein a defect is determined based on the binarized image.
請求項1において、
更に、前記合成画像の各画素毎に、R、G、Bの各色成分の光強度から色相値を求め、求められた各画素の色相値から、検査する対象の表面状態と色相値の範囲との対応づけがなされているデータベースに従い、合成画像の各画素毎に色相値の分類を付与し、分類結果に基づいて欠陥、疑似欠陥の判別を行うことを特徴とする金属試料表面の欠陥検査方法。
In claim 1,
Further, for each pixel of the composite image, a hue value is obtained from the light intensity of each of the R, G, and B color components, and from the obtained hue value of each pixel, a surface state to be inspected and a range of hue values A defect inspection method for a surface of a metal sample, characterized by assigning a hue value classification to each pixel of a composite image in accordance with a database in which the correspondence is made and discriminating between a defect and a pseudo defect based on the classification result .
請求項2において、
色相値が、Haydnの定義による色相変換式から得られる数値又は該数値の所定倍数であることを特徴とする金属試料表面の欠陥検査方法。
In claim 2,
A defect inspection method for a surface of a metal sample, wherein the hue value is a numerical value obtained from a hue conversion formula defined by Haydn or a predetermined multiple of the numerical value.
請求項1において、
撮影して得られたR、G、Bがそれぞれ割当てられた前記各画像データ又は前記合成画像に対して、平滑化処理を施してノイズの除去を行うことを特徴とする金属試料表面の欠陥検査方法。
In claim 1,
Defect inspection on the surface of a metal sample characterized in that noise is removed by performing a smoothing process on each image data or composite image to which R, G, and B respectively obtained by photographing are assigned Method.
請求項2において、
分類付与済みの画素データの中で、欠陥に分類された必要以上に小さい領域を除去する、孤立微小領域除去処理を行うことを特徴とする金属試料表面の欠陥検査方法。
In claim 2,
A defect inspection method for a surface of a metal sample, characterized in that an isolated minute region removal process is performed to remove a region smaller than necessary classified as a defect in pixel data that has been classified.
請求項2において、
分類付与された画像データ上で欠陥に分類された箇所をラベリングし、これを基に欠陥部の良否判定を行うことを特徴とする金属試料表面の欠陥検査方法。
In claim 2,
A method for inspecting a defect on a surface of a metal sample, wherein a portion classified as a defect is labeled on the classified image data, and the quality of the defective portion is determined based on the label.
請求項1において、
金属試料表面の検査領域を限定するためのマスキング処理を施すことを特徴とする金属試料表面の欠陥検査方法。
In claim 1,
A defect inspection method for a metal sample surface, characterized by performing a masking process for limiting an inspection region on the surface of the metal sample.
金属試料表面を3つの異なる仰角位置から照明する照明手段と、該照明手段の各位置からの反射照明による画像を上方より撮影する撮影手段と、各位置からの反射照明による撮影画像に、それぞれR、G、Bを割当て、各画像を入力する入力手段と、入力された各画像を合成した合成画像に基づいて欠陥を検出する画像処理手段とを備えた金属試料表面の欠陥検査装置であって、
前記3つの異なる仰角位置のうちの最大仰角位置の照明手段により照明して、前記撮影手段により撮影した画像を抜き出す手段と、
抜き出した画像を通常の金属試料表面の輝度より高い閾値で2値化する手段と、
作成された2値化画像に基づいて欠陥を判定する手段とを備えていることを特徴とする金属試料表面の欠陥検査装置。
An illumination unit that illuminates the surface of the metal sample from three different elevation angles, an imaging unit that captures an image of reflected illumination from each position of the illumination unit, and an image captured by reflected illumination from each position are R , G, B, an input means for inputting each image, and an image processing means for detecting defects based on a composite image obtained by synthesizing each input image, ,
Means for illuminating with illumination means at the maximum elevation angle position among the three different elevation angle positions, and extracting an image photographed by the photographing means;
Means for binarizing the extracted image with a threshold higher than the brightness of the surface of a normal metal sample;
A defect inspection apparatus for a metal sample surface, comprising: means for determining a defect based on the created binarized image.
請求項8において、
前記画像処理手段が、前記3つの画像データ又は前記3つの画像データを画像処理した得た画像データから作成された合成画像の各画素毎に、R、G、Bの各色成分の光強度から色相値を求める色相変換手段と、色相変換部の処理結果に基づいて検査する対象の表面状態と色相値の範囲との対応づけがなされているデータベースを参照しながら、合成画像の各画素毎に、その色相値の分類を付与する分類付与手段とを有することを特徴とする金属試料表面の欠陥検査装置。
In claim 8,
For each pixel of the composite image created from the three image data or image data obtained by performing image processing on the three image data, the image processing means calculates the hue from the light intensity of each of the R, G, and B color components. For each pixel of the composite image, referring to the database in which the hue conversion means for obtaining the value and the surface state of the target to be inspected based on the processing result of the hue conversion unit and the range of the hue value are made, A defect inspecting apparatus for a surface of a metal sample, comprising: a classifying unit that provides a classification of the hue value.
請求項8において、
金属試料表面を3つの異なる仰角から照明して同一領域を上方より撮影し、得られた各仰角の照明による画像データにそれぞれR、G、Bを割当てて3つの画像データを作成する、検査用画像取込部を備えていることを特徴とする金属試料表面の欠陥検査装置。
In claim 8,
The surface of the metal sample is illuminated from three different elevation angles and the same region is photographed from above, and three image data are created by assigning R, G, and B to the obtained image data by illumination at each elevation angle. An apparatus for inspecting a defect on a surface of a metal sample, comprising an image capturing unit.
請求項10において、
前記検査用画像取込部が、少なくとも、金属試料表面を3つの異なる仰角位置から照明する照明手段と、該照明手段の各位置からの反射照明による画像を上方より撮影する撮影手段とを有し、必要に応じ、各位置からの反射照明による撮影画像を、それぞれR、G、Bに割当てる画像色割当部を有していることを特徴とする金属試料表面の欠陥検査装置。
In claim 10,
The inspection image capturing unit includes at least an illumination unit that illuminates the surface of the metal sample from three different elevation angle positions, and an imaging unit that captures an image of reflected illumination from each position of the illumination unit from above. An apparatus for inspecting a defect on a surface of a metal sample, comprising an image color assigning unit for assigning a photographed image by reflected illumination from each position to R, G, and B, if necessary.
請求項10又は11において、
前記検査用画像取込部が、更に、検査用画像の検査領域以外の領域をマスキングするマスキング用画像を取り込む際、金属試料の検査領域とその周辺の背景部とを、該金属試料の透過照明にて撮影するための透過照明手段を備えていることを特徴とする金属試料表面の欠陥検査装置。
In claim 10 or 11,
When the inspection image capturing unit further captures a masking image for masking a region other than the inspection region of the inspection image, the inspection region of the metal sample and the surrounding background portion are transmitted through the illumination of the metal sample. A defect inspection apparatus for a surface of a metal sample, characterized by comprising a transmission illumination means for taking a picture at a point.
請求項11又は12において、
前記撮影手段がモノクロカメラであり、照明手段が3つの異なる仰角位置にて、それぞれ固定された光源を固定して設けたもので、且つ、各光源を、それぞれ時間をずらして、所定時間点灯する点灯部とを備えていることを特徴とする金属試料表面の欠陥検査装置。
In claim 11 or 12,
The photographing means is a monochrome camera, and the illumination means is provided with fixed light sources fixed at three different elevation positions, and each light source is turned on for a predetermined time with a different time. A defect inspection apparatus for a surface of a metal sample, comprising a lighting part.
請求項11又は12において、
前記撮影手段がモノクロカメラであり、照明手段が3つの異なる仰角位置に、1つの光源を順次移動させる可動部を備えていることを特徴とする金属試料表面の欠陥検査装置。
In claim 11 or 12,
An apparatus for inspecting a defect on a surface of a metal sample, wherein the photographing means is a monochrome camera, and the illumination means includes a movable part that sequentially moves one light source to three different elevation positions.
請求項11又は12において、
前記撮影手段がカラーカメラであり、照明手段が3つの異なる仰角位置に、それぞれRGBの各1色を照明光とする光源を固定したものであることを特徴とする金属試料表面の欠陥検査装置。
In claim 11 or 12,
An apparatus for inspecting a defect on a surface of a metal sample, wherein the photographing means is a color camera, and the illumination means is a fixed light source having illumination light of each of RGB colors at three different elevation positions.
JP33598298A 1998-11-26 1998-11-26 Method and apparatus for defect inspection of metal sample surface Expired - Fee Related JP4184511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33598298A JP4184511B2 (en) 1998-11-26 1998-11-26 Method and apparatus for defect inspection of metal sample surface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33598298A JP4184511B2 (en) 1998-11-26 1998-11-26 Method and apparatus for defect inspection of metal sample surface

Publications (2)

Publication Number Publication Date
JP2000162150A JP2000162150A (en) 2000-06-16
JP4184511B2 true JP4184511B2 (en) 2008-11-19

Family

ID=18294482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33598298A Expired - Fee Related JP4184511B2 (en) 1998-11-26 1998-11-26 Method and apparatus for defect inspection of metal sample surface

Country Status (1)

Country Link
JP (1) JP4184511B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010009498A1 (en) * 2008-07-21 2010-01-28 Commonwealth Scientific And Industrial Research Organisation Method and system for autonomous habitat analysis
JP5461841B2 (en) * 2009-01-27 2014-04-02 株式会社サキコーポレーション Inspection device for inspection object
JP2010210373A (en) * 2009-03-10 2010-09-24 Kyushu Nogeden:Kk Visual inspection apparatus
TWI497051B (en) * 2012-09-14 2015-08-21 Jx Nippon Mining & Metals Corp An evaluation apparatus for a surface condition of a metallic material, a visibility evaluation apparatus for a transparent substrate, an evaluation program thereof, and a computer-readable recording medium on which a recording medium is recorded, and a method of detecting the same
JP6121253B2 (en) * 2013-06-11 2017-04-26 Nok株式会社 Work surface defect inspection system
JP6791631B2 (en) * 2016-01-06 2020-11-25 株式会社サキコーポレーション Image generation method and inspection equipment
KR101840944B1 (en) 2016-11-09 2018-03-21 부산대학교 산학협력단 Apparatus and method for detecting defect based on image analysis
JP2018179621A (en) * 2017-04-06 2018-11-15 Nok株式会社 Surface defect detector, information processing device for surface defect inspection, computer program for surface defect inspection, and surface defect inspection method
CN110288584B (en) * 2019-06-27 2023-06-23 常州固高智能装备技术研究院有限公司 Ceramic hot dip aluminizing surface defect detection method and device based on machine vision

Also Published As

Publication number Publication date
JP2000162150A (en) 2000-06-16

Similar Documents

Publication Publication Date Title
TWI399534B (en) And a defect inspection device for performing defect inspection using image analysis
JP6945245B2 (en) Visual inspection equipment
TW583389B (en) A surface conduction examination method and a substrate examination device
US7355692B2 (en) System and method for inspecting electrical circuits utilizing reflective and fluorescent imagery
JP2000241362A (en) Surface quality inspecting apparatus and method
JP2007078540A (en) Visual inspection method and visual inspection device
JP2015040796A (en) Defect detection device
JP4184511B2 (en) Method and apparatus for defect inspection of metal sample surface
KR20160108644A (en) Device for detecting defect of device
JP2001027612A (en) Egg inspecting apparatus
CN111879789A (en) Metal surface defect detection method and system
CN110412055A (en) A kind of lens white haze defect inspection method based on multiple light courcess dark-ground illumination
JP4216485B2 (en) Pattern inspection method and apparatus
KR100517868B1 (en) Method for determining and evaluating defects in a sample surface
JP2001194322A (en) External appearance inspection device and inspection method
JP2000163582A (en) Method and device for inspecting defect on metallic sample surface
JPH04294204A (en) Apparatus for extracting defect in object surface
JP3047168B2 (en) Inspection method of chicken eggs
JPH05126761A (en) Empty-bottle separating apparatus
JP3883663B2 (en) Metal specimen surface appearance inspection method and appearance inspection apparatus
JP4967132B2 (en) Defect inspection method for object surface
JPH10103938A (en) Method and apparatus for visual examination of cast product
JPH07113758A (en) Binary calculating method in appearance inspection device
JPH1183455A (en) Appearance inspecting device
KR20020015081A (en) Automatized defect inspection system and defect inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees