JP2005009995A - Lighting method, and method and detector for detecting surface condition - Google Patents

Lighting method, and method and detector for detecting surface condition Download PDF

Info

Publication number
JP2005009995A
JP2005009995A JP2003173935A JP2003173935A JP2005009995A JP 2005009995 A JP2005009995 A JP 2005009995A JP 2003173935 A JP2003173935 A JP 2003173935A JP 2003173935 A JP2003173935 A JP 2003173935A JP 2005009995 A JP2005009995 A JP 2005009995A
Authority
JP
Japan
Prior art keywords
illumination
light
surface state
image
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003173935A
Other languages
Japanese (ja)
Other versions
JP4037800B2 (en
Inventor
Yutaka Iwata
裕 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2003173935A priority Critical patent/JP4037800B2/en
Publication of JP2005009995A publication Critical patent/JP2005009995A/en
Application granted granted Critical
Publication of JP4037800B2 publication Critical patent/JP4037800B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Non-Portable Lighting Devices Or Systems Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a lighting method, a surface condition detecting method and a surface condition detector by which the surface condition of an object can surely be detected over the whole of the object in a short time with an inexpensive device. <P>SOLUTION: The object 11 is illuminated using a lighting means 12 and an optical means 13. The lighting means 12 emits illumination light from an emission end part 25 having a predetermined size. The illumination light emitted from the lighting means 12 is converted into a substantially parallel beam by the optical means 13. In particular, the object 11 is arranged in the vicinity 31a of an all the position light passing area where the illumination lights emitted from all the positions in the emission end part 25 pass after passing the optical means 13. Intensity of the illuminance in the object 11 is thereby heightened and unified over the whole object 11. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、対象物の表面状態を検出するために好適に用いられる照明方法、表面状態検出方法および表面状態検出装置に関する。
【0002】
本発明において、全位置光通過領域付近は全位置光通過領域を含む。また本発明において、境界付近は境界を含む。
【0003】
【従来の技術】
液晶ディスプレイ用の液晶パネル基板の製造では、たとえばガラスなどの絶縁基板の一表面部に、アクティブマトリックス形の薄膜トランジスタ(Thin Film Transistor、略称TFT)などの高性能な半導体素子を形成する。このような液晶パネル基板の製造工程では、金属、シリコンおよび樹脂などの薄膜を形成する成膜工程、フォトリソグラフィ工程によるパターン形成工程などを経て、所望の回路および薄膜トランジスタを形成する。
【0004】
液晶パネル基板の製造工程では、膜欠損および異物突起などの凹凸形状の欠陥が生じることがある。このような凹凸形状の欠陥は、回路動作および絶縁などの不良を生じ、液晶パネル基板の誤動作を招く。このため、液晶パネル基板の製造工程では外観検査を行い、この外観検査の結果を品質管理に役立てている。
【0005】
外観検査に関する第1の従来技術としては、基板の配線パターンを十分に識別し得る分解能のカメラを用いて、基板を撮像して、基板の画像を生成し、この基板の画像から基板上の繰り返しパターンを除去し、繰り返しパターンを除いた残余の画像部分を異物として検出する技術(特許文献1)が提案されている。
【0006】
また外観検査に関する第2の従来技術としては、低分解能のカメラを用いて基板を撮像して、凹凸形状の欠陥を検出する技術(特許文献1)が提案されている。この従来技術では、基板を斜め上方から照明し、基板の法線方向から前記カメラで基板を撮像する。基板の画像は、基板面の明度が低くなり、異物などの凹凸形状の欠陥の明度が高くなる。この従来技術の光学系は、顕微鏡などの分野では暗視野と呼ばれる光学系に相当する。このような光学系を利用すれば、分解能未満の寸法の異物の明度が増加するので、低い分解能のカメラで撮像した画像であっても、異物の所在を観察することができる。
【0007】
前記光学系では、基板の全面を照明する必要がある。そこで、複数の光ファイバを予め定める方向に沿って配列し、これらの光ファイバによって、光源からの照明光を導光し、出射する。さらに光ファイバから出射された照明光を、シリンドリカルレンズによって、略平行光に変換する。この略平行光に変換された照明光によって、基板を照明する。
【0008】
【特許文献1】
特開2002−175520号公報
【0009】
【発明が解決しようとする課題】
液晶パネル基板は、表示機器の大画面化および低価格化を目的とした基板の大形化と、高精細な情報表示を目的とした回路パターンの微細化とが進展している。これに伴い、基板撮像用カメラの高分解能化および撮像範囲の増加が進められている。
【0010】
前記第1の従来技術では、基板の回路パターンの微細化に対応するためにカメラを高分解能化する必要がある。このようにカメラを高分解能化したうえで、大形化した基板を撮像すると、取得すべきデータ量が非常に大きくなる。それ故、凹凸形状の欠陥を検出するための検出時間が増大するという問題がある。また画像を高速で演算処理するための装置が必要となり、その分、装置全体の製作コストが増大するという問題がある。
【0011】
前記第2の従来技術では、計測および検査の検出感度を均一化するために、基板全体にわたって均一な照明条件で照明を行なう必要がある。すなわち基板が一定の照射角度および照度で照明されることが望ましい。
【0012】
光ファイバの出射端部は、大きさが極小である理想的な点光源ではなく、予め定める大きさを有する。この光ファイバから出射され、シリンドリカルレンズを通過した照明光には、シリンドリカルレンズの光軸に対して平行な光線だけでなく、前記光軸に対して傾斜した光線も含まれる。つまり光ファイバから出射され、シリンドリカルレンズを通過した照明光は、完全な平行光とはならない。
【0013】
このように照明光は完全な平行光ではないので、照明光内には光線の粗密の分布が発生する。大形化された基板の全面を照明するためには、基板に対する照射角度を低角度にする必要があるので、基板が照明されていても、基板の配置によっては、基板の各部分の照度が異なるという場合がある。基板の各部分の照度が異なる場合、検出感度にむらが発生する。すなわち検出性能に、基板内の場所に依存する差異が発生してしまう。
【0014】
したがって本発明の目的は、安価な装置で、対象物の表面状態を、短時間で、対象物全体にわたって確実に検出することを可能にする照明方法、表面状態検出方法および表面状態検出装置を提供することである。
【0015】
【課題を解決するための手段】
本発明は、予め定める大きさの出射端部から照明光を発散光として発する照明手段と、照明手段から発せられる照明光を、略平行光に変換する光学手段とを用いて対象物を照明する照明方法であって、
前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を配置することを特徴とする照明方法である。
【0016】
本発明に従えば、照明手段および光学手段を用いて対象物を照明する。照明手段は、予め定める大きさの出射端部から照明光を発散光として発する。この照明手段から発せられた照明光を、光学手段によって略平行光に変換する。特に、前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を配置する。これによって対象物の照度を、対象物全体にわたって、高くし、かつ均一化することができる。
【0017】
詳細に説明すると、照明手段の出射端部の各位置から発せられた照明光が光学手段を通過して略平行光に変換されるとともに、出射端部の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部の全ての位置に対応する全位置光通過領域付近に、対象物を配置することで、対象物の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0018】
前述のように対象物を照明しつつ、たとえば、対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する。この場合、対象物の照度が、対象物全体にわたって、高く、かつ均一化されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0019】
前述のように対象物の画像を取得して対象物の表面状態を検出するにあたっては、分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、対象物の表面状態を検出するための検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0020】
また本発明は、前記全位置光通過領域と他の領域との境界付近に、対象物を配置することを特徴とする。
【0021】
本発明に従えば、対象物は、全位置光通過領域と他の領域との境界付近に、配置される。これによって、より大きな対象物を、高く、かつ均一な照度で、照明することが可能となる。
【0022】
本件発明者の実験によれば、前記境界付近に対象物が配置されたときに、対象物の照度が最も高くなることが判明している。また照明手段からの離反に伴う対象物の照度の低下が最も小さくなることも判明している。したがって前記境界付近に対象物を配置することによって、対象物の照度を極力高くするとともに、対象物の全体にわたる照度のさらなる均一化を図ることができる。
【0023】
また本発明は、複数の照明手段を、対象物に関して対称に配置することを特徴とする。
【0024】
本発明に従えば、複数の照明手段が、対象物に関して対称に配置される。照明手段から発せられた照明光は、照明手段から離反するにつれて徐々に減衰してしまう。この点を考慮して、複数の照明手段を対象物に関して対称に配置し、これによって、一の照明手段から離反した対象物の部分の照度を、他の照明手段による照明光によって高め、対象物の全体にわたる照度の均一化を図ることができる。
【0025】
また本発明は、前記照明方法を用いて照明された対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する表面状態検出方法である。
【0026】
本発明に従えば、前述のいずれかの照明方法を用いて照明された対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する。このとき、対象物の照度が、対象物全体にわたって、高く、かつ均一化されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0027】
前述のように対象物の画像を取得して対象物の表面状態を検出するにあたっては、分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、対象物の表面状態を検出するための検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0028】
また本発明は、予め定める大きさの出射端部から照明光を発散光として発する照明手段と、
照明手段から発せられる照明光を、略平行光に変換する光学手段と、
前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を保持する保持手段と、
照明手段および光学手段と協働して対象物の画像を取得する観察手段と、
観察手段によって取得される画像を処理して、対象物の表面状態を検出する画像処理手段とを含むことを特徴とする表面状態検出装置である。
【0029】
本発明に従えば、照明手段は、予め定める大きさの出射端部から照明光を発散光として発する。この照明手段から発せられた照明光を、光学手段によって略平行光に変換する。保持手段は、前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を保持し、観察手段は、照明手段および光学手段と協働して、対象物の画像を取得する。画像処理手段は、観察手段によって取得される画像を処理して、対象物の表面状態を検出する。これによって、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0030】
詳細に説明すると、照明手段の出射端部の各位置から発せられた照明光が光学手段を通過して略平行光に変換されるとともに、出射端部の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部の全ての位置に対応する全位置光通過領域付近に、特に保持手段によって対象物を保持することで、対象物の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0031】
このように照明手段および光学手段によって対象物を照明しつつ、観察手段によって対象物の画像を取得し、その画像を、画像処理手段によって演算処理して、対象物の表面状態を検出する。このとき対象物は、高く、かつ均一な照度で照明されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0032】
前述のように対象物の画像を取得して対象物の表面状態を検出するにあたっては、観察手段の分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、画像処理手段による対象物の表面状態の検出に要する検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0033】
また本発明は、前記画像処理手段によって検出される表面状態の結果を出力する出力手段をさらに含むことを特徴とする。
【0034】
本発明に従えば、画像処理手段によって検出される表面状態の結果を、出力手段によって出力する。これによって前記結果を、たとえば作業者および情報システムなどに与えることができ、前記結果に応じた対象物の処置が可能となる。
【0035】
【発明の実施の形態】
図1は、本発明の実施の一形態の照明方法を用いて対象物11を照明している状態を模式的に示す模式図である。図2は、照明手段12および光学手段13と、対象物11との位置関係を示す斜視図である。図3は、各光ファイバ14の配列状態の一例を示す正面図である。本実施形態の照明方法は、対象物11の表面状態を検出するために好適に用いられる。
【0036】
前記対象物11は、予め定める仮想一平面に沿う一表面部16を有する。この対象物11は、たとえば板状体である。本実施形態においては、対象物11として、たとえば薄膜トランジスタ(Thin Film Transistor、略称TFT)液晶パネル基板が用いられる。TFT液晶パネル基板においては、薄膜トランジスタを含む表面部が、前記一表面部16に相当する。
【0037】
対象物11は、必ずしもTFT液晶パネル基板に限定されるものではない。TFT液晶パネル基板以外の対象物11としては、たとえば、TFTに限らない液晶パネル基板、液晶ディスプレイを構成するカラーフィルタ基板、および半導体ウエハなどが用いられる。
【0038】
本実施形態の照明方法では、照明手段12および光学手段13を用いて、対象物11を照明する。さらに詳しくは、対象物11の前記一表面部16を照明する。照明手段12は、照明光を発散光として発し、光学手段13は、照明手段12から発せられる照明光を略平行光に変換する。
【0039】
照明手段12は、光を発生する光源21と、光源21からの光を導光する導光部22と、導光部22によって導光された光を発する光出射部23とを含む。光源21は、1または複数(本実施形態では6つ)のハロゲン光源によって実現される。具体的に述べると、光源21は、たとえば株式会社モリテックス製のハロゲン光源MHL−150Lによって実現される。導光部22および光出射部23は、複数の光ファイバ14を含む。導光部22は、各光ファイバ14の長手方向一方側の部分14aが束ねられて、構成される。光出射部23では、各光ファイバ14の長手方向他方側の部分14bが、図3に示されるように配列方向Xに沿って1列に配列されている。導光部22および光出射部23は、たとえば株式会社モリテックス製のMKG180−1500Sによって実現される。前記各光ファイバ14としては、直径dがたとえば約50μmのものが採用されている。
【0040】
光出射部23は、2次光源として設けられる。光出射部23は、前記各光ファイバ14の長手方向他方側の部分14bが、略直方体形状のケーシング24に収容されて、構成される。ケーシング24には、前記配列方向Xに沿って延びる出射端部25が形成される。各光ファイバ14によって導光された光は、出射端部25から発せられる。出射端部25から発せられた光は、光ファイバ14の光学特性である開口数(Numerical Aperture、略称NA)によって規定された角度で発散する。この出射端部25から発せられた光が照明光に相当する。
【0041】
出射端部25は、予め定める大きさを有する。出射端部25は、配列方向Xに沿って延びる。出射端部25の配列方向Xの長さWは、たとえば約960mmである。出射端部25の幅wは、この出射端部25の配列方向Xの一端から他端にわたって略同一である。略同一は同一を含む。出射端部25の幅wは、たとえば約0.5mmである。
【0042】
以下、前記配列方向Xを「X方向」と記載し、出射端部25の幅方向を「Y方向」と記載する。またX方向およびY方向を含む仮想一平面に垂直な方向を「Z方向」と記載する。
【0043】
光学手段13は、予め定める集光方向に関してだけ集光特性を有する。光学手段13の焦点距離fは、たとえば約20mmである。光学手段13は、シリンドリカルレンズによって実現される。具体的に述べると、光学手段13は、たとえば株式会社モリテックス製のシリンドリカルレンズMLP−180によって実現される。
【0044】
光学手段13は、前記出射端部25に関して、Z方向の一方に配置される。光学手段13は、X方向に関して、出射端部25と同じ程度の長さを有する。光学手段13の集光方向は、Y方向に対して略平行である。略平行は平行を含む。光学手段13の光軸c1は、Z方向に対して略平行であり、かつ出射端部25のY方向の略中央を通る。略中央は中央を含む。
【0045】
光学手段13のうち照明光が通過する光通過部分26の幅A、すなわち光通過部分26のY方向の長さは、この光通過部分26のX方向の一端から他端にわたって略同一である。光通過部分26の幅Aは、たとえば約14mmである。
【0046】
本実施形態においては、出射端部25と光学手段13の主点との間の最短距離である第1距離Sは、光学手段13の焦点距離fと略同一になるように設定される。第1距離Sは、たとえば約20mmに設定される。前記光学手段13は、図示しないハウジング内に固定され、照明手段12の光出射部23は、前記ハウジング内に挿入されて装着される。これによって出射端部25および光学手段13の相対的な変位が阻止され、第1距離Sの変化が阻止される。換言すれば、光学手段13の焦点距離fと略同一に設定された第1距離Sが不所望に変化することを確実に防止することができる。
【0047】
本実施形態では、照明手段12から発散光として発せられた照明光を、光学手段13によって略平行光に変換することによって、照明光の発散を抑制し、照明光の無駄を低減することができる。換言すれば、照明手段12からの照明光を、対象物11の照明のために効率よく利用することができ、対象物11の照度を高くすることが可能となる。
【0048】
対象物11は、前記出射端部25の全ての位置から発せられた照明光が光学手段13を通過した後に通過する全位置光通過領域付近31aに、配置される。全位置光通過領域31は、X方向に沿って延びる。この全位置光通過領域31を、X方向に垂直な仮想平面で切断して見た断面の形状は、X方向に沿った任意の位置において、略同一形状となっている。
【0049】
以下、図1を参照して、全位置光通過領域31の前記断面について、幾何光学的に説明する。照明光は、前記出射端部25の全ての位置から発せられるが、図1では、理解を容易にするために、複数の光線のうち、前記出射端部25の予め定める3つの位置のいずれかから発せられ、かつ前記光通過部分26の予め定める3つの位置のいずれかを通過した9本の光線だけを示す。
【0050】
出射端部25の前記3つの位置は、出射端部25における、Y方向一端の位置である一端位置25aと、Y方向中央の位置である中央位置25bと、Y方向他端の位置である他端位置25cとである。光学手段13の前記3つの位置は、光通過部分26における、Y方向一端の位置である一端位置26aと、Y方向中央の位置である中央位置26bと、Y方向他端の位置である他端位置26cとである。
【0051】
出射端部25の一端位置25aから発せられ、光通過部分26の前記各位置26a〜26cを通過する各光線を、第1〜第3光線L1〜L3と記載する。出射端部25の中央位置25bから発せられ、光通過部分26の前記各位置26a〜26cを通過する各光線を、第4〜第6光線L4〜L6と記載する。出射端部25の他端位置25cから発せられ、光通過部分26の前記各位置26a〜26cを通過する各光線を、第7〜第9光線L7〜L9と記載する。
【0052】
出射端部25の一端位置25aから発せられた照明光は、第1光線L1と第3光線L3とに挟まれる領域A1(以下「第1領域A1」と記載する)を通過する。出射端部25の中央位置25bから発せられた照明光は、第4光線L4と第6光線L6とに挟まれる領域A2(以下「第2領域A2」と記載する)を通過する。出射端部25の他端位置25cから発せられた照明光は、第7光線L7と第9光線L9とに挟まれる領域A3(以下「第3領域A3」と記載する)を通過する。
【0053】
第1〜第3領域A1〜A3は、完全には一致しないが、一部が重なる。第1〜第3領域A1〜A3が重なる領域C(以下「共通領域C」という場合がある)は、出射端部25の前記各位置25a〜25cから発せられた照明光が通過する領域である。共通領域Cは、第1光線L1と第9光線L9とに挟まれる領域であり、図1において斜線で示される。この共通領域Cは、全位置光通過領域31をX方向に垂直な仮想平面で切断して見た断面に相当する。
【0054】
第1光線L1と第9光線L9とが交差する点P1と、光学手段13の主点との間の最短距離である第2距離Lは、式1によって求まる。すなわち第2距離Lは、第1距離Sに、光通過部分26の幅Aを乗じ、この値を、出射端部25の幅wで除した値である。ただし式1は、第1距離Sが、光学手段13の焦点距離fと同一である場合に適用可能な関係式である。
L=S×A/w …(1)
【0055】
本実施形態では、第1距離Sは約20mm、光通過部分26の幅Aは約14mm、出射端部25の幅wは約0.5mmであるので、第2距離Lは、約560mmとなる。
【0056】
全位置光通過領域31は、出射端部25の全ての位置から発せられた照明光が通過する。これに対して、他の領域32は、出射端部25の全ての位置のうち少なくともいずれか1つの位置から発せられた照明光が通過しない。たとえば図1において、出射端部25の他端位置25cから発せられた照明光は、第2光線L2と第6光線L6の交点P2を通過しない。
【0057】
これらの点を考慮すると、全位置光通過領域31に対象物11を配置すれば、対象物11の照度を、対象物11全体にわたって、高くし、かつ均一化することができると予測される。前記対象物11全体は、対象物11の前記一表面部16の表面全体と同義である。
【0058】
図4は、照明状態を模式的に示す模式図であり、本件発明者による実験の結果を示す。同図では、理解を容易にするために、Z方向の明暗の変化は示さず、Y方向の明暗の変化だけを示す。
【0059】
実験の結果によれば、全位置光通過領域付近31aが最も明るく、全位置光通過領域付近31aから離反するにつれて暗くなることが証明された。また全位置光通過領域付近31aは、ほぼ均一な明るさとなっていることが証明された。これらの点を考慮して、全位置光通過領域付近31aに対象物11を配置する。これによって、対象物11の照度を、対象物11全体にわたって、高くし、かつ均一化することができる。
【0060】
一方、全位置光通過領域付近31aを除く残余の領域33に対象物11を配置したときは、対象物11の照度を、高くすることができない。また全位置光通過領域付近31aと前記残余の領域33とにわたって、対象物11を配置したときは、対象物11の照度を、均一化することができない。
【0061】
注目すべきは、全位置光通過領域31と他の領域32との境界付近34aが、特に明るくなっている点である。しかも前記境界付近34aは、照明手段12からの離反に伴う明るさの低下が最も小さい。したがって前記境界付近34aに対象物11を配置することによって、対象物11の照度を極力高くするとともに、対象物11の全体にわたる照度のさらなる均一化を図ることができる。前記境界付近34aは、全位置光通過領域31と他の領域32との境界34からたとえば約1mmの範囲内の領域である。
【0062】
再び図1を参照して、本実施形態においては、前記境界付近34aに対象物11を配置する。このとき、対象物11の前記一表面部16が沿う仮想一平面と、光学手段13の光軸c1とがなす角度θは、たとえば約0.716度に設定される。
【0063】
図5は、照明方法を段階的に示すフローチャートである。ステップa1で、対象物11を照明するための動作を開始すると、ステップa2に移行する。ステップa2では、作業者によって、全位置光通過領域付近31aが求められる。次にステップa3では、その全位置光通過領域付近31aに、たとえば後述の基板保持機構43によって、対象物11を配置する。こうしてステップa4で、対象物11を照明するための動作を終了する。
【0064】
図5においては、ステップa2で作業者によって全位置光通過領域付近31aが求められ、ステップa3でその全位置光通過領域付近31aに基板保持機構43によって対象物11を配置するが、前記ステップa2で作業者によって境界付近34aが求められ、前記ステップa3でその境界付近34aに基板保持機構43によって対象物11を配置してもよい。
【0065】
図6は、表面状態検出装置41の概略的な構成を示すブロック図である。表面状態検出装置41は、対象物11の表面状態を検出する。ここで、対象物11の表面状態を検出するとは、対象物11の前記一表面部16に存在する凹凸形状の欠陥を検出することを意味する。前記凹凸形状の欠陥は、膜欠損および異物突起などを含む。表面状態検出装置41は、照明装置42、基板保持機構43、撮像カメラ44、画像処理装置45および主制御装置46を含む。
【0066】
照明装置42は、基板保持機構43によって保持される対象物11を照明する。この照明装置42は、前記照明手段12および光学手段13を含んで構成される。照明装置42は、対象物11が基板保持機構43によって位置決めされて保持されたときに、前述の図1に示される状態を実現することができるように、予め設けられる。
【0067】
基板保持機構43は、図示しない搬送機構によって搬送された対象物11を、照明装置42による全位置光通過領域付近31aに位置決めして保持する。基板保持機構43は、対象物11の他表面部47を吸着することによって、対象物11を保持する。この基板保持機構43は、保持手段に相当する。
【0068】
撮像カメラ44は、対象物11が基板保持機構43によって位置決めされて保持されたときに、対象物11の前記一表面部16に臨むように、予め設けられる。撮像カメラ44は、照明装置42と協働して対象物11を撮像する。すなわち撮像カメラ44は、基板保持機構43によって保持された状態で照明装置42によって照明される対象物11を、撮像する。これによって対象物11の画像を取得する。撮像カメラ44は、取得した対象物11の画像を画像処理装置45に与える。この撮像カメラ44は、観察手段に相当する。
【0069】
画像処理装置45は、メモリ媒体51および処理部52を有する。メモリ媒体51は、撮像カメラ44によって取得された画像を記憶する。処理部52は、前記画像を演算処理するためのプログラムを記憶するとともに、画像の演算処理を実行する。処理部52は、前記画像を、後述の凹凸個所のデータに変換する。この凹凸個所のデータが表面状態の結果に相当する。画像処理装置45は、凹凸個所のデータを主制御装置46に与える。この画像処理装置45は、画像処理手段に相当する。
【0070】
主制御装置46は、基板保持機構43および画像処理装置45を制御する。また主制御装置46は、凹凸個所のデータに基づいて、対象物11の良・不良を判定する。主制御装置46は、表示手段53および通信手段54を有する。表示手段53は、凹凸個所のデータおよび前記判定の結果を表示する。通信手段54は、凹凸個所のデータおよび前記判定の結果を、図示しない情報システムに出力する。この主制御装置46は、たとえばファクトリオートメーション用のコンピュータによって実現される。この主制御装置46は、出力手段に相当する。
【0071】
図7は、表面状態検出方法を段階的に示すフローチャートである。表面状態検出方法は、前述の表面状態検出装置41を用いて実現される。図示しない搬送機構によって、対象物11が基板保持機構43上に搬送されると、ステップb1で表面状態の検出動作が開始され、ステップb2に移行する。
【0072】
ステップb2では、主制御装置46によって基板保持機構43が制御される。対象物11は、基板保持機構43によって位置決めされて保持される。これによって、図1に示される状態が実現される。
【0073】
次にステップb3では、照明装置42によって対象物11を照明しつつ、撮像カメラ44によって対象物11を撮像する。これによって対象物11の画像を取得する。対象物11の画像は、顕微鏡の暗視野の原理に基づき、凹凸個所が明るく観察される。すなわち明るい部位が凹凸個所である。
【0074】
次にステップb4では、画像処理装置45によって、撮像カメラ44で取得された画像が演算処理され、凹凸個所のデータに変換される。凹凸個所のデータは、明るい部位の個所数に関する数値データと、各明るい部位の寸法に関する数値データとを含む。
【0075】
次にステップb5では、主制御装置46によって、前記凹凸個所データが出力される。すなわち主制御装置46の表示手段53によって前記凹凸個所データが表示され、主制御装置46の通信手段54によって前記凹凸個所データが情報システムに出力される。
【0076】
また主制御装置46は、凹凸個所のデータに基づいて、予め定める基準寸法以上の寸法を有する凹凸個所を欠陥と判定し、欠陥個所数を計数する。主制御装置46は、計数した欠陥個所数と、欠陥個所数の上限個数とを比較する。主制御装置46は、前記上限個数を超える欠陥が検出されたとき、対象物11を不良と判定する。主制御装置46は、前記判定の結果をも出力する。こうしてステップb6で、表面状態の検出動作を終了する。
【0077】
以上説明した照明方法によれば、照明手段12の出射端部25の各位置から発せられた照明光が光学手段13を通過して略平行光に変換されるとともに、出射端部25の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部25の全ての位置に対応する全位置光通過領域付近31aに、対象物11を配置することで、対象物11の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物11の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0078】
また照明方法によれば、対象物11は、全位置光通過領域付近31aのうち、全位置光通過領域31と他の領域32との境界付近34aに、配置される。本件発明者の実験によれば、前記境界付近34aに対象物11が配置されたときに、対象物11の照度が最も高くなることが判明している。また照明手段12からの離反に伴う対象物11の照度の低下が最も小さくなることも判明している。したがって前記境界付近34aに対象物11を配置することによって、対象物11の照度を極力高くするとともに、対象物11の全体にわたる照度のさらなる均一化を図ることができる。
【0079】
また表面状態検出方法によれば、前述の照明方法を用いて照明された対象物11の画像を取得し、その画像に基づいて対象物11の表面状態を検出する。このとき、対象物11の照度が、対象物11全体にわたって、高く、かつ均一化されているので、対象物11の表面状態を、対象物11全体にわたって確実に検出することが可能となる。
【0080】
前述のように対象物11の画像を取得して対象物11の表面状態を検出するにあたっては、分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、対象物11の表面状態を検出するための検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0081】
また表面状態検出装置41によれば、照明手段12の出射端部25の各位置から発せられた照明光が光学手段13を通過して略平行光に変換されるとともに、出射端部25の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部25の全ての位置に対応する全位置光通過領域付近31aに、特に基板保持機構43によって対象物11を保持することで、対象物11の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物11の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0082】
このように照明手段12および光学手段13によって対象物11を照明しつつ、撮像カメラ44によって対象物11の画像を取得し、その画像を画像処理装置45によって演算処理して、対象物11の表面状態を検出する。このとき対象物11は、高く、かつ均一な照度で照明されているので、対象物11の表面状態を、対象物11全体にわたって確実に検出することが可能となる。
【0083】
前述のように対象物11の画像を取得して対象物11の表面状態を検出するにあたっては、撮像カメラ44の分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、画像処理装置45による対象物11の表面状態の検出に要する検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0084】
また表面状態検出装置41によれば、画像処理装置45による凹凸個所のデータを、主制御装置46によって出力する。これによって凹凸個所のデータを、たとえば作業者および情報システムなどに与えることができ、凹凸個所のデータに応じた対象物11の処置および製造工程管理へのフィードバックが可能となる。
【0085】
図8は、全位置光通過領域31を模式的に示す模式図であり、図8(1)は第1距離Sが光学手段13の焦点距離fと略同一であるときの全位置光通過領域31を示し、図8(2)は第1距離Sが光学手段13の焦点距離fよりも大きいときの全位置光通過領域31を示し、図8(3)は第1距離Sが光学手段13の焦点距離fよりも小さいときの全位置光通過領域31を示す。前述の実施形態の照明方法では、第1距離Sが光学手段13の焦点距離fと略同一になるように照明手段12および光学手段13を設けるが、第1距離Sは、必ずしも焦点距離fと略同一である必要はない。
【0086】
第1距離Sが焦点距離fよりも大きいときは、第1距離Sが光学手段13の焦点距離fと略同一であるときと比べて、光学手段13を通過した後の照明光の集光成分が大きくなる。これによって図8(2)に示されるように、第2距離Lが小さくなり、全位置光通過領域31が小さくなる。
【0087】
第1距離Sが焦点距離fよりも小さいときは、第1距離Sが光学手段13の焦点距離fと略同一であるときと比べて、光学手段13を通過した後の照明光の発散成分が大きくなる。これによって図8(3)に示されるように、第2距離Lが大きくなり、全位置光通過領域31が大きくなる。
【0088】
このように全位置光通過領域31は、第1距離Sに応じて大きさが変化する。このように大きさが変化しても、全位置光通過領域31は出射端部25の全ての位置から発せられた照明光が通過する。したがって第1距離Sを変更しても、全位置光通過領域31を形成することができれば、全位置光通過領域付近31aに対象物11を配置することによって、対象物11の照度を、対象物11全体にわたって、高くし、かつ均一化することができる。
【0089】
対象物11の前記一表面部16に凹凸性を有するパターンが形成されている場合は、照明光の照射角度が大きいと、前記パターンが明るく観察される。これによってパターンと凹凸形状の欠陥との明度差が小さくなり、検出感度への悪影響がある。
【0090】
第1距離Sが光学手段13の焦点距離fと略同一であるときは、対象物11の全体にわたって、照明光の照射角度がほぼ均一である。第1距離Sが光学手段13の焦点距離fよりも小さいときは、対象物11の前記一表面部16のうち光学手段13に近接する部分ほど、照明光の照射角度が大きく、検出感度への悪影響がある。第1距離Sが光学手段13の焦点距離fよりも大きいときは、対象物11の前記一表面部16のうち光学手段13から離反する部分ほど、照明光の照射角度が大きくなる。対象物11の前記一表面部16の光学手段13から離反した部分は、照射角度が大きくても、検出感度への影響は少ない。
【0091】
これらの点を考慮すると、パターンを有する対象物11を照明する際は、第1距離Sと光学手段13の焦点距離fとを略同一にするのが最も良く、次いで第1距離Sを光学手段13の焦点距離fよりも少し大きくするのが良いことが判る。
【0092】
図9は、本発明の実施の他の形態の照明方法を用いて対象物11を照明している状態を模式的に示す模式図である。図10は、表面状態検出装置61の概略的な構成を示すブロック図である。本実施形態の表面状態検出装置61は、前述の実施形態の表面状態検出装置61に類似するので、対応する部分には同一の参照符を付して説明を省略する。
【0093】
対象物11の寸法によっては、前述の実施形態のように1つの照明手段12による全位置光通過領域付近31aに対象物11を収容することができない場合がある。このような場合には、複数(本実施形態では2つ)の照明手段12を用いて対象物11を照明する。
【0094】
本実施形態では、対象物11に関して対称に、2つの照明装置42を配置する。具体的に説明すると、対象物11の前記一表面部16が沿う仮想一平面に垂直であり、かつ対象物11の中心を含む対称面36に関して対称になるように、各照明装置42を配置する。
【0095】
こうして各照明手段12による全位置光通過領域付近31aに、対象物11を収容する。これによって1つの照明手段12による全位置光通過領域付近31aに収容することができない大きな寸法の対象物11に対しても、高く、かつ均一な照度で照明することができる。
【0096】
しかも各照明手段12による境界付近34aに対象物11を配置し、さらに各照明手段12による各全位置光通過領域31のうち各照明手段12から最も離反した各部分を、対象物11と対称面36とが交差する部分と一致させる。これによって、より大きな寸法の対象物11に対して、高く、かつ均一な照度で照明することが可能となる。
【0097】
本実施形態においては、対象物11の寸法は、たとえば約700mm×約800mmである。対象物11は、その短辺方向が、X方向に対して略平行となるように、配置されるとする。
【0098】
このとき、基板の縁辺部と光学手段13との間の最短距離である第3距離WDは、式2によって求められる。すなわち第3距離WDは、第2距離Lから、基板の長辺の長さHを2で除した値を減じた値である。
WD=L−(H÷2) …(2)
【0099】
本実施形態では、第2距離Lは約560mm、基板の長辺の長さHは約800mmであるので、第3距離WDは約160mmとなる。
【0100】
図9および図10を用いて説明した照明方法によれば、2つの照明手段12が、対象物11に関して対称に配置される。照明手段12から発せられた照明光は、照明手段12から離反するにつれて徐々に減衰してしまう。この点を考慮して、2つの照明手段12を対象物11に関して対称に配置し、これによって、一の照明手段12から離反した対象物11の部分の照度を、他の照明手段12による照明光によって高め、対象物11の全体にわたる照度の均一化を図ることができる。
【0101】
図9および図10に示される実施形態では、2つの照明手段12を用いて対象物11を照明するが、本発明の実施のさらに他の形態では、たとえば4つの照明手段12を用いて対象物11を照明してもよい。4つの照明手段12を用いて対象物11を照明する場合、第1対称面に関して対称になるように一対の照明手段12を配置し、さらに第2対称面に関して対称になるように、もう一対の照明手段12を配置する。前記第1対称面は、対象物11の前記一表面部16が沿う仮想一平面に垂直であり、かつ対象物11の中心を含む対称面である。前記第2対称面は、対象物11の前記一表面部16が沿う仮想一平面に垂直であり、かつ対象物11の中心を含むとともに、前記第1対称面に対して垂直な対称面である。このように4つの照明手段12を用いても、図9および図10に示される実施形態と同様の効果を達成することができる。
【0102】
図11は、各光ファイバ14の配列状態の他の例を示す正面図である。各光ファイバ14の長手方向他方側の部分14bは、必ずしも図3に示されるようにX方向に沿って1列に配列されている必要はなく、たとえば図11に示されるようにX方向に沿って2列に配列されていてもよい。
【0103】
詳細に述べると、X方向に沿って進むにつれてY方向の一方および他方に交互にずれるように、各光ファイバ14の長手方向他方側の部分14bが配列される。このように各光ファイバ14の長手方向他方側の部分14bが配列された照明手段12を用いても、前述の実施形態と同様の効果を達成することができる。
【0104】
各光ファイバ14の配列状態のさらに他の例として、図示しないが、X方向に沿って進むにつれて2つ毎にY方向の一方および他方に交互にずれるように、各光ファイバ14の長手方向他方側の部分14bが配列されてもよい。このように各光ファイバ14の長手方向他方側の部分14bが配列された照明手段12を用いても、前述の実施形態と同様の効果を達成することができる。
【0105】
前述の各実施形態では、出射端部25の大きさ、光学手段13の焦点距離f、対象物11の寸法などについて具体的な数値を述べて説明をしたが、これらの数値を変更しても、本発明は適用可能である。
【0106】
【発明の効果】
以上のように本発明によれば、照明手段の出射端部の各位置から発せられた照明光が光学手段を通過して略平行光に変換されるとともに、出射端部の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部の全ての位置に対応する全位置光通過領域付近に、対象物を配置することで、対象物の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0107】
このように対象物を照明しつつ、たとえば、対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する。この場合、対象物の照度が、対象物全体にわたって、高く、かつ均一化されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0108】
このように対象物の画像を取得して対象物の表面状態を検出するにあたっては、分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、対象物の表面状態を検出するための検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0109】
また本発明によれば、対象物は、全位置光通過領域と他の領域との境界付近に、配置される。本件発明者の実験によれば、前記境界付近に対象物が配置されたときに、対象物の照度が最も高くなることが判明している。また照明手段からの離反に伴う対象物の照度の低下が最も小さくなることも判明している。したがって前記境界付近に対象物を配置することによって、対象物の照度を極力高くするとともに、対象物の全体にわたる照度のさらなる均一化を図ることができる。
【0110】
また本発明によれば、複数の照明手段が、対象物に関して対称に配置される。照明手段から発せられた照明光は、照明手段から離反するにつれて徐々に減衰してしまう。この点を考慮して、複数の照明手段を対象物に関して対称に配置し、これによって、一の照明手段から離反した対象物の部分の照度を、他の照明手段による照明光によって高め、対象物の全体にわたる照度の均一化を図ることができる。
【0111】
また本発明によれば、前述のいずれかの照明方法を用いて照明された対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する。このとき、対象物の照度が、対象物全体にわたって、高く、かつ均一化されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0112】
このように対象物の画像を取得して対象物の表面状態を検出するにあたっては、分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、対象物の表面状態を検出するための検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0113】
また本発明によれば、照明手段の出射端部の各位置から発せられた照明光が光学手段を通過して略平行光に変換されるとともに、出射端部の各位置にそれぞれ対応する各光通過領域が形成される。したがって、出射端部の全ての位置に対応する全位置光通過領域付近に、特に保持手段によって対象物を保持することで、対象物の全体にわたる照度を均一化することができるうえ、必要十分な照度を得ることが可能となる。逆に言えば、対象物の配置位置に起因する照度の不均一および照度不足を未然に防止することができる。
【0114】
このように照明手段および光学手段によって対象物を照明しつつ、観察手段によって対象物の画像を取得し、その画像を、画像処理手段によって演算処理して、対象物の表面状態を検出する。このとき対象物は、高く、かつ均一な照度で照明されているので、対象物の表面状態を、対象物全体にわたって確実に検出することが可能となる。
【0115】
このように対象物の画像を取得して対象物の表面状態を検出するにあたっては、観察手段の分解能を高める必要がないので、取得すべきデータ量を小さくすることができる。これによって、画像処理手段による対象物の表面状態の検出に要する検出時間を短縮することができる。また画像を高速で演算処理するための装置が必要なくなるので、装置全体の製作コストを低減することが可能となる。
【0116】
また本発明によれば、画像処理手段によって検出される表面状態の結果を、出力手段によって出力する。これによって前記結果を、たとえば作業者および情報システムなどに与えることができ、前記結果に応じた対象物の処置および製造工程管理へのフィードバックが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の一形態の照明方法を用いて対象物11を照明している状態を模式的に示す模式図である。
【図2】照明手段12および光学手段13と、対象物11との位置関係を示す斜視図である。
【図3】各光ファイバ14の配列状態の一例を示す正面図である。
【図4】照明状態を模式的に示す模式図である。
【図5】照明方法を段階的に示すフローチャートである。
【図6】表面状態検出装置41の概略的な構成を示すブロック図である。
【図7】表面状態検出方法を段階的に示すフローチャートである。
【図8】全位置光通過領域31を模式的に示す模式図である。
【図9】本発明の実施の他の形態の照明方法を用いて対象物11を照明している状態を模式的に示す模式図である。
【図10】表面状態検出装置61の概略的な構成を示すブロック図である。
【図11】各光ファイバ14の配列状態の他の例を示す正面図である。
【符号の説明】
11 対象物
12 照明手段
13 光学手段
14 光ファイバ
25 出射端部
31 全位置光通過領域
31a 全位置光通過領域付近
32 他の領域
34 境界
34a 境界付近
41,61 表面状態検出装置
42 照明装置
43 基板保持機構
44 撮像カメラ
45 画像処理装置
46 主制御装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an illumination method, a surface state detection method, and a surface state detection device that are suitably used for detecting the surface state of an object.
[0002]
In the present invention, the vicinity of the all-position light passage region includes the all-position light passage region. In the present invention, the vicinity of the boundary includes the boundary.
[0003]
[Prior art]
In manufacturing a liquid crystal panel substrate for a liquid crystal display, a high-performance semiconductor element such as an active matrix thin film transistor (abbreviated as TFT) is formed on one surface of an insulating substrate such as glass. In such a liquid crystal panel substrate manufacturing process, a desired circuit and a thin film transistor are formed through a film forming process for forming a thin film of metal, silicon, resin, or the like, a pattern forming process by a photolithography process, or the like.
[0004]
In the manufacturing process of the liquid crystal panel substrate, irregularities such as film defects and foreign matter protrusions may occur. Such irregularities cause defects such as circuit operation and insulation, leading to malfunction of the liquid crystal panel substrate. For this reason, appearance inspection is performed in the manufacturing process of the liquid crystal panel substrate, and the result of the appearance inspection is used for quality control.
[0005]
As a first conventional technique related to appearance inspection, a substrate having a resolution capable of sufficiently identifying a wiring pattern of a substrate is used to capture an image of the substrate and generate an image of the substrate. There has been proposed a technique (Patent Document 1) that removes a pattern and detects the remaining image portion excluding the repeated pattern as a foreign substance.
[0006]
In addition, as a second conventional technique related to appearance inspection, a technique (Patent Document 1) is proposed in which a substrate is imaged using a low-resolution camera to detect irregular defects. In this prior art, the substrate is illuminated obliquely from above, and the substrate is imaged by the camera from the normal direction of the substrate. In the image of the substrate, the lightness of the substrate surface is lowered, and the lightness of irregularities such as foreign matters is increased. This prior art optical system corresponds to an optical system called dark field in the field of a microscope or the like. If such an optical system is used, the brightness of a foreign substance having a size less than the resolution increases, so that the location of the foreign substance can be observed even with an image captured by a low-resolution camera.
[0007]
In the optical system, it is necessary to illuminate the entire surface of the substrate. Therefore, a plurality of optical fibers are arranged along a predetermined direction, and illumination light from the light source is guided and emitted by these optical fibers. Furthermore, the illumination light emitted from the optical fiber is converted into substantially parallel light by a cylindrical lens. The substrate is illuminated with the illumination light converted into the substantially parallel light.
[0008]
[Patent Document 1]
JP 2002-175520 A
[0009]
[Problems to be solved by the invention]
Liquid crystal panel substrates have been increasing in size for the purpose of increasing the screen size and price of display devices and miniaturizing circuit patterns for the purpose of displaying high-definition information. Along with this, the resolution of the substrate imaging camera and the imaging range are being increased.
[0010]
In the first prior art, it is necessary to increase the resolution of the camera in order to cope with the miniaturization of the circuit pattern of the substrate. As described above, when the resolution of the camera is increased and a large-sized substrate is imaged, the amount of data to be acquired becomes very large. Therefore, there is a problem that the detection time for detecting the irregular defect is increased. In addition, a device for processing images at high speed is required, and the manufacturing cost of the entire device increases accordingly.
[0011]
In the second prior art, it is necessary to perform illumination under uniform illumination conditions over the entire substrate in order to make the detection sensitivity of measurement and inspection uniform. That is, it is desirable that the substrate is illuminated with a constant irradiation angle and illuminance.
[0012]
The exit end of the optical fiber is not an ideal point light source having a minimum size, but has a predetermined size. The illumination light emitted from the optical fiber and passed through the cylindrical lens includes not only light rays parallel to the optical axis of the cylindrical lens but also light rays inclined with respect to the optical axis. That is, the illumination light emitted from the optical fiber and passing through the cylindrical lens is not completely parallel light.
[0013]
As described above, since the illumination light is not perfect parallel light, a coarse and dense distribution of light rays occurs in the illumination light. In order to illuminate the entire surface of a large-sized substrate, it is necessary to reduce the irradiation angle to the substrate. Therefore, even if the substrate is illuminated, the illuminance of each part of the substrate depends on the arrangement of the substrate. It may be different. When the illuminance of each part of the substrate is different, the detection sensitivity is uneven. That is, a difference depending on the location in the substrate occurs in the detection performance.
[0014]
Accordingly, an object of the present invention is to provide an illumination method, a surface state detection method, and a surface state detection device that can reliably detect the surface state of an object in a short time over the entire object with an inexpensive device. It is to be.
[0015]
[Means for Solving the Problems]
The present invention illuminates an object using an illuminating unit that emits illumination light as divergent light from an emission end having a predetermined size, and an optical unit that converts the illumination light emitted from the illuminating unit into substantially parallel light. A lighting method,
The illumination method is characterized in that the object is arranged in the vicinity of the all-position light passage region through which the illumination light emitted from all the positions of the emission end passes after passing through the optical means.
[0016]
According to the present invention, the object is illuminated using the illumination means and the optical means. The illuminating means emits illumination light as divergent light from an emission end having a predetermined size. The illumination light emitted from the illumination means is converted into substantially parallel light by the optical means. In particular, the object is arranged in the vicinity of the all-position light passage region through which illumination light emitted from all positions of the emission end portion passes after passing through the optical means. Thereby, the illuminance of the object can be increased and made uniform throughout the object.
[0017]
More specifically, the illumination light emitted from each position of the exit end of the illumination means passes through the optical means and is converted into substantially parallel light, and each light passage area corresponding to each position of the exit end Is formed. Therefore, the illuminance over the entire object can be made uniform and the necessary and sufficient illuminance can be obtained by arranging the object in the vicinity of the all-position light passing region corresponding to all the positions of the emission end. Is possible. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object can be prevented in advance.
[0018]
As described above, for example, an image of the object is acquired and the surface state of the object is detected based on the image while illuminating the object. In this case, since the illuminance of the object is high and uniform throughout the entire object, the surface state of the object can be reliably detected over the entire object.
[0019]
As described above, when the image of the object is acquired and the surface state of the object is detected, it is not necessary to increase the resolution, so that the amount of data to be acquired can be reduced. Thereby, the detection time for detecting the surface state of the object can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0020]
Further, the present invention is characterized in that an object is arranged in the vicinity of a boundary between the all-position light passing area and another area.
[0021]
According to the present invention, the object is arranged near the boundary between the all-position light passing area and the other area. This makes it possible to illuminate a larger object with high and uniform illuminance.
[0022]
According to the experiment by the present inventors, it has been found that the illuminance of the object becomes the highest when the object is arranged near the boundary. It has also been found that the decrease in the illuminance of the object accompanying the separation from the illumination means is minimized. Therefore, by arranging the object in the vicinity of the boundary, it is possible to increase the illuminance of the object as much as possible and further uniform the illuminance over the entire object.
[0023]
Further, the present invention is characterized in that the plurality of illumination means are arranged symmetrically with respect to the object.
[0024]
According to the invention, the plurality of illumination means are arranged symmetrically with respect to the object. The illumination light emitted from the illuminating means is gradually attenuated with distance from the illuminating means. In consideration of this point, a plurality of illumination means are arranged symmetrically with respect to the object, whereby the illuminance of the part of the object separated from one illumination means is increased by the illumination light from the other illumination means, and the object The illuminance can be made uniform throughout.
[0025]
Moreover, this invention is a surface state detection method which acquires the image of the target object illuminated using the said illumination method, and detects the surface state of a target object based on the image.
[0026]
According to the present invention, an image of an object illuminated using any one of the illumination methods described above is acquired, and the surface state of the object is detected based on the image. At this time, since the illuminance of the object is high and uniform over the entire object, the surface state of the object can be reliably detected over the entire object.
[0027]
As described above, when the image of the object is acquired and the surface state of the object is detected, it is not necessary to increase the resolution, so that the amount of data to be acquired can be reduced. Thereby, the detection time for detecting the surface state of the object can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0028]
The present invention also includes an illuminating means for emitting illumination light as divergent light from an emission end having a predetermined size,
Optical means for converting illumination light emitted from the illumination means into substantially parallel light;
A holding means for holding an object in the vicinity of the all-position light passage area where illumination light emitted from all positions of the emission end passes after passing through the optical means;
Observation means for acquiring an image of the object in cooperation with the illumination means and the optical means;
The surface state detection apparatus includes an image processing unit that processes an image acquired by the observation unit and detects a surface state of the object.
[0029]
According to the present invention, the illuminating means emits illumination light as divergent light from an emission end having a predetermined size. The illumination light emitted from the illumination means is converted into substantially parallel light by the optical means. The holding means holds the object in the vicinity of the all-position light passage region where the illumination light emitted from all the positions of the emission end passes after passing through the optical means, and the observation means includes the illumination means and the optical means. In cooperation with, obtain an image of the object. The image processing means processes the image acquired by the observation means and detects the surface state of the object. This makes it possible to reliably detect the surface state of the object over the entire object.
[0030]
More specifically, the illumination light emitted from each position of the exit end of the illumination means passes through the optical means and is converted into substantially parallel light, and each light passage area corresponding to each position of the exit end Is formed. Therefore, the illuminance over the entire object can be made uniform by holding the object, particularly by the holding means, in the vicinity of the all-position light passing region corresponding to all the positions of the emission end, and the necessary and sufficient Illuminance can be obtained. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object can be prevented in advance.
[0031]
In this way, while illuminating the object by the illumination unit and the optical unit, an image of the object is acquired by the observation unit, and the image is arithmetically processed by the image processing unit to detect the surface state of the object. At this time, since the object is illuminated with high and uniform illuminance, the surface state of the object can be reliably detected over the entire object.
[0032]
As described above, when acquiring the image of the object and detecting the surface state of the object, it is not necessary to increase the resolution of the observation means, so that the amount of data to be acquired can be reduced. Thereby, the detection time required for detecting the surface state of the object by the image processing means can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0033]
The present invention further includes output means for outputting the result of the surface condition detected by the image processing means.
[0034]
According to the present invention, the result of the surface state detected by the image processing means is output by the output means. As a result, the result can be given to, for example, an operator and an information system, and an object can be treated according to the result.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a schematic diagram schematically showing a state in which an object 11 is illuminated using the illumination method according to the embodiment of the present invention. FIG. 2 is a perspective view showing a positional relationship between the illumination unit 12 and the optical unit 13 and the object 11. FIG. 3 is a front view showing an example of the arrangement state of the optical fibers 14. The illumination method of the present embodiment is preferably used for detecting the surface state of the object 11.
[0036]
The object 11 has one surface portion 16 along a predetermined virtual plane. This object 11 is, for example, a plate-like body. In the present embodiment, for example, a thin film transistor (abbreviated as TFT) liquid crystal panel substrate is used as the object 11. In the TFT liquid crystal panel substrate, the surface portion including the thin film transistor corresponds to the one surface portion 16.
[0037]
The object 11 is not necessarily limited to the TFT liquid crystal panel substrate. As the object 11 other than the TFT liquid crystal panel substrate, for example, a liquid crystal panel substrate not limited to the TFT, a color filter substrate constituting a liquid crystal display, a semiconductor wafer, and the like are used.
[0038]
In the illumination method of the present embodiment, the object 11 is illuminated using the illumination unit 12 and the optical unit 13. More specifically, the one surface portion 16 of the object 11 is illuminated. The illumination unit 12 emits illumination light as diverging light, and the optical unit 13 converts the illumination light emitted from the illumination unit 12 into substantially parallel light.
[0039]
The illumination unit 12 includes a light source 21 that generates light, a light guide unit 22 that guides light from the light source 21, and a light output unit 23 that emits light guided by the light guide unit 22. The light source 21 is realized by one or a plurality of (six in this embodiment) halogen light sources. Specifically, the light source 21 is realized by, for example, a halogen light source MHL-150L manufactured by Moritex Corporation. The light guide unit 22 and the light emitting unit 23 include a plurality of optical fibers 14. The light guide unit 22 is configured by bundling portions 14 a on one side in the longitudinal direction of the optical fibers 14. In the light emitting part 23, the portions 14b on the other side in the longitudinal direction of the optical fibers 14 are arranged in a line along the arrangement direction X as shown in FIG. The light guide unit 22 and the light emitting unit 23 are realized by, for example, MKG180-1500S manufactured by Moritex Corporation. Each optical fiber 14 has a diameter d of, for example, about 50 μm.
[0040]
The light emitting unit 23 is provided as a secondary light source. The light emitting portion 23 is configured by accommodating a portion 14b on the other side in the longitudinal direction of each optical fiber 14 in a casing 24 having a substantially rectangular parallelepiped shape. The casing 24 is formed with an emission end portion 25 extending along the arrangement direction X. The light guided by each optical fiber 14 is emitted from the emission end portion 25. The light emitted from the emission end 25 diverges at an angle defined by the numerical aperture (abbreviation NA) which is the optical characteristic of the optical fiber 14. The light emitted from the emission end 25 corresponds to illumination light.
[0041]
The emission end 25 has a predetermined size. The emission end portion 25 extends along the arrangement direction X. The length W in the arrangement direction X of the emission ends 25 is, for example, about 960 mm. The width w of the emission end portion 25 is substantially the same from one end to the other end in the arrangement direction X of the emission end portion 25. Substantially the same includes the same. The width w of the emission end 25 is about 0.5 mm, for example.
[0042]
Hereinafter, the arrangement direction X is referred to as “X direction”, and the width direction of the emission end portion 25 is referred to as “Y direction”. A direction perpendicular to a virtual plane including the X direction and the Y direction is referred to as a “Z direction”.
[0043]
The optical means 13 has a light collecting characteristic only with respect to a predetermined light collecting direction. The focal length f of the optical means 13 is about 20 mm, for example. The optical means 13 is realized by a cylindrical lens. Specifically, the optical means 13 is realized by, for example, a cylindrical lens MLP-180 manufactured by Moritex Corporation.
[0044]
The optical means 13 is arranged on one side in the Z direction with respect to the emission end portion 25. The optical means 13 has the same length as the emission end 25 in the X direction. The condensing direction of the optical means 13 is substantially parallel to the Y direction. Substantially parallel includes parallel. The optical axis c1 of the optical means 13 is substantially parallel to the Z direction and passes through the approximate center of the emission end 25 in the Y direction. The approximate center includes the center.
[0045]
Of the optical means 13, the width A of the light passage portion 26 through which illumination light passes, that is, the length of the light passage portion 26 in the Y direction is substantially the same from one end to the other end in the X direction. The width A of the light passage portion 26 is about 14 mm, for example.
[0046]
In the present embodiment, the first distance S, which is the shortest distance between the emission end 25 and the principal point of the optical means 13, is set to be substantially the same as the focal length f of the optical means 13. The first distance S is set to about 20 mm, for example. The optical means 13 is fixed in a housing (not shown), and the light emitting portion 23 of the illumination means 12 is inserted and mounted in the housing. As a result, the relative displacement between the emission end 25 and the optical means 13 is prevented, and the change in the first distance S is prevented. In other words, the first distance S set substantially the same as the focal length f of the optical means 13 can be reliably prevented from changing undesirably.
[0047]
In the present embodiment, the illumination light emitted from the illumination unit 12 as divergent light is converted into substantially parallel light by the optical unit 13, thereby suppressing the divergence of the illumination light and reducing the waste of the illumination light. . In other words, the illumination light from the illumination means 12 can be used efficiently for the illumination of the object 11, and the illuminance of the object 11 can be increased.
[0048]
The object 11 is arranged in the vicinity of the all-position light passage region 31a through which illumination light emitted from all positions of the emission end portion 25 passes after passing through the optical means 13. The all-position light passage region 31 extends along the X direction. The cross-sectional shape of this all-position light passing region 31 as viewed by cutting along a virtual plane perpendicular to the X direction is substantially the same at an arbitrary position along the X direction.
[0049]
Hereinafter, the cross section of the all-position light passing region 31 will be described geometrically with reference to FIG. Illumination light is emitted from all positions of the emission end 25. In FIG. 1, for ease of understanding, one of three predetermined positions of the emission end 25 is selected from a plurality of rays. Only nine rays emanating from and passing through any of the three predetermined positions of the light passage portion 26 are shown.
[0050]
The three positions of the emission end 25 are the one end position 25a which is the position of one end in the Y direction, the center position 25b which is the center position in the Y direction, and the position of the other end in the Y direction. And end position 25c. The three positions of the optical means 13 are the one end position 26a that is one end position in the Y direction, the center position 26b that is the center position in the Y direction, and the other end that is the other end position in the Y direction. And position 26c.
[0051]
Light rays emitted from one end position 25a of the emission end portion 25 and passing through the respective positions 26a to 26c of the light passage portion 26 are referred to as first to third light rays L1 to L3. Light rays emitted from the central position 25b of the emission end portion 25 and passing through the respective positions 26a to 26c of the light passage portion 26 are referred to as fourth to sixth light rays L4 to L6. Light rays emitted from the other end position 25c of the emission end portion 25 and passing through the positions 26a to 26c of the light passage portion 26 are referred to as seventh to ninth light rays L7 to L9.
[0052]
Illumination light emitted from one end position 25a of the emission end 25 passes through an area A1 (hereinafter referred to as “first area A1”) sandwiched between the first light beam L1 and the third light beam L3. The illumination light emitted from the central position 25b of the emission end 25 passes through an area A2 (hereinafter referred to as “second area A2”) sandwiched between the fourth light beam L4 and the sixth light beam L6. The illumination light emitted from the other end position 25c of the emission end portion 25 passes through a region A3 (hereinafter referred to as “third region A3”) sandwiched between the seventh light beam L7 and the ninth light beam L9.
[0053]
The first to third regions A1 to A3 do not completely match, but partly overlap. A region C where the first to third regions A1 to A3 overlap (hereinafter sometimes referred to as “common region C”) is a region through which illumination light emitted from the respective positions 25a to 25c of the emission end portion 25 passes. . The common region C is a region sandwiched between the first light beam L1 and the ninth light beam L9, and is indicated by hatching in FIG. The common region C corresponds to a cross section obtained by cutting the all-position light passing region 31 along a virtual plane perpendicular to the X direction.
[0054]
The second distance L, which is the shortest distance between the point P1 where the first light ray L1 and the ninth light ray L9 intersect, and the principal point of the optical means 13 is obtained by Equation 1. That is, the second distance L is a value obtained by multiplying the first distance S by the width A of the light passage portion 26 and dividing this value by the width w of the emission end portion 25. However, Expression 1 is a relational expression applicable when the first distance S is the same as the focal length f of the optical means 13.
L = S × A / w (1)
[0055]
In the present embodiment, since the first distance S is about 20 mm, the width A of the light passage portion 26 is about 14 mm, and the width w of the emission end portion 25 is about 0.5 mm, the second distance L is about 560 mm. .
[0056]
The all-position light passage region 31 passes illumination light emitted from all positions of the emission end portion 25. On the other hand, the illumination light emitted from at least any one position among all the positions of the emission end portion 25 does not pass through the other region 32. For example, in FIG. 1, the illumination light emitted from the other end position 25c of the emission end portion 25 does not pass through the intersection point P2 of the second light beam L2 and the sixth light beam L6.
[0057]
Considering these points, if the object 11 is arranged in the all-position light passage region 31, it is predicted that the illuminance of the object 11 can be increased and made uniform over the entire object 11. The entire object 11 has the same meaning as the entire surface of the one surface portion 16 of the object 11.
[0058]
FIG. 4 is a schematic diagram schematically showing an illumination state, and shows a result of an experiment by the present inventor. In the figure, in order to facilitate understanding, the change in brightness in the Z direction is not shown, but only the change in brightness in the Y direction is shown.
[0059]
According to the results of the experiment, it has been proved that the vicinity 31a of the all-position light passage region is the brightest and becomes darker as the distance from the vicinity of the all-position light passage region 31a increases. Further, it has been proved that the vicinity 31a of the all-position light passage region has almost uniform brightness. Considering these points, the object 11 is arranged in the vicinity of the all-position light passage region 31a. As a result, the illuminance of the object 11 can be increased and made uniform throughout the object 11.
[0060]
On the other hand, when the object 11 is arranged in the remaining area 33 excluding the vicinity of the all-position light passing area 31a, the illuminance of the object 11 cannot be increased. Further, when the object 11 is arranged over the entire position light passage region vicinity 31a and the remaining region 33, the illuminance of the object 11 cannot be made uniform.
[0061]
It should be noted that the vicinity 34a between the all-position light passage region 31 and the other region 32 is particularly bright. Moreover, in the vicinity of the boundary 34a, the decrease in brightness accompanying the separation from the illumination means 12 is the smallest. Therefore, by arranging the object 11 near the boundary 34a, the illuminance of the object 11 can be increased as much as possible, and the illuminance of the entire object 11 can be made more uniform. The boundary vicinity 34a is a region within a range of, for example, about 1 mm from the boundary 34 between the all-position light passing region 31 and the other region 32.
[0062]
Referring to FIG. 1 again, in the present embodiment, the object 11 is placed near the boundary 34a. At this time, an angle θ formed by a virtual plane along which the one surface portion 16 of the object 11 extends and the optical axis c1 of the optical means 13 is set to about 0.716 degrees, for example.
[0063]
FIG. 5 is a flowchart showing the illumination method step by step. When an operation for illuminating the object 11 is started in step a1, the process proceeds to step a2. In step a2, the operator determines the vicinity 31a of the all-position light passage region. Next, in step a3, the object 11 is placed near the all-position light passage region 31a by, for example, a substrate holding mechanism 43 described later. Thus, in step a4, the operation for illuminating the object 11 is completed.
[0064]
In FIG. 5, the operator obtains the vicinity 31a of the all-position light passage region in step a2, and places the object 11 by the substrate holding mechanism 43 in the vicinity of the all-position light passage region 31a in step a3. Then, the vicinity of the boundary 34a may be obtained by the operator, and the object 11 may be arranged by the substrate holding mechanism 43 in the vicinity of the boundary 34a in the step a3.
[0065]
FIG. 6 is a block diagram illustrating a schematic configuration of the surface state detection device 41. The surface state detection device 41 detects the surface state of the object 11. Here, detecting the surface state of the object 11 means detecting an uneven-shaped defect present on the one surface portion 16 of the object 11. The concave and convex defects include film defects and foreign matter protrusions. The surface state detection device 41 includes an illumination device 42, a substrate holding mechanism 43, an imaging camera 44, an image processing device 45, and a main control device 46.
[0066]
The lighting device 42 illuminates the object 11 held by the substrate holding mechanism 43. The illumination device 42 includes the illumination means 12 and the optical means 13. The illumination device 42 is provided in advance so that the state shown in FIG. 1 described above can be realized when the object 11 is positioned and held by the substrate holding mechanism 43.
[0067]
The substrate holding mechanism 43 positions and holds the object 11 conveyed by a conveyance mechanism (not shown) in the vicinity of the all-position light passage region 31a by the illumination device 42. The substrate holding mechanism 43 holds the object 11 by sucking the other surface portion 47 of the object 11. The substrate holding mechanism 43 corresponds to a holding unit.
[0068]
The imaging camera 44 is provided in advance so as to face the one surface portion 16 of the object 11 when the object 11 is positioned and held by the substrate holding mechanism 43. The imaging camera 44 images the object 11 in cooperation with the illumination device 42. That is, the imaging camera 44 images the object 11 that is illuminated by the illumination device 42 while being held by the substrate holding mechanism 43. As a result, an image of the object 11 is acquired. The imaging camera 44 gives the acquired image of the object 11 to the image processing device 45. The imaging camera 44 corresponds to observation means.
[0069]
The image processing device 45 includes a memory medium 51 and a processing unit 52. The memory medium 51 stores an image acquired by the imaging camera 44. The processing unit 52 stores a program for performing arithmetic processing on the image and executes image arithmetic processing. The processing unit 52 converts the image into data of uneven portions described later. The data of the uneven portion corresponds to the result of the surface state. The image processing device 45 gives the data of the uneven portions to the main control device 46. The image processing device 45 corresponds to image processing means.
[0070]
The main control device 46 controls the substrate holding mechanism 43 and the image processing device 45. Further, the main controller 46 determines whether the object 11 is good or bad based on the data of the uneven portions. The main controller 46 includes a display unit 53 and a communication unit 54. The display means 53 displays the uneven portion data and the result of the determination. The communication means 54 outputs the data on the uneven portions and the result of the determination to an information system (not shown). The main control device 46 is realized by a computer for factory automation, for example. The main controller 46 corresponds to output means.
[0071]
FIG. 7 is a flowchart showing the surface state detection method step by step. The surface state detection method is realized by using the surface state detection device 41 described above. When the object 11 is transported onto the substrate holding mechanism 43 by a transport mechanism (not shown), a surface state detection operation is started in step b1, and the process proceeds to step b2.
[0072]
In step b2, the main controller 46 controls the substrate holding mechanism 43. The object 11 is positioned and held by the substrate holding mechanism 43. Thereby, the state shown in FIG. 1 is realized.
[0073]
Next, in step b3, the object 11 is imaged by the imaging camera 44 while the object 11 is illuminated by the illumination device 42. As a result, an image of the object 11 is acquired. In the image of the object 11, uneven portions are brightly observed based on the principle of dark field of a microscope. That is, a bright part is an uneven part.
[0074]
Next, in step b4, the image processing device 45 performs an arithmetic process on the image acquired by the imaging camera 44 and converts it into data on the uneven portion. The uneven portion data includes numerical data regarding the number of bright portions and numerical data regarding the dimensions of each bright portion.
[0075]
In step b5, the main controller 46 outputs the uneven portion data. That is, the uneven portion data is displayed by the display means 53 of the main controller 46, and the uneven portion data is output to the information system by the communication means 54 of the main controller 46.
[0076]
Further, main controller 46 determines that an uneven portion having a dimension larger than a predetermined reference dimension is a defect based on the data of the uneven portion, and counts the number of defective portions. The main controller 46 compares the counted number of defect locations with the upper limit number of defect locations. The main controller 46 determines that the object 11 is defective when defects exceeding the upper limit number are detected. The main controller 46 also outputs the result of the determination. Thus, in step b6, the surface state detection operation ends.
[0077]
According to the illumination method described above, the illumination light emitted from each position of the emission end portion 25 of the illumination means 12 passes through the optical means 13 and is converted into substantially parallel light, and each position of the emission end portion 25. Each light passage region corresponding to each of the first and second light transmission regions is formed. Therefore, the illuminance over the entire object 11 can be made uniform by arranging the object 11 in the vicinity of the all-position light passage region 31a corresponding to all the positions of the emission end 25, and also necessary and sufficient. Illuminance can be obtained. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object 11 can be prevented in advance.
[0078]
Further, according to the illumination method, the object 11 is arranged in the vicinity 34a of the boundary between the all-position light passage region 31 and the other region 32 out of the all-position light passage region vicinity 31a. According to the experiment by the present inventors, it has been found that the illuminance of the object 11 becomes the highest when the object 11 is arranged in the vicinity of the boundary 34a. It has also been found that the decrease in illuminance of the object 11 accompanying the separation from the illumination means 12 is the smallest. Therefore, by arranging the object 11 near the boundary 34a, the illuminance of the object 11 can be increased as much as possible, and the illuminance of the entire object 11 can be made more uniform.
[0079]
Further, according to the surface state detection method, an image of the object 11 illuminated using the above-described illumination method is acquired, and the surface state of the object 11 is detected based on the image. At this time, since the illuminance of the object 11 is high and uniform over the entire object 11, the surface state of the object 11 can be reliably detected over the entire object 11.
[0080]
As described above, when the image of the object 11 is acquired and the surface state of the object 11 is detected, it is not necessary to increase the resolution, and therefore the amount of data to be acquired can be reduced. Thereby, the detection time for detecting the surface state of the object 11 can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0081]
Further, according to the surface state detection device 41, the illumination light emitted from each position of the emission end portion 25 of the illumination means 12 passes through the optical means 13 and is converted into substantially parallel light. Each light passage region corresponding to each position is formed. Therefore, the illuminance over the entire object 11 can be made uniform by holding the object 11 in the vicinity of the all-position light passage region 31a corresponding to all the positions of the emission end 25, in particular, by the substrate holding mechanism 43. In addition, necessary and sufficient illuminance can be obtained. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object 11 can be prevented in advance.
[0082]
In this way, while the object 11 is illuminated by the illumination unit 12 and the optical unit 13, an image of the object 11 is acquired by the imaging camera 44, and the image is arithmetically processed by the image processing device 45, so that the surface of the object 11 is obtained. Detect state. At this time, since the object 11 is illuminated with high and uniform illuminance, the surface state of the object 11 can be reliably detected over the entire object 11.
[0083]
As described above, when the image of the object 11 is acquired and the surface state of the object 11 is detected, it is not necessary to increase the resolution of the imaging camera 44, so that the amount of data to be acquired can be reduced. Thereby, the detection time required for detecting the surface state of the object 11 by the image processing apparatus 45 can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0084]
Further, according to the surface state detection device 41, the data of the uneven portion by the image processing device 45 is output by the main control device 46. As a result, the data on the uneven portion can be given to, for example, an operator and an information system, and the treatment of the object 11 according to the data on the uneven portion and the feedback to the manufacturing process management can be performed.
[0085]
FIG. 8 is a schematic diagram schematically showing the all-position light passage region 31, and FIG. 8 (1) shows the all-position light passage region when the first distance S is substantially the same as the focal length f of the optical means 13. 8 (2) shows the all-position light passage region 31 when the first distance S is larger than the focal length f of the optical means 13, and FIG. 8 (3) shows the first distance S at the optical means 13. The all-position light passage region 31 when the focal length is smaller than the focal length f is shown. In the illumination method of the above-described embodiment, the illumination unit 12 and the optical unit 13 are provided so that the first distance S is substantially the same as the focal length f of the optical unit 13, but the first distance S is not necessarily equal to the focal length f. It is not necessary to be substantially the same.
[0086]
When the first distance S is greater than the focal distance f, the light collection component of the illumination light after passing through the optical means 13 is compared to when the first distance S is substantially the same as the focal distance f of the optical means 13. Becomes larger. As a result, as shown in FIG. 8B, the second distance L is reduced, and the all-position light passing region 31 is reduced.
[0087]
When the first distance S is smaller than the focal distance f, the divergence component of the illumination light after passing through the optical means 13 is smaller than when the first distance S is substantially the same as the focal distance f of the optical means 13. growing. As a result, as shown in FIG. 8 (3), the second distance L is increased and the all-position light passing region 31 is increased.
[0088]
Thus, the size of the all-position light passing region 31 changes according to the first distance S. Even if the size changes in this way, the illumination light emitted from all positions of the emission end portion 25 passes through the all-position light passage region 31. Therefore, even if the first distance S is changed, if the all-position light passage region 31 can be formed, the illuminance of the subject 11 can be reduced by arranging the subject 11 in the vicinity of the all-position light passage region 31a. 11 can be made high and uniform throughout.
[0089]
When a pattern having unevenness is formed on the one surface portion 16 of the object 11, the pattern is observed brightly when the illumination light irradiation angle is large. This reduces the difference in brightness between the pattern and the concavo-convex defect, which has an adverse effect on detection sensitivity.
[0090]
When the first distance S is substantially the same as the focal length f of the optical means 13, the irradiation angle of the illumination light is substantially uniform over the entire object 11. When the first distance S is smaller than the focal length f of the optical means 13, the portion of the surface 11 of the object 11 that is closer to the optical means 13 has a larger illumination angle of the illumination light, and the detection sensitivity is improved. There is an adverse effect. When the first distance S is larger than the focal length f of the optical means 13, the irradiation angle of the illumination light becomes larger as the portion of the one surface portion 16 of the object 11 is away from the optical means 13. Even if the irradiation angle is large, the portion of the surface 11 of the object 11 that is separated from the optical means 13 has little influence on the detection sensitivity.
[0091]
Considering these points, when illuminating the object 11 having a pattern, it is best to make the first distance S and the focal length f of the optical means 13 substantially the same, and then the first distance S is set to the optical means. It can be seen that it is better to make the focal length f 13 slightly larger.
[0092]
FIG. 9 is a schematic diagram schematically showing a state in which the object 11 is illuminated using the illumination method according to another embodiment of the present invention. FIG. 10 is a block diagram illustrating a schematic configuration of the surface state detection device 61. Since the surface state detection device 61 of this embodiment is similar to the surface state detection device 61 of the above-described embodiment, the corresponding parts are denoted by the same reference numerals, and description thereof is omitted.
[0093]
Depending on the dimensions of the target object 11, the target object 11 may not be accommodated in the vicinity of the all-position light passage region 31 a by one illumination unit 12 as in the above-described embodiment. In such a case, the object 11 is illuminated using a plurality of (two in this embodiment) illumination means 12.
[0094]
In the present embodiment, the two illumination devices 42 are arranged symmetrically with respect to the object 11. More specifically, each lighting device 42 is arranged so as to be symmetric with respect to a symmetry plane 36 that is perpendicular to a virtual plane along which the one surface portion 16 of the object 11 extends and that includes the center of the object 11. .
[0095]
In this way, the object 11 is accommodated in the vicinity of the all-position light passage region 31a by each illumination means 12. As a result, it is possible to illuminate the object 11 having a large size that cannot be accommodated in the vicinity of the all-position light passage region 31a by the single illumination unit 12 with high and uniform illuminance.
[0096]
In addition, the object 11 is arranged in the vicinity of the boundary 34 a by each illumination means 12, and further, each portion farthest away from each illumination means 12 in each of the all-position light passing areas 31 by each illumination means 12 is symmetrical with the object 11. It is made to correspond with the part which 36 crosses. This makes it possible to illuminate the object 11 having a larger size with high and uniform illuminance.
[0097]
In the present embodiment, the dimension of the object 11 is, for example, about 700 mm × about 800 mm. It is assumed that the object 11 is arranged so that the short side direction is substantially parallel to the X direction.
[0098]
At this time, the third distance WD, which is the shortest distance between the edge portion of the substrate and the optical means 13, is obtained by Equation 2. That is, the third distance WD is a value obtained by subtracting the value obtained by dividing the length H of the long side of the substrate by 2 from the second distance L.
WD = L− (H ÷ 2) (2)
[0099]
In the present embodiment, since the second distance L is about 560 mm and the length H of the long side of the substrate is about 800 mm, the third distance WD is about 160 mm.
[0100]
According to the illumination method described with reference to FIGS. 9 and 10, the two illumination means 12 are arranged symmetrically with respect to the object 11. The illumination light emitted from the illumination unit 12 is gradually attenuated as the distance from the illumination unit 12 increases. Considering this point, the two illumination means 12 are arranged symmetrically with respect to the object 11, whereby the illuminance of the part of the object 11 that is separated from the one illumination means 12 is changed to the illumination light by the other illumination means 12. And the illuminance can be made uniform over the entire object 11.
[0101]
In the embodiment shown in FIG. 9 and FIG. 10, the object 11 is illuminated using two illumination means 12, but in another embodiment of the present invention, the object is constructed using, for example, four illumination means 12. 11 may be illuminated. When illuminating the object 11 using the four illumination means 12, the pair of illumination means 12 is disposed so as to be symmetric with respect to the first symmetry plane, and another pair of illumination means 12 is further symmetrical with respect to the second symmetry plane. Illumination means 12 is arranged. The first symmetry plane is a symmetry plane that is perpendicular to a virtual plane along which the one surface portion 16 of the object 11 extends and includes the center of the object 11. The second symmetry plane is a symmetry plane that is perpendicular to a virtual plane along which the one surface portion 16 of the object 11 extends and that includes the center of the object 11 and is perpendicular to the first symmetry plane. . Thus, even if the four illumination means 12 are used, the same effect as the embodiment shown in FIGS. 9 and 10 can be achieved.
[0102]
FIG. 11 is a front view showing another example of the arrangement state of the optical fibers 14. The portions 14b on the other side in the longitudinal direction of each optical fiber 14 do not necessarily have to be arranged in a line along the X direction as shown in FIG. 3, for example, along the X direction as shown in FIG. May be arranged in two rows.
[0103]
More specifically, the portions 14b on the other side in the longitudinal direction of the optical fibers 14 are arranged so as to be alternately shifted to one side and the other side in the Y direction as proceeding along the X direction. Thus, even when the illumination means 12 in which the portions 14b on the other side in the longitudinal direction of the optical fibers 14 are arranged is used, the same effect as that of the above-described embodiment can be achieved.
[0104]
As yet another example of the arrangement state of each optical fiber 14, although not shown, the other in the longitudinal direction of each optical fiber 14 is alternately shifted to one and the other in the Y direction every two along the X direction. The side portions 14b may be arranged. Thus, even when the illumination means 12 in which the portions 14b on the other side in the longitudinal direction of the optical fibers 14 are arranged is used, the same effect as that of the above-described embodiment can be achieved.
[0105]
In each of the above-described embodiments, specific numerical values are described for the size of the emission end 25, the focal length f of the optical means 13, the dimensions of the object 11, and the like. The present invention is applicable.
[0106]
【The invention's effect】
As described above, according to the present invention, the illumination light emitted from each position of the emission end of the illumination means passes through the optical means and is converted into substantially parallel light, and corresponds to each position of the emission end. Each light passing region is formed. Therefore, the illuminance over the entire object can be made uniform and the necessary and sufficient illuminance can be obtained by arranging the object in the vicinity of the all-position light passing region corresponding to all the positions of the emission end. Is possible. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object can be prevented in advance.
[0107]
In this way, for example, an image of the object is acquired while illuminating the object, and the surface state of the object is detected based on the image. In this case, since the illuminance of the object is high and uniform throughout the entire object, the surface state of the object can be reliably detected over the entire object.
[0108]
Thus, when acquiring the image of the target object and detecting the surface state of the target object, it is not necessary to increase the resolution, and therefore the amount of data to be acquired can be reduced. Thereby, the detection time for detecting the surface state of the object can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0109]
According to the present invention, the object is arranged near the boundary between the all-position light passing area and the other area. According to the experiment by the present inventors, it has been found that the illuminance of the object becomes the highest when the object is arranged near the boundary. It has also been found that the decrease in the illuminance of the object accompanying the separation from the illumination means is minimized. Therefore, by arranging the object in the vicinity of the boundary, it is possible to increase the illuminance of the object as much as possible and further uniform the illuminance over the entire object.
[0110]
Moreover, according to this invention, several illumination means are arrange | positioned symmetrically regarding a target object. The illumination light emitted from the illuminating means is gradually attenuated with distance from the illuminating means. In consideration of this point, a plurality of illumination means are arranged symmetrically with respect to the object, whereby the illuminance of the part of the object separated from one illumination means is increased by the illumination light from the other illumination means, and the object The illuminance can be made uniform throughout.
[0111]
Moreover, according to this invention, the image of the target object illuminated using one of the above-mentioned illumination methods is acquired, and the surface state of a target object is detected based on the image. At this time, since the illuminance of the object is high and uniform over the entire object, the surface state of the object can be reliably detected over the entire object.
[0112]
Thus, when acquiring the image of the target object and detecting the surface state of the target object, it is not necessary to increase the resolution, and therefore the amount of data to be acquired can be reduced. Thereby, the detection time for detecting the surface state of the object can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0113]
According to the invention, the illumination light emitted from each position of the emission end of the illumination means passes through the optical means and is converted into substantially parallel light, and each light corresponding to each position of the emission end is provided. A passing area is formed. Therefore, the illuminance over the entire object can be made uniform by holding the object, particularly by the holding means, in the vicinity of the all-position light passing region corresponding to all the positions of the emission end, and the necessary and sufficient Illuminance can be obtained. In other words, uneven illuminance and insufficient illuminance due to the arrangement position of the object can be prevented in advance.
[0114]
In this way, while illuminating the object by the illumination unit and the optical unit, an image of the object is acquired by the observation unit, and the image is arithmetically processed by the image processing unit to detect the surface state of the object. At this time, since the object is illuminated with high and uniform illuminance, the surface state of the object can be reliably detected over the entire object.
[0115]
Thus, when acquiring the image of the target object and detecting the surface state of the target object, it is not necessary to increase the resolution of the observation means, so the amount of data to be acquired can be reduced. Thereby, the detection time required for detecting the surface state of the object by the image processing means can be shortened. In addition, since an apparatus for calculating and processing images at high speed is not required, the manufacturing cost of the entire apparatus can be reduced.
[0116]
According to the invention, the result of the surface state detected by the image processing means is output by the output means. Thus, the result can be given to, for example, an operator and an information system, and the object can be treated according to the result and fed back to the manufacturing process management.
[Brief description of the drawings]
FIG. 1 is a schematic diagram schematically showing a state in which an object 11 is illuminated using an illumination method according to an embodiment of the present invention.
FIG. 2 is a perspective view showing a positional relationship between an illuminating unit 12 and an optical unit 13 and an object 11;
FIG. 3 is a front view showing an example of an arrangement state of optical fibers 14;
FIG. 4 is a schematic diagram schematically showing an illumination state.
FIG. 5 is a flowchart showing the illumination method step by step.
6 is a block diagram showing a schematic configuration of a surface state detection device 41. FIG.
FIG. 7 is a flowchart showing the surface state detection method step by step.
FIG. 8 is a schematic diagram schematically showing an all-position light passage region 31. FIG.
FIG. 9 is a schematic diagram schematically showing a state in which an object 11 is illuminated using an illumination method according to another embodiment of the present invention.
10 is a block diagram showing a schematic configuration of a surface state detection device 61. FIG.
FIG. 11 is a front view showing another example of the arrangement state of optical fibers 14;
[Explanation of symbols]
11 Object
12 Illumination means
13 Optical means
14 Optical fiber
25 Output end
31 All-position light passing area
31a Near all positions
32 Other areas
34 Boundary
34a Near the boundary
41, 61 Surface condition detection device
42 Lighting equipment
43 Substrate holding mechanism
44 Imaging camera
45 Image processing device
46 Main controller

Claims (6)

予め定める大きさの出射端部から照明光を発散光として発する照明手段と、照明手段から発せられる照明光を、略平行光に変換する光学手段とを用いて対象物を照明する照明方法であって、
前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を配置することを特徴とする照明方法。
An illumination method for illuminating an object using an illuminating unit that emits illumination light as divergent light from a light emitting end having a predetermined size and an optical unit that converts the illumination light emitted from the illuminating unit into substantially parallel light. And
An illumination method, comprising: locating an object in the vicinity of an all-position light passage region through which illumination light emitted from all positions of the emission end portion passes after passing through optical means.
前記全位置光通過領域と他の領域との境界付近に、対象物を配置することを特徴とする請求項1に記載の照明方法。The illumination method according to claim 1, wherein an object is disposed near a boundary between the all-position light passing area and another area. 複数の照明手段を、対象物に関して対称に配置することを特徴とする請求項1または2に記載の照明方法。The illumination method according to claim 1, wherein the plurality of illumination units are arranged symmetrically with respect to the object. 請求項1〜3のいずれかに記載の照明方法を用いて照明された対象物の画像を取得し、その画像に基づいて対象物の表面状態を検出する表面状態検出方法。The surface state detection method which acquires the image of the target object illuminated using the illumination method in any one of Claims 1-3, and detects the surface state of a target object based on the image. 予め定める大きさの出射端部から照明光を発散光として発する照明手段と、
照明手段から発せられる照明光を、略平行光に変換する光学手段と、
前記出射端部の全ての位置から発せられた照明光が光学手段を通過した後に通過する全位置光通過領域付近に、対象物を保持する保持手段と、
照明手段および光学手段と協働して対象物の画像を取得する観察手段と、
観察手段によって取得される画像を処理して、対象物の表面状態を検出する画像処理手段とを含むことを特徴とする表面状態検出装置。
Illuminating means for emitting illumination light as divergent light from an emission end having a predetermined size;
Optical means for converting illumination light emitted from the illumination means into substantially parallel light;
A holding means for holding an object in the vicinity of the all-position light passage area where illumination light emitted from all positions of the emission end passes after passing through the optical means;
Observation means for acquiring an image of the object in cooperation with the illumination means and the optical means;
A surface state detection apparatus comprising: an image processing unit that processes an image acquired by an observation unit and detects a surface state of an object.
前記画像処理手段によって検出される表面状態の結果を出力する出力手段をさらに含むことを特徴とする請求項5に記載の表面状態検出装置。6. The surface state detection apparatus according to claim 5, further comprising an output unit that outputs a result of the surface state detected by the image processing unit.
JP2003173935A 2003-06-18 2003-06-18 Illumination method, surface state detection method, and surface state detection device Expired - Fee Related JP4037800B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003173935A JP4037800B2 (en) 2003-06-18 2003-06-18 Illumination method, surface state detection method, and surface state detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003173935A JP4037800B2 (en) 2003-06-18 2003-06-18 Illumination method, surface state detection method, and surface state detection device

Publications (2)

Publication Number Publication Date
JP2005009995A true JP2005009995A (en) 2005-01-13
JP4037800B2 JP4037800B2 (en) 2008-01-23

Family

ID=34097609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003173935A Expired - Fee Related JP4037800B2 (en) 2003-06-18 2003-06-18 Illumination method, surface state detection method, and surface state detection device

Country Status (1)

Country Link
JP (1) JP4037800B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214917A (en) * 2005-02-04 2006-08-17 Sharp Corp Method and device for detecting defect of substrate
JP2007121120A (en) * 2005-10-28 2007-05-17 Naoetsu Electronics Co Ltd Wafer visual inspection device
US8027036B2 (en) 2009-02-20 2011-09-27 Samsung Corning Precision Materials Co., Ltd. Apparatus for detecting particles on a glass surface and a method thereof
JP2011203245A (en) * 2010-03-02 2011-10-13 You-Na Tech Corp System and method for inspecting surface of semiconductor wafer

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214917A (en) * 2005-02-04 2006-08-17 Sharp Corp Method and device for detecting defect of substrate
JP2007121120A (en) * 2005-10-28 2007-05-17 Naoetsu Electronics Co Ltd Wafer visual inspection device
US8027036B2 (en) 2009-02-20 2011-09-27 Samsung Corning Precision Materials Co., Ltd. Apparatus for detecting particles on a glass surface and a method thereof
KR101209857B1 (en) * 2009-02-20 2012-12-10 삼성코닝정밀소재 주식회사 Detection apparatus for particle on the glass and detection method using the same
JP2011203245A (en) * 2010-03-02 2011-10-13 You-Na Tech Corp System and method for inspecting surface of semiconductor wafer

Also Published As

Publication number Publication date
JP4037800B2 (en) 2008-01-23

Similar Documents

Publication Publication Date Title
JP6437146B2 (en) Reticle defect inspection by systematic defect filter
US7847927B2 (en) Defect inspection method and defect inspection apparatus
US20060158643A1 (en) Method and system of inspecting mura-defect and method of fabricating photomask
WO2014091928A1 (en) Substrate defect inspection method, substrate defect inspection device, and computer storage medium
JP2012242268A (en) Inspection device and inspection method
JP4037800B2 (en) Illumination method, surface state detection method, and surface state detection device
JP2004309287A (en) Defect detection device and defect detection method
TWI817991B (en) Optical system, illumination module and automated optical inspection system
JP7011348B2 (en) Foreign matter inspection device and foreign matter inspection method
JP2008046011A (en) Surface inspecting device
TW200914817A (en) Pattern defect inspecting method and pattern defect inspecting apparatus
JP2005069919A (en) Illumination method, and surface condition detecting method and device
TWI539246B (en) Drawing apparatus
JP2006244869A (en) Plasma display panel inspection device, manufacturing method of plasma display panel, and device inspection method
JP2006222325A (en) Light illumination device
JP2012058029A (en) Periodic pattern inspection device
JP5702639B2 (en) Image acquisition device for unevenness inspection, unevenness inspection device, and position determination method of irradiation unit
US20240044741A1 (en) Photomask inspection apparatus and method of inspecting photomask using the same
JP6980241B2 (en) Foreign matter inspection device and foreign matter inspection method
JP2002014058A (en) Method and apparatus for checking
JP5201443B2 (en) Surface inspection apparatus and surface inspection method
JP5252286B2 (en) Surface inspection method, surface inspection apparatus and inspection method
JP2024054910A (en) Inspection equipment and inspection system
JPH11183151A (en) Transparent sheet inspecting equipment
JP2002158437A (en) Method and apparatus for removing solderless part of printed board

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071101

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees