JP4267103B2 - Appearance image classification apparatus and method - Google Patents
Appearance image classification apparatus and method Download PDFInfo
- Publication number
- JP4267103B2 JP4267103B2 JP26545198A JP26545198A JP4267103B2 JP 4267103 B2 JP4267103 B2 JP 4267103B2 JP 26545198 A JP26545198 A JP 26545198A JP 26545198 A JP26545198 A JP 26545198A JP 4267103 B2 JP4267103 B2 JP 4267103B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- teaching
- unit
- appearance
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 50
- 230000007547 defect Effects 0.000 claims description 190
- 239000013598 vector Substances 0.000 claims description 83
- 238000006243 chemical reaction Methods 0.000 claims description 58
- 238000007689 inspection Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 2
- 238000011179 visual inspection Methods 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 description 37
- 239000004065 semiconductor Substances 0.000 description 36
- 238000000605 extraction Methods 0.000 description 35
- 239000000758 substrate Substances 0.000 description 30
- 230000008859 change Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 238000010894 electron beam technology Methods 0.000 description 17
- 238000001228 spectrum Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 12
- 238000010606 normalization Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 9
- 230000002950 deficient Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000001878 scanning electron micrograph Methods 0.000 description 4
- 229910000679 solder Inorganic materials 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000979 retarding effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、半導体の製造状態等を自動的に分類判定する装置に関し、特に半導体等の外観画像を取得し、前記外観画像を認識することで半導体の製造状態等を判定する外観画像分類装置およびその方法に関する。
【0002】
【従来の技術】
半導体の画像を取得し、前記外観画像を認識することで半導体の製造状態を判定する装置としては、たとえば特開平07−201946号公報に示されるように、欠陥の分類結果を修正するために分類結果を教示する手段と欠陥分類された結果を作業者に視覚的に提示し、作業者が欠陥分類結果とそれに関連する情報の各情報を確認できかつその情報を変更あるいは新たな情報を付加することを可能とする手段を有するユニットにより教示された分類結果をもとに対応する欠陥の特徴量の解釈を更新する装置があった。
【0003】
【発明が解決しようとする課題】
しかし、上記従来の技術はあらかじめ欠陥の画像特徴を抽出する画像抽出アルゴリズムが決定されており、半導体製造プロセスの変化や半導体の設計の変化による良品や欠陥の外観が変化した場合に対応することが難しかった。上記従来の技術では装置にあらかじめ複数の画像特徴抽出アルゴリズムを組み込んでおき、ユーザの教示をもとに画像特徴抽出アルゴリズムの出力結果の解釈を変化させ欠陥の判定を行っていた。しかし、半導体製造プロセスは製造工程の違いにより欠陥の特徴や良品部分の特徴が変化してしまうため、プロセスの変更により当初は十分であった画像特徴の抽出アルゴリズム自体がその後の製造状態を判定するに足る画像特徴の抽出を実現できないケースが発生していた。このため、新たに画像特徴量を抽出するアルゴリズムを開発することなしに新たなプロセスに対応させることが困難であるという課題があった。
【0004】
本発明の目的は、上記課題を解決すべく、プロセスが変化した場合にも画像特徴抽出アルゴリズムを変更すること無く半導体等の欠陥を発生させる半導体等の製造状態(カテゴリー)を分類できるようにした外観画像分類装置およびその方法を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像を表示する画像表示部と、該画像表示部で表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定して入力する入力手段と、該入力手段によって指定された局所的な部位における画像の特徴量を抽出し、この抽出された局所的な部位における画像の特徴量を基に、分類判定する判定基準を教示する教示部と、該教示部で教示された判定条件に基いて、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像に対して該外観画像の状態を分類判定する判定部とを備えたことを特徴とする外観画像分類装置である。
【0006】
また、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像を表示する画像表示部と、該画像表示部で表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定し、該局所的な部位における画像の特徴の種類を入力する入力手段と、該入力手段によって指定された局所的な部位における前記入力手段で入力された画像の特徴の種類に応じた画像の特徴量を抽出し、この抽出された局所的な部位における画像の特徴量を基に分類判定する判定条件を教示する教示部と、該教示部で教示された判定条件に基いて、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像に対して該外観画像の状態を分類判定する判定部とを備えたことを特徴とする外観画像分類装置である。
【0007】
また、本発明は、前記外観画像分類装置の前記画像表示部において、前記入力手段によって画像の特徴の種類を画面上で入力できるように、画像の特徴の種類を表示するように構成したことを特徴とする。また、本発明は、前記外観画像分類装置の前記入力手段において、入力する局所的な部位における画像の特徴の種類として、少なくともエッジ、濃淡値、テクスチャ、色の少なくとも1つを入力可能に構成することを特徴とする。
【0008】
また、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像を表示する画像表示部と、該画像表示部で表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定して入力する入力手段と、該入力手段によって指定された局所的な部位における画像の特徴量を抽出し、この抽出された画像の特徴量を基に多次元特徴空間における特徴ベクトルを算出し、この算出された特徴ベクトルから多次元特徴空間における分類判定する領域を教示する教示部と、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像より多次元特徴空間における多次元ベクトルで現される画像の特徴量を抽出し、この抽出された多次元ベクトルで現される画像の特徴量を多次元特徴空間にマッピングすることによって、前記教示部で教示された領域との関係から外観画像の状態を分類判定する判定部とを備えたことを特徴とする外観画像分類装置およびその方法である。
【0009】
また、本発明は、前記外観画像分類装置の前記判定部において、分類用の外観画像に対して基底変換を施す基底変換部を有し、該基底変換部で基底変換された画像から多次元特徴空間における多次元ベクトルで現される画像の特徴量を抽出するように構成したことを特徴とする。
また、本発明は、前記外観画像分類装置の前記判定部において、分類用の外観画像に対して基底変換を施し、更に基底変化された画像を圧縮する基底変換部を有し、該基底変換部で基底変換されて圧縮された画像から多次元特徴空間における多次元ベクトルで現される画像の特徴量を抽出するように構成したことを特徴とする。
【0010】
また、本発明は、前記外観画像分類装置の前記判定部において、分類用の外観画像を局所領域ごとに分割する画像分割部を有し、該画像分割部で分割された局所領域ごとの画像を前記基底変換部に入力するように構成したことを特徴とする。
【0011】
また、本発明は、前記外観画像分類装置の前記教示部において、教示用の外観画像に対して基底変換を施す基底変換部を有し、該基底変換部で基底変換された画像として得られた特徴量の内、入力手段によって指定された局所的な部位に対応する画像の特徴量を抽出するように構成したことを特徴とする。
また、本発明は、前記外観画像分類装置の前記教示部において、教示用の外観画像に対して基底変換を施し、更に基底変化された画像を圧縮する基底変換部を有し、該基底変換部で基底変換されて圧縮された画像として得られた特徴量の内、入力手段によって指定された局所的な部位に対応する画像の特徴量を抽出するように構成したことことを特徴とする。
【0012】
また、本発明は、前記外観画像分類装置の前記教示部において、教示用の外観画像を局所領域ごとに分割する画像分割部を有し、該画像分割部で分割された局所領域ごとの画像を前記基底変換部に入力するように構成したことを特徴とする。
【0013】
また、本発明は、前記外観画像分類装置の前記画像分割部において、分割された局所領域ごとの画像を前記画像表示部に表示するように構成したことを特徴とする。
また、本発明は、前記外観画像分類装置の前記教示部において、教示用の外観画像に対して平行移動、回転、拡大、縮小の少なくとも1つの処理を施して分類用の画像に対応する教示用の画像を生成する教示用画像生成部を有することを特徴とすることを特徴とする。
【0014】
また、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像を表示する画像表示部と、該画像表示部で表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定して入力する入力手段と、該入力手段によって指定された局所的な部位における画像の特徴量を抽出し、この抽出された画像の特徴量を基に多次元特徴空間における多次元特徴ベクトルを算出し、この算出された多次元特徴空間における多次元特徴ベクトルを中心とした楕円状の空間領域を教示する教示部と、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像より画像の特徴量を抽出し、この抽出された画像の特徴量を基に多次元特徴空間における多次元ベクトルを算出し、この算出された多次元ベクトルが前記教示部で教示された楕円状の空間領域内に存在する場合前記分類用の外観画像が前記教示用の画像と同一のグループであると判定する判定部とを備えたことを特徴とする外観画像分類装置およびその方法である。
【0015】
また、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像を表示する画像表示部と、該画像表示部で表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定して入力する入力手段と、該入力手段によって指定された局所的な部位における画像の特徴量を抽出し、この抽出された画像の特徴量を基に複数の教示用の外観画像の多次元特徴空間における複数の多次元特徴ベクトルを算出し、この算出された多次元特徴空間における多次元特徴ベクトルを補間したベクトル軌跡を中心としたドーナツ状の空間領域を教示する教示部と、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像より画像の特徴量を抽出し、この抽出された画像の特徴量を基に多次元特徴空間における多次元ベクトルを算出し、この算出された多次元ベクトルが前記教示部で教示された楕円状の空間領域内に存在する場合前記分類用の外観画像が前記教示用の画像と同一のグループであると判定する判定部とを備えたことを特徴とする外観画像分類装置およびその方法である。
【0016】
また、本発明は、被対象物についての教示用および分類用の外観画像を取得する画像取得部と、該画像取得部で取得された教示用および分類用の外観画像を記憶するメモリ部と、該メモリ部で記憶された教示用の外観画像に対して教示用の局所領域ごとに分割し、この分割された教示用の局所領域ごとの画像の特徴量を抽出し、この抽出された教示用の局所領域ごとの画像の特徴量を基に多次元特徴空間における多次元特徴ベクトルを算出し、この算出された多次元特徴空間における多次元特徴ベクトルから多次元特徴空間における分類判定する各グループの領域を教示する教示部と、前記画像取得部で取得されてメモリ部に記憶された分類用の外観画像に対して局所領域ごとに分割し、この分割された局所領域ごとに、画像を位置、および形状について正規化し、この正規化された局所領域ごとの画像の特徴量を多次元特徴空間にマッピングすることによって、前記教示部で教示された各グループの領域との関係から外観画像の状態を分類判定する判定部とを備えたことを特徴とする外観画像分類装置およびその方法である。
【0017】
また、本発明は、上記外観画像分類装置およびその方法の前記教示部および判定部において、画像をフーリエ変換して得られるスペクトル分布によって前記画像の特徴量を抽出するように構成したことを特徴とする。
また、本発明は、上記外観画像分類装置およびその方法の前記画像表示部において、分類用の外観画像上に、分類用の外観画像の判定に寄与した主要な画像特徴量を抽出した画像に対応する画像をオーバレイで表示するように構成したことを特徴とする。
また、本発明は、上記外観画像分類装置およびその方法の前記判定部において判定する際、その判定の確からしさを示す判定確信度を出力する出力手段を備えたことを特徴とする。
【0018】
また、本発明は、被対象物についての教示用の外観画像を取得してメモリ部に記憶し、該記憶された教示用の外観画像を画像表示部に表示し、該表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定し、該指定された局所的な部位における画像の特徴量を抽出し、この抽出された局所的な部位における画像の特徴量を基に、分類判定する判定基準を教示する教示過程と、
被対象物についての分類用の外観画像を取得してメモリ部に記憶し、該記憶された分類用の外観画像に対して、前記教示過程で教示された判定基準に基いて、前記外観画像の状態を分類判定する判定過程とを有することを特徴とする外観画像分類方法である。
【0019】
また、本発明は、被対象物についての教示用の外観画像を取得してメモリ部に記憶し、該記憶された教示用の外観画像を画像表示部に表示し、該表示された教示用の外観画像における特徴的な外観を示す局所的な部位を指定し、更に該局所的な部位における画像の特徴の種類を入力し、該指定された局所的な部位における前記入力された画像の特徴の種類に応じた画像の特徴量を抽出し、この抽出された局所的な部位における画像の特徴量を基に、分類判定する判定基準を教示する教示過程と、
被対象物についての分類用の外観画像を取得してメモリ部に記憶し、該記憶された分類用の外観画像に対して、前記教示過程で教示された判定基準に基いて、前記外観画像の状態を分類判定する判定過程とを有することを特徴とする外観画像分類方法である。
【0020】
また、本発明は、前記外観画像装置において、教示用の画像を基底変換した状態で格納しておくことを特徴とする。
また、本発明は、前記外観画像装置において、基底変換して圧縮する際、対象の特徴的な外観を有する部位の画像特徴量に対応しない基底を縮退させることにより圧縮をおこなうように構成することを特徴とする。
また、本発明は、前記外観画像装置において、判定部は対象の製造状態を判定する際に判定の確からしさを示す判定確信度を出力可能であることと出力した判定確信度をキーとして判定部が処理した1群の画像を順番付けし、順番付けした順に1群の画像を1枚ずつ、あるいは並べて表示することを特徴とする。
【0021】
以上説明したように、前記構成によれば、プロセスが変化した場合にも画像特徴抽出アルゴリズムを変更すること無く半導体の欠陥等を発生させる半導体等の製造状態(カテゴリー)を分類することができる。
【0022】
【発明の実施の形態】
本発明に係る半導体ウエハ等の被対象基板の外観画像を基に製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定する製造状態自動判定装置の実施の形態を図面を用いて説明する。
【0023】
図1は本発明に係る製造状態自動判定装置の基本構成を示す図である。
【0024】
まず、製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定するためには、様々な製造プロセスで製造された半導体ウエハ等の被対象基板上に発生する異物や配線パターン欠陥などのサイズや表面状態が異なる様々な約0.1μm程度以下の微小欠陥まで、画像取得部101において、図3に示す如く、高精細な外観画像を取得する必要がある。
【0025】
従って、画像取得部101としては、様々な約0.1μm程度以下の微小欠陥までの高精細な外観画像を取得できるSEMまたはi線や紫外線等の短波長の光を用いた光学顕微鏡等が用いられる。
【0026】
ところで、通常、半導体の製造ラインにおいては、光学的な外観検査装置(異物検査装置またはパターン検査装置)によって、様々な製造プロセスで製造された半導体ウエハ等の被対象基板に対して異物や配線パターン欠陥などの様々な微小欠陥の検査が行われ、欠陥が存在する場合には、被対象基板上の基準マークを基準に設定された座標系で、欠陥の概略位置座標が求められて出力されるようになっている。即ち、光学的な外観検査装置(異物検査装置またはパターン検査装置)は、検査された被対象基板に対して、欠陥が存在する場合には、通常その欠陥の概略位置座標が出力されるように構成されている。
【0027】
そのため、全体制御部107は、異物や配線パターン欠陥などの様々な欠陥が存在する被対象基板についての欠陥の概略位置座標を、光学的な外観検査装置(異物検査装置またはパターン検査装置)からネットワークまたは記録媒体を介して入力して、例えばメモリ部104に記憶することが可能である。
【0028】
そこで、画像取得部101は、製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定するための教示用データを作成するための異物や配線パターン欠陥などの様々な教示用欠陥が存在する教示用基板や、半導体製造ラインから逐次得られ、光学的な外観検査装置(異物検査装置またはパターン検査装置)で検査されて製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定する必要のある異物や配線パターン欠陥などの様々な欠陥が存在する被対象基板をステージ上に載置し、例えばメモリ部104に記憶された欠陥の概略位置座標を基に教示用基板や被対象基板を位置決めすることによって、図3に示すような教示用も含めて様々な微小欠陥の高精細な外観画像が取得してメモリ部104に記憶させることができる。
【0029】
図2には、画像取得部101の一実施例であるSEM装置101aを示す。SEM装置101aの場合、高精細な外観画像として電子線画像を取得することができる。SEM装置101aは、検出部10と、電子線画像取り出し部30とから構成される。検出部10における電子光学計は、電子銃11と、電子線引き出し電極(図示せず)、コンデンサレンズ12、ブランキング用偏向器(図示せず)、絞り(図示せず)、走査偏向器13、対物レンズ14、検出電子を反射させる反射板(図示せず)、ExB偏向器(図示せず)、およびビーム電流を検出するファラデーカップ(図示せず)から構成される。反射板は、円錐形状にして二次電子増倍効果を持たせた。電子検出部のうち、例えば二次電子、反射電子等の電子を検出する電子検出器20が、例えば対物レンズ14の上方または下方に設置される。そして、電子検出器20の出力信号は、アンプ21で増幅される。
【0030】
試料室内には、高精細な外観画像を取得するための被対象基板(教示用基板も含む)16を載置する試料台23と、該試料台23をX−Y方向に移動するステージ18と、該ステージの位置を測定する位置モニタ用測長器(図示せず)と、被対象基板16の高さを測定する高さ測定器(図示せず)とが設置されている。位置モニタ用測長器は、ステージ18等の位置を測定し、その結果を全体制御部107に転送する。また、ステージ18の駆動系も全体制御部107によって制御される。従って、全体制御部107は、これらのデータに基いて電子線22が照射されている領域や位置が正確に把握できるようになっている。さらに、メモリ部104には、光学的な外観検査装置(異物検査装置またはパターン検査装置)で検査された異物や配線パターン欠陥などの様々な欠陥が存在する被対象基板(教示用基板も含む)についての欠陥の概略位置座標(概略位置データ)が記憶されている。従って、光学的な外観検査装置(異物検査装置またはパターン検査装置)で検査された異物や配線パターン欠陥などの様々な欠陥が存在する被対象基板16がステージ18上に載置されると、全体制御部107はメモリ部104に記憶された欠陥の概略位置データと位置モニタ用測長器で測定されるステージ18等の位置座標とに基いてステージ18を制御することによって電子線22が照射される領域(視野)内に欠陥を位置決めすることができる。
【0031】
高さ測定器は、光学式測定器等が使用されてステージ18上に載置された被対象基板(教示用基板も含む)16の高さを測定するものである。そして、高さ測定器で測定された高さデータに基いて、電子線を細く絞るための対物レンズ14の焦点距離がダイナミックに補正され、常に観察領域に焦点のあった状態で電子線が照射できるようになっている。
【0032】
電子銃11を出た電子ビームは、コンデンサレンズ12、対物レンズ14を経て、試料面では画素サイズ程度のビーム径に絞られる。この際、グランド電極15、リターディング電極17によって、試料16に負電位を印加し、対物レンズ14と被対象基板16との間で電子ビームを減速することで低加速電圧領域での高分解能化を図る。電子線22が照射されると、被対象基板(半導体ウエハ)16からは電子が発生する。走査偏向器13による電子線22のX方向の繰り返し走査と、ステージ18による被対象基板16のY方向の連続的な移動に同期して被対象基板から発生する電子を検出することで、被対象基板の2次元の高精細な電子線像が得られる。被対象基板から発生した電子は、電子検出器20で捕らえられ、アンプ21で増幅される。ここで、走査偏向器13としては、偏向速度の速い静電偏向器を用いるとよい。また、電子銃11としては、電子ビーム電流を大きくできて照射時間を短くできる熱電界放射型電子銃を用いるのがよい。また、電子検出器20には、高速駆動可能な半導体検出器を用いるのがよい。
【0033】
画像取り出し部30は、主としてA/D変換器31と、前処理回路32とによって構成される。そして、電子検出器20で検出された電子検出信号は、アンプ21で増幅され、A/D変換器31によりデジタル画像データ(階調画像データ)に変換される。この変換されたデジタル画像データは、例えば伝送手段(光ファイバケーブル)により伝送され、前処理回路32に入力される。前処理回路32では、暗レベル補正、電子線の揺らぎ補正、およびシェーディング補正等が行われ、さらにフィルタリング処理を行って画質を改善する。
【0034】
以上説明したように、SEM装置101aにおいて、様々な製造プロセスから得られ、サイズや状態の異なる様々な微小欠陥が存在する被対象基板(教示用基板も含む)16が、ステージ18上に載置することによって、微小欠陥が電子線22が照射される領域(視野)内に位置決めされ、該欠陥の電子線画像による高精細な外観画像が取得され、バス109を介してメモリ部104に蓄積されることになる。
【0035】
次に、予め教示用として画像取得部101で取得してメモリ部104に蓄積した教示用の様々な微小欠陥の高精細な外観画像を基に、製造プロセスの状態を自動的に判定するための教示用データを作成し、この作成された教示用データを基に、画像取得部101で取得されてメモリ部104に記憶された製造プロセス状態判定分類用(欠陥カテゴリー分類用)の様々な微小欠陥の高精細な外観画像について製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定することについて説明する。
【0036】
画像表示部102は、SEMや光学顕微鏡等の画像取得部101で取得され、画像メモリ等からなるメモリ部104に蓄積された(記憶された)教示用および、製造プロセス状態判定分類用(欠陥カテゴリー分類用)の半導体ウエハ等に発生した様々な欠陥の高精細な外観画像と、該欠陥のサイズを示すエッジ情報や欠陥の表面状態を示すテキスチャ、濃淡値、カラー(光学画像の場合は得られる。)等の欠陥の種類とを装置ユーザに対して表示するものである。入力手段103は、画像表示部102に表示したポインタを移動させるための情報等を装置ユーザが入力するためのものである。
【0037】
CPU等から構成された自動判定部105は、メモリ部104に蓄積された製造プロセス状態判定用(欠陥カテゴリー分類用)の各種の欠陥の高精細な外観画像に対して画像処理を施すことによって、製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定するものである。
【0038】
自動判定部105内の画像特徴量自動抽出部を有する教示部106は、製造プロセスの状態(特に欠陥の発生状態、即ち欠陥のカテゴリー)を自動的に判定するための教示データを作成するためのものである。
【0039】
以上説明したように、本発明に係る製造状態自動判定装置は、画像取得部101、画像表示部102、メモリ部104、自動判定部105、および入力手段103等を接続した全体制御部107等を、バス109を介して接続して構成される。全体制御部107は、画像取得部101、メモリ部104、画像表示部102、および自動判定部105の全体を制御するものである。
【0040】
次に、自動判定部105内の教示部106において、教示データを作成することについて図3を用いて説明する。まず、光学的な外観検査装置(異物検査装置またはパターン検査装置)で検査された異物や配線パターン欠陥などの様々な欠陥が存在する被対象基板を基に、教示用の外観画像として選ばれた様々な欠陥が存在する被対象基板16を投入し、図3に示すような教示用の外観画像を、画像取得部101で取得してメモリ部104に蓄積する。次に、全体制御部107は、入力手段103からの選択指令に基いて、メモリ部104に蓄積された教示用の外観画像から、所望のものを選択して画像表示部102に表示する。
【0041】
画像表示部102に表示された教示用の外観画像は、半導体の欠陥部201の拡大画像であり、暗くかつ細かいテクスチャを示す領域202が存在し、且つその周囲にサイズを示す明確な円状のエッジ203があることが特徴である。このように欠陥201は、異物や局所的なプロセスにおける異常によりある局所的な領域において異常が発生するが、その1個所の異物においてもさまざまな特徴(エッジ、濃淡値、テクスチャ、色等)の組み合わせにより構成されている。なお、特徴として色のデータは、SEM画像においては得られず、光学画像において得られるものである。特徴としてエッジ、濃淡値、テクスチャ等のデータについては、SEM画像および光学画像の両方において得られるものである。
【0042】
ところで、欠陥を特徴づける画像特徴量(エッジ、濃淡値、テクスチャ、色等の量)は、それぞれ単独ではその欠陥の性質(その欠陥のカテゴリー)を特徴づけることが困難であり、様々な画像特徴量を組み合わせることによりその欠陥の性質を特徴づけることが可能である。これは、それぞれの画像特徴量を要素とした多次元ベクトルにより欠陥を表現することにより実現される。ここで、n個の画像の特徴量があれば、ベクトルの次元数はnであり、多次元空間はn次元空間として表現される。n次元空間内におけるベクトルの位置関係(ベクトル関係)をもとに、その欠陥のカテゴリーを特定することにより、同一の性質をもつ欠陥ごとに分類することが可能となる。
【0043】
半導体の欠陥、および良品部分の外観は、半導体プロセスの変化によって異なってくる。このため、欠陥を特徴づける画像特徴を抽出するアルゴリズムはあらかじめ備えておくことができない。
【0044】
この課題を解決するため、本発明では、例えば図3に示す教示用の拡大外観画像に対して入力手段103等を用いてユーザが教示したそれぞれの欠陥の各局所的な部位の画像特徴を自動的に抽出し、抽出された画像特徴をそのカテゴリーの欠陥の特徴的な画像特徴としてその後取得画像部101で取得されてメモリ部104に記憶された分類用の外観画像(製造プロセス状態判定分類用(欠陥カテゴリー分類用)の各種の欠陥の高精細な外観画像)に対して判定する。
【0045】
装置ユーザは、画像表示手段102に表示された教示用の欠陥拡大画像を見て、該拡大画像におけるその欠陥の局所的な特徴を持つ部位を入力手段103を用いて入力する。CPU等から構成された自動判定部105内の画像特徴量自動抽出部を有する教示部106は、ユーザが入力手段103を用いて入力した拡大画像における欠陥部201の部位における画像特徴(エッジ、テキスチャ、濃淡値、色等)を自動的に抽出する(例えば、エッジについては細いものなのか太いものなのか、黒いものなのか白いものなのか、テキスチャについては粗いものなのか細かいものなのか、濃淡値については濃いものなのか淡いものなのか、カラーについてはどんな色なのか)とともに、各部位の相対的なn次空間における位置関係を求める。
【0046】
このように、ユーザが入力した部位における画像特徴を教示部106の画像特徴量自動抽出部において抽出する際に、ユーザがその画像特徴の概略(種類)をあらかじめ入力手段103等を用いて指定した方が教示部106の画像特徴量自動抽出部において画像特徴を抽出しやすい場合がある。これに対応するために、図1に示すように、全体制御部107は、自動判定部105内の記憶装置(図示せず)またはメモリ部104に記憶された予め既知である画像特徴の種類(エッジ、テキスチャ、濃淡値、色等)を画像表示部102に表示し、ユーザが欠陥部201に対して入力手段103を用いてポインタ等で指示することによって、画像特徴の種類を教示部106に対して入力することが可能となる。
【0047】
特に、SEMで取得した画像の場合、欠陥位置自体を特定することが困難である場合がある。その理由は、光学的な外観検査装置(異物検査装置またはパターン検査装置)で検査された被検査対象基板上の様々な欠陥の位置座標は、光学的な外観検査装置の座標系によって得られることから、光学的な外観検査装置で検査された欠陥の位置座標と、SEM画像取得部101aにおける高い倍率を有するSEM座標系との間において僅かなずれが生じてくるからである。従って、SEM画像取得部101aにおいて該画像取得部座標系で取得される画像を基に、欠陥位置自体を特定することが必要となる。そこで、SEM等の画像取得部101で取得され、画像表示部102に表示された教示用画像に対してユーザが欠陥の存在する領域(エッジで示される。)をポインタで指示することによって、教示部106は該指示された領域から信頼性の高い画像特徴(エッジ、テキスチャ、濃淡値、色等)を抽出することができる。
【0048】
次に、教示部106において、画像の特徴量(エッジ、テキスチャ、濃淡値、色等)を自動的に抽出する一実施例について、図4を用いて説明する。図4(b)に示す1205は、画像の特徴量によって形成される空間であり、n次元特徴空間である。n次元特徴空間の各軸は、それぞれ異なる画像の特徴量を表わす。一般に画像を分類するためには、予めわかっている分類するのに都合のよい画像特徴、例えば欠陥中心部付近のテキスチャ特徴の大きさ、などをこのn次元特徴空間の軸としている。しかし、半導体欠陥のようにプロセスによってその外観が大きく変化するものに対しては、予め分類するのに都合のよい画像特徴がわからないため、例えば画像の空間周波数などのように特定の対象に依存しないより汎用的な画像特徴をn次元特徴空間の軸とする。任意の画像はこのn次元特徴空間にマッピングされることが可能である。画像の周波数のような特徴をn次元空間の軸に選択した場合、たとえば図4(a)に示したテキスチャ特徴がこの空間のどのベクトル成分に対応するかを求めることで、n次元空間における画像特徴量の現われ方を抽出することが可能になる。
【0049】
今、教示部106において、画像のカテゴリーを教示するために、画像取得部101で取得されてメモリ部104に記憶された教示用の欠陥画像が図4(a)に示す1201である。この欠陥画像1201の外観特徴の一つであるテキスチャが、上記n次元特徴空間1205における現れ方を、テキスチャの無い画像が上記n次元特徴空間1205のどこにマッピングされるかを評価することによって求めることが可能である。1201で示す欠陥画像のテキスチャ部分にデジタル処理を加えて、テキスチャ部分の明るさ変動(明るさ変化)を順次少なくした3つの欠陥画像信号を生成する。1206は、欠陥画像1201が多次元特徴空間1205において表現された多次元ベクトルであり、テキスチャ部分の明るさ変動(明るさ変化)を順次少なくした3つの欠陥画像信号もそれぞれ、多次元特徴空間1205において1207、1208、1209とマッピングされることになる。このようにテキスチャの明るさ変動が無くなるに従って、1206から1209へとベクトルが変化する。即ち、この多次元特徴空間1205における欠陥画像1201のテキスチャに対応するベクトルは、教示部106においてベクトル1206から1209への変化を基に、求めることができる。
【0050】
このようにカテゴリーを教示する教示用の欠陥画像1201において、このテキスチャが特徴的な外観であるから、逆に言えば、テキスチャが無くなれば、この画像はテキスチャに対応するカテゴリーとはみなされなくなる。すなわち、教示しようとしている欠陥のカテゴリーにおいて、ベクトル1209とベクトル1206の差に対応するベクトル方向成分(図13に示す902)に対応する領域(図13に示す901)は狭いと推定できる。このようにして教示部106は、欠陥の外観特徴を基に、欠陥のカテゴリーのn次元特徴空間における領域を決定して教示することができる。さらに、この領域を正確に求めるためには、教示部106においてデジタル処理を加えた画像、即ち、テキスチャ部分の明るさ変動(明るさ変化)を順次少なくした3つの欠陥画像信号を画像表示部102に表示し、このカテゴリーとして許容可能な画像の範囲(テキスチャ部分の明るさ変動の許容できる範囲)をユーザに入力手段103を用いて特定させることが有効である。この場合には、ユーザが許容できる範囲(テキスチャ部分の明るさ変動を許容できる範囲)の欠陥画像を基に、n次元特徴空間における領域を決定可能であるため、正確にカテゴリーの領域(図13に示す901)を求めることが可能になる。教示部106は、ユーザの教示以外にも、同一カテゴリーの画像の多次元特徴空間における分布状態を基に、そのカテゴリーの領域を特定することも可能である。この手法としては、例えば最短距離法などよく知られているアルゴリズムを適用すれば良い。
【0051】
即ち、教示部106は、教示用の欠陥画像1201を基に図6に示す処理フローに基いてカテゴリーが教示できる。まず、教示部106は、ステップS601において、画像取得部101で取得されてメモリ部104に記憶された教示用の欠陥画像1201を画像表示部102に表示する。次に、ステップS602において、ユーザが入力手段103を用いて画像表示部102に表示された欠陥画像1201の特徴の位置、および特徴の種類(エッジ、テキスチャ、濃淡値、色等)を指示して入力して自動判定部105内の記憶装置602またはメモリ部104に記憶させる。さらに、ステップS603において、教示部106は、入力して記憶された欠陥画像1201に対して、デジタル画像処理により、ユーザが指定した特徴(エッジ、テキスチャ、濃淡値、色等)について弱めた欠陥画像を生成し、自動判定部105内の記憶装置602に記憶させる。次に、教示部106は、ステップS604において、この生成されたユーザが指定した特徴について弱めた欠陥画像を画像表示部102に表示し、ユーザが入力手段103を用いて同一カテゴリーと判断可能な特徴量の許容範囲を示す欠陥画像を指定し、該指定された同一カテゴリーと判断可能な特徴量の許容範囲を示す欠陥画像を入力して自動判定部105内の記憶装置602に記憶させる。次に、教示部106は、ステップS605において、欠陥画像1201、およびデジタル画像処理によって指定特徴について弱めて生成された欠陥画像を図4(b)に示すようにn次元特徴空間にマッピングし、次に、ステップS606において、n次元特徴空間におけるユーザが指定した特徴のベクトル成分を算出し、次に、ステップS607において、算出されたベクトル成分と、ユーザが指定した同一カテゴリーのデジタル処理生成画像を基にn次元特徴空間におけるカテゴリーの領域(図13に示す901)を決定し、自動判定部105内の記憶装置602に記憶させることによって教示データを取得することができる。
【0052】
このように、教示部106は、カテゴリーを教示する際、そのカテゴリーに属する欠陥画像を基に、n次元多次元特徴空間における、特徴的な外観に対応するベクトル(図13における902)を求め、さらにこのカテゴリーのn次元特徴空間における領域(図13に示す901)を決定する機能を果たす。
【0053】
一方、自動判定部105、即ち、図7に示す画像特徴抽出部301およびn次元空間分類部302は、カテゴリーを教示する際ではなく、未判定の分類用欠陥画像に対してカテゴリーを決定する際に機能する。ここで、画像特徴抽出部301は教示部106が行ったのと同じ手法により、未判定の欠陥画像をn次元特徴空間にマッピングする。実際のシステムでは、このことから、画像特徴抽出部301と教示部106の一部とを同一の手段(CPU)により実現することも可能である。n次元空間分類部302は、n次元特徴空間にマッピングされた未判定の分類用欠陥画像が、教示部106によって求められたn次元特徴空間における各欠陥のカテゴリーの領域のいずれに属するかを求めることによって、未判定の欠陥を分類する。例えば、n次元特徴空間は、図5に示すように各欠陥カテゴリーの分布が決定される。図5に示す1301はn次元特徴空間の模式図であり、1302はある欠陥カテゴリーAを示しており、1303はカテゴリーBを示している。n次元空間分類部302において、カテゴリーAにもBにも含まれない領域は、どちらのカテゴリーにも属さないと判定されるので、この場合、自動判定部105はユーザに対し、新たなカテゴリーを作成するか、あるいは既存のカテゴリーの領域を変更するかを、例えば画像表示部102に出力して問い合わせをおこなう。
【0054】
次に、自動判定部105について図7を用いてさらに詳細に説明する。画像特徴抽出部301は、教示部106における画像特徴量自動抽出部と同様に、製造プロセスの状態を自動的に判定するための様々な欠陥が存在する被対象基板16が投入されて、画像取得部101で取得されてメモリ部104に蓄積された未判定の分類用欠陥外観画像から複数のターゲットに依存しない汎用的な画像特徴、たとえば画像の空間周波数などを抽出し、未判定の分類用欠陥画像を多次元ベクトルとして表わすものである。ここで、画像の特徴量としてなるべく汎用的なものであれば空間周波数である必要はなく、たとえば画像をKL変換、離散コサイン変換、ウェーブレット変換した画像自体、あるいはそれを圧縮した画像自体を特徴量としてもよい。また、エッジやテキスチャ、色といった特徴でもよい。
【0055】
n次元空間分類部302は、画像特徴抽出部301から出力される複数の特徴(エッジ、テキスチャ、濃淡値、色等)を入力し、未判定の分類用欠陥画像をそれぞれのカテゴリー毎に分類する。一般にn次元特徴空間における分類においては、複数のそのカテゴリーに属する欠陥サンプル画像より求めたn次元ベクトルの分布(図5に示す1302、1303:図13に示す901)をもとに、主成分分析の手法によりn次元空間中におけるそのカテゴリーの存在範囲が決定される。しかし、この手法は1つのカテゴリーに属する欠陥に関し、数多くのバリエーションをもつサンプル画像が入手できない場合には正確なカテゴリーの存在範囲を決定することが困難である。
【0056】
本発明では、教示部106が出力した欠陥画像の特徴のn次元特徴空間におけるベクトル成分(図13に示す902)を求め、そのカテゴリーに特徴的な画像特徴が示すベクトルにおいてはその成分の分散が小さくなるという規則と、それとともにそのカテゴリーに属すサンプル画像の分布状態をもとにカテゴリーの範囲(図13に示す901)を決定することにより、サンプル画像数が少ない場合にも正確な存在範囲を決定することが可能である。
【0057】
教示部106は、ユーザからの入力によって、局所的な画像特徴の解析を行うが、ユーザが入力した部位の画像特徴のみから、画像取得部101で取得された様々な欠陥画像についてその複雑な形状の欠陥に対してカテゴリーの分類を実現することは困難であり、局所的な部位だけではなく、欠陥部全体の外観をもとにしたカテゴリーの分類が必要となる。
【0058】
ところで、製造プロセスや設計ルールの変更に伴って欠陥および良品部の画像は大きく変化する場合がある。既に述べたように、自動判定部105は、教示部106にてカテゴリーに属する欠陥画像を基に、n次元空間分類部302においてn次元特徴空間におけるカテゴリーの領域を決定する。しかし、画像特徴抽出部301において、欠陥の特徴に関する情報が欠落してしまったとしたら、教示部106においていくら教示したとしても欠陥を分類できない恐れがある。特に半導体欠陥の場合には、その後のプロセスの変更により、未知の複雑な形状をした欠陥が発生する可能性が高い。未知の欠陥に対して画像特徴抽出部301のアルゴリズムを変更すること無く、教示のみで正確な分類を実現させるためには、情報を欠落させること無しに欠陥画像の特徴を画像特徴抽出部301からn次元空間分類部302に入力させることが望ましい。
【0059】
しかし、画像特徴抽出部301で何も処理をしないまま画像を多次元ベクトルであらわし、n次元空間分類部302でn次元空間においてグループ分けすることは、位置に対する変動に対する弱さや莫大な計算量などの見地から不適切である。これを例をあげて説明する。
【0060】
画像の水平方向のサイズ、垂直方向のサイズをそれぞれM、Mとした場合、画像のピクセル数はMとMの積、Mの2乗個の要素によってあらわすことができる。このMM個の要素に1次元のインデックスをつけ、このそれぞれをベクトル要素とした多次元ベクトルで画像をあらわしたとする。画像を変数P[i][j]であらわし、多次元ベクトルをv[k]であらわす。画像に1本の水平方向の直線が存在していたとする。画像が8bit画像であるとし、直線の水平方向の位置が0ライン目であったとするとその画像は、次の(数1)式および(数2)式のようにあらわされる。
【0061】
P[0][j]=255 (数1)
P[I][j]=0 (数2)
但し、jはM未満の任意の数、Iは0以外のM未満の任意の数である。
【0062】
次に、直線が垂直方向に1画素分ずれたとする。このときの画像は次の(数3)式および(数4)式であらわされる。
【0063】
P[1][j]=255 (数3)
P[I][j]=0 (数4)
但し、jはM未満の任意の数、Iは1以外のM未満の任意の数である。
【0064】
次にこの垂直方向の直線が垂直方向であった場合を考える。画像の左端に存在する直線である場合、画像は次の(数5)式および(数6)式であらわされる。
【0065】
P[i][0]=255 (数5)
P[i][J]=0 (数6)
但し、iはM未満の任意の数、Jは0以外のM未満の任意の数である。
【0066】
ところで、(数1)および(数2)式、(数3)および(数4)式、並びに(数5)および(数6)式の各々から求めたベクトルをそれぞれv1、v2、v3というベクトルであらわすことによって、それぞれのベクトルの差dv2、dv3は、次の(数7)式および(数8)によって求められる。
【0067】
dv2=|v1−v2|=√(512M) (数7)
dv3=|v1−v3|=√(510M) (数8)
すなわち、1画素しか離れていない水平直線の画像のベクトル間の距離dv2と水平と垂直という極めて異なった特徴を持つ画像のベクトル間の距離dv3では水平直線のベクトル間の距離の方が大きくなるという現象が発生してしまう。
【0068】
これは、極めて似通った特徴を持つ画像をあらわす特徴同士がn次元空間内においてまったく異なった位置にマッピングされてしまうことを意味しており、画像特徴の近さによって正規分布することを期待することは不可能であることを意味している。すなわち、グループ分けの計算は極めて複雑になってしまい現実的では無くなってしまう。
【0069】
この問題を解決するためには、図8に示す基底変換部402におけるフーリエ変換、ウェーブレット変換などの基底変換が効果を発揮する。画像をフーリエ変換した場合、適切な窓関数とともに用いれば、画像の位置ずれは周波数スペクトルには影響を与えず、位置ずれは連続的な位相の変化としてあらわれる。このため、欠陥画像そのままを扱うよりもグループを正規分布に近い形で扱うことが可能になる。計算量を少なくするためにはKL変換、離散コサイン変換、フーリエ変換による画像圧縮が有効である。離散コサイン変換、フーリエ変換による画像圧縮では、画像をあらわすスペクトルの分散が小さいものを情報が少ないものとして取り除く。フーリエ変換は、画像のずれに対しては強力であるが、欠陥画像のように形状がさまざまに変化する場合には対応ができない。
【0070】
この課題は、画像分割部401において、欠陥画像を局所領域ごとに分割することで対応可能である。
【0071】
このときの画像特徴抽出部301の構成を図8を用いて説明する。
【0072】
画像特徴抽出部301における画像分割部401は、未判定の欠陥画像を小領域(局所領域)ごとに分割し、基底変換部402は、小領域毎に分割された欠陥画像に対してフーリエ変換を行う。小領域は、それぞれオーバーラップ分をもって分割され、各オーバーラップ分にはそれぞれハミング窓のような窓関数をかける。十分なオーバーラップと適切な窓関数が設定されていれば、各小領域内のスペクトルは位置ずれに対して大きく変動しない。そこで、位置及び形状正規化部403内のばねマッチング部806において、それぞれの小領域がバネでつながったように一定範囲内で自由に移動可能とすることで異なった形状同士のマッチングにより形状の変化への対応が実現可能である。このように位置及び形状正規化部403において、小領域に分割された教示用画像を基準にして、小領域に分割された小領域ごとに、分類用画像を位置および形状について正規化することによって分類用画像の特徴量を教示用画像の特徴量に対して対応させることが可能となる。
【0073】
なお、画像分割部401で分割する小領域の大きさを、欠陥画像の検出倍率などにより最適なサイズに変化させる必要がある。このため、画像分割部401は、分割する小領域のサイズを、図9に示すように、画像表示部102に表示してユーザが確認できるようにするのがよい。
【0074】
一般に、基底変換部402における基底変換は、エッジ抽出などの画像処理に比較して多くの計算を要する。
【0075】
本発明においては、自動判定部105において、画像取得部101で取得した未判定の分類用欠陥画像を、分類される可能性のある複数のカテゴリーの教示用画像と照合をとる必要がある。ここで、教示用画像は予め記憶装置に記憶されていることから、その度ごとに基底を変換する必要はなく、基底変換部605で基底変換した画像を記憶装置602に蓄積することにより、未判定の外観画像の分類において計算時間を短縮することが可能となる。
【0076】
図10に記憶装置602に教示用画像を記憶する場合の構成図を示す。教示用画像生成部601は、画像分割部401、および基底変換部402と同様に、画像取得部101で取得されてメモリ部104に記憶された教示用外観画像を画像分割部604において小領域ごとに分割し、さらに基底変換部605で基底変換を行う。教示用画像生成部601は、画像取得部101で取得した教示用画像そのもののみではなく、デジタル処理部603で該教示用画像に対し、大きさ(拡大、縮小)や回転、位置(平行移動)などをデジタル処理によって変化させたのちに、画像分割部604で小領域に分割し、基底変換部605で基底変換の処理を行うことも可能にする。
【0077】
これを図11を用いて説明する。701は取得した教示用画像である。フーリエ変換は一般に位置の変化を位相項の連続的な変化にすることを可能にするが、対象画像(分類用画像)が回転してしまった場合には対応することができない。また、分類用画像において、教示用画像に対して同じ特徴をもつ欠陥ではあるがそのサイズが大きく異なっていた場合にも、教示用画像に対する分類用画像の対応が困難になることが考えられる。これを解決するには、予め取得された教示用画像701よりサイズや回転角が異なった画像、すなわち702〜708に示すような画像を、デジタル処理部603におけるデジタル処理によって生成することで教示用画像を分類用画像に対応させることが可能となる。
【0078】
次に、位置及び形状正規化部403の構成を図12を用いて説明する。画像分割部401において、画像取得部101で取得された未判定の分類用画像を小領域ごとに分割し、基底変換部402において小領域ごとに分割した未判定の欠陥画像を基底変換した後、位置及び形状正規化部403に入力される。ここでは、基底変換としてフーリエ変換を例としてあげる。フーリエ変換された小領域同士の同一性のチェックは相関演算を行うことにより実現可能であるが、同一性を正確に行うためには位相算出部804で相対的な位相のずれを算出する必要があり、多くの計算を要する。この演算時間を短縮させるためには、まず、基底変換部402から得られる小領域からなる分類用画像をエッジ強調部801でエッジ(境界)を強調させ、基底変換部605から得られる小領域からなる教示用画像をエッジ強調部803でエッジ(境界)を強調させ、フーリエスペクトル比較部802において両者のフーリエスペクトルの分布状態を比較すれば良い。位相が変化した場合にもフーリエスペクトルは変化しない。このため、フーリエスペクトルの分布状態が、大きく異なっていればその小領域画像同士の画像は異なっていると判断することができる。
【0079】
基底変換部402、605においてフーリエ変換した画像は、そのまま適用すると位相ずれによって特徴画像どうしを同一のものとして扱えない場合がある。811から815、821から824を用いてこれを説明する。811から815、821から823の画像は、取得画像を小領域ごとに分割した画像の模式図である。811から815は、824の画像から切り出された画像であるが、それぞれ切り出し位置の違いにより異なった画像となっている。811から813は暗い領域と明るい領域の境界において切り出された画像であり、その境界は画像全体における特徴を示す可能性がある。このため、境界画像は同一のものとして扱うことが求められる。しかし、相関演算を行うと、811は813よりも814に、813は811よりも815と近いと判定され、期待していた同一性の判定をおこなうことができない。この課題は、エッジ強調部801および803において、画像の低周波数成分(エッジ以外の部分)のゲインを下げることにより対応することが可能である。811から813の低周波数成分のゲインを下げた画像を821から823に示す。低周波数成分のゲインを減らすことにより、境界を含む画像を同一のものとして判定することができる。
【0080】
この低周波数成分のゲインを減らす処理が、エッジ強調部801およびエッジ強調部803において実行される。
【0081】
次に、フーリエスペクトル比較部802において、低周波数成分のゲインを減らした分類用画像と教示用画像とについておおまかなスペクトルの比較を行い、スペクトル分布が大きく異なった場合は同一ではないと判定する。スペクトル分布が似通った画像が複数あった場合は、位相算出部804で2つの画像の位相差を求め、特徴同一性評価部805で特徴の同一性の評価を行う。
【0082】
ばねマッチング部806においては、特徴同一性評価部805から得られる各局所画像の同一性の評価結果とその配置関係をもとに分類用画像と教示用画像の同一性が評価される。即ち、ばねマッチング部806は、小領域からなる分類用画像と教示用画像とに基いて、各小領域同志の配置関係がばねでつながったように一定範囲内で自由に移動可能であるフレキシブルなマッチングにより、分離用画像と教示用画像との同一性を評価し、分類用画像が教示用画像に対して位置及び形状の正規化が行う。その結果、位置や形状に影響されること無く、n次元空間分類部302において、n次元空間内で特徴量の比較を行うことができるようになる。
【0083】
分類用画像に撮像されている注目すべき個所、たとえば欠陥部が分類用画像のどの位置に撮像されているかは一般には未知である。この場合には各画像における注目個所の位置の違いによって発生する教示用画像と分類用画像の対応関係を変化させながら同一性の評価を行うことで位置ずれに対応させることが可能である。半導体の製造状態を判定する装置においては、一般に欠陥個所を特定するために良品の画像と欠陥画像の差画像を計算し、位置を特定することが一般的であるが、本手法により差画像なしでの解析が可能である。また、従来と同様に差画像を用いる欠陥位置の特定も可能である。
【0084】
各小領域の同一性は、画像全体としての同一性の評価にあたり、それぞれが必ずしも同じだけの寄与をするわけではない。図1に示した入力手段103によりユーザが、教示用画像の画像特徴であると示した部位に対応する小領域の同一性を主として判断することにより、装置ユーザが特徴的外観として示した画像特徴をもつ教示用画像と同一であるとの評価がなされる。分類用画像と同じとされた教示用画像が複数存在した場合には局所画像の同一性の評価をもとに分類用画像の形状が教示用画像の形状をもとに正規化、すなわち、分類用画像と教示用画像の局所画像間の対応関係が求められる。このときにも、同一性を評価したときと同様に、装置ユーザが示した部位を含む小領域を主として小領域の対応関係を求めることで、装置ユーザが望む対応関係を得ることができる。
【0085】
即ち、半導体欠陥は、それぞれ形状が異なっている。例えば、図15に示すように教示用画像と分類用画像とが異なる画像であっても、同一のカテゴリーに分類する必要がある。分離用画像のA部と教示用画像のB部は、同じ局所的な特徴を持つが、欠陥の形状がことなるために、画像のそれぞれ異なる位置に出現する。画像を分類する際には、異なる2つの画像においてまったく異なる位置に特徴が表われた場合、異なるカテゴリーに分類する必要がある。また、全体的な形状が大きく変化しない範囲で異なる位置に同じ特徴が表われた場合は、同じカテゴリーと考えられる。即ち、欠陥を分類するには、局所的に特徴が一致するのみではなく、全体的に特徴が一致する必要がある。
【0086】
そこで、位置及び形状正規化部403において、位置及び形状の正規化をおこなうことにより、上記課題を解決することができる。分類用画像および教示用画像を画像分割部401、604で小領域ごとに分割し、基底変換部402、605から得られる小領域ごとの特徴量をもとに位置合わせすることにより、全体形状が大きく変化しない範囲で特徴の出現する位置が異なっていた場合にも、同じ特徴を持つ同志を比較することが可能となる。
【0087】
このように教示用画像自体を持つことにより、教示用画像を基準にした欠陥の位置および形状の正規化を実現できるため、その後のカテゴリーの分類が容易になる。
【0088】
分類用画像は、それがどのカテゴリーの欠陥であるか予め知ることができない。このため、あらゆるカテゴリーの欠陥画像と照合し、それぞれの画像に対して最も画像がうまく対応する位置関係を求める必要がある。自動判定部105では、位置および形状の正規化という前処理を終了した後にカテゴリーごとにn次元特徴空間内で分類する。このとき、小領域ごとの特徴量をそれぞれ特徴空間の軸とする。n次元空間分類部302におけるn次元特徴空間内におけるカテゴリーの領域は、教示用画像を基に求めるが、教示用画像も画像分割部604で小領域ごとに分割された後に、例えば基底変換されて画像特徴量自動抽出部1061で特徴量が抽出され、多次元特徴ベクトル算出部1062でこの特徴空間内のベクトル902に変換される。次に、このベクトルをもとに、領域教示部1063においてその教示用画像が属するカテゴリーの領域901が決定される。
【0089】
教示用画像生成部601は基本的には教示用画像がn次元特徴空間のどこにプロットされるかを求めるために教示用画像を小領域に分割し、1つの欠陥画像から複数の欠陥画像を生成させ、少数の教示用画像から信頼性の高い分類が行えるよう、様々な状態(サイズ、回転など701〜708)の欠陥画像をデジタル処理により生成する。
【0090】
なお、予め、教示用画像を小領域に分割し、基底変換したものを記憶装置602に記憶しておけば、分類用画像を判定分類する際、教示用画像に対する基底変換にかかる時間を短縮することができる。
【0091】
ところで、各画像は、それぞれ周波数であらわされる特徴をもとに多次元ベクトルで表現可能である。各小領域が示す空間周波数をそれぞれ特徴量のベクトルとすることで、図13に示すように、多次元空間を形成することが可能である。あるカテゴリーに含まれる画像の特徴は、図13に示すように、このカテゴリーに属する教示用画像が示す特徴ベクトル902を中心とした楕円状の領域901に存在すると考えることができる。ここで、楕円状の領域901が示す主軸902は、楕円状の領域901が示すカテゴリーの多次元空間内における分散を示している。カテゴリーを示す領域901は、楕円で示されており、楕円のそれぞれの主軸902が特徴を示していると考えられる。902はユーザがこのカテゴリーの外観画像の特徴として示した部位を教示部106にて解析した画像特徴を多次元特徴空間において示したベクトルである。画像をグループ分けするに重要となる画像特徴は、すべてのそのカテゴリーに属する画像が持つであろう特徴と考えることができる。このため、そのカテゴリーが示す楕円901は、そのベクトル方向902に対して分散が小さいと考えることができる。装置ユーザが教示部106に何も入力しなかった場合、装置にはそのカテゴリーの分布に関する情報が与えられていないことになるため、カテゴリーを示す領域はすべてのベクトル方向で等しい距離、すなわち球となる。この場合には、n次元空間分類部302は、多次元特徴空間において分類する必要はなく、分類用画像と教示用画像の同一性が評価された段階で認識は終了することとなる。すなわち、装置ユーザは入力手段103に何も入力すること無しに分類することも可能である。このように、n次元空間分類部302は、画像特徴抽出部301によって図13に示すようなn次元特徴空間にマッピングされた未判定の分類用欠陥画像が、教示部106によって求められたn次元特徴空間における各欠陥のカテゴリーの領域のいずれに属するかを求めることによって、未判定の欠陥を分類する。
【0092】
教示用画像は、図11に示したように、検出した画像を変換して与える場合がある。たとえば参照画像をアファイン変換を用いて生成した場合、回転させる角度により教示用画像を連続的に変化させることができる。回転角に伴い、多次元空間において表される特徴量も連続的に変化する。しかし、この回転に伴う特徴量の変化を連続的に求めることは計算時間を多く要するため困難である。
【0093】
この課題は、検出画像より複数の離散的な角度の教示用画像を生成し、該教示用画像が示す特徴ベクトルを補間することにより解決可能である。たとえば図11において、画像の角度は701、702、703、704、701とそれぞれ順を追って変化している。すなわち、701から702の間の回転角は701で求めた特徴ベクトルと702で求めた特徴ベクトルにより補間するといった方法によりあらゆる角度の変化に対応させることが可能である。即ち、教示部106は、教示用画像において、入力手段103によって指定された局所的な部位における画像の特徴量を抽出し、この抽出された画像の特徴量を基に、複数の教示用画像の多次元特徴空間における多次元特徴ベクトルを算出し、この算出された多次元特徴空間における多次元特徴ベクトルを補間したベクトル軌跡を中心としたドーナツ状の空間領域を教示することができる。
【0094】
本システムを実際に半導体の製造現場にて適用するにあたっては、ユーザは指定した部位がもつ外観特徴を実際にシステムが認識しているかどうか確認する必要がある。これを実現するためには主として画像をグループ分けするのに用いられた画像特徴を確認するための表示が必要である。これは多次元空間における分散が小さいベクトル成分(分類用の外観画像の分類判定に寄与した主要な画像特徴量を抽出した画像)に対応する画像特徴を分類用画像に対してオーバレイで表示することで実現できる。これを図14を用いて説明する。図14において102は図1における画像表示部である。画像特徴量ベクトル画像変換部1001は、教示部106または分類部302から得られる図13における902が示す分散が小さいベクトル成分を、表示できる画像に変換する。902に示されるベクトル成分は教示用画像を用いて装置ユーザが特徴となる部位を示して算出されたものであり、分類用画像とは直接対応していないが、教示用画像と分類用画像との分割小領域画像間の対応関係は、位置及び形状正規化部403において既に求められている。そこで、画像位置変換部1002は、この対応関係をもとに画像特徴量ベクトル画像変換部1001が出力する画像の位置を補正することによって、分類用画像上に、該分類用画像に対応した分散が小さいベクトル成分902を画像でオーバレイ表示することができる。
【0095】
即ち、画像位置変換部1002より出力された画像は、装置が分類用画像に対して認識した画像特徴と考えることができる。これを分類用画像に対してオーバレイで表示することでユーザは装置の認識を直接確認することができる。このオーバレイでの表示はそれぞれの周波数スペクトルごとに色、マーク、テキスチャを変更させるなどの手法でユーザにわかりやすく表示させることができる。なお、ここでは周波数スペクトルとしたが、そのほかの画像特徴であっても多次元空間で表現される特徴であれば適用可能である。
【0096】
装置ユーザは、自動判定部105において正常に分類できなかった画像に対して正常な分類を教える必要がある。正常な分類を教える方法としては、その画像が属するカテゴリーを教える方法、図1に示す画像表示部102、および入力手段103で説明したように特徴的な画像特徴部位を示す方法、欠陥の属する領域を指定する方法が挙げられる。なお、単にカテゴリーを教える方法についてはここまででは説明していないが、その時に示された画像が新たな教示用画像となり、その教示用画像が示す多次元ベクトルを中心とした楕円近似された領域が、教示されたカテゴリーの画像が存在する新たな領域として設定されることになる。教示は装置が正常に分類できなかった画像には、必須の作業であるが分類可能であった画像に対しての必要性は低い。このため、ユーザが装置に教示するモードにおいては、装置が正常に分類できなかった可能性の高い画像から順番に画像を表示すると共に必要であったら教示を行うという方法がもっとも効果的である。
【0097】
自動判定部105が分類できたかどうかの判断を装置自身がおこなうことは一般には不可能であるが、その分類が正確である確実性を示す確信度を求めることは可能である。この確信度の算出の方法は複数挙げられるが、その代表的なものとしては多次元空間における分類用画像のベクトルともっとも分類用画像のベクトルに近かった教示用画像ベクトルとの距離があげられる。多次元空間中の距離が短かければ、分類用画像と教示用画像が似通った特徴を持つと判断可能であるが、その距離が長ければそれぞれの特徴が異なっていると判断可能である。よって、多次元空間における距離の逆数を確信度とすると、その値が大きければ正常に分類できたと判断することが可能である。ユーザが装置に教示するモードにおいては、教示部106が、画像表示部102に、この確信度が小さい画像を順に表示させ、ユーザが分類が間違っていると判断した場合に教示を行うようにすることで効率の良い教示を実現することができる。即ち、自動判定部105において分類判定する際の判定の確からしさを示す判定確信度を画像表示部102等の出力手段に出力することによって、分類できた確信度をユーザに知らせることができる。
【0098】
ここまでは本装置が半導体の製造状態を判定することを前提にして説明してきたが、他の画像処理に適用することも可能である。たとえば、はんだ検査装置の画像処理に適用した場合の実施例を図16を用いて説明する。はんだ検査においては画像よりリード、パッド、フィレット部を抽出することが必要である。このため、従来はトライアンドエラーで画像処理アルゴリズムを作っていた。新たなリード形状の部品がターゲットとして出現した場合、新たな画像特徴抽出アルゴリズムを付け加える必要が発生し、新規部品に容易に対応することはできなかった。本装置で説明した画像処理方式を用いることにより、新たなアルゴリズムを付加すること無しに対応させることが可能になる。例としてリード位置を認識する場合について説明する。1101〜1103は実装の違いにより異なった外観を持つはんだ付け部分を示しており、教示用画像として用いられる。1104〜1106はそれぞれリードを示している。リード境界部分の濃淡値の変化はプロセスによって大きく異なっている。ユーザは教示用画像において、リードの境界を教示する。はんだ検査装置はユーザが指定した領域を小領域ごとにオーバーラップを持って分割し、半導体の場合と同様に画像を基底変換する。リードの場合は教示用画像間の対応、すなわち、各教示用画像においてどの小領域がリードの右辺に対応し、どの小領域が左辺に対応するかという対応、が予めわかっている。このため、各教示用画像と分類用画像の比較ではなく、各教示用画像に含まれる小領域画像の組み合わせによって生成された画像と分類用画像とを比較よりリード位置の決定が可能である。いま、1110を分類用画像とする。分類用画像の左辺は1103の左辺と、1110の下辺は1102の下辺、1110の右辺は1103の右辺とほぼ同じ特徴を有する。分類用画像の位置の特定は左辺が1103、下辺が1102、右辺が1103として生成された画像との比較により実現される。このため、少数の教示用画像によって位置の特定を行うことが可能になる。
【0099】
【発明の効果】
本発明によれば、半導体の製造状態等を判定する外観画像分類装置およびその方法において、プロセスが変化した場合にも画像特徴抽出アルゴリズムを変更すること無く半導体等の欠陥を発生させる半導体等の製造状態(カテゴリー)を分類可能なように教示させることが可能になる効果を奏する。
【図面の簡単な説明】
【図1】本発明に係る外観画像分類装置の一実施例を示す簡略構成図である。
【図2】本発明に係る画像取得部の一実施例であるSEM装置を示す図である。
【図3】本発明が対象とする半導体欠陥の説明図である。
【図4】本発明に係る教示部において教示するための教示用画像と教示されるn次元特徴空間を示す図である。
【図5】本発明に係る教示部において教示されるn次元特徴空間における各カテゴリー領域を示す図である。
【図6】本発明に係る教示部において教示の仕方を説明するための図である。
【図7】図1に示す自動判定部の一実施例を示す簡略構成図である。
【図8】図7に示す画像特徴抽出部の簡略構成図である。
【図9】画像分割部における画像の分割方法を説明するための図である。
【図10】本発明に係る外観画像分類装置の他の一実施例を示す簡略構成図である。
【図11】図10に示す教示用画像生成部が生成する教示用画像群説明図である。
【図12】図10に示す位置及び形状正規化部を示す簡略構成図である。
【図13】本発明に係る多次元特徴空間において教示された特徴ベクトルとカテゴリーの領域とを説明するための図である。
【図14】本発明に係る分類判定において寄与した主要な画像特徴量を抽出した画像に対応する画像を分類用画像にオーバレイで表示する構成を示す図である。
【図15】分類用画像と教示用画像との間において形状が異なる欠陥画像を示した図である。
【図16】本発明が対象とするはんだ検査を説明する図である。
【符号の説明】
10…検出部、30…電子線画像取り出し部、101…画像取得部、101a…SEM装置、102…画像表示部、103…入力手段、104…メモリ部、105…自動判定部、106…教示部(画像特徴量自動抽出部)、107…全体制御部、109…バス、201…半導体欠陥部、202…テキスチャ部、203…エッジ部、301…画像特徴抽出部、302…n次元空間分類部、401、604…画像分割部、402、605…基底変換部、403…位置及び形状正規化部、601…教示用画像生成部、603…デジタル処理部、801、803…エッジ強調部、802…フーリエスペクトル比較部、804…位相算出部、805…特徴同一性評価部、806…ばねマッチング部、901…カテゴリーの領域、902…特徴ベクトル、1001…画像特徴量ベクトル画像変換部、1002…画像位置変換部、1061…画像特徴量自動抽出部、1062…多次元特徴ベクトル算出部、1063…領域教示部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for automatically classifying and determining a semiconductor manufacturing state and the like, and in particular, an external image classification apparatus for acquiring an external image of a semiconductor and the like and determining the semiconductor manufacturing state and the like by recognizing the external image and the like It relates to that method.
[0002]
[Prior art]
As an apparatus for acquiring a semiconductor image and determining the semiconductor manufacturing state by recognizing the appearance image, for example, as disclosed in Japanese Patent Application Laid-Open No. 07-201946, classification is performed to correct a defect classification result. Means for teaching the results and the results of defect classification are visually presented to the worker, so that the worker can confirm each information of the defect classification result and related information, and change or add new information. There has been an apparatus for updating the interpretation of the feature quantity of the corresponding defect based on the classification result taught by the unit having means for enabling the above.
[0003]
[Problems to be solved by the invention]
However, the above-mentioned conventional technology has already determined an image extraction algorithm for extracting image features of defects, and can cope with changes in the appearance of non-defective products and defects due to changes in the semiconductor manufacturing process and semiconductor designs. was difficult. In the prior art described above, a plurality of image feature extraction algorithms are incorporated in the apparatus in advance, and the defect is determined by changing the interpretation of the output result of the image feature extraction algorithm based on the user's instruction. However, in the semiconductor manufacturing process, the characteristics of defects and the characteristics of non-defective parts change due to differences in the manufacturing process, so the image feature extraction algorithm that was initially sufficient due to the process change determines the subsequent manufacturing state. In some cases, it was impossible to extract image features sufficient for. Therefore, there is a problem that it is difficult to cope with a new process without developing an algorithm for newly extracting an image feature amount.
[0004]
An object of the present invention is to solve the above-mentioned problem, and can classify a manufacturing state (category) of a semiconductor or the like that causes a defect such as a semiconductor without changing an image feature extraction algorithm even when a process is changed. An object of the present invention is to provide an appearance image classification apparatus and method.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of an object, and a teaching and classification appearance image acquired by the image acquisition unit. A memory unit for storing, an image display unit for displaying an external appearance image for teaching stored in the memory unit, and a local part showing a characteristic external appearance in the external appearance image for teaching displayed by the image display unit An input means for designating and inputting the image, and a feature amount of the image at the local part designated by the input means is extracted, and classification determination is made based on the extracted feature quantity of the image at the local part A teaching unit that teaches a determination criterion, and a state of the appearance image with respect to the classification appearance image acquired by the image acquisition unit and stored in the memory unit based on the determination condition taught by the teaching unit. A determination unit for determining classification It is an external image classification apparatus according to claim.
[0006]
Further, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of the object, a memory unit that stores the teaching and classification appearance images acquired by the image acquisition unit, An image display unit for displaying a teaching appearance image stored in the memory unit, and a local part showing a characteristic appearance in the teaching appearance image displayed in the image display unit is designated, An input means for inputting the type of image feature in the specific part, and an image feature amount corresponding to the type of image feature input by the input means in the local part specified by the input means A teaching unit that teaches a determination condition for classification determination based on the extracted feature amount of an image at a local site, and the image acquisition unit that is acquired based on the determination condition taught by the teaching unit. Minutes stored in the memory An external image classification apparatus being characterized in that a classification determination unit for determining status of the external appearance image to look image use.
[0007]
In the image display unit of the appearance image classification device, the image feature type may be displayed so that the input feature type can be input on the screen by the input unit. Features. Further, according to the present invention, the input unit of the appearance image classification device is configured to be able to input at least one of an edge, a gray value, a texture, and a color as the type of image feature in the local region to be input. It is characterized by that.
[0008]
Further, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of the object, a memory unit that stores the teaching and classification appearance images acquired by the image acquisition unit, An image display unit for displaying a teaching appearance image stored in the memory unit, and a local part indicating a characteristic appearance in the teaching appearance image displayed on the image display unit is designated and input. Extracting the feature quantity of the image at the input part and the local part specified by the input means, calculating the feature vector in the multidimensional feature space based on the feature quantity of the extracted image, A teaching unit for teaching a region for classification determination in a multidimensional feature space from a feature vector, and a multidimensional vector in a multidimensional feature space from an appearance image for classification acquired by the image acquisition unit and stored in a memory unit By extracting the feature amount of the displayed image and mapping the feature amount of the image expressed by the extracted multidimensional vector to the multidimensional feature space, the appearance is determined from the relationship taught by the teaching unit. An appearance image classification apparatus and method including a determination unit that classifies and determines the state of an image.
[0009]
In the present invention, the determination unit of the appearance image classification apparatus includes a basis conversion unit that performs basis conversion on the classification appearance image, and multidimensional features are obtained from the image subjected to basis conversion by the basis conversion unit. A feature is that the feature amount of an image represented by a multidimensional vector in space is extracted.
In the present invention, the determination unit of the appearance image classification apparatus includes a basis conversion unit that performs basis conversion on the classification appearance image and further compresses the base-changed image. The feature amount of the image represented by the multidimensional vector in the multidimensional feature space is extracted from the image that has been subjected to the base transformation and compressed by the method.
[0010]
Further, according to the present invention, the determination unit of the appearance image classification apparatus includes an image dividing unit that divides the appearance image for classification into local regions, and images for each local region divided by the image dividing unit are obtained. It is configured to input to the basis conversion unit.
[0011]
The teaching unit of the appearance image classification apparatus includes a basis conversion unit that performs basis conversion on the appearance image for teaching, and is obtained as an image subjected to basis conversion by the basis conversion unit. It is characterized in that the feature amount of the image corresponding to the local part designated by the input means is extracted from the feature amount.
The teaching unit of the appearance image classification apparatus further includes a basis conversion unit that performs basis conversion on the teaching appearance image and further compresses the base-changed image. The feature amount of the image corresponding to the local part designated by the input means is extracted from the feature amount obtained as a compressed image after being subjected to the base conversion in step (1).
[0012]
In the teaching unit of the appearance image classification apparatus, the teaching unit includes an image dividing unit that divides a teaching appearance image for each local region, and images for each local region divided by the image dividing unit are displayed. It is configured to input to the basis conversion unit.
[0013]
Further, the present invention is characterized in that the image dividing unit of the appearance image classification apparatus is configured to display an image for each divided local region on the image display unit.
In the teaching unit of the appearance image classification apparatus, the teaching unit corresponding to the classification image by performing at least one of translation, rotation, enlargement, and reduction on the teaching appearance image. It is characterized by having a teaching image generation part which generates the above-mentioned image.
[0014]
Further, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of the object, a memory unit that stores the teaching and classification appearance images acquired by the image acquisition unit, An image display unit for displaying a teaching appearance image stored in the memory unit, and a local part indicating a characteristic appearance in the teaching appearance image displayed on the image display unit is designated and input. Extracting the feature quantity of the image in the input means and the local part specified by the input means, calculating a multidimensional feature vector in the multidimensional feature space based on the feature quantity of the extracted image, and calculating Image features from a teaching unit that teaches an elliptical spatial region centered on a multidimensional feature vector in the generated multidimensional feature space, and an appearance image for classification acquired by the image acquisition unit and stored in the memory unit Extract quantity When a multidimensional vector in a multidimensional feature space is calculated based on the extracted feature quantity of the image, and the calculated multidimensional vector exists in the elliptical space region taught by the teaching unit An appearance image classification apparatus and method including a determination unit that determines that the classification appearance image is in the same group as the teaching image.
[0015]
Further, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of the object, a memory unit that stores the teaching and classification appearance images acquired by the image acquisition unit, An image display unit for displaying a teaching appearance image stored in the memory unit, and a local part indicating a characteristic appearance in the teaching appearance image displayed on the image display unit is designated and input. And extracting the feature amount of the image at the local site designated by the input means, and a plurality of teaching appearance images in a multidimensional feature space based on the extracted feature amount of the image A multi-dimensional feature vector is calculated, a teaching unit that teaches a donut-shaped space area centered on a vector locus obtained by interpolating the multi-dimensional feature vector in the calculated multi-dimensional feature space, and acquired by the image acquisition unit The feature amount of the image is extracted from the appearance image for classification stored in the memory portion, the multidimensional vector in the multidimensional feature space is calculated based on the feature amount of the extracted image, and the calculated multidimensional vector Is included in an elliptical space region taught by the teaching unit, and includes a determination unit that determines that the classification appearance image is in the same group as the teaching image. An appearance image classification apparatus and method.
[0016]
Further, the present invention provides an image acquisition unit that acquires teaching and classification appearance images of the object, a memory unit that stores the teaching and classification appearance images acquired by the image acquisition unit, The teaching appearance image stored in the memory unit is divided for each teaching local area, the feature amount of the image for each divided teaching local area is extracted, and the extracted teaching image is used. The multidimensional feature vector in the multidimensional feature space is calculated based on the feature amount of the image for each local region of the group, and the classification of each group in the multidimensional feature space is determined from the calculated multidimensional feature vector in the multidimensional feature space. A teaching unit that teaches a region and a classification appearance image acquired by the image acquisition unit and stored in the memory unit, are divided for each local region, and the image is positioned for each of the divided local regions, and The appearance image state is classified based on the relationship with the regions of each group taught by the teaching unit by normalizing the shape and mapping the normalized feature amount of each local region to the multidimensional feature space. An appearance image classification apparatus and a method therefor characterized by including a determination unit for determination.
[0017]
Further, the present invention is characterized in that the feature amount of the image is extracted by a spectral distribution obtained by Fourier transforming the image in the teaching unit and the determination unit of the appearance image classification device and method thereof. To do.
Further, the present invention corresponds to an image obtained by extracting main image feature amounts contributing to the determination of the classification appearance image on the classification appearance image in the image display unit of the appearance image classification apparatus and method. The image to be displayed is displayed with an overlay.
In addition, the present invention is characterized by comprising output means for outputting a determination certainty factor indicating the certainty of the determination when the determination is performed by the determination unit of the appearance image classification apparatus and method.
[0018]
Further, the present invention acquires an appearance image for teaching about an object and stores it in a memory unit, displays the stored appearance image for teaching on an image display unit, and displays the displayed teaching image for teaching. A local part showing a characteristic appearance in the appearance image is designated, an image feature amount in the designated local part is extracted, and the image feature amount in the extracted local part is extracted. A teaching process for teaching a judgment criterion for classification;
An appearance image for classification of the object is acquired and stored in the memory unit, and the appearance image of the appearance image is stored based on the determination criterion taught in the teaching process. It is a method for classifying appearance images, comprising: a determination process for classifying and determining a state.
[0019]
Further, the present invention acquires an appearance image for teaching about an object and stores it in a memory unit, displays the stored appearance image for teaching on an image display unit, and displays the displayed teaching image for teaching. A local part showing a characteristic appearance in the appearance image is designated, and the type of the image feature in the local part is inputted, and the feature of the input image in the designated local part is inputted. Extracting the feature amount of the image according to the type, and teaching process for teaching the determination criterion for classification based on the extracted feature amount of the image in the local region,
An appearance image for classification of the object is acquired and stored in the memory unit, and the appearance image of the appearance image is stored based on the determination criterion taught in the teaching process. It is a method for classifying appearance images, comprising: a determination process for classifying and determining a state.
[0020]
Further, the present invention is characterized in that, in the appearance image device, a teaching image is stored in a state in which base conversion is performed.
Further, the present invention is configured such that, in the appearance image device, when performing base conversion and compression, compression is performed by degenerating a base that does not correspond to an image feature amount of a part having a target characteristic appearance. It is characterized by.
Further, according to the present invention, in the appearance image device, the determination unit can output a determination certainty factor indicating the certainty of determination when determining the manufacturing state of the target, and the determination unit using the output determination certainty factor as a key. The group of images processed in the above is ordered, and the group of images are displayed one by one or in a line in the order in which they are ordered.
[0021]
As described above, according to the above configuration, it is possible to classify the manufacturing state (category) of a semiconductor or the like that causes a semiconductor defect or the like without changing the image feature extraction algorithm even when the process changes.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing an embodiment of a manufacturing state automatic determination device that automatically determines a state of a manufacturing process (particularly, a defect occurrence state, that is, a defect category) based on an appearance image of a target substrate such as a semiconductor wafer according to the present invention. Will be described.
[0023]
FIG. 1 is a diagram showing a basic configuration of a manufacturing state automatic determination device according to the present invention.
[0024]
First, in order to automatically determine the state of the manufacturing process (particularly, the state of occurrence of defects, that is, the category of defects), foreign matter and wiring generated on a target substrate such as a semiconductor wafer manufactured by various manufacturing processes. As shown in FIG. 3, it is necessary to acquire a high-definition appearance image in the
[0025]
Therefore, as the
[0026]
By the way, in general, in a semiconductor production line, a foreign matter or a wiring pattern is applied to a target substrate such as a semiconductor wafer manufactured by various manufacturing processes by an optical appearance inspection device (foreign matter inspection device or pattern inspection device). Various minute defects such as defects are inspected, and if a defect exists, the approximate position coordinates of the defect are obtained and output in a coordinate system set based on the reference mark on the target substrate. It is like that. That is, when an optical appearance inspection apparatus (foreign particle inspection apparatus or pattern inspection apparatus) has a defect with respect to the inspected target substrate, the approximate position coordinates of the defect are usually output. It is configured.
[0027]
For this reason, the
[0028]
Therefore, the
[0029]
FIG. 2 shows an
[0030]
In the sample chamber, a sample table 23 on which a target substrate 16 (including a teaching substrate) for acquiring a high-definition appearance image is placed, and a
[0031]
The height measuring device measures the height of the target substrate 16 (including the teaching substrate) placed on the
[0032]
The electron beam exiting the
[0033]
The
[0034]
As described above, in the
[0035]
Next, the state of the manufacturing process is automatically determined based on high-definition appearance images of various minute defects for teaching acquired in advance by the
[0036]
The image display unit 102 is used for teaching and manufacturing process state determination classification (defect category) acquired (stored) in a memory unit 104 including an image memory and the like acquired by the
[0037]
An
[0038]
The
[0039]
As described above, the manufacturing state automatic determination device according to the present invention includes the
[0040]
Next, creation of teaching data in the
[0041]
The teaching appearance image displayed on the image display unit 102 is an enlarged image of the defective portion 201 of the semiconductor, and there is a region 202 showing a dark and fine texture, and a clear circular shape showing the size around it. The feature is that there is an edge 203. As described above, the defect 201 has an abnormality in a certain local region due to the foreign matter or an abnormality in the local process, but various characteristics (edge, gray value, texture, color, etc.) are also present in the single foreign matter. It consists of a combination. Note that color data as a feature is not obtained in the SEM image but is obtained in the optical image. Data such as edges, gray values, and textures as features are obtained in both SEM images and optical images.
[0042]
By the way, it is difficult to characterize the nature of the defect (category of the defect) for each image feature amount (amount of edge, gray value, texture, color, etc.) that characterizes the defect. By combining quantities, it is possible to characterize the nature of the defect. This is realized by expressing a defect by a multidimensional vector having each image feature amount as an element. Here, if there are n image feature quantities, the number of dimensions of the vector is n, and the multidimensional space is expressed as an n-dimensional space. By specifying the defect category based on the positional relationship (vector relationship) of the vectors in the n-dimensional space, it becomes possible to classify the defects by the same property.
[0043]
Defects in semiconductors and the appearance of non-defective parts vary with changes in semiconductor processes. For this reason, an algorithm for extracting image features that characterize defects cannot be prepared in advance.
[0044]
In order to solve this problem, in the present invention, for example, the image feature of each local part of each defect taught by the user using the input means 103 or the like is automatically applied to the enlarged external appearance image shown in FIG. And the extracted image feature as a characteristic image feature of the defect of the category, which is then acquired by the
[0045]
The apparatus user looks at the defect enlarged image for teaching displayed on the image display unit 102 and inputs a part having the local feature of the defect in the enlarged image using the input unit 103. The
[0046]
As described above, when the image feature in the part input by the user is extracted by the image feature amount automatic extraction unit of the
[0047]
In particular, in the case of an image acquired by SEM, it may be difficult to specify the defect position itself. The reason is that the position coordinates of various defects on the inspection target substrate inspected by the optical appearance inspection apparatus (foreign particle inspection apparatus or pattern inspection apparatus) are obtained by the coordinate system of the optical appearance inspection apparatus. This is because a slight deviation occurs between the position coordinates of the defect inspected by the optical appearance inspection apparatus and the SEM coordinate system having a high magnification in the SEM
[0048]
Next, an embodiment in which the
[0049]
A
[0050]
In this way, in the
[0051]
That is, the
[0052]
Thus, when teaching a category, the
[0053]
On the other hand, the
[0054]
Next, the
[0055]
The n-dimensional
[0056]
In the present invention, a vector component (902 shown in FIG. 13) in the n-dimensional feature space of the feature of the defect image output from the
[0057]
The
[0058]
By the way, the image of a defect and a non-defective part may change greatly with a change of a manufacturing process or a design rule. As described above, the
[0059]
However, if the image
[0060]
When the horizontal size and the vertical size of the image are M and M, respectively, the number of pixels of the image can be expressed by the product of M and M and the square of M. Assume that a one-dimensional index is attached to the MM elements, and an image is represented by a multidimensional vector in which each is a vector element. An image is represented by a variable P [i] [j], and a multidimensional vector is represented by v [k]. Assume that there is one horizontal straight line in the image. Assuming that the image is an 8-bit image and the horizontal position of the straight line is the 0th line, the image is expressed by the following equations (1) and (2).
[0061]
P [0] [j] = 255 (Equation 1)
P [I] [j] = 0 (Equation 2)
However, j is an arbitrary number less than M, and I is an arbitrary number less than M other than 0.
[0062]
Next, it is assumed that the straight line is shifted by one pixel in the vertical direction. The image at this time is expressed by the following formulas (3) and (4).
[0063]
P [1] [j] = 255 (Equation 3)
P [I] [j] = 0 (Equation 4)
However, j is an arbitrary number less than M, and I is an arbitrary number less than M other than 1.
[0064]
Next, consider the case where the vertical straight line is the vertical direction. In the case of a straight line existing at the left end of the image, the image is expressed by the following equations (5) and (6).
[0065]
P [i] [0] = 255 (Equation 5)
P [i] [J] = 0 (Equation 6)
However, i is an arbitrary number less than M, and J is an arbitrary number less than M other than 0.
[0066]
By the way, vectors obtained from the equations (Equation 1) and (Equation 2), (Equation 3) and (Equation 4), and (Equation 5) and (Equation 6) are vectors v1, v2, and v3, respectively. Thus, the differences dv2 and dv3 between the respective vectors are obtained by the following equations (7) and (8).
[0067]
dv2 = | v1-v2 | = √ (512M) (Equation 7)
dv3 = | v1-v3 | = √ (510M) (Equation 8)
That is, the distance dv2 between the vectors of the horizontal straight line image that is separated by only one pixel and the distance dv3 between the vectors of the image having very different characteristics such as the horizontal and vertical directions have a larger distance between the horizontal straight line vectors. The phenomenon will occur.
[0068]
This means that features representing images with very similar features are mapped to completely different positions in the n-dimensional space, and expects a normal distribution depending on the proximity of the image features. Means impossible. That is, the grouping calculation becomes extremely complicated and unrealistic.
[0069]
In order to solve this problem, base transform such as Fourier transform and wavelet transform in the
[0070]
This problem can be dealt with by dividing the defect image for each local region in the
[0071]
The configuration of the image
[0072]
The
[0073]
It is necessary to change the size of the small area divided by the
[0074]
In general, the base conversion in the
[0075]
In the present invention, it is necessary for the
[0076]
FIG. 10 shows a configuration diagram when a teaching image is stored in the
[0077]
This will be described with reference to FIG.
[0078]
Next, the configuration of the position and shape
[0079]
If the images subjected to the Fourier transform in the base transform
[0080]
The
[0081]
Next, in the Fourier
[0082]
In the spring matching unit 806, the identity between the classification image and the teaching image is evaluated based on the evaluation result of the identity of each local image obtained from the feature
[0083]
It is generally unknown where to be noted in the classification image, for example, in which position the defect portion is imaged in the classification image. In this case, it is possible to cope with the positional deviation by evaluating the identity while changing the correspondence between the teaching image and the classification image generated due to the difference in the position of the target portion in each image. In an apparatus for determining the manufacturing state of a semiconductor, it is common to calculate the difference image between a non-defective image and a defect image and specify the position in order to identify the defect location. Analysis is possible. Also, the defect position using the difference image can be specified as in the conventional case.
[0084]
The identity of each small region does not necessarily make the same contribution in evaluating the identity of the entire image. The image feature shown as a characteristic appearance by the apparatus user by mainly judging the identity of the small area corresponding to the part indicated as the image feature of the teaching image by the input means 103 shown in FIG. It is evaluated that it is the same as the teaching image having. If there are multiple teaching images that are the same as the classification image, the shape of the classification image is normalized based on the shape of the teaching image based on the evaluation of the identity of the local image, that is, the classification Correspondence between local images of the image for teaching and the image for teaching is obtained. At this time, as in the case where the identity is evaluated, the correspondence relationship desired by the device user can be obtained by mainly obtaining the correspondence relationship between the small regions including the region indicated by the device user.
[0085]
That is, the semiconductor defects have different shapes. For example, as shown in FIG. 15, even if the teaching image and the classification image are different images, it is necessary to classify them into the same category. The A portion of the separation image and the B portion of the teaching image have the same local characteristics, but appear at different positions in the image because of the different defect shapes. When classifying images, if features appear at completely different positions in two different images, they need to be classified into different categories. In addition, if the same feature appears at different positions within a range where the overall shape does not change significantly, it is considered to be the same category. That is, in order to classify defects, it is necessary not only to match the features locally but also to match the features as a whole.
[0086]
Therefore, the position and shape
[0087]
By having the teaching image itself in this way, it is possible to realize normalization of the position and shape of the defect with reference to the teaching image, so that subsequent classification of categories becomes easy.
[0088]
The classification image cannot know in advance which category of defect it is. For this reason, it is necessary to collate with defect images of all categories and obtain a positional relationship in which the images correspond best to each image. The
[0089]
The teaching
[0090]
In addition, if the teaching image is divided into small areas in advance and the basis conversion is stored in the
[0091]
By the way, each image can be expressed by a multidimensional vector based on the characteristics represented by the frequency. By using the spatial frequency indicated by each small region as a vector of feature amounts, a multidimensional space can be formed as shown in FIG. As shown in FIG. 13, the features of an image included in a certain category can be considered to exist in an elliptical region 901 centered on a feature vector 902 indicated by a teaching image belonging to this category. Here, the main axis 902 indicated by the elliptical region 901 indicates the dispersion of the category indicated by the elliptical region 901 in the multidimensional space. The area 901 indicating the category is indicated by an ellipse, and it is considered that each main axis 902 of the ellipse indicates a feature. Reference numeral 902 denotes a vector indicating, in a multidimensional feature space, an image feature obtained by analyzing the part indicated by the user as a feature of the appearance image of this category by the
[0092]
As shown in FIG. 11, the teaching image may be given by converting the detected image. For example, when the reference image is generated using affine transformation, the teaching image can be continuously changed depending on the rotation angle. With the rotation angle, the feature amount expressed in the multidimensional space also changes continuously. However, it is difficult to continuously obtain the change in the feature amount accompanying this rotation because it takes a lot of calculation time.
[0093]
This problem can be solved by generating teaching images having a plurality of discrete angles from the detected image and interpolating the feature vectors indicated by the teaching images. For example, in FIG. 11, the angles of the images change in order of 701, 702, 703, 704, and 701, respectively. That is, the rotation angle between 701 and 702 can be made to correspond to any angle change by a method of interpolating between the feature vector obtained in 701 and the feature vector obtained in 702. That is, the
[0094]
When the system is actually applied at a semiconductor manufacturing site, the user needs to confirm whether or not the system actually recognizes the appearance characteristics of the designated part. In order to realize this, a display for confirming the image feature used to group the images is necessary. This is to display the image features corresponding to the vector components with small variance in the multidimensional space (images extracted from the main image feature amounts that contributed to the classification judgment of the appearance image for classification) as an overlay on the classification images. Can be realized. This will be described with reference to FIG. In FIG. 14, reference numeral 102 denotes the image display unit in FIG. The image feature vector
[0095]
That is, the image output from the image
[0096]
The device user needs to teach normal classification for images that could not be normally classified by the
[0097]
Although it is generally impossible for the apparatus itself to determine whether or not the
[0098]
Up to this point, the present apparatus has been described on the assumption that the manufacturing state of the semiconductor is determined, but the present invention can also be applied to other image processing. For example, an embodiment when applied to image processing of a solder inspection apparatus will be described with reference to FIG. In solder inspection, it is necessary to extract leads, pads, and fillets from images. For this reason, conventionally, an image processing algorithm has been made by trial and error. When a new lead-shaped component appears as a target, it is necessary to add a new image feature extraction algorithm, and the new component cannot be easily handled. By using the image processing method described in the present apparatus, it is possible to cope with without adding a new algorithm. A case where the lead position is recognized will be described as an example.
[0099]
【The invention's effect】
According to the present invention, in an appearance image classification apparatus and method for determining a manufacturing state of a semiconductor and the like, the manufacturing of a semiconductor and the like that generates a defect such as a semiconductor without changing an image feature extraction algorithm even when the process changes There is an effect that the state (category) can be taught so that it can be classified.
[Brief description of the drawings]
FIG. 1 is a simplified configuration diagram showing an embodiment of an appearance image classification apparatus according to the present invention.
FIG. 2 is a diagram showing an SEM apparatus which is an embodiment of an image acquisition unit according to the present invention.
FIG. 3 is an explanatory diagram of a semiconductor defect targeted by the present invention.
FIG. 4 is a diagram showing a teaching image and an n-dimensional feature space taught in the teaching unit according to the present invention.
FIG. 5 is a diagram showing each category region in an n-dimensional feature space taught in a teaching unit according to the present invention.
FIG. 6 is a diagram for explaining a teaching method in a teaching unit according to the present invention.
FIG. 7 is a simplified configuration diagram showing an embodiment of the automatic determination unit shown in FIG. 1;
FIG. 8 is a simplified configuration diagram of the image feature extraction unit shown in FIG. 7;
FIG. 9 is a diagram for explaining an image dividing method in an image dividing unit;
FIG. 10 is a simplified configuration diagram showing another embodiment of the appearance image classification apparatus according to the present invention.
11 is an explanatory diagram of a teaching image group generated by the teaching image generation unit shown in FIG.
12 is a simplified configuration diagram showing a position and shape normalization unit shown in FIG. 10;
FIG. 13 is a diagram for explaining feature vectors and category regions taught in a multidimensional feature space according to the present invention.
FIG. 14 is a diagram illustrating a configuration in which an image corresponding to an image from which main image feature amounts contributing to classification determination according to the present invention are extracted is displayed as an overlay on the classification image.
FIG. 15 is a diagram showing defect images having different shapes between a classification image and a teaching image.
FIG. 16 is a diagram illustrating solder inspection targeted by the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (10)
該画像取得部で取得された教示用および分類用の様々な微小欠陥の高精細な外観画像を記憶するメモリ部と、
該メモリ部で記憶された教示用の様々な微小欠陥の高精細な外観画像を表示する画像表示部と、
該画像表示部で表示された教示用の様々な微小欠陥の高精細な外観画像における特徴的な外観を示す局所的な部位を指定して入力する入力手段と、
該入力手段によって指定された前記教示用の様々な微小欠陥の高精細な外観画像における特徴的な外観を示す局所的な部位における複数の組合せからなる画像特徴量を抽出し、この抽出された複数の組合せの各画像特徴量を要素にした多次元特徴空間における多次元ベクトルを算出し、この算出された複数の組合せの各画像特徴量を要素にした多次元ベクトルから多次元特徴空間における欠陥のカテゴリーを分類判定する領域を決定して教示する教示部と、
前記画像取得部で取得されてメモリ部に記憶された前記分類用の様々な微小欠陥の高精細な外観画像より多次元特徴空間における多次元ベクトルで現される複数の組合せからなる画像特徴量を抽出し、この抽出された多次元ベクトルで現される複数の組合せの各画像特徴量を多次元特徴空間にマッピングすることによって、前記教示部で教示された分類判定する領域との関係から欠陥のカテゴリーを分類判定する判定部とを備えたことを特徴とする外観画像分類装置。An SEM apparatus or an i-line or ultraviolet ray that acquires a high-definition appearance image of various micro defects for teaching and classification by inputting an object having various micro defects inspected by an optical visual inspection apparatus An image acquisition unit composed of an optical microscope using short wavelength light ,
A memory unit for storing high-definition appearance images of various minute defects for teaching and classification acquired by the image acquiring unit;
An image display unit for displaying high-definition appearance images of various minute defects for teaching stored in the memory unit;
An input means for designating and inputting a local part showing a characteristic appearance in a high-definition appearance image of various minute defects for teaching displayed on the image display unit;
Extracting an image feature amount consisting of a plurality of combinations in a local region showing a characteristic appearance in a high-definition appearance image of various minute defects for teaching specified by the input means, and extracting the plurality of extracted features A multidimensional vector in a multidimensional feature space using each image feature quantity of the combination of the elements is calculated, and the defect in the multidimensional feature space is calculated from the multidimensional vector using the calculated image feature quantities of the plurality of combinations as elements . A teaching unit for determining and teaching a region for classifying and determining a category ;
An image feature amount composed of a plurality of combinations represented by a multidimensional vector in a multidimensional feature space from a high-definition appearance image of various minute defects for classification acquired by the image acquisition unit and stored in a memory unit. By extracting and mapping each image feature amount of a plurality of combinations represented by the extracted multidimensional vector to a multidimensional feature space, the defect is determined from the relationship with the classification determination region taught by the teaching unit . An appearance image classification apparatus comprising: a determination unit that classifies and determines a category .
該画像取得過程でメモリ部に記憶された教示用の様々な微小欠陥の高精細な外観画像を画像表示部に表示し、該表示された教示用の様々な微小欠陥の高精細な外観画像における特徴的な外観を示す局所的な部位を指定し、該指定された局所的な部位における複数の組合せからなる画像特徴量を抽出し、この抽出された複数の組合せの各画像特徴量を要素にした多次元特徴空間における多次元ベクトルを算出し、この算出された複数の組合せの各画像特徴量を要素にした多次元ベクトルから多次元特徴空間における欠陥のカテゴリーを分類判定する領域を教示する教示過程と、
前記画像取得過程でメモリ部に記憶された分類用の様々な微小欠陥の高精細な外観画像より多次元特徴空間における多次元ベクトルで現される複数の組合せからなる画像特徴量を抽出し、この抽出された多次元ベクトルで現される複数の組合せの各画像特徴量を多次元特徴空間にマッピングすることによって、前記教示過程で教示された分類判定する領域との関係から欠陥のカテゴリーを分類判定する判定過程とを有することを特徴とする外観画像分類方法。 Various objects for teaching and classification using an SEM apparatus or an optical microscope using short-wavelength light such as i-line or ultraviolet light after an object having various micro defects inspected by an optical appearance inspection apparatus is input. An image acquisition process of acquiring a high-definition appearance image of a minute defect and storing it in a memory unit,
In the image acquisition process, high-definition appearance images of various minute defects for teaching stored in the memory unit are displayed on the image display unit, and in the displayed high-definition appearance images of various minute defects for teaching A local part showing a characteristic appearance is specified, an image feature quantity composed of a plurality of combinations in the specified local part is extracted, and each image feature quantity of the extracted plurality of combinations is used as an element. Teaching a region for determining and classifying a defect category in a multidimensional feature space from a multidimensional vector that uses each of the calculated image feature quantities of the plurality of combinations as an element Process,
Extracting image feature quantities consisting of a plurality of combinations represented by multidimensional vectors in a multidimensional feature space from high-definition appearance images of various minute defects for classification stored in the memory unit in the image acquisition process, By classifying the image feature quantities of multiple combinations represented by the extracted multidimensional vector into the multidimensional feature space, the defect category is classified and determined from the relationship with the classification and determination area taught in the teaching process. A method for classifying an appearance image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26545198A JP4267103B2 (en) | 1998-09-18 | 1998-09-18 | Appearance image classification apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26545198A JP4267103B2 (en) | 1998-09-18 | 1998-09-18 | Appearance image classification apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000099727A JP2000099727A (en) | 2000-04-07 |
JP4267103B2 true JP4267103B2 (en) | 2009-05-27 |
Family
ID=17417352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26545198A Expired - Fee Related JP4267103B2 (en) | 1998-09-18 | 1998-09-18 | Appearance image classification apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4267103B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4266920B2 (en) * | 2004-12-03 | 2009-05-27 | オリンパス株式会社 | Classification apparatus and classification method |
JP2006250776A (en) * | 2005-03-11 | 2006-09-21 | Meidensha Corp | Abrasion state measuring device of trolley line by image processing |
JP4772839B2 (en) | 2008-08-13 | 2011-09-14 | 株式会社エヌ・ティ・ティ・ドコモ | Image identification method and imaging apparatus |
JP5275017B2 (en) | 2008-12-25 | 2013-08-28 | 株式会社日立ハイテクノロジーズ | Defect inspection method and apparatus |
WO2014208575A1 (en) | 2013-06-28 | 2014-12-31 | 日本電気株式会社 | Video monitoring system, video processing device, video processing method, and video processing program |
KR101694337B1 (en) * | 2015-02-05 | 2017-01-09 | 동우 화인켐 주식회사 | Method for inspecting film |
US10810733B2 (en) | 2016-05-24 | 2020-10-20 | Hitachi High-Tech Corporation | Defect classification apparatus and defect classification method |
US9905394B1 (en) * | 2017-02-16 | 2018-02-27 | Carl Zeiss Microscopy Gmbh | Method for analyzing an object and a charged particle beam device for carrying out this method |
CN113594064B (en) * | 2021-07-15 | 2024-05-07 | 智新半导体有限公司 | Automatic chip grouping and packaging method and system based on machine learning |
CN116297531B (en) * | 2023-05-22 | 2023-08-01 | 中科慧远视觉技术(北京)有限公司 | Machine vision detection method, system, medium and equipment |
-
1998
- 1998-09-18 JP JP26545198A patent/JP4267103B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000099727A (en) | 2000-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8115169B2 (en) | Method and apparatus of pattern inspection and semiconductor inspection system using the same | |
US9811897B2 (en) | Defect observation method and defect observation device | |
US10297021B2 (en) | Defect quantification method, defect quantification device, and defect evaluation value display device | |
JP4603512B2 (en) | Abnormal region detection apparatus and abnormal region detection method | |
US8103087B2 (en) | Fault inspection method | |
US8090190B2 (en) | Method and apparatus for reviewing defects | |
US7424146B2 (en) | Defect inspection method | |
KR100532635B1 (en) | Image processing method for appearance inspection | |
WO2003021533A1 (en) | Color image segmentation in an object recognition system | |
KR100598381B1 (en) | in-line typed apparatus for auto wafer-defect classification and control method thereof | |
KR102680501B1 (en) | Image evaluation device and method | |
JP4728444B2 (en) | Abnormal region detection apparatus and abnormal region detection method | |
JP4267103B2 (en) | Appearance image classification apparatus and method | |
US7181060B2 (en) | Defect inspection method | |
US20220318975A1 (en) | Image Processing Program, Image Processing Device, and Image Processing Method | |
CN115272256A (en) | Sub-pixel level sensing optical fiber path Gaussian extraction method and system | |
JP2001188906A (en) | Method and device for automatic image calssification | |
CN118470015A (en) | Visual detection method and system for production quality of titanium alloy rod | |
JP2006113073A (en) | System and method for pattern defect inspection | |
JP3752849B2 (en) | Pattern defect inspection apparatus and pattern defect inspection method | |
JP3788586B2 (en) | Pattern inspection apparatus and method | |
CN116364569A (en) | Defect detection using computationally efficient segmentation methods | |
CN112598632B (en) | Appearance detection method and device for contact piece of crimping connector | |
Bourgeat et al. | Content-based segmentation of patterned wafer for automatic threshold determination | |
KR20220001125A (en) | Method and apparatus for detecting defects on substrate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050822 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090218 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |