DE112007002927B4 - Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm dafür - Google Patents

Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm dafür Download PDF

Info

Publication number
DE112007002927B4
DE112007002927B4 DE112007002927T DE112007002927T DE112007002927B4 DE 112007002927 B4 DE112007002927 B4 DE 112007002927B4 DE 112007002927 T DE112007002927 T DE 112007002927T DE 112007002927 T DE112007002927 T DE 112007002927T DE 112007002927 B4 DE112007002927 B4 DE 112007002927B4
Authority
DE
Germany
Prior art keywords
image
inspection target
error
subdivision
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112007002927T
Other languages
English (en)
Other versions
DE112007002927T5 (de
Inventor
Hiroshi Kawaragi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Publication of DE112007002927T5 publication Critical patent/DE112007002927T5/de
Application granted granted Critical
Publication of DE112007002927B4 publication Critical patent/DE112007002927B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Fehlerdetektionsvorrichtung, umfassend: eine Bildgebungseinheit (6) zum Erfassen eines Bildes einer Mikrostruktur mit einer ersten Vergrößerung, wobei die Mikrostruktur auf jedem der Dies (30) eines Halbleiterwafers (1) ausgebildet ist und wobei jeder der Dies (30) in mehrere erste Unterteilungsbereiche (71) aufgeteilt ist; eine Speichereinheit, in der die Bilder der ersten Unterteilungsbereiche (71) zusammen mit Informationen zur Identifizierung ihrer jeweiligen Position innerhalb des Dies (30) als erstes Prüfungszielbild gespeichert werden; eine Modellbilderzeugungseinheit, die ein erstes Modellbild als Mittelwertbild aus den Helligkeitsmittelwerten von an vergleichbaren Positionen innerhalb der jeweiligen ersten Unterteilungsbereiche (71) angeordneten Pixeln erzeugt; eine Detektionseinheit zur Erfassung eines Fehlers der Mikrostruktur in einem ersten Unterteilungsbereich (71) durch Vergleich des ersten Modellbildes mit dem ersten Prüfungszielbild an der ersten Position; eine Steuereinheit zum Steuern der Bildgebungseinheit (6), so dass die Bildgebungseinheit (6) mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, das Bild der Mikrostruktur...

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Fehlerdetektionsvorrichtung, die in der Lage ist, einen Fehler zu detektieren, wie etwa einen Fremdstoff, eine Fehlerstelle und dergleichen, indem eine Sichtprüfung einer Mikrostruktur, wie etwa eines MEMS (Micro Electro Mechanical Systems), durchgeführt wird, die auf einem Halbleiterwerfer gebildet ist, und betrifft auch ein Fehlerdetektionsverfahren, eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm zur Verwendung dafür.
  • Technischer Hintergrund
  • In letzter Zeit ziehen MEMS-Einrichtungen, die verschiedene Funktionen auf dem mechanischen, elektronischen, optischen und chemischen Gebiet integrieren, indem eine Mikrofertigungstechnologie oder dergleichen verwendet wird, die Aufmerksamkeit auf sich. Als Beispiele einer MEMS-Einrichtung, die bislang im praktischen Gebrauch war, gibt es verschiedene Sensoren, wie etwa einen Beschleunigungssensor, einen Drucksensor, einen Luftmassenstromsensor und dergleichen, die in einem Kraftfahrzeug oder einem medizinischen Gebiet verwendet werden. Im Besonderen werden MEMS-Einrichtungen auf einen Druckkopf, der in einem Tintenstrahldrucker verwendet wird, ein Mikrospiegelarray, das in einem Projektor vom Reflexionstyp verwendet wird, oder andere Aktoren angewandt. Abgesehen davon werden MEMS-Einrichtungen auch als beispielsweise ein Proteinanalyse-Chip (ein so genannter Protein-Chip), ein DNA-Analyse-Chip oder dergleichen, auf dem Gebiet der chemischen Synthese, Bioanalyse oder dergleichen verwendet.
  • Da indessen die MEMS-Einrichtungen sehr feine Mikrostrukturen sind, ist es wichtig, Fehler, wie etwa Fremdstoffe, Fehlerstellen oder dergleichen, die auf den äußeren Erscheinungsflächen der MEMS-Einrichtungen vorhanden sind, bei einem Fertigungsprozess davon zu detektieren. Herkömmlich ist eine Sichtprüfung der MEMS-Einrichtungen manuell unter Verwendung eines Mikroskops ausgeführt worden. Jedoch benötigt eine derartige Prüfung viel Zeit und kann einen Bestimmungsfehler bewirken, da die Prüfung mit bloßen Augen eines Prüfers ausgeführt wird.
  • Hier ist als ein Beispiel einer Technologie zur Automatisierung der Sichtprüfung in Patentdokument 1 ein Verfahren offenbart zum Bestimmen, ob ein Prüfungszielobjekt normal oder abnormal ist, durch Erfassen von Bildern mehrerer normaler Produkte unter Prüfungszielobjekten, indem z. B. eine CCD-(Charge Coupled Device)-Kamera oder dergleichen verwendet wird; Speichern derselben in einem Speicher als mehrere normale Produktbilder; Berechnen eines Mittelwertes und einer Standardabweichung von Helligkeitswerten von Pixeln an der gleichen Position auf den jeweiligen normalen Produktbildern nach dem Durchführen einer Positionsausrichtung jedes normalen Produktbildes; und anschließendes Vergleichen des berechneten Mittelwertes und der Standardabweichung des Helligkeitswerts mit einem Helligkeitswert jedes Pixels auf einem Bild eines Prüfungszielobjekts.
  • Ferner ist in Patentdokument 2 ein Verfahren zum Detektieren eines Musterfehlers bei einer Musterprüfung einer Leiterplatte, eines gedruckten Objekts oder dergleichen offenbart, wobei das Verfahren die Schritte umfasst: Erzeugen von Referenzbilddaten zur Verwendung als ein Standard von normalen Produkten mittels Erfassens von Bildern mehrerer Referenzmuster, Speichern der jeweiligen Referenzmusterbilder, Ausrichten der Position eines jeden jeweiligen Referenzmusters, Durchführen einer Berechnung zum Beschaffen eines Mittelwertes oder Medianwerts zwischen den jeweiligen Bilddaten für jedes Pixel, und Erzeugen der Referenzbilddaten, die als ein geeigneter Standard verwendet werden können, indem Daten mit hoher Abweichung oder abnormale Werte ausgeschlossen werden; und anschließendes Vergleichen der Referenzbilddaten mit Prüfungszielbilddaten.
    • Patentdokument 1: Japanisches offengelegtes Patent Veröffentlichungsnummer 2005-265661 (beispielsweise 1)
    • Patentdokument 2: Japanisches offengelegtes Patent Veröffentlichungsnummer H11-73513 (beispielsweise Absatz [0080])
    • Patentdokument 3: Japanisches offengelegtes Patent Veröffentlichungsnummer 2001-185591 (beispielsweise Absätze [0050]–[0053])
  • Offenbarung der Erfindung
  • Durch die Erfindung zu lösende Probleme
  • Jedoch werden in den Technologien, die in irgendeinem der Patentdokumente 1 und 2 offenbart sind, die normalen Produktbilddaten oder die Referenzbilddaten, die als die Prüfungskriterien verwendet werden (nachstehend werden sie als Modellbilddaten bezeichnet), auf der Basis von den Bildern erzeugt, die durch Fotografieren mehrerer normaler Produkte erfasst werden, was getrennt von den Prüfungszielbildern vorbereitet wird. Dementsprechend muss vor der Erzeugung der Modellbilddaten ein Prozess zum Bestimmen und Auswählen eines normalen Produkts durchgeführt werden, und da dieser Prozess von Hand durchgeführt werden muss, benötigt er viel Zeit und Aufwand. Bei der Prüfung der Mikrostrukturen, wie etwa der MEMS-Einrichtungen, in welchen eine sehr kleine Fehlerstelle oder ein sehr kleiner Fremdstoff als ein Fehler betrachtet wird, ist darüber hinaus das Herstellen eines absolut normalen Produkts (Modells) hinsichtlich der Wartung und Verwaltung von Modellbilddaten schwierig.
  • Außerdem werden in der in den Patentdokumenten 1 und 2 offenbarten Technologie die Bilder der Prüfungszielobjekte, wie etwa der Leiterplatten oder dergleichen, erfasst, während sie einzeln auf einem Tisch montiert sind. In dem Fall, dass es individuelle Schwankungen gibt, die aus einem Herstellungsprozess resultieren, gibt es somit in den jeweiligen Prüfungszielobjekten eine Wahrscheinlichkeit, dass solche individuellen Schwankungen fälschlicherweise als Fehler detektiert werden könnten, obwohl sie nicht wirklich Fehler sind, sondern individuelle Schwankungen, die aus einem Herstellungsprozess resultieren. Infolgedessen würde die Prüfungsgenauigkeit verschlechtert werden.
  • Abhängig von der Auflösung, wenn die Bilder der Prüfungszielobjekte erfasst werden, kann es darüber hinaus sein, dass ein winziger Fehler nicht aus den Bildern detektiert wird, was zu einem Versagen der Detektion des Fehlers führt, oder die Größe des Fehlers kann nicht genau erkannt werden. In dieser Hinsicht ist in Patentdokument 3 ein Verfahren zum Detektieren des Vorhandenseins oder Fehlens eines Fehlers offenbart, indem zunächst ein Bild geringer Vergrößerung eines Prüfungszielobjekts erfasst wird, und anschließend ein Bild hoher Vergrößerung eines Abschnittes, aus welchen ein Fehler detektiert wird, unter dem Prüfungszielobjekt erfasst wird, wodurch erfolgreich ein winziger Fehler detektiert werden kann, der sonst mit einer geringen Vergrößerung nicht zu finden wäre, und die genaue Größe des Fehlers erfolgreich erkannt werden kann.
  • In der in Patentdokument 3 beschriebenen Technologie ist es jedoch unmöglich, die Art des Fehlers zu erkennen, obwohl ein Versagen bei der Detektion des Fehlers verhindert werden kann und die genaue Erkennung der Fehlergröße möglich ist. Selbst wenn ein Fehler detektiert wird, ist es dementsprechend unmöglich, zu bestimmen, ob ein derartiger Fehler behebbar ist oder nicht, oder die Ursache des Fehlers herauszufinden. Somit kann eine Nachbearbeitung nach der Fehlerdetektion nicht problemlos durchgeführt werden.
  • Im Hinblick auf das Vorstehende stellt die vorliegende Erfindung eine Fehlerdetektionsvorrichtung gemäß Anspruch 1 bereit, die in der Lage ist, einen Fehler einer MEMS-Einrichtung mit hoher Genauigkeit und hoher Effizienz ohne die Verwendung eines absoluten Modellbildes zu detektieren, und die auch in der Lage ist, die Art des Fehlers genau zu bestimmen; und sie stellt auch ein Fehlerdetektionsverfahren gemäß Anspruch 14 bereit. Bevorzugte Ausführungsformen und Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Mittel zum Lösen der Probleme
  • Gemäß einem Aspekt der vorliegenden Erfindung ist eine Fehlerdetektionsvorrichtung vorgesehen, umfassend: eine Bildgebungseinheit zum Erfassen mit einer ersten Vergrößerung eines Bildes einer Mikrostruktur, die auf jedem von mehreren Dies auf einem Halbleiterwafer gebildet ist, mit Bezug auf jeden ersten Unterteilungsbereich, der erhalten wird, indem jeder Die mehrfach unterteilt wird; eine Speichereinheit zum Speichern darin des Bildes jedes ersten Unterteilungsbereiches zusammen mit erster Identifikationsinformation zum Identifizieren einer Position jedes ersten Unterteilungsbereiches innerhalb jedes Dies als ein erstes Prüfungszielbild; eine Modellbilderzeugungseinheit zum Erzeugen eines Mittelwertbildes als ein erstes Modellbild für jede erste Identifikationsinformation, wobei das Mittelwertbild erhalten wird, indem unter den ersten Prüfungszielbildern der ersten Prüfungszielbilder von jeweiligen ersten Unterteilungsbereichen mit der entsprechenden ersten Identifikationsinformation über die Dies gebildet wird; eine Detektionseinheit zum Detektieren des Vorhandenseins oder Fehlens eines Fehlers der Mikrostruktur auf jedem ersten Unterteilungsbereich innerhalb eines der Dies, indem das erste Modellbild mit jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes verglichen wird; eine Steuereinheit zum Steuern der Bildgebungseinheit, so dass die Bildgebungseinheit mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, ein Bild der Mikrostruktur auf dem ersten Unterteilungsbereich, aus welchem der Fehler detektiert wird, und Mikrostrukturen auf jeweiligen ersten Unterteilungsbereichen innerhalb weiterer Dies entsprechend der ersten Identifikationsinformation des ersten Unterteilungsbereiches, aus welchem der Fehler detektiert wird, mit Bezug auf jeden zweiten Unterteilungsbereich, der erhalten wird, indem jeder erste Unterteilungsbereich mehrfach unterteilt wird, erfasst; zum Steuern der Speichereinheit, um darin das Bild jedes zweiten Unterteilungsbereiches zusammen mit zweiter Identifikationsinformation zum Identifizieren einer Position jedes zweiten Unterteilungsbereiches innerhalb jedes Dies als ein zweites Prüfungszielbild zu speichern; und zum Steuern der Modellbilderzeugungseinheit, um ein Mittelwertbild als ein zweites Modellbild für jede zweite Identifikationsinformation zu erzeugen, wobei das zweite Mittelwertbild erhalten wird, indem unter den zweiten Prüfungszielbildern der zweiten Prüfungszielbilder von jeweiligen zweiten Unterteilungsbereichen mit entsprechender zweiter Identifikationsinformation über die Dies gemittelt wird; und eine Fehlerklassifikationseinheit zum Bestimmen der Art des detektierten Fehlers, indem das zweite Modellbild mit jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes verglichen wird.
  • Hier bezieht sich die Mikrostruktur auf so genannte MEMS (Micro Electro Mechanical Systems oder mikroelektromechanische Systeme). Die Bildgebungseinheit ist beispielsweise eine Kamera, die mit einer Bildgebungseinrichtung, wie etwa einen CCD-Sensor (Sensor mit Charge Coupled Device oder einer ladungsgekoppelten Einrichtung), einen CMOS-Sensor (Complementary Metal Oxide Semiconductor sensor) oder dergleichen, versehen ist. Ferner umfassen die Arten der Fehler beispielsweise einen Fremdstoff, eine Fehlerstelle, einen Riss oder dergleichen.
  • Mit dieser Ausgestaltung ist es möglich, eine hochgenaue Sichtprüfung der Mikrostruktur durchzuführen, obwohl es schwierig ist, ein absolut normales Produktmodell (Probe) zur Erzeugung des Modellbildes auf der Basis des Bildes jedes Unterteilungsbereiches in dem Ziel der Prüfung zu erhalten.
  • Indem das Vorhandensein oder Fehlen des Fehlers auf der Basis des ersten Prüfungszielbildes detektiert wird, das mit der ersten Vergrößerung erfasst wird, und indem genau die Art des Fehlers auf der Basis des zweiten Prüfungszielbildes bestimmt wird, das mit der zweiten Vergrößerung, die höher als die erste Vergrößerung ist, erfasst wird, kann darüber hinaus eine Nachbearbeitung nach der Detektion problemlos abhängig von der Art des detektierten Fehlers durchgeführt werden.
  • In der Fehlerdetektionsvorrichtung kann die Speichereinheit darin Merkmalspunktdaten speichen, die jeden Merkmalspunkt von mehreren Arten von Fehlern angeben, die Detektionseinheit kann eine erste Differenzextraktionseinheit zum Extrahieren einer Differenz zwischen dem ersten Modellbild und jedem ersten Prüfungszielbild als ein erstes Differenzbild umfassen, und die Fehlerklassifikationseinheit kann eine zweite Differenzextraktionseinheit zum Extrahieren einer Differenz zwischen dem zweiten Modellbild und jedem zweiten Prüfungszielbild als ein zweites Differenzbild, eine Merkmalspunktextraktionseinheit zum Extrahieren eines Merkmalspunktes eines Fehlers in den extrahierten Differenzbildern und eine Klassifikationseinheit zum Bestimmen der Art des Fehlers umfassen, indem der extrahierte Merkmalspunkt mit den Merkmalspunktdaten verglichen wird.
  • Hier kann der Merkmalspunkt beispielsweise die Fläche des Fehlers, seine Umfangslänge, eine Nichtkreisförmigkeit, ein Querschnittsverhältnis oder dergleichen sein. Indem die Merkmalspunktdaten, die derartige Merkmalspunkte angeben, gespeichert werden, wird eine genaue Bestimmung des detektierten Fehlers erreicht.
  • In diesem Fall kann die Speichereinheit eine Einheit zum Aktualisieren der Merkmalspunktdaten auf der Basis des Merkmalspunktes, der von der Merkmalspunktextraktionseinheit extrahiert wird, umfassen.
  • Auf diese Weise kann durch wiederholtes Aktualisieren der Merkmalspunktdaten die Anzahl und die Art von Merkmalspunkten erhöht werden, und durch Lernen der Merkmalspunkte von Fehlern, jedes Mal dann, wenn die Detektion des Fehlers wiederholt wird, kann die Genauigkeit der Bestimmung des Fehlers verbessert werden.
  • In der Fehlerdetektionsvorrichtung kann die Steuereinheit eine Einheit zum Berechnen der Zahl von Pixeln, die der Fehler in dem ersten Differenzbild, der von der ersten Differenzextraktionseinheit detektiert wird, innerhalb des ersten Differenzbildes einnimmt, und zum Durchführen einer Bildaufnahme mit der zweiten Vergrößerung für jeden zweiten Unterteilungsbereich, wenn die Zahl von Pixeln kleiner als ein vorgegebener Wert ist, umfassen, und die Fehlerklassifikationseinheit kann die Art des Fehlers auf der Basis des ersten Differenzbildes bestimmen, wenn die Bildaufnahme mit der zweiten Vergrößerung nicht durchgeführt wird.
  • Auf diese Weise kann die Notwendigkeit der Bildaufnahme mit der zweiten Vergrößerung auf der Basis der Zahl von Pixeln, die der Fehler auf dem ersten Differenzbild einnimmt, bestimmt werden. In dem Fall, dass die Zahl von Pixeln des Fehlers groß genug für die Bestimmung des Fehlers ist, kann somit die Verarbeitungszeit und -last verringert werden, indem der Fehler auf der Basis des ersten Differenzbildes ohne die Bildaufnahme mit der zweiten Vergrößerung und eine Nachverarbeitung danach detektiert wird. Infolgedessen kann die Bestimmung des Fehlers effizienter ausgeführt werden.
  • In der Fehlerdetektionsvorrichtung kann die Modellbilderzeugungseinheit eine Einheit zum Berechnen eines Helligkeitsmittelwertes jedes Pixels, das jedes Prüfungszielbild mit der entsprechenden Identifikationsinformation bildet, umfassen.
  • Indem der Helligkeitsmittelwert für jedes Pixel jedes Prüfungszielbildes berechnet wird, kann auf diese Weise eine Ungleichmäßigkeit der jeweiligen Bilder effektiv kompensiert werden, so dass ein Modellbild mit hoher Qualität erzeugt und die Detektionsgenauigkeit verbessert werden kann.
  • In der Fehlerdetektionsvorrichtung kann die Bildgebungseinheit nacheinander die Bilder der Mikrostrukturen auf jeweiligen Unterteilungsbereichen mit der entsprechenden Identifikationsinformation über die Dies erfassen.
  • Indem die Unterteilungsbereiche auf der gleichen Position der jeweiligen Dies vorbestimmt werden und diese nacheinander erfasst werden, kann auf diese Weise das Modellbild jedes Unterteilungsbereiches effizient erzeugt werden, und die Prüfungseffizienz kann verbessert werden.
  • Nach dem Erfassen der Bilder der Mikrostrukturen in all den Unterteilungsbereichen auf einem Die kann ferner die Bildgebungseinheit die Bilder der Mikrostrukturen in jeweiligen Unterteilungsbereichen auf einem anderen Die benachbart zu dem einen Die erfassen.
  • Indem nacheinander das Bild jedes Unterteilungsbereiches an der gleichen Position der jeweiligen Dies erfasst wird, kann auf diese Weise das Modellbild jedes Unterteilungsbereiches effizient erzeugt werden, und die Prüfungseffizienz kann verbessert werden.
  • In der Fehlerdetektionsvorrichtung können die Mikrostrukturen Screening-Testträger sein, umfassend: mehrere Kavitäten, die jeweils eine aus einem Dünnfilm geformte Bodenfläche und darin eingebracht ein Reagens und einen Antikörper, der mit dem Reagens eine Kreuzreaktion zeigt, aufweisen; und mehrere Löcher, die in der Bodenfläche jeder Kavität vorgesehen sind, um das Reagens, das nicht mit dem Antikörper reagiert, auszutragen.
  • Hier kann der Träger ein Protein-Chip sein. Dementsprechend können beispielsweise ein Riss oder eine Fehlerstelle des Dünnfilms (Membran) des Protein-Chips oder ein Fremdstoff, der an dem Dünnfilm anhaftet, mit hoher Genauigkeit detektiert werden.
  • In diesem Fall kann vor dem Mitteln der ersten Prüfungszielbilder entsprechend der ersten Identifikationsinformation des ersten Modellbildes bzw. der zweiten Prüfungszielbilder entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes, die Modellbilderzeugungseinheit jeweilige Positionen des ersten und zweiten Prüfungszielbildes auf der Basis der Form jeder Kavität des Trägers auf dem ersten und zweiten Prüfungszielbild ausrichten.
  • Indem die Form jeder Kavität des Trägers verwendet wird, kann auf diese Weise eine überlappte Position der jeweiligen ersten und zweiten Prüfungszielbilder genau ausgerichtet werden, so dass das erste und zweite Modellbild mit höherer Qualität erzeugt werden können. Speziell wird darüber hinaus die Positionsausrichtung ausgeführt, indem die relative Position jedes Bildes mittels Bewegen jedes Bildes entlang der X- und Y-Richtungen oder Rotieren derselben entlang der θ-Richtung verändert wird.
  • In diesem Fall können darüber hinaus vor der Extraktion der Differenzen die erste und zweite Differenzextraktionseinheit Positionen des ersten Modellbildes und jedes ersten Prüfungszielbildes ausrichten, und Positionen des zweiten Modellbildes und jedes zweiten Prüfungszielbildes auf der Basis der Form jeder Kavität des Trägers auf dem ersten und zweiten Modellbild und der Form jeder Kavität auf jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes und jedes zweiten Prüfungszielbildes entsprechend mit der zweiten Identifikationsinformation des zweiten Modellbildes ausrichten.
  • Indem die Form jeder Kavität des Trägers verwendet wird, kann auf diese Weise eine überlappte Position des ersten und zweiten Prüfungszielbildes und des ersten und zweiten Modellbildes genau ausgerichtet werden, so dass der Fehler mit hoher Genauigkeit detektiert werden kann.
  • In der Fehlerdetektionsvorrichtung kann die Mikrostruktur eine Elektronenstrahl-Bestrahlungsplatte sein, die ein Plattenelement mit mehreren Fensterlöchern zum Bestrahlen von Elektronenstrahlen und einem Dünnfilm, der vorgesehen ist, um jedes Fensterloch abzudecken, umfasst.
  • Mit dieser Ausgestaltung kann beispielsweise ein Riss oder eine Fehlerstelle eines Dünnfilms (einer Membran) der Elektronenstrahl-Bestrahlungsplatte oder ein Fremdstoff, der an dem Dünnfilm anhaftet, mit hoher Genauigkeit detektiert werden.
  • In diesem Fall kann vor dem Mitteln der ersten Prüfungszielbilder entsprechend der ersten Identifikationsinformation des ersten Modellbildes und der zweiten Prüfungszielbilder entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes die Modellbilderzeugungseinheit jeweilige Positionen der ersten und zweiten Prüfungszielbilder auf der Basis der Form jedes Fensterlochs der Elektronenstrahl-Bestrahlungsplatte auf dem ersten und zweiten Prüfungszielbild ausrichten.
  • Indem die Form jedes Fensterloches der Elektronenstrahl-Bestrahlungsplatte verwendet wird, kann auf diese Weise eine überlappte Position des ersten und zweiten Prüfungszielbildes genau ausgerichtet werden, so dass ein erstes und zweites Modellbild mit hoher Qualität erhalten werden können.
  • Vor der Extraktion der Differenzen können die erste und zweite Differenzextraktionseinheit auf diese Weise darüber hinaus Positionen des ersten Modellbildes und jedes ersten Prüfungszielbildes ausrichten und Positionen des zweiten Modellbildes und jedes zweiten Prüfungszielbildes ausrichten, und zwar auf der Basis der Form jedes Fensterlochs der Elektronenstrahl-Bestrahlungsplatte auf dem ersten und zweiten Modellbild und der Form jedes Fensterlochs auf jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes und jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes.
  • Indem die Form jedes Fensterloches der Elektronenstrahl-Bestrahlungsplatte verwendet wird, kann auf diese Weise die gleiche Position des Prüfungszielbildes und des Modellbildes genau ausgerichtet werden, so dass der Fehler mit höherer Genauigkeit detektiert werden kann.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung ist ein Fehlerdetektionsverfahren vorgesehen, umfassend: Erfassen mit einer ersten Vergrößerung eines Bildes einer Mikrostruktur, die auf jedem von mehreren Dies auf einem Halbleiterwafer gebildet ist, mit Bezug auf jeden ersten Unterteilungsbereich, der erhalten wird, indem jeder Die mehrfach unterteilt wird; Speichern des Bildes jedes ersten Unterteilungsbereiches zusammen mit einer ersten Identifikationsinformation zum Identifizieren einer Position jedes ersten Unterteilungsbereiches innerhalb jedes Dies als ein erstes Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein erstes Modellbild für jede erste Identifikationsinformation, wobei das Mittelwertbild erhalten wird, indem unter den ersten Prüfungszielbildern die ersten Prüfungszielbilder von jeweiligen ersten Unterteilungsbereichen mit der entsprechenden ersten Identifikationsinformation über die Dies gemittelt werden; Detektieren des Vorhandenseins oder Fehlens eines Fehlers der Mikrostruktur auf jedem ersten Unterteilungsbereich innerhalb eines der Dies, indem das erste Modellbild mit jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes verglichen wird; Erfassen mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, eines Bildes der Mikrostruktur auf dem ersten Unterteilungsbereich, aus welchem der Fehler detektiert wird, und Mikrostrukturen auf jeweiligen ersten Unterteilungsbereichen innerhalb weiterer Dies entsprechend der ersten Identifikationsinformation des ersten Unterteilungsbereiches, aus welchem der Fehler detektiert wird, mit Bezug auf jeden zweiten Unterteilungsbereich, der erhalten wird, indem jeder erste Unterteilungsbereich mehrfach unterteilt wird; Speichern des Bildes jedes zweiten Unterteilungsbereiches zusammen mit zweiter Identifikationsinformation zum Identifizieren einer Position jedes zweiten Unterteilungsbereiches innerhalb jedes Dies als ein zweites Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein zweites Modellbild für jede zweite Identifikationsinformation, wobei das zweite Mittelwertbild erhalten wird, indem unter den zweiten Prüfungszielbildern die zweiten Prüfungszielbilder von jeweiligen zweiten Unterteilungsbereichen mit der entsprechenden zweiten Identifikationsinformation über die Dies gemittelt werden; und Bestimmen der Art des detektierten Fehlers, indem das zweite Modellbild mit jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes verglichen wird.
  • Es wird eine Informationsverarbeitungsvorrichtung beschrieben, umfassend: eine Speichereinheit zum Speichern darin eines erfassten Bildes mit einer ersten Vergrößerung einer Mikrostruktur, die auf jedem von mehreren Dies auf einem Halbleiterwafer gebildet ist, mit Bezug auf jeden ersten Unterteilungsbereich, der erhalten wird, indem jeder Die mehrfach unterteilt wird, zusammen mit erster Identifikationsinformation zum Identifizieren einer Position jedes ersten Unterteilungsbereiches innerhalb jedes Dies als ein erstes Prüfungszielbild; eine Modellbilderzeugungseinheit zum Erzeugen eines Mittelwertbildes als ein erstes Modellbild, wobei das Mittelwertbild erhalten wird, indem unter den ersten Prüfungszielbildern die ersten Prüfungszielbilder von jeweiligen ersten Unterteilungsbereichen mit der entsprechenden ersten Identifikationsinformation über die Dies gemittelt werden; eine Detektionseinheit zum Detektieren des Vorhandenseins oder Fehlens eines Fehlers der Mikrostruktur auf jedem ersten Unterteilungsbereich innerhalb eines der Dies, indem das erste Modellbild mit jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes verglichen wird; einer Steuereinheit zum Steuern der Speichereinheit, um darin erfasste Bilder mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, der Mikrostruktur auf dem ersten Unterteilungsbereich, aus welchem der Fehler detektiert wird, und Mikrostrukturen auf jeweiligen ersten Unterteilungsbereichen innerhalb weiterer Dies entsprechend der ersten Identifikationsinformation des ersten Unterteilungsbereiches, aus welchem der Fehler detektiert wird, mit Bezug auf jeden zweiten Unterteilungsbereich, der erhalten wird, indem jeder erste Unterteilungsbereich mehrfach unterteilt wird, zusammen mit zweiter Identifikationsinformation zum Identifizieren einer Position jedes zweiten Unterteilungsbereiches innerhalb jedes Dies als ein zweites Prüfungszielbild zu speichern, und zum Steuern der Modellbilderzeugungseinheit, um ein Mittelwertbild als zweites Modellbild für jede zweite Identifikationsinformation zu erzeugen, wobei das zweite Mittelwertbild erhalten wird, indem unter den zweiten Prüfungszielbildern die zweiten Prüfungszielbilder von jeweiligen zweiten Unterteilungsbereichen mit der entsprechenden zweiten Identifikationsinformation über die Dies gemittelt werden; und eine Fehlerklassifikationseinheit zum Bestimmen der Art des detektierten Fehlers, indem das zweite Modellbild mit jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes verglichen wird.
  • Hier kann die Informationsverarbeitungsvorrichtung beispielsweise ein Computer, wie etwa ein PC (Personal Computer), sein, oder sie kann ein so genannter Notebooktyp oder Desktoptyp sein.
  • Außerdem wird ein Informationsverarbeitungsverfahren beschrieben, umfassend: Speichern eines erfassten Bildes mit einer ersten Vergrößerung einer Mikrostruktur, die auf jedem von mehreren Dies auf einem Halbleiterwafer gebildet ist, mit Bezug auf jeden ersten Unterteilungsbereich, der erhalten wird, indem jeder Die mehrfach unterteilt wird, zusammen mit erster Identifikationsinformation zum Identifizieren einer Position jedes ersten Unterteilungsbereiches innerhalb jedes Dies als ein erstes Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein erstes Modellbild, wobei das Mittelwertbild erhalten wird, indem unter den ersten Prüfungszielbildern die ersten Prüfungszielbilder von jeweiligen ersten Unterteilungsbereichen mit der entsprechenden ersten Identifikationsinformation über die Dies gemittelt werden; Detektieren des Vorhandenseins oder Fehlens eines Fehlers der Mikrostruktur auf jedem ersten Unterteilungsbereich innerhalb eines der Dies, indem das erste Modellbild mit jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes verglichen wird; Speichern erfasster Bilder mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, der Mikrostruktur auf dem ersten Unterteilungsbereich, aus welchem der Fehler detektiert wird, und Mikrostrukturen auf jeweiligen ersten Unterteilungsbereichen innerhalb weiterer Dies entsprechend der ersten Identifikationsinformation des ersten Unterteilungsbereiches, aus welchem der Fehler detektiert wird, mit Bezug auf jeden zweiten Unterteilungsbereich, der erhalten wird, indem jeder erste Unterteilungsbereich mehrfach unterteilt wird, zusammen mit zweiter Identifikationsinformation zum Identifizieren einer Position jedes zweiten Unterteilungsbereiches innerhalb jedes Dies als ein zweites Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein zweites Modellbild für jede zweite Identifikationsinformation, wobei das zweite Mittelwertbild erhalten wird, indem unter den zweiten Prüfungszielbildern die zweiten Prüfungszielbilder von jeweiligen zweiten Unterteilungsbereichen mit der entsprechenden zweiten Identifikationsinformation über die Dies gemittelt werden; und Bestimmen der Art des detektierten Fehlers, indem das zweite Modellbild mit jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes verglichen wird.
  • Zudem wird ein Programm zum Ausführen einer Informationsverarbeitungsvorrichtung beschrieben, das die Prozesse umfasst: Speichern eines erfassten Bildes mit einer ersten Vergrößerung einer Mikrostruktur, die auf jedem von mehreren Dies auf einem Halbleiterwafer gebildet ist, mit Bezug auf jeden ersten Unterteilungsbereich, der erhalten wird, indem jeder Die mehrfach unterteilt wird, zusammen mit erster Identifikationsinformation zum Identifizieren einer Position jedes ersten Unterteilungsbereiches innerhalb jedes Dies als ein erstes Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein erstes Modellbild, wobei das Mittelwertbild erhalten wird, indem unter den ersten Prüfungszielbildern die ersten Prüfungszielbilder von jeweiligen ersten Unterteilungsbereichen mit der entsprechenden ersten Identifikationsinformation über die Dies gemittelt werden; Detektieren des Vorhandenseins oder Fehlens eines Fehlers der Mikrostruktur auf jedem ersten Unterteilungsbereich innerhalb eines der Dies, indem das erste Modellbild mit jedem ersten Prüfungszielbild entsprechend der ersten Identifikationsinformation des ersten Modellbildes verglichen wird; Speichern erfasster Bilder mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, der Mikrostruktur auf dem ersten Unterteilungsbereich, aus welchem der Fehler detektiert wird, und Mikrostrukturen auf jeweiligen ersten Unterteilungsbereichen innerhalb weiterer Dies entsprechend der ersten Identifikationsinformation des ersten Unterteilungsbereiches, aus welchem der Fehler detektiert wird, mit Bezug auf jeden zweiten Unterteilungsbereich, der erhalten wird, indem jeder erste Unterteilungsbereich mehrfach unterteilt wird, zusammen mit zweiter Identifikationsinformation zum Identifizieren einer Position jedes zweiten Unterteilungsbereiches innerhalb jedes Dies als ein zweites Prüfungszielbild; Erzeugen eines Mittelwertbildes als ein zweites Modellbild für jede zweite Identifikationsinformation, wobei das zweite Mittelwertbild erhalten wird, indem unter den zweiten Prüfungszielbildern die zweiten Prüfungszielbilder von jeweiligen zweiten Unterteilungsbereichen mit der entsprechenden zweiten Identifikationsinformation über die Dies gemittelt werden; und Bestimmen der Art des detektierten Fehlers, indem das zweite Modellbild mit jedem zweiten Prüfungszielbild entsprechend der zweiten Identifikationsinformation des zweiten Modellbildes verglichen wird.
  • Wirkung der Erfindung
  • Gemäß der vorliegenden Erfindung, wie sie oben beschrieben wurde, kann eine hochgenaue und effiziente Detektion eines Fehlers einer MEMS-Einrichtung implementiert werden, ohne ein absolutes Modellbild verwenden zu müssen, und die Art des Fehlers kann genau bestimmt werden.
  • Beste Ausführungsart der Erfindung
  • Nachstehend werden Ausführungsformen der vorliegenden Erfindung ausführlich anhand der begleitenden Zeichnungen beschrieben.
  • 1 ist eine Konfigurationsansicht einer Fehlerdetektionsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung. Wie es in 1 veranschaulicht ist, umfasst die Fehlerdetektionsvorrichtung 100 einen Wafertisch 2 zum Halten darauf beispielsweise eines Siliziumhalbleiterwafers 1 (nachstehend der Einfachheit halber als ein Wafer 1 bezeichnet); eine XYZ-Plattform 3 zum Bewegen des Wafertischs 2 entlang X-, Y- und Z-Richtungen der Figur; eine CCD-Kamera 6 zum Erfassen eines Bildes des Wafers 1 von oben; eine Lichtquelle 7 zum Beleuchten des Wafers 1, während die CCD-Kamera 6 das Bild erfasst; einen Bildverarbeitungs-PC (Personal Computer) 10 zum Steuern des Betriebs jeder Komponente und zum Durchführen einer Bildverarbeitung, die später beschrieben wird.
  • Der Wafer 1 wird auf dem Wafertisch 2 durch einen nicht dargestellten Überführungsarm oder dergleichen überführt und auf den Wafertisch 2 mittels beispielsweise einer Adsorptionseinheit, wie etwa eine nicht dargestellte Vakuumpumpe oder dergleichen, angezogen und darauf befestigt. Es kann gleichermaßen möglich sein, den Wafer 1 nicht auf den Wafertisch 2 direkt anzuziehen, sondern eine separate Schale (nicht gezeigt) vorzubereiten, die in der Lage ist, den Wafer 1 darauf zu halten, und die Schale stattdessen anzuziehen und zu halten, während der Wafer 1 auf der Schale gehalten wird. Wie es später beschrieben wird, kann es beispielsweise in dem Fall, dass Löcher in dem Wafer 1 gebildet sind, schwierig sein, den Wafer 1 durch Vakuum direkt anzuziehen. In einem solchen Fall wäre das Absorptionsverfahren unter Verwendung der Schale effektiv. An dem Wafer 1 ist ein Protein-Chip als eine MEMS-Einrichtung ausgebildet. Die Fehlerdetektionsvorrichtung 100 ist eine Vorrichtung zum Detektieren eines Fehlers, wie etwa eines Fremdstoffes oder einer Fehlerstelle, auf dem Protein-Chip, der ein Prüfungszielobjekt ist. Eine ausführliche Erläuterung des Protein-Chips wird später angegeben.
  • Die CCD-Kamera 6 ist an einer vorbestimmten Position oberhalb des Wafers 1 befestigt und ist mit einer Linse, einem Verschluss (nicht gezeigt) oder dergleichen versehen. Auf der Basis eines Auslösesignals, das von dem Bildverarbeitungs-PC 10 ausgegeben wird, erfasst die CCD-Kamera 6 ein Bild des Protein-Chips, der an einem vorbestimmten Abschnitt des Wafers gebildet ist, unter dem Licht, das von der Lichtquelle 7 ausgesendet wird, während das Bild durch die vorgesehene Linse vergrößert wird, und sendet das erfasste Bild an den Bildverarbeitungs-PC 10. Darüber hinaus verändert die XYZ-Plattform 3 den relativen Abstand zwischen der CCD-Kamera 6 und dem Wafer 1, indem der Wafer 1 in vertikaler Richtung (Z-Richtung) bewegt wird, wodurch eine Fokuslage verändert werden kann, wenn die CCD-Kamera 6 das Bild des Wafers 1 aufnimmt. Es kann darüber hinaus auch möglich sein, die Fokuslagen zu verändern, indem die CCD-Kamera 6 entlang der Z-Richtung bewegt wird, anstatt die XYZ-Plattform 3 zu bewegen.
  • Darüber hinaus ist die Linse der CCD-Kamera 6 aus einer Zoomlinse gebildet und sie kann Bilder des Protein-Chips in unterschiedlichen Vergrößerungen durch Verändern einer Brennweite erfassen. In der vorliegenden Ausführungsform ist die Vergrößerung der CCD-Kamera 6 zwischen zwei Niveaus veränderbar: etwa 7-fach (geringe Vergrößerung) und etwa 18-fach (hohe Vergrößerung). In dem Fall der geringen Vergrößerung beträgt die Betrachtungsgröße z. B. etwa 680 × 510 (μm2); und im Fall der hohen Vergrößerung beträgt die Betrachtungsgröße z. B. etwa 270 × 200 (μm2). Jedoch sind die Vergrößerungen nicht auf diese Beispiele beschränkt. Ferner kann anstelle der CCD-Kamera 6 eine Kamera, die mit einem anderen Typ von Bildgebungseinrichtung, wie etwa einem CMOS-Sensor, versehen ist, verwendet werden.
  • Die Lichtquelle 7 ist an einer vorbestimmten Position oberhalb des Wafers 1 befestigt, und sie kann beispielsweise eine Blitzlampe umfassen, die aus einer weißen LED mit hoher Helligkeit oder einer Xenonlampe hergestellt ist, einen Blitzeinschaltschaltkreis zum Steuern der Beleuchtung der Blitzlampe usw. Die Lichtquelle 7 beleuchtet den vorbestimmten Abschnitt des Wafers 1, indem Licht mit hoher Helligkeit während einer vorgegebenen Zeitdauer, z. B. für etwa mehrere Mikrosekunden, auf der Basis eines Blitzsignals, das von dem Bildverarbeitungs-PC 10 ausgegeben wird, ausgesandt wird.
  • Die XYZ-Plattform 3 umfasst einen Motor 4 zum Bewegen einer X-Plattform 11 und einer Y-Plattform 12 in X-, Y- und Z-Richtungen entlang der Bewegungsachse 13; und einen Codierer 5 zum Bestimmen der Bewegungsabstände der X- und Y-Plattformen 11 und 12. Der Motor 4 kann beispielsweise ein Wechselstromservomotor, ein Gleichstromservomotor, ein Schrittmotor, ein Linearmotor oder dergleichen sein, und der Codierer 5 kann beispielsweise einer von vielerlei Arten von Motorcodierern, ein Linearmaßstab oder dergleichen sein. Jedes Mal dann, wenn die X-Plattform 11. und die Y-Plattform 12 so weit wie eine Abstandseinheit entlang der X-, Y- und Z-Richtungen bewegt wird, erzeugt der Codierer 5 ein Codierersignal als Bewegungsinformation (Koordinateninformation), die die Bewegungen angibt, und gibt das erzeugte Codierersignal an den Bildverarbeitungs-PC 10 aus.
  • Der Bildverarbeitungs-PC 10 empfängt das Codierersignal, das von dem Codierer 5 eingegeben wird, und gibt ein Blitzsignal an die Lichtquelle 7 auf der Basis des empfangenen Codierersignals aus, und gibt auch ein Auslösesignal an die CCD-Kamera 6 aus. Ferner gibt der Bildverarbeitungs-PC 10 auf der Basis des Codierersignals, das von dem Codierer 5 eingegeben wird, auch ein Motorsteuersignal an den Motor 4 aus, um den Betrieb des Motors 4 zu steuern.
  • 2 führt ein Blockdiagramm zur Veranschaulichung der Ausgestaltung des Bildverarbeitungs-PC 10 aus. Wie es in 2 veranschaulicht ist, umfasst der Bildverarbeitungs-PC 10 eine CPU (zentrale Verarbeitungseinheit) 21, einen ROM (Nurlesespeicher) 22, einen RAM (Direktzugriffsspeicher) 23, eine Eingabe/Ausgabe-Schnittstelle 24, eine HDD (Hard Disc Drive oder Festplatte) 25, eine Anzeigeeinheit 26 und eine Bedienungseingabeeinheit 27, und die jeweiligen Komponenten sind miteinander über einen internen Bus 28 verbunden.
  • Die CPU 21 steuert den gesamten Betrieb jeder Komponente des Bildverarbeitungs-PC 10 und führt verschiedene Arbeitsgänge in der Bildverarbeitung durch, die später beschrieben werden. Der ROM 22 ist ein nichtflüchtiger Speicher zum Speichern von Programmen darin, die zum Ansteuern des Bildverarbeitungs-PC 10 erforderlich sind, andere verschiedene Daten oder Programme, die keine Aktualisierung erfordern, oder dergleichen. Der RAM 23 ist ein flüchtiger Speicher, der als Arbeitsbereich der CPU 21 verwendet wird, und er fungiert, um verschiedene Daten oder Programme aus der HDD 25 oder dem ROM 22 auszulesen und diese temporär darin zu speichern.
  • Die Eingabe/Ausgabe-Schnittstelle 24 ist eine Schnittstelle zum Verbinden der Bedienungseingabeeinheit 27, des Motors 4, des Codierers 5, der Lichtquelle 7 und der CCD-Kamera 6 mit dem internen Bus 28, um eine Eingabe eines Betriebseingabesignals von der Bedienungseingabeeinheit 27 und einem Austausch verschiedener Signale mit Bezug auf den Motor 4, den Codierer 5, die Lichtquelle 7 und die CCD-Kamera 6 durchzuführen.
  • Die HDD 25 speichert in einer eingebetteten Festplatte ein OS (Betriebssystem), verschiedene Programme zum Durchführen eines Bildaufnahmeprozesses und einer Bildverarbeitung, die später beschrieben wird, andere verschiedenen Anwendungen, Bilddaten, wie etwa das Bild des Protein-Chips als das Prüfungszielbild, das von der CCD-Kamera 6 erfasst wird, und eines Modellbildes (das später beschrieben wird), das aus dem Prüfungszielbild erzeugt wird, und verschiedene Daten zur Verwendung als Referenz in dem Bildaufnahmeprozess und der Bildverarbeitung usw.
  • Die Anzeigeeinheit 26 umfasst beispielsweise eine LCD (Flüssigkristallanzeige), eine CRT (Kathodenstrahlröhre) oder dergleichen und zeigt das von der CCD-Kamera 6 erfasste Bild oder verschiedene Zustandsschirme für die Bildverarbeitung an. Die Bedienungseingabeeinheit 27 umfasst beispielsweise eine Tastatur, eine Maus oder dergleichen und gibt eine Bedienung von einem Benutzer in die Bildverarbeitung oder dergleichen, die später beschrieben wird, ein.
  • Nun wird der Protein-Chip, der auf dem Wafer 1 gebildet ist, erläutert. 3 ist eine Draufsicht des Wafers 1. Wie es in der Figur veranschaulicht ist, sind beispielsweise 88 Halbleiter-Chips 30 (die nachstehend der Einfachheit halber als Chips 30 oder Dies 30 bezeichnet sind) auf dem Wafer 1 in einem Gittermuster gebildet. Hier ist anzumerken, dass die Zahl der Dies 30 nicht auf 88 begrenzt ist.
  • 4 ist eine Draufsicht, die einen der Dies 30 des Wafers 1 zeigt. Wie es in 4 gezeigt ist, ist ein Protein-Chip 35, der mehrere kreisförmige Kavitäten 50 auf seiner gesamten Oberfläche aufweist, auf jedem Die 30 gebildet. Jeder Die 30, d. h. jeder Protein-Chip 35, weist eine annähernd quadratische Form auf, und die Länge s einer Seite davon liegt in einem Bereich von beispielsweise etwa einigen Millimetern (mm) bis einigen zehn Millimetern (mm). Jedoch ist die Abmessung der Länge nicht auf dieses Beispiel beschränkt.
  • 5 zeigt vergrößerte Ansichten von einer Kavität 50 des Protein-Chips 35. 5(a) ist eine Draufsicht der Kavität 50, und 5(b) ist eine Querschnittsansicht in Z-Richtung der Kavität 50.
  • Wie es in 4 und 5 veranschaulicht ist, ist ein Dünnfilm (eine Membran) 53, der mehrere Löcher 55 aufweist, in einer Bodenfläche 52 jeder Kavität 50 des Protein-Chips 35 gebildet. Die Löcher 55 sind über der gesamten kreisförmigen Bodenfläche 52 jeder Kavität 50 gebildet. Der Durchmesser d1 jeder Kavität 50 beträgt beispielsweise hunderte Mikrometer (μm), und der Durchmesser d2 jedes Lochs 55 beträgt beispielsweise mehrere Mikrometer (μm). Ferner beträgt die Tiefe (Höhe von der oberen Oberfläche 51 bis zur Bodenfläche 52) h der Kavität 50 beispielsweise mehrere hundert Mikrometer (μm). Hier ist anzumerken, dass diese Abmessungen nicht auf die Beispiele begrenzt sind.
  • Der Protein-Chip 35 ist ein Siliziumträger zum Befestigen eines Trägerstoffs, z. B. Latexfeinpartikel (Latexperlen) auf der Bodenfläche 52 der Kavität 50 und eines Screening-Proteins mit einer spezifischen Eigenschaft, dass es mit den Latexperlen durch Antikörperkreuzreaktion absorbiert wird, wenn ein Antikörper (Protein) in die Kavität 50 als ein Reagens eingespritzt wird. Das Reagens (Protein), das nicht mit den Latexperlen adsorbiert wird, wird durch die Löcher 55 an der Bodenfläche 52 ausgetragen, so dass nur das Protein, das die spezifische Eigenschaft hat, in der Kavität 50 verbleibt.
  • Hier wird ein Herstellungsverfahren des Protein-Chips 35 einfach erläutert. Zunächst wird ein Dünnfilm 53, wie etwa ein Siliziumoxidfilm oder dergleichen, auf einer Seite des Wafers 1 durch ein CVD(Chemical Vapor Deposition)-Verfahren gebildet. Anschließend wird die andere Seite des Wafers 1 mit Fotoresist beschichtet und nach der Beseitigung unnötiger Abschnitte durch eine Fotolithografietechnik wird ein Ätzen unter Verwendung eines Resistmusters als eine Maske durchgeführt, wodurch die mehreren Kavitäten 50 auf dem Wafer 1 gebildet werden, während der Dünnfilm 53 noch verbleibt. Anschließend wird der Dünnfilm 53 jeder Kavität 50 mit Fotoresist beschichtet, und Abschnitte des Fotoresists, die den Löchern 55 entsprechen, werden durch die Fotolithografietechnik entfernt und ein Ätzen wird unter Verwendung eines Resistmusters als eine Maske durchgeführt. Infolgedessen kann der Protein-Chip 35 mit den mehreren Kavitäten 50, die jeweils den Dünnfilm 53 aufweisen, der mit mehreren Löchern 55 versehen ist, wie es in 5 veranschaulicht ist, erhalten werden.
  • Nachstehend wird der Betrieb der Fehlerdetektionsvorrichtung 100 gemäß der Ausführungsform der vorliegenden Erfindung zum Detektieren eines Fehlers des Protein-Chips 35 beschrieben. 6 liefert ein schematisches Flussdiagramm, um den Betrieb der Fehlerdetektionsvorrichtung 100 zu beschreiben, bis sie einen Fehler detektiert.
  • Wie es in 6 beschrieben ist, erfasst die CCD-Kamera 6 zunächst ein Bild jedes Dies 30, auf dem der Protein-Chip 35 gebildet ist, mit der geringen Vergrößerung (Schritt 101). Näher ausgeführt ist jeder Die in z. B. 18 × 13 (eine Summe von 234) ersten Unterteilungsbereichen 71 unterteilt, wie es in 7 veranschaulicht ist, und ein Bild jedes Unterteilungsbereiches 71 wird durch die CCD-Kamera 6 unter dem Licht der Lichtquelle 7 erhalten. Hier sind die Zahl und das Querschnittsverhältnis der ersten Unterteilungsbereiche 71 nicht auf die erwähnten Beispiele begrenzt. Jedem der ersten Unterteilungsbereiche 71 wird im Voraus eine ID zum Identifizieren seiner Lage zugewiesen, und die HDD 25 des Bildverarbeitungs-PC 10 speichert jede ID darin. Auf der Basis dieser ID kann der Bildverarbeitungs-PC 10 die ersten Unterteilungsbereiche 71, die sich an den gleichen Positionen auf unterschiedlichen Dies 30 befinden, identifizieren. Ferner ist jedem Die 30 auch eine ID zugewiesen, so dass der Bildverarbeitungs-PC 10 bestimmen kann, zu welchem der Dies 30 jeder erste Unterteilungsbereich 71 gehört.
  • Zu diesem Zeitpunkt gibt der Bildverarbeitungs-PC 10, wie es oben beschrieben ist, ein Motorantriebssignal an den Motor 4 auf der Basis eines Codierersignals von dem Codierer 5 aus, wodurch die XYZ-Plattform 3 bewegt wird. Ferner erzeugt der Bildverarbeitungs-PC 10 auch ein Auslösesignal und ein Blitzsignal auf der Basis des Codierersignals und gibt das erzeugte Auslösesignal und Blitzsignal an die CCD-Kamera 6 bzw. die Lichtquelle 7 aus.
  • Jedes Mal dann, wenn die XYZ-Plattform 3 bewegt wird, emittiert die Lichtquelle 7 Licht in Richtung des Protein-Chips 35 für jeweils mehrere Mikro-(μ)-Sekunden auf der Basis des Blitzsignals, und unter dem Licht erfasst die CCD-Kamera 6 nacheinander Bilder der jeweiligen ersten Unterteilungsbereiche 71 des Protein-Chips 35 auf dem Wafer 1 mit einer Geschwindigkeit von z. B. etwa 50 Blätter/Sekunde auf der Basis des Auslösesignals.
  • 8 veranschaulicht Bahnen von Bildaufnahmepositionen, wenn die CCD-Kamera 6 die Bilder der jeweiligen ersten Unterteilungsbereiche 71 des Protein-Chips 35 erfasst. In der vorliegenden Ausführungsform können zwei Bildaufnahmestrecken in Betracht gezogen werden, wie es in 8 veranschaulicht ist.
  • Wie es in 8(a) gezeigt ist, beginnt die CCD-Kamera 6 unter den 88 Dies 30 des Wafers 1 ein Bild von z. B. dem am weitesten links befindlichen Die 30 unter den Dies 30, deren Y-Koordinatenwerte maximal sind, zu erfassen, und danach nacheinander die Bilder aller 18 × 13 ersten Unterteilungsbereiche 71 des am weitesten links befindlichen Dies 30, z. B. Zeile um Zeile, zu erfassen, wobei die CCD-Kamera 6 zu dem nächsten Die 30 fortschreitet und Bilder aller ersten Unterteilungsbereiche 71 darauf wieder Zeile um Zeile erfasst.
  • Das heißt der Bildverarbeitungs-PC 10 gibt das Motorantriebssignal an den Motor 4 aus, so dass die Bildaufnahmeposition für jeden ersten Unterteilungsbereich 71 eines Dies 30 von z. B. dem ersten Unterteilungsbereich 71, der zu der obersten Zeile und der sich am weitesten links befindlichen Reihe gehört, beginnt, und dann nach rechts entlang der X-Richtung bewegt wird, und wenn sie das am weitesten rechts befindliche Ende erreicht, wird die Bildaufnahmeposition entlang der Y-Richtung um eine Zeile bewegt, und wird anschließend nach links entlang der X-Richtung bewegt, und auch wenn sie das am weitesten links befindliche Ende erreicht, wird die Bildaufnahmeposition wieder um eine Zeile entlang der Y-Richtung bewegt, und wird dann nach rechts entlang der X-Richtung auf der nächsten Zeile bewegt. Wenn die Bildaufnahme aller ersten Unterteilungsbereiche 71 eines Dies 30 abgeschlossen ist, indem die oben erwähnte Prozedur wiederholt wird, wird die Bildaufnahmeposition zu dem benachbarten nächsten Die 30 bewegt, und die gleichen Bewegungen werden wiederholt. Da zu diesem Zeitpunkt die Position der CCD-Kamera 6 fest ist, wird tatsächlich die XYZ-Plattform 3 entlang der entgegengesetzten Richtungen zu jenen der in 8(a) gezeigten Bahn bewegt. Die CCD-Kamera 6 erfasst nacheinander die Bilder jedes ersten Unterteilungsbereiches 71 auf der Basis des Auslösesignals, das von dem Bildverarbeitungs-PC 10 ausgegeben wird, während derartige Bewegungen beibehalten werden.
  • Ferner kann, wie es in 8(b) veranschaulicht ist, die Bildaufnahmeposition auch derart bewegt werden, dass die CCD-Kamera 6 nacheinander die Bilder von ersten Unterteilungsbereichen 71 mit der entsprechenden ID (die an den gleichen Positionen angeordnet sind) auf den unterschiedlichen Dies 30 erfasst.
  • Das heißt der Bildverarbeitungs-PC 10 legt beispielsweise die Bildaufnahmeposition der CCD-Kamera 6 derart fest, dass sie von dem sich am weitesten links befindlichen Die 30 unter den Dies 30, deren Y-Koordinatenwerte maximal sind, beginnt, und treibt den Motor 4 derart an, dass die Bildaufnahmeposition der CCD-Kamera 6 entlang X- und Y-Richtungen bewegt wird, um zuzulassen, dass die CCD-Kamera 6 zuerst durch jeweilige erste Unterteilungsbereiche 71 (erste Unterteilungsbereiche 71, die mit schwarzen Kreisen markiert sind) mit der entsprechenden ID auf den unterschiedlichen Dies 30 und mit minimalen X-Koordinatenwerten, während sie die maximalen Y-Koordinatenwerte haben, durchgeht, und dann durch jeweilige erste Unterteilungsbereiche 71 (erste Unterteilungsbereiche 71, die mit weißen Kreisen markiert sind) mit der entsprechenden ID und die am nächsten bei den ersten Bildaufnahmepositionen entlang der X-Richtung gelegen sind, hindurchgeht, und dann die Bewegungen wiederholt, um zuzulassen, dass die CCD-Kamera 6 durch jeweilige erste Unterteilungsbereiche 71 hindurchgeht, die an den gleichen Positionen auf den unterschiedlichen Dies 30 gelegen sind. Unter Beibehaltung derartiger Bewegungen wiederholt die CCD-Kamera 6 den Vorgang des aufeinander folgenden Erfassens der Bilder der mehreren ersten Unterteilungsbereiche 71 mit der entsprechenden ID für jeden Die 30 auf der Basis des Auslösesignals, das von dem Bildverarbeitungs-PC 10 ausgegeben wird.
  • Der Bildverarbeitungs-PC 10 lässt zu, dass die CCD-Kamera 6 den Bildaufnahmevorgang durchführt, indem eine der beiden Bildaufnahmestrecken ausgewählt wird, die eine kürzere Bildaufnahmezeit zulässt. In dem Fall, dass die in 8(a) gezeigte Bildaufnahmestrecke ausgewählt wird, ist jedes Bildaufnahmeintervall zwischen den ersten Unterteilungsbereichen 71, d. h. das Bewegungsintervall der XYZ-Plattform 3 gleich wie jedes Intervall zwischen den ersten Unterteilungsbereichen 71, wohingegen in dem Fall, dass die in 8(b) gezeigte Bildaufnahmestrecke ausgewählt wird, ist das Bewegungsintervall der XYZ-Plattform 3 gleich wie jedes Intervall zwischen den Dies 30. Dementsprechend ist die CPU 21 des Bildverarbeitungs-PCs 10 in der Lage, eine Antriebsgeschwindigkeit des Motors 4 auf der Basis dieser Bewegungsintervalle und der Bildaufnahmefrequenz der CCD-Kamera 6 zu berechnen. Indem die gesamte Bildaufnahmestrecke, die in den 8(a) oder 8(b) gezeigt ist, welche durch das Layout der in 3 gezeigten Dies 30 bestimmt ist, mit dieser Antriebsgeschwindigkeit multipliziert wird, kann die Bildaufnahmezeit, die es dauern würde, um die Bilder der ersten Unterteilungsbereiche 71 aller Dies 30 zu erfassen, für jeden der Fälle von 8 abgeschätzt werden. Indem die Bildaufnahmenzeiten in beiden Fällen verglichen werden, bestimmt der Bildverarbeitungs-PC 10, welche der in 8 gezeigten Bildaufnahmestrecken eine kürzere Bildaufnahmezeit benötigen wird, und wählt die Bildaufnahmestrecke aus, die eine kürzere Bildaufnahmezeit erfordert.
  • Die Bilder der ersten Unterteilungsbereiche 71, die durch die CCD-Kamera 6 erfasst werden, werden zu dem Bildverarbeitungs-PC 10 als Prüfungszielbilder zusammen mit ihren IDs zum Identifizieren der ersten Unterteilungsbereiche 71 übertragen und in der HDD 25 oder dem RAM 23 über die Eingabe/Ausgabe-Schnittstelle 24 des Bildverarbeitungs-PCs 10 gespeichert. Obwohl ferner in der vorliegenden Ausführungsform die Größe der Prüfungszielbilder, die von der CCD-Kamera 6 erfasst werden, eine so genannte VGA-(Video Graphics Array)-Größe (640×480 Pixel) ist, ist die vorliegende Erfindung nicht auf diese Größe begrenzt.
  • Da in der vorliegenden Ausführungsform der XYZ-Tisch 3 entlang der Z-Richtung bewegt wird, kann der Abstand zwischen dem Protein-Chip 35 des Wafers 1 und der CCD-Kamera 6 durch die Bewegung der XYZ-Plattform 3 wie oben beschrieben verändert werden, wodurch ermöglicht wird, Bilder der Prüfungszielbilder in unterschiedlichen Fokuslagen zu erfassen. 9 bietet die Darstellung eines derartigen Betriebes.
  • Wie es in 9 gezeigt ist, wird die XYZ-Plattform 3 in einer Richtung nach oben (Z1-Richtung von 9) und in einer Richtung nach unten (Z2-Richtung von 9) auf der Basis eines Fokussignals von dem Bildverarbeitungs-PC 10 bewegt, wodurch der Abstand zwischen der CCD-Kamera 6 und dem Protein-Chip 35 in beispielsweise drei Niveaus (Brennpunkte F1 bis F3) verändert wird. Das heißt, wenn die XYZ-Plattform 3 entlang der Z2-Richtung bewegt wird, fokussiert die CCD-Kamera 6 auf die obere Oberfläche 51 des Protein-Chips 35 (Brennpunkt F1), und wenn die XYZ-Plattform 3 von dort weiter entlang der Z1-Richtung bewegt wird, fokussiert die CCD-Kamera 6 auf eine annähernd mittige Position zwischen der oberen Oberfläche 51 und der Bodenfläche 52 des Protein-Chips 35 (Brennpunkt F2), und wenn die XYZ-Plattform 3 entlang der Z1-Richtung bewegt wird, kann die CCD-Kamera 6 auf die Bodenfläche 52 des Protein-Chips 35 (Brennpunkt F3) fokussieren. Ferner ist die Zahl der variablen Brennpunkte nicht auf nur drei begrenzt.
  • Wie es oben beschrieben ist, erfasst die Fehlerdetektionsvorrichtung 100 gemäß der vorliegenden Ausführungsform die Prüfungszielbilder an mehreren unterschiedlichen Brennpunkten. Selbst in dem Fall, dass das Prüfungszielobjekt eine dreidimensionale Form mit einer Dicke (Tiefe oder Höhe) in der Z-Richtung aufweist, wie im Fall des Protein-Chips 35 in der vorliegenden Ausführungsform, ist es dementsprechend möglich, Bilder an jeweiligen Z-Richtungspositionen zu erfassen und somit ein Versagen, den Fehler zu detektieren, zu vermeiden. Die CCD-Kamera 6 klassifiziert die erfassten Bilder an jeder Fokuslage über die Strecke der 8(a) oder 8(b) auf der Basis ihrer Fokuslagen und überträgt sie dann zu dem Bildverarbeitungs-PC 10. Der Bildverarbeitungs-PC 10 identifiziert die Bilder als die Prüfungszielbilder für jede Fokuslage und speichert sie daraufhin in der HDD 25 oder dem RAM 28. Das heißt, wie es oben beschrieben ist, in dem Fall, dass die Brennpunkte drei betragen, F1 bis F3, führt die CCD-Kamera 6 den Bildaufnahmeprozess für jede Fokuslage durch, indem Bewegungen entlang der Bildaufnahmestrecke der 8(a) oder 8(b) dreimal wiederholt werden.
  • Wieder nach dem Flussdiagramm von 6 führt die CPU 21 des Bildverarbeitungs-PC 10, während der oben beschriebene Bildaufnahmeprozess von der CCD-Kamera 6 ausgeführt wird, auch einen Filterungsprozess mittels eines Hochpassfilters für jedes beschaffte Prüfungszielbild jedes Mal dann durch, wenn das Prüfungszielbild von der CCD-Kamera 6 erhalten wird (Schritt 102).
  • Der Protein-Chip 35 in der vorliegenden Ausführungsform weist an seiner Bodenfläche 52 den Dünnfilm 53 auf. In dem Fall, dass der Dünnfilm 53 gebogen ist, kann beispielsweise eine Ungleichmäßigkeit der Helligkeit aufgrund der Abflachung des Dünnfilms 53 resultieren. Ferner kann die Ungleichmäßigkeit der Helligkeit aufgrund von z. B. einer Abweichung einer optischen Achse der CCD-Kamera 6 oder eines Unterschiedes des Grades der Gleichmäßigkeit auf der Seite, wo das Licht von der Lichtquelle 7 auftrifft, oder dergleichen, bewirkt werden. Eine derartige Helligkeitsvariabilität kann als eine Differenz in einem Differenzextraktionsprozess, der später beschrieben wird, extrahiert werden, was zu fehlerhafter Fehlerdetektion führt.
  • Ein Abschnitt mit ungleichmäßiger Helligkeit ist ein Abschnitt des Prüfungszielbildes, wo sich die Helligkeit allmählich ändert. Das heißt, die ungleichmäßige Helligkeitskomponente kann als eine niederfrequente Komponente bezeichnet werden. In der vorliegenden Ausführungsform wird hier diese Niederfrequenzkomponente von jedem Prüfungszielbild mittels des Hochpassfilters entfernt.
  • 10 stellt ein Flussdiagramm dar, um den Hochpassfilterungsprozess im Detail zu beschreiben. Wie es in 10 gezeigt ist, liest die CPU 21 des Bildverarbeitungs-PCs 10 ein Duplikat des Prüfungszielbildes von der HDD 25 in den RAM 23 aus (Schritt 61) und führt einen Gaußschen Unschärfeprozess (blurring process) an dem Prüfungszielbild durch (Schritt 62). Obwohl ein Sollwert für das Unscharfmachen beispielsweise 15 bis 16 Radiuspixel beträgt, ist die vorliegende Erfindung nicht darauf beschränkt.
  • In diesem Gaußschen Unschärfeprozess kann ein hoher Unschärfeeffekt erhalten werden, da ein Pixel einer Hochfrequenzkomponente (z. B. eines Kantenabschnitts) in dem ursprünglichen Prüfungszielbild durch einen Beitrag von benachbarten Pixeln einer Niederfrequenzkomponente unscharf gemacht wird. Hinsichtlich des Pixels einer Niederfrequenzkomponente (z. B. der Abschnitt mit ungleichmäßiger Helligkeit) in dem ursprünglichen Zielbild, sind indessen benachbarte Pixel, die dazu beitragen, auch eine Niederfrequenzkomponente, so dass der Unschärfeeffekt niedrig ist, und eine Änderung von dem ursprünglichen Prüfungszielbild kann kaum beobachtet werden. Dementsprechend ist ein Ausgangsbild (das nachstehend als ein ”Gaußsches Unscharfbild” (Gaussian blur image)) bezeichnet wird, das durch den Gaußschen Unschärfeprozess erhalten wird, ein Bild, bei dem Niederfrequenzkomponenten verbleiben, nachdem Hochfrequenzkomponenten in dem ursprünglichen Prüfungszielbild geglättet worden sind.
  • Anschließend subtrahiert die CPU 21 das Gaußsche Unscharfbild von dem ursprünglichen Prüfungszielbild (Schritt 63). Durch Subtrahieren von den Hochfrequenzkomponenten des ursprünglichen Prüfungszielbildes ihre entsprechenden Niederfrequenzkomponenten des Gaußschen Unscharfbildes verbleiben nur die ursprünglichen Hochfrequenzkomponenten. Durch Subtrahieren von den Niederfrequenzkomponenten des ursprünglichen Prüfungszielbildes ihre entsprechenden Niederfrequenzkomponenten des Gaußschen Unscharfbildes werden ferner die ursprünglichen Niederfrequenzkomponenten entfernt. Das heißt, das durch den Subtraktionsprozess erhaltene Bild ist ein Bild, bei dem nur die Hochfrequenzkomponenten zurückbleiben, nachdem die Niederfrequenzkomponenten aus dem ursprünglichen Prüfungszielbild entfernt worden sind. Die CPU 21 aktualisiert das ursprüngliche Prüfungszielbild mit dem Bild, das nach dem Subtraktionsprozess beschafft wird und speichert es in der HDD 25 (Schritt 64).
  • Mit Rückbezug auf 6 bestimmt die CPU 21, ob ein Bildaufnahmeprozess jedes Prüfungszielbildes für jeden ersten Unterteilungsbereich 71 durchgeführt werden soll, und ob der Filterungsprozess mit dem Hochpassfilter für jedes Prüfungszielbild durchgeführt werden soll (Schritte 103 und 104). Wenn bestimmt wird, dass der Bildaufnahmeprozess aller Prüfungszielbilder und der Filterungsprozess dafür durchgeführt sind (Ja), wird ein Prozess zum Erzeugen eines Modellbildes für jeden Unterteilungsbereich durchgeführt, indem die Prüfungszielbilder nach dem Filterungsprozess verwendet werden (Schritt 105). Obwohl der Bildaufnahmeprozess des Prüfungszielbildes und der Hochpassfilterungsprozess in der vorliegenden Ausführungsform auf eine parallele Weise durchgeführt werden, kann es ferner auch möglich sein, den Hochpassfilterungsprozess nach Abschluss des Bildaufnahmeprozesses des Prüfungsziels für alle erste Unterteilungsbereiche 71 durchzuführen (d. h. möglicherweise kann ein Prozess von Schritt 102 und Schritt 103 in der Abfolge umgekehrt werden).
  • Hier wird der Prozess zum Erzeugen des Modellbildes ausführlich erläutert. 11 stellt ein Flussdiagramm bereit, um eine Prozessfolge zu beschreiben, bis der Bildverarbeitungs-PC 10 das Modellbild erzeugt, und 12 veranschaulicht schematisch die Art und Weise, auf die der Bildverarbeitungs-PC 10 das Modellbild erzeugt.
  • Wie es in 11 gezeigt ist, liest die CPU 21 des Bildverarbeitungs-PC 10 Prüfungszielbilder, die die entsprechende ID aufweisen, über die Dies 30 unter den Prüfungszielbildern nach dem Hochpassfilterungsprozess von der HDD 25 in den RAM 23 aus (Schritt 41) und führt eine Positionsausrichtung jedes ausgelesenen Prüfungszielbildes durch (Schritt 42). Unter den Prüfungszielbildern der ersten Unterteilungsbereiche 71, die an der gleichen Position auf den unterschiedlichen Dies 30 vorhanden sind, erkennt die CPU 21 genauer beispielsweise die Formen von Kantenabschnitten an den Kavitäten 50 der Protein-Chips 35 und führt die Positionsausrichtung aus, indem Verschiebungen in den X- und Y-Richtungen und Rotationen in der θ-Richtung gesteuert werden, um zuzulassen, dass diese Formen zwischen den jeweiligen Prüfungszielbildern überlappt werden.
  • Wie es in 12 veranschaulicht ist, liest die CPU 21 beispielsweise Prüfungszielbilder 40a bis 40f mit der entsprechenden ID, die für erste Unterteilungsbereiche 71a erfasst werden, welche an der gleichen Position auf den unterschiedlichen Dies 30 vorhanden sind, aus. Da in der vorliegenden Ausführungsform die Zahl der Dies 30 88 beträgt, wird die Gesamtzahl der Prüfungszielbilder 40 mit der entsprechenden ID ebenfalls 88. Die CPU 21 überlappt alle 88 Prüfungszielbilder 40 miteinander und richtet ihre Positionen auf der Basis der Formen der Kavitäten 50 oder dergleichen aus. Indem die Positionsausrichtung auf der Basis der Formen der Kavitäten 50 oder dergleichen durchgeführt wird, kann, wie beschrieben, eine leichte und exakte Positionsausrichtung realisiert werden.
  • Anschließend berechnet die CPU 21 in dem Zustand, dass die oben beschriebene Positionsausrichtung durchführbar ist, einen mittleren Pixelhelligkeitswert für jedes Pixel an der gleichen Position unter den jeweiligen Prüfungszielbildern 40 (Schritt 43). Nach dem Abschluss der Berechnung der Helligkeitsmittelwerte aller Pixel in jedem Prüfungszielbild 40 des ersten Unterteilungsbereiches 71a (Ja in Schritt 44) auf der Basis des Berechnungsergebnisses, erzeugt die CPU 21 ein Bild, das aus Pixeln hergestellt ist, die diese Helligkeitsmittelwerte aufweisen, als ein Modellbild 45 und speichert es in der HDD 25 (Schritt 45).
  • Indem dieser Prozess wiederholt wird, bestimmt die CPU 21, ob das Modellbild 45 für jeden der entsprechenden ersten Unterteilungsbereiche 71 zwischen den Dies 30 erzeugt wird (Schritt 46), und wenn bestimmt wird, dass alle Modellbilder 45 erzeugt sind (Ja), wird der Prozess beendet.
  • Durch den oben beschriebenen Prozess ist es möglich, die Modellbilder 45 auf der Basis der tatsächlichen Prüfungszielbilder 40 selbst bei der Prüfung der MEMS-Einrichtungen zu erzeugen, für die die Beschaffung einer absoluten normalen Produktprobe unmöglich ist. Es besteht eine Wahrscheinlichkeit, dass ein Fehler, wie etwa ein Fremdstoff, eine Fehlerstelle, ein Riss eines Dünnfilms und der gleichen, auf jedem Prüfungszielbild 40 vorhanden sein kann. Indem jedoch jeder Die 30 in eine Mehrzahl von (in der vorliegenden Ausführungsform 234) ersten Unterteilungsbereichen 71 unterteilt wird und die Helligkeitsmittelwerte über die Vielzahl von (in der vorliegenden Ausführungsform 88) Dies 30 berechnet wird, kann der Fehler jedes Prüfungszielbildes 40 kompensiert werden, und es wird möglich, die im Wesentlichen idealen Modellbilder 45 zu erzeugen. Somit wird eine hochgenaue Fehlerdetektion ermöglicht.
  • Da, wie es oben beschrieben ist, jedes Prüfungszielbild 40 an einem einzigen ersten Unterteilungsbereich 71 für jeden der Brennpunkte F1 bis F3 vorhanden ist, wird das Modellbild 45 auch für jeden Brennpunkt erzeugt. Da in der vorliegenden Ausführungsform die Zahl der ersten Unterteilungsbereiche 71 234 auf jedem Die 30 beträgt, werden dementsprechend 234 × 3 (eine Summe von 702) Blätter von Modellbildern erzeugt.
  • Mit Rückbezug auf das Flussdiagramm von 6 führt die CPU 21 nach Abschluss der Erzeugung der Modellbilder 45 einen Prozess zum Extrahieren einer Differenz zwischen den Modellbildern 45 und jedem Prüfungszielbild 40 nach dem Hochpassfilterungsprozess für jeden ersten Unterteilungsbereich 71 durch (Schritt 106).
  • Um es näher auszuführen, die CPU 21 führt wie in dem Fall des oben angegebenen Positionsausrichtungsprozesses für die Erzeugung der Modellbilder 45 eine Positionsausrichtung entlang der X-, Y- und θ-Richtungen auf der Basis der Formen der auf den Modellbildern 45 und jedem Prüfungszielbild 40 vorhandenen Kavitäten 50 und einen Binärisierungsprozess durch, indem die Differenz zwischen den beiden Bildern durch einen Subtraktionsprozess extrahiert wird, und gibt anschließend das Ergebnis als ein Differenzbild aus.
  • Daraufhin führt die CPU 21 eine Filterung durch eine so genannte Blob-Extraktion (Objektpixelgruppen-Extraktion) für dieses Differenzbild durch (Schritt 107). Hier impliziert ein Blob eine Gruppe von Pixeln mit einem vorgegebenen (oder vorgegebenen Bereich von einem) Grauskalenwert auf dem Differenzbild. Aus dem Differenzbild extrahiert die CPU 21 nur einen Blob, der größer als ein bestimmter Bereich (z. B. 3 Pixel) unter Blobs ist.
  • 13 zeigt Differenzbilder vor und nach dem Blob-Extraktionsprozess. 13(a) veranschaulicht ein Differenzbild 60 vor der Blob-Extraktion, und 13(b) veranschaulicht ein Differenzbild nach der Blob-Extraktion (nachstehend als ein ”Blob-Extraktionsbild 65” bezeichnet).
  • In 13(a) geben auffällige weiße Abschnitte Differenzen zwischen dem Modellbild 45 und dem Prüfungszielbild 40 an. In diesem Differenzbild 60 wird ein Prozess zum Verstärken eines Helligkeitswertes z. B. um etwa das 40-fache des Helligkeitswerts des ursprünglichen Differenzbildes durchgeführt, um die Differenzen zu betonen. Wie es in 13(a) gezeigt ist, weist das Differenzbild 60 abgesehen von dem Fehler, wie etwa dem Fremdstoff, den Fehlerstellen und dergleichen, vor der Blob-Extraktion auch ein mikroskopisches Rauschen 84, das als Abschnitte zu beobachten ist, die durch weiße gestrichelte Linien umgeben sind, wegen verschiedener Gründe, wie etwa Verunreinigung der Linse 14 der CCD-Kamera 6, des Grades der Gleichmäßigkeit der Beleuchtung der Lichtquelle 7 usw. auf. Da das Vorhandensein des Rauschens 84 zu einer falschen Detektion von Fehlern führt, muss dieses Rauschen 84 beseitigt werden.
  • Das Rauschen 84 weist eine kleinere Fläche als die Fläche von Fehlern, wie etwa Fremdstoffe oder Fehlerstellen, auf. Wie es in 13(b) veranschaulicht ist, kann hier das Rauschen 84 beseitigt werden, indem ein Filterungsprozess zum Extrahieren nur eines Blob, der größer als eine vorgegebene Fläche ist, mittels des Entfernens eines Blob, der kleiner als die vorgegebene Fläche ist, durchgeführt wird. Durch diesen Blob-Extraktionsprozess können lediglich die Risse 81 des Dünnfilms der Kavität 50 des Protein-Chips 35 oder Fremdstoffe 82, wie etwa Staub, der an dem Protein-Chip 35 anhaftet, aus dem Blob-Extraktionsbild 65 extrahiert werden. Zu diesem Zeitpunkt erkennt die CPU 21 diese gerade als Fehlerkandidaten, ohne die Arten der Fehler, wie etwa die Fremdstoffe, Risse, Fehlerstellen und dergleichen, zu bestimmen.
  • Anschließend, mit Rückbezug auf das Flussdiagramm von 6, wenn ein Fehlerkandidat durch den Blob-Extraktionsprozess detektiert wird (Ja in Schritt 108), bestimmt die CPU 21, ob es notwendig ist, ein Bild mit höherer Vergrößerung des Protein-Chips 35 zu erfassen, aus welchem der Fehlerkandidat detektiert wird (Schritt 109). Das heißt, die CPU 21 bestimmt, ob eine Bedienungseingabe durch einen Benutzer zum Anweisen einer Aufnahme eines detaillierteren Bildes mit höherer Vergrößerung des ersten Unterteilungsbereiches 71, zu dem das Prüfungszielbild 40 gehört, das den Fehlerkandidaten enthält, erfolgt ist. Wenn bestimmt wird, dass die Aufnahme eines Bildes mit höherer Vergrößerung notwendig ist (Ja), erfasst die CCD-Kamera 6 ein Bild mit hoher Vergrößerung von jedem der zweiten Unterteilungsbereiche 72 in dem ersten Unterteilungsbereich 71, aus welchem der Fehlerkandidat detektiert wird, und den anderen ersten Unterteilungsbereichen 71 mit der ID entsprechend jener dieses ersten Unterteilungsbereiches 71 auf den unterschiedlichen Dies 30, wobei die zweiten Unterteilungsbereiche erhalten werden, indem jeder erste Unterteilungsbereich in eine kleinere Einheit unterteilt wird (Schritt 113).
  • In einem Fehlerklassifikationsprozess, der später beschrieben wird, kann es sein, obwohl eine Bestimmung des Fehlers und eine Klassifikation davon auf der Basis der Fläche des extrahierten Blob ausgeführt wird, es beispielsweise unmöglich ist, die Blob-Fläche in dem Fall genau zu berechnen, dass das Blob-Extraktionsbild 65 auf der Basis des Prüfungszielbildes erzeugt wird, das mit einer geringen Vergrößerung erfasst wird. Darüber hinaus kann mit dem Bild mit geringer Vergrößerung angenommen werden, dass eine genaue Form des Fehlers nicht erkannt werden kann und somit eine exakte Klassifikation des Fehlers nicht erreicht werden kann. In der vorliegenden Ausführungsform werden jedoch durch Erfassen des Bildes mit höherer Vergrößerung des Protein-Chips 35 eine Bestimmung des Fehlers und dessen Klassifikation, die später beschrieben wird, ermöglicht, so dass diese genau ausgeführt werden kann.
  • 14 veranschaulicht schematisch die Bildaufnahme mit hoher Vergrößerung jedes zweiten Unterteilungsbereiches 72 in dem ersten Unterteilungsbereich 71, aus welchem der Fehlerkandidat detektiert wird. Wie es aus 14 zu ersehen ist, wird in dem Fall, dass der Fehlerkandidat aus dem Prüfungszielbild detektiert wird, das einen ersten Unterteilungsbereich 71a auf einem bestimmten Die 30 erfasst, dieser erste Unterteilungsbereich 71a weiter in 3 × 3 (insgesamt 9) zweite Unterteilungsbereiche 72 unterteilt. Ferner werden auf den anderen Dies 30 die ersten Unterteilungsbereiche 71 mit den ID entsprechend jener des ersten Unterteilungsbereiches 71a ebenfalls weiter in zweite Unterteilungsbereiche 72 unterteilt. Wie jeder erste Unterteilungsbereich 71 wird jedem zweiten Unterteilungsbereich 72 eine ID zum Identifizieren seiner Position auf jedem Die 30 zugeordnet.
  • Die CCD-Kamera 6 erfasst ein Bild jedes zweiten Unterteilungsbereiches 72 in der gleichen Größe (VGA-Größe) wie der erste Unterteilungsbereich 71. Das heißt die CCD-Kamera 6 erfasst das Bild des zweiten Unterteilungsbereiches 72, indem er dreimal größer als der des ersten Unterteilungsbereiches 71 vergrößert wird. Jedes erfasste Bild wird in z. B. der HDD 25 des Bildverarbeitungs-PC 10 als ein Prüfungszielbild zusammen mit der ID jedes zweiten Unterteilungsbereiches gespeichert.
  • Außerdem wird hinsichtlich einer Bildaufnahmestrecke für jeden zweiten Unterteilungsbereich 72 jedes Dies 30 eine kürzere Strecke unter jenen, die in 8 gezeigt sind, ausgewählt, wie in dem Fall der Bildaufnahme des ersten Unterteilungsbereiches 71. Das heißt die CPU 21 bestimmt, welche Strecke kürzer ist unter einer Strecke, durch die die Bildaufnahme zunächst für alle zweiten Unterteilungsbereiche 72 des ersten Unterteilungsbereiches 71 eines Dies 30 ausgeführt wird und dann für jeden zweiten Unterteilungsbereich 72 der ersten Unterteilungsbereiche 71 entsprechend jenen der unterschiedlichen Dies 30 ausgeführt wird, und einer Strecke, durch die die Bildaufnahme in der Abfolge der zweiten Unterteilungsbereiche 72 mit der entsprechenden ID unter den entsprechenden ersten Unterteilungsbereichen 71 über die Dies 30 ausgeführt wird, und führt dann den Bildaufnahmeprozess durch die kürzere der beiden Strecken durch.
  • Wenn die Bildaufnahme für den ersten Unterteilungsbereich 71, bei dem befunden wird, dass er den Fehlerkandidaten aufweist, und die zweiten Unterteilungsbereiche 72 des ersten Unterteilungsbereiches, die diesem entsprechen, abgeschlossen ist (Schritt 113), führt die CPU 21 einen Filterungsprozess mit dem Hochpassfilter (Schritt 114) und einen Modellbilderzeugungsprozess (Schritt 117) an jedem Prüfungszielbild durch, wie bei den Prozessen der Schritte 102 bis 107 und führt einen Differenzextraktionsprozess zwischen einem Modellbild und jedem Prüfungszielbild, das an jedem zweiten Unterteilungsbereich 72 des ersten Unterteilungsbereiches 71, von welchem der Fehlerkandidat detektiert wird, erfasst wird, aus (Schritt 118). Die CPU führt dann einen Filterungsprozess durch Blob-Extraktion durch (Schritt 119).
  • Da ferner das Prüfungszielbild jedes zweiten Unterteilungsbereiches 72 mit einer höheren Auflösung als die des Prüfungszielbildes des ersten Unterteilungsbereiches 71 erfasst wird, wird ein Schwellenwert (Pixel) einer Blob-Fläche, die von dem Blob-Extraktionsprozess in Schritt 118 extrahiert wird, derart festgelegt, dass er größer ist als ein Schwellenwert der Blob-Fläche, die von dem Blob-Extraktionsprozess für jeden ersten Unterteilungsbereich 71 in Schritt 107 extrahiert wird. Es ist jedoch anzumerken, dass es auf dem Protein-Chip 35 keinen Unterschied in der tatsächlichen Blob-Fläche (μm), die aus dem Schwellenwert (Pixel) umgewandelt wird, gibt.
  • 15 veranschaulicht Blob-Extraktionsbilder 65, die aus jedem Prüfungszielbild des ersten Unterteilungsbereiches 71 und des zweiten Unterteilungsbereiches 72 extrahiert werden. 15(a) zeigt ein Blob-Extraktionsbild 65a, das aus dem ersten Unterteilungsbereich 71 extrahiert wird, und 15(b) zeigt ein Blob-Extraktionsbild 65b, das aus dem zweiten Unterteilungsbereich 72 extrahiert wird.
  • Wie es aus 15 zu sehen ist, wird in dem Blob-Extraktionsbild 65a des ersten Unterteilungsbereiches 71a, das in Schritt 107 erhalten wird, ein Bereich, der als eine Fremdsubstanz 82 betrachtet wird, misstrauisch an einem linken unteren Abschnitt beobachtet. Da seine Fläche jedoch klein ist, ist es schwierig, einen exakten Wert der Fläche zu berechnen. Deshalb kann, wie es in 15(b) gezeigt ist, durch Unterteilen des ersten Unterteilungsbereiches 71 in 9 zweite Unterteilungsbereiche 72 und anschließendes Erfassen der Bilder mit hoher Vergrößerung der zweiten Unterteilungsbereiche 72, in welchen der Fremdstoff 82 beobachtet wird, dieser Fremdstoff 82 mit der hohen Auflösung angezeigt werden, so dass eine genaue Berechnung seiner Flächen ermöglicht wird.
  • In dem Fall, dass der Fehlerkandidat in Schritt 108 extrahiert wird, kann es ferner auch möglich sein, die Bildaufnahme mit hoher Vergrößerung automatisch durchzuführen, ohne den Prozess der Bestimrung der Notwendigkeit für eine Bildaufnahme mit hoher Vergrößerung den Schritt 109 auszuführen. Wenn das Leistungsvermögen des Bildverarbeitungs-PC 10, des Motors 4 und des Codierers 5 ausgezeichnet ist und die Verarbeitungszeit innerhalb eines zulässigen Bereiches liegt, kann es außerdem möglich sein, das Modellbild 45 für alle zweiten Unterteilungsbereiche 72 zu erzeugen, indem Bilder der zweiten Unterteilungsbereiche 72 aller ersten Unterteilungsbereiche 71 auf jedem Die 30 sowie des ersten Unterteilungsbereiches 71, aus welchem der Fehlerkandidat extrahiert wird, zu erfassen. In einem solchen Fall wäre es erwünscht, dass die CPU 21 den Bildaufnahmeprozess, den Hochpassfilterungsprozess und den Modellbilderzeugungsprozess für jeden zweiten Unterteilungsbereich 72 sofort nach dem Abschluss des Blob-Extraktionsprozesses für den ersten Unterteilungsbereich 71 ohne Bestimmung der Notwendigkeit der Bildaufnahme mit hoher Vergrößerung den Schritt 109 durchzuführen, und den Blob-Extraktionsprozess für jeden zweiten Unterteilungsbereich 72 des ersten Unterteilungsbereiches 71, von welchem bestimmt wird, dass er den detektierten Fehlerkandidaten enthält, durchführt.
  • Mit Rückbezug auf das Flussdiagramm von 6 führt die CPU 21 eine Klassifikation des Fehlerkandidaten durch, der in dem Blob-Extraktionsbild 65 gezeigt ist, wenn in Schritt 109 bestimmt wird, dass die Bildaufnahme mit hoher Vergrößerung nicht notwendig ist (Nein), oder wenn der Blob-Extraktionsprozess von den zweiten Unterteilungsbereichen 72 in den Schritten 113 bis 119 abgeschlossen ist (Schritt 110).
  • Das heißt für jeden Blob, der in dem Blob-Extraktionsbild 65 weiß markiert ist, bestimmt die CPU 21, ob jeder Blob ein Fehler ist oder nicht, auf der Basis von Merkmalspunkten, wie etwa seiner Fläche, Umfangslänge, Nichtkreisförmigkeit, eines Längenverhältnisses und dergleichen, und klassifiziert die Art des Fehlers, indem bestimmt wird, ob der Fehler ein Fremdstoff, eine Fehlerstelle, ein Riss oder dergleichen ist.
  • Spezieller sammelt der Bildverarbeitungs-PC 10 Abtastbilder von jeder Art von Fehlern, wie etwa Fremdstoff, Fehlerstellen, Risse und dergleichen, und speichert Merkmalspunktdaten in der HDD 25 oder dergleichen als eine Merkmalspunkt-Datenbank, und vergleicht Merkmalspunkte, die aus jedem Blob des Blob-Extraktionsbildes 65 des Prüfungsziels detektiert werden, mit den gespeicherten Merkmalspunktdaten.
  • Beispielsweise liegt eine Seite des Fremdstoffs in der vorliegenden Ausführungsform in einem Bereich von etwa einigen Mikrometern bis zu einigen zehn Mikrometern, und die Länge der Fehlerstellen in einem Bereich von etwa einigen Mikrometern bis hunderten Mikrometern. Wenn darüber hinaus der Fremdstoff mit der Fehlerstelle verglichen wird, weist die Fehlerstelle ein Längenverhältnis mit einer sehr lang gestreckten Breite oder Länge auf, und ihre Umfangslänge ist ebenfalls verlängert. Obwohl ein Riss des Dünnfilms an dem Kantenabschnitt jeder Kavität 50 in einer gekrümmten Form erzeugt wird, wird ferner die Nichtkreisförmigkeit der Kavität 50 im Vergleich mit einem normalen Fall erhöht. Der Bildverarbeitungs-PC 10 speichert diese Daten als die Merkmalspunktdaten und führt die Klassifikation des Fehlers durch den Vergleich der jeweiligen Merkmalspunkte des detektierten Blob mit den gespeicherten Daten aus.
  • Ferner weist der Protein-Chip 35 in der vorliegenden Ausführungsform, wie es oben beschrieben ist, Löcher von z. B. einigen Mikrometern in dem Dünnfilm 53 an der Bodenfläche der Kavität 50 auf, und die Löcher 55 dienen dazu, das Reagens auszutragen. Selbst wenn ein Fremdstoff im Inneren der Kavität 50 anhaftet, wird dementsprechend der Fremdstoff durch die Löcher 55 zusammen mit dem Reagens in dem Fall ausgetragen, dass der Fremdstoff einen kleineren Durchmesser als der der Löcher 55 von mehreren Mikrometern aufweist, wodurch kein Problem bei einem Screening unter Verwendung des Protein-Chips 35 hervorgerufen wird. Somit wird der Durchmesser der Löcher 55 als ein Schwellenwert für die Fremdstoffe festgelegt, und ein Fremdstoff mit einem kleineren Durchmesser als dieser, wird nicht als ein Fehler erachtet. Da indessen bei einer Fehlerstelle oder einem Riss das Reagens daraus ausläuft, kann kein normales Screening durchgeführt werden. Aus diesem Grund wird die Fehlerstelle oder der Riss immer als ein Fehler betrachtet.
  • Wie es oben angeführt wurde, führt die CPU 21 in dem Fall, dass die Merkmalspunkte des Blob-Extraktionsbildes 65, die aus dem ersten Unterteilungsbereich 71 extrahiert werden, nicht genau gemessen werden können, die Messung der Merkmalspunkte durch, indem das Blob-Extraktionsbild 65 verwendet wird, das aus dem zweiten Unterteilungsbereich 72 erhalten wird, dessen Bilder mit der höheren Vergrößerung erfasst werden, und führt eine Klassifikation der verschiedenen Arten von Fehlern durch. Wie es oben beschrieben ist, kann ein Prozess nach der Fehlerdetektion effektiv durchgeführt werden, indem Bilder mit hoher Vergrößerung wie notwendig erfasst werden.
  • Wenn die Bestimmung des Vorhandenseins von Fehlern und deren Klassifikation für jeden Fehlerkandidaten durchgeführt worden ist (Ja in Schritt 111), werden Blob-Extraktionsbilder und Information über die Arten der detektierten Fehler an z. B. die Anzeigeeinheit 26 als ein Detektionsergebnis ausgegeben (Schritt 112) und der Prozess wird beendet. Zu diesem Zeitpunkt kann der Bildverarbeitungs-PC 10 beispielsweise ein Bild, das eine Erkennung auf einen Blick, welche Art von Fehler auf welchem Teil des Wafers 1 vorhanden ist, zulässt, an der Anzeigeeinheit 26 anzeigen.
  • Auf der Basis des ausgegebenen Ergebnisses entfernt der Benutzer den Fremdstoff, wenn herausgefunden wird, dass ein Fremdstoff vorhanden ist. Wenn ferner herausgefunden wird, dass eine Fehlerstelle oder ein Riss vorhanden ist, wird dieser Protein-Chip 35 als abnormales Produkt verworfen. Wenn darüber hinaus in Schritt 108 kein Fehlerkandidat detektiert wird, wird bestimmt, dass der geprüfte Protein-Chip 35 ein normales Produkt ist, und der Fehlerdetektionsprozess wird beendet.
  • Gemäß der vorliegenden Ausführungsform wird es durch die oben beschriebenen Vorgänge möglich, das Modellbild auf der Basis des Prüfungszielbildes 40 jedes ersten Unterteilungsbereiches 71 oder jedes zweiten Unterteilungsbereiches 72 selbst in dem Fall der MEMS-Einrichtung zu erzeugen, wie etwa des Protein-Chips 35, für den es schwierig ist, eine absolut normale Probe zu erhalten. Deshalb wird eine hochgenaue Fehlerdetektion ermöglicht. Da ferner das Modellbild 45 auf der Basis jedes Prüfungszielbildes 40 erzeugt wird, das unter den gleichen optischen und Beleuchtungsbedingungen erfasst wird, kann eine falsche Detektion aufgrund der Differenz in derartigen Bedingungen verhindert werden.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebene Ausführungsform begrenzt, sondern kann in vielerlei Weisen abgewandelt werden, ohne vom Schutzumfang der vorliegenden Erfindung abzuweichen.
  • Obwohl in der obigen Ausführungsform der Protein-Chip als die MEMS-Einrichtung als das Prüfungszielobjekt beispielhaft ausgeführt wurde, ist die MEMS-Einrichtung nicht darauf begrenzt. Beispielsweise kann eine Elektronenstrahl-Bestrahlungsplatte (EB-Fenster von electron beam irradiation plate) als die MEMS-Einrichtung angewandt werden.
  • 16 veranschaulicht die Außenansicht der Elektronenstrahl-Bestrahlungsplatte. 16(a) ist eine Draufsicht davon, und 16(b) ist eine Querschnittsansicht entlang einer Z-Richtung von 16(a).
  • Wie es in 16 gezeigt ist, umfasst die Elektronenstrahl-Bestrahlungsplatte 90 eine Platte 92 mit mehreren Fensterlöchern 95, durch die ein Elektronenstrahl EB strahlen gelassen werden soll; und einen Dünnfilm 91, der ausgestaltet ist, um die Fensterlöcher 95 zu bedecken.
  • Die Platte 92 ist in einer rechteckigen Form mit einer X-Richtungslänge w und einer Y-Richtungslänge 1 von z. B. einigen zehn Millimetern und einer Z-Richtungslänge h von z. B. einigen Millimetern gebildet. Diese Längen und Form sind jedoch nichts weiter als Beispiele, und die vorliegende Erfindung ist nicht darauf begrenzt. Obwohl jedes Fensterloch 95 eine rechteckige Form aufweist, deren eine Seite z. B. mehrere Millimeter beträgt, sind diese Länge und Form ferner nur Beispiele, und das Fensterloch kann stattdessen eine quadratische Form aufweisen. Obwohl eine Summe von 54 (6 × 9) Fensterlöchern 95 gebildet ist, ist die Zahl der Löcher nicht darauf begrenzt.
  • Die Elektronenstrahl-Bestrahlungsplatte 90 bildet eine Elektronenstrahl-Bestrahlungsvorrichtung, indem sie mit einem Endabschnitt eines nicht veranschaulichten Vakuumgefäßes verbunden ist. Ein Elektronenstahl EB, der von einem Elektronenstrahlgenerator ausgestrahlt wird, der im Inneren des Vakuumgefäßes eingebaut ist, wird in die Atmosphäre durch die Fensterlöcher 95 gestrahlt und schließlich auf ein Zielobjekt eingestrahlt, wie es durch Pfeile in 16(b) angedeutet ist. Die Elektronenstrahl-Bestrahlungsvorrichtung wird für verschiedene Zwecke verwendet, die z. B. Sterilisation und Modifikation einer physikalischen Eigenschaft und chemischen Eigenschaft des Zielobjekts, auf das der Elektronenstrahl eingestrahlt wird, umfassen. Indem der Dünnfilm 91 gebildet ist, kann der Elektronstrahl ausgestrahlt werden, während ein Vakuumzustand aufrechterhalten wird. Hier kann eine mehrschichtige Struktur, die aus mehreren gestapelten Dünnfilmen 91 hergestellt ist, verwendet werden.
  • Die Elektronenstrahl-Bestrahlungsplatte 90 ist auf jedem Die des Wafers 1 durch einen Ätzprozess unter Verwendung einer Fotolithografietechnik oder dergleichen, wie der Protein-Chip 35 in der oben angeführten Ausführungsform gebildet. In diesem Fall weist jeder Die die gleiche Größe wie die der Platte 92 auf.
  • Die Fehlerdetektionsvorrichtung 100 führt einen Bildaufnahmeprozess, einen Hochpassfilterungsprozess, einen Modellbilderzeugungsprozess, einen Blob-Extraktionsprozess usw. für die Elektronenstrahl-Bestrahlungsplatte 90 wie in dem Fall des oben angeführten Protein-Chips 35 durch, und detektiert einen Fehler, wie etwa einen Fremdstoff, eine Fehlerstelle, einen Riss oder dergleichen, der auf der Elektronenstrahl-Bestrahlungsplatte 90 vorhanden ist. Darüber hinaus sind Bildaufnahmen auch mit geringer Vergrößerung und hoher Vergrößerung und an mehreren Brennpunkten entlang der Z-Richtung auf die gleiche Weise möglich. Außerdem wird bei dem Modellbilderzeugungsprozess und dem Blob-Extraktionsprozess eine Positionsausrichtung jedes Prüfungszielbildes entlang der X-, Y- und θ-Richtungen durchgeführt, so dass Kantenformen jedes Fensterloches 95, die in jedem Prüfungszielobjekt gezeigt sind, überlappt sind.
  • Außerdem in dem Fall einer Prüfung der Elektronenstrahl-Bestrahlungsplatte 90 hinsichtlich Merkmalspunkten für die Klassifikation von Fehlern, wie etwa eines Schwellenwerts zur Bestimmung eines Fremdstoffes oder dergleichen, erzeugt der Bildverarbeitungs-PC 10 unabhängige Merkmalspunktdaten auf der Basis von Abtastungen und dergleichen der Elektronenstrahl-Bestrahlungsplatten 90, anders als der Fall der Prüfung des Protein-Chips 35, und klassifiziert die Fehler auf der Basis der Daten.
  • Abgesehen von dem Protein-Chip 35 und der Elektronenstrahl-Bestrahlungsplatte 90 können zusätzlich verschiedene andere MEMS-Einrichtungen, z. B. Sensoren, wie etwa ein Beschleunigungssensor, ein Drucksensor, ein Luftdurchsatzsensor und dergleichen, ein Druckkopf eines Tintenstrahldruckers, ein Mikrospiegelarray eines Reflexionsprojektors, andere Arten von Aktoren, verschiedene Typen von Bio-Chips und dergleichen, ebenfalls als ein Prüfungszielobjekt angewandt werden.
  • Obwohl in der oben beschriebenen Ausführungsform die für die Bildverarbeitung notwendigen Bilder, wie etwa die Prüfungszielbilder 40, die Modellbilder 45, die Differenzbilder 60 und die Blob-Extraktionsbilder 65, in der HDD 25 gespeichert werden, können diese stattdessen temporär in dem RAM 23 oder temporär in einem Pufferbereich getrennt von dem RAM 23 gespeichert werden, und sie können gelöscht werden, sobald der Fehlerklassifikationsprozess abgeschlossen ist. Unter den Prüfungszielbildern sind ferner Bilder, aus welchen keine Differenz durch die Differenzextraktion extrahiert wird, d. h. Bilder, aus welchen kein Fehler detektiert wird, in dem folgenden Prozess nicht notwendig. Somit können sie in einer Folge von einem Zeitpunkt, wenn keine Detektion eines Fehlers bestimmt wird, gelöscht werden. Wenn darüber hinaus die Bilder mit hoher Vergrößerung der zweiten Unterteilungsbereiche 72 für die Prüfungszielbilder der mit der geringen Vergrößerung erfassten ersten Unterteilungsbereiche 71 erfasst werden, werden die Prüfungszielbilder der ersten Unterteilungsbereiche 71 nach der Bildaufnahme der zweiten Unterteilungsbereiche 72 unnötig, so dass sie zu einem Zeitpunkt gelöscht werden können, wenn die Bildaufnahme der zweiten Unterteilungsbereiche 72 abgeschlossen ist. Da in der oben beschriebenen Ausführungsform die Zahl der erfassten Bilder groß ist, kann die Menge an Daten, die in dem RAM 23 oder der HDD 25 gespeichert ist, durch eine Verarbeitung, wie sie oben angeführt ist, reduziert werden, so dass die Last des Bildverarbeitungs-PCs reduziert werden kann.
  • Obwohl in der oben angeführten Ausführungsform die Notwendigkeit der Bildaufnahme mit hoher Vergrößerung auf der Basis beispielsweise des Vorhandenseins oder Fehlens einer Benutzerbedienungseingabe bestimmt wird, kann es auch möglich sein, zuzulassen, dass der Bildverarbeitungs-PC 10 die Zahl von Pixeln von Fehlerkandidaten, die auf den Blob-Extraktionsbildern vorhanden sind, die auf der Basis der Prüfungszielbilder der ersten Unterteilungsbereiche 71 und der Modellbilder extrahiert werden, berechnet, und die Bildaufnahme mit hoher Vergrößerung durchführt, wenn die Zahl von Pixeln eine vorgegebene Zahl übersteigt.
  • Das heißt in dem Fall, dass ein Fehlerkandidat als eine große Pixelfläche gezeigt wird, die genügend ist, um die Art des Fehlers unter den Blob-Extraktionsbildern, die von den Prüfungszielbildern der ersten Unterteilungsbereiche 71 extrahiert werden, zu unterscheiden, wird eine Klassifikation des Fehlers in diesem Moment durchgeführt, wohingegen in dem Fall, dass dessen Pixelfläche klein ist und die Fläche des Fehlerkandidaten nicht genau berechnet werden kann oder die Form des Fehlerkandidaten nicht genau erkannt werden kann, eine Klassifikation des Fehlers im Detail durch die Bildaufnahme mit hoher Vergrößerung davon durchgeführt wird. Da auf diese Weise die Notwendigkeit die Bildaufnahme mit hoher Vergrößerung auf der Basis der Fehlerfläche bestimmt wird und anschließend die Klassifikation des Fehlers durchgeführt wird, wird eine effizientere Klassifikation des Fehlers ermöglicht.
  • In der oben beschriebenen Ausführungsform kann es auch möglich sein, die Bilder der Fehlerkandidaten, die durch Blob-Extraktion auf der Basis der Prüfungszielbilder der ersten und zweiten Unterteilungsbereiche und der Modellbilder extrahiert werden, in der Merkmalspunkt-Datenbank der HDD 25 zusätzlich zu speichern und die Merkmalspunkt-Datenbank, wann immer es notwendig ist, zu aktualisieren. Da in diesem Fall der Bildverarbeitungs-PC die Merkmalspunktdaten jedes Mal dann untersucht, wenn er den Fehlerdetektionsprozess wiederholt, kann die Genauigkeit der Fehlerklassifikation allmählich verbessert werden.
  • Kurzbeschreibung der Zeichnungen
  • 1 liefert eine Konfigurationsansicht einer Fehlerdetektionsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 führt ein Blockdiagramm aus, das die Konfiguration eines Bildverarbeitungs-PC gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 3 zeigt eine Ansicht von oben eines Wafers gemäß der Ausführungsform der vorliegenden Erfindung;
  • 4 stellt eine Draufsicht von einem der Dies des Wafers gemäß der Ausführungsform der vorliegenden Erfindung dar;
  • 5 bietet vergrößerte Ansichten eines Kavitätsabschnitts eines Protein-Chips gemäß der Ausführungsform der vorliegenden Erfindung;
  • 6 liefert ein Flussdiagramm, um schematisch eine Betriebsabfolge der Fehlerdetektionsvorrichtung zu beschreiben, bis sie einen Fehler detektiert;
  • 7 führt ein Diagramm aus, das eine Einrichtung veranschaulicht, die erhalten wird, indem jeder Die in mehrere Unterteilungsbereiche unterteilt wird, gemäß der Ausführungsform der vorliegenden Erfindung;
  • 8 zeigt Bahnen von Bildaufnahmepositionen, wenn eine CCD-Kamera Bilder jedes Unterteilungsbereiches des Protein-Chips erfasst, gemäß der Ausführungsform der vorliegenden Erfindung;
  • 9 veranschaulicht eine Ansicht eines Erfassens von Prüfungszielbildern an unterschiedlichen Fokuslagen durch die CCD-Kamera gemäß der Ausführungsform der vorliegenden Erfindung;
  • 10 stellt ein Flussdiagramm dar, um eine detaillierte Abfolge eines Hochpassfilterungsprozesses gemäß der Ausführungsform der vorliegenden Erfindung zu beschreiben;
  • 11 zeigt ein Flussdiagramm, um eine Prozessabfolge zu beschreiben, bis der Bildverarbeitungs-PC ein Modellbild erzeugt, gemäß der Ausführungsform der vorliegenden Erfindung;
  • 12 veranschaulicht schematisch die Erzeugung des Modellbildes durch den Bildverarbeitungs-PC gemäß der Ausführungsform der vorliegenden Erfindung;
  • 13 veranschaulicht Differenzbilder vor und nach einem Blob-Extraktionsprozess gemäß der Ausführungsform der vorliegenden Erfindung;
  • 14 veranschaulicht schematisch eine Bildaufnahme mit hoher Vergrößerung jedes zweiten Unterteilungsbereiches in Bezug auf einen ersten Unterteilungsbereich, aus welchem ein Fehlerkandidat detektiert wird;
  • 15 liefert Blob-Extraktionsbilder, die jeweils aus Prüfungszielbildern der ersten bzw. zweiten Unterteilungsbereiche extrahiert werden, gemäß der Ausführungsform der vorliegenden Erfindung; und
  • 16 liefert Außenansichten einer Elektronenstrahl-Bestrahlungsplatte gemäß einer anderen Ausführungsform der vorliegenden Erfindung.
  • Bezugszeichenliste
  • zu Fig. 6
  • ST101
    Erfassung eines Bildes jedes ersten Unterteilungsbereiches jedes Dies mit niedriger Vergrößerung
    ST102
    Filterung mit Hochpassfilter
    ST103
    Bildaufnahme für alle ersten Unterteilungsbereiche abgeschlossen?
    ST104
    Hochpassfilterung für alle Prüfungszielbilder durchgeführt?
    ST105
    Erzeugung Modellbild für jeden ersten Unterteilungsbereich
    ST106
    Extraktion Differenz zwischen Modellbild und jedem Prüfungszielbild
    ST107
    Filterung durch Blob-Extraktion
    ST108
    Fehlerkandidat detektiert?
    ST109
    Bildaufnahme mit hoher Vergrößerung notwendig?
    ST110
    Klassifizierung Fehler
    ST111
    Alle Fehlerkandidaten klassifiziert?
    ST112
    Ausgabe Klassifikationsergebnis
    ST113
    Erfassung Bild mit hoher Vergrößerung von erstem Unterteilungsbereich, aus welchem ein Fehlerkandidat detektiert wird, und ersten Unterteilungsbereichen mit entsprechender ID mit Bezug auf jeden zweiten Unterteilungsbereich
    ST114
    Filterung mit Hochpassfilter
    ST115
    Bildaufnahme für alle zweiten Unterteilungsbereiche abgeschlossen?
    ST116
    Hochpassfilterung für alle Prüfungszielbilder durchgeführt?
    ST117
    Erzeugung Modellbild für jeden zweiten Unterteilungsbereich
    ST118
    Extraktion Differenz zwischen Modellbild und jedem Prüfungszielbild
    ST119
    Filterung durch Blob-Extraktion

Claims (14)

  1. Fehlerdetektionsvorrichtung, umfassend: eine Bildgebungseinheit (6) zum Erfassen eines Bildes einer Mikrostruktur mit einer ersten Vergrößerung, wobei die Mikrostruktur auf jedem der Dies (30) eines Halbleiterwafers (1) ausgebildet ist und wobei jeder der Dies (30) in mehrere erste Unterteilungsbereiche (71) aufgeteilt ist; eine Speichereinheit, in der die Bilder der ersten Unterteilungsbereiche (71) zusammen mit Informationen zur Identifizierung ihrer jeweiligen Position innerhalb des Dies (30) als erstes Prüfungszielbild gespeichert werden; eine Modellbilderzeugungseinheit, die ein erstes Modellbild als Mittelwertbild aus den Helligkeitsmittelwerten von an vergleichbaren Positionen innerhalb der jeweiligen ersten Unterteilungsbereiche (71) angeordneten Pixeln erzeugt; eine Detektionseinheit zur Erfassung eines Fehlers der Mikrostruktur in einem ersten Unterteilungsbereich (71) durch Vergleich des ersten Modellbildes mit dem ersten Prüfungszielbild an der ersten Position; eine Steuereinheit zum Steuern der Bildgebungseinheit (6), so dass die Bildgebungseinheit (6) mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, das Bild der Mikrostruktur in dem ersten Unterteilungsbereich (71), in dem ein Fehler detektiert wurde, und von Mikrostrukturen in jeweiligen ersten Unterteilungsbereichen (71) weiterer Dies (30) entsprechend den Informationen des ersten Unterteilungsbereichs (71) erfasst, in welchem der Fehler detektiert wurde, wobei der erste Unterteilungsbereich (71) in zweite Unterteilungsbereiche (72) aufgeteilt wurde; eine Speichereinheit, in der die Bilder der zweiten Unterteilungsbereiche (72) zusammen mit Informationen zu ihrer jeweiligen Position innerhalb des ersten Unterteilungsbereichs als zweites Prüfungszielbild gespeichert werden; eine Modellbilderzeugungseinheit, die ein zweites Modellbild als Mittelwertbild aus den Helligkeitswerten von an vergleichbaren Positionen innerhalb der jeweiligen zweiten Unterteilungsbereiche (72) angeordneten Pixeln erzeugt; und eine Fehlerklassifikationseinheit zum Bestimmen der Art des detektierten Fehlers durch einen Vergleich des zweiten Modellbildes mit jedem zweiten Prüfungszielbild entsprechend der Position des zweiten Modellbildes.
  2. Fehlerdetektionsvorrichtung nach Anspruch 1, wobei die Speichereinheit darin Merkmalspunktdaten speichert, die jeden Merkmalspunkt von mehreren Arten von Fehlern angeben, wobei die Detektionseinheit eine erste Differenzextraktionseinheit zum Extrahieren einer Differenz zwischen dem ersten Modellbild und jedem ersten Prüfungszielbild als ein erstes Differenzbild umfasst, und wobei die Fehlerklassifikationseinheit eine zweite Differenzextraktionseinheit zum Extrahieren einer Differenz zwischen dem zweiten Modellbild und jedem zweiten Prüfungszielbild als ein zweites Differenzbild, eine Merkmalspunktextraktionseinheit zum Extrahieren eines Merkmalspunktes eines Fehlers in den extrahierten Differenzbildern und eine Klassifikationseinheit zum Bestimmen der Art des Fehlers umfasst, indem der extrahierte Merkmalspunkt mit den Merkmalspunktdaten verglichen wird.
  3. Fehlerdetektionsvorrichtung nach Anspruch 2, wobei die Speichereinheit eine Einheit zum Aktualisieren der Merkmalspunktdaten auf der Basis des Merkmalspunktes, der von der Merkmalspunktextraktionseinheit extrahiert wird, umfasst.
  4. Fehlerdetektionsvorrichtung nach Anspruch 2, wobei die Steuereinheit eine Einheit zum Berechnen der Zahl von Pixeln, die der Fehler in dem ersten Differenzbild, der von der ersten Differenzextraktionseinheit detektiert wird, innerhalb des ersten Differenzbildes einnimmt, und zum Durchführen einer Bildaufnahme mit der zweiten Vergrößerung für jeden zweiten Unterteilungsbereich, wenn die Zahl von Pixeln kleiner als ein vorgegebener Wert ist, umfasst, und die Fehlerklassifikationseinheit die Art des Fehlers auf der Basis des ersten Differenzbildes bestimmt, wenn die Bildaufnahme mit der zweiten Vergrößerung nicht durchgeführt wird.
  5. Fehlerdetektionsvorrichtung nach Anspruch 1, wobei die Modellbilderzeugungseinheit eine Einheit zum Berechnen eines Helligkeitsmittelwertes von jedem Pixel umfasst, das jedes Zielbild mit den entsprechenden Informationen bildet.
  6. Fehlerdetektionsvorrichtung nach Anspruch 1, wobei die Bildgebungseinheit (6) nacheinander die Bilder der Mikrostrukturen auf jeweiligen Unterteilungsbereichen (71) mit den entsprechenden Informationen über die Dies (30) erfasst.
  7. Fehlerdetektionsvorrichtung nach Anspruch 1, wobei nach dem Erfassen der Bilder der Mikrostrukturen in allen Unterteilungsbereichen (71) auf einem Die (30) die Bildgebungseinheit (6) die Bilder der Mikrostrukturen in jeweiligen Unterteilungsbereichen (71) auf einem anderen Die benachbart zu dem einen Die (30) erfasst.
  8. Fehlerdetektionsvorrichtung nach Anspruch 2, wobei die Mikrostrukturen Screening-Testträger sind, umfassend: mehrere Kavitäten (50), die jeweils eine aus einem Dünnfilm (53) geformte Bodenfläche und darin eingebracht ein Reagens und einen Antikörper, der mit dem Reagens eine Kreuzreaktion zeigt, aufweisen; und mehrere Löcher (55), die in der Bodenfläche jeder Kavität (50) vorgesehen sind, um das Reagens, das nicht mit dem Antikörper reagiert, auszutragen.
  9. Fehlerdetektionsvorrichtung nach Anspruch 8, wobei vor dem Erzeugen des ersten Modellbildes und des zweiten Modellbildes die Modellbilderzeugungseinheit jeweilige Positionen des ersten und zweiten Prüfungszielbildes auf der Basis der Form jeder Kavität (50) des Trägers auf dem ersten und zweiten Prüfungszielbild ausrichtet.
  10. Fehlerdetektionsvorrichtung nach Anspruch 8, wobei vor der Extraktion der Differenzen die erste und zweite Differenzextraktionseinheit Positionen des ersten Modellbildes und jedes ersten Prüfungszielbildes ausrichten, und Positionen des zweiten Modellbildes und jedes zweiten Prüfungszielbildes auf der Basis der Form jeder Kavität (50) des Trägers auf dem ersten und zweiten Modellbild und der Form jeder Kavität (50) auf jedem ersten Prüfungszielbild entsprechend den Informationen des ersten Modellbildes und jedes zweiten Prüfungszielbildes entsprechend den Informationen des zweiten Modellbildes ausrichten.
  11. Fehlerdetektionsvorrichtung nach Anspruch 2, wobei die Mikrostruktur eine Elektronenstrahl-Bestrahlungsplatte (90) ist, die ein Plattenelement (92) mit mehreren Fensterlöchern (95) zum Bestrahlen von Elektronenstrahlen und einem Dünnfilm (91), der vorgesehen ist, um jedes Fensterloch (95) zu bedecken, umfasst.
  12. Fehlerdetektionsvorrichtung nach Anspruch 11, wobei vor dem Erzeugen des ersten Modellbildes und des zweiten Modellbildes die Modellbilderzeugungseinheit jeweilige Positionen der ersten und zweiten Prüfungszielbilder auf der Basis der Form jedes Fensterlochs (95) der Elektronenstrahl-Bestrahlungsplatte (90) auf den ersten und zweiten Prüfungszielbildern ausrichtet.
  13. Fehlerdetektionsvorrichtung nach Anspruch 11, wobei vor der Extraktion der Differenzen die erste und zweite Differenzextraktionseinheit Positionen des ersten Modellbildes und jedes ersten Prüfungszielbildes ausrichten und Positionen des zweiten Modellbildes und jedes zweiten Prüfungszielbildes ausrichten, und zwar auf der Basis der Form jedes Fensterlochs (95) der Elektronenstrahl-Bestrahlungsplatte (90) auf dem ersten und zweiten Modellbild und der Form jedes Fensterlochs auf jedem ersten Prüfungszielbild entsprechend den Informationen des ersten Modellbildes und jedem zweiten Prüfungszielbild entsprechend den Informationen des zweiten Modellbildes.
  14. Fehlerdetektionsverfahren, das umfasst: Erfassen eines Bildes einer Mikrostruktur mit einer ersten Vergrößerung, die auf jedem von mehreren Dies (30) eines Halbleiterwafers (1) ausgebildet ist, wobei jeder dieser Dies (30) in mehrere erste Unterteilungsbereiche (71) aufgeteilt ist; Speichern der Bilder der ersten Unterteilungsbereiche (71) zusammen mit Informationen zur Identifizierung ihrer jeweiligen Position innerhalb des Dies (30) als ein erstes Prüfungszielbild; Erzeugen eines ersten Modellbilds als Mittelwertbild aus den Helligkeitsmittelwerten von an vergleichbaren Positionen innerhalb der jeweiligen ersten Unterteilungsbereiche (71) angeordneten Pixeln; Detektieren eines Fehlers der Mikrostruktur in einem ersten Unterteilungsbereich (71) durch Vergleich des ersten Modellbilds mit dem ersten Prüfungszielbild an der ersten Position; Erfassen eines Bildes der Mikrostruktur mit einer zweiten Vergrößerung, die höher als die erste Vergrößerung ist, des Bildes der Mikrostruktur in dem ersten Unterteilungsbereich (71), in dem ein Fehler detektiert wurde, und von Mikrostrukturen in jeweiligen ersten Unterteilungsbereichen (71) innerhalb weiterer Dies (30) entsprechend den Informationen des ersten Unterteilungsbereiches (71), in dem der Fehler detektiert wurde, wobei der erste Unterteilungsbereich (71) in zweite Unterteilungsbereiche (72) aufgeteilt wurde; Speichern der Bildes der zweiten Unterteilungsbereiche (72) zusammen mit Informationen zu ihrer jeweiligen Position innerhalb des ersten Unterteilungsbereichs (71) als zweites Prüfungszielbild; Erzeugen eines zweiten Modellbilds als Mittelwertbild aus den Helligkeitswerten von an vergleichbaren Positionen innerhalb der jeweiligen zweiten Unterteilungsbereiche (72) angeordneten Pixeln; und Bestimmen der Art des detektierten Fehlers durch einen Vergleich des zweiten Modellbilds mit jedem zweiten Prüfungszielbild entsprechend der Position des zweiten Modellbildes.
DE112007002927T 2006-12-04 2007-11-30 Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm dafür Expired - Fee Related DE112007002927B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006327102A JP4065893B1 (ja) 2006-12-04 2006-12-04 欠陥検出装置、欠陥検出方法、情報処理装置、情報処理方法及びそのプログラム
JP2006-327102 2006-12-04
PCT/JP2007/001336 WO2008068895A1 (ja) 2006-12-04 2007-11-30 欠陥検出装置、欠陥検出方法、情報処理装置、情報処理方法及びそのプログラム

Publications (2)

Publication Number Publication Date
DE112007002927T5 DE112007002927T5 (de) 2010-04-08
DE112007002927B4 true DE112007002927B4 (de) 2013-01-17

Family

ID=39294015

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007002927T Expired - Fee Related DE112007002927B4 (de) 2006-12-04 2007-11-30 Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm dafür

Country Status (5)

Country Link
US (1) US7783102B2 (de)
JP (1) JP4065893B1 (de)
KR (1) KR100924985B1 (de)
DE (1) DE112007002927B4 (de)
WO (1) WO2008068895A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012217633A1 (de) * 2012-09-27 2014-03-27 Osram Opto Semiconductors Gmbh Verfahren und Vorrichtung zur Überprüfung eines optoelektronischen Bauteils auf Risse

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5006520B2 (ja) * 2005-03-22 2012-08-22 株式会社日立ハイテクノロジーズ 欠陥観察装置及び欠陥観察装置を用いた欠陥観察方法
CN100573315C (zh) * 2007-04-04 2009-12-23 鸿富锦精密工业(深圳)有限公司 相机模块污点测试系统及方法
EP2179295B1 (de) * 2007-08-03 2021-05-05 Flir Systems, Inc. Drahtlose ferndetektorsysteme und verfahren
SG158782A1 (en) * 2008-07-28 2010-02-26 Chan Sok Leng Method and system for detecting micro-cracks in wafers
JP5342210B2 (ja) * 2008-10-30 2013-11-13 三菱重工業株式会社 アライメント装置制御装置およびアライメント方法
KR101029460B1 (ko) 2009-04-10 2011-04-15 에스엔유 프리시젼 주식회사 영상 센터링 방법
US8321422B1 (en) 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8396325B1 (en) 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
JP5500871B2 (ja) * 2009-05-29 2014-05-21 株式会社日立ハイテクノロジーズ テンプレートマッチング用テンプレート作成方法、及びテンプレート作成装置
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
US20130161851A1 (en) * 2011-12-22 2013-06-27 Pilkington Group Limited Method and apparatus for detecting glass breakage during a process for encapsulating a tempered glass panel
JP5821708B2 (ja) * 2012-03-06 2015-11-24 トヨタ自動車株式会社 欠陥検査装置及び欠陥検査方法
JP5832345B2 (ja) * 2012-03-22 2015-12-16 株式会社ニューフレアテクノロジー 検査装置および検査方法
US8983168B2 (en) * 2012-04-30 2015-03-17 Ncr Corporation System and method of categorising defects in a media item
US8938119B1 (en) 2012-05-01 2015-01-20 Google Inc. Facade illumination removal
JP5943722B2 (ja) * 2012-06-08 2016-07-05 三菱重工業株式会社 欠陥判定装置、放射線撮像システム、及び欠陥判定方法
KR102025704B1 (ko) * 2012-09-14 2019-09-27 삼성디스플레이 주식회사 필름 검사 장치
US9390494B2 (en) * 2012-12-13 2016-07-12 Kla-Tencor Corporation Delta die intensity map measurement
JP2015025758A (ja) * 2013-07-26 2015-02-05 Hoya株式会社 基板検査方法、基板製造方法および基板検査装置
ES2706749T3 (es) * 2013-11-04 2019-04-01 Cyrill Gyger Método para procesar datos de imagen que representan un volumen tridimensional
KR101540569B1 (ko) * 2013-12-24 2015-07-31 주식회사 엘지실트론 웨이퍼의 형상 분석 방법 및 장치
US10127652B2 (en) * 2014-02-06 2018-11-13 Kla-Tencor Corp. Defect detection and classification based on attributes determined from a standard reference image
CN106062510B (zh) * 2014-04-25 2021-08-03 索尼公司 信息处理装置、信息处理方法和计算机程序
US10437157B2 (en) 2014-12-09 2019-10-08 Asml Netherlands B.V. Method and apparatus for image analysis
US10607334B2 (en) * 2014-12-09 2020-03-31 Asml Netherlands B.V. Method and apparatus for image analysis
WO2017130304A1 (ja) * 2016-01-27 2017-08-03 株式会社日立ハイテクノロジーズ 計測装置、方法および表示装置
JP6303190B2 (ja) * 2016-02-05 2018-04-04 スミックス株式会社 基板のたわみ検査用ラインカメラ、検査装置、検査方法
JP6450700B2 (ja) * 2016-03-29 2019-01-09 Ckd株式会社 基板検査装置
JP6758929B2 (ja) * 2016-06-03 2020-09-23 株式会社ニューフレアテクノロジー 検査方法
JP6897042B2 (ja) * 2016-09-27 2021-06-30 日本電気株式会社 画像検査装置、画像検査方法および画像検査プログラム
JP6797481B2 (ja) * 2017-03-01 2020-12-09 株式会社ディスコ 半導体インゴットの検査方法、検査装置及びレーザー加工装置
JP2018180875A (ja) * 2017-04-12 2018-11-15 富士通株式会社 判定装置、判定方法および判定プログラム
US10648925B2 (en) * 2017-06-05 2020-05-12 Kla-Tencor Corporation Repeater defect detection
US10290087B2 (en) * 2017-09-11 2019-05-14 Applied Materials Israel Ltd. Method of generating an examination recipe and system thereof
JP7073785B2 (ja) * 2018-03-05 2022-05-24 オムロン株式会社 画像検査装置、画像検査方法及び画像検査プログラム
WO2019194064A1 (ja) * 2018-04-02 2019-10-10 日本電産株式会社 画像処理装置、画像処理方法、外観検査システムおよび外観検査方法
JP7007993B2 (ja) * 2018-07-06 2022-01-25 東レエンジニアリング株式会社 ダイシングチップ検査装置
JP7214432B2 (ja) * 2018-10-22 2023-01-30 キヤノン株式会社 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
US11257208B2 (en) * 2018-11-13 2022-02-22 Samsung Display Co., Ltd. Defect inspection system for specimen and defect inspection method for specimen
KR102650697B1 (ko) * 2018-12-04 2024-03-25 삼성전자주식회사 반도체 웨이퍼 검사 방법 및 시스템, 및 이를 이용한 반도체 소자의 제조 방법
US10853932B2 (en) * 2019-01-16 2020-12-01 Applied Material Israel, Ltd. Method of defect detection on a specimen and system thereof
TWI700644B (zh) * 2019-04-02 2020-08-01 精英電腦股份有限公司 板件構件的即時定位裝置與方法
CN112038254A (zh) * 2019-05-15 2020-12-04 天津科技大学 基于机器视觉技术的晶圆自动检测与标记装置及设计方法
CN111127571B (zh) 2019-12-03 2023-12-29 歌尔股份有限公司 一种小样本缺陷分类方法和装置
CN113324497B (zh) * 2020-02-28 2022-08-12 中芯国际集成电路制造(天津)有限公司 一种平整度检测方法、装置、找平系统及存储介质
CN111366584B (zh) * 2020-04-09 2023-01-03 安徽科技学院 基于视觉识别的报废汽车可回收零部件损伤分类方法及设备
CN111524135B (zh) * 2020-05-11 2023-12-26 安徽继远软件有限公司 基于图像增强的输电线路细小金具缺陷检测方法及系统
CN112229838A (zh) * 2020-09-29 2021-01-15 广汽本田汽车有限公司 一种车身加强剂视觉跟随检测方法及装置
CN113361487A (zh) * 2021-07-09 2021-09-07 无锡时代天使医疗器械科技有限公司 异物检测方法、装置、设备及计算机可读存储介质
CN113688828B (zh) * 2021-07-23 2023-09-29 山东云海国创云计算装备产业创新中心有限公司 一种坏元识别方法及相关装置
KR102649495B1 (ko) * 2021-12-28 2024-03-20 주식회사 라온솔루션 사물인터넷 플랫폼 서버와 연동되는 반도체 웨이퍼 칩 분석을 위한 자동 광학측정장치
CN115908420A (zh) * 2023-01-10 2023-04-04 北京阿丘机器人科技有限公司 印刷电路板的缺陷检测方法、装置、设备及存储介质
CN117096068B (zh) * 2023-10-18 2023-12-26 江苏卓玉智能科技有限公司 在ic封装中的晶圆覆膜加工控制方法及系统
CN117309766B (zh) * 2023-10-20 2024-03-29 苏州宣雄智能科技有限公司 一种产品表面缺陷的视觉检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10011200A1 (de) * 2000-03-08 2001-09-13 Leica Microsystems Verfahren zur Bewertung von Strukturfehlern auf einer Waferoberfläche
DE102006017833A1 (de) * 2005-04-27 2006-11-16 Tokyo Seimitsu Co. Ltd., Mitaka Erscheinungsprüfungsvorrichtung und Erscheinungsprüfungsverfahren
US7457455B2 (en) * 2003-11-28 2008-11-25 Hitachi High-Technologies Corporation Pattern defect inspection method and apparatus

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69208413T2 (de) 1991-08-22 1996-11-14 Kla Instr Corp Gerät zur automatischen Prüfung von Photomaske
US5563702A (en) * 1991-08-22 1996-10-08 Kla Instruments Corporation Automated photomask inspection apparatus and method
JP3257010B2 (ja) * 1992-01-07 2002-02-18 株式会社日立製作所 パターン検査方法及び装置
JPH06213820A (ja) * 1993-01-14 1994-08-05 Toshiba Corp 異物判別方法
JPH06308040A (ja) * 1993-04-22 1994-11-04 Matsushita Electric Ind Co Ltd 異物検査装置
JPH1173513A (ja) 1997-06-25 1999-03-16 Matsushita Electric Works Ltd パターン検査方法及びその装置
JP4230566B2 (ja) * 1998-07-21 2009-02-25 東芝ソリューション株式会社 欠陥統合処理装置および欠陥統合処理方法
JP4175748B2 (ja) * 1999-09-20 2008-11-05 大日本スクリーン製造株式会社 パターン検査装置
US20070131877A9 (en) * 1999-11-29 2007-06-14 Takashi Hiroi Pattern inspection method and system therefor
JP2001185591A (ja) 1999-12-27 2001-07-06 Hitachi Ltd 欠陥の詳細検査方法および装置
JP4014379B2 (ja) * 2001-02-21 2007-11-28 株式会社日立製作所 欠陥レビュー装置及び方法
JP2003308803A (ja) * 2002-04-12 2003-10-31 Seiko Instruments Inc 走査型顕微鏡におけるリファレンス画像先読み機能
JP4095860B2 (ja) * 2002-08-12 2008-06-04 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
GB2409660A (en) * 2002-08-20 2005-07-06 Prec Automation Inc Apparatus and method of processing materials
JP3668215B2 (ja) * 2002-08-21 2005-07-06 株式会社東芝 パターン検査装置
JP4230184B2 (ja) * 2002-08-30 2009-02-25 浜松ホトニクス株式会社 ウェーハ検査装置およびウェーハ検査方法
JP4046161B2 (ja) * 2002-10-29 2008-02-13 独立行政法人放射線医学総合研究所 標本画像データ処理方法及び標本検査システム
JP2004317190A (ja) * 2003-04-14 2004-11-11 Neomax Co Ltd 高速凹凸判定可能な表面検査方法及び表面検査システム
US7068363B2 (en) * 2003-06-06 2006-06-27 Kla-Tencor Technologies Corp. Systems for inspection of patterned or unpatterned wafers and other specimen
JP2005265661A (ja) 2004-03-19 2005-09-29 Ovit:Kk 画像処理方法およびその装置
JP2006100707A (ja) * 2004-09-30 2006-04-13 Mitsubishi Heavy Ind Ltd 素子製造装置
JP2006242900A (ja) * 2005-03-07 2006-09-14 Mitsubishi Chemicals Corp センサユニット及び反応場セルユニット並びに分析装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10011200A1 (de) * 2000-03-08 2001-09-13 Leica Microsystems Verfahren zur Bewertung von Strukturfehlern auf einer Waferoberfläche
US7457455B2 (en) * 2003-11-28 2008-11-25 Hitachi High-Technologies Corporation Pattern defect inspection method and apparatus
DE102006017833A1 (de) * 2005-04-27 2006-11-16 Tokyo Seimitsu Co. Ltd., Mitaka Erscheinungsprüfungsvorrichtung und Erscheinungsprüfungsverfahren

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012217633A1 (de) * 2012-09-27 2014-03-27 Osram Opto Semiconductors Gmbh Verfahren und Vorrichtung zur Überprüfung eines optoelektronischen Bauteils auf Risse

Also Published As

Publication number Publication date
US7783102B2 (en) 2010-08-24
DE112007002927T5 (de) 2010-04-08
JP4065893B1 (ja) 2008-03-26
WO2008068895A1 (ja) 2008-06-12
US20100074516A1 (en) 2010-03-25
JP2008139202A (ja) 2008-06-19
KR100924985B1 (ko) 2009-11-04
KR20090074245A (ko) 2009-07-06

Similar Documents

Publication Publication Date Title
DE112007002927B4 (de) Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm dafür
DE112007002949T5 (de) Fehlerdetektionsvorrichtung, Fehlerdetektionsverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE112016004904B4 (de) Überprüfungsmethode und Überprüfungsvorrichtung
DE112016000419B4 (de) Waferinspektion mit einem Verfahren mit volumetrischen Fokus
DE19803021A1 (de) Verfahren und Vorrichtung zur Musteruntersuchung
DE102004004761A1 (de) Vorrichtung und Verfahren zur Inspektion eines Wafers
EP1669741A1 (de) Verfahren und System zur Inspektion eines Wafers
WO2005090950A1 (de) Verfahren und system zur inspektion von oberflächen
DE202010018585U1 (de) Vorrichtung zur Messung einer dreidimensionalen Form
DE102014204876A1 (de) Inspektionsverfahren und Inspektionsvorrichtung
DE10237540A1 (de) Fehlerinspektionsvorrichtung und Herstellungsverfahren einer Halbleitervorrichtung
DE112016004097T5 (de) Waferinspektionsverfahren und Waferinspektionsvorrichtung
DE102005014593A1 (de) Vorrichtung zur Inspektion eines scheibenförmigen Objekts
WO2013183471A1 (ja) 外観検査装置及び外観検査方法
WO2007000293A2 (de) Vorrichtung und verfahren zum visuellen erfassen von flächigen oder räumlichen objekten
WO2011000870A1 (de) Bearbeitungsanlage
DE102007039982B3 (de) Verfahren zur optischen Inspektion und Visualisierung der von scheibenförmigen Objekten gewonnenen optischen Messerwerte
WO2014086511A1 (de) Inspektionsvorrichtung
DE10359722A1 (de) Verfahren zur Inspektion eines Wafers
US7679746B1 (en) System and method for measurement of pressure drop through perforated panels
KR20030011919A (ko) 어댑티브 공간 필터를 갖는 광학 검사 방법 및 광학 검사장치
DE10317078A1 (de) Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
DE102008028869A1 (de) Verfahren und Vorrichtung zur Inspektion eines scheibenförmigen Gegenstandes
DE102006042956B4 (de) Verfahren zur optischen Inspektion und Visualisierung der von scheibenförmigen Objekten gewonnenen optischen Messwerte
AT402860B (de) Verfahren und vorrichtung zur prüfung von transparenten gegenständen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130418

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee