WO2015154891A1 - Inspektionsanordnung - Google Patents

Inspektionsanordnung Download PDF

Info

Publication number
WO2015154891A1
WO2015154891A1 PCT/EP2015/051191 EP2015051191W WO2015154891A1 WO 2015154891 A1 WO2015154891 A1 WO 2015154891A1 EP 2015051191 W EP2015051191 W EP 2015051191W WO 2015154891 A1 WO2015154891 A1 WO 2015154891A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
shutter
image
time
relative movement
Prior art date
Application number
PCT/EP2015/051191
Other languages
English (en)
French (fr)
Inventor
Bernd Srocka
Original Assignee
Hseb Dresden Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hseb Dresden Gmbh filed Critical Hseb Dresden Gmbh
Publication of WO2015154891A1 publication Critical patent/WO2015154891A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N2021/8909Scan signal processing specially adapted for inspection of running sheets
    • G01N2021/8912Processing using lane subdivision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing

Definitions

  • the object and / or the camera move without stopping.
  • a continuously radiating illumination arrangement with a light source whose intensity is regulated to a constant value.
  • the shutter By using the shutter, the object is illuminated continuously, but the sensor is only exposed for a short time.
  • the camera is an area camera in which the picture elements are arranged in rows and columns. But it can also be used a line scan camera, in which the picture elements are arranged in a row.
  • the camera 10 is in the present Embodiment provided with a global shutter. This allows limiting the exposure time of the sensor in the camera to a desired value.
  • Fig. 2 shows a more detailed representation of the schematic arrangement of Fig. 1.
  • 12 denotes a base plate for constructing the inspection unit, 52 a movable holding device for receiving the wafer, 46 a likewise movable carriage which carries the receiving unit.
  • the recording unit 42 is composed of the camera 45, optical elements for imaging the inspected sample location on the sensor of the camera 26 and 47, and means for adjustment 53 and 55.
  • 26 designates the Tubuslinse and 47, the front lens of the lens.
  • 53 is an adjustable arrangement with which the height and inclination of the lens camera system can be adjusted.

Landscapes

  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Ein Verfahren zur Inspektion von Wafern oder anderen flachen Objekten (40), enthaltend die Schritte: Erzeugen einer Relativbewegung einer Kameraanordnung (10, 20) mit einer digitalen Kamera und dem Objekt, bei welcher zu einem Aufnahmezeitraum ein Teil der Objektoberfläche von der Kamera erfasst wird; Beleuchten des Objekts; und Aufnehmen eines oder mehrerer Bilder zumindest eines Teils der Objektoberfläche mit der Kamera in einer Kameraanordnung, wobei das Objekt kontinuierlich beleuchtet wird, die Beleuchtungsstärke auf einen konstanten Wert geregelt wird, die Relativbewegung zwischen der Kameraanordnung und dem Objekt kontinuierlich und ohne Unterbrechung erfolgt, und die Belichtungsdauer bei der Aufnahme des Bildes mit einem Shutter auf eine Belichtungsdauer begrenzt wird, die geringer ist die Zeit, in der die aus der Relativbewegung resultierende Bewegungsunschärfe des Bildes nicht größer ist als für die Bildauswertung zulässig.

Description

Inspektionsanordnung
Die Erfindung betrifft eine Vorrichtung zur Inspektion eines Wafers oder anderen flachen Objekts, enthaltend
(a) eine Objekthalterung zur Aufnahme jeweils eines der Objekte;
(b) eine Kameraanordnung mit einer Kamera mit einer Vielzahl von Bildelementen zur Aufnahme eines Bildes zumindest eines Teiles des Objekts;
(c) eine Antriebsanordnung zur Erzeugung einer Relativbewegung zwischen der Kameraanordnung und dem Objekt; und
(d) eine Beleuchtungsanordnung zum Beleuchten des Objekts.
Die Erfindung betrifft ferner ein Verfahren zur Inspektion von Wafern oder anderen flachen Objekten, enthaltend die Schritte:
(a) Erzeugen einer Relativbewegung einer Kameraanordnung mit einer digitalen Kamera und dem Objekt, bei welcher zu einem Aufnahmezeitraum ein Teil der Objektoberfläche von der Kamera erfasst wird;
(b) Beleuchten des Objekts; und
(c) Aufnehmen eines oder mehrerer Bilder zumindest eines Teils der Objektoberfläche mit der Kamera in einer Kameraanordnung. In verschiedenen Industriezweigen werden flächige Produkte mit optischen, bildgebenden Verfahren auf Fehler untersucht. In der Halbleiter- und Solarzellenindustrie sind dies unter anderem Wafer. Wafer sind Scheiben aus Halbleiter-, Glas-, Folien- oder Keramikmaterialien. Die Wafer werden in bestimmten Anwendungen typischerweise ganzflächig oder zumindest auf großen Teilflächen geprüft. Diese Prüfung nennt man Makro-Inspektion. Die für die Erkennung der gesuchten Fehler erforderliche laterale Auflösung steigt dabei mit der Weiterentwicklung der allgemeinen Produktionstechnik. Typischerweise werden für neue Technologien Auflösungen in der Makro-Inspektion von 5 μιη und kleiner - bis zu 1 μιη - verlangt. Gleichzeitig sind Geräte mit einem hohen Durchsatz an zu prüfenden Wafern wünschenswert. Ebenso wünschenswert ist eine Möglichkeit, bei verringerten Auflösungsanforderungen den Durchsatz der Inspektion einzig durch Softwareeinstellungen steigern zu können. Analoge Aufgabenstellungen sind in anderen Industriezweigen zu lösen. In der Flat-Panel- Industrie sind die Displays in der Produktion auf Fehler zu prüfen. Dabei werden zum Teil ganzflächig auf den Displays bildgebende Verfahren zur Fehlersuche benutzt. In der Elektroindustrie werden bei der Prüfung von Leiterplatten Fehler mit optischen Verfahren auf Serien von Prüflingen ermittelt.
Gemeinsam ist allen diesen Anwendungen der Bedarf an schneller Prüfung einer hohen Anzahl von in der Regel gleichartigen Prüflingen. Solche Objekte sind Leiterplatten, Wafer, Solarzellen, Displays und dergleichen. Gemeinsam ist den Anwendungen auch der Einsatz von Sensoren zur Erzeugung von großflächigen Abbildungen der Prüflinge. Die Abbildungen können je nach Art des gesuchten Fehlers mit optisch fotografierenden Systemen erzeugt werden. Optisch fotografierende Systeme sind beispielsweise Flächenoder Zeilenkameras mit einer Vielzahl von Bildpunkten, auch„Pixel" genannt.
Üblicherweise werden die zu untersuchenden Wafer durch die Aufnahme einer Vielzahl von Bildern fotografiert, wobei Wafer und Aufnahmesystem für jedes einzelne Bild gegeneinander verschoben werden, um so die gesamte Waferoberfläche zu inspizieren. Es kommen dabei sowohl Zeilen- wie auch Flächenkameras als Aufnahmesensoren zum Einsatz. Die Verschiebung zwischen Objekt und Aufnahmesystem erfolgt entweder schrittweise oder kontinuierlich. Bei der schrittweisen Verschiebung wird der Wafer oder die Kamera bewegt und für die Aufnahme eines Bildes angehalten. Ein solches System arbeitet vergleichsweise langsam und der Durchsatz an Objekten für die Inspektion ist begrenzt. Bei der kontinuierlichen Verschiebung werden die Bilder während der Bewegung des Wafers ohne anzuhalten mit ausreichend kurzen Blitzen beleuchtet. Unterschiedliche Auflösungen werden durch den Einsatz verschiedener Objektive mit unterschiedlichen Vergrößerungsfaktoren erreicht. All diesen Verfahren ist gemeinsam, dass die Inspektion eines gesamten Wafers eine Vielzahl von Bildern und eine mechanische Bewegung erfordert. Die Inspektion beansprucht daher eine erhebliche Zeit. Mit steigender Auflösung wächst die Inspektionszeit quadratisch. Stand der Technik
WO 2009 121628 A2 offenbart ein Verfahren zur Inspektion des gesamten Wafers mit einer einzigen Aufnahme ohne den Wafer zu bewegen. Diese Lösung ist sehr schnell, zeigt jedoch Mängel in der Auflösung für einzelne kleine Defekte.
US 2011 0069878 AI zeigt ein zweidimensionales Kamera- Array, das über einer ohne Halt bewegten Leiterplatte angeordnet ist.
US 6791680 Bl offenbart eine Inspektionsanordnung mit einer Anordnung aus einfachen Inspektionsvorrichtungen, die simultan eine Waferoberfläche untersuchen. Jede Vorrichtung nimmt einen Teil der Waferoberfläche auf. Es ist ferner vorgesehen, dass der Wafer oder die Anordnung bewegt werden, so dass die gesamte Waferoberfläche aufgenommen wird. US 5298963 und US 6324298 offenbaren Anordnungen, bei der die Beleuchtung mittels Lichtblitzen erfolgt um ein stehendes und somit scharfes Bild des Objekts zu erzeugen während das Objekt sich kontinuierlich unterhalb der Kamera bewegt. Die Verwendung von Blitzen hat den Nachteil, dass die Intensität in der Regel von Blitz zu Blitz schwankt. Dann reicht der dynamische Bereich der Detektorelemente der Kamera möglicherweise nicht aus. Zudem ist es schwierig, stabile Blitze mit hoher Frequenz und immer genau gleicher Intensität zu erzeugen. Entsprechend ist die Bewegungsgeschwindigkeit des Objekts bei der Aufnahme limitiert. Offenbarung der Erfindung
Es ist Aufgabe der Erfindung, eine Vorrichtung der eingangs genannten Art zu schaffen, die eine Inspektion in kürzerer Zeit mit hoher Genauigkeit ermöglicht.
Erfindungsgemäß wird die Aufgabe dadurch gelöst, dass
(e) die Beleuchtungsanordnung das Objekt kontinuierlich beleuchtet,
(f) Mittel zur Regelung der Beleuchtungsstärke auf einen konstanten Wert vorgesehen sind,
(g) die Relativbewegung zwischen der Kameraanordnung und dem Objekt kontinuierlich und ohne Unterbrechung erfolgt, und
(h) ein Shutter zum Begrenzen der Belichtungsdauer bei der Aufnahme des Bildes vorgesehen ist, wobei
(i) die am Shutter eingestellte Belichtungsdauer geringer ist als die Zeit, in der die aus der Relativbewegung resultierende Bewegungsunschärfe des Bildes nicht größer ist als für die Bildauswertung zulässig.
Bei einer solchen Anordnung bewegen sich das Objekt und/oder die Kamera ohne Halt. Dadurch wird ein hoher Durchsatz erreicht. Es wird eine kontinuierlich strahlende Beleuchtungsanordnung mit einer Lichtquelle verwendet, deren Intensität auf einen konstanten Wert geregelt wird. Durch die Verwendung des Shutters wird das Objekt zwar kontinuierlich beleuchtet, aber der Sensor nur für eine kurze Zeit belichtet. Durch diese beiden Maßnahmen ist sichergestellt, dass die Detektorelemente auch bei hohem Durchsatz immer im dynamischen Bereich arbeiten. Des Weiteren kann über die Dauer der Shutteröffnung, d.h. die Belichtungszeit des Sensors, die maximale Bildunschärfe infolge der Objektbewegung eingestellt werden.
Dabei bezeichnen die Begriffe „Beleuchtungszeit" oder „Beleuchtungsdauer" den Zeitraum, für den die Probe bei Einsatz einer nicht kontinuierlich strahlenden Lichtquelle bestrahlt wird. Der Zeitraum, für den der Shutter der Kamera geöffnet ist und die Kamera Licht sammelt, ist mit„Belichtungszeit" oder Belichtungsdauer bezeichnet. Der Begriff „Aufnahmezeit" oder„Aufnahmedauer" bezeichnet den Fall, bei dem beide Möglichkeiten gleichzeitig betrachtet werden. Anders als bei Verwendung eines Blitzlichtes in bekannten Anordnungen ist die Lichtquelle gut regelbar. Bei Hochgeschwindigkeitsaufnahmen mit Flächenkameras sind Blitze mit hoher Peak-Intensität erforderlich um bei kürzerer Beleuchtungszeit und höheren Frequenzen die gleiche mittlere Intensität am Detektor zu erreichen. Diese sind bezüglich der Intensität instabil. Auch Probleme beim Nachladen der Energieversorgung für das Blitzlichtsystem werden bei der vorliegenden Erfindung vermieden. Der Einsatz einer kontinuierlichen Lichtquelle, wie in der vorliegenden Erfindung vorgesehen, erleichtert die Stabilisierung der Lichtintensität. Eine kontinuierliche Quelle kann mit üblichen Verfahren einer closed-loop-Regelung präzise nachgesteuert und somit stabilisiert werden. Eine solche Regelung ermöglicht es, Erscheinungen wie den Temperaturdrift, Alterungserscheinungen des Leuchtmittels oder Anlaufkurven in einfacher Weise zu kompensieren, was für eine Blitzquelle mit den geforderten extrem kurzen Blitzen sehr schwierig ist.
Durch die Bildauswertung entsprechend der Inspektionsaufgabe wird eine maximal zulässige Unschärfe des Bildes definiert. Ein unvermeidlicher Anteil dieser Unschärfe ist bei sonst idealen Bedingungen die Unschärfe -„Verschmierung" - welche infolge der Bewegung des Objektes während der Aufnahmezeit erzeugt wird. Sie soll im nachfolgenden als Bewegungsunschärfe bezeichnet werden. Die Bewegungsunschärfe wird durch die gleichzeitige, relative Bewegung zwischen Kamera und Objekt während der Aufnahmezeit verursacht. Allgemein gilt, dass die maximale Bewegungsunschärfe bei einer vorgegebenen Bewegungsgeschwindigkeit eine maximale Aufnahmezeit für die Aufnahme bedingt. Es ist dabei gleichgültig, wie die Aufnahmezeit begrenzt wird. Die Aufnahmezeit kann durch die Dauer der Lichteinstrahlung - die Beleuchtungszeit, beispielsweise durch Verwendung von Blitzlicht begrenzt werden. Die Aufnahmezeit kann aber auch durch die Belichtungszeit entsprechend der Verschlusszeit der Kamera begrenzt werden. Durch die Begrenzung der Verschlusszeit der Kamera wird sichergestellt, dass das die Aufnahmezeit begrenzende Element mit hoher Reproduzierbarkeit für jedes Bild sehr genau die gleiche Aufnahmezeit erzeugt.
Aufnahmen, die eine kontinuierliche, ununterbrochene Relativbewegung während der Aufnahme verwenden, haben aufgrund der Bewegung eine Bewegungsunschärfe. Übersteigt die Bewegungsunschärfe das für die weitere Auswertung zulässige Maß kann nach bekannten Verfahren auf ein scharfes Abbild zurückgerechnet werden. Hierzu kann ein Wiener Filter eingesetzt werden. Die Methode nach Norbert Wiener ist bekannt (s. z.B. http://en.wikipedia.org wikiAViener deconvolution) und basiert auf de Fouriertransformation des Bildes und der Entfaltung des Bildes von der Impulsantwortfunktion des Aufnahmesystems im Fourierraum.
Wenn ein ausreichend großer Randbereich einer ersten Aufnahme der Aufnahmereihe einen definierten, bekannten Signalwert enthält, lässt sich auch mit einem einfachen Differenzverfahren die Rückrechnung der Bewegungsunschärfe verwirklichen. Ein solcher definierter Signalwert ist beispielsweise ein Nullwert für einen Randbereich der unbelichtet bleibt oder kein reflektierendes Objekt aufnimmt.
Vorzugsweise ist vorgesehen, dass die Kamera eine Flächenkamera ist, bei der die Bildelemente in Reihen und Spalten angeordnet sind. Es kann aber auch eine Zeilenkamera verwendet werden, bei der die Bildelemente in einer Reihe angeordnet sind.
Bei einer Ausgestaltung der Erfindung ist die am Shutter eingestellte Belichtungsdauer geringer ist als die Zeit, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die 5-fache Kantenlänge, vorzugsweise weniger als die doppelte Kantenlänge und weiter bevorzugt weniger als eine Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden. Es kann auch vorgesehen sein, dass die am Shutter eingestellte Belichtungsdauer geringer als die Zeit ist, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die Hälfte der Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden.
Bei einer bevorzugten Ausgestaltung der Erfindung ist der Shutter ein elektronisch implementierter„global shutter" mit Ladungstransfer in einem CMOS -Bildsensor oder in einem CCD-Bildsensor oder ein anderer elektronischer Shutter.
Bei dem erfindungsgemäßen Verfahren kann vorgesehen sein, dass die am Shutter eingestellte Belichtungsdauer geringer ist, als die Zeit, in der mittels der Relativbewegung die Strecke der halben Kantenlänge eines Detektorelementes der Kamera zurückgelegt wird. Diese Begrenzung erweist sich erfahrungsgemäß für viele Anwendungen als ausreichend. Je nach Geschwindigkeit der verwendeten Komponenten kann die Zeit aber auch kürzer sein.
Bei einer vorteilhaften Ausgestaltung der Erfindung wird die kontinuierliche Beleuchtung zwischen den Aufnahmen unterbrochen, wobei die verbleibende Beleuchtungsdauer ein Vielfaches der Öffnungszeit des Shutters beträgt. Eine solche Unterbrechung schont die Beleuchtungskomponenten vor Überhitzen und Alterung und spart Energie. Einen Einfluss auf die Bildaufnahme hat die Unterbrechung nicht.
Bei einer weiteren Ausgestaltung der Erfindung ist vorgesehen, dass die aufgenommenen Bilder sich in einem Überlappungsbereichen gegenseitig überlappen. Das bedeutet, dass ein Objektbereich zwei- oder mehrfach aufgenommen wird. In diesem Fall kann vorgesehen sein, dass die Signale an den zur gleichen Koordinate des Objektes gehörenden Bildelementen aus den Überlappungsbereichen, zur Verbesserung des Signal-Rausch- Verhältnisses durch Aufsummieren der Signalwerte der jeweiligen Bildelemente berücksichtigt werden. Alternativ ist vorgesehen, dass die Signale an den zur gleichen Koordinate des Objektes gehörenden Bildelementen aus den Überlappungsbereichen, zur Verbesserung des Signal-Rausch- Verhältnisses durch Mittelwertbildung oder Medianberechnung der Signalwerte der jeweiligen Bildelemente berücksichtigt werden. Doppelt aufgenommene Teile werden also nicht einfach verworfen, sondern miteinander verrechnet. Dadurch verringert sich in den überlappenden Bereichen das Signal- zu - Rauschverhältnis.
Vorzugsweise überlappen die aufgenommenen Bilder soweit, dass aus den aufgenommenen Bildreihen mindestens zwei die Objektfläche lückenlos abdeckende Gesamtbilder erstellt werden können, wobei jedes der aufgenommenen Einzelbilder genau in einem der Gesamtbilder und keines der aufgenommenen Einzelbilder in beiden dieser mindestens zwei Gesamtbilder benutzt wird.
Es kann weiterhin vorgesehen sein, dass die Aufnahmen für die erzeugten Gesamtbilder bei unterschiedlichen Beleuchtungsverhältnissen erfolgen, wobei die zu gleichen Beleuchtungsverhältnissen gehörigen Aufnahmen zu jeweils einem Gesamtbild zusammengesetzt werden. Solche Beleuchtungsverhältnisse sind insbesondere Hell- und Dunkelfeldbeleuchtung .
Ein erfindungsgemäßes Verfahren zur Inspektion von Wafern oder anderen flachen Objekten, kann weiterhin vorsehen, dass
(d) das Objekt kontinuierlich beleuchtet wird,
(e) die Beleuchtungsstärke auf einen konstanten Wert geregelt wird,
(f) die Relativbewegung zwischen der Kameraanordnung und dem Objekt kontinuierlich und ohne Unterbrechung erfolgt, und
(g) die Belichtungsdauer bei der Aufnahme des Bildes mit einem Shutter auf eine Belichtungsdauer begrenzt wird, die geringer ist die Zeit, in der die aus der Relativbewegung resultierende Bewegungsunschärfe des Bildes nicht größer ist als für die Bildauswertung zulässig.
Im Nachfolgenden wird das Verfahren am Beispiel der Wafer erläutert. Es kann jedoch in gleicher Weise für andere flache Prüfobjekte eingesetzt werden.
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche. Ein Ausführungsbeispiel ist nachfolgend anhand der beigefügten Zeichnungen näher erläutert.
Kurze Beschreibung der Zeichnungen
Fig.1 illustriert schematisch einen Aufbau der erfindungsgemäßen Vorrichtung mit einer Flächenkamera.
Fig.2 zeigt den Aufbau aus Figur 1 im Detail.
Fig.3 illustriert schematisch einen Ausschnitt einer Detektorzeile und die für
Objektwerte gemessenen Werte in diesem Ausschnitt.
Fig.4 illustriert schematisch das Verhältnis zwischen Belichtungszeit und
Beleuchtungszeit. Fig.5 illustriert die Inspektion von Objekten mit überlappenden Aufnahmen.
Fig.6 illustriert die Inspektion von Objekten mit überlappenden Aufnahmen unterschiedlicher Beleuchtungsverhältnisse.
Beschreibung des Ausführungsbeispiels Das Ausführungsbeispiel verwendet eine Inspektionsanordnung üblicher Bauart. Flache Objekte, wie beispielsweise Wafer, werden nacheinander unterhalb einer Kamera hindurchgefahren. Im vorliegenden Ausführungsbeispiel ist die Kamera stationär und die Objekte werden unterhalb der Kamera hindurchbewegt. In einem anderen Ausführungsbeispiel wird die Kamera bewegt. In einem alternativen Ausführungsbeispiel wird die Relativbewegung auf Kamera und Objekt aufgeteilt, so dass zum Beispiel die Kamera die Bewegung in einer Achsenrichtung ausführt, während das Objekt in der dazu senkrechten Richtung bewegbar ist. Die Bewegung zwischen Kamera und Objekt ist kontinuierlich. Das bedeutet, dass die Kamera zu keinem Aufnahme-Zeitpunkt fest über einem Objektpunkt steht.
Fig. 1 zeigt ein Ausführungsbeispiel mit einer Flächenkamera. Ein alternatives Ausführungsbeispiel (nicht dargestellt) verwendet eine Zeilenkamera. Das Objekt wird mit einer Lichtquelle 60 kontinuierlich beleuchtet. Eine Regelschleife zur Regelung der Intensität auf einen konstanten Wert ist vorgesehen. Die Beleuchutng wird dabei durch Mittel 70 zur Übertragung und Homogenisierung der Ausleuchtung des Bildfeldes übertragen. Die Mittel 70 zur Homogenisierung umfassen optische Stab- und Linsensysteme zur Unterstützung der Beleuchtungshomogenität. Bei einem bevorzugten Ausführungsbeispiel wird die Homogenisierung erreicht, indem das Licht durch einen hexagonalen Glasstab geleitet wird und mit einem Glasfaserbündel zum Objektiv übertragen wird. Das Licht wird von einem halbdurchlässigen Spiegel 30 auf den zu beleuchtenden Probenort gelenkt. Das Licht wird von der Probe 40 reflektiert und tritt zum Teil durch den halbdurchlässigen Spiegel 30 hindurch, um von der Abbildungsoptik 20 auf das Aufnahmesystem 10 abgebildet zu werden. Die Kamera 10 ist im vorliegenden Ausführungsbeispiel mit einem Global Shutter versehen. Dieser ermöglicht die Beschränkung der Belichtungszeit des in der Kamera enthaltenen Sensors auf einen gewünschten Wert. Fig. 2 zeigt eine detailliertere Darstellung der schematischen Anordnung aus Fig. 1. Dabei bezeichnet 12 eine Basisplatte zum Aufbau der Inspektionseinheit, 52 eine bewegliche Haltevorrichtung zur Aufnahme des Wafers, 46 einen ebenfalls bewegliche Schlitten, der die Aufnahmeeinheit trägt. Die Aufnahmeeinheit 42 setzt sich zusammen aus der Kamera 45, Optikelementen zur Abbildung des inspizierten Probenortes auf den Sensor der Kamera 26 und 47, und Mittel zur Justage 53 und 55. 26 bezeichnet dabei die Tubuslinse und 47 die vordere Linse des Objektivs. 53 ist eine Justierbare Anordnung, mit der die Höhe und Neigung des Objektiv- Kamerasystems einestellbar ist. 55 ist ein Element zur Feineinstellung der Rotationsjustage um sicherzustellen, dass die Bilder mit ihrer Längsseite orthogonal zur Abtastrichtung verlaufen. Die Beleuchtung wird über die Spiegeleinheit 49 in den Strahlengang eingespiegelt. Eine zusätzliche Beleuchtung mit einem nicht senkrechten Einfallswinkel (Dunkelfeldbeleuchtung) wird über das Optikelement 51 eingestrahlt. Das Optikelement 51 hält 4 Glasfaserkabel. Für jede Glasfaser ist ein Satz Linsen zur ausreichenden Beleuchtung des Bildfeldes vorgesehen. Hierfür sind Lichtquellen und eine Zuführung des Lichtes über Lichtleiter vorgesehen (nicht dargestellt).
Die Kamera enthält eine Vielzahl von Bildelementen, mit denen Signale erzeugt werden. Die Signale der Bildelemente einer Aufnahme werden mit den Signalen der Bildelemente anderer Aufnahmen zu einem Gesamtbild zusammengesetzt. Dabei ist es nicht erforderlich immer das gesamte Objekt zu beobachten. Es reicht aus, interessierende Abschnitte des Objekts aufzunehmen und auszuwerten.
Die Aufnahmezeit wird hier durch die Belichtungszeit der Kamera, d.h. die Dauer der Shutteröffnung, bestimmt. Die Beleuchtungszeit übersteigt die Belichtungszeit zumindest so erheblich, dass sie keinen Einfluss auf die resultierende Bewegungsunschärfe hat. Übersteigt die durch die Belichtungszeit begrenzte Bewegungsunschärfe dennoch das für die weitere Auswertung zulässige Maß, kann nach oben beschriebenen bekannten Verfahren auf ein scharfes Abbild zurückgerechnet werden. Die Rückrechnung der Bewegungsunschärfe mit einem einfachen Differenzverfahren ist in Fig. 3 dargestellt. Sie ist dann einsetzbar, wenn ein ausreichend großer Randbereich einer ersten Aufnahme der Aufnahmereihe einen definierten, bekannten Signalwert enthält. Ein solcher definierter Signalwert ist beispielsweise ein Nullwert für einen Randbereich der unbelichtet bleibt oder kein reflektierendes Objekt aufnimmt.
Fig.3 zeigt drei Objektpunkte A, B und C. Die Bildelemente der Zeile sind fortlaufend mit den Zahlen 1 bis 15 nummeriert. Diese sind in der untersten Zeile in Figur 1 angegeben. Es versteht sich, dass eine typische, kommerziell verfügbare Zeile erheblich mehr Bildelemente aufweist, beispielsweise 512 oder 1024 Bildelemente. Die geringe Anzahl im vorliegenden Ausführungsbeispiel wurde lediglich der besseren Übersichtlichkeit halber gewählt.
Jeder Punkt auf dem Objekt hat einen bestimmten Helligkeitswert. Wenn der Punkt mit einem Bildelement aufgenommen wird, wird ein Signal an dem Bildelement erzeugt. Dieses Signal hängt vom Helligkeitswert am Objekt ab. Zusätzlich wird das Signal aber auch von anderen Faktoren beeinflusst. Im vorliegenden Fall durch die Relativbewegung zwischen Kamera und Objekt.
In dem Beispiel aus Figur 3 bewegt sich das Objekt während der Belichtungszeit fünf Bildpunkte relativ zum Sensor. In diesem Fall ist die Information aus Objektpunkt A in Figur 1 auf fünf Bildpunkte verteilt, die mit 5 bis 9 bezeichnet sind. Gleichzeitig ist die Information aus Objektpunkt B über fünf Bildpunkte verteilt, die mit 6 bis 10 bezeichnet sind. Die Information aus Objektpunkt C ist über fünf Bildpunkte verteilt, die mit 7 bis 11 bezeichnet sind, und so weiter.
Es ist leicht in Figur 3 zu erkennen, dass die Rückrechnung leicht durch Differenzverfahren erfolgen kann, wenn sichergestellt ist, dass die Bildpunkte 1 bis 5, zum Beispiel, immer ohne Signal, d.h. bis auf ein Dunkelrauschen am Sensor Null sind. Beispielsweise ist im Beispiel aus Figur 3 das Signal über 5 Bildpunkte verschmiert. Auf proportionale Weise entspricht der Objektsignalwert S auf einem Objektbildpunkt n dem Term
S=s(n-2) -[s(n-3) + s(n-4) + s(n-5) + s(n-6)] mit s(x) dem Sensorwert auf dem Bildpunkt x. Im Beispiel aus Figur 3 ist daher der Objektwert auf Bildpunkt B entsprechend dem Objektbildpunkt
s(6) - [s(5) + s(4) + s(3) + s(2)] = 12 - [5 + 0 + 0 + 0] = 7 Die Beleuchtung kann mit einer kontinuierlich strahlenden Lichtquelle erfolgen. Es ist aber auch möglich, an Stelle der kontinuierlichen Lichtquelle eine gepulste Quelle einzusetzen. Beispielhaft wird im vorliegenden Ausführungsbeispiel eine LED-Lichtquelle eingesetzt. Es versteht sich, dass jede andere Art von Lichtquelle ebenfalls verwendet werden kann. Bei Verwendung einer LED-Lichtquelle lässt sich die Intensität durch eine kurzzeitige Übersteuerung des Stromes auf bis zu 10-fache Helligkeit treiben. Die erreichte Lichtintensität ist für die Aufnahme von entscheidender Bedeutung, da durch die kurze Belichtungszeit eine sehr hohe Intensität erforderlich wird. Eine solche Steuerung wird z.B. von der Firma Gardasoft kommerziell vertrieben. Die kurzzeitige Übersteuerung der LED-Quelle erfordert eine ausreichende Abkühlungszeit für das Bauelement durch Abschalten. Die Beleuchtungszeit bleibt jedoch weit länger, als die Belichtungszeit des Sensors. Das Verhältnis zwischen Beleuchtungszeit, während der die Lichtquelle eingeschaltet ist und der Abkühlzeit wird üblicherweise als Duty Cycle angegeben. Für die Steuerung des vorliegenden Ausführungsbeispiels ist ein Duty Cycle von mindestens 1: 100 erforderlich. Die Beleuchtungszeit ist dabei aber immer noch erheblich länger, als die Belichtungszeit des Sensors mit geöffnetem Shutter. Die Bedingung ist auf einfache Weise einzuhalten. Benötigt man z.B. bei einer Relativgeschwindigkeit zwischen Objekt und Kamera von 400mm/s eine Aufnahmezeit von max. 4μβ, so beträgt bei einem Gesichtsfeld des Sensors in Fahrtrichtung von z.B. 10 mm die Zeit zwischen zwei Aufnahmen 24,996 ms. Die Pulslänge der Beleuchtung kann daher z.B. auf 100 festgelegt werden, was einem Duty Cycle für die Lichtquelle von 1:250 entspricht. Da die Pulslänge der Lichtquelle in diesem Beispiel immer noch das 25-fache der Aufnahmezeit beträgt, wird die Unschärfe der Aufnahme einzig durch die Belichtungszeit der Kamera bestimmt und nicht durch die Beleuchtungszeit durch die unterbrochene Strahlung der Lichtquelle beeinflusst.
Das Verfahren ist in Figur 4 dargestellt. Der Belichtungszeitstrahl 110 der Kamera zeigt zwei Aufnahmezeiten (Shutteröffnungszeiten) 105 und 106. Diese bestimmen mit ihrer zeitlichen Länge die verbleibende Bewegungsunschärfe des Bildes. Der Zeitstrahl der Beleuchtungseinheit 120 zeigt die entsprechenden Beleuchtungszeiten. Dies sind der Puls 115 für die Kameraaufnahme 105 und der Puls 116 für die Aufnahme 106. Die Belichtungseinheit hat aufgrund der zeitlichen Länge der Anschaltphasen keinen Einfluss auf die Bewegungsunschärfe und kann daher kein quasi stehendes Bild erzeugen. Die beiden Zeitstrahlen sind zur besseren Kenntlichmachung der Verhältnisse unterbrochen, was dazu führt, dass die Duty Cycle Verhältnisse nicht massstäblich dargestellt sind.
Das Objekt kann durch aufeinanderfolgende Aufnahmen nebeneinander angeordneter Objektbereiche ein Gesamtbild erzeugen. Bei dem vorliegenden Ausführungsbeispiel werden mehrere zeitlich versetzte und sich räumlich überlappende Aufnahmen des Objektes erzeugt. Mit einer ausreichend schnellen Kamera werden z.B. zwei, drei oder noch mehr jeweils versetzte Aufnahmen erzeugt. Die Frequenz der Bildaufnahme vervielfacht sich hierbei. Im Folgenden wird dies beispielhaft für drei Aufnahmen näher erläutert, ohne dadurch die Allgemeinheit der Erfindung zu beschränken. Im obigen Beispiel werden für drei zueinander versetzte Aufnahmen die notwendigen Verhältnisse bei 4μβ Belichtungszeit (Shutteröffnung), einer Beleuchtungszeit von 40 und einer Bildaufnahmefrequenz von 120 fps (frames per second) eingehalten. Der Duty Cycle für die Beleuchtung beträgt 1:208 und die Beleuchtungszeit ist das 10-fache der Aufnahmezeit. Entsprechend wird die Bildunschärfe von der Belichtungszeit bestimmt.
Diese Verfahrensweise wird in Figur 5 dargestellt. Bezugszeichen 210 bezeichnet den Verlauf der Zeit und gleichzeitig die Bewegungsrichtung des Aufnahmesystems relativ zum Objekt. Es ist unerheblich ob Objekt oder Kamera oder beide bewegt werden. Einzig entscheidend ist die Relativbewegung zueinander. Die Striche 201, 202, 203, 204, ... bis 209 stellen die Zeitpunkte der Auslösung einer Aufnahme dar. Die drei Bildreihen 220, 230, 240 sind die zeitlich versetzten, sich räumlich überlappenden Bildreihen. Sie sind zur besseren Erkennbarkeit quer zur Bewegungsrichtung verschoben und somit getrennt dargestellt. In der realen Ausführung liegen sie auf derselben Bewegungstrajektorie wie in der Reihe 250 dargestellt. Zum Zeitpunkt 201 wird die Aufnahme 221, zum Zeitpunkt 202 die Aufnahme 232, zum Zeitpunkt 203 die Aufnahme 243 aufgenommen. Dies wird kontinuierlich fortgesetzt, so dass zu den Zeitpunkten 201, 204 und 207 die Aufnahmen 221, 224 und 227 entstanden sind. Entsprechend sind zu den Zeitpunkten 202, 205 und 208 die Aufnahmen 232, 235 und 238, sowie zu den Zeitpunkten 203, 206 und 209 die Aufnahmen 243, 246 und 249 entstanden. Auf diese Weise kann das gesamte Objekt in Spuren und schließlich mäanderförmig komplett aufgenommen werden. Aus den Bildreihen 220, 230 und 240 kann jeweils eine komplette Aufnahme des Objektes zusammengesetzt werden.
Die drei sich überlappenden Aufnahmen können in verschiedener Weise genutzt werden. Zunächst wird sie für die Verbesserung des Signal-Rausch- Verhältnisses der Inspektion verwendet. Geht man davon aus, dass die optische Verzeichnung der Aufnahmen klein gegenüber der gewünschten Auflösung sind, kann man die Bilder miteinander verrechnen. Dies kann z. B. durch Bildung des Mittelwertes oder des Medians für jeden Bildpunkt erfolgen.
Diese Verfahrensweise wird in Figur 6 dargestellt. Die drei Bildreihen 320, 330, 340 sind die zeitlich versetzten, sich räumlich überlappenden Aufnahmereihen. Sie sind wieder zur besseren Erkennbarkeit quer zur Bewegungsrichtung verschoben und somit getrennt dargestellt. In der realen Ausführung liegen sie auf derselben Bewegungstrajektorie wie in der Reihe 350 dargestellt. Verwendet man nun die drei Aufnahmereihen 320, 330 und 340 zur Verbesserung des Signal-Rausch-Verhältnisses der Gesamtaufnahme, wird ein einziges Gesamtbild 350 des Objektes durch zusammenrechnen der drei Teilaufnahmereihen 320, 330 und 340 erstellt. In einfacher Weise geschieht das durch Aufsummieren. Dabei entsteht der Unterabschnitt 351 des Gesamtbildes 350 aus der Summierung der Grauwerte der Bildelemente 323, 332 und 341. Entsprechend entsteht der Unterabschnitt 352 des Gesamtbildes 350 aus der Summierung der Grauwerte der Bildelemente 324, 333 und 342 und der Unterabschnitt 353 aus den Bildelementen 325, 334 und 343. Und so weiter. Die Summation erfolgt dabei elementweise, d.h. es wird jedes Bildelement (z.B. aus Unterabschnitt 323) mit seinen zugehörigen Bildelementen aus den korrespondierenden Unterabschnitten (entsprechend 332 und 341) summiert. Die Summierung entspricht mathematisch einer Mittel wertbildung, wobei die höhere Dynamik die bei bloßem Aufsummieren (anstelle eines echten Mittelwertes) entsteht vorteilhaft für die weitere Auswertung genutzt werden kann. Es können jedoch auch andere Kombinationsverfahren eingesetzt werden, wie zum Beispiel der Median aus den Grauwerten der korrespondierenden Bildelemente. So kann aus den drei Aufnahmereihen 320, 330 und 340 ein hinsichtlich des Signal-Rausch- Verhältnis verbessertes Gesamtbild 350 des Objektes erstellt werden.
Im vorliegenden Ausführungsbeispiel ist es ferner möglich, die drei zueinander versetzten Aufnahmen mit verschiedenen Beleuchtungsvarianten zu kombinieren. So wäre die Erstellung von drei Teilbildern in drei Lichtfarben, z.B. rot, grün und blau, möglich. Dies ergibt ein flächendeckendes Echtfarbbild für das gesamte aufzunehmende Objekt mit einer Auflösung, die der maximal möglichen Auflösung des verwendeten Sensors entspricht. Ein solches Echtfarbbild ist für die Inspektion vorteilhafter als ein durch Filtertechnik vor dem Kamerasensor (sogenannter Bayer- Filter) erzeugtes Farbbild. Bei dem durch Bayer- Filter entstandenen Bild sind die Originalbilddaten der Sensorelemente auf die einzelnen Farben verteilt. Von je 4 Sensorelementen sind 2 mit einem Grün- und je eines mit einem Rot- bzw. Blaufilter versehen. Die Farbwerte für die jeweils anderen Farben werden durch Interpolation der Nachbarelemente erzeugt. Eine solche Interpolation ist natürlich ungenauer als eine echte 3-farbige Aufnahme und es kann vorkommen, dass kleine farbliche Defekte übersehen werden. In der vorgeschlagenen Verfahrensweise treten diese Fehlerquellen nicht auf. Die in Figur 5 dargestellten drei Aufnahmereihen 220, 230 und 240 werden jede für sich zu einem Gesamtbild des Objektes zusammengesetzt. Wurde zu den Zeitpunkten 201, 204 und 207 mit grünem Licht, zu den Zeitpunkten 202, 205 und 208 mit blauem Licht und zu Zeitpunkten 203, 206 und 209 mit rotem Licht belichtet, erhält man aus der Bildreihe 220 ein grünes, aus der Reihe 230 ein blaues und aus der Reihe 240 ein rotes Gesamtbild des Objektes. Diese farbigen Gesamtbilder sind lediglich zueinander räumlich versetzt. Der Versatz ist jedoch bekannt und kann daher in einer nachfolgenden Auswertung der drei farbigen Gesamtbilder entsprechend berücksichtigt werden.
In gleicher Weise werden auch andere Beleuchtungskombinationen eingesetzt. So können zum Beispiel eine Hellfeld- und eine Dunkelfeldbeleuchtung kombiniert werden. Bei der Hellfeldbeleuchtung wird Licht unter steilem Winkel zur Waferoberfläche nahezu senkrecht eingestrahlt. Bei der Dunkelfeldbeleuchtung wird Licht unter flachem Winkel zur Waferoberfläche eingestrahlt. Ebenso können auch andere Wellenlängenbereiche für die Beleuchtung gewählt werden. So lässt sich zum Beispiel auch eine Beleuchtung im Sichtbaren mit einer im nahen Infrarot kombinieren.

Claims

Patentansprüche
1. Vorrichtung zur Inspektion eines Wafers oder anderen flachen Objekts enthaltend
(a) eine Objekthalterung zur Aufnahme jeweils eines der Objekte;
(b) eine Kameraanordnung mit einer Kamera mit einer Vielzahl von Bildelementen zur Aufnahme eines Bildes zumindest eines Teiles des Objekts;
(c) eine Antriebsanordnung zur Erzeugung einer Relativbewegung zwischen der Kameraanordnung und dem Objekt; und
(d) eine Beleuchtungsanordnung zum Beleuchten des Objekts;
dadurch gekennzeichnet, dass
(e) die Beleuchtungsanordnung das Objekt kontinuierlich beleuchtet,
(f) Mittel zur Regelung der Beleuchtungsstärke auf einen konstanten Wert vorgesehen sind,
(g) die Relativbewegung zwischen der Kameraanordnung und dem Objekt kontinuierlich und ohne Unterbrechung erfolgt, und
(h) ein Shutter zum Begrenzen der Belichtungsdauer bei der Aufnahme des Bildes vorgesehen ist, wobei
(i) die am Shutter eingestellte Belichtungsdauer geringer ist als die Zeit, in der die aus der Relativbewegung resultierende Bewegungsunschärfe des Bildes nicht größer ist als für die Bildauswertung zulässig.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera eine Flächenkamera ist, bei der die Bildelemente in Reihen und Spalten angeordnet sind.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die am Shutter eingestellte Belichtungsdauer geringer ist als die Zeit, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die 5-fache Kantenlänge, vorzugsweise weniger als die doppelte Kantenlänge und weiter bevorzugt weniger als eine Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die am Shutter eingestellte Belichtungsdauer geringer als die Zeit ist, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die Hälfte der Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden.
5. Vorrichtung nach einem der vorgehenden Ansprüche, dadurch gekennzeichnet, dass der Shutter ein global shutter mit Ladungstransfer in einem CMOS-Bildsensor oder in einem CCD-Bildsensor oder ein anderer elektronischer Shutter ist.
6. Verfahren zur Inspektion von Wafern oder anderen flachen Objekten, enthaltend die Schritte:
(a) Erzeugen einer Relativbewegung einer Kameraanordnung mit einer digitalen Kamera und dem Objekt, bei welcher zu einem Aufnahmezeitraum ein Teil der Objektoberfläche von der Kamera erfasst wird;
(b) Beleuchten des Objekts; und
(c) Aufnehmen eines oder mehrerer Bilder zumindest eines Teils der Objektoberfläche mit der Kamera in einer Kameraanordnung;
dadurch gekennzeichnet, dass
(d) das Objekt kontinuierlich beleuchtet wird,
(e) die Beleuchtungsstärke auf einen konstanten Wert geregelt wird,
(f) die Relativbewegung zwischen der Kameraanordnung und dem Objekt kontinuierlich und ohne Unterbrechung erfolgt, und
(g) die Belichtungsdauer bei der Aufnahme des Bildes mit einem Shutter auf eine Belichtungsdauer begrenzt wird, die geringer ist die Zeit, in der die aus der Relativbewegung resultierende Bewegungsunschärfe des Bildes nicht größer ist als für die Bildauswertung zulässig.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die am Shutter eingestellte Belichtungsdauer geringer ist als die Zeit, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die 5-fache Kantenlänge, vorzugsweise weniger als die doppelte Kantenlänge und weiter bevorzugt weniger als eine Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden.
8. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die am Shutter eingestellte Belichtungsdauer geringer als die Zeit ist, in der die Aufnahmeeinheit und das Objekt durch die Relativbewegung weniger als die Hälfte der Kantenlänge der Abbildungsfläche eines Detektorelementes auf dem Objekt gegeneinander verschoben werden.
9. Verfahren nach einem der vorgehenden Ansprüche 6 bis 8, dadurch gekennzeichnet, dass die kontinuierliche Beleuchtung zwischen den Aufnahmen unterbrochen wird, wobei die verbleibende Beleuchtungsdauer ein Vielfaches der Öffnungszeit des Shutters beträgt.
10. Verfahren nach einem der Ansprüche 6 bis 8 , dadurch gekennzeichnet, dass die aufgenommenen Bilder sich in Überlappungsbereichen gegenseitig überlappen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Signale an den zur gleichen Koordinate des Objektes gehörenden Bildelementen aus den Überlappungsbereichen, zur Verbesserung des Signal-Rausch- Verhältnisses durch Aufsummieren der Signalwerte der jeweiligen Bildelemente berücksichtigt werden.
12. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Signale an den zur gleichen Koordinate des Objektes gehörenden Bildelementen aus den Überlappungsbereichen, zur Verbesserung des Signal-Rausch- Verhältnisses durch Mittelwertbildung oder Medianberechnung der Signalwerte der jeweiligen Bildelemente berücksichtigt werden.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass aufgenommenen Bilder soweit überlappen, dass aus den aufgenommenen Bildreihen mindestens zwei die Objektfläche lückenlos abdeckende Gesamtbilder erstellt werden können, wobei jedes der aufgenommenen Einzelbilder genau in einem der Gesamtbilder und keines der aufgenommenen Einzelbilder in beiden dieser mindestens zwei Gesamtbilder benutzt wird.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Aufnahmen für die erzeugten Gesamtbilder bei unterschiedlichen Belichtungsverhältnissen erfolgen, wobei die zu gleichen Belichtungsverhältnissen gehörigen Aufnahmen zu jeweils einem Gesamtbild zusammengesetzt werden.
15. Verfahren zur Inspektion von Wafern oder anderen flachen Objekten, enthaltend die Schritte:
(a) Erzeugen einer Relativbewegung einer Kameraanordnung mit einer digitalen Kamera und dem Objekt, bei welcher zu einem Aufnahmezeitraum ein Teil der Objektoberfläche von der Kamera erfasst wird;
(b) Beleuchten des Objekts; und
(c) Aufnehmen eines oder mehrerer Bilder zumindest eines Teils der Objektoberfläche mit der Kamera in einer Kameraanordnung;
dadurch gekennzeichnet, dass
(d) das Objekt kontinuierlich beleuchtet wird, und
(e) aus einem aufgenommenen Bild, welches durch die Relativbewegung in Fahrtrichtung eine Bewegungsunschärfe aufweist, unter Berücksichtigung der Relativgeschwindigkeit durch mathematische Verfahren ein Bild mit verringerter Bewegungsunschärfe erstellt wird.
PCT/EP2015/051191 2014-04-07 2015-01-22 Inspektionsanordnung WO2015154891A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/246,953 US9176070B2 (en) 2014-04-07 2014-04-07 Inspection assembly
US14/246,953 2014-04-07

Publications (1)

Publication Number Publication Date
WO2015154891A1 true WO2015154891A1 (de) 2015-10-15

Family

ID=52394256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/051191 WO2015154891A1 (de) 2014-04-07 2015-01-22 Inspektionsanordnung

Country Status (2)

Country Link
US (1) US9176070B2 (de)
WO (1) WO2015154891A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3346229B1 (de) * 2017-01-09 2022-03-30 Unity Semiconductor GmbH Verfahren und anordnung zur bestimmung der dicke von schichten in einem probenstapel
JP2019109122A (ja) * 2017-12-18 2019-07-04 大日本印刷株式会社 検査装置、検査方法、及びプログラム
KR102112053B1 (ko) * 2018-08-01 2020-05-18 주식회사 뷰온 이미지 센서를 이용한 표면결함 검사장치 및 검사방법
KR102635249B1 (ko) * 2020-08-31 2024-02-08 세메스 주식회사 이미지 획득 방법, 이미지 획득 장치 및 웨이퍼 검사 장치
CN115580782B (zh) * 2022-11-09 2023-03-03 合肥安迅精密技术有限公司 用于线阵相机照明的光源亮度控制方法及系统、存储介质
CN115633262B (zh) * 2022-12-21 2023-04-28 荣耀终端有限公司 图像处理方法和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0352797A2 (de) * 1988-07-29 1990-01-31 FIAT AUTO S.p.A. Verfahren und Vorrichtung zum Detektieren von Fehlstellen an Spiegeloberflächen
US4922337A (en) * 1988-04-26 1990-05-01 Picker International, Inc. Time delay and integration of images using a frame transfer CCD sensor
WO2007024858A1 (en) * 2005-08-22 2007-03-01 Honeywell International Inc. Method and apparatus for measuring the crepe of a moving sheet
US20110069507A1 (en) * 2009-09-22 2011-03-24 Haugan Carl E Dark field illuminator with large working area
US20110102575A1 (en) * 2009-09-22 2011-05-05 Case Steven K High speed distributed optical sensor inspection system
US20110199477A1 (en) * 2010-02-17 2011-08-18 Applied Materials, Inc. Method for imaging workpiece surfaces at high robot transfer speeds with reduction or prevention of motion-induced distortion

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5298963A (en) 1992-02-26 1994-03-29 Mitsui Mining & Smelting Co., Ltd. Apparatus for inspecting the surface of materials
US6020957A (en) 1998-04-30 2000-02-01 Kla-Tencor Corporation System and method for inspecting semiconductor wafers
US6324298B1 (en) 1998-07-15 2001-11-27 August Technology Corp. Automated wafer defect inspection system and a process of performing such inspection
JP2002305140A (ja) * 2001-04-06 2002-10-18 Nikon Corp 露光装置及び基板処理システム
US20090211604A1 (en) * 2008-02-22 2009-08-27 Tokyo Electron Limited System and Method For Removing Edge-Bead Material
TWI479583B (zh) 2008-04-04 2015-04-01 Nanda Technologies Gmbh 光學檢驗的系統與方法
US8670031B2 (en) 2009-09-22 2014-03-11 Cyberoptics Corporation High speed optical inspection system with camera array and compact, integrated illuminator

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4922337A (en) * 1988-04-26 1990-05-01 Picker International, Inc. Time delay and integration of images using a frame transfer CCD sensor
US4922337B1 (en) * 1988-04-26 1994-05-03 Picker Int Inc Time delay and integration of images using a frame transfer ccd sensor
EP0352797A2 (de) * 1988-07-29 1990-01-31 FIAT AUTO S.p.A. Verfahren und Vorrichtung zum Detektieren von Fehlstellen an Spiegeloberflächen
WO2007024858A1 (en) * 2005-08-22 2007-03-01 Honeywell International Inc. Method and apparatus for measuring the crepe of a moving sheet
US20110069507A1 (en) * 2009-09-22 2011-03-24 Haugan Carl E Dark field illuminator with large working area
US20110102575A1 (en) * 2009-09-22 2011-05-05 Case Steven K High speed distributed optical sensor inspection system
US20110199477A1 (en) * 2010-02-17 2011-08-18 Applied Materials, Inc. Method for imaging workpiece surfaces at high robot transfer speeds with reduction or prevention of motion-induced distortion

Also Published As

Publication number Publication date
US20150285745A1 (en) 2015-10-08
US9176070B2 (en) 2015-11-03

Similar Documents

Publication Publication Date Title
DE69223505T2 (de) Eingebaute beleuchtungsvorrichtung fur prufung mit laufzeitintegration
WO2015154891A1 (de) Inspektionsanordnung
DE102010029319B4 (de) Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
EP1864146B1 (de) Inspektionsvorrichtung
CN1727983B (zh) 选通脉冲照明
DE102010021853B4 (de) Einrichtung und Verfahren zur optischen Überprüfung eines Gegenstands
DE102004004761A1 (de) Vorrichtung und Verfahren zur Inspektion eines Wafers
DE3422143A1 (de) Geraet zur wafer-inspektion
EP2929332B1 (de) Inspektionsvorrichtung
EP3283917B1 (de) Verfahren und vorrichtung zum untersuchen einer probe
DE112014001171T5 (de) System und Verfahren zur Begutachtung eines gekrümmten Randes einer Probe
EP1542051B1 (de) Verfahren und Vorrichtung zum Trennen unterschiedlicher Emissionswellenlängen in einem Scanmikroskop
EP3147700B1 (de) Verfahren und vorrichtung zur vergrösserung des sichtfelds einer kamera sowie damit ausgestattete kamera
DE112015006164T5 (de) Verfahren zum Messen einer Abtastbahn einer optischen Abtastvorrichtung, Vorrichtung zum Messen einer Abtastbahn und Verfahren zum Kalibrieren eines Bilds
EP2454583B1 (de) Inspektionssystem
DE102013200135B4 (de) Telezentrisches Abbildungssystem
WO2013026825A1 (de) Abbildungsvorrichtung und verfahren für eine abbildungsvorrichtung
DE102011007751B4 (de) Weitfeldmikroskop und Verfahren zur Weitfeldmikroskopie
WO2018019406A2 (de) System zur gleichzeitigen videografischen oder fotografischen erfassung von mehreren bildern
DE102016110433B4 (de) Mikroskop und Mikroskopieverfahren
EP3647851B1 (de) Mikroskopie-vorrichtung zur erstellung dreidimensionaler abbilder
DE102004018182B4 (de) Vorrichtung und Verfahren zur Erzeugung einer Abbildung einer Objektszene
DE102018215601B4 (de) Anordnung von Mikrospiegeln, Mikrospiegelvorrichtung, Verwendung einer Mikrospiegelvorrichtung, Abbildungssystem, Verfahren und Computerprogrammprodukt zur Aufweitung eines Schärfebereichs des Abbildungssystems und/oder zur Erzeugung eines Tiefenbildes
EP2195610B1 (de) Vefahren und vorrichtung zum erfassen einer oberfläche oder eines oberflächenabschnitts eines körpers
DE102022125409A1 (de) Verfahren und Vorrichtung zur Aufnahme mehrerer Abbildungen eines Objekts mit unterschiedlichen Beleuchtungskonfigurationen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15700878

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15700878

Country of ref document: EP

Kind code of ref document: A1