DE102012200886A1 - Mikroskopsystem, Oberflächenzustands-Beobachtungsverfahren und Oberflächenzustands-Beobachtungsprogramm - Google Patents

Mikroskopsystem, Oberflächenzustands-Beobachtungsverfahren und Oberflächenzustands-Beobachtungsprogramm Download PDF

Info

Publication number
DE102012200886A1
DE102012200886A1 DE201210200886 DE102012200886A DE102012200886A1 DE 102012200886 A1 DE102012200886 A1 DE 102012200886A1 DE 201210200886 DE201210200886 DE 201210200886 DE 102012200886 A DE102012200886 A DE 102012200886A DE 102012200886 A1 DE102012200886 A1 DE 102012200886A1
Authority
DE
Germany
Prior art keywords
image data
value
measurement
observation object
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201210200886
Other languages
English (en)
Inventor
Yoichi Okamoto
Takuya Karube
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Publication of DE102012200886A1 publication Critical patent/DE102012200886A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Um ein Mikroskop bereitzustellen, was es dem Benutzer erlaubt, die Oberfläche des Beobachtungsobjekts in einer kurzen Zeit zu beobachten. Es wird ein Sensitivitätsparameter eingestellt zum Anpassen eines Wertes der Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten. Die Bildpunktdaten werden erfasst mit einem ersten Sensitivitätswert, eingestellt als der Sensitivitätsparameter, und die Anzahl von Bildpunkten, in denen der Höhepunktswert der Bildpunktdaten kleiner oder gleich einem Schwellwert ist, wird erfasst. Ein Verhältnis der erfassten Anzahl von Bildpunkten bezüglich der Anzahl von Bildpunktbereichen wird berechnet, wobei die Bildpunktdaten erfasst werden durch einen zweiten Sensitivitätswert verschieden von dem ersten Sensitivitätswert, wenn das Verhältnis größer oder gleich einem Referenzwert ist, und die Bildpunktdaten werden durch den zweiten Sensitivitätswert erfasst, wenn das Verhältnis kleiner als der Referenzwert ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Mikroskopsystem, ein Oberflächenzustands-Beobachtungsverfahren und ein Oberflächenzustands-Beobachtungsprogramm.
  • 2. Beschreibung ähnlicher Technik
  • In einem konfokalen Mikroskop wird das von einer Laserlichtquelle auf ein Messobjekt (Messziel) ausgestrahlte Laserlicht mittels einer Objektivlinse gesammelt. Das reflektierte Licht von dem Messobjekt wird mittels einer Lichtempfangslinse gesammelt und in ein Lichtempfangselement durch eine Lochblende eingegeben (siehe z. B. japanische offengelegte Patentveröffentlichung Nr. 2008-83601 ). Das Laserlicht wird auf der Oberfläche des Messobjekts zweidimensional abgetastet. Die Verteilung der Lichtempfangsmenge des Lichtempfangselements ändert sich durch Ändern des relativen Abstands zwischen dem Messobjekt und der Objektivlinse. Ein Höhepunkt (Peak) der Lichtempfangsmenge tritt auf, wenn auf die Oberfläche des Messobjekts fokussiert wird. Ein Ultratiefbild mit einer sehr großen Tiefenschärfe kann basierend auf einer Höhepunkts-Intensität der Verteilung der Lichtempfangsmenge erhalten werden. Weiterhin kann ein Höhenbild, das eine Höhen-Verteilung der Oberfläche des Messobjekts anzeigt, basierend auf der Höhepunktsposition der Lichtempfangsmenge erhalten werden.
    • [Patentdokument 1] Japanische offengelegte Patentpublikation Nr. 2008-83601
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Ausgangssignal eines Lichtempfangselements des konfokalen Mikroskops wird in ein digitales Signal mittels eines A/D-Umwandlers (Analog/Digital-Umwandler) umgewandelt und als Bildpunktdaten (Pixeldaten) entsprechend jedem Bildpunkt ausgegeben. Konfokale Bilddaten werden basierend auf den Bildpunktdaten eines konstanten Bereichs an einer Vielzahl von Positionen in der Auf- und Ab-Richtung des Messobjekts erzeugt, und das Ultratiefbild oder das Höhenbild des Beobachtungsobjekts wird auf der Anzeigeeinheit basierend auf der Vielzahl von konfokalen Bilddaten angezeigt.
  • Wenn die Menge des reflektierten Lichts von der Oberfläche des Beobachtungsobjekts groß ist, kann das Ausgangssignal des Lichtempfangselements sättigen. Die Höhepunkts-Intensität und die Höhepunktsposition der Verteilung der Lichtempfangsmenge kann dann nicht erfasst werden. In solch einem Fall kann die Sättigung des Ausgangssignals des Lichtempfangselements verhindert werden durch Einstellen des Sensitivitätsparameters, wie z. B. eine Verstärkung des Lichtempfangselements, auf einen niedrigen Wert. Wenn die Menge des reflektierten Lichts von der Oberfläche des Beobachtungsobjekts klein ist, kann der Pegel des Ausgangssignals des Lichtempfangselements andererseits kleiner als der Pegel des Rauschens werden. Der Höhepunkt der Verteilung der Lichtempfangsmenge kann dann nicht von dem Rauschen identifiziert werden. In solch einem Fall kann der Pegel des Ausgangssignals des Lichtempfangselements durch Einstellen des Sensitivitätsparameters auf einen hohen Wert größer als der Pegel des Rauschens gemacht werden.
  • Allerdings koexistieren ein Bereich (Region), wo die Menge des reflektierten Lichts groß ist, und ein Bereich, wo die Menge des reflektierten Lichts klein ist, aufgrund des Zustands der Oberfläche des Beobachtungsobjekts. In solch einem Fall kann der Zustand der Oberfläche des Beobachtungsziels nicht genau erfasst werden, außer, dass der Sensitivitätsparameter auf einen Wert verschieden für jeden Bereich des Beobachtungsobjekts eingestellt wird.
  • Die Tätigkeit des Benutzers, den Sensitivitätsparameter auf einen geeigneten Wert entsprechend dem Zustand der Oberfläche des Beobachtungsobjekts zu setzen, ist beschwerlich und zeitaufwändig.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Mikroskopsystem, ein Oberflächenzustands-Beobachtungsverfahren und ein Oberflächenzustands-Beobachtungsprogramm bereitzustellen, das den Benutzer in die Lage versetzt, den Zustand der Oberfläche des Beobachtungsziels in einer kurzen Zeit ohne Ausführen einer beschwerlichen Tätigkeit genau zu beobachten.
  • (1) Ein Mikroskopsystem gemäß einer Ausführungsform der vorliegenden Erfindung betrifft ein Mikroskopsystem zum Beobachten eines Zustands einer Oberfläche eines Beobachtungsobjekts, wobei das Mikroskopsystem eine Lichtquelle zum Ausstrahlen eines Lichts beinhaltet; ein Lichtempfangselement; ein optisches System zum Strahlen des von der Lichtquelle ausgestrahlten Lichts auf das Beobachtungsobjekt, während das Licht gesammelt wird, und Führen des auf das Beobachtungsobjekt gestrahlten Lichts zu dem Lichtempfangselement; eine Bildpunktdaten-Ausgabeeinheit zum Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements; eine Sensitivitätseinstelleinheit zum Einstellen eines Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle, des optischen Systems und/oder des Lichtempfangselements; und eine Bilddaten-Erzeugungseinheit zum Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts anzeigen, basierend auf den durch die Bildpunktdaten-Ausgabeeinheit ausgegeben Bildpunktdaten, wobei der Sensitivitätsparameter auf einen ersten Wert durch die Sensitivitäts-Einstelleinheit eingestellt ist, und einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand der Oberfläche des Beobachtungsobjekts anzeigen, basierend auf den durch die Bildpunktdaten-Ausgabeeinheit ausgegeben Bilddaten, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert durch die Sensitivitäts-Einstelleinheit eingestellt ist; wobei die Bilddaten-Erzeugungseinheit einen Bestimmungswert erzeugt zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf dem zur Zeit der ersten Messung erzeugten Bilddaten, bestimmt, ob das Ergebnis der ersten Messung eine im Voraus definierte Bedingung erfüllt oder nicht, basierend auf dem erzeugten Bestimmungswert, die zweite Messung ausführt, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, Oberflächenbilddaten erzeugt, die einen Zustand der Oberfläche des Beobachtungsobjekts anzeigen, durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und der zur Zeit der zweiten Messung erzeugten Bilddaten, und die zweite Messung nicht ausführt, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und die Oberflächen-Bilddaten erzeugt basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  • In solch einem Mikroskopsystem wird das von der Lichtquelle ausgestrahlte Licht auf das Beobachtungsobjekt gestrahlt, während es von dem optischen System gesammelt wird, und das auf das Beobachtungsobjekt gestrahlte Licht wird zu dem Lichtempfangselement geführt. Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten werden basierend auf dem Ausgangssignal des Lichtempfangselements ausgegeben.
  • Die erste Messung zum Erzeugen der Bilddaten für jeden Bildpunkt wird mit einem auf einen ersten Wert eingestellten Sensitivitätsparameter ausgeführt. Der Bestimmungswert zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, wird basierend auf den während der ersten Messung erzeugten Bilddaten erzeugt. Ob das Ergebnis der ersten Messung die im Voraus definierte Bedingung erfüllt oder nicht, wird basierend auf dem erzeugten Bestimmungswert bestimmt.
  • Wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, wird die zweite Messung zum Erzeugen der Bilddaten für jeden Bildpunkt mit dem auf einen zweiten Wert eingestellten Sensitivitätsparameter ausgeführt. Die Bilddaten werden dadurch mit verschiedenen Sensitivitätsparametern gemäß dem Zustand der Oberfläche des Beobachtungsobjekts erzeugt. Die Oberflächen-Bilddaten werden erzeugt durch Synthetisieren der zum Zeitpunkt der ersten Messung erzeugten Bilddaten und der zum Zeitpunkt der zweiten Messung erzeugten Bilddaten. Der Zustand der Oberfläche des Beobachtungsobjekts kann demzufolge genau beobachtet werden, sogar dann, wenn der Zustand der Oberfläche des Beobachtungsobjekts in jedem Bereich abweicht.
  • Wenn das Ergebnis der ersten Messung die Bedingung erfüllt, wird die zweite Messung nicht ausgeführt und die Oberflächen-Bilddaten werden basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten erzeugt. Da die den Zustand der Oberfläche des Beobachtungsobjekts anzeigenden Oberflächen-Bilddaten in einer Messung erzeugt werden, können die Oberflächen-Bilddaten in kurzer Zeit ohne Ausführung des Synthetisierungsprozesses erzeugt werden.
  • Als ein Ergebnis kann der Benutzer den Zustand der Oberfläche des Beobachtungsobjekts in kurzer Zeit ohne Durchführen einer beschwerlichen Tätigkeit beobachten.
  • (2) Die Bilddaten-Erzeugungseinheit bestimmt, ob der Wert der zur Zeit der ersten Messung erzeugten Bilddaten kleiner oder gleich dem im Voraus definierten Schwellwert ist oder nicht, und erzeugt eine Anzahl von Bilddaten mit einem Wert kleiner oder gleich dem Schwellenwert als den Bestimmungswert.
  • Ob der Wert der zur Zeit der ersten Messung erzeugten Bilddaten kleiner oder gleich einem im Voraus definierten Schwellwert ist oder nicht, wird bestimmt, und die Anzahl von Bilddaten mit einem Wert kleiner oder gleich dem Schwelwert wird als der Bestimmungswert erzeugt. Dadurch kann einfach und geeignet bestimmt werden, ob die Bilddaten mit unterschiedlichen Sensitivitätsparametern gemäß dem Zustand der Oberfläche des Beobachtungsobjekts zu erzeugen sind oder nicht.
  • (3) Die Bilddaten-Erzeugungseinheit kann die Bilddaten, die bestimmt wurden, einen Wert größer als den Schwellwert der zur Zeit der ersten Messung erzeugten Bilddaten aufzuweisen, und die Bilddaten, die den Bilddaten entsprechen, die bestimmt wurden, einen Wert kleiner oder gleich dem Schwellwert zur Zeit der ersten Messung der zur Zeit der zweiten Messung erzeugten Bilddaten aufzuweisen, synthetisieren, um die Oberfläche-Bilddaten zu erzeugen, die den Zustand der Oberfläche des Beobachtungsobjekts (S) anzeigen, wenn die ersten und zweiten Messungen ausgeführt werden.
  • Wenn die ersten und zweiten Messungen ausgeführt sind, werden die Bilddaten, die bestimmt wurden, einem Wert größer als dem Schwellwert der zur Zeit der ersten Messung erzeugten Bilddaten aufzuweisen, und die Bilddaten, die den Bilddaten entsprechen, die bestimmt wurden, einen Wert kleiner oder gleich dem Schwellwert zur Zeit der ersten Messung der zur Zeit der zweiten Messung erzeugten Bilddaten aufzuweisen, synthetisiert. Die Oberflächen-Bilddaten werden dadurch erzeugt. Deshalb kann der Zustand der Oberfläche des Beobachtungsobjekts mit einem einfachen Prozess genauer beobachtet werden.
  • (4) Die Sensitivitätseinstelleinheit kann den Sensitivitätsparameter einstellen durch Steuern einer Menge von der Lichtquelle ausgestrahlten Lichts, einer Dämpfungsgröße des Lichts in dem optischen System und/oder einer Verstärkung der Lichtempfangselements.
  • (5) Die Sensitivitätseinstelleinheit kann vorzugsweise die Menge des von der ersten Lichtquelle ausgestrahlten Lichts oder den Dämpfungsbetrag des Lichts in dem optischen System über der Verstärkung des Lichtempfangselements steuern, wenn der Sensitivitätsparameter von dem ersten Wert in den zweiten Wert geändert wird.
  • In diesem Fall wird die Erhöhung des Rauschpegels durch die Erhöhung der Verstärkung des Lichtempfangselements verhindert. Dadurch kann der Sensitivitätsparameter in einen geeigneten zweiten Wert geändert werden, ohne den Rauschpegel zu vergrößern.
  • (6) Die Sensitivitätseinstelleinheit kann den zweiten Wert des Sensitivitätsparameters zur Zeit der zweiten Messung bestimmen basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  • Demzufolge kann der zweite Wert des Sensitivitätsparameters zur Zeit der zweiten Messung geeignet eingestellt werden basierend auf den Bilddaten, die zur Zeit der ersten Messung erzeugt werden.
  • (7) Ein Oberflächenzustands-Beobachtungsverfahren gemäß einer anderen Ausführungsform der vorliegenden Erfindung bezieht sich auf ein Oberflächenzustands-Beobachtungsverfahren verwendet in einem Mikroskopsystem zum Überwachen eines Zustands einer Oberfläche eines Beobachtungsobjekts, wobei das Verfahren die Schritte beinhaltet Ausstrahlen eines Lichts von einer Lichtquelle; Strahlen des von der Lichtquelle ausgestrahlten Lichts auf das Beobachtungsobjekt, während das Licht durch ein optisches System gesammelt wird, und Führen des auf das Beobachtungsobjekt gestrahlten Lichts zu einem Empfangselement; Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements; Einstellen des Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle, des optischen Systems und/oder des Lichtempfangselements; Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts anzeigen, basierend auf den Bildpunktdaten, die mit dem auf einen ersten Wert eingestellten Sensitivitätsparameter ausgegeben werden; Erzeugen eines Bestimmungswerts zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf den Bilddaten, die zur Zeit der ersten Messung erzeugt werden, und Bestimmen, ob ein Ergebnis einer ersten Messung eine im Voraus definierte Bedingung erfüllt basierend auf dem erzeugten Bestimmungswert; und Ausführen einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts anzeigen, basierend auf der Bildpunktdaten-Ausgabe, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert eingestellt ist, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, und Erzeugen von Oberflächen-Bilddaten, die einen Zustand der Oberfläche des Beobachtungsobjekts anzeigen durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und zur Zeit der zweiten Messung erzeugten Bilddaten und Nichtausführen der zweiten Messung, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und Erzeugen der Oberflächen-Bilddaten basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  • In dem Oberflächenzustands-Beobachtungsverfahren wird das von der Lichtquelle ausgestrahlte Licht auf das Beobachtungsobjekt bestrahlt, während es von dem optischen System gesammelt wird, und das auf das Beobachtungsobjekt gestrahlte Licht wird zu dem Lichtempfangselement geführt. Die einer Vielzahl von Bildpunkten entsprechenden Bildpunktdaten werden basierend auf einem Ausgangssignal des Lichtempfangselements ausgegeben.
  • Die erste Messung zum Erzeugen der Bilddaten für jeden Bildpunkt wird mit dem auf den ersten Wert eingestellten Sensitivitätsparameter ausgeführt. Der Bestimmungswert zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, wird basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten erzeugt. Ob ein Ergebnis der ersten Messung eine im Voraus definierte Bedingung erfüllt oder nicht, wird basierend auf dem erzeugten Bestimmungswert bestimmt.
  • Wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, wird die zweite Messung zum Erzeugen der Bilddaten für jeden Bildpunkt mit dem auf den zweiten Wert eingestellten Sensitivitätsparameter ausgeführt. Die Bilddaten werden dadurch mit verschiedenen Sensitivitätsparametern entsprechend dem Zustand der Oberfläche des Beobachtungsobjekts erzeugt. Die Oberflächen-Bilddaten werden erzeugt durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und der zur Zeit der zweiten Messung erzeugten Bilddaten. Dementsprechend kann der Zustand der Oberfläche des Beobachtungsobjekts sogar dann genau beobachtet werden, wenn der Zustand der Oberfläche des Beobachtungsobjekts sich in jedem Bereich unterscheidet.
  • Wenn das Ergebnis der ersten Messung die Bedingung erfüllt, wird die zweite Messung nicht ausgeführt und die Oberflächen-Bilddaten werden basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten erzeugt. Dementsprechend werden die Oberflächen-Bilddaten, die den Zustand der Oberfläche des Beobachtungsobjekts anzeigen, in einer Messung erzeugt, so dass die Oberflächen-Bilddaten in einer kurzen Zeit ohne Ausführung des Synthetisierungsprozesses erzeugt werden können.
  • Entsprechend den obigen Ergebnissen, kann der Benutzer den Zustand des Beobachtungsobjekts in einer kurzen Zeit ohne Ausführen der beschwerlichen Tätigkeit beobachten.
  • (8) Ein Oberflächenzustands-Beobachtungsprogramm gemäß einer anderen weiteren Ausführungsform der vorliegenden Erfindung betrifft ein Oberflächenzustands-Beobachtungsprogramm zum Veranlassen einer Verarbeitungsvorrichtung, einen Oberflächenzustands-Beobachtungsprozess auszuführen, der in einem Mikroskopsystem verwendet wird, zum Beobachten eines Zustands einer Oberfläche eines Beobachtungsobjekts (S), wobei das Programm die Verarbeitungsvorrichtung (200) veranlasst, einen Prozess auszuführen von Ausstrahlen eines Lichts von einer Lichtquelle; Strahlen des von der Lichtquelle ausgestrahlten Lichts auf das Beobachtungsobjekt, während das Licht durch ein optisches System gesammelt wird, und Führen des auf das Beobachtungsobjekt gestrahlten Lichts zu einem Empfangselement; Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements; Einstellen des Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle, des optischen Systems und/oder des Lichtempfangselements; Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts anzeigen, basierend auf den Bildpunktdaten, die mit dem auf einen ersten Wert eingestellten Sensitivitätsparameter ausgegeben werden; Erzeugen eines Bestimmungswerts zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf den Bilddaten, die zur Zeit der ersten Messung erzeugt werden, und Bestimmen, ob ein Ergebnis einer ersten Messung eine im Voraus definierte Bedingung erfüllt basierend auf dem erzeugten Bestimmungswert; und Ausführen einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts anzeigen, basierend auf der Bildpunktdaten-Ausgabe, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert eingestellt ist, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, und Erzeugen von Oberflächen-Bilddaten, die einen Zustand der Oberfläche des Beobachtungsobjekts anzeigen durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und zur Zeit der zweiten Messung erzeugten Bilddaten und Nichtausführen der zweiten Messung, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und Erzeugen der Oberflächen-Bilddaten basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  • In dem Oberflächenzustands-Beobachtungsprogramm wird das von der Lichtquelle ausgestrahlte Licht auf das Beobachtungsobjekt gestrahlt, während es von dem optischen System gesammelt wird, und das auf das Beobachtungsobjekt gestrahlte Licht wird zu dem Lichtempfangselement geführt. Die Bildpunktdaten, die einer Vielzahl von Bildpunkten entsprechen, werden basierend auf einem Ausgangssignal des Lichtempfangselements ausgegeben.
  • Die erste Messung zum Erzeugen der Bilddaten für jeden Bildpunkt wird mit einem auf den ersten Wert eingestellten Sensitivitätsparameter ausgeführt. Der Bestimmungswert zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, wird basierend auf dem zur Zeit der ersten Messung erzeugten Bilddaten erzeugt. Ob ein Ergebnis der ersten Messung eine im Voraus definierte Bedingung erfüllt oder nicht, wird basierend auf dem erzeugten Bestimmungswert bestimmt.
  • Wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, wird die zweite Messung zum Erzeugen der Bilddaten für jeden Bildpunkt mit einem auf den zweiten Wert eingestellten Sensitivitätsparameter ausgeführt, die Bilddaten werden dadurch mit verschiedenen Sensitivitätsparametern entsprechend dem Zustand der Oberfläche des Beobachtungsobjekts erzeugt. Die Oberflächen-Bilddaten werden erzeugt durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und der zur Zeit der zweiten Messung erzeugten Bilddaten. Dementsprechend kann der Zustand der Oberfläche des Beobachtungsobjekts sogar dann genau beobachtet werden, wenn der Zustand der Oberfläche des Beobachtungsobjekts sich in jedem Bereich unterscheidet.
  • Wenn das Ergebnis der ersten Messung die Bedingung erfüllt, wird die zweite Messung nicht ausgeführt und die Oberflächen-Bilddaten werden basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten erzeugt. Dementsprechend werden die Oberflächen-Bilddaten, die den Zustand der Oberfläche des Beobachtungsobjekts anzeigen, in einer Messung erzeugt, so dass die Oberflächen-Bilddaten in einer kurzen Zeit ohne Ausführen des Synthetisierungsprozesses erzeugt werden können.
  • Entsprechend der obigen Ergebnisse, kann der Benutzer den Zustand der Oberfläche des Beobachtungsobjekts in einer kurzen Zeit ohne Ausführung der beschwerlichen Tätigkeiten beobachten.
  • Entsprechend der vorliegenden Erfindung kann der Benutzer den Zustand der Oberfläche des Beobachtungsobjekts in einer kurzen Zeit ohne Ausführen der beschwerlichen Tätigkeit beobachten.
  • KURZE BESCHREIBUNG DER ABBILDUNGEN
  • 1 ist ein Blockdiagramm, das eine Konfiguration eines konfokalen Mikroskopsystems entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Blick zum Definieren einer X-Richtung, einer X-Richtung und einer Z-Richtung;
  • 3 ist eine Ansicht, die eine Beziehung einer Position in einer Z-Richtung des Beobachtungsobjekts und der Lichtempfangsintensität des Lichtempfangselements für einen Bildpunkt zeigt;
  • 4A und 4B sind Ansichten zum Beschreiben der Beziehung der Höhepunktsintensität und der Form des Beobachtungsobjekts;
  • 5A bis 5C sind Ansichten zum Beschreiben eines Breitdynamikbereichsprozesses;
  • 6 ist eine Ansicht, die ein Anzeigebeispiel der Anzeigeeinheit zeigt;
  • 7 ist eine Ansicht, die einen ersten Sensitivitätsparameter-Einstellrahmen von 6 zeigt;
  • 8 ist eine Ansicht, die ein zweites Sensitivitätsparameter-Einstellfenster zeigt;
  • 9 ist ein Flussdiagramm eines Oberflächenzustands-Beobachtungsprozesses;
  • 10 ist ein Flussdiagramm des Oberflächenzustands-Beobachtungsprozesses;
  • 11 ist ein Flussdiagramm des Oberflächenzustands-Beobachtungsprozess; und
  • 12 ist ein Flussdiagramm des Oberflächenzustands Beobachtungsprozesses.
  • DETAILLIERTE BESCHREIBUNG VON BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Ein Mikroskopsystem, ein Oberflächenzustands-Beobachtungsverfahren und ein Oberflächenzustands-Beobachtungsprogramm gemäß einer Ausführungsform der vorliegenden Erfindung werden mit Bezugnahme auf die Abbildungen beschrieben. Nachstehend wird ein konfokales Mikroskopsystem als ein Beispiel des Mikroskopsystems beschrieben.
  • (1) Grundlegende Konfiguration eines konfokalen Mikroskopsystems
  • 1 ist ein Blockdiagramm, das eine Konfiguration eines konfokalen Mikroskopsystems 500 gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Wie in 1 gezeigt, beinhaltet das konfokale Mikroskopsystem 500 eine Messeinheit 100, einen PC (Personalcomputer) 200, eine Steuereinheit 300 und eine Anzeigeeinheit 400. Die Messeinheit 100 beinhaltet eine Laserlichtquelle 10, ein X-Y-Abtastoptiksystem 20, ein Lichtempfangselement 30, eine Beleuchtungs-Weißlichtquelle 40, eine Farb-CCD (Charge Coupled Device) Kamera 50 und ein Gestell 60. Ein Beobachtungsobjekt (Beobachtungsziel) S ist auf dem Gestell 60 montiert.
  • Die Laserlichtquelle 10 ist zum Beispiel ein Halbleiterlaser. Das von der Laserlichtquelle 10 ausgestrahlte Laserlicht wird durch die Linse 1 in ein paralleles Licht umgewandelt und dann durch den Halbspiegel 4 gesendet, um in das X-Y-Abtastoptiksystem 20 einzutreten. Andere Lichtquellen, wie z. B. eine Quecksilberlampe, können anstelle der Laserlichtquelle 10 verwendet werden. In diesem Fall ist ein Bandpassfilter zwischen der Lichtquelle, wie z. B. die Quecksilberlampe, und dem X-Y-Abtastoptiksystem 20 angeordnet. Das Licht, das von der Lichtquelle, wie z. B. die Quecksilberlampe, ausgestrahlt wird, wird ein chromatisches Licht durch Durchlaufen des Bandpassfilters und tritt dann in das X-Y-Abtastoptiksystem 20 ein.
  • Das X-Y-Abtastoptiksystem 20 ist zum Beispiel ein Galvano-Spiegel. Das X-Y-Abtastoptiksystem 20 hat eine Funktion zum Abtasten des Laserlichts in der X-Richtung und der Y-Richtung auf der Oberfläche des Beobachtungsobjekts S auf dem Gestell 60. Die Definition der X-Richtung, der Y-Richtung und der Z-Richtung wird später vorgenommen. Das durch das X-Y-Abtastoptiksystem 20 abgetastete Laserlicht wird durch den Halbspiegel 6 reflektiert und dann durch einen Halbspiegel 6 gesendet und auf dem Beobachtungsobjekt S auf dem Gestell 60 durch ein Objektivlinse 3 gesammelt. Ein Polarisationsstrahlteiler kann anstelle der Halbspiegel 4 bis 6 verwendet werden.
  • Das durch das Beobachtungsobjekt S reflektierte Laserlicht wird durch die Objektivlinse 3 und den Halbspiegel 6 gesendet und dann von dem Halbspiegel 5 reflektiert und durch das X-Y-Abtastoptiksystem 20 gesendet. Das durch das X-Y-Abtastoptiksystem 20 gesendete Laserlicht wird durch den Halbspiegel 4 reflektiert, von der Linse 2 gesammelt und durch eine Lochblende eines Lochblendenelements 7 und ein ND-(Neutraldichte)Filter 8 gesendet, um in das Lichtempfangselement 30 einzutreten. Dementsprechend wird ein reflektives konfokales Mikroskopsystem 500 in der vorliegenden Ausführungsform verwendet, es kann aber auch ein durchlässiges konfokales Mikroskopsystem verwendet werden, wenn das Beobachtungsobjekt S ein transparenter Körper wie z. B. eine Zelle ist.
  • Die Lochblende des Lochblendenelements 7 ist in einer Fokusposition der Linse 2 angeordnet. Der ND-Filter 8 wird verwendet, um die Intensität des Laserlichts zu dämpfen, das in das Lichtempfangselement 30 eintritt. Deshalb muss der ND-Filter 8 nicht eingebaut werden, wenn die Intensität des Laserlichts genügend gedämpft ist.
  • In der vorliegenden Ausführungsform ist das Lichtempfangselement 30 ein Photomultiplier. Eine Photodiode und ein Verstärker können als Lichtempfangselement 30 verwendet werden. Das Lichtempfangselement gibt ein analoges elektrisches Signal (nachstehend als Lichtempfangssignal bezeichnet) entsprechend der Lichtempfangsqualität aus. Die Steuereinheit 300 beinhaltet zwei A/D-Umwandler (Analog/Digital-Umwandler), einen FIFO-(First In First Out)Speicher und eine CPU (zentrale Verarbeitungseinheit). Das von dem Lichtempfangselement 30 ausgegebene Lichtempfangssignal wird mit einer konstanten Abtastperiode abgetastet und in ein digitales Signal durch einen A/D-Umwandler der Steuereinheit 300 umgewandelt. Das digitale Signal, das von dem A/D-Umwandler ausgegeben wird, wird sequentiell in dem FIFO-Speicher angesammelt. Das digitale Signal, das in dem FIFO-Speicher angesammelt wird, wird sequentiell an den PC 200 als Bildpunktdaten übertragen.
  • Die Beleuchtungs-Weißlichtquelle 40 ist zum Beispiel eine Halogenlampe oder eine weiße LED (light emitting diode; Leuchtdiode). Das durch die Beleuchtungs-Weißlichtquelle 40 erzeugte weiße Licht wird durch den Halbspiegel 6 reflektiert und dann auf dem Beobachtungsobjekt S auf dem Gestell 60 durch die Objektivlinse 3 gesammelt.
  • Das durch das Beobachtungsobjekt S reflektierte weiße Licht wird durch die Objektivlinse 3, den Halbspiegel 6 und den Halbspiegel 5 gesendet und tritt in die Farb-CCD-Kamera 50 ein. Ein abbildendes Element wie zum Beispiel ein CMOS-(Complementary Metal Oxide Semiconductor; komplementärer Metalloxidhalbleiter)Bildsensor kann anstelle der Farb-CCD-Kamera verwendet werden. Die Farb-CCD-Kamera 50 gibt ein elektrisches Signal entsprechend der Lichtempfangsqualität aus. Das Ausgangssignal der Farb-CCD-Kamera 50 wird mit einer konstanten Abtastperiode abgetastet und in ein digitales Signal durch den anderen A/D-Umwandler der Steuereinheit 300 umgewandelt. Das von dem A/D-Umwandler ausgegebene digitale Signal wird sequentiell an den PC 200 als Kameradaten übertragen.
  • Die Steuereinheit 300 stellt die Bildpunktdaten und die Kameradaten an einen PC 200 bereit und steuert die Dämpfungsrate des Laserlichts durch den ND-Filter 8, die Verstärkung (Lichtempfangsempfindlichkeit) des Lichtempfangselements 30 und die Farb-CCD-Kamera 50 basierend auf einem Befehl von dem PC 200. Die Steuereinheit 300 steuert das X-Y-Abtastoptiksystem 20 basierend auf dem Befehl von dem PC 200, um das Laserlicht in der X-Richtung und der Y-Richtung auf dem Beobachtungsobjekt abzutasten.
  • Die Objektivlinse 3 ist angeordnet, in der Z-Richtung mittels einer Linsenantriebseinheit 63 bewegbar zu sein. Die Steuereinheit 300 steuert die Linsenantriebseinheit 63 basierend auf einem Befehl von dem PC 200, um die Objektivlinse 3 in der Z-Richtung zu bewegen. Die relative Position in der Z-Richtung des Beobachtungsobjekts S bezüglich der Objektivlinse 3 kann dann verändert werden.
  • Der PC 200 beinhaltet eine CPU (zentrale Verarbeitungseinheit) 210, einen ROM (Read Only Memory; Nurlesespeicher) 220, einen Arbeitsspeicher 230 und eine Speichervorrichtung 240. Das ROM 220 speichert ein Systemprogramm. Der Arbeitsspeicher 230 beinhaltet einen RAM (Random Access Memory) und wird für die Verarbeitung von verschiedenen Daten verwendet. Die Speichervorrichtung 42 beinhaltet eine Festplatte und dergleichen. Die Speichervorrichtung 240 speichert ein Oberflächenzustands-Beobachtungsprogramm und wird verwendet, um verschiedene Daten zu speichern, wie z. B. die Bildpunktdaten und Kameradaten, die von der Steuereinheit 300 bereitgestellt werden. Die Einzelheiten des Oberflächenzustands-Beobachtungsprogramms werden später beschrieben.
  • Die CPU 210 erzeugt Bilddaten basierend auf den von der Steuereinheit 300 bereitgestellten Bildpunktdaten. Nachstehend werden die Bilddaten, die basierend auf den Bildpunktdaten erzeugt werden, als konfokale Bilddaten bezeichnet. Ein Bild, das basierend auf den konfokalen Bilddaten angezeigt wird, wird als konfokales Bild bezeichnet.
  • Die CPU 210 erzeugt Bilddaten basierend auf den von der Steuereinheit 300 bereitgestellten Kameradaten. Nachstehend werden die Bilddaten, die basierend auf den Kameradaten erzeugt werden, als Kamera-Bilddaten bezeichnet. Ein Bild, das basierend auf den Kamera-Bilddaten angezeigt wird, wird als Kamerabild bezeichnet.
  • Die CPU 210 führt verschiedene Arten von Verarbeitung unter Verwendung des Aufgabenspeichers 230 mit den erzeugten konfokalen Bilddaten und Kamera-Bilddaten aus und veranlasst die Anzeigeeinheit 400, das konfokale Bild basierend auf den konfokalen Bilddaten und das Kamerabild basierend auf den Kamera-Bilddaten anzuzeigen. Die CPU 210 stellt einen Antriebsimpuls an einer Gestell-Antriebseinheit 62 bereit, wie später beschrieben wird.
  • Die Anzeigeeinheit 400 ist zum Beispiel durch ein Flüssigkristall-Anzeigefeld oder ein organisches EL-(Elektro-Lumineszenz)Feld konfiguriert.
  • Das Gestell 60 weist einen X-Richtungs-Bewegungsmechanismus, einen Y-Richtungs-Bewegungsmechanismus und einen Z-Richtungs-Bewegungsmechanismus auf. Ein Schrittmotor wird für den X-Richtungs-Bewegungsmechanismus, dem Y-Richtungs-Bewegungsmechanismus und den Z-Richtungs-Bewegungsmechanismus verwendet.
  • Der X-Richtungs-Bewegungsmechanismus, der Y-Richtung-Bewegungsmechanismus und der Z-Richtungs-Bewegungsmechanismus des Gestells 60 werden durch eine Gestell-Betriebseinheit 61 und eine Gestell-Antriebseinheit 62 angetrieben. Der Benutzer betreibt die Gestell-Betriebseinheit 61 manuell, um das Gestell relativ zu der Objektivlinse 3 in der X-Richtung, der Y-Richtung und der Z-Richtung zu bewegen.
  • Die Gestell-Antriebseinheit 62 versorgt den Schrittmotor des Gestells 60 mit Leistung basierend auf dem durch den PC 200 bereitgestellten Antriebspuls, um das Gestell 60 relativ zu der Objektivlinse 3 in der X-Richtung, der Y-Richtung und der Zeitraum zu bewegen.
  • (2) Konfokales Bild, Ultratiefbild und Höhenbild
  • 2 ist eine Ansicht zum Definieren der X-Richtung, der Y-Richtung und der Z-Richtung. Wie in 2 gezeigt, wird das durch die Objektivlinse 3 gesammelte Laserlicht auf das Beobachtungsobjekt S gestrahlt. In der vorliegenden Ausführungsform wird die Richtung der optischen Achse der Objektivlinse 3 als die Z-Richtung definiert. In einer Ebene orthogonal zu der Z-Richtung werden zwei Richtungen orthogonal zueinander jeweils in die X-Richtung und die Y-Richtung definiert. Die X-Richtung, die Y-Richtung und die Z-Richtung sind jeweils mit Pfeilen X, Y und Z gezeigt.
  • Die relative Position der Oberfläche des Beobachtungsobjekts S bezüglich der Objektivlinse 3 in der Z-Richtung wird als eine Position in der Z-Richtung des Beobachtungsobjekts S bezeichnet. Die konfokalen Bilddaten werden für jeden Einheitsbereich erzeugt. Der Einheitsbereich wird durch die Vergrößerung der Objektivlinse 3 definiert.
  • Das Laserlicht wird in der X-Richtung am Ende der Y-Richtung in dem Einheitsbereich durch das X-Y-Abtastoptiksystem 20 abgetastet, wobei die Position in der Z-Richtung des Beobachtungsobjekts S konstant ist. Nachdem das Abtasten in der X-Richtung beendet ist, wird das Laserlicht um ein konstantes Intervall in der Y-Richtung durch das X-Y-Abtastoptiksystem 20 verschoben. Das Laserlicht wird in der X-Richtung in einem solchen Zustand abgetastet. Das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs wird beendet durch wiederholen des Abtastens in der X-Richtung und der Verschiebung in der Y-Richtung des Laserlichts in dem Einheitsbereich. Die Objektivlinse 3 wird dann in die Z-Richtung bewegt. Das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs wird dadurch in einem konstanten Zustand ausgeführt, indem die Position in der Z-Richtung der Objektivlinse 3 sich von dem vorhergehenden Mal unterscheidet. Das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs wird an einer Vielzahl von Positionen in der Z-Richtung des Beobachtungsobjekts S ausgeführt.
  • Die konfokalen Bilddaten werden durch Abtasten in der X-Richtung und der Y-Richtung für jede Position in der Z-Richtung des Beobachtungsobjekts S erzeugt. Eine Vielzahl von konfokalen Bilddaten, in denen die Position in der Z-Richtung sich in dem Einheitsbereich unterscheidet, wird dadurch erzeugt.
  • Die Anzahl von Bildpunkten in der X-Richtung der konfokalen Bilddaten wird durch die Abtastgeschwindigkeit in der X-Richtung des Laserlichts durch das X-Y-Abtastoptiksystem 20 und die Abtastperiode der Steuereinheit 300 definiert. Die Anzahl von Abtastungen in einer Abtastung (eine Abtastlinie) in der X-Richtung wird die Anzahl von Bildpunkten in der X-Richtung. Die Anzahl von Bildpunkten in der Y-Richtung der konfokalen Bilddaten des Einheitsbereichs wird durch die Größe der Verschiebung in der Y-Richtung des Laserlichts durch das X-Y-Abtastoptiksystem 20 definiert jedes Mal, wenn das Abtasten in der X-Richtung beendet ist. Die Anzahl von Abtastlinien in der Y-Richtung wird die Anzahl von Bildpunkten in der Y-Richtung. Die Anzahl von konfokalen Bilddaten des Einheitsbereichs wird definiert durch die Anzeige von Bewegungen der Objektivlinse 3 in der Z-Richtung. Die Ultratiefbilddaten und die Höhenbilddaten werden durch ein Verfahren, das später beschrieben wird, basierend auf der Vielzahl von konfokalen Bilddaten des Einheitsbereichs erzeugt.
  • In dem Beispiel von 2 wird eine Vielzahl von konfokalen Bilddaten des Beobachtungsobjekts S in einem Einheitsbereich S1 in einer ersten Position des Gestells 60 erzeugt. Dann wird das Gestell 60 sequentiell bewegt, so dass die Vielzahl von konfokalen Bilddaten des Beobachtungsobjekts S im Einheitsbereich in s2 bis s4 und die Ultratiefbilddaten und die Höhenbilddaten der Einheitsbereiche s2 bis s4 erzeugt werden. In diesem Fall können die Einheitsbereiche s1 bis s4 so eingerichtet werden, dass ein Teil der benachbarten Einheitsbereiche miteinander überlappen. Dadurch können die Ultratiefbilddaten und die Höhenbilddaten der Vielzahl von Einheitsbereichen s1 bis s4 mit hoher Genauigkeit durch Durchführen von Musterabgleich gekoppelt werden. Speziell, wenn die Gesamtfläche der Vielzahl von Einheitsbereichen größer ist als ein Erfassungsbereich der Bildpunktdaten, die später beschrieben werden, wird der Abschnitt, der der Fläche des Abschnitts entspricht, der aus dem Erfassungsbereich heraus läuft, als der Überlappungsabschnitt eingestellt.
  • 3 ist eine Ansicht, die einen Zusammenhang der Position in der Z-Richtung des Beobachtungsobjekts S und der Empfangsintensität des Lichtempfangselements 30 für einen Pixel zeigt. Wie in 1 gezeigt, ist die Lochblende des Lochblendenelements 7 in der Fokusposition der Linse 2 angeordnet. Wenn die Oberfläche des Beobachtungsobjekts S in der Fokusposition der Objektivlinse 3 ist, wird deshalb das durch das Beobachtungsobjekt S reflektierte Laserlicht an der Position der Lochblende des Lochblendenelements 7 gesammelt. Deshalb durchläuft der Großteil des durch das Beobachtungsobjekt S reflektierten Laserlichts die Lochblende des Lochblendenelements 7, um in das Lichtempfangselement 30 einzutreten. In diesem Fall nimmt die Lichtempfangsintensität des Lichtempfangselements 30 ein Maximum an. Der Spannungswert des Lichtempfangssignals, der von dem Lichtempfangselement 30 ausgegeben wird, nimmt dadurch ein Maximum ein.
  • Wenn die Oberfläche des Beobachtungsobjekts S an einer Position ist, die von der Fokusposition der Objektivlinse 3 abweicht, wird das durch das Beobachtungsobjekt S reflektierte Laserlicht an der Position vor oder hinter der Lochblende des Lochblendenelements 7 gesammelt. Deshalb wird der größte Teil des durch das Beobachtungsobjekt S reflektierten Laserlicht an dem Umgebungsabschnitt der Lochblende des Lochblendenelements abgeschirmt und die Lichtempfangsintensität des Lichtempfangselements 30 verringert sich. Somit verringert sich der Spannungswert des von dem Lichtempfangselement 30 ausgegebenen Lichtempfangssignals.
  • Deshalb tritt ein Höhepunkt in der Verteilung der Lichtempfangsintensität des Lichtempfangselements 30 bei der Oberfläche des Beobachtungsobjekts S an der Fokusposition der Objektivlinse 3 auf. Die Verteilung der Lichtempfangsintensität in der Z-Richtung wird für jeden Bildpunkt aus der Vielzahl von konfokalen Bilddaten jedes Einheitsbereichs erhalten. Somit werden die Höhepunktsposition und die Höhepunktsintensität (Lichtempfangsintensität am Höhepunkt) der Lichtempfangsintensitätsverteilung für jeden Bildpunkt erhalten.
  • Die Daten, die die Höhepunktsposition in der Z-Richtung für eine Vielzahl von Bildpunkten jedes Einheitsbereichs darstellen, werden als Höhenbilddaten bezeichnet, und das Bild, das basierend auf den Höhenbilddaten angezeigt wird, wird als Höhenbild bezeichnet. Das Höhenbild stellt die Oberflächenform des Beobachtungsobjekts S dar. Die Daten, die die Höhepunktsintensität für eine Vielzahl von Bildpunkten jedes Einheitsbereichs darstellen, werden als Ultratiefbilddaten bezeichnet und das Bild, das basierend auf den Ultratiefbilddaten angezeigt wird, wird als Ultratiefbild bezeichnet. Das Ultratiefbild ist ein Bild, das mit dem Fokus der Objektivlinse 3 auf alle Abschnitte der Oberfläche des Beobachtungsobjekts S erhalten wird. Der PC 200 erzeugt eine Vielzahl von konfokalen Bilddaten des Einheitsbereichs basierend auf einer Vielzahl von Bildpunktdaten des Einheitsbereichs, die von der Steuereinheit 300 bereitgestellt werden, und erzeugt die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs basierend auf einer Vielzahl von konfokalen Bilddaten.
  • (3) Zusammenhang zwischen Höhepunktsintensität und Form eines Beobachtungsobjekts
  • 4A und 4B sind Ansichten zum Beschreiben der Beziehung der Höhepunktsintensität und der Form des Beobachtungsobjekts S. Wie in 4A gezeigt, ist das Beobachtungsobjekt S mit einer Rundsäulenform so angeordnet, dass die Mittelachse SC des Beobachtungsobjekts S parallel zu der Y-Richtung ist. Die Höhenbilddaten und die Ultratiefbilddaten auf einer Linie SL entlang der Umfangsrichtung der äußeren Umfangsoberfläche auf der Oberseite des Beobachtungsobjekts S werden in einem solchen Zustand erzeugt.
  • Ein oberer Endabschnitt SU der äußeren Umfangsoberfläche des Beobachtungsobjekts S ist im Wesentlichen parallel zu der XY-Ebene. Wenn der obere Endabschnitt SU in der Fokusposition der Objektivlinse 3 ist, wird im Wesentlichen das gesamte an der Fokusposition gesammelte Laserlicht in Richtung der Objektivlinse 3 reflektiert, durch die Objektivlinse 3 gesendet und tritt in das Lichtempfangselement 30 ein, wie mit dem fetten Pfeil RA in 4A gezeigt.
  • Beide Seitenendabschnitte SE1, SE2 der äußeren Umfangsoberfläche des Beobachtungsobjekts S sind im Wesentlichen senkrecht zu der XY-Ebene. Wenn der Abschnitt in der Nähe der Seitenendabschnitte SE1, SE2 in der Fokusposition in der Objektivlinse 3 ist, wird im Wesentlichen das gesamte an der Fokusposition gesammelte Laserlicht in Richtung der Seite des Beobachtungsobjekts S reflektiert, wie mit dem fetten Pfeil RB1 in 4A gezeigt. Somit wird das Meiste des in der Nähe der Seitenendabschnitte SE1, SE2 reflektierten Laserlichts nicht durch die Objektivlinse 3 gesendet und tritt kaum in das Lichtempfangselement 30 ein, wie mit dem gestrichelten Linienpfeil RB2 in 4A gezeigt.
  • Wie oben beschrieben, wenn die Intensität des an dem Beobachtungsobjekt S gesammelten Laserlichts konstant ist, wird die Lichtempfangsintensität des Lichtempfangselements 30 größer, wenn sich die Fokusposition der Objektivlinse 3 dem oberen Endabschnitt SU des Beobachtungsobjekts S nähert, und wird kleiner, wenn sich die Fokusposition der Objektivlinse 3 den Seitenendabschnitten SE1, SE2 des Beobachtungsobjekts S nähert.
  • 4B zeigt den Zusammenhang zwischen der Höhepunktsintensität und der Position in X-Richtung des Beobachtungsobjekts S. Wie in 4B gezeigt, ist ein Wert β der der Höhepunktsintensität durch das Laserlicht, das in der Nähe der Seitenendabschnitte SEI, SE2 des Beobachtungsobjekts S reflektiert wird, ausreichend klein bezüglich eines Wertes α der Höhepunktsintensität durch das Laserlicht, das an dem oberen Endabschnitt SU des Beobachtungsobjekts S reflektiert wird.
  • Die Höhenbilddaten und die Ultratiefbilddaten werden basierend auf der Vielzahl von Bildpunktdaten erzeugt, die erhalten werden, wenn das Laserlicht in der X-Richtung und der Y-Richtung in einer Vielzahl von Positionen in der Z-Richtung des Beobachtungsobjekts S abgetastet wird. Der Wert der Bildpunktdaten, die mit der Fokusposition der Objektivlinse 3 auf der Oberfläche des Beobachtungsobjekts S erhalten werden, werden als der Wert der Höhepunktsintensität erhalten.
  • Die Bildpunktdaten sind ein digitales Signal, das dem Lichtempfangssignal entspricht, das von dem Lichtempfangselement 30 ausgegeben wird. Die Bildpunktdaten werden von dem A/D-Umwandler der Steuereinheit 300 ausgegeben. Deshalb ist der Höchstwert (obere Grenzwert) der Bildpunktdaten der Höchstwert (nachstehend bezeichnet als Ausgabe-Höchstwert max) des Ausgabebereichs des A/D-Umwandlers.
  • In dem konfokalen Mikroskopsystem gemäß der vorliegenden Ausführungsform kann der Sensitivitätsparameter geändert werden. Der Sensitivitätsparameter ist der Parameter zum Anpassend des Wertes der Bildpunktdaten, die durch die Steuereinheit 300 mit dem Zustand (Reflektivität, Richtung, Rauigheit, Farbe, etc.) der Oberfläche des Beobachtungsobjekts S unter einer konstanten Bedingung zu erhalten sind.
  • Der Wert der Bildpunktdaten ist umso größer je größer die Lichtmenge der Laserlichtquelle 10 ist und umso kleiner je kleiner die Lichtmenge der Laserlichtquelle 10 ist. Der Wert der Bilddaten ist umso kleiner je größer die Dämpfungsrate des Laserlichts durch den ND-Filter 8 ist, und umso größer je kleiner die Dämpfungsrate des Laserlichts durch den ND-Filter 8 ist. Weiterhin ist der Wert der Höhepunktdaten größer je höher die Verstärkung des Lichtempfangselements 30 ist, und kleiner je niedriger die Verstärkung des Lichtempfangselements 30 ist. Deshalb kann der Sensitivitätsparameter geändert werden durch Steuern wenigstens eines Elements aus der Gruppe bestehend aus der Lichtmenge der Laserlichtquelle 10, der Dämpfungsrate des Laserlichts durch den ND-Filter 8 und der Verstärkung des Lichtempfangselements 30.
  • Wenn der Sensitivitätsparameter hoch eingestellt ist mit dem Zustand der Oberfläche des Beobachtungsobjekts S unter einer konstanten Bedingung, wird der Pegel des Lichtempfangssignals, das von dem Lichtempfangselement 30 ausgegeben wird, hoch und der durch die Steuereinheit 300 erlangte Wert der Bildpunktdaten wird groß. Wenn der Sensitivitätsparameter niedrig eingestellt ist mit dem Zustand der Oberfläche des Beobachtungsobjekts S unter einer konstanten Bedingung, wird der Pegel des Lichtempfangssignals, das von dem Lichtempfangselement 30 ausgegeben wird, niedrig und der Wert der durch die Steuereinheit 300 erlangen Bildpunktdaten wird klein.
  • Wenn der Sensitivitätsparameter zu groß ist, könnte der Pegel des von dem Lichtempfangselement 30 ausgegebenen Lichtempfangssignals sättigen und der Wert der von der Steuereinheit 300 erlangten Bildpunktdaten könnte an dem Höchstwert max sättigen. Zum Beispiel, falls der Wert der erlangten Bildpunktdaten bei dem Ausgabe-Höchstwert max gesättigt ist, wenn die Fokusposition der Objektivlinse 3 auf dem Bildpunkt des oberen Endabschnitts SU des Beobachtungsobjekts S der 4A ist, können die Höhepunktsintensität und die Höhepunktsposition an den relevanten Bildpunkten nicht erhalten werden. In der vorliegenden Ausführungsform, wird der Sensitivitätsparameter so eingestellt, dass die Werte der Vielzahl von Bildpunktdaten, die erlangt werden, um die Höhenbilddaten und die Ultratiefbilddaten zu erzeugen, kleiner werden als der Ausgabe-Höchstwert max.
  • Wenn der Sensitivitätsparameter zu niedrig ist, wird der Pegel des von dem Lichtempfangselement 30 ausgegebenen Lichtempfangssignals kleiner oder gleich dem Rauschpegel, und der Wert der von der Steuereinheit 300 erlangten Bildpunktdaten kann kleiner oder gleich dem digitalen Wert (nachstehend als Rauschpegel n1 bezeichnet) des von dem Lichtempfangselement 30 ausgegebenen Rauschens werden. Zum Beispiel, falls der Wert der erhaltenen Bildpunktdaten, die dem Bildpunkt in der Nähe der Seitenendabschnitte SE1, SE2 der 4A entsprechen, kleiner oder gleich dem Rauschpegel n1 ist, können der Höhepunkt der Bildpunktdaten, die dem Bildpunkt in der Nähe der Seitenendabschnitte SE1, SE2 entsprechen, nicht klar von dem Rauschen des Lichtempfangselements identifiziert werden. Deshalb wird der Breitdynamikbereichsprozess in der vorliegenden Ausführungsform ausgeführt. Der Breitdynamikbereichsprozess wird nachstehend beschrieben.
  • (4) Breitdynamikbereichsprozess
  • 5A bis 5C sind Ansichten zum beschrieben des Breitdynamikbereichsprozess. In dem Breitdynamikbereichsprozess, wird der Sensitivitätsparameter als Erstes so gesetzt, dass die Mehrzahl der Vielzahl von Bildpunktdaten, die erhalten werden, kleiner als der Ausgangshöchstwert max werden. Im Folgenden wird der Wert des Sensitivitätsparameters, der als Erstes nach dem Start des Breitdynamikbereichsprozesses eingestellt wird als erster Sensitivitätswert bezeichnet.
  • Die Bildpunktdaten, die allen Bildpunktdaten in dem Einheitsbereich entsprechen, werden speziell als Erstes erhalten durch Ausführen des Abtastens in der X-Richtung und der Y-Richtung des Einheitsbereichs, wobei die Objektivlinse 3 in einer willkürlichen Position in der Z-Richtung gehalten wird. In solch einem Zustand, wenn der Wert einer der Pixeldaten der Ausgangs-Höchstwert max ist, wird die Dämpfungsrate des Laserlichts durch den ND-Filter 8 um einen konstanten Betrag vergrößert, um den Sensitivitätsparameter zu reduzieren. Alternativ wird die Lichtmenge der Laserlichtquelle 10 oder die Verstärkung des Lichtempfangselements 30 um einen konstanten Betrag reduziert, um den Sensitivitätsparameter zu reduzieren. Danach wird das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs erneut ausgeführt, um die Bildpunktdaten zu erhalten, die allen Bildpunkten in dem Einheitsbereich entsprechen.
  • Die Objektivlinse 3 wird in der Z-Richtung um einen konstanten Betrag bewegt, wenn der Wert aller Bildpunktdaten kleiner als der Ausgangs-Höchstwert max wird durch Wiederholen der Reduzierung des Sensitivitätsparameters und Erfassung der Bildpunktdaten. Dann werden die Reduktion des Sensitivitätsparameters, die Erfassung der Bildpunktdaten, der Bestimmungsbetrieb der Bildpunktdaten und die Bewegung der Objektivlinse 3 in der Z-Richtung wiederholt. Der Wert des Sensitivitätsparameters der eingestellt wird, wenn die Objektivlinse 3 die Bewegung des gesamten, im Voraus definierten Bereichs in der Z-Richtung abschließt, wird letztendlich in dem Arbeitsspeicher 230 der 1 als erster Sensitivitätswert gespeichert. Der erste Sensitivitätswert wird automatisch auf solch eine Weise (automatisches Einstellen des ersten Sensitivitätswerts) eingestellt.
  • In der obigen Beschreibung, wird der erste Sensitivitätswert eingestellt, während das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs an einer Vielzahl von Positionen in der Z-Richtung des Beobachtungsobjekts S und Erfassen einer Vielzahl von Bildpunktdaten ausgeführt wird. Dies ist nicht der einzige Fall und der erste Sensitivitätswert kann eingestellt werden, wenn der Benutzer eine Zeigevorrichtung, wie zum Beispiel eine mit dem PC 200 verbundene Maus, betreibt (manuelles Einstellen des ersten Sensitivitätswerts). Ein Beispiel, in dem der Benutzer den ersten Sensitivitätswert einstellt, wird später beschrieben.
  • Das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs wird an einer Vielzahl von Positionen in der Z-Richtung des Beobachtungsobjekts S mit dem ersten Sensitivitätswert eingestellt ausgeführt. Die Vielzahl von Bildpunktdaten wird dabei erfasst und eine Vielzahl von konfokalen Bilddaten, in denen die Position in der Z-Richtung sich in dem Einheitsbereich unterscheidet, wird erzeugt. Die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs werden basierend auf der Vielzahl von konfokalen Bilddaten erzeugt.
  • Zur Zeit der Erzeugung der Höhenbilddaten und der Ultratiefbilddaten, wird der Höhepunktwert der Bildpunktdaten entsprechend jedem Bildpunkt als die Höhepunktsintensität erfasst. Die relative Position in der Z-Richtung des Beobachtungsobjekts S bezüglich der Objektivlinse 3, wenn jede extrahierte Höhepunktsintensität erlangt wird, wird als die Höhepunktsposition erfasst.
  • Ein Histogramm, das den Zusammenhang zwischen der Höhepunktsintensität, die mit dem ersten Sensitivitätswert erfasst wird, und der Anzahl von Bildpunkten ist in dem oberen Abschnitt der 5A gezeigt. In diesem Histogramm zeigt die vertikale Achse die Anzahl von Bildpunkten an und die horizontale Achse zeigt die Höhepunktsintensität (Höhepunktswert der Höhepunktdaten für jeden Bildpunkt) an. Auf der horizontalen Achse entspricht der Maximalwert (100) der Höhepunktsintensität dem Ausgangs-Höchstwert max des A/D-Wandlers.
  • Ein Ultratiefbild basierend auf den Ultratiefbilddaten, die unter Verwendung des ersten Sensitivitätswerts erzeugt werden, ist in dem unteren Abschnitt der 5A gezeigt. Das Ultratiefbild V1 beinhaltet ein Bild SV1, das die äußere Umfangsoberfläche auf der Oberseite eines Beobachtungsobjekts S zeigt. Der Bildpunkt in im Wesentlichen dem mittleren Abschnitt SUV des Bilds SV1 entspricht dem Bildpunkt des oberen Endabschnitts SU der 4A und die Pixel von beiden Seiten E1V, E2V des Bilds SV1 entsprechen den Bildpunkten der beiden Seitenendabschnitten SE1, SE2 des Bilds 4A.
  • Auf der horizontalen Achse der 4A entspricht ein Wert tp1 der Höhepunktsintensität dem Rauschpegel n1, wenn der erste Sensitivitätswert als der Sensitivitätsparameter eingestellt ist. Der Wert tp1 der Höhepunktsintensität ist, zum Beispiel, Drei.
  • In diesem Fall können die Bildpunktdaten kleiner oder gleich dem Wert tp1 nicht von dem Rauschen des Lichtempfangselements 30 identifiziert werden. Deshalb gibt es eine Wahrscheinlichkeit, dass das Rauschen des Lichtempfangselements 30 als die Höhepunktsintensität an kleiner oder gleich dem Wert tp1 erfasst wird. Somit können genaue Höhepunktsintensität und Höhepunktsposition nicht bei kleiner oder gleich dem Wert tp1 erfasst werden.
  • In dem Ultratiefbild V1 der 5A ist die Oberfläche des Beobachtungsobjekts S klar mit einem Kontrast von mehreren Pegeln in dem Bereich SA1 des Mittelteils des Bilds SV1 und der Nähe davon gezeigt. Der Bereich SB1 einer konstanten Breite entlang beider Seiten des Bildes SV1 und des Bereichs SZ verschieden von dem Bild SV1 werden mit im Wesentlichen der gleichen Konzentration (dunkle Schraffur) gezeigt. In den Bereichen SB1, SZ, wo nur die Bildpunktdaten von niedrigem Wert erfasst werden können, wird die Konzentration des Bildes deshalb über einen breiten Bereich uniformisiert, da das Rauschen des Lichtempfangselements 30 als die Höhepunktsintensität erfasst wird. In diesem Fall können die Grenze des Bildes SV1 und des Bereichs SZ verschieden von dem Bild SV1 nicht identifiziert werden.
  • Nachdem die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs mit dem ersten Sensitivitätswert erzeugt wurden, wird deshalb die Anzahl von Bildpunkten erfasst, in denen die Höhepunktsintensität kleiner oder gleich in dem Wert tp1 ist, und die erfasste Anzahl von Bildpunkten wird durch die Gesamtanzahl von Bildpunkten in dem Einheitsbereich geteilt. Der geteilte Wert, der auf solch eine Weise berechnet wird, wird als ungültiges Bildpunktverhältnis bezeichnet. In diesem Fall ist die Anzahl von Bildpunktdaten mit einem Höhepunkt, der nicht von dem Rauschen des Lichtempfangselements 30 identifiziert werden kann, größer je größer das ungültige Bildpunktverhältnis, und die Anzahl von Bildpunktdaten mit einem Höhepunkt, der nicht vom Rauschen des Lichtempfangselements 30 identifiziert werden kann, ist kleiner je kleiner das ungültige Bildpunktverhältnis.
  • In dem Breitdynamikbereichsprozess wird ein Referenz-Bildpunktverhältnis im Voraus in der Speichervorrichtung 240 der 1 gespeichert. Ob das berechnete ungültige Pixelverhältnis kleiner oder gleich dem Referenz Bildpunktverhältnis ist, wird dann bestimmt.
  • Wenn das ungültige Bildpunktverhältnis größer als das Referenz-Bildpunktverhältnis ist, wird die Lichtmenge der Laserlichtquelle 10, die Dämpfungsrate des Laserlichts durch den ND-Filter 8 und/oder die Verstärkung des Lichtempfangselements 30 gesteuert, um den Sensitivitätsparameter auf einen zweiten Sensitivitätswert größer als der erste Sensitivitätswert zu ändern.
  • Das Abtasten in der X-Richtung und der Y-Richtung des Einheitsbereichs wird in einer Vielzahl von Positionen in der Z-Richtung des Beobachtungsobjekts S ausgeführt, wobei der zweite Sensitivitätswert eingestellt ist. Eine Vielzahl von Bildpunktdaten wird dadurch erfasst und eine Vielzahl von konfokalen Bildpunktdaten, in denen die Position in der Z-Richtung sich in dem Einheitsbereich unterscheidet, wird erzeugt. Die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs werden basierend auf der Vielzahl von konfokalen Bilddaten erzeugt.
  • Ein Histogramm, das einen Zusammenhang der Höhepunktsintensität, die mit dem zweiten Sensitivitätswert erfasst wird, und der Anzahl von Bildpunkten, ist in dem oberen Abschnitt der 5B gezeigt. In diesem Histogramm zeigt die Vertikalachse die Anzahl von Bildpunkten und die Horizontalachse die Höhepunktsintensität (Höhepunktswert der Bildpunktdaten für jeden Bildpunkt). Auf der horizontalen Achse entspricht der Maximalwert (100) der Höhepunktsintensität dem Ausgangs-Höchstwert max des A/D-Umwandlers.
  • Ein Ultratiefbild V2 basierend auf den Ultratiefbilddaten, die unter Verwendung des zweiten Sensitivitätswerts erzeugt werden, ist in dem unteren Abschnitt der 5B gezeigt. Das Ultratiefbild V2 beinhaltet ein Bild SV2, das die äußere Umfangsoberfläche der Oberseite des Beobachtungsobjekts S zeigt. Der Bildpunkt an im Wesentlichen dem Mittelabschnitt SUV des Bildes SV2 entspricht dem Bildpunkt des oberen Endabschnitts SU der 4A, und die Bildpunkte der beiden Seiten E1V, E2V des Bildes SV2 entsprechen den Bildpunkten der beiden Seitenendabschnitten SE1, SE2 der 4A.
  • Auf der horizontalen Achse der 5B ist ein Wert tp2 der Höhepunktsintensität ein multiplizierter Wert eines Verhältnisses (= zweiter Sensitivitätswert/erster Sensitivitätswert) des zweiten Sensitivitätswerts bezüglich des ersten Sensitivitätswerts und des Werts tp1 der 5A. Der Wert tp2 der Höhepunktsintensität ist zum Beispiel 97. Deshalb ist der zweite Sensitivitätswert so eingestellt, dass der Wert tp2 der Höhepunktsintensität etwas kleiner als der Maximalwert (100) der Höhepunktsintensität ist.
  • Der zweite Sensitivitätswert kann eingestellt werden durch Reduzieren der Dämpfungsrate des Laserlichts durch den ND-Filter 8, wenn der erste Sensitivitätswert durch eine konstante Menge, die im Voraus definiert ist, eingestellt ist, oder kann eingestellt werden durch Vergrößern der Lichtmenge der Laserlichtquelle 10 oder der Verstärkung des Lichtempfangselements 30, wenn der erste Sensitivitätswert durch eine konstante Menge, die im Voraus Definiert ist, eingestellt ist.
  • Wenn der Sensitivitätsparameter von dem ersten Sensitivitätswert in den zweiten Sensitivitätswert geändert wird, wird die Dämpfungsrate des Laserlichts durch den ND-Filter 8 oder die Lichtmenge der Laserlichtquelle 10 vorzugsweise über die Verstärkung des Lichtempfangselements 30 gesteuert.
  • Wenn die Dämpfungsrate des Laserlichts durch den ND-Filter 8 oder die Lichtmenge als Laserlichtquelle 10 gesteuert wird, ändert sich die Größe des Rauschpegels n1 vor oder nach dem Ändern des Sensitivitätsparameters kaum. Deshalb wird der Rauschpegel n1 davon abgehalten, sich zu ändern, wenn der Sensitivitätsparameter von dem ersten Sensitivitätswert in den zweiten Sensitivitätswert geändert wird.
  • Auf der horizontalen Achse der 5B entspricht der Wert tp3 der Höhepunktsintensität dem Rauschpegel n1, wenn der zweite Sensitivitätswert als Sensitivitätsparameter eingestellt ist. Der Wert tp3 der Höhepunktsintensität ist zum Beispiel Drei.
  • Wie in dem oberen Abschnitt der 5B gezeigt, ist die Höhepunktsintensität entsprechend einer großen Anzahl f von Bildpunkten an dem Maximalwert (100) gesättigt, wenn der zweite Sensitivitätswert als der Sensitivitätsparameter eingestellt ist. Wenn der zweite Sensitivitätswert als der Sensitivitätsparameter eingestellt ist, wird der Wert tp3 der Höhepunktsintensität, der dem Rauschpegel n1 entspricht, ausreichend kleiner als der Wert tp2 der Höhepunktsintensität. Die Höhepunktsintensität eines Wertes größer als der Rauschpegel n1 kann dadurch erfasst werden bei dem zweiten Sensitivitätswert für den Bildpunkt mit einer Höhepunktsintensität kleiner oder gleich dem Rauschpegel n1 an dem ersten Sensitivitätswert.
  • In dem Ultratiefbild V2 der 5B ist die Oberfläche des Beobachtungsobjekts S mit einer konstanten Konzentration (Weit.) in dem Bereich SA2 des Mittelteils des Bildes SV2 und der Nähe davon gezeigt, und der Bereich SB2 einer konstanten Breite entlang beider Seiten des Bildes SV2 und der Bereich SZ verschieden von dem Bild SV2 sind klar mit einem Kontrast mehrerer Abstufungen gezeigt.
  • Nachdem die Ultratiefbilddaten bereits mit dem ersten Sensitivitätswert erzeugt wurden und die Ultratiefbilddaten des Einheitsbereichs mit dem zweiten Sensitivitätswert erzeugt wurden, werden die zwei Ultratiefbilddaten synthetisiert. Die mit dem ersten Sensitivitätswert erzeugten Ultratiefbilddaten werden als erste Ultratiefbilddaten bezeichnet, und die mit dem zweiten Sensitivitätswert erzeugten Ultratiefbilddaten werden als zweite Ultratiefbilddaten bezeichnet.
  • Als Erstes werden die Daten (Bereich SB1 der 5A) des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität kleiner oder gleich dem Wert tp1 der ersten Ultratiefbilddaten des Einheitsbereichs entspricht, gelöscht. Die Daten (Bereich SA2 der 5B) des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität eines Maximalwerts (100) der zweiten Ultratiefbilddaten des Einheitsbereichs entspricht, wird dann gelöscht.
  • Nachfolgend wird der Wert der zweiten Ultratiefbilddaten mit einem Verhältnis von (tp1/tp2) komprimiert. Speziell, wenn der Wert tp1 3 ist und der Wert tp2 97 ist, wird (3/97) mit dem Wert der zweiten Ultratiefbilddaten multipliziert. Danach werden die ersten Ultratiefbilddaten und die komprimierten zweiten Ultratiefbilddaten synthetisiert.
  • Die Daten nach Kompression des Abschnitts, der den Bildpunkt einer Höhepunktsintensität größer als der Wert tp2 und kleiner als der Maximalwert (100) der zweiten Ultratiefbilddaten entspricht, überlappen die Daten des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität größer als der Wert tp1 und kleiner als der Wert (3.09) (= 100 × (3/97)) der verbleibenden ersten Ultratiefbilddaten entspricht. Somit wird ein Mittelwert der ersten Ultratiefbilddaten und der komprimierten zweiten Ultratiefbilddaten als die Ultratiefbilddaten nach Synthese in dem Überlappungsabschnitt der ersten Ultratiefbilddaten und der komprimierten zweiten Ultratiefbilddaten berechnet.
  • Ein Ultratiefbild V3, in dem die Ultratiefbilder V1 und V2 synthetisiert sind, ist in 5C gezeigt. In dem Ultratiefbild V3 ist der obere Endabschnitt SU zu den Seitenabschnitten SE1, SE2 der Oberfläche des Beobachtungsobjekts S der 4A und 4B klar mit einem Kontrast mit mehreren Abstufungen gezeigt. Die Grenze des Bildes SV3, das die äußere Umfangsoberfläche der oberen Seite des Beobachtungsobjekts S und den Bereich SZ verschieden von dem Bild SV3 zeigt, kann auch definitiv durch den Kontrast identifiziert werden.
  • Zusätzlich zu der obigen Beschreibung, nachdem die Höhenbilddaten des Einheitsbereichs mit dem ersten Sensitivitätswert erzeugt wurden und die Höhenbilddaten des Einheitsbereichs mit dem zweiten Sensitivitätswert erzeugt wurden, werden die zwei Höhenbilddaten synthetisiert. Die Höhenbilddaten, die mit dem ersten Sensitivitätswert erzeugt werden, werden als erste Höhenbilddaten bezeichnet, und die Höhenbilddaten, die mit dem zweiten Sensitivitätswert erzeugt werden, werden als zweite Höhenbilddaten bezeichnet.
  • Als Erstes werden die Daten des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität kleiner oder gleich dem Wert tp1 der ersten Höhenbilddaten des Einheitsbereichs entspricht, gelöscht. Dann werden die Daten des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität eines Maximalwerts (100) der zweiten Höhenbilddaten des Einheitsbereichs entspricht, gelöscht.
  • Nachfolgend werden die erste Höhenbilddaten und die zweiten Höhenbilddaten synthetisiert. In diesem Fall überlappen ebenfalls die Daten des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität größer als der Wert tp2 und kleiner als der Maximalwert (100) der zweiten Höhenbilddaten entspricht, mit den Daten des Abschnitts, der dem Bildpunkt mit einer Höhepunktsintensität größer als der Wert tp1 und kleiner als der Wert (3.09)(= 100 × (3/97)) der verbleibenden ersten Höhenbilddaten entspricht. Dadurch wird ein Mittelwert der ersten Höhenbilddaten und der zweiten Höhenbilddaten berechnet als die Höhenbilddaten nach Synthese an dem Überlappungsabschnitt der ersten Bilddaten und der zweiten Höhenbilddaten. Die ersten und zweiten Höhenbilddaten werden auf solch eine Weise synthetisiert.
  • Der Breitdynamikbereichsprozess gemäß der vorliegenden Ausführungsform wird beendet, wenn die Ultratiefbilddaten und die Höhenbilddaten durch den ersten Sensitivitätswert erzeugt werden, falls das ungültige Bildpunktverhältnis kleiner oder gleich dem Referenz-Bildpunktverhältnis ist. Dadurch werden die Höhenbilddaten und die Ultratiefbilddaten, die den Zustand der Oberfläche des Beobachtungsobjekts anzeigen, in einer Messung erzeugt. Deshalb kann der Zustand der Oberfläche des Beobachtungsobjekts S in kurzer Zeit erfasst werden.
  • (5) Einstellen des Breitdynamikbereichsprozesses
  • 6 ist eine Ansicht, die ein Anzeigebeispiel der Anzeigeeinheit 400 zeigt. Wie in 6 gezeigt, wird ein Bildanzeigebereich 410 und ein Bedingungseinstellbereich 420 auf einem Bildschirm der Anzeigeeinheit 400 angezeigt. Ein konfokales Bild basierend auf den konfokalen Bilddaten und ein Kamerabild basierend auf den Kamera-Bilddaten werden dem Bildanzeigebereich 410 angezeigt. Das konfokale Bild SV, das die äußere Umfangsoberfläche der Oberseite des Beobachtungsobjekts S der 4A und 4B zeigt, wird in dem Bildanzeigebereich 410 angezeigt. Ein Erfassungsstartknopf 425 und ein erster Sensitivitätsparameter-Einstellrahmen 430 werden in dem Bedingungseinstellbereich 420 angezeigt.
  • Der erste Sensitivitätsparameter-Einstellrahmen 430 beinhaltet eine Vielzahl von Knöpfen und einen Betriebsbalken. Der Benutzer betreibt die Vielzahl von Knöpfen und den Betriebsbalken in dem ersten Sensitivitätsparameter-Einstellrahmen 430 unter Verwendung einer Zeigevorrichtung wie zum Beispiel einer mit dem PC 200 verbundenen Maus, wobei das konfokale Bild oder das Kamerabild in dem Bildanzeigebereich 410 angezeigt wird. Das Einstellen des Breitdynamikbereichsprozesses kann dann ausgeführt werden. Die Einzelheiten des ersten Sensitivitätsparameter-Einstellrahmens 430 werden später beschrieben.
  • Wenn der Benutzer den Erfassungsstartknopf 425 des Bedingungseinstellbereichs 420 betätigt, wird das Laserlicht in der X-Richtung und der Y-Richtung des Einheitsbereichs an einer Vielzahl von Positionen in der Z-Richtung abgetastet und eine Vielzahl von Bildpunktdaten wird erfasst. Eine Vielzahl von konfokalen Bilddaten, die einer Vielzahl von unterschiedlichen Positionen in der Z-Richtung entsprechen, werden in dem Einheitsbereich erzeugt, und die Höhenbilddaten und die Ultratiefbilddaten werden basierend auf der Vielzahl von erzeugten konfokalen Bilddaten erzeugt. Der Erzeugungsbetrieb der Höhenbilddaten und der Ultratiefbilddaten ändert sich entsprechend dem Einstellinhalt des Breitdynamikbereichsprozesses durch den Betrieb des ersten Sensitivitätsparameter-Einstellrahmens 430 durch den Benutzer.
  • Die Einzelheiten des ersten Sensitivitätsparameter-Einstellrahmens 430 werden beschrieben. 7 ist eine Ansicht, die den ersten Sensitivitätsparameter-Einstellrahmen 430 in 6 zeigt. Wie in 7 gezeigt, zeigt der erste Sensitivitätsparameter-Einstellrahmen 430 einen ersten Sensitivitätsparameter-Automatikeinstellknopf 431, einen Verstärkungsmanuell-Anpassungsbalken 432, eine Filtermanuell-Anpassungsspalte 433, ein Kontrollkästchen 434 und einen Breitdynamikbereichseinstellknopf 435. Der Verstärkungsmanuell-Anpassungsbalken 432 beinhaltet einen Gleiter 432a, der in der horizontalen Richtung beweglich ist, einen linken Knopf 432b und einen rechten Knopf 432c. In dem Verstärkungsmanuell-Anpassungsbalken 432 entspricht die Position des Gleiters 432a der Größe der Verstärkung des Lichtempfangselements 30 zum aktuellen Zeitpunkt.
  • Der Benutzer betreibt den ersten Sensitivitätswert-Automatik-Einstellknopf 431 der 7 mit dem Beobachtungsobjekt S, das auf das Gestell 60 des konfokalen Mikroskopsystems 500 der 1 montiert ist. Das Abtasten in der X-Richtung und der Y-Richtung des Einsatzbereichs wird dadurch ausgeführt, während die Objektivlinse 3 zu einer Vielzahl von Positionen in der Z-Richtung bewegt wird, und der Wert des Sensitivitätsparameters wird auf einen erste Sensitivitätswert eingestellt, so dass als alle Werte der Vielzahl von erfassten Bildpunktdaten kleiner als der Ausgabe-Höchstwert max sind.
  • Wie oben beschrieben, kann der erste Sensitivitätswert durch den Benutzer eingestellt werden. Der Benutzer kann die Position des Gleiters 402a entweder durch Betätigen des linken Knopfes 432b oder des rechten Knopfes 432c ändern. In diesem Fall steuert die Steuereinheit 200 die Verstärkung des Lichtempfangselements 30 entsprechend der geänderten Position des Gleiters 432a, um den ersten Sensitivitätswert einzustellen. Der Benutzer kann die Dämpfungsrate des Laserlichts durch den ND-Filter 8 der 1 durch Betreiben der Filtermanuell-Anpassungsspalte 433 ändern. In diesem Fall steuert die Steuereinheit die Dämpfungsrate des Laserlichts durch den ND-Filter 8 basierend auf dem Betrieb der Filtermanuell-Anpassungsspalte 433 durch den Benutzer, um den ersten Sensitivitätswert einzustellen.
  • Wenn der Benutzer das Kontrollkästchen 434 mit dem ersten Sensitivitätsparameter eingestellt spezifiziert, wird der Betrieb des Breitdynamikbereichseinstellknopfes 435 erlaubt.
  • Wenn der Benutzer den Breitdynamikbereichseinstellknopfes 435 betätigt, wird ein zweites Sensitivitätsparameter-Einstellfenster in der Zeiteinheit 400 der 6 angezeigt. 8 ist eine Ansicht, die das zweite Sensitivitätsparameter-Einstellfenster zeigt.
  • Wie in 8 gezeigt, zeigt das zweite Sensitivitätsparameter-Einstellfenster 440 ein Kontrollkästchen 441, einen Verstärkungsmanuell-Anpassungsbalken 442, eine Filtermanuell-Anpassungsspalte 443 und einen OK-Knopf 444 an.
  • In dem zweiten Sensitivitätsparameter-Einstellfenster 440 betätigt der Benutzer den OK-Knopf 444 nach Spezifizieren des Kontrollkästchens 441. In diesem Fall, wenn der Erfassungsstartknopf 425 der 6 betätigt wird, werden die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs mit dem ersten Sensitivitätswert eingestellt erzeugt, und das ungültige Bildpunktverhältnis wird berechnet.
  • Wenn das berechnete ungültige Bildpunktverhältnis größer als das Referenz-Bildpunktverhältnis ist, wird der Sensitivitätsparameter in den zweiten Sensitivitätswert größer als der erste Sensitivitätswert geändert. Danach werden die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs mit dem zweiten Sensitivitätswert gesetzt erzeugt. Schließlich werden die ersten und zweiten Höhenbilddaten, die mit dem ersten Sensitivitätswert und dem zweiten Sensitivitätswert erzeugt wurden, synthetisiert, und die ersten und zweiten Ultratiefbilddaten, die mit dem ersten Sensitivitätswert und dem zweiten Sensitivitätswert erzeugt wurden, werden synthetisiert. Deshalb kann der Zustand der Oberfläche des Beobachtungsobjekts S genau erfasst werden, ohne dass der Benutzer einen beschwerlichen Betrieb ausführt, sogar dann wenn der Zustand der Oberfläche des Beobachtungsobjekts sich in jeden Bereich unterscheidet.
  • Wenn das berechnete ungültige Bildpunktverhältnis kleiner oder gleich dem Referenz-Bildpunktverhältnis ist, werden die Höhenbilddaten und die Ultratiefbilddaten des Einheitsbereichs basierend auf den Bildpunktdaten erzeugt, die mit dem ersten Sensitivitätswert gesetzt erfasst wurden, und der Breitdynamikbereichsprozess wird beendet. Die Höhenbilddaten und die Ultratiefbilddaten werden somit in kurzer Zeit basierend auf der Vielzahl von Bildpunktdaten erzeugt, die in einer Messung erfasst werden, ohne dass der Benutzer einen beschwerlichen Betrieb durchführt.
  • Ähnlich wie der erste Sensitivitätswert kann der zweite Sensitivitätswert manuell durch den Benutzer eingestellt werden. In dem Verstärkungsmanuell-Anpassungsbalken 442 entspricht die Position des Gleiters 442a der Größe der Verstärkung des Lichtempfangselements 30 zum aktuellen Zeitpunkt.
  • Der Betrieb des Verstärkungsmanuell-Anpassungsbalkens 442 und der Filtermanuell-Anpassungsspalte 442 ist in einem Zustand erlaubt, in dem das Kontrollkästchen 441 nicht spezifiziert ist. In diesem Fall kann der Benutzer die Position des Gleiters 442a durch Betreiben eines von dem Gleiter 442a, dem linken Knopf 442b oder dem rechten Knopf 442c ohne Spezifizierung des Kontrollkästchens 441 betreiben. Der Benutzer betätigt den OK-Knopf 444 nach Betreiben des Verstärkungsmanuell-Anpassungsbalkens 442 in dem zweiten Sensitivitätsparameter-Einstellfenster 440.
  • In diesem Fall steuert die Steuereinheit 300 die Verstärkung des Lichtempfangselements 30 basierend auf der Position des Gleiters 442 in dem Verstärkungsmanuell-Anpassungsbalken 442, um den zweiten Sensitivitätswert einzustellen, nachdem die ersten Höhenbilddaten und die ersten Ultratiefbilddaten des Einheitsbereichs mit dem ersten Sensitivitätswert erzeugt werden, wenn der Erfassungsstartknopf 425 der 6 betrieben wird.
  • Der Benutzer kann auch die Dämpfungsrate des Laserlichts durch den ND-Filter 8 auf einem gewünschten Wert durch Betreiben der Filtermanuell-Anpassungsspalte 442 einstellen. Der Benutzer betätigt den OK-Button 444 nach Betreiben der Filtermanuell-Einpassungsspalte 443 in dem zweiten Sensitivitätsparameter-Einstellfenster 440.
  • In diesem Fall steuert die Steuereinheit 300 die Dämpfungsrate des Laserlichts durch den ND-Filter 8 basierend auf dem Wert, der durch den Benutzer eingestellt ist, um den zweiten Sensitivitätswert einzustellen, nachdem die ersten Höhenbilddaten und die erste Ultratiefbilddaten in dem Einheitsbereich mit dem ersten Sensitivitätswert erzeugt werden, wenn der Erfassungsstartknopf 425 der 6 betrieben wird.
  • Deshalb, wenn der zweiten Sensitivitätswert durch den Benutzer eingestellt ist, werden die zweiten Höhenbilddaten und die zweiten Ultratiefbilddaten der Einheitsregion mit dem zweiten Sensitivitätswert eingestellt erzeugt, nachdem die ersten Höhenbilddaten und die ersten Ultratiefbilddaten des Einheitsbereichs mit dem ersten Sensitivitätswert eingestellt erzeugt werden. Danach werden die ersten und zweiten Höhenbilddaten synthetisiert, und die ersten und zweiten Ultratiefbilddaten werden synthetisiert.
  • (6) Oberflächenzustands-Beobachtungsprozessfluss
  • 9 bis 12 sind Flussdiagramme des Oberflächenzustands-Beobachtungsprozesses. Der Breitdynamikbereichsprozess stellt einen Teil des Oberflächenzustands-Beobachtungsprozesses dar. Der Oberflächenzustands-Beobachtungsprozess beginnt, wenn der Benutzer den ersten Sensitivitätsparameter-Einstellrahmen 430 der 6 und 7 betreibt. Die CPU 210 der 1 führt das in der Speichervorrichtung 240 gespeicherte Oberflächenzustands-Beobachtungsprogramm aus, um den Oberflächenzustands-Beobachtungsprozess auszuführen.
  • Wie in 9 gezeigt, bestimmt die CPU 210, ob der erste Sensitivitätswert eingestellt ist (Schritt S1). Speziell bestimmt die CPU 210, dass der erste Sensitivitätswert eingestellt ist, wenn der Wert des Sensitivitätsparameters in dem Arbeitsspeicher der 1 als der erste Sensitivitätswert gespeichert ist, und bestimmt, dass der erste Sensitivitätswert nicht eingestellt ist, wenn der Wert des Sensitivitätsparameters nicht in dem Arbeitsspeicher 230 als der erste Sensitivitätswert gespeichert ist.
  • Wenn der erste Sensitivitätswert eingestellt ist, führt die CPU 210 den Prozess des Schritts S4 aus, wie später beschrieben. Wenn der erste Sensitivitätswert nicht eingestellt ist, bestimmt die CPU 210, ob das automatische Einstellen oder das manuelle Einstellen des ersten Sensitivitätswerts angeordnet ist oder nicht basierend darauf, ob weder der ersten Sensitivitätswert-Automatikeinstellknopf 431, der Verstärkungsmanuell-Anpassungsbalken 432 noch die Filtermanuell-Anpassungsspalte 433 der 7 durch den Benutzer betrieben wird (Schritt S2).
  • Wenn weder das automatische Einstellen noch das manuelle Einstellen des ersten Sensitivitätswerts angeordnet ist, kehrt die CPU 210 zu dem Prozess des Schritts S1 zurück. Die CPU 210 stellt automatisch den ersten Sensitivitätswert ein, wenn das automatische Einstellen des ersten Sensitivitätswerts angeordnet ist, und stellt den ersten Sensitivitätswert entsprechend dem Betrieb des Verstärkungsmanuell-Anpassungsbalkens 432 und der Filtermanuell-Anpassungsspalte 433 durch den Benutzer ein, wenn das manuelle Einstellen des ersten Sensitivitätswerts angeordnet ist (Schritt S3).
  • Dann bestimmt die CPU 210, ob der Breitdynamikbereichsprozess angeordnet ist oder nicht, basierend darauf, ob das Kontrollkästchen 434 der 7 durch den Benutzer spezifiziert ist oder nicht (Schritt 54).
  • Wenn der Breitdynamikbereichsprozess angeordnet ist, bestimmt die CPU 210, ob das automatische Einstellen des zweiten Sensitivitätswerts angeordnet ist oder nicht, basierend darauf, ob das Kontrollkästchen 441 der 8 durch den Benutzer spezifiziert ist oder nicht (Schritt S5).
  • Wenn das automatische Einstellen des zweiten Sensitivitätswerts angeordnet ist, bestimmt die CPU 210, ob der Beginn der Erfassung einer Vielzahl von Bilddaten des Einheitsbereichs angeordnet ist oder nicht, basierend darauf, ob der Erfassungsstartknopf 425 der 6 durch den Benutzer betrieben wird oder nicht (Schritt S6).
  • Wenn der Beginn der Erfassung der Bilddaten nicht angeordnet ist, kehrt die CPU 210 zu dem Prozess des Schritts S5 zurück. Wenn der Beginn der Erfassung der Bilddaten angeordnet ist, erfasst die CPU 210 eine Vielzahl von Bildpunktdaten mittels des ersten Sensitivitätswerts (Schritt S7).
  • Die CPU 210 erzeugt die ersten Höhenbilddaten und die ersten Ultratiefbilddaten basierend auf der erfassten Vielzahl von Bildpunktdaten (Schritt S8). Die CPU 210 berechnet dann ein ungültiges Bildpunktverhältnis als einen Wert (nachstehend bezeichnet als Bestimmungswert) zum Bestimmen, ob eine Vielzahl von Bildpunktdaten durch den zweiten Sensitivitätswert basierend auf den ersten Höhenbilddaten und den ersten Ultratiefbilddaten zu erfassen ist oder nicht (Schritt S9).
  • Die CPU 210 bestimmt dann, ob das ungültige Bildpunktverhältnis größer oder gleich dem Referenz-Bildpunktverhältnis ist (Schritt S10). Wenn das ungültige Bildpunktverhältnis kleiner als das Referenz-Bildpunktverhältnis ist, beendet die CPU 210 den Oberflächenzustands-Beobachtungsprozess. Wenn das ungültige Bildpunktverhältnis größer oder gleich dem Referenz-Bildpunktverhältnis ist, erfasst die CPU 210 eine Vielzahl von Bildpunktdaten mittels des zweiten Sensitivitätswerts, der in dem Arbeitsspeicher 230 im Voraus gespeichert ist (Schritt S11). Die CPU 210 erzeugt dann die zweiten Höhenbilddaten und die zweiten Ultratiefbilddaten basierend auf der erfassten Vielzahl von Bildpunktdaten (Schritt S12).
  • Schließlich synthetisiert die CPU 210 die ersten Höhenbilddaten und die zweiten Höhenbilddaten und synthetisiert die ersten Ultratiefbilddaten und die zweiten Ultratiefbilddaten (Schritt S13) und beendet den Oberflächenzustands-Beobachtungsprozess.
  • Wenn das automatische Einstellen des zweiten Sensitivitätswerts nicht in Schritt S5 angeordnet ist, bestimmt die CPU 210, ob der zweite Sensitivitätswert manuell durch den Benutzer eingestellt wurde oder nicht (Schritt S21).
  • Wenn der zweite Sensitivitätswert eingestellt ist, fährt die CPU 210 mit dem Prozess des Schritts S24 fort. Wenn der zweite Sensitivitätswert nicht eingestellt ist, bestimmt die CPU 210, ob das manuelle Einstellen des zweiten Sensitivitätswerts angeordnet ist oder nicht, basierend darauf, ob einer von dem Verstärkungsmanuell-Anpassungsbalken 442 oder der Filtermanuell-Anpassungsspalte 443 der 8 durch den Benutzer betrieben wird (Schritt S22).
  • Wenn das manuelle Einstellen des zweiten Sensitivitätswerts nicht angeordnet ist, kehrt die CPU 210 zu dem Prozess des Schritts S21 zurück. Die CPU 210 stellt den zweiten Sensitivitätswert ein entsprechend dem Verstärkungsmanuell-Anpassungsbalken 442 und/oder der Filtermanuell-Anpassungsspalte 443 der 8 durch den Benutzer, wenn das manuelle Einstellen des zweiten Sensitivitätswerts angeordnet ist (Schritt S23).
  • Die CPU 210 bestimmt, ob der Beginn der Erfassung der Vielzahl von Bilddaten des Einheitsbereichs angeordnet ist oder nicht basierend darauf, ob der Erfassungsstartknopf 425 der 6 durch den Benutzer betätigt wird oder nicht (Schritt S24).
  • Wenn der Beginn der Erfassung der Bilddaten nicht angeordnet ist, kehrt die CPU 210 zu dem Prozess des Schritts S5 zurück. Wenn der Beginn der Erfassung der Bilddaten angeordnet ist, erfasst die CPU die Vielzahl von Bildpunktdaten durch den ersten Sensitivitätswert (Schritt S25).
  • Die CPU 210 erzeugt dann die ersten Höhenbilddaten und die ersten Ultratiefbilddaten basierend auf der erfassten Vielzahl von Bildpunktdaten (Schritt S26).
  • Die CPU 210 erfasst dann die Vielzahl von Bildpunktdaten durch den zweiten Sensitivitätswert, der im Voraus in dem Arbeitsspeicher 230 gespeichert ist (Schritt S27). Die CPU 210 erzeugt die zweiten Höhenbilddaten und die zweiten Ultratiefbilddaten basierend auf der erfassten Vielzahl von Bildpunktdaten (Schritt S28).
  • Schließlich synthetisiert die CPU 210 die ersten Höhenbilddaten und die zweiten Höhenbilddaten und synthetisiert die ersten Ultratiefbilddaten und die zweiten Ultratiefbilddaten (Schritt S29) und beendet den Oberflächenzustands-Beobachtungsprozess.
  • Wenn der Breitdynamikbereichsprozess nicht im Schritt S4 angeordnet ist, bestimmt die CPU 210, ob der Beginn der Erfassung der Vielzahl von Bilddaten des Einheitsbereichs angeordnet ist oder nicht basierend darauf, ob der Erfassungsstartknopf 425 der 6 durch den Benutzer betrieben wird oder nicht (Schritt S31).
  • Wenn der Beginn der Erfassung der Bilddaten nicht angeordnet ist, kehrt die CPU 210 zu dem Prozess des Schritts S1 zurück. Wenn der Beginn der Erfassung der Bilddaten angeordnet ist, erfasst die CPU 210 die Vielzahl von Bildpunktdaten durch den ersten Sensitivitätswert (Schritt S32). Die CPU 210 erzeugt dann die Höhenbilddaten und die Ultratiefbilddaten basierend auf der erfassten Vielzahl von Bildpunktdaten (Schritt S33) und beendet den Oberflächenzustands-Beobachtungsprozess.
  • In dem obigen Oberflächenzustands-Beobachtungsprozessfluss entspricht eine Folge von Prozessen der Schritte S5 bis S13 und S21 bis S29 dem oben beschriebenen Breitdynamikbereichsprozess.
  • (7) Andere Ausführungsformen
  • (7-1) In der obigen Ausführungsform, wird das ungültige Bildpunktverhältnis als ein Bestimmungswert verwendet zum Bestimmen, ob die Vielzahl von Bildpunkten durch den zweiten Sensitivitätswert zu bestimmen sind oder nicht nach der Erzeugung der ersten Höhenbilddaten und der ersten Ultratiefbilddaten, aber ein Wert verschieden von dem ungültigen Bildpunktverhältnis kann als der Bestimmungswert verwendet werden.
  • Zum Beispiel berechnet die CPU 210 die Summe oder den Mittelwert der Werte der Vielzahl von Höhepunktsintensitäten, die der Vielzahl von Bildpunkten (zum Beispiel fünf Bildpunkte, zehn Bildpunkte oder allen Bildpunkten etc. in dem Einheitsbereich) in dem im Voraus definierten Bereich der Oberfläche des Beobachtungsobjekts entsprechen, als den Bestimmungswert nach der Erzeugung der ersten Höhenbilddaten und der ersten Ultratiefbilddaten.
  • In diesem Fall ist der Referenzwert im Voraus in der Speichervorrichtung 240 der 1 gespeichert. Die CPU 210 bestimmt somit, ob die Summe oder der Mittelwert der Werte der Vielzahl von Höhepunktsintensitäten größer oder gleich dem Referenzwert ist oder nicht, und beendet den Oberflächenzustands-Beobachtungsprozess, wenn die Summe oder der Mittelwert kleiner als der Referenzwert ist und erfasst die Vielzahl von Bildpunktdaten durch den zweiten Sensitivitätswert, wenn die Summe oder der Mittelwert größer oder gleich dem Referenzwert ist.
  • Alternativ speichert die CPU 210 die Daten, die eine Vielzahl von Höhepunktspositionen darstellen, die allen Bildpunkten in dem Einheitsbereich entsprechen, als Rohdaten in dem Arbeitsspeicher 23 basierend auf den erzeugten Höhenbilddaten nach der Erzeugung der ersten Höhenbilddaten und der ersten Ultratiefbilddaten. Die CPU 210 führt auch einen Glättungsprozess (Medianfilter-Verarbeitung etc.) durch zum Entfernen von Rauschen bezüglich der Rohdaten und speichert die Daten nach dem Glättungsprozess in dem Arbeitsspeicher 230 als die Prozessdaten. Danach liest die CPU 210 die Rohdaten und die Prozessdaten, die in dem Arbeitsspeicher 230 gespeichert sind, und berechnet die Differenz zwischen den entsprechenden Prozessdaten und den Rohdaten für jeden Bildpunkt als die Differenzdaten. Die CPU 210 berechnet dann die Summe oder den Mittelwert der Differenzdaten, die für jeden Pixel berechnet werden, als den Bestimmungswert.
  • In diesem Fall ist der Referenzwert ebenfalls im Voraus in der Speichervorrichtung 240 der 1 gespeichert. Die CPU 210 bestimmt, ob die Summe oder der Mittelwert der Vielzahl von Differenzdaten größer oder gleich dem Referenzwert ist oder nicht, beendet den Oberflächenzustands-Beobachtungsprozess, wenn die Summe oder der Mittelwert kleiner als der Referenzwert ist und erfasst die Vielzahl von Bildpunktdaten durch den zweiten Sensitivitätswert, wenn die Summe oder der Mittelwert größer oder gleich dem Referenzwert ist.
  • (7-2) In der oben beschriebenen Ausführungsform ist der zweite Sensitivitätswert im Voraus definiert. Darauf nicht begrenzt kann der zweite Sensitivitätswert automatisch durch die CPU 210 bestimmt werden, basierend auf der Vielzahl von Bildpunktdaten, die durch den ersten Sensitivitätswert erfasst wurden. In diesem Fall kann der zweite Sensitivitätswert auf einen geeigneten Wert eingestellt werden.
  • Zum Beispiel ist der zweite Sensitivitätswert so eingestellt, dass die Anzahl von Bildpunkten, die dem Überlappungsabschnitt der zwei Ultratiefbilddaten entsprechen, größer oder gleich einer konstanten Anzahl wird, wenn die ersten Ultratiefbilddaten, von denen ein Teil gelöscht ist, und die komprimierten zweite Ultratiefbilddaten synthetisiert werden.
  • In diesem Fall kann Musterabgleich zwischen den ersten Ultratiefbilddaten, in denen ein Teil gelöscht ist, und den komprimierten zweiten Ultratiefbilddaten ausgeführt werden. Deshalb können die erste Ultratiefbilddaten und die komprimierten zweiten Ultratiefbilddaten genau synthetisiert werden.
  • In ähnlicher Weise ist der zweite Sensitivitätswert so eingestellt, dass die Anzahl von Bildpunkten, die dem Überlappungsabschnitt der zwei Höhenbilddaten entsprechen, größer oder gleich einer konstanten Anzahl werden, wenn die ersten Höhenbilddaten, in denen ein Teil gelöscht ist, und die zweiten Höhenbilddaten, in denen ein Teil gelöscht ist, synthetisiert werden.
  • In diesem Fall kann auch Musterabgleich zwischen den ersten Höhenbilddaten, in denen ein Teil gelöscht ist, und den zweiten Höhenbilddaten, in denen ein Teil gelöscht ist, ausgeführt werden. Deshalb können die ersten Höhenbilddaten und die zweiten Höhenbilddaten genau synthetisiert werden.
  • (7-3) In der obigen Beschreibung entspricht der Wert tp1 zum Berechnen des ungültigen Bildpunktverhältnisses dem Rauschpegel n1, aber der Wert tp1 kann automatisch durch die CPU 210 basierend auf der Vielzahl von Pixeldatenbestimmt werden, die mit dem ersten Sensitivitätswert erfasst werden.
  • Zum Beispiel ist der Wert tp1 so eingestellt, dass die Anzahl von Bildpunkten, die den Überlappungsbereich der zwei Ultratiefbilddaten entsprechen, größer oder gleich einer konstanten Anzahl wird, wenn die ersten Ultratiefbilddaten, in denen ein Teil gelöscht ist, und die komprimierten zweiten Ultratiefbilddaten synthetisiert werden.
  • In diesem Fall, kann Musterabgleich zwischen den ersten Ultratiefbilddaten, in denen ein Teil gelöscht ist, und den komprimierten zweiten Ultratiefbilddaten ausgeführt werden. Deshalb können die erste Ultratiefbilddaten und die komprimierten zweiten Ultratiefbilddaten genau synthetisiert werden.
  • In ähnlicher Weise kann der Wert tp1 so eingestellt werden, dass die Anzahl von Bildpunkten, die dem Überlappungsabschnitt der zwei Höhenbilddaten entsprechen, größer oder gleich einer konstanten Anzahl wird, wenn die ersten Höhenbilddaten, in denen ein Teil gelöscht ist, und die zweiten Höhenbilddaten, in denen ein Teil gelöscht ist, synthetisiert werden.
  • In diesem Fall kann auch Musterabgleich zwischen den ersten Höhenbilddaten, in denen ein Teil gelöscht ist, und den zweiten Höhenbilddaten, in denen ein Teil gelöscht ist, ausgeführt werden. Deshalb können die ersten Höhenbilddaten und die zweiten Höhenbilddaten genau synthetisiert werden.
  • (7-4) In der obigen Beschreibung, wird das ungültige Bildpunktverhältnis nicht berechnet und die Bestimmung, ob das ungültige Pixelverhältnis kleiner oder gleich dem Referenz-Pixelverhältnis ist oder nicht, wird nicht ausgeführt, wenn das Kontrollkästchen 441 der 8 nicht spezifiziert ist. Nicht darauf beschränkt, kann die CPU 210 bestimmen, ob die Erfassung der Bildpunktdaten durch den zweiten Sensitivitätswert auszuführen ist oder nicht, basierend auf dem Bestimmungsergebnis, ob das ungültige Bildpunktverhältnis kleiner oder gleich dem Referenz-Bildpunktverhältnis ist, nach der Erzeugung der ersten Höhenbilddaten und der ersten Ultratiefbilddaten des Einheitsbereichs durch den ersten Sensitivitätswert, sogar dann wenn das Kontrollkästchen 441 der 8 nicht spezifiziert ist.
  • (7-5) In der obigen Beschreibung wird der Oberflächenzustands-Beobachtungsprozess in dem konfokalen Mikroskopsystem 500 ausgeführt.
  • Nicht darauf begrenzt, kann der Oberflächenzustands-Beobachtungsprozess auf ein Mikroskopsystem angewendet werden, das eingerichtet ist, das Licht von der Lichtquelle durch die Objektivlinse 3 so zu projizieren, um an den Beobachtungsobjekt zu konvergieren und den Zustand der Oberfläche des Beobachtungsobjekts zu beobachten basierend auf dem digitalen Signal, das in Übereinstimmung mit der Stärke des zu dem Lichtempfangselement 30 geführten Lichts erfasst wird. Das Mikroskopsystem zum Beobachten des Zustands der Oberfläche des Beobachtungsobjekts, während die Fokusposition des projizierten Lichts in der optischen Achsenrichtung bewegt wird, beinhaltet ein Mikroskopsystem, das eine Lichtinterferometrie, ein optisches Mikroskopsystem und dergleichen verwendet.
  • (7-6) In der oben beschriebenen Ausführungsform wird das Laserlicht in der X-Richtung und der Y-Richtung auf dem Beobachtungsobjekt S abgetastet durch Steuern des X-Y-Abtastoptiksystems 20, dies ist jedoch nicht der einzige Fall. Das Laserlicht kann in der X-Richtung und der Y-Richtung auf dem Beobachtungsobjekt S durch Bewegen des Gestells 60 abgetastet werden.
  • Ein Linienlicht (z. B. verlängertes Licht, das sich in der X-Richtung ausbreitet) kann als das Laserlicht verwendet werden. In diesem Fall wird ein Y-Abtastoptiksystem, das das Abtasten in der X-Richtung nicht durchführt, anstelle des XY-Abtastoptiksystem 20 verwendet. Weiterhin wird eine Linien-CCD-Kamera oder dergleichen, die eine Vielzahl von Lichtempfangselementen angeordnet in einer Richtung entsprechend der X-Richtung anstelle des Lichtempfangselements 30 verwendet.
  • Die Größe der Lichtempfangsoberfläche in der Richtung entsprechend der Y-Richtung jedes Lichtempfangselements der Linien-CCD-Kamera ist im Allgemeinen wenige Dutzend um. In diesem Fall ist die Lichtempfangsoberfläche der Linien-CCD-Kamera in der Fokusposition der Linse 2 angeordnet. Wenn die Oberfläche des Beobachtungsobjekts an der Fokusposition der Objektivlinse 3 ist, wird das durch das Beobachtungsobjekt S reflektierte Linienlicht auf der Lichtempfangsoberfläche der Linien-CCD-Kamera gesammelt. Das Meiste des durch das Beobachtungsobjekt S reflektierten Linienlichts tritt dadurch in die Lichtempfangsoberfläche der Linien-CCD-Kamera ein.
  • Wenn das Beobachtungsobjekt S an einer Position ist, die von der Fokusposition der Objektivlinse 3 abweicht, wird das durch das Beobachtungsobjekt S reflektierte Linienlicht an einer Position vor oder hinter der Lichtempfangsoberfläche der Linien-CCD-Kamera gesammelt. Nur ein Teil des durch das Beobachtungsobjekt S reflektierten Linienlichts tritt dadurch auf die Lichtempfangsoberfläche der Linien-CCD-Kamera ein. Deshalb muss das Lochblendenelement 7 nicht vor der Linien-CCD-Kamera angeordnet werden.
  • (7-7) In der oben beschriebenen Ausführungsform ändert sich die relative Position in der Z-Richtung des Beobachtungsobjekts bezüglich der Objektivlinse 3, wenn die Objektivlinse 3 in der Z-Richtung bewegt wird, dies ist jedoch nicht der einzige Fall. Die relative Position in der Z-Richtung des Beobachtungsobjekts S bezüglich der Objektivlinse 3 kann durch Bewegen des Gestells 60 in der Z-Richtung geändert werden.
  • (7-8) In der oben beschriebenen Ausführungsform, wird das Laserlicht in der X-Richtung und der Y-Richtung auf dem Beobachtungsobjekt S durch Steuern des X-Y-Abtastoptiksystems gesteuert, dies ist jedoch nicht der einzige Fall. Das Laserlicht kann in der X-Richtung und der Y-Richtung auf dem Beobachtungsobjekt S durch Bewegen des Gestells abgetastet werden.
  • (7-9) In der oben beschriebenen Ausführungsform kann die CPU 210 des PCs 200 die Funktion der Steuereinheit 200 haben. In diesem Fall muss die Steuereinheit 200 nicht angeordnet werden.
  • (8) Entsprechungsbeziehung jedes konfigurierenden Elements der Ansprüche und jeder Einheit der Ausführungsform Nachstehend wird ein Entsprechungsbeispiel jedes konfigurierenden Elements der Ansprüche und jede Einheit der Ausführungsform beschrieben, die vorliegende Erfindung ist jedoch nicht auf das folgende Beispiel beschränkt.
  • Das Beobachtungsobjekt S dient als ein Beobachtungsobjekt, das konfokale Mikroskopsystem 500 dient als ein Mikroskopsystem, die Laserlichtquelle 10 dient als eine Lichtquelle, das Lichtempfangselement 30 dient als ein Lichtempfangselement, und die Linsen 1, 2, die Objektivlinse 3, die Halbspiegel 4 das Lochblendenelements 7 und der LED-Filter 8 dienen als ein optisches System.
  • Weiterhin dient die Vielzahl von Daten, die mit dem ersten Sensitivitätswert und dem zweiten Sensitivitätswert erfasst werden, als Bildpunktdaten, die Bildpunktdaten, die einen Höhepunktswert (Höhepunktsintensität) jedes Bildpunkts anzeigen, dienen als Bilddaten, die Steuereinheit 300 dient als eine Bildpunktdaten-Ausgabeeinheit, der PC 200 dient als eine Sensitivitätseinstelleinheit, und eine Bilddaten-Erzeugungseinheit und eine Verarbeitungsvorrichtung, der erste Sensitivitätswert dient als ein erster Wert und der zweite Sensitivitätswert dient als ein zweiter Wert.
  • Weiterhin dient der erste Wert tp1 zum Berechnen des ungültigen Bildpunktverhältnisses als ein Schwellwert und die Höhenbilddaten wie auch die Ultratiefbilddaten dienen als Oberflächen-Bilddaten. Das ungültige Bildpunktverhältnis, die Summe oder der Mittelwert der Werte der Vielzahl von Höhepunktsintensitäten, die Summe oder der Mittelwert der Vielzahl von Differenzdaten dient als ein Bestimmungswert, und die Tatsache, dass das ungültige Bildpunktverhältnis, das nach der Erfassung der Vielzahl von Bildpunktdaten durch den ersten Sensitivitätswert berechnet wird, kleiner oder gleich dem Referenz-Bildpunktverhältnis ist, die Tatsache, dass die Summe oder der Mittelwert der Vielzahl von Höhepunktsintensitäten größer oder gleich dem Referenzwert ist, oder die Tatsache, dass die Summe oder der Mittelwert der Vielzahl von Differenzdaten größer oder gleich dem Referenzwert ist, dient als eine im Voraus definierte Bedingung.
  • Verschiedene andere Elemente mit der Konfiguration oder der Funktion, die in den Ansprüchen beschrieben wird, können für jedes konfigurierende Elements der Ansprüche verwendet werden.
  • Die vorliegende Erfindung kann effizient in verschiedenen Mikroskopsystemen verwendet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2008-83601 [0002, 0002]

Claims (8)

  1. Ein Mikroskopsystem (500) zum Beobachten eines Zustands einer Oberfläche eines Beobachtungsobjekts (S), wobei das Mikroskopsystem (500) umfasst: eine Lichtquelle (10) zum Ausstrahlen eines Lichts; ein Lichtempfangselement (30); ein optisches System (1, 2, 3, 4, 6, 7) zum Strahlen des von der Lichtquelle (10) ausgestrahlten Lichts auf das Beobachtungsobjekt (S), während das Licht gesammelt wird, und Führen des auf das Beobachtungsobjekt (S) gestrahlten Lichts zu dem Lichtempfangselement (30); eine Bildpunktdaten-Ausgabeeinheit (300) zum Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements (30); eine Sensitivitätseinstelleinheit (200) zum Einstellen eines Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle (10), des optischen Systems und/oder des Lichtempfangselements (30); und eine Bilddaten-Erzeugungseinheit (200) zum Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf den durch die Bildpunktdaten-Ausgabeeinheit (300) ausgegeben Bildpunktdaten, wobei der Sensitivitätsparameter auf einen ersten Wert durch die Sensitivitäts-Einstelleinheit eingestellt ist, und einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand der Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf den durch die Bildpunktdaten-Ausgabeeinheit ausgegeben Bilddaten, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert durch die Sensitivitäts-Einstelleinheit eingestellt ist; wobei die Bilddaten-Erzeugungseinheit (200) einen Bestimmungswert erzeugt zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf dem zur Zeit der ersten Messung erzeugten Bilddaten, bestimmt, ob das Ergebnis der ersten Messung eine im Voraus definierte Bedingung erfüllt oder nicht, basierend auf dem erzeugten Bestimmungswert, die zweite Messung ausführt, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, Oberflächenbilddaten erzeugt, die einen Zustand der Oberfläche des Beobachtungsobjekts (S) anzeigen, durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und der zur Zeit der zweiten Messung erzeugten Bilddaten, und die zweite Messung nicht ausführt, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und die Oberflächen-Bilddaten erzeugt basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  2. Das Mikroskopsystem nach Anspruch 1, wobei die Bilddaten-Erzeugungseinheit (200) bestimmt, ob der Wert der zur Zeit der ersten Messung erzeugten Bilddaten kleiner oder gleich dem im Voraus definierten Schwellwert ist oder nicht, und eine Anzahl von Bilddaten mit einem Wert kleiner oder gleich dem Schwellenwert als den Bestimmungswert erzeugt.
  3. Das Mikroskopsystem nach Anspruch 1, wobei die Bilddaten-Erzeugungseinheit (200) die Bilddaten, die bestimmt wurden, einen Wert größer als den Schwellwert der zur Zeit der ersten Messung erzeugten Bilddaten aufzuweisen, und die Bilddaten, die den Bilddaten entsprechen, die bestimmt wurden, einen Wert kleiner oder gleich dem Schwellwert zur Zeit der ersten Messung der zur Zeit der zweiten Messung erzeugten Bilddaten aufzuweisen, synthetisiert, um die Oberfläche-Bilddaten zu erzeugen, die den Zustand der Oberfläche des Beobachtungsobjekts (S) anzeigen, wenn die ersten und zweiten Messungen ausgeführt werden.
  4. Das Mikroskopsystem nach Anspruch 1, wobei die Sensitivitätseinstelleinheit (200) den Sensitivitätsparameter einstellt durch Steuern einer Menge von der Lichtquelle (10) ausgestrahlten Lichts, einer Dämpfungsgröße des Lichts in dem optischen System und/oder einer Verstärkung der Lichtempfangselements (30).
  5. Das Mikroskopsystem nach Anspruch 1, wobei die Sensitivitätseinstelleinheit (200) vorzugsweise die Menge des von der ersten Lichtquelle (10) ausgestrahlten Lichts oder den Dämpfungsbetrag des Lichts in dem optischen System über der Verstärkung des Lichtempfangselements (30) steuert, wenn der Sensitivitätsparameter von dem ersten Wert in den zweiten Wert geändert wird.
  6. Das Mikroskopsystem nach Anspruch 1, wobei die Sensitivitätseinstelleinheit (200) den zweiten Wert des Sensitivitätsparameters zur Zeit der zweiten Messung bestimmt basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  7. Ein Oberflächenzustands-Beobachtungsverfahren verwendet in einem Mikroskopsystem (500) zum Überwachen eines Zustands einer Oberfläche eines Beobachtungsobjekts (S), wobei das Verfahren die Schritte umfasst: Ausstrahlen eines Lichts von einer Lichtquelle (10); Strahlen des von der Lichtquelle (10) ausgestrahlten Lichts auf das Beobachtungsobjekt (S), während das Licht durch ein optisches System (1, 2, 3, 4, 6, 7) gesammelt wird, und Führen des auf das Beobachtungsobjekt (S) gestrahlten Lichts zu einem Empfangselement (30); Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements (30); Einstellen des Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle (10), des optischen Systems und/oder des Lichtempfangselements (30); Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf den Bildpunktdaten, die mit dem auf einen ersten Wert eingestellten Sensitivitätsparameter ausgegeben werden; Erzeugen eines Bestimmungswerts zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf den Bilddaten, die zur Zeit der ersten Messung erzeugt werden, und Bestimmen, ob ein Ergebnis einer ersten Messung eine im Voraus definierte Bedingung erfüllt basierend auf dem erzeugten Bestimmungswert; und Ausführen einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf der Bildpunktdaten-Ausgabe, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert eingestellt ist, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, und Erzeugen von Oberflächen-Bilddaten, die einen Zustand der Oberfläche des Beobachtungsobjekts (S) anzeigen durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und zur Zeit der zweiten Messung erzeugten Bilddaten und Nichtausführen der zweiten Messung, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und Erzeugen der Oberflächen-Bilddaten basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
  8. Ein Oberflächenzustands-Beobachtungsprogramm zum Veranlassen einer Verarbeitungsvorrichtung (200), einen Oberflächenzustands-Beobachtungsprozess auszuführen, der in einem Mikroskopsystem (500) verwendet wird, zum Beobachten eines Zustands einer Oberfläche eines Beobachtungsobjekts (S), wobei das Programm die Verarbeitungsvorrichtung (200) veranlasst, einen Prozess auszuführen von: Ausstrahlen eines Lichts von einer Lichtquelle (10); Strahlen des von der Lichtquelle (10) ausgestrahlten Lichts auf das Beobachtungsobjekt (S), während das Licht durch ein optisches System (1, 2, 3, 4, 6, 7) gesammelt wird, und Führen des auf das Beobachtungsobjekt (S) gestrahlten Lichts zu einem Empfangselement (30); Ausgeben von Bildpunktdaten entsprechend einer Vielzahl von Bildpunkten basierend auf einem Ausgabesignal des Lichtempfangselements (30); Einstellen des Sensitivitätsparameters zum Anpassen eines Wertes der Bildpunktdaten durch Steuern der Lichtquelle (10), des optischen Systems und/oder des Lichtempfangselements (30); Ausführen einer ersten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf den Bildpunktdaten, die mit dem auf einen ersten Wert eingestellten Sensitivitätsparameter ausgegeben werden; Erzeugen eines Bestimmungswerts zum Bestimmen, ob die zweite Messung auszuführen ist oder nicht, basierend auf den Bilddaten, die zur Zeit der ersten Messung erzeugt werden, und Bestimmen, ob ein Ergebnis einer ersten Messung eine im Voraus definierte Bedingung erfüllt basierend auf dem erzeugten Bestimmungswert; und Ausführen einer zweiten Messung zum Erzeugen von Bilddaten für jeden Bildpunkt, die einen Zustand einer Oberfläche des Beobachtungsobjekts (S) anzeigen, basierend auf der Bildpunktdaten-Ausgabe, wobei der Sensitivitätsparameter auf einen zweiten Wert größer als der erste Wert eingestellt ist, wenn das Ergebnis der ersten Messung die Bedingung nicht erfüllt, und Erzeugen von Oberflächen-Bilddaten, die einen Zustand der. Oberfläche des Beobachtungsobjekts (S) anzeigen durch Synthetisieren der zur Zeit der ersten Messung erzeugten Bilddaten und zur Zeit der zweiten Messung erzeugten Bilddaten und Nichtausführen der zweiten Messung, wenn das Ergebnis der ersten Messung die Bedingung erfüllt, und Erzeugen der Oberflächen-Bilddaten basierend auf den zur Zeit der ersten Messung erzeugten Bilddaten.
DE201210200886 2011-01-24 2012-01-23 Mikroskopsystem, Oberflächenzustands-Beobachtungsverfahren und Oberflächenzustands-Beobachtungsprogramm Pending DE102012200886A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011012032A JP2012155010A (ja) 2011-01-24 2011-01-24 顕微鏡システム、表面状態観察方法および表面状態観察プログラム
JP2011-012032 2011-01-24

Publications (1)

Publication Number Publication Date
DE102012200886A1 true DE102012200886A1 (de) 2012-07-26

Family

ID=46510986

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210200886 Pending DE102012200886A1 (de) 2011-01-24 2012-01-23 Mikroskopsystem, Oberflächenzustands-Beobachtungsverfahren und Oberflächenzustands-Beobachtungsprogramm

Country Status (3)

Country Link
US (1) US8994808B2 (de)
JP (1) JP2012155010A (de)
DE (1) DE102012200886A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5454466B2 (ja) * 2010-12-29 2014-03-26 コニカミノルタ株式会社 文字検出装置、文字検出方法、およびコンピュータプログラム
WO2014132604A1 (ja) * 2013-02-28 2014-09-04 パナソニック株式会社 共焦点顕微鏡
JP6246555B2 (ja) * 2013-10-25 2017-12-13 株式会社キーエンス 顕微鏡撮像装置、顕微鏡撮像方法および顕微鏡撮像プログラム
JP6680560B2 (ja) * 2016-02-17 2020-04-15 オリンパス株式会社 共焦点顕微鏡装置、貼り合せ画像構築方法、及びプログラム
DE102016122528A1 (de) * 2016-11-22 2018-05-24 Carl Zeiss Microscopy Gmbh Verfahren zum Steuern oder Regeln einer Mikroskopbeleuchtung
HUE042725T2 (hu) * 2017-05-18 2019-07-29 Grob Gmbh & Co Kg Eljárás és készülék bevont felületek minõségének vizsgálatára
JP7097168B2 (ja) 2017-10-17 2022-07-07 株式会社キーエンス 拡大観察装置
JP7023667B2 (ja) 2017-10-17 2022-02-22 株式会社キーエンス 拡大観察装置
US11931297B2 (en) * 2019-06-14 2024-03-19 Alcon Inc. Glare reduction endoilluminators
US11079515B2 (en) * 2019-12-18 2021-08-03 Microsoft Technology Licensing, Llc Micro lens time-of-flight sensor having micro lens heights that vary based on image height

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083601A (ja) 2006-09-28 2008-04-10 Keyence Corp 共焦点顕微鏡、共焦点顕微鏡操作方法、共焦点顕微鏡操作プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3639627B2 (ja) * 1995-02-03 2005-04-20 キヤノン株式会社 画像合成装置
JP3568286B2 (ja) * 1995-08-29 2004-09-22 オリンパス株式会社 共焦点走査型光学顕微鏡及びこの顕微鏡を使用した測定方法
JPH11325819A (ja) * 1998-05-21 1999-11-26 Nikon Corp 顕微鏡用電子カメラ
JP2000321503A (ja) * 1999-05-13 2000-11-24 Keyence Corp 共焦点顕微鏡の自動調整方法および共焦点顕微鏡
JP4865271B2 (ja) * 2005-08-01 2012-02-01 株式会社キーエンス 共焦点走査型顕微鏡
JP2008136113A (ja) * 2006-11-29 2008-06-12 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び画像処理方法
JP5188101B2 (ja) 2007-06-01 2013-04-24 株式会社キーエンス 拡大観察装置、拡大画像撮影方法、拡大画像撮影プログラム及びコンピュータで読み取り可能な記録媒体
JP4860551B2 (ja) 2007-06-01 2012-01-25 株式会社キーエンス 拡大観察装置、高階調画像ファイル作成方法、高階調画像ファイル作成方法、高階調画像ファイル作成プログラム及びコンピュータで読み取り可能な記録媒体
JP5188100B2 (ja) 2007-06-01 2013-04-24 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JP2009047460A (ja) * 2007-08-15 2009-03-05 Lasertec Corp 共焦点顕微鏡
JP4561912B2 (ja) * 2008-09-12 2010-10-13 ソニー株式会社 撮像装置、撮像方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083601A (ja) 2006-09-28 2008-04-10 Keyence Corp 共焦点顕微鏡、共焦点顕微鏡操作方法、共焦点顕微鏡操作プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Also Published As

Publication number Publication date
US20120188360A1 (en) 2012-07-26
JP2012155010A (ja) 2012-08-16
US8994808B2 (en) 2015-03-31

Similar Documents

Publication Publication Date Title
DE102012200886A1 (de) Mikroskopsystem, Oberflächenzustands-Beobachtungsverfahren und Oberflächenzustands-Beobachtungsprogramm
DE102012200885A1 (de) Mikroskopsystem, Fokusposition-Erfassungsverfahren, und Fokusposition-Erfassungsprogramm
DE602004003882T2 (de) System und Verfahren zur schnellen automatischen Fokussierung eines Maschinenvisionssystems
DE2910875C2 (de) Verfahren zur automatischen Scharfeinstellung
DE112014000240B4 (de) Bilderfassungsvorrichtung und Bildgebungsvorrichtung
DE3422143A1 (de) Geraet zur wafer-inspektion
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
DE102005018092A1 (de) Biochip-Messverfahren und Biochip-Messvorrichtung
DE102014221542A1 (de) Bildgebende Mikroskopieeinrichtung, bildgebendes Mikroskopieverfahren und bildgebendes Mikroskopieprogramm
DE102005047200A1 (de) Verfahren zur Korrektur einer Steuerung eines optischen Scanners in einer Vorrichtung zur scannenden Abbildung einer Probe und Vorrichtung zur Durchführung des Verfahrens
DE102019203963A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bildverarbeitungsmessvorrichtung
DE102012223128A1 (de) Autofokusverfahren für Mikroskop und Mikroskop mit Autofokuseinrichtung
DE102019205728A1 (de) Formmessvorrichtung und Formmessverfahren
DE102020213715A1 (de) Vorrichtung und Verfahren zur schnellen dreidimensionalen Erfassung von Bilddaten
DE102005045163B4 (de) Vorrichtung und Verfahren zur Detektion mit einem Scanmikroskop
DE102019132174A1 (de) Tag-Linsen-unterstützte Hochgeschwindigkeits-3D-Metrologie und Bildgebung mit erweitertem Tiefenschärfenbereich
DE10232242A1 (de) Verfahren und Vorrichtung zum Rastern einer Probe mit einem optischen ab Bildungssystem
DE112017001734T5 (de) Bilderfassungsvorrichtung und Bilderfassungsverfahren
DE102023115998A1 (de) System und verfahren zur hochgeschwindigkeits-autofokussierung eines mikroskops
DE102016123154A1 (de) Bestimmung der Anordnung eines Probenobjekts mittels winkelselektiver Beleuchtung
DE102013211286A1 (de) Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
EP3988989B1 (de) Verfahren und mikroskop mit einer einrichtung zum erfassen von verlagerungen einer probe gegenüber einem objektiv
DE102023111065A1 (de) Bildmessvorrichtung
DE102018217786A1 (de) Vergrößerungsbeobachtungsvorrichtung
WO2019007698A1 (de) Digitale bestimmung der fokusposition

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication