DE102013001948B4 - Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements - Google Patents

Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements Download PDF

Info

Publication number
DE102013001948B4
DE102013001948B4 DE102013001948.6A DE102013001948A DE102013001948B4 DE 102013001948 B4 DE102013001948 B4 DE 102013001948B4 DE 102013001948 A DE102013001948 A DE 102013001948A DE 102013001948 B4 DE102013001948 B4 DE 102013001948B4
Authority
DE
Germany
Prior art keywords
sensor
surface shape
data
lens
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013001948.6A
Other languages
English (en)
Other versions
DE102013001948A1 (de
DE102013001948A8 (de
Inventor
Yuki YONETANI
Yasunori Furukawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102013001948A1 publication Critical patent/DE102013001948A1/de
Publication of DE102013001948A8 publication Critical patent/DE102013001948A8/de
Application granted granted Critical
Publication of DE102013001948B4 publication Critical patent/DE102013001948B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/255Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring radius of curvature
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/005Testing of reflective surfaces, e.g. mirrors

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Oberflächenformmessverfahren um die Oberflächenform eines Objekts (107) zu messen, umfassend folgende Schritte: Unterteilen der Oberflächenform des Objekts in mehrere Teilzonen (201, 202, 203, 204); Ermitteln von Teilzonendaten bezüglich der Oberflächenform des Objekts für jede der Teilzonen durch einen Sensor (110); Berechnen von Sensitivitäten der Teilzonendaten in Bezug auf Relativbewegungen zwischen dem Objekt und dem Sensor für die Teilzonen; Berechnen von Beträgen, die durch die Relativbewegung erzeugten Fehlern entsprechen, unter Verwendung der Sensitivitäten; Korrigieren der Teilzonendaten unter Verwendung der den Fehlern entsprechenden Beträge; und Zusammenheften der korrigierten Teilzonendaten, um die Oberflächenform des Objekts zu bestimmen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Oberflächenformmessverfahren, welches eine Oberflächenform eines optischen Elements unterteilt, um die Oberflächenform zu messen.
  • Beschreibung des Standes der Technik
  • Als ein Verfahren zum berührungslosen Messen einer Oberflächenform einer Objektoberfläche (eines optischen Elements), insbesondere einer asphärischen Linse, mit hoher Geschwindigkeit offenbart das Dokument Johannes Pfund, Norbert Lindlein und Johannes Schwider, „NonNull testing of rotationally symmetric aspheres: a systematic error assessment,” App. Opt. 40 (2001), S. 439, ein Verfahren zum Aufbringen von Beleuchtungslicht einer Kugelwelle auf eine Objektoberfläche über eine Optik zum Messen reflektierten Lichts von der Objektoberfläche unter Verwendung des Shack-Hartmann-Sensors einer Lichtempfangseinheit. Bei einem Verfahren gemäß der japanischen Patent-Offenlegungsschrift Nr. 2006-30016 muss entsprechend einem Durchmesser des Objekts oder eines asphärischen Oberflächenbetrags (eine Abweichung gegenüber der sphärischen Oberfläche) eine Wellenfront, die eine Größe des Durchmessers des Shack-Hartmann-Sensors übersteigt, gemessen werden. In diesem Fall wird passender Weise im Hinblick auf eine Verringerung der Größe und der Kosten einer Messvorrichtung ein Verfahren (ein Zusammenheft-Verfahren; stitching method) verwendet, bei dem eine auf den Sensor auftreffende Wellenfront in Teilzonen unterteilt wird, um eine Teilmessung vorzunehmen und anschließend eine Datenverarbeitung durchzuführen, mit deren Hilfe die jeweiligen Teilmessdaten (Teilzonendaten) zusammengeheftet (stitching) werden. Bei der Datenverarbeitung nach dem Stitching-Verfahren ist das Korrigieren eines durch die Teilmessung hervorgerufenen Fehlers von Bedeutung.
  • US 2012/0013916 A1 bezieht sich auf ein Verfahren zum Messen der Form einer Testoberfläche, und offenbart ein Verfahren zur Testoberflächenberechnung vermittels Entfernen eines Einstellfehlers und eines Systemfehlers aus Messdaten der Testoberflächenform in jedem Messbereich. Der Einstellfehler wird dabei als ein Fehler angesehen, der durch die Einstellung eines Interferometers verursacht wird, und der Systemfehler wird als ein Fehler angesehen, der durch die Charakteristik eines optischen Systems bestimmt wird. US 2011/0119011 A1 bezieht sich auf eine Vorrichtung zum Messen der Form einer Testoberfläche, und offenbart ein Verfahren zum Korrigieren eines Einstellfehlers und eines Systemfehlers sogar im Falle, dass der Einstellfehler groß ist.
  • In der japanischen Patent-Offenlegungsschrift Nr. 2006-30016 und in J. Floriot, X. Levecq, S. Bucourt, M. Thomasset, F. Polack, M. Idir, P. Mercére, S. Brochet und T. Moreno „Surface metrology with a stitching Shack-Hartmann profilometric head”, Proc. of SPIE Vol. 6616, 66162A(2007) sind Messvorrichtungen offenbart, die eine Messung unter Verwendung des Stitching-Verfahrens mit Hilfe des Shack-Hartmann-Sensors vornehmen. In der japanischen Patent-Offenlegungsschrift Nr. 2006-30016 ist ein Verfahren zum Beseitigen eines durch eine Neigung eines Sensors hervorgerufenen Fehlers von solchen Fehlern, die in den jeweiligen Teilmessdaten enthalten sind, offenbart. In J. Floriot, X. Levecq, S. Bucourt, M. Thomasset, F. Polack, M. Idir, P. Mercére, S. Brochet und T. Moreno „Surface metrology with a stitching Shack-Hartmann profilometric head”, Proc. of SPIE Vol. 6616, 66162A(2007) ist ein Verfahren zum Beseitigen eines durch eine Defokussierkomponente hervorgerufenen Fehlers zusätzlich zu dem Neigungsfehler des Sensors offenbart.
  • Allerdings lassen sich bei den Verfahren nach der japanischen Patent-Offenlegungsschrift Nr. 2006-30016 und J. Floriot, X. Levecq, S. Bucourt, M. Thomasset, F. Polack, M. Idir, P. Mercére, S. Brochet und T. Moreno „Surface metrology with a stitching Shack-Hartmann profilometric head”, Proc. of SPIE Vol. 661 6, 66162A(2007) Positions-Verschiebungen in einer Ebene der optischen Achse des Sensors und in Richtung der optischen Achse sowie ein durch eine Rotationsverschiebung um die optische Achse hervorgerufener Fehler (ein Fehler, der entsteht durch eine Relativbewegung zwischen einem Objekt und einem Sensor) nicht korrigieren. Darüber hinaus ist die Korrekturgenauigkeit des durch die Relativbewegung zwischen dem Objekt und dem Sensor hervorgerufenen Fehlers beeinträchtigt.
  • OFFENBARUNG DER ERFINDUNG
  • Die vorliegende Erfindung schafft ein Oberflächenformmessverfahren und eine Oberflächenform-Messvorrichtung, die ein Zusammenheften (stitching) ausführen, nachdem ein durch eine Relativbewegung zwischen einem Objekt und einem Sensor hervorgerufener Fehler korrigiert ist, um eine Oberflächenform des Objekts mit hoher Genauigkeit messen zu können. Außerdem schafft die vorliegende Erfindung ein Computerprogramm, welches eine Informationsverarbeitungsvorrichtung veranlasst, das Oberflächenformmessverfahren auszuführen, ein nicht-flüchtiges, computer-lesbares Speichermedium, das das Computerprogramm speichert, und ein Verfahren zum Fertigen eines optischen Elements.
  • Die vorliegende Erfindung schafft in ihrem ersten Aspekt ein Oberflächenformmessverfahren gemäß den Ansprüchen 1 bis 12.
  • In ihrem zweiten Aspekt schafft die vorliegende Erfindung eine Oberflächenform-Messvorrichtung gemäß Anspruch 13.
  • In ihrem dritten Aspekt schafft die Erfindung ein Computerprogramm nach Anspruch 14.
  • In ihrem vierten Aspekt schafft die vorliegende Erfindung ein nicht-flüchtiges, computer-lesbares Speichermedium nach Anspruch 15.
  • Die Erfindung schafft in ihrem fünften Aspekt ein Verfahren zum Fertigen eines optischen Elements nach Anspruch 16.
  • Weitere Merkmale und Aspekte der vorliegenden Erfindung ergeben sich deutlicher aus der nachfolgenden Beschreibung beispielhafter Ausführungsformen unter Bezugnahme auf die beigefügten Zeichnungen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Konfigurationsdiagramm einer Ausführungsform 1 einer Oberflächenform-Messvorrichtung.
  • 2A und 2B sind schematische Diagramme für die Ausführung einer Teilmessung einer Objektoberfläche der Ausführungsform 1.
  • 3 ist ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Erzeugen von Sensitivität der Ausführungsform 1.
  • 4 ist ein Flussdiagramm zum Veranschaulichen eines Oberflächenformmessverfahrens der Ausführungsform 1.
  • 5 ist ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Erzeugen von Sensitivität der Ausführungsform 2.
  • 6 ist ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Erzeugen von Sensitivität der Ausführungsform 3.
  • 7 ist ein Konfigurationsdiagramm einer Messvorrichtung eines optischen Elements der Ausführungsform 5.
  • 8 ist ein Konfigurationsdiagramm einer Fertigungsvorrichtung für ein optisches Element als weiteres Beispiel der Ausführungsform 5.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Im folgenden werden unter Bezugnahme auf die begleitenden Zeichnungen beispielhafte Ausführungsformen der vorliegenden Erfindung beschrieben. In jeder der Zeichnungen sind gleiche Elemente mit gleichen Bezugszeichen versehen, von deren wiederholter Beschreibung wird abgesehen.
  • [AUSFÜHRUNGFORM 1]
  • Zunächst soll anhand der 1 die Ausführungsform 1 der vorliegenden Erfindung beschrieben werden. 1 ist ein Konfigurationsdiagramm einer Oberflächenform-Messvorrichtung 1 dieser Ausführungsform. In 1 bezeichnen Bezugszeichen 101 eine Lichtquelle, 102 eine Kondensorlinse, 103 eine Lochblende, 104 einen Halbspiegel und 105 eine Transmitterlinse. Bezugszeichen 106 bezeichnet eine Referenzlinse, von deren Oberflächen eine eine Referenzoberfläche 106a ist. Bezugszeichen 107 bezeichnet eine zu vermessende Linse (ein Messobjekt), und eine Oberfläche der Linse 107 ist eine Objektoberfläche 107a (eine zu messende Oberfläche oder Fläche). Bezugszeichen 108 bezeichnet einen Antrieb, der eine Position und eine Neigung der Referenzlinse 106 und der Linse 107 einjustiert. Bezugszeichen 109 bezeichnet eine Abbildungslinse, 110 einen Sensor, 111 einen Antrieb zum Antreiben des Sensors 110, Bezugszeichen 112 bezeichnet einen Analysierprozessor (einen Prozessor). Eine Z-Achse verläuft parallel zu einer optischen Achse einer Wellenfront, die auf den Sensor 110 auftrifft, und eine X-Achse sowie eine Y-Achse sind rechtwinklig zu der Z-Achse definiert. Die X-Achse und die Y-Achse verlaufen orthogonal zueinander. In der Oberflächenform-Messvorrichtung 1 ist ein optisches System konfiguriert durch die Kondensorlinse 102, die Lochblende 103, den Halbspiegel 104, die Transmitterlinse 105 und die Abbildungslinse 109.
  • Licht aus der Lichtquelle 101 wird von der Kondensorlinse 102 in die Lochblende 103 kondensiert. Eine Kugelwelle aus der Lochblende 103 durchläuft den Halbspiegel 104 und wird dann von der Transmitterlinse 105 zu konvergentem Licht geformt. Dieses konvergente Licht wird an der Referenzoberfläche 106a oder der zu messenden Objektoberfläche 107a reflektiert und durchläuft die Transmitterlinse 105, um anschließend an dem Halbspiegel 104 reflektiert zu werden und dann weiter durch die Abbildungslinse 109 zu treten und auf den Sensor 110 aufzutreffen. Damit empfängt der Sensor 110 das reflektierte Licht, welches erhalten wird durch Aufbringen des Lichts auf die Linse 107 (die Objektoberfläche 107a) über das optische System.
  • Um die Abbildungsleistung der Optik zu verbessern, können die Kondensorlinse 102, die Transmitterlinse 105 und die Abbildungslinse 109 anstelle der in 1 dargestellten Einzellinsen auch als Linseneinheit mit mehreren Linsen konfiguriert sein. Wenn ein Durchmesser eines Lichtstrahls oder eine numerische Apertur geändert wird, kann in das optische System bedarfsweise auch eine Kollimatorlinse oder dergleichen eingefügt werden. Die Lichtquelle 101 ist ein monochromatischer Laser, eine Laserdiode oder eine Leuchtdiode. Die Lochblende 103 braucht lediglich eine ideale Kugelwelle mit geringem räumlichen Rauschen zu erzeugen, alternativ kann man auch eine Einzelmodenfaser verwenden.
  • Sowohl die Transmitterlinse 105 als auch die Abbildungslinse 109 wird von mehreren Linsen gebildet. Eine Brennweite, ein Krümmungsradius und ein Durchmesser jeder dieser Linsen, und eine Vergrößerung der Optik, die gebildet wird durch Kombinieren der Transmitterlinse 105 und der Abbildungslinse 109, werden bestimmt durch einen (effektiven) Durchmesser und einen Krümmungsradius der Objektoberfläche 107a sowie eine Größe des Lichtempfangsteils des Sensors 110. Um die Linse 107a, bei der es sich um eine konvexe Linse handelt, näher an die konjugierte Ebene bezüglich des Sensors 110 heranzubringen, sind die Transmitterlinse 105 und die Abbildungslinse 109 derart gestaltet, dass die Petzval-Summe negativ ist. Wenn ein asphärischer Flächenbetrag der Linse 107 groß ist, so ist ein Bereich der asphärischen Oberflächenform, der der Messung zugänglich ist, in einer Menge von Transmitterlinsen 105 begrenzt. In diesem Fall können abhängig von einem Designwert (effektiver Durchmesser, Krümmungsradius und asphärischer Flächenbetrag) der Objektoberfläche 107a, beispielsweise die Transmitterlinse 105 oder die Abbildungslinse 109, oder beide Linsen, geändert (ausgetauscht) werden.
  • Die Linse 107 befindet sich an einer Stelle, an der die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a auf der optischen Achse nahezu übereinstimmen. Da die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a nahezu zusammenfallen, kommt es für das von der Objektoberfläche 107a reflektierte Licht zu keiner Strahlenüberlappung. Deshalb lässt sich eine Wellenfrontneigungsverteilung des auf den Sensor 110 auftreffenden Lichts mit hoher Genauigkeit messen. Der Begriff „nahezu zusammenfallen” bedeutet nicht nur, dass die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a exakt übereinstimmen, sondern der Begriff bedeutet auch den Fall, dass die Flächen als im wesentlichen übereinstimmend betrachtet werden.
  • Die konvergente Kugelwelle trifft auf die Objektoberfläche 107a. Eine Winkelverteilung des von der Objektoberfläche 107a reflektierten Lichts hängt ab von einem Oberflächenform-Fehler der Objektoberfläche 107a. Wenn die Objektoberfläche 107a eine asphärische Oberfläche ist, so hängt diese Winkelverteilung ab von dem asphärischen Oberflächenbetrag. Insbesondere dann, wenn der asphärische Oberflächenbetrag groß ist, so ist der Winkel deutlich verschieden von einem Auftreffwinkel auf der Objektoberfläche 107a.
  • Die Referenzlinse 106 ist eine Linse, die gefertigt wird unter Verwendung desselben Designwerts wie dem der Linse 107. Die Referenzlinse 106 wurde vorab mit hoher Genauigkeit unter Einsatz einer anderen Messapparatur, beispielsweise einer Messapparatur vom Sondentyp, vermessen. Oberflächenformdaten der Referenzlinse 106 sind im Analysierprozessor 112 gespeichert. Es ist bevorzugt, wenn bei der Referenzlinse 106 die Referenzoberfläche 106a mit hoher Genauigkeit bearbeitet ist. Es ist bevorzugt, wenn die Linse 107 derart bearbeitet ist, dass ein Unterschied gegenüber der Oberflächenform der Referenzlinse 106 nicht mehr als einige Mikrometer beträgt.
  • Die Positionen und die Neigungen der Referenzlinse 106 und der Linse 107 werden von dem Antrieb justiert. Diese Justierung erfolgt in der Weise, dass jeder Koeffizient einer Neigungskomponente des Zernike-Koeffizienten, gewonnen durch Anpassung einer Differentialform des Zernike-Polynoms (des Differential-Zernike-Polynoms) für die Wellenfrontneigungsverteilung auf dem Sensor 110, einer Defokussierkomponente und einer Comaabweichungskomponente nicht mehr als ein Zielwert beträgt. Wie weiter unten beschrieben wird, kann eine Fehlersensitivität auch in Bezug auf den Antrieb jeder Linse erfolgen. In diesem Fall geschieht die Justierung der Linse durch das Anpassen unter Verwendung der Sensitivität des Fehlers für die Differenz zwischen der Wellenfrontneigungsverteilung auf dem Sensor und einer aktuellen Wellenfrontneigungsverteilung auf der Linse unter der Bedingung, dass die Linse sich an einer Sollposition bei einer Soll-Neigung befindet.
  • Der Sensor 110 wird im allgemeinen als Shack-Hartmann-Sensor bezeichnet, er wird gebildet durch ein Mikrolinsen-Array, welches eine große Anzahl von Mikrokondensorlinsen aufweist, die in Gittermustern angeordnet sind, wozu ein Bildaufnahmeelement entsprechend einem CCD kommt. Eine durch die Mikrokondensorlinsen hindurchgehende Wellenfront wird für jede Mikrokondensorlinse auf das entsprechende Bildaufnahmeelement (den Sensor) kondensiert. Die Wellenfrontneigungsverteilung des auf den Sensor 110 auftreffenden Lichts wird dadurch ermittelt, dass man die Differenz zwischen einer Position eines von dem Mikrolinsen-Array kondensierten Flecks und einer zuvor korrigierten Position, beispielsweise einer Position eines durch einfallendes paralleles Licht erhaltenen Flecks, nachweist. Das Ausführen der oben erläuterten Verarbeitung für sämtliche Mikrokondensorlinsen ermöglicht die Messung der Neigungsverteilung in einer Ebene rechtwinklig zu der optischen Achse der von dem Sensor 110 aufgenommenen Wellenfront, das heißt für sowohl eine X-Richtung als auch eine Y-Richtung. Der Sensor 110 ist nicht auf den Shack-Hartmann-Sensor beschränkt, sondern es kann auch von einem anderen Sensortyp Gebrauch gemacht werden, wenn dieser die Wellenfrontneigungsverteilung messen kann. Beispielsweise kann man auch Gebrauch machen von einem Shearing-Interferometer oder dem Talbot-Interferometer, welches konfiguriert ist durch die Hartmann-Platte oder ein Beugungsgitter, und einen Lichtempfangssensor, beispielsweise den CCD-Sensor.
  • Wenn die Objektoberfläche 107a mit einer gewünschten Genauigkeit bearbeitet ist, werden eine seitliche Koordinate, bei der eine Korrekturverarbeitung erfolgt, und ein Korrekturbearbeitungsbetrag basierend auf einer Differenz zwischen den Oberflächenform-Messdaten und einer Soll-Form berechnet, und die Korrekturbearbeitung erfolgt mit Hilfe einer Korrekturbearbeitungsmaschine. Da allerdings die Positionsverteilung (die seitliche Koordinate) der gemessenen Strahlwinkelverteilung eine Positionsverteilung des Sensors 110 ist, muss diese umgewandelt werden in eine Koordinate der Objektoberfläche 107a, um die Korrekturbearbeitung ausführen zu können. Eine Winkeldifferenz zwischen der Referenzoberfläche 106a und der Objektoberfläche 107a, die von dem Sensor 110 gemessen wird, ist verschieden von einer Reflexionswinkeldifferenz des Lichts zwischen der Referenzoberfläche 106a und der Objektoberfläche 107a. Wenn man also die Umwandlung auch für diese Winkeldifferenz vornimmt, lässt sich die Form der Objektoberfläche 107a mit höherer Genauigkeit messen.
  • Bei der vorliegenden Ausführungsform erfolgt bezüglich der Strahlpositionsverteilung und der Winkelverteilung an dem Sensor 110 die Umwandlung unter Verwendung einer Positionsvergrößerungsverteilung bzw. einer Winkelvergrößerungsverteilung, und man erhält die Strahlpositionsverteilung und die Winkelverteilung in der konjugierten Ebene bezüglich des Sensors 110, das heißt auf der Objektoberfläche 107a. Allerdings fallen möglicherweise abhängig von der Form der Objektoberfläche 107a die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107 nicht zusammen. In diesem Fall erfolgt eine Strahlverfolgungsberechnung zum Erhalten einer Umwandlung auf der Objektoberfläche 107a. Abhängig von der geforderten Messgenauigkeit lässt sich die Umwandlung unter der Bedingung vornehmen, dass die Winkelvergrößerungsverteilung konstant ist.
  • Wenn ein Durchmesser des Lichtstrahls, der auf den Sensor 110 auftrifft, größer ist als die Größe der Öffnung des Sensors 110, so erfolgt die Teilmessung der Wellenfrontneigungsverteilung, während der Sensor 110 von dem Antrieb 111 in der Lichtaufnahmefläche (einer X-Y-Ebene) bewegt wird, und anschließend können die ermittelten Wellenfrontneigungsverteilungen vereint werden. Um die Verteilungen zu vereinen, das heißt um das Zusammenheften (Stitching) mit hoher Genauigkeit auszuführen, muss derjenige Einfluss auf die Messung beseitigt werden, der verursacht wird durch einen Fehler (einen Antriebsfehler des Sensors 110), der durch den Antrieb seitens des Antriebs 111 hervorgerufen wird, das heißt durch eine Relativbewegung zwischen dem Sensor 110 und der Linse 107. Der Antriebsfehler des Sensors 110 beinhaltet Ortsverschiebungsfehler in X-, Y- und Z-Richtungen sowie Winkelverschiebungsfehler um die X-, Y- und Z-Achsen in Bezug auf jede Teilmessposition (ein Gitterdesign), die zuvor eingestellt wurde.
  • Der Antrieb 111 braucht lediglich eine XY-Bühne zu enthalten, er kann aber außerdem eine Z-Bühne beinhalten, ferner einen Drehmechanismus bezüglich der X-Achse, einen Drehmechanismus bezüglich der Y-Achse und einen Drehmechanismus bezüglich der Z-Achse. Um eine Kalibrierung oder dergleichen vornehmen zu können, können außerdem eine Translationsbewegung in Z-Richtung zusätzlich zu den X- und Y-Richtungen und die Drehbewegung um die X-, Y- und Z-Achsen ausgeführt werden.
  • Der Analysierprozessor 112 ist an den Sensor 110, den Antrieb 108 und den Antrieb 111 angeschlossen, wobei er einen Antriebsbefehl beim Ausrichten der Referenzlinse 106 oder der Linse 107, eine Eingabe-/Ausgabe-Verarbeitung von Daten und eine arithmetische Verarbeitung ausführt. Der Analysierprozessor 112 führt außerdem eine Strahlverfolgungsberechnung oder einen Antriebsbefehl zur Zeit der Zusammenheft-Verarbeitung und eine Korrekturberechnung des durch die Zusammenheft-Verarbeitung hervorgerufenen Fehlers aus. Bei der Verarbeitung zum Zusammenheften sendet der Analysierprozessor 112 an den Antrieb 111 einen ersten Antriebsbefehl, und der Antrieb 111 bewegt den Sensor 110 zu einer ersten Antriebsposition. Nachdem die Bewegung des Sensors 110 abgeschlossen ist, sendet der Analysierprozessor 112 einen Erfassungsbefehl für Kondensierfleckintensitätsdaten an den Sensor 110. Die von dem Sensor 110 erhaltenen Kondensierfleckintensitätsdaten werden im Analysierprozessor 112 verarbeitet, und man erhält erste Wellenfrontneigungsverteilungsdaten. Die erste Antriebsposition und die ersten Wellenfrontneigungsverteilungsdaten werden im Analysierprozessor 112 gespeichert. Durch N-maliges (zweites, drittes, ...) Wiederholen einer ähnlichen Verarbeitung werden N Arten von Bühnen- oder Tischpositionen sowie N Arten von Wellenfrontneigungsverteilungsdaten gespeichert. Die N Arten von Wellenfrontneigungsverteilungsdaten, die in der oben beschriebenen Weise erhalten wurden, werden vereint, das heißt es erfolgt die Zusammenheftungs- oder Stitching-Verarbeitung, und deshalb erhält man die Gesamtheit der Wellenfrontneigungsverteilungsdaten.
  • Als nächstes soll ein Fehlerkorrekturverfahren sowie ein Verbindungsverfahren (Stitching- oder Zusammenheft-Verfahren) der vorliegenden Ausführungsform beschrieben werden. 2A und 2B sind schematische Diagramme für die Ausführung einer unterteilten Messung eines zu vermessenden Objekts. In 2A ist eine durch einen ausgezogenen Kreis gekennzeichnete Zone eine zu vermessende Wellenfront T (eine zu messende Oberfläche). Zonen 201 bis 204, die durch gestrichelte Linien dargestellt sind, sind mehrere abgeteilte Teilzonen (Teil-Messzonen, Gitterdesign). Die Zonen 201 bis 204 nach 2B werden erhalten, indem man die in 2A dargestellten Zonen 201 bis 204 voneinander trennt. In den 2A und 2B entspricht ein Maximalwert einer Größe der Teilmesszonen einer Größe der Öffnung des Sensors 110. Die Gesamtheit der zu vermessenden Wellenfront T lässt sich nicht durch jede der Zonen 201 bis 204 allein vermessen. Allerdings lässt sich durch Kombinieren der Zonen 201 bis 204 die Gesamtheit der zu messenden Wellenfront T abdecken. Bei dem dargestellten Beispiel nach 2A und 2B werden die Neigungs-Verteilungsdaten (die Wellenfrontneigungsverteilung) der zu vermessenden Wellenfront T in X-Richtung und Y-Richtung in den mehreren Teilzonen, repräsentiert in Form der Zonen 201 bis 204, miteinander verbunden (zusammengeheftet).
  • Die in jeder Teilzone der Zonen 201 bis 204 gemessene Wellenfrontneigungsverteilung enthält den Antriebsfehler und den Systemfehler des Sensors 110 bei der Ausführung der verteilten Messung. Der Systemfehler ist ein Fehler, der sich ursprünglich aus dem Sensor 110 herleitet, so zum Beispiel ein Fertigungsfehler, wobei es sich um einen gemeinsamen Fehler für die Teilmessdaten handelt.
  • Als nächstes soll in Bezug auf das Fehlerkorrekturverfahren und das Verbindungsverfahren gemäß der vorliegenden Ausführungsform eine Beschreibung anhand numerischer Werte erläutert werden. Die i-ten Teilmessdaten (Teilzonendaten) der Wellenfrontneigungsverteilung in der X-Richtung und der Y-Richtung werden mit S'xi und S'yi, bezeichnet, und diejenigen Wellenfrontneigungsverteilungen, die keine Fehler enthalten, werden mit Sxi und Syi bezeichnet (das Symbol „i” bezeichnet eine natürliche Zahl von 1 bis N). Die Antriebsfehler der sechs Komponenten, nämlich Basisfunktionen in den X- und Y-Richtungen, die Ortsverschiebungen in den X-, Y- und Z-Richtungen repräsentieren, und Winkelverschiebungen bezüglich jeder Achse sind mit fxj und fyj bezeichnet, ihre Koeffizienten (Antriebsfehlerkoeffizienten) werden mit ax i j und ay i j bezeichnet. Das Symbol „j” (j = 1 bis 6) entspricht den Ortsverschiebungen in den X-, Y- und Z-Richtungen bzw. die Winkelverschiebungen um jeweilige Achsen. Symbole Esysx und Esysy bezeichnen Differentialkomponenten in X- und Y-Richtung des Systemfehlers des Sensors 110. Das Symbol (xi, yi) bezeichnet eine i-te Antriebsposition des Sensors 110. Wenn man die Symbole in der oben beschriebenen Weise definiert, lassen sich die Teilmessdaten S'xi und S'yi annähernd durch folgenden Ausdruck (1) darstellen.
  • Figure DE102013001948B4_0002
  • Anstatt nun den Antriebsfehler für jede der X- und Y-Richtungen zu ermitteln, wird in diesem Fall angenommen, dass die Koeffizienten ax i j und ay i j Werte sind, die einander in X- und Y-Richtung gleichen. Anders ausgedrückt: der Antriebsfehlerkoeffizient wird unter der Annahme ax i j = ay i j = ai j berechnet. Wenn die beiden Ausdrücke in X- und Y-Richtung innerhalb des Ausdrucks (1) zu einem Ausdruck zusammengefasst werden, lassen sie sich durch folgenden Ausdruck (2) darstellen:
    Figure DE102013001948B4_0003
  • In diesem Fall werden die Symbole S'i, Si, fj und Esys durch den folgenden Ausdruck (3) dargestellt:
    Figure DE102013001948B4_0004
  • Die Basisfunktion fj, die den Antriebsfehler des Sensors 110 repräsentiert, verkompliziert sich, wenn die Aberration des optischen Systems oder der Formfehler oder der asphärische Oberflächenbetrag der Linse 107 zunimmt, und es ist schwierig, dies durch den numerischen Ausdruck exakt zu beschreiben. Anstatt daher die Basisfunktion fj des Antriebsfehlers des Sensors 110 zu verwenden, wird die Sensitivität (Fehlersensitivität), die durch die Strahlverfolgungsberechnung ermittelt wird, eine aktuelle Messung der Oberflächenform-Messvorrichtung 1 oder dergleichen verwendet.
  • Die Sensitivität ist eine Sensitivität der Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 in Bezug auf den Antriebsfehler für jede der sechs Komponenten des Sensors 110. Insbesondere wird die Sensitivität dadurch berechnet, dass die Differenz ermittelt wird, die man erhält durch Subtrahieren der Wellenfrontneigungsverteilung für den Fall, dass der Sensor 110 nicht angetrieben wird, von der Wellenfrontneigungsverteilung, die man erhält, wenn der Sensor 110 in jede Komponentenrichtung um einen Einheitsbetrag an jeder Teilmessstelle (jeder Teilzone) subtrahiert. In anderen Worten, die Sensitivität wird berechnet, indem man die Differenz zwischen den Daten, die erhalten werden, wenn die Linse 107 und der Sensor 110 relativ um einen vorbestimmten Hub bewegt werden, und den Daten berechnet, die man erhält, wenn die Linse 107 und der Sensor 110 nicht relativ bewegt werden.
  • Die Wellenfrontneigungsverteilungen für den Zustand des in jeder Komponentenrichtung angetriebenen Sensors 110 werden mit Sgxj und Sgyj bezeichnet, und die Wellenfrontneigungsverteilungen werden mit Sgx0 und Sgy0 bezeichnet, wenn der Sensor 110 nicht angetrieben wird. In diesem Fall werden die Sensitivitäten gxj und gyj durch folgenden Ausdruck (4) dargestellt: gxj(x – xi, y – yi) = Sgxj(x – xi, y – yi) – Sgx0(x – xi, y – yi) gyj(x – xi, y – yi) = Sgyj(x – xi, y – yi) – Sgy0(x – xi, y – yi)(4)
  • Wenn die Sensitivitäten gxj und gyj in X- und Y-Richtung durch einen einzigen Ausdruck zusammengefasst werden (eine Sensitivität gj), so lässt sich diese Sensitivität gj durch folgenden Ausdruck (5) darstellen:
    Figure DE102013001948B4_0005
  • Damit wird bei der vorliegenden Ausführungsform anstelle der schwierig einzuführenden Basisfunktion fj die zuvor berechnete Sensitivität verwendet. Es ist bevorzugt, dass die Sensitivität, welche zur Korrektur des Antriebsfehlers verwendet wird, für sämtliche sechs Komponenten verwendet wird. Wenn allerdings der Antriebsfehler in einer vorbestimmten Richtung ignoriert werden kann, lässt sich die Anzahl der Komponenten der Sensitivität reduzieren. Der Antriebsfehler enthält mindestens einen der folgenden Fehler: Positionsfehler zwischen der Linse 107 und dem Sensor 110 in den X-, Y- und Z-Richtungen und Drehfehler um die X-, Y- und Z-Achsen. Und es muss eine zum Korrigieren des mindestens einen Fehlers benötigte Sensitivität berechnet werden.
  • Bei der vorliegenden Ausführungsform wird die Sensitivität berechnet unter Verwendung der Strahlverfolgungsberechnung, die Designwerte der Linse 107 und des optischen Systems verwendet. In anderen Worten: zu allererst werden von einem Rechner (einer Informationsverarbeitungsvorrichtung) dem Sensor 110 ein Positionsversatz und ein Winkelversatz in Einheitsbeträgen zugeteilt, und es wird die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 berechnet. Anschließend wird die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 für den Fall berechnet, dass kein Positionsversatz und kein Winkelversatz vorhanden sind. Anschließend lässt sich durch Subtrahieren der Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 für den Fall ohne Positionsversatz und ohne Winkelversatz von der Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 für den Fall mit Positionsversatz und Winkelversatz die Differenz-Verteilung ermitteln. Damit wird die Differenz-Verteilung entsprechend jeder Teilmesszone (jeder Teilzone), die als Gitterdesign festgelegt wurde, als Sensitivität für jede Messstelle hergenommen.
  • Bei dem Beispiel nach den 2A und 2B, die den Fall von N = 4 veranschaulichen, kann zum Minimieren eines Überlappungsfehlers zwischen der Zone 201 und der Zone 202 ein Wert ai j derart bestimmt werden, dass der Wert Δ12, der durch folgenden Ausdruck (6) dargestellt wird, minimiert wird.
  • Figure DE102013001948B4_0006
  • In Ausdruck (6) bedeutet „1∩2” eine Zone, in der die Zone 201 und die Zone 202 in den 2A und 2B einander überlappen, was der schraffierten Zone DL in 2A entspricht. In Ausdruck (6) lässt sich der Überlappungsfehler zwischen der Zone 201 und der Zone 202 verkleinern, allerdings lässt sich ein Überlappungsfehler der übrigen Teilmessdaten nicht verringern. Deshalb wird der Ausdruck (6) auf sämtliche Teilmessdaten erweitert, wobei ein Wert Δ durch folgenden Ausdruck (7) definiert ist:
    Figure DE102013001948B4_0007
  • In Ausdruck (7) ist N die Anzahl der Teilmessdaten und N ist 4 in den 2A und 2B (N = 4).
  • Bei der vorliegenden Ausführungsform lässt sich der Koeffizient ai j derart festlegen, dass der Wert Δ minimiert wird. Als Verfahren zum Bestimmen des Koeffizienten ai j lässt sich das übliche Verfahren der kleinsten Quadrate verwenden. In anderen Worten, um den Wert Δ zu minimieren, wird ein Wert, der durch Differenzieren des Werts Δ nach dem Koeffizienten ai j den Wert Null annimmt. Bei dieser Berechnung dient die Sensitivität gj als die Basisfunktion fj.
  • Figure DE102013001948B4_0008
  • Da es zum Anpassen des Antriebsfehlers sechs Komponenten der Sensitivität gibt, existieren sechs Arten (j = 1, 2, ..., 6) der Koeffizienten ai j für jede Teilzone (i = 1, 2,, 4). Basierend auf dem Ausdruck (8) lässt sich also eine Simultangleichung von 24 Dimensionen (4 × 6 = 24) ermitteln. Diese Simultangleichung wird dargestellt durch den folgenden Ausdruck (9): Y = DA (9)
  • In Ausdruck (9) bezeichnet das Symbol Y einen Vektor mit 24 Reihen und einer Spalte, das Symbol D bezeichnet einen Vektor von 24 Reihen und 24 Spalten, und das Symbol A bezeichnet einen Vektor von 24 Reihen und einer Spalte. Der Vektor Y wird durch folgenden Ausdruck (10) dargestellt:
    Figure DE102013001948B4_0009
  • Der Vektor D wird durch folgenden Ausdruck (11) repräsentiert:
    Figure DE102013001948B4_0010
  • In Ausdruck (11) bedeutet das Symbol T in Hochstellung eine transponierte Matrix. Wenn das Symbol M die Anzahl von Komponenten der zu korrigierenden Antriebsfehler ist, ist Di,j eine Matrix mit M Reihen und M Spalten. Da die vorliegende Ausführungsform den Fall beschreibt, in welchem sämtliche sechs Komponenten korrigiert werden (M = 6), ist das Symbol Di,j eine Matrix mit 6 Reihen und 6 Spalten. Wenn ein Wert von i ungleich einem Wert von j ist (i ≠ j), wird eine Komponente der s-ten Reihe und der t-ten Spalte in Di,j durch folgenden Ausdruck (12) dargestellt:
    Figure DE102013001948B4_0011
  • Wenn der Wert i gleich dem Wert j ist (i = j), wird die Komponente der s-ten Reihe und der t-ten Spalte in Di,j durch folgenden Ausdruck (13) dargestellt, wobei k ≤ N definiert ist.
  • Figure DE102013001948B4_0012
  • Das Symbol Di bezeichnet eine Matrix mit M Reihen und (L-M) Spalten, und eine Komponente der s-ten Reihe und der t-ten Spalte in Di wird durch folgenden Ausdruck (14) dargestellt:
    Figure DE102013001948B4_0013
  • Das Symbol Dc bezeichnet eine Matrix von (L-M) Reihen und (L-M) Spalten, und eine Komponente der s-ten Reihe und der t-ten Spalte des Symbols S wird durch folgenden Ausdruck (15) dargestellt:
    Figure DE102013001948B4_0014
  • Der Vektor A wird durch folgenden Ausdruck (16) dargestellt:
    Figure DE102013001948B4_0015
  • Um einen unbekannten Koeffizienten-Vektor A zu erhalten, muss nur die obige Gleichung (9) aufgelöst werden.
  • Durch Singulärwertzerlegung für die Matrix D lässt sich der folgende Ausdruck (17) ermitteln: D = USV (17)
  • Das Symbol „✝” bezeichnet eine transponiert-konjugierte (eine adjungierte), das Symbol U bezeichnet eine unitäre Matrix und S bezeichnet eine Diagonalmatrix. Wenn „–1” eine inverse Matrix repräsentiert, so gilt U–1 = U✝. Das Symbol V hat die Eigenschaft, gemäß der V✝V eine unitäre Matrix ist. Mit Hilfe der Singulärwertzerlegung wird eine übliche inverse Matrix D' der Matrix D durch folgenden Ausdruck (18) dargestellt: D' = VS–1U (18)
  • Um die obige Gleichung (9) mit Hilfe des Ausdrucks (18) zu lösen, lässt sich folgende Gleichung (19) anwenden: A = VS–1UY (19)
  • Unter Verwendung des Ausdrucks (19) lässt sich ein unbekannter Koeffizientenvektor A ermitteln. In anderen Worten: ein Koeffizient, der zum Korrigieren des Antriebsfehlers verwendet wird, lässt sich ermitteln.
  • Um den Antriebsfehler in X-Richtung und in Y-Richtung mit Hilfe des berechneten Koeffizienten zu korrigieren, kann der folgende Ausdruck (20) verwendet werden:
    Figure DE102013001948B4_0016
  • In Ausdruck (20) bezeichnet das Symbol a'i j den berechneten Koeffizienten des Antriebsfehlers. Das Symbol Ψi ist ein Vektor mit i-ten korrigierten Teilmessdaten. Ψxi und Ψyi in X- und Y-Richtung, die in Spaltenrichtung aufgereiht sind. Bei der vorliegenden Ausführungsform lässt sich der Antriebsfehler auch korrigieren, indem man eine Koordinatentransformation und eine Interpolation mit Hilfe des berechneten Antriebsfehlers vornimmt, anstatt den Ausdruck (20) zu verwenden. Die Koordinatentransformation lässt sich durch Anwenden einer Translations-Rotations-Matrix ausführen.
  • Durch Ausführen einer Durchschnittsberechnung lässt sich die Gesamtheit der End-Wellenfrontneigungsverteilung ermitteln. In den i-ten Teilmessdaten wird eine Funktion, die „1” für eine Zone bezeichnet, die Daten aufweist, und „0” für eine Zone ohne Daten kennzeichnet, mit hi bezeichnet. Außerdem wird das durch Addieren der Funktionen hi erhaltene Symbol H durch den folgenden Ausdruck (21) definiert:
    Figure DE102013001948B4_0017
  • Beispielsweise bedeutet die Zone H = 2, dass zwei Arten von Daten einander überlappen, und die Zone H = 3 bedeutet, dass drei Arten von Daten einander überlappen. Unter Verwendung des Symbols H wird die Gesamtheit der End-Wellenfrontneigungsverteilung Ψ durch folgenden Ausdruck (22) dargestellt:
    Figure DE102013001948B4_0018
  • Unter Verwendung des Ausdrucks (22) lassen sich in einer Zone mit einander überlappenden Daten die Einflüsse von Zufallsrauschen oder ein durch Reproduzierbarkeit oder dergleichen eines Messgeräts hervorgerufener Fehler durch einen Mittelungseffekt reduzieren. Weiterhin lässt sich durch den Mittelungseffekt eine Stufe im Verbindungsteil (dem zusammengehefteten Teil) verringern. Bei der vorliegenden Ausführungsform dient eine einfache Mittelwertbildung als Verfahren zum Gewinnen der Gesamtheit der Wellenfrontneigungsverteilung, allerdings ist die Ausführungsform nicht hierauf beschränkt. Beispielsweise kann man auch ein Verfahren zum Ausführen der Durchschnittsberechnung mit dem Wichten für jede der Teilmessdaten, ein Verfahren zur Verwendung von nur einem Teil der Teilmessdaten in der Überlappungszone anstelle des Mittelwerts oder dergleichen verwenden.
  • Das Ausführen der Berechnungen bis hin zu dem Ausdruck (22) für die Referenzoberfläche 106a und der Objektoberfläche 107a ermöglicht das Berechnen der Gesamtheit der Wellenfrontneigungsverteilung, bei der der Antriebsfehler des Sensors 110 beseitigt ist. Wenn der Systemfehler Esys des Sensors 110, welcher nicht ignoriert werden kann, vorhanden ist, nimmt der durch Verwendung des Ausdrucks (19) erhaltene Koeffizient den Einfluss des Systemfehlers Esys auf. In diesem Fall verschiebt sich der Antriebsfehler des Sensors 110 von dem zu korrigierenden Wert, so dass das Korrekturergebnis des Ausdrucks (20) möglicherweise überkorrigiert ist. Wenn allerdings eine Differenzmessung erfolgt, wird der Einfluss der durch den Systemfehler Esys hervorgerufenen Überkorrektur aufgehoben. In anderen Worten: der Antriebsfehler lässt sich ohne Einfluss des Systemfehlers Esys korrigieren.
  • Als nächstes wird die Gesamtheit der Wellenfrontneigungsverteilungen auf der Oberfläche des Sensors 110 für die berechnete Referenzoberfläche 106a und die Objektoberfläche 107a für die Objektoberfläche 107a umgewandelt. Mit Hilfe einer Look-Up-Tabelle (einer Positions-Vergrößerungsverteilung und einer Winkelvergrößerungsverteilung), welche die Beziehungen zwischen Strahlpositionen und -winkeln auf der Oberfläche des Sensors 110 und der Objektoberfläche 107a angibt, die zuvor berechnet wurden, werden die Daten auf der Oberfläche des Sensors 110 umgewandelt in Daten auf der konjugierten Ebene bezüglich des Sensors 110, das heißt Daten auf der Objektoberfläche 107a. Die Look-Up-Tabelle wird gewonnen durch Strahlverfolgungsberechnung unter Verwendung von Designwerten der Objektoberfläche 107a und des optischen Systems. Die Look-Up-Tabelle kann außerdem die Referenzlinse 106 treiben, um die relative Beziehung der Wellenfrontneigungsverteilungen auf der Oberfläche des Sensors 110 und der Objektoberfläche 107a innerhalb der Vorrichtung zu berechnen. Als die Look-Up-Tabelle wird nur die Positions-Vergrößerungsverteilung verwendet, während die Winkelvergrößerungsverteilungen auf der Oberfläche des Sensors und der Objektoberfläche 107a konstant sind, oder es wird sowohl die Positionsvergrößerungsverteilung als auch die Winkelvergrößerungsverteilung verwendet, die nach Maßgabe der geforderten Messgenauigkeit ausgewählt werden können. Damit werden die Teilvergrößerungsdaten (die Teilzonendaten) erhalten, indem man die Wellenfrontneigungsverteilung von der Objektoberfläche 107a misst, während die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a zusammenfallen, und indem man die Positionsvergrößerungsverteilung in der konjugierten Ebene bezüglich des Sensors 110 oder sowohl die Positionsvergrößerungsverteilung und die Winkelvergrößerungsverteilung verwendet.
  • Allerdings gibt es für die Objektoberfläche 107a den Fall, dass die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a nicht zusammenfallen. In diesem Fall erfolgt die Strahlverfolgungsberechnung von der konjugierten Ebene in Bezug auf den Sensor 110 auf die Objektoberfläche 107a. In anderen Worten: nach Ausführen der Umwandlung auf die konjugierte Ebene bezüglich des Sensors 110 erfolgt darüber hinaus die Umwandlung auf die Objektoberfläche 107a unter Verwendung der Strahlverfolgungsberechnung, und dementsprechend ist die Umwandlung von der Oberfläche des Sensors 110 auf die Objektoberfläche 107a möglich.
  • Als nächstes wird die Form der Objektoberfläche 107a berechnet unter Verwendung der Daten der gesamten Wellenfrontneigungsverteilung der Referenzoberfläche 106a und der Objektoberfläche 107a, die auf die Objektoberfläche 107a umgewandelt wurden. Als erstes wird eine Differenzwellenfrontneigungsverteilung berechnet. Wenn die gesamten Wellenfrontneigungsverteilungsdaten der Referenzoberfläche 106a mit Sbase bezeichnet werden und die gesamten Wellenfrontneigungsverteilungsdaten der Objektoberfläche 107a mit Stest bezeichnet werden, so wird eine Differenzwellenfrontneigungsverteilung ΔS, die die Differenz zwischen den Neigungsverteilungen ist, durch den folgenden Ausdruck (23) dargestellt: ΔS = Stest – Sbase (23)
  • Die Differenzwellenfrontneigungsverteilung ΔS ist ein Wert, den man erhält durch Differenzieren der Oberflächenformdifferenz zwischen der Referenzoberfläche 106a und der Objektoberfläche 107a. Integrieren der Differenzwellenfrontneigungsverteilung ΔS ermöglicht also das Berechnen der Differenzform zwischen der Referenzoberfläche 106a und der Objektoberfläche 107a. Für dieses Integrationsverfahren gibt es ein Verfahren der Verwendung einer Differentialfunktion der Basisfunktion, welche die Wellenform angibt, und das Ausführen der Anpassung für die Differenzwellenfrontneigungsverteilung ΔS, um den ermittelten Koeffizienten mit der Basisfunktion zu multiplizieren (ein Modal-Verfahren), oder ein Verfahren, bei dem die Differenzwellenfrontneigungsverteilung ΔS addiert wird (ein Zonen-Verfahren). Weiterhin wird schließlich die Form der Referenzoberfläche 106a, welche zuvor von einer anderen Messapparatur gemessen wurde, auf die Differenzform addiert, und damit lässt sich die Form der Objektoberfläche 107a berechnen.
  • Als nächstes wird anhand der in den 3 und 4 dargestellten Flussdiagramme das Oberflächenformmessverfahren gemäß der vorliegenden Ausführungsform beschrieben. Das Oberflächenformmessverfahren dieser Ausführungsform unterteilt eine Oberflächenform des Objekts in mehrere Teilzonen, um die Teilmessdaten (die Teilzonendaten) zu gewinnen, und anschließend werden die Teilmessdaten zusammengeheftet, um die Oberflächenform des Objekts zu gewinnen. 3 ist ein Flussdiagramm, das ein Verfahren zum Erstellen der Sensitivität dieser Ausführungsform veranschaulicht. 4 ist ein Flussdiagramm zum Veranschaulichen eines Heftverfahrens gemäß der Ausführungsform. Jeder der in den 3 und 4 dargestellten Schritte wird anhand eines Befehls des Analysierprozessors 112 der Oberflächenform-Messvorrichtung 1 ausgeführt.
  • In 3 wird im Schritt S301 zunächst eine Strahlverfolgungsberechnung unter Verwendung der Designwerte der Linse 107 (der zu vermessenden Linse) und des optischen Systems durchgeführt, um die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 (die Wellenfrontneigungsverteilungsdaten) zu ermitteln. Anschließend wird im Schritt S302 die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 (die Wellenfrontneigungsverteilungsdaten) ermittelt, nachdem der Sensor 110 um einen vorbestimmten Betrag angetrieben wurde. In anderen Worten: der Sensor 110 wird in jeweils einer der X-, Y-, Z-, θx-, θy- und θz-Richtungen um einen vorbestimmten Hub angetrieben, und die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 wird für diesen Fall durch die Strahlverfolgungsberechnung ermittelt.
  • Als nächstes wird im Schritt S303 die Sensitivität (die Fehlersensitivität) berechnet. In anderen Worten, Subtrahieren der im Schritt S301 berechneten Wellenfrontneigungsverteilungsdaten von den im Schritt S302 berechneten Wellenfrontneigungsverteilungsdaten ist die Berechnung für die Sensitivität des Antriebsfehlers. Anschließend wird im Schritt S304 für jede der sechs Achsenrichtungen (sechs Komponenten) der X-, Y-, Z-, θx-, θy- und θz-Richtungen ermittelt, ob die Berechnung der Sensitivität abgeschlossen ist. Ist die Berechnung der Sensitivität noch nicht abgeschlossen, wird die Antriebsrichtung des Sensors 110 geändert, und die Schritte S302 bis S304 werden wiederholt, um sämtliche Sensitivitäten der sechs Komponenten zu berechnen. Wenn andererseits die Berechnung der Sensitivität abgeschlossen ist, geht der Ablauf zum Schritt S305, und die im Schritt S303 berechnete Sensitivität wird entsprechend einem Gitterdesign aufgeteilt. In anderen Worten: die Sensitivität (die Sensitivitätsdaten) werden abhängig von dem Unterteilungs-Messmuster aufgeteilt.
  • Wie oben beschrieben, lassen sich über die in 3 dargestellten Schritte S301 bis S305 die Sensitivitäten für die sechs Komponenten ermitteln. In anderen Worten: mit Hilfe der Schritte S301 bis S305 lässt sich die Sensitivität (der Antriebsfehler), der durch die Relativbewegung zwischen dem Objekt (der Linse 107) und dem Sensor 110 hervorgerufen wird, für jede Teilzone errechnen.
  • Die Sensitivität muss jedes Mal ermittelt werden, wenn der Designwert der Referenzlinse 106 oder das Gitterdesign geändert wird, allerdings kann beispielsweise die Sensitivität einmal ermittelt werden, wenn in Massenproduktion gefertigte Linsen kontinuierlich vermessen werden. Daher ist die Belastung der Ermittlung der Sensitivität nicht groß. Da bei der vorliegenden Ausführungsform die Sensitivität mit Hilfe der Strahlverfolgungsberechnung ermittelt wird, lässt sich die Messung in kurzer Zeit ausführen, verglichen mit einem Fall, im die Sensitivität in der Messapparatur 1 ermittelt wird.
  • Als nächstes wird das Stitching-Messverfahren nach 4 erläutert. In 4 wird zunächst im Schritt S401 die Referenzlinse 106 eingerichtet, und es erfolgt ein Ausrichtvorgang. In anderen Worten: für jede nach Einrichtung der Referenzlinse 106 vermessene Wellenfrontneigungsverteilung werden, während ein Teil der Koeffizienten beobachtet wird, für die die Anpassung nach dem Differential-Zernike-Polynom erfolgt war, die Positionen der Referenzlinse 106 in X-, Y- und Z-Richtungen und die Drehwinkel bezüglich der X- und Y-Achsen durch den Antrieb 111 derart einjustiert, dass der Teil der Koeffizienten innerhalb eines vorbestimmten Betrags konvergieren.
  • Als nächstes wird im Schritt S402 die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 (die Oberflächenform des Objekts) aufgeteilt in die mehreren Teilzonen, um die Teilmessdaten (die Teilzonendaten) zu ermitteln. In anderen Worten: der Sensor 110 wird von dem Antrieb 111 abhängig von dem zuvor eingerichteten Gitterdesign bewegt, und die Teilmessdaten werden für jede Teilzone (Unterteilungsposition) ermittelt. In diesem Fall ist eine Überlappungszone der beiden einander benachbarten Teilzonen der mehreren Teilzonen vorgesehen, um die Teilmessdaten zu erhalten.
  • Anschließend wird im Schritt S403 entsprechend dem in 3 dargestellten Flussdiagramm des Verfahrens zum Ermitteln der Sensitivität unter Verwendung der zuvor berechneten Sensitivität ein Betrag berechnet, der dem Antriebsfehler des Sensors 110 entspricht, welcher in der Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 in X-Richtung und Y-Richtung enthalten ist. In anderen Worten, mit Hilfe des oben beschriebenen Ausdrucks (19) wird der Koeffizient jeder Komponente ermittelt, die den Antriebsfehler kennzeichnet. In diesem Fall wird mit Hilfe der Sensitivität der Betrag entsprechend dem Fehler berechnet, so dass der Fehler in der Überlappungszone minimiert wird.
  • Als nächstes werden im Schritt S404 unter Verwendung des dem berechneten Antriebsfehler entsprechenden Betrags die Teilmessdaten korrigiert. Anders ausgedrückt, durch Einsetzen des im Schritt S403 ermittelten Koeffizienten in den oben beschriebenen Ausdruck (20) werden die Teilmessdaten korrigiert. Anschließend wird durch Vereinen (Zusammenheften; Stitching) der korrigierten Teilmessdaten die Oberflächenform des Objekts berechnet. Anders ausgedrückt, die korrigierten Teilmessdaten werden zusammengeheftet durch Ausführen der Durchschnittsberechnung der Überlappungszone mit Hilfe des oben erwähnten Ausdrucks (22), und damit wird die Gesamtheit der Wellenfrontneigungsverteilungsdaten berechnet.
  • Als nächstes wird im Schritt S406 festgestellt, ob die Vermessung der Linse 107 abgeschlossen ist. Ist die Vermessung der Linse 107 nicht abgeschlossen, geht der Ablauf weiter zum Schritt S407. Im Schritt S407 wird die Linse 107 eingerichtet und es erfolgt die Ausrichtung. In anderen Worten, nachdem die Referenzlinse 106 entfernt und die Linse 107 eingerichtet ist, werden die Position und die Neigung der Linse 107 unter Verwendung des Ausrichtverfahrens ähnlich demjenigen nach Schritt S401 justiert. Nach dem Schritt S407 wird in den Schritten S402 bis S405 die Gesamtheit der Wellenfrontneigungsverteilungsdaten der Linse 107 berechnet. Die Z-Posititon der Linse 107 kann auch unter Verwendung beispielsweise einer anderen Versatz-Messapparatur gehandhabt werden, so dass sie gegenüber der Position der Referenzlinse 106 versetzt ist.
  • Wenn andererseits im Schritt S406 die Vermessung der Linse 107 abgeschlossen ist, geht der Ablauf zum Schritt S408. Im Schritt S408 werden die Wellenfrontneigungsverteilungsdaten umgewandelt in eine Differenzform auf der Objektoberfläche 107a. In anderen Worten: die Wellenfrontneigungsverteilungen auf der Oberfläche des Sensors 110 für die Referenzoberfläche 106a und die Objektoberfläche 107a werden umgewandelt in die Wellenfrontneigungsverteilung in der konjugierten Ebene bezüglich des Sensors 110, das heißt auf der Objektoberfläche 107a. Wenn in diesem Fall die konjugierte Ebene bezüglich des Sensors 110 und die Objektoberfläche 107a nicht zusammenfallen, so wird die Wellenfrontneigungsverteilung weiter umgewandelt, indem bezüglich der Objektoberfläche 107a eine Strahlverfolgung vorgenommen wird. Darüber hinaus wird die Differenz der Wellenfrontneigungsverteilungen der umgewandelten Referenzoberfläche 106 und der Objektoberfläche 107a berechnet. Anschließend erfolgt eine Integralverarbeitung für die Differenzwellenfrontneigungsverteilung, oder es erfolgt die Anpassung für das Differential-Zernike-Polynom, um die Differenzform als Koeffizienten zu berechnen. Anschließend werden die Formdaten der Referenzoberfläche 106a (der Referenzlinse 106), die zuvor von einem anderen Messverfahren vermessen wurden, auf die im Schritt S408 berechnete Differenzform addiert, um die Form der Objektoberfläche 107a (der Linse 107) zu gewinnen.
  • Bei der vorliegenden Ausführungsform wird angenommen, dass die Teilmessdaten der Wellenfrontneigungsverteilung entsprechen, allerdings ist die Ausführungsform nicht hierauf beschränkt. Beispielsweise kann die Wellenfrontneigungsverteilung auch korrigiert und zusammengeheftet werden, nachdem die Wellenfrontneigungsverteilung in eine Wellenfront oder eine Form umgewandelt ist (in diesem Fall entsprechen die Teilmessdaten der Wellenfront oder der Form). Bei der vorliegenden Ausführungsform wird die Konfiguration, mit der der Sensor 110 unter Einsatz des Antriebs 111 angetrieben wird, erläutert, allerdings ist die Ausführungsform nicht hierauf beschränkt. Selbst dann, wenn der Antriebsfehler beim Antreiben einer Probe (der Referenzlinse 106 oder der Linse 107) korrigiert wird, lässt sich das Korrekturverfahren ähnlich demjenigen der vorliegenden Ausführungsform ebenfalls anwenden. In diesem Fall kommt die Sensitivität an einer Seite des Objekts zustande, und anschließend wird der Antriebsfehler des Objekts korrigiert. Bei der vorliegenden Ausführungsform wird davon ausgegangen, dass die Differenzmessung unter Verwendung der Referenzoberfläche 106a (der Referenzlinse 106) vorgenommen wird, allerdings ist die Ausführungsform nicht hierauf beschränkt. Die Messung kann auch unter Verwendung lediglich der Objektoberfläche 107a (der Linse 107) ohne Verwendung der Referenzoberfläche 106a ausgeführt werden. Die Teilmessdaten für die Objektoberfläche 107a können auch mit Hilfe der Teilmessdaten für eine vorbestimmte Referenzoberfläche 106a kalibriert werden.
  • Bei der vorliegenden Ausführungsform können das Vereinen (Zusammenheften) von Teilmessdaten der Wellenfrontneigungsverteilungen mit hoher Genauigkeit, eine Oberflächenform-Messapparatur und ein Oberflächenformmessverfahren zum Ausführen einer berührungslosen Vermessung einer Oberflächenform einschließlich einer asphärischen Fläche bei hoher Geschwindigkeit und hoher Genauigkeit bereitgestellt werden. Außerdem lässt sich die Ausführung einer Differenzvermessung unter Korrektur eines durch einen Antrieb verursachten Antriebsfehlers ohne Einfluss eines Systemfehlers vornehmen. Die Ausführung einer Korrektur unter Verwendung einer Sensitivität ermöglicht eine hochgenaue Korrektur, die über die Sub-Pixel-Genauigkeit hinausgeht.
  • [AUSFÜHRUNGSFORM 2]
  • Als nächstes soll anhand der 5 die Ausführungsform 2 der vorliegenden Erfindung beschrieben werden. 5 ist ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Ermitteln von Sensitivität gemäß dieser Ausführungsform. Die vorliegende Ausführungsform unterscheidet sich von der Ausführungsform 1 dadurch, dass es die Sensitivität bereitstellt durch die Berechnung unter Verwendung des Designwerts, im die Sensitivität in einer Messapparatur gemessen und berechnet wird. In anderen Worten, die Sensitivität wird bei der vorliegenden Ausführungsform berechnet unter Verwendung eines Messwerts, der ermittelt wird, während die Linse 107 und der Sensor 110 relativ bewegt werden. Andere Konfigurationen sind ähnlich wie bei der Ausführungsform 1, so dass Beschreibungen derartiger Konfigurationen entfallen. Jeder in 5 dargestellte Schritt wird ähnlich wie bei der Ausführungsform 1 basierend auf einem Befehl des Analysierprozessors 112 der Messvorrichtung 1 ausgeführt.
  • In 5 wird zu allererst im Schritt S501 die Referenzlinse 106 bereitgestellt, und es erfolgt die Ausrichtung. Anschließend wird im Schritt S502 eine Teilvermessung der Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 vorgenommen. Die Schritte S501 und S502 sind ähnlich den Schritten S401 bzw. S402 der Ausführungsform 1, so dass detaillierte Erläuterungen entfallen.
  • Als nächstes wird im Schritt S503 die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 in der Messvorrichtung 1 vermessen, nachdem der Sensor 110 um einen vorbestimmten Hub angetrieben wird. Die vorliegende Ausführungsform unterscheidet sich von der Ausführungsform 1 dadurch, dass die Messung ausgeführt wird, während der Sensor 110 tatsächlich angetrieben wird, anstatt dass die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 durch die Strahlverfolgungsberechnung ermittelt wird. Anschließend wird im Schritt S504 die im Schritt S502 gemessene Wellenfrontneigungsverteilung von der im Schritt S503 gemessenen Wellenfrontneigungsverteilung subtrahiert, und es wird die Sensitivität (die Fehlersensitivität) berechnet. Der Schritt S504 ähnelt dem Schritt S303 der Ausführungsform 1.
  • Als nächstes wird im Schritt S505 ermittelt, ob die Berechnungen sämtlicher Sensitivitäten (Sensitivitäten für sechs Komponenten) abgeschlossen sind. Schritt S505 ist ähnlich dem Schritt S304 der Ausführungsform 1. Wenn die Berechnungen sämtlicher Sensitivitäten im Schritt S505 nicht abgeschlossen sind, werden die Schritte S503 bis S505 solange wiederholt, bis die Berechnungen sämtlicher Sensitivitäten abgeschlossen sind. Wenn andererseits die Berechnungen sämtlicher Sensitivitäten im Schritt S505 abgeschlossen sind, geht der Ablauf zum Schritt S506.
  • Im Schritt S506 wird ermittelt, ob die Sensitivitäten für sämtliche Teilmesspositionen eines zuvor eingestellten Gitterdesigns vermessen sind. Wenn die Messungen der Sensitivitäten an sämtlichen Teilmessstellen im Schritt S506 nicht abgeschlossen sind, werden die Schritte S502 bis S505 wiederholt, und sämtliche Sensitivitäten der sechs Komponenten werden an sämtlichen Teilmessstellen berechnet. Da bei der vorliegenden Ausführungsform die Sensitivitäten berechnet werden durch Messen der Sensitivitäten, während der Sensor 110 innerhalb der Messvorrichtung 1 angetrieben wird, ist der Unterteilungsschritt der Sensitivität entsprechend dem Schritt S305 in der Ausführungsform 1 nach der Differenzberechnung nicht notwendig. Wenn andererseits die Berechnungen der Sensitivitäten sämtlicher Teilmessstellen im Schritt S506 abgeschlossen sind, geht der Ablauf weiter zum Schritt S507.
  • Im Schritt S507 wird bestimmt, ob die Sensitivität bezüglich der Linse 107 ebenfalls zu ermitteln ist. Diese Bestimmung erfolgt basierend auf der geforderten Messgenauigkeit oder einem Messdurchsatz als Index. Wenn die Sensitivität bezüglich der Linse 107 zu ermitteln ist, geht der Ablauf zum Schritt S508, und die Ausrichtung erfolgt, nachdem die Referenzlinse 106 gegen die Linse 107 ausgetauscht ist. Das Wiederholen der Schritte S502 bis S506 liefert die Sensitivität bezüglich der Linse 107. Wenn andererseits im Schritt S507 die Sensitivität bezüglich der Linse 107 nicht erstellt wurde, so ist der Ablauf nach 5 abgeschlossen. Damit lässt sich bei der vorliegenden Ausführungsform für jede Teilzone über die Schritte S501 bis S508 die Sensitivität des Fehlers (des Antriebsfehlers), der durch die Relativbewegung zwischen dem Objekt (der Linse 107) und dem Sensor 110 entsteht, berechnen.
  • Das Verfahren zum Vermessen der Form der Objektoberfläche 107a unter Verwendung der Sensitivität, die gemäß der vorliegenden Ausführungsform ermittelt wird, ist ähnlich dem Ablauf nach 4, der oben für die Ausführungsform 1 beschrieben wurde, und deshalb wird auf die Beschreibung dieses Verfahrens verzichtet. Wenn allerdings die Sensitivitätsermittlung bezüglich der Linse 107 im Schritt S507 ausgewählt wird, so dient die Sensitivität bezüglich der Referenzlinse 106 für die Messung der Referenzlinse 106, und die Sensitivität bezüglich der Linse 107 wird beim Messen der Linse 107 verwendet. Wenn andererseits die Sensitivitätsermittlung bezüglich der Linse 107 nicht gewählt wird, so dient die Sensitivität bezüglich der Referenzlinse 106 für die Messungen der Referenzlinse 106 und der Linse 107.
  • Da bei der vorliegenden Ausführungsform die Sensitivität der Referenzlinse 106 innerhalb der Messvorrichtung 1 erstellt wird, lässt sich der Einfluss des Antriebsfehlers mit höherer Genauigkeit korrigieren. Deshalb lässt sich die Messgenauigkeit der Oberflächenform weiter verbessern. Wenn die Sensitivität bezüglich der Linse 107 beim Vermessen der Linse 107 verwendet wird, lässt sich die Form-Messgenauigkeit verbessern, da eine Formdifferenz gegenüber dem Designwert oder der Referenzlinse 106 kein Faktor des Messfehlers ist, auch dann nicht, wenn sich die Formdifferenz erhöht.
  • [AUSFÜHRUNGSFORM 3]
  • Als nächstes wird anhand der 6 die Ausführungsform 3 der vorliegenden Erfindung beschrieben. 6 ist ein Flussdiagramm zum Darstellen eines Verfahrens zum Erstellen der Sensitivität gemäß der Ausführungsform. Diese Ausführungsform führt eine Teilmessung der Wellenfrontneigungsverteilungen auf der Oberfläche des Sensors 110 für die Referenzlinse 106 und die Linse 107 durch, ohne dass zum Ermitteln von Daten ein Antrieb um einen vorbestimmten Hub an einer Teilmessstelle erfolgt. Dann wird den Daten in einem Computer ein Antrieb um einen vorbestimmten Hub vermittelt, um die Sensitivität zu ermitteln. Damit unterscheidet sich die vorliegende Ausführungsform von der Ausführungsform 1 oder 2 dadurch, dass die Sensitivität berechnet wird durch Addieren eines Fehlers im Computer (einer Informationsverarbeitungsvorrichtung). Die übrigen Konfigurationen sind ähnlich denjenigen der Ausführungsform 1, so dass entsprechende Beschreibungen der Konfigurationen entfallen. Jeder in 6 dargestellte Schritt ist ähnlich wie bei den Ausführungsformen 1 und 2 für die Ausführung basierend auf einem Befehl des Analysierprozessors 112 der Messvorrichtung 1 ausgestaltet.
  • In 6 sind die von Schritt S603 verschiedenen Schritte, das heißt die Schritte S601, S602 und S604 bis S605, die gleichen wie die für die Ausführungsform 2 beschriebenen Schritte in 5, nämlich die Schritte S501, S502 und S504 bis S508, so dass die Erläuterungen dieser Schritte entfallen. Im Schritt S603 wird die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 im Computer berechnet, nachdem der Sensor 110 um einen vorbestimmten Hub angetrieben wurde. Bei der vorliegenden Ausführungsform kann für jede Teilzone über die Schritte S601 bis S608 die Sensitivität des Fehlers (des Antriebsfehlers) berechnet werden, der durch die Relativbewegung zwischen dem Objekt (der Linse 107) und dem Sensor 110 entsteht.
  • Damit unterscheidet sich die vorliegende Ausführungsform von der Ausführungsform 2, bei der der Sensor 110 zum Messen der Wellenfrontneigungsverteilung angetrieben wird, dadurch, dass der Sensor 110 im Computer angetrieben wird, um die Wellenfrontneigungsverteilung zu berechnen. Um die Wirkung des Antriebs des Sensors 110 für die Wellenfrontneigungsverteilung auf der Oberfläche des Sensors 110 im Computer zu erhalten, wird beispielsweise ein Verfahren zum Interpolieren von Daten in einem Koordinatensystem verwendet, welches um einen vorbestimmten Betrag versetzt ist, oder ein Verfahren zum Interpolieren von Daten in einem gedrehten Koordinatensystem. Das Verfahren zum Messen der Form der Objektoberfläche 107a unter Verwendung der bei der vorliegenden Ausführungsform erstellten Sensitivität ist das gleiche wie bei dem Ablauf nach 4, der für die Ausführungsform 1 erläutert wurde, und deshalb wird auf die Beschreibung des Verfahrens verzichtet.
  • Bei der vorliegenden Ausführungsform kann durch Verringern der durch Messung der zum Berechnen der Sensitivität unter Verwendung der Messvorrichtung hervorgerufene Belastung die Messzeit verkürzt werden. Darüber hinaus braucht der Antrieb des Sensors 110 nicht sechs Achsen aufzuweisen, der Antrieb kann lediglich durch X- und Y-Bühnen konfiguriert werden.
  • [AUSFÜHRUNGSFORM 4]
  • Im folgenden wird unter Bezugnahme auf die 7 und 8 eine Ausführungsform 4 der vorliegenden Erfindung beschrieben. Die Sensitivität dieser Ausführungsform wird berechnet in Kombination mit dem Verfahren zum Erstellen der Sensitivität bei den Ausführungsformen 1 bis 3. In anderen Worten: bezüglich der Referenzlinse 106 und der Linse 107 wird jede Komponente der Sensitivitäten der sechs Komponenten individuell aus den Verfahren zum Erstellen der Sensitivität der Ausführungsformen 1 bis 3 ausgewählt. Ein Ablauf zum Erstellen der Sensitivität gemäß der vorliegenden Ausführungsform ist der gleiche wie bei den Ausführungsformen 2 und 3, so dass die Erläuterungen des Ablaufs entfallen.
  • Bei der vorliegenden Ausführungsform wird der Schritt des Berechnens der Daten, die notwendig sind für die Berechnung der Sensitivität, ausgewählt aus den Schritten der Ausführungsformen 1 bis 3, abhängig von jeder Komponente der Sensitivität. In anderen Worten: die zu verwendenden Schritte werden so eingerichtet, dass sie für jede Komponente aus den Schritten S302 und S303 der 3 (Ausführungsform 1) den Schritten S502 und S503 (Ausführungsform 2) und den Schritten 602 und S603 (Ausführungsform 3) auswählbar sind.
  • Wenn bei der vorliegenden Ausführungsform beispielsweise die Anzahl der Achsen des Antriebs 111 des Sensors 110 festliegt oder die Anzahl der Achsen verringert werden soll, kombiniert mit dem Verfahren zum Erstellen der Sensitivität mittels Software, lassen sich die Kosten der Messvorrichtung verringern, und außerdem können Antriebsfehler sämtlicher Komponenten korrigiert werden.
  • [AUSFÜHRUNGSFORM 5]
  • Als nächstes wird anhand der 7 und 8 eine Ausführungsform 5 der vorliegenden Erfindung beschrieben. 7 ist ein Konfigurationsdiagramm einer Fertigungsvorrichtung für ein optisches Element gemäß dieser Ausführungsform. 8 ist ein Konfigurationsdiagramm einer Fertigungsvorrichtung eines optischen Elements als weiteres Beispiel dieser Ausführungsform. Die Fertigungsvorrichtungen nach den 7 und 8 verarbeiten die Objektoberfläche 107a des optischen Elements basierend auf Messdaten, die unter Verwendung des Oberflächenformmessverfahrens einer der Ausführungsformen 1 bis 4 gewonnen werden, um das optische Element herzustellen.
  • Bei der vorliegenden Ausführungsform wird das optische Element durch folgende drei Schritte hergestellt. In einem ersten Schritt wird die Gesamtheit einer Oberflächenform durch das Stitching-Verfahren nach einem der Ausführungsbeispiele 1 bis 4 vermessen. In einem zweiten Schritt werden revidierte Verarbeitungsdaten basierend auf einer Differenz zwischen den Messdaten und einer idealen Bearbeitungsform erstellt. In einem dritten Schritt erfolgt die revidierte Verarbeitung mit Hilfe einer Bearbeitungsvorrichtung basierend auf den revidierten Bearbeitungsdaten. Ein Wiederholen der obigen drei Schritte solange, bis eine geforderte Genauigkeit erreicht ist, liefert ein optisches Element wie zum Beispiel eine Linse mit großem Durchmesser, das eine hohe Genauigkeit aufweist, die sich mit herkömmlicher Technologie nicht so leicht fertigen ließe.
  • In 7 bezeichnet Bezugszeichen 701 einen Computer (eine Informationsverarbeitungsvorrichtung), Bezugszeichen 702 bezeichnet einen Antrieb für eine Messbühne oder dergleichen, und Bezugszeichen 703 bezeichnet ein Werkzeug wie beispielsweise eine Polierplatte, die das optische Element kontaktiert, um eine Form des optischen Elements zu bearbeiten. Bezugszeichen 704 bezeichnet das optische Element, zum Beispiel eine Linse, und 705 bezeichnet ein Werkzeug, welches das optische Elemente 704 fixiert, während Bezugszeichen 706 einen Antrieb bezeichnet, der das Werkzeug 705 fixieren kann.
  • Der Computer 701 liest die Messdaten, die mit Hilfe des Oberflächenformmessverfahrens nach einem der Ausführungsbeispiele 1 bis 4 ermittelt wurden, und er berechnet die Differenz gegenüber der idealen bearbeiteten Form basierend auf den Messdaten, um Verarbeitungsdaten zu generieren. Abhängig von den Bearbeitungsdaten sendet der Computer 701 einen Befehl, der eine Position oder eine Neigung des Werkzeugs 703 vorgibt, an den Antrieb 702 oder den Antrieb 706. Das Ändern der relativen Position zwischen dem Werkzeug 703 und dem optischen Element 704, während eine Bearbeitungsfläche des Werkzeugs 703 die zu bearbeitende Oberfläche des optischen Elements 704 berührt, ermöglicht die Bearbeitung der Oberflächenform des optischen Elements 704.
  • In 8 bezeichnet Bezugszeichen 801 einen Computer (eine Informationsverarbeitungsvorrichtung), 802 einen Antrieb für eine Bühne oder dergleichen, welche eine Position oder eine Neigung eines Verarbeitungsteils einjustiert, 803 ein Werkzeug, das das optische Element berührt, um eine Form des optischen Elements lokal zu verarbeiten, 804 ein optisches Element beispielsweise eine Linse, 805 ein Werkzeug zum Fixieren des optischen Elements 804, und 806 einen Antrieb oder Antrieb, der in der Lage ist, das Werkzeug 805 zu fixieren.
  • Der Computer 801 generiert die Verarbeitungsdaten ähnlich wie gemäß 7. Abhängig von den Verarbeitungsdaten sendet der Computer 801 einen Befehl an den Antrieb 802 oder den Antrieb 806, um eine Position oder eine Neigung des Werkzeugs 803 einzustellen. Eine Änderung der Relativposititon zwischen dem Werkzeug 803 und dem optischen Element 804, während ein Bearbeitungsbereich des Werkzeugs 803 einen zu bearbeitenden Bereich des optischen Elements 804 berührt, kann die Oberflächenform des optischen Elements 704 lokal bearbeiten.
  • Gemäß jedem der oben beschriebenen Ausführungsbeispiele lässt sich eine Oberflächenform-Messvorrichtung sowie ein Oberflächenformmessverfahren zum Messen einer Oberflächenform einer optischen Wellenfront oder eines optischen Elements mit großem Durchmesser (ein Messobjekt), die bzw. das einen Messbereich eines Sensors überschreitet, für hohe Genauigkeit einfach und bei geringen Kosten bereitstellen. In anderen Worten: das Korrigieren eines durch die Relativbewegung zwischen dem Objekt und dem Sensor vor Ausführen der Verknüpfung entstehenden Fehlers ermöglicht das Messen der Oberflächenform des Objekts mit hoher Genauigkeit. Zusätzlich lassen sich ein Computerprogramm, das die Informationsverarbeitungsvorrichtung veranlasst, das Oberflächenformmessverfahren für jede der oben beschriebenen Ausführungsformen auszuführen, ein nichtflüchtiges, computer-lesbares Speichermedium, das das Computerprogramm zum Veranlassen einer Informationsverarbeitungsvorrichtung, das Oberflächenformmessverfahren auszuführen, ein optisches Element, das unter Verwendung des Oberflächenformmessverfahrens mit hoher Genauigkeit gefertigt wird, und ein Verfahren zum Fertigen eines hochgenauen optischen Elements geschaffen.
  • Während die vorliegende Erfindung unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben wurde, versteht sich, dass die Erfindung nicht beschränkt ist auf die offenbarten beispielhaften Ausführungsformen.
  • Bei jeder der oben beschriebenen Ausführungsformen dient eine Linse als ein Objekt (Messobjekt), allerdings ist die Ausführungsform nicht hierauf beschränkt, sondern kann auch angewendet werden auf einen Spiegel, eine Form oder ein anderes Objekt, welches eine ähnliche Form wie eine Linse aufweist.

Claims (16)

  1. Oberflächenformmessverfahren um die Oberflächenform eines Objekts (107) zu messen, umfassend folgende Schritte: Unterteilen der Oberflächenform des Objekts in mehrere Teilzonen (201, 202, 203, 204); Ermitteln von Teilzonendaten bezüglich der Oberflächenform des Objekts für jede der Teilzonen durch einen Sensor (110); Berechnen von Sensitivitäten der Teilzonendaten in Bezug auf Relativbewegungen zwischen dem Objekt und dem Sensor für die Teilzonen; Berechnen von Beträgen, die durch die Relativbewegung erzeugten Fehlern entsprechen, unter Verwendung der Sensitivitäten; Korrigieren der Teilzonendaten unter Verwendung der den Fehlern entsprechenden Beträge; und Zusammenheften der korrigierten Teilzonendaten, um die Oberflächenform des Objekts zu bestimmen.
  2. Oberflächenformmessverfahren nach Anspruch 1, bei dem jede der Sensitivitäten eine Sensitivität einer Wellenfrontneigungsverteilung auf dem Sensor bezüglich eines Antriebsfehlers des Sensors ist.
  3. Oberflächenformmessverfahren nach Anspruch 1 oder 2, bei dem eine Wellenfront oder eine Wellenfrontneigungsverteilung von Licht aus einer Objektoberfläche (107a) des Objekts über ein optisches System (102, 103, 104, 105, 109) gemessen wird, in welchem eine konjugierte Ebene bezüglich des Sensors und die Objektoberfläche zusammenfallen, und die Teilzonendaten berechnet werden unter Verwendung einer Positionsvergrößerungsverteilung in der konjugierten Ebene des Sensors oder sowohl der Positionsvergrößerungsverteilung als auch einer Winkelvergrößerungsverteilung.
  4. Oberflächenformmessverfahren nach Anspruch 3, bei dem die Teilzonendaten berechnet werden durch Ausführen einer Strahlverfolgungsberechnung aus der konjugierten Ebene zu der Objektoberfläche, wenn die konjugierte Ebene bezüglich des Sensors und die Objektebene nicht zusammenfallen.
  5. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 4, bei dem jeder der Fehler mindestens einen von Positionsfehlern in X-, Y- und Z-Richtungen und Rotationsfehlern um die X-, Y- und Z-Achsen in Bezug auf das Objekt oder den Sensor enthält.
  6. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 5, bei dem jede der Sensitivitäten berechnet wird, indem Daten ermittelt werden, gewonnen durch relatives Bewegen des Objekts oder des Sensors um einen vorbestimmten Betrag, und Daten, die gewonnen werden, wenn das Objekt und der Sensor nicht relativ zueinander bewegt werden.
  7. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 6, bei dem jede der Sensitivitäten berechnet wird durch Ausführen einer Strahlverfolgungsberechnung unter Verwendung von Designwerten einer Objektoberfläche (107a) und eines optischen Systems (102, 103, 104, 105, 109).
  8. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 6, bei dem jede der Sensitivitäten berechnet wird unter Verwendung eines Messwerts, der erhalten wird durch relatives Bewegen des Objekts oder des Sensors.
  9. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 6, bei dem jede der Sensitivitäten berechnet wird durch Addieren des Fehlers in einem Computer.
  10. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 6, bei dem jede der Sensitivitäten berechnet wird in Kombination mit mindestens zwei der folgenden Schritte: Ausführen einer Strahlverfolgungsberechnung unter Verwendung von Designwerten einer Objektoberfläche und eines optischen Systems, Verwenden eines Messwerts, der erhalten wird durch relatives Bewegen des Objekts oder des Sensors, und Addieren des Fehlers in einem Computer.
  11. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 10, bei dem die Teilzonendaten ermittelt werden durch Schaffen einer Überlappungszone aus zwei einander benachbarten Teilzonen der mehreren Teilzonen, und wobei die den Fehlern entsprechenden Beträge berechnet werden unter Verwendung der Sensitivitäten in der Weise, dass ein Fehler im Überlappungsbereich minimiert wird.
  12. Oberflächenformmessverfahren nach einem der Ansprüche 1 bis 11, bei dem Teilzonendaten bezüglich einer Objektoberfläche des Objekts unter Verwendung von Teilzonendaten in Bezug auf eine vorbestimmte Referenzfläche kalibriert werden.
  13. Oberflächenform-Messvorrichtung, die eine Oberflächenform eines Objekts (107) misst, umfassend: einen Sensor, konfiguriert zum Empfangen reflektierten Lichts, das durch Beleuchtungslicht erhalten wird, das über ein optisches System (102, 103, 104, 105, 109) auf das Objekt fällt; und einen Prozessor (112), wobei der Prozessor konfiguriert ist, um die Schritte des Verfahrens nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Computerprogramm, das bei Ausführung auf einer Informationsverarbeitungsvorrichtung (701, 801) diese dazu veranlasst, die Ausführung der Schritte des Verfahrens nach einem der Ansprüche 1 bis 12 zu steuern.
  15. Nicht-flüchtiges, computer-lesbares Speichermedium, das das Computerprogramm nach Anspruch 14 speichert.
  16. Verfahren zum Fertigen eines optischen Elements (704, 804), welches gefertigt wird durch Verarbeiten einer Objektoberfläche (107a) des Objekts basierend auf Messdaten, die gewonnen werden unter Verwendung des Oberflächenformmessverfahrens nach einem der Ansprüche 1 bis 12.
DE102013001948.6A 2012-02-07 2013-02-04 Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements Active DE102013001948B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012023974A JP5971965B2 (ja) 2012-02-07 2012-02-07 面形状計測方法、面形状計測装置、プログラム、および、光学素子の製造方法
JP2012-023974 2012-02-07

Publications (3)

Publication Number Publication Date
DE102013001948A1 DE102013001948A1 (de) 2013-08-08
DE102013001948A8 DE102013001948A8 (de) 2013-11-21
DE102013001948B4 true DE102013001948B4 (de) 2015-08-06

Family

ID=48794727

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013001948.6A Active DE102013001948B4 (de) 2012-02-07 2013-02-04 Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements

Country Status (3)

Country Link
US (1) US9239964B2 (de)
JP (1) JP5971965B2 (de)
DE (1) DE102013001948B4 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6494205B2 (ja) * 2013-07-31 2019-04-03 キヤノン株式会社 波面計測方法、形状計測方法、光学素子の製造方法、光学機器の製造方法、プログラム、波面計測装置
KR101552652B1 (ko) * 2013-11-26 2015-09-14 한국표준과학연구원 1차 미분 측정기의 동작 방법
FR3019409B1 (fr) * 2014-03-27 2017-08-11 Centre Nat Rech Scient Installation concentratrice de rayonnement cosmique equipee d'un systeme de controle de surface optique reflechissante
JP6532347B2 (ja) * 2014-08-14 2019-06-19 キヤノン株式会社 形状計測方法および形状計測装置
CN104200215A (zh) * 2014-08-27 2014-12-10 中国工程物理研究院激光聚变研究中心 一种大口径光学元件表面灰尘与麻点识别方法
JP6438251B2 (ja) * 2014-09-19 2018-12-12 キヤノン株式会社 算出方法、プログラム、情報処理装置及び計測装置
JP6418886B2 (ja) * 2014-10-15 2018-11-07 キヤノン株式会社 スロープデータ処理方法、スロープデータ処理装置および計測装置
JP6289353B2 (ja) * 2014-12-09 2018-03-07 三菱電機株式会社 波面収差計測装置
JP6685741B2 (ja) 2015-02-16 2020-04-22 キヤノン株式会社 形状計測方法、形状計測装置、プログラム、記録媒体及び光学素子の製造方法
JP6558975B2 (ja) * 2015-06-22 2019-08-14 キヤノン株式会社 形状計測方法、形状計測装置および形状計測プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030016A (ja) * 2004-07-16 2006-02-02 Nikon Corp 波面収差測定装置の校正方法、波面収差測定方法、波面収差測定装置、投影光学系の製造方法、投影光学系、投影露光装置の製造方法、投影露光装置、マイクロデバイスの製造方法、及びマイクロデバイス
US20110119011A1 (en) * 2009-11-19 2011-05-19 Canon Kabushiki Kaisha Apparatus for measuring shape of test surface, and recording medium storing program for calculating shape of test surface
US20120013916A1 (en) * 2010-07-15 2012-01-19 Canon Kabushiki Kaisha Measurement method for measuring shape of test surface, measurement apparatus, and method for manufacturing optical element

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5604583A (en) * 1995-03-20 1997-02-18 Bausch & Lomb Incorporated Computer vision inspection station
JP3309743B2 (ja) * 1996-11-27 2002-07-29 富士ゼロックス株式会社 形状測定方法及び装置
EP1028456A4 (de) * 1997-09-19 2003-03-05 Nikon Corp Trägervorrichtung, abtast-ausrichter und abtastbelichtungsverfahren, und ein dadurch hergestelltes bauteil
US6781700B2 (en) * 2001-06-20 2004-08-24 Kuechel Michael Scanning interferometer for aspheric surfaces and wavefronts
US6972849B2 (en) * 2001-07-09 2005-12-06 Kuechel Michael Scanning interferometer for aspheric surfaces and wavefronts
DE10144244A1 (de) * 2001-09-05 2003-03-20 Zeiss Carl Zoom-System, insbesondere für eine Beleuchtungseinrichtung
DE102004046542A1 (de) * 2004-09-21 2006-03-23 Carl Zeiss Smt Ag Verfahren und Vorrichtung zur Einstellung optischer Abbildungseigenschaften durch Strahlungsbehandlung
US7605926B1 (en) * 2005-09-21 2009-10-20 Carl Zeiss Smt Ag Optical system, method of manufacturing an optical system and method of manufacturing an optical element
KR101634893B1 (ko) * 2006-08-31 2016-06-29 가부시키가이샤 니콘 이동체 구동 방법 및 이동체 구동 시스템, 패턴 형성 방법 및 장치, 노광 방법 및 장치, 그리고 디바이스 제조 방법
WO2009006919A1 (en) * 2007-07-09 2009-01-15 Carl Zeiss Smt Ag Method of measuring a deviation an optical surface from a target shape
JP5353708B2 (ja) * 2007-11-19 2013-11-27 株式会社ニコン 干渉計
US8244066B2 (en) * 2008-03-24 2012-08-14 The Aerospace Corporation Adaptive membrane shape deformation system
JP2010133860A (ja) * 2008-12-05 2010-06-17 Canon Inc 形状算出方法
JP2010192470A (ja) * 2009-02-13 2010-09-02 Canon Inc 計測装置、露光装置及びデバイスの製造方法
JP5406623B2 (ja) * 2009-08-10 2014-02-05 キヤノン株式会社 計測装置、露光装置及びデバイスの製造方法
JP2011040547A (ja) * 2009-08-10 2011-02-24 Canon Inc 計測装置、露光装置及びデバイスの製造方法
US20110075120A1 (en) * 2009-09-30 2011-03-31 Nikon Corporation Exposure apparatus, exposure method, and device manufacturing method
JP5591063B2 (ja) * 2009-11-12 2014-09-17 キヤノン株式会社 測定方法及び測定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030016A (ja) * 2004-07-16 2006-02-02 Nikon Corp 波面収差測定装置の校正方法、波面収差測定方法、波面収差測定装置、投影光学系の製造方法、投影光学系、投影露光装置の製造方法、投影露光装置、マイクロデバイスの製造方法、及びマイクロデバイス
US20110119011A1 (en) * 2009-11-19 2011-05-19 Canon Kabushiki Kaisha Apparatus for measuring shape of test surface, and recording medium storing program for calculating shape of test surface
US20120013916A1 (en) * 2010-07-15 2012-01-19 Canon Kabushiki Kaisha Measurement method for measuring shape of test surface, measurement apparatus, and method for manufacturing optical element

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. Floriot, X. Levecq, S. Bucourt, M. Thomasset, F. Polack, M. Idir, P. Mercére, S. Brochet, T. Moreno: Surface metrology with a stitching Shack-Hartmann profilometric head, in: Proc. of SPIE Vol. 6616, 66162A (2007)
J. Floriot, X. Levecq, S. Bucourt, M. Thomasset, F. Polack, M. Idir, P. Mercére, S. Brochet, T. Moreno: Surface metrology with a stitching Shack-Hartmann profilometric head, in: Proc. of SPIE Vol. 6616, 66162A (2007) *
J. Pfund, N. Lindlein, J. Schwider: NonNull testing of rotationally symmetric aspheres: a systematic error assessment, in: App.Opt.40 (2001), S.439-446 *

Also Published As

Publication number Publication date
US9239964B2 (en) 2016-01-19
JP2013160680A (ja) 2013-08-19
JP5971965B2 (ja) 2016-08-17
DE102013001948A1 (de) 2013-08-08
DE102013001948A8 (de) 2013-11-21
US20130202215A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
DE102013001948B4 (de) Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements
EP1631809B1 (de) Verfahren zur bestimmung der abbildungsgüte eines optischen abbildungssystems
DE112013002773B4 (de) Verfahren zum Einstellen eines kompensierenden Optiksystems und kompensierendes Optiksystem
EP2458363B1 (de) Messung der Positionen von Krümmungsmittelpunkten optischer Flächen eines mehrlinsigen optischen Systems
DE112009005390B4 (de) Vorrichtung, bearbeitungsverfahren und programm zum berechnen der form einer testoberfläche
DE102015206448B4 (de) Steuerungsvorrichtung zur Steuerung mindestens eines Manipulators eines Projektionsobjektives, Justieranlage und Verfahren zum Steuern mindestens eines Manipulators
DE102013004043B4 (de) Messverfahren für eine asphärische Oberfläche, Messvorrichtung für eine asphärische Oberfläche, Fertigungsvorrichtung für ein optisches Element und optisches Element
EP3058414B1 (de) Scanmikroskop und verfahren zum bestimmung der punkt-spreiz-funktion (psf) eines scanmikroskops
EP3143367B1 (de) Verfahren zur kalibrierung eines messgerätes
DE102013203883A1 (de) Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element
DE102014201779A1 (de) Strahlpropagationskamera und Verfahren zur Lichtstrahlanalyse
EP3680718A2 (de) Steuerungsvorrichtung und verfahren zur steuerung eines manipulators bezüglich einer projektionsbelichtungsanlage für die mikrolithographie
DE102021205541A1 (de) Verfahren zur Bestimmung einer Abbildungsqualität eines optischen Systems bei Beleuchtung mit Beleuchtungslicht innerhalb einer zu vermessenden Eintrittspupille
DE102016212464A1 (de) Messvorrichtung zum Bestimmen eines Wellenfrontfehlers
DE69803044T2 (de) Optisches gerät zur kontaktlosen messung des abstandes zu einer lichtquelle
WO2005124274A2 (de) Kalibrierverfahren, messverfahren, optische messvorrichtung und betriebsverfahren für eine senderanordnung
WO2024184832A1 (de) Verfahren und anordnung zur kompensation nicht-geometrischer fehlereinflüsse auf eine roboterabsolutgenauigkeit mittels eines laser-sensor-systems
WO2017060296A2 (de) Verfahren und vorrichtung zur strahlanalyse
DE102014114864B4 (de) Verfahren und Vorrichtung zum Ermitteln eines lateralen Versatzes eines Musters auf einem Substrat relativ zu einer Sollposition
DE102006021965A1 (de) Kalibrierverfahren, Verwendung und Messvorrichtung
EP2525188A1 (de) Justage einer zu prüfenden optischen Fläche in einer Prüfvorrichtung
DE112015006198T5 (de) Wellenfrontmessvorrichtung und wellenfrontmessverfahren
EP4067809A2 (de) Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
DE102016206144A1 (de) Positionsmessanordnung und Verfahren zum Betrieb einer Positionsmessanordnung
DE102017203084B4 (de) Verfahren zur Ermittlung von Korrekturdaten zur Korrektur von temperaturabhängigen Messdaten eines optischen Sensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: WESER & KOLLEGEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final