DE102013203883B4 - Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element - Google Patents

Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element Download PDF

Info

Publication number
DE102013203883B4
DE102013203883B4 DE102013203883.6A DE102013203883A DE102013203883B4 DE 102013203883 B4 DE102013203883 B4 DE 102013203883B4 DE 102013203883 A DE102013203883 A DE 102013203883A DE 102013203883 B4 DE102013203883 B4 DE 102013203883B4
Authority
DE
Germany
Prior art keywords
light
wavefront
receiving sensor
measuring
aspherical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013203883.6A
Other languages
English (en)
Other versions
DE102013203883A1 (de
Inventor
Yumiko Osaki
Yoshiki Maeda
Yasunori Furukawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102013203883A1 publication Critical patent/DE102013203883A1/de
Application granted granted Critical
Publication of DE102013203883B4 publication Critical patent/DE102013203883B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/005Testing of reflective surfaces, e.g. mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0271Testing optical properties by measuring geometrical properties or aberrations by using interferometric methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration

Abstract

Verfahren zum Messen eines Profils einer asphärischen Messgegenstandsoberfläche (7a) unter Verwendung einer Abgabe von einem lichtempfangenden Sensor (11), zu dem durch ein optisches System (4, 5, 9) ein auf die asphärische Messgegenstandsoberfläche projiziertes und durch diese reflektiertes Messlicht eingebracht wird, wobei das Verfahren gekennzeichnet ist durch: einen Schritt (A-1), eine asphärische Bezugsoberfläche (6a) bereitzustellen, deren Profil gemessen wurde; einen Schritt (A-3), (a) eine Positionsvergrößerungsverteilung zu berechnen, die ein Positionsverhältnis von Strahlen eines Bezugslichts zeigt, das auf die asphärische Bezugsoberfläche projiziert und von dieser reflektiert wird, und das durch das optische System in den lichtempfangenden Sensor eingebracht wird, zwischen Positionen auf dem lichtempfangenden Sensor und auf einer dem Sensor zugeordneten Oberfläche, die ein zugeordnetes Verhältnis mit dem lichtempfangenden Sensor aufweist, der durch das optische System bereitgestellt ist, und (b) eine Winkelvergrößerungsverteilung zu berechnen, die ein Winkelverhältnis der Strahlen des Bezugslichts zwischen Winkeln auf dem lichtempfangenden Sensor und auf der dem Sensor zugeordneten Oberfläche zeigt; einen Schritt (B-2), eine erste Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (A-2), eine zweite Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor durch Verwendung von Parametern des optischen Systems zu berechnen; einen Kalibrierungsschritt (B-4), zumindest zwei bewegliche Elemente unter einem Teil des optischen Systems, die asphärische Bezugsoberfläche und den lichtempfangenden Sensor derart zu bewegen, dass ein Unterschied zwischen drehsymmetrischen Komponenten der ersten und zweiten Wellenfront kleiner als ein vorbestimmter Wert wird; einen Schritt (C-2), nach dem Kalibrierungsschritt eine dritte Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (C-4), nach dem Kalibrierungsschritt eine vierte Wellenfront des Messlichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; und einen Schritt (D-5), das Profil der asphärischen Messgegenstandsoberfläche unter Verwendung der dritten Wellenfront, der vierten Wellenfront, der Positionsvergrößerungsverteilung, der Winkelvergrößerungsverteilung und des Profils der asphärischen Bezugsoberfläche zu berechnen.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Technologie zum Messen eines asphärischen Oberflächenprofils eines optischen Elements wie z. B. einer asphärischen Linse.
  • Beschreibung des Stands der Technik
  • Als ein nicht berührendes Messverfahren zum schnellen Messen eines asphärischen Oberflächenprofils einer asphärischen Linse wurde in Johannes Pfund, Norbert Lindlein und Johannes Schwider, „NonNull testing of rotationally symmetric aspheres: a systematic error assessment” (App.Opt. 40(2001) Seite 439) ein Verfahren vorgeschlagen, welches ein eine sphärische Wellenfront aufweisendes Licht durch ein optisches System auf eine asphärische Oberfläche als Messgegenstandsoberfläche projiziert und unter Verwendung eines Shack-Hartmann Sensors, der als lichtempfangender Sensor bereitgestellt ist, ein durch die Messgegenstandsoberfläche reflektiertes Messlicht misst. Dieses Messverfahren weist einen Vorteil auf, dass es in der Lage ist, Profile von verschiedentlich gestalteten Messgegenstandsoberflächen zu messen, im Vergleich zu einem Interferometer, das eine Nulllinse verwendet, das in der JP H09-329427 A offenbart ist. Darüber hinaus weist dieses Messverfahren ebenfalls den Vorteil auf, dass im Vergleich zu einem Stitching-Interferometer, das in der JP 2004-125768 A offenbart ist, das eine Probe während des Messens bewegt, und einem Abtastinterferometer, das in der JP 3971747 B offenbart ist, kein Bedarf besteht, ein Stufen- und ein Längsmessgerät zum Bewegen der Probe mit hoher Genauigkeit und ein komplexes Analyseprogramm zu verwenden. In dem Verfahren, das den Shack-Hartmann Sensor einsetzt, das in Johannes Pfund, Norbert Lindlein und Johannes Schwider, „NonNull testing of rotationally symmetric aspheres: a systematic error assessment” (App.Opt. 40(2001) Seite 439) vorgeschlagen ist, reflektiert die Messgegenstandsoberfläche das Messlicht nicht rechtwinklig dazu, und deswegen ist ein Strahlwinkel des reflektierten Messlichts von der Messgegenstandsoberfläche unterschiedlich zu einem Strahlwinkel des Messlichts, das die Messgegenstandsoberfläche erreicht. Folglich wird das reflektierte Messlicht, das in den Lichtaufnahmesensor eindringt, nicht kollimiert, das als Wellenfront erfasst wird, die deutlich unterschiedlich von einer ebenen Wellenfront ist. Somit zeigt die Wellenfront des durch die Messgegenstandsoberfläche reflektierten Messlichts, das durch den Lichtaufnahmesensor gemessen wird, nicht direkt das Profil der Messgegenstandsoberfläche, was unähnlich zu einem Fizeau-Interferometer ist.
  • Die Berechnung des Profils der Messgegenstandsoberfläche aus der gemessenen Wellenfront erfordert eine Positionsvergrößerung (sogenannte Distorsion), die ein Verhältnis von Lateralkoordinaten des Sensors (der Sensoroberfläche) und der Messgegenstandsoberfläche ist, und eine Winkelvergrößerung, die ein Verhältnis von Strahlwinkeln auf der Sensoroberfläche und auf der Messgegenstandsoberfläche ist.
  • Jedoch sind diese Positionsvergrößerung und diese Winkelvergrößerung mit Bezug auf den Abstand von einer optischen Achse nicht konstant, d. h., sie weisen eine Verteilung auf. Die Verteilung ändert sich insbesondere aufgrund eines Fehlers des Krümmungsradius einer in dem optischen System vorhandenen Linse, eines Fehlers einer Position in einer Richtung einer optischen Achse (sogenannter Ausrichtungsfehler), einer sphärischen Aberration und anderen empfindlich. Deswegen ist eine Kalibrierung für die Verteilung erforderlich. Die JP 2000-97663 A , JP H10-281736 A , JP 2006-133059 A und JP 2009-180554 A offenbaren Kalibrierungsverfahren für die Positionsvergrößerungsverteilung.
  • Das in JP 2000-97663 A , JP H10-281736 A , JP 2006-133059 A offenbarte Verfahren führt eine Kalibrierung der Positionsvergrößerungsverteilung durch Bewegen einer Messgegenstandsoberfläche um einen bekannten Abstand und Erfassen einer Änderungsgröße eines gemessenen Werts durch einen Lichtaufnahmesensor mit Bezug auf die Bewegung der Messgegenstandsoberfläche durch. Somit erfordert das Verfahren nicht nur eine Stufe zum Bewegen der Messgegenstandsoberfläche mit hoher Genauigkeit und ein Längenmessgerät zum Messen des Bewegungsabstands mit hoher Genauigkeit, sondern weist ebenfalls eine Schwierigkeit in einer genauen Kalibrierung von sowohl der Positions- wie auch der Winkelvergrößerungsverteilung auf.
  • Darüber hinaus führt das in der JP 2009-180554 A offenbarte Kalibrierungsverfahren eine Kalibrierung der Positionsvergrößerungsverteilung durch Bewegen eines Teils eines optischen Systems eines Interferometers durch. Jedoch führt das Verfahren die Kalibrierung unter Verwendung von Radien von Interferenzstreifen auf einem lichtaufnehmenden Abschnitt als Indikator durch, was ein Problem aufweist, dass die Radien der Interferenzstreifen nicht genau gemessen werden können, da ihr Abstand zu klein ist. Darüber hinaus weist das Verfahren eine Schwierigkeit auf, die Winkelvergrößerungsverteilung genau zu kalibrieren.
  • Die vorliegende Erfindung stellt ein Verfahren zum Messen einer asphärischen Oberfläche, eine Vorrichtung zum Messen einer asphärischen Oberfläche und eine Vorrichtung zum Erzeugen eines optischen Elements bereit, die in der Lage sind, eine Kalibrierung einer Positionsvergrößerungsverteilung und einer Winkelvergrößerungsverteilung sogar dann einfach durchzuführen, falls die Vergrößerungsverteilungen von berechneten (konstruierten) Verteilungen aufgrund eines Fehlers von deren optischen System unterschiedlich sind.
  • Die vorliegende Erfindung in ihrem ersten Gesichtspunkt stellt ein Verfahren zum Messen einer asphärischen Oberfläche bereit, wie es in den Ansprüchen 1 bis definiert ist.
  • Die vorliegende Erfindung in ihrem zweiten Gesichtspunkt stellt eine Vorrichtung zum Messen einer asphärischen Oberfläche bereit, wie sie in den Ansprüchen 6 und 7 definiert ist.
  • Die vorliegende Erfindung in ihrem dritten Gesichtspunkt stellt eine Vorrichtung zum Erzeugen eines optischen Elements nach Anspruch 8 bereit.
  • Die vorliegende Erfindung in ihrem vierten Gesichtspunkt stellt ein optisches Element nach Anspruch 9 bereit.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von beispielhaften Ausführungsformen mit Bezug auf die anhängenden Zeichnungen deutlich.
  • 1 zeigt schematisch eine Konfiguration einer Vorrichtung zum Messen einer asphärischen Oberfläche, die ein Verfahren zum Messen einer Oberfläche verwendet, das eine Ausführungsform 1 der vorliegenden Erfindung ist.
  • 2 ist ein Flussdiagramm, das das Verfahren zum Messen der asphärischen Oberfläche der Ausführungsform 1 (und der Ausführungsform 3) zeigt.
  • 3 ist ein Flussdiagramm, das einen Vorverarbeitungsschritt in der Ausführungsform 1 zeigt.
  • 4 zeigt eine Strahlposition und einen -Winkel.
  • 5 ist ein Flussdiagramm, das einen Kalibrierungsschritt in der Ausführungsform 1 zeigt.
  • 6 ist ein Flussdiagramm, das einen Messschritt in der Ausführungsform 1 zeigt.
  • 7 ist ein Flussdiagramm, das einen Analyseschritt in der Ausführungsform 1 zeigt.
  • 8 zeigt schematisch eine Konfiguration einer Vorrichtung zum Messen einer asphärischen Oberfläche unter Verwendung eines Verfahrens zum Messen einer asphärischen Oberfläche, das die Ausführungsform 4 der vorliegenden Erfindung ist.
  • 9 zeigt schematisch eine Konfiguration einer Vorrichtung zum Erzeugen eines optischen Elements, das die Ausführungsform 5 der vorliegenden Erfindung ist.
  • Ausführungsformen der vorliegenden Erfindung werden im Folgenden mit Bezug auf die anhängenden Zeichnungen beschrieben.
  • [Ausführungsform 1]
  • 1 zeigt eine Konfiguration einer Vorrichtung 100 zum Messen einer asphärischen Oberfläche, die konfiguriert ist, eine Messung durch ein Verfahren zum Messen einer asphärischen Oberfläche durchzuführen, das eine erste Ausführungsform (Ausführungsform 1) der vorliegenden Erfindung ist. Die Beschreibung der Position und die Bewegung von jedem der bestimmenden Elemente wird im Folgenden auf Basis eines rechtwinkeligen x-y-z-Koordinatensystems durchgeführt, das in 1 gezeigt ist.
  • In 1 bezeichnet das Bezugszeichen 1 eine Lichtquelle, 2 eine Kondensorlinse, 3 eine Lochblende, 4 einen Halbspiegel und 5 eine projizierende Linse. Bezugszeichen 6 bezeichnet eine Bezugslinse, deren eine Seitenoberfläche eine asphärische Bezugsoberfläche (im Folgenden einfach als „eine Bezugsoberfläche“ bezeichnet) 6a ist, die als Messbezug des Profils (der Form) einer asphärischen Oberfläche eines Messgegenstands dient, die später beschrieben wird. Bezugszeichen 7 bezeichnet eine Messgegenstandslinse als ein optisches Gegenstandselement, dessen eine Seitenoberfläche die asphärische Messgegenstandsoberfläche (im Folgenden einfach als „Messgegenstandsoberfläche“ bezeichnet) 7a als zu messende Oberfläche ist.
  • Bezugszeichen 8 bezeichnet einen Einstellungsbewegungsmechanismus, der die Bezugslinse 6 und die Messgegenstandslinse 7 so bewegt, um eine Position und ein Kippen (Haltung) von jeder aus Bezugslinse 6 und Messgegenstandslinse 7 einzustellen. Bezugszeichen 9 bezeichnet eine Abbildungslinse und 10 einen Linsenbewegungsmechanismus, der die Abbildungslinse 9 in einer Richtung einer optischen Achse (z-Richtung) bewegt. Bezugszeichen 11 bezeichnet einen Lichtaufnahmesensor (im Folgenden einfach als „ein Sensor“ bezeichnet), und 12 einen Sensorbewegungsmechanismus, der den Sensor 11 in der Richtung der optischen Achse bewegt. Bezugszeichen 13 bezeichnet ein Analyseberechnungsgerät, das aus einem Computer bestimmt ist und als ein Vergrößerungsverteilungsberechnungsgerät, ein Wellenfrontmessgerät, ein Wellenfrontberechnungsgerät, ein Kalibriergerät und ein Profilberechnungsgerät dient.
  • Licht (ein Bezugslicht oder ein Messlicht) von der Lichtquelle 1 wird durch die Kondensorlinse 2 zu der Lochblende 3 verdichtet. Eine Kugelwelle von der Lochblende 3 wird durch den Halbspiegel 4 reflektiert und dann durch die Projektionslinse 5 in konvergentes Licht umgewandelt. Das konvergente Licht wird durch die Bezugsoberfläche 6a oder die Messgegenstandsoberfläche 7a reflektiert und tritt durch die Projektionslinse 5, den Halbspiegel 4 und die Abbildungslinse 9, um in den Sensor 11 einzudringen. Die Projektionslinse 5, der Halbspiegel 4 und die Abbildungslinse 9 bestimmen ein optisches System, welches das durch die Bezugsoberfläche 6a oder die Messgegenstandsoberfläche 7a zu dem Sensor 11 eindringt.
  • Die Lichtquelle 1 ist durch eine Laserquelle oder eine Laserdiode bestimmt und gibt ein monochromes Laserlicht ab. Die Lochblende 3 ist bereitgestellt, um eine Kugelwelle mit einem kleinen Abbildungsfehler zu erzeugen. Anstelle der Lochblende 3 kann eine Einmodenfaser verwendet werden.
  • Die Projektionslinse 5 und die Abbildungslinse 9 sind entsprechend durch eine Vielzahl von Linsenelementen bestimmt. Die Brennweite, der Krümmungsradius und der Durchmesser von jeder aus Projektionslinse 5 und Abbildungslinse 9 und die Vergrößerung der Kombination der Projektionslinse 5 und der Abbildungslinse 9 sind auf Basis eines Durchmessers (Wirkdurchmesser) und eines Krümmungsradius der Messgegenstandsoberfläche 7a und einer Größe (Bereich) einer Lichtaufnahmeoberfläche des Sensors 11 entschieden.
  • Darüber hinaus sind die Projektionslinse 5 und die Abbildungslinse 9 derart konstruiert, das eine Petzvalsumme negativ wird, um die Messgegenstandsoberfläche 7a vorzusehen, die eine konkave Oberfläche und eine Oberfläche (im Folgenden als eine „dem Sensor zugeordnete Oberfläche“ bezeichnet) aufweist, die ein dem Sensor 11 zugeordnetes Verhältnis aufweist, der durch das optische System bereitgestellt ist. Die Verwendung von nur einem optischen System begrenzt einen messbaren asphärischen Profilbereich. Somit erlaubt diese Ausführungsform eine Änderung (Austausch) abhängig von Parametern (Konstruktionswerte) der Messgegenstandsoberfläche 7a wie z. B. dem Wirkdurchmesser, dem Krümmungsradius und der asphärischen Größe von zumindest einer aus Projektionslinse 5 und Abbildungslinse 9.
  • Die Messgegenstandslinse 7 ist an einer Position vorgesehen, an der die Messgegenstandsoberfläche 7a mit der dem Sensor zugeordneten Oberfläche an der optischen Achse zusammenfällt. Das Zusammenfallen der Messgegenstandsoberfläche 7a mit der dem Sensor zugeordneten Oberfläche vermeidet ein Überlappen von Lichtstrahlen (Messlicht), das durch die Messgegenstandsoberfläche 7a auf den Sensor 11 reflektiert wird, was ein genaues Messen der Winkelverteilung der Strahlen ermöglicht.
  • Wie voranstehend erwähnt wurde, ist das Licht als die konvergente Kugelwelle auf die Messgegenstandsoberfläche 7a projiziert. Ein Reflexionswinkel des Lichts hängt von der asphärischen Größe (mit anderen Worten, einer Abweichungsgröße von einer sphärischen Oberfläche) und einem Profilfehler ab; der Reflexionswinkel unterscheidet sich von einem Einfallswinkel zu der Messgegenstandsoberfläche 7a breiter, wenn die asphärische Größe ansteigt.
  • Die Bezugslinse 6 ist eine Linse, die unter Verwendung der gleichen Parameter wie denen der Messgegenstandslinse 7 erzeugt wird. Das Profil der Bezugsoberfläche 6a wird durch eine andere Vorrichtung als die Messvorrichtung dieser Ausführungsform genau gemessen, wie z. B. eine Messvorrichtung der Art mit Messfühler (Fühlstift), und Daten des gemessenen Oberflächenprofils (im Folgenden einfach als „gemessenes Profil“ bezeichnet) werden in dem Analyseberechnungsgerät gespeichert.
  • Der Sensor 11 ist durch ein Mikrolinsenfeld mit einer Menge von fokussierenden Mikrolinsen, die in einer Matrix-Weise angeordnet sind, und einem Bildsensor wir z. B. einem CCD, der allgemein als ein Shack-Hartmannsensor bezeichnet ist, bestimmt. In dem Sensor 11 werden Strahlen (Lichtstrom), die durch das Mikrolinsenfeld durchtreten, durch jede fokussierende Mikrolinse auf dem Bildsensor fokussiert.
  • Der Bildsensor wandelt optische Bilder, die durch die Strahlen der entsprechenden fokussierenden Mikrolinsen ausgebildet sind, fotoelektrisch um, um elektrische Signale abzugeben. Ein Einfallswinkel Ψ des Strahls, der in den Bildsensor eindringt, wird aus einem Erfassungsergebnis eines Unterschieds Δp zwischen einer Position eines Punkts, der durch die Strahlen ausgebildet ist, die durch die fokussierende Mikrolinse fokussiert werden, und einer vorkalibrierten Position, wie z. B. einer Punktposition, wenn die kollimierten Strahlen in den Bildsensor eindringen, berechnet. Der Einfallswinkel Ψ und der Punktpositionsunterschied Δp weisen das folgende Verhältnis auf, in dem f den Abstand zwischen dem Mikrolinsenfeld und dem Bildsensor darstellt: Ψ = atan(Δp/f)
  • Das Durchführen der voran stehend beschriebenen Berechnung an allen fokussierenden Mikrolinsen ermöglicht die Messung der Winkelverteilung der Strahlen, die in den Sensor 11 eindringen (d. h., in den Bildsensor), unter Verwendung der Ausgabe von dem Sensor 11.
  • Der Sensor 11 ist nur notwendig, um eine Wellenfront oder eine Winkelverteilung der Strahlung zu messen, sodass andere Sensoren als der Shack-Hartmann Sensor verwendet werden können, wie z. B. eine Hartmannscheibe, oder eines aus einem Shearing-Interferometer und einem Talbot-Interferometer, die jeweils durch ein Beugungsgitter und einen Bildsensor bestimmt sind.
  • Wenn eine Größe (Durchmesser) der Strahlen, die durch den Sensor 11 empfangen werden, größer als die Fläche der Lichtaufnahmeoberfläche des Sensors 11 ist, kann ein Verfahren eingesetzt werden, das den Sensor 11 in einer Ebene (x-y-Ebene) parallel zu dessen Lichtaufnahmeoberfläche bewegt, die Strahlwinkelverteilung an jeder der Sensorbewegungspositionen misst, und dann Daten der Strahlwinkelverteilung zusammenfügt, die an den entsprechenden Sensorbewegungspositionen gemessen wurden.
  • Um die Messgegenstandsoberfläche 7a in ein Sollprofil zu formen, sollten Seitenkoordinaten, an denen ein Korrekturformprozess an der Messgegenstandsoberfläche 7a durchgeführt werden sollte und eine Korrekturgröße durch den Korrekturformprozess ausgehend von einem Unterschied der Daten des gemessenen Profils, die durch die Messvorrichtung 100 erhalten wurden, von den Daten des Sollprofils berechnet, und der Korrekturformprozess wird durch ein Formteil (Formvorrichtung) einer Vorrichtung zum Erzeugen eines optischen Elements durchgeführt, die später in Ausführungsform 5 beschrieben ist.
  • Da jedoch eine Positionsverteilung (Seitenkoordinaten) der gemessenen Strahlwinkelverteilung eine Positionsverteilung auf dem Sensor 11 ist, erfordert das Korrekturformen die Umwandlung der Positionsverteilung der gemessenen Strahlwinkelverteilung in Koordinaten auf der Messgegenstandsoberfläche 7a. Da außerdem ein Unterschied der Strahlwinkel für die Bezugsoberfläche 6a und die Messgegenstandsoberfläche 7a, die durch den Sensor 11 gemessen wurde, von einem Unterschied der Strahlreflexionswinkel an der Bezugsoberfläche 6a und der Messgegenstandsoberfläche 7a unterschiedlich ist, sollte eine Umwandlung des Winkelunterschieds ebenfalls durchgeführt werden. Somit wandelt diese Ausführungsform eine Strahlpositionsverteilung und die Strahlwinkelverteilung um, die durch den Sensor 11 gemessen werden, in eine Strahlpositionsverteilung und eine Strahlwinkelverteilung auf der dem Sensor zugeordneten Oberfläche unter Verwendung einer Positionsvergrößerungsverteilung und einer Winkelvergrößerungsverteilung um, die im Folgenden beschrieben sind. Dann führt diese Ausführungsform eine Strahlverfolgungsberechnung von der dem Sensor zugeordneten Oberfläche durch und berechnet dabei eine Strahlpositionsverteilung und eine Strahlwinkelverteilung an der Messgegenstandsoberfläche 7a.
  • Als nächstes wird eine Beschreibung von einer Folge eines Messprozesses (asphärisches Messverfahren) unter Verwendung der wie voranstehend konfigurierten Messvorrichtung 100 mit Bezug auf ein in 2 gezeigtes Flussdiagramm gegeben. Dieser Messprozess wird durch das durch einen Computer bestimmte Analyseberechnungsgerät 13 gemäß einem Computerprogramm (Analysesoftware) ausgeführt.
  • Der Messprozess hat die folgenden vier Schritte: einen Vorverarbeitungsschritt A; einen Kalibrierungsschritt (Kalibrierungsprozess) B; einen Messschritt C; und einen Analyseschritt D. Diese Ausführungsform führt den Kalibrierungsschritt unter Verwendung des Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 durch.
  • Zuerst wird mit Bezug auf ein in 3 gezeigtes Flussdiagramm eine Beschreibung des Vorverarbeitungsschritts A gegeben.
  • In dem Schritt A-1 misst der Prozess ein Profil (Oberflächenprofil) der Bezugsoberfläche 6a unter Verwendung einer anderen Messvorrichtung, die in der Lage ist, das Profil der Bezugsoberfläche 6a mit hoher Genauigkeit zu messen, wie z. B. der Messvorrichtung der Art mit Messfühler. Somit stellt der Prozess die Bezugsoberfläche 6a bereit, deren Profil gemessen wurde.
  • In dem Schritt A-2 berechnet der Prozess eine Wellenfront W als zweite Wellenfront an der lichtaufnehmenden Oberfläche (im Folgenden als „eine Sensoroberfläche“ bezeichnet) des Sensors 11, unter Verwendung von Daten von dem gemessenen Profil der Bezugsoberfläche 6a, die durch die Messung in dem Schritt A1 erhalten werden, und den Parametern des optischen Systems dieser Vorrichtung 100.
  • Die Parameter des optischen Systems schließen Krümmungsradien von optischen Elementen, die das optische System bestimmen, wie z. B. Linsen und Spiegel, Brechungsindizes davon und Abständen dazwischen, die ebenfalls Konstruktionswerte (Konstruktionswertdaten) des optischen Systems genannt werden können, ein. Darüber hinaus können die Parameter des optischen Systems Information über eine Wellenfrontaberration und Ähnliches einschließen.
  • Wenn Aberration und Zusammenbaufehler des optischen Systems und Oberflächenprofile der Linsen und Spiegel bekannt oder messbar sind, berechnet der Prozess die Wellenfront W durch Reflektieren dieser Werte auf den Konstruktionswert des optischen Systems. Der Prozess kann die Wellenfront W durch das Messen einer Temperatur eines Objektivtubus, der das optische System oder den Sensor 11 hält, durch das Berechnen aus der gemessenen Temperatur einer Ausdehnungsgröße des Objektivtubus, Abständen unter den optischen Elementen und einem Abstand zwischen dem Sensor 11 und einem optischen System und durch das Reflektieren der berechneten Werte auf den Konstruktionswert des optischen Systems berechnen. Es ist wünschenswert, dass die Wellenfront W durch eine Zernike-Funktion ausgedrückt ist, die eine orthogonale Funktion ist.
  • In dem Schritt A-3 berechnet der Prozess eine Positionsvergrößerungsverteilung α und eine Winkelvergrößerungsverteilung β zwischen der Sensoroberfläche und der dem Sensor zugeordneten Oberfläche, und berechnet einen Einfallsstrahlwinkel η auf die Bezugsoberfläche 6a. Die Positionsvergrößerungsverteilung α zeigt ein Positionsverhältnis von Lichtstrahlen (Bezugslicht), das durch die Bezugsoberfläche 6a zwischen Positionen an der Sensoroberfläche und der dem Sensor zugeordneten Oberfläche reflektiert ist. Die Winkelvergrößerungsverteilung β zeigt ein Winkelverhältnis der durch die Bezugsoberfläche 6a zwischen den Winkeln an der Sensoroberfläche und an der dem Sensor zugeordneten Oberfläche reflektierten Strahlen.
  • Wie insbesondere aus 4 ersichtlich ist, wenn R’ einen Abstand einer Einfallsposition eines Strahls auf der Sensoroberfläche von der optischen Achse darstellt und r’ einen Abstand zu einer Einfallsposition des Strahls auf der dem Sensor zugeordneten Oberfläche von der optischen Achse darstellt, wird die Positionsvergrößerungsverteilung α ausgedrückt wie folgt: r’/R’.
  • Wenn darüber hinaus das Kippen der Bezugsoberfläche 6a um einen kleinen Winkel einen Strahlreflexionswinkel in einer meridionalen Ebene auf der dem Sensor zugeordneten Oberfläche um Δv ändert und einen Strahlreflexionswinkel in einer meridionalen Ebene an der Sensoroberfläche um ΔV ändert, ist die Winkelvergrößerungsverteilung β ausgedrückt wie folgt: ΔV/Δv.
  • In dem Schritt A-4 berechnet der Prozess nach dem Ändern der Positionen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 in der Richtung der optischen Achse (z-Richtung) von deren Konstruktionswerten die Wellenfront W auf der Sensoroberfläche so wie auch in dem Schritt A-2. Dann berechnet der Prozess aus einem Unterschied der Wellenfronten W vor und nach der Positionsänderung (d.h., der Bewegung) der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 die Empfindlichkeit der Wellenfront (im Folgenden als „Wellenfrontempfindlichkeit“ bezeichnet) zu deren Bewegung in der Richtung der optischen Achse und speichert diese in dem Analyseberechnungsgerät 13. In dieser Berechnung weist ein Evaluationsbereich der Wellenfront eine feste Mittelposition und einen festen Radius auf.
  • Als nächstes wird die Beschreibung des Kalibrierungsschritts B mit Bezug auf ein in 5 gezeigtes Flussdiagramm gegeben.
  • In dem Schritt B-1 erlaubt der Prozess die Platzierung der Bezugslinse 6, die die Bezugsoberfläche 6a aufweist, in der Messvorrichtung 100.
  • In dem Schritt B-2 misst der Prozess durch den Sensor 11 eine Wellenfront als eine erste Wellenfront (im Folgenden als „eine gemessene Wellenfront“ bezeichnet) der durch die Bezugsoberfläche 6a reflektierten Strahlen.
  • In dem Schritt B-3 berechnet der Prozess einen Unterschied zwischen der gemessenen Wellenfront, die in dem Schritt B2 erhalten wurde, und der Wellenfront (im Folgenden als „eine berechnete Wellenfront“ bezeichnet) W, die in dem Schritt A2 erhalten wurde und bestimmt, ob der Unterschied kleiner als ein vorbestimmter Wert ist oder nicht, d.h., ob der Unterschied ausreichend klein ist. In diesem Schritt stellt der Prozess die Position der Bezugslinse 6 (d.h., der Bezugsoberfläche 6a) in der x-y-Ebene rechtwinklig zu der optischen Achse und eine Neigung der Bezugslinse 6 mit Bezug auf die x-y-Ebene durch den Einstellungsbewegungsmechanismus 8 derart ein, dass Unterschiede zwischen den Neigekomponenten und zwischen Komakomponenten der gemessenen Wellenfront und der berechneten Wellenfront W ausreichend klein werden.
  • Darüber hinaus stellt der Prozess die Position der Bezugsoberfläche 6a (d.h. der Bezugslinse 6) in der Richtung der optischen Achse (z-Richtung) derart ein, dass die sphärischen Komponenten (drehsymmetrische Komponenten) der gemessenen Wellenfront und der berechneten Wellenfront, d.h., die Terme der sphärischen Komponenten (sphärische Terme) Z4, Z9, Z16, Z25, ..., der Zernike-Funktion einen (ausreichend) kleineren Unterschied als ein vorbestimmter Wert aufweisen. Wenn jedoch das optische System mit dem Halbspiegel 4, der Projektionslinse 5 und der Abbildungslinse 9 einen Fehler einschließt, wird der Unterschied der sphärischen Komponenten der Wellenfronten nur durch die Positionseinstellung der Bezugsoberfläche 6a in der Richtung der optischen Achse nicht ausreichend klein.
  • Ein Zusammenfallen der gemessenen Wellenfront mit der berechneten Wellenfront W ermöglicht eine Platzierung der Bezugsoberfläche 6a an der Position der dem Sensor zugeordneten Oberfläche und resultiert darin, dass die Positionsvergrößerungsverteilung α und die Winkelvergrößerungsverteilung β der Messvorrichtung 100 mit der berechneten Positionsvergrößerungsverteilung und der berechneten Winkelvergrößerungsverteilung zusammenfällt, die in dem Schritt A3 erhalten wurde.
  • Der Kalibrierungsschritt B wird nach dem Zusammenbau der Messvorrichtung 100 an einer Initialausrichtung durchgeführt, wenn ein Spalt von dem Konstruktionswert sich aufgrund des Fehlers des optischen Systems erhöht, der durch eine Umgebungsvariation des Luftdrucks, der Temperatur, der Feuchtigkeit und Anderen sich erhöht oder wenn ein Messgegenstand (konstruiertes Profil der Messgegenstandsoberfläche) geändert wird.
  • Somit beendet der Prozess den Kalibrierungsschritt B, falls der Unterschied zwischen der gemessenen Wellenfront und der berechneten Wellenfront W ausreichend klein ist, und schreitet dann zu dem Schritt B-4 voran.
  • An dem Schritt B-4 berechnet der Prozess aus der Wellenfrontempfindlichkeit zu der Bewegung der Bezugslinse 6, der Abbildungslinse 9 und dem Sensor 11, die in dem Schritt A-4 berechnet wurden, Bewegungsgrößen davon derart, dass ein Unterschied zwischen den sphärischen Komponenten der gemessenen Wellenfront und der berechneten Wellenfront kleiner als der vorbestimmte Wert ist (erwünschterweise wird der Unterschied ein Minimum). Insbesondere werden die Bewegungsgrößen berechnet, wie folgt.
  • Wenn die Unterschiede der Wellenfronten vor und nach den Bewegungen der Bezugslinse 6, der Abbildungslinse 9 und dem Sensor 11, die in dem Schritt A-4 berechnet wurden, entsprechend durch ΔW1, ΔW2 und ΔW3 dargestellt sind, werden die Unterschiede ΔW1, ΔW2 und ΔW3 entsprechend durch die folgenden Ausdrücke (1), (2) und (3) ausgedrückt. Wenn darüber hinaus der Unterschied zwischen der gemessenen Wellenfront, der an dem Schritt B-2 erhalten wurde, und der berechneten Wellenfront W, der an dem Schritt A-2 erhalten wurde, durch ΔW dargestellt ist, wird der Unterschied ΔW durch den folgenden Ausdruck (4) ausgedrückt. ΔW1 = a1 × Z4 + a2 × Z9 + a3 × Z16 + ... (1) ΔW2 = b1 × Z4 + b2 × Z9 + b3 × Z16 + ... (2) ΔW3 = c1 × Z4 + c2 × Z9 + c3 × Z16 + ... (3) ΔW = Δ1 × Z4 + Δ2 × Z9 + Δ3 × Z16 + ... (4)
  • In den voranstehenden Ausdrücken repräsentieren Z4, Z9 und Z16 die sphärischen Terme der Zernike-Funktion, die durch den folgenden Ausdruck (5) ausgedrückt sind, in dem h einen Abstand des Sensors 11 von der optischen Achse darstellt, der durch einen Analyseradius normalisiert ist. Darüber hinaus stellen ai, bi, ci und Δi (i = 1, 2, 3, ...) Koeffizienten der Zernike-Funktion dar.
    Figure DE102013203883B4_0002
  • Wenn darüber hinaus der Unterschied zwischen der gemessenen Wellenfront, der durch den Sensor 11 erhalten wird, und der berechneten Wellenfront W nach dem Bewegen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 in der Richtung der optischen Achse entsprechend um D1, D2 und D3 durch ΔW’ dargestellt ist, ist der Unterschied ΔW’ durch den folgenden Ausdruck (6) ausgedrückt: ΔW′ = (Δ1 – a1 × D1 – b1 × D2 – c1 × D3) × Z4 + (Δ2 – a2 × D1 – b2 × D2 – c2 × D3) × Z9 + (Δ3 – a3 × D1 – b3 × D2 – c3 × D3) × Z16 + ... (6)
  • Das Minimieren des Unterschieds ΔW’ erfordert das Minimieren einer Quadratsumme Q der Koeffizienten der entsprechenden Terme der Zernike-Funktion, wie durch den folgenden Ausdruck (7) gezeigt ist: Q = (Δ1 – a1 × D1 – b1 × D2 – c1 × D3)2 + (Δ2 – a2 × D1 – b2 × D2 – c2 × D3)2 + (Δ3 – a3 × D1 – b3 × D2 – c3 × D3)2 + ... (7)
  • Eine Bedingung zum Minimieren der Quadratsumme Q ist, dass jeder der Werte, die durch das Differenzieren der Quadratsumme Q mit Bezug auf D1, D2 und D3 erhalten wird, null wird. Deswegen macht es die Berechnung von D1, D2 und D3, die den folgenden Ausdruck (8) erfüllen, möglich, die Bewegungsgrößen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 bereitzustellen. dQ/dDi = 0 (i = 1, 2, 3) (8)
  • Wenn die Bewegungsgrößen so berechnet werden, um die Quadratsumme Q der Koeffizienten der sphärischen Terme der Zernike-Funktion wie voranstehend zu minimieren, da die Empfindlichkeit der Quadratsumme Q auf die Bewegungen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 niedriger wird, wenn eine Reihenfolge des sphärischen Terms höher wird, (d.h., wenn n von Zn ansteigt), kann eine höchste Reihenfolge des sphärischen Terms unter Verwendung der Berechnung geeignet begrenzt werden. Abhängig von der Konfiguration des optischen Systems ist es oft ausreichend, die Quadratsumme Q des Koeffizienten der vierten, neunten und sechzehnten sphärischen Terme der Zernike-Funktion zu minimieren. Darüber hinaus kann das Bewegen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 dafür sorgen, dass die Koeffizienten Z4, Z9 und Z16 des Unterschieds ΔW zwischen der gemessenen Wellenfront und der berechneten Wellenfront W gleich null sind.
  • Darüber hinaus verwendet die voranstehend beschriebene Berechnung der Bewegungsgrößen die Wellenfrontempfindlichkeit, die in dem Schritt A-4 berechnet wurde. Jedoch kann deren Berechnung unter Verwendung der Wellenfrontempfindlichkeit durchgeführt werden, die von einer Änderungsgröße der gemessenen Wellenfronten vor und nach den Bewegungen der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 in der Richtung der optischen Achse durch die Bewegungsmechanismen 8, 10 und 12 berechnet werden.
  • Obwohl diese Ausführungsform die drei beweglichen Elemente: Die Bezugslinse 6, die Abbildungslinse 9, die einen Teil des optischen Systems und den Sensor 11 bestimmt, ist es zusätzlich nicht notwendig, dass alle diese Elemente bewegt werden. Beliebige zwei (zumindest zwei) der drei beweglichen Elemente können nämlich bewegt werden. Darüber hinaus kann ein anderes Element (z. B. die Projektionslinse 5) als die Bezugslinse 6, die Abbildungslinse 9 und der Sensor 11 ebenfalls mit der Bezugslinse 6, der Abbildungslinse 9 oder dem Sensor 11 bewegt werden. Darüber hinaus kann das bewegliche Element ein Teil (eines oder zwei oder mehr) eine Vielzahl von Linsenelemente sein, dass die Abbildungslinse 9 oder die Projektionslinse 5 bestimmt. Darüber hinaus ermöglicht das Auswählen des bestimmenden Elements, das zu bewegen ist, wie z. B. die Bezugslinse 6, die Abbildungslinse 9 und der Sensor 11, eines das eine große Wellenfrontänderungsgröße für seine Einheitsbewegungsgröße bereitstellt, d.h., eines, das eine hohe Wellenfrontempfindlichkeit aufweist, eine Verringerung von dessen Bewegungsgröße.
  • Darüber hinaus kann als das bestimmende Element, das zu bewegen ist, eines ausgewählt werden, das eine Frequenzkomponente eines Unterschieds zwischen den drehsymmetrischen Komponenten der gemessenen Wellenfront des durch die Bezugsoberfläche 6a reflektierten Lichts vor und nach deren Bewegung gewählt werden, mit anderen Worten, es kann eines gewählt werden, das einen nahezu linearen unabhängigen Unterschied zwischen den Koeffizienten von jedem aus Z4, Z9, Z16, ... der Zernike-Funktion vor und nach dessen Bewegung bereitstellt. Eine derartige Auswahl ermöglicht ebenfalls eine Verringerung der Bewegungsgröße des zu bewegenden bestimmenden Elements. Zusätzlich ermöglicht das Konstruieren des Teils des optischen Systems derart, dass es die voranstehend erwähnte Bedingung für das zu bewegende bestimmende Element im Voraus erfüllt, ebenfalls eine Verringerung von dessen Bewegungsgröße.
  • In dem Schritt B-5 bewegt der Prozess die Bezugslinse 6, die Abbildungslinse 9 und den Sensor 11 durch die in dem Schritt B-4 durch die Bewegungsmechanismen 8, 10 und 12 berechneten Bewegungsgrößen in der Richtung der optischen Achse. Dann kehrt der Prozess zu dem Schritt B-2 zurück, um die Wellenfrontmessung (Schritt B-2), die Unterschiedsbestimmung (Schritt B-3), die Bewegungsgrößenberechnung (Schritt B-4) und die Linsen/Sensorbewegung (Schritt B5) durchzuführen, bis der Unterschied zwischen der gemessenen Wellenfront und der berechneten Wellenfront W ausreichend klein wird.
  • Als nächstes wird die Beschreibung des Messschritts C aus einem in 6 gezeigten Flussdiagramm gegeben. In der folgenden Beschreibung wird die Bezugsoberfläche 6a nach dem voranstehend beschriebenen Kalibrierungsschritt als „eine kalibrierte Referenzoberfläche 6a“ beschrieben.
  • In dem Schritt C-1 passt der Prozess die Position und die Neigung der Bezugslinse 6 durch den Einstellungsbewegungsmechanismus 8 wie auch in dem Schritt B-3 ein.
  • In dem Schritt C-2 misst der Prozess eine Wellenfront (dritte Wellenfront) des durch die kalibrierte Bezugsoberfläche 6a reflektierten Lichts auf der Sensoroberfläche, nämlich eine Strahlwinkelverteilung V1, und speichert Daten der Strahlwinkelverteilung V1 in das Analyseberechnungsgerät 13.
  • In dem Schritt C3 ermöglicht der Prozess ein Entfernen der Bezugslinse 6 und eine Platzierung der Messobjektslinse 7. Dann stellt der Prozess die Position und die Neigung der Messgegenstandslinse 7 durch den Einstellungsbewegungsmechanismus 8 so ein, um einen Unterschied zwischen der Wellenfront des durch die Messgegenstandsoberfläche 7a der Messgegenstandslinse 7 reflektierten Lichts und der Wellenfront des durch die kalibrierte Bezugsoberfläche 6a reflektierten Lichts zu reduzieren, um zu verursachen, dass die Messgegenstandsoberfläche 7a mit der kalibrierten Bezugsoberfläche 6a so weit wie möglich zusammenfällt. In diesem Schritt kann die Positionseinstellung in der Richtung der optischen Achse durch die Messungsmittelpositionen der Bezugsoberfläche 6a und die Messgegenstandsoberfläche 7a unter Verwendung einer anderen (externen) Messvorrichtung derart durchgeführt werden, wie z. B. einer Längenmessvorrichtung oder einem Verdrängungszähler und durch Plazieren der Messgegenstandsoberfläche 7a derart, dass ihre Mittelposition mit der Mittelposition der Bezugsoberfläche 6a zusammenfällt.
  • In dem Schritt C-4 misst der Prozess eine Wellenfront (vierte Wellenfront) des durch die Messgegenstandsoberfläche 7a reflektierten Lichts auf der Sensoroberfläche, nämliche eine Strahlwinkelverteilung V2 und speichert die Daten der Strahlwinkelverteilung V2 in dem Analyseberechnungsgerät 13.
  • Als nächstes wird die Beschreibung des Analyseschritts D mit Bezug auf ein in 7 gezeigtes Flussdiagramm gegeben. In dem Analyseschritt berechnet der Prozess ein Profil (Form) der Messgegenstandsoberfläche 7a unter Verwendung der Strahlwinkelverteilung (V1) entsprechend der Wellenfront (dritte Wellenfront) des durch die kalibrierte Bezugsoberfläche 6a reflektierten Lichts auf dem Sensor 11 (Sensoroberfläche) und die Strahlwinkelverteilung V2 entsprechend der Wellenfront (vierte Wellenfront) des durch die Messgegenstandsoberfläche 7a reflektierten Lichts auf dem Sensor 11 (Sensoroberfläche). In der Berechnung des Profils der Messgegenstandsoberfläche 7a verwendet der Prozess ebenfalls die Positionsvergrößerungsverteilung α, die Winkelvergrößerungsverteilung β und das bekannte (gemessene) Profil der Bezugsoberfläche 6a, das in dem Vorverarbeitungsschritt erhalten wurde.
  • In dem Schritt D-1 unterteilt der Prozess die Strahlwinkelverteilungen V1 und V2, die entsprechend für die Bezugsoberfläche 6a und die Messgegenstandsoberfläche 7a gemessen wurden, durch die Winkelvergrößerungsverteilung β, wie durch den folgenden Ausdruck (9) gezeigt ist, und zählt eine grundsätzliche Strahlwinkelverteilung η zu einem Ergebnis der Division zum Berechnen der Strahlwinkelverteilungen v1 und v2 auf der dem Sensor zugeordneten Oberfläche hinzu. Die grundsätzliche Strahlwinkelverteilung η ist eine Einfallswinkelverteilung von Strahlen, die die Bezugsoberfläche 6a erreichen, wenn die Strahlverfolgungsberechnung unter Verwendung des Konstruktionswertes und parallel zu der optischen Achse (d. h., in einem Strahlwinkel von 0° mit Bezug auf die optische Achse) von dem Sensor 11 durchgeführt wird. vi = Vi/β + η (i = 1, 2) (9)
  • Als nächstes berechnet der Prozess eine Strahlpositionsverteilung r auf der dem Sensor zugeordneten Oberfläche durch das Multiplizieren einer Strahlmesspositionsverteilung Rc auf dem Sensor 11 durch die Positionsvergrößerungsverteilung α, wie durch den folgenden Ausdruck (10) gezeigt ist. Wenn der Sensor 11 durch den Shack-Harmannsensor bestimmt ist, entspricht die Strahlmesspositionsverteilung Rc auf dem Sensor 11 Mittelpositionen der entsprechenden Mikrolinsen des Mikrolinsenfelds, die als Koordinaten auf dem Bildsensor gezeigt sind. Die Strahlmesspositionsverteilung Rc und die Strahlpositionsverteilung r auf der dem Sensor zugeordneten Oberfläche zeigen den Abstand von der optischen Achse, der durch Koordinaten auf der x-y-Ebene ausgedrückt ist, r = α × Rc (10)
  • Als nächstes führt der Prozess in dem Schritt D-2 die Strahlverfolgungsberechnung ausgehend von der Strahlpositionsverteilung r an der dem Sensor zugeordneten Oberfläche und die Strahlwinkelverteilungen v1 und v2 auf der dem Sensor zugeordneten Oberfläche für die Bezugsoberfläche 6a und die Messgegenstandsoberfläche 7a durch, um Schnittpunkte rb1 und rb2 mit der Bezugsoberfläche 6a zu berechnen. Die Schnittpunkte rb1 und rb2 zeigen einen Abstand von der optischen Achse, die durch Koordinaten auf der x-y-Ebene ausgedrückt sind.
  • In dem Schritt D-3 berechneten der Prozess eine Strahlwinkelverteilung v2’ an der Messgegenstandsoberfläche 7a an dem Schnittpunkt rb1 durch Durchführen einer Interpolationsberechnung oder Ähnlichem an der Strahlwinkelverteilung v2 an der Messgegenstandsoberfläche 7a an dem Schnittpunkt rb2. Dann berechnet der Prozess einen Unterschied Δs von Neigungen der Strahlwinkelverteilung v1 für die Bezugsoberfläche 6a und die Strahlwinkelverteilung v2’ für die Messgegenstandsoberfläche 7a, wie durch den folgenden Ausdruck (11) gezeigt ist: Δs = tan(v2’) – tan(v1) (11)
  • Als nächstes integriert in dem Schritt D-4 der Prozess den Neigungsunterschied Δs. Da der Neigungsunterschied Δs ein Wert ist, der durch das Differenzieren des Oberflächenprofilunterschieds zwischen der Bezugsoberfläche 6a und der Messgegenstandsoberfläche 7a erhalten wird, ermöglicht die Integration des Neigungsunterschieds Δs eine Berechnung des Oberflächenprofilunterschieds zwischen der Bezugsoberfläche 6a und der Messgegenstandsoberfläche 7a. Als Algorithmus der Integration kann ein Verfahren (modales Verfahren) eingesetzt werden, das ein Fassen des Neigungsunterschieds unter Verwendung einer Differenzialfunktion einer Basisfunktion durchführt, die Beispiele der Strahlposition Rb1 aufweist, und die Basisfunktion mit durch das Passen erhaltenen Koeffizienten multipliziert.
  • Und ein Verfahren (zonales Verfahren), das die Neigungsunterschiede hinzuzählt, kann ebenfalls eingesetzt werden. Diese Verfahren sind in W.H.Southwell, „Wave-front estimation from wave-front slope measurement“ (J.Opt.Soc.Amr.70, pp998-1006, 1980) beschrieben.
  • In dem Schritt D-5 addiert der Prozess in dem Schritt A1 gemessene Daten von der Bezugsoberfläche 6a zu dem in dem Schritt D4 erhaltenen Oberflächenprofilunterschied hinzu, um das Profil der Messgegenstandsoberfläche 7a zu erhalten.
  • Das Durchführen des Messprozesses der 2, das voranstehend beschrieben wurde, ermöglicht sogar eine berührungslose schnelle Messung des Profils der Messgegenstandsoberfläche 7a mit hoher Genauigkeit, falls das optische System einen Fehler einschließt.
  • Obwohl diese Ausführungsform als Messgegenstandsoberfläche eine Oberfläche einer Linse verwendet, kann die Messgegenstandsoberfläche Oberflächen von anderen Gegenständen wie z. B. eine Oberfläche einer Metallform sein, die ein gleiches Oberflächenprofil wie das der Linsenoberfläche aufweist.
  • [Ausführungsform 2]
  • Als nächstes wird eine Beschreibung einer Vorrichtung zum Messen einer asphärischen Oberfläche gegeben, die konfiguriert ist, eine Messung durch das Verfahren zum Messen einer asphärischen Oberfläche durchzuführen, die eine zweite Ausführungsform (Ausführungsform 2) der vorliegenden Erfindung ist. Obwohl die Ausführungsform 1 den Fall der Bewegung der drei beweglichen Elemente: der Bezugslinse 6, der Abbildungslinse 9 und des Sensors 11 für die Kalibrierung beschrieben hat, bewegt diese Ausführungsform lediglich zwei bewegliche Elemente: Die Bezugslinse 6 und die Abbildungslinse 9 für die Kalibrierung. Das Nichtbewegen des Sensors 11 ermöglicht die Reduktion von einem Bewegungsmechanismus im Vergleich mit der Ausführungsform 1 und macht die Berechnung der Bewegungsgrößen der beweglichen Elemente einfacher.
  • Die Vorrichtung zum Messen der asphärischen Oberfläche dieser Ausführungsform weist eine Konfiguration entsprechend einer auf, in der der Sensorbewegungsmechanismus 12 von der Konfiguration der Messvorrichtung 100 der in 1 gezeigten Ausführungsform 1 entfernt ist. Darüber hinaus unterscheidet sich das Verfahren zum Messen der asphärischen Oberfläche dieser Ausführungsform von dem Messverfahren der Ausführungsform 1 darin, dass der Sensor 11 in dem Schritt A-4 in dem Vorverarbeitungsschritt und in den später beschriebenen Schritten B-4 und B-5 des Kalibrierungsschritts nicht bewegt wird.
  • In dem Schritt B-4 berechnet der Prozess aus der Wellenfrontempfindlichkeit zu der Bewegung der Bezugslinse 6 und der Abbildungslinse 9, die in dem Schritt A-4 berechnet wurde, Bewegungsgrößen davon derart, dass ein Unterschied der sphärischen Komponenten (rotationssymmetrische Komponenten) in einem Unterschied zwischen der gemessenen Wellenfront, die in dem Schritt B-2 erhalten wurde, und der berechneten Wellenfront W, die in dem Schritt A-2 erhalten wurde, minimal wird. Eine bestimmte Beschreibung davon wird im Folgenden mit Ausdrücken gegeben.
  • Wenn Unterschiede der Wellenfronten vor und nach der Bewegung der Bezugslinse 6 und der Abbildungslinse 9, die in dem Schritt A-4 berechnet werden, entsprechend durch ΔW1 und ΔW2 dargestellt sind, werden die Unterschiede ΔW1 und ΔW2 durch die folgenden Ausdrücke (12) und (13) ausgedrückt. Wenn darüber hinaus der Unterschied zwischen der gemessenen Wellenfront, die in dem Schritt B-2 erhalten wurde, und der berechneten Wellenfront W, die in dem Schritt A-2 erhalten wurde, durch ΔW dargestellt ist, wird der Unterschied ΔW durch den folgenden Ausdruck (14) ausgedrückt. ΔW1 = a1 × Z4 + a2 × Z9 + a3 × Z16 + ... (12) ΔW2 = b1 × Z4 + b2 × Z9 + b3 × Z16 + ... (13) ΔW = Δ1 × Z4 + Δ2 × Z9 + Δ3 × Z16 + ... (14)
  • In den voranstehend beschriebenen Ausdrücken sind ai, bi und Δi (i = 1, 2, 3, ...) Koeffizienten der Zernike-Funktion, die durch den Ausdruck (5) gezeigt ist.
  • Wenn darüber hinaus der Unterschied zwischen der gemessenen Wellenfront, die durch den Sensor 11 erhalten wurde, und der berechneten Wellenfront W nach dem Bewegen der Bezugslinse 6 und der Abbildungslinse 9 in der Richtung der optischen Achse entsprechend um D1 und D2 durch ΔW’ dargestellt ist, ist der Unterschied W durch den folgenden Ausdruck (15) ausgedrückt: ΔW’ = (Δ1 – a1 × D1 – b1 × D2) × Z4 + (Δ2 – a2 × D1 – b2 × D2) × Z9 + (Δ3 – a3 × D1 – b3 × D2) × Z16 + ... (15)
  • Das Minimieren des Unterschieds ΔW’ erfordert das Minimieren einer Quadratsumme Q der Koeffizienten der entsprechenden Terme der Zernike-Funktion, wie durch den folgenden Ausdruck (16) gezeigt ist. Q = (Δ1 – a1 × D1 – b1 × D2)2 + (Δ2 – a2 × D1 – b2 × D2)2 +(Δ3 – a3 × D1 – b3 × D2)2 + ... (16)
  • Eine Bedingung zum Minimieren der Quadratsumme Q ist, dass jeder der Werte, die durch das Differenzieren der Quadratsumme Q mit Bezug auf D1 und D2 erhalten wird, null wird. Deswegen macht es die Berechnung von den folgenden Ausdruck (17) erfüllenden D1 und D2 möglich, die Bewegungsgrößen der Bezugslinsen 6 und der Abbildungslinse 9 bereitzustellen. dQ/dDi = 0 (i = 1, 2) (17)
  • Wenn die Bewegungsgrößen so berechnet werden, dass die Quadratsumme Q der Koeffizienten der sphärischen Terme der Zernike-Funktion minimiert sind, wie voranstehend beschrieben wurde, kann, da die Empfindlichkeit der Quadratsumme Q zu den Bewegungen der Bezugslinse 6 und der Abbildungslinse 9 niedriger wird, wenn eine Reihenfolge der sphärischen Terme höher wird (d.h., wenn n von Zn ansteigt), eine höchste Reihenfolge der sphärischen Terme unter Verwendung der Berechnung geeignet begrenzt werden. Somit ist es abhängig von der optischen Systemkonfiguration oft ausreichend, die Quadratsumme Q der Koeffizienten der vierten, neunten und sechzehnten sphärischen Terme der Zernike-Funktion zu minimieren.
  • Darüber hinaus kann die Bewegungsgröße derart berechnet werden, dass die vierten und neunten Terme der Zernike-Funktion minimal (0) werden. Dies ist wirkungsvoll für Problemfälle, in denen, insbesondere für die Terme der Zernike-Funktion der sechzehnten oder einer höheren Ordnung, der Sensor 11 eine niedrige Messgenauigkeit aufweist, oder die Wellenfrontempfindlichkeit mit Bezug auf die Bewegung der Bezugslinse 6 und der Abbildungslinse 9 niedrig ist, und dabei ein Fehler der Bewegungsgröße ansteigt. In dieser Berechnung müssen die Bewegungsgrößen D1 und D2, die durch den folgenden Ausdruck (19) berechnet werden, eine Bedingung erfüllen, die durch den folgenden Ausdruck (18) gezeigt ist. Δ1 – a1 × D1 – b1 × D2 = 0 Δ2 – a2 × D1 – b2 × D2 = 0 (18) D1 = (b2 × Δ1 – b1 × Δ2)/(a1 × b2 – a2× b1) D2 = (–a2 × Δ1 + a1 × Δ2)/(a1 × b2 – a2 × b1) (19)
  • Die voranstehende Berechnung der Bewegungsgrößen verwendet die Wellenfrontempfindlichkeit, die in dem Schritt A-4 berechnet wurde. Jedoch kann deren Berechnung unter Verwendung einer Wellenfrontempfindlichkeit durchgeführt werden, die aus einer Änderungsgröße der gemessenen Wellenfronte vor und nach den Bewegungen der Bezugslinse 6 und der Abbildungslinse 9 in der Richtung der optischen Achse durch die Bewegungsmechanismen 8 und 10 berechnet wurde.
  • Obwohl diese Ausführungsform die Bezugslinse 6 und die Abbildungslinse 9 bewegt, ist darüber hinaus eine Kombination der bestimmenden, zu bewegenden Elemente nicht darauf begrenzt, solange der Unterschied ΔW zwischen der gemessenen Wellenfront und der berechneten Wellenfront W besteht. Zum Beispiel können die Bezugslinse 6 und der Sensor 1 bewegt werden, oder die Abbildungslinse 9 und der Sensor 11 können bewegt werden. Darüber hinaus können zwei Linsenelemente oder Linsengruppen, die die Bezugslinse 6 und die Abbildungslinse 9 bestimmen, als die bestimmenden zu bewegenden Elemente ausgewählt werden, oder zwei der Linsenelemente oder Linsengruppen, die die Abbildungslinse 9 bestimmen, können ausgewählt werden.
  • Das Auswählen als das zu bewegende bestimmende Element von einem, das eine große Änderungsgröße der Wellenfront für seine Einheitsbewegungsgröße erzeugt (d.h., eines, das eine hohe Wellenfrontempfindlichkeit an seiner Bewegung bereitstellt), ermöglicht eine Verringerung von dessen Bewegungsgröße.
  • Zusätzlich kann als das zu bestimmende zu bewegende Element eines ausgewählt werden, das eine Frequenzkomponente eines Unterschieds zwischen den drehsymmetrischen Komponenten der gemessenen Wellenfront des durch die Bezugsoberfläche 6a reflektierten Lichts vor und nach dessen Bewegung ausgewählt werden, mit anderen Worten, es kann eines ausgewählt werden, das einen nahezu linearen unabhängigen Unterschied zwischen den Koeffizienten Z4, Z9, Z16, ... der Zernike-Funktion vor und nach dessen Bewegung bereitstellt. Eine derartige Auswahl ermöglicht ebenfalls eine Verringerung der Bewegungsgröße des zu bewegenden bestimmenden Elements.
  • In dem Schritt B-5 bewegt der Prozess die Bezugslinse 6 und die Abbildungslinse 9 in der Richtung der optischen Achse durch den im Schritt B-4 berechneten Bewegungsgrößen durch den Bewegungsmechanismus 8 und 10. Dann kehrt der Prozess zu dem Schritt B-2 zurück, um die Wellenfrontmessung (Schritt B-2), die Unterschiedsbestimmung (Schritt B-3), die Bewegungsgrößenberechnung (Schritt B-4) und die Linsenbewegung (Schritt B-5) durchzuführen, bis der Unterschied zwischen der gemessenen Wellenfront und der berechneten Wellenfront W ausreichend klein wird.
  • [Ausführungsform 3]
  • Als nächstes wird eine Beschreibung einer Vorrichtung zum Messen einer asphärischen Oberfläche gegeben, die konfiguriert ist, eine Messung durch ein Verfahren zum Messen einer asphärischen Oberfläche durchzuführen, die eine dritte Ausführungsform (Ausführungsform 3) der vorliegenden Erfindung ist. Im Vergleich mit den Ausführungsformen 1 und 2 benötigt diese Ausführungsform den Schritt A-3 in dem Vorverarbeitungsschritt nicht und ändert die Schritte D-1 und D-2 in dem Analyseschritt zu den im folgenden beschriebenen Schritten D'-1 + 2. Die Vorrichtung zum Messen einer asphärischen Oberfläche dieser Ausführungsform weist die gleiche Konfiguration wie die der Vorrichtung 100 zum Messen der asphärischen Oberfläche der Ausführungsform 1 auf, die in 1 gezeigt ist, oder die Vorrichtung zum Messen der asphärischen Oberfläche der Ausführungsform 2.
  • In dem Schritt D'-1 + 2 führt der Prozess nach dem Kalibrierungsschritt eine Strahlverfolgungsberechnung unter Verwendung der Strahlwinkelverteilungen (dritte und vierte Wellenfronten) V1 und V2 durch, die entsprechend für die Bezugsoberfläche 6a und die Messgegenstandsoberfläche 7a gemessen wurde, und die Konstruktionswerte des optischen Systems, um die Schnittpunkte rb1 und rb2 mit der Bezugsoberfläche 6a zu berechnen. Der Prozess verwendet Winkelverteilungen, die durch die Strahlverfolgungsberechnung als Strahlwinkelverteilung v1 auf der Messgegenstandsoberfläche 7a an den Schnittpunkten rb1 und einer Strahlwinkelverteilung v2 auf der Messgegenstandsoberfläche 7a an dem Schnittpunkt rb2 erhalten wurde.
  • Diese Ausführungsform erfordert im Vergleich zu den Ausführungsformen 1 und 2 eine Strahlverfolgungssoftware, die in die Vorrichtung eingebaut ist, und eine Schnittstelle zwischen der Strahlverfolgungssoftware und der Analysesoftware. Jedoch verwendet diese Ausführungsform die Positionsvergrößerungsverteilung α und die Winkelvergrößerungsverteilung β ungleich zu den Ausführungsformen 1 und 2 nicht, und macht es dabei möglich, die Analysesoftware einfacher zu erzeugen.
  • [Ausführungsform 4]
  • Die Beschreibung wird von einem Verfahren zum Messen einer asphärischen Oberfläche gegeben, das in einem Fall angewendet werden kann, in dem die Messgegenstandsoberfläche ausgebildet ist, eine konkave asphärische Form aufzuweisen. 8 zeigt eine Konfiguration einer Vorrichtung 101 zum Messen einer asphärischen Oberfläche, die eine Messung durch das Verfahren zum Messen der asphärischen Oberfläche gemäß dieser Ausführungsform durchführt. Die Verwendung dieser Messvorrichtung 101 ermöglicht die Messung der Messgegenstandsoberfläche wie auch in den Ausführungsformen 1, 2 und 3.
  • In 8 bezeichnet das Bezugszeichen 6' eine Bezugslinse (konkave asphärische Linse), deren eine Seitenoberfläche eine Bezugsoberfläche 6a' ist. Das Bezugszeichen 7' bezeichnet eine Messgegenstandslinse (konkave asphärische Linse), deren eine Seitenoberfläche die Messgegenstandsoberfläche 7a' ist. Andere Bauteile der Messvorrichtung 101 sind die Gleichen wie die der Messvorrichtung 100, die in 1 gezeigt sind.
  • Darüber hinaus führt diese Ausführungsform einen Messprozess mit einem Vorverarbeitungsschritt, einem Kalibrierungsschritt, einem Messschritt und einem Analyseschritt, die die Gleichen sind wie die in den Ausführungsformen 1 bis 3.
  • [Ausführungsform 5]
  • 9 zeigt eine Konfiguration einer Vorrichtung 200 zum Erzeugen eines optischen Elements mit der Vorrichtung 100 zum Messen einer asphärischen Oberfläche, die in der Ausführungsform 1 beschrieben ist. Die Vorrichtung 200 zum Erzeugen des optischen Elements kann die Messvorrichtung verwenden, die in den Ausführungsformen 2 oder 3 beschrieben ist, oder die Messvorrichtung 101 verwenden, die in der Ausführungsform 4 verwendet ist, anstelle der Messvorrichtung 100, die in der Ausführungsform 1 verwendet ist.
  • In 9 bezeichnet das Bezugszeichen 20 ein Material der Messgegenstandslinse 7 und Bezugszeichen 201 bezeichnet eine Formvorrichtung, die an dem Material 20 Formprozesse, wie z.B. Schneiden und Polieren durchführt, um die Messgegenstandslinse 7 als ein optisches Element zu formen.
  • Ein Oberflächenprofil der Messgegenstandsoberfläche 7a der Messgegenstandslinse 7, die durch die Formvorrichtung 201 geformt ist, wird unter Verwendung des Verfahrens zum Messen der asphärischen Oberfläche, das in der Ausführungsform 1 beschrieben ist, in der Vorrichtung 100 zum Messen der asphärischen Oberfläche gemessen. Die Messvorrichtung 100 berechnet, um die Messgegenstandsoberfläche 7a in ein Solloberflächenprofil zu formen, eine Korrekturformgröße für die Messgegenstandsoberfläche 7a ausgehend von einem Unterschied zwischen Daten des gemessenen Profils der Messgegenstandsoberfläche 7a und den Daten des Solloberflächenprofils, und gibt dies zu der Formvorrichtung 201 aus. Somit führt die Formvorrichtung 201 einen Korrekturformprozess unter Verwendung der Korrekturformgröße durch, um die Messgegenstandslinse 7 zu vervollständigen, die die Messgegenstandsoberfläche 7a aufweist, deren Oberflächenprofil mit dem Solloberflächenprofil zusammenfällt.
  • Während die vorliegende Erfindung mit Bezug auf beispielhafte Ausführungsformen beschrieben wurde, versteht sich, dass die Erfindung nicht auf die offenbarten beispielhaften Ausführungsformen begrenzt ist.

Claims (9)

  1. Verfahren zum Messen eines Profils einer asphärischen Messgegenstandsoberfläche (7a) unter Verwendung einer Abgabe von einem lichtempfangenden Sensor (11), zu dem durch ein optisches System (4, 5, 9) ein auf die asphärische Messgegenstandsoberfläche projiziertes und durch diese reflektiertes Messlicht eingebracht wird, wobei das Verfahren gekennzeichnet ist durch: einen Schritt (A-1), eine asphärische Bezugsoberfläche (6a) bereitzustellen, deren Profil gemessen wurde; einen Schritt (A-3), (a) eine Positionsvergrößerungsverteilung zu berechnen, die ein Positionsverhältnis von Strahlen eines Bezugslichts zeigt, das auf die asphärische Bezugsoberfläche projiziert und von dieser reflektiert wird, und das durch das optische System in den lichtempfangenden Sensor eingebracht wird, zwischen Positionen auf dem lichtempfangenden Sensor und auf einer dem Sensor zugeordneten Oberfläche, die ein zugeordnetes Verhältnis mit dem lichtempfangenden Sensor aufweist, der durch das optische System bereitgestellt ist, und (b) eine Winkelvergrößerungsverteilung zu berechnen, die ein Winkelverhältnis der Strahlen des Bezugslichts zwischen Winkeln auf dem lichtempfangenden Sensor und auf der dem Sensor zugeordneten Oberfläche zeigt; einen Schritt (B-2), eine erste Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (A-2), eine zweite Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor durch Verwendung von Parametern des optischen Systems zu berechnen; einen Kalibrierungsschritt (B-4), zumindest zwei bewegliche Elemente unter einem Teil des optischen Systems, die asphärische Bezugsoberfläche und den lichtempfangenden Sensor derart zu bewegen, dass ein Unterschied zwischen drehsymmetrischen Komponenten der ersten und zweiten Wellenfront kleiner als ein vorbestimmter Wert wird; einen Schritt (C-2), nach dem Kalibrierungsschritt eine dritte Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (C-4), nach dem Kalibrierungsschritt eine vierte Wellenfront des Messlichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; und einen Schritt (D-5), das Profil der asphärischen Messgegenstandsoberfläche unter Verwendung der dritten Wellenfront, der vierten Wellenfront, der Positionsvergrößerungsverteilung, der Winkelvergrößerungsverteilung und des Profils der asphärischen Bezugsoberfläche zu berechnen.
  2. Verfahren zum Messen eines Profils einer asphärischen Messgegenstandsoberfläche (7a) unter Verwendung einer Abgabe von einem lichtempfangenden Sensor (11), zu dem durch ein optisches System (4, 5, 9) ein auf die asphärische Messgegenstandsoberfläche projiziertes und durch diese reflektiertes Messlicht eingebracht wird, wobei das Verfahren gekennzeichnet ist durch: einen Schritt (A-1), eine asphärische Bezugsoberfläche (6a) bereitzustellen, deren Profil gemessen wurde; einen Schritt (B-2), eine erste Wellenfront des Bezugslichts, das das durch das optische System auf die asphärische Bezugsoberfläche projiziert und durch diese reflektiert wird, auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (A-2), eine zweite Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung von Parametern des optischen Systems zu berechnen; einen Kalibrierungsschritt (B-4), zumindest zwei bewegliche Elemente unter einem Teil des optischen Systems, die asphärische Bezugsoberfläche und den lichtempfangenden Sensor derart zu bewegen, dass ein Unterschied zwischen drehsymmetrischen Komponenten der ersten und zweiten Wellenfront kleiner als ein vorbestimmter Wert wird; einen Schritt (C-2), nach dem Kalibrierungsschritt eine dritte Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; einen Schritt (C-4), nach dem Kalibrierungsschritt eine vierte Wellenfront des Messlichts auf dem lichtempfangenden Sensor unter Verwendung der Abgabe von dem lichtempfangenden Sensor zu messen; und einen Schritt (D-4), einen Unterschied der Profile des Messgegenstands und der asphärischen Bezugsoberflächen durch eine Strahlverfolgungsberechnung unter Verwendung der dritten Wellenfront, der vierten Wellenfront und der Parameter des optischen Systems zu berechnen.
  3. Verfahren nach Anspruch 1 oder 2, wobei der Kalibrierungsschritt unter dem Teil des optischen Systems, der asphärischen Bezugsoberfläche und dem lichtempfangenden Sensor die zwei beweglichen Elemente auswählt, deren jeweilige Bewegung eine Frequenzkomponente eines Unterschieds zwischen den drehsymmetrischen Komponenten der ersten Wellenfront vor und nach deren Bewegung ändert.
  4. Verfahren nach Anspruch 1 oder 2, wobei der Kalibrierungsschritt unter dem Teil des optischen Systems, der asphärischen Bezugsoberfläche und dem lichtempfangenden Sensor, die zwei beweglichen Elemente wählt, deren jeweilige Bewegung einen größeren Unterschied zwischen den drehsymmetrischen Komponenten der ersten Wellenfront vor und nach deren Bewegung als die bereitstellt, die durch die Bewegung des anderen bereitgestellt ist.
  5. Verfahren nach Anspruch 1 oder 2, wobei der Kalibrierungsschritt einen Unterschied zwischen den Wellenfronten vor und nach der Bewegung der beweglichen Elemente berechnet, und eine Bewegungsgröße von jedem der beweglichen Elemente aus dem berechneten Unterschied berechnet.
  6. Vorrichtung (100, 101) zum Messen einer asphärischen Oberfläche, die konfiguriert ist, ein Profil einer asphärischen Messgegenstandsoberfläche (7a) zu messen, wobei die Vorrichtung Folgendes umfasst: ein optisches System (4, 5, 9); einen lichtempfangenden Sensor (11), zu dem durch das optische System ein auf die asphärische Messgegenstandsoberfläche projiziertes und durch diese reflektiertes Messlicht eingebracht wird; ein Vergrößerungsverteilungsberechnungsgerät (13), das konfiguriert ist, unter Verwendung einer asphärischen Bezugsoberfläche (6a), deren Profil gemessen wurde, (a) eine Positionsvergrößerungsverteilung zu berechnen, die ein Positionsverhältnis von Strahlen eines Bezugslichts, das auf die asphärische Bezugsoberfläche projiziert und von dieser reflektiert und durch das optische System zu dem lichtempfangenden Sensor eingebracht wird, zwischen Positionen auf dem lichtempfangenden Sensor und auf einer dem Sensor zugeordneten Oberfläche, die ein mit dem lichtempfangenden Sensor zugeordnetes Verhältnis aufweist, die durch das optische System bereitgestellt ist, zeigt und (b) eine Winkelvergrößerungsverteilung zu berechnen, die ein Winkelverhältnis der Strahlen des Bezugslichts zwischen Winkeln auf dem lichtempfangenden Sensor und auf der dem Sensor zugeordneten Oberfläche zeigt; ein Wellenfrontmessgerät (13), das konfiguriert ist, eine erste Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung einer Abgabe von dem lichtempfangenden Sensor zu messen; einem Wellenfrontberechnungsgerät (13), das konfiguriert ist, eine zweite Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung von Parametern des optischen Systems zu berechnen; und ein Kalibrierungsgerät (13), das konfiguriert ist, einen Kalibrierungsprozess durchzuführen, und zumindest zwei bewegliche Elemente unter dem Teil des optischen Systems, der asphärischen Bezugsoberfläche und dem lichtempfangenden Sensor derart zu bewegen, dass ein Unterschied zwischen drehsymmetrischen Komponenten der ersten und zweiten Wellenfront kleiner als ein vorbestimmter Wert wird, dadurch gekennzeichnet, dass das Wellenfrontmessgerät konfiguriert ist, nach dem Kalibrierungsprozess unter Verwendung der Abgabe von dem lichtempfangenden Sensor eine dritte Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor und eine vierte Wellenfront des Messlichts auf dem lichtempfangenden Sensor zu messen, und die Vorrichtung außerdem ein Profilberechnungsgerät umfasst, das konfiguriert ist, das Profil der asphärischen Messgegenstandsoberfläche unter Verwendung der dritten Wellenfront, der vierten Wellenfront, der Positionsvergrößerungsverteilung, der Winkelvergrößerungsverteilung und des Profils der asphärischen Bezugsoberfläche zu berechnen.
  7. Vorrichtung (100, 101) zum Messen einer asphärischen Oberfläche, die konfiguriert ist, ein Profil einer asphärischen Messgegenstandsoberfläche (7a) zu messen, wobei die Vorrichtung Folgendes umfasst: ein optisches System (4, 5, 9); einen lichtempfangenden Sensor (11), zu dem durch das optische System ein auf die asphärische Messgegenstandsoberfläche projiziertes und durch diese reflektiertes Messlicht eingebracht wird; ein Wellenfrontmessgerät (13), das konfiguriert ist, unter Verwendung einer asphärischen Bezugsoberfläche (6a), deren Profil gemessen wurde, und der Abgabe von dem lichtempfangenden Sensor eine erste Wellenfront des Bezugslichts, das durch das optische System auf die asphärische Bezugsoberfläche projiziert und von dieser reflektiert wird und zu dem lichtempfangenden Sensor eingebracht wird, auf dem lichtempfangenden Sensor zu messen; ein Wellenfrontberechnungsgerät (13), das konfiguriert ist, eine zweite Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor unter Verwendung von Parametern des optischen Systems zu berechnen; und ein Kalibrierungsgerät (13), das konfiguriert ist, einen Kalibrierungsprozess durchzuführen, und zumindest zwei bewegliche Elemente unter dem Teil des optischen Systems, der asphärischen Bezugsoberfläche und dem lichtempfangenden Sensor derart zu bewegen, dass ein Unterschied zwischen drehsymmetrischen Komponenten der ersten und zweiten Wellenfront kleiner als ein vorbestimmter Wert wird, dadurch gekennzeichnet, dass das Wellenfrontmessgerät konfiguriert ist, nach dem Kalibrierungsprozess unter Verwendung der Abgabe von dem lichtempfangenden Sensor eine dritte Wellenfront des Bezugslichts auf dem lichtempfangenden Sensor und eine vierte Wellenfront des Messlichts auf dem lichtempfangenden Sensor zu messen, und die Vorrichtung außerdem ein Profilberechnungsgerät umfasst, das konfiguriert ist, einen Unterschied der Profile des Messgegenstands und der asphärischen Bezugsoberflächen durch eine Strahlverfolgungsberechnung unter Verwendung der dritten Wellenfront, der vierten Wellenfront und der Parameter des optischen Systems zu berechnen.
  8. Vorrichtung (200) zum Erzeugen eines optischen Elements, gekennzeichnet durch: eine Formvorrichtung (201), die konfiguriert ist, ein optisches Element zu formen; und eine Messvorrichtung (100, 101), die konfiguriert ist, ein Profil einer asphärischen Messgegenstandsoberfläche (7a) des optischen Elements (7) durch ein Verfahren gemäß einem der Ansprüche 1 bis 5 zu messen.
  9. Optisches Element, gekennzeichnet durch: einen Körper des optischen Elements (7); und eine asphärische Oberfläche (7a), die auf dem Körper ausgebildet ist, dadurch gekennzeichnet, dass das optische Element unter Verwendung der Vorrichtung zum Erzeugen eines optischen Elements gemäß Anspruch 8 erzeugt ist.
DE102013203883.6A 2012-03-09 2013-03-07 Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element Active DE102013203883B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012052422A JP6000577B2 (ja) 2012-03-09 2012-03-09 非球面計測方法、非球面計測装置、光学素子加工装置および光学素子の製造方法
JP2012-052422 2012-03-09

Publications (2)

Publication Number Publication Date
DE102013203883A1 DE102013203883A1 (de) 2013-09-12
DE102013203883B4 true DE102013203883B4 (de) 2016-02-04

Family

ID=49029774

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013203883.6A Active DE102013203883B4 (de) 2012-03-09 2013-03-07 Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element

Country Status (3)

Country Link
US (1) US9279667B2 (de)
JP (1) JP6000577B2 (de)
DE (1) DE102013203883B4 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5896792B2 (ja) 2012-03-09 2016-03-30 キヤノン株式会社 非球面計測方法、非球面計測装置および光学素子加工装置
JP6000578B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 非球面計測方法、非球面計測装置、光学素子加工装置および光学素子の製造方法
JP6210832B2 (ja) * 2013-10-09 2017-10-11 キヤノン株式会社 計測方法及び計測装置
KR101552652B1 (ko) 2013-11-26 2015-09-14 한국표준과학연구원 1차 미분 측정기의 동작 방법
JP6508896B2 (ja) * 2014-08-08 2019-05-08 キヤノン株式会社 光波面センサにおける光スポット重心位置取得方法、光波面計測方法およびプログラム
JP6685741B2 (ja) 2015-02-16 2020-04-22 キヤノン株式会社 形状計測方法、形状計測装置、プログラム、記録媒体及び光学素子の製造方法
CN105423948B (zh) * 2015-12-14 2018-10-16 中国科学院长春光学精密机械与物理研究所 采用变形镜的拼接干涉检测非球面面形的装置
RU2667323C1 (ru) * 2017-07-05 2018-09-18 Некоммерческое партнерство "Научный центр "Лазерные информационные технологии" Сокращенное название: НП НЦ "ЛИТ" Способ и устройство дифференциального определения радиуса кривизны крупногабаритных оптических деталей с использованием датчика волнового фронта
FR3077631B1 (fr) * 2018-02-05 2021-01-01 Unity Semiconductor Procede et dispositif d'inspection d'une surface d'un objet comportant des materiaux dissimilaires
CN110579298A (zh) * 2019-10-21 2019-12-17 中南大学 一种基于热平衡条件下的高精度电铸应力在线检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329427A (ja) * 1996-06-07 1997-12-22 Nikon Corp 非球面形状の測定方法
JPH10281736A (ja) * 1997-04-04 1998-10-23 Nikon Corp 倍率校正装置および形状測定システム
JP2000097663A (ja) * 1998-09-21 2000-04-07 Nikon Corp 干渉計
JP2004125768A (ja) * 2001-12-18 2004-04-22 Qed Technologies Inc 物体試験表面の完全アパーチャ数値データマップを合成する方法
JP2006133059A (ja) * 2004-11-05 2006-05-25 Canon Inc 干渉測定装置
JP2009180554A (ja) * 2008-01-29 2009-08-13 Canon Inc 干渉計、測定方法及び光学素子の製造方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0529427A (ja) 1991-07-24 1993-02-05 Nec Corp 半導体装置の製造方法
JPH11314184A (ja) * 1998-04-30 1999-11-16 Narukkusu Kk 光学素子加工装置
US6312373B1 (en) 1998-09-22 2001-11-06 Nikon Corporation Method of manufacturing an optical system
US6867913B2 (en) 2000-02-14 2005-03-15 Carl Zeiss Smt Ag 6-mirror microlithography projection objective
US6449049B1 (en) 2000-03-31 2002-09-10 Nanyang Technological University Profiling of aspheric surfaces using liquid crystal compensatory interferometry
JP2002213930A (ja) * 2000-11-14 2002-07-31 Nikon Corp 形状測定方法および高精度レンズの製造方法
US7106455B2 (en) 2001-03-06 2006-09-12 Canon Kabushiki Kaisha Interferometer and interferance measurement method
US6972849B2 (en) 2001-07-09 2005-12-06 Kuechel Michael Scanning interferometer for aspheric surfaces and wavefronts
JP2003050109A (ja) * 2001-08-07 2003-02-21 Nikon Corp 面形状測定装置および面形状測定方法
US6879402B2 (en) 2001-11-16 2005-04-12 Zygo Corporation Scanning interferometer for aspheric surfaces and wavefronts
US7612893B2 (en) 2006-09-19 2009-11-03 Zygo Corporation Scanning interferometric methods and apparatus for measuring aspheric surfaces and wavefronts
JP2010164388A (ja) 2009-01-14 2010-07-29 Canon Inc 測定方法及び測定装置
JP5394317B2 (ja) 2010-05-17 2014-01-22 富士フイルム株式会社 回転対称非球面形状測定装置
JP6000578B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 非球面計測方法、非球面計測装置、光学素子加工装置および光学素子の製造方法
JP5896792B2 (ja) 2012-03-09 2016-03-30 キヤノン株式会社 非球面計測方法、非球面計測装置および光学素子加工装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329427A (ja) * 1996-06-07 1997-12-22 Nikon Corp 非球面形状の測定方法
JPH10281736A (ja) * 1997-04-04 1998-10-23 Nikon Corp 倍率校正装置および形状測定システム
JP2000097663A (ja) * 1998-09-21 2000-04-07 Nikon Corp 干渉計
JP2004125768A (ja) * 2001-12-18 2004-04-22 Qed Technologies Inc 物体試験表面の完全アパーチャ数値データマップを合成する方法
JP2006133059A (ja) * 2004-11-05 2006-05-25 Canon Inc 干渉測定装置
JP2009180554A (ja) * 2008-01-29 2009-08-13 Canon Inc 干渉計、測定方法及び光学素子の製造方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
J. Pfund, N. Lindlein, J. Schwider: NonNull testing of rotationally symmetric aspheres: a systematic error assessment. In: App.Opt. 40 (2001) 4, S.439-446
J. Pfund, N. Lindlein, J. Schwider: NonNull testing of rotationally symmetric aspheres: a systematic error assessment. In: App.Opt. 40 (2001) 4, S.439-446 *
L.A. Carvalho, J.C. Castro, P. Schor, W. Chamon: A software simmulation of Hartmann-Schack patterns for real corneas. International Symposium: Adaptive otpics - from telescopes to the human eye, Murcia (Spain), 13./14. november 2000 *
L.A. Carvalho, J.C. Castro, P. Schor, W. Chamon: A software simmulation of Hartmann-Schack patterns for real corneas. International Symposium: Adaptive otpics – from telescopes to the human eye, Murcia (Spain), 13./14. november 2000

Also Published As

Publication number Publication date
DE102013203883A1 (de) 2013-09-12
US20130235472A1 (en) 2013-09-12
JP2013186017A (ja) 2013-09-19
JP6000577B2 (ja) 2016-09-28
US9279667B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
DE102013203883B4 (de) Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element
DE102013004043B4 (de) Messverfahren für eine asphärische Oberfläche, Messvorrichtung für eine asphärische Oberfläche, Fertigungsvorrichtung für ein optisches Element und optisches Element
EP1869401B1 (de) Verfahren zur genauen hochauflösungsmessung asphärischer oberflächen
EP0370229B1 (de) Interferometrisches Verfahren zur Prüfung von asphärische Wellenfronten erzeugenden optischen Elementen
JP6112909B2 (ja) シャック・ハルトマンセンサーを用いた形状計測装置、形状計測方法
DE102013001948B4 (de) Oberflächenformmessverfahren und -vorrichtung, Computerprogramm, computerlesbares nichtflüchtiges Speichermedium sowie Fertigungsverfahren eines optischen Elements
DE102012223878A1 (de) Kompensation eines chromatischen Punktsensors mit Auswirkungen des Werkstückmaterials
EP3084344B1 (de) Verfahren zum vermessen einer sphärisch-astigmatischen optischen fläche mit fizeau interferometrie
DE102014004005A1 (de) Verfahren und Vorrichtung zur Wellenfrontmessung und Herstellverfahren für ein optisches Element
DE112013001142T5 (de) Verfahren zum Identifizieren abnormaler Spektralprofile, die von einem chromatischen konfokalen Entfernungssensor gemessen werden
DE102014208636B4 (de) Verfahren und Vorrichtung zur Messung einer Dezentrierung und Verkippung von Flächen eines optischen Elements
DE102013203882A1 (de) Verfahren zum Messen einer asphärischen Oberfläche, Vorrichtung zum Messen einer asphärischen Oberfläche, Vorrichtung zum Erzeugen eines optischen Elements und optisches Element
EP2101143A1 (de) Verfahren und Vorrichtung zur Erfassung der Form transparenter refraktiver Objekte
CN112747904A (zh) 红外传递函数测量仪的装调方法
EP1896792B1 (de) Verfahren und system zur messung der krümmung einer optischen oberfläche
DE102015209489A1 (de) Interferometrische Messvorrichtung
DE102022209651A1 (de) Verfahren zum Bearbeiten eines Referenzelements für ein Interferometer
US20160299066A1 (en) Refractive index measuring method, refractive index measuring apparatus, and optical element manufacturing method
DE102017001524A1 (de) Anordnung zur Vermessung zumindest teilweise reflektierender Oberflächen
EP3883453B1 (de) Anordnung und verfahren zur kompensation der temperaturabhängigkeit einer facettenlinse für die bestimmung der topographie eines auges
RU2295712C2 (ru) Способ определения коэффициентов сферической аберрации
DE102017222734B4 (de) Objektiv für eine Wellenfrontmessende Vorrichtung zur optischen Messung mindestens einer gekrümmten Messoberfläche
DE19545367C2 (de) Vorrichtung und Verfahren zur optischen Profilmessung, insbesondere an gekrümmten Objektoberflächen
Petz et al. Three-dimensional shape measurement of aspheric refractive optics by pattern transmission photogrammetry
DE102022207992A1 (de) Verfahren zur Kalibrierung einer interferometrischen Messvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: TBK, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final