DE102010005358A1 - Verfahren und Vorrichtung zur Bestimmung einer relativen Orientierung zwischen zwei optischen Sensorsystemen - Google Patents

Verfahren und Vorrichtung zur Bestimmung einer relativen Orientierung zwischen zwei optischen Sensorsystemen Download PDF

Info

Publication number
DE102010005358A1
DE102010005358A1 DE102010005358A DE102010005358A DE102010005358A1 DE 102010005358 A1 DE102010005358 A1 DE 102010005358A1 DE 102010005358 A DE102010005358 A DE 102010005358A DE 102010005358 A DE102010005358 A DE 102010005358A DE 102010005358 A1 DE102010005358 A1 DE 102010005358A1
Authority
DE
Germany
Prior art keywords
optical sensor
sensor system
diffraction image
previously known
known diffraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010005358A
Other languages
English (en)
Other versions
DE102010005358B4 (de
Inventor
Denis 10245 Grießbach
Martin 10117 Bauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102010005358.9A priority Critical patent/DE102010005358B4/de
Publication of DE102010005358A1 publication Critical patent/DE102010005358A1/de
Application granted granted Critical
Publication of DE102010005358B4 publication Critical patent/DE102010005358B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem, wobei mindestens ein erster Teil mindestens eines vorbekannten Beugungsbildes von dem ersten optischen Sensorsystem erfasst wird, wobei mindestens ein zweiter Teil des mindestens einen vorbekannten Beugungsbildes von dem zweiten optischen Sensorsystem erfasst wird, wobei das mindestens eine vorbekannte Beugungsbild mittels einer Anordnung aus einer kohärenten Lichtquelle (1) und mindestens einem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes erzeugt wird, wobei eine relative Orientierung des ersten optischen Sensorsystems zu einem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des ersten optischen Sensorsystems bei Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird, wobei eine relative Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des zweiten optischen Sensorsystems bei Erfassung des mindestens zweiten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird, wobei aus den relativen Orientierungen des ersten und des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) eine relative Orientierung des ersten optischen Sensorsystems zu dem zweiten optischen Sensorsystem bestimmt wird.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem.
  • Im Bereich optischer Sensorsysteme, insbesondere im Bereich von digitalen Kameras, erlangen so genannte Stereosysteme, insbesondere Stereokamerasysteme, immer mehr Bedeutung. Stereokameras dienen unter anderem der Erzeugung eines dreidimensionalen Modells der beobachteten Umgebung. Dazu werden mindestens zwei abbildende optische Sensorsysteme mit einem Basisabstand zueinander montiert. Bezogen auf ein Bezugskoordinatensystem können also die beiden abbildenden optischen Sensorsysteme eine unterschiedliche Lage und/oder Orientierung aufweisen. Blickrichtung und Abbildungseigenschaften (z. B. Öffnungswinkel, Pixelanzahl) der beiden abbildenden optischen Sensorsysteme sind in der Regel gleich, es sind jedoch auch unterschiedliche Abbildungseigenschaften des jeweiligen optischen Sensorsystems zulässig.
  • Eine korrekte Auswertung von Bilddaten (Stereobildpaaren) eines Stereosystems erfordert eine genaue geometrische Kalibrierung der einzelnen optischen Sensorsysteme des Stereosystems sowie eine Bestimmung deren relativer Lage und Orientierung zueinander. Mittels der Kalibrierung werden hierbei Parameter einer inneren Orientierung und Parameter einer relativen äußeren Orientierung, also einer Orientierung und Lage der optischen Sensorsysteme zueinander, bestimmt. Die innere Orientierung definiert die abbildungsrelevanten Parameter der Kamera. Abbildungsrelevante Parameter beschreiben z. B. die Brennweite des Objektivs und Linsenverzerrungen.
  • Stereosysteme werden heutzutage in der Regel unter Nutzung von so genannten Passpunktfeldern kalibriert. Dabei wird eine Vielzahl von Aufnahmen (in der Regel 5–20) des Passpunktfeldes durch das Stereokamerasystem getätigt. Die Stereobildpaare werden in einer komplexen Ausgleichsrechnung verarbeitet und liefern nach einer automatischen oder manuellen Selektion der Passpunkte die unbekannten Parameter der inneren und der relativen äußeren Orientierung.
  • Nachteilig hierbei ist, dass die benötigten Passpunktfelder eine endliche Ausdehnung aufweisen und sich in endlicher Entfernung zu dem zu kalibrierenden Stereosystem bzw. zu den einzelnen optischen Sensorsystemen des Stereosystems befinden. Damit sind diese Ansätze für Stereosysteme, die für sehr weit von den optischen Sensorsystemen entfernte Objekte konzipiert wurden, nur sehr begrenzt nutzbar, da entweder nicht scharf abgebildet wird oder das Passpunktfeld das Bildfeld nur zu einem kleinen Teil ausfüllt. In manchen Anwendungsfällen gilt dies bereits für Objekte, die sich mehr als einige hundert Meter bis zu einigen Kilometern von den optischen Sensorsystemen entfernt befinden.
  • Weiter nachteilig ergibt sich, dass bei einer Nutzung von Passpunktfeldern alle unbekannten Orientierungsparameter gleichzeitig, also in einem Rechenschritt, bestimmt werden. Hierbei können zwar numerisch optimale Parameter bestimmt werden, diese müssen jedoch nicht unbedingt den realen Eigenschaften der optischen Sensorsysteme entsprechen. Z. B. können Kalibrationsfehler, die durch einen falsch oder ungenau bestimmten Parameter verursacht werden, durch die Anpassung eines weiteren Parameters an einen ebenfalls ungenauen oder falsch bestimmten Wert kompensiert werden. Die Fehler in einer Ausgleichsrechnung lassen sich also von einem Parameter zu einem anderen verschieben.
  • Ein Stereokamerasystem kann auch mittels einer Abbildung eines Sternenhimmels kalibriert werden. Die dabei verwendeten Passpunkte sind Sterne. Bei einer Kalibrierung mittels einer Abbildung des Sternenhimmels bilden Sterne Passpunkte, die im quasi-Unendlichen liegen. Eine Sternhimmelkalibrierung setzt jedoch ideale Randbedingungen voraus (Wolkenfreiheit, keine Lichtverschmutzung, Korrektur der Atmosphäreneffekte). In Mitteleuropa ist dieses Verfahren daher nur selten anwendbar.
  • Eine weitere mögliche Vorgehensweise zur geometrischen Kalibrierung eines optischen Sensorsystems ist die präzise Winkelmessung einzelner Sensorelemente bezüglich einer raumfesten Achse. Hierzu wird beispielsweise ein Kollimator zum optischen Sensorsystem auf einem Messtisch hochgenau angeordnet, wobei die Richtung zwischen Kollimator und Sensorsystem entsprechend feinfühlig verstellt werden kann, so dass die geometrische Lage eines einzelnen Elementes genau bestimmbar ist. Wird diese Vermessung für ausreichend viele Elemente wiederholt, kann die geometrische Lage aller Elemente des Sensors extrapoliert werden. Diese unter Laborbedingungen durchzuführende geometrische Kalibration findet beispielsweise bei digitalen Kameras für Weltraumzwecke Anwendung. Nachteilig an dem bekannten Verfahren ist jedoch der verhältnismäßig hohe Zeitaufwand von mehreren Stunden.
  • Aus der DE 197 27 281 C1 ist eine Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras bekannt, umfassend eine kohärente Lichtquelle und ein synthetisches Hologramm zur Erzeugung einer wohldefinierten Teststruktur, wobei die kohärente Lichtquelle und das Hologramm derart zueinander angeordnet sind, dass bei Beleuchtung des Hologramms durch die kohärente Lichtquelle das Hologramm eine dreidimensionale Teststruktur um die Fokalebene der CCD-Kamera erzeugt. Dieses Hologramm kann auch als diffraktives optisches Element zur Erzeugung eines Beugungsbildes betrachtet werden.
  • In ”Bauer et. al., Geometrical camera calibration with diffractive optical elements, Optics Express, vol. 16, no. 25, 2008” wird ein Verfahren zur geometrischen Kalibrierung eines optischen Sensorsystems beschrieben, wobei die geometrische Kalibrierung mittels einer kohärenten Lichtquelle und eines diffraktiven, optischen Elements zur Erzeugung eines Beugungsbildes durchgeführt wird.
  • Aus der DE 100 13 299 C2 ist eine Vorrichtung zur geometrischen Kalibrierung eines optischen Sensorsystems bekannt, umfassend eine kohärente Lichtquelle, ein diffraktives, optisches Element zur Erzeugung eines Beugungsbildes als Teststruktur, wobei die Teststruktur auf die photosensitiven Sensoren des optischen Sensorsystems abgebildet wird. Das statische, diffraktive, optische Element ist dabei als Gitter ausgebildet, das verdreht wird, um eine bewegte Punktmusterverteilung zu erhalten. Alternativ können auch nacheinander verschiedene Gitter verwendet oder hinzugefügt werden.
  • Aus der WO 03/049091 A1 ist ein Verfahren und eine Vorrichtung zur holographischen Datenspeicherung bzw. zum Auslesen von holographisch gespeicherten Daten bekannt, wo ansteuerbare, dynamische, diffraktive, optische Elemente in Form eines Mikrospiegel-Arrays verwendet werden.
  • Der Erfindung liegt das technische Problem zugrunde, ein Verfahren und eine Vorrichtung zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem zu schaffen, mittels derer zusätzlich zur Bestimmung der Parameter der inneren Orientierung mit geringem zeitlichen und rechentechnischen Aufwand die genannte relative Orientierung bestimmt werden kann.
  • Die Lösung des technischen Problems ergibt sich aus den Merkmalen des Gegenstands der Ansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Vorgeschlagen wird ein Verfahren zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem. Das erste optische Sensorsystem und das zweite optische Sensorsystem können hierbei ein Stereosystem ausbilden. Insbesondere können das erste optische Sensorsystem und das zweite optische Sensorsystem Kameras sein.
  • In dem vorgeschlagenen Verfahren wird mindestens ein vorbekanntes Beugungsbild mittels einer kohärenten Lichtquelle und mindestens einem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes erzeugt. Unter einem vorbekannten Beugungsbild wird hierbei verstanden, dass das vorbekannte Beugungsbild bei einem abbildungsfehlerfreien optischen Sensorsystem eine ideale Intensitätsverteilung in einer idealen Bildebene, z. B. der Fokalebene des optischen Sensorsystems, erzeugt, wobei die ideale Intensitätsverteilung vorbekannt ist.
  • Die kohärente Lichtquelle ist vorzugsweise eine Einheit zur Erzeugung eines monochromatischen Laserlichts. Das optische Element zur Erzeugung eines vorbekannten Beugungsbildes ist vorzugsweise ein so genanntes diffraktives optisches Element (DOE).
  • Die kohärente Lichtquelle und das optische Element zur Erzeugung eines vorbekannten Beugungsbildes werden hierbei derart zueinander angeordnet, dass aus Sicht eines optischen Sensorsystems das vorbekannte Beugungsbild im quasi-Unendlichen liegt. Durch die Anordnung der kohärenten Lichtquelle und des optische Elements zur Erzeugung eines vorbekannten Beugungsbildes wird also eine unendlich weit entfernte Lichtquelle simuliert. Die Abbildung des vorbekannten Beugungsbildes durch ein optisches Sensorsystem ist dann translationsinvariant. Hierunter wird verstanden, dass sich bei einer Translationsbewegung des optischen Sensorsystems eine Intensitätsverteilung z. B. in der Fokalebene des optischen Sensorsystems nicht verändert. Insbesondere sind also Intensitätswerte von Bildpunkten des optischen Sensorsystems vor einer Translationsbewegung gleich Intensitätswerten dieser Bildpunkte des optischen Sensorsystems nach der Translationsbewegung. Hierbei wird angenommen, dass das vorbekannte Beugungsbild während der Translationsbewegung in einem Erfassungsbereich des optischen Sensorsystems bleibt.
  • Mittels der Anordnung aus kohärenter Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes können also in einem räumlich begrenzten Bereich Strahlengänge des kohärenten Laserlichts erzeugt werden, die das vorbekannte Beugungsbild erzeugen. Dieser räumlich begrenzte Bereich wird nachfolgend als Bereich der Strahlengänge bezeichnet.
  • Weiter wird mindestens ein erster Teil des vorbekannten Beugungsbildes von dem ersten optischen Sensorsystem erfasst. Ein Erfassungsbereich des ersten optischen Sensorsystems deckt sich also zumindest teilweise mit dem Bereich der Strahlengänge. Vorzugsweise überdeckt der Bereich der Strahlengänge den Erfassungsbereich des ersten optischen Sensorsystems. Hierdurch wird also der Erfassungsbereich (Eingangsapertur) des ersten optischen Sensorsystems vollständig durch die Strahlengänge des kohärenten Laserlichts ausgeleuchtet.
  • In analoger Weise deckt sich ein Erfassungsbereich des zweiten optischen Sensorsystems zumindest teilweise mit dem Bereich der Strahlengänge.
  • Wie nachfolgend erläutert, kann die Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes durch das erste optische Sensorsystem und die Erfassung des mindestens zweiten Teils des vorbekannten Beugungsbildes durch das zweite optische Sensorsystem gleichzeitig oder sequentiell erfolgen.
  • Bei einer gleichzeitigen Erfassung kann z. B. der Bereich der Strahlengänge gleichzeitig einen Teil des Erfassungsbereiches oder den gesamten Erfassungsbereich des ersten optischen Sensorsystems und einen Teil oder den gesamten Erfassungsbereich des zweiten optischen Sensorsystems überdecken.
  • Der erste Teil und der zweite Teil des vorbekannten Beugungsbildes können hierbei unterschiedliche oder gleiche Teile des vorbekannten Beugungsbildes sein.
  • Beispielsweise kann das erste optische Sensorsystem derart zur der Anordnung aus kohärenter Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes angeordnet werden, dass die optische Achse des ersten optischen Sensorsystems parallel oder annähernd parallel zu einer zentralen Achse der Strahlengänge des kohärenten Laserlichts ist. Annähernd parallel besagt hierbei, dass eine optische Achse eines Sensorsystems und die zentrale Achse einen Winkel einschließen, der beispielsweise kleiner als 20 Grad, vorzugsweise jedoch so klein wie möglich ist.
  • Die zentrale Achse kann beispielsweise eine optische Achse der kohärenten Lichtquelle sein.
  • Nachfolgend können die Parameter der inneren Orientierung des ersten optischen Sensorsystems und insbesondere eine relative Orientierung (Rotation) des ersten optischen Sensorsystems zu einem Bezugskoordinatensystem bestimmt werden. Diese Bestimmung kann in Abhängigkeit von Ausgangssignalen des ersten optischen Sensorsystems bei Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes, insbesondere der idealen Intensitätsverteilung, erfolgen. Eine beispielhafte Bestimmung ist beispielsweise in ”Bauer et. al., Geometrical camera calibration with diffractive optical elements, Optics Express, vol. 16, no. 25, 2008” offenbart.
  • Das Bezugskoordinatensystem ist vorzugsweise ein Koordinatensystem, welches durch die Richtung der kohärenten Lichtquelle und die Struktur des diffraktiven optischen Elements bestimmt wird. Die Richtung der kohärenten Lichtquelle bezeichnet hierbei die Richtung, in die Licht von der kohärenten Lichtquelle ausgestrahlt wird.
  • In einem zweiten Schritt erfolgt eine Bestimmung der Parameter der inneren Orientierung des zweiten optischen Sensorsystems und insbesondere eine Bestimmung einer relativen Orientierung des zweiten optischen Sensorsystems zu dem vorhergehend angeführten Bezugskoordinatensystem. Dies geschieht in analoger Weise zu dem Vorgehen beim ersten optischen Sensorsystem. Hierzu ist eine Voraussetzung, dass der Erfassungsbereich (Eingangsapertur) des zweiten optischen Sensorsystems zumindest teilweise, vorzugsweise vollständig, durch die Strahlengänge des kohärenten Laserlichts ausgeleuchtet ist.
  • Aus den nun bekannten relativen Orientierungen des ersten und des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem kann in einem dritten Schritt eine relative Orientierung des ersten optischen Sensorsystems zu dem zweiten optischen Sensorsystem bestimmt werden.
  • Das vorgeschlagene Verfahren ermöglicht in vorteilhafter Weise eine Bestimmung der relativen Orientierung des ersten optischen Sensorsystems zu mindestens dem zweiten optischen Sensorsystem mit geringem Rechenaufwand. Hierbei kann die Bestimmung der relativen Orientierung der Sensorsystem zueinander Teil einer Kalibrierung eines Stereosystems sein. Bei einer Kalibrierung des Stereosystems unter Verwendung des vorgeschlagenen Verfahrens ergibt sich weiter vorteilhaft eine Unabhängigkeit von Passpunktfeldern und der durch diese Passpunktfelder bedingten Limitierungen. Weiter vorteilhaft ergibt sich die Möglichkeit einer sequentiellen Bestimmung der Parameter der inneren Orientierung der einzelnen optischen Sensorsysteme, der Parameter der relativen Orientierung der einzelnen optischen Sensorsysteme zueinander und der Parameter einer relativen Lage der einzelnen optischen Sensorsysteme zueinander. Derart bestimmte Parameter sind hierbei unabhängiger vom numerischen Optimierungsprozess klassischer Kalibrationsverfahren, die z. B. Passpunktfelder verwenden. Hierdurch ist mittels des vorgeschlagenen Verfahrens eine höhere Genauigkeit und Reproduzierbarkeit der Kalibration erreichbar.
  • In einer weiteren Ausführungsform erfasst das erste optische Sensorsystem den mindestens ersten Teil des vorbekannten Beugungsbildes. Gleichzeitig erfasst das zweite optische Sensorsystem den mindestens zweiten Teil des vorbekannten Beugungsbildes. Hierzu ist jedoch erforderlich, dass die Strahlengänge des kohärenten Laserlichts die Erfassungsbereiche beider optischen Sensorsysteme zumindest teilweise ausleuchten.
  • Diesem Ansatz werden jedoch durch die Größe eines Basisabstandes der optischen Sensorsysteme und durch einen fertigungstechnisch begrenzten Durchmesser des diffraktiven optischen Elements Grenzen gesetzt.
  • Weiter vorstellbar ist auch, dass das vorbekannte Beugungsbild zumindest teilweise indirekt in den Erfassungsbereich des ersten und/oder des zweiten optischen Sensorsystems abgebildet wird. Beispielsweise kann das vorbekannte Beugungsbild zumindest teilweise in den Erfassungsbereich des ersten und/oder des zweiten optischen Sensorsystems gespiegelt werden. Hierzu kann z. B. ein Spiegel, vorzugsweise mit vorbekannten Abbildungseigenschaften, derart angeordnet werden, dass das vorbekannte Beugungsbild zumindest teilweise in den Erfassungsbereich des ersten und/oder des zweiten optischen Sensorsystems gespiegelt wird. Sind die Abbildungseigenschaften des Spiegels bekannt, so kann die Spiegelung rechnerisch z. B. in einem Kompensationsschritt kompensiert werden.
  • Die vorgeschlagene Ausführungsform ermöglicht in vorteilhafter Weise eine gleichzeitige Bestimmung der relativen Orientierung des ersten optischen Sensorsystems zu dem zweiten optischen Sensorsystem.
  • Nach einer derartigen Bestimmung der relativen Orientierung kann eine relative Lage (Translation) der beiden optischen Sensorsysteme zueinander z. B. durch direkte Messung oder unter Verwendung eines Passpunktfeldes bestimmt werden. Hiermit ergibt sich eine vollständige Kalibration eines Stereosystems.
  • In einer alternativen Ausführungsform wird nach einer Bestimmung der Parameter der inneren Orientierung des ersten optischen Sensorsystems und insbesondere der relativen Orientierung des ersten optischen Sensorsystems zu dem Bezugskoordinatensystem das zweite optische Sensorsystem relativ zu der Anordnung aus kohärenter Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes derart bewegt, dass der mindestens zweite Teil des Beugungsbildes durch das zweite optische Sensorsystems erfassbar ist.
  • Hierbei kann ausschließlich das zweite optische Sensorsystem bewegt werden. Sind beispielsweise in einem Stereosystem das erste optische Sensorsystem und das zweite optische Sensorsystem starr miteinander verbunden, kann jedoch auch das erste und das zweite optische Sensorsystem gleichzeitig bewegt werden.
  • Durch die Bewegung wird ein Erfassungsbereich des zweiten optischen Sensorsystems in zumindest partielle, vorzugsweise vollständige, Deckung mit dem Bereich der Strahlengänge gebracht. Nach der Bewegung wird also der Erfassungsbereich (Eingangsapertur) des zweiten optischen Sensorsystems zumindest teilweise, vorzugsweise vollständig, durch die Strahlengänge des kohärenten Laserlichts ausgeleuchtet.
  • Dann kann eine Bestimmung der Parameter der inneren Orientierung des zweiten optischen Sensorsystems und insbesondere der relativen Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem und die Bestimmung der relativen Orientierung der beiden optischen Sensorsysteme zueinander erfolgen.
  • Nach einer derartigen Bestimmung der relativen Orientierung kann wiederum eine relative Lage der beiden optischen Sensorsysteme zueinander z. B. durch direkte Messung oder unter Verwendung eines Passpunktfeldes bestimmt werden. Hiermit ergibt sich dann eine vollständige Kalibration eines Stereosystems.
  • Hierbei kann das zweite optische Sensorsystem um eine definierte Bewegung bewegt und nach Bestimmung der relativen Orientierung des zweiten optischen Sensorsystems um diese definierte Bewegung zurückbewegt werden, wobei erst nach der Rückbewegung eine Bestimmung der relative Lage der beiden optischen Sensorsysteme zueinander erfolgt.
  • Alternativ oder kumulativ zur Bewegung des zweiten optischen Sensorsystems kann auch eine Bewegung der Anordnung aus kohärenter Lichtquelle und dem Element zur Erzeugung eines vorbekannten Beugungsbildes erfolgen.
  • In einer weiteren Ausführungsform ist eine Bewegung des zweiten optischen Sensorsystems relativ zu der Anordnung aus kohärenter Lichtquelle und dem Element zur Erzeugung eines vorbekannten Beugungsbildes vorbekannt oder messbar ist.
  • Die Bewegung kann hierbei einen Rotations- und einen Translationsanteil enthalten. Vorzugsweise enthält die Bewegung nur einen Translationsanteil, da sich hierbei die relative Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem während der Bewegung nicht ändert. Sind allerdings Rotationsanteile der Bewegung, insbesondere in Bezug zu dem Bezugskoordinatensystem, vorbekannt oder messbar, so können diese bei der Bestimmung der relativen Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem in vorteilhafter Weise rechnerisch kompensiert werden.
  • In einer weiteren Ausführungsform wird eine Bewegung des zweiten optischen Sensorsystems relativ zu der Anordnung aus der kohärenten Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes automatisch oder manuell durchgeführt. Hierbei kann z. B. eine Einheit zur Positionierung, z. B. ein Roboter oder ein automatisierter kartesischer Verstelltisch, verwendet werden.
  • Eine manuelle Bewegung wird vorzugsweise durch Führungselemente, beispielsweise Führungsschienen, unterstützt, auf welchen das zweite optische Sensorsystem oder die Anordnung aus kohärenter Lichtquelle und dem Element zur Erzeugung eines vorbekannten Beugungsbildes geführt werden. Hierdurch ergibt sich in vorteilhafter Weise eine einfache Realisierung einer vorbestimmten, insbesondere einer rein translatorischen, Bewegung.
  • In einer bevorzugten Ausführungsform wird ein kohärenter Lichtstrahl der kohärenten Lichtquelle aufgeweitet. Hierzu kann z. B. ein optisches Element zur Strahlaufweitung, beispielsweise ein Kollimator, in die Anordnung aus kohärenter Lichtquelle und dem Element zur Erzeugung eines vorbekannten Beugungsbildes integriert werden. Hierdurch ergibt sich in vorteilhafter Weise ein größerer Bereich des Strahlengangs und somit eine vereinfachte Ausleuchtung der Erfassungsbereiche der beiden optischen Sensorsysteme.
  • Weiter vorgeschlagen wird eine Vorrichtung zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem. Die Vorrichtung umfasst mindestens eine kohärente Lichtquelle, ein optisches Element zur Erzeugung eines vorbekannten Beugungsbildes und mindestens eine kohärenten Lichtquelle und mindestens eine Auswerte- und Steuereinheit. Mittels der Vorrichtung ist eines der vorgeschlagenen Verfahren durchführbar.
  • Hierbei wertet die mindestens eine Auswerte- und Steuereinheit die Bilddaten der optischen Sensorsysteme aus und führt die Berechnungen zur Bestimmung der relativen Orientierung des ersten optischen Sensorsystems zu dem Bezugskoordinatensystem, der Bestimmung der relativen Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem und die Bestimmung der relativen Orientierung der beiden optischen Sensorsysteme zueinander durch.
  • Weiter kann die Vorrichtung ein optisches Element zur Strahlaufweitung umfassen.
  • Weiter kann die Vorrichtung mindestens eine Einheit zur automatischen Verstellung einer Position und gegebenenfalls einer Orientierung des zweiten optischen Sensorsystems oder der Anordnung aus kohärenter Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes umfassen. Hierbei kann die Auswerte- und Steuereinheit eine automatische Verstellung einer Position steuern.
  • Weiter kann die Vorrichtung mindestens ein Führungselement zur Führung einer Bewegung des zweiten optischen Sensorsystems oder der Anordnung aus kohärenter Lichtquelle und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes umfassen.
  • Weiter kann die Vorrichtung mindestens ein Element zur indirekten Abbildung, beispielsweise ein Spiegel, umfassen.
  • In einer weiteren Ausführungsform ist das optische Element zur Erzeugung eines vorbekannten Beugungsbildes ein steuerbares Element zur Erzeugung eines Beugungsbildes, wobei mittels des steuerbaren Elements zur Erzeugung eines Beugungsbildes verschiedene Beugungsbilder erzeugbar sind. Hierbei kann die Auswerte- und Steuereinheit das steuerbare Element steuern. Die verschiedenen Beugungsbilder sind hierbei vorbekannt. Durch die Auswertung mehrerer verschiedener vorbekannter Beugungsbilder lässt sich die Bestimmung der relativen Orientierung des ersten optischen Sensorsystems zu einem Bezugskoordinatensystem, der Bestimmung der relativen Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem und die Bestimmung der relativen Orientierung der beiden optischen Sensorsysteme zueinander verbessern.
  • Die Erfindung wird anhand eines Ausführungsbeispiels näher erläutert. Die einzige Figur zeigt ein schematisches Blockschaltbild einer Vorrichtung zur Bestimmung einer relativen Orientierung einer ersten Kamera 7 zu einer zweiten Kamera 10. Die Vorrichtung umfasst eine kohärente Lichtquelle 1, welche ein Bezugssystem 2 aufweist. Licht 3 der kohärenten Lichtquelle 1 wird durch einen Kollimator 4 aufgeweitet und trifft auf ein diffraktives optisches Element 5 mittels dessen ein vorbekanntes Beugungsbild erzeugbar ist. Das nun modulierte Licht wird durch eine Optik 6 der ersten Kamera 7 auf einen Detektor 8 der ersten Kamera 7 abgebildet und erzeugt dort das Beugungsbild. Aus diesem und aus Kenntnis eines idealen Intensitätsverlaufs des Beugungsbildes berechnet eine Auswerte- und Steuereinheit 9, die datentechnisch mit der ersten Kamera 7 verbunden ist, Parameter einer inneren Orientierung der ersten Kamera 7 und deren relative Orientierung zu dem Bezugskoordinatensystem 2. Die erste Kamera 7 und die zweite Kamera 10, die ein Stereosystem bilden, sind auf einem gemeinsamen Träger 11 montiert und über diesen starr miteinander verbunden. Durch eine reine Translationsbewegung des Trägers 11, die durch einen Pfeil 12 angedeutet ist, wird die zweite Kamera 10 derart vor dem diffraktiven optischen Element 5 positioniert, dass das von dem diffraktiven optischen Element 5 modulierte Licht mittels einer Optik 13 der zweiten Kamera 10 auf einem Detektor 14 der zweiten Kamera 10 abgebildet wird und dort das Beugungsbild erzeugt. Aus diesem und aus Kenntnis eines idealen Intensitätsverlaufs des Beugungsbildes berechnet die Auswerte- und Steuereinheit 9, die auch datentechnisch mit der zweiten Kamera 10 verbunden ist, Parameter einer inneren Orientierung der zweiten Kamera 10 und deren relative Orientierung zu dem Bezugskoordinatensystem 2. Nach der Bestimmung der Parameter der inneren Orientierung der ersten Kamera 7 und deren relative Orientierung zu dem Bezugskoordinatensystem 2 sowie der Parameter der inneren Orientierung der zweiten Kamera 10 und deren relative Orientierung zu dem Bezugskoordinatensystem 2 kann die Auswerte- und Steuereinheit 9 aus diesen eine relative Orientierung der ersten Kamera 7 zu der zweiten Kamera 10 berechnen.
  • Bezugszeichenliste
  • 1
    kohärente Lichtquelle
    2
    Bezugskoordinatensystem
    3
    Strahlen
    4
    Kollimator
    5
    diffraktives optisches Element
    6
    Optik
    7
    erste Kamera
    8
    Detektor
    9
    Auswerte- und Steuereinheit
    10
    zweite Kamera
    11
    Träger
    12
    Pfeil
    13
    Optik
    14
    Detektor
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19727281 C1 [0009]
    • DE 10013299 C2 [0011]
    • WO 03/049091 A1 [0012]
  • Zitierte Nicht-Patentliteratur
    • Bauer et. al., Geometrical camera calibration with diffractive optical elements, Optics Express, vol. 16, no. 25, 2008 [0010]
    • Bauer et. al., Geometrical camera calibration with diffractive optical elements, Optics Express, vol. 16, no. 25, 2008 [0027]

Claims (10)

  1. Verfahren zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem, wobei mindestens ein erster Teil mindestens eines vorbekannten Beugungsbildes von dem ersten optischen Sensorsystem erfasst wird, wobei mindestens ein zweiter Teil des mindestens einen vorbekannten Beugungsbildes von dem zweiten optischen Sensorsystem erfasst wird, wobei das mindestens eine vorbekannte Beugungsbild mittels einer Anordnung aus einer kohärenten Lichtquelle (1) und mindestens einem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes erzeugt wird, wobei eine relative Orientierung des ersten optischen Sensorsystems zu einem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des ersten optischen Sensorsystems bei Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird, wobei eine relative Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des zweiten optischen Sensorsystems bei Erfassung des mindestens zweiten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird, wobei aus den relativen Orientierungen des ersten und des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) eine relative Orientierung des ersten optischen Sensorsystems zu dem zweiten optischen Sensorsystem bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das erste optische Sensorsystem den mindestens ersten Teil des vorbekannten Beugungsbildes erfasst und gleichzeitig das zweite optische Sensorsystem den mindestens zweiten Teil des vorbekannten Beugungsbildes erfasst.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass i. das erste optische Sensorsystem den mindestens ersten Teil des vorbekannten Beugungsbildes erfasst und eine relative Orientierung des ersten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des ersten optischen Sensorsystems bei Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird, ii. das zweite optische Sensorsystem relativ zu der Anordnung aus der kohärenten Lichtquelle (1) und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes derart bewegt wird, dass der mindestens zweite Teil des Beugungsbildes durch das zweite optische Sensorsystems erfassbar ist, iii. das zweite optische Sensorsystem den mindestens zweiten Teil des vorbekannten Beugungsbildes erfasst und eine relative Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des zweiten optischen Sensorsystems bei Erfassung des mindestens zweiten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmt wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass eine Bewegung des zweiten optischen Sensorsystems relativ zu der Anordnung aus der kohärenten Lichtquelle (1) und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes eine Translationsbewegung (12) ist.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass eine Bewegung des zweiten optischen Sensorsystems relativ zu der Anordnung aus der kohärenten Lichtquelle (1) und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes vorbekannt oder messbar ist.
  6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass eine Bewegung des zweiten optischen Sensorsystems relativ zu der Anordnung aus der kohärenten Lichtquelle (1) und dem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes automatisch oder manuell durchgeführt wird.
  7. Verfahren nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass ein kohärenter Lichtstrahl der kohärenten Lichtquelle (1) aufgeweitet wird.
  8. Vorrichtung zur Bestimmung einer relativen Orientierung eines ersten optischen Sensorsystems zu mindestens einem zweiten optischen Sensorsystem, umfassend mindestens eine Anordnung aus einer kohärenten Lichtquelle (1) und mindestens einem optischen Element zur Erzeugung eines vorbekannten Beugungsbildes und mindestens eine Auswerte- und Steuereinheit (9), wobei mindestens ein erster Teil des mindestens eines vorbekannten Beugungsbildes durch das erste optischen Sensorsystem erfassbar ist, wobei mindestens ein zweiter Teil des mindestens einen vorbekannten Beugungsbildes durch das zweite optische Sensorsystem erfassbar ist, wobei das mindestens eine vorbekannte Beugungsbild mittels der Anordnung der kohärenten Lichtquelle (1) und dem mindestens einen optischen Element zur Erzeugung eines vorbekannten Beugungsbildes erzeugbar ist, wobei mittels der Auswerte- und Steuereinheit (9) eine relative Orientierung des ersten optischen Sensorsystems zu einem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des ersten optischen Sensorsystems bei Erfassung des mindestens ersten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmbar ist, wobei mittels der Auswerte- und Steuereinheit (9) eine relative Orientierung des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) in Abhängigkeit von Ausgangssignalen des zweiten optischen Sensorsystems bei Erfassung des mindestens zweiten Teils des vorbekannten Beugungsbildes und in Abhängigkeit des vorbekannten Beugungsbildes bestimmbar ist, wobei mittels der Steuer- und Auswerteeinheit (9) aus den relativen Orientierungen des ersten und des zweiten optischen Sensorsystems zu dem Bezugskoordinatensystem (2) eine relative Orientierung des ersten optischen Sensorsystems zu dem zweiten optischen Sensorsystem bestimmbar ist.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Vorrichtung mindestens eine Verstelleinrichtung umfasst, wobei mittels der Verstelleinrichtung zumindest das zweite optische Sensorsystem relativ zu der Anordnung aus kohärenter Lichtquelle (1) und dem mindestens einen optischen Element zur Erzeugung eines vorbekannten Beugungsbildes bewegbar ist.
  10. Vorrichtung nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass das optischen Element zur Erzeugung eines vorbekannten Beugungsbildes ein steuerbares Element zur Erzeugung eines Beugungsbildes ist, wobei mittels des steuerbaren Elements zur Erzeugung eines Beugungsbildes verschiedene Beugungsbilder erzeugbar sind.
DE102010005358.9A 2010-01-21 2010-01-21 Verfahren und Vorrichtung zur Kalibrierung von zwei optischen Sensorsystemen Active DE102010005358B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010005358.9A DE102010005358B4 (de) 2010-01-21 2010-01-21 Verfahren und Vorrichtung zur Kalibrierung von zwei optischen Sensorsystemen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010005358.9A DE102010005358B4 (de) 2010-01-21 2010-01-21 Verfahren und Vorrichtung zur Kalibrierung von zwei optischen Sensorsystemen

Publications (2)

Publication Number Publication Date
DE102010005358A1 true DE102010005358A1 (de) 2011-07-28
DE102010005358B4 DE102010005358B4 (de) 2016-01-14

Family

ID=44315406

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010005358.9A Active DE102010005358B4 (de) 2010-01-21 2010-01-21 Verfahren und Vorrichtung zur Kalibrierung von zwei optischen Sensorsystemen

Country Status (1)

Country Link
DE (1) DE102010005358B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3711290A4 (de) * 2017-11-15 2021-01-06 Magic Leap, Inc. System und verfahren zur extrinsischen kalibrierung von kameras und diffraktiven optischen elementen

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2314621A (en) * 1996-06-25 1998-01-07 Jenoptik Jena Gmbh Calibrating camera image fields
DE19727281C1 (de) 1997-06-27 1998-10-22 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
DE10013299C2 (de) 2000-03-09 2003-04-17 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur geometrischen Kalibrierung pixelorientierter photosensitiver Elemente
WO2003049091A1 (en) 2001-12-07 2003-06-12 Discovision Associates Dynamic solid state diffractive optics applied for reading a diffractive optics memory
US20050280709A1 (en) * 2004-06-18 2005-12-22 Japan Aerospace Exploration Agency Transparent camera calibration tool for camera calibration and calibration method thereof
DE102004056723A1 (de) * 2004-11-19 2006-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur geometrischen Kalibrierung eines optoelektronischen Sensorsystems
US7110022B2 (en) * 2002-07-11 2006-09-19 Honda Giken Kogyo Kabushiki Kaisha Image output calibrating system for cameras
US20080012850A1 (en) * 2003-12-30 2008-01-17 The Trustees Of The Stevens Institute Of Technology Three-Dimensional Imaging System Using Optical Pulses, Non-Linear Optical Mixers And Holographic Calibration

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2314621A (en) * 1996-06-25 1998-01-07 Jenoptik Jena Gmbh Calibrating camera image fields
DE19727281C1 (de) 1997-06-27 1998-10-22 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
DE10013299C2 (de) 2000-03-09 2003-04-17 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur geometrischen Kalibrierung pixelorientierter photosensitiver Elemente
WO2003049091A1 (en) 2001-12-07 2003-06-12 Discovision Associates Dynamic solid state diffractive optics applied for reading a diffractive optics memory
US7110022B2 (en) * 2002-07-11 2006-09-19 Honda Giken Kogyo Kabushiki Kaisha Image output calibrating system for cameras
US20080012850A1 (en) * 2003-12-30 2008-01-17 The Trustees Of The Stevens Institute Of Technology Three-Dimensional Imaging System Using Optical Pulses, Non-Linear Optical Mixers And Holographic Calibration
US20050280709A1 (en) * 2004-06-18 2005-12-22 Japan Aerospace Exploration Agency Transparent camera calibration tool for camera calibration and calibration method thereof
DE102004056723A1 (de) * 2004-11-19 2006-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur geometrischen Kalibrierung eines optoelektronischen Sensorsystems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Bauer et. al., Geometrical camera calibration with diffractive optical elements, Optics Express, vol. 16, no. 25, 2008

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3711290A4 (de) * 2017-11-15 2021-01-06 Magic Leap, Inc. System und verfahren zur extrinsischen kalibrierung von kameras und diffraktiven optischen elementen
US11455746B2 (en) 2017-11-15 2022-09-27 Magic Leap, Inc. System and methods for extrinsic calibration of cameras and diffractive optical elements

Also Published As

Publication number Publication date
DE102010005358B4 (de) 2016-01-14

Similar Documents

Publication Publication Date Title
EP1631809B1 (de) Verfahren zur bestimmung der abbildungsgüte eines optischen abbildungssystems
EP1984770B1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
DE102007009661A1 (de) Verfahren und Vorrichtung zur ortsaufgelösten Bestimmung der Phase und Amplitude des elektromagnetischen Feldes in der Bildebene einer Abbildung eines Objektes
EP3410091B1 (de) Verfahren zum erfassen einer modulations-transferfunktion und einer zentrierung eines optischen systems
EP3276412B1 (de) Objektsimulationsgerät zum prüfen eines kameraobjektivs und diagnosesystem
DE102015218917B4 (de) Verfahren zur Ermittlung einer Position eines Strukturelements auf einer Maske und Mikroskop zur Durchführung des Verfahrens
DE102013209770A1 (de) Verfahren zur Bestimmung von einstellbaren Parametern mehrerer Koordinatenmessgeräte sowie Verfahren und Vorrichtung zur Erzeugung mindestens eines virtuellen Abbilds eines Messobjekts
EP3267393A1 (de) Schnelles bildkorrekturverfahren für eine vereinfachte adaptive optik
DE102011084690B4 (de) Kamera und Verfahren zur geometrischen Kalibrierung einer Kamera
DE102016212464A1 (de) Messvorrichtung zum Bestimmen eines Wellenfrontfehlers
EP3071928B1 (de) Bildaufnahmesimulation in einem koordinatenmessgerät
DE102018222231A1 (de) Vorrichtung und Verfahren zur optischen Vermessung einer Innenkontur einer Brillenfassung
DE102011102196B3 (de) Justage einer zu prüfenden optischen Fläche in einer Prüfvorrichtung
DE102005036166B4 (de) Interferometrische Messvorrichtung
CH697319B1 (de) Verfahren und Vorrichtung zum geometrischen Kalibrieren von optoelektronischen Messbildkameras.
DE102010005358B4 (de) Verfahren und Vorrichtung zur Kalibrierung von zwei optischen Sensorsystemen
DE102016123154A1 (de) Bestimmung der Anordnung eines Probenobjekts mittels winkelselektiver Beleuchtung
WO2017060296A2 (de) Verfahren und vorrichtung zur strahlanalyse
DE102014010667B4 (de) Verfahren und Vorrichtung zur Messung der Form einer Wellenfront eines optischen Strahlungsfeldes
DE102004056723B4 (de) Verfahren und Vorrichtung zur geometrischen Kalibrierung eines optoelektronischen Sensorsystems
DE10013299A1 (de) Verfahren und Vorrichtung zur geometrischen Kalibrierung pixelorientierter photosensitiver Elemente
DE102007021953B4 (de) Interferometrische Messvorrichtung zum Vermessen einer Oberfläche eines Prüflings
DE102005030899B3 (de) Verfahren und Vorrichtung zur Objekterkennung
DE102018202637A1 (de) Verfahren zur Bestimmung einer Fokuslage einer Lithographie-Maske und Metrologiesystem zur Durchführung eines derartigen Verfahrens
DE102016125451A1 (de) Vorrichtung und Verfahren zur interferometrischen Bestimmung einer Oberflächentopographie eines Messobjekts

Legal Events

Date Code Title Description
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final