DE19956192A1 - Robustes erweitertes Kalibrier- und Messverfahren - Google Patents

Robustes erweitertes Kalibrier- und Messverfahren

Info

Publication number
DE19956192A1
DE19956192A1 DE1999156192 DE19956192A DE19956192A1 DE 19956192 A1 DE19956192 A1 DE 19956192A1 DE 1999156192 DE1999156192 DE 1999156192 DE 19956192 A DE19956192 A DE 19956192A DE 19956192 A1 DE19956192 A1 DE 19956192A1
Authority
DE
Germany
Prior art keywords
error function
projector
decoder
camera
relative error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE1999156192
Other languages
English (en)
Other versions
DE19956192C2 (de
Inventor
Reinhard Malz
Georg Wiora
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D IMAGING TECHNOLOGIES GMBH, CREMINES, CH
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE1999156192 priority Critical patent/DE19956192C2/de
Publication of DE19956192A1 publication Critical patent/DE19956192A1/de
Application granted granted Critical
Publication of DE19956192C2 publication Critical patent/DE19956192C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/34707Scales; Discs, e.g. fixation, fabrication, compensation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Verriegelung von systematischen, räumlich hochfrequenten Messwertabweichungen, die in optischen Koordinatenmessgeräten nach dem Prinzip der Streifenprojektion mit einem Streifenprojektor, mindestens einer Kamera und einem zur Auswertung der von der Kamera herrührenden Bilder angeschlossenen Decoder auftreten, wobei das Verfahren folgende Schritte umfasst: DOLLAR A Bestimmung einer relativen Fehlerfunktion (DELTAzeta'(lambda)) des Decoders anhand der realen Abbildung (zeta(u, v)) eines idealen Referenzobjekts im Decoder in einem Bereich der Abbildung (zeta(u, v)), der in etwa einer Periode (zetap) des Phasenschiebemusters des Streifenprojektors entspricht; DOLLAR A Skalierung der relativen Fehlerfunktion (DELTAzeta'(lambda)) in Bezug auf die Phasenachse (lambda) der relativen Fehlerfunktion (DELTAzeta'(lambda)) zum Erhalt einer Fehlerfunktion (DELTAzeta'(zeta)); DOLLAR A Bestimmung einer messsystemspezifischen Kennlinie (zetak(zeta)) durch Beseitigung der hochfrequenten Anteile der Fehlerfunktion (DELTAzeta'(zeta)) und DOLLAR A Substitution der realen Abbildung (zeta(u, v)) eines beliebigen Messobjekts durch eine tatsächliche Decoderabbildung (zeta'(u, v)) des beliebigen Messobjekts mittels der messsystemspezifischen Kennlinie (zetak(zeta)).

Description

Die vorliegende Erfindung betrifft allgemein ein robustes erweitertes Kalibrier- und Messverfahren und insbesondere ein Verfahren zur Verringerung von Messwert­ abweichungen, die in optischen Koordinatenmessgeräten nach dem Prinzip der Streifenprojektion auftreten können. Ein weiterer Aspekt der Erfindung betrifft ein Verfahren zur deutlichen Verringerung von systematischen, räumlich hoch­ frequenten Messwertabweichungen, die in optischen Koordina­ tenmessgeräten nach dem Prinzip der Streifenprojektion vorhanden sind. Abweichungen oder Fehler der vorstehend ge­ nannten Art werden insbesondere durch nichtideale Projek­ tionsmuster verursacht, die durch die optische Signalüber­ tragung und Signalabtastung auf dem Weg von einem Streifen­ projektor über das Objekt bis hin zu einer Kamera zusätz­ lich situationsabhängig verändert werden.
Optische Koordinatenmessgeräte, die nach dem Prinzip der Streifenprojektion arbeiten, sind im Stand der Technik bekannt. Ein derartiges Gerät, das aus einem auf einem Stativ montierten programmierbaren Streifenprojektor und mindestens einer Kamera zur Aufzeichnung eines Messobjekts besteht, ist aus der DE-A-195 36 294 bekannt.
Weiterhin sind in der Photogrammetrie photo­ grammetrische Modelle zur Kalibrierung von Kameras bekannt. Derartige Modelle beschreiben räumlich niederfrequente, makroskopische strahlengeometrische Eigenschaften der abbildungsoptischen Systeme mit Parametern wie Kammer­ konstante, Hauptpunktkoordinaten in der Bildebene, Bild­ massstäbe in x und y, Radialverzeichnung sowie zusätzlichen Parametern wie Abweichungen von der Radialsymmetrie, Scherung durch unsymmetrischen Einbau optischer Elemente, etc. Die entsprechenden Modellparameter werden z. B. durch ein herkömmliches Verfahren der photogrammetrischen Kamerakalibrierung bestimmt. Mit einem adäquaten Kamera­ modell können reale abbildungsoptische Systeme so korri­ giert werden, dass sich wie eine ideale, verzeichnungsfreie Lochkamera nach dem Modell der Zentralprojektion verhalten. Die geometrischen Eigenschaften von Kameras und Optiken sowie deren Modellierung bei der Kalibrierung wurden in der photogrammetrischen Literatur u. a. in W. Wester-Ebbinghaus "Trends in Non-Topographic Photogrammetry Systems", Non- Topographic Photogrammetry, American Society for Photo­ grammetry and Remote Sensing, 1989 oder H.A. Beyer "Geometric and Radiometric Analysis of a CCD-Camera Based Photogrammetric, Close-Range System", ETH Zürich, 1992 umfassend beschrieben.
Neben Kameras können auch Streifenprojektoren mit Hilfe von erweiterten photogrammetrischen Verfahren kali­ briert werden, indem diese als inverse Kamera aufgefaßt werden. Derartige bekannte Verfahren für die Kalibrierung von Streifenprojektoren wurden in R. Malz "High Dynamic Codes, Self Calibration and Autonomous 3D-Sensor Orien­ tation: Three Steps towards fast Optical Reverse Engineering without Mechanical CMMs", Optical 3-D Meas. Techniques, Wien 1995 oder in der DE-A-195 36 294 beschrieben.
Photogrammetrische Kameramodelle beschreiben jedoch keine hochfrequenten, lokalen Eigenschaften der Optik oder Fehler der Bildwandler (z. B. Auflösungsschwankungen, Trans­ missions- oder Empfindlichkeitsfehler, Rasterfehler). In der Praxis geht man davon aus, dass sich in der optischen Bildebene der Kamera ein Sensor befindet, der das optische Signal in der Bildebene hinreichend amplitudengenau und ortslinear abtastet. Die hohe Fertigungsgenauigkeit elek­ tronischer Bildsensoren (CCD- oder CMOS-Matrix) einerseits im Zusammenhang mit der Verwendung ausgedehnter optischer Signale rechtfertigen im allgemeinen die vorstehende An­ nahme. Beispielsweise können Kreismarken mit einer Genau­ igkeit von bis zu 1/100 Bildpunktabstand in der Bildebene lokalisiert werden, wenn sie dort mit einem Durchmesser von etwa 5 bis 10 Bildpunkten abgebildet werden. Beispielsweise läßt sich bei einer Sensormatrix mit 1000 × 1000 Bild­ punkten eine Gesamtlinearität von 1 : 100000 in beiden Richtungen erzielen.
Im übrigen werden kameraseitige hochfrequente Fehler bei der photogrammetrischen Auswertung von Bildern mit ausgedehnten Marken ohnehin weitgehend eliminiert.
Daher sind die von den Kameras her bekannten Kalibrierungs- und Fehlerbeseitigungsverfahren nicht aus­ reichend für Steifenprojektoren geeignet.
In der Tat werden Fehler von Streifenprojektoren in der Literatur weniger behandelt als Kamerafehler. Solange die Streifenprojektoren lediglich als unkalibrierte Muster­ generatoren in photogrammetrischen Mehrkamerasystemen ver­ wendet werden, um das Korrespondenzproblem zu lösen, sind ihre Fehler auch kein Problem.
Will man solche Streifenprojektoren jedoch als hochgenaue Massverkörperung gleichrangig mit einer Digital­ kamera nutzen, dann ist sowohl bei der Entwicklung als auch bei der Modellierung und Kalibrierung große Sorgfalt ange­ bracht.
Zur besseren Einordnung der verschiedenen Fehler unterschiedlicher Projektorprinzipien und zum Verständnis der Probleme der vorliegenden Erfindung, werden die im Zu­ sammenhang mit Streifenprojektoren auftretenden Fehler den bekannten Kameraeigenschaften und -fehlern gegenüber­ gestellt.
Ist der Projektor aufgebaut wie eine Digitalkamera, bei der die bildaufnehmende Maske (CCD-Matrix) durch eine diskrete, bildgebende Maske (z. B. Digital Mirror Device) ersetzt ist, dann kann das photogrammetrische Kameramodell auch zur Beschreibung des Projektors verwendet werden. Ein Projektor nach diesem Modell wäre zwar einfach zu kali­ brieren, liefert aber aus der Sicht der Signalverarbeitung keine optimalen Ergebnisse.
Das Prinzip der Streifenprojektion arbeitet mit einer bildgebenden Projektormaske, die im Idealfall frei program­ mierbare, orts- und wertekontinuierliche Intensitätsver­ teilungen I(ζ,τ) erzeugen kann. Dabei ist, wie in Fig. 1 gezeigt, ζ die Projektorbildkoordinate und τ der Index der sequentiellen Projektion. Damit sollten sich beispielsweise diskrete Stufenfunktionen und auch sinusförmige und andere analoge Gitter mit variabler Frequenz, Amplitude und Phase realisieren lassen, da nur mit bandbegrenzter (am besten sinusförmiger) Modulation eine maximale Ortsauflösung erzielt werden kann. Die fehlende Ortsidentifikation in Y- Richtung, wie aus Fig. 1 ersichtlich, erschwert die Kali­ brierung eines solchen. Projektors. Mit erweiterten photo­ grammetrischen Verfahren wäre dieses Problem aber lösbar wie in R, Malz "High Dynamic Codes, Self Calibration and Autonomous 3D-Sensor Orientation: Three Steps towards fast Optical Reverse Engineering without Mechanical CMMs" Optical 3-D Meas. Techniques, Wien 1995, gezeigt.
Reale Projektoren mit diskreten Streifenprojektoren, die Flüssigkristall-Lichtmodulatoren, translatorisch oder rotatorisch bewegte Glasmasken oder DMD-Matrixmodulatoren verwenden, können Rechteckgitter unterschiedlicher Frequenz und Phase erzeugen, aber keine Analogfunktionen. Trotzdem werden sie in der Praxis auch für Phasenschiebeverfahren eingesetzt. Dabei treten Abweichungen vom idealen Phasen­ wert auf. Wie diese von verschiedenen Einflüssen abhängen, soll nachstehend erläutert werden.
Bei Phasen-Nichtlinearitäten durch diskrete Streifen muß mindestens eine der beteiligten Beleuchtungsstrukturen einen örtlichen Intensitätsgradienten aufweisen, damit eine stetige, inverse Funktion existiert, aus der eine monotone Phase berechnet werden kann. Aus informationstheoretischer Sicht sind hier die trapezförmigen MZX-Funktionen optimal, aus optischer Sicht sind wegen der unvermeidlichen Än­ derungen der örtlichen Bandbreite (Modulationstransfer­ funktion, MTF) Sinusfunktionen vorzuziehen, da deren Phasen-Orts-Kennlinie invariant gegenüber Defokussierungen ist (vgl. FU Malz "Codierte Lichtstrukturen für 3D-Mess­ technik und Inspektion", Berichte aus dem Institut für Technische Optik, Dissertation, Universität Stuttgart, 1992).
Offensichtlich erfüllen Rechteckfunktionen diese Anforderungen nicht, da sich hier bei der Vierphasen­ verschiebung lediglich vier verschiedene Kombinationen ergeben. In diesen Bereichen ist die Ortsableitung der Intensität dI/dξ = 0. Daher ist eine Umkehrfunktion nicht definierbar und der Ort unbestimmt. Die Rechteckprojektion und das Problem der nichtlinearen Phase werden in den Fig. 2a bis 2f veranschaulicht. Die in der Fig. 2f veranschau­ lichte Streifendichte ist etwa dreimal höher als jene in den Fig. 2a-2e. Die Verbindungslinien sind daher nur durch die Darstellung bedingt und haben nichts mit der in Fig. 2e beschriebenen dreieckförmigen Fehlerfunktion zu tun.
Die tiefpassfilternde Modulationstransferfunktion von Projektoroptik, Kameraoptik und Kamerapixel zu nutzen, um aus dem Rechteckgitter ein quasianaloges "Sinusgitter" zu erhalten, ist ein denkbar schlechter Ansatz: Die Tiefpass­ wirkungen von Projektoroptik und Kameraoptik ändern sich extrem mit dem Ort (Defokussierung, räumliche MTF) und der Neigung der Objektoberfläche (virtuelle Streifenfrequenz). Daher ändert sich die Streifenform in praktisch "unvorher­ sehbarer" Weise vom Rechteck über verrundete Trapezformen bis hin zum Sinus.
Es gibt bessere Möglichkeiten, rechteckförmige Masken bereits im Projektor zu "analogisieren", ohne dass sich störende, fokusabhängige Änderungen der Streifenform im Objektraum ergeben wie in R. Malz "Codierte Lichtstrukturen für 3D-Messtechnik und Inspektion", Berichte aus dem Institut für Technische Optik, Dissertation, Universität Stuttgart, 1992 beschrieben.
Die technisch einwandfreie Lösung wäre aber zweifellos eine analoge Maskenfunktion in der Projektor­ bildebene. Sie ist aber technologisch nicht beliebig gut herstellbar.
Weiterhin sind Positionsfehler als Ursachen für Phasenfehler bei realen Projektoren zu berücksichtigen. Insbesondere wirken sich, wie in Fig. 3 gezeigt, Abweichungen der Gitterpositionen auf dem Objekt unmittel­ bar als Messabweichungen aus. Diese Fehler können verschie­ dene Ursachen haben, und zwar:
Periodizitätsfehler bei Glasmasken (mangelhafte Technologie der Maskenherstellung),
Jitter bei der Positionierung linear oder rotatorisch bewegter Glasmasken, Vibrationen bei der Bildaufnahme, Aus­ fransen der Streifen bei LCD-Lichtmodulatoren, Fehl­ justierung der Vorder- und Rückseiten-Elektroden bei LCD- Lichtmodulatoren, Jitter bei der Strahlablenkung und Strahlmodulation bei Laserprojektoren.
Insbesondere werden in der Fig. 3 vier Bildaus­ schnitte mit jeweils einer Periode annähernd sinusförmiger Beleuchtungsmuster beim Phasenschiebeverfahren mit 0, 90, 180 und 270 Grad. Die Binärdarstellung der vier Bildausschnitte zeigt deutlicher die ungleichmäßigen Phasenschritte und die unsymmetrische Streifenform und -breite.
Weitere Effekte, die die Signalqualität beeinträch­ tigen und Messabweichungen verursachen, sind nieder­ frequente, in allen Bildern gleichartige Änderungen der Intensität durch:
Vignettierungen im Beleuchtungs- und Abbildungs­ strahlengang des Projektors (wesentlich stärker ausgeprägt als bei Kameras), winkelabhängige Brechungsverluste an Filtern und veränderliche Polarisationsverluste bei schräger LCD-Durchleuchtung.
Bei der Messung unpräparierter Oberflächen mit optischen Koordinatenmessgeräten nach dem Prinzip der Streifenprojektion ist die Bandbreite der Fehlereinflüsse sehr viel größer als bei der photogrammetrischen Messtechnik mit Signalmarken. Auch kann und sollte man nicht das System für jeden Oberflächentyp separat kalibrieren. Daher ist es umso wichtiger, die Fehler­ einflüsse zu kennen, damit nicht zufällige Abweichungen in den Kalibrieraufnahmen durch den photogrammetrischen Kalibrierprozeß "eingefroren" werden und sich auf nach­ folgende Messungen auswirken.
Anhand der vorstehenden Ausführungen ist es ersichtlich, dass bei auf Streifenprojektion beruhenden optischen 3D-Messsystemen zahlreiche zusätzliche Fehler­ einflüsse im Vergleich zu reinen Kamerasystemen zu beachten und zu kalibrieren sind.
Fehler im Bereich der räumlichen Streifenfrequenz und darüber können wegen ihrer Situationsabhängigkeit prinzi­ piell nicht mit herkömmlichen photogrammetrischen Kali­ briermodellen erfasst und kompensiert werden.
Daher ist es eine Aufgabe der Erfindung die vor­ stehend genannten Probleme zu beseitigen und ein Verfahren zur Verringerung von Messwertabweichungen in optischen Koordinatenmessgeräten bereitzustellen, die insbesondere nach dem Prinzip der Streifenprojektion arbeiten. Diese und weitere der nachstehenden Beschreibung zu entnehmenden Aufgaben werden durch ein Verfahren gemäß den anliegenden Ansprüchen gelöst.
Weitere Merkmale und Vorteile sind deutlicher der folgenden Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung, unter Hinweis auf die beiliegenden Figuren zu entnehmen.
Fig. 1 zeigt ein Beispiel für eine Sequenz von Beleuchtungsmustern mit diskreten und kontinuierlichen Projektormasken.
Fig. 2a zeigt vier Schaltzustände eines LCD-Shutters zur Erzeugung von jeweils einer Periode von Beleuchtungsmustern für das Phasenschiebeverfahren mit 0, 90, 180 und 270 Grad.
Fig. 2b zeigt Rechteck-, trapez- und sinusförmige Intensitätsverläufe, wobei die Phase dem ersten der vier Schaltzustände in Fig. 2a entspricht.
Fig. 2c zeigt eine linear, interpolationsfähige Dekoderkennlinie, die sich für trapezförmige, sinusförmige Modulationen und alle Zwischenformen realisieren lässt. Dabei liefern rechteckförmige oder schwach trapezförmige Modulationen eine mehr oder weniger stufenförmige Dekoder­ kennlinie.
Fig. 2d zeigt eine Abtastung durch die Kamera, die nicht phasenstarr mit der Beleuchtungsmodulation gekoppelt ist.
Fig. 2e zeigt das Ergebnis einer Abtastung gemäß Fig. 2d, wobei sich quasizufällige Dekoderfehler bis zu einer halben Streifenbreite ergeben, die als Messwertrauschen interpretiert werden.
Fig. 2f zeigt die realen Dekoderfehler, die bei der Messung einer ebenen Fläche mit rechteckförmigen Streifen auftreten.
Fig. 3 zeigt den Positionierfehler und unter­ schiedliche Streifenbreiten.
Fig. 4a zeigt die Aufnahmekonfiguration eines Streifenprojektionssystems, bestehend aus einer einzigen Kamera und einem Streifenprojektor.
Fig. 4b zeigt die schematische Darstellung der spektralen Verteilung der Beiträge zum Messfehler aus dem photogrammmetrischen Modell und aus der Linearitäts­ abweichung der Dekoderkennlinie des Systems der Fig. 4a.
Fig. 5a zeigt eine langzeitstabile ebene Kalibrier­ platte.
Fig. 5b zeigt die Dekoderkennlinien für einen reinen Gray-Kode, einen Hybridkode aus Sinus-Phasenschieben und Gray-Kode mit idealer Dekoderkennlinie und ein Beispiel für einen realen Kennlinienverlauf.
Fig. 6a zeigt eine perspektivische Ansicht des virtuellen Kalibrierkörpers, wobei jeder Punkt einer photo­ grammmetrischen Passmarke entspricht. Die Z-Achse weist zum Projektor hin,
Fig. 6b zeigt die Anordnung des flachen Kalibrier­ körpers in den neun Einzelmessungen.
Fig. 7a zeigt ein ζ-Bild einer ebenen Platte mit eingezeichneter Gradientenrichtung (horizontal) und mit Projektionsrichtung (vertikal). Der Dunkel gefärbte Streifen entspricht etwa einer Periode des Sinusgitters. Das helle Rechteck beschränkt den ausgewerteten Bereich. Die starke Diskretisierung der ζ-Werte ist darstellungs­ bedingt.
Fig. 7b zeigt eine Projektion der (u, v) Koordinaten eines ζ-Wertes im Bildkoordinatensystem auf die mittlere Gradientenrichtung Δζ zur Bestimmung der Kennlinie ζ(λ).
Fig. 8a zeigt drei Perioden des systematischen Fehlers Δζ'(λ) auf einer ungeeichten Phasenachse.
Fig. 8b zeigt eine Periode der tiefpassgefilterten systemspezifischen Kennlinie auf einer geeichten Phasen­ achse (ζρ = 512).
Fig. 9a zeigt eine Häufungs-Analyse (nachstehend auch Cluster-Analyse) der ersten fünf Frequenzen des Spektrums von Δζ'(ζ) in Polardarstellung (Winkel = Phase, Radius = Amplitude) mit den jeweiligen Clusterschwerpunkten.
Fig. 9b zeigt den Einfluß der Linearisierung auf das Messergebnis, wobei ein Schnitt durch die Meßwerte einer ebenen Platte mit und ohne Dekoderlinearisierung dargestellt wird.
Fig. 10 zeigt den Zusammenhang zwischen der Phasen­ lage der einzelnen Frequenzkomponenten und dem Projektions­ winkel zur Oberflächennormalen für die ersten vier Ordnun­ gen der Korrekturfunktion, wobei in der Legende die Steigungen der Ausgleichgeraden durch die Ordnung dividiert angegeben sind.
Beschreibung der erfindungsgemäß bevorzugten Ausführungsformen
3D-Streifenprojektionssensoren auf dem heutigen Stand der Technik arbeiten meist mit zwei Kameras und einem unkalibrierten Musterprojektor. Sie verwenden oft eine zeitliche Hybridkodierung die sich aus einem digitalen Gray-Kode und einem Phasenschiebemuster zusammensetzt oder ein Heterodyn-Phasenschiebeverfahren.
Ein anderer Weg, der verschiedene Vorteile besitzt, ist die Verwendung von nur einer einzigen Kamera und einem kalibrierten und somit metrischen Streifenprojektor (nach­ stehend auch als Projektor bezeichnet). Als zusätzliche Schwierigkeit tritt beim Einkamerasystem die Kalibrierung des Streifenprojektors auf. Das Einkamerasystem wird in Fig. 4a dargestellt, wobei die Kamera mit Bezugszeichen 1 und der Streifenprojektor mit 2 bezeichnet wird. Ein zu erfassendes Objekt 4 befindet sich innerhalb des Mess­ volumens 3. Es ist jedoch für den Fachmann auf dem Gebiet verständlich, dass das erfindungsgemäße Verfahren auch in einem Mehrkamerasystem einsetzbar ist, falls eine Kali­ brierung des Streifenprojektors erforderlich sein sollte.
Die systematischen Fehler des Systems der Fig. 4a lassen sich anhand ihrer Raumfrequenzanteile im Fehler­ spektrum wir folgt charakterisieren.
Die niederfrequenten Anteile mit nur wenigen Perioden im Messvolumen 3 werden durch das Abbildungsmodell der Photogrammmetrie beschrieben. Dazu gehören das zugrunde­ liegende Lochkameramodell für Kamera 1 und Projektor 2, sowie die Abbildungskorrekturen für die Linsenverzeich­ nungen.
Am anderen Ende des Raumfrequenzspektrums findet man hauptsächlich die Fehler, die durch Abweichungen des projizierten Streifenmusters von der durch den Dekoder vorgegebenen Idealform verursacht werden.
Untersuchungen der Erfinder haben ergeben, dass diese beiden Fehlerarten, wie in Fig. 4b ersichtlich, im Raum­ frequenzspektrum so deutlich separiert sind, dass die jeweiligen Systemparameter in voneinander unabhängigen Schritten bestimmt werden können. Dadurch verringern sich die Komplexität und Rechenzeit der Kalibrierung deutlich. Eine untere Grenzfrequenz fU der Dekoderfehler lässt sich im Objektraum der Fig. 4 nicht exakt angeben, da sie von der Lage und der Entfernung des Messobjektes abhängt.
Die Anbindung eines Messverfahrens an die Eichkette ist eine Grundvoraussetzung für die Gewinnung konsistenter Messwerte. Die Photogrammmetrie stellt Verfahrensweisen zur Verfügung, die dies auf reproduzierbare Art und Weise mit geringem Aufwand ermöglichen. Dafür benötigt man lediglich einen Längenmaßstab auf dem sich zwei photogrammmetrische Marken befinden deren Abstand genau bekannt ist. Solche Maßstäbe sind auf dem Markt in allen benötigten Längen erhältlich. Eine Möglichkeit um den Maßstab in den Kali­ brierprozess einzubinden, ist die Anfertigung eines lang­ zeitstabilen Kalibrierkörpers (s. Fig. 5a) und seine photo­ grammmetrische Vermessung mit dem Maßstab. Mit diesem Kali­ brierkörper erfolgt schließlich die Kalibrierung des Streifenprojektionssystems.
In der langzeitstabilen ebenen Kalibrierplatte 5 der Fig. 5a entspricht die Kantenlänge in etwa der Größe des Messvolumens 4. Passmarken 6 mit Ringkodierung wurden von der Firma Imetric SA (Schweiz) entwickelt. Zwischen den kodierten Marken 6 befinden sich noch eine große Zahl unkodierter Marken 7, die über ihre relative Lage zu den kodierten Marken 6 identifiziert werden. Die Dekoderkenn­ linien für einen reinen Gray-Kode, einen Hybridkode aus Sinus-Phasenschieben und Gray-Kode mit idealer Dekoderkenn­ linie und ein Beispiel für einen realen Kennlinienverlauf werden in Fig. 5b dargestellt.
Photogrammmetrische Kalibrierung
Nachstehend wird ein Verfahren zur photogram­ metrischen Kalibrierung in Übereinstimmung mit einem bevorzugten Aspekt der Erfindung erläutert.
Das photogrammmetrische Kalibrierverfahren, das hier vorgestellt wird, lässt sich in zwei Abschnitte einteilen: Zum einen die Kamerakalibrierung, die auf herkömmlichen photogrammetrischen Standardverfahren beruht und zum anderen die Bestimmung der Parameter des metrischen Projektors, der dafür als inverse Kamera aufgefasst wird.
Im Rahmen der Kamerakalibrierung wird die innere Orientierung der Kamera durch das verwendete Kameramodell definiert. Üblicherweise ist das eine Lochkamera mit wahlweisen zusätzlichen Verzeichnungskorrekturen (vgl. Bernd Breuckmann, "Bildverarbeitung und optische Meßtechnik in der industriellen Praxis. Franzis-Verlag GmbH", München, 1993, Kap. 7). In Tabelle 1 links ist der erfindungsgemäß verwendete Parametersatz dargestellt. Nach Steffen Abraham et al. "Zur automatischen Modellwahl bei der Kalibrierung von CCD-Kameras" in E. Paulus und F. M. Wahl, Hrsg., Mustererkennung 1997, Informatik Aktuell, Heidelberg, 1997. Deutsche Arbeitsgemeinschaft für Mustererkennung (DAGM), Springerverlag, 19. DAGM-Symposium Braunschweig sind andere Sätze nahezu gleichwertig.
Die Parameter werden aus mehreren Aufnahmen eines flachen Kalibrierkörpers der Fig. 5a durch eine Bündel­ blockausgleichung bestimmt. Die einzelnen Aufnahme­ positionen sind dabei nicht exakt vorgegeben. Es gilt lediglich den Parameterraum aller möglichen Messpositionen, der aus Abstand und Winkel zur Kamera aufgespannt wird, bis zu den Grenzen des Wertebereiches zu erfüllen. Auf das Verfahren soll hier nicht näher eingegangen werden, da es mittlerweile Stand der Technik ist und in Horst A. Beyer "Geometric and Radiometric Analysis of CCD-Camera Based Photogrammetric Close-Range System" Dissertation, ETH Zürich, Institut für Geodäsie und Photogrammetrie, 1992, in W. Wester-Ebbinghaus "Trends in Non-Topographic Photo­ grammetry Systems", Non-Topographic Photogrammetry, American Society for Photogrammetry and Remote Sensing, Falls Church, 1989, oder H. M. Karara, "Science and Engineering Series" Rev. ed. of: Handbook of non­ topographic photogrammetry. 1979 erörtert ist.
Tabelle 1
Die linke Spalte der Tabelle 1 zeigt die Parameter der inneren Orientierung des Kameramodells: Oben stehen die linearen Parameter des Lochkameramodells, unten die physi­ kalisch motivierten nichtlinearen Verzeichnungspolynome (vgl. Bernd Breuckmann, "Bildverarbeitung und optische Meßtechnik in der industriellen Praxis. Franzis-Verlag GmbH", München, 1993, Kap. 7. Rechts sind die Parameter der äußeren Orientierung aufgeführt mit û und als Einheits­ vektoren des Bildkoordinatensystems.
Nunmehr wird erfindungsgemäß die Systemkalibrierung in einem Verfahrensschritt, die äußeren Orientierungen von Kamera und Projektor sowie die innere Orientierung des Projektors bestimmt. Wie bereits in Reinhard W. Malz "High Dynamic Codes, Self Calibarion and Autonomous 3D-Sensor Orientation: Three Steps towards fast Optical Reverse Engineering without Mechanical CMMs", Optical 3-D Meas. Techniques, Wien 1995, oder in R. J. Valkenburg und A. M. McIvor "Accurate 3D measurement using a structured light system", Image and Vision Computing, 16(2): 99-110, 1998 gezeigt wurde, kann ein Projektor kalibriert werden, indem er als inverse Kamera aufgefasst wird. Dabei bringt man zusätzlich zu den Bildkoordinaten die in diesem Fall bekannten zugehörigen Objektkoordinaten in den Bündel­ ausgleich ein. Die Bildkoordinaten des Projektors können nicht direkt bestimmt werden, da man durch den Projektor nicht wie durch die Kamera "hindurchsehen" kann. Man spricht daher auch von den virtuellen Projektorkoordinaten ζ und ξ. Die Berechnung der virtuellen Projektorkoordinaten ζ und ξ wird nachstehend erläutert.
Über die Dekodierung der zeitlich modulierten Beleuchtungssequenz lässt sich jedem Bildpunkt der Kamera eine Projektorbildkoordinate (nachstehend auch "Streifen­ nummer") des Projektors zuordnen. Diese Streifennummer bezeichnet man als ζ-Koordinate. Bei der Hybridkodierung liefert der Gray-Kode den diskreten Anteil von ζ, und das Phasenschieben liefert den kontinuierlichen Anteil. Um eine stetige Kennlinie des Dekoders zu erreichen, muss mindestens eines der Muster eine kontinuierliche Grauwert­ funktion aufweisen. Aus informationstheoretischer Sicht sind hier die trapezförmigen MZX-Funktionen (vgl. Reinhard W. Malz. "Codierte Lichtstrukturen für 3-D-Meßtechnik und Inspektion" Dissertation, Universität Stuttgart, Institut für Technische Optik, 1992, S. 58ff) ideal, aus optischer Sicht sind wegen der unvermeidlichen räumlichen Variation der Modulations-Transfer-Funktion (MTF) Sinusfunktionen vorzuziehen, da deren Phasen-Orts-Kennlinie invariant gegenüber Defokussierung ist. Da man zu jedem Kamerapixel einen ζ-Wert erhält, legt man die ζ-Werte am günstigsten in einer zum Kamerabild analogen Matrixstruktur ζ(u, v) ab. In Fig. 6a ist das ζ-Bild einer ebenen Platte dargestellt.
Um für die Kalibrierung geeignete hochgenaue ζ- Koordinaten zu erhalten, bestimmt man, ähnlich wie bei der Messung der Bildkoordinaten der photogrammmetrischen Marken, eine subpixelgenaue Sub-ζ-Koordinate zu jeder photogrammmetrischen Passmarke im Kamera-Bild. Da die räum­ liche Anordnung der Marken im Koordinatensystem des Kali­ brierkörpers bekannt ist, hat man so für eine Messung die Zuordnung zwischen ζ-Koordinate und dem Objektpunkt.
Die Terme für die Abbildungskorrekturen (s. Tab. 1, links) sind nicht nur von ζ, sondern auch von der un­ bekannten Projektorkoordinate ξ abhängig. Es gab verschie­ dene Ansätze ξ mit speziellen Projektoren zu bestimmen, die gekreuzte Streifenmuster projizieren können wie in Torsten Strutz "Ein genaues aktives optisches Triangulations­ verfahren zur Oberflächenvermessung" Dissertation, Technische Universität Braunschweig, 1993, dargelegt.
Zum einen ist dies nicht mit jeder Projektions­ technologie möglich - man denke an LCD-Streifen-Projektoren oder Projektoren mit Zylinderoptik - zum anderen ist diese Information auch nicht für das Messen mit dem kalibrierten System notwendig. Das legt den Schluss nahe, dass sich die gesuchten Systemparameter auch mit nur sehr geringem Wissen über ξ bestimmen lassen sollten.
Dies wird anschaulich, wenn man sich einen Projektor mit einer perfekten Zylinder-Optik vorstellt: Bei einer Rotation des Projektors um die û-Achse oder einer Translation entlang von verändert sich das projizierte Muster in keiner Weise. In der Realität existiert natürlich keine solche Optik. Darum müssen die Parameter für die Verzeichnungskorrekturen bestimmt werden. Hier hilft es, die Beobachtungen im Bündelausgleich entsprechend ihres Informationsgehaltes bzw. ihrer Zuverlässigkeit zu gewichten. Setzt man die Gewichtung für ζ deutlich höher als für ξ, kann man ξ durch sehr ungefähre Schätzwerte approximieren.
Veranschaulicht man sich das an der Analogie zwischen Kamera und Projektor, entspricht das einer Kamera mit sehr schmalen, langen Pixeln, die nur in eine Richtung genaue Lageinformation liefern kann. In den Bündelausgleich fließt somit über die geschätzte ξ-Koordinate nur die Information über "Oben" und "Unten" ein. Für ein stabiles Konvergenz­ verhalten des Gleichungssystems ist das völlig ausreichend.
Für die weiteren Erläuterungen wird davon ausge­ gangen, dass Kamera und Projektor so montiert sind, dass ihre v-Vektoren nahezu parallel sind und die Projektor­ streifen parallel zu verlaufen. Mit anderen Worten läuft also ζ entlang û und ξ entlang .
Dieses Vorgehen führt zwar zu relativ großen Residuen für die äußeren Orientierungsparameter ϕ(p), κ(p) und yc (p) des Streifenprojektors (s. Tab. 2), das hat aber keinen Einfluss auf die resultierende Messgenauigkeit. Das wird klar, wenn man berücksichtigt, dass ein stark ver­ zeichnendes Objektiv für eine numerische Kopplung zwischen der ξ und ζ-Koordinate sorgt und dadurch auch das Ergebnis der Kalibrierung für ϕ(p), κ(p) und yc (p) verbessert. Andererseits gilt auch, dass bei kleinen Abbildungs­ verzeichnungen ein größerer Fehler für ϕ(p), κ(p) und yc (p) tolerierbar ist. Der resultierende Messfehler wird davon also nicht beeinflusst.
Nachstehend wird der Grundgedanke des virtuellen 3- dimensionalen Kalibierkörpers erläutert. In den voran­ gegangenen Abschnitten wurde gezeigt, wie sich der Zusammenhang zwischen Objektkoordinaten und virtuellen Projektorkoordinaten für eine Messung herstellen lässt. Verfügte man über einen 3-dimensionalen Kalibrierkörper, der das gesamte Messvolumen mit photogrammmetrischen Marken ausfüllt, so würde das für die Systemkalibrierung aus­ reichen.
Die Tabelle 2 zeigt die wichtigsten Residuen einer Kalibrierung des G2000 Sensors. Die Bildpunktresiduen werden beim Bündelausgleich aus der Differenz zwischen den Bildkoordinaten der rückprojizierten Objektkoordinaten und den gemessenen Bildkoordinaten berechnet. Die Kamera wurde mit einem 20 mm Objektiv bevorzugt, der Projektor mit einem 24 mm Objektiv der Firma Nikon bestückt. Der mittlere Messabstand betrug 1 m, das Messvolumen 500 × 500 500 mm3.
Tabelle 2
Ein solcher Kalibrierkörper ist, abgesehen von den Herstellungskosten, nur schwer befriedigend zu konstru­ ieren: Entweder wäre das Messvolumen nur ungenügend mit Marken ausgefüllt oder die Marken würden sich gegenseitig verdecken.
Dieses Problem kann nach einem vorteilhaften Aspekt der Erfindung durch die Verwendung eines virtuellen Kalibrierkörpers umgangen werden. Dabei wird aus mehreren Einzelmessungen eines einfachen (flachen) Kalibrierkörpers ein räumlicher Kalibrierkörper zusammengesetzt. Dazu benö­ tigt man die relative räumliche Orientierung des Kalibrier­ körpers in den einzelnen Messungen. Es gab Ansätze, dieses Wissen über eine präzise mechanische Verfahrenseinheit zu gewinnen wie z. B. in B. Breuckmann et al. in "Präzisions­ kalibrierung von topometrischen Sensoren", LASER 95, München, 19.-23.6., 1995. 6 erläutert. Dadurch verliert man aber wieder den Vorteil des einfachen mechanischen Aufbaus. Außerdem sind solche Verfahrenseinheiten wegen ihrer stabilen Konstruktion im Gegensatz zum Messsystem nur schwer transportierbar, was eine Vor-Ort-Kalibrierung unmöglich macht. Die Philosophie eines freifliegenden Sensors würde so konterkariert.
Die Information über die relative Orientierung der Einzelmessungen lässt sich leicht mit Hilfe der bereits kalibrierten Kamera gewinnen. Dazu nimmt man korres­ pondierend zu jeder Streifenprojektionsmessung des Kali­ brierkörpers ein Graubild mit der Kamera auf und berechnet aus den Kalibrierparametern der Kamera und den bekannten 3D-Koordinaten der Passpunkte einen photogrammmetrischen Rückwärtsschnitt. Als Ergebnis erhält man die äußere Orientierung der Kamera im Koordinatensystem der Kalibrier­ platte.
Legt man nun eine Aufnahmeposition willkürlich als Referenzlage fest, so lassen sich die Objektkoordinaten aller anderen Messungen mit der aus dem Rückwärtsschnitt bekannten äußeren Orientierungen der Kamera in dieses Referenzkoordinatensystem transformieren. Dadurch gewinnt man einen virtuellen Kalibrierkörper, der das ganze Mess­ volumen ausfüllt, wie in der Fig. 6A und 6b gezeigt. Dabei werden besonders vorteilhaft aus den bekannten virtuellen Bildkoordinaten des Projektors und den bekannten Objekt­ koordinaten der zugehörigen Punkte nun die äußere und innere Orientierung des Projektors mit großer Sicherheit bestimmt (S. Tab. 2). Die äußere Orientierung der Kamera wurde bereits über einen Rückwärtsschnitt aus der Referenz­ lage bestimmt. Das gemeinsame Koordinatensystem von Kamera und Projektor sowie des virtuellen Kalibrierkörpers ist das Koordinatensystem der Kalibrierplatte in der Referenzlage. Dieses Koordinatensystem ist nach Abschluss der Kali­ brierung das Sensorkoordinatensystem. Durch dieses Vorgehen fließt ganz zwanglos die Nebenbedingung, dass Kamera und Projektor in einem starren Aufbau verbunden sind, in den Bündelausgleich ein.
In Tabelle 2 sind die Residuen der photo­ grammetrischen Kalibrierung des G2000 Sensors dargestellt. Die Residuen der Kamerakalibrierung liegen im üblichen Rahmen und müssen nicht weiter kommentiert werden.
Beim Projektor ist, wie zu erwarten, Δξ erheblich schlechter als das Δζ. Trotzdem konnte Yc(p) mit guter Genauigkeit bestimmt werden. Auch Δϕ(p) ist hinreichend klein. Diese Ergebnisse zeigen, dass der vorher postulierte Zusammenhang zwischen Informationsgehalt und Genauigkeit durchaus gegeben ist und dass die Kalibrierung von Projek­ toren ohne Kreuzgitter oder ähnliche Hilfskonstruktionen möglich ist.
Linearisierung der Dekoderkennlinie
Die photogrammmetrische Kalibrierung des Streifen­ projektionssystems erfasst lediglich Störungen mit nied­ rigen Raumfrequenzen, wie sie z. B. durch die Linsen­ verzeichnungen oder die äußere Orientierung hervorgerufen werden. Ein Grund hierfür ist die geringe räumliche Auflösung der photogrammmetrischen Messung. Während die Auflösung des Streifenprojektionssystems durch die Pixel­ größe im Objektraum vorgegeben ist, ist die Auflösung der photogrammmetrischen Messung durch die Größe der zur Signalisierung verwendeten Passmarken begrenzt. Diese sind etwa um den Faktor zehn größer als die Pixel des Streifen­ projektionssystems und benötigen zur sicheren Unter­ scheidung noch etwa fünfzehn Pixel Abstand.
Die hochfrequenten systematischen Fehler des Streifenprojektionssystems können somit nicht durch die photogrammmetrische Kalibrierung bestimmt werden. Das ist von Vorteil, da sie so durch ein unabhängiges Verfahren in einem separaten Schritt bestimmt werden können. In den folgenden Abschnitten soll ein Verfahren zur Bestimmung und Beseitigung der hochfrequenten systematischen Fehler vor­ gestellt werden.
Bei der Modellierung der hochfrequenten systema­ tischen Fehler des Messsystems muss den Eigenschaften des Hybridkodes Rechnung getragen werden. Der Gray-Kode liefert aufgrund seiner digitalen Natur keinen Beitrag zum systematischen Messfehler.
Bei der Auswertung des Phasenschiebens (gemäß z. B. einer Kodierung nach der Monash Universität) wird aber davon ausgegangen, dass es sich bei dem projizierten Muster um einen idealen Sinus handelt. Leider existiert derzeit kein Projektionssystem, das sowohl die Projektion des binären Gray-Kode-Musters mit großer Tiefenschärfe ermög­ licht, als auch bei der Sinus-Projektion eine größte Abweichung von der Idealform von weniger als 1/256 (≈ 0,4%) der maximalen Amplitude hat. Man muß also entweder mit der realen Intensitätsfunktion bei der Phasenbestimmung rechnen oder die Phasenwerte über ein Kennlinienmodell korrigieren. Der zweite Ansatz bietet gegenüber dem ersten den Vorteil, dass die Rechenzeit nur bei der Bestimmung der Kennlinie des Systems aufgewandt werden muss und nicht bei der eigentlichen Phasenlagenberechnung während der Messung.
Eine wesentliche Voraussetzung für die Linearisierung der Kennlinie des Phasendekoders ist, dass die Abweichungen nicht durch lokale Phänomene verursacht werden. Das ist bei den im G2000 System eingesetzten mit Elektronenstrahl­ lithographie hergestellten Masken gegeben, trifft aber auch bei anderen Projektortypen, wie LCD-Projektoren zu. Die Kennlinie hat dann die gleiche Periodenlänge wie das Phasenschiebemuster.
Nunmehr wird die Bestimmung der Fehlerfunktion nach einem Aspekt der Erfindung beschrieben. Am einfachsten lässt sich der systematische Fehler an einem ebenen Objekt bestimmen. Das ζ'(u, v)-Bild eines ebenen Objekts, das vom Projektor ungefähr senkrecht beleuchtet wird, ist näherungsweise eine linear ansteigende Rampe, deren Gra­ dient auf dem projizierten Streifenmuster senkrecht steht. Die Fig. 7a und 7b zeigen einen Ausschnitt eines solchen ζ-Bildes.
∇ξ(u, v) ┴ Streifenrichtung (1)
Die Verfasser der vorliegenden Patentanmeldung haben festgestellt, dass bei einem perfekten Projektor/Dekoder- System ∇ζ, zumindest lokal betrachtet, in Betrag und Richtung nahezu konstant bleibt. Geht man entlang der Richtung von ∇ζ durch ζ(u, v), steigt ζ linear an. Beim realen ζ'(u, v) ist dies, aufgrund des überlagerten systematischen Fehlers, nicht der Fall, aber ∇ζ' definert trotzdem die Achse des idealen linearen Verlaufs.
Projiziert man die Bildkoordinaten (u, v) eines Pixels (u, v) auf eine Gerade, die parallel zu ∇ζ ist, ist der Geradenparameter λ proportional zum zugehörigen idealen ζ, wie aus den Fig. 7a und 7b zu ersehen.
Um die Linearitätsbedingung nicht zu verletzen, wählt man für die Projektion erfindungsgemäß einen kleinen Bereich in ζ(u, v) aus. Praktischerweise definiert man diesen Bereich über die Periodenlänge ζp des Phasen­ schiebemusters. Ist das Intervall Iζ der zugelassenen Werte durch
Iζ = [Pminp, Pmaxp] mit Pmin, Pmax ∈IN (2),
gegeben, so sind die Koordinaten der selektierten Pixel durch folgenden Menge definiert:
S = {(u', v')|Pminp ≦ ζ(u', v') < (Pmax + 1).ζp} (3)
Die Mächtigkeit von S, also die Anzahl der selektierten Pixel, ist durch folgendes gegeben:
n = cardS (4)
Der Richtungsvektor der gesuchten Gerade g im Bildkoordinatensystem ist dann der mittlere Gradienten­ vektor (∇ζ über das ausgewählte Gebiet:
Die Gerade g ist somit durch den Richtungsvektor (∇ζ und einen beliebigen Aufpunkt gegeben, der der Einfachheit halber identisch mit dem Ursprung des Koordinatensystems gewählt wird:
g:X = λ.∇ζ (6)
Die so definierte Gerade ist in Fig. 7a als horizontale Linie eingezeichnet.
Jetzt muss man noch den Geradenparameter λ für jedes ζ aus der Menge S (ζ ∈ S) bestimmen. Dieser berechnet sich aus den Bildkoordinaten (u, v) wie folgt:
Trägt man nun ζ'(u, v) über λ(u, v) für alle (u, v) ∈ S auf, erhält man die gesuchte Kennlinie ζ'(λ), inklusive des linearen Anteils auf einer unskalierten Achse λ∝ζ. Bestimmt man den linearen Anteil
l(λ) = α.λ + b (8)
mit einer Ausgleichsgerade und zieht ihn von ζ'(λ) ab, erhält man schließlich den relativen Fehler Δζ'(λ) der in Fig. 8a dargestellt ist:
Δζ'(λ) = ζ'(λ) -l(λ) (9)
Nachstehend wird der erfindungsgemäße Verfahrens­ schritt zur Skalierung der Phasenachse erläutert.
Die Skalierung der λ- oder auch Phasenachse geht bei der Projektion leider verloren. Man weiß aber, dass die ungefähre skalierte Größe der λ-Achse dem Intervall von Iζ in der Gleichung (2) entspricht. Damit läßt sich zwar schon eine ungefähre Skalierung der λ-Achse durchführen. Da ζ'(λ) jedoch bereits die gesuchte Fehlerfunktion enthält, entspricht dies nicht der exakten gesuchten Skalierung.
Diese lässt sich besser durch eine Autokorrelation von drei aufeinanderfolgenden Perioden von Δζ'(λ) berechnen, da die Periodenlänge durch das ebenfalls periodische Fehlersignal nicht verändert wird. Nach der Skalierung steht schliess­ lich die gesuchte Fehlerfunktion Δζ'(ζ) zur Verfügung.
Gemäß der vorliegenden Erfindung wird die Spektral­ analyse des Fehlers in Übereinstimmung mit den Fig. 8a und 8b durchgeführt.
Fig. 8a zeigt deutlich, dass Δζ'(ζ) noch viele hochfrequente Anteile enthält. Interessant für die erfin­ dungsgemäße Korrektur der Dekoderkennlinie sind nur die niederfrequenten Anteile. Darum muss die Funktion zunächst auf ein equidistantes Gitter interpoliert und ihre Spek­ tralanteile mit Hilfe einer Fouriertransformation berechnet werden.
Fig. 9a zeigt die Phasen und Amplituden der fünf niedrigsten Frequenzanteile von Δζ'(ζ) in einer Häufungs- Darstellung (nachstehend auch Cluster-Darstellung). Es wurden 30 bevorzugt benachbarte Streifenperioden einer Messung ausgewertet. Aus den Häufungsschwerpunkten kann man die mittlere Phasenlage und Amplitude der einzelnen Frequenzanteile bestimmen.
Nach einer Tiefpassfilterung wird aus den gemittelten Phasen- und Amplitudenwerten die gesuchte systemspezifische Fehlerfunktion Δζ'(ζ) über die inverse Fouriertransformation berechnet (siehe Fig. 8b). Zieht man diese vom linearen Anteil der Kennlinie ab, ergibt sich schließlich die Systemkennlinie ζk(ζ) die zur Korrektur der Messwerte ein­ gesetzt werden kann:
ζk(ζ) = ζ - Δζ'(ζmodζp) (10)
Die Modulo-Operation sorgt dabei für die periodische Fortsetzung von Δζ'(ζ).
Der erfindungsgemäße adaptive Dekoder wird im folgenden unter Bezugnahme auf die Fig. 9b und 10 erläutert, wobei der adaptive Dekoder im Kontext der Anmeldung einen Dekoder bezeichnet, der szenenspezifisch auf Objekteigenschaften und Umgebungsbedingungen angepasst werden kann.
Um ζk(ζ) zur Korrektur des systematischen Fehlers einer Messung einzusetzen, müssen nur die tatsächlichen Messwerte ζ' durch ζk(ζ') ersetzt werden. Das lässt sich ohne großen Rechenaufwand über eine Tabelle implementieren. Die Fig. 9b zeigt das Ergebnis einer solchen Korrektur. Der systematische Fehler wird deutlich verringert. Das lokale Rauschen U95 (d. h. der Abstand zum wahren Messwert, innerhalb dessen sich 95% der Messwerte befinden) reduziert sich etwa um den Faktor zwei: Beim G2000 System geht er von 125 µm auf 65 µm zurück.
Diese einfache Art der Korrektur funktioniert aber nur, wenn die Messsituation für die Bestimmung der Kennlinie die gleiche, wie beim Messen des Objekts war. Das bezieht sich in erster Linie auf den Projektionswinkel zur Oberflächennormalen ω = a -90° (s. Fig. 4a) und auf den Abstand d zum Messobjekt.
Besonders vorteilhaft ist diese Korrekturfunktion auch, wenn sie auch in anderen Messsituationen einsetzbar ist. Denkbar wäre, für alle erdenklichen Messpositionen eine solche Funktion zu bestimmen und im Messbetrieb jeweils die richtige auszuwählen. Da die Funktion aber systemspezifisch ist, wäre für jedes Messsystem zumindest einmal dieser recht langwierige Prozess durchzuführen. Eleganter erscheint die Möglichkeit die Korrekturfunktion in nur einer Situation zu bestimmen und sie über ein Modell auf die anderen Situationen anzupassen.
Dass das möglich ist, zeigen Untersuchungen über einen sehr großen Parameterbereich. Es ergibt sich ein Zusammenhang zwischen dem Projektionswinkel und der Phasen­ lage der einzelnen Frequenzanteile der Korrekturfunktion wie beispielsweise in Fig. 10 gezeigt. Rechnet man die Phasenverschiebungen in Absolutverschiebungen um, zeigt sich, dass sich die gesamte Kennlinie proportional zum Projektionswinkel verschiebt. Die Phasenverschiebung Δψ der Grundfrequenz in Abhängigkeit von ω beträgt:
Δψ(ω) = α.ω (11)
Beim G2000 System ist a ≈ 0,465°/°. Bei einer Änderung des Projektionswinkels um 90° verschiebt sich Δζ'(ζ) also um etwa 41,85° einer Phasenbild-Periodenlänge.
Um das auszugleichen ist eine Rekursion bei der Berechnung der 3D-Koordinaten der Objektpunkte notwendig: Zunächst werden die 3D-Koordinaten ohne Korrektur bestimmt.
Dann kann man aus den 3D-Koordinaten für alle Punkte den lokalen Projektionswinkel ω(u, v)bestimmen. Mit der vorstehenden Formel (11) lautet dann das rekursiv korrigierte ζr:
Daraus kann dann die endgültige 3D-Koordinate berechnet werden.
Robustheit des erfindungsgemäßen Messsystems
Bei der Entwicklung eines Messsystems gilt die größte Aufmerksamkeit meist der erreichbaren Genauigkeit. Dabei wird häufig vernachlässigt, dass die Robustheit eines Messsystems ebenfalls einen Beitrag zur Genauigkeit liefert: Messfehler die durch "falsche" Bedienung oder durch Umgebungs- und Objekteigenschaften jenseits der Systemspezifikation verursacht werden, können die tatsäch­ lich erreichbare Genauigkeit erheblich reduzieren.
Besonders wenn das Messsystem nicht von einem Experten bedient wird, ist es wichtig, solche Einflüsse von vorn­ herein auszuschliessen oder zumindest zu erkennen. Darum wurde bei der Entwicklung des G2000 Systems besonders darauf geachtet, in allen Bereichen robuste Prinzipien für Hardware und Algorithmik einzusetzen. Um den Rahmen dieser Veröffentlichung nicht zu sprengen werden nur einige aus­ gewählte Methoden aus den verschiedenen Bereichen vor­ gestellt.
Das wesentlichste Grundprinzip der optischen Mess­ technik ist das Messen mit Licht. Wo kein Licht ist oder zumindest nicht zum Sensor gestreut oder reflektiert wird kann man nicht messen. Das ist trivial und bedarf keiner weiteren Erläuterung. Daraus folgt auch, dass bei optischen Messverfahren mit eigener Beleuchtung das Umgebungslicht und schwierige Objekteigenschaften die beiden wichtigsten Störquellen sind. Die offensichtlichste Maßnahme zur Erhöhung der Robustheit eines Systems ist die Bereit­ stellung von möglichst viel Licht. Manche Messsysteme benutzen einen Laser als Lichtquelle, mit den bekannten Problemen durch Interferenzen und Specklemuster, sofern diese nicht Teil des Messprinzips sind. Bei der Streifen­ projektion empfiehlt sich darum Weißlicht zur Beleuchtung. Die marktüblichen Lichtquellen sind mit Hochdruck-Queck­ silber- oder -Xenondampflampen bestückt. Sie erreichen Ausgangsleistungen von 20 bis 25 Watt im sichtbaren Spektralbereich.
Will man glänzende, farbige oder im Extremfall sogar schwarze Teile unter Fabrikbedingungen messen, ist das zu wenig. Darum haben wir für das G2000 System eine eigene Lichtquelle mit rund 100 Watt Ausgangsleistung im sicht­ baren Spektrum entwickelt. Das ermöglicht Messungen auch noch bei einer Umgebungshelligkeit von 5 W/m2. Lampen dieses Typs werden üblicherweise für die Materialbearbeitung eingesetzt.
Viele Streifenprojektionssensoren arbeiten mit zwei oder mehr Kameras. Das stellt sich zunächst als Vorteil dar, da mehrere Kameras natürlich auch mehr Information über das Objekt sammeln. Außerdem kann sich in manchen Anwendungen die Kalibration des Projektors erübrigen.
Bei genauerer Betrachtung offenbart das Ein-Kamera- Prinzip jedoch viele Vorteile.
Wenn man bedenkt, dass die räumlichen Koordinaten der Objektoberfläche über eine Grauwertkorrelation der ein­ zelnen Bilder bestimmt werden, zeigt sich, dass das nur bei nahezu perfekt diffus reflektierenden Oberflächen befrie­ digend funktioniert. Hat die Oberfläche ein richtungs­ abhängiges Streuverhalten, ist eine Korrelation der Inten­ sitäten, die aus verschiedenen Beobachtungsrichtungen gemessen wurden, ungenau oder sogar unmöglich. Ein extremes Beispiel sind metallische Oberflächen: Hier kann die eine Kamera ein schwach gestreutes Signal vom Projektor sehen, während die Andere genau in ein Glanzlicht blickt. Beide Kameras sehen dann auf dem selben Objektpunkt eine um mehrere Größenordnungen verschiedene Intensität. Eine Korrelation dieser beiden Messwerte ist nicht mehr möglich. Dieses Phänomen findet sich bei fast allen technischen Oberflächen. Eine Abhilfe ist das Weißeln der Objekte, was nicht immer möglich bzw. gern gesehen ist.
Ein Streifenprojektionssystem mit einer Kamera umgeht diese Problematik völlig. Es bleiben zwar noch die Glanz­ lichter, die die eine Kamera sieht, aber wie man selbst an diesen Stellen noch messen kann, wird nachstehend im Abschnitt "Erweiterte Belichtungsdynamik" erläutert.
Ein weiterer Vorteil des Ein-Kamera-Prinzips ist die Verringerung von Abschattungen. Bei zwei Kameras und einem Projektor existieren drei Lichtwege, die durch das Objekt unterbrochen werden können. Für den Bediener ist es, vor allem bei komplizierten Objekten, eine schwierige Aufgabe die Abschattungsfreiheit aller Lichtwege zu gewährleisten. Bei nur einer Kamera ist das erheblich einfacher: Die Kontrolle des einen Kamerabildes genügt um alle messbaren und nicht messbaren Flächen auf einen Blick zu erkennen.
Schließlich ermöglicht das Ein-Kamera-Prinzip eine rein lokale Auswertung der Messdaten. Es finden keine Korrelationen oder sonstige Verknüpfungen von benachbarten Messpunkten statt, die die Auflösung reduzieren. Jedes Kamerapixel liefert einen unabhängigen Messwert. Mit einem solchen System ließe sich sogar ein Igel vermessen!
Erweiterte Belichtungsdynamik
Wie im vorrangegangen Abschnitt erwähnt, stellen technische Oberflächen hohe Ansprüche bezüglich der Helligkeitsdynamik an Kamera und Digitalisiereinheit. Auch wenn auf dem Markt längst Systeme mit zehn oder gar zwölf Bit Dynamikumfang zur Verfügung stehen, ist der Standard noch die acht Bit Kamera. So auch beim G2000 System. Der Grauwertbereich der Kamera beträgt 28. Nimmt man an, dass die dunkelste noch mit dem Dekoder auswertbare Intensität gmin um einen Faktor D1 geringer ist als die hellste noch messbare Intensität gmax, so ist
der Dynamikumfang in einem Bild. Beim 62000 System ist D1 ≈ 20. Die Dynamik der Bilder von technischen Objekten kann aber bis zu 106 oder mehr erreichen. Um wenigstens einen Teil dieses großen Bereichs abzudecken, empfiehlt sich der Einsatz von Kameras mit variabler Belichtungszeit. Nimmt man mehrere Bilder der selben Szene mit jeweils um den Faktor zwei abnehmender Belichtungszeit auf, hat man anschließend die Möglichkeit für jedes Pixel die passende Belichtungsstufe auszuwählen. Der Dynamikumfang beträgt dann bei b Belichtungsstufen:
Erfahrungsgemäß genügen drei Belichtungsstufen für normale und sieben für schwierige Objekte wie z. B. frisch gefräste Turbinenschaufeln. Ein angenehmer Nebeneffekt ist, dass das Einstellen der Belichtungszeit durch den Benutzer entfällt, da fast der komplette Dynamikbereich der Kamera in einer Messung abgedeckt wird.
Automatische Fehlerdetektion
Zur automatischen Fehlerdetektion (sogenannte "blunder detection") existieren verschiedene Methoden (s. Hans Pelzer. "Überprüfung von Ausgleichsmodellen", Kapitel 2, Seiten 121-152, Konrad Wittwer, Stuttgart, 1985 und Wolfgang Förstner "Image Analysis Techniques for Digital Photogrammetry" In F. Ackermann und O. Berndt-Wiele, Hrsg., Proceedings of the 42nd Photogrammetric Week at Stuttgart Unzversity, Seiten 205-221, Kepplerstr. 11, Stuttgart, Germany, 9 1989. Institut für Photogrammetrie der Universität Stuttgart), die in der Photogrammmetrie schon länger erfolgreich benutzt werden. Sie sind immer dann anwendbar, wenn ein mathematisches Modell an Messwerte angepasst wird. Die Abweichungen der Einzelmesswerte zum Modell nennt man Residuen. Meist benutzt man für die Anpassung eine Variante der Methode der kleinsten Fehler­ quadrate. Sind die Daten normalverteilt liefert dieses Verfahren sehr gute Ergebnisse. Häufig sind der Normal­ verteilung aber wenige Ausreißer mit sehr großen Residuen überlagert. Da die Residuen quadratisch in die Modell­ anpassung eingehen, fließen diese Messwerte trotz ihrer relativ kleinen Anzahl überproportional in das Ergebnis ein.
Ein anschauliches Beispiel für solch eine Modell­ anpassung ist die Bestimmung einer Ausgleichsgerade. Ein einziger Ausreisser kann hier schon zu einer deutlichen "Schieflage" der Gerade führen.
Ein einfacher statistischer Ansatz zur Fehler­ erkennung soll hier vorgestellt werden.
Nachstehend wird der Algorithmus für die automatische Fehlerdetektion erklärt. Die automatische Fehlerdetektion arbeitet iterativ: Zunächst wird das Modell an alle Mess­ werte xi angepasst und die zugehörigen Residuen Δxi berechnet. Dann wird die Standardabweichung σΔ x der Residuen bestimmt. Anschließend werden alle Messwerte ent­ fernt, für die gilt:
Δxi = < k.σΔ x ∧ Δxi < Δxmin (15)
Für k = 1 würde das bei einer Normalverteilung etwa 1/3 aller Messwerte betreffen. Üblicherweise wählt man k im Intervall [3. .5]. Dieser Vorgang wird so lange wiederholt, bis keine Punkte mehr zu entfernen sind. Die absolute Grenze Δxmin dient lediglich als sicheres Abbruchkriterium, aber im Allgemeinen ist Δxmin « k.σΔ x.
Die Einsatzgebiete der vorliegenden Erfindung sind vielfältig. Typischerweise wird die automatische Fehler­ detektion gemäß der Erfindung in einem G2000 System an verschiedenen Stellen im Kalibrierprozess eingesetzt. Im photogrammmetrischen Bündelausgleich wird sie sowohl für die Kamera- als auch für die Systemkalibrierung benutzt. Dort werden die Bildkoordinaten von Passmarken aus dem Gleichungssystem entfernt, die nicht vertrauenswürdig erscheinen. Bei der Linearisierung der Dekoderkennlinie wird sie zur genaueren Bestimmung des mittleren Gradienten verwendet. Die Erfahrung zeigt, dass die Zuverlässigkeit dieser ohne Benutzerkontrolle ablaufenden Prozesse dadurch erheblich gesteigert werden konnte.
Obwohl das erfindungsgemäße Kalibrier- und Mess­ verfahren bevorzugt in Ein-Kamera-Systemen eingesetzt wird, ist es keineswegs beabsichtigt die Erfindung auf derartige Systeme zu beschränken. Vielmehr ist es für den Durch­ schnittsfachmann klar, dass das vorliegende Kalibrier- und Messverfahren in Mehr-Kamera-Systemen Verwendung finden kann.
Das vorgestellte Kalibrierverfahren ermöglicht die einfache und zuverlässige Kalibrierung von Streifen­ projektionssensoren unter minimalen Anforderungen an die Mustervielfalt des Projektors. Der virtuelle Kalibrier­ körper hat sich als preiswerte, praktische und qualitativ hochwertige Alternative zu mechanisch positionierten oder anderen Volumenkalibrierkörpern erwiesen. Die Kalibrierung kann von Nicht-Experten oder automatisch von preiswerten ungenauen Positioniereinrichtungen durchgeführt werden. Durch die Linearisierung der Dekoderkennlinie konnte, wie bereits erwähnt, das lokale Messrauschen (U95 - der Abstand zum wahren Messwert, innerhalb dessen sich 95% der Mess­ werte befinden) von 120 µm auf 60 µm reduziert werden. Das liegt nur wenig über der durch das Quantisierungsintervall von ζ im G2000 System vorgegebenen Grenze von 25 µm. Hier besteht sicherlich noch weiterer Optimierungsbedarf.
Weiterhin stellt das Verfahren gemäß der vorliegenden Erfindung Verfahrensweisen zur Verfügung, die das G2000 System robuster und alltagstauglicher machen.
Wegen der großen Vielfalt an möglichen Situationen mit denen ein optisches Messsystem im Alltag konfrontiert wird, kann das vorliegende Verfahren vielerlei für den Durchschnittsfachmann offensichtliche Änderungen erfahren, um dessen Einsatzgebiet zu erweitern.
Denkbar wären z. B. Expertensysteme die auf Fehler­ zustände und Fehlbedienung mit einer gewissen Intelligenz reagieren und den Benutzer so von einem Teil des notwendigen Expertenwissens entlasten.

Claims (16)

1. Verfahren zur Verringerung von systematischen, räumlich hochfrequenten Messwertabweichungen, die in optischen Koordinatenmessgeräten nach dem Prinzip der Streifenprojektion mit einem Streifenprojektor, mindestens einer Kamera und einem zur Auswertung der von der Kamera herrührenden Bilder angeschlossenen Decoder auftreten, wobei das Verfahren folgende Schritte umfasst:
Bestimmung einer relativen Fehlerfunktion (Δζ'(λ)) des Decoders anhand der realen Abbildung (ζ(u, v)) eines idealen Referenzobjekts im Decoder in einem Bereich der Abbildung (ζ(u, v)), der in etwa einer Periode (ζp) des Phasenschiebemusters des Streifenprojektors entspricht;
Skalierung der relativen Fehlerfunktion (Δζ'(λ)) in Bezug auf die Phasenachse (λ) der relativen Fehlerfunktion (Δζ'(λ)) zum Erhalt einer Fehlerfunktion (Δζ'(ζ));
Bestimmung einer messsystemspezifischen Kennlinie (ζk(ζ)) durch Beseitigung der hochfrequenten Anteile der Fehlerfunktion (Δζ'(ζ)); und
Substitution der realen Abbildung (ζ(u, v)) eines beliebigen Meßobjekts durch eine tatsächliche Decoder­ abbildung (ζ'(u, v)) des beliebigen Meßobjekts mittels der messsystemspezifischen Kennlinie (ζk(ζ)).
2. Verfahren nach Anspruch 1, wobei die Skalierung der relativen Fehlerfunktion (Δζ'(λ)) durch eine Autokorrelation von drei aufeinanderfolgenden Perioden der relativen Fehlerfunktion (Δζ'(λ)) berechnet wird.
3. Verfahren nach Anspruch 1 oder 2, wobei der Streifenprojektor ausgebildet ist, um einen Gray-Code zusammen mit einem - vorzugsweise periodengleichen - phasenverschobenen Code zu erzeugen, und wobei die Messwertabweichung durch den phasenverschobenen Code verursacht wird.
4. Verfahren nach einem oder mehreren der Ansprüche 1-3, wobei die Bestimmung einer relativen Fehlerfunktion (Δζ'(λ)) des Decoders einen Schritt zur Bestimmung des Gradienten (Δζ(u, v)) der realen Abbildung (ζ(u, v)) des idealen Referenzobjekts umfasst.
5. Verfahren nach Anspruch 4, wobei der Gradient (Δζ(u, v)) der realen Abbildung (ζ(u, v)) im wesentlichen senkrecht zur Streifenrichtung des Streifenprojektors verläuft.
6. Verfahren nach Anspruch 4 oder 5, wobei die Bestimmung der relativen Fehlerfunktion (Δζ'(λ)) des Decoders weiterhin einen Schritt zur Projektion der realen Abbildung (ζ(u, v)) auf eine Gerade umfasst, die parallel zum Gradienten (Δζ(u, v)) der realen Abbildung (ζ(u, v)) verläuft, und wobei die Projektion in einem Bereich der Abbildung (ζ(u, v)) durchgeführt wird, der in etwa der Periode (ζp) des Phasenschiebemusters des Streifen­ projektors entspricht.
7. Verfahren nach einem oder mehreren der Ansprüche 1-6, wobei die Bestimmung einer messsystemspezifischen Kennlinie (ζk(ζ)) den Schritt der Interpolation der Fehlerfunktion (Δζ'(ζ)) auf ein äquidistantes Gitter sowie den Schritt der Berechnung der Spektralanteile der Fehlerfunktion (Δζ'(ζ)) durch eine Fouriertransformation umfasst.
8. Verfahren nach Anspruch 7, das weiterhin die Bestimmung der mittleren Phasenlagen und Amplituden der Frequenzanteile der Fouriertransformation umfasst gefolgt von der Tiefpassfilterung der gemittelten Phasenlagen und Amplituden.
9. Verfahren nach einem oder mehreren der Ansprüche 1-8, wobei der Schritt der Substitution der realen Abbildung (ζ(u, v)) des beliebigen Meßobjekts durch eine tatsächliche Decoderabbildung (ζ'(u, v)) des beliebigen Meßobjekts mittels der messsystemspezifischen Kennlinie (ζk(ζ)) in einer Tabelle implementiert ist.
10. Verfahren zur Verringerung von systematischen, räumlich hochfrequenten Messwertabweichungen, die in optischen Koordinatenmessgeräten nach dem Prinzip der Streifenprojektion mit einem Streifenprojektor, mindestens einer Kamera und einem zur Auswertung der von der Kamera herrührenden Bilder angeschlossenen Decoder auftreten, das die Bestimmung einer relativen Fehlerfunktion (Δζ'(λ)) des Decoders anhand der realen Abbildung (ζ(u, v)) eines idealen Referenzobjekts im Decoder in einem kleinen Bereich der Abbildung (ζ(u, v)) umfasst.
11. Verfahren nach Anspruch 10, wobei der kleine Bereich in etwa einer Periode (ζp) des Phasenschiebemusters des Streifenprojektors entspricht.
12. Verfahren nach Anspruch 10 oder 11, das weiterhin einen Schritt zur Skalierung der relativen Fehlerfunktion (Δζ'(λ)) zum Erhalt einer Fehlerfunktion (Δζ'(ζ)) umfasst.
13. Verfahren nach Anspruch 12, das weiterhin einen Schritt zur Bestimmung einer messsystemspezifischen Kennlinie (ζk(ζ)) durch Beseitigung der hochfrequenten Anteile der Fehlerfunktion (Δζ'(ζ)) umfasst.
14. Verfahren nach Anspruch 13, das einen Schritt der Substitution der realen Abbildung (ζ(u, v)) des beliebigen Meßobjekts durch eine tatsächliche Decoderabbildung (ζ'(u, v)) des beliebigen Meßobjekts mittels der messsystemspezifischen Kennlinie (ζk(ζ)) umfasst.
15. Verfahren nach einem oder mehreren der Ansprüche 1-14, wobei der Projektor mit mittels Elektronenstrahllithographie hergestellten Masken ausgestattet ist oder wobei der Projektor aus einem LCD- Projektor besteht.
16. Verfahren zur Verringerung von systematischen, räumlich hochfrequenten Messwertabweichungen, die in opti­ schen Koordinatenmessgeräten nach dem Prinzip der Streifen­ projektion mit einem Streifenprojektor, mindestens einer Kamera und einem zur Auswertung der von der Kamera herrühr­ enden Bilder angeschlossenen Decoder auftreten, das die Berechnung einer messsystemspezifischen Kennlinie (ζk(ζ)) zur Bereitstellung eines adaptiven Dekoders umfasst.
DE1999156192 1999-11-23 1999-11-23 Robustes erweitertes Kalibrier- und Messverfahren Expired - Lifetime DE19956192C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1999156192 DE19956192C2 (de) 1999-11-23 1999-11-23 Robustes erweitertes Kalibrier- und Messverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1999156192 DE19956192C2 (de) 1999-11-23 1999-11-23 Robustes erweitertes Kalibrier- und Messverfahren

Publications (2)

Publication Number Publication Date
DE19956192A1 true DE19956192A1 (de) 2001-06-07
DE19956192C2 DE19956192C2 (de) 2003-04-17

Family

ID=7929959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1999156192 Expired - Lifetime DE19956192C2 (de) 1999-11-23 1999-11-23 Robustes erweitertes Kalibrier- und Messverfahren

Country Status (1)

Country Link
DE (1) DE19956192C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117086500A (zh) * 2023-08-17 2023-11-21 深圳市大德激光技术有限公司 一种激光蚀刻设备电气控制系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005009049A1 (de) * 2005-02-28 2006-08-31 Carl Zeiss Ag Projektionsvorrichtung und Projektionsverfahren

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19536294C2 (de) * 1995-09-29 2003-12-18 Daimler Chrysler Ag Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117086500A (zh) * 2023-08-17 2023-11-21 深圳市大德激光技术有限公司 一种激光蚀刻设备电气控制系统

Also Published As

Publication number Publication date
DE19956192C2 (de) 2003-04-17

Similar Documents

Publication Publication Date Title
EP0451474B1 (de) Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
EP0445618B1 (de) Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
DE19536297C2 (de) Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE4108944A1 (de) Verfahren und einrichtung zur beruehrungslosen erfassung der oberflaechengestalt von diffus streuenden objekten
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
CH626169A5 (de)
DE2209667B2 (de) Einrichtung zur berührungslosen Messung
DE102006042311B4 (de) Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
DE102012002161A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten
DE102007058590B4 (de) Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts und Aufnahmevorrichtung
DE19956912A1 (de) Winkelmeßsystem und Winkelmeßverfahren zur berührungslosen Winkelmessung
EP3907466A1 (de) 3d-sensor und verfahren zur erfassung von dreidimensionalen bilddaten eines objekts
Kahlmann Range imaging metrology: Investigation, calibration and development
DE102009019871B4 (de) Hilfsvorrichtung zur Feinjustierung eines Laserstrahls auf einen vorgebbaren Zielpunkt
EP3711289A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE19956192C2 (de) Robustes erweitertes Kalibrier- und Messverfahren
DE3016478C2 (de)
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
EP3571464B1 (de) Vorrichtung und verfahren zur kalibrierung eines messgerätes mittels projizierter muster mit virtueller ebene
DE102012001307A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen
DE102019116506A1 (de) Stereokamerasystem
WO2012076182A1 (de) Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen
DE1623357A1 (de) Vermessungs- oder Erkundungsgeraet

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3D IMAGING TECHNOLOGIES GMBH, CREMINES, CH

8328 Change in the person/name/address of the agent

Representative=s name: SEFFER, A., RECHTSANW., 60549 FRANKFURT

R071 Expiry of right